表面上,人工智能正在飞速跃进;但鲜为人知的是,这场科技竞赛的背后,是一群“隐形”劳动者在默默支撑。马斯克的xAI大规模裁员并转向专家标注,谷歌的外包工人被迫处理负面暴力内容。人工智能的辉煌,实则是无数普通人辛勤劳动的堆砌。
近日,马斯克的xAI公司内部爆出大规模裁员消息。
在数据标注团队中,500名通用标注员一夜之间被解雇,导致Slack群聊人数从1500人锐减至1000人。
与此同时,xAI宣布将招募规模扩大10倍的“专业导师”团队,以推动AI模型优化。
数据标注不仅是xAI训练大型语言模型(LLM)的核心环节,也是Gemini、Llama等主流大模型迭代的关键基石。
然而,很少有人了解,在Gemini等模型霸占榜单的背后,数据标注员正承受着日益增长的工作量和心理压力,甚至不得不接触大量涉及暴力、色情等负面信息。
在光鲜亮丽的大模型表象下,这些幕后付出的数据标注员们,正面临无情的压榨与忽视。
根据Business Insider报道,周五深夜,xAI突然裁减了约500名数据标注员,占团队总人数的三分之一。
这些员工原本负责培训Grok模型,帮助其理解世界运作。
公司通过邮件宣布战略转型:未来将不再依赖大多数“通用导师”,而是重点扩充“专家导师”队伍。
被裁员工立即被切断系统访问权限,仅能获得合同到期或11月底的工资补偿。
值得注意的是,裁员前几天,团队管理层也发生人事变动,新领导要求员工完成一系列临时测试,以决定去留。
测试内容涵盖STEM(科学、技术、工程、数学)到“网络喷子与沉迷者”等范畴,部分员工甚至被要求通宵完成。
只要xAI不再需要,哪怕前一天还在为AI输入知识,第二天就可能被移除群聊,失去工作。
与此同时,英国卫报近期报道了谷歌背后数据标注员的劳工权益问题,这些工人因nano banana等案例备受关注。
与xAI的“干脆利落”不同,谷歌的AI外包体系更像一张“隐形网络”,将工人笼罩其中。
许多工人原本应聘“写作”或“分析”岗位,但上岗首日就被分配审核Gemini生成的暴力、色情内容。
任务时间从原本的30分钟压缩到15分钟甚至更短,每天需处理数百条回答,工作强度极大。
不少数据标注员被迫处理陌生领域的问题,这引发他们对大模型输出质量的担忧。
有工人透露,审核内容涉及强奸、杀戮、种族歧视等“轻描淡写”的提问,导致焦虑和失眠。
美国的“AI评估员”起薪为16美元/小时,虽高于非洲或南美同行,但远低于硅谷工程师水平。
有工人形象比喻:“AI是建立在一层层人类劳动之上的金字塔。”他们处于中间层,既不可或缺,又随时面临替代风险。
AI企业一方面高调承诺“安全第一”,另一方面却加速推出新功能,忽视伦理考量。
谷歌的AI在回答“奶酪不粘披萨”问题时,曾建议用户在面团上涂抹胶水;
另一次甚至推荐用户“食用石头”。
工人们表示,这并不意外,因为他们日常处理着更荒谬、更危险的AI回答。
今年年初,谷歌悄然修改规则:允许AI模型复述用户输入的仇恨或色情语言,只要不是AI主动生成,就不算违规。
研究学者Adio Dinika尖锐指出:“AI安全只被优先考虑到影响发展速度的那一刻。一旦威胁利润,安全承诺就会瞬间崩塌。”
在速度与安全之间,企业选择了速度;在效率与尊严之间,工人失去了尊严。
对于我们每个用户而言,下次看到AI的“神奇回答”时,不妨思考一下,背后是谁在“为AI善后”。
参考资料:
https://www.theguardian.com/technology/2025/sep/11/google-gemini-ai-training-humans
https://www.businessinsider.com/elon-musk-xai-layoffs-data-annotators-2025-9
https://x.com/rohanpaul_ai/status/1966943783276396730
本文由主机测评网于2025-12-31发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20251214075.html