2025年10月22日,Meta公司首席执行官马克·扎克伯格正式批准了一项裁员计划,目标直指人工智能部门,约600名员工受到影响。这成为Meta本年度在AI领域规模最大的一次人员调整,主要针对核心研发部门“超智能实验室”。
本篇文章中,我们专访了此次裁员事件的核心人物之一:前FAIR团队研究总监田渊栋。采访不仅涉及Meta内部情况,还深入探讨了资深AI科学家对AI技术路线、未来前沿研究的思考,包括大语言模型发展、开源与闭源策略、研究实验室的定位,以及AI人才在研发与工程之间的选择等话题,旨在为读者提供启发。
关于Meta此次裁员的原因、公司AI开源路线面临的挑战,以及新AI负责人Alex Wang将如何重塑Meta的AI策略等内容,我们在上一篇文章中已详细阐述,欢迎读者延伸阅读。
陈茜:
我看到您还穿着FAIR的服装。
田渊栋:
哈哈,像我这样的人通常不太在意穿着,公司发什么就穿什么。
陈茜:
过去几天您经历了什么?我知道很多人联系您,包括媒体和多家公司,您的心态如何?
田渊栋:
因为在裁员前我已经拿到了其他offer,我提前向上级表达过对现状的不满,并考虑寻找新机会,所以他们知情。因此,被裁我并不惊讶。
我觉得无所谓,反正已有offer。原本计划在Meta多待一段时间,利用GPU算力继续做些工作,但既然被裁,那就顺其自然。
过去两天很多人联系我,探讨合作机会,包括各大公司的高层和小公司的联合创始邀请。
总体机会很多,我还在考虑中。裁员发生不到一周,需要时间思考。
陈茜:
裁员在您意料之中吗?您之前是否预感到了?
田渊栋:
当然在意料之中,否则我不会提前找工作。在Meta工作十年多,这可能正是一个时机,让我出来看看新机会。裁员加速了我的个人选择,原本可能再待半年,现在提前了。
陈茜:
裁员600人,这个数字让我震惊。虽然并非全部裁撤,部分员工可能转组,但AI部门被认为无需这么多岗位,需要重组。
田渊栋:
是的,这反映了行业趋势。AI自动化程度高,随着模型增强,数据标注、系统维护等重复性工作需求减少,自动化工具成熟后,所需人力自然下降。
大趋势是传统工作模式可能消失。例如,创业或领导团队时,AI工具能自动化许多任务,原本需要数百人的工作,现在可能只需少量人员或智能体完成。
因此,从事AI基础执行的人会减少,但探索AI工具应用和垂直领域创新的人会增加。
陈茜:
基础模型研究会减少吗?
田渊栋:
基础模型的探索性研究将增加,但工程化训练的人会减少,因为流程标准化后效率提升。更多精力将转向研究或特定应用创新。
陈茜:
应用层人才也会增长。
田渊栋:
对,但应用需聚焦垂直领域或个性化需求,而非泛化工具。执行层人员因自动化而缩减。
陈茜:
裁员前您在FAIR研究什么?
田渊栋:
今年1月我们协助GenAI团队,主要处理应急工作,如Llama 4相关任务。我个人同时进行外部合作研究,例如分析连续思维链的理论优势,相关论文影响力较大,推动了该领域发展。
陈茜:
开源与闭源未来如何发展?有人认为大公司开源不可行,因为前沿竞争激烈。开源模型会落后吗?
田渊栋:
开源仍会持续,如Reflection AI等公司在推进。关键问题是模型的实际用途。
模型可用于聊天、搜索、科学研发等,大公司可能泛化应用,但小公司可专注垂直领域。模型无需在所有领域都强,只需在特定方向优秀,这导致策略分化。
开源适合构建社区或平台,闭源适合个性化服务。最终取决于公司目标而非泛化优劣。
陈茜:
所以最前沿模型开源竞争较难,但垂直领域开源机会多。
田渊栋:
是的。
陈茜:
LLM是正确的技术路线吗?
田渊栋:
LLM是有趣的路线,但不一定最终正确。科学家总寻求更优方案,而非局限于现有框架。
陈茜:
LLM最大问题是什么?
田渊栋:
最大问题是需要海量数据。人类学习效率远高于模型,人一生处理文本token约百亿级,而模型训练数据达数万亿,差距千倍。人类科学家能以有限数据实现突破,模型却依赖大量样本。
当前训练算法可能非最优,梯度下降或许不是最佳方案。未来可能有新方法改变训练框架,提升数据利用效率。
陈茜:
近期业界对强化学习有争议,如Andrej Karpathy的负面观点,您如何看待?
Andrej Karpathy,图片来源:The Information
田渊栋:
RL本质是搜索过程,能主动生成高质量数据,优于被动学习的监督式微调。在推理问题上,RL能真正学会推理,而SFT可能仅记忆模式。
RL和SFT最终都调整权重,但数据采集方式不同:RL是主动学习,影响数据分布,解决难题更有效。
RL的核心优势是主动学习。Karpathy关于AGI需十年以上的观点我赞同。例如,我用GPT-5通过自我博弈合作研究,但模型缺乏高层人类洞察力,需人类引导才能深入。
陈茜:
模型能否获得顶尖洞察力?
田渊栋:
很难。人类的数据挖掘和洞察能力仍远超模型。专家经验难以量化,AI需人类输入洞察才能进步,目前处于跟随状态。
田渊栋:
Scaling Law预示悲观未来:需指数级资源换取线性提升,最终地球资源可能耗尽。我们应追求更高效的模型,而非依赖计算量。
计算量不是全部,需深化模型理解。行业将逐渐意识这一点。
陈茜:
找到高效智能解法需长时间吗?
田渊栋:
业界在努力。即使模型进展放缓,AI已能自动化大量任务,提升个人能力。未来几年仍有很多机会。
陈茜:
您接下来专注前沿研究还是应用?
田渊栋:
最好结合两者。AI可自动化日常任务,但高级活动如科学问题解决仍需人类洞察。成为“超级研究员”需AI赋能研究,同时工具造福社会。
陈茜:
协助Llama 4前,您在研究什么?
田渊栋:
我们研究推理和思维链,发现长思维链能改善Scaling Law,用更少样本和参数获更好效果。例如,连续空间隐空间推理工作受关注,Dualformer文章提出混合思维模型,现已成为标准。
陈茜:
在FAIR有遗憾吗?
田渊栋:
遗憾是工程工作可做更多。早期我偏工程,如围棋项目,后被批为研究科学家却专注代码。后期转向研究,但当前时代工程能力更受欢迎。
理想是兼具工程与研究能力,我可重新加强工程方面。
最大收获是2018年后培养的科研品位,助我自主设定研究方向,对人生有益。
陈茜:
AI竞争激烈,人才抢夺白热化,如Meta高薪聘人。您认为当前最稀缺的AI人才是什么?
田渊栋:
勿追逐“稀缺性”,因为定义变化快。应聚焦个人兴趣而非市场信号。行业周期缩短,跟随市场可能落后。
结合个人判断与爱好,探索有前景的方向。例如,Yann LeCun曾坐冷板凳后获图灵奖,说明坚持价值。
陈茜:
理想化研究实验室还存在吗?如Ilya Sutskever团队与Sam Altman的商业化对比。
田渊栋:
大厂非铁板一块,内部仍有研究自由。即使FAIR变化,其他组或初创公司可继续探索。研究永续,形式可能如游击战,由小团队推动。
陈茜:
您的下一步计划?
田渊栋:
尚未决定,裁员不到一周,正在考虑。目标是将前沿研究与工程应用结合,先设定高远目标再寻找支撑路径。
陈茜:
期待您的动向。采访至此,祝田渊栋找到平衡角色,也祝AI探索者前行顺利。您认为这样的工作存在吗?欢迎评论。
本文由主机测评网于2026-01-23发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260119748.html