2025年10月下旬,Meta AI部门意外宣布裁员600个职位,波及核心研究总监,同时掌管AI业务的高管纷纷离职或边缘化,连图灵奖得主Yann LeCun也被认为地位不稳。
一方面,扎克伯格以亿美元年薪抢夺AI人才,另一方面却果断裁员,这种看似割裂的行为背后究竟隐藏着什么?
为此,我们专访了Meta前FAIR研究总监AI科学家田渊栋、参与Llama 3后训练的前员工Gavin Wang、硅谷资深HR专家及匿名人士,试图还原Meta的Llama开源路线真相:
为何Llama 3惊艳众人,而一年后的Llama 4却表现平平?期间发生了什么?Meta的开源路线是否从一开始就注定失误?在AI大模型激战当下,乌托邦式的AI研究实验室还能生存吗?
首先,解析Meta对AI布局的整体公司架构。
2013年底,扎克伯格着手构建Meta的AI团队。当时,谷歌收购了Geoffrey Hinton的DNN团队,招入Hinton;与此同时,Meta邀请Yann Lecun坐镇AI发展。至此,图灵奖三巨头中的两位步入商业科技领域主导AI研发。
扎克伯格邀请Yann LeCun加入Meta时,后者提出三个条件:
1.不离开纽约;
2.保留纽约大学职位;
3.必须开展开放研究,公开发布所有工作,并将代码开源。
因此,Meta从一开始就确立了开源路线。Yann LeCun加入后,着手前沿AI研发,组建了Fundamental AI Research实验室(FAIR),主导人工智能前沿探索。
田渊栋
前Meta基础AI研究(FAIR)团队研究总监:
FAIR专注于前沿研究,探索当前看似无直接应用但蕴含新想法、新算法、新框架或新模型架构的领域。这些探索可能带来重大突破,这是基本逻辑。
但对Meta而言,最终需看到AI在产品中的进展。因此,与FAIR平行设置了“Generative AI”(GenAI)组。
该组包含不同功能团队:Llama开源模型研发、将AI能力集成到产品的Meta AI团队、AI算力基建的数据中心团队,以及其他小部门如Search(搜索)、Enterprise(企业服务)、Video-gen(文生视频)模型等。
GenAI与FAIR形成天平:一边是前沿科研,一边是产品化。理想情况下,前沿研究提升产品力,产品盈利后管理层更愿拨款给FAIR研发。
田渊栋
前Meta基础AI研究(FAIR)团队研究总监:
例如,FAIR会提供创新想法给GenAI,后者将其融入生产,用于下一代模型。许多人的初心是探索不同方向,能否真正实现AGI(通用人工智能)?这是一个宏大问题。
陈茜
硅谷101联合创始人:
因此,FAIR的目标是AGI,而GenAI旨在将AI融入Meta现有产品,发挥效应。
田渊栋
前Meta基础AI研究(FAIR)团队研究总监:
对,主要一方面是大模型Llama,另一方面是如何将AI有效应用于具体场景。
然而,保持这种天平平衡是理想化状态。前提是Meta的AI模型需保持领先,至少开源赛道领先,且不落后闭源模型太多。
陈茜
硅谷101联合创始人:
你在FAIR最快乐的时光是什么时候?
田渊栋
前Meta基础AI研究(FAIR)团队研究总监:
从入职FAIR到2022年,我很开心。大语言模型兴起后,生态和研究者关系变化,算力成为关键因素。
算力有限导致矛盾:大家需训练大模型,资源分配引发问题,如卡多卡少影响模型质量。2023年后,状态不如从前。
Meta的AI天平如何失衡?从Llama四代发布中可见端倪。
Meta将大语言模型命名为“Llama”,据称因Large Language Model缩写“LLM”发音不便,补上元音字母。“Llama”易记易传播,自此大模型与“羊驼”关联。
Llama 1为Meta大模型“开源”路线奠基。
2023年2月24日,Meta发布Llama模型,主打“更小参数更好效果”(多规模:7B/13B/33B/65B),强调13B模型在多项基准上超越175B参数的GPT-3。
发布一周后,权重在4chan上以种子形式“泄露”,引发AI社区对开源模型广泛讨论,甚至招致国会参议员质询Meta。
尽管有质疑,业界对Llama“意外泄露”出奇支持,被视为“大模型开源”格局重塑,迅速催生众多民间微调项目。
解释大模型“开源”定义:Meta并非完全开源,称为“开放权重”(Open weights)。
机器学习中,有三部分:结构(architecture)、权重(weights)和代码(code)。“权重”是模型学习到的参数数值。训练后,参数存为巨大二进制文件,每文件保存神经网络每层矩阵数值。推理时,模型代码加载权重文件,用GPU进行矩阵运算生成文本。
因此,“开放权重”意味着向公众提供训练好的参数文件,外界可本地加载、部署和微调,但非完全“开源”。真正开源需公开训练数据、代码和许可等。Meta未公开这些信息,后续Llama 2、3、4代仅开放权重,许可证政策略有松动。
相比OpenAI、Anthropic和谷歌等完全闭源、仅通过API提供模型服务的公司,Llama“半开源”为开源社区注入旺盛活力。
2023年7月28日,Meta联合微软发布大模型Llama 2,含7B、13B和70B参数变体。
新一代模型“开源”仍为“开放权重”,但对比Llama 1不可商用、仅限研究,Llama 2免费可商用,放宽许可证权限。Wired等杂志指出,Llama 2让“开放路线”对抗封闭模型巨头成为现实。
Llama 2迅速风靡开发者社区,可得性显著放大生态和AI开发。
之后是2024年Llama 3,Llama系列最辉煌时刻。
进入Llama 3时代,Meta成为AI开源社区顶流。2024年4月至9月,Meta连发三个版本迭代。
2024年4月18日,Meta发布8B、70B规格Llama 3版本,称同等规模“显著超越Llama 2”,并作为Meta AI助手底座之一。
7月23日,Meta推出405B、70B、8B三档Llama 3.1模型,宣称405B是“全球最强开放可得基础模型”之一;同步登陆AWS Bedrock、IBM watsonx等平台。
仅两月后,2024年9月25日,Meta推出Llama 3.2,主打小而全多模态,新增1B与3B轻量文本模型与1B与90B视觉多模态模型,面向终端/边缘场景;AWS等平台同步接入,开源框架OLlama可本地运行。
采访Llama 3团队Gavin Wang,他负责后训练工作,表示当时GenAI团队以“光速”前进,真有“AI一天,人间一年”之感。
Gavin Wang
前Meta AI工程师,从事Llama 3后训练:
Llama 3.1/3.2进展显著,如多模态发布,以及轻量化模型1B/3B。产品化生态取得很大进展,社群广泛支持,包括朋友在Llama Stack团队专支持Llama生态在企业级或小企业级落地。
Llama 3强势出击,特别是405B版本被认为在模型能力上逼近闭源阵营,也被认为将快速推动AI应用落地。对Meta内部员工,尤其Llama组AI工程师,这是值得骄傲的项目。
Gavin Wang
前Meta AI工程师,从事Llama 3后训练:
当时叙事是,Meta是大厂中唯一坚持开源的模型,对整个开源生态贡献显著。许多人觉得这不仅是一份工作,更是支持AI前沿发展,每件事都充满意义,我非常自豪。出去说我在做Llama 3团队,创业公司创始人常感谢我的努力。感觉整个技术圈,尤其AI创业圈,都指望Llama。
Meta乘势而上,期望Llama 4发布进一步扩大在AI开发社区影响力,保持“顶尖大模型中唯一开源存在”。
扎克伯格在2025年1月底财报会议后发帖称,“我们对Llama 3的目标是使开源与封闭模型竞争,而对Llama 4的目标是领先。”
然而,三个月后Llama 4发布,却是彻底灾难和滑铁卢。
2025年4月5日,Meta推出Llama 4两个版本(Scout与Maverick),宣称多模态与长上下文能力大幅跃进,宣传中高调引用LMArena排行榜领先成绩:Maverick版本仅次于Gemini 2.5 Pro,与ChatGPT 4o和Grok 3 Pro并列第二。
但很快,开发者社区反馈负面,认为Llama 4效果不及预期。流言质疑Meta在LMArena上冲到第二的版本作弊,怀疑是经过优化的变体,经过对话强化训练,存在误导LMArena、导致过拟合现象。
尽管Meta高层迅速否认作弊,但影响迅速发酵:一方面,媒体视此为“用特调版本刷榜”的“诱饵换包”,行业对基准公信力与可复现性讨论升温;另一方面,Meta更高端Behemoth版本推迟发布,公关与节奏严重受挫。
截至目前,Behemoth仍未发布,Meta似已放弃。
随后,扎克伯格孤注一掷大手笔收购Scale AI,挖来Alexander Wang领导新AI架构,用亿美元支票挖人,疯狂搅局硅谷AI人才市场。
再后是最近新闻,Alex重组整个Meta AI架构,裁掉600人。
但看时间线,仍觉割裂:Llama 3到Llama 4一年中,发生了什么?Llama 4为何突然不行?
通过复盘,或找到答案。前文提到Meta内部AI架构是天平?Llama 4失败原因正是:天平失衡。
Meta的AI架构中,FAIR和GenAI是并行两组,Yann Lecun管FAIR,但他常沉浸研发,网上与马斯克等人对战,常说不看好LLM路线,让Meta头疼。
于是,2023年2月,Meta高层将Meta AI研究负责人Joelle Pineau调到FAIR,担任全球负责人,与Yann LeCun共同领导FAIR。
GenAI负责人是Ahmad Al-Dahle,此前在苹果工作近17年,扎克伯格挖他来旨在将AI与Meta各种产品结合,包括元宇宙、智能眼镜AI整合及聊天工具meta.ai等。
经历Llama 2成功,公司研发Llama 3过程中,Meta高层越来越强调“将AI用于自家产品”属性。
2024年1月,Meta AI团队重组,FAIR两名负责人开始直接向Meta首席产品官(CPO)Chris Cox汇报。
Gavin Wang
前Meta AI工程师,从事Llama 3后训练:
整个Llama 1~3是一个时代,大家疯狂追逐缩放法则,行业追随基础模型能力提升,探索大语言模型能力边界。但Meta领导层,如扎克伯格和CPO Chris Cox,很早就意识到大语言模型能力需落地,真正为社会创造价值,他们从产品力出发。
因此,Llama 2和3阶段,GenAI核心目标是让研究成果真正产品化、工程化。最高管理层,包括副总裁、高级总监,多由产品背景和工程背景的人领导。
Llama 3成功推出后,Meta高层制定Llama 4路线时,所有注意力集中在与产品结合,即多模态能力,从而忽视了对模型推理能力的重视。
就在Llama 3到4研发过程中,2024年9月12日,OpenAI推出基于思维链的o1系列模型;2024年12月,中国DeepSeek开源模型横空出世,用MOE混合专家架构在保证推理能力下大幅降低模型成本。
陈茜
硅谷101联合创始人:
你在被拉去救火Llama 4前,手上研究什么?
田渊栋
前Meta基础AI研究(FAIR)团队研究总监:
我们做关于推理的研究,主要涉及思维链形态和训练方式。o1是去年9月推出,但在那之前,我们就注意到非常长的思维链会对模型缩放法则产生影响。
事实上,FAIR组中,田渊栋等研究员已着手思维链研究,但这类推理能力前沿探索未及时传达至Llama模型工程。
Gavin Wang
前Meta AI工程师,从事Llama 3后训练:
规划Llama 4时,感觉领导层方向有变。总体他们仍想支持Meta重点推的产品,即Llama生态,多模态是重点。但DeepSeek在1月横空出世,推理能力非常强。
推理能力当时也是讨论方向,但因Meta生态更看重多模态,未重点做推理。DeepSeek出现后,据说他们讨论是否重新捡起推理,但优先级冲突,时间有限,导致加班尝试,非常忙。DeepSeek出现肯定造成公司资源和优先级管理混乱。
另一点,Llama 1~3整个模型和组织架构延续初始设计。但因Llama 3成功,大家希望Llama 4更进一步,做更大工程。这时可能出问题:公司较高层,如副总裁、资深总监,多具传统基础架构、计算机视觉背景,自然语言处理背景者少。
因此,技术层面对AI原生技术或大语言模型缺乏深度理解。真正懂行的是下面做事的博士,尤其华人博士技术扎实,但话语权和内部资源有限。可能造成外行管理内行局面。
因OpenAI的o1系列和DeepSeek出现,Meta在2025年初乱阵脚。高层临时让FAIR研究团队支援Llama 4研发,或直接“救火”,此“救火团队”由田渊栋带队。
田渊栋
前Meta基础AI研究(FAIR)团队研究总监:
一大教训是,此类项目不能让不懂的人领导或规划。若出问题,应说:好,我们此时不发布,往后拖。应拖到能正常运作才发布,而非先定deadline,否则很多事情做不好。
我们组很多人非常累,如我在加州,有团队成员在东部时区,他们晚上12点给我打电话,那边已凌晨3点,还在干活,非常辛苦。deadline压得很紧:计划某天发布,项目管理从后往前倒推,看2月底或3月初必须做什么、3月底做什么。
但做这些时,若发现模型某方面不行或数据有问题,很大问题是如何让大家因这句话停下来。如我说数据有问题,不能用,得换数据。这样多出事,得把整个事延后一两个星期。在强deadline压力下,最终结果可能是这事做不了,或大家无法提出异议,最终质量变差。这是较大问题。
陈茜
硅谷101联合创始人:
为何Meta对deadline有如此强压力?开源模型已是第一。当然,DeepSeek年初出现,大家未料到。但为何有强deadline说必须此时推出?
田渊栋
前Meta基础AI研究(FAIR)团队研究总监:
应该说有高层定下的deadline,但我不便说,可能需问相关人,懂的都懂。
我们基本有答案:从Llama 3开始,“将AI产品化”路线已定,整个模型注重多模态和应用,忙于整合应用和业务,却忽略推理和更前沿技术研发。这使天平另一边的FAIR团队不得不跨组“救火”,天平失衡。
田渊栋
前Meta基础AI研究(FAIR)团队研究总监:
但实际情况因前沿模型竞争太激烈,很难真用FAIR文章。虽有些文章被用到,但交流中仍存问题。我在FAIR时,有时发信息给GenAI的人,他们不理我,什么情况?但真去GenAI后,我觉得确实我也没法理他们(FAIR研究员)。
因太忙,如我半小时不看手机,可能有20条、30条消息要看,很多人找,很多事情决定。所以我能理解,在GenAI环境下,很难有长期思考过程。
扎克伯格如何修复失衡天平?他直接空降特种部队:由Alex Wang带队的TBD团队。
Meta的AI业务架构再次重组后,高层经历一系列动荡。
Alex Wang带领几十位高薪聘请的顶级研究员,单独成立在Meta内部拥有无限特权和优先级别的特别小组TBD。TBD、FAIR和GenAI组成Meta Superintelligence Labs(MSL部门),直接向Alex汇报,Alex直接向扎克伯格汇报。
这意味着,FAIR的Yann LeCun如今向Alex汇报,而Joelle Pineau此前被要求向GenAI组负责人Ahmad汇报。
我们看到,Joelle已在今年5月离职,去Cohere任首席AI官;Ahmad许久无声,未任命负责重要项目;CPO Chris Cox也被Alex抢风头,排除在AI团队直接领导者之外。
因此,现在架构是28岁Alex一人独大局面的局面。
我们听过Meta内部对Alex和这支特权小组的各种不满,包括TBD团队可三年不做绩效考评、可不理其他VP信息、Meta AI所有论文需经TBD审核才能发表。
要知道,TBD中不少人较年轻,这让许多资深研究员不满,内部政治斗争似将再起。
但不可否认,特权等号后是成绩。对扎克伯格而言,成绩不仅是Make Llama Great Again,而是“Meta必须赢”。
在这场AI竞赛中,此次重组对扎克伯格或许是最后也是最重要机会。Alex在内部邮件中写到将做三个改变:
1.集中TBD和FAIR团队的核心基础研究力量;
2.提升产品和应用研发融合、且继续以产品为模型聚焦点;
3.成立核心基建团队支持研究押注。
Tom Zhang
硅谷资深人才专家:
第一条是把基础研究、TBD Lab和FAIR更集中化,让两者更紧密结合。因此,这次裁掉的一些研究人员,邮件上说,可能他们的项目影响力不高。再做前沿研究,但与当前无关,因许多前沿研究高度抽象,从数学或理论角度,与工程离得较远。
第二个是把产品和模型更紧密结合,与Alex Wang一起进来的人包括GitHub原CEO。扎克伯格同时引进两个高端人才:Alex Wang管模型;GitHub前CEO Nat Friedman偏产品,因产品才能给模型更好反馈,在使用中形成飞轮效应。
第三条是组建统一核心基础设施(Infra)团队,把管卡的数据中心团队更集中化。过去可能很散,好几个领导在,要卡得申请。现在卡的事也统一管理。这封邮件写得很清楚。
Alex能否撑起扎克伯格押注?或许很快有答案。
总结:Meta在Llama前三代仍是领先的开源模型,引领开源派对抗OpenAI和谷歌Gemini等闭源派。
然而,Llama 3大获成功后,公司高层急于将AI结合产品化,规划路线时用“产品驱动研发”思维,将Llama 4升级聚焦多模态等工程性能,却错失思维链(CoT)等推理上的前沿技术时间优势。
虽田渊栋等FAIR的AI科学家已在研究CoT,等DeepSeek引发轰动后,又将FAIR田渊栋团队临时救火优化Llama 4上的MoE架构,反中断CoT和推理研发,导致AI前沿技术研究和产品工程这架天平彻底失衡。
采访中,我脑中不止一次闪过历史上那些闪耀一时的前沿实验室:贝尔实验室、IBM Watson Research、HP实验室等,但基本都因无法平衡前沿科研和商业化而衰落。十多年历史的FAIR,曾是一群理想化AI科学家的乌托邦,如今又成另一商业化牺牲品。
你认为这场由Llama 4失败引发的大重组,是Meta AI的最后机会吗?欢迎在评论区留言告诉我们。
本文由主机测评网于2026-01-22发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260119566.html