曾成功预测次贷危机、做空英伟达的传奇投资人迈克尔·伯里(Michael Burry),携手Anthropic联合创始人杰克·克拉克(Jack Clark)以及知名科技观察家德瓦克什·帕特尔(Dwarkesh Patel),三人展开了一场关于人工智能未来的深度辩论。核心议题是:AI究竟是开启新时代的伟大创举,还是资本堆砌出的海市蜃楼?
AI:是历史性技术革命,还是即将破灭的资本泡沫?
杰克·克拉克率先抛出一个反直觉的观点:“2017年,AI领域的主流思潮是‘白板策略’,即让智能体从零开始,在《星际争霸》《Dota2》等复杂游戏中反复试错,期望它能自发进化出通用智能。”他回忆道,当时DeepMind和OpenAI都全力押注此路线,也确实培育出了超越人类顶尖玩家的游戏AI。但事实证明,这条路径并未通向通用人工智能的彼岸。
真正改写游戏规则的是另一条截然不同的技术路径:大规模预训练与Transformer架构的结合,以及缩放定律的发现。
《Attention Is All You Need》论文提出的Transformer模型,使得超大规模训练变得前所未有的高效;而缩放定律则揭示了一个简洁而深刻的真理——模型的能力与投入的数据量和算力呈可预测的正相关关系,这种关系甚至可以被精确量化。
杰克·克拉克强调:“现在的AI能力仅仅是它的起点,而非终点!今天Claude或GPT-4的表现,只是未来能力的‘地板’。如果你上一次体验AI还是几个月前,那么你对前沿技术的认知已经严重滞后。”这种惊人的迭代速度,促使各大AI实验室重新聚焦智能体(Agent)研发,但这一次,它们站在了预训练大模型这个巨人的肩膀上。
DeepMind的SIMA2已能自如探索3D虚拟环境,Claude Code则可自主完成编程任务。这些智能体的底层智慧,均源自强大的预训练模型——正如杰克所说,好比每一个未来的《星际争霸》AI,都早已通读过中文原版的《孙子兵法》。
然而,就在讨论氛围被技术突破的兴奋点燃时,迈克尔·伯里泼来一盆冷水。他讲述了一个巴菲特的故事:
沃伦·巴菲特在20世纪60年代末经营一家百货商店。当街对面的竞争对手安装了自动扶梯后,他也被迫跟进。最终,双方都为此付出了高昂成本,却未能获得任何持久的竞争优势——利润率没有提升,成本结构也未改善,两家商店依然处于同一起跑线。
这个“自动扶梯理论”精准击中了当前AI投资狂潮的要害。伯里指出,当所有科技巨头都在FOMO(错失恐惧症)驱动下疯狂采购GPU、建设数据中心时,没有人能真正构建起持久的竞争壁垒。“因为你的竞争对手在做同样的事,最终AI能力只会沦为商业运营的必备成本,而非利润之源。”
伯里援引的数据更令人心惊:“英伟达售出了价值4000亿美元的芯片,但终端AI产品的总收入尚不足1000亿美元。”在他看来,4:1的基础设施与应用收入比,正是泡沫的典型标志。更严峻的是,芯片迭代周期已缩短至一年,今天斥巨资建设的数据中心,两三年后可能沦为“搁浅资产”。
他特别点名微软CEO萨提亚·纳德拉的一句话:“我撤回了一些项目并放慢建设速度,因为我不想在这一代芯片上被锁定四五年折旧。”伯里认为,这是最确凿的证据——连最激进的投资者也开始担忧资本陷阱。
伯里强调,他最看重的指标是ROIC(投入资本回报率),这是衡量企业增长空间的黄金标准。过去,微软、谷歌等软件巨头拥有极高的ROIC,因为软件边际成本趋近于零,一旦开发完成便可持续产生现金流。但AI颠覆了这一模式——这些公司正蜕变为资本密集型的硬件企业,必须不断投入巨资购买GPU、建设数据中心、支付高昂电费。
纳德拉在采访中曾表示,希望借助AI在沉重的资本支出周期中维持ROIC,但伯里回应:“我看不到任何实现的可能性,对纳德拉而言,这也不过是一个美好的愿望。”更隐蔽的问题是股权薪酬(SBC)。伯里估算,英伟达约一半的账面利润被股权薪酬侵蚀。“当一半员工身价达到2500万美元时,他们的生产力提升还能被合理计量吗?扣除真实的SBC成本后,这些AI明星企业的利润率将大幅缩水。”
德瓦克什试图反驳:“为什么ROIC比绝对回报更重要?AI已将科技公司的潜在市场从广告(约4000亿美元)扩展到整个劳动力市场(数十万亿美元)。”但伯里坚持:“如果一家公司靠举债或烧光现金流进行低回报投资,它只是虚胖,市盈率最终会跌至8倍——那些没有增长前景的传统企业的水平。”
关于AI是否真正提升生产力,讨论陷入数据的迷雾。Anthropic对内部开发者调查显示,60%的Claude使用者自称生产力提升50%。但METR的独立研究发现,开发者在熟悉代码库中使用AI工具后,合并Pull Request的时间反而增加了20%。
杰克·克拉克坦诚:“数据相互矛盾且稀疏。人们的主观感受可能与客观现实南辕北辙——自我报告的生产力暴涨,恰恰可能掩盖了真实生产力的停滞甚至下降。Anthropic正在开发新型监测工具,希望在2026年拿出研究成果,澄清真相。”
德瓦克什提出更深层疑问:“如果AI真能让开发者效率提升10倍,为何三大AI实验室(OpenAI、Anthropic、谷歌)的竞争反而比以往任何时候都激烈?要么内部‘吃自家狗粮’无法形成护城河,要么AI的生产力增益远小于表面数据。”
最讽刺的是就业市场的沉默。德瓦克什说:“如果你在2017年给我看Gemini 3或Claude 4.5,我会以为它能让一半白领失业。但现在AI对劳动力市场的影响,需要用‘电子显微镜’才能勉强看到。工业革命曾导致义务教育年限延长,以延缓年轻人进入劳动力市场,而AI革命至今未引发任何类似的社会震荡。”
如果说这场讨论有一个让所有人震惊的共识,那就是谷歌的意外落后。《Attention Is All You Need》的八位作者全部来自谷歌,谷歌拥有搜索、Gmail、安卓的海量数据,拥有TPU芯片,甚至早已开发出内部大语言模型。然而,就是这样一家技术积淀雄厚的巨头,却眼睁睁看着OpenAI凭借一个ChatGPT聊天机器人引爆了AI革命。伯里难以置信:“谷歌在AI领域追赶一家初创公司,这简直不可思议。”
更诡异的是,这场革命始于一个聊天机器人。ChatGPT的用例从一开始就很有限——搜索、学生作弊、编程,但它却触发了数万亿美元的基础设施竞赛。伯里打了个比方:“就像有人造了一个原型机器人,然后世界上每个企业都开始为‘机器人未来’疯狂砸钱。”竞争格局也令人困惑。德瓦克什观察到,AI领域的领先优势极不持久——2017年是谷歌,几年前是OpenAI,如今三巨头每隔几个月便轮流登顶。似乎有某种力量(人才挖角、信息流通、逆向工程)在不断抹平任何单一实验室的滚雪球优势。
杰克·克拉克认为,虽然所有实验室都在用AI辅助开发,但存在“木桶效应”:“代码生成提速10倍,但代码审查只提速2倍,整体并未发生质变。”
讨论到最后,三位嘉宾难得达成共识:“能源才是AI发展的终极制约因素。”
我们也曾在文章《谷歌为发电上天了,但AI真的缺电吗?》中论述过相似观点。
伯里给政策制定者的建议异常激进:“拿出1万亿美元,绕过所有抗议和法规,在全国各地布满小型核反应堆,建立全新的国家电网,用核能防御部队保护每个设施。这不仅是为了AI,更是为了国家经济安全。只有廉价充沛的能源,才能让美国在竞争中跟上中国,才有希望通过经济增长偿还国债。”
这个建议将AI议题提升至国家生存的高度。杰克·克拉克强烈赞同:“AI将在经济中扮演重要角色,它从根本上依赖底层基础设施。正如历史上的大规模电气化、道路建设,我们需要为能源做同样的事。大型AI数据中心是新型能源技术的理想测试客户,我特别期待AI能源需求与核技术的融合。”在所有关于模型参数、训练算法、应用场景的辩论背后,电力正成为无法绕过的物理约束。
这场圆桌讨论没有给出标准答案,却留下两个值得深思的问题:
第一,AI的价值最终会流向谁?如果伯里的自动扶梯理论成立,AI供应链上的所有公司都无法获得超额利润,那么价值只会流向终端客户。这对人类整体是好事,但对投资者却是噩梦。而如果杰克·克拉克是对的,AI能力的快速迭代终将形成护城河,那么现在就是押注未来巨头的最佳时机。
第二,我们该相信时间表还是数据?德瓦克什指出,AI实验室的收入增长速度(2026年是400亿还是1000亿美元)比任何基准测试都更能说明问题。但伯里坚持,在看到应用层收入突破5000亿美元或数百万工作岗位被AI取代之前,一切都只是信仰。历史会给出答案,但在那之前,我们都在这场万亿美元的豪赌中各自下注。
全文翻译
主持人帕特里克·麦肯齐(Patrick McKenzie):迈克尔·伯里在众人疯狂买入时精准预测了次贷危机。如今,他注视着数万亿美元涌入AI基础设施,并对此深表怀疑。杰克·克拉克是Anthropic的联合创始人,这家公司正致力于构建AI的未来。德瓦克什·帕特尔采访过从马克·扎克伯格到泰勒·科温的各界人士,试图探寻这一切将走向何方。我们将他们聚集在一个谷歌文档中,由帕特里克·麦肯齐主持,并提出问题:AI究竟是货真价实的革命,还是我们正在目睹一场历史性的资本错配实时上演?
帕特里克·麦肯齐:请各位以过去几年历史学家的身份,简明扼要地叙述自《Attention Is All You Need》(Transformer论文)以来发生了什么。关于2025年的现状,有哪些会让2017年的观众感到惊讶?哪些消息灵通人士的预测没有应验?请像对你所在领域(研究、政策或市场)的人那样讲述这个故事。
杰克·克拉克:回到2017年,大多数人押注通往真正通用系统的路径是:在日益困难的任务课程上从头开始训练智能体,从而创造一个具有通用能力的系统。这在所有主要实验室(如DeepMind和OpenAI)的研究项目中都有体现,他们试图在《星际争霸》、《Dota2》和AlphaGo等游戏中训练超人类玩家。我认为这本质上是一个“白板”(tabularasa)赌注——从一个空白的智能体开始,把它放在某种环境里“烘焙”,直到它变聪明。当然,正如我们现在所知,这并没有真正通向通用智能——但它确实产生了在其训练任务分布内超人类的表现。此时,人们开始尝试另一种方法:在数据集上进行大规模训练,并试图构建能够从这些分布中预测和生成的模型。这种方法最终极其有效,并受到两件关键事情的加速:1. 来自《Attention Is All You Need》的Transformer框架,它使这种大规模预训练效率大大提高;2. “缩放定律”(Scaling Laws)的大致并行发展,即这样一个基本见解:你可以模拟出预训练模型的能力与你投入的基础资源(数据、算力)之间的关系。3. 通过结合Transformer和缩放定律的见解,少数人正确地押注:你可以通过大规模扩展数据和算力来获得通用系统。现在,有趣的是,事情又回到了原点:人们开始再次构建智能体,但这一次,它们被灌输了来自预训练模型的所有见解。DeepMind的SIMA2论文就是一个很好的例子,他们制作了一个用于探索3D环境的通用智能体,它依托于底层的预训练Gemini模型。另一个例子是Claude Code,这是一个编码智能体,其底层能力源自一个大型预训练模型。
帕特里克:由于大语言模型(LLM)是可编程且广泛可用的,包括相对于2017年虽然受限但仍然强大的开源软件(OSS)版本,我们现在已经到了这样一个地步:任何进一步的AI能力开发(或任何其他有趣的事情)都不需要在比我们目前拥有的更差的认知基底上构建。我认为这是业内人士最了解、而政策制定者和外界最不了解的事情之一:“你今天看到的只是地板,不是天花板”。每一个未来的《星际争霸》AI都已经阅读了中文原版的《孙子兵法》,除非其设计者评估认为这会让它在防御虫族快攻时表现更差。
杰克:是的,我们在Anthropic经常对政策制定者说的一句话是“这是它这辈子最差的时候了!”,很难向他们传达这最终有多重要。另一件反直觉的事情是能力提升的速度有多快——目前的一个例子是有多少人正在使用Claude Code中的Opus 4.5,并说着各种版本的“哇,这东西比以前好太多了”。如果你上次玩LLM是在11月,你现在对前沿技术的判断已经严重失准了。
迈克尔·伯里:从我的角度来看,在2017年,AI还不是LLM。AI是通用人工智能(AGI)。我认为那时人们并没有把LLM视为AI。我是看科幻小说长大的,它们预测了很多东西,但没有一个把“AI”描绘成某种搜索密集型的聊天机器人。关于《Attention Is All You Need》及其引入的Transformer模型,这些都是谷歌工程师使用Tensor完成的,早在2010年代中期,AI并不是一个陌生的概念。神经网络、机器学习初创公司很常见,AI在会议中被频繁提及。谷歌早就拥有了大语言模型,只不过是内部使用的。让我感到最大的意外之一是,鉴于谷歌在搜索和Android领域的统治地位,以及在芯片和软件方面的优势,它竟然没有一路领跑。另一个意外是,我原以为专用集成电路(ASIC)会更早被采用,小语言模型(SLM)也会更早被采用。英伟达(NVIDIA)在推理领域能维持这么久的统治地位令人震惊。让我感到最大的意外是ChatGPT开启了这场支出热潮。ChatGPT的用例从一开始就普遍受限——搜索、学生作弊和编程。现在有更适合编程的LLM。但这竟然是一个聊天机器人开启了数万亿美元的支出。说到支出,我认为德瓦克什采访萨提亚·纳德拉(Satya Nadella)的最佳时刻之一是承认所有大型软件公司现在都是硬件公司了,属于资本密集型,我不确定跟踪它们的分析师是否真的知道什么是“维护性资本支出”。
德瓦克什·帕特尔:说得好。AI领域的领先优势如此不可持续,确实令人惊讶。当然,在2017年,谷歌遥遥领先。几年前,OpenAI似乎遥遥领先。似乎有某种力量(可能是人才挖角、谣言工厂或逆向工程)目前为止抵消了任何单一实验室可能拥有的滚雪球优势。相反,三巨头每隔几个月就在领奖台上轮换位置。我很好奇“递归超级智能”是否真的能改变这一点,还是我们应该预期这种激烈的竞争会永远持续下去。
杰克:关于递归,所有前沿实验室都在使用AI工具加速自己的开发人员,但这并不十分利索。它似乎具有“短板效应”——例如,如果你现在能产出10倍的代码,但你的代码审查工具只改进了2倍,你就看不到巨大的加速。一个巨大的悬而未决的问题是是否可能完全闭合这个循环,在这种情况下,你可能会看到某种复利式的研发优势。
AI工具真的能提高生产力吗?
德瓦克什:价值百万美元的问题是:究竟是METR的生产力研究(显示在开发者非常熟悉的代码库中,使用编码工具会导致合并Pull Request的时间大约减少20%),还是独立编码任务的人类等效时间范围(已经在数小时范围内,并且每4到7个月翻一番),更能衡量实验室研究人员和工程师实际上获得的加速?我这里没有直接经验,但我猜更接近前者,因为目前还没有很好的反馈验证循环,而且标准是开放式的(可维护性、品味等)。
杰克:同意,这是一个关键问题——而且数据是相互矛盾且稀疏的。例如,我们在Anthropic对开发人员进行了一项调查,看到受访的60%使用Claude工作的人自称生产力提高了50%。但像METR这样的研究似乎与此相矛盾。我们需要更好的数据,特别是对AI实验室内部和外部开发人员的监测,以了解发生了什么。把视野放宽一点,编码工具的大规模和前所未有的采用确实表明人们从中看到了一些重大的主观益处——如果越来越多的开发人员热情地让自己变得更低效,那是很不合常理的。
德瓦克什:不想在这个问题上钻牛角尖,但自称的生产力远高于——甚至可能与——真实生产力背道而驰,这正是METR研究预测到的。
杰克:是的,同意。不透露太多,我们正在专门考虑监测手段,弄清楚这里的“真相”是什么,因为人们自我报告的内容最终可能与现实不同。希望我们在2026年能在这方面有一些研究产出!
哪家公司会赢?
迈克尔·伯里:你们认为领奖台会继续轮换吗?据我所知,谷歌在AWS和微软的开发者中正赢得青睐。而且公司内部的“搜索惯性”似乎已经被清除了。
德瓦克什:有趣。在我看来竞争比以往任何时候都激烈。X上对Opus 4.5和Gemini 3.5 Pro的评价都很高。对于哪家公司会赢没有定论,但这绝对看起来尚未尘埃落定。
杰克:我也觉得竞争比以往任何时候都激烈!
德瓦克什:很好奇大家对此的看法:Anthropic、OpenAI或谷歌能承受多少次失败的模型训练/哑弹?考虑到需要依靠收入和市场情绪不断融资(顺便问一句:到底是为什么融资?)。
迈克尔·伯里:谷歌搜索的秘密一直在于它非常便宜,因此那些无法货币化的信息搜索(占80%或更多)不会给公司积累亏损。我认为这是目前生成式AI和LLM的根本问题——它们太贵了。很难理解盈利模式是什么,或者任何一个模型的竞争优势将是什么——它是能收费更高,还是运行更便宜?也许谷歌最终会成为那个运行成本最低的公司,并赢得这个最终变成大宗商品经济的市场。
德瓦克什:好观点。特别是如果你认为过去一年的许多/大部分收益是推理规模扩大的结果,这需要指数级增加的可变成本来维持。归根结底,某样东西的价格上限是其替代成本。因此,只有当进步继续保持快速,并且正如杰克所说,最终变得自我复利时,基础模型公司才能收取高利润率(目前它们似乎正在这样做)。
为什么AI还没抢走我们所有的工作?
德瓦克什:自动化工作和做人类所做的事情所涉及的内容之多,真的令人惊讶。我们刚刚跨过了许多关于AGI的常识性定义——图灵测试甚至都不值得评论了;我们拥有的模型可以推理并解决困难的、开放式的编码和数学问题。如果你在2017年向我展示Gemini 3或Claude 4.5 Opus,我会认为它会让一半的白领失业。然而,AI对劳动力市场的影响需要用“电子表格显微镜”才能看到,如果确实存在的话。我也会对AI私人投资的规模和速度感到惊讶。就在几年前,人们还在谈论AGI必须是一个政府主导的“曼哈顿式”项目,因为那是你将经济转化为算力和数据引擎的唯一途径。而目前看来,老式的市场经济完全可以维持多个GDP百分比的AI投资。
迈克尔·伯里:这是一个好点子,德瓦克什,关于图灵测试——那确实讨论了好一阵子。在过去,例如在工业革命和服务业革命期间,对劳动力的影响如此巨大,以至于实行并扩大了义务教育,以便让年轻人更晚进入劳动力市场。我们肯定还没有看到类似的情况。
杰克:是的,德瓦克什和迈克尔·伯里,AI社区的一个真理是,他们不断构建据称能衡量真实智能的困难任务,然后AI系统超越了这些基准,你会发现自己面对的是表面上非常有能力,但仍可能犯下任何人类都会认为是离奇或反直觉错误的东西。最近的一个例子是,根据基准测试,LLM在一系列据称困难的认知任务上得分为“超人类”,但在犯错时无法自我纠正。这现在正在改善,但它说明了AI模型的弱点可以有多么反直觉。而你经常在大规模改进的同时发现它们。
德瓦克什:我想知道反过来是否也成立——人类是否也会可靠地犯下一类LLM会认为是离奇或反直觉的错误,哈哈。LLM实际上是比人类更参差不齐,还是只是以不同的方式参差不齐?
帕特里克:借用德瓦克什书中的一个观察,LLM在一个世俗方面是超人类的,那就是它们说的语言比任何人类都多,而且比几乎所有多语言者能达到的水平都要高。令人难以置信的是,这甚至是偶然发生的,即使实验室没有专门为此进行训练。我见过的最令人目瞪口呆的演示之一是,一个仅在旨在包含英语文档的语料库上训练的LLM,却能够以大致专业翻译的标准将CNN新闻文章翻译成日语。从这个角度来看,一个没有经过礼貌训练的LLM可能会说:“人类真是离奇而参差不齐;看看他们中有多少人生活在一个有书的世界里却不会说日语。”
为什么许多工人没有使用AI
帕特里克:编程似乎是AI广泛工业化采用的前沿,像Cursor这样的公司收入飞速增长,有品味的技术专家开始使用Claude Code和OpenAI Codex等工具,以及围绕“氛围编码”(vibe coding)的氛围。这导致了对AI热情明显的严重不对称,因为大多数人不是程序员。哪个行业接下来会发生变化?什么变化会让这一点在收入、就业或价格中显现出来,而不仅仅是演示?
杰克:编程有一个很好的特性,即相对“闭环”。你使用LLM生成或调整代码,然后验证并推送到生产环境。确实需要更广泛的工具到来,才能让LLM在编程以外的领域呈现这种“闭环”特性。例如,网络搜索能力的创建以及像模型上下文协议(MCP)连接之类的东西的到来,使得LLM能够将其“闭环”效用大规模扩展到编程之外。举个例子,我最近一直在研究各种东西的成本曲线(例如每磅入轨成本,或太阳能每瓦成本),这是你在这些工具出现之前可以用LLM研究的东西,但它有巨大的摩擦,迫使你在LLM和其他所有东西之间来回切换。现在摩擦消除了,你看到了更高的采用率。因此,我预计我们将看到发生在程序员身上的事情更广泛地发生在知识工作者身上。这感觉应该会在科学研究、法律、学术界、咨询和其他领域以一种分散但广泛的方式显现出来。
迈克尔·伯里:归根结底,AI必须由某人购买。外面有人为商品或服务买单。那就是GDP。而这种支出的增长速度是GDP的速度,2%到4%——或许对于拥有定价权的公司会有一些提升,但在AI的未来这似乎不太可能。经济并没有神奇扩张的蛋糕。它们只有算术上受限的蛋糕。没什么花哨的。整个软件蛋糕——运行各种企业和创意功能的SaaS软件——不到1万亿美元。这就是为什么我一直回到基础设施与应用的比例。英伟达出售4000亿美元的芯片,而终端用户的AI产品收入不到1000亿美元。AI必须提高生产力并创造不蚕食其他类别的新支出类别。这都很难做到。AI会足够提高生产力吗?这是有争议的。资本支出周期是基于信仰和错失恐惧症(FOMO)的。目前还没有人用行得通的数字来证明。外面有一个更简单的叙事,即AI会让一切变得更好,支出将会爆炸。它更有可能把支出吸进去。如果AI用50美元的席位取代了500美元的席位许可,这对生产力来说是好事,但对生产力支出是通缩的。而且获得的生产力很可能被所有竞争对手共享。
德瓦克什:迈克尔,这不就是“劳动总量谬误”吗?即认为有固定数量的软件要写,我们可以以此为上限来衡量AI对软件的影响?
迈克尔·伯里:新市场确实会出现,但它们的发展速度比受到强烈激励的未来学家所相信的要慢。这一直是真的。人口统计和总潜在市场(TAM)往往只是脱离现实的营销噱头。中国的人口正在萎缩。欧洲的正在萎缩。美国是唯一一个人口还在增长的主要西方国家,那是因为移民,但这也被政治化了。FOMO是一种很厉害的毒药。你看看Apple或Microsoft的一些评论,似乎他们意识到了这一点。
德瓦克什:插一句,有趣的是,AI恰好在我们正需要它来把我们从未来几十年经济本会陷入的人口结构泥潭中拯救出来的时候出现了。
迈克尔·伯里:是的,德瓦克什。在医疗领域,存在真正的短缺,未来没有希望有足够多的人类医生。好的医疗保健必须变得更便宜,需要技术来扩展真正医疗专业知识的覆盖范围。
工程师会失业吗?
帕特里克:Apple、Amazon、谷歌、Facebook、微软目前雇佣了大约50万名工程师。给出你对2035年这个数字的预测并解释你的思路。或者论证人数是错误的变量,并说出你会追踪的资产负债表或生产力指标。
迈克尔·伯里:从2000年开始,Microsoft的股票在14年里原地踏步,但增加了18000名员工。事实上,Cisco、Dell和Intel的人数几乎没有变化,尽管股价大跌。所以我认为这是错误的变量。它没有告诉我们关于价值创造的任何信息,尤其是对于现金充裕的公司以及处于垄断、双寡头或寡头垄断情况的公司。我认为这(人数)会更低,或者不会高出多少,因为我认为我们正走向一个非常长期的低迷。超大规模企业在2022年股价下跌时解雇了员工,并在股价上涨时雇回了大部分人。这仅仅是几年的事。我会追踪基于股份的薪酬(SBC)的全口径成本,然后再说生产力正在创纪录。在英伟达,我计算出大约一半的利润被与股票挂钩的薪酬消除了,这些薪酬将价值转移给了员工。好吧,如果一半的员工现在身价2500万美元,那么这些员工的生产力收益是多少?更不用说,计入准确SBC成本后的利润率会低得多。压倒一切的指标是投入资本回报率(ROIC),而这些软件公司的ROIC曾经非常高。现在它们正在成为资本密集型的硬件公司,ROIC肯定会下降,这将长期对股价构成压力。没有什么比ROIC的方向——向上还是向下,以及以什么速度——更能预测市场的长期趋势了。现在这些公司的ROIC正在快速下降,这种情况将持续到2035年。在德瓦克什的采访中,萨提亚·纳德拉说他正在寻求通过软件在沉重的资本支出周期中维持ROIC。我看不到这一点,甚至对纳德拉来说,这听起来也只是一个希望。
德瓦克什:问个天真的问题,为什么ROIC比绝对回报更重要?我宁愿拥有一家能够持续增长的大企业(尽管作为投资的一小部分),也不愿拥有一家基本上在印钞票但规模有上限的小企业。许多大型科技公司的ROIC较低,但它们在未来二十年的潜在市场已经从广告(每年4000亿美元收入)增加到劳动力(每年数十万亿美元收入)。
迈克尔·伯里:投入资本回报率是衡量公司还剩下多少机会的指标。从我的角度来看,我见过许多通过举债收购其他公司来做大的整合案例。这让ROIC变得冷酷无情。如果这些购买的回报最终低于债务成本,公司就会像WorldCom一样倒闭。在某个时刻,这种AI建设支出必须产生高于该投资成本的回报,否则就没有增加经济价值。如果一家公司之所以变大是因为它借了更多钱或将所有现金流花在了低回报的事情上,那对投资者来说并不是一个吸引人的品质,倍数将会下降。有许多非科技公司在印钞票,除了通过收购之外没有真正的增长前景,它们的市盈率约为8倍。
钱去哪儿了?
帕特里克:从资本周期的角度来看,你认为我们在AI建设中处于什么位置——早期过度投资、中期洗牌,还是与过去的科技繁荣结构性不同?什么会改变你的想法?
迈克尔·伯里:我确实认为它与之前的繁荣不同,除了资本支出显著短暂这一点。芯片现在每年都在更新换代;今天的数据中心将无法处理几年后的芯片。人们几乎可以争辩说,其中很多应该费用化,而不是资本化。或者在两、三、四年内折旧。另一个巨大的区别是,私人信贷对这场繁荣的融资与公共资本市场一样多或更多。私人信贷是一个模糊的领域,但期限错配非常突出——其中大部分被证券化,好像资产能持续二十年,同时给超大规模企业每四到五年退出的机会。这简直是在自找麻烦。当然,花钱的人是地球上最富有的公司,但无论是来自现金还是资本市场,大笔支出就是大笔支出,计划中的支出压倒了即使是今天巨大的超大规模企业的资产负债表和现金流。此外,在建工程(CIP)现在是我认为已经被使用的一种会计技巧。尚未“投入使用”的资本设备不开始折旧或计入收入。它可以永远在那里。我想象很多搁浅资产将被隐藏在CIP中以保护收入,我认为我们已经看到了这种潜力。在德瓦克什的采访中,纳德拉说他撤回了一些项目并放慢了建设速度,因为他不想在这一代芯片上被卡住四五年的折旧。这有点像是一个确凿的证据声明。我们现在处于周期中期——过了股票会因进一步扩建而奖励投资者的点,正在进入真实成本和收入缺乏开始显现的时期。在过去的周期中,股票和资本市场在大约一半的时候达到顶峰,其余的资本支出发生在对相关资产逐渐悲观或现实的看法降临之际。
德瓦克什:我认为这完全取决于AI是否继续快速改进。如果你真的可以在B200(英伟达的B200 GPU)上运行最高效的人类大脑,那么我们显然投资不足。我认为应用层的收入目前不如关于AI能力本身的原始预测有信息量。
杰克:同意这一点——近年来能力的进步程度令人深感惊讶,并导致了AI利用率的大规模增长。在未来,模型能力可能会有进一步的阶跃式增长,这些可能会对经济产生极其重大的影响。
市场搞错了什么
帕特里克:价值在AI供应链中累积在哪里?这与最近或历史上的技术进步有何不同?你认为市场目前对谁的看法最错误?
迈克尔·伯里:嗯,历史上,在所有行业中,价值都累积给那些拥有持久竞争优势的人,表现为定价权或不可触及的成本或分销优势。目前尚不清楚这里的支出是否会导致这种情况。Warren Buffett在60年代末拥有一家百货商店。当街对面的百货商店装了一部自动扶梯时,他也必须跟着装一部。最终,没人从这个昂贵的项目中获益。利润率没有持久的提升,成本结构也没改善,两家店还是处在完全相同的竞争位置上。这就是大多数AI应用最终的结局。这就是为什么数万亿美元的支出却没有通往实体经济利用的清晰路径如此令人担忧。大多数公司不会受益,因为他们的竞争对手将受益于同样的程度,而没有一方会因此拥有竞争优势。我认为市场对AI的两个典型代表错得最离谱:英伟达和Palantir。这是两家最幸运的公司。他们适应得很好,但他们很幸运,因为当这一切开始时,他们都没有为AI设计产品。但他们正被这样使用。英伟达的优势并不持久。SLM和ASIC是大多数AI用例的未来。如果有必要,它们将向后兼容CUDA。英伟达是在竞争对手带着完全不同的方法进来之前的那个耗电、肮脏的临时解决方案。Palantir的CEO把我比作坏人,因为想象中我对他的公司下了十亿美元的赌注。那不是一个自信的CEO。他正在竭尽全力营销以保持这种势头,但它会滑落。扣除基于股票的薪酬后,几乎没有收益。
德瓦克什:AI实验室是否能从递归自我改进效应中获得持久的竞争优势还有待观察。但是,如果杰克是对的,AI开发人员应该已经看到了巨大的生产力收益,那么为什么现在的竞争比以往任何时候都更激烈?要么是这种内部“吃自家狗粮”无法维持竞争优势,要么是AI的生产力收益比看起来要小。如果结果证明AI堆栈中的任何人都无法获得疯狂的利润,以及AI仍然被证明是一件大事,那么显然价值归于客户。这在我听来很棒。
迈克尔·伯里:在自动扶梯的例子中,唯一的价值归于客户。如果生产者或提供者不能收取垄断租金,情况总是如此。
什么会改变他们的想法
帕特里克:2026年的什么头条新闻——技术上的或金融上的——会让你感到惊讶,并导致你重新校准对AI进展或估值的总体看法?回顾过去,迄今为止最大的意外或重新校准是什么?
迈克尔·伯里:会导致我重新校准的最大意外将是自主AI智能体取代了最大公司的数百万个工作岗位。这会震惊我,但不一定能帮助我理解持久优势在哪里。又是那个巴菲特自动扶梯的例子。另一个将是应用层收入达到5000亿美元或更多,因为“杀手级应用”的激增。目前,我们将看到两件事之一:要么英伟达的芯片能用五到六年,因此人们需要的芯片更少;要么它们只能用两到三年,超大规模企业的收益将崩溃,私人信贷将被摧毁。回顾过去,迄今为止最大的意外是:谷歌没有一路领跑——《Attention Is All You Need》的八位作者都是谷歌员工;他们拥有搜索、Gmail、Android,甚至LLM和芯片,但他们搞砸了,给了条件远不如他们的竞争对手一个机会。谷歌在AI领域追赶一家初创公司:这简直令人难以置信。ChatGPT——一个聊天机器人开启了一场数万亿美元的基础设施竞赛。这就像有人制造了一个原型机器人,然后世界上的每个企业都开始为机器人未来进行投资。英伟达在推理时代仍保持统治地位。我原本预计ASIC和SLM到现在会占主导地位,并且我们将远远超越提示工程。也许对英伟达的迷恋实际上阻碍了参与者。或者英伟达的反竞争行为阻碍了。
德瓦克什:对我来说最大的意外将是:2026年累计AI实验室收入低于400亿美元或高于1000亿美元。这将意味着事情比我预期的要快得多或慢得多。持续学习被解决。不是像GPT-3“解决”上下文学习那样,而是像GPT-5.2在从上下文中理解的能力上实际上几乎像人类一样。如果与模型一起工作就像复制一个已经与你一起工作了六个月的熟练员工,而不是在他工作的第一小时获得他的劳动,我认为这构成了AI能力的巨大解锁。我认为自2020年以来,通往AGI的时间表已经大大缩短。那时,你可以分配一些概率给将GPT-3扩展一千倍并达到AGI,以及一些概率给我们在完全错误的轨道上,必须等到本世纪末。如果进展打破了趋势线,并指向在未来5到20年内出现真正的人类可替代智能,那将是对我来说最大的意外。
杰克:如果“缩放撞墙”,那将是非常令人惊讶的,并将对基础研究范式以及更广泛的AI经济产生非常重大的影响。显然,基础设施的建设,包括为训练未来AI模型而在设施上的巨额投资,表明人们正在押注并非如此。另一件我会觉得惊讶的事情是,如果结合了提高分布式训练效率的技术突破,以及一组参与者聚集了足够的计算机来训练一个非常强大的系统。如果发生这种情况,这将表明你不仅可以拥有开放权重模型,还可以拥有一种开放模型开发形式,即不需要一个巨大的单一实体(例如公司)来训练前沿模型。这将改变AI的政治经济学,并在政策上产生极其重大的影响,特别是在前沿能力的扩散方面。Epoch有一个关于分布式训练的很好的分析,人们可以参考。
他们实际上如何使用LLM
帕特里克:你上一次与LLM进行的职业上重要的互动是什么?如果需要,可以隐去具体细节。在那次互动中,你与LLM的关系如何?
迈克尔·伯里:我现在使用Claude来制作我所有的图表和表格。我会找到原始材料,但我不再花时间创建或设计专业的表格、图表或视觉效果。我仍然不信任数字,需要检查它们,但那个创造性的方面对我来说已经过去了。相关地,我会特别使用Claude来查找原始材料,因为如今很多原始材料不仅仅是在SEC或主流报告中。
帕特里克:我认为金融圈以外的人不理解,花费数十亿美元雇佣世界上一些薪酬最高、受过最好教育的人作为Microsoft PowerPoint和Excel专家是多么普遍。暂时还有价值,也许数据透视表和VLOOKUP()的“暗号”价值会比它们本身持续更久,但我在英格兰银行的演讲也使用LLM制作了所有图表。我们曾经要求人类花费数小时仔细调整它们,这感觉几乎是离奇的。
德瓦克什:它们现在是我的个人一对一导师。我实际上曾尝试为我想准备的不同科目聘请人类导师,我发现LLM的延迟和速度只会带来定性上好得多的体验。我得到的数字等同物,就像人们愿意为Waymo支付比Uber高得多的溢价。这让我倾向于认为,许多工作的人类溢价不仅不会高,实际上甚至是负的。
迈克尔·伯里:关于这一点,许多人指出蓝领职业是防AI的选择。鉴于我现在仅仅在Claude的陪伴下就能在电气工作和家里的其他领域做这么多事情,我不那么确定了。如果我是中产阶级,面临800美元的水管工或电工上门费,我可能会直接用Claude。我喜欢我可以拍张照片并弄清楚我需要做的一切来修复它。
风险、权力以及如何塑造未来
帕特里克:相对知情的人士对AI风险的看法五花八门,从“它可能会在社交媒体上引起一些不快”到“如果中国在一项非常有用的新兴技术及潜在军事应用上击败美国将是一种耻辱”到“下行风险包括对人类珍视的一切的字面终结”。什么最让你彻夜难眠?另外,如果你有五分钟时间与高级政策制定者交谈,你会建议重新分配哪些注意力和资源?
杰克:我主要担心的是人们是否成功地“构建构建AI的AI”——完全闭合AI研发的循环(有时称为递归自我改进AI)。要明确的是,我认为2026年1月地球上出现递归自我改进AI系统的可能性基本上为零,但我们确实看到AI在做AI研究组件方面变得越来越好的早期迹象,从内核开发到自主微调开放权重模型。如果这东西继续变得更好,你最终构建了一个可以构建自己的AI系统,那么AI的发展将非常急剧地加速,并且可能变得更难让人理解。这将带来一系列重大的政策问题,并可能导致世界上归因于AI系统的经济活动出现前所未有的阶跃变化。换句话说,如果我有五分钟时间与政策制定者交谈,我会基本上对他们说:“自我改进的AI听起来像科幻小说,但技术上没有任何东西说这是不可能的,如果它发生了,那将是一件大事,你应该关注它。你应该要求AI公司透明地说明他们在这里究竟看到了什么,并确保你有你信任的第三方可以测试AI系统的这些属性。”
迈克尔·伯里:杰克,我想你可以让政策制定者倾听,我希望他们听进去了。就目前而言,AI并没有让我太担心对人类的风险。我认为聊天机器人有可能让人变笨——使用它们太多的医生开始忘记他们实际的先天医学知识。这不好,但不是灾难性的。涉及AGI或人工超级智能(ASI)的灾难性担忧对我来说并不太令人担忧。我在冷战时期长大,世界随时可能爆炸。我们为此进行过学校演习。我和直升机在我们所有人头顶喷洒马拉硫磷一起踢足球。而且我在30多年前就看过《终结者》。《赤色黎明》似乎是可能的。我想人类会适应的。如果我能让高级政策制定者倾听,我会要求他们拿出1万亿美元(因为万亿现在就像百万一样随便扔),绕过所有的抗议和法规,在全国各地布满小型核反应堆,同时为每个人建立一个全新的、最先进的电网。尽快做到这一点,并用最新的物理和网络安全措施保护这一切免受攻击;甚至可能建立一支专门的核能防御部队来保护每个设施,由联邦资助。这是获得足够电力以跟上中国的唯一希望,也是我们作为一个国家增长足够快以最终偿还债务并保证长期安全的唯一希望,即不让电力成为我们创新的限制因素。
杰克:强烈同意能源部分(尽管我们对其他事情的主观担忧程度可能不同!)。AI将在经济中发挥有意义的作用,它从根本上依赖于底层基础设施将其高效廉价地交付给企业和消费者——类似于过去国家决定进行大规模电气化、道路建设、下水道建设等(大规模资本支出项目!)。我们需要紧急为能源做同样的事情。我也认为大规模AI数据中心是新型能源技术非常有用的测试客户,并且特别高兴看到未来AI能源需求与核技术的融合(双关语!)。更广泛地说,我认为“经济安全就是国家安全”,因此确保我们拥有建设AI经济的基础设施,将对我们的工业基础和整体稳健性产生连锁积极影响。
本文由主机测评网于2026-03-18发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:http://www.vpshk.cn/20260331904.html