当前位置:首页 > 科技资讯 > 正文

AI前沿之争:推理模型崛起与LLM上限论战

大语言模型是否触及性能天花板?图灵奖得主Yann LeCun与Richard Sutton联合质疑,却遭Transformer架构共同发明者Kaiser强力反驳!

人工智能领域没有寒冬,唯有资本与计算资源的炽热浪潮!

Transformer的火种已持续燃烧七年。如今,推理模型(Reasoning Models)正点燃第二波革命性变革。

Transformer共同作者、OpenAI研究员Łukasz Kaiser预测:

未来一至两年,人工智能将实现飞速跃进——制约因素并非算法,而是GPU与能源供应。

推理模型正在重塑规则,资金与电力,才是决定胜负的关键「硬资源」。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第1张

2017年,Transformer架构横空出世,八位共同作者永载人工智能史册

 

值得注意的是,在ChatGPT问世前加入OpenAI的Łukasz Kaiser,此后一直专注于推理模型研究——他认为这是继2017年Transformer之后最具突破性的进展。

近期,他公开表示「推理模型」仅仅是个开端,还远未到定义人工智能终极形态的时刻。但这或许正是最令人兴奋之处。

我们终于拥有了一种能够思考的机器。现在应让它减少浮夸,更多地去实际完成任务。

万亿美元级别的人工智能路线竞争

这是一场价值万亿美元的人工智能理念之争。

「通用人工智能」,已成为业界多数人追逐的目标——真正具备人类认知水平的通用智能体。

OpenAI持续投入巨资与资源,不断扩展规模,让硅谷陷入「AGI狂热」:大语言模型+海量数据+GPU+能源就等于AGI!

OpenAI发布o3模型时,经济学家Tyler Cowen认为AGI已然诞生,2025年4月16日就是AGI之日。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第2张

即便Karpathy表示「AGI还需再等待十年」,在硅谷湾区也会被视作对人工智能前景过于悲观。

但并非没有反对声音:

称其为沉没成本亦可,称其为包袱偏见也罢,千万别称其为智能。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第3张

硅谷的十万亿美元幻觉

 

强化学习之父、2024年图灵奖得主、《苦涩的教训》作者Richard Sutton断言,大语言模型已走入死胡同。

在他看来,语言大模型并未吸取任何「苦涩的教训」。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第4张

换言之,他指出大语言模型存在关键缺陷:其改进能力存在极限,而这个极限远比普遍认知的要近得多。

图灵奖得主Yann LeCun多年來支持类似观点。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第5张

Ndea人工智能实验室联合创始人、开源深度学习框架Keras之父François Chollet也持相同看法。

大语言模型对AGI而言是条断头路,因此他联合他人发起百万美元AI奖项ARC Prize,旨在让众人回归通向AGI的正确道路。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第6张

近期,Łukasz Kaiser公开反驳了「大语言模型是死胡同」这一观点。

他虽不确定Sutton是否特指推理型大语言模型,但推理模型确实存在根本性突破:它们所需的训练数据量比传统模型少数个数量级。

这类模型能实质性加速科研进程,本可并行开展更多实验,只是我们目前缺乏足够的算力支撑。

归根结底是算力瓶颈,关键制约在于GPU和能源。这才是根本性限制,目前所有实验室都面临相同困境。这就是为何奥特曼疯狂融资的原因。

推理革命

大语言模型推理正引发人工智能领域重大的范式转移。

普通用户很可能从未接触过真正的推理型大语言模型。

即便使用过,也是通过GPT-5的路由系统间接调用,而他们对此并不知情。

推理模型具备以下能力:

能够自我反思并发现自身思维链输出中的错误,从而及时调整推理路径;

当接收到解决复杂问题的指令时,可通过「深度思考」动态分配更多计算资源;

在推理过程中,直接调用外部工具执行操作;

生成多条备选推理路径,并自主筛选最优解。

这已完全不同于GPT-4这类纯自回归大语言模型的时代。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第7张

而且推理模型(Reasoning Models)问世尚不足一年,远未达到潜力上限。

在绝大多数推理密集型任务中,OpenAI的首个推理模型o1显著优于当时最强的通用模型GPT-4o。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第8张

它们不急于开口,会先在脑中「打草稿」——推理、检索、调用工具,如同人类在回答问题前的短暂思考。

在这种模式下,人工智能不仅能接续对话,还能「完成一项任务」:撰写一份报告、排查一段代码、核对数据库。

Łukasz Kaiser将此视为一次静悄悄的范式更替。「这就像从对话生成器,转变为真正的思考者,」他表示。

更让他兴奋的是,推理模型对数据的需求小得多,却能解决更复杂的问题

在数学、程序分析这类结构化任务上,效果尤为明显。

16岁遇见AGI之父,人工智能日新月异

有趣的是,16岁时,Łukasz Kaiser的第一份有偿工作就是为Ben Goertzel编程。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第9张

在2001年前后,Ben Goertzel正式使用并普及了「Artificial General Intelligence」(通用人工智能)这一术语,以区别于当时的「Narrow AI」(狭义人工智能)。

而现今AGI却被理解为能够完成人类所有任务的智能。

但现实是,人工智能与人类智能存在本质差异。

它在某些领域(如游戏、数学题解答)已超越大多数人,但在物理世界相关事务上仍无能为力——

当前的机器人,依旧笨拙不堪。

这种差异化发展或许才是技术演进的常态。

因此,Łukasz Kaiser认为未来发展路径将是:

人工智能能力会持续增强。但至少短期内,在物理世界相关领域仍将存在人类不可替代的工作,无论是技术上还是经济成本上。

比起概念争论,现阶段更值得关注的是推理模型带来的变革。

过去一年最大的突破在于,人工智能已能真正胜任职场中的某些工作任务,并且完成得相当出色——

不仅是秒级响应,更能持续工作数小时产出有价值成果。

这意味着我们可以将待办事项交由人工智能处理,从而提升整体效率。无论是否称之为AGI,人工智能正在变得越来越强大是不争的事实。

编程领域就是最佳例证:自从AI开发者开始聚焦这个方向,进展令人震惊。

无论是Anthropic的Claude还是OpenAI的Codex,现在都能根据需求生成完整程序,耗时仅数小时。

它们擅长理解大型代码库、进行代码审查、发现漏洞甚至安全威胁——这些能力在一年前还难以想象。

回想Claude 3.5约一年前发布时已是划时代突破,当时SWE-Bench基准测试通过率约30%,如今已达75%。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第10张

三个月前,代码模型还只是辅助工具,但现在却能真正处理复杂代码库。这种指数级进步意味着什么,不言而喻。

人工智能发展如此迅速,但有些人开始担心我们正在进入另一个AI冬天。

Łukasz Kaiser却相对乐观。

人工智能的新范式:推理刚刚起步

过去,确实存在Transformer范式,依靠Transformer+规模扩展,创造了ChatGPT。

当然,这种自回归范式,即预测下一个词,并在海量数据上训练越来越大的模型,已经持续多年。

通用的互联网数据,基本上已经被耗尽。它已经在所有这些数据上训练过。谁也无法轻易获得比这多得多的数据。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第11张

但新的推理范式,才刚刚起步。

Łukasz Kaiser认为这个范式如此年轻,以至于它仅仅处在一个非常陡峭的上升路径的起点。

就其未来能力而言,我们已经走了一小段路。所以,我们知道它已经能完成惊人的任务。

但我们还没有真正地充分利用它。我们把它扩大了一点规模,但还可以有更多的扩展。有更多的研究方法可以让它变得更好。所以,在这个新范式中,我们正处在一个陡峭的上升路径上。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第12张

我们正见证新范式的上升趋势,但它需要进一步深入研究:有些研究效果很好,有些则一般,你永远无法预知——这就是研究令人兴奋的部分。

如果你把新旧范式结合起来,那么你就需要开始准备——

AI冬天不会即将来临,甚至在未来一两年内改进可能非常猛烈。

之后,世界将翻天覆地——这几乎有点让人畏惧。

推理的突破确实非常巨大。

这不是偶然。GPT-4之前,OpenAI就开始研究推理模型,因为人们清楚地看到,仅仅纯粹的规模扩展在经济上不可行,我们需要一个新的范式。

Łukasz Kaiser认为现在的推理模型有点像早期的「RNN」,思考仍然是一步一步的

未来,它们需要「多线并行思考」——

GPT-5 Pro已经初步实现了这一点:同时运行多个思维链(chains of thought),然后让它们「讨论」并选出最佳答案。

这种方法可能带来更快、更强的推理能力。

当前的重点:从任意数据中学习

当前推理模型最值得关注的突破点,Łukasz Kaiser认为是「从任意数据中学习」的能力。这是他最近研究的核心。

现行训练方法需要标注数据正确与否,但现实世界的数据大多不像考试题目那样非对即错。

阅读书籍时,人们不会纠结下一段文字是否正确,而是直接理解吸收。这种自然的学习方式才是更理想的范式。

GPT模型主要使用文字信息训练。但OpenAI多模态训练现在进展如何?

目前,ChatGPT确实已经在进行多模态模型训练了。

神经网络把音频编码成离散的音频标记(audio tokens),图像也被编码成图像标记(image tokens)——不是整张图变成一个标记,而是分成多个图像块。

然后模型通过预测下一个标记来进行训练。通过这种方式,它就能生成音频、生成图像。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第13张

而且这套方法有效到让人惊讶。

总体来看,多模态训练确实取得了成功。

早期,生成的图片人物总是有六根手指,图像文字更是惨不忍睹。  

后来,大家增加了训练数据、调整了编码器结构。虽然核心的Transformer序列模型架构没变,但AI生成效果已经突飞猛进。

现在,AI不仅能生成报纸版面的完整文字,音频也能唱歌、耳语、模仿各国口音。虽然偶尔还有瑕疵,但整体效果已经令人惊叹。

如果转向音频和视频训练,数据集规模将实现数量级增长——毕竟视频包含的信息量极其庞大。

但Łukasz Kaiser提醒,视频虽然数据量巨大,但大部分只是颜色、纹理等细节,对推理和理解世界帮助有限

AI需要学会「挑重点」,只提取有意义的部分(例如运动、因果、变化)。

文字让模型理解「抽象世界」(逻辑、语言、思维),视频训练则让它理解「现实世界」(物体、空间、动作、物理规律)。

语言模型已经掌握了对抽象世界的建模,反而最欠缺的是人类最熟悉的物理世界的理解。

填补这个空白至关重要——这不仅能解决许多潜在问题,更是实现实用机器人的关键突破。

谷歌的Gemini 1.5 Robotics,已开始结合推理与视觉。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第14张

机器人会有「快反应系统」(动作)+「慢思考系统」(推理)。

随着视频理解成熟,「机器人有大脑」 将真正成真。

OpenAI唯一的Transformer发明者

Łukasz Kaiser是OpenAI 研究员、Transformer 架构创始人之一,此前曾任职于谷歌大脑团队。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第15张

他专注于深度学习与自然语言处理的基础研究,共同发明了Transformer架构、推理模型及其他神经序列模型,并参与开发了TensorFlow系统、Tensor2Tensor与Trax库。

AI前沿之争:推理模型崛起与LLM上限论战 人工智能 大语言模型 推理模型 算力瓶颈 第16张

在投身机器学习领域之前,他曾任法国国家科学研究中心(CNRS)终身教职研究员,致力于逻辑学与自动机理论的研究。

他曾运用可满足性求解器及其他符号化方法开发游戏对战系统,并从事程序综合研究。在理论探索方面,他完成了复杂性、博弈论和自动机领域的定理证明,解决了多个长期悬而未决的学术难题。

他于2008年获得德国亚琛工业大学博士学位,本科及硕士阶段毕业于波兰弗罗茨瓦夫大学。

参考资料: 

https://www.youtube.com/watch?v=gdPMNZo4Vb8 

https://www.youtube.com/watch?v=ILRrrntPwj0 

https://www.freethink.com/robots-ai/arc-prize-agi