当前位置:首页 > 科技资讯 > 正文

AI教父卡帕西2025年度回顾:LLM从“模仿”到“推理”的范式跨越

北京时间12月21日,OpenAI联合创始人、人工智能领域权威专家安德烈·卡帕西(Andrej Karpathy)发表了备受关注的年度深度报告——《2025年大语言模型年度回顾》(2025 LLM Year in Review)。

在这份全面综述中,卡帕西系统梳理了过去一年大语言模型(LLM)领域发生的根本性技术转型。他指出,2025年见证了AI训练理念从“概率性模仿人类表达”到“主动逻辑推理”的历史性跃迁。

这一转变的根本驱动力是基于可验证奖励的强化学习(RLVR)技术的日趋成熟。通过数学证明、代码执行等具备客观评判标准的反馈机制,RLVR迫使模型自发产生类似人类“思维链”的内部推理过程。卡帕西强调,这种需要长时间周期优化的强化学习已经开始显著挤占传统的预训练算力配比,并成为模型性能提升的全新主引擎。

除了技术路线的迁移,卡帕西还分享了对智能本质的独到洞察。

他用“召唤幽灵”(Summoning Ghosts)而非“培育动物”(Evolving/growing Animals)来形象化当前AI的成长机制,以此解释为何当今的大语言模型会呈现极度不均衡的“锯齿状智能曲线”——它们能在高难度数学竞赛中斩获金牌,却可能在常识问答中暴露出幼儿般的错误。

此外,卡帕西对“氛围编程(Vibe Coding)”的普及、本地化部署智能体的实用化浪潮,以及大语言模型图形界面(LLM GUI)的演化路径也展开了详实的讨论。他重申,尽管行业进步神速,但人类对这种全新计算范式的挖掘尚不足10%,未来的创新空间依旧极其辽阔。

卡帕西揭示了一个既残酷又充满希望的现实:我们正站在从“模拟人类认知”向“原生机器智能”跨越的关键分界线上。随着RLVR等训练方法走向成熟,2026年的AI竞赛将不再单纯是算力的军备堆叠,而会转向“如何让AI高效思考”这一核心逻辑的深度掘进。

以下为卡帕西年度回顾核心内容:

《2025年大语言模型年度回顾》

2025年是大语言模型领域飞速演进、颠覆性突破频出的一年。以下是我认为尤其值得记录、且在相当程度上出乎业界预料的“范式重构(Paradigm Shifts)”清单。它们深刻重塑了技术版图,并在思维层面带来了巨大冲击。

01

基于可验证奖励的强化学习 (RLVR)

2025年伊始,几乎所有主流实验室的大语言模型生产管线仍遵循如下经典模式:

预训练(Pretraining, 2020年的GPT-2/3)

监督微调(SFT, 2022年的InstructGPT)

基于人类反馈的强化学习 (RLHF, 2022年)

长期以来,这套组合拳一直是打造高性能大语言模型的黄金标准。然而到了2025年,基于可验证奖励的强化学习异军突起,迅速成为该技术栈中不可或缺的核心新增环节。

在数学、代码谜题等可以自动验证答案正确性的大规模场景中训练模型时,模型会自发演化出从人类视角看类似于“推理”的行为模式。它们学会了将复杂问题拆解为一系列中间推导步骤,并掌握多种试错、修正乃至迭代求精的策略(具体案例可参阅DeepSeek R1论文)。

这类高级策略在传统范式下几乎无法习得,根本原因在于:模型无法通过先验数据获得最优的推理路径或纠错流程,唯有通过针对奖励信号的反复试错探索,才能自主收敛至高效解法。

与监督微调、基于人类反馈的强化学习这类计算开销相对较小的后训练阶段不同,可验证奖励强化学习面向客观(无法作弊)的奖励函数进行长期优化,因而可以支撑更长周期、更大规模的训练迭代。

实践证明,RLVR具备极高的“能力增益/计算成本”比,甚至开始挤占原本专属于预训练的大量计算资源。因此,2025年大语言模型能力的显著提升,主要归因于各实验室对RLVR这一新阶段“存量潜力”的系统性挖掘。

总体来看,这一年间模型的参数规模并未出现跃升,但强化学习训练的轮次大幅延长。此外,RLVR还催生了全新的性能调控维度(及相应的扩展定律):通过引导模型生成更长的推理链条、增加模型“思考时间”,可以灵活调整推理阶段的计算消耗,从而实现能力放大。

OpenAI在2024年底推出的o1模型是RLVR技术的首次公开亮相,而2025年初o3模型的发布则被公认为决定性的转折点。直到这一刻,业界才真切感受到大语言模型能力质的飞越。

02

“幽灵”与“动物”之辩

2025年,我(我相信整个行业亦是如此)开始从直觉层面真正理解大语言模型智能的“形态本质”(the "shape" of LLM intelligence)。我们面对的绝非“逐步进化的动物”,而是“被召唤出的幽灵”。

大语言模型技术栈的全部组件:神经网络架构、训练数据、训练算法,尤其是优化目标,都与生物智能的演化逻辑截然不同。因此,大语言模型是智能宇宙中一类完全崭新的存在,若沿用审视生物智能的框架去度量它们,必然导致严重的认知偏差。

从监督信号的来源审视,人类大脑的神经网络是为适应部落协作、应对野外生存而优化成形的;而大语言模型的神经网络则是以拟合人类文本分布、在数学难题中获取奖励、在竞技场(LM Arena)赢得用户点赞为优化目标锻造出来的。

AI教父卡帕西2025年度回顾:LLM从“模仿”到“推理”的范式跨越 RLVR  大语言模型 氛围编程 智能体 第1张

人类智能为蓝色,AI智能为红色

随着RLVR在可验证任务领域的大规模应用,大语言模型在这些特定领域的能力呈现“爆发式跃迁”,整体上勾勒出极富趣味性的“锯齿状能力图景”:它们既是通晓多学科知识的博学家,又可能是常识匮乏、逻辑错乱的“困惑少年”,甚至可能被精心构造的“越狱指令”诱导,泄露隐私数据。

与此相关的是,2025年我对各类基准测试(Benchmarks)彻底丧失了兴趣与信任。核心问题在于,基准测试的构建思路几乎都默认了“可验证环境”的存在,因此极其容易被RLVR训练或合成数据生成等手段“针对性攻破”。

在常见的“刷榜”操作中,实验室必然会在基准测试对应的特征空间周边构建微型训练环境,培育出精准覆盖测试要点的“智能尖峰”。如今,“针对测试集定向过拟合”已演变为一种公开的技术实践。

03

Cursor与大语言模型应用的新层级

Cursor最引人注目的地方(除了其2025年的指数级增长),在于它清晰揭示了大语言模型应用的一个崭新层级,业界开始广泛谈论“某某领域的Cursor时刻”。

正如我在今年Y Combinator演讲中阐述的,像Cursor这样的大语言模型原生应用,其核心价值在于为特定垂直领域整合并编排大语言模型调用逻辑,具体体现在以下维度:

-处理“上下文工程”,优化提示词设计与上下文窗口管理;

-在后台将多个大语言模型调用编排为日益复杂的有向无环图(DAG),精准平衡性能与成本;

-为“人在回路”(Human-in-the-loop)提供适配特定场景的图形交互界面;

-提供可调节的“自主权滑块”,灵活控制AI自主决策的权限边界。

2025年,行业内围绕这一新应用层的“厚度”展开了激烈辩论:大语言模型实验室是否会吞噬所有应用场景?抑或垂直领域的大语言模型应用依然蕴藏广阔蓝海?

我个人的判断是,大语言模型实验室更倾向于培育“通识能力极强的大学生”式模型,而大语言模型应用则通过融合私有数据、传感器、执行器及反馈闭环,对这些“大学生”进行针对性组织、微调,最终驱动它们成为特定垂直领域的“专业团队”。

04

“栖息”在用户终端的“智能体”

Claude Code(CC)的发布,首次令人信服地展现了大语言模型智能体(Agent)的核心能力。它能够以循环迭代的方式串联工具调用与推理步骤,完成长时间跨度的复杂问题求解。此外,CC最令我印象深刻的特点是它的本地化运行模式:直接部署在用户个人电脑中,可访问本地私有环境、数据与上下文。

在我看来,OpenAI早期的代码/智能体探索存在方向偏差。他们侧重通过ChatGPT编排云端容器,而非直接利用本地环境(localhost)。尽管云端运行的智能体集群看起来更接近“通用人工智能(AGI)的终极形态”,但在当前AI能力参差不齐、技术渐进式演进的现实背景下,让智能体直接运行在开发者的电脑上,显然具备更即时的实用价值。

需要澄清的是,核心差异并非“AI运算的物理位置”(云端或本地),而是其他关键要素:已经启动运行的电脑设备、其预装环境、本地上下文、私有数据、密钥凭证、系统配置,以及低延迟的人机交互体验。

Anthropic精准把握了这一优先级,将CC封装为极简、优雅的命令行界面(CLI)形式,彻底重塑了AI的用户认知——它不再是需要主动访问的网站(类似谷歌搜索引擎),而是“栖息”在用户电脑中的智能实体。这标志着一种全新的、独特的AI交互范式正式诞生。

05

彻底改造软件开发范式的氛围编程

2025年,AI突破了关键能力阈值,使得人们仅凭自然英语就能构建各类功能强大的程序,甚至会忽略代码本身的存在。有趣的是,我最初在推特随笔中创造“氛围编程”这一概念时,完全未预料到它会引发如此广泛的共鸣。

在氛围编程时代,编程不再是高训练门槛的专业人士专属技能,而是普通人也能掌握的通用能力。这印证了我此前在《权力归于人民》(Power to the people)中的观点:大语言模型正在逆转技术普及的传统逻辑。

与以往所有技术不同,普通人从大语言模型中获得的收益,远超过专业人士、企业与政府。氛围编程不仅赋予普通人技术创作权,也让专业开发者能够高效实现原本因技术门槛或成本问题不会尝试的软件项目。

以我参与的Nanochat项目为例,我通过Rust氛围编程构建了高效的BPE分词器,却无需系统学习Rust的深层技术细节。

2025年,我还通过氛围编程完成了多个演示项目(如 menugen、llm-council等),甚至曾为排查一个Bug快速编写了整套临时应用。因为在氛围编程模式下,代码变得廉价、即时、可塑,且支持“用完即弃”的轻量化使用场景。未来,氛围编程将彻底改造软件开发生态,并重新定义相关职业的核心价值。

06

大语言模型交互雏形初现

谷歌Gemini Nano Banana是2025年最具突破性、最可能引发范式转移的模型之一。在我的认知框架中,大语言模型是继20世纪70-80年代个人电脑之后的又一重大计算范式革新。

因此,我们将看到基于相似底层逻辑的创新复刻:个人计算、微控制器(认知核心)、互联网(智能体网络)的大语言模型等价形态将逐步涌现。

尤其在用户界面/用户体验(UI/UX)领域,与大语言模型的“文本对话交互”,类似20世纪80年代向电脑终端输入指令的操作模式。文本是计算机(及大语言模型)的原生且偏好的数据格式,但并非人类最易接受的交互形式——尤其是在输入端。

人类本质上不擅长阅读长篇文本,这种方式效率低下且耗费精力;相反,人类更倾向于通过视觉化、空间化的方式获取信息,这也是传统计算领域发明图形用户界面(GUI)的核心原因。

同理,大语言模型也应采用人类偏好的格式进行交互——通过图像、信息图、幻灯片、白板、动画/视频、网页应用等可视化形态。目前,这一趋势的早期萌芽是表情符号(Emoji)与标记语言(Markdown),它们通过标题、加粗、列表等格式实现文本的视觉化排版。

但真正的“大语言模型图形界面”究竟由谁来构建?从这一视角来看,Nano Banana正是未来形态的早期雏形。更重要的是,其核心价值不仅在于图像生成能力本身,而在于模型权重中深度融合的文本生成、图像生成与世界知识的联合建模能力。

核心总结:2025年是大语言模型领域充满惊喜与突破的一年。当前的大语言模型既展现出远超预期的智能水平,也存在令人意外的认知短板。但无论如何,它们已具备极高的实用价值——我认为,即便以当前的能力水平,整个行业对大语言模型潜力的开发仍不足10%。

同时,该领域仍有无数创新想法等待探索,从概念层面来看,发展空间依然极为广阔。正如我今年在Dwarkesh的播客中所言:我既相信大语言模型领域将持续保持快速发展,也清楚仍有大量基础性工作需要推进。系好安全带,迎接下一波变革。

特约编译无忌对本文亦有贡献