
2025年,人工智能领域被“智能体元年”的激烈讨论所笼罩。
DeepSeek的性能超越GPT-4o,OpenAI推出Agent SDK,Anthropic在四个月内连续发布三个新模型……每一次技术发布都像是惊人的飞跃,让许多人感觉通用人工智能(AGI)即将触手可及。
然而,Andrej Karpathy对此持不同看法。
这位前OpenAI核心研究员、特斯拉自动驾驶负责人在2025年10月18日的一场对话中明确表示:
我并不认为今年是爆发年,也不相信会有哪一年是。AGI需要数十年时间,它是一条由无数突破和改进构成的漫长曲线。
这句话,刺破了当前所有关于“突破”“爆发”“奇点”的狂热叙事。
Karpathy的判断并非悲观,而是基于冷静的观察。他更关心的不是模型参数有多大,而是它是否具备真正的记忆能力?是否能持续与你共处?是否能成为社会的一部分?
他指出:我们当前的智能体,其实更像是个幽灵。它们记不住自己是谁,也记不住你是谁。
真正重要的不是模型有多强大,而是AI能否真正融入我们的生活:拥有记忆、能够成长、值得信赖。
而2025年并非终点,它只是这条漫长演进曲线中一个被误读为爆炸的起点。
“你以为它在帮你规划旅行,其实它根本不记得你是谁。”
Andrej Karpathy说这句话时,语气严肃而认真。
他强调,目前我们常用的所谓“智能体”(AI助手),缺乏最基本的“记忆”功能。无论你跟它交流多少次,下一次打开时,它总是从头开始。没有状态维持,没有身份感知,没有连贯性。就像一位每天失忆、却穿着西装接待你的“幽灵”。
“今天我们所有的聊天机器人,其实都是幽灵(ghosts)。”
这是Karpathy在访谈中反复强调的观点。尽管人们总在谈论AI的“爆炸式进步”,但在他看来,那些表面上看起来很聪明的系统,缺失的不是知识,而是连续性。
他说:AI的进化其实更像一条缓慢上升的曲线,悄悄学习、持续进步,直到你突然回头,才发现它已经不一样了。
✅ “持续存在”才叫智能体
Karpathy为“智能体”这个词赋予了新的定义:
“A real agent needs to persist over time. It needs memory. It needs continuity(一个真正的智能体,必须具备持久性、记忆力和连续性).”
通俗来说,一个真正的AI助手,不能仅仅能对话、能回答问题,更重要的是它要能长期陪伴你。它应该知道你昨天让它查过机票、前天生成过PPT、上周总结过财务数据。它要能记住过去,理解现在,延续到未来。
这才叫智能体,而不是我们现在使用的“高级搜索框”。
✅ 现有产品,为什么还做不到?
你可能会疑问:ChatGPT不是挺好用的吗?Claude不是也能追问上下文吗?
Karpathy的回答是:它们没有记住你,只是在当下和你进行对话。
我们确实看到了一些尝试,例如:
这些只是在外部为AI添加了记忆功能,但AI本身依然不记得你是谁。
✅ 问题的本质不是回答能力,而是记住你
Karpathy指出,现在很多人还在讨论如何编写更有效的prompt,但他想问的却是:
如果它连我们是谁都记不住,为什么还要一次次输入提示呢?
他打了一个比喻:你每次和它说话,都像是在向一个陌生人喊话。
你以为它是你的助手,但它其实不认识你。它不知道你是谁,也不记得上一次对话发生了什么。
因此,Karpathy不相信“爆发年”的说法。因为在他看来,当前的AI还停留在假装认识你的阶段。
真正的转折点,不是能力的突增,而是AI成为一个长期陪伴你的“伙伴”。
那一刻,它才从工具变成伙伴,从模型演变为智能体。
AGI不是一堆功能的组合,而是一套统一的操作结构。——Andrej Karpathy
Karpathy多次提到,现在大家在谈论AGI(通用人工智能)时,总喜欢列举功能:“能写代码”“能画画”“能接工具”。但他想强调的是:
真正的AI,不只是能做很多事,而是这些事要连在一起、有前后逻辑、有稳定表现。
简单来说,不是会说话、会查资料、会写文案就叫AGI。Karpathy描述了三条长期发展的路线,只有这三条线都走通,才可能出现“有真正智能感的AI”。
第一条线:让AI真正“理解”你在说什么
这条路,其实就是我们熟悉的GPT、Claude、Gemini正在推进的方向。Karpathy称它为语言模型的认知路线。
这些能力在过去三年进步迅速,但Karpathy指出:这只是基础,仅有这些还不够。
就像一个擅长考试的人,不一定知道如何在现实中处理具体事务。
第二条线:让AI能“操作世界”
Karpathy强调,接下来最关键的是让AI不仅能说,还能行动。
他举例说明,现在很多人开始用AI写邮件、查文件、读网页,甚至安排日程。这些能力不再仅仅是语言理解,而是AI在现实中“动手”帮你完成任务。
这类能力,Karpathy称之为:工具调用(tool use)。
“我们需要让智能体不只是对话,还能调动浏览器、笔记、应用,真正帮你完成任务。”
但目前这部分还非常初级。Claude调用工具需要手动触发,ChatGPT的插件功能也不总能成功执行。
而真正的智能体,应该是你说一句话,它就能自主判断:
该查阅什么资料、该整理哪些邮件、该安排什么时间、该输出怎样的计划。
第三条线:让AI“持续存在”下去
第三条线更为关键:能否将AI从一个单次使用的工具转变为一个长期在你身边扮演角色的存在。
他说:
“我们现在开发的AI,就像一盘散落的拼图:语言模型是一块,工具是一块,记忆是另一块……但它们没有被真正组合在一起。”
这导致的结果是:
AI回答得不错,但下次就忘了
工具能用,但每次都要重新教导
上一轮对话的逻辑,下一轮完全接不上
Karpathy指出,要改变这一切,需要的是:一个统一的运行架构(operating architecture)。
换句话说,不是把拼图随意拼凑,而是要让AI像一个人一样持续存在于线上社会中,能成长、有记忆、有任务意识、有状态、有行为模式。
总的来说:
我们要从token(词)往action(行动)走。
这意味着,AI不再只是你说一句,它回一句。你只需要提出目标,它自己会理解、执行、反馈,并且能把今天的事情和过去、未来的计划连接在一起。这要求AI不再是功能拼接,而是像一个人一样,有自己的运行逻辑,能和你长期共事。
当前的Claude、ChatGPT、Gemini都在尝试向这个方向迈进,但这条路才刚刚开始。我们看到的,不是爆发,而是开端。
这三条路要怎么走通?Karpathy给出了一个出人意料的答案:不是堆积更多数据,而是改变训练方式。
今天我们对AI的训练,就像把所有书都塞进孩子嘴里,然后希望他成为科学家
他指出,目前主流的模型训练方式,基本上是把全世界知识喂给AI:从网页、百科、论文到社交平台,将海量数据一股脑塞进去。这就像填鸭式教学:喂得多,不等于学得好。
就像你不会指望一个孩子光靠背书就变成诺奖得主,AI也不会因为读完互联网就自动成为智能体。
✅ 从“灌数据”到“教目标”
Karpathy认为,AI的训练方式需要更新。
“大多数模型读了世界上99%的信息,但没有被教会哪1%是它应该用来解决问题的。”
我们不需要模型什么都知道,而是要它对关键问题有深刻理解。
举个例子,如果你要训练一个医学助手:
这种按课程表设计的训练方式,比海量输入更能让AI建立任务意识和知识结构。
✅ 三个新训练原则:像培养人一样培养AI
Karpathy主张,未来AI的训练应该像培养新同事,而不是粗暴地往硬盘里灌数据。他提出了三条核心原则:
① 有目标感:AI必须“知道自己在学什么”
今天的模型大多在无目标地学习,读很多数据却不知道要解决什么问题。要给模型明确的学习方向,比如成为写作助手、学会连续规划、掌握科学研究流程。
这就像带孩子学游泳,不能只是把他丢进水里,而要告诉他“今天练的是换气”“明天练的是速度”。
② 有任务性:从“知识”转向“行动”
AI不应该只是“知道”,而要“会用”。Karpathy强调训练要围绕任务来设计,让模型在解决真实问题的过程中学习,而不是光靠死记硬背。
比如:不是背下API文档,而是通过不断调用工具去完成一项复杂任务;不是阅读金融数据,而是尝试写出投资分析报告。
“智能体不是学生,它更像一个实习生。我们要让它在实践中成长。”
③ 有反馈循环:不断试错、纠正、改进
AI需要持续的反馈。
当前的训练过程过于静态,模型学完就结束,缺乏与环境的互动。而未来的训练应该是动态的:模型完成任务后获得评价,根据结果改进下一步策略。
这种“试错—反馈—改进”的循环,才是智能成长的真正方式,就像人类在工作中不断修正自己的方法一样。
这些观点已经在影响最新模型的发展方向:
这些都表明:行业正从“输入越多越好”的思维,转向“结构化、有目标、有反馈”的路线。
用Karpathy的话说,这意味着AI正在从“prompt时代”走向“课程时代”。
未来的AI,不再依靠“prompt”来驱动,而是依赖“课程表”来成长。
当AI从被动接收知识转变为主动学习成长时,它才可能不只是一个工具,而是真正能和人协作的伙伴。
“智能体不是API,而是一个可信任的代理人。” ——Andrej Karpathy
Karpathy说这句话时,并非在打比方,而是在描述他眼中即将成为现实的景象。
他认为,未来的AI不会再以功能来定义自身,不再是“翻译工具”“问答助手”或者“自动化脚本”。在十年之后,我们面对的将是带有身份、角色和责任的AI个体。
✅ 从工具到角色:AI开始带着身份上岗
过去,AI的使用方式很简单:你让它写邮件,它写完就结束;你让它总结报告,它总结完就停止响应。它从来没有身份,更没有职责。
但Karpathy设想:AI的未来不应是“谁来使用它”,而是“它在社会中扮演什么角色”。
“未来的AI不是一次性的调用,而是一个有身份的存在。它可以是你的律师、你的财务顾问、你的私人助理,甚至是公司的运营官。”
这样的AI,不只是能完成任务,而是要承担起与角色相关的责任:
这时,它就不再是工具,而是社会角色的延伸。
✅ 角色市场:谁来认证?谁能委托?
Karpathy提出了一个更深层次的问题:“当AI拥有角色后,谁来定义它的职责?谁来确认它的资格?”
如果你雇佣一个人类医生,他需要通过考试、拿到执照、承担责任。那如果是一个AI医生呢?
这意味着,一个全新的“角色市场”正在浮现:谁来认证这些AI是否合格?它们能代表个人做决定、签署合同吗?如果AI做错了决定,责任由谁承担?
这些问题看似遥远,但实际上已经开始显现。
例如,美国已有初创公司在开发“AI律师”,可以自动生成合同、准备庭审文件;一些金融机构也在测试“AI投资顾问”,为客户提供全自动资产配置方案。
Karpathy的观点是:智能体的未来不只是技术升级,而是制度升级。
✅ 共存的张力:人类与AI,会不会“撞角色”?
随着AI开始带着身份上岗,一个新的问题不可避免:它会不会和人类争夺位置?
Karpathy的回答是:会,但这不是坏事。
AI不会取代人类的存在,它会改变角色的定义。你不再是唯一的执行者,而是一个协作者。
就像公司里从“手动记账”转变为“财务系统+会计师合作”一样,未来的医生、律师、产品经理,可能都要学会与“AI同行”协作:
这种角色融合不是削弱人类的价值,而是让人从重复劳动中解放出来,去承担更高层次的思考和创造。
Karpathy的“十年路线图”最终落在一个清晰的画面上:
“未来,你不会只使用一个AI。你会和一支AI团队一起工作。一个懂财务的助手、一个懂法律的顾问、一个帮你规划生活的助理。他们都有名字,有背景,有记忆,有责任。”
这不是冷冰冰的工具调用,而是充满人格的生态。当AI开始拥有身份,社会的结构、规则、信任方式都会随之改变。
我们不是在部署工具,而是在建设一批全新的社会成员。
2025年,看似一切都在“爆发”。模型规模越来越大,功能越来越多,发布速度越来越快。人们以为AI正在冲进一个“奇点时刻”。
但Karpathy给出的判断,恰恰相反。
不是突然突破,而是一条缓慢的长曲线。等你回头看时,才发现自己已经走在其中。
这不是悲观,而是更清醒的认知。
十年怎么走?Karpathy展示了一条不依赖堆砌参数、而依靠系统重构的路线:
真正的转折不是模型“能干什么”,而是AI开始记得你是谁、明白它该做什么、成为社会的一部分。
这是一场渐进的演进,一场结构性的重构。你不会在某一天看到AGI突然诞生。你只会在某个清晨,打开熟悉的对话框,突然意识到:它已经不是原来的它了。
而你,也早已在这条智能体曲线里,走了很远。
https://www.youtube.com/watch?v=lXUZvyajciY
https://podcasts.apple.com/us/podcast/andrej-karpathy-agi-is-still-a-decade-away/id1516093381?i=1000732326311&utm_source=chatgpt.com
本文由主机测评网于2026-01-11发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260116551.html