生成式AI历经三年迅猛发展,2025年迎来架构创新的关键之年。三条核心脉络交织前行,伴随着Scaling law(规模定律)触及天花板的广泛讨论,人工智能进化的新范式正逐渐清晰。
第一条脉络是认知层面的深化:从“直觉”迈向“逻辑”。2025年,主流大模型的演进共识是通过强化学习(RL)结合更长的中间推理链条,让模型从近似System 1(快思考)的快速模式匹配,逐步过渡到更接近System 2(慢思考)的多步推理能力。
第二条是维度的突破:从“语言”延伸至“物理空间”。李飞飞强调的“空间智能”(Spatial Intelligence)将AI的演进逻辑从“理解描述世界的符号(语言)”推向“直接理解物理世界本身”。
第三条是效率的重构:从“暴力美学”转向“性价比”。在产业落地层面,技术的演进最终回归到极致的算力效能比。为了支撑深度推理和空间理解,模型架构必须走向“轻量化”。
以MoE(混合专家模型)和稀疏注意力(Sparse Attention)为代表的架构革新,成为解决无限上下文(Infinite Context)算力瓶颈问题的关键。
2025年12月,在腾讯科技HiTechDay上,一场以《模型再进化:2025,智能重新定义世界》为主题的圆桌论坛,正是围绕大模型进化的深度、维度、效率三条主线展开。
华中师范大学人工智能教育学部助理教授熊宇轩担任嘉宾主持,北京智源人工智能研究院院长王仲远、面壁智能联合创始人兼首席科学家刘知远、峰瑞资本投资合伙人陈石三位嘉宾分别从各自专业视角,解读了2025年大模型进化的深刻洞察。
王仲远指出,大模型的进化正在经历“从文本学习(Learning from Text)向视频学习(Learning from Video)”的质变。视频数据蕴含丰富的时空信息与动态交互线索,为模型学习物理世界动态演变规律提供了关键数据来源,同时也是当前最容易规模化获取的多模态数据,成为AI“从数字世界迈向物理世界”的核心桥梁,也为具身智能(Embodied AI)的爆发奠定了“世界模型”的底座。
刘知远提出的“密度法则”(Densing Law)认为,如同芯片领域的摩尔定律,AI的未来在于持续提升单位参数内的“智能密度”。他大胆预言,未来的算力格局将是“云端负责全局规划,端侧负责具体执行”,到2030年,我们甚至有望在端侧设备上承载GPT-5级别的能力,这正是中国AI在算力受限环境下实现突围的核心路径。
回归到大模型公司落地的现实,陈石认为,中美、开源与闭源形成的“双核驱动”格局已基本确立,商业化的“护城河”已演变为“算力、能力、生态”的三层金字塔结构。在ToB与ToC的夹缝中,“ToP(面向专业型用户)”有望率先跑通商业闭环。
对于创业者而言,机会不再浮于表面,而在于“大模型难以触及的行业深处”,需要努力构建一个能够跨越模型迭代周期的商业模式。
熊宇轩:首先请各位嘉宾用最精炼的语言总结,2025年让您印象最深刻的模型能力进化关键词、关键技术,以及代表性大模型产品。
王仲远:我认为2025年最重要的变化是大语言模型进入相对成熟的阶段,开始聚焦效能优化和商业化落地。同时,多模态技术迎来突破性变革,人工智能正加速从数字世界迈向物理世界。
刘知远:大家看到的是智能体、深度思考,以及大模型在数学、代码等垂直领域能力的持续增强。其背后的核心关键词应该是强化学习。
陈石:我从另一个视角观察,觉得有一个关键词叫“双核驱动”。这包含两层含义:第一,开源大模型与闭源大模型的双核驱动;第二,中国和美国两个国家的人才与企业协同驱动。特别是2025年,中国大模型迎来破局之年,这是最令人振奋的。
熊宇轩:最近OpenAI和Google的SOTA模型之间竞争异常激烈,一个明显趋势是单纯堆算力、堆参数的边际效益正在递减。
第一个问题请教王院长,您认为在2025年,Scaling Law是否真的触及天花板?如果参数不再是唯一标准,智源在训练范式上有哪些新的突破点?
王仲远:我认为Scaling Law是否见顶需要分模型类别讨论。在大语言模型上,由于互联网文本数据趋于枯竭,性能提升速度确实放缓。但另一方面,近期如Gemini 3 Pro以及智源发布的悟界·Emu3.5,都在多模态领域发现了新的提升空间。
我认为大模型的提升,将从仅从文本中学习(Learning From Text)进化到从视频中学习(Learning From Video)。视频数据的量级是互联网文本数据的百倍、千倍甚至万倍,这些数据尚未被有效用于多模态模型训练,这是未来大模型的重要发展机遇。
熊宇轩:下一个问题请问刘教授,面壁一直倡导提升模型“能力密度”。我们过去的惯性思维是小模型意味着智商缩水,但面壁发布的MiniCPM系列模型屡次完成越级挑战。
您认为小模型变聪明的物理极限在哪里?未来是否会出现云端负责规划、端侧负责执行的格局?
刘知远:它必然存在物理上限。我们提出的“密度法则”发现了一个类似芯片摩尔定律的大模型发展规律:每100天左右,模型的密度就能提升一个台阶。正如芯片摩尔定律依靠技术创新实现,我们也需要通过更精细的技术创新,将更多知识压缩到更小的空间里。
从动态视角看,这个密度会持续提升。它的物理极限是什么,还需要我们对人工智能技术理论有更深入的构建。此外,端云协同一定是未来方向。我们不需要一个AI杨振宁来服务每个人的生活,但云端需要储备多领域专家,端和云必须合理分工。
熊宇轩:下一个问题请问陈总,在投资人眼中,2025年大模型公司的“护城河”是否发生了变化?以前我们常说算力、数据为王,现在是否转向能力、应用或生态为王?
陈石:大模型是一个赢家通吃的行业,全球最终只能留下少数几家。它的“护城河”是多元的,我理解是三层结构。
最底层是算力的获取、组织和高效利用。第二层是模型的能力,这关乎模型的上限,如果不能持续保持SOTA(State-of-the-art)水平,就会逐渐落后。第三层最重要的是生态,包括是否通过应用触达用户、是否有合作伙伴共同服务用户、以及能否通过前两者持续获得数据反馈。所以基础是算力,中间是能力,上层是生态。
熊宇轩:2025年被称为“智能体的商业化元年”,但用户普遍反馈DEMO很丰满,实战很骨感。请问王院长,您认为目前智能体从玩具变成工具,最关键的卡脖子技术点是什么?
王仲远:我认为有三方面原因。
第一,基础模型的能力仍有欠缺,尤其是在最核心的推理能力上还有提升空间。
第二,当模型进入各行各业解决具体问题时,需要根据领域数据进一步训练或对齐,但现在经常出现“跷跷板效应”,即某方面能力增强时,其他能力反而减弱。
第三,模型的记忆和遗忘机制存在问题。人类学会开车后不会突然忘记炒菜,但模型在这方面还有很多问题需要解决。
熊宇轩:下一个问题想请问刘教授,面壁在端侧智能体上做了不少探索,您认为端侧和云端做智能体最大的区别是什么?如何解决手机算力有限的情况下,智能体既要反应快又要想得深的矛盾?
刘知远:端侧是智能体落地的重要方向,包括具身机器人、车、PC和手机。终端距离用户最近,能满足隐私、实时、稳定的需求。但挑战在于端侧算力有限,这需要我们用更高的“密度”让模型具备更强能力。
端侧智能体距离用户最近,需要对全模态数据有良好的感知理解能力,对用户有出色的个性化服务能力,并对外有精准的行动指令生成能力。这与主要处于数字世界的云端智能体有较大区别。
熊宇轩:陈总,您认为2025年最能实现商业化的Agent是什么样的?是B端替代初级员工的工具,还是C端的个人生活伴侣?
陈石:我去年曾提出一个观点:在 ToB 和 ToC 之间,其实存在一个ToP(To Professional)的高价值地带,也就是面向‘超级用户’或‘专家型用户’的市场。
纵观中美,目前 AI 行业变现效率最高的正是 ToP。无论是火热的 AI Coding,还是创作者经济中的付费工具,逻辑都是如此。即便 ChatGPT 拥有海量周活,绝大多数也只是‘打酱油’的免费用户,真正贡献商业价值的还是付费的专业人士。
关于未来演进,我有三个看法:
1.ToB(企业侧)是‘攻坚战’:它正在逐步渗透,但门槛很高。企业对流程和合规极其敏感,所以目前落地最好的是‘流程型 Agent’——比如保险银行的合规审查、客服或营销助手,嵌入特定环节实现自动化。但在中国,ToB 的全面爆发依然困难重重。
2.ToC(消费侧)还很遥远:为什么 ToC 现在难以盈利?一是因为能力不足,目前的 AI 体验并未显著超越移动 App,无法独立存在;二是因为载体缺失,手机和 PC 已是存量市场,缺乏新硬件带来的流量红利。
3.商业模式存在悖论:互联网沿用的是‘羊毛出在猪身上’的广告模式(注意力经济)。但这在 AI 时代不成立——除非依靠端侧模型,否则云端模型的 Token 成本远高于广告带来的 ECPM 收益,这一账算不过来。所以 ToC 还需要经历漫长的迭代。”
熊宇轩:我们知道具身智能是下一波浪潮中的关键一环。
第一个问题请教王院长,智源今年发布的具身智能大模型RoboBrain对于促进具身智能落地有何作用?
王仲远:具身智能产业还处于非常早期阶段,需要有足够的耐心。智源在这方面布局较早,我们发布的“悟界”系列大模型,承载了智源的预判:人工智能正从数字世界迈向物理世界。其中,世界模型和具身大脑与具身智能的关系最为密切。
我们10月底发布的多模态世界模型Emu3.5,它从视频中学习时空、因果、意图等信息,致力于预测下一个时空状态(Next-State Prediction),而不仅是生成视频。在具身大脑方面,我们发布的RoboBrain系列模型,包含对外界的感知、规划、决策能力,用大脑模型监督小脑模型的学习,使其具备更强的泛化性。目前RoboBrain已与国内30多家机器人企业开展合作,进行适配和落地。
熊宇轩:请问刘教授,机器人对实时性要求很高,在您的构想中,未来机器人应该有多少“脑容量”留在本地?
刘知远:未来具身机器人应该也会有“大小脑”之分。离行动和感知越近的功能,越需要留在本地;需要长时间深度思考的,可以放在“大脑”部分,甚至利用云端资源。至于边界在哪里,现在还很难准确判断,因为软硬件都在快速迭代。
但根据主流芯片厂商的规划,我们可以保守估计,到2030年,一个类似手机的端侧芯片可以承载一个接近600亿参数的模型。如果我们沿用“密度法则”,届时在机器人、PC、手机上,至少能加载GPT-5以上级别的模型能力。
熊宇轩:接下来问到陈总。站在2025年的时间节点,如果您有一大笔钱,您是投给做极致灵巧手的硬件公司,还是投给做通用机器人大脑的软件公司?
陈石:如果二选一,无疑智能是最重要的。今天的大模型AI要走向物理世界,物理智能是代表智能跃迁的未来。但反过来说,硬件也可以反哺软件,特别是在中国这个环境里,硬件比重可能会更重一点。
最理想的应该是软硬结合,就像iOS一样。所以我们投资的公司,原先做硬件的也会做软件,做软件的也会做硬件。
熊宇轩:最后想请问王院长,您认为智源的开源生态,是否能够成为对抗封闭生态的关键一极?
王仲远:智源从成立之初就坚持开源、开放的精神。我们这样做不是为了对抗谁,而是因为人工智能行业过去几十年的快速发展,离不开开源开放的生态。
无论是学者第一时间公开研究成果,还是企业基于开源项目做优化,都推动了技术的进步。未来几十年,我们依然需要坚持这种精神,才能推动技术的普惠和产业化落地。
熊宇轩:请问刘教授,您认为端侧的高效模型,会不会成为中国AI弯道超车的重要机会?
刘知远:我认为不只是端侧。我们提出的“密度法则”不仅适用于端侧,也适用于云侧。通过技术创新提升模型密度,可以降低云上模型的训练和使用成本。这对于在算力上存在短板的中国具有非常重要的意义。过去两年,我们并没有因为算力被“卡脖子”而阻碍AI的快速发展。以DeepSeek和面壁智能为代表的国内许多团队,都高度重视高效大模型技术,这是我们赢得这场科技革命竞争优势的独特技术路径。
熊宇轩:最后一个问题给到陈总,展望2026年,您能给创业者一句最关键的建议吗?
陈石:我特别赞同前面两位老师说的,开源大模型可能是中国一个国运级的机会。我们集全国之力支持几个优秀的开源模型,在此基础上拼应用、拼生态,是很好的路径。
至于给创业者的建议,就一句话:上半句是“在大模型难以触及的行业深处去寻找创业机会”,下半句是“你要努力建立一个能够跨越模型迭代周期的商业结构”。通俗点说,就是不要做太通用的东西,要建立一个能充分享受模型红利、而又不会被模型迭代所淘汰的商业模式。
熊宇轩:中国AI的突围之路,既需要开源生态的包容,也需要端侧创新的精准发力,更需要资本和科研之间的同频共振。
希望今天圆桌论坛的思维碰撞能给大家带来启发,谢谢三位嘉宾的精彩分享,谢谢大家!
本文由主机测评网于2026-03-08发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:http://www.vpshk.cn/20260329503.html