
2026年1月5日,CES开幕之夜,AMD董事长兼首席执行官Lisa Su博士登上主舞台,没有冗长的铺垫,直接切入核心议题:
AI是过去50年最具变革性的技术。
但这一次,她带来的不再是远景蓝图,而是一套完整的工业化解决方案。
这不仅仅是一系列芯片的发布,更是一整套面向未来的AI基础设施平台:
面向超大规模数据中心的旗舰级MI455X,集成3200亿个晶体管;
专为企业级推理与能效优化设计的MI440X;
以及本次发布会的绝对主角——为Yotta级AI时代量身打造的机架级平台Helios。
这并非简单的硬件迭代,而是在重新勾勒AI产业的版图分界线。
为证明这不仅仅是AMD的自我宣告,Lisa Su邀请了一众顶尖AI领域的实践者同台站台:OpenAI、World Labs、Luma、Liquid、Absci等行业先锋,现场展示了他们如何将核心业务迁移至AMD平台,并取得突破性进展。
更引人注目的是,Lisa Su还提前预告了下一代MI500系列将于2027年问世,并豪言四年内性能实现1000倍的增长。
过去一年,AI模型愈发智能,但其对算力的渴求也呈指数级攀升。
2022年全球AI运算需求约为1 Zettaflop,预计到2025年将突破100 Zettaflops。而Lisa Su的预测更为激进:未来五年,全球算力需要再提升100倍,迈入10 Yottaflops的崭新纪元。
Yottaflop究竟意味着什么?
1 Yottaflop等于1后面跟24个零,相当于当前全球总算力的上万倍。这几乎等同于过去几十年计算能力进步的总和,而这一切需要在短短五年内实现。
这预示着AI应用将迎来全面爆发:
这一趋势在OpenAI总裁Greg Brockman的分享中得到数据印证:推理需求两年激增100倍的现实,让“人人拥有后台算力”的愿景受困于基础设施的瓶颈。
当大模型从“尝鲜体验”转变为“常态服务”,算力系统面临的考验也随之升级:它不再需要为跑分而生的短跑冠军,而是需要能7x24小时稳定在线、安全可靠的马拉松选手。
这迫使芯片厂商重新思考产品的定义:不是追求单一芯片的极限性能,而是构建能支撑AI工业化规模的全套基础设施:
每个计算托盘能承载多颗GPU、CPU、NPU高效协同;
每个机架能无缝扩展为成千上万个单元构成的AI工厂;
网络、内存、散热、供电都必须为超高密度和极低延迟进行重构。
这正是AMD推出Helios架构的核心思路:不依赖单颗GPU的蛮力,而是打造一套可大规模部署、持续在线、灵活适配的AI基础设施系统。
每个Helios机架拥有:
它不再是芯片的简单堆叠,而是AI工业化生产的流水线。
这一节,AMD并未纠缠于性能天花板的数字游戏,而是重新定义了新的基准:如何让AI成为真正可用、高性价比、具备工业级稳定性的算力系统。
本届CES上,Lisa Su带来的不是一块芯片,而是一座完整设计的计算工厂。
舞台上,AMD首次公开展示了Helios,一个重达3吨的机架级计算平台,专为AI工业化而生。
Helios的三个核心关键词:
1、高度集成
每个计算托盘包含:
4块MI455X GPU,集成3200亿晶体管、432GB HBM4高带宽内存;
1颗Venice CPU,拥有多达256个Zen6核心;
1颗Pensando网络芯片,负责数据流的智能调度。
托盘之间通过Ultra Accelerator Link互联,72块GPU在一个机架内协同工作,形成一个统一的巨型计算单元。
而托盘+散热+供电+网络+算力调度软件,全部预集成在一个整机内。这不是一堆零部件的拼凑,而是一个可以直接投入生产的AI工段。
2、模块化设计
Helios没有采用封闭的专有架构,而是遵循OCP(开放计算项目)标准。
每个组件均可替换、升级、扩展。它更像一套可自由组合的积木系统,而非一次性封装的黑色盒子。这对于快速迭代的大型AI公司至关重要,模型还在进化,数据中心不能每次都推倒重来。
Lisa Su给出了Helios的定义:目标不是制造一台最强的机器,而是打造一个可以量产、复制的算力模板。
3、极致效率
Helios采用全液冷散热方案,能在超高负载下保持稳定运行。
每个机架配备31TB显存,机架内部带宽高达260TB/s,对外连接带宽达43TB/s。
AMD还深度优化了ROCm软件栈,使其能够无缝兼容主流开源AI框架,如PyTorch、vLLM、SGLang。开发者几乎无需修改代码即可直接使用。
相比之下,NVIDIA的DGX系列更强调整体性能的极致,而Helios则更注重模块化与开放性,意在成为整个行业通用的标准件。
Lisa Su的理念是:不让客户去适配AMD,而是让AMD主动适配客户的需求。
这不仅仅是一次产品发布,更是一次架构哲学的转变。
OpenAI采用MI455加速推理服务;
Meta与AMD联合设计Helios架构;
主流云服务商正将Helios纳入其下一代AI基础设施规划。
Helios不再是一个孤立的产品,而是下一轮AI工业化的最小功能构件。
AMD发布的是一条可以复制的生产线,一个为AGI世界预制的底层模块。
本次CES舞台上,AMD并非在追随竞争对手,而是在尝试定义新的行业标准。
过去两年,大模型发布节奏不断加快,但AI真正发挥价值的地方,早已不是发布会,而是后台的持续运行:
Greg Brockman:我们正从单纯的被动问答,演进为自主执行复杂工作流的智能体时代。
未来每个人都将拥有后台运行的10个智能体。那不再是临时调用AI,而是AI全天候在线,这对推理芯片提出了前所未有的压力。
1、智能体不是概念,已在真实场景运行
AI视频公司Luma CEO的分享更具说服力:
一段10秒的视频推理,Token数量可能高达10万个。
他们已将模型部署到生产线:
一年时间内,Luma有60%的推理负载迁移到了AMD平台;
大模型只是起点,接下来的任务全是智能体架构;
这些智能体不仅能回答问题,还能修改世界、编辑视频、自动创作一部完整影片。
当这些任务真正落地时,GPU的经济性变得比绝对性能更为关键。
2、Liquid AI:AI的下一个入口,是主动式助手
MIT孵化的公司Liquid AI联合创始人Ramin Hasani正式推出两款核心产品:
一是LFM 2.5:12亿参数的小模型,可在本地设备完成指令跟随,在指令遵循能力上超越了DeepSeek和Gemini 2.5 Pro;
二是LFM 3:能听、能看、能说、能实时翻译的多模态助手,延迟低于100毫秒。
这不再是云上训练模型,而是直接在笔记本本地运行,持续监听、主动协助用户。
Ramin表示:
“现在,不是人类在召唤AI,而是AI在默默为你做事。”
这对芯片的要求,已经从模型规模转向部署速度、离线能力和功耗控制。
3、李飞飞带来第三种维度:空间智能 + 世界建模
World Labs CEO李飞飞展示了另一种“AI交互新范式”的可能性。
只需一张普通照片,模型就能还原完整的3D空间,不仅是识别房间,而是“创建世界”:
将图片输入模型后,可以生成多个3D结构版本;
实时拖动、编辑、重建世界细节;
甚至能把拉斯维加斯威尼斯人酒店的一张图,生成可自由探索的完整空间世界。
李飞飞强调:
“人类的理解从不是从文字开始,而是从空间与动作。真正通用的AI,必须能理解物理世界。”
而空间智能的落地,需要高带宽、低延迟、大内存、高并发,这些需求是传统图形处理无法满足的。
三个案例指向同一个趋势:Luma看重成本,Liquid看重实时性,World Labs看重大内存。
这意味着算力竞争的逻辑已经改变:从比拼参数,变成比拼体系能力。
AMD正将硬件重塑为AI的“操作系统”,成为支撑万物智能的算力底座。
如果说Helios是主电站,那么接下来的问题就是:电力如何输送到各个角落,如何在每个终端点亮应用。
AI要无处不在,就需要将算力带到云端之下的每一层。个性化、现场化、连续性,是这个过程的三个关键词。
从医院、工厂、学校,到你桌上的那台电脑,AI需要进入真正复杂的人类环境。
1、从AI PC到Halo:将AI带到桌面
过去两年,大语言模型几乎都在云上运行,但这带来两大问题:
成本高昂,每次调用都需要支付显卡费用;
延迟明显,每次问答都依赖网络连接。
AMD推出Ryzen AI Max和Halo系列,就是要将AI能力搬到本地。
Ryzen AI Max配备128GB统一内存,可在本地运行200B参数模型,让创作者和开发者能直接在个人工作站上部署AI工具。
性能方面,它在高端笔记本场景中超越MacBook Pro,在小工作站场景中以更低价格达到NVIDIA DGX Spark的性能,运行GPT开源模型时每美元每秒生成的Token数是后者的1.7倍。
Halo则是全球最小的AI开发机,手掌大小却能运行200B参数模型,预装ROCm软件栈,专为开发者和研究团队设计。
关键技术是AMD将CPU、GPU和NPU做成统一内存架构,三者直接共享数据。这意味着你在笔记本上调用Copilot、摘要会议、编辑视频,都可以完全离线完成。
2、医疗:AI已经在救人
OpenAI总裁Greg Brockman分享了一个假期里的真实案例:有人腿疼,医生初诊说没事,回家后用ChatGPT输入症状,AI建议立即回医院。结果发现是严重血栓,如果没有AI提醒可能致命。
医疗行业已成为AI落地最快的领域之一。
现场三家公司展示了实际应用:
Absci用AI从零设计新药,使用AMD MI355单日筛选超过100万种候选药物,攻克脱发和女性健康疾病。
Illumina每天产生的测序数据量超过YouTube,用于癌症早筛和精准医疗,系统采用AMD EPYC CPU和FPGA实时处理。
AstraZeneca大规模使用生成式AI设计分子、筛选药物,候选药物交付速度提升50%,临床成功率也在提高。
这些公司已将AI作为主力工具,而非简单试水。
3、工业机器人:边缘AI的触觉协作
Generative Bionics创始人Daniele Pucci带来了人形机器人Gene One。它能感受人手的力度、方向和协作意图,这背后是触觉反馈和实时决策能力。
AMD提供了完整算力路径:机器人本体用Ryzen AI Embedded和Versal Edge芯片,模型训练用MI系列显卡,多机协作靠Pensando网络芯片。
边缘设备的AI不能等待联网,必须本地决策、立即响应。这就是AMD从云到端的连续计算架构。
4、新兴场景:不能等、不能断、不能慢
除了云端和边缘,AI正向更多新兴场景渗透。空间智能、机器人导航、虚拟世界构建,都需要高带宽、低延迟、大内存和实时响应。
这些场景的共同特点是:不能等,不能断,不能慢。
5、AI落地的未来:从标准芯片变为场景原生平台
这一整轮发布,实际上是Lisa Su带领AMD转型的清晰路线图。
在云端,Helios机架、MI455显卡和Venice CPU构成了大规模训练与推理的基础设施,服务于OpenAI、Meta等头部AI公司。
在企业级,MI440X和MI430X提供更高精度的计算能力,专门面向主权AI和超级计算场景,满足科研机构和政府部门的需求。
在开发层,Ryzen AI Max和Halo让开发者能在本地进行模型开发和智能体原型验证,不必每次都依赖云端资源。
在消费端,Ryzen AI 400系列处理器让普通PC也能运行Copilot、主动助手和内容创作工具,将AI真正带入日常生活。
从云到端,AMD不是在销售芯片,而是在铺设AI时代的基础设施。
MI455是芯片,Helios是平台,但真正让AMD占据有利位置的,是Lisa Su所揭示的产业逻辑:
不是建造一台最强机器,而是搭建一套可量产的工业系统;
不是问能跑多大模型,而是问能否支撑百万级智能体同时工作。
OpenAI训练模型,Luma生成视频,Absci设计新药,Generative Bionics驱动机器人。
而AMD,正成为这一切背后的算力基础设施提供者。
2026年这场CES,Lisa Su押注的是最底层的命题:让AI真正落地,既要性能足够强,也要成本可控,还要长期稳定运行。
https://www.youtube.com/watch?v=H4ylJtPRACo&t=7079s
https://www.reuters.com/business/amd-unveils-new-chips-ces-event-las-vegas-2026-01-06/
https://www.amd.com/en/newsroom/press-releases/2026-1-5-amd-and-its-partners-share-their-vision-for-ai-ev.html
https://www.marketwatch.com/story/as-amd-chases-nvidia-heres-how-its-positioning-itself-for-the-future-of-ai-09048ea4
本文由主机测评网于2026-03-15发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:http://www.vpshk.cn/20260331456.html