今年的CES盛会可谓群星闪耀,黄仁勋、苏姿丰、陈力武等行业领袖纷纷登场;不过这次讨论的焦点已超越显卡、算力与制程,而是聚焦AI的未来走向。
在AMD的主题演讲中,苏姿丰抛出了一个大胆预测:
“未来五年内,全球将有50亿人每日使用AI,这一数字将超过世界总人口的一半。”
——这一增长速度将远超互联网早期阶段,自ChatGPT于2022年底发布以来,AI活跃用户已从100万激增至10亿以上。
值得一提的是,“AI教母”李飞飞也亲临现场。
李飞飞并非为新品站台,而是与苏姿丰深入探讨空间智能与世界模型——这个她已深耕二十余年的领域。
此外,OpenAI总裁兼联合创始人Greg Brockman也登台助阵,指出行业痛点:“计算能力仍是AI迈向通用智能的最大瓶颈。世界所需的GPU数量远超当前规模。”
这正是AMD接下来要解决的问题——补齐AI普及所需的算力基础设施。在苏姿丰描绘的未来蓝图中,AI将无处不在,算力将人人可及。她在CES上展示的不仅是更强的GPU,而是一套完整的AI版图。
针对云端,基于下一代MI455 GPU的Helios机架级平台成为全场焦点:单机架集成72块AI GPU,算力高达2.9 ExaFLOPS,可通过成千上万个机架拼接成超大规模训练集群,直指千亿参数大模型的核心战场。
谈及云端算力未来,苏姿丰毫不掩饰AMD的雄心:
“全球AI运行在云端,而云端运行在AMD平台上。”
她还指出,下一代Instinct数据中心AI加速器平台MI500系列将于2027年推出,全面转向2nm工艺,并放出豪言:四年内AI芯片性能提升1000倍(远超摩尔定律)。
与此同时,AMD正推动AI从云端下沉至本地,核心落点之一便是AIPC。
Ryzen AI通过内置NPU(神经网络处理单元)让AI本地运行、离线可用,实现真正的端侧智能。
在数据中心这一AI算力核心战场,AMD推出“一整个机架”的算力方案Helios,这几乎重新定义了数据中心硬件形态。
Helios是AMD面向YottaFLOPS级AI的下一代机架级平台,堪称本次发布会的“镇场之作”。
YottaFLOPS级AI即算力达10²⁴次浮点运算/秒的人工智能系统,能在极短时间内模拟、理解和优化极其复杂的世界系统,如全球气候、全人类基因等,能力规模远超当前任何单一AI模型。
Helios从一开始便按大模型需求设计,采用开放OCP机架标准,与Meta合作开发,强调模块化、可扩展性,能快速构建大规模集群。
其核心是一种全新的算力组织方式,可将72颗芯片协同工作。
通过高速互联和软件栈,这些GPU被组织成统一调度的算力池,而非“72个独立设备”。在FP4低精度推理口径下,单台Helios机架式服务器可提供高达2.9 ExaFLOPS算力,并搭载31TB容量的HBM4。
将数千个Helios机架互联,便能搭建面向万亿参数模型训练和推理的超大规模集群。
Helios的算力底座是AMD最新一代Instinct MI455 GPU,也是AMD历史上跨代提升幅度最大的Instinct GPU。
这颗芯片拥有超过3000亿个晶体管,相比MI300系列提升约70%,推理与训练综合性能最高可达10倍提升。
AMD对MI455的定位非常明确:解决大模型训练和推理中最棘手的“内存墙”瓶颈。大模型跑不动,往往不是算力不够,而是数据喂不进去、内存带宽跟不上。
该加速器采用2nm与3nm混合工艺,搭配先进的3D小芯片封装技术,并搭载新一代HBM4高带宽内存。
更重要的是,MI455在计算托盘层面与EPYC服务器CPU、Pensando网络芯片深度集成,使CPU、GPU、网络协同成为平台能力,而非简单拼接。
苏姿丰打了个生动比方:“Helios是个庞然大物般的货架,双倍宽度设计,重量接近7000磅。”她指出,该机架重量超过两辆小型轿车总和。
如今,AI推理能力备受关注,其调用频率高、负载长期持续,进一步加剧算力缺口。
苏姿丰透露,AMD下一代MI500系列正在开发中,计划2027年推出,全面转向2nm工艺。从MI300到MI500的四年周期内,AI计算性能目标提升1000倍。
她称此为“公司历史上幅度最大的性能提升规划”,是支撑下一阶段超大模型训练和推理需求的关键基础。
在数据中心之外,AMD还将另一张牌打向终端侧:把云端AI工作搬到个人电脑上。
Ryzen AI Max 400系列(代号Strix Halo)正是这一策略的核心载体。AMD将其定位为面向AI开发者和高端创作者的“能真正干活”的本地AI芯片。
与Ryzen AI 300一样,Ryzen AI Max 400系列沿用Zen 5和RDNA 3.5,但支持更快内存速度。
简言之,Ryzen AI 400是一颗为AI笔记本打造的高性能处理器,最高配备12核CPU,集成更强核显和最高60 TOPS专用AI引擎,搭配高速内存,使多任务、创作及本地AI应用更流畅。
但更关键的是其系统设计:芯片同时集成XDNA 2 NPU,并采用统一内存架构,CPU与GPU可共享最高128GB内存。
这是运行大模型的前提——模型能否完整装入内存、数据能否顺畅流动,往往决定成败。
AMD用一场演示给出答案:一台搭载Ryzen AI的设备,在完全离线状态下流畅运行700亿参数的医疗大模型。
这意味着开发者可直接在笔记本上调试生成式模型;医疗、金融等行业无需上传数据即可完成模型推理。本地终端不再只是“调用云端AI”,而是真正承载模型本身。
数据显示:在高端笔记本形态下,Ryzen AI Max在AI与内容创作类应用中表现快于最新MacBook Pro;在小型工作站场景中,成本明显低于英伟达DGX Spark,且原生支持Windows+Linux。
AMD还发布了本地AI参考平台Ryzen AI Halo。
官方称其为“世界上最小的AI开发系统”,可在完全离线条件下运行多达2000亿参数模型,面向随时随地进行模型开发和部署的专业用户。
那些过去只能在数据中心完成的工作,正被压缩进一个可随身携带的设备。
前文提到“AI教母”李飞飞也亮相了。在这种聚焦硬件与平台发布的商业舞台上,李飞飞不常露面,她更多被视为学术界和公共讨论中的“定锚者”。
此次她在AMD专场演讲中强调,AI不仅要生成内容,更要理解并参与真实世界。
苏姿丰对此高度认同。她表示,过去几年大语言模型(LLM)推动了AI爆发,但智能不只来自“看和说”,真正连接“感知→推理→行动”的关键是空间智能(Spatial Intelligence)。
过去GPU快速发展让画质起飞,但3D/4D世界构建仍缓慢,往往需团队数月甚至数年完成;而AI正改变这一节奏。
李飞飞认为,AI正进入新阶段:从语言智能迈向具备空间理解与行动能力的生成式AI:
“AI在过去几年取得巨大突破,我深耕二十余年,从未像现在这样对未来如此兴奋。”
她还介绍了创业公司World Labs的核心动向:
已炼成的关键能力包括:仅凭几张照片甚至单张图片,模型即可补全被遮挡区域、推断物体背后结构,生成一致、持久、可导航的3D世界。
这不是照片或视频,而是真正保持几何一致性的三维空间,具备“空间补全与想象”能力,而非拼贴。
李飞飞指出,过去需数月完成的3D场景建模,现可在几分钟内完成。
她举例潜在影响:创作者可“在世界中创作”;机器人/自动驾驶可在物理一致的虚拟世界中训练再进入现实;设计师/建筑师可直接“走进”设计,而非看平面图。
她还特别强调,世界模型并非“离线生成完就结束”,它需要实时响应、即时编辑,连续保持空间一致性。
这意味着极高的内存需求、大规模并行计算、极快推理速度,否则世界无法“活起来”。
谈及算力,李飞飞透露:World Labs的世界模型已运行在AMD MI325X GPU与ROCm软件栈上,并在短短几周内实现超过4倍的推理性能提升。
她提到,随着MI450等后续平台推出,更大规模世界模型的训练与实时运行将成为可能。
在消费级图形领域,AMD本次带来Radeon RX 9070和RX 9070 XT。
两者均搭载全新RDNA 4架构及最新AI图像技术(包括FSR 4),将游戏体验推向“AI加速+实时渲染”双驱动新时代。
其中RX 9070 XT拥有64个计算单元、较高频率,在多款3A游戏中表现强劲,4K最高设置下帧率明显领先前代,在30多款游戏中平均比RX 7900 GRE快42%。
RX 9070规格稍低(同样16GB显存),光追与AI能力略弱,但仍能在高画质下保持流畅,在30多款游戏中平均比RX 7900 GRE快21%。
综合来看,这两款显卡延续了RDNA 4高效能比、AI支持(如FSR 4)、光追性能提升的特性,适用于1440p到4K游戏场景。
EPYC Venice是AMD为“AI数据中心时代”打造的下一代服务器CPU。
它采用2nm工艺,最多集成256个Zen 6高性能核心,定位不只是“算得更快”,而是专门为AI集群服务。
相比上一代EPYC,Venice内存带宽和GPU带宽均翻倍,核心目标只有一个:在机架级规模下持续稳定地将数据“喂”给MI455X等AI GPU,避免GPU因“等数据”而空转。
为支撑这种规模,EPYC Venice还配套800G以太网,并结合Pensando Volcano/Selena网络芯片,面向万级机架横向扩展。
在AMD设计中,Venice不只是服务器CPU,更是AI机架级系统的“中枢处理器”,决定整个集群能否高效运转。
https://www.youtube.com/watch?v=UbfAhFxDomE&list=TLGGBbam0h3MCckwNjAxMjAyNg&t=3063s
https://www.techtimes.com/articles/313772/20260105/amd-ceo-lisa-su-declares-ai-everyone-ces-2026-guests-openai-luma-ai-liquid-ai-world-labs.htm
https://www.amd.com/content/dam/amd/en/documents/corporate/events/amd-ces-2026-distribution-deck.pdf
本文由主机测评网于2026-03-15发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:http://www.vpshk.cn/20260331496.html