当前位置:首页 > 科技资讯 > 正文

英伟达SOCAMM2内存模块:AI服务器技术的革新与未来

最新报道指出,英伟达已暂停其初代SOCAMM内存模块的市场推广,转而将研发资源集中投入于新一代SOCAMM2版本。据称,英伟达原先计划在今年为其AI产品部署60万至80万个SOCAMM模块,但由于技术层面遇到挑战,项目两度延迟,并未能达成大规模订单。目前,公司已与三星电子、SK海力士及美光等合作伙伴启动SOCAMM2的样品测试,标志着开发重心正式转移。

01

SOCAMM2是什么?有何优势?

SOCAMM技术被定位为面向AI服务器的新型高带宽、低功耗内存解决方案,旨在以更低的成本提供接近HBM(高带宽内存)的性能水平。该技术通过结合LPDRAM与压缩连接内存模块(CAMM),采用创新外形设计,在提升性能与能效的同时,比传统DDR5 RDIMM配置节省更多空间,并降低约三分之一的功耗。

英伟达在产品文档中已提及SOCAMM相关规格,例如GB300 NVL72支持最高18TB基于LPDDR5X的SOCAMM,带宽可达14.3TB/s。然而,由于GB300 "Blackwell Ultra"主板设计调整,SOCAMM模块不会立即商用,但该技术有望整合到Vera Rubin平台中,为Vera CPU提供更灵活、易维护的非板载内存选项。

英伟达SOCAMM2内存模块:AI服务器技术的革新与未来 SOCAMM2  AI服务器 LPDDR6 内存技术 第1张

值得注意的是,SOCAMM与HBM并非直接竞争,而是互补关系:SOCAMM侧重灵活性,HBM则通过先进封装集成满足极致性能需求。

SOCAMM 2或将支持LPDDR6内存规格

从技术架构分析,SOCAMM 2延续了SOCAMM 1的694个I/O端口设计,为基础性能升级提供稳定支持。其数据传输速度显著提升至9,600MT/s,相比SOCAMM 1的8,533MT/s增长约12.5%,这意味着更强的数据吞吐能力,可更好地满足AI服务器的高速运算需求。

更具前瞻性的是,SOCAMM 2很可能支持下一代低功耗内存LPDDR6。作为LPDDR5X的继任者,LPDDR6在通道架构上采用24位宽通道(两个12位子通道),取代了LPDDR5的16位单通道设计,并行处理能力大幅增强。其突发长度设定为24(BL24),形成288位数据包,其中256位用于有效数据,其余32位用于错误检查、内存标记或数据总线反转(DBI)等技术,在确保数据准确性的同时降低了写入功耗。

性能方面,LPDDR6的内存带宽高达38.4GB/秒,较LPDDR5有显著提升,且JEDEC确认其功耗降低约20%。在轻负载场景下,LPDDR6引入的效率模式(Efficiency Mode)可仅启用一条子通道访问存储区,另一条进入待机状态,进一步优化能耗。新增的ALERT信号线还支持DRAM颗粒主动上报15种故障类型,增强了数据完整性保障。

若SOCAMM 2成功集成LPDDR6,二者将形成协同效应:LPDDR6的高性能助力SOCAMM 2在带宽、能效和稳定性上突破,而SOCAMM 2的模块化设计为LPDDR6在AI服务器领域的应用拓展空间。不过,LPDDR6仍处于技术验证阶段,兼容性、成本及稳定性等不确定性因素尚未完全解决,供应商因此未正式确认该功能。

02

AI 服务器生态怎么融

SOCAMM2并非孤立产品,其价值实现依赖于与AI服务器生态的深度协同。硬件上,AI服务器的主板设计、CPU与内存控制器兼容性以及散热系统布局需适配SOCAMM2特性。以英伟达Vera Rubin平台为例,该平台对内存灵活性和可维护性要求较高。

SOCAMM2的非板载内存设计正契合Vera Rubin平台需求,允许内存模块独立升级更换,无需更换整个主板,从而大幅降低维护成本和升级周期。

软件层面,操作系统、AI框架及驱动程序的优化对SOCAMM2性能发挥至关重要。例如,在AI训练中,TensorFlow、PyTorch等框架需针对SOCAMM2的内存带宽特性调整算法,以实现高效数据调度与缓存管理。内存管理驱动程序也需支持多通道并行传输模式,确保多任务并发时资源合理分配,减少延迟与冲突。

此外,SOCAMM2与AI加速芯片的协同尤为重要。英伟达GB300系列、AMD MI300系列等主流AI加速芯片在设计时已考虑新型内存适配性。例如,英伟达GB300 NVL72规格支持最高18TB基于LPDDR5X的SOCAMM,带宽达14.3TB/s,这得益于芯片与内存厂商的提前协同研发。通过深度适配,可优化数据传输链路,减少信号干扰与损耗,提升AI服务器整体运算效率。

03

内存大厂,竞争升温

随着AI应用爆发,高带宽、低延迟内存需求激增,传统DDR内存难以满足AI服务器海量数据快速读写要求。HBM虽性能卓越,但成本高、产能有限,无法普及。SOCAMM2的出现填补了市场空白,融合LPDDR技术优势,有望以更亲民成本提供接近HBM的性能。

在此背景下,众多内存大厂积极布局SOCAMM2赛道。

美光凭借技术积累与快速市场响应,于今年3月率先交付基于LPDDR5X的SOCAMM模块,成为行业早期产品交付者。此举积累了市场经验,与部分AI服务器制造商建立合作,为SOCAMM2推广奠定基础,但先发优势的持续性取决于后续产品迭代与成本控制能力。

三星与SK海力士作为内存行业巨头,虽在SOCAMM产品推出上稍晚,但凭借技术储备与产业链整合能力,持续投入SOCAMM2研发与量产准备。三星的SOCAMM2设计方案注重紧凑性与散热管理,通过封装技术改进和散热材料应用,提升高密度服务器环境下的稳定性和可靠性;SK海力士则聚焦内存速率提升与稳定性优化,通过改进制造工艺和电路设计,增强数据传输速率、延迟控制及多模块协同稳定性。目前,两家企业均与英伟达合作进行SOCAMM2样品测试,并根据反馈优化设计,计划明年初推进量产。

国产存储厂商也积极参与竞争,江波龙作为代表企业,基于在存储芯片设计、主控开发、封装测试等环节的技术积累,推出自研SOCAMM2产品。该产品在保留SOCAMM通用优势的基础上,针对国内服务器市场特点优化,如去除LPCAMM2顶部凸出结构以降低高度,提升与国内常见服务器安装环境及液冷系统的适配性。这种本土化策略可能帮助其争取国内AI服务器制造商合作,拓展企业级存储市场份额,同时推动国产存储技术在AI内存领域突破。随着国内AI产业发展及对自主可控产品需求增长,国产厂商或凭本土市场优势缩小与国际大厂的技术差距。

04

商业化,还有多远?

SOCAMM2在商业化进程中面临技术、成本、生态等多重挑战,同时也蕴含市场机遇,其发展将影响AI内存行业格局。

技术兼容性是SOCAMM2商业化的首要挑战。作为新型内存模块,SOCAMM2需与现有AI服务器硬件架构、操作系统及AI应用框架兼容。部分老旧服务器的内存控制器可能无法支持SOCAMM2的高传输速率与特殊指令集,企业适配需硬件升级或更换,增加初期投入,可能导致成本敏感的中小企业暂缓采用;同时,软件适配优化需时间与资源投入,若滞后于硬件上市,将影响SOCAMM2性能释放和市场接受度。

成本控制对SOCAMM2推广至关重要。尽管SOCAMM2定位为“低成本HBM替代方案”,但与传统DDR5内存相比,其采用的LPDDR5X/LPDDR6颗粒及模块化设计在研发与制造成本上仍有差距。尤其是LPDDR6颗粒处于技术验证阶段,量产初期成本较高,将直接影响SOCAMM2定价策略:定价过高可能失去与DDR5的成本优势,定价过低则压缩厂商利润,影响研发投入。此外,生产良率也会影响单位成本,良率偏低可能推高成本,制约大规模商业化。

从市场机遇看,AI产业持续扩张将带动高带宽内存需求增长。

根据TrendForce最新研究,2025年因需求旺盛及产品均价较高,预计AI服务器细分市场价值将升至2980亿美元,占整个服务器行业总价值的70%以上。内存作为核心组件,需求将同步提升。SOCAMM2具备“高带宽、低功耗、低成本”特性,契合中高端AI服务器需求,在AI训练、推理、云计算等场景中有应用空间。

此外,SOCAMM2的发展或推动内存行业技术迭代。面对竞争压力,HBM、DDR5等产品可能加速升级,提升性能、降低成本,形成良性竞争格局。这种态势可能促使行业突破技术瓶颈,为AI产业提供更优质内存解决方案,推动AI计算性能整体提升。