尽管三星的HBM4尚未获得英伟达的官方认可,但在上周五(9月19日),其12层HBM3E内存成功通过了英伟达的严格测试与认证,这意味着三星即将加入英伟达GPU的HBM供应商行列。
这一消息犹如投石入水,激起了层层涟漪。
人工智能的热潮不仅推动了大模型与算力芯片的广泛讨论,更彻底引爆了对内存需求的爆炸性增长。近年来,HBM(高带宽内存)已成为这场技术浪潮中备受瞩目的“隐形冠军”。如果没有HBM,英伟达A100、H200等AI芯片的辉煌就难以实现,众多大模型也无法在短时间内快速涌现并持续迭代。
正因如此,HBM变得供不应求,几乎成为半导体行业的“硬通货”,这也让主要生产商SK海力士超越三星,跃升为全球最大的存储芯片制造商。
收入榜单,数据来源:TrendForce
然而,挑战也随之浮现。HBM在速度、带宽和延迟方面表现卓越,但容量仍然有限,且成本持续高企。随着AI模型规模不断扩大,对内存的需求日益膨胀,仅依赖HBM难以满足未来全球AI推理的巨大需求。特别是以DeepSeek为代表的MoE模型(专家混合模型)降低了对算力的依赖,使得内存瓶颈问题更加凸显。
本月早些时候,被誉为“HBM之父”的韩国科学技术研究院教授金正浩指出,未来内存行业的竞争焦点将转向HBF(高带宽闪存)。
这一观点并非无的放矢。作为HBM领域的主导者,SK海力士已与闪存巨头闪迪携手,公开宣布共同开发HBF技术,并推动其行业标准化。那么,HBF究竟是什么?当HBM无法满足需求时,HBF能否接过下一棒?
在深入探讨HBF之前,有必要先理解HBM的核心价值。HBM,全称为高带宽内存,可被视为“GPU专属的顶级内存”。其技术特点在于将多层DRAM芯片像搭积木一样垂直堆叠,并通过超宽接口直接连接至GPU。这种方式大幅拓宽了数据通道,使得传输速度急剧提升。例如,英伟达H200搭载的HBM3e,单卡内存带宽高达4.8 TB/s,比普通DDR内存快出数十倍。
但问题在于,HBM如同性能超跑的引擎,速度惊人却续航有限。其容量通常停留在几十GB级别,即使SK海力士即将量产的HBM4单封装最高仅能达到36GB(未来可能提升至64GB),而大模型的参数量往往以千亿计。更现实的是,HBM成本极高、良率偏低、产能受限,直接导致单块GPU价格攀升至数万美元,成为AI发展的关键瓶颈。
在此背景下,HBF(高带宽闪存)备受关注。简而言之,HBF是将NAND闪存进行堆叠,采用类似HBM的封装工艺,使其既能像内存一样高速读取数据,又能如硬盘般存储海量内容。其目标并非完全取代HBM,而是充当“容量补充者”:
HBM继续处理最关键、对延迟最敏感的任务,而HBF则用于承载超大模型的权重、KV缓存等“容量消耗型”部分。
HBF架构示意图,图片来源:闪迪
换言之,HBM是短跑健将,HBF是长途货运车,两者协同工作,才能实现速度与容量的双重优势。这也正是“HBM之父”看好HBF的根本原因。
韩国科学技术院(KAIST)教授金正浩,作为提出内存芯片垂直堆叠理念的关键人物,在9月初的演讲中强调,内存行业未来的决胜点在于HBF。其逻辑清晰明了:AI的发展趋势正从算力中心转向内存中心,算力增长再迅猛,若数据无法高效存储、模型无处安放,整个进程仍将受阻。
而HBF恰好弥补了HBM的容量短板,使系统在保持高带宽的同时,获得更大的存储空间和更低的成本效益。
持续延长的上下文长度正不断吞噬存储资源,图片来源:闪迪
因此,金正浩的研判、SK海力士的布局以及闪迪的投入,共同指向一个核心逻辑:AI的未来不仅需要更快的存储速度,还需要更庞大的存储池。HBM已将速度推向顶峰,但若缺乏HBF,AI的发展终将触及天花板。
从这个视角看,HBF不只是一项技术创新,更可能成为AI硬件架构变革的核心驱动力。
HBF的商用化并非遥不可及。按照闪迪和SK海力士的规划,2026年下半年将推出首批HBF样品,2027年初预计会有搭载HBF的AI推理设备上市。这意味着,最快两年内,HBF将从实验室走向实际应用。
那么,首批设备将是什么形态?最有可能的是GPU厂商和服务器制造商率先集成。以英伟达H200为例,作为全球首款采用先进HBM3e显存的GPU,它配备了141GB的HBM3e,成本极其高昂。HBF则如同为GPU加装“外部储能舱”,不仅能一次性容纳更多模型,还可显著降低从SSD频繁调取数据的延迟。
但HBF的影响力远不止于数据中心。在边缘设备与个人计算领域,它同样可能引发深远变革。
当前,AI PC和AI手机都强调在设备端运行大模型,然而终端设备的内存容量远不足以支撑百亿参数模型。如果HBF能以小型化模块或与处理器集成封装的形式进入终端,用户将有机会在本地调用更庞大的AI模型,享受更流畅的语音助手、更智能的生产力工具,甚至真正实现离线AI应用。
图示:微软相关技术,图片来源:微软
更重要的是,HBF在成本与功耗方面的优势,使其天然适合终端场景扩展。HBM成本高、功耗大,而HBF基于NAND闪存,密度更高,单位容量价格更低。对于笔记本电脑、智能手机乃至XR设备,如何在有限空间与电池续航下提供更强AI能力?HBF提供了一个现实解决方案:
在云端,它缓解GPU内存瓶颈,助力超大模型高效运行;在终端,它可能成为AI普及的关键推手。
当然,短期内HBF在边缘终端或个人计算平台的大规模应用仍面临挑战,但通过AI数据中心的率先迭代,HBF必将在未来几年重塑AI推理模式,进而深度影响我们的AI体验。
从HBM的爆发到HBF的兴起,我们见证着同一趋势:AI已将内存与存储推向舞台中心。没有HBM,就没有今天的算力繁荣;而若缺乏更大、更经济、更低功耗的存储介质,AI的未来仍可能受制于“存储瓶颈”。
HBF之所以备受期待,并非因为它旨在全面替代HBM,而是它填补了关键容量缺口。它让GPU摆脱“小油箱”的束缚,也为未来AI PC与边缘计算开辟了想象空间。当速度与容量协同发力,AI的运行范式很可能被彻底重塑。
但新的问题也随之浮现:
- HBF能否像HBM一样,从技术概念演进为行业标准?
- 在数据中心率先应用后,它能否成功拓展至个人计算终端?
- 当存储不再受限时,下一个制约AI发展的环节又会是什么?
这些问题的答案,或许要等到2027年HBF首批设备问世后才能明晰。但可以肯定的是,定义AI的边界,不止于算力,更在于存储。而这场竞赛,此刻才刚拉开序幕。
本文由主机测评网于2026-01-02发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260114288.html