当前位置:首页 > 科技资讯 > 正文

HBF:AI存储的下一个革命,高带宽闪存引领未来

尽管三星的HBM4尚未获得英伟达的官方认可,但在上周五(9月19日),其12层HBM3E内存成功通过了英伟达的严格测试与认证,这意味着三星即将加入英伟达GPU的HBM供应商行列。

这一消息犹如投石入水,激起了层层涟漪。

人工智能的热潮不仅推动了大模型与算力芯片的广泛讨论,更彻底引爆了对内存需求的爆炸性增长。近年来,HBM(高带宽内存)已成为这场技术浪潮中备受瞩目的“隐形冠军”。如果没有HBM,英伟达A100、H200等AI芯片的辉煌就难以实现,众多大模型也无法在短时间内快速涌现并持续迭代。

正因如此,HBM变得供不应求,几乎成为半导体行业的“硬通货”,这也让主要生产商SK海力士超越三星,跃升为全球最大的存储芯片制造商。

HBF:AI存储的下一个革命,高带宽闪存引领未来 HBM HBF AI存储 闪存技术 第1张

收入榜单,数据来源:TrendForce

然而,挑战也随之浮现。HBM在速度、带宽和延迟方面表现卓越,但容量仍然有限,且成本持续高企。随着AI模型规模不断扩大,对内存的需求日益膨胀,仅依赖HBM难以满足未来全球AI推理的巨大需求。特别是以DeepSeek为代表的MoE模型(专家混合模型)降低了对算力的依赖,使得内存瓶颈问题更加凸显。

本月早些时候,被誉为“HBM之父”的韩国科学技术研究院教授金正浩指出,未来内存行业的竞争焦点将转向HBF(高带宽闪存)。

这一观点并非无的放矢。作为HBM领域的主导者,SK海力士已与闪存巨头闪迪携手,公开宣布共同开发HBF技术,并推动其行业标准化。那么,HBF究竟是什么?当HBM无法满足需求时,HBF能否接过下一棒?

HBF:AI存储的下一个革命,高带宽闪存引领未来 HBM HBF AI存储 闪存技术 第2张

内存堆叠换闪存堆叠,HBF如何做到的?

在深入探讨HBF之前,有必要先理解HBM的核心价值。HBM,全称为高带宽内存,可被视为“GPU专属的顶级内存”。其技术特点在于将多层DRAM芯片像搭积木一样垂直堆叠,并通过超宽接口直接连接至GPU。这种方式大幅拓宽了数据通道,使得传输速度急剧提升。例如,英伟达H200搭载的HBM3e,单卡内存带宽高达4.8 TB/s,比普通DDR内存快出数十倍。

但问题在于,HBM如同性能超跑的引擎,速度惊人却续航有限。其容量通常停留在几十GB级别,即使SK海力士即将量产的HBM4单封装最高仅能达到36GB(未来可能提升至64GB),而大模型的参数量往往以千亿计。更现实的是,HBM成本极高、良率偏低、产能受限,直接导致单块GPU价格攀升至数万美元,成为AI发展的关键瓶颈。

在此背景下,HBF(高带宽闪存)备受关注。简而言之,HBF是将NAND闪存进行堆叠,采用类似HBM的封装工艺,使其既能像内存一样高速读取数据,又能如硬盘般存储海量内容。其目标并非完全取代HBM,而是充当“容量补充者”:

HBM继续处理最关键、对延迟最敏感的任务,而HBF则用于承载超大模型的权重、KV缓存等“容量消耗型”部分。

HBF:AI存储的下一个革命,高带宽闪存引领未来 HBM HBF AI存储 闪存技术 第3张

HBF架构示意图,图片来源:闪迪

换言之,HBM是短跑健将,HBF是长途货运车,两者协同工作,才能实现速度与容量的双重优势。这也正是“HBM之父”看好HBF的根本原因。

韩国科学技术院(KAIST)教授金正浩,作为提出内存芯片垂直堆叠理念的关键人物,在9月初的演讲中强调,内存行业未来的决胜点在于HBF。其逻辑清晰明了:AI的发展趋势正从算力中心转向内存中心,算力增长再迅猛,若数据无法高效存储、模型无处安放,整个进程仍将受阻。

而HBF恰好弥补了HBM的容量短板,使系统在保持高带宽的同时,获得更大的存储空间和更低的成本效益。

HBF:AI存储的下一个革命,高带宽闪存引领未来 HBM HBF AI存储 闪存技术 第4张

持续延长的上下文长度正不断吞噬存储资源,图片来源:闪迪

因此,金正浩的研判、SK海力士的布局以及闪迪的投入,共同指向一个核心逻辑:AI的未来不仅需要更快的存储速度,还需要更庞大的存储池。HBM已将速度推向顶峰,但若缺乏HBF,AI的发展终将触及天花板。

从这个视角看,HBF不只是一项技术创新,更可能成为AI硬件架构变革的核心驱动力。

HBF彻底改变AI存储:从数据中心到消费终端

HBF的商用化并非遥不可及。按照闪迪和SK海力士的规划,2026年下半年将推出首批HBF样品,2027年初预计会有搭载HBF的AI推理设备上市。这意味着,最快两年内,HBF将从实验室走向实际应用。

那么,首批设备将是什么形态?最有可能的是GPU厂商和服务器制造商率先集成。以英伟达H200为例,作为全球首款采用先进HBM3e显存的GPU,它配备了141GB的HBM3e,成本极其高昂。HBF则如同为GPU加装“外部储能舱”,不仅能一次性容纳更多模型,还可显著降低从SSD频繁调取数据的延迟。

但HBF的影响力远不止于数据中心。在边缘设备与个人计算领域,它同样可能引发深远变革。

当前,AI PC和AI手机都强调在设备端运行大模型,然而终端设备的内存容量远不足以支撑百亿参数模型。如果HBF能以小型化模块或与处理器集成封装的形式进入终端,用户将有机会在本地调用更庞大的AI模型,享受更流畅的语音助手、更智能的生产力工具,甚至真正实现离线AI应用。

HBF:AI存储的下一个革命,高带宽闪存引领未来 HBM HBF AI存储 闪存技术 第5张

图示:微软相关技术,图片来源:微软

更重要的是,HBF在成本与功耗方面的优势,使其天然适合终端场景扩展。HBM成本高、功耗大,而HBF基于NAND闪存,密度更高,单位容量价格更低。对于笔记本电脑、智能手机乃至XR设备,如何在有限空间与电池续航下提供更强AI能力?HBF提供了一个现实解决方案:

在云端,它缓解GPU内存瓶颈,助力超大模型高效运行;在终端,它可能成为AI普及的关键推手。

当然,短期内HBF在边缘终端或个人计算平台的大规模应用仍面临挑战,但通过AI数据中心的率先迭代,HBF必将在未来几年重塑AI推理模式,进而深度影响我们的AI体验。

写在最后

从HBM的爆发到HBF的兴起,我们见证着同一趋势:AI已将内存与存储推向舞台中心。没有HBM,就没有今天的算力繁荣;而若缺乏更大、更经济、更低功耗的存储介质,AI的未来仍可能受制于“存储瓶颈”。

HBF之所以备受期待,并非因为它旨在全面替代HBM,而是它填补了关键容量缺口。它让GPU摆脱“小油箱”的束缚,也为未来AI PC与边缘计算开辟了想象空间。当速度与容量协同发力,AI的运行范式很可能被彻底重塑。

但新的问题也随之浮现:

- HBF能否像HBM一样,从技术概念演进为行业标准?

- 在数据中心率先应用后,它能否成功拓展至个人计算终端?

- 当存储不再受限时,下一个制约AI发展的环节又会是什么?

这些问题的答案,或许要等到2027年HBF首批设备问世后才能明晰。但可以肯定的是,定义AI的边界,不止于算力,更在于存储。而这场竞赛,此刻才刚拉开序幕。