【导读】Google和IBM十年无法突破的量子瓶颈,被一块集成1万量子比特的芯片彻底打破?当巨头们仍在百级量子比特徘徊时,量子计算突然迈入了可落地的时代。更耐人寻味的是,真正承接这场变革的,是早已在算力入口处布局的英伟达。
拉长时间线后,不难发现量子计算已陷入长达十年的停滞期。
2019年,Google在《Nature》上宣称其Sycamore处理器拥有53个量子比特,实现了“量子优越性”。
整个科技界为之震动,许多人以为量子时代即将开启。
然而六年过去,Google公开的最新技术指标也不过105个量子比特。
2021年,他们曾立下1000+量子比特的目标,但到了2023年,旗舰芯片Heron仍停留在133量子比特,官方不得不推迟扩展计划。
IBM的路线图更是将行业的尴尬暴露无遗。
IBM预测线路图显示,2024年其量子处理器在2019~2029年间仍将停留在百级至低千级规模。
Google与IBM的主流路线在2019至2023年间全部卡在百级量子比特。
IBM的路线图甚至不再将扩大量子比特数列入短期计划——可见整个行业十年间都被困于此。
Rigetti、IonQ、Quantinuum……全球量子巨头均未能突破这堵“百量子比特天花板”。
更具讽刺意味的是,量子计算早已被描绘成未来所有产业的基础设施,但实际量子比特数量却原地踏步。
这究竟是为何?
量子计算之所以停滞十年,并非Google、IBM不够强大,而是因为“扩展”本身就是一条死胡同。
每增加一个量子比特,都需要付出成倍的工程代价。
控制线激增、布线密度过高、量子态易受干扰而崩塌、误差率飙升到无法使用。
当达到百级量子比特时,整个系统就像一张被拉满的弓,再多加一丝力,就可能瞬间崩溃。
因此业界只能退而求其次:将多个小QPU通过网络拼合成一个“大系统”。
这听起来像是扩展,实际上只是把问题转嫁给系统层:成本更高、复杂度更高、可靠性更差,而量子比特本身并未真正增多。
这个死结在今年首次被真正解开。
QuantWare推出的VIO-40K架构,直接将量子比特从行业共识的100量级推至10000,一举掀翻了天花板。
这无异于宣告:扩展量子比特,不再是量子计算的终极难题!
如果说过去十年像一口井,大家都卡在井壁上,那么QuantWare做的就是给这口井开凿了一条新通道。
从百级到万级,差的不是数量,而是范式。
百级量子比特是概念验证,万级量子比特才是可能改变现实计算格局的规模。
QuantWare的VIO-40K架构现已开始接受预订,并计划于2028年发货。
十年未动的量子界,终于从理论跨入了“可扩展硬件”的时代。
从100到10000,乍看只是“数字变大了”。
但对量子计算而言,它真正改变的并非规模,而是方向。
过去十年,量子行业的路越走越窄。强行扩展量子比特反而会让整个系统失效。
百级量子比特不是起点,而是瓶颈。
只要继续增加量子比特,噪声和错误就会上升到无法使用的程度。
因此这十年里,所有公司只能将多个小芯片拼接,用网络去“假装扩展”。
1万量子比特的意义,就在这里发生了质变。
QuantWare采用3D scaling + chiplet架构,将I/O、布线密度、信号干扰、模块间互联这些原本无法再扩的难题一次性重写。
结果是,扩展性首次被重新打开,整个行业的未来轨迹也随之改变。
扩展量子比特的失败,说明量子计算始终缺乏进入现实世界的能力。
因为药物模拟、材料设计、优化问题需要成千上万量子比特空间。
百级量子比特能做演示,万级量子比特才能做计算。
以前大家只能自我安慰:“等未来的量子处理器做出来就能实现”。
但扩展性死了十年,这种未来其实一直不存在。
1万量子比特的出现,使量子计算第一次具备了“可放大性”。
这比性能本身更为关键。
行业的最大问题从来不是“量子比特太少”,而是:增加量子比特会让系统崩溃。
这就是为什么Google六年才增长50量子比特。
也正因如此,Google、IBM才会不断调整路线图,甚至推迟扩展计划。
但VIO-40K架构用3D缩放和小芯片设计,将I/O、连线密度、噪声、互联、校准这五座大山一并移除。
扩展量子比特的工程之路重新开启,产业也从被困的死胡同,变成了能持续奔跑的高速路。
过去十年,所有关于量子计算的期待——如破解密码、加速药物研发、材料反应模拟、优化能源系统——都停留在理论层面,因为百级量子比特根本不够用。
1万量子比特的出现,首次让这些应用不再遥不可及。
当扩展性被打开后,行业不再需要依赖未来某一天的巨大飞跃,而是可以沿着可见、可重复的工程路径持续增长。
这也正是QuantWare CEO所言的核心含义:
100量子比特让我们只能讨论未来,1万量子比特才让未来真正开始。
过去十多年,摩尔定律几乎停摆,GPU的增长也接近物理极限。
量子扩展性被打开,意味着计算能力有了“第二增长曲线”。
这为人类算力开辟了一个新维度,尤其在算力越来越昂贵、越来越难扩展的今天。
1万量子比特的意义,从来不是“更多量子比特”,而是量子计算从“卡死”到“可扩展”的重大突破。
这是未来十年所有量子路线图、所有产业计划的基础。
要把处理器从100个量子比特扩到10000个,靠“堆叠”是不可能实现的。
QuantWare的突破点在于:它不是简单地把量子比特加多,而是将量子处理器的“空间结构”整体换掉。
传统量子芯片的问题在于,控制线必须从芯片边缘引入,而量子比特却在中间,导致布线越来越长、电磁干扰越来越强。
学术界称之为“扇出极限”(fan-out limit),一直缺乏干净的解法。
而QuantWare的3D scaling,让控制线能够从多层、多方向进入量子芯片,等于将原本挤在二维平面上的布线,扩展为立体空间结构。
这带来了三个直接结果:
简言之,他们给量子处理器多加了一维空间。
Chiplet并非量子领域独有的概念,AMD、Intel在经典芯片领域已靠它实现性能突破。
AMD Zen架构就是用多个小芯片组成大CPU。
QuantWare的做法是将这个成熟的Chiplet思路搬到量子领域:将大型QPU拆分成多个模块,各自保持高保真度,再通过高质量互联组合成完整系统。
这解决了过去大芯片越大越难制造、误差越多、良率越低的问题。
Chiplet则让量子处理器可以分模块制造、分模块校准、分模块修复,并能灵活分模块扩展。
最关键的是,模块之间的连接不再成为噪声放大的来源。
QuantWare强调“高保真芯片到芯片连接”。这意味着,过去“拼接QPU会让系统质量变差”,现在变成“拼接QPU可以继续扩展”。
行业第一次得到了可复制的扩展路径。
I/O数量一直是量子芯片扩展不动的根本原因之一。
QuantWare的架构支持40000条I/O控制线——这是一个指数级的提升,也是行业首次“扩展I/O没有马上导致噪声死亡”的案例。
如果说3D scaling提供了空间,chiplet架构提供了模块性,那么40000 I/O就是基础设施。
没有这个数字,1万量子比特根本无法运行。
QuantWare发布时强调:1万量子比特的芯片比现有系统“更小”。
在工程学里,这意味着非常罕见:扩大规模的同时缩小体积,表明架构进入了“可扩展区域”。
Google、IBM每扩一点量子比特,系统都会变得更大、更难、更脆弱、更昂贵。
QuantWare反而实现了更大规模、更小体积、更高良率、更低噪声。
因此,QuantWare的真正突破在于:将“扩展量子比特必然失败的架构”,变成了“扩展量子比特可以持续进行”的硬件体系。
这是量子计算十年来首次出现的“可扩展的硬件体系”,也是第一个让行业看到真实未来的工程路径。
当量子计算的规模障碍被冲破后,行业马上遇到一个更现实的问题:
1万量子比特能计算,但这些计算如何与现实世界的经典算力体系接轨?这件事的难度,不亚于造出处理器本身。
因为,量子计算机需要:经典算力做预处理、误差校正、大规模数据吞吐、统一的编译框架以及能让开发者调用的API。
如果量子没有经典算力的高速对接,它就是一座巨大的孤岛。
就在这一刻,英伟达站在了门口。
QuantWare发布的VIO-40K可与NVIDIA的NVQLink直接对接,开发者能通过CUDA-Q同时使用量子与经典算力。
NVQLink是英伟达专为高性能计算设计的高速互联协议;CUDA-Q是英伟达为量子—经典混合计算构建的软件栈。
这两者组合起来,意味着英伟达已提前准备好了“量子时代的PCIe插槽”。
当量子突然变得可扩展,行业最难的问题变成了——谁能让量子算力进入现实世界?
现在答案已经非常明确:英伟达。
它不是造出量子处理器的人,但它是能将量子处理器“接入世界”的人。
在算力生态里,入口永远比硬件本身更重要。这也是为何GPU行业中“英伟达统治软件栈”的格局能持续数十年。
今天的量子行业,也出现了类似的一幕:
量子突破最大的受益者,是造高速公路入口的人。
十年未动的量子天花板,在这一刻被推开了。
1万量子比特让量子计算第一次具备了继续向前的可能,而英伟达已经把通往现实世界的入口提前铺好。
行业将走向何方,目前尚无定论,但有一点已经确定:
算力的下一步,从这里开始改变了。
参考资料: https://interestingengineering.com/innovation/quantware-qpu-10k-qubits
本文由主机测评网于2026-03-03发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260328409.html