在工业界以数十万GPU卡展示的“暴力计算”美学面前,学术界正沦为算力资源的“贫困区”。当高等院校人均GPU拥有量不足0.1张时,人工智能科研主导权的竞争或许已无悬念。
学术界面临的GPU短缺问题,其严重程度远超人们想象!
出于好奇,Francois Chaubard深入调查了相关数据,所得结果令人震惊不已。
以下是美国顶尖大学实验室的真实情况——
· 普林斯顿:人均0.8张GPU
· 斯坦福:人均0.14张GPU(其超算集群Marlowe仅提供248张H100可用)
· 哈佛、华盛顿大学、卡内基梅隆大学:人均GPU数量在0.2-0.4张之间
· 加州理工学院、麻省理工学院、加州大学伯克利分校:人均GPU甚至达不到0.1张
当前,要进行有意义的AI研究,人均至少需要1张GPU。实际上,若想开展实质性工作,8张GPU才算是基本配置。
没有对比,就难以感知差距的悬殊。
与此同时,全球领先科技公司的前沿实验室普遍以十万张GPU为起步规模。
以微软的Fairwater Atlanta数据中心为例,其月度算力足以完成23次GPT-4规模的训练任务。
换言之,当初代GPT-4训练耗时90到100天时,同等时间在此数据中心可重复该过程约70次。
借助此类巨型数据中心,工业界实验室能够极大提升前期实验和最终模型训练的规模与频率。
到2026年底,马斯克的Colossus 2项目很可能将这些数字提升一倍以上。
而到2027年底,微软的Fairwater Wisconsin数据中心预计单月即可完成超过225次GPT-4规模的训练。
马斯克的xAI正在利用百万张GPU互联的超级系统“Colossus 2”训练Grok 5模型。
2024年,李飞飞在一次炉边谈话中承认,“斯坦福NLP实验室仅拥有64张GPU”。
学术界在AI计算资源方面正经历断崖式下滑。
同时,《自然》杂志的一篇调查揭示了“AI算力差距”,指出了同样严峻的现实:
在训练AI模型时,学术界科学家可用的计算资源与工业界完全不在同一水平。
文章开头的数据进一步印证,高校GPU资源难以支持大规模的AI实验。
这种现象在美国和国内都普遍存在。
在Reddit一篇热门帖子中,一位博士生透露缺乏H100显卡,算力成为项目推进的主要障碍。
此外,Uvation调研显示,GPU在高校课程和教学中愈发重要,正重塑计算机科学和工程学的学习方式。
如下表所示,斯坦福、MIT、牛津大学等均开设需要GPU的相关课程。
学术界GPU短缺问题影响深远,可能引发连锁反应。
杜克大学陈怡然教授曾指出,由于工业界和学术界在计算和数据资源上的差距扩大,AI科研人员不再将高校教职作为首选目标。
这意味着顶尖人才可能加速流向工业界,主要原因正是GPU资源不足。
另一方面,学术界因GPU有限难以验证宏大创意,正逐渐丧失定义前沿的能力。
2025年斯坦福AI指数报告中的一张图清晰显示了这一趋势。
谷歌、Meta、微软、OpenAI等科技巨头产出有影响力的AI模型数量远超学术界。
AI专家Sebastian Raschka表示,资源短缺仅是问题之一。
另一个问题是,这些资源通常只能通过SLURM(或类似调度系统)访问,缺乏交互模式。
除非实验细节和运行时长完全确定,否则整个流程极其繁琐。在这种环境下进行研究挑战巨大。
此外,学校GPU并非随时可用。
网友Lucas Roberts分享,他曾与一位德州教授交流,得知学校GPU单次运行上限为24小时,之后必须保存进度并重新排队。
后来该教授为实验室争取经费购买了几张显卡,才实现了任务连续运行。
据他了解,这种24小时强制中断的规定在其他高校也很常见。
然而,LeCun对此观点提出反驳,透露纽约大学拥有全美学术机构中规模最大的GPU集群。
具体来说,包括500张H200,甚至超过普林斯顿。
不过,一些高校的条件相对较好。
微软研究院前高级研究员、威廉与玛丽学院助理教授Jindong Wang表示,其实验室为每位学生配备6张GPU,并可访问云集群。
Vector研究所研究总监、多伦多大学统计与计算机系教授Dan Roy称,他们为每位学生都提供了1张GPU。
资源更充裕的学校,如得克萨斯大学奥斯汀分校,直接为其AI基础设施采购了超过4000张Blackwell GPU。
加上现有设备,UT Austin将拥有超过5000张英伟达GPU。
据悉,这些设备甚至由自有发电站提供支持。
这些英伟达GB200系统和Vera CPU服务器将融入全美最大的学术超算“Horizon”,为UT Austin提供学术界顶尖的AI算力。
这种算力水平意味着UT Austin完全有能力从头构建开源大语言模型。
类似地,加州州立理工大学正在启动一个由英伟达DGX支持的“AI工厂”——
它配备了4套NVIDIA DGX B200系统,并整合了高性能存储、网络设施以及NVIDIA全套AI软件栈。
借助这套系统,以往在标准硬件上需数月完成的研究任务,如分析数十万个视频文件,现在仅需几天即可实现。
反观国内,GPU在高校的分布同样不均衡。
知乎上一个话题下,硕博生纷纷讨论实验所用显卡情况。
北京某高校计算机硕士表示,已成功申请到研究院的公用服务器。
还有更艰难的情况,某985高校学生透露全组仅有一张3080显卡,不得不自费租赁GPU资源。
参考资料:
https://x.com/FrancoisChauba1/status/1997095264923078856?s=20
https://news.utexas.edu/2025/11/17/ut-eclipses-5000-gpus-to-increase-dominance-in-open-source-ai-strengthen-nations-computing-power/
https://x.com/EpochAIResearch/status/1997040687561449710
https://epoch.ai/data-insights/gpt-4s-trainable
本文由主机测评网于2026-02-06发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260223311.html