文|邓咏仪
编辑|苏建勋
封面来源|36氪拍摄
九月底的杭州,阿里巴巴与字节跳动围绕“AI云市场”排名的角逐异常激烈,紧张氛围笼罩了整个城市。
正值阿里云年度盛会“云栖大会”召开之际,许多与会者都能在杭州萧山机场、杭州东站等关键交通枢纽看到火山引擎的大幅广告,其中醒目地展示着市场份额数据:“占据中国公有云大模型市场份额46.4%”。
这一表述颇具深意。火山引擎虽未使用任何“最”、“第一”等极限词汇,但众所周知,国内具备一定规模的云厂商约有十家左右,火山引擎一家便独揽近半份额——这相当于什么都没明说,却又传递了所有信息。
来源:36氪拍摄
有云计算行业人士对此广告数据提出了质疑:火山引擎的这一数字是基于MaaS(模型即服务)形态统计的,主要涵盖闭源模型;如果是客户购买云厂商的IaaS和PaaS服务来部署开源社区下载的模型,则不在其统计范围内。单纯从MaaS形态的模型消耗来判断市场竞争格局,缺乏全面性。
事实上,不仅是火山引擎,当前各家云厂商似乎都能宣称自己是“AI云市场第一”。
在不同的广告宣传和市场研究报告中,阿里巴巴、字节跳动、百度等均曾官方宣布“第一”,只不过各自的表述角度和侧重点有所不同,场面显得剑拔弩张。
制图:智能涌现
谁才是中国AI云市场的真正领头羊?这已成为九月份云计算厂商和人工智能公司之间最热门的话题。
首先需要明确一个事实:这些模型厂商所宣称的AI云市场第一,均非虚言。问题的核心并不在于数据真实性,而在于对“AI云市场”这块蛋糕的划分方式存在差异,即统计口径各不相同。
那么,各家厂商究竟是在哪个维度上取得了“胜利”呢?
我们来具体剖析一下:
字节跳动旗下的火山引擎,其所宣称的是大模型公有云市场调用量(MaaS)的第一。这指的是其公有云平台上所有大模型调用的总Token数量。火山引擎上除了字节自家的豆包模型(不包含豆包、抖音等内部业务调用),还接入了大量第三方模型,只要在其云平台上被调用的Token,都会计入其市场份额。
阿里云所定义的AI云,是包含了从底层基础设施(如GPU算力)、到PaaS(平台服务),再到上层的MaaS(模型调用服务)的全链路服务所产生的总营收规模。
百度所呈现的是“AI公有云服务市场第一”,这包含了更多涉及产品化、行业定制化解决方案的收入。百度还曾披露过更细分的指标,例如“2025年上半年大模型中标项目数量和金额双双位列第一”。
另有大模型厂商如智谱AI,在发布GLM-4.5模型后,宣布以openrouter为统计口径,其模型调用收入超过了其他所有国产模型厂商的收入总和。
选择何种计算口径,本无可厚非。这是因为云计算已是一项成熟的业务,产品模块繁多,采购与服务模式也非常多元化。
举例来说,一个中小企业可能直接按月租用云厂商的虚拟服务器;而个人开发者往往不需要长期租用服务器,他们只需注册一个API密钥,即可按需取用服务。只有当用户开始运行AI应用时,才会触发对云厂商的业务请求。
大模型领域的情况与此类似。从个人、中小企业到大型企业,对大模型的需求也各不相同。
打个比方,火山引擎强调的“大模型调用量”,就好比一家体系化、规模化的连锁餐厅,只提供外卖服务,最终交付的是一道成品菜肴(即模型推理结果)。
直白地说,火山引擎认为客户无需关心后厨如何搭建,例如使用的是否是字节的豆包模型、何种芯片或推理框架,都无关紧要——只要最终上菜速度够快、菜品质量够好即可。
因此,你会看到火山引擎在不少公开场合中,都着重强调其模型服务的“速度”。
例如,今年8月DeepSeek更新V3.1版本后,火山引擎强调的就是20-40毫秒的吐字间隔(TPOT),以及高达500万的初始并发TPM(每分钟处理Token数),后者在当时达到了业界的领先水平。
TPM是衡量模型服务能力的关键指标。在一个中度使用场景(如文档总结、代码生成)中,假设每个用户每分钟消耗500个Token,500万的TPM就意味着能够同时服务1万名用户。
这是一种更偏向流量逻辑的打法,易于快速起量。换言之,它更适合拥有弹性业务需求的互联网AI应用、中小型开发者等群体。
而阿里巴巴和百度所强调的AI云市场,更多核算的是整体营收规模。
例如,阿里云定义的AI云,统计范围涵盖了从底层IaaS(基础设施即服务,如GPU算力)、PaaS(平台即服务),再到上层MaaS(模型即服务)的完整体系所产生的营收。
这好比一个功能齐全的厨房。客户不仅可以拥有厨房里的高级厨具(底层算力),也能直接点菜(模型服务),可做的事情更为丰富多样。
为何要选择全栈自研的路线?
单纯出售模型服务,很难构建长期的竞争壁垒。一位从事大模型推理服务的工程师向《智能涌现》比喻道:“这就好比一个人每周都去超市(全栈云服务)购物。当他需要购买一个杯子(API)时,除非别处的杯子有特别出众之处,否则,如果超市里有,他大概率会顺手在这家超市购买。”
无论是云计算还是大模型,真正的用户粘性往往来自于整体解决方案和数据绑定。大多数客户最终使用的服务绝不会仅仅是纯模型推理(如API),因为API很容易迁移。
“客户大多是需要API,再加上数据库、虚拟机等完整的产品组合。”上述人士补充道。
需要承认的另一个事实是,当前大模型领域看似热闹非凡、增长迅速,但本质上整体市场规模仍然较小。
2024年5月,火山引擎通过大幅降价彻底打开了MaaS服务市场。当时,火山将豆包旗舰模型Pro-32k的价格降至每千Token 0.0008元,降幅高达99.3%。
这直接引爆了行业价格战,阿里巴巴、腾讯、百度等厂商纷纷跟进降价。结果是,火山引擎的模型调用量从降价前的1200亿Token,猛增至超过5000亿Token。
根据IDC统计,2025年上半年,全国大模型调用量达到536.7万亿Token。如果粗略按照豆包Pro 128k模型去年降价后的定价(每千Token 0.0005元)计算,2025年全年MaaS市场的总规模大约在5至6亿元人民币。
相比之下,仅阿里云2024年全年营收就已超过800亿元。与传统云计算市场相比,当前的MaaS市场规模尚不可同日而语。
关键在于,各家厂商在现阶段更相信什么,更愿意优先投入哪些资源,这导致了不同的市场策略。
云计算是一个规模效应显著的生意,马太效应明显。阿里云依托其在传统云服务领域的优势,自然倾向于提供全栈解决方案,并通过增加模型服务来吸引和留住客户。
而火山引擎作为市场的新进入者,抢夺固有的云计算市场(如CPU服务)更为困难,因此才将精力聚焦于未来增长潜力巨大的GPU和MaaS(模型推理服务)领域。
在今年5月的公开报道中,火山引擎CEO谭待曾表示“马拉松才刚跑了500米”,未来市场空间至少会扩大100倍——例如,根据火山引擎近期公布的数据,豆包大模型日均Token使用量已超过16.4万亿,较去年5月首次发布时增长了137倍。
究竟谁才是AI云市场的第一名?目前业内尚未形成统一的标准。
在云栖大会上,阿里云就直接回应了关于统计口径的看法:如果只关注大模型在公有云上的调用量,就如同只看到了冰山一角。
之所以这么说,是因为大量客户并没有直接在公有云上调用模型。阿里云的通义大模型家族走的是开源路线,许多企业会选择直接将模型下载下来,部署在自家的私有云或本地服务器上运行。
这部分客户自行部署和使用所产生的调用量非常庞大,但外部的数据报告根本无法统计到。
阿里云衡量的是整个“AI云”业务的总收入。这个范畴非常广泛,包括了出租GPU算力(基础设施)、提供平台服务(PaaS)以及模型调用服务(MaaS)等所有相关收入。按照这个“营收总额”的维度,阿里云自认为是第一。
为了证明自家大模型的影响力更强,实际上还有许多细分维度可以挖掘。
在云栖大会的会后采访中,阿里云方面还提出,应当区分厂商销售的是自家研发的模型,还是转售的其他厂商模型;同时,所提供的模型服务,处理的是复杂任务(需要高质量旗舰模型才能完成),还是一些简单的离线数据标注工作?
9月份的一份沙利文报告就体现了这种更看重自研能力的思路。按照各厂商“自研模型”的日均调用Token份额统计,数据显示,2025年上半年,阿里通义占据17.7%,字节跳动豆包占据14.1%,DeepSeek则占10.3%。
价格战难以长期持续。大模型竞争正在从比拼基础设施规模、Token调用量等单一指标,过渡到比拼综合效能与服务深度。
一个典型的迹象是,2024年,单纯降价还能带动Token市场的爆发性增长;但到了2025年,这已不再是灵丹妙药。因为Token价格已经足够低廉,企业客户开始更多地关注模型的实际效果和运行效率。
对于规模相对较小的AI模型厂商而言,他们没有资源像大厂那样走全栈式路线。因此,打造差异化优势变得前所未有的重要。
近期的例子是,2025年,月之暗面推出的新模型K2针对代码任务进行了深度优化,性价比突出,调用量随即大幅攀升;上周,智谱AI也针对编程场景推出了GLM Coding套餐,并提升了编程服务的并发处理能力。
商业竞争的本质是朴实无华的。一个不变的真理是:当在对手擅长的指标上处于落后时,不如在自己的优势领域重新定义竞争规则。而究竟有多少客户愿意为此买单,才是当前大模型领域最核心的问题。
欢迎交流
本文由主机测评网于2026-01-06发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260115359.html