
2025年11月25日,三组关键数据重新勾勒了阿里巴巴在人工智能领域的新格局:
阿里云业务收入同比激增34%,成为财报中独领风骚的增长极;
千问App公测首周下载量突破1000万次,增速超越了ChatGPT同期的表现;
GPU集群已满负荷运转,未来三年AI相关投资将远超原计划的3800亿元。
这场从基础设施到底层应用的全面迸发,并非一日之功。
早在月初,香港大学商学院的讲台上,阿里巴巴集团主席蔡崇信就揭示了背后的战略逻辑。
他用一句话点透了阿里AI战略的核心:
AI竞赛的最终赢家,不是模型参数最华丽的那一个,而是能让AI真正走入千行百业、让更多人用起来的那一个。
这不是一句口号,而是阿里在应对中美技术博弈、算力军备竞赛以及API商业模式争议时,所选择的突围路径。如今亮眼的财报数据,恰恰印证了这一战略的正确性。
在那场年度讲座中,蔡崇信系统性地阐述了阿里的AI逻辑:
为何坚定押注开源模型?
为何将云与基础设施置于核心?
为何强调技术强不等于竞争力,真正用得上才是硬道理?
从模型研发到应用落地,从技术突破到场景渗透,一套完整的战略蓝图正在加速变现。
近日,阿里巴巴发布了最新一季财报。
几组数据格外引人注目:
对市场和用户而言,更直观的信号来自于产品端的爆发。
本月,阿里旗下千问App(Qwen App)公测上线,首周下载量即突破1000万次,增速超过了ChatGPT、Sora、DeepSeek等明星产品的早期表现。应用内集成了文案创作、图像生成、PPT制作等多种实用模块,并计划与淘宝等电商业务深度融合,从单纯的模型能力向高频的消费级交互迈进。
阿里云方面也罕见发声:GPU集群已处于满负荷状态,将优先保障全栈客户的资源需求。
公司CEO吴泳铭在财报电话会中直言:
AI需求仍在加速膨胀,我们最初规划的投入可能还是偏保守了。
未来三年内,AI领域不仅不会出现泡沫,反而会持续面临资源短缺。
资本市场迅速捕捉到了这一风向转变。财报公布后,阿里美股大涨3-4%,港股次日涨幅超过5%。港股通渠道显示,内地投资者连续7日净买入阿里巴巴股票,持股比例已升至11.07%。
此次发力,并非一场华丽的发布会,也不是靠堆砌参数和榜单排名,而是通过两个维度扎实落地:
一是Qwen作为产品矩阵快速触达C端,千问App正从模型发布走向真实应用;
二是云业务与GPU资源的重新分配,精准回应了模型部署需求的井喷式增长。
这不是一场追风口的赶超赛,而是一次以基础设施为根基的战略转身。
阿里要做的,是让AI在应用层真正“跑起来”。
这套以应用落地为核心的打法,背后是一套清晰且务实的战略思考。
在本月初的香港大学对话中,蔡崇信已将这套逻辑和盘托出。
他指出,美国人习惯于用大模型的性能指标来评判AI竞赛的输赢,但阿里着眼的是整个技术栈,关注的是谁的AI能被广泛采用、持续使用、负担得起。
这背后是完全不同的竞争哲学:不是比参数,不是比榜单,而是比采用率(Adoption)。
蔡崇信强调,真正的赢家不是模型最先进的团队,而是能让AI渗透到最多人生活中的企业。
阿里的选择,是开源模型 + 全栈云服务 + 快速产品化,目标就是把AI从少数人的技术玩具,变成多数人的实用工具。
🔹开源,不是姿态,而是战略支点
阿里并非唯一开源的模型厂商,却是最早将开源定位为增长引擎的巨头之一。
Qwen的开源版本已在Hugging Face、ModelScope等平台上线,版本迭代快、覆盖范围广。
蔡崇信在对话中解释,开源的关键不只是技术共享,而是让中小企业、开发者、政府机构都能用得上、用得起。他特别提到,中东等地区国家希望发展主权AI,但多数缺乏从零研发的能力,开源为他们提供了可行的捷径。
这正是阿里押注开源的战略考量:闭源靠订阅收费,开源靠生态普及;闭源卖服务,开源卖能力。
OpenAI等海外路线主打token收费,使用成本居高不下;而Qwen则采用开源+插件+本地部署的组合拳,绕开token计费模式,直接推高应用密度。
🔹落地的关键,不是技术强,而是用得上
对话后不久,新加坡本地研发的多语种大模型项目“海狮”(Sea-Lion v4)宣布采用Qwen作为基座。开发团队表示,选择Qwen是因为它更易本地部署,也更适合训练东南亚语言。
在国内,众多企业和机构已将Qwen模型集成进电商系统、办公平台、文档处理等场景,甚至不依赖阿里云。这正是开源带来的最大优势:可控性和适配性。
阿里并不强求每个用户都留在自己的平台上,而是希望Qwen成为别人平台上的基础模块。
蔡崇信的表述是:我们要打造的,是一个开放、可定制、易部署的AI生态。
这种思路更像安卓,而非iOS;更像电网,而不是发电机。
开源模型并非公益行为,而是一条清晰的商业路径。
蔡崇信在对话中明确表示:
阿里不靠模型本身赚钱,靠的是云基础设施变现。
在外界看来,阿里开源Qwen是一种技术情怀的体现。但在阿里内部,这是撬动云服务增长的必然选择。
🔹开源提供入口,云服务完成闭环
蔡崇信反复提及一个关键点:开源模型让客户拥有更高的数据控制权——你可以选择私有云,也可以用阿里云。但无论哪种方式,最终都需要基础设施来运行模型,而这正是阿里的强项。
从存储、容器、安全系统到向量数据库、推理调度平台,阿里云已构建起一整套适配AI模型运行的产品矩阵。
当开源模型的使用规模扩大,推理任务呈指数级增长,客户对弹性部署能力的需求也随之上升。此时,阿里云作为推理载体的价值便凸显出来。
简而言之:Qwen降低门槛,阿里云提供算力。
🔹不是API买卖,而是基础设施租赁
蔡崇信还特意澄清了一个认知误区。
如果通过API接入闭源模型,数据一旦进入就难以抽离,且处理位置不透明。而使用开源模型,你可以完全掌控部署位置、算力来源和存储节点。
这回应了两类客户的痛点:
一是成本:开源模型+自主部署的成本远低于调用OpenAI API;
二是可控性:数据隐私、定制推理、模型微调都必须在客户信任的安全域内完成。
这两个诉求最终导向同一个结果:客户会倾向于采用开源模型,并在可信赖、功能完备的云平台上运行。
阿里要赚的,不是每一次API调用的零钱,而是持续的基础设施使用费。
这套变现逻辑的闭环是:模型开源降低门槛 → 客户本地部署产生需求 → 推理任务激增 → 云服务承载变现。
如果说开源和云是阿里AI战略的两翼,那么让战略真正落地的,是一以贯之的务实打法:从内部场景出发,自研自用,再对外输出。
这并非首次。
蔡崇信在对话中回顾了阿里26年的演进路径:我们做云计算的初衷,并非追逐趋势,而是出于技术自主的需要。如果继续依赖戴尔的服务器、EMC的存储、Oracle的数据库,未来的利润将被这些供应商吞噬。
这套逻辑如今完整复刻到了AI时代:
🔹我们吃自己的狗粮
蔡崇信用了一个形象的比喻:我们吃自己的“狗粮”,就是先在自己的业务中打磨模型,再拿出来给别人用。
阿里所做的,是把模型先变成工具,再变成服务。
Qwen模型已深度集成在多个业务线,支撑着电商推荐、工作协同、内容生成等各类场景。这些不是演示版,而是每天有海量用户在使用的真实功能。
Qwen的核心评价标准,不是论文指标,也不是大模型排行榜,而是:
🔹AI不是一场秀,而是新基座
谈及AI将如何改变阿里时,蔡崇信强调的不是AI能做出多惊艳的事,而是它如何支撑业务结构。
这背后是阿里长期坚持的基础设施思维。
从电商到支付、物流、云,再到今天的AI,每一次转型本质上都是对已有业务的增强、提效与升级。
AI并非额外工具,而是被当作组织的新基座。
这也回到了本文的核心判断:阿里赢的不是模型本身,而是把模型转化成了低门槛、高稳定、真落地的业务引擎。
在那场对话的尾声,蔡崇信说了这样一句话:AI不只是工具,将来会成为人们的朋友。
这不是抒情,而是对AI普及终点的判断。
当AI从实验室走向业务系统,从技术指标走向用户体验,谁能让它真正部署下去、运行起来、创造价值,谁就拿到了下一个十年的入场券。
阿里的选择很清晰:开源降低门槛,云服务提供算力,自研自用验证价值。
这不是追逐概念,而是打造一个让AI真正能用、持续可用、普遍可及的基础设施。
从今天起,AI不再是“新技术”,而是每家组织的“新基础”。
https://www.youtube.com/watch?v=dbGOm1k8Yrg&t=2365s
https://finance.yahoo.com/news/alibaba-main-ai-app-debuts-041113798.html
https://www.bloomberg.com/news/articles/2025-11-25/alibaba-revenue-exceeds-estimates-driven-by-ai-and-cloud-growth
https://www.theregister.com/2025/11/26/alibaba_q2_2025/
https://timesofindia.indiatimes.com/business/international-business/ai-bets-pay-off-alibaba-posts-5-revenue-rise-as-ai-app-hits-10-million-downloads-cloud-business-accelerates/articleshow/125563772.cms
本文由主机测评网于2026-02-21发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260226296.html