
进入2026年,硅谷那些最善于捕捉趋势的精英们,开始关注一个更加基础的现实:AI的发展并非首先变得更强大,而是变得更廉价。
1月7日,a16z联合创始人马克·安德森在他的播客节目中分享了一个核心观点:
AI是他职业生涯中见证的最重大的技术变革,但关键不在于模型能力的飞跃,而在于智能本身正在从昂贵的稀缺品转变为普及的日常用品。
每一次调用AI的成本,正在以前所未有的速度下降。这不是缓慢的下降,而是断崖式的暴跌。
安德森同时强调:现在仍然处于早期阶段。成本已经大幅降低,但大部分商业机会尚未被创业者发掘。
这场访谈并未探讨技术前景或市场泡沫,而是聚焦于一个更具操作性的问题:如果智能像水和电一样便宜且无处不在,商业规则将如何改写?
变化将体现在四个维度:成本结构、技术路径、定价策略以及竞争格局。
如今的AI竞争,不再是谁的模型更强,而是谁能率先将廉价的智能转化为标准化的工作流程。
马克·安德森首先指出:AI的智能成本正在经历暴跌。
他说道:
“AI的单位成本下降速度,甚至超过了摩尔定律。”
模型越训练越强大,但每次调用所需的成本却越来越低。不是小幅降低,而是急剧下滑。
他特别提到,过去一年间,大模型的token成本快速下降。OpenAI、Anthropic、谷歌都在将AI能力整合到云服务中,争抢市场份额。竞争加剧,价格自然一泻千里。
硬件端的使用寿命也发生了变化。安德森引用AWS的数据:GPU的使用寿命从3年延长到7年以上。
企业购买一块GPU卡、建设一台服务器,能够运行AI的时间几乎翻倍,分摊到每次调用上的成本就降低了一半以上。
这意味着什么?智能正在变成一种可以批量采购、按需付费的新型资源。
在成本下降的同时,收入却在快速攀升。
安德森用“起飞”来形容过去一年AI公司的变现速度。他说:我们看到的AI公司,收入增长速度比以往任何技术浪潮都要快。
具体来看两端:
个人端:越来越多的消费者愿意为AI服务支付高价订阅。20美元/月不再是上限,现在200~300美元/月的高级套餐也开始吸引大量付费用户。
企业端同样如此:AI能帮助客服处理更多工单,帮助销售挽回更多用户,这些日常工作的改进直接带来回报。只要能产生结果,就有人愿意付费使用。
也就是说:价格在下行,价值在上行。
在安德森看来,这恰恰说明:AI并非泡沫,而是开始成为真正的生意。
第一节提到成本崩盘,但为什么会崩?
因为AI并不需要做到极致聪明才能发挥作用。
马克·安德森在对话中举了一个生动的例子:某些工作任务不需要“爱因斯坦”级别的智力,只需要一个聪明可靠的普通人就足够了。
这揭示了一个许多人忽略的机会:模型并非越大越好,够用即可,特别是在成本敏感的场景中。
过去一年,大量小型模型涌现。安德森特别提到中国的Kimi模型:最新版Kimi在推理能力上已追平GPT-5,但模型体积更小,成本更低,甚至可以在MacBook上运行。
他观察到一种规律:大模型推出后,6到12个月内就会出现同等能力的小模型。
大模型证明某种能力可行,小模型快速复制,然后以更低成本提供服务。
这带来了两个现实变化:
一是使用方式变了:AI正从高高在上的智慧大脑变成随手可用的便捷工具;
二是开发方式变了:初创公司、独立开发者都可以利用开源模型快速部署上线,甚至自己微调出专用模型。
但这并不意味着大模型会消失。
安德森认为,AI行业将形成金字塔结构:
顶端:少数超级模型,在巨型数据中心运行,永远保持最聪明;
底层:大量小模型,扩散到各种设备中,运行在手机、手表甚至每个物理物品内部。
就像计算机行业的演化:超级计算机并未消失,但真正改变世界的是无处不在的微芯片。
那么真正的机会在哪里?
不是去做最强,而是:谁能把智能压缩、量产、变成随时可调用的标准模块,谁就能抢占最大的市场。
因为当智能不再稀缺时,竞争的关键不再是“最强”,而是“用得起”。
过去一年,许多人评价AI应用公司时会说:这不就是套了一层GPT接口?
马克·安德森并不认同。
以AI编程工具Cursor为例:最初确实是调用大模型辅助编程,但很快,这类公司开始自己微调模型,甚至自研模型。产品不仅仅是换壳,而是在功能、速度和成本上进行了深度优化。
他将这种现象称为“向后整合”。
换句话说,以前是前端产品调用后端API,现在是:
从一个模型起步,最终使用12个、50个甚至上百个模型;
不同模型负责不同部分:界面回复、代码逻辑、上下文记忆;
针对垂直场景,自己训练定制模型。
这不是为了技术而技术,而是为了掌控整个技术栈。因为对业务理解最深的人,才知道哪些环节需要什么样的智能。
安德森说,最前沿的AI应用公司,实际上掌握了核心技术。
那么AI应用在定价上又如何?
这里的规则与第一节不同。第一节提到基础设施层(如OpenAI API)正在打价格战,成本暴跌。但应用层的定价逻辑完全不同。
因为定价逻辑已经分层:
基础设施层:智能变成水电,按使用量计费,竞争激烈,价格走低;
应用层:产品卖的是结果,按价值计费,差异化大,价格可以走高。
关键在于:不要按成本定价,而要按价值定价。
传统SaaS按年订阅、按坐席收费,但AI应用可以探索更多可能性:
不是按“生成了几份文档”收费(使用量);
而是按“节省了多少工时”收费(价值);
或者按“提升了多少生产力”分成(回报)。
举个例子:如果一个AI编程工具让程序员效率提升30%,它可以收取这30%生产力带来的部分价值,而不是仅收取API调用次数对应的成本。
为什么高价产品反而更好卖?
因为用户购买的并非模型本身,而是结果。只要结果值这个价,就有人愿意付费。
这解释了第一节提到的现象:200~300美元/月的订阅越来越多,本质上这些产品在卖“解决了什么问题”,而不是“用了多少Token”。
按照这个思路,应用层的机会在于:
向后整合,掌控技术栈;
深耕场景,理解用户价值;
按价值定价,而不是按成本定价。
基础设施层将继续价格战,但应用层的天花板,取决于你能创造多少价值。
这个机会窗口,究竟留给谁?
很多人看AI行业时,第一反应是:已经有OpenAI、Anthropic等巨头,我们是不是来晚了?
但实际情况是,一旦有人证明某件事可行,其他人追上的速度会非常快。
几个具体案例:
xAI不到12个月追上行业前列:埃隆·马斯克的团队从零开始做Grok,不到一年就把产品性能拉到了OpenAI和Anthropic的水平。
DeepSeek用开源冲进主舞台:一家对冲基金背景的团队,用开源模型直接把能力推到全球视野,还能在本地运行。
多家中国公司同时追上:月之暗面(Kimi)、阿里巴巴(Qwen)、字节跳动、百度等,不到12个月都追到了前沿水平。
1、为什么追赶这么快?
安德森给出了三个主要因素:
第一,开源降低了学习门槛:领先者取得突破后,开源模型将“如何做”展示出来。任何人都可以学习、复制、改进。
第二,知识扩散速度极快:如今世界上最优秀的AI人才,很多只有22、23、24岁。他们不可能在这个领域积累很长时间,必然是过去四五年迅速成长起来的。如果他们能做到,未来会有更多人做到。
第三,成本已不再是门槛:前三节提到的成本塌陷、小模型崛起、云服务竞争,都在降低做AI的资源要求。不需要几千人团队,也不需要数十亿美元,一个小团队就能快速验证想法。
2、这对不同角色意味着什么?
第一,对现有的AI公司来说,这是个坏消息。
安德森指出:当一家公司不知道该往哪个方向发展时,这是个巨大的麻烦。因为公司必须做出选择,把资源押注在某个方向上。一旦押错,竞争对手追上来,优势就消失了。
这就是他所说的“万亿美元问题”:不是现成的答案,而是每个公司都要面对的战略不确定性。
第二,但对风投和创业者来说,这是个好消息。
a16z的投资策略是:不只投一个方向,而是同时支持多个有希望的路径。只要某种方法有可能跑通,就支持有人尝试一次。
对风投来说,不确定性意味着可以分散投资。
对创业者来说,不确定性意味着窗口仍然敞开。
总结来说:
领先者不再安全。追赶只需要半年到一年,技术方法已经透明,成本也已经降低。
但这也意味着,追上之后你也会被追赶。持续竞争变成了常态。
马克·安德森表示,AI产业的转折点并非模型多么聪明,而是智能不再昂贵。
成本暴跌让智能变成了可以批量采购的新材料。小模型够用就能打,应用层可以按价值收费。而且追赶只需要半年到一年,领先者的护城河正在变浅。
这意味着什么?
模型再大,不如先落地。技术再强,不如用得起。
这场技术变革才刚刚开始,但商业竞争规则已经重写。
https://www.youtube.com/watch?v=xRh2sVcNXQ8&t=1s
https://www.iheart.com/podcast/867-the-a16z-show-30965806/
https://hai.stanford.edu/news/ai-index-2025-state-of-ai-in-10-charts
https://www.reuters.com/technology/artificial-intelligence/openai-unveils-cheaper-small-ai-model-gpt-4o-mini-2024-07-18/?utm_source=chatgpt.com
本文由主机测评网于2026-03-16发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:http://www.vpshk.cn/20260331755.html