可以说,一种“向外看”的趋势,如今也悄然吹向了大洋彼岸的AI领域。
例如,以Windsurf这款海外领先的AI编程工具为例,近日就被用户发现了一件颇为有趣的事情。
起因是它近期在自家产品中推出了一个神秘模型,宣称是专为速度和智能体代理而设计的模型:
随后,许多好奇的用户开始猜测,这个神秘模型究竟来自何方?
按理说,它背后的公司(Codeium)是一家美国本土企业,所接入的大模型很可能源自OpenAI、Anthropic或谷歌等巨头。
然而,有网友通过越狱测试后发现……神秘模型,竟然来自中国——
正是智谱的GLM。
紧接着,顺藤摸瓜还发现,其他网友在讨论中提到了另一个细节:
这就像是,GLM 4.6在Cerebras上运行。
(Cerebras是去年发布全球最大AI训练芯片的公司,后来进军推理市场,推出AI推理服务。)
原来,Cerebras在前几天就已经通过邮件宣布,上架了GLM-4.6模型:
甚至,现在在YouTube上搜索相关关键词,就会看到像昨天新发布的“中国的MiniMax M2挑战了商业模式”等内容。
以及更早的,例如美国云服务平台Together AI在今年7月份就官宣部署了Qwen-3-Coder:
看来,美国的AI公司们,如今都开始采用中国的大模型了。
刚才提到的几个例子,涉及到的模型包括GLM和Qwen3,领域涵盖AI编程和AI推理。
但继续深入挖掘,我们发现,部署中国大模型这一现象,已经不再是少数案例了。
例如在AI Agent领域,估值93亿美元的公司Vercel就在今天宣布:
已经与智谱达成合作,提供GLM-4.6的API服务。
其创始人Guillermo Rauch还转发了相关帖子,并称赞道:
GLM-4.6表现优异,在http://nextjs.org/evals上排名第三,而且是前五名中唯一开源的模型。
更早一些,无服务器AI推理平台Featherless,在Kimi K2发布时,也表示支持其新模型:
包括最近爆火的让AI模拟炒股的玩法,各种国产大模型也陆续被集成进来:
看到这里,许多朋友可能会问——
美国的大模型性能不是都很强大吗?为什么都开始选择中国国产大模型了呢?
简而言之,“量大管饱又便宜”的原则,在AI领域同样备受青睐。
首先,最关键的原因之一是性能出色。
这一点,无论是从Vercel公司创始人对GLM-4.6的赞扬,还是从今年初以来DeepSeek、Qwen、K2等模型在海外频频登上榜单并引发热潮,都可以看出中国大模型的技术实力已经获得了国内外AI玩家的认可。
其次,就是性价比。
在一段采访视频中,Social Capital公司创始人Chamath Palihapitiya直言不讳地表示:
我们已经在Groq上开始使用Kimi-K2了。
OpenAI和Anthropic的模型虽然不错,但价格太高了。
Chamath进一步解释,当使用编程工具时,Groq的默认路由是Anthropic,“这没问题,因为它性能好,但确实太贵了”。
但当公司进入快速发展阶段时,很难决定将所有提示词传递给不同的LLM,因为它们需要微调和设计才能在同一个系统中协同工作。
而且这个过程往往需要几周甚至几个月的时间,因此,Chamath感慨道,“作为消费者,我们真的感到相当痛苦和挣扎。”
总体来看,性价比,成为美国AI公司纷纷选择部署中国大模型的核心原因。
而巧合的是,打价格战,中国AI厂商们可谓是轻车熟路,至今依然如此。
就拿最近的一些动态来说:
快手AT-Coder-Air-V1 宣布注册即赠送2000万token
智谱在1024程序员节当天推出GLM Coding Plan包月套餐折上折活动,新用户更是享受5折优惠
Kimi在程序员节当天也推出了针对程序员的类似优惠套餐
MiniMax M2今天宣布将限时免费期限延长至11月07日
随后快手也将免费期限延长至11月10日
嗯,真是有钱任性,壕无人性。
但更深层次地,这也反映了AI产业正从技术炫耀阶段,加速转向务实应用阶段。
当企业真正开始大规模部署AI功能时,成本、速度和可扩展性就成了至关重要的现实问题。
Vercel和Social Capital这类公司的选择,打破了“唯最强模型论”的泡沫,证明了高性价比的适用技术才是商业落地的硬道理。
因此,这不再是一个关于谁的模型更强的单一故事,而是一个关于谁能更高效、更经济地赋能开发者和企业的多维竞赛。
这场由“太贵了”引发的务实选择,或许预示着一个更加多元化和激烈竞争的全球AI新时代的到来。
总而言之,大模型领域的Made in China的含金量,正在持续提升。
参考链接:
[1]https://x.com/windsurf/status/1982619448352854428
[2]https://x.com/rauchg/status/1982973728423325803
[3]https://x.com/karminski3/status/1982945655548194923
[4]https://www.reddit.com/r/LocalLLaMA/comments/1ohdl9q/silicon_valley_is_migrating_from_expensive/?tl=es-419
本文由主机测评网于2026-01-17发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260118092.html