
近期,一则消息在Reddit社区掀起热烈讨论:硅谷科技界正逐渐从高价闭源AI模型转向更经济的开源替代方案。
被誉为“SPAC之王”的美国知名投资家Chamath Palihapitiya公开透露,其团队曾是亚马逊云科技Bedrock服务的头部用户,但现已将多数工作负载迁移至Groq平台上的中国模型Kimi K2,因为该模型性能卓越,且比OpenAI和Anthropic的解决方案便宜得多。
Kimi K2由月之暗面团队研发,采用混合专家(MoE)架构,总参数量高达1万亿,激活参数量为320亿。此前,多家知名平台如Vercel、AI编码助手Cline与Cursor、Perplexity及GensparkAI均已接入Kimi K2模型。
“最终选择开源模型,核心驱动力是成本。”Palihapitiya表示,其编程工具仍依赖Anthropic系统,虽技术出色但费用过高。而DeepSeek模型甫一推出便更具价格优势,但迁移过程需数周甚至数月。“AI模型迭代迅猛,突然切换至不同大语言模型并非易事,因为这些模型需经微调与工程适配才能协同工作。”
谈及模型所有权与风险时,Palihapitiya解释称,Groq接入中国模型的方式是:获取源代码,在美国本土数据中心进行部署、分支开发与优化,由美国团队操作。服务模式上,Groq将开源模型部署于自有基础设施,通过开放API实现“token输入、token输出”。
有网友称此举为“颠覆性行动”,另有人评论道,“真正的结构型转变”,“打赌OpenAI未预料此景”,“性能与成本正重塑AI生态格局!”
然而,也有网友指出,“Palihapitiya持有Groq大量股份,其推动行为或为投资利益站台。”
该消息源自Palihapitiya近期参与的播客节目,嘉宾包括白宫首任AI主管、前PayPal首席运营官David O. Sacks以及企业家David Freeberg、天使投资人Jason Calacanis。节目中,他们还探讨了DeepSeek等中国优秀开源AI模型对美国产业带来的挑战。
以下为对话内容,经InfoQ编辑整理:
Jason Calacanis: 中国大语言模型公司DeepSeek推出开源新模型DeepSeek 3.2 EXP,给美国AI行业施加压力。该模型速度更快、成本更低,并搭载DeepSeek稀疏注意力机制(DSA),加速大规模任务训练与推理。关键是其API成本大幅降低:每百万次输入28美分,每百万次输出42美分。对比Anthropic的Claude模型同类服务收费约3.15美元,DeepSeek价格仅为十分之一到三十五分之一。显然,市场价格战正愈演愈烈。
需说明的是,该模型为开源版本,已可在亚马逊云科技与谷歌云上使用。据多家初创公司反馈,他们正测试或已部署此模型,主因是其极致性价比。
Kimi模型则由另一家中国初创公司月之暗面开发。
David Freeberg: 当前AI领域正经历全面架构重构,从成本与能耗视角看,我们仍处于“每token成本优化”的早期阶段。据悉,美国实验室也在推进类似研究,预计将取得相近成果。中国或许略占先机,但更应关注技术趋势。若未来数月架构革新能使成本与能耗降低数个数量级,将对模型需求与token成本产生深远影响。
Chamath Palihapitiya: 作为Bedrock前20大用户,我们已将大量工作负载转移至Groq平台的Kimi K2模型,因其性能更强、价格远低于OpenAI与Anthropic。但编程工具仍运行于Anthropic系统,其技术优异可成本高昂。
当前困境在于:AI模型快速迭代,提示词切换至不同模型需经微调与工程适配,难以一蹴而就。例如,为优化Kimi或Anthropic模型代码生成所做的调整,无法直接应用于DeepSeek。即使DeepSeek价格更低,迁移也需数周至数月。这成为一场复杂博弈:是立即切换承受阵痛,还是等待其他模型追赶?
更棘手的是,上周末某大型模型公司提前展示下一代模型,性能出色却令我们无所适从:是弃用现有方案,还是投入资源重构迁移?任务越复杂,决策越困难。
David O. Sacks: 开源话题颇具深意。我支持开源软件,因其能制衡科技巨头垄断。历史表明,关键技术常被少数公司控制,而开源提供替代路径,实现“软件自由”。
但现状是,领先的开源大模型均来自中国。中国在开源领域投入巨大,如DeepSeek、Kimi、阿里巴巴通义千问等。若美国欲赢AI竞赛,需面对矛盾:开源替代闭源是好事,但优秀开源模型全来自中国。美国虽有Meta投入数十亿美元于Llama,但Llama 4发布后反响平平,且传言Meta可能转向闭源。OpenAI的开源模型性能亦不及前沿版本。
一些初创公司如Reflection正开发美国本土开源模型,然目前开源领域是美国唯一落后于中国的板块。闭源模型、芯片设计制造、数据中心等其他环节,美国仍领先。
Jason Calacanis: 两点值得注意:其一,OpenAI名中“开放”原意指开源,现显讽刺;其二,苹果在AI领域落后,却推出开源模型Open ELM。规律似是:落后时开源(如中国、苹果),领先时闭源(如OpenAI)。
Chamath Palihapitiya: 开源与闭源竞争实已演变为中美对抗:美国主闭源,中国主开源,至少规模落地模型如此。
David O. Sacks: 但美国亦可推出开源模型。
Chamath Palihapitiya: 确实。然当前高性能闭源模型属美国,高性能开源模型属中国。随之而来的是token生成能耗与成本问题。昨日与能源企业CEO交流,其称若未解决之道,电价五年内必翻倍。
消费者将如何看待AI?为控下游成本,我们选用最廉模型。但成本问题将转为能耗危机,科技巨头或面临公关灾难:若被指导致电费翻倍,形象将受损。能源CEO提出两方案:一是“交叉补贴”,让科技公司以更高费率支付电费,补贴家庭用户;二是在数据中心周边家庭安装储能设备,缓冲电价冲击。
Chamath Palihapitiya: 选择开源模型经济逻辑更合理,因无法承担高额token成本及后续费用。
David O. Sacks: 请详解使用Kimi等模型的具体运作。许多人误以为开源模型所有权仍属中国公司,实则不然。一旦发布,代码可任意使用,无需在中文云运行,数据不传回中国,而是部署于自有基础设施。
Chamath Palihapitiya:初创8090公司时,唯一选项是Bedrock,即亚马逊云科技的推理服务。我们所有推理需求均由其承接。为优化成本,我们寻求Bedrock外其他模型供应商。后参与孵化Groq,其自有云平台接入Llama、OpenAI开源模型及中国模型。做法是:获取源代码,在美数据中心部署分支开发,由美国团队运营。中国提供“蓝图”,美国公司“建造”并服务。
故转向开源模型核心为成本,其价廉物美。Groq对我们如第二亚马逊云科技,提供API实现“token进、出”,但基于自有基础设施部署开源模型。用户选择纯看价格,如同以往对比云服务商。
David O. Sacks:自建基础设施运行模型更廉,且企业喜好因可定制性强,未来必现大量场景微调。企业常望模型部署于自有数据中心以保数据安全。然问题在于:分支开发后模型已非“中国模型”,由美公司运营却源自中国,若用于关键基础设施则存风险。Groq如何测试模型安全性、防范后门?
Chamath Palihapitiya: Groq有完整流程处理,但细节未询。若用编译版本或存风险,但基于开源代码自部署则无虞。漏洞发现将迅速社区共享。顶尖安全公司、云商与模型开发商皆在竞相揭露缺陷,此竞争循环有益,目前尚未现重大问题。
昨日与某模型公司首席安全专家交流,其团队测试所有内容以找漏洞,拖慢对手进度。此令人乐观,迄今模型均显负责。
David O. Sacks: AI本质是消费产品,将日益普及。故需应对其国家安全风险。数年前政策制定者曾想阻止AI发展、由少数公司掌控,此思路现看甚荒唐。AI已高度去中心化:美有五家闭源模型公司,中有八款主流模型,无数初创涌入。未来AI将去中心化、垂直化,多数应用无害,如商业方案、消费产品、热门视频,远非“核武”级威胁。
参考链接:
https://www.youtube.com/watch?v=ddAwgZ6ietc&t=2704s
https://www.reddit.com/r/LocalLLaMA/comments/1ohdl9q/silicon_valley_is_migrating_from_expensive/
本文由主机测评网于2026-01-19发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260118806.html