人工智能初创企业Reflection AI由两位前Google DeepMind研究员于去年创立,在短短一年内就完成了最新一轮融资,成功筹集20亿美元,公司估值飙升至80亿美元,相比7个月前的5.45亿美元估值,暴涨了近15倍。
该公司最初以自主编程智能体作为切入点,这是一个更为务实的落地方向。如今,Reflection AI正重新定义自身,成为OpenAI、Anthropic等“封闭前沿实验室”的开源替代者,同时被誉为“美国版DeepSeek”。
“我们正在将开放模型的前沿技术带回美国,以在全球范围内构建繁荣的人工智能生态系统。”Reflection AI创始人兼首席执行官Misha Laskin表示。
本轮融资的投资方阵容堪称豪华,包括:Nvidia、Disruptive、DST、1789、B Capital、Lightspeed、GIC、Eric Yuan(Zoom创始人)、Eric Schmidt(谷歌前CEO)、花旗、红杉资本、CRV等。
Reflection AI成立于2024年3月,由曾主导DeepMind Gemini项目奖励建模的Misha Laskin和AlphaGo(即在2016年击败围棋世界冠军的AI系统)的联合创作者Ioannis Antonoglou共同创立。
Laskin在一年前的访谈中提到,他离开DeepMind是因为相信AGI即将实现,而独立的初创公司能够更快地推进这一进程。他预测,“小型任务的智能体”将首先落地,而“通用超人类智能体”大约在3年左右出现。
当时,两人同在Gemini项目团队,Ioannis负责RLHF,Laskin负责奖励模型训练。他们认为,训练和微调大模型的方法已相当成熟,核心问题转向了“数据”以及如何在这些模型上实现“规划”和“搜索”。“独立出来做这件事,能推进得更快。”Laskin解释道。
两人深厚的前沿AI系统研发经验正是他们的核心优势。他们希望证明,即使不依赖科技巨头,顶尖人才也能独立打造最前沿的模型。
在不到3个月前,Laskin在播客中提及,公司的目标是通过“研发与产品协同设计”来打造超级智能。
今年7月,他们推出了面向工程团队的代码理解智能体Asimov,并声称“Asimov已经是代码理解领域中最好的智能体。在与一些大型开源软件项目维护人员进行的盲测中,Asimov的答案在大多数情况下比Cursor Ask和Claude Code(Sonnet 3.7和4)更受青睐。”此后,这家初创公司几乎没有正式发布其他产品。
选择从编程领域起步,是因为他们认为,训练一个能通过代码与软件交互的语言模型,相当于给AI装上了“手脚”,未来语言模型与Salesforce、CRM工具等各类软件的交互,大部分都会通过API、函数调用(即代码)实现,这不仅限于工程师使用。其次,编码对语言模型来说是“天然优势领域”。如果能为企业打造一个解决编码问题的“智能顾问”,就相当于掌握了打造超级智能所需的所有核心能力,后续可以轻松扩展到其他领域。
Laskin表示,Asimov只是第一步,之后会把“企业级超级智能”扩展到编码之外的领域,比如产品、营销、HR的“团队记忆”和知识管理。
在宣布本轮融资的同时,Reflection AI表示已从DeepMind和OpenAI挖来一支顶级团队,他们曾主导或参与了PaLM、Gemini、AlphaGo、AlphaCode、AlphaProof的研发,也为ChatGPT、Character AI等项目做出贡献。
Laskin曾指出,团队核心成员之前在大实验室都能获得高薪,但很多人进入AI领域,本质是想做突破性工作。但大实验室的黄金时期其实是早期,比如DeepMind做Deep Networks、OpenAI做GPT-1到GPT-3的时候,而现在的初创公司反而有机会成为下一个前沿实验室。
“对这些人来说,钱不是首要问题——我们给的股权足够让他们看到长期价值,更重要的是参与感:他们能主导核心方向,而不是在大公司里只负责一小块业务。而且现在有能力冲击前沿实验室的初创公司很少,我们反而成了稀缺选项,毕竟谁不想参与下一个AI突破项目呢?”
Reflection AI还表示搭建了一套先进的AI训练系统,公司承诺将对外开放。更重要的是,Reflection AI声称已经“找到了与开放智能战略相契合的可规模化商业模式”。
据Laskin介绍,Reflection AI目前团队规模约60人,成员主要包括AI研究员和工程师,涉及基础设施、数据训练和算法开发等领域。公司已经获得算力集群,计划在明年推出一个使用“数十万亿tokens”训练的前沿语言模型。
“我们打造出了过去被认为只有顶级实验室才能实现的系统——一个能在前沿规模上训练大规模专家混合(MoE)模型的LLM与强化学习平台。”Laskin说道。
Reflection AI在X上发文称:“我们亲眼见证了这种方法在自主编程领域的成效。现在,我们要把这些方法扩展到通用智能体推理领域。”
MoE是一种支撑前沿大模型的架构——此前只有大型、封闭的AI实验室才有能力进行此类规模的训练。中国的DeepSeek在开源大规模MoE训练上取得突破,随后Qwen、Kimi等模型也相继崛起。
此外,一个月前彭博社还曝出,DeepSeek正在开发具有更强大AI Agent能力的新模型,仅需少量提示就能帮用户执行复杂操作,并且还能根据历史操作自我进化和学习,该模型预计在今年年底推出。
Laskin表示:“DeepSeek、Qwen等模型对我们来说是一次警醒——如果我们什么都不做,那么全球智能标准将由别人制定,而不是由美国制定。”
Reflection AI指出,AI能够走到今天,正是依靠一系列被公开分享的关键理念,比如自注意力机制、下一词预测、强化学习等。AI正在成为一切技术的基础层,支撑科研加速、教育提升、能源优化、医学诊断增强、供应链运转等。
“但问题在于,最前沿的技术目前仍集中在封闭实验室中。如果这种趋势持续下去,极少数机构将掌握构建AI所需的资本、算力和人才,形成一种‘滚雪球式’的垄断,排除掉所有其他参与者。”“我们需要打造足够强大的开放模型,让它们成为全球用户与开发者的首选,以此确保智能底座保持开放、可访问,而不是被少数人控制。”
在美国科技圈,Reflection AI的新使命受到了普遍欢迎。
白宫AI与加密事务专员David Sacks在X上发文称:“很高兴看到更多美国开源AI模型的出现。全球市场上相当一部分用户更看重开源带来的成本、可定制性和控制力。我们希望美国在这一领域也能领先。”
Hugging Face联合创始人兼CEO Clem Delangue表示:“这对美国开源AI来说确实是个好消息。”但他也补充说:“接下来最大的挑战,是要展示出在开放模型与数据集上的高频共享速度,就像当前那些主导开源AI的实验室一样。”
据悉,Reflection AI对“开放”的定义,更接近开放访问而非完全开源,类似于Meta(Llama)或Mistral的策略。
Laskin表示,公司会开放模型权重,即AI的核心参数,供公众使用,但训练数据和完整训练流程不会公开。“实际上,最有影响力的就是模型权重,因为任何人都可以基于它进行实验。至于完整的基础设施栈,只有极少数公司真正有能力使用。”
这种平衡也支撑着Reflection AI的商业模式。Laskin表示,研究者可以免费使用模型,但公司的主要收入将来自大型企业在其模型上构建产品,以及各国政府建设主权AI(Sovereign AI)系统的项目。
“对于大型企业来说,开放模型是默认选择。你希望对模型有完全的控制权——能在自己的基础设施上运行、控制成本、为不同工作负载做定制优化。毕竟,AI成本极高,你当然希望尽可能优化它。这就是我们瞄准的市场。”Laskin说道。
Reflection AI尚未发布首个模型。Laskin透露,该模型将以文本为主,未来会具备多模态能力。公司计划将这轮融资投入到算力资源中,目标是在明年年初发布第一款前沿模型。
对于资金问题,Laskin也在之前的博客中提到,“资金很重要,但我们能比大实验室更高效。比如大型实验室需要100单位资金,我们聚焦核心方向的话10单位就够了,差了一个数量级。”
他坦言,资金需求主要看“什么时候需要扩GPU”——AI公司的主要成本就是GPU支出,其次才是人力和数据。“所以,我们融资的规模,会和进入下一阶段扩张的节奏匹配。我们不用像大实验室那样铺大摊子,效率更高。”
https://reflection.ai/blog/frontier-open-intelligence/
https://techcrunch.com/2025/10/09/reflection-raises-2b-to-be-americas-open-frontier-ai-lab-challenging-deepseek/
本文由主机测评网于2026-01-07发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260115522.html