Grok家族在一夜间实现两项重大升级:Grok 4 Fast将上下文窗口扩展至2M,Grok Imagine生成图像逼真度达到难以分辨的程度。
更新速度令人震惊!
在短短一天之内,Grok系列连续迎来两大更新——Grok 4 Fast与Grok Imagine均进行了显著升级。
Grok 4 Fast将上下文窗口提升到200万token,并将完成率提高到94.1%(推理任务)与97.9%(非推理任务)。
这意味着,用户不再需要将整本书或完整代码库分割后输入模型,它可以一次性处理,并稳定地提供结果。
与此同时,x.ai在OpenRouter上的API调用份额持续增长,这显示Grok模型的质量也获得了开发者的高度青睐。
Grok Imagine的升级则主要体现于生成质量上——其输出已经到达真假难辨的境地!
首先关注Grok 4 Fast,其核心升级在于拥有了200万token的上下文处理能力。
这代表模型能一次性处理相当于150万个英文单词或6000页文本的巨量数据。
这一规模实在惊人!
相当于Gemini 2.5 Pro的2倍、GPT-5的5倍!
毫不夸张地说,200万token的上下文窗口彻底颠覆了传统处理模式——
无论是完整书籍、庞大代码库还是海量数据集,都能被一次性高效处理。
要知道列夫·托尔斯泰的巨著《战争与和平》仅包含约80万个token——Grok 4 Fast可以轻松容纳两部还有余力!
结合Grok 4 Fast近乎零内存泄漏的快速性能,模型能够进行大规模深度思考而不丢失焦点。
这必将重新定义「实时AI推理」的未来形态。
在上下文容量扩增的同时,Grok 4 Fast的推理质量也取得了显著进步。
具体而言,Grok 4 Fast在推理模式下的完成率从77.5%大幅提升至94.1%。
非推理模式下,完成率从77.9%跃升至97.9%。
这意味着模型成功输出符合要求结果的概率急剧上升,失败率(如中途中断、输出逻辑混乱、任务无法完成等)明显下降。
可以说,Grok变得更加智能了。
对此,有网友评论道,若Grok持续以此速度进化,「它可能成为首个真正实现速度与推理能力协同优化而非相互制约的模型」。
这一优势也反映在OpenRouter API调用量的市场份额变化上。
根据最新数据,x.ai的API调用量已达到26.4%,远超谷歌和Anthropic。
可以说,已占据绝对主导地位。
与Grok 4 Fast一同升级的还有Grok Imagine。
升级后的Grok Imagine输出效果极为逼真,几乎达到了真假难辨的水平。
马斯克本人也在x平台上玩得不亦乐乎。
提示词:add a boyfriend and they transition into muppets
有网友还尝试了西方古典文学与神话中的经典场景——埃涅阿斯逃离特洛伊。
这个故事源自古罗马诗人维吉尔的史诗《埃涅阿斯记》,也呼应了古希腊神话中特洛伊战争的后续发展。
还有从不同角度呈现的——
网友们创意迸发,甚至生成了苏格拉底饮下毒芹的悲壮瞬间。
有兴趣的用户不妨亲自体验一番。
https://x.com/BrianRoemmele/status/1987222897174380719?s=20
https://x.com/cb_doge/status/1987088612115067291?s=20 https://x.com/brianroemmele/status/1986949680278937736
https://x.com/elonmusk
https://x.com/tetsuoai/status/1987128602211864980
https://x.com/BrianRoemmele/status/1987222897174380719?s=20
本文由主机测评网于2026-01-21发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260119417.html