小雷注意到,DeepSeek似乎特别偏爱在深夜给用户带来意外之喜。
就在12月1日深夜,DeepSeek悄然推出新版本:V3.2正式上线并对全网开放,同时将本地部署模型上传至各大开源社区。根据官方披露的测试数据,DeepSeek V3.2的推理能力已逼近OpenAI GPT-5的水平,然而其成本却远低于后者,仅此一点就足以令众多AI爱好者振奋不已。
闲言少叙,我们直接来看DeepSeek这次带来了哪些升级亮点。
DeepSeek V3.2包含两个版本:一是官网免费开放的DeepSeek V3.2标准版,二是仅通过API调用的DeepSeek V3.2-Speciale。据官方介绍,Speciale版具备更强的推理能力,旨在探索当前模型的推理性能极限。
V3.2-Speciale不仅会自动启动“长思考加强”模式,还融合了DeepSeek-Math-V2的定理证明能力,从而增强了指令跟随、数学证明和逻辑验证的性能。官方测试显示,V3.2-Speciale的推理基准成绩可与最新的Gemini-3.0-Pro一较高下。
图源:DeepSeek
此外,DeepSeek使用V3.2-Speciale参与了IMO 2025、CMO 2025、ICPC World Finals 2025及IOI 2025四项顶级赛事的决赛试题测试,全部斩获金牌。
尤其在ICPC和IOI测试中,其成绩分别达到人类选手第二名和第十名,足见DeepSeek V3.2在编程等领域的提升尤为显著。横向比较中,V3.2-Speciale的赛事成绩全面超越GPT-5 High,令OpenAI颇感意外。
图源:DeepSeek
官方技术文档指出,DeepSeek V3.2的核心突破在于引入了DeepSeek Sparse Attention (DSA)稀疏注意力机制,并通过双版本设计适配不同推理场景。
DSA机制的落地从根本上提升了AI大模型的注意力效率。简言之,传统注意力机制需要计算序列中所有元素的关联,而DSA仅“选择性”计算关键元素间的关联,从而大幅降低计算量。
其实,类似技术早在年初的论文中就被DeepSeek预告过,当时小雷曾撰文解读其全新注意力机制NSA。然而在后续模型更新中,NSA始终未亮相,小雷一度猜测其部署可能受阻。
但如今看来,并非遇到阻碍,而是DeepSeek找到了更优的实现方案。年初论文中的NSA在处理长文本时,类似于将图书馆书名编成索引,遇到问题时通过索引快速定位区域并检索信息。
图源:LLM
而DSA则像搜索引擎,处理长文本时先快速通读全文,建立“闪电索引器”,后续检索时通过关键词快速定位相关内容。与NSA的固定区域检索不同,DSA更智能、精准,且资源消耗更低。
在DSA加持下,128K序列的推理成本降低超60%,推理速度提升约3.5倍,内存占用减少70%,且模型性能几乎无损,这从根本上革新了AI大模型的注意力机制表现。
官方数据表明,在H800集群测试中,序列长度128K时,预填充阶段每百万token成本由0.7美元降至约0.2美元,解码阶段由2.4美元降至0.8美元。这使得DeepSeek V3.2有望成为同级别模型中长文本推理成本最低的模型。
除DSA机制外,DeepSeek V3.2的另一核心升级是支持AI在思考模式下调用工具。官方称,工具调用与使用过程无需训练,从而赋予模型更强的通用性,且作为开源模型,可更好地兼容用户自定义工具。
为验证DeepSeek V3.2的新特性,小雷设计了几道题来测试其回答效果,首先考察思考模式:
问题:A比B大3岁,B比C大2岁。5年后,A的年龄是C的两倍。求三人现在各多少岁?
答:
图源:雷科技
答案正确,但关键在于其思考过程:
图源:雷科技
可见DeepSeek在得出结果后,反复验证答案的正确性,并思考不同情境下答案是否仍成立或存在其他问题。最终输出前,它共进行了三轮验证。
尽管看似耗费算力,但这种多重验证的思路不可或缺,它能更好保障DSA机制下的回答准确率。否则,以DeepSeek的稀疏架构,出错概率可能高于其他AI。
随后我又设计了一个多步骤任务链:
查询北京当日气温
将气温转换为华氏度
调用工具验证换算结果
用一句话总结今日是否适合户外活动
注意:需自主决定调用工具的时机,不得一次性完成。
来看DeepSeek的思考过程:
图源:雷科技
可见它准确理解了提问需求,并逐步使用搜索和数学工具来求解,最终输出答案:
图源:雷科技
回答整体步骤正确,且最后自动选用数学工具确认转换结果。但有一点瑕疵:DeepSeek遗漏了思考过程中提到的“总结今日是否适合户外活动”的结论。不过瑕不掩瑜,其思考过程表明DeepSeek已具备自主决策使用工具的能力。
相比之下,另一款AI面对相同问题时,虽理解“调用工具”的要求,但在实际执行时却直接搜索数据填充回答:
图源:雷科技
实际上,DeepSeek的思考模式工具调用教程中也包含类似问题,不过教程展示的是如何通过多轮对话和调用多个工具来提升最终答案质量。
可以这样理解:过去的DeepSeek只能依靠模型参数回忆组合答案,而现在它能拆解问题、逐步提问,并针对性地使用搜索、数学、编程等工具来提供更优解决方案,最后整合所有回答并重新排版输出。
由于时间有限,小雷未设计更复杂的问题进行测试,感兴趣的朋友可自行登录DeepSeek官网体验。
DeepSeek V3.2强不强?确实强,但并未形成断崖式领先,测试成绩与GPT-5 High及Gemini 3.0 Pro互有胜负。然而,当一个在多项权威基准中媲美GPT-5、Gemini 3.0 Pro,推理成本却仅为行业主流三分之一甚至更低的模型,以完全开源形式发布时,足以冲击整个市场——这正是DeepSeek持续颠覆行业的底层逻辑。
此前,业界常有“开源模型永远落后闭源模型8个月”的说法,这一论断姑且不论,但DeepSeek V3.2的发布显然终结了这一争议。DeepSeek坚持全量开源,尤其在引入DSA这种能大幅降本增效的底层技术后,使开源模型从“追赶者”转变为倒逼闭源巨头的“挑战者”。
更重要的是,DSA带来的成本革命将深刻影响AI大模型的商业化。AI模型的训练和推理成本居高不下,“成本下降60%”不仅关乎运营成本,还涉及前期部署成本。整体成本下降意味着小型企业也能借助DeepSeek训练出更强的模型。
在推理端,长文本交互价格降至足够低后,高级AI应用(如智能体、自动化工作流、长链推理等)将不再局限于企业市场,而是能更好地普及到消费市场,甚至加速“AI工具取代传统软件”的趋势,使AI真正渗透至操作系统层级的日常使用。
对普通用户而言,或许只是多了一个免费好用的模型,但几个月或半年后,你可能会发现各类硬件、软件的AI体验均有质的飞跃,这背后大概率离不开DeepSeek的贡献。
本文由主机测评网于2026-02-26发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260227199.html