DeepSeek近期推出了其最新实验性模型V3.2-Exp,该版本引入了全新的注意力机制——DeepSeek稀疏注意力(DSA),在显著提升训练和推理效率的同时,官方API价格同步下调超过50%!
就在不久前,DeepSeek正式发布了这一全新模型。
代号为DeepSeek-V3.2-Exp,被官方称为最新的实验性模型!
V3.2模型主要基于DeepSeek-V3.1-Terminus架构进行升级,并首次集成了「DeepSeek稀疏注意力」(DeepSeek Sparse Attention,DSA),在长上下文任务中实现了更快速、更高效的训练与推理过程。
值得关注的是,这是首个以「DeepSeek」品牌命名的核心技术(注意力机制)!
我们观察到,DSA实际上是对此前与北京大学合作、梁文锋署名的ACL 2025最佳论文中提到的原生稀疏注意力(Native Sparse Attention,NSA)的进一步优化和改进。
技术报告中的相关引用
DeepSeek-V3.2-Exp的核心创新在于「DeepSeek稀疏注意力」,该机制首次实现了细粒度的稀疏注意力处理,在几乎保持模型输出效果不变的前提下,大幅提升了长文本训练和推理的效率。
论文地址:https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
与以往模型的关键区别在于,DSA不再要求每个Token关注序列中的所有其他Token,而是引入了一个高效组件——「闪电索引器」(lightning indexer)。
该索引器能够以极快的速度判断,对于当前正在处理的Token,序列中哪些历史Token最具重要性。
随后,模型仅从这些关键Token中选取一小部分(例如2048个)进行精细计算。
通过这种方式,核心注意力的计算复杂度从O(L²)大幅降低至O(Lk),其中k是一个远小于L的固定值。
这在处理长文本时,带来了前所未有的效率提升。
更为重要的是,这种效率提升并未以牺牲性能为代价。
在DeepSeek-V3.1的基础上,团队首先通过一个简短的「密集预热」阶段来初始化闪电索引器,使其学习模仿原有模型的注意力分布。
随后进入「稀疏训练」阶段,让整个模型适应新的稀疏模式。
最后,再沿用与前代模型完全相同的后训练流程,包括专家蒸馏和混合强化学习(GRPO)。
为了严谨评估引入稀疏注意力带来的影响,DeepSeek特意将DeepSeek-V3.2-Exp的训练设置与V3.1-Terminus进行了严格对齐。
DeepSeek-V3.2-Exp的架构图,其中DSA在MLA下实例化。
评估结果显示,无论是在短文本还是长文本任务上,DeepSeek-V3.2-Exp的性能与其「密集注意力」前身V3.1-Terminus相比,均未出现实质性下降。
同时,在实际部署的推理成本测试中,其端到端的加速效果和成本节约表现极为显著。
尽管DeepSeek-V3.2-Exp目前仍是一款实验性模型,但它所展示的「性能不降、成本骤减」特性,为大模型突破长文本瓶颈,指明了一条极具前景的工程路径。
DeepSeek再次大幅降低了模型使用成本!
得益于新模型服务成本的大幅下降,官方API价格也相应调整,新价格立即生效。
在新的定价政策下,开发者调用DeepSeek API的成本将降低50%以上。
目前API的模型版本为DeepSeek-V3.2-Exp,访问方式保持不变。
最后,不得不说,这次DeepSeek的发布节奏非常贴心,充分听取了社区建议,让AI领域的朋友们能够安心享受假期!
参考资料:
https://api-docs.deepseek.com/zh-cn/news/news250929
本文由主机测评网于2026-01-05发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260115040.html