当前位置:首页 > 科技资讯 > 正文

DeepSeek-OCR开源发布:技术深耕与市场竞争新态势

在R2模型多次更新传闻延期后,DeepSeek团队近期推出了新的OCR模型,持续推进其技术路线。

10月20日,DeepSeek在Hugging Face与GitHub平台正式开源DeepSeek-OCR模型,该模型参数规模约为3B,采用创新的“视觉-文字压缩”方案,相比传统OCR系统显著提升了文档扫描与处理效率。这一模型的发布,有望完善DeepSeek在工具型模型领域的布局。

然而,最近两个月,这家在2025年迅速崛起的AI独角兽,在消费级用户规模上遭遇了主要竞争对手豆包的反超。根据QuestMobile此前公布的数据,中国消费级AI助手市场榜首近期发生变化,8月份数据显示,“豆包”月活跃用户(MAU)约为1.57亿,环比增长6.6%,超越DeepSeek约1.43亿的月活,升至第一。部分行业分析认为,“豆包”的反超得益于其多模态能力的广泛落地应用,以及与抖音生态体系的深度整合。

不过,DeepSeek方面似乎坚信凭借持续的技术模型迭代,能够走出一条差异化的竞争路径。在最新的OCR模型发布说明中,团队再次强调了“基础能力”的核心地位——该模型不仅能精准识别中英文混合文本,还能有效处理手写字体、复杂表格等高难度场景,在多个公开基准测试数据集上创造了新的准确率纪录。随着以AI“六小龙”为代表的创业公司在2025年或多或少展现出一些战略调整,DeepSeek似乎成为国内唯一一家与“OpenAI模式”高度相似的企业:凭借卓越的模型能力在消费端市场取得领先地位,并持续专注于超大参数规模模型的研发赛道。

如果将2025年视作国内C端AI市场的“分水岭”,上半场无疑是DeepSeek以开源策略和强大推理能力驱动的“技术爆发期”,而下半场豆包的反超,则更像是互联网巨头依托深度资源整合后发起的“市场反击战”。而暂时让出消费端市场榜首位置的DeepSeek,却仍未对其主力模型进行重大版本更新。本次DeepSeek-OCR的“渐进式”发布,似乎是这家国内顶尖AI创业公司坚持技术链路优先理念的又一次体现。

01

OCR(光学字符识别)是一项公众较为熟悉的技术,主要指将图像中的文本内容转换为机器可读文本格式的过程。与以往的OCR系统或模型不同,DeepSeek-OCR采用了独特的“视觉-文字压缩”方案,这个仅有3B参数规模的模型,在OmniDocBench测试中,仅使用100个视觉标记就超越了需要256个视觉标记的GOT-OCR 2.0。而在视觉标记数量少于800个的情况下,它也优于每页需要超过6000个标记的MinerU 2.0模型。

另一方面,百度此前正式发布并开源了其自研的多模态文档解析模型PaddleOCR-VL。该模型在全球权威文档解析评测榜单OmniBenchDoc V1.5中,以92.6分的成绩位列全球第一。而DeepSeek紧随其后发布DeepSeek-OCR的举措,在一些行业社群中被解读为“对竞争对手的技术回应”。

回到DeepSeek-OCR的“视觉-文字压缩”方案,通常情况下,大型语言模型执行OCR任务时计算成本极高——处理的文字单元数量越多,计算量便会呈指数级增长。传统的OCR系统在识别单页文档时,往往需要处理成千上万个文字标记才能完成用户指令。

而在DeepSeek-OCR中,模型研发团队尝试了一条更高效的路径:利用视觉语言模型(VLM),直接在语义层面上对图像中的文字信息进行压缩,将原本需要大量文字标记才能表达的内容,映射为数量更少、语义密度更高的视觉标记,从而显著降低整体计算开销。

DeepSeek-OCR开源发布:技术深耕与市场竞争新态势 DeepSeek-OCR  豆包反超 AI助手竞争 视觉-文字压缩 第1张

此外,DeepSeek-OCR还具备“深度解析模式”,能够将财务类图表直接转化为结构化数据,自动生成Markdown表格与图像描述。这意味着,一份包含数字、曲线、图注的财报截图,不再需要人工进行复制粘贴或二次整理,系统即可自动还原为可编辑的分析报告格式。

该系统的核心架构由两部分组成:负责图像理解的DeepEncoder,以及基于DeepSeek-3B-MoE架构的文字生成模块。DeepEncoder拥有约3.8亿参数,专门用于分析图像并生成压缩后的视觉特征;而文字生成部分则启用了5.7亿个活跃参数,用于根据这些视觉特征生成高精度的文字描述。

据了解,DeepSeek-OCR在10倍压缩比下解码精度可达97%,即使在20倍压缩比下也能保持60%的准确率。这意味着单张图像仅需大型语言模型所需标记的一小部分,即可完整表示整篇文档内容。

从技术演进维度看,该模型标志着DeepSeek正从“语言模型+聊天机器人”的核心路径,向更广泛的用户应用场景拓展。随着DeepSeek-OCR的正式开源,其相关能力有望进一步产品化,在长文本解析、表格处理、跨页文档压缩与信息提取等场景均具备应用潜力。

回顾DeepSeek的通用大模型产品线不难发现,OCR能力一直是R1系列模型的相对短板。此前,尽管DeepSeek R1在成本效益和逻辑推理性能方面具备明显优势,但在PDF解析等场景与其他顶级模型(如Claude Opus 4和ChatGPT-5)相比仍存在局限。缺乏原生OCR支持、文件大小限制以及文件API的缺失,使得DeepSeek R1未能成为完整的文档处理解决方案。

因此,DeepSeek-OCR既可能衍生出独立的工具型产品,也可能是后续通用模型迭代的“技术储备”动作。而传闻中的大版本更新,根据《The Information》此前的报道披露,“尽管DeepSeek工程师过去数月一直在高强度开发R2模型,但公司CEO梁文锋对新模型的性能表现尚未完全满意。”

R2的面世时间也因此一再推迟,但产品领域的竞争对手却已迅速赶上。就在几周前,另一款AI应用取代了DeepSeek,成为新的消费端AI应用月活冠军。豆包,依托字节跳动系产品的庞大生态体系,在下半年实现了强势回归。

02

根据QuestMobile数据,2025年8月,豆包月活跃用户数约为1.57亿,环比增长约6.6%;同期DeepSeek月活约为1.43亿。豆包时隔两个季度,在国内消费端AI应用市场中重新夺回领先地位。

重夺“月活冠军”,豆包的成功离不开其生态优势与用户触点积累。与DeepSeek不同,豆包定位为面向所有“大众用户”、强调场景化体验,在语音交互、图像生成、社交分享等功能领域均拓展了模型能力,降低了用户使用门槛。相比之下,DeepSeek虽在技术性能上表现突出,但更像ChatGPT模式的聊天应用,入口相对单一、使用门槛较高。

具体而言,豆包对DeepSeek的竞争优势主要体现在以下三个方面:首先,豆包天然可以借助抖音等字节系社交平台的分发能力。自豆包面世以来,字节在AI产品推广上积累了丰富经验,在一些视频平台上,各类“情景剧”式的豆包广告频繁出现,许多新用户往往在这一过程中被动接触并最终转化。

其次,豆包在项目立项初期就瞄准了最广泛的受众群体,产品体验覆盖更广。甚至从两个产品的命名上便可窥见一二。相较于“DeepSeek”的技术极客风格,“豆包”这个名字对国内用户而言更加亲切易记。在APP的图标设计上,豆包也采用了更为拟人化的处理方式。据了解,在豆包立项之初,人格化交互能力就是其核心能力建设板块之一,随豆包一同公开测试的还有聊天智能体“小宁”,可以说,陪伴感与拟人化属性从开始就是豆包产品基因的重要组成部分。

DeepSeek-OCR开源发布:技术深耕与市场竞争新态势 DeepSeek-OCR  豆包反超 AI助手竞争 视觉-文字压缩 第2张

此外,凭借字节在语音合成、视频生成等多领域构建的模型矩阵,如今的豆包堪称AI领域的超级APP。它支持多种多模态(文本、语音、图像、视频生成)功能,在功能丰富的同时也具备清晰的用户引导逻辑,新手用户上手迅速,让“非技术型用户”也能获得良好体验。

《WIRED》杂志此前在一篇专栏中这样描述“豆包”:“它就像将ChatGPT、Midjourney、Sora、Character.ai、TikTok、Perplexity等众多功能集成在一个应用程序中。”事实证明,这种大而全的一体化AI解决方案,对于零基础的AI产品用户而言确实更加友好。

据《南华早报》报道,今年1月,迅速走红的DeepSeek曾取代ChatGPT,一度登上App Store美国区榜首位置。但在随后的时期,国内几大AI巨头纷纷开始发力,消费端AI应用市场陷入了流量投放和“内卷化”竞争,除了刚刚重回头名宝座的豆包,腾讯旗下的元宝在8月也实现了22.4%的用户增长,MAU达到3300万。蚂蚁集团旗下的AQ健康应用也跻身榜单前十,该应用于6月推出,8月用户数环比增长60.1%。

而根据QuestMobile数据显示,5月份离开DeepSeek的用户中,约有40%转投豆包。在“功能强大”和“有趣易用”之间,对于大多数普通用户而言,后者的吸引力显然更为突出。

在这场头部竞争中,豆包及其背后的字节跳动拥有科技巨头级别的体量、数据资源和全球布局,而DeepSeek的优势在于其灵活、学院派的研究范式,以及一条更为“专注”的技术路线。而在2025年10月的时间节点,是豆包凭借更庞大的生态体量,成功占据了市场领先位置。

03

尽管DeepSeek在2025年初曾取得引人瞩目的用户增长与技术突破,但其后的增长势头出现放缓迹象。咨询公司罗兰贝格此前披露的报告指出,截至2025年2月,DeepSeek与豆包在中国Top 10 AI应用中并列,但当时DeepSeek领先豆包约3600万月活跃用户。此后,豆包在8月实现了反超。

从产品更新节奏看,DeepSeek在2024年底发布V3模型,今年5月发布R1-0528版本,优化了R1模型的“幻觉”问题。但在这之后,尽管大版本更新传言不断,但传闻中的R2却始终未正式亮相。在本次OCR模型发布之前,DeepSeek在下半年的主要动作是更新了V3.1模型,支持混合推理模式以及128K tokens的长上下文输入。

DeepSeek-OCR开源发布:技术深耕与市场竞争新态势 DeepSeek-OCR  豆包反超 AI助手竞争 视觉-文字压缩 第3张

而在月活榜单被豆包超越至第二名后,DeepSeek也并未在App端交互设计或生态建设上做出大幅度优化调整。事实上,从年初爆火至今,DeepSeek App一直沿用着类似“ChatGPT”风格的交互逻辑,没有像豆包那样集成各种第一方或第三方智能体,坚定走在“模型即产品”的发展道路上。

在战略路径上,DeepSeek始终坚持“技术深耕”的路线。本次更新的DeepSeek-OCR模型也表明,这家AI独角兽在大型语言模型领域仍然保持着领先的技术探索能力。但面对竞争对手庞大的生态优势,DeepSeek当前的产品理念和风格,对于用户规模的转化效率仍有待市场检验。

不过,DeepSeek确实没有理由过度焦虑,即使被豆包反超,DeepSeek仍然拥有约1.5亿月活跃用户,在消费端领域已经建立了强大的品牌口碑。而在技术指标上,DeepSeek也一直在延续超大参数模型策略,V3系列总参数量高达671B,同期AI“六小龙”中其他开源模型,如智谱GLM-4.5参数为355B。

此外,在一些行业视角看来,DeepSeek-OCR的发布,一方面在消费端工具类场景具备良好的应用前景,同时也可能成为模型训练的“数据催化剂”。据了解,DeepSeek-OCR每天可以在单个Nvidia A100 GPU上处理超过20万页数据。如果使用20台服务器,每台服务器运行8块A100处理器,吞吐量将跃升至每天3300万页。

这样的处理效率,能够有效协助构建其他大模型的训练数据集。对于走超大参数路线的AI企业而言,大型语言模型训练往往需要海量高质量文本,而DeepSeek-OCR的出现,无疑在这一领域指明了一条更高效的数据处理路径。

展望未来,DeepSeek若希望在后续竞争中与豆包“再度较量”,生态因素仍然是必须考量的关键。强大如OpenAI,进入2025年后,也在积极拓展模型能力在各垂直领域生态的构建,无论是参与AI玩具等硬件方案的研究,还是Sora2以短视频平台形式与用户见面,OpenAI已经为DeepSeek提供了可参考的演进模板。

换言之,DeepSeek眼下的紧要任务,除了加速下一代模型的迭代研发外,充分利用手中庞大的消费端用户规模同样至关重要。由于模型产品线差异,DeepSeek短期内显然无法完全复制字节或OpenAI的生态策略。但对于这家技术底色浓厚的AI独角兽而言,在消费端生态上能否探索出一些差异化的创新路径,将是其能否再次向豆包发起挑战的重要影响因素。