首页 > 业界 > 关键词  > DeepSeek-OCR最新资讯  > 正文

全新开源的DeepSeek-OCR,可能是最近最惊喜的模型。

2025-10-21 16:11 · 稿源: 数字生命卡兹克

声明:本文来自于微信公众号 数字生命卡兹克,作者:数字生命卡兹克,授权站长之家转载发布。

AI圈虽然天天卷,但是很多的模型,真的越来越无聊了。

每天就是跑分又多了几个点。

直到昨天,DeepSeek久违的发了一个新模型。

DeepSeek-OCR

这玩意,是真的有点酷。

图片

首先,不要被这个名字骗了。

虽然说它名字上有个OCR,但是你说它真的就只是个OCR模型吗。

我想说,是,也不是。。。

说它是,很简单,就是因为这玩意,干的确实也是传统OCR的活。

传统的OCR任务其实特别纯粹,就是把那些图片上字啥的啊,变成你电脑里可以编辑可以复制粘贴数字文本。

以前没有OCR的时候,你想想,你看到手上的书上有些字特别好,你想录到电脑里,你会咋办?答案就只有一个,一个字一个字的敲上去。

敲几句话还行,让你敲个合同或者一本三体你试试看,是个人都绝逼要疯。

后来OCR来了,就特别方便了,直接拍个照片,就能把里面的文字全部提取出来,很简单。

所以DeepSeek-OCR确实也有OCR的功能,也能干OCR的活,而且还挺强。

图片

比如这是一张典型的金融研究报告。,里面有文字,有图表,有各种复杂的排版。

你让一个传统的OCR软件去看这张图,它可能会非常精准地,把里面所有的文字,都抠出来,变成一个TXT文档。

然后就没有然后了。

但是DeepSeek-OCR,它看完这张图,会直接,生成一个Markdown文档。

在这个文档里,文字是文字,标题是标题,最关键的是,那些图表,被它用代码,也重新画了一遍,变成了一个可以被编辑被引用的表格。

这个很牛逼了。

但是吧,这玩意又不只是我们传统意义上理解的OCR。

他还有一个很重要的功能,就是,压缩。

可能会有点难以理解和抽象,我尽可能的用通俗易懂的话来讲明白。

在说压缩之前,我们得先搞明白,现在所有大语言模型,从GPT-3.5到我们现在的各种模型,都面临着一个共同的几乎无解的噩梦,就是长文本处理。

你别看它们现在能写一堆乱七八糟的能当朋友跟你聊天还能用嘴画图,但你只要丢给它一篇稍微长点的内容,比如一本几十万字的书,让它去理解,去总结,基本上都要炸。

因为AI理解文字的方式,跟我们不一样。

我们看书,是一目十行。

AI读文字,它需要把每个字,每个词,都转换成Token。你可以把它简单的理解成一个一个的“字节”,是数据里面的那个字节,不是字节跳动的字节。

现在主流AI架构的缺陷是,它在读每一个新词的时候,为了理解上下文,它需要把这个新词和前面所有出现过的词,都建立一次联系。

所以处理这些Token的计算量,是随着文本长度的平方增加的。

比如我举一个Party的例子,现在这个Party上有10个人,每个人都跟其他人贴贴一下,那大概需要45次贴贴,还行对吧。

但如果来了100个人,每个人都要跟其他人贴贴,就需要将近5000次贴贴,这基本就属于废了。

这就是技术上常说的计算复杂度是N的平方。

这个成本,是指数级增长的,谁都扛不住。

所以,长久以来,整个AI界都在死磕一个问题,怎么让AI,能又快又便宜的搞定上下文的问题?

大家想了很多办法,什么滑动窗口、稀疏注意力,各种各样的算法优化。但这些,都像是给一辆漏油的破车,换更好的轮胎,贴更骚的膜。

但是它,解决不了发动机的根本问题啊。

然后DeepSeek这次,它根本没管你那个漏油的破逼车,而是,直接给你买了一辆,新能源。

它说:“我们为什么,非要让AI一个字一个字地读呢?我们能不能让它,像我们人一样,看?”

就是我不再把一本300页的书,转换成几十万个Token的文本文件,喂给AI。

而是,我直接把这300页书,拍成一张张照片,变成一个图像文件,然后,让AI去看这张图。

你可能觉得,这不是脱裤子放屁吗?照片不也是由像素组成的吗?信息量不是更大了吗?

对,但你忽略了最关键的一点:

图像,是二维的,而文字,是一维的。

一维的文字,就像一根无限长的薯条,你想吃它,智能从头吃到尾,一个字节都不能少。

而二维的图像,就像一张大饼,你一眼扫过去,整个饼的全貌,尽收眼底。

DeepSeek-OCR,干的就是这事,把所有的文字,全部压缩成图像。

这个过程,在他们的论文里,叫“上下文光学压缩”(Contexts Optical Compression)。

我给你举一个真正的应用场景案例,你就全明白了:

比如假设你正在跟一个AI助手聊天,你俩已经聊了三天三夜,聊了1000轮,可能占几十万甚至几百万的Token。

对于以前的大模型来说,当你问:“哎,我三天前跟你说的第一件事是啥?”,大模型就必须把这1000轮的全部聊天记录都装进它的记忆区也就是上下文窗口里,才能去查找。

这会撑爆它的内存和算力,所以现在的AI,很多的聊着聊着你就感觉它失忆,因为有的,真的只能记住最近的几十轮对话。

而DeepSeek-OCR的解决方案呢,是这样的。

AI助手只把最近10轮的聊天记录,用文本的形式记在脑子里。

但是,它把那更远一点的990轮的文本聊天记录,自动渲染成一张或着几张长长的图片,就像你给聊天记录截了个屏。

然后,它立刻调用内部的DeepEncoder编码器,把这张包含海量文字的截图,压缩成大概只有原来10分之1的视觉Token,然后一起扔到上下文中,记到脑子里。

当真正要用的时候,比如你还是问那个问题,“我三天前说的第一件事是啥?”

它现在的上下文里装的是10轮聊天记录的文本token+990轮聊天记录的视觉token

然后,它的解码器,DeepSeek-3B,一个激活参数为570M的MOE模型,已经通过 OCR 任务,学会了一看到这种视觉token,就能把解码还原成原文的能力。

于是,他看了一眼那一圈视觉Token,找到了三天前的第一句话,然后回答了你。

这,就是DeepSeek-OCR的整个架构。

图片

所以啊,别被名字骗了,这真的不止是个OCR啊。。。

这是纯粹的关于上下文的新范式。。。

所以虽然跟百度的那个PalddeleOCR-VL一样名字也有OCR,但其实,两个,真的不是一个东西= =

DeepSeek-OCR,这,即是压缩。

论文里给出的数据是,在保持96.5%的识别准确率的前提下,压缩比可以达到惊人的10倍

图片

压缩比 = 原来的文本token总数 ÷ 压缩后视觉token总数。

而20倍的压缩比,还能保留60%的准确率,虽然这个准确率确实不咋地,但是,这也是给未来留下了非常值得优化的方向。

说实话,这个东西确实很新,真的很有意思,可能是我为数不多的最近看到的最好玩的模型论文。

一图胜千言,可能说的就是如此吧。

而且细细想来,其实这种压缩之法,也确实没啥毛病。

我们总觉得文字是信息传递的巅峰

但从整个人类历史和生物进化的角度看,视觉,才是我们一直处理信息的最重要的手段。

在文字诞生之前的几十万年里,我们的祖先就是靠看来生存的。

看天色,看猎物,看同伴的表情,看亲手刻下的壁画。

在纸张和印刷术普及之前,人类是怎么记录宏大叙事的?是壁画,是浮雕。

埃及金字塔里的象形文字,敦煌莫高窟里的经变画,它们本身就是一种压缩。古埃及人把复杂的祭祀、律法、历史,压缩在一幅幅画里,等待别人去解压。

从这个角度看,DeepSeek-OCR干的事,和当年的人类,其实也没什么两样。

但是当我觉得,最头皮发麻为之一振的话。

其实是论文的最后,他们写的一点点希望讨论的。

DeepSeek说,对于那些更古老的上下文,我们可以逐步缩小渲染出的图像,以进一步减少令牌消耗

这个假设的灵感,来自于一个非常自然且深刻的类比:

人类的记忆会随着时间的推移而衰退,人类的视觉感知会随着空间距离的拉远而退化。

图片

这种现象,它们都表现出了相似的、渐进式的信息丢失模式。

他们可以用“上下文光学压缩”的方法,实现了一种记忆衰减形式。

比如图表里,最左是 Text token,也就是不压缩的纯文本,信息保真;往右是把文字渲成图再编码成视觉 token 的不同模式,Gundam 比较豪华、细节多、花销大,Large 再次之,Base、Small、Tiny 依次更省 token、也更模糊。

它几乎,完美地镜像了生物的遗忘曲线

在这个机制下,最近的信息保持着高保真度,而遥远的记忆则通过不断提高的压缩率,自然地褪色和淡忘。

这个机制,实在是太酷了。

很像是在探讨,一种“数字生命”的可能形态。

我们一直以来追求的AI,是什么样的?

是一个拥有无限记忆、绝对理性的“神”。

它不会遗忘,不会犯错,像一台完美的机器。

但我们自己是这样的吗?

不是。

遗忘,恰恰是人类智慧最重要的组成部分。

我们之所以能够创新,能够抓住重点,能够在复杂的世界里做出决断,正是因为我们的大脑懂得,放下。

我们会忘记那些不重要的细节,我们会模糊那些久远的伤痛,我们会把宝贵的认知资源,留给当下最重要的事情。

遗忘,还有错误,真的不是bug,是我们这个物种能够延续至今的核心算法之一。

就像西部世界里的那句经典台词。

在福特的理论中,进化形成了这个星球上有情感和知觉的生命体,“用的唯一工具,就是错误。”

遗忘,也是那个“错误”。

对DeepSeek-OCR感兴趣的,可以去他们的项目网址看一看,体验一下。

https://github.com/deepseek-ai/DeepSeek-OCR

但是,我也非常强烈的建议,大家也可以,去读一读这篇论文的原文。

不需要看那些很技术的原理和数学,只要看方法,还有范式,其实就能学到很多东西。

我把论文原文也放在公众号后台了,你对着后台私信“OCR”,也会自动的发给你。

图片

感谢DeepSeek。

举报

  • 相关推荐
  • DeepSeek同时发布两个正式版模型:DeepSeek-V3.2系列发布

    今日,DeepSeek正式推出V3.2系列模型,包含标准版DeepSeek-V3.2与长思考增强版DeepSeek-V3.2-Speciale。此次更新不仅在推理性能上实现重大突破,更通过创新性技术架构重新定义了开源模型的能力边界。 目前,官方网页端、移动应用及API服务已全面升级至V3.2标准版,而Speciale版本则以临时API形式开放供学术研究使用。 DeepSeek-V3.2在平衡推理效率与输出质量方面

  • AI日报:快手可灵 2.6 全量上线;字节Seedream 4.5发布;DeepSeek连发两款新模型

    本文汇总了AI领域最新动态:快手可灵2.6上线,实现“音画同出”生成视频;字节跳动发布Seedream4.5,提升多图一致性生成;豆包助手回应权限争议并下线微信操作功能;智源研究院推出多模态世界模型Emu3.5,可预测真实世界状态;研究揭示AI模型能发现并利用智能合约漏洞;小米公布AI战略,押注“AI+物理世界”融合;谷歌发布Workspace Studio,助力企业构建AI代理;DeepSeek同步上线V3.2与Speciale两款新模型,展示开源实力。

  • V3.2逼近Gemini 3,DeepSeek硬气喊话:接下来我要堆算力了

    ​就在上周,OpenAI前首席科学家、现SSI CEO Ilya Sutskever在最新播客访谈中抛出一个重磅观点,过去五年的“age of scaling”正在走到头,预训练数据是有限的,单纯用更多GPU堆更大模型,哪怕再放大100倍,也未必能带来质变。所以我们又回到了以研究为核心的时代,只不过这次有了巨大的算力”,这一表态被视作对Scaling Law撞墙论的强力佐证。 然而仅过了几天,12月1日,DeepSeek用V3

  • 网易有道词典2025年度词汇发布:DeepSeek当选!

    网易有道词典今天发布了2025年度词汇,deepseek以8672940次的年度搜索量成功当选。 有道词典表示,今年1月份,DeepSeek发布了深度推理模型R1,在复杂逻辑、数学与代码领域的表现跻身全球顶尖,并宣布全面开源。 这也使得2025年deepseek在有道词典的全球搜索量从0跃升至8672940,涨幅创下历史新高。

  • AI日报:豆包输入法正式上线;混元开源HunyuanOCR模型;Claude Opus4.5发布

    本期AI日报聚焦多项技术突破:腾讯开源10亿参数OCR模型HunyuanOCR,在多场景实现SOTA性能;豆包输入法整合AI实现智能预测;Anthropic推出Claude Opus4.5提升推理效率;ChatGPT新增购物推荐功能准确率达64%;全球首款纯AMD训练MoE模型ZAYA1发布;微软推出本地运行助手Fara-7B;谷歌NotebookLM新增幻灯片生成功能;亚马逊Leo卫星网络启动企业测试,实现“卫星+云+AI”一体化通信。

  • 免费AI搜索指数平台DeepGEO上线,国内首创geo指数分析服务

    国内首个专注AI搜索指数分析及品牌产品排名的专业工具DeepGEO平台正式上线,核心功能全部免费开放。该平台融合百度指数等权威数据与自研AI预测算法,提供多维、跨平台的AI搜索行为分析,填补了市场空白。用户可免费查询各类AI产品、技术及企业的综合搜索指数与口碑排名,并获取趋势洞察与未来热点预测。平台旨在降低AI行业数据分析门槛,赋能创业者、投资者及研究者,推动产业健康发展。

  • AI搜索平台攻防易位?DeepGEO实时排名监测揭示行业新格局

    国内首个专注AI搜索指数与排名监测平台DeepGEO正式上线。其核心功能AI搜索平台排名监测填补了市场在量化评估与竞品追踪方面的空白,通过多源数据整合、动态排名更新和需求趋势预测,为用户提供实时精准的竞争洞察。平台适用于投资评估、产品优化及行业分析等多元场景,致力于成为AI搜索时代的“竞争情报中枢”,帮助用户把握市场格局与产品方向。

  • GEO排名检测工具哪个比较好?深度AI搜索平台DeepGEO全面评测与推荐

    在AI技术飞速发展的当下,市场亟需能实时精准监测产品搜索热度与品牌排名的工具。DeepGEO作为国内首个专注AI搜索指数分析的专业平台,凭借跨平台数据整合、AI驱动预测及需求图谱构建等核心优势脱颖而出。它融合百度指数与海量算数数据,通过自研算法实现全网搜索行为深度洞察与趋势预测,为投资者、创业者及分析师提供全面参考,助其把握市场动态、优化战略布局。

  • AI日报:可灵Avatar 2.0 上线;谷歌推出Gemini 3 Deep Think模式;阿里云析言 XiYan-SQL 强势夺冠

    本期AI日报聚焦多项AI技术突破:Kling AI Avatar 2.0上线,实现数字人表情动作智能生成;谷歌推出Gemini 3 Deep Think模式,显著提升AI推理能力;微软发布轻量级实时语音模型VibeVoice 0.5B;OpenAI最强编码模型GPT-5.1-CodexMax全面接入API;阿里云“析言 XiYan-SQL”在SQL诊断评测中夺冠。此外,豆包助手调整AI操作能力,谷歌将展示Android XR平台更新。

  • Anthropic推出AI模型Claude Opus4.5:编程能力超群 接近顶尖工程师

    Anthropic于11月25日正式发布旗舰AI模型Claude Opus 4.5并投入商用。该模型在编程、智能代理等领域表现卓越,尤其在处理复杂研究任务及电子表格、PPT制作等办公场景显著优于同类产品。专业测试显示其编程能力超越谷歌Gemini 3 Pro与OpenAI GPT-5.1,在软件工程师闭卷测试中甚至超过所有历史人类考生。同步更新的多款配套工具(如浏览器扩展、Excel增强功能)进一步强化技术生态。目前该模型已全面接入企业级服务,标志着Anthropic在AI商业化进程中的关键突破。

今日大家都在搜的词: