10月20日,人工智能团队DeepSeek AI发布了全新多模态模型 DeepSeek-OCR。该模型以“探索视觉 - 文本压缩边界”为核心目标,从大语言模型视角重新定义了视觉编码器的功能定位,为文档识别、图像转文本等高频场景提供了兼顾精度与效率的新解决方案,受到技术领域和行业应用端的广泛关注。
DeepSeek-OCR采用分层设计的视觉编码方案,支持Tiny、Small、Base、Large、Gundam五种尺寸配置,可根据不同硬件条件与场景需求灵活选择。Gundam版本特别针对大尺寸复杂文档进行了优化,采用了1024×640混合尺寸配置及专属裁剪模式,能更精准处理多栏排版、图文混杂的专业文档。
模型创新性地融合了SAM(Segment Anything Model)的图像分割能力和CLIP的视觉理解能力,并通过MlpProjector模块实现与语言模型的高效对接。这一设计不仅使模型能够精准提取文本内容,还能同步捕捉文字、表格、图像在原图中的空间布局信息,为后续结构化输出提供关键支撑,解决了传统OCR“只认文字、不识布局”的痛点。
DeepSeek-OCR展现出极强的多场景适应性。它既支持单张图像、PDF文档的单次处理,也能应对批量图像的高效识别,所有输出结果均支持Markdown格式,方便用户直接编辑或导入其他办公软件。模型内置边界框检测功能,可精准定位文本块、表格、插图在原图中的位置,结合动态裁剪策略,根据图像尺寸自动调整处理逻辑,在保证识别精度的同时大幅提升处理速度。