10月16日,百度发布并开源自研多模态文档解析模型PaddleOCR-VL。其核心模型参数仅0.9B,轻量高效,能够在极低计算开销下,精准识别文本、手写汉字、表格、公式、图表等复杂元素,支持109 种语言,覆盖中文、英语、法语、日语、俄语、阿拉伯语、西班牙语等多语场景,广泛适用于政企文档管理、知识检索、档案数字化、科研信息抽取等文档智能任务。
作为文心4.5衍生模型,PaddleOCR-VL-0.9B通过融合NaViT动态分辨率视觉编码器与ERNIE-4.5-0.3B语言模型,在精度与效率上取得了新的突破。
精度方面,PaddleOCR-VL在文本编辑距离、公式识别、表格识别、阅读顺序预测误差等方面有着出色表现,其在复杂文档、手写稿、历史档案识别等高难度场景中亦表现稳定。
推理方面,在单张A100 GPU上,PaddleOCR-VL每秒可处理1881个Tokens,推理速度较现有模型有翻倍性能的提升。
据介绍,区别于传统OCR仅能逐行识别文字,PaddleOCR-VL能够读懂、理解复杂版面结构,精准提取财报表格、数学公式、课堂手写笔记等多元信息,并在识别后自动还原符合人类阅读习惯的阅读顺序,精准区分标题、正文、图片与图注,确保信息无遗漏、逻辑不混乱。
另据了解,在架构上,PaddleOCR-VL 创新性地采用两阶段架构:第一阶段由PP-DocLayoutV2 模型负责版面检测与阅读顺序预测;第二阶段由PaddleOCR-VL-0.9B识别并结构化输出文字、表格、公式、图表等元素。相较端到端方案,能够在复杂版面中更稳定、更高效,有效避免多模态模型常见的幻觉与错位问题。
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。