周四,法国大语言模型 (LLM) 开发商 Mistral 推出了一款面向处理复杂 PDF 文档的新 API。Mistral OCR 是一款光学字符识别 (OCR) API,可以将任何 PDF 转换为文本文件,使 AI 模型更容易处理。
作为 OpenAI ChatGPT 等流行生成式 AI 工具的基础,大语言模型对原始文本的处理效果特别好。因此,希望创建自己 AI 工作流的企业都意识到,以清晰格式存储和索引数据变得极其重要,这样才能在 AI 处理中重复使用这些数据。
与大多数 OCR API 不同,Mistral OCR 是一个多模态 API,能够检测文本块中交织的插图和照片。该 OCR API 会在这些图形元素周围创建边界框,并将其包含在输出中。
Mistral OCR 不会简单输出大段文本,而是以 Markdown 格式输出,这是开发人员用来在纯文本文件中添加链接、标题和其他格式元素的语法。
大语言模型在训练数据集中大量依赖 Markdown。同样,当使用 Mistral 的 Le Chat 或 OpenAI 的 ChatGPT 等 AI 助手时,它们经常使用 Markdown 来创建项目符号列表、添加链接或将某些元素加粗。助手应用程序会将 Markdown 输出无缝转换为富文本输出。这就是为什么随着生成式 AI 的蓬勃发展,原始文本和 Markdown 在近年来变得更加重要。
Mistral 联合创始人兼首席科学官 Guillaume Lample 表示:"多年来,组织积累了大量 PDF 或幻灯片格式的文档,这些文档对大语言模型 (特别是 RAG 系统) 来说是无法访问的。借助 Mistral OCR,我们的客户现在可以将丰富复杂的文档转换为所有语言的可读内容。"
他补充说:"对于需要简化访问海量内部文档的企业而言,这是 AI 助手广泛应用的关键一步。"
Mistral OCR 可通过 Mistral 自己的 API 平台或其云合作伙伴 (AWS、Azure、Google Cloud Vertex 等) 使用。对于处理机密或敏感数据的企业,Mistral 提供本地部署选项。
据这家总部位于巴黎的 AI 公司称,Mistral OCR 的性能优于 Google、Microsoft 和 OpenAI 的 API。该公司已经用包含数学表达式 (LaTeX 格式)、高级布局或表格的复杂文档测试了其 OCR 模型。它在处理非英语文档方面的表现也据称更好。
图片来源: Mistral
由于 Mistral OCR 专注于单一功能,该公司认为它比现有解决方案更快。与具有 OCR 功能 (以及许多其他功能) 的多模态大语言模型 GPT-4 相比,这一点并不令人惊讶。
Mistral 也在其 AI 助手 Le Chat 中使用 Mistral OCR。当用户上传 PDF 文件时,该公司在后台使用 Mistral OCR 来理解文档内容,然后再处理文本。
企业和开发者很可能会将 Mistral OCR 与 RAG (检索增强生成) 系统结合使用,将多模态文档作为大语言模型的输入。这有很多潜在用例。例如,我们可以设想律师事务所使用它来帮助快速处理大量文档。
RAG 是一种用于检索数据并将其作为生成式 AI 模型上下文的技术。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。