周四,法国大语言模型 (LLM) 开发商 Mistral 推出了一款面向处理复杂 PDF 文档的新 API。Mistral OCR 是一款光学字符识别 (OCR) API,可以将任何 PDF 转换为文本文件,使 AI 模型更容易处理。
作为 OpenAI ChatGPT 等流行生成式 AI 工具的基础,大语言模型对原始文本的处理效果特别好。因此,希望创建自己 AI 工作流的企业都意识到,以清晰格式存储和索引数据变得极其重要,这样才能在 AI 处理中重复使用这些数据。
与大多数 OCR API 不同,Mistral OCR 是一个多模态 API,能够检测文本块中交织的插图和照片。该 OCR API 会在这些图形元素周围创建边界框,并将其包含在输出中。
Mistral OCR 不会简单输出大段文本,而是以 Markdown 格式输出,这是开发人员用来在纯文本文件中添加链接、标题和其他格式元素的语法。
大语言模型在训练数据集中大量依赖 Markdown。同样,当使用 Mistral 的 Le Chat 或 OpenAI 的 ChatGPT 等 AI 助手时,它们经常使用 Markdown 来创建项目符号列表、添加链接或将某些元素加粗。助手应用程序会将 Markdown 输出无缝转换为富文本输出。这就是为什么随着生成式 AI 的蓬勃发展,原始文本和 Markdown 在近年来变得更加重要。
Mistral 联合创始人兼首席科学官 Guillaume Lample 表示:"多年来,组织积累了大量 PDF 或幻灯片格式的文档,这些文档对大语言模型 (特别是 RAG 系统) 来说是无法访问的。借助 Mistral OCR,我们的客户现在可以将丰富复杂的文档转换为所有语言的可读内容。"
他补充说:"对于需要简化访问海量内部文档的企业而言,这是 AI 助手广泛应用的关键一步。"
Mistral OCR 可通过 Mistral 自己的 API 平台或其云合作伙伴 (AWS、Azure、Google Cloud Vertex 等) 使用。对于处理机密或敏感数据的企业,Mistral 提供本地部署选项。
据这家总部位于巴黎的 AI 公司称,Mistral OCR 的性能优于 Google、Microsoft 和 OpenAI 的 API。该公司已经用包含数学表达式 (LaTeX 格式)、高级布局或表格的复杂文档测试了其 OCR 模型。它在处理非英语文档方面的表现也据称更好。
图片来源: Mistral
由于 Mistral OCR 专注于单一功能,该公司认为它比现有解决方案更快。与具有 OCR 功能 (以及许多其他功能) 的多模态大语言模型 GPT-4 相比,这一点并不令人惊讶。
Mistral 也在其 AI 助手 Le Chat 中使用 Mistral OCR。当用户上传 PDF 文件时,该公司在后台使用 Mistral OCR 来理解文档内容,然后再处理文本。
企业和开发者很可能会将 Mistral OCR 与 RAG (检索增强生成) 系统结合使用,将多模态文档作为大语言模型的输入。这有很多潜在用例。例如,我们可以设想律师事务所使用它来帮助快速处理大量文档。
RAG 是一种用于检索数据并将其作为生成式 AI 模型上下文的技术。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。