法国AI明星公司Mistral在这个夏天持续推出新版本。
在宣布推出专门的国内AI优化云服务Mistral Compute几天后,这家资金充足的公司发布了其240亿参数开源模型Mistral Small的更新版本,从3.1版本跃升至3.2-24B Instruct-2506。
新版本直接基于Mistral Small 3.1构建,旨在改善特定行为,如指令遵循、输出稳定性和函数调用稳健性。虽然整体架构细节保持不变,但此次更新引入了有针对性的改进,影响了内部评估和公共基准测试。
据Mistral AI表示,Small 3.2在遵循精确指令方面表现更好,减少了无限或重复生成的可能性——这是以前版本在处理长或模糊提示时偶尔出现的问题。
同样,函数调用模板已升级,支持更可靠的工具使用场景,特别是在vLLM等框架中。
同时,它可以在配备单个Nvidia A100/H100 80GB GPU的设置上运行,大幅扩展了计算资源和/或预算紧张的企业的选择。
仅3个月后的模型更新
Mistral Small 3.1于2025年3月发布,作为240亿参数范围内的旗舰开源版本。它提供了完整的多模态功能、多语言理解和长达128K令牌的长上下文处理能力。
该模型明确定位为对抗GPT-4o Mini、Claude 3.5 Haiku和Gemma 3-it等专有竞品——据Mistral称,在许多任务上都优于这些模型。
Small 3.1还强调高效部署,声称推理速度达每秒150个令牌,支持32GB RAM的设备端使用。
该版本同时提供基础版和指令版检查点,为法律、医疗和技术等领域的微调提供了灵活性。
相比之下,Small 3.2专注于行为和可靠性的精准改进。它不旨在引入新功能或架构变更,而是作为维护版本:清理输出生成中的边缘情况,加强指令合规性,并改进系统提示交互。
Small 3.2与Small 3.1的变化对比
指令遵循基准测试显示出小幅但可测量的改进。Mistral的内部准确率从Small 3.1的82.75%提升至Small 3.2的84.78%。
同样,在Wildbench v2和Arena Hard v2等外部数据集上的性能显著改善——Wildbench提升了近10个百分点,而Arena Hard更是翻了一番多,从19.56%跃升至43.10%。
内部指标还表明输出重复减少。无限生成率从Small 3.1的2.11%下降至Small 3.2的1.29%——几乎减少了2倍。这使模型对于构建需要一致、有界响应的应用程序的开发者更加可靠。
文本和编码基准测试的性能呈现更为细致的图景。Small 3.2在HumanEval Plus(从88.99%提升至92.90%)、MBPP Pass@5(从74.63%提升至78.33%)和SimpleQA上显示出进步。它在MMLU Pro和MATH结果上也有适度改善。
视觉基准测试基本保持一致,略有波动。ChartQA和DocVQA有边际收益,而AI2D和Mathvista下降不到两个百分点。平均视觉性能从Small 3.1的81.39%略微下降至Small 3.2的81.00%。
这与Mistral的既定意图一致:Small 3.2不是模型大修,而是精细化。因此,大多数基准测试都在预期方差范围内,一些回归似乎是为了在其他地方实现有针对性改进的权衡。
然而,正如AI资深用户和影响者@chatgpt21在X上发布的:"它在MMLU上表现更差",MMLU是大规模多任务语言理解基准,这是一个包含57个问题的多学科测试,旨在评估大语言模型跨领域的广泛性能。确实,Small 3.2得分80.50%,略低于Small 3.1的80.62%。
开源许可将使其对成本敏感和定制化导向的用户更具吸引力
Small 3.1和3.2都在Apache 2.0许可下可用,可通过流行的AI代码共享库Hugging Face(这家初创公司总部位于法国和纽约)访问。
Small 3.2受到vLLM和Transformers等框架支持,需要大约55GB的GPU RAM以bf16或fp16精度运行。
对于寻求构建或服务应用程序的开发者,模型存储库中提供了系统提示和推理示例。
虽然Mistral Small 3.1已集成到Google Cloud Vertex AI等平台,并计划在NVIDIA NIM和Microsoft Azure上部署,但Small 3.2目前似乎仅限于通过Hugging Face自助访问和直接部署。
企业在考虑将Mistral Small 3.2用于其用例时应了解的要点
Mistral Small 3.2可能不会改变开放权重模型领域的竞争格局,但它代表了Mistral AI对迭代模型改进的承诺。
在可靠性和任务处理方面有显著改进——特别是在指令精度和工具使用方面——Small 3.2为在Mistral生态系统上构建的开发者和企业提供了更清晰的用户体验。
它由法国初创公司制造并符合GDPR和EU AI Act等欧盟规则法规的事实,也使其对在该地区工作的企业具有吸引力。
不过,对于那些寻求基准性能最大跃升的人来说,Small 3.1仍然是一个参考点——特别是考虑到在某些情况下,如MMLU,Small 3.2并未超越其前身。这使得此次更新更像是一个专注于稳定性的选择,而非纯粹的升级,具体取决于使用场景。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
莫斯科高等经济学院研究员尼古拉·斯克里普科开发了IFEval-FC基准测试,专门评估大语言模型在函数调用中遵循格式指令的能力。研究发现,即使是GPT-5和Claude Opus 4.1等最先进模型,在处理看似简单的格式要求时准确率也不超过80%,揭示了AI在实际应用中的重要局限性。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室联合多家机构推出MinerU2.5文档解析模型,仅用12亿参数就在文本、公式、表格识别等任务上全面超越GPT-4o等大型模型。该模型采用创新的两阶段解析策略,先进行全局布局分析再做局部精细识别,计算效率提升一个数量级。通过重新定义任务标准和构建高质量数据引擎,MinerU2.5能准确处理旋转表格、复杂公式、多语言文档等挑战性内容,为文档数字化提供了高效解决方案。