AI 初创企业 Mistral 周三宣布推出一款专注于编程的新型 AI 模型:Devstral。
Mistral 表示,Devstral 是与 AI 公司 All Hands AI 合作开发的,并且该模型在 Apache 2.0 许可下公开发布,这意味着可以无限制地用于商业用途。Mistral 宣称,在衡量编程能力的 SWE-Bench Verified 基准测试中,Devstral 的表现超越了 Google 的 Gemma 3 27B 以及中国 AI 实验室 DeepSeek 的 V3 等其他开源模型。
Mistral 在其提供给 TechCrunch 的博客文章中写道:“Devstral 在利用工具探索代码库、编辑多个文件以及驱动软件工程代理方面表现卓越。[它]运行在代码代理脚手架(例如 OpenHands 或 SWE-Agent)之上,这些脚手架定义了模型与测试用例之间的接口…… Devstral 足够轻量,可以在单个 [Nvidia] RTX 4090 或拥有 32GB 内存的 Mac 上运行,这使得它成为本地部署和设备端使用的理想选择。”
Mistral 内部对 Devstral 进行的基准评估结果显示如下:
图片来源:Mistral
伴随着 AI 编程助手以及驱动这些助手的模型日益受欢迎,Devstral 闪亮登场。就在上个月,JetBrains——这家开发了一系列流行应用开发工具的公司,发布了其首款“开放”编程 AI 模型。近几个月来,包括 Google、Windsurf 以及 OpenAI 在内的 AI 公司也相继推出了既有公开版本也有专有版本的、针对编程任务优化的模型。
尽管 AI 模型在编写高质量软件方面仍然存在困难——代码生成 AI 往往会引入安全漏洞和错误,这主要归咎于它们在理解编程逻辑等方面的不足,但它们提升编程生产力的潜力正驱使各公司和开发者迅速采用相关工具。近期一项调查显示,76% 的开发者去年使用或计划在开发流程中使用 AI 工具。
此前,Mistral 已经进入辅助编程领域,推出了用于代码生成的模型 Codestral。但 Codestral 的许可协议并不允许开发者将该模型用于商业应用,其许可协议明确禁止“任何员工在 [公司] 业务活动背景下的内部使用”。
Mistral 称 Devstral 为“研究预览”版本,该模型可以通过 Hugging Face 等 AI 开发平台下载,也可以通过 Mistral 的 API 调用。其定价为每 100 万输入 Token 收费 0.1 美元,每 100 万输出 Token 收费 0.3 美元,而 Token 指的是 AI 模型处理的原始数据单元。(100 万 Token 大约相当于 750,000 个单词,或比《战争与和平》多出约 163,000 个单词。)
Mistral 表示,“正全力打造一个更大规模的具有代理能力的编程模型,该模型将在未来几周内推出。” Devstral 本身并非一个小模型,其参数量为 240 亿,虽然这在参数数量上偏小,但参数数量通常反映了模型的解决问题能力,参数越多的模型往往表现更为优秀。
成立于 2023 年的 Mistral 是一家前沿模型实验室,致力于构建包括聊天机器人平台 Le Chat 和移动应用在内的一系列 AI 驱动服务。该公司得到了包括 General Catalyst 在内的风险投资支持,迄今已筹集超过 11 亿欧元(约 12.4 亿美元)的资金。Mistral 的客户包括 BNP Paribas、AXA 以及 Mirakl。
Devstral 是 Mistral 本月推出的第三款产品。几周前,Mistral 推出了高效通用模型 Mistral Medium 3。与此同时,该公司还推出了定位企业市场的聊天机器人服务 Le Chat Enterprise,该服务提供 AI “代理”构建工具,并将 Mistral 模型与 Gmail、Google Drive 以及 SharePoint 等第三方服务整合。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。