AI 初创企业 Mistral 周三宣布推出一款专注于编程的新型 AI 模型:Devstral。
Mistral 表示,Devstral 是与 AI 公司 All Hands AI 合作开发的,并且该模型在 Apache 2.0 许可下公开发布,这意味着可以无限制地用于商业用途。Mistral 宣称,在衡量编程能力的 SWE-Bench Verified 基准测试中,Devstral 的表现超越了 Google 的 Gemma 3 27B 以及中国 AI 实验室 DeepSeek 的 V3 等其他开源模型。
Mistral 在其提供给 TechCrunch 的博客文章中写道:“Devstral 在利用工具探索代码库、编辑多个文件以及驱动软件工程代理方面表现卓越。[它]运行在代码代理脚手架(例如 OpenHands 或 SWE-Agent)之上,这些脚手架定义了模型与测试用例之间的接口…… Devstral 足够轻量,可以在单个 [Nvidia] RTX 4090 或拥有 32GB 内存的 Mac 上运行,这使得它成为本地部署和设备端使用的理想选择。”
Mistral 内部对 Devstral 进行的基准评估结果显示如下:
图片来源:Mistral
伴随着 AI 编程助手以及驱动这些助手的模型日益受欢迎,Devstral 闪亮登场。就在上个月,JetBrains——这家开发了一系列流行应用开发工具的公司,发布了其首款“开放”编程 AI 模型。近几个月来,包括 Google、Windsurf 以及 OpenAI 在内的 AI 公司也相继推出了既有公开版本也有专有版本的、针对编程任务优化的模型。
尽管 AI 模型在编写高质量软件方面仍然存在困难——代码生成 AI 往往会引入安全漏洞和错误,这主要归咎于它们在理解编程逻辑等方面的不足,但它们提升编程生产力的潜力正驱使各公司和开发者迅速采用相关工具。近期一项调查显示,76% 的开发者去年使用或计划在开发流程中使用 AI 工具。
此前,Mistral 已经进入辅助编程领域,推出了用于代码生成的模型 Codestral。但 Codestral 的许可协议并不允许开发者将该模型用于商业应用,其许可协议明确禁止“任何员工在 [公司] 业务活动背景下的内部使用”。
Mistral 称 Devstral 为“研究预览”版本,该模型可以通过 Hugging Face 等 AI 开发平台下载,也可以通过 Mistral 的 API 调用。其定价为每 100 万输入 Token 收费 0.1 美元,每 100 万输出 Token 收费 0.3 美元,而 Token 指的是 AI 模型处理的原始数据单元。(100 万 Token 大约相当于 750,000 个单词,或比《战争与和平》多出约 163,000 个单词。)
Mistral 表示,“正全力打造一个更大规模的具有代理能力的编程模型,该模型将在未来几周内推出。” Devstral 本身并非一个小模型,其参数量为 240 亿,虽然这在参数数量上偏小,但参数数量通常反映了模型的解决问题能力,参数越多的模型往往表现更为优秀。
成立于 2023 年的 Mistral 是一家前沿模型实验室,致力于构建包括聊天机器人平台 Le Chat 和移动应用在内的一系列 AI 驱动服务。该公司得到了包括 General Catalyst 在内的风险投资支持,迄今已筹集超过 11 亿欧元(约 12.4 亿美元)的资金。Mistral 的客户包括 BNP Paribas、AXA 以及 Mirakl。
Devstral 是 Mistral 本月推出的第三款产品。几周前,Mistral 推出了高效通用模型 Mistral Medium 3。与此同时,该公司还推出了定位企业市场的聊天机器人服务 Le Chat Enterprise,该服务提供 AI “代理”构建工具,并将 Mistral 模型与 Gmail、Google Drive 以及 SharePoint 等第三方服务整合。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。