AI 初创企业 Mistral 周三宣布推出一款专注于编程的新型 AI 模型:Devstral。
Mistral 表示,Devstral 是与 AI 公司 All Hands AI 合作开发的,并且该模型在 Apache 2.0 许可下公开发布,这意味着可以无限制地用于商业用途。Mistral 宣称,在衡量编程能力的 SWE-Bench Verified 基准测试中,Devstral 的表现超越了 Google 的 Gemma 3 27B 以及中国 AI 实验室 DeepSeek 的 V3 等其他开源模型。
Mistral 在其提供给 TechCrunch 的博客文章中写道:“Devstral 在利用工具探索代码库、编辑多个文件以及驱动软件工程代理方面表现卓越。[它]运行在代码代理脚手架(例如 OpenHands 或 SWE-Agent)之上,这些脚手架定义了模型与测试用例之间的接口…… Devstral 足够轻量,可以在单个 [Nvidia] RTX 4090 或拥有 32GB 内存的 Mac 上运行,这使得它成为本地部署和设备端使用的理想选择。”
Mistral 内部对 Devstral 进行的基准评估结果显示如下:
图片来源:Mistral
伴随着 AI 编程助手以及驱动这些助手的模型日益受欢迎,Devstral 闪亮登场。就在上个月,JetBrains——这家开发了一系列流行应用开发工具的公司,发布了其首款“开放”编程 AI 模型。近几个月来,包括 Google、Windsurf 以及 OpenAI 在内的 AI 公司也相继推出了既有公开版本也有专有版本的、针对编程任务优化的模型。
尽管 AI 模型在编写高质量软件方面仍然存在困难——代码生成 AI 往往会引入安全漏洞和错误,这主要归咎于它们在理解编程逻辑等方面的不足,但它们提升编程生产力的潜力正驱使各公司和开发者迅速采用相关工具。近期一项调查显示,76% 的开发者去年使用或计划在开发流程中使用 AI 工具。
此前,Mistral 已经进入辅助编程领域,推出了用于代码生成的模型 Codestral。但 Codestral 的许可协议并不允许开发者将该模型用于商业应用,其许可协议明确禁止“任何员工在 [公司] 业务活动背景下的内部使用”。
Mistral 称 Devstral 为“研究预览”版本,该模型可以通过 Hugging Face 等 AI 开发平台下载,也可以通过 Mistral 的 API 调用。其定价为每 100 万输入 Token 收费 0.1 美元,每 100 万输出 Token 收费 0.3 美元,而 Token 指的是 AI 模型处理的原始数据单元。(100 万 Token 大约相当于 750,000 个单词,或比《战争与和平》多出约 163,000 个单词。)
Mistral 表示,“正全力打造一个更大规模的具有代理能力的编程模型,该模型将在未来几周内推出。” Devstral 本身并非一个小模型,其参数量为 240 亿,虽然这在参数数量上偏小,但参数数量通常反映了模型的解决问题能力,参数越多的模型往往表现更为优秀。
成立于 2023 年的 Mistral 是一家前沿模型实验室,致力于构建包括聊天机器人平台 Le Chat 和移动应用在内的一系列 AI 驱动服务。该公司得到了包括 General Catalyst 在内的风险投资支持,迄今已筹集超过 11 亿欧元(约 12.4 亿美元)的资金。Mistral 的客户包括 BNP Paribas、AXA 以及 Mirakl。
Devstral 是 Mistral 本月推出的第三款产品。几周前,Mistral 推出了高效通用模型 Mistral Medium 3。与此同时,该公司还推出了定位企业市场的聊天机器人服务 Le Chat Enterprise,该服务提供 AI “代理”构建工具,并将 Mistral 模型与 Gmail、Google Drive 以及 SharePoint 等第三方服务整合。
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。