法国人工智能领军企业Mistral AI今日宣布完成17亿欧元(约合20亿美元)的C轮融资,本轮融资由荷兰半导体设备制造商阿斯麦(ASML)领投。
此轮融资使Mistral的估值从去年General Catalyst领投6.4亿美元时的60亿美元提升至约137亿美元,估值翻了一倍多。英伟达、DST Global、Andreessen Horowitz、法国公共投资银行、General Catalyst、Index Ventures和Lightspeed等投资机构也参与了本轮融资。
Mistral AI是欧洲最知名的AI开发公司之一,拥有先进的多语言大语言模型,被视为OpenAI和谷歌Gemini等美国AI公司的有力竞争对手。该公司的聊天机器人Le Chat经过多次更新,增加了深度研究、图像编辑和语音模式等功能,成为直接竞争产品。
Le Chat的语音模式由Voxtral驱动,这是Mistral开发的开源、最先进的语音理解AI基础模型,该公司表示其性能超越了OpenAI的Whisper模型。
5月,该公司推出了Mistral Medium 3,这是一个成本性能优化模型,性能超越了Meta的Llama 4 Maverick和Cohere的Command A等企业解决方案。不到一个月后,公司又推出了Mistral Code,这是一个专为开发者设计的助手,可在代码编辑器内运行。6月,Mistral还发布了Magistral,这是该公司的推理优化AI模型系列,使公司在当前"思考"式AI基础模型趋势中保持竞争力。
为了训练和运行强大的大语言模型,许多AI公司必须与专业的基础设施和芯片公司建立深度合作关系,为构建数据中心和AI能力提供基础。ASML制造光刻设备,帮助三星、英特尔和苹果等主要公司生产其产品线所需的先进芯片。
ASML首席执行官Christophe Fouquet表示,与Mistral的战略合作伙伴关系将"通过创新产品和解决方案为ASML客户带来明显收益",并推动潜在的联合研究以在未来获得发展动力。
Mistral AI首席执行官Arthur Mensch表示,来自ASML的投资将赋能从AI开发到其运行基础设施工程的整个技术链条。
"我们有雄心通过AI帮助ASML及其众多合作伙伴解决当前和未来的工程挑战,并最终推进整个半导体和AI价值链的发展,"Mensch说道。
作为投资的一部分,ASML首席财务官Roger Dassen将在Mistral的战略委员会董事会中担任职务。
Q&A
Q1:Mistral AI是什么公司?主要产品有哪些?
A:Mistral AI是法国领先的人工智能公司,是欧洲最知名的AI开发企业之一。主要产品包括多语言大语言模型、聊天机器人Le Chat、语音理解模型Voxtral、开发者助手Mistral Code等,被视为OpenAI和谷歌的有力竞争对手。
Q2:ASML为什么要投资Mistral AI?
A:ASML是荷兰半导体设备制造商,制造光刻设备帮助三星、英特尔等公司生产先进芯片。投资Mistral AI是为了建立战略合作关系,通过AI技术为客户带来创新产品和解决方案,并推动半导体和AI价值链的整体发展。
Q3:Mistral AI这轮融资金额和估值是多少?
A:Mistral AI完成了17亿欧元(约合20亿美元)的C轮融资,估值从去年的60亿美元提升至约137亿美元,估值翻了一倍多。参与投资的还有英伟达、DST Global、Andreessen Horowitz等知名投资机构。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。