据多家媒体今日报道,Microsoft Corporation 已开发出一系列可与 OpenAI 和 Anthropic PBC 的算法相媲美的大语言模型。
据 Bloomberg 报道的消息源称,这个大语言模型系列被称为 MAI。这可能是"Microsoft artificial intelligence"的首字母缩写。它也可能是对该公司去年推出的内部开发的 AI 芯片 Maia 100 的致敬。微软可能正在使用这款处理器来支持新的 MAI 模型。
该公司最近对这个大语言模型系列进行了性能测试。在评估过程中,微软工程师检验了 MAI 是否能为公司的 Copilot 系列 AI 助手提供支持。测试数据显示,这个大语言模型系列的性能可以与 OpenAI 和 Anthropic 的模型相媲美。
微软评估 MAI 是否可以集成到 Copilot 中,这表明该大语言模型系列更倾向于通用处理而非推理。Copilot 支持的许多任务可以用通用模型来完成。据 Bloomberg 报道,微软目前正在开发第二个针对推理任务优化的大语言模型系列。
报道没有具体说明微软正在训练的模型数量或其参数数量等细节。这些模型是否提供多模态功能也尚不清楚。
MAI 可以帮助公司减少对 OpenAI 的依赖,目前 Copilot 使用的大语言模型就来自 OpenAI。微软已向这家 ChatGPT 开发商投资超过 130 亿美元,直到最近还是其独家云服务提供商。今年 1 月,两家公司修改了合作条款,允许 OpenAI 将工作负载转移到竞争对手的平台上。
如果微软让 Copilot 超越 OpenAI 的模型,它可能不仅会添加一个而是多个竞争对手的大语言模型支持。据报道,该公司已经测试了是否可以使用来自 Anthropic、Meta Platforms Inc.、DeepSeek 和 xAI Corp. 的算法来支持 Copilot。
微软发言人对 Bloomberg 表示:"正如我们之前所说,我们正在使用模型组合,这包括继续与 OpenAI 的深度合作,以及来自 Microsoft AI 和开源模型。"
MAI 并非该公司首次进入大语言模型市场。它还开发了 Phi,这是一系列针对能效优化的开源语言模型。该模型系列目前已迭代到第四代。
最新的两个 Phi 算法——Phi-4-mini 和 Phi-4-multimodal 于今年 2 月发布。前者拥有 38 亿参数,适用于解决数学问题等推理任务。而 Phi-4-multimodal 则是 Phi-4-mini 的升级版本,可以处理多模态输入。微软表示,后者在某些任务上的表现几乎可以媲美拥有更多参数的 GPT-4。
为了构建 Phi-4 模型,微软开发了依赖合成数据的新型大语言模型训练方法。这些方法可能对 MAI 和该公司据报道正在开发的推理优化大语言模型系列有所帮助。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。