微软发布了两款内部训练的AI模型,并表示将开始在一些产品中使用这些模型。这一举措可能标志着微软正努力减少对OpenAI的依赖,尽管微软已对该公司进行了大量投资。这一消息的发布距离内部报告透露微软开始开发自主基础模型已超过一年时间。
微软在其AI博客中介绍了两款模型。MAI-Voice-1是一款自然语音生成模型,旨在"在单人和多人场景下提供高保真、富有表现力的音频"。该模型的理念是,语音将成为用户与AI工具交互的主要方式之一,尽管到目前为止我们还没有真正看到这一趋势的实现。
第二款模型名为MAI-1-preview,这是一个专门为驱动微软AI聊天机器人工具Copilot而训练的基础大语言模型。该模型使用了约15,000块英伟达H100 GPU进行训练,并在单个GPU上运行推理。正如去年报道的那样,这款模型比微软早期实验中的模型要大得多,早期实验主要专注于像Phi-3这样的本地运行小型模型。
迄今为止,Copilot主要依赖OpenAI的模型。微软已向OpenAI投入巨额资金,两家公司不太可能在短期内完全分道扬镳。尽管如此,近几个月来,当两家公司的激励机制或目标出现分歧时,确实出现了一些紧张关系。
由于很难预测未来的发展方向,开发自主模型对微软的长期优势来说可能是有利的。
微软推出这些模型也可能是为了解决OpenAI并未重点关注的用例或查询。我们看到AI领域正在逐渐转向更专门化的任务模型,而不是试图满足所有人需求的通用全能模型。
这些新模型在某种程度上遵循了这一趋势,正如微软AI负责人穆斯塔法·苏莱曼在The Verge播客中所说,这里的目标是"创造出对消费者极其有效的产品...我的重点是构建真正适合消费者伴侣的模型"。
因此,我们看到这些模型将在Copilot中推出是有道理的,因为Copilot是微软面向消费者的AI聊天机器人产品。关于MAI-1-preview,微软AI博客文章特别指出,"这个模型旨在为寻求从专门遵循指令并为日常查询提供有用回应的模型中受益的消费者提供强大功能"。
是的,MAI-1-preview确实有目标受众,但由于Copilot是一个通用工具,它仍然是一个通用模型。
MAI-Voice-1已经在微软的Copilot Daily和Podcasts功能中使用。还有一个Copilot Labs界面,你现在就可以访问并试用,给它提示或脚本,并自定义你想听到的声音类型或表达方式。
MAI-1-preview目前正在LMArena上进行公开测试,并将在"未来几周内推广到Copilot的某些文本用例中"。
Q&A
Q1:微软发布的两款AI模型分别是什么?
A:微软发布了MAI-Voice-1和MAI-1-preview两款模型。MAI-Voice-1是自然语音生成模型,能在单人和多人场景下提供高保真音频;MAI-1-preview是专门为Copilot训练的基础大语言模型。
Q2:微软为什么要开发自己的AI模型?
A:微软此举可能是为了减少对OpenAI的依赖,尽管已对其大量投资。两家公司近期在激励机制和目标上出现分歧,开发自主模型有利于微软的长期发展,同时也能解决OpenAI未重点关注的特定用例。
Q3:这些模型现在可以使用吗?
A:MAI-Voice-1已在微软Copilot Daily和Podcasts功能中使用,用户可通过Copilot Labs界面体验。MAI-1-preview正在LMArena平台进行公开测试,将在未来几周内应用到Copilot的部分文本功能中。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。