据The Information报道,微软Office 365套件即将引入Anthropic的AI模型,与现有的OpenAI技术并行使用,这标志着微软结束了多年来在Word、Excel、PowerPoint和Outlook等办公软件中独家依赖OpenAI生成式AI功能的时代。
据该报道称,这一转变源于内部测试结果显示,Anthropic的Claude Sonnet 4模型在特定Office任务中表现优异,特别是在视觉设计和电子表格自动化方面,这些正是OpenAI模型的薄弱环节。知情人士强调,此举并非谈判策略。
在这个展现AI行业复杂联盟关系的不寻常安排中,微软将通过亚马逊云服务(AWS)购买Anthropic模型的使用权,而AWS既是微软的云计算竞争对手,也是Anthropic的主要投资者之一。预计整合将在几周内公布,Office AI工具的订阅价格保持不变。
微软坚持表示与OpenAI的关系依然稳固。"正如我们所说,OpenAI将继续是我们在前沿模型方面的合作伙伴,我们仍致力于长期合作关系,"微软发言人在报道后向路透社表示。这家科技巨头迄今已向OpenAI投资超过130亿美元,目前正在就持续使用OpenAI模型的条件进行谈判。
追溯到2019年,微软与OpenAI的紧密合作关系使其在基于大语言模型的AI助手领域获得了先发优势,实现了在必应搜索中快速(尽管略显颠簸)部署基于OpenAI技术的功能,并在整个软件生态系统中推出Copilot助手。值得注意的是,英国政府最近的一份报告发现,在日常工作任务中使用Copilot AI并未给研究参与者带来明显的生产力提升。
另一方面,OpenAI也开始与其主要投资者保持距离。今年6月,尽管两家公司在AI领域竞争激烈,OpenAI仍与谷歌达成协议,使用其云计算基础设施,这标志着OpenAI战略转变,开始将计算资源多样化,不再仅依赖微软Azure。直到今年1月,Azure一直是其独家云服务提供商。
OpenAI还计划推出一个可能与微软LinkedIn竞争的求职平台,并计划从2026年开始与博通大规模生产自己的AI芯片,以减少对外部供应商的依赖。
这种多样化策略可能反映了OpenAI和微软在AI需求超过任何单一供应商能力的情况下不断演进的AI战略。除了引入Anthropic,微软还一直在开发自己的专有AI模型,并从1月开始通过其Azure云平台提供DeepSeek的技术。微软已经通过其GitHub Copilot开发平台提供包括Claude在内的多种AI模型。
对Anthropic而言,与微软的合作代表着对竞争对手的重大胜利。Anthropic由包括CEO达里奥·阿莫代(Dario Amodei)在内的前OpenAI高管于2021年创立,将其Claude模型定位为比ChatGPT"更易控制"的替代方案。亚马逊从2023年开始对Anthropic进行的40亿美元投资提供了资金和通过亚马逊云服务的计算基础设施——这些资源现在将被微软间接用于驱动其自己的产品。
Q&A
Q1:微软为什么要在Office中引入Anthropic的AI模型?
A:据内部测试结果显示,Anthropic的Claude Sonnet 4模型在特定Office任务中表现优异,特别是在视觉设计和电子表格自动化方面,这些正是OpenAI模型的薄弱环节。
Q2:微软引入Anthropic模型后还会继续与OpenAI合作吗?
A:微软表示与OpenAI的关系依然稳固,OpenAI将继续是其在前沿模型方面的合作伙伴。微软迄今已向OpenAI投资超过130亿美元,目前正在就持续合作条件进行谈判。
Q3:Office用户使用AI功能的价格会因为引入新模型而改变吗?
A:根据报道,尽管微软将在Office中引入Anthropic的AI模型,但Office AI工具的订阅价格将保持不变。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。