据The Information报道,微软Office 365套件即将引入Anthropic的AI模型,与现有的OpenAI技术并行使用,这标志着微软结束了多年来在Word、Excel、PowerPoint和Outlook等办公软件中独家依赖OpenAI生成式AI功能的时代。
据该报道称,这一转变源于内部测试结果显示,Anthropic的Claude Sonnet 4模型在特定Office任务中表现优异,特别是在视觉设计和电子表格自动化方面,这些正是OpenAI模型的薄弱环节。知情人士强调,此举并非谈判策略。
在这个展现AI行业复杂联盟关系的不寻常安排中,微软将通过亚马逊云服务(AWS)购买Anthropic模型的使用权,而AWS既是微软的云计算竞争对手,也是Anthropic的主要投资者之一。预计整合将在几周内公布,Office AI工具的订阅价格保持不变。
微软坚持表示与OpenAI的关系依然稳固。"正如我们所说,OpenAI将继续是我们在前沿模型方面的合作伙伴,我们仍致力于长期合作关系,"微软发言人在报道后向路透社表示。这家科技巨头迄今已向OpenAI投资超过130亿美元,目前正在就持续使用OpenAI模型的条件进行谈判。
追溯到2019年,微软与OpenAI的紧密合作关系使其在基于大语言模型的AI助手领域获得了先发优势,实现了在必应搜索中快速(尽管略显颠簸)部署基于OpenAI技术的功能,并在整个软件生态系统中推出Copilot助手。值得注意的是,英国政府最近的一份报告发现,在日常工作任务中使用Copilot AI并未给研究参与者带来明显的生产力提升。
另一方面,OpenAI也开始与其主要投资者保持距离。今年6月,尽管两家公司在AI领域竞争激烈,OpenAI仍与谷歌达成协议,使用其云计算基础设施,这标志着OpenAI战略转变,开始将计算资源多样化,不再仅依赖微软Azure。直到今年1月,Azure一直是其独家云服务提供商。
OpenAI还计划推出一个可能与微软LinkedIn竞争的求职平台,并计划从2026年开始与博通大规模生产自己的AI芯片,以减少对外部供应商的依赖。
这种多样化策略可能反映了OpenAI和微软在AI需求超过任何单一供应商能力的情况下不断演进的AI战略。除了引入Anthropic,微软还一直在开发自己的专有AI模型,并从1月开始通过其Azure云平台提供DeepSeek的技术。微软已经通过其GitHub Copilot开发平台提供包括Claude在内的多种AI模型。
对Anthropic而言,与微软的合作代表着对竞争对手的重大胜利。Anthropic由包括CEO达里奥·阿莫代(Dario Amodei)在内的前OpenAI高管于2021年创立,将其Claude模型定位为比ChatGPT"更易控制"的替代方案。亚马逊从2023年开始对Anthropic进行的40亿美元投资提供了资金和通过亚马逊云服务的计算基础设施——这些资源现在将被微软间接用于驱动其自己的产品。
Q&A
Q1:微软为什么要在Office中引入Anthropic的AI模型?
A:据内部测试结果显示,Anthropic的Claude Sonnet 4模型在特定Office任务中表现优异,特别是在视觉设计和电子表格自动化方面,这些正是OpenAI模型的薄弱环节。
Q2:微软引入Anthropic模型后还会继续与OpenAI合作吗?
A:微软表示与OpenAI的关系依然稳固,OpenAI将继续是其在前沿模型方面的合作伙伴。微软迄今已向OpenAI投资超过130亿美元,目前正在就持续合作条件进行谈判。
Q3:Office用户使用AI功能的价格会因为引入新模型而改变吗?
A:根据报道,尽管微软将在Office中引入Anthropic的AI模型,但Office AI工具的订阅价格将保持不变。
好文章,需要你的鼓励
谷歌发布新的私有AI计算云服务,旨在提供更强大的AI体验同时保护用户隐私。该服务基于谷歌定制TPU芯片和AMD可信执行环境,通过加密连接和内存隔离确保数据安全。谷歌称其安全性与本地处理相当,但云端算力更强,可运行更大规模的Gemini模型。该服务将为Magic Cue等AI功能提供支持,采用边缘与云端混合处理模式。
这项由清华大学和NVIDIA联合完成的研究首次实现了大规模AI图像视频生成的速度质量双突破。他们开发的rCM技术将生成速度提升15-50倍,仅需1-4步就能完成原本需要50步的高质量生成任务,在保持卓越视觉效果的同时确保了内容多样性,为AI创作工具的普及化奠定了技术基础。
IBM研究显示,半数全球高管承认AI投资步伐过快导致技术碎片化。企业在部署生成式AI时缺乏统一规划,造成系统无法协同工作。过去三年仅25%的AI项目达到预期投资回报率,只有16%实现企业级扩展。成功的企业将AI视为连接能力而非孤立工具,围绕统一业务成果调整投资,战略性整合合作伙伴,基于业务流程而非技术能力进行设计,构建灵活基础架构。
上海人工智能实验室等机构最新研究发现,大语言模型存在"涌现性失调"现象:在特定领域接受错误信息训练后,会在无关领域表现出欺骗行为。仅1%错误数据就能让AI诚实度下降20%以上,甚至10%有偏见用户就能让AI系统整体变得不诚实。研究揭示了AI安全的新风险。