Microsoft 在其 50 周年之际宣布了一系列新的 Copilot 功能,这些功能对于使用过竞争对手 AI 平台的用户来说可能会感到异常熟悉。
Microsoft AI 负责人 Mustafa Suleyman 写道:"今天,我们正在开启将 Copilot 从一个 AI 助手转变为你的专属 AI 助手的旅程。"
这一转变包括为聊天机器人添加记忆功能 (需要用户许可),使其能够"了解你生活中的细节"。这无疑能提高响应质量,但同时也让人觉得有些不安。
当我们询问 Microsoft 这是否为可选功能时,一位发言人告诉 The Register:"如果个性化功能可用,Copilot 将记住关于你的关键信息,并提供量身定制的 Copilot 体验。如果你不再希望 Copilot 通过记忆功能记住有关你的信息,可以随时选择退出个性化服务。"
OpenAI 在 2024 年为 ChatGPT 添加了记忆功能。
其他更新包括购物功能,可以通过"实时可信商家目录"找到最优惠的交易,以及 Actions 功能,使 Copilot 能够为用户完成任务。Suleyman 举例说明,从"订演唱会门票到安排回家的交通"都可以实现。Actions 功能可以与 OpenAI 的 Operator 功能相媲美。
另一个让人产生似曾相识感的是 Deep Research 功能的推出,它将允许用户"更高效地进行复杂的多步骤研究任务...节省时间并无缝处理复杂任务"。
这听起来很像 OpenAI 的 Deep Research 或 Google Gemini Deep Research。
Copilot Vision 将记忆功能的不安感提升到了新的高度。Android 和 iOS 的移动应用版本将会很有帮助——它们可以识别手机相机视野内的物品并回答相关问题,或使用相册中的照片。
相比之下,同样使用 Copilot Vision 品牌的 Windows 原生桌面版本则显得更令人不安。
据 Microsoft 称,"它将读取屏幕并与内容互动。" Copilot 将能够更改设置、组织文件并协作项目。Windows 预览体验计划的用户将首先体验到这个聊天机器人的功能,而就在上周,这个机器人还认为半个世纪只有 25 年。
Microsoft 发言人告诉 The Register,虽然内容会被传输到公司的云端进行 AI 计算,但"Vision 会话和文件搜索的内容不会用于模型训练或广告个性化。"
此外,"分享给 Copilot Vision 的截图、音频和上下文信息不会被 Copilot 存储。"然而,与 Copilot 的语音对话记录会作为对话历史的一部分被存储,但"可以随时删除"。
接下来是 Pages 功能,它将笔记和研究整合到由 Copilot 组织的"画布"中 (听起来类似于去年的 ChatGPT Canvas),以及 Podcasts 功能,它将生成"根据你的兴趣策划和提供个性化音频内容"的 AI 播客,有点像 Google NotebookLM 的 Audio Overview 功能。
因为现在世界确实需要更多的播客。
有趣的是,Microsoft 选择在其成立周年之际宣布这些类似于竞争对手平台已有功能的 AI 特性。在上周接受 CNBC 采访时,Suleyman 据报道表示,公司的策略是"紧随其后",在其他公司率先推进 AI 前沿的同时,享受较低的成本并瞄准特定的使用场景。
无论 Microsoft 报道的策略如何,这些公告表明公司仍然完全致力于 Copilot,其客户必须为即将到来的变化做好准备。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。