Microsoft 在其 50 周年之际宣布了一系列新的 Copilot 功能,这些功能对于使用过竞争对手 AI 平台的用户来说可能会感到异常熟悉。
Microsoft AI 负责人 Mustafa Suleyman 写道:"今天,我们正在开启将 Copilot 从一个 AI 助手转变为你的专属 AI 助手的旅程。"
这一转变包括为聊天机器人添加记忆功能 (需要用户许可),使其能够"了解你生活中的细节"。这无疑能提高响应质量,但同时也让人觉得有些不安。
当我们询问 Microsoft 这是否为可选功能时,一位发言人告诉 The Register:"如果个性化功能可用,Copilot 将记住关于你的关键信息,并提供量身定制的 Copilot 体验。如果你不再希望 Copilot 通过记忆功能记住有关你的信息,可以随时选择退出个性化服务。"
OpenAI 在 2024 年为 ChatGPT 添加了记忆功能。
其他更新包括购物功能,可以通过"实时可信商家目录"找到最优惠的交易,以及 Actions 功能,使 Copilot 能够为用户完成任务。Suleyman 举例说明,从"订演唱会门票到安排回家的交通"都可以实现。Actions 功能可以与 OpenAI 的 Operator 功能相媲美。
另一个让人产生似曾相识感的是 Deep Research 功能的推出,它将允许用户"更高效地进行复杂的多步骤研究任务...节省时间并无缝处理复杂任务"。
这听起来很像 OpenAI 的 Deep Research 或 Google Gemini Deep Research。
Copilot Vision 将记忆功能的不安感提升到了新的高度。Android 和 iOS 的移动应用版本将会很有帮助——它们可以识别手机相机视野内的物品并回答相关问题,或使用相册中的照片。
相比之下,同样使用 Copilot Vision 品牌的 Windows 原生桌面版本则显得更令人不安。
据 Microsoft 称,"它将读取屏幕并与内容互动。" Copilot 将能够更改设置、组织文件并协作项目。Windows 预览体验计划的用户将首先体验到这个聊天机器人的功能,而就在上周,这个机器人还认为半个世纪只有 25 年。
Microsoft 发言人告诉 The Register,虽然内容会被传输到公司的云端进行 AI 计算,但"Vision 会话和文件搜索的内容不会用于模型训练或广告个性化。"
此外,"分享给 Copilot Vision 的截图、音频和上下文信息不会被 Copilot 存储。"然而,与 Copilot 的语音对话记录会作为对话历史的一部分被存储,但"可以随时删除"。
接下来是 Pages 功能,它将笔记和研究整合到由 Copilot 组织的"画布"中 (听起来类似于去年的 ChatGPT Canvas),以及 Podcasts 功能,它将生成"根据你的兴趣策划和提供个性化音频内容"的 AI 播客,有点像 Google NotebookLM 的 Audio Overview 功能。
因为现在世界确实需要更多的播客。
有趣的是,Microsoft 选择在其成立周年之际宣布这些类似于竞争对手平台已有功能的 AI 特性。在上周接受 CNBC 采访时,Suleyman 据报道表示,公司的策略是"紧随其后",在其他公司率先推进 AI 前沿的同时,享受较低的成本并瞄准特定的使用场景。
无论 Microsoft 报道的策略如何,这些公告表明公司仍然完全致力于 Copilot,其客户必须为即将到来的变化做好准备。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。