一篇观点文章表明,Microsoft 365 的 Copilot 和 Apple 设备上的 Apple Intelligence 是科技行业痴迷于将服务设为默认开启而非用户主动选择开启的最新例证。
上周,Copilot 在 Microsoft 365 中不请自来地出现。本周,Apple 在即将发布的操作系统中默认启用了 Apple Intelligence。而在 Google 的服务中,几乎处处都能遇到 Gemini。
全球监管机构都在努力确保营销等服务需要用户主动选择开启。当暗模式被用来引导用户作出某种选择时,立法者会密切关注。
但出于某种原因,强制用户使用 AI 似乎变得可以接受。科技公司并没有询问"我们要在您的应用中添加一堆您从未要求过的 AI 服务,这主要是因为我们的投资者需要您使用它们,您觉得可以吗?",而是默认认为用户会很高兴看到他们原本整洁的应用程序中塞满了 AI 功能。
然而,用户似乎普遍不满意。虽然有研究显示用户在接触生成式 AI 工具时感到愉悦,但其他研究却描绘出用户对这项技术持怀疑态度的画面,一些企业甚至对这些服务敬而远之。
虽然我们不愿使用"劣质化"这个词来描述这种将 AI 强行灌输给客户的行为对原本可靠的服务造成的影响 (看看现在出现在 Google 搜索结果顶部的那些有时令人啼笑皆非的不准确摘要),但很明显事情并未完全按计划进行。
用户从未要求这些功能。没有人呼吁要搜索摘要,也没有人渴望复活一个升级版的 Clippy。没有人想为了获得一个几乎正确的番茄汤配方而进一步破坏环境。然而这一切还是来了,不管我们准备好与否。
这可能不是投资者和股东想听到的,但在未经客户同意的情况下添加 AI 服务确实需要暂停。尽管承诺本地处理和隐私优先的技术,但很难摆脱数据被收集用于各种目的的怀疑。如果突然强制用户使用间谍软件和键盘记录器,肯定会引起抗议 (确实如此 - 看看 Windows Recall),但生成式 AI 助手和摘要工具似乎获得了特免。
Microsoft 在生成式 AI 技术上投入巨大,通过将 Copilot 设为默认开启而非需要选择开启,公司可以向股东展示 AI 发展顺利,并证明这不是一个可怕的错误。这同样适用于 Apple、Google 和科技行业的许多其他公司。
这并不是否认 AI 的实际好处。该技术在分类方面表现出色,例如识别路坑。作为程序员的下一代自动补全工具,它很有用。在搜索时也很方便,尽管说实话,Windows 搜索从来都不是 Microsoft 旗舰操作系统的crown jewel。
然而,在生产力应用中不请自来,让人想起 21 世纪版的 Clippy。特别是当用户需要费力寻找关闭它的设置选项时。
如此多的资金被投入其中,而 AI 泡沫似乎即将破裂。也许在给予用户之前先询问他们想要什么这个现实的尖锐问题是不可想象的。
毕竟,科技行业的善意一直在照顾着客户。没有人要求永无止境的更新,但现实就是如此。用户界面的持续重新设计和改进很少出现在功能请求的前十名列表中,但客户还是会收到这些更新。
如果没有选择开启的权利,在 AI 采用率提高之前,或者在用户找到那个讨厌的退出选项之前,这种强制推行还会继续。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。