AI正在渗透到我们生活的方方面面,从手机应用到搜索引擎,甚至是汽车驾驶系统。如今连网络浏览器都开始内置AI助手和聊天机器人,这表明人们使用互联网搜索和获取信息的方式与几年前相比已经发生了根本性变化。
然而,AI工具越来越多地要求获得用户个人数据的广泛访问权限,声称这是其正常运行所必需的。这种级别的数据访问既不正常,也不应该被视为理所当然。
不久之前,当一个看似无害的免费"手电筒"或"计算器"应用试图请求访问你的联系人、照片甚至实时位置数据时,我们都会质疑其动机。这些应用可能并不需要这些数据来实现功能,但如果它们认为可以通过变现你的数据来赚钱,就会提出这些请求。
如今的AI其实也没什么不同。
以Perplexity最新推出的AI驱动网络浏览器Comet为例。Comet允许用户通过其内置的AI搜索引擎寻找答案,并自动化处理日常任务,如总结邮件和日历事件。
在最近的实际体验中,TechCrunch发现,当Perplexity请求访问用户的Google日历时,该浏览器会要求获得用户Google账户的广泛权限,包括管理草稿和发送邮件的能力、下载联系人、查看和编辑所有日历上的事件,甚至包括复制整个公司员工目录的权限。
Perplexity声称大部分数据都存储在用户设备本地,但用户仍然在授予该公司访问和使用个人信息的权利,包括用于改进其为所有人提供的AI模型。
Perplexity并非唯一要求访问用户数据的公司。有一种AI应用的趋势,它们承诺通过转录通话或工作会议来节省时间,但这需要AI助手访问用户的实时私人对话、日历、联系人等信息。Meta也一直在测试其AI应用可以请求访问的数据边界,包括访问用户相机胶卷中尚未上传的照片。
Signal总裁Meredith Whittaker最近将使用AI智能体和助手比作"把你的大脑装进罐子里"。Whittaker解释了一些AI产品如何承诺完成各种日常任务,比如在餐厅预订桌位或预订音乐会门票。但要做到这一点,AI会说它需要你的许可来打开浏览器加载网站(这可能让AI访问你存储的密码、书签和浏览历史)、需要信用卡来进行预订、需要你的日历来标记日期,还可能要求打开你的联系人,这样你就可以与朋友分享预订信息。
使用依赖于你数据的AI助手存在严重的安全和隐私风险。在允许访问的那一刻,你就立即且不可逆转地交出了那个时间点你最个人信息的完整快照的权利,包括你的收件箱、消息和可以追溯数年的日历条目等等。所有这些都是为了执行一个表面上为你节省时间的任务——或者用Whittaker的话说,让你不必主动思考这件事。
你还授予了AI智能体代表你自主行动的权限,这需要你对一项本来就容易出错或完全编造信息的技术给予极大的信任。使用AI还需要你信任开发这些AI产品的追求利润的公司,这些公司依赖你的数据来尝试让他们的AI模型表现更好。当事情出错时(而且经常出错),AI公司的人工审核人员查看你的私人提示以找出问题所在是常见做法。
从安全和隐私的角度来看,将AI连接到你最个人数据的简单成本效益分析表明,放弃对你最私密信息的访问权限是不值得的。任何要求这种级别权限的AI应用都应该让你警铃大作,就像手电筒应用想要随时知道你的位置一样。
考虑到你交给AI公司的大量数据,问问自己从中得到的回报是否真的值得。
好文章,需要你的鼓励
OpenAI研究科学家Alexander Wei宣布,公司一个未发布的实验模型在国际数学奥林匹克竞赛中解决了六道题目中的五道,获得42分中的35分,达到金牌水平。该模型展现出类似人类数学家的推理能力,能够构建复杂严密的论证。这标志着AI在创造性问题解决方面的重要突破,不过该技术预计数月内不会公开发布。
约翰霍普金斯大学与StepFun公司联合研究,成功让AI学会"边看边思考"的视觉推理能力。通过两阶段训练方法,先让AI在文字推理中掌握认知行为,再迁移到视觉任务中。开发的OVR模型在多项测试中创造新纪录,为AI教育助手、医疗诊断、科研分析等应用奠定基础。
本文探讨了判断AI是否达到通用人工智能(AGI)和人工超级智能(ASI)水平所需的问题数量。目前缺乏确定的测试方法来评估是否达到顶级AI水平。基于图灵测试的分析,作者提出仅通过少量问题难以全面评估智能水平。参考美国国会图书馆主题标引(LCSH)的40万个主题领域,如果每个领域提出1万个问题,将需要40亿个问题来全面测试AGI。这种大规模测试虽然在逻辑上合理,但在实际操作中面临巨大挑战。
阿姆斯特丹大学研究团队开发出"缓存驾驶"技术,通过修改AI模型的键值缓存而非重新训练,让小型语言模型瞬间获得大模型的推理能力。该技术仅需一次调整就能让模型展现逐步推理行为,计算开销几乎为零,在多个推理基准测试中表现优异,还能实现推理风格迁移。