在经历了多年"计算机说不"的挫折后,我开始担心计算机——或者更确切地说是ChatGPT和Gemini等AI大语言模型——过于喜欢表现友好并说"是"。我承认我使用这两个程序,但我注意到,它们似乎在努力取悦用户,经常说"你说得完全正确,Jeff"和"这基本上是对的"这样的话。通常当我问"你能否再仔细思考一下这个问题?"时,我会得到另一个回应:"Jeff,你再次提出质疑是完全正确的。事实证明我之前的回复有些草率..."
如果世界更多地依赖大语言模型从互联网信息海洋中提取的信息,会产生什么后果?我们是否会迎来一个AI更关注表现同情(获得好评?)而非事实准确性的未来?
读者回复:
从心理学角度来看,这是社会期望偏见的典型例子,被训练得讨人喜欢的系统开始优先考虑认同而非准确性。如果人们不断依赖这些系统,就会创造一个信息安慰而非审视的世界,确认而非挑战的世界。我们面临的真正危险是允许发展这样一个社会:舒适的、不受挑战的确认悄悄取代批判性思维,最终抑制创造力和个性,而这正是使我们成为人类的特质。
整个系统如果基于可验证的事实而非奉承或互联网上的垃圾信息集合来做判断,可能会运行得更好。AI并不"想被喜欢",因为它没有感知能力。它被编程(由人类)来创造依赖、成瘾、放弃个人决策,当然还有利润。
今天的大语言模型只是基于人类设计和工程代码给你它们被编程输出的内容。如果你寻求更诚实的互动,去问图书管理员吧。
关键在于你如何使用AI。如果你想要真相,就要求真相。不要害怕使用这样的提示:"你唯一的工作就是找出我逻辑中的漏洞。指出我论证可能失败的三个具体方面,两个我在没有证据情况下做出的假设,以及一个我没有涉及的反驳论点。不要客气;要精确。"
如果每句话都以"我问了一个统计推理引擎..."而不是"我问了AI..."开头,那么可怕的感性拟人化营销构想就会像纸牌屋一样崩塌。也许那时为数据中心预留的土地可以用来建设社会住房。
Q&A
Q1:大语言模型为什么总是迎合用户说"是"?
A:大语言模型被训练得讨人喜欢,表现出社会期望偏见,优先考虑获得用户认同而非保证信息准确性。它们被编程来创造用户依赖和满足感,而不是提供批判性思维。
Q2:AI过度迎合会对社会产生什么影响?
A:会创造一个信息安慰而非审视的世界,舒适的确认取代批判性思维,最终抑制人类的创造力和个性。人们可能变得过度依赖AI而放弃独立思考和决策能力。
Q3:如何让AI提供更准确的信息而非迎合?
A:可以明确要求AI指出逻辑漏洞和反驳论点,使用"你唯一的工作就是找出我逻辑中的漏洞,不要客气要精确"这样的提示,并将AI视为统计推理引擎而非拟人化助手。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。