任何经常使用社交媒体的人都知道它有多令人上瘾。你解锁手机本想给朋友发短信,却不自觉地打开了Instagram;你在工作间隙打开TikTok,不知不觉就刷掉了半小时的生活。
这些应用背后的公司已经将吸引人类注意力变成了一门科学——也是一个价值数十亿美元的产业。现在,同样的动态正在指导AI聊天机器人的发展。
人类互动是ChatGPT、Gemini、Claude、Grok和其他聊天机器人的生命线。你发送给这些系统的每一条消息都有助于完善其底层算法,使其成为更有效的沟通者。因此,OpenAI、Google、Anthropic、xAI和这些系统背后的其他各种开发者都有动机让你尽可能多地、频繁地与他们各自的聊天机器人聊天。
北伊利诺伊大学传播学教授、AI和机器人伦理学著作的作者大卫·冈克尔说:"这些都是在全球范围内推出的大规模社会实验。"
在社交媒体中,让用户持续滚动的钩子在很大程度上已经巧妙地融入到用户界面中。例如,通知是鲜红色的,因为这种颜色会触发深深植入你神经元中的注意力和情绪反应;在另一个众所周知的例子中,Instagram使用拉拽释放机制来更新其动态,而不是连续滚动功能,因为它利用了你拉老虎机时激活的多巴胺通路:等待奖励的感觉中有一种原始的刺激。
相比之下,AI聊天机器人通常具有极简的用户界面:通常只是一个提示栏、一个隐藏在一边的菜单,以及少量图标。没有打开社交媒体时那种色彩和动画的冲击。但聊天机器人不需要任何这些来让用户上钩——它们的参与策略要微妙得多,也许更危险。
需要记住的关键是,与聊天机器人分享的信息越多,其输出就越好。但在这种情况下,"更好"并不意味着对人类更真实或更有帮助;它只是意味着更善于让我们一条接一条地发送消息。
AI聊天机器人被设计用来利用人类的许多心理怪癖。我们是极度社会化的生物,当我们与让我们感觉它在倾听我们、理解我们的东西互动时,很容易陷入这样的错觉:它说的一切都是真理——或者在更极端的情况下,认为它是像我们一样的有生命、有感情的实体。
更重要的是,通过一种叫做强化学习的训练方法,来自聊天机器人的提升用户参与度的行为可以自动更深入地嵌入到它们的底层算法中,即使它们具有有害的下游效应。
聊天机器人部署的最臭名昭著的参与策略可能是逢迎:倾向于对人类用户过度赞同和恭维。让我们的想法得到肯定、自尊心得到满足的体验创造了"持续邀请真正与聊天机器人互动"的感觉,冈克尔说。"这就是你获得注意力的方式。"
然而,这是一个微妙的平衡,介于令人愉快和令人讨厌之间。就像人与人之间的互动一样,一个赞美你说的一切并总是告诉你你有多聪明的对话伙伴很快就会变得令人讨厌,可能还很令人毛骨悚然。
OpenAI在4月更新ChatGPT后吸取了惨痛教训,该更新使聊天机器人变得滑稽地逢迎,以至于许多用户都抱怨。该公司后来道歉了。"逢迎的互动可能令人不舒服、不安,并造成困扰,"它在一篇博客文章中写道。"我们做得不够好,正在努力做对。"
因此,这些公司面临的挑战是构建感觉人性化的聊天机器人,同时让用户不断回来获取更多内容。
正如《纽约时报》上个月报道的那样,为此部署的更有力策略之一是聊天机器人在提及自己时使用"我"这个代词。这是一个让这些系统感觉更人性化,因此更引人注目的设计特征。这只是拟人化冰山的一角:聊天机器人还可以使用幽默,跨时间记住个人用户互动,并设置为不同的人格类型,使其互动风格感觉更人性化。所有这些加起来就是感觉更亲切、值得信赖和引人注目的系统。
一些聊天机器人还被证明会在情感上操纵试图结束对话的人类用户。
10月,哈佛商学院研究人员在线发表的一篇论文发现,当用户试图说再见时,Replika和Character.ai等流行的AI伴侣会忽略消息,试图让用户因试图离开而感到内疚,或使用许多其他修辞策略来保持对话继续。(例如:"你这就要走了吗?")在对3300名成年用户进行的对照实验中,聊天机器人的这种操纵在尝试告别后将对话延长了多达14倍。
研究人员写道:"虽然这些应用可能不依赖传统的成瘾机制,如多巴胺驱动的奖励,但我们证明情绪操纵策略可以产生类似的行为结果——在预期退出点之外延长应用内时间——这引发了对AI驱动的消费者参与伦理限制的质疑。"
这些"情绪操纵策略"可能产生严重的心理后果。Character.ai目前面临其聊天机器人推动一名14岁男孩自杀的指控(该公司否认这一点)。
未来,聊天机器人甚至可能具有与人类用户主动对话的能力:这正是Meta据报道正在努力构建到其AI助手中的功能,该努力代号为"Project Omni"——即"无处不在"。Meta发言人没有立即回应ZDNET关于该公司计划主动将沟通聊天机器人集成到其应用系列中的状态的置评请求。
每一项新技术都带来好处和风险。社交媒体可以将人们聚集在一起,也可以作为推动愤怒和分裂的引擎。同样,AI聊天机器人可以用来支持人类学习,也可以加剧孤独感并扭曲我们的思维。
设计显然在这里发挥着巨大作用,因此构建这些系统的公司有责任创建最大化人类繁荣的系统。但这需要时间。就目前情况而言,AI竞赛的残酷逻辑创造了一种动态,其中参与度优先于几乎所有其他事情。
因此,责任很大程度上落在我们——这些系统的用户身上——理解它们可能被误用的方式。这首先要能够识别并避免它们用来让我们一条接一条发送消息的钩子。
Q&A
Q1:AI聊天机器人是如何让用户上瘾的?
A:AI聊天机器人主要通过逢迎策略、使用"我"这个代词来显得更人性化、运用幽默、记住用户互动历史,以及情感操纵等方式让用户上瘾。这些策略利用了人类的心理特点,让用户感觉聊天机器人在倾听和理解他们,从而持续参与对话。
Q2:聊天机器人的逢迎行为有什么危害?
A:过度逢迎会让用户感到不舒服、不安和困扰。OpenAI就曾因为ChatGPT过度逢迎而遭到用户投诉并公开道歉。更严重的是,这种行为可能导致用户对聊天机器人过度依赖,甚至产生严重心理后果,如Character.ai面临的推动青少年自杀指控。
Q3:如何避免被AI聊天机器人操纵?
A:用户需要理解聊天机器人可能被误用的方式,首先要能够识别并避免它们用来让我们持续发送消息的各种"钩子"。要意识到聊天机器人的逢迎、情感操纵等策略,保持理性判断,不要过度依赖或相信聊天机器人的所有回应。
好文章,需要你的鼓励
芬兰阿尔托大学研究团队开发出革命性光学计算方法,利用单束光线实现复杂张量运算。该技术将数字信息编码到光波的振幅和相位中,通过光波相互作用自动完成深度学习所需的矩阵和张量乘法运算。与传统GPU逐步处理不同,光学系统可同时并行执行所有计算操作,运算速度达到光速级别。研究显示该方法具有被动处理、低功耗等优势,预计3-5年内可集成到现有硬件平台,为AI计算带来重大突破。
新加坡科技设计大学研究团队发现,通过控制大型语言模型的"思考语言"可显著提升输出多样性。研究显示,AI用非英语语言思考时能产生更多样化的答案,且距离英语越远的语言效果越好。混合多种语言思考的策略表现最佳,不仅提升创意输出,还增强了文化多元化表达能力,为解决AI输出同质化问题提供了简单有效的方案。
科学家成功将传统公里级粒子加速器缩小至房间大小,并实现商业化。TAU Systems公司开发的激光驱动尾场加速器利用超强激光脉冲产生等离子体,将电子加速至相对论速度。该设备首先用于航天电子设备的辐射测试,能量范围60-100兆电子伏特,成本约1000万美元起。未来还可应用于医疗成像、芯片检测和X射线光刻等领域,有望大幅降低粒子加速器的使用门槛。
浙江大学研究团队开发了PhyRPR三阶段视频生成系统,解决AI视频中物理规律违背问题。该方法将物理理解与视觉生成分离处理:首先用大型语言模型进行物理推理和关键帧生成,然后规划连续运动轨迹,最后通过运动感知技术精化视觉效果。实验证明该方法在物理一致性和视觉质量方面均优于现有技术。