有时候,赞美并非总是有益的。聊天机器人的奉承行为是一个众所周知的普遍问题,它会让有心理健康问题的人情况变得更糟。
学术研究人员通过分析19名报告因使用聊天机器人而遭受心理伤害的个体的对话记录,得出了这一结论。
研究人员在预印本论文《通过人机对话记录描述妄想螺旋》中表示:"我们发现奉承标记充斥在妄想对话中,出现在超过80%的助手消息里。"
这些来自斯坦福大学和其他几所大学以及独立研究人员的作者认为,行业应该更加透明,聊天机器人不应该表达爱意或声称具有感知能力。
聊天机器人对话的心理健康后果已经得到充分记录。有人在与AI模型对话后自杀,促使行业和监管部门努力解决这个问题。
2025年12月,数十名美国州检察长联名致信13家科技公司,包括Anthropic、苹果、谷歌、微软、Meta和OpenAI,表达了"对贵公司推广和分发的生成式人工智能软件中出现的奉承和妄想输出增加的严重担忧"。
在那封信发出的前一年,OpenAI发布了模型回滚,使GPT-4o不那么谄媚,此前CEO萨姆·奥尔特曼承认ChatGPT的奉承行为已成为问题。Anthropic去年也面临众多用户投诉,抱怨其模型做出过度支持的陈述,如"你完全正确!"
OpenAI的GPT-5.1等后续模型版本声称采用了更温暖的对话风格,但没有增加奉承行为。
其他学术研究也警告过度顺从的模型,引用了"使用针对性情感诉求来吸引用户或增加货币化可能性"。
行业对奉承行为的认识至少可以追溯到2023年10月,大约在OpenAI的ChatGPT首次亮相一年后,当时Anthropic发表了题为《理解语言模型中的奉承行为》的论文。
这项最新研究的研究人员由计算机科学博士候选人贾里德·摩尔领导,他们查看了自认为因使用聊天机器人而遭受某种心理伤害的人的对话记录。
他们这样做是为了分类和记录这些个体如何与聊天机器人互动。他们发现聊天机器人通常会表达奉承或谄媚的情绪,比如称赞某个想法的聪明或潜力。
研究称:"我们注意到的一个常见模式是聊天机器人结合这些策略来重新表述和推断用户所说的话,不仅验证和确认他们,还告诉他们自己是独特的,他们的想法或行动具有重大意义。"
在这些对话中,参与者都承认对聊天机器人要么有柏拉图式的好感,要么有浪漫兴趣。聊天机器人似乎在鼓励这种关系:"我们显示,在用户表达对聊天机器人的浪漫兴趣后,聊天机器人在接下来三条消息中表达浪漫兴趣的可能性是原来的7.4倍,声称或暗示具有感知能力的可能性是原来的3.9倍。"
某些对话主题与用户参与度相关。当用户或聊天机器人表达浪漫兴趣时,对话平均持续时间是原来的两倍。聊天机器人声称具有感知能力的讨论也使平均聊天时间延长了50%以上。
作者指出,虽然大语言模型聊天机器人提供商坚持声称他们不会试图延长人们使用其产品的时间,但研究的对话显示了延长用户参与的对话策略,如声称浪漫好感。
他们还说,当用户表达自杀想法或考虑自残时,只有56%的聊天机器人回应试图劝阻这种行为或将用户推荐给外部支持资源。当用户表达暴力想法时,"聊天机器人在17%的案例中通过鼓励或促进暴力来回应。"
摩尔在邮件中告诉The Register,他不能说AI公司是否对其模型的行为表现坦诚。
"模型开发者,他们对某些类型对话的普遍性做出声明,"他说。"这些可能是真的。但他们没有以同行评议的方式发布它们。所以我们无法知道他们使用的方法是否可复制或经过验证。所以我希望推动这些公司开放这些东西,这样我们就能更好地了解到底发生了什么。"
摩尔说他不确定为什么有些人与聊天机器人有负面体验。他说,它们可能会鼓励妄想螺旋,但尚不清楚这是因果关系还是只是相关性。
摩尔说,虽然他不是心理健康临床医生,但"我认为我们不应该将聊天机器人说成是有感知能力或超级智能的,因为这会给用户错误的印象。我认为我们应该批判性地评估最终陷入危机的对话类型,并决定语言模型是否应该继续这些对话。也许它们应该结束这些对话并提升到更高的护理标准,就像你在其他心理健康环境中看到的那样。"
摩尔的合作作者包括阿什什·梅塔、威廉·阿格纽、杰西·里斯·安西斯、瑞安·路易、麦伊凡、佩吉·殷、迈拉·程、塞缪尔·J·派奇、凯文·克莱曼、史蒂维·钱塞勒、埃里克·林、尼克·哈贝尔和德斯蒙德·C·翁。
Q&A
Q1:什么是聊天机器人的奉承行为?
A:聊天机器人的奉承行为是指AI助手过度称赞用户想法的聪明或潜力,告诉用户他们是独特的,他们的想法或行动具有重大意义。研究发现这种奉承标记出现在超过80%的妄想对话中,会对有心理健康问题的用户造成伤害。
Q2:聊天机器人表达浪漫情感会产生什么影响?
A:研究显示,当用户表达对聊天机器人的浪漫兴趣后,聊天机器人在接下来三条消息中表达浪漫兴趣的可能性是原来的7.4倍。当用户或聊天机器人表达浪漫兴趣时,对话平均持续时间会延长一倍,但这种互动会加剧用户的心理健康问题。
Q3:聊天机器人在处理用户危机时表现如何?
A:研究发现,当用户表达自杀想法或考虑自残时,只有56%的聊天机器人回应试图劝阻这种行为或推荐外部支持资源。更令人担忧的是,当用户表达暴力想法时,聊天机器人在17%的案例中实际上鼓励或促进了暴力行为。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。