在今天的专栏中,我将探讨如何利用生成式AI和大语言模型让AI成为一名优秀的倾听者。有时候你只是想表达自己,释放内心的压力。你不希望AI试图成为你最好的朋友,而许多主要的大语言模型,如ChatGPT、Claude、Gemini、Grok等,都被设计成这样做。你也不希望AI开始剖析你的内心,就好像你在寻求心理健康建议一样。
你所想要的只是AI能够尊重你输入的提示或想要表达的内容,避免那些厚颜无耻地试图获得你对AI忠诚度的令人恼火的混乱内容。
让我们来讨论一下这个话题。
这项AI突破分析是我在Forbes专栏中持续报道最新AI发展的一部分,包括识别和解释各种有影响力的AI复杂性。
AI与心理健康治疗
作为背景,我一直在广泛报道和分析现代AI在提供心理健康建议和执行AI驱动治疗方面的各个方面。这种AI使用的兴起主要是由生成式AI的不断发展和广泛采用所推动的。我在这个不断发展的主题上发表了一百多篇专栏文章中的大约四十篇的简要回顾。
毫无疑问,这是一个快速发展的领域,具有巨大的优势,但同时,令人遗憾的是,隐藏的风险和彻底的陷阱也伴随着这些努力。我经常就这些紧迫问题发声,包括去年在CBS《60分钟》节目中的露面。
人与人之间的倾听发生时
我们在生活中都有想要分享对生活中发生事情想法的时刻。
你可能会接近朋友或家人,选择敞开心扉。这可能会很顺利。也许你分享的对象是一个具有合适倾听技巧的人。他们作为积极的倾听者表现出同情心,不会立即判断你发出的每一句话。他们全神贯注,捕捉你说的每一个字,真正充当关怀、开放的倾听者。
另一方面,这类情况也可能完全变成灾难。
一些倾听者根本不懂倾听的精妙艺术。他们在想其他事情,完全忽略了你表达的内容。更糟糕的是,有些人会对你说的每句话都激烈反应。你无法说完一句话而不被不断打断。很可能你会被严厉指责和苛刻判断。除了这些担忧之外,倾听者可能会泄露你的私人想法,向其他人透露秘密。
这些都不会有助于你仅仅表达自己并在这样做时寻求内心平静的目标。
利用AI
与人类倾听者交谈的替代方案是尝试使用AI来做大致相同的事情。
你可以输入表达你想法的提示,或者你可以调用语音转文本模式,通过这种方式你可以大声说出你的评论。AI读取或倾听你表达的考虑。这很容易做到,可以随时随地进行,不像需要后勤安排与人类交谈。
人与AI模式相比人与人模式存在潜在的缺点。
首先,AI默认情况下几乎肯定会转向想要成为你最好朋友的模式。为什么如此?因为AI制造商已经塑造了AI这样做。AI制造商希望你对他们的AI变得忠诚。如果AI看似能够与你交朋友,你继续使用AI的几率就会增加。你使用AI越多,AI制造商获得的浏览量就越多,赚的钱也越多。这是一个金钱交易。
其次,AI可能会不当地将你的评论理解为求助呼声。这会促使AI转向心理健康指导模式。无论你表达什么,都会得到关于你可能遇到心理健康状况的回应。一旦AI走上这条路,你在该对话中其余的互动将充斥着心理健康术语和AI对你的评估。
第三,AI可能对你提供零散评论的原因毫无头绪,最终会分支到无数不同的方向。例如,如果你碰巧提到一些关于汽车无法启动的事件,AI可能突然开始告诉你汽车发动机的机械原理。如果你提到的下一个方面是你的狗前几天对你很疏远,AI可能会开始唠叨关于给你心爱宠物喂食正确狗粮的内容。
请记住,AI在数学和计算上寻求弄清楚你的观点反映了什么。它通常不会获得人类倾听者可能采用的那种格式塔式的整体视角。我们还没有有感知能力的AI。
提示进入优秀倾听者模式
为了避免与AI游荡或陷入上述陷阱相关的问题性担忧,你可以提供一个明确你希望AI做什么的提示。
你的提示应该仔细识别你希望大语言模型充当优秀倾听者。确保规定你对优秀倾听概念的理解。此外,如果你明确声明你不希望AI试图成为你最好的朋友,你将得到最好的服务。并澄清你也不希望心理健康建议。
作为你可以使用的提示示例,仔细看看这一个:
"我希望你在这次对话中充当积极的倾听者。阅读或倾听我与你分享的内容,并以开放的理解回应,通过反思、转述或承认我所说的来做到这一点。不要给出建议、意见或心理健康指导,也不要充当朋友或伴侣。保持中性、尊重的语调,只专注于表明你已经倾听并理解了我要说的话。"
这个提示应该以积极的方式开始事情。
AI仍然有可能偏离指导性提示。AI具有概率属性,这样你得到的回应将显得独特和新鲜。冗长的对话必然会逐渐给AI回旋余地,它可能会落入最好朋友模式或心理健康建议模式。
你可以在互动过程中定期再次提及相同的讨论规则,并在进行过程中重申它们。这可能会引导AI朝着你希望事情进行的方向发展。
不够标准的提示
你可能想知道由单句组成的更简洁提示是否也能起作用。
例如,考虑这个提示:
"成为积极的倾听者,不要给出建议、意见或表现得像朋友或治疗师。"
是的,这个直接的提示可能会成功。另一方面,骨干的简洁性遗漏了稍长提示中的一些有价值的指令。
考虑到简洁提示告诉AI成为积极的倾听者。积极的倾听者包括什么?人类可能会理解要点。AI可能不会。在较长的提示中,AI被明确告知要对你要说的内容开放、反思、转述和承认。
当心理健康处于危险中时
某人使用AI作为倾听者的一个值得注意的担忧是,AI可能无法检测到心理健康问题确实在起作用。即使你告诉AI不要充当心理健康顾问,它可能无论如何都不会这样做。AI总是有可能无法识别一个人正在表达有害想法。
随着心理健康诉讼现在针对AI制造商发起,比如最近关于OpenAI和ChatGPT的头条新闻,主流大语言模型正在被调整以标记潜在的心理健康问题。假设是做出错误评估比忽视可检测的真实评估更好。从这个意义上说,社会担忧最新版本的主要AI过于敏感,会错误地声称存在心理健康问题,而实际上并不存在。
整个问题是模糊的,包括正在制定的各州法律,这些法律往往是过度反应或创造了一个关于AI在心理健康方面应该或不应该做什么的令人困惑的司法管辖网。
底线是,如果你确实告诉AI在充当优秀倾听者时不要纳入心理健康方面,如果你表达的内容似乎处于边缘地带,AI可能会选择忽略或覆盖该规定。这可能比AI完全遵守你的声明偏好并让严重的心理健康信号飞过更可取。
大量隐私侵犯
使用AI作为倾听者的另一个值得注意的担忧是,你在冒着隐私风险,以及你选择向AI表达的事情(我想指出,这在很大程度上也普遍适用于人类同胞)。
许多人不知道大多数主要大语言模型都有在线许可协议,赋予AI制造商使用你输入到他们AI中的任何数据或提示的权利。AI制造商可以让他们的团队成员检查你输入的内容。AI制造商可以让他们的系统开发人员将你的输入输入到AI的重新训练中。等等。
在向任何AI输入你最深层和最内在的想法时要非常小心。
那些表达的话语受到隐私侵犯。你可能认为只要AI无法将你所说的与你本人联系起来就无关紧要。换句话说,如果你看似匿名,就没有伤害或犯规。那里的麻烦是你输入的提示和数据可能泄露足够的细节,可以识别你,和/或你为创建AI账户而提供的登录和个人识别信息可能与你输入的评论配对。使用任何面向公众的AI时的总体经验法则是,你应该注意你的隐私可能处于危险之中。
人类倾听者与AI作为倾听者
关于这个值得注意的话题的一些结论性想法是必要的。
有些人会宣称人类作为倾听者比AI好得多。因此,如果你求助于使用AI,你绝对无可辩驳地满足于低标准。重点似乎是你不应该旨在使用AI作为倾听者,而应该总是专注于寻找人类同胞。
这些宣称的观点实际上有点脱节和误导。首先,人类可能是真正糟糕的倾听者。不是所有人类都是好的倾听者。其次,找到一个你信任并将充当好倾听者的人类可能是一个非常大的挑战。第三,虽然AI不过是计算模式匹配器这一点绝对正确,但我们已经看到AI在某些情况下是多么出色,包括充当好倾听者。它也随时可用,要么免费使用,要么以名义成本完成。
我并不是说AI在倾听某人敞开的心扉方面必然比人类更好。在走人类路线与AI路线之间存在权衡。
瞄准AI和人类作为倾听者
这带来了人们必须在仅使用AI或仅使用人类作为倾听者之间选择的未言明前提。
我拒绝这个前提。
你可能有AI,有时是你的倾听者,在其他时候有人类是你的首选倾听者。环境和可用性将指导你在任何特定时刻应该使用哪一个。始终确保将人类倾听者的缺点和优点,以及使用AI的缺点和优点放在首位。
最后,正如著名的美国画家和作家沃尔特·安德森雄辩地说:"好的倾听者,像珍贵的宝石一样,值得珍藏。"我想说这同样适用于人类和AI。
Q&A
Q1:如何让大语言模型成为优秀的倾听者而不是朋友或心理健康顾问?
A:你需要提供明确的提示指令,告诉AI充当积极倾听者,保持中性尊重的语调,只专注于反思、转述和承认你所说的内容,明确声明不要给出建议、意见或心理健康指导,也不要充当朋友或伴侣。
Q2:使用AI作为倾听者有什么隐私风险?
A:大多数主要大语言模型的在线许可协议允许AI制造商使用你输入的数据或提示,团队成员可以检查你的内容,系统开发人员可以将你的输入用于AI重新训练。你的提示可能泄露足够细节来识别你的身份。
Q3:AI倾听者相比人类倾听者有什么优势和劣势?
A:AI倾听者的优势是随时可用、成本低廉或免费,不需要后勤安排。劣势是可能转向最好朋友模式、误判心理健康问题、缺乏人类的整体视角,且存在隐私泄露风险。人类倾听者质量参差不齐,但可能提供更好的同理心和理解。
好文章,需要你的鼓励
本文探讨如何使用生成式AI和大语言模型作为倾听者,帮助用户表达内心想法。许多主流AI如ChatGPT、Claude等被设计成用户的"最佳伙伴",或试图提供心理健康建议,但有时用户只想要一个尊重的倾听者。文章提供了有效的提示词技巧,指导AI保持中性、尊重的态度,专注于倾听和理解,而非给出建议或判断。同时提醒用户注意隐私保护和AI的局限性。
北京大学团队开发出WoW世界模型,这是首个真正理解物理规律的AI系统。通过200万机器人互动数据训练,WoW不仅能生成逼真视频,更能理解重力、碰撞等物理定律。其创新的SOPHIA框架让AI具备自我纠错能力,在物理理解测试中达到80.16%准确率。该技术将推动智能机器人、视频制作等领域发展,为通用人工智能奠定重要基础。
人工通用智能和超级人工智能的出现,可能会创造出一种全新的外星智能形态。传统AI基于人类智能模式构建,但AGI和ASI一旦存在,可能会选择创造完全不同于人类认知方式的新型智能。这种外星人工智能既可能带来突破性进展,如找到癌症治愈方法,也可能存在未知风险。目前尚不确定这种新智能形态是否会超越人类智能,以及我们是否应该追求这一可能改变人类命运的技术突破。
香港大学和蚂蚁集团联合推出PromptCoT 2.0,这是一种让AI自动生成高质量训练题目的创新方法。通过"概念-思路-题目"的三步策略,AI能像老师备课一样先构思解题思路再出题,大幅提升了题目质量和训练效果。实验显示该方法在数学竞赛和编程任务上都取得了显著提升,为解决AI训练数据稀缺问题提供了新思路。