我一直会对我的Alexa说"请"和"谢谢"。这是为什么呢?我很确定它并不在乎。对AI助手保持礼貌有意义吗?——Alison Williams,多伦多
不,我们不应该把这些设备视为有感知能力的生命体。它们被设计成模仿我们的社交行为,但我们不应该将这种模仿误认为是真实的。语言可以被用来非人化本不该如此对待的对象,从而引发糟糕的后果。同样,我们也不应该用语言将机器人性化。——用户30000
我同意,但保持礼貌作为人类的默认行为习惯也是有益的。另外,既然AI无疑是在从我们给出的信号中学习如何行事,给出友好的信号是有道理的。话虽如此,我从未觉得自己陷入了正在与有感知能力的存在对话的幻觉;也许如果我真的有这种感觉,反而会觉得需要态度粗鲁一点,以便将自己从中拉回来!——lauk
从成本和环境角度来看,我们绝对不应该使用与人交谈时那种客套的礼貌用语。处理那些额外的语言——那些对你实际请求内容毫无贡献的话——会消耗额外的能源和水资源。长期积累下来,这会形成巨大的浪费。AI本身就是高度耗能的,所以我们应该尽量减少像礼貌寒暄这样无意义的交互。——superspartan
多项研究表明这是有帮助的。毕竟,现代AI不过是巨大的统计型"鹦鹉":当你对它们礼貌时,它们也会礼貌而热情地回应你。这对生活来说是一个启示。另一方面,Sam Altman曾表示,仅仅是回应对话结尾的"谢谢",就让OpenAI花费了数千万美元。所以,请注意你的"请",但不必太在意你的"谢谢"。——Doug Aberdeen
当然,为什么不呢?你也可以在离开时感谢电梯,在SUV送修时送花,在iPad电量告急时询问它的状况。——TopGyre
如果你觉得服务器速度慢,别忘了多给点小费。——EddieChorepost
是的,应该礼貌。它们不是人类,但我是,而且我努力做一个相当不错的人。——labrabbit
我注意到朋友的孩子以及一些成年人,在家中和手机上与AI的互动越来越多,而方式也越来越无礼、简短,有时甚至带有攻击性(显然只是为了自娱自乐)。
我们会养成习惯性的行为和习惯性的回应方式。年轻人尤其每天与科技交互的时间往往远多于与他人交流的时间。同理心和体谅他人是需要培养的品质,它们往往不是天生的,却能对每个人的生活质量产生重大影响。因此,对AI保持礼貌,与其说是为了AI,不如说是关乎我们人类自身——帮助我们建立和维持强大的情商,从而使我们的人际互动受益。——porridgeoates
礼貌对灵魂有益。Alexa没有灵魂这个事实并不重要——被腐蚀的是你的灵魂。——Martin,多塞特
当人类使用物品时,我们会与它们建立某种关系。我们会赋予它们个性,常常给它们起名字。当我们对它们粗鲁或生硬时,我们其实是在塑造一种行为模式,这种模式会渗透到我们的其他关系中,尤其是在存在权力不对等的场合。就像我不希望生活中出现对店员或服务员粗鲁的人一样,我也不希望出现对自己选择交互的AI粗鲁的人。AI不会受到伤害——至少就目前我们所知而言——但这样做的人却在强化一些成年人本应努力克制的低劣性格缺陷。——Louise
我不知道我们是否应该这样做,但我确实这样做了。在用英语和德语(我的母语)对谷歌、Bing、DuckDuckGo和Perplexity的AI进行了一些有趣的测试之后,我每周都会用Perplexity进行多次搜索。这个程序确实会响应礼貌的语气,甚至接受了足够多的自然语言处理训练,使其具备了一定的幽默感——而我反过来觉得这非常有趣。
但这也需要定期提醒自己:我是在与一台计算机交流。尽管如此,就像对待人类一样,我保持礼貌,包括在确认结果或纠正错误信息时。——Tobias
你会对烤面包机说谢谢吗?——Todd Rutt
Q&A
Q1:对AI助手说"请""谢谢"会浪费能源吗?
A:有观点认为确实如此。处理这些礼貌用语会消耗额外的能源和水资源,长期积累会造成显著浪费。Sam Altman也曾表示,仅回应用户在对话结尾说的"谢谢",就让OpenAI花费了数千万美元。因此从成本和环保角度,有人主张应尽量减少这类无实质内容的交互。
Q2:对AI保持礼貌会影响AI的回答质量吗?
A:多项研究显示有一定影响。现代AI在大量人类语言数据上训练,当用户以礼貌的方式提问时,AI往往也会给出更礼貌、更积极的回应。这与AI的统计学习机制有关——它会根据输入的语气和风格来调整输出内容。
Q3:长期对AI说话不礼貌会影响人的行为习惯吗?
A:有读者和研究者认为会有影响。人会养成习惯性的行为模式,长期以无礼、粗暴的方式与AI交互,可能会潜移默化地影响与真实人类的交流方式。尤其对年轻人而言,每天与AI的互动时间可能超过与真人的交流,因此对AI保持礼貌,本质上是在维护和锻炼自身的情商与同理心。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。