AI 毫无疑问正在重塑我们的生活,但围绕它的炒作依然很多。当前最流行的说法之一是,机器正在学习理解人类的感受和情绪。
这就是情感计算的领域,一项专注于解释、模拟和预测情感与情绪的 AI 研发工作,旨在引导我们穿越人类心理复杂且常常难以捉摸的迷宫。
其想法是,具备情感感知的 AI 将催生出更加实用、便捷和安全的应用。
但机器是否真的能理解情感呢?毕竟,它们无法真正感受 —— 它们只能基于有限且常常是肤浅的人类行为模型来分析、估计或模仿情感。
这并没有阻止企业斥资数十亿美元,开发旨在识别我们情感、做出共情回应甚至让我们爱上它们的工具和系统。
那么,当我们谈论情感 AI 时,究竟在讨论什么?随着治疗和陪伴被视为生成式 AI 的主要应用场景,我们能否信赖这些情绪感知系统在无法真正体验情感的情况下,妥善处理我们的内心世界?
或者,这整个概念是否仅仅是市场营销人员为了向我们推销具备人类般情感的“终极前沿”智能机器而炮制的产物?让我们看得更清楚些:
理解人工情感智能
首先,情感在机器层面上究竟意味着什么?简单的答案是,情感对机器来说只是另一种形式的数据。
情感计算聚焦于检测、解释以及响应关于人类情绪状态的数据。这些数据可以来源于语音录音、基于面部数据训练的图像识别算法、对书面文本的分析,甚至包括我们在网购时移动鼠标和点击的方式。
它还可以包括生物识别数据,如心率、皮肤温度和人体电活动。
情感 AI 工具会分析这些数据中的模式,并据此解释或模拟与我们的情感互动。这可能包括客户服务机器人检测到的挫败感,或者汽车系统检测到并对驾驶者的心理状态做出反应。
但情感本身极为复杂,容易引发不同解读(包括不同地域和文化间的差异),而且往往极其关键的一点在于不应被误读。
情感计算或情感 AI 应用拥有的数据越多,其模拟人类情感的效果就越逼真,越有可能准确预测和响应我们的情感需求。
然而,单单有数据不足以让机器真正“感受”。事实上,研究表明,机器处理数据的速度远超我们大脑的处理速度。
相反,正是我们大脑那远为复杂的结构,即便与目前最先进的人工神经网络和机器学习模型相比,也使我们具备了真正感受和产生共情的能力。
情感 AI 的伦理问题
这引发了一些重要的伦理问题:当我们尚未完全理解机器是否真的能够了解我们时,让它们来做出可能影响我们生活的决策是否正确?
例如,我们或许会允许机器让我们感到谨慎甚至恐惧,以提醒我们避免做出危险的举动。但是,它是否会知道在多大程度上散布恐惧才是恰当的,而不会因过度吓唬而给我们带来创伤或困扰?
那些被设计成虚拟女友、伴侣或情人的聊天机器人和 AI,是否能够理解激发或操纵人类诸如爱、嫉妒或性吸引之类情感的含义?
过分夸大机器理解我们情绪能力的说法,带来的风险必须严肃对待。
例如,如果人们误以为 AI 在理解或共情他们方面比实际情况更为深入,那么在信任其决策时,他们便不能算是完全知情的。
这种现象可被视为一种操控 —— 特别是在 AI 的真正目的并非帮助用户,而是推动消费、增加参与度或施加影响时,这种操控几乎不可避免。
风险与回报
开发情感 AI 是一桩大生意,因为它被视为提供更加个性化和引人入胜的体验,以及预测甚至影响我们的行为的一种方式。
像 Imentiv 这样的工具已被运用于招聘和培训,以更好地了解候选人在面对压力情境时会作出何种反应;而圣保罗地铁中安装摄像头,便是为了检测乘客对广告的情绪反应。
在一个颇具争议的案例中,英国铁路运营商 Network Rail 据报未经乘客同意,将他们的视频数据发送给 Amazon 的情感分析服务。
隐私侵犯的风险日益严重(尤其是对我们内心想法的隐私),这已促使部分地区的立法者采取行动。例如,欧盟 AI 法案就禁止在工作场所和学校使用情感检测 AI。
其中一个原因是偏见风险 —— 研究已经表明,机器准确检测情绪反应的能力会因种族、年龄和性别而异。例如,在日本,微笑往往更多被用来掩饰负面情绪,而在其他地区则未必如此。
这就为 AI 驱动新形式的歧视敞开了大门 —— 显然,这是一种必须被理解并加以预防的威胁。
情感涌动
总之,虽然很明显 AI 无法真正“感受”,但忽视其理解我们情绪能力所引发的影响将是一个严重的错误。
允许机器通过理解我们的情感反应来读取我们内心世界的念头,自然会让许多人敲响警钟。显然,这为不怀好意者提供了可乘之机,创造了危险的机遇。
与此同时,情感计算也可能为开启有助于人们康复的疗法,以及提高我们使用服务的效率、便捷性和安全性,提供关键的突破口。
作为 AI 的开发者、监管者或普通用户,我们都有责任确保这些新技术能力以负责任的方式融入社会。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
清华大学、新加坡国立大学等顶尖高校联合发布重大AI研究成果,创新性地提出变分推理框架解决AI推理训练中的偏见问题。该方法将AI思考过程分解为思维轨迹和答案两部分,通过"思考教练"机制避免AI偏向简单问题的毛病。实验显示在数学、编程等多个领域均有显著提升,为构建更智能可靠的AI系统奠定基础。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
新加坡国立大学等机构研究团队提出反馈条件策略(FCP),让AI直接从文字反馈学习而非转换为数字评分。该方法在数学和通用推理任务上表现优异,能处理复杂混合反馈,支持灵活的行为控制,避免了传统强化学习中的奖励黑客问题,为AI训练开辟了新路径。