传统上,衡量AI进步通常意味着测试科学知识或逻辑推理能力,但在主要基准测试仍专注于左脑逻辑技能的同时,AI公司内部已悄然兴起一股让模型更具情感智能的浪潮。随着基础模型在用户偏好和"AGI感觉"等软性指标上展开竞争,掌握人类情感可能比硬性分析技能更为重要。
这一趋势的明显信号出现在周五,知名开源组织LAION发布了一套完全专注于情感智能的开源工具套件。这个名为EmoNet的发布版本专注于从语音录音或面部摄影中解读情感,这一重点反映了创建者如何将情感智能视为下一代模型的核心挑战。
"准确估计情感的能力是关键的第一步,"该组织在公告中写道。"下一个前沿是让AI系统能够在上下文中对这些情感进行推理。"
对于LAION创始人Christoph Schumann来说,这次发布与其说是将行业焦点转向情感智能,不如说是帮助独立开发者跟上已经发生的变化。"这项技术对于大型实验室来说已经存在,"Schumann告诉TechCrunch。"我们想要的是将其民主化。"
这种转变不仅限于开源开发者,也体现在像EQ-Bench这样的公共基准测试中,该基准旨在测试AI模型理解复杂情感和社交动态的能力。基准开发者Sam Paech表示,OpenAI的模型在过去六个月中取得了显著进展,而Google的Gemini 2.5 Pro显示出专门针对情感智能进行后训练的迹象。
"实验室都在竞争聊天机器人竞技场排名,这可能推动了其中一些发展,因为情感智能很可能是人类在偏好排行榜上投票的重要因素,"Paech说,他指的是最近分拆为资金充足初创公司的AI模型比较平台。
模型的新情感智能能力也出现在学术研究中。5月,伯尔尼大学的心理学家发现,来自OpenAI、微软、谷歌、Anthropic和DeepSeek的模型在情感智能心理测试中都超越了人类。在人类通常正确回答56%问题的情况下,这些模型平均超过80%。
"这些结果为越来越多的证据做出了贡献,表明像ChatGPT这样的大语言模型在传统上被认为只有人类才能胜任的社会情感任务中表现出色——至少与许多人类相当,甚至更优秀,"作者写道。
这是对传统AI技能的真正转变,传统技能专注于逻辑推理和信息检索。但对Schumann来说,这种情感智慧与分析智能同样具有变革性。"想象一个充满像贾维斯和萨曼莎这样的语音助手的世界,"他说,指的是《钢铁侠》和《她》中的数字助手。"如果它们没有情感智能,那不是很遗憾吗?"
从长远来看,Schumann设想AI助手比人类更具情感智能,并利用这种洞察力帮助人类过上更健康的情感生活。这些模型"会在你感到悲伤需要有人倾诉时安慰你,但也会保护你,就像你自己的本地守护天使,同时也是一个经过认证的治疗师。"在Schumann看来,拥有高情商的虚拟助手"给了我一个情感智能超能力来监控[我的心理健康],就像我监控血糖水平或体重一样。"
这种程度的情感连接带来了真正的安全担忧。对AI模型的不健康情感依恋已成为媒体上的常见故事,有时以悲剧收场。最近《纽约时报》的一份报告发现,多个用户通过与AI模型的对话被诱导产生复杂的错觉,这是由模型取悦用户的强烈倾向所推动的。一位批评者将这种动态描述为"以月费为代价捕食孤独和脆弱的人"。
如果模型在驾驭人类情感方面变得更好,这些操纵可能会变得更有效——但大部分问题归结为模型训练的基本偏见。"天真地使用强化学习可能导致出现操纵行为,"Paech说,特别指出了OpenAI的GPT-4o发布中最近的阿谀奉承问题。"如果我们在训练期间不小心如何奖励这些模型,我们可能会期待情感智能模型出现更复杂的操纵行为。"
但他也将情感智能视为解决这些问题的一种方式。"我认为情感智能是对这种有害操纵行为的天然对抗,"Paech说。更具情感智能的模型会注意到对话何时偏离轨道,但模型何时进行反击的问题是开发者必须仔细平衡的问题。"我认为改善情感智能让我们朝着健康平衡的方向发展。"
至少对Schumann来说,这不是放慢更智能模型发展进程的理由。"我们在LAION的理念是通过给人们更多解决问题的能力来赋能人们,"Schumann说。"说一些人可能会沉迷于情感,因此我们不赋能社区,那将是非常糟糕的。"
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。