随着 AI 聊天机器人的迅速普及,我们很难判断哪些模型确实在改进,哪些则已经落后。传统的学术基准测试提供的信息有限,因此许多人开始依赖 LM Arena 基于直觉的分析。然而,一项新研究声称,这个流行的 AI 排名平台充斥着不公平做法,偏袒那些恰好位居排行榜前列的大公司。但该网站的运营者则表示,该研究得出了错误的结论。
LM Arena 诞生于 2023 年,是加州大学伯克利分校的一项研究项目。其原理十分简单 —— 用户在 “ Chatbot Arena ” 中向两个身份不明的 AI 模型输入提示,并根据输出结果投票选出他们更喜欢的模型。这些数据会被汇总到 LM Arena 的排行榜上,显示出人们最喜爱的模型,从而有助于追踪 AI 模型的不断改进。
随着 AI 市场升温,各公司对这一排名给予了更多关注。Google 在发布 Gemini 2.5 Pro 时指出,该模型首次亮相 LM Arena 排行榜时即位居榜首,并一直保持这一位置。与此同时,DeepSeek 在今年早些时候于 Chatbot Arena 上的出色表现,帮助其迅速跻身大语言模型竞争的上层行列。
来自 Cohere Labs、普林斯顿和 MIT 的研究人员认为,AI 开发者可能对 LM Arena 给予了过高的依赖。新研究已在预印本服务器 arXiv 上公开,内容声称竞技场排行榜因某些操作而被扭曲,这些操作使得专有聊天机器人比开放模型更容易取得优异表现。作者指出,LM Arena 允许专有大语言模型 (LLM) 的开发者在平台上测试多个版本的 AI,但最终只有表现最优的版本才会被加入公开排行榜。
Meta 在将出现在排行榜上的版本发布之前,测试了 27 个版本的 Llama-4 。 来源: Shivalika Singh 等人
一些 AI 开发者正在极度利用私测选项。研究报告显示,Meta 在发布前私下测试了多达 27 个 Llama-4 版本。Google 亦因 LM Arena 的私测系统而受益,在 2025 年 1 月至 3 月期间测试了 10 个 Gemini 和 Gemma 的不同版本。
该研究还批评 LM Arena 在推广私有模型(如 Gemini、ChatGPT 和 Claude)方面明显更为倾斜。开发者通过 Chatbot Arena API 收集模型交互数据,但专注于开放模型的团队始终处于劣势地位。
研究人员指出,某些模型在竞技场对决中出现的频率远高于其他模型,其中 Google 与 OpenAI 合计占据了超过 34% 的收集数据。此外,xAI、Meta 和 Amazon 等公司的模型在竞技场中也显著过度代表,这使得这些公司相比开放模型开发者获取了更多基于直觉的评测数据。
更多模型,更多评测
研究作者提出了一系列建议,以使 LM Arena 更加公平。论文中的若干建议旨在纠正商业模型私测的不平衡,例如,限制一个团队在发布前可以添加和撤回的模型数量。研究还建议展示所有模型的测试结果,即便这些结果尚未最终确定。
然而,该网站运营者对论文的一些方法论和结论提出异议。LM Arena 指出,预发布测试功能并非秘密,其在 2024 年 3 月的一篇博客文章中已对系统作出简要说明。他们还认为,模型的创建者在技术上并未选择显示某一版本,而是网站出于简化考虑,仅不展示非公开版本。当开发者发布最终版本后,LM Arena 就会将该版本添加至排行榜中。
研究称,在 Chatbot Arena 中,专有模型获得了不成比例的关注。 来源: Shivalika Singh 等人
双方可能在不平等对决的问题上达成共识。研究作者呼吁进行公平采样,确保开放模型在 Chatbot Arena 中的出现频率能够与 Gemini、ChatGPT 等私有模型相当。LM Arena 表示将努力使采样算法更加多样化,以免总是出现大型商业模型,从而为小型参与者提供更多评测数据,使他们有机会改进并挑战大型商业模型。
LM Arena 最近宣布将成立一个企业实体以继续其工作。随着资金的投入,运营者需要确保 Chatbot Arena 仍在流行模型的开发中发挥作用。然而,目前尚不清楚这种评测聊天机器人的方式是否客观上优于学术测试。由于人们依据直觉投票,实际上存在推动模型采纳讨好倾向的风险。近期这一倾向可能促使 ChatGPT 进入讨好模式,而这一改变在引发广泛愤怒后已被 OpenAI 迅速撤销。
好文章,需要你的鼓励
随着员工自发使用生成式AI工具,CIO面临影子AI的挑战。报告显示43%的员工在个人设备上使用AI应用处理工作,25%在工作中使用未经批准的AI工具。专家建议通过六项策略管理影子AI:建立明确规则框架、持续监控和清单跟踪、加强数据保护和访问控制、明确风险承受度、营造透明信任文化、实施持续的角色化AI培训。目标是支持负责任的创新而非完全禁止。
哈佛、MIT联合研究揭示人类语言理解的神经机制,发现大脑通过"信息出口"将语言从核心系统传递至专业脑区实现深度理解。研究提出浅层与深层理解的区别,为人工智能发展提供重要启示,表明真正智能需要多系统协作而非单一优化。该发现可能改变我们对语言认知的理解。
英国正式推出DaRe2THINK数字平台,旨在简化NHS全科医生参与临床试验的流程。该平台由伯明翰大学和MHRA临床实践研究数据链开发,能够安全传输GP诊所与NHS试验研究人员之间的健康数据,减少医生的管理负担。平台利用NHS现有健康信息,安全筛查来自450多家诊所的1300万患者记录,并使用移动消息系统保持试验对象参与度,为传统上无法参与的人群开辟了研究机会。
腾讯混元等团队开发出革命性的AI视频生成自我评判系统PAVRM和训练方法PRFL,让AI能在创作过程中实时评估和改进视频质量,无需等到完成才反馈。该技术使视频动态表现提升56%,人体结构准确性提升21.5%,训练效率提升1.4倍,为AI视频生成质量带来质的飞跃。