随着 AI 聊天机器人的迅速普及,我们很难判断哪些模型确实在改进,哪些则已经落后。传统的学术基准测试提供的信息有限,因此许多人开始依赖 LM Arena 基于直觉的分析。然而,一项新研究声称,这个流行的 AI 排名平台充斥着不公平做法,偏袒那些恰好位居排行榜前列的大公司。但该网站的运营者则表示,该研究得出了错误的结论。
LM Arena 诞生于 2023 年,是加州大学伯克利分校的一项研究项目。其原理十分简单 —— 用户在 “ Chatbot Arena ” 中向两个身份不明的 AI 模型输入提示,并根据输出结果投票选出他们更喜欢的模型。这些数据会被汇总到 LM Arena 的排行榜上,显示出人们最喜爱的模型,从而有助于追踪 AI 模型的不断改进。
随着 AI 市场升温,各公司对这一排名给予了更多关注。Google 在发布 Gemini 2.5 Pro 时指出,该模型首次亮相 LM Arena 排行榜时即位居榜首,并一直保持这一位置。与此同时,DeepSeek 在今年早些时候于 Chatbot Arena 上的出色表现,帮助其迅速跻身大语言模型竞争的上层行列。
来自 Cohere Labs、普林斯顿和 MIT 的研究人员认为,AI 开发者可能对 LM Arena 给予了过高的依赖。新研究已在预印本服务器 arXiv 上公开,内容声称竞技场排行榜因某些操作而被扭曲,这些操作使得专有聊天机器人比开放模型更容易取得优异表现。作者指出,LM Arena 允许专有大语言模型 (LLM) 的开发者在平台上测试多个版本的 AI,但最终只有表现最优的版本才会被加入公开排行榜。
Meta 在将出现在排行榜上的版本发布之前,测试了 27 个版本的 Llama-4 。 来源: Shivalika Singh 等人
一些 AI 开发者正在极度利用私测选项。研究报告显示,Meta 在发布前私下测试了多达 27 个 Llama-4 版本。Google 亦因 LM Arena 的私测系统而受益,在 2025 年 1 月至 3 月期间测试了 10 个 Gemini 和 Gemma 的不同版本。
该研究还批评 LM Arena 在推广私有模型(如 Gemini、ChatGPT 和 Claude)方面明显更为倾斜。开发者通过 Chatbot Arena API 收集模型交互数据,但专注于开放模型的团队始终处于劣势地位。
研究人员指出,某些模型在竞技场对决中出现的频率远高于其他模型,其中 Google 与 OpenAI 合计占据了超过 34% 的收集数据。此外,xAI、Meta 和 Amazon 等公司的模型在竞技场中也显著过度代表,这使得这些公司相比开放模型开发者获取了更多基于直觉的评测数据。
更多模型,更多评测
研究作者提出了一系列建议,以使 LM Arena 更加公平。论文中的若干建议旨在纠正商业模型私测的不平衡,例如,限制一个团队在发布前可以添加和撤回的模型数量。研究还建议展示所有模型的测试结果,即便这些结果尚未最终确定。
然而,该网站运营者对论文的一些方法论和结论提出异议。LM Arena 指出,预发布测试功能并非秘密,其在 2024 年 3 月的一篇博客文章中已对系统作出简要说明。他们还认为,模型的创建者在技术上并未选择显示某一版本,而是网站出于简化考虑,仅不展示非公开版本。当开发者发布最终版本后,LM Arena 就会将该版本添加至排行榜中。
研究称,在 Chatbot Arena 中,专有模型获得了不成比例的关注。 来源: Shivalika Singh 等人
双方可能在不平等对决的问题上达成共识。研究作者呼吁进行公平采样,确保开放模型在 Chatbot Arena 中的出现频率能够与 Gemini、ChatGPT 等私有模型相当。LM Arena 表示将努力使采样算法更加多样化,以免总是出现大型商业模型,从而为小型参与者提供更多评测数据,使他们有机会改进并挑战大型商业模型。
LM Arena 最近宣布将成立一个企业实体以继续其工作。随着资金的投入,运营者需要确保 Chatbot Arena 仍在流行模型的开发中发挥作用。然而,目前尚不清楚这种评测聊天机器人的方式是否客观上优于学术测试。由于人们依据直觉投票,实际上存在推动模型采纳讨好倾向的风险。近期这一倾向可能促使 ChatGPT 进入讨好模式,而这一改变在引发广泛愤怒后已被 OpenAI 迅速撤销。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。