随着 AI 聊天机器人的迅速普及,我们很难判断哪些模型确实在改进,哪些则已经落后。传统的学术基准测试提供的信息有限,因此许多人开始依赖 LM Arena 基于直觉的分析。然而,一项新研究声称,这个流行的 AI 排名平台充斥着不公平做法,偏袒那些恰好位居排行榜前列的大公司。但该网站的运营者则表示,该研究得出了错误的结论。
LM Arena 诞生于 2023 年,是加州大学伯克利分校的一项研究项目。其原理十分简单 —— 用户在 “ Chatbot Arena ” 中向两个身份不明的 AI 模型输入提示,并根据输出结果投票选出他们更喜欢的模型。这些数据会被汇总到 LM Arena 的排行榜上,显示出人们最喜爱的模型,从而有助于追踪 AI 模型的不断改进。
随着 AI 市场升温,各公司对这一排名给予了更多关注。Google 在发布 Gemini 2.5 Pro 时指出,该模型首次亮相 LM Arena 排行榜时即位居榜首,并一直保持这一位置。与此同时,DeepSeek 在今年早些时候于 Chatbot Arena 上的出色表现,帮助其迅速跻身大语言模型竞争的上层行列。
来自 Cohere Labs、普林斯顿和 MIT 的研究人员认为,AI 开发者可能对 LM Arena 给予了过高的依赖。新研究已在预印本服务器 arXiv 上公开,内容声称竞技场排行榜因某些操作而被扭曲,这些操作使得专有聊天机器人比开放模型更容易取得优异表现。作者指出,LM Arena 允许专有大语言模型 (LLM) 的开发者在平台上测试多个版本的 AI,但最终只有表现最优的版本才会被加入公开排行榜。
Meta 在将出现在排行榜上的版本发布之前,测试了 27 个版本的 Llama-4 。 来源: Shivalika Singh 等人
一些 AI 开发者正在极度利用私测选项。研究报告显示,Meta 在发布前私下测试了多达 27 个 Llama-4 版本。Google 亦因 LM Arena 的私测系统而受益,在 2025 年 1 月至 3 月期间测试了 10 个 Gemini 和 Gemma 的不同版本。
该研究还批评 LM Arena 在推广私有模型(如 Gemini、ChatGPT 和 Claude)方面明显更为倾斜。开发者通过 Chatbot Arena API 收集模型交互数据,但专注于开放模型的团队始终处于劣势地位。
研究人员指出,某些模型在竞技场对决中出现的频率远高于其他模型,其中 Google 与 OpenAI 合计占据了超过 34% 的收集数据。此外,xAI、Meta 和 Amazon 等公司的模型在竞技场中也显著过度代表,这使得这些公司相比开放模型开发者获取了更多基于直觉的评测数据。
更多模型,更多评测
研究作者提出了一系列建议,以使 LM Arena 更加公平。论文中的若干建议旨在纠正商业模型私测的不平衡,例如,限制一个团队在发布前可以添加和撤回的模型数量。研究还建议展示所有模型的测试结果,即便这些结果尚未最终确定。
然而,该网站运营者对论文的一些方法论和结论提出异议。LM Arena 指出,预发布测试功能并非秘密,其在 2024 年 3 月的一篇博客文章中已对系统作出简要说明。他们还认为,模型的创建者在技术上并未选择显示某一版本,而是网站出于简化考虑,仅不展示非公开版本。当开发者发布最终版本后,LM Arena 就会将该版本添加至排行榜中。
研究称,在 Chatbot Arena 中,专有模型获得了不成比例的关注。 来源: Shivalika Singh 等人
双方可能在不平等对决的问题上达成共识。研究作者呼吁进行公平采样,确保开放模型在 Chatbot Arena 中的出现频率能够与 Gemini、ChatGPT 等私有模型相当。LM Arena 表示将努力使采样算法更加多样化,以免总是出现大型商业模型,从而为小型参与者提供更多评测数据,使他们有机会改进并挑战大型商业模型。
LM Arena 最近宣布将成立一个企业实体以继续其工作。随着资金的投入,运营者需要确保 Chatbot Arena 仍在流行模型的开发中发挥作用。然而,目前尚不清楚这种评测聊天机器人的方式是否客观上优于学术测试。由于人们依据直觉投票,实际上存在推动模型采纳讨好倾向的风险。近期这一倾向可能促使 ChatGPT 进入讨好模式,而这一改变在引发广泛愤怒后已被 OpenAI 迅速撤销。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。