每发布一个 AI 模型,总会附带一些图表,吹嘘它在某个基准测试或评估矩阵中如何超越竞争对手。
然而,这些基准测试通常只检验模型的通用能力。对于想要使用模型和基于大语言模型的 agent 的组织来说,要评估 agent 或模型对其特定需求的理解程度却相当困难。
模型仓库 Hugging Face 推出了开源工具 Yourbench,开发者和企业可以创建自己的基准测试,用内部数据来测试模型性能。
Hugging Face 评估研究团队成员 Sumuk Shashidhar 在 X 平台上宣布了 Yourbench。该功能提供"基于任何文档的自定义基准测试和合成数据生成功能。这是改进模型评估方式的重要一步。"
他补充说,Hugging Face 知道"对许多用例来说,真正重要的是模型在特定任务上的表现。Yourbench 让你可以评估对你来说最重要的方面。"
创建自定义评估
Hugging Face 在一篇论文中表示,Yourbench 通过复制大规模多任务语言理解 (MMLU) 基准测试的子集来工作,"使用最少的源文本,总推理成本不到 15 美元,同时完美保持模型性能的相对排名。"
在使用 Yourbench 之前,组织需要对文档进行预处理。这包括三个阶段:
文档接收 用于"规范化"文件格式。
语义分块 将文档分解以满足上下文窗口限制并集中模型的注意力。
文档总结
接下来是问答生成过程,从文档信息中创建问题。用户可以在这个阶段引入自选的大语言模型,看哪个模型能最好地回答这些问题。
Hugging Face 用多个模型测试了 Yourbench,包括 DeepSeek V3 和 R1 模型、阿里巴巴的 Qwen 系列模型 (包括推理模型 Qwen QwQ)、Mistral Large 2411 和 Mistral 3.1 Small、Llama 3.1 和 3.3、Gemini 2.0 Flash、Gemini 2.0 Flash Lite 和 Gemma 3、GPT-4o、GPT-4o-mini 和 o3 mini,以及 Claude 3.7 Sonnet 和 Claude 3.5 Haiku。
Shashidhar 表示,Hugging Face 还对这些模型进行了成本分析,发现 Qwen 和 Gemini 2.0 Flash "以极低的成本产生了巨大的价值。"
计算限制
然而,基于组织文档创建自定义大语言模型基准测试是有代价的。Yourbench 需要大量计算能力才能运行。Shashidhar 在 X 上表示,公司正在"尽快增加计算能力"。
Hugging Face 运行着多个 GPU,并与 Google 等公司合作使用他们的云服务进行推理任务。VentureBeat 就 Yourbench 的计算使用情况联系了 Hugging Face。
基准测试并非完美
基准测试和其他评估方法可以让用户了解模型的表现,但这些并不能完全反映模型在日常使用中的表现。
有些人甚至质疑基准测试是否显示了模型的局限性,并可能导致对其安全性和性能做出错误判断。一项研究还警告说,对 agent 进行基准测试可能会"产生误导"。
然而,企业现在无法避免对模型进行评估,因为市场上有很多选择,技术领导者需要证明使用 AI 模型不断上涨的成本是合理的。这催生了多种测试模型性能和可靠性的方法。
Google DeepMind 推出了 FACTS Grounding,用于测试模型基于文档信息生成事实准确回应的能力。一些耶鲁大学和清华大学的研究人员开发了自调用代码基准测试,为企业选择适合的编程大语言模型提供指导。
好文章,需要你的鼓励
Writer首席执行官May Habib指出,企业在构建和扩展AI智能体时面临重大挑战。智能体在构建、运行和改进方式上与传统软件截然不同,需要抛弃传统软件开发生命周期。智能体不会可靠地遵循规则,而是结果导向、具备解释和适应能力。企业需要采用目标导向方法,设计业务逻辑蓝图而非工作流程。质量保证也需要评估非二元行为和实际应用表现。智能体维护需要新的版本控制系统,涵盖提示、模型设置等所有影响行为的因素。
这项研究解决了AI图片描述中的两大难题:描述不平衡和内容虚构。通过创新的"侦探式追问"方法,让AI能生成更详细准确的图片描述,显著提升了多个AI系统的性能表现,为无障碍技术、教育、电商等领域带来实用价值。
Salesforce首席执行官马克·贝尼奥夫表示,公司正大力推进人工智能应用,AI代理现在承担了公司30%至50%的工作。他认为员工应适应AI替代人工的趋势,转向更高价值的工作。然而,这一变化导致约1000名员工被裁,虽然公司计划招聘同等数量新员工,但主要专注于销售AI技术。这一趋势在科技行业普遍存在,今年已有超过63000个科技岗位消失,AI被认为是重要原因之一。
Skywork AI首次在软件工程领域验证数据规模效应,开发的Skywork-SWE-32B模型在SWE-bench Verified基准测试中达到38.0%准确率(使用测试时缩放技术可达47.0%),创下开源模型新纪录。研究构建了包含10169个验证实例的大规模数据集,证明增加高质量训练数据能持续提升AI软件修复能力,为开源软件工程AI发展提供重要突破。