每发布一个 AI 模型,总会附带一些图表,吹嘘它在某个基准测试或评估矩阵中如何超越竞争对手。
然而,这些基准测试通常只检验模型的通用能力。对于想要使用模型和基于大语言模型的 agent 的组织来说,要评估 agent 或模型对其特定需求的理解程度却相当困难。
模型仓库 Hugging Face 推出了开源工具 Yourbench,开发者和企业可以创建自己的基准测试,用内部数据来测试模型性能。
Hugging Face 评估研究团队成员 Sumuk Shashidhar 在 X 平台上宣布了 Yourbench。该功能提供"基于任何文档的自定义基准测试和合成数据生成功能。这是改进模型评估方式的重要一步。"
他补充说,Hugging Face 知道"对许多用例来说,真正重要的是模型在特定任务上的表现。Yourbench 让你可以评估对你来说最重要的方面。"
创建自定义评估
Hugging Face 在一篇论文中表示,Yourbench 通过复制大规模多任务语言理解 (MMLU) 基准测试的子集来工作,"使用最少的源文本,总推理成本不到 15 美元,同时完美保持模型性能的相对排名。"
在使用 Yourbench 之前,组织需要对文档进行预处理。这包括三个阶段:
文档接收 用于"规范化"文件格式。
语义分块 将文档分解以满足上下文窗口限制并集中模型的注意力。
文档总结
接下来是问答生成过程,从文档信息中创建问题。用户可以在这个阶段引入自选的大语言模型,看哪个模型能最好地回答这些问题。
Hugging Face 用多个模型测试了 Yourbench,包括 DeepSeek V3 和 R1 模型、阿里巴巴的 Qwen 系列模型 (包括推理模型 Qwen QwQ)、Mistral Large 2411 和 Mistral 3.1 Small、Llama 3.1 和 3.3、Gemini 2.0 Flash、Gemini 2.0 Flash Lite 和 Gemma 3、GPT-4o、GPT-4o-mini 和 o3 mini,以及 Claude 3.7 Sonnet 和 Claude 3.5 Haiku。
Shashidhar 表示,Hugging Face 还对这些模型进行了成本分析,发现 Qwen 和 Gemini 2.0 Flash "以极低的成本产生了巨大的价值。"
计算限制
然而,基于组织文档创建自定义大语言模型基准测试是有代价的。Yourbench 需要大量计算能力才能运行。Shashidhar 在 X 上表示,公司正在"尽快增加计算能力"。
Hugging Face 运行着多个 GPU,并与 Google 等公司合作使用他们的云服务进行推理任务。VentureBeat 就 Yourbench 的计算使用情况联系了 Hugging Face。
基准测试并非完美
基准测试和其他评估方法可以让用户了解模型的表现,但这些并不能完全反映模型在日常使用中的表现。
有些人甚至质疑基准测试是否显示了模型的局限性,并可能导致对其安全性和性能做出错误判断。一项研究还警告说,对 agent 进行基准测试可能会"产生误导"。
然而,企业现在无法避免对模型进行评估,因为市场上有很多选择,技术领导者需要证明使用 AI 模型不断上涨的成本是合理的。这催生了多种测试模型性能和可靠性的方法。
Google DeepMind 推出了 FACTS Grounding,用于测试模型基于文档信息生成事实准确回应的能力。一些耶鲁大学和清华大学的研究人员开发了自调用代码基准测试,为企业选择适合的编程大语言模型提供指导。
好文章,需要你的鼓励
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
医疗信息管理平台Predoc宣布获得3000万美元新融资,用于扩大运营规模并在肿瘤科、研究网络和虚拟医疗提供商中推广应用。该公司成立于2022年,利用人工智能技术提供端到端平台服务,自动化病历检索并整合为可操作的临床洞察。平台可实现病历检索速度提升75%,临床审查时间减少70%,旨在增强而非替代临床判断。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。