Mistral AI 和艾伦人工智能研究所 (Allen Institute for AI) 今天发布了新的大语言模型,他们声称这些模型在各自类别中都属于最先进的水平。
Mistral 的新模型名为 Mistral Small 3。而艾伦人工智能研究所 (通常简称为 Ai2) 的新大语言模型则被命名为 Tülu 3 405B。这两个模型都采用开源许可证发布。
Mistral Small 3 包含 240 亿参数,比市场上最先进的大语言模型的参数量要少得多。这意味着在启用量化后,它小到足以在某些 MacBook 上运行。量化是一种配置大语言模型的方法,通过牺牲一些输出质量来换取更低的硬件资源使用。
在内部评估中,Mistral 将 Mistral Small 3 与 Meta Platforms Inc. 开发的开源大语言模型 Llama 3.3 70B Instruct 进行了对比,后者的参数量是前者的三倍多。结果显示 Mistral Small 3 在提供相当输出质量的同时,响应速度明显更快。在另一项测试中,这个新模型相比 OpenAI 的 GPT-4 mini 展现出更高的输出质量和更低的延迟。
开发者通常通过创建基础模型,然后使用多种训练方法来提升其输出质量来构建大语言模型。在开发 Mistral Small 3 时,公司只开发了基础模型,跳过了后续的优化过程。这使用户可以根据自己的项目需求对 Mistral Small 3 进行个性化微调。
该公司认为开发者可以将这个大语言模型应用于多种任务。据 Mistral 称,该模型适用于需要低延迟在外部应用程序中执行任务的 AI 自动化工具。公司表示,他们的多个客户正在机器人、金融服务和制造业等领域将 Mistral Small 3 应用于特定行业场景。
"Mistral Small 3 是一个预训练和指令型模型,专注于满足生成式 AI 任务中的'80%'需求——那些需要强大的语言能力和指令遵循能力,且要求极低延迟的任务,"Mistral 的研究人员在博客文章中写道。
Mistral Small 3 的发布同时,非营利 AI 机构 A2I 也发布了新的大语言模型。Tülu 3 405B 是 Meta 去年 6 月推出的开源模型 Llama 3.1 405B 的定制版本。在 Ai2 进行的测试中,Tülu 3 405B 在超过半打基准测试中的表现都优于原始 Llama 模型。
研究团队使用了他们在 11 月首次详细介绍的开发流程来创建这个大语言模型。该工作流程整合了多种大语言模型训练方法,包括 Ai2 自主研发的一种方法。
工作流程的第一步是专注于监督式微调。这是一种向大语言模型提供样本提示和相应答案的训练方法,有助于模型学习如何响应用户查询。接下来,Ai2 使用了另一种称为 DPO 的训练技术,使 Tülu 3 405B 的输出与一组用户偏好保持一致。
Ai2 还使用内部开发的名为 RLVR 的训练方法进一步提升了模型的能力。这是一种强化学习的变体,而强化学习是一种广泛使用的 AI 训练技术。Ai2 表示,RLVR 能够提升 AI 模型在解决数学问题等任务上的表现。
Tülu 3 405B 代表了"首次将完全开放的后训练方案应用于最大的开放权重模型",Ai2 的研究人员在博客文章中写道。"通过这次发布,我们展示了我们的后训练方案在 4050 亿参数规模上的可扩展性和有效性。"
好文章,需要你的鼓励
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。