数据湖供应商 Databricks 与 Palantir 签署合作协议,开发出了一种更好的大语言模型 (LLM) 微调方法,并在为期五年的战略联盟中将 Anthropic 的 Claude LLM 整合到其数据湖中。
Databricks 在 2023 年 6 月以 13 亿美元收购了生成式 AI 模型制造商 MosaicML,并将其技术发展成为 Mosaic AI。这是一套工具和服务,通过检索增强生成 (RAG) 技术应用于客户专有数据,帮助客户构建、部署和管理生成式 AI 模型。它已集成到 Databricks 的数据湖 —— 数据智能平台中。现在,该平台还整合了 Palantir 人工智能平台 (AIP),并通过它提供 Anthropic 的推理级 AI 模型。TAO (测试时自适应优化) 计划利用测试时计算来增强和简化模型调优,无需标注数据。
Databricks 联合创始人兼首席执行官 Ali Ghodsi 表示:"我们正将 Anthropic 模型的能力直接引入数据智能平台 —— 安全、高效且可扩展 —— 使企业能够构建适应其独特需求的领域特定 AI 代理。这就是企业 AI 的未来。"
Anthropic 联合创始人兼首席执行官 Dario Amodei 说:"今年,我们将看到能够独立处理复杂任务的 AI 代理取得显著进展。随着 Claude 现在在 Databricks 上可用,客户可以构建更强大的数据驱动代理,在这个 AI 新时代保持领先地位。"
Palantir 的 AIP 是一个工作流构建器,它使用生成式 AI 模型分析自然语言输入,生成可执行的响应,在军事场景中可以分析战场数据,提出策略和战术响应建议。早期的 Palantir AI 系统 Gotham 和 Foundry 是数据集成和分析系统,旨在帮助用户分析复杂的、不同的数据集并产生面向行动的响应,特别是在 Gotham 的军事和国家安全数据集方面。AIP 结合了 Palantir 的本体论 (Foundry) 框架,这是组织运营的数字表示,为其请求响应带来更多上下文。
Databricks 正将 Palantir 的军事级安全性引入其 Unity Catalog 和 Delta Sharing 功能。Unity Catalog 是 Databricks 平台内数据和 AI 的统一治理软件层。Delta Sharing 是 Databricks 共享第三方数据的方式。Databricks 表示,Databricks 和 Palantir 的共同客户将能够在安全、统一和可扩展的环境中使用生成式 AI、机器学习和数据仓库。
Databricks Federal 董事会主席 Rory Patterson 表示,Unity Catalog 和 Delta Sharing 与 Palantir 系统的结合"将为我们的共同客户带来两全其美的效果。"
与 Anthropic 的合作使 Databricks 能够通过 Databricks 数据智能平台原生提供 Anthropic 模型和服务,包括其最新的前沿模型 Claude 3.7 Sonnet,可通过 SQL 查询和模型端点使用。这意味着"客户可以构建和部署能够对自己数据进行推理的 AI 代理。" Claude 可以"处理具有大上下文窗口的大型、多样化数据集,以实现更好的定制化。"
Databricks 表示,其 Mosaic AI 提供了在客户自有数据上构建特定领域 AI 代理的工具,"在整个数据和 AI 生命周期中提供准确的结果和端到端治理,而 Anthropic 的 Claude 模型则针对客户最有用的实际任务进行优化。"
Unity Catalog 与 Anthropic Claude 协同工作,使用户能够实施访问控制、设置费用管理的速率限制、跟踪血统、实施安全防护、监控潜在滥用,并确保其 AI 系统在定义的道德边界内运行。客户可以通过自动生成向量索引或使用企业数据微调模型来定制 Claude 模型。
微调方面引出了 TAO 及其绕过标注数据需求的方式。在通用数据上训练的 LLM 可以通过使用配对的输入项和输出项(标签)进行额外训练来微调,清楚地指示所需响应。这通过将其内部预测与标签进行比较来调整其内部参数,从而"教导"模型生成更好的响应。例如,在天气相关会话中,输入可能是"雨是湿的吗?",答案是"是的。"
然而,这可能需要大量的人工标注工作,需要数万甚至数十万个输入-输出标签。Databricks 博客解释说,TAO 使用"测试时计算...和强化学习 (RL) 仅基于过去的输入示例来教导模型更好地完成任务,这意味着它随可调整的调优计算预算而扩展,而不是人工标注工作。"
该模型"然后直接以低推理成本执行任务(即不需要在推理时额外计算)。"出人意料的是,TAO 可以实现比传统微调更好的模型响应质量。据 Databricks 称,TAO 可以使 Llama 等低成本、开源的模型接近 GPT-4o、o3-mini 和 Claude 3.7 Sonnet 等专有模型的性能。
博客称:"在文档问答和 SQL 生成等专业企业任务上,TAO 的表现优于在数千个标注示例上的传统微调。它使 Llama 8B 和 70B 等高效开源模型在不需要标签的情况下达到与昂贵模型如 GPT-4o 和 o3-mini 相似的质量。" TAO 将使 Databricks 用户能够使用更经济且功能强大的生成式 AI 模型,并提高其能力。
要了解更多关于 Databricks 和 Anthropic 合作的信息,请注册参加即将举行的 Ghodsi 和 Amodei 网络研讨会。Anthropic 的 Claude 3.7 Sonnet 现已通过 AWS、Azure 和 Google Cloud 的 Databricks 平台提供。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。