数据湖供应商 Databricks 与 Palantir 签署合作协议,开发出了一种更好的大语言模型 (LLM) 微调方法,并在为期五年的战略联盟中将 Anthropic 的 Claude LLM 整合到其数据湖中。
Databricks 在 2023 年 6 月以 13 亿美元收购了生成式 AI 模型制造商 MosaicML,并将其技术发展成为 Mosaic AI。这是一套工具和服务,通过检索增强生成 (RAG) 技术应用于客户专有数据,帮助客户构建、部署和管理生成式 AI 模型。它已集成到 Databricks 的数据湖 —— 数据智能平台中。现在,该平台还整合了 Palantir 人工智能平台 (AIP),并通过它提供 Anthropic 的推理级 AI 模型。TAO (测试时自适应优化) 计划利用测试时计算来增强和简化模型调优,无需标注数据。
Databricks 联合创始人兼首席执行官 Ali Ghodsi 表示:"我们正将 Anthropic 模型的能力直接引入数据智能平台 —— 安全、高效且可扩展 —— 使企业能够构建适应其独特需求的领域特定 AI 代理。这就是企业 AI 的未来。"
Anthropic 联合创始人兼首席执行官 Dario Amodei 说:"今年,我们将看到能够独立处理复杂任务的 AI 代理取得显著进展。随着 Claude 现在在 Databricks 上可用,客户可以构建更强大的数据驱动代理,在这个 AI 新时代保持领先地位。"
Palantir 的 AIP 是一个工作流构建器,它使用生成式 AI 模型分析自然语言输入,生成可执行的响应,在军事场景中可以分析战场数据,提出策略和战术响应建议。早期的 Palantir AI 系统 Gotham 和 Foundry 是数据集成和分析系统,旨在帮助用户分析复杂的、不同的数据集并产生面向行动的响应,特别是在 Gotham 的军事和国家安全数据集方面。AIP 结合了 Palantir 的本体论 (Foundry) 框架,这是组织运营的数字表示,为其请求响应带来更多上下文。
Databricks 正将 Palantir 的军事级安全性引入其 Unity Catalog 和 Delta Sharing 功能。Unity Catalog 是 Databricks 平台内数据和 AI 的统一治理软件层。Delta Sharing 是 Databricks 共享第三方数据的方式。Databricks 表示,Databricks 和 Palantir 的共同客户将能够在安全、统一和可扩展的环境中使用生成式 AI、机器学习和数据仓库。
Databricks Federal 董事会主席 Rory Patterson 表示,Unity Catalog 和 Delta Sharing 与 Palantir 系统的结合"将为我们的共同客户带来两全其美的效果。"
与 Anthropic 的合作使 Databricks 能够通过 Databricks 数据智能平台原生提供 Anthropic 模型和服务,包括其最新的前沿模型 Claude 3.7 Sonnet,可通过 SQL 查询和模型端点使用。这意味着"客户可以构建和部署能够对自己数据进行推理的 AI 代理。" Claude 可以"处理具有大上下文窗口的大型、多样化数据集,以实现更好的定制化。"
Databricks 表示,其 Mosaic AI 提供了在客户自有数据上构建特定领域 AI 代理的工具,"在整个数据和 AI 生命周期中提供准确的结果和端到端治理,而 Anthropic 的 Claude 模型则针对客户最有用的实际任务进行优化。"
Unity Catalog 与 Anthropic Claude 协同工作,使用户能够实施访问控制、设置费用管理的速率限制、跟踪血统、实施安全防护、监控潜在滥用,并确保其 AI 系统在定义的道德边界内运行。客户可以通过自动生成向量索引或使用企业数据微调模型来定制 Claude 模型。
微调方面引出了 TAO 及其绕过标注数据需求的方式。在通用数据上训练的 LLM 可以通过使用配对的输入项和输出项(标签)进行额外训练来微调,清楚地指示所需响应。这通过将其内部预测与标签进行比较来调整其内部参数,从而"教导"模型生成更好的响应。例如,在天气相关会话中,输入可能是"雨是湿的吗?",答案是"是的。"
然而,这可能需要大量的人工标注工作,需要数万甚至数十万个输入-输出标签。Databricks 博客解释说,TAO 使用"测试时计算...和强化学习 (RL) 仅基于过去的输入示例来教导模型更好地完成任务,这意味着它随可调整的调优计算预算而扩展,而不是人工标注工作。"
该模型"然后直接以低推理成本执行任务(即不需要在推理时额外计算)。"出人意料的是,TAO 可以实现比传统微调更好的模型响应质量。据 Databricks 称,TAO 可以使 Llama 等低成本、开源的模型接近 GPT-4o、o3-mini 和 Claude 3.7 Sonnet 等专有模型的性能。
博客称:"在文档问答和 SQL 生成等专业企业任务上,TAO 的表现优于在数千个标注示例上的传统微调。它使 Llama 8B 和 70B 等高效开源模型在不需要标签的情况下达到与昂贵模型如 GPT-4o 和 o3-mini 相似的质量。" TAO 将使 Databricks 用户能够使用更经济且功能强大的生成式 AI 模型,并提高其能力。
要了解更多关于 Databricks 和 Anthropic 合作的信息,请注册参加即将举行的 Ghodsi 和 Amodei 网络研讨会。Anthropic 的 Claude 3.7 Sonnet 现已通过 AWS、Azure 和 Google Cloud 的 Databricks 平台提供。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。