数据湖供应商 Databricks 与 Palantir 签署合作协议,开发出了一种更好的大语言模型 (LLM) 微调方法,并在为期五年的战略联盟中将 Anthropic 的 Claude LLM 整合到其数据湖中。
Databricks 在 2023 年 6 月以 13 亿美元收购了生成式 AI 模型制造商 MosaicML,并将其技术发展成为 Mosaic AI。这是一套工具和服务,通过检索增强生成 (RAG) 技术应用于客户专有数据,帮助客户构建、部署和管理生成式 AI 模型。它已集成到 Databricks 的数据湖 —— 数据智能平台中。现在,该平台还整合了 Palantir 人工智能平台 (AIP),并通过它提供 Anthropic 的推理级 AI 模型。TAO (测试时自适应优化) 计划利用测试时计算来增强和简化模型调优,无需标注数据。
Databricks 联合创始人兼首席执行官 Ali Ghodsi 表示:"我们正将 Anthropic 模型的能力直接引入数据智能平台 —— 安全、高效且可扩展 —— 使企业能够构建适应其独特需求的领域特定 AI 代理。这就是企业 AI 的未来。"
Anthropic 联合创始人兼首席执行官 Dario Amodei 说:"今年,我们将看到能够独立处理复杂任务的 AI 代理取得显著进展。随着 Claude 现在在 Databricks 上可用,客户可以构建更强大的数据驱动代理,在这个 AI 新时代保持领先地位。"
Palantir 的 AIP 是一个工作流构建器,它使用生成式 AI 模型分析自然语言输入,生成可执行的响应,在军事场景中可以分析战场数据,提出策略和战术响应建议。早期的 Palantir AI 系统 Gotham 和 Foundry 是数据集成和分析系统,旨在帮助用户分析复杂的、不同的数据集并产生面向行动的响应,特别是在 Gotham 的军事和国家安全数据集方面。AIP 结合了 Palantir 的本体论 (Foundry) 框架,这是组织运营的数字表示,为其请求响应带来更多上下文。
Databricks 正将 Palantir 的军事级安全性引入其 Unity Catalog 和 Delta Sharing 功能。Unity Catalog 是 Databricks 平台内数据和 AI 的统一治理软件层。Delta Sharing 是 Databricks 共享第三方数据的方式。Databricks 表示,Databricks 和 Palantir 的共同客户将能够在安全、统一和可扩展的环境中使用生成式 AI、机器学习和数据仓库。
Databricks Federal 董事会主席 Rory Patterson 表示,Unity Catalog 和 Delta Sharing 与 Palantir 系统的结合"将为我们的共同客户带来两全其美的效果。"
与 Anthropic 的合作使 Databricks 能够通过 Databricks 数据智能平台原生提供 Anthropic 模型和服务,包括其最新的前沿模型 Claude 3.7 Sonnet,可通过 SQL 查询和模型端点使用。这意味着"客户可以构建和部署能够对自己数据进行推理的 AI 代理。" Claude 可以"处理具有大上下文窗口的大型、多样化数据集,以实现更好的定制化。"
Databricks 表示,其 Mosaic AI 提供了在客户自有数据上构建特定领域 AI 代理的工具,"在整个数据和 AI 生命周期中提供准确的结果和端到端治理,而 Anthropic 的 Claude 模型则针对客户最有用的实际任务进行优化。"
Unity Catalog 与 Anthropic Claude 协同工作,使用户能够实施访问控制、设置费用管理的速率限制、跟踪血统、实施安全防护、监控潜在滥用,并确保其 AI 系统在定义的道德边界内运行。客户可以通过自动生成向量索引或使用企业数据微调模型来定制 Claude 模型。
微调方面引出了 TAO 及其绕过标注数据需求的方式。在通用数据上训练的 LLM 可以通过使用配对的输入项和输出项(标签)进行额外训练来微调,清楚地指示所需响应。这通过将其内部预测与标签进行比较来调整其内部参数,从而"教导"模型生成更好的响应。例如,在天气相关会话中,输入可能是"雨是湿的吗?",答案是"是的。"
然而,这可能需要大量的人工标注工作,需要数万甚至数十万个输入-输出标签。Databricks 博客解释说,TAO 使用"测试时计算...和强化学习 (RL) 仅基于过去的输入示例来教导模型更好地完成任务,这意味着它随可调整的调优计算预算而扩展,而不是人工标注工作。"
该模型"然后直接以低推理成本执行任务(即不需要在推理时额外计算)。"出人意料的是,TAO 可以实现比传统微调更好的模型响应质量。据 Databricks 称,TAO 可以使 Llama 等低成本、开源的模型接近 GPT-4o、o3-mini 和 Claude 3.7 Sonnet 等专有模型的性能。
博客称:"在文档问答和 SQL 生成等专业企业任务上,TAO 的表现优于在数千个标注示例上的传统微调。它使 Llama 8B 和 70B 等高效开源模型在不需要标签的情况下达到与昂贵模型如 GPT-4o 和 o3-mini 相似的质量。" TAO 将使 Databricks 用户能够使用更经济且功能强大的生成式 AI 模型,并提高其能力。
要了解更多关于 Databricks 和 Anthropic 合作的信息,请注册参加即将举行的 Ghodsi 和 Amodei 网络研讨会。Anthropic 的 Claude 3.7 Sonnet 现已通过 AWS、Azure 和 Google Cloud 的 Databricks 平台提供。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。