Databricks公司与OpenAI今日宣布建立多年期1亿美元合作伙伴关系,将使OpenAI的最新模型(包括GPT-5)在Databricks Data Intelligence平台上原生可用,服务全球超过2万名Databricks客户。
这项合作旨在简化企业人工智能智能体的部署,使企业能够直接在其治理数据之上构建生产就绪的AI应用程序。Databricks此前在3月份与Anthropic公司也达成了类似协议。
根据协议,OpenAI的模型将与Databricks的AI开发环境Agent Bricks紧密集成。这为组织提供了一个统一平台来开发、评估和扩展AI智能体——这些系统能够在很少或无需人工监督的情况下自主执行任务——而无需处理数据迁移或管理独立工具的复杂性。
Databricks客户将能够在其现有企业数据上运行大语言模型,通过SQL或应用程序编程接口访问,并通过内置的治理和可观测性控制安全地大规模部署这些模型。
两家公司都强调,这项合作旨在通过简化企业从AI实验到全面生产部署的过程来加速企业AI采用。"我们与Databricks的合作将我们最先进的模型带到安全企业数据所在的地方,使企业更容易实验、部署和扩展具有实际影响的AI智能体,"OpenAI首席运营官Brad Lightcap在声明中表示。
两家公司将此次合作描述为解决两个长期存在的企业挑战的方式:对先进AI能力的需求以及对数据安全和准确性的严格要求。通过将数据保留在现有治理框架内,企业可以在遵守合规和性能标准的同时部署AI模型。该合作伙伴关系还承诺提供专门用于在客户工作负载中运行OpenAI模型的高容量处理能力。
Agent Bricks将在联合产品中发挥核心作用。它允许组织通过任务特定的评估方法测量模型准确性,为特定领域任务微调大语言模型,并在各种用例中实现工作流程自动化。随着GPT-5的集成,两家公司表示企业可以期待更快的开发周期和更可靠的AI输出。
合作的另一个关键组件是Databricks的Unity Catalog,用于数据和AI模型治理。Databricks表示,它可以帮助数据血缘追踪、控制访问并在跨部门和地理位置扩展AI部署时执行合规性。可观测性功能还帮助团队监控性能、准确性和安全性。
这项合作建立在两家公司现有合作的基础上。OpenAI已经在使用Databricks的基础设施处理AI数据以改善产品性能,并且是首批在Databricks上发布其开放权重模型gpt-oss的公司之一。
Q&A
Q1:Databricks与OpenAI的合作内容是什么?
A:这是一项多年期1亿美元的合作伙伴关系,将OpenAI的最新模型(包括GPT-5)原生集成到Databricks Data Intelligence平台上,为全球超过2万名Databricks客户提供服务,简化企业AI智能体部署。
Q2:Agent Bricks有什么功能?
A:Agent Bricks是Databricks的AI开发环境,提供统一平台来开发、评估和扩展AI智能体。它允许组织测量模型准确性、为特定领域任务微调大语言模型,并在各种用例中实现工作流程自动化。
Q3:这项合作如何保障企业数据安全?
A:合作通过将数据保留在现有治理框架内来保障安全,利用Databricks的Unity Catalog进行数据和AI模型治理,包括数据血缘追踪、访问控制、合规执行以及可观测性功能来监控性能、准确性和安全性。
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。