Snowflake与Google Gemini深度整合,全云环境支持数据分析

数据平台Snowflake将谷歌Gemini模型集成到其Cortex AI中,让客户在数据环境边界内访问基础模型。Cortex AI支持跨云推理,无论客户环境运行在AWS、Azure还是谷歌云上。该平台已支持OpenAI、Anthropic等多家模型提供商,采用按需付费模式。客户可通过SQL或API直接访问模型,分析多模态数据并构建AI应用场景。

数据平台Snowflake正在其Cortex AI服务中整合Google的Gemini模型,旨在为客户提供在其数据环境边界内访问基础模型的能力,支持各种云平台环境。

Snowflake客户使用该平台存储几乎所有运营数据,包括ERP等财务记录、CRM记录(包括工单和交易)、物联网和传感器数据、API调用和响应、网站用户活动数据,甚至包括PDF、文档文件、图像、视频和音频等内容。Cortex AI允许用户选择他们偏好的模型,现在包括Gemini,来使用大语言模型处理这些海量信息以获得业务洞察。

跨云环境原生支持

Snowflake AI工程和研究副总裁Dwarak Rajagopal通过邮件向媒体表示:"通过在Snowflake中原生运行Gemini,客户可以通过跨区域推理在所有支持的云平台上使用Gemini模型,无论他们的Snowflake环境运行在AWS、Azure还是Google Cloud上。"

这一分阶段推出策略是Snowflake AI模型无关策略的一部分,该策略确保客户能够在Cortex堆栈中使用最佳模型,而无需重新架构数据或工作流程。

"我们的理念是提供无妥协的模型选择——客户不应该为了使用最佳可用模型而在创新、治理或简便性之间做出权衡,"Rajagopal说。

多模型生态系统扩展

Cortex AI已经支持OpenAI、Anthropic、Deepseek、Meta和Mistral等模型。通过Cortex AI,用户可以直接在SQL中或通过API访问这些模型,分析多模态数据,然后构建AI应用场景。

虽然公司没有披露具体定价信息,但显然与Snowflake的"更广泛的消费模式"保持一致。Rajagopal表示:"客户只需为实际使用的部分付费,这降低了风险,鼓励创新,并使AI从实验阶段转向生产环境变得更加容易。"

他补充说,Snowflake希望客户在平台内开始工作,"从小规模开始,自由实验,并基于真实价值而不是沉没成本来扩大AI使用规模"。

从周二开始,Snowflake客户可以通过Cortex AI Functions开始使用Gemini 3 Pro和Gemini 2.5 Flash的公开预览版。对Snowflake Intelligence和Snowflake Cortex智能体的支持即将到来,客户使用这些功能来构建能够利用公司数据的AI智能体。

Q&A

Q1:Snowflake Cortex AI现在支持哪些AI模型?

A:Cortex AI目前支持OpenAI、Anthropic、Deepseek、Meta、Mistral等模型,最新加入的是Google Gemini。用户可以直接在SQL中或通过API访问这些模型,分析多模态数据并构建AI应用场景。

Q2:Snowflake如何实现跨云平台使用Gemini模型?

A:通过在Snowflake中原生运行Gemini,客户可以通过跨区域推理在所有支持的云平台上使用Gemini模型,无论他们的Snowflake环境运行在AWS、Azure还是Google Cloud上,无需重新架构数据或工作流程。

Q3:Snowflake的AI服务采用什么样的收费模式?

A:Snowflake采用消费模式收费,客户只需为实际使用的部分付费。这种模式降低了风险,鼓励创新,并使AI从实验阶段转向生产环境变得更加容易,让客户能够从小规模开始并基于真实价值扩大使用规模。

来源:The Register

0赞

好文章,需要你的鼓励

2026

01/07

14:57

分享

点赞

邮件订阅