生成式 AI 的创新步伐依然势不可挡,丝毫没有减缓的迹象。就在过去几周内,OpenAI 推出了其强大的 o3 以及 o4-mini 推理模型,同时发布了 GPT-4.1 系列,而 Google 则以 Gemini 2.5 Flash 作出回应,该模型是在稍早发布的旗舰 Gemini 2.5 Pro 基础上迅速迭代的。对于在这一令人眼花缭乱的领域中探索的企业技术领导者来说,选择合适的 AI 平台时必须超越不断变化的模型性能基准,深入考量更多方面。
虽然模型对比基准常常成为头条新闻,但技术领导者的决策远比这更为深远。选择一个 AI 平台意味着选择一个生态系统,这影响着从核心计算成本、代理开发策略,到模型可靠性和企业集成等诸多方面。
然而,也许最为明显且潜藏着深远长期影响的差异,正体现在支撑这些 AI 巨头的硬件经济性上。得益于自主定制的硅芯技术,Google 拥有巨大的成本优势,其运行 AI 工作负载的成本仅为 OpenAI 依赖于市场占主导(且毛利率较高)的 Nvidia GPU 的一小部分。
本分析深入探讨了基准之外的关键因素,对比了 Google 与 OpenAI/Microsoft 的 AI 生态系统在当今企业必须考虑的方面:计算经济学上显著的差距、构建 AI 代理的不同策略、模型能力与可靠性之间的关键权衡,以及企业适配性与分发现实。该分析基于我与 AI 开发者 Sam Witteveen 本周早前进行的一次深入视频讨论,对这些系统性转变进行了探讨。
1. 计算经济学:Google 的 TPU “秘密武器” vs. OpenAI 的 Nvidia “附加税”
Google 拥有最重要且常被低估的优势便是其“秘密武器”—— 在定制 Tensor Processing Units (TPU) 上长达十年的投资。OpenAI 以及更广泛的市场主要依赖于 Nvidia 强大但昂贵的 GPU(例如 H100 和 A100)。而 Google 则自行设计并部署了自己的 TPU,例如最近发布的 Ironwood 一代,用于其核心 AI 工作负载,包括训练和部署 Gemini 模型。
这为什么重要?因为它带来了巨大的成本差异。
据分析师估计,Nvidia 的 GPU 在数据中心芯片(如 H100 以及即将推出的 B100 GPU)上的毛利率可高达 80%左右。这意味着 OpenAI(通过 Microsoft Azure)为了获取计算能力,不得不支付沉重的溢价——这就是所谓的 “Nvidia 附加税”。而 Google 则通过内部生产 TPU,有效地避免了这一加成。
据报道,虽然制造一块 GPU 对 Nvidia 来说的成本可能只在 3,000 至 5,000 美元之间,但像 Microsoft 这种超大规模云服务商(为 OpenAI 提供支持)在大批量采购时每个单位的价格高达 20,000 至 35,000 美元甚至更高。行业的讨论和分析显示,Google 获得 AI 计算能力的成本大约仅为那些采购高端 Nvidia GPU 的企业所支付成本的 20%。虽然具体数字属于内部数据,但这意味着在硬件层面上,Google 每单位计算的成本效率优势可达 4 至 6 倍。
这一结构性优势也反映在 API 定价上。在旗舰模型的对比中,OpenAI 的 o3 在输入 Token 上的费用约为 Google 的 Gemini 2.5 Pro 的 8 倍,而输出 Token 的费用则约为 4 倍(基于标准上下文长度)。
这种成本差异并非理论上的讨论,而是具有深远的战略意义。Google 很可能能够持续保持更低的价格,并提供更高的 “每美元智能能力”,使企业能够更精准地预估长期总拥有成本 (TCO) —— 而这正是当前 Google 正在实践的策略。
与此同时,OpenAI 的成本与 Nvidia 的定价权以及其与 Azure 的协议条款密不可分。据一些报道,计算成本在 2024 年大约占 OpenAI 总运营费用 90 亿美元的 55% 至 60%,而随着扩展,预计 2025 年将超过 80%。尽管 OpenAI 的预期收入增长十分惊人——内部预测显示到 2029 年有可能达到 1,250 亿美元——但如何管理这一计算支出仍然是一个至关重要的挑战,也促使其加速追求定制硅芯的解决方案。
2. 代理框架:Google 的开放生态系统策略 vs. OpenAI 的集成方案
在硬件之外,这两大巨头在构建和部署那些旨在自动化企业工作流程的 AI 代理时采取了截然不同的策略。
Google 正在大力推动互操作性以及更加开放的生态系统。在两周前的 Cloud Next 大会上,Google 发布了 Agent-to-Agent (A2A) 协议,旨在让不同平台构建的代理能够相互通信,同时推出了 Agent Development Kit (ADK) 以及用于发现和管理代理的 Agentspace 中枢。尽管 A2A 的采用面临一些障碍 —— 例如关键玩家 Anthropic 尚未加入( VentureBeat 曾联系 Anthropic 相关事宜,但 Anthropic 拒绝置评) —— 并且部分开发者对其必要性提出质疑,与 Anthropic 已有的 Model Context Protocol (MCP) 进行比较。Google 的意图十分明确:打造一个多供应商的代理市场,该市场可能会以其 Agent Garden 或传闻中的 Agent App Store 为载体。
相比之下,OpenAI 则似乎专注于构建强大的、能够使用多种工具的代理,并将其紧密地整合在自有技术体系中。新推出的 o3 模型即是一个典型例子,它可以在一个推理链中调用数百种工具。开发者利用 Responses API 和 Agents SDK,再辅以新推出的 Codex CLI 等工具,构建出在 OpenAI/Azure 信任边界内运行的精密代理。虽然类似 Microsoft Autogen 的框架提供了部分灵活性,但 OpenAI 的核心战略似乎并非着眼于跨平台通信,而是力求在其受控环境中纵向最大化代理能力。
企业启示:
对于那些优先考虑灵活性,并希望能够混搭各供应商代理(例如将 Salesforce 代理接入 Vertex AI)的公司来说,Google 的开放策略可能更具吸引力。而那些已经深度投入 Azure/Microsoft 生态系统,或偏好垂直管理、高性能代理堆栈的企业则可能倾向于选择 OpenAI。
3. 模型能力:平价、性能与痛点
不断发布新模型的节奏意味着模型领先优势总是稍纵即逝。虽然 OpenAI 的 o3 在某些编码基准测试(例如 SWE-Bench Verified 与 Aider)上略胜 Gemini 2.5 Pro,但在其他指标(如 GPQA 与 AIME)上,Gemini 2.5 Pro 则持平或领先。此外,Gemini 2.5 Pro 在整个大语言模型 (LLM) 排行榜中总体表现最佳。然而,对于许多企业应用场景而言,这两类模型在核心能力上大致已达到平价水平。
真正的区别在于它们各自不同的权衡取舍:
上下文 vs. 推理深度:
Gemini 2.5 Pro 拥有高达 100 万 Token 的巨大上下文窗口(未来计划扩展到 200 万 Token),这对于处理大规模代码库或文档集来说十分理想。而 OpenAI 的 o3 则提供了 20 万 Token 的上下文窗口,但强调在单次对话中通过强化学习机制,实现深度且借助工具的推理。
可靠性 vs. 风险:
这一点正日益成为关键的区分因素。虽然 o3 展现了令人印象深刻的推理能力,但 OpenAI 针对 o3 的模型说明书透露,其幻觉率(即模型产生虚假信息的比率)显著高于 o1(在 PersonQA 测试中约为 2 倍)。部分分析认为,这可能与其复杂的推理及工具使用机制有关。相比之下,尽管 Gemini 2.5 Pro 有时在输出结构上可能不被视为那么富有创新性,但用户普遍认为其在企业任务中更为可靠且输出更为可预测。企业需要在 o3 尖端能力与其更高幻觉风险之间做出权衡。
企业启示:
“最佳”模型取决于具体任务需求。对于需要分析海量上下文或强调输出可预测性的任务,Gemini 2.5 Pro 更具优势;而对于那些需要多工具深度推理,并且可以精细管理幻觉风险的任务,o3 则是不容忽视的有力竞争者。正如 Sam Witteveen 在我们的深入播客中指出的,在特定企业场景下进行严格测试是至关重要的。
4. 企业适配性与分发:集成深度 vs. 市场覆盖
最终,一个平台能否被企业选用,往往取决于其能否轻松融入企业现有的基础架构和工作流程。
Google 的优势在于对现有 Google Cloud 与 Workspace 客户的深度集成。Gemini 模型、Vertex AI、Agentspace 以及 BigQuery 等工具被设计为无缝协同工作,提供统一的控制平面、数据治理,并能为已经投资于 Google 生态系统的公司带来更快的价值实现。Google 正在积极吸引大型企业,展示了与 Wendy’s、Wayfair 与 Wells Fargo 等公司的部署案例。
而 OpenAI 通过 Microsoft 则拥有无与伦比的市场覆盖度和易用性。ChatGPT 拥有庞大的用户基础(约 8 亿 MAU),从而带来了广泛的认知度。更为重要的是,Microsoft 正在积极将 OpenAI 模型(包括最新的 o 系列)嵌入其无处不在的 Microsoft 365 Copilot 与 Azure 服务中,使得强大的 AI 能力可轻松触及数以亿计的企业用户,并且往往是在他们日常使用的工具中。对于那些已经标准化使用 Azure 以及 Microsoft 365 的组织来说,采用 OpenAI 显得更为自然。此外,开发者大量使用 OpenAI API 也意味着许多企业的提示词和工作流程已经为 OpenAI 模型进行了优化。
战略抉择:
这一选择往往归结于现有供应商关系。如果企业已经是 Google 的客户,那么 Google 提供的深度集成解决方案无疑具有巨大吸引力;而对于依赖 Microsoft 生态系统的企业,OpenAI 通过 Microsoft 强大的分发能力则可能更容易实现落地。
Google vs. OpenAI/Microsoft 对企业而言各有取舍
Google 与 OpenAI/Microsoft 之间的生成式 AI 平台竞争,早已超越了简单的模型对比。虽然两者都提供了最先进的能力,但它们代表了不同的战略下注,给企业带来了各自独特的优势与权衡。
企业必须在代理框架的不同方法、例如上下文长度与尖端推理之间的细微取舍,以及企业集成与分发覆盖率的实际情况之间做出权衡。
然而,贯穿所有这些因素的是一个不容忽视的现实——计算成本,这或许正成为最关键和定义性的长期差异因素,尤其在 OpenAI 未能迅速解决这一问题的情况下。Google 通过垂直整合 TPU 战略,能够有效规避嵌入在 GPU 定价中的约 80% “Nvidia 附加税”,这构成了其根本性的经济优势,甚至可能改变游戏规则。
这不仅仅是一个微小的价格差异;它影响着从 API 价格的可承受性、长期总拥有成本的可预测性,到 AI 部署可扩展性的方方面面。随着 AI 工作负载呈指数级增长,拥有更为可持续经济引擎的平台——受益于硬件成本效率——将在战略竞争中占据有利地位。Google 正在利用这一优势,同时推动开放的代理互操作性愿景。
而 OpenAI 则依托 Microsoft 的规模优势,推出了深度集成的工具型模型和无与伦比的市场覆盖度,尽管其成本结构和模型可靠性仍存在疑问。
为了做出正确选择,企业技术领导者必须超越表层基准,依据长期 TCO 的影响、各自偏好的代理策略和开放程度、对模型可靠性风险与纯粹推理能力之间的容忍度、现有技术栈以及具体应用需求来评估各自的生态系统。
好文章,需要你的鼓励
文章介绍了阿里·帕尔托维通过 Neo 计划,以编程测试发现并培养未来科技领军人才,投资于多家初创企业推动技术创新与资本增值。
本文警示:AI仅复制人类表象,非真正创新;不断抹平人性瑕疵,削弱创新活力,迫切需要激发挑战与思辨的系统设计。
本文讨论了AI如何革新航空航天业,从优化航班运营、提升驾驶舱智能化,到加速飞机设计、精益制造和预测性维护,既提高安全性又降低成本,同时强调需平衡技术、监管与伦理挑战。
Google Cloud旗下Mandiant最新M-Trends报告显示,金融驱动的网络攻击(如勒索软件)依旧为全球主流威胁,其手段正日益复杂和智能化。