Anthropic正在推进AI市场规模最大的基础设施扩张计划之一,与谷歌和博通签署协议,将获得多吉瓦级别的下一代AI计算能力。这一举措表明,前沿模型的需求已经开始超出现有算力供应的上限。
根据协议,新增的张量处理器(TPU)算力将于2027年起正式上线。此次合作进一步加剧了各方争夺电力资源与芯片产能的竞争态势。Anthropic此举既是对旗下Claude模型企业级用量激增的积极回应,也标志着该公司正在将算力采购模式从传统云基础设施转向类似能源采购的长期、公用事业级承诺。
押注未来算力的多吉瓦级协议
Anthropic表示,此次协议将带来多吉瓦级的下一代TPU算力,其中大部分将部署在美国境内,是对此前宣布的500亿美元国内计算基础设施投资计划的进一步延伸,也是该公司迄今为止最大规模的算力承诺。
TPU是谷歌专门为优化AI工作负载而研发的定制芯片,尤其擅长处理深度学习和强化学习任务。与最初为图形渲染设计、后来才被引入AI领域的GPU不同,TPU从一开始便是为神经网络计算而生。谷歌表示,TPU在训练和推理大规模AI模型方面具有较高效率,广泛适用于自然语言处理、计算机视觉及推荐系统等场景。
自2015年问世以来,谷歌TPU已历经多代演进,每一代在速度、能效及AI专项能力上均有显著提升。最新版本TPU v7(代号Ironwood)专为下一代AI模型的需求而设计,支持主动信息生成与高吞吐量推理任务。
"与谷歌和博通达成的这项里程碑式合作,是我们在基础设施扩张方面一贯稳健策略的延续。"Anthropic首席财务官Krishna Rao在声明中表示,公司正在加快构建算力储备,以应对其所描述的前所未有的业务增长势头。
博通在一份监管备案文件中披露了此次扩建规模的更多细节,显示这项安排将从2027年起为Anthropic提供约3.5吉瓦的TPU算力,作为其与谷歌更广泛合作框架的组成部分。
IDC研究副总裁Dave McCarthy在接受Data Center Knowledge采访时表示:"Anthropic此次大规模的算力承诺,是对企业级需求迅速扩张的直接回应。通过锁定TPU产能,Anthropic正在为即将到来的智能体推理浪潮预做准备——届时,支撑全球规模应用所需的算力将超过模型训练所需的基础设施规模。"
他补充道:"尽管AWS仍是Anthropic的主要合作伙伴,但此次协议表明,模型提供商必须像对待公用事业资源一样对待算力,通过多元化供应链来规避产能瓶颈的风险。"
企业需求持续加速
随着企业需求大幅攀升,Anthropic正加速推进基础设施扩建。该公司表示,2026年收入年化运行率已突破300亿美元,而2025年底这一数字约为90亿美元。目前,年消费超过100万美元的客户数量已超过1000家,这一群体在不到两个月的时间里几乎翻了一番。
上述数据尚未经独立机构核实,但已指向AI生产型工作负载的快速扩张——在这类场景中,推理需求可持续驱动大规模算力消耗。
此次交易凸显出AI基础设施竞争格局正在发生深刻转变:争夺焦点已从GPU访问权转向锁定长期专属硅片产能。OpenAI、Meta等竞争对手仍深度依赖英伟达生态体系,Anthropic则选择与谷歌TPU深度绑定,实际上是在押注纵向整合的硬件与云合作模式,能够在规模化层面带来更稳定的成本控制、性能表现和供应保障。
这一动向也可能倒逼其他模型提供商跟进签署类似的多年期算力协议,否则一旦企业推理工作负载加速增长,这些公司将面临产能不足的实质性风险。
Q&A
Q1:Anthropic与谷歌、博通签署的TPU协议具体规模有多大?
A:根据博通在监管文件中披露的信息,此次协议将从2027年起为Anthropic提供约3.5吉瓦的TPU算力,是Anthropic迄今为止最大规模的算力承诺,也是其500亿美元国内计算基础设施投资计划的重要组成部分。
Q2:TPU和GPU有什么区别,为什么Anthropic选择TPU?
A:TPU是谷歌专为AI工作负载设计的定制芯片,从一开始就为神经网络处理而生,在训练和推理大规模AI模型方面效率更高。GPU最初是为图形渲染设计的,后来才被引入AI领域。Anthropic选择TPU,是押注纵向整合的硬件与云合作模式能带来更稳定的成本、性能和供应保障,而OpenAI、Meta等对手仍主要依赖英伟达GPU生态。
Q3:Anthropic目前的营收表现如何?
A:Anthropic表示,2026年收入年化运行率已突破300亿美元,相比2025年底的约90亿美元大幅增长。目前年消费超过100万美元的企业客户数量已超过1000家,在不到两个月的时间里几乎翻了一番。不过上述数据尚未经独立机构核实。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。