Google和Anthropic在周四宣布达成一项重大合作协议,这项价值"数百亿美元"的交易将为这家AI初创公司提供多达100万个Google张量处理单元(TPU)的访问权限。
Anthropic将此次合作定位为"扩展计算能力",旨在满足激增的客户需求,并支持公司进行"更全面的测试、对齐研究以及大规模负责任的部署"。
Google方面表示,这项协议将使Anthropic能够"训练和部署下一代Claude模型",并涉及"额外的Google云服务,这将为其研发团队提供领先的AI优化基础设施,支持未来数年的发展"。
这家搜索和广告巨头声称,该协议"代表了Anthropic迄今为止最大规模的TPU使用扩展",并指出这家AI初创公司"选择TPU是因为其性价比和效率,以及公司在使用TPU训练和部署模型方面的现有经验"。
值得注意的是,Anthropic在公告中强调其多元化的计算策略。该公司表示:"Anthropic独特的计算策略专注于多元化方法,高效利用三个芯片平台——Google的TPU、亚马逊的Trainium和英伟达的GPU。这种多平台方法确保我们能够继续推进Claude的能力,同时在整个行业保持强有力的合作伙伴关系。"
Anthropic还重申:"我们仍然致力于与亚马逊的合作伙伴关系,亚马逊是我们的主要训练合作伙伴和云服务提供商,我们继续与该公司在Rainier项目上合作,这是一个大规模计算集群,在美国多个数据中心部署了数十万个AI芯片。"
AI基础设施公告通常都充满巨大的数字和对技术如何改善一切的热情描述,但很少详细说明参与者如何为花费在巨型芯片农场上的数十亿美元买单并从中获利。
Anthropic的消息在这方面有所不同,提到公司"现在为超过30万家企业客户提供服务,我们的大客户数量——每个客户年收入超过10万美元——在过去一年中增长了近7倍"。该公司没有透露这些10万美元客户的具体数量,但据报道计划到2026年实现高达260亿美元的年收入。作为对比,HPE在2024财年的收入为300亿美元,而Google的母公司Alphabet去年的收入为3500亿美元。
Q&A
Q1:这次Google与Anthropic的合作协议具体包含什么内容?
A:这项价值"数百亿美元"的协议将为Anthropic提供多达100万个Google张量处理单元(TPU)的访问权限,以及额外的Google云服务,帮助Anthropic训练和部署下一代Claude模型,满足激增的客户需求。
Q2:Anthropic为什么选择与多家公司合作而不是只依赖Google?
A:Anthropic采用多元化计算策略,同时使用Google的TPU、亚马逊的Trainium和英伟达的GPU三个芯片平台。这种多平台方法确保公司能够继续推进Claude的能力,同时在整个行业保持强有力的合作伙伴关系。
Q3:Anthropic目前的商业表现如何?
A:Anthropic现在为超过30万家企业客户提供服务,大客户数量(年收入超过10万美元的客户)在过去一年中增长了近7倍。据报道,公司计划到2026年实现高达260亿美元的年收入。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。