博通宣布将为谷歌生产下一代人工智能芯片,并与AI初创公司Anthropic单独签署了一项扩展协议,为其提供约3.5吉瓦的算力资源,该算力来源于谷歌的AI处理器。
此次计算能力由谷歌张量处理器(TPU)提供,同时搭配博通自有的网络组件,整体资源将于2027年投入使用。博通在证券公告中表示,与谷歌签订的是一份长期协议,"授权博通为谷歌未来几代TPU开发并提供定制化张量处理器"。
双方还签署了一份"供应保障协议,约定博通向谷歌下一代AI机架供应网络及其他组件,有效期至2031年"。
上述消息并非通过正式公告发布,而是体现在一份证券文件中,文件部分内容显示:Anthropic对这部分扩展AI算力的使用,取决于其持续的商业成功。
这一条件目前来看并非障碍,Anthropic旗下Claude聊天机器人今年人气大涨。今年2月,在Anthropic与美国国防部的争议事件公开后,Claude应用一度登上苹果App Store美国区免费应用榜首位。
Anthropic本周宣布,公司年化营收已突破300亿美元,较上一年度约90亿美元大幅增长。
Anthropic首席财务官Krishna Rao在一篇博文中表示:"我们正在做出迄今为止规模最大的算力承诺,以匹配我们前所未有的增长速度。与谷歌和博通达成的这一突破性合作,是我们持续推进基础设施扩展策略的延续:我们正在建设必要的算力容量,以服务于不断指数级增长的客户群体,同时推动Claude引领AI发展的前沿。"
尽管此次合作进一步深化了谷歌与Anthropic之间的关系,但Anthropic表示,公司需要支持多元化的平台生态。"我们在多种AI硬件平台上对Claude进行训练和运行,包括AWS Trainium、谷歌TPU和英伟达GPU,这使我们能够将不同类型的工作负载与最适合的芯片进行匹配。多平台策略意味着更优的性能表现,以及对依赖Claude处理关键业务的客户而言更强的系统稳定性。"Anthropic在博文中表示。
Q&A
Q1:博通与谷歌签署的TPU协议具体包含哪些内容?
A:根据博通的证券公告,双方签订了两项协议:一是长期合作协议,授权博通为谷歌未来几代张量处理器(TPU)进行开发和供应;二是供应保障协议,约定博通向谷歌下一代AI机架提供网络及其他组件,有效期最长至2031年。新一代算力资源预计于2027年正式上线。
Q2:Anthropic从此次合作中获得多少算力资源?
A:根据协议,Anthropic将获得约3.5吉瓦的计算能力,资源来源于谷歌的TPU处理器以及博通提供的网络组件,预计2027年投入使用。不过,Anthropic实际使用这部分算力的前提是其商业层面的持续成功。目前来看,条件较为乐观——Anthropic年化营收已突破300亿美元。
Q3:Anthropic是否只依赖谷歌的芯片运行Claude?
A:并非如此。Anthropic采用多平台策略,在AWS Trainium、谷歌TPU和英伟达GPU等多种硬件上对Claude进行训练和推理部署。这种多元化的硬件布局可以根据不同工作负载匹配最合适的芯片,从而提升整体性能表现,并为依赖Claude处理关键业务的客户提供更强的系统稳定性保障。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。