博通宣布,谷歌已要求其构建下一代AI和数据中心网络芯片,人工智能公司Anthropic计划消耗3.5千兆瓦的加速器,这些加速器将交付给这家广告和搜索巨头。
这两项交易的消息今天在博通的监管文件中披露,文件开头提到了两个重要信息。
其中一项是"博通为谷歌未来几代张量处理单元开发和供应定制张量处理单元的长期协议"。谷歌和博通此前已合作生产定制TPU。博通首席执行官陈福阳最近分享了他的观点,认为超大规模云服务商不具备创建定制加速器的技能,并预测博通的芯片业务将在2027年仅从AI芯片就获得超过1000亿美元的收入。
为谷歌开发下一代TPU无疑将有助于实现这一预测。
博通公告的第二部分也将有所帮助:"博通供应保证协议,为谷歌下一代AI机架供应网络和其他组件,期限至2031年"。
博通的文件还透露,谷歌下一代TPU的一个用户将是Anthropic公司,该公司从2027年开始,"将通过博通获得约3.5千兆瓦,作为Anthropic承诺的基于下一代TPU的AI计算能力的一部分"。
文件中包含以下值得注意的声明:
"Anthropic对这种扩展AI计算能力的消耗取决于Anthropic持续的商业成功。就此部署而言,各方正在与某些运营和财务合作伙伴进行讨论。"
这听起来很像博通在记录中声明,使为Anthropic部署价值3.5千兆瓦定制TPU成为可能的财务安排存在足够的风险,公司需要在监管文件中记录在案。
在关于此交易的公告中,Anthropic似乎试图通过披露其财务状况来安抚市场:"我们的年化收入现已超过300亿美元,比2025年底的约90亿美元有所增长。"
Anthropic写道:"当我们在2月份宣布G轮融资时,我们分享了超过500家企业客户每年各自支出超过100万美元。如今这个数字超过1000家,在不到两个月内翻了一倍。"
然而,博通仍对这家AI初创公司感到担忧。
谷歌对这些公告的看法指出,除了租用TPU外,Anthropic还是谷歌云的大客户。
Anthropic指出,它还使用AWS的Trainium AI芯片和英伟达设备,因此可以"将工作负载与最适合它们的芯片相匹配"。
Q&A
Q1:Anthropic公司的年化收入现在是多少?
A:Anthropic公司的年化收入现已超过300亿美元,比2025年底的约90亿美元有显著增长。同时,年支出超过100万美元的企业客户数量从500家增长到1000家,在不到两个月内实现翻倍。
Q2:博通与谷歌达成了什么合作协议?
A:博通与谷歌达成两项重要协议:一是为谷歌未来几代张量处理单元开发和供应定制TPU的长期协议;二是为谷歌下一代AI机架供应网络和其他组件的供应保证协议,期限至2031年。
Q3:Anthropic计划使用多少谷歌AI芯片?
A:从2027年开始,Anthropic将通过博通获得约3.5千兆瓦的下一代TPU计算能力。不过博通在监管文件中表示,这种部署取决于Anthropic的持续商业成功,暗示存在一定财务风险。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。