分析显示,OpenAI不再局限于微软的基础设施,正在寻求扩展其计算提供商网络,包括甲骨文、CoreWeave,甚至竞争对手谷歌。
尽管OpenAI可能已经在谷歌建立了合作关系,但据路透社报道,这家AI公司近期内不会使用谷歌自研的张量处理单元(TPU)来运行或训练其模型。
在周末发给该媒体的声明中,OpenAI承认正在测试谷歌的TPU,但目前没有大规模部署的计划。
这一否认声明是在《The Information》报道谷歌已说服该模型构建商将工作负载转移到自研加速器几天后发出的。
OpenAI据称采用谷歌TPU技术被许多人视为一个信号,表明这家由萨姆·奥特曼支持的模型构建商不仅希望结束对微软的依赖,还希望减少对英伟达硬件的依赖。
然而,如果你一直在关注,你会知道OpenAI已经在硬件堆栈多样化方面努力了一段时间。该公司可能是从使用英伟达的DGX系统开始的,但这从来不是独家关系。
多年来,该模型构建商的GPT系列在各种硬件上运行。你可能还记得微软让GPT-3.5在其自研的Maia加速器上运行。
微软——直到最近还是OpenAI的主要基础设施提供商——也是最早采用AMD Instinct MI300系列加速器的公司之一,运行GPT-4等模型是其关键用例之一。
AMD的加速器历来提供更高的内存容量和带宽,这可能使它们在模型服务方面比英伟达的GPU更经济。
即使OpenAI与微软的关系有所缓和,AMD仍然是这家新兴AI巨头的关键硬件合作伙伴。上个月,奥特曼在圣何塞举行的AMD AI推进活动上发表演讲,强调了他们的持续合作。
更重要的是,据报道OpenAI正在开发自己的AI芯片,以进一步优化其训练和推理管道的计算、内存、带宽和网络比例。
考虑到这一切,OpenAI测试谷歌自研芯片的想法并不令人意外。搜索引擎的Gemini模型已经证明该架构完全能够进行大规模训练。
谷歌还提供这些加速器的多种不同配置,每种配置都有不同的计算、内存和可扩展性比例,这将为OpenAI提供一定的灵活性,无论他们是需要计算密集型训练作业还是内存带宽受限的推理工作负载。
谷歌第七代Ironwood TPU拥有高达4.6 petaFLOPS的密集FP8性能、192GB高带宽内存(HBM)提供7.4TB/s的带宽,以及1.2TB/s的芯片间带宽,使其与英伟达的Blackwell加速器处于同一水平。
TPUv7有两种配置:256芯片或9,216芯片的集群。据称多个集群可以连接在一起,进一步将计算能力扩展到超过40万个加速器。如果有什么能让萨姆·奥特曼兴奋的话,那就是大量的计算资源。
那么为什么OpenAI决定不使用谷歌的TPU呢?这里可能有几个因素在起作用。可能是性能没有预期的那么好,或者谷歌可能没有足够的TPU来满足OpenAI的需求,或者简单地说每个Token的成本太高。
然而,最明显的答案是OpenAI的软件堆栈在很大程度上已经优化为在GPU上运行。调整这个软件以充分利用谷歌的TPU架构需要时间和额外资源,最终可能不会比坚持使用GPU提供太多切实的好处。
正如人们所说,这山望着那山高。除非你亲自检查,否则永远不会确定知道。
好文章,需要你的鼓励
生成式AI的兴起让谷歌和Meta两大科技巨头受益匪浅。谷歌母公司Alphabet第三季度广告收入同比增长12%达742亿美元,云服务收入增长33%至151.5亿美元,季度总收入首次突破千亿美元大关。Meta第三季度收入512.5亿美元,同比增长26%。两家公司都将大幅增加AI基础设施投资,Meta预计2025年资本支出提升至700亿美元,Alphabet预计达910-930亿美元。
ServiceNow等机构联合研究团队提出了RULER和I-MROPE两项创新技术,解决GUI自动化中AI难以准确定位界面元素的核心问题。RULER技术为AI提供明确空间参考系统,I-MROPE技术平衡位置编码的频率分配。实验显示在高分辨率界面上定位准确率从31.1%提升至37.2%,为GUI自动化的实际应用铺平道路。
谷歌DeepMind开发的多智能体AI系统通过让多个AI代理相互协作、讨论和辩论来解决复杂问题。该系统在医疗领域表现出色,能够在两天内完成人类十年的研究成果,包括发现新的药物重新定位候选物和治疗方案。AI临床医生"Amy"不仅能生成更好的诊断方案,还表现出比人类医生更强的同理心。这项技术有望在十年内实现零边际成本的全球医疗服务普及。
上海交大团队开发SurveyBench评估体系,系统检验AI学术综述写作能力。研究发现,虽然AI在语言流畅度等表面指标上接近人类水平,但在内容深度、技术细节和抽象总结方面仍有显著差距,平均比人类综述低21%。研究揭示AI写综述面临深度理解不足、缺乏关联思维、抽象能力有限三大挑战,建议未来采用人机协作模式。