Meta计划在未来数年内,部署数千万个亚马逊云服务(AWS)Graviton 5 CPU核心。这一多年合作协议将使这家社交媒体巨头跻身AWS自研芯片有史以来最大规模的企业用户之列。
这批算力资源将主要用于支撑Meta的智能体AI部署。尽管GPU在训练和运行生成式AI模型方面仍不可或缺,但驱动这些模型运转所需的软件框架依然依赖CPU来处理。
亚马逊最新款Graviton处理器搭载192个Arm Neoverse V3核心,配备了更大容量的L3缓存,并支持最高DDR5 8,800 MT/s的内存规格。相比上一代Graviton 4,这一组合实现了约25%的性能提升。
Meta基础设施负责人桑托什·贾纳丹(Santosh Janardhan)在声明中表示,与AWS的此次合作是公司推进计算资源多元化战略的重要举措。"随着我们持续扩大Meta AI野心背后的基础设施规模,计算资源的多元化已成为一项战略必需。AWS多年来一直是我们值得信赖的云合作伙伴。"他说道。
Meta积极布局多元化计算资源的迹象并不难察觉。过去数月间,这家公司持续向基于Arm架构的CPU厂商靠拢。
今年2月,Meta披露自己是率先大规模部署英伟达独立Grace CPU的企业之一;此后,Meta又宣布计划部署英伟达全新的88核Vera CPU。
今年3月,Arm公司透露,曾与Meta密切合作,共同设计其首款面向数据中心的自有品牌芯片——"AGI CPU"。这款芯片将136个Neoverse V3核心集成于一颗300瓦的处理器中。
Arm的新款芯片预计将于今年晚些时候才会正式进驻Meta数据中心。然而,AGI CPU与AWS Graviton 5在架构上的高度相似性,意味着Meta眼下可以先通过AWS完成相关工作负载的部署,等到Arm自研芯片正式就绪后,再将这些负载迁移回自有数据中心。
Arm架构数据中心处理器的快速普及,尤其是在AI应用领域的大规模落地,预计将为这家英国芯片设计商带来显著的市场份额增长。
市场研究机构Counterpoint Research的分析师近期预测,到2029年,基于Arm架构的CPU将占据AI ASIC服务器CPU市场约90%的份额。
"尽管x86架构目前在AI服务器基础设施中仍占据举足轻重的地位,但我们逐代对比的分析表明,这一固有格局正在迅速向基于Arm的自研设计方向转变。"Counterpoint分析师吴大卫(David Wu)在一篇博客文章中写道。
这一转变可以说从2023年英伟达Grace CPU的发布就已拉开序幕。这款基于Arm架构的处理器,此后在英伟达众多GPU系统中逐步取代了英特尔和AMD的x86产品。
去年12月,AWS宣布在其Trainium 3 AI机架系统中以自研芯片取代英特尔CPU;就在本周,谷歌也宣布将以自研的基于Arm架构的Axion芯片,替换其TPU集群中原有的x86处理器。
Q&A
Q1:Meta为什么要大规模采购AWS的Graviton 5 CPU,而不是继续使用GPU?
A:GPU主要用于训练和运行生成式AI模型,但驱动这些模型所需的软件框架仍然依赖CPU运行。Meta此次大规模部署Graviton 5 CPU,主要是为了支撑其智能体AI的运行需求,同时也是公司推进计算资源多元化战略的一部分,避免过度依赖单一供应商或架构。
Q2:AWS Graviton 5相比上一代有哪些提升?
A:AWS Graviton 5搭载192个Arm Neoverse V3核心,配备更大的L3缓存,支持最高DDR5 8,800 MT/s的内存规格,相比Graviton 4整体性能提升约25%。这些改进使其在处理大规模AI软件框架和智能体应用时具备更强的计算能力。
Q3:Arm架构CPU为何能在AI服务器市场快速崛起,未来市场前景如何?
A:Arm架构CPU凭借更高的能效比和灵活的自研定制能力,正在逐步替代传统x86处理器。英伟达、亚马逊、谷歌、Meta等科技巨头纷纷转向Arm架构自研芯片。据Counterpoint Research预测,到2029年,Arm架构CPU将占据AI ASIC服务器CPU市场约90%的份额,市场增长前景十分显著。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。