AMD双轮驱动:路线图与资金互促,收入持续提升

AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。

技术行业有一个恶性循环:出错会带来更多问题。但同样也有一个良性循环:从困境中挖掘出来,不仅不再犯错,还能通过优秀的工程技术、努力工作和一些运气来追赶甚至超越竞争对手。

由于多种问题,AMD在十年前完全被数据中心市场淘汰,必须像一家初创公司一样重新赢得首席信息官们的信任,首先是CPU,现在是GPU以及通过收购Xilinx、Pensando和ZT Systems获得的网络堆栈和系统设计的部分业务。

现在,AMD首席执行官苏姿丰和她的核心管理团队表示,AMD已准备好乘着AI浪潮,在传统企业计算中获得更多份额。

这是本周在纽约为华尔街人士举办的财务分析师日活动传达的主要信息。AMD并不经常举办FAD活动,因此这些活动对于帮助大家同步预期和调整预测非常重要。第一次是在2009年举办,那是Intel Xeon产品线的辉煌年份,但对Opteron产品线来说却不太好。

前任CEO罗里·里德在2012年举办了一次大型活动,当时公司弱化了数据中心业务,但到2015年,苏姿丰成为CEO,公司首席技术官马克·佩珀马斯特公布了AMD的"Zen"架构和在数据中心的救赎目标。2017年、2020年、2022年和现在2025年的FAD活动都概述了这条救赎道路上的里程碑,现在可以安全地说,AMD是比竞争对手Intel更可靠的高性能CPU和GPU供应商,是GPU和DPU的Nvidia的可信替代品,从明年开始,还将是机架级AI系统的替代品。

我们已经思考了FAD 2025近五个小时的演示几天了,现在很高兴基于AMD高层本周的发言和我们对Nvidia的预期分享我们自己的模型。

AMD更新了数据中心总可达市场的评估以及公司对其CPU和GPU计算引擎与整体TAM对比表现的评估。这个TAM是指销售到数据中心的芯片,不是由芯片构建的系统或添加到其中以实际制造工作系统的软件。AMD销售芯片并免费提供软件,因此它只计算CPU、GPU(包括其转售的HBM内存)、DPU、机架级系统的扩展网络和扩展网络的DPU。

到目前为止,苏姿丰及其团队一直在为数据中心AI加速器提供TAM和预测。过去两年中,我们对预测进行了大量分析,试图将AI训练芯片与AI推理芯片分开,然后将其标记为AI推理和训练系统收入可能的数字。

这次在FAD 2025上,AMD只是在谈论一般的数据中心,然后给华尔街一个关于其CPU和GPU业务将如何表现的概念。这是苏姿丰新的数据中心TAM图表:

"很难说TAM是什么,"苏姿丰在开场白中承认。"当我们第一次开始谈论AI TAM时,我想我们从3000亿美元开始,然后我们将其更新为4000亿美元,然后是5000亿美元,我想你们中的许多人说,'嗯,这似乎太高了,丽萨。你为什么认为这些数字应该如此之高?'事实证明,就AI的加速而言,我们可能比错误更接近正确。这确实来自与许多客户的大量讨论,了解他们如何看待自己的计算需求框架。"

这就是AMD以及在很大程度上Nvidia正在追逐的TAM。(Nvidia的稍大一些,因为它还在数据中心销售扩展和跨网络。但我们现在暂且忽略这一点。)

"毫无疑问,数据中心是最大的增长机会,AMD在这方面的定位非常非常好,"苏姿丰继续说。"我真正想强调的是我们的战略一直非常非常一致。我认为当你在技术领域时你需要这样,坦率地说,这些产品周期很长。这些是我们的战略支柱。我们从计算技术领导开始,这是我们所做一切的基础。我们极其专注于数据中心领导地位。而数据中心领导地位包括芯片,包括软件,包括与之配套的机架级解决方案。"

在她的演示中,苏姿丰表示,AMD的数据中心AI收入在未来三到五年将有超过80%的复合年增长率,在同一时期,公司可能有超过50%的服务器CPU收入份额,超过40%的客户端CPU收入份额,以及超过70%的FPGA收入份额。她补充说,AMD数据中心部门在未来三到五年将以超过60%的复合年增长率增长,核心客户端、嵌入式、定制和FPGA业务在同一时期将有10%的复合年增长率,推动AMD整体收入增长复合年增长率超过35%。

最后,苏姿丰表示,AMD预计2025年收入约340亿美元,其中约160亿美元来自数据中心部门;我们认为今年它将在Instinct数据中心GPU销售中做约62亿美元,在Epyc服务器CPU销售中做约93亿美元,还有很少一部分用于DPU和FPGA销售。

在我们将所有这些插入到魔术电子表格之前,让我们谈谈复合年增长率。复合年增长率所做的是取数据集的任意两个端点,在该数据集上画一条直线,然后计算该直线的斜率。这是一个非常粗糙的工具,它完全忽略了任何市场中自然会发生的峰值和谷值。特别是对于AI,我们认为——顺便说一下,苏姿丰也是如此——未来几年的增长将高于TAM模型后几年的增长。我们还认为2026年、2027年和2030年对于整个AI市场来说将是非常好的增长年份。我们的模型反映了这一点。

因此,不再拖延,这里是AMD模型,为了好玩,我们插入了日历化的Nvidia数据中心销售。(记住,Nvidia的财年在1月结束,所以你必须削掉N、N-1和N-2财年的1月收入,从N-1财年减去N的1月收入,并将N-2年的1月收入添加到N-1年,以获得当前日历年的估计收入。)

一些观察。在保持AMD总收入以35%的复合年增长率增长,同时将AMD核心业务(PC、嵌入式和FPGA)的复合年增长率保持在10%的情况下,AMD数据中心收入以60%的复合年增长率增长在数学上似乎不太可能。我们的模型试图平衡这一点,并且还将数据中心AI收入机会在预测结束时保持在1000亿美元以上。

让我们在深入这个表格时谈一下CPU业务。首先,AMD计算和企业AI总经理丹·麦克纳马拉谈了一下基于Zen 6和Zen 6c核心的未来"Venice" Epyc处理器的规格,这些处理器将在2026年推出。

当我们对"线程密度"声明做数学计算并使用1.33作为乘数时,我们得到Zen 6版本有172个核心,Zen 6c半缓存版本有256个核心。"Turin" Epyc 9005芯片的Zen 5版本最高达到128个核心,Zen 5c版本有192个核心。

麦克纳马拉走过的另一个有趣的图表是由于GPU驱动的生成式AI工作负载,服务器CPU市场的复苏。我们一直在说,如果你把AI系统拿出来,通用服务器市场正在衰退,确实如你从下面的数据中看到的,它是:

只有AI系统的高端服务器CPU销售才使市场从2022年到2023年保持平稳,实际上2024年通用服务器收入下降得更快,但被AI系统CPU销售所支撑。(我们认为这些相同的总体趋势也反映在系统收入层面,甚至由于每个系统销售的GPU数量及其在单位基础上的更高成本而被放大。)

今年,由于需要升级的古老机器群并将其工作负载整合以提高效率,这反过来为AI系统释放了电力、空间和预算,通用服务器市场(及其CPU子集)再次上升,AMD预计增长将持续到2030年。但市场的AI服务器CPU部分预计将从2025年的约82亿美元增长到2030年的约300亿美元,按服务器CPU标准来说这是一个巨大的激增。

关键是,AI工作负载需要做大量的串行处理,它们需要快速且昂贵的处理器来做这件事。

在AMD数据中心的GPU方面,MI350和MI355X GPU正在增长,但所有的目光都转向了明年的MI400系列,它们插入AMD与Meta Platforms合作创建的"Helios"机架中,还有不少目光正在关注更远的2027年,届时新一代机架将配备MI500系列GPU。

以下是"Altair" MI450系列的基本规格,我们给了它代号,因为AMD拒绝为其GPU相信它们:

虽然FP4和FP8精度的flops很重要,但也许更重要的是HBM4内存的容量和性能。我们认为这意味着FP16训练将获得运行比GPU能够做到的更高效所需的内存容量和带宽,而且,在FP8和FP4模式下,也将有足够的内存带宽来比Nvidia和AMD之前甚至当前的GPU更快地处理上下文Token并吐出答案Token。

据我们所知,MI400系列有三个变体,所有这些都使用台积电的2纳米(N2)工艺蚀刻,正如苏姿丰本周指出的,这是世界上第一个使用这种工艺的芯片。MI450面向使用Microsoft和Meta Platforms创建的OAM模块的八路开放底板设计,到目前为止AMD和Intel采用了这种设计(但Nvidia没有)。上面显示的MI450X进入Helios机架系统,AMD开始时使用有72个GPU连接在一起的Helios机架(像Nvidia在其"Oberon"机架中的NVL72设置),但也有64个GPU和128个GPU的版本。MI455X是顶级部件,我们认为这是具有432 GB HBM4容量的那个——比今年早些时候谈论的288 GB多得多。

Helios机架将在FP8精度下提供1.45 exaflops,在FP4精度下提供2.9 exaflops,MI455X具有31 TB的聚合HBM4内存,具有1.4 PB/秒的聚合带宽。作为Nvidia NVSwitch替代品的UALink over Ethernet(UALoE)扩展网络在72个GPU上提供260 TB/秒的聚合带宽(每个3.6 TB/秒),机架外的扩展网络具有300 GB/秒的带宽。

以下是AMD如何将其Oberon机架中的未来Vera-Rubin计算引擎与其Helios机架中的Venice-Altair计算引擎进行比较:

对我们来说,这看起来相当势均力敌...

关于Altair GPU的MI430X变体知之甚少,除了它针对同样成为国家实验室AI中心的HPC中心:

我们强烈期望MI430每单位能量和金钱具有更多64位浮点性能,但AMD如何做到这一点仍有待观察。我们今年早些时候从AMD GPU平台副总裁布拉德·麦克克雷迪那里得到了一些提示,他是IBM Power CPU工作的长期经理。在我们的对话中,我们建议将芯片分解为具有不同浮点精度的计算元素,然后根据需要添加具有FP64/FP32、FP16、FP8和FP6/FP4精度的芯片,并且还将向量和张量数学单元保持在不同的芯片上。他暗示AMD正在做一些事情,但没有精确说明。

这带我们到最后的重要图表,AMD机架级GPU系统的近期未来:

随着"Verano"一代的Zen 7和Zen 7c处理器,AMD将推出MI500系列——我们还没有决定它们的代号将是什么,因为我们给AMD一个自己做这件事的机会——同时坚持它为Helios机架创建的"Vulcano"一代DPU。

AMD对MI500系列GPU说得不多,但这里有一个相对性能路线图:

如果这个图表按比例绘制,那么MI500系列应该最高达到约72 petaflops的FP4浮点功率,比MI455X高80%,比刚刚增长的MI355X高7.8倍。

公司确实购买路线图,而不是点产品,但在某个时候,他们需要购买一些东西来完成任何工作。你总是想等待下一代计算引擎来完成更多工作,但如果你想完成工作,你不能让买家的懊悔妨碍。AMD、Nvidia和其他公司可以指望这一点——正如事实证明的那样,一路到银行。

看看我们在上面构建的表格中AMD和Nvidia的所有资金。

Q&A

Q1:AMD在数据中心AI市场的增长目标是什么?

A:AMD预计其数据中心AI收入在未来3-5年内将实现超过80%的复合年增长率,数据中心部门整体将以超过60%的复合年增长率增长,预计2025年总收入约340亿美元,其中数据中心部门约160亿美元。

Q2:AMD MI400系列GPU相比前代产品有什么突破?

A:MI400系列采用全球首个2纳米工艺制造,具备更强的FP4和FP8精度性能,配备HBM4内存,MI455X版本拥有432GB内存容量。Helios机架可提供1.45 exaflops FP8精度算力,并通过UALink over Ethernet网络连接72个GPU。

Q3:AMD Venice处理器相比Turin处理器核心数量有多大提升?

A:基于Zen 6架构的Venice处理器将大幅提升核心数量,Zen 6版本预计有172个核心,Zen 6c版本有256个核心,相比Turin处理器的Zen 5版本128核心和Zen 5c版本192核心有显著提升。

来源:The Next Platform

0赞

好文章,需要你的鼓励

2025

11/17

13:33

分享

点赞

邮件订阅