上周四(12月5日)在北京举办的“AMD Advancing AI中国解决方案峰会”,我去看个热闹。参展的服务器OEM、ODM厂商、展出的机型数量都比较可观,有点让我感觉回到几年前灯厂(樱桃司)同类市场活动的感觉。
我还看到一个特点,就是现场的样机大约半数以上为GPU服务器机型,显然受当今AI热潮的影响。大家既然来露个脸,非GPU优化的传统服务器感觉新意不大吧。
虽然我拍了不少照片,但由于时间和精力有限,只能挑一些重点分享给大家。受限于个人水平,以及对各家服务器机型的了解,如描述有误或不足支持还望多包涵、指正。
3U机架式服务器的驱动因素
在《风冷500W CPU?Dell PowerEdge 17G AMD服务器预览》一文中,我提到过2U的7725双路机型参数中,写了风冷散热能支持到500W的EPYC 9005 CPU。由于还没看到详细资料,暂时不确定是否有进风温度等方面限制?
这几年来,我也曾不只一次听到同行朋友说,如果把2U服务器加高到3U,就不难面对CPU功耗不断提升的情况了。按最简单的理解,如果只是加高CPU散热器的高度(鳍片总面积成正比),还有机箱空间/风扇排的改变,效果应该是可以的。
3U机箱还有另一点好处。记得我在多年前曾选型过一款机箱,当时看重3U机架式的原因就是能插全高PCI/PCIe板卡(考虑支持工作站的显卡),不需要像2U机箱那样转接为横插。下面这款服务器的特点也是如此:
上面照片,我们看到的是服务器前窗。数一数PCIe I/O金属挡片的物理位置,一共是18个——左边留出了一个存储盘位区域(这台配置是4个E3.S NVMe SSD)。具体支持的扩展卡数量请往下看。
这台服务器机型是Lenovo SR675 V3,3U机架式,最多支持2颗AMD EPYC 9004/9005系列处理器。我曾经写过,因为都是SP5插槽,所以改换BIOS就能用同样主板适配2代CPU。
NVIDIA HGX H200或H100 4-GPU SXM模组的支持,并不是我想谈的重点,因为如果采用冷板式液冷,2U服务器就能支持这些。而我在《风冷、液冷GPU服务器密度提升 - PowerEdge 17G整机架预览》中也提到,8-GPU SXM模组可以适配在6U风冷和4U液冷机型中。
而8个双宽600W GPU的支持,又让我想起了NVIDIA的H200 NVL;既然是标准PCIe卡,联想资料中也写了支持AMD Instinct(TM) MI 系列加速器。我之前提到过D厂商对应的机型,是4U的XE7740和XE7745。
PCIe Switch与GPU直通CPU的区别
支持GPU的8个PCIe x16插槽,分布在2块PCIe交换板上;最右边还有块“PCB小板”,2个单宽PCIe槽位看上去是通过Retimer芯片直通连接的。
SR675 V3这机箱长度不短。为了照顾PCIe板卡的散热,把该区域放在了机箱的最前端。我们可以看到2颗散热片下面的应该是PCIe Switch芯片。
SR675 V3也像不少GPU服务器那样提供了PCIe直通CPU的选项,此时是最多14个PCIe插槽,其中8个双宽GPU槽位支持x8 Lane宽度。
从表面上看,这款3U机箱只有5个系统风扇,但尺寸却是80cm(2U服务器一般是60cm风扇)。Nidec这个风扇标称的12V电流可达5.54A,不知配满8块600W GPU时具体转多快。
图片点开后可放大查看
在上图中,我用红框圈出了SR675 V3可选的几种“正面IO配置”。除了8 x 双宽GPU之外,还有4 x 双宽,以及SXM系统几种选项。对应的技术文档我还没有细读,供大家参考。
如图:我用红框标出的上面一看,是左侧PCIe Switch芯片的2个x16上行通道(连接到EPYC CPU),那么4个x16 PCIe 5.0插槽就是对应的下行通道。因此PCIe Switch芯片应该不少于96 Lane。
位于PCIe交换板下方的“长条小板”,右侧也是2个PCIe x16连接器,直通给左边的2个单宽插槽。也没看到像GPU插槽那样有供电加强,所以它们应该就是为网卡等而设计的。
PCIe Switch的作用不只是信道扩展,它还可以作为Root Port,让GPU之间的通信,以及GPU与网卡等之间的I/O可以不用经过CPU的PCIe控制器。当然在这里的情况应该有些不同:
1、 最新的H200 NVL支持4块卡间的NVLink互连方案,当然按道理国内买不到;
2、 SR675 V3机型并没有用PCIe Switch为8块GPU之外的板卡提供更多插槽,毕竟3U机箱空间有限。
OCP Grand Teton AI服务器:训练和推理的配置异同
具体到AI大模型应用的适配,某款机型更适合训练还是推理?下面我参考OCP的Grand Teton项目简单讨论下,当然不同企业玩的大模型参数量规模也不同,比如Meta的Llama3从8B、70B一直到405B都有。
关于OCP的Grand Teton项目,我在《Hot Chips 2024资料公开下载:聚焦AI芯片&散热》中讨论了一点。今天进一步引用Spec文档中的内容。
整套Grand Teton是在8U机箱里面有3个tray:2U的CPU tray、2U的Switch tray(PCIe交换)以及Accelerator tray。具体到加速器可以是HGX 8-way H100,也可以换成Meta自己的MTIA ASIC推理卡。本文中暂时只讨论NVIDIA GPU部分。
上面是Grand Teton用于训练服务器的配置。请大家留意下,在Switch Tray中,每个Broadcom PEX89144 PCIe Switch上还连接有2个400G低延时网卡——用于AI集群的Scale-out网络,以及4个NVMe SSD——这些也算是为GPU服务的。
推理服务器的配置,对GPU的显存需求比训练低许多。如果通过NVLink Scale-up组网的8块GPU能够容纳下AI大模型,就可以降低对Scale-out网络的要求。
而在推理服务器的配置中,Grand Teton每个GPU对应的1块400G网卡不要了,整台服务器只保留2颗CPU上各自连接的1块400G NIC。另外NVMe SSD减少了一半。
由此来看,在所谓的千卡、万卡AI集群中,3U GPU服务器的定位应该主要是推理应用吧?
EDSFF SSD、EPYC CPU散热器一瞥
回来继续看SR675 V3服务器上的SSD,4个盘位里我把这块抽出来。
三星的PM1743 EDSFF E3.S 3.84T TLC NVMe SSD
这台SR675 V3样机,好像并没有因为3U机箱而换成加高的CPU散热器?其实想想也正常,因为它的风道设计重点针对在前部的GPU部分。如果只是插一些低功耗的PCIe卡,从技术角度想加强CPU散热也没有什么难题吧。
会场展示的一颗AMD EPYC 9005——满配Zen 5标准CCD(Core Complex Die)布局,16片8核的CCD组成128“大”核心
支持MI308X GPU的服务器,来自谁家…
刚介绍了会场上不多见的3U服务器,再来看另一个有点特色的:
上面照片是一台6U服务器,里面8个GPU从外表看可能是NVIDIA SXM,会不会是其他的OAM规范模组呢?
在旁边的介绍里,这款机型是浪潮NF5698A7。具体支持什么GPU大家看到了吧。
2U 4节点双路500W CPU:风冷/液冷?
上面这台2U服务器,中间支持8个E3.S SSD,两边的风扇显然为散热优化设计过。我们来看看具体配置:
浪潮这款2U 4节点机框的型号是i24-A8,分为风冷和液冷两种机箱,里面对应2款不同散热方式的NS5180-A8 1U半宽双路服务器节点。
我一周前刚写过Dell的M7725——是1U双节点双路500W CPU,冷板式液冷。浪潮这个密度相仿,如果配500W的CPU估计同样需要液冷了。
好文章,需要你的鼓励
回顾历史,大约十年前,苹果公司在其Mac电脑产品中采用了英伟达的高性能图形处理芯片。然而,在经历了一系列商业争议之后,苹果公
根据Capital One工程副总裁Terren Peterson的说法,IT领域的一切最终都会商品化。Peterson在该银行工作了超过24年,对于商品化如何影响IT业务有着第一手的经验。
澳大利亚新南威尔士州交通局首席创新和技术官Kurt Brissett最近和我们分享了如何为交通用户提供世界首创的技术,以及如何将很高的员工参与度转化为客户满意度。
当今最先进的AI视频模型Veo 2,还有AI绘图模型Imagen 3改进版。AI视频Veo 2的效果,真的让我有点想欢呼,甚至,有点像2月16号那个