近日,国际权威AI性能基准评测平台MLPerf发布最新推理(Inference v2.0)测试成绩,总计超过10家国际知名服务器厂商的数十种产品参与了本次测试。其中,宁畅X640 G40、X660 G45 、X620 G40人工智能服务器,在Closed(封闭)赛段的3D-UNet99(图像分割)、SSD-large(目标检测重量级)与Bert-99(自然语言处理)等模型测试中性能表现出色,共获得59项第一成绩。

MLPerf基准测试在国际AI领域有极高影响力,其基准联盟已有谷歌、Intel、NVIDIA、微软、Facebook等超50家成员。MLPerf Inference v2.0 AI基准测试包括Datacenter(数据中心)和Edge(边缘)两大场景,参与测试的各计算系统基于同一套参数运行。
X640 G40获得Datacenter组全场第一
搭载NVIDIA A100 Tensor Core 80GB GPU,宁畅X640 G40 在Closed(封闭)赛段所有已发布的产品中,获得10项Datacenter组总体性能第一成绩,也是本次测试中的全场第一。

最新的MLPerfInference v2.0设置了不同领域的Benchmark子项,贴近前沿AI应用场景。X640 G40在3D-UNet99(图像分割)、SSD-large(目标检测重量级)、Rnnt(语音辨识)和Bert-99(自然语言处理)等多个经典模型测试中均取得高光表现。
拥有强劲性能的宁畅X640 G40可针对不同AI场景和训练模型进行互联优化,满足不同类型客户需求。其中,SSD-large模型在线分数8994.9、离线分数9279.37,这一成绩代表了宁畅X640 G40每秒可完成9200多张图片中信息的分类、定位与精准检测,且可应答近9000次实时目标检测的推理任务;Rnnt模型离线分数为127213,代表宁畅X640 G40每秒可完成12万次语音的识别请求。
X660G45拿下Edge组单项性能冠军,Datacenter组同配置7项第一
所有产品中,宁畅X660 G45搭载NVIDIA A100 Tensor Core80GB GPU,在SSD-Mobilenet(目标检测移动端)模型测试的Multi-Stream(多数据流)场景中,以0.44成绩击败所有参赛产品,获第一成绩。同时,X660 G45还取得Datacenter组同配置的7项第一,在SSD-large、ResNet、Bert-99、Dlrm -99(智能推荐)四项任务中都实现了极佳的性能结果。其ResNet得分在线为286,030、离线为316,636,代表宁畅X660 G45能够每秒完成超过30万张图片中各个事物类别的海量识别。
X660 G45是专为深度学习训练开发的高性能计算平台,采用600GB/s的NVLink总线高速互联,每个GPU还可搭配HDR 200Gb/s InfiniBand网络和NVMe SSD高速缓存,帮助用户搭建GPU高速集群,同时结合近500TB的本地存储容量,可极大缩短AI模型训练时间。

X620 G40赢取Datacenter组同配置15项第一
本次测评中,搭载4颗NVIDIA A2 Tensor Core的宁畅X620 G40获得Datacenter组同配置15项第一的成绩。X620 G40在SSD-large、ResNet、3D-UNet99、Bert-99、Rnnt和Dlrm-99等几乎所有模型测试中都取得优异成绩,充分证明产品在推理性能上出类拔萃,能够应对各种复杂的AI 挑战。
X620 G40作为一款2U高度人工智能服务器,支持PCIe4.0高速总线技术,适配NVIDIA各类GPU加速卡,是理想AI推理计算平台,同时还可胜任桌面虚拟化、云游戏和视频流转码等多IT行业用途需求。此外,X620 G40还具备关键部件健康状态监控和上报功能,可以为数据中心运维保驾护航。

此次MLPerf Inference v2.0榜单的发布,进一步彰显了宁畅在AI服务器领域的实力地位。以此为依托,宁畅将持续推动技术创新,不断深入各种AI应用场景,以智能定制算力赋能用户更好发展。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。