Intel Xeon 6 CPU 在人工智能、高性能计算领域崭露头角

文章阐述了数据中心由传统向多样化转型,着重介绍了Intel Xeon 6 CPU采用P核与E核双架构,在AI、高性能计算及云边端场景中实现高效节能的创新应用。

合作内容 当前的 IT 环境与 15 到 20 年前的环境略显相似,那时企业工作负载大多运行在通过网络连接的行业标准服务器上,并接入存储系统,这些系统都位于数据中心四面围墙之内,当时的核心竞争力在于性能,并且由旨在阻止不法分子的周边安全措施所保护。

如今,很多人联想到这些现代工作负载和数据中心时会想到“多样性”和“效率”。当今的工作负载依然涵盖传统的一般型企业应用,但如今也延伸到了高性能计算 ( HPC )、分析,以及现代计算中的领军角色 —— 人工智能,尤其是生成式 AI。

而这一切正不断从本地设施向外扩展,延伸到云端及边缘,在那里物联网、微服务及随之产生的大量数据悄然生息。

这正是效率发挥作用的地方。这些要求高且多样化的工作负载需要大量运算能力,而推动这一力量的关键正是 AI,它推动了电力需求的急剧增长,并且随着商业和消费者对新兴技术的采用不断扩散,这一需求只会日益增加。据统计,超过 80% 的企业在某种程度上使用了 AI,35% 的企业表示已在多个部门中应用 AI。

对更多运算能力的无尽需求将随之增长,这并不令人意外。一次平均的 ChatGPT 查询 —— 伴随着必须处理的数据和数十亿个参数 —— 所消耗的电力几乎是一次 Google 搜索的 10 倍,这生动地描绘了随着 AI 的普及以及 AI 代理、推理 AI 等背后技术的发展,所需资源的消耗情形。

高盛研究分析师预计,全球数据中心的电力需求将在 2023 年至 2027 年之间跃升 50%,并在 2030 年前增至 165%。

Intel Xeon 6 CPU 在 AI 领域的崭露头角

过去一年中,Intel 大胆涉足这一波涛汹涌的领域,依靠其 Intel Xeon 6 处理器系列的产品组合,这种产品代表了芯片制造商架构的进化,充分考虑到现代工作负载的广泛多样性,从耗电巨大的 AI 和 HPC 操作,到对空间有限的边缘和物联网任务所需的高密度和低功耗需求。

考虑到这一切,Intel 在 2024 年 4 月的 Intel Vision 活动上展示了其如何以极其简单的方式为现代 IT 世界改造其历史悠久的 Intel Xeon 数据中心处理器,其根本在于推出了针对不同工作负载的两种微架构,而不是单一的 CPU 核心来应对所有工作负载。

这使得 Intel 能够推出两种 Intel Xeon 6 核心处理器,一种是专为 AI 和 HPC 等高计算密集型工作负载打造的性能核 ( P-core ),其内存带宽和吞吐量业界领先;另一种是专为高密度和弹性伸缩工作负载设计的高效核 ( E-core ),这种芯片适用于边缘与物联网设备以及日益流行的云原生和超大规模应用。

Intel 于 2024 年中推出了首款 E-core 处理器,而在几个月后则首次发布了 P-core 产品。到了 2025 年 2 月,这家芯片制造商通过一系列 CPU 完善了 Intel Xeon 6 系列家族,其中包括面向最广泛主流使用的 Intel Xeon 6700P。整个产品组合由此确立。

多样且互补

Intel Xeon 6 基于 x86 架构的模块化设计覆盖了广泛的工作负载,既具有高度的通用性,又能满足任何工作负载或环境的互补需求,包括私有云、公共云和混合云——这些环境既可能承载高密度与弹性伸缩任务,也可能承担高性能、多核心的 AI 操作。配备 E-core 的 Intel Xeon 6 可应用于数据中心整合项目,从而为运行 P-core 芯片的现代 AI 系统腾出空间。

数据中心也可以将 Intel Xeon 6 的 P-core 和 E-core 处理器混合使用,根据功率和性能需求的变化,将工作负载从一种核心类型迁移到另一种核心类型,从而使数据中心的扩展更加容易且高效。

所有这些都意味着在广泛的工作负载上能够更快地获得业务成果。企业可以根据不同工作负载选择合适的微架构和核心,同时享有高内存带宽和 I/O 支持。通过诸如支持多路复用秩 DIMM ( MRDIMM )、提升 Compute Express Link ( CXL ) 以及集成加速器等功能,性能和效率得到了进一步提高。

此外,企业还可以选择四种 Intel Xeon 6 处理器系列,它们具有从更多核心、更大缓存、更高容量内存到改进的 I/O 等一系列功能,适用于从入门级到高端工作负载。而与此同时,每款处理器都共享兼容的 x86 指令集架构 ( ISA ) 和通用硬件平台。

Intel 带来的重大变革

通过采用两种微架构所实现的多样性意义重大。配备 P-core 的 Intel Xeon 6 CPU 面向从 AI 到 HPC 的广泛工作负载,其性能优于任何其他通用型芯片,尤其在 AI 推理、机器学习及其他计算密集型任务中表现卓越。

在浮点运算、事务型数据库和 HPC 应用中,每 vCPU 的性能提升也使这些芯片成为云工作负载的理想之选。

对于采用 E-core 的 Intel Xeon 6 处理器来说,其主要任务在于提供每瓦性能和高核心密度,以满足需要高任务并行吞吐量的云工作负载,以及对电力、空间和散热有限制的环境需求。

没有任何一种数据中心工作负载,其性能或效率不会因使用 Intel Xeon 6 芯片而得到提升。

Xeon 6 的应用场景

以下是新一代 Intel Xeon 6 芯片将大放异彩的一些关键领域:

AI 工作负载: AI 的复杂性和应用普及只会不断增长,随之而来的成本也会提高。目前部分 AI 工作负载仍依赖昂贵的 GPU,而这些工作可以由成本更低且更高效的 CPU 来处理。Intel Xeon 6 芯片拥有更多核心(每个 CPU 最多可达 128 核)和通过 MRDIMM 实现的更高内存带宽。每个核心都内置 AI 加速器,这些处理器使服务器整合度提升,从而节省空间和电力。Intel 的 AMX ( Advanced Matrix Extensions ) 是 AI 加速的关键组成部分,它支持 INT8、BF16 和 FP16 数据集,从而提升模型速度和效率,加速 AI 的训练与推理。

主机 CPU: 为遏制预测性 AI、生成式 AI 和 HPC 带来的不断攀升的成本和电力消耗,其中一种方法是构建一个包括主机 CPU 和离散 IA 加速器的 AI 加速系统。主机 CPU 就是这个 AI 交响乐团的指挥,优化处理性能和资源利用率,同时承担诸如管理任务、预处理、处理及将任务分摊给 GPU 或 Intel Gaudi AI 加速器等工作,以确保系统的性能和效率。Intel Xeon 6 CPU 具备高 I/O 带宽、比竞争对手更高的核心数量、内存带宽比 Epyc 芯片快多达 30% 以及对混合工作负载的灵活支持,这些特性使得 Intel Xeon 6 成为理想的主机 CPU 选项。

服务器整合: 在这一领域,归根结底是一道算术题。CPU 效率越高、性能越好,所需的服务器数量就越少,从而节省空间、电力和资金。搭配 P-core 的 Intel Xeon 6 芯片在广泛的工作负载上提供了两倍的性能优势,具备更多核心、双倍内存带宽以及每个核心内置的 AI 加速器。从第二代 Xeon 切换到 Intel Xeon 6 意味着服务器数量可减少 5:1,从而释放机架空间并缩小数据中心规模。具体表现为服务器数量减少 80%,碳排放和电力消耗下降 51%,总拥有成本 ( TCO ) 降低 60%。配备 E-core 的 Intel Xeon 6 也表现不俗,实现了 4:1 的服务器整合效果,服务器数量降低 70%,碳排放减少 53%,TCO 降低 53%。

单插槽系统: 单插槽系统的趋势正在回归。随着每个插槽中核心数量不断增加,大部分应用均可在单插槽内运行,而且市场和使用场景正朝这一方向发展。为满足这一需求,Intel 推出了单插槽 SKU 的 Intel Xeon 6700/6500 产品,以在单个插槽中提供更高的 I/O 性能。较少的插槽和 CPU 意味着效率更高、TCO 更优以及避免了不必要的扩展。并非所有工作负载都需要扩展,单插槽芯片能够惠及从存储和弹性伸缩数据库到虚拟桌面基础架构 ( VDI ) 以及内容分发网络和物联网等边缘操作的各类数据中心应用。这些均有助于提高每插槽 I/O 性能,对企业而言,这意味着能够满足特定工作负载的 I/O 数量要求,实现整合和 TCO 的降低。单插槽的 Intel Xeon 6 芯片可提供 136 条 PCI3 通道,足以应对多种工作负载;如果这已经满足需求,则无需使用双插槽系统。

数据中心领域正在迅速变化,AI、HPC 及其他因素均对其产生影响。在这一切之上,效率、性能和多样性显得尤为重要,这正是 Intel Xeon 6 CPU 所提供的。通过两种微架构,企业可以在针对高性能工作负载的 P-core 与专为像物联网和边缘这样受限空间环境设计的 E-core 之间做出选择,或二者结合使用。

在一个因 AI 趋势而日益泛滥的数据中心环境中,Intel 最新一代的 Xeon 正向 IT 界宣告:AI 并不仅仅是 GPU 的专利,这些灵活、多样化的 CPU 正在为您带来显著的性能提升和能源节省。

来源:The Register

0赞

好文章,需要你的鼓励

2025

05/16

10:06

分享

点赞

邮件订阅