AI服务器产业链包括芯片CPU、GPU,内存DRAM和内存接口及HBM,本地存储SSD,NIC、PCle插槽、散热和等。服务器CPU架构包括X86、ARM、MIPS和RISC-V等。
Al芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。
服务器本地存储的选择方案则包括HDD和SSD,SSD的主要硬件组件包括NAND Flash、主控芯片和DRAM,核心软件为企业级SSD的固件,数据中心级SSD已不再是一个硬盘,而是一个具备处理、缓存、计算、安全保护的小型系统,SSD渗透率有望逐渐提升。
好文章,需要你的鼓励
当技术洪流裹挟着每一次发展的浪潮,“工作”、“生产力”乃至“生命”本身的价值都被加速定义。
亚马逊在生成式AI爆发初期便敏锐意识到了人工智能培训的重要性,2023年宣布启动“AI就绪(AI Ready)”计划,通过系统化的人才培养架构,不仅着眼解决当下企业AI应用的人才缺口,更为全球数字经济发展构建了AI人才储备体系。
Vodafone德国与A1保加利亚携手Ericsson展示了全球首个5G SA独立组网国际漫游连接,实现跨国高品质数据与语音服务,为工业自动化和大型活动提供更稳定的通信保障。