AI服务器产业链包括芯片CPU、GPU,内存DRAM和内存接口及HBM,本地存储SSD,NIC、PCle插槽、散热和等。服务器CPU架构包括X86、ARM、MIPS和RISC-V等。
Al芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。
服务器本地存储的选择方案则包括HDD和SSD,SSD的主要硬件组件包括NAND Flash、主控芯片和DRAM,核心软件为企业级SSD的固件,数据中心级SSD已不再是一个硬盘,而是一个具备处理、缓存、计算、安全保护的小型系统,SSD渗透率有望逐渐提升。
好文章,需要你的鼓励
Waymo 因发现无人驾驶出租车在低速行驶时撞击大门、链条等固定障碍物,召回了其中 1,200 辆车辆,并通过软件更新降低风险,满足监管要求。
本文探讨了 AI 数据中心如何利用直冷技术应对 GPU 高功率散热和电力分配挑战,通过 Supermicro 的 DLC-1 与 DLC-2 系统实现能耗降、噪音减。
Acorns收购了家庭投资赠礼平台EarlyBird。收购后平台将关闭,创始人加入Acorns团队,助力打造儿童理财App Acorns Early,并整合数字时间胶囊功能,助全家传承财富。
Cognichip 正在构建基于物理知识的基础 AI 模型,以加速新芯片的研发,降低成本,并帮助半导体企业实现转型。