AI服务器产业链包括芯片CPU、GPU,内存DRAM和内存接口及HBM,本地存储SSD,NIC、PCle插槽、散热和等。服务器CPU架构包括X86、ARM、MIPS和RISC-V等。
Al芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。
服务器本地存储的选择方案则包括HDD和SSD,SSD的主要硬件组件包括NAND Flash、主控芯片和DRAM,核心软件为企业级SSD的固件,数据中心级SSD已不再是一个硬盘,而是一个具备处理、缓存、计算、安全保护的小型系统,SSD渗透率有望逐渐提升。
好文章,需要你的鼓励
OpenAI即将推出全新开放AI模型,其不仅性能有望超越Meta和DeepSeek的同类产品,还可能通过调用云端大模型来解决更复杂的问题,吸引更多开源社区参与。
法国 AI 初创公司 Pleias 推出两款专为 RAG 设计的开源小型推理模型,支持内置引用生成,多语种和低算力环境下表现优异,均采用 Apache 2.0 许可证。
Uber 与 Volkswagen 合作计划在未来十年内在美国多城推出自动驾驶电动 ID.Buzz 网约出租车,首发洛杉矶预计2026年试运营,初期配备安全驾驶员,2027年实现无人驾驶。