AI服务器产业链包括芯片CPU、GPU,内存DRAM和内存接口及HBM,本地存储SSD,NIC、PCle插槽、散热和等。服务器CPU架构包括X86、ARM、MIPS和RISC-V等。
Al芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。
服务器本地存储的选择方案则包括HDD和SSD,SSD的主要硬件组件包括NAND Flash、主控芯片和DRAM,核心软件为企业级SSD的固件,数据中心级SSD已不再是一个硬盘,而是一个具备处理、缓存、计算、安全保护的小型系统,SSD渗透率有望逐渐提升。






























好文章,需要你的鼓励
芬兰阿尔托大学研究团队开发出革命性光学计算方法,利用单束光线实现复杂张量运算。该技术将数字信息编码到光波的振幅和相位中,通过光波相互作用自动完成深度学习所需的矩阵和张量乘法运算。与传统GPU逐步处理不同,光学系统可同时并行执行所有计算操作,运算速度达到光速级别。研究显示该方法具有被动处理、低功耗等优势,预计3-5年内可集成到现有硬件平台,为AI计算带来重大突破。
新加坡科技设计大学研究团队发现,通过控制大型语言模型的"思考语言"可显著提升输出多样性。研究显示,AI用非英语语言思考时能产生更多样化的答案,且距离英语越远的语言效果越好。混合多种语言思考的策略表现最佳,不仅提升创意输出,还增强了文化多元化表达能力,为解决AI输出同质化问题提供了简单有效的方案。
科学家成功将传统公里级粒子加速器缩小至房间大小,并实现商业化。TAU Systems公司开发的激光驱动尾场加速器利用超强激光脉冲产生等离子体,将电子加速至相对论速度。该设备首先用于航天电子设备的辐射测试,能量范围60-100兆电子伏特,成本约1000万美元起。未来还可应用于医疗成像、芯片检测和X射线光刻等领域,有望大幅降低粒子加速器的使用门槛。
浙江大学研究团队开发了PhyRPR三阶段视频生成系统,解决AI视频中物理规律违背问题。该方法将物理理解与视觉生成分离处理:首先用大型语言模型进行物理推理和关键帧生成,然后规划连续运动轨迹,最后通过运动感知技术精化视觉效果。实验证明该方法在物理一致性和视觉质量方面均优于现有技术。