Liqid宣布推出新产品,使主机服务器应用程序能够访问由GPU、内存和存储池构建的动态编排GPU服务器系统,主要面向AI推理和智能体应用。
Liqid最初提供由CPU和DRAM、GPU及其他加速器、Optane和NVMe SSD组成的可组合系统。它通过动态系统配置为工作负载提供精确所需的资源量,从而实现更好的整体资源效率。其设计在2023年基于PCIe Gen 4架构。此后,Optane已经淘汰,PCIe Gen 5已经到来,CXL内存共享技术也得到发展。Liqid现在已转向PCIe 5架构,这使其能够支持CXL 2.0内存池。
CEO Edgar Masri表示:"随着生成式AI转向本地部署用于推理、推理和智能体用例,这正在将数据中心和边缘基础设施推向极限。企业需要一种新的方法来满足这些需求,并在支持新GPU、新的大语言模型和工作负载不确定性方面做好未来准备,同时不超出功耗预算。"
Liqid的最新发展使客户能够获得"在企业扩展以满足前所未有的需求时,最大化每瓦特和每美元所需的性能、敏捷性和效率"。Liqid表示,他们可以在本地数据中心和边缘环境中实现平衡的100%资源利用率。
其产品包括Matrix软件、可组合GPU服务器、可组合内存和I/O加速器,后者是增强型SSD,如PCIe扩展卡格式的64TB AX-5500。Matrix软件运行可组合性功能,通过Fabric-A与PCIe交换机通信以组合存储和加速器,通过Fabric-B与CXL交换机通信以组合内存(DRAM,非HBM)。两种结构都访问计算(GPU服务器)池,将其资源提供给GPU,从而向主机提供由GPU+内存+存储容量组成的块。
这个最新的Liqid设置使用Matrix软件v3.6版本,包含六个硬件元素:
EX-5410P 10槽GPU机箱,支持600W GPU(Nvidia H200、RTX Pro 6000和Intel Gaudi 3)、FPGA、DPU、TPU、NVMe驱动器等
EX-5410C,使用CXL 2.0提供高达100TB的分解可组合内存
LQD-5500加速SSD,现在支持高达128TB容量,在标准NVMe格式中提供小于600万IOPS和50GBps带宽,我们理解这意味着全高、全长、单宽扩展卡
PCIe Gen 5交换机
CXL 2.0交换机
主机总线适配器(HBA)
有两种配置选项:
UltraStack将多达30个GPU和100TB DRAM专用于单个服务器
SmartStack在多达20个服务器节点上池化多达30个GPU,在多达32个服务器上池化100TB DRAM
Matrix v3.6与Kubernetes、Slurm、OpenShift、VMware、Ansible等原生兼容。结构支持将包括Nvidia Fusion、Ultra Accelerator Link(UAL)或Ultra Ethernet Consortium(UEC),这些功能将在可用时提供。
我们在Liqid网站上查看时,更新的数据表尚未提供,但应该很快就会提供。
附注
在Liqid的第四代中,GPU安装在30槽EX-4410扩展机箱中,通过PCIe Gen 4网络连接到主机。物理GPU通过运行在1RU Liqid Director服务器中的Matrix软件从此池中配置给裸机主机。
SmartStack 4410系统支持异构GPU,每个主机最多30个,最多16个主机服务器,PCIe Gen 4配备48端口PCIe交换机,最多三个EX-4410。较小的SmartStack 4408支持每个主机最多24个GPU,最多16个主机。
UltraStack系统支持将多达30个Nvidia L40S GPU连接到单个Dell PowerEdge服务器,可以是R760或R7625。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。