Liqid宣布推出新产品,使主机服务器应用程序能够访问由GPU、内存和存储池构建的动态编排GPU服务器系统,主要面向AI推理和智能体应用。
Liqid最初提供由CPU和DRAM、GPU及其他加速器、Optane和NVMe SSD组成的可组合系统。它通过动态系统配置为工作负载提供精确所需的资源量,从而实现更好的整体资源效率。其设计在2023年基于PCIe Gen 4架构。此后,Optane已经淘汰,PCIe Gen 5已经到来,CXL内存共享技术也得到发展。Liqid现在已转向PCIe 5架构,这使其能够支持CXL 2.0内存池。
CEO Edgar Masri表示:"随着生成式AI转向本地部署用于推理、推理和智能体用例,这正在将数据中心和边缘基础设施推向极限。企业需要一种新的方法来满足这些需求,并在支持新GPU、新的大语言模型和工作负载不确定性方面做好未来准备,同时不超出功耗预算。"
Liqid的最新发展使客户能够获得"在企业扩展以满足前所未有的需求时,最大化每瓦特和每美元所需的性能、敏捷性和效率"。Liqid表示,他们可以在本地数据中心和边缘环境中实现平衡的100%资源利用率。
其产品包括Matrix软件、可组合GPU服务器、可组合内存和I/O加速器,后者是增强型SSD,如PCIe扩展卡格式的64TB AX-5500。Matrix软件运行可组合性功能,通过Fabric-A与PCIe交换机通信以组合存储和加速器,通过Fabric-B与CXL交换机通信以组合内存(DRAM,非HBM)。两种结构都访问计算(GPU服务器)池,将其资源提供给GPU,从而向主机提供由GPU+内存+存储容量组成的块。
这个最新的Liqid设置使用Matrix软件v3.6版本,包含六个硬件元素:
EX-5410P 10槽GPU机箱,支持600W GPU(Nvidia H200、RTX Pro 6000和Intel Gaudi 3)、FPGA、DPU、TPU、NVMe驱动器等
EX-5410C,使用CXL 2.0提供高达100TB的分解可组合内存
LQD-5500加速SSD,现在支持高达128TB容量,在标准NVMe格式中提供小于600万IOPS和50GBps带宽,我们理解这意味着全高、全长、单宽扩展卡
PCIe Gen 5交换机
CXL 2.0交换机
主机总线适配器(HBA)
有两种配置选项:
UltraStack将多达30个GPU和100TB DRAM专用于单个服务器
SmartStack在多达20个服务器节点上池化多达30个GPU,在多达32个服务器上池化100TB DRAM
Matrix v3.6与Kubernetes、Slurm、OpenShift、VMware、Ansible等原生兼容。结构支持将包括Nvidia Fusion、Ultra Accelerator Link(UAL)或Ultra Ethernet Consortium(UEC),这些功能将在可用时提供。
我们在Liqid网站上查看时,更新的数据表尚未提供,但应该很快就会提供。
附注
在Liqid的第四代中,GPU安装在30槽EX-4410扩展机箱中,通过PCIe Gen 4网络连接到主机。物理GPU通过运行在1RU Liqid Director服务器中的Matrix软件从此池中配置给裸机主机。
SmartStack 4410系统支持异构GPU,每个主机最多30个,最多16个主机服务器,PCIe Gen 4配备48端口PCIe交换机,最多三个EX-4410。较小的SmartStack 4408支持每个主机最多24个GPU,最多16个主机。
UltraStack系统支持将多达30个Nvidia L40S GPU连接到单个Dell PowerEdge服务器,可以是R760或R7625。
好文章,需要你的鼓励
Dfinity基金会发布Caffeine AI平台,通过自然语言提示创建功能完整的应用程序,旨在将全球开发者数量从5000万扩展到50亿。该平台基于区块链技术,用户可通过对话方式快速构建应用,包括博客和电商网站等。与Anthropic合作提供后端支持,挑战传统应用商店模式。
微软研究院推出SambaY架构,通过创新的门控记忆单元实现AI推理速度10倍提升。该技术采用解码器-混合-解码器设计,在数学推理等复杂任务上表现卓越,为高效AI推理开辟新方向,有望推动AI在教育、科研、医疗等领域的广泛应用。
社交媒体巨头Meta开发了一个AI模型来创造新型混凝土配方,并将其中一种应用于新数据中心的地面浇筑。该模型采用贝叶斯优化技术预测不同混凝土配比的抗压强度曲线,显著加速了传统需要数天或数周的测试过程。Meta与建筑公司Amrize和伊利诺伊大学合作,在明尼苏达州罗斯蒙特数据中心使用了这种新型低碳混凝土。该设施初期功率为10兆瓦,未来将扩展至75兆瓦。
瑞士EPFL研究团队开发的PERK方法通过参数高效的测试时学习技术,让AI能够像人类一样将长文档信息编码到专门的记忆模块中,显著提升了长上下文推理能力。该方法在多项测试中表现卓越,不仅能处理比训练时长32倍的文档,还解决了传统AI的位置偏见问题,为处理复杂长文档提供了创新解决方案。