Liqid宣布推出新产品,使主机服务器应用程序能够访问由GPU、内存和存储池构建的动态编排GPU服务器系统,主要面向AI推理和智能体应用。
Liqid最初提供由CPU和DRAM、GPU及其他加速器、Optane和NVMe SSD组成的可组合系统。它通过动态系统配置为工作负载提供精确所需的资源量,从而实现更好的整体资源效率。其设计在2023年基于PCIe Gen 4架构。此后,Optane已经淘汰,PCIe Gen 5已经到来,CXL内存共享技术也得到发展。Liqid现在已转向PCIe 5架构,这使其能够支持CXL 2.0内存池。
CEO Edgar Masri表示:"随着生成式AI转向本地部署用于推理、推理和智能体用例,这正在将数据中心和边缘基础设施推向极限。企业需要一种新的方法来满足这些需求,并在支持新GPU、新的大语言模型和工作负载不确定性方面做好未来准备,同时不超出功耗预算。"
Liqid的最新发展使客户能够获得"在企业扩展以满足前所未有的需求时,最大化每瓦特和每美元所需的性能、敏捷性和效率"。Liqid表示,他们可以在本地数据中心和边缘环境中实现平衡的100%资源利用率。
其产品包括Matrix软件、可组合GPU服务器、可组合内存和I/O加速器,后者是增强型SSD,如PCIe扩展卡格式的64TB AX-5500。Matrix软件运行可组合性功能,通过Fabric-A与PCIe交换机通信以组合存储和加速器,通过Fabric-B与CXL交换机通信以组合内存(DRAM,非HBM)。两种结构都访问计算(GPU服务器)池,将其资源提供给GPU,从而向主机提供由GPU+内存+存储容量组成的块。
这个最新的Liqid设置使用Matrix软件v3.6版本,包含六个硬件元素:
EX-5410P 10槽GPU机箱,支持600W GPU(Nvidia H200、RTX Pro 6000和Intel Gaudi 3)、FPGA、DPU、TPU、NVMe驱动器等
EX-5410C,使用CXL 2.0提供高达100TB的分解可组合内存
LQD-5500加速SSD,现在支持高达128TB容量,在标准NVMe格式中提供小于600万IOPS和50GBps带宽,我们理解这意味着全高、全长、单宽扩展卡
PCIe Gen 5交换机
CXL 2.0交换机
主机总线适配器(HBA)
有两种配置选项:
UltraStack将多达30个GPU和100TB DRAM专用于单个服务器
SmartStack在多达20个服务器节点上池化多达30个GPU,在多达32个服务器上池化100TB DRAM
Matrix v3.6与Kubernetes、Slurm、OpenShift、VMware、Ansible等原生兼容。结构支持将包括Nvidia Fusion、Ultra Accelerator Link(UAL)或Ultra Ethernet Consortium(UEC),这些功能将在可用时提供。
我们在Liqid网站上查看时,更新的数据表尚未提供,但应该很快就会提供。
附注
在Liqid的第四代中,GPU安装在30槽EX-4410扩展机箱中,通过PCIe Gen 4网络连接到主机。物理GPU通过运行在1RU Liqid Director服务器中的Matrix软件从此池中配置给裸机主机。
SmartStack 4410系统支持异构GPU,每个主机最多30个,最多16个主机服务器,PCIe Gen 4配备48端口PCIe交换机,最多三个EX-4410。较小的SmartStack 4408支持每个主机最多24个GPU,最多16个主机。
UltraStack系统支持将多达30个Nvidia L40S GPU连接到单个Dell PowerEdge服务器,可以是R760或R7625。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。