d-Matrix公司在AI基础设施峰会上发布了其AI加速战略的新组件——d-Matrix JetStream IO加速器,这是一款定制PCI IO卡,公司声称它能为AI推理提供超低延迟。
该加速器能够提供400Gbps带宽和2微秒延迟,并可在服务器内部和多个节点间进行扩展。这一产品旨在与该公司去年末发布的Corsair推理加速平台配合使用,该平台据称能够支持Llama3 8B模型每秒处理60,000个Token,每个Token处理时间仅需1毫秒。
CEO兼联合创始人Sid Sheth表示,公司成立于2019年,专门针对推理问题,即使当时整个科技和投资界都专注于训练和开发更大规模的大语言模型。他说:"到2025年,特别是在Deepseek之后,叙述焦点真正转向了不仅仅是推理,而是商业可行的推理。如何在过去10年大规模资本支出投资上获得投资回报。"
这归结为两个关键问题,首先是"内存和计算瓶颈",公司试图通过Corsair平台解决这一问题。上个月,该公司又推出了3DIMC技术来堆叠LPDDR5和改良的SRAM,这项技术将应用于即将推出的Raptor平台。
Sheth指出,随着向推理的转变,用户明显需要"与应用程序进行极快的交互"。但仅从超快内存中运行模型存在挑战,他说:"我们在单服务器的快速内存容量上受到限制。"
这意味着必须解决IO瓶颈。"既然我们已经解决了内存和计算瓶颈,我们如何将单节点解决方案扩展出去,以便获得更多超快内存的访问权限,同时解决IO瓶颈。"
Sheth表示,他们研究了英伟达和博通等公司的产品,"结论是市场上没有产品具有我们寻找的那种延迟优势。"
这款基于FPGA的四分之三长度卡将与服务器内的Corsair设备并行工作。他展示了一张架构图,显示JetStream与四个Corsair设备并行,整个五件套连接到PCIe交换机,再连接到其他节点。
这一切都将在节点内扩展,他说:"然后通过机架顶部交换机,我们可以将其连接到spine交换机,这是以太网交换机的最上层。通过这种方式,我们能够在多个机架间扩展这一解决方案。"
"这不是新芯片。这是FPGA,"他解释道。"我们与外部合作伙伴开发了所有IP,然后这些IP被整合到另一个合作伙伴的FPGA中。"
在计算加速方面,Corsair之后将推出几周前发布的Raptor产品,未来产品将整合堆叠内存技术。
同时,在IO方面,JetStream技术将构建到芯片组中,使用SUE/UA Link,并在时机成熟时整合光学IO,"当协同封装光学技术准备就绪时。"
产品副总裁Sree Ganesan补充说,他们一直打算将Corsair跨节点扩展,这正是潜在通信开销真正开始显现的地方。
"因此,我们必须对跨多节点扩展做些什么,以构建更大的模型,但同时不能损失Corsair带来的延迟优势。"
她表示,JetStream符合当前标准,客户可以即插即用到现有数据中心。"它基本上使用标准以太网进行通信,使用以太网协议的最小子集来实际使用这些交换机,只需标准的机架顶部以太网交换机就能连接多个机架。"
Q&A
Q1:d-Matrix JetStream IO加速器有什么特点?
A:d-Matrix JetStream是一款定制PCI IO卡,能够提供400Gbps带宽和2微秒超低延迟,专为AI推理设计。它可以在服务器内部和多个节点间进行扩展,解决AI推理中的IO瓶颈问题。
Q2:JetStream如何与现有系统集成?
A:JetStream基于FPGA技术,是四分之三长度卡,可与Corsair推理加速平台配合使用。它符合当前标准,支持即插即用,使用标准以太网协议,可直接集成到现有数据中心的标准机架顶部以太网交换机中。
Q3:d-Matrix为什么要开发这款IO加速器?
A:d-Matrix发现在AI推理应用中存在两个关键瓶颈:内存计算瓶颈和IO瓶颈。在通过Corsair平台解决了内存计算瓶颈后,公司需要解决IO瓶颈来实现跨节点扩展,获得更多快速内存访问权限,满足用户对极快交互的需求。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。