在上周的 Nvidia GTC 大会上,一款新型液冷固态硬盘 (SSD) 发布,旨在帮助管理当今高性能 AI 数据中心基础设施的散热问题。
数据中心的液冷技术通常用于 GPU 和 CPU 等高功耗芯片。然而,作为提升数据中心存储性能和效率努力的一部分,Solidigm 推出了一款面向 AI 部署的新型液冷企业级 SSD (eSSD)。
D7-PS1010 消除了数据中心存储设备传统上需要的风扇,实现了完全液冷的 AI 服务器。
Solidigm 与 Nvidia 合作解决了 eSSD 液冷面临的挑战,如热插拔能力和单面散热限制——这两项功能都是新 D7 系列所具备的。
现实世界的痛点
在 GTC 2025 大会上,Solidigm 展示了首款 9.5mm 冷板散热 SSD。它们还将提供 15mm 规格,为风冷服务器和存储系统的设计提供更多灵活性。
"创新的 Solidigm E1.S SSD 和液冷冷板套件的组合——两者都是市场首创——在保持数据中心级可维护性的同时,在散热效率方面带来显著优势,"Solidigm 联合 CEO Kevin Noh 表示。
Solidigm 的 AI 和领导力营销高级总监 Roger Corell 向 Data Center Knowledge 表示,全盘散热和热插拔功能的需求是当今数据中心工程团队面临的"现实世界痛点"。
"电力和散热是 AI 数据中心面临的最大挑战,"Corell 说。"随着 GPU 运行速度不断提升,数据中心可用电力变得更具挑战性,这一点尤为突出。"
他补充道:"在这种环境下,对所有 GPU 服务器组件进行液冷至关重要。该解决方案通过将液冷扩展到存储设备,同时保持企业级的热插拔可维护性来解决这一问题。"
液冷 SSD 的崛起
在讨论这次发布时,Omdia 高级首席 SSD 和 HDD 存储分析师 James Zhao 表示,虽然现在判断 Solidigm 的最新产品是否代表了数据中心散热的新品类可能为时尚早,但它可能成为冷板液冷系统的"潜在新标准"。
"液冷系统主要应用于 GPU、CPU 和 DRAM 等高功耗芯片,"Zhao 向 Data Center Knowledge 表示。
"生成式 AI 和加速计算需要能提供最佳性能的内存和存储。然而,更高的性能伴随着更多热量的问题,不断为系统集成商带来挑战。对主要发热源采用更好的散热解决方案对紧凑设计的系统来说是必需的。"
Zhao 补充道:"像 Solidigm 和 Nvidia 这样的领先企业合作理解问题并创新先行很有意义。当机架中需要更多 eSSD 时,传统的单面散热会降低系统设计的灵活性,当装载更多 eSSD 时,散热效率会急剧下降。"
"热插拔能力对几乎所有服务器存储来说都是必需的。然而,对液冷系统来说仍然存在风险。我很期待看到他们如何解决这些问题。"
AI 存储散热
Solidigm 表示,D7-PS10101 E1.S 9.5mm SSD 和液冷冷板套件将于 2025 年下半年面向 AI 服务器推出。初始容量为 3.84TB 和 7.68TB,容量范围将在年内进一步扩展。
"随着 GPU 性能持续提升,某些未来的 GPU 服务器可能需要完全液冷,"Corell 说。"此外,由于液冷和我们的冷板解决方案可以消除风冷风扇,该产品可以实现紧凑的 1U 服务器设计,有助于提高计算密度。"
好文章,需要你的鼓励
谷歌推出升级版图像生成模型Nano Banana Pro,基于最新Gemini 3语言模型构建。新模型支持更高分辨率(2K/4K)、准确文本渲染、网络搜索功能,并提供专业级图像控制能力,包括摄像角度、场景光照、景深等。虽然质量更高但成本也相应增加,1080p图像费用为0.139美元。模型已集成到Gemini应用、NotebookLM等多个谷歌AI工具中,并通过API向开发者开放。
慕尼黑大学联合多所知名院校的研究团队发现,AI深度研究助手虽然能力强大,但存在严重安全漏洞。通过"计划注入"和"意图劫持"两种新攻击方法,这些AI助手可能绕过安全防护,生成比普通AI更详细、更危险的有害内容。研究测试了六款主流AI模型,发现在医学等敏感领域风险尤其突出。团队开发了新的安全评估框架并提出多层防护建议。
谷歌为Gemini应用和网页版发布SynthID检测器,允许用户上传图像判断是否由AI生成。但该功能局限性明显,仅能识别带有谷歌SynthID水印的Gemini生成图像。同时谷歌还发布了Nano Banana Pro图像生成引擎升级版,基于Gemini 3 Pro模型,专门优化文本生成清晰度,可创建包含可读内容的信息图表。
牛津大学研究团队发现了针对AI推理安全系统的四种"黑科技"攻击方法,能以超过90%的成功率让最先进的安全防护失效。这些方法利用AI对话模板的结构性缺陷,从简单的符号插入到复杂的推理劫持,门槛极低但威力巨大。研究揭示了当前AI安全架构的根本性问题,特别是在开源AI时代,这些漏洞的影响范围前所未有。