随着AI应用日益渗透到企业运营的各个层面,从通过先进医学影像增强患者护理,到驱动复杂的欺诈检测模型,甚至协助野生动物保护,一个关键瓶颈经常出现:数据存储。
在VentureBeat的Transform 2025大会上,Solidigm产品和营销负责人Greg Matson和PEAK:AIO首席执行官Roger Cummings与M12管理合伙人Michael Stewart探讨了存储技术创新如何推动医疗保健领域的企业AI用例。
MONAI框架是医学影像领域的突破性进展,使其构建更快、更安全、更稳定。存储技术的进步使研究人员能够在该框架基础上构建,快速迭代和创新。PEAK:AIO与Solidgm合作,整合了高能效、高性能和大容量存储,使MONAI能够在其IT环境的单个节点上存储超过200万个全身CT扫描。
"随着企业AI基础设施的快速发展,存储硬件越来越需要根据具体用例进行定制,这取决于它们在AI数据管道中的位置,"Matson说。"我们与MONAI讨论的用例类型,即边缘用例以及训练集群的数据供给,都很好地适用于超大容量固态存储解决方案,但实际的推理和模型训练需要不同的东西。这需要非常高性能、极高每秒I/O的SSD要求。对我们而言,RAG正在分化我们制造的产品类型以及我们必须与软件进行的集成类型。"
提升边缘AI推理性能
为了在边缘实现峰值性能,关键是将存储缩减到单个节点,以便将推理更接近数据。关键是消除内存瓶颈。这可以通过将内存作为AI基础设施的一部分来实现,以便与数据和元数据一起扩展。数据与计算的接近度显著提高了洞察的时间。
"你看到所有大规模部署,用于AI的大型绿地数据中心,使用非常特定的硬件设计,能够将数据尽可能接近GPU,"Matson说。"他们一直在构建具有超大容量固态存储的数据中心,以极高速度为GPU提供PB级存储的便捷访问。现在,同样的技术正在边缘和企业中的微观环境中发生。"
对于AI系统的购买者来说,确保通过在全固态上运行来获得系统的最大性能变得至关重要。这允许你引入大量数据,并在边缘的小型系统中实现令人难以置信的处理能力。
AI硬件的未来
"我们必须提供开放、可扩展、具有内存速度的解决方案,使用一些最新最好的技术来实现这一点,"Cummings说。"这是我们公司的目标,提供组织所需的开放性、速度和规模。我认为你会看到经济性也会与此匹配。"
对于整个训练和推理数据管道,以及推理本身,硬件需求将持续增长,无论是超高速SSD还是节能的超大容量解决方案。
"我认为它将进一步向超大容量方向发展,无论是几年后的1PB SSD,以极低功耗运行,基本上可以替代四倍数量的硬盘,还是接近内存速度的超高性能产品,"Matson说。"你会看到大型GPU供应商正在研究如何定义下一代存储架构,以便它能够非常紧密地帮助增强系统中的HBM。云计算中的通用SSD现在正在分化为容量和性能两个方向。在未来5到10年中,我们将在这两个方向上继续深化发展。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。