VAST Data正在为Doudna超级计算机提供专注于AI的存储系统,与IBM Storage Scale及其传统高性能计算(HPC)并行文件系统共同承担存储任务。
Doudna是NERSC-10超级计算机,NERSC即国家能源研究科学计算中心。该中心由劳伦斯伯克利国家实验室为美国能源部科学办公室运营,加州大学负责管理劳伦斯伯克利国家实验室。NERSC成立的目的是支持核聚变研究,Doudna将为核聚变能源研究以及量子计算模拟提供超级计算能力。它还将帮助能源部资助的研究人员将大规模AI整合到他们的模拟和数据分析工作流程中。
美国能源部长克里斯·赖特表示:"Doudna系统代表了能源部对推进美国在科学、AI和高性能计算领域领导地位的承诺。它将成为快速创新的动力源,将改变我们开发丰富、经济的能源供应和推进量子计算突破的努力。AI是我们时代的曼哈顿计划,Doudna将帮助确保美国科学家拥有在全球AI主导权竞争中获胜所需的工具。"
NERSC-10系统以詹妮弗·杜德娜命名,她是伯克利实验室的生物化学家,因在基因编辑技术CRISPR方面的工作而获得2020年诺贝尔化学奖。Doudna的存储性能将比NERSC当前系统——Perlmutter或NERSC9——快五倍,并为时间敏感的科学研究提供性能保证。Doudna的计算性能将比Perlmutter高十倍。
这是一个戴尔系统,采用ORv3直接液冷服务器技术,使用英伟达的Vera Rubin平台,该平台由"Rubin" GPU和"Vera" Arm CPU组成。它有两个作用:支持分子动力学、高能物理等大规模HPC工作负载,以及AI训练和推理。
Doudna的架构师为每个角色选择了两个存储系统:用于AI工作的服务质量存储系统(QSS)和用于传统HPC存储需求的平台存储系统(PSS)。
PSS存储将由IBM Storage Scale提供,这是一个长期且受欢迎的高性能并行文件系统,用于大规模建模和仿真工作负载。QSS将使用VAST Data。两者都是全闪存系统。这对VAST来说是一个重大胜利,标志着其进入HPC并行文件系统这一核心领域。
VAST的胜利在六月份就有所暗示。现在确认Doudna将使用VAST Data的AIOS(AI操作系统),该系统"将数据存储、数据库、计算、消息传递和推理能力统一到一个单一的、以数据为中心的基础设施中,该基础设施专为AI和智能体工作流程从头构建"。
VAST联合创始人杰夫·登沃思表示:"通过VAST AI操作系统,NERSC正在为Doudna开创一种新模式,用户可以获得有保证的性能、安全性、实时访问和内置数据服务——而无需传统HPC系统的操作摩擦。NERSC和VAST共同制定了百万亿次计算的蓝图,实现了将定义下一个科学计算时代的突破性能力。"
NERSC HPC架构和性能工程师斯蒂芬·西姆斯说:"服务质量[QSS]的加入将通过对文件系统能力的细粒度控制提供可预测的性能。这种合作伙伴关系将进一步实现我们提升用户体验以服务科学的目标。"
IBM Storage Scale系统将是支持文件和对象访问的全闪存并行临时文件系统。NERSC表示,它"提供高速、可扩展的性能和自动化效率,旨在帮助消除瓶颈和简化数据工作流程,使研究人员能够专注于发现而不是基础设施管理。"
IBM美国联邦市场技术总经理瓦妮莎·亨特强调了Storage Scale的管理便利性,她表示:"IBM Storage Scale专为支持下一波美国创新而构建——提供推动突破性发现所需的速度、灵活性和可靠性,同时简化即使在最复杂的HPC环境中的数据管理。"
登沃思在X上发帖评论:"2018年1月第一次见到NERSC。这是史上最长的销售周期。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。