分析:随着模型规模超过板载容量,GPU正面临内存瓶颈问题。由于GPU内存扩展速度无法满足需求,Phison和SanDisk转向虚拟RAM(VRAM)替代方案——Phison通过软件方式,SanDisk则采用硬件方式——将NAND闪存用作GPU内存缓存。
Phison的aiDAPTIV+软件比SanDisk的硬件方案更快实施,通过避免外部存储token访问加速AI模型训练,并使较小的GPU能够承担更大的任务。SanDisk的高带宽闪存(HBF)承诺提供更高速度,但需要为每个GPU厂商开发半导体级硬件和固件。
据了解,Phison的软件是运行在GPU服务器上的中间件,该服务器配备板载GPU和CPU,并建立一个跨越GPU自身内存(普通GDDR或高带宽内存HBM)、CPU DRAM和SSD的虚拟内存池。
当加载AI模型时,aiDAPTIV+分析其内存需求,将数据切片为热数据(放在GPU内存)、温数据(分配到CPU DRAM)和冷数据(分配到SSD)。SSD是Phison的高速SLC(1比特/单元)驱动器,如其AI100E M.2产品。
随着AI模型运行,每个数据切片的需求会发生变化,aiDAPTIV+软件在三个虚拟内存层之间移动数据,保持GPU忙碌并避免token重新计算。
这使得内存不足的较少数量GPU能够支持大型模型。Phison声称其系统可以支持拥有高达700亿参数的模型,前提是有足够大的VRAM池。这意味着本地AI系统可以训练更大的模型,而无需昂贵地提交给CoreWeave等运营的GPU服务器集群。这也意味着较小、功率较低的GPU以及边缘GPU服务器系统可以运行更大的推理任务,例如Nvidia RTX 6000 Ada或Jetson平台。
由于没有标准GPU HBM/GDDR接口,Phison软件需要与GPU服务器和系统供应商进行定制部署,以实现三个VRAM层之间的数据移动,而无需修改AI应用程序(如PyTorch/TensorFlow)。系统供应商可以获得Phison的AI100E SSD、中间件库许可和支持以促进系统集成。
Phison合作伙伴包括ADLINK Technology、Advantech、华硕、技嘉、Giga Computing、MAINGEAR和StorONE。
Phison工程师内部开发aiDAPTIV+,因为公司无法承担完整高端模型训练系统的费用。CEO K.S. Pua在视频中表示:"我的工程师领导来找我,要求我支付数百万美元购买机器进行内部训练,以减轻人力资源负担,改善周期时间,提高效率。但我告诉他们,几百万美元我负担不起。所以他们回到实验室,开始思考如何降低门槛。这些聪明人找到了使用Phison专有企业级SSD的解决方案,使系统能够执行大语言模型训练。"
SanDisk HBF方案
SanDisk的选择需要与GPU供应商密切合作开发,因为它的构建类似于HBM。HBM有DRAM芯片堆叠在逻辑芯片上方,通过硅通孔(TSV)连接器相连。整个堆栈通过专门设计的中介层连接到GPU。
HBF使用相同架构,NAND芯片堆叠层通过TSV连接到底部逻辑层。这被固定到中介层并连接到GPU。但实际更复杂,HBF是对HBM的增强。GPU已经有连接HBM堆栈的中介层,现在需要添加HBF堆栈并扩展中介层以同时处理HBM和HBF,还需要内存控制器在VRAM HBM和HBF组件之间移动数据。
这不涉及CPU DRAM或SSD。据了解,使用HBF系统的GPU服务器需要为每个GPU厂商和产品系列定制设计,这不是即插即用系统,工程成本更高。回报是比aiDAPTIV+系统可能实现的更高内存容量和速度。VRAM中的数据始终比Phison方案更接近GPU,提供更低延迟和更高带宽。
可以将Phison的aiDAPTIV概念视为使较小GPU表现得像具有更多内存的大型GPU,使中型企业和小型边缘系统能够进行AI训练。SanDisk的HBF则使受内存限制的大型GPU服务器能够通过大幅扩展内存容量来训练最大规模模型。
Phison和SanDisk技术针对不同需求,可以共存。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。