分析:随着模型规模超过板载容量,GPU正面临内存瓶颈问题。由于GPU内存扩展速度无法满足需求,Phison和SanDisk转向虚拟RAM(VRAM)替代方案——Phison通过软件方式,SanDisk则采用硬件方式——将NAND闪存用作GPU内存缓存。
Phison的aiDAPTIV+软件比SanDisk的硬件方案更快实施,通过避免外部存储token访问加速AI模型训练,并使较小的GPU能够承担更大的任务。SanDisk的高带宽闪存(HBF)承诺提供更高速度,但需要为每个GPU厂商开发半导体级硬件和固件。
据了解,Phison的软件是运行在GPU服务器上的中间件,该服务器配备板载GPU和CPU,并建立一个跨越GPU自身内存(普通GDDR或高带宽内存HBM)、CPU DRAM和SSD的虚拟内存池。
当加载AI模型时,aiDAPTIV+分析其内存需求,将数据切片为热数据(放在GPU内存)、温数据(分配到CPU DRAM)和冷数据(分配到SSD)。SSD是Phison的高速SLC(1比特/单元)驱动器,如其AI100E M.2产品。
随着AI模型运行,每个数据切片的需求会发生变化,aiDAPTIV+软件在三个虚拟内存层之间移动数据,保持GPU忙碌并避免token重新计算。
这使得内存不足的较少数量GPU能够支持大型模型。Phison声称其系统可以支持拥有高达700亿参数的模型,前提是有足够大的VRAM池。这意味着本地AI系统可以训练更大的模型,而无需昂贵地提交给CoreWeave等运营的GPU服务器集群。这也意味着较小、功率较低的GPU以及边缘GPU服务器系统可以运行更大的推理任务,例如Nvidia RTX 6000 Ada或Jetson平台。
由于没有标准GPU HBM/GDDR接口,Phison软件需要与GPU服务器和系统供应商进行定制部署,以实现三个VRAM层之间的数据移动,而无需修改AI应用程序(如PyTorch/TensorFlow)。系统供应商可以获得Phison的AI100E SSD、中间件库许可和支持以促进系统集成。
Phison合作伙伴包括ADLINK Technology、Advantech、华硕、技嘉、Giga Computing、MAINGEAR和StorONE。
Phison工程师内部开发aiDAPTIV+,因为公司无法承担完整高端模型训练系统的费用。CEO K.S. Pua在视频中表示:"我的工程师领导来找我,要求我支付数百万美元购买机器进行内部训练,以减轻人力资源负担,改善周期时间,提高效率。但我告诉他们,几百万美元我负担不起。所以他们回到实验室,开始思考如何降低门槛。这些聪明人找到了使用Phison专有企业级SSD的解决方案,使系统能够执行大语言模型训练。"
SanDisk HBF方案
SanDisk的选择需要与GPU供应商密切合作开发,因为它的构建类似于HBM。HBM有DRAM芯片堆叠在逻辑芯片上方,通过硅通孔(TSV)连接器相连。整个堆栈通过专门设计的中介层连接到GPU。
HBF使用相同架构,NAND芯片堆叠层通过TSV连接到底部逻辑层。这被固定到中介层并连接到GPU。但实际更复杂,HBF是对HBM的增强。GPU已经有连接HBM堆栈的中介层,现在需要添加HBF堆栈并扩展中介层以同时处理HBM和HBF,还需要内存控制器在VRAM HBM和HBF组件之间移动数据。
这不涉及CPU DRAM或SSD。据了解,使用HBF系统的GPU服务器需要为每个GPU厂商和产品系列定制设计,这不是即插即用系统,工程成本更高。回报是比aiDAPTIV+系统可能实现的更高内存容量和速度。VRAM中的数据始终比Phison方案更接近GPU,提供更低延迟和更高带宽。
可以将Phison的aiDAPTIV概念视为使较小GPU表现得像具有更多内存的大型GPU,使中型企业和小型边缘系统能够进行AI训练。SanDisk的HBF则使受内存限制的大型GPU服务器能够通过大幅扩展内存容量来训练最大规模模型。
Phison和SanDisk技术针对不同需求,可以共存。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。