在整个 AI 领域,各个团队正通过改变模型运作方式来释放新的功能。这其中包括输入压缩、改变大语言模型的内存需求、重新定义上下文窗口,以及创建注意力机制来帮助神经网络聚焦于所需之处。
例如,有一种叫做"量化"的过程,通过使用不同的输入类型来帮助模型获得更好的整体效果——这在某种程度上类似于早期主要是监督系统的机器学习程序中的维度概念。
从 MIT 专家的最新研究中我们可以看到,4 位量化过程在生成式 AI 扩散模型中非常有用。具体来说,Muyang Li 及其团队开发了一个用于扩散的 "SVDquant" 4 位量化系统,该系统比传统模型运行速度快三倍,同时还能提供更好的图像质量和兼容性。
扩散模型如何工作
在深入探讨研究团队在量化系统方面的发现之前,让我们先了解扩散模型的一般工作原理。
我在 MIT CSAIL 实验室的同事 Daniela Rus 曾对此做出很好的解释。她指出,扩散模型会获取现有图像,将其分解,然后基于先前的训练输入数据重建出新图像。因此,最终会创建出一张全新的图像,但它包含了用户在输入提示时所期望的所有特征。提示越详细,输出就越精确。如果你使用过这些系统,就会知道你还可以通过后续提示来调整或修改图像,使其更符合你的期望。
你可以将其类比为一位技艺精湛的画家根据要求作画。你告诉画家要画什么,他们就会运用自己的知识库来描绘特定事物的样子。虽然图像是原创和独特的,但它是基于艺术家所学习的知识。同样,扩散模型的结果也是基于它所学习的内容。
提升扩散效率
通过将 16 位模型转换为 4 位模型,研究人员声称可以节省约 3.5 倍的内存,并将延迟减少 8.7 倍。
一些已发表的资源展示了如何在较少资源的情况下实现高保真度和良好的构图。
Li 在系统说明中写道:"量化为减小模型大小和加速计算提供了强有力的方法。通过将参数和激活压缩为低位表示,它大大降低了内存和处理需求。随着摩尔定律放缓,硬件供应商正在转向低精度推理。NVIDIA Blackwell 中的 4 位浮点 (FP4) 精度就是这一趋势的典范。"
这是一个很好的例证,因为 Nvidia Blackwell 几乎无所不能。查看一些使用最先进 GPU 和现代硬件的企业程序,你会经常听到 "Blackwell" 这个名字。
因此,正如作者指出的,硬件供应商正在转向低精度推理,这是一个极好的例子。
量化的挑战
为了克服 4 位量化模型的一些限制,专家们建议了一些最佳实践。例如,权重和激活必须匹配,异常值必须重新分配,必须达到某种平衡。
但是一旦实现了这些,你就能获得那些将在未来转化为大规模企业应用的节省。
期待这些创新很快就会在你所在的商业领域中得到应用。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。