如今,许多工程团队都面临着一个共同问题——模型规模过大。这个问题表现形式多样,但挑战的根源往往相似。
项目正在遭遇内存限制。随着参数规模达到数十亿甚至数万亿级别,数据中心必须跟上发展步伐。利益相关者需要关注供应商服务的阈值限制。成本通常也是一个重要问题。
然而,新兴技术正在为减少内存占用和计算负担提供更可行的解决方案。
当前的创新者是如何实现这一目标的?
让我们一起探讨。
输入和数据压缩
首先是输入压缩技术。
可以设计损失算法来压缩模型,甚至可以运行压缩模型与完整模型的对比;压缩方法在专用神经网络功能方面节省了大量空间。
以下是苹果机器学习研究资源中发布的论文片段:
"最近,多项研究在大语言模型的无训练和无数据压缩(剪枝和量化)方面取得了显著成功,实现了50-60%的稀疏性,将每个权重的位宽降至3或4位,相比未压缩基线的困惑度退化可忽略不计。"
这是该技术应用的一个实例。
微软的这份文档探讨了提示压缩,这是研究如何在系统中缩减数据的另一个重要组成部分。
稀疏性方法:聚焦与变化
有时可以削减系统设计的某些部分来节省资源。
考虑一个所有注意力区域都以相同方式工作的模型。但也许某些输入区域基本上是空白空间,而其余部分复杂且相关。模型的覆盖应该是同质化的还是一刀切的?在高注意力和低注意力区域上花费相同的计算量。
另外,系统工程师可以根据重要性移除那些不太受关注的标记。
在这一努力中,硬件也在不断进步。更专业的GPU和多核处理器在这种差异化方面具有优势,因此需要关注制造商在推出全新GPU设备类别方面的所有举措。
改变上下文字符串
网络规模的另一个主要问题与系统使用的上下文窗口相关。
如果是在序列上运行的典型大语言系统,该序列的长度至关重要。上下文意味着更多特定类型的功能,但也需要更多资源。
通过改变上下文,可以改变系统的"需求量"。以下是上述提示压缩资源的内容:
"虽然更长的提示具有相当大的潜力,但它们也带来了一系列问题,如需要超过聊天窗口的最大限制、保持上下文信息的能力降低,以及API成本的增加,包括金钱成本和计算资源成本。"
在此之后,作者们探讨了理论上可能广泛应用于不同类型修复的解决方案。
动态模型和强推理
目前还有两个重要趋势:一是强推理系统的出现,机器基于过往经验随时间学习行为;二是动态系统,其中输入权重和其他一切都随时间变化,而非保持不变。
这两者在帮助匹配人们构建系统时的设计和工程需求方面都显示出一定的前景。
还有扩散模型,通过添加噪声、分析并去除噪声来产生新的生成结果。我们在上周关于追求AI最佳方式的文章中讨论了这一点。
最后但同样重要的是,我们可以评估数字孪生等传统系统。孪生技术在精确仿真方面表现出色,但需要大量资源——如果有更好的方法,可能会节省大量计算资源。
这些只是我们一直在关注的部分解决方案,它们与边缘计算理念相辅相成,即在网络边缘的终端设备上进行更多处理。微控制器和小型组件可以成为处理数据的新方式,无需通过云端发送到某个集中位置。
在我们持续关注人们当前在AI领域的各种实践时,请思考所有这些技术进步。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。