上月,谷歌DeepMind在发布一系列新AI工具和创新技术的同时,推出了Gemini Diffusion。这一实验性研究模型采用基于扩散的方法生成文本。传统上,GPT和Gemini等大语言模型依赖自回归技术,即逐步生成每个词的方法。扩散语言模型(DLM)采用了更常见于图像生成的方法,从随机噪声开始,逐步优化为连贯输出。这种方法大幅提升了生成速度,并能改善连贯性和一致性。
Gemini Diffusion目前作为实验性演示版本提供,用户可申请体验资格。
理解扩散与自回归的区别
扩散和自回归是根本不同的方法。自回归方法按顺序生成文本,逐个预测标记。虽然这种方法确保了强连贯性和上下文跟踪,但计算密集且速度较慢,特别是对于长篇内容。
相比之下,扩散模型从随机噪声开始,逐步去噪形成连贯输出。应用于语言时,该技术具有多项优势。文本块可以并行处理,能以更高速率生成整个段落或句子。
据报告,Gemini Diffusion每秒可生成1000-2000个标记。相比之下,Gemini 2.5 Flash的平均输出速度为每秒272.4个标记。此外,生成过程中的错误可在优化过程中纠正,提高准确性并减少幻觉。尽管在精细准确性和标记级控制方面可能存在权衡,但速度提升将成为众多应用的游戏规则改变者。
基于扩散的文本生成如何工作?
在训练期间,DLM通过多步骤逐渐向句子添加噪声,直到原始句子完全无法识别。然后训练模型逆转这一过程,逐步从噪声版本重构原始句子。通过迭代优化,模型学会对训练数据中所有合理句子的完整分布进行建模。
虽然Gemini Diffusion的具体细节尚未披露,扩散模型的典型训练方法包括以下关键阶段:
前向扩散:对训练数据集中的每个样本,在多个周期(通常500-1000次)中逐步添加噪声,直到与随机噪声无法区分。
逆向扩散:模型学会逆转每个噪声步骤,本质上学习如何逐步"去噪"损坏的句子,最终恢复原始结构。
这一过程通过多样化样本和噪声水平重复数百万次,使模型学会可靠的去噪功能。
训练完成后,模型能够生成全新句子。DLM通常需要条件或输入,如提示、类别标签或嵌入,以引导生成期望的结果。条件被注入去噪过程的每个步骤,将初始噪声块塑造为结构化的连贯文本。
基于扩散模型的优势与劣势
在接受采访时,谷歌DeepMind研究科学家、Gemini Diffusion项目负责人之一Brendan O'Donoghue详细阐述了扩散技术相比自回归的优势:
更低延迟:扩散模型能在更短时间内产生标记序列。
自适应计算:扩散模型根据任务难度以不同速率收敛到标记序列,使模型在简单任务上消耗更少资源并降低延迟。
非因果推理:由于去噪器中的双向注意力,标记可以关注同一生成块内的未来标记,实现非因果推理并进行全局编辑以产生更连贯的文本。
迭代优化/自我纠正:去噪过程涉及采样,可能引入错误,但与自回归模型不同,标记会传回去噪器,有机会纠正错误。
O'Donoghue也指出主要劣势:"服务成本更高,首个标记时间(TTFT)略长,因为自回归模型会立即产生首个标记,而扩散模型只能在整个标记序列就绪后才能显示首个标记。"
性能基准测试
谷歌表示Gemini Diffusion的性能与Gemini 2.0 Flash-Lite相当。两个模型在多个基准测试中进行比较,评分基于模型首次尝试产生正确答案的次数。Gemini Diffusion在编程和数学测试中表现出色,而Gemini 2.0 Flash-lite在推理、科学知识和多语言能力方面更具优势。
随着Gemini Diffusion的发展,其性能有望赶上更成熟的模型。据O'Donoghue表示,两种技术之间的差距"在基准性能方面基本已经消除,至少在我们已扩展到的相对较小规模上如此。实际上,在非局部一致性重要的某些领域,如编程和推理,扩散可能具有性能优势。"
测试Gemini Diffusion
在实际测试中,我们首先注意到其速度优势。在运行谷歌提供的建议提示时,包括构建木琴和行星井字游戏等交互式HTML应用,每个请求在三秒内完成,速度范围为每秒600-1300个标记。
为测试实际应用性能,我们要求Gemini Diffusion构建视频聊天界面。在不到两秒内,Gemini Diffusion创建了带有视频预览和音频计量器的工作界面。
Gemini Diffusion还具有"即时编辑"模式,可粘贴文本或代码并通过最少提示进行实时编辑。即时编辑对多种文本编辑任务有效,包括语法纠正、针对不同读者群体更新文本或添加SEO关键词。它也适用于代码重构、为应用添加新功能或将现有代码库转换为不同语言等任务。
DLM的企业应用案例
任何需要快速响应时间的应用都能从DLM技术中受益。这包括实时和低延迟应用,如对话AI和聊天机器人、实时转录和翻译,或IDE自动完成和编程助手。
据O'Donoghue介绍,对于利用"内联编辑"的应用,例如获取文本片段并就地进行更改,扩散模型在自回归模型无法胜任的方面具有适用性。由于"双向注意力提供的非因果推理",DLM在推理、数学和编程问题方面也具有优势。
DLM仍处于起步阶段,但该技术有望转变语言模型的构建方式。它们不仅以比自回归模型高得多的速率生成文本,其回溯和修正错误的能力意味着最终可能产生更高准确性的结果。
Gemini Diffusion加入了不断增长的DLM生态系统,其中包括Inception Labs开发的Mercury和GSAI的开源模型LLaDa等。这些模型共同反映了基于扩散的语言生成背后的广泛动力,为传统自回归架构提供了可扩展、可并行化的替代方案。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。