尽管目前还没有人找到通过生成式人工智能赚钱的可靠方法,但这并没有阻止Google DeepMind继续推进AI技术的可能性边界。这些模型的能力(和成本)一直呈现令人印象深刻的上升趋势,Genie 3的发布便是这一趋势的典型例证。距离展示Genie 2"基础世界模型"仅仅七个月后,Google现在推出了Genie 3。
使用Genie 3,只需一个提示词或图像就能创建一个交互式世界。由于环境是持续生成的,因此可以实时进行修改。你可以添加或更改对象、改变天气条件,或插入新角色——DeepMind将这些称为"可提示事件"。创建可变3D环境的能力可以让游戏对玩家来说更加动态,并为开发者提供验证概念和关卡设计的新方法。然而,游戏行业的许多人对此类工具是否真的有帮助表示怀疑。
很容易将Genie 3简单地视为创建游戏的工具,但DeepMind也将其视为研究工具。游戏在人工智能发展中发挥着重要作用,因为它们提供了具有挑战性的交互环境和可衡量的进展。这就是为什么DeepMind之前转向围棋和星际争霸等游戏来扩展AI的界限。
世界模型将此提升到了新的层次,逐帧生成交互式世界。这为改进AI模型(包括所谓的"具身智能体")在遇到现实世界情况时的行为提供了机会。随着公司朝着通用人工智能(AGI)目标努力,主要限制之一是可靠训练数据的稀缺性。在将地球上基本所有的网页和视频都输入AI模型之后,研究人员正在转向合成数据应用。DeepMind认为世界模型可能是这一努力的关键部分,因为它们可以用于训练AI智能体,提供本质上无限的交互式世界。
DeepMind表示,Genie 3是一个重要进步,因为它比Genie 2提供了更高的视觉保真度,并且是真正的实时处理。使用键盘输入,可以以每秒24帧的720p分辨率浏览模拟世界。或许更重要的是,Genie 3能够记住它创建的世界。
Genie 2最明显的限制之一是其有限的记忆能力,在大多数模拟中最多只能保持约10秒。类似于超出上下文窗口的聊天机器人,该模型会在世界的某些部分短暂离开视野后忘记它们的样子。Google在发布该模型时称Genie 2微薄的保留能力为"长视野记忆"。事情变化得如此之快。Genie 3的视野要长得多,通过多分钟的视觉一致性推动了世界模型的界限。
然而,Genie 3还不是完美的世界构建者。能够保留多分钟细节的能力可以解锁更多用途,但团队承认,理想情况下你希望模型至少保持数小时的一致性。该模型也无法模拟现实世界的位置——它生成的一切都是独特且非确定性的。这意味着它也容易出现典型的AI幻觉。团队表示Genie 3在准确性方面取得了巨大进步,但确实仍会产生不正确的视频元素。例如,人类运动的细微差别有时会在生成过程中丢失,产生看起来向后走的人。这些AI世界中的文本也是杂乱无章的,除非提示词包含模型要包含的特定字符串。
AI智能体集成到世界模型中的方式也有限。虽然你可以创建具有现实条件的世界和可提示事件,但智能体在其中没有作用。它们与模拟世界的交互仅限于在其中移动,因为当前的智能体缺乏改变模拟所需的高级推理能力。DeepMind还在实验允许多个AI智能体在共享环境中相互交互的方法。也许我们会在几个月后的Genie 4中看到这一点?
即使那些愿意每月为高级AI订阅支付数百美元的人也了解到,最大和最昂贵的模型在使用上是有限制的。Genie 3本质上是如此快速地渲染一个很长的视频,以至于它看起来是交互式的,这肯定会使用大量的处理能力。Google DeepMind没有提供具体信息,但你无法使用它这一事实说明了一切。
Genie 3仍然是一个研究工具,但DeepMind显然想展示其能力。团队计划向一组专家和研究人员授予访问权限,他们将帮助完善模型。不过,他们表示计划是向更多人开放Genie世界模型的访问权限。
Q&A
Q1:Genie 3相比前代产品有什么重要改进?
A:Genie 3相比Genie 2有两个重要提升:首先是视觉保真度大幅提高,能以720p分辨率、每秒24帧实现真正实时处理;其次是记忆能力显著增强,从Genie 2的10秒记忆扩展到多分钟的视觉一致性,解决了之前模型容易"遗忘"场景细节的问题。
Q2:Genie 3世界模型能用来做什么?
A:Genie 3可以通过提示词或图像创建交互式世界,支持实时修改环境,如添加物体、改变天气或插入新角色。除了游戏开发应用外,DeepMind主要将其作为AI研究工具,用于训练具身智能体,提供无限的交互式环境来克服训练数据稀缺问题,推进通用人工智能发展。
Q3:Genie 3目前还存在哪些限制?
A:Genie 3仍有几个限制:记忆时长虽然提升到多分钟,但理想状态需要数小时一致性;无法模拟真实世界位置,生成内容具有非确定性;容易出现AI幻觉,如人物倒退行走、文本显示混乱;AI智能体交互能力有限,只能在环境中移动而无法修改模拟;目前仅作研究工具,普通用户无法使用。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。