Google DeepMind近日发布了Genie 3,这是其最新的基础世界模型,该AI实验室表示这是通往人工通用智能(AGI)道路上的重要里程碑。
"Genie 3是首个实时交互的通用世界模型,"DeepMind研究总监Shlomi Fruchter在新闻发布会上表示。"它超越了以往狭窄的世界模型,不局限于任何特定环境。它既能生成逼真的世界,也能创造想象中的世界,以及介于两者之间的一切。"
目前仍处于研究预览阶段且尚未公开发布的Genie 3,基于其前身Genie 2(可为智能体生成新环境)和DeepMind最新的视频生成模型Veo 3(具有深度物理理解能力)构建而成。
通过简单的文本提示,Genie 3可以生成长达数分钟(相比Genie 2的10-20秒大幅提升)的多样化、可交互3D环境,帧率达24fps,分辨率为720p。该模型还具备"可提示的世界事件"功能,即能够通过提示改变生成的世界。
最重要的是,Genie 3的模拟在时间上保持物理一致性,因为该模型能够记住此前生成的内容——这是DeepMind研究人员未明确编程的涌现能力。
Fruchter表示,虽然Genie 3明显对教育体验和游戏等生成媒体或创意概念原型制作有重要意义,但其真正的价值在于训练执行通用任务的智能体,这对实现AGI至关重要。
"我们认为世界模型是通往AGI的关键,特别是对于具身智能体,模拟现实世界场景尤其具有挑战性,"DeepMind开放性团队研究科学家Jack Parker-Holder在发布会上说道。
Genie 3旨在解决这一瓶颈。与Veo类似,它不依赖硬编码的物理引擎,而是通过记忆已生成内容并在长时间范围内推理,自学世界如何运作——物体如何移动、下落和相互作用。
"该模型采用自回归方式,即逐帧生成,"Fruchter在单独采访中告诉TechCrunch。"它必须回顾之前生成的内容来决定接下来会发生什么。这是架构的关键部分。"
这种记忆能力为模拟世界创造了一致性,而一致性使其能够形成对物理的直觉理解,类似于人类理解桌边摇摇欲坠的玻璃杯即将掉落,或应该低头躲避坠落物体。
这种长时间模拟连贯、物理合理环境的能力使Genie 3远超生成模型的范畴,成为通用智能体的理想训练场。它不仅能生成无数多样的探索世界,还有潜力将智能体推向极限——迫使它们适应、挣扎并从自身经验中学习,这种方式反映了人类在现实世界中的学习过程。
目前,智能体可执行的动作范围仍然有限。例如,可提示的世界事件允许广泛的环境干预,但这些干预不一定由智能体本身执行。同样,准确建模共享环境中多个独立智能体间的复杂交互仍然困难。Genie 3也只能支持几分钟的持续交互,而适当的训练需要数小时。
尽管如此,Genie 3在教授智能体超越输入反应、进行规划、探索、寻求不确定性并通过试错改进方面迈出了令人信服的一步——这种自驱动的具身学习是迈向通用智能的关键。
"我们还没有真正迎来具身智能体的Move 37时刻,让它们能在现实世界中采取新颖行动,"Parker-Holder说道,他指的是2016年DeepMind的AI智能体AlphaGo与世界冠军李世石围棋对弈中的传奇时刻,AlphaGo下出了非常规且精彩的一步,成为AI发现超越人类理解的新策略能力的象征。
"但现在,我们可能开启一个新时代,"他说。
Q&A
Q1:Genie 3相比前代产品有什么重大突破?
A:Genie 3是首个实时交互的通用世界模型,相比Genie 2的10-20秒,它能生成长达数分钟的3D环境,帧率达24fps,分辨率720p。最重要的是,它具备记忆能力,能保持物理一致性,并拥有"可提示的世界事件"功能,可通过提示改变生成的世界。
Q2:为什么说Genie 3是通往AGI的关键技术?
A:Genie 3能为通用智能体提供理想的训练环境。它不依赖硬编码物理引擎,而是自学世界运作规律,能生成无数多样的探索世界,推动智能体进行自驱动学习——通过规划、探索和试错来改进,这种具身学习是实现通用智能的关键。
Q3:Genie 3目前还有哪些技术限制?
A:目前Genie 3的智能体可执行动作范围有限,难以准确建模多个独立智能体间的复杂交互,且只能支持几分钟的持续交互,而适当训练需要数小时。该技术仍处于研究预览阶段,尚未公开发布。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。