12月初,谷歌DeepMind发布了Genie 2。Genie系列AI系统被称为世界模型,能够在用户(人类或自动化AI智能体)在软件模拟的世界中移动时生成相应图像。虽然模型运行时的视频效果看起来像电子游戏,但DeepMind一直将Genie 2定位为训练其他AI系统的工具,帮助它们更好地完成设计任务。本周二,DeepMind宣布推出新的Genie 3模型,该实验室认为这是一个更优秀的AI智能体训练系统。
乍看之下,Genie 2到3的跃升并不如去年的升级那样显著。Genie 2使DeepMind的系统能够生成3D世界,即使在用户或AI智能体离开去探索生成场景的其他部分后,也能准确重构环境的一部分。环境一致性往往是之前世界模型的弱点,例如Decart的Oasis系统在记住其生成的Minecraft关卡布局方面存在困难。
相比之下,Genie 3提供的增强功能看起来更为温和,但在谷歌今日正式发布前举行的媒体简报会上,DeepMind研究总监Shlomi Fruchter和研究科学家Jack Parker-Holder认为,这些改进代表了通向通用人工智能道路上的重要里程碑。
那么Genie 3究竟在哪些方面表现更好?首先,它输出720p分辨率的画面,而不是前代的360p。它还能够维持更长时间的"一致"模拟。Genie 2理论上限制为60秒,但实际上模型往往会更早开始产生幻觉。相比之下,DeepMind表示Genie 3能够运行数分钟才开始产生伪影。
该模型的另一个新功能是DeepMind称之为"可提示的世界事件"。Genie 2具有交互性,用户或AI智能体能够输入移动命令,模型在生成下一帧后会做出响应。Genie 3能够实时完成这项工作。此外,可以通过文本提示来调整模拟,指示Genie改变其生成世界的状态。在DeepMind展示的演示中,模型被告知在一个人滑雪下山的场景中插入一群鹿。虽然鹿的移动方式不够逼真,但DeepMind表示这是Genie 3的杀手级功能。
如前所述,该实验室主要将模型视为训练和评估AI智能体的工具。DeepMind表示,Genie 3可用于教授AI系统处理其预训练未涵盖的"假设"场景。Fruchter说:"在模型能够部署到现实世界之前,还有很多工作要做,但我们确实将其视为更高效训练模型并提高其可靠性的方式。"他举例说,Genie 3可用于教导自动驾驶汽车如何安全避开突然出现在前方的行人。
尽管DeepMind对Genie进行了改进,但该实验室承认仍有大量工作要做。例如,该模型无法完美准确地生成现实世界位置,在文本渲染方面也存在困难。此外,为了让Genie真正有用,DeepMind认为模型需要能够维持模拟世界数小时而非数分钟。尽管如此,该实验室认为Genie已准备好产生现实世界的影响。
Parker-Holder说:"我们已经到达这样一个阶段:虽然你不会将Genie作为唯一的训练环境,但你确实可以发现一些你不希望智能体做的事情,因为如果它们在某些设置中表现不安全,即使这些设置并不完美,了解这一点仍然是有益的。你已经可以看到这将走向何方,随着模型的改进,它将变得越来越有用。"
目前,Genie 3尚未向公众开放。不过,DeepMind表示正在努力让更多测试人员使用该模型。
Q&A
Q1:Genie 3相比Genie 2有哪些主要改进?
A:Genie 3在三个方面有显著改进:首先是分辨率从360p提升到720p;其次是能够维持数分钟的一致模拟,而Genie 2往往在60秒内就开始产生幻觉;最重要的是新增了"可提示的世界事件"功能,可以通过文本提示实时修改模拟世界的状态。
Q2:Genie 3的主要用途是什么?
A:Genie 3主要用于训练和评估AI智能体,特别是处理预训练未涵盖的"假设"场景。例如,可以用来教导自动驾驶汽车如何安全避开突然出现的行人,帮助AI系统提高可靠性和安全性。
Q3:普通用户现在能使用Genie 3吗?
A:目前Genie 3尚未向公众开放。DeepMind表示正在努力让更多测试人员使用该模型,但还没有具体的公开发布时间表。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。