自从深度学习超级采样技术(DLSS)在2018年RTX 2080显卡上推出以来,玩家们普遍看好这项技术,将其视为有效利用机器学习升级技术来提高游戏分辨率或提升帧率的方式。然而,随着昨日英伟达透露即将推出的DLSS 5,该公司已经从单纯的升级跨越到了由"生成式AI"影响的完整光照和纹理改造。这种技术产生了一种平淡、诡异的光泽效果,立即遭到了大批玩家和整个行业的压倒性负面反应。
虽然之前的DLSS版本渲染升级帧或创建全新帧来平滑间隙,英伟达将计划在秋季推出的DLSS 5称为"实时神经渲染模型",能够"提供此前仅在好莱坞视觉效果中实现的新级别照片级计算机图形"。英伟达CEO黄仁勋明确表示,该技术将"生成式AI"与"手工渲染"相结合,实现"视觉真实感的戏剧性飞跃,同时保持艺术家创意表达所需的控制"。
与英伟达指出"难以精确控制且往往缺乏可预测性"的现有生成视频模型不同,DLSS 5使用游戏的内部颜色和运动向量"为场景注入锚定在源3D内容上且帧与帧之间一致的照片级光照和材质"。该公司表示,底层游戏数据帮助系统"理解复杂的场景语义,如角色、头发、织物和半透明皮肤,以及前光、背光或阴天等环境光照条件"。
"当你绝对不想要任何艺术指导时..."
你可以在英伟达的发布视频和Digital Foundry的详细分析中看到DLSS 5如何重新解释帧数据(该分析指出演示目前使用两块RTX 5090,其中一块完全专用于DLSS 5)。虽然Digital Foundry在其报告中多次将"变革性光照"效果描述为"令人震惊",但游戏世界其余部分的反应迄今为止绝大多数都是负面的。
许多反应都集中在DLSS 5如何将游戏中的面部变成过度细致、恐怖谷版本的原始模型。反应将这种效果比作喷绘色情片、"美化的、外观最大化的怪物",或那些诡异、无法避免的Evony广告。其他人注意到DLSS 5似乎通过削弱阴影来支持同质化外观,从而破坏了预期的艺术指导。
一些游戏开发者也抓住了"艺术意图"的角度。《Thomas Was Alone》开发者Mike Bithell补充说,这项技术似乎是"为了当你绝对、肯定不想要游戏体验中的任何艺术指导时"而设计的。Gunfire Games高级概念艺术家Jeff Talbot说:"在每个镜头中,艺术指导都被无谓的'细节'添加所带走。每个DLSS 5镜头看起来都比原版更糟,特色更少。这只是一个垃圾AI滤镜。"
New Blood Interactive创始人兼CEO Dave Oshry补充说,DLSS 5的"AI垃圾实际上令人沮丧",并感叹未来几代人"甚至不知道这看起来'糟糕'或'错误',因为对他们来说这将是正常的"。
损害控制
为了控制损害,英伟达在其YouTube发布预告片的评论中(评论中充满了数千条负面评价)强调DLSS 5"不是滤镜","游戏开发者对DLSS 5的效果拥有完全、详细的艺术控制,以确保他们保持游戏的独特美学"。这包括调整强度和色彩分级的能力,或在"不应应用效果的地方"完全关闭遮罩。
英伟达命名为早期DLSS 5合作伙伴的众多主要发行商之一贝塞斯达在社交媒体上表示,这些视频是"非常早期的预览,我们的艺术团队将进一步调整光照和最终效果,使其看起来符合我们认为最适合每款游戏的方式。这将完全在我们艺术家的控制下,对玩家来说是完全可选的"。
然而,从公共形象角度来看,损害可能已经造成。DLSS 5很快成为了自己的梗格式,网络评论者使用"DLSS 5开启"作为"过度清理"或"面目全非"的视觉简写。我们不确定如何从这种即时恶名中恢复过来,但英伟达将有到秋季的时间来找出答案。
Q&A
Q1:DLSS 5与之前版本有什么不同?
A:DLSS 5被称为"实时神经渲染模型",不仅仅是升级,而是使用生成式AI对游戏的光照和纹理进行完整改造,能够提供照片级的视觉效果,但这种改变引起了争议。
Q2:为什么玩家和开发者对DLSS 5反应这么负面?
A:主要因为DLSS 5会将游戏角色面部变得过度细致、产生恐怖谷效应,破坏原本的艺术指导,让游戏失去特色。许多人认为这是"垃圾AI滤镜",担心会影响游戏的艺术完整性。
Q3:游戏开发者能控制DLSS 5的效果吗?
A:英伟达表示游戏开发者拥有完全的艺术控制权,可以调整强度和色彩分级,或在特定区域完全关闭效果。贝塞斯达也确认艺术团队会进一步调整效果,且对玩家完全可选。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。