英伟达最新推出的DLSS 5上采样技术被描述为"自2018年实时光线追踪技术推出以来公司在计算机图形学领域最重要的突破"。然而,当人们真正看到这项技术的效果时,反应并不如预期那样积极。
根据英伟达的说明,这项技术能够"为像素注入逼真的光照和材质效果",但所有人注意到的却是它将可识别的人脸转变成了类似AI生成内容的样子。《生化危机:安魂曲》的主角Grace经过DLSS 5处理后,看起来就像是从AI视频中走出来的角色。《霍格沃茨遗产》中的孩子们看起来就像被Instagram滤镜处理过一样。甚至连真实存在的著名人物、利物浦队长维吉尔·范戴克,在DLSS 5的处理下也变得面目全非,成了另一个陌生人。
这项所谓的"重大突破"为一切事物都赋予了一种与AI生成艺术同义的特殊外观。这有点像电视的运动平滑功能,但更进一步——它还改变了人们的面孔,让所有东西看起来都一样。
需要注意的是,下次在PC上玩《安魂曲》时,Grace并不会突然看起来像是从AI演示中抽取出来的角色。DLSS 5要到今年秋天才会发布,需要高性能硬件支持,而且是一个可选功能。但这项技术正在被世界上最有价值的公司之一推广,并得到了主要游戏开发商的支持。而他们似乎都满足于将自己的游戏与这种特殊的美学风格联系在一起。
在英伟达公告博客的声明中,贝塞斯达总裁托德·霍华德表示"有了DLSS 5,艺术风格和细节得以展现,不再受传统实时渲染限制的束缚",同时指出这项功能将在《星空》中提供。卡普空多款重磅游戏的执行制作人竹内润表示"DLSS 5代表了推进视觉保真度的又一重要步骤,帮助玩家更加沉浸在《生化危机》的世界中"。
听到游戏界一些最有影响力的人物决定接受英伟达用通用AI驱动的版本替换他们精心制作的角色,这有些奇怪。在后续推文中,贝塞斯达指出我们看到的是"非常早期的预览",工作室的"艺术团队将进一步调整光照和最终效果,以达到我们认为最适合每个游戏的效果"。所以也许秋季发布的DLSS 5版本会看起来很不同。
但我们现在看到的指向了一个令人担忧的未来。AI已经渗透到我们生活的几乎每个方面,最令人沮丧的方式之一就是在美学层面。AI生成的面孔是无数图像的融合,然后被用来产出一种同质化的理想形象。它通常很容易识别,因为有一些明显的特征:不自然的光滑皮肤和统一的特征、永远快乐的眼神、带着丰满嘴唇的微笑嘴巴、看起来像合成材料的完美发型、小鼻子,以及突出每个轮廓的HDR风格光照。单独来看,这些可能是典型的面部特征,但当每张AI面孔都具有所有或大部分这些特征时,我们就开始进入恐怖谷效应了。
这就是为什么这么多人对英伟达公告中的面孔反应强烈:它们不仅看起来糟糕,还与其他所有东西看起来一样。同样的美学在从Instagram动态到YouTube缩略图的各个地方都很普遍,它一直在从社交网络向更传统的娱乐和文化形式渗透。我还没有看到一部好的AI生成电影,但它们不断涌现,你可以从单个画面中识别出它们。英伟达的新技术是这种美学渗透游戏的最明显例子。
看到AI破坏艺术家作品对游戏来说特别令人担忧,原因有很多。游戏行业在一些昂贵的错误押注和疫情后的放缓之后,遭受了裁员和工作室关闭的重创,因此用AI内容替代人类工作的可能性令人不安。这也是一个媒介,其中一部分受众对正常人类女性的外貌有一些非常落后的想法,因此通过AI工具使现有角色变得更加通用和卡通化是极其有问题的。
自公告发布以来,已有许多独立开发者通过表情包和更明确的负面声明来抨击DLSS 5。虽然很大比例的开发者似乎反对在游戏中使用生成式AI的想法,一些小型工作室甚至使用"无AI"作为营销标签,但同样真实的是,大型开发商中许多决策者并不这样认为。这就是为什么我们看到霍华德和竹内润等人推崇这项技术,同时展示了一个人们忍不住嘲笑的演示。
Grace通过DLSS 5渲染的面孔是如果这种技术被更广泛采用,事情可能会是什么样子的早期预览。如果这种情况发生,做一个好朋友可能意味着在你拜访时关闭它,就像关闭运动平滑功能一样。
Q&A
Q1:DLSS 5是什么技术?有什么特点?
A:DLSS 5是英伟达最新推出的上采样技术,被称为自2018年实时光线追踪以来最重要的图形学突破。它能为像素注入逼真光照和材质效果,但会让游戏角色面孔变成AI生成的通用化外观,具有光滑皮肤、统一特征、完美发型等AI面孔的典型特征。
Q2:DLSS 5什么时候发布?需要什么条件?
A:DLSS 5将于今年秋天发布,需要高性能硬件支持,是一个可选功能。目前展示的只是早期预览版本,贝塞斯达表示艺术团队还会进一步调整光照和最终效果,最终版本可能会有所不同。
Q3:游戏开发者对DLSS 5的态度如何?
A:态度分化明显。大型开发商如贝塞斯达的托德·霍华德和卡普空的竹内润表示支持,认为能提升视觉保真度。但许多独立开发者强烈反对,通过表情包和负面声明抨击这项技术,一些小型工作室甚至使用"无AI"作为营销标签。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。