游戏开发者和艺术家正在构建电影级世界和标志性角色,为NVIDIA RTX AI PC上的沉浸式体验提升标准。
在本周旧金山举行的游戏开发者大会(GDC)上,NVIDIA宣布了一系列更新,旨在为RTX GPU和NVIDIA DGX Spark桌面超级计算机上的概念开发和故事版制作简化AI视频生成流程。
这些公告包括:
ComfyUI推出全新App View简化界面,降低这一热门生成式AI工具的使用门槛。
RTX Video Super Resolution功能现已支持ComfyUI,这是一个实时4K升频器,专为视频生成而设计,同时也为开发者提供Python Wheel版本。
NVFP4和FP8模型变体现已支持FLUX.2 Klein,LTX-2.3的NVFP4支持即将推出,两个模型的性能提升高达2.5倍,内存使用量减少60%。
简化界面降低使用门槛
当今许多热门AI应用正让初学者更容易在笔记本电脑或台式机上直接尝试最先进的模型。
对于不熟悉节点图的艺术家,ComfyUI的新App View以简化界面呈现工作流程。用户只需输入提示词,调整简单参数并点击生成即可。完整的节点体验仍可通过Node View使用,用户可以在两种模式之间无缝切换。
App View与ComfyUI中的RTX优化兼容。自9月以来,RTX GPU的性能提升了40%,ComfyUI现在原生支持NVFP4和FP8数据格式。综合来看,在NVIDIA GeForce RTX 50系列GPU的NVFP4格式下,性能提升2.5倍,显存减少60%;使用FP8时,性能提升1.7倍,显存减少40%。
在1月的CES大会上,NVIDIA宣布了几个支持NVFP4和FP8的模型。现在更多NVFP4和FP8模型已可用——LTX-2.3(NVFP4支持即将推出)、FLUX.2 Klein 4B和FLUX.2 Klein 9B——直接在ComfyUI中使用。用户可从Hugging Face直接下载NVFP4和FP8检查点,通过Template Browser在ComfyUI中加载默认工作流程,并用新下载的检查点替换默认模型检查点。
App View模式现已推出。
实时4K升频技术突破
获得高质量视频输出通常意味着在速度、显存和控制之间取得平衡。虽然大多数艺术家最终希望获得4K质量,但他们更愿意先生成更小、更快的预览,然后进行升频。目前的升频器需要几分钟才能将10秒的片段升频到4K分辨率。
现在,用户可以使用NVIDIA RTX Video Super Resolution快速将生成的视频升频到4K,该功能作为ComfyUI的节点提供。RTX Video可作为独立节点访问,用于从头构建视频工作流程。
对于AI开发者,NVIDIA发布了一个免费的Python包,可通过PyPI存储库获取,同时提供GitHub上的示例代码和VFX Python绑定指南,帮助快速入门。该包提供对支持RTX Video的相同AI升频技术的编程访问,直接在RTX GPU Tensor Core上运行,4K升频速度比其他热门本地升频器快30倍,显存成本仅为其一小部分。该包由NVIDIA视频效果软件开发套件提供支持。
Q&A
Q1:ComfyUI的App View有什么新特性?
A:ComfyUI的App View是一个全新的简化界面,专为不熟悉节点图的艺术家设计。用户只需输入提示词、调整简单参数并点击生成即可使用,大大降低了这一生成式AI工具的使用门槛。同时用户仍可通过Node View使用完整的节点体验,并可在两种模式间无缝切换。
Q2:NVFP4和FP8格式能带来多大的性能提升?
A:使用NVIDIA GeForce RTX 50系列GPU的NVFP4格式,性能可提升2.5倍,显存使用量减少60%。而使用FP8格式时,性能提升1.7倍,显存减少40%。这些优化让AI视频生成更加高效,特别适合游戏开发者和内容创作者使用。
Q3:RTX Video Super Resolution相比其他升频器有什么优势?
A:RTX Video Super Resolution是专为ComfyUI设计的实时4K升频器,运行在RTX GPU Tensor Core上,升频速度比其他热门本地升频器快30倍,显存成本仅为其一小部分。它可以快速将生成的视频升频到4K质量,大大提高了工作效率。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。