Lightricks-2 AI视频模型实现设备端运行突破

Lightricks与英伟达合作推出Lightricks-2 AI视频模型,可在本地设备运行而非依赖云服务。该模型支持生成20秒长、50帧每秒的4K视频片段,并包含原生音频。作为开放权重模型,它为专业创作者提供更安全的选择,保护知识产权。借助英伟达RTX芯片优化,用户可获得高质量结果同时控制数据隐私,缩短生成时间至1-2分钟。

很少有 AI 视频模型能够摆脱技术"黑盒子"的限制,更少有模型能够在本地设备上高效运行而无需依赖云端服务。由 Lightricks 与英伟达合作开发的全新 AI 视频模型 Lightricks-2 实现了这两个突破。

Lightricks 与英伟达在 2026 年 CES 科技展上联合发布了这一模型。英伟达还展示了多项面向游戏玩家的 AI 驱动和下一代软件更新,包括智能体助手、教育顾问和 AI 画质增强器等。

Lightricks 的新模型能够创建长达 20 秒、50 帧每秒的 AI 视频片段,这在行业 AI 视频能力中处于较长时长范畴。该模型还将包含原生音频功能。4K 生成能力对于希望将新模型用于专业级项目的创作者来说至关重要。但真正让这一新模型脱颖而出的是其设备端运行能力,这使其与谷歌的 Veo 3 和 OpenAI 的 Sora 等竞争对手区别开来。

该模型专为专业创作者设计,无论是独立电影制作人还是大型工作室。对视频片段质量的关注以及设备端优化,旨在使其成为倾向于使用 AI 的创作者更具吸引力和安全性的选择之一。

Lightricks 新模型的独特之处

当 AI 公司谈论"开放"模型时,他们通常指的是开放权重 AI 模型。这些模型并非真正的开源模型,后者需要公开流程的每个部分。但它们确实为开发者提供了对模型构建方式的洞察。权重就像蛋糕中的配料;开放权重模型告诉你制作过程中使用的所有配料,但你不知道每种配料的确切用量。Lightricks 的模型采用开放权重架构,现已在 HuggingFace 和 ComfyUI 上提供。

Lightricks 的新视频模型还能够在设备本地运行。这在 AI 视频领域通常并非如此。生成即使是短暂的 AI 视频片段也是一个计算密集型过程,这就是为什么视频模型比其他 AI 工具消耗更多能源的原因。要通过大多数 AI 视频生成器获得最佳效果,你需要谷歌或 OpenAI 使用的数据中心计算机来承担重负荷工作并在云端生成视频,而不是在你的笔记本电脑或手机上进行。通过英伟达的 RTX 芯片,你可以在不将工作负载外包给云服务的情况下获得高质量结果。

在本地运行 AI 模型有很多好处。你可以控制自己的数据;不必与可能使用这些数据来改进自己 AI 模型的大型科技公司分享。对于正在深入研究生成式 AI 但需要保护知识产权的大型娱乐工作室来说,这是一个极其重要的因素。在适当的设备上本地运行 AI 模型还能更快地为你提供结果。平均 AI 视频提示需要 1-2 分钟来生成,因此减少这一时间可以帮助节省时间和金钱,这是创作者将 AI 整合到工作中的两个最有力论据。

Q&A

Q1:Lightricks-2模型有什么特殊能力?

A:Lightricks-2是一个AI视频生成模型,能够创建长达20秒、50帧每秒的高质量视频片段,支持4K分辨率和原生音频功能。最重要的是,它可以在本地设备上运行,无需依赖云端服务。

Q2:本地运行AI视频模型有什么优势?

A:本地运行能让用户完全控制自己的数据,不必与大型科技公司分享,这对需要保护知识产权的娱乐工作室尤其重要。同时还能获得更快的生成速度,帮助创作者节省时间和成本。

Q3:什么是开放权重AI模型?

A:开放权重模型向开发者公开模型构建的权重信息,就像告诉你蛋糕制作中使用的所有配料,但不提供每种配料的确切用量。这种模式提供了一定的透明度,但不是完全的开源。

来源:cnet

0赞

好文章,需要你的鼓励

2026

01/08

08:28

分享

点赞

邮件订阅