Adobe 首次涉足生成式 AI 视频领域,推出了能将静态图像转换为视频以及延长现有视频片段长度的新功能。
生成式视频正迅速成为 AI 领域的新战场。OpenAI 去年年底在部分国家推出了其 Sora 服务,加入了 Runway 和 Synthesia 等已经成熟的服务行列。
现在,Adobe 将视频功能加入其 Firefly AI 服务组合中,提供以下功能:
- 根据文本提示生成五秒钟短视频片段 - 提供静态图像作为 AI 参考,并将其转换为视频片段 - 通过 Adobe Premiere Pro 中的新型 Generative Extend 功能延长视频片段
除了将 AI 视频功能添加到 Premiere Pro 中,Adobe 还将推出新的 Firefly 网络应用程序,用户可以在其中生成视频。该公司声称,该服务生成的所有视频都是"知识产权友好型"的,这意味着创作者可以将其添加到内容中,而不必担心版权侵权问题。
为什么使用生成式视频?
由于生成的视频片段长度有限,不太可能有人会使用 Adobe 的服务来制作完整的电影甚至短片。相反,Adobe 认为生成式视频的主要用途是作为衬景素材、填补时间轴空白或在标题和片尾字幕后提供背景图像等。
Adobe 展示了几种 AI 可用于生成视觉特效的方式,这可能会节省手动创建此类效果的成本。例如,他们展示了如何创建卡通风格的烟雾效果或火球爆炸效果。
也许 Adobe 生成式视频最有趣的用途是将静态图像转换为动态视频的能力。该公司演示了如何将在冰岛风景中拍摄的马匹静态图像转换为短视频片段。附带的文本提示要求马匹朝着镜头走来,风轻轻吹拂。大约 90 秒内,就生成了全高清视频片段。虽然马的移动略显不自然,但如果不仔细研究视频,很难注意到这一点。
Adobe 的网络应用程序包含一系列控件,允许创作者微调生成的视频。他们可以在宽屏和竖屏纵横比之间选择,后者更适合社交媒体。他们可以选择摄像机角度,还可以确定片段中的摄像机运动类型,例如左右平移或放大。
生成式视频也被集成到 Premiere Pro 中,可用于人工延长真实素材的长度。在需要让镜头多持续几秒钟的情况下,AI 可以根据摄像机拍摄的内容生成新素材,这与目前在 Photoshop 中扩展图像大小的方式类似。
添加到网络服务中的其他视频 AI 工具包括:可以将手工制作的模型或草图作为生成式视频的参考,帮助电影制作者预览场景拍摄效果。AI 还可以将视频或音频翻译成 20 种不同的语言,同时保持"真实的声音"。
新的 Adobe AI 计划
对于创作者来说,不太好的消息是,他们可能已经在为 Creative Cloud 订阅支付高额月费,而生成式视频服务将产生额外费用。
Firefly Standard 每月提供 2,000 个视频/音频积分,Adobe 表示这将允许创作者生成仅 20 个五秒钟的全高清片段,起价 9.99 美元每月。Firefly Pro 将数量提高到 7,000 个积分或 70 个短视频片段,起价 29.99 美元。
该服务从今天开始提供。
好文章,需要你的鼓励
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。