Google发布了其Veo AI视频生成模型的最新更新版本,新版本在遵循提示指令和将图像转换为视频方面表现更出色。Veo 3.1现已通过Google的Gemini API开放试用,同时也为公司的Flow视频编辑器提供技术支持。
Veo 3.1在Google I/O 2025大会上发布的Veo 3基础上构建了新功能。据Google介绍,新模型具有更好的"提示遵循"能力,能够更轻松地根据用户上传的图像"素材"和书面提示创建视频。Veo 3.1还实现了同时进行图像转视频和音频生成的功能,这是Veo 3所不具备的能力。
在Flow编辑器中,Veo 3.1支持一项新功能,让用户对生成的视频拥有更精细的控制。通过Google称之为"帧到视频"的功能,Flow允许用户上传首帧和尾帧,然后生成中间的视频内容。由Veo 3驱动的Adobe Firefly也提供类似功能,但Flow能够在完成这一任务的同时创建音频。这些增强的音频功能也适用于视频编辑器的剪辑延展和在现有素材中插入对象的能力。
根据Google分享的样本,使用Veo 3.1生成的视频仍然具有某种奇异的质感,效果似乎会根据提示和主题的不同而大幅变化。尽管可能在真实感方面还不如OpenAI的Sora 2,但Google决定让Veo对真正从事视频工作的人员更有用,而不是成为社交媒体垃圾内容的来源,这一做法值得赞赏。
Q&A
Q1:Google Veo 3.1相比之前版本有什么改进?
A:Veo 3.1在提示遵循能力方面有显著提升,能更好地根据用户上传的图像和文字提示创建视频。最重要的是,它可以同时进行图像转视频和音频生成,这是之前Veo 3不具备的功能。
Q2:Flow视频编辑器的"帧到视频"功能是什么?
A:"帧到视频"功能允许用户上传视频的首帧和尾帧,然后由AI生成中间的视频内容。与Adobe Firefly类似功能不同的是,Flow可以在生成视频的同时创建音频,提供更完整的视频制作体验。
Q3:Veo 3.1生成的视频质量如何?
A:根据Google分享的样本,Veo 3.1生成的视频仍然具有某种奇异质感,效果会根据不同的提示和主题而有很大变化。虽然在真实感方面可能还不如OpenAI的Sora 2,但整体质量有所提升。
好文章,需要你的鼓励
Fractal AI Research实验室开发了Fathom-DeepResearch智能搜索系统,该系统由两个4B参数模型组成,能够进行20多轮深度网络搜索并生成结构化报告。研究团队创新了DUETQA数据集、RAPO训练方法和认知行为奖励机制,解决了AI搜索中的浅层化、重复性和缺乏综合能力等问题,在多项基准测试中显著超越现有开源系统,为AI助手向专业研究工具转变奠定了基础。
快手科技与清华大学合作发现当前AI语言模型训练中存在严重的权重分配不平衡问题,提出了非对称重要性采样策略优化(ASPO)方法。该方法通过翻转正面样本的重要性权重,让模型把更多注意力放在需要改进的部分而非已经表现良好的部分,显著提升了数学推理和编程任务的性能,并改善了训练稳定性。