Google发布了其Veo AI视频生成模型的最新更新版本,新版本在遵循提示指令和将图像转换为视频方面表现更出色。Veo 3.1现已通过Google的Gemini API开放试用,同时也为公司的Flow视频编辑器提供技术支持。
Veo 3.1在Google I/O 2025大会上发布的Veo 3基础上构建了新功能。据Google介绍,新模型具有更好的"提示遵循"能力,能够更轻松地根据用户上传的图像"素材"和书面提示创建视频。Veo 3.1还实现了同时进行图像转视频和音频生成的功能,这是Veo 3所不具备的能力。
在Flow编辑器中,Veo 3.1支持一项新功能,让用户对生成的视频拥有更精细的控制。通过Google称之为"帧到视频"的功能,Flow允许用户上传首帧和尾帧,然后生成中间的视频内容。由Veo 3驱动的Adobe Firefly也提供类似功能,但Flow能够在完成这一任务的同时创建音频。这些增强的音频功能也适用于视频编辑器的剪辑延展和在现有素材中插入对象的能力。
根据Google分享的样本,使用Veo 3.1生成的视频仍然具有某种奇异的质感,效果似乎会根据提示和主题的不同而大幅变化。尽管可能在真实感方面还不如OpenAI的Sora 2,但Google决定让Veo对真正从事视频工作的人员更有用,而不是成为社交媒体垃圾内容的来源,这一做法值得赞赏。
Q&A
Q1:Google Veo 3.1相比之前版本有什么改进?
A:Veo 3.1在提示遵循能力方面有显著提升,能更好地根据用户上传的图像和文字提示创建视频。最重要的是,它可以同时进行图像转视频和音频生成,这是之前Veo 3不具备的功能。
Q2:Flow视频编辑器的"帧到视频"功能是什么?
A:"帧到视频"功能允许用户上传视频的首帧和尾帧,然后由AI生成中间的视频内容。与Adobe Firefly类似功能不同的是,Flow可以在生成视频的同时创建音频,提供更完整的视频制作体验。
Q3:Veo 3.1生成的视频质量如何?
A:根据Google分享的样本,Veo 3.1生成的视频仍然具有某种奇异质感,效果会根据不同的提示和主题而有很大变化。虽然在真实感方面可能还不如OpenAI的Sora 2,但整体质量有所提升。
好文章,需要你的鼓励
Anthropic发布了面向成本敏感用户的Claude Haiku 4.5大语言模型,定价为每百万输入令牌1美元,输出令牌5美元,比旗舰版Sonnet 4.5便宜三倍。该模型采用混合推理架构,可根据需求调整计算资源,支持多模态输入最多20万令牌。在八项基准测试中,性能仅比Sonnet 4.5低不到10%,但在编程和数学任务上超越了前代Sonnet 4。模型响应速度比Sonnet 4快两倍以上,适用于客服聊天机器人等低延迟应用场景。
字节跳动发布Seedream 4.0多模态图像生成系统,实现超10倍速度提升,1.4秒可生成2K高清图片。该系统采用创新的扩散变换器架构,统一支持文字生成图像、图像编辑和多图合成功能,在两大国际竞技场排行榜均获第一名,支持4K分辨率输出,已集成至豆包、剪映等平台,为内容创作带来革命性突破。
英国初创公司Nscale将为微软建设四个AI数据中心,总计部署约20万个GPU,合同价值高达240亿美元。首个数据中心将于明年在葡萄牙开建,配备1.26万个GPU。德州数据中心规模最大,将部署10.4万个GPU,容量从240兆瓦扩展至1.2吉瓦。所有设施将采用英伟达最新Blackwell Ultra显卡。
红帽公司研究团队提出危险感知系统卡(HASC)框架,为AI系统建立类似"体检报告"的透明度文档,记录安全风险、防护措施和问题修复历史。同时引入ASH识别码系统,为AI安全问题建立统一标识。该框架支持自动生成和持续更新,与ISO/IEC 42001标准兼容,旨在平衡透明度与商业竞争,建立更可信的AI生态系统,推动行业协作和标准化。