YouTube 刚刚为创作者推出了一系列基于生成式 AI 的新视频制作功能。该平台宣布,Google 的 Veo 2 视频模型将被整合到 YouTube 的实验性功能 Dream Screen 中,同时允许用户生成独立的视频片段,并将其添加到 Shorts 中。
Dream Screen 于 2023 年 9 月首次亮相,当时就已经能够根据文字描述为 Shorts 内容生成图像和视频。不过在此之前,这些生成内容只能作为虚拟绿幕背景使用。
要使用视频片段生成功能,Dream Screen 用户需要打开 Shorts 相机,进入媒体选择器,然后点击顶部的"创建"选项。随后,用户可以输入描述所需内容的文字提示,并选择期望的风格、镜头、电影效果和视频长度。
以下是展示如何使用新的视频片段生成功能的快速演示。
GIF: YouTube
根据 YouTube 的说法,该功能从今天开始在美国、加拿大、澳大利亚和新西兰全面推出,并"计划在未来向更多用户开放"。
考虑到 Google 最新的 Veo 模型仍处于早期访问阶段,且公众只能通过等候名单使用,这次更新显得格外有趣。YouTube 表示,通过整合 Veo 2,Dream Screen 能够更快地生成视频,并在真实世界物理效果和人物动作方面呈现出更加"细致和真实"的效果。生成的视频片段将同时带有视觉标签和 Google 的不可见 SynthID 水印,以标识其是由 AI 创建或修改的内容。
好文章,需要你的鼓励
这项研究由德累斯顿工业大学等机构的研究团队完成,旨在解决主动学习未被广泛应用的问题。研究者构建了包含460万种超参数组合的实验网格,系统分析了各参数对主动学习性能的影响。研究发现,不同策略实现间存在显著差异,基于边缘的不确定性策略整体表现最佳,随机选择约4000个超参数组合即可获得可靠结果。这些发现为设计可重现、可信赖的主动学习实验提供了明确指导,有助于降低入门门槛,促进技术在实际应用中的普及。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。