阿里巴巴集团的技术团队推出了文本+图片生成高保真视频模型——AtomoVideo。
用户通过AtomoVideo只需要提供高清图片和简单的文本提示,就能快速生成高清视频并保留逼真的细节。
根据评测数据显示,AtomoVideo生成的视频在动作连贯性、图片一致性、时序一致性、运动强度等方面超过了VideoCrafter、I2VGEN-XL、SVD开源模型,可媲美商业模型Gen-2和Pika。
论文地址:https://arxiv.org/abs/2403.01800
项目地址:https://atomo-video.github.io/
AtomoVideo架构简单介绍
AtomoVideo使用了预训练的Stable Diffusion 1.5作为基础模型,并在每个空间卷积和注意力层之后新增了1D时序卷积和时序注意力模块。
AtomoVideo的技术创新在于融合了多粒度图片注入和时间建模,可将输入图片经过 VAE 编码器处理后,获得了细粒度的图片潜在表征,再与高斯噪声拼接在一起作为 UNet 的输入。
AtomoVideo还利用 CLIP 编码器对输入图片进行了高层语义表征,并通过交叉注意力注入到 UNet 中。这种巧妙设计使得模型能同时捕捉到图片的细节信息和文本语义提示,从而提高生成视频与原始图片的一致性。
AtomoVideo还在时间维度上进行了技术创新,在 UNet 的每一个空间卷积和注意力层之后,都增加了一维时间卷积和时间注意力模块,从而赋予了模型学习时序动态模式的能力。
功能方面除了图片生成视频,AtomoVideo还可用于其他视频相关任务。例如,给定视频的前几帧,AtomoVideo可对剩余未知帧进行视频扩展预测,为视频添加无缝延续的新内容;
可基于上下文帧,自动修复受损帧或插值缺失帧,自动修复损坏的视频。
AtomoVideo训练策略
训练数据方面,AtomoVideo使用了包含1500万条视频,每条长度在10-30秒左右以及视频的文本描述也被输入到模型中。
在训练阶段,研究人员使用了零终端信噪比和v-预测等策略,显著提升了生成视频的稳定性,无需依赖于噪声先验。
传统上在生成模型中,使用的是正常的信噪比,输入图像与生成结果之间的比较。但这种信噪比的计算方式可能会导致生成过程不稳定。
而零终端信噪比是一种在生成过程中使用的评估指标,将生成图像与最终期望的目标图像之间的差异作为噪声信号。
在训练过程中,通过最小化零终端信噪比来优化模型,以提高生成视频的稳定性和质量,并且对生成的细节和一致性有更好的控制。
此外,还固定了预训练的文本到图片模型的权重,仅训练新添加的时序层和输入层参数,这使得AtomoVideo可以无缝集成到目前流行的个性化文生图模型、可控生成模型等,进一步扩展了其应用场景。
AtomoVideo实验数据
为了评估AtomoVideo的性能,研究人员在AIGCBench测试集上与VideoCrafter、I2VGEN-XL、SVD等开源模型,以及Pika、Gen-2等商业模型进行了深度比较。
实验结果显示,相比其他方法,AtomoVideo在图片一致性、时间连贯性、运动强度和视频质量等多个评估维度上表现卓越,尤其在保持较大运动强度的同时实现了优异的时间稳定性。
好文章,需要你的鼓励
Nvidia 在最新的 CUDA 12.8 版本中宣布,Maxwell、Pascal 和 Volta 架构的支持将被冻结。这意味着一系列老旧显卡将逐步失去技术支持。虽然这些设备短期内仍可使用,但未来可能面临兼容性问题。此举将影响依赖这些旧型号的数据中心和科研机构。
随着AI的发展,高密度数据中心中高性能GPU的使用产生了大量热量。液冷成为唯一可行的散热方案,但其部署面临成本和风险concerns。通过分析液冷的必要性、经济效益和简化措施,数据中心团队可以为液冷技术的采用提供有力论据,从而保护高价值、高能耗的GPU机架。
微软推出基于 PostgreSQL 的开源文档数据库平台,并建议用户可以通过实施开源 FerretDB 解决方案来开始使用。这一举措展现了微软对开源世界的日益接受,旨在满足社区对 NoSQL 数据库的需求,同时提供完全开源、无商业许可费用的解决方案。
Commvault 与 CrowdStrike 达成战略合作,将 Falcon XDR 集成至 Commvault Cloud,以提升客户的网络威胁检测和响应能力。这一合作旨在加强数据保护、提高网络弹性,使企业能更快速地识别威胁、响应攻击,并有效降低网络安全风险。