阿里云开源视频基础模型

阿里云开源了其视频基础模型系列,为企业和研究人员提供视频创作能力。这包括两个版本的四个模型,分别拥有140亿和13亿参数。这些模型可以从文本和图像输入生成高质量视频,支持中英文文本效果,并在视频生成模型基准测试中表现出色。此举旨在降低AI应用门槛,让更多企业能够创建高质量视觉内容。

阿里云已开源其视频基础模型系列,为企业和研究人员提供视频创作能力。

通义万象 (Wan) 2.1 系列包含 140 亿和 13 亿参数两个版本的四个模型,专门用于从文本和图像输入生成高质量视频。这些模型可以在阿里云的 AI 模型社区 Model Scope 和 Hugging Face 平台上下载。

据阿里云介绍,Wan 2.1 是首个支持中英文文本效果的视频生成模型。其生成逼真视觉效果的能力源于对复杂动作的处理、像素质量的提升、物理原理的遵循以及指令执行精度的优化。

这些能力使 Wan 2.1 在视频生成模型基准测试套件 VBench 排行榜上位居榜首。它也是 Hugging Face 的 VBench 排行榜前五名中唯一的开源模型。

不同的模型可满足不同的需求和计算资源要求。140 亿参数模型在创建具有复杂动态效果的高质量视觉内容方面表现出色,而 13 亿参数模型则在生成质量和计算效率之间取得平衡,普通笔记本电脑用户可以在约 4 分钟内生成一个 480p 的 5 秒视频。

训练视频基础模型需要大量计算资源和高质量训练数据。开源可以降低更多企业利用 AI 的门槛,使他们能够以具有成本效益的方式创建满足其需求的高质量视觉内容。

除了 Wan 2.1,阿里云还开源了其通义千问 (Qwen) 基础模型,该模型在 HuggingFace 开源大语言模型排行榜上名列前茅,性能可与全球领先模型相媲美。目前,在 Hugging Face 上基于通义千问系列构建的衍生模型超过 10 万个,使其成为全球最大的 AI 模型系列之一。

该公司还提供 AI Model Studio,让大型企业能够访问其基础模型和模型训练工具,以加快在受控环境中部署大语言模型。

通过 Model Studio,企业可以监控和识别风险内容,基于负责任的 AI 原则过滤或阻止不良信息。他们还可以通过创建、标注和管理训练数据集来训练基础模型,使用可调参数自定义模型训练,以及轻松评估和部署基础模型。

本周早些时候,阿里云表示将在未来三年投资 3800 亿元人民币 (约 530 亿美元) 用于云计算和人工智能基础设施,超过过去十年在云计算和 AI 方面的总支出。

阿里巴巴云智能部门在最新一季度报告中显示,剔除合并子公司后,收入同比增长 11%。得益于其 AI 托管和相关产品的需求增长,其 AI 相关产品收入连续第六个季度实现三位数增长。

来源:Computer Weekly

0赞

好文章,需要你的鼓励

2025

02/27

16:18

分享

点赞

邮件订阅