阿里云已开源其视频基础模型系列,为企业和研究人员提供视频创作能力。
通义万象 (Wan) 2.1 系列包含 140 亿和 13 亿参数两个版本的四个模型,专门用于从文本和图像输入生成高质量视频。这些模型可以在阿里云的 AI 模型社区 Model Scope 和 Hugging Face 平台上下载。
据阿里云介绍,Wan 2.1 是首个支持中英文文本效果的视频生成模型。其生成逼真视觉效果的能力源于对复杂动作的处理、像素质量的提升、物理原理的遵循以及指令执行精度的优化。
这些能力使 Wan 2.1 在视频生成模型基准测试套件 VBench 排行榜上位居榜首。它也是 Hugging Face 的 VBench 排行榜前五名中唯一的开源模型。
不同的模型可满足不同的需求和计算资源要求。140 亿参数模型在创建具有复杂动态效果的高质量视觉内容方面表现出色,而 13 亿参数模型则在生成质量和计算效率之间取得平衡,普通笔记本电脑用户可以在约 4 分钟内生成一个 480p 的 5 秒视频。
训练视频基础模型需要大量计算资源和高质量训练数据。开源可以降低更多企业利用 AI 的门槛,使他们能够以具有成本效益的方式创建满足其需求的高质量视觉内容。
除了 Wan 2.1,阿里云还开源了其通义千问 (Qwen) 基础模型,该模型在 HuggingFace 开源大语言模型排行榜上名列前茅,性能可与全球领先模型相媲美。目前,在 Hugging Face 上基于通义千问系列构建的衍生模型超过 10 万个,使其成为全球最大的 AI 模型系列之一。
该公司还提供 AI Model Studio,让大型企业能够访问其基础模型和模型训练工具,以加快在受控环境中部署大语言模型。
通过 Model Studio,企业可以监控和识别风险内容,基于负责任的 AI 原则过滤或阻止不良信息。他们还可以通过创建、标注和管理训练数据集来训练基础模型,使用可调参数自定义模型训练,以及轻松评估和部署基础模型。
本周早些时候,阿里云表示将在未来三年投资 3800 亿元人民币 (约 530 亿美元) 用于云计算和人工智能基础设施,超过过去十年在云计算和 AI 方面的总支出。
阿里巴巴云智能部门在最新一季度报告中显示,剔除合并子公司后,收入同比增长 11%。得益于其 AI 托管和相关产品的需求增长,其 AI 相关产品收入连续第六个季度实现三位数增长。
好文章,需要你的鼓励
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
苹果在iOS 26公开发布两周后推出首个修复更新iOS 26.0.1,建议所有用户安装。由于重大版本发布通常伴随漏洞,许多用户此前选择安装iOS 18.7。尽管iOS 26经过数月测试,但更大用户基数能发现更多问题。新版本与iPhone 17等新机型同期发布,测试范围此前受限。预计苹果将继续发布后续修复版本。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。