阿里云已开源其视频基础模型系列,为企业和研究人员提供视频创作能力。
通义万象 (Wan) 2.1 系列包含 140 亿和 13 亿参数两个版本的四个模型,专门用于从文本和图像输入生成高质量视频。这些模型可以在阿里云的 AI 模型社区 Model Scope 和 Hugging Face 平台上下载。
据阿里云介绍,Wan 2.1 是首个支持中英文文本效果的视频生成模型。其生成逼真视觉效果的能力源于对复杂动作的处理、像素质量的提升、物理原理的遵循以及指令执行精度的优化。
这些能力使 Wan 2.1 在视频生成模型基准测试套件 VBench 排行榜上位居榜首。它也是 Hugging Face 的 VBench 排行榜前五名中唯一的开源模型。
不同的模型可满足不同的需求和计算资源要求。140 亿参数模型在创建具有复杂动态效果的高质量视觉内容方面表现出色,而 13 亿参数模型则在生成质量和计算效率之间取得平衡,普通笔记本电脑用户可以在约 4 分钟内生成一个 480p 的 5 秒视频。
训练视频基础模型需要大量计算资源和高质量训练数据。开源可以降低更多企业利用 AI 的门槛,使他们能够以具有成本效益的方式创建满足其需求的高质量视觉内容。
除了 Wan 2.1,阿里云还开源了其通义千问 (Qwen) 基础模型,该模型在 HuggingFace 开源大语言模型排行榜上名列前茅,性能可与全球领先模型相媲美。目前,在 Hugging Face 上基于通义千问系列构建的衍生模型超过 10 万个,使其成为全球最大的 AI 模型系列之一。
该公司还提供 AI Model Studio,让大型企业能够访问其基础模型和模型训练工具,以加快在受控环境中部署大语言模型。
通过 Model Studio,企业可以监控和识别风险内容,基于负责任的 AI 原则过滤或阻止不良信息。他们还可以通过创建、标注和管理训练数据集来训练基础模型,使用可调参数自定义模型训练,以及轻松评估和部署基础模型。
本周早些时候,阿里云表示将在未来三年投资 3800 亿元人民币 (约 530 亿美元) 用于云计算和人工智能基础设施,超过过去十年在云计算和 AI 方面的总支出。
阿里巴巴云智能部门在最新一季度报告中显示,剔除合并子公司后,收入同比增长 11%。得益于其 AI 托管和相关产品的需求增长,其 AI 相关产品收入连续第六个季度实现三位数增长。
好文章,需要你的鼓励
Inception是一家位于帕洛阿尔托的新公司,由斯坦福大学计算机科学教授Stefano Ermon创立,声称开发了一种基于“扩散”技术的新型AI模型,称为扩散基础的大型语言模型(DLM)。目前备受关注的生成AI模型大致可分为两类:大型语言模型(LLMs)和扩散模型。Inception的模型结合了传统LLMs的功能,如代码生成和问答,但性能显著更快,计算成本更低。
亚马逊正在重塑其旗舰语音助手 Alexa,通过整合 AI 代理、模型混合和浏览器操作能力,打造更智能的 Alexa+。新版本不仅可以主动提供个性化信息,还能理解复杂指令并完成多步骤任务。亚马逊希望通过这种创新方式,让 Alexa 成为更强大、更智能的家庭语音助手。
亚马逊在周三分享了一个令人印象深刻的“代理”未来愿景——在这个未来中,改进后的 Alexa+ 将处理无数日常任务,从预订餐厅到寻找家电维修工。如果亚马逊能够实现这一目标,它可能会成为首个推出全面、以消费者为中心的代理工具的公司。该公司希望将更自然、更具表现力的 Alexa(由生成性 AI 模型驱动)与能够以完全自主、智能的方式接入第一方和第三方应用、服务及平台的能力结合起来。
微软推出了新一代高效 AI 模型 Phi-4,可同时处理文本、图像和语音,且计算资源需求大幅降低。其中 Phi-4-Multimodal 仅有 56 亿参数,Phi-4-Mini 仅有 38 亿参数,性能却超越同等规模竞品,甚至在某些任务上媲美两倍大小的模型。这一突破性进展为开发者提供了先进的 AI 能力,有望推动边缘计算和普及 AI 应用。