阿里云已开源其视频基础模型系列,为企业和研究人员提供视频创作能力。
通义万象 (Wan) 2.1 系列包含 140 亿和 13 亿参数两个版本的四个模型,专门用于从文本和图像输入生成高质量视频。这些模型可以在阿里云的 AI 模型社区 Model Scope 和 Hugging Face 平台上下载。
据阿里云介绍,Wan 2.1 是首个支持中英文文本效果的视频生成模型。其生成逼真视觉效果的能力源于对复杂动作的处理、像素质量的提升、物理原理的遵循以及指令执行精度的优化。
这些能力使 Wan 2.1 在视频生成模型基准测试套件 VBench 排行榜上位居榜首。它也是 Hugging Face 的 VBench 排行榜前五名中唯一的开源模型。
不同的模型可满足不同的需求和计算资源要求。140 亿参数模型在创建具有复杂动态效果的高质量视觉内容方面表现出色,而 13 亿参数模型则在生成质量和计算效率之间取得平衡,普通笔记本电脑用户可以在约 4 分钟内生成一个 480p 的 5 秒视频。
训练视频基础模型需要大量计算资源和高质量训练数据。开源可以降低更多企业利用 AI 的门槛,使他们能够以具有成本效益的方式创建满足其需求的高质量视觉内容。
除了 Wan 2.1,阿里云还开源了其通义千问 (Qwen) 基础模型,该模型在 HuggingFace 开源大语言模型排行榜上名列前茅,性能可与全球领先模型相媲美。目前,在 Hugging Face 上基于通义千问系列构建的衍生模型超过 10 万个,使其成为全球最大的 AI 模型系列之一。
该公司还提供 AI Model Studio,让大型企业能够访问其基础模型和模型训练工具,以加快在受控环境中部署大语言模型。
通过 Model Studio,企业可以监控和识别风险内容,基于负责任的 AI 原则过滤或阻止不良信息。他们还可以通过创建、标注和管理训练数据集来训练基础模型,使用可调参数自定义模型训练,以及轻松评估和部署基础模型。
本周早些时候,阿里云表示将在未来三年投资 3800 亿元人民币 (约 530 亿美元) 用于云计算和人工智能基础设施,超过过去十年在云计算和 AI 方面的总支出。
阿里巴巴云智能部门在最新一季度报告中显示,剔除合并子公司后,收入同比增长 11%。得益于其 AI 托管和相关产品的需求增长,其 AI 相关产品收入连续第六个季度实现三位数增长。
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。