7月1日消息,阿里通义实验室开源了旗下首个音频生成模型ThinkSound,该模型首次将CoT(Chain-of-Thought,思维链)应用到音频生成领域,让AI可以像专业音效师一样逐步思考,捕捉视觉细节,生成与画面同步的高保真音频。
目前,ThinkSound的代码和模型已在Github、HuggingFace、魔搭社区开源,开发者可免费下载和体验。
阿里开源音频生成模型ThinkSound
视频生成音频(V2A)技术是多媒体编辑和视频内容创作领域最重要的技术之一,但该技术的发展速度仍存在诸多技术挑战,例如业界现有的V2A技术仍缺乏对视觉对应声学细节的深入理解,导致生成的音频较为通用,甚至与关键视觉事件错位,难以满足专业创意场景中对时序和语义连贯性的严格要求。
为了解决现有视频转音频技术难以捕捉画面中动态细节和时序的难题,通义团队首次将思维链推理引入多模态大模型,可以模仿人类音效师的多阶段创作流程,实现对视觉事件与相应声音之间深度关联的精准建模,例如先分析视觉动态、再推断声学属性,最后按照时间顺序合成与环境相符的音效。不仅如此,该团队还构建了首个带思维链标注的音频数据集AudioCoT,该数据集融合了2531.8小时的多源异构数据,让模型在音频生成与编辑任务时做到“知其然、知其所以然”。
在开源的VGGSound测试集上,ThinkSound的核心指标相比MMAudio、V2A-Mappe、V-AURA等现有主流方法均实现了15%以上的提升。例如,在openl3空间中Fréchet 距离(FD)上,ThinkSound 相比 MMAudio的43.26 降至34.56(越低越好),接近真实音频分布的相似度提高了20%以上;在代表模型对声音事件类别和特征判别精准度的KLPaSST 和 KLPaNNs两项指标上分别取得了1.52和1.32的成绩,均为同类模型最佳。
在开源的VGGSound测试集上,ThinkSound多项核心指标位居第一
在MovieGen Audio Bench测试集上,ThinkSound的表现大幅领先Meta推出的音频生成模型Movie Gen Audio,展现了模型在影视音效、音频后期、游戏与虚拟现实音效生成等领域的应用潜力。
ThinkSound大幅领先Meta旗下Movie Gen Audio
目前,通义实验室已推出语音生成大模型 Cosyvoice、端到端音频多模态大模型MinMo等模型,全面覆盖语音合成、音频生成、音频理解等场景。
好文章,需要你的鼓励
自动驾驶开发商Nuro与豪华电动车制造商Lucid建立合作伙伴关系,获得Uber投资,共同打造机器人出租车新玩家。Nuro从纯配送市场转向授权自动驾驶技术,Lucid负责车辆制造并集成Nuro硬件设计,Uber拥有并运营车辆。该合作计划6年内生产至少2万辆汽车,主打豪华路线。随着行业竞争加剧,成本控制和差异化服务将成为关键因素。
ByteDance团队开发的GR-3是一个革命性的视觉-语言-动作模型,让机器人能够像人类一样理解指令并灵活操作。它通过多模态数据联合训练获得了强大的泛化能力,能处理未见过的物品和环境,还能从少量人类演示中快速学习。在三个挑战性任务上全面超越现有基准,展现了迈向通用机器人助手的巨大潜力。
Wayback 0.1正式发布,这是一个新的Wayland显示服务器的首个预览版本。该项目旨在为坚持使用X11的用户提供"足够的Wayland功能来让Xwayland正常工作"。虽然这是预览版本,但对于需求简单的用户来说已经可以日常使用。作为alpha质量软件,仍有许多功能未实现或正在开发中。Wayback能让用户在不需要完整X11服务器的情况下继续使用现有的X11环境,但目前缺少DPMS电源管理、多屏支持等功能。
上海人工智能实验室联合多家机构提出SeC视频分割技术,通过大型视觉语言模型构建物体概念表示,突破传统像素匹配局限。该技术在复杂场景变化中表现卓越,比SAM 2.1平均提升11.8分,并构建了专门的SeCVOS测试集验证效果,为视频编辑、自动驾驶等应用带来新突破。