地球上超过7000种语言中,只有极少数得到人工智能模型的支持。为此,英伟达公司今日宣布推出一个大规模的AI就绪数据集和模型,旨在支持高质量欧洲语言AI翻译技术的开发。
这个名为Granary的新数据集是一个庞大的开源多语言音频语料库,包含超过100万小时的音频内容,外加65万小时的语音识别数据和35万小时的语音翻译数据。
英伟达语音AI团队与卡内基梅隆大学和布鲁诺·凯斯勒基金会的研究人员合作,将未标注的音频和公共语音数据处理成可用于AI训练的信息。该数据集在GitHub上免费开放获取。
Granary涵盖25种欧洲语言,几乎包括欧盟全部24种官方语言,以及俄语和乌克兰语。数据集还包含了可用数据有限的语言,如克罗地亚语、爱沙尼亚语和马耳他语。
这一点至关重要,因为提供这些代表性不足的人工标注数据集,将使开发者能够为使用这些语言的受众创建更具包容性的语音技术,同时在AI应用和模型中使用更少的训练数据。
英伟达专门针对欧洲语言对其数据集进行了微调,专注于这些语言家族特定的高质量音频和标注,从而使模型能够使用更少的数据。团队在研究论文中证明,与其他流行数据集相比,使用Granary训练数据实现自动语音识别和自动语音翻译的高准确率所需的数据量约为一半。
新AI翻译和转录模型
除Granary外,英伟达还发布了新的Canary和Parakeet模型,以展示该数据集的应用潜力。
两个模型分别是Canary-1b-v2(针对复杂任务高准确率优化的模型)和Parakeet-tdt-0.6b-v6(专为高速、低延迟翻译和转录任务设计的小型模型)。
新Canary模型采用相当宽松的许可证,允许商业和研究使用,将Canary当前支持的语言从4种扩展到25种。它提供的转录和翻译质量可媲美三倍大小的模型,同时推理速度快达10倍。该模型拥有10亿参数,可在大多数下一代旗舰智能手机上完全本地运行,实现实时语音翻译。
Parakeet优先考虑高吞吐量,能够单次处理并转录24分钟的音频。它可以检测音频语言并无需额外提示即可转录。Canary和Parakeet都能在输出中提供准确的标点符号、大写字母和单词级时间戳。
其他提供大规模多语言能力的AI模型还包括Cohere for AI的Aya Expanse——由AI初创公司Cohere Inc.运营的非营利研究实验室开发的高性能多语言模型系列。它是Aya Collection的一部分,该收藏是迄今为止最大的多语言数据集收藏之一,包含5.13亿个样本,其中包括能够覆盖100多种语言的开放AI模型Aya-101。
英伟达在GitHub上提供了使用Granary数据集微调模型的详细信息(如公司如何训练Canary和Parakeet),并在Hugging Face上向开发者开放了这个大规模多语言数据集。
Q&A
Q1:Granary数据集包含什么内容?
A:Granary是英伟达发布的大规模开源多语言音频语料库,包含超过100万小时的音频内容,65万小时的语音识别数据和35万小时的语音翻译数据,涵盖25种欧洲语言,包括几乎所有欧盟官方语言以及俄语和乌克兰语。
Q2:Canary和Parakeet模型有什么特点?
A:Canary-1b-v2是针对复杂任务优化的高准确率模型,支持25种语言,推理速度比同等质量模型快10倍,可在旗舰手机上本地运行。Parakeet-tdt-0.6b-v6专注于高速低延迟任务,能单次处理24分钟音频并自动检测语言。
Q3:这些数据集和模型对开发者有什么价值?
A:这些工具让开发者能够用更少的训练数据创建高质量的多语言语音技术,特别是为那些数据稀缺的语言开发更具包容性的应用。所有资源都在GitHub和Hugging Face上免费开放,支持商业和研究使用。
好文章,需要你的鼓励
法国人工智能公司Mistral AI宣布完成17亿欧元(约20亿美元)C轮融资,由荷兰半导体设备制造商ASML领投。此轮融资使Mistral估值从去年的60亿美元翻倍至137亿美元。英伟达、DST Global等知名投资机构参投。作为欧洲领先的AI开发商,Mistral凭借先进的多语言大模型与OpenAI等美国公司竞争,其聊天机器人Le Chat具备语音模式等功能。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
VAST Data收购了成立仅数月的初创公司Red Stapler,该公司由NetApp资深团队创立。Red Stapler创始人兼CEO Jonsi Stefansson将担任VAST云解决方案总经理,负责超大规模云战略。Red Stapler拥有6名开发人员,开发了跨SaaS交付、API集成、监控等功能的云控制平面和服务交付平台,将加速VAST AI OS在超大规模和多云环境中的部署,深化与全球领先超大规模云服务商的合作关系。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。