地球上超过7000种语言中,只有极少数得到人工智能模型的支持。为此,英伟达公司今日宣布推出一个大规模的AI就绪数据集和模型,旨在支持高质量欧洲语言AI翻译技术的开发。
这个名为Granary的新数据集是一个庞大的开源多语言音频语料库,包含超过100万小时的音频内容,外加65万小时的语音识别数据和35万小时的语音翻译数据。
英伟达语音AI团队与卡内基梅隆大学和布鲁诺·凯斯勒基金会的研究人员合作,将未标注的音频和公共语音数据处理成可用于AI训练的信息。该数据集在GitHub上免费开放获取。
Granary涵盖25种欧洲语言,几乎包括欧盟全部24种官方语言,以及俄语和乌克兰语。数据集还包含了可用数据有限的语言,如克罗地亚语、爱沙尼亚语和马耳他语。
这一点至关重要,因为提供这些代表性不足的人工标注数据集,将使开发者能够为使用这些语言的受众创建更具包容性的语音技术,同时在AI应用和模型中使用更少的训练数据。
英伟达专门针对欧洲语言对其数据集进行了微调,专注于这些语言家族特定的高质量音频和标注,从而使模型能够使用更少的数据。团队在研究论文中证明,与其他流行数据集相比,使用Granary训练数据实现自动语音识别和自动语音翻译的高准确率所需的数据量约为一半。
新AI翻译和转录模型
除Granary外,英伟达还发布了新的Canary和Parakeet模型,以展示该数据集的应用潜力。
两个模型分别是Canary-1b-v2(针对复杂任务高准确率优化的模型)和Parakeet-tdt-0.6b-v6(专为高速、低延迟翻译和转录任务设计的小型模型)。
新Canary模型采用相当宽松的许可证,允许商业和研究使用,将Canary当前支持的语言从4种扩展到25种。它提供的转录和翻译质量可媲美三倍大小的模型,同时推理速度快达10倍。该模型拥有10亿参数,可在大多数下一代旗舰智能手机上完全本地运行,实现实时语音翻译。
Parakeet优先考虑高吞吐量,能够单次处理并转录24分钟的音频。它可以检测音频语言并无需额外提示即可转录。Canary和Parakeet都能在输出中提供准确的标点符号、大写字母和单词级时间戳。
其他提供大规模多语言能力的AI模型还包括Cohere for AI的Aya Expanse——由AI初创公司Cohere Inc.运营的非营利研究实验室开发的高性能多语言模型系列。它是Aya Collection的一部分,该收藏是迄今为止最大的多语言数据集收藏之一,包含5.13亿个样本,其中包括能够覆盖100多种语言的开放AI模型Aya-101。
英伟达在GitHub上提供了使用Granary数据集微调模型的详细信息(如公司如何训练Canary和Parakeet),并在Hugging Face上向开发者开放了这个大规模多语言数据集。
Q&A
Q1:Granary数据集包含什么内容?
A:Granary是英伟达发布的大规模开源多语言音频语料库,包含超过100万小时的音频内容,65万小时的语音识别数据和35万小时的语音翻译数据,涵盖25种欧洲语言,包括几乎所有欧盟官方语言以及俄语和乌克兰语。
Q2:Canary和Parakeet模型有什么特点?
A:Canary-1b-v2是针对复杂任务优化的高准确率模型,支持25种语言,推理速度比同等质量模型快10倍,可在旗舰手机上本地运行。Parakeet-tdt-0.6b-v6专注于高速低延迟任务,能单次处理24分钟音频并自动检测语言。
Q3:这些数据集和模型对开发者有什么价值?
A:这些工具让开发者能够用更少的训练数据创建高质量的多语言语音技术,特别是为那些数据稀缺的语言开发更具包容性的应用。所有资源都在GitHub和Hugging Face上免费开放,支持商业和研究使用。
好文章,需要你的鼓励
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌近期悄然调整账户存储政策:新注册用户若未绑定手机号,免费存储空间将从原来的15GB缩减至5GB。用户需验证手机号后,方可获得完整的15GB空间,用于Gmail、Drive和Photos的共享使用。谷歌表示,此举旨在确保存储空间"每人仅限一份",有效防止滥用。有分析认为,存储硬件成本上升也是推动此次政策调整的重要原因之一。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。