地球上超过7000种语言中,只有极少数得到人工智能模型的支持。为此,英伟达公司今日宣布推出一个大规模的AI就绪数据集和模型,旨在支持高质量欧洲语言AI翻译技术的开发。
这个名为Granary的新数据集是一个庞大的开源多语言音频语料库,包含超过100万小时的音频内容,外加65万小时的语音识别数据和35万小时的语音翻译数据。
英伟达语音AI团队与卡内基梅隆大学和布鲁诺·凯斯勒基金会的研究人员合作,将未标注的音频和公共语音数据处理成可用于AI训练的信息。该数据集在GitHub上免费开放获取。
Granary涵盖25种欧洲语言,几乎包括欧盟全部24种官方语言,以及俄语和乌克兰语。数据集还包含了可用数据有限的语言,如克罗地亚语、爱沙尼亚语和马耳他语。
这一点至关重要,因为提供这些代表性不足的人工标注数据集,将使开发者能够为使用这些语言的受众创建更具包容性的语音技术,同时在AI应用和模型中使用更少的训练数据。
英伟达专门针对欧洲语言对其数据集进行了微调,专注于这些语言家族特定的高质量音频和标注,从而使模型能够使用更少的数据。团队在研究论文中证明,与其他流行数据集相比,使用Granary训练数据实现自动语音识别和自动语音翻译的高准确率所需的数据量约为一半。
新AI翻译和转录模型
除Granary外,英伟达还发布了新的Canary和Parakeet模型,以展示该数据集的应用潜力。
两个模型分别是Canary-1b-v2(针对复杂任务高准确率优化的模型)和Parakeet-tdt-0.6b-v6(专为高速、低延迟翻译和转录任务设计的小型模型)。
新Canary模型采用相当宽松的许可证,允许商业和研究使用,将Canary当前支持的语言从4种扩展到25种。它提供的转录和翻译质量可媲美三倍大小的模型,同时推理速度快达10倍。该模型拥有10亿参数,可在大多数下一代旗舰智能手机上完全本地运行,实现实时语音翻译。
Parakeet优先考虑高吞吐量,能够单次处理并转录24分钟的音频。它可以检测音频语言并无需额外提示即可转录。Canary和Parakeet都能在输出中提供准确的标点符号、大写字母和单词级时间戳。
其他提供大规模多语言能力的AI模型还包括Cohere for AI的Aya Expanse——由AI初创公司Cohere Inc.运营的非营利研究实验室开发的高性能多语言模型系列。它是Aya Collection的一部分,该收藏是迄今为止最大的多语言数据集收藏之一,包含5.13亿个样本,其中包括能够覆盖100多种语言的开放AI模型Aya-101。
英伟达在GitHub上提供了使用Granary数据集微调模型的详细信息(如公司如何训练Canary和Parakeet),并在Hugging Face上向开发者开放了这个大规模多语言数据集。
Q&A
Q1:Granary数据集包含什么内容?
A:Granary是英伟达发布的大规模开源多语言音频语料库,包含超过100万小时的音频内容,65万小时的语音识别数据和35万小时的语音翻译数据,涵盖25种欧洲语言,包括几乎所有欧盟官方语言以及俄语和乌克兰语。
Q2:Canary和Parakeet模型有什么特点?
A:Canary-1b-v2是针对复杂任务优化的高准确率模型,支持25种语言,推理速度比同等质量模型快10倍,可在旗舰手机上本地运行。Parakeet-tdt-0.6b-v6专注于高速低延迟任务,能单次处理24分钟音频并自动检测语言。
Q3:这些数据集和模型对开发者有什么价值?
A:这些工具让开发者能够用更少的训练数据创建高质量的多语言语音技术,特别是为那些数据稀缺的语言开发更具包容性的应用。所有资源都在GitHub和Hugging Face上免费开放,支持商业和研究使用。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。