Meta 开发出一款机器学习模型,其研究人员称该模型可以在近乎实时的情况下在约 36 种语言之间进行语音到语音的翻译。
这个名为 SEAMLESSM4T 的基础模型让人联想到《银河系漫游指南》中的巴别鱼,它通过利用互联网音频片段,巧妙地避开了繁琐的数据标注过程,在 450 万小时的人类语音记录上进行训练。
Facebook 母公司的研究团队今天在《自然》杂志上发表论文称,这个相对开放的模型可以作为其他应用程序的基础,支持"在各种场景下实现多语言即时交流"。
爱沙尼亚塔林理工大学语音处理教授 Tanel Alumae 在随附文章中表示,该模型在包含 450 万小时多语言口语音频的海量数据集上进行预训练,以帮助建立数据模式,"这使得模型可以在无需大量定制训练数据的情况下,更容易针对特定任务进行微调"。
研究团队还使用了一种新的自动化技术来避免标注大量训练数据。
Alumae 解释说:"SEAMLESS 团队最巧妙的策略之一是从互联网上'挖掘'跨语言对齐的训练数据对 — 比如一种语言的音频片段与另一种语言的字幕相匹配。从一些已知可靠的数据开始,作者训练模型识别两个内容片段(如视频片段和相应字幕)在含义上是否真正匹配。"
这种技术帮助 Meta 的无缝通信团队收集了约 443,000 小时带有匹配文本的音频,并对齐了约 30,000 小时的语音对,然后用于进一步训练模型。Alumae 赞扬了 Meta 对模型的开放程度 - 这与可用于创建其他应用程序的 Llama 系列大语言模型类似。"对于缺乏从头构建这些模型所需大量计算资源的研究人员来说,这种开放程度是巨大的优势。"
然而,也有人批评 LLaMA-3 的"明显非开放使用限制"。
据称,Meta 的新模型还可以将语音翻译成多达 100 种语言的文本。Alumae 指出,虽然这个数字令人印象深刻,但与世界上约 7,000 种语言相比还相差甚远。
他说:"该工具在人类相对容易处理的许多情况下仍然存在困难 — 例如在嘈杂环境中的对话或口音很重的人之间的对话。不过,作者利用真实世界数据的方法将为开发能够媲美科幻作品的语音技术开辟一条有前途的道路。"
康奈尔大学信息科学系的 Allison Koenecke 在第二篇随附文章中指出,虽然这一突破可能代表着比人工更高效和更具成本效益的转录和翻译方法,但"必须要理解这些技术失效的方式 — 对某些群体的影响尤其不成比例"。
她说:"未来的工作必须确保语音技术研究人员能够改善性能差异,并让用户充分了解这些模型相关的潜在利益和危害。"在论文中,Meta 描述了如何衡量语言的"毒性"和性别偏见。
研究人员还表示,自然语音"包含一系列韵律 — 节奏、重音、语调或声调 — 和情感成分,这些都值得进一步研究。"
他们补充说:"要创建感觉自然和有机的语音到语音翻译系统,应该将更多研究投入到保留表现力的输出生成中。此外,要完全实现巴别鱼的愿景,需要在低延迟语音翻译研究方面进行更深入的投入。开发能够流式处理的系统(即在输入句子呈现时进行增量翻译)可能会增加这些系统在各种机构环境中的采用率。我们希望 SEAMLESSM4T 能为这两个研究领域开辟新的可能性。"
好文章,需要你的鼓励
五家光学存储初创公司正在开发长期存储技术,旨在用超过100年寿命的光学介质替代只有5-7年寿命的磁带。这些公司包括Cerabyte、Ewigbyte、HoloMem、Optera和SPhotonix,它们的技术类似微软Project Silica项目。光学存储介质具有更强的化学、冲击、辐射、水和热抗性,同时保持低能耗和高容量特性。
卡内基梅隆大学团队提出DistCA技术,通过分离AI模型中的注意力计算解决长文本训练负载不平衡问题。该技术将计算密集的注意力任务独立调度到专门服务器,配合乒乓执行机制隐藏通信开销,在512个GPU的大规模实验中实现35%的训练加速,为高效长文本AI模型训练提供了新方案。
Nutanix发布分布式主权云产品组合更新,为多云环境提供更安全的运营和管理功能。该解决方案支持企业在分布式环境中灵活部署和治理基础设施,运行传统虚拟机、现代云原生和AI应用。新功能包括支持完全断网环境的暗站点管理、政府云集群正式发布、Kubernetes平台增强安全合规性、企业AI平台集成NVIDIA微服务,以及云平台新增跨站点灾难恢复能力,为用户提供统一管理和运营简化体验。
清华大学研究团队提出3DThinker框架,首次让AI具备类似人类的三维空间想象能力。该系统在推理过程中插入特殊的三维想象符号,不依赖外部工具或大量标注数据,就能从有限的二维图像中构建三维心理模型。在多个空间推理基准测试中,3DThinker相比传统方法性能提升达50-100%,为自动驾驶、机器人导航、虚拟现实等领域的AI应用开辟了新路径。