Meta 开发出一款机器学习模型,其研究人员称该模型可以在近乎实时的情况下在约 36 种语言之间进行语音到语音的翻译。
这个名为 SEAMLESSM4T 的基础模型让人联想到《银河系漫游指南》中的巴别鱼,它通过利用互联网音频片段,巧妙地避开了繁琐的数据标注过程,在 450 万小时的人类语音记录上进行训练。
Facebook 母公司的研究团队今天在《自然》杂志上发表论文称,这个相对开放的模型可以作为其他应用程序的基础,支持"在各种场景下实现多语言即时交流"。
爱沙尼亚塔林理工大学语音处理教授 Tanel Alumae 在随附文章中表示,该模型在包含 450 万小时多语言口语音频的海量数据集上进行预训练,以帮助建立数据模式,"这使得模型可以在无需大量定制训练数据的情况下,更容易针对特定任务进行微调"。
研究团队还使用了一种新的自动化技术来避免标注大量训练数据。
Alumae 解释说:"SEAMLESS 团队最巧妙的策略之一是从互联网上'挖掘'跨语言对齐的训练数据对 — 比如一种语言的音频片段与另一种语言的字幕相匹配。从一些已知可靠的数据开始,作者训练模型识别两个内容片段(如视频片段和相应字幕)在含义上是否真正匹配。"
这种技术帮助 Meta 的无缝通信团队收集了约 443,000 小时带有匹配文本的音频,并对齐了约 30,000 小时的语音对,然后用于进一步训练模型。Alumae 赞扬了 Meta 对模型的开放程度 - 这与可用于创建其他应用程序的 Llama 系列大语言模型类似。"对于缺乏从头构建这些模型所需大量计算资源的研究人员来说,这种开放程度是巨大的优势。"
然而,也有人批评 LLaMA-3 的"明显非开放使用限制"。
据称,Meta 的新模型还可以将语音翻译成多达 100 种语言的文本。Alumae 指出,虽然这个数字令人印象深刻,但与世界上约 7,000 种语言相比还相差甚远。
他说:"该工具在人类相对容易处理的许多情况下仍然存在困难 — 例如在嘈杂环境中的对话或口音很重的人之间的对话。不过,作者利用真实世界数据的方法将为开发能够媲美科幻作品的语音技术开辟一条有前途的道路。"
康奈尔大学信息科学系的 Allison Koenecke 在第二篇随附文章中指出,虽然这一突破可能代表着比人工更高效和更具成本效益的转录和翻译方法,但"必须要理解这些技术失效的方式 — 对某些群体的影响尤其不成比例"。
她说:"未来的工作必须确保语音技术研究人员能够改善性能差异,并让用户充分了解这些模型相关的潜在利益和危害。"在论文中,Meta 描述了如何衡量语言的"毒性"和性别偏见。
研究人员还表示,自然语音"包含一系列韵律 — 节奏、重音、语调或声调 — 和情感成分,这些都值得进一步研究。"
他们补充说:"要创建感觉自然和有机的语音到语音翻译系统,应该将更多研究投入到保留表现力的输出生成中。此外,要完全实现巴别鱼的愿景,需要在低延迟语音翻译研究方面进行更深入的投入。开发能够流式处理的系统(即在输入句子呈现时进行增量翻译)可能会增加这些系统在各种机构环境中的采用率。我们希望 SEAMLESSM4T 能为这两个研究领域开辟新的可能性。"
好文章,需要你的鼓励
过去七年中,基于机器学习的AI工具几乎完全自动化了地震学的基础任务——地震检测。AI模型能够检测到比人工分析师更小的地震,特别是在城市等嘈杂环境中。斯坦福团队开发的地震变换器等模型使用一维卷积和注意力机制,在包含120万个人工标记样本的数据集上训练。这些工具通常能发现比传统方法多10倍以上的地震,为火山结构成像和地质研究提供了更全面的地震目录。
卢森堡大学研究团队开发的RLDP框架首次将强化学习应用于差分隐私优化,创造性地解决了AI训练中隐私保护与模型效果的矛盾。该方法如同智能教练,能动态调整隐私保护策略,在四种语言模型上实现平均5.6%的性能提升和71%的训练时间缩短,同时增强了抗隐私攻击能力,为敏感数据的AI应用开辟了新路径。
杰斐逊城市医疗集团作为密苏里州中部最大的多专科医疗服务机构,正在使用AI管理会议、简化临床文档和优化医疗流程。该集团在联络中心AI应用方面较为谨慎,担心完全数字化会影响患者体验。CIO表示未来会在统一通信平台集成AI,但部署时机将由医疗专业人员决定。目前已采用AI辅助临床文档记录和会议管理功能。
腾讯混元团队联合北京大学提出MixGRPO技术,通过混合ODE-SDE采样策略和滑动窗口机制,将AI图像生成训练效率提升50%-71%,同时在多项人类偏好评估指标上超越现有方法。该技术采用"从难到易"的渐进优化策略,专注于图像生成早期阶段的重点优化,并引入高阶求解器进一步加速训练过程,为AI图像生成的产业化应用提供了更高效可行的解决方案。