腾讯控股有限公司今天开源了一个新的语言模型系列——混元MT系列,该系列专门针对翻译任务进行了优化。
这家中国科技公司表示,该算法在一个流行的人工智能翻译基准测试中显著超越了谷歌翻译的表现。
混元MT系列包含四个模型。两个旗舰模型混元MT-7B和混元MT-Chimera-7B都拥有70亿个参数。此外还有两个量化或压缩版本的算法,这些版本通过牺牲一些输出质量来降低内存使用量。
腾讯使用四个不同的数据集对模型进行初始训练。前两个数据集包含33种语言编写的文本片段,但不包含任何关于如何执行翻译的信息。另外两个数据集包含数百万个所谓的配对数据,这些记录各自包含一个文本片段和对应的翻译。
根据腾讯的介绍,训练流程不仅为其混元MT模型配备了翻译能力,还提供了大量的通用知识。该公司使用名为MMLU-Pro的通用知识基准测试对算法进行了测试。混元MT显著超越了拥有80亿参数的Llama-3-8B-Base模型。
腾讯在初始训练后进行了强化学习阶段。在项目的这一部分,公司为混元MT模型提供了一系列训练任务,并对其响应质量提供反馈。模型利用这些反馈来提高输出质量。
这种试错学习过程由一个定制的AI模型监督。该模型根据混元MT生成的翻译与原文的语义相似性来评分,同时还考虑其他因素,包括算法处理特定领域术语的能力。
混元MT系列中的第一个AI——混元MT-7B,基于标准的语言模型架构。混元MT-Chimera-7B使用了一种更复杂的处理方法,称为集成学习。
与专家混合模型类似,集成学习算法包含多个神经网络。但专家混合模型只使用其中一个神经网络来处理用户提示,而集成学习使用所有神经网络。它为提示生成多个答案,然后将它们组合成一个更高质量的单一响应。
腾讯使用名为WMT25的AI翻译基准将混元MT与谷歌翻译进行了比较。根据该公司的说法,其模型系列在测试评估的31个语言对中的30个表现更好。在某些情况下,混元MT的得分高出65%。
该模型系列还超越了其他几家AI提供商的算法。腾讯表示,混元MT在WMT25基准测试的大多数语言对中得分高于GPT-4.1和Anthropic公司的Claude 4 Sonnet。
Q&A
Q1:混元MT系列包含哪些模型?
A:混元MT系列包含四个模型。两个旗舰模型混元MT-7B和混元MT-Chimera-7B都拥有70亿个参数,此外还有两个量化或压缩版本的算法,这些版本通过牺牲一些输出质量来降低内存使用量。
Q2:混元MT在翻译基准测试中表现如何?
A:腾讯使用WMT25基准将混元MT与谷歌翻译进行比较,其模型系列在测试评估的31个语言对中的30个表现更好,在某些情况下得分高出65%。同时在大多数语言对中得分也高于GPT-4.1和Claude 4 Sonnet。
Q3:混元MT-Chimera-7B与混元MT-7B有什么区别?
A:混元MT-7B基于标准的语言模型架构,而混元MT-Chimera-7B使用了更复杂的集成学习处理方法。集成学习使用所有神经网络为提示生成多个答案,然后将它们组合成一个更高质量的单一响应。
好文章,需要你的鼓励
Anthropic发布SCONE-bench智能合约漏洞利用基准测试,评估AI代理发现和利用区块链智能合约缺陷的能力。研究显示Claude Opus 4.5等模型可从漏洞中获得460万美元收益。测试2849个合约仅需3476美元成本,发现两个零日漏洞并创造3694美元利润。研究表明AI代理利用安全漏洞的能力快速提升,每1.3个月翻倍增长,强调需要主动采用AI防御技术应对AI攻击威胁。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Spotify年度总结功能回归,在去年AI播客功能遭遇批评后,今年重新专注于用户数据深度分析。新版本引入近十项新功能,包括首个实时多人互动体验"Wrapped Party",最多可邀请9位好友比较听歌数据。此外还新增热门歌曲播放次数显示、互动歌曲测验、听歌年龄分析和听歌俱乐部等功能,让年度总结更具互动性和个性化体验。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。