本文原文来自DataLearnerAI官方网站:
https://www.datalearner.com/blog/1051721328234545
在人工智能领域,Mistral与NVIDIA的合作带来了一个引人注目的新型大模型——Mistral NeMo。这个拥有120亿参数的模型不仅性能卓越,还为AI的普及和应用创新铺平了道路。MistralAI官方博客介绍说该模型是此前开源的Mistral 7B模型的继承者,因此未来可能7B不会再继续演进了!
Mistral NeMo另一个最大的特点是大幅提高了多语言能力,特别是中文的支持大幅提高。虽然此前Mistral AI开源了很多模型,但是中文表现都很一般。而Mistral NeMo则在中文水平大幅提升。
Mistral NeMo简介
Mistral NeMo的评测结果
Mistral NeMo多语言支持包含中文!
Mistral NeMo技术简介
Mistral NeMo兼容此前的Mistral 7B模型
Mistral NeMo是完全开源的模型
Mistral NeMo最令人瞩目的特点之一是其超长的上下文窗口,能够处理高达128k tokens的输入文本,这使得模型在理解复杂场景和长文本处理上具有显著优势,为多轮对话提供了更广阔的应用空间。
在同等规模的模型中,Mistral NeMo在推理能力、世界知识的掌握以及编程准确性方面都达到了顶尖水平,这使其在解决复杂问题和生成高质量代码等多种应用场景中表现出色。
下图是Mistral NeMo与其它模型评测结果的对比:
从上面可以看到,尽管综合理解能力(MMLU)上Mistral NeMo模型表现一般,但是在数学推理任务上表现很亮眼!
根据DataLearnerAI收集的大模型评测结果,新开源的Mistral NeMo模型在130亿参数规模的模型上评测非常优秀,MMLU评测得分第一。
鉴于此前MistralAI开源的模型的良好口碑,这样的成绩下Mistral NeMo的能力非常值得期待。
此前MistralAI开源的Mixtral MoE以及Mixtral 7B都是不支持中文,或者中文非常弱。此次官方宣称对中文的支持说明这方面能力已经达到一定水平了。下图是Mistral NeMo在多语言上的评测结果,显著超过了Llama3-8B。
尽管没有很详细的描述,但是官方还是透露了一些技术细节,Mistral NeMo采用了基于Tiktoken开发的新分词器Tekken,在多种自然语言和源代码的处理上表现卓越,其文本压缩效率比传统分词器高出约30%,显著提升了模型的效率和性能。
Mistral NeMo在遵循精确指令、推理、处理多轮对话和生成代码等方面都表现出显著进步,不仅能理解用户需求,还能更准确地完成各种复杂任务。
为了降低企业和开发者的门槛,Mistral采用了标准架构,可以轻松替代任何使用Mistral 7B的系统。模型权重已在HuggingFace上公开,并配有推理和微调工具,而NVIDIA则将其作为NIM推理微服务容器提供,进一步简化了部署和使用过程。
Mistral选择开源友好策略,通过Apache 2.0许可证发布模型的预训练和指令微调检查点,极大推动了学术界和产业界对该模型的采用与创新。
Mistral NeMo模型的开源地址参考DataLearnerAI的模型信息卡:https://www.datalearner.com/ai-models/pretrained-models/Mistral-NeMo-Base-12B
好文章,需要你的鼓励
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。