法国AI实验室Mistral周四为其Le Chat聊天机器人推出了一系列新功能,使其更接近OpenAI和Google等竞争对手的能力。这次更新包括全新的"深度研究"模式、原生多语言推理以及高级图像编辑功能。
这一消息发布几天前,Mistral刚刚发布了Voxtral,这是其首个开源AI音频模型,能够进行多语言推理、转录等功能。Voxtral也可通过Le Chat使用。
Mistral表示,其新的深度研究模式与竞争对手提供的功能类似,将Le Chat转变为一个协调的研究助手,能够规划、明确用户需求、搜索和综合数据。
"模型的功能是真正去查看网络上的各种资源来回答特定问题,"Mistral产品负责人Elisa Salamanca在接受TechCrunch采访时表示。"我们相信这个功能对消费者和企业用例都非常重要。对于消费者来说,它可以研究旅行并提供最佳旅行计划的详尽分析。对于企业工作,它可以进行详尽的研究。"
虽然这些更新在所有层级——免费版、专业版、团队版和企业版——都可用,但Salamanca指出,Mistral正专注于将Le Chat和Mistral的生产力套件整合到企业生态系统中。这很大程度上是因为Mistral处理数据连接器的方式与竞争对手不同。
"许多拥有非常敏感数据的客户实际上并不使用云服务,或者如果他们使用,也是在自己的场所使用虚拟私有云,"Salamanca说,并提到了银行、国防和政府客户。
为了解决这个问题,Salamanca表示Mistral的Le Chat和生产力套件连接到企业本地数据。换句话说,企业可以使用Le Chat的深度推理和其他功能来分析自己的内部数据,而无需将任何内容上传到云端。这是相对于云原生大语言模型平台(如托管在Azure上的OpenAI和基于Google Cloud的Gemini)的一个重要差异化优势。这也为Mistral提供其他生产力工具打开了大门。
"我们价值主张的一大部分,特别是当我们发布Le Chat Enterprise时,就是希望让Microsoft Excel和Google Docs等办公套件与我们的能力无缝协作,"Salamanca说。"因此,我们与Le Chat Enterprise一起发布的连接器实际上是朝着这个方向迈出的一步。我们正在内部构建这些连接器,因为我们相信这将是在商业环境中使用Le Chat作为生产力推动器的关键。"
除了深度推理,Le Chat今天还获得了其他更新。虽然用户之前可以使用Le Chat通过Magistral(Mistral的新推理AI模型)来推理复杂问题,但该功能此前仅支持英语。现在Mistral原生支持法语、西班牙语、日语等多种语言的推理。Mistral表示Le Chat还可以在句子中间进行语言切换。
Mistral的最新更新还包括添加了项目功能,通过将聊天、文档和想法分组到专注的空间中来帮助用户保持组织性。每个项目都可以有自己的默认库,并记住用户启用的工具和设置。Mistral表示使用场景包括规划搬家、设计新产品功能或保持工作相关项目的进展。
最后,Le Chat正在获得改进的图像编辑功能。这允许用户使用"移除对象"或"将我放在另一个城市"等提示来创建和编辑图像。
这些新功能使Mistral在与AI行业领跑者的竞争中更具竞争力,将Le Chat定位为不仅仅是一个模型演示,而是一个全栈竞争者。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。