以色列人工智能初创企业 AI21 Labs Ltd. 据报道已在 D 轮融资中从 Google LLC 和 Nvidia Corp 获得 3 亿美元,本次融资旨在扩展其大语言模型产品和企业级 AI 解决方案。
该消息最初由 Business Insider 报道,随后本周末由 Calcalist 得到确认。目前尚不清楚此次融资的具体估值,不过 AI21 在 2023 年曾以 14 亿美元的估值完成融资,因此本轮融资的估值很可能超过这一数值。
AI21 建立于 2017 年,专注于开发大语言模型和自然语言处理工具,旨在增强人类的推理与沟通能力。公司最为人知的是其语言模型系列,其中包括专为处理长上下文理解及企业级应用打造的 Jamba 系列。
公司的旗舰产品 Jamba 模型系列采用了一种混合专家架构,将 state-space 模型与 Transformer 结合以提升效率与扩展性。Jamba 在 Apache 2.0 许可下以开源方式提供,支持高达 256,000 个 Token 的上下文窗口,非常适合诸如摘要、法律文档分析和科研密集型任务等复杂应用场景。
除核心模型外,AI21 还提供一整套面向消费者和企业的工具产品,例如 Wordtune。该工具帮助用户撰写及改写文本,使表达更清晰、语气更准确,并通过扩展功能提供摘要和 AI 生成内容的建议。
针对开发者和企业客户,AI21 提供了 AI21 Studio 平台,允许用户将其语言模型集成到自定义应用中。Studio 支持多种部署选项,包括本地部署和虚拟私有云环境,以便企业更好地掌控数据隐私和合规需求。
虽然本轮融资的全部投资者名单尚未披露,但除了 Google 和 Nvidia 之外,AI21 早期的投资者还包括 Intel Capital Corp., Walden Catalyst Ventures, Pitango Venture Capital Ltd., SCB10X Co. Ltd., b2venture GmbH, Samsung Next Ventures, Comcast Ventures 以及 Ahren Innovation Capital LLP。
根据 Tracxn 的数据,本轮融资使 AI21 的累计融资金额达到 6.36 亿美元。
今年 3 月份,该公司曾因推出 Maestro 而成为新闻焦点。Maestro 是一款显著提升大语言模型输出质量的软件系统,并且大大减少了修正大语言模型输出错误所需的工作量。
好文章,需要你的鼓励
UniR(Universal Reasoner)是一种创新的推理增强方法,可为冻结的大语言模型提供即插即用的推理能力。由韩国科学技术院研究团队开发,该方法将推理能力分解为独立的轻量级模块,无需改变主模型结构。UniR的核心优势在于高效训练(仅更新小型推理模块)、出色的模型间迁移能力(小模型可指导大模型)以及模块组合能力(多个专用模块可通过logits相加组合使用)。在数学推理和翻译测试中,UniR显著超越现有微调方法,展示了轻量级模块如何有效增强大语言模型的推理能力。
Nebius团队开发了SWE-rebench,一个自动化管道用于从GitHub收集软件工程任务并进行去污染评估。该系统解决了两大挑战:高质量训练数据稀缺和评估基准容易被污染。通过四阶段处理(初步收集、自动安装配置、执行验证和质量评估),SWE-rebench构建了包含超过21,000个Python交互式任务的数据集,并提供持续更新的评估基准。研究发现部分语言模型在传统基准上的表现可能被污染效应夸大,而DeepSeek模型在开源模型中表现最为稳健。
这项研究提出了JQL(发音为"Jackal"),一种通过多语言方法提升大型语言模型预训练数据质量的创新系统。研究团队从拉马尔研究所等机构通过四阶段方法解决了多语言数据筛选的难题:先由人类评估内容教育价值创建基准数据,然后评估大型语言模型作为"评判者"的能力,接着将这些能力提炼到轻量级评估器中,最后应用于大规模数据筛选。实验表明,JQL在35种语言上显著优于现有方法,甚至能泛化到未见过的语言如阿拉伯语和中文,为多语言AI发展提供了高效可靠的数据筛选方案。
浙江大学和西湖大学研究团队开发的Styl3R实现了艺术风格化3D重建的重大突破,能在不到一秒内从少量未标定照片和任意风格图像创建具有多视角一致性的3D艺术场景。通过创新的双分支网络架构将结构建模与外观着色分离,系统不仅保持了原始场景结构,还准确捕捉了参考风格特征。与现有方法相比,Styl3R在处理速度和视觉质量上均显著领先,为创意内容制作开辟了全新可能。