基于图像理解人工智能模型的基础,艾伦人工智能研究所今日推出了Molmo 2,这是一个适用于计算机视频和多图像理解的多模态模型系列。
2024年,Ai2发布了Molmo,该模型为图像理解设立了新的基准,并帮助建立了强大"指向"和标记能力的参考标准。这些模型不仅能够描述图像中出现的内容,还能以高置信度识别和标记物体。
Molmo 2系列包含三个变体,每个都针对不同的使用场景设计:Molmo 2 8B、Molmo 2 4B和Molmo 2-O 7B。8B和4B模型基于阿里巴巴集团的开放权重推理模型Qwen 3,提供视频定位和问答能力。Molmo 2-O变体基于Ai2的开源模型系列Olmo构建,专注于高智能和推理性能。
据Ai2介绍,较小的Molmo 2模型相对于其规模展现出了超常的性能。8B模型在关键图像理解任务和相关基准测试中超越了原始的Molmo 720亿参数模型,为效率设立了新标准。
在图像和多图像推理方面,4B变体尽管规模极其紧凑,仍在推理方面表现出色。它超越了Qwen 3-VL-8B等开放模型,且训练数据远少于类似模型。它仅使用919万个视频,而Meta平台公司的PerceptronLM使用了7250万个视频。
这些较小的规模使模型能够使用更少的硬件高效部署,降低成本的同时提高了基本能力的可用性。
Ai2首席执行官Ali Farhadi表示:"通过Olmo,我们为真正开放的AI设立了标准,去年Molmo引领行业走向指向功能;Molmo 2通过将这些能力带入视频和时间域,进一步推动了发展。"
像Molmo 2这样的模型为辅助和智能物理技术奠定了基础,通常被称为物理AI。这些系统感知、理解并推理现实世界,以便有意义地与之交互。
要让机器与环境交互,它们必须首先理解所观察到的内容。人类直觉地执行这项任务,但机器需要能够分割物体、随时间跟踪它们、一致地标记它们并分配预期属性的AI模型。
Ai2表示,Molmo 2为视频理解引入了此前没有开放模型能够提供的能力。这包括准确识别事件发生的位置和时间、在复杂场景中跟踪多个物体,以及将动作连接到帧级时间线。
这种对物理世界的改进理解对于交通摄像头、零售物品跟踪平台、安全监控系统、自动驾驶车辆和机器人等智能系统至关重要。快速分类视野中的物体及其固有特征,使机器能够推理接下来可能发生的事情。这种能力不仅对交互至关重要,对安全也同样重要。理解机器人正在观察什么从根本上改变了它选择如何响应的方式。
此外,Ai2还发布了用于训练Molmo 2的九个新开放数据集集合,总计超过900万个多模态示例,涵盖密集视频字幕、长形式问答定位、跟踪和多图像推理。仅字幕数据集就涵盖了1000多个视频,每个视频都有平均超过900字的详细描述。
据该研究所介绍,这个数据集语料库提供了视频指向、多物体跟踪、合成定位和长视频推理的混合。它表示,这些数据集结合起来为当今最完整的开放视频数据集合奠定了基础。
所有模型、数据集和评估工具现已在GitHub、Hugging Face和Ai2 Playground上公开提供,供交互式测试使用。该研究所表示将很快发布训练代码。
Q&A
Q1:Molmo 2相比原版Molmo有什么改进?
A:Molmo 2在原有图像理解基础上增加了视频理解能力,能够识别事件发生的确切位置和时间,在复杂场景中跟踪多个物体,并将动作连接到帧级时间线。8B模型甚至超越了原始720亿参数的Molmo模型性能。
Q2:Molmo 2有哪些不同的版本?
A:Molmo 2系列包含三个变体:Molmo 2 8B和4B基于阿里巴巴的Qwen 3模型,提供视频定位和问答能力;Molmo 2-O 7B基于Ai2的开源Olmo模型,专注于高智能和推理性能。
Q3:Molmo 2的视频理解能力可以应用在哪些场景?
A:Molmo 2的视频理解能力可广泛应用于交通摄像头、零售物品跟踪平台、安全监控系统、自动驾驶车辆和机器人等智能系统,帮助这些系统更好地感知、理解和推理现实世界。
好文章,需要你的鼓励
OpenAI推出ChatGPT Images新版本GPT Image 1.5,承诺更好的指令遵循、更精确的编辑功能和高达4倍的图像生成速度。该模型面向所有ChatGPT用户和API开放。这是OpenAI在CEO奥特曼宣布"红色警报"后与谷歌Gemini竞争的最新升级。新模型提供后期制作功能,支持更精细的编辑控制,能在编辑过程中保持面部相似度、光照、构图和色调的视觉一致性,解决了传统AI图像工具迭代编辑时缺乏一致性的问题。
艾伦人工智能研究所开发的olmOCR 2通过创新的单元测试训练方法,将文档识别准确率提升至82.4%,在处理复杂数学公式、表格和多栏布局方面表现卓越。该系统采用强化学习和合成数据生成技术,实现了完全开源,为全球研究者提供了先进的OCR解决方案,推动了AI技术民主化发展。
Zoom推出AI Companion 3.0,采用联邦AI架构结合自研模型与OpenAI、Anthropic等第三方大语言模型。新版本具备智能工作流、对话式工作界面等功能,可将会议对话转化为洞察、进度跟踪和文档内容。系统支持加密传输,不使用客户内容训练模型。用户可通过ai.zoom.us访问,或以每月10美元独立购买。
苹果公司发布了包含40万张图片修改案例的AI训练数据集Pico-Banana-400K,涵盖35种修图操作类型。该数据集采用严格质量控制,包含成功失败案例对比和多轮修图场景。研究显示AI在全局修改方面表现优秀,但精细操作仍有挑战。这为AI修图技术发展奠定基础,未来将让修图软件更智能易用。