Hugging Face Inc. 今天开源了 SmolVLM-256M,这是一个在其类别中参数量最少的新型视觉语言模型。
该算法的小型特性使其能够在处理能力相对有限的消费级笔记本电脑等设备上运行。据 Hugging Face 表示,它甚至可能在浏览器中运行。后者得益于该模型对 WebGPU 的支持,这项技术允许 AI 驱动的网页应用程序使用用户电脑中的图形处理器。
SmolVLM-256M 可用于多种视觉数据处理任务。它可以回答关于扫描文档的问题、描述视频内容并解释图表。Hugging Face 还开发了一个版本的模型,可以根据用户提示定制输出内容。
从技术角度看,SmolVLM-256M 拥有 2.56 亿个参数。这仅是最先进基础模型中数千亿参数的一小部分。模型的参数量越低,所需的硬件资源就越少,这也是为什么 SmolVLM-256M 能够在笔记本电脑等设备上运行。
该算法是 Hugging Face 发布的一系列开源视觉语言模型中的最新成果。与该公司早期模型相比,SmolVLM-256M 的主要改进之一是使用了新的编码器。这是一个软件模块,负责将 AI 处理的文件转换为神经网络更容易处理的数学结构编码。
SmolVLM-256M 的编码器基于开源 AI 模型 SigLIP base patch-16/512。后者则源自 OpenAI 在 2021 年发布的图像处理模型。该编码器包含 9300 万个参数,不到 Hugging Face 上一代编码器参数数量的四分之一,这帮助公司减少了 SmolVLM-256M 的硬件需求。
Hugging Face 的工程师 Andres Marafioti、Miquel Farré 和 Merve Noyan 在博客文章中写道:"作为额外收益,更小的编码器可以处理更高分辨率的图像,根据苹果和谷歌的研究,这通常可以在不增加参数数量的情况下获得更好的视觉理解能力。"
该公司使用其前代视觉语言模型的改进数据集来训练这个 AI。为了提升 SmolVLM-256M 的推理能力,Hugging Face 在数据集中加入了一系列手写数学表达式。公司还进行了其他补充,旨在提高模型的文档理解和图像描述能力。
在内部评估中,Hugging Face 将 SmolVLM-256M 与其 18 个月前发布的一个拥有 800 亿参数的多模态模型进行了比较。在超过半数的基准测试中,前者获得了更高的分数。在一个名为 MathVista 的包含几何问题的基准测试中,SmolVLM-256M 的得分高出超过 10%。
Hugging Face 同时推出了第二个更强大的算法 SmolVLM-500M,它拥有 5 亿个参数。它牺牲了一些硬件效率来换取更高的输出质量。根据 Hugging Face 的说法,SmolVLM-500M 在遵循用户指令方面也表现得更好。
公司的工程师写道:"如果你需要更多性能空间,同时仍然保持较低的内存使用率,SmolVLM-500M 是我们的五亿参数折中方案。"
Hugging Face 已将这两个模型的源代码上传到其同名 AI 项目托管平台。
好文章,需要你的鼓励
随着5G流量快速增长和新用例不断涌现,网络运营商需要在最小化环境影响的同时管理密集网络使用。Orange法国与爱立信合作开展创新试验,测试FDD大规模MIMO天线集成无线电,优化高流量区域频谱使用。双方还探索Cloud RAN和Open RAN架构,通过虚拟化RAN功能实现灵活的软件中心网络。合作重点关注利用AI驱动的自动化和意图驱动技术提升能源效率,在不影响性能的前提下动态调整网络资源以降低能耗。
谷歌DeepMind等顶级机构联合研究揭示,当前12种主流AI安全防护系统在面对专业自适应攻击时几乎全部失效,成功率超过90%。研究团队通过强化学习、搜索算法和人类红队攻击等多种方法,系统性地突破了包括提示工程、对抗训练、输入过滤和秘密检测在内的各类防护技术,暴露了AI安全评估的根本缺陷。
微软正在将Windows 11改造为"智能代理操作系统",在任务栏中集成AI代理功能。新功能允许AI代理在后台执行任务,用户可通过任务栏图标查看进度状态。微软还在文件资源管理器中集成Copilot,提供文档摘要、文件问答等功能。此外,Click to Do功能得到改进,可将网页表格转换为Excel文档。这些AI功能采用本地AI和云端AI混合模式,为用户提供更智能的操作体验。
西蒙弗雷泽大学和Adobe研究院联合开发的MultiCOIN技术,能够将两张静态图片转换为高质量的过渡视频。该技术支持轨迹、深度、文本和区域四种控制方式,可单独或组合使用。采用双分支架构和分阶段训练策略,在运动控制精度上比现有技术提升53%以上,为视频制作提供了前所未有的灵活性和精确度。