与当前大多数新型 AI 模型追求更多参数、更多 token、更多一切的趋势不同,Google 最新的 AI 模型虽然也有一些令人印象深刻的数据,但它更注重效率。Google 表示,Gemma 3 开源模型是世界上最适合在单个 GPU 或 AI 加速器上运行的模型。这款最新的 Gemma 模型主要面向需要在各种环境下(从数据中心到智能手机)创建 AI 应用的开发者。现在,你就可以开始尝试使用 Gemma 3。
相比早期的 Google 开源模型,Gemma 3 能够处理更具挑战性的任务。其上下文窗口(用于衡量可输入数据量的指标)已从之前 Gemma 模型的 8,192 个 token 扩展到了 128,000 个。基于专有的 Gemini 2.0 基础架构开发的 Gemma 3 是一个多模态模型,能够处理文本、高分辨率图像甚至视频。Google 还推出了一个名为 ShieldGemma 2 的新图像安全解决方案,可以与 Gemma 集成,帮助在危险、色情或暴力三个内容类别中屏蔽不当图像。
你所听说过的大多数流行 AI 模型都运行在数据中心的服务器集群上,这些服务器配备了大量 AI 计算能力。它们中的许多模型都过于庞大,无法在家用或办公设备上运行。去年首批 Gemma 模型的发布为开发者和爱好者提供了另一个低硬件要求的选择,可以与 Meta Llama3 等模型竞争。最近,AI 领域出现了追求效率的趋势,像 DeepSeek R1 这样的模型因其较低的计算成本而受到关注。
Google 称 Gemma 3 是"世界上最好的单加速器模型"。不过,并非该模型的所有版本都适合本地处理。它提供了多种规格,从仅支持文本的 10 亿参数小型模型(几乎可以在任何设备上运行),到需要大量内存的 270 亿参数大型版本。此外还有 40 亿和 120 亿参数的版本。在低精度模式下,最小的 Gemma 3 模型可能占用不到 1GB 内存,但超大版本即使在 4 位精度下也需要 20GB-30GB 内存。
那么 Gemma 3 的性能如何呢?Google 提供的数据显示,它在多个方面都明显优于其他开源模型。使用衡量用户偏好的 Elo 指标,Gemma 3 27B 在聊天功能方面远超 Gemma 2、Meta Llama3、OpenAI o3-mini 等模型。虽然在这个相对主观的测试中,它未能超越 DeepSeek R1,但它只需要一个 Nvidia H100 加速器就能运行,而其他模型通常需要多个 GPU。Google 表示,Gemma 3 在数学、编程和执行复杂指令方面也更加出色,但未提供具体数据支持。
你可以在 Google AI Studio 在线使用最新的 Gemma 模型。你还可以使用 Google Colab 和 Vertex AI 等工具对模型进行微调训练,或者直接使用自己的 GPU。新的 Gemma 3 模型是开源的,你可以从 Kagle 或 Hugging Face 等代码库下载。虽然 Google 的许可协议限制了使用范围,但在自己的硬件上探索时 Google 并不会知道你在做什么,这正是像 Gemma 3 这样更高效的本地模型的优势所在。
无论你想做什么,总有一个适合你硬件配置的 Gemma 模型。需要灵感?Google 新推出的"Gemmaverse"社区展示了许多基于 Gemma 模型构建的应用。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。