与当前大多数新型 AI 模型追求更多参数、更多 token、更多一切的趋势不同,Google 最新的 AI 模型虽然也有一些令人印象深刻的数据,但它更注重效率。Google 表示,Gemma 3 开源模型是世界上最适合在单个 GPU 或 AI 加速器上运行的模型。这款最新的 Gemma 模型主要面向需要在各种环境下(从数据中心到智能手机)创建 AI 应用的开发者。现在,你就可以开始尝试使用 Gemma 3。
相比早期的 Google 开源模型,Gemma 3 能够处理更具挑战性的任务。其上下文窗口(用于衡量可输入数据量的指标)已从之前 Gemma 模型的 8,192 个 token 扩展到了 128,000 个。基于专有的 Gemini 2.0 基础架构开发的 Gemma 3 是一个多模态模型,能够处理文本、高分辨率图像甚至视频。Google 还推出了一个名为 ShieldGemma 2 的新图像安全解决方案,可以与 Gemma 集成,帮助在危险、色情或暴力三个内容类别中屏蔽不当图像。
你所听说过的大多数流行 AI 模型都运行在数据中心的服务器集群上,这些服务器配备了大量 AI 计算能力。它们中的许多模型都过于庞大,无法在家用或办公设备上运行。去年首批 Gemma 模型的发布为开发者和爱好者提供了另一个低硬件要求的选择,可以与 Meta Llama3 等模型竞争。最近,AI 领域出现了追求效率的趋势,像 DeepSeek R1 这样的模型因其较低的计算成本而受到关注。
Google 称 Gemma 3 是"世界上最好的单加速器模型"。不过,并非该模型的所有版本都适合本地处理。它提供了多种规格,从仅支持文本的 10 亿参数小型模型(几乎可以在任何设备上运行),到需要大量内存的 270 亿参数大型版本。此外还有 40 亿和 120 亿参数的版本。在低精度模式下,最小的 Gemma 3 模型可能占用不到 1GB 内存,但超大版本即使在 4 位精度下也需要 20GB-30GB 内存。
那么 Gemma 3 的性能如何呢?Google 提供的数据显示,它在多个方面都明显优于其他开源模型。使用衡量用户偏好的 Elo 指标,Gemma 3 27B 在聊天功能方面远超 Gemma 2、Meta Llama3、OpenAI o3-mini 等模型。虽然在这个相对主观的测试中,它未能超越 DeepSeek R1,但它只需要一个 Nvidia H100 加速器就能运行,而其他模型通常需要多个 GPU。Google 表示,Gemma 3 在数学、编程和执行复杂指令方面也更加出色,但未提供具体数据支持。
你可以在 Google AI Studio 在线使用最新的 Gemma 模型。你还可以使用 Google Colab 和 Vertex AI 等工具对模型进行微调训练,或者直接使用自己的 GPU。新的 Gemma 3 模型是开源的,你可以从 Kagle 或 Hugging Face 等代码库下载。虽然 Google 的许可协议限制了使用范围,但在自己的硬件上探索时 Google 并不会知道你在做什么,这正是像 Gemma 3 这样更高效的本地模型的优势所在。
无论你想做什么,总有一个适合你硬件配置的 Gemma 模型。需要灵感?Google 新推出的"Gemmaverse"社区展示了许多基于 Gemma 模型构建的应用。
好文章,需要你的鼓励
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。