与当前大多数新型 AI 模型追求更多参数、更多 token、更多一切的趋势不同,Google 最新的 AI 模型虽然也有一些令人印象深刻的数据,但它更注重效率。Google 表示,Gemma 3 开源模型是世界上最适合在单个 GPU 或 AI 加速器上运行的模型。这款最新的 Gemma 模型主要面向需要在各种环境下(从数据中心到智能手机)创建 AI 应用的开发者。现在,你就可以开始尝试使用 Gemma 3。
相比早期的 Google 开源模型,Gemma 3 能够处理更具挑战性的任务。其上下文窗口(用于衡量可输入数据量的指标)已从之前 Gemma 模型的 8,192 个 token 扩展到了 128,000 个。基于专有的 Gemini 2.0 基础架构开发的 Gemma 3 是一个多模态模型,能够处理文本、高分辨率图像甚至视频。Google 还推出了一个名为 ShieldGemma 2 的新图像安全解决方案,可以与 Gemma 集成,帮助在危险、色情或暴力三个内容类别中屏蔽不当图像。
你所听说过的大多数流行 AI 模型都运行在数据中心的服务器集群上,这些服务器配备了大量 AI 计算能力。它们中的许多模型都过于庞大,无法在家用或办公设备上运行。去年首批 Gemma 模型的发布为开发者和爱好者提供了另一个低硬件要求的选择,可以与 Meta Llama3 等模型竞争。最近,AI 领域出现了追求效率的趋势,像 DeepSeek R1 这样的模型因其较低的计算成本而受到关注。
Google 称 Gemma 3 是"世界上最好的单加速器模型"。不过,并非该模型的所有版本都适合本地处理。它提供了多种规格,从仅支持文本的 10 亿参数小型模型(几乎可以在任何设备上运行),到需要大量内存的 270 亿参数大型版本。此外还有 40 亿和 120 亿参数的版本。在低精度模式下,最小的 Gemma 3 模型可能占用不到 1GB 内存,但超大版本即使在 4 位精度下也需要 20GB-30GB 内存。
那么 Gemma 3 的性能如何呢?Google 提供的数据显示,它在多个方面都明显优于其他开源模型。使用衡量用户偏好的 Elo 指标,Gemma 3 27B 在聊天功能方面远超 Gemma 2、Meta Llama3、OpenAI o3-mini 等模型。虽然在这个相对主观的测试中,它未能超越 DeepSeek R1,但它只需要一个 Nvidia H100 加速器就能运行,而其他模型通常需要多个 GPU。Google 表示,Gemma 3 在数学、编程和执行复杂指令方面也更加出色,但未提供具体数据支持。
你可以在 Google AI Studio 在线使用最新的 Gemma 模型。你还可以使用 Google Colab 和 Vertex AI 等工具对模型进行微调训练,或者直接使用自己的 GPU。新的 Gemma 3 模型是开源的,你可以从 Kagle 或 Hugging Face 等代码库下载。虽然 Google 的许可协议限制了使用范围,但在自己的硬件上探索时 Google 并不会知道你在做什么,这正是像 Gemma 3 这样更高效的本地模型的优势所在。
无论你想做什么,总有一个适合你硬件配置的 Gemma 模型。需要灵感?Google 新推出的"Gemmaverse"社区展示了许多基于 Gemma 模型构建的应用。
好文章,需要你的鼓励
ChatGPT发布三年后,物理AI成为行业最新热词。物理AI是指在硬件中实现的AI系统,能够感知周围世界并进行推理以执行操作。与传统机器人不同,物理AI具备推理、行动和与环境交互的能力。智能眼镜是物理AI的典型代表,能够看到和听到用户所体验的内容。高通专家指出,AI可穿戴设备可以为机器人提供基于真实人类体验的高质量数据集,形成良性生态系统。
德国弗劳恩霍夫研究院提出ViTNT-FIQA人脸质量评估新方法,无需训练即可评估图像质量。该方法基于Vision Transformer层间特征稳定性原理,通过测量图像块在相邻层级间的变化幅度判断质量。在八个国际数据集上的实验显示其性能可媲美现有最先进方法,且计算效率更高,为人脸识别系统提供了即插即用的质量控制解决方案,有望广泛应用于安防监控和身份认证等领域。
来自加州大学伯克利分校和康奈尔大学的研究团队,通过分析130万篇学术论文发现,使用ChatGPT等AI工具的科学家论文产出平均提升40-60%,且英语非母语研究者受益最大。
布朗大学联合图宾根大学的研究团队通过系统实验发现,AI医疗助手的角色设定会产生显著的情境依赖效应:医疗专业角色在急诊场景下表现卓越,准确率提升20%,但在普通医疗咨询中反而表现更差。研究揭示了AI角色扮演的"双刃剑"特性,强调需要根据具体应用场景精心设计AI身份,而非简单假设"更专业等于更安全",为AI医疗系统的安全部署提供了重要指导。