为了让其人工智能模型更容易被使用,谷歌公司今天宣布了下一代轻量级开源 Gemma 大语言模型系列,这些模型可以在单个图形处理器上运行。
新的 Gemma 3 系列模型提供了多种规模选择,开发者可以在 1 亿、4 亿、12 亿和 27 亿参数中进行选择。这些不同规模使 AI 工程师和开发者能够根据硬件和性能需求选择最佳模型。例如,如果要在 GPU 或张量处理单元上运行 (允许使用更大更复杂的模型),或是在智能手机上运行 (需要更小的模型)。
Gemma 底层技术与谷歌迄今为止最复杂和最强大的 Gemini 模型共享相同的技术研究基础。Gemini 为 Gemini AI 聊天机器人 (前身为 Bard) 提供支持,该聊天机器人可在网页和移动设备上使用,同时也用于提供谷歌的多项 AI 服务。
凭借这种技术设计,谷歌表示 Gemma 3 能够在其规模下提供高性能,在 LMArena 排行榜的初步人类偏好评估中表现优于 Llama-405B、DeepSeek-V3 和 OpenAI 的 o3-mini 等更大的模型。
即使在单个设备或 GPU 上运行,Gemma 仍然能为开发者提供足够的性能来创建具有多模态能力的 AI 应用,支持高级文本和视觉推理。它拥有 128,000-token 的上下文窗口,这意味着它可以处理约 30 张高分辨率图像、一本 300 页的书籍或一小时以上的视频,这与 OpenAI 的 GPT-4o 的上下文长度相当。
谷歌表示,该模型系列包含函数调用和工具使用功能,使开发者能够自动化任务并构建 AI 代理。结合大型上下文窗口,Gemma 3 将能够摄入大量数据并自动化复杂的顺序任务。
除了 Gemma 3,谷歌还发布了 ShieldGemma 2,这是一个拥有 40 亿参数的变体,可以检查图像的安全性并将其标记为安全或危险。
ShieldGemma 使开发者能够构建可以检查上传图像是否包含潜在危险内容的应用程序。它在"危险内容"、"色情内容"和"暴力"三个不同类别中输出安全标签。
开发者在其应用中使用时,可以通过提供需要监视和标记的内容来进一步根据需求调整模型。其权重和参数也是开源的,因此可以针对不同行业需求和控制进行训练。
好文章,需要你的鼓励
杜克大学研究团队建立了首个专门针对Web智能体攻击检测的综合评估标准WAInjectBench。研究发现,现有攻击手段极其多样化,从图片像素篡改到隐藏弹窗无所不包。虽然检测方法对明显恶意指令有中等效果,但对隐蔽攻击几乎无能为力。研究构建了包含近千个恶意样本的测试数据库,评估了十二种检测方法,揭示了文本和图像检测的互补性。这项研究为Web智能体安全防护指明了方向,提醒我们在享受AI便利时必须保持安全意识。
生成式AI的兴起让谷歌和Meta两大科技巨头受益匪浅。谷歌母公司Alphabet第三季度广告收入同比增长12%达742亿美元,云服务收入增长33%至151.5亿美元,季度总收入首次突破千亿美元大关。Meta第三季度收入512.5亿美元,同比增长26%。两家公司都将大幅增加AI基础设施投资,Meta预计2025年资本支出提升至700亿美元,Alphabet预计达910-930亿美元。
加州大学圣地亚哥分校研究团队系统研究了AI智能体多回合强化学习训练方法,通过环境、策略、奖励三大支柱的协同设计,提出了完整的训练方案。研究在文本游戏、虚拟家庭和软件工程等多个场景验证了方法有效性,发现简单环境训练能迁移到复杂任务,监督学习初始化能显著减少样本需求,密集奖励能改善学习效果。这为训练能处理复杂多步骤任务的AI智能体提供了实用指南。