为了让其人工智能模型更容易被使用,谷歌公司今天宣布了下一代轻量级开源 Gemma 大语言模型系列,这些模型可以在单个图形处理器上运行。
新的 Gemma 3 系列模型提供了多种规模选择,开发者可以在 1 亿、4 亿、12 亿和 27 亿参数中进行选择。这些不同规模使 AI 工程师和开发者能够根据硬件和性能需求选择最佳模型。例如,如果要在 GPU 或张量处理单元上运行 (允许使用更大更复杂的模型),或是在智能手机上运行 (需要更小的模型)。
Gemma 底层技术与谷歌迄今为止最复杂和最强大的 Gemini 模型共享相同的技术研究基础。Gemini 为 Gemini AI 聊天机器人 (前身为 Bard) 提供支持,该聊天机器人可在网页和移动设备上使用,同时也用于提供谷歌的多项 AI 服务。
凭借这种技术设计,谷歌表示 Gemma 3 能够在其规模下提供高性能,在 LMArena 排行榜的初步人类偏好评估中表现优于 Llama-405B、DeepSeek-V3 和 OpenAI 的 o3-mini 等更大的模型。
即使在单个设备或 GPU 上运行,Gemma 仍然能为开发者提供足够的性能来创建具有多模态能力的 AI 应用,支持高级文本和视觉推理。它拥有 128,000-token 的上下文窗口,这意味着它可以处理约 30 张高分辨率图像、一本 300 页的书籍或一小时以上的视频,这与 OpenAI 的 GPT-4o 的上下文长度相当。
谷歌表示,该模型系列包含函数调用和工具使用功能,使开发者能够自动化任务并构建 AI 代理。结合大型上下文窗口,Gemma 3 将能够摄入大量数据并自动化复杂的顺序任务。
除了 Gemma 3,谷歌还发布了 ShieldGemma 2,这是一个拥有 40 亿参数的变体,可以检查图像的安全性并将其标记为安全或危险。
ShieldGemma 使开发者能够构建可以检查上传图像是否包含潜在危险内容的应用程序。它在"危险内容"、"色情内容"和"暴力"三个不同类别中输出安全标签。
开发者在其应用中使用时,可以通过提供需要监视和标记的内容来进一步根据需求调整模型。其权重和参数也是开源的,因此可以针对不同行业需求和控制进行训练。
好文章,需要你的鼓励
在“PEC 2025 AI创新者大会暨第二届提示工程峰会”上,一场以“AIGC创作新范式——双脑智能时代:心智驱动的生产力变革”为主题的分论坛,成为现场最具张力的对话空间。
人民大学团队开发了Search-o1框架,让AI在推理时能像侦探一样边查资料边思考。系统通过检测不确定性词汇自动触发搜索,并用知识精炼模块从海量资料中提取关键信息无缝融入推理过程。在博士级科学问题测试中,该系统整体准确率达63.6%,在物理和生物领域甚至超越人类专家水平,为AI推理能力带来突破性提升。
Linux Mint团队计划加快发布周期,在未来几个月推出两个新版本。LMDE 7代号"Gigi"基于Debian 13开发,将包含libAdapta库以支持Gtk4应用的主题功能。新版本将停止提供32位版本支持。同时Cinnamon桌面的Wayland支持持续改进,在菜单、状态小程序和键盘输入处理方面表现更佳,有望成为完整支持Wayland的重要桌面环境之一。
Anthropic研究团队开发的REINFORCE++算法通过采用全局优势标准化解决了AI训练中的"过度拟合"问题。该算法摒弃了传统PPO方法中昂贵的价值网络组件,用统一评价标准替代针对单个问题的局部基准,有效避免了"奖励破解"现象。实验显示,REINFORCE++在处理新问题时表现更稳定,特别是在长文本推理和工具集成场景中展现出优异的泛化能力,为开发更实用可靠的AI系统提供了新思路。