为了让其人工智能模型更容易被使用,谷歌公司今天宣布了下一代轻量级开源 Gemma 大语言模型系列,这些模型可以在单个图形处理器上运行。
新的 Gemma 3 系列模型提供了多种规模选择,开发者可以在 1 亿、4 亿、12 亿和 27 亿参数中进行选择。这些不同规模使 AI 工程师和开发者能够根据硬件和性能需求选择最佳模型。例如,如果要在 GPU 或张量处理单元上运行 (允许使用更大更复杂的模型),或是在智能手机上运行 (需要更小的模型)。
Gemma 底层技术与谷歌迄今为止最复杂和最强大的 Gemini 模型共享相同的技术研究基础。Gemini 为 Gemini AI 聊天机器人 (前身为 Bard) 提供支持,该聊天机器人可在网页和移动设备上使用,同时也用于提供谷歌的多项 AI 服务。
凭借这种技术设计,谷歌表示 Gemma 3 能够在其规模下提供高性能,在 LMArena 排行榜的初步人类偏好评估中表现优于 Llama-405B、DeepSeek-V3 和 OpenAI 的 o3-mini 等更大的模型。
即使在单个设备或 GPU 上运行,Gemma 仍然能为开发者提供足够的性能来创建具有多模态能力的 AI 应用,支持高级文本和视觉推理。它拥有 128,000-token 的上下文窗口,这意味着它可以处理约 30 张高分辨率图像、一本 300 页的书籍或一小时以上的视频,这与 OpenAI 的 GPT-4o 的上下文长度相当。
谷歌表示,该模型系列包含函数调用和工具使用功能,使开发者能够自动化任务并构建 AI 代理。结合大型上下文窗口,Gemma 3 将能够摄入大量数据并自动化复杂的顺序任务。
除了 Gemma 3,谷歌还发布了 ShieldGemma 2,这是一个拥有 40 亿参数的变体,可以检查图像的安全性并将其标记为安全或危险。
ShieldGemma 使开发者能够构建可以检查上传图像是否包含潜在危险内容的应用程序。它在"危险内容"、"色情内容"和"暴力"三个不同类别中输出安全标签。
开发者在其应用中使用时,可以通过提供需要监视和标记的内容来进一步根据需求调整模型。其权重和参数也是开源的,因此可以针对不同行业需求和控制进行训练。
好文章,需要你的鼓励
来自耶路撒冷希伯来大学的研究团队开发了WHISTRESS,一种创新的无需对齐的句子重音检测方法,能够识别说话者在语音中强调的关键词语。研究者基于Whisper模型增加了重音检测组件,并创建了TINYSTRESS-15K合成数据集用于训练。实验表明,WHISTRESS在多个基准测试中表现优异,甚至展示了强大的零样本泛化能力。这项技术使语音识别系统不仅能理解"说了什么",还能捕捉"如何说"的细微差别,为人机交互带来更自然的体验。
这项研究提出了"力量提示"方法,使视频生成模型能够响应物理力控制信号。研究团队来自布朗大学和谷歌DeepMind,他们通过设计两种力提示——局部点力和全局风力,让模型生成符合物理规律的视频。惊人的是,尽管仅使用约15,000个合成训练样本,模型展现出卓越的泛化能力,能够处理不同材质、几何形状和环境下的力学交互。研究还发现模型具有初步的质量理解能力,相同力量对不同质量物体产生不同影响。这一突破为交互式视频生成和直观世界模型提供了新方向。
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。