Google推出VaultGemma模型,引领隐私保护AI新标准

谷歌推出全球最强差分私有大语言模型VaultGemma,这是一个10亿参数的模型,基于Gemma架构构建。该模型采用先进数学算法防止敏感数据泄露,通过在数据集中添加受控噪声实现隐私保护。VaultGemma在多项基准测试中表现卓越,性能可媲美同等参数的非私有模型,但完全不会暴露训练数据,为金融和医疗等监管行业的AI应用提供重要保障。

Google LLC的两大研究部门在大语言模型隐私保护领域取得重大突破,推出了名为VaultGemma的新模型,这是全球最强大的"差分隐私大语言模型"。

VaultGemma是一个基于Google Gemma架构的10亿参数模型,采用先进的数学算法防止敏感数据泄露。差分隐私是一种数学算法,通过确保单个信息的包含或排除不会显著影响整体结果来保护数据共享时的隐私。该技术通过向数据集添加受控噪声来实现,使任何人都难以识别其中的特定信息。

这项技术长期以来在受监管行业中用于保护敏感信息,在AI隐私保护方面也具有巨大潜力。然而,将其应用于大语言模型一直充满挑战,导致模型稳定性和效率方面的权衡。VaultGemma旨在克服这些问题,实现在不牺牲性能的情况下使用差分隐私。

VaultGemma由Google Research与Google DeepMind合作开发。研究人员在周五的博客文章中表示,他们专注于消除差分隐私训练中固有的计算-隐私-效用权衡问题。

他们面临的挑战是,传统的缩放定律(根据计算资源和数据大小预测AI模型性能)在应用差分隐私时无法适用,因为增加的噪声和更大的批处理规模。因此,团队设计了新的缩放定律,考虑这些因素以支持开发更大、更强大的私有大语言模型。

VaultGemma从零开始使用差分隐私框架进行训练,确保它无法记住或泄露敏感数据。研究人员表示,这是一个关键特性,对金融和医疗等受监管行业的AI应用具有重大意义。

在Google对MMLU和Big-Bench等多个基准的评估中,VaultGemma展现出远超早期差分隐私模型的性能水平,与具有相似参数数量的非私有大语言模型相当,且不牺牲隐私。例如,结果显示它在推理和问答任务上与早期非私有Gemma模型能力相当,但没有暴露训练数据的风险。

VaultGemma的关键创新之一是研究人员调整了训练协议以处理噪声添加引起的不稳定性。Google的研究显示差分隐私如何改变大语言模型的学习动态。因此,差分隐私模型需要包含数百万示例的更大批处理规模来稳定训练。这通常意味着更大的计算需求,但研究人员想出了一些技巧来降低这些成本,可能降低私有模型采用的门槛。

在架构上,VaultGemma是基于Google Gemma 2架构的仅解码器Transformer模型,具有26层并使用多查询注意力机制。研究人员表示,关键设计选择之一是将序列长度限制为1024个Token,这有助于管理私有训练的密集计算需求。开发过程由一套新颖的"差分隐私缩放定律"指导,为平衡计算能力、隐私预算和模型效用之间的权衡提供框架。

Google研究人员表示,他们正在Hugging Face和Kaggle上以开源许可证提供VaultGemma及其权重和代码库,以普及私有AI的访问。这一步骤与Google通常的做法形成直接对比,其最强大的专有大语言模型如Gemini Pro是AI"黑盒子"的典型例子。

开源VaultGemma的决定可能是Google的战略举措,试图在不断发展的法规面前建立AI隐私领域的领先地位,并加速在数据敏感性通常阻碍创新的行业中的发展。研究人员表示,Google的差分隐私缩放定律应该适用于更大的私有大语言模型,可能达到万亿参数。随着企业应对数据隐私问题,VaultGemma可以作为安全AI创新的蓝图。

Google已在考虑与主要医疗服务提供商合作的可能性,设想VaultGemma用于分析敏感患者数据而不存在隐私泄露风险。

VaultGemma也可能对道德AI产生影响。通过拒绝透露其训练数据,该模型减轻了误信息和偏见放大的风险,这可能有助于推进负责任AI模型的发展。

Q&A

Q1:VaultGemma是什么?它有什么特殊功能?

A:VaultGemma是Google开发的全球最强大的差分隐私大语言模型,拥有10亿参数。它的特殊功能是能够在不牺牲性能的情况下保护隐私,通过差分隐私技术确保无法记住或泄露敏感数据,适用于金融和医疗等受监管行业。

Q2:差分隐私技术是如何工作的?

A:差分隐私是一种数学算法,通过向数据集添加受控噪声来保护隐私。它确保单个信息的包含或排除不会显著影响整体结果,使任何人都难以识别数据集中的特定信息,从而在数据共享时保护隐私。

Q3:VaultGemma与传统大语言模型相比有什么优势?

A:VaultGemma的主要优势是在保持与非私有模型相当性能的同时,提供强大的隐私保护。在MMLU和Big-Bench等基准测试中,它的表现远超早期差分隐私模型,在推理和问答任务上与早期Gemma模型能力相当,但完全没有数据泄露风险。

来源:SiliconANGLE

0赞

好文章,需要你的鼓励

2025

09/15

15:30

分享

点赞

邮件订阅