Google LLC的两大研究部门在大语言模型隐私保护领域取得重大突破,推出了名为VaultGemma的新模型,这是全球最强大的"差分隐私大语言模型"。
VaultGemma是一个基于Google Gemma架构的10亿参数模型,采用先进的数学算法防止敏感数据泄露。差分隐私是一种数学算法,通过确保单个信息的包含或排除不会显著影响整体结果来保护数据共享时的隐私。该技术通过向数据集添加受控噪声来实现,使任何人都难以识别其中的特定信息。
这项技术长期以来在受监管行业中用于保护敏感信息,在AI隐私保护方面也具有巨大潜力。然而,将其应用于大语言模型一直充满挑战,导致模型稳定性和效率方面的权衡。VaultGemma旨在克服这些问题,实现在不牺牲性能的情况下使用差分隐私。
VaultGemma由Google Research与Google DeepMind合作开发。研究人员在周五的博客文章中表示,他们专注于消除差分隐私训练中固有的计算-隐私-效用权衡问题。
他们面临的挑战是,传统的缩放定律(根据计算资源和数据大小预测AI模型性能)在应用差分隐私时无法适用,因为增加的噪声和更大的批处理规模。因此,团队设计了新的缩放定律,考虑这些因素以支持开发更大、更强大的私有大语言模型。
VaultGemma从零开始使用差分隐私框架进行训练,确保它无法记住或泄露敏感数据。研究人员表示,这是一个关键特性,对金融和医疗等受监管行业的AI应用具有重大意义。
在Google对MMLU和Big-Bench等多个基准的评估中,VaultGemma展现出远超早期差分隐私模型的性能水平,与具有相似参数数量的非私有大语言模型相当,且不牺牲隐私。例如,结果显示它在推理和问答任务上与早期非私有Gemma模型能力相当,但没有暴露训练数据的风险。
VaultGemma的关键创新之一是研究人员调整了训练协议以处理噪声添加引起的不稳定性。Google的研究显示差分隐私如何改变大语言模型的学习动态。因此,差分隐私模型需要包含数百万示例的更大批处理规模来稳定训练。这通常意味着更大的计算需求,但研究人员想出了一些技巧来降低这些成本,可能降低私有模型采用的门槛。
在架构上,VaultGemma是基于Google Gemma 2架构的仅解码器Transformer模型,具有26层并使用多查询注意力机制。研究人员表示,关键设计选择之一是将序列长度限制为1024个Token,这有助于管理私有训练的密集计算需求。开发过程由一套新颖的"差分隐私缩放定律"指导,为平衡计算能力、隐私预算和模型效用之间的权衡提供框架。
Google研究人员表示,他们正在Hugging Face和Kaggle上以开源许可证提供VaultGemma及其权重和代码库,以普及私有AI的访问。这一步骤与Google通常的做法形成直接对比,其最强大的专有大语言模型如Gemini Pro是AI"黑盒子"的典型例子。
开源VaultGemma的决定可能是Google的战略举措,试图在不断发展的法规面前建立AI隐私领域的领先地位,并加速在数据敏感性通常阻碍创新的行业中的发展。研究人员表示,Google的差分隐私缩放定律应该适用于更大的私有大语言模型,可能达到万亿参数。随着企业应对数据隐私问题,VaultGemma可以作为安全AI创新的蓝图。
Google已在考虑与主要医疗服务提供商合作的可能性,设想VaultGemma用于分析敏感患者数据而不存在隐私泄露风险。
VaultGemma也可能对道德AI产生影响。通过拒绝透露其训练数据,该模型减轻了误信息和偏见放大的风险,这可能有助于推进负责任AI模型的发展。
Q&A
Q1:VaultGemma是什么?它有什么特殊功能?
A:VaultGemma是Google开发的全球最强大的差分隐私大语言模型,拥有10亿参数。它的特殊功能是能够在不牺牲性能的情况下保护隐私,通过差分隐私技术确保无法记住或泄露敏感数据,适用于金融和医疗等受监管行业。
Q2:差分隐私技术是如何工作的?
A:差分隐私是一种数学算法,通过向数据集添加受控噪声来保护隐私。它确保单个信息的包含或排除不会显著影响整体结果,使任何人都难以识别数据集中的特定信息,从而在数据共享时保护隐私。
Q3:VaultGemma与传统大语言模型相比有什么优势?
A:VaultGemma的主要优势是在保持与非私有模型相当性能的同时,提供强大的隐私保护。在MMLU和Big-Bench等基准测试中,它的表现远超早期差分隐私模型,在推理和问答任务上与早期Gemma模型能力相当,但完全没有数据泄露风险。
好文章,需要你的鼓励
英特尔第三季度财报超华尔街预期,净收入达41亿美元。公司通过裁员等成本削减措施及软银、英伟达和美国政府的大额投资实现复苏。第三季度资产负债表增加200亿美元,营收增长至137亿美元。尽管财务表现强劲,但代工业务的未来发展策略仍不明朗,该业务一直表现不佳且面临政府投资条件限制。
美国认知科学研究院团队首次成功将进化策略扩展到数十亿参数的大语言模型微调,在多项测试中全面超越传统强化学习方法。该技术仅需20%的训练样本就能达到同等效果,且表现更稳定,为AI训练开辟了全新路径。
微软发布新版Copilot人工智能助手,支持最多32人同时参与聊天会话的Groups功能,并新增连接器可访问OneDrive、Outlook、Gmail等多项服务。助手记忆功能得到增强,可保存用户信息供未来使用。界面新增名为Mico的AI角色,并提供"真实对话"模式生成更机智回应。医疗研究功能也得到改进,可基于哈佛健康等可靠来源提供答案。同时推出内置于Edge浏览器的Copilot Actions功能,可自动执行退订邮件、预订餐厅等任务。
纽约大学等机构联合开发的ThermalGen系统能够将普通彩色照片智能转换为对应的热成像图片,解决了热成像数据稀缺昂贵的难题。该系统采用创新的流匹配生成模型和风格解耦机制,能适应从卫星到地面的多种拍摄场景,在各类测试中表现优异。研究团队还贡献了三个大规模新数据集,并计划开源全部技术资源,为搜救、建筑检测、自动驾驶等领域提供强有力的技术支撑。