越来越多寻求构建更大AI模型的公司受到高质量训练数据不足的制约。随着科技公司在网络上搜寻更多数据来训练模型,它们可能越来越依赖潜在的敏感用户数据。Google Research团队正在探索新技术,使生成的大语言模型不太可能"记忆"任何此类内容。
大语言模型具有非确定性的输出,这意味着无法准确预测它们会说什么。虽然即使对于相同的输入,输出也会有所不同,但模型有时确实会重现训练数据中的内容——如果使用个人数据进行训练,输出可能违反用户隐私。如果受版权保护的数据进入训练数据(无论是意外还是故意),其在输出中的出现会给开发者带来不同类型的麻烦。差分隐私可以通过在训练阶段引入校准噪声来防止这种记忆。
为模型添加差分隐私在准确性和计算需求方面会带来缺点。直到现在,还没有人费心研究这在多大程度上改变了AI模型的扩展规律。该团队基于模型性能主要受噪声批次比影响的假设开展工作,该比率比较了随机化噪声的量与原始训练数据的大小。
通过运行不同模型大小和噪声批次比的实验,团队建立了对差分隐私扩展规律的基本理解,这是计算预算、隐私预算和数据预算之间的平衡。简而言之,更多噪声会导致较低质量的输出,除非用更高的计算预算(FLOPs)或数据预算(Token)来抵消。该论文详细介绍了私有大语言模型的扩展规律,这可以帮助开发者找到理想的噪声批次比,使模型更加私密。
构建VaultGemma
这项差分隐私工作催生了一个名为VaultGemma的新开放权重Google模型。该模型使用差分隐私来减少记忆的可能性,这可能改变Google在未来AI智能体中构建隐私保护的方式。不过目前,该公司的首个差分隐私模型只是一个实验。
VaultGemma基于Gemma 2基础模型,该模型比Google最新的开放模型系列落后一代。团队使用从初始测试中得出的扩展规律,以最优差分隐私训练VaultGemma。这个模型在整体规模上并不是特别大,只有10亿个参数。然而,Google Research表示VaultGemma的表现与类似规模的非私有模型相似。
该团队希望这项差分隐私扩展规律的工作将帮助其他人有效分配资源来训练私有AI模型。这可能不会改变最大和最强AI模型的运行方式——在超大型通用模型中,性能就是一切。而且无论如何,研究表明差分隐私在较小的大语言模型中效果更好,比如驱动特定AI功能的专用模型。
您现在可以从Hugging Face和Kaggle下载VaultGemma。与其他Gemma模型一样,这个模型具有开放权重,但并非完全开源。虽然Google允许您修改和分发Gemma模型,但您必须同意不将其用于恶意目的,并在任何修改版本中分发Gemma许可证的副本。
Q&A
Q1:VaultGemma是什么?有什么特别之处?
A:VaultGemma是Google发布的首个隐私保护大语言模型,基于Gemma 2基础模型构建。它使用差分隐私技术来减少模型"记忆"训练数据的可能性,从而避免在输出中泄露敏感用户数据或受版权保护的内容。
Q2:差分隐私技术是如何保护隐私的?
A:差分隐私通过在训练阶段引入校准噪声来防止模型记忆训练数据中的具体内容。这样即使模型使用了个人数据或受版权保护的数据进行训练,也不太可能在输出中重现这些敏感信息,从而保护用户隐私。
Q3:在哪里可以获取VaultGemma模型?
A:VaultGemma现在可以从Hugging Face和Kaggle下载。该模型具有开放权重,用户可以修改和分发,但需要同意不用于恶意目的,并在修改版本中包含Gemma许可证副本。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。