有一定道理,但也并非完全如此,情况较为复杂。
一位软件开发者声称已对谷歌DeepMind的SynthID系统进行了逆向工程,并展示了如何从生成图像中剥离AI水印,或将其手动嵌入其他作品。对此,谷歌方面表示,该说法并不属实。
这位开发者以用户名"Aloshdenny"为网络身份,已在GitHub上开源了其研究成果,并记录了整个过程。据其描述,这一切只需要200张由Gemini生成的图像、一些信号处理知识,以及"大把闲暇时光"。
"不需要神经网络,不需要专有访问权限,"Aloshdenny在Medium上写道,"事实证明,只要你没有工作,把足够多的'纯黑色'AI生成图像取平均,每一个非零像素就是水印本身,就这么简单。"
SynthID是一套几乎不可见的水印系统,专门为谷歌AI工具生成的内容打上标记,在图像创建之初便将水印嵌入像素层中。该系统在设计上具备高度抗删除性——强行去除水印会明显损伤图像质量。目前,SynthID已被广泛应用于谷歌旗下各类AI产品,包括Nano Banana和Veo 3等模型的输出内容,甚至YouTube上由AI生成的创作者虚拟克隆内容也加载了SynthID水印。
以下是一组对比图:左侧为仍保留SynthID水印的图像,右侧为水印被部分移除、足以欺骗检测器后的效果。两者之间仅有细微的视觉差异,说明去除过程对图像质量的损耗极为有限。
Aloshdenny表示,他认为SynthID是"真正优秀的工程作品",并坦承在测试中始终无法将水印彻底清除,最终只能采用干扰SynthID解码器读取水印图像的方式来绕过检测。
破解谷歌水印底层机制的过程,对于非开发者而言具有相当的技术门槛。如有兴趣,可前往Aloshdenny的Medium页面阅读完整分析(据称是在特定状态下撰写的)。以下是简化版说明:
第一步,使用Gemini生成200张全黑或纯白图像,增强对比度与饱和度,再对饱和度进行降噪处理,以此暴露水印图案。
第二步,对所有图案取均值,找出每个频率区间、每个通道上水印信号的幅度与相位。
第三步,在目标图像中搜寻这些频率的踪迹,并以水印嵌入时的相同角度,将其部分移除。
"我最多只能做到让解码器产生混乱、令其放弃读取,而不是真正删除水印——这本身就说明它的设计有多出色,"Aloshdenny表示,"它并不完美,但它的目标也不是做到无懈可击,而是将滥用成本提高到让大多数人望而却步的程度。"
笔者尚未亲自测试Aloshdenny这个针对谷歌SynthID水印系统的逆向工程项目,因此无法对其实际效果作出保证。就目前情况而言,SynthID似乎并未真正意义上被破解——至少还没有到任何人都能下载工具、一键去除或伪造谷歌水印以欺骗AI检测系统的程度。谷歌方面同样不认可Aloshdenny的相关声明。
"声称该工具可以系统性地去除SynthID水印,这种说法是错误的,"谷歌发言人Myriam Khan向The Verge表示,"SynthID是一套针对AI生成内容的强健、高效水印工具。"
Q&A
Q1:SynthID是什么?它是如何工作的?
A:SynthID是谷歌DeepMind开发的一套近乎不可见的AI内容水印系统。它在图像生成之初便将水印直接嵌入像素层,设计上具备高度抗删除性——强行去除会明显损伤图像质量。目前,SynthID已被广泛部署于谷歌旗下AI产品,包括Nano Banana、Veo 3等模型的输出内容,以及YouTube上的AI生成虚拟克隆内容。
Q2:Aloshdenny是如何尝试破解SynthID的?
A:Aloshdenny使用Gemini生成了200张纯黑或纯白图像,通过增强对比度、饱和度并进行降噪处理来暴露水印图案,再对图案取均值找出水印信号的频率特征,最终在目标图像中定位并部分移除相关频率。整个过程不涉及神经网络或专有访问权限,仅依赖信号处理技术。
Q3:SynthID有没有被彻底破解?
A:目前来看没有。Aloshdenny本人也承认,其最多只能干扰SynthID解码器使其放弃读取,而无法将水印彻底删除。谷歌发言人也明确表示,该工具无法系统性地去除SynthID水印,SynthID仍是一套针对AI生成内容的强健有效的水印工具。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。