Google正在Gemini应用中推出一项新的检测功能,帮助用户回答一个关键问题:"这张图片是由AI生成的吗?"
从现在开始,Google的Gemini聊天机器人将能够检测上传图像中公司不可见的"SynthID"水印,以高度的可信度指示图片是否由Google AI模型创建或修改。
Google的AI模型在创建图像时会自动嵌入SynthID水印。虽然人眼无法看见,但可以使用专用的专有工具进行检测和解码。Google的许多现有工具已经能够检测SynthID水印,特别是目前面向记者和媒体专业人士开放的SynthID检测器门户。用户还可以通过Google Photos的"AI信息"面板查看AI归属详细信息,包括SynthID水印的存在。随着新功能集成到Gemini应用中,这种检测能力现在更加广泛可用。
然而,将这项功能添加到Gemini中,让每个人都能检查图像是否为AI生成。
如何在Gemini应用中检查Google AI图像
要分析图像,用户需要将其上传到Gemini应用或网页版Gemini,然后询问"这张图片是用AI生成的吗?"Gemini随后会分析图片并提醒用户发现的任何SynthID水印,表明该图像是用Google AI模型创建的。
即使没有找到SynthID水印,Gemini也会尝试分析图像中AI的明显迹象。Gemini 3 Pro在检测细微的AI痕迹方面特别有效,经常能发现普通观众可能错过的明显迹象,比如文本中出现常见提示词的残留、物理效果不一致的对象,或不自然光滑的"AI皮肤"外观。除了视觉痕迹,它还能发现其他线索,如生成式AI应用常用的文件命名约定和可见水印,比如Nano Banana在其AI生成图像中添加的"星花"图标。然而,与SynthID不同,这些技术无法绝对确定地确认AI生成。
Google Gemini中的SynthID:存在什么局限性?
最重要的局限性,也是一个主要问题,是SynthID只适用于Google的AI模型。其他生成式AI平台,如Midjourney或GPT Image 1,不使用SynthID水印,因此Gemini无法检测。不过,Gemini会尝试通过其他方式识别AI生成的内容,比如寻找其他AI平台通常使用的可见水印、标识和文件名,但无法给出确定答案。
更重要的是,虽然SynthID水印对于想要负责任地使用AI的创作者来说是一个有价值的工具,但它们对那些意图欺骗的人提供不了真正的防护。虽然水印对基本修改(如裁剪、调整大小或应用滤镜)保持抗性,但任何具有基本技术知识的人都能轻松破解这个系统。
Gemini中的AI内容检测:下一步是什么?
除了图像,SynthID还适用于视频、音频和文本。Google已承诺将Gemini的检测能力扩展到这些格式,但同样的局限性仍然适用。
Gemini的SynthID检测工具是朝着正确方向迈出的一步,但只是一小步,因为它仍然无法明确回答我们的核心问题:"这张图片是由AI生成的吗?"在实践中,Gemini 3 Pro识别AI图像的天生能力在这种情况下可能更有用。Google还在开发C2PA内容凭证支持,这将让用户验证来自其他平台的内容,而不仅仅是Google的。
单独的SynthID并不是深度伪造或AI虚假信息的解决方案。然而,这是一个有意义的进步,将推动用户养成验证内容而不是简单地信以为真的习惯。
Google Gemini中的SynthID检测功能正在推出,但可能需要一段时间才能覆盖所有地区。
Q&A
Q1:SynthID水印是什么?它是如何工作的?
A:SynthID是Google AI模型自动嵌入到生成图像中的不可见水印。虽然人眼无法看见,但可以使用专用工具进行检测和解码,从而确认图片是否由Google AI模型创建或修改。
Q2:Gemini能检测出所有AI生成的图片吗?
A:不能。Gemini只能检测Google AI模型生成图像中的SynthID水印。对于其他AI平台如Midjourney或GPT Image生成的图片,它只能通过分析可见水印、文件命名等线索来推测,无法给出确定答案。
Q3:如何使用Gemini检测AI图片?
A:将图片上传到Gemini应用或网页版,然后询问"这张图片是用AI生成的吗?"Gemini会分析图片中的SynthID水印和其他AI迹象,并告知检测结果。目前该功能正在推出,可能需要时间覆盖所有地区。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
华南师范大学团队开发的GraphTracer框架,通过构建信息依赖图解决多智能体系统高失败率问题。该方法摒弃传统时间序列分析,追踪信息流网络精确定位错误根源,在失败归因准确率上比现有方法提升18.18%,并已开源供实际应用。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
杜克大学研究团队通过几何框架分析发现,AI推理过程呈现连续"流动"特征而非离散跳跃。研究表明逻辑结构像河床般调节推理流的速度和方向,即使面对不同语言和领域的内容,相同逻辑结构的任务在AI内部表现出惊人的几何相似性。这一发现颠覆了AI为"随机鹦鹉"的传统认知,证明AI具备真正的逻辑理解能力,为AI可解释性和系统优化开辟新方向。