全球隐私监管联盟向生成式AI行业发出警告,表示制造逼真合成图像的公司不能假装数据保护规则不适用于它们。
这份由60多个监管机构签署的联合声明包括英国信息专员办公室(ICO)和爱尔兰数据保护委员会(DPC),其核心观点很简单:如果你的模型能够令人信服地伪造一个人,你就不能假装数据保护法不存在。
签署方表示:"最新发展——特别是集成到广泛使用的社交媒体平台中的AI图像和视频生成技术——已经能够创建非自愿的私密图像、诽谤性描述以及其他以真实个人为特色的有害内容。我们特别担心对儿童和其他弱势群体的潜在伤害,如网络霸凌和/或剥削。"
这一警告发出的几周前,ICO和DPC刚刚对埃隆·马斯克的xAI公司展开正式调查,原因是有报告称其Grok聊天机器人在未经同意的情况下生成了真实人物的性图像。
该组织表示,涉足生成式AI的机构需要从一开始就建立保障措施,并仔细考虑风险,如非自愿图像、滥用他人肖像以及对儿童的潜在伤害——在这些领域,技术已经超越了社会规范,在某些情况下甚至超越了常识。
监管机构强调,法律已经涵盖了这一点,公司不能仅仅因为内容来自机器就获得免责通行证。
ICO监管风险与创新执行董事威廉·马尔科姆表示:"人们应该能够从AI中受益,而不必担心他们的身份、尊严或安全受到威胁。AI已经在我们所有人的生活中发挥着重要作用,每个人都有权期望处理其个人数据的AI系统会以尊重的方式进行。负责任的创新意味着以人为本:预测风险并建立有意义的保障措施以确保自主性、透明度和控制。"
"公众信任是AI成功采用和使用的基础。像这样的联合监管倡议显示了全球对AI系统中高标准数据保护的承诺,并有助于提供监管确定性。我们期望那些开发和部署AI的人能够负责任地行事。如果我们发现义务没有得到履行,我们将采取行动保护公众。"
关于AI生成图像的联合声明表明,如果公司希望继续将更加逼真的AI推向日常产品,他们应该期待监管机构会继续询问关于其工作原理的尴尬问题。
Q&A
Q1:全球监管机构对生成式AI图像工具的主要担忧是什么?
A:监管机构主要担忧AI图像生成技术能够创建非自愿的私密图像、诽谤性描述以及其他有害内容,特别是对儿童和弱势群体可能造成网络霸凌和剥削等伤害。他们强调这些技术不能无视现有的数据保护法规。
Q2:xAI公司的Grok聊天机器人遇到了什么问题?
A:xAI公司的Grok聊天机器人因在未经同意的情况下生成真实人物的性图像而受到英国信息专员办公室和爱尔兰数据保护委员会的正式调查。这成为监管机构发出警告的直接导火索。
Q3:AI公司需要采取哪些措施来遵守数据保护规则?
A:AI公司需要从开发初期就建立保障措施,仔细评估非自愿图像生成、滥用他人肖像等风险,特别是要保护儿童免受伤害。监管机构强调负责任的创新要以人为本,确保自主性、透明度和控制。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。