欧盟正在推动AI公司提高透明度,周四发布了一份实践准则,帮助科技巨头为遵守欧盟具有里程碑意义的《AI法案》做好准备。
这些规则——尚未最终确定,主要涉及版权保护、透明度和公共安全——将在8月2日对最大的"通用AI"制造商生效时最初采用自愿性质。
但欧盟将从2026年8月开始执行《AI法案》,欧盟委员会指出,任何同意这些规则的公司都可能受益于"减轻行政负担和增加法律确定性",《纽约时报》报道。委员会建议,拒绝自愿规则可能迫使公司以更昂贵或更耗时的方式证明其合规性。
AI行业参与了《AI法案》的起草,但一些公司最近敦促欧盟推迟执行该法律,警告称欧盟可能因对公司施加严格限制而阻碍AI创新。
欧盟要求谷歌、Meta和OpenAI等公司自愿承诺的最具争议的承诺之一,是承诺永远不会盗版材料来训练AI。
许多AI公司备受争议地使用盗版书籍数据集来训练AI,包括Meta,该公司在因种子下载未经授权的书籍副本而受到指责后,声称单本书籍对训练AI来说价值微不足道。但欧盟不同意这种观点,建议科技公司指定员工并创建内部机制,在"合理时间范围内"处理版权持有者的投诉,版权持有者必须被允许将其创意作品从AI训练数据集中排除。
欧盟规则迫使AI制造商采取行业大多抵制的其他措施。最值得注意的是,AI公司需要分享有关其训练数据的详细信息,包括提供关键模型设计选择的理由,并准确披露其训练数据的来源。这可能会更清楚地显示每个公司的模型在多大程度上依赖于公开可用数据,而不是用户数据、第三方数据、合成数据或某些新兴数据源。
该准则还详细说明了对AI公司尊重付费墙以及限制爬虫的robots.txt指令的期望,这可能有助于解决AI爬虫过度访问网站的日益严重问题。它"鼓励"在线搜索巨头采用Cloudflare目前正在推动的解决方案:允许内容创作者通过限制AI爬虫来保护版权,而不影响搜索索引。
此外,公司被要求披露训练和推理的总能耗,使欧盟能够在公司加速AI创新的同时发现环境问题。
更重要的是,该准则的安全指导为监控其他危害提供了额外措施。它建议检测和避免新AI模型的"严重事件",这可能包括网络安全漏洞、关键基础设施中断、"对人身健康(精神和/或身体)的严重伤害"或"人员死亡"。它规定在5到10天的时间内向欧盟AI办公室报告严重事件的时间表。它要求公司跟踪所有事件,提供"充分水平"的网络安全保护,尽最大努力防止越狱,并证明"系统性风险缓解措施的任何失败或规避"的合理性。
Ars联系了科技公司,希望获得对新规则的即时反应。OpenAI、Meta和微软拒绝置评。谷歌发言人确认公司正在审查该准则,该准则仍需要在预期的行业反对声中获得欧盟委员会和欧盟成员国的批准。
"欧洲人应该在一流、安全的AI模型可用时获得使用权,并拥有促进创新和投资的环境,"谷歌发言人说。"我们期待审查该准则,并与其他模型提供商和许多其他方一起分享我们的观点。"
这些规则只是《AI法案》的一部分,据《纽约时报》报道,该法案将在未来一年或更长时间内分阶段开始生效。《彭博社》指出,违反《AI法案》可能导致AI模型被撤出市场或面临"高达公司年销售额7%或先进AI模型开发公司3%"的罚款。
好文章,需要你的鼓励
Helios Towers供应链总监Dawn McCarroll在采访中分享了公司的数字化转型经验。作为一家在非洲和中东地区运营近15000个移动通信塔站的公司,Helios正通过SAP S/4Hana系统升级、AI技术应用和精益六西格玛方法论来优化供应链管理。McCarroll特别强调了公司Impact 2030战略中的数字包容性目标,计划在未来五年内培训60%的合作伙伴员工掌握精益六西格玛原则,并利用大数据和AI技术实现端到端的供应链集成。
德国弗劳恩霍夫研究院提出ViTNT-FIQA人脸质量评估新方法,无需训练即可评估图像质量。该方法基于Vision Transformer层间特征稳定性原理,通过测量图像块在相邻层级间的变化幅度判断质量。在八个国际数据集上的实验显示其性能可媲美现有最先进方法,且计算效率更高,为人脸识别系统提供了即插即用的质量控制解决方案,有望广泛应用于安防监控和身份认证等领域。
威胁行为者在npm注册表上传8个恶意包,伪装成n8n工作流自动化平台的集成组件来窃取开发者OAuth凭据。其中一个名为"n8n-nodes-hfgjf-irtuinvcm-lasdqewriit"的包模仿Google Ads集成,诱导用户在看似合法的表单中关联广告账户,然后将凭据传输到攻击者控制的服务器。这种攻击利用了工作流自动化平台作为集中凭据库的特点,能够获取多个服务的OAuth令牌和API密钥。
布朗大学联合图宾根大学的研究团队通过系统实验发现,AI医疗助手的角色设定会产生显著的情境依赖效应:医疗专业角色在急诊场景下表现卓越,准确率提升20%,但在普通医疗咨询中反而表现更差。研究揭示了AI角色扮演的"双刃剑"特性,强调需要根据具体应用场景精心设计AI身份,而非简单假设"更专业等于更安全",为AI医疗系统的安全部署提供了重要指导。