大科技公司警告过度监管可能会扼杀创新

数据与信任联盟(Data and Trust Alliance)是一个由企业和机构组成的联合体,其中包括通用汽车(GM)、国际商业机器公司(IBM)、万事达卡(Mastercard)、元公司(Meta)和美国国家橄榄球联盟(NFL)。该联盟于周五(9月26日)发布了指导原则,呼吁政策制定者改进AI监管的协调性,同时警告过度监管可能会扼杀创新。
2024年9月26日发布一个由科技巨头和行业领袖组成的联盟正敦促美国联邦政府理性针对人工智能(AI)制定新法规。
数据与信任联盟(Data and Trust Alliance)是一个由企业和机构组成的联合体,其中包括通用汽车(GM)、国际商业机器公司(IBM)、万事达卡(Mastercard)、元公司(Meta)和美国国家橄榄球联盟(NFL)。该联盟于周五(9月26日)发布了指导原则,呼吁政策制定者改进AI监管的协调性,同时警告过度监管可能会扼杀创新。
该联盟建议监管者在引入新的AI治理法规之前,应先审查现有政策,并指出:“只有在必要时,为了解决监管空白,才应引入新法规。”这些建议还鼓励立法者“关注AI在特定用例中造成的潜在危害”,而不是试图对这一新兴技术进行广泛监管。
国际商业机器公司首席商务官罗伯·托马斯(Rob Thomas)在一份声明中表示:“智能监管应聚焦于AI风险最高的用途,并促使公司对其创建和部署的AI负责,这是保护消费者同时释放AI巨大潜力的最佳方式。”
这些建议是在参议院领导人推动白宫加强保护以防范与AI相关风险(如算法决策中的偏见)的背景下提出的。参议院多数党领袖查克·舒默(Chuck Schumer,纽约州民主党人)和参议员爱德华·马基(Edward Markey,马萨诸塞州民主党人)于周一联名致信管理和预算办公室,敦促加强对“超强化、AI驱动的算法”的保护,这些算法“有可能加剧和放大由于算法训练和测试不足,边缘化社区已经遭受的歧视”。
信中写道:“当实体使用算法做出‘具有重大影响的决策’时,如个人的求职申请、在医院的治疗、教育机构的录取或抵押贷款资格,其风险——及危害——尤其高。”
这些建议敦促政策制定者关注高风险AI用例,避免对具有积极结果的应用过度监管。该联盟将此框架描述为“具有重大影响的决策方法”,即狭义地制定法规以填补现有法规的空白,优先考虑高风险用例,并将AI规则融入现有政策中。
当发现AI监管存在空白时,该联盟建议政策制定者集中精力定义与潜在危害相关的具体AI用例。

大科技公司警告过度监管可能会扼杀创新

 

D&TA 建议:框定“重大决策”

2024年9月26日发布

由数据与信任联盟AI政策工作组撰写

摘要:

人工智能(AI)是一种强大的技术,有潜力彻底改变我们的生活和工作方式。

政策制定者不应试图将AI作为一种技术进行监管,而应专注于技术在特定用例中可能带来的潜在危害。

在考虑监管时,监管机构应首先审查现有法规,以确定其是否涵盖了令人担忧的问题。只有在必要时,为解决监管漏洞才应引入新的法规。

当需要新的监管时,关注AI是否以及如何在直接影响人们生活的重大决策中被使用是有益的。

政策制定者还应努力协调不同管辖区的法规。

为协助政策制定者,本备忘录提供了一些原则,以最佳方式接近AI监管,以保护人们,同时允许创新和创造力蓬勃发展。

人工智能可以为经济发展、创造力和创新创造无与伦比的机会。但像所有技术一样,如果被滥用,AI可能会带来伤害风险。为了保护人们免受这些伤害,政策制定者可能会做出不必要、令人困惑或过于宽泛的监管——这将损害AI的巨大潜力。更好的方法是优先平衡保护与最大限度地让人们获得AI的许多好处。这包括创建一个促进一致性和灵活性的政策环境,以促进健康的技术生态系统。

许多公司、跨行业团体、政策制定者、学者和民间社会成员正在通过提出的标准、框架和监管倡议,努力推进这种方法。下面的建议旨在补充而不是取代这些努力。我们的建议(见最后一页的框)旨在保留政策制定者资源并推动监管平衡,为现有技术和有益的、低风险的应用留出空间,这些应用不会引发新的问题。

新的监管应解决真正的漏洞

在考虑新的监管之前,政策制定者应首先审查现有的法律环境。在许多情况下,现有的法律和监管指导足以覆盖相关的问题,特别是如果它们是技术中立的。尽可能依赖现有框架,可以减少创建重叠或冲突规则的风险,这些规则会导致法律不确定性和不一致的保护。例如,民权、消费者保护、安全、知识产权,以及重要的是,数据隐私规则通常已经涵盖了与AI相关的许多最重要的风险。

只有在存在漏洞的情况下,政策制定者才应考虑新的法规,然后他们应该以一种方式定制解决方案,以保持创新。这项工作应在国家层面进行,目标是尽可能实现国际对齐,在美国,州级努力填补漏洞应量身定制和协调。

专注于高风险AI用例的监管

一旦确定了漏洞,政策制定者应专注于界定与潜在危害相关的潜在AI相关用例。具体来说,我们建议政策制定者专注于监管高风险用例。花时间隔离和指定高风险用例可以防止无意中(和有益的)负担,并且,当与法规格局结合时,对于平衡的监管方法是必要的。组织应有机会证明他们的用例在实践中可能不会对个人构成高风险,特别是考虑到选定的背景或行业。

一种有效的新兴方法,用于解决重要的监管漏洞,专注于AI用于在特定和适当识别的高风险用例中做出“重要决策”的情况。这种模型的强大实施旨在仅在满足三个条件时触发监管要求:(1) AI是(2)提供或拒绝商品或服务的“控制因素”,这些商品或服务与(3)具体列举的用例有关。

我们进一步建议将“控制因素”定义为“做出或决定性地做出”相关重要决策的因素。这建立了一个明确标准,承认人类监督的好处。它还避免了创建一个可能包括常用商业软件工具的过于宽泛的定义,这些工具可能被用来通知人类决策,而没有达到AI重要决策的水平。

“提供或拒绝”条款重要地将监管集中在特定的影响和结果上。这种结构认识到AI在许多不同的情况下被使用,其中许多不太可能造成伤害(例如,IT优化和其他内部操作)。此外,“重要决策”与“控制因素”的结合认识到,利用AI支持(而不是决定)由人做出的重要决策的组织——例如,为了简化流程或处理大量数据——不是额外要求的适当目标。

科罗拉多州SB24-205是一个利用“重要决策”模型来规范高风险用例的现有立法示例。SB24-205适用于“高风险人工智能系统”的开发者和部署者,这些系统被定义为“在部署时做出或在做出重要决策中起重大因素的任何人工智能系统”。在该法律中,“重要决策”被定义为“对提供或拒绝任何消费者教育入学或机会、就业、金融服务、基本政府服务、医疗服务、住房、保险或法律服务的成本或条款有重大法律或类似重大影响的决策”。虽然这种框架在许多方面与我们概述的模型一致,但科罗拉多州使用“重大因素”来描述决策中必要的参与程度。这个定义没有明确区分由AI驱动的决策与最终由人类做出的决策。因此,未来的立法应该通过将标准改为“控制因素”来澄清AI在决策中的参与程度,这个定义适当地考虑了人类监督。

无论他们如何处理这些问题,政策制定者应该始终努力在定义上保持一致性和协调,以减少摩擦并增强AI系统的创新潜力。任何监管都应以促进监管协调和灵活性为目标进行开发或修订。采用一致的术语或灵活的行业标准将是确保组织能够继续开发和采用新兴技术的关键。

利用现有法规和监管机构

同样,在考虑如何监管AI时,也要考虑谁应该这样做。现有的监管机构已经装备精良,能够应对AI可能在其责任领域带来的任何新风险。例如,在美国,金融监管机构(例如,货币监理署、联邦储备委员会和存款保险公司)多年来一直在密切监控和规范信贷决策和定量模型的使用,包括在这些情况下使用AI。美国国土安全部和其他联邦机构正在积极解决关键基础设施保护和其他国家安全问题。这些有针对性的方法导致更大的一致性,更适当地定制规则,并有助于避免一系列相互冲突的要求。

相比之下,假设创建一个新机构或类似官僚机构的监管可能会导致监管重复,并扼杀AI技术的投资和发展,而没有相应的好处。

因此,我们应该尽可能利用现有结构,包括提供资源和支持,以确保现有监管者拥有必要的知识和资源来减轻其领域内AI使用的风险。新的监管机构——就像新的监管本身一样——只有在真正存在漏洞时才应该引入。

建议:

为了促进协调、增强清晰度和问责,并减少摩擦,监管机构应该从现有的法律框架开始,并在监管中利用“重要决策”方法来填补特定的漏洞。

当政策制定者努力限制伤害时,我们建议他们通过监管高风险的人工智能系统来填补漏洞:

1. 狭义定制监管,以解决现有监管框架中的漏洞,同时鼓励和支持现有机构满足现代技术不断演变的需求。

2. 在引入尽职调查要求之前,将“重要决策”与至少一个其他触发定义(如“控制因素”)结合起来,以减少不必要的开销。

3. 将“重要决策”定义为对提供或拒绝任何消费者具体列举的适当高风险用例有重大法律或类似重大影响的决策,以促进协调并减轻公司的负担。

我们建议寻求扩大现有指导以包括对高风险人工智能系统进行监管的政府:

1. 评估现有指导和权限中的潜在漏洞。

2. 确保现有监管者拥有必要的知识和资源来减轻其领域内AI的风险,包括与私营部门合作,更好地了解相关用途的使用和风险。

3. 将AI规则和指导原则嵌入到现有框架中,视情况而定。

本建议的联合提出人:

Transcarent、Nielsen、NFL、Meta、GM、IBM、AT&T

说明:数据与信任联盟(The Data & Trust Alliance)是一群致力于负责任使用数据和AI的未来的企业领先者。我们利用成员的集体专业知识和影响力——其中包括商业中数据和AI的主要部署者——来创建和采用增强对数据、AI模型以及部署它们的人员和流程的信任的做法。我们唯一的KPI是实践者的采纳。

数据与信任联盟在2024年6月发布了“负责任使用人工智能的政策建议”。本文在该基础工作的基础上构建。

 

来源:清华大学智能法治研究院

0赞

好文章,需要你的鼓励

2024

09/29

21:04

分享

点赞

清华大学智能法治研究院

发布清华大学法学院、清华大学智能法治研究院在“计算法学”(Computational Law)前沿领域的活动信息与研究成果。

最近文章 :