D&TA 建议:框定“重大决策”
2024年9月26日发布
由数据与信任联盟AI政策工作组撰写
摘要:
人工智能(AI)是一种强大的技术,有潜力彻底改变我们的生活和工作方式。
政策制定者不应试图将AI作为一种技术进行监管,而应专注于技术在特定用例中可能带来的潜在危害。
在考虑监管时,监管机构应首先审查现有法规,以确定其是否涵盖了令人担忧的问题。只有在必要时,为解决监管漏洞才应引入新的法规。
当需要新的监管时,关注AI是否以及如何在直接影响人们生活的重大决策中被使用是有益的。
政策制定者还应努力协调不同管辖区的法规。
为协助政策制定者,本备忘录提供了一些原则,以最佳方式接近AI监管,以保护人们,同时允许创新和创造力蓬勃发展。
人工智能可以为经济发展、创造力和创新创造无与伦比的机会。但像所有技术一样,如果被滥用,AI可能会带来伤害风险。为了保护人们免受这些伤害,政策制定者可能会做出不必要、令人困惑或过于宽泛的监管——这将损害AI的巨大潜力。更好的方法是优先平衡保护与最大限度地让人们获得AI的许多好处。这包括创建一个促进一致性和灵活性的政策环境,以促进健康的技术生态系统。
许多公司、跨行业团体、政策制定者、学者和民间社会成员正在通过提出的标准、框架和监管倡议,努力推进这种方法。下面的建议旨在补充而不是取代这些努力。我们的建议(见最后一页的框)旨在保留政策制定者资源并推动监管平衡,为现有技术和有益的、低风险的应用留出空间,这些应用不会引发新的问题。
新的监管应解决真正的漏洞
在考虑新的监管之前,政策制定者应首先审查现有的法律环境。在许多情况下,现有的法律和监管指导足以覆盖相关的问题,特别是如果它们是技术中立的。尽可能依赖现有框架,可以减少创建重叠或冲突规则的风险,这些规则会导致法律不确定性和不一致的保护。例如,民权、消费者保护、安全、知识产权,以及重要的是,数据隐私规则通常已经涵盖了与AI相关的许多最重要的风险。
只有在存在漏洞的情况下,政策制定者才应考虑新的法规,然后他们应该以一种方式定制解决方案,以保持创新。这项工作应在国家层面进行,目标是尽可能实现国际对齐,在美国,州级努力填补漏洞应量身定制和协调。
专注于高风险AI用例的监管
一旦确定了漏洞,政策制定者应专注于界定与潜在危害相关的潜在AI相关用例。具体来说,我们建议政策制定者专注于监管高风险用例。花时间隔离和指定高风险用例可以防止无意中(和有益的)负担,并且,当与法规格局结合时,对于平衡的监管方法是必要的。组织应有机会证明他们的用例在实践中可能不会对个人构成高风险,特别是考虑到选定的背景或行业。
一种有效的新兴方法,用于解决重要的监管漏洞,专注于AI用于在特定和适当识别的高风险用例中做出“重要决策”的情况。这种模型的强大实施旨在仅在满足三个条件时触发监管要求:(1) AI是(2)提供或拒绝商品或服务的“控制因素”,这些商品或服务与(3)具体列举的用例有关。
我们进一步建议将“控制因素”定义为“做出或决定性地做出”相关重要决策的因素。这建立了一个明确标准,承认人类监督的好处。它还避免了创建一个可能包括常用商业软件工具的过于宽泛的定义,这些工具可能被用来通知人类决策,而没有达到AI重要决策的水平。
“提供或拒绝”条款重要地将监管集中在特定的影响和结果上。这种结构认识到AI在许多不同的情况下被使用,其中许多不太可能造成伤害(例如,IT优化和其他内部操作)。此外,“重要决策”与“控制因素”的结合认识到,利用AI支持(而不是决定)由人做出的重要决策的组织——例如,为了简化流程或处理大量数据——不是额外要求的适当目标。
科罗拉多州SB24-205是一个利用“重要决策”模型来规范高风险用例的现有立法示例。SB24-205适用于“高风险人工智能系统”的开发者和部署者,这些系统被定义为“在部署时做出或在做出重要决策中起重大因素的任何人工智能系统”。在该法律中,“重要决策”被定义为“对提供或拒绝任何消费者教育入学或机会、就业、金融服务、基本政府服务、医疗服务、住房、保险或法律服务的成本或条款有重大法律或类似重大影响的决策”。虽然这种框架在许多方面与我们概述的模型一致,但科罗拉多州使用“重大因素”来描述决策中必要的参与程度。这个定义没有明确区分由AI驱动的决策与最终由人类做出的决策。因此,未来的立法应该通过将标准改为“控制因素”来澄清AI在决策中的参与程度,这个定义适当地考虑了人类监督。
无论他们如何处理这些问题,政策制定者应该始终努力在定义上保持一致性和协调,以减少摩擦并增强AI系统的创新潜力。任何监管都应以促进监管协调和灵活性为目标进行开发或修订。采用一致的术语或灵活的行业标准将是确保组织能够继续开发和采用新兴技术的关键。
利用现有法规和监管机构
同样,在考虑如何监管AI时,也要考虑谁应该这样做。现有的监管机构已经装备精良,能够应对AI可能在其责任领域带来的任何新风险。例如,在美国,金融监管机构(例如,货币监理署、联邦储备委员会和存款保险公司)多年来一直在密切监控和规范信贷决策和定量模型的使用,包括在这些情况下使用AI。美国国土安全部和其他联邦机构正在积极解决关键基础设施保护和其他国家安全问题。这些有针对性的方法导致更大的一致性,更适当地定制规则,并有助于避免一系列相互冲突的要求。
相比之下,假设创建一个新机构或类似官僚机构的监管可能会导致监管重复,并扼杀AI技术的投资和发展,而没有相应的好处。
因此,我们应该尽可能利用现有结构,包括提供资源和支持,以确保现有监管者拥有必要的知识和资源来减轻其领域内AI使用的风险。新的监管机构——就像新的监管本身一样——只有在真正存在漏洞时才应该引入。
建议:
为了促进协调、增强清晰度和问责,并减少摩擦,监管机构应该从现有的法律框架开始,并在监管中利用“重要决策”方法来填补特定的漏洞。
当政策制定者努力限制伤害时,我们建议他们通过监管高风险的人工智能系统来填补漏洞:
1. 狭义定制监管,以解决现有监管框架中的漏洞,同时鼓励和支持现有机构满足现代技术不断演变的需求。
2. 在引入尽职调查要求之前,将“重要决策”与至少一个其他触发定义(如“控制因素”)结合起来,以减少不必要的开销。
3. 将“重要决策”定义为对提供或拒绝任何消费者具体列举的适当高风险用例有重大法律或类似重大影响的决策,以促进协调并减轻公司的负担。
我们建议寻求扩大现有指导以包括对高风险人工智能系统进行监管的政府:
1. 评估现有指导和权限中的潜在漏洞。
2. 确保现有监管者拥有必要的知识和资源来减轻其领域内AI的风险,包括与私营部门合作,更好地了解相关用途的使用和风险。
3. 将AI规则和指导原则嵌入到现有框架中,视情况而定。
本建议的联合提出人:
Transcarent、Nielsen、NFL、Meta、GM、IBM、AT&T
说明:数据与信任联盟(The Data & Trust Alliance)是一群致力于负责任使用数据和AI的未来的企业领先者。我们利用成员的集体专业知识和影响力——其中包括商业中数据和AI的主要部署者——来创建和采用增强对数据、AI模型以及部署它们的人员和流程的信任的做法。我们唯一的KPI是实践者的采纳。
数据与信任联盟在2024年6月发布了“负责任使用人工智能的政策建议”。本文在该基础工作的基础上构建。
好文章,需要你的鼓励
本文探讨了人工智能(AI)可能带来的生存风险,强调了AI与人类价值观不一致所引发的潜在问题。尽管当前的AI系统并不具备意识,但它们的失控和意外后果已成为AI治理讨论的核心。企业高管们意识到AI的巨大潜力,同时也在思考如何应对这些风险。
量子计算领域正迎来关键时刻,微软、谷歌和IBM等巨头纷纷取得重大突破。微软发布Majorana 1芯片,谷歌推出Willow芯片,IBM制定长期量子路线图,展现了行业多样化的发展方向。尽管实用化时间表仍存争议,但这些进展表明重大突破可能比预期更快到来。然而,英伟达CEO黄仁勋等业内领袖仍持谨慎态度,认为商业应用或需数十年时间。
本文探讨了人们对人工智能的普遍担忧,并提供了一些建议来帮助人们适应AI技术。文章介绍了常见的AI恐惧,如就业displacement和失去人际关系等。同时,文章也给出了一些建议,如使用免费AI工具、自动化繁琐任务等,以帮助人们更好地理解和利用AI。专家Andrew Ng还分享了AI在商业应用中的潜力,强调了设计直观易用的AI系统的重要性。
Meta公司通过使用基于eBPF的Strobelight性能分析套件,成功将其主要服务的CPU使用率降低20%。这一成果不仅大幅减少了服务器需求,还展示了eBPF在系统优化和效率提升方面的巨大潜力。eBPF作为一种创新技术,正在revolutionizing操作系统内核级编程,为企业带来显著的性能提升和成本节约。