2026年企业不能忽视的AI治理平衡术

随着AI在企业中的快速普及,如何在创新速度与责任治理之间找到平衡成为关键挑战。斯坦福大学教授Andrew Ng建议采用沙盒测试方法,在安全环境中验证AI应用后再推向市场。专家强调,过度的监管审批会拖慢创新,而简单明确的AI使用规则更有效。企业应建立透明的AI决策机制,明确责任归属,并制定通俗易懂的AI章程来建立员工和客户信任。

《林肯律师》作者迈克尔·康奈利将目光转向了企业人工智能失控背后的问题。他的最新小说《试验场》讲述了一名律师对一家AI公司提起民事诉讼的故事,"该公司的聊天机器人告诉一名16岁男孩,杀死背叛他的前女友是可以的。"

这本书描述的案例"探索了基本不受监管且爆炸性增长的AI行业以及缺乏训练护栏的问题。"

虽然这是虚构作品,案例也比较极端,但它重要地提醒我们,AI可能在很多方面偏离道德或逻辑轨道——无论是通过偏见、错误建议还是误导——都会带来严重后果。与此同时,至少有一位知名AI专家建议不要在监管AI方面过度反应,从而拖慢创新步伐。

我们在11月报道的普华永道调查显示,至少六成公司(61%)表示负责任的AI已经积极融入其核心运营和决策过程。

需要在治理和速度之间找到平衡,这将是来年专业人士及其组织面临的挑战。

DeepLearning.AI创始人、斯坦福大学兼职教授吴恩达表示,通过沙盒方法审查所有AI应用是维持速度与责任之间平衡的最有效方式。

"很多最负责任的团队实际上行动非常快速,"他在最近的行业主题演讲和后续小组讨论中说。"我们在沙盒安全环境中测试软件,找出问题所在,然后再将其发布到更广阔的世界。"

同时,他表示,最近政府和企业推动的负责任和受治理的AI举措实际上可能过于严苛。

"很多企业建立了保护机制。在发布任何产品之前,你需要法律批准、营销批准、品牌审查、隐私审查和GDPR合规。工程师需要得到五位副总裁的签字才能做任何事情。一切都陷入停滞,"吴恩达说。

最佳实践是"通过主动创建沙盒来快速行动,"他继续说道。在这种情况下,"制定一套规则,比如'不得以公司品牌对外发布任何产品'、'不得泄露敏感信息'等等。仅在签署保密协议的公司员工中测试,AI Token预算只有10万美元。通过创建有保障的安全沙盒,可以为产品和工程团队提供大量空间,让他们快速运行并在内部尝试各种想法。"

一旦确定AI应用安全且负责任,"然后投资于可扩展性、安全性和可靠性,将其扩展到规模化,"吴恩达总结道。

在治理方面,保持简单的方法可能有助于让AI保持清晰和开放。

"由于现在每个团队,包括非技术团队,都在工作中使用AI,为我们设定直接、简单的规则很重要,"JobLeads首席创新官迈克尔·克拉赫说。"明确AI在哪里被允许使用、哪里不被允许、可以使用什么公司数据,以及谁需要审查高影响决策。"

"人们相信AI系统公平、透明和负责任很重要,"Radiant Product Development合伙人贾斯汀·萨拉蒙说。"信任始于清晰:对AI如何使用、数据来源以及决策制定过程保持开放。当领导者实施平衡的人机回路决策、道德设计以及严格的偏见和准确性测试时,信任就会增长。"

这种信任源于明确告知员工公司对AI的意图。克拉赫建议要明确所有权。"每个AI功能都应该有人对潜在的失败或成功负责。测试和迭代,一旦你感到自信,就发布一份通俗易懂的AI章程,让员工和客户知道AI是如何使用的,并在这个问题上信任你。"

来年高管和专业人士应该关注哪些负责任AI方法的标志?

HKB Tech创始人兼首席执行官库鲁德·阿尔马尼博士最近发布了负责任AI的八项关键原则。

Q&A

Q1:沙盒方法在AI治理中有什么作用?

A:沙盒方法是在安全环境中测试AI应用的有效方式。通过设定规则如不对外发布、限制预算等,让团队能够快速尝试和测试AI功能,在确保安全的前提下加速创新,避免因过度审批流程导致的停滞。

Q2:企业如何平衡AI创新速度和治理责任?

A:企业需要制定简单明确的规则,明确AI使用范围、数据使用权限和决策审查流程。同时建立责任制,让每个AI功能都有明确的负责人,通过测试迭代确保安全后再规模化部署。

Q3:负责任AI需要具备哪些特征?

A:负责任AI应该具备公平、透明和负责任的特征。这需要明确AI使用方式、数据来源和决策过程,实施人机回路决策机制,进行道德设计和严格的偏见测试,并发布易懂的AI使用章程建立信任。

来源:ZDNET

0赞

好文章,需要你的鼓励

2026

01/04

08:25

分享

点赞

邮件订阅