AI 代理决策的错误假设

许多组织在实施 AI 代理时过于狭隘地关注单一决策模型,陷入了"一刀切"决策框架的误区。然而,人类决策远非统一,而是复杂、动态且依赖于具体情境的。如果要将 AI 代理有效整合到组织中,就需要考虑多样化的决策过程,以确保有效实施,避免无意中设定一个低标准的决策模式。

许多组织在实施 AI 代理时往往过于狭隘地关注单一决策模型,陷入了"一刀切"决策框架的误区 —— 认为在任何情况下都遵循从输入到研究分析、决策、执行、评估,最后总结经验教训的典型顺序。

然而,这过度简化了现实。

人类的决策远非统一,而是更为复杂、动态且依赖于具体情境。正如最近一项 MIT 的研究表明,决策过程是流动的,受到约束、偏见、紧迫性、情境、互动、理性,以及最重要的非理性因素的影响。

如果要将 AI 代理整合到组织中,需要考虑多样化的决策过程,以确保有效实施 —— 避免无意中设定了次优的决策标准。

没有一种决策路径是放之四海而皆准的,也不是天然单一的

认为所有决策都遵循结构化路径的观点是一种误解。实际上,我们的决策依赖于多种决策模型,具体取决于情况:

1. 直觉决策

这种方法依赖于本能和过往经验,而不是广泛的研究或结构化分析。它在高风险、快速变化的环境中特别有用,因为在这种环境下速度至关重要,几乎没有时间进行详细评估。这个过程通常遵循触发识别、基于经验的即时响应、行动和事后评估的顺序。

例如,风险投资家可能仅凭直觉就决定投资一家创业公司,即使财务数据不完整或模糊。这种形式的决策往往是潜意识的,利用多年积累的知识做出瞬间判断。从根本上说,这种模式植根于直觉推理,由基于经验的本能引导快速、潜意识的决策。

2. 理性分析决策

相比之下,这种方法是数据驱动的、结构化的和系统化的。它涉及问题识别、数据收集、分析、方案比较、决策执行和绩效评审的方法论过程。

这种模型经常用于企业战略、风险评估和预测。例如,供应链管理团队可能会在调整生产水平以优化效率和减少浪费之前分析历史需求数据。这种形式的决策建立在演绎、归纳、因果和贝叶斯推理之上,为结构化选择提供数据支持的路径。

3. 规则和政策驱动的决策

某些决策不需要分析或直觉,而是遵循预定义的框架、规定或自动化规则。这些基于规则的决策模型在合规、风险管理和监管环境等领域至关重要,因为这些领域需要保持一致性并遵守政策。

这种决策序列始于特定情况,然后是识别适用的规则或政策,自动或手动执行,以及后续的合规监控。例如,银行的欺诈检测系统在交易超过某个金额阈值且来自高风险地理位置时会发出警报,触发进一步调查。这种方法利用预定义规则来识别可疑模式并确保结果的一致性和可预测性。

4. 情感和社交决策

决策并不总是关于本能、过往经验、逻辑或规则;它也可能受情商和社会动态的影响,同时受个人价值观的影响。这种模型在领导力、人力资源和道德困境中发挥着至关重要的作用,在这些领域中,人际关系、价值观和文化背景会影响结果。

它通常包括评估社会或道德背景、权衡情感和道德维度、形成决策、采取行动并从利益相关者获得反馈。例如,即使常规绩效指标表明应该另作处理,CEO 可能会因为某员工对公司文化的积极影响而决定留用表现不佳的员工。在这里,决策源于道德/伦理和常识推理,人类价值观和社会背景塑造了结果。

5. 启发式决策

这种模型依赖于从过往经验中发展出来的思维捷径,而不是对所有可用选项进行全面分析。虽然这些捷径在快节奏环境和面对不确定性时很有用,但它们也会引入可能导致次优决策的偏见。

这个序列通常遵循触发识别、模式匹配、应用思维捷径、决策制定、即时行动和偶尔的反馈。一个典型的例子是招聘经理偏好来自顶尖大学的候选人,而不全面审查所有申请者,认为院校声誉与工作表现直接相关。从本质上讲,这种方法采用启发式和常识推理,利用过往经验来应对当前挑战。

6. 协作和共识决策

某些决策需要群体投入、协商和利益相关者之间的一致。这种方法在公司董事会、政府决策和高影响力的组织战略中很常见,需要考虑多个观点。

这个过程包括识别问题、进行群体讨论、评估不同观点、协商达成共识、执行集体决策和审查结果。例如,董事会可能会花费数周时间商议长期业务战略,确保在做出最终决定前考虑所有观点。这种集体方法通过反思性、道德/伦理和类比推理得到加强,使决策能够平衡多个视角。

7. 危机和高风险决策

在高风险和危机情况下,决策者通常在严重的时间限制、不确定性和高风险条件下运作 —— 这些条件不允许长时间分析或审议。借鉴 Gary Klein 的识别启动决策 (RPD) 模型,这种情况显示了经验丰富的专业人士如何通过依赖模式识别、心理模拟和直觉推理来做出快速而有效的决策。

决策者不是评估多个选择,而是识别熟悉的线索,将其与先前经验匹配,并对首个可行的选项采取行动。例如,网络安全团队可能会在发现入侵的第一个迹象时关闭整个系统以防止进一步损害 —— 而不是等待完整诊断。这种方法展示了压力下的决策如何将演绎、因果推理、启发式捷径和直觉融合成一个简化的、面向行动的过程。

这七种决策路径 —— 既不是穷尽的也不是互斥的 —— 很少单独运作。

相反,它们经常重叠、互动和累积 —— 反映了情境要求的认知灵活性。

这种互动可能以不同的速度发生,可以是连续的或同时的,动态的或更有结构的方式。例如,一位高管面对高风险决策时,可能最初依靠直觉,然后转向理性分析方法用数据验证他们的直觉,最后与关键利益相关者进行协作决策。

同样,危机情况可能需要立即采取启发式或基于规则的响应,随后进行深入的分析回顾。这种现实挑战了僵化、线性的决策观点,强调了 AI 代理需要能够根据情境、紧迫性和复杂性灵活地在不同模型之间转换。

遵循模式不等于决策

AI 代理可以有效模仿几种类型的推理,特别是那些依赖结构化逻辑、数据驱动模式和统计推理的推理。例如,它们擅长演绎推理,即应用预定义规则或理论得出具体结论,以及归纳推理,即从大型数据集中得出泛化结论 —— 这是机器学习模型的基础。AI 在因果推理方面也表现出色,尤其是在训练时间序列数据或观察模式时,并且在贝叶斯推理方面非常capable,能够根据新证据更新概率。

此外,AI 系统可以通过识别数据集之间的相似性并将已知模式应用到新情境来处理类比推理,它们还经常利用启发式推理,使用经验法则在复杂环境中提供快速、近似的解决方案。

然而,尽管有这些优势,AI 代理仍然表现出一些持续的局限性,暴露了其推理能力的脆弱边界。其中一个问题是它们依赖固定的学习路径 —— 一种严重依赖预定模型的单路径推理。

AI 代理被构建为遵循模式,但决策往往会打破模式。为理性分析决策训练的模型可能在需要即时判断的危机场景中失败。当出现意外情况时,AI 经常无法识别需要替代思维模型或决策逻辑的情况,因此难以在不同决策路径之间动态转换或聚合。

这种僵化性因缺乏深入的情境理解而加剧。AI 代理往往无法区分何时应该灵活应用政策或框架 —— 比如在战略决策中 —— 或何时应该严格遵守,比如在监管合规中。它们感知和响应细微情境变化的能力,虽然在改进,但仍然有限,通常需要大量人工干预。最近的研究强化了这种担忧,显示即使是先进的 AI 代理在风险和基于时间的决策场景中也表现出固定的偏好。

此外,偏见强化构成了一个关键挑战。由于缺乏自我反思或独立判断的能力,AI 代理容易过度依赖启发式方法,放大学习到的偏见,或忽视其输出中的道德影响。如果没有像人类那样质疑自己的假设或纠正错误的能力,它们可能会使其行动与人类价值观和预期的社会结果不一致。

当检查 AI 仍在struggle的推理类型时,这些限制变得更加明显。归因推理,即从不完整或模糊的数据中推断最合理解释的能力,由于其所需的情境意识而仍然难以实现。常识推理,虽然在大语言模型中部分得到近似,但往往是脆弱的或过于字面的,无法捕捉人类本能依赖的隐性知识。同样,道德和伦理推理才刚刚开始在 AI 设计中出现。虽然一些系统试图整合基于价值的参数,但它们以机械的方式这样做,距离捕捉道德判断的深度和细微差别还很远。

在 AI 当前能力的外围是本质上属于人类的推理模式。由gut feeling、生活经验和情感共鸣塑造的直觉推理目前无法被 AI 复制。同样,反思性推理,即评估和改进自己思维过程的能力,仍然极其有限 —— 需要机器不具备的元认知和自我意识形式。

虽然 AI 在模拟结构化、基于数据的推理方面取得了令人印象深刻的进展,但在需要灵活性、情境细微差别、道德敏感性和自我反思意识的领域仍然存在不足。

走向实现决策弹性

鉴于 AI 代理的当前成熟度,管理者必须首先评估 AI 系统中嵌入的决策模型,确保清楚了解其决策路径,并验证这条路径对于被委托的决策是否足够可靠。

如果无法确保完全充分的可靠性,组织必须为 AI 何时可以自主运作以及何时需要人类干预建立明确的阈值。此外,他们必须主动设计结构化方法来处理 AI 范围之外的剩余情况,确保人类监督和替代决策机制保持到位,以维持问责制和战略一致性。

实现决策弹性需要一个范式转变 —— 仅凭智能无法确保适应性、情境意识或负责任的决策。

研究人员最近开发了情境感知神经架构,开始模仿高层认知灵活性,这是朝向 AI 中诚信驱动推理的基础性步骤之一。

展望未来,解锁 AI 决策的关键在于一个新的前沿:模仿诚信而不仅仅是智能,使 AI 系统能够:

评估每个情境的正确决策模型

这应该是理性分析吗?快速危机响应?基于规则的合规检查?前两者的组合,后两者的组合,还是其他什么?对 AI 来说,这意味着具备真正提问的能力,作为一种自主道德反思的行为,由内部不安、矛盾或道德冲突驱动的询问,挑战有缺陷的逻辑和危险的假设。

在保持一致性的同时允许灵活性

AI 代理能否检测到何时应该严格应用规则,何时需要考虑人类价值观和社会规范的细微差别?对 AI 来说,这意味着发展解释情境、评估道德维度和超越二元逻辑行使判断的能力 —— 弥合僵化指令和以人为本理解之间的差距。

识别何时寻求人类输入

AI 代理能否认识到不确定性或影响太大时需要将决策交给人类?对 AI 来说,这意味着在主动与人类合作方面具有自主性。

总的来说,这三个特征使 AI 超越智能,走向诚信。

人工诚信是使 AI 代理在情境感知决策方面以诚信为导向的新前沿,包括社会、道德和伦理推理,因此具备在不同决策框架之间动态适应的能力。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

04/05

17:06

分享

点赞

邮件订阅