在内心深处,我们都知道应该直面困难而不是规避它们。正如约翰·亚当斯所说:"每个问题都是机遇的伪装。"
因此,最大的挑战往往带来最大的机遇。让我们来探讨所有商业困境中最重要的一个:如何优化组织的最大规模运营。
在日常活动中,公司面临着数百万个"做也不是,不做也不是"的运营决策,例如:
其实这是可以解决的。这里有一个鲜为人知的重要发现:只需要简单的算术就能优化任何此类决策:计算两个选项的负面影响,然后选择更好的那个。
以上表中的第一行为例:决定是否授权交易或将其作为潜在欺诈而阻止。
首先,计算选择左栏行动的负面影响 - 即"做了会后悔"的平均损失:
左栏行动的负面影响 = 你判断错误的概率 × 潜在成本
例如:如果你有 95% 的把握认为支付不是欺诈 (即合法),而我们知道给合法持卡人带来不便平均会让你损失 0 - 因为他们可能会停止使用你发行的卡 - 那么拒绝购买的负面影响是 95% × 0,即 。
其次,计算右栏行动的负面影响 (在某些情况下是不作为) - 即"不做会后悔"的平均损失 - 使用相同的公式:
右栏行动的负面影响 = 你判断错误的概率 × 潜在成本
例如:如果支付有 95% 的概率是合法的,那就有 5% 的概率是欺诈。如果这是一笔 0 的购买,作为银行,如果是欺诈而你没有阻止,你将承担全部责任。所以负面影响是 5% × 0,即 。
第三,选择负面影响较小的行动。两个选项都有负面影响,但有一个明显的赢家。如果我们拒绝交易,预计平均损失 。但如果我们不拒绝,预计损失 。数学告诉我们,当我们对一笔 0 交易的有效性有 95% 的信心时,我们应该批准它。
困难之处:计算概率
谁能想到呢?一个基于每个错误决策潜在金钱损失的简单数学计算 - 即左栏行动的假阳性成本和右栏行动的假阴性成本 - 就能做出数百万个最优决策,每个决策都基于其自身的成本效益分析。
那么,如果数学这么简单,为什么它不是普遍存在,一直驱动着每个运营呢?毕竟,许多公司已经成功部署了这种方法 - 但我认为它远没有达到可能的普及程度。
原因在这里。公式中的另一个部分 - 每种情况下你判断对错的概率 - 是瓶颈。这是"神奇配方"。如果你有它,那就很好,但这需要一些工作。
具体来说,我们需要一个"概率计算器",输入案例的具体情况,输出事情往左或往右发展的概率 - 欺诈或合法、治愈或恶化、成交或未成交等。
别担心 - 已经有一个成熟的解决方案,这种技术通过学习先前案例的结果来计算每个新案例的概率。这种技术叫做机器学习。当用于驱动这类运营决策时,它被称为预测型 AI 或预测分析。
惊喜!原来你一直在读一篇关于 AI 的文章 - 但这篇文章是从 AI 的价值主张而不是品牌开始的。在理想世界中,预测型 AI 改进运营的目的和价值应该是常识。但在这个世界中,AI 被宽泛、抽象地品牌化,首先宣称的是一个包治百病的品质 - "智能" - 而不是上述总结的具体、价值驱动的目的,你可能直到现在才意识到这篇文章是关于 AI 的。
最后的挑战:优化总价值
在开始使用预测型 AI 之前,这里有个警告:如果不注入宏观视角,你的优化项目可能会失败。机器学习的数字运算在微观层面进行,而不是宏观层面。它提供了驱动每个单独决策所需的"概率计算器"。但你不能在没有衡量和调整其整体表现的情况下启动决策系统。这一步通常被忽略 - 结果是大多数预测型 AI 项目都失败了。
这就需要 ML 估值,这是一种新兴实践,它通过对总货币价值的现实检验来增强典型的预测型 AI 生命周期。ML 估值提供了预测型 AI 系统在多个决策中预期带来的总价值的可见性 - 用利润和节省等业务指标来衡量。
通过估算系统将带来的业务价值,可以 1) 引导其开发实现最大价值,2) 在必须权衡的地方取得明智的平衡 (例如在金钱底线和不便的"做了会后悔"的持卡人数量之间),3) 为你的决策者提供一个明确的金钱动机来授权系统的部署。
通过关注具体的运营价值 - 而不是采用传统的 AI 销售策略,承诺"智能"这个模糊且经常夸大的概念 - 你可以应对组织最大的运营挑战。正如联合利华全球数据与分析副总裁 Morgan Vawter 在我的书《The AI Playbook》前言中所说:"机器学习的实际部署代表着人类进步的前沿:用科学改进运营。"
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。