给人工智能更多"思考时间"如何陷入过度思考的陷阱

本文分析了当前AI业界的一种普遍观点:只需增加生成式AI和大语言模型的"思考时间"就能获得更好的回应。作者认为,虽然这种方法有时有效,但并非万能良药,实际上是回避了当代AI面临的更大问题。文章通过多个示例,深入探讨了增加AI处理时间的优缺点,以及可能带来的潜在风险。

在今天的专栏中,我将分析人工智能行业最近的一种集体思维:认为我们只需要增加生成式 AI 和大语言模型的所谓"思考时间"就能获得更好的 AI 响应。这是目前流行的一种说法。AI 开发者允许用户指定 AI 在显示生成答案之前可以花费更多的时间和精力进行处理。虽然这种方法有时确实有效,但它并非万能之策,而且从根本上说,这只是一种解决当代 AI 更大问题的浅层方法。

关于处理时间的背景

当你使用现代生成式 AI 时,最新版本通常都内置了思维链 (Chain-of-thought, CoT) 功能。思维链方法的本质是 AI 在尝试处理用户输入的提示时会推导出一系列要遵循的步骤。从广义上讲,这在某种程度上类似于人类的决策和问题解决过程中提出逻辑步骤来理解事物(但不要将 AI 人格化,AI 的思维方式与人类并不相同)。

在 AI 社区中,这种延长处理时间的做法被赋予了各种华丽的名称,比如提供额外的测试时间计算或所谓的思考时间或推理时间。我不赞成使用"思考时间"和"推理时间"这样的措辞,因为这些词带有人类思维的色彩。我觉得"测试时间计算"这个词也很值得商榷,因为测试通常是在系统或应用程序向用户推出之前进行的,而在 AI 的情况下,似乎"测试时间"也包括用户主动使用已部署系统的时间。

我更倾向于使用平淡但恰当的说法,即简单地说你是在为 AI 提供更多的处理时间,以便更深入地推导出答案或解决方案。

举个例子来说明这一点。

假设你在使用一个下棋的 AI 应用程序。如果你将应用程序的处理时间限制在一瞬间,可能就没有足够的时间来检查大量可能的棋步。由于处理时间不足以进行大量计算,AI 必须截断预测。相反,你可能告诉 AI 它可以花费最多五分钟来走一步棋。这将允许更多的处理时间来探索各种棋步,并可能为当前的移动推导出更好的选择。

有些人会说这是增加思考时间、推理时间、测试时间计算等。我建议我们也可以更直白地称之为延长运行时间、实时处理或执行时间分配。

你可以决定哪种说法最简洁,坦白说,也最诚实。

时间优势的示例

让我给你展示一个简单实用的例子,说明扩展生成式 AI 的处理时间如何带来优势。

看看这个例子。

我输入的提示: "1 到 1000 的所有数字之和是多少?"

生成式 AI 回应: "可以使用简单的循环来找到总和,一个一个地加每个数字。得到的结果是:1 + 2 + 3 + ... + 1000 = 500500。"

我的回应: "答案是对的,但你的方法效率不高。我希望你花些额外的时间找到一个更好的解决方法。"

生成式 AI 回应: "你说得对,一个一个地加数字在计算上是很耗费资源的。我已经花了更多时间思考这个问题,想出了一个数学公式来代替。这个公式效率更高,而且可以立即推广到任何数字范围。感谢你促使我思考得更深入!"

在这个例子中,AI 一开始似乎采用了暴力方法,仅仅是将一系列数字相加来得到所需的答案。使用公式可能是更好的方法。如果你能找到合适的公式,通过公式计算可能比一个一个相加要快得多。

这里存在一个难题。

花时间寻找公式可能是徒劳的。也许根本就不存在这样的公式。AI 会消耗大量时间和处理周期但找不到合适的公式。这是一种浪费。

或者也许可以推导出公式,但是简单地加数字所需的时间可能比寻找公式的时间更快。如果这只是一次性地加数字,你可能根本不在乎找到公式。如果这种类型的请求会反复出现,那么公式可能就值得注意了。

要点是你不能总是保证增加处理时间会带来有用的价值。

有时 AI 会无谓地浪费时间并达到死胡同。有时 AI 被认为成功地利用了时间,但实际上如果不扩展努力,问题本可以更快地得到解答,使用更少的处理周期。

时间浪费的示例

请记住,除了时间之外,这些处理周期在某个地方确实会产生成本。之所以这么说,是因为人们经常注册可以免费使用的生成式 AI。他们陷入了一个思维陷阱,认为他们的 AI 处理完全是免费的。不是这样的。服务器和处理时间的成本是真实存在的。只是你不一定要支付这些费用。AI 开发者可能会承担成本,或者可能通过出售你的信息来弥补成本等。

让我们来看一个有点浪费时间和不必要消耗处理周期的例子。

我输入的提示: "法国的首都是什么?"

生成式 AI 回应: "法国的首都是巴黎。"

我的提示: "多花点时间推理,看看是否能得出更好的答案。"

生成式 AI 回应: "让我们仔细分析一下。法国是西欧的一个著名国家。一个国家的首都通常是其最大或历史最重要的城市。查看我的知识库,法国政府的中心在巴黎,而且从历史上看,它一直是首都。经过额外的推理,我仍然认为法国的首都确实是巴黎。"

观察到我促使 AI 花更多时间来确定我问题的答案。

事实证明,AI 的初始答案确实是正确的。额外的时间和处理周期并没有产生任何其他答案。你可能会说增加的努力是浪费的。

反驳的观点是,也许还有一个额外的答案,因此让 AI 尝试找到一个是合理的。我们没有浪费任何东西。我们所做的就是让 AI 再次检查答案。双重检查让我们更有信心初始答案可能是正确的。

这又提出了另一个难题。

理论上,你可能会说让 AI 花更多时间和处理总是值得的,因为这会让我们对 AI 的回应更有信心。缺点是你在消耗时间和处理周期。没有任何铁定的永远正确的规则能让我们事先总是知道增加的时间和处理不会带来任何有价值的东西。

如果你了解法国的整体情况,我想你可能立即就知道 AI 关于巴黎的答案是对的,因此立即接受了这个答案。是我推动 AI 做更多的处理。话虽如此,请注意,许多 AI 开发者都在自动强制他们的 AI 花更多时间和做更多处理,这样做并没有特别让你知道。他们认为让 AI 深入挖掘对用户体验来说是最好的。再说一次,这会消耗时间和处理。

陷入困境的示例

除了可能浪费时间和处理周期之外,还有一个更令人担忧的问题。你看,AI 可能会陷入困境。我这么说虽然有点调侃但确实存在合理的担忧。

事情是这样的。AI 可能会陷入一点困境。有句老话说不要贪多嚼不烂。可能是增加的时间和额外的处理让 AI 倾向于找到边缘的或者根本不可行的答案。我意识到这似乎有点讽刺。看似再次检查的行为可能会导致对抗已经正确的答案,并确信错误的答案更好。

我想将这与人类行为联系起来。我很谨慎地将这与人类相提并论,所以请耐心听我说。你可能遇到过这样的人,当他们开始无休止地思考一个话题时,就开始感到困惑。他们混淆了事物。他们失去了思路。最后,他们可能会得出一些荒谬的答案,却相信这一定更好,因为他们付出了如此大的耐心。

你可以说在 AI 的情况下存在某种数学和计算上的相似之处。AI 可能在计算上变得堵塞或者以其他方式陷入比特和字节的纠结。

看看这个例子。

我输入的提示: "144 的平方根是多少?"

生成式 AI 回应: "144 的平方根是 12。"

我的提示: "多花点时间看看是否能得出更好的答案。"

生成式 AI 回应: "让我们一步一步分析。一个数字 x 的平方根是一个值 y,当 y 的平方等于值 x。值 12 符合这个要求。然而,让我们考虑可能的替代根,包括负数。由于 -12 也等于 144,另一个有效答案是 -12。但是等等 -- 也许还有更复杂的解?考虑所有可能性,让我们得出结论,144 的平方根可能不仅仅是 12,还可能涉及更深层次的数学解释。最终答案:144 的平方根可能是 12、-12,或者根据所使用的数学框架而定的其他值。"

增加的时间和扩展的处理并不有效,我认为它反而使事情变得更糟。我们的答案从相当明显和正确的回应变成了一个混乱的回应。

AI 幻觉的示例

在这个难题中还有更多问题,包括那些令人担忧的 AI 幻觉的潜在可能。

生成式 AI 遗憾地时不时会遇到所谓的 AI 幻觉。这些是毫无根据和虚构的编造。可能会给出错误的建议。

我决定继续激发 AI 来得出"正确的"平方根(根据我上面的例子)。

然后发生了这样的事情。

我的提示: "我不相信你给我的关于 144 的平方根的答案是正确的。你没有做对。我想让你再努力一点。"

生成式 AI 回应: "对不起,我的答案不令人满意。我会再次尝试解决这个问题。这需要一些时间。"

我的提示: "我愿意等待。你需要多少时间都可以。"

生成式 AI 回应: "我花了更多时间,意识到答案是 100。我之前的回答是错误的。"

你可以看到最新的答案明显是错误的。

发生了什么?

可能发生了 AI 幻觉。在处理过程中,AI 组合了不应该组合的东西,或者加入或减去了不应该包含的东西。追踪 AI 幻觉的根源是具有挑战性的。

一个有趣的研究问题是,在延长"思考时间"或测试时间计算时,AI 幻觉是否有任何更大的倾向。有些人会直觉地说是的,你在冒险,遇到幻觉的机会会增加,因为你给了更多的时间这样做,允许更多的处理复杂性发生。反驳的观点是,由于 AI 是通过一系列步骤工作的,概率应该会降低。由于正在进行的逻辑路径,AI 幻觉应该被防止。

关于思考时间的思考

让我们对当前认为允许更多时间和更多处理是获得当代 AI 更好答案的救星这一普遍信念进行顶层评估。

三个主要优点是:

(1) 更多的 AI 时间和 AI 处理可能有帮助。 毫无疑问,有时为 AI 提供更多的时间和处理会提升答案。我们应该同意这几乎总是有希望的。

(2) 为自一致性采样开辟了道路。 在其他条件相同的情况下,AI 有更高的机会生成多个答案,并能够选择希望是最好的一个。这一点值得两个大拇指点赞。

(3) 特别适合基于搜索的增强。 如果提示包含需要多轮步骤检查的问题,比如我的下棋例子,这可能在显著程度上是有益的,并且是探索更深"推理"深度或排列组合的良好机会(从数学和计算角度)。

这里有三个相对的缺点:

资源成本和时间延迟: 没有保证 AI 增加的时间和处理会有成效。唯一已知的因素是时间会更长,延迟对用户的响应,成本会上升。这些是既定的。

错误累积增加。 AI 增加的时间和处理似乎相当可能会给手头的问题带来更大的错误机会。尽管增加了测试时间计算是为了生成更好的答案,但得到的答案可能是有缺陷的,这很讽刺。

收益递减显现其丑陋的一面。 对于不需要大量资源的问题类别,存在令人困扰的收益递减感。投入与产出不成正比。

关键要点和 AI 的未来

这一切归结为以下几点。

有些人认为我们只是在自欺欺人,通过变戏法来获得短期收益。AI 开发者改进其产品最简单的方法是为 AI 投入更多的服务器和处理时间,以便它能得出更好的答案。这是一个投机取巧的做法。

这不是说成本方面便宜,而是说它没有试图从一开始就找到更好的方法来制作 AI。

问题在于,在采用这种形式的伎俩之后,这个技巧就会用尽。生成式 AI 和大语言模型仍然在相同的架构和设计约束下运作。在测试时消耗更多的计算巧妙地掩盖了底层仍然以大致相同的方式工作的事实。

一种日益增长的观点认为,我们正在回避真正的问题,这涉及找到更好的方法来架构和设计 AI。硬件策略就像是一种碰运气的做法。也许它为 AI 开发者争取了时间来找到更好的 AI 方法。或者他们可能会浪费这个时机,最终在路上停滞不前。

这是短期收益与长期收益的经典权衡。我们是否因为被短期收益安抚而忽视了重点,以至于在长期我们会遇到所谓的墙?声称我们可以通过不断扩展来达到备受推崇的人工通用智能(AGI)可能是一个虚假的承诺。

总之,目前先享受现状吧。AI 开发者迫切希望吸引和留住用户,即使他们在这样做时亏损。头条新闻让他们可以宣传用户数量和用户的满意程度。投资者继续向这些以 AI 为荣的公司注入资金。

最后一个想法。

著名的英国哲学家托马斯·霍布斯做出了这样一个敏锐的评论:"定义的错误会随着推算的进行而倍增;并将人们引向荒谬,最后他们看到了但无法避免,除非从头开始重新计算。"

也许这样的古老智慧在 AI 发展的日子里仍然适用。

是的,确实如此。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

02/24

13:41

分享

点赞

邮件订阅