我们真的需要通用人工智能吗?

本文探讨了是否真正需要追求通用人工智能(AGI)的问题。文章提出了几个观点:AGI可能过于复杂且成本高昂;现有AI技术已经足够强大,我们更需要关注如何整合和应用;AGI可能带来意想不到的风险。作者认为,目前我们应该专注于充分利用现有AI能力,而不是盲目追求AGI。

仅在这个科技领域里程碑式的一年的第一季度,就有大量关于通用人工智能 (AGI) 的讨论,以及 AI 实体将在几乎所有方面都超越人类的观点。

但在所有关于 AGI 的讨论中,我很少看到有人探讨朝这个方向发展是否是个好主意,或者我们是否真的需要这种 AI 能力。

直到现在。

在最近一期的 AI Daily Brief 播客中,Nathaniel Whittemore 介绍了 Dave Pitman 的一篇文章,探讨了 AGI 的实用性,以及为什么我们可能最终会减少对 AGI 的关注。

我想将这个问题归纳为三个主要论点,论证为什么 AGI 是不必要的,也不应该成为我们持续研究工作的重点。

然后我会从不同角度再补充几点观点。

如果 AI 是辅助性的,我们为什么需要 AGI?

我们一直在反复强调,AI 不应该取代人类。

你会听到大多数专家谈论流程转型时说,应该保持人在回路中。

即使在代理时代,人工智能也被描述为辅助工具。

如果真是这样,AGI 就像用火箭筒对付蚁丘。这是不必要的,也无助于实现我们需要的流程转型。

AGI 带来成本和复杂性

另一个论点是 AGI 会带来大量成本。人们总是在问,什么时候能以低价获得这种更强大的技术。

Whittemore 在解释 Pitman 的文章时,使用了一个叫做"自持续逃逸速度"的概念作为替代方案。这基本上是指你可以递归地设计 AI 来迭代改进特定结果 — 而不是通过通用模型方法让 AI 在所有方面都变得更好。

"一旦达到逃逸速度,拥有 AGI 就变得无关紧要了,"他说。

Whittemore 在播客中详细讨论了这一点,描述了 Pitman 提出的一个反馈循环,你可以通过基准线和标准来获得所需的提升,并指出系统的三个必要组成部分 — 强化学习、合成数据和高度优化的反馈循环。

他引用 Pitman 的话说:"如果我们的过程真正实现自持续,那么它需要的唯一外部输入就是更多的计算能力(以及时间和内存)来改进自身。如果我们的自我改进速度足够快,那么我们的模型改进过程将达到一个逃逸速度点,在那里改进不仅是线性或叠加的,而是呈指数级复合增长。相比之下,我们目前的扩展定律显示,基础模型已经越过了临界点,其资源投入获得的性能提升呈次线性增长 — 它们将摇摇欲坠,实际上会'落回'地球。"

在提出不需要传统方法负担就能获得效率的观点时,不要错过对彼得原理(在人才搜索中很有用)和齐奥尔科夫斯基火箭方程的引用(这些都直接来自文章)。

"火箭方程表明,试图发射越来越大的火箭会变得越来越低效,"Whittemore 解释道,引用 Pitman 的话。"这是因为更大的火箭需要更多的燃料,这导致火箭重量增加,反过来意味着你需要更多的燃料来发射现在更重的火箭。然而,一旦达到逃逸速度,天平就会倾向于你的火箭,它不再有坠落的风险。目前,基础模型提供商正在面临类似的问题,更强大的模型需要更多的数据 — 当他们开始依赖其他 AI 模型生成的合成数据时,构建更大的模型也变得更加困难,因为需要一个更大的合成数据模型来生成更复杂的数据,这反过来又需要...你可以看到这会走向何方。"

让我印象深刻的另一点是 Pitman 主张将 AI 应用于传递性领域。这是文章中的内容:"SEV (持续逃逸速度) 是一种更有针对性的方法,专注于建立一个可以在有限领域内自我改进的 AI 系统。这个领域必须有利于传递性改进,意味着我们可以假设对 AI 的改进可以相互叠加。一个具有良好传递性的领域例子是总结法律合同。而'当代表演艺术'这样的领域则不是。不过根据我的经验,大多数企业关心解决的问题都在传递性领域。"

这里还有一段 Whittemore 朗读的文章内容,在考虑使用新方法的价值主张时,我不能错过:

"作为一个 AI CEO/CTO,在寻求这片混乱中的可预测性时,SEV 是一个非常有吸引力的方法。要在 AI 改进中建立稳定的轨迹是出了名的困难,这反过来意味着几乎不可能预测你在几个月后会在哪里,更不用说一年后,或者下一轮融资的时间范围。通过 SEV,我们已经将这种混乱控制在一个更可预测的轨迹中,这更多地基于资源而不是工程汗水和 AI 研究人才。"

关于商业的思考

从直接引用 Pitman 的文章转向实际的商业视角,Whittemore 谈到了如何应用它。

"AI 目前确实很出色,"他说,并指出我们需要做很多工作才能赶上当前的能力。他提到了中国的 Manus 模型,以及他认为这个模型和其他模型都被低估了。

这让我想到下一个观点:我想用 Whittemore 的想法来这样框定 — 思考你会如何使用 AGI。

你会告诉 AGI 什么?

例如,你可能有使用 Dall-E 要求 AI 构想图像的经验,或者使用 Sora 要求它制作小视频片段。但如果你只是得到一台电脑,有人说"AI 可以做任何你想做的事",你如何想出这些用例?

这需要一些创造力和思考。如果你像我一样,在给予通用 AI 自由创作权时可能会遇到一些创作障碍。

Whittemore 指出:"目前大部分知识工作可以由 AI 和人类一样好地完成,"这进一步说明了为什么我们不需要追求更多。"在这个时候,几乎所有知识工作都会因为人类使用 AI 而变得更好。...AI 影响商业的限制因素目前不在于能力。而是在于系统、新流程、集成、部署、运营结构的新方式和思维的新方式。事实上,我认为目前能力的增长速度超过了企业整合这些能力的速度。"

我想强调这个观点:现在,我们比新能力更需要流程整合。这是反对在当前时刻试图发现或培育 AGI 的有力论据。

小心使用那把斧头,彼得

然后是我读到的 Edem Gold 的一篇文章中的更多内容,我认为这是必读的,它警告我们不要急于推进 AGI。我想在这里引用他的对比:

"AGI 的支持者认为它代表着一个必要的里程碑,甚至可能是人类克服阻碍文明发展的系统性挑战的关键转折点。通过深刻增强人类能力和自动化常规认知工作,AGI 可能会催化科学、医学、教育、可持续性、太空探索等领域的变革性飞跃。

然而,在我们理解渴望实现 AGI 的巨大可能性的同时,我们也必须坦率地面对在没有伦理、谨慎和智慧的情况下,仓促开发和部署先进 AI 的风险。AGI 的能力使其具有令人难以置信的意外后果或故意滥用的可能性。

历史一再表明,强大的技术往往远远超出人类预见和防范其危害的能力。只要想想含铅汽油、氯氟烃和沙利度胺这样的灾难。AGI 将代表迄今为止人类历史上最具影响力的技术(与电力、火和石油处于同一水平)— 我们不能再重复过去鲁莽采用的错误。"

这也是一个很好的观点。

我认为没有人说我们应该完全忽视 AGI 出现的可能性。我认为普遍的想法是,我们需要掌握如何使用我们现有的技术 — 因为技术发展似乎比我们人类追赶的能力要快得多。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

03/26

13:02

分享

点赞

邮件订阅