超越 ChatGPT:通往通用人工智能的 5 大挑战

人工通用智能(AGI)是AI发展的终极目标,但实现这一目标面临诸多挑战。本文探讨了实现AGI的五大关键障碍:常识与直觉的缺乏、学习迁移能力不足、物理与数字世界的鸿沟、可扩展性难题,以及社会信任问题。克服这些挑战需要突破性技术进展、大规模投资和广泛的社会变革。

当今的 AI 令人惊叹——像 ChatGPT 这样的工具能够完成几年前看似不可能的任务。

但对于那些看着《星际迷航》、《银翼杀手》或《2001太空漫游》长大的我们来说,这仅仅是开始。

与这些科幻作品中的 AI 或人类不同,今天的 AI 还不能完全探索、互动并从世界中学习。如果能做到这一点,它就能像《星际迷航》中超级实用的机器人 Data (或人类) 一样,学会解决任何问题或完成任何工作,而不仅仅局限于最初训练的任务。

包括 ChatGPT 创造者 OpenAI 在内的世界顶级 AI 研究人员认为,构建这种被称为通用人工智能 (AGI) 的智能机器是 AI 发展的圣杯。AGI 将使机器能够"泛化"知识,处理几乎任何人类可以执行的任务。

不过,在实现这一目标之前,我们还需要解决一些重大问题。这需要 AI 的进一步突破、大量投资以及广泛的社会变革。

以下是我总结的要实现科幻电影中承诺的那种光明、全自动的 AI 驱动未来所需克服的五大障碍 (会出什么问题呢?):

1. 常识和直觉

今天的 AI 缺乏充分探索和利用其所处世界的能力。作为人类,我们通过进化适应了解决现实世界问题的能力,可以利用各种工具和数据。机器还没有这种能力——它们通过从现实世界提取的数字数据来了解世界,其保真度取决于可能的水平。

作为人类,我们建立了一个"世界地图",这影响着我们的理解力和完成任务的能力。这张地图包含了我们所有的感知、学习、固有信念和偏见,以及所有经历。机器通过分析网络上传输的数字数据或用传感器收集数据,还无法达到这种深度理解。

例如,在计算机视觉方面,AI 可以通过观看鸟类飞行的视频来学习很多知识——可能包括它们的大小、形状、物种和行为。但它不太可能意识到通过研究鸟类行为可以学会自己如何飞行,并将这种学习应用到像人类那样制造飞行器上。

常识和直觉是两个仍然专属于人类的智能方面,对于我们驾驭模糊性、混沌和机遇至关重要。在实现 AGI 之前,我们可能需要更深入地研究它们与机器智能的关系。

2. 学习的可迁移性

我们通过与世界的广泛互动而发展出的一个固有能力是将从一项任务中学到的知识应用到另一项任务中。

今天的 AI 是为狭窄的任务而构建的。医疗聊天机器人可能能够分析扫描结果、咨询患者、评估症状并开具处方。但让它诊断坏掉的冰箱,它就毫无头绪。尽管这两项任务都依赖于模式识别和逻辑思维,但 AI 只是缺乏以能帮助它解决明确训练范围之外问题的方式处理数据的能力。

相反,人类可以在完全不同的领域之间调整问题解决、推理和创造性思维技能。因此,例如,一个人类医生可能会使用他们的诊断推理来排查故障的冰箱,即使没有正式培训。

要实现 AGI,AI 必须发展出这种能力——无需完整重训练就能跨领域应用知识。当 AI 无需在全新数据集上重新训练就能建立这些联系时,我们将离真正的通用智能更近一步。

3. 物理-数字鸿沟

我们人类通过感官与世界交互。机器必须使用传感器。这种差异归结于进化,进化在数百万年间磨练了我们看、听、触摸、闻和尝的能力。

另一方面,机器依赖于我们给它们的工具。这些工具可能是也可能不是收集它们真正需要的数据以最佳方式解决问题的最佳方式。它们可以通过我们允许的方式与外部系统交互——无论是通过 API 进行数字交互还是通过机器人进行物理交互。但它们没有一套标准工具,可以像我们有手和脚那样适应与世界任何方面的交互。

以像我们这样复杂的方式与物理世界互动——例如协助体力劳动,或访问未特别授权的计算机系统——将需要能够跨越这一鸿沟的 AI。我们可以在早期的主动式 AI 工具中看到这一点,比如 Operator,它使用计算机视觉来理解网站并访问外部工具。然而,在 AGI 不再只是一个梦想之前,还需要做更多工作来使机器能够独立探索、理解和与物理和数字系统交互。

4. 可扩展性困境

训练和部署即使是今天的 AI 模型所需的数据量和计算能力都是巨大的。但根据我们目前的理解,实现 AGI 所需的数量可能要大得多。人们已经对 AI 的能源足迹表示担忧,而且需要越来越大的基础设施项目来支持这一目标。是否愿意进行必要程度的投资,将在很大程度上取决于 AI 公司能否证明他们可以从之前几代 AI 技术中获得投资回报 (比如许多公司现在正在冲浪的生成式 AI 浪潮)。

根据一些专家的说法,我们已经看到仅仅通过投入更多的处理能力和数据来构建更智能的 AI 的收益在减少。ChatGPT 最近的更新——Omni 系列模型——以及最近推出的挑战者 DeepSeek,都专注于添加推理和逻辑能力。这在推理阶段 (工具在用户手中时) 需要更多功率,而不是在训练阶段。无论解决方案如何,AGI 可能需要比现在可用的处理能力高出数个数量级的事实是它尚未实现的另一个原因。

5. 信任问题

这是一个非技术性障碍,但这并不会使其成为较小的问题。问题是,即使技术已经准备就绪,社会是否准备好接受人类被机器取代成为地球上最有能力、最智能和最适应性强的实体?

他们可能不会这样做的一个很好的理由是,机器 (或创造它们的人) 还没有达到所需的信任水平。想想自然语言生成式 AI 聊天机器人的出现如何在我们认识到它对就业到人类创造力的一切影响时引起震动。现在想象一下,当能够独立思考并在几乎任何方面都胜过我们的机器出现时,会引起多少恐惧和担忧。

今天,许多 AI 系统都是"黑匣子",这意味着我们对它们内部发生的事情或它们如何运作知之甚少。要让社会足够信任 AI 来让它为我们做决定,AGI 系统必须具有远超今天 AI 系统的可解释性和问责性。

那么,我们能实现 AGI 吗?

这是世界顶级 AI 研究人员在 AI 公司向 AGI 目标竞争的今天正在试图解决的五个最重要的挑战。我们不知道他们需要多长时间才能达到那里,获胜者可能不是那些在比赛开始时领先的人。其他新兴技术,如量子计算或新能源解决方案,可能提供一些答案。但如果 AGI 要安全地引领一个更强大和更有用的 AI 新时代,就需要超越迄今为止我们所见到的人类合作和监督水平。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

03/14

09:47

分享

点赞

邮件订阅