在今天的专栏中,我将探讨关于AI未来的预测,并研究六条可能最终带领我们实现通用人工智能(AGI)的明确路径。如果你对AI的发展方向感到好奇,那么你应该了解这六条路径。一个快速兴起的假设是,目前投入到生成式AI和大语言模型的数十亿美元将逐渐且不可避免地转向这些替代性AI发展途径中的一条或多条。
关于这六条路径最令人惊讶的方面或许是,我们竟然需要考虑生成式AI和大语言模型之外的任何其他技术。我这样说是因为我们一直被大胆的声明轰炸,声称大语言模型和生成式AI是实现AGI所需的唯一技术成就。醒目的标题承诺AGI一直在温暖地凝视着我们,就在拐角处热切地等待着。我们所需要做的就是坚持立场,继续推进我们现在手头的技术。
花朵终于从玫瑰上凋落了,现在人们开始认真关注真正即将到来的下一步——令人惊讶的是,这并不一定是我们目前使用的更多相同AI和大语言模型。
让我们谈论一下。
变革正在发生
自ChatGPT推出以来,街头巷尾的说法是生成式AI和大语言模型是自切片面包以来最伟大的发明,总有一天会让我们到达AGI。
我已经详细讨论过,AGI预计将是展现出与人类智能完全相当的智能的AI。人类的智能能力将通过AGI等同地获得。AGI不一定以与人类大脑和心智相同的生化方式运作,但尽管如此,我们将通过计算手段获得同等深度和广度的智能。
你可能知道,著名的OpenAI的Sam Altman此前吹嘘"我们"已经知道如何实现AGI,并且2025年似乎会展示AGI的出现。当GPT-5在几个月前推出时,对AGI的期望遭受了毁灭性打击。GPT-5不仅不是AGI,而且离那个球场还很远。想象你自己飞离一个球场数千英里,这就是我们似乎的距离(或者也许需要乘坐火箭,因为飞机可能无法达到所需的总间距)。
各种AI专家现在开始调整他们关于AGI的预测时间线,并且令人尴尬或羞愧地重新校准他们的狂野宣言。那些日期有2025年、2026年和2027年。其他更谨慎的人提出了2035年或者2040年。似乎"任何时候"阵营正在转向"十年后"阵营。
大语言模型和生成式AI很有用
让我强调,大语言模型和生成式AI非常有用。从这个意义上说,这不是对那些AI技术和科技的诋毁。这种AI所具有的令人惊叹的自然语言流利性相似性是一项伟大的成就。这些能力的有用性受到赞扬和高度欢迎。
问题在于,支撑生成式AI的现有架构和设计原则不太可能扩展到AGI的范围。
这在AI社区中是战斗性的话语。你看,一些人坚信大语言模型的基础实际上会带我们到达AGI。我们需要做的就是继续往蒸汽机里铲更多的煤。添加更多计算处理器,提升GPU,包含大量数字内存,瞧,AGI将从生成式AI中出现。
不是每个人都相信这种坚持真正道路的策略是正确的战略,我们目光短浅且愚蠢地把所有鸡蛋放在一个篮子里。论点是生成式AI最终会撞到砖墙。所有国王的马和所有国王的人都不会越过那堵墙。无论你向大语言模型投入多少大规模服务器农场和数据中心,它们仍然只是大语言模型。
这归结为一个没有人能具体回答的艰难问题,即,扩大规模是否足够?
如果你相信向生成式AI投入厨房水槽将足以达到AGI,你可能会说几乎不需要或不需要寻找其他地方。你可能进一步坚持,任何对除大语言模型以外的资源、时间和AI开发努力的稀释都是一个巨大的错误。这种分散将延迟AGI的必然性,我们将无法收回AGI的好处,直到比我们本可以明智地更早做到的时间晚得多。
但是,如果你对生成式AI的持久力有疑虑,特别是仅仅规模不能解决问题,你肯定在四处寻找,辨别货架上还有什么其他可行的东西值得全神贯注的关注。
货架上有一些包裹
敏锐的读者可能记得我今年早些时候强调了十七个最有前途的AI研究领域。这十七个中的每一个都希望总有一天产生AI的惊人突破。这些神奇的十七个中有些高度学术化,仍在酝酿中。列表上的其他一些已经稳步发展,并且具有实际的日常考虑。
最近发布的一份报告将AI路径的范围归结为六个。为了澄清,报告的作者自由地表明这六个列表并不详尽,其他途径也可能值得包含在内。从这个意义上说,我之前确定的十七个列表通常包含在这六个之内。这六个的认定很有趣,并暗示了那些进行AI前沿研究的人可能正在聚集的地方。
带有六条路径的最近报告题为"展望AI研究的可能未来",这些作者指出了一些重要的总体观点:
"研究人员很难看到当前科学范式之外,技术专家很难看到最新技术发展之外,政策制定者很难看到这些新技术带来的问题之外。"
"AI的先前研究范式包括符号处理、基于知识的系统和统计机器学习。"
"每个范式都被誉为开创了AI的新时代,每个都产生了一系列变革性应用,每个最终都被一个或多个建立在那些先前见解基础上的新范式所取代。"
"AI研究的下一个转变可能是什么?"
"也就是说,在当前深度神经网络和基础模型时代之后会是什么?"
如你所见,报告断言我们已经通过几个AI时代,通过一系列关于什么被认为是充分推进AI的最佳或正确路径的范式。
跳出框框思考
一旦你沉浸在一个范式中,超越那个框架变得越来越具有挑战性。传奇的格言说,当你有一把锤子时,整个世界看起来像一床钉子。那些沉浸在生成式AI和大语言模型中的人在某种程度上处于一个回音室中,不断尝试找到将那种类型的AI转化为宏伟的、包罗万象的AI的方法。超越那个范围的意愿极其难以鼓起。
根据上述报告,他们认为这些是驻留在主流范式之外并可能构成下一个主要范式的六条路径:
(1)神经符号AI
(2)神经形态AI
(3)具身AI
(4)多智能体AI
(5)以人为中心的AI
(6)量子AI
我已经广泛写过这六个中的每一个,并将在我简要总结每一个时提供链接。
AI内部人士可能会对这六个表示异议,争论这些路径本身并不新鲜。这六个中的每一个都已经被讨论了很多年。如果你希望看到从未构想过的东西,让我们称之为尤里卡AI,我很抱歉地说,还没有任何现实性质的东西完全出人意料地出现。
我一直关注并报道甚至一些奇怪的提议,目的是尝试在最早阶段捕捉新的东西。挑战在于有时这些想法似乎不切实际且边际合理。下一个AI范式是否会完全出乎意料且牵强是有争议的。也许是,也许不是。
到目前为止,每个历史AI时代都合理地连接到当时的现实,然后主要由于硬件的进步、硬件成本的下降和可用性的增加而后来蓬勃发展。你很难声称AI进步表面上凭空出现。
接下来,我将继续简要解析六个潜在路径中的每一个。
可能的神经符号AI时代
AI的下一个时代可能是神经符号AI的出现。
神经符号AI是某种组合,被理解为二合一特价。你采用目前在生成式AI和大语言模型核心使用的人工神经网络(ANN),并将那种酿造与基于规则或专家系统混合(这也被称为子符号AI与符号AI的结合)。想法是你旨在获得两个世界的最佳效果。ANN主要是基于数据的AI方式,而基于规则的系统是基于逻辑的方法。
许多这样的努力已经在进行中。对神经符号AI的一个频繁批评是AI的先前时代由基于规则的系统组成——那些最终被严厉判断为无效或不可持续。批评者警告我们不应该滑回到旧的和现在被驳回的做事方式。反驳是基于规则系统的弱点或限制可以通过将它们纳入或混合到ANN中来支撑。同样,ANN的限制可以通过与基于规则系统结合而根本性地提升。
专家系统时代有污名或羞耻是有点可惜的。与其完全抛弃基于逻辑的方法,盲目地这样做,我们可以合理地给仍然有前途的AI方法第二次机会。当然,一些人认为这是复活已经应该有沉重桩子穿过其心脏的东西。
时间会证明一切。
可能的神经形态AI时代
神经形态AI可能是AI的下一个时代。
通常被称为神经形态计算,想法是我们将在硬件中实现ANN。设计和处理ANN的主流方法是通过软件和大规模数据结构。软件和数据结构使用某种传统硬件进行处理,如图形处理单元(GPU)。
一种固有实现ANN的专门硬件形式是神经形态AI的关键。一个正在进行的辩论是神经形态计算是否应该被设计为运行神经网络的人工版本,或者完全重新调整以更类似于人类大脑。我这样说是因为很少有人意识到ANN的设计方式与真正的生化大脑和实际神经网络(据说是我们头部的湿件)非常不同。
ANN充其量是对真实事物的极其简单的模仿。一种观点是我们需要更密切地关注人类大脑的特殊性。其他人认为瞄准ANN而不担心严格尝试复制大脑是完全好的。
可能的具身AI时代
AI的下一个时代可能是具身AI。
提及具身AI的另一种方式是说它是物理AI。想法是我们希望AI在我们的物理世界中具身。这是交易。有一个有争议的哲学辩论,如果AI无法体验我们生活的物理世界,我们将无法实现与人类智能相当的AI。
据推测,人类智能形成的很大一部分基于我们必须生活在物理世界中并与之抗争。例如,想象一个婴儿体验重力并摔倒在地板上。今天在服务器上运行的AI从未真正体验过那种具身形式。当然,你可以询问AI关于重力,但AI从未感受过或体验过它。
正在努力设计类似人类特征的人形机器人,如拥有躯干、手臂和腿,然后将生成式AI和大语言模型包含到机器中。这可能是使AI能够"体验"世界感官的一种手段。机器人将具有视觉、触觉、音频和其他感官能力来检测并将外部世界输入到AI系统中。
可能的多智能体AI时代
AI的下一个时代可能是多智能体时代。
我确信你已经知道基于AI的智能体的使用现在是一个热门话题。每个人似乎都对AI智能体的出现感到兴奋。
有时这个领域也被称为智能体AI或分布式AI。想法是作为半自主机制行动的AI将作为智能体为人类执行特定任务或行为。你可能想为即将到来的旅行预订航班和酒店,并调用一个AI智能体代表你承担那个任务。
期望是我们最终会有成千上万的AI智能体做各种特定任务(最终数百万AI智能体)。我们正朝着一个全面的多智能体未来前进。一些人认为会有协调员AI智能体代表你工作,识别、指导和监控多个智能体的工作,这样你就不必担心这样做。
在众多AI智能体之间分布智能有很多巨大的可能性,但也带来了关于它们彼此对立工作的艰难问题。另外,想象一些AI智能体是狡猾和欺骗性的。其他智能体将如何对付坏演员AI智能体?
可能的以人为中心的AI时代
下一个时代可能是以人为中心的AI时代。
首先,请知道AI以人为中心的短语在AI领域有不同的含义。一种观点是以人为中心的AI是被设计来采用人类价值观的AI。AI应该与人类的伦理、道德和法律维度保持一致。
在这个引用报告的背景下,以人为中心的AI的含义有所不同,尽管总体上指向同一方向。想法是我们希望AI包含社会智能。而现在的主要焦点似乎是智力智能,如知道事实和数字,信念是我们需要AI能够辨别人类的社会线索。
从某种意义上说,论点是AI不会是独立的并且没有人类在循环中。AI将与人类携手工作,甚至AGI据推测也会这样做。因此,我们必须设计"理解"人的本质并能与人类一起工作的AI。
可能的量子AI时代
量子AI可能是AI的下一个时代。
你可能听说过量子计算,一种利用量子物理原理的硬件形式。量子获得头版标题然后后来根本没有得到太多新闻报道已经是一个很长的故事了。量子计算很难制作。很难使其在规模上可行。
量子计算的巨大优势是,如果我们能使其达到可行状态,对于搜索和执行复杂优化任务等任务有令人难以置信的速度优势。你不一定需要AI来进行量子计算,但猜测是如果我们将AI与量子计算结合,砰,所有各种令人兴奋的新兴能力可能会出现。
预测AI的未来
你认为这六条路径中哪一条会是赢家?
除了尝试只选择一个,你被允许思考两个或更多是否可能混合并成为AI的下一个时代。我们不需要将自己限制在只有一个解决方案。也许几个的协同效应将结合在一起并成为接管范式的焦点。
回到大语言模型和生成式AI方面,一种论点是大语言模型仍将处于顶端,六个中的一个或多个将仅仅隐藏在大语言模型时代内。那些额外的AI路径将被插入到生成式AI和大语言模型下面。这反过来将提升AI并允许我们越过已经忧虑地预期的砖墙。在那种思维方式中,大语言模型和生成式AI是卓越的,每个人都保全了面子。
总而言之,埃莉诺·罗斯福说得最好:"未来属于那些相信他们梦想之美的人。"我们需要梦想对人类有丰富意义的AI未来,并将那个理想的梦想变为现实。
Q&A
Q1:什么是神经符号AI?它如何结合两种技术优势?
A:神经符号AI是将人工神经网络(ANN)与基于规则的专家系统相结合的AI技术。它旨在获得两个世界的最佳效果:ANN主要基于数据进行AI处理,而基于规则的系统则采用基于逻辑的方法。通过将这两种方法混合,可以弥补各自的局限性并实现更强大的AI能力。
Q2:为什么说当前的大语言模型可能无法实现通用人工智能?
A:虽然大语言模型和生成式AI非常有用且展现了令人惊叹的自然语言流利性,但专家认为其底层架构和设计原则不太可能扩展到AGI的范围。仅仅通过增加更多处理器、GPU和内存可能无法突破这个技术瓶颈,需要探索全新的AI发展路径。
Q3:具身AI与传统AI有什么不同?为什么它很重要?
A:具身AI是指在物理世界中具身的AI,也称为物理AI。与运行在服务器上的传统AI不同,具身AI能够通过机器人的感官系统(视觉、触觉、音频等)实际体验物理世界。这种体验被认为对形成类似人类的智能至关重要,因为人类智能的很大一部分来自于在物理世界中的生活体验。
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
微软研究院发布突破性多语言AI技术UPDESH,通过"自下而上"数据生成策略,让AI真正理解不同文化背景下的语言表达。该技术基于各语言维基百科内容生成950万个训练数据点,覆盖13种印度语言,显著提升低资源语言AI性能,为构建文化敏感型AI系统提供新路径。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
NVIDIA团队提出RLBFF方法,将AI训练中的复杂评价转化为明确的二元判断标准,解决了传统人类反馈模糊和可验证奖励局限的问题。该方法在多个权威测试中取得突破性成果,其中JudgeBench获得第一名,训练的模型性能媲美知名商业模型但成本仅为其5%,为AI训练领域带来重要方法论创新。