在今天的专栏中,我将继续我的特别系列,探讨从传统AI发展到备受期待的AGI(通用人工智能)的预期路径。本文的焦点是对AGI发展过程中所谓"智能爆发"详细方面的分析性推测深度探讨。我之前概述了AI发展到AGI的七条主要路径(详见链接)——其中一条路径是不太可能的"登月计划"路径,即通过假设性突破(比如智能爆发)来突然且近乎奇迹般地推动AGI的出现。
让我们来谈论这个话题。
这项对创新AI突破的分析是我在《福布斯》专栏中持续报道AI最新发展的一部分,包括识别和解释各种有影响力的AI复杂性。对于那些一直关注我关于AGI路径特别系列的读者,请注意我在本文开头提供了与之前类似的背景信息,为新读者做铺垫。
走向AGI与ASI
首先,需要一些基础知识来为这个重要讨论奠定基础。
目前有大量研究正在进行,以进一步推进AI发展。总体目标是要么达到通用人工智能(AGI),要么甚至可能实现人工超级智能(ASI)这个更遥远的可能性。
AGI是被认为与人类智力相当的AI,似乎能够匹配我们的智能。ASI是超越人类智力的AI,在许多甚至所有可行的方面都会优于人类。其理念是ASI能够在各个方面都超越人类思维,从而在智力上完全碾压我们。
我们尚未实现AGI。
事实上,我们是否会达到AGI还是未知数,或者说AGI可能在几十年或几个世纪后才能实现。目前流传的AGI实现日期变化很大,且缺乏任何可信证据或严密逻辑的支撑。相对于我们目前的传统AI水平,ASI更是遥不可及。
AI专家对AGI日期的共识
目前,预测何时能够实现AGI的努力主要包括两条路径。
首先,有一些高调的AI权威人士做出个人化的大胆预测。他们的豪言壮语经常成为媒体头条。这些预言似乎都集中在2030年作为AGI的目标日期。另一条相对安静的路径是定期对AI专家进行调查或投票。这种群体智慧方法是一种科学共识形式。正如我在链接中讨论的,最新的投票似乎表明AI专家普遍认为我们将在2040年前达到AGI。
你应该被AI权威人士还是AI专家及其科学共识所影响?
从历史上看,使用科学共识作为理解科学立场的方法相对流行,被认为是标准做法。如果你依赖单个科学家,他们可能对此事有自己独特的观点。共识的美妙之处在于,特定领域的大多数人将他们的集体力量投入到所支持的任何立场背后。
古老的格言说,两个头脑胜过一个。在科学共识的情况下,可能是几十个、几百个或几千个头脑胜过一个。对于这次关于AGI各种路径的讨论,我将以2040年作为共识预期的目标日期来进行。
除了AI专家的科学共识外,另一种更新且更全面的方法来衡量何时实现AGI被称为AGI证据汇聚或AGI统一性,我在链接中对此进行了讨论。
七条主要路径
如前所述,在之前的文章中,我确定了AI发展成为AGI的七条主要路径。以下是从当代AI发展到珍贵AGI的所有七条主要路径:
(1)线性路径(稳步前进):这条AGI路径体现了渐进主义观点,即AI发展通过扩展、工程和迭代逐步累积,最终到达AGI。
(2)S曲线路径(平台期和复苏):这条AGI路径反映了AI发展的历史趋势(如早期的AI寒冬),允许在停滞后通过突破实现升级。
(3)曲棍球棒路径(缓慢开始,然后快速增长):这条AGI路径强调重要关键拐点的影响,该拐点重新构想和重新定向AI发展,可能通过理论化的AI涌现能力产生。
(4)摇摆路径(不规则波动):这条AGI路径考虑了推进AI的高度不确定性,包括过度炒作-幻灭周期,也可能被外部影响性干扰(技术、政治、社会)所打断。
(5)登月路径(突然跳跃):包含AI发展中的激进和意外不连续性,如著名设想的智能爆发或类似的大汇聚,自发且几乎瞬间到达AGI。
(6)永无止境路径(永续摸索):这代表了严厉的怀疑观点,即AGI可能是人类无法达到的,但我们仍然继续尝试,以持久的希望和信念坚持认为AGI就在下一个转角。
(7)死胡同路径(AGI似乎无法实现):这表明人类在追求AGI时可能会遇到死胡同,这可能是暂时的僵局,也可能是永久性的,使得无论我们做什么都永远无法实现AGI。
你可以将这七种可能的路径应用到你想提出的任何AGI时间表上。
未来预测
让我们采用便利的分而治之方法来确定从当前AI发展到AGI必须发生什么。
我们生活在2025年,并且应该在2040年到达AGI。这本质上是15年的时间。想法是规划接下来的十五年,并推测在这个过程中AI将发生什么。
这可以通过前瞻性模式和回顾性模式来完成。前瞻性涉及从现在开始逐年思考AI的进展,最终在2040年到达AGI。回顾性模式涉及从2040年作为AGI的截止日期开始,然后逐年向后推算到2025年(匹配目前的AI)。这种前瞻和回顾相结合的设想是未来预测的典型特征。
这种对未来的预测是否牢不可破?
不是的。
如果有人能够精确地规划出接下来十五年AI将发生什么,他们在预测方面可能会像巴菲特预测股市一样有先见之明。这样的人很容易获得诺贝尔奖,并且应该是有史以来最富有的人之一。
总的来说,我在这里展示的这个假设主要是为了激发我们如何进行AI状态未来预测的思路。这是一个推测。这是投机性的。但至少它有合理的基础,不是完全任意或完全人为的。
我继续使用在2040年达到AGI的十五年作为说明性例子。可能2050年是AGI的日期,因此这个旅程将在25年内完成。时间表和映射将需要处理25年而不是十五年。如果2030年将是AGI到达年,路径将需要显著压缩。
通往AGI路上的智能爆发
登月路径涉及突然且通常意外的激进突破,迅速将传统AI转变为AGI。关于这种突破可能包含什么内容存在各种疯狂的推测。
最著名的假设突破之一是智能爆发的出现。想法是一旦智能爆发发生,假设这种现象真的发生,AI将以快速连射的方式加速发展成为AGI。
这种类型的路径与线性路径形成鲜明对比。在线性路径中,AI向AGI的发展每年相对平等,包括从传统AI到AGI的渐进增量攀升。我在之前的文章中详细说明了线性路径的细节。
智能爆发何时会发生?
由于我们假设十五年的时间表,预测是AGI将在2040年实现,智能爆发发生的逻辑位置是在2040年日期附近,可能发生在2039年或2038年。这在逻辑上是有意义的,因为如果智能爆发发生得更早,我们显然会更早达到AGI。例如,假设智能爆发发生在2032年。如果智能爆发确实为我们带来了AGI,我们会宣布2032年或2033年为AGI日期,而不是2040年。
让我们使用这个作为我们在此背景下的假设时间表:
2025-2038年:AI在某种程度上正在发展,但尚未达到AGI。
2038-2039年:智能爆发发生。
2039-2040年:AGI得以实现。
定义智能爆发
你可能好奇智能爆发包含什么,以及为什么它必然似乎能实现AGI。
理解智能爆发的最佳方式是首先反思链式反应,如原子弹或核反应堆中发生的情况。我们现在都知道,原子粒子可以被强制或驱动疯狂地相互弹跳,快速进展直到产生大规模爆炸或能量爆发。这通常在学校作为基础物理原理教授,许多大片电影都戏剧性地展示了这种活动(如克里斯托弗·诺兰著名的《奥本海默》电影)。
AI社区的一个理论是智能也可以做同样的事情。它是这样的。你把一大堆智能聚集在一起,让这种智能从手头的集合中获得养分。几乎像着火一样,在某个时刻,智能将与之混合并基本上推动创造额外的智能。智能快速连续地积累。
砰,智能链式反应发生,这被称为智能爆发。
AI社区倾向于将AI智能爆发的最初构想归因于约翰·古德·欧文(John Good Irving)1965年发表的一篇研究论文,题为"关于第一台超智能机器的推测"(《计算机进展》第6卷)。欧文在他的文章中做出了这个预测:
"在二十世纪内,建造一台超智能机器的可能性超过一半,它将是人类需要制造的最后一项发明,因为它将导致'智能爆发'。这将以无法想象的方式改变社会。"
关于智能爆发的争议
让我们考虑一些关于智能爆发的值得注意的争议。
首先,我们没有可信的证据表明智能爆发本身是一个实际现象。为了澄清,是的,如果你有一些收集的智能并将其与其他收集的智能结合,很明显你拥有的收集智能可能会比你开始时拥有的更多。智能推动更多智能存在潜在的协同作用。
但是,智能将在某些计算环境中与其他智能自由运行并激发大量智能的概念,嗯,这是一个有趣的理论,我们还没有看到这在任何有意义的规模上发生。我不是说这不可能发生。永远不要说永远。
其次,智能爆发的步伐也是一个备受争议的问题。主流观点是,一旦智能开始从其他智能中获得养分,快速链式反应将会出现。智能突然且以巨大的怒火溢出到大量额外智能的洪流中。
一种信念是这将在眨眼间发生。人类将无法看到它的发生,而只会成为惊人结果的事后见证者。不是每个人都赞同那种瞬间智能爆发推测。有些人说可能需要几分钟、几小时、几天、几周或几个月。其他人说可能需要几年、几十年或几个世纪。
没有人知道。
启动和停止智能爆发
在这个令人担忧的篮子里还有其他争议。
我们如何启动智能爆发?
换句话说,假设人类想要产生智能爆发。让这种情况发生的方法是未知的。必须有某种方式激发智能与其他智能混合。什么算法能让这种情况发生?
一种观点是人类不会找到使其发生的方法,相反,它只会自然发生。想象一下,我们已经将大量智能投入到某种计算系统中。令我们惊讶的是,出乎意料地,智能开始与其他智能混合。令人兴奋。
这给我们带来了另一个也许显而易见的问题,即我们如何停止智能爆发?
也许我们无法阻止它,智能将无休止地增长。这是好结果还是坏结果?也许我们可以阻止它,但我们无法重新点燃它。糟糕,如果我们过早停止智能爆发,我们可能会搬起石头砸自己的脚,因为我们没有获得尽可能多的新智能。
一个受到大量媒体关注的流行传说是智能爆发将失控。事情是这样发生的。一群AI开发者坐在那里玩弄传统AI,突然智能爆发被激发(AI开发者没有让它发生,他们是旁观者)。AI迅速成为AGI。很好。但智能爆发继续进行,我们不知道如何停止它。
接下来我们知道,ASI已经达到了。
担忧是ASI将决定它不需要人类在身边,或者ASI不如奴役我们。你看,我们意外地越过了AGI,无意中降落在ASI。ASI的存在风险出现,ASI击垮了我们,我们完全措手不及。
带有智能爆发的AGI时间表
现在我已经阐述了智能爆发是什么的要点,让我们假设我们很幸运,有一个相对安全的智能爆发,将传统AI转变为AGI。我们将搁置滑入ASI的问题。
幸运的是,就像金发姑娘一样,粥不会太热也不会太冷。智能爆发将带我们直接获得足以满足AGI的正确智能量。就这样,故事结束。以下是从2025年到2040年的一个假设未来预测路线图,包含了让我们达到AGI的智能爆发:
2025-2038年(智能爆发之前):
AI多模态模型最终变得稳健并完全集成到大语言模型中。AI实时推理、感觉运动整合和基础语言理解出现显著改进。
智能体AI开始蓬勃发展并变得实用和广泛。具有记忆和规划能力的AI系统在模拟环境中的开放式任务中实现能力。
AI大规模世界模型的使用刺激了AI能力的大幅改进。AI现在可以通过AI元学习的进步从更少的例子中进行计算改进。
AI智能体逐渐获得广泛接受,能够在数字和物理领域(包括机器人技术)半自主地执行多步骤任务。
AI足够先进,通过具身学习对物理因果关系和现实世界约束有了广泛的理解。
但似乎看不到AGI的迹象,AI内外的许多人都在担心AI不会成为AGI。
2038-2039年(智能爆发):
AI智能爆发产生大量新智能。
自我改进的AI系统开始在受控条件下修改自己的代码。
AI智能体在所有认知基准测试中达到人类水平的性能,包括抽象、心理理论(ToM)和跨领域学习。
AI系统表现出真正的自我反思迹象,而不仅仅是例行化的模仿或鹦鹉学舌。AI的进步展示了类似人类的情境适应性和创新。
AI系统现在体现持久身份,能够反思跨时间的经验。当AI在不同背景下展示创造力、情感细微差别和抽象推理时,接受AI作为AGI的最后一些障碍被克服。
2039-2040年(AGI得以实现):
2040年广泛普遍同意AGI现在已经实现,尽管这仍然是AGI的早期阶段。智能爆发为我们带来了AGI。
思考时间表
我请你思考这个假设时间表,并考虑如果智能爆发在2038年或2039年发生,你将在哪里以及你将做什么。你必须承认,这将是一个相当神奇的事件,希望是一个社会乐观的结果,而不是什么阴暗的东西。
达赖喇嘛说过这样一句名言:"重要的是用良好的意图来指导我们的智慧。没有智慧,我们无法完成很多事情。没有良好的意图,我们运用智慧的方式可能会产生破坏性的结果。"
如果上述时间表成真,你在指导我们前进方向方面有潜在的作用。AGI会被赋予良好的意图吗?我们能够与AGI携手合作并实现良好的意图吗?这取决于你。请考虑尽你所能利用珍贵的智能爆发来造福人类。
好文章,需要你的鼓励
阿里团队开发的FantasyPortrait系统突破了传统人像动画的局限,通过隐式表情表示和掩码交叉注意力机制,实现了高质量的单人和多人肖像动画生成,特别在跨身份表情迁移方面表现出色,为视频制作和虚拟交流等领域带来新的技术可能性。
复旦大学研究团队开发的AnyI2V系统实现了从任意条件图像到视频的生成突破。该系统无需训练即可处理多种输入模态(包括3D网格、点云等),支持用户自定义运动轨迹控制,并通过创新的特征注入和语义掩模技术实现了高质量视频生成,为视频创作领域带来了革命性的便利工具。
Akamai坚持“简而未减、网络先行、拥抱开源”的独特定位。凭借“鱼与熊掌兼得”的特色,过去几年,Akamai在电商、流媒体、广告科技、SaaS、金融科技等行业客户中获得了广泛认可。
斯坦福大学研究团队开发了KL-tracing方法,能让视频生成AI模型在无需专门训练的情况下进行精确物体追踪。该方法通过在视频帧中添加微小追踪标记,利用模型的物理理解能力预测物体运动轨迹。在真实场景测试中,相比传统方法性能提升16.6%,展现了大型生成模型在计算机视觉任务中的潜力。