在今天的专栏中,我将探讨一个日益增长的假设:在实现通用人工智能(AGI)过程中存在一个AI确定性窗口。这意味着什么呢?一些人断言,随着我们越来越接近AGI,我们对实现它的确定性会上升,不确定性会减少。这表明我们预测或预报AGI到来的能力在通往AGI的艰难旅程中会变得更强,并且是渐进式的。
让我们深入讨论这个问题。
这项创新性AI突破的分析是我在《福布斯》专栏中持续报道AI最新进展的一部分,包括识别和解释各种有影响力的AI复杂性。
迈向AGI和ASI
首先,需要一些基础知识来为这个重要讨论奠定基础。
目前有大量研究正在进行,以进一步推进AI发展。总体目标是实现通用人工智能(AGI),或者甚至是达成人工超级智能(ASI)这一遥远的可能性。
AGI是被认为与人类智力相当的AI,能够看似匹配我们的智能。ASI则是超越人类智力的AI,在许多甚至所有可行的方面都会更胜一筹。其理念是ASI能够在思维上全方位超越人类,在每个转折点都能胜过我们。
我们尚未实现AGI。
事实上,我们是否会达到AGI还未可知,或者AGI可能在几十年甚至几个世纪后才能实现。目前流传的AGI实现日期变化很大,且缺乏任何可信证据或严密逻辑的支撑。相对于我们目前的传统AI水平,ASI更是遥不可及。
确定性窗口
转换话题,考虑一个关于旅程和目标的实用经验法则。我们的直觉告诉我们,越接近某个目标或目的地,就越能准确预测何时到达。这是一个近乎普遍的原则。
想象你正在荒野中徒步旅行。在徒步开始时,你可能对何时到达那个靠近宁静湖泊的梦幻营地有一个大概的概念。可能需要五到十个小时才能穿越山丘。这完全取决于你的体力状况、地形是否合理以及无数其他因素。
在烈日下不间断徒步两小时后,你评估自己的位置和可能到达那个冰冷湖泊的时间。你是否能够更好地评估可能到达营地的时间?可能是的。你已经走完了一些距离,能够更好地判断事情可能如何发展。
可以说,确定性窗口让你对到达目的地的时间有了更清晰的认识。另一种思考方式是不确定性正在减少。这种评估某事实现的想法适用于生活中的各种事务。越接近目标,似乎越能准确猜测到达的时间。
AGI确定性窗口
确定性窗口是否适用于AGI的实现?
AI社区中的许多人认为必然如此。这似乎是有道理的。我们通过推进传统AI正在逐步取得进展。每一步似乎都让我们更接近备受推崇的AGI。在这种逐步进展中,我们应该能够更好地了解何时会达到AGI。
例如,假设到2040年实现AGI的预测大致准确。一个普遍的信念是,在AGI实现前五年内,比如到2035年,我们会充分了解AGI是否会发生。同时,在2030年这个十年距离上,评估2040年出现AGI的可能性被认为要低得多。
你可以通过提及不确定性而非确定性来重新表述这种理解。准确预测2040年的不确定性在2030年比在2035年更高(我们更不确定)。随着预期目标的临近,不确定性会减少。
AGI路径上的陷阱
理想化的世界会很好地确保确定性窗口始终有效。但现实中,我们并不生活在这样的世界中。
再次考虑前往那个梦幻营地的徒步旅行。仅仅因为你已经徒步了两个小时,并不一定能告诉你余下的路径可能包含什么。你不知道的是,也许有一只愤怒的熊正在前方的小径上等待。这只熊无疑会拖慢你的进度,你可能需要等待数小时才能让这只野兽离开。
AI的进展可能类似于这种错误信念,即已经取得的进展会在某种程度上等同于可能的未来进展。
AI进展可能会遇到阻碍。也许这会将AI向AGI的发展延迟几年,甚至十年或更长时间。设想在通往2040年的路径上,2036年出现了严重阻碍。虽然在2035年一切看起来都很美好,但2036年的阻碍对预期的2040年实现构成了深刻的威胁。
另一个干扰可能是推进AI的努力过于秘密,几乎无法评估进展如何。在2035年,想象所有AI制造商都守口如瓶,不透露其AI的状态。可能很难确定AI的状态,然后预测2040年可能出现的情况。
比你想象的更早
到目前为止,我强调了会延迟或拖延AGI实现的方面。这个硬币的另一面是AGI可能比假设的更早出现。
这里有这样一个场景。一些人坚信我们将经历智能爆炸,由AI相互促进并迅速加速向AGI发展。假设我们正在AI进展方面稳步前进,然后,突然间,我们触发了智能爆炸。几分钟或几小时后,AGI就实现了。
没有人能确定我们是否会以某种方式引发智能爆炸。也没有人能确定它是否可能自行发生,在没有人为干预的情况下出现。甚至试图猜测智能爆炸何时会发生也同样受到广泛而激烈的辩论。
回到AGI确定性窗口,设想现在是2035年,所有预测都一致认为到2040年我们将达到AGI。在2036年,智能爆炸发生了。它让我们所有人都完全措手不及。无论如何,AGI在2036年突然实现了。
尽力而为
结论是,虽然对AGI进行预测是值得的,包括以确定性窗口的心态进行预测,但旅程有很多方式可能被打乱。在预测AGI何时实现时,应该真诚地采用大剂量的怀疑态度和审视态度。
传奇管理大师彼得·德鲁克对预测挑战说得最好:"试图预测未来就像试图在夜晚没有灯光的情况下开车沿着乡村道路行驶,同时看着后视窗。"
这大致就是AGI实现所面临的事件过程。
Q&A
Q1:什么是AGI确定性窗口?
A:AGI确定性窗口是指随着我们越来越接近通用人工智能(AGI)的实现,我们对成功实现它的确定性会上升,不确定性会减少。这意味着我们预测AGI到来的能力在通往AGI的旅程中会逐渐增强。
Q2:为什么说预测AGI实现时间存在很大不确定性?
A:因为AGI发展路径可能遇到各种意外情况,比如技术阻碍导致延迟数年甚至十年,或者AI研发过于保密难以评估进展状态,又或者可能出现智能爆炸导致AGI比预期更早实现。这些不可预见的因素都会影响预测准确性。
Q3:智能爆炸会如何影响AGI的实现?
A:智能爆炸是指AI相互促进并迅速加速向AGI发展的现象。如果发生智能爆炸,AGI可能在几分钟或几小时内突然实现,远早于所有预期。但没有人能确定智能爆炸是否会发生,也无法准确预测其发生时间。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。