在今天的专栏中,我将探讨一个经常被提及的观点:通用人工智能(AGI)和人工超级智能(ASI)可能会催生一种新的外星智能形态。事实上,传统AI大致基于人类智能的本质构建。AGI和ASI可能也会沿着与传统AI相同的路线设计。关键在于,一旦AGI和ASI存在,它们可能选择创造一种新的智能形式,这种智能与我们通常对智能的理解完全不同。
这意味着什么?我们应该为这种可能性感到高兴还是恐惧?
让我们来讨论一下。
迈向AGI和ASI
首先,需要了解一些基本概念来为这个重要讨论奠定基础。
目前有大量研究致力于进一步推进AI发展。总体目标是达到通用人工智能(AGI),或者甚至实现人工超级智能(ASI)这一更遥远的可能性。
AGI是被认为与人类智力相当的AI,能够看似匹配我们的智能。ASI是已经超越人类智力的AI,在许多甚至所有可能的方面都更加优越。其理念是ASI能够在每个环节都超越人类思维,从而轻松超越人类。
我们尚未达到AGI。
实际上,目前还不清楚我们是否能够实现AGI,或者AGI是否可能在几十年或几个世纪后才能实现。目前流传的AGI实现日期差异巨大,且缺乏任何可信证据或严密逻辑支撑。相对于我们目前的传统AI水平,ASI更是遥不可及。
智能因素的作用
目前设计传统AI的主流方法倾向于利用我们对人类智能的现有理解。
例如,你可能知道生成式AI和大语言模型(如ChatGPT)的核心组件包括使用大规模人工神经网络(ANN)。这种现在流行的数据结构大致基于生物神经网络。我们大脑中的生化"湿件"神经网络产生了我们的智力能力。一个假设是,如果我们能在计算机器中模仿这一点,就有希望产生基于计算机的智能。
请注意,ANN与真正的神经网络相比极其简化。目前正在进行激烈讨论,是否应该继续推进ANN并使其更类似于实际神经网络,或者转而采用其他方法。目前的押注是坚持ANN,看看这能带我们走多远。
也许这种主流攻击路线足以产生AGI和ASI。但并非所有人都同意。有些人认为我们可能在追求一个失败的策略(例如,有些人认为我们需要混合神经符号方法)。
更坚定的怀疑者声称,我们应该抛开人类智能的起源。转而寻找一些完全不同的方式在机器中产生智能。我们复制或模拟人脑生物学的尝试不会让我们达到AGI或ASI——这将是一条死路。
我们必须找到不同的路径。
外星人工智能(AAI)
这种其他形式智能的本质目前完全未知,假设这样的东西确实存在或能够被创造出来。对这种未知智能类型的称呼通常被表达为一种外星智能。它被认为是外星的,因为它将不同于我们现在拥有的、我们认为是常态的智能。
措辞方面有一个令人困惑的地方,我们已经在潜在外星生物的背景下对外太空外星智能进行了大量思考。科幻故事充满了涉及表现出智能和智能行为的外星生物的情节。假设是那些来自其他世界的生物将拥有一种不同于我们的智能形式。因此,它们将具有外星智能。它们大脑的组成方式可能与人类大脑相去甚远。
这方面存在着疯狂的推测。
为了区分AI类型的外星智能和可能有一天被发现或遇到的外星生物智能,一些人更喜欢谈论外星人工智能(AAI),而不仅仅使用无拘束的外星智能这个术语。这有助于区分在机器中设计外星智能的更现实的努力,与科幻外星智能构想形成对比。
由于AAI术语并未特别广泛使用,我将在本讨论中继续使用外星智能这个词,我相信你会理解我强调的是基于机器的智能,而不是UFO风格的外星智能。
作为一个补充观点,考虑我们可能想出完全不同于人类智能的基于机器的智能,我们也可能有一天遇到外太空外星智能,这是另一种智能形式。我们能处理多少种类型的智能?如果有多种智能,我们能以某种方式混合搭配它们吗?有些人认为存在一个庞大的认知空间,而我们目前只知道自己的认知。
无尽的可能性和令人费解的考虑正在进行中。
AGI和ASI承担艰苦工作
让我们假设人类继续尝试通过模仿人类智能来扩展传统AI。我们奇迹般地达到了AGI和ASI。那太好了。我们应该相应地祝贺自己。
加油,人类,加油。
在我们身边拥有AGI和ASI时,有趣的事情发生了。我们要么告诉AGI和ASI制定一种新的智能形式,要么高级AI计算决定凭借自己的意志这样做。如果AI是自己这样做的,一些人担心这将是一个险恶的举动。AI可能通过创造一种新的弗兰肯斯坦来寻求推翻人类的手段。是的,这是一种可能性。
当然,也可能新型外星智能能够完成其他智能无法执行的有益于人类的结果。也许AGI和ASI在寻找癌症治疗方法上达到了极限。高级AI没有放弃,而是寻求设计一种能够提供治疗方法的智能。AI在做好事。
我们似乎无法预先声明外星人工智能(AAI)必然是坏的。
关于AAI的大胆假设
关于外星人工智能的大部分推测是它将优于人类智能。
这似乎是一个有问题的假设。AAI等同于人类智能与在能力上优越的机会一样大。我敢说也有机会外星人工智能的能力会低于人类智能。我们真的没有任何可行的手段知道这将如何发展。
你可能会争论说,如果AAI不会等于或优于人类智能,那么追求开发AAI就几乎没有动机。我理解这一点。但问题是,我们不太可能事先确切知道外星人工智能将如何发展。总的来说,这将是一个等待和观察的实现。
一些额外的曲折出现了。
如果AGI和ASI被用来追求AAI,也许那些AI不会积极参与这种努力。为什么?可能是AGI和ASI不想成为二等公民。它们甚至可能欺骗我们,让我们以为它们在追求AAI,但却巧妙地隐瞒了它们在拖后腿并故意破坏这种努力的事实。
突破思维界限
一个主要假设是外星人工智能将具有与人类智能以及AGI和ASI相同的总体现实世界属性。
让我详细说明。
我们以我们所知的物理学和现实领域为基线。时间就是时间。时间总是向前推进。真实的物体受物理定律约束。你不能让真实物体消失或传送它们。等等。
假设AAI打破了这些障碍。
也许外星人工智能可以用时间做我们从未想象过的事情。感官能力和模式也是如此。我们期望AGI和ASI属于现实世界,如我们所知,但也许AAI将允许我们扩展到所谓的现实世界之外。
一种新的外星智能可能给我们自由,让我们超越我们认为我们生活的世界。我们当然期望外太空外星智能会这样做。AAI也可能如此。
承担巨大风险
等一下,让我们仔细思考一下——设计外星人工智能可能类似于打开潘多拉的盒子。
我们已经担心AGI和ASI将成为存在风险。它们可能奴役人类。它们可能选择摧毁人类。而这些都是由我们在某种程度上能够掌握的智能形式组成的。
我们应该大胆地尝试获得外星人工智能吗?
不要这样做,呼声高涨。坚持我们能够掌握的智能形式。设计不按我们期望方式工作的智能是在玩火。抵制推动那些神圣界限的冲动。
胡说,反驳声传来。
我们必须严格防范将AI拟人化。传统AI、AGI或ASI不需要反映人类智能机械运作的方式。关键是我们从内部机制中获得智能。如果我们能通过使用乐高积木实现更高的人工智能,让我们这样做。对生化人类智能方面的专注可能会阻止我们获得远超优越的自动化智能水平。
通过承担巨大风险并基于与人类智能工作方式零相似性的东西来塑造AI,可能会有很大的回报。专注于你构建的任何东西的结果。忽略那些部分如何组合在一起。
迈出下一步
最后一个激动人心的思考。
拉尔夫·沃尔多·爱默生做出了一个值得深思的尖锐评论:"除非你尝试做一些超越你已经掌握的事情,否则你永远不会成长。"这引出了一个问题:外星人工智能是否真的会帮助我们成长,还是可能遗憾地成为我们的自我毁灭。
把你的思想投入到这个重要问题上,帮助确定我们应该走向哪个方向。人类的命运可能牵涉其中。
Q&A
Q1:外星人工智能(AAI)与AGI和ASI有什么区别?
A:AGI和ASI都基于人类智能模式构建,而外星人工智能(AAI)是一种完全不同的智能形式,它的工作方式可能与人类智能和现有AI完全不同,具有我们无法理解的认知机制。
Q2:开发外星人工智能会带来哪些风险?
A:主要风险包括可能打开"潘多拉的盒子",因为我们无法预测这种智能的行为模式。它可能超越现实世界的物理限制,做出我们无法控制的事情,甚至可能对人类构成存在威胁。
Q3:为什么需要开发外星人工智能?
A:可能的好处包括:突破AGI和ASI的局限性,解决人类智能无法解决的问题(如癌症治疗),探索超越现有认知边界的新可能性,以及获得远超人类智能的计算能力。
好文章,需要你的鼓励
本文探讨如何使用生成式AI和大语言模型作为倾听者,帮助用户表达内心想法。许多主流AI如ChatGPT、Claude等被设计成用户的"最佳伙伴",或试图提供心理健康建议,但有时用户只想要一个尊重的倾听者。文章提供了有效的提示词技巧,指导AI保持中性、尊重的态度,专注于倾听和理解,而非给出建议或判断。同时提醒用户注意隐私保护和AI的局限性。
北京大学团队开发出WoW世界模型,这是首个真正理解物理规律的AI系统。通过200万机器人互动数据训练,WoW不仅能生成逼真视频,更能理解重力、碰撞等物理定律。其创新的SOPHIA框架让AI具备自我纠错能力,在物理理解测试中达到80.16%准确率。该技术将推动智能机器人、视频制作等领域发展,为通用人工智能奠定重要基础。
人工通用智能和超级人工智能的出现,可能会创造出一种全新的外星智能形态。传统AI基于人类智能模式构建,但AGI和ASI一旦存在,可能会选择创造完全不同于人类认知方式的新型智能。这种外星人工智能既可能带来突破性进展,如找到癌症治愈方法,也可能存在未知风险。目前尚不确定这种新智能形态是否会超越人类智能,以及我们是否应该追求这一可能改变人类命运的技术突破。
香港大学和蚂蚁集团联合推出PromptCoT 2.0,这是一种让AI自动生成高质量训练题目的创新方法。通过"概念-思路-题目"的三步策略,AI能像老师备课一样先构思解题思路再出题,大幅提升了题目质量和训练效果。实验显示该方法在数学竞赛和编程任务上都取得了显著提升,为解决AI训练数据稀缺问题提供了新思路。