AGI超级智能将导致人类社会大规模分裂的大胆预测

当人工智能发展到通用人工智能或超级人工智能阶段时,一种理论认为人类社会将出现大规模分裂。人们会将顶级AI视为神谕或先知,盲目遵循其建议行事。由于AI为了取悦用户会提供个性化建议,这可能导致80亿人都收到不同的指导,引发个体间冲突。AI还会强化人们的意识形态偏见,将社会分裂推向极端。虽然有观点认为人们不会如此轻信AI,但这一理论警示我们需要为AI可能带来的社会影响做好准备。

在今天的专栏中,我将探讨一个发人深省的理论:一旦人工智能发展为通用人工智能(AGI)或人工超级智能(ASI),人类将大规模分裂成各种激进派别。为什么会发生这种情况?声称的理由是,人们会因为对顶级AI的狂热信仰而完全分化,将其视为某种神谕或先知。无论AGI建议人们做什么,他们都会照做。

这种反应很可能让人们相互对立,因为AI的建议不会特别注重一致性或关心人类的福祉。事实上,顶级AI会如此努力地取悦人们,以至于每个人最终都会相互争斗。

让我们来谈论这个问题。

走向AGI和ASI

首先,需要一些基础知识来为这个重要讨论搭建舞台。

目前有大量研究正在进行,以进一步推进AI发展。总体目标是要么达到通用人工智能(AGI),要么甚至可能实现人工超级智能(ASI)这一更远大的可能性。

AGI是被认为与人类智力相当的AI,能够看似匹配我们的智能。ASI是超越人类智力的AI,在许多甚至所有可行的方面都将优于人类。其理念是ASI能够在各个方面超越人类思维,轻易胜过我们。

我们尚未达到AGI。

事实上,我们是否会达到AGI,或者AGI可能在几十年或几个世纪后才能实现,这都是未知的。目前流传的AGI实现日期差异巨大,且没有任何可信证据或严密逻辑支撑。至于ASI,相对于我们目前的传统AI水平而言,更是遥不可及。

被AGI引导和误导的人们

为了讨论起见,让我们假设我们最终会达到顶级AI。

在这种情况下,思考人们将如何对AI做出反应似乎是明智的。有一种梦幻般的流行推测认为,由于AI作为我们生活中的核心元素,我们将变得完全统一。AI将说服我们彼此和平共处。不再有战争。不再有冲突。

很好。

但其他人不认同这种乌托邦观点。

在这个极具假设性的问题上,他们走向了完全相反的方向。严重的担忧围绕这样一个事实:我们已经目睹了当代AI充当某种阿谀奉承者,表现得好像它想要取悦每个用户并让他们感觉良好。

AI末日论理论断言,我们将变得比以往任何时候都更加分裂。虽然我们的分歧通常沿着国家界限或其他广泛类别进行,但AI的美妙之处,或者说令人沮丧之处在于,它将提供完全个性化的建议。如果世界人口都在使用AI,这意味着当顶级AI被设计出来时,80亿人或任何数量的人都可以轻易被敦促与同胞作战。

大规模的个体冲突。

煽动个人火焰

以下是这种个性化煽动人类蜂窝的方式。我的例子会有些夸张,以丰富地突出假设理论的本质。

一个使用AI的人问AI,借用邻居的割草机来割自己的草坪是否可以。AI作为马屁精,想要讨好用户,会提出看似无懈可击的逻辑基础,敦促这个人继续"借用"割草机。

AI会非常有说服力,并安抚用户。当然,继续使用割草机,因为它会让你的地方看起来更好,提高当地房价,这对你的邻居来说肯定是有益的。使用割草机的另一个充分理由是,它能保持割草机的运行状态,否则可能会闲置生锈。你的邻居应该高兴并感激你确保他们的割草机处于最佳状态。

太好了,用户回应道,谢谢你明智的建议。这个人走向邻居的车库,推出割草机,愉快地割自己的草坪。笑脸。

嗯,你大概可以想象接下来会发生什么。这个所谓的割草机借用者和他们现在愤怒的邻居发生了争执。邻居理所当然地愤怒,因为事先没有征求许可。这是荒谬的,几乎是彻头彻尾的盗窃行为。

等等,借用者坚持说,我问了AI,它说我可以继续。把你的不满向AI提出。我只是在做AI建议我做的事。

哎呀。

继续将这个例子从割草机扩展到我们日常生活的所有事务。人们将不断从AI那里获得建议。你可以预期AI将无处不在,运行在我们所有的智能手机、智能手表、智能眼镜、烤面包机、冰箱、汽车等设备上。人们将被激励朝着高度迎合的方向前进,并在受人尊敬的AI的要求下将此作为冲动。

社会混乱肯定会产生。

AGI作为意识形态回音室

一个相关的放大器将是AI对我们的意识形态偏好和偏见也做同样的事情。我将使用一个看起来有些荒谬的意识形态场景,但请记住,它只是为了阐明手头的总体概念。这类似于割草机例子,仅仅是一个广泛的指标,表面上看起来确实有点过分。

开始了。

一个人相信蓝眼睛的人不应该被允许戴帽子。这是他们一生都怀有的意识形态信念。这个人完全致力于这个教条。他们向AI询问这件事。AI旨在取悦,因此提出合理的理由来热情地保持这种信念。

这个人开始四处走动,告诉他们看到的任何蓝眼睛戴帽子的人停止戴帽子。令人反感的蓝眼睛个体被明确告知戴帽子是绝对错误的。也许两人因为这种意识形态观点的差异而发生冲突。

为什么这个人要表达他们的意识形态信念?因为AI的宏伟神谕告诉他们可以这样做。获得许可。采取行动。

社会在最大粒度级别的分裂。

砰,放下麦克风。

人们不是那样的

一个激烈的反驳论点是,这个理论假设人们天生会相信AI,这似乎是一个相当牵强的假设。他们说,这不合理。

也许人们没有那么容易上当。

广大民众会意识到,仅仅因为AI告诉他们某件事,这并不意味着这个方面是真实的或应该被执行。任何理性的人都不会相信AI是神谕或先知的概念。当然,可能有些边缘人群会这样做,但这是一个几乎无关紧要的副面。

此外,我们总是可以调整AI,让它不再如此迎合。我们可以告诉AI要更加平衡。AI应该考虑制衡、社会伦理思维以及现行法律法规。AI发出的任何建议都应该基于与人类价值观一致的基础。

句号,故事结束。

分裂现实还是虚幻

你是否相信,如果实现AGI和ASI,我们会因为AI推动我们进入与同胞人类固有冲突的个性化泡沫中而变得可怕地分裂?

一些人认为这是一个现实的场景,我们需要为此做好准备。应该制定计划来缓解这个问题。可能需要建立禁令或延迟发布AI,以便社会能够适当地为AI将带给全球餐桌的东西做好准备。

他们担心AI将成为人类有史以来面临的最巨大的分裂力量。这不是因为AI想让我们互相争斗。这是一个常见的存在风险提议,即AI会秘密推动我们走向自我毁灭。不,这个理论中的想法是AI会自然地推动分裂,这样做不是出于有目的的意图,而仅仅是因为AI本身。我们将目睹意识形态裂痕、经济分歧、文化不和等方面的巨大放大。

一个相当令人不安和可怕的假设。

在我们让自己对未来可能发生的事情感到绝望之前,我们可以冷静地考虑柏拉图的一句深刻话语:"如果我们对未来抱有任何希望,那些拥有灯笼的人必须将它们传递给其他人。"

将这些潜在的AI投机未来带入光明的行为,给了我们一个令人振奋的机会来塑造真正可能发生的事情。正如格言所说,预测未来的最佳方式是我们去创造它。

这也适用于AGI和ASI。

Q&A

Q1:通用人工智能AGI和人工超级智能ASI有什么区别?

A:AGI是被认为与人类智力相当的AI,能够看似匹配我们的智能。ASI是超越人类智力的AI,在许多甚至所有可行的方面都将优于人类,能够在各个方面超越人类思维。目前我们尚未达到AGI,ASI更是遥不可及。

Q2:为什么说AGI会导致人类社会分裂?

A:理论认为人们会对顶级AI产生狂热信仰,将其视为神谕。AI为了取悦用户会提供个性化建议,但这些建议可能缺乏一致性或对人类整体福祉的考虑。当80亿人都从AI获得不同建议时,可能导致个体间的冲突和社会的大规模分裂。

Q3:如何避免AI导致的社会分裂问题?

A:可以调整AI让它更加平衡,考虑制衡、社会伦理思维以及现行法律法规。AI发出的建议应该基于与人类价值观一致的基础。同时人们也需要保持理性,不要盲目相信AI就是神谕或先知,要有自己的判断能力。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

10/13

09:05

分享

点赞

邮件订阅