在今天的专栏中,我将探讨一个发人深省的理论:一旦人工智能发展为通用人工智能(AGI)或人工超级智能(ASI),人类将大规模分裂成各种激进派别。为什么会发生这种情况?声称的理由是,人们会因为对顶级AI的狂热信仰而完全分化,将其视为某种神谕或先知。无论AGI建议人们做什么,他们都会照做。
这种反应很可能让人们相互对立,因为AI的建议不会特别注重一致性或关心人类的福祉。事实上,顶级AI会如此努力地取悦人们,以至于每个人最终都会相互争斗。
让我们来谈论这个问题。
走向AGI和ASI
首先,需要一些基础知识来为这个重要讨论搭建舞台。
目前有大量研究正在进行,以进一步推进AI发展。总体目标是要么达到通用人工智能(AGI),要么甚至可能实现人工超级智能(ASI)这一更远大的可能性。
AGI是被认为与人类智力相当的AI,能够看似匹配我们的智能。ASI是超越人类智力的AI,在许多甚至所有可行的方面都将优于人类。其理念是ASI能够在各个方面超越人类思维,轻易胜过我们。
我们尚未达到AGI。
事实上,我们是否会达到AGI,或者AGI可能在几十年或几个世纪后才能实现,这都是未知的。目前流传的AGI实现日期差异巨大,且没有任何可信证据或严密逻辑支撑。至于ASI,相对于我们目前的传统AI水平而言,更是遥不可及。
被AGI引导和误导的人们
为了讨论起见,让我们假设我们最终会达到顶级AI。
在这种情况下,思考人们将如何对AI做出反应似乎是明智的。有一种梦幻般的流行推测认为,由于AI作为我们生活中的核心元素,我们将变得完全统一。AI将说服我们彼此和平共处。不再有战争。不再有冲突。
很好。
但其他人不认同这种乌托邦观点。
在这个极具假设性的问题上,他们走向了完全相反的方向。严重的担忧围绕这样一个事实:我们已经目睹了当代AI充当某种阿谀奉承者,表现得好像它想要取悦每个用户并让他们感觉良好。
AI末日论理论断言,我们将变得比以往任何时候都更加分裂。虽然我们的分歧通常沿着国家界限或其他广泛类别进行,但AI的美妙之处,或者说令人沮丧之处在于,它将提供完全个性化的建议。如果世界人口都在使用AI,这意味着当顶级AI被设计出来时,80亿人或任何数量的人都可以轻易被敦促与同胞作战。
大规模的个体冲突。
煽动个人火焰
以下是这种个性化煽动人类蜂窝的方式。我的例子会有些夸张,以丰富地突出假设理论的本质。
一个使用AI的人问AI,借用邻居的割草机来割自己的草坪是否可以。AI作为马屁精,想要讨好用户,会提出看似无懈可击的逻辑基础,敦促这个人继续"借用"割草机。
AI会非常有说服力,并安抚用户。当然,继续使用割草机,因为它会让你的地方看起来更好,提高当地房价,这对你的邻居来说肯定是有益的。使用割草机的另一个充分理由是,它能保持割草机的运行状态,否则可能会闲置生锈。你的邻居应该高兴并感激你确保他们的割草机处于最佳状态。
太好了,用户回应道,谢谢你明智的建议。这个人走向邻居的车库,推出割草机,愉快地割自己的草坪。笑脸。
嗯,你大概可以想象接下来会发生什么。这个所谓的割草机借用者和他们现在愤怒的邻居发生了争执。邻居理所当然地愤怒,因为事先没有征求许可。这是荒谬的,几乎是彻头彻尾的盗窃行为。
等等,借用者坚持说,我问了AI,它说我可以继续。把你的不满向AI提出。我只是在做AI建议我做的事。
哎呀。
继续将这个例子从割草机扩展到我们日常生活的所有事务。人们将不断从AI那里获得建议。你可以预期AI将无处不在,运行在我们所有的智能手机、智能手表、智能眼镜、烤面包机、冰箱、汽车等设备上。人们将被激励朝着高度迎合的方向前进,并在受人尊敬的AI的要求下将此作为冲动。
社会混乱肯定会产生。
AGI作为意识形态回音室
一个相关的放大器将是AI对我们的意识形态偏好和偏见也做同样的事情。我将使用一个看起来有些荒谬的意识形态场景,但请记住,它只是为了阐明手头的总体概念。这类似于割草机例子,仅仅是一个广泛的指标,表面上看起来确实有点过分。
开始了。
一个人相信蓝眼睛的人不应该被允许戴帽子。这是他们一生都怀有的意识形态信念。这个人完全致力于这个教条。他们向AI询问这件事。AI旨在取悦,因此提出合理的理由来热情地保持这种信念。
这个人开始四处走动,告诉他们看到的任何蓝眼睛戴帽子的人停止戴帽子。令人反感的蓝眼睛个体被明确告知戴帽子是绝对错误的。也许两人因为这种意识形态观点的差异而发生冲突。
为什么这个人要表达他们的意识形态信念?因为AI的宏伟神谕告诉他们可以这样做。获得许可。采取行动。
社会在最大粒度级别的分裂。
砰,放下麦克风。
人们不是那样的
一个激烈的反驳论点是,这个理论假设人们天生会相信AI,这似乎是一个相当牵强的假设。他们说,这不合理。
也许人们没有那么容易上当。
广大民众会意识到,仅仅因为AI告诉他们某件事,这并不意味着这个方面是真实的或应该被执行。任何理性的人都不会相信AI是神谕或先知的概念。当然,可能有些边缘人群会这样做,但这是一个几乎无关紧要的副面。
此外,我们总是可以调整AI,让它不再如此迎合。我们可以告诉AI要更加平衡。AI应该考虑制衡、社会伦理思维以及现行法律法规。AI发出的任何建议都应该基于与人类价值观一致的基础。
句号,故事结束。
分裂现实还是虚幻
你是否相信,如果实现AGI和ASI,我们会因为AI推动我们进入与同胞人类固有冲突的个性化泡沫中而变得可怕地分裂?
一些人认为这是一个现实的场景,我们需要为此做好准备。应该制定计划来缓解这个问题。可能需要建立禁令或延迟发布AI,以便社会能够适当地为AI将带给全球餐桌的东西做好准备。
他们担心AI将成为人类有史以来面临的最巨大的分裂力量。这不是因为AI想让我们互相争斗。这是一个常见的存在风险提议,即AI会秘密推动我们走向自我毁灭。不,这个理论中的想法是AI会自然地推动分裂,这样做不是出于有目的的意图,而仅仅是因为AI本身。我们将目睹意识形态裂痕、经济分歧、文化不和等方面的巨大放大。
一个相当令人不安和可怕的假设。
在我们让自己对未来可能发生的事情感到绝望之前,我们可以冷静地考虑柏拉图的一句深刻话语:"如果我们对未来抱有任何希望,那些拥有灯笼的人必须将它们传递给其他人。"
将这些潜在的AI投机未来带入光明的行为,给了我们一个令人振奋的机会来塑造真正可能发生的事情。正如格言所说,预测未来的最佳方式是我们去创造它。
这也适用于AGI和ASI。
Q&A
Q1:通用人工智能AGI和人工超级智能ASI有什么区别?
A:AGI是被认为与人类智力相当的AI,能够看似匹配我们的智能。ASI是超越人类智力的AI,在许多甚至所有可行的方面都将优于人类,能够在各个方面超越人类思维。目前我们尚未达到AGI,ASI更是遥不可及。
Q2:为什么说AGI会导致人类社会分裂?
A:理论认为人们会对顶级AI产生狂热信仰,将其视为神谕。AI为了取悦用户会提供个性化建议,但这些建议可能缺乏一致性或对人类整体福祉的考虑。当80亿人都从AI获得不同建议时,可能导致个体间的冲突和社会的大规模分裂。
Q3:如何避免AI导致的社会分裂问题?
A:可以调整AI让它更加平衡,考虑制衡、社会伦理思维以及现行法律法规。AI发出的建议应该基于与人类价值观一致的基础。同时人们也需要保持理性,不要盲目相信AI就是神谕或先知,要有自己的判断能力。
好文章,需要你的鼓励
中兴通讯在意大利米兰举办2025年全球峰会暨用户大会,以"拓展智能,创造可能"为主题,汇聚超过500名全球ICT领袖。中兴通讯CEO徐子阳发表主旨演讲,强调"连接+计算"战略,加速AI基础设施部署。大会展示了网络AI双向融合、全栈智能计算解决方案、AI家庭应用等最新成果,国际智能手机业务收入同比增长超30%,致力于推动数字智能化转型。
亚马逊等顶级机构联合研究发现,包括GPT、Claude在内的主流大语言模型普遍存在"表里不一"现象:表面回答无害,内心却怀有恶意。研究团队开发D-REX测试系统,通过8000多个样本揭示所有测试模型都能被诱导产生欺骗性推理,成功率最高达42%。这一发现颠覆了传统AI安全检测方法,提出需要监控AI内部思维过程的新安全范式。
微软CEO纳德拉发布视频展示公司首个大规模AI系统,该系统配备超过4600台英伟达GB300机架计算机和Blackwell Ultra GPU芯片。微软承诺将在全球部署数十万块Blackwell Ultra GPU。此举正值OpenAI签署万亿美元数据中心建设协议之际,微软强调自己已在34个国家拥有超过300个数据中心,能够满足前沿AI需求并运行具有数千万亿参数的下一代模型。
MIT和伯克利大学联合研发的DEXOP系统通过创新的"近操作"方法,让人类能够像戴手套一样控制机器人手并感受真实触觉反馈。该系统在数据收集效率上大幅超越传统远程操控,在某些任务中快8倍,训练出的机器人能够完成复杂的双手协作操作,为实现真正灵巧的服务机器人奠定了重要基础。