随着OpenAI的Chat GPT-5的发布,世界离释放能够在认知能力上大幅超越人类的通用超级智能又近了一步。随着这一天的临近,我越来越担心我们对这将给社会带来的冲击波准备不足——而且可能不是因为你预期的那些原因。
试试这个小实验:询问你认识的任何人是否担心AI,他们可能会分享各种恐惧,从就业市场的大规模颠覆和深度伪造技术对现实的扭曲影响,到前所未有的权力集中在少数大型AI公司手中。换句话说,大多数人从未真正想象过当超级智能变得广泛可用时,他们的生活会是什么样子。
为什么超级智能可能让我们士气低落
作为背景,人工超级智能(ASI)指的是在大多数方面都能超越人类思考的系统,从规划和推理到解决问题、战略思维和原始创造力。这些系统将在几分之一秒内解决复杂问题,而最聪明的人类专家可能需要数天、数周甚至数年才能解决。这让我感到恐惧,但不是因为主导我们公共讨论的末日情景。
不,我担心的是相反的风险——在最好的情况下可能出现的危险,即超级智能是有用和仁慈的。这样的ASI将对社会产生许多积极影响,但它也可能对我们作为人类的核心身份产生深深的挫败感。毕竟,当我们每个人都知道在我们的移动设备上有一个比我们自己耳朵之间更聪明、更快、更有创造力的智能时,世界会感觉不同。
所以诚实地问问自己,人类在这个新现实中会如何行动?当我们面对遇到的每一个小挑战时,我们会反射性地向AI助手寻求建议吗?或者更糟的是,我们会学会比相信自己的想法和直觉更信任我们的AI助手吗?
等等——在你回答之前,你必须更新你的心理模型。目前,我们通过苏格拉底式框架与AI互动,这需要我们提问并获得答案。但这是老式思维。我们现在正进入一个新时代,AI助手将被集成到配备摄像头和麦克风的可穿戴设备中,使AI能够看到你看到的,听到你听到的,并在你无需询问的情况下向你的耳朵低语建议。
换句话说,我们的未来将充满在我们生活中充当副驾驶的AI助手,在每一个转折点用优化的指导来增强我们的体验。在这个世界里,风险不是我们在使用自己的大脑之前反射性地向AI寻求建议;风险是我们不需要询问——建议会直接流入我们的眼睛和耳朵,塑造我们的行动,影响我们的决定,在我们有机会为自己思考之前解决我们的问题。
"增强心智"将改变我们的生活
我将这个框架称为"增强心智",它即将通过AI驱动的眼镜、耳机和吊坠大规模冲击社会。这是移动计算的未来,它已经推动了Meta、谷歌、三星和苹果之间的军备竞赛,因为他们争相生产将取代手持手机的情境感知AI设备。
想象一下在你的城镇街道上行走。你看到一个同事朝你走来。你不记得他的名字,但你的AI助手记得。它检测到你的犹豫并在你耳边低语同事的名字。AI还建议你询问同事关于他妻子的情况,她几周前做了手术。同事很感激这种关怀,然后询问你最近的升职情况,可能也是在他自己的AI建议下。
这是人类赋权,还是人类能动性的丧失?
拥有一个总是支持你的AI在你耳边,确保你永远不会忘记名字,总是有机智的话可说,并在你交谈的人不诚实时立即得到警告,这确实会感觉像超能力。另一方面,你遇到的每个人都会有自己的AI在他们自己的耳边低语。这会让我们想知道我们真正在与谁互动——是面前的人类,还是给他们指导的智能体。
许多专家认为可穿戴AI助手会让我们感到更强大和更有能力,但这不是唯一的可能性。这些相同的技术可能会让我们对自己感到不那么自信,在我们的生活中感到不那么有影响力。毕竟,人类智能是人类的定义特征,是我们作为一个物种最引以为豪的东西,但我们可能很快就会发现自己因为感到在心理上被超越而顺从AI助手。这是赋权吗——一个实时对我们的每一次体验进行"机器人解释"的AI?
我提出这些担忧,作为一个将整个职业生涯都投入到创造扩展人类能力技术的人。从我早期开发增强现实的工作到我目前开发让人类团队更聪明的对话智能体的工作,我坚信技术可以大大增强人类能力。不幸的是,当涉及到超级智能时,增强我们的人类能力和取代它们之间有一条细线。除非我们在部署ASI时深思熟虑,否则我担心我们会越过那条线。
Q&A
Q1:什么是人工超级智能ASI?它有什么能力?
A:人工超级智能(ASI)指的是在大多数方面都能超越人类思考的系统,包括规划、推理、解决问题、战略思维和创造力。这些系统能在几分之一秒内解决复杂问题,而最聪明的人类专家可能需要数天、数周甚至数年才能解决。
Q2:增强心智技术会如何改变我们的日常生活?
A:增强心智通过AI驱动的眼镜、耳机和吊坠等可穿戴设备,让AI能够看到你看到的、听到你听到的,并主动在你耳边提供建议。比如帮你记住同事名字、提醒你关心话题,或在检测到对方不诚实时提醒你。
Q3:超级智能时代人类会失去自主性吗?
A:存在这种风险。虽然AI助手能让我们感到更强大,但也可能让我们对自己失去信心,过度依赖AI的指导而不再独立思考。关键在于如何平衡增强人类能力和取代人类能力之间的细线,需要在部署时深思熟虑。
好文章,需要你的鼓励
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。