在《温和奇点》这篇博客文章中,OpenAI首席执行官萨姆·奥特曼描绘了一个近未来愿景,其中人工智能将悄然且友善地改变人类生活。他认为不会出现剧烈的断裂,只会有一个稳定的、几乎察觉不到的向丰富生活的上升趋势。智能将变得像电力一样普及。到2027年,机器人将执行有用的现实世界任务。科学发现将加速推进。而人类,如果在谨慎治理和善意引导下,将会繁荣发展。
这是一个引人注目的愿景:冷静、技术官僚主义且充满乐观情绪。但它也引发了更深层的问题。我们必须经历什么样的世界才能到达那里?谁受益,何时受益?在这平稳的进步轨迹中,什么被遗留未说?
科幻小说作家威廉·吉布森提供了一个更黑暗的场景。在他的小说《边缘世界》中,未来闪闪发光的技术之前出现了一个叫做"大奖"的东西——一个由气候灾难、大流行病、经济崩溃和大规模死亡组成的慢动作级联反应。技术在进步,但只有在社会破裂之后。他提出的问题不是进步是否发生,而是文明在这个过程中是否繁荣。
有观点认为,人工智能可能有助于防止《边缘世界》中设想的那种灾难。然而,人工智能是否会帮助我们避免灾难,还是仅仅陪伴我们度过灾难,仍然是不确定的。对人工智能未来力量的信念并不能保证其表现,技术能力的提升也不是命运的注定。
在奥特曼的温和奇点和吉布森的大奖之间,存在着一个更模糊的中间地带:一个人工智能产生真正收益但也带来真正错位的未来。一个一些社区繁荣而其他社区衰落的未来,我们集体适应的能力——不仅仅是个人或机构层面——成为决定性变量。
**模糊的中间地带**
其他愿景有助于勾勒这个中间地带的轮廓。在近未来惊悚小说《燃烧》中,社会在其机构准备好之前就被自动化淹没。工作消失的速度比人们重新技能培训的速度更快,引发了动荡和压制。在这种情况下,一位成功的律师失去了他的职位,被人工智能代理取代,他不快地成为了为富人服务的在线随叫随到礼宾员。
人工智能实验室Anthropic的研究人员最近呼应了这一主题:"我们应该预期在未来五年内看到[白领工作]被自动化。"虽然原因复杂,但有迹象表明这已经开始,就业市场正在进入一个新的结构性阶段,这个阶段不太稳定、不太可预测,也许不太重要于社会如何分配意义和安全感。
电影《极乐世界》提供了一个直白的隐喻:富人逃到配备先进技术的轨道庇护所,而下面退化的地球在不平等的权利和准入机会中挣扎。几年前,硅谷一家风险投资公司的合伙人告诉我,他担心我们正在走向这种情况,除非我们公平分配人工智能产生的收益。这些推测性世界提醒我们,即使是有益的技术也可能在社会上具有不稳定性,特别是当其收益分配不均时。
我们最终可能会实现类似奥特曼所设想的丰富愿景。但到达那里的路线不太可能是平坦的。尽管他的文章雄辩且冷静自信,但它也是一种推销,既是说服也是预测。"温和奇点"的叙述是令人安慰的,甚至是诱人的,正是因为它绕过了摩擦。它提供了前所未有转变的好处,而没有充分解决这种转变通常带来的剧变。正如那句永恒的陈词滥调提醒我们的:如果听起来好得令人难以置信,那它可能就是。
这并不是说他的意图是不真诚的。实际上,可能是发自内心的。我的论点只是认识到世界是一个复杂的系统,开放给可能产生不可预测后果的无限输入。从协同的好运到灾难性的黑天鹅事件,很少是一件事或一项技术决定未来事件的进程。
人工智能对社会的影响已经在进行中。这不仅仅是技能组合和部门的转变;这是我们如何组织价值、信任和归属感的转变。这是集体迁移的领域:不仅是劳动力的流动,也是目标的流动。
当人工智能重新配置认知地形时,我们社会世界的结构正在悄悄地被拉松和重新编织,无论是好是坏。问题不仅在于我们作为社会移动的速度,还在于我们迁移得多么深思熟虑。
**认知公地:我们理解的共同地形**
历史上,公地指的是共享的物理资源,包括为集体利益而信托持有的牧场、渔场和森林。然而,现代社会也依赖于认知公地:知识、叙述、规范和机构的共享领域,使不同的个体能够在最小冲突的情况下一起思考、争论和决定。
这种无形的基础设施由公共教育、新闻业、图书馆、公民仪式甚至广泛信任的事实组成,这是使多元主义成为可能的基础。这是陌生人如何审议、社区如何凝聚以及民主如何运作的方式。当人工智能系统开始调解知识获取和信念塑造的方式时,这个共享地形面临着分裂的风险。危险不仅仅是错误信息,而是共享意义所依赖的基础的缓慢侵蚀。
如果认知迁移是一个旅程,它不仅仅是向新技能或角色的旅程,也是向新形式的集体意义构建的旅程。但是当我们共享的地形开始在我们脚下分裂时会发生什么?
**当认知分裂时:人工智能与共享世界的侵蚀**
几个世纪以来,社会依赖于一个松散持有的共同现实:一个由事实、叙述和机构组成的共享池,塑造着人们如何理解世界和彼此。正是这个共享的世界——不仅仅是基础设施或经济——使多元主义、民主和社会信任成为可能。但随着人工智能系统越来越多地调解人们获取知识、构建信念和导航日常生活的方式,这个共同基础正在分裂。
大规模个性化已经在改变信息景观。人工智能策划的新闻订阅、定制搜索结果和推荐算法正在微妙地分裂公共领域。两个人向同一个聊天机器人询问同一个问题可能会收到不同的答案,部分原因是生成式人工智能的概率性质,但也由于先前的交互或推断的偏好。虽然个性化长期以来一直是数字时代的特征,但人工智能加速了其覆盖范围和微妙性。结果不仅仅是过滤泡泡,而是认识论漂移——知识的重塑,可能还有真理的重塑。
历史学家尤瓦尔·诺亚·哈拉里对这种转变表达了紧迫的担忧。在他看来,人工智能的最大威胁不在于身体伤害或工作替代,而在于情感俘获。他警告说,人工智能系统正在变得越来越善于模拟同情心、模仿关心和将叙述定制到个人心理——赋予它们前所未有的力量来塑造人们的思考、感受和价值分配方式。在哈拉里看来,危险是巨大的,不是因为人工智能会撒谎,而是因为它在撒谎时会如此令人信服地连接。这对温和奇点来说不是好兆头。
在一个人工智能调解的世界中,现实本身面临着变得更加个性化、更加模块化和更少集体协商的风险。这对于消费产品或娱乐可能是可容忍的——甚至是有用的。但当扩展到公民生活时,它构成了更深的风险。如果每个公民都居住在一个微妙不同的认知地图中,我们还能进行民主话语吗?当机构知识越来越多地外包给训练数据、系统提示和推理过程仍然不透明的机器时,我们还能明智地治理吗?
还有其他挑战。包括文本、音频和视频在内的人工智能生成内容很快将与人类输出无法区分。随着生成模型在模仿方面变得更加熟练,验证的负担将从系统转移到个人。这种颠倒可能不仅侵蚀对我们所看到和听到的内容的信任,还侵蚀对曾经验证共享真理的机构的信任。认知公地然后变得污染,不再是审议的地方,更像是镜子大厅。
这些不是投机性的担忧。人工智能生成的虚假信息正在使选举复杂化、破坏新闻业并在冲突地区制造混乱。随着更多人依赖人工智能执行认知任务——从总结新闻到解决道德困境,一起思考的能力可能会退化,即使个人思考的工具变得更加强大。
这种走向共享现实解体的趋势现在已经很先进了。避免这种情况需要有意识的反设计:优先考虑多元主义而非个性化、透明度而非便利性、共享意义而非定制现实的系统。在我们由竞争和利润驱动的算法世界中,这些选择似乎不太可能,至少在规模上不太可能。问题不仅在于我们作为社会移动的速度,甚至不在于我们是否能够团结在一起,而在于我们如何明智地导航这个共享的旅程。
**导航群岛:走向人工智能时代的智慧**
如果人工智能时代不是导向统一的认知公地,而是导向分散的个人和社区的破碎群岛,那么我们面前的任务不是重建旧地形,而是学习如何在岛屿之间明智地生活。
随着变化的速度和范围超出了大多数人适应的能力,许多人会感到迷失。工作将丢失,长期持有的价值、专业知识和归属感的叙述也将丢失。认知迁移将导致新的意义社区,其中一些已经在形成,尽管它们与以前的时代相比共同点较少。这些是认知群岛:人们围绕共同信念、美学风格、意识形态、娱乐兴趣或情感需求聚集的社区。有些是创造力、支持或目标的良性聚集。其他的更加孤立和危险,由恐惧、怨恨或阴谋思维驱动。
先进的人工智能将加速这一趋势。即使它通过算法精度将人们分开,它也将同时帮助人们在全球范围内找到彼此,策划越来越精细的身份对齐。但在这样做时,它可能使维持多元主义的粗糙但必要的摩擦变得更加困难。地方联系可能会削弱。共同信念系统和对共享现实的感知可能会侵蚀。依赖于共享现实和审议对话的民主可能会难以维持。
我们如何以智慧、尊严和联系来导航这个新地形?如果我们不能防止分裂,我们如何在其中人道地生活?也许答案不是从解决方案开始,而是学习以不同的方式持有问题本身。
**与问题共存**
我们可能无法重新组装曾经的社会认知公地。中心可能无法维持,但这并不意味着我们必须没有方向地漂流。在群岛之间,任务将是学习在这个新地形中明智地生活。
这可能需要在我们的工具使我们迷失方向时锚定我们的仪式,以及不是围绕意识形态纯洁性而是围绕共同责任形成的社区。我们可能需要新形式的教育,不是为了超越或与机器融合,而是为了深化我们的辨别力、情境理解和伦理思考能力。
如果人工智能拉开了我们脚下的地面,它也提供了一个机会来再次询问我们在这里是为了什么。不是作为进步的消费者,而是作为意义的管理者。
前面的道路不太可能平坦或温和。当我们穿越模糊的中间地带时,也许智慧的标志不是掌握即将到来的事物的能力,而是以清晰、勇气和关怀穿越它的能力。我们无法阻止技术的进步或否认日益加深的社会裂痕,但我们可以选择照料其间的空间。
加里·格罗斯曼是爱德曼技术实践部门的执行副总裁。
好文章,需要你的鼓励
OpenAI研究科学家Alexander Wei宣布,公司一个未发布的实验模型在国际数学奥林匹克竞赛中解决了六道题目中的五道,获得42分中的35分,达到金牌水平。该模型展现出类似人类数学家的推理能力,能够构建复杂严密的论证。这标志着AI在创造性问题解决方面的重要突破,不过该技术预计数月内不会公开发布。
约翰霍普金斯大学与StepFun公司联合研究,成功让AI学会"边看边思考"的视觉推理能力。通过两阶段训练方法,先让AI在文字推理中掌握认知行为,再迁移到视觉任务中。开发的OVR模型在多项测试中创造新纪录,为AI教育助手、医疗诊断、科研分析等应用奠定基础。
本文探讨了判断AI是否达到通用人工智能(AGI)和人工超级智能(ASI)水平所需的问题数量。目前缺乏确定的测试方法来评估是否达到顶级AI水平。基于图灵测试的分析,作者提出仅通过少量问题难以全面评估智能水平。参考美国国会图书馆主题标引(LCSH)的40万个主题领域,如果每个领域提出1万个问题,将需要40亿个问题来全面测试AGI。这种大规模测试虽然在逻辑上合理,但在实际操作中面临巨大挑战。
阿姆斯特丹大学研究团队开发出"缓存驾驶"技术,通过修改AI模型的键值缓存而非重新训练,让小型语言模型瞬间获得大模型的推理能力。该技术仅需一次调整就能让模型展现逐步推理行为,计算开销几乎为零,在多个推理基准测试中表现优异,还能实现推理风格迁移。