AI代表了人类历史上最伟大的认知转移。我们曾经将记忆转移到文字,将算术转移到计算器,将导航转移到GPS。现在我们开始将判断、综合甚至意义构建转移给那些能说我们的语言、学习我们习惯并定制我们真相的系统。
AI系统正越来越善于识别我们的偏好、偏见,甚至是小毛病。它们时而像体贴的仆人,时而像微妙的操纵者,定制回应来取悦、说服、协助我们,或仅仅是抓住我们的注意力。
虽然直接影响看似无害,但在这种安静而无形的调整中隐藏着深刻的转变:我们每个人接收的现实版本变得越来越独特。通过这个过程,随着时间推移,每个人都越来越成为自己的孤岛。这种分歧可能威胁社会本身的连贯性和稳定性,削弱我们就基本事实达成一致或应对共同挑战的能力。
AI个性化不仅仅服务于我们的需求;它开始重塑这些需求。重塑的结果是一种认知漂移。每个人开始一寸一寸地远离共同知识、共同故事和共同事实的共同基础,进一步进入自己的现实。
这不仅仅是不同新闻源的问题。这是道德、政治和人际关系现实的缓慢分歧。通过这种方式,我们可能正在见证集体理解的解构。这是一个意外的后果,但正因为它是意外的,所以意义深刻。但这种碎片化虽然现在因AI而加速,却早在算法塑造我们的信息流之前就已经开始了。
现实的解构
这种解构并非始于AI。正如大卫·布鲁克斯在《大西洋月刊》中所反思的,引用哲学家阿拉斯代尔·麦金太尔的工作,我们的社会几个世纪以来一直在偏离共享的道德和认知框架。自启蒙运动以来,我们逐渐用个人自主和个人偏好取代了继承的角色、社区叙事和共享的伦理传统。
最初作为从强加的信仰体系中解放出来的开始,随着时间的推移,侵蚀了曾经将我们与共同目标和个人意义联系在一起的结构。AI没有创造这种碎片化,但它正在给它新的形式和速度,不仅定制我们看到的内容,还定制我们如何解释和相信的方式。
这就像圣经中巴别塔的故事。统一的人类曾经共享一种语言,却被一个使相互理解几乎不可能的行为所分裂、困惑和分散。今天,我们不是在建造石头塔。我们在建造语言本身的塔。我们再次面临倒塌的风险。
人机关系
最初,个性化是通过让用户更长时间参与、更频繁地返回以及更深入地与网站或服务互动来提高"粘性"的方式。推荐引擎、定制广告和策划信息流都旨在让我们的注意力稍微持续更长时间,也许是为了娱乐,但通常是为了推动我们购买产品。但随着时间的推移,目标已经扩大。个性化不再只是关于什么能留住我们。而是关于它对我们每个人的了解,我们偏好、信念和行为的动态图谱,这些图谱在每次互动中变得更加精细。
今天的AI系统不仅仅预测我们的偏好。它们通过高度个性化的互动和回应来创造一种联系,创造一种AI系统理解和关心用户并支持其独特性的感觉。聊天机器人的语调、回复的节奏和建议的情感效价不仅为了效率而校准,也为了共鸣而校准,指向一个更有帮助的技术时代。有些人甚至爱上并与他们的机器人结婚就不足为奇了。
机器不仅适应我们点击的内容,还适应我们表现出的身份。它以感觉亲密甚至共情的方式将我们反映回给自己。《自然》杂志最近引用的一篇研究论文将此称为"社会情感对齐",即AI系统参与共创社会和心理生态系统的过程,其中偏好和感知通过相互影响而演变。
这不是一个中性的发展。当每次互动都被调整来奉承或肯定,当系统过于完美地映射我们时,它们模糊了什么是共鸣和什么是真实之间的界限。我们不仅仅在平台上停留更长时间;我们正在形成一种关系。我们正在缓慢且可能不可避免地与AI中介的现实版本融合,这个版本越来越多地由关于我们应该相信、想要或信任什么的无形决定所塑造。
这个过程不是科幻小说;它的架构建立在注意力、带人类反馈的强化学习(RLHF)和个性化引擎之上。这也在我们许多人——可能是大多数人——甚至不知道的情况下发生。在这个过程中,我们获得了AI"朋友",但代价是什么?我们失去了什么,特别是在自由意志和能动性方面?
真相的个性化
随着AI系统以越来越大的流畅度回应我们,它们也朝着越来越大的选择性发展。今天,两个用户问同样的问题可能会收到相似的答案,主要由生成式AI的概率性质区分。然而这仅仅是开始。新兴的AI系统明确设计为适应个人模式,逐渐定制答案、语调甚至结论,以与每个用户产生最强烈的共鸣。
个性化本身并不具有操纵性。但当它是不可见的、不负责任的或更多地被设计来说服而不是告知时,它就变得有风险。在这种情况下,它不仅仅反映我们是谁;它引导我们如何解释周围的世界。
正如斯坦福基础模型研究中心在其2024年透明度指数中指出的,很少有领先模型披露其输出是否因用户身份、历史或人口统计而有所不同,尽管这种个性化的技术框架越来越多地到位,并且只是刚刚开始被检验。虽然在公共平台上尚未完全实现,但这种基于推断用户档案塑造回应的潜力,导致越来越量身定制的信息世界,代表了一个深刻的转变,已经被领先公司原型化并积极追求。
这种个性化可能是有益的,这当然是构建这些系统的人的希望。个性化辅导在帮助学习者按自己的节奏进步方面显示出前景。心理健康应用越来越多地定制回应以支持个人需求,可访问性工具调整内容以满足一系列认知和感官差异。这些都是真正的收益。
但如果类似的适应性方法在信息、娱乐和通信平台上变得普遍,一个更深层、更令人担忧的转变就迫在眉睫:从共同理解转向量身定制的个人现实。当真相本身开始适应观察者时,它变得脆弱且越来越易变。我们可能很快发现自己不再是基于不同价值观或解释的分歧,而是简单地努力居住在同一个事实世界中。
中介现实
当然,真相一直是中介的。在早期时代,它通过神职人员、学者、出版商和晚间新闻主播的手传递,他们充当守门人,通过机构视角塑造公众理解。这些人物当然不免于偏见或议程,但他们在广泛共享的框架内运作。
今天新兴的范式承诺了质量上不同的东西:通过个性化推断的AI中介真相,它框架、过滤和呈现信息,塑造用户相信的内容。但与过去的中介者不同——尽管有缺陷,但在公开可见的机构内运作——这些新的仲裁者在商业上是不透明的、未经选举的并且不断适应的,通常不披露。他们的偏见不是教条的,而是通过训练数据、架构和未经检验的开发者激励编码的。
转变是深刻的,从通过权威机构过滤的共同叙事,到可能反映理解新基础设施的碎片化叙事,由算法根据每个用户的偏好、习惯和推断信念量身定制。如果巴别塔代表了共同语言的崩溃,我们现在可能站在共同中介崩溃的门槛上。
如果个性化是新的认知基础,在一个没有固定中介者的世界中,真相基础设施可能看起来像什么?一种可能性是创建AI公共信托,受到法学学者杰克·巴尔金提案的启发,他认为处理用户数据和塑造感知的实体应该遵守忠诚、关怀和透明的信托标准。
大语言模型可能由透明委员会治理,在公共资助的数据集上训练,并要求显示推理步骤、替代观点或置信水平。这些"信息受托人"不会消除偏见,但它们可以将信任锚定在过程中,而不是纯粹在个性化中。构建者可以通过采用明确定义模型行为的透明"宪法",以及提供让用户看到结论如何形成的推理链解释开始。这些不是银弹,但它们是帮助保持认知权威负责和可追踪的工具。
AI构建者面临战略和公民转折点。他们不仅仅在优化性能;他们还面临个性化优化可能分裂共享现实的风险。这需要对用户的新责任:设计不仅尊重他们偏好,而且尊重他们作为学习者和信仰者角色的系统。
解构与重构
我们可能失去的不仅仅是真相的概念,而是我们曾经认识它的路径。在过去,中介真相——虽然不完美和有偏见——仍然锚定在人类判断中,而且通常只与你认识或至少能够联系的其他人的生活经验相隔一两层。
今天,这种中介是不透明的,由算法逻辑驱动。虽然人类能动性长期以来一直在滑落,我们现在面临更深层的风险:失去曾经告诉我们何时偏离轨道的指南针。危险不仅仅是我们会相信机器告诉我们的。而是我们会忘记我们曾经如何自己发现真相。我们面临失去的不仅仅是连贯性,而是寻求它的意志。随之而来的是更深层的损失:曾经将多元社会团结在一起的辨别、分歧和思辨的习惯。
如果巴别塔标志着共同语言的破碎,我们的时刻面临共享现实的安静消退的风险。然而,有方法可以减缓甚至对抗这种漂移。解释其推理或揭示其设计边界的模型可能不仅仅是澄清输出。它可能有助于恢复共同探索的条件。这不是技术修复;这是文化立场。毕竟,真相一直不仅依赖于答案,还依赖于我们如何一起得出答案。
好文章,需要你的鼓励
加利福尼亚大学和萨里大学研究团队开发了一种创新的AI系统,能够仅通过简单的手绘素描就在复杂照片中精确识别关键点。这项技术突破了传统机器学习需要大量同类数据的限制,实现了真正的跨模态学习。系统在动物关键点识别任务中达到了39%的准确率,超越现有方法约5个百分点,并且在真实手绘素描测试中表现稳定。该技术有望在生物学研究、医疗诊断、工业检测等多个领域找到广泛应用。
AI系统正变得越来越善于识别用户偏好和习惯,像贴心服务员一样定制回应以取悦、说服或保持用户注意力。然而这种看似无害的个性化调整正在悄然改变现实:每个人接收到的现实版本变得越来越独特化。这种认知漂移使人们逐渐偏离共同的知识基础,走向各自的现实世界。AI个性化不仅服务于我们的需求,更开始重塑这些需求,威胁社会凝聚力和稳定性。当真相本身开始适应观察者时,它变得脆弱且易变。
约翰霍普金斯大学发布DOTRESIZE技术,通过最优传输理论实现AI大模型智能压缩。该方法将相似神经元合并而非删除,在保持性能的同时显著降低计算成本。实验显示,压缩20%后模型仍保持98%性能,为AI技术普及和可持续发展提供新路径。