一份全面的新报告表明,人工智能将在未来十年内从根本上重塑人类的行为、认知和关系,这引发了关于 AI 对人类本质影响的重要思考。
这份名为《2035年的人类存在》的报告由伊隆大学数字未来想象中心的研究员 Janna Anderson 和 Lee Rainie 撰写,综合了定性论文和调查数据,收集了301位全球专家对 AI 融合将如何改变人类身份认同和社会结构的见解。近200位专家提供了完整的书面回应并收录在报告中。
专家们普遍预期到2035年人类的行为和能力将发生巨大变化。其中61%的专家预测这些变化将是"深刻且有意义的"或"根本性的革命性的"。
认知和情感能力的削弱
报告中反复出现的一个主题是基本认知功能可能受到削弱。50%的受访专家预见人们对复杂问题进行深入思考的意愿和能力将下降。AI 生成的摘要、答案和自动决策带来的便利可能会降低人们批判性处理信息的动力。
这种认知能力的退化伴随着对情感发展的担忧。半数专家预测社交和情感智能将下降,他们认为用 AI 驱动的关系取代人际互动是一个关键因素。随着合成伴侣在情感上变得更加协调且可定制,它们可能比复杂且经常混乱的真实人际关系更受欢迎。
欧洲负责任人工智能办公室主席 Nell Watson 在报告中的短文中写道:"AI 恋人将提供理想化的关系,使人类伴侣关系显得不必要地困难。"这种转变可能加剧孤立,并降低共情能力的发展,尤其是在年轻人中间。
开放市场研究所新闻与自由中心主任 Courtney C. Radsch 补充道:"人们将把他们的互动外包给 AI 代理,由 AI 来决定兼容性并判断是否值得面对面见面。"这种人际关系的商品化可能随着时间推移,导致个人通过算法指标而非人类固有价值来衡量自身价值。
自主性和独立性面临威胁
报告中提出的最深刻的哲学问题可能与人类主体性有关。44%的专家预测个人独立性将下降,许多专家认为 AI 将悄然削弱我们做出自主决策的能力。随着算法系统越来越多地嵌入医疗、法律和金融等领域,人类判断可能会让位于数据驱动的结果。
这里存在双重风险:个人不仅可能失去独立行动的能力,而且可能意识不到这种转变。控制的假象——认为我们在做出选择,而实际上是被 AI 系统引导——可能会进一步加强对外部决策者的依赖。
AI 融入日常生活也将挑战传统的自我认知和意义感。39%的专家预计人类对自我身份和目标的认知将发生负面转变,相比之下,18%的专家看到更多积极变化,24%的专家认为影响利弊均等。一些人设想,随着人们在数字平台上经营多个 AI 中介的角色,自我意识将变得支离破碎。其他人警告说,随着 AI 接管认知劳动和社会认可,许多人可能会经历目标危机。
两极分化和共同现实的消失
报告强调的另一个令人担忧的趋势是对共同价值观和文化规范信任的下降。近半数受访者预见两极分化加剧和公共领域的碎片化。深度伪造、算法误导信息和高度个性化的内容流可能会侵蚀对真实性的共识。随着每个人沉浸在自己精心策划的数字泡沫中,集体理解和同理心可能会受损。
联合国减灾办公室全球项目主任 Giacomo Mazzone 指出:"最重要的担忧之一是事实性的、可信的、人类共同分享的知识的丧失。"
这种共同现实的丧失不仅仅是技术问题。当真相变得相对化,机构失去公信力时,维系社区和国家的社会契约就开始崩溃。Mazzone 补充说:"在人类历史上,没有任何社会能在缺乏共同真相的情况下长期存活。"
尽管存在这些担忧,报告仍带有乐观色彩。一些专家认为,如果在伦理框架下开发和监管,AI 可以成为增强而非削弱人类能力的工具,用于增强学习、个性化心理健康护理和促进全球协作。
怀着这种希望,Euromonitor 的顾问 Rabia Rasmeen 在回应中提出:"数字孪生和其他 AI 代理每天可以完成长达六小时的数字杂务,让人类将这些精力转向生活的精神、情感和体验层面,这可能会催生新的人类启蒙。"
然而,不用成为专家也知道,当生活变得过于轻松舒适时,人们往往更容易失去目标感和动力,而不是感受到向新高度攀登的冲动。让我们期望 AI 能够证明我们的担忧是错误的。
好文章,需要你的鼓励
本文探讨如何使用生成式AI和大语言模型作为倾听者,帮助用户表达内心想法。许多主流AI如ChatGPT、Claude等被设计成用户的"最佳伙伴",或试图提供心理健康建议,但有时用户只想要一个尊重的倾听者。文章提供了有效的提示词技巧,指导AI保持中性、尊重的态度,专注于倾听和理解,而非给出建议或判断。同时提醒用户注意隐私保护和AI的局限性。
北京大学团队开发出WoW世界模型,这是首个真正理解物理规律的AI系统。通过200万机器人互动数据训练,WoW不仅能生成逼真视频,更能理解重力、碰撞等物理定律。其创新的SOPHIA框架让AI具备自我纠错能力,在物理理解测试中达到80.16%准确率。该技术将推动智能机器人、视频制作等领域发展,为通用人工智能奠定重要基础。
人工通用智能和超级人工智能的出现,可能会创造出一种全新的外星智能形态。传统AI基于人类智能模式构建,但AGI和ASI一旦存在,可能会选择创造完全不同于人类认知方式的新型智能。这种外星人工智能既可能带来突破性进展,如找到癌症治愈方法,也可能存在未知风险。目前尚不确定这种新智能形态是否会超越人类智能,以及我们是否应该追求这一可能改变人类命运的技术突破。
香港大学和蚂蚁集团联合推出PromptCoT 2.0,这是一种让AI自动生成高质量训练题目的创新方法。通过"概念-思路-题目"的三步策略,AI能像老师备课一样先构思解题思路再出题,大幅提升了题目质量和训练效果。实验显示该方法在数学竞赛和编程任务上都取得了显著提升,为解决AI训练数据稀缺问题提供了新思路。