一份全面的新报告表明,人工智能将在未来十年内从根本上重塑人类的行为、认知和关系,这引发了关于 AI 对人类本质影响的重要思考。
这份名为《2035年的人类存在》的报告由伊隆大学数字未来想象中心的研究员 Janna Anderson 和 Lee Rainie 撰写,综合了定性论文和调查数据,收集了301位全球专家对 AI 融合将如何改变人类身份认同和社会结构的见解。近200位专家提供了完整的书面回应并收录在报告中。
专家们普遍预期到2035年人类的行为和能力将发生巨大变化。其中61%的专家预测这些变化将是"深刻且有意义的"或"根本性的革命性的"。
认知和情感能力的削弱
报告中反复出现的一个主题是基本认知功能可能受到削弱。50%的受访专家预见人们对复杂问题进行深入思考的意愿和能力将下降。AI 生成的摘要、答案和自动决策带来的便利可能会降低人们批判性处理信息的动力。
这种认知能力的退化伴随着对情感发展的担忧。半数专家预测社交和情感智能将下降,他们认为用 AI 驱动的关系取代人际互动是一个关键因素。随着合成伴侣在情感上变得更加协调且可定制,它们可能比复杂且经常混乱的真实人际关系更受欢迎。
欧洲负责任人工智能办公室主席 Nell Watson 在报告中的短文中写道:"AI 恋人将提供理想化的关系,使人类伴侣关系显得不必要地困难。"这种转变可能加剧孤立,并降低共情能力的发展,尤其是在年轻人中间。
开放市场研究所新闻与自由中心主任 Courtney C. Radsch 补充道:"人们将把他们的互动外包给 AI 代理,由 AI 来决定兼容性并判断是否值得面对面见面。"这种人际关系的商品化可能随着时间推移,导致个人通过算法指标而非人类固有价值来衡量自身价值。
自主性和独立性面临威胁
报告中提出的最深刻的哲学问题可能与人类主体性有关。44%的专家预测个人独立性将下降,许多专家认为 AI 将悄然削弱我们做出自主决策的能力。随着算法系统越来越多地嵌入医疗、法律和金融等领域,人类判断可能会让位于数据驱动的结果。
这里存在双重风险:个人不仅可能失去独立行动的能力,而且可能意识不到这种转变。控制的假象——认为我们在做出选择,而实际上是被 AI 系统引导——可能会进一步加强对外部决策者的依赖。
AI 融入日常生活也将挑战传统的自我认知和意义感。39%的专家预计人类对自我身份和目标的认知将发生负面转变,相比之下,18%的专家看到更多积极变化,24%的专家认为影响利弊均等。一些人设想,随着人们在数字平台上经营多个 AI 中介的角色,自我意识将变得支离破碎。其他人警告说,随着 AI 接管认知劳动和社会认可,许多人可能会经历目标危机。
两极分化和共同现实的消失
报告强调的另一个令人担忧的趋势是对共同价值观和文化规范信任的下降。近半数受访者预见两极分化加剧和公共领域的碎片化。深度伪造、算法误导信息和高度个性化的内容流可能会侵蚀对真实性的共识。随着每个人沉浸在自己精心策划的数字泡沫中,集体理解和同理心可能会受损。
联合国减灾办公室全球项目主任 Giacomo Mazzone 指出:"最重要的担忧之一是事实性的、可信的、人类共同分享的知识的丧失。"
这种共同现实的丧失不仅仅是技术问题。当真相变得相对化,机构失去公信力时,维系社区和国家的社会契约就开始崩溃。Mazzone 补充说:"在人类历史上,没有任何社会能在缺乏共同真相的情况下长期存活。"
尽管存在这些担忧,报告仍带有乐观色彩。一些专家认为,如果在伦理框架下开发和监管,AI 可以成为增强而非削弱人类能力的工具,用于增强学习、个性化心理健康护理和促进全球协作。
怀着这种希望,Euromonitor 的顾问 Rabia Rasmeen 在回应中提出:"数字孪生和其他 AI 代理每天可以完成长达六小时的数字杂务,让人类将这些精力转向生活的精神、情感和体验层面,这可能会催生新的人类启蒙。"
然而,不用成为专家也知道,当生活变得过于轻松舒适时,人们往往更容易失去目标感和动力,而不是感受到向新高度攀登的冲动。让我们期望 AI 能够证明我们的担忧是错误的。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。