人工智能的崛起正在改变我们的职业和个人生活。从自动电子邮件回复到复杂的决策算法,AI 正渗透到我们的屏幕和思维中。在 2025 年不断演变的政治格局中,我们越来越感觉像是生活在科幻场景中。这引发了一个令人不安的问题:我们还能担任多久的创作者和编剧,而不是仅仅成为按照剧本说话、听从指令的演员?持续且看似无情的 AI 整合带来了一个微妙但重要的风险:主体性衰退。
这与机器接管的反乌托邦无关;而是关于我们自主决策能力和意愿的逐步侵蚀,无论是在线上还是线下。从根本上说,主体性是有意识地采取行动的能力。这意味着我们是行动的发起者,能够影响环境并塑造行动结果。在 AI 背景下,这意味着在有意识地利用技术力量的同时,保持独立发起和执行行为的能力。这是在将 AI 作为工具使用与对其产生依赖之间的平衡。
AI 环境下主体性衰退的 4 个阶段
我们与 AI 的互动通常遵循一个可预测的模式,如果不加注意,这种发展可能导致主体性降低。以下是四个阶段的分析:
1. 探索:初始接触 这个阶段标志着我们与 AI 的首次接触。我们被好奇心驱使,在不完全理解其机制的情况下尝试新工具并探索其潜在应用。 特点:能力低,亲和度低。我们对 AI 感兴趣但缺乏有效使用它的专业知识或理解。
2. 融合:逐渐熟悉 随着经验的积累,我们开始将 AI 整合到日常工作流程中。我们认识到其效率提升,并开始依赖它处理常规任务。 特点:能力和亲和度不断提高。我们正在发展使用 AI 的技能并欣赏其好处。
3. 依赖:形成依附 AI 从有用的工具转变为运营的关键组成部分。我们依赖它进行决策支持和任务执行,有时甚至不会批判性地评估其输出。 特点:技术能力强,但独立思考可能减弱。我们熟练使用 AI,但不断提升的技能会悄悄削弱我们的批判性思维和问题解决能力,以及推动知识边界的欲望,而是转向询问 ChatGPT。
4. 依附:自主性减弱 我们发现自己在没有 AI 的情况下难以完成任务(比如写文章或代码)或做出决策(你上一次带着明确的观影计划登录 Netflix 是什么时候?),导致主体性意识下降。我们变得过度依赖,失去了自主行动的能力和欲望。 特点:亲和度高,但无 AI 时运作能力低。我们习惯了 AI 的便利,但失去了独立运作的技能和信心。
这种演进说明了从赋能使用到不健康依赖的潜在滑坡。
主体性衰退不是突发事件;它是一个渐进的过程,往往在深深扎根之前都难以察觉。它以几种相互关联的方式表现出来。我们越来越多地将认知任务外包给 AI,从记忆回忆到复杂分析,导致所谓的认知卸载。虽然这可以提高效率,但也可能导致我们认知能力的退化。我们变得更有效率,但特别是当 AI 接管与我们职业自豪感和自我认同密切相关的任务时,这种委托可能会降低我们对工作的满意度。
随着我们能力的下降,我们的模型变得更加复杂,同时仍然容易产生幻觉。许多 AI 系统的"黑盒"性质(其决策过程不透明),加上人类对事实核查的意愿和能力日益减弱,这是危险的,并侵蚀了信任。
缓解主体性衰退的风险,意味着要在个人和机构层面采取对策。
AI 使用中培养主体性:四个 A
为了缓解急性主体性衰退的风险,我们必须主动管理 AI 整合并有效应对上述阶段。这种主动管理的关键在于 4 个 A:
意识 (Awareness):培养对 AI 能力和局限性的认识是第一步。个人和组织必须深入理解 AI 的工作原理、潜在影响以及保持人类监督的重要性。这种认识应该延伸到围绕 AI 的伦理考虑,促进负责任的开发和部署。
欣赏 (Appreciation):在意识的基础上,可以培养对自然智能和人工智能价值的欣赏。超越非此即彼的二元理解,这意味着认识到 AI 是增强而非取代人类能力的工具。培养人类和 AI 之间的协作文化可以带来更有效的问题解决和创新。
接受 (Acceptance):接受涉及将 AI 作为现代环境的基本组成部分。这并不意味着盲目采用这项技术的每一个新形式;而是要战略性地将 AI 整合到繁琐且耗时的个人决策中,如购物,或者可以提供效益的低效工作流程中。接受还需要调整组织结构和角色,以优化人机协作,同时注意优化人类福祉。
问责 (Accountability):最后,问责对于维持主体性至关重要。组织必须为 AI 系统建立明确的责任线,确保即使在涉及 AI 时,人类仍然对决策和行动负责。这包括制定健全的治理框架,审计 AI 系统的偏见和错误,并在出现问题时实施纠正机制。
掌握 AI 作为实现目标的手段
理解 AI 时代的主体性动态,涉及认识从实验到依赖的滑坡,并主动培养我们自己的主体性。AI 是达到目的的手段,而不是目的本身。如果它能让我们更快乐,使我们与自然的共存更可持续(考虑到当前模型的能源足迹,这是一个很大的假设),那么我们就找到了解决方案。要掌握这种平衡,我们需要培养混合智能,作为抵御主体性衰退的堡垒。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。