人工智能的崛起正在改变我们的职业和个人生活。从自动电子邮件回复到复杂的决策算法,AI 正渗透到我们的屏幕和思维中。在 2025 年不断演变的政治格局中,我们越来越感觉像是生活在科幻场景中。这引发了一个令人不安的问题:我们还能担任多久的创作者和编剧,而不是仅仅成为按照剧本说话、听从指令的演员?持续且看似无情的 AI 整合带来了一个微妙但重要的风险:主体性衰退。
这与机器接管的反乌托邦无关;而是关于我们自主决策能力和意愿的逐步侵蚀,无论是在线上还是线下。从根本上说,主体性是有意识地采取行动的能力。这意味着我们是行动的发起者,能够影响环境并塑造行动结果。在 AI 背景下,这意味着在有意识地利用技术力量的同时,保持独立发起和执行行为的能力。这是在将 AI 作为工具使用与对其产生依赖之间的平衡。
AI 环境下主体性衰退的 4 个阶段
我们与 AI 的互动通常遵循一个可预测的模式,如果不加注意,这种发展可能导致主体性降低。以下是四个阶段的分析:
1. 探索:初始接触 这个阶段标志着我们与 AI 的首次接触。我们被好奇心驱使,在不完全理解其机制的情况下尝试新工具并探索其潜在应用。 特点:能力低,亲和度低。我们对 AI 感兴趣但缺乏有效使用它的专业知识或理解。
2. 融合:逐渐熟悉 随着经验的积累,我们开始将 AI 整合到日常工作流程中。我们认识到其效率提升,并开始依赖它处理常规任务。 特点:能力和亲和度不断提高。我们正在发展使用 AI 的技能并欣赏其好处。
3. 依赖:形成依附 AI 从有用的工具转变为运营的关键组成部分。我们依赖它进行决策支持和任务执行,有时甚至不会批判性地评估其输出。 特点:技术能力强,但独立思考可能减弱。我们熟练使用 AI,但不断提升的技能会悄悄削弱我们的批判性思维和问题解决能力,以及推动知识边界的欲望,而是转向询问 ChatGPT。
4. 依附:自主性减弱 我们发现自己在没有 AI 的情况下难以完成任务(比如写文章或代码)或做出决策(你上一次带着明确的观影计划登录 Netflix 是什么时候?),导致主体性意识下降。我们变得过度依赖,失去了自主行动的能力和欲望。 特点:亲和度高,但无 AI 时运作能力低。我们习惯了 AI 的便利,但失去了独立运作的技能和信心。
这种演进说明了从赋能使用到不健康依赖的潜在滑坡。
主体性衰退不是突发事件;它是一个渐进的过程,往往在深深扎根之前都难以察觉。它以几种相互关联的方式表现出来。我们越来越多地将认知任务外包给 AI,从记忆回忆到复杂分析,导致所谓的认知卸载。虽然这可以提高效率,但也可能导致我们认知能力的退化。我们变得更有效率,但特别是当 AI 接管与我们职业自豪感和自我认同密切相关的任务时,这种委托可能会降低我们对工作的满意度。
随着我们能力的下降,我们的模型变得更加复杂,同时仍然容易产生幻觉。许多 AI 系统的"黑盒"性质(其决策过程不透明),加上人类对事实核查的意愿和能力日益减弱,这是危险的,并侵蚀了信任。
缓解主体性衰退的风险,意味着要在个人和机构层面采取对策。
AI 使用中培养主体性:四个 A
为了缓解急性主体性衰退的风险,我们必须主动管理 AI 整合并有效应对上述阶段。这种主动管理的关键在于 4 个 A:
意识 (Awareness):培养对 AI 能力和局限性的认识是第一步。个人和组织必须深入理解 AI 的工作原理、潜在影响以及保持人类监督的重要性。这种认识应该延伸到围绕 AI 的伦理考虑,促进负责任的开发和部署。
欣赏 (Appreciation):在意识的基础上,可以培养对自然智能和人工智能价值的欣赏。超越非此即彼的二元理解,这意味着认识到 AI 是增强而非取代人类能力的工具。培养人类和 AI 之间的协作文化可以带来更有效的问题解决和创新。
接受 (Acceptance):接受涉及将 AI 作为现代环境的基本组成部分。这并不意味着盲目采用这项技术的每一个新形式;而是要战略性地将 AI 整合到繁琐且耗时的个人决策中,如购物,或者可以提供效益的低效工作流程中。接受还需要调整组织结构和角色,以优化人机协作,同时注意优化人类福祉。
问责 (Accountability):最后,问责对于维持主体性至关重要。组织必须为 AI 系统建立明确的责任线,确保即使在涉及 AI 时,人类仍然对决策和行动负责。这包括制定健全的治理框架,审计 AI 系统的偏见和错误,并在出现问题时实施纠正机制。
掌握 AI 作为实现目标的手段
理解 AI 时代的主体性动态,涉及认识从实验到依赖的滑坡,并主动培养我们自己的主体性。AI 是达到目的的手段,而不是目的本身。如果它能让我们更快乐,使我们与自然的共存更可持续(考虑到当前模型的能源足迹,这是一个很大的假设),那么我们就找到了解决方案。要掌握这种平衡,我们需要培养混合智能,作为抵御主体性衰退的堡垒。
好文章,需要你的鼓励
Google 推出最新的 Gemini 2.5 Pro (实验版) AI 模型,并以罕见的速度向免费用户开放。该模型支持模拟推理,提高了准确性,并在 LMSYS 聊天机器人竞技场排行榜上名列前茅。免费用户可在网页上试用,但有使用限制,无法上传文件,且有未明确的token和使用次数限制。
Gartner 预测,大语言模型 (LLM) 提供商市场即将进入"灭绝"阶段。在竞争激烈的环境下,巨额资本投入成为主要挑战。预计到 2025 年,全球生成式 AI 支出将达到 6440 亿美元,较 2024 年增长 76%。专家认为,LLM 市场将经历类似云计算市场的整合,最终可能只剩少数几家主导者。
苹果公司推出新一代 AI 智能服务 Apple Intelligence,包括优先通知等多项功能。该服务现已覆盖欧盟用户和 Vision Pro 设备,并支持多种语言。新功能随 iOS 18.4 等系统更新推出,涵盖通知管理、图像生成和视频创作等方面,进一步提升用户体验。
OpenAI计划今年晚些时候向开发者社区发布一个"开放权重"模型,这是该公司自2019年以来的首次尝试。新模型将具备推理能力,类似于现有的o3-mini模型。这一战略转变旨在应对来自竞争对手的压力,同时为开发者提供更多定制和使用灵活性。虽然不完全开源,但这种方式可能有助于OpenAI在保持技术领先的同时,满足市场对更开放AI发展的需求。