我们已经进入了迈向人机混合世界加速发展的下一阶段。人工智能系统正在从等待我们指令的被动工具转变为能够在现实世界中做出决策和采取行动的自主行为者。这不仅仅是技术进化,更是一场变革,要求我们重新思考如何在日益混合的数字-物理现实中实现自然智能和人工智能的双重对齐。
问题不在于AI是否会影响人类行为——它已经在影响了。从塑造我们新闻消费的推荐算法到安排会议的AI助手,这些系统正成为我们决策过程中的积极参与者。但随着AI智能体获得独立行动、建立关系并在我们生活的多个领域运作的能力,它们的影响变得更加相关。我们正在从响应我们需求的AI转向能够预测、建议甚至代表我们行动的AI——无论我们是否有意识地意识到这一点。
被劫持的自主权:为什么双重对齐很重要
传统的AI对齐专注于确保人工系统按照我们的意愿行事。但随着AI变得更加自主和社会化集成,我们面临着更复杂的挑战:确保对齐在两个方向上都有效。我们需要与人类价值观对齐的AI系统,也需要人类具备在富含AI的环境中维持自主权和价值观的能力。
这种双重对齐挑战是紧迫的,因为我们正在混合规模上放大一切,包括我们的错位。当AI系统从在线人类行为中学习时,它们不仅吸收我们的知识,还吸收我们的偏见、冲突和功能障碍。旧的编程原理"垃圾进,垃圾出"已经演变为更深层的东西:"价值观进,价值观出"。嵌入在我们数据、系统和交互中的价值观塑造AI成为什么,而这反过来又塑造我们成为什么。
考虑社交媒体算法如何影响我们的行为、注意力和信念。现在想象能够与用户形成密集、长期关系、做出自主决策并在我们生活的多个方面运作的AI智能体。如果没有适当的技术和人类对齐,我们就有可能创造出优化参与度而非福祉、效率而非智慧、短期收益而非长期繁荣的系统。
构建真正帮助人类的AI:亲社会AI
这就是亲社会AI的用武之地——人工智能系统不仅被设计为有用,而且积极促进人类和地球福祉。亲社会AI超越了遵循命令,考虑更广泛的原则:用户福祉、长期繁荣和社会规范。它体现了关怀的伦理准则,尊重用户自主权,同时作为繁荣人类生活的补充而非替代。
但构建亲社会AI不仅仅是技术挑战,更是人类努力。如果人类在富含AI的环境中失去自主权——即基于批判性思维做出有意义选择的能力和意愿,即使AI变得更加普及和复杂,我们也无法通过编程获得更好的结果。
混合智能需要双重素养
在AI世界中维持人类自主权依赖于混合智能——自然智能和人工智能之间的无缝协作,充分利用两者的优势。这不是人类与机器对抗,而是人类与机器合作以增强我们能力的方式。
混合智能需要双重素养——既精通传统人类技能,也精通AI协作技能。正如印刷机需要识字能力才能真正实现民主化一样,AI时代要求我们既理解如何与AI系统合作,也知道如何维持我们独特的人类贡献。
双重素养意味着理解AI系统如何工作,识别其局限性和偏见,知道何时信任或质疑其输出,并保持与人工智能互补而非竞争的技能。这意味着能够有效地提示AI,同时也知道何时完全远离AI辅助。
双重对齐的实践
考虑使用AI辅导系统的学生。没有双重素养,他们可能过度依赖AI解释,失去往往导致深度学习的挣扎和困惑。有了双重素养,他们将AI用作认知对练伙伴,同时锻炼心理肌肉。他们不是外包而是构建分析技能。
或者想想使用AI进行决策的专业人士。没有在AI中刻意保持自主权,他们可能过于轻易地听从算法推荐。有了适当的自主权,他们将AI洞察与人类判断、上下文知识和伦理考虑相结合。
对于能够与用户形成情感纽带的社交AI智能体来说,风险特别高。谷歌DeepMind团队的研究显示这些关系如何引入情感伤害、操纵和依赖的新风险。亲社会AI可以抵消这种趋势,其设计旨在加强而非替代人际关系和个人成长。
通过系统性AI投资改造社会
个人心态很重要。但持续的转型需要大规模变革。我们需要教育系统在传统学科之外教授双重素养。我们需要在AI增强环境中保护人类自主权的工作场所政策。我们需要为人类繁荣而非仅仅参与度而设计的社交平台。所有这些都必须在全面理解人与地球相互作用的基础上进行。亲社会AI意味着亲地球AI,因为只有后者繁荣,前者才能生存。
技术AI安全和人类自主权不是独立的问题,它们是必须共同解决的相互关联的挑战。未来不是在自然智能和人工智能之间做选择;而是创造两者都能以地球尊严蓬勃发展的混合系统。
在AI中茁壮成长的4步指南
理解双重对齐挑战只是开始。以下是迈向亲社会AI和更强人类自主权的实用框架——A框架:
意识(Awareness):首先诚实评估你与AI的当前关系。你在哪里依赖AI系统?何时感觉你的自主权得到增强还是削弱?注意AI如何影响你的注意力、决策和关系。
赞赏(Appreciation):认识我们AI混合未来的潜力和真正风险。认识到构建有益AI不仅仅是更好的算法,它需要积极的人类参与和持续学习。
接受(Acceptance):接受这种转型需要每个人的努力。我们不能被动地消费AI服务并期望最佳结果。我们AI未来的质量取决于我们参与塑造它。
问责(Accountability):为发展你的双重素养技能承担责任。学习AI系统如何工作,练习将它们用作思考伙伴而非替代品,并维持让你扎根于人类经验的关系和技能。在你的工作场所和社区倡导亲社会AI原则。
AI的智能体转向不是发生在我们身上,而是与我们一起并因为我们而发生。我们今天关于如何开发、部署和与AI系统交互的选择决定了我们是否创造一个人性化和人道的未来。现在是接受这一挑战的时候,趁我们还有机会塑造轨迹。
Q&A
Q1:什么是双重对齐策略?为什么现在需要它?
A:双重对齐策略是指既要确保AI系统与人类价值观对齐,也要确保人类能够在AI环境中保持自主权和价值观。随着AI从被动工具转变为自主决策者,传统的单向对齐已不够用,我们需要双向的对齐来防止人类在AI时代失去自主权。
Q2:亲社会AI与普通AI有什么区别?
A:亲社会AI不仅被设计为有用,更积极促进人类和地球福祉。它超越简单的命令执行,考虑用户福祉、长期繁荣和社会规范,体现关怀的伦理准则,作为繁荣人类生活的补充而非替代,旨在加强而非替代人际关系和个人成长。
Q3:如何在AI时代保持人类自主权?
A:通过发展双重素养和混合智能。双重素养包括理解AI系统工作原理、识别其局限性和偏见、知道何时信任或质疑AI输出,以及保持与AI互补的人类技能。关键是将AI用作思考伙伴而非替代品,在获得AI帮助的同时维持批判性思维能力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。