李飞飞博士认为AI不是失控的超级智能力量,而是人类潜能的合作伙伴。在拉斯维加斯的Ai4会议上,她与CNN的Matt Egan对话时描绘了一个学习、空间推理和沉浸式数字世界共同发展的未来。
她表示,同理心、好奇心和责任感应该成为驱动因素。这与Geoffrey Hinton的观点形成鲜明对比,后者在前一天告诉同样的听众,我们的生存有一天可能取决于让AI具备母亲般的保护本能。李飞飞的关注点始终在人类决策上,而不是机器对我们的"关怀"。
**重新审视超级智能的讨论**
对李飞飞博士而言,追求超级智能机器或AGI的目标与AI概念并无本质区别。
她解释道:"我不知道AGI和AI这两个词的区别在哪里。因为当艾伦·图灵、约翰·麦卡锡和马文·明斯基这些AI之父和思想家们,向人类展示机器可能性的时候,在我看来,他们并没有说机器只能狭隘地、非通用地思考。他们拥有的是最宏大的想象力。"
对李飞飞来说,AI不是竞赛或即将到来的力量较量,而是构建与人类协作、保护我们所珍视价值的系统的又一步。
相比之下,Hinton警告说机器可能在几十年内超越人类智能,保持控制将几乎不可能。他的建议是设计具有内在关怀感的机器,就像父母对孩子的关爱一样。
然而,李飞飞认为安全性不来自模拟情感。对她而言,更安全的路径是建立强有力的监督、良好的设计,以及以人为本的价值观。
Hinton经常从生存角度来阐述挑战:防止强大的AI伤害或抛弃我们。李飞飞则把精力投入到确保AI改善我们生活和工作的空间上。她关心的不是如何跟上对手的步伐,而是如何塑造一个合作者。
如果AI达到超级智能水平,Hinton不太确定人类控制是否还可能实现。这就是为什么他主张从一开始就编程植入关怀本能。李飞飞的答案是通过设计、监督和明确其服务人类角色的清晰理念,在早期就塑造AI的目标。
**教育作为生动的对话**
李飞飞将AI在教育中的作用重新定义为苏格拉底方法的延伸,敦促教育工作者和家长倡导好奇心而非捷径。李飞飞谈论课堂中的AI就像一些教师谈论苏格拉底一样:一个提出问题让你思考更深入的工具。她希望学生被鼓励去探索和调查,而不是依赖AI获得快速答案。在她看来,"提示"应该是调查的开始,而不是结束。
她反对将AI与学术不诚实行为简单关联。她说,太多精力用在禁止和封锁上,而没有足够精力思考这项技术如何能让人们成为更好的学习者。
**对风险的清醒认知**
李飞飞的乐观主义并不意味着盲目信任。她担心AI被用来传播虚假信息、工作岗位的破坏、训练最大模型所需的巨大能源消耗,以及只有少数人从生产力提升中获益的风险。她认为这些结果并非不可避免,而是需要解决的问题,从如何设定目标、谁来决定目标以及如何执行开始。
在她看来,仅仅"教会"AI关怀是不够的。重要的是将其目标与强有力的治理、公平准入和改善人们生活的用途保持一致。这意味着从一开始就以这些目标为导向进行设计。
通过她的初创公司World Labs,李飞飞正在研究她称为"空间智能"的技术,这是一种能够理解和创建三维空间的AI。应用范围从帮助外科团队更精确地工作,到让远距离的家庭在虚拟房间中共同庆祝。这些不仅仅是幻想背景,而是通过以自然方式融合物理和数字世界来改善现实生活而设计的。
对李飞飞来说,技术的意义在于给人们更多控制自己选择的能力。她说,AI应该让决策更透明,而不是更不透明。她相信每个人都应该保持尊严和质疑所听到内容的权利。
李飞飞将AI视为全球基础设施的一部分,可能改变我们学习、创造和连接的方式。她希望本世纪的故事包括AI如何帮助扩展创造力、重新思考教育、让人们处于故事中心,而不仅仅是我们如何避免灾难。
她的愿景将AI描绘为好奇心和进步的伙伴,而不是统治者。目标是构建沉浸式世界、课堂中更丰富的对话,以及尊重我们选择、融入人类生活的工具。
李飞飞博士和Hinton相识数十年。她会在一点上同意他的观点:人类和机器的智能都将增长。他们分歧的地方在于对未来的规划。他会给AI以照顾者的本能,她则会将其锚定在人类带来的创造力、关怀和共同目标上。她不断回到同一个理念:我们决定如何在我们正在构建的世界中生活。
Q&A
Q1:李飞飞对AGI和AI的区别有什么看法?
A:李飞飞认为AGI和AI没有本质区别。她表示不知道这两个词的区别在哪里,因为AI的创始人图灵、麦卡锡等人从一开始就拥有最宏大的想象力,并没有说机器只能狭隘地思考。
Q2:李飞飞和Geoffrey Hinton在AI安全观点上有什么不同?
A:Hinton认为应该给AI编程植入类似母亲保护本能的关怀感,而李飞飞认为安全性不来自模拟情感,更安全的路径是建立强有力的监督、良好的设计和以人为本的价值观。
Q3:什么是空间智能技术?它有什么应用?
A:空间智能是李飞飞通过World Labs研发的技术,是一种能够理解和创建三维空间的AI。应用范围包括帮助外科团队更精确地工作,让远距离家庭在虚拟房间中共同庆祝等,旨在融合物理和数字世界改善现实生活。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。