当地时间10月3日,在Credo AI负责任的 AI 领导力峰会上,李飞飞分享了如何保护社会免受高级AI模型的潜在威胁以及为什么她认为她创办的World Labs将改变一切,在访谈中,当被问及她对“人工智能奇点”的看法时,李飞飞困惑的表示不知道这些词是什么意思,她甚至也不知道“AGI”是什么意思。

“我来自人工智能学术界,接受的是更严谨、更循证的教育,所以我真的不知道这些词是什么意思。"“坦率地说,我甚至不知道 AGI 是什么意思。就像人们说的,当你看到它的时候你就知道它是什么,我想我还没有看到它。事实上,我并没有花太多时间去思考这些词,因为我觉得还有很多更重要的事情要做......”
当“人工智能教母”都不知道“AGI”是什么意思的时候,其他人的话语权可能更低。李飞飞在2006年启动的ImageNet项目,包含超过1500万张经过标注的图片,覆盖22000个不同类别。该项目直接推动了深度学习技术的崛起。
她曾是斯坦福大学的教授,并在谷歌云担任首席科学家。此外,她还是斯坦福大学以人为本人工智能研究院的院长。由她在今年4月份新创立的World Labs公司,在9月中旬最新一轮的融资中获得了2.3亿美元,短短半年的时间估值已达到10亿美元。
OpenAI的首席执行官Sam Altman曾尝试定义AGI,将AGI描述为“相当于你可以雇佣的中等水平的人类同事”。与此同时,OpenAI的章程将AGI定义为“在大多数经济价值工作上超越人类的高自主系统”。为了衡量进展,OpenAI设定了五个内部级别:第一级是聊天机器人(比如ChatGPT),然后是推理者(OpenAI o1),智能体(接下来是这个),创新者(可以帮助发明创新),以及最后一个级别,组织者(可以完成整个组织工作的AI)。

针对此问题,谷歌在2023年11月的一份论文中,专门对AGI进行了定义。这篇论文的名称是“Position: Levels of AGI for Operationalizing Progress on the Path to AGI”(立场:在通往通用人工智能之路上实现进展的AGI层次)。
在论文中,谷歌表示:通用人工智能(AGI)是计算机研究中一个重要且有时具有争议性的概念,用来描述至少在大多数任务上与人类能力相当甚至更强的AI系统。机器学习(ML)模型快速发展,AGI已经从纯粹的哲学讨论转变为一个具有现实意义的议题。一些专家认为,最新一代的大语言模型已经出现了AGI的“火花”;一些人预测AI将在大约十年内广泛超越人类;甚至有人声称当前的LLMs已经是AGI。
为了更好地理解和衡量AGI的进展,谷歌的研究人员提出了一个新的层次化的框架,将AGI的性能、通用性和自主性分为不同的层次。这个框架基于六个原则,包括关注能力而非过程、关注通用性和性能、关注认知和元认知任务、关注潜力而非部署、关注生态效度,以及关注通往AGI的道路本身。

通用人工智能(AGI)的六个层次:从Level 0的无AI状态,到Level 1的新兴AGI,表现出基本的智能任务执行能力。Level 2的胜任AGI能在多种任务上达到人类平均水平。Level 3的专家AGI则能以专家水平执行任务。Level 4的杰出AGI在多数任务上超越专家,而Level 5的超人AGI则在广泛任务上超越人类极限。这个层次结构揭示了AI发展的逐步进步和潜在风险。
在AGI的层次之上,研究者们还提出了ASI(Artificial Superintelligence)的概念,ASI通常指的是在智能方面超越人类的AI,不仅在某个特定领域,而是在广泛的认知任务上超越。ASI能够进行自我改进和自我增强,有可能发展出人类难以理解的复杂思维模式。ASI更多是一个理论概念,目前还未有实际存在的系统。
这些概念和不同的层次让我们了解到人工智能到达的不同阶段,不过,AGI到底是什么样的,可能我们也需要真的“看到它”才能搞清楚。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。