对于大多数网络用户来说,生成式AI就是AI的全部。像GPT和Claude这样的大语言模型已成为人工智能的事实入口,展现着无限可能。在掌握了我们的语法并重新混合我们的模因之后,大语言模型抓住了公众的想象力。
它们易于使用且有趣。除了偶尔的幻觉问题,它们很聪明。但当公众玩弄着他们喜欢的大语言模型时,那些以AI为生的人——研究人员、技术专家、开发者——正专注于更大的目标。这是因为AI极客的终极目标是通用人工智能(AGI)。这就是终极游戏。
对专业人士来说,大语言模型只是一场副业。虽然有趣且极其有用,但最终只是"窄AI"。它们之所以擅长某些任务,是因为接受了特定数据集的训练,但无法脱离既定轨道去尝试解决更大的问题。
深度学习模型的收益递减和内在限制正促使人们探索能够进行真正认知的更智能解决方案。这些模型介于大语言模型和AGI之间。OpenCog Hyperon就是这样一个系统——比大语言模型更智能,预示着未来AI的发展方向。它是由SingularityNET开发的开源框架。
凭借其"神经符号化"方法,Hyperon旨在弥合统计模式匹配和逻辑推理之间的差距,提供了一条连接当今聊天机器人和未来无限思维机器的路线图。
突破大语言模型的局限性
SingularityNET将OpenCog Hyperon定位为下一代AGI研究平台,将多个AI模型集成到统一的认知架构中。与以大语言模型为中心的系统不同,Hyperon建立在神经符号化集成的基础上,AI可以从数据中学习并对知识进行推理。
在神经符号化AI中,神经学习组件和符号推理机制相互交织,使一个可以告知和增强另一个。这通过整合结构化、可解释的推理过程,克服了纯统计模型的主要局限性之一。
OpenCog Hyperon的核心将概率逻辑和符号推理与进化程序合成和多智能体学习相结合。这涉及很多术语,让我们尝试分解这在实践中是如何工作的。要理解OpenCog Hyperon——特别是为什么神经符号化AI如此重要——我们需要理解大语言模型如何工作以及它们的不足之处。
大语言模型的工作原理及其局限性
生成式AI主要基于概率关联进行操作。当大语言模型回答问题时,它并不像人类那样直觉地"知道"答案。相反,它根据训练数据计算提示后最可能的词序列。大多数时候,这种"模仿人类"的表现非常令人信服,不仅为用户提供了预期的输出,而且是正确的。
大语言模型专门从事工业规模的模式识别,它们在这方面做得很好。但这些模型的局限性已经得到充分记录。当然有幻觉问题,我们已经提到过,即呈现听起来合理但事实上不正确的信息。没有什么比急于取悦主人的大语言模型更能进行情感操控了。
但更大的问题,特别是在涉及更复杂的问题解决时,是缺乏推理能力。如果训练集中没有这些特定模式,大语言模型就不擅长从既定事实中逻辑地推导出新真理。如果它们以前见过这种模式,就可以预测其再次出现。如果没有,它们就会碰壁。
相比之下,AGI描述的是能够真正理解和应用知识的人工智能。它不只是以高度确定性猜测正确答案——它知道答案,并有计算过程来支持。自然地,这种能力需要明确的推理技能和记忆管理——更不用说在有限数据下进行泛化的能力。这就是为什么AGI仍然有一段路要走——还有多远取决于你问哪个人(或大语言模型)。
但与此同时,无论AGI是几个月、几年还是几十年后到来,我们有神经符号化AI,它有潜力让你的大语言模型相形见绌。
OpenCog Hyperon的神经符号化架构
为了理解神经符号化AI的实际应用,让我们回到OpenCog Hyperon。其核心是Atomspace元图,这是一个灵活的图结构,代表了多样化的知识形式,包括陈述性、程序性、感官性和目标导向性知识,都包含在单一基础中。元图可以以支持不仅仅是推理,还有逻辑演绎和上下文推理的方式编码关系和结构。
如果这听起来很像AGI,那是因为确实如此。可以说是"轻量AGI",提供了人工智能下一步发展方向的预览。为了让开发者能够使用Atomspace元图并运用其表达能力,Hyperon创建了MeTTa(Meta Type Talk),这是专门为AGI开发设计的新型编程语言。
与Python等通用语言不同,MeTTa是一个融合了逻辑和概率编程元素的认知基础。MeTTa中的程序直接在元图上操作,查询和重写知识结构,支持自修改代码,这对于学习如何改进自身的系统至关重要。
Q&A
Q1:OpenCog Hyperon是什么?它与大语言模型有什么区别?
A:OpenCog Hyperon是由SingularityNET开发的开源AGI研究平台,采用神经符号化方法。与大语言模型不同,它不仅能从数据中学习,还能进行逻辑推理,将神经学习和符号推理相结合,克服了纯统计模型只能进行模式匹配的局限性。
Q2:神经符号化AI相比传统大语言模型有什么优势?
A:神经符号化AI能够进行真正的逻辑推理和知识应用,而不仅仅是基于概率的模式匹配。它可以从既定事实中推导出新真理,具备结构化和可解释的推理过程,避免了大语言模型的幻觉问题和推理能力不足的缺陷。
Q3:MeTTa编程语言有什么特殊之处?
A:MeTTa是专门为AGI开发设计的编程语言,融合了逻辑和概率编程元素。它直接在Atomspace元图上操作,可以查询和重写知识结构,支持自修改代码,这对构建能够自我改进的AI系统至关重要,这是传统编程语言如Python所不具备的能力。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。