人工智能正在消耗美国大量的电力资源。根据国际能源署的数据,2024年AI系统与数据中心共消耗约415太瓦时的电力,占全美总发电量的10%以上,而这一需求预计到2030年将翻倍。
这种快速增长引发了外界对可持续发展的担忧。为此,某工程学院的研究人员开发了一套概念验证AI系统,旨在大幅提升能效。他们的方法最多可将能耗降低100倍,同时提升任务执行的准确性。
神经符号AI:一种混合方法
这项研究来自Matthias Scheutz教授领导的实验室,他是Karol家族应用技术教席教授。其团队正在开发神经符号AI,将传统神经网络与符号推理相结合。这种方法模拟了人类解决问题的方式——将问题拆解为步骤和类别逐一处理。
相关研究成果将于今年5月在维也纳举办的国际机器人与自动化大会上发布,并收录于大会论文集中。
让机器人学会感知、理解与行动
与ChatGPT、Gemini等我们熟悉的大语言模型不同,该团队专注于机器人领域所使用的AI系统,即视觉-语言-动作模型(VLA模型)。这类模型在大语言模型的基础上扩展了视觉感知与物理运动能力。
VLA模型接收来自摄像头的视觉数据与语言指令,并将这些信息转化为现实中的具体动作,例如控制机器人的轮子、手臂或手指来完成特定任务。
传统AI为何在简单任务上屡屡出错
传统VLA系统高度依赖大量数据和反复试错的学习方式。以"将积木堆成塔"为例,机器人必须先分析场景、识别每块积木,再判断如何正确放置。
这一过程容易出错。阴影可能让系统对积木形状产生误判,或者机器人放错位置导致结构倒塌。
这类错误与大语言模型中常见的问题如出一辙。正如机器人会放错积木,聊天机器人也可能生成虚假或误导性的内容,例如捏造法律案例,或生成带有多余手指等不合实际细节的图像。
符号推理如何提升准确率与效率
符号推理提供了一种不同的思路。它不单纯依赖数据中的统计规律,而是运用形状、平衡等抽象概念和规则来进行推理,从而更有效地规划行动,避免不必要的试错。
"与大语言模型一样,VLA模型依据大量同类场景训练集的统计结果来执行动作,但这可能导致错误,"Scheutz说,"神经符号VLA能够运用规则来限制学习过程中的试错次数,更快找到解决方案。它不仅能更快完成任务,还能显著缩短系统训练所需的时间。"
汉诺塔测试中的亮眼表现
研究人员使用汉诺塔谜题对系统进行了测试,这是一道需要缜密规划的经典问题。
神经符号VLA的成功率高达95%,而标准系统仅为34%。面对从未遇到过的更复杂版本谜题时,混合系统的成功率仍达78%,而传统模型则全部失败。
训练时间也大幅缩短。新系统仅用34分钟便完成了任务学习,而传统模型则需要超过一天半的时间。
训练与运行阶段的巨大节能效果
能耗方面的降幅同样令人瞩目。训练神经符号模型所需的能量仅为标准VLA系统的1%,运行时的能耗也只有传统方案的5%。
Scheutz将这种低效现象与日常AI工具进行了类比:"这些系统只是在预测序列中的下一个词或动作,但结果可能并不准确,还会出现幻觉。它们的能耗往往与任务本身不成比例。举个例子,当你在谷歌上搜索时,页面顶部的AI摘要所消耗的能量,最多是生成普通网页列表的100倍。"
AI对电力基础设施的压力持续攀升
随着AI在各行各业的加速普及,算力需求持续上涨。各大企业正在建设规模越来越大的数据中心,部分设施的用电量高达数百兆瓦,甚至超过一些中小城市的总用电量。
这一趋势引发了基础设施扩张竞赛,也引起了外界对长期能源供应能力的广泛忧虑。
AI可持续发展的新路径
研究人员认为,目前以大语言模型和VLA为主导的AI发展路径,从长远来看可能难以为继。尽管这些系统功能强大,但它们消耗大量能源,且仍可能产生不可靠的结果。
相比之下,神经符号AI提供了一个不同的发展方向。通过将学习能力与结构化推理相融合,它有望为未来的AI系统提供一个更高效、更可靠的基础。
Q&A
Q1:神经符号AI和普通大语言模型相比,准确率有多大差距?
A:在汉诺塔测试中,神经符号VLA模型的成功率高达95%,而传统标准系统仅为34%。面对从未见过的复杂谜题时,神经符号系统成功率仍有78%,传统模型则全部失败。这说明引入符号推理后,系统的规划能力和泛化能力都得到了显著提升,不再单纯依赖统计规律,出错率大幅降低。
Q2:神经符号AI能节省多少能耗?
A:节能效果非常显著。在训练阶段,神经符号模型所需能量仅为传统VLA系统的1%;在实际运行阶段,能耗也只有传统方案的5%。总体而言,最多可将能耗降低100倍。训练时间同样大幅缩短,新系统只需34分钟完成学习,而传统模型需要超过一天半的时间。
Q3:神经符号AI是怎么运作的,和普通神经网络有什么区别?
A:普通神经网络依靠大量数据进行统计学习,通过反复试错找到答案。神经符号AI则在此基础上加入了符号推理,利用形状、平衡等抽象规则来指导决策,类似于人类解题时先分步骤、再行动的思维方式。这种组合让系统既能从数据中学习,又能按规则推理,从而减少错误、节省资源。
好文章,需要你的鼓励
Converge Bio完成550万美元种子轮融资,由TLV Partners领投。该公司专为生物科技和制药行业打造LLM应用平台,提供数据增强、模型微调及可解释性分析等功能,帮助企业将通用生物基础模型转化为可实际落地的研发工具。以抗体研究为例,平台可将抗体LLM精调至氨基酸级别的结合亲和力预测,并生成优化序列。公司计划用于扩充团队、拓展客户,并发布抗体设计科研论文。
香港大学与哈尔滨工业大学联合发布的这项研究(arXiv:2605.06196)发现,大语言模型在扮演不同社会层级角色时,内部神经网络存在一条清晰的"粒度轴",从普通个人视角延伸至全球机构视角。这条轴是AI角色空间的主导几何方向,可被测量、被跨模型复现,并通过激活引导技术加以操控,为AI社会模拟的可信度评估和角色视角的主动调控提供了新工具。
ChatGPT高级语音模式的创造者Alexis Conneau离开OpenAI后,创办了音频AI初创公司WaveForms AI,并获得由a16z领投的4000万美元种子轮融资。该公司专注于训练自有音频大语言模型,计划于2025年推出与OpenAI、谷歌竞争的AI音频产品。Conneau深受电影《Her》启发,致力于开发具备情感感知能力的语音AI,同时警惕AI伴侣化带来的社会问题,强调技术应服务于人而非取代人际关系。
华盛顿大学研究团队发现,在AI数学推理训练中,将随机拼凑的拉丁文占位词(Lorem Ipsum)添加到题目前,能帮助AI突破"全部答错、训练停滞"的困境,在多个模型上平均提升推理得分2.8至6.2分。研究揭示了有效扰动的两个关键特征:使用拉丁语词汇避免语义干扰,以及保持较低困惑度确保AI能正确理解题目内容。