一个对 AI 情有独钟的人每天可能消耗的电量足以让微波炉连续运行超过三小时。实际上这种损耗可能更甚,因为许多公司对其 AI 模型的详细信息保密。
MIT Technology Review 与大约二十位跟踪 AI 能耗的研究人员交谈,同时开展了自己的实验,得出结论称总体能耗及其对气候的影响极难准确掌握,但这并未阻止他们进行尝试。
报告作者与 Hugging Face 的研究人员合作后确定,使用开源 Llama 3.1 8B 引擎生成响应时,每次查询大约消耗 57 焦耳的能量 ( 8B 表示该引擎使用 80 亿参数 )。考虑到制冷及其他能耗需求后,报告指出该数字应翻倍,使得该模型每次查询约需 114 焦耳 —— 相当于微波炉运行大约十分之一秒。而像 Llama 3.1 405B 这类更大型的模型,每次响应大约需要 6,706 焦耳 —— 相当于微波炉运行八秒。
换句话说,某个模型的规模在其能耗中起着至关重要的作用。尽管其真正规模仍是未知数,但据估计 OpenAI 的 GPT-4 参数数量远超一万亿,这意味着其单次查询的能耗很可能远高于测试中 Llama 模型的查询能耗。
值得指出的是,上述数据均针对文本类响应。MIT Technology Review 提到,由于 AI 生成照片所用的模型规模较小,再加上扩散相比推理更为节能,因此其能耗远低于文本响应。
另一方面,AI 视频生成则是一个巨大的能耗窟。
据 Hugging Face 的研究人员透露,为生成一段时长五秒、每秒 16 帧的视频,CogVideoX AI 视频生成模型所消耗的能量高达 3.4 百万焦耳 —— 这相当于微波炉运行一小时或骑电动自行车行驶 38 英里。
报告指出,“可以肯定的是,领先的 AI 视频生成器在创作长达 30 秒的炫目且超现实的视频时,其能耗将显著更高。”
基于这些数据,报告作者编制了一个估算模型,分析了一个习惯性依赖生成式模型处理各种任务的人的日常 AI 能耗。每天提 15 个问题、尝试生成 10 张图片以及制作 3 段适合 Instagram 发布的五秒视频,总共大约消耗 2.9 千瓦时的电量 —— 相当于微波炉连续运行三个半小时。
OpenAI 估计,全球每周有数亿人在使用 ChatGPT。
研究人员主要关注我们较为了解的开源大语言模型,但像 OpenAI 和 Google 这样的大公司对其模型的规模和应用范围保密,这严重阻碍了对 AI 能耗的准确估算。
DIY AI 能耗估算
Hugging Face 的工程师 Julien Delavande 上个月发布了一款名为 ChatUI-Energy 的工具,该工具可以接入任何开源 AI 模型以对其能耗进行估算。
该工具能够同时以瓦时和焦耳为单位估算能耗,并提供与现实中能耗等价物的比较,例如智能手机电池消耗量、微波炉运行时间等。
ChatUI-Energy 的在线演示版采用了阿里巴巴的 Qwen2.5-VL-7B-instruct 模型,并提供了其他几个可供试用的模型。其源代码也已在 GitHub 上公开,方便与其他开源模型配合使用。
虽然该工具并非完美无缺,和其他 AI 能耗建模工具一样,它在计算过程中做出了许多假设,而我们实验中这些假设并不总是一致。不过,Hugging Face 的 AI 与气候领域负责人 Sasha Luccioni 告诉我们,此项目旨在展示 AI 能耗透明度迫切需求的重要性。
“我们真正需要的是减少猜测、增加透明度,以及像这种工具,让 AI 用户获取有关使用 AI 对地球带来成本的信息,” Luccioni 在邮件中表示,“就像购买产品时必须显示成分信息一样。”
当涉及到衡量 CO2 排放时,Tech Review 的文章指出,情况则更加复杂。由于可再生与非可再生能源的组合在不同地区和不同时段内存在巨大差异 (例如夜间无法利用太阳能),因此测算变得更加困难。
报告还没有涉及 prompt caching 技术 —— 一种生成式模型常用来存储响应,在用户提出相同或相似问题时直接反馈,从而降低 AI 模型能耗的技术。
高能耗,绝非廉价
不论上述限制如何,有一点是毋庸置疑的:为了支持全球日益增长的 AI 需求,消耗的能量非常巨大。而且,其中相当一部分能源以碳排放的形式进入大气,其用途也存有争议。
正如 Tech Review 报告所指出,目前数据中心能耗的激增是在多年来相对稳定的消耗基础上出现的,这得益于持续而稳定的工作负载和不断提升的能效。2023 年,数据中心消耗了爱尔兰超过五分之一的电力。预计到 2030 年,全球数据中心的能耗将超过当前水平的两倍,并在下个十年伊始超过整个日本国家的能耗,而其中最大的推动因素正是 AI。
多年以来,科技公司一直在谈论绿色环保,并长期向公众保证他们的数据中心不会对环境造成威胁,但随着 AI 的加入,诸如 Microsoft 和 Google 等巨头宣称的净零目标正逐渐遥不可及。
最近,《The Register》对此进行了大量报道,而我们的报道与 MIT Technology Review 报告得出的结论基本一致:AI 背后的能耗远比科技公司愿意让我们相信的要“脏”。
总体来看,预计到本十年末,数据中心将排放 25 亿吨温室气体,这一数字是生成式 AI 成为最新热点后排放量的三倍。
更令人担忧的是,这些数字所依赖的数据基础极不稳固,正如 Tech Review 报告所指出的。
“这使得即使是那些负责预测能耗需求的人也不得不拼凑一幅缺失无数碎片的拼图,从而几乎无法为 AI 对能源网和排放的未来影响作出准确规划,”报告中写道。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。