一个对 AI 情有独钟的人每天可能消耗的电量足以让微波炉连续运行超过三小时。实际上这种损耗可能更甚,因为许多公司对其 AI 模型的详细信息保密。
MIT Technology Review 与大约二十位跟踪 AI 能耗的研究人员交谈,同时开展了自己的实验,得出结论称总体能耗及其对气候的影响极难准确掌握,但这并未阻止他们进行尝试。
报告作者与 Hugging Face 的研究人员合作后确定,使用开源 Llama 3.1 8B 引擎生成响应时,每次查询大约消耗 57 焦耳的能量 ( 8B 表示该引擎使用 80 亿参数 )。考虑到制冷及其他能耗需求后,报告指出该数字应翻倍,使得该模型每次查询约需 114 焦耳 —— 相当于微波炉运行大约十分之一秒。而像 Llama 3.1 405B 这类更大型的模型,每次响应大约需要 6,706 焦耳 —— 相当于微波炉运行八秒。
换句话说,某个模型的规模在其能耗中起着至关重要的作用。尽管其真正规模仍是未知数,但据估计 OpenAI 的 GPT-4 参数数量远超一万亿,这意味着其单次查询的能耗很可能远高于测试中 Llama 模型的查询能耗。
值得指出的是,上述数据均针对文本类响应。MIT Technology Review 提到,由于 AI 生成照片所用的模型规模较小,再加上扩散相比推理更为节能,因此其能耗远低于文本响应。
另一方面,AI 视频生成则是一个巨大的能耗窟。
据 Hugging Face 的研究人员透露,为生成一段时长五秒、每秒 16 帧的视频,CogVideoX AI 视频生成模型所消耗的能量高达 3.4 百万焦耳 —— 这相当于微波炉运行一小时或骑电动自行车行驶 38 英里。
报告指出,“可以肯定的是,领先的 AI 视频生成器在创作长达 30 秒的炫目且超现实的视频时,其能耗将显著更高。”
基于这些数据,报告作者编制了一个估算模型,分析了一个习惯性依赖生成式模型处理各种任务的人的日常 AI 能耗。每天提 15 个问题、尝试生成 10 张图片以及制作 3 段适合 Instagram 发布的五秒视频,总共大约消耗 2.9 千瓦时的电量 —— 相当于微波炉连续运行三个半小时。
OpenAI 估计,全球每周有数亿人在使用 ChatGPT。
研究人员主要关注我们较为了解的开源大语言模型,但像 OpenAI 和 Google 这样的大公司对其模型的规模和应用范围保密,这严重阻碍了对 AI 能耗的准确估算。
DIY AI 能耗估算
Hugging Face 的工程师 Julien Delavande 上个月发布了一款名为 ChatUI-Energy 的工具,该工具可以接入任何开源 AI 模型以对其能耗进行估算。
该工具能够同时以瓦时和焦耳为单位估算能耗,并提供与现实中能耗等价物的比较,例如智能手机电池消耗量、微波炉运行时间等。
ChatUI-Energy 的在线演示版采用了阿里巴巴的 Qwen2.5-VL-7B-instruct 模型,并提供了其他几个可供试用的模型。其源代码也已在 GitHub 上公开,方便与其他开源模型配合使用。
虽然该工具并非完美无缺,和其他 AI 能耗建模工具一样,它在计算过程中做出了许多假设,而我们实验中这些假设并不总是一致。不过,Hugging Face 的 AI 与气候领域负责人 Sasha Luccioni 告诉我们,此项目旨在展示 AI 能耗透明度迫切需求的重要性。
“我们真正需要的是减少猜测、增加透明度,以及像这种工具,让 AI 用户获取有关使用 AI 对地球带来成本的信息,” Luccioni 在邮件中表示,“就像购买产品时必须显示成分信息一样。”
当涉及到衡量 CO2 排放时,Tech Review 的文章指出,情况则更加复杂。由于可再生与非可再生能源的组合在不同地区和不同时段内存在巨大差异 (例如夜间无法利用太阳能),因此测算变得更加困难。
报告还没有涉及 prompt caching 技术 —— 一种生成式模型常用来存储响应,在用户提出相同或相似问题时直接反馈,从而降低 AI 模型能耗的技术。
高能耗,绝非廉价
不论上述限制如何,有一点是毋庸置疑的:为了支持全球日益增长的 AI 需求,消耗的能量非常巨大。而且,其中相当一部分能源以碳排放的形式进入大气,其用途也存有争议。
正如 Tech Review 报告所指出,目前数据中心能耗的激增是在多年来相对稳定的消耗基础上出现的,这得益于持续而稳定的工作负载和不断提升的能效。2023 年,数据中心消耗了爱尔兰超过五分之一的电力。预计到 2030 年,全球数据中心的能耗将超过当前水平的两倍,并在下个十年伊始超过整个日本国家的能耗,而其中最大的推动因素正是 AI。
多年以来,科技公司一直在谈论绿色环保,并长期向公众保证他们的数据中心不会对环境造成威胁,但随着 AI 的加入,诸如 Microsoft 和 Google 等巨头宣称的净零目标正逐渐遥不可及。
最近,《The Register》对此进行了大量报道,而我们的报道与 MIT Technology Review 报告得出的结论基本一致:AI 背后的能耗远比科技公司愿意让我们相信的要“脏”。
总体来看,预计到本十年末,数据中心将排放 25 亿吨温室气体,这一数字是生成式 AI 成为最新热点后排放量的三倍。
更令人担忧的是,这些数字所依赖的数据基础极不稳固,正如 Tech Review 报告所指出的。
“这使得即使是那些负责预测能耗需求的人也不得不拼凑一幅缺失无数碎片的拼图,从而几乎无法为 AI 对能源网和排放的未来影响作出准确规划,”报告中写道。
好文章,需要你的鼓励
Mistral 与 All Hands AI 合作推出了一款专注编程的 AI 模型 Devstral,通过 Apache 2.0 许可证开放使用,在代码浏览、多文件编辑及自动化测试等任务中表现优异,可在 RTX 4090 或高配 Mac 上运行,定价亲民。
亚马逊在购物 App 中测试一项新功能,通过“大语言模型”从用户评价和网络信息中提炼出产品关键特性,并以对话形式生成简短音频摘要,帮助消费者更便捷地做出购买决策。目前该功能先在部分美国商品上试用,未来将逐步推广。
Extreme Networks 通过 Platform One 平台将会话、多模态及代理 AI 融入企业网络管理,显著提升可视化、自动化和安全性能。
OpenAI 今天推出新版 Responses API 更新,新增远程 MCP、原生图像生成、代码解释器和改进的文件搜索能力,帮助企业构建智能自动化代理,同时维持原有定价。