根据 Capgemini 研究院的报告,如果企业能为其用例"选择合适的模型"并在整个生命周期中实施可持续实践,生成式人工智能 (GenAI) 系统带来的环境影响可以显著降低。Capgemini 的《开发可持续生成式 AI》报告指出,对于最新的生成式预训练 Transformer (GPT) 模型,仅训练阶段就消耗相当于 5,000 个美国家庭一年的能源,而在业务环境中运行模型还需要"相同或更多的能源"。
这意味着对大语言模型 (LLM) 的一次查询所需的电力是 Google 搜索的 10 倍。
报告补充说,在一年时间里,将生成式 AI 集成到产品和服务中的组织数量从 6% 上升到 24%。此外,预计到 2026 年,生成式 AI 将占组织温室气体排放总量的 4.8%,高于目前的 2.6%。
Capgemini 还表示,使用 LLM 运行 20 到 50 次查询每次需要约 500 毫升水,到 2030 年,生成式 AI 可能产生 120 万到 500 万公吨的电子垃圾,约为 2023 年电子垃圾产量的 1000 倍。
Capgemini 集团可持续发展业务加速器负责人 Vincent Charpiot 表示:"生成式 AI 驱动的能源消耗激增导致排放量显著增加,预计两年内将在组织碳足迹中所占份额翻倍。企业迫切需要将可持续性纳入其 AI 战略。通过利用更小的模型、可再生能源以及 AI 和生成式 AI 供应商的透明实践,我们可以在推动创新和可持续发展的同时减轻环境影响。"
环境影响
从生产图形处理单元 (需要开采稀土金属) 到训练模型以运行庞大的数据中心,所有这些步骤都显著影响环境。
对大多数组织来说,生成式 AI 产品和服务的使用属于其范围 3 排放——指发生在公司运营之外但仍是其活动结果的间接温室气体排放。
然而,Capgemini 表示,在模型生命周期的各个阶段做出正确选择——包括选择硬件、模型架构、数据中心电源和最终用例——可以显著降低环境影响。
该报告还补充说,在某些情况下,如果可以使用资源效率更高的模型获得类似结果,企业应该考虑是否真的需要能源密集型的生成式 AI 技术。
Microsoft 生成式 AI 总监 Vishal Singhvi 表示:"每个人都想用生成式 AI 做点什么,但很多时候你根本不需要它。你可以用传统 AI 很好地完成工作,它消耗的计算能力和工作负载要少得多。"
小语言模型
因此,组织应该考虑是否可以使用小语言模型 (SLM) 来完成任务。与 LLM 相比,小语言模型使用更小且更具体的数据集进行训练。
Capgemini 表示,这不仅可以显著减少排放,还能降低成本。Mistral AI 的 CEO Arthur Mensch 表示:"更小的模型意味着应用程序运行成本更低,更重要的是,如果你有一个小 100 倍的模型,你可以用相同的成本调用它 100 次,每次调用都能为你的应用带来更多智能。"
对于英国 Orchard Hill College and Academy Trust 的董事会成员 Mauli Tikkiwal 来说,组织必须意识到他们使用生成式 AI 如何导致负面环境影响。她说:"首先,你必须识别影响,这样才能追踪和减少它。"
然而,虽然监测和追踪排放至关重要,但 Capgemini 调查的受访者中只有 14% 表示其公司测量和追踪其生成式 AI 足迹。
四分之三的高管将供应商的"有限透明度"视为测量环境影响的挑战。报告称:"他们期望科技行业在实现这一目标方面发挥带头作用。"
尽管存在这些趋势,Capgemini 强调了一些科技公司如何可持续地应对这项技术。
例如,报告指出,Nvidia 最新的 GPU 比前代产品效率高 30 倍;MIT 衍生初创公司 LiquidAI 开发了"自适应且能耗更低"的算法技术;Microsoft 在其 LLM 中引入了能源监测功能。
报告还强调了 Meta 签署协议为其美国数据中心购买地热能,以及 Google Carbon Sense Suite,这是"一系列功能的集合,可以轻松准确地报告你的碳排放并减少排放"。
在 2024 年 6 月的伦敦 AI 峰会上,可持续发展专家表示,虽然这项技术可以通过多种方式帮助企业变得更加环保,但必须认识到它目前对地球造成的明显负面影响。
他们表示,虽然它可以通过连接数据源并使其更易读来帮助企业更好地管理其范围 3 排放,但由于组织收集、管理和共享数据的方式不同,这些排放可能难以追踪。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。