谁不喜欢一轮错失恐惧症呢?从互联网泡沫到Web 2.0,从虚拟现实到区块链,科技行业总是害怕错过某个趋势。
AI泡沫是所有泡沫的鼻祖。它的第一个产物——争夺数据中心电力资源的竞赛——现在又催生了疯狂抢夺天然气供应和设备的热潮。如果说错失恐惧症也能生孩子,那么AI泡沫现在已经有孙子了。
微软周二表示,正与雪佛龙和Engine No. 1合作在西德克萨斯州建设一座天然气发电厂,发电量可能增长至5吉瓦。本周谷歌证实,正与Crusoe合作在北德克萨斯州建设一座933兆瓦的天然气发电厂。上周,Meta宣布在其路易斯安那州的Hyperion数据中心再增加七座天然气发电厂,使该站点总容量达到7.46吉瓦——足以为整个南达科他州供电。
还有遗漏的吗?
最近的投资集中在美国南部,这里拥有世界上最大的天然气储藏。最近,美国地质调查局估计,仅一个地区的天然气储量就足以为整个美国提供10个月的能源供应。每个数据中心运营商似乎都想分一杯羹。
对天然气的争夺导致发电厂燃气轮机短缺,据Wood Mackenzie预测,到今年年底,价格相比2019年可能上涨195%。设备成本占发电厂总成本的20%至30%。该咨询公司指出,企业要到2028年才能下新订单,而燃气轮机的交付需要六年时间。
这意味着科技公司正在押注AI热潮不会降温,AI将继续需要指数级的电力,而天然气发电对于在AI时代取得成功是必要的。
他们可能会为第三个假设感到后悔。
虽然美国天然气供应充足,而且由于燃料运输成本不菲,美国在一定程度上不受中东动荡影响。但供应并非无限,最近三大主要产区——负责美国四分之三页岩气生产——的产量增长已大幅放缓。
目前尚不清楚科技公司对价格波动的抗风险能力如何,因为它们都没有披露协议的具体条款。很大程度上将取决于这些合同中价格的稳定程度。
即使合同价格尽可能稳定,这些公司仍可能面临不良后果。
根据能源信息署数据,由于天然气产生美国约40%的电力,电价与天然气价格密切相关。科技公司可能能够通过将燃气发电厂建在表后——绕过电网直接连接到数据中心——来暂时避免审查。但天然气并非无限资源,如果它们的野心过大,即使是表后运营也可能推高所有人的电价。我们都见过这种情况的后果。
不仅仅是普通家庭会感到不满。其他行业,包括那些仍然高度依赖天然气且尚未转向可再生能源的行业,可能会对数据中心抢夺如此多资源感到不满。用风能、太阳能和电池为数据中心供电很容易,但运行石化工厂就没那么简单了。
还有天气因素。一个寒冷的冬天可能会改变计算方式,推高家庭需求。井口可能会结冰,大幅削减供应,就像2021年德克萨斯州发生的情况一样。当天然气短缺时,供应商将面临选择:保持AI数据中心运行还是让人们为家庭供暖?
通过抢夺天然气供应并转向表后运营,科技公司可以声称它们"自带电力",不会给电网造成压力。但实际上,它们只是将使用从一个电网转移到另一个电网——天然气网。AI热潮说明了数字世界仍然受到多大的物理约束。对它们来说,在有限资源上大举押注合理吗?科技公司可能会为陷入错失恐惧症而后悔。
Q&A
Q1:为什么科技公司要建设天然气发电厂?
A:科技公司建设天然气发电厂主要是为了给数据中心提供电力支持。由于AI技术需要大量电力,而现有电网无法满足需求,微软、谷歌、Meta等公司纷纷投资建设天然气发电厂,确保数据中心的电力供应。
Q2:天然气发电设备短缺有多严重?
A:天然气发电设备短缺非常严重。据Wood Mackenzie预测,燃气轮机价格到今年年底相比2019年可能上涨195%。企业要到2028年才能下新订单,而燃气轮机的交付需要六年时间,设备成本占发电厂总成本的20%至30%。
Q3:大量使用天然气发电会带来什么风险?
A:风险主要包括:天然气供应有限且产量增长放缓,价格可能大幅波动;由于天然气产生美国约40%的电力,大量使用可能推高所有人的电价;其他依赖天然气的行业可能面临资源竞争;极端天气可能导致供应中断,迫使在数据中心和民用供暖之间做选择。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。