数据中心租赁活动创历史新高
DatacenterHawk和Colliers等机构发布的2026年第一季度市场报告显示,北美地区租赁活动和资本形成均达到历史新高,AI工作负载正在推动数据中心容量的快速扩张。从更宏观的视角来看,美国数据中心建设支出已于2026年初突破单月240亿美元的历史峰值。
在全球范围内,数据中心资本支出预计将于2026年达到约1万亿美元,其中美国占全球数据中心总支出的44%左右。中国(16%)、欧洲(15%)和亚太地区(14%)等主要投资中心合计承接了约46%至56%的容量及相关资本支出,与此同时,印度、巴西、肯尼亚、阿联酋和新加坡也呈现出快速增长态势。
液冷与气冷的现实抉择
纯液冷方案虽频繁占据头条,但现实中混合架构才是主流——将气冷与液冷系统相结合,既能充分利用现有气冷基础设施,又能在最需要的环节引入液冷技术。
Tecto面向企业市场发力
Tecto公司斥资20亿美元推进基础设施建设计划,涵盖5座新数据中心,其中包括一座专为AI和云计算设计的200兆瓦设施。该公司首席营收官Tito Costa向RCRTech表示,巴西企业对AI、云计算及数据密集型应用的需求正持续攀升。
德克萨斯州达拉斯AI圆桌会议
本次圆桌会议摒弃厂商推介和固定议程,以轻松、私密的形式与C级决策者深入探讨如何在电网、供应链、劳动力、地缘政治等多重挑战下,实现AI的规模化部署与落地。
威斯康星州数据中心电价监管决定
威斯康星州公共服务委员会就We Energies提交的VLC及定制化资源电价申请作出裁决,该决定旨在保护现有客户利益,并提升电价信息的公开透明度。
布鲁金斯学会关于数据中心就业的研究
根据布鲁金斯学会的研究数据,首次引入大型数据中心的县域,其私营部门总就业人数在5至6年内增长4%至5%,建筑业就业跃升11%,信息产业就业增长高达22%。与此同时,当地薪资水平和房价均上涨3%至4%。
SpaceX在德克萨斯州规划550亿美元Terafab芯片工厂
SpaceX已提交在吉本斯克里克水库附近建设价值550亿美元Terafab芯片制造设施的计划,该项目为与特斯拉的联合合作,若所有建设阶段全部完成,总投资额可能高达1190亿美元。
Lattice半导体以16.5亿美元收购AMI
为推进其"全场景伴随芯片战略",Lattice半导体以16.5亿美元收购固件公司AMI。Lattice首席执行官表示,此举旨在帮助客户"更快速地部署复杂系统"。
Johnson Controls发布第二版冷却参考设计指南
Johnson Controls推出第二版数据中心参考设计指南,重点围绕工业级AI算力中心的冷却方案,在能效提升、节水优化及降低社区噪音影响等方面取得新进展。
Panthalassa完成1.4亿美元融资
由Palantir联合创始人Peter Thiel支持的波浪能驱动AI数据中心初创公司Panthalassa完成1.4亿美元融资。该公司利用巨型浮球装置采集波浪能,为现场AI算力提供电力,并通过低轨卫星实现数据传输。
Q&A
Q1:全球数据中心资本支出预计2026年达到多少?美国占比如何?
A:根据最新市场预测,2026年全球数据中心资本支出预计将达到约1万亿美元。其中,美国约占全球数据中心总支出的44%,是全球最大的单一市场。中国(16%)、欧洲(15%)和亚太地区(14%)紧随其后,印度、巴西、肯尼亚、阿联酋和新加坡等新兴市场也呈现快速增长态势。
Q2:数据中心液冷和气冷该怎么选?
A:目前业界主流方案并非非此即彼,而是采用气冷与液冷相结合的混合架构。这种方式可以充分利用已有的气冷基础设施,同时在热密度最高、最需要液冷的区域引入液冷技术,兼顾改造成本与散热效果,是当前数据中心冷却的务实选择。
Q3:数据中心建设对当地就业和经济有什么影响?
A:根据布鲁金斯学会的研究,一个县域首次引入大型数据中心后,私营部门总就业人数在5至6年内平均增长4%至5%,建筑业就业增幅达11%,信息产业就业增幅更高达22%。此外,当地居民薪资水平和房价也会相应上涨3%至4%,对区域经济带动效果显著。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。