微软计划在本财年投入 800 亿美元建设数据中心,凸显了人工智能领域所需的巨额资本投入。
微软总裁 Brad Smith 在周五 (1 月 3 日) 的博客文章中写道,到 2025 年 6 月为止的这段预期支出中,超过一半将投向美国。Smith 指出,近期 AI 的进展要归功于"大规模基础设施投资,这是 AI 创新和应用的重要基础"。
像微软和 Amazon 这样的云基础设施提供商一直在竞相通过建设新的数据中心来扩大计算能力。在截至 2024 年 6 月的上一财年中,微软在资本支出上投入超过 500 亿美元,其中绝大部分用于服务器机房建设,这主要是由人工智能服务需求推动的。
Smith 同时告诫即将上任的特朗普政府不要对 AI 实施"过度监管"。他写道:"美国最重要的公共政策优先事项应该是确保美国私营部门能够继续在有利环境下前进。"
他还表示,这个国家需要"一个务实的出口管制政策,在可信数据中心中为 AI 组件提供强有力的安全保护,同时让美国公司能够快速扩张,为众多美国盟友和友好国家提供可靠的供应。"
数据中心的大部分支出都流向了包括 Nvidia 在内的高性能芯片公司以及 Dell Technologies 等基础设施供应商。
这些支持 AI 的大型服务器机房需要大量电力,这促使微软达成协议,重启宾夕法尼亚州三哩岛核电站的一个反应堆,该地点曾在 1979 年发生过著名的部分堆芯熔毁事故。Amazon 和 Google 也都签署了核能协议。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。