据彭博社报道,ChatGPT开发商OpenAI预计将在印度建设一个功耗超过1千兆瓦的数据中心。
OpenAI正在寻找可以合作的印度本地公司来推进这一项目。该公司需要电力公用事业和建筑公司的支持来启动数据中心建设。此外,OpenAI还可能寻求市场推广合作伙伴关系,以扩大ChatGPT的采用范围。
1千兆瓦的电力足以为数十万户家庭供电。英伟达公司的DGX GB200设备包含72个Blackwell B200图形处理单元,功耗约为120千瓦。这意味着OpenAI在印度的数据中心至少能够容纳59,000个B200芯片。
OpenAI也可能选择英伟达最新的Blackwell Ultra芯片,该芯片最近开始向客户发货。Blackwell Ultra比B200更快,因此可能消耗更多电力。
GPU只占AI数据中心芯片的一小部分。除了B200加速器外,每台DGX GB200设备还包括36个中央处理器和9个由定制硅芯片驱动的交换机。基于Blackwell Ultra的升级版DGX GB300具有类似的配置。
目前尚不清楚OpenAI在印度建设的设施是否属于其"OpenAI for Countries"计划的一部分。该计划于今年早些时候启动,将在全球建设数据中心以支持国际用户。OpenAI迄今已签署协议在阿联酋和挪威建设基础设施。
"OpenAI for Countries"计划的范围不仅限于数据中心。值得注意的是,这家大语言模型提供商正在帮助参与国政府推出ChatGPT的本地化版本,并培育本地AI初创企业。OpenAI表示可能会投资其中一些初创公司。
今年2月,OpenAI首席执行官山姆·奥特曼据报与印度官员会面,讨论发展"低成本AI生态系统"。最近,该公司推出了仅在印度提供的新ChatGPT计划。这项名为ChatGPT Go的订阅服务月费约4.5美元,用户可以发送的提示数量是免费版本的10倍。
据路透社报道,奥特曼将于下个月访问印度。OpenAI最近宣布计划在年底前在新德里开设办事处。此外,该公司还打算向当地教育工作者和学生分发约50万个ChatGPT许可证。
在印度建立数据中心将使OpenAI能够为本地用户提供更低的延迟。此外,该设施可能使其在争夺企业客户方面处于更有利的地位。一些组织必须在本地存储数据以遵守网络安全和隐私法规。
关于OpenAI在印度基础设施建设的报道发布几周前,该公司刚与甲骨文公司合作,计划在美国建设4.5千兆瓦的数据中心容量。在未来四年内,这家ChatGPT开发商计划在美国再增加至少5.5千兆瓦的容量。该计划预计耗资5000亿美元。
Q&A
Q1:OpenAI在印度建设的数据中心规模有多大?
A:OpenAI计划在印度建设一个功耗超过1千兆瓦的数据中心。这个规模足以为数十万户家庭供电,能够容纳至少59,000个英伟达B200芯片,是一个超大规模的AI数据中心项目。
Q2:OpenAI为什么要在印度建设数据中心?
A:主要有三个原因:为印度本地用户提供更低的网络延迟;更好地竞争企业客户,因为一些组织需要在本地存储数据以符合网络安全和隐私法规;支持OpenAI在印度市场的扩张,包括推广ChatGPT和培育本地AI生态系统。
Q3:这个印度数据中心项目何时能够完成?
A:文章没有提及具体的完成时间。目前OpenAI还在寻找印度本地合作伙伴,包括电力公用事业公司和建筑公司。该公司CEO奥特曼计划下个月访问印度,并将在年底前在新德里开设办事处。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。