在对能够大规模提供AI计算能力的数据中心需求不断增长的背景下,英伟达支持的英国AI基础设施公司Nscale目前估值达146亿美元。这使其成为欧洲最新的十角兽公司之一,与Helsing和Mistral AI并列。
Nscale采用垂直整合策略,业务涵盖从能源和数据中心到计算和编排软件的全链条。其新估值来自20亿美元的C轮融资,该公司称这是"欧洲历史上最大的融资",不过这一数字包括去年10月由Blue Owl、戴尔、英伟达和诺基亚支持的4.33亿美元C轮前SAFE融资。
本轮融资得到高盛和摩根大通的支持,外界将这两家投行的参与解读为IPO准备的信号,这并非毫无根据:Nscale首席执行官乔什·佩恩告诉《纽约时报》,公司可能会"最早在今年"寻求上市以获得更多资本。
除了融资和计划外,公司还宣布前Meta首席运营官谢里尔·桑德伯格、前雅虎总裁苏珊·德克尔和前英国副首相尼克·克莱格将加入董事会。
Nscale在大额融资和重大宣布方面并非新手。去年9月,公司宣布由Aker领投的11亿美元B轮融资。Aker是一家挪威上市公司,在能源领域有业务,同时也与纽约投资公司8090 Industries共同领投了本轮C轮融资。
双方还达成协议,Aker与Nscale的合资企业现在将完全由这家初创公司管理。这个名为"挪威星门计划"的挪威AI基础设施项目计划到2026年底运行10万块英伟达GPU,OpenAI将成为首个客户。
据Aker总裁兼首席执行官、Nscale董事会成员厄伊温德·埃里克森表示,"此举通过将交付和治理集中在一个屋檐下来加强执行力,同时为已经进行的人员和项目保持连续性。"
去年10月,Nscale还与微软签署了扩大合作协议,与戴尔合作在欧洲三个数据中心和美国一个数据中心部署约20万块英伟达GPU。
戴尔和英伟达都参与了C轮融资,其他投资者还包括Astra Capital、Citadel、Jane Street、联想、Linden Advisors、诺基亚和Point72。Nscale预计新资金将加速其在欧洲、北美和亚洲的AI基础设施发展,同时帮助公司扩大工程和运营团队,并加强其平台建设。
除股权融资外,公司上月还筹集了债务资金,获得14亿美元延期提取定期贷款,以GPU作为担保,为其在欧洲的部分集群提供资金。公司旨在利用不断增长的企业需求和低成本可再生能源,同时重申其承诺,将重新利用废热、发展当地技能并投资区域基础设施,这些都是挪威星门计划的组成部分。
Q&A
Q1:什么是挪威星门计划?
A:挪威星门计划是Nscale在挪威的AI基础设施项目,计划到2026年底运行10万块英伟达GPU,OpenAI将成为首个客户。该项目原本是Aker与Nscale的合资企业,现在完全由Nscale管理。
Q2:Nscale为什么能获得如此高的估值?
A:Nscale采用垂直整合策略,业务涵盖从能源和数据中心到计算和编排软件的全链条,在AI计算基础设施需求激增的背景下,公司获得了英伟达等巨头支持,并与微软等签署大规模合作协议。
Q3:Nscale的融资规模有多大?
A:Nscale刚完成20亿美元C轮融资,被称为"欧洲历史上最大的融资"。此前还完成了11亿美元B轮融资,另外还获得14亿美元债务融资用于欧洲集群建设。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。