电力是人工智能的关键原材料,但新的处理技术已经超出了数据中心运营商管理电网关系的能力,迫使他们将性能降低多达30%。
"这些AI工厂浪费了太多电力,"英伟达CEO黄仁勋在公司年度GTC客户大会的主题演讲中表示。"每一瓦特的浪费都是收入损失,"该公司在年度发布会上宣称。
今天,初创公司Niv-AI正式走出隐身模式,获得1200万美元种子轮融资,旨在通过精确测量GPU功耗的新型传感器和开发更高效的管理工具来解决这一问题。
这家位于特拉维夫的初创公司成立于去年,由CEO Tomer Timor和CTO Edward Kizis创立,得到了Glilot Capital、Grove Ventures、Arc VC、Encoded VC、Leap Forward和Aurora Capital Partners的支持。该公司拒绝透露其估值。
随着前沿实验室协同运行数千个GPU来训练和运行高级模型,当处理器在计算任务和与其他GPU通信之间切换时,会出现频繁的毫秒级功耗激增。
这些激增使数据中心难以管理从电网获取的电力。为了避免电力不足,数据中心需要为临时储能系统付费以应对激增,或者限制GPU使用。这两种情况都会降低对昂贵芯片投资的回报。
"我们不能继续以现在的方式建设数据中心,"Grove Ventures合伙人Lior Handlesman表示,他是Niv董事会成员。
Niv路线图的第一步是了解正在发生的情况;该公司目前正在部署机架级传感器,可以在毫秒级别检测其拥有的GPU以及设计合作伙伴GPU的功耗。目标是了解不同深度学习任务的具体功耗配置文件,并开发缓解技术,让数据中心能够释放更多现有容量。
自然而然,工程师们期望基于收集的数据构建一个AI模型,目标是训练它预测和同步整个数据中心的功耗负载——为数据中心工程师提供的"副驾驶"。
Niv预计在未来六到八个月内在美国的几个数据中心中拥有一套运营系统。这是一个有吸引力的想法,因为试图建设新数据中心的超大规模云服务商面临着困难的土地使用和供应链问题。创始人将他们的最终产品视为数据中心和电网之间缺失的"智能层"。
"电网实际上担心数据中心在特定时间消耗过多电力,"Timor告诉TechCrunch。"我们正在研究的问题是一个两端拉锯的问题。一方面是尝试帮助数据中心利用更多GPU,希望能更好地利用他们已经支付的电力。另一方面,你也可以在数据中心和电网之间创建更负责任的功耗配置文件。"
Q&A
Q1:Niv-AI是什么公司?它主要解决什么问题?
A:Niv-AI是一家总部位于特拉维夫的初创公司,专门解决数据中心GPU功耗管理问题。该公司开发新型传感器来精确测量GPU功耗,并提供管理工具提高能效,解决数据中心因功耗激增而被迫降低30%性能的问题。
Q2:数据中心为什么需要限制GPU性能?
A:当GPU在计算任务和通信之间切换时会出现毫秒级功耗激增,这使数据中心难以管理电网供电。为避免电力不足,数据中心要么支付临时储能费用,要么限制GPU使用,两种方式都降低了对昂贵芯片投资的回报。
Q3:Niv-AI的解决方案如何工作?
A:Niv-AI首先部署机架级传感器,在毫秒级别检测GPU功耗,了解不同深度学习任务的功耗配置。然后基于收集的数据构建AI模型,预测和同步整个数据中心的功耗负载,为数据中心工程师提供智能管理工具。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。