随着AI电力需求激增,谷歌成为电池回收和阴极生产初创公司Redwood Materials最新投资者,该公司正在扩大新能源存储业务,为AI数据中心和其他工业站点提供电力支持。
Redwood Materials由前特斯拉首席技术官JB Straubel创立,去年10月完成了由风投公司Eclipse领投的3.5亿美元E轮融资。该轮融资还包括英伟达风投部门NVentures的新战略投资。
自那以后,包括新投资者谷歌在内的更多投资者纷纷加入,将E轮融资金额推高至4.25亿美元。现有投资者Capricorn和高盛也再次进行了新的投资。
虽然公司估值未公开披露,但熟悉此轮融资的消息人士告诉TechCrunch,其投后估值超过60亿美元,比之前的估值高出超过10亿美元。这笔最新投资使Redwood的私募资本总额达到23亿美元。
谷歌、英伟达等投资者对这轮融资的兴趣似乎在于能源存储及其为数据中心供电的能力,这是Redwood内部一个较新的业务板块。
Redwood Materials成立于2017年,旨在为电池创建循环供应链。该公司最初专注于回收电池生产废料和消费电子产品电池,如手机电池和笔记本电脑电池。Redwood处理这些废料并提取传统开采的材料,如镍和锂。新处理的材料随后销售给松下等客户,用于制造电池。
Redwood持续将业务扩展到回收之外。这家总部位于内华达州卡森城的公司几年前增加了阴极生产业务,去年夏天推出了能源存储业务,将尚未准备好回收的电动汽车电池重新用途,转化为可为AI数据中心和大型工业站点供电的微电网。
这个名为Redwood Energy的新业务随着数据中心需求激增而起步。
"随着电力需求激增——由AI、数据中心、制造业和电气化推动——能源存储不再是可选项,而是必要的基础设施,"公司在宣布新融资的博客文章中表示。
Redwood似乎具备为至少部分数据中心供电的能力。该公司6月表示,它回收了北美超过70%的已使用或废弃电池组,其中许多可以作为能源存储获得第二次生命。
Redwood去年表示,其库存超过1吉瓦时,预计未来几个月将再收到4吉瓦时。该公司预计到2028年将部署20吉瓦时的电网级存储。
Q&A
Q1:Redwood Materials是一家什么样的公司?
A:Redwood Materials是由前特斯拉首席技术官JB Straubel于2017年创立的电池回收和阴极生产公司,专注于创建电池循环供应链,从电池生产废料和消费电子产品中提取镍、锂等材料。
Q2:为什么谷歌和英伟达要投资Redwood Materials?
A:主要因为该公司的能源存储业务能为AI数据中心供电。随着AI电力需求激增,Redwood能将电动汽车废旧电池转化为微电网,为数据中心和工业站点提供电力支持,这正是科技巨头们急需的基础设施。
Q3:Redwood Materials的能源存储能力有多强?
A:该公司回收了北美超过70%的已使用电池组,目前库存超过1吉瓦时,预计未来几个月将再收到4吉瓦时,计划到2028年部署20吉瓦时的电网级存储容量。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。