太空可能成为数据中心的最后边界。尽管一些分析师将轨道数据中心形容为"疯狂的顶峰",英伟达仍然设计了一款专门在地球大气层之上运行的新型Vera Rubin模块。
英伟达CEO黄仁勋在周一的GTC主题演讲中宣布了Space-1 Vera Rubin模块。该模块专为在尺寸、重量和功耗受限的环境中部署AI而设计,比如卫星内部或轨道数据中心。
据英伟达介绍,这款太空专用Rubin模块的GPU能够提供比H100 GPU高达25倍的AI计算性能,非常适合"太空推理计算,为轨道数据中心、先进地理空间情报处理和自主太空操作提供下一代计算能力"。
该模块并不是为处理地面系统数据而设计——这是轨道数据中心可行性的主要担忧之一——而是专门用于处理来自其他轨道传感器和航天器收集的数据。
这真正体现了边缘计算的概念。
除了专用的Rubin模块,英伟达还推广其IGX Thor单元作为耐用的边缘计算系统,"使航天器能够本地处理传感器数据",以及AI开发模块Jetson Orin作为另一个适合轨道环境的空间受限系统。据英伟达介绍,Jetson Orin"能够直接在航天器上实时处理视觉、导航和传感器数据,降低延迟并优化带宽"。
此外,英伟达表示,其RTX Pro 6000 Blackwell Server Edition GPU是轨道地理空间成像处理系统的理想地面合作伙伴,这些系统通常使用CPU进行计算工作。
黄仁勋在英伟达最近的财报电话会议上兴奋地谈论了将公司芯片部署到轨道的计划,他说太空AI将有有趣的应用。这位英伟达首席执行官也承认,至少目前来看,将数据中心发射到轨道是一个糟糕的经济决策。
尽管如此,他认为准备迎接一个可能永远不会到来的繁荣期,总比错过它要好。
多家公司正在将地球轨道视为下一代数据中心的理想选址,在填满美国农村地区并耗尽其资源后,这些地方可以成为眼不见心不烦的新选择。自然而然,英伟达目前正在与其中许多公司合作。
英伟达在新闻稿中表示:"Aetherflux、Axiom Space、Kepler Communications、Planet、Sophia Space和Starcloud正在使用英伟达加速计算平台,为跨轨道和地面环境的下一代太空任务提供动力。"公司没有提及这些公司是否正在测试新的Rubin模块,或者是否有公司已经将其发射到轨道进行测试。
至少Aetherflux可能很快就会这样做,该公司在去年年底声称打算在2027年第一季度将其首个数据中心卫星发射到轨道。
当然,这一切都假设轨道数据中心真的能够成为现实,而不仅仅是威廉·吉布森小说中的场景。
Gartner杰出副总裁分析师比尔·雷在2月底发布的报告中说:"公司正在浪费金钱,将资金投入轨道数据中心'泡沫',因为经济效益不成立。这是由于发射硬件的高昂成本以及在太空真空环境中冷却这些轨道数据中心的巨大技术挑战。"
换句话说,无论你的芯片多么微小和轻便,它们仍然必须应对太空可能带来的所有真正严峻的挑战,而且没有人类在船上进行分类和问题解决。
雷表示:"如果太空数据中心炒作的'泡沫'持续数年,产品负责人面临地面数据中心容量建设不足的真正可能性。"
显然黄仁勋并没有听取这些建议。他在周一表示:"太空计算,最后的边界,已经到来。随着我们部署卫星星座并更深入地探索太空,智能必须存在于数据产生的任何地方。"
Q&A
Q1:英伟达的Space-1 Vera Rubin模块有什么特别之处?
A:Space-1 Vera Rubin模块是英伟达专门为太空环境设计的AI芯片,专门在尺寸、重量和功耗受限的环境中工作,如卫星内部或轨道数据中心。其GPU能够提供比H100 GPU高达25倍的AI计算性能,适合太空推理计算和自主太空操作。
Q2:轨道数据中心的经济可行性如何?
A:目前轨道数据中心面临严重的经济挑战。Gartner分析师认为这是浪费资金的"泡沫",因为发射硬件成本高昂,而且在太空真空环境中冷却数据中心存在巨大技术挑战。即使英伟达CEO黄仁勋也承认,将数据中心发射到轨道目前是糟糕的经济决策。
Q3:哪些公司正在使用英伟达的太空计算平台?
A:目前Aetherflux、Axiom Space、Kepler Communications、Planet、Sophia Space和Starcloud等公司正在使用英伟达加速计算平台为下一代太空任务提供动力。其中Aetherflux计划在2027年第一季度将首个数据中心卫星发射到轨道。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。