技术供应商大批涌入本周在加利福尼亚州圣何塞举行的Nvidia GTC大会,突显了与这家芯片制造商不断深化的合作伙伴关系,并承诺帮助企业扩展AI应用。据一位分析师称,大会最终主要展示了Nvidia的基础性主导地位,同时留下了关于AI投资回报的未答问题。
Nvidia联合创始人兼首席执行官黄仁勋在周一的主题演讲中表示,全球科技行业可能100%都在这次大会上有所体现。大会由约450家公司赞助,覆盖了黄仁勋所描述的AI的每一层——电力、基础设施、芯片、平台、模型和应用。
黄仁勋表示,应用程序将推动行业向前发展。然而,Nvidia站在AI中心,为应用背后的基础设施提供动力,公司目前预计到2027年芯片收入将达到1万亿美元。
市场研究公司Deep Analysis创始人Alan Pelz-Sharpe在发给CIO Dive的邮件中说:"Nvidia在这里的重要性非常直接。他们是整个AI淘金热的工具商。"
微软、谷歌、AWS、甲骨文、惠普企业和戴尔科技等公司本周宣布与Nvidia扩大合作伙伴关系,以加速AI采用。例如,AWS表示计划从今年开始部署超过100万个Nvidia GPU,而Google Cloud与Nvidia的合作催生了共同设计的AI优化基础设施即服务基础。
Pelz-Sharpe表示,虽然主要企业供应商宣传扩大对Nvidia基础设施的访问,但这使得基础设施层面缺乏有意义的差异化。"他们都依赖相同的稀缺硬件,"他说。
"我们本周看到的实际上不是一系列开创性的合作伙伴关系,"他补充道。"这是一次依赖性的展示之旅。"
Pelz-Sharpe表示,企业AI投资的回报仍然难以捉摸,Nvidia GTC发布的公告关于培养"投资回报的潜力",而不是展示更强的计算能力如何解决商业问题。
"炒作假设如果你建立了基础设施,价值就会到来,"这是一个危险的假设,Pelz-Sharpe说。"投资回报不会来自基础设施本身,而是来自将AI ruthlessly应用于特定的高成本业务流程——这些公告很少涉及这一点。"
尽管如此,供应商并没有忽视投资回报问题。戴尔宣布其与Nvidia的AI Factory取得进展,表示该技术的早期采用者在采用第一年就看到了高达2.6倍的投资回报,包括生产力提升。
就Nvidia而言,发布了涵盖AI堆栈各层的大量产品,包括扩展其开放模型系列,如用于智能体系统的Nemotron和用于物理AI的Cosmos。
Forrester副总裁兼首席分析师Charlie Dai在发给CIO Dive的邮件中表示,GTC主题演讲一致认为物理AI——使自动驾驶汽车、摄像头和机器人成为可能的技术——正在从试点转向早期规模化。但对于大多数企业来说,物理AI仍然是一个"中期价值故事",他说。
Dai表示:"虽然制造业、物流和医疗保健领域的早期采用者已经看到了生产力和安全收益,但广泛的企业影响取决于克服集成复杂性、安全验证和成本障碍。"
Dai表示,Nvidia的开放模型扩展体现了"开源AI作为企业AI采用催化剂"的观点。企业依赖AI基础设施和智能体工作流程中的开放模型和框架,"同时将它们与商业产品配对以管理风险和规模",他补充道。
Dai说:"Nvidia将开放模型定位为智能体AI和物理AI的战略推动者,强化了开放性不仅仅关于成本节约,更多的是关于互操作性、可观察性和长期控制,因为AI系统变得更加自主、分布式和运营关键。"
Q&A
Q1:Nvidia GTC大会展示了什么样的行业趋势?
A: Nvidia GTC大会展示了全球科技行业对Nvidia芯片的深度依赖。约450家公司赞助大会,微软、谷歌、AWS、甲骨文等主要厂商都宣布扩大与Nvidia的合作,但这种普遍依赖同样的稀缺硬件资源,导致基础设施层面缺乏有意义的差异化。
Q2:企业AI投资回报目前面临什么挑战?
A: 企业AI投资的回报仍然难以捉摸。分析师指出,目前的公告更多关注"投资回报的潜力"而非实际解决商业问题。真正的投资回报不会来自基础设施本身,而是需要将AI ruthlessly应用于特定的高成本业务流程,这恰恰是当前公告很少涉及的方面。
Q3:物理AI技术的发展现状如何?
A: 物理AI技术正在从试点阶段转向早期规模化,涉及自动驾驶汽车、摄像头和机器人等领域。制造业、物流和医疗保健的早期采用者已经看到生产力和安全收益,但对大多数企业而言仍是中期价值故事,需要克服集成复杂性、安全验证和成本障碍。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。