英伟达CEO:更先进AI模型将推动芯片与数据中心持续增长

英伟达CEO黄仁勋在公司财报电话会议上表示,未来十年将看到显著增长机遇,预计AI基础设施支出到本世纪末可达3-4万亿美元。他指出,采用"推理"技术的新AI模型需要传统大语言模型100倍以上的计算能力,这种"长思考"模式能产生更好答案。随着代理系统和机器人模型的发展,对芯片、能源和数据中心的需求持续上升。

AI泡沫?什么AI泡沫?如果你问英伟达CEO黄仁勋,我们正处在一场"新工业革命"中。

黄仁勋的公司生产芯片和计算机硬件,是AI淘金热中的"锄头和铲子",通过抓住AI增长机遇成为了全球最大的企业。在周三的财报电话会议上,他的公司报告了上季度467亿美元的营收,并表示生成式AI行业的惊人增长没有放缓迹象。

"我认为未来几年,肯定会贯穿整个十年,我们看到了非常重大的增长机会,"黄仁勋说道。

这与OpenAI CEO山姆·奥特曼最近的评论形成对比,后者认为投资者现在对AI"过度兴奋"。(奥特曼也承认他仍然相信AI是"很长时间以来发生的最重要的事情"。)

黄仁勋表示,他的公司对运行AI的芯片和计算机需求有"非常、非常重要的预测",表明对更多数据中心的需求不会很快停止。他推测,到本十年末,AI基础设施支出可能达到3万亿到4万亿美元。(美国的国内生产总值约为30万亿美元。)

这意味着需要大量数据中心,它们占用大量土地,消耗大量水和能源。这些AI工厂近年来变得越来越大,对周围社区产生重大影响,并对美国电网造成更大压力。需要更多能源的不同生成式AI工具的增长可能会使这种需求更加巨大。

更强大且要求更高的模型

聊天机器人上的一个提示不再总是意味着只是一个提示。计算能力需求增加的一个原因是,采用"推理"技术的新AI模型在处理一个问题时使用更多电力。"这被称为长思考,思考得越久,通常产生更好的答案,"黄仁勋说。

这种技术允许AI模型在不同网站上进行研究,多次尝试问题以获得更好答案,并将不同信息整合到一个回应中。

一些AI公司将推理作为单独模型提供,或作为标记为"深度思考"之类的选择。OpenAI将其直接整合到GPT-5发布中,通过路由程序决定是由更轻量、直接的模型处理,还是由更密集的推理模型处理。

但黄仁勋表示,推理模型可能需要比传统大语言模型回应多100倍或更多的计算能力。这些模型,连同能够执行任务的智能体系统和能够处理可视化并在物理世界中操作的机器人模型,使得对芯片、能源和数据中心土地的需求持续上升。

"每一代,需求只会增长,"黄仁勋说道。

Q&A

Q1:英伟达CEO黄仁勋对AI行业未来发展有什么看法?

A:黄仁勋认为我们正处在一场"新工业革命"中,预测未来几年乃至整个十年都会有重大增长机会。他推测到本十年末,AI基础设施支出可能达到3万亿到4万亿美元,表明生成式AI行业的增长没有放缓迹象。

Q2:AI推理模型与传统大语言模型在计算需求上有什么区别?

A:AI推理模型采用"长思考"技术,能够在不同网站研究、多次尝试问题并整合信息。但这种推理模型可能需要比传统大语言模型多100倍或更多的计算能力,大大增加了对芯片和数据中心的需求。

Q3:AI数据中心快速增长会带来哪些影响?

A:AI数据中心占用大量土地,消耗大量水和能源,对周围社区产生重大影响,并对美国电网造成更大压力。随着需要更多能源的生成式AI工具增长,这种需求可能会变得更加巨大。

来源:cnet

0赞

好文章,需要你的鼓励

2025

08/28

11:28

分享

点赞

邮件订阅