今天我亲手握住了世界上最大的计算机芯片。虽然它的体积令人印象深刻,但其速度更为惊人,也更为重要。大多数计算机芯片都很小,只有邮票大小甚至更小。相比之下, Cerebras WSE (Wafer Scale Engine) 是一个巨大正方形,每边长 8.5 英寸或 22 厘米,而最新型号在单个芯片上拥有惊人的 40 亿个晶体管。正是因为有了这数十亿个晶体管,WSE 才创造了 AI 推理操作的世界速度记录,比一个大体上性能相当的 NVIDIA 集群快约 2.5 倍。
“这是全球最快的推理速度,” Cerebras 首席信息安全官 Naor Penso 今天在温哥华 Web Summit 上对我说。 “上周 NVIDIA 宣布在 Llama 4 上实现了每秒 1,000 个 token 的速度,这令人印象深刻。而我们今天刚刚发布的基准测试达到了每秒 2,500 个 token。”
如果你对这些概念感到陌生,可以把“推理”理解为思考或行动:根据你的输入或提示构建句子、图像或视频。把“token”看作思维的基本单元:一个单词、一个字符或一个符号。
AI 引擎每秒能处理的 token 越多,它返回结果的速度也就越快。而速度至关重要。也许对你个人来说意义不大,但当企业客户希望在购物车中加入 AI 引擎,以便即时告诉你只需再加一种配料就能做出完美的韩式烧烤牛肉塔可时,他们必须能够为成千上万的人迅速提供服务。
有趣的是,速度即将变得更加关键。
我们正迈入一个代理时代,届时 AI 将能为我们执行复杂的多步骤任务,例如规划并预订去奥斯汀观看一级方程式比赛的周末旅行。代理并非魔法:他们对待大任务的方式和你一样……一步一步来。也就是说,需要将一个庞大的任务分解为 40、50 或甚至 100 个子任务,这就意味着工作量会大幅增加。
“AI 代理需要处理更多的工作,而且各个任务之间需要相互通信,” Penso 告诉我。 “你不能忍受推理速度缓慢。”
WSE 上的 40 亿个晶体管正是实现这种高速性能的关键部分。作为对比,英特尔 Core i9 拥有 33.5 亿个晶体管,而 Apple M2 Max 芯片也仅提供 67 亿个晶体管。但构建出高速计算怪兽的关键不仅仅在于晶体管数量,更在于系统的协同布局:将所有组件整合在同一芯片上,同时配备 44GB 的最快型 RAM(内存)。
“AI 计算需要大量的内存,” Penso 说。 “NVIDIA 需要外部存储,而使用 Cerebras 你不需要外部存储。”
独立机构 Artificial Analysis 验证了这一速度数据,他们称在 Llama 4 上测试该芯片时达到了每秒 2,522 个 token,而 NVIDIA Blackwell 的速度只有每秒 1,038 个 token。
“我们测试了数十家供应商,而 Cerebras 是唯一在 Meta 旗舰模型推理中表现优于 Blackwell 的解决方案,” Artificial Analysis 首席执行官 Micah Hill-Smith 表示。
WSE 芯片展示了计算机芯片设计的一次有趣演进。
自 1950 年代开始制造集成电路和 1960 年代开始制造微处理器以来,CPU 曾长期主导着计算领域。直到最近,GPU(图形处理单元)才从图形和游戏领域的辅助工具转变为 AI 开发中关键的处理组件。Cerebras 首席营销官 Julie Shin 告诉我,WSE 并非采用 x86 或 ARM 架构,而是一种全新架构,用于加速 GPU 计算。
“这不是一项渐进式技术,” 她补充道。 “这是芯片领域的又一次跨越性飞跃。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。