英特尔与SambaNova正在推出一种新型异构推理架构,旨在解决企业AI领域日益突出的痛点:如何在不过度依赖GPU的情况下,大规模运行智能体工作负载。
该架构将推理过程分为三个层次——GPU负责预填充(prefill),SambaNova的可重构数据流单元(RDU)负责解码,英特尔Xeon 6 CPU则负责智能体任务的执行与调度。这一设计折射出业界正在从单一GPU系统向多元化方向转变的大趋势。
推动这一变革的背景是:企业在实际运营中面临推理成本攀升、功耗受限以及GPU利用率不足等问题,迫使各方重新审视以GPU为核心的系统架构设计。
该方案预计于2026年下半年正式上线,目标客户为正在构建编程智能体及其他多步骤系统的企业、云服务商以及主权AI部署方。
瓶颈从训练转向执行
这一方案的核心逻辑并非取代GPU,而是正视GPU的不足之处。GPU在并行处理提示词方面依然表现出色,但智能体AI引入了一类工作负载——其均一性较差,更依赖系统协调、工具调用和实时决策。
SambaNova首席执行官Rodrigo Liang在官方声明中表示:"智能体AI正在走向生产部署,我们观察到的制胜模式是:由GPU启动任务,由英特尔Xeon 6运行任务,再由SambaNova RDU快速完成任务。"
编程智能体是一个典型案例。它们需要持续编译和执行代码、调用API、查询数据库并协调工作流,这些步骤对CPU和内存带宽的依赖程度极高,使CPU在推理流程中扮演着举足轻重的角色。
SambaNova产品副总裁Anton McGonnell表示:"GPU非常擅长对输入处理进行矩阵运算的并行化,但在解码方面表现欠佳,尤其是在对延迟敏感的工作负载场景下。"
行业分析师普遍认同这一转变正在发生,但尚未形成定论。
Moor Insights & Strategy首席执行官兼首席分析师Patrick Moorhead表示:"我们已经到了异构计算势在必行的阶段。我们需要提升效率,因此要让合适的计算资源承担合适的任务,无论是训练、预填充、解码,还是智能体调度。"
这一转变标志着基础设施建设重心正从以训练为中心,转向针对延迟、调度与成本优化的推理系统。
三层推理流水线
该架构将推理过程划分为不同阶段,由各类处理器分别承担工作流的不同部分。GPU处理提示词并生成键值缓存,RDU在解码阶段负责Token生成,CPU则负责智能体任务的调度与执行。
其核心论点简单明了:没有任何一种处理器能在所有阶段都达到最优性能,在推理过程日趋交互化和有状态化的背景下尤为如此。
英特尔数据中心XPU产品与解决方案副总裁兼总经理Jeff McVeigh表示:"最关键的是确保用户所购置的资产都能得到充分利用。"
这一表述将讨论焦点从峰值性能转向系统效率——让推理的每个阶段都保持满负荷运转,而非将压力集中在单一处理器上。
SambaNova的RDU被定位为解码阶段的核心组件,该阶段的Token生成速度与效率直接决定了延迟表现和运营成本。
英特尔方面则着力强调生态系统的既有优势。英特尔数据中心事业部执行副总裁兼总经理Kevork Kechichian表示:"数据中心软件生态系统是建立在x86架构之上的。"他将Xeon定位为企业部署的稳定基石。
效率提升伴随复杂度增加
两家公司并未声称在性能上全面超越纯GPU系统,其卖点在于效率——更高的利用率、更低的单位工作负载成本以及更均衡的系统架构。
McVeigh表示:"一刀切的方案显然行不通,工作流的每个阶段都需要针对性的优化。"
Moorhead认为,这套方案的代价是系统复杂度的提升,但换来了更高的效率。他表示:"关键是要建立一个跨工作负载的简化软件层,以降低整体复杂度。"
软件层是整个方案的枢纽。若缺乏有效的软件层,将工作负载分布在GPU、RDU和CPU之间,反而可能引入额外的运维开销,从而抵消效率提升所带来的收益。
SambaNova援引内部基准测试数据称,Xeon 6在编译时间和向量数据库性能方面均有所提升,但上述数据系基于公司内部测试,尚未经过第三方独立验证。
未来看点
异构推理并非新鲜事物。超大规模云服务商早已将工作负载分布于CPU、GPU和定制加速器之上。英特尔与SambaNova此举的真正意义,在于将这一模式打包成可供企业客户复用的标准化方案。
目前悬而未决的问题集中在落地执行层面:RDU需要在成本与生态系统成熟度上证明自身竞争力,企业客户也必须看到切实可量化的效率提升。此外,软件层必须让整套系统真正易用,而不只是技术上可行。
鉴于正式发布时间定于2026年下半年,这是英特尔与SambaNova对智能体AI工作负载未来演进方向所做的一次前瞻性押注。
Q&A
Q1:异构推理架构的三层流水线是如何分工的?
A:该架构将推理过程分为三个层次:GPU负责处理提示词并生成键值缓存(预填充阶段),SambaNova的RDU负责解码阶段的Token生成,英特尔Xeon 6 CPU则负责智能体任务的调度与执行。三类处理器各司其职,核心逻辑是没有任何一种处理器能在所有阶段都达到最优性能,通过分工协作提升整体系统效率。
Q2:为什么GPU不适合处理智能体AI的全部工作负载?
A:GPU擅长对输入处理进行矩阵运算的并行化,但在解码阶段表现欠佳,尤其面对延迟敏感的工作负载时更为明显。智能体AI需要持续协调、工具调用和实时决策,这类任务对CPU和内存带宽的依赖程度更高。以编程智能体为例,其编译代码、调用API、查询数据库等操作都严重依赖CPU,单靠GPU难以高效应对。
Q3:英特尔与SambaNova的异构推理方案何时可以使用?
A:该方案预计于2026年下半年正式上线,目标客户包括企业、云服务商以及主权AI部署方,尤其面向正在构建编程智能体及其他多步骤系统的用户。目前,SambaNova援引的内部基准测试数据尚未经过第三方独立验证,RDU的成本竞争力与生态系统成熟度也有待进一步验证。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。