4月9日,英特尔公司与Google今日宣布一项为期多年的合作,双方将共同推进下一代AI和云基础设施的发展,从而进一步强化CPU和IPU在扩展现代异构AI系统中的关键作用。
随着AI应用的加速普及,基础设施正变得日益复杂且异构化,这促使业界更加依赖CPU来承担编排调度、数据处理及系统级性能优化等任务。本次合作,英特尔和Google将围绕多代英特尔® 至强® 处理器展开协同优化,以提升Google全球基础设施的性能、能效和总体拥有成本。
AI并非仅靠加速器,而是运行在完整的系统之上,CPU正是这些系统的核心。
Google Cloud将继续部署英特尔® 至强® 处理器在跨工作负载优化中,其中包括采用最新英特尔® 至强® 6处理器的C4和N4实例。这些平台支持广泛的工作负载——从大规模AI训练的协调,到对延迟敏感的推理,再到通用计算。
与此同时,英特尔和Google正进一步联合开发基于定制ASIC的IPU。这些可编程加速器可将网络、存储和安全功能从主机CPU工作负载中转移,从而提高利用率和效率,并改善超大规模AI环境中性能表现的可预测性。
IPU是现代数据中心架构的关键组成部分。通过接管传统上由CPU处理的基础设施任务,IPU有助于释放更多算力资源,并使云服务提供商能够更高效地进行扩展,而无需增加整体系统复杂性。英特尔至强CPU与IPU共同构成一个紧密集成的平台,平衡了通用计算与专门的基础设施加速能力,从而提供更高效、更灵活且可扩展性更强的AI系统。
推动性能与效率大规模提升
英特尔首席执行官陈立武表示:“AI正在重塑基础设施的构建和扩展方式。实现AI的规模化部署,不仅需要加速器,还需要均衡的系统。CPU与IPU正是满足现代AI工作负载对性能、效率与灵活性需求的关键所在。”
Google高级副总裁兼AI基础设施首席技术官Amin Vahdat表示:“从训练编排到推理和部署,CPU和基础设施加速始终是AI系统的基石。英特尔作为我们近二十年来信赖的合作伙伴,其至强产品路线图让我们有信心能够持续满足工作负载在性能与效率方面日益增长的需求。”
为下一波AI浪潮奠定基础
此次扩展的合作体现了双方共同推动AI时代开放、可扩展基础设施发展的共同承诺。通过将通用计算与专用基础设施加速相结合,英特尔和Google正在促成更均衡的AI系统设计——在提升利用率、降低复杂度的同时,实现更高效的可扩展性。
双方将共同为下一代AI驱动的云服务夯实基础,持续助力全球企业、开发者和用户实现创新突破。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。