中国搜索巨头百度本周发布了两款全新AI加速器,这是在国家推动摆脱对西方芯片依赖背景下的重要举措。
百度是生成式AI技术的早期采用者,开发了文心等大语言模型系列。与亚马逊和谷歌等西方云服务提供商一样,百度多年来一直在设计定制加速器。
据《南华早报》报道,这家搜索提供商的最新一代芯片旨在降低推理成本并支持更大、更复杂的架构。
公司计划明年发布新的推理优化芯片M100。该芯片由其昆仑芯片业务部门开发,旨在更好地服务下一代专家混合模型。正如我们最近探讨的,专家混合架构在大规模推理方面面临特殊挑战,特别是当模型规模超出单个加速器或服务器时。在许多情况下,互连带宽和延迟成为瓶颈,影响性能。
百度似乎通过构建更大的计算域来规避这一特定问题,这与AMD和英伟达在其机架级架构方面的做法相似。百度计划从2026年初开始以名为天池256的集群配置提供这些芯片。顾名思义,该配置将配备256个M100加速器。
据报道,百度将在2026年底推出天池512,将系统扩展到更大的计算域,使系统的推理能力翻倍。
除了推理服务,百度还在开发一款更强大的训练优化芯片M300,将于2027年首次亮相。该芯片旨在支持多万亿参数模型的训练,这类模型在过去一年中变得越来越普遍,月之暗面的Kimi K2就是一个例子。
除了新的硅芯片,百度还宣布了文心5.0,这是其最新的基础模型,能够处理文本、图像、音频和视频。
百度的最新硬件凸显了中国在战略上从英伟达加速器转向的趋势。据报道,北京官员向科技巨头施压,要求其放弃西方供应商,转而支持国内替代方案。
上周,英伟达首席执行官黄仁勋承认,在中国销售其Blackwell加速器的努力已经停滞,目前没有"积极的讨论"。
这种巨大变化推动了华为和其他中国芯片制造商(包括壁仞、寒武纪科技和燧原科技)将国产GPU推向市场的努力。
今年早些时候,我们研究了华为新的CloudMatrix 384机架设备。虽然在效率上远不及英伟达的Blackwell系列,但它们通过纯粹的规模来弥补这一点。
Q&A
Q1:百度M100芯片有什么特点?什么时候发布?
A:M100是百度计划明年发布的新一代推理优化芯片,由昆仑芯片业务部门开发,专门用于更好地服务下一代专家混合模型,旨在降低推理成本并支持更复杂的架构。
Q2:天池256和天池512系统有什么区别?
A:天池256将从2026年初开始提供,配备256个M100加速器。天池512将在2026年底推出,是更大的计算域配置,推理能力是天池256的两倍。
Q3:百度为什么要开发自己的AI芯片?
A:这是响应中国国家推动摆脱对西方芯片依赖的战略需求。北京官员向科技企业施压,要求放弃西方供应商转而支持国内替代方案,英伟达在中国的销售也已停滞。
好文章,需要你的鼓励
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
南洋理工大学研究团队开发出Puffin统一模型,首次将AI的图像理解和生成能力融合。通过创新的"用相机思考"方法,将相机参数转换为摄影术语,让AI像摄影师一样理解空间关系。基于400万样本数据集训练,模型在相机角度理解和可控图像生成上均超越专业化模型,并支持空间想象、摄影指导等多元应用,为空间智能AI发展开辟新路径。
AI代码编辑器开发商Cursor完成23亿美元D轮融资,估值达293亿美元。Accel和Coatue领投,Google、Nvidia等参与。公司年化收入已突破10亿美元。Cursor基于微软开源VS Code打造,集成大语言模型帮助开发者编写代码和修复漏洞。其自研Composer模型采用专家混合算法,运行速度比同等质量模型快四倍。公司拥有数百万开发者用户,将用新资金推进AI研究。
KAIST研究团队开发出MPO多模态提示优化框架,首次实现同时优化文字和视觉提示,让AI能够像人类一样接收多种信息类型。该技术在10个数据集上平均性能提升6.8%,同时节省42%评估成本,为医疗影像、自动驾驶、药物研发等领域提供了新的AI交互方式,标志着从纯文字交流向多模态交流的重大突破。