中国搜索巨头百度本周发布了两款全新AI加速器,这是在国家推动摆脱对西方芯片依赖背景下的重要举措。
百度是生成式AI技术的早期采用者,开发了文心等大语言模型系列。与亚马逊和谷歌等西方云服务提供商一样,百度多年来一直在设计定制加速器。
据《南华早报》报道,这家搜索提供商的最新一代芯片旨在降低推理成本并支持更大、更复杂的架构。
公司计划明年发布新的推理优化芯片M100。该芯片由其昆仑芯片业务部门开发,旨在更好地服务下一代专家混合模型。正如我们最近探讨的,专家混合架构在大规模推理方面面临特殊挑战,特别是当模型规模超出单个加速器或服务器时。在许多情况下,互连带宽和延迟成为瓶颈,影响性能。
百度似乎通过构建更大的计算域来规避这一特定问题,这与AMD和英伟达在其机架级架构方面的做法相似。百度计划从2026年初开始以名为天池256的集群配置提供这些芯片。顾名思义,该配置将配备256个M100加速器。
据报道,百度将在2026年底推出天池512,将系统扩展到更大的计算域,使系统的推理能力翻倍。
除了推理服务,百度还在开发一款更强大的训练优化芯片M300,将于2027年首次亮相。该芯片旨在支持多万亿参数模型的训练,这类模型在过去一年中变得越来越普遍,月之暗面的Kimi K2就是一个例子。
除了新的硅芯片,百度还宣布了文心5.0,这是其最新的基础模型,能够处理文本、图像、音频和视频。
百度的最新硬件凸显了中国在战略上从英伟达加速器转向的趋势。据报道,北京官员向科技巨头施压,要求其放弃西方供应商,转而支持国内替代方案。
上周,英伟达首席执行官黄仁勋承认,在中国销售其Blackwell加速器的努力已经停滞,目前没有"积极的讨论"。
这种巨大变化推动了华为和其他中国芯片制造商(包括壁仞、寒武纪科技和燧原科技)将国产GPU推向市场的努力。
今年早些时候,我们研究了华为新的CloudMatrix 384机架设备。虽然在效率上远不及英伟达的Blackwell系列,但它们通过纯粹的规模来弥补这一点。
Q&A
Q1:百度M100芯片有什么特点?什么时候发布?
A:M100是百度计划明年发布的新一代推理优化芯片,由昆仑芯片业务部门开发,专门用于更好地服务下一代专家混合模型,旨在降低推理成本并支持更复杂的架构。
Q2:天池256和天池512系统有什么区别?
A:天池256将从2026年初开始提供,配备256个M100加速器。天池512将在2026年底推出,是更大的计算域配置,推理能力是天池256的两倍。
Q3:百度为什么要开发自己的AI芯片?
A:这是响应中国国家推动摆脱对西方芯片依赖的战略需求。北京官员向科技企业施压,要求放弃西方供应商转而支持国内替代方案,英伟达在中国的销售也已停滞。
好文章,需要你的鼓励
Anthropic发布SCONE-bench智能合约漏洞利用基准测试,评估AI代理发现和利用区块链智能合约缺陷的能力。研究显示Claude Opus 4.5等模型可从漏洞中获得460万美元收益。测试2849个合约仅需3476美元成本,发现两个零日漏洞并创造3694美元利润。研究表明AI代理利用安全漏洞的能力快速提升,每1.3个月翻倍增长,强调需要主动采用AI防御技术应对AI攻击威胁。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Spotify年度总结功能回归,在去年AI播客功能遭遇批评后,今年重新专注于用户数据深度分析。新版本引入近十项新功能,包括首个实时多人互动体验"Wrapped Party",最多可邀请9位好友比较听歌数据。此外还新增热门歌曲播放次数显示、互动歌曲测验、听歌年龄分析和听歌俱乐部等功能,让年度总结更具互动性和个性化体验。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。