中国搜索巨头百度本周发布了两款全新AI加速器,这是在国家推动摆脱对西方芯片依赖背景下的重要举措。
百度是生成式AI技术的早期采用者,开发了文心等大语言模型系列。与亚马逊和谷歌等西方云服务提供商一样,百度多年来一直在设计定制加速器。
据《南华早报》报道,这家搜索提供商的最新一代芯片旨在降低推理成本并支持更大、更复杂的架构。
公司计划明年发布新的推理优化芯片M100。该芯片由其昆仑芯片业务部门开发,旨在更好地服务下一代专家混合模型。正如我们最近探讨的,专家混合架构在大规模推理方面面临特殊挑战,特别是当模型规模超出单个加速器或服务器时。在许多情况下,互连带宽和延迟成为瓶颈,影响性能。
百度似乎通过构建更大的计算域来规避这一特定问题,这与AMD和英伟达在其机架级架构方面的做法相似。百度计划从2026年初开始以名为天池256的集群配置提供这些芯片。顾名思义,该配置将配备256个M100加速器。
据报道,百度将在2026年底推出天池512,将系统扩展到更大的计算域,使系统的推理能力翻倍。
除了推理服务,百度还在开发一款更强大的训练优化芯片M300,将于2027年首次亮相。该芯片旨在支持多万亿参数模型的训练,这类模型在过去一年中变得越来越普遍,月之暗面的Kimi K2就是一个例子。
除了新的硅芯片,百度还宣布了文心5.0,这是其最新的基础模型,能够处理文本、图像、音频和视频。
百度的最新硬件凸显了中国在战略上从英伟达加速器转向的趋势。据报道,北京官员向科技巨头施压,要求其放弃西方供应商,转而支持国内替代方案。
上周,英伟达首席执行官黄仁勋承认,在中国销售其Blackwell加速器的努力已经停滞,目前没有"积极的讨论"。
这种巨大变化推动了华为和其他中国芯片制造商(包括壁仞、寒武纪科技和燧原科技)将国产GPU推向市场的努力。
今年早些时候,我们研究了华为新的CloudMatrix 384机架设备。虽然在效率上远不及英伟达的Blackwell系列,但它们通过纯粹的规模来弥补这一点。
Q&A
Q1:百度M100芯片有什么特点?什么时候发布?
A:M100是百度计划明年发布的新一代推理优化芯片,由昆仑芯片业务部门开发,专门用于更好地服务下一代专家混合模型,旨在降低推理成本并支持更复杂的架构。
Q2:天池256和天池512系统有什么区别?
A:天池256将从2026年初开始提供,配备256个M100加速器。天池512将在2026年底推出,是更大的计算域配置,推理能力是天池256的两倍。
Q3:百度为什么要开发自己的AI芯片?
A:这是响应中国国家推动摆脱对西方芯片依赖的战略需求。北京官员向科技企业施压,要求放弃西方供应商转而支持国内替代方案,英伟达在中国的销售也已停滞。
好文章,需要你的鼓励
OpenAI、Anthropic和Google的AI代码助手现在能够在人工监督下连续工作数小时,编写完整应用、运行测试并修复错误。但这些工具并非万能,可能会让软件项目变得复杂。AI代码助手的核心是大语言模型,通过多个LLM协作完成任务。由于存在上下文限制和"注意力预算"问题,系统采用上下文压缩和多代理架构来应对。使用时需要良好的软件开发实践,避免"氛围编程",确保代码质量和安全性。研究显示经验丰富的开发者使用AI工具可能反而效率降低。
这项研究由北京交通大学研究团队完成,系统阐述了人工智能智能体从"流水线"范式向"模型原生"范式的转变。研究表明,通过强化学习,AI可以自主学会规划、使用工具和管理记忆等核心能力,而不再依赖外部脚本。论文详细分析了这一范式转变如何重塑深度研究助手和GUI智能体等实际应用,并探讨了未来多智能体协作和自我反思等新兴能力的发展方向。
英伟达与AI芯片竞争对手Groq达成非独家授权协议,将聘请Groq创始人乔纳森·罗斯、总裁桑尼·马德拉等员工。据CNBC报道,英伟达以200亿美元收购Groq资产,但英伟达澄清这并非公司收购。Groq开发的LPU语言处理单元声称运行大语言模型速度快10倍,能耗仅为十分之一。该公司今年9月融资7.5亿美元,估值69亿美元,为超200万开发者的AI应用提供支持。
Prime Intellect团队发布开源AI训练全栈INTELLECT-3,这个106亿参数模型在数学、编程等测试中超越多个大型前沿模型。团队完全开源了包括prime-rl训练框架、环境库、代码执行系统在内的完整基础设施,为AI研究社区提供了高质量的训练工具,推动AI技术民主化发展。