随着大规模AI部署需求激增,芯片创业公司Positron正将自己定位为市场领导者英伟达的直接挑战者,通过提供专用的节能内存优化推理芯片,旨在缓解行业日益严重的成本、功耗和可用性瓶颈。
Positron联合创始人兼首席技术官Thomas Sohmers在接受VentureBeat视频采访时表示:"我们的关键差异化优势是能够以更高效率运行前沿AI模型——与英伟达相比,每瓦特和每美元可实现2倍到5倍的性能提升。"
Positron首席执行官、前AI云推理提供商Lambda首席运营官Mitesh Agrawal指出:"我们制造的芯片可以部署在数百个现有数据中心,因为它们不需要液体冷却或极端功率密度。"
风险投资家和早期用户似乎对此表示认同。Positron昨日宣布完成超募的5160万美元A轮融资,由Valor Equity Partners、Atreides Management和DFJ Growth领投。
在早期客户群体中,包括知名企业和推理密集型行业的公司。已确认的部署包括主要安全和云内容网络提供商Cloudflare,该公司在其全球分布式、功耗受限的数据中心使用Positron的Atlas硬件。
进入充满挑战的市场
然而,Positron也正进入一个充满挑战的市场。据报道,竞争对手AI推理芯片创业公司Groq已将其2025年收入预测从20亿美元以上下调至5亿美元,凸显了AI硬件领域的波动性。
面对更高效、更小的大语言模型和专用小语言模型的兴起,Positron的领导层选择拥抱这一趋势。Agrawal表示:"一直存在这种双重性——本地设备上的轻量级应用和集中式基础设施中的重量级处理。我们相信两者都会持续增长。"
Atlas:推理优先的AI芯片
虽然英伟达GPU通过加速模型训练帮助催生了深度学习热潮,但Positron认为推理——模型在生产中生成输出的阶段——现在是真正的瓶颈。
Positron的解决方案是Atlas,这是专门为处理大型Transformer模型而构建的第一代推理加速器。与通用GPU不同,Atlas针对现代推理任务的独特内存和吞吐量需求进行了优化。
该公司声称,Atlas的每美元性能比英伟达H100高出3.5倍,功耗降低66%,同时实现93%的内存带宽利用率。
从Atlas到Titan
仅在成立15个月后,Atlas就已开始出货和投产。该系统支持在单个2kW服务器中运行多达5000亿参数的模型。
Positron正准备在2026年推出下一代平台Titan。基于定制设计的"Asimov"硅芯片,Titan将提供每个加速器高达2TB的高速内存,支持多达16万亿参数的模型。
关键是,Titan设计为在传统数据中心环境中使用标准风冷运行,避免了下一代GPU日益需要的高密度液冷配置。
工程效率与兼容性
从一开始,Positron就将其系统设计为即插即用替代方案,允许客户使用现有模型二进制文件而无需重写代码。Sohmers解释说,Positron专注于推理,设计能够直接处理英伟达训练模型的硬件。
内存是关键需求
Sohmers和Agrawal指出AI工作负载的根本转变:从计算密集型卷积神经网络转向内存密集型Transformer架构。虽然英伟达和其他公司继续专注于计算扩展,但Positron押注于内存优先设计。
美国制造的芯片
Positron的生产管道完全在美国本土。公司第一代芯片使用英特尔设施在美国制造,最终服务器组装和集成也在国内完成。对于Asimov芯片,制造将转向台积电,但团队致力于尽可能保持其余生产链在美国。
未来展望
Agrawal强调,基于经济性和性能销售物理基础设施——而不是将其与专有API或商业模式捆绑——是Positron在怀疑论市场中获得信誉的部分原因。他表示:"如果你无法基于硬件的经济性说服客户部署你的硬件,你就不会盈利。"
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。