Broadcom公司股价今日上涨超过9%,此前该公司宣布与OpenAI达成为期四年的基础设施合作伙伴关系。
该合作计划将在未来四年内部署价值10吉瓦的数据中心硬件。据OpenAI透露,这些基础设施将由与Broadcom共同开发的定制人工智能处理器提供支持。在今日发布的播客中,OpenAI总裁Greg Brockman表示,该AI提供商使用自己的神经网络来设计芯片。
"我们已经能够大幅缩减面积,"Brockman详细解释道。"你可以拿到人类已经优化过的组件,然后投入大量计算资源,模型就会提出自己的优化方案。"
现成的显卡面向广泛的客户群体,这意味着对某些用户重要的模块对其他用户来说可能并不必要。构建定制处理器可以移除不需要的模块,从而节省功耗和空间。这些节省的功耗和空间可以重新分配给为公司工作负载优化的电路。
OpenAI计划将其定制处理器部署在同样基于内部设计的机架中。这些系统将配备来自Broadcom的PCIe和以太网网络设备。PCIe主要用于连接内部服务器组件,而以太网则用于服务器之间的连接。
Broadcom在上周三推出了新的AI优化以太网交换机TH6-Davisson。该设备每秒可处理102.4太比特的流量,该公司表示这是最接近竞争对手吞吐量的两倍。TH6-Davisson用于通过网络传输数据的激光发射器采用现场可更换设计,旨在简化维护工作。
通常情况下,以太网交换机与称为可插拔收发器的设备一起部署。这些设备负责将电子数据转换为可通过光纤网络传输的光信号,反之亦然。TH6-Davisson配备内置收发器,无需外部光学模块,从而降低成本。
OpenAI没有明确说明将在合作中使用Broadcom的哪些PCIe产品。这家芯片制造商销售名为PEX系列的PCIe交换机产品线。它还生产重定时器,这是一种防止数据在PCIe链路传输过程中出现错误的模块。
"OpenAI和Broadcom在过去18个月里一直在合作,"OpenAI首席执行官Sam Altman在今日的播客中表示。"通过能够在整个技术栈中进行优化,我们可以获得巨大的效率提升,这将带来更好的性能、更快的模型和更便宜的模型。"
OpenAI和Broadcom计划在2026年下半年部署通过合作开发的首批数据中心机架。据这家芯片制造商透露,其余系统将在2029年之前上线。这些设备预期的10吉瓦功耗相当于数百万家庭的能源使用量。
Broadcom和OpenAI没有透露该项目的预期价格。今年8月,英伟达公司首席执行官Jensen Huang表示,1吉瓦的AI数据中心容量成本为500亿至600亿美元。他补充说,这笔资金的大部分用于英伟达硬件,这表明Broadcom有望从与OpenAI的新合作中获得数十亿美元的收入。
Q&A
Q1:OpenAI与Broadcom的合作具体包括什么内容?
A:这是一个为期四年的基础设施合作伙伴关系,将部署价值10吉瓦的数据中心硬件,使用两家公司共同开发的定制人工智能处理器,并配备Broadcom的PCIe和以太网网络设备。首批数据中心机架计划在2026年下半年部署。
Q2:定制AI处理器相比现成显卡有什么优势?
A:定制处理器可以移除不需要的模块,节省功耗和空间,然后将这些资源重新分配给为公司特定工作负载优化的电路。OpenAI还使用自己的神经网络来设计芯片,实现了大幅的面积缩减和性能优化。
Q3:这个合作项目的规模有多大?
A:项目预期功耗为10吉瓦,相当于数百万家庭的能源使用量。根据英伟达CEO的估算,1吉瓦AI数据中心容量成本约500-600亿美元,这意味着整个项目价值可能达到数千亿美元规模。
好文章,需要你的鼓励
PDF协会在欧洲会议上宣布,将在PDF规范中添加对JPEG XL图像格式的支持。尽管Chromium团队此前将该格式标记为过时,但此次纳入可能为JXL带来主流应用机会。PDF协会CTO表示,选择JPEG XL作为支持HDR内容的首选解决方案。该格式具备广色域、超高分辨率和多通道支持等优势,但目前仍缺乏广泛的浏览器支持。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
Ironclad OS项目正在开发一个新的类Unix操作系统内核,面向小型嵌入式系统,计划支持实时功能。该项目的独特之处在于采用Ada编程语言及其可形式化验证的SPARK子集进行开发,而非常见的C、C++或Rust语言。项目还包含运行在Ironclad内核上的完整操作系统Gloire,使用GNU工具构建以提供传统Unix兼容性。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。