据The Information周二晚间报道,OpenAI Group PBC正在洽谈从亚马逊公司获得至少100亿美元的融资。
这家零售和云计算巨头在投资大语言模型初创公司方面并不陌生。它是OpenAI最大竞争对手Anthropic PBC的最大支持者。几周前,亚马逊云科技(AWS)开设了一个耗资110亿美元的数据中心园区,专门用于运行Anthropic的工作负载。
该园区预计到今年年底将部署超过100万颗AWS定制的Trainium2人工智能芯片。据CNBC报道,如果双方正在讨论的这轮融资得以实现,OpenAI也将采用该云服务商的处理器。报道没有明确说明ChatGPT开发商可能使用哪些具体芯片。
AWS在本月早些时候的年度re:Invent大会上推出了其最新的定制AI芯片Trainium3。该芯片包含采用3纳米工艺制造的8个核心。每个核心包含32 MiB的板载SRAM内存,用于存储AI模型的数据。将数据保持在处理数据的晶体管附近,可以减少信息在内存和逻辑电路之间传输的距离,从而加快计算速度。
Trainium3的8个核心各配备4个不同的计算模块。其中有一个所谓的GPSIMD引擎,用于管理板载SRAM内存并执行某些其他任务。两个模块经过优化可同时处理多个数据点,而第四个模块则一次对一条数据执行计算。
AWS将Trainium3芯片部署在名为Amazon EC2 Trn3 UltraServer的机器中。每个系统内的芯片通过名为NeuronSwitch-v1的定制网络设备交换数据,AWS表示该设备提供的带宽是上一代硬件的两倍。AWS可以将数千台Trn3 UltraServer连接在一起,创建一个包含多达100万颗Trainium3芯片的集群。
如果融资完成,OpenAI可能不仅会采用这家云计算巨头当前一代的定制芯片,还会采用未来的芯片。AWS在本月初推出Trainium3时,还预览了该处理器的计划继任者。Trainium4预计将为处理以FP4格式存储的数据的AI工作负载提供至少6倍的性能提升。
本周的报道没有明确说明亚马逊可能以何种估值投资OpenAI。这家ChatGPT开发商在最近一次二级市场交易后获得了5000亿美元的估值。来自亚马逊的投资可能会增加这一数字,因为自二级市场交易以来,OpenAI的收入可能已经增长。据CNBC报道,仅在6月至8月期间,该公司就增加了200万付费ChatGPT用户。
Q&A
Q1:亚马逊计划向OpenAI投资多少资金?
A:据The Information报道,亚马逊正在洽谈向OpenAI投资至少100亿美元。这将是亚马逊在大语言模型领域的又一重大投资,此前该公司已经是OpenAI最大竞争对手Anthropic的最大支持者。
Q2:如果融资成功OpenAI会使用哪些亚马逊的技术?
A:如果融资成功,OpenAI将采用亚马逊云科技的定制AI处理器,包括当前的Trainium3芯片和未来的Trainium4芯片。Trainium3采用3纳米工艺,包含8个核心,每个核心配备32 MiB的板载SRAM内存。Trainium4预计将为AI工作负载提供至少6倍的性能提升。
Q3:OpenAI目前的估值和用户增长情况如何?
A:OpenAI在最近一次二级市场交易后获得了5000亿美元的估值。在用户增长方面,据CNBC报道,该公司仅在2024年6月至8月期间就增加了200万付费ChatGPT用户,显示出强劲的增长势头。
好文章,需要你的鼓励
据报道,OpenAI正与亚马逊洽谈至少100亿美元的融资。亚马逊此前已是Anthropic的最大投资者,并为其建设了110亿美元的数据中心园区。若融资达成,OpenAI将采用AWS的Trainium系列AI芯片。Trainium3采用三纳米工艺,配备八核心和32MB SRAM内存。AWS可将数千台服务器连接成拥有百万芯片的集群。报道未透露具体估值,但OpenAI最近一次二次出售估值已达5000亿美元。
伊斯法罕大学研究团队通过分析Google Play商店21款AI教育应用的用户评论,发现作业辅导类应用获得超80%正面评价,而语言学习和管理系统类应用表现较差。用户赞赏AI工具的快速响应和个性化指导,但抱怨收费过高、准确性不稳定等问题。研究建议开发者关注自适应个性化,政策制定者建立相关规范,未来发展方向为混合AI-人类模型。
各行业企业存储的数据量持续攀升,5PB以上已成常态,10PB以上也日益普遍。2026年非结构化数据管理的主题是全面增长:更多数据、更多投资、更多痛点以及更多AI安全风险。AI应用加速普及、数字化信息激增以及富媒体和传感器数据大幅增加推动了数据增长。随着AI推理应用的发展,企业将意识到非结构化数据管理对AI投资回报率的关键作用。
这项由伊利诺伊大学香槟分校等四所院校联合完成的研究,提出了名为DaSH的层次化数据选择方法。该方法突破了传统数据选择只关注单个样本的局限,通过建模数据的天然层次结构,实现了更智能高效的数据集选择。在两个公开基准测试中,DaSH相比现有方法提升了高达26.2%的准确率,同时大幅减少了所需的探索步数。