OpenAI旗下的顶级模型现已正式上线亚马逊云科技(AWS)的Bedrock托管推理与智能体平台。
这项合作于周二在旧金山举办的AWS活动上正式宣布。对于企业用户而言,这意味着他们可以通过一条全新的渠道访问OpenAI不断扩充的大语言模型库,同时无需将数据直接暴露给OpenAI的API接口。
亚马逊方面指出,大量企业客户希望借助OpenAI的模型构建智能体及其他AI增强工具,但长期以来受制于安全策略、数据隐私及数据主权等方面的顾虑,迟迟无法推进。
通过向亚马逊这一受信任的第三方开放模型接入,OpenAI得以有效规避上述诸多顾虑。与此同时,将模型引入AWS平台也降低了客户的使用门槛,因为亚马逊已提前完成了将旗下服务与Bedrock对接的大量基础工作。
除托管推理服务外,OpenAI的模型还将同步上线亚马逊的Bedrock托管智能体平台及AgentCore平台。这两个平台为企业构建智能体提供了工具和蓝图,并支持将智能体与企业数据及业务系统相连接。在同一场活动上,AWS还为自身终端客户推出了一系列全新的智能体AI工具,包括类似微软Copilot的个人化助手"Quick"——但其设计目标是支持多家供应商的应用程序。此外,AWS还发布了多项"Connect"服务的升级版本。Connect最初是亚马逊的托管CRM产品,此次扩展后将帮助客户在人力资源、医疗健康及供应链管理等领域实现任务自动化。
此外,企业还将能够把OpenAI的Codex代码智能体接入运行在AWS数据中心的模型,从而在一定程度上确保其代码库不会流入OpenAI的下一代模型训练数据中。
目前,OpenAI模型在AWS上的访问仍处于有限预览阶段。据AWS首席执行官马特·加尔曼(Matt Garman)在旧金山活动上表示,OpenAI次新款的GPT-5.4模型现已可用,更新版本的GPT-5.5预计将在未来数周内上线。
此次公告兑现了OpenAI今年2月的承诺——彼时OpenAI同意将其模型引入AWS,以换取最高达350亿美元的新融资。不过,若要获得全部融资,OpenAI还需启用亚马逊高达2吉瓦算力的Trainium加速芯片。
此次合作的实现,在相当程度上也得益于微软的主动开放姿态。微软同意重新调整与OpenAI的合作关系,以换取解除原有的收益分成义务。
根据新条款,微软仍是OpenAI的主要云服务提供商,并保留对其技术的访问权限。而OpenAI则获得了更大的自由度,可以与亚马逊或其他任何合作伙伴展开合作。
这意味着OpenAI与亚马逊的此次合作或许并非个例,而是未来更多基础设施与服务合作的样板。
Q&A
Q1:OpenAI模型在AWS Bedrock上提供哪些具体服务?
A:OpenAI模型在AWS Bedrock上提供托管推理服务,同时也上线了Bedrock托管智能体平台及AgentCore平台。企业可借助这些平台构建智能体、连接企业数据和业务系统。目前处于有限预览阶段,GPT-5.4已可使用,GPT-5.5预计数周内上线。
Q2:企业为什么不直接用OpenAI的API,而要通过AWS访问?
A:主要原因是安全策略、数据隐私和数据主权方面的顾虑。通过AWS Bedrock访问OpenAI模型,数据无需直接暴露给OpenAI的API,同时也能享受AWS已有的合规与安全体系,大幅降低企业的采用门槛。
Q3:微软与OpenAI的合作关系在此次调整后发生了哪些变化?
A:根据新条款,微软仍是OpenAI的主要云服务提供商,并保留对OpenAI技术的访问权限。作为交换,微软放弃了原有的收益分成权利。OpenAI则获得自由,可与亚马逊等其他合作伙伴展开合作,此次AWS合作或成为未来更多类似合作的参考模板。
好文章,需要你的鼓励
无人机食品配送服务商Flytrex与全球知名披萨连锁品牌Little Caesars宣布合作,推出全新Sky2无人机,最大载重达4公斤,可一次配送两个大披萨及饮料,满足全家用餐需求。Sky2支持最远6.4公里的配送范围,平均从起飞到送达仅需4.5分钟。首个试点门店已在德克萨斯州怀利市上线,并实现与Little Caesars订单系统的直接集成。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
法国社会住房项目ViliaSprint?已正式完工,成为欧洲最大的3D打印多户住宅建筑,共12套公寓,建筑面积800平方米。项目由PERI 3D Construction使用COBOD BOD2打印机完成,整体工期较传统建造缩短3个月,实际打印仅用34天(原计划50天),现场操作人员从6人减至3人,建筑废料率从10%降至5%。建筑采用可打印混凝土,集成光伏板及热泵系统,能源自给率约达60%。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。