OpenAI与亚马逊云服务(AWS)签署合作协议,向美国政府销售AI产品,用于机密和非机密工作。
AWS已向TechCrunch确认了这项协议。《The Information》首先报道了这一消息。
这项合作协议是在OpenAI与五角大楼签署协议之后达成的,该协议允许军方在其机密网络中使用OpenAI的AI模型。这一胜利是在Anthropic与国防部发生冲突期间取得的。此后,国防部将Anthropic列为供应链风险,因为该公司拒绝让步,不允许其技术用于对美国人进行大规模监控以及驱动完全自主武器。作为回应,Anthropic已对五角大楼提起诉讼。
OpenAI与AWS的协议意味着这家AI巨头正在踏入Anthropic的主场。亚马逊已向Anthropic投资至少40亿美元,因此Anthropic使用AWS作为其主要云服务提供商。Claude模型已集成到Amazon Bedrock中,这是AWS面向企业和政府客户的AI平台,Claude是AWS GovCloud中为公共部门使用而深度集成的前沿模型之一。
这项合作不仅帮助OpenAI通过其新合同支持五角大楼,还通过AWS现有的云基础设施定位为多个政府机构提供服务,从而扩大了这家AI公司的联邦业务覆盖范围。AWS发言人告诉TechCrunch,作为美国政府机构的主要云服务提供商,AWS已同意在其公共部门客户群中分发OpenAI产品。据OpenAI发言人表示,这包括在政府云环境中的Amazon Bedrock,如AWS GovCloud和用于机密和绝密工作负载的AWS分类区域。
OpenAI发言人告诉TechCrunch,虽然其模型将通过AWS提供,但它将通过决定哪些模型可用来保持对其技术的控制。AWS在启用特别敏感的政府机构(包括情报客户)之前也必须提前通知。OpenAI将直接与客户协调部署条款、安全要求和操作条件,并可以要求对特定部署采取额外的保障措施。
这项协议可能会带来更多企业合同,因为企业通常将政府合同视为信任和可靠性的印证。
本文已更新,包含来自OpenAI和AWS的评论和更多信息。
Q&A
Q1:OpenAI与AWS的合作协议具体内容是什么?
A:OpenAI与亚马逊云服务签署协议,通过AWS向美国政府销售AI产品,用于机密和非机密工作。AWS将在其公共部门客户群中分发OpenAI产品,包括在AWS GovCloud和分类区域中的Amazon Bedrock平台。
Q2:OpenAI如何保持对其技术的控制权?
A:虽然模型通过AWS提供,但OpenAI保留决定哪些模型可用的权利。AWS在启用特别敏感的政府机构前须提前通知,OpenAI将直接与客户协调部署条款、安全要求和操作条件,并可要求额外保障措施。
Q3:这项合作对OpenAI有什么战略意义?
A:这项合作帮助OpenAI支持五角大楼新合同,扩大联邦业务覆盖范围,通过AWS现有云基础设施为多个政府机构提供服务。同时,政府合同通常被企业视为信任和可靠性的印证,可能带来更多企业合同。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。