在更新 Preparedness Framework ( OpenAI 用于决定 AI 模型是否安全以及在开发和发布过程中需要采取何种安全措施的内部框架)时,OpenAI 表示,如果竞争对手的 AI 实验室推出没有相应安全措施的“高风险”系统,其可能会“调整”自身的安全要求。
这一变化反映了商业 AI 开发者在竞争压力日益加剧的环境下,加速部署模型的趋势。OpenAI 曾被指责为为了更快推出产品而降低安全标准,并未能及时提供详细说明其安全测试的报告。上周,有 12 位前 OpenAI 员工在 Elon Musk 针对 OpenAI 提起的诉讼中提交了一份简报,主张如果 OpenAI 完成其计划中的公司重组,该公司可能会因此进一步削减安全措施的要求。
或许早有预料,OpenAI 声称不会轻易做出这些政策调整,并且会将其安全措施保持在“更高保护水平”。
OpenAI 在周二下午发布的一篇博客文章中写道:“如果另一家前沿 AI 开发者推出了没有相应安全措施的高风险系统,我们可能会调整我们的要求。然而,我们首先会严格确认风险形势确实发生了变化,公开承认我们正在做出调整,对该调整评估是否不会显著增加整体的严重伤害风险,并且仍将安全措施保持在更高的保护水平。”
更新后的 Preparedness Framework 同时明确表示,OpenAI 正在更大程度上依赖自动化评估来加速产品开发。公司表示,虽然并未完全放弃由人工主导的测试,但已构建出“一系列不断扩展的自动化评估工具”,据称这些工具可以“跟上更快的发布节奏”。
一些报道对此提出了异议。据《金融时报》报道,OpenAI 为即将推出的一款重大全新模型的安全检查给予测试人员不足一周的时间——相比之前的版本时间更为紧张。该刊物的消息来源还称,OpenAI 的许多安全测试现在是在公开发布版本之前的早期模型上进行的。
对于 OpenAI 是否在安全问题上做出妥协的说法,该公司在声明中进行了驳斥。
OpenAI 正悄然降低其安全承诺。 —— Steven Adler (@sjgadler) 2025 年 4 月 15 日
OpenAI Framework 的其他变更涉及到公司如何根据风险对模型进行分类,包括那些能够隐藏其能力、逃避安全措施、阻止系统关闭甚至实现自我复制的模型。OpenAI 表示,现在将重点关注模型是否达到以下两个阈值之一:“高”能力或“关键”能力。
根据 OpenAI 的定义,前者指的是能够“放大现有导致严重伤害途径”的模型;后者则指那些“引入前所未有、导致严重伤害的新途径”的模型。
OpenAI 在其博客文章中写道:“达到高能力标准的系统在部署前必须具备能够充分最小化相关严重伤害风险的安全措施;达到关键能力标准的系统在开发过程中也需要具备能够充分最小化相关风险的安全措施。”
这是 OpenAI 自 2023 年以来首次对 Preparedness Framework 进行更新。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。