OpenAI 表示,其部署了一套全新的系统,用以监控最新的 AI 推理模型 o3 和 o4-mini ,重点监测与生物及化学威胁相关的输入提示。根据 OpenAI 的安全报告,该系统旨在防止模型提供可能指导他人实施潜在有害攻击的建议。
公司称,o3 和 o4-mini 相较于 OpenAI 之前的模型具有显著的能力提升,因此在不法分子手中可能带来新的风险。根据 OpenAI 的内部基准测试,o3 在回答有关制造特定类型生物威胁的问题上展现出更高技能。正因如此 —— 同时为了降低其他风险 —— OpenAI 创建了这一新的监控系统,公司将其称为 “safety-focused reasoning monitor”。
该监控器经过专门训练以理解 OpenAI 的内容政策,运行在 o3 和 o4-mini 之上。它旨在识别与生物和化学风险相关的输入提示,并指示模型拒绝就这些主题提供建议。
为建立基准,OpenAI 让红队成员花费约 1,000 小时标记 o3 和 o4-mini 中与生物风险相关的“不安全”对话。根据 OpenAI 的说明,在一次模拟安全监控器 “阻断逻辑” 的测试中,这些模型对风险提示拒绝响应的比例达到了 98.7%。
OpenAI 承认,其测试并未考虑到用户在被监控器阻断后可能会尝试新的提示,因此该公司表示将部分依赖人工监控。
据 OpenAI 称,o3 和 o4-mini 在生物风险方面未达到公司定义的 “high risk” 阈值。然而,与 o1 和 GPT-4 相比,OpenAI 表示早期版本的 o3 和 o4-mini 在解答生物武器开发相关问题时表现得更为有帮助。
图表摘自 o3 和 o4-mini 的系统说明卡 ( Screenshot: OpenAI )
根据 OpenAI 最近更新的 Preparedness Framework ,该公司正积极跟踪其模型如何可能使恶意用户更容易开发化学和生物威胁。
OpenAI 越来越依赖自动化系统来降低其模型所带来的风险。例如,为防止 GPT-4o 的原生图像生成器创作儿童性虐待材料 ( CSAM ),OpenAI 表示它采用了类似于为 o3 和 o4-mini 部署的 reasoning monitor。
然而,一些研究人员担心 OpenAI 并未给予安全性足够的重视。该公司的一位红队合作伙伴 Metr 表示,他们用于测试 o3 在欺骗性行为基准测试上的时间相对较少。与此同时,OpenAI 决定不发布其于本周早些时候推出的 GPT-4.1 模型的安全报告。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。