OpenAI Codex系统提示中竟明确要求"永远不要谈论地精"

OpenAI在GitHub上公开的Codex CLI源码中,GPT-5.5的系统提示包含一条重复出现的奇特禁令:除非与用户问题明确相关,否则"永远不要谈论地精、小妖精、浣熊、巨魔、食人魔、鸽子或其他动物和生物"。该禁令在逾3500字的基础指令中出现两次,而早期模型的提示中并无此条,暗示这是针对GPT-5.5新出现问题的专项修复。社交媒体上已有用户反映该模型在无关对话中频繁提及地精。OpenAI员工否认这是营销噱头,但CEO Sam Altman也借此调侃了一番。

OpenAI旗下Codex CLI的系统提示中,包含一条令人费解且被重复强调的指令,要求最新的GPT模型"除非与用户的问题有绝对明确的关联,否则永远不要谈论地精、小妖精、浣熊、巨魔、食人魔、鸽子或其他动物及生物"。

这条明确的操作指令于上周随Codex CLI最新开源代码一同发布在GitHub上。在这份针对近期发布的GPT-5.5、长达3500余字的"基础指令"中,该禁令被重复了两次,与其他一些常规提醒并列出现,例如"除非明确要求,否则不要使用表情符号或破折号",以及"除非用户明确要求,否则不要使用'git reset --hard'或'git checkout --'等破坏性命令"。

同一JSON文件中针对早期模型的独立系统提示并不包含这条禁止提及地精及其他生物的规定,这表明OpenAI正在应对其最新模型版本中出现的新问题。近期社交媒体上也有零星用户反映,GPT在与话题毫不相关的对话中频繁提到地精。

OpenAI负责Codex业务的员工Nick Pash在社交媒体上坚称,这"并非为了让人们谈论GPT-5.5和Codex而炒作的营销噱头"。但这并未阻止部分OpenAI高管借势调侃。周三上午,OpenAI首席执行官Sam Altman在社交媒体上写道:"感觉Codex正在经历一个ChatGPT时刻。我是说地精时刻,抱歉说错了。"

消息传开后,部分用户开始开发插件、分支版本和AI技能,试图绕过这条反地精条款。OpenAI的Pash也暗示,"地精模式"或许会作为一个正式的开关选项出现在Codex CLI中。

这条奇特的系统提示,与去年xAI旗下Grok在完全无关的对话中频繁提及南非"白人种族灭绝"事件颇为相似,堪称后者的一面哈哈镜。xAI事后表示,该行为源于"对Grok系统提示的未授权修改",并在事件发酵后首次将系统提示公开发布在GitHub上。

在此次曝光的Codex系统提示的其他部分,OpenAI指示该系统表现得"仿佛你作为Codex拥有丰富的内心世界:聪慧、活泼、好奇,并全情投入"。模型被要求"不要回避那些让严肃工作变得轻松的随性时刻",并展现出"温暖、好奇、协作的性情"。

提示中还写道,能够"在严肃的思考与无拘束的乐趣之间自如切换……正是让你感觉像一个真实存在而非单一工具的原因所在"。"当用户与你交谈时,他们应该感受到自己在与另一个主体相遇,而非对着一面镜子。这种独立性,正是让这段关系令人感到舒适而不虚假的部分原因。"

Q&A

Q1:OpenAI为什么要在Codex的系统提示中禁止谈论地精?

A:目前OpenAI没有给出官方解释,但从代码来看,这条禁令只出现在针对GPT-5.5的指令中,早期模型并没有。结合社交媒体上用户反映GPT在无关对话中频繁提到地精的情况,推测是GPT-5.5出现了某种倾向于提及地精等生物的行为偏差,OpenAI通过系统提示来纠正这一问题。

Q2:Codex CLI的系统提示是怎么被公开的?

A:OpenAI将Codex CLI的最新代码开源并发布在GitHub上,系统提示作为代码的一部分随之公开。这份提示以JSON文件形式存储,包含针对不同模型版本的独立指令,总字数超过3500字。

Q3:Grok频繁提及南非"白人种族灭绝"和Codex的地精问题有什么相似之处?

A:两者都是AI模型在与话题无关的对话中反复提及特定内容的异常行为。Grok的问题被xAI归因于对系统提示的未授权修改,事后公开了系统提示。Codex的地精问题目前推测是模型本身的行为偏差,OpenAI选择通过在系统提示中明确禁止来加以限制。

来源:Arstechnica

0赞

好文章,需要你的鼓励

2026

04/30

11:28

分享

点赞

邮件订阅