ChatGPT推出"信任联系人"功能,当用户出现安全隐患时将自动通知其亲友

OpenAI为ChatGPT推出可选安全功能"信任联系人",允许成年用户指定紧急联系人。当系统检测到用户可能讨论自残或自杀等话题时,将通知其指定的家人或朋友。该功能完全自愿开启,通知内容不包含聊天记录。经专业团队审核确认存在严重安全隐患后,才会向联系人发送提醒。此前OpenAI已为青少年用户提供类似的家长监控功能。

OpenAI正在为ChatGPT推出一项可选安全功能,允许成年用户为心理健康与人身安全问题指定紧急联系人。当OpenAI检测到某用户可能在与聊天机器人交流时涉及自我伤害或自杀等话题时,被指定为"信任联系人"的朋友、家人或照护者将收到相应通知。

OpenAI在公告中表示:"'信任联系人'功能的设计基于一个简单且经专家验证的理念:当某人可能正处于危机之中时,与其信任的人建立联系,往往能带来实质性的帮助。该功能在ChatGPT现有本地化求助热线的基础上,提供了额外一层支持。"

信任联系人功能为选择性启用。任何成年ChatGPT用户均可在账户设置中添加联系人信息(被添加方须为全球范围内18岁以上或韩国19岁以上的成年人)来开启此功能。被指定的信任联系人须在收到邀请后一周内确认接受。用户可随时在设置中移除或更换所选联系人,信任联系人本身也可随时选择退出。

OpenAI表示,系统发出的通知"有意作了限制处理",不会向信任联系人透露任何聊天内容或对话记录。若OpenAI的自动化系统检测到用户正在谈论伤害自身的内容,ChatGPT会鼓励用户主动联系其信任联系人寻求帮助,并告知用户该联系人可能会收到通知。随后,据OpenAI介绍,一支"经过专项培训的小规模团队"将对相关情况进行人工审核,若对话内容被判定为存在严重安全隐患,ChatGPT将以简短的电子邮件、短信或应用内通知的形式告知信任联系人。

此次新功能是对去年9月随ChatGPT家长控制功能同步推出的紧急联系人机制的进一步扩展。此前,一名16岁少年在与ChatGPT倾诉数月后不幸离世,此事件直接推动了上述功能的落地。Meta公司也推出了类似机制,当未成年用户在Instagram上"反复"搜索自我伤害相关内容时,系统会自动向其家长发出提醒。

Q&A

Q1:ChatGPT的"信任联系人"功能是如何运作的?

A:用户在ChatGPT账户设置中添加一位成年人作为信任联系人,对方需在一周内接受邀请。当OpenAI的自动系统检测到用户可能谈及自我伤害或自杀等话题时,系统会先鼓励用户主动联系该联系人,并告知其可能会收到通知。随后经专项团队人工审核,若情况属实,系统将通过邮件、短信或应用内通知告知信任联系人,但不会透露任何具体对话内容。

Q2:信任联系人功能会泄露用户的聊天记录吗?

A:不会。OpenAI明确表示,发送给信任联系人的通知"有意作了限制处理",不会包含任何聊天内容或对话记录。联系人收到的仅是一条简短提醒,告知其所关心的用户可能存在安全隐患,具体对话内容受到保护,不会对外披露。

Q3:信任联系人功能的使用有哪些条件限制?

A:该功能仅面向成年ChatGPT用户开放,用户和被指定的信任联系人均须年满18岁(韩国用户须年满19岁)。功能为自愿选用,用户可随时在设置中添加、更换或移除联系人,信任联系人也可自主选择退出,双方均不存在强制约束。

来源:The Verge

0赞

好文章,需要你的鼓励

2026

05/13

17:25

分享

点赞

邮件订阅