OpenAI已为ChatGPT推出一项新的安全功能。当系统识别到用户可能出现心理健康或人身安全危机时,平台可通知其预先设置的紧急联系人。
据科技媒体The Verge当地时间7日报道,该功能目前面向成年用户开放。用户可在账户设置中添加家人、朋友等其他成年人的联系方式,并自行决定是否启用这一功能。
这一功能并非默认开启,需由用户手动设置。用户在ChatGPT账户中录入紧急联系人的信息后,还需完成功能开启流程。以韩国为例,只有年满19岁的人士才能被设为紧急联系人;被添加的一方在收到邀请后,需在一周内完成确认。此后,用户可随时在设置中修改或删除联系人,对方也可以解除关联。
OpenAI表示,推出这项功能的目的,是在用户处于危机状态时,帮助其与现实中信任的人取得联系。公司称,“紧急联系人”基于一个简单前提:当一个人身处危机时,联系上值得信任的人,往往就可能带来实质性的改变。除现有的地区求助热线信息外,这项功能也为用户增加了一层额外支持。
在具体机制上,通知不会包含对话内容或完整聊天记录。当OpenAI的自动化系统识别到用户在对话中可能出现自伤、自杀等风险信号时,ChatGPT会先建议用户主动向紧急联系人求助,并提示平台可能向该联系人发送提醒。
在正式发出提醒前,OpenAI还会引入人工复核流程。一个接受过专项培训的小型团队将对相关情况进行审核;如判断对话存在严重安全风险,平台才会通过简短邮件、短信或应用内通知,向紧急联系人发送提醒。
OpenAI强调,这一功能不会以完全自动化方式运行。无论是联系人设置还是功能启用,都需要用户事先主动完成;而在实际通知发出前,平台还会进行人工审核。换言之,该机制在扩大安全干预范围的同时,也对信息共享的边界作出了限制。
公司同时指出,被设为紧急联系人的对象并非专业咨询师或危机干预人员,其主要作用是与用户取得联系、确认当前状态,并在必要时帮助其进一步寻求支持,例如联系家人朋友、心理健康专业人士、求助热线或紧急服务。
从更大的背景看,平台行业也在推进类似措施。随着相关动作增多,生成式AI服务和社交媒体平台如何识别心理健康与安全风险信号,以及平台介入的边界和运营标准,预计将持续受到关注。
这项新功能也反映出ChatGPT在心理健康危机场景下安全策略的调整方向:平台不再局限于维持对话本身,而是尝试推动用户与现实中的支持网络建立联系。OpenAI表示,过去一段时间,公司持续改进对敏感对话中自伤、自杀风险信号的识别能力,并优化将用户引导至现实支持体系的方式。