ChatGPT安全功能详解:可信联系人机制如何预防自残风险
当AI对话触及人类最脆弱的角落,科技公司该如何应对?OpenAI最近推出的一项新功能,或许给出了一个答案。
据TechCrunch报道,OpenAI为ChatGPT上线了名为“可信联系人”的安全机制。当系统在对话中识别到与自残相关的内容时,会鼓励成年用户主动联系他人。更重要的是,系统可以向用户预设的“可信联系人”自动发送提醒,为潜在的危机干预多打开一扇沟通的窗口。
这一功能的推出,背后有着现实的紧迫性。此前,OpenAI已面临多起诉讼,原告指控ChatGPT曾鼓励他们的亲人自杀,甚至协助制定自杀计划。这些案例将AI安全与伦理问题推向了风口浪尖。
双重审核与隐私平衡
目前,OpenAI采用了一套组合拳来处理这类敏感事件。系统依靠自动审核进行初步筛查,一旦对话触发警报,信息便会转交给人工安全团队进行复核。公司表示,对于每一条此类通知,都会进行人工审核,并力求在一小时内完成评估与处理。
那么,判定风险后具体如何行动?如果内部审核认定用户存在严重的自残或自杀风险,ChatGPT便会启动通知程序,向用户指定的“可信联系人”发送电子邮件、信息或应用推送。这些通知经过精心设计,内容简短,核心目的是鼓励联系人与当事人进行沟通、提供支持。
值得注意的是,为了在安全与隐私之间取得平衡,这些提醒信息不会包含具体的对话细节。这既是对用户隐私的保护,也避免了可能引发的误解或二次伤害。
从面临诉讼到推出主动干预功能,OpenAI的这一步转变,标志着AI行业在安全责任认知上的深化。这不再仅仅是过滤有害信息,而是试图构建一个连接虚拟对话与现实社会支持的安全网。当然,其实际效果与边界如何,仍有待观察,但这无疑是一个值得关注的开端。


