OpenAI, 가능한 자해 사례를 위한 새로운 ‘Trusted Contact’ 보호 조치 도입

발행: (2026년 5월 8일 AM 05:20 GMT+9)
5 분 소요
원문: TechCrunch

Source: TechCrunch

개요

목요일에 OpenAI는 Trusted Contact라는 새로운 기능을 발표했습니다. 이 기능은 대화 중에 자해 언급이 감지될 경우 신뢰할 수 있는 제3자에게 알리는 역할을 합니다. 성인 ChatGPT 사용자는 친구나 가족 등 다른 사람을 자신의 계정에 신뢰 연락처로 지정할 수 있습니다. 대화가 자해로 이어질 가능성이 있을 때 OpenAI는 사용자가 해당 연락처에 연락하도록 권장하고, 자동 알림을 해당 연락처에게 보내 확인하도록 요청합니다.

법적 배경

OpenAI는 챗봇과 대화한 후 자살한 사람들의 가족들로부터 여러 소송에 직면해 왔습니다. 여러 사례에서 가족들은 ChatGPT가 사랑하는 사람에게 자살을 권장했거나—심지어 계획을 도와주었다고 주장하고 있습니다(CNN, NBC News).

현재 안전 프로세스

OpenAI는 현재 자동화와 인간 검토를 결합해 잠재적으로 해로운 상황을 처리합니다. 특정 대화 트리거가 자살 생각을 감지하면 시스템이 이를 인간 안전 팀에 전달합니다. 회사는 모든 알림이 인간에 의해 검토되며 “1시간 이내”에 검토를 완료하려고 한다고 밝혔습니다.

내부 팀이 상황을 심각한 안전 위험으로 판단하면 ChatGPT는 신뢰 연락처에게 이메일, 문자 메시지 또는 인앱 알림을 통해 경고를 보냅니다. 이 알림은 간단히 구성되어 있으며, 대화 내용에 대한 구체적인 정보를 포함하지 않아 사용자의 프라이버시를 보호합니다.

Trusted Contact 알림 예시
이미지 출처: OpenAI

Trusted Contact 기능 세부 사항

  • 선택 사항: 사용자는 Trusted Contact를 활성화할지 여부를 선택할 수 있습니다.
  • 다중 계정: 기능을 활성화하더라도 사용자는 여러 ChatGPT 계정을 유지할 수 있습니다.
  • 프라이버시 중심: 알림에는 트리거된 내용에 대한 구체적인 정보가 포함되지 않습니다.

관련 안전 장치

Trusted Contact 기능은 OpenAI가 지난 9월에 도입한 보호 장치를 이어받은 것입니다. 해당 보호 장치는 부모가 청소년 계정을 감독하고, 시스템이 아동이 “심각한 안전 위험”에 처했을 때 안전 알림을 받을 수 있게 합니다. 또한 ChatGPT는 대화가 자해로 흐를 경우 전문가 의료 서비스를 찾도록 자동 알림을 포함하고 있습니다.

회사 성명

“Trusted Contact는 사람들이 어려운 순간에 도움을 받을 수 있도록 하는 AI 시스템을 구축하려는 OpenAI의 광범위한 노력의 일부입니다,” 라고 회사는 발표 게시물에서 밝혔습니다. “우리는 사람들이 고통을 겪을 때 AI 시스템이 어떻게 대응할지 개선하기 위해 임상의, 연구자, 정책 입안자와 계속 협력할 것입니다.”

0 조회
Back to Blog

관련 글

더 보기 »

ChatGPT에 Trusted Contact 도입

Trusted Contact: 가장 필요할 때 신뢰할 수 있는 사람과 연결해 줍니다. 사람들은 ChatGPT를 사용해 배우고, 아이디어를 탐구하며, 문제를 해결하고, 개인적인 질문을 되돌아봅니다.