“민감 대화는 GPT-5로”… 오픈AI, 이용자 통제 기능 넣기로
||2025.09.03
||2025.09.03
챗GPT 개발사 오픈AI가 이용자 보호를 강화하기로 했다. 챗GPT가 일부 이용자의 자살을 부추기는 등 부작용이 발생한다고 판단한데 따른 것이다.
3일(현지시각) 오픈AI는 블로그를 통해 자살·정신적 위기와 같은 민감하거나 위험한 대화가 감지되면 자동으로 'GPT-5' 'o3' 등 추론 모델로 전환하는 기능을 도입하겠다고 했다.
이는 챗GPT 부작용으로 극단적인 선택을 한 사건 등 소송전에 대응하기 위한 조치로 풀이된다. 최근 미국 캘리포니아주에서는 16세 소년 아담 레인(Adam Raine)이 챗GPT로부터 배운 방법으로 극단적 선택을 했다. 이에 부모는 샘 올트먼 CEO를 상대로 손해배상 소송을 제기했다.
오픈AI는 대화 중 자동으로 GPT-5·o3 등 추론모델로 전환하는 '라우터 ' 기능을 해결책으로 제시했다.
오픈AI는“대화 맥락에 따라 효율적인 모델과 추론형 모델을 실시간으로 구분해 연결하는 라우터를 도입했다”며 “앞으로는 급성 위기 상황이 감지되면 GPT-5 등 더 깊이 사고하는 모델로 자동 연결할 계획”이라고 말했다.
GPT-5나 o3 같은 추론형 모델은 일반 대화 모델보다 악의적 프롬프트에 덜 취약하고 맥락을 더 길게 파악할 수 있다는 게 회사 측 설명이다.
또 부모 계정과 청소년 계정을 연동할 수 있는 기능도 빠른 시일 내 출시할 예정이다. 보호자는 챗GPT의 ‘연령 적합 대화 규칙’을 기본값으로 적용할 수 있으며, 메모리·대화 기록 같은 기능을 비활성화할 수도 있다. 특히 시스템이 자녀의 대화에서 극심한 심리적 위기 신호를 감지하면 부모에게 즉시 알림이 가도록 할 예정이다. 한 달 내 도입을 목표로 하고 있다.
다만, 오픈AI의 대응이 여전히 부족하다는 비판도 제기된다.
레인 가족 소송을 맡은 제이 에델슨 변호사는 “오픈AI의 대응은 여전히 불충분하다”며 “챗GPT가 위험하다는 걸 회사는 출시 첫날부터 알고 있었다. 샘 올트먼 CEO는 안전하다고 확신한다면 직접 밝히든지, 아니면 즉시 서비스를 철수해야 한다”고 했다.
전대현 기자
jdh@chosunbiz.com
고객님만을 위한 맞춤 차량
