오픈AI, 챗GPT 신뢰도 높인다…안전성 평가 허브 신설
||2025.05.15
||2025.05.15
[디지털투데이 AI리포터] 오픈AI가 챗GPT와 같은 인공지능(AI) 모델의 오류와 유해 콘텐츠 생성 여부를 공개하는 '안전성 평가 허브'(Safety Evaluations Hub)를 신설했다고 14일(현지시간) IT매체 엔가젯이 전했다.
이번 조치는 AI가 만들어낼 수 있는 잘못된 정보와 유해한 결과물을 투명하게 공개하겠다는 의도로, 모델이 명령을 잘 따르는지, 탈옥(jailbreak) 시도가 있었는지도 포함된다. 오픈AI는 AI 학습 과정에서 저작권을 침해했다는 소송에 직면한 상태이며, 최근 뉴욕타임스가 제기한 표절 소송과 관련해 증거를 실수로 삭제했다는 논란도 불거졌다.
기존 시스템 카드가 출시 시점의 안전성만 설명했다면, 이번 허브는 지속적으로 업데이트되며 안전성 향상을 위한 정보를 제공할 예정이다. 오픈AI는 "AI 평가 과학이 발전함에 따라 모델의 안전성과 성능을 측정하는 방법도 함께 공유할 것"이라며 "시간이 지남에 따라 오픈AI 시스템의 안전성을 이해하는 데 도움이 되길 바란다"고 밝혔다. 허브에서는 GPT-4.1부터 4.5까지의 모델 정보가 제공되며, 추가적인 세부사항은 시스템 카드와 평가 자료를 통해 확인할 수 있다.
다만, 평가 자체가 오픈AI 내부에서 이루어지고 선택적으로 공개되는 방식이어서 모든 문제가 투명하게 드러나지 않을 가능성도 있다.
고객님만을 위한 맞춤 차량