오픈AI 음성인식모델 ‘위스퍼’, 환각 문제 떠올라…오류 어쩌나

디지털투데이|AI리포터|2024.10.29

오픈AI [사진: 셔터스톡]
오픈AI [사진: 셔터스톡]

[디지털투데이 AI리포터] 오픈AI의 음성·텍스트 변환 인공지능(AI) 모델 '위스퍼'(Whisper)가 텍스트의 일부 또는 전부를 조작하는 이른바 '환각' 경향을 보였다고 지난 26일(현지시간) IT매체 테크크런치가 전했다.

미시간 대학 연구원은 10건의 오디오 트랜스크립션 중 8건에서 환청이 발견됐다고 전했다. 한 머신러닝 엔지니어는 100시간 이상의 위스퍼 트랜스크립션을 연구한 결과, 절반 이상의 트랜스크립션에서 환각을 발견했다고 한다. 또 한 개발자는 위스퍼로 만든 거의 모든 2만6000개의 트랜스크립션에서 환각을 발견했다고 보고했다.

특히 의료 분야에서 위스퍼 기반 도구의 활용이 확대되고 있는 가운데, 이 같은 환각 오류에 대한 우려의 목소리가 커지고 있다. 현재 미국의 나블라(Nabla)사가 개발한 위스퍼 기반 음성인식 도구는 3만 명 이상의 임상의와 40개 의료 시스템에서 사용되고 있다.

이에 대해 오픈AI는 "환각을 줄이는 등 모델의 정확성을 개선하기 위해 지속적으로 노력하고 있다"며 "사용 정책에 따라 특정 고위험 의사결정 상황에서는 위스퍼 사용을 금지하고 있다"고 언급했다.

본 서비스는 패스트뷰에서 제공합니다.