"AI가 만든지 모른다"…AI 이미지 판별력 51% 수준 충격
||2026.03.13
||2026.03.13
[디지털투데이 AI리포터] 인공지능(AI) 생성 콘텐츠 탐지 정확도가 51%에 그친다는 연구 결과가 나왔다.
12일(현지시간) IT매체 테크레이더에 따르면, AI가 만든 이미지와 영상을 가려내는 일은 갈수록 어려워지고 있으며, 앞으로 상황은 더 악화할 가능성이 크다.
대부분 사람은 AI 생성 콘텐츠가 얼마나 정교한지 체감하지 못하거나, 직접 보면 구별할 수 있다고 생각한다. 그러나 연구 결과는 이런 인식이 모두 빗나갔음을 보여준다. AI 생성 콘텐츠가 인간이 만든 콘텐츠와 거의 구분되지 않을 정도로 정교해지면서, 사람들이 이를 정확히 판별할 확률은 51%에 불과한 것으로 나타났다.
이 같은 위험은 이미 현실에서 확인됐다. 2024년 미국 일부 지역에서는 조 바이든 대통령의 목소리를 흉내 낸 가짜 로보콜이 유권자들에게 투표하지 말고 집에 머물라는 메시지를 전달했다. 뿐만 아니라 AI 생성 이미지는 정치 허위정보 확산이나 금융 사기에도 활용된 바 있다.
AI로 생성된 비동의 이미지 기반 성적 학대 문제는 점점 더 심각해지고 있으며 많은 피해를 낳고 있다. 이러한 위험에 처한 것은 비단 개인뿐만이 아니다. 기업 역시 딥페이크 사기의 표적이 되고 있다. 딥페이크 사기로 인한 전 세계 피해액은 2027년까지 400억달러(약 60조원)에 이를 것으로 전망된다.
대응을 위한 기술 개발도 이어지고 있다. 구글 딥마인드는 AI 이미지에 워터마크를 삽입하는 'SynthID'를 개발했고, 메타는 영상 판별 기술을 오픈소스로 공개했다. 콘텐츠 출처를 추적하는 C2PA 표준 기반 메타데이터 체계도 도입되고 있다. 다만 기술적 대응만으로는 한계가 있다는 지적이 나온다.
미국 아이오와대 연구에서는 심리적 예방접종 방식이 효과를 보였다. 참가자들에게 딥페이크 탐지 교육을 실시하자 AI 콘텐츠 식별 능력이 향상됐다는 것이다. 반면 AI가 고도화될수록 탐지 도구의 정확도는 오히려 떨어지고 있다.
전문가들은 AI 콘텐츠를 가려내는 가장 강력한 수단으로 '맥락'을 꼽는다. 영상에서 입술 움직임과 음성 싱크가 어긋나거나, 이미지에 물리적으로 성립하기 어려운 요소가 있다면 의심해야 한다는 것이다. 결국 중요한 것은 AI 콘텐츠를 무비판적으로 받아들이지 않는 태도다. 공유하기 전 한 번 더 확인하고, 누가 이익을 얻는지 따져보는 습관이 필요하다는 지적이다.
고객님만을 위한 맞춤 차량
