“이제 사진도 못 믿는다”… 진화하는 AI, 뒤처지는 규제
||2025.12.20
||2025.12.20
구글과 오픈AI가 ‘생성형 인공지능(AI) 이미지’ 기능을 잇달아 고도화하며 경쟁에 나섰다. 텍스트와 이미지를 결합한 콘텐츠 생성 능력이 비약적으로 향상하면서 활용 가능성은 넓어졌지만 허위 정보와 딥페이크 확산을 통제할 제도적 장치는 여전히 미흡하다는 지적이 나온다.
오픈AI는 17일(현지시각) 챗GPT의 이미지 생성 기능을 강화한 ‘챗GPT 이미지(ChatGPT Images)’ 도구를 공개했다. 텍스트 설명을 기반으로 인물의 표정과 포즈를 세밀하게 조정할 수 있고 기존보다 빠른 생성 속도와 편집 정확도를 제공한다. 생성형 AI가 단순한 이미지 제작을 넘어 사실과 유사한 콘텐츠를 대량 생산할 수 있는 단계에 진입했다는 평가다.
앞서 지난달 구글 역시 제미나이(Gemini)에 이미지 생성 도구 ‘나노바나나’를 적용했다. 실사에 가까운 인물 표현과 자연스러운 배경 합성 능력으로 주목받으며, 텍스트 입력만으로 고품질 이미지를 만들어낼 수 있다는 점에서 활용 범위가 넓어졌다.
이처럼 생성형 AI가 실제 사진과 구분하기 어려운 수준의 이미지 생성이 가능해지자 사회적 파급력을 우려하는 목소리도 나온다. 실제로 국내에서는 연예인 딥페이크 이미지 유포, 중고거래용 인증 사진 조작 등 일상 전반에서 생성형 AI 이미지가 악용되고 있다는 사례가 잇따르고 있다.
외신들도 생성형 AI 이미지가 허위 정보 확산을 가속화할 수 있다고 경고한다. 영국 매체 가디언은 지난 14일(현지시각) 호주 시드니 본다이 해변에서 발생한 총기 테러 사건에 관해 “테러 사건 이후 몇 시간, 며칠 새 AI에 의해 증폭된 허위 정보는 피하기 어려울 정도로 확산했다”고 지적했다. 가디언은 “아직까지 일부 가짜 콘텐츠는 비교적 쉽게 식별할 수 있지만, AI 모델이 계속 발전한다면 이런 구분은 점점 어려워질 수 있다”며 “그럼에도 AI 기업과 플랫폼들은 이를 막기 위한 조치에 무관심한 태도를 보이고 있다는 비판이 나온다”고 우려했다.
문제는 생성형 AI의 발전 속도에 비해 이를 직접 규제할 제도 장치는 뒤처져 있다는 점이다. 한국은 내년 1월 22일부로 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 AI 기본법)’을 시행할 예정이다. 하지만 생성형 AI로 만들어진 콘텐츠의 책임 소재와 통제 기준을 둘러싼 논의는 여전히 부족하다는 평가가 나온다.
일례로 AI 기본법 내 ‘인공지능사업자’는 “AI 산업과 관련된 사업을 수행하는 법인, 조직, 개인 또는 정부 기관”으로 폭넓게 정의돼 있다. 이는 AI 기술을 직접 개발하는 기업뿐 아니라, AI를 활용해 제품이나 서비스를 제공하는 주체 전반을 포함한다. 정의 범위가 넓다 보니, AI 생성물로 인한 피해 발생 시 책임 주체가 불명확해질 수 있다는 우려도 제기된다.
이에 지난 9월 공개된 AI 기본법 시행령 초안에서는 고영향 AI, 생성형 AI 등 AI 유형에 따라 의무와 책임을 세분화하는 방안이 제시됐다. 그러나 실존 인물 이미지 합성과 관련한 명확한 표시 의무나 사전·사후 통제 기준은 여전히 부족하다는 평가가 나온다.
전문가들은 생성형 AI의 활용 범위가 이미지, 텍스트, 영상 전반으로 확장되는 만큼 상시적인 대응 체계가 필요하다고 말한다.
최병호 고려대 AI연구소 교수는 “AI 발전 속도에 맞춰 후속 제도를 업데이트하기 위해서는 최신 기술의 속도를 예측하고, 관련 시나리오를 연구하는 상시 조직이 있어야 한다”며 “사법 및 입법부가 이를 제도적으로 뒷받침하지 않으면 생성형 AI가 야기할 수 있는 사회적 문제를 따라갈 수 없다”고 말했다.
김경아 기자
kimka@chosunbiz.com
고객님만을 위한 맞춤 차량
