AI 가짜 영상, 폭스뉴스까지 속였다…딥페이크 위험성 고조
||2025.11.04
||2025.11.04
[디지털투데이 AI리포터] 인공지능(AI)이 만든 가짜 영상이 언론을 속이는 수준까지 도달했다고 3일(이하 현지시간) 비즈니스인사이더가 전했다.
최근 폭스뉴스는 '정부 셧다운에 SNAP(보충 영양 지원 프로그램) 수혜자들, 상점 약탈 위협'이라는 기사를 보도했다. 해당 기사는 SNAP 수혜자들이 소셜미디어(SNS)에서 11월 1일부터 식료품 스탬프 지급이 중단될 경우, 상점을 약탈하겠다고 위협했다는 내용을 담고 있었다.
그러나 온라인에서 해당 영상들이 AI 생성물이라는 지적이 이어지자, 폭스뉴스는 기사 헤드라인을 'SNAP 수혜자들, 보조금 삭감에 항의하는 AI 영상 확산'으로 변경했다. 또한 기사 하단에는 '일부 영상이 AI로 생성된 것으로 보이며, 이를 반영해 수정했다'는 설명이 추가됐다.
얀 르쿤(Yann Lecun) 메타 수석 AI 과학자 또한 최근 뉴욕 경찰이 이민세관단속국(ICE) 요원들에게 당장 물러서라고 말하는 영상을 SNS에 올렸다. 실제로 지역 경찰과 ICE 요원들 간의 충돌 영상이 존재하긴 하지만, 르쿤이 공유한 영상은 오픈AI의 비디오 생성 앱 소라(Sora)로 만든 것으로 파악됐다.
AI가 만든 가짜 영상이 정치적 편향을 강화하는 데 활용될 위험이 있다는 우려가 커지는 가운데, 주요 AI 기업들은 소프트웨어 출력을 제한하는 명확한 규제 방안을 제시하지 못하고 있는 상황이다. 이러한 상황은 AI 기술이 정치 및 사회적 갈등을 부추길 가능성을 시사한다.
고객님만을 위한 맞춤 차량
