AI 경찰 보고서, 증거 조작 우려…법적 책임은 누구에게 있나
||2025.07.11
||2025.07.11
[디지털투데이 AI리포터] 인공지능(AI)이 작성한 경찰 보고서가 법적 책임 회피 도구로 악용될 가능성이 제기됐다.
10일(현지시간) IT매체 아스테크니카는 디지털 권리 단체인 전자프런티어재단(Electronic Frontier Foundation, EFF)이 발표한 조사 결과를 인용해, AI 기반 경찰 보고서 생성 도구 '드래프트 원'(Draft One)이 감시와 투명성을 의도적으로 차단하고 있다고 보도했다.
드래프트 원은 경찰의 바디캠 음성을 AI가 분석해 보고서를 작성하는 시스템으로, 경찰이 이를 수정해 제출하는 방식이다. 하지만 EFF는 이 도구가 AI 사용 여부를 기록하지 않고, 초안과 최종본의 차이를 확인할 수 없도록 설계됐다고 지적했다. 이는 경찰이 AI 오류를 핑계 삼아 법적 책임을 회피할 수 있는 여지를 제공하며, AI가 증거를 왜곡하거나 잘못된 맥락을 추가할 가능성도 있다고 경고하기도 했다.
EFF는 AI 경찰 보고서가 미국 전역에 확산될 것을 우려하며, 이를 감시하기 위한 법적 규제가 필요하다고 주장했다. 현재 캘리포니아주에서는 AI가 작성한 보고서의 원본을 보존하도록 하는 법안이 발의됐으며, 유타주도 유사한 조치를 검토 중이다. 또한 EFF는 AI 경찰 보고서가 확대될 경우 형사 사법 시스템의 불투명성을 심화시킬 것이라며, AI 기반 보고서의 활용을 중단할 것을 촉구했다.
한편, 워싱턴주 킹카운티 지방검찰청은 AI 경찰 보고서 사용을 금지하며, AI가 법적 증거로 활용되는 것에 대한 우려를 표명했다.
고객님만을 위한 맞춤 차량
