‘AI 안전 마스터플랜’ 논의 본격화…"피해 국민 권리부터 명확히"
||2026.02.06
||2026.02.06
[디지털투데이 이진호 기자] 정부가 '국가 인공지능(AI) 안전 생태계 조성 마스터플랜' 수립을 추진하는 가운데 AI로 피해를 입은 국민의 권리와 대응 절차를 보다 명확히 해야 한다는 주장이 나왔다. 기술 중심의 안전 담론을 넘어 실제 피해 당사자가 체감할 수 있는 권리 보장과 구제 절차를 마련해야 한다는 것.
과학기술정보통신부는 6일 서울 중구 은행회관에서 국가 AI 안전 생태계 조성 마스터플랜 의견수렴 간담회를 개최했다. 간담회는 안전한 AI 환경 조성에 대한 공감대를 형성하고, 학계·산업계·시민사회의 다양한 의견을 청취하기 위해 마련됐다.
현재 정부는 학계·산업계와 협력해 AI 안전 생태계 조성 마스터플랜을 준비 중이다. 마스터플랜 초안에는 AI 안전 에이전트 개발, 관계 기관을 연계한 AI 위험 대응·예방 정보 제공, AI 안전포털 구축 등 안전한 AI 활용 환경을 위한 체계 구축 방안이 담겼다.
발제에 나선 김명주 AI안전연구소장은 AI 안전 평가와 법·제도 표준을 마련하고, 안전성 검사를 위한 연구소 테스트베드 인프라를 기업과 연구자에게 개방하겠다고 밝혔다. 대학과 연계해 최소 3곳 이상의 AI 안전 융합센터를 구축하고 150명 이상의 다학제 융합 인재를 양성하겠다는 계획도 제시했다.
토론에서는 제도적 실효성에 대한 문제 제기가 이어졌다. 이지은 참여연대 선임간사는 "AI 안전과 관련한 위험이 발생했을 때 위험 당사자가 실제로 어떻게 해결하고 도움을 받을 수 있는지에 대한 시스템이 필요하다"고 강조했다.
포털 구축이나 인재 양성과 같은 거시적 계획을 넘어 국민이 쉽게 접근할 수 있는 AI 피해 구제 체계를 마련해야 한다는 게 이 간사의 주장이다. 그는 AI 에이전트 등 자동화된 판단 시스템이 사회 전반으로 확산되는 상황에서 위험 대응 프로세스 또한 구체화해야 한다고 강조했다.
이 간사는 지난 1월 시행된 AI 기본법을 언급하며 "법에는 '영향받는 자'라는 개념이 포함돼 있긴하지만 구체적으로 어떤 피해가 발생할 수 있는지, 어어떤 권리와 구제 수단이 보장되는지는 충분히 담기지 않았다"고 평가했다.
구체적인 사례로는 공공기관의 AI 채용 시스템을 들었다. 그는 “탈락한 지원자가 왜 떨어졌는지, 어떤 기준으로 평가됐는지 설명받기 어렵고, 이의 제기 절차도 불분명하다”며 보다 촘촘한 안전망 구축이 필요하다고 강조했다.
한편 과기정통부는 이날 간담회에서 제시된 의견을 마스터플랜에 반영해, 상반기 중 구체적인 내용을 발표할 예정이다.
고객님만을 위한 맞춤 차량
