정부 차원의 한국형 ‘AI 프라이버시 리스크 관리 모델’ 나왔다
||2024.12.19
||2024.12.19
인공지능(AI) 기업이 자율적으로 프라이버시 리스크를 관리할 수 있게 돕는 정부 차원의 ‘프라이버시 리스크 관리 모델’이 제시됐다.
개인정보보호위원회는 AI 기업이 자율적으로 프라이버시 리스크를 관리할 수 있도록 ‘안전한 인공지능(AI)·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델’을 공개했다고 19일 밝혔다. 이 리스크 관리 모델에는 AI 생애주기에 걸친 프라이버시 리스크 관리의 방향과 원칙, 리스크 유형, 경감방안 등이 담겼다.
개인정보보호위원회는 지난해 12월부터 AI 프라이버시 민·관 정책협의회 리스크 평가 분과의 논의를 중심으로 리스크 관리 모델을 마련해 왔다. 이 리스크 관리 모델은 AI 데이터 처리 특성, 프라이버시 리스크 유형, 리스크 경감방안 및 관리체계, 기업 사례 등을 종합해 안내한다.
AI 프라이버시 리스크 관리에서는 리스크의 성격을 결정짓고 관리하기 위한 출발점이다. 먼저 AI의 구체적 유형과 용례를 파악하고 구체적 리스크를 식별하며, 발생확률과 중대성 등을 고려한 리스크 측정을 수행할 수 있다. 이러한 리스크 관리는 개인정보 보호 중심 설계(PbD) 관점에서 AI 모델·시스템의 기획·개발 단계부터 이뤄지는 것이 바람직하며, 이후 주기적·반복적으로 이뤄지는 것이 권장된다.
프라이버시 맥락에서의 AI 리스크 유형은 AI의 생애주기에 따라 AI 모델·시스템의 기획·개발 단계, 서비스 제공 단계에서 발생하는 리스크를 구분해 제시했다. 서비스 제공 단계는 생성 AI와 판별 AI를 구분함으로써 AI 용례·유형에 따른 구체성을 더했다.
리스크를 경감하기 위한 관리적, 기술적 안전조치도 안내했다. 관리적 안전 조치에는 ▲학습데이터 출처·이력 관리 ▲허용되는 이용방침 마련 ▲AI 프라이버시 레드팀을 통한 개인정보 침해유형 테스트 및 조치 ▲부적절한 답변 등에 대한 정보주체 신고방안 마련 등이 포함된다. 학습데이터에 민감한 정보가 포함될 개연성이 높거나 대규모 개인정보가 포함되는 경우 개인정보 영향평가 수행도 권장된다.
기술적 안전 조치에는 ▲AI 학습데이터 전처리 ▲AI 모델 미세조정을 통한 안전장치 추가 ▲입력·출력 필터링 적용 ▲차분 프라이버시 기법의 적용 등이 포함된다. 한국어가 적용된 AI 모델의 특수성도 고려하기 위해 한국어 언어모델 대상 프라이버시 리스크 경감기술 효과 분석을 위한 정책연구도 진행해 과학적 실증에 기반한 정책을 마련하고자 했다.
다만 모든 경감조치를 필수적으로 취해야 하는 것은 아니다. 구체적으로 리스크를 식별하고 측정한 결과 등 개별 맥락에 따라 최적의 안전조치 조합을 마련해 시행할 수 있도록 안내했다.
리스크 관리체계 측면에서는 개인정보보호, AI 거버넌스, 사이버보안, 안전·신뢰 등 다양한 디지털 거버넌스 요소가 상호연관된다. 이에 따라 전통적 프라이버시 거버넌스의 재편이 필요하다. 이때 개인정보 보호책임자(CPO)의 주도적 역할·책임감이 중시된다.
개인정보위원회는 추후 AI 기술 발전, 개인정보 관련 법령 제·개정, 글로벌 동향 등을 고려해 리스크 관리 모델을 지속적으로 업데이트할 계획이다. 소규모 조직, 스타트업 및 AI 개발 유형(미세조정, 검색증강(RAG) 등) 등 세부대상, 영역 등에 특화된 안내자료도 조만간 구체화될 예정이다.
고학수 개인정보위원회 위원장은 “개인정보, 비개인정보가 총체적으로 활용되고 기술 발전이 지속되는 AI 영역은 불확실성이 높기 때문에 합리적·비례적 관리를 통해 리스크를 총체적으로 최소화하는 것이 필요하다”며 “리스크 관리 모델이 AI 기업 등이 프라이버시 리스크를 이해하고 체계적으로 관리하는 데 도움이 되길 바란다”고 말했다.
권용만 기자
yongman.kwon@chosunbiz.com