기업 사용자, AI 쓸 때 프롬프트 10개 중 1개에 민감 정보 포함 가능성
||2025.01.17
||2025.01.17
[디지털투데이 AI리포터] 기업 내 사용자가 인공지능(AI)을 사용할 때 10개 프롬프트 중 1개는 잠재적으로 민감한 데이터를 노출할 위험이 있는 것으로 나타났다고 16일(현지시간) 실리콘앵글이 전했다.
데이터 보호 스타트업 하모닉 시큐리티는 지난해 4분기 마이크로소프트(MS) 코파일럿(Copilot), 오픈AI 챗GPT(ChatGPT), 구글 제미나이(Gemini), 앤트로픽 클로드(Claude) 및 퍼플렉시티(Perplexity) 등의 생성형 AI 도구를 대상으로 관련 연구를 진행했다.
연구 결과 사용자들은 일반적으로 텍스트 요약, 블로그 게시물 편집, 코드 문서 작성 등을 위해 생성형 AI 도구를 사용했으나, 8.5%의 프롬프트가 민감한 정보를 노출할 위험이 있는 것으로 확인됐다. 이 중 45.8%가 고객 데이터였으며, 직원 정보(26.8%), 법률 및 재무 데이터(14.9%), 보안 관련 정보(6.9%), 민감한 코드(5.6%) 등이 뒤를 이었다
또한 하모닉 시큐리티는 무료 단계의 생성형 AI 서비스를 사용하는 직원들의 수가 많아 문제가 될 수 있다는 점을 지적했다. 이는 무료 서비스가 고객 데이터를 학습하고, 이를 모델 개선에 사용할 수 있기 때문이다.
하모닉 시큐리티는 실시간 모니터링 시스템을 구현하여 생성형 AI 도구 및 관련 서비스형 소프트웨어 플랫폼에 입력되는 데이터를 추적하고 관리할 것을 권장하고 있다. 또 직원들이 입력 데이터를 학습하지 않는 유료 플랜이나 옵션을 사용하도록 하고, 어떤 정보가 공유되는지 정확히 파악할 수 있는 즉각적인 가시성을 확보해야 한다고 강조했다.
고객님만을 위한 맞춤 차량