MS 코파일럿 챗, 기밀 이메일 훔쳐봤다…보안 구멍 논란
||2026.02.20
||2026.02.20
[디지털투데이 AI리포터] 마이크로소프트(MS)의 인공지능(AI) 비서인 코파일럿 챗(Copilot Chat)이 기밀로 분류된 이메일을 무단으로 읽고 요약하는 보안 결함이 발생했다.
19일(현지시간) IT매체 폰아레나에 따르면, 최근 MS 365 유료 사용자용 코파일럿 챗이 보냄 및 임시 보관함 폴더에 저장된 이메일을 분석하는 과정에서 기밀 표시된 내용까지 읽어 들이는 오류가 보고됐다. 특히 이번 사건은 기밀 데이터가 AI 모델에 의해 처리되지 않도록 방지하는 데이터 손실 방지(DLP) 정책이 활성화된 상태에서도 발생했다는 점에서 더욱 심각한 프라이버시 문제로 지적받고 있다.
MS 측은 이번 프라이버시 침해 사고가 불특정한 코드 오류로 인해 발생했음을 공식 인정하고 현재 해당 사안을 조사 중이다. 보안 식별 번호 'CW1226324'로 추적되고 있는 이 결함은 AI 비서가 설정된 보안 정책을 우회해 기밀 정보에 접근한 것으로, 기업과 개인의 민감한 데이터 보안에 실질적인 위협이 된 것으로 확인됐다.
현재 MS는 문제 해결을 위한 패치를 개발하여 일부 사용자군을 대상으로 배포를 시작했으며, 수정 사항이 의도대로 작동하는지 확인하기 위해 일부 사용자와 접촉 중인 것으로 알려졌다. 다만 이번 소프트웨어 버그로 인해 영향을 받은 조직의 수나 전체 사용자 대상 패치 완료 시점에 대해서는 구체적인 정보를 공개하지 않았다.
전문가들은 이번 사건을 계기로 AI 도구가 개인정보 보호보다 기능 구현을 우선시할 때 발생하는 신뢰 문제를 지적하며 기업들의 강력한 보안 대책 마련을 촉구하고 있다. 아울러 관리자들에게는 MS 365 관리 센터의 업데이트 내용을 면밀히 살피고 코파일럿의 기밀 콘텐츠 접근 여부를 지속적으로 모니터링할 것을 권고했다.
고객님만을 위한 맞춤 차량
