"AI 챗봇에 이건 절대 말 안 해"…구글 전문가 4가지 철칙
||2025.12.15
||2025.12.15
[디지털투데이 이윤서 기자] 구글 보안 전문가는 인공지능(AI) 챗봇을 어떻게 사용할까. AI 기술의 급격한 확산으로 정보 보안 우려가 높아진 가운데, 구글의 보안 담당자 하르시 바르시니(Harsh Varshney가 안전한 AI 활용을 위한 4가지 가이드라인을 제시했다.
지난 13일(현지시간) 비즈니스인사이더는 하르시 바르시니가 실제 업무와 일상에서 챗봇을 사용할 때 철저히 지키는 보안 원칙을 상세히 짚었다.
첫째, AI에 절대 개인정보를 입력하지 않는다.
신용카드 정보, 사회보장번호, 의료 기록 등은 공유 금지 대상이다. 챗봇이 학습 데이터를 수집하는 과정에서 모델이 특정 사용자의 정보를 암기했다가 다른 사용자에게 노출하는 '훈련 누출'(training leakage)이 발생할 수 있기 때문이다. 바르시니는 "공공 AI 챗봇은 누구나 볼 수 있는 '엽서'와 같다"며 공개적으로 보여주고 싶지 않은 정보는 입력하지 않는다고 강조했다.
둘째, 공공 AI와 기업용 AI를 철저히 구분해야 한다.
바르시니는 공공 AI를 사용하는 것을 '누가 엿들을 수 있는 붐비는 카페에서 대화하는 것'에, 기업용 AI는 '보안이 유지되는 사무실 회의'에 비유했다. 기업용(Enterprise) 모델은 대화 내용을 학습하지 않기 때문에 업무 관련 프로젝트나 특허 등 민감한 내용은 반드시 기업용 도구에서만 다뤄야 한다고 조언했다.
셋째, 대화 기록을 주기적으로 삭제해야 한다.
AI 챗봇은 장기 기억(Long-term memory) 기능을 통해 과거 대화 내용을 저장한다. 바르시니는 "과거 이메일 교정을 부탁했던 챗봇이 나중에는 입력하지도 않은 내 집 주소를 기억하고 있어 놀란 적이 있다"며 경험담을 전했다. 그는 계정 해킹 위험에 대비해 기록을 정기적으로 지우거나, 기록이 저장되지 않는 '임시 채팅'(Temporary chat) 모드를 활용할 것을 권했다.
마지막 넷째, 신뢰할 수 있는 AI 도구만 사용하고 설정을 확인해야 한다.
그는 구글 제품 외에도 오픈AI의 챗GPT, 앤트로픽의 클로드(Claude) 등을 추천하며, 사용 전 개인정보 처리 방침을 확인할 것을 당부했다. 특히 설정 메뉴에서 '모두를 위한 모델 개선'과 같은 데이터 학습 옵션이 꺼져 있는지 확인하는 것이 중요하다고 덧붙였다.
업계에서는 이번 가이드라인이 생성형 AI의 일상화에 따른 보안 불감증을 해소할 기준점이 될 것으로 보고 있다. 구글 내부 전문가가 직접 실천하는 보안 수칙인 만큼, 일반 사용자들의 AI 활용 습관에도 시사하는 바가 크다는 평가다.
고객님만을 위한 맞춤 차량
