MS AI 전담 ‘레드팀’, AI 시스템 안전 조사 결과 공개…"사람 전문성 중요"
||2025.01.14
||2025.01.14
[디지털투데이 AI리포터] 마이크로소프트(MS)의 인공지능(AI) 전담 레드팀이 생성형 AI 시스템의 안전과 보안 문제에 대해 조사한 결과를 공개했다.
13일(현지시간) 실리콘앵글에 따르면 '레드팀 100대 생성형 AI 제품의 교훈'(Lessons from Red Teaming 100 Generative AI Products)이라는 제목의 새 백서에서는 생성형 AI가 기존의 보안 위험을 증폭시키며, 이를 완화하기 위해 다각적인 접근이 필요하다고 강조했다. 이를 위해 사람의 전문성, 지속적인 테스트, 협업이 중요하다는 것이다.
보고서는 생성형 AI 시스템이 기존의 보안 위험과 새로운 위험을 증폭시킨다고 지적했다. AI가 기존의 취약점을 증폭시키는 동시에 새로운 사이버 공격 벡터를 도입한다는 것이다. 이에 따라 AI 보안 모범 사례에는 기본적인 사이버 위생이 포함되어야 한다고 강조했다.
또한 보고서는 AI 개선 및 보안의 중심에는 사람이 있다는 점을 강조했다. 자동화 도구는 유용하지만, AI 레드팀은 사람의 전문 지식에 크게 의존한다는 것이다. 특히, 주제별 전문가가 AI 레드팀 구성에서 중요한 역할을 한다고 주장했다.
마지막으로 생성형 AI의 위험을 완화하려면 지속적인 테스트, 강력한 방어, 적응 전략을 결합한 계층적 접근 방식이 필요하다는 주장이다. 이를 통해 공격 비용을 높이고, 공격자를 억제하며, AI 시스템의 전반적인 보안 태세를 강화할 수 있다고 보고서는 말했다.