"군 무기류 안전 개념 바꿔야...AI 대응·사이버 보안 등 대비 필요"
||2025.03.20
||2025.03.20
[디지털투데이 강진규 기자] 인공지능(AI)과 최신 IT 기술 적용 추세에 맞춰 군용 무기 안전 관리의 개념을 정비해야 한다는 주장이 나왔다. 군용 무기 안전을 위해 AI 안전성, 사이버 보안 등에 대비해야 한다는 것이다.
정부 관계자들에 따르면 방위사업청은 지난해 7월부터 올해 1월까지 한국무기체계안전협회를 통해 ‘군용 총포·도검·화약류 안전관리 발전 방안 연구’를 진행했다.
방위사업청은 군용 무기의 안전한 제작, 보관, 관리 등을 위해 이번 연구를 진행했다. 연구진은 전통적인 군용 총포, 도검, 화약류 등의 안전 관리를 위해 제도 개선 방안, 정책 등을 분석했다. 특히 연구진은 4차 산업혁명 시대에 맞는 군용 무기 안전 관리 방안을 연구했다.
연구진은 보고서에서 “자율무기체계는 인간이 주체가 아닌 기계가 전쟁 행위의 주체로 참여하는 무기체계로 정치적, 법적, 윤리적 문제를 비롯한 여러 가지 문제가 발생할 수 있다”며 “이에 대해 국제사회에서는 자율무기의 규제를 위한 논의가 활발하게 진행되고 있으며 미국 국방부의 경우 자체적인 기준을 수립해 개발 및 운용 중에 있다”고 설명했다.
연구진은 자율무기체계의 안전성 검토가 그 사용이 인간에게 미칠 영향을 최소화하고, 예상치 못한 결과를 방지하기 위해 매우 중요하다고 강조했다.
새로운 무기들과 관련된 안전 관리 방안들을 소개했다. 우선 자율무기체계의 알고리즘과 소프트웨어는 철저히 검증돼야 한다는 것이다. 시스템이 예상치 못한 상황에서도 안정적으로 작동할 수 있도록 다양한 시뮬레이션과 테스트가 필요하고 비정상적 상황에서의 시스템 반응을 파악하기 위한 테스트도 진행해야 한다는 것이다.
연구진은 자율무기체계가 사이버공격에 노출될 수 있으므로 취약점 평가를 통해 시스템 보안을 강화해야 한다고 지적했다. 또 시스템 오류 발생 시 자동으로 안전한 상태로 전환될 수 있는 비상 대응 메커니즘을 반영해야 한다는 것이다.
특히 자율무기체계는 해킹이나 정보 탈취를 방지하기 위한 강력한 보안 프로토콜이 적용돼야 한다고 한다는 설명이다. 이를 위해 자율무기체계의 모든 소프트웨어와 하드웨어 구성 요소에 대한 취약점 분석을 수행해 발견된 취약점을 신속히 패치한다고 연구진은 주장했다. 또 예상치 못한 사이버공격 발생 시 시스템을 자동으로 격리하거나 안전모드로 전환시킬 수 있는 방어 메커니즘도 적용해야 한다는 것이다.
연구진은 자율무기체계를 작동 중 인간 감독이 가능하도록 설계해야 하며 필요시 즉각적인 개입이 이루어질 수 있어야 한다고 지적했다. 인간의 감독 및 개입은 시스템의 윤리적, 법적, 운영적 안전성을 보장하기 위한 중요한 요소라는 것이다. 연구진은 인공지능(AI) 안전성, 사이버보안이 무기 설계부터 반영돼야 한다고 제안했다.
연구진은 "군과 정부가 새로운 시대 변화에 발생할 수 있는 무기 안전 문제를 검토하고 해외에서는 어떤 준비를 진행하고 있는지 살펴봐야 한다"며 "그리고 이에 대한 안전 설계 기준 및 관리방안을 연구하고 도입해야 한다"고 강조했다.
고객님만을 위한 맞춤 차량