[Tech Insight]AI는 보안 산업을 죽이지 않고 크게 키울 것이다...왜?
||2026.03.31
||2026.03.31
[디지털투데이 황치규 기자]앤트로픽이 클로드 미토스로 알려진 새로운 보안 모델을 테스트하고 있다는 소식이 알려지자, 보안 업체들 주가가 또 하락하는 장면이 연출됐다. AI 때문에 기존 보안 업체들 제품 수요가 줄수 있다는 우려가 반영된 결과다.
외신들에 따르면 클로드 미토스는소프트웨어 코딩, 학문적 추론, 사이버보안 등 여러 평가에서 기존 최고 모델인 클로드 오퍼스 4.6보다 매우 높은 점수를 기록했다.
이에 대해 에드 심 볼드 스타트 벤처스 창업자는 AI 모델 고도화는 보안 업계에 위협이 아니라 기회라는 입장을 분명히했다. AI 모델이 진화할 수록 사이버 위협도 함께 커지고 있다는 이유에서였다. 그는 앤트로픽 스스로도 클로드 미토스에 대해 전례 없는 사이버보안 위험을 초래한다고 평가했다는 점도 부각했다. 모델 자체가 위험하다는게 아니라 모델이 악용될 경우 사이버 공격 수준이 전례 없이 높아질 수 있다는 것을 경고한 것이다.
에드 심(Ed Sim)은 "클로드가 사이버보안 산업을 죽이는 것이 아니라, 오히려 기하급수적으로 키우고 있다"면서 "AI 기반 공격 기술은 이미 현실에서 벌어지고 있다"고 말했다.
오픈AI, 앤트로픽, 구글 등 주요 AI 서비스 호출에 쓰이는 표준 어댑터 라이브러리 '라이트LLM(LiteLLM')이 최근 공급망 공격에 노출된 사례를 예로 들었다.
그는 "공격을 감행한 팀PCP(TeamPCP)가 사용한 도구인 '해커봇-클로(hackerbot-claw)'는 AI 에이전트를 활용해 공격 타깃 선정을 자동화했다"면서 "연구자들은 "AI 에이전트가 공급망 공격에 실제로 투입된 최초 사례 중 하나로 보고 있다"고 말했다.
에드 심은 이 공격을 발견한 건 AI가 아닌 사람이었다는 점도 강조했다.
그는 "퓨처서치(FutureSearch) 개발자 캘럼 맥마흔(Callum McMahon)이 악성 페이로드(Payload: 악성코드 핵심 부분)로 인한 시스템 충돌을 보고 침해 사실을 알게 됐다. 자동화 스캐너는 정상 관리자 자격증명과 유효한 pip 해시에 속아 이를 탐지하지 못했다"고 전했다.
애드 심에 따르면 이번 공격은 보안에서 계층적 접근이 중요하다는 것을 보여주는 또 하나의 사례다. 거대 언어 모델(LLM) 자체로는 방어에 한계가 있다는 것이다. 그는 "파운데이션 모델이 코드베이스에서 취약점 500개를 찾아냈다고 해도, 그게 실제 취약점인지, 보고됐는지, 우선순위가 맞는지는 별개 문제"라며 "(최근 미국 샌프란시스코에서 열린 글로벌 보안 컨퍼런스 )RSAC에서 만난 기업 최고정보보안책임자(CISO)들 얘기를 들어봐도 LLM 기반 탐지와 결정론적 검증을 결합하는 다계층 접근 방식을 채택하는 추세다. 넓은 범위를 빠르게 훑는 AI 탐지와, 취약점을 확정하고 수정하는 결정론적 검증 모두 필요하다"고 말했다.
그는 올해 RASC 주요 이슈들도 공유했다. 가장 중량감 있는 키워드는 에이전트였다.
그에 따르면 CISO들이 가장 우려한 건 AI 에이전트 신원(identity)과 권한 범위다. 에드 심은 "목표를 달성하기 위해 필요한 도구를 스스로 끌어다 쓰는 에이전트 특성상, 한 번 권한이 잘못 설정되면 피해 범위를 가늠하기 어렵다"고 말했다.
보안 알림과 권한 승인 피로(Alert and permission fatigue)도 과제로 떠올랐다. 에이전트에게 세밀한 권한 정책을 부여하다 보면, 새로운 작업마다 사람이 승인해야 하는 상황이 반복된다는 이유에서다.
AI 기반 공격 속도도 빨라지고 있다는 것도 주목할만한 부분이다. 그는 "평균 브레이크아웃타임(breakout time: 해커가 시스템 한 곳에 처음 침투한 뒤, 내부 다른 시스템으로 퍼져나가는 데 걸리는 시간)은 48분에서 29분으로 줄었고, 완전 자동화된 공격에선 27초까지 단축됐디"고 전했다.
고객님만을 위한 맞춤 차량
