늘어나는 API 보안 사고… 실시간 확인·통제 필수 [AI 에이전트와 보안②]
||2026.01.02
||2026.01.02
2026년 병오년에는 정부·공공을 비롯해 민간 전 산업에서 인공지능 전환(AX) 사업이 본격 확대될 전망이다. 특히 AI 에이전트 도입이 늘면서 AI는 단순 도구를 넘어 실제 업무를 수행하는 주체로 자리 잡을 것으로 보인다. 다만 보안을 충분히 고려하지 않은 AI 에이전트 시스템은 정보 유출 사고로 이어질 수 있다. MCP(Model Context Protocol) 서버, API(Application Programming Interface), 프롬프트(Prompt) 등 다양한 연결 통로가 새로운 공격표면으로 지적되고 있다. 새해 확산될 AI 에이전트 관련 주요 보안 위협과 주의사항을 살펴본다. [편집자 주]
AI 에이전트 구축이 확대되는 가운데 핵심 보안 과제 중 하나로 API(Application Programming Interface) 보안이 지적되고 있다. AI 에이전트는 단순 정보 조회를 넘어 내부·외부 시스템과 연동해 실제 업무를 수행한다. 이 과정에서 이메일 발송, 결제 승인, 고객 데이터 조회, 시스템 제어 등 대부분의 행동이 API 호출을 통해 이뤄진다. 계정 보안이나 엔드포인트 보호만으로는 이 통로를 충분히 통제하기 어렵다. 이에 따라 AI 환경에서 API가 실제로 무엇을 수행하고 있는지 실시간으로 확인하고 통제할 수 있는 체계를 갖추는 것이 AI 확산 환경에서 필수적인 보안 요소로 떠오르고 있다.
AI가 ‘두뇌’라면, API는 각 시스템을 실제로 움직이게 하는 ‘신경망’에 비유할 수 있다. 이 신경망이 무방비로 노출되거나 통제가 느슨해지면, 계정 탈취나 악성코드 감염 없이도 API를 통해 핵심 시스템에 접근이 가능해진다. AI 에이전트 도입이 늘어날수록 API 호출 빈도와 범위가 급격히 확대되기 때문에 API가 차지하는 공격 표면 역시 자연스럽게 커진다. 즉 MCP(Model Context Protocol)가 AI의 ‘판단 근거’를 제공하는 통로라면, API는 그 판단이 실제 시스템과 데이터, 업무 프로세스로 이어지는 행동 실행의 통로이자 통제 지점이다. 이 부분이 느슨하면 자동화된 편의성만큼이나 자동화된 위험도 함께 확대될 수 있다.
실제 최근 공격 흐름도 이러한 변화를 반영한다. 콘텐츠전송네트워크(CDN) 및 보안 솔루션 기업 아카마이(Akamai)의 최근 조사에 따르면 아시아태평양 지역 기업의 80% 이상이 지난 1년간 최소 한 차례 API 보안 사고를 경험했다. 특히 이 중 약 3분의 2는 어떤 API가 민감 데이터를 처리하는지조차도 명확히 파악하지 못한 것으로 나타났다. 공격 자동화와 AI 기반 스캐닝이 결합되면서 관리 사각지대에 놓인 API 취약점을 대규모로 탐색·악용하기 쉬운 환경이 조성되고 있다는 게 아카마이의 분석이다.
AI 에이전트 확산은 이러한 위험을 더욱 분명하게 만든다. AI가 API를 수시로 자동 사용하면서 호출 빈도와 함께 권한 범위도 동시에 확대되기 때문이다. 이 과정에서 관리되지 않는 ‘섀도(Shadow) API’가 늘어나고, 과도한 권한을 가진 API 토큰과 키(key)가 장기간 유지되는 구조가 만들어질 수 있다. 정상 사용자 트래픽과 AI의 자동 API 호출을 구분하기 어려워지는 점 역시 보안 운영의 부담을 키우는 요인으로 꼽힌다.
보안 업계는 이제 API가 단순한 연동 수단을 넘어 AI 에이전트 거버넌스의 핵심 통제 지점이 되고 있다고 본다. 이스라엘 기반 API 보안 스타트업 솔트시큐리티(Salt Security)는 에이전틱 AI(Agentic AI) 환경에서 API가 사실상 모든 자율적 행동의 실행 계층이라는 점을 강조한다. 회사는 ‘CISO(최고정보보호책임자) 가이드’ 보고서를 통해 “AI 에이전트는 API를 통해 기록을 수정하고, 메시지를 전송하며, 업무 프로세스를 연쇄적으로 실행할 수 있어 API 보안은 더 이상 보조적 통제가 아니라 자율 시스템을 통제하는 핵심 집행 계층으로 작동한다”고 언급했다.
특히 이 보고서는 AI 에이전트가 여러 API를 연쇄 호출하며 동작하는 환경에서 개별 API의 정상 동작 여부만으로는 위험 판단이 어렵다고 지적한다. 특정 요청이 정상처럼 보이더라도 호출 순서와 맥락을 종합하면 비정상 행위로 바뀔 수 있기 때문이다. 이에 어떤 API가 AI 에이전트에 노출돼 있는지, 어떤 조건에서 호출되는지, 호출 결과가 정의된 맥락과 일치하는지를 지속적으로 점검해야 한다고 제언한다.
이런 이유에서 최근 다수 보안 기업들은 AI 에이전트 시대의 보안 전략이 계정 보안, 엔드포인트 보호, 네트워크 통제와 함께 API 보안을 동시에 강화하는 방향으로 정교해져야 한다고 조언한다. 보안팀은 어떤 API가 어디에 존재하는지부터 식별·분류하고, 어떤 API가 민감 데이터를 주고받는지 흐름을 파악해야 할 필요가 있다. 호출 주체가 사람인지 AI인지, 어떤 조건에서 호출이 허용되는지까지 정책을 세분화해 적용하는 작업도 필요하다.
특히 AI 에이전트 환경에서는 개별 API 요청이 정상처럼 보여도 연쇄 호출 과정에서 의도치 않은 권한 확대나 데이터 결합이 발생할 수 있다. 이에 보안 전문기업들은 단순 차단이나 인증 요구만으로 끝내기보다, 호출 패턴을 지속적으로 모니터링하고 이상 징후를 조기에 탐지할 수 있는 가시성을 확보하는 것이 중요하다고 조언한다.
이형욱 F5 코리아 지사장은 “한국 기업의 절반 이상이 AI 배포에 API를 활용하고 있지만, 보안 프로세스가 성숙 단계에 이르렀다고 답한 비율은 40%에 불과하다”며 “AI를 안전하게 확장하려면 API의 지속적인 탐지와 일관된 정책 집행, AI 트래픽에 대한 실시간 가시성 확보가 함께 이뤄져야 한다”고 말했다.
정종길 기자
jk2@chosunbiz.com
고객님만을 위한 맞춤 차량
