클로드 코드 유출에 비친 메모리 수요 사각지대…"반도체 더 필요"
||2026.04.03
||2026.04.03
[디지털투데이 석대건 기자] 앤트로픽 AI 코딩 에이전트인 클로드코드(Claude Code)의 내부 소스코드가 외부에 공개되면서, AI 메모리 반도체 수요가 기존 추정보다 클 수 있다는 전망이 업계에서 나오고 있다. 유출 소스코드로 인해 시장이 아직 가격에 반영하지 못한 AI 에이전트 인프라 수요 사각지대가 드러났다
지난달 31일 미국 보안 기업 퍼즐랜드(Fuzzland) CTO인 차오판 쇼(Chaofan Shou)는 npm 레지스트리에 배포된 클로드코드 버전 2.1.88 패키지에 내부 디버깅용 소스맵 파일이 그대로 포함된 사실을 발견하고 이를 공유했다. 해당 파일로 인해 약 51만2000줄의 코드베이스가 외부에 공개됐다. 이에 앤트로픽은 "고객 데이터나 자격증명은 포함되지 않았으며, 보안 침해가 아닌 패키징 과정의 인간 오류"라고 밝혔다.
유출 코드에서 확인된 메모리 사용량은 아무 작업도 하지 않는 유휴 상태에서 15GB, 사용자가 실제로 작업하는 활성 상태에서는 최대 8~9배 수준이다. 이는 서버가 아닌 개발자 PC 한 대의 수치다.
메모리 소비가 이처럼 큰 이유는 코드 내부에 설계된 기능 구조에서 확인된다. 클로드코드는 사용자의 자연어 요청을 받아 AI가 어떤 도구를 써야 하는지 판단하고, 권한 확인을 거쳐 실행한 뒤 결과를 다시 AI에게 돌려주는 과정을 반복하는 구조다.
또 코드 내부에는 카이로스(KAIROS)라는 기능이 설계돼 있는데, 카이로스(KAIROS)는 이 과정이 사용자 개입 없이도 백그라운드에서 지속되도록 설계된 상시 에이전트 모드다. 사용자가 자리를 비운 동안에도 클로드코드가 계속 실행되는 만큼, 메모리는 상시 점유된다.
여기서 오토드림(AutoDream) 기능은 사용자가 쉬는 동안 쌓인 작업 기록을 정리하기 위해 별도의 클로드 세션을 추가로 구동한다. 사용자가 작업하지 않는 동안에도 시스템이 자기 정리를 위해 별도의 추론 연산을 돌리는 구조다. 이와 같이 이 정리 작업이 정교해질수록 그에 필요한 연산량과 메모리 소비도 함께 늘어난다.
게다가 코드에는 클로드가 한 번에 처리할 수 있는 대화 분량을 기존보다 5배 늘린 기능도 이미 구현돼 있다. 대화 분량이 늘어날수록 이를 임시 저장하는 데 필요한 서버 메모리도 같은 비율로 증가한다. 여기에 한 명의 사용자가 동시에 5~15개 에이전트를 운용하는 멀티에이전트 구조와 카이로스의 상시 세션이 결합되면, 사용자 1인당 메모리 소비는 사용자 수보다 훨씬 빠른 속도로 늘어난다.
◆엔비디아·Arm의 CPU 강화 행보와 맞아 떨어져
지금까지 AI 메모리 수요 분석은 H100·B200의 고대역폭메모리(HBM), 즉 서버 인프라 중심으로 이뤄져 왔다. 이처럼 AI 메모리 수요를 사용자 수 증가에 비례하는 구조로 추정했던 것과는 달리 오히려 더 필요해진 셈이다.
초기 생성형 AI는 사용자 입력에 답변을 생성하는 단순 응답형 구조로, 연산 병목이 GPU 중심의 연산 구간에 집중됐다. 그러나 클로드코드처럼 직접 행동하는 AI 에이전트 워크로드는 다층 실행 구조다. 유출 코드에서 확인된 것처럼 클로드코드는 사용자 요청을 해석하고, 외부 도구를 호출·실행하고, 그 결과를 다시 반영해 추가 판단을 반복한다.
이 과정에서 작업 순서 조율, 데이터베이스 접근, 외부 도구 호출, 세션 및 메모리 관리를 담당하는 것이 CPU다. GPU가 AI 연산 자체를 처리한다면, CPU는 그 연산이 올바른 순서로 올바른 데이터를 받아 실행되도록 전체 흐름을 관리하는 역할이다. 유출된 소스코드 속 카이로스와 오토드림은 이 다층 실행 구조가 실제로 구현된 사례로 볼 수 있다.
최근 엔비디아와 Arm이 CPU를 강조한 배경이 유출 코드를 통해 구체적으로 확인된 셈이다. 유진투자증권에 따르면 엔비디아는 최적의 데이터센터 클러스터 랙 시스템으로 베라 루빈 파드(Vera Rubin Pod)를 제시했다. NVL72 랙 기준 33%였던 CPU 비중이 VR 파드 기준으로는 49%까지 확대했다. 이같이 베라 CPU 랙이 별도로 출시한 것 역시 AI 에이전트 확산에 맞춰 메모리 병목을 대비해 CPU 중요도 증가를 반영한 변화로 해석된다.
Arm도 AGI CPU를 랙 시스템으로 제공한다는 계획을 발표했다. 유진투자증권에 따르면 Arm은 AI 에이전트 시장 개화로 데이터센터용 CPU 시장 규모가 2030년까지 1000억달러(약 144조원)에 달할 것으로 전망했다. 향후 5년 내 AGI CPU 매출이 연간 150억달러를 달성할 것이라는 Arm의 자체 전망도 이 맥락으로 볼 수 있다.
고객님만을 위한 맞춤 차량
