구글 클라우드, 7세대 TPU로 AI 추론 시장 정조준
||2025.11.07
||2025.11.07
[디지털투데이 황치규 기자]구글 클라우드(Google Cloud)가 7일AI 추론(Inference) 시장을 겨냥한 7세대 TPU ‘아이언우드(Ironwood)’ 정식 출시(GA)와 새로운 Arm 기반 악시온(Axion) 가상 머신(VM) 인스턴스 프리뷰 버전을 발표했다.
구글 클라우드는 4월 구글 클라우드 넥스트 2025(Next 2025) 행사에서 아이언우드 프리뷰 버전으로 공개했고 몇 주 내에 정식 출시한다.
회사 측에 따르면 아이언우드는 거대 모델 학습, 복잡한 강화학습(RL), 대용량·저지연 AI 추론 등과 같은 AI 워크로드를 처리하도록 설계됐다. TPU v5p 대비 최대 10배 향상된 성능과 트릴리움(TPU v6e) 대비 칩당 최대 4배 향상된 학습 및 추론 작업 성능을 제공한다.
아이언우드는 구글 클라우드 통합 AI 슈퍼컴퓨팅 시스템 ‘AI 하이퍼컴퓨터(Hypercomputer)’ 핵심 구성 요소로, 컴퓨팅·네트워킹·스토리지·소프트웨어를 통합해 시스템 전반 성능과 효율성을 개선한다.
최대 9216개 칩으로 구성된 슈퍼포드(superpod)로 확장할 수 있으며, 초고속 인터칩 인터커넥트(ICI) 네트워킹 기술로 연결돼 9.6Tb/s 속도를 구현한다. 이를 통해 1.77 페타바이트(PB)의 공유 고대역폭 메모리(HBM)에 액세스해 복잡한 AI 모델에서 발생하는 데이터 병목 현상을 최소화한다.
이외에도 아이언우드는 광회로 스위칭(Optical Circuit Switching, OCS) 기술을 적용해 네트워크 장애가 발생해도 실시간으로 경로를 재구성하여 서비스 중단 없이 워크로드를 복구할 수 있다. 성능 향상이 필요한 경우에는 수십만 개 TPU를 클러스터로 확장할 수 있다.
앤트로픽(Anthropic)은 아이언우드 기반으로 클로드(Claude) 모델 학습부터 수백만 명 사용자에게 서비스를 제공하기 위한 환경 구축을 가속화하고 있다. 앤트로픽은 향후 최대 100만개 TPU를사용할 계획이다.
구글 클라우드는 ARM 네오버스(Arm Neoverse®) 기반 맞춤형 CPU인 ‘액시온’ 제품군도 확장했다. 아이언우드가 모델 서비스 복잡한 작업을 처리하는 동안, 액시온은 고용량 데이터 준비, 수집, 지능형 애플리케이션 호스팅과 같은 운영 상의 백본(backbone) 역할을 수행한다.
이번에 프리뷰 버전으로 공개된 N4A는 구글 클라우드 두 번째 범용 악시온 VM으로 현 세대 동급 x86 기반 VM 대비 최대 2배 우수한 가격 대비 성능을 제공한다. 마이크로서비스, 컨테이너화된 애플리케이션, 오픈소스 데이터베이스, 데이터 분석 및 웹 서비스 작업 등에 적합하다.
구글 클라우드는 첫 Arm 기반 베어메탈 인스턴스(bare-metal instance)인 C4A 메탈(C4A metal)도 조만간 프리뷰 버전으로 출시할 예정이다. C4A 메탈은 안드로이드 개발, 차량 내 시스템, 엄격한 라이선스가 필요한 소프트웨어, 복잡한 시뮬레이션 실행과 같은 전문화된 워크로드를 위한 전용 물리 서버를 제공한다.
구글 클라우드는 액시온 포트폴리오에 N4A, C4A, C4A 메탈을 포함한 세 가지 옵션을 제공함으로써, 고객이 원하는 성능과 워크로드별 요구사항에 부응하면서도 비즈니스 운영의 총 비용을 낮출 수 있도록 지원할 계획이다.
마크 로메이어(Mark Lohmeyer) 구글 클라우드 AI 및 컴퓨팅 인프라 부문 부사장 겸 총괄 매니저는 “에이전트 워크플로와 컴퓨팅 수요 기하급수적인 증가는 오늘날 추론의 시대를 새롭게 정의하고 있다. 구글 클라우드는 10년 전 처음 선보인 TPU를 비롯해 이러한 전환을 이미 오래 전부터 대비해 왔다”면서 “하드웨어부터 소프트웨어, 관리형 서비스까지 통합된 풀 스택 AI 하이퍼컴퓨터를 바탕으로, 구글 클라우드 고객은 아이언우드와 액시온을 비롯한 다양한 컴퓨팅 옵션을 조합해 가장 까다로운 워크로드에도 최적의 유연성과 성능을 확보할 수 있을 것”이라고 말했다.
고객님만을 위한 맞춤 차량
