‘루빈은 시작일 뿐’...엔비디아, '랙-랙 결합'으로 AI 팩토리 병목 푼다
||2026.03.17
||2026.03.17
[디지털투데이 석대건 기자] 엔비디아가 차세대 AI 인프라 전략의 무게중심을 랙 스케일 시스템 협력으로 옮긴다. 지금까지의 단일 기기 중심 'GPU 스펙 경쟁 종료'를 선언한 셈이다. 이를 통해 엔비디아는 칩 판매 회사에서 AI 팩토리 전체를 설계하는 인프라 기업으로 자기 정의를 바꾸고 있다. 세계 최대 AI 반도체 수요 기업이자 공급 기업인 엔비디아가 전략을 전환함 따라 향후 공급망 전체 투자 방정식이 달라질 전망이다.
엔비디아가 미국 새너제이에서 열리는 GTC 2026 기조연설에서 공통 MGX 아키텍처 기반의 5종 랙 스케일 시스템을 공식 발표한다. 16일 열린 미디어 브리핑에서 공개된 각 시스템은 베라 루빈 NVL72, 그로크 3 LPX, 베라 CPU 랙, 블루필드4 STX 스토리지, 스펙트럼6 SPX가 하나의 AI 슈퍼컴퓨터를 구성한다.
엔비디아는 이를 "역사상 가장 큰 인프라 빌드아웃을 가능하게 하는 플랫폼"이라고 규정했다. 5개 랙 시스템은 공통 MGX 아키텍처를 통해 통합되며, 각 랙이 서로 다른 병목을 분담 해소하는 방식으로 작동한다. 루빈 세대 칩 7종의 경우 모두 양산 단계에 진입했다고 회사 측은 밝혔다.
이번 전략에는 AI 데이터센터에서 발생하는 컨텍스트·디코드 병목을 칩 단위가 아닌 시스템 단위로 해소하겠다는 의도가 담겨 있다.
엔비디아는 그록 인수로 확보한 LPU(언어처리장치) 기술을 GPU 랙과 물리적으로 결합했다. LPX 랙은 256개 LPU와 128기가바이트 SRAM을 탑재하며, 스펙트럼X 기반 전용 인터커넥트로 베라 루빈 랙과 연결된다. 두 랙은 서로 협력해 AI 모델의 모든 디코드 토큰을 레이어별로 함께 처리한다. GPU가 어텐션 연산을, LPU가 FFN(피드포워드 네트워크) 레이어를 각각 분담하는 방식이다.
이를 토대로 1조 매개변수 모델 기준 초당 500토큰, 백만 토큰당 45달러의 서비스 단가를 달성하며 기존 대비 처리량을 35배 끌어올린다고 엔비디아는 밝혔다. LPX 랙은 올 하반기 베라 루빈과 동시 출시될 예정이다.
◆한국 메모리·소부장, HBM4·AI팩토리 이중 수혜 가능성
이번 엔비디아가 선언한 구조 변화는 메모리 시장에도 직접적인 영향을 주게 됐다. 현재 베라 루빈 NVL72에는 GPU당 288기가바이트의 HBM4가 탑재되는데, LPX는 500메가바이트 SRAM에 의존하는 구조여서 HBM과 직접 경쟁하지 않는다.
오히려 GPU 랙의 역할이 고부가가치 어텐션 연산에 집중되는 구조상, 루빈 플랫폼 전체에서 HBM4 탑재 밀도는 이전 세대보다 높아진다. 엔비디아가 단일 GPU당 HBM 탑재량을 늘리는 방향으로 세대를 전환해 온 추세가 루빈 세대에서도 이어지는 셈이다.
업계에서는 이번 GTC 발표가 AI 인프라 투자의 질적 전환점으로 보고 있다. 랙 단위 통합설계 전략이 확산될 경우, 단순 칩 성능보다 시스템 통합 역량을 갖춘 공급망 참여자들이 더 큰 수혜를 받을 가능성이 높다.
한국 메모리 업체들에게는 HBM4 수주 확대라는 직접적 기회가 열리고, AI 팩토리 확장에 따른 전력·장비 수요 증가는 관련 소부장 기업들에도 낙수효과로 이어질 것이란 분석이 나온다. 엔비디아 공급망 전반의 수혜 폭은 GPU 단일 공급보다 한층 넓어질 전망이다.
트렌드포스는 올해 HBM3E·HBM4 전환 수요가 빠르게 증가할 것으로 분석한 바 있다. SK하이닉스는 HBM 시장 점유율 1위를 유지하는 가운데, 삼성전자도 HBM4 공급 본격화를 준비 중이다.
◆에이전틱 AI, GPU를 넘어 CPU 수요도 폭발
GPU 외에도 새로운 수요처도 열리고 있다. 엔비디아는 현재 에이전트 기반 AI 워크로드가 확산하면서 코드 컴파일, SQL 쿼리, 파이썬 실행 등 툴 호출 과정에서 CPU 부하가 급격히 증가하고 있다고 평가했다. 이 수요에 대응하기 위해 자체 설계 CPU '베라'를 루빈 플랫폼에 편입시켰다고 설명했다.
베라는 AI 실행에 최적화된 신규 코어 아키텍처 '올림푸스 코어'를 채택했으며, x86 대비 코어당 메모리 대역폭 3배, 에너지 효율 2배, 단일 스레드 성능 1.5배를 구현한다. 베라 CPU 랙 1기에는 베라 CPU 256개와 메모리 400테라바이트, 초당 메모리 대역폭 300테라바이트가 탑재된다. 메타의 오픈DC퍼프 벤치마크에서 전 세대 그레이스 대비 2배 성능 향상을 기록했다고 엔비디아는 밝혔다.
에이전틱 AI 수요 확대는 AI 팩토리 내 컴퓨팅 구성 자체를 바꾸게 된다. 엔비디아는 고정 전력 환경에서 AI 컴퓨팅 자원을 30% 더 배치할 수 있는 루빈 DSX 플랫폼도 함께 발표할 예정이다. 아울러 AI 팩토리 운영 효율화 수요가 본격화되면서 전력·냉각 관련 장비 시장에도 구조적 성장 압력이 형성될 전망이다. 엔비디아는 이번 플랫폼에 200개 이상의 데이터 인프라 파트너사와 함께 구축한다고 밝혔다.
고객님만을 위한 맞춤 차량
