엔비디아, 차세대 AI 플랫폼 ‘루빈’ 공개
||2026.01.06
||2026.01.06
[디지털투데이 석대건 기자] 엔비디아가 CES 2026에서 차세대 AI를 위한 루빈(Rubin) 플랫폼을 출시했다고 6일 밝혔다.
루빈 플랫폼은 첨단 AI 슈퍼컴퓨터를 구현하도록 설계된 신규 칩 6종으로 구성된다. 6개 칩에는 베라(Vera)CPU, 루빈GPU, NV링크6스위치(NVLink 6 Switch), 커넥트X-9 슈퍼NIC(ConnectX-9 SuperNIC), 블루필드-4(BlueField-4) DPU, 스펙트럼-6 이더넷 스위치(Spectrum-6 Ethernet Switch)가 포함된다.
루빈 플랫폼은 6개 칩 전반에 걸쳐 고도의 공동 설계를 적용해 훈련 시간과 추론 토큰 비용을 절감한다. 토큰당 비용을 블랙웰(Blackwell) 플랫폼 대비 10배 절감하고 MoE 모델 훈련에 필요한 GPU 개수를 이전 대비 4배 절감했다. 이에 대해 회사는 최신 NV링크 인터커넥트 기술, 트랜스포머 엔진(Transformer Engine), 컨피덴셜 컴퓨팅(Confidential Computing), RAS 엔진(RAS Engine), 베라 CPU를 포함한 5개 기술을 도입한 결과라고 강조했다.
루빈은 현재 양산 단계에 있으며 루빈 기반 제품은 2026년 하반기에 파트너사를 통해 출시될 예정이다. 2026년 베라 루빈 기반 인스턴스를 가장 먼저 배포할 클라우드 제공업체로는 AWS, 구글 클라우드, 마이크로소프트, OCI를 비롯해 클라우드 파트너인 코어위브, 람다, 네비우스, 엔스케일 등이 있다. 마이크로소프트는 향후 페어워터(Fairwater) AI 슈퍼팩토리를 포함한 차세대 AI 데이터센터에 베라 루빈 NVL72 랙 스케일 시스템을 배포할 예정이다.
6세대 NV링크는 각 GPU당 3.6TB/s의 대역폭을 지원하고, 베라 루빈 NVL72 랙은 전체 인터넷보다 큰 260TB/s의 대역폭을 제공한다. 베라 CPU는 맞춤형 올림푸스(Olympus) 코어 88개와 Armv9.2 호환성, 초고속 NV링크-C2C 연결성을 갖췄다. 루빈 GPU는 하드웨어 가속 적응형 압축(adaptive compression) 기술을 지원하는 3세대 트랜스포머 엔진을 탑재해 AI 추론을 위한 50페타플롭의 NVFP4 컴퓨팅을 제공한다.
블루필드-4에는 고급 보안 신뢰 자원 아키텍처(ASTRA)를 도입했다. 이는 AI 인프라 빌더가 성능 저하 없이 대규모 AI 환경을 안전하게 프로비저닝, 격리, 운영할 수 있도록 신뢰 가능한 단일 제어점을 제공하는 시스템 수준의 신뢰 아키텍처다. 스펙트럼-X 이더넷 포토닉스 공동 패키징 옵티컬 스위치 시스템(Photonics co-packaged optical switch systems)은 AI 애플리케이션에 대해 10배 향상된 신뢰성과 5배 더 긴 가동 시간을 제공한다.
젠슨 황 엔비디아 창립자 겸 CEO는 "AI 훈련과 추론을 위한 컴퓨팅 수요가 어느 때보다도 급증하고 있는 가운데, 루빈의 등장은 매우 시의적절하다"며 "엔비디아는 매년 차세대 AI 슈퍼컴퓨터를 선보이고 있다. 이러한 가운데, 6개 칩에 고도의 공동 설계를 적용한 루빈은 AI의 새로운 지평을 향해 비약적인 발전을 이룰 것"이라고 말했다
고객님만을 위한 맞춤 차량
