AMD 차세대 GPU에 삼성·마이크론 HBM3E 탑재 … 엔비디아와 정면 승부 [AMD AAI 2025]
||2025.06.13
||2025.06.13
AMD가 12일(현지시각) 미국 캘리포니아주 새너제이(San Jose)에서 개최한 ‘AMD 어드밴싱 AI(Advancing AI)’ 행사에서 공개한 차세대 그래픽처리장치(GPU)인 인스팅트(Instinct) MI350 시리즈에 삼성전자와 마이크론의 HBM3E 메모리가 탑재되는 것으로 확인됐다. 삼성전자로서는 최근 엔비디아의 GPU에 HBM을 납품하는데 어려움을 겪고 있던 상황에서 국면 전환을 위한 사례로 주목된다.
AMD는 12일 공식 발표한 인스팅트 MI350 시리즈의 HBM 공급처에 대해 삼성전자와 마이크론의 제품이 사용된다고 공식 답변했다. AMD의 인스팅트 MI350 시리즈에는 12단 적층(12Hi) 구성과 8Gbps 성능을 가진 36GB HBM3E 메모리가 8개 탑재돼 총 288GB 메모리 용량과 8TB/s 대역폭을 구현한다.
현재 시장에서 HBM3E급 메모리를 사용하는 제품은 많지 않은 상황이다. 대표적으로 엔비디아의 ‘호퍼(Hopper)’ 아키텍처 기반 H200이나 ‘블랙웰’ 아키텍처 기반 B200, ‘블랙웰 울트라’로 알려진 ‘B300’ 등에서 사용된다. 현재 HBM 메모리를 사용하는 GPU 기반 AI 인프라에서 엔비디아의 비중은 절대적이었던 만큼, 이 시장에 사용되는 HBM 메모리 제조사 또한 SK하이닉스와 마이크론 등으로 한정돼 온 바 있다.
삼성전자는 지난 2024년 2월 12단 적층 구성의 5세대 HBM인 HBM3E 메모리를 개발했다고 공식 발표한 바 있다. 12단 적층 구성의 HBM3E는 최대 1280GB/s 대역폭과 36GB 메모리 용량을 제공해, 성능과 용량 모두 이전 세대인 HBM3 8층 적층 구성 대비 50% 이상 개선된 바 있다. 당시 삼성전자는 이 메모리를 ‘어드밴스드 TC NCF(열압착 비전도성 접착 필름)’ 기술로 8단 적층 구성과 동일한 높이에서 12단 적층 구성을 완성했다고 밝힌 바 있다.
하지만 삼성잔자의 HBM3E 메모리는 지금까지 시장에서 제대로 활용처를 찾지 못해 왔다. 발표 이후 지속적으로 엔비디아의 GPU에 채택을 타진했지만 엔비디아는 삼성전자의 HBM3E 제품 사용에 대해 지속적으로 검토하고 있다는 원론적 입장을 언급했고 성과로 이어지지는 않은 상태다.
이런 상황에서 AMD가 자사의 플래그십 AI GPU에 삼성 메모리를 채택한 것은, 삼성으로서는 기술력 입증과 동시에 납품 실적 확보라는 두 마리 토끼를 잡은 셈이다.
한편, 이번에 선보인 AMD의 인스팅트 MI350 시리즈 GPU는 ‘CDNA 4’ 아키텍처를 기반으로 기존 대비 더 향상된 성능과 내부 데이터 전송 대역폭을 갖춰 AI에 최적화된 점이 특징이다. 최대 288GB의 HBM3E 메모리를 탑재했고, 와트당 메모리 성능은 1.3배, 컴퓨트 유닛당 메모리 성능은 1.5배 높아졌다. 또한 연산 성능에서는 행렬 연산 성능에서 이전 세대 대비 두 배 가까이 성능이 향상됐고, 이전 세대에서 지원되지 않던 FP4 형식을 지원해 FP8 대비 두 배 성능을 제공할 수 있게 됐다.
새너제이=권용만 기자
yongman.kwon@chosunbiz.com
고객님만을 위한 맞춤 차량