엔비디아와 AMD의 AI 개발로 하반기까지 HBM3e가 주류 시장 지배력을 확보할 것으로 보인다
트렌드포스(TrendForce)는 엔비디아와 AMD의 주요 GPU 제품에 대한 HBM의 세 가지 주요 트렌드와 2024년 이후 계획된 사양을 확인했다. 첫째, HBM3에서 HBM3e로의 전환이 예상된다. 엔비디아는 2024년 하반기부터 HBM3e를 탑재한 H200의 출하량을 확대해 H100을 대체할 것으로 예상된다. 이후 GB200 및 B100과 같은 다른 모델도 HBM3e를 채택할 예정입니다. 한편, AMD는 연말까지 새로운 MI350을 출시할 계획이며 그 동안 HBM3e를 사용하는 H200과 경쟁하기 위해 MI32x와 같은 중간 모델을 출시할 수 있습니다.
둘째, AI 서버의 전반적인 컴퓨팅 효율성과 시스템 대역폭을 높이기 위해 HBM 용량을 지속적으로 확장할 것입니다. 현재 시장은 80GB HBM이 탑재된 NVIDIA H100을 주로 사용하며, 2024년 말까지 192GB에서 288GB 사이로 증가할 것으로 예상됩니다. MI300A의 128GB를 시작으로 AMD의 새로운 GPU도 최대 288GB까지 증가할 것입니다.
셋째, HBM3e를 탑재한 GPU 라인업은 8Hi 구성에서 12Hi 구성으로 진화할 것입니다. 엔비디아의 B100과 GB200은 현재 192GB 용량의 8Hi HBM3e를 탑재하고 있으며, 2025년까지 B200 모델에는 12Hi HBM3e를 탑재해 288GB를 달성할 계획이다. 올해 말 출시 예정인 AMD의 MI350과 2025년 출시 예정인 MI375 시리즈는 모두 12Hi HBM3e와 함께 제공될 것으로 예상되며 288GB에 달할 것으로 예상됩니다.