반도체 업데잇 보고서입니다.
제목은 커지는 Inference AI, featuring Hyperscalers. 입니다.
무슨 소린가 하실 수도 있는데 이전 보고서 Scale to Diversity와 일맥 상통하는 내용이고, 클라우드 3대장인 마이크로소프트, 아마존, 구글의 Inference AI의 현주소에 대한 내용입니다.
그리고 HBM 관련 숫자를 좀 더 업데잇 했습니다. 25년 수요가 다소 큰 폭으로 상향 조정되는 중인 것으로 들립니다.
마지막으로 삼성전자, SK하이닉스 2분기 실적 추정치 변경에 대한 내용입니다.
처음 내용은 데이타센터 관련 23년 , 24년 이야기입니다. 23년의 가장 큰 특징은 서버 매출은 22년 대비 16% 증가했는데 물량은 22% 감소했습니다.
23년에 다들 AI에 집중하다 보니 예산 부족에 걸릴 수 있다고 언급했었습니다. NVIDIA 서버 가격과 Intel 서버 가격의 차이도 같이 예를 들면서.
올해는 데이타센터들이 CAPEX를 전년 대비 28% 증가하면서 물량과 매출 모두 증가할 것으로 보입니다
그리고 NVIDIA는 AI 서버에서는 King Maker의 역할을 여전히 하고 있습니다. 올해 AI 관련 매출은 지난 해 대비 156% 증가한 870억 달러로 전망하고 있습니다.
1분기가 200억 달러를 넘겼으니 제가 보기엔 이를 상회할 가능성도 충분히 있어 보입니다. 아직 H200 매출이 본격화된 것도 아니고 CoWoS, HBM 모두 바틀넥이 해소된 시점이 아니라 그렇습니다.
그리고 소형 LLM 들이 많아지고 이에 대응하는 CPU, ASIC도 같이 많아지고 있다고 언급합니다.
마지막으로는 예전까지 서버 확장에서 DRAM이 중요 변수 였던 것에 비해서 이젠 CPU, Co processor이 더 중요해진다는 의견입니다.
두번째 내용은 추론 관련 도전이라 되어 있는데 추론 시장이 커지면서 어떻게 대응하는게 맞냐에 대한 솔루션인데
우선 Scale up에서 Scale out으로 바뀐다는 얘기입니다. 이건 투자를 할 떄 크게 성능이 좋은 장비로 구축하느냐 최소한의 증설과 효율성으로 간단히 구축할 것이냐에 대한 전략인데 추론에서는 scale out이 맞다고 봅니다.
Uniform vs. specialization은 Training과 Inference에 같은 장비를 쓸 것인지 차별화할 것인지에 대한 내용인데 장단점은 있지만 차별화가 비용이나 구성면에서 유리하다는 점이고 training에 비해서 Inference에 필요한 하드웨어 스펙이 높지 않다는 얘기입니다.
그리고 방금 얘기한 것의 연장선에 있는 내용인데 그래서 하드웨어를 어찌 구성할 것이냐인데 역시 다양한 솔루션을 제시하지만 High End GPU 보다는 Legacy, 또는 ASIC이 더 효율적으로 대응할 수 있다는 얘기입니다.
마지막으로 패러미터 기준으로 training, inference를 따로, 같이 했을 때 어떤 방법이 가장 나은 지에 대한 솔루션입니다.
다음은 Hyperscaler들의 전략 및 특징인데 내용이 다소 길어서 간단히 보면 가격 측면에서 아마존이 제일 유리하고, 기술적인면에서는 구글이, 그리고 완성도 특히 기업 지원에서는 마이크로소프트가 상대적 강점을 갖고 있다는 얘기입니다.
3사의 내용에 공통적으로 적용되는 것은 모두가 자체 칩을 확보했거나 개발 중이라는 점과 기존 장비에 대한 감가상각 기간을 연장하고 있다는 점입니다. 이유는 구형 GPU가 추론에는 쓸만하기 때문입니다.
다음 HBM 얘기인데요, 24,25년 물량을 상향했습니다. 이전 숫자가 24년이 80억Gb, 25년이 110억Gb이었는데 92억Gb, 140억Gb으로 상향했습니다.
실제 숫자를 조사하다 보면 헷갈리는게 CoWoS에서 발생하는 loss를 어찌 해석할 지이기도 한데
앞서 언급한 대로 ASIC으로 대응하는 서버에도 HBM을 사용하는 물량이 꽤 될 것이라는 전망입니다.
이 부분에 대해서는 여전히 전 좀 보수적이긴 합니다. 메이커들의 공급 능력이 정상적이지 않은 상황에서 수요 부분이 과대 포장 된 게 없지 않나 싶습니다. 최근 들리는 얘기로는 25년 HBM 수요 190억 Gb까지 올라갔다고도 합니다. 굳이 해석하자면 NVIDIA의 목표치가 들어간게 아닌가 싶긴 합니다.
앞에 내용으로 보면 NVIDIA GPU가 아닌 다른 대안들이 쏟아지고 있는 중인데 과연 High End GPU 시장이 주구장창 수요가 확대될지는 미지수입니다.
HBM3e 비중을 25%에서 35%로 상향조정했습니다. H200 물량이 예상보다 많을 것으로 봤습니다. 그리고 HBM 물량 상향 조정하면서 NVIDIA의 GPU 물량도 이전 대비로 좀 더 상향했습니다. 오차가 있겠지만 CoWoS 수율은 60~70%로 산정했습니다.
SK하이닉스가 부동의 1위임에는 이견이 없습니다. 최근 장비 관련 이슈가 있긴 하지만 당장에 HBM3 시장에 대응할 수 있는 업체는 올해는 없을 것으로 보입니다.
HBM3e 8Hi 역시 독점 시장이 될 것으로 보입니다.
HBM을 사용하는 ASIC이 있긴 합니다만 HBM3, HBM3e를 사용하 수 있는 GPU는 제한적일 것으로 보입니다. 그리 보면 대부분의 HBM은 아직은 NVIDIA가 거의 다 쓰고 있다고 봐도 무방할 것으로 보입니다.
TPU도 v4 까지는 16GB, 최근에서야 v5p에서 95GB로 많이 올리긴 했지만 NVIDIA의 절반 수준입니다. 아마도 3e를 사용할 것으로 보입니다. 그리고 AMD의 MI300은 최근 AMD의 실적을 보더라도 이렇다할 물량 규모는 아닌 것으로 보입니다.
CoWoS는 여전히 진화하고 있는 것으로 보입니다. 지금 보다 사이즈도 더 커지고 궁극적으로는 WoS로 진화할 것으로 보입니다.
마지막으로 QLC에 대해서 짧게 업데잇했습니다. 물량 기준으로 마이크론이 가장 많지만 서버용은 아니고 솔리다임이 생산 비중에서는 압도적으로 높은 수준입니다.
디램 수요는 서버에서 변화가 좀 생기고 있고, 나머지는 이전 전망 대비 부진할 전망입니다. 보고서에는 서버만 언급했습니다.
그리고 삼성전자 2분기 실적은 반도체 부분을 하향 조정했습니다. HBM 관련 노이즈가 실적에 반영될 것으로 추정했습니다. 2분기 영업이익을 7.57조원으로 하향했습니다.
SK하이닉스는 반대로 상향 조정했습니다. 이전 전망은 4조원 수준이었는데 4.78조원으로 상향햇습니다. NAND도 소폭 상향 했고, DRAM의 최근 가격 상승을 반영했습니다.
HBM 비중은 이전 전망 대비 하향 조정했습니다. 물량 본겨화는 3분기부터일 것으로 보입니다.
오락가락하는 업황에 방향잡기가 참 어렵습니다. 어제 주가 움직임은 더 헷갈리게 합니다.
업황에 대한 걱정을 당장에 할 이유는 없어 보입니다. 앞서 얘기한 대로 CoWoS 물량 확대와 HBM 물량 확대는 3분기부터 의미 있게 늘어나니 3분기 숫자가 확실히 튈 것 같습니다.
다만 수급이 실적을 그대로 따라가진 않을 것 같다는 점이 애매하고, 추론형이 확대될 것이라는 전망 역시도 HBM에 그리 긍정적인 변수만은 아니라 더 그렇습니다.
그럼에도 아직은 좀 더 갖고갈 필요는 있는 시점이라 생각됩니다. 시간이 지나면서 ASIC 시장 확대에 대한 영향과 25년 HBM 물량이 구체화되겠지만 단기적으로는 숫자에 집중하는게 맞는 전략이라 생각합니다.
- 동 자료는 컴플라이언스 규정을 준수하여 사전 공표된 자료이며, 고객의 증권 투자 결과에 대한 법적 책임소재의 증빙자료로 사용할 수 없습니다.
- 본 내용은 당사 컴플라이언스의 승인을 받아 발송되었습니다.