SK하이닉스, 새 공장에 146억달러 투자 HBM 시장의 향방은 / 5/20(월) / EE Times Japan
AI(인공 지능) 반도체 성능을 가속화하는 HBM(광대역폭 메모리)으로 업계를 선도하는 SK 하이닉스는 한국의 새 공장 M15X에 20조원(약 146억 달러) 이상을 투입할 예정인 것으로 알려졌다.
동사는, 2024년 4월 24일에 발표한 보도용 자료 중에서, 「급증하는 수요에 대응해, 시장 리더쉽을 강화할 수 있도록, 2025년 11월까지의 M15X 완성을 목표로 한다」라고 했다. 동공장은 한국·청주시에 건설 예정으로, 차세대 DRAM/HBM의 생산 능력을 확대해 나갈 예정이다.
SK hynix의 CEO(최고경영자)인 Kwak Noh-Jung 씨는 발표자료에서 "M15X는 AI 메모리를 세계에 공급하는 중요한 시설이 될 것이며 당사의 현재와 미래를 연결하는 발판으로서 매우 중요한 역할을 담당할 것이다. 이번 투자가 민간부문을 넘어 폭넓은 국내 경제의 미래에 기여하기 위한 큰 도약이 될 것으로 확신한다" 고 말했다.
동사는 메모리 시장의 성장에 대해서, 「AI 시대의 도래에 의해, 메모리 시장은 중장기적인 성장 단계에 들어갔다. HBM 시장은 연간 성장률 60% 이상으로 성장하고, 범용 D램의 수요도 서버용 대용량 DDR5 모듈 제품에 의해 견인되어 착실히 증가해 갈 전망이다」라고 하고 있다.
◇ HBM 시장에서 홀로 승승장구 중인 SK 하이닉스 수요도 호조
Semi Analysis의 치프 애널리스트인 Dylan Patel 씨는 미국 EE Times의 취재에 응해, 「SK hynix는, HBM 시장의 리더적 존재이며, HBM3에서는 85%이상, HBM 전체에서는 70%이상의 점유율을 획득하고 있다」라고 말한다. 그에 따르면 SKhynix는 특히 HBM3E/HBM4의 시장점유율을 유지하기 위해 투자를 하고 있다.
그는, 경합 메모리 메이커인 Micron Technology(이하, Micron)와 Samsung Electronics(이하, Samsung)에 대해 「현재로서는, 성능이나 전력 효율의 면에서는 SK hynix에는 미치지 않는다. 삼성은 HBM 생산 능력에는 여유가 있지만 가장 빠른 HBM3를 만들 수 없다고 지적한다.
Objective Analysis의 제너럴 디렉터인 Jim Handy씨에 의하면, 고성능 HBM의 수요가 단기적으로 침체해 가는 징후는 거의 보이지 않는다고 한다. 그는 미국 EE Times의 취재에 대해, 「AI는 모두의 새로운 장난감과 같은 것으로, 대규모 언어 모델(LLM)에의 흥미도 머지않아 사라져 갈지도 모른다. 그러나 그렇게 된다고 해도, 현재 표준적인 서버가 담당하고 있는 길안내나 언어 번역, 타겟 광고, 기본적인 검색등의 AI 태스크의 효율을 향상시키기 위한 AI 프로세서 이용에는 관심이 높아질 뿐이다」라고 말하고 있다.
◇ SK하이닉스-TSMC HBM4 개발 협력
2024년 4월 SK hynix는 TSMC와 차세대 HBM 개발/제조 및 선진 패키징 기술을 통한 로직과 HBM의 통합 강화에 대해 합의했다고 밝혔다. 이 파트너십을 통해 SK하이닉스는 6세대 HBM 제품군인 HBM4 개발을 추진할 계획이며 2026년 생산을 시작할 예정이다.
양사는 HBM 패키지의 바닥에 탑재하는 베이스 다이의 성능 향상을 목표로 하고 있다. SK하이닉스는 HBM3E 세대까지는 자체 기술로 베이스다이를 제조해 왔지만 HBM4에서는 한정된 공간에 추가 기능을 넣을 수 있도록 TSMC의 선진 로직 프로세스를 적용할 계획이다. 이것에 의해서, 성능이나 전력 효율의 보다 폭넓은 요건에 맞추어 HBM을 커스터마이징 할 수 있게 된다.
TSMC에 따르면 이 회사는 오랜 기간 SK 하이닉스와 강력한 파트너십을 구축해 왔다고 한다. TSMC의 비즈니스 개발 담당 시니어 바이스 프레지던트인 Kevin Zhang씨는 「우리는 최첨단 로직과 최첨단 HBM의 통합에서도 제휴해, 세계를 리드하는 AI 솔루션을 제공해 간다. 차세대 HBM4를 바라보면서 고객을 향해 새로운 AI 이노베이션을 풀어나갈 수 있도록 계속 밀접하게 협력하겠다고 말했다. 두 회사는 SK하이닉스의 HBM과 TSMC의 선진 패키징 기술인 CoWoS(Chip on Wafer on Substrate) 통합을 최적화하기 위해 노력하고 있다.
◇ Samsung/Micron도 점유율 확대 노린다
분석가 Handy와 Patel은 AI 용도로 HBM 대체품은 거의 없다는 데 동의하고 있다. Patel 씨는 「시장에 HBM을 대신할 것은 없다. LPDDR5X나 GDDR7을 이용하려고 시도하는 사람도 있지만 대역폭이 훨씬 낮다고 말했다.
GDDR도 또 AI 프로세서나 GPU와 자주 조합되는 고속 메모리이지만, Handy 씨에 의하면 이러한 프로세서 중에는 내장 SRAM을 사용하는 것도 있고, 표준적인 DDR나 LPDDR로 능가하는 것도 있다고 한다.
"모든 것은 비용 대비 효과의 문제다. HBM은 궁극적인 성능을 제공하지만 용도에 따라 허용할 수 없는 가격으로 돼 있다."
세계 최대 메모리 업체인 삼성은 HBM 사업에서 SK hynix를 따라잡는 것을 목표로 하고 있다. 이 회사는 2월 업계 최초로 12층 HBM3E D램인 HBM3E 12H를 개발했다고 발표했다. 2024년 전반까지 상업 생산을 시작하는 것이 목표다.
국내 보도에 따르면 삼성은 AMD와 4조원(약 29억 1000만 달러) 상당의 HBM3E 공급 계약을 맺었고, 두 회사는 AI 사업에서 1등 경쟁자인 엔비디아와 SK하이닉스를 따라잡는 것을 목표로 하고 있다.
Handy 씨에 의하면, Samsung은 HBM의 생산에서 리더쉽을 얻으려고 계획하고 있다고 한다. 「Samsung은 어떻게 해서든 시장의 리더가 되려고 하고 있다. 그것이 Samsung의 기업 문화로, 참가하는 모든 시장을 지배하는 것을 노린다. 메모리 메이커 3위의 Micron은, DRAM 시장 전체에 있어서의 동사의 점유율과 같은 정도의 점유율을 HBM 시장에서도 목표로 하고 있다」라고 Handy 씨는 덧붙였다.
【번역 : 아오야마 마유코 / 다나카 루미, 편집 :EE Times Japan】
EE Times Japan
https://news.yahoo.co.jp/articles/02543d5418dab8e168f6dbf53b551b797e30eff0?page=1
SK Hynixは新工場に146億ドルを投資へ HBM市場のゆくえは
5/20(月) 13:35配信
EE Times Japan
M15Xの完成予想図[クリックで拡大] 出所:SK hynix
AI(人工知能)半導体の性能を加速させるHBM(広帯域幅メモリ)で業界をリードするSK hynixは、韓国の新工場「M15X」に20兆ウォン(約146億米ドル)以上を投じる予定だという。
同社は、2024年4月24日に発表した報道向け資料の中で、「急増する需要に対応し、市場リーダシップを強化すべく、2025年11月までのM15X完成を目指す」とした。同工場は韓国・清州市に建設予定で、次世代DRAM/HBMの生産能力を拡大していく予定だ。
SK hynixのCEO(最高経営責任者)であるKwak Noh-Jung氏は発表資料の中で、「M15Xは、AIメモリを世界に供給する重要な施設になり、当社の現在と未来をつなぐ足掛かりとして極めて重要な役割を担うだろう。今回の投資が民間部門の枠を超えて、幅広い国内経済の未来に貢献するための大きな飛躍になると確信している」と述べる。
同社はメモリ市場の成長について、「AI時代の到来により、メモリ市場は中長期的な成長段階に入った。HBM市場は年間成長率60%以上で成長し、汎用DRAMの需要もサーバ向け大容量DDR5モジュール製品によってけん引され、着実に増加していく見込みだ」としている。
HBM市場で一人勝ち状態のSK hynix 需要も好調
SemiAnalysisのチーフアナリストであるDylan Patel氏は米国EE Timesの取材に応じ、「SK hynixは、HBM市場のリーダー的存在であり、HBM3では85%以上、HBM全体では70%以上のシェアを獲得している」と述べる。同氏によるとSK hynixは、特にHBM3E/HBM4の市場シェアを維持するために投資を行っているという。
同氏は、競合メモリメーカーであるMicron Technology(以下、Micron)とSamsung Electronics(以下、Samsung)について「現在のところ、性能や電力効率の面ではSK hynixには及ばない。SamsungはHBMの生産キャパシティーには余裕があるが、最速のHBM3を製造することができない」と指摘する。
Objective AnalysisのゼネラルディレクターであるJim Handy氏によると、高性能HBMの需要が短期的に低迷していく兆候はほとんどみられないという。同氏は米国EE Timesの取材に対し、「AIはみんなの新しいおもちゃのようなもので、大規模言語モデル(LLM)への興味もやがて消えていくかもしれない。しかしそうなったとしても、現在標準的なサーバが担っている道案内や言語翻訳、ターゲット広告、基本的な検索などのAIタスクの効率を向上させるためのAIプロセッサ利用には関心が高まる一方だ」と述べている。
SK hynixとTSMCは「HBM4」の開発で協力
2024年4月、SK hynixはTSMCとの間で、次世代HBMの開発/製造ならびに先進パッケージング技術によるロジックとHBMの統合強化について合意したことを明らかにした。このパートナーシップを通じて、SK hynixは第6世代のHBM製品群である「HBM4」の開発を進める計画で、2026年の生産開始を予定している。
両社はHBMパッケージの底に搭載するベースダイの性能向上を目指している。SK hynixはHBM3E世代までは自社技術でベースダイを製造してきたが、HBM4では限られたスペースに追加機能を組み込めるよう、TSMCの先進ロジックプロセスを適用する計画だ。これによって、性能や電力効率のより幅広い要件に合わせてHBMをカスタマイズできるようになる。
TSMCによると、同社は長年にわたりSK hynixと強力なパートナーシップを築いてきたという。TSMCのビジネス開発担当シニアバイスプレジデントであるKevin Zhang氏は「われわれは最先端ロジックと最先端HBMの統合でも連携し、世界をリードするAIソリューションを提供していく。次世代のHBM4を見据えながら、顧客に向けて新たなAIイノベーションを解き放てるよう、引き続き密接に協力する」と述べた。両社は、SK hynixのHBMとTSMCの先進パッケージング技術「CoWoS」(Chip on Wafer on Substrate)の統合の最適化を目指している。
Samsung/Micronもシェア拡大を狙う
アナリストのHandy氏とPatel氏は、AI用途でHBMの代替品はほとんどないということに同意している。Patel氏は「市場にHBMに代わるものはない。LPDDR5XやGDDR7を用いようと試みる向きもあるが、帯域幅がはるかに低い」と述べた。
GDDRもまたAIプロセッサやGPUとよく組み合わされる高速メモリだが、Handy氏によればこれらのプロセッサの中には内蔵SRAMを使うものもあれば、標準的なDDRやLPDDRでしのぐものもあるという。
「全ては費用対効果の問題だ。HBMは究極の性能を提供するが、用途によっては許容できない価格になっている」(同氏)
世界最大のメモリメーカーであるSamsungは、HBM事業でSK hynixに追い付くことを目指している。同社は2月、業界初の12層HBM3E DRAMである「HBM3E 12H」を開発したと発表した。2024年前半までに商業生産を開始することが目標だ。
韓国での報道によると、SamsungはAMDと4兆ウォン(約29億1000万米ドル)相当のHBM3E供給契約を結んでいて、両社はAI事業でトップライバルのNVIDIAとSK hynixに追い付くことを目指しているという。
Handy氏によると、SamsungはHBMの生産でリーダーシップを得ようと計画しているという。「Samsungは何としても市場のリーダーになろうとしている。それがSamsungの企業文化で、参入する全ての市場を支配することを狙う。メモリメーカー3位のMicronは、DRAM市場全体における同社のシェアと同程度のシェアをHBM市場でも目指している」とHandy氏は付け加えた。
【翻訳:青山麻由子/田中留美、編集:EE Times Japan】
EE Times Japan