마크 저커버그, 메타는 엔비디아 AI 칩에 수십억 달러를 지출 중
메타는 Nvidia에 수십억 달러를 지출하고 있습니다. 인공 지능 연구 및 프로젝트의 핵심인 인기 있는 컴퓨터 칩입니다.
저커버그는 AI에 대한 회사의 ”미래 로드맵”에서는 ”대규모 컴퓨팅 인프라”를 구축해야 한다고 말했습니다. Zuckerberg는 2024년 말까지 인프라에 Nvidia의 H100 그래픽 카드 350,000개가 포함될 것이라고 말했습니다 .
Zuckerberg는 회사가 이미 얼마나 많은 그래픽 처리 장치(GPU)를 구입했는지 밝히지 않았지만 H100은 2022년 말까지 시장에 출시되지 않았으며 공급이 제한되어 있었습니다.
Raymond James의 분석가들은 Nvidia가 H100을 $25,000~$30,000에 판매하고 있으며 eBay에서 판매하고 있다고 추정합니다. 비용은 $40,000 이상일 수 있습니다 . Meta가 가격대의 가장 낮은 수준에서 비용을 지불한다면 이는 90억 달러에 가까운 지출이 될 것입니다.
또한 Zuckerberg는 Meta의 컴퓨팅 인프라에 ”다른 GPU를 포함하면 거의 600,000 H100에 해당하는 컴퓨팅”이 포함될 것이라고 말했습니다. 12월에는 Meta, OpenAI, Microsoft 와 같은 기술 기업이 그들은 AMD의 새로운 Instinct MI300X AI 컴퓨터 칩을 사용할 것이라고 말했습니다.
Meta는 인공 일반 지능(AGI) 연구를 추구하기 때문에 이러한 강력한 컴퓨터 칩이 필요합니다. Zuckerberg는 이를 회사의 ”장기 비전”이라고 말했습니다. OpenAI와 Google의 DeepMind 부서도 인간 수준의 지능에 필적하는 미래형 AI인 AGI를 연구하고 있습니다.
Meta의 수석 과학자 Yann LeCun은 지난달 샌프란시스코에서 열린 미디어 행사에서 GPU의 중요성을 강조했습니다 .
당시 LeCun은 “AGI가 포함되어 있다고 생각한다면 더 많은 GPU를 구입해야 합니다”라고 말했습니다. 엔비디아 CEO 젠슨 황에 대해 르쿤은 “AI 전쟁이 있는데 그가 무기를 공급하고 있다”고 말했다.
Meta의 3분기 수익 보고서에서 회사는 부분적으로 컴퓨팅 확장으로 인해 2024년 총 비용이 940억~990억 달러에 이를 것이라고 밝혔습니다 .
저커버그는 애널리스트들과의 통화에서 “투자 우선순위 측면에서 AI는 엔지니어링과 컴퓨터 자원 모두에서 2024년 우리의 가장 큰 투자 영역이 될 것”이라고 말했다.
Zuckerberg는 목요일에 Meta가 아직 개발되지 않은 ”일반 지능”을 ”책임감있게 오픈 소스”할 계획이라고 밝혔으며, 이는 회사가 대규모 언어 모델인 Llama 제품군 에 대해서도 취하고 있는 접근 방식입니다 .
Meta는 현재 Llama 3를 교육하고 있으며 FAIR(Fundamental AI Research 팀)와 GenAI 연구팀이 더욱 긴밀하게 협력하도록 만들고 있다고 Zuckerberg는 말했습니다.
Zuckerberg의 게시물 직후 LeCun은 X에 게시한 게시물 에서 “진행을 가속화하기 위해 FAIR는 이제 AI 제품 부문인 GenAI의 자매 조직이 되었습니다”라고 말했습니다.
https://www.cnbc.com/2024/01/18/mark-zuckerberg-indicates-meta-is-spending-billions-on-nvidia-ai-chips.html?__source=iosappshare%7Ccom.apple.UIKit.activity.CopyToPasteboard
*** 본 정보는 투자 참고용 자료로서 그 정확성이나 완전성을 보장할 수 없으며, 어떠한 경우에도 법적 책임소재에 대한 증빙자료로 사용될 수 없습니다.