H200은 인공지능(AI)용 반도체로, 현재의 주력 GPU 「H100의 성능을 웃돈다. 최신 AI 반도체를 잇따라 투입해 높은 시장 점유율 유지를 노린다.
엔비디아는 27일 H200의 성능 평가 결과를 밝혔다. 미국 메타의 대규모 언어 모델(LLM)의 'Llama(라마)2'에서 비교한 바, H200은 H100에 비해 생성 AI가 응답을 이끄는 처리 속도가 최대 45% 높아졌다고 한다. H100은 IT(정보기술) 대기업이 데이터센터에서 생성 AI 학습 등에 사용하는 주력 반도체다. 생성 AI 붐으로 수요가 급속히 높아져, 엔비디아의 실적 확대와 주가 상승을 견인했다
엔비디아는 18일 개발자 회의에서 차세대 AI 반도체 'B200'을 연내에 투입할 것이라고 발표했다. 이번 출하를 시작한 H200보다 더욱 신형 GPU가 된다. B200과 CPU(중앙 연산 처리 장치)를 조합한 신제품을 최신 LLM에 사용하면 처리 능력이 기존 제품에 비해 약 30배가 된다고 한다.
영국 옴디아에 따르면 엔비디아는 AI 반도체의 시장 점유율이 2022년에 약 80%였다. AI 반도체 분야에서는 AMD 등 경쟁 기업이 엔비디아에 대항하는 제품을 개발해 경쟁이 치열해지고 있다.