데이터 센터의 미래는 전력망에 큰 부담을 주려고 합니다. Lawrence Berkeley National Lab의 DOE 지원 보고서에 따르면, 미국 데이터 센터의 에너지 사용량은 2028년까지 거의 3배가 될 수 있으며, 이는 국가 전기의 12%를 소모할 수 있습니다. 이유는 무엇일까요? AI와 강력한 칩과 에너지를 많이 소모하는 냉각 시스템에 대한 끝없는 욕망 때문입니다.
현재 데이터 센터는 미국 전력 수요의 4%에 불과합니다. 하지만 AI 서버가 쇼의 스타가 되면서 전력 소모량은 2017년 이후로 이미 두 배로 늘어났습니다. 복잡한 머신 러닝 알고리즘을 실행하는 데 필요한 GPU 칩은 그리드가 처리할 수 있는 한계를 넘어서고 있습니다. 그리고 그들이 생성하는 열이 있어 냉각 시스템이 초과 근무를 하게 됩니다.
보고서는 이러한 성장이 전력망에 부담을 주고, 에너지 가격을 급등시키고, 기후 영향에 대한 눈살을 찌푸리게 할 수 있다고 경고합니다. 연구자들은 에너지 사용과 효율성 개선에 대한 더 나은 투명성을 요구하고 있지만, 빅테크는 독점적인 전력 습관에 대해 폭로하고 싶어하지 않습니다.
그리고 재생 에너지가 구출에 나설 것이라고 아직 기대하지 마세요. 지난달의 한 연구에 따르면 태양광과 풍력 발전의 확대는 이 수요 급증을 따라잡기에 충분히 빠르지 않다고 강조했습니다. 게다가 태양이 빛나지 않거나 바람이 불지 않을 때에도 그리드는 여전히 화석 연료를 필요로 합니다.
이런 추세가 지속된다면 AI의 에너지 발자국은 전체 산업과 맞먹을 수도 있습니다. 따라서 챗봇의 재치 있는 답변이 마법처럼 느껴질 수 있지만, 그 마법을 실현하는 것은 결코 쉬운 일이 아닙니다. 산업이 효율성에 대해 진지하게 생각하지 않는 한, AI 기반 미래의 실제 비용은 일어날 정전이 될 수 있습니다.