“인공지능(AI) 발전을 저해하는 요인이 지금까진 칩(Chip) 공급 부족이었다면 이제는 전력 공급이다.”

일론 머스크 테슬라 최고경영자(CEO)가 경고했던 생성형 AI발(發) 전력 부족과 에너지 위기가 현실로 다가오고 있다. 생성형 AI를 구동하기 위해서는 컴퓨터가 복잡한 연산을 빠르게 풀어내야 한다. 이를 위해 전력을 많이 소비하는 AI 반도체가 필요하고, 이를 조합해 데이터 센터를 짓거나 수퍼컴퓨터를 만든다.

생성형 AI 서비스의 전력 소모량은 기존 인터넷 서비스보다도 10배 이상 많다. 예를 들어 구글 검색엔 평균 0.3Wh의 전력이 쓰이는 반면 챗GPT는 한 번에 2.9Wh를 소모한다. 챗 GPT와 같은 텍스트 생성형 AI보다 전력이 더 많이 드는 이미지 생성 AI는 이미지 하나를 생성하기 위해 스마트폰 한 대를 충전할 수 있는 양의 에너지가 필요하다.

그래픽=김현국

실제로 국제에너지기구(IEA)에 따르면 생성형 AI가 본격적으로 개발되고 상용화된 2022년에 세계의 데이터 센터가 썼던 연간 전력량은 460테라와트시(TWh)에 달했다. 2015년(200TWh)의 두 배 이상으로 늘어난 용량이다. IEA는 2026년 데이터 센터들이 1000TWh 이상 전력을 소비할 것으로 추정하고 있다. 일본의 연간 전력 소비와 맞먹는 수치다.

빅테크들은 앞으로 다가올지도 모를 전력 부족 대비에 나서고 있다. 아마존은 지난달 초 인근 원자력발전소에서 전력을 공급받는 데이터 센터를 6억5000만달러에 인수했다. AI 가동에 필요한 전력 일부를 원전에서 조달하기 위해서다. 마이크로소프트(MS)는 올 들어 ‘원자력 개발 가속화’를 담당하는 임원을 채용했다.