
오픈AI의 챗봇 플랫폼인 ChatGPT는 예상했던 것만큼 전력을 많이 소비하지 않을 수도 있습니다. 그러나 ChatGPT가 어떻게 사용되고 있는지, 그리고 질문에 대답하는 AI 모델에 따라 그 성욕은 크게 달라집니다.
비영리 AI 연구기관인 Epoch AI의 최근 분석에 따르면 전형적인 ChatGPT 쿼리가 얼마나 많은 에너지를 소비하는지 계산하려고 시도했습니다. 일반적으로 인용되는 통계에 따르면 ChatGPT는 하나의 질문에 답하려면 약 3 와트-시의 전력이 필요하며, 구글 검색의 10배가 필요하다고 합니다.
Epoch는 이것은 과대평가라고 믿습니다.
OpenAI의 최신 기본 모델인 GPT-4o를 참조로 사용하여, Epoch는 평균 ChatGPT 쿼리가 약 0.3 와트-시 소비한다는 것을 발견했습니다. 이는 많은 가정용 가전제품보다 적습니다.
“에너지 사용은 실제로 일반 가전제품을 사용하거나 집을 난방하고 냉각하는 것, 또는 자동차를 운전하는 것과 비교하면 별 것이 아닙니다,”이 분석을 수행한 Epoch의 데이터 분석가인 조숩수가 TechCrunch에 말했습니다.
인공지능의 에너지 소비 및 그 환경 영향은, 인공지능 기업들이 인프라 확장을 신속히 확대할 때 경쟁적인 논쟁의 주제가 되고 있습니다. 지난 주에 100여 개 조직이 AI 산업 및 규제 당국에게 새로운 AI 데이터 센터가 천연 자원을 고갈시키거나 공공서비스가 재생 불가능한 에너지원을 의존하게 하는 것을 방지하도록 요구하는 공개서한을 발표했습니다.
조숩수는 자신의 분석은 과거의 오래된 연구로 인한 것이기 때문에 촉발되었다고 TechCrunch에 말했습니다. 예를 들어, 3 와트-시의 추정치에 이른 보고서의 저자는 OpenAI가 자신들의 모델을 실행하기 위해 더 오래된, 효율적이지 않은 칩을 사용한다고 가정했습니다.

“AI가 다가올 몇 년 동안 많은 양의 에너지를 소비할 것이라는 사실을 올바르게 인식했지만, 오늘날의 AI에 소비되는 에너지를 정확하게 설명하지 않았던 공개 논의의 많은 것들을 보았습니다,”흐의 솔수가 말했습니다. “또한, 제 동료 중 일부가 가장 널리 보고된 3 와트-시 당 쿼리는 오래된 연구를 기반으로 하였으며 몇 가지 냅킨 수학을 기반으로 하였기 때문에 너무 높아 보입니다.”
물론, Epoch의 0.3 와트-시 수치는 근사치이며, 오픈AI는 정확한 계산을 하기 위해 필요한 세부사항을 공개하지 않았습니다.
이 분석은 이미지 생성이나 입력 처리와 같은 ChatGPT 기능으로 인해 발생하는 추가적인 에너지 비용을 고려하지 않습니다. 조숩수는 “긴 입력” ChatGPT 쿼리는 일반적인 질문보다 초기에 더 많은 전력을 소비할 것이라고 인정했습니다.
하지만 그는 기본적인 ChatGPT 전력 소비가 증가할 것으로 예상합니다.
“AI가 더 나아지면, 이 AI를 훈련하는 것은 아마도 훨씬 더 많은 에너지가 필요하며, 미래 AI는 오늘날의 ChatGPT가 사용되는 방식보다 훨씬 더 강력하고 복잡한 작업을 다룰 것이기 때문에 이 미래 AI가 훨씬 더 강도 있게 사용될 것 같습니다," 조숩수가 말했습니다.
최근 몇 달 간 AI 효율성에서 현저한 발전이 있었지만, AI가 배치되는 규모는 거대하고 전력을 많이 필요로 합니다. 다음 2년 동안 AI 데이터 센터는 캘리포니아의 2022년 전력 용량 (68GW) 거의 모두를 필요로 할 것으로 랜드 보고서에 따르면 2030년까지 새롭게 개발되는 모델을 훈련하기 위한 전력 출력이 8GW와 같은 8개의 원자로가 필요할 것이라고 예측했습니다.
일부 투자 파트너와 함께 OpenAI는 다음 몇 년간 수십억 달러를 새로운 AI 데이터 센터 프로젝트에 투자할 계획입니다.
OpenAI의 관심은 물론 AI 산업 전체가 추론 모델로 이동하고 있는데, 이는 수행할 수 있는 작업에 있어서 일반적으로 더 능숙하지만 실행에 더 많은 계산이 필요합니다. GPT-4o와 같은 모델과 달리 추론 모델은 답변하기 전에 몇 초에서 몇 분 동안 '생각'합니다. 이 과정은 더 많은 컴퓨팅팅 - 따라서 전력 -을 필요로 합니다.
“추론 모델은 오래된 모델이 수행할 수 없는 작업을 점차 수행하게 될 것이고, 그럴 수록 더 많은 데이터를 생성하며, 둘 다 더 많은 데이터 센터를 필요로 합니다,”조숩수가 말했습니다.
OpenAI는 o3-mini와 같이 더 효율적인 전력을 사용하는 추론 모델을 더 많이 공개하기 시작했습니다. 그러나 적어도 현재로서는, 효율성 향상이 추론 모델의 ‘생각’ 프로세스와 전 세계적인 AI 사용량의 증가로 인한 증가하는 전력 요구를 상쇄하지 않을 것처럼 보입니다.
조숩수는 AI 에너지 풋프린트에 대해 걱정하는 사람들이 AI 모델을 적게 사용하거나 계산을 최소화하는 모델을 선택할 수 있도록 제안했습니다.