'전기 먹는 하마' AI 급성장에 탄소배출도 급증 우려

구글 AI, 회사 전력소비 최대 15% 차지…애틀랜타시 전 가구 1년 사용량

세계적인 인기를 끄는 '챗GPT'와 같은 인공지능(AI) 산업이 급성장하면서 이로 인해 탄소배출도 폭발적으로 늘어날 수 있다는 우려가 제기되고 있다고 블룸버그통신이 9일(현지시간) 진단했다. AI 경쟁을 선도하는 마이크로소프트(MS)와 알파벳의 구글, 챗GPT 개발사인 오픈AI 모두 수천 개의 반도체를 가진 서버에 의존하는 거대 데이터센터에서 돌아가는 클라우드 컴퓨팅을 기반으로 운영된다.

챗GPT의 성공과 함께 다른 기업들도 독자적인 AI 시스템과 챗봇 또는 대규모 AI 모델을 이용한 상품을 경쟁적으로 내놓으면서 전력 사용과 탄소 배출량 급증 가능성도 그만큼 커진다는 것이다.

AI는 다른 형태의 컴퓨팅보다 많은 양의 전기를 사용한다. 하나의 AI 모델을 학습시키기 위해서는 미국 내 100가구가 1년 동안 쓰는 것보다 많은 전기가 필요하다고 블룸버그는 지적했다.

2021년 발표된 한 연구논문에 따르면 챗GPT의 핵심 기술인 거대언어모델(LLM) GPT-3가 학습하는 데 미국 120개 가구의 1년 전기 사용량인 1천287메가와트시(MWh)가 들어갔다.

이 과정에서 미국 110개 가구의 1년 배출량에 해당하는 502t의 탄소가 배출됐다. 연구자들은 또 AI 모델이 학습할 때보다 이를 사용할 때 더 많은 전력을 소비할 수 있다면서 일부 AI 모델의 경우 학습에 들어간 전력량이 이후 그 모델의 실제 사용 시 필요한 전력량의 40% 정도라고 설명했다.

게다가 AI 모델의 규모가 기하급수적으로 커지고 있고 시간의 변화를 따라잡기 위해서는 재훈련도 필수적이어서 AI 모델의 전력 사용량이 갈수록 커질 수 있다는 지적도 나온다.

GPT-3의 이전 버전이 사용한 변수는 약 15억 개였지만, GPT-3는 약 1천750억 개의 변수를 사용한다. 나아가 오픈AI의 차세대 LLM인 GPT-4는 변수가 무려 100조 개 수준으로 늘어난다는 설도 있어 전력 소비도 훨씬 늘어날 가능성이 있다.

구글의 자체 조사에서도 AI가 회사 전체 전력 사용량의 10∼15% 정도를 사용하는 것으로 집계됐다.

2021년의 경우 구글의 전체 전력 사용량 18.3테라와트시(TWh) 가운데 2.3TWh가 AI에 쓰였다는 뜻으로, 이는 애틀랜타시 전체 가구의 연간 전력 소비량과 맞먹는다.

미국 최대 클라우드 업체인 MS와 구글, 아마존은 모두 탄소중립이나 탄소 배출량을 마이너스로 만드는 '탄소 네거티브' 계획을 발표했다.

또한 에너지 효율성 제고를 위한 다양한 노력도 펼치고 있다.

구글은 데이터센터 에너지 효율을 높이기 위해 AI를 사용하고 있다면서 2030년까지 탄소중립 달성이라는 목표를 이루기 위해 노력하고 있다고 밝혔다.

MS도 2030년까지 탄소 네거티브 목표 달성을 위해 친환경에너지 구매를 늘리고 있으며, AI의 효율성 개선과 에너지 사용량·탄소 배출량 측정 기술 개발에도 투자하고 있다고 말했다.

하지만 AI 산업이 급성장하고 있음에도 AI가 사용한 전기의 생산 방법과 정확한 전기 사용량, 이로 인한 탄소 배출량에 대해서는 아직까지 알려진 바가 없다고 블룸버그는 지적했다.

하나의 AI 모델 구축에 따른 탄소 배출량 연구조사나 일부 회사가 내놓은 전기 사용량 자료는 있어도 AI 산업 전체의 전기 사용량에 대한 포괄적인 자료조차도 없는 상태라는 것이다.

연구자들은 전력 사용량과 탄소 배출량에 대한 자료가 투명히 공개돼야 한다면서 이를 바탕으로 AI 모델이 그만큼의 전력 사용과 탄소배출을 감내할 만큼 가치 있는 것인지를 정부나 기업이 판단해야 한다고 말했다. MS 거대 AI 모델의 탄소발자국 측정에 참여했던 로이 슈워츠 예루살렘 소재 히브루 대학교수는 "이들 기업이 사용하는 모델과 탄소 배출량 공개를 좋아하지 않고 있는 것만은 분명하다"고 말했다.
/연합뉴스