"생성형 AI 비용 부담…내년 거품 빠진다"
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
각국 규제 강화 등도 걸림돌
챗GPT 등 생성형 인공지능(AI) 기술을 향한 기대가 내년엔 꺾일 것이란 전망이 나왔다. 비용 부담과 유럽연합(EU)을 중심으로 한 규제 때문에 ‘거품’이 빠질 수 있다는 분석이다.
10일(현지시간) 시장분석업체 CCS인사이트는 연례 보고서를 통해 “내년에 생성형 AI 기술에 대한 현실적인 점검이 이뤄질 것”으로 전망했다. 보고서에서 CCS인사이트는 “내년에 생성형 AI의 거품이 꺼질 것”이라며 “생성형 AI를 실행하는 데 필요한 비용 부담과 규제 증가로 관련 기술의 성장세가 둔화할 수 있다”고 분석했다.
가장 큰 장애물로는 고(高)비용이 꼽혔다. 생성형 AI의 기반이 되는 대규모언어모델(LLM)을 학습 및 운영하려면 슈퍼컴퓨팅이 필요한데, 관련 비용 부담이 갈수록 커지고 있다. LLM 연산에 필수적인 그래픽처리장치(GPU)는 엔비디아 H100 칩 기준으로 개당 4000만원 수준이다. 초거대 LLM을 구동하려면 H100 칩 수천 개가 필요하다. 게다가 GPU는 전력 소모량이 많기 때문에 전력 비용 부담도 크다. 챗GPT를 구동하는 LLM GPT-4는 하루 9억원가량의 운영비용이 드는 것으로 알려졌다.
AI 기술을 둘러싼 규제 등도 걸림돌로 지적된다. EU 등 여러 국가에서 AI 규제를 도입할 움직임을 보이고 있다.
실리콘밸리=최진석 특파원 iskra@hankyung.com
10일(현지시간) 시장분석업체 CCS인사이트는 연례 보고서를 통해 “내년에 생성형 AI 기술에 대한 현실적인 점검이 이뤄질 것”으로 전망했다. 보고서에서 CCS인사이트는 “내년에 생성형 AI의 거품이 꺼질 것”이라며 “생성형 AI를 실행하는 데 필요한 비용 부담과 규제 증가로 관련 기술의 성장세가 둔화할 수 있다”고 분석했다.
가장 큰 장애물로는 고(高)비용이 꼽혔다. 생성형 AI의 기반이 되는 대규모언어모델(LLM)을 학습 및 운영하려면 슈퍼컴퓨팅이 필요한데, 관련 비용 부담이 갈수록 커지고 있다. LLM 연산에 필수적인 그래픽처리장치(GPU)는 엔비디아 H100 칩 기준으로 개당 4000만원 수준이다. 초거대 LLM을 구동하려면 H100 칩 수천 개가 필요하다. 게다가 GPU는 전력 소모량이 많기 때문에 전력 비용 부담도 크다. 챗GPT를 구동하는 LLM GPT-4는 하루 9억원가량의 운영비용이 드는 것으로 알려졌다.
AI 기술을 둘러싼 규제 등도 걸림돌로 지적된다. EU 등 여러 국가에서 AI 규제를 도입할 움직임을 보이고 있다.
실리콘밸리=최진석 특파원 iskra@hankyung.com