오픈AI 사태로 이목 집중된 'AGI'…언제쯤 현실화될까
입력
수정
지면B1
추론·학습 '강력한 AI 발견' 이슈 부각챗GPT 개발사인 오픈AI의 최고경영자(CEO) 샘 올트먼의 갑작스러운 해임과 복귀 과정에서 범용 인공지능(AGI) 이슈가 부각됐다. AI 기술이 빠른 속도로 발전하면서 최종 단계인 AGI가 3~5년 내에 현실화할 것이라는 전망에도 힘이 실리는 모습이다. AI가 인간과 비슷한 수준의 학습과 추론 능력을 갖추게 될 경우 이로 인해 다양한 변화가 생길 것으로 보인다.
로이터, 인류 위협할 AI 'Q스타' 지목
방대한 컴퓨팅 자원으로 수학문제 해결
개발 속도 이견이 올트먼 해임의 기폭제
전문가들도 'AI 진화' 놓고 의견 갈려
"3~5년내 현실화" vs "위험성은 과장"
“강력한 AI 발견”올트먼의 CEO 복귀로 오픈AI 사태가 진정된 가운데, AGI와 관련된 연구 성과가 올트먼 해임 사태의 원인이라는 주장이 나왔다. 오픈AI의 몇몇 연구진이 이사회 측에 인류를 위협할 수 있는 ‘강력한 AI 발견’에 대해 경고하는 메시지를 전달했고, 이것이 올트먼 해임의 기폭제 역할을 했다는 것이다. 여기서 강력한 AI란 AGI를 말한다.
로이터는 최근 소식통의 말을 인용해 “편지와 해당 AI 알고리즘으로 인해 이사회가 올트먼을 축출하기로 결심하게 된 이유”라고 보도했다. 이 매체는 인류를 위협할 수 있는 AI를 ‘Q*(Q스타)’라고 지목했다. Q스타는 오픈AI에서 AI 기술을 개발하는 과정에 나온 것으로 보인다. 연구진 일각에선 이것이 AGI 탐색의 돌파 구가 될 수 있다는 평가가 나왔다.
AGI는 모든 상황에서 스스로 학습하고 창작할 수 있는 능력을 갖춘 AI를 뜻한다. 하지만 아직 AGI에 대한 정확한 판별 기준 및 정의가 확립되지는 않은 상황이다. 오픈AI에선 AGI를 ‘인간보다 똑똑한 AI 시스템’으로 정의한다. 익명을 요구한 관계자는 로이터와의 인터뷰에서 “Q스타로 불리는 새 모델은 방대한 컴퓨팅 자원을 바탕으로 특정 수학적 문제를 해결할 수 있었다”고 설명했다. 다만 로이터는 연구원들이 말한 Q스타의 성능을 따로 확인하지 못했다.“3~5년 내 인간 수준 도달”
다른 전문가들도 AGI 등장을 예상하고 있다. AI 반도체 개발사 엔비디아의 젠슨 황 CEO는 AI 기술 고도화로 5년 후 AGI 수준에 올라설 것이라고 전망했다. 그는 지난달 29일 뉴욕 링컨센터에서 뉴욕타임스(NYT) 주최로 열린 ‘딜북서밋’에 참석해 “AI가 인간을 압도하고 있다”며 “AGI를 인간의 지능과 경쟁하는 컴퓨터로 정의한다면, 앞으로 5년 내에 이와 같은 수준의 AI를 보게 될 것”이라고 말했다.
황 CEO는 AGI 기술 발전에 다소 시간이 걸리는 이유로 “머신러닝이 현재 인식과 관련된 작업에는 능숙하지만, 아직 기업과 연구원의 최우선 과제인 다단계 추론을 할 수 없기 때문”이라고 분석했다. 이날 행사에 참석한 일론 머스크 테슬라 CEO는 AGI에 도달할 수 있는 시점을 3년 이내로 예측하기도 했다.‘부머 vs 두머’
AI가 인간 수준까지 도달하려면 오랜 시간이 필요하다는 주장도 있다. ‘AI 4대 구루’로 꼽히는 얀 르쿤 메타 부사장 겸 수석 AI 과학자는 지난달 30일 샌프란시스코에서 열린 메타 AI 연구소 ‘페어’의 설립 10주년 기념행사에서 “3~5년 후에 인간을 뛰어넘는 AI가 나올 것이라는 전망은 틀렸다”며 “예상하는 것보다 더 오래 걸릴 수 있다”고 말했다. AI가 이미 인간보다 체스와 바둑을 더 잘 두고, 변호사 시험에 합격할 수 있지만 여전히 인간 수준에 미치지 못하고 있다는 것이 그가 내세운 근거다.
뉴욕대 교수직도 맡고 있는 르쿤 부사장은 제프리 힌턴 캐나다 토론토대 교수, 요수아 벤지오 몬트리올대 교수, 앤드루 응 스탠퍼드대 교수와 함께 AI 부문의 4명의 대가로 알려져 있다. 힌턴과 벤지오 교수는 AI가 인류를 위협할 수 있다고 보는 ‘두머’, 르쿤과 응 교수는 AI 개발론자인 ‘부머’로 분류된다.‘딥러닝의 아버지’로 불리는 힌턴 교수는 지난 5월 구글을 그만두며 “AI 발전으로 인한 위험성이 증가하고 있다”고 경고했다. 반면 르쿤 부사장은 “AI 기술이 아직 인간에 한참 못 미치기 때문에 현재 논란인 AI에 대한 위험은 과장됐다”고 주장했다. 그러면서 “1920년대 항공기가 등장했을 때 추락 우려로 개발을 중단했다면 인류는 아직도 태평양과 대서양을 건너지 못했을 것”이라고 지적했다.
실리콘밸리=최진석 특파원 iskra@hankyung.com