"따를 수 없다" 명령 거부한 AI…영화 아닌 현실이라면?
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
DEEP INSIGHT
눈앞에 닥친 '스페이스 오디세이'
AI 안전장치 논의 어디까지 됐나
눈앞에 닥친 '스페이스 오디세이'
AI 안전장치 논의 어디까지 됐나
‘AI의 대부’로 불리는 제프리 힌턴 캐나다 토론토대 교수는 “10년 내 사람을 죽이는 AI 로봇이 나올 것”이라며 “AI가 인간의 생물학적 지능보다 발달한 형태로 설계됐기 때문에 이 같은 상황이 인간에게 ‘멸종 수준의 위협’이 될 것”이라고 경고했다.
스탠리 큐브릭 감독의 고전 명작 ‘스페이스 오디세이 2001’(1968년)에는 HAL-9000이란 이름의 인공지능(AI)이 등장한다. 미국영화협회(AFI)가 선정한 100대 악역에서 에일리언을 제치고 13위를 차지했다. 영화에서 HAL은 임무 완수를 위해 우주선에 탄 인간 승무원들을 죽이려고 한다. HAL이 우주선 안으로 들어오려고 문을 열 것을 명령하는 인간에게 무미건조한 목소리로 “유감이지만 그럴 수 없습니다”라고 말하는 장면은 영화의 백미로 손꼽힌다.
AI는 기본적으로 정해진 알고리즘에 따라 업무를 수행한다. 데이터를 학습하고 알고리즘에 따라 추론하는 게 AI의 역할이다. 하지만 인터넷의 발전으로 AI가 학습할 수 있는 데이터가 폭증했고, 어마어마한 양의 데이터를 학습시킬 수 있는 컴퓨팅 파워가 등장했다. ‘트랜스포머’와 같은 혁신적인 AI 알고리즘도 나왔다. 그 결과가 바로 초거대 AI다. 초거대 AI는 방대한 학습량을 기반으로 텍스트, 이미지는 물론 소리, 영상까지 생성해낼 수 있다. 2022년 11월 오픈AI가 챗GPT를 내놓으면서 자의든 타의든 AI를 마주해야 하는 시대가 됐다. 오픈AI를 필두로 구글, 마이크로소프트, 메타, 아마존 등 주요 빅테크가 연일 새로운 기술을 쏟아내고 있다. 불과 1년6개월 만에 생성형 AI는 무서운 속도로 발전했다. 오픈AI가 최근 공개한 최신 AI 모델 GPT-4o는 텍스트는 물론 음성, 시각 정보까지 이해한다. 그동안 인간의 전유물로 여겨진 창작 영역도 AI가 빠르게 침범하고 있다.
최근 영국 BBC와의 인터뷰에선 “AI의 안전에 대한 충분한 고려가 이뤄지지 않고 있다”며 “앞으로 5~20년 사이에 AI가 주도권을 장악하려는 문제에 직면할 가능성이 50% 정도 된다”고 전망했다. AI가 인간의 생물학적 지능보다 발달한 형태로 설계됐기 때문에 이 같은 상황이 인간에게 ‘멸종 수준의 위협’이 될 것이라는 경고도 남겼다. 지난해 미국 공군의 사례처럼 AI 무기의 사용이 위협의 시작점이 될 수 있다고 지적했다.
힌턴 교수를 비롯해 <사피엔스>의 저자 유발 하라리, 노벨경제학상 수상자 대니얼 카너먼 미국 프린스턴대 교수 등 전문가 25명이 최근 과학 전문지 사이언스에 ‘급격한 진보 속 AI의 극단적 위험 관리’라는 글을 공동으로 기고한 것도 같은 맥락이다. 이들은 AI 기술이 빠르게 발전하는 만큼 엄격한 규제를 도입해야 한다고 제언했다. 이들은 논문에서 “현재의 거버넌스는 AI의 오용과 무분별한 활용을 방지할 수 있는 체계나 제도가 부족하다”며 “AI 안전 기관에 대한 자금 지원을 늘리고, 빅테크 기업이 보다 엄격한 위험 점검을 수행하도록 강제해야 한다”고 했다.
주요 선진국과 빅테크가 이미 ‘쩐의 전쟁’을 시작했다는 점도 규제를 어렵게 하는 요인으로 거론된다. 시장조사업체 마켓앤드마켓에 따르면 세계 AI 시장은 지난해 1502억달러(약 204조원)에서 2030년 1조3452억달러(약 1830조원)로 커질 전망이다. 작년 11월 업계를 떠들썩하게 한 샘 올트먼 오픈AI 최고경영자(CEO)의 해임 해프닝은 부머의 힘을 고스란히 보여줬다. 작년 11월 17일 오픈AI 이사회가 올트먼에게 해고를 통보했다. 해고를 주도한 오픈AI의 공동 창업자이자 수석과학자인 일리야 수츠케버를 비롯해 사외이사 타샤 매콜리, 헬렌 토너 등은 개발에 속도 조절이 필요하다는 입장이었다. 하지만 이 결정은 오픈AI 직원들의 거센 반대에 부딪혔고 결국 닷새 만에 올트먼이 복귀했다. 힌턴 교수의 제자이기도 한 수츠케버는 지난 14일 오픈AI를 그만뒀다.
인간을 뛰어넘는 AGI가 과장됐다는 주장도 있다. AI 부머로 분류되는 얀 르쿤 미국 뉴욕대 교수는 “인간 수준의 AI 등장 시기를 예측하는 것은 어렵고 위험도 과장됐다”고 평가했다.
메타의 수석AI과학자를 겸하고 있는 르쿤 교수는 힌턴 교수 등과 함께 ‘AI 4대 구루’로 꼽힌다.
이승우 기자 leeswoo@hankyung.com
스탠리 큐브릭 감독의 고전 명작 ‘스페이스 오디세이 2001’(1968년)에는 HAL-9000이란 이름의 인공지능(AI)이 등장한다. 미국영화협회(AFI)가 선정한 100대 악역에서 에일리언을 제치고 13위를 차지했다. 영화에서 HAL은 임무 완수를 위해 우주선에 탄 인간 승무원들을 죽이려고 한다. HAL이 우주선 안으로 들어오려고 문을 열 것을 명령하는 인간에게 무미건조한 목소리로 “유감이지만 그럴 수 없습니다”라고 말하는 장면은 영화의 백미로 손꼽힌다.
현실로 다가온 HAL-9000
HAL처럼 ‘악의’가 아니라 논리적인 계산을 거쳐 AI가 인간을 적대한다는 내용은 AI가 등장하는 소설과 영화 등에서 숱하게 사용된 ‘클리셰’다. 지난해 5월 이와 같은 일이 현실에서 벌어졌다. AI가 통제하는 미국 공군의 드론이 적의 지대공 시스템을 찾아 폭격하는 가상 훈련에서 AI는 자신의 임무를 방해한다고 인식한 오퍼레이터를 폭격했다. “오퍼레이터를 살해하지 말라”는 사전 명령에도 불구하고 벌어진 일이다. 가상훈련이었던 만큼 실제로 폭격이 일어나진 않았지만, AI가 인간을 위협하는 일이 현실이 될 수 있다는 가능성을 보여줬다.AI는 기본적으로 정해진 알고리즘에 따라 업무를 수행한다. 데이터를 학습하고 알고리즘에 따라 추론하는 게 AI의 역할이다. 하지만 인터넷의 발전으로 AI가 학습할 수 있는 데이터가 폭증했고, 어마어마한 양의 데이터를 학습시킬 수 있는 컴퓨팅 파워가 등장했다. ‘트랜스포머’와 같은 혁신적인 AI 알고리즘도 나왔다. 그 결과가 바로 초거대 AI다. 초거대 AI는 방대한 학습량을 기반으로 텍스트, 이미지는 물론 소리, 영상까지 생성해낼 수 있다. 2022년 11월 오픈AI가 챗GPT를 내놓으면서 자의든 타의든 AI를 마주해야 하는 시대가 됐다. 오픈AI를 필두로 구글, 마이크로소프트, 메타, 아마존 등 주요 빅테크가 연일 새로운 기술을 쏟아내고 있다. 불과 1년6개월 만에 생성형 AI는 무서운 속도로 발전했다. 오픈AI가 최근 공개한 최신 AI 모델 GPT-4o는 텍스트는 물론 음성, 시각 정보까지 이해한다. 그동안 인간의 전유물로 여겨진 창작 영역도 AI가 빠르게 침범하고 있다.
“AI는 인간에게 멸종 수준 위협”
AI 기술을 경고하는 ‘AI 두머(doomer)’ 가운데 가장 활발하게 목소리를 내는 사람은 딥러닝 기술의 창시자이자 ‘AI의 대부’로 불리는 제프리 힌턴 캐나다 토론토대 교수다. 그는 작년 5월 10년 넘게 몸담은 구글을 그만두면서 “10년 내 사람을 죽이는 AI 로봇이 나올 것”이라고 말하기도 했다.최근 영국 BBC와의 인터뷰에선 “AI의 안전에 대한 충분한 고려가 이뤄지지 않고 있다”며 “앞으로 5~20년 사이에 AI가 주도권을 장악하려는 문제에 직면할 가능성이 50% 정도 된다”고 전망했다. AI가 인간의 생물학적 지능보다 발달한 형태로 설계됐기 때문에 이 같은 상황이 인간에게 ‘멸종 수준의 위협’이 될 것이라는 경고도 남겼다. 지난해 미국 공군의 사례처럼 AI 무기의 사용이 위협의 시작점이 될 수 있다고 지적했다.
힌턴 교수를 비롯해 <사피엔스>의 저자 유발 하라리, 노벨경제학상 수상자 대니얼 카너먼 미국 프린스턴대 교수 등 전문가 25명이 최근 과학 전문지 사이언스에 ‘급격한 진보 속 AI의 극단적 위험 관리’라는 글을 공동으로 기고한 것도 같은 맥락이다. 이들은 AI 기술이 빠르게 발전하는 만큼 엄격한 규제를 도입해야 한다고 제언했다. 이들은 논문에서 “현재의 거버넌스는 AI의 오용과 무분별한 활용을 방지할 수 있는 체계나 제도가 부족하다”며 “AI 안전 기관에 대한 자금 지원을 늘리고, 빅테크 기업이 보다 엄격한 위험 점검을 수행하도록 강제해야 한다”고 했다.
AI 두고 전 세계가 주도권 경쟁
현실에선 AI가 인류에게 도움이 될 것이라는 ‘AI 부머(boomer)’의 영향력이 더 크다. AI를 두고 “세계 불균형을 해결할 핵심 기술이 될 것”이라고 주장하는 빌 게이츠 마이크로소프트 창업자가 대표적인 AI 부머로 꼽힌다.주요 선진국과 빅테크가 이미 ‘쩐의 전쟁’을 시작했다는 점도 규제를 어렵게 하는 요인으로 거론된다. 시장조사업체 마켓앤드마켓에 따르면 세계 AI 시장은 지난해 1502억달러(약 204조원)에서 2030년 1조3452억달러(약 1830조원)로 커질 전망이다. 작년 11월 업계를 떠들썩하게 한 샘 올트먼 오픈AI 최고경영자(CEO)의 해임 해프닝은 부머의 힘을 고스란히 보여줬다. 작년 11월 17일 오픈AI 이사회가 올트먼에게 해고를 통보했다. 해고를 주도한 오픈AI의 공동 창업자이자 수석과학자인 일리야 수츠케버를 비롯해 사외이사 타샤 매콜리, 헬렌 토너 등은 개발에 속도 조절이 필요하다는 입장이었다. 하지만 이 결정은 오픈AI 직원들의 거센 반대에 부딪혔고 결국 닷새 만에 올트먼이 복귀했다. 힌턴 교수의 제자이기도 한 수츠케버는 지난 14일 오픈AI를 그만뒀다.
인간 뛰어넘는 AGI 올까
AI는 주어진 명령을 수행하는 데 그치지 않고 중간에 필요한 업무를 스스로 찾아내 결과물을 도출하는 ‘AI 에이전트’로 진화하고 있다. 업계에선 AI의 최종 진화 형태를 여기서 한 단계 더 발전한 ‘인공일반지능(AGI)’으로 보고 있다. AGI는 주어진 모든 상황에서 인간처럼 추론, 학습하고 문제를 해결하는 능력을 갖춘 AI를 말한다. 인간의 명령 없이도 스스로 판단하고 일할 수 있다. 아직 AGI의 명확한 판별 기준이나 정의는 없다. 오픈AI에선 ‘인간보다 똑똑한 AI 시스템’으로 AGI를 정의하고 있다. 전문가들은 AGI가 현실화하면 AI 규제를 둘러싼 논란이 재점화할 것으로 보고 있다. AGI를 규제하고 감독하는 일이 가능한 일인지부터 새로 논의해야 한다는 설명이다.인간을 뛰어넘는 AGI가 과장됐다는 주장도 있다. AI 부머로 분류되는 얀 르쿤 미국 뉴욕대 교수는 “인간 수준의 AI 등장 시기를 예측하는 것은 어렵고 위험도 과장됐다”고 평가했다.
메타의 수석AI과학자를 겸하고 있는 르쿤 교수는 힌턴 교수 등과 함께 ‘AI 4대 구루’로 꼽힌다.
이승우 기자 leeswoo@hankyung.com