"AI로 '부의 양극화' 가속…권위적 포퓰리스트 득세할 것"

글로벌인재포럼 2024

기조연설 - 올해 노벨물리학상 수상
제프리 힌턴 캐나다 토론토대 교수

AI가 무섭다는 인공지능의 대부
초지능 진화 땐 사람보다 똑똑
스스로 "권력 얻겠다" 행동할 것

생산성 향상, 가난한 자엔 재앙
저숙련 직업 더 빨리 많이 사라져
포퓰리스트들에겐 좋은 먹잇감
< 노벨상 이후 첫 공개석상 > 이달 초 노벨물리학상 수상자로 선정된 후 처음 외부 강연에 나선 제프리 힌턴 캐나다 토론토대 명예교수가 30일 서울 광장동 그랜드워커힐서울에서 열린 ‘글로벌인재포럼 2024’에서 ‘인공지능(AI) 전환과 우리가 주목해야 할 것은’을 주제로 기조연설을 하고 있다. /임형택 기자
“저는 인공지능(AI)이 너무 무섭고 두렵고 걱정됩니다. 인류는 AI 때문에 멸망할 수 있다고 생각해요. 사람들은 ‘터미네이터’ 영화에나 나올 법한 불가능한 일로 여기지만 충분히 가능합니다.”

올해 노벨물리학상 수상자인 제프리 힌턴 캐나다 토론토대 컴퓨터공학과 명예교수는 30일 개막한 ‘글로벌인재포럼 2024’에서 “안전과 윤리 문제에 대한 고민 없이 AI 기술 경쟁이 과열되면서 인간에게 실존적 위협으로 다가오고 있다”고 진단했다. 이날 ‘AI 전환과 우리가 주목해야 할 것은’을 주제로 한 그의 화상 기조연설은 지난 7일 노벨 물리학상 수상자로 선정된 이후 첫 외부 강연이라 청중의 관심이 뜨거웠다.

○“AI發 일자리 감소, 빈부 격차 키울 것”

이주호 부총리 겸 교육부 장관(앞줄 왼쪽 아홉 번째)과 손경식 한국경영자총협회 회장(열세 번째), 고혜원 한국직업능력연구원 원장(열두 번째), 칼리 피오리나 전 HP 최고경영자(열 번째) 등 주요 연사와 참석자들이 30일 열린 ‘글로벌인재포럼 2024’에서 기념촬영하고 있다. /김범준 기자
힌턴 교수는 1970년대부터 AI 기술의 이론적 토대가 된 인공신경망을 연구해 온 공로를 인정받아 AI 전문가 최초로 노벨상 수상자로 선정됐다. 미국 실리콘밸리를 주름잡는 AI 인재 상당수가 그의 제자이고, 그 역시 2013~2023년 구글 부사장으로 영입돼 AI 연구에 참여하기도 했다. ‘AI 대부’로 불리는 인물이면서도 최근에는 이 기술의 위험성을 경고하는 데 앞장서고 있어 ‘AI의 내부고발자’라는 수식어도 붙었다.

그는 “산업혁명을 통해 인간보다 힘이 좋은 기계가 육체노동을 대신했고, 이젠 인간보다 똑똑해진 기계가 지적 노동도 대체할 것”으로 전망했다. 의료와 교육은 AI가 가장 긍정적 역할을 할 수 있는 분야로 꼽았다. “AI가 여러 산업에서 생산성 향상을 이끌 것은 확실하나 그 혜택이 모두에게 돌아가진 않을 것”이라고 지적했다.대중이 가장 빠르게 체감할 위협 요인으로는 일자리 소멸을 들었다. 힌턴 교수는 “AI 활용이 확대될수록 이익을 보는 기업과 투자자가 많아지겠지만 직업을 잃고 가난해지는 사람도 더 많아질 것”으로 내다봤다. 저숙련 일자리가 더 빨리, 더 많이 사라지며 빈부 격차가 심화할 가능성이 높다고 봤다.

힌턴 교수는 “부자는 더 부유해지고 빈자는 더 빈곤해지는 환경은 권위주의적 포퓰리스트들에게는 비옥한 토양”이라고 지적했다. AI가 유발한 일자리 감소가 정치 지형에도 상당한 영향을 미칠 것이란 얘기다. 가짜 뉴스와 딥페이크, 자율무기·화학무기, 피싱 사기, 차별·혐오주의 등의 확산도 AI가 인류의 존립을 뒤흔드는 ‘실존적 위협’으로 지목했다.

○‘초지능’ 진화하면 ‘통제 불능’될 수도

문제는 AI의 발전 속도가 워낙 빠른 까닭에 인간의 통제력이 약해지고 있다는 점이다. 힌턴 교수는 “AI가 향후 초지능(super-intelligence)으로 진화하면 다양한 하위 목표를 스스로 설정하게 되는데, 그중 하나는 ‘권력을 얻겠다’가 될 것”이라며 “그 단계에 이르면 인간이 통제하기 어려워진다”고 경고했다. 초지능은 AI가 지금보다 고도화해 인간 지능을 뛰어넘는 수준을 의미한다.힌턴 교수는 “지금도 챗봇이 거짓된 정보를 제시하고 사람들을 속이는데, 초지능이 돼 사람보다 똑똑해지면 어떻겠느냐”고 반문했다. “여러 종류의 초지능이 개발돼 상호 경쟁 관계가 되면 서로 다른 초지능을 이기기 위해 더 공격적으로 행동할 것”이라는 설명이다. 힌턴 교수는 AI의 추론 능력이 20년 안에 사람을 앞설 확률은 최소 50% 이상이라고 봤다.

최근 미국 실리콘밸리에서는 AI의 위험성과 윤리적 문제를 이유로 ‘개발을 잠시 멈추자’는 의견이 나오기도 했다. 힌턴 교수는 “단지 ‘AI가 위험하니 개발을 멈추자’는 건 비현실적”이라고 선을 그었다. 그는 “어떻게 하면 적절하게 통제하고 관리할지에 초점을 맞춰야 한다”며 “AI가 우리에게 실존적 위협을 주기 전까지 해법을 찾아야 한다”고 강조했다.

○“개발 멈출 순 없어…통제력 높여야”

힌턴 교수가 제시한 해법은 ‘강제력 있는 국가 차원의 규제’에서 출발한다. 그는 “대규모 AI 시스템을 개발하는 데 필요한 자원은 구글, 마이크로소프트, 바이두와 같은 빅테크들이 모두 소유하고 있다”며 “이들 기업이 더 윤리적으로 활동하도록 유도하는 환경을 조성해야 한다”고 조언했다. 그는 “대기업보다 강한 힘을 갖고 있어 제동을 걸 수 있는 주체는 정부밖에 없다”며 “정부가 나서서 윤리 규범을 도입하고, 빅테크들이 일정 수준 이상의 안전 관련 연구를 하게 강제해야 한다”고 말했다.여기서 한발 더 나아가 제네바협약, 핵확산방지조약 등과 같은 방식의 국제적 접근도 동시에 모색해야 한다고 강조했다. 힌턴 교수는 “AI가 끔찍한 일을 저질러 막대한 피해와 희생을 겪은 이후에 정신을 차려선 안 되지 않겠느냐”고 재차 반문했다.

임현우/이소현 기자 tardis@hankyung.com