[커버스토리] 인공지능, 약인가 독인가…육성과 규제 사이

Cover Story
그래픽=허라미 한국경제신문 기자
구글이 한국어 실력이 뛰어난 인공지능(AI) 챗봇 ‘바드’를 내놨습니다. 마이크로소프트의 챗GPT도 바드보다 먼저 한국어 서비스를 시작해 AI 챗봇 경쟁이 치열해질 전망입니다.

AI가 뛰어난 성능을 발휘하려면 인간 두뇌의 시냅스에 해당하는 파라미터(매개변수) 수가 많아야 합니다. 우리 뇌에는 수많은 신경세포(뉴런)가 있고 신경세포마다 수많은 가지가 달려 있는데, 신경세포들의 가지와 가지를 이어 신호를 주고받는 부위가 시냅스입니다. 파라미터 수는 그만큼의 방정식을 갖고 있다는 뜻으로, 그 정도로 복잡한 경우에 대비할 수 있다는 의미기도 합니다. 바드의 파라미터 수는 챗GPT(1750억 개)의 세 배를 넘습니다.이처럼 엄청난 성능의 AI가 잇달아 등장하면서 AI를 둘러싼 논란이 뜨거워지고 있습니다. 애플 공동창업자 스티브 워즈니악은 “AI는 인간의 도움 없이 컴퓨터가 스스로 학습하므로 그럴듯해 보이는 사기가 쉬워질 것”이라며 “AI를 더 규제할 필요가 있다”고 주장했습니다. AI 분야 석학으로 꼽히는 제프리 힌턴 캐나다 토론토대 교수는 “빅테크들이 AI를 발달시킬수록 점점 더 위험해질 것”이라고 경고했습니다. 우리나라 국회에도 국민 생명, 신체, 기본권을 위협할 수 있는 AI를 규제하는 인공지능기본법안이 계류 중입니다.

1950년대 등장 후 지금까지의 AI 역사와 AI가 일으킨 변화에 대해 알아봅시다. AI 기술과 산업을 발전시켜야 한다는 주장과 AI로 인한 여러 위험을 방지할 수 있는 규제가 필요하다는 주장도 살펴봅시다.

AI에 대한 기대와 우려가 공존하는 상황
긍정적 효과 많이 만들어낼 지혜 필요해요

게티이미지뱅크
길거리에서 파란색 자동차 번호판을 쉽게 볼 수 있습니다. 전기차, 수소차 등 친환경 차량은 파란색 번호판을 사용합니다. 특히 전기차가 눈에 띄게 늘었는데요. 전기차는 언제 처음 등장했을까요. 무려 190여 년 전입니다. 1828년 헝가리에서 전기차 기술이 개발됐고, 1886년 영국에서 전기차 택시가 등장했습니다. 하지만 포드의 엔진차에 밀려 확산되지 못했고 우여곡절 끝에 2010년 이후 본격적으로 보급되고 있습니다.

AI의 역사

전기차 기술처럼 인공지능(AI) 기술도 그 시작은 오래전입니다. ‘기계가 사람처럼 생각할 수 있을까’에 대한 논의는 1940년대 시작됐습니다. 인간 뇌가 신경세포(뉴런)들의 네트워크라는 사실이 밝혀지면서 인간 뇌의 동작을 전기회로로 모사할 수 있다는, AI 연구의 시초로 불리는 연구가 1943년 발표됐습니다. 1950년 영화 ‘이미테이션 게임’으로 유명한 앨런 튜링이 AI의 수준을 피상적으로나마 측정할 수 있는 ‘튜링 테스트’를 내놨고, 1956년 미국 다트머스대에서 AI(Artificial Intelligence)라는 용어를 처음으로 사용합니다.1964년 매사추세츠공대(MIT) 인공지능연구소가 인간과 대화하는 챗봇형 심리상담 프로그램인 엘리자(ELIZA)를 개발하는 등 놀라운 연구 성과가 잇달아 발표됩니다. 하지만 AI로 해결할 문제가 복잡해질수록 계산량이 기하급수적으로 늘면서 1970년대 초엔 “AI는 현실의 문제 해결에 활용하기 어렵다”는 의견이 우세해집니다. 이 시기를 ‘제1차 인공지능의 겨울’이라고 부릅니다.

이후 혈액 감염증을 진단하고 치료제를 조언하는 시스템, 디젤 기관차의 고장을 발견하는 시스템, 광석 매장지를 탐지하는 시스템 등이 개발됐으나 만족할 만한 성과를 내지 못합니다. 1990년대 초 다시 AI에 대한 관심이 작아지는 ‘제2차 인공지능의 겨울’이 도래합니다.

딥러닝2012년 제프리 힌턴 캐나다 토론토대 교수팀이 AI 기술 중 하나인 딥러닝 기술로 얼굴인식 분야에서 혁신적인 성과를 보이면서 AI는 다시 크게 주목받습니다. 딥러닝은 컴퓨터가 데이터로부터 스스로 규칙을 학습하고 추론하는 기계학습 방법의 하나입니다.

1959년 등장한 용어인 기계학습은 입력값(x)과 출력값(y) 데이터를 가지고 일정한 식(x*w=y)에서 가중치(w)를 찾아내는 방식입니다. 입력값에 어떤 가중치를 곱해야 출력값이 되는지를 찾아내는 것을 ‘학습’이라고 부릅니다.

전통적인 기계학습에선 사람(개발자)이 어떤 입력값과 출력값 데이터를 사용할지 정해줍니다. 하지만 딥러닝은 컴퓨터가 엄청나게 많은 데이터에서 스스로 최적의 데이터를 찾아냅니다. 이런 강점 때문에 딥러닝은 전통적 기계학습의 한계를 극복합니다. 다만 딥러닝도 기계학습처럼 입력값과 출력값의 관계를 잘 설명해주는 가중치값을 찾아내는 것이고, 그런 과정을 학습(learning)이라고 부릅니다.

AI 활용 분야 확산

딥러닝을 활용하는 분야가 계속해서 넓어지고 있습니다. 딥러닝을 통해 사진이나 영상에서 사물을 구분해내는 영상인식과 사람의 음성이나 문자를 인식하는 자연어 처리는 이제 아주 광범위하게 활용되고 있습니다. 각종 상품이나 영화 드라마 같은 콘텐츠를 개인 맞춤형으로 추천하는 서비스 역시 활발하고요. 이 외에도 주가를 예측하거나 신용카드 불법결제 또는 보험사기 등을 감지하는 시스템, 자율주행이나 바이오 분야 등에 이르기까지 딥러닝, 그러니까 AI가 활용되지 않는 분야를 찾기 어려울 정도입니다.

최근 마이크로소프트는 우리나라를 포함한 세계 31개국 3만1000명을 대상으로 AI와 업무에 대해 조사한 보고서를 발표했습니다. ‘2023 업무 트렌드 지표(Work Trend Index)’라는 이 보고서에 따르면 응답자의 49%는 AI로 일자리를 잃을 수 있다고 걱정했습니다. 그런데 이보다 더 많은 70%는 AI가 업무량을 줄이는 데 도움이 될 것이라고 기대했습니다. AI가 우리 사회에 긍정적인 효과를 더 많이 가져오도록 활용하는 지혜가 필요합니다.

NIE 포인트

1. AI의 역사를 정리해보자.

2. 딥러닝의 개념을 설명해보자.

3. AI를 둘러싼 기대와 우려에 대해 토론해보자.

규제가 AI 기술과 산업 발전 막지 않도록
우리 사회가 모범적인 타협을 이뤄내야죠

게티이미지뱅크
「①로봇은 인간에게 해를 가하거나, 해가 되는 상황을 방치하면 안 된다. ②로봇은 ①원칙에 위배되지 않는 한 인간에게 복종한다(즉 인간이 다른 인간에게 해를 가하라고 한다면 복종해선 안 된다). ③로봇은 ①원칙과 ②원칙에 위배되지 않는 한 자기 자신을 보호한다(즉 자기 자신을 보호하려고 인간에게 해를 가하거나, 다른 인간에게 해를 가하라는 인간의 지시를 따르면 안 된다).」

1942년 공상과학(SF)소설의 거장 아이작 아시모프가 단편소설 ‘Runaround’에서 제시한 로봇 3원칙입니다. 인간의 안전이 가장 중요하다는 점을 강조하는 내용입니다. 로봇 3원칙은 인공지능(AI)과 관련해 인간의 안전을 강조하기 위해서도 자주 거론됩니다.

“AI 규제 필요해요”

로봇과 AI에 대해 사람들은 왜 ‘안전’을 중요하게 생각할까요. AI는 4차 산업혁명을 대표하는 신기술입니다. 빅데이터, 블록체인, 핀테크, 양자컴퓨팅, 바이오 등 4차 산업혁명의 다른 신기술은 인간이 활용하는 ‘도구’인 데 비해 AI는 단순한 도구를 넘어 ‘상당한 자율성’을 가지고 어떤 업무를 수행할 수 있을 것이라는 인식 때문에 불안을 느끼는 사람이 많습니다. 거기다 SF소설이나 영화에 등장하는 AI가 결합된 로봇의 모습은 이런 불안감을 더 자극합니다.

불안감은 AI에 대한 통제와 규제가 필요하다는 주장으로 이어집니다. 2017년 유럽 의회는 “향후 고도로 자동화된 인공지능 로봇을 사실상 ‘전자인간(Electronic Personhood)’으로 취급해 법적 책임을 물을 수 있다”는 조항을 포함하는 결의안을 통과시켰습니다.

그러자 과학자들은 “가까운 미래에 인공지능 기술이 전자인간으로 취급할 수 있는 수준으로 발달할 수 없는데, 과학기술 수준에 대한 이해 없이 인공지능과 로봇에 대한 공상과학과 자극적인 언론 보도의 영향을 받아 이런 규제가 나왔다”고 비판했습니다. 그러면서 “지금은 기술 개발을 지원하는 데 온 힘을 다해야 할 시기”라고 주장했습니다. 유럽 의회의 전자인간 규제는 과도한 규제로 불필요한 사회적 논란을 일으킨 사례로 평가받게 됐습니다.

“기술과 산업 발전이 우선”

과도한 규제가 산업 발전을 가로막은 대표적인 예로 영국의 ‘붉은 깃발법(Red Flag Act)’을 들 수 있습니다. 영국은 1865년 자동차로 피해를 본 마차를 보호하기 위해 이 법을 만듭니다. 자동차 한 대에 운전사 3명이 있어야 하고, 그중 한 사람이 낮에는 붉은 깃발을, 밤에는 붉은 등을 들고 마차를 몰아 자동차를 안내해야 한다는 내용입니다.

한마디로 사람들로 하여금 자동차를 사지 못하도록 하는 규제였습니다. 이 법은 1896년까지 30년간 유지됐고, 산업혁명과 자동차 엔진 발명을 이끌었던 영국은 자동차산업의 주도권을 미국, 독일, 프랑스 등에 내줘야 했습니다.

현재 AI에 대한 규제는 유럽연합이 가장 급진적이고, 미국와 일본은 산업 발전에 무게를 두고 있습니다. 우리나라는 그 중간 정도인 것으로 평가받습니다. 국내에서도 “일방적이고 과도한 규제는 어린 나무를 가지치기해 더 자라지 못하게 만드는 것”이라며 “AI 기술과 산업 발전을 더 적극적으로 지원해야 한다”는 주장이 많습니다.

과도한 규제로 신산업 태동 막아선 곤란

규제는 정부가 법률과 명령 등에 근거해 국민과 기업의 권리를 제한하거나 의무를 부과하는 것입니다. 법률과 명령은 결국 수많은 사회 구성원의 선택 결과이고, 타협의 산물이라고 할 수 있습니다. AI 기술의 혜택을 더 많이 향유하면서 동시에 AI로 인한 잠재적 위험을 방지할 수 있는 규제 방안을 모색해야 합니다.

그 과정에서 AI 같은 신기술의 두 가지 특징(어려움)을 고려해야 하는데요. 신기술의 부정적 효과(위험)는 초기에는 완전히 알기 어렵고 미래에 제대로 파악할 수 있다는 점과 신기술 초기의 규제가 새로운 위험을 발생시키거나 위험을 변형시킬 우려가 있다는 점입니다. 이런 어려움을 이겨내고 우리 사회가 세계적으로 모범적인 타협을 이뤄낼 수 있기를 기대해봅시다.

NIE 포인트

1. 로봇 3원칙을 설명해보자.

2. 과도한 규제의 역효과에 대해 토론해보자.3. AI 같은 신기술의 두 가지 특징을 정리해보자.

장경영 한경 경제교육연구소 연구위원 longrun@hankyung.com