원리를 이해하고 스스로 절제하는 AI비서를 기대하며
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
AI 자유 카페 <12> 박연익 KT경제경영연구소 수석연구원
증가하는 AI스피커 판매량, 그러나 하락하는 만족도
싱가포르 시장조사기관 카날리스에 따르면 2019년까지 보급된 AI스피커는 약 2억대 수준이었다. 이후 팬데믹 상황으로 사람들이 집에 머무르는 시간이 증가함에 따라 AI스피커의 판매량은 큰 폭의 상승세를 보이고 있다. 글로벌 시장조사기관 스트래티지 애널리틱스에 따르면 2020년 한해동안 판매된 AI스피커는 1억5000만 대에 달한다. 국내의 경우도 2020년까지 1000만 대 이상이 보급돼 활용되고 있다.이렇게 AI스피커가 널리 보급되었지만, 소비자의 이용 실상을 들여다보면 다소 실망스럽다. 올 3월에 발표된 시장조사기관 컨슈머인사이트에 따르면 국내의 경우 AI스피커 이용빈도와 만족도는 점진적으로 하락하고 있다. 매주 3회 이상 이용한다는 응답이 3년 전 53%에서 50%로 하락하였고, 이용만족도 또한 2019년 상반기 47%, 2019년 하반기 44%, 2020년 상반기 44%, 2020년 하반기 42%로 갈수록 하락하고 있다.
AI비서의 대화기능, 소비자 기대에 못 미쳐
가장 큰 문제는 AI비서의 성능이 소비자의 기대에 못 미친다는 것이다. 컨슈머인사이트의 조사결과에 따르면 주된 불만족의 이유가 ‘AI스피커가 음성명령을 제대로 인식하지 못한다’(47%), ‘자연스로운 대화가 안된다’(33%)인 것으로 나타났다. 이러한 연유로, AI스피커의 이용 형태가 △날씨·미세먼지 검색(52%) △음악검색·재생(46%) △TV제어(43%) △리모컨 찾기(20%) △VOD 검색(20%) 등 단순 기능 중심으로 나타나고 있는 것이다.국내 AI비서 시장에는 통신사, 플랫폼사업자, 글로벌 빅테크 기업 등 많은 사업자들이 치열하게 경쟁 중이다. 그리고 최근 고성능 칩 기반의 하이퍼스케일 AI가 도입되고 있고, 다양한 단말/앱에서 방대한 데이터가 축적되고 있어, AI비서의 성능 개선은 시간 문제로 보인다. 하지만, AI스피커가 진정한 의미의 AI비서가 되기 위해선 두 가지 문제를 해결해야 한다. 첫째 딥러닝을 이용해 쌓은 정보를 지식으로 변환함과 동시에 원리를 결합하는 것이다. 둘째 상황에 따른 도덕적/윤리적 판단에 따라 언행을 자제할 수 있는 능력을 키우는 것이다.
자연스러운 대화를 위해 원리 학습과 추론 능력 배양 필요
인간은 태어나면서 눈과 귀를 통해 다양한 정보를 수집한다. 간난 아기 때는 이러한 정보를 수집하고 모방하는 것에 주력한다. 모방을 하다가도 도덕적/윤리적으로 맞지 않는 말을 하게 되면 주위 사람들로부터 교정을 받으면서 익혀나간다. 그리고 가정생활, 학교생활, 사회생활을 해나가면서 수집된 정보를 해석하고 지식으로 만드는 원리를 배워 나간다. 이를 통해 경험이 없는 상황에서도 대처하는 방법을 배우게 된다.현재의 AI기술은 수많은 정보와 데이터 속에서 패턴을 찾아 스스로 학습하는 귀납적 학습은 가능하다. 하지만 원리에 기반한 학습과 연결시키지는 못하고 있다. 학교 다닐 때 시중에 있는 모든 문제집을 외운다고 해서 100점을 받을 수 없었듯이, 모든 문제집을 보면서 그 원리를 학습해야만 변형된 문제도 풀 수 있을 것이다. 이러한 연유로, 현재의 AI비서는 정형화된 프로세스로 진행되는 음악재생, 음식주문, 쇼핑 등 업무를 수행하나 여러 가지 상황에 따른 대화를 이어가지 못하는 한계를 가지고 있다.
스스로 통제할 수 있는 능력을 길러줘야
옛말에 “자금이 없다”라는 말이 있다. 돈이 아니라 스스로 자(自)에 금할 금(禁), 스스로 자신을 통제하거나 금하는 법도가 없다는 말이다. 사람들은 어릴 땐 사리분별이 잘 되지 않는다. 나이가 들수록 세상 이치를 깨달아 가고 자금이 생기는 법이다. AI는 엄청난 양의 학습을 하더라도 그렇게 자금을 할 수 있는 능력이 없다. 작년 12월 정식 오픈 이후 큰 관심을 받았으나, 불과 한달여 만에 중단된 대화형 AI ‘이루다’가 대표적 사례라고 할 수 있다. 도덕적 윤리적 판단이 결여된 AI ‘이루다’는 사회적 소수자와 인종에 대한 각종 차별과 혐오를 거리낌 없이 표출했다. 거기에 더해 특정인의 이름과 주소 등 개인정보 또한 무작위적으로 노출하였다. 즉, ‘이루다’는 학습한 것은 많았지만 사회적 금기 등에 대한 이해가 없었다. 상황 인식과 옳고 그름에 대한 판단능력이 부족한 AI의 한계를 고스란히 보여주었다.많은 학습과 숙련을 거친 사람들도 가끔 실수를 한다. 때로는 판단의 근거가 미약해서, 때로는 상황에 대한 고려가 부족해서 이러한 실수를 초래한다. 얼마 전 공당의 원로 정치인의 ‘절름발이’ 발언이 장애인 비하 논란에 휩싸인 것도 그 일례이다. 우선, AI비서가 사회적으로 금기시되는 표현을 자제하도록 학습시켜 주는 과정이 필요하며, 이것의 한계를 인정하는 사회적 컨센서스도 필요해 보인다.
인간에 가까운 지능을 가진 AI를 기대
Artificial Intelligence는 사람이 제작한 지능이다. 계산이나 자료의 정리, 기억 및 호출 등은 인간의 지능보다 월등할 수 있으나, 원리를 깨우쳐 데이터의 활용도를 높이거나 도덕적·윤리적 판단에 따라 스스로를 통제하는 능력에 있어서는 아직 인간에 미치지 못한다.과거 우리는 컴퓨터를 통하여 계산이나 기억 및 호출 기능이 인간을 능가하는 것을 보아온 바 AI도 인간의 지능을 능가하리라 기대하고 있는 듯하다. 하지만 현재의 AI기술은 어마어마한 데이터를 인식하고 패턴을 찾아 학습하는 수준에 머무르고 있는 것이 사실이다. 가까운 미래에 인간에 가깝게 원리를 이해하고 상황에 대한 판단과 추론을 할 수 있고, 또한, 실수로부터 배우며 자연스럽게 대화하며 교감할 수 있는 AI 비서를 볼 수 있을 날을 기대해 본다.