오류를 줄이기 위한 인공지능의 발전 방향

AI 자유카페 문병순 KT경제경영연구소 책임연구원
테슬라는 편리한 자율주행 기능으로 자동차 업계를 선도하고 있으며 많은 소비자들이 테슬라를 믿고 구입하고 있다. 그런데 올해 6월 미국 고속도로 교통안전국(NHTSA)은 2016년 이후 테슬라의 자율주행 중 사람이 사망한 30여 건의 사고를 조사한다고 밝혔다. 고도의 인공지능 기술과 SW로 자율주행을 구현했으나 다른 차량과 보행자를 인식하지 못해 사망 사고가 계속 발생하자 미국 정부가 조사에 착수한 것이다. 캘리포니아주도 올해 5월 테슬라가 자율주행 사고 원인을 파악해 개선하지 못하면 자율주행(오토 파일럿)이라는 명칭을 금지하겠다는 입장을 밝혔다.

오류의 원인을 파악하고 개선하기 힘든 인공지능

인공지능, 특히 딥러닝은 고정된 규칙이 아니라 많은 변수와 대량의 데이터를 반복적으로 처리하여 주어진 문제를 귀납적으로 해결하는 알고리즘이다. 이러한 방식으로 인공지능은 규칙에 기반한 전통적인 과학과 기술이 하지 못했던 번역, 사물 인식, 신약 물질 탐색 등 많은 기능을 수행하는 혁신을 이룩하였다. 2012년 제프리 힌튼 교수가 영상인식 콘테스트(이미지넷 콘테스트)에서 딥러닝으로 성공적인 영상 인식을 한 후 인공지능이 폭발적으로 발전하고 있으며, 인공지능 발전으로 더 좋은 서비스를 과거보다 적은 데이터와 연산 자원(컴퓨팅 리소스)으로 제공하게 되었다. 그러나 인공지능은 고정된 규칙에 기반하지 않고 많은 변수를 이용하기 때문에 수많은 변수 중에 무엇이 중요한 역할을 했는지를 알기 어렵다. 그 결과 오류가 발생하더라도 어떠한 변수 때문에 오류가 발생했는지를 파악하기 어려워 오류를 개선하기 어렵다. 앞에서 본 자율주행차량의 인식 오류도 그 원인을 쉽게 파악하기 어려워서 오류를 줄이지 못한 사례다. 구조를 파악하기 어렵다는 이유로 인공지능을 블랙박스로 비교하는 사람들도 많다.
인공지능과 대조적으로 규칙에 기반한 전통적인 과학과 기술은 오류가 발생해도 그 원인을 파악하고 개선할 수 있다. 예를 들어 비행기는 많은 부품으로 만들어졌지만, 기계역학과 같은 규칙에 기반해 설계돼 있기 때문에 사고가 발생하더라도 모델에 기반해 원인을 찾아 개선할 수 있었다. 오류가 발생해도 그 원인을 파악하고 개선하기 어려운 한계 때문에 인공지능 단독으로는 비행기처럼 고도로 복잡하고 생명과 관련된 장비를 제어할 수 없는 것이다.
오류의 원인을 파악하고 개선하기 어렵다면 소비자들은 인공지능을 신뢰하지 않을 것이다. 이 때문에 기업들은 오류를 줄이기 줄이기 위해 노력해 왔다. 지금까지는 투입되는 데이터를 늘려서 오류를 줄이는 방법을 많이 채택했지만, 품질이 좋은 데이터의 수집에는 많은 비용이 소요되는 문제가 있다. 또한 오류를 절반으로 줄이기 위해서는 500배의 연산횟수(컴퓨팅 리소스)가 필요하다는 연구가 있는 등 단순히 데이터를 늘리는 것은 경제적인 대안이 되기 어렵다. 인공지능을 개척하는데 큰 공헌을 한 U.C. 버클리의 스튜어트 러셀 교수는 인공지능을 근본적으로 개선하지 않고 데이터와 컴퓨팅 리소스만 늘린다면 자원과 연구자를 낭비하는 것이라고 지적하고 있다.

오류를 줄이기 위한 인공지능의 발전 방향

인공지능의 오류를 개선하고 소비자의 신뢰를 얻기 위해 기업과 학자들은 다양한 시도를 하고 있다. 첫째 인공지능이 할 수 없는 부분은 규칙에 기반한 전통적인 기술로 보완하는 것이다. 대표적으로 자율주행차의 인공지능과 차량간 통신 기술(V2V: vehicle to vehicle)을 결합하여 차량 인식 오류를 줄이는 것이다. 인공지능으로 다른 차량의 위치와 속도를 추정하는 자율주행 기술과 차량 간에 위치와 속도와 같은 데이터를 전달하는 차량간 통신기술을 결합하여 차량인식 오류를 줄이는 것이다. 인공지능의 역량과 한계를 명확하게 파악하고 전통적 기술과 인공지능이 상호 보완하면 인공지능의 오류를 줄일 수 있을 것이다.
둘째 별도의 알고리즘(surrogate model)을 통해 인공지능의 근거를 설명하는 것이다. 다양한 방식이 있는데, 인공지능에 투입되는 변수 중에 일부를 변형하여 계산한 결과와 원래 인공지능의 결과를 비교하여 중요한 변수를 파악하는 방식이 대표적이다. 이런 방법으로 인공지능의 결과를 설명하는 알고리즘을 설명 가능한 인공지능(XAI: Explainable Artificial Intelligence)이라고 한다. 예를 들어 은행이 인공지능으로 신용평가를 하여 대출을 거부할 경우, XAI를 이용하여 젠더나 인종을 이유로 대출을 거절한 것이 아님을 설명해 줄 수 있을 것이다. 아울러 XAI는 소비자에게 결정의 근거를 설명해 줄 뿐만 아니라 개발자들이 중요한 변수를 파악할 수 있게 해주어서 오류의 원인을 파악하고 개선하는 데 도움을 줄 수 있다.
그러나 인공지능의 모델과 별개로 다른 알고리즘을 이용해 중요한 변수를 파악하는 방식이라 서비스의 작동과 서비스의 결과를 서로 다른 모델로 수행하는 것을 납득하지 못하는 사람도 많다. 설명하는 알고리즘이 실제 작동하는 알고리즘과 다르기 때문에 그럴 듯하지만 부정확한 설명을 할 가능성이 있으며, 오류 개선에도 한계가 있을 수 있다.
셋째 인공지능과 규칙에 기반한 전통적인 알고리즘을 혼합하여 알고리즘을 구성하는 방식이다. 예를 들어 과제를 단계적으로 나눈 뒤 단계별로 적합한 딥러닝과 규칙 기반의 알고리즘을 결합한 뉴로 심볼릭(Neuro-Symbolic) 인공지능 방식이 있다. 많은 변수를 한꺼번에 처리하는 것이 아니라 단계별로 알고리즘을 구성하였기 때문에 기존 인공지능 모델보다 단순하여 중요한 변수를 쉽게 파악할 수 있는 것이다. 이외에도 다양한 알고리즘들이 개발되고 있는데, 중요한 변수를 파악하기 쉬운 알고리즘들이 개발된다면 오류의 원인을 쉽게 파악하여 개선할 수 있게 될 것이다.

AI 오류 개선은 진정한 인공지능 시대의 조건

이처럼 인공지능이 빠르게 확산되면서 오류의 원인을 찾아서 성능을 개선하기 어려운 인공지능의 한계를 극복하는 노력도 커지고 있다. 이를 위해 인공지능과 전통적인 과학기술의 유기적 결합, XAI의 개발, 규칙 기반의 전통적인 알고리즘과 인공지능을 결합한 알고리즘의 개발 등 다양한 방안들이 시도되고 있다. 특히 소비자의 이익과 안전과 직결되는 분야에서는 소비자들의 신뢰를 얻기 위해 오류를 줄이는 노력이 집중되고 있다.
아울러 중요한 변수를 파악하지 못하는 인공지능의 한계가 모든 영역에서 문제가 되는 것은 아니다. 인공지능은 신약 물질 탐색, 단백질 구조의 파악과 같이 본질적으로 복잡한 현상을 분석하여 성공적으로 예측하고 있는데, 복잡계의 분석에서 중요한 변수의 파악은 크게 중요하지 않다. 많은 사회적, 자연적 현상들이 많은 변수들이 복잡하게 얽힌 복잡계이기 때문에 중요한 변수를 제시하지 못하는 것은 인공지능의 한계라기 보다는 자연스러운 결과이며, 인공지능이 가지는 한계가 인공지능의 비관론을 뜻하는 것은 아니다. 현재 소비자의 안전과 인권과 직결된 분야에서 오류 파악의 어려움이라는 한계를 극복하기 위해 다양한 방안들이 시도되고 있는데, 이러한 노력을 통해 소비자 신뢰를 얻을 수 있다면 진정한 의미의 인공지능 시대가 열릴 것이다.
문병순 KT경제경영연구소 책임연구원