차선 위 아이와 할머니…AI의 선택은?

자율주행차의 또다른 벽 '트롤리 딜레마'

돌발상황 대처할 AI 윤리 문제
인간처럼 판단하는 학습이 숙제
차선 위에 아이와 할머니가 있다. 아이는 걸음마도 떼지 못한 채 기저귀를 차고 있고, 거동이 불편한 할머니는 지팡이에 의지해 길을 걷는다. 멀리서 다가오는 푸른 자율주행차는 두 명 중 한 명과 반드시 부딪칠 운명이다. 인공지능(AI)은 어떤 선택을 해야 옳은 것일까.

미국 매사추세츠공과대(MIT) 미디어랩은 2018년 233개 국가 230만 명을 대상으로 설문한 결과를 발표했다. 윤리학 최대 난제이자 유명 사고실험으로 불리는 ‘트롤리 딜레마(trolley dilemma)’를 자율주행차의 주행 상황으로 가정한 것이다.4000만 건의 설문 데이터를 분석한 결과, 국가마다 응답 성향이 극명히 갈렸다. ‘노인을 살려야 한다’는 경향이 짙었던 대만 일본 등 아시아의 유교권 국가와 ‘어린이를 보호해야 한다’는 프랑스 캐나다 등 서양 국가 간 ‘가치관 차이’가 드러난 것이다. 탑승자보다 보행자를 우선해야 하는가에 대한 물음에도 사회적·문화적 성향에 따른 시각차가 존재했다.

트롤리 딜레마는 자율주행차가 상용화에 성공하려면 초고도 AI 기술은 물론 ‘윤리적 가치 기준’ 문제까지 판단해야 한다는 복잡성을 단적으로 드러낸다. AI를 스스로 운전하는 주행 주체로 만든다고 해도 인간과 마찬가지로 ‘전능한 판단’을 할 수 없다는 게 전문가들의 분석이다. 결국 전용차선 등 통제된 환경을 구축해 변수를 최소화하고, 인간에 가까운 판단을 학습시키기 위한 기술 혁신 노력이 앞으로도 오랜 기간 수반돼야 한다는 얘기다.

자율주행의 AI 윤리에서 국내의 움직임은 ‘태동기’에 가깝다. 국토교통부는 지난해 12월 한국교통안전공단 등과 ‘자율주행차 윤리 가이드라인’을 발표했다. ‘재산보다 인간 생명을 최우선해 보호할 것’ ‘사고 회피가 불가능할 경우 인명 피해를 최소화할 것’ 등 권고 성격을 띠는 선언적 기준이 나왔다. 국내 시장 상용화는 좀 더 시간이 걸릴 수 있다는 지적이 나오는 이유다. 이종관 성균관대 철학과 교수는 “인간이 인식론·존재론적 관점에서 무한을 예측할 수 없듯, 자율주행차의 불완전성을 인정하는 것이 시작”이라며 “기술 전문가 중심이 아닌, 각계각층의 목소리를 대변할 수 있는 협의체로 AI 윤리 기준을 다뤄야 한다”고 했다.

이시은 기자