"AI가 내린 의사결정, AI가 이유 설명할 수 있어야"
“활용범위가 넓어진 인공지능(AI)은 우리 삶의 모든 궤적을 결정하게 될 겁니다. AI를 이용한 차별을 방지하기 위한 노력이 중요합니다.”

김병필 KAIST 기술경영학부 교수는 11일 ‘글로벌인재포럼 2020’의 두 번째 기조세션 ‘신뢰할 수 있는 AI의 조건’에서 이렇게 강조했다. 그는 “AI의 공정성을 기술 활용의 부수적 문제 정도로 생각하면 안 된다”며 “AI가 ‘공정사회’ 여부를 좌우하게 될 것”이라고 말했다.

김 교수는 “사람들이 AI를 통한 의사결정에 기대를 거는 이유는 최소한 인간보다 덜 자의적이고, 더 투명할 것으로 보기 때문”이라고 했다. 현실에선 종종 정반대 일이 벌어진다. 김 교수는 AI 채용 시스템이 여성에게 감점을 주는 것으로 드러나자 이를 백지화한 미국 아마존의 사례를 들었다.

그는 “AI가 차별적 결정을 내린 것은 인간의 예전 행동을 그대로 학습했기 때문”이라며 “AI의 공정성 문제에는 개별 AI 차원이 아닌 사회구조적 원인이 반영된다”고 설명했다.

최재식 KAIST AI대학원 교수는 알고리즘의 불투명성을 둘러싼 논란에 대응해 이른바 ‘설명 가능한 AI’에 대한 연구가 활발하게 이뤄지고 있다고 소개했다. AI가 의사결정의 결과물뿐 아니라 판단의 과정과 근거까지 인간에게 설명하는 시스템을 의미한다. 최 교수는 “AI를 개발할 때도 결과뿐 아니라 이유를 함께 설명하면서 학습시키면 완성도가 높아지고 검증도 쉬워진다”며 “‘설명의 기술’은 AI와 사람의 공존에 매우 중요하다”고 강조했다.

프랭크 파스콸레 미국 브루클린로스쿨 교수(사진)는 “AI 기술은 언제나 인간의 통제 아래 놓이도록 법과 제도를 정비해야 한다”고 했다. 알고리즘 관련 법률 전문가로 꼽히는 그는 “소유권부터 명확히 해야 한다”며 “특정인에 귀속돼야 문제가 생기더라도 알고리즘 변경, 책임소재 파악, 처벌 등이 가능하다”고 말했다. 또 “로봇이 인간성을 위조해선 안 된다”며 “기업이 챗봇(채팅 로봇) 서비스를 제공할 때 사람이 아니라는 점을 알리는 등의 장치가 필요하다”고 제언했다.

좌장을 맡은 나영선 한국직업능력개발원장은 “AI는 미래의 핵심기술인 동시에 여러 사회적 문제를 불러올 수도 있다”며 “AI의 부작용을 최소화하기 위한 현실적인 가이드라인이 필요하다”고 지적했다.

임현우 기자 tardis@hankyung.com