자율주행차·AI 의료 사고…누구 책임일까
인공지능(AI)이 운전하는 자동차가 보행자를 치어 사망케 한다면 누구에게 책임을 물어야 할까. AI 예측을 믿고 경영상 중요한 결정을 내렸다가 회사가 큰 손해를 입으면 AI에게 배임죄를 적용할 수 있을까.

AI가 인간의 영역을 대체하면서 벌어질 수 있는 법적 분쟁이다. 현행 법 체계는 자연인과 법인만을 법적 권리와 의무의 주체로 인정하기 때문에 AI를 둘러싼 혼란은 불가피하다. 정부도 이런 문제를 인식하고 장기적인 대비책 마련에 착수했다.

2일 정부에 따르면 법무부는 최근 ‘AI 사회를 대비한 민사법적 과제’를 주제로 연구용역 모집 공고를 냈다. 법무부는 “최근 AI는 정보를 수집·처리하는 인간의 작업 도구라는 기능을 넘어서 배우고 판단하는 학습 능력을 갖추기에 이르렀다”며 “인간이 컴퓨터를 통제할 수 있고, 그 결과를 어느 정도 예측할 수 있다는 전제로 논의된 기존의 법리는 AI 사회에서 수정될 수밖에 없는 상황”이라고 설명했다.

법무부는 △AI가 어느 정도까지 인간의 의사 형성 및 의사 판단의 범위를 담당할 수 있는지 △AI의 역할을 법적으로 어떻게 판단할 것인지 △AI에 책임을 지우기 위해 AI 자체에 권리 능력을 인정할 것인지 등에 대해 연구를 진행할 계획이다. 해외 입법 사례도 면밀히 살펴볼 방침이다. 미국에서는 이미 AI를 법적 관점에서 어떻게 봐야 할지를 두고 논쟁 중이다. 위스콘신주 대법원이 AI가 분석한 자료를 근거로 형사재판 피고인에게 중형을 선고한 사례 때문이다.

법조계에서는 AI가 잘못을 저지르면 제조사에 제조물책임법상 책임을 묻는 게 가장 현실적인 대안이라고 보고 있다. 하지만 어디까지 책임을 물어야 할지는 법적 논쟁감이다. 또 선제적으로 규제를 하다 보면 AI산업 발전에 걸림돌이 될 것이라는 반론도 만만찮다.

고윤상 기자 kys@hankyung.com