"AI가 사고치면 제조기업 책임"

日, 인공지능 활용 7대 원칙 마련
일본 정부가 인공지능(AI)의 독자 판단으로 사고가 발생했을 때 AI 제조사가 책임을 지도록 하는 등 ‘AI 활용 7대 원칙’을 제정했다. AI 기술 이용을 활성화하기 위한 것으로, 앞으로 이 원칙을 바탕으로 법과 제도를 정비해 나가기로 했다.

니혼게이자이신문은 27일 일본 내각부 자문기구인 ‘인간 중심 AI 사회 원칙 검토회의’가 이 같은 AI 활용 원칙을 마련해 이달 공표키로 했다고 보도했다.내각부 자문기구가 마련한 7대 원칙에는 △기업이 AI 결정 과정에 책임을 진다 △AI는 인간의 기본적 인권을 침범하지 않는다 △누구든 AI를 이용할 수 있도록 교육을 충실히 한다는 내용이 들어가 있다. 또 △개인 정보를 신중하게 관리한다 △보안을 철저히 한다 △공정한 경쟁 환경을 유지한다 △국경을 넘는 데이터 이용 환경을 정비한다는 항목도 포함됐다.

AI 활용 원칙의 핵심은 ‘기업이 AI 결정 과정에 책임을 진다’는 조항이라는 분석이 제기된다. AI 판단으로 법적 책임을 져야 하는 사고가 발생했을 때 책임 유무를 명확히 규정한 것이다. 동시에 일본 정부는 AI가 은행 대출 심사나 자율주행차 운전을 한다면 어떤 과정을 거쳐 판단했는지를 추후에 확인할 수 있도록 할 방침이다. AI 판단에 대한 불안감과 의구심을 줄이기 위해서다. 일본 정부는 7대 원칙을 기반으로 관련법을 정비할 계획이다.

구글, 애플, 아마존 등 정보기술(IT) 기업들이 AI 기술 개발을 이끌고 있는 미국에선 AI 활용 규칙이 기본적으로 기업 자율에 맡겨져 있다. 반면 중국은 국가 주도로 빅데이터를 관리하는 추세다.

도쿄=김동욱 특파원 kimdw@hankyung.com