정부가 딥페이크 등 인공지능(AI) 기술을 활용한 범죄를 인격권 침해 관점에서 민사법적으로 처벌하는 방안을 찾기 위한 연구에 들어갔다. 신종 범죄로 분류되는 딥페이크 성범죄는 AI 기술 특성상 과실 책임을 귀속시킬 주체가 불분명해 현행법으로는 처벌과 피해 구제가 어렵다.

20일 법조계에 따르면 법무부는 지난 10일 ‘AI 시대 불법행위 관련 민사법적 대응방안 연구’ 용역을 발주했다.

디지털 성범죄 등 온라인과 가상공간 불법행위로 개인의 인격권과 재산권이 침해되면 과실 책임을 누구에게 귀속시킬지, 실효적인 피해 구제 방안은 어떤 것이 있을지 등을 세밀히 따져보겠다는 취지다.

민법 제750조상 불법행위는 ‘고의 또는 과실로 인한 위법 행위로 타인에게 손해를 가한 자’에게 손해배상 책임을 부과한다. 그러나 AI 기술은 자율성, 예측 불가능성, 설명 불가능성 등 고유의 특징으로 인해 피해를 발생시킨 주체를 규명하기가 모호하다. 예를 들어 AI 기술이 적용된 프로그램을 개발한 사람과 공급한 사람, 이용한 사람 중 누구에게 책임을 부과하는 것이 맞냐는 식이다.

법적 공백으로 처벌을 피한 사례는 최근까지 있었다. 2017년 한양대 여대생들의 얼굴이 합성된 나체 사진을 17차례 제작한 혐의로 기소된 이모씨가 대법원에서 무죄 판단을 받아낸 것이 대표적이다. 이씨가 무죄 확정에 따른 형사보상금을 요구한 사실이 밝혀지면서 사회적 공분을 샀다. 법무부 관계자는 “‘AI는 스스로 책임질 수 있는가’ ‘과실 책임이라는 민법적 대원칙이 AI 시대에도 유효한가’에 대한 고민이 필요해진 시점”이라고 말했다.

법무부는 해외 입법례와 판례, 사례 연구를 통해 현행 법제와 법리의 한계를 짚어보고, 변화한 사회상을 반영한 입법 차원의 개선 방안을 제시할 계획이다. 성 착취물을 이용해 아동과 청소년을 협박·강요한 경우 실형을 선고하는 관련 법 개정안이 전날 국회 여성가족위원회 소위를 통과하는 등 관련 범죄 처벌 기조는 점차 강화하는 추세다. 지난 8월 출범한 정부 태스크포스(TF)는 딥페이크 등 허위 영상물의 소지·구입·시청 행위 처벌 규정을 신설하고 제작·유통 처벌 기준을 상향하는 방향으로 성폭력처벌특례법 등 법률 개정을 예고한 바 있다. TF는 10월까지 종합 대책을 마련해 발표할 계획이다.

장서우 기자 suwu@hankyung.com