"내 벗은 몸 볼래?"…누드 사진 팔던 女 반전 정체에 좌절
입력
수정
커뮤니티서 나체 사진 팔던 클라우디아"내 벗은 몸 볼래?"라는 말에 혹해 여성의 나체 사진을 구매한 한 네티즌은 좌절했다. 알고 보니 인공지능(AI)으로 생성한 가짜 이미지였기 때문이다.
컴퓨터과학 대학생 2명이 만든 AI 사진
12일(현지시간) 워싱턴포스트 등 외신에 따르면 지난 1월부터 영미권 최대 온라인 커뮤니티 레딧에 닉네임 '클라우디아'라는 이용자가 나체 사진을 판매하기 시작했다.클라우디아는 셀카 사진을 올린 뒤 관심을 보인 네티즌에게 "돈을 내면 더 많은 사진을 보여주겠다"고 개인 메시지를 보내는 방식으로 구매자를 모집했다.
그러나 클라우디아가 올린 셀카를 비롯해 일부에게 판매한 나체 사진은 모두 이미지 생성 AI 프로그램 '스테이블 디퓨전'으로 창조된 가짜 이미지로 판명 났다. 컴퓨터과학을 전공한 대학생 2명이 가상의 여성을 만들어 낸 뒤 이를 이용해 수익을 창출한 것이다.
이들은 "솔직히 이 정도로 관심을 끌 거라고는 생각하지 못했다"며 "클라우디아의 사진을 판매해 100달러(약 13만원)를 벌었다"고 전했다.이 같은 사실이 알려지자 일각에서는 딥페이크 포르노에 대한 윤리적 문제를 제기하고 나섰다. 캘리포니아 버클리대 하니 파리드 교수는 "AI 사진 생성 프로그램 자체가 이미 있는 데이터를 기반으로 이미지를 창출해내기 때문에, 자신의 초상이 활용되는데 동의하지 않은 누군가의 사진이 무분별하게 이용될 수 있다"며 "그 자체로 윤리적 문제가 발생한다"고 지적했다. 그러면서 "딥페이크 포르노는 문제가 많으며 법적으로 규제돼야 한다. 물론 딥페이크에는 장단점이 있지만, 포르노 산업과 연계되는 순간 문제가 복잡해진다"고 강조했다.
이번 사태와 관련해 영미권 누리꾼들은 "이제는 아무것도 믿을 수 없다"는 반응을 보였다. 실제로 레딧에 올라왔던 클라우디아 셀카는 자세히 살펴보지 않는 한 합성 티가 거의 나지 않는다. 클라우디아 셀카 게시물에는 여전히 "너무 예쁘다", "어떻게 그렇게 예쁠 수 있냐", "아름답고 사랑스럽다" 등 조작을 전혀 의심하지 않은 반응들이 줄을 이었다.
AI 프로그램으로 생성된 가짜 이미지 논란은 최근 들어 지속해서 도마 위에 오르고 있다. 지난달에는 프란치스코 교황이 유광 흰색 롱패딩을 입은 사진이 퍼져 큰 화제를 모은 바 있다. 당시 한 트위터 계정에 올라온 사진은 조회수 2540만회를 기록했다. 교황의 패딩 브랜드를 추측하는 글도 잇따랐다. 하지만 이는 AI 툴 '미드저니'를 통해 제작된 이미지였다.미드저니는 최근 도널드 트럼프 전 미국 대통령이 수갑을 찬 채 경찰들에게 체포되는 모습, 교도소에서 주황색 재소자 복장으로 청소하는 모습 등을 만들어내 이목을 끌었다. 해당 사진이 SNS에서 퍼지자 일부 네티즌은 실제로 트럼프 전 대통령이 체포됐다고 받아들이기도 했다. 이에 트위터까지 나서서 "트럼프 체포 이미지는 가짜"라며 "인공지능이 생성했고, 사실적 근거가 없다"는 공지문을 올리기도 했다.
신현보 한경닷컴 기자 greaterfool@hankyung.com