친구와 영상통화했는데 7억 털렸다…난리 난 '신종 사기' [조아라의 IT's fun]

[조아라의 IT's fun] 25
사진=게티이미지뱅크
"친구야, 급하다! 입찰보증금 7억 송금해 줘. 부탁한다 친구야."

중국의 한 정보기술(IT) 기업 대표 궈모 씨는 친구로부터 걸려온 웨이신 영상 통화를 통해 이같은 메시지를 접했다. 내용은 간단했다. 필요한 돈은 이미 회사 계좌로 보내놨으니 그 돈을 그대로 다시 이체해달라는 내용이었다. 계좌이체 명세서를 캡처(화면 갈무리)해 보낸 친구는 "입찰에 참가하려고 하는데 개인 계좌 말고 회사 계좌로 보증금 430만위안(약 7억8000만원)을 보내야 한다"며 "너희 회사 계좌만 잠시 사용하겠다"고 말했다.간절한 친구의 얼굴과 목소리를 확인한 궈 씨는 10분 만에 두 번에 나눠 전액을 친구가 안내한 계좌로 이체했다. 그는 송금한 뒤 친구에게 "입금 완료"라는 웨이신 메시지를 보냈다. 그러나 되돌아온 답변은 '물음표'였다. 부랴부랴 친구에게 전화를 걸었지만 이같은 사실을 전혀 모르는 친구의 모습에 그제야 사기당한 것을 깨달았다. 궈 씨는 즉시 경찰 신고를 하고 은행 역시 지급정지 조치를 취했지만 송금액 일부인 336만위안(약 6억1000만원)만 되찾을 수 있었다.

최근 중국 후난르바오 등 현지 매체는 "신종 인공지능(AI) 사기가 기승을 부리고 있다"며 이 사건을 대대적으로 보도했다. 궈 씨는 "다짜고짜 돈을 빌려달라고 한 것도 아니고 송금했다며 다시 이체를 부탁한 데다 영상 통화로 친구의 목소리와 얼굴을 확인한 터라 경계심을 풀었다"고 말했다.

정신줄 놓으면 순식간에 털려…진짜 같은 '신종사기' 뭐길래

사진=바이두 캡처
최근 AI 기술을 악용한 신종 사기가 잇따르고 있다. AI 기술로 타인의 목소리와 얼굴을 도용, 지인을 사칭해 금전 등을 요구하는 식이다. 특히 미리 개인정보를 파악하고 지능적으로 접근해 감쪽같이 속는 경우가 적지 않다.

24일 관련 업계에 따르면 최근 세계적으로 범죄 대상자의 지인을 사칭해 금전을 요구하는 사례가 급증하고 있다. AI 기술 발달로 짧게는 3초 분량의 음성만 있으면 동일한 목소리를 만들어낼 수 있는 음성 생성 AI가 범죄에 악용되고 있다. 여기에 AI 얼굴 합성 기술 '딥페이크'를 결합한 사기 행각이 증가하고 있어 사회적 문제로 대두되고 있다.
영상=웨이보
회사 상사를 사칭한 사기 수법도 언급되고 있다. 역시 중국 한 회사의 재무관리 담당자 왕모 씨는 회사 대표로부터 거래처에 2만위안(약 360만원)을 송금하라는 지시를 받고 송금을 했다. 음성 메시지를 통해 들은 상사의 음성과 억양이 실제와 매우 똑같았기 때문에 감쪽같이 속았다고 했다. 이외에도 대학 동창 등을 사칭해 4~5초간 영상 통화를 한 뒤 금전을 요구하는 등 AI를 활용한 신종 사기가 퍼지고 있다.은행과 같은 금융기관 피해 사례도 있다. 2021년 아랍에미리트(UAE)의 한 은행 담당자는 대기업 임원 전화를 받고 3500만달러(당시 환율 약 420억원)를 송금했다. 하지만 전화를 건 사람은 'AI 딥보이스'로 임원의 목소리를 흉내낸 사기단이었다. 평소 이 임원의 목소리를 잘 알았던 은행 관계자는 한 치의 의심도 없이 이체, 순식간에 수백억원의 거액이 털렸다.

"소름끼친다"…충격적인 최근 'AI 딥페이크' 근황

영상=바이두
업계에 따르면 AI 기술을 활용한 얼굴 및 음성 합성은 어렵지 않다. 간단한 음성과 얼굴 사진만 있으면 실제 당사자와 구분이 안 될 정도의 음성과 얼굴 영상을 만들 수 있다. 특히 최근의 기술을 동원하면 실제 모습에 가까운 3차원(3D) 형태 영상을 만들 수 있어 육안으로 구분이 힘든 경우도 많다. 실제로 중국 온라인에서는 드라마 '신조협려'를 연기한 여배우 유역비의 얼굴을 엑소 멤버 루한의 얼굴로 변환한 영상이 확산돼 화제가 되기도 했다. 이 외에도 공연 중인 블랙핑크 지수의 모습을 중화권 여배우 탕웨이로 바꾸거나 도널드 트럼프 전 미국 대통령이 체포되는 모습, 볼로디미르 젤렌스키 우크라이나 대통령이 가짜 항복 선언하는 모습 등이 대표적이다. 과거 어설픈 '조선족 말투'의 음성 사기와 달리 최근 범죄에 활용되고 있는 딥보이스(목소리 합성)·딥페이크(이미지 합성)는 진위 구별이 쉽지 않다.
영상=유튜브 @Makeupday365 캡처
문제는 이 같은 AI 기술을 활용한 신종 사기가 점점 늘어날 것이란 전망이 나오고 있다는 점이다. 영국 로이터통신에 따르면 올해 전 세계 소셜네트워크서비스(SNS)에 약 50만개의 딥페이크 영상·음성 게시물이 공유될 것으로 예상된다. 전년 대비 영상은 3배, 음성은 8배 증가한 수치다. 딥페이크 기술이 보편화되면서 사기 행각에 악용되는 사례도 함께 늘어날 것으로 점쳐진다. 미국 조사기관 가트너는 올해 금융사기범죄 20%에 딥페이크 기술이 악용될 것이라고 내다봤다. 사기 용도뿐 아니라 성범죄에도 적극 활용되고 있다.

국내 상황도 다르지 않다. 허은아 국민의힘 의원이 방송통신심의위원회(방심위)로부터 제출받은 자료에 따르면 방심위가 시정요구 및 자율규제 조치한 성적 허위 영상물은 2020년 548건에 불과했으나, 2021년 2988건으로 급증했다. 지난해 8월까지는 총 2821건으로 최근 3년 사이 5배 가량 증가했다. 현행 '성폭력처벌법'에 따라 타인의 얼굴이나 신체 등을 허위 성 착취물로 만들거나 배포하면 5년 이하 징역 또는 5000만원 이하의 벌금에 처한다는 규정이 있지만, 실질적으로 발생하는 모든 범죄를 온전히 차단하기 어려운 실정이다.업계 관계자는 "딥페이크 범죄의 경우 온라인을 통해 이뤄진다는 점에서 유포 속도가 빠르고 확산 범위가 상당히 광범위하다"며 "특히 해외에 서버를 두고 유포한 경우 최초 유포자를 찾기는 사실상 쉽지 않다"고 말했다.
사진=유튜브 @Makeupday365 캡처
조아라 한경닷컴 기자 rrang123@hankyung.com