"네 목소리 아니었어?" 가족도 속았다…AI 보이스피싱 공포
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
챗GPT로 보이스피싱을?…'AI 아바타', 범죄악용 주의보
WSJ 칼럼니스트 AI로 인물, 음성 복제해 실험
가족, 은행도 ‘목소리 아바타’ 구별 못해
WSJ 칼럼니스트 AI로 인물, 음성 복제해 실험
가족, 은행도 ‘목소리 아바타’ 구별 못해

30일 관련 업계에 따르면 미국 월스트리트저널(WSJ)의 IT 칼럼니스트 조안나 스턴은 지난 28일(현지시간) “AI로 자신을 복제했는데 은행과 가족이 속았다”는 내용의 칼럼 게재했다.
스턴은 이 음성 아바타로 미국 대형은행의 신용카드 관련 고객서비스도 이용해봤다. 그 결과 개인 목소리를 구분하는 생체인식 시스템을 손쉽게 통과할 수 있었다. 자동응답시스템이 AI 음성을 스턴 본인의 목소리로 인식해 직원에게 연결해줬다는 것이다.
스턴은 이와 함께 영국 런던의 AI 스타트업 신세시아의 프로그램을 활용해 아바타도 만들었다. 그리고 아바타에 챗GPT로 생성한 대사를 입력해 자신 대신 동영상 공유 사이트나 화상회의에 출연시켰다. 그 결과 화상회의에선 지나치게 곧은 자세와 위트 부족으로 진짜 사람이 아니란 사실이 곧장 들통났다. 다만 상호작용이 상대적으로 적은 동영상 공유 사이트에선 비교적 쉽게 들키지 않았다고 그는 밝혔다.
최진석 기자 iskra@hankyung.com