여친 폭행남 경찰에 신고한 '아마존 AI비서'

못하는게 없는 인공지능

미국 911 접수 후 경찰 출동 "알렉사가 사람 생명 구했다"
아마존의 인공지능(AI) 비서 ‘알렉사’가 여자친구를 폭행하는 남성을 긴급전화 911에 신고했다. CNN방송은 10일(현지시간) “뉴멕시코주의 한 남성이 여자친구를 때리다 신고를 받고 출동한 보안관에게 체포됐다”고 보도했다.

현지 경찰에 따르면 에두아르도 바로스란 이 남성은 지난 2일 뉴멕시코주 앨버커키 인근 티헤라스의 자택에서 여자친구에게 주먹을 휘두르다 출동한 경찰특공대에게 붙잡혔다. 바로스는 여자친구가 의심스러운 문자메시지를 받았다며 폭행했고, “경찰에게 전화했냐. 신고하면 죽이겠다”고 협박한 것으로 알려졌다. 수사당국은 당시 방 안에 있던 알렉사가 ‘경찰에게 전화’라는 말을 인식해 911에 전화한 것으로 보고 있다. 연락을 받은 911 요원이 피해자에게 다시 전화를 걸자, 이를 확인한 바로스는 피해자의 얼굴과 배를 열 차례 이상 더 때렸다.마누엘 곤살레스 3세 보안관은 “신기술 기기가 긴급 신고를 한 덕에 생명을 구할 수 있었다”고 말했다.

하지만 알렉사가 911에 신고한 메커니즘은 명확히 판명되지 않고 있다. 통상 알렉사에게 명령하려면 아마존의 음성인식 스피커인 에코에 “알렉사”라는 이름을 먼저 부른 뒤 “컨트리음악을 틀어줘”라는 식으로 요구해야 한다.

이번엔 “알렉사”를 불렀는지 모호할 뿐 아니라, 아마존은 “알렉사에 911 신고 기능이 없다”고 밝혔다. 아마존 관계자는 “알렉사를 이용해 전화하려면 받는 쪽도 알렉사 앱(응용프로그램)이 필요하다”고 말했다. 현지 보안관도 “911에 전화한 장치를 특정할 수 없다”고 밝혔다. 일각에선 아마존이 음성인식으로 인한 사생활 침해 논란을 의식해 알렉사의 역할을 부인하는 것 아니냐는 분석도 나온다.

박상익 기자 dirn@hankyung.com