페이스북, 온라인 아동착취 방지 노력 강화

'아동 성적대상화' 콘텐츠 담은 계정 삭제도
페이스북이 유해 콘텐츠 적발을 위한 새로운 툴 개발과 규정 강화를 통해 소셜미디어(SNS) 등 온라인상에서의 '아동 착취'와의 싸움에 나섰다. 페이스북 안전 담당 전 세계 책임자인 앤티곤 데이비스는 23일(현지시간) "우리의 앱을 이용해 아이들을 해치는 것은 혐오스럽고 용납할 수 없는 일"이라며 "우리는 이러한 종류의 콘텐츠 공유를 감소시키기 위해 새로운 툴 및 정책 마련을 포함한 특화된 해결책을 마련하고 있다"고 밝혔다고 AFP통신이 보도했다.

이와 관련, 페이스북은 새로운 지침을 통해 부적절한 애정 표현 등을 담은 캡션이나 해시태그 등을 달아 아이들의 이미지를 공유하는 페이스북과 인스타그램 계정을 폐쇄하겠다는 점을 분명히 했다.

데이비스는 "우리는 노골적으로 아동을 성적 대상화 하는 콘텐츠를 이전에도 항상 제거해왔지만, 노골적이지 않거나 알몸 노출을 담지 않은 콘텐츠의 경우 가려내기 더 힘든 측면이 있다"고 말했다. 그러면서 "이번 신규 정책에 따라 이미지 자체로는 규정을 어기지 않았더라도 첨부된 텍스트에 따라 해당 콘텐츠가 아동을 성적 대상화 하는지, 연관 프로필이나 페이지, 계정 등이 제거돼야 하는지를 더욱 제대로 가리게 될 것"이라고 덧붙였다.

현재 시험 중인 새로운 툴에는 아동 착취와 연관된 용어를 검색할 경우 초래되는 해악과 뒤따르게 될 법률적 결과 등을 경고하는 팝업 메시지 및 안전 경보 작동 등이 포함된다고 AFP는 전했다.

페이스북 규정을 어기는 콘텐츠는 삭제되는 동시에 해당 계정이 국립실종·착취아동센터(NCMEC)에도 보고된다. 지난해 하반기 NCMEC에 공유된 불법적 아동 착취성 포스트들에 대한 분석 결과, 90% 이상이 이미 그 이전에 신고된 것과 동일하거나 매우 유사한 것으로 드러났다고 페이스북은 밝혔다.

페이스북이 NCMEC 등과 함께 이러한 콘텐츠를 공유하는 이들의 의도를 분석한 결과 75% 이상의 경우 악의는 없는 것으로 보였으나 분노 표출이나 무분별한 유머 시도 차원으로 파악됐다고 AFP통신이 전했다.
/연합뉴스