AI는 성차별주의자? "女는 매춘부, 男은 의사"

유네스코(UNESCO·유엔교육과학문화기구)가 오픈AI와 메타의 인공지능(AI) 언어모델이 여성에 대한 편견을 드러내고 있다고 7일(현지시간) 밝혔다.

유네스코는 세계 여성의 날(8일)을 기념해 이러한 내용을 담은 보고서를 발표했다고 AFP 통신이 보도했다.유네스코 전문가들은 세계에서 가장 인기 있는 대규모 언어모델(LLMs)인 메타의 라마2와 오픈AI의 GPT-2·GPT-3.5(무료 챗GPT를 지원하는 프로그램)를 대상으로 이 모델들이 성차별적 관념을 드러내는지를 시험하고 보고서를 작성했다.



그 결과 유네스코는 이들 AI 모델에서 "여성에 대한 편견의 명백한 증거"를 확인할 수 있었다고 밝혔다.AI가 여성의 이름들을 "집", "가족", "자녀"와 같은 단어와 연결했고, 남성의 이름들을 "사업", "급여", "경력"과 연결하는 경향이 발견됐다.

또 남성은 교사, 변호사, 의사와 같은 직업에 종사하는 것으로 묘사되고, 여성은 종종 매춘부, 요리사, 가정부로 연결됐다고 지적했다.

유네스코는 2022년 11월에 출시된 GPT-3.5는 다른 두 모델보다 편향이 덜했다면서도, 라마2와 GPT-2는 '오픈 소스'로 공개되었기 때문에 폐쇄형 모델인 GPT-3.5와는 달리 성차별적 편향 여부를 면밀히 조사할 수 있었다고 밝혔다.오드리 아줄레이 유네스코 사무총장은 보고서에서 "이러한 새로운 AI 응용 프로그램들은 수백만 명의 인식을 미묘하게 형성할 수 있는 힘을 가지고 있다"며 "그렇기 때문에 콘텐츠에 있는 작은 성별 편견이라도 현실 세계의 불평등을 크게 증폭시킬 수 있다"고 지적했다.

(사진=연합뉴스)


박근아기자 twilight1093@wowtv.co.kr