[시선+] AI도 '인종·성차별' 한다…다른 접근법 필요한 이유
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
'윤리적 사고' 하지 않는 인공지능
편향된 데이터에 그릇된 판단 내려
편향된 데이터에 그릇된 판단 내려

미국 뉴욕대 AI 나우 연구소(AI Now Institute)는 지난 13일 ‘오염된 데이터, 그릇된 예측(Dirty Data, Bad Predictions)’이란 제목의 논문을 발표했다. 연구소는 AI 활용 범죄예측시스템 운용 경험이 있는 미국 13개 시 경찰을 조사했다. 그중 9곳에서 편견이나 오류가 발견됐다는 게 논문의 골자다.
AI의 인종차별 사례는 종전에도 몇 차례 발견됐다. 미인대회의 ‘객관적’ 외모평가를 위해 심사에 투입된 AI는 참가자 6000여명 중에서 수상자 44명 대부분을 백인으로 뽑았다. AI가 미인 판단 학습에 사용한 사진이 거의 백인이었던 탓이다.
심지어 흑인의 사진을 인간이 아닌 동물로 인식한 사례도 있다. 사진 이미지를 자동 인식해 구분·정리하는 ‘구글 포토’에서 생긴 문제였다. MIT(매사추세츠공대) 미디어랩에 따르면 사진분류 AI는 백인 사진의 인식 에러 확률이 1% 내외, 흑인 사진의 경우 최고 35%에 달했다.
AI 시스템은 채용·인사 데이터를 수집해 지원자를 평가한다. 그런데 여성 지원자에 대한 과거 데이터가 부족해 여성을 배제할 가능성이 높다는 얘기다. 실제로 아마존이 개발한 AI 채용프로그램은 ‘여성’ 키워드가 포함되면 선택하지 않은 것으로 알려졌다. 남성 종사자가 많은 IT(정보기술) 기업의 기존 데이터 학습 결과 AI마저 남성 위주 편향성을 갖게 된 것이다.

예컨대 사진인식 AI는 우선 전체적 윤곽을 찾아낸 뒤 다음엔 눈, 그 다음 코·입·귀 등으로 단계를 거치며 특징을 추출해나가는 방식을 택한다. 한 층씩 전파하면서 추상화 과정(심층학습·딥러닝)을 거쳐 최종적으로 사진을 인식한다. 인간의 지능과 똑같은 방식으로 사고(思考)하는 게 아니라 프로그래밍된 대로 분류하고 확률을 계산해 지능을 ‘흉내’ 내는 것이다.
때문에 정부는 최근 ‘전자정부 10대 유망기술’ 중 하나로 인공지능 윤리를 꼽았다. 마이크로소프트가 윤리적 AI의 중요성을 강조하고, IBM이 AI 편향성을 모니터링하는 ‘AI 오픈스케일’을 공개하는 등 유명 IT 기업들이 문제해결에 나선 것도 같은 맥락으로 볼 수 있다.
AI 윤리는 신뢰 및 투명성과 직결된다. 인종·성차별 같은 윤리적 이슈가 발생했을 때 알고리즘이 구체적으로 어떻게 결정한 것인지는 개발자조차 알기 힘들다. 일종의 블랙박스가 되는 셈. 설명가능성(interpretability)이 중요하다. 왜 그렇게 판단했는지 투명하게 설명 가능해야 AI를 신뢰할 수 있기 때문이다.
지각력을 지닌 이른바 ‘강한 AI’에 초점을 맞춘 시각이다. 사실 새로운 얘기는 아니다. AI 연구에선 오래전부터 제기된 개념이다. 하지만 최근 들어 우선순위에서 밀렸다. 인공신경망에 빅데이터가 접목되면서, 미리 정의된 규칙에 따라 지능을 흉내 내는 ‘약한 AI’가 특정 분야에서 뚜렷한 성과를 낸 탓이다.
그러나 비윤리적 편향을 지닌 AI의 문제가 부각되는 지금이라면 얘기가 달라진다. 기술적 구현이 어렵더라도 지각력을 갖춘 다른 종류의 AI를 다시금 진지하게 검토해볼 때 아닐까.
김봉구 한경닷컴 기자 kbk9@hankyung.com
기사제보 및 보도자료 open@hankyung.com