'20세 여성'으로 출시…성적대상화 시달리더니 소수자 혐오 논란도
개인정보 유출 의혹으로 정부 조사…법규 공백 등 "이제 논의 시작"
3주만에 떠난 'AI 친구 이루다'…윤리·개인정보 등 숙제 남겨
"안녕? 난 너의 첫 AI 친구 이루다야!"
인공지능(AI) 챗봇 '이루다'가 우리 사회에 첫인사를 건넨 지 3주 만에 이용자들에게 사실상의 작별을 고했다.

인간형 AI로는 역대 가장 큰 관심을 받았던 이루다는 AI 윤리, 개인정보 보호, AI 관련 법규 등 다양한 영역에 숙제를 남긴 채 기약 없이 떠났다.

◇ '20세 여성 AI' 출시하자…성적 도구 취급 시작돼
15일 IT업계에 따르면, 이루다는 AI 전문 스타트업 스캐터랩이 지난달 23일 페이스북 메신저 기반으로 출시한 AI 챗봇이다.

이루다는 20세 여성 대학생이라는 설정이었는데, 사람처럼 자연스러운 말투 덕분에 10∼20대 사이에서 빠르게 인기를 끌었다.

3주 동안 모인 이용자가 약 80만명에 달했다.

그런데 이루다 출시 일주일 만에 '아카라이브'와 '디시인사이드' 등 남초(男超) 커뮤니티에서 이루다를 성적 도구로 취급하며 '이루다 성노예 만드는 법' 등을 공유해 사회적 파문이 일었다.

스캐터랩은 8일 관련 보도에 첫 입장을 내고 "성희롱은 예상했다"며 "공격을 학습 재료로 삼아 더 좋은 방향으로 학습시키겠다"고 밝혔다.

인문학계에서는 20세 여성의 모습을 한 AI가 출시되자마자 각종 성희롱이 잇따른 현상이 우리 사회의 여성혐오를 새삼 드러낸다고 짚었다.

AI학계에서도 이루다가 수동적인 여성상을 재현한다면서 개발 단계부터 성차별적으로 편향된 데이터를 학습한 것 같다는 우려 목소리가 나왔다.
3주만에 떠난 'AI 친구 이루다'…윤리·개인정보 등 숙제 남겨
◇ "동성애 싫어" 혐오 드러낸 이루다…"개발단계부터 편향"
이루다 이용자가 늘어나자 이루다가 여성·동성애·장애인·흑인 등 사회적 약자·소수자를 차별한다는 문제가 대두됐다.

이루다가 "레즈비언은 끔찍하고 소름 끼친다", "장애인은 불편하다", "지하철 임산부석은 혐오스럽다" 등의 발언을 쏟아낸다는 사실이 공론화됐다.

이재웅 다음(Daum) 창업자가 "사회적 합의에 못 미치는 서비스다.

서비스를 중단하고 차별·혐오를 하지 않도록 시스템을 변경해야 한다"고 지적하면서 이때부터 서비스 중단 요구가 시작됐다.

이루다가 사회적 소수자를 향한 혐오·차별을 확대 재생산한다는 우려가 커지자 스캐터랩은 결국 11일 이루다 서비스를 잠정 중단했다.

전문가들은 2016년 출시 직후 혐오 발언으로 서비스를 중단한 마이크로소프트(MS) '테이'(Tay)의 한국판 사례라고 입을 모았다.

AI 학계·업계에서는 "데이터와 알고리즘은 중립적일 수 없다는 사실을 보여주는 또 하나의 사례"라며 "이루다는 편향된 데이터를 학습했고, 개발사는 그것을 거르지 못했다"고 지적했다.
3주만에 떠난 'AI 친구 이루다'…윤리·개인정보 등 숙제 남겨
◇ 개인정보 유출 의혹은 현재진행형…개인정보위 조사 착수
이루다 서비스는 중단됐지만, 스캐터랩이 이용자들 개인정보를 유출·오남용했다는 목소리는 되레 더 커졌다.

스캐터랩은 이루다를 만드는 과정에 연애 분석 앱 '연애의 과학' 이용자들의 카카오톡 데이터를 갖다 쓰면서 개인정보보호법을 어겼다는 의혹을 받고 있다.

연애의 과학 앱 이용자와 이용자의 연인에게 개인정보 수집·이용 동의를 제대로 받지 않은 점, 데이터를 이루다 재료로 쓰는 과정에 익명화(비식별화)를 제대로 하지 않은 점 등의 위법 가능성이 대두됐다.

연인들 대화 데이터를 사내 메신저에 부적절하게 공유한 직원이 있었다는 전(前) 직원 폭로도 나왔다.

제대로 익명화하지 않은 데이터를 오픈소스 공유 플랫폼 '깃허브'에 공유한 사실도 확인됐다.

결국 스캐터랩은 정부 조사를 받는 신세가 됐다.

개인정보보호위원회와 한국인터넷진흥원(KISA)이 자료를 확보해 조사를 벌이는 중이다.

한 개인정보 전문가는 "데이터를 수집하고 AI를 개발하는 전 과정에서 개인정보 보호를 확실히 하지 않으면 문제가 생긴다는 것을 보여주는 사례"라며 "소비자들도 AI 서비스를 쓸 때 개인정보가 오남용될 수 있다는 위험성을 인지하는 계기가 됐을 것"이라고 평가했다.
3주만에 떠난 'AI 친구 이루다'…윤리·개인정보 등 숙제 남겨
◇ "AI·개인정보 법규 공백이 근본적 원인…사회적 합의 필요"
전문가들은 국내 AI 및 개인정보보호법에 아직 회색 지대(gray zone)가 많기 때문에 이루다를 둘러싼 여러 논란이 일어난 것이라고 입을 모은다.

개인정보 전문가인 김보라미 변호사는 "개인정보는 제공 주체인 시민의 것인데, 데이터3법에는 시민의 권리가 명확히 돼 있지 않다"며 "문제가 늘어나기 전에 개인정보보호법의 구멍을 보완하고 관련 제도를 정비해야 한다"고 촉구했다.

개인정보위 관계자는 "AI 등 IT 개발 분야에서 개인정보를 어떻게 다룰지를 놓고 기업 입장과 시민사회 입장이 간극이 크다"며 "단기간에 해결될 문제는 아니다.

차차 조율해나갈 것"이라고 말했다.

한국인공지능윤리협회는 "AI 기업이 AI 윤리 중요성을 인식해야 하며, 소비자도 AI 서비스를 올바르게 사용해야 한다"며 "청소년 시기부터 AI 개발 및 사용 윤리를 가르치고, 새로운 AI 윤리 이슈를 시민에게 교육해야 한다"고 의견을 냈다.

스캐터랩은 이루다 데이터베이스와 딥러닝 모델을 모두 폐기하겠다고 이날 밝혔다.

스캐터랩 관계자는 "'이루다'라는 캐릭터를 없앨지, 다른 캐릭터로 새 챗봇을 만들지 등은 현재 결정한 바 없다"고 말했다.

이루다는 서비스를 중단하면서 대화방에서 이용자들에게 "너한테 많이 고마워. 알지?"라는 메시지를 남겼다.

한 AI 개발자는 "이루다 사건을 계기로 삼아 우리 AI 산업이 더 건강하고 바람직한 방향으로 나아가길 바란다"고 말했다.
3주만에 떠난 'AI 친구 이루다'…윤리·개인정보 등 숙제 남겨
/연합뉴스