"여성·유색인종 얼굴 왜이래?"…다양성 논란에 AI 중단한 구글
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
구글의 인공지능(AI) 모델 제미나이가 다양성 논란에 휩싸이자 이미지 생성 기능이 일시 중단됐다.
구글은 21일(현지시간) "제미나이의 이미지 생성 서비스를 중단한다"고 밝혔다. 제미나이는 텍스트와 이미지, 음성, 영상을 생성하는 멀티모달 기반의 AI 모델이다. 이번 중단은 지난 1일 이미지 생성 기능을 추가한다고 발표한 지 20일 만에 이뤄졌다.
최근 SNS에는 제미나이가 여성이나 유색인종에 대한 이미지를 지나치게 백인화(化)한다는 비판이 제기됐다. 특히 일부 이미지의 경우 이들의 모습을 마치 바이킹 왕이나 2차 세계대전 당시 나치 독일군처럼 묘사해 '역사적 왜곡'이라는 지적이 잇따랐다.
구글 제미나이 제품 책임자인 잭 크로치크는 "이미지 생성 기능이 모든 상황에 들어맞는 것은 아니다"며 "전 세계 사람들이 사용하는 상황에서 다양한 모습을 묘사하는 걸 놓치고 있다고 판단했다"고 말했다. 이어 "서비스를 일시 중단하고 이 기능을 더욱 발전시켜 다양한 상황에 적합하도록 개선된 버전을 내놓겠다"고 덧붙였다.
파이낸셜타임스(FT)는 제미나이 중단에 대해 "생성형 AI 모델은 이름, 날짜, 숫자를 '환각'하거나 조작하는 문제가 있는데, 이는 소프트웨어가 패턴을 발견하고 시퀀스(단락)에서 가장 적합한 다음 옵션을 추측하도록 설계됐기 때문에 발생하는 오류"라고 전했다. 구글(제미나이)을 비롯해 오픈AI(챗GPT), 메타(라마) 등 경쟁사들은 이러한 오류를 최소화하는 데 주력하고 있다는 설명이다. 최근 스탠포드대학교에서 AI 모델들이 20만 개의 법률 관련 질의에 대해 생성한 답변을 연구한 결과에 따르면 오픈AI의 챗GPT와 메타 라마의 오류 비율은 각각 69%, 88%에 달했다. 생성형 모델의 오류와 편견을 줄이기 위해 기업들은 '미세 조정'이라는 프로세스를 사용한다. 이 과정은 종종 AI의 응답이 부정확하거나 불쾌하다고 판단되는 경우 이를 보고하는 사용자(직원)에 의해 이뤄진다.
구글 측은 이번 중단과 관련해 "제미나이가 만드는 이미지에 대해 이상적인 인구통계학적 분류를 지정하는 것이 아니라 다양성을 극대화하는 것이 목표"라면서도 "다양성에 대한 지침이 오히려 과잉 보정을 초래할 수 있다"고 설명했다. 지난해 8월 워싱턴대학교 등의 공동 연구에 따르면 "AI 모델은 개발 방식에 따라 정치적 편향성이 다르다"는 결과가 나왔다. 연구진은 논문에서 "오픈AI의 제품은 좌파 성향이 강한 반면 메타의 라마는 보수적인 입장에 더 가깝다는 사실을 발견했다"고 밝혔다.
구글은 1년 전에도 AI 관련 곤욕을 치른 바 있다. AI를 탑재한 새 검색 엔진 바드의 출시를 공식 발표하는 시연장에서 바드가 오답을 내놨기 때문이다. 당시 '태양계 밖의 행성을 처음 찍은 망원경'을 묻는 질문에 바드는 제임스 웨브 우주망원경(JWST)이라고 답했지만, 실제는 2004년 유럽남방천문대의 초거대 망원경이었다. 당시 오답으로 구글 주가는 하루에 9% 가까이 폭락하기도 했다.
김리안 기자 knra@hankyung.com
구글은 21일(현지시간) "제미나이의 이미지 생성 서비스를 중단한다"고 밝혔다. 제미나이는 텍스트와 이미지, 음성, 영상을 생성하는 멀티모달 기반의 AI 모델이다. 이번 중단은 지난 1일 이미지 생성 기능을 추가한다고 발표한 지 20일 만에 이뤄졌다.
최근 SNS에는 제미나이가 여성이나 유색인종에 대한 이미지를 지나치게 백인화(化)한다는 비판이 제기됐다. 특히 일부 이미지의 경우 이들의 모습을 마치 바이킹 왕이나 2차 세계대전 당시 나치 독일군처럼 묘사해 '역사적 왜곡'이라는 지적이 잇따랐다.
구글 제미나이 제품 책임자인 잭 크로치크는 "이미지 생성 기능이 모든 상황에 들어맞는 것은 아니다"며 "전 세계 사람들이 사용하는 상황에서 다양한 모습을 묘사하는 걸 놓치고 있다고 판단했다"고 말했다. 이어 "서비스를 일시 중단하고 이 기능을 더욱 발전시켜 다양한 상황에 적합하도록 개선된 버전을 내놓겠다"고 덧붙였다.
파이낸셜타임스(FT)는 제미나이 중단에 대해 "생성형 AI 모델은 이름, 날짜, 숫자를 '환각'하거나 조작하는 문제가 있는데, 이는 소프트웨어가 패턴을 발견하고 시퀀스(단락)에서 가장 적합한 다음 옵션을 추측하도록 설계됐기 때문에 발생하는 오류"라고 전했다. 구글(제미나이)을 비롯해 오픈AI(챗GPT), 메타(라마) 등 경쟁사들은 이러한 오류를 최소화하는 데 주력하고 있다는 설명이다. 최근 스탠포드대학교에서 AI 모델들이 20만 개의 법률 관련 질의에 대해 생성한 답변을 연구한 결과에 따르면 오픈AI의 챗GPT와 메타 라마의 오류 비율은 각각 69%, 88%에 달했다. 생성형 모델의 오류와 편견을 줄이기 위해 기업들은 '미세 조정'이라는 프로세스를 사용한다. 이 과정은 종종 AI의 응답이 부정확하거나 불쾌하다고 판단되는 경우 이를 보고하는 사용자(직원)에 의해 이뤄진다.
구글 측은 이번 중단과 관련해 "제미나이가 만드는 이미지에 대해 이상적인 인구통계학적 분류를 지정하는 것이 아니라 다양성을 극대화하는 것이 목표"라면서도 "다양성에 대한 지침이 오히려 과잉 보정을 초래할 수 있다"고 설명했다. 지난해 8월 워싱턴대학교 등의 공동 연구에 따르면 "AI 모델은 개발 방식에 따라 정치적 편향성이 다르다"는 결과가 나왔다. 연구진은 논문에서 "오픈AI의 제품은 좌파 성향이 강한 반면 메타의 라마는 보수적인 입장에 더 가깝다는 사실을 발견했다"고 밝혔다.
구글은 1년 전에도 AI 관련 곤욕을 치른 바 있다. AI를 탑재한 새 검색 엔진 바드의 출시를 공식 발표하는 시연장에서 바드가 오답을 내놨기 때문이다. 당시 '태양계 밖의 행성을 처음 찍은 망원경'을 묻는 질문에 바드는 제임스 웨브 우주망원경(JWST)이라고 답했지만, 실제는 2004년 유럽남방천문대의 초거대 망원경이었다. 당시 오답으로 구글 주가는 하루에 9% 가까이 폭락하기도 했다.
김리안 기자 knra@hankyung.com