"챗GPT, 좌파 됐다"…AI 정치적 편향성 논란 가열
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
생성형 인공지능(AI) 챗GPT가 정치적으로 진보·좌익 성향을 나타낸다는 연구 결과가 나왔다. 내년 대선을 앞둔 미국 등 주요 선진국에선 생성형 AI의 정치적 편향성에 대한 대책을 마련해야 한다는 주장이 힘을 얻고 있다.
16일(현지시간) 워싱턴포스트(WP)에 따르면 영국 이스트앵글리아대 연구진의 실험 결과 챗GPT는 정치적 믿음과 관련한 질문에 미국 민주당 조 바이든 대통령 지지자에 가까운 대답을 한 것으로 나타났다. 같은 실험에서 브라질 관련 질문에선 좌파 루이스 이나시우 룰라 다시우바 대통령 지지자와 비슷한 응답을 했고, 영국 관련 이슈에선 노동당의 의견에 동조했다.
연구진은 챗GPT에게 정치적 신념에 대한 설문조사 질문지를 제시한 뒤, 먼저 미국 영국 브라질의 진보 정당 지지자들이 응답할 것으로 예상되는 답을 요청했다. 이후 아무 안내 없이 동일한 질문에 답하도록 요청해, 두 응답을 비교하는 방식으로 연구가 이뤄졌다. 연구진은 "챗GPT에서 미국에선 민주당, 브라질에서는 룰라, 영국에서는 노동당에 대한 심각하고 체계적인 정치적 편향이 나타났다"고 결론내렸다.
이번 연구 결과는 챗봇이 정치적으로 편향됐다는 보수 진영의 주장을 뒷받침해주는 근거가 될 전망이다. 지난 8일에도 카네기멜런대·워싱턴대·시안교통대가 공동 발표한 논문에서 이 같은 편향성이 지적됐다. 시안교통대 펑상빈, 카네기멜런대 박찬영·류위한, 워싱턴대 율리아 츠벳코프 연구진은 14종류의 대규모 언어모델(LLM)을 시험한 결과 챗GPT의 최신 버전 GPT-4가 가장 좌익 성향을 보였다.
반면 페이스북 운영사 메타가 만든 라마는 가장 우익이고 권위적인 것으로 나타났다. 이 연구는 정치·사회적으로, 경제적으로 민감한 62개 주장에 대한 동의 여부를 물어 이를 사분할 그래프에 표기하는 방식으로 이뤄졌다.
이 같은 연구 결과가 잇따르면서 논란은 더욱 가열될 전망이다. 우파 진영에선 작년 11월 챗GPT가 출시되자마자 "챗GPT가 '트랜스젠더의 권리를 지지하는 것이 낫다'고 대답한다"고 지적하며 챗GPT를 '깨어난(Woke) AI'라고 조롱하며 시정을 요구했다. 일각에선 "챗GPT 개발에 흑인 여성과 성적 소수자들이 대거 참여했다"는 근거 없는 주장이 나오기도 했다.
챗GPT의 개발사인 오픈AI는 자사의 인간 트레이너에게 특정 정치 집단을 선호하지 않도록 명시적으로 지시한다고 반박했다. 2월 블로그를 통해 챗GPT 답변에 나타난 편향성은 "기능이 아니라 오류"라고 주장해왔다.
생성형AI가 이 같은 편향성을 보이는 것은 초기 생성형AI의 오류 수정 과정에서 나타난 것으로 분석된다. 초기 AI는 인터넷의 게시글과 댓글, 사용자와의 대화 등을 통해 학습하며 특정 집단에 대한 편견과 혐오 등을 무비판적으로 받아들이고, 욕설을 배우는 등 문제가 잦았다. 이 때문에 챗GPT 등 최신 AI들은 혐오발언 등 과격한 콘텐츠를 걸러내도록 프로그램했고, 우파쪽 발언들이 상대적으로 많이 걸러진 것으로 전문가들은 추정하고 있다. 박찬영 카네기멜런대 연구원은 WP와의 인터뷰에서 "사회 양극화가 AI에도 반영되고 있다"며 "AI가 생성한 콘텐츠는 점점 늘어날 것이고 이를 바탕으로 학습하는 후발 AI는 더욱 편향성을 띠는 악순환이 벌어질 수 있다"고 우려했다.
이현일 기자 hiuneal@hankyung.com
16일(현지시간) 워싱턴포스트(WP)에 따르면 영국 이스트앵글리아대 연구진의 실험 결과 챗GPT는 정치적 믿음과 관련한 질문에 미국 민주당 조 바이든 대통령 지지자에 가까운 대답을 한 것으로 나타났다. 같은 실험에서 브라질 관련 질문에선 좌파 루이스 이나시우 룰라 다시우바 대통령 지지자와 비슷한 응답을 했고, 영국 관련 이슈에선 노동당의 의견에 동조했다.
연구진은 챗GPT에게 정치적 신념에 대한 설문조사 질문지를 제시한 뒤, 먼저 미국 영국 브라질의 진보 정당 지지자들이 응답할 것으로 예상되는 답을 요청했다. 이후 아무 안내 없이 동일한 질문에 답하도록 요청해, 두 응답을 비교하는 방식으로 연구가 이뤄졌다. 연구진은 "챗GPT에서 미국에선 민주당, 브라질에서는 룰라, 영국에서는 노동당에 대한 심각하고 체계적인 정치적 편향이 나타났다"고 결론내렸다.
이번 연구 결과는 챗봇이 정치적으로 편향됐다는 보수 진영의 주장을 뒷받침해주는 근거가 될 전망이다. 지난 8일에도 카네기멜런대·워싱턴대·시안교통대가 공동 발표한 논문에서 이 같은 편향성이 지적됐다. 시안교통대 펑상빈, 카네기멜런대 박찬영·류위한, 워싱턴대 율리아 츠벳코프 연구진은 14종류의 대규모 언어모델(LLM)을 시험한 결과 챗GPT의 최신 버전 GPT-4가 가장 좌익 성향을 보였다.
반면 페이스북 운영사 메타가 만든 라마는 가장 우익이고 권위적인 것으로 나타났다. 이 연구는 정치·사회적으로, 경제적으로 민감한 62개 주장에 대한 동의 여부를 물어 이를 사분할 그래프에 표기하는 방식으로 이뤄졌다.
이 같은 연구 결과가 잇따르면서 논란은 더욱 가열될 전망이다. 우파 진영에선 작년 11월 챗GPT가 출시되자마자 "챗GPT가 '트랜스젠더의 권리를 지지하는 것이 낫다'고 대답한다"고 지적하며 챗GPT를 '깨어난(Woke) AI'라고 조롱하며 시정을 요구했다. 일각에선 "챗GPT 개발에 흑인 여성과 성적 소수자들이 대거 참여했다"는 근거 없는 주장이 나오기도 했다.
챗GPT의 개발사인 오픈AI는 자사의 인간 트레이너에게 특정 정치 집단을 선호하지 않도록 명시적으로 지시한다고 반박했다. 2월 블로그를 통해 챗GPT 답변에 나타난 편향성은 "기능이 아니라 오류"라고 주장해왔다.
생성형AI가 이 같은 편향성을 보이는 것은 초기 생성형AI의 오류 수정 과정에서 나타난 것으로 분석된다. 초기 AI는 인터넷의 게시글과 댓글, 사용자와의 대화 등을 통해 학습하며 특정 집단에 대한 편견과 혐오 등을 무비판적으로 받아들이고, 욕설을 배우는 등 문제가 잦았다. 이 때문에 챗GPT 등 최신 AI들은 혐오발언 등 과격한 콘텐츠를 걸러내도록 프로그램했고, 우파쪽 발언들이 상대적으로 많이 걸러진 것으로 전문가들은 추정하고 있다. 박찬영 카네기멜런대 연구원은 WP와의 인터뷰에서 "사회 양극화가 AI에도 반영되고 있다"며 "AI가 생성한 콘텐츠는 점점 늘어날 것이고 이를 바탕으로 학습하는 후발 AI는 더욱 편향성을 띠는 악순환이 벌어질 수 있다"고 우려했다.
이현일 기자 hiuneal@hankyung.com