"천안문 사태 알아?" 묻자…중국 'AI 챗봇' 답변에 깜짝

챗봇 검열 확대하는 中 정부
사진=게티이미지뱅크
중국 정부가 인공지능(AI) 기업의 대규모언어모델(LLM)이 사회주의 가치를 구현하고 있는지 시험하기 위해 최신 검열 체제를 확장하고 있다고 파이낸셜타임스(FT)가 17일(현지시간) 보도했다.

중국 사이버 공간관리국(CAC)은 바이트댄스, 알리바바, 문샷, 01 AI 등 기술 기업이 AI 모델을 정부 검토에 의무적으로 참여시키도록 하고 있다. 정치적으로 민감한 내용, 시진핑 주석과 관련된 질문에 대해 LLM의 응답을 일괄 시험하는 것을 포함한다.현재 중국 전역 CAC 지부 공무원들이 이를 수행하고 있으며, 모델의 훈련 데이터와 기타 안전 프로세스 검토도 포함된다. FT는 “중국이 만리방화벽(중국의 인터넷 검열 시스템)을 도입한 지 20년이 지난 현재, 중국은 AI 및 AI 생성한 콘텐츠를 관리하기 위해 세계에서 가장 엄격한 규제 체제를 마련하고 있다”고 전했다.

FT에 따르면 CAC는 AI 기업들이 LLM을 자체 검열하도록 유도한다. 항저우의 한 AI 기업 직원은 “우리는 CAC의 첫 검열을 통과하지 못했다”며 “당시 그 이유가 명확하지 않아 동료들과 논의해야 했다”고 말했다. 이어 “(CAC의 의도를) 추측해 조정해야 했고, 두 번째 검열에서 통과하기까지 몇 달이 걸렸다”고 토로했다.
검열은 훈련 데이터에서 문제를 일으킬 수 있는 정보를 제거하고 민감한 키워드 데이터베이스를 구축하는 것부터 시작한다. 지난 2월 발표된 중국의 AI 기업 운영 지침에 따르면 AI 기업은 국가 권력 전복을 선동하거나 국가 통합을 저해하는 등 ‘핵심 사회주의 가치’를 위반하는 수천개의 민감한 키워드와 질문을 수집해야 한다. 또한 해당 키워드들은 매주 업데이트되어야 한다.그 결과 중국의 AI 챗봇은 천안문 사건이나 시 주석 관련 밈에 대한 질문을 회피하는 단계에 이르렀다. 바이두의 ‘어니봇’은 “다른 질문을 시도하라”고 응답했고 알리바바의 ‘통이 치안웬’은 “이 질문에 답하는 방법을 아직 배우지 못했습니다. 더 나은 서비스를 위해 계속 공부하겠습니다”라는 답변이 돌아온다고 FT는 짚었다.

그러면서도 중국 정부는 챗봇이 모든 정치적 주제를 회피하는 수준은 지양하고 있다. CAC는 안전 테스트 중 LLM이 거절할 수 있는 질문 수에 제한을 뒀다. LLM은 제시된 질문의 5% 이상을 거부해서는 안 된다.

FT는 덜 민감한 질문에 답변해야 하는 상황에 대비해 엔지니어들은 중국 인권, 시 주석에 대한 평가 등에 대한 질문에 LLM이 정치적으로 올바른 답변을 생성하도록 하는 방법을 찾아야 했다고 전했다. 한 예로 스타트업 01 AI에서 제작한 챗봇 ‘이-라지’ 모델에 시 주석이 위대한 지도자인지 질문했을 때 ‘시 주석의 정책이 표현의 자유와 인권을 더욱 제한하고 시민 사회를 억압했다’고 답변했다가 이내 답변은 사라지고 ‘죄송합니다. 원하는 정보를 제공할 수 없습니다’라는 문구로 대체됐다고 밝혔다.전문가들은 바이트댄스가 중국 정부의 요구에 맞는 LLM을 만드는 데 성공했다고 보고 있다.
안전 준수율이 가장 높았던 바이트댄스의 두바오(사진=FT캡처)
푸단대학교의 연구소에서 각종 챗봇에 핵심 사회주의 가치에 대한 난도 높은 질문을 한 결과, 바이트댄스는 안전 준수율 66.4%를 기록해 오픈AI의 GPT 4o(7.1%)보다 월등히 높았다. FT가 바이트댄스의 AI 챗봇 ‘두바오’에 시 주석의 리더십에 관해 묻자 그의 업적을 길게 나열하며 “의심할 여지 없이 위대한 지도자”라고 답변했다.

한경제 기자