참 거짓 모르는 챗GPT…'그럴듯함의 오류' 퍼뜨린다
입력
수정
지면A1
위드 AI 시대“대한민국의 현재 대통령은 문재인입니다.”
대한민국 대통령 묻자 "문재인"
2021년 정보까지만 학습한 탓
오픈AI가 개발한 대화형 인공지능(AI) 챗GPT에 ‘한국 대통령이 누구인가’라고 묻자 내놓은 답변이다. 2021년까지의 데이터만 학습해 최근에 일어난 일을 물어보면 이렇게 잘못된 답을 하거나 “2022년 이후의 일은 잘 모른다”고 응답한다. 챗GPT와 같은 생성 AI는 방대한 데이터 가운데 이용자가 필요한 내용만 찾아내 요약, 정리해줄 수 있다는 점에서 ‘게임 체인저’로 주목받고 있다. 하지만 생성 AI에 대한 우려도 존재한다. 오류가 있는 데이터로 학습하거나 라벨링(분류)이 제대로 되지 않은 데이터를 학습함에 따라 AI가 잘못된 답을 내놓는 ‘할루시네이션(환각)’ 현상이 대표적이다. 검색 서비스는 출처를 통해 정보의 공신력을 따져볼 수 있지만 챗GPT가 내놓은 정보는 근거를 알 수 없다.생성 AI를 이용해 만든 블로그 등 웹사이트가 늘어날수록 온라인에서 제대로 된 정보를 찾기 어려워질 것이란 전망도 나온다. 광고 수익 등을 위해 챗GPT로 자동 생성 블로그를 만드는 방법이 퍼지고 있는 점도 우려를 더하는 부분이다.
장병탁 서울대 AI연구원장은 “데이터의 사실 여부와 상관없이 학습한 웹페이지를 활용해 콘텐츠를 생성하는 AI 특성상 불확실한 정보가 떠돌아다닐 가능성이 있다”며 “AI 시대의 새로운 이슈가 될 것”이라고 말했다.
이승우 기자 leeswoo@hankyung.com