[천자칼럼] 견제받는 챗GPT
입력
수정
지면A35
호모 사피엔스는 어떻게 세상을 지배하게 됐을까. 유발 하라리 이스라엘 히브리대 교수는 2015년 저서 <사피엔스>에서 언어와 이야기를 지어내는 능력이 인류의 진화를 이끌었다고 주장했다. 인간 사회를 지배하는 국가, 법률, 종교, 돈, 사랑 등은 어찌 보면 모두 가상의 이야기에서 시작됐다. 이야기를 만들어내고, 그 이야기를 모두 공통으로 믿고 협력한 결과다.
생성형 인공지능(AI) 챗GPT와 기존 AI의 결정적인 차이점도 이야기다. 하라리 교수는 최근 인터뷰에서 “이야기는 인간이 세상을 지배해온 힘의 원천으로 지금까지 인간만이 만들 수 있었다. 그러나 이제 AI가 이야기를 만들게 됐다”며 “인간이 전쟁을 위해 이야기를 만들고 믿게 했는데 AI가 그렇게 하면 어떨까”란 다소 심오한 질문을 던졌다. AI가 만들어낸 가짜뉴스를 믿고 인간이 서로에게 총을 겨눈다면. 얼핏 기우처럼 보이지만 일어날 수 있는 일이다.챗GPT에 대한 견제가 점차 강해지고 있다. 초기 오픈AI 투자자인 일론 머스크 테슬라 최고경영자(CEO)는 챗GPT의 오류 문제를 지적했다. “챗GPT가 때때로 거짓말을 하고 있다”며 “‘트루스(Truth)GPT’란 이름의 진실을 추구하는 AI를 만들겠다”고 했다.
최근엔 저작권 문제가 심상치 않다. 미국 소셜미디어 레딧은 빅테크 AI가 언론사 기사, 소셜미디어 대화 내용 등을 AI 학습에 무단으로 사용하고 있다며 “비용을 지불하라”고 요구하고 나섰다. 실제 올해 초 전직 월스트리트저널(WSJ) 기자가 챗GPT에 어떤 콘텐츠를 활용해 학습했는지 묻자 “로이터통신, 뉴욕타임스(NYT), 가디언, BBC, WSJ 등 많은 언론사와 학술 논문 등에서 배웠다”고 답했다고 한다.
WSJ는 오픈AI를 상대로 소송을 검토 중이다. NYT 등 미국, 캐나다 2000여 개 언론사가 소속된 미디어 단체인 뉴스미디어연합(NMA)의 대니얼 코피 부회장은 “사람이 노력하고 투자해 만든 콘텐츠가 AI 학습에 끊임없이 도용되고 있다”고 비판했다.미국은 책임 있는 AI 사용을 위해 가드레일(보호장치)을 마련하는 방안을 추진하고 있다. “AI가 인간을 마스터하기 전에 인간이 AI를 마스터해야 한다”는 하라리의 경고를 새겨들을 필요가 있다.
전설리 논설위원 sljun@hankyung.com
생성형 인공지능(AI) 챗GPT와 기존 AI의 결정적인 차이점도 이야기다. 하라리 교수는 최근 인터뷰에서 “이야기는 인간이 세상을 지배해온 힘의 원천으로 지금까지 인간만이 만들 수 있었다. 그러나 이제 AI가 이야기를 만들게 됐다”며 “인간이 전쟁을 위해 이야기를 만들고 믿게 했는데 AI가 그렇게 하면 어떨까”란 다소 심오한 질문을 던졌다. AI가 만들어낸 가짜뉴스를 믿고 인간이 서로에게 총을 겨눈다면. 얼핏 기우처럼 보이지만 일어날 수 있는 일이다.챗GPT에 대한 견제가 점차 강해지고 있다. 초기 오픈AI 투자자인 일론 머스크 테슬라 최고경영자(CEO)는 챗GPT의 오류 문제를 지적했다. “챗GPT가 때때로 거짓말을 하고 있다”며 “‘트루스(Truth)GPT’란 이름의 진실을 추구하는 AI를 만들겠다”고 했다.
최근엔 저작권 문제가 심상치 않다. 미국 소셜미디어 레딧은 빅테크 AI가 언론사 기사, 소셜미디어 대화 내용 등을 AI 학습에 무단으로 사용하고 있다며 “비용을 지불하라”고 요구하고 나섰다. 실제 올해 초 전직 월스트리트저널(WSJ) 기자가 챗GPT에 어떤 콘텐츠를 활용해 학습했는지 묻자 “로이터통신, 뉴욕타임스(NYT), 가디언, BBC, WSJ 등 많은 언론사와 학술 논문 등에서 배웠다”고 답했다고 한다.
WSJ는 오픈AI를 상대로 소송을 검토 중이다. NYT 등 미국, 캐나다 2000여 개 언론사가 소속된 미디어 단체인 뉴스미디어연합(NMA)의 대니얼 코피 부회장은 “사람이 노력하고 투자해 만든 콘텐츠가 AI 학습에 끊임없이 도용되고 있다”고 비판했다.미국은 책임 있는 AI 사용을 위해 가드레일(보호장치)을 마련하는 방안을 추진하고 있다. “AI가 인간을 마스터하기 전에 인간이 AI를 마스터해야 한다”는 하라리의 경고를 새겨들을 필요가 있다.
전설리 논설위원 sljun@hankyung.com