[생글기자 코너] 챗GPT 부작용 봇물 터지기 전 막아야

챗GPT는 획기적인 기술임에 틀림없다. 그러나 이런 기술의 편리함에 이끌려 잘못된 방향으로 가지 않도록 신중하고 비판적인 태도를 가져야 할 것이다
미국 대학들이 챗GPT를 사용해 대입용 자기소개서를 대필할 수 있는 상황을 두고 혼란에 빠졌다는 기사를 봤다. 결국 표절을 조장하는 것이란 주장과 서류 지원에 도움을 받을 수 없는 지원자들을 도와줘 공정성을 개선할 수 있다는 주장이 팽팽히 맞서고 있다.

생성형 인공지능(AI) 서비스인 챗GPT는 출시된 지 1년여 만에 사용자 수가 2억 명에 달하고 있다. 기존 AI와 비교해 인간과 유사하게 답변할 수 있으며 데이터 내에서 스스로 오류를 찾는 딥러닝 기술이 접목됐기 때문이다. 우리나라에서도 많은 통신사와 건설사, 게임업체들이 챗GPT를 활용해 신규 서비스를 빠르게 개발하고 있으며, 최근엔 한국형 챗GPT를 내놓을 정도라고 한다.그럼에도 부정적인 측면을 고려해야 한다. 전문가들은 챗GPT의 답변이 신뢰도를 떨어트릴 수 있다고 한다. 답을 내는 방식이 데이터를 기반으로 한 확률적인 예측이기 때문이다. 또 온라인상에서 수많은 정보를 학습하지만, 어떤 정보를 학습했는지 불투명하기 때문에 저작권 침해와 정보 유출의 문제도 안고 있다. 우리나라 정부도 AI의 이런 문제에 대해 우려하고는 있지만, 저작권법 개정과 AI의 오류에 대응하는 법적 근거를 논의하는 정도에 그치고 있다. 발 빠른 대응이 필요한 때다.

챗GPT의 개발은 AI의 역사를 이전과 이후로 나눌 만큼 획기적인 기술임에 틀림없다. 그러나 이런 기술의 편리함에 이끌려 잘못된 방향으로 가지 않도록 신중하고 비판적인 태도를 가져야 할 것이다.

이건영 생글기자(관저중 3학년)