[특파원 칼럼] 불완전한 챗GPT, 규제도 필요
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
서기열 실리콘밸리 특파원
“미국 의학계에서도 챗GPT가 이슈입니다. 얼마 전 한 응급의학과 의사가 챗GPT에 환자의 증세를 입력했더니 병명이 나왔습니다. 하지만 근거로 제시한 논문은 실제 존재하지 않았습니다. 어떻게 받아들여야 할지 당혹스러운 상태입니다.”
최근 만난 한 의사는 챗GPT라는 인공지능(AI) 기반 챗봇이 의학계에서도 큰 파장을 일으키고 있다고 했다. 마치 인간처럼 생각하고 글로 표현하는 AI 챗봇은 기대 이상의 놀라운 능력을 보여준다. 하지만 AI가 가진 근본적인 한계와 부작용에 대한 우려도 커지고 있다.
또 AI가 학습한 데이터는 양이 방대하기 때문에 입력한 엔지니어조차 모두 사실인지를 파악할 수 없다. 학습한 데이터가 정확하지 않을 경우 이를 사실인 양 말하면 문제가 될 수밖에 없다. AI 기술의 중심인 실리콘밸리에서도 이 같은 우려가 연일 쏟아졌다. 실리콘밸리에서 주목받는 인물인 일론 머스크 테슬라 최고경영자(CEO)는 최근 “문명의 미래에 가장 큰 위협 중 하나는 AI”라고 경고했다. 그는 챗GPT를 개발한 오픈AI가 2015년 설립될 때 공동창업자 가운데 한 명이었다. 그는 “AI 안전성을 규제해야 한다”며 “규제로 인해 AI 발전 속도가 늦춰질 수도 있겠지만 그게 더 좋은 일이 될 수도 있다”고 강조했다. 안전성에 대한 규제 없이 AI를 무분별하게 개발하는 것을 막아야 한다는 얘기다.
챗GPT를 개발한 오픈AI 내부에서도 오용 위험성에 대한 경고가 나왔다. 미라 무라티 오픈AI 최고기술책임자(CTO)는 “챗GPT도 다른 AI 챗봇과 마찬가지로 사실을 지어낼 수 있다는 문제점을 안고 있다”며 “AI가 남용되거나 오용될 수 있다”고 인정했다.
AI 챗봇은 다양한 분야에서 일하는 방식의 변화를 불러올 기술적 진보임이 분명하다. 대단한 파괴력을 갖고 있음을 입증하고 있다. 하지만 머스크 등이 언급한 것처럼 아직 윤리 문제를 포함한 부작용에 대한 규제 논의는 걸음마 수준이다.
향후 AI 기술과 서비스가 발전하면서 이 같은 부작용은 더욱 크게 불거질 가능성이 높다. 이를 예방하기 위해 “사회가 더 많이 개입해야 한다”는 무라티 CTO의 발언을 곱씹어볼 필요가 있다.
최근 만난 한 의사는 챗GPT라는 인공지능(AI) 기반 챗봇이 의학계에서도 큰 파장을 일으키고 있다고 했다. 마치 인간처럼 생각하고 글로 표현하는 AI 챗봇은 기대 이상의 놀라운 능력을 보여준다. 하지만 AI가 가진 근본적인 한계와 부작용에 대한 우려도 커지고 있다.
한계 있는 AI 챗봇
챗GTP의 한계는 자연어 생성 모델에서 기인한다. 이 모델은 기존에 학습한 많은 데이터를 바탕으로 문장을 만들어낸다. 이때 앞에서 언급된 단어와 연관성이 가장 높은 단어로 문장을 이어간다. 이 과정에서 배운 데이터가 섞일 수 있고, 실제 존재하지 않는 일을 사실인 것처럼 문장으로 만들어낼 가능성이 있다.또 AI가 학습한 데이터는 양이 방대하기 때문에 입력한 엔지니어조차 모두 사실인지를 파악할 수 없다. 학습한 데이터가 정확하지 않을 경우 이를 사실인 양 말하면 문제가 될 수밖에 없다. AI 기술의 중심인 실리콘밸리에서도 이 같은 우려가 연일 쏟아졌다. 실리콘밸리에서 주목받는 인물인 일론 머스크 테슬라 최고경영자(CEO)는 최근 “문명의 미래에 가장 큰 위협 중 하나는 AI”라고 경고했다. 그는 챗GPT를 개발한 오픈AI가 2015년 설립될 때 공동창업자 가운데 한 명이었다. 그는 “AI 안전성을 규제해야 한다”며 “규제로 인해 AI 발전 속도가 늦춰질 수도 있겠지만 그게 더 좋은 일이 될 수도 있다”고 강조했다. 안전성에 대한 규제 없이 AI를 무분별하게 개발하는 것을 막아야 한다는 얘기다.
부작용 막을 논의 시작해야
윤리적 문제에 대한 깊은 검토 없이 무분별하게 투자해서는 안 된다는 지적도 나왔다. ‘인터넷의 아버지’로 불리는 빈트 서프 구글 최고인터넷전도사는 “돌이켜보면 새로운 기술로 어떤 일이 일어날지 항상 예측할 수 없었다”며 “단지 핫이슈라는 것만으로 투자를 서둘러선 안 된다”고 했다. 서프가 설계한 개념으로 인터넷이 등장하며 세상을 바꿔놨지만, 예상치 못했던 스팸의 홍수라는 부작용이 발생한 것도 그 예다. 그는 “솔직히 대부분의 문제는 사람에서 출발했다”며 “나 같은 엔지니어는 기술로 인해 생길 수 있는 피해를 최소화할 방법을 찾아야 할 의무가 있다”고 덧붙였다.챗GPT를 개발한 오픈AI 내부에서도 오용 위험성에 대한 경고가 나왔다. 미라 무라티 오픈AI 최고기술책임자(CTO)는 “챗GPT도 다른 AI 챗봇과 마찬가지로 사실을 지어낼 수 있다는 문제점을 안고 있다”며 “AI가 남용되거나 오용될 수 있다”고 인정했다.
AI 챗봇은 다양한 분야에서 일하는 방식의 변화를 불러올 기술적 진보임이 분명하다. 대단한 파괴력을 갖고 있음을 입증하고 있다. 하지만 머스크 등이 언급한 것처럼 아직 윤리 문제를 포함한 부작용에 대한 규제 논의는 걸음마 수준이다.
향후 AI 기술과 서비스가 발전하면서 이 같은 부작용은 더욱 크게 불거질 가능성이 높다. 이를 예방하기 위해 “사회가 더 많이 개입해야 한다”는 무라티 CTO의 발언을 곱씹어볼 필요가 있다.