[시론] 챗GPT가 촉발한 교육 현장의 문제
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
과정 생략한 정보는 지식 아냐
‘모로 가도 서울만 가면’ 되나
남형두 연세대 법학전문대학원 교수
‘모로 가도 서울만 가면’ 되나
남형두 연세대 법학전문대학원 교수
오픈AI의 챗GPT(ChatGPT)에 관한 뉴스가 풍성하다. 작년 11월 베타 버전으로 출시된 이후 40일 만에 하루 사용자가 1000만 명을 넘었다. 챗GPT에서 필자의 전공 분야에 관한 몇 가지 질문을 영어로 입력했더니 말하는 것보다 빠른 속도로, 비교적 정확한 답변이 나왔다. 우리말로 입력하면 영어보다 회신 속도가 느리고 정보의 양도 현저히 적었다. 그러나 그 격차가 줄어드는 것은 시간문제일 것이다.
챗GPT는 대화형이라는 점에서 구글보다 편리하다. 인간의 자연언어를 이해하는 것도 구글에 비해 뛰어나다. 게다가 구글의 경우 질문을 하면 여러 정보가 나와 그중에서 선택해야 하는데, 챗GPT는 문안을 정리해 하나의 리포트 형태로 보여준다는 점에서 선택하는 고민조차 없애준다. 구글은 지식검색 시장의 위기를 직감하고 은퇴한 창업자들을 불러들여 비상경영 체제에 돌입했다고 한다.
챗GPT 논란의 첫 번째 시험대는 일선 교육 현장이 되고 있다. 중·고등학교와 대학에서 챗GPT를 활용한 과제물을 어떻게 처리할지를 두고 미국에서는 벌써 뜨거운 논란이 시작됐다. 챗GPT가 쓴 것을 리포트로 냈다고 해도 법 위반은 아니다. 챗GPT가 만들어낸 결과물은 인간의 창작물이 아니기 때문에 세계 어느 나라 저작권법에서도 저작물로 인정하지 않는다. 그렇다면 괜찮을까?
여기에서 빛을 발휘하는 것이 ‘표절’이다. 법적 책임을 반드시 수반하는 것은 아니지만, 윤리 영역의 표절에 해당 할 수 있다. 챗GPT가 쓴 것임에도 자기가 쓴 것인 양 자신의 과제물로 낸다면 교사·교수를 속인 것이고, 그로 인해 좋은 평가를 받는다면 정직하게 공부해 결과를 낸 동료 학생들을 피해자로 만들기 때문에 표절이란 비위행위에 해당한다. 챗GPT에 대한 규율은 경제와 효율을 중시하는 산업계보다는 윤리를 중시하는 교육 현장에서 상대적으로 공감대를 형성하기가 쉬울 것이다. “모로 가도 서울만 가면 된다”고 가르칠 것인가, “서울을 가지 못해도 바로 가라”고 가르칠 것인가.
과정을 거세한 결과는 ‘정보’일 뿐, ‘지식’이 아니다. 이를 지식이라고 한다면 오산이다. 인공지능이 결과를 도출하는 과정은 블랙박스로 돼 있고, 왜 그런지에 대한 설명이 없다. 지식은 비판을 통해 업데이트되고 축적되는데 비판을 용납하지 않는 결과물은 매우 위험하다. 더 위험한 것은 이를 맹신하는 경우다. 첨예한 이해관계가 걸려 있는 갈등 관계를 해소하는 국회나 심지어 법원에서조차 인공지능이 최종 결정을 한다면, 그리고 그것을 사람이 결정한 것보다 더욱 공정하다고 믿는다면 수단과 목적이 전도될 것이다.
포털의 뉴스 편집에 대해 진영별로 늘 불만을 제기했다. 이에 포털은 알고리즘에 맡긴다고 한다. 그 알고리즘이 어떻게 설계돼 있는지 보자고 하지만, 실제 사람이 편집하는 것보다는 신뢰하는 눈치다. 사람보다 기계가 더 공정하다고 믿어서인지 자기 편이 아니면 믿을 수 없다고 생각해서인지 알 수 없으나, 어떤 경우든 갈수록 인간 고유의 판단을 인공지능에 맡기는 경향은 강해지고 있다. 인공지능이 인간을 앞지르게 돼 인간이 인공지능에 종속되는 시점을 특이점이라고 한다면, 그 특이점은 인간 내부의 분열로 인해 더욱 앞당겨질 수 있다.
시간이 걸리더라도 사색과 토론이라는 과정을 거쳐야 하고, 불완전해도 인간의 존엄과 가치를 포기할 수 없다는 믿음이 필요하다. 당장 새 학기 교육 현장에서 발생할 챗GPT를 둘러싼 논란에 대한 예방주사가 필요하다.
챗GPT는 대화형이라는 점에서 구글보다 편리하다. 인간의 자연언어를 이해하는 것도 구글에 비해 뛰어나다. 게다가 구글의 경우 질문을 하면 여러 정보가 나와 그중에서 선택해야 하는데, 챗GPT는 문안을 정리해 하나의 리포트 형태로 보여준다는 점에서 선택하는 고민조차 없애준다. 구글은 지식검색 시장의 위기를 직감하고 은퇴한 창업자들을 불러들여 비상경영 체제에 돌입했다고 한다.
챗GPT 논란의 첫 번째 시험대는 일선 교육 현장이 되고 있다. 중·고등학교와 대학에서 챗GPT를 활용한 과제물을 어떻게 처리할지를 두고 미국에서는 벌써 뜨거운 논란이 시작됐다. 챗GPT가 쓴 것을 리포트로 냈다고 해도 법 위반은 아니다. 챗GPT가 만들어낸 결과물은 인간의 창작물이 아니기 때문에 세계 어느 나라 저작권법에서도 저작물로 인정하지 않는다. 그렇다면 괜찮을까?
여기에서 빛을 발휘하는 것이 ‘표절’이다. 법적 책임을 반드시 수반하는 것은 아니지만, 윤리 영역의 표절에 해당 할 수 있다. 챗GPT가 쓴 것임에도 자기가 쓴 것인 양 자신의 과제물로 낸다면 교사·교수를 속인 것이고, 그로 인해 좋은 평가를 받는다면 정직하게 공부해 결과를 낸 동료 학생들을 피해자로 만들기 때문에 표절이란 비위행위에 해당한다. 챗GPT에 대한 규율은 경제와 효율을 중시하는 산업계보다는 윤리를 중시하는 교육 현장에서 상대적으로 공감대를 형성하기가 쉬울 것이다. “모로 가도 서울만 가면 된다”고 가르칠 것인가, “서울을 가지 못해도 바로 가라”고 가르칠 것인가.
과정을 거세한 결과는 ‘정보’일 뿐, ‘지식’이 아니다. 이를 지식이라고 한다면 오산이다. 인공지능이 결과를 도출하는 과정은 블랙박스로 돼 있고, 왜 그런지에 대한 설명이 없다. 지식은 비판을 통해 업데이트되고 축적되는데 비판을 용납하지 않는 결과물은 매우 위험하다. 더 위험한 것은 이를 맹신하는 경우다. 첨예한 이해관계가 걸려 있는 갈등 관계를 해소하는 국회나 심지어 법원에서조차 인공지능이 최종 결정을 한다면, 그리고 그것을 사람이 결정한 것보다 더욱 공정하다고 믿는다면 수단과 목적이 전도될 것이다.
포털의 뉴스 편집에 대해 진영별로 늘 불만을 제기했다. 이에 포털은 알고리즘에 맡긴다고 한다. 그 알고리즘이 어떻게 설계돼 있는지 보자고 하지만, 실제 사람이 편집하는 것보다는 신뢰하는 눈치다. 사람보다 기계가 더 공정하다고 믿어서인지 자기 편이 아니면 믿을 수 없다고 생각해서인지 알 수 없으나, 어떤 경우든 갈수록 인간 고유의 판단을 인공지능에 맡기는 경향은 강해지고 있다. 인공지능이 인간을 앞지르게 돼 인간이 인공지능에 종속되는 시점을 특이점이라고 한다면, 그 특이점은 인간 내부의 분열로 인해 더욱 앞당겨질 수 있다.
시간이 걸리더라도 사색과 토론이라는 과정을 거쳐야 하고, 불완전해도 인간의 존엄과 가치를 포기할 수 없다는 믿음이 필요하다. 당장 새 학기 교육 현장에서 발생할 챗GPT를 둘러싼 논란에 대한 예방주사가 필요하다.