[홍석기 칼럼] 인공지능의 해악

한경닷컴 더 라이프이스트

다시 보자 인공지능, 확인 하자 챗봇
사진=게티이미지뱅크
"메타 버스로 들어 가는, 다음 디지털 시대는 모든 것을 바꿔 놓을 것이다. (Into the Metaverse, the next digital era will change everything. TIME 2023. 8. 8)”, “생성형 AI. 화이트 칼라 직업 – 경계하게 되는 이유 (Generative AI and white collar jobs: reasons to be wary. 2023. 11. 11. Financial Times)”, “학교들은 챗봇을 금지하기 시작했다. (Schools slowly repeal bans on chatbots NYT 2023. 9. 26)”, “스마트폰은 어린이들의 정신 건강에 해를 끼치고 있다. (Smartphones are hurting children’s mental health. FT 2023. 11.)”, “에세이를 사람이 쓸 것인가? 챗봇에게 맡길 것인가? (Personal essay or chatbot? NYT 2023. 8. 4)”

최근 외신에 실린 기사와 칼럼들이다. 공통적인 핵심은, “인공지능은 완벽하지 않다”는 것이다. 인공지능에 번역을 맡기더라도 전문번역가가 다듬어야 하고, 에세이나 자기소개서도 챗GPT 에 의존할 수 없으며, 자동화 공장(Smart Factory)에서도 감시와 기계 조작을 대충할 수 없다.유명 작가의 영화 시나리오를 챗GPT에게 번역을 시켰다. 아주 잘 했다. 신기했다. 그러나 중요한 부분에 오류가 있었다. 몇 가지 질문을 하고 검색을 했다. 아주 그럴 듯 하게 잘 했지만, "원하는 답"이 아니었다. 제멋대로 갖다 붙인 거였다. 그대로 쓸 순 없다. 다듬고 수정하고 보완해야 한다. 그대로 믿을 수 없다. 정확하지 않으면 틀린 거다. 단 0.01%라도 틀리면 그대로 사용해서는 안 된다. 그래서 핵무기보다 위험할 수 있다.

최근 외신에서 가장 많이 거론되는 '인공지능의 위험성'은 바로, "인간에게 도움보다 해악이 크다"는 것이다. 인간을 무식하게 만들고, 깊이 있는 생각을 방해한다. 밑줄 쳐 가며 책을 읽지 않고, 수십 가지 뜻이 있는 단어를 찾지 않으며, 글쓰기를 방해하여 문해력(文解力)이 저하된다.

인간의 사고력을 저하시켜 문명의 퇴보를 유도하며, 창의성과 창조적 삶을 방해한다. 하루 종일 스마트 폰만 붙들고 일상의 즐거움을 상실하게 되며, 의미 없는 재미와 가치 없는 웃음으로 인생을 낭비하게 한다. 한자와 영어, 한글조차 제대로 쓰지 못하게 되면서, 인간의 두뇌는 마비현상을 일으킬 것이다. 공부와 학습의 필요성과 중요성을 상실하게 되면, 대학은 불필요할 것이고, 교양과 품위, 판단력은 사라지고 눈치만 발전하게 된다.그 결과, '가짜뉴스(fake news)'가 판을 치면서 사회 질서를 무너뜨리고, 품격을 갖춘 인간이기를 포기하게 만든다. '여론조작(Manipulation of Opinions)'도 쉽다. 인공지능은 빅데이터의 알고리즘(Algorithms of Big Data)일 뿐이다.

사기꾼이 짠 알고리즘도 많이 있을 듯 하다.

<한경닷컴 The Lifeist> 홍석기

"외부 필진의 기고 내용은 본지의 편집 방향과 다를 수 있습니다."
독자 문의 : thepen@hankyung.com