[특파원 칼럼] AI 개발에도 브레이크가 필요하다
입력
수정
지면A30
서기열 실리콘밸리 특파원“인공지능(AI) 알고리즘으로 학습한 자동차 자율주행 기능은 잠재적으로 사람을 해칠 위험이 있습니다. 현기증 날 정도로 AI가 빠르게 발전하는 상황에서 사람들은 AI를 어떻게 이용해야 할지 결정해야 하는 딜레마에 직면하고 있습니다.”
최근 미국 스탠퍼드대 캠퍼스에서 만난 마이클 손더스 과학공학경영 명예교수는 AI의 현주소에 관해 묻자 이같이 말했다. 그는 심각한 표정으로 “AI로 학습한 자율주행 자동차는 사고 발생 상황에서 차 안의 운전자를 보호할지, 차량 밖에 있는 사람을 살려야 할지 결정해야 하는 딜레마에 빠진다”며 “AI를 개발하는 과학자들은 윤리적으로 고민하고 책임져야 한다”고 지적했다. 손더스 교수는 복잡한 수학적 문제를 풀어내는 최적화 분야의 세계 최고 수준 권위자로, 이와 관련된 소프트웨어를 개발하는 컴퓨터공학의 근간을 세운 원로 학자다.
AI 윤리적 책임론 부상
오늘날 AI는 눈부신 속도로 발전하며 자연스럽게 생활 속에 침투하고 있다. AI가 의사의 진료 기록 작성을 도와주며 해킹을 잡는 사이버보안 AI 서비스도 등장했다. AI 모델을 학습시키는 슈퍼컴퓨터 경쟁도 확산했다. 엔비디아가 슈퍼컴퓨터 구독 서비스를 출시하자, 구글은 자체 개발한 슈퍼컴퓨터의 성능이 더 뛰어나다며 치열하게 경쟁하고 있다.최근 실리콘밸리의 최대 이슈 중 하나는 AI를 둘러싼 윤리적 책임론이다. 지난달 28일 미국 비영리단체 ‘삶의 미래 연구소’가 모든 AI 연구소에서 “GPT-4보다 강력한 AI 모델 연구를 최소 6개월 동안 중단할 것”을 촉구하는 공개 성명을 발표한 것은 논쟁을 부추기기에 충분했다. 당시 성명에는 스티브 워즈니악 애플 공동창업자, 일론 머스크 테슬라 최고경영자(CEO) 등 실리콘밸리 주요 창업자는 물론 <사피엔스>를 쓴 작가 유발 하라리 등 수천 명이 참여했다. 이들은 선출되지 않은 권력인 AI 개발자들에게 사회와 인류에 중요한 결정을 맡기면 심각한 위험을 초래할 수 있다고 지적했다. 이제 실리콘밸리의 많은 사람이 AI를 잘 활용해야 한다는 데 공감대를 형성하는 한편 윤리적 검토와 관련해 토론을 거듭하고 있다.
"맹목적 믿음은 위험"
최근 유럽을 중심으로 생성 AI 규제 움직임이 나타나기 시작한 것은 의미 있는 변화다. 이탈리아는 최근 개인정보 보호를 위해 챗GPT 이용을 금지했다. 법적 근거 없이 개인정보를 대량으로 수집하고 저장했다는 이유에서다. 아일랜드, 영국, 프랑스, 독일 등도 유럽연합(EU)의 개인정보보호 정책에 따라 이번 사안을 검토 중이다.AI가 변화무쌍하게 진화하는 현시점에서 앞으로 어떻게 세상을 바꿀지는 아무도 모른다.손더스 교수는 AI 대중화를 구글의 일상화에 비유했다. 인터넷 대중화 이후 구글이 아예 일상의 일부가 돼버린 것처럼, 20년 뒤 AI에 대한 의존도가 그만큼 커질 수 있다는 것이다. “스스로 사고하지 않고, 사실 여부를 확인하지 않고 맹목적으로 믿는다면 어떤 위험한 상황이 와도 이상하지 않을 것”이라는 그의 말을 곱씹어볼 때다.