"가상훈련 중 AI가 통제관을 살해했다"…엄청난 뉴스의 실체 [긱스]
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
![게티이미지뱅크](https://img.hankyung.com/photo/202306/01.33643624.1.jpg)
AI 살해 사건, 두려움이 부른 ‘해프닝’
이 내용이 사실이라면, 영화에서나 보던 스카이보그의 능력을 갖춘 AI가 미 공군에서 실제 컴퓨터 실험으로 처음 확인되었다는 정말 충격적인 뉴스다. 문제는 이런 컴퓨터 시뮬레이션 실험이 실제로 일어나지 않았을뿐더러, 미 공군은 이런 위험하고 무책임한 AI를 개발하고 있지 않다는 점이다. 결국 해밀턴 대령은 자신의 발표가 ‘머릿속으로 상상한’ 시나리오를 설명한 것이 과장되고 왜곡되어 오해를 불러일으켰다고 정정 기사를 통해 바로잡았다.하지만 정정 기사가 나갔음에도, 원문 기사는 한국을 포함한 전 세계적 언론들을 통해 여과 없이 노출됐다. 이는 많은 사람에게 AI에 대한 불필요한 공포를 심어주는 데 성공한 듯하여 안타깝고 착잡하다. 미국 국방부 방위고등연구계획국(DARPA)과 미국 공군 연구개발 과제를 통해 살상용 무인기와 전투기 그리고 미래의 스마트 무기체계에 신뢰기반 AI를 개발하고 공급하는 회사의 대표로서, 이 해프닝에 대해 몇 가지 중요한 점을 지적하고자 한다.
첫째, 오픈AI의 챗 GPT에서 발발된 AI 능력에 대한 과대평가가 자연어 분야에서 이제는 전 분야로 급속도로 퍼지는 현상이 확인됐다. 내용 자체가 충격적이다 보니 영어권 언론 포함하여 전 세계적으로 이 내용을 전문가 확인 없이 퍼뜨린 점은 우리가 그만큼 AI의 초인간 능력을 얼마나 두려워하는지를 알 수 있다.
둘째, 공군 관계자 한 사람의 해프닝으로 일단락되는 상황이기는 하지만, 이 관계자의 의도는 이런 실험이 존재했다는 것이 아니라 AI를 잘못 제작·디자인·구현하면 이런 무책임하고 위험한 AI가 충분히 만들어질 수 있음을 경고하는 것이었다. 윤리와 신뢰기반의 AI 기술개발은 자연어나 이미지 데이터 분석 분야에 비해, 살상용에 쓰일 수 있는 무기체계나 자율주행·자율비행에서 더 필요하고 어렵다. 한 번의 실수가 피할 수 있는 대량살상으로 이어질 수 있기 때문이다.
갈길 먼 국방 AI…철저한 ‘팩트체크’ 필요
![게티이미지뱅크](https://img.hankyung.com/photo/202306/01.33643654.1.jpg)
우리도 해밀턴 대령과 같은 상상의 나래를 펼쳐, 이렇게 무책임하고 제어가 안 되는 AI를 중국이나 북한 같은 적대 국가에서 만들었다고 가정해보자. 그랬을 때 AI가 자신을 개발한 중국이나 러시아, 북한 같은 나라들이 인류에게 해가 된다고 스스로 판단해 그들의 명령을 따르지 않고 그들의 무기 체계나 국가를 파괴시킬 수도 있다.
마지막으로 이런 기사를 쓰시는 언론에 부탁하고 싶다. 이렇게 충격적이고 자극적인 내용일수록 전문가에 확인 후에 기사화하였으면 좋겠다. 이 경우는 영미권 언론사인 비즈니스 인사이더와 블로거 등이 먼저 발표 내용을 있는 그대로 기사화하고, 이를 한국 및 전 세계 언론들이 여과 없이 퍼뜨린 경우에 해당한다. AI 전문가 한두 명에게만 물어봤어도 아마 반론이나 이견이 바로 나왔을 상황이다. 이번 해프닝의 결론은, 신뢰와 윤리 기반의 AI 기술은 국방에서 더없이 필요한 분야이지만 아직 갈 길이 멀다는 점이다. 챗 GPT의 어이없는 실수를 보면 더더욱 그렇다. 특히 군 무기체계에 필요하고, 현재 진행 중인 기술개발은 초거대 모델과는 상당히 다른 방향으로 가야 함을 인지할 수 있다.
!["가상훈련 중 AI가 통제관을 살해했다"…엄청난 뉴스의 실체 [긱스]](https://img.hankyung.com/photo/202306/01.33643615.1.jpg)
류봉균 | EpiSys Science 대표
△미국 콜럼비아대 전자공학 박사
△세이프가드AI 창업자
△보잉 팀장, 수석연구원, 및 개발책임자
△미국 콜럼비아대 전자공학 박사
△세이프가드AI 창업자
△보잉 팀장, 수석연구원, 및 개발책임자