AI 진화에 '통제없는 무기화' 우려…"핵사용 정책도 뒤흔들 것"
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
NYT "AI 무기 개발 통제할 국제적 합의 요원…군비통제에 새로운 국면"
진화를 거듭하고 있는 인공지능(AI)이 무기 개발과 통제에 대한 기존 개념과 판도를 완전히 뒤엎을 것이라는 경고가 나오고 있다고 5일(현지시간) 미국 뉴욕타임스(NYT)가 보도했다.
AI가 미사일이나 사이버무기는 물론 궁극적으로는 핵무기 사용에도 중대한 영향을 미칠 것으로 예상되는 상황에서 미국과 중국, 러시아 등 주요국들이 앞다퉈 관련 기술 개발 경쟁에 나서고 있으나 이를 통제할 국제적 합의나 통제 기구는 없다는 지적이다.
NYT는 일부 무기는 이미 '자율조종'(autopilot)을 기반으로 작동하고 있다고 전했다.
미국 패트리엇 미사일은 사람의 반응 속도보다 빠르게 들어오는 목표물을 사람의 개입 없이 발사하는 기능을 예전부터 탑재하고 있었다.
이스라엘 정보기관 모사드는 2020년 이란의 핵 과학자 모센 파크리자데 암살에 AI 기술이 적용된 원격조종 기관총을 사용했다.
러시아가 최근 양산을 시작했으나 아직 실전배치는 하지 않았다는 핵 추진 수중 드론 '포세이돈'도, 발표 내용이 사실이라면 발사 후 수일간 바다 밑을 이동하면서 기존 미사일 방어망을 피해 핵 공격을 할 수 있다.
이처럼 AI 기술을 활용한 자율조종 무기가 속속 나와 일부는 활용되고 있음에도 이를 다루는 조약이나 국제 협정은 아직 없는 실정이다.
군비 통제 협상이 진전되기도 전에 기존 협정이 버려지는 시대에 AI 무기 관련 군축 협정이 새로 체결될 전망도 요원하다고 NYT는 꼬집었다.
신냉전으로 일컬어지는 지정학적 대결 구도가 굳어지는 상황인 터라 AI 무기화의 위험성을 우려해 관련 기술 개발을 일시 중단하는 것도 가능한 선택지가 아니다.
존 셔먼 미 국방부 정보화책임관은 "우리가 (AI 무기 기술 개발을) 멈추는 동안 잠재적인 적들은 멈추지 않는다"며 "계속 움직여야 한다"고 말했다.
문제는 AI가 무기에 적용돼 실전에서 사용될 경우 전장에서의 의사결정 속도를 높일 수 있지만 그로 인해 완전히 새로운 종류의 위험이 야기된다는 점이라고 NYT는 짚었다.
AI가 오인 경보나 혹은 의도된 허위 경보를 바탕으로 대응에 나서게 될 경우 돌이킬 수 있는 수단이 아직은 확립되지 않았다는 것이다.
미 국방부 국방혁신위원회 초대 회장을 지낸 에릭 슈밋 전 구글 회장은 "군과 국가 안보에서 AI의 핵심 문제는 인간의 의사결정보다 빠른 공격을 어떻게 방어하느냐인데 나는 이 부분이 아직 해결되지 않았다고 본다"고 말했다.
그는 "미사일이 너무 빨리 들어와 자동 대응이 있어야 한다는 건데 만약 잘못된 신호라면 어떻게 할 것인가"라고 반문했다.
이런 지적은 과거 냉전 시대 경험을 돌아보면 간과하기 어렵다.
미 안보 전문 싱크탱크 신미국안보센터 임원이자 군사 전문가인 폴 샤레에 따르면 1962년부터 2002년까지 핵무기 사용 직전까지 갔던 사례가 최소 13차례 있었다.
그나마 강대국은 과거 경험을 바탕으로 상대 적국의 반응을 예상해서 조심스럽게 접근할 가능성이 있지만 테러리스트나 개별 행위자, 해커 그룹, 북한과 같은 고급 사이버 기술을 보유한 작은 국가들이 더 위험하다고 NYT는 지적했다.
신문은 이러한 모든 것이 군비 통제의 새로운 국면을 예고하고 있다면서, 그나마 기댈 수 있는 통제 수단은 지난해 10월 미국 정부가 중국을 상대로 반도체 수출 규제에 나선 것처럼 AI 기술 개발에 필요한 특수 반도체 등 컴퓨팅 능력을 제한하는 것이라고 덧붙였다.
/연합뉴스
AI가 미사일이나 사이버무기는 물론 궁극적으로는 핵무기 사용에도 중대한 영향을 미칠 것으로 예상되는 상황에서 미국과 중국, 러시아 등 주요국들이 앞다퉈 관련 기술 개발 경쟁에 나서고 있으나 이를 통제할 국제적 합의나 통제 기구는 없다는 지적이다.
NYT는 일부 무기는 이미 '자율조종'(autopilot)을 기반으로 작동하고 있다고 전했다.
미국 패트리엇 미사일은 사람의 반응 속도보다 빠르게 들어오는 목표물을 사람의 개입 없이 발사하는 기능을 예전부터 탑재하고 있었다.
이스라엘 정보기관 모사드는 2020년 이란의 핵 과학자 모센 파크리자데 암살에 AI 기술이 적용된 원격조종 기관총을 사용했다.
러시아가 최근 양산을 시작했으나 아직 실전배치는 하지 않았다는 핵 추진 수중 드론 '포세이돈'도, 발표 내용이 사실이라면 발사 후 수일간 바다 밑을 이동하면서 기존 미사일 방어망을 피해 핵 공격을 할 수 있다.
이처럼 AI 기술을 활용한 자율조종 무기가 속속 나와 일부는 활용되고 있음에도 이를 다루는 조약이나 국제 협정은 아직 없는 실정이다.
군비 통제 협상이 진전되기도 전에 기존 협정이 버려지는 시대에 AI 무기 관련 군축 협정이 새로 체결될 전망도 요원하다고 NYT는 꼬집었다.
신냉전으로 일컬어지는 지정학적 대결 구도가 굳어지는 상황인 터라 AI 무기화의 위험성을 우려해 관련 기술 개발을 일시 중단하는 것도 가능한 선택지가 아니다.
존 셔먼 미 국방부 정보화책임관은 "우리가 (AI 무기 기술 개발을) 멈추는 동안 잠재적인 적들은 멈추지 않는다"며 "계속 움직여야 한다"고 말했다.
문제는 AI가 무기에 적용돼 실전에서 사용될 경우 전장에서의 의사결정 속도를 높일 수 있지만 그로 인해 완전히 새로운 종류의 위험이 야기된다는 점이라고 NYT는 짚었다.
AI가 오인 경보나 혹은 의도된 허위 경보를 바탕으로 대응에 나서게 될 경우 돌이킬 수 있는 수단이 아직은 확립되지 않았다는 것이다.
미 국방부 국방혁신위원회 초대 회장을 지낸 에릭 슈밋 전 구글 회장은 "군과 국가 안보에서 AI의 핵심 문제는 인간의 의사결정보다 빠른 공격을 어떻게 방어하느냐인데 나는 이 부분이 아직 해결되지 않았다고 본다"고 말했다.
그는 "미사일이 너무 빨리 들어와 자동 대응이 있어야 한다는 건데 만약 잘못된 신호라면 어떻게 할 것인가"라고 반문했다.
이런 지적은 과거 냉전 시대 경험을 돌아보면 간과하기 어렵다.
미 안보 전문 싱크탱크 신미국안보센터 임원이자 군사 전문가인 폴 샤레에 따르면 1962년부터 2002년까지 핵무기 사용 직전까지 갔던 사례가 최소 13차례 있었다.
그나마 강대국은 과거 경험을 바탕으로 상대 적국의 반응을 예상해서 조심스럽게 접근할 가능성이 있지만 테러리스트나 개별 행위자, 해커 그룹, 북한과 같은 고급 사이버 기술을 보유한 작은 국가들이 더 위험하다고 NYT는 지적했다.
신문은 이러한 모든 것이 군비 통제의 새로운 국면을 예고하고 있다면서, 그나마 기댈 수 있는 통제 수단은 지난해 10월 미국 정부가 중국을 상대로 반도체 수출 규제에 나선 것처럼 AI 기술 개발에 필요한 특수 반도체 등 컴퓨팅 능력을 제한하는 것이라고 덧붙였다.
/연합뉴스