"적이 쐈습니다" 보고받은 'AI 사령관'…0.001초만에 반격 준비 끝냈다
입력
수정
지면A17
디지털 휴이넘이 온다2002년 미국 뉴욕에서 벌어진 미군 특수작전팀의 급습 훈련. 작전팀은 가상의 테러리스트 지도자가 숨어 있는 2층 건물에 접근했다. 열린 창문 안으로 인공지능(AI) 드론을 던졌다. 드론은 실내를 자율주행하면서 목표물 위치를 파악해 진입 경로를 제시했다. 훈련은 성공적이었다. 실제 상황이었다면 작전팀은 테러리스트를 사살했을 것이다.
(9) 인간 대신 전쟁하는 '인공지능 군인' 온다
이스라엘-하마스戰 때 AI 사용
표적 생성부터 발사, 2분이면 끝
마지막 승인, 인간이 하지만
향후엔 'AI 자동 공격' 가능성도
로봇이 '살상 판단' 내려도 되나
윤리 문제 관련 '국제규범' 필요
2024년. AI는 가상훈련이 아니라 진짜 전쟁에서 쓰인다. 가장 효율적인 폭격 지점을 골라낸다. 공격 시점과 순서를 제안한다. 이스라엘·하마스 전쟁에 참여한 한 전직 장교는 “그 판단이 얼마나 빠른지 전쟁공장 같다”고 했다. 이제 AI는 인간을 대신해 전장을 지휘하는 단계에 이르렀다.
○장교보다 수천 배 빠른 AI 판단
이스라엘 방위군(IDF)이 하마스 요원의 위치를 추정해 표적을 만드는 데 쓰는 AI의 이름은 ‘하브소라’(히브리어로 복음이라는 뜻)다. IDF는 하브소라를 활용해 전쟁 시작 후 27일간 1만2000곳의 목표물을 공격했다. 하루 평균 400곳이 넘는 곳에 공격을 가한 것이다.대량 공격이 가능했던 이유는 AI가 빠른 속도로 공격 지점을 골라냈기 때문이다. 탈 미므란 히브리대 교수는 미국 국립공영라디오에서 “장교 20명이 300일 동안 40개 표적을 생성할 때 하브소라는 단 10일 동안 200개 표적을 만든다”고 했다. IDF는 무장세력 용의자 3만~4만 명의 거주 정보 등을 수집해 AI에 학습시킬 데이터를 쌓았다.하브소라가 표적을 선정하면 ‘파이어팩토리’라는 AI 체계가 공격 계획을 세운다. 탄약량을 계산하고, 전투기와 드론에 우선순위를 지정해 표적을 할당한다. 며칠이 걸리던 일이 2~3분이면 끝난다. 인간의 역할은 확 줄었다. AI의 결과를 최종 검토하는 데 몇 분을 쓸 뿐이다. AI 공격 시스템이 더 고도화하면 0.001초 만에 표적 분석과 판단이 끝날 것이란 관측이 나온다.
공격을 실행하는 것도 AI 군인이다. IDF가 배치한 자살폭탄 드론 ‘파이어플라이’는 가자지구처럼 복잡한 도심의 시가전에 특화됐다. 머지않아 인간 군인은 원격 결정만 하고 오로지 로봇 군인만 전장에 나설 수도 있다. 박찬봉 광운대 방산AI로봇융합학과 교수는 “AI 드론은 싼 비용으로 큰 효과를 내는 게 특징”이라며 “공중에선 AI 드론, 지상은 AI 전차, 바다에선 AI 해상무기가 앞으로 전쟁을 치를 것”이라고 내다봤다.
○“군사 AI 국제규범 마련해야”
마지막 단계의 공격 승인은 아직 인간이 한다. 하지만 AI가 자동으로 공격하는 시스템이 도입될 가능성도 상당하다. 급박한 상황에선 빠른 의사결정이 중요하기 때문이다. 박 교수는 “테러 조직이나 권위주의 국가에서 AI 공격 시스템을 도입할 가능성이 있다”고 말했다.이 경우 기계가 인간 살상에 대한 판단을 내릴 수 있느냐는 윤리적 문제에 직면할 수밖에 없다. 공격 과정에 인간의 개입이 사라진다면 전쟁과 학살의 구분이 희미해진다. 폴 샤레 신미국안보센터 연구 책임자는 “AI는 학습 데이터와 다른 상황에 놓일 때 취약해진다”며 “가장 큰 위험은 민간인 사상자를 내거나 아군을 표적으로 오인해 공격하는 것”이라고 했다.부정적으로만 볼 필요는 없다는 반론도 나온다. 사람을 무차별적으로 공격하는 게 아니라 적의 주요 무기를 작동 불능 상태에 빠지게 하는 방식의 전투가 일반화할 수 있어서다. 이스라엘 AI인 하브소라도 건물 안에 얼마나 많은 민간인이 있는지를 빨강, 노랑, 초록색으로 신호등처럼 보여준다. 민간인 피해를 최소화하기 위한 시스템이다.
주요 국가는 빅테크 기업들과 협력해 전쟁용 AI를 고도화하고 있다. 홍콩 사우스차이나모닝포스트(SCMP)에 따르면 중국인민해방군과 관련이 있다고 알려진 대학 연구진은 최근 대규모언어모델(LLM) 기반으로 적군의 전투 전략을 예측하는 AI 시스템을 테스트했다.챗GPT를 개발한 오픈AI는 최근 AI 이용약관에서 군사 및 전쟁에 사용을 금지한다는 내용을 삭제했다. 미 국방부 산하 고등연구계획국과 함께 사이버보안 도구를 개발하기 위해 정책을 변경했다.
빅테크들까지 가세하면서 군사 분야에서 AI 활용을 제한해야 한다는 목소리가 나오기 시작했다. 미국 싱크탱크 브루킹스연구소는 미국과 중국이 AI의 군사적 활용에 대해 기준을 세우고 합의해야 한다고 주장했다. 조상근 KAIST 국가미래전략기술 정책연구소 교수는 “군사 분야 AI를 잘못 이용한 게 확인될 경우 국제사회에 바로 공론화하고, 악용을 방지하기 위한 국제적 규범을 계속 업데이트해 나가야 한다”고 말했다.
고은이 기자 koko@hankyung.com