우크라이나전에 투입된 '신의 한 수'…게임체인저 된 'AI 사령관'
입력
수정
[알고리즘 지배사회(5)]'적군 장교가 민간인 100명과 함께 있는 것이 발견됐다. 타격할 것인가.'
일반인에게는 어려운 질문이지만, 인공지능(AI)에게는 어려울 일이 없다. 알고리즘에 입력된 부수적 피해 허용치에 따라 판단하면 된다. 대상자가 하급 장교일 경우 민간인 피해 허용치를 10명으로, 고급 장교일 경우 100명까지 허용한다고 설정하면 AI는 드론으로 대상자에 폭탄을 떨어뜨릴지를 스스로 판단할 수 있다. 현재 팔레스타인과 이스라엘 간 가자 전쟁에서 사용되고 있는 기술이다. 이스라엘은 작년 10월 하마스와의 전쟁을 시작한 이후 적군을 정밀하게 찾아내 타격하기 위한 AI 시스템을 여럿 쓰고 있다. 적군과 민간인 여부를 판별하기 위한 알고리즘 '라벤더' 시스템과 건물과 구조물을 식별하기 위한 '아빠는 어디 있니(웨어스 대디)' 시스템이 대표적이다.
미국은 예멘의 로켓 발사대를 찾아내고 수단의 내전에 개입하는 과정 등에서 '메이븐' AI를 적극적으로 사용 중이다. 우크라이나는 러시아 군의 위치를 파악하고 무기·장비를 찾아낼 때 미국 메이븐의 기능을 빌려 쓰고 있다.
AI는 단순 식별과 타깃 공격을 넘어 전쟁 전체의 시나리오를 짜는 '사령관'으로 등극하고 있다. 인간이 쌓아 온 기보를 학습한 AI가 순식간에 바둑에서 인간을 압도하듯, 수천만 번의 시나리오를 거듭해서 인간이 미처 생각 못한 '신의 한 수'를 찾아주는 것이 AI 사령관의 목표다. 중국은 인민해방군(PLA)이 수십년 간 쌓은 전략을 학습시킨 AI 사령관을 이용해 최선의 시나리오를 도출하는 실험을 하고 있다. 사우스차이나모닝포스트(SCMP)에 따르면 중국 국방대 연구진은 최근 베이징에서 PLA 수뇌부가 모여 AI를 이용한 대규모 컴퓨터 '워 게임'을 진행했다.
공격효과를 극대화할지, 피해를 최소화할지 등 여러 목표를 달성하는 상황을 가정하고 인간의 결함까지 반영한 AI를 만들고 있다고 이 신문은 전했다. 미국도 마찬가지 연구를 하고 있다. 전쟁도 기계 대 기계, AI 대 AI가 치르게 되는 순간이 이미 도래했다.
현대전은 '알고리즘 간의 대결'
전쟁과 관련된 알고리즘의 목표는 뚜렷하다. 적군의 피해를 극대화하고 아군의 피해를 최소화하는 것이다. 인류가 발전시킨 모든 기술은 전쟁에서 쓰이며, 전쟁에서 쓰기 위해 인류는 자원을 끌어모아 최첨단 기술을 발전시켜 왔다. 미 국방고등연구계획국(DARPA)이 인터넷을 처음으로 개발한 것은 상징적인 사건이다. 컴퓨터와 네트워크가 결합되면서 날아오는 미사일에 대응하기 위한 공중 방어 시스템 등이 가능해졌다. 전쟁은 빠르게 알고리즘 간의 대결구도로 변모했다.세계는 곧 보이지 않는 곳에서 일상적으로 사이버 전쟁이 벌어지는 상태에 접어들었다. 2010년 핵 개발 중이던 이란의 우라늄 농축 원심분리기는 500kb짜리 웜 바이러스에 감염된 컴퓨터 때문에 멈췄다. 누군가 꽂은 USB에 감염된 컴퓨터는 전체 네트워크를 중단시켰다. 계획적인 해킹으로 추정된다. 북한과 러시아 등은 해커 그룹을 키워 세계 각국의 정보를 탈취하는 데 공을 들이고 있다.
신경망 기술을 이용하는 AI가 전쟁에 본격 활용되기 시작한 것은 2010년대 들어서다. 머신러닝과 딥러닝 기술이 발전하면서 목표물을 스스로 인식하고 타격할 수 있는 기반이 마련됐다. 미국은 2016년 AI 기술을 사용하기로 결정했고, 2017년 메이븐 프로젝트를 시작했다. 이때부터 전쟁의 속도는 급격히 빨라졌다. 미국은 현재 AI 프로젝트 800여개를 운영하고 있는 것으로 알려졌다.
우크라이나 가자서 '실전 경험' 쌓는 AI
이런 AI는 우크라이나전(2022년 발발)과 가자전(작년 발발)부터 본격적으로 실전에 투입되고 다. 미국의 군사용 AI '메이븐' 개발에 참여하고 있는 민간기업 팔란티어는 우크라이나 측에 국방 데이터 분석 플랫폼을 제공하고 있다. 상용 위성, 열 감지기, 소셜미디어, 정찰 드론, 우크라이나 측 스파이 등에게 제공받은 정보를 종합 분석해 러시아 군 위치를 정확히 짚어내는 역할이다.알렉스 카프 팔란티어 CEO는 로이터통신과의 인터뷰에서 “우크라이나군 공격의 대부분을 팔란티어 AI 시스템이 책임지고 있다”고 말했다. 이코노미스트는 “다윗(우크라이나)과 골리앗(러시아)의 싸움에서 다윗의 ‘돌팔매’ 역할을 한 것이 팔란티어 AI 시스템”이라고 평가했다.
AI를 활용한 전술 프로그램 ‘GIS 아르타’도 우크라 전에 활용되고 있다. GIS 아르타는 적 드론 등 표적을 식별하면, 표적 주변에서 가장 가깝거나 효율적인 무기를 보유한 부대에 화력 지원이나 직접 공격을 명령한다. 마치 승객이 배차를 원할 때 가장 가까운 차량을 연결하는 우버 앱과 비슷한 방식으로, 전쟁 초기 러시아의 기갑전략 공세를 막아내는 데 결정적 역할을 했다.
AI 전쟁은 미·중 갈등구도를 심화시키고 있기도 하다. 중국은 2030년까지 '세계 최고의 AI 혁신센터'가 되겠다는 계획을 세우고 있다. 서방 국가처럼 개인정보 수집에 규제가 없는 중국은 이를 이용해 자체 AI를 고도화시키는 중이다. 미국은 겉으로는 개인정보 보호 등 자유를 중시하는 태도를 보이고 있지만, 내심 중국에 군사적으로 뒤처질 것을 걱정하고 있다. 중국에 최신 반도체를 수출하지 못하도록 막는 것은 산업적인 의미도 있지만 군사 안보 측면을 고려한 결정이다.
AI 전쟁의 핵심은 데이터다. 특히 적군과 민간인 분류를 위해서는 일상적인 데이터에서 이상징후를 찾아내야 하므로, 필연적으로 개인정보를 요구한다. 이스라엘은 가자 지역의 230만명 주민에 대한 개인정보를 수집해서 1~100까지 ‘군인화될 가능성’을 분류한 것으로 알려졌다. 일반 시민들이 사용하는 챗GPT 등 각종 빅테크의 서비스 내용도 최종적으로는 안보 목적에 활용될 가능성이 높다. 오픈AI가 올초 챗GPT 이용규칙에서 군사적 목적의 이용을 금지한다는 부분을 삭제하고 전 미국 국가안보국(NSA) 수장이었던 폴 나카소네 전 국장을 이사회 구성원으로 영입한 것도 이런 흐름과 무관하지 않다. 같은 이유로 특정 AI 서비스가 '천하통일'을 하는 것도 어려울 전망이다. 적국에 정보가 흘러갈 가능성을 배제할 수 없어서다.
AI 균형 올 때까지 군비경쟁
그러나 AI 전쟁에 대한 우려도 상당하다. 현장 사령관들은 데이터가 부족한 영역에 대해 무리한 판단을 요구하면 AI가 잘못된 결정을 할 수 있다며 불신하기도 한다. 현장의 데이터가 모두 실시간으로 AI와 공유되지 못하는 상황이 생길 경우, 현장의 판단과 AI의 판단은 크게 엇갈릴 수 있다. 이스라엘의 '라벤더' 시스템이 민간인과 하마스를 잘못 구분한 비중이 10%에 달한다는 주장도 있다. 사소한 실수나 행동에 AI가 과도한 반응을 보여 불필요한 전투를 시작할 가능성도 존재한다.근본적으로는 AI 전쟁이 결국 인류를 거대한 위협에 빠뜨릴 것이라는 디스토피아적 전망이 있다. 맥스 테그마크 미국 매사추세츠공대(MIT) 물리학과 교수를 비롯한 1만7000여명의 AI 연구 및 로봇 공학자들은 2015년 AI 기능을 갖춘 자율무기(AWS·Autonomous Weapons System)가 "화학무기와 핵무기에 이어 전쟁의 제3차 혁명"에 해당하며 "세계적인 AI 군비 경쟁이 시작되지 않도록 막아야 한다"는 서한을 공동 발표했다. 이들은 드론이 AI로 목표물을 제거하고 자폭해서 추적을 무력화시키는 일이 수시로 발생하는 사회를 우려하며 AI 무기도 생화학무기의 전례를 따라 서로 사용을 자제하기로 약속해야 한다고 주장했다.
하지만 이 서한이 발표된 후 지난 9년 간 세상은 반대 방향으로 움직였다. 적국 수준의 AI를 갖추지 못한다면 방어도 할 수 없다는 목소리가 훨씬 컸기 때문이다. 힘의 균형을 위해서라도 AI 군비경쟁은 불가피하다는 것이다. 살상용 드론 생산업체 안두릴 등에 투자한 실리콘밸리 대형 벤처캐피털 파운더스펀드는 자신들의 투자 배경에 대해 "평화를 원한다면, 전쟁을 준비하라"고 밝혔다.
[한국은] 韓 국방부도 AI 집중투자 계획
우크라이나 전쟁에 영향을 받은 우리 군도 비슷한 사격지휘체계 구축을 위한 준비를 하고 있다. 군 당국에 따르면 최근 육군본부는 최근 ‘AI 기반 사격지휘체계 연구’ 용역을 발주했다.군 관계자는 “우크라이나가 AI 표적처리 방식으로 목표물 식별 후 무기선택까지 걸리는 시간을 약 20분에서 30~45초로 단축했다”며 “비슷한 기능의 사격체계를 연구 중”이라고 밝혔다.현재 국방부는 AI를 10대 국방전략기술의 하나로 선정하고 집중 투자를 진행 중이다. AI 발전모델을 △1단계 인식지능 △2단계 판단지능 △3단계 결심지능으로 구분하고 단계별로 투자해나갈 계획이다. 1단계 인식지능은 다출처 영상융합 및 GOP·해안경계 체계를 발전시키는 감시정찰에 주요 적용된다. 2단계에선 자율주행 무인전투차량, 유무인 복합 전투체계, 군집체계 등이 적용되고. 3단계는 지휘관의 결심에 도움이 되는 판단까지 내려 준다. 올해 4월 ‘국방AI센터’도 개소했다.
하지만 AI를 접목한 강군으로 나아가기에 아직 갈길이 아직 멀다는 게 전문가들 판단이다. 군내 AI 전문 인력이 부족한 데다, 각종 무기 체계 획득과 개인 전투장비 등 전력지원 체계가 나뉘어 있어 효율적인 국방 AI 사업 추진이 어렵다는 게 문제로 꼽힌다. 심승배 한국국방연구원 국방데이터연구단장은 “우리 군이 만약 군용 소프트웨어를 도입한다면 시험 평가 및 검증 등을 거쳐 실전배치까지 1년 이상 걸린다”며 “민간의 우수 IT 인력을 군에서도 빠르게 제공받을 수 있는 시스템이 필요하다”고 지적했다.
[드론전 된 현대전] 아마존 상품 대신 폭탄 배달하는 '드론 떼'
지난 4월2일 우크라이나는 러시아 서부 내륙 타타르스탄 자치공화국의 공장 지대에 드론 공격을 감행했다. 러시아군이 이를 차단하기 위해 방해전파를 발사했지만 위성데이터 및 지형 정보를 갖고 움직이는 인공지능(AI) 탑재 드론의 공격을 막을 수 없었다.오픈소스 정보 웹사이트 오릭스는 2022년 2월 24일 전쟁이 발발한 이후 현재까지(4월 말 기준) 우크라이나군과 러시아군에서 각각 전차 796대와 2900여대가 파괴됐다고 집계했다.
파괴된 전차 중 상당수는 자폭 드론 공격에 따른 피해다. 전차 윗부분과 후방 엔진룸 등을 덮은 장갑판은 상대적 얇아 공중 공격에 취약하다. 영국왕립합동군사연구소는 “우크라이나 전쟁에서 소모되고 있는 우크라이나군 드론이 하루 300대, 한 달에 1만대에 달한다”고 분석했다.
이에 맞서 러시아도 드론 생산을 늘리고 있다. 러시아는 작전 반경 약 2000㎞의 이란산 자폭용 무인기 ‘샤헤드-136’ 드론을 대량 도입해 활용했고, 최근 들어 자체 개발한 자폭드론 사용을 늘리고 있다. 샤헤드-136은 민수용 장비를 대거 사용해 가격이 싼 데다, 30~50㎏의 탄두를 싣고 2000㎞를 날아갈 수 있다.
김민석 한국국방안보포럼 위원은 “드론이 우크라 전에서 주목받은 건 ‘가성비’ 때문”이라며 “소형드론은 적 레이더에 잘 탐지되지 않고, 현재 운용되는 군용 무인항공기보다 획득비가 적어 전시에 매우 유리하다”고 설명했다. 이같은 드론에 인공지능(AI)이 탑재돼 더 강력해지고 있다는 평가다. 지난 달부터 우크라 전에 투입된 ‘스위치 블레이드 600’ 드론은 적의 탱크 같은 목표물을 스스로 찾아가 공중에서 정확히 포탄을 떨어뜨리는 AI 기술이 적용됐다.
다음 단계는 AI를 이용한 군집 무인기(드론) 전쟁이다. AI 기반의 군집 드론은 다수·다종의 무인기가 하나의 비행체 집단으로서 네트워크로 연결돼 상황을 판단하고 자율적으로 임무를 수행하는 복합 무기체계다. 곤충 떼처럼 집단을 이룬 드론이 ‘물량공세’에 나서면 적 방어를 뚫고 목표물에 도달할 확률이 크게 높아진다. 3차원(3D) 프린터 등으로 대량 생산이 가능한 만큼 어려운 일도 아니다. 아마존 상품을 실어나를 목적으로 제작된 드론을 ‘폭탄 송달’에 사용하지 못할 이유가 없다.
최근 미국이 중국의 대만침공이 발생할 경우 중국에 지옥도(hellscape)를 보여주겠다고 하자 중국 측에서 ‘인민해방군의 함대(드론 떼)’로 대응하겠다고 응수하기도 했다.
김 위원은 “군집기술을 활용하면 저가 무인기를 대량으로 운용해 적의 방어 체계를 압도하는 전력을 구축할 수 있다”며 “미래 전장의 게임체인저”라고 평가했다.
[미래 인지전] 기억 지우고 우울 심고…'군인 뇌 조종시대' 온다
“고심 끝에 돈바스 지역을 러시아에 반환하기로 결정했습니다.”지난해 러시아가 AI 영상합성 기술인 ‘딥페이크’를 활용해 만든 볼로디미르 젤렌스키 대통령의 담화 내용이다. 얼마 못가 가짜뉴스임이 들통났지만 적국의 사기를 꺾기 위한 각종 가짜 영상은 지금도 꾸준히 유포되고 있다.
우크라이나·러시아 전쟁에선 상상할 수 있는 거의 모든 형태의 정보전·사이버전과 함께, 특히 ‘인지전’이 확산되고 있다. 인지전은 적국 지도부와 국민에게 잘못된 정보를 인식시켜 비합리적인 결정을 내리도록 하거나, 무기와 장비 운용에서 실수를 유도하는 방식으로 전쟁을 승리로 이끄는 개념이다.
조작된 가짜 동영상의 확산으로 사람들의 잠재의식에 부정적 영향을 미치고 궁극적으로 스스로 저항을 포기하게 만드는 것은 ‘인지전’의 기본 전략으로 꼽힌다. 만약 정교한 딥페이크 영상이 유포되고 초기 대응에 실패한다면. 우크라이나 및 서방정부에 대한 신뢰는 크게 훼손될 수밖에 없다.
국론 분열로도 직결된다. 최근에는 단기적인 가짜뉴스 유포 뿐 아니라 타국의 소셜미디어 플랫폼에서 허위 조작 정보를 확산시켜 AI 머신러닝의 데이터를 오염시키는 방법도 쓰이고 있다.
전문가들은 미래 인지전에선 딥페이크를 이용한 허위정보 유출은 ‘애교’ 수준이 될 것이라 우려한다.
송태은 국립외교원 교수는 “현대 뇌과학은 인간의 뇌를 스캔해서 어떤 감정과 생각을 하고 있는지 판단하는 정도에 이르렀다”며 “이를 이용해 미래전에선 적군의 뇌를 직접 공격하는 형태가 나올 수 있다”고 지적했다. 아군 지휘부나 핵심 군 간부의 뇌파를 공격해서 ‘정신착란’ 등을 일으키는 방법이 가능할 것이란 게 송 교수의 우려다. 그는 “군사 지휘에 필요한 단기 기억을 상실시키거나, 적군 사이에 우울증이나 공황장애를 일으키는 방법도 가능해질 것”이라고 전망했다. 이같은 인지전에서 밀리지 않기 위해선 우선 우리 군 당국도 가짜뉴스의 프로파간다를 식별, 차단하고 올바른 정보를 발신까지 할 수 있는 시스템을 발전시켜야 한다는 지적이다. 송 교수는 “수집된 정보의 진위 여부를 구분하고 의미에 기반해 편향적 의사결정을 막을 수 있는 알고리즘 개발이 필요하다”고 지적했다.
이상은/김동현 기자 selee@hankyung.com