'가상훈련서 인간 조종자 죽인 AI드론' 발표한 美대령 발언 철회
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
英학회 발표 내용 파장 일자 "개념적으로 진행한 실험을 잘못 말했다"
인공지능(AI)이 적용된 드론(무인기)이 가상훈련에서 인간 조종자를 '임무 수행 방해물'로 판단해 살해했다는 사례를 소개한 미 공군 대령이 관련 보도로 파장이 일자 "잘못 말했다"며 발표 내용을 철회했다,
3일(현지시간) 영국 일가지 가디언에 따르면 영국 왕립항공학회(RAeS)는 성명을 내고 최근 이 단체가 개최한 국제회의에서 '악당 AI 드론 시뮬레이션 시험' 관련 내용을 발표한 터커 해밀턴 대령이 관련 내용을 철회했다고 밝혔다.
미 공군의 AI 시험·운영 책임자인 해밀턴 대령은 해당 시험이 실제 시뮬레이션 훈련이 아니라 가설에 근거해 진행된 '사고실험'(thought experiment)으로 군 외부에서 이뤄졌다고 해명했다.
해밀턴 대령은 "우리는 (실제로) 실험한 적이 없으며 있을 법한 결과를 얻기 위해 실험할 필요도 없을 것"이라고 말했다고 왕립항공학회 측은 전했다.
그는 또한 미 공군이 실제든 시뮬레이션으로든 어떠한 무기화된 AI도 시험한 적이 없다고 강조하면서 "가설에 의한 것이지만 해당 사례는 AI로 구동되는 역량이 제기하는 현실 세계에서의 도전을 보여주며 이는 공군이 AI의 윤리적 개발에 전념하는 이유"라고 덧붙였다.
논란이 된 내용은 지난달 23∼24일 이 학회가 런던에서 개최한 '미래 공중전투 및 우주역량 회의'에서 발표된 것이다.
시뮬레이션을 통한 가상훈련에서 AI 드론에 '적 방공체계 무력화' 임무를 부여하고 인간 조종자가 공격 여부를 최종적으로 결정한다는 단서를 달았으나, 적의 지대공미사일(SAM) 위치를 식별해 파괴하는 것이 점수 쌓기에 유리하다고 판단한 AI가 '공격 금지' 명령을 내리는 조종자를 방해 요소로 판단해 제거했다는 것이 요지다.
해밀턴 대령은 '조종사를 죽이지 말라'는 명령을 내리자 AI 시스템은 조종자가 '공격 금지' 명령을 드론에 내리는 데 사용하는 통신탑을 파괴하는 등 예상하지 못한 전략을 택했다고 소개하면서 "AI에 지나치게 의존해서는 안 되며 윤리 문제를 빼놓고 AI를 논할 수는 없다"고 경고했었다.
영국왕립학회 블로그에 공개된 이 사례는 가상훈련이어서 실제 인명피해가 난 것은 아니지만 AI가 인간의 명령을 듣기보다는 스스로 판단해 인간을 공격할 가능성을 보여줬다는 점에서 우려를 낳았고, 전세계 여러 언론에 보도됐다.
미 공군도 이 가상훈련과 관련한 질의에 "공군은 그러한 AI 드론 시뮬레이션을 수행하지 않았으며 대령의 발언은 입증되지 않은 것으로 보인다"고 부인했다.
/연합뉴스
3일(현지시간) 영국 일가지 가디언에 따르면 영국 왕립항공학회(RAeS)는 성명을 내고 최근 이 단체가 개최한 국제회의에서 '악당 AI 드론 시뮬레이션 시험' 관련 내용을 발표한 터커 해밀턴 대령이 관련 내용을 철회했다고 밝혔다.
미 공군의 AI 시험·운영 책임자인 해밀턴 대령은 해당 시험이 실제 시뮬레이션 훈련이 아니라 가설에 근거해 진행된 '사고실험'(thought experiment)으로 군 외부에서 이뤄졌다고 해명했다.
해밀턴 대령은 "우리는 (실제로) 실험한 적이 없으며 있을 법한 결과를 얻기 위해 실험할 필요도 없을 것"이라고 말했다고 왕립항공학회 측은 전했다.
그는 또한 미 공군이 실제든 시뮬레이션으로든 어떠한 무기화된 AI도 시험한 적이 없다고 강조하면서 "가설에 의한 것이지만 해당 사례는 AI로 구동되는 역량이 제기하는 현실 세계에서의 도전을 보여주며 이는 공군이 AI의 윤리적 개발에 전념하는 이유"라고 덧붙였다.
논란이 된 내용은 지난달 23∼24일 이 학회가 런던에서 개최한 '미래 공중전투 및 우주역량 회의'에서 발표된 것이다.
시뮬레이션을 통한 가상훈련에서 AI 드론에 '적 방공체계 무력화' 임무를 부여하고 인간 조종자가 공격 여부를 최종적으로 결정한다는 단서를 달았으나, 적의 지대공미사일(SAM) 위치를 식별해 파괴하는 것이 점수 쌓기에 유리하다고 판단한 AI가 '공격 금지' 명령을 내리는 조종자를 방해 요소로 판단해 제거했다는 것이 요지다.
해밀턴 대령은 '조종사를 죽이지 말라'는 명령을 내리자 AI 시스템은 조종자가 '공격 금지' 명령을 드론에 내리는 데 사용하는 통신탑을 파괴하는 등 예상하지 못한 전략을 택했다고 소개하면서 "AI에 지나치게 의존해서는 안 되며 윤리 문제를 빼놓고 AI를 논할 수는 없다"고 경고했었다.
영국왕립학회 블로그에 공개된 이 사례는 가상훈련이어서 실제 인명피해가 난 것은 아니지만 AI가 인간의 명령을 듣기보다는 스스로 판단해 인간을 공격할 가능성을 보여줬다는 점에서 우려를 낳았고, 전세계 여러 언론에 보도됐다.
미 공군도 이 가상훈련과 관련한 질의에 "공군은 그러한 AI 드론 시뮬레이션을 수행하지 않았으며 대령의 발언은 입증되지 않은 것으로 보인다"고 부인했다.
/연합뉴스