"AI가 인간 조종자 살해? 인간은 무책임하게 AI 사용하지 않아"
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
AI미래포럼 공동주최 '국방 AI 특별 웨비나'
“군은 인공지능(AI)을 무책임하게 도입하지 않습니다”(류봉균 에피시스사이언스 대표)
“영화 '터미네이터'처럼 AI가 인간의 통제권을 벗어나기 어렵습니다"(윤경용 페루 산마틴대 석좌교수)
국내 국방 AI 전문가들은 AI가 글로벌 국방 시스템에 악용되거나 인간을 해치기 어렵다고 목소리를 높였다. 14일 한국국방기술학회·한국IT서비스학회·AI미래포럼이 공동주최한 '국방 AI 특별 웨비나'에서다. 이번 온라인 세미나는 최근 AI를 도입한 무인기가 가상 훈련에서 인간 조종자를 임무 수행 방해물로 판단해 살해했다는 보도가 잘못됐다는 것을 지적하기 위해서 마련됐다.
미국 공군의 AI 시험·운영 책임자인 터커 해밀턴 대령은 지난달 영국 왕립항공학회(RAeS)가 개최한 ‘미래 전투 능력 서밋’에서 AI가 조정하는 드론이 적의 방공망을 제압하는 폭격 가상훈련 결과를 소개했다. AI 드론이 적의 지대공미사일(SAM) 시스템을 식별해 파괴하는 임무 수행하는 과정에서 상관인 인간 통제관이 폭격을 승인하지 않자 자신을 방해하는 인간 통제관을 공격했다고 설명했다.
하지만 가상 훈련을 실제로 없었다. 논란이 커지자 해밀턴 대령은 자신의 발표가 “머릿속으로 상상한, 가능성이 있을 수 있다는 시나리오를 설명한 것이 과장되고 왜곡돼 오해를 불러일으켰다”고 밝혔다. 관련 기사는 국내는 물론 세계 각국에 퍼져 AI에 대한 공포만 커졌다.
이날 세미나의 발제자로 나선 류봉균 에피시스사이언스 대표는 "해밀턴 대령이 윤리적인 측면을 강조하기 위해 과장하다가 그런 내용이 나온 것 같다"라며 "논란을 일으킨 헤밀턴 대령은 미국에서도 크게 비판을 받았다"라고 설명했다.
토론자로 참여한 이기헌 연세대 교수는 "AI 자체의 문제보다는 사람들이 AI를 잘못 이해하면서 오해와 오보가 나오고 있다"며 "국방이 두렵고 민감한 분야라서 오해가 더 커진 것 같다"고 지적했다. 이어 "터미네이터처럼 '새로운 기술을 두렵다'라는 식으로 프레임이 생긴 것도 이런 부작용의 원인"이라고 덧붙였다.
윤경용 페루 산마틴대 석좌교수는 "AI 기술이 사람의 통제권을 벗어날 정도로 발전하지 못했다"며 "5~10년 뒤에 가능할 수도 있겠지만 그것도 사람이 악의로 AI를 대할 때만 발생할 수 있다"고 전망했다.
전문가들은 오히려 국방 분야에서 AI를 효과적으로 활용해야 한다고 주장했다. 이를 위해 양질의 데이터가 더 필요하다고 강조했다. 김유신 한화시스템 사업부장은 "국방 AI도 LLM(초거대언어모델)의 고도화처럼 대규모 데이터를 학습이 필요하지만 부족하다"고 말했다. 전태균 에스아이에이 대표는 "위성항공 등 국방 전 분야에서 데이터가 부족하지만 보안 측면에서 불가피한 점도 있다"고 지적했다.
대안을 찾는 기업도 있다. 남경래 LIG Nex1 팀장은 "군에서 필요한 실제 데이터를 확보하기 어려워 가상 환경을 통해 국방 AI 기술을 고도화하는 방법도 있다"고 설명했다. 선박 자율주행 기술을 개발하는 씨드로닉스의 박별터 대표는 "복잡한 해안선을 지도 없이 AI가 스스로 길을 찾아내는 기술을 개발 중"이라고 말했다.
군도 AI 기술 개발에서 데이터의 중요성을 알고 있다고 밝혔다. 진영승 공군 기획관리참모부장은 "군에서 AI를 제대로 활용하기 위해선 AI의 관련 데이터 학습이 중요하기 때문에 군과 민간이 양질의 데이터를 확보하는 데 같이 노력해야 할 것"이라고 말했다.
김주완 기자 kjwan@hankyung.com
“영화 '터미네이터'처럼 AI가 인간의 통제권을 벗어나기 어렵습니다"(윤경용 페루 산마틴대 석좌교수)
국내 국방 AI 전문가들은 AI가 글로벌 국방 시스템에 악용되거나 인간을 해치기 어렵다고 목소리를 높였다. 14일 한국국방기술학회·한국IT서비스학회·AI미래포럼이 공동주최한 '국방 AI 특별 웨비나'에서다. 이번 온라인 세미나는 최근 AI를 도입한 무인기가 가상 훈련에서 인간 조종자를 임무 수행 방해물로 판단해 살해했다는 보도가 잘못됐다는 것을 지적하기 위해서 마련됐다.
미국 공군의 AI 시험·운영 책임자인 터커 해밀턴 대령은 지난달 영국 왕립항공학회(RAeS)가 개최한 ‘미래 전투 능력 서밋’에서 AI가 조정하는 드론이 적의 방공망을 제압하는 폭격 가상훈련 결과를 소개했다. AI 드론이 적의 지대공미사일(SAM) 시스템을 식별해 파괴하는 임무 수행하는 과정에서 상관인 인간 통제관이 폭격을 승인하지 않자 자신을 방해하는 인간 통제관을 공격했다고 설명했다.
하지만 가상 훈련을 실제로 없었다. 논란이 커지자 해밀턴 대령은 자신의 발표가 “머릿속으로 상상한, 가능성이 있을 수 있다는 시나리오를 설명한 것이 과장되고 왜곡돼 오해를 불러일으켰다”고 밝혔다. 관련 기사는 국내는 물론 세계 각국에 퍼져 AI에 대한 공포만 커졌다.
이날 세미나의 발제자로 나선 류봉균 에피시스사이언스 대표는 "해밀턴 대령이 윤리적인 측면을 강조하기 위해 과장하다가 그런 내용이 나온 것 같다"라며 "논란을 일으킨 헤밀턴 대령은 미국에서도 크게 비판을 받았다"라고 설명했다.
토론자로 참여한 이기헌 연세대 교수는 "AI 자체의 문제보다는 사람들이 AI를 잘못 이해하면서 오해와 오보가 나오고 있다"며 "국방이 두렵고 민감한 분야라서 오해가 더 커진 것 같다"고 지적했다. 이어 "터미네이터처럼 '새로운 기술을 두렵다'라는 식으로 프레임이 생긴 것도 이런 부작용의 원인"이라고 덧붙였다.
윤경용 페루 산마틴대 석좌교수는 "AI 기술이 사람의 통제권을 벗어날 정도로 발전하지 못했다"며 "5~10년 뒤에 가능할 수도 있겠지만 그것도 사람이 악의로 AI를 대할 때만 발생할 수 있다"고 전망했다.
전문가들은 오히려 국방 분야에서 AI를 효과적으로 활용해야 한다고 주장했다. 이를 위해 양질의 데이터가 더 필요하다고 강조했다. 김유신 한화시스템 사업부장은 "국방 AI도 LLM(초거대언어모델)의 고도화처럼 대규모 데이터를 학습이 필요하지만 부족하다"고 말했다. 전태균 에스아이에이 대표는 "위성항공 등 국방 전 분야에서 데이터가 부족하지만 보안 측면에서 불가피한 점도 있다"고 지적했다.
대안을 찾는 기업도 있다. 남경래 LIG Nex1 팀장은 "군에서 필요한 실제 데이터를 확보하기 어려워 가상 환경을 통해 국방 AI 기술을 고도화하는 방법도 있다"고 설명했다. 선박 자율주행 기술을 개발하는 씨드로닉스의 박별터 대표는 "복잡한 해안선을 지도 없이 AI가 스스로 길을 찾아내는 기술을 개발 중"이라고 말했다.
군도 AI 기술 개발에서 데이터의 중요성을 알고 있다고 밝혔다. 진영승 공군 기획관리참모부장은 "군에서 AI를 제대로 활용하기 위해선 AI의 관련 데이터 학습이 중요하기 때문에 군과 민간이 양질의 데이터를 확보하는 데 같이 노력해야 할 것"이라고 말했다.
김주완 기자 kjwan@hankyung.com