최근 스위스 제네바에서 개최된 유엔의 특정 재래식 무기협약(CCW) 정부 전문가 회의(GGE)에서 치명적인 자율무기체계(Lethal Autonomous Weapon System) 일명 ‘살인로봇’에 대한 대책이 처음으로 공식 의제로 다뤄졌다. ‘살인로봇’이란 일단 스위치가 켜지면 인간의 명령 없이도 목표물을 자율적으로 선택해서 살상하는 무기시스템이다. 2014년부터 LAWS를 통제하는 국제법을 설정해야 할지를 CCW의 틀 안에서 검토해오고 있었다. 처음 이 문제가 토론 주제로 다뤄질 때만 해도 ‘살인로봇’은 먼 미래의 공상과학 영화의 소재 정도로 취급되었지만 최근 몇 년 사이에 저가격 센서들이 개발되고 인공지능(AI) 기술이 급속히 발달하면서 당장이라도 심각한 살인무기들이 등장할 수 있다는 절박감이 널리 퍼져 있다.

버클리 소재 캘리포니아 대학의 AI 과학자인 스튜어트 러셀(Stuart Russell) 교수는 제네바 회의가 개최되는 시점에 맞춰 첨단 살인무기가 얼마나 심각한지 보여주는 짧은 동영상을 언론에 공개했다. 그를 비롯한 많은 과학자 및 기업가들은 살인무기에 인공지능을 활용할 수 없도록 유엔 차원에서 금지조약을 체결하는 것이 시급하다고 주장해 왔다. 러셀 교수는 인공지능기술이 급속히 발달하면서 공상과학 영화의 소재라고만 생각해 왔던 치명적인 살상무기가 현존하는 기술들을 조합하면 충분히 가능하다는 점을 7분짜리 짧은 동영상으로 보여줬다.

 

살인로봇은 테러 및 요인 암살용으로 발전할 수 있다

도살로봇(Slaughterbots)이란 제목으로 공개된 동영상 속 장면들은 충격적이다. 초정밀 타격이 가능한 무인비행체를 제조하는 기업의 대표가 신제품을 소개하는 행사무대에서 살인로봇의 위력을 설명하는 장면부터 이야기가 시작된다. 손바닥 크기의 반도 안 되는 자율비행체 쿼드 드론(Quad Dron)은 저격당하지 않는 모드로 비행하면서 스스로 살해할 목표물을 찾아내고 정확하게 타격을 가할 수 있다고 장담한다. 비행체의 반응속도는 사람보다 100배 이상 빠르며 모든 비행은 AI가 관장한다고 한다. 이 미니 비행체엔 광각 카메라, 동작 센서, 얼굴인식 지능을 갖는 앱을 내장하고 있으며 내부엔 3g의 고체폭발물이 들어 있다면서 발표자는 관중석 속으로 드론을 던진다. 허공에 던져진 드론은 무대 위에 설치된 마네킹의 얼굴을 순간적으로 인식하고 곧바로 인형의 머리를 향해 돌진한다. 순간 드론이 인형 두개골 속에 폭발물을 터뜨려 사살하는 장면을 보여준다. “봤는가? 이 작은 폭발만으로도 두개골에 구멍을 뚫고 뇌 속을 파괴한다”고 자랑한다. “사람은 감정 때문에 살인명령을 이행하기 어렵지만 암살로봇은 서슴없이 정확하게 명령을 집행한다.” “살인로봇들이 악당들을 찾아내서 바로 소탕할 수 있다. 마치 수술할 지점을 찍듯이 정확히 공중타격으로 사살한다”라고 말한다. 그리고 이런 유사한 상품이라며 “EyeFire”, “Stinger”. “Vanguard”, “SoftTouch”, “BreachBaby” 등을 화면에 보여준다. 이들 미니 비행체들은 떼거리로 건물, 자동차, 기차 등의 벽면을 폭파하고 안으로 침투해서 적들을 소탕한다고 자랑한다. 그뿐만이 아니다. 비행기에 이들 미니 살인비행체를 싣고 가서 폭탄처럼 도시 위에 뿌리면 도시민들의 절반을 차지하는 나쁜 사람들만을 골라서 살해할 수 있다고 자랑한다. 살해할 대상을 지정해 주면 시민들의 성격을 분석해서 살인로봇 떼들이 모두 솎아서 사살해줄 수 있다고 한다. 블랙리스트 대상의 성별, 나이, 체격, 의상, 도덕심 등을 지정해 주면 규격에 맞는 목표물을 찾아서 모두 사살해 버려 깨끗한 사회를 만들 수 있다고 소개한다. 이 영상물은 곤충형 살인 로봇이 요인 암살에 바로 투입될 수 있다는 점을 암시하고 있다. 침투하는 미니 곤충 로봇을 도저히 감지하지도 못할 뿐만 아니라 고속으로 요인에게 다가가서 순간적으로 독침이나 미니 폭발물을 터트리면 암살이 가능하다는 점을 보여준다. 이미 극소형 카메라는 개발되어 있고 미니 비행체 기술도 개발되어 있다. 얼굴인식 기술은 이미 사람보다 더 정확한 수준에 도달했다. 지능형 칩에 암살할 인물의 정보를 기억시키고 암살명령을 내리기만 하면 암살 로봇은 즉각 명령을 집행할 수 있다. 동영상 제작에 참여한 스튜어트 러셀 교수는 여러 경로를 통해 이 같은 살인로봇의 위험성에 대해 경고를 해왔다. “이 영상물은 과학소설이 아니다. 단순히 기존 기술들을 통합한 것에 불과하다. 실제로 자율주행 자동차 기술보다 달성하기가 더 쉽다.” “35년 이상 AI 연구를 해온 사람의 견해로는 AI는 방위산업을 포함해서 인류사회에 엄청난 혜택을 가져다 줄 잠재력이 갖고 있지만 기계에게 사람을 살해할 수 있는 선택권을 주면 끔찍한 재앙을 초래할 수 있다. 인간의 안전을 해칠 살인 로봇 개발을 막아야 한다”고 주장한다. “수천 명의 동료 연구자들은 살인로봇이 현실화되는 일을 막아야 한다고 서명을 했다. 지금 이를 막을 수 있는 기회가 빠르게 사라지고 있다”는 말로 살인로봇 금지조약의 도입이 매우 시급하다는 점을 강조하고 있다.

 

현실적인 무기자율시스템은 민간기술에 비해 뒤처져 있다

최근 스톡홀름국제평화연구소(SIPRI)는 자율 기반 기술에 대한 이해를 높이고 무기 체계에서 자율 진전의 속도와 궤적을 파악하기 위해서 각국의 무기체계를 조사해서 보고서에 담았다. 먼저 무기체계에서의 자율성이란 센서와 컴퓨터 프로그램이 상호작용을 해서 인간의 간섭 없이 기계가 스스로 의도된 업무를 수행하는 것이라고 정리하고 있다. 무기체계에서의 자율성은 아직은 수학적 알고리즘에 기반을 두고 있으며 기계학습에 의존하는 사례는 적다. 하지만 예측을 하는 문제에선 기계학습법이 실험적으로 채택되고 있다고 분석하고 있다.

현재 무기체계에서 자율성은 이동성, 목표설정, 정보, 상호 운용성 및 건강관리를 지원하는 용도로 사용되고 있다. 자동화된 표식인식(ATR) 시스템은 자율적으로 표적을 획득하는 시스템으로 전투 환경이 열악하고 가변적이기 때문에 아직은 지각능력이나 의사결정지능이 제한적으로 사용되고 있다. 기존 시스템에서 목표를 자율적으로 획득하고 응용하는 시스템은 대부분 방어시스템이었다. 아직은 병사의 감독 하에서 운용되고 있으며 사람이 반응하기 어려운 매우 짧은 시간에 대응해야 하는 경우에만 자율적으로 작동하게 되어 있다. 공격형 자율무기는 주로 배회형 공격무기이다. 적진을 배회하다가 목표물을 발견하면 바로 공격을 하는 무기체게이다. 이 경우도 배회하는 시간과 지역 그리고 공격할 수 있는 대상의 범주는 병사가 정해주고 있다.

무기체계에 자율성을 부여하려는 동기에 대해서도 분석해 놓았다. 전략적인 면에선 군의 첨단화 계획에 따른 것이다. 실제로 자율성을 부여하면 전장에서 정확하고 신속하게 상황변화에 대응할 수 있고 지속성이 있다는 장점이 있다. 경제적으로도 작전비용이 줄어든다고 분석하고 있다. 하지만 자율성을 도입하기엔 여러 가지 장애물들도 존재한다. 첫째 시스템을 검증할 수 있을 만한 상황별 데이터를 확보하기 어렵다는 어려움이 있다. 둘째, 군인들이 자율시스템의 안전성을 신뢰하지 않는다는 문제가 있다. 기존 시스템에 익숙해진 병사들과 어설픈 자율시스템의 작동 실험이 공존하기 어렵다는 문제점이다. 셋째, 국제법에 따라 지켜야 할 규범들이 존재한다. 대부분의 상황에서 무기체계는 인간이 책임을 져야 하는 상황이 대부분이다. 넷째, 민간기술의 발달로 인해 특히 목표설정에 자율시스템을 도입해야 한다는 압력이 강하다. 하지만 자율시스템을 도입하는 데는 군대나 정부에 정치적으로 민감한 부담을 주게 된다. 다섯째, 군대가 수용할 수 있는 한계가 있다. 대부분의 신무기체계는 무기생산국의 영역으로 독자적인 자율시스템 도입에 한계가 있다.

자율무기개발에서 중요하게 취급하는 핵심은 AI, 로봇, 그리고 제어이론이다. 무기 개발에서의 인공지능기술도입은 미국이 앞서 가고 중국을 비롯한 기타 무기생산 국가들은 미국 기술을 이 추종하는 경향을 보인다. 하지만 AI나 로봇기술은 알파벳, 아마존, 바이두 그리고 자율주행자동차 기술을 보유한 민간기술 기업들이 무기 전문 생산기업들보다 앞서 있다. 무기생산 기업들도 자율지능기술을 개발하지만 규모가 적다고 분석되고 있다. 하지만 무기체계에 자율기능을 도입하려면 무기에 맞도록 민간기술의 수정이 필요하다는 점에서 향후 무기생산 기업들의 역할이 중요하다.

 

살인로봇이 개발되지 않도록 법적 구속력을 단단히 다져둬야 한다

SIPRI가 특정재래식무기협약에서 다뤄야 할 관점들을 정리한 내용은 다음과 같다. 우선 일반적으로 거론되는 살인로봇보다는 ‘무기체계에서의 자율성’에 대해 보다 더 초점을 맞춰야 한다. 즉 무기의 자율성이 인간의 통제권을 어떻게 변경시키는지에 주목해야 한다고 주장한다. 다음, 목표설정의 자율성 문제를 넘어서 합동작전 시의 정보처리나 자율성을 어떻게 활용할 지에 대해서 논의해야 한다고 권고한다. 다음, 데이터가 없기 때문에 무기의 자율성을 부여하기 위해서 기계학습으로 가능한 방법이 무엇인지 확인해야 한다. 다음, 무기체계와 무기사용 단계에서 인간이 제어를 할 수 있는 법적, 윤리적 한계가 무엇인지 따져 봐야 한다. 다음, 자동차 산업, 항공우주산업, 로봇산업 등 민간 산업과 자율성, 인간제어, 자동화 시스템의 검증에 대해 의견교환이 필요하다. 다음, 민간의 혁신을 가로막지 않도록 치명적인 자율장치 개발을 감시하고 조절하는 노력이 필요하다. 다음, 테러단체에 의해 민간 기술이 무기로 탈바꿈하는 위험을 막을 수 있도록 방법을 강구하라.

아직은 무기체계에서 기계학습을 도입하기엔 시기상조인 것으로 분석되고 있다. 하지만 알파고 제로에서 보았듯이 AI 기술발달이 하루가 다르게 급진전하고 있다. “살인로봇 개발을 막지 않을 경우 걷잡을 수 없는 사태가 발생할 수 있다”는 국제인권감시기구(Human Rights Watch) 무기분과 책임자인 스티브 구스(Steve Goose) 소장의 경고를 깊이 되새겨야만 한다.