박건형 논설위원

지난달 2일 신성철 한국과학기술원(KAIST) 총장에게 인공지능(AI) 분야 석학인 토비 월시 호주 뉴사우스웨일스대 교수가 이메일을 보냈다. 월시 교수는 "KAIST가 AI 킬러 로봇(Killer Robot)을 만드는 것이 사실이냐"고 물으며 해명을 요구했다. 지난 2월 KAIST가 방산업체 한화시스템과 함께 국방인공지능융합연구센터를 개소한 목적이 자율적으로 사람을 공격하는 AI 무기 개발이 아니냐는 것이었다. 대수롭지 않게 여긴 KAIST는 답장을 보내지 않았다. 하지만 이 메일을 무시한 대가는 컸다. 외신들은 KAIST 교수들을 워사이언티스트(전쟁 과학자)라고 비판했고 , 세계적 학자들이 KAIST와 공동 연구를 보이콧(boycott)하겠다고 발표했다. 사태 해결을 위해 청와대와 외교부까지 나섰다. KAIST는 정말 킬러 로봇을 만들려고 했던 것일까. 도대체 AI 무기는 얼마나 위험하길래 전 세계가 KAIST를 주목했던 것일까. 지난 9일 대전 대덕연구개발특구에 있는 KAIST를 다녀왔다.

해프닝이라지만… 너무 늦었던 KAIST의 상황 판단


기자와 마주 앉은 신성철 총장은 이번 사건을 "단순한 오해에서 비롯된 해프닝"이라고 했다. 그는 이날 월시 교수가 보낸 'KAIST에 대한 보이콧 선언을 철회하기로 했다'는 내용의 이메일을 보여줬다.

사건의 발단은 KAIST가 지난 2월 20일 배포한 국방인공지능융합연구센터 개소식 보도자료였다. 당시 자료에는 KAIST가 한화시스템에 국방 AI 융합 과제 발굴과 연구 및 기술 자문을 제공한다고 명시돼 있었다. 문제는 한 국내 영자지가 'KAIST와 한화가 AI 무기(weapon)를 개발한다'는 제목의 영문 기사를 내보내면서 불거졌다. 기사에는 "AI 무기는 사람의 컨트롤 없이 목표물을 찾아 제거하는 기능을 갖추고 있다"는 식의 상세한 묘사까지 들어 있었다. 신 총장은 "KAIST와 한화시스템이 논의하지도 않은 내용"이라고 말했다.

KAIST의 인공지능(AI) 무기 개발 논란은 해프닝으로 마무리됐지만 로봇 무기는 이미 상용화 단계에 접어들었다. 이 로봇에 AI를 탑재하면 스스로 판단해 사람을 공격하는 킬러 로봇이 될 수 있다. 미국 보스턴 다이내믹스의 전투 로봇 ‘아틀라스’를 사람이 하키 스틱으로 밀고 있는 모습(왼쪽 사진), 보스턴 다이내믹스의 군수 물자 수송 로봇 ‘와일드 캣’(오른쪽 위), 미 해군이 개발하고 있는 감시 로봇(오른쪽 아래).

기사를 본 월시 교수는 KAIST에 해명을 요청했다. KAIST가 묵묵부답으로 일관하자 월시 교수는 국제인권감시기구 휴먼라이츠워치에 제보했다. 휴먼라이츠워치는 지난달 21일 주미 한국대사관을 통해 KAIST의 공식 해명을 요구했다. 또 오는 13일부터 스위스 제네바에서 열리는 유엔 특정재래식무기금지협약(CCW) 회의에 KAIST 관계자가 출석해야 한다고 주장했다. 이 회의에서는 킬러 로봇 방지 대책이 주요 안건으로 다뤄질 예정이다. 공식 외교 채널을 통해 항의가 접수되자 외교부는 물론 청와대 과학기술보좌관실까지 발칵 뒤집혔다. 공식 해명 요구를 받은 KAIST는 외교부 군축비확산담당관과 과기정통부에 센터 설립 목적이 킬러 로봇 개발이 아니라는 공문을 지난달 29일 발송했다.

월시 교수는 여기에 그치지 않고 전 세계 AI 연구자들을 대상으로 "KAIST와 공동연구를 거부한다"는 보이콧 서명을 받았다. AI 학계의 구루(guru·스승)로 불리는 제프리 힌턴 캐나다 토론토대 교수와 요수아 벤지오 몬트리올대 교수, 로봇계의 거장 브루노 시칠리아노 이탈리아 나폴리대 교수 등 톱클래스 학자 57명이 서명했다. 이들은 영국 파이낸셜타임스와 과학 학술지 사이언스에 이 선언문을 보냈다. 파이낸셜타임스 기자가 KAIST의 공식 입장을 문의한 뒤에야 KAIST는 국제적으로 고립될 위기에 처했다는 것을 깨달았다.

신 총장은 "지난 4일 보이콧 소식을 듣자마자 서명에 참여한 교수 57명 전원에게 공식 서한을 보냈다"면서 "국방인공지능융합연구센터는 대량 살상 무기, 킬러 로봇을 개발하는 곳이 아니라 AI 기초 기술을 개발하는 곳이라고 설명했다"고 말했다. 서한을 받은 교수들은 논의를 거쳐 닷새 만인 9일 "KAIST의 해명을 받아들인다"면서 보이콧을 철회했다. 신 총장은 "1971년 개교한 KAIST 역사에서 가장 화제가 된 사건이 해프닝이었다는 점이 아쉽다"면서 "산학협력을 추진할 때 어떤 부분을 고민해봐야 하는지, 국제 학계와 관계가 얼마나 중요한지 등에 대한 좋은 교훈을 얻었다고 생각한다"고 말했다. 상황이 일단락됐지만 외교부는 제네바 CCW 회의에 참석해 사건 경위를 설명할 방침이다. 정부 관계자는 "한국이 킬러 로봇을 개발한다는 오해를 명확하게 바로잡을 것"이라고 말했다.

인공지능 인력 양성이 핵심 목적

KAIST가 국방인공지능융합연구센터에서 진행한다는 기초 연구의 실체는 뭘까. KAIST는 한화시스템과 진행할 연구 주제들을 이미 선정했다. ▲AI 기반 지휘결심 지원 체계 ▲대형급 무인 잠수정 복합항법 알고리즘 ▲AI 기반 지능형 물체 추적 및 인식 기술 개발 등이다. 지휘·잠수정 같은 용어들 때문에 실제 무기를 개발하는 것 같은 인상을 받는다. 신성철 총장은 "센터에서 개발하고 있는 AI 기술은 어느 분야에든 사용할 수 있는 범용 기술이고, 실제 외국에서는 민간 기업들이 상용화까지 하고 있는 기술들"이라고 말했다.

신성철 KAIST 총장이 지난 9일 집무실에서 본지와 인터뷰하고 있다.

우선 AI 기반 지휘결심 지원 체계는 대량의 빅데이터를 AI로 분석해 문제점을 찾아내고 해결 방안을 제안해주는 기술이다. 미국 최대 전자상거래 업체 아마존은 물류 창고 운영에 이 기술을 사용한다. AI가 수만 대의 물류 로봇이 움직이는 과정을 실시간으로 살피고 고장 난 로봇을 효율적으로 걸러내면서 창고가 원활하게 돌아갈 수 있도록 해준다. 사람이 전혀 없는 무인 스마트 공장에서도 활용할 수 있다. 데이터가 쌓이면 언제 어떤 기계가 무슨 문제를 일으킬지까지 예측해낸다.

무인 잠수정 복합항법 알고리즘과 물체 추적 및 인식 기술은 현재 전 세계 기업들이 치열한 상용화 경쟁을 벌이는 자율주행차에 적용되고 있다. 차량이 스스로 주변 상황을 정확하게 파악하고 최적의 경로를 찾기 위해 AI를 이용하는 것이다. 자율주행차는 물론 심해 자원 탐사나 무인 보안 시스템 등을 획기적으로 개선할 수 있는 기술이다.

센터장을 맡고 있는 김정호 KAIST 연구처장(전기 및 전자공학부 교수)은 "한국의 AI 기술력은 미국, 중국 등에 비해 2년 이상 뒤떨어져 있다"면서 "이번 기회에 한국 AI 기술의 기반을 확실히 닦는 것이 센터 설립 목적"이라고 말했다. KAIST는 국방인공지능융합연구센터에 학내 인공지능 관련 전공 교수 60명 가운데 25명을 배치하고 학생들도 대거 투입할 방침이다. 센터를 AI 인력 양성에 적극적으로 활용하기 위해서다.

KAIST 내부에서도 한화시스템과 협력을 반대하는 목소리가 일부 있었다. 괜한 오해를 살 수 있다는 주장이었고, 실제 벌어진 일은 우려보다 심각했다. 그렇다면 왜 KAIST는 굳이 방산업체를 협력 대상으로 선택했을까. 김정호 처장은 "4차 산업혁명을 국가적 과제로 내건 정부가 정작 AI 인력 양성과 연구에는 투자를 제대로 하지 않고 있기 때문"이라고 말했다. KAIST는 지난해부터 국회와 정부 등을 찾아다니며 AI 예산 지원을 요청했지만 허사였다. 반면 한화시스템은 단 한 번의 미팅으로 센터 지원을 결정했다는 것이다. 김정호 처장은 "하루가 다르게 선진국들과 기술 격차가 벌어지는데 손을 놓고 있을 수는 없었다"면서 "우리가 개발한 기술을 국방 분야에 활용할 수도 있지만, 그건 어디까지나 한화시스템의 역할"이라고 말했다. 연간 20조원에 가까운 연구·개발(R&D) 예산을 쓰는 한국 정부가 지난해 인공지능 기술 개발에 투입한 예산은 1630억원으로 중국의 2.7%에 불과하다.

"AI 무기, 핵무기보다 강한 군사 전력될 것"
로봇윤리 전문가 "개발하되 '殺傷 결정권' 사람이 가져야"

"인공지능(AI) 무기는 핵(核)보다 훨씬 강력한 비대칭 전력이 될 수 있는 만큼 손을 놓고 있을 수는 없습니다." 이중원 서울시립대 철학과 교수는 이미 AI 무기 개발을 막을 방법은 없다고 말했다. 이 교수는 로봇윤리 분야 권위자로 2007년 세계 최초의 로봇윤리헌장 제정을 주도했다. 그는 "핵과 같은 전통적인 대량 살상 무기는 외부에 알리지 않고 개발하는 것이 불가능하지만, AI 무기는 컴퓨터만 있으면 몰래 숨어서 얼마든지 만들 수 있다"면서 "이를 규제할 만한 국제적 합의도 아직 없다"고 말했다. AI 무기가 없으면 현실적으로 국제사회의 군비 경쟁에서 뒤처질 수밖에 없는 만큼 한국도 정부 차원에서 갈 수밖에 없는 길이라고도 했다. 다만 윤리적 측면에서 AI 무기의 최종 통제권을 사람이 가진다는 원칙은 모두가 지켜야 한다고 주장했다. 어떤 경우에도 사람을 공격하고 죽이는 결정 권한을 AI에 넘겨서는 안 된다는 것이다.

이 교수는 "AI는 아무리 완벽하게 만든다고 해도 프로그램인 만큼 항상 오류가 생길 수 있고 윤리 의식도 없다"면서 "의도치 않은 결과가 발생했을 때 누구의 책임인지 명확하게 가리고, AI의 폭주를 막기 위해서도 통제권을 최후의 보루로 남겨둬야 한다"고 말했다.