“기계가 스스로의 판단만으로 사람을 죽일 수 있나.”
34년 전 할리우드 영화 ‘터미네이터’에 나온 상상의 장면이 인류에게 실존 문제로 다가왔다. 더 강한 무기에 대한 인간 욕망이 인공지능(AI)을 장착해 스스로 판단하고 구동하는 무기 개발로 쏠리면서, 윤리 논쟁이 벌어졌기 때문이다.
이 때문에 구글의 AI ‘알파고’ 개발자 데미스 하사비스, 전기차 테슬라 최고경영자(CEO) 일론 머스크 등 인공지능 전문가 2400명은 18일(현지 시각) 스웨덴 스톡홀름에서 열린 ‘2018 국제 인공지능 공동회의’에서 “살인 AI 개발에 협력하지 않겠다”는 서약을 했다고 IT전문매체 더버지가 전했다. 이번 서약에는 인간의 간섭 없이 인간을 죽이는 결정을 할 수 있는 기계의 개발을 막기 위한 국제 단체의 활동 중 가장 많은 인원이 참여했다.
책임 있는 기술 개발을 촉진하기 위해 결성된 ‘미래의 삶 연구소(Future of Life Institute)’는 전문가 2400명을 비롯해 세계 90개 국가의 160개 AI 전문기업이 공동 서약에 동참했다고 밝혔다. 화상통화 서비스 스카이프의 공동설립자 얀 탈린이 대표인 미래의 삶 연구소는 배우 모건 프리먼, 매사추세츠공대(MIT) 에릭 브린욜프슨 교수 등이 자문위원으로 있다.
이들은 서약서에서 AI 기술을 활용해 “인간의 간섭 없이 목표를 선정하고 공격하는 시스템이 도덕적이고 실질적인 위험을 가져오고 있으며, 이런 결정은 절대 기계에게 위임 되어선 안된다”고 강조했다. 그러면서 “살인 자동 무기의 개발, 제조, 거래, 사용 등에 참여하거나 협조하는 일체의 행동에 관계하지 않겠다”고 밝혔다.
일론 머스크는 “AI의 발전 속도를 과소평가 해서는 안된다”며 “인류에게 매우 심각한 위협이 되지 않도록 AI 개발을 규제할 필요가 있다”고 말했다. 요슈아 벵지오 캐나다 몬트리올 학습 알고리즘 연구소 교수는 “이번 서약은 무기 개발에 참여중인 회사나 군대 조직에 큰 영향을 미칠 것”이라며 “실제로 전문가들의 윤리 서약이 지뢰 개발을 저지한 사례가 있다”고 했다.
미국, 러시아, 이스라엘 등은 정부 주도로 AI 무기를 개발하고 있다. 미 국방부는 구글과 협력해 미 공군 무인전투기(드론)의 타격 능력을 향상하는 프로그램을 개발 중이다. 러시아는 전쟁용 로봇 ‘이반 터미네이터’가 직접 총을 쏘거나 수류탄을 던지게 하는 것이 목표라고 밝혔다. 이스라엘은 근접전투에서 표적을 향해 한번에 14발의 실탄을 발사할 수 있는 경량 로봇 ‘도고’를 공개한 바 있다.