지난달 24일 팔레스타인 가자지구 남부 도시 라파에서 한 소년이 이스라엘군의 공습으로 무너진 건물 잔해를 바라보고 있다./로이터 연합뉴스

이스라엘이 팔레스타인 무장 단체 하마스와의 전쟁에서 폭격 대상인 하마스 대원을 식별하는 데 인공지능(AI)을 활용했다는 주장이 제기됐다. 가디언은 3일 이스라엘군이 지난 6개월간 전쟁에서 정보부대인 ‘8200부대’가 개발한 ‘라벤더’라는 AI 시스템을 활용했다고 보도했다. 방대한 양의 인적 정보를 처리해 하마스 등 반(反)이스라엘 무장 단체와 관련 있는 팔레스타인 사람을 빠른 속도로 판별하는 역할을 했다는 것이다. 알고리즘의 훈련이나 학습 방법은 명확히 알려지지 않았지만, 이스라엘군은 이미 전쟁 초기 라벤더가 90%의 정확도에 도달했다는 결론을 내리고 사용을 개시했다고 한다. 라벤더가 실전에 쓰인 적은 이번이 처음이라는 설명이다.

‘라벤더’는 어느 시점에는 반이스라엘 무장 단체와 연계 가능성이 있는 팔레스타인 남성을 최대 3만7000명까지 추려냈다고 한다. 라벤더를 직접 사용했다는 한 정보 장교는 가디언에 “(이스라엘군의) 통계적 정보 처리 과정에 대한 믿음이 컸다”며 “지난해 10월 7일 하마스의 공습으로 주변 사람들을 잃고 슬픔에 빠진 이스라엘 군인 대신 AI가 냉정하게 그 일(표적 식별)을 해냈고, 더 쉽게 만들었다”고 말했다. 또 다른 장교는 “각 표적당 (식별하는 데) 20초가 걸렸고 매일 수십 명을 작업했다”며 “나는 인간으로서 승인 도장을 찍는 것 외에 하는 일이 전혀 없었으며, 덕분에 시간을 많이 절약할 수 있었다”고 했다. 가디언은 이에 대해 “강력한 AI 시스템을 사용하면서 전쟁은 미지의 영역으로 진입했다”며 “수많은 법적, 도덕적 문제가 제기되고 군인과 기계의 관계에 변화를 가져왔다”고 평가했다.

라벤더를 사용하기 시작한 전쟁 초기 몇 주 동안, 무장 대원들을 향한 공습 과정에 15~20명 정도의 민간인 사살이 허용됐다는 주장도 나왔다. 유도 기능이 없는 재래식 폭탄으로 목표물을 공격하며 집 전체를 파괴해 안에 있는 사람을 모두 죽였다는 설명이다. 이스라엘 정보기관 소식통들은 가디언에 “하마스 대원들이 군인으로서 활동할 때보다는 평소 가족들과 함께 있는 집을 폭격하는 것이 더 쉽다고 판단했으며, 한 명의 대원을 겨냥한 공격에서 사살할 수 있는 민간인 수가 사전에 정해졌다”고 전했다. 이 수는 표적의 직급에 따라 달라졌으며, 고위 간부를 공격할 때는 민간인 100명을 죽이는 것도 허용됐다고 한다.

이스라엘군은 이 보도에 대해 “테러리스트 조직원을 식별하거나 어떤 사람이 테러리스트인지 예측하는 AI 시스템을 사용하지 않는다”며 “정보 시스템은 목표물 식별 과정에서 분석가들을 위한 도구로 사용될 뿐”이라고 반박 성명을 냈다. 보도에 언급된 AI 시스템에 대해서는 “시스템이 아니라 단순한 데이터베이스로서 정보 자료를 교차 참조하기 위한 목적”이라며 “공격 대상으로 확인된 무장 대원들의 목록이 절대 아니다”라고 강조했다. 민간인 공습을 허용했다는 주장에 대해선 “군사적 이점과 이에 따르는 부수적 피해를 각각 평가해 민간인 피해가 과도하다고 판단되면 공습하지 않는다”고 밝혔다.

-

🌎조선일보 국제부가 픽한 글로벌 이슈! 뉴스레터 구독하기 ☞ https://page.stibee.com/subscriptions/275739

🌎국제퀴즈 풀고 선물도 받으세요! ☞ https://www.chosun.com/members-event/?mec=n_quiz