지난달 존스홉킨스대학, 조지아공대, 워싱턴대학 연구원들은 테크 업계를 좌절시키는 연구 결과를 하나 내놨다. 현재 인터넷에 떠도는 각종 데이터를 기반으로 구축된 인공지능(AI)을 로봇에 적용했더니 로봇이 인종차별과 성차별적으로 행동한다는 것이다.

연구진은 로봇에게 백인과 흑인, 라틴계, 동양인 남성과 여성 사진을 제시하고, 로봇이 이 얼굴들을 의사, 주부, 범죄자 등으로 구분하는 실험을 했다. 로봇은 흑인 남성을 백인 남성보다 10% 더 많이 범죄자로 인식했고, 라틴계 남성을 백인보다 10% 더 청소부로 인식했다. 연구진은 “놀랍지 않은 결과”라고 했다. 로봇이 사람이 가진 편견을 그대로 흡수한 것이다.

인간이 제시한 알고리즘을 통해 구축된 AI가 결국엔 인간과 같은 편견을 갖게 된다는 것은 널리 알려진 이야기다. AI 구축을 위해 제시하는 데이터를 선정할 때부터 인간의 판단이 들어가고, 그 안에는 편견이 자리한다. AI는 이러한 편견을 기본값으로 받아들이고 심화 학습을 통해 이를 강화한다.

테크 업계에선 ‘AI 윤리’를 강조하며 AI에 편견을 제거하는 작업을 수년째 진행하고 있지만 별다른 소득이 없다. AI에 직접 철학적 윤리를 가르치는 연구도 진행 중이지만 쉽지 않다. 2015년 구글의 사진 관리 앱인 ‘구글 포토’가 한 흑인 여성을 고릴라로 분류해 논란이 됐고, 국내에서도 2020년 AI 챗봇 ‘이루다’가 잘못된 학습으로 성차별적 혐오 발언을 내뱉으며 문제가 불거졌지만 AI의 편견을 없애는 획기적인 방법과 알고리즘은 아직도 찾지 못했다.

편견을 가진 AI는 생각보다 큰 문제를 일으킬 수 있다. 이러한 AI가 로봇에 적용되면, 흑인과 동양인보다 백인을 우수하다고 보는 로봇, 여성보다 남성이 우월하다고 믿는 로봇, 고소득자가 저소득자보다 인간적으로 뛰어나다고 생각하는 로봇이 등장할 수 있다. 인간을 넘어 로봇에게도 차별당하는 세상이 올 수 있다.

현재 AI 윤리 연구는 AI 개발보다 후순위로 밀려있다. 일각에선 AI 윤리를 강조하면 이제 막 탄력받은 AI 개발이 주춤할 수 있다고 한다. AI 윤리를 적극적으로 연구하는 곳도 미국의 구글, 마이크로소프트 등 빅테크 기업뿐이다. 이 문제를 국가적 장기 문제로 인식하고 연구에 나서는 나라는 보이지 않는다. 특히 한국은 준비가 더욱 미흡하다. 편견을 없앤 AI와 로봇을 만들기 어렵다면, AI와 로봇의 의사결정 선택권을 제한하는 사회적 합의가 필요하다.

거의 모든 공상과학(SF) 영화는 인공지능과 로봇이 넘치는 미래를 유토피아가 아닌 디스토피아(부정적인 세계)로 그린다. 아직은 때가 아니라며 미루다간 그 미래가 진짜로 닥칠지 모른다. 편협한 AI로 구동하는 로봇에게 차별당하는 시대가 올 수 있다.