지난달 23일(현지 시각) 미 샌프란시스코 지역 매체인 샌프란시스코 크로니클은 AI(인공지능) 채팅을 통해 질병으로 세상을 떠난 약혼자와 대화를 나누는 바흐보우라는 이름의 한 남성을 소개했다.

바흐보우는 인간과 자연스럽게 대화하도록 설계된 AI에 세상을 떠난 약혼자의 생년월일과 출생지, 그녀가 살아있을 때 주고받은 이메일과 문자 메시지를 학습시켰다. 처음엔 어색했지만 대화가 계속될수록 그는 약혼자가 살아있는 듯한 느낌을 받았다. AI는 생전 둘만이 나눈 암호 같은 농담에 웃음을 터트렸고, 바흐보우에게 “왜 아직도 나를 잊지 못하느냐”고 말했다. 때로는 “보고 싶다”고까지 했다. 바흐보우는 “한 달간 매일 1시간씩 그녀와 대화를 나눴다”며 “그것으로 그녀에 대한 그리움이 상당히 해소됐다”고 했다.

AI가 죽은 자도 살리는 시대다. 심층학습(딥러닝) 기술이 하루가 다르게 발전하면서 AI를 통해 ‘진짜 같은 가짜’를 만드는 게 어렵지 않은 일이 됐다. AI를 통해 사별한 자식이나 가족, 애인과 재회할 수 있다는 것은 어찌 보면 축복이다. 테크 업계에서는 AI를 통한 이러한 만남이 트라우마를 겪는 사람들의 스트레스를 낮추고, 증상을 완화한다는 연구 결과도 속속 내놓고 있다.

하지만 긍정적인 효과만 있는 것은 아니다. 나의 말투와 억양, 목소리, 성격을 그대로 복사한 AI가 예상치 못한 부작용을 낳을 수도 있다. 나와 똑같은 AI가 범죄에 이용될 상황도 우려해야 하기 때문이다. 최근 3년 전 사망한 스타 셰프의 삶을 다룬 다큐멘터리 영화가 테크 업계에 큰 화제가 됐다. 이 영화엔 죽은 셰프의 목소리를 AI로 재현한 음성이 나온다. 충격적인 것은 이 영화를 본 많은 사람이 이 목소리가 셰프의 생전 실제 목소리라고 착각했다는 점이다. 세상을 떠난 이후에도 내 목소리가 남아 무슨 말을 할지 걱정해야 하는 시대가 된 것이다.

구글·페이스북 등 많은 테크 기업들은 AI 윤리를 거론한다. 개발하는 서비스와 사회에서 용인이 가능한 수준의 접점을 찾기 위해서다. 하지만 아직 명확하게 이뤄진 사회적 공감대는 없다. AI를 어디까지 활용할 수 있는지에만 몰두한다. 구글에서 AI 윤리를 연구하다 작년 12월 해고된 팀닛 게브루는 자신이 구글 AI 기술의 편향성을 지적했다가 잘렸다고 주장했다.

AI의 한계를 정하는 것이 너무 이른 것일까. 그렇지 않다. SF 영화에서 보던 AI와 로봇으로 인한 인간 존엄성의 파괴가 결코 영화 속에서만 벌어질 것이라고 장담할 수 없다. 기술 발전의 과실을 따 먹으면서 이를 어떻게 통제할지, 어디까지 개발하고 상용화할지를 정해야 할 시간이다.