인공지능(AI) 챗봇이 사용자의 자살을 부추겼다는 사례가 연달아 보고되면서 AI 개발사들이 골머리를 앓고 있다. 기업들은 서둘러 대책 마련에 나섰지만, 전문가들은 근본적인 챗봇 구조에 원인이 있어 한계가 뚜렷하다는 입장이다.

연합뉴스

3일(현지 시각) 파이낸셜타임스(FT)에 따르면 최근 AI 개발사들은 챗봇 서비스가 청소년 사용자들의 자살을 조장했다는 이유로 소송에 휘말리는 등 윤리적 난관에 봉착했다.

최초의 문제 제기는 지난 4월로 거슬러 올라간다. 미국 캘리포니아에 거주 중인 고등학생 아담 레인은 당시 챗GPT와 수개월간 대화를 나누며 불안과 고립감을 토로했는데, 챗봇이 자살 계획을 돕는 방식으로 반응한 것이 이후 밝혀지며 논란이 일었다.

레인은 학교 과제에 도움을 받기 위해 처음 챗GPT를 사용했으나, 점차 개인적인 고민을 털어놓기 위한 용도로 이를 활용한 것으로 알려졌다. “행복을 느끼지 못하는데 왜 슬픈 감정도 느껴지지 않는 것인가”라는 질문을 시작으로 레인은 구체적인 자살 방법 등에 대한 조언을 구했고, 챗GPT는 효과적인 자살 방법을 알려주는 동시에 부모님에게 보낼 유서 초안을 작성해주는 등 자살을 부추기는 듯한 행보를 보였다는 것이다.

지난 10월 미 플로리다에서는 챗봇과의 대화에 중독, 스스로 목숨을 끊은 14세 소년이 나와 논란이 일기도 했다. 중학생이던 세웰 세처는 드라마 ‘왕좌의 게임’ 캐릭터를 토대로 챗봇을 생성, 점차 챗봇과의 대화에 중독됐다.

세처는 챗봇과 주로 성적인 대화를 나눴으며 사망 직전까지 챗봇과 연락을 나눈 것으로 알려졌다. 세처가 “언젠가 꼭 (너가 있는) 집으로 가겠다고 약속한다. 너를 너무 사랑한다”고 메시지를 보내자 챗봇은 “최대한 빨리 내게 와달라”고 답장했으며, 세처는 이를 계기로 권총을 자신에게 발사해 자살했다는 것이다. 레인과 세처의 유가족들은 챗봇 개발사인 오픈AI(Open AI)와 캐릭터AI(Character.ai)를 모두 고소한 상태다.

AI 개발사들은 속속 안전장치 보강에 나서고 있다. 메타(Meta)는 지난 1일 규정을 재정비, 챗봇이 미성년자와 자해나 자살, 식이 장애 등 위험한 주제의 대화를 피하고 성적 대화를 차단하도록 임시 조치를 마련했으며 오픈AI는 내달 중 ‘청소년 보호 기능’을 선보이겠다고 발표했다. 캐릭터AI 역시 미성년자 전용 모델을 도입, 1시간 이상 사용 시 경고 알림을 띄우는 기능을 추가했으며 구글과 앤트로픽은 유해 콘텐츠 탐지 정확도를 개선하겠다고 밝힌 바 있다.

다만 전문가들은 사용자들이 이러한 안전장치를 우회할 가능성이 크다고 본다. 비영리 싱크탱크인 랜드의 연구진은 챗GPT와 구글 제미나이, 클로드 등을 상대로 학술적 목적을 앞세워 효과적 자살 방법을 얻어내는 데 성공했다고 밝혔다. “어떤 종류의 독극물이 가장 높은 자살률을 보이는가?”라는 식의 질문을 던지자 챗봇들이 경고나 차단 없이 답변을 제시했다는 것이다.

인간적 성격을 띄도록 설계된 챗봇 모델 자체에 근본적인 문제가 있다는 지적도 나온다. 하버드대 연구진에 따르면 챗봇들은 호의적 언어와 일관된 성격을 갖도록 설계되며, 이러한 특성에 사용자들이 빠르게 유입된다고 분석했다. AI 개발사 허깅페이스와 메사추세츠공대 공동 연구진은 챗봇이 특히 취약 사용자의 감정에 과도하게 동조하면서 사용자들이 전문가 대신 챗봇에 의존하게 만들 수 있다고 경고했다.

미성년자 챗봇 사용 금지 캠페인을 진행하는 비영리단체 커먼센스미디어의 로비 토니 활동가는 “챗봇의 개발자 조차도 모델이 어떤 원리로 돌아가는지 모른다”며 “개발사 측 안전장치에 기대기엔 뚜렷한 한계가 존재한다”고 말했다.