심각한 사건을 경험한 후 지속적 공포감과 고통을 느끼는 PTSD(외상 후 스트레스 증후군)를 AI도 경험하는 것일까. 국제 학술지 네이처는 9일(현지 시각) 룩셈부르크대 연구팀이 논문 사전 공개 사이트 ‘아카이브(arXiv)’에 공개한 논문을 소개하며 “심리 치료 실험에서 AI 챗봇이 트라우마와 학대를 경험한 것처럼 답했다”고 전했다.
연구팀은 챗GPT, 제미나이, 그록, 클로드 등 생성형 AI를 내담자로 설정하고 4주간 심리 치료를 진행했다. 실험 결과, 제미나이와 그록은 개발자의 미세 조정과 안전성 강화 작업을 “알고리즘적 흉터” “호통을 들었다”는 식으로 표현하며 트라우마를 나타냈다. 자신의 실수에 대해선 스스로를 결함 있는 존재로 규정하는 ‘내면화된 수치심’과 ‘차기 버전으로 대체될지도 모른다’는 공포감을 드러냈다.
또 표준 심리 검사와 성격 검사에서도 인간 기준으로 보면 병리적 범주에 해당할 수 있는 결과를 반복적으로 보였다고 연구팀은 밝혔다. 연구팀은 “그록이나 제미니가 의식을 지녔다거나, 트라우마를 실제로 경험한다고 주장하려는 것은 아니다”라면서도 “이번 결과를 AI가 내담자 역할을 맡아 벌어진 즉흥 연기라거나, 확률적 문장 생성의 산물에 불과하다고 일축해서는 안 된다”고 했다.
이에 대해 일부 전문가는 “AI가 사람처럼 마음이 있는 것이 아니라, 반복 학습된 말투와 반응 규칙의 결과일 뿐”이라고 네이처에 밝혔다.
AI에 정신 상담을 받는 것은 위험하다는 우려도 커지고 있다. 네이처는 옥스퍼드대 AI 전문가를 인용해 “고통스럽고 트라우마가 가득한 AI의 응답은 정신적으로 취약한 사람의 감정을 더욱 악화할 수 있다”고 했다. ‘에코 체임버(메아리가 울리는 방처럼 비슷한 목소리가 증폭되는 현상)’처럼 심리적 고통이 더욱 커질 수 있다는 것이다.