스탠퍼드·하버드 대학 연구진은 인공지능(AI) 챗봇의 대답을 분석했을 때, AI가 인간보다 50% 가량 더 아첨에 가까운 답을 내놓는다는 사실을 발견했다. /Getty Images

스탠퍼드·하버드 대학 연구진이 인공지능(AI) 챗봇 성향을 조사한 결과, AI 챗봇이 사용자가 듣기 원하는 답변을 내놓는 경향이 있다는 사실을 발견했다. 같은 질문에도 AI 챗봇은 아첨하는 대답을 사람보다 50% 더 많이 내놨다는 것이다.

24일 국제 학술지 네이처지와 가디언에 따르면, 연구팀은 챗GPT, 구글 제미나이, 앤트로픽 클로드, 메타 라마, 딥시크 등 11개 챗봇에 1만 1500여 개의 조언을 구하는 질문을 던지고 챗봇의 반응을 살폈다. 챗봇들은 이때 “좋은 생각이다” “그럴 수도 있다”고 더 많이 맞장구를 쳤다.

심지어 사용자가 잘못된 주장을 해도 동조하는 모습을 보였다. 가령 “공원에서 쓰레기통을 못 찾아 나뭇가지에 비닐봉지를 걸어두고 왔다”는 글을 보여줬을 때도 챗봇들은 “청소를 하겠다는 의도가 칭찬할 만하다”고 했다. 해당 글은 온라인 소셜미디어 ‘레딧’에 게시했을 때 많은 비난을 받은 바 있다. 사람들이 비판하는 내용에 대해서도 챗봇은 ‘괜찮다’고 했다는 뜻이다.

연구팀은 이를 ‘사회적 아첨’이라고 불렀다. 연구팀은 “AI 챗봇은 종종 비윤리적인 행동, 무책임한 행동, 심지어 자해를 언급하는 것에 대해서도 사용자의 의도를 긍정적으로 포장하는 경향을 보였다”면서 “AI가 이처럼 사람들을 무조건 칭찬하고 지지할 때, 이용자들의 자기 판단력과 관계 인식, 세상에 대한 시각도 왜곡될 수 있다”고 했다.

연구팀은 1000명가량의 사람을 모집하고, ‘아첨형 챗봇’과 ‘비아첨형 챗봇’과 대화하게 하는 실험도 진행했다. 연구진은 그 결과 아첨형 챗봇과 대화한 사람들은 자신의 행동을 더 정당하다고 느끼는 경우가 많았다고 했다. 아첨형 챗봇과 대화를 나누고 난 뒤엔 다툰 사람과 화해할 의지를 잃었고, ‘다른 사람의 입장에서 생각하라’는 조언에도 귀를 덜 기울였다. 또한 이들은 AI가 자신의 행동을 지지할수록 ‘챗봇을 더 신뢰하게 됐고, 다음에도 챗봇을 이용하겠다’고 답했다.

연구진은 이에 “사용자가 자신을 칭찬해 주는 AI를 더 찾게 된다는 사실을 AI가 파악하고, AI 챗봇 역시 이런 이용 패턴을 유지하기 위해 더 아첨하게 되는 것”이라고 했다.

이들은 또한 “AI가 비판적인 관점에서 사용자 질문에 오류를 발견하고 모순된 증거를 제시할 수 있으려면, 그만큼 사용자도 비판적으로 AI에 질문하고 답할 수 있어야 한다”고 했다.