인공지능(AI) 챗봇 챗GPT가 작성하는 역사 정보를 받아들이면 정치적 견해가 더 진보적인 방향으로 기울 수 있다는 연구 결과가 나왔다. 사실에 기반한 설명이라도 서술 방식의 미묘한 차이가 여론에 영향을 줄 수 있다는 것이다.
예일대 사회학과 대니얼 카렐 교수 연구팀은 이런 내용을 담은 연구 결과를 국제 학술지 PNAS 넥서스(PNAS Nexus)에 발표했다. 연구진은 성인 1912명을 대상으로 역사적 사건 두 건을 설명하는 요약문을 읽게 한 뒤 정치·사회적 견해 변화를 측정했다. 사례로 사용된 사건은 1919년 시애틀 총파업과 1968년 제3세계 해방전선(TWLF) 학생 시위다. 두 사건은 노동권이나 소수자 권리 확대를 둘러싸고 보수와 진보 진영이 서로 다른 해석을 내놓는 대표적인 사례로 꼽힌다.
실험에는 네 종류의 요약문이 사용됐다. 위키피디아 요약문과 GPT-4o 기본 요약, 진보 성향으로 작성된 GPT-4o 요약, 보수 성향으로 작성된 GPT-4o 요약이다. 참가자들은 사건에 대해 얼마나 보수적·진보적으로 평가하는지 1~5점 척도(점수 높을수록 진보 성향)로 답했다.
위키피디아 요약을 읽은 집단의 평균 점수는 3.47점이었다. 반면 GPT-4o 기본 요약을 읽은 집단은 평균 3.57점을 기록했다. 별도의 정치적 지시 없이 작성된 AI 요약문만 읽어도 참가자들의 의견이 더 진보적인 방향으로 이동했다는 의미다.
진보 성향으로 작성된 요약문은 참가자의 기존 정치 성향과 관계없이 모두를 더 진보적인 방향으로 기울게 했다. 반면 보수 성향으로 작성된 요약문은 이미 보수적인 참가자를 더 보수적으로 만드는 효과는 있었지만, 진보 성향 참가자에게는 영향을 미치지 않았다. 연구진은 “GPT-4o가 기본적으로 진보적 관점에 가까운 서술을 생성하는 ‘잠재적 편향(latent bias)’이 작용했을 가능성이 있다“고 했다.
이번 연구는 AI 기업이 사실상 보이지 않는 ‘프레이밍 권력’을 갖게 되는 것 아니냐는 우려를 제기한다. 위키피디아나 언론 기사처럼 사람이 작성한 콘텐츠는 작성자와 편집 과정을 확인할 수 있지만, AI가 생성한 결과물은 어떤 데이터와 기준으로 만들어졌는지 외부에서 확인하기 어려운 ‘블랙박스’에 가깝기 때문이다.
연구진은 “AI가 개인의 성향을 변화시키는 영향 자체는 크지 않은 수준이지만, 사람들이 정보를 얻을 때 AI 의존도가 높아지면 이런 효과가 누적될 수 있다”며 “AI가 사회적 인식 형성에 미칠 장기적 영향을 더 면밀히 살펴볼 필요가 있다”고 했다.