인공지능(AI)이 만든 그림과 글, 가짜 기사 등이 사람이 만든 것과 구별하기 힘들어지면서 이를 판독하는 AI 기술도 함께 발전하고 있다. AI 업계에서 창과 방패의 대결이 벌어지고 있는 것이다.

AI가 만든 펜타곤 폭발 가짜사진./트위터

미 프린스턴대 학생이 만든 챗GPT 감지기 ‘GPT제로’가 대표적이다. AI가 작성한 것으로 의심되는 글을 GPT제로에 넣으면 85% 정확도로 판별해낸다. GPT제로는 올 1월부터 5월까지 120만명의 사용자를 확보했고, 최근 여러 투자자로부터 350만달러(약 46억원)의 투자금을 유치했다. 챗GPT를 만든 오픈AI도 지난 2월 AI로 만든 글을 판별하는 AI 텍스트 분류기 ‘클래시파이어(Classifier)’를 출시했다. GPT제로와 마찬가지로 의심 가는 글을 집어넣으면 ‘AI가 생성한 것 같음’ ‘가능성 있음’ ‘불확실함’ 등 5단계로 구분해준다. 전 세계 교육계 종사자 약 210만명이 쓰는 논문 표절 감지 프로그램 턴잇인도 지난달 비슷한 기능을 출시했다.

AI의 ‘헛소리’를 감지하는 AI도 있다. 챗GPT나 구글의 바드, 마이크로소프트의 빙 AI 챗봇은 가끔 잘못된 답변을 그럴듯하게 포장해 내놓는 ‘환각’ 현상을 보인다. 미국의 스타트업 갓잇AI가 내놓은 ‘진실 검사기’는 기업에서 사용하는 챗GPT의 답변 오류를 잡아낸다. 기업의 데이터를 챗GPT와 진실 검사기에 동시에 훈련시켜 오류를 탐지하는 원리다.

그림과 동영상이 AI로 만들어진 것인지를 판별하는 도구도 있다. 미 샌프란시스코의 옵틱은 지난 3월 AI가 만든 사진인지 판별하는 사이트를 공개했다. 사진을 넣으면 ‘90% 확률로 생성AI인 미드저니로 만든 그림일 가능성이 있다’고 답해주는 식이다. 안드레 도로니체브 옵틱 최고경영자(CEO)는 “콘텐츠가 진짜인지 AI로 만들어졌는지를 판단하는 것은 사회 전체의 중요 문제가 될 것”이라고 했다. 인텔도 작년 11월 96%의 정확도로 AI로 만든 가짜 동영상을 감지하는 페이크캐처를 출시했다.

테크 기업들은 AI가 생성한 사진과 동영상에 식별 표시를 넣는 방안을 의논하고 있다. 디자인 소프트웨어 업체 어도비는 지난 3월 그림을 그려주는 생성AI인 파이어플라이를 내놓으며, AI가 만든 그림인지를 파악할 수 있는 ‘콘텐츠 진위 이니셔티브(CAI)’를 출시했다.