[ALC 웨비나] 인공지능은 인간의 친구가 될 수 있을까?

올 1월, 한국 사회는 성차별과 소수자 비하 등 혐오발언을 하는 AI(인공지능) 챗봇 ‘이루다’ 사태로 시끄러웠다. 젊은 연인들의 대화를 바탕으로 학습한 AI가 인간 사회에 녹아있는 편견을 그대로 답습했고, 운영사가 이를 충분히 바로잡지 못해 일어난 일이었다. 이루다는 비판 속에서 출시 24일만에 폐기됐지만, ‘AI윤리’에 대한 고민은 숙제로 남았다. AI 기술이 실생활 속으로 빠르게 침투하는 가운데, 제2의 이루다 사태를 어떻게 방지할 수 있을까.

24일 오전 10시 조선일보가 주최한 아시안리더십콘퍼런스(ALC) 웨비나(웹+세미나)는 이런 고민을 안고 ‘AI는 인간의 친구가 될 수 있을까’라는 주제로 개최됐다. 이번 웨비나에는 글로벌 AI기술 연구개발의 선두주자인 마이크로소프트(MS), 페이스북, IBM의 AI윤리 부문 글로벌 총책임자들이 총출동해 AI기술이 발전해야하는 방향에 대해 토론했다. 이날 참석자들은 “AI는 인간이 만든, 인간이 책임져야 하는 기술”이라고 입을 모았다.

◇AI, 헌법 같은 ‘윤리 원칙’ 세워야

/조선DB

참석자들은 인문학·사회학 등 각 분야 전문가들이 참여한 AI윤리 원칙이 세워져야 한다고 한 목소리를 냈다. AI윤리 원칙이 AI서비스 개발에 있어 모든 법에 앞서는 헌법과도 같게 작용해야 한다는 것이다. 노베르토 안드라데 페이스북 윤리 정책 부문 글로벌 총책임은 “페이스북은 2018년부터 AI전담팀을 구성했고, 이제는 OECD 등 국제기구와 함께 AI윤리 가이드라인을 만들고 배포하는 작업을 함께하고 있다”고 말했다.

나타샤 크램프턴 MS AI 최고 책임자는 “윤리 원칙을 만든다는 것은 기술적으론 개발자들이 계속해서 사용할 수 있는 일종의 ‘모델’을 구축하는 것”이라며 “예컨대 어떤 키워드, 어떤 편향성은 바로잡아야하는지 공동의 행동 강령이 생기는 것과 같다”고 설명했다. 프란체스카 로시 IBM AI윤리 부문 글로벌 총책임은 이어서 “이런 원칙은 일단 매우 간결 명료해야하며, 회사와 사회 구성원 모두가 편차 없이 똑 같은 의미로 받아들여질 수 있는 언어로 구성되어야 한다”고 말했다.

현재 AI윤리 원칙의 대전제는 대체적으로 데이터 수집과 개발 과정의 투명성 보장과 AI가 상대하는 모든 사람들에게 공평하게 행동할 것과 같은 규칙이 포함된다. 로시 IBM 총책임은 “예컨대 은행에서 대출 심사를 보조해주는 AI는 모두에게 공평한 잣대를 대고 심사해야한다”며 “이를 위해 AI가 학습하는 판단기준에서 인위적으로 빼야할게 인종, 성별 등 요소”라고 설명했다.

◇AI를 만드는건 사람…작은 실천부터 시작해야

참석자들은 또 “AI윤리 원칙을 정하는 것에 그치지 말고, 실제 서비스에 반영하도록 실천하는게 중요하다”고도 강조했다.

안드라데 페이스북 총책임은 “AI는 마법이 아닌 인간이 만든 산물”이라며 “AI윤리는 거창한 게 아니라, 작은 고민과 작은 기술적 수정으로부터 지켜지는 것”이라고 했다. 그는 사례로 AI가 페이스북 게시물을 스캔하며 자살 암시글을 찾아내 신고하는 ‘자살 예방 AI’를 들었다. “좋은 서비스지만, 자칫 잘못하면 과도한 개인정보 침해의 위험도 있기 때문에 매번 다양한 전문가들과 토론하며 서비스를 개선하고 있다”는 것이다. 그는 “개발사로선 자신의 ‘선한 의도’만을 믿지 말고, 각종 부작용을 미리 고민하는게 AI윤리 원칙을 실천하는 방법”이라고 했다.

이용자 자체의 수준이 높아져야한다는 의견도 나왔다. 크램프턴 MS AI 최고책임자는 “‘이루다 사태'의 경우에도, 챗봇은 많은 정보를 학습한 기계일 뿐이다”라며 “악성 데이터를 걸러내는 시스템도 중요하지만, 사용자 하나하나가 AI가 성장하는 데이터를 제공하는 주체”라고 지적했다. “그만큼 우리부터가 AI에게 던지는 말과 행동을 신중히 해야한다”는 것이다.