지난 1월 한국에선 성차별과 소수자 비하 등 혐오 발언을 하는 AI(인공지능) 챗봇 ‘이루다’ 논란이 뜨거웠다. 젊은 연인들의 온라인 대화를 바탕으로 학습한 AI는 사회의 편견을 그대로 답습했지만 운영사가 이를 충분히 바로잡지 못해 일어난 소동이었다. AI 기술이 실생활과 산업계 전반에 접목돼 빠르게 확산하는 가운데, 이루다는 ‘AI 윤리’에 대한 고민을 숙제로 남긴 채 출시 24일 만에 결국 폐기됐다.

24일 조선일보가 주최한 아시안리더십콘퍼런스(ALC) 웨비나(웹+세미나)는 ‘AI는 인간의 친구가 될 수 있을까’라는 주제로 개최됐다. 이번 주제는 ‘제2의 이루다 사태를 어떻게 방지할 수 있을까'라는 고민과도 일맥상통한다. 이번 웨비나에는 글로벌 AI 기술을 선도하고 있는 마이크로소프트(MS), 페이스북, IBM의 AI윤리 부문 글로벌 총책임자들이 나서 AI 기술의 발전 방향에 대해 토론했다. 이날 참석자들은 “AI는 인간이 만든, 인간이 책임져야 하는 기술”이라고 입을 모았다.

◇AI, 헌법 같은 ‘윤리 원칙’ 세워야

참석자들은 인문학·사회학 등 각 분야 전문가들이 참여한 AI 윤리 원칙 제정 작업이 이뤄져야 한다고 말했다. 그렇게 만든 AI 윤리 원칙이 AI 서비스 개발에 있어 헌법과도 같은 역할을 해야 한다는 것이다.

나타샤 크램프턴 MS AI 최고 책임자는 “윤리 원칙을 만든다는 것은 기술적으로는 개발자들이 계속해서 사용할 수 있는 일종의 ‘모델’을 구축하는 것”이라며 “예컨대 어떤 키워드, 어떤 편향성은 바로잡아야 하는지 공동의 행동 강령이 생기는 것과 같다”고 말했다. 프란체스카 로시 IBM AI윤리 부문 글로벌 총책임은 “이런 원칙은 매우 간결 명료해야 하며 회사와 사회 구성원 모두가 편차 없이 똑같은 의미로 받아들일 수 있는 언어로 구성돼야 한다”고 말했다.

AI 윤리 원칙에는 AI가 상대하는 모든 사람들에게 공평하게 행동하고 데이터 수집과 개발 과정이 투명해야 한다는 것과 같은 규칙이 포함된다. 로시 IBM 총책임은 “예컨대 은행에서 대출 심사를 보조해주는 AI는 모두에게 공평한 잣대를 대고 심사해야 한다”며 “이를 위해 AI가 학습하는 판단 기준에서 인위적으로 빼야 할 것이 인종, 성별 등의 차별적 요소”라고 설명했다. 노베르토 안드라데 페이스북 윤리 정책 부문 글로벌 총책임은 “페이스북은 2018년부터 AI 전담팀을 구성했고, 이제는 OECD(경제협력개발기구) 등 국제 기구와 함께 AI 윤리 가이드라인을 만들고 배포하는 작업을 함께하고 있다”고 말했다.

◇AI를 만드는 건 사람… 작은 실천부터 시작해야

이 세 사람은 “AI 윤리 원칙을 정하는 것에 그치지 말고, 실제 서비스에 반영하도록 실천하는 게 중요하다”는 점도 강조했다.

안드라데 페이스북 총책임은 “AI는 마법이 아닌 인간이 만든 산물”이라며 “AI 윤리는 거창한 게 아니라 작은 고민과 작은 기술적 수정으로부터 지켜지는 것”이라고 했다. 그는 AI가 페이스북 게시물을 스캔하며 자살 암시 글을 찾아내 신고하는 ‘자살 예방 AI’를 사례를 그런 고민들이 투영돼야 할 사례로 들었다. 그는 “좋은 서비스지만 자칫 잘못하면 개인 정보를 과도하게 침해할 위험도 있기 때문에 매번 다양한 전문가들과 토론하며 서비스를 개선하고 있다”고 말했다. 안드라데 총책임은 “개발사로서는 자신의 ‘선한 의도’만을 믿지 말고 각종 부작용을 미리 고민하는 게 AI 윤리 원칙을 실천하는 방법”이라고 했다.

이용자 스스로가 책임 의식을 가져야 한다는 의견도 나왔다. 크램프턴 MS AI 최고책임자는 “이루다 같은 챗봇은 많은 정보를 학습한 기계일 뿐”이라며 “악성 데이터를 걸러내는 시스템도 중요하지만 사용자 하나하나가 AI가 성장하는 데이터를 제공하는 주체”라고 지적했다. 그는 “우리 스스로가 AI에 던지는 말과 행동을 신중히 해야 한다”고 말했다.