김대식 KAIST 교수·뇌과학

빌 게이츠, 일론 머스크, 스티븐 호킹. 이들이 얼마 전부터 '인공지능의 위험성'에 대해 목소리를 높이고 있다. 왜 그럴까? 우선 두 가지 인공지능이 있다는 점을 기억하는 게 좋다.

하나는 인간 수준으로 정보를 처리할 수 있는 '약한 인공지능'이다. 정보의 약 10%로 알려진 계량화·구조화된 데이터 분석만 가능한 현재 컴퓨터와는 달리 약한 인공지능은 계량화·구조화되지 않은 나머지 90% 데이터 역시 분석할 수 있다는 장점을 갖고 있다.

약한 인공지능이 진화한 형태는 '강한 인공지능'이라 한다. 독립성이 없는 약한 인공지능과 달리 강한 인공지능은 자신만의 의도 역시 가질 수 있다는 가설이다. 영화에 단골로 등장하는 인공지능은 대부분 이런 강한 인공지능을 말하는 것이고 호킹, 머스크, 게이츠는 인간을 뛰어넘는 '초지능(superintelligence)'을 가진 강한 인공지능이 인류를 멸망시킬 수 있다는 점을 걱정하는 것이다.

그렇다면 인간의 명령을 따르는 약한 인공지능은 문제가 없을까? 인공지능 기계들이 사회에서 필요한 대부분 일을 하게 된다면 대다수가 더 이상 할 일이 없을 수 있다는 문제가 생긴다.

2000년 전 로마 역사를 기억해보자. 지중해 주변 모든 나라를 점령한 로마인들은 더 이상 할 일이 없었다. 노예 수백·수천만 명이 의식주와 관련된 모든 일을 해결해 줬으니 말이다. 그렇다면 노동에서 해방된 로마인들은 그저 인생을 즐기며 편하게 살았을까? 물론 아니다. 노예 노동 기반으로 생산된 부는 대부분 귀족 몫이었고, 로마 시민의 90%는 일자리도 미래도 없는 평생 실업자로 전락한다. 폭동과 혁명이 두려웠던 정부는 모든 로마 시민들에게 무료 음식과 술을 제공했고, 콜로세움에서는 하루 12시간 동안 인간이 다른 인간을 죽이는 모습을 생생하게 볼 수 있는 잔인한 구경거리가 무료로 제공됐다. 결국 로마를 일으킨 중산층은 몰락하고, 로마 공화국은 귀족과 황제 위주 제국으로 타락한다. 약한 인공지능 시대를 앞으로 경험하게 될 우리가 걱정해야 할 역사적 교훈이다.