20년 뒤 버스와 화물차 운전기사가 사라진다? 인공지능 분야의 세계적 대가인 앤드루 응 미국 스탠퍼드대 교수는 "인공지능이 사람들의 일자리를 빼앗을 수 있다"고 했다. 그는 인공지능을 장착한 무인자동차를 예로 들었다. 무인자동차가 보편화되면 수많은 운수업 종사자의 일자리가 사라진다는 것이다.

현대자동차도, 도요타도 사라질 수 있다. 전기자동차 회사 테슬라의 최고경영자인 일론 머스크는 지난 17일 강연에서 "20년 내 무인자동차가 보편화되고 사람의 운전이 금지될 것"이라고 예측했다. 인공지능 덕분에 무인자동차가 지금보다 훨씬 적은 숫자로도 안전하게 사람들을 실어 나를 수 있다는 것이다. 따라서 사람이 운전하는 자동차를 만드는 회사는 망할 수밖에 없다. 도대체 인공지능에 무슨 일이 벌어지고 있는 것일까.

이미지를 클릭하시면 그래픽 뉴스로 크게 볼 수 있습니다. / 조선닷컴<br>

스스로 학습하는 인공지능 ‘딥러닝’

인공지능(AI·Artificial Intelligence)은 사람의 지능을 모방한 기계 또는 컴퓨터 소프트웨어를 뜻한다. 1948년 영국에서 '맨체스터 소규모 실험용 기계'란 이름을 가진 컴퓨터가 처음으로 미리 입력된 프로그램으로 가동됐다. 컴퓨터 과학자들이 최초의 인공지능이라 부르는 컴퓨터이다. 이어 1950년 앨런 튜링은 '계산기계와 지능'이라는 논문을 발표했다. 여기서 그 유명한 '튜링 테스트'에 대한 개념이 나왔다. 질문자가 상대가 누군지 모른 채 질문을 던지고 답을 받았을 때 컴퓨터와 인간의 답을 구분할 수 없다면 컴퓨터가 인간과 마찬가지로 '생각하는 것'으로 간주될 수 있다는 내용이다. 1956년 미국 다트머스대에서 열린 학회에서 존 매커시 교수가 '인공지능'이란 용어를 처음으로 사용했다.

인공지능은 이후 제조, 금융 현장에 보급됐다. IBM이 개발한 인공지능은 체스경기와 TV 퀴즈프로그램에서 사람을 이겼다. 2012년 구글이 수많은 사진 속에서 고양이 사진을 골라낼 줄 아는 인공지능을 발표하자 세상은 또다시 인공지능에 주목했다. 구글 개발자들은 유튜브에 올라있는 영상에서 사진 1000만장을 추출해 컴퓨터에 입력했을 뿐이었다. 고양이가 어떻게 생겼는지는 알려주지 않았다. 지난해 페이스북은 97.25% 정확도로 사람 얼굴을 인식하는 인공지능인 '딥페이스(DeepFace)' 기술을 발표했다. 이는 사람이 다른 사람을 알아보는 인식률(97.53%)과 거의 비슷한 수준이었다. 인공지능이 수많은 사진을 보고 스스로 고양이나 사람 얼굴을 구분하는 법을 배운 것이다. 과학자들은 이와 같은 인공지능의 학습과정을 '딥러닝(Deep Learning)'이라고 불렀다.

인간의 신경망을 모방한 컴퓨터

딥러닝은 다른 말로 하면 '심층신경망(DNN·Deep Neural Network)'이다. 인공지능은 처음부터 인간의 뇌에서 이뤄지는 시각정보처리 과정을 모방했다. 1950년대 나온 '인공신경망(ANN·Artificial Neural Network)'이 그렇다. 이를 발전시킨 것이 심층신경망이다.

눈으로 들어온 시각정보는 신경세포가 뇌로 전달한다. 그런데 신경세포들이 눈에서 뇌까지 한 줄로 서서 전달하는 것이 아니다. 수많은 신경세포가 복잡하게 얽혀 신호를 주고받는 과정을 거친다. 이는 회사 업무 처리 과정과 비슷하다. 1층에서는 말단 직원들이 단순한 정보를 담은 보고서를 써서 2층의 모든 대리에게 발송한다. 대리들은 그중 자신에게 필요한 정보만 추려 정리하고 다시 3층의 과장 모두에게 보낸다. 이런 식으로 올라가면 꼭대기 층의 사장이 신제품을 언제, 어디에서 판매해야 할지 결정한다. 정보가 위로 올라가면서 점점 압축되고 정교해지는 것이다.

구글의 고양이 찾기를 회사에 적용하면 이렇다. 1층 말단 직원들은 사진의 밝기만 분류한다. 2층 대리들은 윤곽선 찾기를 한다. 1층에서 밝기에 따라 분류한 영상 데이터를 다시 윤곽에 따라 구분하는 것이다. 이런 식으로 점점 분류 단계가 늘어나면 어느 순간 고양이 사진들이 한 그룹으로 모인다. 인공지능은 고양이가 도대체 어떤 존재인지는 모르지만, 최소한 옆으로 있건 누워 있건 고양이인지 아닌지는 알 수 있는 경지에 오르는 것이다.

처음엔 인공신경망이 제대로 가동되지 않았다. 사람들이 줄지어 귓속말로 말을 전하면 몇 명 못 가 전혀 다른 말이 되는 경우가 많다. 인공신경망도 3층 이상 가면 효율이 급격히 떨어졌다. 1980년대 미국 UC샌디에이고 연구진은 층이 훨씬 많은 '딥(deep)' 모델을 제안했다. 하지만 인공지능을 학습시키기가 어려웠다. 대학원생들이 수많은 사진에 일일이 정보를 달아줘야 가동됐기 때문이다. 구글과 달리 고양이는 이렇게 생겼고, 사람은 저렇게 생겼다고 일일이 가르쳐야 했다.

캐나다 토론토대 제프리 힌튼 교수는 마침내 2006년 딥러닝의 완성본인 심층신경망을 개발했다. 이번엔 신경망을 10층 이상으로 만들었다. 사진 데이터를 줄 때도 나중에 구글이 한 것처럼 아무런 정보를 달지 않고 줬다. 알아서 배우라는 식이었다. 차이가 있다면 과거처럼 맨 아래층에 데이터를 던져놓고 마는 식이 아니라, 층마다 따로 데이터를 주고 공부를 시켰다는 것이다. 각 층의 인공신경망은 뭐가 뭔지 모르지만 각자 사진을 정리해보면서 예행연습을 한 것이다. 그런 다음에 처음처럼 밑에서부터 위로 차례로 분류된 데이터들이 올라오자 예전과 달리 오류 없이 작업이 진행됐다.

앤드루 응 교수가 참여한 구글의 고양이 찾기는 이전에 개발된 사진 인식 기술보다 정확도가 70%나 높아졌다. 딥러닝의 성공은 컴퓨터의 눈부신 진보 덕분이다. 앤드루 응 교수는 고양이 찾기에 컴퓨터 프로세서 1만6000개를 동원했다. 저렴하면서도 성능이 좋은 컴퓨터가 있어 가능한 일이었다. 인터넷도 한몫했다. 사람들이 유튜브에 수많은 영상을 올리지 않았다면 인공지능이 보고 배울 만한 엄청난 데이터를 찾을 수 없었을 것이다.

딥러닝으로 진화한 인공지능은 다양한 곳에 이용되고 있다. 구글은 딥러닝을 활용해 안드로이드 스마트폰의 음성 인식 오류를 25%나 줄였다. 2012년 미국 제약사 머크의 신약개발 경진대회에서는 제프리 힌튼 교수 연구팀이 딥러닝 시스템으로 치료 대상에게 꼭 맞는 신약 후보 물질들을 가려내 우승했다. 이들은 머크의 신약 연구 효율을 15%나 높였다. 인공지능의 모델이 된 뇌과학 연구에도 딥러닝이 쓰인다. 미국 뉴멕시코대의 빈스 캘헌 교수는 뇌 fMRI(기능성 자기공명영상) 데이터 분석에 딥러닝 기법을 썼다.

신약 찾고 뇌과학에도 기여

그렇다면 딥러닝이 발전하면 인공지능이 인간을 능가하게 되지 않을까. 일론 머스크나 마이크로소프트의 빌 게이츠, 물리학자 스티븐 호킹 박사 등은 최근 인공지능에 대해 이와 같은 우려를 나타냈다. 하지만 컴퓨터 과학자들은 "인공지능이 자의식을 갖기란 어렵다"며 기우를 일축한다.

인공지능은 딥러닝을 통해 주어진 데이터를 스스로 분석하고 판단하는 능력을 갖게 됐다. 어쩌면 속도에서 사람을 능가할지도 모른다. 하지만 어디까지나 객관적 정보를 가지고 판단하는 것이지, 누군가에 대한 주관적 판단을 하지는 못한다. 그렇게 하려면 인공지능이 자의식을 가져야 하는데, 아직 우리조차 자의식이 어떻게 생기는지, 그 실체가 무엇인지 정확히 알지 못한다. 인공지능에게 자의식이나 감정을 공부하라고 줄 만한 학습교재가 없는 것이다.

그나마 머리도 덜 자랐다. 앤드루 응 교수는 자신의 딥러닝에 대해 "인간의 뇌에 비해 인공 신경이나 이들의 연결 개수는 100만분의 1에 불과하다"고 말했다. 물론 인간이 의식의 실체를 밝히고 이를 모방할 수 있다면 사정은 달라진다. 아마도 공학과 자연과학뿐 아니라 인문학까지 총동원될 때 가능한 먼 미래의 일일 것이다.

☞딥 러닝(deep learning)

인공지능이 사진과 같은 외부 데이터를 분석해 스스로 의미를 찾는 학습 과정. 사진의 경우 처음엔 밝기 정도만 구분하다가 다음 단계로 갈수록 점점 더 복잡한 형태를 구분하면서 사람 얼굴까지 스스로 알아낸다. 학습 자료가 많아질수록, 그리고 학습 단계가 더 세분될수록 인공지능의 성능이 향상된다.


〈도움말=김영민 한국과학기술정보연구원 선임연구원〉