로봇 에바가 카메라로 사람이 웃는 표정을 파악하고 똑같이 미소를 짓는 모습./미 컬럼비아대

사람이 웃으면 따라 웃는 로봇이 개발됐다. 로봇이 사람의 표정을 따라하면 인간과의 협업에서 신뢰감을 더 높일 것으로 기대된다.

미국 컬럼비아대 기계공학과의 호드 립슨 교수는 지난 30일(현지 시각) 국제전기전자공학회(IEEE)가 온라인으로 개최한 ‘로봇공학과 자동화 국제컨퍼런스(ICRA)’에서 사람의 얼굴 표정을 따라하는 상반신 로봇 ‘에바(EVA)’를 발표했다.

◇웃고 울고 6가지 감정 얼굴로 표현

에바는 머리 부분만 있는 로봇으로, 행위예술집단인 블루맨 그룹처럼 얼굴이 파란색이다. 로봇은 사람의 얼굴에 나타난 기쁨과 슬픔, 놀라움, 분노, 혐오, 공포 등 6가지 감정을 따라할 수 있다.

최근 로봇은 노인을 돌보는 요양원에서 물류창고와 공장에 이르기까지 다양한 곳에 활용되고 있다. 이에 따라 사람에게 반응하고 실제적인 모습을 가진 로봇에 대한 수요가 높아졌다. 하지만 기존 로봇은 재질이 딱딱하고 부품이 커서 얼굴 표정과 같은 미세한 동작을 구현하지 못했다.

립슨 교수 연구진은 5년에 걸쳐 에바가 사람 얼굴 표정을 모방할 수 있도록 새로운 하드웨어와 소프트웨어를 개발했다. 먼저 3D(입체) 프린터로 로봇의 머리에 맞춰 다양한 형태의 부품을 만들었다. 연구진은 케이블과 모터로 구성된 인공 근육으로 사람의 얼굴 표정을 만드는 미세 근육 42개를 모방했다. 이 인공 근육으로 부드러운 인공 피부가 다양한 감정을 표현할 수 있다.

다음 과제는 소프트웨어 개발이었다. 연구진은 기존 로봇처럼 하나의 프로그램으로 얼굴 표정을 구현하는 것은 불가능하다고 판단했다. 대신 인공지능(AI)을 이용해 로봇이 스스로 표정을 지을 수 있도록 학습시켰다.

로봇 에바는 인공지능을 이용한 기계학습을 통해 사람의 6가지 감정을 얼굴에 나타내는 법을 배웠다./미 컬럼비아대

◇인공지능으로 표정 짓는 법 스스로 배워

1차 학습은 로봇이 자신의 얼굴을 보면서 표정을 훈련하는 과정이었다. 연구진은 아무런 사전 명령 없이 로봇이 임의로 얼굴 표정을 짓도록 하고 그 모습을 수 시간에 걸쳐 촬영했다. 이 영상을 다시 로봇의 인공지능에 학습시켜 스스로 특정 표정과 인공 근육의 움직임을 연결시킬 수 있도록 했다. 사람이 거울을 보고 표정을 짓는 것과 같은 방법이다.

2차 학습은 비디오 카메라로 사람의 얼굴 표정을 포착한 후 자신의 얼굴 표정과 일치시키는 과정이었다. 반복 학습 끝에 에바는 사람의 얼굴 표정을 읽고 자신의 표정을 그에 맞출 수 있었다. 이제 사람과 같이 일을 하면서 웃으면 따라 웃고, 슬프면 같이 슬퍼하는 표정을 지어 공감을 나타낼 수 있게 된 것이다.

연구진은 아직은 로봇이 사람 표정을 단순히 따라하는 데 그쳐 얼굴 표정으로 자유롭게 사람과 의사소통하는 것과는 거리가 멀다고 밝혔다. 하지만 연구가 발전하면 장차 공장이나 병원, 학교, 가정에서 로봇이 함께 있는 사람의 얼굴 표정이나 몸짓이 뜻하는 바를 알아채고 그에 맞춰 반응할 수 있을 것이라고 기대했다. 립슨 교수는 “사람이 인터넷의 챗봇이나 몸체가 없는 스마트 스피커와 감정을 나누는 데는 한계가 있다”며 “사람의 뇌는 물리적 실체가 있는 로봇에 더 잘 반응한다”고 말했다.