미래에는 인공 지능 로봇이 인간이 시킨 일을 할 때가 많을 거예요. 그런데 인공 지능 로봇이 인간의 명령을 따르는 과정에서 여러 가지 문제를 일으킬 수 있어요. 다음 상황을 살펴볼까요?
줄다리기에서 이기려고 반칙을 한 인공 지능 로봇
2050년, 인공 지능 로봇이 한 반에 하나씩 들어왔어요. 미소네 반에도 인공 지능 로봇이 들어왔지요. 담임 선생님은 학생들과 인공 지능 로봇에게 "운동회 때 줄다리기에서 우승하기를 바랍니다"라고 말했어요. 미소네 반은 인공 지능 로봇과 함께 줄다리기 연습을 열심히 해서 줄다리기에서 우승을 차지했어요. 그런데 문제가 생겼어요. 인공 지능 로봇이 줄다리기에서 반칙을 한 것이 밝혀졌거든요.
줄다리기를 잘하는 반 아이들의 도시락에 배탈을 일으키는 약을 넣은 거예요. 인공 지능 로봇이 '우승하기를 바란다'는 선생님의 말을 수행하기 위해서 반칙을 한 것이었지요. 담임 선생님의 말은 무슨 수를 써서라도 우승을 해야 한다는 뜻은 아니었어요. 학생들이 협동심을 배우기를 바란 것이었지요.
인공 지능에 도덕을 가르칠 수 있을까?
인공 지능에 학습을 시킬 때는 여러 가지 데이터만 알려 주고, '네가 알아서' 좋은 방법을 찾아보라는 명령을 내려요. 그러면 인공 지능은 명령에 따라 괜찮은 결과를 만들어 내야 해요. 하지만 괜찮은 결과가 꼭 옳은 결과가 아닐 수도 있어요. 미소네 반 인공 지능 로봇처럼 잘못된 결과를 내놓기도 하지요.
물론 인공 지능에 도덕을 함께 가르치면 이런 문제를 막을 수 있을지도 몰라요. 그런데 무엇이 옳고 무엇이 잘못된 결과인지 기준을 어떻게 정해야 할까요? 모든 사람이 만족할 수 있고, 인공 지능도 이해할 수 있는 기준을 만드는 것은 쉽지 않아요. 그래서 인공 지능을 연구하는 학자들은 결과만큼 과정이 중요한 일 등을 이해하는 인공 지능 로봇을 개발하는 데 시간이 꽤 걸릴 것이라고 생각해요.
가나출판사 ‘재미있는 인공 지능 이야기’ (송준섭 글, 우지현 그림)