개는 야생 늑대로부터 진화하는 과정에서 뇌 용량이 20%쯤 쪼그라들었다. 인간에게 길들여지며 야생에서 직접 사냥하거나 은신처를 찾을 필요가 없게 되자 머리 쓸 일도 줄었기 때문이다.
마치 인간에게 길들여진 개처럼 앞으로 인공지능(AI)에 의탁해 머리 쓸 일이 줄어든 인간의 지능이 퇴화할 수 있다는 경고가 이어지고 있다. AI가 똑똑해질수록 이에 길들여진 인간은 오히려 아둔해질 것이란 예상이다. 최근 AI 사용이 보편화되면서 ‘AI가 뇌를 먹어 치우고 있다’ ‘두뇌 썩음(brain rot)’과 같은 자극적 표현까지 등장하는 가운데 맹성현 태재대 부총장(카이스트 명예교수)은 “가랑비에 옷 젖듯 AI가 인간에게 시나브로 주는 폐해가 제대로 감지되지 못하고 있다. 인간이 AI에 의존할수록 인간 스스로 자발적 가축화의 길로 들어설 수 있다”고 했다. WEEKLY BIZ는 내로라하는 국내외 전문가 6인을 인터뷰해 AI 과(過)의존이 인간의 사고 능력에 미치는 영향과 그 위험성에 대해 물었다.
◇챗GPT 썼더니 두뇌 퇴화하더라
‘쓰지 않으면 퇴화한다’는 사실은 뇌과학과 생물학에서 이미 입증된 바 있다. 위성항법장치(GPS)를 자주 쓰면 스스로 길 찾는 능력이 떨어지고, 특정 언어를 오랫동안 사용하지 않으면 그 언어 관련 신경망이 약화하는 게 비슷한 원리다. 전문가들은 우리의 생각을 AI에 아웃소싱하면서 인간 스스로 멍청해지고 있다고 지적한다.
수비시 카크 오클라호마 주립대 컴퓨터과학과 교수는 WEEKLY BIZ에 “사람들이 AI에 지속적으로 노출되며 뇌가 ‘재배선(rewiring)’되고 있다”면서 “AI로 글을 쓰고 이미지를 만들면서 일종의 ‘인지적 위축(cognitive atrophy)’ 현상이 나타나고 있다”고 했다. 인지적 위축이란 쉽게 말해 스스로 생각하는 힘이 줄어드는 것을 뜻한다. 마치 운동을 안 하면 근육이 줄어들듯, 생각하지 않으면 ‘생각하는 근육’도 약해진다는 뜻이다. 카크 교수는 “사람들은 게으름 때문에 이미 의사 결정의 많은 부분을 기계(AI)에 맡기기 시작했다”며 “이러한 일은 이미 정치, 사회, 과학, 경영 등 다양한 분야에서 일어나고 있다”고 했다.
이 같은 우려는 실증적 연구를 통해서도 입증되고 있다. 스위스 경영대학원의 마이클 게를리히 교수 연구팀이 지난 1월 학술지 ‘소사이어티즈(Societies)’에 발표한 논문에 따르면 챗GPT와 같은 AI 도구를 일상적으로 사용하는 이들일수록 비판적 사고 능력은 현저히 낮은 것으로 조사됐다. 연구팀은 영국에서 모집한 666명을 대상으로 AI 의존도에 따른 사고 능력을 측정했다. 그 결과, AI 의존도와 비판적 사고의 상관계수는 -0.68로, AI 의존도가 클수록 비판적 사고는 떨어지는 경향이 뚜렷했다. 또한 AI 의존도가 높을수록 ‘인지적 오프로딩(cognitive offloading)’ 경향은 강하게 나타났다. 인지적 오프로딩이란 기억하거나 계산, 판단하는 일 등을 스마트폰 등 외부 도구에 맡기려는 경향을 뜻한다. 그런데 AI 의존도가 높을수록 이 인지적 오프로딩 경향도 커진 것(상관계수 +0.72)으로 분석됐다. 상관계수란 두 지수 사이의 관계의 정도를 -1에서 1 사이 수치로 나타낸 값으로 +1에 가까울수록 양의 상관관계, -1에 가까울수록 음의 상관관계가 커진다는 의미다.
카네기멜론대와 마이크로소프트(MS) 연구진이 지난 2월 발표한 ‘생성형 AI가 비판적 사고에 미치는 영향: 지식 근로자 대상 설문조사를 통한 인지적 노력 감소와 신뢰도 효과 분석’ 연구에서도 비슷한 결과가 나왔다. 생성형 AI를 주 1회 이상 업무에 활용하는 지식 근로자 319명을 대상으로 설문조사를 실시한 결과, 이들은 생성형 AI를 사용하게 되면서 사용하지 않을 때보다 인지 활동에 드는 노력이 확연히 줄었다고 답했다. 구체적으로 ‘노력이 훨씬 덜 든다’ ‘덜 든다’고 응답한 비율은 지식 습득(72%), 이해력(79%), 적응력(69%), 분석력(72%), 종합력(76%), 평가력(55%) 등 모든 인지 영역에서 공통적으로 나타났다. AI가 제시하는 논리적 추론과 해답을 그대로 받아들이면서 ‘생각하는 과정’ 자체가 그만큼 줄었다는 뜻이다.
◇‘수퍼 유저’와 ‘바보들’
AI가 일상과 직장에서 깊숙이 자리 잡을수록 이를 둘러싼 양극화가 더욱 심화될 것이란 경고도 잇따른다. AI 전문가 칼 스트라토스 럿거스대 교수는 WEEKLY BIZ 인터뷰에서 AI 시대에 인간이 경계해야 할 점으로 극단적 양극화를 꼽았다. 그러면서 그는 AI가 대신 생각을 해주는 도구란 특징을 가진 만큼 사람을 장기적으로 ‘AI를 능숙하게 활용하는 소수의 수퍼 유저’와 ‘AI에 의존해 사고력을 잃어가는 다수의 범인(凡人)’이란 두 부류로 나눌 것으로 내다봤다.
그는 “AI 자체는 중립적인 기술이지만, 그 사용 방식에 따라 인간의 지능은 양극단으로 갈릴 수 있다”며 “여행 일정부터 집 구입까지 AI에 판단을 맡기는 일반 이용자들의 지적 능력은 약화되는 반면, AI를 도구로 삼아 창의적 사고를 확장시키는 극소수의 ‘수퍼 유저’들은 압도적인 성과를 내게 될 것”이라고 했다. 과학자나 수학자 같은 전문가들의 경우 AI를 연구 조력자로 삼아 지식 생산의 속도와 수준을 비약적으로 높일 수 있다는 것이다.
다른 학자들 생각도 비슷하다. 카크 교수는 “AI는 다수의 일반 사용자에겐 ‘인지적 위축’을 일으킬 수 있지만, 소수의 창의적인 사람들에겐 유용한 생각 파트너가 될 수 있다”고 했다. 그는 특히 AI는 광고, 예술, 음악 분야에서부터 과학 연구에 이르기까지 모든 창조 영역에서 인간의 능력을 증폭시킬 도구가 될 것으로 내다봤다. 카크 교수는 “AI는 ‘양날의 검’과 같아서 똑똑한 사람은 더 똑똑하게, 그렇지 않은 사람은 더 둔하게 만들 수 있다”며 “이는 우리 사회에 전방위적 영향을 끼칠 것”이라고 했다.
AI에 무분별한 대중이 양산되는 것을 막기 위해선 특히 어린 시절부터 올바른 사용 습관을 길러야 한다는 목소리가 나온다. 학자들은 ‘숙달 경험’이 학습의 핵심이라고 강조한다. 학생들은 답을 쉽게 제공받는 게 아니라 어려운 문제를 스스로 도전해 해결해 보며 이해의 깊이를 더해갈 수 있다는 뜻이다. 하지만 챗GPT에 ‘에세이를 써달라’고 요청하는 식의 학습은 이런 숙달 과정을 생략하게 만든다. 너무 쉽게 문제를 해결하면 사고력과 문제 해결 능력을 기를 기회를 놓칠 수 있다는 것이다.
실제로 펜실베이니아대 와튼스쿨의 함사 바스타니 교수 연구팀은 튀르키예 고등학생 약 1000명을 대상으로 AI 학습 효과를 실험했다. 그 결과, 챗봇을 활용해 공부한 학생들은 종이 교과서와 노트를 활용한 학생들보다 최종 시험 성적이 평균 17% 낮게 나타났다. 바스타니 교수는 와튼스쿨 저널에서 “학습의 노력을 생략하고 AI라는 도구에 전적으로 의존할 경우 우리는 위험에 직면할 수 있다”고 했다.
◇마치 더 강한 마약을 찾는 것처럼
AI 사용이 보편화되면서 AI 의존이 마치 마약이나 알코올 중독처럼 점점 끊기 어려운 단계로 접어들 수 있다는 점도 문제로 꼽힌다. 이미 스마트폰 중독이 사회 전반에 만연한 가운데 AI 중독은 더 고차원의 파장을 일으킬 수 있다는 경고다. 이해국 가톨릭대 의정부성모병원 교수(중독포럼 상임이사)는 WEEKLY BIZ에 “기존 디지털 미디어는 사용자에게 주로 ‘재미’를 보상으로 주지만, AI는 여기에 더해 ‘편리함’ ‘상호작용성’ ‘정답을 얻는 만족감’까지 제공한다”면서 “사용자들은 더욱 광범위한 보상을 받는 AI에 보다 깊게 빠져들 수 있고 부정적인 영향도 그만큼 더 크게 나타날 수 있다”고 했다. 실제로 AI 없이 혼자 사고하거나 판단하지 못하는 ‘AI 중독자’가 대거 양산될 가능성도 배제할 수 없다. 글쓰기나 문제 해결과 같은 복잡한 사고 과정을 AI가 대신해주는 데 뇌가 맛을 들여버리면 버리기 힘든 습관이 될 수 있다는 뜻이다. 이 교수는 “다른 중독과 달리 AI 의존 현상은 긍정적 사용과 부정적 사용의 구별도 애매모호해 사회적 파장은 더 크게 나타날 수 있을 것”이라고 했다.
맹성현 부총장도 “AI에 지나치게 의존하게 되면 글을 읽고 이해하며 통찰로 연결되는 전반적인 사고의 흐름이 약화될 수 있다”면서 “특히 학생들이 어릴 때부터 AI에 과하게 의존하게 되면 일종의 ‘AI 마약’처럼 의존성이 심해질 수 있다”고 경고했다. 이에 스트라토스 교수는 “우리가 멍청해지지 않으려면 결국 (AI에 너무 의존하지 않으려는) 자기 절제가 필수”라고 했다.
전문가들은 AI 시대에 ‘구글 효과(Google Effect)’와 같은 기억력 감퇴 현상 역시 한층 더 가속화될 수 있다고 우려한다. 구글 효과란 사람들이 모르는 정보를 스스로 생각해내기보다는 검색 엔진을 통해 손쉽게 찾아보는 습관이 쌓이면서, 인간의 기억력이 점차 퇴화하는 현상을 뜻한다. 하지만 단순 검색을 넘어 AI 의존이 일상화되는 시대에는 이러한 현상이 더욱 광범위하게, 그리고 더 강력하게 나타날 수 있다는 예상이다. 스트라토스 교수는 “검색은 사용자가 무엇을 알고 있어야 적절히 활용할 수 있는 ‘고정된 기술’이지만, 생성형 AI는 훨씬 능동적으로 생각을 대신해준다”며 “그 영향력은 기존 인터넷 기술과는 비교가 되지 않을 정도로 클 것”이라고 했다.
이처럼 AI가 인간 사고를 대체하는 속도가 빨라질수록 인류의 미래에 대한 디스토피아적 전망도 고개를 들고 있다. 2022년 11월 챗GPT 출시를 계기로 AI 기술이 대중화되면서, 향후 20~30년 사이 인류의 학습 능력과 사고 체계에 근본적인 변화가 닥칠 수 있다는 전망이다. 리처드 히어스민크 네덜란드 틸뷔르흐대 기술철학 교수는 월스트리트저널(WSJ)에 “인간은 점점 멍청해지고 컴퓨터가 모든 생각을 대신하게 되는 사이버펑크식 디스토피아가 현실이 될 수도 있다”고 했다.
◇‘갈릴레이 망원경’ 같은 존재 될 수도
하지만 AI가 인류의 미래를 밝히는 도구가 될 수 있다는 반론도 적잖다. 마커스 드 사토이 옥스퍼드대 수학과 교수는 WEEKLY BIZ에 “AI가 인간을 멍청하게 만드는 게 아니라 거꾸로 인간의 두뇌를 자극해 더 나은 길로 인도하는 역할을 할 수 있다”고 주장했다. 그러면서 그는 프랑스의 재즈 뮤지션 베르나르 뤼바가 AI와 함께 공연했던 사례를 예로 들었다. “당시 AI의 연주는 관객들이 눈을 감고 들으면 어느 부분이 인간의 연주이고, 어느 부분이 AI 연주인지 모를 정도로 완벽했죠. 하지만 더 인상적인 건 뤼바 본인의 반응이었습니다. 그는 ‘AI가 연주한 건 분명 내 스타일의 연주였다. 하지만 내가 한 번도 시도해본 적 없는 방식으로 내 스타일을 연주했다’고 했어요.”
AI가 인간의 지적 능력을 깎아먹는 게 아니라 우리가 해온 익숙한 사고틀에서 벗어나 색다른 방식으로 생각하도록 하는 자극제가 될 수 있다는 게 사토이 교수 생각이다. 그는 “AI로 인해 인류는 ‘페이즈 체인지(phase change·근본적인 변화의 순간)’를 맞이하고 있다”면서 “AI는 마치 갈릴레오 갈릴레이가 망원경으로 처음 밤하늘을 들여다본 순간과 같이 그전까지 맨눈으로 볼 수 없었던 세계를 탐험할 수 있게 해줄 것”이라고 했다.
전문가들은 결국 AI 자체보다 이 도구를 어떻게 쓰느냐가 인류의 미래를 좌우할 것이라고 말한다. 나탈리아 코스미나 매사추세츠공대(MIT) 연구원은 “AI란 분명 유용한 도구이지만 그럴수록 더 필요한 건 이 유용한 도구를 비판적으로 바라보는 능력”이라며 “AI가 번역한 문장을 ‘완전한 영어 원문’이라고 아무 의심 없이 받아들이는 대신 그 안에 편향이나 오류가 없는지 의심하고 분석하는 자세가 필요하다”고 했다. 결국 AI 사용자가 AI를 제대로 쓸 줄 아는 ‘AI 리터러시(정보 해석 능력)’를 키워야 한다는 게 코스미나 교수의 얘기다.
그랜트 블래쉬키 호주 멜버른대 교수도 “위대한 과학적 발견이나 철학적 통찰력, 예술적 혁신은 지름길을 택해서 이뤄진 게 아니라 어려운 아이디어와 씨름해서 이뤄진다”며 “AI를 인간 대신 생각하는 ‘사고의 지팡이’로 삼을 게 아니라 함께 생각하는 ‘사고의 파트너’로 여기고, 학습 노력을 손쉽게 대체하는 도구가 아니라 학습의 안내자 역할을 하는 ‘소크라테스식 튜터’로 활용하라”고 조언했다.