10년 전 이세돌 9단이 서울 종로구 포시즌스 호텔에서 구글 딥마인드 '알파고'와의 대국을 펼칠 당시 모습./조선DB

구글 딥마인드의 인공지능(AI) 알파고가 이세돌 9단을 꺾은 지 10년이 됐다. 하지만 전문가들 사이에선 AI 성능은 크게 개선됐지만, 그 밑바탕의 핵심 엔진은 알파고 시절과 크게 다르지 않다는 평가가 나온다. 알파고 개발 초기 멤버였던 캐나다 토론토대 크리스 매디슨 교수는 “LLM은 알파고와 다른 점도 있지만, 근본적인 기술 구조는 크게 달라지지 않았다”고 했다. AI가 인간 수준의 범용지능(AGI)으로 가려면 딥러닝 이후의 새로운 구조, 이른바 ‘포스트 딥러닝’ 모델이 필요하다는 문제의식도 커지고 있다.

◇AI, 단백질 구조 풀고, 인간처럼 대화

2016년 3월 서울 종로구 포시즌스호텔에서 열린 대국에서 알파고는 당시 전문가들의 예상을 깨고 이세돌 9단을 4대1로 꺾었다. 19×19 바둑판에서 가능한 경우의 수가 10의 171제곱에 이를 정도로 방대해, 인간 최고 기사를 컴퓨터가 쉽게 넘기 어렵다고 봤던 시절이었다. 하지만 알파고는 딥러닝 기반 신경망과 강화학습, 몬테카를로 탐색을 결합해 인간 기보를 학습하고 수백만 번의 자가 대국을 반복하며 인간이 미처 찾지 못한 수를 발굴해냈다.

그 뒤 AI는 게임을 넘어 과학과 언어 영역으로 빠르게 확장됐다. 딥마인드의 알파폴드는 아미노산 서열만으로 단백질의 3차원 구조를 예측하는 데 성공했고, 이 성과는 2024년 노벨 화학상으로 이어졌다. 수학 영역에서는 알파프루프와 알파지오메트리 2가 2024 국제수학올림피아드(IMO) 문제 6개 중 4개를 풀어 은메달권 성적을 냈다. 챗GPT를 비롯한 거대언어모델(LLM)은 인간 언어를 이해하는 듯한 성능으로 세계적인 AI 열풍을 촉발했다.

알파폴드2 예측과 인간 연구진 연구 결과를 비교한 폴딩 단백질 이미지

◇‘딥러닝’ 모델로는 스케일 경쟁만 유발

하지만 지금의 생성형 AI 역시 기본적으로는 알파고와 같은 신경망 구조 위에서 작동한다는 지적이 나온다. 대규모 데이터를 먼저 학습시키고, 이후 강화학습 등으로 성능을 보정하는 방식이 크게 달라지지 않았다는 것이다. 결국 AI 경쟁은 새로운 원리 경쟁이라기보다, 누가 더 많은 데이터와 GPU 같은 연산 자원을 확보하느냐의 ‘스케일 경쟁’으로 흐르고 있다는 평가다.

문제는 이런 구조가 성능은 끌어올리지만, ‘블랙박스’ 한계도 그대로 안고 있다는 점이다. AI가 그럴듯한 답을 내놓더라도 내부적으로 어떤 경로를 거쳐 그런 결론에 도달했는지 개발자조차 명확히 설명하기 어려운 경우가 많다. 의료·금융·국방처럼 판단 근거와 책임 소재가 중요한 분야에선 특히 큰 약점으로 지적된다.

◇전문가 “’포스트 딥러닝’ 필요”

이 때문에 과학계에선 딥러닝을 넘어선 새로운 구조, 이른바 ‘포스트 딥러닝’ 모델이 필요하다는 목소리가 커지고 있다.

대표적인 회의론자인 게리 마커스 전 뉴욕대 교수는 딥러닝이 방대한 데이터를 활용한 패턴 인식에는 뛰어나지만, 상식과 추론, 새로운 상황에 대한 일반화에는 한계가 있다고 지적해 왔다. 범용지능에 도달하려면 다른 기술로 보완돼야 한다는 것이다.