구글 딥마인드는 25일(현지 시각) 수학 인공지능(AI) ‘알파프루프(AlphaProof)’와 기하학 문제를 푸는 AI ‘알파지오메트리2(AlphaGeometry2)’가 국제수학올림피아드(IMO)에서 은메달 수준의 성적을 기록했다고 밝혔다. AI가 IMO 메달권에 해당하는 실력을 보인 건 이번이 처음이다.
1959년부터 열린 IMO는 예비 수학자들이 겨루는 권위 있는 대회다. 수학계 노벨상으로 불리는 필즈상 수상자 다수가 IMO 대표로 나설 정도다. AI 분야가 떠오르면서 IMO는 AI의 수학적 추론 능력을 평가하는 기준으로도 사용되고 있다.
이번에 공개한 알파프루프는 기하학보다 더 광범위한 수학 문제를 풀 수 있는 AI다. 시행착오를 거쳐 문제를 해결하는 방법을 스스로 찾는 ‘강화 학습’을 적용했다. 반려견에게 특정 행동을 계속 가르치기보다 우연히 그 행동을 했을 때 칭찬을 하거나 먹이 같은 보상을 주는 훈련 방식이다. 구글 딥마인드가 개발한 바둑 AI ‘알파고’가 가상의 바둑을 두면서 훈련한 것과 같다. 토머스 휴버트는 기자회견에서 “처음에는 가장 간단한 문제를 해결하는 것으로 시작해 점점 더 어려운 문제를 시도한다”고 설명했다.
지난 1월 구글 딥마인드는 IMO가 출제한 기하학 문제를 일부 풀 수 있는 AI 알파지오메트리를 공개했다. IMO에서 출제되는 수론이나 대수학, 조합론 문제는 풀 수 없었다. 각 분야는 수와 연산, 경우의 수를 연구하는 수학의 하위 분야다.
딥마인드 연구진은 알파프루프와 개선된 버전의 알파지오메트리2를 모두 사용해 올해 출제된 IMO 문제를 풀 수 있는지 시험했다. 영문으로 주어지는 문제는 구글의 생성형 AI 제미나이(Gemini)를 이용해 프로그래밍 언어로 변환했다. 알파지오메트리2와 알파프루프는 IMO 문제 6개 중 4개의 정답을 맞히는 데 성공했다. 총 42점 만점에 28점을 받아 은메달 수준을 기록했다. 올해 IMO 금메달 기준보다 단 1점 낮은 점수였다.
그레고르 돌리나르 IMO 회장은 “수학 문제 해결에서 결국 AI가 인간보다 더 나아지리라는 것은 알고 있었지만, 그 속도는 숨이 멎을 정도”라며 “금메달을 단 1점 차이로 놓친 것은 정말 인상적”이라고 밝혔다. 알파프루프의 답을 채점한 윌리엄 티머시 가워스 영국 케임브리지대 교수는 기자회견에서 “AI가 인간과 비슷한 방식으로 문제를 푸는 ‘마법의 열쇠’를 찾은 것 같다”고 말했다.
다만 딥마인드의 AI는 문제 1개를 몇 분 안에 푸는가 하면, 최대 3일이 걸리기도 했다. IMO 참가자들은 4시간 30분 안에 3문제를 풀어야 한다. 그리고 가짓수를 따지는 조합론 분야의 질문 2개는 모두 풀지 못했다. 알렉스 데이비스 딥마인드 수학 책임자는 “이유를 이해하기 위해 노력하고 있다”며 “시스템을 개선할 수 있기를 바란다”고 말했다. 전문가들은 일부 한계가 개선되면 AI가 수학자들의 연구를 도울 수 있다고 본다.
앞서 알고리즘 트레이딩 회사인 ‘XTX 마켓츠’는 IMO에서 금메달 수준을 달성하는 AI에 500만달러(약 69억원)의 상금을 내걸었다. 조건은 AI를 개발하는 과정에 필요한 소스 코드나 설계도를 누구나 열람할 수 있도록 공개하는 것이다. 아직 딥마인드의 수학 AI는 세부 코드가 공개되지 않아 금메달 수준을 달성하더라도 상금은 받을 수 없다.