인공지능이 또 다른 인공지능에게 지식을 전수하는 과정을 형상화한 AI 생성 이미지. /KAIST

국내 연구진이 인공지능(AI) 모델이 바뀌어도 기존 지식을 다시 처음부터 학습시키지 않아도 되는 기술을 개발했다.

KAIST 전산학부 김현우 교수 연구팀과 고려대 연구진은 서로 다른 AI 모델 간에도 학습된 지식을 그대로 전달할 수 있는 ‘TransMiter’를 개발했다고 27일 밝혔다. 이번 연구는 인공지능 분야 최고 권위 학술대회인 AAAI 2026에서 구두 발표 논문으로 채택돼 지난 25일 발표됐다.

◇경력직 AI가 ‘족집게’처럼 신입 AI 가르친다

기존에는 AI 성능이 아무리 뛰어나도 새로운 모델이 등장하면 특정 분야의 지식을 다시 처음부터 학습해야 했다. 모델 구조가 조금만 달라져도 이전에 쌓은 경험과 노하우를 그대로 활용하기 어려웠기 때문이다. 이 때문에 추가 학습 과정과 여러 모델을 동시에 운영해야 했고, 시간과 비용 부담이 크게 늘어나는 문제가 있었다.

연구팀은 이에 대한 해법으로 일종의 ‘지식 전수 구조’인 ‘TransMiter’를 개발했다. 이 기술은 기존처럼 지식을 통째로 다시 학습시키는 방식이 아니라, AI가 질문을 받았을 때 어떤 표현을 선택하고, 어떤 정보에 주목하며, 어떤 방향으로 결론을 내렸는지 그 결과값(출력)만을 정리해 다른 AI에 전달하는 방식이다. 비유하자면 ‘경력직 AI’가 그동안 많은 질문에 답변했던 요령과 판단 기준을 족집게 과외하듯 다른 AI에 전수하는 것이다.

예를 들어 한 AI가 ‘이런 질문엔 이런 방식으로 답하는 것이 효과적이다’라고 경험을 통해 학습했다면 ‘TransMiter’는 그 방식을 그대로 다른 AI에 가르쳐 주는 역할을 한다.

◇재학습 크게 줄였다

연구팀은 TransMiter를 적용한 결과, AI 모델의 크기나 구조가 달라도 지식 전달이 가능해졌고, 복잡한 재학습 과정도 크게 줄일 수 있게 됐다고 봤다.

연구팀은 또한 이번 연구가 앞으로 필요한 분야에 맞춰 거대언어모델을 실시간으로 업데이트하는 이른바 ‘지식 패치(patch)’ 기술로 진화할 수 있을 것으로 보고 있다. 김현우 교수는 “이번 연구를 확장하면, 빠르게 발전하는 초거대 언어 모델이 등장할 때마다 반복적으로 수행해야 했던 후학습(post-training) 비용을 크게 줄일 수 있고, 특정 분야 전문 지식을 손쉽게 추가하는 ‘모델 패치’가 가능해질 것”이라고 했다.

이 연구는 국방기술진흥연구소와 정보통신기획평가원(IITP)의 지원을 받았다.