해외 대학들도 AI(인공지능) 시대에 과제나 시험에서 AI를 어떻게 활용하도록 해야 할지 고심하고 있다. 대체로 대학 차원의 원칙을 정하되, 구체적 허용 여부는 교수에게 맡겨 놓는 경우가 많았다.
일본 게이오대는 챗GPT 출시 이듬해인 2023년 AI 관련 지침을 만들었다. 대학 측 공지에 따르면, 게이오대는 원칙적으로는 AI 사용을 제한하고 있다. 생성형 AI를 쓰는 건 다른 누군가의 힘을 빌리는 것과 마찬가지이기 때문에 학생이 독자적으로 수행해야 하는 과제나 시험에서 생성형 AI 사용은 허용하지 않는다는 것이다. 하지만 교수가 AI 도구 사용을 허용할 수 있고, 이 경우 과제에 AI 사용 취지를 반드시 적도록 했다.
미국 펜실베이니아대의 ‘AI 가이드라인’도 과제를 수행할 때 AI 도움을 받는 걸 허용하지 않고 있다. 다만 교수의 판단에 따라 허용할 수 있고, 이 경우 교수는 학생이 AI를 사용한 사실을 적도록 할 수 있다. 일부 미국 대학은 AI를 사용할 수 없는 ‘구술 평가’로 점수를 매기기도 한다.
중국은 AI 사용을 권장하는 대학이 많다. 지난 6월 인민일보 보도에 따르면, 칭화대는 AI 기반 시범 강의 220여 개를 개설했다. 이 수업을 듣는 학생은 24시간 내내 ‘AI 조교’에게 학업에 관한 질문을 하고, 과제를 할 때도 AI를 활용할 수 있다. 쓰촨대는 의대생들이 AI 기반 가상 환자를 대상으로 수련을 진행하고 있다.
평가 방법에 대한 고민도 커지고 있다. 영국 가디언은 지난 6월 영국 대학생들의 AI 부정행위 실태를 보도했다. 영국 대학 131곳 자료를 분석한 결과 2023년 9월부터 1년 동안 적발된 학생 AI 활용 부정행위는 7000여 건에 달했다. 학생 1000명당 5.1건으로, 1년 전(1000명당 1.6건)의 3배 이상으로 급증했다. 가디언은 “챗GPT와 다른 AI 기반 작문 도구 등 기술 등장에 대응해 대학들은 평가 방법을 조정해야 하는 상황”이라고 밝혔다.