연세대 챗GPT 집단 커닝 사태, 어떻게 봐야 할까
연세대 챗GPT 집단 커닝 논란이 커지고 있다. 600명에 이르는 수강자 중 190명 이상이 부정행위를 저질렀다고 한다. 담당 교수가 "자수하라"고 공지한 이후 자진 신고한 학생만 40명에 이른다. 이 정도면 가히 'AI 카오스' 사태라 할 만하다. 챗GPT를 활용한 집단 커닝은 분명 충격적인 사건이다. 지식 전달 못지않게 학습 윤리를 중시하는 대학에서 벌어진 일이라 더 그렇다. 이번 사태로 본의 아니게 피해를 입게 된 선량한 학생들의 권익을 보호할 조치도 필요하다. 그럼에도 이번 사태는 '챗GPT 시대의 교육'에 대해 많은 생각거리를 던져 준다. 특히 두 가지는 꼭 짚어볼 만하다. 첫째, 기술 진화를 따라가지 못하는 교육 시스템. 둘째, 생성형 AI 시대의 학습 윤리와 평가방식 개선. 먼저 첫 번째 문제부터 보자. 챗GPT, 클로드, 코파일럿 같은 생성형 AI 보급이 확산되면서 시험에서 정답을 찾는 일이 너무나 쉬워졌다. 따라서 지식의 암기·재현 중심 평가 방식은 효력을 많이 잃게 됐다. 그런데 시험 감독과 평가는 여전히 아날로그 방식을 벗어나지 못하고 있다는 점이다. 이번에 문제가 된 과목에서도 응시자는 컴퓨터 화면과 손·얼굴이 나오는 영상을 촬영해 제출하도록 했다. 영상 확인 과정에서 문제 캡처, 시선 회피, 프로그램 전환 등 여러 부정행위가 포착됐다. 문제는 대학 교육 시스템 내에서 생성형 AI 부정을 방지할 뾰족한 방법이 없다는 점이다. 대면 시험이 아닌 한, 영상 제출 같은 방식 외에는 학생들의 부정행위를 감시할 방법이 없다. 그러다보니 AI 시대에도 대학은 여전히 카메라 감시, 녹화 제출 등 '감시형 대응'에 머물러 있을 수밖에 없다. 생성형 AI를 활용한 부정 행위는 우리만 겪은 문제는 아니다. 챗GPT 출시 이후 미국, 영국 등 주요 국가의 대학들도 이 문제로 골머리를 앓았다. 그리고 다양한 시행 착오를 통해 다양한 대응 방안을 만들었다. 그 중 몇 가지만 살펴보자. 영국의 유니버시티 칼리지 런던(UCL)은 과제를 'AI 금지', '보조적 사용', 'AI 활용' 등 세 단계로 구분한 뒤 평가 체계를 새롭게 설계했다. 호주 고등교육품질보증기구(TEQSA)는 구술·현장실습·대면발표 등 정직성이 높은 평가 방식을 권고하고 있다. 온라인 시험 감시만으로는 부정을 막을 수 없다는 판단에 따른 조치다. 중국은 조금 과격한 조치를 도입했다. 전국대입시험 기간 주요 AI 챗봇의 문제풀이 기능을 일시 중지시키도록 했다. 기술공급자까지 공정성 확보에 동참하도록 강제한 것이다. 이처럼 세계 각국은 감시 강화보다 AI 시대에 맞는 제도적 안전장치와 윤리 기준 확립에 초점을 맞추고 있다. 우리 대학도 같은 고민이 필요해 보인다. 이제 AI 사용을 일률적으로 금지하는 것은 현실적이지 않다. 이미 AI는 학습과 업무의 일상 도구가 됐다. 따라서 'AI 활용은 어디까지 정당한가'라는 윤리 기준을 세우고, AI를 활용하되 스스로 비판적으로 검토할 수 있는 능력을 평가에 반영해야 한다. AI가 정보를 대신 만들어주는 시대에는 학생의 '비판적 사고력'과 '문제 정의 능력'이 그 어떤 것보다 중요하다. 이런 역량을 제대로 평가할 수 있는 방식을 고민할 때, 대학 교육은 비로소 한 단계 도약할 수 있다. 연세대 AI 집단 커닝 사태는 분명 불행한 일이다. 교육 차원에서 부정행위는 엄하게 다뤄야 한다. 그러나 동시에 시대를 따라가지 못하는 평가 시스템을 개선하려는 노력도 병행해야 한다. 제도를 고치지 않는 한, 비슷한 사태는 다시 반복될 가능성이 많기 때문이다. AI를 막을 수는 없다. 결국 관건은 'AI를 어떻게 가르치고, 어떻게 평가할 것인가'다. 지금이 바로 대학이 이 질문에 대한 답을 내놓아야 할 시점이다.