AI학회, 챗GPT 적용 논문 허용할까?
권위 있는 인공지능(AI) 학회 중 하나인 국제기계학습학회(ICML 2023)에서 챗CPT 같은 대규모 언어 모델(LLM)을 사용해 논문을 집필하는 걸 금지하는 정책을 발표했다. 의도치 않은 표절, 허위사실 유포 등 대규모 언어 모델 사용 과정에서 발생할 수 있는 잠재적인 문제를 방지하기 위함이다. 이러한 정책이 제시되자 관련 학계에선 생성형 AI의 역할에 대한 의견이 갈리고 있다. 논쟁은 학회를 넘어 다양한 산업과 조직에서 어떻게 생성형 AI을 적용해야 할지까지 확장됐다. ICML측은 챗GPT는 이제 사람과 구별하기 어려운 수준의 글을 작성할 정도로 급속한 발전을 이뤘지만 여전히 예상치 못한 결과에 제대로 답변하지 못하고 있는 단계라고 지적했다. 또한 AI를 이용해 출력한 결과물은 새로운 창작물로 보아야 할 것인지 아니면 기존 작품 파생물에 지나지 않는지에 대해서도 아직 학회나 업계간에 협약이 이뤄지지 않았다고 밝혔다. 이 밖에도 AI 편향 등 윤리적인 문제를 발생시킬 수 여지가 남아있는 만큼 보수적으로 접근해야 한다는 원칙에 근거한다고 성명을 통해 밝혔다. 다만, ICML은 챗GPT로 전체 텍스트를 생성하는 사례에 대해서만 제한한다며, 참고 자료로 챗GPT로 생성한 내용을 포함하는 것은 허가한다. 더불어 해당 금지안에 대해 내년 재평가할 예정이라고 덧붙였다. 반면 일부 AI연구자들은 현재 가장 주목받는 AI 기술인 챗GPT 등 대규모 언어 모델을 AI학회에서 금지한다는 것에 대해 이해할 수 없다는 반응을 보였다. 특히 비 영어권의 AI연구자들은 영어권 연구자들과 공정하게 소통하고 연구할 있는 기회를 박탈하는 것이라고 비판하기도 했다. 챗GPT를 활용하면 영어를 사용하지 않는 AI연구원도 실시간으로 번역된 문서를 팀원 간에 공유하거나 논문을 작성할 수 있다. 하지만 이를 사용하지 않을 경우 소통이 어렵거나 작업 시간이 급격하게 늘어날 가능성이 크다. 마이크로소프트 연구팀의 세바스찬 부벡 ML 기반팀 리더는 “챗GPT 사용 금지는 영어가 모국어가 아닌 공동 작업자가 원활하게 소통할 수 있는 기회를 없애는 것”이라며 ICML의 정책에 대해 근시안적인 규칙이라고 비판했다. 허깅 페이스의 마가렛 미첼 수석 윤리 과학자는 챗GPT를 사용할 경우 여러 문제점이 우려될 수 있지만 논문 작성을 금지하는 것은 과하다는 입장을 밝혔다. 그는 “이미 챗GPT를 활용하면 나타날 수 있는 문제점에 대해선 알고 있는 만큼 이에 대한 대비를 하고 사람을 도울 수 있는 방향을 고려하는 것이 필요하다”며 “챗GPT를 비롯한 새로운 생성형AI에 대해 콘텐츠를 만드는 작성자가 아닌 도구로 이해해야 할 필요가 있다”고 강조했다.