"AI 논문, 심사도 통과하나"…日 사카나, 학계 피어 리뷰 실험 '도전'
일본 인공지능(AI) 스타트업 사카나가 자사 모델이 작성한 논문의 심사 통과 여부를 검증하는 실험을 진행했다. AI 기술이 학문적 연구에서 어느 정도로 신뢰받을 수 있는지를 확인하려는 시도다. 13일 테크크런치에 따르면 사카나는 자사 'AI 사이언티스트-v2' AI 모델을 활용해 과학 논문을 자동 생성한 뒤 국제 학습 표현 학회(ICLR) 워크숍에 제출했다. 총 3편 중 1편이 심사를 통과했으나 회사는 투명성을 이유로 해당 논문을 공식 발표 전 철회했다. 사카나는 브리티시컬럼비아대학교와 옥스퍼드대학교 연구진과 협력해 논문을 제출했다. AI는 연구 가설 설정부터 실험, 데이터 분석, 논문 작성까지 '엔드 투 엔드' 방식으로 논문을 생성했다. 사카나는 워크숍의 개요와 설명을 AI에 입력해 주제 적합성을 확보했다고 밝혔다. 심사를 통과한 논문은 AI 모델의 학습 기법을 비판적으로 검토하는 내용을 담고 있었다. 다만 회사는 AI가 '인용 오류'를 범하는 등 일부 문제점이 발견돼 논문을 자진 철회했다고 설명했다. 실제로 원래는 지난 1997년에 발표된 연구 결과를 2016년 작성된 논문으로 대신 인용하는 등의 실수가 있었다. ICLR의 워크숍 논문 심사는 일반적인 학술대회보다 채택 기준이 다소 낮다는 점도 고려해야 한다. 사카나 측도 AI가 작성한 논문 중 어느 것도 ICLR 메인 학회 트랙의 기준을 충족하지 못했다고 인정했다. 업계 전문가들은 AI가 연구 논문을 작성할 수 있는 가능성을 보여줬지만 신뢰성 문제는 여전히 해결해야 할 과제라고 지적한다. 매튜 구즈디얼 앨버타대학교 교수는 "이번 사례는 AI가 단독으로 연구를 수행할 수 있다는 증거가 아니다"며 "다만 인간과 AI의 협업이 효과적일 수 있음을 보여주는 사례"라고 평가했다. 마이크 쿡 킹스칼리지 런던 연구원도 AI의 논문 작성 능력보다 '심사 과정의 한계'를 우려했다. 그는 "워크숍 심사는 신진 연구자들이 담당하는 경우가 많다"며 "주제가 '실패 사례'를 다룰 경우 AI가 그럴듯한 논문을 만들기 쉬울 수도 있다"고 설명했다. AI가 과학 연구에서 실질적 기여를 할 수 있을지에 대한 논쟁도 이어지고 있다. AI의 환각(hallucination) 문제와 검증되지 않은 데이터 사용은 연구의 신뢰성을 위협할 수 있다는 지적이 나온다. 일부 전문가들은 AI가 단순히 '논문 심사를 통과하는 데 집중'하는 것이 아니라 실제 과학적 발전에 기여해야 한다고 강조했다. 사카나 관계자는 "연구 커뮤니티와 지속적으로 의견을 교환하며 AI 기술이 단순히 피어 리뷰를 통과하는 데 목적을 두는 방향으로 발전하지 않도록 노력할 것"이라며 "그런 상황이 발생할 경우 심사 과정의 의미가 크게 훼손될 수 있다"고 밝혔다.