챗GPT, 정신 치료 가능할까...전문가 "시기상조"
오픈AI가 만든 챗GPT와 언어 모델이 치매 진단, 우울증, 상담 등 정신 치료에 유용하다는 실험 결과가 나오고 있다. 그러나 전문가들은 인간의 정신을 AI로 진단·치료하는 효과는 증명된 바 없고 윤리적 문제도 뒤따라 온다고 지적한다. 미국 드렉셀대 연구진은 챗GPT에 활용한 GPT 모델을 통해 사람이 하는 말을 토대로 치매 초기 단계를 80%까지 예측하는 진단 도구를 올해 초 내놨다. 일반적으로 언어 장애는 치매 환자의 60~80%에서 나타난다. 연구팀은 환자가 대화 중 보이는 문법·발음 실수, 망설임, 단어 의미 잊음 등과 같은 단서를 포착하는 테스트 시스템을 만들었다. 그 후 미국국립보건원에서 치매 환자의 음성 녹음 데이터셋을 받아 GPT 모델을 훈련했다. 언어모델은 특정 단어 사용, 문장 구조, 의미 등을 텍스트로 추출해 치매 가능성이 있는 환자의 언어적 특징을 익혔다. 이를 테스트 시스템에 접목해 훈련을 반복했다. 타 언어모델과 성능을 비교하기 위해 다른 자연어 처리 프로그램 2개를 동시에 테스트했다. 결과적으로 GPT-3가 치매 진단을 80% 정확도로 식별했으며, 오진단 사례는 나머지 두 프로그램보다 적은 것으로 나타났다. 치매 중증도를 판단하는 테스트인 MMSE(Mini-Mental State Exam) 점수 예측 프로그램보다 20% 더 정확한 것도 입증됐다. 연구팀은 향후 집이나 병원에서 사전 검사 도구로 사용할 수 있는 웹 앱을 구축할 계획도 밝혔다. 일반 기업도 챗GPT와 GPT-3 모델로 심리 상담 앱을 업그레이드했다. 무료 정신 건강 서비스를 운영하는 기업 코코는 GPT-3를 앱에 탑재해 사람들이 심리 상담을 받게 했다. 코코는 온라인 감정 지원 채팅 서비스다. 주로 심각한 우울증, 자살 시도, 인간 관계 관련한 심층적 상담을 지원하는 채팅 서비스다. 사용자는 코코에서 활동하는 익명 자원봉사자와 메시지로 대화한다. 올해 초 코코 운영자는 사람 대신 GPT-3를 적용해 기계가 답변할 수 있도록 설정했다고 밝혔다. 인간 자원봉사자가 아닌 AI가 답한 것에 대한 효과가 무엇인지 테스트하기 위해서다. 지금까지 사용자 4천명이 해당 방식으로 상담 받았다. 방문자들은 우울증 등 정신적 고통을 챗GPT 기능을 갖춘 코코에 털어놨다. 결과적으로 코코는 AI가 답한 메시지가 인간이 쓴 것보다 현저히 높은 평가를 받았다고 밝혔다. 응답 시간은 평균 1분 미만으로 사람보다 2배 빨랐다. 그러나 코코는 이용자들에게 사람이 아닌 AI가 답할 것이라는 점을 사전에 알리지 않아 뭇매를 맞고 있다. 게다가 정신과 전문의들은 AI 언어 모델을 정신적 치료에 사용하면 장기적으로 효과는 줄어들 것이며 윤리적인 문제도 피할 수 없다고 주장한다. 뉴욕대 아서 캐플런 생명윤리학과 교수는 "이번 코코 사태처럼 사용자에게 알리지 않고 AI 기술을 사용하는 비윤리적인 행태가 앞으로 지속될 것이다"며 "특히 챗GPT 등 챗봇을 통한 정신적 진단과 판단은 아직 표준 치료법이 아니다"고 지적했다. 그는 "지금까지 어떤 정신의학자나 심리학자들도 챗GPT나 GPT-3 등을 통한 심리 치료의 효능을 검증하거나 옹호하지 않은 상태다"고도 강조했다.