게임 중 혐오 발언, AI로 잡는다
게임 이용자 대화 속 혐오 표현을 탐지하는 인공지능(AI) 기술이 나왔다. 미국 IT매체 뉴사이언티스트는 게임 사용자들이 주고 받은 음성 대화를 기록, 분석해 욕설 등을 인식하는 AI '톡스모드'를 7일(현지시간) 소개했다. 톡스모드는 기본적인 선별 과정을 통해 혐오 발언 가능성을 감지한다. 대화 중 나오는 게임 용어와 직접적인 욕설을 구분할 수 있다. 정확도는 98%다. 만약 사용자가 게임 중 욕설을 할 경우, 톡스모드는 이를 저장해 게임 관리자에게 전송한다. 관리자는 저장된 대화를 듣고 사용자에게 적절한 조치를 취한다. 가장 대표적인 조치는 음소거와 게임 접속 차단이다. 가상현실 슈팅 게임인 '레이더스'는 최근 톡스모드를 프로그램에 탑재했다. 레이더스 측은 "톡스모드 적용 후 게임 중 발생하는 욕설이 절반으로 줄었다"고 밝혔다. 최근 회사 측에서 진행한 설문 결과에 따르면 "레이더스에서 욕설을 들은 적 있다"고 응답한 사용자 비율은 70%에서 35%로 감소했다. 지난해 미국 반명예훼손연맹 보고서에 따르면 인터넷 게임 사용자 약 80% 이상이 욕설 등 혐오 발언을 접한 것으로 드러났다. 반명예훼손연맹 다니엘 켈리 뉴욕본부장은 "게임 공간에 인종차별, 반유대주의가 자리를 차지하지 않도록 AI 등 신기술을 통한 노력이 필요하다"고 전했다. 일각에서는 AI로 인한 혐오 표현 감지 실효성에 물음표를 던졌다. 독일 뮌헨 루트비히 막시밀리안대 사하나 우두파 교수는 "인간은 교묘한 단어 조합이나 구문 변경으로 AI 감지 기술을 피할 수 있다"며 "이러한 행태는 게임 음성 채팅뿐 아니라 일반 커뮤니티에서도 벌어지는 행태다"고 지적했다.