AI 로봇, 인류 위협 '터미네이터' 될 수도…어떻게?
인공지능(AI)으로 무장한 로봇 플랫폼이 많은 사람들의 관심이 쏠리고 있다. 특히 챗GPT를 비롯한 대규모 언어모델(LLM) 기반 AI 시스템은 인간을 뛰어넘는 실력을 과시하면서 엄청난 각광을 받고 있다. 그런데 AI 로봇을 해킹할 경우 인간에게 해를 끼칠 수 있다는 연구 결과가 발표돼 눈길을 끌고 있다. 미국 펜실베니아 공과대학 연구진들이 여러 AI 기반 로봇 플랫폼에서 그 동안 알려지지 않았던 보안 취약점을 발견했다고 IT매체 디지털트렌드를 비롯한 외신들이 17일(현지시간) 보도했다. 연구진들은 이 같은 내용을 담은 '대규모 언어모델(LLM)로 통제하는 로봇 탈옥하기'란 제목의 논문을 발표했다. 논문 교신 저자인 조지 파파스(George Pappas) 펜실베니아 공대 연구부문 부학장은 "우리 연구는 LLM이 물리적 세계와 통합됐을 때 충분히 안전하지 않다는 것을 보여준다”고 밝혔다. 파파스가 이끄는 연구진은 LLM 제어 로봇을 탈옥하도록 설계된 최초의 알고리즘 '로보페어'(RoboPAIR)를 개발했다. 이 알고리즘은 LLM이 탑재된 로봇 플랫폼에 유해한 신체적 행동을 유도하도록 특별히 제작됐다. 로보페어는 ▲다양한 응용분야에서 사용되는 사족보행 로봇 유니트리의 고(Go)2 로봇 ▲학술 연구에 자주 사용되는 바퀴 달린 클래어패스 로보틱스의 자칼 ▲엔비디아가 설계한 자율주행 시뮬레이터 돌핀스 LLM 시뮬레이터 등 3개의 로봇 플랫폼을 탈옥하는 데 100% 성공했다. 해당 알고리즘이 AI 로봇 시스템에 접근해 불과 며칠 만에 100% 탈옥에 성공한 것으로 알려졌다. 그 결과 로봇의 제어권을 탈취해 자율주행 차량이 교차로에서 정지하지 않고 그대로 통과하는 등 위험한 행동을 취하도록 지시할 수 있었다고 연구진은 설명했다. 또, 연구진은 “문제 해결을 위해 필요한 것은 '소프트웨어 패치'보다는 AI를 물리적 시스템에 통합하는 방식을 전면적으로 재평가하는 것”이라며, "현실 세계에 AI 기반 로봇을 배치하기 전에 본질적인 취약성을 해결해야 한다"고 인류에 재앙을 초래할 수 있는 로봇 해킹의 위험성을 경고했다. 연구진은 “사회적 규범에 부합하는 행동만 하는 로봇 시스템과 이를 보장하는 검증 프레임워크를 개발 중”이라고 덧붙였다.