메타, 생각을 이미지로 구현하는 AI 공개
메타가 실시간으로 두뇌 활동을 인식한 뒤 이미지로 재구성하는 인공지능(AI) 시스템을 공개했다. 19일(현지시간) 실리콘앵글 등 외신에 따르면 메타는 비침습적 신경영상 기술인 뇌자기검사(MEG)를 사용해 뇌의 활동을 시각적으로 표현할 수 있는 AI시스템을 개발했다고 밝혔다. 뇌자기검사를 활용한 이 AI의 특징은 사람의 뇌파를 매번 학습시킬 필요가 없다는 점이다. 기존 이미지 데이터를 학습시키는 것 만으로 생각을 읽을 수 있고, 추후 정확도를 높일 수 있다고 메타가 강조했다. 뇌자기검사는 뇌신경세포의 전기적 활동을 실시간으로 기록해 고해상 영상으로 전환하는 기술이다. 메타는 국제 학술연구원 컨소시엄 씽즈(THINGS)에서 공개한 데이터 세트를 기반으로 AI를 훈련시켰다고 밝혔다. 메타가 공개한 해당 AI로 생성한 이미지는 아직 불안정하지만 사용자가 보는 이미지와 유사한 범주의 요소로 이미지를 구현하는 것으로 나타났다. 정장을 입은 남자는 경찰복 등 여러 제복이 뒤섞였으며, 치타의 경우 멧돼지 등 얼룩무늬가 있는 동물 이미지가 결합돼 표현됐다. 비행기나 얼룩말, 고양이 등은 거의 비슷하게 표현됐지만 배경 등이 다르게 나타났다. 메타 측은 아직 AI의 정확성이 높지 않아 일부 개체를 잘못 배치하거나 방향을 잘못 지정하여 부정확한 이미지가 생성되는 경우가 있다고 밝혔다. 또 학습과정에서 데이터 지정 범주가 예상보다 넓어 혼선이 빚어진 것으로 보인다고 설명했다. 메타의 새로운 AI는 이미지 인코더, 브레인 인코더, 이미지 디코더 등 세 부분으로 이뤄져 있다. 이미지 인코더는 뇌와 별개로 이미지를 표현할 수 있는 다양한 데이터를 생성한다. 뇌 인코더는 뇌에서 발생하는 수 많은 MEG 신호를 적합한 이미지로 표현하며, 이미지 디코더는 이미지 데이터로 표현된 수 많은 데이터를 결합해 이미지를 생성한다. 메타 측 관계자는 “이번에 공개한 AI는 두뇌가 인식하고 처리하는 내용을 이미지를 재구성할 수 있다”며 “이는 과학계가 뇌에서 어떻게 이미지가 표현되고 인간 지능의 기초로 사용되는지 이해하는 데 도움이 되는 중요한 길을 열어줄 것”이라고 강조했다. 이어서 “또한 장기적으로는 뇌 손상을 입은 후 말하는 능력을 잃은 사람들을 도울 수 있는 비침습적 뇌-컴퓨터 인터페이스 개발의 기반이 될 것으로 기대한다”고 말했다.