뇌분야 AI파운데이션 모델 첫 개발…"당장 실용화 가능"
딥러닝 기반 뇌신호 분석에서 한계로 꼽혀 온 '레이블 데이터 부족' 문제를 국내 연구진이 새로운 AI 파운데이션 모델로 해결했다. 기술성숙도(TRL)로는 실용화 수준인 5단계 정도로, 상용화 바로 전단계라는 것이 연구진 설명이다. DGIST는 지능형로봇연구부 안진웅 박사 연구팀이 뇌신호를 스스로 학습하도록 설계, 극도로 적은 양의 레이블만으로도 기존 대비 높은 정확도(최저8~최고20% 향상)를 구현할 수 있는 AI파운데이션 모델을 개발했다고 26일 밝혔다. 이번 연구는 안진웅 박사(지능형로봇연구부 책임연구원, 융합전공 겸무교수)와 정의진 박사후연수연구원(로봇및기계전자공학연구소, 바이오체화형피지컬AI연구단)이 공동 수행했다. 연구팀은 "EEG(뇌파)와 fNIRS(기능적 뇌혈류) 신호를 모두 이해하고 분석할 수 있는 '뇌파–기능뇌혈류 멀티모달 파운데이션 모델'을 세계 최초로 구현했다"고 말했다. 이들은 총 918명으로부터 약 1천250시간에 걸친 초대형 뇌신호 데이터를 확보해, 레이블 없이 비지도 방식으로 모델을 학습시켰다. 이를 통해 EEG와 fNIRS 각각의 고유한 특징뿐 아니라 두 신호가 공유하는 잠재적인 표현까지 동시에 파악할 수 있도록 설계했다. 기존에는 EEG와 fNIRS를 동시에 측정한 데이터 확보가 거의 불가능해 멀티모달 AI 구축에 큰 제약이 있었지만, 이번 연구에서 개발된 모델은 동시계측 데이터 없이도 학습이 가능하도록 설계했다. 소량의 레이블만으로도 높은 정확도를 구현하며 EEG 단독 분석, fNIRS 단독 분석, 두 신호를 결합한 멀티모달 분석까지 하나의 모델로 모두 수행할 수 있어 기존 기술의 구조적 한계를 완전히 넘어섰다. 안진웅 박사는 “멀티모달 뇌신호 분석이 가진 구조적 제약을 뛰어넘은 최초의 프레임워크"라며 "뇌신호 AI 분야에서 근본적인 혁신을 이뤄냈다”고 설명했다. 안 박사는 또 “특히 두 신호 간 공유 정보를 정렬하는 대조 학습 전략이 모델의 표현력을 대폭 확장했고, 이는 뇌창발인공지능(Brain-Inspired AI)과 뇌–컴퓨터 인터페이스(BCI) 등 미래 뇌공학 기술 발전에 중요한 전환점이 될 것”이라고 말했다. 공동 연구자인 정의진 박사후연수연구원은 "실용화가 바로 가능한 수준이다. 안진웅 박사가 대표로 있는 포피엠엑스를 통해 상용화를 추진 중"이라고 덧붙였다. 이 연구는 과학기술정보통신부와 한국연구재단의 지원을 받아 수행됐더. 연구결과는 계산생물학 및 의료정보학 분야 국제 학술지(Computers in Biology and Medicine)에 게재됐다.