UNIST, AI 모델 실행 코드 찾는 '오토튜닝' 속도 2~2.5배 ↑
딥러닝 AI 모델을 실행 가능한 프로그램 형태로 바꾸는 데 걸리는 시간을 절반 이상 줄이는 기술이 개발됐다. UNIST는 컴퓨터공학과 이슬기 교수팀이 오토튜닝 과정을 최대 2~2.5배 빠르게 할 수 있는 기법을 개발했다고 12일 밝혔다. 연구결과는 이달 초 미국 보스톤에서 열린 컴퓨터 시스템 분야 국제 학회인 OSDI(Operating systems Design and Implementation)에 공개됐다. 총 338편의 논문이 제출돼 이 중 48편만이 채택됐다. OSDI는 SOSP(Symposium on Operating systems Principles)와 함께 컴퓨터 시스템 분야 양대 학회로 꼽힌다. 구글 '텐서플로'와 같은 AI 기술도 이 학회에서 공개된 바 있다. OSDI에 한국인 주저자 연구가 채택돼 공개된 사례는 올해 UNIST와 함께 채택된 서울대학교 이재욱 교수팀 연구결과를 지난 20여 년간 단 12건 뿐이다. AI 모델이 실제 작동하려면 사람이 짠 고수준의 프로그램인 AI 모델을 컴퓨터 연산장치가 이해할 수 있는 형태로 다시 바꾸는 '컴파일' 과정이 필요하다. 예를 들어 '고양이 사진을 구분해줘'라는 명령도 수천 줄에 이르는 복잡한 계산 코드로 바꿔야 연산장치인 GPU나 CPU가 실제로 실행할 수 있다. 오토튜닝은 이 과정에서 가능한 수십만 개의 코드 조합 중 연상 장치에서 가장 빠르고 효율적인 구성을 자동으로 찾아주는 기술이다. 하지만 경우에 따라 튜닝 시간이 수십 분에서 수 시간까지 걸릴 정도로 연산 부담이 크고, 전력 소모도 많다는 것이 문제였다. 연구팀은 딥러닝 모델 안에 반복되는 계산 구조가 많다는 점에 주목해 유사한 연산자끼리 정보를 공유하는 방식으로 탐색 범위를 줄였다. 코드 조합을 일일이 새로 찾는 대신 기존 결과를 재활용해 오토튜닝 속도를 높인 것. 실제 이 방식을 기존 오토튜닝 프레임워크(Ansor)에 적용한 결과, 동일한 성능의 실행 코드를 생성하는 데 걸리는 시간이 CPU 기준 평균 2.5배, GPU 기준 평균 2배 단축됐다. 이슬기 컴퓨터공학과 교수는 “컴파일 시간을 줄이면서도 GPU나 CPU를 직접 실험에 쓰는 횟수가 줄어 제한된 연산 자원을 효율적으로 쓸 수 있을 뿐만 아니라 전력 소모도 줄일 수 있다”고 말했다. 이번 연구는 UNIST 정이수 연구원이 제1저자로 참여했다. 연구 수행은 과학기술정보통신부 정보통신기획평가원의 지원을 받아 이뤄졌다.