"국산 AI, 글로벌 시장서도 통한다"…임정환 모티프 대표의 자신감
"구글이나 오픈AI도 실제로 프로젝트 핵심 개발자는 30명 안팎입니다. 중요한 건 사람 수가 아니라 그 팀의 집중력과 문제 해결 능력입니다." 임정환 모티브테크놀로지(이하 모티프) 대표는 7일 서울 역삼동 사옥에서 진행한 인터뷰에서 이같이 말하며, 독자 인공지능(AI) 모델 개발에 대한 자신감을 내비쳤다. 그 자신감은 구체적인 성과로 이어지고 있다. 모티프가 자체 설계·개발한 소형언어모델(sLLM) '모티프 2.6B'는 글로벌 빅테크가 내놓은 동급 AI 모델들을 벤치마크에서 능가했다. 임 대표는 대규모 인프라와 투자를 앞세운 빅테크에 대응하기 위해 오픈소스 전략을 기반으로 독립적 기술 내재화에 집중하고 있으며, 데이터 주권과 기술 주체성을 확보하는 것이 국가적 과제로 자리잡아야 한다고 강조했다. 모티프 2.6B, 글로벌 빅테크 뛰어넘은 국산 sLLM 지난 6월 공개한 모티프 2.6B는 총 26억 개의 파라미터를 갖춘 경량 AI 모델이다. AMD MI250 GPU 한 장만으로도 추론이 가능하며 엔비디아 기반 인프라 대비 약 60% 수준의 비용으로 학습과 운영이 가능하다. 산업 현장에 적용 가능한 고성능 모델로 실용성과 효율성을 모두 갖췄다. 성능도 검증됐다. 벤치마크 결과, 프랑스 미스트랄의 7B 모델보다 134%, 구글 젬마 2B 대비 191%, 메타 라마 3.2(1B)보다 139%, AMD 인스텔라 3B보다 112%, 알리바바 첸(Qwen) 2.5(3B)보다 104% 높은 점수를 기록했다. 문장 내 문맥 파악과 응답 정확도를 높이기 위한 어텐션 메커니즘을 정밀하게 조정한 설계가 핵심이다. 임 대표는 "모티프 2.6B는 단순히 공개된 오픈소스AI에 추가학습을 거치거나 일부 코드를 수정한 모델이 아니라 모델 구조 설계부터 학습 데이터 구성, 학습 파이프라인까지 처음부터 끝까지 전부 독자적으로 개발했다"고 강조했다. 그는 "남이 만든 모델을 조금씩 바꾸는 방식으로는 세계 수준에 도달할 수 없다고 판단했다"며 "그래서 처음부터 끝까지 전부 직접 만들었다"고 개발 이유를 설명했다. 모티프는 이 모델을 계기로 온디바이스 AI와 에이전틱 AI 분야로 확장을 본격화한다. 경량화를 통해 슈퍼컴퓨터 없이도 구동이 가능해, 산업 현장에서의 적용성이 높기 때문이다. 또한 올해 말에는 텍스트 투 이미지(T2I), 텍스트 투 비디오(T2V)와 같은 멀티모달 생성형 AI 모델도 오픈소스로 공개할 계획이다. 이들 모델 역시 AMD 기반 인프라에서 학습 및 서비스가 가능하도록 설계되고 있다. 글로벌 빅테크와 경쟁하는 세 가지 기술 전략 임 대표는 글로벌 AI 빅테크의 성능 경쟁을 가능하게 한 강점으로 세 가지를 꼽았다. 먼저 프롬 스크래치(From scratch) 개발 경험이다. 처음부터라는 의미처럼 모델 구조부터 토크나이저, 학습 파이프라인까지 전 과정을 독자적으로 설계했다. 이러한 풀스택 설계 경험은 단순한 성능 개선을 넘어서 추후 온디바이스 AI, 에이전틱 기술 등 다양한 산업 현장 적용을 위한 최적화와 확장성의 기반이 된다. 또한 외부 의존 없이 독립적으로 고성능 AI를 구현할 수 있는 역량을 국내에서 입증했다는 점에서 한국 AI 기술 자립의 상징적인 사례로 주목받고 있다. 임정환 대표는 "많은 경우 메타의 라마의 등 오픈소스 모델을 기반으로 학습하거나 파인튜닝에 그치는데 진짜 기술력은 처음부터 끝까지 직접 만들어봐야 생긴다"며 "우리는 구조도 다르고 토크나이저도 따로 설계하는 등 모든 작업을 직접 수행하고 구현했다"고 자신감을 보였다. 오픈AI, 구글 등 글로벌 빅테크 기업들이 최근 AI 모델 구조와 학습 데이터를 비공개로 전환하는 흐름 속에서, 임 대표는 오픈소스 전략이 오히려 글로벌 경쟁력을 확보하는 핵심 요소가 될 수 있다고 강조했다. 특히 그는 "최근 몇 년간 전 세계 AI 연구 커뮤니티를 중심으로 모델 구조, 학습 데이터, 평가 지표 등이 오픈소스로 활발히 공유되며, 이제는 대규모 자본 없이도 경쟁력 있는 모델 개발이 가능한 시대가 됐다"고 설명했다. 이러한 개방형 생태계는 소규모 팀도 기술을 빠르게 내재화하고 실험하며 경쟁에 뛰어들 수 있는 토대를 제공하고 있다는 것이다. 임 대표는 "우리는 작은 팀이지만, 자체 설계와 오픈소스의 힘을 기반으로 글로벌 빅테크 모델과 성능 경쟁을 하고 있다”며 “모두가 같은 출발선에서 시작할 수 있는 시대, 중요한 건 내부 기술력과 집중력"이라고 말했다. 이어 "빅테크는 보유한 기술이나 데이터 유출을 우려해 점점 더 비공개로 전환하고 있다"며 "반면 우리는 오픈소스 생태계를 통해 다양한 기술과 데이터를 활용하고 이를 투명하게 공개하고 검증함으로써 충분히 경쟁할 수 있는 환경이 조성되고 있다"고 강조했다. 세번째는 하드웨어(HW)와 소프트웨어(SW)를 동시에 아우르는 기술력이다. 이를 통해 비용과 인프라 여건이 제한적인 환경에서도 고성능을 낼 수 있도록 모델을 구조적으로 최적화하는 것이 가능하다. 대표적으로 모티프 2.6B는 AMD의 MI250 GPU 단 한 장만으로도 추론이 가능하도록 설계한 것이 특징이다. 엔비디아 GPU 환경과 비교해도 약 60% 수준의 비용으로 학습 및 운영이 가능하다. 이러한 경량화 설계는 고성능 슈퍼컴퓨터 없이도 실사용 환경에서 AI를 적용할 수 있게 만들어준다. 실제로 해당 모델은 산업 현장, 온디바이스 AI, 에이전틱 기술 등 다양한 실용 영역에서의 확장 가능성을 지닌다. 임 대표는 "AI는 단순히 성능이 좋다고 끝이 아니라 한정된 하드웨어 자원에서 최적의 퍼포먼스를 낼 수 있어야 한다"며 "모든 서비스는 결국 현장에서 쓰여야 의미가 있는 만큼 우리는 실제 적용 가능한 AI를 만드는 데 집중하고 있으며 이를 위해 하드웨어 제약까지 고려한 전방위 최적화를 수행하고 있다"고 강조했다. 딥마인드도 수학에서 시작, 기초과학 생태계 구축 우선되야 임정환 대표는 "챗GPT가 막히면 아무것도 못하는 나라가 될 수도 있다는 위기의식이 있어야 한다"라며 한국 AI 생태계가 GPU, 인재, 데이터 등 인프라 측면에서 글로벌 대비 열세에 있다는 현실을 인정하면서도 그렇기 때문에 '자체 기술 확보'가 더욱 중요하다고 강조했다. 그는 단기적으로는 챗GPT 같은 외부 API를 활용하는 것이 빠르고 효율적일 수 있지만 외부 플랫폼 의존은 언제든 정책적, 보안적, 기술적 제약으로 이어질 수 있다는 점에서 장기적 관점에서 독립적인 기술 대안 확보가 필수라고 진단했다. 임 대표는 정부의 역할에 대해서도 "단기성 과제 중심의 R&D보다는, 기업이 장기 투자 결정을 내릴 수 있도록 제도적 유연성과 정책적 일관성을 마련해야 합니다"라고 조언했다. 그는 "기업 입장에서 예산보다 더 중요한 건 방향성"이라며 정부가 정말 AI에 진지하게 투자하려는 의지가 있다는 신호를 줄 수 있어야 한다"고 덧붙였다. 또한 미국, 일본처럼 민간 주도, 정부 후원 구조가 형성돼야 하며, 한국도 기초과학 투자, 오픈소스 생태계 조성, 인재 양성 등을 포함한 장기 비전 아래 생태계를 설계해야 한다고 제언했다. 특히 AI 기술의 근간이 되는 수학, 통계, 컴퓨터과학 등 기초과학 분야에 대한 국가적 관심과 장기적 투자 확대가 절실하다고 강조했다. 이를 위해 영국 유학 시절 경험을 바탕으로 AI열풍을 일으킨 딥마인드의 출발점 역시 기초과학 기반의 문제 해결 연구였다는 점을 예로 들었다. 그는 "딥마인드를 만든 초기 멤버들은 원래 신약 개발이나 뇌과학을 연구하던 과학자들"이라며로 "시작은 상용 AI가 아니 기초 수학과 과학 연구였다"고 말했다. 산업과 학문이 긴 호흡으로 연결돼야 한다는 점도 강조했다. 지금처럼 산업계는 결과물 중심, 학계는 논문 중심으로 따로 움직이는 구조로는 한국에서 딥마인드 같은 모델이 탄생하기 어렵다는 것이다. 임정환 대표는 "AI를 비롯한 모든 기술의 본질은 수학과 과학"이라며 "그 기반이 튼튼해야 진짜 경쟁력을 갖출 수 있다"고 말했다. 그는 "기업이 기초 수학이나 과학에 자연스럽게 투자할 수 있는 분위기를 정부가 조성해야 한다"며 "그래야 AI를 비롯한 다양한 기술을 주도할 수 있는 국가가 될 수 있을 것"이라고 비전을 제시했다.