• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'모티프테크놀로지스'통합검색 결과 입니다. (5건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 대기업 발 뺀 독파모 '패자부활전'…모티프·트릴리온랩스 덕에 활기

정부가 국가대표 AI를 선발하는 독자 파운데이션 모델(독파모) 프로젝트에 '패자부활전'을 도입한 후 여러 대기업이 외면하는 것과 달리 스타트업이 잇따라 도전장을 던지면서 새로운 활기를 불어넣고 있다. 이들 중 한 곳이 추가 컨소시엄으로 선정될 경우 독파모 사업이 대기업과 스타트업의 대결 구도로 펼쳐질 것으로 예상된다.20일 업계에 따르면 모티프테크놀로지스, 트릴리온랩스는 조만간 진행되는 독파모 개발 사업 추가 공모에 참여할 예정이다. 모티프테크놀로지스, 트릴리온랩스는 각각 주관기업, 참여기업으로 독파모 1차 공모에 도전했다가 탈락한 바 있다. 모티프테크놀로지스는 반도체 기업 모레 자회사로, 고성능 대형언어모델(LLM)과 대형멀티모달모델(LMM) 모두를 파운데이션 모델로 개발한 경험을 갖췄다. 특히 지난 해 11월 공개한 LLM '모티프 12.7B'는 모델 구축부터 데이터 학습까지 전 과정을 직접 수행한 순수 국산 기술이란 점에서 주목 받고 있다. 기존 트랜스포머 구조를 그대로 쓰지 않고 '그룹별 차등 어텐션(GDA)' 기술을 자체적으로 개발해 적용해 경쟁력이 있다고 평가 받는다. 모티프테크놀로지스 관계자는 "이는 단순히 모델을 바닥부터 학습시키는 '프롬 스크래치'를 넘어 지능 핵심인 어텐션 함수와 모델의 아키텍처 자체를 새롭게 설계한 것"이라며 "12.7B 파라미터의 비교적 작은 LLM인 이 모델은 글로벌 AI 모델 성능을 종합평가하는 '아티피셜 애널리시스'의 인텔리전스지수(AAII)에서 675B에 달하는 '미스트랄 라지 3' 같은 대형 LLM보다 높은 점수를 기록했다"고 설명했다. 트릴리온랩스도 핵심 전략으로 완전한 '프롬 스크래치'를 내세워 이번에 도전장을 던진다. 이곳은 이미 의료 AI 스타트업 루닛과 함께 정부의 'AI 특화 파운데이션 모델' 사업자로 선정돼 의과학·바이오 특화 AI 모델 개발 과제를 수행하며 기술력을 입증하고 있다.특히 설립 1년 만에 700억(70B) 매개변수 규모의 LLM을 자체 기술로 개발한 경험이 있다는 점에서 기대감을 높이고 있다. 또 트릴리온랩스가 보유한 '도메인 특화 증류 기반 소형 LLM 전문가 혼합(MoE) 구조 기술'은 국가전략기술로 채택되기도 했다. 신재민 트릴리온랩스 대표는 "특화 AI 모델 개발 과제에 참여 중이어서 그동안 독파모 추가 공모에 참여해도 될지 망설였다가 최근 정부로부터 지원 자격에 제한이 없다는 답변을 받고 이처럼 결정하게 됐다"며 "그동안 프롬 스크래치 모델을 만들기 위해 전력을 쏟았던 만큼, 이번에 도전하면 승산이 있다고 생각했다"고 밝혔다. 이어 "GPU를 H100 기준 2천 장을 사용해 '덴스(Dense)' 구조로 70B 모델을 선보여 봤던 경험이 있다는 점도 우리의 경쟁력"이라며 "H100, H200, B200 등 다양한 GPU를 사용했던 경험과 완전한 프롬 스크래치 아키텍처로 AI 모델을 개발해봤던 저력이 있던 만큼 충분히 경쟁할 수 있을 것으로 본다"고 덧붙였다. 실제 트릴리온랩스가 강조한 '덴스 모델'은 독파모 1차 경쟁 5개 업체 중 네이버클라우드가 유일하게 적용해 주목 받은 바 있다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다.다만 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수가 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 평가가 많았다. 당초 1차 심사 때 옴니 모델을 14B로 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 것도 아쉬운 점으로 지목됐다.트릴리온랩스는 70B에 '덴스 모델'을 적용했다는 점에서 이번 추가 모집에서 우위를 차지할 수 있을 것으로 자신하는 분위기다. 또 개발 과정에서 '중간 체크포인트(Checkpoint)'를 매번 공개하면서 그간 독파모 선발 과정에서 제기됐던 '독자성'에 대한 의혹도 즉시 차단한다는 방침이다. 신 대표는 "10% 학습된 모델, 20% 학습된 모델 등을 개발했을 때마다 공개해 누구나 다운 받아 트래킹할 수 있도록 개방할 것"이라며 "최종 공개된 모델까지 극단적으로 투명하게 공개해 독자성 등과 관련한 논란을 원천 봉쇄할 수 있게 할 것"이라고 설명했다. 이어 "우리 모델이 진화하는 모습을 보면서 더 많은 사람들이 관심을 가지고 연구하게 될 것이라 믿는다"며 "자연스럽게 국내를 넘어 글로벌 AI 학습 생태계가 더 활발히 조성될 수 있도록 하는 것이 목표"라고 부연했다. 이 같은 분위기 속에 정부는 조만간 LG AI연구원과 업스테이지, SK텔레콤 등 독파모 2차 단계에서 함께 실력을 겨룰 1개 컨소시엄 선발에 대한 공고를 할 예정이다. 이번에 선발된 1개 팀은 이르면 7월 중순께 시행될 2차 평가에서 3개 컨소시엄과 실력을 겨루게 된다. 만약 모티프테크놀로지스나 트릴리온랩스 중 한 곳이 선정되면 LG AI연구원, SK텔레콤 등 대기업 2곳과 업스테이지 등 스타트업 2곳의 경쟁이 펼쳐질 것으로 보인다. 그러나 네이버클라우드와 KT, 카카오, NC AI 등 기존 독파모 탈락 대기업들은 지식재산권(IP) 부담과 '탈락 기업'이라는 낙인 리스크에 대한 우려로 추가 선발전에 참여하지 않기로 했다. 이처럼 대기업의 잇따른 불참 결정으로 독파모 패자부활전의 불씨가 꺼져가는 듯 했으나 스타트업들이 참여 의사를 밝히면서 정부도 흥행에 다시 기대감을 드러내는 눈치다. 코난테크놀로지스 등 일부 업체들도 참여 여부를 두고 고심 중인 것으로 알려졌다. 류제명 과기정통부 2차관은 지난 15일 브리핑에서 "추가 참여 기업에도 총 프로젝트 기간과 정부가 지원하는 GPU·데이터는 동일하게 설계해 제공할 것"이라며 "프로젝트 종료 시점이 다르더라도 2단계를 마칠 때까지 동일한 기간을 보장하고, 평가는 6~7월로 한 달 정도 유연하게 운영할 계획"이라고 밝혔다.

2026.01.20 16:27장유미 기자

모티프테크, 국가대표 AI 재도전 나선다…"정예팀 구성 논의 중"

모티프테크놀로지스(Motif Technologies)가 정부 주도 국가대표 인공지능(AI) 모델 개발 사업에 재도전을 시사했다. 모티프테크놀로지스는 과학기술정보통신부가 조만간 공고할 '독자 AI 파운데이션 모델(독파모)' 개발 사업 추가 공모에 참여할 예정이라고 20일 밝혔다. 모레 자회사인 모티프테크놀로지스는 고성능 대형언어모델(LLM)과 대형멀티모달모델(LMM) 모두를 파운데이션 모델로 개발한 경험을 갖춘 국내 유일 스타트업이다. 모티프테크놀로지스가 작년 11월 공개한 LLM '모티프 12.7B'는 모델 구축부터 데이터 학습까지 전 과정을 직접 수행한 순수 국산 기술이다. 특히 기존 트랜스포머 구조를 그대로 쓰지 않고, '그룹별 차등 어텐션(GDA)' 기술을 자체적으로 개발해 적용했다. 이는 단순히 모델을 바닥부터 학습시키는 '프롬 스크래치(From Scratch)'를 넘어, 지능 핵심인 어텐션 함수와 모델의 아키텍처 자체를 새롭게 설계한 것이다. 12.7B 파라미터의 비교적 작은 LLM인 이 모델은 글로벌 AI 모델 성능을 종합평가하는 '아티피셜 애널리시스'의 인텔리전스지수(AAII)에서 675B에 달하는 '미스트랄 라지 3' 같은 대형 LLM보다 높은 점수를 기록했다. 과기정통부는 지난 15일 독파모 1차 평가 결과 발표와 함께 올 상반기 정예팀 1곳 추가 모집 계획을 전했다. 본선에 진출한 정예팀 5곳은 6개월 단위 단계평가를 통해 하나씩 탈락시킬 방침이었지만 이번에 1곳이 아닌 2곳이 대거 탈락하면서다. 하지만 1차 평가에서 탈락한 네이버클라우드와 NC AI는 물론, 서류 및 서면평가 때 탈락했던 카카오와 한국과학기술원(KAIST)도 재공모 사업에 불참 의사를 밝혔다. KT와 코난테크놀로지는 여전히 참여 여부를 명확히 하지 않고 있다. 정부 지침이 나오는대로 신중 검토하겠다는 입장이다. 앞서 독파모 주관기업으로 나섰던 모티프테크놀로지스는 모회사인 모레와 함께 삼일회계법인, 서울대학교, 카이스트, 공공기관 등과 정예팀을 구성했다. 서면평가를 통과한 10개 팀에 들었지만 본선 문턱은 넘지 못했다. 모티프테크놀로지스 관계자는 "지난해 7월 구성했던 정예팀 외에 추가 업체들과도 논의를 진행하고 있다"고 말했다.

2026.01.20 09:28이나연 기자

[유미's 픽] 독자 AI 논란 속 '설계 주권' 시험대…LG 'K-엑사원'이 돋보인 이유

"이번 경쟁에서 고유 아키텍처를 고수하며 바닥부터 설계하는 곳은 LG AI연구원 정도입니다. 정부 과제의 짧은 데드라인과 제한된 자원 속에서 검증된 글로벌 오픈소스를 적극 활용할 수밖에 없는 환경 속에 특정 모듈 차용이 문제라면, 오픈소스 기반으로 개발한 국내 기업 다수도 그 비판에서 자유롭기 어려울 것입니다."최근 정부 주도의 독자 인공지능(AI) 파운데이션 모델 프로젝트를 둘러싼 잡음이 이어진 가운데 LG AI 연구원의 'K-엑사원'이 비교적 논란 없이 업계의 호평을 받으며 존재감을 드러내고 있다. 성능 평가에서도 미국, 중국이 점령한 글로벌 AI 상위 10위권에서 7위를 기록하며 유일하게 이름을 올려 'AI 3강'을 노린 한국을 대표할 AI 모델로 자리를 굳히는 분위기다.LG AI연구원은 'K-엑사원'이 정부의 독자 AI 파운데이션 모델 프로젝트 1차 평가 기준인 13개의 벤치마크 테스트 중 10개 부문 1위를 기록했다고 11일 밝혔다. 전체 평균 점수는 72점으로, 5개 정예팀 중 1위를 차지했다. 이 기준으로 평가를 했을 시 경쟁사들은 50점 중반대에서 60점 중반대 정도의 평균 점수를 기록하는 것으로 알려졌다. 일부 참가업체들이 최근 공개한 테크 리포트에서 13개 벤치마크 결과를 모두 기재하지 않은 것과 달리, LG AI연구원은 모든 결과를 공개해 비교 가능성을 높여 우위에 올라섰다는 평가도 나온다. 업계에선 독자 AI 모델의 가장 중요한 요소로 '프롬 스크래치'와 '독자성' 해석을 꼽고 있다. 최근 해외 모델 유사성 등 여러 논란 속에서 가장 중요한 요소가 외부 모델 '가중치(Weight) 사용' 여부가 핵심으로 떠오르고 있는데, 특히 LG AI연구원의 'K-엑사원'은 이를 모두 충족시키는 모델로 평가 받고 있다. 가중치는 AI 모델이 학습을 통해 축적한 지식이 압축된 결과물로, 라이선스와 통제권 문제와 직결된다. 정부가 해외 모델을 파인튜닝한 파생형 AI를 독자 AI로 간주하지 않겠다고 밝힌 이유도 이 때문이다. 다만 일각에선 가중치 논쟁이 독자 AI의 기준을 지나치게 단순화할 수 있다는 지적도 나온다. 가중치는 독자 AI의 최소 조건일 뿐 그 위에서 어떤 기술적 선택을 했는지가 모델의 완성도를 가른다는 것이다. 특히 대규모 자본과 연산 자원을 투입해 데이터와 파라미터 규모를 늘리는 방식은 단기 성능 경쟁에는 유리할 수 있지만, 장기적인 국가 AI 전략과는 거리가 있다는 평가도 있다.이 때문에 최근에는 가중치 이후의 단계인 모델 구조에 대한 설계 역량이 중요 기준으로 떠오르고 있다. 대표적인 영역이 어텐션(Attention)과 토크나이저(Tokenizer)다. 어텐션은 AI가 방대한 정보 중 어떤 부분에 집중할지를 결정하는 핵심 메커니즘으로 연산량과 메모리 요구량을 좌우한다. 토크나이저는 문장을 토큰 단위로 분해하는 방식으로 학습 효율과 언어 이해 능력에 직접적인 영향을 미친다. 두 요소는 성능과 비용을 동시에 결정하는 구조적 레버로, 독자 AI의 '설계 주권'을 가늠하는 지표로 평가된다.이에 대해 임정환 모티프테크놀로지스 대표는 독자 기술의 기준을 보다 구조적으로 봐야 한다고 지적했다. 그는 "엔비디아가 설계를 하고 TSMC가 생산을 맡는 구조나, 삼성 스마트폰이 다양한 외부 부품을 조합해 만들어지는 사례를 보더라도 핵심은 누가 설계의 주체냐는 점"이라며 "단순히 코드를 복제한 뒤 재학습하는 방식은 기술적 난이도가 낮아 독자 아키텍처로 보기 어렵다"고 말했다. 이어 "중국 딥시크는 기존 구조를 그대로 쓰지 않고 이를 변형해 자신들만의 기술적 철학을 담았기 때문에 독자 기술로 평가받는 것"이라고 덧붙였다.업계에선 독자 AI의 '설계 주권'을 판단하는 기준이 어텐션과 토크나이저에만 국한돼서는 안 된다는 지적도 나온다. 실제로 AI 모델의 성능과 효율은 어텐션 외에도 정규화(Normalization) 방식, 레이어 구성, FFN(Feed-Forward Network) 구조, 학습 커리큘럼 설계, 추론(Reasoning) 구조의 내재화 여부 등 복합적인 설계 선택에 의해 좌우된다. 정규화 방식과 레이어 구성은 학습 안정성과 스케일링 한계를 결정하는 요소로, 표준 레이어놈(LayerNorm)을 그대로 사용하는지, RMS놈(RMSNorm) 등 변형된 방식을 적용했는지에 따라 대규모 학습에서의 효율과 수렴 특성이 달라진다. 레이어놈이 모든 신호를 고르게 '정돈'하는 방식이라면, RMS놈은 꼭 필요한 크기 정보만 남겨 계산 부담을 줄이는 방식에 가깝다.FFN 구조 역시 전체 파라미터의 상당 부분을 차지하는 영역으로, 활성화 함수 선택이나 게이트 구조 도입 여부에 따라 연산량 대비 성능 효율이 크게 달라진다. FFN은 AI가 주목한 정보를 자기 언어로 다시 정리하는 '내부 사고 회로'에 해당한다. 학습 커리큘럼 역시 설계 주권을 가늠하는 중요한 지표로 꼽힌다. 단순히 대규모 데이터를 한 번에 투입하는 방식이 아니라, 언어 이해·추론·지시 이행·도메인 특화 학습을 어떤 순서와 비중으로 설계했는지가 모델의 안정성과 범용성을 좌우하기 때문이다. 여기에 프롬프트 기법에 의존하지 않고, 추론 과정을 모델 구조 내부에 내재화했는지 여부도 공공·국방·금융 등 고신뢰 영역에서 중요한 평가 요소로 거론된다. 업계 관계자는 "가중치는 독자 AI의 출발점이고, 어텐션과 토크나이저는 그 다음 단계"라며 "그 이후에는 학습 시나리오와 추론 구조, 스케일링 전략까지 얼마나 스스로 설계했는지가 진짜 기술적 자립도를 가른다"고 설명했다. LG AI연구원의 'K-엑사원'은 이 지점에서 차별화된 접근을 택했다. LG AI연구원은 데이터 양이나 파라미터 규모를 무작정 키우는 방식 대신, 모델 구조 자체를 고도화해 성능은 높이고 학습·운용 비용은 낮추는 전략을 적용했다. 엑사원 4.0에서 검증한 '하이브리드 어텐션(Hybrid Attention)'을 'K-엑사원'에 고도화해 적용, 국소 범위에 집중하는 슬라이딩 윈도우 어텐션과 전체 맥락을 이해하는 글로벌 어텐션을 결합했다. 이를 통해 메모리 요구량과 연산량을 이전 세대 대비 약 70% 절감했다는 설명이다. 토크나이저 역시 단순 재사용이 아닌 구조적 개선이 이뤄졌다. LG AI연구원은 학습 어휘를 약 15만 개로 확장하고, 한국어에서 자주 쓰이는 단어 조합을 하나의 토큰으로 묶는 방식을 적용했다. 그 결과 동일한 연산 자원으로 더 긴 문서를 기억하고 처리할 수 있게 됐으며 기존 대비 약 1.3배 긴 컨텍스트 처리 능력을 확보했다. 여기에 멀티 토큰 예측(MTP) 구조를 도입해 추론 속도도 크게 높였다. 이 같은 구조 혁신은 정부 프로젝트의 성격과도 맞닿아 있다. 독자 AI 파운데이션 모델의 목표는 단기적인 성능 순위 경쟁이 아니라 공공·산업 현장에서 실제로 활용 가능한 국가 AI 인프라를 구축하는 데 있기 때문이다. LG AI연구원이 고가의 최신 그래픽처리장치(GPU)가 아닌 A100급 환경에서도 프런티어급 모델을 구동할 수 있도록 설계해 인프라 자원이 제한된 기업과 기관에서도 활용 가능성을 넓혔다는 점도 우위 요소로 보인다. 다른 참가 기업들 역시 각자의 강점을 내세우고 있다. SK텔레콤은 최신 어텐션 기법과 초거대 파라미터 확장을 통해 스케일 경쟁력을 강조하고 있고, NC AI는 산업 특화 영역에서 운용 효율을 앞세우고 있다. 네이버클라우드는 멀티모달 통합 아키텍처를 독자성의 핵심으로 제시하고 있으며, 업스테이지는 데이터와 학습 기법을 통해 성능을 끌어올리는 전략을 취하고 있다. 다만 일부 모델은 외부 가중치나 구조 차용 여부를 둘러싼 논란으로 인해 기술 외적인 설명 부담을 안고 있는 상황이다. 업계 관계자는 "이번 논쟁이 '순혈이냐, 개발이냐'의 이분법으로 끝나기보다 가중치 주권을 전제로 한 설계 주권 경쟁으로 진화하고 있다고 본다"며 "이 기준에서 'K-엑사원'은 성능, 비용 효율, 구조적 혁신이라는 세 요소를 동시에 충족한 사례로 평가되고, 한국형 독자 AI가 나아갈 한 방향을 보여주고 있다"고 분석했다.업계에선 이번 1차 평가를 계기로 독자 AI에 대한 기준이 한층 정교해질 가능성이 높다고 봤다. 단순한 성능 순위나 '프롬 스크래치' 여부를 넘어 가중치 주권을 전제로 한 모델 설계 역량과 비용 효율, 실제 활용 가능성까지 함께 평가하는 방향으로 심사 기준이 진화할 수 있을 것으로 전망했다. 정부 역시 2차 심사 과정에서 독창성과 기술적 기여도를 평가 항목으로 포함하겠다고 밝힌 만큼, 향후 독자 AI 경쟁은 데이터·자본 경쟁을 넘어 누가 더 깊이 모델을 설계했는지를 가리는 국면으로 접어들 것이란 분석도 나온다.임정환 모티프테크놀로지스 대표는 "현재 독자 개발과 프롬 스크래치에 대한 개념이 혼재된 상황"이라며 "(정부 차원에서) 기술적 기여도에 따른 명확한 정의와 가이드라인 마련이 시급하다"고 강조했다. 이승현 포티투마루 부사장은 "독자 AI 2차 심사에서 퍼포먼스는 단순히 벤치마크 점수로 줄 세울 문제가 아니다"며 "가중치를 처음부터 자체 학습했는지, 데이터와 학습 과정에 대한 통제권을 갖고 있는지, 같은 조건에서 성능을 안정적으로 재현할 수 있는지가 먼저 봐야 할 기준"이라고 말했다. 이어 "이 전제가 빠진 성능 비교는 기술 평가라기보다 보여주기에 가깝다"고 덧붙였다.

2026.01.11 15:57장유미 기자

모티프테크놀로지스, 독자 구축 LLM '모티프 12.7B' 공개

모티프테크놀로지스(대표 임정환)가 7주 만에 자체 구축한 대규모 언어모델(LLM) 'Motif 12.7B'를 공개하며 기술 독립 역량을 입증했다. 모티프테크놀로지스는 최근 허깅페이스를 통해 127억 개의 매개변수를 가진 대규모 언어모델 '모티프(Motif) 12.7B'를 오픈소스로 공개했다고 밝혔다. 이 모델은 데이터 수집부터 모델 학습, 최적화까지 전 과정을 프롬 스크래치(From scratch) 방식으로 수행한 순수 국산 LLM이다. 모티프테크놀로지스는 지난 7월 T2I(Text to Image) 모델 '모티프-이미지-6B'를 공개한 데 이어 이번에 LLM을 선보이며 국내에서 유일하게 LLM과 대형 멀티모달 모델(LMM)을 모두 독자적으로 개발하고 있는 기업으로 자리매김했다. 특히 국내 AI 업계에서 GPU 클러스터 효율화와 고성능 개발 인력 확보가 주요 과제로 꼽히는 가운데, 모티프테크놀로지스는 자체 기술만으로 단 7주 만에 모델을 완성해 주목받고 있다. 모티프 12.7B는 앞서 공개된 경량 모델 모티프 2.6B보다 한층 향상된 성능을 갖췄으며, 추론 능력과 학습 효율을 모두 개선했다. 회사는 이를 가능하게 한 핵심 기술로 그룹 단위 차등 어텐션과 뮤온 옵티마이저 병렬화 알고리즘 두 가지를 꼽았다. 그룹 단위 차등 어텐션은 기존 차등 어텐션(DA) 구조의 한계를 넘어, 연산 헤드를 비대칭적으로 배분해 불필요한 연산을 줄이고 신호(signal) 정보 처리 효율을 극대화한 기술이다. 이를 통해 고난도 추론 성능을 향상시키는 동시에 환각(hallucination) 현상을 완화했다. 또한 뮤온 옵티마이저 병렬화 알고리즘은 멀티노드 학습 환경에서 발생하는 GPU 통신 병목을 해소해 연산과 통신을 지능적으로 병행함으로써 GPU 활용률을 극대화했다. 이로써 LLM 학습 효율 저하의 주요 원인으로 꼽혀온 통신 대기 문제를 사실상 제거했다. 모티프테크놀로지스는 강화학습(RL)을 생략한 대신 추론 중심 지도학습을 적용해 모델이 스스로 논리적 사고와 문제 해결을 수행하도록 설계했다. 사용자 질문의 특성에 따라 심층 추론과 즉시 응답 모드를 자동 전환하는 구조도 구현해, 상황별 최적의 연산을 수행할 수 있게 했다. 이러한 접근은 개발 비용 절감뿐 아니라 운영 효율성도 높였다. 강화학습 단계 생략으로 학습 비용을 줄이고, 불필요한 연산을 회피해 GPU 사용량과 응답 지연시간을 최소화하는 등 실질적인 비용 효율성을 확보했다. 모티프 12.7B는 수학·과학·논리 문제를 평가하는 AIME25, GPQA-다이아몬드, 제브라로직 등 추론 과제에서 알리바바의 Qwen2.5(72B)와 구글의 젬마 동급 모델을 모두 능가하는 성능을 기록했다. 한편 모티프테크놀로지스는 올해 연말까지 T2V 모델을 추가로 오픈소스로 공개할 계획이다. 고성능 LLM과 LMM을 모두 자체 개발한 경험을 바탕으로, 'LLM-LMM 투트랙 혁신'을 통해 다양한 스케일의 AI 모델 개발을 본격화할 방침이다. 임정환 대표는 "GDA와 뮤온 옵티마이저는 각각 LLM의 두뇌와 에너지 효율을 재설계한 혁신 기술"이라며 "모티프 12.7B는 단순한 성능 향상을 넘어 AI 모델의 구조적 진화를 보여주는 사례로 비용 효율적 고성능 LLM을 원하는 기업들에게 하나의 모범 답안이 될 것"이라고 말했다.

2025.11.05 10:44남혁우 기자

"국산 AI, 글로벌 시장서도 통한다"…임정환 모티프 대표의 자신감

"구글이나 오픈AI도 실제로 프로젝트 핵심 개발자는 30명 안팎입니다. 중요한 건 사람 수가 아니라 그 팀의 집중력과 문제 해결 능력입니다." 임정환 모티브테크놀로지(이하 모티프) 대표는 7일 서울 역삼동 사옥에서 진행한 인터뷰에서 이같이 말하며, 독자 인공지능(AI) 모델 개발에 대한 자신감을 내비쳤다. 그 자신감은 구체적인 성과로 이어지고 있다. 모티프가 자체 설계·개발한 소형언어모델(sLLM) '모티프 2.6B'는 글로벌 빅테크가 내놓은 동급 AI 모델들을 벤치마크에서 능가했다. 임 대표는 대규모 인프라와 투자를 앞세운 빅테크에 대응하기 위해 오픈소스 전략을 기반으로 독립적 기술 내재화에 집중하고 있으며, 데이터 주권과 기술 주체성을 확보하는 것이 국가적 과제로 자리잡아야 한다고 강조했다. 모티프 2.6B, 글로벌 빅테크 뛰어넘은 국산 sLLM 지난 6월 공개한 모티프 2.6B는 총 26억 개의 파라미터를 갖춘 경량 AI 모델이다. AMD MI250 GPU 한 장만으로도 추론이 가능하며 엔비디아 기반 인프라 대비 약 60% 수준의 비용으로 학습과 운영이 가능하다. 산업 현장에 적용 가능한 고성능 모델로 실용성과 효율성을 모두 갖췄다. 성능도 검증됐다. 벤치마크 결과, 프랑스 미스트랄의 7B 모델보다 134%, 구글 젬마 2B 대비 191%, 메타 라마 3.2(1B)보다 139%, AMD 인스텔라 3B보다 112%, 알리바바 첸(Qwen) 2.5(3B)보다 104% 높은 점수를 기록했다. 문장 내 문맥 파악과 응답 정확도를 높이기 위한 어텐션 메커니즘을 정밀하게 조정한 설계가 핵심이다. 임 대표는 "모티프 2.6B는 단순히 공개된 오픈소스AI에 추가학습을 거치거나 일부 코드를 수정한 모델이 아니라 모델 구조 설계부터 학습 데이터 구성, 학습 파이프라인까지 처음부터 끝까지 전부 독자적으로 개발했다"고 강조했다. 그는 "남이 만든 모델을 조금씩 바꾸는 방식으로는 세계 수준에 도달할 수 없다고 판단했다"며 "그래서 처음부터 끝까지 전부 직접 만들었다"고 개발 이유를 설명했다. 모티프는 이 모델을 계기로 온디바이스 AI와 에이전틱 AI 분야로 확장을 본격화한다. 경량화를 통해 슈퍼컴퓨터 없이도 구동이 가능해, 산업 현장에서의 적용성이 높기 때문이다. 또한 올해 말에는 텍스트 투 이미지(T2I), 텍스트 투 비디오(T2V)와 같은 멀티모달 생성형 AI 모델도 오픈소스로 공개할 계획이다. 이들 모델 역시 AMD 기반 인프라에서 학습 및 서비스가 가능하도록 설계되고 있다. 글로벌 빅테크와 경쟁하는 세 가지 기술 전략 임 대표는 글로벌 AI 빅테크의 성능 경쟁을 가능하게 한 강점으로 세 가지를 꼽았다. 먼저 프롬 스크래치(From scratch) 개발 경험이다. 처음부터라는 의미처럼 모델 구조부터 토크나이저, 학습 파이프라인까지 전 과정을 독자적으로 설계했다. 이러한 풀스택 설계 경험은 단순한 성능 개선을 넘어서 추후 온디바이스 AI, 에이전틱 기술 등 다양한 산업 현장 적용을 위한 최적화와 확장성의 기반이 된다. 또한 외부 의존 없이 독립적으로 고성능 AI를 구현할 수 있는 역량을 국내에서 입증했다는 점에서 한국 AI 기술 자립의 상징적인 사례로 주목받고 있다. 임정환 대표는 "많은 경우 메타의 라마의 등 오픈소스 모델을 기반으로 학습하거나 파인튜닝에 그치는데 진짜 기술력은 처음부터 끝까지 직접 만들어봐야 생긴다"며 "우리는 구조도 다르고 토크나이저도 따로 설계하는 등 모든 작업을 직접 수행하고 구현했다"고 자신감을 보였다. 오픈AI, 구글 등 글로벌 빅테크 기업들이 최근 AI 모델 구조와 학습 데이터를 비공개로 전환하는 흐름 속에서, 임 대표는 오픈소스 전략이 오히려 글로벌 경쟁력을 확보하는 핵심 요소가 될 수 있다고 강조했다. 특히 그는 "최근 몇 년간 전 세계 AI 연구 커뮤니티를 중심으로 모델 구조, 학습 데이터, 평가 지표 등이 오픈소스로 활발히 공유되며, 이제는 대규모 자본 없이도 경쟁력 있는 모델 개발이 가능한 시대가 됐다"고 설명했다. 이러한 개방형 생태계는 소규모 팀도 기술을 빠르게 내재화하고 실험하며 경쟁에 뛰어들 수 있는 토대를 제공하고 있다는 것이다. 임 대표는 "우리는 작은 팀이지만, 자체 설계와 오픈소스의 힘을 기반으로 글로벌 빅테크 모델과 성능 경쟁을 하고 있다”며 “모두가 같은 출발선에서 시작할 수 있는 시대, 중요한 건 내부 기술력과 집중력"이라고 말했다. 이어 "빅테크는 보유한 기술이나 데이터 유출을 우려해 점점 더 비공개로 전환하고 있다"며 "반면 우리는 오픈소스 생태계를 통해 다양한 기술과 데이터를 활용하고 이를 투명하게 공개하고 검증함으로써 충분히 경쟁할 수 있는 환경이 조성되고 있다"고 강조했다. 세번째는 하드웨어(HW)와 소프트웨어(SW)를 동시에 아우르는 기술력이다. 이를 통해 비용과 인프라 여건이 제한적인 환경에서도 고성능을 낼 수 있도록 모델을 구조적으로 최적화하는 것이 가능하다. 대표적으로 모티프 2.6B는 AMD의 MI250 GPU 단 한 장만으로도 추론이 가능하도록 설계한 것이 특징이다. 엔비디아 GPU 환경과 비교해도 약 60% 수준의 비용으로 학습 및 운영이 가능하다. 이러한 경량화 설계는 고성능 슈퍼컴퓨터 없이도 실사용 환경에서 AI를 적용할 수 있게 만들어준다. 실제로 해당 모델은 산업 현장, 온디바이스 AI, 에이전틱 기술 등 다양한 실용 영역에서의 확장 가능성을 지닌다. 임 대표는 "AI는 단순히 성능이 좋다고 끝이 아니라 한정된 하드웨어 자원에서 최적의 퍼포먼스를 낼 수 있어야 한다"며 "모든 서비스는 결국 현장에서 쓰여야 의미가 있는 만큼 우리는 실제 적용 가능한 AI를 만드는 데 집중하고 있으며 이를 위해 하드웨어 제약까지 고려한 전방위 최적화를 수행하고 있다"고 강조했다. 딥마인드도 수학에서 시작, 기초과학 생태계 구축 우선되야 임정환 대표는 "챗GPT가 막히면 아무것도 못하는 나라가 될 수도 있다는 위기의식이 있어야 한다"라며 한국 AI 생태계가 GPU, 인재, 데이터 등 인프라 측면에서 글로벌 대비 열세에 있다는 현실을 인정하면서도 그렇기 때문에 '자체 기술 확보'가 더욱 중요하다고 강조했다. 그는 단기적으로는 챗GPT 같은 외부 API를 활용하는 것이 빠르고 효율적일 수 있지만 외부 플랫폼 의존은 언제든 정책적, 보안적, 기술적 제약으로 이어질 수 있다는 점에서 장기적 관점에서 독립적인 기술 대안 확보가 필수라고 진단했다. 임 대표는 정부의 역할에 대해서도 "단기성 과제 중심의 R&D보다는, 기업이 장기 투자 결정을 내릴 수 있도록 제도적 유연성과 정책적 일관성을 마련해야 합니다"라고 조언했다. 그는 "기업 입장에서 예산보다 더 중요한 건 방향성"이라며 정부가 정말 AI에 진지하게 투자하려는 의지가 있다는 신호를 줄 수 있어야 한다"고 덧붙였다. 또한 미국, 일본처럼 민간 주도, 정부 후원 구조가 형성돼야 하며, 한국도 기초과학 투자, 오픈소스 생태계 조성, 인재 양성 등을 포함한 장기 비전 아래 생태계를 설계해야 한다고 제언했다. 특히 AI 기술의 근간이 되는 수학, 통계, 컴퓨터과학 등 기초과학 분야에 대한 국가적 관심과 장기적 투자 확대가 절실하다고 강조했다. 이를 위해 영국 유학 시절 경험을 바탕으로 AI열풍을 일으킨 딥마인드의 출발점 역시 기초과학 기반의 문제 해결 연구였다는 점을 예로 들었다. 그는 "딥마인드를 만든 초기 멤버들은 원래 신약 개발이나 뇌과학을 연구하던 과학자들"이라며로 "시작은 상용 AI가 아니 기초 수학과 과학 연구였다"고 말했다. 산업과 학문이 긴 호흡으로 연결돼야 한다는 점도 강조했다. 지금처럼 산업계는 결과물 중심, 학계는 논문 중심으로 따로 움직이는 구조로는 한국에서 딥마인드 같은 모델이 탄생하기 어렵다는 것이다. 임정환 대표는 "AI를 비롯한 모든 기술의 본질은 수학과 과학"이라며 "그 기반이 튼튼해야 진짜 경쟁력을 갖출 수 있다"고 말했다. 그는 "기업이 기초 수학이나 과학에 자연스럽게 투자할 수 있는 분위기를 정부가 조성해야 한다"며 "그래야 AI를 비롯한 다양한 기술을 주도할 수 있는 국가가 될 수 있을 것"이라고 비전을 제시했다.

2025.08.07 11:09남혁우 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

[단독] 삼성 파운드리, 4·8나노 공정 가격 인상 추진

생성형 AI 패러다임 바뀔까…구글 '지니' 공개에 산업계 지형 변화 예고

[신년 인터뷰] 조준희 KOSA 회장 "AI 승부처는 중동·동남아…완제품 풀스택으로 간다"

코덱스 충격에 주가 폭락했는데…샘 알트먼 ‘무력감’ 발언에 개발자들 폭발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.