• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'모티프테크놀로지스'통합검색 결과 입니다. (13건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[현장] AI 스타트업이 MS 인프라 택한 이유…"빠른 사업 확장 도와"

한국 인공지능(AI) 스타트업 기업들이 마이크로소프트를 신뢰도 높은 파트너라고 입을 모았다. 글로벌 고객 연결부터 인프라, 실시간 기술 지원을 통해 사업 확장을 빠르게 돕는다는 이유에서다. 마이크로소프트는 25일 서울 신사동 모스스튜디오에서 '마이크로소프트 스타트업 커넥션 2026-더 시크릿 에이전트' 개최했다. 임정환 모티프테크놀로지스 대표를 비롯한 이승현 인핸스 대표, 최윤영 솔버엑스 대표, 류중희 리얼월드 대표는 행사 패널토크에서 애저 기반 클라우드 인프라 활용 경험과 주요 성과를 공유했다. 이들은 마이크로소프트 인프라를 통해 기술 개발과 사업화 속도가 동시에 개선됐다고 강조했다. 애저 인프라와 시장 전략(GTM), 연구 협력이 유기적으로 결합되면서 개념검증(PoC)부터 실제 서비스 적용까지 전환 기간이 단축됐다는 설명이다. 임정환 모티프 대표는 마이크로소프트 협력을 기술 경쟁력 강화 측면에서 높이 평했다. 애저를 통해 모델 개발부터 인프라 운영, 실제 적용까지 전 과정에서 기술 경쟁력을 끌어올렸다는 이유에서다. 현재 모티프는 마이크로소프트와 고객 요구 대응에도 협력하고 있다. 그는 "마이크로소프트는 단순 협력사가 아니라 회사 성장을 함께 고민하는 파트너"라고 강조했다. 이승현 인핸스 대표는 마이크로소프트 인프라가 사업 확장을 지원했다고 말했다. 마이크로소프트가 인핸스 문제를 이미 파악하고 있어 적합한 지원을 즉각 제공한다는 이유에서다. 이로 인해 영업 초기 단계가 크게 단축되는 효과를 보고있는 것으로 전해졌다. 그는 "우리는 마이크로소프트와 에이전트 기술을 고도화해 글로벌 시장서 입지를 확보할 것"이라고 말했다. 최윤영 솔버엑스 대표는 마이크로소프트 기존에 막혔던 개념검증(PoC) 단계에 진입할 수 있었다고 밝혔다. 마이크로소프트가 글로벌 고객 미팅을 비롯한 기술 검증, 보안 신뢰를 모두 지원했다는 이유에서다. 마이크로소프트 GTM과 글로벌 세일즈 조직을 통해 고객사 신뢰 확보가 가능했다는 설명이다. 최 대표는 "제조 AI 기업은 설계 도면과 실험 데이터 등 민감 정보 기반으로 사업하기 때문에 신뢰 장벽이 높다"며 "실제 미팅은 성사되더라도 데이터 제공 단계에서 논의가 중단되는 경우가 있다"고 말했다. 그는 "현재 글로벌 완성차, 반도체 기업과 비밀유지계약(NDA) 체결과 PoC 단계까지 진입할 수 있었다"며 "국내 제조 산업에서 확보한 레퍼런스 기반으로 글로벌 고객 확대에 나설 계획"이라고 덧붙였다. 류중희 리얼월드 대표는 마이크로소프트와 고객사 협력 범위가 시장까지 확장된 점을 높이 봤다. 리얼월드는 현재 마이크로소프트 리서치와 로봇 연구를 진행하고 있다. 애저 기반 환경에서 대규모 데이터 학습과 모델을 개발하고 있다. 그는 "마이크로소프트는 연구, 인프라, 시장을 모두 연결해 주는 파트너"라며 "우리는 이를 기반으로 피지컬 AI 상용화를 확대해 노동력 부족 문제를 해결할 것"이라고 말했다.

2026.03.25 16:08김미정 기자

[종합] 모티프 합류한 독파모 2차전, 8월에 결판…독자성·데이터 활용성 '관건'

정부가 추진 중인 '독자 AI 파운데이션 모델(독파모, K-AI)' 프로젝트의 추가 정예팀으로 모티프테크놀로지스가 선정되면서 3개 자리를 둘러싼 2차전의 본격적인 막이 올랐다. 이번 경쟁이 대기업 2곳과 스타트업 2곳 구도로 재편된 가운데 2차 평가에서 정부가 어떤 기준을 내세울지, 모티프테크놀로지스가 기존 정예팀과 달리 어떤 전략으로 실력을 드러낼 수 있을지 관심이 집중된다. 20일 과학기술정보통신부에 따르면 모티프테크놀로지스는 트릴리온랩스를 제치고 기존 LG AI연구원, 업스테이지, SK텔레콤에 이어 2차 평가에 도전할 네 번째 'K-AI' 정예팀으로 이날 선정됐다. 독자 아키텍처로 AI 모델을 설계한 경험, 상대적으로 적은 파라미터와 제한된 데이터 환경에서도 세계적인 수준의 모델과 경쟁 가능한 성능을 달성한 경험에서 높은 평가를 받은 것으로 알려졌다.지난해 2월 설립된 모티프테크놀로지스는 반도체 기업 모레 자회사로, 고성능 대형언어모델(LLM)과 대형멀티모달모델(LMM) 모두를 파운데이션 모델로 개발한 경험을 갖췄다. 특히 지난 해 11월 공개한 LLM '모티프 12.7B'는 모델 구축부터 데이터 학습까지 전 과정을 직접 수행한 순수 국산 기술이란 점에서 주목받았다. 또 기존 트랜스포머 구조를 그대로 쓰지 않고 '그룹별 차등 어텐션(GDA)' 기술을 자체적으로 개발·적용해 경쟁력이 있다고 평가 받는다. 모티프테크놀로지스는 정예팀으로 모레, 크라우드웍스, 엔닷라이트, 서울대학교 산학협력단, 한국과학기술원(KAIST), 한양대학교 산학협력단, 삼일회계법인, 국가유산진흥원, HDC랩스, 매스프레소, 에누마코리아, 경향신문사, 전북테크노파크, 모비루스, 엑스와이지, 파두 등을 포함시켰다. 또 300B급 추론형 LLM(거대언어모델)을 시작으로 310B급 VLM(비전언어모델), 320B급 VLA(비전언어액션모델) 등으로 고도화해 독자 AI 파운데이션 모델을 개발·확보하겠다는 목표를 세웠다. 임정환 모티프테크놀로지스 대표는 "그동안 부족한 자원에도 불구하고 독자적인 설계로 글로벌 경쟁력을 증명해왔다"며 "이번 사업에서 지원되는 자원과 컨소시엄의 역량을 결합하면 기존 참가팀을 뛰어넘는 성과를 낼 수 있다고 확신한다"고 말했다. 이어 "모델과 SW를 아우르는 폭넓은 오픈소스화로 국산 AI 생태계를 구축할 것"이라며 "산업·공공 전 분야에서 AX 성공 사례를 만들어 대한민국이 AI G3로 도약하는 데 기여하겠다"고 덧붙였다. 업계에선 모티프테크놀로지스가 독파모 2차전 마지막 정예팀으로 합류하면서 대기업 2곳, 스타트업 2곳이라는 이상적인 밸런스로 경쟁 구도가 갖춰졌다고 평가했다. 자본과 인프라를 갖춘 대기업의 안정감에 속도감 있고 혁신 지향적인 스타트업의 패기가 더해지며 국가 AI 프로젝트가 한층 역동적으로 추진될 것이란 기대감도 내비쳤다. 또 정부가 기존 업체들과의 형평성을 맞추기 위해 모티프테크놀로지스에 전폭적인 지원에 나섰다는 점에서 얼마나 기술 격차를 줄여나갈 수 있을지를 두고 주목하고 있다. 정부는 모티프테크놀로지스에 독자 AI 모델 개발에 필요한 엔비디아 최신 그래픽처리장치(GPU) B200만 768장을 지원할 예정으로, H100과 B200을 함께 공급받는 LG AI연구원, 업스테이지에 비해 모티프테크놀로지스가 좀 더 유리한 고지에 오른 것으로 보인다. 개발 기간도 모티프테크놀로지스에 불이익이 없도록 형평성을 맞췄다. 정부는 기존 3개 정예팀은 1월부터 6월 말까지 AI 모델을 개발하고, 모티프테크놀로지스는 2월부터 7월 말까지 개발할 수 있도록 기간을 정했다. 또 모든 정예팀이 AI 모델 개발을 마친 이후 8월 초 내외에 단계 평가를 진행키로 했다. 데이터 지원은 기존 업체와 동일하게 진행된다. 정부는 데이터 개별 구축·가공에 17억5000만원, 데이터 공동구매·활용에 100억원 수준을 모티프테크놀로지스에 지원하고 'K-AI 기업' 명칭도 부여키로 했다. 업계 관계자는 "모티프테크놀로지스가 트릴리온랩스보다 기술력이 조금 더 있다고 평가돼 추가 사업자로 선정은 됐지만, 기존 3개 업체들과 이미 경쟁해 한 번 탈락했던 상황에서 이번 정부 지원으로 얼마나 격차를 좁힐지가 관건"이라며 "기존 3개 업체들이 단계평가 전 한 달의 시간 동안 미리 3차 평가 준비에 나설 가능성이 높다는 점도 고려할 부분"이라고 말했다. 일각에선 모티프테크놀로지스의 합류로 업스테이지가 제일 긴장감이 높을 것으로 예상했다. 같은 스타트업인데다 모티프테크놀로지스와 달리 업스테이지가 B200을 온전히 지원 받지 못한다는 점에서다. 또 모티프테크놀로지스가 300B급 추론형 LLM을 2차 평가 목표로 내세운 것이 200B 모델을 앞세운 업스테이지를 겨냥한 것이란 평가도 나왔다. 업계 관계자는 "모티프테크놀로지스 입장에선 일단 GPU를 정부 지원으로 돌려 글로벌 수준의 AI 모델 개발에 도전할 수 있고, 인지도도 높일 수 있다는 점에서 엄청난 기회를 잡은 것이라고 보여진다"며 "업스테이지를 넘어설 목표로 2차 평가전에 나설 가능성이 높다"고 밝혔다. 이 같은 상황에서 정부는 정예팀들과 2차 평가 기준·방안 등을 조만간 협의·확정해 글로벌 수준의 독자 AI 파운데이션 모델 개발을 뒷받침하고, 이를 통해 우리나라 AI 생태계 경쟁력 제고 등을 적극 도모한다는 계획을 내놨다. ▲벤치마크 평가 ▲전문가 평가 ▲사용자 평가 등 기존 단계평가의 큰 틀은 유지하되, 글로벌 주요 리더보드 타겟으로 글로벌 벤치마크를 선정하고 전문가 평가 항목에 '독자성' 평가 세분화 등도 검토키로 했다. 또 재공고 시행 배경이 된 개발 모델의 독자성 잣대는 '초기 데이터 로그 보유 및 자체 문제해결 능력'으로 규정해 논란을 불식시키기 위한 노력에도 나섰다. 업계에선 2차 평가 핵심으로 단순한 성능 고도화를 넘어 산업 현장 적용을 위한 '확장성 및 활용성'이 될 것이라고 예상했다. 또 최근 정부가 공공 데이터 개방에 적극 나서고 있는 만큼 데이터를 AI 모델로 얼마나 잘 활용할 수 있을지도 관건이 될 것으로 전망했다. 업계 관계자는 "2차 평가 기준이 1차 때랑 크게 바뀌지 않을 듯 해 모티프테크놀로지스가 기존 3사와의 기술 격차를 어떻게 좁힐 수 있을지가 관건"이라면서도 "정부가 2차 평가에선 컨소시엄에 참여한 기업들과 주관사가 AI 모델 개발 과정에서 어떻게 구체적으로 협업할 수 있는지가 주요 기준이 될 것"이라고 예상했다. 그러면서 "AI 모델 개발에서 끝나는 게 아니라 각 컨소시엄들이 현장에서 어떻게 활용할지에 대한 계획을 잘 드러내는 것이 중요해보인다"고 덧붙였다. 또 다른 관계자는 "정부가 개방한 공공 데이터를 AI 모델을 학습할 때 잘 활용해 우리나라에 특화된 AI로 얼마나 잘 만들 수 있는지가 2차 평가에서 중요하게 반영될 것"이라며 "모델 성능이나 크기보다 데이터 활용도, 우리나라 상황과 한국어 맥락에 맞는 답변을 제대로 내놓을지에 대한 평가가 좀 더 심도있게 진행될 듯 하다"고 전망했다.

2026.02.20 18:47장유미 기자

[독파모 4파전] 프로젝트 2차 평가 국면…정예팀 핵심 전략은?

정부 '독자 인공지능(AI) 파운데이션 모델' 프로젝트가 2차 평가 국면에 들어서면서 4개 정예팀은 멀티모달 확장과 산업 적용을 앞세운 로드맵으로 경쟁력 강화에 나섰다. 20일 IT 업계에 따르면 과학기술정보통신부는 독파모 신규 정예팀으로 모티프테크놀로지스를 선정하고 2차 심사 절차에 착수했다. 이에 따라 기존 3개 팀을 포함한 총 4개 정예팀이 기술 경쟁을 시작한다. 이번에 합류한 모티프테크놀로지스는 300B급 거대언어모델(LLM)을 시작으로 310B급 비전언어모델(VLM), 320B급 비전·언어·행동 통합 모델(VLA)로 모델을 단계적으로 확장하는 로드맵을 제시했다. 모델 가중치와 소스코드, 연산 최적화 라이브러리까지 전 영역을 오픈소스로 공개하고, 대국민 플랫폼과 API를 통해 생태계 확산을 병행한다는 전략이다. LG AI연구원은 2360억 개 매개변수 규모 'K-엑사원'을 중심으로 성능 고도화 전략을 이어간다. 해당 모델은 전문가혼합(MoE) 구조와 하이브리드 어텐션 기술을 적용해 메모리 요구량과 연산량을 70% 절감한 것이 특징이다. 모델의 핵심 언어 이해·추론 성능을 글로벌 수준까지 끌어올리는 것에 집중한다. 이후 LG 계열사에 모델 적용을 확대하고 국내 기업 대상 API 확산과 연구 협력을 강화할 계획이다. 업스테이지는 '솔라 오픈 100B'를 200B 규모로 확장한다. 법률·의료·공공·제조·교육 등 분야별 기업과 협력 체계를 구축해 실사용 사례를 추가 확보할 방침이다. 최종적으로는 모델을 300B급까지 업그레이드할 예정이다. SK텔레콤은 '에이닷엑스(A.X) K1' 멀티모달 확장을 핵심 과제로 제시했다. 이미지 인식을 넘어 음성·영상까지 처리 가능한 구조로 고도화하고, 후속 모델 '에이닷엑스(A.X) K2' 등 차세대 모델을 연이어 개발해 산업 현장 적용성을 강화한다. 기존 3개 정예팀은 1월~6월말까지 AI모델을 개발하고, 추가 1개 정예팀은 선정된 2월부터 7월말까지 개발한다. 정부는 8월초 내외에 단계평가를 진행할 계획이다. 배경훈 부총리 겸 과학기술정보통신부 장관은 "기업이 도전을 통해 우리 AI 생태계를 살아 숨쉬게 하고, 이를 통해 더 크고 경쟁력 있는 대한민국 AI 생태계를 만드는데 정책적 지원을 아끼지 않겠다"고 강조했다.

2026.02.20 17:55김미정 기자

[독파모 4파전] 추가 합류 모티프테크놀로지스 "기존 팀 뛰어넘는 성과 확신"

모티프테크놀로지스가 과학기술정보통신부 '독자 AI 파운데이션 모델(독파모)' 추가 공모에서 정예팀으로 최종 선정되며 독자 설계 기반의 차세대 인공지능(AI) 모델 구축에 나선다. 텍스트 중심 거대언어모델(LLM)을 넘어 이미지·비디오·오디오를 아우르는 멀티모달 파운데이션 모델, 나아가 피지컬 AI로 확장해 글로벌 톱 수준의 독자 AI를 확보하고 산업·공공 전 분야에서 AI 전환(AX)을 실증한다는 목표다. 임정환 모티프테크놀로지스 대표는 20일 과기정통부가 발표한 독파모 추가 공모 선정에 대해 "그동안 부족한 자원에도 불구하고 독자적인 설계로 글로벌 경쟁력을 증명해왔다"며 "이번 사업에서 지원되는 자원과 컨소시엄의 역량을 결합하면 기존 참가팀을 뛰어넘는 성과를 낼 수 있다고 확신한다"고 밝혔다. 과기정통부는 이번 추가 공모에서 모티프테크놀로지스와 트릴리온랩스 두 컨소시엄을 심층평가했으며 이 가운데 모티프테크놀로지스를 추가 정예팀으로 선정했다. 이에 독파모 사업은 LG AI연구원, 업스테이지, SK텔레콤에 이어 모티프테크놀로지스까지 총 4개 정예팀 체제로 올 상반기까지 글로벌 톱 수준 모델 개발 경쟁을 가속하게 된다. 모티프테크놀로지스는 이번 선정이 단순한 참여 기업 확대를 넘어 국가 AI 프로젝트의 기술적 재편이라는 점을 강조했다. 외산 오픈소스 모델을 미세조정하는 방식이 아니라 구조 설계 단계부터 독자 기술을 적용해온 점이 핵심 경쟁력으로 평가받았다는 설명이다. 회사는 기존 트랜스포머 구조를 그대로 따르지 않고 '그룹별 차등 어텐션(GDA)'과 새로운 활성화 구조인 '폴리놈 GLU' 등 자체 아키텍처와 학습 방법론을 개발해왔다. 이를 기반으로 지난해 11월 공개한 '모티프-2-12.7B' 모델은 글로벌 AI 모델 성능 종합지표에서 한국 모델 1위를 기록했으며 동급 사이즈 모델은 물론 일부 대형 모델보다 높은 점수를 받은 바 있다. 언어모델에 그치지 않고 이미지 생성 모델 '모티프-이미지-6B', 비디오 생성 모델 '모티프-비디오-1.9B'까지 자체 개발하며 멀티모달 기술력도 입증했다. 설계·학습·최적화 전 과정을 자체 역량으로 수행하는 풀스택 엔지니어링 구조가 강점이라는 평가다. 이번 사업에서 모티프테크놀로지스는 총 17개 참여 기관, 12개 수요 기관이 함께하는 컨소시엄을 구성했다. 모티프테크놀로지스가 모델 설계를 총괄하고 AI 인프라 소프트웨어 기업 모레가 대규모 GPU 클러스터 최적화와 분산 추론·경량화를 담당한다. 카이스트·서울대학교·한양대학교 등 학계는 멀티모달 모델 설계와 영상 품질 고도화, 데이터 전처리 자동화 기술 개발에 참여한다. 데이터 분야에서는 크라우드웍스와 매스프레소가 고품질 데이터 구축을 맡고 엔닷라이트는 로보틱스용 시각언어행동(VLA) 합성 데이터를 대규모로 생성한다. 산업 확산 전략도 구체화했다. 국민 체감 분야에서는 HDC랩스가 스마트홈·스마트빌딩 서비스에 AI를 적용하고 매스프레소와 에누마코리아가 교육 서비스 고도화를 추진한다. 국가 핵심 인프라 분야에서는 국가유산진흥원이 한국 문화 정체성을 반영한 서비스를 공동 개발하며 모비루스와 전북테크노파크는 농업·오프로드 환경에서 피지컬 AI 기반 자율주행·자율작업 실증을 진행한다. 로봇 기술 기업 엑스와이지는 서비스 로봇부터 휴머노이드까지 확장 가능한 비전언어행동(VLA) 모델 기반 로보틱스 적용을 맡는다. 모티프테크놀로지스 정예팀은 300B급 추론형 LLM을 시작으로 310B급 VLM, 320B급 VLA 모델로 단계적으로 고도화해 글로벌 톱 수준의 독자 AI 파운데이션 모델을 확보한다는 목표다. 개발된 모델은 상업용 오픈소스로 공개하고 대국민 플랫폼과 API 형태로도 제공해 금융·제조·방산·교육 등 산업 전반의 AX를 지원할 계획이다. 임정환 모티프테크놀로지스 대표는 "모델과 소프트웨어를 아우르는 폭넓은 오픈소스화로 국산 AI 생태계를 구축하고 산업·공공 전 분야에서 AX 성공 사례를 만들어 대한민국이 AI 3대 강국으로 도약하는 데 기여하겠다"고 포부를 밝혔다.

2026.02.20 17:15한정호 기자

[독파모 4파전] 1개 정예팀 추가…LG·업스테이지·SKT "기존 로드맵대로"

정부가 '독자 인공지능(AI) 파운데이션 모델' 프로젝트 추가 정예팀을 선정한 가운데 기존 3개 팀은 계획대로 모델 기술 경쟁력을 업그레이드하겠다고 입장을 밝혔다. 20일 과학기술정보통신부는 서울 정부청사에서 브리핑을 열고 독파모 추가 정예팀으로 모티프테크놀로지스를 선정했다고 발표했다. 이로써 독파모 프로젝트 정예팀은 LG AI연구원을 비롯한 업스테이지, SK텔레콤, 모티프테크놀로지스로 구성됐다. 모티프테크놀로지스 정예팀에는 모티프테크놀로지스와 모레, 크라우드웍스, 엔닷라이트, 서울대 산학협력단, 한국과학기술원, 한양대 산학협력단, 삼일회계법인, 국가유산진흥원, 에이치디씨랩스, 매스프레소, 에누마코리아, 경향신문사, 전북테크노파크, 모비루스, 엑스와이지, 파두가 참여한다. 신규 정예팀 소식에 기존 3개 팀은 전략 변화 없이 모델 고도화에 집중하겠다는 입장을 밝혔다. LG 관계자는 "이번 프로젝트를 통해 4개팀 모두 동반 성장하길 바란다"고 밝혔다. 업스테이지 관계자는 "우리가 당초 세웠던 계획대로 모델 기술력을 꾸준히 업그레이드할 것"이라고 설명했다. SK텔레콤 관계자 "모델 규모와 성능, 추론 능력을 올리는 데 주력할 것"이라며 "특히 모델이 다양한 언어를 커버할 수 있게 학습 데이터량을 늘릴 것"이라고 말했다. 과기정통부는 4개 팀 경쟁 체제를 곧장 가동할 방침이다. 오는 6월 말에서 7월 초로 예상되는 2차 평가에 이어 12월 중 3차 평가 결과가 나오면 연말에 최종 2곳이 남는 일정이다. 최종 선발된 정예팀 2곳만이 내년 상반기까지 엔비디아 최신 그래픽처리장치(GPU) B200과 데이터 공동구매, 구축·가공 지원 등을 받는다. 업계에선 신규 선발팀이 1단계 경쟁을 거치지 않고 2단계부터 합류하는 점을 들어 형평성 문제가 나왔다. 개발 현장에서는 이를 특혜가 아닌 후발 주자가 감수해야 할 기술적 이중고로 분석했다. 지난 6개월간 축적한 데이터 정제 노하우와 시행착오 경험 측면에서는 기존 정예팀들이 앞설 수밖에 없다는 이유에서다. 익명을 요구한 한 업계 관계자는 "기존 팀은 한 차례 평가받은 모델 기반으로 고도화 작업에만 집중하면 되지만, 신규 팀은 1단계 평가 수준의 모델 구축과 2단계 평가 목표인 고도화 작업을 동시에 수행해야 한다"며 "물리적인 시간 격차를 단기간에 압축적으로 극복해야 하는 만큼 신규 진입 팀에게 기술적 난이도가 더 높은 상황"이라고 말했다. 또 다른 업계 관계자도 "정부의 인프라 지원으로 GPU 등 하드웨어적 격차는 줄일 수 있겠지만, 모델 크기를 키우고 학습시키는 과정에서 얻은 최적화 경험은 단시간에 확보하기 어렵다"며 "기존 팀들이 구축한 기술적 격차가 존재해 신규 팀 합류가 경쟁 구도를 즉각적으로 변화시키기는 어려울 것"이라고 설명했다.

2026.02.20 17:09김미정 기자

[독자 AI 재도전] 'K-AI' 도전장 내민 모티프·트릴리온랩스, 업계 평가는

정부가 '독자 인공지능(AI) 파운데이션 모델' 프로젝트 정예팀 추가 공모를 마친 가운데, 업계에선 공모에 참여한 기업 기술력에 상반된 의견을 내놓고 있다. 독파모 정예팀으로 뽑히기에 충분한 기술을 갖췄다는 시각과 'K-AI' 모델로 선정되기 부족하다는 주장이 공존하고 있다. 과학기술정보통신부는 '독자 AI 파운데이션 모델' 프로젝트 정예팀 1개를 추가 확보하기 위한 공모 절차를 마감했다고 12일 밝혔다. 이번 공모는 지난 23일부터 이달 12일까지 진행됐다. 이번 추가 공모는 글로벌 최고 수준 모델 대비 95% 이상 성능을 목표로 독자적 개발 전략을 제시할 수 있는 국내 기업·기관을 대상으로 하며, 컨소시엄 참여도 가능하다. 선정 팀에는 B200 그래픽처리장치(GPU) 768장과 데이터 공동구매·가공 지원이 제공된다. 'K-AI 기업' 명칭 사용도 허용된다. 8월 초 단계 평가를 통해 벤치마크·전문가·사용자 평가를 진행하며, 기존 3개 정예팀과 기술 경쟁이 가능한 수준의 역량이 요구된다. 이번 공모에는 모티프테크놀로지스와 트릴리온랩스 컨소시엄이 참여해 최종 선정을 앞두고 있다. 두 기업은 심사에 제출한 모델 규모나 기술을 공개하지 않았다. 업계는 양사가 효율성과 실용성을 갖춘 경량 파운데이션 모델을 제출한 것으로 보고 있다. 정부는 이르면 이달 중으로 최종 정예팀 1개를 선정할 계획이다. 임정환 모티프 대표는 "이번 재도전은 단순 사업 참여가 아니라 국내 AI 생태계 논의 기준점을 만드는 과정"이라고 밝혔다. 이어 "결과 상관없이 도전 과정 자체가 우리 기술을 한 단계 도약시키는 결정적 계기가 될 것"이라고 덧붙였다. 신재민 트릴리온랩스 대표는 "따라잡기식 아닌 현재 비용구조를 해결할 수 있는 아키텍처를 재설계할 것"이라며 "실제 국가에서 활용할 수 있는 모델을 개발할 것"이라고 밝혔다. 업계 "모델 크기 매우 작아" vs "규모만 봐선 안 돼" AI 업계는 두 기업 기술력과 심사 결과에 대해 상반된 의견을 내놓고 있다. 독파모 정예팀으로 선발되기에 충분한 기술을 갖췄다는 의견과 K-AI 대표 모델이 되기에는 부족하다는 주장이 나오고 있다. 특히 두 기업 모델 규모가 국가 파운데이션 모델로 부족할 수 있다는 주장이 이어졌다. 익명을 요청한 국내 AI 기업 관계자는 "아무리 경량시대라 해도 두 기업이 그동안 개발한 모델 크기는 상대적으로 매우 작다"며 "이번 제출한 모델 규모 역시 K-AI 역할을 하기에 부족할 수 있다"고 말했다. 이어 "모델 성능이 독파모 기준점에 미치지 못할 경우 기존 정예팀으로 진행돼도 충분할 것"이라고 덧붙였다. 두 기업 모두 K-AI 정예팀으로 승산 있다는 의견도 등장했다. 익명을 요청한 AI 스타트업 관계자는 "해당 기업들은 제한적인 자원 환경에서 고도화된 경량화·최적화 기술을 축적해 왔다"며 "산업 특화 데이터 기반 모델 설계 경험도 충분히 갖췄다"고 평가했다. 양사 모델을 단순히 파라미터 규모로만 바라봐선 안 된다는 당부도 이어졌다. 해당 모델이 실제 활용성과 확장성 측면에서 강점을 지닐 수 있다는 이유에서다. 업계 관계자는 "두 기업이 보유한 최적화 역량과 응용 기술을 고려하면 충분히 반전을 만들 수 있을 것"이라고 내다봤다. 두 기업이 정예팀에 합류하지 못할 경우 독자적으로 AI 생태계 영향력을 강화할 것이란 전망도 나왔다. 또 다른 IT 업계 관계자는 "트릴리온랩스는 정부 과제보다는 민간 수요 기반 사업화에 속도 낼 것으로 보고 있다"며 "대규모 연산 경쟁 대신 효율 중심 전략으로 제조·금융·공공 시장을 공략할 수 있을 것"이라고 봤다. 이어 "모티프는 국내뿐 아니라 해외 오픈소스 생태계와 협력하거나 글로벌 연구 커뮤니티와 공동 연구를 확대하는 전략으로 방향을 바꿀 수 있을 것"이라고 내다봤다.

2026.02.12 18:13김미정 기자

[독자 AI 재도전] 모티프테크놀로지스, 독파모 추가 공모 참여…경량화 전략 전면에

모티프테크놀로지스가 국가대표 인공지능(AI) 정예팀 합류에 다시 도전한다. 지난해 서면평가를 통과했지만 발표평가에서 고배를 마신 뒤 기존 모델 고도화 전략을 앞세워 재승부에 나섰다. 모티프테크놀로지스는 12일 과기정통부와 한국지능정보사회진흥원(NIPA)이 진행한 '독자 AI 파운데이션 모델(독파모)' 추가 참여 컨소시엄 접수에 참여했다. 이번 재공모는 기존 3개 정예팀과 대등한 기술 경쟁이 가능한지를 판단하는 절차로, 서면 검토와 발표 평가를 통해 최종 1개 팀만 선발된다. 모티프테크놀로지스는 모레 자회사로, 고성능 거대언어모델(LLM)과 대형 멀티모달모델(LMM)을 모두 파운데이션 모델로 개발한 경험을 갖춘 스타트업이다. 지난해 공개한 LLM '모티프 12.7B'는 모델 구축부터 데이터 학습까지 전 과정을 자체 수행한 국산 기술로, 기존 트랜스포머 구조를 그대로 쓰지 않고 '그룹별 차등 어텐션(GDA)'을 적용해 아키텍처를 재설계한 것이 특징이다. 이번 독파모 도전에서도 완전히 새로운 모델을 처음부터 개발하기보다는 기존 LLM과 비전 모델 성과를 바탕으로 고도화된 로드맵을 제시하는 전략을 택한 것으로 알려졌다. 컨소시엄 명단은 구체적으로 공개되진 않았다. 업계에 따르면 모회사 모레를 비롯해 삼일회계법인·서울대학교·카이스트 등 기존에 함께했던 산학연 파트너들이 참여하며 여기에 추가 기관과 기업이 다수 합류한 것으로 전해졌다. 추가 선발이 확정되면 2차 평가는 8월 초께 시작된다. 정부는 신규 합류 팀이 기존 정예팀과 동일한 조건에서 개발을 이어갈 수 있도록 이달 중 최종 선발 절차를 마무리할 계획이다. 선정 기업에는 엔비디아 그래픽처리장치(GPU) B200 768장 규모 인프라를 비롯해 데이터 공동구매 및 구축·가공 지원이 제공된다. 다만 평가에서 경쟁력이 충분하지 않다고 판단될 경우 추가 선발 자체가 무산될 가능성도 있다. 임정환 모티프테크놀로지스 대표는 지난 8일 지디넷코리아와의 인터뷰에서 "결과와 상관없이 도전 과정 자체가 우리 기술을 한 단계 도약시키는 결정적 계기가 될 것"이라며 "경량화·특화 모델 전략을 통해 스타트업만의 방식으로 독자 파운데이션 모델의 가능성을 증명하겠다"고 밝혔다.

2026.02.12 17:57한정호 기자

[독자 AI 재도전] 정부, 독파모 추가 공모 마감…"이달 새 정예팀 선정"

정부가 '독자 인공지능(AI) 파운데이션 모델' 프로젝트 추가 정예팀 공모를 마쳤다. 모든 평가 절차를 이달 마무리해 정예팀 1개를 경쟁에 합류할 방침이다. 과학기술정보통신부는 지난달 23일부터 이달 12일까지 진행한 독파모 프로젝트 1개 정예팀 추가 공모 결과, 총 2개 컨소시엄이 제안서를 접수했다고 12일 밝혔다. 이번 공모에는 모티프테크놀로지스가 주관하는 컨소시엄과 트릴리온랩스가 주관하는 컨소시엄이 각각 지원했다. 각 팀은 국내 AI 기술을 선도할 구체적인 모델 개발 방안을 담은 제안서를 제출한 것으로 확인됐다. 정부는 제출 서류의 적합성을 검토한 뒤 외부 전문가로 구성된 평가위원회를 통해 심도 있는 검증에 나설 방침이다. 서면 검토와 발표 평가를 병행해 기술적 실현 가능성과 프로젝트 기대 효과 등을 면밀히 따질 예정이다. 과기정통부는 모든 평가 절차를 2월 중으로 마무리해 최종 선정 결과를 발표할 계획이다. 이를 통해 프로젝트의 공백을 최소화하고 실행력을 높여 국가 AI 경쟁력을 한 단계 끌어올린다는 전략입니다. 배경훈 과학기술정보통신부 장관 겸 부총리는 "독파모 프로젝트는 모두의 도전을 통해 더 큰 도전으로 나아가는 계기가 될 것"이라고 밝혔습니다.

2026.02.12 17:56김미정 기자

[AI는 지금] 대기업 발 뺀 독파모 '패자부활전'…모티프·트릴리온랩스 덕에 활기

정부가 국가대표 AI를 선발하는 독자 파운데이션 모델(독파모) 프로젝트에 '패자부활전'을 도입한 후 여러 대기업이 외면하는 것과 달리 스타트업이 잇따라 도전장을 던지면서 새로운 활기를 불어넣고 있다. 이들 중 한 곳이 추가 컨소시엄으로 선정될 경우 독파모 사업이 대기업과 스타트업의 대결 구도로 펼쳐질 것으로 예상된다.20일 업계에 따르면 모티프테크놀로지스, 트릴리온랩스는 조만간 진행되는 독파모 개발 사업 추가 공모에 참여할 예정이다. 모티프테크놀로지스, 트릴리온랩스는 각각 주관기업, 참여기업으로 독파모 1차 공모에 도전했다가 탈락한 바 있다. 모티프테크놀로지스는 반도체 기업 모레 자회사로, 고성능 대형언어모델(LLM)과 대형멀티모달모델(LMM) 모두를 파운데이션 모델로 개발한 경험을 갖췄다. 특히 지난 해 11월 공개한 LLM '모티프 12.7B'는 모델 구축부터 데이터 학습까지 전 과정을 직접 수행한 순수 국산 기술이란 점에서 주목 받고 있다. 기존 트랜스포머 구조를 그대로 쓰지 않고 '그룹별 차등 어텐션(GDA)' 기술을 자체적으로 개발해 적용해 경쟁력이 있다고 평가 받는다. 모티프테크놀로지스 관계자는 "이는 단순히 모델을 바닥부터 학습시키는 '프롬 스크래치'를 넘어 지능 핵심인 어텐션 함수와 모델의 아키텍처 자체를 새롭게 설계한 것"이라며 "12.7B 파라미터의 비교적 작은 LLM인 이 모델은 글로벌 AI 모델 성능을 종합평가하는 '아티피셜 애널리시스'의 인텔리전스지수(AAII)에서 675B에 달하는 '미스트랄 라지 3' 같은 대형 LLM보다 높은 점수를 기록했다"고 설명했다. 트릴리온랩스도 핵심 전략으로 완전한 '프롬 스크래치'를 내세워 이번에 도전장을 던진다. 이곳은 이미 의료 AI 스타트업 루닛과 함께 정부의 'AI 특화 파운데이션 모델' 사업자로 선정돼 의과학·바이오 특화 AI 모델 개발 과제를 수행하며 기술력을 입증하고 있다.특히 설립 1년 만에 700억(70B) 매개변수 규모의 LLM을 자체 기술로 개발한 경험이 있다는 점에서 기대감을 높이고 있다. 또 트릴리온랩스가 보유한 '도메인 특화 증류 기반 소형 LLM 전문가 혼합(MoE) 구조 기술'은 국가전략기술로 채택되기도 했다. 신재민 트릴리온랩스 대표는 "특화 AI 모델 개발 과제에 참여 중이어서 그동안 독파모 추가 공모에 참여해도 될지 망설였다가 최근 정부로부터 지원 자격에 제한이 없다는 답변을 받고 이처럼 결정하게 됐다"며 "그동안 프롬 스크래치 모델을 만들기 위해 전력을 쏟았던 만큼, 이번에 도전하면 승산이 있다고 생각했다"고 밝혔다. 이어 "GPU를 H100 기준 2천 장을 사용해 '덴스(Dense)' 구조로 70B 모델을 선보여 봤던 경험이 있다는 점도 우리의 경쟁력"이라며 "H100, H200, B200 등 다양한 GPU를 사용했던 경험과 완전한 프롬 스크래치 아키텍처로 AI 모델을 개발해봤던 저력이 있던 만큼 충분히 경쟁할 수 있을 것으로 본다"고 덧붙였다. 실제 트릴리온랩스가 강조한 '덴스 모델'은 독파모 1차 경쟁 5개 업체 중 네이버클라우드가 유일하게 적용해 주목 받은 바 있다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다.다만 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수가 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 평가가 많았다. 당초 1차 심사 때 옴니 모델을 14B로 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 것도 아쉬운 점으로 지목됐다.트릴리온랩스는 70B에 '덴스 모델'을 적용했다는 점에서 이번 추가 모집에서 우위를 차지할 수 있을 것으로 자신하는 분위기다. 또 개발 과정에서 '중간 체크포인트(Checkpoint)'를 매번 공개하면서 그간 독파모 선발 과정에서 제기됐던 '독자성'에 대한 의혹도 즉시 차단한다는 방침이다. 신 대표는 "10% 학습된 모델, 20% 학습된 모델 등을 개발했을 때마다 공개해 누구나 다운 받아 트래킹할 수 있도록 개방할 것"이라며 "최종 공개된 모델까지 극단적으로 투명하게 공개해 독자성 등과 관련한 논란을 원천 봉쇄할 수 있게 할 것"이라고 설명했다. 이어 "우리 모델이 진화하는 모습을 보면서 더 많은 사람들이 관심을 가지고 연구하게 될 것이라 믿는다"며 "자연스럽게 국내를 넘어 글로벌 AI 학습 생태계가 더 활발히 조성될 수 있도록 하는 것이 목표"라고 부연했다. 이 같은 분위기 속에 정부는 조만간 LG AI연구원과 업스테이지, SK텔레콤 등 독파모 2차 단계에서 함께 실력을 겨룰 1개 컨소시엄 선발에 대한 공고를 할 예정이다. 이번에 선발된 1개 팀은 이르면 7월 중순께 시행될 2차 평가에서 3개 컨소시엄과 실력을 겨루게 된다. 만약 모티프테크놀로지스나 트릴리온랩스 중 한 곳이 선정되면 LG AI연구원, SK텔레콤 등 대기업 2곳과 업스테이지 등 스타트업 2곳의 경쟁이 펼쳐질 것으로 보인다. 그러나 네이버클라우드와 KT, 카카오, NC AI 등 기존 독파모 탈락 대기업들은 지식재산권(IP) 부담과 '탈락 기업'이라는 낙인 리스크에 대한 우려로 추가 선발전에 참여하지 않기로 했다. 이처럼 대기업의 잇따른 불참 결정으로 독파모 패자부활전의 불씨가 꺼져가는 듯 했으나 스타트업들이 참여 의사를 밝히면서 정부도 흥행에 다시 기대감을 드러내는 눈치다. 코난테크놀로지스 등 일부 업체들도 참여 여부를 두고 고심 중인 것으로 알려졌다. 류제명 과기정통부 2차관은 지난 15일 브리핑에서 "추가 참여 기업에도 총 프로젝트 기간과 정부가 지원하는 GPU·데이터는 동일하게 설계해 제공할 것"이라며 "프로젝트 종료 시점이 다르더라도 2단계를 마칠 때까지 동일한 기간을 보장하고, 평가는 6~7월로 한 달 정도 유연하게 운영할 계획"이라고 밝혔다.

2026.01.20 16:27장유미 기자

모티프테크, 국가대표 AI 재도전 나선다…"정예팀 구성 논의 중"

모티프테크놀로지스(Motif Technologies)가 정부 주도 국가대표 인공지능(AI) 모델 개발 사업에 재도전을 시사했다. 모티프테크놀로지스는 과학기술정보통신부가 조만간 공고할 '독자 AI 파운데이션 모델(독파모)' 개발 사업 추가 공모에 참여할 예정이라고 20일 밝혔다. 모레 자회사인 모티프테크놀로지스는 고성능 대형언어모델(LLM)과 대형멀티모달모델(LMM) 모두를 파운데이션 모델로 개발한 경험을 갖춘 국내 유일 스타트업이다. 모티프테크놀로지스가 작년 11월 공개한 LLM '모티프 12.7B'는 모델 구축부터 데이터 학습까지 전 과정을 직접 수행한 순수 국산 기술이다. 특히 기존 트랜스포머 구조를 그대로 쓰지 않고, '그룹별 차등 어텐션(GDA)' 기술을 자체적으로 개발해 적용했다. 이는 단순히 모델을 바닥부터 학습시키는 '프롬 스크래치(From Scratch)'를 넘어, 지능 핵심인 어텐션 함수와 모델의 아키텍처 자체를 새롭게 설계한 것이다. 12.7B 파라미터의 비교적 작은 LLM인 이 모델은 글로벌 AI 모델 성능을 종합평가하는 '아티피셜 애널리시스'의 인텔리전스지수(AAII)에서 675B에 달하는 '미스트랄 라지 3' 같은 대형 LLM보다 높은 점수를 기록했다. 과기정통부는 지난 15일 독파모 1차 평가 결과 발표와 함께 올 상반기 정예팀 1곳 추가 모집 계획을 전했다. 본선에 진출한 정예팀 5곳은 6개월 단위 단계평가를 통해 하나씩 탈락시킬 방침이었지만 이번에 1곳이 아닌 2곳이 대거 탈락하면서다. 하지만 1차 평가에서 탈락한 네이버클라우드와 NC AI는 물론, 서류 및 서면평가 때 탈락했던 카카오와 한국과학기술원(KAIST)도 재공모 사업에 불참 의사를 밝혔다. KT와 코난테크놀로지는 여전히 참여 여부를 명확히 하지 않고 있다. 정부 지침이 나오는대로 신중 검토하겠다는 입장이다. 앞서 독파모 주관기업으로 나섰던 모티프테크놀로지스는 모회사인 모레와 함께 삼일회계법인, 서울대학교, 카이스트, 공공기관 등과 정예팀을 구성했다. 서면평가를 통과한 10개 팀에 들었지만 본선 문턱은 넘지 못했다. 모티프테크놀로지스 관계자는 "지난해 7월 구성했던 정예팀 외에 추가 업체들과도 논의를 진행하고 있다"고 말했다.

2026.01.20 09:28이나연 기자

[유미's 픽] 독자 AI 논란 속 '설계 주권' 시험대…LG 'K-엑사원'이 돋보인 이유

"이번 경쟁에서 고유 아키텍처를 고수하며 바닥부터 설계하는 곳은 LG AI연구원 정도입니다. 정부 과제의 짧은 데드라인과 제한된 자원 속에서 검증된 글로벌 오픈소스를 적극 활용할 수밖에 없는 환경 속에 특정 모듈 차용이 문제라면, 오픈소스 기반으로 개발한 국내 기업 다수도 그 비판에서 자유롭기 어려울 것입니다."최근 정부 주도의 독자 인공지능(AI) 파운데이션 모델 프로젝트를 둘러싼 잡음이 이어진 가운데 LG AI 연구원의 'K-엑사원'이 비교적 논란 없이 업계의 호평을 받으며 존재감을 드러내고 있다. 성능 평가에서도 미국, 중국이 점령한 글로벌 AI 상위 10위권에서 7위를 기록하며 유일하게 이름을 올려 'AI 3강'을 노린 한국을 대표할 AI 모델로 자리를 굳히는 분위기다.LG AI연구원은 'K-엑사원'이 정부의 독자 AI 파운데이션 모델 프로젝트 1차 평가 기준인 13개의 벤치마크 테스트 중 10개 부문 1위를 기록했다고 11일 밝혔다. 전체 평균 점수는 72점으로, 5개 정예팀 중 1위를 차지했다. 이 기준으로 평가를 했을 시 경쟁사들은 50점 중반대에서 60점 중반대 정도의 평균 점수를 기록하는 것으로 알려졌다. 일부 참가업체들이 최근 공개한 테크 리포트에서 13개 벤치마크 결과를 모두 기재하지 않은 것과 달리, LG AI연구원은 모든 결과를 공개해 비교 가능성을 높여 우위에 올라섰다는 평가도 나온다. 업계에선 독자 AI 모델의 가장 중요한 요소로 '프롬 스크래치'와 '독자성' 해석을 꼽고 있다. 최근 해외 모델 유사성 등 여러 논란 속에서 가장 중요한 요소가 외부 모델 '가중치(Weight) 사용' 여부가 핵심으로 떠오르고 있는데, 특히 LG AI연구원의 'K-엑사원'은 이를 모두 충족시키는 모델로 평가 받고 있다. 가중치는 AI 모델이 학습을 통해 축적한 지식이 압축된 결과물로, 라이선스와 통제권 문제와 직결된다. 정부가 해외 모델을 파인튜닝한 파생형 AI를 독자 AI로 간주하지 않겠다고 밝힌 이유도 이 때문이다. 다만 일각에선 가중치 논쟁이 독자 AI의 기준을 지나치게 단순화할 수 있다는 지적도 나온다. 가중치는 독자 AI의 최소 조건일 뿐 그 위에서 어떤 기술적 선택을 했는지가 모델의 완성도를 가른다는 것이다. 특히 대규모 자본과 연산 자원을 투입해 데이터와 파라미터 규모를 늘리는 방식은 단기 성능 경쟁에는 유리할 수 있지만, 장기적인 국가 AI 전략과는 거리가 있다는 평가도 있다.이 때문에 최근에는 가중치 이후의 단계인 모델 구조에 대한 설계 역량이 중요 기준으로 떠오르고 있다. 대표적인 영역이 어텐션(Attention)과 토크나이저(Tokenizer)다. 어텐션은 AI가 방대한 정보 중 어떤 부분에 집중할지를 결정하는 핵심 메커니즘으로 연산량과 메모리 요구량을 좌우한다. 토크나이저는 문장을 토큰 단위로 분해하는 방식으로 학습 효율과 언어 이해 능력에 직접적인 영향을 미친다. 두 요소는 성능과 비용을 동시에 결정하는 구조적 레버로, 독자 AI의 '설계 주권'을 가늠하는 지표로 평가된다.이에 대해 임정환 모티프테크놀로지스 대표는 독자 기술의 기준을 보다 구조적으로 봐야 한다고 지적했다. 그는 "엔비디아가 설계를 하고 TSMC가 생산을 맡는 구조나, 삼성 스마트폰이 다양한 외부 부품을 조합해 만들어지는 사례를 보더라도 핵심은 누가 설계의 주체냐는 점"이라며 "단순히 코드를 복제한 뒤 재학습하는 방식은 기술적 난이도가 낮아 독자 아키텍처로 보기 어렵다"고 말했다. 이어 "중국 딥시크는 기존 구조를 그대로 쓰지 않고 이를 변형해 자신들만의 기술적 철학을 담았기 때문에 독자 기술로 평가받는 것"이라고 덧붙였다.업계에선 독자 AI의 '설계 주권'을 판단하는 기준이 어텐션과 토크나이저에만 국한돼서는 안 된다는 지적도 나온다. 실제로 AI 모델의 성능과 효율은 어텐션 외에도 정규화(Normalization) 방식, 레이어 구성, FFN(Feed-Forward Network) 구조, 학습 커리큘럼 설계, 추론(Reasoning) 구조의 내재화 여부 등 복합적인 설계 선택에 의해 좌우된다. 정규화 방식과 레이어 구성은 학습 안정성과 스케일링 한계를 결정하는 요소로, 표준 레이어놈(LayerNorm)을 그대로 사용하는지, RMS놈(RMSNorm) 등 변형된 방식을 적용했는지에 따라 대규모 학습에서의 효율과 수렴 특성이 달라진다. 레이어놈이 모든 신호를 고르게 '정돈'하는 방식이라면, RMS놈은 꼭 필요한 크기 정보만 남겨 계산 부담을 줄이는 방식에 가깝다.FFN 구조 역시 전체 파라미터의 상당 부분을 차지하는 영역으로, 활성화 함수 선택이나 게이트 구조 도입 여부에 따라 연산량 대비 성능 효율이 크게 달라진다. FFN은 AI가 주목한 정보를 자기 언어로 다시 정리하는 '내부 사고 회로'에 해당한다. 학습 커리큘럼 역시 설계 주권을 가늠하는 중요한 지표로 꼽힌다. 단순히 대규모 데이터를 한 번에 투입하는 방식이 아니라, 언어 이해·추론·지시 이행·도메인 특화 학습을 어떤 순서와 비중으로 설계했는지가 모델의 안정성과 범용성을 좌우하기 때문이다. 여기에 프롬프트 기법에 의존하지 않고, 추론 과정을 모델 구조 내부에 내재화했는지 여부도 공공·국방·금융 등 고신뢰 영역에서 중요한 평가 요소로 거론된다. 업계 관계자는 "가중치는 독자 AI의 출발점이고, 어텐션과 토크나이저는 그 다음 단계"라며 "그 이후에는 학습 시나리오와 추론 구조, 스케일링 전략까지 얼마나 스스로 설계했는지가 진짜 기술적 자립도를 가른다"고 설명했다. LG AI연구원의 'K-엑사원'은 이 지점에서 차별화된 접근을 택했다. LG AI연구원은 데이터 양이나 파라미터 규모를 무작정 키우는 방식 대신, 모델 구조 자체를 고도화해 성능은 높이고 학습·운용 비용은 낮추는 전략을 적용했다. 엑사원 4.0에서 검증한 '하이브리드 어텐션(Hybrid Attention)'을 'K-엑사원'에 고도화해 적용, 국소 범위에 집중하는 슬라이딩 윈도우 어텐션과 전체 맥락을 이해하는 글로벌 어텐션을 결합했다. 이를 통해 메모리 요구량과 연산량을 이전 세대 대비 약 70% 절감했다는 설명이다. 토크나이저 역시 단순 재사용이 아닌 구조적 개선이 이뤄졌다. LG AI연구원은 학습 어휘를 약 15만 개로 확장하고, 한국어에서 자주 쓰이는 단어 조합을 하나의 토큰으로 묶는 방식을 적용했다. 그 결과 동일한 연산 자원으로 더 긴 문서를 기억하고 처리할 수 있게 됐으며 기존 대비 약 1.3배 긴 컨텍스트 처리 능력을 확보했다. 여기에 멀티 토큰 예측(MTP) 구조를 도입해 추론 속도도 크게 높였다. 이 같은 구조 혁신은 정부 프로젝트의 성격과도 맞닿아 있다. 독자 AI 파운데이션 모델의 목표는 단기적인 성능 순위 경쟁이 아니라 공공·산업 현장에서 실제로 활용 가능한 국가 AI 인프라를 구축하는 데 있기 때문이다. LG AI연구원이 고가의 최신 그래픽처리장치(GPU)가 아닌 A100급 환경에서도 프런티어급 모델을 구동할 수 있도록 설계해 인프라 자원이 제한된 기업과 기관에서도 활용 가능성을 넓혔다는 점도 우위 요소로 보인다. 다른 참가 기업들 역시 각자의 강점을 내세우고 있다. SK텔레콤은 최신 어텐션 기법과 초거대 파라미터 확장을 통해 스케일 경쟁력을 강조하고 있고, NC AI는 산업 특화 영역에서 운용 효율을 앞세우고 있다. 네이버클라우드는 멀티모달 통합 아키텍처를 독자성의 핵심으로 제시하고 있으며, 업스테이지는 데이터와 학습 기법을 통해 성능을 끌어올리는 전략을 취하고 있다. 다만 일부 모델은 외부 가중치나 구조 차용 여부를 둘러싼 논란으로 인해 기술 외적인 설명 부담을 안고 있는 상황이다. 업계 관계자는 "이번 논쟁이 '순혈이냐, 개발이냐'의 이분법으로 끝나기보다 가중치 주권을 전제로 한 설계 주권 경쟁으로 진화하고 있다고 본다"며 "이 기준에서 'K-엑사원'은 성능, 비용 효율, 구조적 혁신이라는 세 요소를 동시에 충족한 사례로 평가되고, 한국형 독자 AI가 나아갈 한 방향을 보여주고 있다"고 분석했다.업계에선 이번 1차 평가를 계기로 독자 AI에 대한 기준이 한층 정교해질 가능성이 높다고 봤다. 단순한 성능 순위나 '프롬 스크래치' 여부를 넘어 가중치 주권을 전제로 한 모델 설계 역량과 비용 효율, 실제 활용 가능성까지 함께 평가하는 방향으로 심사 기준이 진화할 수 있을 것으로 전망했다. 정부 역시 2차 심사 과정에서 독창성과 기술적 기여도를 평가 항목으로 포함하겠다고 밝힌 만큼, 향후 독자 AI 경쟁은 데이터·자본 경쟁을 넘어 누가 더 깊이 모델을 설계했는지를 가리는 국면으로 접어들 것이란 분석도 나온다.임정환 모티프테크놀로지스 대표는 "현재 독자 개발과 프롬 스크래치에 대한 개념이 혼재된 상황"이라며 "(정부 차원에서) 기술적 기여도에 따른 명확한 정의와 가이드라인 마련이 시급하다"고 강조했다. 이승현 포티투마루 부사장은 "독자 AI 2차 심사에서 퍼포먼스는 단순히 벤치마크 점수로 줄 세울 문제가 아니다"며 "가중치를 처음부터 자체 학습했는지, 데이터와 학습 과정에 대한 통제권을 갖고 있는지, 같은 조건에서 성능을 안정적으로 재현할 수 있는지가 먼저 봐야 할 기준"이라고 말했다. 이어 "이 전제가 빠진 성능 비교는 기술 평가라기보다 보여주기에 가깝다"고 덧붙였다.

2026.01.11 15:57장유미 기자

모티프테크놀로지스, 독자 구축 LLM '모티프 12.7B' 공개

모티프테크놀로지스(대표 임정환)가 7주 만에 자체 구축한 대규모 언어모델(LLM) 'Motif 12.7B'를 공개하며 기술 독립 역량을 입증했다. 모티프테크놀로지스는 최근 허깅페이스를 통해 127억 개의 매개변수를 가진 대규모 언어모델 '모티프(Motif) 12.7B'를 오픈소스로 공개했다고 밝혔다. 이 모델은 데이터 수집부터 모델 학습, 최적화까지 전 과정을 프롬 스크래치(From scratch) 방식으로 수행한 순수 국산 LLM이다. 모티프테크놀로지스는 지난 7월 T2I(Text to Image) 모델 '모티프-이미지-6B'를 공개한 데 이어 이번에 LLM을 선보이며 국내에서 유일하게 LLM과 대형 멀티모달 모델(LMM)을 모두 독자적으로 개발하고 있는 기업으로 자리매김했다. 특히 국내 AI 업계에서 GPU 클러스터 효율화와 고성능 개발 인력 확보가 주요 과제로 꼽히는 가운데, 모티프테크놀로지스는 자체 기술만으로 단 7주 만에 모델을 완성해 주목받고 있다. 모티프 12.7B는 앞서 공개된 경량 모델 모티프 2.6B보다 한층 향상된 성능을 갖췄으며, 추론 능력과 학습 효율을 모두 개선했다. 회사는 이를 가능하게 한 핵심 기술로 그룹 단위 차등 어텐션과 뮤온 옵티마이저 병렬화 알고리즘 두 가지를 꼽았다. 그룹 단위 차등 어텐션은 기존 차등 어텐션(DA) 구조의 한계를 넘어, 연산 헤드를 비대칭적으로 배분해 불필요한 연산을 줄이고 신호(signal) 정보 처리 효율을 극대화한 기술이다. 이를 통해 고난도 추론 성능을 향상시키는 동시에 환각(hallucination) 현상을 완화했다. 또한 뮤온 옵티마이저 병렬화 알고리즘은 멀티노드 학습 환경에서 발생하는 GPU 통신 병목을 해소해 연산과 통신을 지능적으로 병행함으로써 GPU 활용률을 극대화했다. 이로써 LLM 학습 효율 저하의 주요 원인으로 꼽혀온 통신 대기 문제를 사실상 제거했다. 모티프테크놀로지스는 강화학습(RL)을 생략한 대신 추론 중심 지도학습을 적용해 모델이 스스로 논리적 사고와 문제 해결을 수행하도록 설계했다. 사용자 질문의 특성에 따라 심층 추론과 즉시 응답 모드를 자동 전환하는 구조도 구현해, 상황별 최적의 연산을 수행할 수 있게 했다. 이러한 접근은 개발 비용 절감뿐 아니라 운영 효율성도 높였다. 강화학습 단계 생략으로 학습 비용을 줄이고, 불필요한 연산을 회피해 GPU 사용량과 응답 지연시간을 최소화하는 등 실질적인 비용 효율성을 확보했다. 모티프 12.7B는 수학·과학·논리 문제를 평가하는 AIME25, GPQA-다이아몬드, 제브라로직 등 추론 과제에서 알리바바의 Qwen2.5(72B)와 구글의 젬마 동급 모델을 모두 능가하는 성능을 기록했다. 한편 모티프테크놀로지스는 올해 연말까지 T2V 모델을 추가로 오픈소스로 공개할 계획이다. 고성능 LLM과 LMM을 모두 자체 개발한 경험을 바탕으로, 'LLM-LMM 투트랙 혁신'을 통해 다양한 스케일의 AI 모델 개발을 본격화할 방침이다. 임정환 대표는 "GDA와 뮤온 옵티마이저는 각각 LLM의 두뇌와 에너지 효율을 재설계한 혁신 기술"이라며 "모티프 12.7B는 단순한 성능 향상을 넘어 AI 모델의 구조적 진화를 보여주는 사례로 비용 효율적 고성능 LLM을 원하는 기업들에게 하나의 모범 답안이 될 것"이라고 말했다.

2025.11.05 10:44남혁우 기자

"국산 AI, 글로벌 시장서도 통한다"…임정환 모티프 대표의 자신감

"구글이나 오픈AI도 실제로 프로젝트 핵심 개발자는 30명 안팎입니다. 중요한 건 사람 수가 아니라 그 팀의 집중력과 문제 해결 능력입니다." 임정환 모티브테크놀로지(이하 모티프) 대표는 7일 서울 역삼동 사옥에서 진행한 인터뷰에서 이같이 말하며, 독자 인공지능(AI) 모델 개발에 대한 자신감을 내비쳤다. 그 자신감은 구체적인 성과로 이어지고 있다. 모티프가 자체 설계·개발한 소형언어모델(sLLM) '모티프 2.6B'는 글로벌 빅테크가 내놓은 동급 AI 모델들을 벤치마크에서 능가했다. 임 대표는 대규모 인프라와 투자를 앞세운 빅테크에 대응하기 위해 오픈소스 전략을 기반으로 독립적 기술 내재화에 집중하고 있으며, 데이터 주권과 기술 주체성을 확보하는 것이 국가적 과제로 자리잡아야 한다고 강조했다. 모티프 2.6B, 글로벌 빅테크 뛰어넘은 국산 sLLM 지난 6월 공개한 모티프 2.6B는 총 26억 개의 파라미터를 갖춘 경량 AI 모델이다. AMD MI250 GPU 한 장만으로도 추론이 가능하며 엔비디아 기반 인프라 대비 약 60% 수준의 비용으로 학습과 운영이 가능하다. 산업 현장에 적용 가능한 고성능 모델로 실용성과 효율성을 모두 갖췄다. 성능도 검증됐다. 벤치마크 결과, 프랑스 미스트랄의 7B 모델보다 134%, 구글 젬마 2B 대비 191%, 메타 라마 3.2(1B)보다 139%, AMD 인스텔라 3B보다 112%, 알리바바 첸(Qwen) 2.5(3B)보다 104% 높은 점수를 기록했다. 문장 내 문맥 파악과 응답 정확도를 높이기 위한 어텐션 메커니즘을 정밀하게 조정한 설계가 핵심이다. 임 대표는 "모티프 2.6B는 단순히 공개된 오픈소스AI에 추가학습을 거치거나 일부 코드를 수정한 모델이 아니라 모델 구조 설계부터 학습 데이터 구성, 학습 파이프라인까지 처음부터 끝까지 전부 독자적으로 개발했다"고 강조했다. 그는 "남이 만든 모델을 조금씩 바꾸는 방식으로는 세계 수준에 도달할 수 없다고 판단했다"며 "그래서 처음부터 끝까지 전부 직접 만들었다"고 개발 이유를 설명했다. 모티프는 이 모델을 계기로 온디바이스 AI와 에이전틱 AI 분야로 확장을 본격화한다. 경량화를 통해 슈퍼컴퓨터 없이도 구동이 가능해, 산업 현장에서의 적용성이 높기 때문이다. 또한 올해 말에는 텍스트 투 이미지(T2I), 텍스트 투 비디오(T2V)와 같은 멀티모달 생성형 AI 모델도 오픈소스로 공개할 계획이다. 이들 모델 역시 AMD 기반 인프라에서 학습 및 서비스가 가능하도록 설계되고 있다. 글로벌 빅테크와 경쟁하는 세 가지 기술 전략 임 대표는 글로벌 AI 빅테크의 성능 경쟁을 가능하게 한 강점으로 세 가지를 꼽았다. 먼저 프롬 스크래치(From scratch) 개발 경험이다. 처음부터라는 의미처럼 모델 구조부터 토크나이저, 학습 파이프라인까지 전 과정을 독자적으로 설계했다. 이러한 풀스택 설계 경험은 단순한 성능 개선을 넘어서 추후 온디바이스 AI, 에이전틱 기술 등 다양한 산업 현장 적용을 위한 최적화와 확장성의 기반이 된다. 또한 외부 의존 없이 독립적으로 고성능 AI를 구현할 수 있는 역량을 국내에서 입증했다는 점에서 한국 AI 기술 자립의 상징적인 사례로 주목받고 있다. 임정환 대표는 "많은 경우 메타의 라마의 등 오픈소스 모델을 기반으로 학습하거나 파인튜닝에 그치는데 진짜 기술력은 처음부터 끝까지 직접 만들어봐야 생긴다"며 "우리는 구조도 다르고 토크나이저도 따로 설계하는 등 모든 작업을 직접 수행하고 구현했다"고 자신감을 보였다. 오픈AI, 구글 등 글로벌 빅테크 기업들이 최근 AI 모델 구조와 학습 데이터를 비공개로 전환하는 흐름 속에서, 임 대표는 오픈소스 전략이 오히려 글로벌 경쟁력을 확보하는 핵심 요소가 될 수 있다고 강조했다. 특히 그는 "최근 몇 년간 전 세계 AI 연구 커뮤니티를 중심으로 모델 구조, 학습 데이터, 평가 지표 등이 오픈소스로 활발히 공유되며, 이제는 대규모 자본 없이도 경쟁력 있는 모델 개발이 가능한 시대가 됐다"고 설명했다. 이러한 개방형 생태계는 소규모 팀도 기술을 빠르게 내재화하고 실험하며 경쟁에 뛰어들 수 있는 토대를 제공하고 있다는 것이다. 임 대표는 "우리는 작은 팀이지만, 자체 설계와 오픈소스의 힘을 기반으로 글로벌 빅테크 모델과 성능 경쟁을 하고 있다”며 “모두가 같은 출발선에서 시작할 수 있는 시대, 중요한 건 내부 기술력과 집중력"이라고 말했다. 이어 "빅테크는 보유한 기술이나 데이터 유출을 우려해 점점 더 비공개로 전환하고 있다"며 "반면 우리는 오픈소스 생태계를 통해 다양한 기술과 데이터를 활용하고 이를 투명하게 공개하고 검증함으로써 충분히 경쟁할 수 있는 환경이 조성되고 있다"고 강조했다. 세번째는 하드웨어(HW)와 소프트웨어(SW)를 동시에 아우르는 기술력이다. 이를 통해 비용과 인프라 여건이 제한적인 환경에서도 고성능을 낼 수 있도록 모델을 구조적으로 최적화하는 것이 가능하다. 대표적으로 모티프 2.6B는 AMD의 MI250 GPU 단 한 장만으로도 추론이 가능하도록 설계한 것이 특징이다. 엔비디아 GPU 환경과 비교해도 약 60% 수준의 비용으로 학습 및 운영이 가능하다. 이러한 경량화 설계는 고성능 슈퍼컴퓨터 없이도 실사용 환경에서 AI를 적용할 수 있게 만들어준다. 실제로 해당 모델은 산업 현장, 온디바이스 AI, 에이전틱 기술 등 다양한 실용 영역에서의 확장 가능성을 지닌다. 임 대표는 "AI는 단순히 성능이 좋다고 끝이 아니라 한정된 하드웨어 자원에서 최적의 퍼포먼스를 낼 수 있어야 한다"며 "모든 서비스는 결국 현장에서 쓰여야 의미가 있는 만큼 우리는 실제 적용 가능한 AI를 만드는 데 집중하고 있으며 이를 위해 하드웨어 제약까지 고려한 전방위 최적화를 수행하고 있다"고 강조했다. 딥마인드도 수학에서 시작, 기초과학 생태계 구축 우선되야 임정환 대표는 "챗GPT가 막히면 아무것도 못하는 나라가 될 수도 있다는 위기의식이 있어야 한다"라며 한국 AI 생태계가 GPU, 인재, 데이터 등 인프라 측면에서 글로벌 대비 열세에 있다는 현실을 인정하면서도 그렇기 때문에 '자체 기술 확보'가 더욱 중요하다고 강조했다. 그는 단기적으로는 챗GPT 같은 외부 API를 활용하는 것이 빠르고 효율적일 수 있지만 외부 플랫폼 의존은 언제든 정책적, 보안적, 기술적 제약으로 이어질 수 있다는 점에서 장기적 관점에서 독립적인 기술 대안 확보가 필수라고 진단했다. 임 대표는 정부의 역할에 대해서도 "단기성 과제 중심의 R&D보다는, 기업이 장기 투자 결정을 내릴 수 있도록 제도적 유연성과 정책적 일관성을 마련해야 합니다"라고 조언했다. 그는 "기업 입장에서 예산보다 더 중요한 건 방향성"이라며 정부가 정말 AI에 진지하게 투자하려는 의지가 있다는 신호를 줄 수 있어야 한다"고 덧붙였다. 또한 미국, 일본처럼 민간 주도, 정부 후원 구조가 형성돼야 하며, 한국도 기초과학 투자, 오픈소스 생태계 조성, 인재 양성 등을 포함한 장기 비전 아래 생태계를 설계해야 한다고 제언했다. 특히 AI 기술의 근간이 되는 수학, 통계, 컴퓨터과학 등 기초과학 분야에 대한 국가적 관심과 장기적 투자 확대가 절실하다고 강조했다. 이를 위해 영국 유학 시절 경험을 바탕으로 AI열풍을 일으킨 딥마인드의 출발점 역시 기초과학 기반의 문제 해결 연구였다는 점을 예로 들었다. 그는 "딥마인드를 만든 초기 멤버들은 원래 신약 개발이나 뇌과학을 연구하던 과학자들"이라며로 "시작은 상용 AI가 아니 기초 수학과 과학 연구였다"고 말했다. 산업과 학문이 긴 호흡으로 연결돼야 한다는 점도 강조했다. 지금처럼 산업계는 결과물 중심, 학계는 논문 중심으로 따로 움직이는 구조로는 한국에서 딥마인드 같은 모델이 탄생하기 어렵다는 것이다. 임정환 대표는 "AI를 비롯한 모든 기술의 본질은 수학과 과학"이라며 "그 기반이 튼튼해야 진짜 경쟁력을 갖출 수 있다"고 말했다. 그는 "기업이 기초 수학이나 과학에 자연스럽게 투자할 수 있는 분위기를 정부가 조성해야 한다"며 "그래야 AI를 비롯한 다양한 기술을 주도할 수 있는 국가가 될 수 있을 것"이라고 비전을 제시했다.

2025.08.07 11:09남혁우 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

일본 라인야후-카카오게임즈 동맹, 게임 사업 시너지 낼까

'사람 중심' HR테크 컨퍼런스 5월 열린다

AI 주도 3개 부처 한자리에…"조직 칸막이 허문 역대급 행사"

[유미's 픽] 'AI G3' 외치지만 실무 인력 태부족…인력난 해결 '절실'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.