• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
인공지능
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'트릴리온랩스'통합검색 결과 입니다. (16건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[종합] 모티프 합류한 독파모 2차전, 8월에 결판…독자성·데이터 활용성 '관건'

정부가 추진 중인 '독자 AI 파운데이션 모델(독파모, K-AI)' 프로젝트의 추가 정예팀으로 모티프테크놀로지스가 선정되면서 3개 자리를 둘러싼 2차전의 본격적인 막이 올랐다. 이번 경쟁이 대기업 2곳과 스타트업 2곳 구도로 재편된 가운데 2차 평가에서 정부가 어떤 기준을 내세울지, 모티프테크놀로지스가 기존 정예팀과 달리 어떤 전략으로 실력을 드러낼 수 있을지 관심이 집중된다. 20일 과학기술정보통신부에 따르면 모티프테크놀로지스는 트릴리온랩스를 제치고 기존 LG AI연구원, 업스테이지, SK텔레콤에 이어 2차 평가에 도전할 네 번째 'K-AI' 정예팀으로 이날 선정됐다. 독자 아키텍처로 AI 모델을 설계한 경험, 상대적으로 적은 파라미터와 제한된 데이터 환경에서도 세계적인 수준의 모델과 경쟁 가능한 성능을 달성한 경험에서 높은 평가를 받은 것으로 알려졌다.지난해 2월 설립된 모티프테크놀로지스는 반도체 기업 모레 자회사로, 고성능 대형언어모델(LLM)과 대형멀티모달모델(LMM) 모두를 파운데이션 모델로 개발한 경험을 갖췄다. 특히 지난 해 11월 공개한 LLM '모티프 12.7B'는 모델 구축부터 데이터 학습까지 전 과정을 직접 수행한 순수 국산 기술이란 점에서 주목받았다. 또 기존 트랜스포머 구조를 그대로 쓰지 않고 '그룹별 차등 어텐션(GDA)' 기술을 자체적으로 개발·적용해 경쟁력이 있다고 평가 받는다. 모티프테크놀로지스는 정예팀으로 모레, 크라우드웍스, 엔닷라이트, 서울대학교 산학협력단, 한국과학기술원(KAIST), 한양대학교 산학협력단, 삼일회계법인, 국가유산진흥원, HDC랩스, 매스프레소, 에누마코리아, 경향신문사, 전북테크노파크, 모비루스, 엑스와이지, 파두 등을 포함시켰다. 또 300B급 추론형 LLM(거대언어모델)을 시작으로 310B급 VLM(비전언어모델), 320B급 VLA(비전언어액션모델) 등으로 고도화해 독자 AI 파운데이션 모델을 개발·확보하겠다는 목표를 세웠다. 임정환 모티프테크놀로지스 대표는 "그동안 부족한 자원에도 불구하고 독자적인 설계로 글로벌 경쟁력을 증명해왔다"며 "이번 사업에서 지원되는 자원과 컨소시엄의 역량을 결합하면 기존 참가팀을 뛰어넘는 성과를 낼 수 있다고 확신한다"고 말했다. 이어 "모델과 SW를 아우르는 폭넓은 오픈소스화로 국산 AI 생태계를 구축할 것"이라며 "산업·공공 전 분야에서 AX 성공 사례를 만들어 대한민국이 AI G3로 도약하는 데 기여하겠다"고 덧붙였다. 업계에선 모티프테크놀로지스가 독파모 2차전 마지막 정예팀으로 합류하면서 대기업 2곳, 스타트업 2곳이라는 이상적인 밸런스로 경쟁 구도가 갖춰졌다고 평가했다. 자본과 인프라를 갖춘 대기업의 안정감에 속도감 있고 혁신 지향적인 스타트업의 패기가 더해지며 국가 AI 프로젝트가 한층 역동적으로 추진될 것이란 기대감도 내비쳤다. 또 정부가 기존 업체들과의 형평성을 맞추기 위해 모티프테크놀로지스에 전폭적인 지원에 나섰다는 점에서 얼마나 기술 격차를 줄여나갈 수 있을지를 두고 주목하고 있다. 정부는 모티프테크놀로지스에 독자 AI 모델 개발에 필요한 엔비디아 최신 그래픽처리장치(GPU) B200만 768장을 지원할 예정으로, H100과 B200을 함께 공급받는 LG AI연구원, 업스테이지에 비해 모티프테크놀로지스가 좀 더 유리한 고지에 오른 것으로 보인다. 개발 기간도 모티프테크놀로지스에 불이익이 없도록 형평성을 맞췄다. 정부는 기존 3개 정예팀은 1월부터 6월 말까지 AI 모델을 개발하고, 모티프테크놀로지스는 2월부터 7월 말까지 개발할 수 있도록 기간을 정했다. 또 모든 정예팀이 AI 모델 개발을 마친 이후 8월 초 내외에 단계 평가를 진행키로 했다. 데이터 지원은 기존 업체와 동일하게 진행된다. 정부는 데이터 개별 구축·가공에 17억5000만원, 데이터 공동구매·활용에 100억원 수준을 모티프테크놀로지스에 지원하고 'K-AI 기업' 명칭도 부여키로 했다. 업계 관계자는 "모티프테크놀로지스가 트릴리온랩스보다 기술력이 조금 더 있다고 평가돼 추가 사업자로 선정은 됐지만, 기존 3개 업체들과 이미 경쟁해 한 번 탈락했던 상황에서 이번 정부 지원으로 얼마나 격차를 좁힐지가 관건"이라며 "기존 3개 업체들이 단계평가 전 한 달의 시간 동안 미리 3차 평가 준비에 나설 가능성이 높다는 점도 고려할 부분"이라고 말했다. 일각에선 모티프테크놀로지스의 합류로 업스테이지가 제일 긴장감이 높을 것으로 예상했다. 같은 스타트업인데다 모티프테크놀로지스와 달리 업스테이지가 B200을 온전히 지원 받지 못한다는 점에서다. 또 모티프테크놀로지스가 300B급 추론형 LLM을 2차 평가 목표로 내세운 것이 200B 모델을 앞세운 업스테이지를 겨냥한 것이란 평가도 나왔다. 업계 관계자는 "모티프테크놀로지스 입장에선 일단 GPU를 정부 지원으로 돌려 글로벌 수준의 AI 모델 개발에 도전할 수 있고, 인지도도 높일 수 있다는 점에서 엄청난 기회를 잡은 것이라고 보여진다"며 "업스테이지를 넘어설 목표로 2차 평가전에 나설 가능성이 높다"고 밝혔다. 이 같은 상황에서 정부는 정예팀들과 2차 평가 기준·방안 등을 조만간 협의·확정해 글로벌 수준의 독자 AI 파운데이션 모델 개발을 뒷받침하고, 이를 통해 우리나라 AI 생태계 경쟁력 제고 등을 적극 도모한다는 계획을 내놨다. ▲벤치마크 평가 ▲전문가 평가 ▲사용자 평가 등 기존 단계평가의 큰 틀은 유지하되, 글로벌 주요 리더보드 타겟으로 글로벌 벤치마크를 선정하고 전문가 평가 항목에 '독자성' 평가 세분화 등도 검토키로 했다. 또 재공고 시행 배경이 된 개발 모델의 독자성 잣대는 '초기 데이터 로그 보유 및 자체 문제해결 능력'으로 규정해 논란을 불식시키기 위한 노력에도 나섰다. 업계에선 2차 평가 핵심으로 단순한 성능 고도화를 넘어 산업 현장 적용을 위한 '확장성 및 활용성'이 될 것이라고 예상했다. 또 최근 정부가 공공 데이터 개방에 적극 나서고 있는 만큼 데이터를 AI 모델로 얼마나 잘 활용할 수 있을지도 관건이 될 것으로 전망했다. 업계 관계자는 "2차 평가 기준이 1차 때랑 크게 바뀌지 않을 듯 해 모티프테크놀로지스가 기존 3사와의 기술 격차를 어떻게 좁힐 수 있을지가 관건"이라면서도 "정부가 2차 평가에선 컨소시엄에 참여한 기업들과 주관사가 AI 모델 개발 과정에서 어떻게 구체적으로 협업할 수 있는지가 주요 기준이 될 것"이라고 예상했다. 그러면서 "AI 모델 개발에서 끝나는 게 아니라 각 컨소시엄들이 현장에서 어떻게 활용할지에 대한 계획을 잘 드러내는 것이 중요해보인다"고 덧붙였다. 또 다른 관계자는 "정부가 개방한 공공 데이터를 AI 모델을 학습할 때 잘 활용해 우리나라에 특화된 AI로 얼마나 잘 만들 수 있는지가 2차 평가에서 중요하게 반영될 것"이라며 "모델 성능이나 크기보다 데이터 활용도, 우리나라 상황과 한국어 맥락에 맞는 답변을 제대로 내놓을지에 대한 평가가 좀 더 심도있게 진행될 듯 하다"고 전망했다.

2026.02.20 18:47장유미 기자

[독파모 4파전] 트릴리온랩스, 추가 공모 탈락…"독자 아키텍처 개발 지속"

과학기술정보통신부 '독자 AI 파운데이션 모델(독파모)' 추가 공모에 도전한 트릴리온랩스가 최종 탈락했다. 회사는 결과를 수용하되, 프롬 스크래치 기반 독자 아키텍처 개발 기조를 이어가겠다는 입장이다. 트릴리온랩스는 20일 과기정통부가 발표한 독파모 추가 공모 선정 결과에 대해 "이번 독자 파운데이션 모델 구축 사업 결과를 겸허히 수용한다"고 밝혔다. 이날 과기정통부는 독파모 추가 공모 심층평가 결과 모티프테크놀로지스를 정예팀으로 추가 선정했다고 발표했다. 이번 평가에는 모티프테크놀로지스와 트릴리온랩스 두 컨소시엄이 참여했으며 두 팀 모두 역량을 인정받았지만 최종 선정은 모티프테크놀로지스에 돌아갔다. 이에 대해 트릴리온랩스는 해당 사업이 본격 논의되기 이전부터 가중치 초기화 단계부터 설계하는 독자 모델 개발의 중요성을 강조해 왔다고 설명했다. 이미 자체 아키텍처 설계와 새로운 구조에 대한 연구·개발을 지속해왔으며 이번 결과와 무관하게 기술적 방향성을 유지한다는 입장이다. 회사 측은 "해당 사업이 논의되기 이전부터 프롬 스크래치 기반 독자 모델 개발의 중요성을 강조해 왔으며 이미 그 길을 묵묵히 걸어오고 있었다"며 "이번 결과는 아쉽지만 트릴리온랩스의 방향은 달라지지 않는다"고 밝혔다. 이어 "가중치 초기화부터 설계하는 독자 아키텍처와 새로운 구조에 대한 도전을 앞으로도 멈추지 않을 것"이라며 "소중한 경험과 기회를 준 점에 감사드리며 향후 또 다른 기회가 주어진다면 더욱 준비된 모습으로 다시 도전하겠다"고 덧붙였다.

2026.02.20 16:57한정호 기자

덩치보다 지능…트릴리온랩스, 글로벌 상위 '사고형 AI' 독자 구현

트릴리온랩스가 대규모 인프라 지원 없이 독자적인 기술력만으로 인공지능(AI) 모델 성능을 입증했다. 트릴리온랩스는 '트리(Tri) 21B 씽크'가 글로벌 AI 모델 성능 분석 기관인 아티피셜 애널리시스(AA) 리더보드에서 글로벌 톱 30 내에 등재됐다고 19일 밝혔다. 이번에 공개된 모델은 정답을 생성하는 수준을 넘어 문제 해결 과정에서 스스로 이전 단계로 되돌아가 검토하는 '백트래킹' 구조를 구현했다. 특히 AI가 더 오래 생각할수록 어려운 과제 해결 능력이 높아지는 '테스트 타임 스케일링' 기술을 적용해 복합 데이터 분석과 고난도 코딩 성능을 극대화했다. 트리 21B 씽크는 210억(21B) 파라미터 규모로 설계돼 단 1장의 그래픽처리장치(GPU) 환경에서도 원활하게 작동한다. 수십 장의 GPU가 필요한 대형 모델과 달리, 적은 자원으로도 성능을 낼 수 있도록 아키텍처 설계와 학습 전략을 최적화했다는 설명이다. 신재민 트릴리온랩스 대표는 "이번 AA 등재로 한국이 글로벌 AI 3강으로 도약하는 과정에 기여해 기쁘다"며 "글로벌 1위 성능을 목표로 모델 완성도를 높여 국가대표급을 넘어 글로벌 AI 모델로서의 입지를 다지겠다"고 강조했다.

2026.02.19 15:13이나연 기자

[독자 AI 재도전] 'K-AI' 도전장 내민 모티프·트릴리온랩스, 업계 평가는

정부가 '독자 인공지능(AI) 파운데이션 모델' 프로젝트 정예팀 추가 공모를 마친 가운데, 업계에선 공모에 참여한 기업 기술력에 상반된 의견을 내놓고 있다. 독파모 정예팀으로 뽑히기에 충분한 기술을 갖췄다는 시각과 'K-AI' 모델로 선정되기 부족하다는 주장이 공존하고 있다. 과학기술정보통신부는 '독자 AI 파운데이션 모델' 프로젝트 정예팀 1개를 추가 확보하기 위한 공모 절차를 마감했다고 12일 밝혔다. 이번 공모는 지난 23일부터 이달 12일까지 진행됐다. 이번 추가 공모는 글로벌 최고 수준 모델 대비 95% 이상 성능을 목표로 독자적 개발 전략을 제시할 수 있는 국내 기업·기관을 대상으로 하며, 컨소시엄 참여도 가능하다. 선정 팀에는 B200 그래픽처리장치(GPU) 768장과 데이터 공동구매·가공 지원이 제공된다. 'K-AI 기업' 명칭 사용도 허용된다. 8월 초 단계 평가를 통해 벤치마크·전문가·사용자 평가를 진행하며, 기존 3개 정예팀과 기술 경쟁이 가능한 수준의 역량이 요구된다. 이번 공모에는 모티프테크놀로지스와 트릴리온랩스 컨소시엄이 참여해 최종 선정을 앞두고 있다. 두 기업은 심사에 제출한 모델 규모나 기술을 공개하지 않았다. 업계는 양사가 효율성과 실용성을 갖춘 경량 파운데이션 모델을 제출한 것으로 보고 있다. 정부는 이르면 이달 중으로 최종 정예팀 1개를 선정할 계획이다. 임정환 모티프 대표는 "이번 재도전은 단순 사업 참여가 아니라 국내 AI 생태계 논의 기준점을 만드는 과정"이라고 밝혔다. 이어 "결과 상관없이 도전 과정 자체가 우리 기술을 한 단계 도약시키는 결정적 계기가 될 것"이라고 덧붙였다. 신재민 트릴리온랩스 대표는 "따라잡기식 아닌 현재 비용구조를 해결할 수 있는 아키텍처를 재설계할 것"이라며 "실제 국가에서 활용할 수 있는 모델을 개발할 것"이라고 밝혔다. 업계 "모델 크기 매우 작아" vs "규모만 봐선 안 돼" AI 업계는 두 기업 기술력과 심사 결과에 대해 상반된 의견을 내놓고 있다. 독파모 정예팀으로 선발되기에 충분한 기술을 갖췄다는 의견과 K-AI 대표 모델이 되기에는 부족하다는 주장이 나오고 있다. 특히 두 기업 모델 규모가 국가 파운데이션 모델로 부족할 수 있다는 주장이 이어졌다. 익명을 요청한 국내 AI 기업 관계자는 "아무리 경량시대라 해도 두 기업이 그동안 개발한 모델 크기는 상대적으로 매우 작다"며 "이번 제출한 모델 규모 역시 K-AI 역할을 하기에 부족할 수 있다"고 말했다. 이어 "모델 성능이 독파모 기준점에 미치지 못할 경우 기존 정예팀으로 진행돼도 충분할 것"이라고 덧붙였다. 두 기업 모두 K-AI 정예팀으로 승산 있다는 의견도 등장했다. 익명을 요청한 AI 스타트업 관계자는 "해당 기업들은 제한적인 자원 환경에서 고도화된 경량화·최적화 기술을 축적해 왔다"며 "산업 특화 데이터 기반 모델 설계 경험도 충분히 갖췄다"고 평가했다. 양사 모델을 단순히 파라미터 규모로만 바라봐선 안 된다는 당부도 이어졌다. 해당 모델이 실제 활용성과 확장성 측면에서 강점을 지닐 수 있다는 이유에서다. 업계 관계자는 "두 기업이 보유한 최적화 역량과 응용 기술을 고려하면 충분히 반전을 만들 수 있을 것"이라고 내다봤다. 두 기업이 정예팀에 합류하지 못할 경우 독자적으로 AI 생태계 영향력을 강화할 것이란 전망도 나왔다. 또 다른 IT 업계 관계자는 "트릴리온랩스는 정부 과제보다는 민간 수요 기반 사업화에 속도 낼 것으로 보고 있다"며 "대규모 연산 경쟁 대신 효율 중심 전략으로 제조·금융·공공 시장을 공략할 수 있을 것"이라고 봤다. 이어 "모티프는 국내뿐 아니라 해외 오픈소스 생태계와 협력하거나 글로벌 연구 커뮤니티와 공동 연구를 확대하는 전략으로 방향을 바꿀 수 있을 것"이라고 내다봤다.

2026.02.12 18:13김미정 기자

[독자 AI 재도전] 트릴리온랩스, 국가대표 AI 정조준…독자 아키텍처 '승부수'

트릴리온랩스가 과학기술정보통신부의 '독자 AI 파운데이션 모델(독파모)' 추가 공모에 재도전하며 국가대표 AI 정예팀 합류를 다시 노린다. 지난해 1차 평가에서 탈락한 뒤 독자 아키텍처 고도화와 실전형 모델 역량을 앞세워 재승부에 나섰다. 트릴리온랩스는 12일 과기정통부와 한국지능정보사회진흥원(NIPA)이 진행한 독파모 추가 참여 컨소시엄 접수에 참여했다. 이번 추가 공모는 기존 3개 정예팀과 유의미한 경쟁이 가능한 1개 팀을 선발하기 위한 절차로, 서면·발표평가를 거쳐 전문가 평가위원 과반의 인정을 받아야 한다. 트릴리온랩스는 설립 1년 만에 700억(70B) 매개변수 규모의 거대언어모델(LLM)을 자체 설계·학습해 공개한 스타트업이다. 초기 설계 단계부터 모델 아키텍처를 직접 구현했으며 최근 1년간 22건의 기술 기여를 기록하는 등 프롬 스크래치 개발 역량을 강조해 왔다. 특히 외부 모델을 미세조정하는 방식이 아닌 구조 혁신 중심 전략을 내세우고 있다. 신재민 트릴리온랩스 대표는 지난 8일 지디넷코리아와의 인터뷰에서 "남의 모델 위에 얹혀 파인튜닝만 하는 방식은 무늬만 국산에 불과하다"며 독자 아키텍처 확보 필요성을 강조한 바 있다. 구체적인 컨소시엄 구성은 아직 공개되지 않았다. 업계에 따르면 이곳은 국가 기간 인프라·제조·국방·공공·보안 분야 기업과 연구기관 등 20곳 이상이 참여하는 대규모 연합을 꾸린 것으로 전해졌다. 추가 선발이 이뤄질 경우 2차 단계평가는 8월 초 진행될 예정이다. 과기정통부는 추가 합류팀이 기존 정예팀과 동등한 수준의 AI 모델 개발 기간을 확보할 수 있도록 이달 안에 최종 정예팀을 확정한다는 방침이다. 추가 선발 팀에는 엔비디아 최신 그래픽처리장치(GPU) B200 768장 규모의 컴퓨팅 자원과 데이터 공동구매·구축 지원 등이 제공된다. 다만 평가 기준에 부합하지 않을 경우 추가 선정이 없을 가능성도 열려 있다. 트릴리온랩스 측은 "추격형 모델 경쟁과 고비용 구조로는 AI 3강에 진입할 수 없다"며 "규모 확장만이 아닌 비용 구조 혁신과 아키텍처 재설계를 통해 게임의 룰을 바꿔야 한다"고 밝혔다. 이어 "이번 프로젝트는 국가 인프라 현장에서 실제로 작동하는 AI를 구현해 독자 기술 기반의 산업 내재화를 이루는 전환점이 될 것"이라고 덧붙였다.

2026.02.12 17:57한정호 기자

[독자 AI 재도전] 정부, 독파모 추가 공모 마감…"이달 새 정예팀 선정"

정부가 '독자 인공지능(AI) 파운데이션 모델' 프로젝트 추가 정예팀 공모를 마쳤다. 모든 평가 절차를 이달 마무리해 정예팀 1개를 경쟁에 합류할 방침이다. 과학기술정보통신부는 지난달 23일부터 이달 12일까지 진행한 독파모 프로젝트 1개 정예팀 추가 공모 결과, 총 2개 컨소시엄이 제안서를 접수했다고 12일 밝혔다. 이번 공모에는 모티프테크놀로지스가 주관하는 컨소시엄과 트릴리온랩스가 주관하는 컨소시엄이 각각 지원했다. 각 팀은 국내 AI 기술을 선도할 구체적인 모델 개발 방안을 담은 제안서를 제출한 것으로 확인됐다. 정부는 제출 서류의 적합성을 검토한 뒤 외부 전문가로 구성된 평가위원회를 통해 심도 있는 검증에 나설 방침이다. 서면 검토와 발표 평가를 병행해 기술적 실현 가능성과 프로젝트 기대 효과 등을 면밀히 따질 예정이다. 과기정통부는 모든 평가 절차를 2월 중으로 마무리해 최종 선정 결과를 발표할 계획이다. 이를 통해 프로젝트의 공백을 최소화하고 실행력을 높여 국가 AI 경쟁력을 한 단계 끌어올린다는 전략입니다. 배경훈 과학기술정보통신부 장관 겸 부총리는 "독파모 프로젝트는 모두의 도전을 통해 더 큰 도전으로 나아가는 계기가 될 것"이라고 밝혔습니다.

2026.02.12 17:56김미정 기자

화면 왜곡 없이 상상하는 AI…트릴리온랩스, 세계 첫 모바일 월드모델 공개

트릴리온랩스가 모바일 환경에서 사용자 조작에 따른 미래 변화를 코드로 시뮬레이션하는 기술을 선보이며 실행형 인공지능(AI) 시장 선점에 나선다. 단순 이미지 생성을 넘어 웹 코드를 통해 화면을 재현함으로써 기존 월드모델의 고질적인 문제인 화면 왜곡을 해결했다. 트릴리온랩스는 주변 환경의 인과관계를 학습해 화면 변화를 실시간으로 재현하는 모바일 월드모델 'g월드-32B'를 세계 최초로 개발했다고 9일 밝혔다. g월드-32B는 AI 에이전트가 특정 행동을 하기 전 그 결과를 시각적·논리적으로 상상해 시뮬레이션하는 기술이다. 기존 월드모델은 다음 화면을 이미지(픽셀) 단위로 생성해 글자가 뭉개지거나 형태가 왜곡되는 한계가 있었다. g월드-32B는 실행 가능한 웹 코드(HTML·CSS) 형태로 결과물을 예측해 구조적 한계를 개선한 것이 특징이다. 이 기술은 다음 화면의 사진을 찍어 보내는 방식이 아닌, 정교한 설계도에 해당하는 코드를 생성해 실시간 고화질 렌더링을 유도한다. 렌더링 실패율을 1% 미만으로 낮췄으며 텍스트와 아이콘을 왜곡 없이 선명하게 유지하는 높은 정확도를 확보했다. 특히 모델 최적화 기술로 매개변수 규모가 50배 이상 큰 초거대 AI 모델 '라마(Llama)-4-402B'를 상회하는 그래픽 사용자 인터페이스(GUI) 예측 성능을 기록했다. 국내 모바일 환경에 특화된 한국어 벤치마크인 KApps(한국 모바일 앱 조작 성능 평가 지표)에서도 별도 추가 학습 없이 바로 실전에 투입 가능한 '제로샷(Zero-shot)' 성능을 구현했다. 트릴리온랩스는 이 모델을 실행형 AI 기술로 발전시켜 디지털 서비스 운영 전반의 자동화를 지원할 계획이다. 신재민 트릴리온랩스 대표는 "묻고 답하는 AI를 넘어 복잡한 디지털·물리적 환경에서 직접 행동하는 실행형 AI 시대가 도래했다"며 "이는 정부 AI 전략 과제가 본격화되기 이전부터 월드모델에 집중해 온 결과물"이라고 말했다. 신 대표는 "로보틱스와 공공 서비스 자동화 등 다양한 영역에서 대한민국 AI 주권과 산업 경쟁력에 혁신을 가져올 것으로 기대한다"고 덧붙였다.

2026.02.09 14:56이나연 기자

[독자 AI 재도전] 신재민 대표 "무늬만 국산, 의미 없다…AI 주권, 구조서 갈려"

과학기술정보통신부가 추진하는 '독자 AI 파운데이션 모델(독파모)' 추가 선발을 앞두고 1차 평가에서 탈락했던 인공지능(AI) 스타트업들이 다시 한 번 도전에 나서고 있다. 이번 추가 공모는 단순한 '패자부활전'을 넘어 한국 AI 기술이 어떤 방향과 전략을 선택할 것인지를 가늠하는 시험대가 될 전망이다. 특히 대기업 중심 구도 속에서 스타트업이 독자 기술과 아키텍처를 앞세워 어떤 해법을 제시할 수 있을지가 주목된다. 지디넷코리아는 독파모 추가 선발전에 도전하는 모티프테크놀로지스와 트릴리온랩스 두 기업 대표의 인터뷰를 통해 각자의 문제의식과 기술 전략을 짚어본다. [편집자주] "진정한 '사업보국'은 남의 기술을 빌려 쓰는 데 있지 않습니다. 설계도부터 직접 그리는 독자 아키텍처 확보만이 대한민국 인공지능(AI) 주권을 지키고 국가에 이바지하는 유일한 길이라고 생각합니다." 신재민 트릴리온랩스 대표는 8일 지디넷코리아와의 인터뷰에서 정부가 추진하는 독자 AI 파운데이션 모델(독파모)' 추가 선발전에 도전장을 내밀게 된 이유에 대해 이처럼 말했다. 그는 지난 2024년 8월 트릴리온랩스를 설립한 인물로, 국내 최대 AI 모델인 네이버 '하이퍼클로바' 개발의 핵심 주역으로도 유명하다. 신 대표는 AI 파운데이션 모델이 더 이상 단순한 서비스 경쟁의 도구가 아니라 과학·의료·제조 등 국가 핵심 산업 전반의 기반 기술로 빠르게 확장되고 있다고 진단했다. 이 과정에서 외산 모델에 대한 의존은 단기적 효율을 넘어 장기적 주도권 상실로 이어질 수 있다는 위기감이 커지고 있다고 봤다. 그는 "지금은 외부 모델을 쓰는 것이 편리해 보일 수 있지만, 시간이 지날수록 우리가 통제할 수 없는 영역이 빠르게 늘어날 수 있다"며 "AI는 결국 국가 경쟁력과 직결되는 전략 산업"이라고 말했다. "규모 경쟁은 한계…아키텍처 혁신서 해법 찾아야" 트릴리온랩스의 기술 전략은 명확하다. 미국·중국과 같은 방식으로 자본을 투입해 모델 크기를 키우는 경쟁은 한국 현실에 맞지 않고 지속 가능하지 않다고 보고 있다. 이에 신 대표는 한정된 자원 환경에서 경쟁력을 확보하려면 규모가 아니라 구조를 바꿔야 한다고 강조했다. 또 그는 현재 글로벌 AI 산업이 겉으로는 성능 경쟁을 벌이고 있지만, 이면에서는 확장 비용과 전력, 인프라 의존이라는 구조적 한계에 직면해 있다고 봤다. 그래픽처리장치(GPU)와 고대역폭메모리(HBM)에 대한 의존이 심화될수록 개발 비용은 기하급수적으로 증가하고, 이는 결국 소수 국가·기업 중심의 기술 집중으로 이어질 수 있다고 주장했다. 신 대표는 "지금의 트랜스포머 기반 구조는 분명한 성과를 만들어냈지만 동시에 한계도 뚜렷해지고 있다"며 "컨텍스트 길이, 추론 효율, 비용 문제를 동시에 해결하려면 새로운 아키텍처에 대한 도전이 불가피하다"고 말했다. 이어 "이런 시도는 단기간 성과를 내기 어렵고 실패 가능성도 높지만, 누군가는 반드시 해야 할 영역"이라고 덧붙였다. "프롬 스크래치·신규 아키텍처로 기술 주권 확보" 이 같은 전략 아래 트릴리온랩스는 기존 대규모 언어모델의 성능 추격보다는 차세대 구조에 대한 선제적 연구에 무게를 두고 있다. 단기적인 벤치마크 성과보다 향후 AI 확장 과정에서 병목이 될 수 있는 구조적 문제를 어떻게 해결할 것인가에 초점을 맞췄다. 디퓨전 모델, 월드 모델 등 새로운 접근을 지속적으로 연구해온 이유도 여기에 있다. 신 대표는 독파모 사업 역시 단순한 정부 지원 과제가 아니라 한국 AI 산업의 방향성을 검증하는 시험대가 돼야 한다고 봤다. 한 번의 성과로 끝나는 프로젝트가 아니라 장기적으로 지속 가능한 기술 축적과 생태계 형성으로 이어져야 한다는 주장이다.그는 "독파모는 누가 더 큰 모델을 만들었는지를 가리는 자리가 아니라 한국이 어떤 방식으로 AI를 발전시킬 것인지를 보여주는 과정"이라며 "스타트업도 파운데이션 모델을 만들 수 있다는 사실을 국가적으로 증명하고 싶다"고 말했다. 이어 "추격자가 아니라 개척자로 가는 선택이 당장은 더 어렵고 느려 보일 수 있지만, 그 길만이 한국 AI가 장기적인 주도권을 확보할 수 있는 해법이라고 믿는다"고 강조했다. 트릴리온랩스가 이번 추가 선발전에 다시 도전한 배경에 대해선 이미 민간 자본만으로 초거대 모델을 학습해본 경험이 있다는 자신감 덕분이라고 강조했다. 신 대표는 회사의 핵심 경쟁력으로 민간 자본만으로 700억 개(70B) 파라미터 규모의 모델을 학습·운영한 실전 경험을 꼽았다.그는 "정부 지원을 전제로 설계된 계획이 아니라 이미 자체적으로 대규모 모델을 학습하고 운영해본 경험이 있다"며 "이 과정에서 인프라 구축, 분산 학습, 장애 대응까지 전 주기를 직접 겪은 것이 강점"이라고 말했다. 이어 "독파모는 새로 시작하는 실험이 아니라 이미 축적해온 기술과 경험을 국가 차원에서 확장하는 과정이 돼야 한다"며 "그 역할을 스타트업도 충분히 수행할 수 있다는 점을 보여주고 싶다"고 덧붙였다. "국가 예산 투입한 독파모, 글로벌 기준 냉혹한 평가 필요" 신 대표가 강조하는 '독자 아키텍처'는 단순히 모델 구조를 일부 변형하는 수준에 머물지 않는다. 그는 외부 모델의 가중치를 가져와 미세 조정하는 방식으로는 진정한 기술 자립에 도달할 수 없다고 선을 그었다. 겉으로는 국산 모델처럼 보일 수 있지만, 핵심 유전자는 여전히 외부에 있다는 판단이다. 신 대표는 "남의 모델 위에 얹혀서 파인튜닝만 하는 방식은 결국 '무늬만 국산'에 불과하다"며 "엔진 설계도부터 직접 그려야만 그 모델이 어떤 방향으로 진화할지, 어디까지 확장할 수 있을지를 스스로 결정할 수 있다"고 피력했다. 그러면서 "가중치 초기화뿐 아니라 모델 구조 자체를 새로 설계하는 아키텍처 혁신까지 포함해 처음부터 끝까지 통제 가능한 기술을 확보하는 것이 트릴리온랩스가 존재하는 이유"라고 덧붙였다. 이러한 접근은 국가 과제에 대한 신 대표의 인식에서도 분명히 드러난다. 그는 독파모와 같은 정부 주도 사업일수록 단기 성과에 안주하기보다 글로벌 기준에서 경쟁력을 입증할 수 있는 구조를 만들어야 한다고 강조했다.그는 독파모 사업을 두고 "국가 예산이 투입되는 사업일수록 목표를 낮춰서는 안 된다"며 "실패를 피하기 위해 무난한 성과에 머무르는 것이 아니라 글로벌 선도 기업과 정면으로 비교 가능한 수준을 목표로 해야 한다"고 주장했다. 이어 "구글이나 오픈AI 같은 글로벌 기업의 기준으로 냉정하게 평가받아도 경쟁력이 있다는 것을 증명하는 것이 국가 과제의 역할"이라며 "성과 기준(OKR, 매우 높은 목표를 설정해 달성치를 측정하는 형태)과 평가 과정 역시 투명하고 엄격하게 해야하고, 참여하는 기업들은 그 부담을 감수하는 책임을 져야 사업이 기술적으로 의미를 남길 수 있다"고 부연했다. "新 아키텍처로 실전형 '액션 에이전트' 선점" 신 대표는 현재 AI 기술이 맞닥뜨린 가장 큰 병목으로 '연산 효율'을 꼽았다. 트랜스포머 구조가 문맥 길이에 따라 연산량이 기하급수적으로 늘어나는 특성을 갖고 있어 비용과 추론 속도 측면에서 실전형 AI 확산에 뚜렷한 제약을 만든다고 본 것이다. 그는 "지금의 AI는 말을 잘하는 데까지는 왔지만, 실제 행동을 하기에는 아직 비효율이 너무 크다"며 "추론 속도를 4~5배 이상 끌어올릴 수 있는 새로운 아키텍처를 통해 실전형 지능으로 넘어가야 한다"고 말했다. 이어 "스마트폰이나 PC를 직접 제어해 업무를 수행하는 '액션 에이전트'가 다음 단계"라며 "이 영역에서 구조 혁신이 없다면 진짜 AI 시대는 열리지 않는다"고 덧붙였다. 신 대표가 연산 효율과 아키텍처 혁신을 강조하는 이유는 단순한 성능 개선 차원을 넘어 회사의 성장 전략과도 맞닿아 있다. 그는 AI 기술이 실전 단계로 진입할수록 효율 격차가 곧 사업 경쟁력으로 직결될 수밖에 없다고 보고 있다. 신 대표가 그리는 트릴리온랩스의 성장 경로 역시 단기 수익보다 기술 축적을 우선하는 방식이다. 초기에는 연구와 인프라 구축에 집중하고 연산 효율과 구조적 완성도를 높인 뒤 이를 바탕으로 사업 모델로 확장하는 단계적 접근이 필요하다는 판단이다. 그는 "연구만 하는 회사도, 사업만 하는 회사도 오래 가기 어렵다"며 "기술을 축적하고 효율을 높인 뒤 이를 바탕으로 수익 구조를 만들고 다시 연구에 투자하는 선순환 구조가 필요하다"고 말했다. 이어 "AI 기업도 결국 기술 기업으로서의 성장 경로를 가져야 한다"고 부연했다. "AI판 스페이스X 넘어 '기술 생태계' 마중물 될 것" 그가 이러한 방향을 설정하는 데 참고한 사례로는 스페이스X를 들었다. 신 대표는 스페이스X가 재사용 로켓이라는 원천 기술을 확보한 뒤 발사 비용을 낮추고, 위성 인터넷 사업으로 확장한 성장 경로가 기술 기업의 한 모델이 될 수 있다고 봤다. 그는 "스페이스X는 처음부터 돈을 벌기 위한 회사가 아니라 반드시 필요한 기술을 먼저 확보한 뒤 그 기술을 효율화해 사업으로 연결했다"며 "AI 기업도 자본 투입 경쟁이 아니라 기술 효율을 높이는 방향으로 성장 경로를 설계해야 한다"고 말했다. 또 신 대표는 트릴리온랩스의 목표가 특정 기업의 성공에 그치지 않는다고 강조했다. 하나의 파운데이션 모델 기업이 아니라 기술 중심 AI 스타트업들이 지속적으로 등장할 수 있는 환경을 만드는 것이 중요하다는 판단에서다. 그는 "트릴리온랩스가 잘 되는 것도 중요하지만, 그 이후에 또 다른 기술 기업들이 나올 수 있어야 한다"며 "파운데이션 모델을 만드는 것이 대기업만의 영역이 아니라는 점을 보여주는 것이 의미 있다고 생각한다"고 말했다. 이어 "기술 기업이 성장하고, 그 성장이 국가 경쟁력으로 이어지는 구조를 만드는 것이 결국 '사업보국'이라고 본다"며 "앞으로도 기술적 실체를 남기는 데 더 집중할 것"이라고 덧붙였다.

2026.02.08 12:00장유미 기자

'국대 AI' 도전사 트릴리온랩스, 민관 협력으로 차세대 기술 국산화

구글 등 글로벌 빅테크가 기존 거대언어모델(LLM) 모델의 한계를 극복하기 위해 '디퓨전(확산)' 모델을 시도하는 가운데, 트릴리온랩스가 정부 지원사업을 통해 이 기술을 독자적으로 구현해 주목 받고 있다. 스타트업의 혁신 기술과 정부의 인프라 지원이 만나 차세대 인공지능(AI) 원천 기술을 국산화한 민관 협력 성과로 평가돼서다. 트릴리온랩스는 정보통신산업진흥원(NIPA)의 고성능 컴퓨팅 지원사업을 통해 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다고 29일 밝혔다. 트릴리온랩스는 단어를 순차적으로 생성하는 방식 대신, 문장 전체를 병렬로 생성하는 확산 기술을 트랜스포머 아키텍처에 이식해 추론 속도와 효율성을 개선했다. 개발 과정에서는 NIPA가 지원한 H200 80장 규모의 고성능 연산 자원을 활용해 '컴퓨팅 파워 부족' 문제를 해결했다. 트릴리온랩스 관계자는 "막대한 자본이 소요되는 하드웨어 인프라를 정부로부터 적시에 지원받아 기술적 난제였던 블록 디퓨전 효율 학습 전략과 독자적 전이 학습 기법을 단기간에 완성했다"고 설명했다. 트리다-7B는 복잡한 수리적 사고를 요하는 'ko_gsm8k'(수학)에서 61.26점을 기록하며 엔비디아의 'Fast dLLM'(56.94점) 등 기존 글로벌 모델들을 유의미한 차이로 앞서며 1위를 차지했다. 사용자의 복잡한 명령어를 얼마나 정확하게 수행하는지 측정하는 'koifeval'(한국어 지시 이행 능력)에서도 53.42점을 획득해 경쟁 모델 대비 성능 우위를 증명했다. 한국어 지식 이해 능력을 측정하는 'kmmlu'(한국어 상식)에서는 46.35점으로 최고점을 획득했다. 트릴리온랩스는 이번 과제의 결과물인 모델 가중치와 추론 코드를 전면 공개해 국내 AI 생태계의 동반 성장을 견인할 계획이다. 트릴리온랩스는 과학기술정보통신부 주관 'AI 특화 파운데이션 모델 프로젝트'를 통해 세계 최초 의과학 특화 파운데이션 모델을 개발하고 있다. 최근 과기정통부가 추진하는 '독자 AI 파운데이션 모델(독파모)' 사업팀 재공모에도 도전 의사를 밝혔다. 신재민 트릴리온랩스 대표는 "스타트업이 감당하기 힘든 막대한 연산 자원 확보 문제를 NIPA의 지원을 통해 해결하면서 연구 개발에만 매진했다"며 "확산 기반 트랜스포머라는 차세대 아키텍처 선점을 통해 대한민국이 글로벌 AI 기술 경쟁에서 주도권을 확보하는 데 기여하겠다"고 말했다.

2026.01.29 13:49이나연 기자

[유미's 픽] 독파모 추가 공모 나선 정부, 기업 반응은?

정부가 추진 중인 '독자 AI 파운데이션 모델(독파모, K-AI)' 프로젝트의 추가 정예팀 선발 공모가 본격화됐지만 업계가 미온적인 반응을 보이고 있다. 정부가 '독자성'에 대한 기준을 여전히 명확히 제시하지 않은 상황에서 사후 약방문식 규칙 변경으로 정책 신뢰도가 하락했을 뿐 아니라 뒤늦게 합류하는 기업의 실익이 없을 것이라고 판단해서다. 26일 업계에 따르면 과학기술정보통신부는 지난 23일부터 다음 달 12일까지 독파모 프로젝트 추가 정예팀 1곳을 선정하기 위한 공모 절차에 돌입했다. 당초 4개 팀 경쟁 구도를 목표로 했던 1차 단계 평가에서 독자성 논란 등으로 2개 팀이 탈락하며 LG AI연구원·SK텔레콤·업스테이지만 남게 되자 경쟁 구도를 복원하겠다는 취지에서 이처럼 나섰다.하지만 추가 공모가 공식화되자 업계의 반응은 냉담했다. 1차 평가에서 탈락한 네이버클라우드와 NC AI는 물론, 예선 단계에서 고배를 마셨던 카카오와 한국과학기술원(KAIST), 유력 후보로 거론되던 KT까지 모두 불참을 선언했다. 코난테크놀로지스 역시 재도전에 나서지 않겠다는 입장을 밝혔다. 현재까지 참여 의사를 밝힌 곳은 모티프테크놀로지스, 트릴리온랩스 등 스타트업 2곳에 그쳤다. 업계 관계자는 "대기업들이 독파모 '패자부활전'에 참여하지 않으면서 사실상 정부 사업에 대한 관심도가 뚝 떨어진 상황"이라며 "LG AI연구원과 SK텔레콤, 업스테이지도 추가 참가업체 선정이 사실상 큰 의미가 없다고 보고 8월께 진행하는 2차 평가보다 올 연말에 진행될 최종 평가에 초점을 맞춰 모델 개발에 나선 분위기"라고 말했다. 이처럼 독파모에 대한 업계의 집중도가 떨어진 가장 큰 이유는 정부의 기준이 모호했기 때문이다. 특히 '기술 독자성' 정의가 사전에 명확히 제시되지 않으면서 시장과의 간극이 크게 벌어진 것이 주 요인으로 분석됐다. 실제 1차 평가에서 정부는 해외 모델을 단순 미세조정한 파생형이 아닌, 설계부터 사전학습까지 자체 수행한 모델을 독자 모델로 규정했다. 특히 외부 오픈소스 모델의 가중치(weight)를 사용한 경우 독자성 기준을 충족하지 못한다고 판단했다. 그러나 이 기준은 사업 초반부터 명확하게 공유·해석되지 않아 문제를 일으켰다. 이 탓에 네이버클라우드는 성능·사용성 평가에서 상위권에 포함됐음에도 불구하고 중국 알리바바의 큐원(Qwen) 계열 가중치를 활용했다는 이유로 독자성 기준에 미달해 탈락했다. 네이버 측은 이미 검증된 모듈을 활용해 완성도를 높이기 위한 전략적 선택이었다고 설명했지만, 결과적으로 정부와 기업 간 독자성 해석의 간극만 드러냈다. 다만 독자성 논란을 정부 탓으로만 돌리긴 어렵다는 지적도 있다. 독파모는 '소버린 AI' 성격의 국가 사업인 만큼, 해외 모델 가중치 활용은 통제권·공급망 리스크 논쟁을 불러올 수밖에 없는데도 네이버클라우드가 큐원 계열 비전 인코더와 가중치를 활용한 모델을 제출했기 때문이다. 이 탓에 네이버는 국가 사업의 정책 목표와 심사 관점이 민간 서비스 개발과 다르다는 점을 간과했다는 지적을 받고 있다. 이 같은 분위기 속에 정부는 독자성 논란이 커지자 추가 공모와 함께 전문가 평가 항목에서 독자성 평가를 보강하겠다고 밝히며 해결책 마련에 나서는 모습을 보였다. 그러나 세부 가이드라인은 여전히 '추후 구체화'라는 수준에 머물러 있어 업계의 실망감은 해소되지 않고 있다. 업계 관계자는 "룰을 명확히 하지 않은 채 경기 도중 기준을 강화한 뒤 문제가 되자 다시 판을 짜는 모양새"라며 "정부가 일부 기업 구제 성격으로 패자부활전을 하려고 했지만, 해당 기업이 나서지 않고 기준도 명확히 제시하지 못하면서 독파모 사업이 애매해져 버렸다"고 지적했다. 이처럼 혼선이 빚어지면서 향후 2차 평가에 대한 부담도 커지는 분위기다. 과기정통부는 8월께 독파모 2차 평가를 진행할 계획이지만, 독자성 기준을 둘러싼 불확실성이 해소되지 않을 경우 유사한 논란이 반복될 수 있다는 우려가 나오고 있다. 특히 2차 평가는 1차 평가를 통과한 LG AI연구원·SK텔레콤·업스테이지 3개 팀과 추가 공모를 통해 선발될 1개 팀이 경쟁하는 구조로 설계돼 있다는 점도 문제다. 현재 상태로선 평가 기준의 일관성과 예측 가능성이 보장됐다고 보기 힘들어서다.업계 관계자는 "새로 추가로 선발된 기업은 기존 3개팀보다 1개월이나 더 늦게 2차 평가를 위한 준비를 시작해야 한다는 점에서 부담감이 더 클 수밖에 없다"며 "그렇다고 1차 선발된 3팀을 두고 뒤늦게 선발된 기업에게 특혜를 줄 수도 없는 노릇인 만큼 정부의 고민이 많을 것"이라고 밝혔다. 정부는 업계에서 우려하는 사항을 의식한 듯 2차 평가부터 멀티모달 역량과 실사용성을 주요 평가 요소로 삼을 것으로 알려졌다. 텍스트 중심의 대형언어모델(LLM)을 넘어 이미지·음성·영상 등 다양한 데이터를 통합적으로 처리할 수 있는 역량이 글로벌 AI 경쟁에서 필수 요소로 자리 잡고 있다는 판단에서다. 실제로 SK텔레콤과 업스테이지는 향후 개발 과정에서 멀티모달 기능을 단계적으로 적용하겠다는 계획을 밝힌 상태다. 업계 관계자는 "멀티모달 경쟁이 본격화되더라도 독자성 기준이 여전히 '전제 조건'으로 작동하는 구조가 유지된다는 점에서 문제가 해소되진 않을 듯 하다"며 "1차 평가처럼 성능·활용성보다 독자성이 탈락 여부를 좌우하는 핵심 기준으로 작용할 경우 기업 입장에서는 기술 전략 수립 자체가 불확실해질 수밖에 없을 것"이라고 말했다. 이어 "소버린 AI 확보와 글로벌 경쟁력 있는 국가대표 AI 육성을 동시에 달성하겠다는 목표는 방향성에 따라 평가 기준이 크게 달라질 수 있다"며 "정부가 추구하는 정책 목표가 하루 빨리 명확히 정리돼야 독파모 사업의 필요성도 더 부각될 수 있을 것"이라고 덧붙였다. 또 다른 관계자는 "기술 자립을 최우선으로 볼 것인지 아니면 글로벌 시장에서 실제로 쓰일 수 있는 경쟁력 있는 모델을 만들 것인지에 따라 허용 가능한 기술 선택의 범위가 달라진다"며 "정부가 어떤 가치를 우선할지 명확히 하지 않으면 기업들은 계속 눈치를 보며 보수적으로 움직일 수밖에 없다"고 밝혔다. 일각에선 추가 공모에 뒤늦게 합류하는 기업의 불확실성이 더 커 불리할 것으로 봤다. 이미 상당 기간 개발이 진행된 상황에서 제한된 기간 안에 모델을 완성해 기존 정예팀과 동일한 기준으로 평가받아야 하는 데다 탈락 시 감수해야 할 평판 리스크까지 고려하면 이익이 크지 않을 것으로 분석했다. 반면 독파모 참여만으로도 기업 인지도를 빠르게 구축할 수 있다는 이점이 있다는 의견도 나왔다. '패자부활전'에 도전장을 던진 업체들도 B200 768장 규모 GPU 지원, 'K-AI 기업' 명칭 부여 등의 혜택이 있다는 점에서 일단 매력을 느끼는 분위기다. 또 그간 독자성 논란을 의식한 듯 이에 대한 투명성을 확보하기 위해 적극 나서겠다는 의지도 내비쳤다. 신재민 트릴리온랩스 대표는 "10% 학습된 모델, 20% 학습된 모델 등을 개발했을 때마다 공개해 누구나 다운 받아 트래킹할 수 있도록 개방할 것"이라며 "최종 공개된 모델까지 극단적으로 투명하게 공개해 독자성 등과 관련한 논란을 원천 봉쇄할 수 있게 할 것"이라고 설명했다. 이어 "우리 모델이 진화하는 모습을 보면서 더 많은 사람들이 관심을 가지고 연구하게 될 것이라 믿는다"며 "자연스럽게 국내를 넘어 글로벌 AI 학습 생태계가 더 활발히 조성될 수 있도록 하는 것이 목표"라고 부연했다. 그러나 정부는 예상과 달리 '패자부활전'이 스타트업 2곳의 경쟁으로 압축되자 추가 선발을 하지 않을 수도 있다는 의사를 내비쳐 정책 일관성이 없음을 또 다시 드러냈다는 지적도 받고 있다. 과기정통부 관계자는 "평가위원 과반이 심사 기준에 해당하는 정예팀이 없다고 평가할 때 3개팀 체제로 갈 것"이라며 "(세부적인 평가 항목은) 추후 내용이 구체화될 것"이라고 말했다. 업계 관계자는 "정부가 제대로 된 기준 없이 독파모 사업을 하려고 하다보니 국가대표 싸움이 주먹구구식 동네 싸움으로 변질된 느낌"이라며 "독파모 사업이 '국가대표 AI 선발전'이라는 상징성보다는 정책 신뢰 논란 속에서 표류하고 있다"고 지적했다.

2026.01.26 16:21장유미 기자

트릴리온랩스, LG·네이버 이어 '韓 AI 오픈소스 히트맵' 3위

트릴리온랩스가 LG AI연구원과 네이버에 이어 글로벌 오픈소스 상위권에 진입했다. 국내 스타트업으로서는 이례적인 성과다. 트릴리온랩스는 허깅페이스에 공개된 '한국 인공지능(AI) 오픈소스 히트맵' 통계에서 국내 기업 중 3위에 올랐다고 20일 밝혔다. 허깅페이스는 전 세계 AI 개발자들이 활용하는 글로벌 최대 오픈소스 플랫폼이다. 트릴리온랩스가 기록한 22건 기술 기여는 LG AI연구원(33건), 네이버(27건) 다음으로 많은 수치다. 회사는 단순히 기존 오픈소스 모델을 재가공하거나 외부 모델을 미세조정(Fine-tuning)하는 방식이 아니라, 모델 설계부터 학습까지 전 과정을 독자적으로 수행하는 '프롬 스크래치(From-Scratch)' 방식으로 파운데이션 모델을 개발해 왔다. 설립 이후 이 개발 기조를 유지하며 자체 아키텍처 설계, 데이터 수집·정제, 프리 트레이닝(사전학습) 및 포스트 트레이닝(사후학습) 파이프라인을 내부 기술로 구축해 왔다. 트릴리온랩스가 강조하는 핵심 가치는 '투명성'이다. 많은 기업이 독자 모델 개발을 표방하면서도 실제 개발 과정이나 데이터셋, 학습 방식은 제한적으로 공개하는 것과 달리, 트릴리온랩스는 개발 과정에서 확보한 기술적 자산을 오픈소스 커뮤니티에 공유해 왔다. 트릴리온랩스 관계자는 이 같은 오픈소스 공개 전략에 대해 "기술적 자신감의 표현이자 블랙박스형 AI가 아닌 '검증 가능한 AI'를 지향하는 접근"이라고 자평했다. 글로벌 커뮤니티 반응도 이어지고 있다. 티에젠 왕 허깅페이스 아태(APAC) 총괄은 한국 AI 커뮤니티의 빠른 성장과 오픈소스 기여 확을 긍정했다. 클렘 들랑 허깅페이스 최고경영자(CEO) 역시 한국이 오픈소스를 기반으로 AI 시장 주요 창조자로 부상하고 있다고 평가했다. 트릴리온랩스는 이번 성과를 계기로 독자 파운데이션 모델 개발 투명성을 강화하고, 오픈소스를 중심으로 한 글로벌 검증 구조를 확대할 계획이다. 트릴리온랩스는 모티프테크놀로지스에 이어 정부가 조만간 공고할 '독자 AI 파운데이션 모델(독파모)' 개발 프로젝트 추가 공모에 도전장도 내밀었다. 두 기업은 앞서 독파모 사업에서 각각 참여기업과 주관기업으로 나섰다가 탈락했다. 신재민 트릴리온랩스 대표는 "우리 기술이 단순 외부 모델 미세조정이 아니라, 고유한 설계 역량으로 탄생한 진짜 독자 모델임을 글로벌 플랫폼에서 검증받았다는 데 의미가 크다"고 말했다. 이어 "전 세계 개발자들이 신뢰하는 허깅페이스를 통해 기술력을 입증한 만큼, 앞으로도 국내를 넘어 글로벌 오픈소스 생태계에 기여하겠다"고 전했다.

2026.01.20 17:55이나연 기자

[AI는 지금] 대기업 발 뺀 독파모 '패자부활전'…모티프·트릴리온랩스 덕에 활기

정부가 국가대표 AI를 선발하는 독자 파운데이션 모델(독파모) 프로젝트에 '패자부활전'을 도입한 후 여러 대기업이 외면하는 것과 달리 스타트업이 잇따라 도전장을 던지면서 새로운 활기를 불어넣고 있다. 이들 중 한 곳이 추가 컨소시엄으로 선정될 경우 독파모 사업이 대기업과 스타트업의 대결 구도로 펼쳐질 것으로 예상된다.20일 업계에 따르면 모티프테크놀로지스, 트릴리온랩스는 조만간 진행되는 독파모 개발 사업 추가 공모에 참여할 예정이다. 모티프테크놀로지스, 트릴리온랩스는 각각 주관기업, 참여기업으로 독파모 1차 공모에 도전했다가 탈락한 바 있다. 모티프테크놀로지스는 반도체 기업 모레 자회사로, 고성능 대형언어모델(LLM)과 대형멀티모달모델(LMM) 모두를 파운데이션 모델로 개발한 경험을 갖췄다. 특히 지난 해 11월 공개한 LLM '모티프 12.7B'는 모델 구축부터 데이터 학습까지 전 과정을 직접 수행한 순수 국산 기술이란 점에서 주목 받고 있다. 기존 트랜스포머 구조를 그대로 쓰지 않고 '그룹별 차등 어텐션(GDA)' 기술을 자체적으로 개발해 적용해 경쟁력이 있다고 평가 받는다. 모티프테크놀로지스 관계자는 "이는 단순히 모델을 바닥부터 학습시키는 '프롬 스크래치'를 넘어 지능 핵심인 어텐션 함수와 모델의 아키텍처 자체를 새롭게 설계한 것"이라며 "12.7B 파라미터의 비교적 작은 LLM인 이 모델은 글로벌 AI 모델 성능을 종합평가하는 '아티피셜 애널리시스'의 인텔리전스지수(AAII)에서 675B에 달하는 '미스트랄 라지 3' 같은 대형 LLM보다 높은 점수를 기록했다"고 설명했다. 트릴리온랩스도 핵심 전략으로 완전한 '프롬 스크래치'를 내세워 이번에 도전장을 던진다. 이곳은 이미 의료 AI 스타트업 루닛과 함께 정부의 'AI 특화 파운데이션 모델' 사업자로 선정돼 의과학·바이오 특화 AI 모델 개발 과제를 수행하며 기술력을 입증하고 있다.특히 설립 1년 만에 700억(70B) 매개변수 규모의 LLM을 자체 기술로 개발한 경험이 있다는 점에서 기대감을 높이고 있다. 또 트릴리온랩스가 보유한 '도메인 특화 증류 기반 소형 LLM 전문가 혼합(MoE) 구조 기술'은 국가전략기술로 채택되기도 했다. 신재민 트릴리온랩스 대표는 "특화 AI 모델 개발 과제에 참여 중이어서 그동안 독파모 추가 공모에 참여해도 될지 망설였다가 최근 정부로부터 지원 자격에 제한이 없다는 답변을 받고 이처럼 결정하게 됐다"며 "그동안 프롬 스크래치 모델을 만들기 위해 전력을 쏟았던 만큼, 이번에 도전하면 승산이 있다고 생각했다"고 밝혔다. 이어 "GPU를 H100 기준 2천 장을 사용해 '덴스(Dense)' 구조로 70B 모델을 선보여 봤던 경험이 있다는 점도 우리의 경쟁력"이라며 "H100, H200, B200 등 다양한 GPU를 사용했던 경험과 완전한 프롬 스크래치 아키텍처로 AI 모델을 개발해봤던 저력이 있던 만큼 충분히 경쟁할 수 있을 것으로 본다"고 덧붙였다. 실제 트릴리온랩스가 강조한 '덴스 모델'은 독파모 1차 경쟁 5개 업체 중 네이버클라우드가 유일하게 적용해 주목 받은 바 있다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다.다만 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수가 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 평가가 많았다. 당초 1차 심사 때 옴니 모델을 14B로 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 것도 아쉬운 점으로 지목됐다.트릴리온랩스는 70B에 '덴스 모델'을 적용했다는 점에서 이번 추가 모집에서 우위를 차지할 수 있을 것으로 자신하는 분위기다. 또 개발 과정에서 '중간 체크포인트(Checkpoint)'를 매번 공개하면서 그간 독파모 선발 과정에서 제기됐던 '독자성'에 대한 의혹도 즉시 차단한다는 방침이다. 신 대표는 "10% 학습된 모델, 20% 학습된 모델 등을 개발했을 때마다 공개해 누구나 다운 받아 트래킹할 수 있도록 개방할 것"이라며 "최종 공개된 모델까지 극단적으로 투명하게 공개해 독자성 등과 관련한 논란을 원천 봉쇄할 수 있게 할 것"이라고 설명했다. 이어 "우리 모델이 진화하는 모습을 보면서 더 많은 사람들이 관심을 가지고 연구하게 될 것이라 믿는다"며 "자연스럽게 국내를 넘어 글로벌 AI 학습 생태계가 더 활발히 조성될 수 있도록 하는 것이 목표"라고 부연했다. 이 같은 분위기 속에 정부는 조만간 LG AI연구원과 업스테이지, SK텔레콤 등 독파모 2차 단계에서 함께 실력을 겨룰 1개 컨소시엄 선발에 대한 공고를 할 예정이다. 이번에 선발된 1개 팀은 이르면 7월 중순께 시행될 2차 평가에서 3개 컨소시엄과 실력을 겨루게 된다. 만약 모티프테크놀로지스나 트릴리온랩스 중 한 곳이 선정되면 LG AI연구원, SK텔레콤 등 대기업 2곳과 업스테이지 등 스타트업 2곳의 경쟁이 펼쳐질 것으로 보인다. 그러나 네이버클라우드와 KT, 카카오, NC AI 등 기존 독파모 탈락 대기업들은 지식재산권(IP) 부담과 '탈락 기업'이라는 낙인 리스크에 대한 우려로 추가 선발전에 참여하지 않기로 했다. 이처럼 대기업의 잇따른 불참 결정으로 독파모 패자부활전의 불씨가 꺼져가는 듯 했으나 스타트업들이 참여 의사를 밝히면서 정부도 흥행에 다시 기대감을 드러내는 눈치다. 코난테크놀로지스 등 일부 업체들도 참여 여부를 두고 고심 중인 것으로 알려졌다. 류제명 과기정통부 2차관은 지난 15일 브리핑에서 "추가 참여 기업에도 총 프로젝트 기간과 정부가 지원하는 GPU·데이터는 동일하게 설계해 제공할 것"이라며 "프로젝트 종료 시점이 다르더라도 2단계를 마칠 때까지 동일한 기간을 보장하고, 평가는 6~7월로 한 달 정도 유연하게 운영할 계획"이라고 밝혔다.

2026.01.20 16:27장유미 기자

트릴리온랩스, '알브릿지'로 AI 개발 공식 깬다…LLM 개발비 100배 절감

트릴리온랩스가 거대언어모델(LLM) 개발의 고질적인 비용 한계를 극복할 핵심 기술을 선보이며 AI 생태계 혁신에 착수했다. 트릴리온랩스는 소규모 프록시 모델로 대규모 언어모델의 추론 성능을 예측하는 새로운 방법론 '알브릿지(rBridge)'를 21일 공개했다. 해당 방법론의 공개는 기존 언어모델의 학습에 막대한 연산 비용이 들기 때문이다. 특히 추론 능력은 모델이 특정 규모의 임계점을 넘어야만 급격히 나타나는 특성을 보인다. 이 때문에 작은 모델만으로는 대형 모델의 성능 예측이 어려워 불가피하게 막대한 비용의 대규모 학습을 반복해야 했다. 알브릿지는 이러한 한계를 극복하도록 설계됐다. 10억 개 이하 매개변수의 작은 모델만으로 최대 320억 개 매개변수에 이르는 대형 모델의 추론 능력을 효과적으로 예측한다. 언어모델의 본래 학습 방식인 '다음 단어 예측'을 고려해 평가 방식을 학습 목표와 실제 과제에 맞췄다. 이를 통해 작은 모델이 대형 모델의 성능을 더 정확히 대신하게 했다. 이 기술은 데이터셋 평가와 순위 매기기에 드는 비용을 기존보다 100배 이상 줄였다. 연구자와 기업은 대규모 모델을 직접 학습하지 않고도 데이터셋 품질을 빠르고 저렴하게 확인할 수 있다. 새로운 데이터셋 실험이나 산업별 특화 모델 개발에서 큰 비용 절감 효과가 기대된다. 트릴리온랩스의 알브릿지 기술은 혁신적인 연산 효율성도 입증했다. 기존 방법 대비 최대 733배 높은 효율성을 기록했다. 동일한 예측 정확도를 달성하는 데 필요한 연산량도 획기적으로 줄었다. 이번 기술은 1억 개 미만 매개변수 모델부터 320억 매개변수 규모의 다양한 모델을 대상으로 검증을 마쳤다. 총 6개의 핵심 추론 벤치마크를 통해 성능이 확인됐다. 벤치마크에는 초중등 수학 문제 해결(GSM8K), 고등 수학 문제 해결(MATH), 과학 상식 기반 추론(ARC-C), 대학 전문가 수준 지식 평가(MMLU Pro), 프로그래밍 정확도 평가(Humaneval) 등이 포함됐다. 신재민 트릴리온랩스 대표는 "이번 연구 성과는 작은 모델로도 대형 모델의 추론 능력을 신뢰성 있게 예측할 수 있다는 가능성을 처음으로 입증한 것"이라며 "연구자들이 데이터셋과 모델 설계를 훨씬 효율적으로 선택할 수 있는 길을 열었다는 점에서 LLM 연구와 AI 생태계의 새로운 전환점이 될 것"이라고 말했다.

2025.10.21 16:25조이환 기자

韓 AI·로보틱스 스타트업, AWS 글로벌 육성 사업에 올랐다

아마존웹서비스(AWS)가 전 세계 생성형 인공지능(AI) 혁신 스타트업을 선정해 액셀러레이터 프로그램을 진행한다. 한국에서는 로보틱스와 언어 모델 분야에서 각각 리얼월드와 트릴리온랩스가 이름을 올렸다. AWS는 '생성형 AI 액셀러레이터 3기'에 참여할 글로벌 스타트업 40곳을 선정했다고 16일 밝혔다. 이번 프로그램은 생성형 AI 기반 기술을 구축하는 초기 단계 기업의 성장을 지원하기 위해 설계된 8주 과정 지원 사업이다. 선정된 기업에는 최대 100만 달러(약 14억원) 상당의 AWS 크레딧과 기술·비즈니스 멘토링, AWS의 전체 AI 기술 스택 활용 기회가 제공된다. AWS는 올해 프로그램을 통해 머신러닝 성능 향상, 스택 최적화, 시장 진출 전략 등 비즈니스와 기술 역량 전반의 성장을 돕는다는 방침이다. AWS 셰리 카람다쉬티 북미 스타트업 사업 총괄은 "올해 선정된 기업들은 산업 전반의 혁신을 가속화하고 고객에게 실질적인 AI 혜택을 제공하는 데 중요한 역할을 할 것"이라고 말했다. 이번 3기에는 아시아태평양·일본지역 10개사, 유럽·중동·아프리카 8개사, 북미 17개사, 라틴아메리카 5개사 등 전 세계 스타트업이 참여한다. 모두 소프트웨어(SW)·바이오테크·금융·미디어·로보틱스·제조 등 다양한 산업 분야에서 생성형 AI를 활용하고 있다. 특히 한국에서는 두 기업이 선정됐다. 리얼월드는 고정밀 손재주와 산업 데이터를 기반으로 한 로보틱스 파운데이션 모델을 제공해 산업 리더들의 복잡한 물리적 작업 자동화를 지원한다. 트릴리온랩스는 한국어와 아시아 언어에 특화된 차세대 언어모델을 개발해 AI의 문화적 다양성과 기술 혁신에 나서고 있다. 이번 프로그램은 12월 미국 라스베이거스에서 열리는 'AWS 리인벤트 2025' 행사에서 마무리된다. 선정된 40개 스타트업은 행사에서 투자자·고객·파트너를 대상으로 솔루션을 공개할 예정이다. 류중희 리얼월드 대표는 "AWS 생성형 AI 액셀러레이터를 통해 AWS의 강력한 AI와 인프라를 활용하는 것은 다양한 산업 분야에 적용될 휴머노이드 로봇 제어용 로보틱스 파운데이션 모델 상용화의 중요한 전환점이 될 것"이라고 강조했다. 신재민 트릴리온랩스 대표는 "이번 AWS 프로그램 선정을 통해 글로벌 시장에서 기술력과 혁신성을 인정받았다"며 "AWS 인프라를 기반으로 대규모 모델 학습과 서비스 확장을 가속화해 한국 생성형 AI 기술이 글로벌 표준으로 자리 잡도록 노력하겠다"고 밝혔다.

2025.10.16 18:01한정호 기자

"네이버·카카오 보고 있나"…설립 1년차 신생기업, 70B LLM '설계도' 통째로 풀었다

트릴리온랩스가 국내 최대 규모 거대언어모델(LLM)의 훈련 과정까지 전면 공개했다. 전례 없는 수준의 개방성을 앞세워 국내 AI 기술 생태계의 주도권을 확보하려는 전략으로 풀이된다. 트릴리온랩스는 자체 개발한 700억 파라미터 규모 LLM '트리(Tri)-70B'를 10일 공개했다. 회사에 따르면 이 모델은 한국에서 프롬 스크래치로 개발된 언어모델 중 가장 큰 규모다. 사후학습이 최소화된 베이스 모델 형태라 활용성이 높다. 트릴리온랩스는 70B 모델 공개와 함께 '오픈소스 먼스'를 선언했다. ▲0.5B ▲1.8B ▲7B ▲70B에 이르는 모델 전체 라인업을 아파치 2.0 라이선스로 개방해 상업적 활용의 길을 열었다. 특히 이번 공개에서 가장 주목받는 부분은 학습 중간 과정이 담긴 체크포인트까지 전면 공개한 점이다. 이는 연구자들이 모델의 학습 과정을 정밀하게 분석하고 효율적으로 재학습할 수 있는 길을 연 것으로 평가된다. 전 세계적으로도 허깅페이스 등 소수만 시도한 방식으로 국내에서는 최초다. 공개된 모델에는 다국어 번역과 실시간 검색에 특화된 버전도 포함됐다. 검색 특화 모델은 '덕덕고' 같은 검색 엔진과 연동해 최신 정보를 즉각 반영할 수 있어 LLM의 지식 확장 가능성을 제시한다. 트릴리온랩스는 지난해 8월 설립된 스타트업으로 독자적인 한국어 중심 LLM을 개발해왔다. 신재민 대표를 중심으로 카이스트, 옥스포드, 아마존, 네이버 등 출신의 인재들로 구성됐다. 회사는 지난해 9월 90억원 규모의 프리-시드 투자를 유치한 바 있다. 신재민 트릴리온랩스 대표는 "단순히 언어 모델을 만드는 데 그치지 않고 훈련 과정과 핵심 기법까지 모두 공개해 연구의 투명성을 확보하고 글로벌 AI 연구 생태계 발전의 토대를 마련하고자 한다"며 "이번 공개는 국내 AI 기업들이 기술적 우수성과 개방적 연구 문화를 통해 글로벌 경쟁력을 확보할 수 있음을 보여주는 중요한 출발점이 될 것"이라고 밝혔다.

2025.09.10 16:49조이환 기자

"글로벌과 정면승부"…트릴리온랩스, 21B급 LLM 전면 공개

한국어와 같은 저자원 언어를 중심으로 고성능 언어 모델을 설계해온 트릴리온랩스가 거대언어모델(LLN) '트리-21B'를 오픈소스로 공개하며 글로벌 중형 LLM 시장을 정면으로 겨냥했다. 트릴리온랩스는 이번 모델을 기존 모델 대비 세 배 이상 확장된 21B 파라미터로 설계하고 1대의 그래픽처리장치(GPU)에서도 작동 가능한 경량 구조로 공개했다고 23일 밝혔다. 해당 모델은 깃허브를 통해 다운로드 가능하며 추후 70B급 상위 모델 공개도 예고한 상태다. '트리-21B'는 트릴리온랩스가 직접 개발한 완전 사전학습 기반(From-Scratch)의 LLM이다. 대형 GPU팜 없이도 고차원적 추론이 가능하도록 설계된 것이 특징으로, 수학 벤치마크 '매스(MATH)', 코딩 벤치마크 '엠비피피 플러스(MBPP Plus)', 종합지식 벤치마크 '엠엠엘유(MMLU)'에서 각각 77.89점, 75.4점, 77.93점을 기록했다. 이번 모델은 특히 한국어 특화 성능에 방점을 찍었다. 한국문화 이해도 벤치마크인 '해례(Hae-Rae)'에서 86.62점, 한국어 지식·추론능력 벤치마크인 '케이엠엠엘유(KMMLU)'에서는 CoT 적용 기준 70점을 기록하며 영어 기반 글로벌 중형 모델 대비 독보적 성능을 확보했다. 한국어 외에도 일본어 등 동북아 저자원 언어에 대한 자연스러운 문장 생성도 가능하다. 트릴리온랩스는 이 같은 성능을 '언어 간 상호학습 시스템(XLDA)' 구조를 통해 구현했다. XLDA는 영어 기반 지식을 한국어와 같은 저자원 언어로 전이하는 방식으로, 기존 대비 12분의 1 수준의 학습 비용 절감 효과를 기록했다. 비용이 민감한 산업군에서도 대형 LLM 도입이 가능해지는 구조다. 모델 구조도 실험적으로 최적화됐다. 플라이휠 구조를 적용해 70B급 모델에서 학습한 특성과 추론 전략을 21B 모델에 효과적으로 전이하는 방식으로, 모델 크기 대비 비약적인 성능 확보를 실현했다. 추론 체계는 '생각의 사슬(CoT)' 방식을 적극 활용해 단계적 사고와 구조적 응답을 가능케 했다. 기술력 확보의 기반은 인력 구성에서 비롯됐다. 트릴리온랩스는 네이버 '하이퍼클로바 X'를 비롯해 옥스포드, UC버클리, 카이스트 출신의 엔지니어들로 구성돼 있다. 또 지난 3월에는 7B급 프리뷰 모델을, 9월에는 프리시드 라운드에서 약 90억원을 유치한 바 있다. 신재민 트릴리온랩스 대표는 "'트리-21B'는 모델 크기와 성능, 비용 간 균형에서 가장 이상적인 구조를 구현했다"며 "풀사이즈 포트폴리오로 산업 전반에 적용 가능한 국산 LLM의 기준을 만들어 나가겠다"고 밝혔다.

2025.07.23 16:53조이환 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

이란, 호르무즈해협 사실상 폐쇄…에너지 가격 급등 예상

정재헌 SKT, 노태문 삼성 만나 "필름 회사 망하겠다"

한·싱 AI 동맹...이 대통령 "혁신 DNA 확장해 AI 대항해 시대 열 것"

갤S26 울트라는 왜 옆에서 안 보일까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.