• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'국가 독자 AI'통합검색 결과 입니다. (52건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 대기업 발 뺀 독파모 '패자부활전'…모티프·트릴리온랩스 덕에 활기

정부가 국가대표 AI를 선발하는 독자 파운데이션 모델(독파모) 프로젝트에 '패자부활전'을 도입한 후 여러 대기업이 외면하는 것과 달리 스타트업이 잇따라 도전장을 던지면서 새로운 활기를 불어넣고 있다. 이들 중 한 곳이 추가 컨소시엄으로 선정될 경우 독파모 사업이 대기업과 스타트업의 대결 구도로 펼쳐질 것으로 예상된다.20일 업계에 따르면 모티프테크놀로지스, 트릴리온랩스는 조만간 진행되는 독파모 개발 사업 추가 공모에 참여할 예정이다. 모티프테크놀로지스, 트릴리온랩스는 각각 주관기업, 참여기업으로 독파모 1차 공모에 도전했다가 탈락한 바 있다. 모티프테크놀로지스는 반도체 기업 모레 자회사로, 고성능 대형언어모델(LLM)과 대형멀티모달모델(LMM) 모두를 파운데이션 모델로 개발한 경험을 갖췄다. 특히 지난 해 11월 공개한 LLM '모티프 12.7B'는 모델 구축부터 데이터 학습까지 전 과정을 직접 수행한 순수 국산 기술이란 점에서 주목 받고 있다. 기존 트랜스포머 구조를 그대로 쓰지 않고 '그룹별 차등 어텐션(GDA)' 기술을 자체적으로 개발해 적용해 경쟁력이 있다고 평가 받는다. 모티프테크놀로지스 관계자는 "이는 단순히 모델을 바닥부터 학습시키는 '프롬 스크래치'를 넘어 지능 핵심인 어텐션 함수와 모델의 아키텍처 자체를 새롭게 설계한 것"이라며 "12.7B 파라미터의 비교적 작은 LLM인 이 모델은 글로벌 AI 모델 성능을 종합평가하는 '아티피셜 애널리시스'의 인텔리전스지수(AAII)에서 675B에 달하는 '미스트랄 라지 3' 같은 대형 LLM보다 높은 점수를 기록했다"고 설명했다. 트릴리온랩스도 핵심 전략으로 완전한 '프롬 스크래치'를 내세워 이번에 도전장을 던진다. 이곳은 이미 의료 AI 스타트업 루닛과 함께 정부의 'AI 특화 파운데이션 모델' 사업자로 선정돼 의과학·바이오 특화 AI 모델 개발 과제를 수행하며 기술력을 입증하고 있다.특히 설립 1년 만에 700억(70B) 매개변수 규모의 LLM을 자체 기술로 개발한 경험이 있다는 점에서 기대감을 높이고 있다. 또 트릴리온랩스가 보유한 '도메인 특화 증류 기반 소형 LLM 전문가 혼합(MoE) 구조 기술'은 국가전략기술로 채택되기도 했다. 신재민 트릴리온랩스 대표는 "특화 AI 모델 개발 과제에 참여 중이어서 그동안 독파모 추가 공모에 참여해도 될지 망설였다가 최근 정부로부터 지원 자격에 제한이 없다는 답변을 받고 이처럼 결정하게 됐다"며 "그돈안 프롬 스크래치 모델을 만들기 위해 전력을 쏟았던 만큼, 이번에 도전하면 승산이 있다고 생각했다"고 밝혔다. 이어 "GPU를 H100 기준 2천 장을 사용해 '덴스(Dense)' 구조로 70B 모델을 선보여 봤던 경험이 있다는 점도 우리의 경쟁력"이라며 "H100, H200, B200 등 다양한 GPU를 사용했던 경험과 완전한 프롬 스크래치 아키텍처로 AI 모델을 개발해봤던 저력이 있던 만큼 충분히 경쟁할 수 있을 것으로 본다"고 덧붙였다. 실제 트릴리온랩스가 강조한 '덴스 모델'은 독파모 1차 경쟁 5개 업체 중 네이버클라우드가 유일하게 적용해 주목 받은 바 있다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다.다만 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수가 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 평가가 많았다. 당초 1차 심사 때 옴니 모델을 14B로 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 것도 아쉬운 점으로 지목됐다.트릴리온랩스는 70B에 '덴스 모델'을 적용했다는 점에서 이번 추가 모집에서 우위를 차지할 수 있을 것으로 자신하는 분위기다. 또 개발 과정에서 '중간 체크포인트(Checkpoint)'를 매번 공개하면서 그간 독파모 선발 과정에서 제기됐던 '독자성'에 대한 의혹도 즉시 차단한다는 방침이다. 신 대표는 "10% 학습된 모델, 20% 학습된 모델 등을 개발했을 때마다 공개해 누구나 다운 받아 트래킹할 수 있도록 개방할 것"이라며 "최종 공개된 모델까지 극단적으로 투명하게 공개해 독자성 등과 관련한 논란을 원천 봉쇄할 수 있게 할 것"이라고 설명했다. 이어 "우리 모델이 진화하는 모습을 보면서 더 많은 사람들이 관심을 가지고 연구하게 될 것이라 믿는다"며 "자연스럽게 국내를 넘어 글로벌 AI 학습 생태계가 더 활발히 조성될 수 있도록 하는 것이 목표"라고 부연했다. 이 같은 분위기 속에 정부는 조만간 LG AI연구원과 업스테이지, SK텔레콤 등 독파모 2차 단계에서 함께 실력을 겨룰 1개 컨소시엄 선발에 대한 공고를 할 예정이다. 이번에 선발된 1개 팀은 이르면 7월 중순께 시행될 2차 평가에서 3개 컨소시엄과 실력을 겨루게 된다. 만약 모티프테크놀로지스나 트릴리온랩스 중 한 곳이 선정되면 LG AI연구원, SK텔레콤 등 대기업 2곳과 업스테이지 등 스타트업 2곳의 경쟁이 펼쳐질 것으로 보인다. 그러나 네이버클라우드와 KT, 카카오, NC AI 등 기존 독파모 탈락 대기업들은 지식재산권(IP) 부담과 '탈락 기업'이라는 낙인 리스크에 대한 우려로 추가 선발전에 참여하지 않기로 했다. 이처럼 대기업의 잇따른 불참 결정으로 독파모 패자부활전의 불씨가 꺼져가는 듯 했으나 스타트업들이 참여 의사를 밝히면서 정부도 흥행에 다시 기대감을 드러내는 눈치다. 코난테크놀로지스 등 일부 업체들도 참여 여부를 두고 고심 중인 것으로 알려졌다. 류제명 과기정통부 2차관은 지난 15일 브리핑에서 "추가 참여 기업에도 총 프로젝트 기간과 정부가 지원하는 GPU·데이터는 동일하게 설계해 제공할 것"이라며 "프로젝트 종료 시점이 다르더라도 2단계를 마칠 때까지 동일한 기간을 보장하고, 평가는 6~7월로 한 달 정도 유연하게 운영할 계획"이라고 밝혔다.

2026.01.20 16:27장유미 기자

LG AI연구원, 'K-엑사원'으로 국가대표 AI 입증…구광모 'ABC 전략' 빛났다

LG AI연구원이 개발한 'K-엑사원(K-EXAONE)'이 정부가 주관하는 독자 인공지능(AI) 파운데이션 모델(이하 독파모) 프로젝트 1차 1위를 차지하며 국가대표 AI 모델로서의 입지를 굳혔다. 구광모 LG그룹 회장 미래 성장 동력으로 낙점하고 강력하게 추진해 온 'ABC전략'이 구체적인 결실을 맺은 것이란 평가다. 15일 과학기술정보통신부가 발표한 '독자 AI 파운데이션 모델 프로젝트' 1차 단계 평가 결과에 따르면 LG AI연구원의 K-엑사원이 가장 우수한 성적을 거두며 2차 단계 진출을 확정 지었다. 이번 평가에서 K-엑사원은 객관적인 성능 지표를 측정하는 '벤치마크 평가', 기술의 완성도를 검증하는 '전문가 평가', 그리고 실제 효용성을 판단하는 '사용자 평가' 등 모든 부문에서 최고점을 기록했다. 경쟁사들을 압도하는 기술력을 입증하며 명실상부한 국내 최고의 AI 파운데이션 모델임을 증명한 셈이다. LG 측은 이번 성과가 지난 2020년 구광모 대표의 주도로 설립된 LG AI연구원이 지난 5년간 묵묵히 쌓아온 기술력이 빛을 발한 결과라고 설명했다. 구 대표는 평소 AI를 미래 사업의 핵심 축으로 강조하며 전폭적인 지원을 아끼지 않았다. 특히 새해 신년사를 통해 "새로운 미래가 열리는 변곡점에서는 지금까지의 성공 방식을 넘어 새로운 혁신으로 도약해야 한다"며 '선택과 집중'을 강조한 바 있는데, 이번 성과는 LG의 AI 분야에 대한 집중적인 투자가 헛되지 않았음을 증명하는 사례다. LG 컨소시엄이 프로젝트 착수 단 5개월 만에 완성도 높은 모델을 선보일 수 있었던 배경에는 LG AI연구원이 축적해 온 독자적인 AI 파운데이션 모델 개발 노하우가 결정적인 역할을 했다는 후문이다. 임우형 LG AI연구원 공동 연구원장은 "엑사원에서 시작된 혁신은 이제 개별 기업의 성과를 넘어, 대한민국 산업 전반의 AI 생태계를 주도하는 핵심 엔진이 될 것"이라며, "K-엑사원이 지닌 독보적인 기술력을 바탕으로 글로벌 시장 내 기술 주도권을 확보하고, 대한민국이 AI 강국으로 도약할 수 있도록 최선을 다하겠다"고 소감을 밝혔다. 이어 "이번 결과는 K-엑사원이 글로벌 선도국과 어깨를 나란히 하며, 대한민국의 'AI 3대 강국' 도약을 보여주는 결정적 지표"라면서 "단순히 글로벌 수준의 모델을 확보하는 것에 그치지 않고 산업 현장으로의 적용 확산과 핵심 인재 육성 등 전방위적인 AI 생태계 구축을 선도해 나갈 것"이라고 포부를 덧붙였다. LG AI연구원은 이번 1차 평가 1위를 발판 삼아 AI 기술 역량을 한층 더 끌어올릴 계획이다. 현재의 성과에 안주하지 않고 남들이 불가능하다고 여기는 수준까지 기술을 고도화하여 글로벌 시장의 '게임 체인저'가 되겠다는 목표다. 임 연구원장은 "이번 1차수 모델은 프런티어급 AI로 도약하기 위한 견고한 기반을 다지는 시작점"이라며 "이제 본격적인 성능 고도화 단계를 거쳐 글로벌 경쟁력을 확보한 완성형 K-엑사원을 구현해 나갈 것"이라고 강조했다. 또한 "엑사원을 시작으로 멈추지 않고 달려온 여정 속에서, 이번 결과는 더 큰 도약을 향한 중요한 변곡점"이라며 "K-엑사원을 더욱 고도화하여 글로벌 생태계로 진화하는 국가대표 AI 모델로 자리매김하겠다"고 밝혔다. 한 업계 관계자는 "구광모 대표의 뚝심 있는 AI 투자와 LG AI연구원의 기술력이 시너지를 내면서 가시적인 성과가 나타나고 있다"며 "K-엑사원이 대한민국을 넘어 글로벌 AI 시장에서 어떤 활약을 펼칠지 귀추가 주목된다"고 말했다.

2026.01.15 16:32남혁우 기자

[유미's 픽] "특혜는 없었다"…독자 AI 1차 평가 결과에 정부 '호평' 받은 까닭

과학기술정보통신부가 '독자 AI 파운데이션 모델(K-AI)' 프로젝트 1차 평가에서 성능과 브랜드를 가리지 않고 엄격한 잣대를 적용하면서 정부 AI 정책의 기준선이 분명해진 모습이다. 이번 일을 두고 '특혜 시비' 없이 공정하게 이뤄졌다는 분석과 함께 독자 AI를 둘러싼 정책 신뢰도가 한층 높아진 것으로 평가된다. 과학기술정보통신부는 15일 정부서울청사에서 LG AI연구원·SK텔레콤·업스테이지 등 3개 정예팀이 'K-AI' 2차 단계에 진출했다고 발표했다. 기존 정예팀 가운데 네이버클라우드와 NC AI는 1차 단계에서 탈락했다.이번 1차 평가는 단순한 기술 성능 경쟁이 아니라 정부가 정의한 '독자 AI 파운데이션 모델'의 요건을 실제 평가에 어떻게 반영하는지를 가늠하는 과정으로 평가됐다. 앞서 과기정통부는 이 사업의 목적을 'AI 3강' 도약과 함께 글로벌 AI 모델 의존으로 인한 기술·경제·안보적 종속 해소로 설정한 바 있다. 또 해외 모델을 미세조정한 파생형(파인튜닝)이 아닌 모델 설계부터 사전학습 전 과정을 수행한 국산 모델만을 독자 AI로 인정한다는 기준을 공모 단계부터 명확히 해왔다. 이에 따라 1차 평가는 벤치마크, 전문가, 사용자 평가를 종합해 진행됐다. 이 과정에서 LG AI연구원이 전 부문에서 가장 높은 점수를 기록했고 네이버클라우드, SK텔레콤, 업스테이지가 상위권에 이름을 올렸다. 다만 네이버클라우드는 성능과 별개로 독자성 기준을 충족하지 못했다는 정책적 판단에 따라 2차 단계 진출에서 제외됐다. 반면 NC AI는 독자성 문제는 제기되지 않았지만, 종합 점수 경쟁에서 상위권에 들지 못해 이번 단계에서는 탈락했다. 업계에서는 이번 1차 평가를 결과보다 과정 중심으로 해석하는 분위기다. 단순히 탈락 여부를 가르는 선발전이라기보다 정부가 독자 AI를 어떤 기준과 관점에서 바라보고 있는지를 현장에서 확인하는 계기였다고 평가했다. 특히 성과 자체보다 제한된 조건 속에서 각 팀이 주어진 기회를 어떻게 활용했는지가 중요하게 다뤄졌다는 분석이 나온다. 업계 관계자는 "여러 컨소시엄 가운데 5개 정예팀으로 선발돼 도전 기회를 얻었다는 것 자체가 이미 역량을 인정받았다는 의미"라며 "제한된 시간과 자원 속에서 정예팀 모두가 상당한 노력을 기울였다고 본다"고 말했다. 이어 "평가 과정에서 정부는 K-AI 정예팀들이 주어진 기회를 얼마나 충실히 살렸는지를 중점적으로 검토했을 것”이라고 덧붙였다. 이번 평가를 계기로 독자 AI에 대한 기준이 한층 정교해질 가능성도 제기된다. 단순한 성능 순위나 '프롬 스크래치' 여부를 넘어 가중치 주권을 전제로 한 모델 설계 역량과 비용 효율성, 실제 현장에서의 활용 가능성까지 함께 평가하는 방향으로 심사 기준이 진화할 수 있다는 분석이다. 정부 역시 2차 심사에서 독창성과 기술적 기여도를 평가 항목에 포함하겠다고 밝히면서 향후 독자 AI 경쟁이 데이터·자본 경쟁을 넘어 '누가 더 깊이 모델을 설계했는가'를 가리는 국면으로 접어들 것이란 전망이 나온다. 다만 이 같은 기준 정교화를 위해서는 개념과 용어에 대한 선행 정리가 필요하다는 지적도 제기된다. 임정환 모티프테크놀로지스 대표는 "현재 독자 개발과 프롬 스크래치에 대한 개념이 혼재된 상황"이라며 "정부 차원에서 기술적 기여도에 따른 명확한 정의와 가이드라인 마련이 시급하다"고 강조했다. 2차 평가가 더욱 엄격해질 수 있다는 전망 속에 선발된 정예팀의 부담감도 더 커진 분위기다. 업계에선 1차가 '자격과 원칙'을 검증하는 단계였다면, 2차는 실제 성과를 증명해야 하는 '퍼포먼스 경쟁'이 될 가능성이 크다고 보고 있다. '퍼포먼스'에 대한 개념에 대해선 단순한 벤치마크 점수 경쟁과는 다르게 봐야한다는 것이 중론이다. 이승현 포티투마루 부사장은 "독자 AI 2차 심사에서 퍼포먼스는 단순히 점수로 줄 세울 문제가 아니다"며 "가중치를 처음부터 자체 학습했는지, 데이터와 학습 과정에 대한 통제권을 갖고 있는지, 같은 조건에서 성능을 안정적으로 재현할 수 있는지가 먼저 봐야 할 기준"이라고 말했다. 이어 "이 전제가 빠진 성능 비교는 기술 평가라기보다 보여주기에 가깝다"고 덧붙였다. 과기정통부는 1차 평가 이후 추가 공모를 통해 정예팀 1곳을 더 선정해 올해 상반기에는 총 4개 정예팀 경쟁 체제를 구축할 계획이다. 최종 2개팀 선정은 오는 12월이 목표다. 업계 관계자는 "이번 독파모 1차 경쟁은 우리나라가 AI 강국으로 도약하기 위해 겪는 성장통으로 볼 수 있다"며 "여러 이해관계와 논란 속에서도 정부의 많은 고민의 흔적이 보이는 발표였다는 점에서 의미가 크다"고 말했다. 과기정통부는 "이번 프로젝트는 대한민국이 글로벌 AI 경쟁에서 독자적 기술로 당당히 맞서기 위한 역사적 도전"이라며 "독자 AI 파운데이션 모델을 반드시 확보해 지속 가능하고 건강한 AI 생태계를 구축하고, 글로벌 AI 기술 경쟁의 선두에 설 수 있도록 가용한 모든 국가 역량을 집중하겠다"고 밝혔다.

2026.01.15 16:02장유미 기자

[유미's 픽] '독자 AI' 논쟁, 韓서 유독 격화된 이유는

정부 주도의 독자 인공지능(AI) 파운데이션 모델 사업을 둘러싼 논란이 기업 간 경쟁을 넘어 정책·기술 논쟁으로 확산되고 있다. 해외 모델과의 유사성, '프롬 스크래치' 정의, 외부 가중치 사용 여부를 두고 해석이 엇갈리면서 논쟁의 강도도 커지는 양상이다. 나아가 업체 간 '진흙탕 싸움'으로도 번지자 이번 사업에서 국내 독자 AI 정책 설계 방식과 기준 설정이 미흡했기 때문이란 지적이 나온다. 14일 업계에 따르면 이번 논란이 확산된 것은 '독자 AI'라는 정책 목표가 기술적 정의보다 먼저 제시됐기 때문이다. 일단 정부는 지난 해 공모 단계에서 해외 AI 모델을 단순 미세조정(fine-tuning)한 파생형 모델을 독자 AI로 인정하지 않겠다는 원칙을 밝혔다. 그러나 '프롬 스크래치'와 '독자성'을 어디까지로 해석할 것인지에 대해서는 구체적인 기준을 제시하지 않았다. AI 연구 현장에서 통용되는 '프롬 스크래치'는 일반적으로 기존 모델의 가중치를 사용하지 않고 랜덤 초기화 상태에서 학습했는지를 의미한다. 반면 정책 논의 과정에서는 이 개념이 모델 구조, 아키텍처 차용, 모듈 활용 여부까지 포함하는 방식으로 확장되면서 기술적 정의와 정책적 해석 간의 차이가 드러났다는 평가가 나온다. 업계에선 이 간극이 이후 논쟁을 키운 근본 배경이라고 보고 있다. 평가 기준이 개발 전이 아닌 5개 팀 선발 결과 공개 이후에 본격적으로 논의됐다는 점도 논란을 키운 요인으로 꼽힌다. 짧은 개발 기간과 제한된 자원으로 글로벌 수준의 성능을 요구받은 상황 속에 다수 참여 기업이 오픈소스 생태계와 기존 연구 성과를 일정 부분 활용할 수밖에 없었다는 것도 문제다. 이를 활용했을 때 어느 수준까지 허용되는지에 대한 사전 합의가 충분히 공유되지 않은 탓이다. 이에 각 기업의 기술 선택은 현재 독자성 논쟁의 대상이 됐다. 업계 관계자는 "사전 가이드라인이 명확하지 않은 상태에서 사후 검증이 강화되다 보니 기술적 판단이 정책적·정치적 논쟁의 중심에 놓이게 됐다"며 "기술 선택의 맥락보다는 결과를 기준으로 한 평가가 이뤄지면서 논쟁이 과열됐다"고 진단했다. 이번 사업이 단순한 연구개발(R&D) 지원을 넘어 '국가대표 AI'를 선발하는 성격을 띠고 있다는 점도 논쟁을 증폭시킨 요인으로 분석된다. 기업 간 경쟁이 국가 기술 자립의 상징으로 해석되면서 기술적 차이보다 독자성의 순수성을 둘러싼 평가가 부각됐다는 점에서다. 글로벌 AI 연구 환경에서는 오픈소스와 기존 연구 성과를 활용하는 것이 일반적이지만, 국내에서는 안보와 기술 주권 담론이 결합되며 기술 선택 하나하나가 상징적 의미를 띠게 됐다는 지적도 나온다. 업계 관계자는 "이번 논쟁의 본질은 특정 기업의 기술 선택 문제가 아니라 기술 기준과 정책 기준이 혼재된 구조적 문제"라며 "AI 연구 관점에서는 구조 차용과 독자 학습을 구분해 평가하는 반면, 정책 관점에서는 외부 의존성과 통제 가능성이 더 중요한 판단 기준이 된다"고 말했다. 그러면서 "이번 독자 AI 사업에서는 이 두 기준이 동일한 언어로 정리되지 않은 상태에서 추진되면서 혼선이 커졌다"고 분석했다. 이로 인해 기술적으로는 합리적인 선택이 정책적으로는 부적절해 보일 수 있게 됐다. 반대로 정책적 메시지가 강한 선택이 기술적 완성도와는 별개로 평가되는 상황도 만들어졌다. 업계에선 이번 논쟁이 '유사성' 여부를 따지는 문제를 넘어 무엇을 기준으로 독자성을 판단할 것인지에 대한 논의로 이어지고 있다고 보고 있다. 일각에선 이번 1차 평가를 계기로 독자 AI의 기준을 보다 정교화할 필요가 있다는 의견을 내놨다. 단순한 성능 지표나 선언적 독자성보다 가중치 통제권, 설계 역량, 비용 효율성, 장기적 운용 가능성 등을 종합적으로 평가하는 체계가 필요하다는 지적이다. 업계 관계자는 "이번 논쟁이 한국 AI 산업에 반드시 부정적인 신호만은 아니라고 본다"며 "독자 AI의 정의와 정책 목표를 다시 정립하는 계기로 삼을 필요가 있다"고 밝혔다.이어 "앞으로 기술 논쟁을 도덕적 공방으로 몰고 가기보다 정책 목적과 기술 현실을 구분해 설명할 수 있는 기준을 우선 마련하는 것이 필요해보인다"며 "이번 독자 AI 논쟁은 개별 기업의 성패를 넘어 한국이 어떤 방식으로 AI 주권을 확보할 것인지에 대한 정책적 시험대가 될 것"이라고 덧붙였다.

2026.01.14 16:54장유미 기자

오픈소스 활용한 딥시크, 어떻게 독자모델 인정받았나

현재 정부가 추진 중인 '독자적 파운데이션 모델(이하 독파모)' 선정 과정에서 오픈소스를 활용한 기업 독자 모델 인정여부를 두고 잡음이 일고 있다. 사용한 오픈소스가 더이상 지원하지 않거나 라이선스를 변경할 경우 독자 모델로서 존립하기 어렵다는 지적 때문이다. 하지만 지난해 초 중국 인공지능(AI) 스타트업 '딥시크(DeepSeek)'가 내놓은 AI 모델 R1과 비교하면 상황이 묘하다. 적은 비용으로 미국 빅테크들과 견줄 수 있는 성능을 낸 AI는 오픈소스 모듈을 적극적으로 차용해 개발됐지만 자체 AI모델로 인정받고 있다. 똑같이 외부 기술을 빌려 썼는데 딥시크는 독자 기술로 주목받고 국내 기업은 무늬만 독자라는 비판을 받고 있는 셈이다. 이에 대해 업계 전문가들은 양측의 가장 큰 차이로 기업이 가진 철학과 이를 구현하는 차별화를 꼽았다. 딥시크부터 구글까지...오픈소스 활용하는 글로벌 AI 딥시크의 기술 보고서에 따르면 R1을 비롯한 모델 라인업 개발 과정에서 주요 기능 구현에 경쟁사 모듈이 대거 사용됐다. 멀티모달 모델은 이미지를 인식하는 비전 인코더로 구글에서 개발한 모델을 도입했다. 딥시크-VL은 SigLIP-L, SAM-B를 하이브리드 비전 인코더로 썼고 야뉴스는 SigLIP-L을 비전 인코더로 채택했다 학습 과정도 마찬가지다. 딥시크는 모델 학습 속도를 극한으로 끌어올리기 위해 경쟁사인 오픈AI가 개발해 공개한 GPU 프로그래밍 언어 '트라이톤(Triton)'을 추론 및 커널 최적화 코드에서 활용했다. 학습 가속을 위해서는 스탠포드 대학 연구진이 개발한 플래시 어텐션 모듈을 차용했다. 이런 모듈 활용은 딥시크에 국한된 이야기가 아니다. 현재 오픈형 LLM 표준으로 불리는 메타의 라마 시리즈는 문맥 순서를 파악하는 위치 임베딩에 중국 AI 기업 쥬이이테크놀로지가 개발한 회전위치임베딩(RoPE) 모듈을 사용한다. 활성화 함수 역시 구글이 제안한 'SwiGLU' 방식을 채택했다. 구글 제미나이 역시 학습 효율을 위해 딥시크처럼 외부에서 개발한 플래시 어텐션 기술을 내부 인프라에 통합해 사용 중이다. 임정환 모티프 대표는 "자동차를 만들 때 타이어나 와이퍼를 전문 업체 부품으로 썼다고 해서 그 차를 독자 개발이 아니라고 하지 않는다"며 "인코더나 가속 라이브러리 같은 '부품을 외부에서 가져오는 방은 효율성을 위한 합리적인 선택"이라고 설명했다. 강화학습·MoE로 효율 혁신...딥시크, 기술로 증명한 독자 가치 다양한 오픈소스를 활용했음에도 딥시크가 독자 모델로 평가받는 이유는 그 동안 없었던 기술적 시도를 통해 새로운 가치를 증명했기 때문이다. 당시 중국은 미국 반도체 제재로 인해 최신 엔비디아 GPU를 구하기 어려운 상황에 처했다. 딥시크는 제한된 인프라 안에서 어떻게 하면 미국 빅테크와 대등한 성능을 낼 수 있을까라는 과제를 안고 있었다. 이를 해결하기 위해 도입한 방법이 강화학습이었다. 당시 업계는 강화학습을 챗봇 말투를 교정하는 용도(RLHF)로 제한해 활용했다. 추론 능력을 높이는 데는 효율이 떨어진다고 여겨 잘 시도하지 않았다. 하지만 딥시크는 "강화학습을 통해 AI가 스스로 생각하는 과정을 훈련시키면 적은 데이터와 파라미터로도 추론 능력을 극대화할 수 있다"는 독자적인 가설을 세웠다. 그리고 이를 기술적으로 구현해 냄으로써 단순히 데이터를 많이 쏟아붓는 방식이 아닌 새로운 '지능 향상의 길'을 열었다. 기존 오픈소스 모델을 가져와 데이터만 주입하던 방식과는 차원이 다른 접근이었다. 또 다른 혁신은 아키텍처 효율화에 있다. 이들이 채택한 '전문가 혼합(MoE)' 모델은 거대 AI를 각 분야에 최적화된 여러 개 '작은 전문가 모델'로 나눈 뒤 질문에 따라 필요한 모델만 불러와 처리함으로써 효율을 극대화하는 기술이다. 1991년 처음 제안된 후 구글이 '스위치 트랜스포머(Switch Transformer)' 등을 통해 발전시킨 개념이다. 딥시크는 기존 MoE 보다 전문가 모델을 더 세분화하고 어떤 질문이든 공통적으로 필요한 지식을 다루는 일부 모델은 항상 대기시키는 방식을 더해 딥시크MoE라는 독자적인 변형 아키텍처로 발전시켰다. 기존에 존재하던 기술을 재설계해 경쟁사 모델 대비 메모리 사용량과 연산 비용을 획기적으로 줄이는 데 성공했다. 결과적으로 적은 자원으로도 고성능을 낼 수 있음을 증명했다. 유명호 스누아이랩 대표는 "오픈소스를 활용하는 것보다 중요한 건 오픈소스를 그대로 가져다 쓰는지 아니면 거기에 독창적인 아이디어와 방법론을 결합해 새로운 가치를 만들어내느냐 차이"라고 지적했다. 이어 "학계에서도 기존 모델에 새로운 엔진이나 방법론을 접목해 성능을 개선하면 새로운 이론으로 인정한다"며 "단순히 오픈소스를 썼냐 아니냐를 따질 게 아니라 기업에서 제시한 새로운 이론이나 기술이 얼마나 적용되었는가를 따지는 심사 기준이 필요하다"고 말했다. 한국어만 잘하는 AI는 넘어...차별화된 혁신성 제시해야 업계 전문가들은 이번 논란을 계기로 한국 AI 산업이 '독자 AI'라는 단어의 함정에서 빠져나와야 한다고 지적한다. 단순히 부품 국산화율을 따지는 제조업식 사고방식으로는 AI 기술 패권 경쟁 본질을 놓칠 수 있다. 유명호 대표는 "비전 인코더는 데이터 구축도 어렵고 개발 난도가 매우 높다"며 "우리도 자체 개발하는 데만 2~3년이 걸렸다"며 단시간에 AI 관련 모든 인프라를 구축하는 것은 한계가 있다고 지적했다. 현재 글로벌 시장은 AI 관련 모든 요소를 자체적으로 만들었는지 보다 특정 분야라도 얼마나 독창적이고 차별화된 아키텍처를 만들었는지, 그 결과 비용 효율성이나 특정 기술 특화 등 차별화 포인트가 무엇인지를 묻고 있다. 딥시크가 인정받는 이유도 이 지점이다. 더불어 압도적인 자본과 인력을 쏟아붓는 미국과 중국을 단순히 추격하는 방식으로는 승산이 없다는 지적이다. 특히 글로벌 시장에서 경쟁하기 위한 AI 모델을 목표로 하는 만큼 한국어 인식률이 높다는 포인트만으로는 차별화 포인트를 제시할 수 없다는 것이 업계 반응이다. 임정환 대표는 "정부와 시장이 벤치마크 점수 1등이라는 타이틀에만 집착하면 기업은 결국 검증된 오픈소스 모델을 가져와 점수만 올리는 '안전한 길'만 택하게 된다"고 경고했다. 단기적으로는 가시적인 성과처럼 보일지 몰라도 장기적으로는 원천 기술 부재로 인한 글로벌 기술 종속을 심화시키는 결과를 초래할 수 있다는 지적이다. 이를 방지하고 한국 AI 산업이 딥시크와 같은 반열에 오르기 위해서는 '보여주기식 성과'에 집착하는 현재 평가 체계를 개선해야 한다는 요구도 제기되고 있다. 임 대표는 "진정한 국가대표 AI라면 단순히 한국어를 잘하는 AI를 넘어 글로벌 시장에 내세울 수 있는 특화된 장점과 경쟁력이 있어야 한다"며 "설령 당장은 점수가 낮거나 실패하더라도 맨땅에 헤딩하며 독자적인 가설을 세우고 원천 기술을 확보하려는 기업에게 더 많은 기회와 지원을 제공해야 한다"고 제언했다

2026.01.13 14:03남혁우 기자

[유미's 픽] 독자 AI 논란 속 '설계 주권' 시험대…LG 'K-엑사원'이 돋보인 이유

"이번 경쟁에서 고유 아키텍처를 고수하며 바닥부터 설계하는 곳은 LG AI연구원 정도입니다. 정부 과제의 짧은 데드라인과 제한된 자원 속에서 검증된 글로벌 오픈소스를 적극 활용할 수밖에 없는 환경 속에 특정 모듈 차용이 문제라면, 오픈소스 기반으로 개발한 국내 기업 다수도 그 비판에서 자유롭기 어려울 것입니다."최근 정부 주도의 독자 인공지능(AI) 파운데이션 모델 프로젝트를 둘러싼 잡음이 이어진 가운데 LG AI 연구원의 'K-엑사원'이 비교적 논란 없이 업계의 호평을 받으며 존재감을 드러내고 있다. 성능 평가에서도 미국, 중국이 점령한 글로벌 AI 상위 10위권에서 7위를 기록하며 유일하게 이름을 올려 'AI 3강'을 노린 한국을 대표할 AI 모델로 자리를 굳히는 분위기다.LG AI연구원은 'K-엑사원'이 정부의 독자 AI 파운데이션 모델 프로젝트 1차 평가 기준인 13개의 벤치마크 테스트 중 10개 부문 1위를 기록했다고 11일 밝혔다. 전체 평균 점수는 72점으로, 5개 정예팀 중 1위를 차지했다. 이 기준으로 평가를 했을 시 경쟁사들은 50점 중반대에서 60점 중반대 정도의 평균 점수를 기록하는 것으로 알려졌다. 일부 참가업체들이 최근 공개한 테크 리포트에서 13개 벤치마크 결과를 모두 기재하지 않은 것과 달리, LG AI연구원은 모든 결과를 공개해 비교 가능성을 높여 우위에 올라섰다는 평가도 나온다. 업계에선 독자 AI 모델의 가장 중요한 요소로 '프롬 스크래치'와 '독자성' 해석을 꼽고 있다. 최근 해외 모델 유사성 등 여러 논란 속에서 가장 중요한 요소가 외부 모델 '가중치(Weight) 사용' 여부가 핵심으로 떠오르고 있는데, 특히 LG AI연구원의 'K-엑사원'은 이를 모두 충족시키는 모델로 평가 받고 있다. 가중치는 AI 모델이 학습을 통해 축적한 지식이 압축된 결과물로, 라이선스와 통제권 문제와 직결된다. 정부가 해외 모델을 파인튜닝한 파생형 AI를 독자 AI로 간주하지 않겠다고 밝힌 이유도 이 때문이다. 다만 일각에선 가중치 논쟁이 독자 AI의 기준을 지나치게 단순화할 수 있다는 지적도 나온다. 가중치는 독자 AI의 최소 조건일 뿐 그 위에서 어떤 기술적 선택을 했는지가 모델의 완성도를 가른다는 것이다. 특히 대규모 자본과 연산 자원을 투입해 데이터와 파라미터 규모를 늘리는 방식은 단기 성능 경쟁에는 유리할 수 있지만, 장기적인 국가 AI 전략과는 거리가 있다는 평가도 있다.이 때문에 최근에는 가중치 이후의 단계인 모델 구조에 대한 설계 역량이 중요 기준으로 떠오르고 있다. 대표적인 영역이 어텐션(Attention)과 토크나이저(Tokenizer)다. 어텐션은 AI가 방대한 정보 중 어떤 부분에 집중할지를 결정하는 핵심 메커니즘으로 연산량과 메모리 요구량을 좌우한다. 토크나이저는 문장을 토큰 단위로 분해하는 방식으로 학습 효율과 언어 이해 능력에 직접적인 영향을 미친다. 두 요소는 성능과 비용을 동시에 결정하는 구조적 레버로, 독자 AI의 '설계 주권'을 가늠하는 지표로 평가된다.이에 대해 임정환 모티프테크놀로지스 대표는 독자 기술의 기준을 보다 구조적으로 봐야 한다고 지적했다. 그는 "엔비디아가 설계를 하고 TSMC가 생산을 맡는 구조나, 삼성 스마트폰이 다양한 외부 부품을 조합해 만들어지는 사례를 보더라도 핵심은 누가 설계의 주체냐는 점"이라며 "단순히 코드를 복제한 뒤 재학습하는 방식은 기술적 난이도가 낮아 독자 아키텍처로 보기 어렵다"고 말했다. 이어 "중국 딥시크는 기존 구조를 그대로 쓰지 않고 이를 변형해 자신들만의 기술적 철학을 담았기 때문에 독자 기술로 평가받는 것"이라고 덧붙였다.업계에선 독자 AI의 '설계 주권'을 판단하는 기준이 어텐션과 토크나이저에만 국한돼서는 안 된다는 지적도 나온다. 실제로 AI 모델의 성능과 효율은 어텐션 외에도 정규화(Normalization) 방식, 레이어 구성, FFN(Feed-Forward Network) 구조, 학습 커리큘럼 설계, 추론(Reasoning) 구조의 내재화 여부 등 복합적인 설계 선택에 의해 좌우된다. 정규화 방식과 레이어 구성은 학습 안정성과 스케일링 한계를 결정하는 요소로, 표준 레이어놈(LayerNorm)을 그대로 사용하는지, RMS놈(RMSNorm) 등 변형된 방식을 적용했는지에 따라 대규모 학습에서의 효율과 수렴 특성이 달라진다. 레이어놈이 모든 신호를 고르게 '정돈'하는 방식이라면, RMS놈은 꼭 필요한 크기 정보만 남겨 계산 부담을 줄이는 방식에 가깝다.FFN 구조 역시 전체 파라미터의 상당 부분을 차지하는 영역으로, 활성화 함수 선택이나 게이트 구조 도입 여부에 따라 연산량 대비 성능 효율이 크게 달라진다. FFN은 AI가 주목한 정보를 자기 언어로 다시 정리하는 '내부 사고 회로'에 해당한다. 학습 커리큘럼 역시 설계 주권을 가늠하는 중요한 지표로 꼽힌다. 단순히 대규모 데이터를 한 번에 투입하는 방식이 아니라, 언어 이해·추론·지시 이행·도메인 특화 학습을 어떤 순서와 비중으로 설계했는지가 모델의 안정성과 범용성을 좌우하기 때문이다. 여기에 프롬프트 기법에 의존하지 않고, 추론 과정을 모델 구조 내부에 내재화했는지 여부도 공공·국방·금융 등 고신뢰 영역에서 중요한 평가 요소로 거론된다. 업계 관계자는 "가중치는 독자 AI의 출발점이고, 어텐션과 토크나이저는 그 다음 단계"라며 "그 이후에는 학습 시나리오와 추론 구조, 스케일링 전략까지 얼마나 스스로 설계했는지가 진짜 기술적 자립도를 가른다"고 설명했다. LG AI연구원의 'K-엑사원'은 이 지점에서 차별화된 접근을 택했다. LG AI연구원은 데이터 양이나 파라미터 규모를 무작정 키우는 방식 대신, 모델 구조 자체를 고도화해 성능은 높이고 학습·운용 비용은 낮추는 전략을 적용했다. 엑사원 4.0에서 검증한 '하이브리드 어텐션(Hybrid Attention)'을 'K-엑사원'에 고도화해 적용, 국소 범위에 집중하는 슬라이딩 윈도우 어텐션과 전체 맥락을 이해하는 글로벌 어텐션을 결합했다. 이를 통해 메모리 요구량과 연산량을 이전 세대 대비 약 70% 절감했다는 설명이다. 토크나이저 역시 단순 재사용이 아닌 구조적 개선이 이뤄졌다. LG AI연구원은 학습 어휘를 약 15만 개로 확장하고, 한국어에서 자주 쓰이는 단어 조합을 하나의 토큰으로 묶는 방식을 적용했다. 그 결과 동일한 연산 자원으로 더 긴 문서를 기억하고 처리할 수 있게 됐으며 기존 대비 약 1.3배 긴 컨텍스트 처리 능력을 확보했다. 여기에 멀티 토큰 예측(MTP) 구조를 도입해 추론 속도도 크게 높였다. 이 같은 구조 혁신은 정부 프로젝트의 성격과도 맞닿아 있다. 독자 AI 파운데이션 모델의 목표는 단기적인 성능 순위 경쟁이 아니라 공공·산업 현장에서 실제로 활용 가능한 국가 AI 인프라를 구축하는 데 있기 때문이다. LG AI연구원이 고가의 최신 그래픽처리장치(GPU)가 아닌 A100급 환경에서도 프런티어급 모델을 구동할 수 있도록 설계해 인프라 자원이 제한된 기업과 기관에서도 활용 가능성을 넓혔다는 점도 우위 요소로 보인다. 다른 참가 기업들 역시 각자의 강점을 내세우고 있다. SK텔레콤은 최신 어텐션 기법과 초거대 파라미터 확장을 통해 스케일 경쟁력을 강조하고 있고, NC AI는 산업 특화 영역에서 운용 효율을 앞세우고 있다. 네이버클라우드는 멀티모달 통합 아키텍처를 독자성의 핵심으로 제시하고 있으며, 업스테이지는 데이터와 학습 기법을 통해 성능을 끌어올리는 전략을 취하고 있다. 다만 일부 모델은 외부 가중치나 구조 차용 여부를 둘러싼 논란으로 인해 기술 외적인 설명 부담을 안고 있는 상황이다. 업계 관계자는 "이번 논쟁이 '순혈이냐, 개발이냐'의 이분법으로 끝나기보다 가중치 주권을 전제로 한 설계 주권 경쟁으로 진화하고 있다고 본다"며 "이 기준에서 'K-엑사원'은 성능, 비용 효율, 구조적 혁신이라는 세 요소를 동시에 충족한 사례로 평가되고, 한국형 독자 AI가 나아갈 한 방향을 보여주고 있다"고 분석했다.업계에선 이번 1차 평가를 계기로 독자 AI에 대한 기준이 한층 정교해질 가능성이 높다고 봤다. 단순한 성능 순위나 '프롬 스크래치' 여부를 넘어 가중치 주권을 전제로 한 모델 설계 역량과 비용 효율, 실제 활용 가능성까지 함께 평가하는 방향으로 심사 기준이 진화할 수 있을 것으로 전망했다. 정부 역시 2차 심사 과정에서 독창성과 기술적 기여도를 평가 항목으로 포함하겠다고 밝힌 만큼, 향후 독자 AI 경쟁은 데이터·자본 경쟁을 넘어 누가 더 깊이 모델을 설계했는지를 가리는 국면으로 접어들 것이란 분석도 나온다.임정환 모티프테크놀로지스 대표는 "현재 독자 개발과 프롬 스크래치에 대한 개념이 혼재된 상황"이라며 "(정부 차원에서) 기술적 기여도에 따른 명확한 정의와 가이드라인 마련이 시급하다"고 강조했다. 이승현 포티투마루 부사장은 "독자 AI 2차 심사에서 퍼포먼스는 단순히 벤치마크 점수로 줄 세울 문제가 아니다"며 "가중치를 처음부터 자체 학습했는지, 데이터와 학습 과정에 대한 통제권을 갖고 있는지, 같은 조건에서 성능을 안정적으로 재현할 수 있는지가 먼저 봐야 할 기준"이라고 말했다. 이어 "이 전제가 빠진 성능 비교는 기술 평가라기보다 보여주기에 가깝다"고 덧붙였다.

2026.01.11 15:57장유미 기자

[AI 리더스] 'AI 표준' 만든 이승현 "K-AI 5곳, 모두 승자…톱2 집착 버려야"

"독자 인공지능(AI) 파운데이션 모델(K-AI) 사업자로 선정된 5곳은 사실상 모두 승자입니다. 2개 사업자만 선별해 정부가 지원하기 보다 각 팀이 짧은 시간 안에 각자의 방식으로 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점을 인정해야 합니다. 정부가 각 모델의 특성과 강점을 살릴 수 있는 지원책을 마련한다면 국내 AI 생태계도 훨씬 건강해질 수 있을 것입니다." 이승현 포티투마루 부사장은 8일 지디넷코리아와의 인터뷰를 통해 최근 독자 AI 파운데이션을 둘러싼 논란에 대해 이같이 정리했다. 오는 15일께 정부가 1차 탈락팀을 결정하기 전 각 업체들이 '이전투구' 양상으로 치닫는 모습을 보이는 것을 두고 정부가 2개팀만 선별해 지원하려는 구조 때문이라고도 진단했다. 또 이번 논란의 본질이 기술 경쟁이 아니라 구조적 문제에 있다고 봤다. 정부가 2개 사업자만 선별해 집중 지원하는 방식이 계속 유지되면 탈락 기업에 과도한 낙인이 찍히고 업계 전체가 방어적·공격적으로 변할 수밖에 없다고 분석했다. 성능 경쟁보다 통제 원칙 우선돼야…소버린 AI 기준 마련 필요 정부는 현재 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 독자 AI 파운데이션 모델 사업자로 선정된 5개 정예팀을 대상으로 1차 심사를 진행 중이다. 탈락팀 1곳은 오는 15일쯤 발표할 예정으로, 정예팀마다 평가 기준이 상이해 업계에선 각 업체별 모델을 두고 유불리 논란이 이어지고 있다. 이 부사장은 "정부 사업에서 탈락하면 해당 팀이 '사망선고'를 받는 것처럼 여겨지는 구조는 바람직하지 않다"며 "톱2만 키우는 방식은 산업 전체를 위축시킬 가능성이 높은 만큼, 선별보다 육성 중심의 정책 전환을 고민해야 한다"고 제언했다. 특히 이번 사업에 참여한 기업 상당수가 대기업 또는 대기업 계열이라는 점에서 1차 탈락이 갖는 파급력은 더 크다고 봤다. 그는 "1차에서 떨어졌다는 이유만으로 '이 정도밖에 못하느냐'는 평가가 붙으면 내부 투자나 그룹 차원의 지원이 위축될 가능성도 배제하기 어렵다"며 "그 부담이 기업을 더욱 공격적인 대응으로 몰아넣는다"고 진단했다.이에 이 부사장은 '선별'이 아닌 '육성'을 초점에 맞춘 정부 정책이 마련될 필요가 있다고 강조했다. 일정 수준 이상의 역량을 입증한 기업들을 여러 트랙으로 나눠 지속적으로 키우는 구조가 필요하다는 것이다. 그는 "영국 등 해외 사례를 보면 한 번 떨어졌다고 끝나는 게 아니라 다른 트랙으로 계속 경쟁과 육성을 이어간다"며 "이번에 선정된 5개 기업 역시 각자 다른 강점과 방향성을 갖고 있는 만큼, 정부가 이들을 '탑위너 그룹'으로 묶어 장기적으로 관리하는 전략이 필요하다"고 말했다.이 부사장은 소버린 AI를 둘러싼 논의 역시 '전면 강제'가 아니라 '위험 구간에서의 원칙'으로 재정의해야 한다고 강조했다. 글로벌 모델과의 성능 경쟁을 목표로 삼기보다 투명성을 바탕으로 통제 가능성과 주권 확보가 필요한 영역에서 전략적으로 활용해야 한다고 주장했다. 그는 "공공 영역만 보더라도 정보 등급에 따라 활용 원칙이 달라야 한다"며 "오픈 데이터나 공개 서비스 영역에서는 글로벌 모델이나 경량화 모델을 활용할 수 있지만, 민감정보·보안 등급으로 올라갈수록 소버린 모델을 원칙으로 삼는 방식이 합리적"이라고 말했다. 그러면서 "다만 소버린을 내세워 모든 것을 자체 모델로만 해결하려는 접근은 현실적이지 않다"며 "필요할 경우 월드모델 활용 등을 통해 안전한 방식의 연계·상호운용을 함께 고민해야 한다"고 덧붙였다. AI 정책, 구조적 한계 여실…공공 클라우드 전환 선행돼야 이처럼 이 부사장이 분석한 이유는 과거 공공 정책 현장에서 직접 경험한 구조적 한계가 지금도 크게 달라지지 않았다고 판단해서다. 그는 디지털정부플랫폼위원회 재직 당시부터 AI 시대를 준비하기 위해 공공 시장의 클라우드 전환이 선행돼야 한다고 꾸준히 주장해왔다. 이 부사장은 "지난 2022년 3월 무렵부터 공공이 AI 시대를 이야기하면서도 정작 기반이 되는 클라우드 전환은 제대로 이뤄지지 않는 점이 가장 큰 한계라고 봤다"며 "AI를 서비스(SaaS) 형태로 도입하려면 클라우드가 전제가 돼야 하는데, 공공 영역의 전환 속도가 이를 따라가지 못했다"고 설명했다. 그는 이에 대한 원인으로 ▲클라우드 전환 지연 ▲예산·제도 구조 ▲관료제의 연속성 부족을 꼽았다. 이 부사장은 "정부 예산 구조상 ISP 등 절차를 거치면 최소 2~3년이 소요되는데, 이 방식으로는 빠르게 변하는 AI 흐름을 따라가기 어렵다"며 "AI처럼 중장기 전략이 필요한 분야에서 담당 보직이 자주 바뀌면 학습 비용이 반복되고 정책 추진의 일관성도 흔들릴 수밖에 없다"고 지적했다. 또 그는 "이 때문에 국가AI전략위원회와 같은 컨트롤타워 조직에는 보다 실질적인 권한과 연속성이 필요하다"며 "전문가 의견을 모으는 데서 그치지 않고, 부처 간 정책을 조정하고 실행으로 연결할 수 있도록 조직에 힘을 실어줘야 한다"고 강조했다.다만 이 부사장은 제도 개선의 필요성을 강조하는 것만으로는 AI 정책의 한계를 넘기 어렵다고 봤다. 정책이 실제 서비스와 산업 현장으로 이어지지 못하는 구조가 반복되고 있다고 판단해서다. 이에 디지털플랫폼정부위원회 AI플랫폼혁신국장을 맡았던 이 부사장은 지난 달 포티투마루로 자리를 옮겼다. 이곳에서 공공 정책 설계 경험을 바탕으로 공공·민간 영역에서 AI가 실제 서비스로 구현되고 확산되는 구조를 만드는 데 직접 기여할 것이란 각오다. 또 공공 AI 활용 사례를 통해 스타트업과 중소기업이 함께 성장할 수 있는 실증 모델을 만드는 데도 집중할 계획이다. 이 부사장은 "4년간 공공 영역에서 AI 정책을 다루며 나름대로 전문성을 쌓았다고 생각했지만, 실제 현장에서는 또 다른 병목이 존재하고 있다고 판단됐다"며 "AI 강국이 되려면 결국 국민이 체감해야 한다"고 지적했다.이어 "공공 영역에서 AI를 통해 일하는 방식 혁신을 통해 생산성을 높이고, 대국민 서비스의 속도와 품질을 개선하며 의료·복지 등 사회 문제 해결로 이어져야 가능한 일"이라며 "포티투마루를 통해 공공 AI가 실제로 작동하는 사례를 만들고, 스타트업과 중소기업이 함께 성장할 수 있는 구조를 현장에서 증명하고 싶다"고 덧붙였다. 그러면서 "국내 소프트웨어 산업은 여전히 공공이 큰 축을 차지하고 있는데, 공공 시장이 SI 중심 구조에 머물러 있다 보니 스타트업이 성장할 수 있는 발판이 제한적"이라며 "영국 등은 정부가 클라우드 기반으로 전환하면서 스타트업들이 공공 시장에 자연스럽게 진입했지만, 한국은 제도와 조달 구조가 이를 가로막고 있다"고 지적했다. 소버린 AI 등급체계 직접 개발…'국산 AI' 논쟁 끝낼까 지난 6일 소버린 AI 기준 논의를 위해 직접 평가 기준과 이를 판별할 도구를 개발해 허깅페이스에 공개한 것도 이 같은 문제에 대한 고민에서 출발했다. 그는 소버린 AI 등급 체계인 'T-클래스 2.0'을 깃허브와 허깅페이스에 공개하며 막연한 '국산 AI' 구호로는 기술 주권을 설명할 수 없다는 점을 분명히 했다. 이 부사장이 제안한 'T-클래스 2.0'은 기존 논의와 달리 '설계(Code)', '지능(Weights)', '기원(Data)' 등 세 가지 실체적 기준을 중심으로 AI 모델을 T0부터 T6까지 7단계로 구분한다. ▲단순 API 호출 및 미세조정 수준(T0~T1) ▲오픈 웨이트를 활용한 과도기 모델(T2~T3) ▲소버린 AI의 기준점이 되는 아키텍처를 참조하되 가중치를 처음부터 자체 학습한 T4 ▲독자 설계 아키텍처와 한국어 토크나이저를 갖춘 T5 ▲국산 반도체·클라우드까지 결합한 T6 등으로 분류됐다. 이 중 T4를 T4-1과 T4-2로 세분화한 것이 기존 버전과의 차별점이다. T4-1은 표준 아키텍처를 그대로 유지한 채 가중치를 처음부터 학습한 모델이다. 데이터 주권은 확보했지만, 구조적 독창성은 제한적인 단계다. 반면 T4-2는 기존 아키텍처를 참고하되 레이어 구성, 파라미터 규모, 연산 구조 등을 최적화·확장한 모델로, 글로벌 표준을 활용하면서도 기술 주권까지 일정 수준 확보한 단계로 분류된다. 이 부사장은 "T4-1이 '데이터 소버린' 단계라면, T4-2는 '기술 소버린'에 한 발 더 다가간 모델"이라며 "현재 국내 독자 AI 파운데이션 모델로 선정된 팀 대부분은 모두 T4-2 영역에 해당하는 질적 변형을 수행했다는 점에서 충분히 평가받아야 한다"고 말했다. 이어 "아키텍처는 이미 범용 기술이 됐지만, 가중치는 국가가 소유해야 할 자산"이라며 "T4는 아키텍처라는 그릇을 빌리더라도 데이터와 연산, 결과 지능을 우리가 통제하는 실질적 소버린 모델"이라고 덧붙였다. 일각에서 독자 아키텍처(T5)까지 가야 진짜 소버린으로 인정할 수 있다는 주장에 대해선 "현실을 외면한 기술적 순혈주의"라고 선을 그었다. 또 수백억원을 들여 아키텍처를 처음부터 다시 만들어도 글로벌 표준 모델 대비 성능 우위를 확보하기는 쉽지 않다는 점도 분명히 했다. 이 부사장은 "대다수 기업에게는 아키텍처 재발명보다 고품질 데이터와 학습 인프라에 집중하는 것이 더 합리적인 전략"이라며 "T4는 산업의 허리를 튼튼하게 만드는 표준 전략이고, T5는 국가 안보와 기술 패권을 겨냥한 리더십 전략으로 두 트랙이 함께 가야 생태계가 건강해진다"고 강조했다. 이 기준을 구현한 '소버린 AI 판별 도구(Sovereign AI T-Class evaluator 2.0)'를 직접 개발해 공개한 이유에 대해서도 그는 투명성을 거듭 강조했다. 이 부사장은 "AI 개발은 참조와 변형의 경계가 매우 모호한 회색지대"라며 "명확한 가이드 없이 결과만 놓고 개발자를 비난하는 것은 부당하다"고 말했다. 그러면서 "기준이 없으니 불필요한 논쟁과 감정 싸움만 커진다"며 "누구나 같은 잣대로 설명할 수 있는 최소한의 공통 기준이 필요하다고 판단했다"고 덧붙였다. 실제로 해당 기준 공개 이후 업계에서는 "왜 이제야 이런 기준이 나왔느냐", "사실상 표준으로 삼을 만하다"는 반응이 이어지고 있다. 또 정부에서 이 부사장이 만든 'T-클래스 2.0'을 바탕으로 독자 AI 파운데이션 모델의 평가 기준이 구체적으로 만들어져 심사 투명성을 높여야 한다는 지적도 나왔다. 이 같은 분위기 속에 이 부사장은 독자 AI 논의가 현재 단계에만 머물러서도 안 된다고 지적했다. 또 현재의 혼란이 단기적인 사업 논쟁이 아니라 AI를 국가 전략 차원에서 어떻게 바라볼 것인가에 대한 더 큰 질문으로 이어지고 있다고 봤다. 그는 "독파모가 보여주기식 경쟁이나 단기 성과에 머물면, 월드모델·디지털 트윈·피지컬 AI로 이어지는 다음 스테이지를 놓칠 수 있다"며 "국가 R&D는 지금보다 한 단계 앞을 내다보는 구조여야 한다"고 강조했다. AGI 시대, 5년 내 현실화…AI 국가 전략, 체계적 마련 필요 이 부사장은 AI 경쟁의 종착점을 단기적인 모델 성능 비교에 두는 것 자체가 위험하다고도 경고했다. 그는 AGI(범용인공지능)가 5년 안에 현실화될 가능성이 높다고 전망하며 그 이후를 대비하지 않는 전략은 국가 차원에서도 지속 가능하지 않다고 지적했다. 그는 "AGI는 단순히 모델이 더 똑똑해지는 문제가 아니라 기억 구조와 추론 방식이 인간의 뇌를 닮아가는 단계"라며 "지금 구글이 시도하고 있는 중첩학습처럼 단기·중기·장기 기억을 분리·결합하는 구조는 거대언어모델(LLM) 이후를 준비하는 명확한 신호"라고 말했다. 그러면서 "글로벌 빅테크들은 이미 다음 스테이지를 보고 있다"며 "하지만 우리는 아직 현재 모델이 프롬 스크래치냐 아니냐에만 머물러 있는 건 아닌지 돌아봐야 한다"고 덧붙였다. 이 부사장은 AGI와 ASI(초지능)를 막연한 공포의 대상으로 보는 시각에도 선을 그었다. 그는 "인류는 오래전부터 인간을 능가하는 지능이 등장해 우리가 해결하지 못한 문제를 풀어주길 기대해왔다"며 "중요한 것은 AGI·ASI 자체가 아니라 그것을 어떤 문제 해결을 위해 어떻게 통제하고 활용할 것인가에 대한 고민"이라고 봤다. 이어 "AI를 두려워하기보다 인류 난제 해결이라는 방향성 속에서 통제권을 쥐는 것이 국가 전략의 핵심"이라고 강조했다. 이 부사장은 이 같은 고민을 담아 다음 달께 'AI 네이티브 국가'를 출간할 계획이다. 이 책에는 모델 개발을 넘어 지정학, 경제, 복지, 산업 구조 전반에서 AI가 국가 경쟁력을 어떻게 재편하는지에 대한 고민을 고스란히 담았다. 또 메모리 반도체, 제조 데이터, 클라우드 인프라를 동시에 보유한 한국의 구조적 강점을 짚으며 AI 시대에 한국이 '풀스택 국가'로 도약할 수 있는 전략도 함께 제시할 계획이다. 그는 "국내 AI 논의가 기술 우열이나 모델 성능에만 매몰돼 있는 흐름을 벗어나고 싶었다"며 "같은 기술이라도 국가가 어떤 전략을 취하느냐에 따라 결과는 전혀 달라질 수 있다는 점을 책을 통해 정리하고 싶었다"고 설명했다.마지막으로 그는 "AI를 둘러싼 지금의 혼란은 누군가가 틀렸기 때문이 아니라 기준과 구조가 없었기 때문"이라며 "논쟁을 줄이고 경쟁을 건강하게 만들 수 있는 최소한의 합의점을 만드는 데 앞으로도 계속 목소리를 낼 것"이라고 피력했다.

2026.01.08 10:10장유미 기자

[유미's 픽] 고석현發 中 모델 의혹에 정부도 '움찔'…국가대표 AI 개발 경로까지 본다

정부가 독자 인공지능(AI) 파운데이션 모델 프로젝트 정예 5개 팀을 대상으로 최종 모델뿐 아니라 복수의 중간 학습 기록까지 제출받아 검증하기로 하면서 국가 AI 사업의 평가 기준이 성능 경쟁에서 개발 경로 검증 중심으로 전환되고 있다. 업스테이지의 '솔라 오픈 100B'를 둘러싼 모델 유사성 논란을 계기로, 정부가 '프롬 스크래치(from scratch)' 여부를 기술적으로 입증하는 체계를 본격화했다는 해석이 나온다. 4일 과학기술정보통신부에 따르면 정부는 다음 주부터 평가를 진행해 오는 15일께 독자 AI 파운데이션 모델 프로젝트 정예 5개 팀 중 한 팀을 탈락시킨다. 이번 평가에서는 모든 팀으로부터 최종 모델 파일과 함께 복수의 중간 체크포인트(checkpoint)를 제출받아 전문기관인 한국정보통신기술협회(TTA)를 통해 면밀한 기술 검증을 실시할 예정이다. 중간 체크포인트는 AI 모델이 학습 과정에서 일정 단계마다 저장한 가중치 상태로 ▲모델이 랜덤 초기화에서 출발했는지 ▲학습이 연속적인 경로를 거쳤는지 ▲외부 모델 가중치가 중간에 유입됐는지 여부를 사후적으로 확인할 수 있는 핵심 자료다. 단일 최종 결과물만으로는 확인하기 어려웠던 개발 이력을 추적할 수 있다는 점에서 업계에선 이번 방침을 프롬 스크래치 주장에 대한 증빙 책임을 제도화한 조치로 보고 있다.배경훈 과학기술정보통신부 부총리 겸 장관은 "평가 과정에서 모든 정예팀으로부터 개발 모델의 최종 파일과 복수의 중간 체크포인트 파일 등을 제출받아 검증할 예정"이라며 "전문가 평가위원회를 통해서도 같은 자료를 바탕으로 계획에 부합한 AI 모델이 개발됐는지 여부를 검증해 확인할 것"이라고 설명했다. 정부가 이처럼 나선 것은 고석현 사이오닉에이아이 대표가 지난 1일 업스테이지의 독자 AI 프로젝트 모델 '솔라 오픈 100B'가 중국 AI를 도용·파생했다는 의혹을 제기한 것이 계기가 됐다. 고 대표는 '솔라 오픈 100B'의 기술 분석 자료를 공개하고 중국 지푸AI의 'GLM-4.5-에어' 모델에 기반을 둔 파생 모델이라고 의혹을 제기했다. 또 정부가 독자 AI 프로젝트의 참여 조건으로 제시한 프롬 스크래치(처음부터 만드는 것) 방식으로 학습된 모델이라면 나타나기 어려운 유사도라고 강조했다.이에 업스테이지는 곧바로 다음날 서울 강남역 인근에서 기술 공개 검증 행사를 열어 단순 레이어 유사성만으로 모델 파생 여부를 단정하는 것은 무리가 있다고 반박했다. 김성훈 업스테이지 대표는 "학습된 다른 모델의 가중치를 그대로 가져왔다면 프롬 스크래치가 아니지만, 모델 아이디어나 인퍼런스 코드 스타일을 참조하는 건 허용된다"며 "오픈소스 생태계에서 모델이 상호 호환되려면 구조가 비슷해야 한다"고 주장했다. 이후 문제를 제기한 고 대표는 또 다른 게시물을 통해 "상이한 모델도 레이어 값에선 높은 유사도를 보일 수 있다고 본다"면서도 "중국 모델 코드와 구조를 잘 학습하는 게 국가적인 AI 사업의 방향으로 타당한지는 의문"이라고 재차 문제를 제기했다. 이를 두고 업계에선 고 대표가 제시한 분석이 기술적으로 성립하기 어렵다는 점을 지적하며 전반적으로 업스테이지의 손을 들어줬다. 고 대표 역시 이날 또 다시 입장문을 통해 자신의 분석 방법에 한계가 있었음을 인정하며 "해당 근거를 보다 엄밀하게 검증하지 않은 채 공개함으로써 불필요한 혼란과 논란을 야기했다"고 사과했다. 그러나 고 대표는 이번 사안을 단순한 기술적 도용 논쟁이 아니라 '소버린 AI'와 '독자 파운데이션 모델'의 기준을 어떻게 정의할 것인가에 대한 구조적 질문으로 봐야 한다는 입장은 여전히 유지했다. 해외 모델의 코드나 구조를 참고·학습하는 방식이 국가 주도 독자 AI 사업의 취지에 부합하는지, 독자성을 판단하는 기준이 기술·학술적으로 얼마나 명확히 정리돼 있는지에 대한 논의가 필요하다고도 주장했다. 일각에선 고 대표의 초기 문제 제기 방식에 대해선 비판적인 태도를 보였으나, 이번 논쟁을 통해 독자 AI 모델의 개발 경로, 외부 레퍼런스 활용 범위, 학습 과정 공개 수준 등에 대한 사회적 합의 필요성이 수면 위로 떠올랐다는 점에 대해선 긍정적으로 봤다. 업계 관계자는 "이번 논란은 누가 옳고 그르냐를 가르는 사건이라기보다 한국형 파운데이션 모델을 어떤 기준으로 검증하고 설명해야 하는지를 집단적으로 학습한 과정에 가깝다"며 "검증 로그 공개, 체크포인트 관리, 참고 문헌 표기 같은 관행이 정착되는 계기가 될 수 있다"고 말했다. 또 다른 관계자는 "(고 대표가) 의혹을 제기하는 과정에서는 분명히 성급했던 부분이 있었지만, 사과와 인정이 공개적으로 이뤄졌다는 점 자체가 국내 AI 생태계의 성숙도를 보여주는 장면"이라며 "장기적으로는 정부 프로젝트 전반의 신뢰성을 높이는 방향으로 이어질 가능성이 크다"고 평가했다.정부 역시 이번 사안을 계기로 독자 AI 파운데이션 모델 프로젝트의 평가 기준을 보다 구체화해야 한다는 과제를 안게 됐다. 성능 중심 평가를 넘어 학습 경로의 투명성, 외부 기술 활용에 대한 명확한 가이드라인, 검증 가능한 공개 방식 등이 제도적으로 보완될 필요가 있다는 지적이다.이번 일에 대해 배 부총리는 긍정적으로 평가하며 독자 AI 파운데이션 모델의 검증 체계를 보완해야 할 필요성을 언급했다. 또 이번 사안을 계기로 정부가 정의한 '독자 AI 파운데이션 모델'을 어떻게 기술적으로 검증할 것인가에 대해서도 고민하는 모습을 보였다. 그는 지난 3일 자신의 소셜 미디어(SNS)를 통해 "데이터 기반의 분석과 이에 대해 공개 검증으로 답하는 기업의 모습은 우리 AI 생태계가 이미 글로벌 수준의 자정 작용과 기술적 투명성을 갖추고 있음을 보여준다"며 "성장통 없는 혁신은 없다"고 밝혔다. 이어 "의혹 제기는 할 수 있는 것"이라며 "이를 공개 검증으로 증명한 기업과 인정하고 사과한 문제 제기자 모두에게 감사하다"고 덧붙였다.국가AI전략위원회 관계자들도 이번 일에 대해 긍정적으로 평가했다. 박태웅 국가AI전략위원회 공공 AX 분과장은 "순식간에 다양한 검증과 토론이 이뤄지는 과정을 통해 한국 AI 생태계의 저력을 확인했다"고 말했다. 임문영 국가AI전략위원회 부위원장 역시 "검증 논란을 통해 방법의 한계와 개선점이 드러났고, 이는 AI 생태계가 건강하게 작동하고 있음을 보여준다"고 밝혔다.조준희 국가AI전략위원회 산업 AX·생태계 분과장도 최근 독자 파운데이션 모델의 유사성 논란이 건강한 기술 토론으로 이어진 점을 매우 고무적이라고 평가했다. 그러면서도 이제는 기술의 원천에 대한 논쟁을 넘어 '우리 모델이 글로벌 빅테크 대비 어떠한 차별적 경쟁력을 갖출 것인가'라는 소비자 관점의 본질에 집중해야 한다는 점도 강조했다. 그는 "'독자 기술'이라는 명분에만 함몰되면 정작 사용성이 뒤처져 시장에서 외면 받는 결과를 초래할 수 있다"며 "모델의 성패가 사용자의 선택에 달려 있다"고 밝혔다. 이어 "국내 모델이 지속 가능한 선순환 구조를 만들려면 적시성 있는 답변과 높은 활용도 등 철저히 고객 친화적 개발 방향을 견지해야 할 것"이라며 "5개 컨소시엄들이 이 기술을 어떻게 '잘 팔리는 서비스'와 '매력적인 상품'으로 연결할지 치열하게 고민해야 할 시점"이라고 덧붙였다. 다만 일각에선 정부가 '프롬 스크래치'를 어디까지 허용할 것인지에 대한 세부 기술 기준을 공식 문서로 명시하진 않았다는 점에서 여전히 우려를 나타냈다. 오픈소스 아키텍처 활용 범위, 구조적 유사성의 허용선, 토크나이저 재사용 여부 등은 여전히 정책적 해석의 영역으로 남아 있어서다. 업계에선 이번 정부 방침을 독자 AI 평가가 '결과물 중심'에서 '개발 경로와 증빙 책임 중심'으로 이동하고 있음을 보여주는 신호로 받아들이는 분위기다. 성능 지표만으로는 설명할 수 없는 '독자성'을 앞으로 학습 이력과 로그로 입증해야 하는 단계에 들어섰다는 점에서 고무적으로 평가했다. 업계 관계자는 "이번 논란은 누가 맞고 틀렸는지를 가리는 사건이라기보다 한국 AI 생태계가 공개 검증과 공개 토론을 감당할 수 있는 단계에 들어섰음을 보여준 사례"라며 "이 경험이 제도와 기준으로 남는다면 독자 AI를 둘러싼 논쟁은 반복되지 않을 것"이라고 말했다. 배 부총리는 "지금의 논쟁은 대한민국 AI가 더 높이 도약하기 위해 반드시 거쳐야 할 과정"이라며 "정부는 공정한 심판이자 든든한 페이스메이커로서 우리 AI 생태계가 성숙하게 발전할 수 있도록 역할을 다하겠다"고 밝혔다.

2026.01.04 06:00장유미 기자

[유미's 픽] 뿔난 업스테이지, '솔라 오픈 100B' 中 모델 파생 의혹에 공개 검증 '맞불'

정부에서 추진 중인 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참가한 업스테이지가 첫 성과를 공개한 후 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델을 제출했다는 의혹에 휩싸였다. 업스테이지는 억울함을 표하며 모델 공개 검증 행사와 함께 향후 의혹 제기에 대해 강경 대응에 나설 것을 시사했다. 1일 업계에 따르면 고석현 사이오닉에이아이 대표는 이날 자신의 소셜 미디어(SNS)에 깃허브 리포트를 게재하며 업스테이지 '솔라 오픈 100B'가 중국 지푸(Zhipu) AI의 'GLM-4.5-에어'에서 파생된 모델이라고 주장했다. 고 대표는 "국민 세금이 투입된 프로젝트에서 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델이 제출됐다"며 "상당히 큰 유감"이라고 말했다. 이번 논란은 이날 오후 1시께 올라온 깃허브 리포트가 발단이 됐다. 이 리포트는 '솔라 오픈 100B'와 'GLM-4.5-에어'의 가중치 구조를 통계적으로 비교 분석한 결과를 담고 있다. 앞서 업스테이지는 지난 달 30일 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 '프롬 스크래치(From Scratch)'를 기반으로 개발했다고 소개했다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 하지만 리포트 작성자는 '솔라 오픈 100B'와 'GLM-4.5-에어' 두 모델의 레이어별 파라미터 유사도를 측정한 결과 일부 계층에서 매우 높은 수준의 유사성이 관측됐다고 설명했다. 또 동일 모델 내부 레이어 비교보다 솔라와 GLM 간 동일 레이어 비교에서 더 높은 유사도가 나타났다고 주장하며, 이를 근거로 솔라 오픈 100B가 GLM-4.5-에어에서 파생됐다고 결론 내렸다. 다만 일각에서는 해당 분석이 두 모델의 학습 과정이나 개발 경로를 직접 확인한 것이 아니라는 점에서 해석에 신중할 필요가 있다는 지적이 나온다. 공개된 모델 가중치를 기반으로 한 사후적 통계 비교 방식으로 진행된 데다 실제 학습에 사용된 데이터셋, 학습 로그, 내부 코드베이스 등은 검증 대상에 포함되지 않았기 때문이다. 특정 가중치가 그대로 복사됐거나 모델 바이너리 차원에서 직접적인 공유가 있었다는 증거 역시 이번에 제시되지 않았다. 이 같은 의혹 제기에 대해 업스테이지는 즉각 반박에 나섰다. 고 대표가 게시물을 올린 지 2시간 후 김성훈 업스테이지 대표는 자신의 페이스북을 통해 "솔라 오픈 100B가 중국 모델을 복사해 미세 조정한 결과물이라는 주장은 사실과 다르다"며 "해당 모델은 명백히 프롬 스크래치 방식으로 학습됐다"고 강조했다. 그러면서 김 대표는 오는 2일 오후 3시 서울 강남역 부근에서 솔라 오픈 100B의 개발 과정을 공개적으로 검증받겠다고 밝혔다. 이 자리에는 의혹을 제기한 고석현 대표를 포함해 추가 검증에 참여하고 싶은 업계 및 정부 관계자들을 초청할 계획이다. 또 업스테이지 측은 이후에도 이 같은 의혹이 제기될 경우 더 강경하게 대응할지에 대해서도 내부 검토에 착수했다. 김 대표는 "학습에 사용한 중간 체크포인트(checkpoint)와 AI 모델 학습 과정과 실험 결과를 기록·관리하는 도구인 '웨이츠 앤 바이어시스(Weights & Biases·wandb)'를 모두 공개할 예정"이라며 "명확한 검증 절차를 공개해 사실 관계를 바로잡도록 할 것"이라고 말했다. 업계에서는 이번 공개 검증이 논란의 분수령이 될 수 있다는 평가를 내놨다. 실제 학습 체크포인트와 로그가 공개될 경우 '솔라 오픈 100B'가 특정 시점에서 외부 모델을 기반으로 파인튜닝됐는지, 독립적인 학습 경로를 거쳤는지를 보다 명확히 확인할 수 있기 때문이다. 동시에 통계적 유사성만으로 모델 복제 여부를 단정하기는 어렵다는 신중론도 제기된다. 대규모 언어모델 개발 과정에서는 유사한 아키텍처와 데이터, 학습 레시피를 사용할 경우 높은 유사도가 나타날 수 있어서다. 또 지식 증류(distillation)나 합성 데이터 활용 여부에 따라 통계적 패턴이 겹칠 가능성도 존재한다는 지적도 나온다. 업계 관계자는 "이번 논란이 주목받는 이유는 해당 모델이 정부 예산이 투입되는 '독자 AI 파운데이션 모델 프로젝트'의 결과물이기 때문"이라며 "사업 취지상 해외 모델에 대한 기술적 의존 여부와 개발 과정의 투명성은 핵심적인 검증 대상이 될 수밖에 없다"고 설명했다. 그러면서 "결국 이번 사안의 핵심은 통계 분석을 둘러싼 해석 논쟁을 넘어 실제 개발 과정에 대한 객관적 검증으로 옮겨가고 있다"며 "업스테이지가 예고한 공개 검증을 통해 솔라 오픈 100B의 학습 경로와 독립성이 어느 수준까지 입증될지에 많은 관심이 쏠리고 있다"고 덧붙였다.또 다른 관계자는 "이번 논란이 특정 기업의 문제를 넘어 독자 AI 파운데이션 모델 사업 전반의 검증 기준을 끌어올리는 계기가 될 수 있다"며 "다른 참여 기업들 역시 향후 모델 공개 과정에서 학습 출처와 개발 경로에 대한 설명 책임이 더 커질 가능성이 있다"고 말했다.

2026.01.01 18:09장유미 기자

[유미's 픽] "주사위는 던져졌다"…국대 AI 첫 탈락자, 1차 발표회서 판가름?

우리나라를 대표할 인공지능(AI) 모델을 선발하는 정부 사업 '독자 AI 파운데이션 모델 프로젝트'의 첫 결과물이 공개된 가운데 어떤 기업이 이번 심사에서 살아남을지 관심이 집중된다. 각 사업자들이 내세운 모델의 성과가 달라 정부가 심사기준을 어떻게 세웠을지도 관심사다. 31일 업계에 따르면 네이버, LG AI연구원, SK텔레콤은 AI 임원, NC AI와 업스테이지는 대표가 지난 30일 오후 2시부터 서울 강남구 코엑스에서 개최된 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참여했다. 발표는 네이버를 시작으로 NC AI, 업스테이지, SK텔레콤, LG AI연구원 순서로 진행됐다. 독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업이다. 과학기술정보통신부는 이번 발표를 기반으로 심사를 통해 내년 1월 15일 1개 팀을 탈락시키고, 이후에도 6개월마다 평가를 거쳐 2027년에 최종 2개 팀을 선정한다. 모델 성과 제각각…정부 심사 기준이 관건 이번 심사에선 각 팀이 주어진 공통 과제를 얼마나 잘 수행했는지, 각자 제시한 목표대로 성과를 냈는지가 관건이다. 모든 팀은 최근 6개월 내 공개된 글로벌 최고 모델 대비 95% 이상의 성능을 달성해야 하는 과제가 주어진 상태다.지난 8월 정예팀으로 선정된 지 4개월만에 첫 성과를 공개해야 하는 만큼, 개발 시간이 부족한 상황에서 각자 기술력을 얼마나 끌어올렸을지도 관심사다. 각 팀의 GPU 지원 여부, 지원 받은 시기 등이 각각 달랐다는 점에서 정부가 이를 심사 시 고려할 지도 주목된다. 이번 프로젝트를 위해 SK텔레콤과 네이버클라우드는 정부에게 GPU를 임대해주고 있다. 이 탓에 두 업체는 올해 '독자 AI 파운데이션 모델 프로젝트' 진행 시 정부로부터 GPU를 지원 받지 못했다. SK텔레콤은 엔비디아의 B200 칩 1천24장을 업스테이지와 LG AI연구원에, 네이버클라우드는 H200 칩 1천24장을 NC AI에 지원하고 있다. 이 탓에 GPU가 각 업체에 지원된 시기는 다 달랐다. 업계에선 정부가 어떤 기준을 세울지에 따라 각 팀의 승패가 갈릴 것으로 봤다. 정부는 그간 5개팀과 여러 차례 만나 평가 기준에 대해 논의 후 이달 중순께 합의를 보고 공지했으나, 어떤 팀이 탈락할 지에 따라 여전히 논란의 불씨가 많은 것으로 알려졌다. 업계 관계자는 "당초 5개 팀이 선정될 당시 정부에 제시했던 목표치를 달성했는지가 가장 중요할 것"이라며 "각 팀이 목표로 하고 있는 모델의 크기, 성능, 활용성이 제각각인 만큼 목표 달성률을 가장 중요한 기준치로 삼아야 할 것"이라고 강조했다. 이어 "벤치마크를 활용한다는 얘기가 있지만 모델 크기가 클수록 다운로드 수 측면에서 불리할 수 있어 이를 객관적 기준으로 삼기에는 다소 무리가 있을 수 있다"며 "5개 팀과 정부가 어떤 기준에 대해 합의를 했는지, 어떤 전문가를 앞세워 심사에 나설지도 주목해야 할 부분"이라고 덧붙였다. 5개 팀 첫 성과 공개…프롬 스크래치·모델 크기·활용성 주목 이번 1차 결과 공개에서 가장 주목 받는 곳은 업스테이지다. 대기업 경쟁자들 사이에서 짧은 시간 내 '프롬 스크래치(From Scratch)'를 기반으로 가성비 최고 수준인 모델을 완성도 높게 공개했다는 점에서 많은 이들의 호응을 얻었다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 업스테이지는 이날 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 자신감을 표출했다. 특히 발표에 직접 나선 김성훈 대표가 '솔라 오픈 100B'를 개발하게 된 과정을 스토리텔링 형식으로 발표해 호응을 얻기도 했다. 김 대표는 향후 200B, 300B 모델과 함께 멀티모달 모델도 선보일 예정이다.업계 관계자는 "김 대표가 발표 때 딥 리서치나 슬라이드 제작 등 코딩 외에 실제로 현장에서 많이 써봤을 것 같은 서비스를 직접 라이브 데모로 보여준 부분이 인상적이었다"며 "504장의 B200 GPU로 두 달 남짓 훈련한 것을 고려하면 모델 크기나 사용된 토큰수(추정)를 정말 빡빡하게 잘 쓴 게 아닌가 싶다"고 평가했다. 이승현 포티투마루 부사장은 "(업스테이지 발표 때) 솔라 프로가 'GPT-4o-미니'나 '파이-3 미디엄'보다 벤치마크가 높아 동급 사이즈에선 가장 우수하다고 했는데, 실제 가성비가 최고 수준인 것으로 보인다"며 "당장 기업들이 가져다 쓰기에도 좋을 것 같다"고 말했다. 이어 "그동안 업스테이지의 상징과도 같았던 DUS(구조 일부를 변경해 자체화한 AI 모델 개발 방식)를 넘어 프롬 스크래치로 모델을 개발했다는 점이 인상적"이라며 "기술 리포트가 없는 게 아쉽지만, 모델 카드에 프롬 스크래치를 기재한 것과 함께 API도 공개해 자신감을 드러낸 것이 국가대표로 내세우기 적합해 보였다"고 덧붙였다. 배경훈 과학기술정보통신부 부총리 겸 장관을 배출한 LG AI연구원도 이번 발표가 끝난 후 개발 중인 모델이 국가대표로 인정받기에 손색이 없다는 평가를 받았다. 이곳은 '엑사원 4.0' 아키텍처를 기반으로 파라미터 크기를 약 7배 키워 초기화한 상태에서 새로 학습시킨 'K-엑사원'을 이번에 공개했다. 'K-엑사원'은 매개변수 236B 규모의 프런티어급 모델이다. LG AI연구원에 따르면 'K-엑사원'은 개발 착수 5개월 만에 알리바바의 '큐웬3 235B'를 뛰어 넘고 오픈AI의 최신 오픈 웨이트 모델을 앞서 글로벌 빅테크 최신 모델과 경쟁할 수 있는 가능성을 입증했다. 글로벌 13개 공통 벤치마크 평균 성능 대비 104%를 확보했다는 점도 눈에 띄는 요소다. LG AI연구원은 "기존 엑사원 4.0 대비 효율성을 높이면서도 메모리 요구량과 연산량을 줄여 성능과 경제성을 동시에 확보했다"며 "특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 GPU 환경에서 구동할 수 있도록 했다"고 설명했다. 이곳은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다. 또 글로벌 프론티어 AI 모델을 뛰어넘는 경쟁력을 확보해 한국을 AI 3강으로 이끌 것이란 포부도 드러냈다. 이번 발표를 두고 업계에선 LG AI연구원이 5개 팀 중 기술적인 내용이 가장 많이 들어있어 신뢰도가 높았다고 평가했다. 또 추론 강화를 위해 아키텍처를 변형하고 커리큘럼 러닝을 적용했다는 점에서 모델이 '프롬 스크래치'임을 명백히 보여줬다고 평가했다. 다만 동일 아키텍처인 32B 모델의 리포트와 가중치만 공개돼 있고, 이번 모델인 236B는 공개하지 않았다는 점은 아쉬운 대목으로 지적됐다. 업계 관계자는 "'K-엑사원'은 구조, 가중치가 완전 국산이란 점에서 통제권과 설명 가능성이 충분히 확보돼 있다고 보인다"며 "국방, 외교, 행정망 등 국가 핵심 인프라에 충분히 쓰일 수 있을 듯 하다"고 말했다. 그러면서도 "이번 발표에서 자체 MoE나 하이브리드 어텐션(hybrid attention, 효율·성능을 위해 다양한 어텐션 방식을 상황별로 혼합한 구조), 아가포(AGAPO, 어텐션·파라미터 사용을 입력에 따라 동적으로 조절하는 내부 최적화 기법) 같은 기술들에서 인상 깊은 것이 없다는 것은 아쉽다"며 "다음에는 실질적 효과에 대한 정량적 수치가 잘 기술되면 좋을 듯 하다"고 덧붙였다.이에 대해 LG AI연구원 관계자는 "모델 제출 마감이 이번 주까지여서 제출 시점에 236B 모델을 공개할 것"이라며 "이 때 테크 리포트로 세부 사항도 담을 예정"이라고 설명했다. SK텔레콤도 이번 발표에서 많은 이들의 주목을 받았다. 짧은 시간 안에 국내 최초로 매개변수 5천억 개(500B) 규모를 자랑하는 초거대 AI 모델 'A.X K1'을 공개했기 때문이다. 특히 모델 크기가 경쟁사보다 상당히 크다는 점에서 AI 에이전트 구동 등에서 유리한 고지에 있다는 일부 평가도 나오고 있다. SK텔레콤은 모델 크기가 성능과 비례하는 AI 분야에서 한국이 AI 3강에 진출하려면 500B 규모의 AI 모델이 필수적이란 점을 강조하며 톱2까지 오를 것이란 야심을 드러내고 있다. 또 SK텔레콤은 모두의 AI를 목표로 기업과 소비자간 거래(B2C)와 기업간거래(B2B)를 아우르는 AI 확산 역량도 강조했다. 여기에 SK하이닉스, SK이노베이션, SK AX 등 관계사와 협업으로 한국의 AI 전환에 이바지하겠다는 포부도 밝혔다. 다만 일각에선 프롬 스크래치로 모델을 개발했는지에 대한 의구심을 드러내고 있어 심사 시 이를 제대로 입증해야 할 것으로 보인다. SK텔레콤은 MoE 구조라고 강조했으나, 각 전문가 모델들이 자체 개발인지, 오픈소스 튜닝인지 밝히지 않아 궁금증을 더했다. 또 모델카드는 공개했으나, 테크니컬 리포트를 공개하지 않았다는 점도 의구심을 더했다. 이승현 포티투마루 부사장은 "MoE 구조를 독자 개발했다면 보통 자랑스럽게 논문을 내는 것이 일반적"이라며 "SKT가 'A.X 3.1(34B)'라는 준수한 프롬 스크래치 모델이 있으나, 이를 15개 정도 복제해 MoE 기술로 묶은 것을 이번에 'A.X K1'으로 내놓은 것이라면 혁신은 아니라고 보여진다"고 평가했다. 이어 "정량적 벤치마크보다 서비스 적용 사례 위주로 발표가 돼 기술적 성취보다 '서비스 운영 효율'에 방점이 찍힌 듯 했다"며 "SKT가 'A.X 3.1' 모델 카드에 프롬 스크래치를 분명히 명시했지만, 이번에는 명시하지 않아 소버린 모델로 활용할 수 있을지에 대해선 아직 판단이 이르다"고 덧붙였다. 이에 대해 SKT는 다소 억울해하는 눈치다. 프롬 스크래치로 개발을 한 사실이 명백한 만큼, 조만간 발표될 테크니컬 리포트를 통해 일각의 우려를 해소시킬 것이란 입장이다. SKT 관계자는 "모델 카드에 밝혔듯 A.X K1은 192개의 소형 전문가(expert)를 가지는 MoE 구조로, A.X 3.1 모델을 단순히 이어 붙여서 만들 수 없는 복잡한 구조인 만큼 처음부터 프롬 스크래치로 학습됐다"며 "관련 세부 내용은 이달 5일 전후 테크니컬 리포트를 통해서 공개할 예정"이라고 밝혔다. 업계 관계자는 "SKT가 500B 모델을 만든다는 것을 사전에 알고 우려가 많았지만, 다른 팀에 비해 성공적으로 압도적으로 큰 모델을 공개했다는 것 자체는 굉장히 인상적"이라며 "내년 상반기까지 정부에서 지원하는 GPU를 쓰지 않기 때문에 SKT가 얼마나 많은 GPU를 투입했는지 알 수는 없지만, 500B를 충분히 학습하기에는 (성능을 끌어 올리기에) 시간이 부족했을 것 같다"고 말했다. 그러면서도 "2T까지 만들겠다는 포부는 높이 평가한다"며 "성공적인 2T 모델이 나오기를 기대한다"고 부연했다. 네이버클라우드는 국내 최초 네이티브 옴니모달 구조를 적용한 파운데이션 모델 '하이퍼클로바 X 시드 8B 옴니'를 오픈소스로 공개하며 자신감을 드러냈다.이곳은 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니 모델'을 제시했다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아닌, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 또 네이버클라우드는 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 고성능 추론모델 '하이퍼클로바 X 시드 32B 씽크'도 오픈소스로 공개했다. 이 모델은 올해 대학수학능력시험(수능) 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 업계에선 네이버클라우드의 발표를 두고 실제 '애니-투-애니(Any-to-Any) 모델'을 작은 사이즈로 공개한 부분에 대해 인상적이라고 평가했다. '애니-투-애니 모델'은 입력과 출력의 모달리티(형식)를 가리지 않고 어떤 조합이든 처리할 수 있는 멀티·옴니모달 모델이다. 또 유일하게 '덴스(Dense) 모델'을 썼다는 점도 주목을 받았다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다. 이로 인해 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수는 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 의견도 있다. 당초 1차 심사 때 14B를 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 점도 아쉬운 점으로 지목됐다. 업계 관계자는 "네이버가 태생부터 멀티모달인 '네이티브 옴니' 아키텍처를 설계했다는 점에서 방향성이 완벽하고 독자모델로도 입증을 했지만, 경량 모델을 공개했다는 점이 아쉽다"며 "거대 모델로 스케일업 했을 때의 추론 능력과 비용 효율성이 아직 검증되지 않았다는 것이 우려된다"고 짚었다. 이어 "옴니모달은 구글, 오픈AI도 지향하는 최신 아키텍처"라며 "네이버가 이를 '패치워크(여러 모델 붙이기)'가 아닌 '네이티브'로 구현했다고 강조했다는 점에서 소버린 모델로는 충분한 가치가 있다"고 덧붙였다. NC AI는 이연수 대표가 직접 발표에 나서 산업 특화 AI를 위한 파운데이션 모델 '베키(VAETKI)'를 소개했다. 또 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고 100B급 LLM 개발도 마쳤다고 공개했다. NC AI에 따르면 현재 베키는 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용돼 실질적인 성과를 창출하고 있다. NC AI는 AI 모델 바로크에 3차원(3D) 생성 기술이 결합된 바로크 3D를 활용해 전 산업군에 최적화된 버티컬 AI 설루션을 제공한다는 계획이다. 이 대표는 "우리는 1차로 100B(1천억 개)급 파운데이션 모델의 틀을 마련했다"며 "2차에서 200B, 3차에서 300B급으로 글로벌 모델급 성능을 달성하려고 한다"고 강조했다. 업계에선 NC AI의 이번 발표를 두고 경쟁력 있는 모델을 다수 보유하고 있는 것에 비해 전달력이 미흡했다고 평가했다. 100B 모델과 함께 서비스에 특화된 7B, 20B, VLM 7B까지 다양한 모델을 준비했으나, 발표 구성이 미흡해 강점이 충분히 전달되지 못했다는 의견도 나왔다. 업계 관계자는 "NC AI의 텍스트로 3D 에셋을 만드는 성능은 확실한 산업적 가치를 보여주지만, 그 이상의 것은 없어 아쉽다"며 "100B 모델을 기반으로 게임에 특화된 AI 활용을 좀 더 많이 보여줬다면 훨씬 좋았을 것 같다"고 말했다. 성과 확인 '끝'…1차 발표회 호평 속 투명한 검증 '과제' 업계에선 이번 1차 발표회의 전반적인 진행에 대해 긍정적인 평가와 함께 정부가 앞으로 조금 더 구체적인 국가대표 AI 육성 평가를 내놓을 필요가 있다고 지적했다. 이번 발표회에서 소버린 AI를 강조하는 곳은 많지만, 그 실체를 증명하는 기준이 조금 느슨해보였다는 평가도 나왔다. 업계 관계자는 "이번 발표회에서 각 팀들이 얼마나, 어떻게 혁신적인 모델을 개발해 공개했는지에 대한 구체적인 설명이 없어 아쉬움이 컸다"며 "단순한 제품 홍보 발표회 느낌을 많이 받았지만, 단기간에 모든 팀이 굉장한 일을 정부 지원을 토대로 해냈다는 것에 대해선 기대감을 가지게 했다"고 밝혔다. 이어 "최소 100B급 이상의 모델을 학습시킬만한 인프라 운용과 더불어 학습 노하우를 갖추고 있어 보여 좋았다"며 "단기간 내 실험 시간의 물리적 제한이 있었음에도 기본적으로 초거대 AI 모델을 학습시킬 기본 역량은 대부분 갖췄다고 보여져 놀라웠다"고 덧붙였다. 그러면서도 "2차 발표에선 오거나이징 하는 측에서 명확한 발표 가이드를 제시해주면 더 좋을 것 같다"며 "김성훈 업스테이지 대표의 말처럼 국민 세금이 많이 투입되고 있기 때문에 짧지만 굉장히 효과적인 발표회가 앞으로도 진행될 수 있길 바란다"고 언급했다. 또 다른 관계자는 "독자 AI 파운데이션 모델의 핵심은 어떤 데이터로, 어떤 아키텍처를 써서 어떤 방식으로 학습했는지가 투명해야 한다"며 "그 결과물은 글로벌 시장에서 통할 수 있는 객관적 수치로 증명돼야 하고, 각 팀들은 기술 리포트와 모델 카드를 의무적으로 공개해야 제대로 프롬 스크래치로 개발했는지 검증할 수 있다"고 강조했다. 그러면서 "프롬 스크래치가 만능은 아니지만 투명성은 필수"라며 "무늬만 국가대표가 아닌 실력 있는 국가대표를 가려내기 위해선 마케팅의 거품을 걷어내고 기술의 족보를 따지는 엄격한 검증 시스템이 필요하다고 본다"고 덧붙였다.

2025.12.31 17:59장유미 기자

'국가대표 AI' 1차전 D-1…'왕좌' 노린 네이버, 옴니모달 모델 공개로 격차 벌린다

정부 주도로 추진되고 있는 '독자 인공지능(AI) 파운데이션 모델' 개발 사업 첫 성과 발표를 앞두고 네이버클라우드가 새로운 무기를 공개했다. 국내 첫 네이티브 옴니모달 구조를 적용한 파운데이션 모델이란 점에서 이번 심사에서 유리한 고지에 오를 수 있을지 주목된다.네이버클라우드는 29일 '네이티브 옴니모델(HyperCLOVA X SEED 8B Omni)'과 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 '고성능 추론모델(HyperCLOVA X SEED 32B Think)'을 각각 오픈소스로 공개했다. 이는 과학기술정보통신부 '독자 AI 파운데이션 모델' 프로젝트의 주관 사업자로서 추진 중인 '옴니 파운데이션 모델' 개발 과제의 첫 성과다. 이번에 공개된 '네이티브 옴니모델'은 텍스트·이미지·오디오 등 서로 다른 형태의 데이터를 단일 모델에서 처음부터 함께 학습하는 네이티브 옴니모달 구조를 전면 적용한 모델이다. 옴니모달 AI는 정보의 형태가 달라지더라도 하나의 의미 공간에서 맥락을 통합적으로 이해할 수 있어 말과 글, 시각·음성 정보가 복합적으로 오가는 현실 환경에서 활용도가 높은 차세대 AI 기술로 주목받고 있다. 이러한 특성으로 인해 글로벌 빅테크 기업들 역시 옴니모달을 차세대 파운데이션 모델의 핵심 기술 축으로 삼고 있다. 네이버클라우드는 옴니모달 AI의 잠재력을 극대화하기 위해 기존 인터넷 문서나 이미지 중심의 학습을 넘어 현실 세계의 다양한 맥락을 담은 데이터 확보에 집중한다는 전략이다. 네이버클라우드 하이퍼스케일 AI 성낙호 기술 총괄은 "모델을 대규모로 키워도 데이터 다양성이 한정돼 있다면 AI의 문제 해결 능력도 특정 영역 또는 특정 과목에만 집중되어 나타날 수밖에 없다"며 "이에 디지털화되지 않은 생활 맥락 데이터나 지역의 지리적 특성이 반영된 공간 데이터 등 차별화된 현실 세계 데이터를 확보하고 정제하는 과정이 선행돼야 한다"고 설명했다. 네이버클라우드는 이번 모델 공개를 통해 네이티브 옴니모달 AI 개발 방법론을 검증한 만큼, 향후 차별화된 데이터를 본격적으로 학습시키며 단계적인 스케일업에 나설 계획이다. 텍스트·이미지·음성 모델을 결합하는 방식의 기존 멀티모달 접근과 달리 단일 모델 구조의 옴니모달 AI는 규모 확장이 상대적으로 용이하다는 점도 특징이다. 회사 측은 이를 기반으로 산업과 일상 밀착 서비스에 필요한 다양한 크기의 특화 옴니모달 모델을 효율적으로 확장한다는 전략이다. 또 해당 모델은 텍스트 지시를 기반으로 이미지를 생성·편집하는 옴니모달 생성 기능도 갖췄다. 텍스트와 이미지의 맥락을 함께 이해해 의미를 반영한 결과물을 만들어내는 방식으로 단일 모델에서 텍스트 이해와 이미지 생성·편집을 자연스럽게 수행한다. 이는 글로벌 프런티어 AI 모델들이 제공해온 기능으로, 네이버클라우드는 이번 모델을 통해 해당 수준의 멀티모달 생성 역량을 확보했음을 보여줬다. 이와 함께 네이버클라우드는 향후 옴니모달 AI 에이전트 활용 가능성을 검증하기 위해 '고성능 추론모델'도 공개했다. 이 모델은 자체 추론형 AI에 시각 이해, 음성 대화, 도구 활용 능력을 결합해 복합적인 입력과 요청을 이해하고 문제를 해결하는 옴니모달 에이전트 경험을 구현했다. 또 이 모델은 글로벌 AI 평가 기관인 아티피셜 애널리시스(Artificial Analysis)가 종합 지식·고난도 추론·코딩·에이전트형 과제 등 10개 주요 벤치마크를 종합해 산출한 지수 기준에서도 글로벌 주요 AI 모델들과 유사한 성능 범위에 위치한 것으로 나타났다. 영역별 평가에서는 특히 실사용과 밀접한 항목에서 경쟁력을 보였다. 한국어 기반 종합 지식, 시각 이해, 실제로 도구를 활용해 문제를 해결하는 에이전트 수행 능력 등 주요 능력 항목에서 글로벌 모델들과 비교해 우수한 성능을 기록하며 복합적인 문제 해결 역량을 입증했다. 또 해당 모델로 올해 대학수학능력시험 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 측은 "다수의 AI 모델이 문제를 텍스트로 변환해 입력해야 하는 방식과 달리, 이 모델은 이미지 입력을 직접 이해해 문제를 해결했다는 점에서 차별화된다"고 말했다. 네이버클라우드는 이번 옴니모달 하이퍼클로바X를 기반으로 검색·커머스·콘텐츠·공공·산업 현장 등 다양한 영역에서 활용 가능한 AI 에이전트를 단계적으로 확장하며 '모두의 AI' 실현을 위한 기술 생태계 구축에 속도를 낼 계획이다. 성 총괄은 "텍스트·시각·음성 등 AI의 감각을 수평적으로 확장하는 동시에 사고와 추론 능력을 함께 강화했을 때 현실 문제 해결력이 크게 높아진다는 점을 확인했다"며 "이러한 기본기를 갖춘 구조 위에서 점진적으로 규모를 확장해야 단순히 크기만 큰 모델이 아닌, 실제로 쓰임새 있는 AI로 발전할 수 있다고 보고 이를 토대로 스케일업을 이어갈 계획"이라고 말했다.

2025.12.29 09:51장유미 기자

'국가대표 AI' 첫 탈락자, 국민 500명 손에 달렸다…정부, 국민평가단 선발 돌입

정부가 국가대표 인공지능(AI) 모델 개발 기업 5곳의 기술을 평가할 국민 500명을 선발한다. 26일 업계에 따르면 과학기술정보통신부는 최근 '독자 AI 파운데이션 모델 프로젝트'의 국민평가단을 모집하는 방안을 내부적으로 검토하고 있다. 선발 인원은 500명으로, 이들은 LG AI연구원, 업스테이지, 네이버클라우드, SK텔레콤, NC AI 등을 주축으로 한 5개 컨소시엄이 개발한 모델을 직접 써보고 평가하게 된다. 앞서 지난 8월 '독자 AI 파운데이션 모델(K-AI)' 사업자로 최종 선정된 5개 컨소시엄들은 오는 12월 말 1차 평가를 앞두고 있다. 정부는 총 2천136억원을 투입하는 이 프로젝트에서 6개월 단위 평가를 거쳐 오는 2027년 상반기까지 최종 2개 팀만 추려낸다는 방침이다. 각 컨소시엄들은 국민·전문가 평가, 벤치마크 등 기반 검증평가(AI안전성 연계), 파생 AI 모델 수 평가 등 입체적인 단계 평가를 거치게 된다. 국민평가단은 정예팀의 첫 탈락 팀을 가르는 1차 평가에 참여한다. 정부는 성별·지역·연령·AI 활용도 등 4가지 기준을 바탕으로 대표성과 다양성을 확보한 평가단을 구성할 계획이다. 성별은 남·녀 250명씩, 지역은 수도권·비수도권 250명씩 절반 비율로 구성할 예정이다. 연령은 20·30·40·50대 및 60대 이상 등 5개 연령층으로 나눠 100명씩 배분한다. AI 활용도별로는 ▲전문직·개발자 등 고도 사용자 100명 ▲사무·교육·콘텐츠 분야 종사자 등 중간 사용자 250명 ▲AI 경험이 적은 초급·관심층 150명으로 구성된다. 정부는 5개 컨소시엄과의 협의를 통해 국민평가단의 구성 기준을 구체화 할 예정이다. 평가단 모집은 다음 달 중 무작위 추첨 방식으로 진행된다. 현장 평가는 오는 12월 30일 서울 강남구 코엑스에서 열리는 '독자 AI 파운데이션 모델 프로젝트 대국민 콘테스트'에서 진행된다. 평가단은 이날 5개 정예팀의 모델 개발 성과 발표를 직접 확인하고 평가한다. 이후 10일간은 각 팀이 개발한 모델을 웹사이트를 통해 직접 사용해보며 사용성 평가를 진행한다. 배경훈 과학기술정보통신부 부총리 겸 장관은 "(5개 컨소시엄들이) 우리 독자 파운데이션 모델을 글로벌 수준으로 만들 수 있다고 생각한다"며 "글로벌 톱10이 아니라 톱2·3 수준까지 도약할 수 있을 것으로 믿는다"고 강조했다.

2025.10.26 18:05장유미 기자

"국가대표 AI 기업 보러 왔어요"…LG·네이버 등 5대 기업, 한 자리서 기술력 과시

"국가대표 인공지능(AI) 기업들이라고 해서 궁금해서 방문했어요. 우리나라 AI 기술이 이렇게 발전했는지 이곳에서 경험할 수 있어서 너무 좋았어요." 서울 강남구에서 근무하고 있는 직장인 김은영 씨는 2일 서울 강남구 코엑스 A홀에서 개최된 'AI 페스타' 행사장에 위치한 '국가대표 5대 인공지능 기업관'에 방문해 이처럼 밝혔다. 평소 AI에 관심이 많았다는 김 씨는 "LG AI 연구원이 만든 '챗엑사원'을 한 번 써보고 싶었는데 오픈AI '챗GPT'와 성능을 비교하면 뒤지지 않는 것 같아 놀라웠다"며 "지금 베타 버전이라고 하는 데 일반 사람들도 편리하게 이용할 수 있게 LG가 나서주면 좋겠다"고 강조했다. '국가대표 5대 인공지능 기업관'은 정부가 지난 8월 '독자 AI 파운데이션 모델' 사업자로 선정한 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원이 함께 부스를 마련한 곳으로, 5개 기업이 한 행사에 함께 모인 것은 이번이 처음이다. '독자 AI 파운데이션 사업'은 정부가 총 2천136억원을 투입하는 국가 프로젝트다. 이날 방문한 '국가대표 5대 인공지능 기업관' 입구 양측에서는 NC AI와 SK텔레콤이 관람객들을 맞았다. NC AI는 이번 전시에서 '바르코 3D'와 '바르코 사운드', '바르코 아트패션' 등 세 가지 솔루션을 선보여 눈길을 끌었다. 특히 '바르코 3D'를 통해 캐릭터를 만들어 현장에서 3D 프린터로 피규어를 만들어 내는 코너에선 관람객들이 신기해 하는 모습을 보였다. '바르코 3D'는 텍스트·이미지 프롬프트로 실시간 3D 모델을 생성하는 솔루션으로, 자동 리메시·텍스처 힐링으로 복잡한 수정 작업을 간소화하며 애니메이션 구현까지 가능하다. NC AI 관계자는 "첫째 날은 비즈니스, 업계 관계자들이 많이 방문해 우리 기술에 대해 관심을 많이 보였다"며 "지금은 학생, 일반인들도 부스를 많이 찾아 우리 회사에 대한 인지도를 더 쌓을 수 있는 기회가 된 것 같다"고 말했다. 전 세계 세 번째로 거대언어모델(LLM)을 선보인 네이버클라우드도 음성 인공지능(AI) 기술 '팟캐스트LM'을 현장에서 선보였다. 팟캐스트LM은 콘텐츠·텍스트를 팟캐스트 음성 콘텐츠로 생성할 수 있는 것으로, 텍스트 데이터와 음성 데이터를 결합해 자연스러운 음성 구현이 가능한 것이 특징이다. 이날 방문객들은 '팟캐스트LM'을 통해 각자가 궁금해 하는 부분들을 텍스트에 입력하자 곧바로 음성 콘텐츠가 생성되는 것을 보고 신기해 했다. '팟캐스트LM'은 기술 데모 형태로 사내에만 공개된 것으로, 향후 음성 콘텐츠 생성 관련 규제 완화 여부에 따라 정식 출시를 고려할 것으로 알려졌다. 네이버클라우드 관계자는 "'팟캐스트LM'은 추임새나 감정 표현까지 정교하게 표현할 수 있다"며 "우리의 음성 LLM 관련 기술은 지난해 최고 권위 AI 학회인 '뉴립스(NeurIPS) 2024'에도 채택됐다"고 설명했다. LG AI 연구원은 이번 행사에서 '엑사원 4.0'과 '챗엑사원' 베타 버전을 선보여 눈길을 끌었다. 계열사인 LG CNS가 마련한 부스와 연계해 스탬프 투어를 진행함으로써 관람객들의 프로그램 참여도를 높인 것이 신선했다. 현장에선 '챗엑사원' 베타 버전의 회원가입을 유도하는 이벤트도 진행됐다. '챗엑사원'은 '챗GPT'와 비슷한 사용자 인터페이스(UI)를 구현해 사용하기에도 좋았다. 답변 곳곳에는 '퍼플렉시티'가 제공하는 것처럼 출처를 명확히 표시해주는 각주 스타일도 결합돼 있었다. 덕분에 업무에 필요한 정보를 좀 더 정확하게 찾을 수 있을 듯 했다. 답변 속도도 상당히 빨랐다. 회사 이메일을 입력해 회원으로 가입한 후 'LG AI 연구원이 독자 AI 파운데이션 모델 사업에서 최종 사업자로 선정될까'라고 묻자 1초 만에 답을 뚝딱 만들어 냈다. 다만 결과물은 '한국의 AI 기술 발전에 중요한 역할을 할 것으로 기대된다'고 나타나 원하는 답변을 얻어내진 못했다. LG AI 연구원 부스 관계자는 "기대 이상의 관람객들이 방문해 준비했던 이벤트 상품들은 오전에 빠르게 소진될 정도로 많은 관심을 보였다"며 "'챗엑사원'을 현장에서 경험한 방문객들이 코드 작성, 검색 결과물 등을 보고 성능이 굉장히 우수하다고 말하며 놀라워했다"고 밝혔다. 그러면서 "국내 다른 대기업 관계자들도 부스에 대거 찾아와 관심을 보이며 많은 질문을 하고 갔다"며 "LG라는 브랜드 인지도가 있어선지 무조건 한 번은 이곳을 방문하는 듯 하다"고 덧붙였다. SK텔레콤은 이번 전시에서 한국어 특화 LLM '에이닷엑스(A.X)'와 AI 개인 비서 '에이닷(A.)'으로 부스를 꾸렸다. '에이닷엑스'는 한국어 환경에 최적화된 성능을 구현한 것이 특징으로, 최근 출시된 4.0 버전은 한국어·한국 문화 벤치마크 CLIcK에서 83.5점을 기록해 GPT-4o(72.5점·80.2점)보다 높은 성능을 입증했다. '에이닷엑스'로 개발된 '에이닷'은 자연어 대화뿐 아니라 일상 일정 관리와 통화 요약, 업무 자동화 등을 지원한다. '에이닷엑스'는 멀티 LLM 구조를 활용해 전문 분야별 에이전트 서비스까지 활용 가능하다. SK텔레콤은 올해 연말까지 5천억 개(500B) 매개변수 LLM을 개발해 '독자 AI 파운데이션 모델' 사업자 톱4에 든다는 목표다. SK텔레콤 관계자는 "현재 자체 보유하고 있는 그래픽처리장치(GPU)와 아마존웹서비스의 GPU를 활용해 열심히 모델을 개발하고 있다"며 "올 연말까지 목표한 대로 500B모델을 선보이기 위해 최선을 다하고 있다"고 말했다. 업스테이지는 이번 전시에서 자체 모델 '솔라 프로 2'와 '도큐먼트 인텔리전스'를 소개해 관심을 끌었다. '솔라 프로2'가 국제 분석 기관 아티피셜 애널리시스에서 12위를 기록하면서 일론 머스크가 이례적으로 트윗에 언급해 화제가 됐던 LLM인 탓에 현장에선 학생, 기업인 등 각계각층의 관람객들이 많은 호기심을 보였다. 올해 7월 공개된 '솔라 프로 2'는 고도화된 추론 능력을 갖춘 '하이브리드 모드'를 탑재한 것이 특징으로, 실시간 웹 검색, 정보 정리, 프레젠테이션 초안 작성 등 업무를 자율적으로 수행할 수 있다는 점이 인상적이었다. '도큐먼트 인텔리전스'는 단순 텍스트 추출에 그치지 않고 체크박스나 그래프, 비틀어진 텍스트까지 인식 가능하다는 점에서 업무에 활용하기에 굉장히 편리할 듯 했다. 업스테이지 관계자는 "'솔라 프로 2'는 단순 문장 응답을 넘어 사용자의 의도를 파악하고 외부 도구를 호출해 실질적인 결과물을 도출하는 '에이전트형 LLM' 구조를 갖췄다"며 "도큐먼트 인텔리전스는 AI로 보험을 비롯한 계약서, 재무문서 등을 99% 정확도로 자동 처리할 수 있는 플랫폼으로, 특히 금융·보험 산업에서 활용하기 유용할 것"이라고 설명했다. '국가대표 AI' 5개 업체는 오는 12월 말 첫 평가를 받을 예정으로, 이 때 대국민 콘테스트가 병행된다는 점에서 이번 'AI 페스타'에 참석해 인지도를 구축하는 데 상당한 도움을 받을 것으로 보인다. 5개 기업은 앞으로 6개월 단위 평가를 거쳐 오는 2027년 상반기까지 최종 2개 팀으로 추려진다. 배경훈 과학기술정보통신부 부총리 겸 장관은 '국가대표 5대 인공지능 기업관'에 방문해 "(이 기업들이) 우리 독자 파운데이션 모델을 글로벌 수준으로 만들 수 있다고 생각한다"며 "글로벌 톱10이 아니라 톱2·3 수준까지 도약할 수 있을 것으로 믿는다"고 강조했다. 이어 "(각 기업들이) 역량을 모아 세계 최고에 도전하는 것을 목표로 삼았으면 한다"고 덧붙였다.

2025.10.02 10:41장유미 기자

[유미's 픽] "사명감 없으면 힘들 걸?"…정부 '특화 AI' 사업 추진에 업계 반응 '떨떠름'

"사명감을 가지고 하지 않는 이상 이번 정부 사업에 참가하긴 힘들지 않을까요?" 정부가 글로벌 수준의 특화 인공지능(AI) 모델 개발 사업에 본격 나선 가운데 지원책이 아쉽다는 지적이 일고 있다. 앞서 5개 사업자가 선발된 '독자 AI 파운데이션 모델 프로젝트(국가대표 AI, K-AI)'에 비해 데이터, 인재 등에 대한 지원이 없는 데다 참여하는 것에 대한 명분도 크지 않다는 점에서다. 19일 업계에 따르면 과학기술정보통신부(과기정통부)는 산업 특화 AI 모델 개발 사업자로 선정된 최종 2팀에게 엔비디아의 최신 그래픽처리장치(GPU) 'B200'을 각각 256장씩 제공한다. GPU는 엘리스그룹이 공급한다. 이번 사업은 독자 AI 사업자 선발 때 SK텔레콤과 네이버클라우드가 최종 5개팀에 포함되면서 정부가 확보했던 추경 예산이 남게 되자 새롭게 만들어졌다. 'GPU 임차 지원 사업'에도 참여하게 된 SK텔레콤과 네이버클라우드가 독자 AI 사업에서 정부로부터 1차 GPU 지원을 받을 수 없어서다. 하지만 이번 특화 AI 사업은 지원 규모가 독자 AI에 비해 너무 줄었다는 점에서 기업들의 흥미를 끌어들이지 못하고 있다. GPU 외에 인력, 데이터 등 다른 형태의 정부 지원이 거의 전무하기 때문이다. 일단 정부지원금은 GPU 개수와 GPU 월별 단가, 협약개월 수를 곱해 책정된다. 정부가 산출한 GPU 1장당 월별 단가는 B200 기준 660만원이다. 총 사업비는 정부지원금과 민간부담금으로 구성된다. 민간부담금은 참여인력 인건비 및 보유 유형 자산이 포함된 '현물'과 '현금'으로 구성된다. 정부가 지원하는 GPU 자원의 가치에 상응하는 민간부담금 편성 부분은 이번에 기업들의 관심을 떨어뜨린 요인이 됐다. 최종 사업자로 선발되면 기업 규모와 개발 모델의 오픈소스 공개 여부에 따라 차등적으로 책정된 비용을 현금과 현물로 부담해야 하는데, 정부 지원에 비해 참여한 곳들의 희생을 더 요구하는 구조여서다. 실제 모델을 상업용 오픈소스로 공개할 경우 기업 규모별 자부담율은 ▲대기업 10% ▲중견기업 6% ▲중소기업 5%로 책정됐다. 연구용 오픈소스는 ▲대기업 25% ▲중견기업 15% ▲중소기업 12.5% 등의 비율로 사업비를 부담해야 한다. 만약 모델을 오픈소스로 공개하지 않게 되면 자부담율은 ▲대기업 50% ▲중견기업 30% ▲중소기업 25% 등으로 2배 이상 늘어나게 된다. 민간 부담금 중 현금 부담 비율도 정해졌다. ▲중소기업은 총 부담금의 10% 이상 ▲중견기업은 13% 이상 ▲대기업은 15% 이상을 반드시 현금으로 마련해야 한다. 다만 최종 사업자로 선정된 곳이 정부로부터 GPU를 공급 받지 않는다고 할 경우 민간부담금은 사라진다. 이 경우 정부의 아무런 지원 없이 최종 사업자의 비용으로만 모델을 개발해야 하는 구조다. 업계 관계자는 "GPU만 지원하고 데이터 구매·활용 시에도 사업자가 부담해야 한다는 점에서 당장 개발하는 모델로 수익을 내지 못하는 기업들은 참여하기 힘들 것"이라며 "조건이 참여를 할 만큼 좋은 편은 아니다"고 지적했다. 이어 "당장 돈이 되지 않는 정부 사업을 기업들이 가진 리소스를 투입해 참여해야 하는 지도 의문"이라며 "돈이 된다 싶은 걸 오픈소스로 공개해버리면 그것대로 경쟁만 치열해질 게 뻔해 참여한 곳들이 비용만 투입하고 건질 것은 없는 구조"라고 일침했다. 대기업이 주관사가 아닌 참여기관으로만 참여할 수 있다는 점에서도 사업의 흥행이 보장될 수 없게 됐다. 주관기관은 국내 기업·대학·연구기관만 가능하도록 한다는 점에서 대기업들이 사업적으로 얻게 될 이득이 크지 않다는 분석이 나온다. 해외기업이 글로벌 서비스 개발에 한해 합류할 수 있다는 전제가 포함됐지만, 특화 AI 사업의 열악한 조건 탓에 관심을 보이는 곳은 거의 없는 것으로 알려졌다. 컨소시엄을 구성할 때 특정 산업 도메인과 수요기관·수요처를 민간이 직접 제안해야 한다는 점도 참여 의욕을 떨어뜨리는 요소다. 정부가 도메인을 지정하는 대신 민간이 산업 수요를 발굴하도록 유도하고 있지만, 정작 관심을 보이고 있는 분야가 금융, 법률, 의료, 교육 등 공공성과 산업 수요가 맞닿는 곳에 국한된 모습을 보였다는 점 역시 한계로 지적됐다. 'K-AI' 엠블럼이 수여된 '독자 AI'와 달리 기업들에게 주어지는 상징적인 보상안이 없다는 점도 특화 AI 사업에 대한 기대치를 낮추게 했다는 지적이 나왔다. 독자 AI 사업자로 선정된 SK텔레콤·LG AI연구원·NC AI·업스테이지·네이버클라우드 등 5곳은 'K-AI' 엠블럼을 회사 홍보 등에 활용함으로써 국내외서 정부가 인정한 '국가대표 AI'라는 인식을 심어줄 수 있게 됐다. 그러나 특화 AI는 'K-AI' 엠블럼을 사용할 수 없다. 하지만 정부는 '특화 AI' 사업자로 참여할 팀에게 고난도의 기술만 요구하는 분위기다. 단순 서비스 개발이 아닌 '파운데이션 모델' 개발에 초점을 맞춘 만큼, 프롬스크래치 방식이나 기존 자체 모델의 프리 트레이닝 방식으로 모델을 개발해봤던 업체들이 사업자로 선정되기 유리한 구조로 조건을 걸었기 때문이다. 과기정통부 관계자는 "기존 모델을 일부 조정하는 '파인튜닝' 방식은 지원 대상이 아니다"며 "처음부터 모델을 설계하거나 기존 범용 모델에 대규모 데이터를 사전학습 시키는 방식만 가능하다"고 설명했다. 이어 "특정 분야에 쓰이는 만큼 낮은 환각 발생 가능성이 중요하다"며 "사전학습 단계부터 정제된 고품질 데이터로 학습하는 '프롬스크래치' 방식이 높은 신뢰성과 정확도를 담보할 뿐 아니라 세계 최고 수준의 모델을 만들겠다는 사업 목표와 직결된다"고 덧붙였다. 평가 기준도 ▲시장성·파급효과(40점) ▲개발 목표(30점) ▲기술력·개발 경험(30점) 등 기술 배점이 상당해 정부 지원금으로 사업을 시작해보려는 곳이 도전하기에는 힘든 구조다. 더구나 사업 기간은 오는 11월부터 내년 9월까지 약 10개월간으로 설정됐지만, 내년 3월에 1단계를 수행한 뒤 단계 평가를 치러야 한다는 점에서 모델 개발 경험이 없다면 사업을 지속하기 어렵다. 만약 성과를 검증해 2단계 지원을 이어 받는다고 해도 이 때 성과가 미흡하다면 중간 탈락할 가능성도 있어 사업 안정성도 낮게 평가 된다. 이 같은 조건 탓에 '독자 AI' 사업에서 쓴 맛을 봤던 기업들은 참여 여부에 대해 대체적으로 회의적인 반응을 보였다. 지난 15일 진행된 '특화 AI 사업 설명회'에는 삼성SDS, 마키나락스, 와이즈넛, 딥노이드, 모티프테크놀로지스, 코난테크놀로지, 루닛, KT, 카카오, 사이오닉AI, 솔트룩스, 딥브레인AI, 제논, 모비젠 등 다수 기업 관계자들이 참여했지만, 조건 공개 후 일부는 사업에 대한 관심을 접었다. 하지만 정부는 기술력 있는 기업들이 컨소시엄을 잘 구성해 특화 AI 사업에 도전할 것으로 기대했다. 또 초기 성과를 내기 위한 수요처도 컨소시엄 구성 시 잘 구성해야 유리할 것이라고 조언했다. 과기정통부 관계자는 "우리나라가 잘하는 분야를 중심으로 해당 기업이 얼마나 많은 데이터와 경험, 인력을 가지고 있는지가 평가 포인트가 될 것"이라며 "이를 고려해 컨소시엄을 얼마나 잘 구성할 것인지가 중요할 것"이라고 설명했다. 그러면서 "특화 AI 모델이 개발되면 특정 정부 공공 영역에서 쓰인다기 보다 해당 시장 영역에서 잘 쓰일 수 있는지도 관건"이라며 "컨소시엄에 어떤 수요기관을 얼마나 포함시켰는지를 면밀히 볼 것"이라고 덧붙였다. 또 정부의 지원이 부족하다는 지적에 대해선 "현재 수준으로만 일단 봐 달라"며 "2단계로 넘어갈 때 추가 지원 할 부분이 있는지에 대해 살펴볼 것"이라고 설명했다.

2025.09.19 18:05장유미 기자

'AI 국가대표' 한 자리 모인다…5대 기업, 기술력 경쟁

국가 인공지능(AI) 경쟁력 강화를 목표로 하는 5개 기업이 한자리에 모여 AI 기술 경쟁력을 공유한다. '독자 AI 파운데이션 모델' 사업에 선정된 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원은 오는 30일부터 내달 2일까지 서울 강남 코엑스에서 열리는 'AI 주간 공식 페스티벌, AI페스타 2025'에서 부스를 꾸리고 AI 기술과 서비스를 선보인다. 이번 행사는 과학기술정보통신부가 주최하며 국내외 178개 기업이 참여, 480개 부스 규모로 진행된다. (☞ AI페스타 바로 가기) 독자 AI 파운데이션 사업은 정부가 총 2천136억원을 투입하는 국가 프로젝트다. 5개 기업은 6개월 단위 평가를 거쳐 2027년 상반기까지 최종 2개 팀으로 추려진다. 첫 평가는 오는 12월 말로 예정돼 있으며 대국민 콘테스트가 병행된다. 네이버, '팟캐스트LM' 시연...업스테이지, '솔라' 최신 버전 소개 네이버클라우드는 음성 인공지능(AI) 기술 '팟캐스트LM'을 시연할 예정이다. 팟캐스트LM은 콘텐츠·텍스트를 팟캐스트 음성 콘텐츠로 생성할 수 있다. 텍스트 데이터와 음성 데이터를 결합해 자연스러운 음성 구현이 가능하다. 추임새나 감정 표현까지 정교하게 표현할 수 있다. 네이버의 음성 LLM 관련 기술은 지난해 최고 권위 AI 학회인 'NeurIPS 2024'에도 채택됐다. 앞서 네이버클라우드의 독자 AI 파운데이션 모델 컨소시엄은 '범국민 AI 접근성 확대'를 기치로 내걸었다. 텍스트, 음성, 이미지, 비디오 등 여러 종류의 데이터를 동시에 이해하고 생성하는 '옴니 파운데이션 모델' 원천 기술을 확보하는 것이 핵심 목표다. 이를 기반으로 전 국민이 체험할 수 있는 AI 서비스 플랫폼과 누구나 AI 에이전트를 개발하고 유통할 수 있는 'AI 에이전트 마켓플레이스'를 운영할 계획이다. 업스테이지는 이번 전시에서 자체 모델 '솔라 프로 2'와 '도큐먼트 인텔리전스'를 소개할 예정이다. 각 모델과 플랫폼이 어떻게 구현되는지 구체적으로 시연하면서 설명할 예정이다. 솔라 프로 2는 업스테이지가 올해 7월 공개한 LLM이다. 고도화된 추론 능력을 갖춘 '하이브리드 모드'를 탑재한 것이 특징이다. 단순 문장 응답을 넘어 사용자의 의도를 파악하고 외부 도구를 호출해 실질적인 결과물을 도출하는 '에이전트형 LLM' 구조도 갖췄다. 실시간 웹 검색, 정보 정리, 프레젠테이션 초안 작성 등 업무를 자율적으로 수행할 수 있다. 도큐먼트 인텔리전스는 AI로 보험을 비롯한 계약서, 재무문서 등을 99% 정확도로 자동 처리할 수 있는 플랫폼이다. 여기에 탑재된 OCR는 기존 기술과 달리 문서 의미와 구조까지 이해할 수 있다. 단순 텍스트 추출에 그치지 않고 체크박스나 그래프, 비틀어진 텍스트까지 인식 가능하다. 이를 통해 방대한 종이 문서가 쌓인 기업 환경에서도 효율적으로 디지털화가 가능하며, 특히 금융·보험 산업에서 유용하다는 평을 받고 있다. 업스테이지는 국가 프로젝트에서 글로벌 프런티어 수준의 독자 AI 모델 '솔라 더블유비엘(Solar WBL)' 개발에 나선다. 향후 모델 규모를 1천억~3천억 파라미터까지 확장하고 지원 언어도 일본어와 동남아 등으로 넓혀나갈 계획이다. SK텔레콤, 한국어 특화 모델 소개...'에이닷' 시연도 SK텔레콤은 이번 전시에서 한국어 특화 초거대 언어 모델(LLM) 'A.X'와 AI 개인 비서 '에이닷(A.)'으로 부스를 꾸린다. A.X는 한국어 환경에 최적화된 성능을 구현한 것이 특징이다. A.X로 개발된 에이닷은 자연어 대화뿐 아니라 일상 일정 관리와 통화 요약, 업무 자동화 등을 지원한다. 멀티 LLM 구조를 활용해 전문 분야별 에이전트 서비스까지 활용 가능하다. 관람객들은 생성된 오브젝트를 애니메이션화해 움직이는 3D 콘텐츠로 구현하는 체험 프로그램에도 참여할 수 있다. SK텔레콤은 이를 통해 AI 기술이 실생활 서비스와 디지털 콘텐츠 제작에 어떻게 적용되는지를 직접 경험할 수 있도록 지원한다. SK텔레콤은 독자 AI 파운데이션 모델에 반도체부터 서비스까지 아우르는 '풀스택 AI' 역량을 앞세웠다. 기존 트랜스포머를 넘어선 '차세대 초거대 모델'을 개발해 대한민국 AI 대전환(AX)을 촉진한다는 목표다. NC AI, '바르코' 시리즈 전시...LG AI연구원, '엑사원' 비전 제시 NC AI는 이번 전시에서 세 가지 솔루션 '바르코 3D'와 '바르코 사운드', '바르코 아트패션'을 공개한다. 바르코 3D는 텍스트·이미지 프롬프트로 실시간 3D 모델을 생성하고, 자동 리메시·텍스처 힐링으로 복잡한 수정 작업을 간소화하며 애니메이션 구현까지 체험할 수 있다. 바르코 사운드는 녹음한 음성을 캐릭터·몬스터 보이스로 실시간 변환하고 0.005초 단위 강약·톤 변화로 사실적인 음성이나 효과음을 자동 생성한다. 바르코 아트패션은 3.2초 만에 10종 이상의 패션 디자인을 제작하고 이를 2D·3D로 변환하거나 원단 변경과 착장 합성, 트렌드 반영 제품 제안을 지원한다. NC AI의 국가 프로젝트 컨소시엄은 '산업 AI 전환'을 위한 멀티모달 모델 개발이 목표다. 글로벌 최고 성능의 2천억 파라미터 급 언어 모델과 이를 기반으로 한 멀티모달 모델 패키지 개발에 초점 맞췄다. LG AI연구원은 이번 행사에서 '엑사원 4.0'과 '챗엑사원' 베타 버전을 선보인다. 엑사원 4.0은 기존 모델에 추론형 모델 '엑사원 딥'을 통합한 형태다. 대용량 장문 처리와 과학·의료 등 고난도 전문 영역 활용을 목표로 개발됐다. 챗엑사원은 LG AI연구원이 직접 개발한 에이전트 AI 서비스다. '모든 이를 위한 전문가 AI(Expert AI for Everyone)'라는 비전을 담고 있다. LG AI연구원은 독자 AI 파운데이션 사업에서 글로벌 최고를 뛰어넘는 AI 개발을 목표로 삼았다. 이를 위해 엑사원 4.0 토대로 글로벌 프런티어 모델 대비 100% 이상 성능을 내는 'K-엑사원'을 개발해 오픈소스로 공개하겠다고 밝혔다.

2025.09.18 17:02김미정 기자

독자 AI 프로젝트, K-AI 깃발 올렸다…10조 업고 G3 향해 출항

5개 정예팀 선정을 마친 '독자 인공지능(AI) 파운데이션 모델' 프로젝트가 공식 착수식을 열고 본격적인 궤도에 올랐다. 정부는 'AI 3대강국(G3)' 도약을 목표로 10조원대 예산 등 파격적인 지원을 약속했으며 5개 정예팀은 AI 주권 확보를 위한 담대한 도전에 나설 것을 다짐했다. 과학기술정보통신부는 9일 서울 중구 르메르디앙 명동에서 '독자 AI 파운데이션 모델 프로젝트 착수식'을 개최했다. 이날 행사에는 배경훈 과기정통부 장관을 비롯해 김유원 네이버클라우드 대표, 김성훈 업스테이지 대표, 유영상 SK텔레콤 대표, 이연수 엔씨에이아이 대표, 임우형 LG AI연구원장 등 5개 정예팀 대표와 주요 관계자들이 참석했다. 이날 행사는 배경훈 장관이 AI G3 도약을 위한 비전과 구체적인 지원책을 발표하는 격려사로 시작됐다. 이어 5개 정예팀에 대한민국의 대표 AI임을 상징하는 'K-AI' 앰블럼 수여식이 진행됐으며 각 팀 대표들이 AI 주권 확보에 대한 각오를 다지는 대표 발언과 향후 발전 방향을 논의하는 종합 토의 순으로 이어졌다. 배경훈 장관 "AI 예산 10조 투입…포용적 AI로 글로벌 G3 되겠다" 이날 배경훈 과학기술정보통신부 장관은 대한민국 'AI G3' 도약을 위한 담대한 비전을 제시했다. AI 예산을 작년의 3배 수준인 10조원 규모로 대폭 확대하고 오는 2030년까지 그래픽처리장치(GPU) 20만 장을 확보하겠다는 도전적 목표도 내세웠다. 배 장관은 격려사를 통해 "시장은 민간과의 긴밀한 협력을 통해 만들고 정부는 지속적인 투자와 AI 대전환을 위한 노력을 아끼지 않을 것"이라며 "이를 위해 연구개발(R&D) 예산을 35조3천억원으로 대폭 늘렸으며 AI 예산만 10조1천억원에 달한다"고 설명했다. 특히 AI 인프라 확충에 대한 강한 의지를 드러냈다. 배 장관에 따르면 정부는 우선 2028년까지 GPU 5만 장을 확보하고 오는 2030년까지는 민간과 협력해 20만 장을 확보하는 것이 목표다. 이어 배 장관은 선정된 5개 정예팀을 향해 "국내 시장을 넘어 글로벌 성능 지표와 활용도 면에서 세계 최고가 되기를 바란다"며 "여러분의 독자 AI 모델이 공공 AI 전환(AX)의 핵심이 되고 모든 국민과 기업이 우리 AI를 활용하는 계기가 되길 기대한다"고 당부했다. 이후 배 장관은 5개 정예팀 대표들에게 대한민국의 대표 AI임을 상징하는 'K-AI' 앰블럼을 한 명 한 명 직접 수여하며 이들의 도전을 격려했다. 독자 AI 정예팀 "AI 주권·독립·글로벌 향한 담대한 도전 필요해" 이날 앰블럼을 수여받은 5개 정예팀 대표들은 '국가대표'라는 자부심과 무게감을 안고 AI 주권 확보와 글로벌 시장 개척에 대한 결연한 의지를 드러냈다. 김유원 네이버클라우드 대표는 '국가대표'라는 명칭이 주는 무게감을 언급하며 기술 과시를 넘어 국민의 삶에 실질적으로 기여하는 AI를 만들겠다고 다짐했다. 기술이 실제 산업과 사회에 적용되는 '포용적 AI'의 중요성을 내세웠다. 김 대표는 "국가대표 AI라는 말이 굉장히 부담스럽다"면서도 "기술적 자랑에 머물지 않고 장애인과 농민을 위한 AI처럼 실제 국민의 삶과 산업 경쟁력을 높이는 데 최선을 다하겠다"고 밝혔다. 김성훈 업스테이지 대표는 정부의 압도적인 지원에 감사를 표하며 국내 파운데이션 모델 개발에 대한 일각의 회의론을 정면으로 반박했다. 그는 우리 데이터와 기술로 만든 독자 모델 없이는 진정한 AI 주권을 이룰 수 없다고 목소리를 높였다. 김 대표는 "일부 타국과 비교가 안 될 정도의 압도적인 지원에 감사드린다"며 "우리 기술로 만든 파운데이션 모델이 없다면 AI 주권은 모래성과 같다"고 강조했다. 유영상 SK텔레콤 대표는 이번 프로젝트를 'AI 독립'의 역사적 중요성을 역설했다. AI 주권과 기술 독립을 바탕으로 글로벌 시장을 개척하겠다는 포부를 드러냈다. 유 대표는 "과거 불가능에 가까웠던 D램 개발에 도전해 통신·반도체 강국이 됐듯 오늘 '독립의 씨앗'을 뿌리는 것"이라며 "'가장 한국적인 것이 가장 세계적인 것'임을 증명해 보이겠다"고 말했다. 이연수 NC AI 대표는 단순 경쟁을 넘어 5개사의 협력을 통한 글로벌 동반 진출의 필요성을 제안했다. 특히 강점을 가진 게임, 콘텐츠 분야의 AI 역량을 발판 삼아 K-콘텐츠의 위상을 한 단계 끌어올리겠다고 약속했다. 이 대표는 "경쟁보다는 협력을 통해 우리 기술이 세계로 나갈 수 있도록 역량을 발휘하겠다"며 "게임과 콘텐츠 분야에서 쌓아온 AI 역량을 기반으로 K-콘텐츠의 글로벌 위상을 높이는 데 기여하겠다"고 밝혔다. 임우형 LG AI연구원장은 이번 프로젝트가 '무모한 도전'으로 비칠 수 있지만 대한민국의 미래 성장을 위해 반드시 성공해야 하는 과업이라고 힘주어 말했다. 태극마크의 무게를 안고 국가적 사명감으로 프로젝트에 임하겠다는 각오를 다졌다. 임 원장은 "오늘은 역사적인 날이 될 것"이라며 "AI 기술을 확보하지 못하면 대한민국의 성장을 고민해야 하는 시기"라고 진단했다. 이어진 토론에서는 '왜 독자 AI 모델이 필요한가'에 대한 열띤 논의가 펼쳐졌다. 5개 정예팀은 "단순히 기술 주권을 넘어 한국의 특화 산업에 맞는 AI를 만들고 거대한 글로벌 '소버린 AI' 시장을 선점하기 위한 필수 과제"라고 입을 모았다. 특히 게임·금융 등 해외 모델이 제대로 이해하지 못하는 산업 현장의 문제를 해결하고 이를 바탕으로 세계 시장에서 새로운 기회를 창출해야 한다는 데 공감대가 형성됐다. 또 '글로벌 톱티어'로 도약하기 위한 핵심 과제로 '인재 생태계'와 '데이터'가 꼽혔다. 참석자들은 GPU 등 인프라를 넘어 실전 경험을 갖춘 인재를 키우고 저작권 등 제약이 따르는 멀티모달 데이터 문제를 해결해야 한다고 강조했다. 이러한 노력을 통해 일부 전문가만 쓰는 AI가 아니라 모든 국민이 혜택을 누리는 '모두의 AI'를 실현해야 한다는 비전도 제시됐다. 배경훈 장관은 토론을 마무리하며 "프로젝트의 성공을 위해 정부와 민간이 한마음 한 뜻으로 담대한 도전에 임하겠다"고 강조했다.

2025.09.09 18:19조이환 기자

[유미's 픽] "정부 GPU 지원 티켓 2장, 누가 거머쥘까"…'특화 AI' 사업자 선정 경쟁 스타트

국내 인공지능(AI) 기술의 미래를 이끌어 갈 '독자 AI 파운데이션 모델 프로젝트(국가대표 AI, K-AI)' 사업자 5곳에 이어 특정 분야에 특화된 AI 모델을 개발하는 사업자 2곳이 새롭게 선발된다. 정부가 별도로 추진하는 엘리스그룹 그래픽처리장치(GPU) 물량을 활용해 특화 AI 모델을 개발하는 것으로, 기존에 'K-AI'로 선발된 업체들도 참여사로 함께 살 수 있다는 점에서 경쟁이 더 치열할 것으로 전망된다. 과학기술정보통신부(과기정통부)는 5일부터 오는 10월 13일까지 정보통신산업진흥원(NIPA)과 함께 'AI 특화 파운데이션 모델 프로젝트'에 참여할 팀을 공모한다. 이번 사업에선 총 2개팀을 선정할 예정으로, 각 참여팀은 사업기간 동안 적용분야, 독자 특화 파운데이션 모델 개발 방법론, 서비스 수 등을 주도적으로 제시해야 한다. 과기정통부는 5개월이 경과하는 시점에 단계평가를 통해 중간 성과를 점검해 2단계 지원 여부를 결정할 계획이다. 선정된 팀에는 최신 그래픽처리장치(GPU)인 엔비디아 'B200'을 팀당 256장(32노드)씩 총 512장 규모로 지원한다. 1단계 지원 기간은 오는 11월부터 내년 9월까지다. 이번 사업은 범용 모델을 개발하는 '독자 AI 파운데이션 모델 프로젝트'와는 별개로 추진된다. 앞서 과기정통부는 지난 달 초 '독자 AI 파운데이션 모델 프로젝트' 사업자로 네이버클라우드, 업스테이지, SK텔레콤, NC AI, LG AI 연구원 등 5곳을 최종 선발했다. 하지만 이번 프로젝트에는 대기업이 주관사가 아닌 참여사로만 함께할 수 있다. 국내 AI 기업과 대학 연구기관 등이 단독 또는 컨소시엄을 구성해 참여할 수 있으며 참여팀이 적용 분야와 개발 방법론 등을 주도적으로 제시해야 한다. 대학은 반드시 주관이나 참여기관으로 참여해야 하며 해외 기업 역시 모델 개발이 아닌 글로벌 서비스 개발에 한해서만 참여가 가능하다. 이에 과기정통부가 오는 15일 서울 엘타워에서 개최할 사업설명회에 어떤 기업들이 참여할 지 주목된다. 업계에선 일단 기존 '국가대표 AI' 프로젝트에서 최종 사업자로 선정되지 못한 모티프테크놀로지스와 코난테크놀로지, 한국과학기술원(KAIST)과 서면평가에서 떨어진 루닛, 바이오넥서스, 사이오닉에이아이, 정션메드, 파이온코퍼레이션, 솔트룩스, 사이냅소프트, 에스엔디랩스, 각 대학 연구팀 등의 참여 가능성이 높을 것으로 봤다. 또 카카오, KT는 대기업인 만큼 참여사로서 어떤 AI 기업이나 대학과 손잡고 나올지도 관심사다. 기존 '국가대표 AI' 사업자로 선정된 5곳과 삼성전자가 참여사로 나설지도 주목된다. 최근 국내 사업 확장에 나선 해외 기업들이 이번 특화 AI 모델 사업에 관심을 보일지를 두고도 업계가 예의주시하고 있다. 오픈AI, 코히어 등 일부 해외 기업들은 국내 기업 고객 확보를 한층 강화하고, 증가하는 국내 AI 서비스 수요에 민첩하게 대응하고자 올 들어 한국 법인을 잇따라 설립하고 나선 상태다. 업계 관계자는 "이번 사업은 기존 '독자 AI 파운데이션 모델' 최종 사업자로 선정되지 못한 곳들을 위한 것이란 시각이 많다"며 "최종 사업자 5곳은 올해 12월까지 1차 평가 준비로 바빠 참여사로도 함께하지 못할 가능성이 높아 보인다"고 말했다. 업계에선 이번 특화 AI 사업이 의료, 기후테크, 제조 도면 등과 관련해 지원 업체들이 많을 것으로 예상했다. '독자 AI 파운데이션 모델'이 개발된다고 해도 범용 모델을 가지고 학습·훈련을 시켜 활용하기가 어려운 분야라고 판단해서다. 실제 윤성호 마키나락스 대표는 지난 4일 서울 양재 엘타워에서 열린 AI 컨퍼런스 '어텐션(ATTENTION) 2025'에서 "반도체 설비 회사의 경우 하나의 설비를 만들 때 나오는 도면의 수가 무려 7천 장에 달하지만, 석·박사급 추론 능력을 보유한 AI도 이런 도면을 정밀하게 판독하지 못한다"며 "현장의 맥락과 전문성을 반영한 도메인 특화 AI를 개발해야 산업 현장에서의 생산성을 끌어올릴 수 있다"고 지적했다. 과기정통부는 이번 사업자 공모 후 ▲기술력 및 개발경험 ▲개발 목표 ▲시장성 및 파급효과 등 세 가지 기준을 중심으로 평가할 예정이다. 평가위원회는 참여팀이 제시한 목표 달성 여부와 성과의 혁신성을 5개월 단위로 점검해 후속 지원을 결정할 방침이다. 업계 관계자는 "'독자 AI 파운데이션 모델 개발' 사업에 지원했던 기업들이 대부분 의료·바이오 부문이었던 데다, 우리나라의 강점인 제조 산업의 업무 혁신을 이끌 수 있는 도면 AI 기술이 아직은 부족하다는 점에서 이 부분을 강조하는 업체들이 이번에 많은 점수를 받을 듯 하다"며 "강릉 가뭄 사태처럼 기후 위기에 대한 고민도 점차 늘어나고 있는 만큼 기후 테크를 강조한 기업들도 가점을 받을 가능성이 높아 보인다"고 말했다. 과기정통부 관계자는 "이번 프로젝트는 개발된 모델을 오픈소스로 공개해 국내 AI 생태계 전반의 기술력을 끌어올리는 것을 지향한다"며 "모델의 오픈소스 공개 수준에 따라 참여 기업의 사업비 부담을 다르게 적용해 적극적인 개방을 유도할 방침"이라고 밝혔다.

2025.09.05 16:05장유미 기자

정부, 'AI 특화 파운데이션 모델' 개발 본격화…다음달까지 공모

정부가 기존 '독자 인공지능(AI) 파운데이션 모델 프로젝트'와 병행해 국가 강점 분야를 겨냥한 '특화 파운데이션 모델' 개발이라는 투트랙 전략으로 글로벌 시장 선점에 나선다. 과학기술정보통신부(과기정통부)는 정보통신산업진흥원(NIPA)과 함께 'AI 특화 파운데이션 모델 프로젝트'에 참여할 팀을 공모한다고 5일 밝혔다. 접수는 다음달 13일까지 진행해 평가를 통해 총 2개 팀을 선정한다. 선정된 팀에는 최신 그래픽처리장치(GPU)인 엔비디아 'B200'을 팀당 256장(32노드)씩 총 512장 규모로 지원한다. 지원 기간은 오는 11월부터 내년 9월까지다. 1단계에 5개월 간 지원한 후 단계평가를 거쳐 2단계 지원 여부를 결정한다. 이번 사업은 범용 모델을 개발하는 '독자 AI 파운데이션 모델 프로젝트'와는 별개로 추진된다. 특정 전문 분야에서 우리나라가 가진 강점을 AI 기술과 결합해 독자적인 특화 모델과 서비스를 확보하는 것이 목표다. 특히 이번 프로젝트는 개발된 모델을 오픈소스로 공개해 국내 AI 생태계 전반의 기술력을 끌어올리는 것을 지향한다. 정부는 모델의 오픈소스 공개 수준에 따라 참여 기업의 사업비 부담을 다르게 적용해 적극적인 개방을 유도할 방침이다. 이 프로젝트에는 국내 AI 기업과 대학 연구기관 등이 단독 또는 컨소시엄을 구성해 참여할 수 있으며 참여팀이 적용 분야와 개발 방법론 등을 주도적으로 제시해야 한다. 대학은 반드시 주관이나 참여기관으로 참여해야 하고 대기업은 주관사가 아닌 참여사로만 함께할 수 있다. 해외 기업 역시 모델 개발이 아닌 글로벌 서비스 개발에 한해서만 참여가 가능하다. 평가는 ▲기술력 및 개발경험 ▲개발 목표 ▲시장성 및 파급효과 등 세 가지 기준을 중심으로 이뤄진다. 평가위원회는 참여팀이 제시한 목표 달성 여부와 성과의 혁신성을 5개월 단위로 점검해 후속 지원을 결정할 방침이다. 프로젝트에 사용될 GPU는 엘리스그룹이 공급한다. 수냉식 냉각 기술이 적용된 이동식 모듈형 데이터센터를 통해 제공돼 에너지 효율을 높이고 안정적인 운영을 지원한다. 최종 평가에서 우수한 성과를 낸 과제는 정부가 구매한 GPU를 추가로 지원받아 후속 모델 개발을 이어갈 수 있다. 과기정통부는 오는 15일 서울 엘타워에서 사업설명회를 열어 구체적인 내용을 안내할 계획이다. 배경훈 과학기술정보통신부 장관은 "'독자 AI 파운데이션 모델' 프로젝트와 병행해 글로벌 시장에서 경쟁력을 갖춘 특화 파운데이션 모델 확보하는 것은 국가 AI 생태계 확장 측면에서 굉장히 중요하다"며 "이번 프로젝트를 통해 AI 기술역량과 노하우가 교류되는 산·학·연 협력체계가 한층 강화돼 국내 생태계가 활성화되길 기대한다"고 밝혔다.

2025.09.05 16:01조이환 기자

정부, '특화 AI' 사업자 선정 9월 초 '윤곽'…GPU 지원 2차 기회 열린다

정부가 추진하는 '특화 인공지능(AI)' 모델 육성 사업이 이달 초 본격적인 사업자 선정 절차에 돌입할 전망이다. '독자 AI 파운데이션 모델' 프로젝트에 이은 후속 지원책으로, AI 기술 경쟁의 핵심 자원인 그래픽처리장치(GPU)를 확보할 '제2의 기회'가 열리면서 업계의 이목이 쏠린다. 1일 업계에 따르면 과학기술정보통신부는 이달 초 '(가칭)인공지능 특화모델 프로젝트' 참여팀 공모를 시작할 예정이다. 당초 지난달 말 공고가 예상됐으나 정부의 내부 조율을 거쳐 9월 초로 구체화돼 가는 것으로 전해졌다. 이번 사업은 범용 거대언어모델(LLM)과 달리 특정 산업 분야에 최적화된 AI를 육성하는 데 초점을 맞춘다. 의료, 제조 등 전문 분야에서 즉각적인 성과를 낼 수 있는 특화 모델을 확보해 글로벌 시장을 선점한다는 복안이다. 이를 위해 정부는 엘리스그룹으로부터 추가 확보한 엔비디아의 최신 GPU 'B200' 512장을 지원한다. 앞서 '독자 AI 파운데이션 모델' 프로젝트 사업자로 최종 선정된 ▲네이버클라우드 ▲업스테이지 ▲SK텔레콤 ▲NC AI ▲LG AI연구원 등 5개 팀 외 기업들에게는 기술 개발에 필수적인 컴퓨팅 자원을 확보할 절호의 기회다. 이 때문에 이번 공모는 '독자 AI' 사업에 선정되지 못했거나 막대한 GPU 자원 확보에 어려움을 겪던 AI 기업들의 지원책으로 여겨지며 높은 관심을 받아왔다. 과기정통부 관계자는 이와 관련해 "현재 부처 내에서 공개 시점을 내부 조율하고 있다"며 "9월 초반 정도에는 정해질 듯하다"고 말했다.

2025.09.01 10:32조이환 기자

네이버, KAIST·서울대와 AI 인재 동맹…국가대표 인력 확보 나선다

네이버클라우드가 국내 주요 5개 대학과 손잡고 국가대표급 인공지능(AI) 인재 양성에 나선다. 학생에게는 현장 경험을, 기업에는 우수 인재 확보 기회를 제공해 국내 AI 생태계의 선순환 구조를 만들겠다는 구상이다. 네이버클라우드는 지난 22일 성남 네이버 1784에서 '독자 AI 파운데이션 모델' 프로젝트의 일환으로 산학협력 컨소시엄 협약식을 개최했다고 25일 밝혔다. 이 자리에는 카이스트, 서울대학교, 포항공과대학교, 고려대학교, 한양대학교 등 5개 대학의 교수진과 학생 100여 명이 참석했다. 이 회사는 '산학협력 레지던시 프로그램'을 통해 컨소시엄에 소속된 석박사 과정 학생 30-40여 명을 지원한다. 이들은 연구에만 전념하며 AI 모델 개발과 응용 연구를 공동으로 추진하게 된다. 더불어 이번 협력은 학생들에게 실제 산업 현장에서의 모델 개발 경험을 제공한다. 기업 입장에서는 우수 인재를 조기에 발굴하고 확보할 기회가 열려 산학이 함께 성장하는 선순환 구조를 구축한다는 방침이다. 컨소시엄에는 글로벌 영상 멀티모달 AI 스타트업 트웰브랩스도 참여한다. 네이버클라우드는 자사의 음성·언어 기술에 트웰브랩스의 비전 AI 역량을 결합해 '옴니모델 AI'를 구현할 계획이다. 성낙호 네이버클라우드 하이퍼스케일 기술총괄은 "이번 컨소시엄은 기업과 학계가 각자의 강점을 결합해 미래 AI 인재를 양성하고 국가 차원의 기술 주권과 글로벌 경쟁력을 강화하는 중요한 토대가 될 것"이라며 "단순한 기술 개발을 넘어 국민 누구나 체감할 수 있는 AI 활용 경험으로 이어지도록 완성도를 높여갈 것"이라고 밝혔다.

2025.08.25 11:48조이환 기자

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

AI·반도체가 가리키는 전력 해답 ‘원전’ 국내외 급부상

[써보고서] 최대 200일 무관리 자동 세척...DJI 첫 로봇청소기 '로모'

[2026 주목! 보안기업] 로그프레소 "통합보안 수요 폭발...3월 신제품 출시"

고 구본무 회장 뚝심 'R&D 결실'…LG엔솔, 30년 발자취 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.