• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'독파모'통합검색 결과 입니다. (69건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

NC AI, 산업 맞춤형 AI '배키' 공개…글로벌 SOTA급 성능·한국어 최적화

NC AI가 대한민국 주력 산업의 AI 전환(AX)을 가속하기 위해 확장 가능한 멀티모달 생성용 파운데이션 모델을 선보였다. NC AI는 멀티모달 생성용 파운데이션 모델 '배키(VAETKI)'를 공개했다고 8일 밝혔다. '배키'는 'Vertical AI Engine for Transformation of Key Industries' 약자로, 국내 산업현장에 최적화된 소버린 AI를 지향한다. NC AI의 자체 성능평가 결과 배키 100B 모델은 오픈AI 'GPT OSS', 메타 '라마(Llama)' 등 현존하는 글로벌 SOTA(최고 성능) 오픈소스 모델과 비교해 대등하거나 이를 상회하는 성능을 기록하며 기술적 완성도를 높였다. 배키는 10조 토큰의 방대한 코퍼스를 바탕으로 학습됐다. 특히 토크나이저 어휘의 20%를 한국어에 할당하고 고어까지 처리 가능한 한글 조합 기능을 포함했다. 이를 통해 유사한 파라미터 규모를 가진 GPT-OSS-120B 시리즈와 한국어 주요 벤치마크 3종에서 평균 101% 우세한 성능을 기록했다. 한국어 외 글로벌 주요 벤치마크 지표 평균에서도 메타의 '라마4 스카우트(Llama4 Scout)' 대비 약 1.9배에 달하는 성능 우위를 점했다. 지시 이행 능력(IFeval)에서 265%, 박사 수준 추론능력(HLE) 영역에서 137% 성능 수치를 기록했다. 배키는 산업 확산을 위한 '효율성'과 '확장 가능성'을 강점으로 한다. 배키는 모델 크기를 키우면서도 운영 효율성을 극대화하기 위해 혼합 전문가(MoE) 아키텍처를 도입했다. 차세대 어텐션 기술인 MLA(Multi-Latent Attention)와 국소-전역 인터리빙(Local-Global Interleaving) 기법을 결합해 기존 방식 대비 KV 캐시 메모리 사용량도 약 83% 절감했다. 대규모 AI 도입을 검토하는 기업들 인프라 운영 부담을 낮춘 셈이다. 또 모델이 답변에 도달하는 논리적 과정을 보여주는 '싱크(think) 구조'를 채택해 국방, 제조, 금융 등 높은 신뢰도가 요구되는 분야의 의사결정 지원에 최적화했다. 이연수 NC AI 대표는 "배키는 단순히 글로벌 기술을 따라잡는 것을 넘어, 대한민국 주력 산업이 AI를 무기 삼아 글로벌 시장을 선도하게 만드는 전략적 자산이 될 것"이라며 "독자적인 도메인 옵스 기술력을 바탕으로 산업 현장에서 실제 가치를 창출하는 소버린 AI 생태계를 구축하겠다"고 말했다.

2026.01.08 11:32이나연 기자

[AI 리더스] 'AI 표준' 만든 이승현 "K-AI 5곳, 모두 승자…톱2 집착 버려야"

"독자 인공지능(AI) 파운데이션 모델(K-AI) 사업자로 선정된 5곳은 사실상 모두 승자입니다. 2개 사업자만 선별해 정부가 지원하기 보다 각 팀이 짧은 시간 안에 각자의 방식으로 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점을 인정해야 합니다. 정부가 각 모델의 특성과 강점을 살릴 수 있는 지원책을 마련한다면 국내 AI 생태계도 훨씬 건강해질 수 있을 것입니다." 이승현 포티투마루 부사장은 8일 지디넷코리아와의 인터뷰를 통해 최근 독자 AI 파운데이션을 둘러싼 논란에 대해 이같이 정리했다. 오는 15일께 정부가 1차 탈락팀을 결정하기 전 각 업체들이 '이전투구' 양상으로 치닫는 모습을 보이는 것을 두고 정부가 2개팀만 선별해 지원하려는 구조 때문이라고도 진단했다. 또 이번 논란의 본질이 기술 경쟁이 아니라 구조적 문제에 있다고 봤다. 정부가 2개 사업자만 선별해 집중 지원하는 방식이 계속 유지되면 탈락 기업에 과도한 낙인이 찍히고 업계 전체가 방어적·공격적으로 변할 수밖에 없다고 분석했다. 성능 경쟁보다 통제 원칙 우선돼야…소버린 AI 기준 마련 필요 정부는 현재 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 독자 AI 파운데이션 모델 사업자로 선정된 5개 정예팀을 대상으로 1차 심사를 진행 중이다. 탈락팀 1곳은 오는 15일쯤 발표할 예정으로, 정예팀마다 평가 기준이 상이해 업계에선 각 업체별 모델을 두고 유불리 논란이 이어지고 있다. 이 부사장은 "정부 사업에서 탈락하면 해당 팀이 '사망선고'를 받는 것처럼 여겨지는 구조는 바람직하지 않다"며 "톱2만 키우는 방식은 산업 전체를 위축시킬 가능성이 높은 만큼, 선별보다 육성 중심의 정책 전환을 고민해야 한다"고 제언했다. 특히 이번 사업에 참여한 기업 상당수가 대기업 또는 대기업 계열이라는 점에서 1차 탈락이 갖는 파급력은 더 크다고 봤다. 그는 "1차에서 떨어졌다는 이유만으로 '이 정도밖에 못하느냐'는 평가가 붙으면 내부 투자나 그룹 차원의 지원이 위축될 가능성도 배제하기 어렵다"며 "그 부담이 기업을 더욱 공격적인 대응으로 몰아넣는다"고 진단했다.이에 이 부사장은 '선별'이 아닌 '육성'을 초점에 맞춘 정부 정책이 마련될 필요가 있다고 강조했다. 일정 수준 이상의 역량을 입증한 기업들을 여러 트랙으로 나눠 지속적으로 키우는 구조가 필요하다는 것이다. 그는 "영국 등 해외 사례를 보면 한 번 떨어졌다고 끝나는 게 아니라 다른 트랙으로 계속 경쟁과 육성을 이어간다"며 "이번에 선정된 5개 기업 역시 각자 다른 강점과 방향성을 갖고 있는 만큼, 정부가 이들을 '탑위너 그룹'으로 묶어 장기적으로 관리하는 전략이 필요하다"고 말했다.이 부사장은 소버린 AI를 둘러싼 논의 역시 '전면 강제'가 아니라 '위험 구간에서의 원칙'으로 재정의해야 한다고 강조했다. 글로벌 모델과의 성능 경쟁을 목표로 삼기보다 투명성을 바탕으로 통제 가능성과 주권 확보가 필요한 영역에서 전략적으로 활용해야 한다고 주장했다. 그는 "공공 영역만 보더라도 정보 등급에 따라 활용 원칙이 달라야 한다"며 "오픈 데이터나 공개 서비스 영역에서는 글로벌 모델이나 경량화 모델을 활용할 수 있지만, 민감정보·보안 등급으로 올라갈수록 소버린 모델을 원칙으로 삼는 방식이 합리적"이라고 말했다. 그러면서 "다만 소버린을 내세워 모든 것을 자체 모델로만 해결하려는 접근은 현실적이지 않다"며 "필요할 경우 월드모델 활용 등을 통해 안전한 방식의 연계·상호운용을 함께 고민해야 한다"고 덧붙였다. AI 정책, 구조적 한계 여실…공공 클라우드 전환 선행돼야 이처럼 이 부사장이 분석한 이유는 과거 공공 정책 현장에서 직접 경험한 구조적 한계가 지금도 크게 달라지지 않았다고 판단해서다. 그는 디지털정부플랫폼위원회 재직 당시부터 AI 시대를 준비하기 위해 공공 시장의 클라우드 전환이 선행돼야 한다고 꾸준히 주장해왔다. 이 부사장은 "지난 2022년 3월 무렵부터 공공이 AI 시대를 이야기하면서도 정작 기반이 되는 클라우드 전환은 제대로 이뤄지지 않는 점이 가장 큰 한계라고 봤다"며 "AI를 서비스(SaaS) 형태로 도입하려면 클라우드가 전제가 돼야 하는데, 공공 영역의 전환 속도가 이를 따라가지 못했다"고 설명했다. 그는 이에 대한 원인으로 ▲클라우드 전환 지연 ▲예산·제도 구조 ▲관료제의 연속성 부족을 꼽았다. 이 부사장은 "정부 예산 구조상 ISP 등 절차를 거치면 최소 2~3년이 소요되는데, 이 방식으로는 빠르게 변하는 AI 흐름을 따라가기 어렵다"며 "AI처럼 중장기 전략이 필요한 분야에서 담당 보직이 자주 바뀌면 학습 비용이 반복되고 정책 추진의 일관성도 흔들릴 수밖에 없다"고 지적했다. 또 그는 "이 때문에 국가AI전략위원회와 같은 컨트롤타워 조직에는 보다 실질적인 권한과 연속성이 필요하다"며 "전문가 의견을 모으는 데서 그치지 않고, 부처 간 정책을 조정하고 실행으로 연결할 수 있도록 조직에 힘을 실어줘야 한다"고 강조했다.다만 이 부사장은 제도 개선의 필요성을 강조하는 것만으로는 AI 정책의 한계를 넘기 어렵다고 봤다. 정책이 실제 서비스와 산업 현장으로 이어지지 못하는 구조가 반복되고 있다고 판단해서다. 이에 디지털플랫폼정부위원회 AI플랫폼혁신국장을 맡았던 이 부사장은 지난 달 포티투마루로 자리를 옮겼다. 이곳에서 공공 정책 설계 경험을 바탕으로 공공·민간 영역에서 AI가 실제 서비스로 구현되고 확산되는 구조를 만드는 데 직접 기여할 것이란 각오다. 또 공공 AI 활용 사례를 통해 스타트업과 중소기업이 함께 성장할 수 있는 실증 모델을 만드는 데도 집중할 계획이다. 이 부사장은 "4년간 공공 영역에서 AI 정책을 다루며 나름대로 전문성을 쌓았다고 생각했지만, 실제 현장에서는 또 다른 병목이 존재하고 있다고 판단됐다"며 "AI 강국이 되려면 결국 국민이 체감해야 한다"고 지적했다.이어 "공공 영역에서 AI를 통해 일하는 방식 혁신을 통해 생산성을 높이고, 대국민 서비스의 속도와 품질을 개선하며 의료·복지 등 사회 문제 해결로 이어져야 가능한 일"이라며 "포티투마루를 통해 공공 AI가 실제로 작동하는 사례를 만들고, 스타트업과 중소기업이 함께 성장할 수 있는 구조를 현장에서 증명하고 싶다"고 덧붙였다. 그러면서 "국내 소프트웨어 산업은 여전히 공공이 큰 축을 차지하고 있는데, 공공 시장이 SI 중심 구조에 머물러 있다 보니 스타트업이 성장할 수 있는 발판이 제한적"이라며 "영국 등은 정부가 클라우드 기반으로 전환하면서 스타트업들이 공공 시장에 자연스럽게 진입했지만, 한국은 제도와 조달 구조가 이를 가로막고 있다"고 지적했다. 소버린 AI 등급체계 직접 개발…'국산 AI' 논쟁 끝낼까 지난 6일 소버린 AI 기준 논의를 위해 직접 평가 기준과 이를 판별할 도구를 개발해 허깅페이스에 공개한 것도 이 같은 문제에 대한 고민에서 출발했다. 그는 소버린 AI 등급 체계인 'T-클래스 2.0'을 깃허브와 허깅페이스에 공개하며 막연한 '국산 AI' 구호로는 기술 주권을 설명할 수 없다는 점을 분명히 했다. 이 부사장이 제안한 'T-클래스 2.0'은 기존 논의와 달리 '설계(Code)', '지능(Weights)', '기원(Data)' 등 세 가지 실체적 기준을 중심으로 AI 모델을 T0부터 T6까지 7단계로 구분한다. ▲단순 API 호출 및 미세조정 수준(T0~T1) ▲오픈 웨이트를 활용한 과도기 모델(T2~T3) ▲소버린 AI의 기준점이 되는 아키텍처를 참조하되 가중치를 처음부터 자체 학습한 T4 ▲독자 설계 아키텍처와 한국어 토크나이저를 갖춘 T5 ▲국산 반도체·클라우드까지 결합한 T6 등으로 분류됐다. 이 중 T4를 T4-1과 T4-2로 세분화한 것이 기존 버전과의 차별점이다. T4-1은 표준 아키텍처를 그대로 유지한 채 가중치를 처음부터 학습한 모델이다. 데이터 주권은 확보했지만, 구조적 독창성은 제한적인 단계다. 반면 T4-2는 기존 아키텍처를 참고하되 레이어 구성, 파라미터 규모, 연산 구조 등을 최적화·확장한 모델로, 글로벌 표준을 활용하면서도 기술 주권까지 일정 수준 확보한 단계로 분류된다. 이 부사장은 "T4-1이 '데이터 소버린' 단계라면, T4-2는 '기술 소버린'에 한 발 더 다가간 모델"이라며 "현재 국내 독자 AI 파운데이션 모델로 선정된 팀 대부분은 모두 T4-2 영역에 해당하는 질적 변형을 수행했다는 점에서 충분히 평가받아야 한다"고 말했다. 이어 "아키텍처는 이미 범용 기술이 됐지만, 가중치는 국가가 소유해야 할 자산"이라며 "T4는 아키텍처라는 그릇을 빌리더라도 데이터와 연산, 결과 지능을 우리가 통제하는 실질적 소버린 모델"이라고 덧붙였다. 일각에서 독자 아키텍처(T5)까지 가야 진짜 소버린으로 인정할 수 있다는 주장에 대해선 "현실을 외면한 기술적 순혈주의"라고 선을 그었다. 또 수백억원을 들여 아키텍처를 처음부터 다시 만들어도 글로벌 표준 모델 대비 성능 우위를 확보하기는 쉽지 않다는 점도 분명히 했다. 이 부사장은 "대다수 기업에게는 아키텍처 재발명보다 고품질 데이터와 학습 인프라에 집중하는 것이 더 합리적인 전략"이라며 "T4는 산업의 허리를 튼튼하게 만드는 표준 전략이고, T5는 국가 안보와 기술 패권을 겨냥한 리더십 전략으로 두 트랙이 함께 가야 생태계가 건강해진다"고 강조했다. 이 기준을 구현한 '소버린 AI 판별 도구(Sovereign AI T-Class evaluator 2.0)'를 직접 개발해 공개한 이유에 대해서도 그는 투명성을 거듭 강조했다. 이 부사장은 "AI 개발은 참조와 변형의 경계가 매우 모호한 회색지대"라며 "명확한 가이드 없이 결과만 놓고 개발자를 비난하는 것은 부당하다"고 말했다. 그러면서 "기준이 없으니 불필요한 논쟁과 감정 싸움만 커진다"며 "누구나 같은 잣대로 설명할 수 있는 최소한의 공통 기준이 필요하다고 판단했다"고 덧붙였다. 실제로 해당 기준 공개 이후 업계에서는 "왜 이제야 이런 기준이 나왔느냐", "사실상 표준으로 삼을 만하다"는 반응이 이어지고 있다. 또 정부에서 이 부사장이 만든 'T-클래스 2.0'을 바탕으로 독자 AI 파운데이션 모델의 평가 기준이 구체적으로 만들어져 심사 투명성을 높여야 한다는 지적도 나왔다. 이 같은 분위기 속에 이 부사장은 독자 AI 논의가 현재 단계에만 머물러서도 안 된다고 지적했다. 또 현재의 혼란이 단기적인 사업 논쟁이 아니라 AI를 국가 전략 차원에서 어떻게 바라볼 것인가에 대한 더 큰 질문으로 이어지고 있다고 봤다. 그는 "독파모가 보여주기식 경쟁이나 단기 성과에 머물면, 월드모델·디지털 트윈·피지컬 AI로 이어지는 다음 스테이지를 놓칠 수 있다"며 "국가 R&D는 지금보다 한 단계 앞을 내다보는 구조여야 한다"고 강조했다. AGI 시대, 5년 내 현실화…AI 국가 전략, 체계적 마련 필요 이 부사장은 AI 경쟁의 종착점을 단기적인 모델 성능 비교에 두는 것 자체가 위험하다고도 경고했다. 그는 AGI(범용인공지능)가 5년 안에 현실화될 가능성이 높다고 전망하며 그 이후를 대비하지 않는 전략은 국가 차원에서도 지속 가능하지 않다고 지적했다. 그는 "AGI는 단순히 모델이 더 똑똑해지는 문제가 아니라 기억 구조와 추론 방식이 인간의 뇌를 닮아가는 단계"라며 "지금 구글이 시도하고 있는 중첩학습처럼 단기·중기·장기 기억을 분리·결합하는 구조는 거대언어모델(LLM) 이후를 준비하는 명확한 신호"라고 말했다. 그러면서 "글로벌 빅테크들은 이미 다음 스테이지를 보고 있다"며 "하지만 우리는 아직 현재 모델이 프롬 스크래치냐 아니냐에만 머물러 있는 건 아닌지 돌아봐야 한다"고 덧붙였다. 이 부사장은 AGI와 ASI(초지능)를 막연한 공포의 대상으로 보는 시각에도 선을 그었다. 그는 "인류는 오래전부터 인간을 능가하는 지능이 등장해 우리가 해결하지 못한 문제를 풀어주길 기대해왔다"며 "중요한 것은 AGI·ASI 자체가 아니라 그것을 어떤 문제 해결을 위해 어떻게 통제하고 활용할 것인가에 대한 고민"이라고 봤다. 이어 "AI를 두려워하기보다 인류 난제 해결이라는 방향성 속에서 통제권을 쥐는 것이 국가 전략의 핵심"이라고 강조했다. 이 부사장은 이 같은 고민을 담아 다음 달께 'AI 네이티브 국가'를 출간할 계획이다. 이 책에는 모델 개발을 넘어 지정학, 경제, 복지, 산업 구조 전반에서 AI가 국가 경쟁력을 어떻게 재편하는지에 대한 고민을 고스란히 담았다. 또 메모리 반도체, 제조 데이터, 클라우드 인프라를 동시에 보유한 한국의 구조적 강점을 짚으며 AI 시대에 한국이 '풀스택 국가'로 도약할 수 있는 전략도 함께 제시할 계획이다. 그는 "국내 AI 논의가 기술 우열이나 모델 성능에만 매몰돼 있는 흐름을 벗어나고 싶었다"며 "같은 기술이라도 국가가 어떤 전략을 취하느냐에 따라 결과는 전혀 달라질 수 있다는 점을 책을 통해 정리하고 싶었다"고 설명했다.마지막으로 그는 "AI를 둘러싼 지금의 혼란은 누군가가 틀렸기 때문이 아니라 기준과 구조가 없었기 때문"이라며 "논쟁을 줄이고 경쟁을 건강하게 만들 수 있는 최소한의 합의점을 만드는 데 앞으로도 계속 목소리를 낼 것"이라고 피력했다.

2026.01.08 10:10장유미 기자

[유미's 픽] 고석현發 中 모델 의혹에 정부도 '움찔'…국가대표 AI 개발 경로까지 본다

정부가 독자 인공지능(AI) 파운데이션 모델 프로젝트 정예 5개 팀을 대상으로 최종 모델뿐 아니라 복수의 중간 학습 기록까지 제출받아 검증하기로 하면서 국가 AI 사업의 평가 기준이 성능 경쟁에서 개발 경로 검증 중심으로 전환되고 있다. 업스테이지의 '솔라 오픈 100B'를 둘러싼 모델 유사성 논란을 계기로, 정부가 '프롬 스크래치(from scratch)' 여부를 기술적으로 입증하는 체계를 본격화했다는 해석이 나온다. 4일 과학기술정보통신부에 따르면 정부는 다음 주부터 평가를 진행해 오는 15일께 독자 AI 파운데이션 모델 프로젝트 정예 5개 팀 중 한 팀을 탈락시킨다. 이번 평가에서는 모든 팀으로부터 최종 모델 파일과 함께 복수의 중간 체크포인트(checkpoint)를 제출받아 전문기관인 한국정보통신기술협회(TTA)를 통해 면밀한 기술 검증을 실시할 예정이다. 중간 체크포인트는 AI 모델이 학습 과정에서 일정 단계마다 저장한 가중치 상태로 ▲모델이 랜덤 초기화에서 출발했는지 ▲학습이 연속적인 경로를 거쳤는지 ▲외부 모델 가중치가 중간에 유입됐는지 여부를 사후적으로 확인할 수 있는 핵심 자료다. 단일 최종 결과물만으로는 확인하기 어려웠던 개발 이력을 추적할 수 있다는 점에서 업계에선 이번 방침을 프롬 스크래치 주장에 대한 증빙 책임을 제도화한 조치로 보고 있다.배경훈 과학기술정보통신부 부총리 겸 장관은 "평가 과정에서 모든 정예팀으로부터 개발 모델의 최종 파일과 복수의 중간 체크포인트 파일 등을 제출받아 검증할 예정"이라며 "전문가 평가위원회를 통해서도 같은 자료를 바탕으로 계획에 부합한 AI 모델이 개발됐는지 여부를 검증해 확인할 것"이라고 설명했다. 정부가 이처럼 나선 것은 고석현 사이오닉에이아이 대표가 지난 1일 업스테이지의 독자 AI 프로젝트 모델 '솔라 오픈 100B'가 중국 AI를 도용·파생했다는 의혹을 제기한 것이 계기가 됐다. 고 대표는 '솔라 오픈 100B'의 기술 분석 자료를 공개하고 중국 지푸AI의 'GLM-4.5-에어' 모델에 기반을 둔 파생 모델이라고 의혹을 제기했다. 또 정부가 독자 AI 프로젝트의 참여 조건으로 제시한 프롬 스크래치(처음부터 만드는 것) 방식으로 학습된 모델이라면 나타나기 어려운 유사도라고 강조했다.이에 업스테이지는 곧바로 다음날 서울 강남역 인근에서 기술 공개 검증 행사를 열어 단순 레이어 유사성만으로 모델 파생 여부를 단정하는 것은 무리가 있다고 반박했다. 김성훈 업스테이지 대표는 "학습된 다른 모델의 가중치를 그대로 가져왔다면 프롬 스크래치가 아니지만, 모델 아이디어나 인퍼런스 코드 스타일을 참조하는 건 허용된다"며 "오픈소스 생태계에서 모델이 상호 호환되려면 구조가 비슷해야 한다"고 주장했다. 이후 문제를 제기한 고 대표는 또 다른 게시물을 통해 "상이한 모델도 레이어 값에선 높은 유사도를 보일 수 있다고 본다"면서도 "중국 모델 코드와 구조를 잘 학습하는 게 국가적인 AI 사업의 방향으로 타당한지는 의문"이라고 재차 문제를 제기했다. 이를 두고 업계에선 고 대표가 제시한 분석이 기술적으로 성립하기 어렵다는 점을 지적하며 전반적으로 업스테이지의 손을 들어줬다. 고 대표 역시 이날 또 다시 입장문을 통해 자신의 분석 방법에 한계가 있었음을 인정하며 "해당 근거를 보다 엄밀하게 검증하지 않은 채 공개함으로써 불필요한 혼란과 논란을 야기했다"고 사과했다. 그러나 고 대표는 이번 사안을 단순한 기술적 도용 논쟁이 아니라 '소버린 AI'와 '독자 파운데이션 모델'의 기준을 어떻게 정의할 것인가에 대한 구조적 질문으로 봐야 한다는 입장은 여전히 유지했다. 해외 모델의 코드나 구조를 참고·학습하는 방식이 국가 주도 독자 AI 사업의 취지에 부합하는지, 독자성을 판단하는 기준이 기술·학술적으로 얼마나 명확히 정리돼 있는지에 대한 논의가 필요하다고도 주장했다. 일각에선 고 대표의 초기 문제 제기 방식에 대해선 비판적인 태도를 보였으나, 이번 논쟁을 통해 독자 AI 모델의 개발 경로, 외부 레퍼런스 활용 범위, 학습 과정 공개 수준 등에 대한 사회적 합의 필요성이 수면 위로 떠올랐다는 점에 대해선 긍정적으로 봤다. 업계 관계자는 "이번 논란은 누가 옳고 그르냐를 가르는 사건이라기보다 한국형 파운데이션 모델을 어떤 기준으로 검증하고 설명해야 하는지를 집단적으로 학습한 과정에 가깝다"며 "검증 로그 공개, 체크포인트 관리, 참고 문헌 표기 같은 관행이 정착되는 계기가 될 수 있다"고 말했다. 또 다른 관계자는 "(고 대표가) 의혹을 제기하는 과정에서는 분명히 성급했던 부분이 있었지만, 사과와 인정이 공개적으로 이뤄졌다는 점 자체가 국내 AI 생태계의 성숙도를 보여주는 장면"이라며 "장기적으로는 정부 프로젝트 전반의 신뢰성을 높이는 방향으로 이어질 가능성이 크다"고 평가했다.정부 역시 이번 사안을 계기로 독자 AI 파운데이션 모델 프로젝트의 평가 기준을 보다 구체화해야 한다는 과제를 안게 됐다. 성능 중심 평가를 넘어 학습 경로의 투명성, 외부 기술 활용에 대한 명확한 가이드라인, 검증 가능한 공개 방식 등이 제도적으로 보완될 필요가 있다는 지적이다.이번 일에 대해 배 부총리는 긍정적으로 평가하며 독자 AI 파운데이션 모델의 검증 체계를 보완해야 할 필요성을 언급했다. 또 이번 사안을 계기로 정부가 정의한 '독자 AI 파운데이션 모델'을 어떻게 기술적으로 검증할 것인가에 대해서도 고민하는 모습을 보였다. 그는 지난 3일 자신의 소셜 미디어(SNS)를 통해 "데이터 기반의 분석과 이에 대해 공개 검증으로 답하는 기업의 모습은 우리 AI 생태계가 이미 글로벌 수준의 자정 작용과 기술적 투명성을 갖추고 있음을 보여준다"며 "성장통 없는 혁신은 없다"고 밝혔다. 이어 "의혹 제기는 할 수 있는 것"이라며 "이를 공개 검증으로 증명한 기업과 인정하고 사과한 문제 제기자 모두에게 감사하다"고 덧붙였다.국가AI전략위원회 관계자들도 이번 일에 대해 긍정적으로 평가했다. 박태웅 국가AI전략위원회 공공 AX 분과장은 "순식간에 다양한 검증과 토론이 이뤄지는 과정을 통해 한국 AI 생태계의 저력을 확인했다"고 말했다. 임문영 국가AI전략위원회 부위원장 역시 "검증 논란을 통해 방법의 한계와 개선점이 드러났고, 이는 AI 생태계가 건강하게 작동하고 있음을 보여준다"고 밝혔다.조준희 국가AI전략위원회 산업 AX·생태계 분과장도 최근 독자 파운데이션 모델의 유사성 논란이 건강한 기술 토론으로 이어진 점을 매우 고무적이라고 평가했다. 그러면서도 이제는 기술의 원천에 대한 논쟁을 넘어 '우리 모델이 글로벌 빅테크 대비 어떠한 차별적 경쟁력을 갖출 것인가'라는 소비자 관점의 본질에 집중해야 한다는 점도 강조했다. 그는 "'독자 기술'이라는 명분에만 함몰되면 정작 사용성이 뒤처져 시장에서 외면 받는 결과를 초래할 수 있다"며 "모델의 성패가 사용자의 선택에 달려 있다"고 밝혔다. 이어 "국내 모델이 지속 가능한 선순환 구조를 만들려면 적시성 있는 답변과 높은 활용도 등 철저히 고객 친화적 개발 방향을 견지해야 할 것"이라며 "5개 컨소시엄들이 이 기술을 어떻게 '잘 팔리는 서비스'와 '매력적인 상품'으로 연결할지 치열하게 고민해야 할 시점"이라고 덧붙였다. 다만 일각에선 정부가 '프롬 스크래치'를 어디까지 허용할 것인지에 대한 세부 기술 기준을 공식 문서로 명시하진 않았다는 점에서 여전히 우려를 나타냈다. 오픈소스 아키텍처 활용 범위, 구조적 유사성의 허용선, 토크나이저 재사용 여부 등은 여전히 정책적 해석의 영역으로 남아 있어서다. 업계에선 이번 정부 방침을 독자 AI 평가가 '결과물 중심'에서 '개발 경로와 증빙 책임 중심'으로 이동하고 있음을 보여주는 신호로 받아들이는 분위기다. 성능 지표만으로는 설명할 수 없는 '독자성'을 앞으로 학습 이력과 로그로 입증해야 하는 단계에 들어섰다는 점에서 고무적으로 평가했다. 업계 관계자는 "이번 논란은 누가 맞고 틀렸는지를 가리는 사건이라기보다 한국 AI 생태계가 공개 검증과 공개 토론을 감당할 수 있는 단계에 들어섰음을 보여준 사례"라며 "이 경험이 제도와 기준으로 남는다면 독자 AI를 둘러싼 논쟁은 반복되지 않을 것"이라고 말했다. 배 부총리는 "지금의 논쟁은 대한민국 AI가 더 높이 도약하기 위해 반드시 거쳐야 할 과정"이라며 "정부는 공정한 심판이자 든든한 페이스메이커로서 우리 AI 생태계가 성숙하게 발전할 수 있도록 역할을 다하겠다"고 밝혔다.

2026.01.04 06:00장유미 기자

[유미's 픽] 뿔난 업스테이지, '솔라 오픈 100B' 中 모델 파생 의혹에 공개 검증 '맞불'

정부에서 추진 중인 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참가한 업스테이지가 첫 성과를 공개한 후 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델을 제출했다는 의혹에 휩싸였다. 업스테이지는 억울함을 표하며 모델 공개 검증 행사와 함께 향후 의혹 제기에 대해 강경 대응에 나설 것을 시사했다. 1일 업계에 따르면 고석현 사이오닉에이아이 대표는 이날 자신의 소셜 미디어(SNS)에 깃허브 리포트를 게재하며 업스테이지 '솔라 오픈 100B'가 중국 지푸(Zhipu) AI의 'GLM-4.5-에어'에서 파생된 모델이라고 주장했다. 고 대표는 "국민 세금이 투입된 프로젝트에서 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델이 제출됐다"며 "상당히 큰 유감"이라고 말했다. 이번 논란은 이날 오후 1시께 올라온 깃허브 리포트가 발단이 됐다. 이 리포트는 '솔라 오픈 100B'와 'GLM-4.5-에어'의 가중치 구조를 통계적으로 비교 분석한 결과를 담고 있다. 앞서 업스테이지는 지난 달 30일 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 '프롬 스크래치(From Scratch)'를 기반으로 개발했다고 소개했다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 하지만 리포트 작성자는 '솔라 오픈 100B'와 'GLM-4.5-에어' 두 모델의 레이어별 파라미터 유사도를 측정한 결과 일부 계층에서 매우 높은 수준의 유사성이 관측됐다고 설명했다. 또 동일 모델 내부 레이어 비교보다 솔라와 GLM 간 동일 레이어 비교에서 더 높은 유사도가 나타났다고 주장하며, 이를 근거로 솔라 오픈 100B가 GLM-4.5-에어에서 파생됐다고 결론 내렸다. 다만 일각에서는 해당 분석이 두 모델의 학습 과정이나 개발 경로를 직접 확인한 것이 아니라는 점에서 해석에 신중할 필요가 있다는 지적이 나온다. 공개된 모델 가중치를 기반으로 한 사후적 통계 비교 방식으로 진행된 데다 실제 학습에 사용된 데이터셋, 학습 로그, 내부 코드베이스 등은 검증 대상에 포함되지 않았기 때문이다. 특정 가중치가 그대로 복사됐거나 모델 바이너리 차원에서 직접적인 공유가 있었다는 증거 역시 이번에 제시되지 않았다. 이 같은 의혹 제기에 대해 업스테이지는 즉각 반박에 나섰다. 고 대표가 게시물을 올린 지 2시간 후 김성훈 업스테이지 대표는 자신의 페이스북을 통해 "솔라 오픈 100B가 중국 모델을 복사해 미세 조정한 결과물이라는 주장은 사실과 다르다"며 "해당 모델은 명백히 프롬 스크래치 방식으로 학습됐다"고 강조했다. 그러면서 김 대표는 오는 2일 오후 3시 서울 강남역 부근에서 솔라 오픈 100B의 개발 과정을 공개적으로 검증받겠다고 밝혔다. 이 자리에는 의혹을 제기한 고석현 대표를 포함해 추가 검증에 참여하고 싶은 업계 및 정부 관계자들을 초청할 계획이다. 또 업스테이지 측은 이후에도 이 같은 의혹이 제기될 경우 더 강경하게 대응할지에 대해서도 내부 검토에 착수했다. 김 대표는 "학습에 사용한 중간 체크포인트(checkpoint)와 AI 모델 학습 과정과 실험 결과를 기록·관리하는 도구인 '웨이츠 앤 바이어시스(Weights & Biases·wandb)'를 모두 공개할 예정"이라며 "명확한 검증 절차를 공개해 사실 관계를 바로잡도록 할 것"이라고 말했다. 업계에서는 이번 공개 검증이 논란의 분수령이 될 수 있다는 평가를 내놨다. 실제 학습 체크포인트와 로그가 공개될 경우 '솔라 오픈 100B'가 특정 시점에서 외부 모델을 기반으로 파인튜닝됐는지, 독립적인 학습 경로를 거쳤는지를 보다 명확히 확인할 수 있기 때문이다. 동시에 통계적 유사성만으로 모델 복제 여부를 단정하기는 어렵다는 신중론도 제기된다. 대규모 언어모델 개발 과정에서는 유사한 아키텍처와 데이터, 학습 레시피를 사용할 경우 높은 유사도가 나타날 수 있어서다. 또 지식 증류(distillation)나 합성 데이터 활용 여부에 따라 통계적 패턴이 겹칠 가능성도 존재한다는 지적도 나온다. 업계 관계자는 "이번 논란이 주목받는 이유는 해당 모델이 정부 예산이 투입되는 '독자 AI 파운데이션 모델 프로젝트'의 결과물이기 때문"이라며 "사업 취지상 해외 모델에 대한 기술적 의존 여부와 개발 과정의 투명성은 핵심적인 검증 대상이 될 수밖에 없다"고 설명했다. 그러면서 "결국 이번 사안의 핵심은 통계 분석을 둘러싼 해석 논쟁을 넘어 실제 개발 과정에 대한 객관적 검증으로 옮겨가고 있다"며 "업스테이지가 예고한 공개 검증을 통해 솔라 오픈 100B의 학습 경로와 독립성이 어느 수준까지 입증될지에 많은 관심이 쏠리고 있다"고 덧붙였다.또 다른 관계자는 "이번 논란이 특정 기업의 문제를 넘어 독자 AI 파운데이션 모델 사업 전반의 검증 기준을 끌어올리는 계기가 될 수 있다"며 "다른 참여 기업들 역시 향후 모델 공개 과정에서 학습 출처와 개발 경로에 대한 설명 책임이 더 커질 가능성이 있다"고 말했다.

2026.01.01 18:09장유미 기자

[유미's 픽] "주사위는 던져졌다"…국대 AI 첫 탈락자, 1차 발표회서 판가름?

우리나라를 대표할 인공지능(AI) 모델을 선발하는 정부 사업 '독자 AI 파운데이션 모델 프로젝트'의 첫 결과물이 공개된 가운데 어떤 기업이 이번 심사에서 살아남을지 관심이 집중된다. 각 사업자들이 내세운 모델의 성과가 달라 정부가 심사기준을 어떻게 세웠을지도 관심사다. 31일 업계에 따르면 네이버, LG AI연구원, SK텔레콤은 AI 임원, NC AI와 업스테이지는 대표가 지난 30일 오후 2시부터 서울 강남구 코엑스에서 개최된 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참여했다. 발표는 네이버를 시작으로 NC AI, 업스테이지, SK텔레콤, LG AI연구원 순서로 진행됐다. 독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업이다. 과학기술정보통신부는 이번 발표를 기반으로 심사를 통해 내년 1월 15일 1개 팀을 탈락시키고, 이후에도 6개월마다 평가를 거쳐 2027년에 최종 2개 팀을 선정한다. 모델 성과 제각각…정부 심사 기준이 관건 이번 심사에선 각 팀이 주어진 공통 과제를 얼마나 잘 수행했는지, 각자 제시한 목표대로 성과를 냈는지가 관건이다. 모든 팀은 최근 6개월 내 공개된 글로벌 최고 모델 대비 95% 이상의 성능을 달성해야 하는 과제가 주어진 상태다.지난 8월 정예팀으로 선정된 지 4개월만에 첫 성과를 공개해야 하는 만큼, 개발 시간이 부족한 상황에서 각자 기술력을 얼마나 끌어올렸을지도 관심사다. 각 팀의 GPU 지원 여부, 지원 받은 시기 등이 각각 달랐다는 점에서 정부가 이를 심사 시 고려할 지도 주목된다. 이번 프로젝트를 위해 SK텔레콤과 네이버클라우드는 정부에게 GPU를 임대해주고 있다. 이 탓에 두 업체는 올해 '독자 AI 파운데이션 모델 프로젝트' 진행 시 정부로부터 GPU를 지원 받지 못했다. SK텔레콤은 엔비디아의 B200 칩 1천24장을 업스테이지와 LG AI연구원에, 네이버클라우드는 H200 칩 1천24장을 NC AI에 지원하고 있다. 이 탓에 GPU가 각 업체에 지원된 시기는 다 달랐다. 업계에선 정부가 어떤 기준을 세울지에 따라 각 팀의 승패가 갈릴 것으로 봤다. 정부는 그간 5개팀과 여러 차례 만나 평가 기준에 대해 논의 후 이달 중순께 합의를 보고 공지했으나, 어떤 팀이 탈락할 지에 따라 여전히 논란의 불씨가 많은 것으로 알려졌다. 업계 관계자는 "당초 5개 팀이 선정될 당시 정부에 제시했던 목표치를 달성했는지가 가장 중요할 것"이라며 "각 팀이 목표로 하고 있는 모델의 크기, 성능, 활용성이 제각각인 만큼 목표 달성률을 가장 중요한 기준치로 삼아야 할 것"이라고 강조했다. 이어 "벤치마크를 활용한다는 얘기가 있지만 모델 크기가 클수록 다운로드 수 측면에서 불리할 수 있어 이를 객관적 기준으로 삼기에는 다소 무리가 있을 수 있다"며 "5개 팀과 정부가 어떤 기준에 대해 합의를 했는지, 어떤 전문가를 앞세워 심사에 나설지도 주목해야 할 부분"이라고 덧붙였다. 5개 팀 첫 성과 공개…프롬 스크래치·모델 크기·활용성 주목 이번 1차 결과 공개에서 가장 주목 받는 곳은 업스테이지다. 대기업 경쟁자들 사이에서 짧은 시간 내 '프롬 스크래치(From Scratch)'를 기반으로 가성비 최고 수준인 모델을 완성도 높게 공개했다는 점에서 많은 이들의 호응을 얻었다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 업스테이지는 이날 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 자신감을 표출했다. 특히 발표에 직접 나선 김성훈 대표가 '솔라 오픈 100B'를 개발하게 된 과정을 스토리텔링 형식으로 발표해 호응을 얻기도 했다. 김 대표는 향후 200B, 300B 모델과 함께 멀티모달 모델도 선보일 예정이다.업계 관계자는 "김 대표가 발표 때 딥 리서치나 슬라이드 제작 등 코딩 외에 실제로 현장에서 많이 써봤을 것 같은 서비스를 직접 라이브 데모로 보여준 부분이 인상적이었다"며 "504장의 B200 GPU로 두 달 남짓 훈련한 것을 고려하면 모델 크기나 사용된 토큰수(추정)를 정말 빡빡하게 잘 쓴 게 아닌가 싶다"고 평가했다. 이승현 포티투마루 부사장은 "(업스테이지 발표 때) 솔라 프로가 'GPT-4o-미니'나 '파이-3 미디엄'보다 벤치마크가 높아 동급 사이즈에선 가장 우수하다고 했는데, 실제 가성비가 최고 수준인 것으로 보인다"며 "당장 기업들이 가져다 쓰기에도 좋을 것 같다"고 말했다. 이어 "그동안 업스테이지의 상징과도 같았던 DUS(구조 일부를 변경해 자체화한 AI 모델 개발 방식)를 넘어 프롬 스크래치로 모델을 개발했다는 점이 인상적"이라며 "기술 리포트가 없는 게 아쉽지만, 모델 카드에 프롬 스크래치를 기재한 것과 함께 API도 공개해 자신감을 드러낸 것이 국가대표로 내세우기 적합해 보였다"고 덧붙였다. 배경훈 과학기술정보통신부 부총리 겸 장관을 배출한 LG AI연구원도 이번 발표가 끝난 후 개발 중인 모델이 국가대표로 인정받기에 손색이 없다는 평가를 받았다. 이곳은 '엑사원 4.0' 아키텍처를 기반으로 파라미터 크기를 약 7배 키워 초기화한 상태에서 새로 학습시킨 'K-엑사원'을 이번에 공개했다. 'K-엑사원'은 매개변수 236B 규모의 프런티어급 모델이다. LG AI연구원에 따르면 'K-엑사원'은 개발 착수 5개월 만에 알리바바의 '큐웬3 235B'를 뛰어 넘고 오픈AI의 최신 오픈 웨이트 모델을 앞서 글로벌 빅테크 최신 모델과 경쟁할 수 있는 가능성을 입증했다. 글로벌 13개 공통 벤치마크 평균 성능 대비 104%를 확보했다는 점도 눈에 띄는 요소다. LG AI연구원은 "기존 엑사원 4.0 대비 효율성을 높이면서도 메모리 요구량과 연산량을 줄여 성능과 경제성을 동시에 확보했다"며 "특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 GPU 환경에서 구동할 수 있도록 했다"고 설명했다. 이곳은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다. 또 글로벌 프론티어 AI 모델을 뛰어넘는 경쟁력을 확보해 한국을 AI 3강으로 이끌 것이란 포부도 드러냈다. 이번 발표를 두고 업계에선 LG AI연구원이 5개 팀 중 기술적인 내용이 가장 많이 들어있어 신뢰도가 높았다고 평가했다. 또 추론 강화를 위해 아키텍처를 변형하고 커리큘럼 러닝을 적용했다는 점에서 모델이 '프롬 스크래치'임을 명백히 보여줬다고 평가했다. 다만 동일 아키텍처인 32B 모델의 리포트와 가중치만 공개돼 있고, 이번 모델인 236B는 공개하지 않았다는 점은 아쉬운 대목으로 지적됐다. 업계 관계자는 "'K-엑사원'은 구조, 가중치가 완전 국산이란 점에서 통제권과 설명 가능성이 충분히 확보돼 있다고 보인다"며 "국방, 외교, 행정망 등 국가 핵심 인프라에 충분히 쓰일 수 있을 듯 하다"고 말했다. 그러면서도 "이번 발표에서 자체 MoE나 하이브리드 어텐션(hybrid attention, 효율·성능을 위해 다양한 어텐션 방식을 상황별로 혼합한 구조), 아가포(AGAPO, 어텐션·파라미터 사용을 입력에 따라 동적으로 조절하는 내부 최적화 기법) 같은 기술들에서 인상 깊은 것이 없다는 것은 아쉽다"며 "다음에는 실질적 효과에 대한 정량적 수치가 잘 기술되면 좋을 듯 하다"고 덧붙였다.이에 대해 LG AI연구원 관계자는 "모델 제출 마감이 이번 주까지여서 제출 시점에 236B 모델을 공개할 것"이라며 "이 때 테크 리포트로 세부 사항도 담을 예정"이라고 설명했다. SK텔레콤도 이번 발표에서 많은 이들의 주목을 받았다. 짧은 시간 안에 국내 최초로 매개변수 5천억 개(500B) 규모를 자랑하는 초거대 AI 모델 'A.X K1'을 공개했기 때문이다. 특히 모델 크기가 경쟁사보다 상당히 크다는 점에서 AI 에이전트 구동 등에서 유리한 고지에 있다는 일부 평가도 나오고 있다. SK텔레콤은 모델 크기가 성능과 비례하는 AI 분야에서 한국이 AI 3강에 진출하려면 500B 규모의 AI 모델이 필수적이란 점을 강조하며 톱2까지 오를 것이란 야심을 드러내고 있다. 또 SK텔레콤은 모두의 AI를 목표로 기업과 소비자간 거래(B2C)와 기업간거래(B2B)를 아우르는 AI 확산 역량도 강조했다. 여기에 SK하이닉스, SK이노베이션, SK AX 등 관계사와 협업으로 한국의 AI 전환에 이바지하겠다는 포부도 밝혔다. 다만 일각에선 프롬 스크래치로 모델을 개발했는지에 대한 의구심을 드러내고 있어 심사 시 이를 제대로 입증해야 할 것으로 보인다. SK텔레콤은 MoE 구조라고 강조했으나, 각 전문가 모델들이 자체 개발인지, 오픈소스 튜닝인지 밝히지 않아 궁금증을 더했다. 또 모델카드는 공개했으나, 테크니컬 리포트를 공개하지 않았다는 점도 의구심을 더했다. 이승현 포티투마루 부사장은 "MoE 구조를 독자 개발했다면 보통 자랑스럽게 논문을 내는 것이 일반적"이라며 "SKT가 'A.X 3.1(34B)'라는 준수한 프롬 스크래치 모델이 있으나, 이를 15개 정도 복제해 MoE 기술로 묶은 것을 이번에 'A.X K1'으로 내놓은 것이라면 혁신은 아니라고 보여진다"고 평가했다. 이어 "정량적 벤치마크보다 서비스 적용 사례 위주로 발표가 돼 기술적 성취보다 '서비스 운영 효율'에 방점이 찍힌 듯 했다"며 "SKT가 'A.X 3.1' 모델 카드에 프롬 스크래치를 분명히 명시했지만, 이번에는 명시하지 않아 소버린 모델로 활용할 수 있을지에 대해선 아직 판단이 이르다"고 덧붙였다. 이에 대해 SKT는 다소 억울해하는 눈치다. 프롬 스크래치로 개발을 한 사실이 명백한 만큼, 조만간 발표될 테크니컬 리포트를 통해 일각의 우려를 해소시킬 것이란 입장이다. SKT 관계자는 "모델 카드에 밝혔듯 A.X K1은 192개의 소형 전문가(expert)를 가지는 MoE 구조로, A.X 3.1 모델을 단순히 이어 붙여서 만들 수 없는 복잡한 구조인 만큼 처음부터 프롬 스크래치로 학습됐다"며 "관련 세부 내용은 이달 5일 전후 테크니컬 리포트를 통해서 공개할 예정"이라고 밝혔다. 업계 관계자는 "SKT가 500B 모델을 만든다는 것을 사전에 알고 우려가 많았지만, 다른 팀에 비해 성공적으로 압도적으로 큰 모델을 공개했다는 것 자체는 굉장히 인상적"이라며 "내년 상반기까지 정부에서 지원하는 GPU를 쓰지 않기 때문에 SKT가 얼마나 많은 GPU를 투입했는지 알 수는 없지만, 500B를 충분히 학습하기에는 (성능을 끌어 올리기에) 시간이 부족했을 것 같다"고 말했다. 그러면서도 "2T까지 만들겠다는 포부는 높이 평가한다"며 "성공적인 2T 모델이 나오기를 기대한다"고 부연했다. 네이버클라우드는 국내 최초 네이티브 옴니모달 구조를 적용한 파운데이션 모델 '하이퍼클로바 X 시드 8B 옴니'를 오픈소스로 공개하며 자신감을 드러냈다.이곳은 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니 모델'을 제시했다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아닌, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 또 네이버클라우드는 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 고성능 추론모델 '하이퍼클로바 X 시드 32B 씽크'도 오픈소스로 공개했다. 이 모델은 올해 대학수학능력시험(수능) 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 업계에선 네이버클라우드의 발표를 두고 실제 '애니-투-애니(Any-to-Any) 모델'을 작은 사이즈로 공개한 부분에 대해 인상적이라고 평가했다. '애니-투-애니 모델'은 입력과 출력의 모달리티(형식)를 가리지 않고 어떤 조합이든 처리할 수 있는 멀티·옴니모달 모델이다. 또 유일하게 '덴스(Dense) 모델'을 썼다는 점도 주목을 받았다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다. 이로 인해 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수는 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 의견도 있다. 당초 1차 심사 때 14B를 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 점도 아쉬운 점으로 지목됐다. 업계 관계자는 "네이버가 태생부터 멀티모달인 '네이티브 옴니' 아키텍처를 설계했다는 점에서 방향성이 완벽하고 독자모델로도 입증을 했지만, 경량 모델을 공개했다는 점이 아쉽다"며 "거대 모델로 스케일업 했을 때의 추론 능력과 비용 효율성이 아직 검증되지 않았다는 것이 우려된다"고 짚었다. 이어 "옴니모달은 구글, 오픈AI도 지향하는 최신 아키텍처"라며 "네이버가 이를 '패치워크(여러 모델 붙이기)'가 아닌 '네이티브'로 구현했다고 강조했다는 점에서 소버린 모델로는 충분한 가치가 있다"고 덧붙였다. NC AI는 이연수 대표가 직접 발표에 나서 산업 특화 AI를 위한 파운데이션 모델 '베키(VAETKI)'를 소개했다. 또 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고 100B급 LLM 개발도 마쳤다고 공개했다. NC AI에 따르면 현재 베키는 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용돼 실질적인 성과를 창출하고 있다. NC AI는 AI 모델 바로크에 3차원(3D) 생성 기술이 결합된 바로크 3D를 활용해 전 산업군에 최적화된 버티컬 AI 설루션을 제공한다는 계획이다. 이 대표는 "우리는 1차로 100B(1천억 개)급 파운데이션 모델의 틀을 마련했다"며 "2차에서 200B, 3차에서 300B급으로 글로벌 모델급 성능을 달성하려고 한다"고 강조했다. 업계에선 NC AI의 이번 발표를 두고 경쟁력 있는 모델을 다수 보유하고 있는 것에 비해 전달력이 미흡했다고 평가했다. 100B 모델과 함께 서비스에 특화된 7B, 20B, VLM 7B까지 다양한 모델을 준비했으나, 발표 구성이 미흡해 강점이 충분히 전달되지 못했다는 의견도 나왔다. 업계 관계자는 "NC AI의 텍스트로 3D 에셋을 만드는 성능은 확실한 산업적 가치를 보여주지만, 그 이상의 것은 없어 아쉽다"며 "100B 모델을 기반으로 게임에 특화된 AI 활용을 좀 더 많이 보여줬다면 훨씬 좋았을 것 같다"고 말했다. 성과 확인 '끝'…1차 발표회 호평 속 투명한 검증 '과제' 업계에선 이번 1차 발표회의 전반적인 진행에 대해 긍정적인 평가와 함께 정부가 앞으로 조금 더 구체적인 국가대표 AI 육성 평가를 내놓을 필요가 있다고 지적했다. 이번 발표회에서 소버린 AI를 강조하는 곳은 많지만, 그 실체를 증명하는 기준이 조금 느슨해보였다는 평가도 나왔다. 업계 관계자는 "이번 발표회에서 각 팀들이 얼마나, 어떻게 혁신적인 모델을 개발해 공개했는지에 대한 구체적인 설명이 없어 아쉬움이 컸다"며 "단순한 제품 홍보 발표회 느낌을 많이 받았지만, 단기간에 모든 팀이 굉장한 일을 정부 지원을 토대로 해냈다는 것에 대해선 기대감을 가지게 했다"고 밝혔다. 이어 "최소 100B급 이상의 모델을 학습시킬만한 인프라 운용과 더불어 학습 노하우를 갖추고 있어 보여 좋았다"며 "단기간 내 실험 시간의 물리적 제한이 있었음에도 기본적으로 초거대 AI 모델을 학습시킬 기본 역량은 대부분 갖췄다고 보여져 놀라웠다"고 덧붙였다. 그러면서도 "2차 발표에선 오거나이징 하는 측에서 명확한 발표 가이드를 제시해주면 더 좋을 것 같다"며 "김성훈 업스테이지 대표의 말처럼 국민 세금이 많이 투입되고 있기 때문에 짧지만 굉장히 효과적인 발표회가 앞으로도 진행될 수 있길 바란다"고 언급했다. 또 다른 관계자는 "독자 AI 파운데이션 모델의 핵심은 어떤 데이터로, 어떤 아키텍처를 써서 어떤 방식으로 학습했는지가 투명해야 한다"며 "그 결과물은 글로벌 시장에서 통할 수 있는 객관적 수치로 증명돼야 하고, 각 팀들은 기술 리포트와 모델 카드를 의무적으로 공개해야 제대로 프롬 스크래치로 개발했는지 검증할 수 있다"고 강조했다. 그러면서 "프롬 스크래치가 만능은 아니지만 투명성은 필수"라며 "무늬만 국가대표가 아닌 실력 있는 국가대표를 가려내기 위해선 마케팅의 거품을 걷어내고 기술의 족보를 따지는 엄격한 검증 시스템이 필요하다고 본다"고 덧붙였다.

2025.12.31 17:59장유미 기자

'국가대표 AI' 1차전 D-1…'왕좌' 노린 네이버, 옴니모달 모델 공개로 격차 벌린다

정부 주도로 추진되고 있는 '독자 인공지능(AI) 파운데이션 모델' 개발 사업 첫 성과 발표를 앞두고 네이버클라우드가 새로운 무기를 공개했다. 국내 첫 네이티브 옴니모달 구조를 적용한 파운데이션 모델이란 점에서 이번 심사에서 유리한 고지에 오를 수 있을지 주목된다.네이버클라우드는 29일 '네이티브 옴니모델(HyperCLOVA X SEED 8B Omni)'과 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 '고성능 추론모델(HyperCLOVA X SEED 32B Think)'을 각각 오픈소스로 공개했다. 이는 과학기술정보통신부 '독자 AI 파운데이션 모델' 프로젝트의 주관 사업자로서 추진 중인 '옴니 파운데이션 모델' 개발 과제의 첫 성과다. 이번에 공개된 '네이티브 옴니모델'은 텍스트·이미지·오디오 등 서로 다른 형태의 데이터를 단일 모델에서 처음부터 함께 학습하는 네이티브 옴니모달 구조를 전면 적용한 모델이다. 옴니모달 AI는 정보의 형태가 달라지더라도 하나의 의미 공간에서 맥락을 통합적으로 이해할 수 있어 말과 글, 시각·음성 정보가 복합적으로 오가는 현실 환경에서 활용도가 높은 차세대 AI 기술로 주목받고 있다. 이러한 특성으로 인해 글로벌 빅테크 기업들 역시 옴니모달을 차세대 파운데이션 모델의 핵심 기술 축으로 삼고 있다. 네이버클라우드는 옴니모달 AI의 잠재력을 극대화하기 위해 기존 인터넷 문서나 이미지 중심의 학습을 넘어 현실 세계의 다양한 맥락을 담은 데이터 확보에 집중한다는 전략이다. 네이버클라우드 하이퍼스케일 AI 성낙호 기술 총괄은 "모델을 대규모로 키워도 데이터 다양성이 한정돼 있다면 AI의 문제 해결 능력도 특정 영역 또는 특정 과목에만 집중되어 나타날 수밖에 없다"며 "이에 디지털화되지 않은 생활 맥락 데이터나 지역의 지리적 특성이 반영된 공간 데이터 등 차별화된 현실 세계 데이터를 확보하고 정제하는 과정이 선행돼야 한다"고 설명했다. 네이버클라우드는 이번 모델 공개를 통해 네이티브 옴니모달 AI 개발 방법론을 검증한 만큼, 향후 차별화된 데이터를 본격적으로 학습시키며 단계적인 스케일업에 나설 계획이다. 텍스트·이미지·음성 모델을 결합하는 방식의 기존 멀티모달 접근과 달리 단일 모델 구조의 옴니모달 AI는 규모 확장이 상대적으로 용이하다는 점도 특징이다. 회사 측은 이를 기반으로 산업과 일상 밀착 서비스에 필요한 다양한 크기의 특화 옴니모달 모델을 효율적으로 확장한다는 전략이다. 또 해당 모델은 텍스트 지시를 기반으로 이미지를 생성·편집하는 옴니모달 생성 기능도 갖췄다. 텍스트와 이미지의 맥락을 함께 이해해 의미를 반영한 결과물을 만들어내는 방식으로 단일 모델에서 텍스트 이해와 이미지 생성·편집을 자연스럽게 수행한다. 이는 글로벌 프런티어 AI 모델들이 제공해온 기능으로, 네이버클라우드는 이번 모델을 통해 해당 수준의 멀티모달 생성 역량을 확보했음을 보여줬다. 이와 함께 네이버클라우드는 향후 옴니모달 AI 에이전트 활용 가능성을 검증하기 위해 '고성능 추론모델'도 공개했다. 이 모델은 자체 추론형 AI에 시각 이해, 음성 대화, 도구 활용 능력을 결합해 복합적인 입력과 요청을 이해하고 문제를 해결하는 옴니모달 에이전트 경험을 구현했다. 또 이 모델은 글로벌 AI 평가 기관인 아티피셜 애널리시스(Artificial Analysis)가 종합 지식·고난도 추론·코딩·에이전트형 과제 등 10개 주요 벤치마크를 종합해 산출한 지수 기준에서도 글로벌 주요 AI 모델들과 유사한 성능 범위에 위치한 것으로 나타났다. 영역별 평가에서는 특히 실사용과 밀접한 항목에서 경쟁력을 보였다. 한국어 기반 종합 지식, 시각 이해, 실제로 도구를 활용해 문제를 해결하는 에이전트 수행 능력 등 주요 능력 항목에서 글로벌 모델들과 비교해 우수한 성능을 기록하며 복합적인 문제 해결 역량을 입증했다. 또 해당 모델로 올해 대학수학능력시험 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 측은 "다수의 AI 모델이 문제를 텍스트로 변환해 입력해야 하는 방식과 달리, 이 모델은 이미지 입력을 직접 이해해 문제를 해결했다는 점에서 차별화된다"고 말했다. 네이버클라우드는 이번 옴니모달 하이퍼클로바X를 기반으로 검색·커머스·콘텐츠·공공·산업 현장 등 다양한 영역에서 활용 가능한 AI 에이전트를 단계적으로 확장하며 '모두의 AI' 실현을 위한 기술 생태계 구축에 속도를 낼 계획이다. 성 총괄은 "텍스트·시각·음성 등 AI의 감각을 수평적으로 확장하는 동시에 사고와 추론 능력을 함께 강화했을 때 현실 문제 해결력이 크게 높아진다는 점을 확인했다"며 "이러한 기본기를 갖춘 구조 위에서 점진적으로 규모를 확장해야 단순히 크기만 큰 모델이 아닌, 실제로 쓰임새 있는 AI로 발전할 수 있다고 보고 이를 토대로 스케일업을 이어갈 계획"이라고 말했다.

2025.12.29 09:51장유미 기자

정부, 'AI 국가대표' 기술력 가른다…전문 심사 시작

정부가 독자 인공지능(AI) 파운데이션 모델 개발 사업에 참여하는 5개 정예팀 심사를 시작한다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 오는 30일 오후 서울 강남 코엑스 오디토리움에서 독자 AI 파운데이션 모델 프로젝트 1차 대국민 발표회를 진행한다. 지난 8월 선정된 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 5개 정예팀이 무대 발표와 체험 부스를 운영할 예정이다. 이번 발표회는 각 팀이 약 4개월간 개발한 AI 모델과 서비스를 처음 공개하는 자리다. 평가에는 직접 반영되지 않지만, 각 컨소시엄 기술 방향과 완성도를 가늠할 수 있는 첫 공개 무대다. 정부는 이번 행사를 평가와 별도로 운영할 방침이다. 당초 현장 반응을 점수에 반영하는 대국민 콘테스트 방식이 검토됐으나, 기업 규모나 브랜드 인지도에 따른 결과 왜곡 우려로 이번 단계에서는 제외됐다. 이에 따라 1차 단계 평가는 전문가 중심으로 진행된다. 모델 성능과 기술 완성도, 향후 확장성, 상용화 계획 등을 종합 점검해 5개 팀 가운데 4개 팀만 다음 단계로 압축한다. 특히 성능 목표는 고정 기준이 아닌 '무빙 타깃' 방식이 적용된다. 각 팀은 평가 시점 기준 최근 6개월 내 공개된 글로벌 AI 모델 대비 95% 이상 성능을 달성해야 한다고 알려졌다. 업계에서는 단순 성능 수치보다 목표를 달성하기 위한 기술 구조와 로드맵이 평가 핵심이 될 것으로 보고 있다. 단기 성과뿐 아니라 중장기 경쟁력까지 검증하는 구조라는 분석이다. 정부는 발표회 직후 평가 절차에 착수해 15일 이내 1차 단계 평가를 마무리할 계획이다. 내부 종합 과정을 거쳐 이르면 새해 1월 19일께 결과를 발표하는 것을 목표로 하고 있다. 현재 각 팀은 서로 다른 전략을 제시하고 있다. 네이버클라우드는 옴니 파운데이션 모델 기반 텍스트, 코딩, 검색 기능과 포털, 쇼핑, 지도 연계 에이전트를 내세웠다. 업스테이지는 문서 요약, 계약서 리뷰 등 서비스형 소프트웨어(Saa)로 글로벌 확장성을 강조했다. 향후 3년간 1천만 명 사용자 확보가 목표다. SK텔레콤은 500B급 초거대 모델 로드맵과 한국어 특화 대화, 콘텐츠 생성 역량을 앞세웠다. 정확성, 신뢰성, 확장성, 범용성, 효율성 등 5대 경쟁력을 강조한다. NC AI는 54개 산학연 컨소시엄 기반으로 3D, 애니메이션 생성, 방송 콘텐츠 제작, 제조, 물류 최적화 등 산업 AX 특화 전략을 제시했다. LG AI연구원은 차세대 엑사원 기반 복합 추론과 생성 능력을 시연한다. 프론티어급 기술력과 기업 간 거래 활용 가능성에 초점을 맞췄다.

2025.12.28 09:05김미정 기자

이홍락 "LG, 'AI 오퍼레이팅 컴퍼니' 전환 목표…범용 아닌 전문가 수준 AI 개발 주력"

'국가대표 인공지능(AI)'으로 선정된 LG AI연구원의 수장인 이홍락 원장이 앞으로 LG를 AI로 운영되는 기업으로 전환시키겠다는 목표를 밝혔다. 또 범용 AI가 아닌, 각 산업에 특화된 전문가 수준의 AI를 개발하는 데 더 힘을 쏟을 것이란 의지도 드러냈다.이 원장은 30일 경북 경주 예술의전당에서 열린 '아시아태평양경제협력체(APEC) 최고경영자(CEO) 서밋' 무대에 올라 '지속 가능한 혁신을 위한 차세대 AI로드맵' 세션의 토론자로 참석해 이처럼 밝혔다. 이 원장은 "LG에선 단순히 AI를 활용하는 수준으로 보고 있지 않다"며 "AI를 회사의 핵심 운영 구조로 통합하는 'AI 오퍼레이팅 컴퍼니'로 전환하는 것이 목표"라고 소개했다. 그러면서 "대규모언어모델(LLM), 멀티모달 AI, AI 에이전트 등을 자체적으로 개발하고 있고, 이러한 범용 모델을 전자, 화학, 소재 등 LG의 다양한 비즈니스 영역에 깊이 통합해 전문가 수준의 AI를 구축하는 것이 목표"라며 "이를 위해 내부적으로 제조, R&D, 화학 및 소재 연구 부문과 긴밀히 협력하고 있고 때로는 구글과 같은 글로벌 기술 기업들과도 필수적으로 협력한다"고 덧붙였다. 이 원장은 우리나라 정부가 추진하는 '독자 AI 파운데이션 모델(K-AI) 개발 프로젝트'를 통해 한국이 세계적인 AI 허브로 성장할 수 있는 기반을 마련할 것이라는 목표도 밝혔다. 앞서 정부는 지난 8월 LG AI 연구원이 참여하는 LG 컨소시엄을 포함해 네이버클라우드, NC AI, SK텔레콤, 업스테이지 등 5곳을 최종 사업자로 선정한 바 있다. 이 프로젝트는 우리 독자 AI 모델(소버린 AI·외국 기술에 의존하지 않고 개별 국가 차원에서 개발한 AI) 확보가 목표로, 이재명 정부의 1호 국정 과제인 'AI 3대 강국' 실현을 위한 핵심 사업이다. 이 원장은 "LG AI연구원은 'K-AI 프로젝트'에 선정돼 글로벌 경쟁력을 갖춘 기초 AI 모델을 구축하는 대형 컨소시엄에 참여하고 있다"며 "이는 글로벌 경쟁력을 갖춘 기초 AI 모델을 개발하는 프로젝트로, 해당 모델은 오픈소스로 전 세계에 제공될 예정"이라고 설명했다. 이어 "파운데이션 AI 모델을 만드는 것은 '기초 체력을 단련한 운동선수'를 키우는 것과 같다"며 "새로운 종목을 빠르게 배워야 최고의 성과를 낼 수 있기 때문"이라고 부연했다. 이와 함께 이 원장은 데이터를 잘 활용할 수 있는 자동 데이터 생성 플랫폼도 함께 구축하고 있다는 계획도 공개했다. 단순히 오픈소스 모델을 파인-튜닝하는 것만으로는 AI를 제대로 활용하는 데 한계가 있다고 판단해서다. 그는 "데이터의 출처나 품질을 모르면 성능 저하나 편향 문제가 발생한다"며 "우리가 개발하는 데이터 생성·학습 자동화 도구를 통해 협력사와 고객들이 자신만의 전문 AI 모델을 만들 수 있도록 지원할 것"이라고 밝혔다. 그러면서 "데이터 수집·생성·학습·최적화 전 과정의 전문성을 축적함으로써 LG뿐 아니라 한국 전체, 나아가 글로벌 시장에서도 활용될 수 있는 AI 인프라를 구축하고 있다"고 덧붙였다. 또 이 원장은 우리나라가 우수 인재와 인프라 등을 보유하고 있는 만큼 앞으로 AI 산업군에서 대폭 성장할 역량이 충분하다고 봤다. 이를 기반으로 LG AI 연구원에서도 에이전틱AI 등 첨단 모델을 적극 도입하고 자사 모델을 오픈소스로 제공해 글로벌 커뮤니티에 다각적으로 기여할 것이란 의지를 드러냈다. 그는 "AI는 더 이상 단순한 도구가 아니라 기업의 두뇌가 될 것"이라며 "우리가 만드는 파운데이션 모델과 데이터 인프라는 LG그룹을 넘어 산업 전반의 혁신을 이끄는 핵심 동력이 될 것"이라고 말했다.

2025.10.30 15:28장유미 기자

"국가대표 AI 기업 보러 왔어요"…LG·네이버 등 5대 기업, 한 자리서 기술력 과시

"국가대표 인공지능(AI) 기업들이라고 해서 궁금해서 방문했어요. 우리나라 AI 기술이 이렇게 발전했는지 이곳에서 경험할 수 있어서 너무 좋았어요." 서울 강남구에서 근무하고 있는 직장인 김은영 씨는 2일 서울 강남구 코엑스 A홀에서 개최된 'AI 페스타' 행사장에 위치한 '국가대표 5대 인공지능 기업관'에 방문해 이처럼 밝혔다. 평소 AI에 관심이 많았다는 김 씨는 "LG AI 연구원이 만든 '챗엑사원'을 한 번 써보고 싶었는데 오픈AI '챗GPT'와 성능을 비교하면 뒤지지 않는 것 같아 놀라웠다"며 "지금 베타 버전이라고 하는 데 일반 사람들도 편리하게 이용할 수 있게 LG가 나서주면 좋겠다"고 강조했다. '국가대표 5대 인공지능 기업관'은 정부가 지난 8월 '독자 AI 파운데이션 모델' 사업자로 선정한 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원이 함께 부스를 마련한 곳으로, 5개 기업이 한 행사에 함께 모인 것은 이번이 처음이다. '독자 AI 파운데이션 사업'은 정부가 총 2천136억원을 투입하는 국가 프로젝트다. 이날 방문한 '국가대표 5대 인공지능 기업관' 입구 양측에서는 NC AI와 SK텔레콤이 관람객들을 맞았다. NC AI는 이번 전시에서 '바르코 3D'와 '바르코 사운드', '바르코 아트패션' 등 세 가지 솔루션을 선보여 눈길을 끌었다. 특히 '바르코 3D'를 통해 캐릭터를 만들어 현장에서 3D 프린터로 피규어를 만들어 내는 코너에선 관람객들이 신기해 하는 모습을 보였다. '바르코 3D'는 텍스트·이미지 프롬프트로 실시간 3D 모델을 생성하는 솔루션으로, 자동 리메시·텍스처 힐링으로 복잡한 수정 작업을 간소화하며 애니메이션 구현까지 가능하다. NC AI 관계자는 "첫째 날은 비즈니스, 업계 관계자들이 많이 방문해 우리 기술에 대해 관심을 많이 보였다"며 "지금은 학생, 일반인들도 부스를 많이 찾아 우리 회사에 대한 인지도를 더 쌓을 수 있는 기회가 된 것 같다"고 말했다. 전 세계 세 번째로 거대언어모델(LLM)을 선보인 네이버클라우드도 음성 인공지능(AI) 기술 '팟캐스트LM'을 현장에서 선보였다. 팟캐스트LM은 콘텐츠·텍스트를 팟캐스트 음성 콘텐츠로 생성할 수 있는 것으로, 텍스트 데이터와 음성 데이터를 결합해 자연스러운 음성 구현이 가능한 것이 특징이다. 이날 방문객들은 '팟캐스트LM'을 통해 각자가 궁금해 하는 부분들을 텍스트에 입력하자 곧바로 음성 콘텐츠가 생성되는 것을 보고 신기해 했다. '팟캐스트LM'은 기술 데모 형태로 사내에만 공개된 것으로, 향후 음성 콘텐츠 생성 관련 규제 완화 여부에 따라 정식 출시를 고려할 것으로 알려졌다. 네이버클라우드 관계자는 "'팟캐스트LM'은 추임새나 감정 표현까지 정교하게 표현할 수 있다"며 "우리의 음성 LLM 관련 기술은 지난해 최고 권위 AI 학회인 '뉴립스(NeurIPS) 2024'에도 채택됐다"고 설명했다. LG AI 연구원은 이번 행사에서 '엑사원 4.0'과 '챗엑사원' 베타 버전을 선보여 눈길을 끌었다. 계열사인 LG CNS가 마련한 부스와 연계해 스탬프 투어를 진행함으로써 관람객들의 프로그램 참여도를 높인 것이 신선했다. 현장에선 '챗엑사원' 베타 버전의 회원가입을 유도하는 이벤트도 진행됐다. '챗엑사원'은 '챗GPT'와 비슷한 사용자 인터페이스(UI)를 구현해 사용하기에도 좋았다. 답변 곳곳에는 '퍼플렉시티'가 제공하는 것처럼 출처를 명확히 표시해주는 각주 스타일도 결합돼 있었다. 덕분에 업무에 필요한 정보를 좀 더 정확하게 찾을 수 있을 듯 했다. 답변 속도도 상당히 빨랐다. 회사 이메일을 입력해 회원으로 가입한 후 'LG AI 연구원이 독자 AI 파운데이션 모델 사업에서 최종 사업자로 선정될까'라고 묻자 1초 만에 답을 뚝딱 만들어 냈다. 다만 결과물은 '한국의 AI 기술 발전에 중요한 역할을 할 것으로 기대된다'고 나타나 원하는 답변을 얻어내진 못했다. LG AI 연구원 부스 관계자는 "기대 이상의 관람객들이 방문해 준비했던 이벤트 상품들은 오전에 빠르게 소진될 정도로 많은 관심을 보였다"며 "'챗엑사원'을 현장에서 경험한 방문객들이 코드 작성, 검색 결과물 등을 보고 성능이 굉장히 우수하다고 말하며 놀라워했다"고 밝혔다. 그러면서 "국내 다른 대기업 관계자들도 부스에 대거 찾아와 관심을 보이며 많은 질문을 하고 갔다"며 "LG라는 브랜드 인지도가 있어선지 무조건 한 번은 이곳을 방문하는 듯 하다"고 덧붙였다. SK텔레콤은 이번 전시에서 한국어 특화 LLM '에이닷엑스(A.X)'와 AI 개인 비서 '에이닷(A.)'으로 부스를 꾸렸다. '에이닷엑스'는 한국어 환경에 최적화된 성능을 구현한 것이 특징으로, 최근 출시된 4.0 버전은 한국어·한국 문화 벤치마크 CLIcK에서 83.5점을 기록해 GPT-4o(72.5점·80.2점)보다 높은 성능을 입증했다. '에이닷엑스'로 개발된 '에이닷'은 자연어 대화뿐 아니라 일상 일정 관리와 통화 요약, 업무 자동화 등을 지원한다. '에이닷엑스'는 멀티 LLM 구조를 활용해 전문 분야별 에이전트 서비스까지 활용 가능하다. SK텔레콤은 올해 연말까지 5천억 개(500B) 매개변수 LLM을 개발해 '독자 AI 파운데이션 모델' 사업자 톱4에 든다는 목표다. SK텔레콤 관계자는 "현재 자체 보유하고 있는 그래픽처리장치(GPU)와 아마존웹서비스의 GPU를 활용해 열심히 모델을 개발하고 있다"며 "올 연말까지 목표한 대로 500B모델을 선보이기 위해 최선을 다하고 있다"고 말했다. 업스테이지는 이번 전시에서 자체 모델 '솔라 프로 2'와 '도큐먼트 인텔리전스'를 소개해 관심을 끌었다. '솔라 프로2'가 국제 분석 기관 아티피셜 애널리시스에서 12위를 기록하면서 일론 머스크가 이례적으로 트윗에 언급해 화제가 됐던 LLM인 탓에 현장에선 학생, 기업인 등 각계각층의 관람객들이 많은 호기심을 보였다. 올해 7월 공개된 '솔라 프로 2'는 고도화된 추론 능력을 갖춘 '하이브리드 모드'를 탑재한 것이 특징으로, 실시간 웹 검색, 정보 정리, 프레젠테이션 초안 작성 등 업무를 자율적으로 수행할 수 있다는 점이 인상적이었다. '도큐먼트 인텔리전스'는 단순 텍스트 추출에 그치지 않고 체크박스나 그래프, 비틀어진 텍스트까지 인식 가능하다는 점에서 업무에 활용하기에 굉장히 편리할 듯 했다. 업스테이지 관계자는 "'솔라 프로 2'는 단순 문장 응답을 넘어 사용자의 의도를 파악하고 외부 도구를 호출해 실질적인 결과물을 도출하는 '에이전트형 LLM' 구조를 갖췄다"며 "도큐먼트 인텔리전스는 AI로 보험을 비롯한 계약서, 재무문서 등을 99% 정확도로 자동 처리할 수 있는 플랫폼으로, 특히 금융·보험 산업에서 활용하기 유용할 것"이라고 설명했다. '국가대표 AI' 5개 업체는 오는 12월 말 첫 평가를 받을 예정으로, 이 때 대국민 콘테스트가 병행된다는 점에서 이번 'AI 페스타'에 참석해 인지도를 구축하는 데 상당한 도움을 받을 것으로 보인다. 5개 기업은 앞으로 6개월 단위 평가를 거쳐 오는 2027년 상반기까지 최종 2개 팀으로 추려진다. 배경훈 과학기술정보통신부 부총리 겸 장관은 '국가대표 5대 인공지능 기업관'에 방문해 "(이 기업들이) 우리 독자 파운데이션 모델을 글로벌 수준으로 만들 수 있다고 생각한다"며 "글로벌 톱10이 아니라 톱2·3 수준까지 도약할 수 있을 것으로 믿는다"고 강조했다. 이어 "(각 기업들이) 역량을 모아 세계 최고에 도전하는 것을 목표로 삼았으면 한다"고 덧붙였다.

2025.10.02 10:41장유미 기자

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

[AI는 지금] "인류 통제 벗어날 수도"…세계 석학들이 보낸 적색 경보

"또 실패는 없다"…구글이 AI 글래스 '킬러앱'에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

저평가주 외인 매수세에...SK텔레콤 주가 고공행진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.