• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 모델'통합검색 결과 입니다. (303건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

팀네이버, 엔비디아 B200 4천장 클러스터 구축…AI 개발 속도 12배↑

팀네이버가 인공지능(AI) 기술을 서비스와 산업 전반에 유연하게 적용하기 위한 글로벌 수준 컴퓨팅 파워를 확보했다. 팀네이버는 차세대 엔비디아 그래픽처리장치(GPU) B200 4천 장 규모를 기반으로 국내 최대 규모 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다. 팀네이버는 단순 장비 도입을 넘어 대규모 GPU 자원을 하나로 연결해 최적의 성능을 끌어내는 클러스터링 분야에 중점을 뒀다. 지난 2019년 엔비디아 슈퍼컴퓨팅 인프라인 '슈퍼팟'을 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계·운영한 실증 경험을 축적해왔다. 이번에 구축된 B200 4K 클러스터에는 이러한 경험을 바탕으로 한 냉각·전력·네트워크 최적화 기술이 집약됐다. 대규모 병렬 연산과 고속 통신을 전제로 설계된 이번 클러스터는 글로벌 톱500 상위권 슈퍼컴퓨터들과 비교 가능한 수준의 컴퓨팅 규모를 갖춘 것으로 평가된다. 이같은 인프라 성능은 AI 모델 개발 속도로 직결된다. 회사 측은 내부 시뮬레이션 결과, 720억 개(72B) 파라미터 규모 모델 학습 시 기존 A100 기반 주력 인프라로 약 18개월이 소요되던 학습 기간을 이번 B200 4K 클러스터에서는 약 1.5개월 수준으로 단축할 수 있는 효과를 확인했다. 해당 수치는 내부 시뮬레이션 결과로, 실제 학습 과제와 설정에 따라 소요 기간은 달라질 수 있다는 설명이다. 학습 효율이 12배 이상 향상됨에 따라 팀네이버는 더 많은 실험과 반복 학습을 통해 모델 완성도를 높이고 변화하는 기술 환경에 보다 기민하게 대응할 수 있는 개발·운영 체계를 갖추게 됐다고 설명했다. 대규모 학습을 빠르게 반복할 수 있는 인프라가 확보되면서 AI 모델 개발 전반의 속도와 유연성이 한층 강화됐다는 평가다. 팀네이버는 이러한 인프라를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에도 속도를 낼 계획이다. 텍스트를 넘어 이미지·비디오·음성을 동시에 처리하는 옴니 모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고 이를 다양한 서비스와 산업 현장에 단계적으로 적용한다는 구상이다. 최수연 네이버 대표는 "이번 AI 인프라 구축은 단순한 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보했다는 데 의미가 있다"며 "빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 보다 유연하게 적용해 실질적인 가치를 만들어 나갈 것"이라고 말했다.

2026.01.08 16:59한정호

[AI는 지금] 배경훈, 'K-AI' 탈락 발표 앞두고 '공정 심사' 약속…정부 기준 '주목'

"독자 인공지능(AI) 파운데이션 모델 개발 프로젝트(K-AI) 평가는 객관적이고 공정하게 진행될 것입니다." 배경훈 과학기술정보통신부 장관이 '독자 AI 파운데이션 모델 개발 프로젝트' 1차 탈락자 발표를 앞두고 심사를 공정하게 할 것이란 의지를 드러냈다. 최근 평가 기준과 독자성 판단을 둘러싼 논쟁이 이어지는 가운데 정부가 명확한 기술 기준과 판단 체계를 갖춰 심사에 나서겠다는 메시지를 내놓은 것으로 풀이된다. 배 장관은 8일 자신의 소셜 미디어(SNS)를 통해 글로벌 오픈소스 AI 플랫폼 '허깅페이스'에서 독파모 모델들이 주목받고 있는 사례를 소개하며 오픈소스를 기반으로 각국이 AI '사용자'를 넘어 '개발자'가 될 수 있음을 강조했다. 배 장관은 "(우리나라의) 세계적 수준 AI 모델 (개발) 도전은 계속되고 있고 각종 지표에서의 반응도 긍정적"이라면서도 "(독파모) 평가는 윤리적 측면에서도 모두가 공감할 수 있어야 비로소 'K-AI' 타이틀을 유지하게 된다"고 언급했다. 배 장관의 이 발언은 단순한 원칙 선언을 넘어 독자 AI를 어떻게 정의하고 무엇을 기준으로 평가할 것인지에 대한 보다 명확한 기준 정립이 필요하다는 업계의 지적에 따른 것으로 분석된다. 또 정부가 이번 논란을 불식시키기 위해 공정한 기준으로 평가에 나설 것이란 의지를 드러낸 것으로도 보인다. 앞서 정부는 지난해 8월 네이버클라우드, 업스테이지, SK텔레콤, NC AI, LG AI연구원을 'K-AI' 국가대표로 선정한 바 있다. 오는 15일께 한 팀을 탈락시킬 1차 발표를 앞둔 상태로, 각 사가 제시한 목표치 도달 여부와 기술적 완성도, 독자성 등을 종합적으로 판단할 예정이다. 일단 정부가 지난해 'K-AI' 사업자 선정과 관련해 공개한 공문에선 해외 모델의 파인튜닝이나 파생형 개발은 독자 모델로 간주하지 않는다는 원칙을 제시했다. 그러나 구체적으로 명확한 기준을 제시하지 않아 업계에선 '독자성' 기준을 두고 혼선을 빚고 있다. 특히 최근에는 독자 모델 개발에서 중국을 포함한 해외 AI 모델의 아키텍처, 인코더, 학습 방식 등을 어디까지 활용할 수 있는지를 두고 논란이 가열되고 있다. 일각에선 글로벌 오픈소스 생태계에서 검증된 구조를 참고하는 것이 불가피하다는 의견도 있지만, 학습된 가중치나 핵심 모델을 그대로 사용하는 경우 독자성 판단이 달라질 수 있다는 반론도 만만치 않다.업계 관계자는 "독자 AI 파운데이션 모델을 가르는 핵심은 아키텍처가 아니라 가중치"라며 "구조는 참고할 수 있지만, 가중치를 처음부터 어떻게 학습했고 누가 통제하느냐가 소버린 AI의 기준"이라고 강조했다. 이어 "중국 모델을 구조로 가중치를 0으로 두고 재설계해 처음부터 자체 완전 학습을 시킨 경우라면 프롬 스크래치로 인정받을 수 있다"며 "하지만 기존 해외 모델의 가중치를 활용해 성능을 개선한 단계는 인정되지 않는다"고 덧붙였다. 그러면서 "AI 모델에서 비전·오디오 인코더 역시 지능의 핵심 요소"라며 "이를 미국, 중국 등 외부 모델에서 그대로 가져와 활용한 경우 독자 AI 모델로 정부가 바라봐선 안될 것"이라고 강조했다. 업계에선 정부가 글로벌에서 통용되고 있는 여러 기준들을 토대로 공정한 심사에 나설 수 있을지 주목하고 있다. 현재 글로벌 기술 문헌과 주요 연구 기관, 오픈소스 커뮤니티 등 여러 곳에서 공통적으로 지목하고 있는 '독자성' 기준은 ▲기존 모델의 학습된 가중치를 그대로 활용하거나 이를 기반으로 미세조정한 경우 ▲무작위 초기화 상태에서 독자 데이터와 학습으로 모델을 새롭게 구축한 경우로 나뉜다. 이는 IBM, 허깅페이스 등 주요 AI 플랫폼과 학계에서도 일반적으로 받아들여지고 있는 기준이다. 특히 특정 국가나 기업의 모델을 차용했는지 여부보다 그 결과물에 대한 통제권과 수정·개선 역량이 누구에게 있는지가 핵심 판단 요소로 꼽힌다.이 같은 논쟁은 최근 정부와 업계에서 확산되는 '소버린 AI' 논의와도 맞닿아 있다. 소버린 AI는 단순히 중국이나 미국 등 특정 국가의 모델을 쓰느냐의 문제가 아니라, 핵심 지능을 구성하는 가중치와 학습 과정에 대해 자국이 얼마나 통제권을 확보하고 있는가를 따지는 개념이다. 업계에선 이승현 포티투마루 부사장이 최근 공개한 '소버린 AI 2.0(T-클래스)' 분류체계가 하나의 참고 기준이 된다고 보고, 정부가 이를 반영해 심사에 나설 것을 희망했다. 이 분류체계는 AI 모델을 ▲설계(Code) ▲지능(Weights) ▲기원(Data)이라는 세 가지 요소로 나눠 단계별로 구분한다. 또 아키텍처 참조 자체보다 가중치를 처음부터 독자적으로 학습했는지를 중요한 분기점으로 삼는다. 업계 관계자는 "이 같은 접근이 중국 모델 차용 여부를 둘러싼 논쟁을 감정적 공방이 아닌, 기술적·제도적 판단의 문제로 전환할 수 있다"며 "정부가 명확한 기준을 제시하고 이를 일관되게 적용한다면 불필요한 오해와 소모적 논쟁도 자연스럽게 줄어들 것"이라고 말했다. 전문가들은 배 장관이 강조한 '객관적이고 공정한 심사'가 실질적인 의미를 가지려면 최종 선정 결과보다 판단 기준과 적용 과정이 명확히 설명되는 것이 중요하다고 지적했다.

2026.01.08 15:55장유미

[AI 리더스] 'AI 표준' 만든 이승현 "K-AI 5곳, 모두 승자…톱2 집착 버려야"

"독자 인공지능(AI) 파운데이션 모델(K-AI) 사업자로 선정된 5곳은 사실상 모두 승자입니다. 2개 사업자만 선별해 정부가 지원하기 보다 각 팀이 짧은 시간 안에 각자의 방식으로 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점을 인정해야 합니다. 정부가 각 모델의 특성과 강점을 살릴 수 있는 지원책을 마련한다면 국내 AI 생태계도 훨씬 건강해질 수 있을 것입니다." 이승현 포티투마루 부사장은 8일 지디넷코리아와의 인터뷰를 통해 최근 독자 AI 파운데이션을 둘러싼 논란에 대해 이같이 정리했다. 오는 15일께 정부가 1차 탈락팀을 결정하기 전 각 업체들이 '이전투구' 양상으로 치닫는 모습을 보이는 것을 두고 정부가 2개팀만 선별해 지원하려는 구조 때문이라고도 진단했다. 또 이번 논란의 본질이 기술 경쟁이 아니라 구조적 문제에 있다고 봤다. 정부가 2개 사업자만 선별해 집중 지원하는 방식이 계속 유지되면 탈락 기업에 과도한 낙인이 찍히고 업계 전체가 방어적·공격적으로 변할 수밖에 없다고 분석했다. 성능 경쟁보다 통제 원칙 우선돼야…소버린 AI 기준 마련 필요 정부는 현재 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 독자 AI 파운데이션 모델 사업자로 선정된 5개 정예팀을 대상으로 1차 심사를 진행 중이다. 탈락팀 1곳은 오는 15일쯤 발표할 예정으로, 정예팀마다 평가 기준이 상이해 업계에선 각 업체별 모델을 두고 유불리 논란이 이어지고 있다. 이 부사장은 "정부 사업에서 탈락하면 해당 팀이 '사망선고'를 받는 것처럼 여겨지는 구조는 바람직하지 않다"며 "톱2만 키우는 방식은 산업 전체를 위축시킬 가능성이 높은 만큼, 선별보다 육성 중심의 정책 전환을 고민해야 한다"고 제언했다. 특히 이번 사업에 참여한 기업 상당수가 대기업 또는 대기업 계열이라는 점에서 1차 탈락이 갖는 파급력은 더 크다고 봤다. 그는 "1차에서 떨어졌다는 이유만으로 '이 정도밖에 못하느냐'는 평가가 붙으면 내부 투자나 그룹 차원의 지원이 위축될 가능성도 배제하기 어렵다"며 "그 부담이 기업을 더욱 공격적인 대응으로 몰아넣는다"고 진단했다.이에 이 부사장은 '선별'이 아닌 '육성'을 초점에 맞춘 정부 정책이 마련될 필요가 있다고 강조했다. 일정 수준 이상의 역량을 입증한 기업들을 여러 트랙으로 나눠 지속적으로 키우는 구조가 필요하다는 것이다. 그는 "영국 등 해외 사례를 보면 한 번 떨어졌다고 끝나는 게 아니라 다른 트랙으로 계속 경쟁과 육성을 이어간다"며 "이번에 선정된 5개 기업 역시 각자 다른 강점과 방향성을 갖고 있는 만큼, 정부가 이들을 '탑위너 그룹'으로 묶어 장기적으로 관리하는 전략이 필요하다"고 말했다.이 부사장은 소버린 AI를 둘러싼 논의 역시 '전면 강제'가 아니라 '위험 구간에서의 원칙'으로 재정의해야 한다고 강조했다. 글로벌 모델과의 성능 경쟁을 목표로 삼기보다 투명성을 바탕으로 통제 가능성과 주권 확보가 필요한 영역에서 전략적으로 활용해야 한다고 주장했다. 그는 "공공 영역만 보더라도 정보 등급에 따라 활용 원칙이 달라야 한다"며 "오픈 데이터나 공개 서비스 영역에서는 글로벌 모델이나 경량화 모델을 활용할 수 있지만, 민감정보·보안 등급으로 올라갈수록 소버린 모델을 원칙으로 삼는 방식이 합리적"이라고 말했다. 그러면서 "다만 소버린을 내세워 모든 것을 자체 모델로만 해결하려는 접근은 현실적이지 않다"며 "필요할 경우 월드모델 활용 등을 통해 안전한 방식의 연계·상호운용을 함께 고민해야 한다"고 덧붙였다. AI 정책, 구조적 한계 여실…공공 클라우드 전환 선행돼야 이처럼 이 부사장이 분석한 이유는 과거 공공 정책 현장에서 직접 경험한 구조적 한계가 지금도 크게 달라지지 않았다고 판단해서다. 그는 디지털정부플랫폼위원회 재직 당시부터 AI 시대를 준비하기 위해 공공 시장의 클라우드 전환이 선행돼야 한다고 꾸준히 주장해왔다. 이 부사장은 "지난 2022년 3월 무렵부터 공공이 AI 시대를 이야기하면서도 정작 기반이 되는 클라우드 전환은 제대로 이뤄지지 않는 점이 가장 큰 한계라고 봤다"며 "AI를 서비스(SaaS) 형태로 도입하려면 클라우드가 전제가 돼야 하는데, 공공 영역의 전환 속도가 이를 따라가지 못했다"고 설명했다. 그는 이에 대한 원인으로 ▲클라우드 전환 지연 ▲예산·제도 구조 ▲관료제의 연속성 부족을 꼽았다. 이 부사장은 "정부 예산 구조상 ISP 등 절차를 거치면 최소 2~3년이 소요되는데, 이 방식으로는 빠르게 변하는 AI 흐름을 따라가기 어렵다"며 "AI처럼 중장기 전략이 필요한 분야에서 담당 보직이 자주 바뀌면 학습 비용이 반복되고 정책 추진의 일관성도 흔들릴 수밖에 없다"고 지적했다. 또 그는 "이 때문에 국가AI전략위원회와 같은 컨트롤타워 조직에는 보다 실질적인 권한과 연속성이 필요하다"며 "전문가 의견을 모으는 데서 그치지 않고, 부처 간 정책을 조정하고 실행으로 연결할 수 있도록 조직에 힘을 실어줘야 한다"고 강조했다.다만 이 부사장은 제도 개선의 필요성을 강조하는 것만으로는 AI 정책의 한계를 넘기 어렵다고 봤다. 정책이 실제 서비스와 산업 현장으로 이어지지 못하는 구조가 반복되고 있다고 판단해서다. 이에 디지털플랫폼정부위원회 AI플랫폼혁신국장을 맡았던 이 부사장은 지난 달 포티투마루로 자리를 옮겼다. 이곳에서 공공 정책 설계 경험을 바탕으로 공공·민간 영역에서 AI가 실제 서비스로 구현되고 확산되는 구조를 만드는 데 직접 기여할 것이란 각오다. 또 공공 AI 활용 사례를 통해 스타트업과 중소기업이 함께 성장할 수 있는 실증 모델을 만드는 데도 집중할 계획이다. 이 부사장은 "4년간 공공 영역에서 AI 정책을 다루며 나름대로 전문성을 쌓았다고 생각했지만, 실제 현장에서는 또 다른 병목이 존재하고 있다고 판단됐다"며 "AI 강국이 되려면 결국 국민이 체감해야 한다"고 지적했다.이어 "공공 영역에서 AI를 통해 일하는 방식 혁신을 통해 생산성을 높이고, 대국민 서비스의 속도와 품질을 개선하며 의료·복지 등 사회 문제 해결로 이어져야 가능한 일"이라며 "포티투마루를 통해 공공 AI가 실제로 작동하는 사례를 만들고, 스타트업과 중소기업이 함께 성장할 수 있는 구조를 현장에서 증명하고 싶다"고 덧붙였다. 그러면서 "국내 소프트웨어 산업은 여전히 공공이 큰 축을 차지하고 있는데, 공공 시장이 SI 중심 구조에 머물러 있다 보니 스타트업이 성장할 수 있는 발판이 제한적"이라며 "영국 등은 정부가 클라우드 기반으로 전환하면서 스타트업들이 공공 시장에 자연스럽게 진입했지만, 한국은 제도와 조달 구조가 이를 가로막고 있다"고 지적했다. 소버린 AI 등급체계 직접 개발…'국산 AI' 논쟁 끝낼까 지난 6일 소버린 AI 기준 논의를 위해 직접 평가 기준과 이를 판별할 도구를 개발해 허깅페이스에 공개한 것도 이 같은 문제에 대한 고민에서 출발했다. 그는 소버린 AI 등급 체계인 'T-클래스 2.0'을 깃허브와 허깅페이스에 공개하며 막연한 '국산 AI' 구호로는 기술 주권을 설명할 수 없다는 점을 분명히 했다. 이 부사장이 제안한 'T-클래스 2.0'은 기존 논의와 달리 '설계(Code)', '지능(Weights)', '기원(Data)' 등 세 가지 실체적 기준을 중심으로 AI 모델을 T0부터 T6까지 7단계로 구분한다. ▲단순 API 호출 및 미세조정 수준(T0~T1) ▲오픈 웨이트를 활용한 과도기 모델(T2~T3) ▲소버린 AI의 기준점이 되는 아키텍처를 참조하되 가중치를 처음부터 자체 학습한 T4 ▲독자 설계 아키텍처와 한국어 토크나이저를 갖춘 T5 ▲국산 반도체·클라우드까지 결합한 T6 등으로 분류됐다. 이 중 T4를 T4-1과 T4-2로 세분화한 것이 기존 버전과의 차별점이다. T4-1은 표준 아키텍처를 그대로 유지한 채 가중치를 처음부터 학습한 모델이다. 데이터 주권은 확보했지만, 구조적 독창성은 제한적인 단계다. 반면 T4-2는 기존 아키텍처를 참고하되 레이어 구성, 파라미터 규모, 연산 구조 등을 최적화·확장한 모델로, 글로벌 표준을 활용하면서도 기술 주권까지 일정 수준 확보한 단계로 분류된다. 이 부사장은 "T4-1이 '데이터 소버린' 단계라면, T4-2는 '기술 소버린'에 한 발 더 다가간 모델"이라며 "현재 국내 독자 AI 파운데이션 모델로 선정된 팀 대부분은 모두 T4-2 영역에 해당하는 질적 변형을 수행했다는 점에서 충분히 평가받아야 한다"고 말했다. 이어 "아키텍처는 이미 범용 기술이 됐지만, 가중치는 국가가 소유해야 할 자산"이라며 "T4는 아키텍처라는 그릇을 빌리더라도 데이터와 연산, 결과 지능을 우리가 통제하는 실질적 소버린 모델"이라고 덧붙였다. 일각에서 독자 아키텍처(T5)까지 가야 진짜 소버린으로 인정할 수 있다는 주장에 대해선 "현실을 외면한 기술적 순혈주의"라고 선을 그었다. 또 수백억원을 들여 아키텍처를 처음부터 다시 만들어도 글로벌 표준 모델 대비 성능 우위를 확보하기는 쉽지 않다는 점도 분명히 했다. 이 부사장은 "대다수 기업에게는 아키텍처 재발명보다 고품질 데이터와 학습 인프라에 집중하는 것이 더 합리적인 전략"이라며 "T4는 산업의 허리를 튼튼하게 만드는 표준 전략이고, T5는 국가 안보와 기술 패권을 겨냥한 리더십 전략으로 두 트랙이 함께 가야 생태계가 건강해진다"고 강조했다. 이 기준을 구현한 '소버린 AI 판별 도구(Sovereign AI T-Class evaluator 2.0)'를 직접 개발해 공개한 이유에 대해서도 그는 투명성을 거듭 강조했다. 이 부사장은 "AI 개발은 참조와 변형의 경계가 매우 모호한 회색지대"라며 "명확한 가이드 없이 결과만 놓고 개발자를 비난하는 것은 부당하다"고 말했다. 그러면서 "기준이 없으니 불필요한 논쟁과 감정 싸움만 커진다"며 "누구나 같은 잣대로 설명할 수 있는 최소한의 공통 기준이 필요하다고 판단했다"고 덧붙였다. 실제로 해당 기준 공개 이후 업계에서는 "왜 이제야 이런 기준이 나왔느냐", "사실상 표준으로 삼을 만하다"는 반응이 이어지고 있다. 또 정부에서 이 부사장이 만든 'T-클래스 2.0'을 바탕으로 독자 AI 파운데이션 모델의 평가 기준이 구체적으로 만들어져 심사 투명성을 높여야 한다는 지적도 나왔다. 이 같은 분위기 속에 이 부사장은 독자 AI 논의가 현재 단계에만 머물러서도 안 된다고 지적했다. 또 현재의 혼란이 단기적인 사업 논쟁이 아니라 AI를 국가 전략 차원에서 어떻게 바라볼 것인가에 대한 더 큰 질문으로 이어지고 있다고 봤다. 그는 "독파모가 보여주기식 경쟁이나 단기 성과에 머물면, 월드모델·디지털 트윈·피지컬 AI로 이어지는 다음 스테이지를 놓칠 수 있다"며 "국가 R&D는 지금보다 한 단계 앞을 내다보는 구조여야 한다"고 강조했다. AGI 시대, 5년 내 현실화…AI 국가 전략, 체계적 마련 필요 이 부사장은 AI 경쟁의 종착점을 단기적인 모델 성능 비교에 두는 것 자체가 위험하다고도 경고했다. 그는 AGI(범용인공지능)가 5년 안에 현실화될 가능성이 높다고 전망하며 그 이후를 대비하지 않는 전략은 국가 차원에서도 지속 가능하지 않다고 지적했다. 그는 "AGI는 단순히 모델이 더 똑똑해지는 문제가 아니라 기억 구조와 추론 방식이 인간의 뇌를 닮아가는 단계"라며 "지금 구글이 시도하고 있는 중첩학습처럼 단기·중기·장기 기억을 분리·결합하는 구조는 거대언어모델(LLM) 이후를 준비하는 명확한 신호"라고 말했다. 그러면서 "글로벌 빅테크들은 이미 다음 스테이지를 보고 있다"며 "하지만 우리는 아직 현재 모델이 프롬 스크래치냐 아니냐에만 머물러 있는 건 아닌지 돌아봐야 한다"고 덧붙였다. 이 부사장은 AGI와 ASI(초지능)를 막연한 공포의 대상으로 보는 시각에도 선을 그었다. 그는 "인류는 오래전부터 인간을 능가하는 지능이 등장해 우리가 해결하지 못한 문제를 풀어주길 기대해왔다"며 "중요한 것은 AGI·ASI 자체가 아니라 그것을 어떤 문제 해결을 위해 어떻게 통제하고 활용할 것인가에 대한 고민"이라고 봤다. 이어 "AI를 두려워하기보다 인류 난제 해결이라는 방향성 속에서 통제권을 쥐는 것이 국가 전략의 핵심"이라고 강조했다. 이 부사장은 이 같은 고민을 담아 다음 달께 'AI 네이티브 국가'를 출간할 계획이다. 이 책에는 모델 개발을 넘어 지정학, 경제, 복지, 산업 구조 전반에서 AI가 국가 경쟁력을 어떻게 재편하는지에 대한 고민을 고스란히 담았다. 또 메모리 반도체, 제조 데이터, 클라우드 인프라를 동시에 보유한 한국의 구조적 강점을 짚으며 AI 시대에 한국이 '풀스택 국가'로 도약할 수 있는 전략도 함께 제시할 계획이다. 그는 "국내 AI 논의가 기술 우열이나 모델 성능에만 매몰돼 있는 흐름을 벗어나고 싶었다"며 "같은 기술이라도 국가가 어떤 전략을 취하느냐에 따라 결과는 전혀 달라질 수 있다는 점을 책을 통해 정리하고 싶었다"고 설명했다.마지막으로 그는 "AI를 둘러싼 지금의 혼란은 누군가가 틀렸기 때문이 아니라 기준과 구조가 없었기 때문"이라며 "논쟁을 줄이고 경쟁을 건강하게 만들 수 있는 최소한의 합의점을 만드는 데 앞으로도 계속 목소리를 낼 것"이라고 피력했다.

2026.01.08 10:10장유미

아마존 AI 전략 설계자, 구글 클라우드 합류…에이전트 서비스 강화

구글 클라우드가 아마존에서 인공지능(AI) 전략과 파운데이션 모델 개발을 이끌었던 핵심 인재를 영입하며 AI 에이전트 강화에 박차를 가한다. 미국 IT 미디어 긱와이어에 따르면 구글 클라우드는 아마존에서 14년간 근무하며 AI 전략 수립과 기술 개발을 주도한 카르틱 라마크리슈난을 데이터 클라우드 조직 부사장(VP)으로 선임했다. 라마크리슈난은 아마존의 음성 AI 서비스 '알렉사' 초기 개발에 참여했으며 최근에는 자체 파운데이션 모델 '노바' 개발을 이끈 인물로 알려졌다. 라마크리슈난 부사장은 2012년 아마존에 합류한 이후 대화형 AI부터 멀티모달 범용인공지능(AGI)에 이르기까지 아마존 AI 기술 진화 전반에 관여한 것으로 평가된다. 아마존 합류 이전에는 마이크로소프트(MS)가 텔미 네트웍스를 인수한 후 3년간 수석 플랫폼 엔지니어로 근무한 바 있다. 이번 인사는 아마존 내부 AI 조직 개편과 맞물려 이뤄졌다. 최근 아마존에서는 AI 조직을 이끌던 로히트 프라사드 수석부사장이 회사를 떠났다. 앤디 재시 아마존 최고경영자(CEO)는 AI 모델 연구팀과 맞춤형 실리콘, 양자 컴퓨팅 조직을 통합하는 새로운 체제를 발표했다. 아마존은 지난해 말 '노바 2' 모델을 공개하며 경쟁사 추격에 나선 상태다. 빅테크 업계에서는 AI뿐 아니라 최고위 임원급 인재 이동이 이어지고 있다. 메타는 MS 출신 법무 책임자를 최고법률책임자(CLO)로 영입하는 등 주요 기업 간 인재 확보 경쟁이 더욱 치열해지는 양상이다. 라마크리슈난 부사장은 링크드인을 통해 "우리는 에이전트 시대에 진입하고 있다"며 "세계적 수준의 팀과 함께 미래 자율 데이터 플랫폼을 구축하는 데 집중할 것"이라고 밝혔다.

2026.01.07 17:38한정호

'탑건' 출연 줄리아 루페티, 세라젬 CES 부스 방문 체험

CES 2026 세라젬 전시관에 모델 겸 배우 줄리아 루페티가 등장했다. 세라젬은 줄리아 루페티와 무용가 겸 인플루언서 알레인 워즈워스가 자사 CES 전시관을 방문해 미래 주거형 헬스케어 모델을 살펴봤다고 7일 밝혔다. 줄리아 루페티는 영화 '탑건: 매버릭'에 출연한 바 있다. 세라젬은 이번 CES 2026에서 '나를 가장 잘 아는 살아 숨쉬는 집'을 주제로 'AI 웰니스 홈'을 공개했다. 'AI 웰니스 홈'은 단순히 편의 기능을 제공하는 공간을 넘어 거실·침실·욕실·자녀방 등 집 안 곳곳에 배치된 헬스케어 제품과 기술이 사용자의 생활 패턴과 상태를 인식하고 유기적으로 연결되도록 설계됐다. 이를 통해 일상 공간 전반이 살아 숨 쉬듯 반응하며 하나의 흐름으로 작동하는 것이 특징이다. 특히 세라젬이 제안하는 집은 머무는 장소를 넘어, 거주자의 라이프스타일과 건강 데이터, 생활 리듬을 기반으로 자연스럽게 건강 관리가 이뤄지는 하나의 건강 관리 플랫폼으로 확장된다는 점에서 기존 AI 홈 개념과 차별화된다. 이밖에도 서울경제진흥원을 비롯한 공공기관과 학계 관계자들이 CES 2026 기간 중 세라젬 전시관을 찾아 헬스케어가 개별 제품을 넘어 주거 공간 전반으로 확장되는 흐름 속에서, 주거형 헬스케어 산업이 실제 생활 공간에서 어떻게 구현되고 발전할 수 있는지를 현장에서 확인했다.

2026.01.07 16:10전화평

일론 머스크 xAI, 29조원 투자 확보…엔비디아·중동 국부펀드 가세

일론 머스크가 이끄는 인공지능(AI) 스타트업 xAI가 초대형 투자 유치에 성공하며 글로벌 AI 패권 경쟁에 다시 불을 지폈다. 엔비디아와 중동 국부펀드까지 가세한 이번 투자로 xAI는 대규모 데이터센터와 차세대 AI 모델 개발에 속도를 낼 전망이다. xAI는 6일(현지시간) 시리즈 E 투자 라운드에서 200억 달러(약 29조원)를 유치했다고 밝혔다. 이번 투자 라운드에는 카타르 투자청(QIA), 발로르 에쿼티 파트너스, 스텝스톤 그룹, 피델리티 매니지먼트 앤 리서치, 배런 캐피털 그룹 등이 참여했다. 전략적 투자자로는 엔비디아와 시스코 인베스트먼트가 이름을 올렸다. xAI는 개별 투자 금액과 지분·부채 비중은 공개하지 않았다 . 블룸버그통신은 앞서 엔비디아가 xAI에 최대 20억 달러(약 2조9천억원) 규모 투자를 계획했으며 이번 자금 조달이 약 75억 달러(약 10조8천억원)의 지분 투자와 최대 125억 달러(약 18조원) 규모의 부채를 특수목적회사(SPV)에 담는 구조로 설계됐다고 보도했다. 해당 SPV는 엔비디아 그래픽처리장치(GPU)를 담보로 활용해 칩을 구매하고 이를 5년간 임대하는 방식으로 투자 회수를 도모하는 구조다. xAI는 확보한 자금을 대규모 컴퓨팅 인프라 확장과 AI 제품 개발에 투입할 계획이다. 회사는 테네시주 멤피스에 위치한 콜로서스 데이터센터 단지를 확장 중이며 H100 GPU 기준 100만 개 이상에 해당하는 연산 능력을 구축했다고 설명했다. 현재 훈련 중인 차세대 모델 '그록 5'를 기반으로 신규 AI 서비스 출시도 준비하고 있다. 다만 성장 속도와 함께 규제 리스크도 커지고 있다. 최근 xAI의 그록이 실존 인물을 대상으로 한 불법 이미지 생성 논란에 휘말리며 유럽연합(EU)과 영국, 프랑스 등 여러 국가 규제 당국의 조사를 받고 있다. xAI 측은 "이번 투자는 세계 최고 수준의 AI 인프라 구축을 가속화할 것"이라며 "수십억 명의 이용자에게 혁신적인 AI 제품을 제공해 우주의 본질을 이해한다는 핵심 사명을 진전시킬 것"이라고 밝혔다.

2026.01.07 09:26한정호

메타 떠난 얀 르쿤, 알렉산더 왕 공개 비판…"젊고 경험 부족"

인공지능(AI) 분야 대부로 불리는 얀 르쿤 전 메타 수석 AI 과학자가 메타의 새 AI 리더십을 공개적으로 비판하며 연구 문화 붕괴와 인재 이탈 가능성을 경고했다. 6일 파이낸셜타임즈(FT)에 따르면 얀 르쿤 어드밴스드 머신 인텔리전스 랩스(AMI 랩스) 창립자는 최근 인터뷰에서 메타가 영입한 알렉산더 왕 최고AI책임자(CAIO)에 대해 "젊고 경험이 부족하다"고 평가했다. 그는 왕 CAIO가 "학습 속도는 빠르지만 연구를 실제로 어떻게 수행하는지, 연구자에게 무엇이 매력적이고 무엇이 반감을 사는지에 대한 경험이 전혀 없다"고 지적했다 . 르쿤은 이러한 리더십 변화가 메타 내부 연구 문화에 부정적인 영향을 미치고 있다고 주장했다. 메타가 차세대 AI 전략에서 대규모언어모델(LLM)에만 과도하게 집중하고 있으며 '월드 모델'과 같은 대안적 연구 방향은 사실상 배제되고 있다는 설명이다. 이 과정에서 마크 저커버그 메타 최고경영자(CEO)가 기존 생성형 AI 조직 전반에 대한 신뢰를 잃었고 그 결과 조직 영향력이 축소됐다고도 밝혔다. 특히 그는 "이미 많은 사람들이 회사를 떠났고 아직 남아 있는 사람들 중에서도 앞으로 떠날 이들이 더 나올 것"이라며 메타에서의 추가 인재 이탈 가능성을 언급했다. 안전하고 검증된 접근만을 고수하는 전략이 장기적으로는 경쟁력 약화로 이어질 수 있다는 경고도 덧붙였다. 르쿤은 메타를 떠난 배경에 대해서도 "남아 있는 것이 정치적으로 어려워졌다"며 "내부적으로 연구 철학과 회사의 전략 방향 간 괴리가 컸다"고 설명했다. 이어 "연구는 명령으로 굴러가는 것이 아니며 안전한 선택만 반복하면 결국 뒤처지게 된다"며 메타를 비판했다. 르쿤은 현재 프랑스 파리에 기반을 둔 AMI 랩스를 통해 언어 중심 LLM이 아닌, 물리적 세계를 이해하는 월드 모델 연구에 집중하고 있다. 기업가치는 30억 유로(약 5억868억원)를 인정받을 것으로 예상된다.

2026.01.06 10:43한정호

독자 AI '프롬 스크래치' 논란 재점화…네이버클라우드, 오픈소스 차용 해명

정부가 추진 중인 '독자 인공지능(AI) 파운데이션 모델' 프로젝트를 둘러싸고 기술 자립성 논란이 다시 불거졌다. 네이버클라우드가 일부 멀티모달 구성 요소에 외부 오픈소스 모델을 활용한 사실이 알려지면서 '프롬 스크래치' 기준을 둘러싼 해석 차이가 업계 내 논쟁으로 확산되는 양상이다. 5일 업계에 따르면 네이버클라우드가 멀티모달 AI 모델 '하이퍼클로바X 시드 32B 싱크'의 음성·이미지 입력을 처리하는 비전·오디오 인코더 일부에 중국 알리바바의 오픈소스 모델 '큐웬' 계열을 활용한 것으로 알려졌다. 해당 인코더 가중치가 큐웬 모델과 높은 코사인 유사도와 피어슨 상관계수를 보였다는 점이 공개되면서 정부 과제 취지에 부합하는지 여부가 쟁점으로 떠올랐다. 정부의 독자 파운데이션 모델 프로젝트는 모델을 학습 초기 단계부터 자체 기술로 구축하는 이른바 프롬 스크래치 구현을 주요 평가 요소 중 하나로 삼고 있다. 이 때문에 핵심 구성 요소 중 일부라도 외부 모델을 활용할 경우 기술 자립성에 대한 문제 제기가 불가피하다는 지적이 나온다. 이에 대해 네이버클라우드는 어디까지를 파운데이션 모델로 볼 것인가에 대한 정의 차이를 제시했다. 회사 측은 "파운데이션 모델의 본질은 입력 정보를 해석하고 추론해 결과를 만들어내는 핵심 엔진에 있다"며 "이 영역은 인간으로 치면 사고와 정체성을 담당하는 두뇌에 해당한다"고 설명했다. 이어 "해당 핵심 추론 엔진을 프롬 스크래치 단계부터 100% 자체 기술로 개발해 왔으며 이를 통해 한국어와 한국 사회의 복잡한 맥락을 깊이 이해하는 독자적인 경쟁력을 확보해 왔다"고 강조했다. 논란이 된 비전·오디오 인코더는 이 두뇌에 입력 신호를 전달하는 역할로, 모델의 정체성과는 구분해야 한다는 입장이다. 특히 비전 인코더의 경우 시각 정보를 모델이 이해할 수 있는 신호로 변환하는 시신경 역할을 하며 자체 비전 기술 역량도 충분히 보유하고 있다고 설명했다. 이번 모델에서는 글로벌 기술 생태계와의 호환성과 전체 시스템의 효율적 최적화를 고려해 검증된 외부 인코더를 전략적으로 채택했다는 것이다. 또 네이버클라우드는 이러한 방식이 기술 자립도가 부족해서가 아닌 이미 표준화된 고성능 모듈을 활용해 전체 모델의 완성도와 안정성을 높이기 위한 고도의 엔지니어링 판단이라고 강조했다. 실제 글로벌 AI 업계에서도 알리바바의 큐웬-오디오가 오픈AI의 음성인식 기술을, 큐웬-옴니가 구글의 이미지 인식 기술을 기반으로 구축하는 등 유사한 사례가 존재한다는 점을 근거로 들었다. 아울러 관련 기술적 선택과 라이선스 정보를 허깅페이스와 테크리포트를 통해 투명하게 공개해 왔으며 모델 성능이나 기술 기여를 과장하려는 의도는 전혀 없다고 밝혔다. 멀티모달 AI에서 가장 어려운 과제는 개별 부품의 출처가 아니라 텍스트·음성·이미지를 하나의 유기적인 구조로 통합해 동시에 이해하고 생성하도록 설계하는 통합 아키텍처라는 설명이다. 정부의 독자 파운데이션 모델 프로젝트를 둘러싼 유사성 논란은 이번이 처음은 아니다. 앞서 업스테이지가 개발한 모델을 두고도 일부 가중치 유사성을 근거로 한 의혹이 제기된 바 있으며 이후 공개 검증과 추가 설명을 거치며 논쟁은 일단락됐다. 네이버클라우드 측은 "앞으로도 기술 개발의 모든 과정에서 투명성을 유지할 것"이라며 "단순히 모든 요소를 직접 만들었는가라는 프레임을 넘어, 어떻게 창의적으로 통합해 사용자에게 최고의 가치를 줄 것인가에 집중할 계획"이라고 밝혔다.

2026.01.05 20:32한정호

네이버클라우드, 부산에 생성형 AI 행정 서비스 전면 적용…공공 AX 주도

네이버클라우드가 공공부문 인공지능(AI) 행정 표준 모델을 정립하며 AI 전환(AX) 주도에 나선다. 네이버클라우드는 부산광역시와 함께 생성형 AI를 활용한 행정 서비스를 올해 본격 도입한다고 5일 밝혔다. 하이퍼클로바X를 활용한 부산시 특화 AI 구축, 업무 협업툴 네이버웍스 도입 등 보유 중인 다양한 AI 서비스를 활용해 부산시는 행정 업무 수행 방식 전반을 개선하고 AI 기반 행정 전환을 체계적으로 추진한다는 계획이다. 이를 위해 양 기관은 지난해 4월부터 '부산형 AI 서비스 도입' 사업을 추진했으며 올해부터는 부산시 전 부서의 AI 도입을 시작한다. 향후 3년간 기술 고도화와 서비스 확산을 단계적으로 추진해 부산형 AI 행정 서비스를 공공 AI 행정의 표준 모델로 완성해 나가는 것이 목표다. 첫 단계로 부산시는 지난해 네이버클라우드의 경량화 AI 모델인 하이퍼클로바X 대시를 기반으로 부산시 특화 AI 모델 구축에 착수해 행정 규정과 사례, 지역 정보 등 약 16만 건에 달하는 행정 데이터를 학습시키며 신속한 행정 처리가 가능한 환경을 마련했다. 이후 모델 업그레이드를 통해 질의응답의 정확성과 전문성을 높였으며 올해 초에는 전 부서 약 6천 명을 대상으로 실제 서비스를 확대 운영한다. 해당 서비스는 생성형 AI를 활용해 법령·지침·업무 자료 등을 기반으로 한 질의응답은 물론 정책·보고서 초안 작성 등 총 22종의 행정 서비스를 제공한다. 내부 자료를 활용한 자체 AI 모델을 구축해 공공 분야에서 요구되는 보안성과 신뢰성을 확보한 것이 특징이다. 부산시는 AI 행정 서비스의 실효성을 높이고 메신저 기반 협업 환경을 조성하기 위해 네이버클라우드의 AI 업무 협업도구인 네이버웍스도 사용 중이다. 부산시는 지난해 9월 국가정보자원관리원 화재 사고 시 네이버웍스를 신속하게 도입해 행정 업무 공백을 최소화한 바 있다. 특히 회사 측에 따르면 부산시 특화 AI 서비스 'AI 부기 주무관'을 네이버웍스에 챗봇 형태로 구현해 공무원들의 큰 호응을 얻었다. AI 부기 주무관은 내부 행정 데이터와 온나라, 외부 기관 사이트에서 수집한 정보를 기반으로 질의응답을 통한 내부 문서 추천·요약은 물론 11종의 문서 초안 작성, 외부 리서치 등 개인 비서형 AI 행정 업무를 지원한다. 직원 간 전화 응대 최소화, 반복적인 단순 행정 업무를 AI가 보조함으로써 공무원이 본질적인 업무에 집중할 수 있는 환경을 구현하고 민원 응대 정확도를 높였다는 설명이다. 김유원 네이버클라우드 대표는 "이번 부산시와의 행정 AI 혁신은 생성형 AI를 실제 행정 업무에 적용해 업무 방식 자체를 전환한 공공 거버넌스 테크의 대표적 사례"라며 "앞으로도 공공기관이 안전하고 신뢰할 수 있는 방식으로 AI를 활용할 수 있도록 기술 고도화와 서비스 확산을 적극 지원하겠다"고 말했다.

2026.01.05 16:08한정호

[유미's 픽] 고석현發 中 모델 의혹에 정부도 '움찔'…국가대표 AI 개발 경로까지 본다

정부가 독자 인공지능(AI) 파운데이션 모델 프로젝트 정예 5개 팀을 대상으로 최종 모델뿐 아니라 복수의 중간 학습 기록까지 제출받아 검증하기로 하면서 국가 AI 사업의 평가 기준이 성능 경쟁에서 개발 경로 검증 중심으로 전환되고 있다. 업스테이지의 '솔라 오픈 100B'를 둘러싼 모델 유사성 논란을 계기로, 정부가 '프롬 스크래치(from scratch)' 여부를 기술적으로 입증하는 체계를 본격화했다는 해석이 나온다. 4일 과학기술정보통신부에 따르면 정부는 다음 주부터 평가를 진행해 오는 15일께 독자 AI 파운데이션 모델 프로젝트 정예 5개 팀 중 한 팀을 탈락시킨다. 이번 평가에서는 모든 팀으로부터 최종 모델 파일과 함께 복수의 중간 체크포인트(checkpoint)를 제출받아 전문기관인 한국정보통신기술협회(TTA)를 통해 면밀한 기술 검증을 실시할 예정이다. 중간 체크포인트는 AI 모델이 학습 과정에서 일정 단계마다 저장한 가중치 상태로 ▲모델이 랜덤 초기화에서 출발했는지 ▲학습이 연속적인 경로를 거쳤는지 ▲외부 모델 가중치가 중간에 유입됐는지 여부를 사후적으로 확인할 수 있는 핵심 자료다. 단일 최종 결과물만으로는 확인하기 어려웠던 개발 이력을 추적할 수 있다는 점에서 업계에선 이번 방침을 프롬 스크래치 주장에 대한 증빙 책임을 제도화한 조치로 보고 있다.배경훈 과학기술정보통신부 부총리 겸 장관은 "평가 과정에서 모든 정예팀으로부터 개발 모델의 최종 파일과 복수의 중간 체크포인트 파일 등을 제출받아 검증할 예정"이라며 "전문가 평가위원회를 통해서도 같은 자료를 바탕으로 계획에 부합한 AI 모델이 개발됐는지 여부를 검증해 확인할 것"이라고 설명했다. 정부가 이처럼 나선 것은 고석현 사이오닉에이아이 대표가 지난 1일 업스테이지의 독자 AI 프로젝트 모델 '솔라 오픈 100B'가 중국 AI를 도용·파생했다는 의혹을 제기한 것이 계기가 됐다. 고 대표는 '솔라 오픈 100B'의 기술 분석 자료를 공개하고 중국 지푸AI의 'GLM-4.5-에어' 모델에 기반을 둔 파생 모델이라고 의혹을 제기했다. 또 정부가 독자 AI 프로젝트의 참여 조건으로 제시한 프롬 스크래치(처음부터 만드는 것) 방식으로 학습된 모델이라면 나타나기 어려운 유사도라고 강조했다.이에 업스테이지는 곧바로 다음날 서울 강남역 인근에서 기술 공개 검증 행사를 열어 단순 레이어 유사성만으로 모델 파생 여부를 단정하는 것은 무리가 있다고 반박했다. 김성훈 업스테이지 대표는 "학습된 다른 모델의 가중치를 그대로 가져왔다면 프롬 스크래치가 아니지만, 모델 아이디어나 인퍼런스 코드 스타일을 참조하는 건 허용된다"며 "오픈소스 생태계에서 모델이 상호 호환되려면 구조가 비슷해야 한다"고 주장했다. 이후 문제를 제기한 고 대표는 또 다른 게시물을 통해 "상이한 모델도 레이어 값에선 높은 유사도를 보일 수 있다고 본다"면서도 "중국 모델 코드와 구조를 잘 학습하는 게 국가적인 AI 사업의 방향으로 타당한지는 의문"이라고 재차 문제를 제기했다. 이를 두고 업계에선 고 대표가 제시한 분석이 기술적으로 성립하기 어렵다는 점을 지적하며 전반적으로 업스테이지의 손을 들어줬다. 고 대표 역시 이날 또 다시 입장문을 통해 자신의 분석 방법에 한계가 있었음을 인정하며 "해당 근거를 보다 엄밀하게 검증하지 않은 채 공개함으로써 불필요한 혼란과 논란을 야기했다"고 사과했다. 그러나 고 대표는 이번 사안을 단순한 기술적 도용 논쟁이 아니라 '소버린 AI'와 '독자 파운데이션 모델'의 기준을 어떻게 정의할 것인가에 대한 구조적 질문으로 봐야 한다는 입장은 여전히 유지했다. 해외 모델의 코드나 구조를 참고·학습하는 방식이 국가 주도 독자 AI 사업의 취지에 부합하는지, 독자성을 판단하는 기준이 기술·학술적으로 얼마나 명확히 정리돼 있는지에 대한 논의가 필요하다고도 주장했다. 일각에선 고 대표의 초기 문제 제기 방식에 대해선 비판적인 태도를 보였으나, 이번 논쟁을 통해 독자 AI 모델의 개발 경로, 외부 레퍼런스 활용 범위, 학습 과정 공개 수준 등에 대한 사회적 합의 필요성이 수면 위로 떠올랐다는 점에 대해선 긍정적으로 봤다. 업계 관계자는 "이번 논란은 누가 옳고 그르냐를 가르는 사건이라기보다 한국형 파운데이션 모델을 어떤 기준으로 검증하고 설명해야 하는지를 집단적으로 학습한 과정에 가깝다"며 "검증 로그 공개, 체크포인트 관리, 참고 문헌 표기 같은 관행이 정착되는 계기가 될 수 있다"고 말했다. 또 다른 관계자는 "(고 대표가) 의혹을 제기하는 과정에서는 분명히 성급했던 부분이 있었지만, 사과와 인정이 공개적으로 이뤄졌다는 점 자체가 국내 AI 생태계의 성숙도를 보여주는 장면"이라며 "장기적으로는 정부 프로젝트 전반의 신뢰성을 높이는 방향으로 이어질 가능성이 크다"고 평가했다.정부 역시 이번 사안을 계기로 독자 AI 파운데이션 모델 프로젝트의 평가 기준을 보다 구체화해야 한다는 과제를 안게 됐다. 성능 중심 평가를 넘어 학습 경로의 투명성, 외부 기술 활용에 대한 명확한 가이드라인, 검증 가능한 공개 방식 등이 제도적으로 보완될 필요가 있다는 지적이다.이번 일에 대해 배 부총리는 긍정적으로 평가하며 독자 AI 파운데이션 모델의 검증 체계를 보완해야 할 필요성을 언급했다. 또 이번 사안을 계기로 정부가 정의한 '독자 AI 파운데이션 모델'을 어떻게 기술적으로 검증할 것인가에 대해서도 고민하는 모습을 보였다. 그는 지난 3일 자신의 소셜 미디어(SNS)를 통해 "데이터 기반의 분석과 이에 대해 공개 검증으로 답하는 기업의 모습은 우리 AI 생태계가 이미 글로벌 수준의 자정 작용과 기술적 투명성을 갖추고 있음을 보여준다"며 "성장통 없는 혁신은 없다"고 밝혔다. 이어 "의혹 제기는 할 수 있는 것"이라며 "이를 공개 검증으로 증명한 기업과 인정하고 사과한 문제 제기자 모두에게 감사하다"고 덧붙였다.국가AI전략위원회 관계자들도 이번 일에 대해 긍정적으로 평가했다. 박태웅 국가AI전략위원회 공공 AX 분과장은 "순식간에 다양한 검증과 토론이 이뤄지는 과정을 통해 한국 AI 생태계의 저력을 확인했다"고 말했다. 임문영 국가AI전략위원회 부위원장 역시 "검증 논란을 통해 방법의 한계와 개선점이 드러났고, 이는 AI 생태계가 건강하게 작동하고 있음을 보여준다"고 밝혔다.조준희 국가AI전략위원회 산업 AX·생태계 분과장도 최근 독자 파운데이션 모델의 유사성 논란이 건강한 기술 토론으로 이어진 점을 매우 고무적이라고 평가했다. 그러면서도 이제는 기술의 원천에 대한 논쟁을 넘어 '우리 모델이 글로벌 빅테크 대비 어떠한 차별적 경쟁력을 갖출 것인가'라는 소비자 관점의 본질에 집중해야 한다는 점도 강조했다. 그는 "'독자 기술'이라는 명분에만 함몰되면 정작 사용성이 뒤처져 시장에서 외면 받는 결과를 초래할 수 있다"며 "모델의 성패가 사용자의 선택에 달려 있다"고 밝혔다. 이어 "국내 모델이 지속 가능한 선순환 구조를 만들려면 적시성 있는 답변과 높은 활용도 등 철저히 고객 친화적 개발 방향을 견지해야 할 것"이라며 "5개 컨소시엄들이 이 기술을 어떻게 '잘 팔리는 서비스'와 '매력적인 상품'으로 연결할지 치열하게 고민해야 할 시점"이라고 덧붙였다. 다만 일각에선 정부가 '프롬 스크래치'를 어디까지 허용할 것인지에 대한 세부 기술 기준을 공식 문서로 명시하진 않았다는 점에서 여전히 우려를 나타냈다. 오픈소스 아키텍처 활용 범위, 구조적 유사성의 허용선, 토크나이저 재사용 여부 등은 여전히 정책적 해석의 영역으로 남아 있어서다. 업계에선 이번 정부 방침을 독자 AI 평가가 '결과물 중심'에서 '개발 경로와 증빙 책임 중심'으로 이동하고 있음을 보여주는 신호로 받아들이는 분위기다. 성능 지표만으로는 설명할 수 없는 '독자성'을 앞으로 학습 이력과 로그로 입증해야 하는 단계에 들어섰다는 점에서 고무적으로 평가했다. 업계 관계자는 "이번 논란은 누가 맞고 틀렸는지를 가리는 사건이라기보다 한국 AI 생태계가 공개 검증과 공개 토론을 감당할 수 있는 단계에 들어섰음을 보여준 사례"라며 "이 경험이 제도와 기준으로 남는다면 독자 AI를 둘러싼 논쟁은 반복되지 않을 것"이라고 말했다. 배 부총리는 "지금의 논쟁은 대한민국 AI가 더 높이 도약하기 위해 반드시 거쳐야 할 과정"이라며 "정부는 공정한 심판이자 든든한 페이스메이커로서 우리 AI 생태계가 성숙하게 발전할 수 있도록 역할을 다하겠다"고 밝혔다.

2026.01.04 06:00장유미

딥시크, 고효율 AI 학습 프레임워크 공개…차기 모델 'R2' 신호탄

중국 인공지능(AI) 스타트업 딥시크가 연산량과 에너지 소모를 크게 줄이면서도 대규모 확장이 가능한 새로운 AI 학습 방법을 공개하며 차세대 모델 출시 기대감을 키우고 있다. 미국의 첨단 반도체 수출 규제로 고성능 그래픽처리장치(GPU) 확보에 제약을 받는 상황에서도 기술 혁신으로 돌파구를 찾고 있다는 평가가 나온다. 3일 블룸버그통신에 따르면 딥시크는 최근 창업자 량원펑이 공동 저자로 참여한 논문을 통해 '매니폴드 제약 초연결'이라는 새로운 AI 학습 프레임워크를 공개했다. 이 방법은 AI 훈련 과정에서 발생하는 불안정성을 낮추고 인프라 최적화를 통해 연산량과 에너지 소비를 줄이면서도 확장성을 개선하는 데 초점을 맞췄다. 해당 논문은 사전 논문 공개 사이트 아카이브와 오픈소스 플랫폼 허깅페이스를 통해 공개됐으며 량원펑을 포함한 19명의 연구진이 저자로 이름을 올렸다. 실험은 30억~270억 개 매개변수 규모 모델을 대상으로 진행됐고 2024년 바이트댄스가 제안한 초연결 아키텍처 연구를 토대로 효율성과 안정성을 동시에 높인 것으로 평가된다. 딥시크는 과거에도 주요 AI 모델을 출시하기에 앞서 관련 연구 논문을 먼저 공개해왔다. 지난해 1월에는 저비용·고성능 추론 모델 'R1'을 선보이며 글로벌 AI 시장에 적잖은 충격을 안긴 바 있다. 이에 업계에서는 이번 논문 역시 차세대 플래그십 모델 'R2' 출시를 예고하는 신호로 해석하고 있다. R2 모델은 중국 춘제 연휴 전후인 내달 공개될 가능성이 거론된다. 미국의 수출 통제로 엔비디아의 첨단 AI 반도체 접근이 제한된 상황에서 딥시크를 비롯한 중국 AI 기업들은 소프트웨어 최적화와 새로운 학습 구조를 통해 성능을 끌어올리는 전략을 강화하고 있다. 이는 오픈AI, 구글 등 미국 빅테크와의 경쟁에서 비용 대비 효율을 무기로 삼겠다는 중국 AI 업계 전반의 흐름을 보여준다는 분석이다. 블룸버그 인텔리전스의 로버트 리 애널리스트는 "향후 수개월 내 출시될 딥시크의 차세대 모델 R2는 구글의 최근 약진에도 불구하고 글로벌 AI 시장을 다시 한 번 뒤흔들 잠재력이 있다"고 평가했다.

2026.01.03 22:30한정호

[유미's 픽] 뿔난 업스테이지, '솔라 오픈 100B' 中 모델 파생 의혹에 공개 검증 '맞불'

정부에서 추진 중인 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참가한 업스테이지가 첫 성과를 공개한 후 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델을 제출했다는 의혹에 휩싸였다. 업스테이지는 억울함을 표하며 모델 공개 검증 행사와 함께 향후 의혹 제기에 대해 강경 대응에 나설 것을 시사했다. 1일 업계에 따르면 고석현 사이오닉에이아이 대표는 이날 자신의 소셜 미디어(SNS)에 깃허브 리포트를 게재하며 업스테이지 '솔라 오픈 100B'가 중국 지푸(Zhipu) AI의 'GLM-4.5-에어'에서 파생된 모델이라고 주장했다. 고 대표는 "국민 세금이 투입된 프로젝트에서 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델이 제출됐다"며 "상당히 큰 유감"이라고 말했다. 이번 논란은 이날 오후 1시께 올라온 깃허브 리포트가 발단이 됐다. 이 리포트는 '솔라 오픈 100B'와 'GLM-4.5-에어'의 가중치 구조를 통계적으로 비교 분석한 결과를 담고 있다. 앞서 업스테이지는 지난 달 30일 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 '프롬 스크래치(From Scratch)'를 기반으로 개발했다고 소개했다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 하지만 리포트 작성자는 '솔라 오픈 100B'와 'GLM-4.5-에어' 두 모델의 레이어별 파라미터 유사도를 측정한 결과 일부 계층에서 매우 높은 수준의 유사성이 관측됐다고 설명했다. 또 동일 모델 내부 레이어 비교보다 솔라와 GLM 간 동일 레이어 비교에서 더 높은 유사도가 나타났다고 주장하며, 이를 근거로 솔라 오픈 100B가 GLM-4.5-에어에서 파생됐다고 결론 내렸다. 다만 일각에서는 해당 분석이 두 모델의 학습 과정이나 개발 경로를 직접 확인한 것이 아니라는 점에서 해석에 신중할 필요가 있다는 지적이 나온다. 공개된 모델 가중치를 기반으로 한 사후적 통계 비교 방식으로 진행된 데다 실제 학습에 사용된 데이터셋, 학습 로그, 내부 코드베이스 등은 검증 대상에 포함되지 않았기 때문이다. 특정 가중치가 그대로 복사됐거나 모델 바이너리 차원에서 직접적인 공유가 있었다는 증거 역시 이번에 제시되지 않았다. 이 같은 의혹 제기에 대해 업스테이지는 즉각 반박에 나섰다. 고 대표가 게시물을 올린 지 2시간 후 김성훈 업스테이지 대표는 자신의 페이스북을 통해 "솔라 오픈 100B가 중국 모델을 복사해 미세 조정한 결과물이라는 주장은 사실과 다르다"며 "해당 모델은 명백히 프롬 스크래치 방식으로 학습됐다"고 강조했다. 그러면서 김 대표는 오는 2일 오후 3시 서울 강남역 부근에서 솔라 오픈 100B의 개발 과정을 공개적으로 검증받겠다고 밝혔다. 이 자리에는 의혹을 제기한 고석현 대표를 포함해 추가 검증에 참여하고 싶은 업계 및 정부 관계자들을 초청할 계획이다. 또 업스테이지 측은 이후에도 이 같은 의혹이 제기될 경우 더 강경하게 대응할지에 대해서도 내부 검토에 착수했다. 김 대표는 "학습에 사용한 중간 체크포인트(checkpoint)와 AI 모델 학습 과정과 실험 결과를 기록·관리하는 도구인 '웨이츠 앤 바이어시스(Weights & Biases·wandb)'를 모두 공개할 예정"이라며 "명확한 검증 절차를 공개해 사실 관계를 바로잡도록 할 것"이라고 말했다. 업계에서는 이번 공개 검증이 논란의 분수령이 될 수 있다는 평가를 내놨다. 실제 학습 체크포인트와 로그가 공개될 경우 '솔라 오픈 100B'가 특정 시점에서 외부 모델을 기반으로 파인튜닝됐는지, 독립적인 학습 경로를 거쳤는지를 보다 명확히 확인할 수 있기 때문이다. 동시에 통계적 유사성만으로 모델 복제 여부를 단정하기는 어렵다는 신중론도 제기된다. 대규모 언어모델 개발 과정에서는 유사한 아키텍처와 데이터, 학습 레시피를 사용할 경우 높은 유사도가 나타날 수 있어서다. 또 지식 증류(distillation)나 합성 데이터 활용 여부에 따라 통계적 패턴이 겹칠 가능성도 존재한다는 지적도 나온다. 업계 관계자는 "이번 논란이 주목받는 이유는 해당 모델이 정부 예산이 투입되는 '독자 AI 파운데이션 모델 프로젝트'의 결과물이기 때문"이라며 "사업 취지상 해외 모델에 대한 기술적 의존 여부와 개발 과정의 투명성은 핵심적인 검증 대상이 될 수밖에 없다"고 설명했다. 그러면서 "결국 이번 사안의 핵심은 통계 분석을 둘러싼 해석 논쟁을 넘어 실제 개발 과정에 대한 객관적 검증으로 옮겨가고 있다"며 "업스테이지가 예고한 공개 검증을 통해 솔라 오픈 100B의 학습 경로와 독립성이 어느 수준까지 입증될지에 많은 관심이 쏠리고 있다"고 덧붙였다.또 다른 관계자는 "이번 논란이 특정 기업의 문제를 넘어 독자 AI 파운데이션 모델 사업 전반의 검증 기준을 끌어올리는 계기가 될 수 있다"며 "다른 참여 기업들 역시 향후 모델 공개 과정에서 학습 출처와 개발 경로에 대한 설명 책임이 더 커질 가능성이 있다"고 말했다.

2026.01.01 18:09장유미

[유미's 픽] "주사위는 던져졌다"…국대 AI 첫 탈락자, 1차 발표회서 판가름?

우리나라를 대표할 인공지능(AI) 모델을 선발하는 정부 사업 '독자 AI 파운데이션 모델 프로젝트'의 첫 결과물이 공개된 가운데 어떤 기업이 이번 심사에서 살아남을지 관심이 집중된다. 각 사업자들이 내세운 모델의 성과가 달라 정부가 심사기준을 어떻게 세웠을지도 관심사다. 31일 업계에 따르면 네이버, LG AI연구원, SK텔레콤은 AI 임원, NC AI와 업스테이지는 대표가 지난 30일 오후 2시부터 서울 강남구 코엑스에서 개최된 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참여했다. 발표는 네이버를 시작으로 NC AI, 업스테이지, SK텔레콤, LG AI연구원 순서로 진행됐다. 독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업이다. 과학기술정보통신부는 이번 발표를 기반으로 심사를 통해 내년 1월 15일 1개 팀을 탈락시키고, 이후에도 6개월마다 평가를 거쳐 2027년에 최종 2개 팀을 선정한다. 모델 성과 제각각…정부 심사 기준이 관건 이번 심사에선 각 팀이 주어진 공통 과제를 얼마나 잘 수행했는지, 각자 제시한 목표대로 성과를 냈는지가 관건이다. 모든 팀은 최근 6개월 내 공개된 글로벌 최고 모델 대비 95% 이상의 성능을 달성해야 하는 과제가 주어진 상태다.지난 8월 정예팀으로 선정된 지 4개월만에 첫 성과를 공개해야 하는 만큼, 개발 시간이 부족한 상황에서 각자 기술력을 얼마나 끌어올렸을지도 관심사다. 각 팀의 GPU 지원 여부, 지원 받은 시기 등이 각각 달랐다는 점에서 정부가 이를 심사 시 고려할 지도 주목된다. 이번 프로젝트를 위해 SK텔레콤과 네이버클라우드는 정부에게 GPU를 임대해주고 있다. 이 탓에 두 업체는 올해 '독자 AI 파운데이션 모델 프로젝트' 진행 시 정부로부터 GPU를 지원 받지 못했다. SK텔레콤은 엔비디아의 B200 칩 1천24장을 업스테이지와 LG AI연구원에, 네이버클라우드는 H200 칩 1천24장을 NC AI에 지원하고 있다. 이 탓에 GPU가 각 업체에 지원된 시기는 다 달랐다. 업계에선 정부가 어떤 기준을 세울지에 따라 각 팀의 승패가 갈릴 것으로 봤다. 정부는 그간 5개팀과 여러 차례 만나 평가 기준에 대해 논의 후 이달 중순께 합의를 보고 공지했으나, 어떤 팀이 탈락할 지에 따라 여전히 논란의 불씨가 많은 것으로 알려졌다. 업계 관계자는 "당초 5개 팀이 선정될 당시 정부에 제시했던 목표치를 달성했는지가 가장 중요할 것"이라며 "각 팀이 목표로 하고 있는 모델의 크기, 성능, 활용성이 제각각인 만큼 목표 달성률을 가장 중요한 기준치로 삼아야 할 것"이라고 강조했다. 이어 "벤치마크를 활용한다는 얘기가 있지만 모델 크기가 클수록 다운로드 수 측면에서 불리할 수 있어 이를 객관적 기준으로 삼기에는 다소 무리가 있을 수 있다"며 "5개 팀과 정부가 어떤 기준에 대해 합의를 했는지, 어떤 전문가를 앞세워 심사에 나설지도 주목해야 할 부분"이라고 덧붙였다. 5개 팀 첫 성과 공개…프롬 스크래치·모델 크기·활용성 주목 이번 1차 결과 공개에서 가장 주목 받는 곳은 업스테이지다. 대기업 경쟁자들 사이에서 짧은 시간 내 '프롬 스크래치(From Scratch)'를 기반으로 가성비 최고 수준인 모델을 완성도 높게 공개했다는 점에서 많은 이들의 호응을 얻었다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 업스테이지는 이날 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 자신감을 표출했다. 특히 발표에 직접 나선 김성훈 대표가 '솔라 오픈 100B'를 개발하게 된 과정을 스토리텔링 형식으로 발표해 호응을 얻기도 했다. 김 대표는 향후 200B, 300B 모델과 함께 멀티모달 모델도 선보일 예정이다.업계 관계자는 "김 대표가 발표 때 딥 리서치나 슬라이드 제작 등 코딩 외에 실제로 현장에서 많이 써봤을 것 같은 서비스를 직접 라이브 데모로 보여준 부분이 인상적이었다"며 "504장의 B200 GPU로 두 달 남짓 훈련한 것을 고려하면 모델 크기나 사용된 토큰수(추정)를 정말 빡빡하게 잘 쓴 게 아닌가 싶다"고 평가했다. 이승현 포티투마루 부사장은 "(업스테이지 발표 때) 솔라 프로가 'GPT-4o-미니'나 '파이-3 미디엄'보다 벤치마크가 높아 동급 사이즈에선 가장 우수하다고 했는데, 실제 가성비가 최고 수준인 것으로 보인다"며 "당장 기업들이 가져다 쓰기에도 좋을 것 같다"고 말했다. 이어 "그동안 업스테이지의 상징과도 같았던 DUS(구조 일부를 변경해 자체화한 AI 모델 개발 방식)를 넘어 프롬 스크래치로 모델을 개발했다는 점이 인상적"이라며 "기술 리포트가 없는 게 아쉽지만, 모델 카드에 프롬 스크래치를 기재한 것과 함께 API도 공개해 자신감을 드러낸 것이 국가대표로 내세우기 적합해 보였다"고 덧붙였다. 배경훈 과학기술정보통신부 부총리 겸 장관을 배출한 LG AI연구원도 이번 발표가 끝난 후 개발 중인 모델이 국가대표로 인정받기에 손색이 없다는 평가를 받았다. 이곳은 '엑사원 4.0' 아키텍처를 기반으로 파라미터 크기를 약 7배 키워 초기화한 상태에서 새로 학습시킨 'K-엑사원'을 이번에 공개했다. 'K-엑사원'은 매개변수 236B 규모의 프런티어급 모델이다. LG AI연구원에 따르면 'K-엑사원'은 개발 착수 5개월 만에 알리바바의 '큐웬3 235B'를 뛰어 넘고 오픈AI의 최신 오픈 웨이트 모델을 앞서 글로벌 빅테크 최신 모델과 경쟁할 수 있는 가능성을 입증했다. 글로벌 13개 공통 벤치마크 평균 성능 대비 104%를 확보했다는 점도 눈에 띄는 요소다. LG AI연구원은 "기존 엑사원 4.0 대비 효율성을 높이면서도 메모리 요구량과 연산량을 줄여 성능과 경제성을 동시에 확보했다"며 "특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 GPU 환경에서 구동할 수 있도록 했다"고 설명했다. 이곳은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다. 또 글로벌 프론티어 AI 모델을 뛰어넘는 경쟁력을 확보해 한국을 AI 3강으로 이끌 것이란 포부도 드러냈다. 이번 발표를 두고 업계에선 LG AI연구원이 5개 팀 중 기술적인 내용이 가장 많이 들어있어 신뢰도가 높았다고 평가했다. 또 추론 강화를 위해 아키텍처를 변형하고 커리큘럼 러닝을 적용했다는 점에서 모델이 '프롬 스크래치'임을 명백히 보여줬다고 평가했다. 다만 동일 아키텍처인 32B 모델의 리포트와 가중치만 공개돼 있고, 이번 모델인 236B는 공개하지 않았다는 점은 아쉬운 대목으로 지적됐다. 업계 관계자는 "'K-엑사원'은 구조, 가중치가 완전 국산이란 점에서 통제권과 설명 가능성이 충분히 확보돼 있다고 보인다"며 "국방, 외교, 행정망 등 국가 핵심 인프라에 충분히 쓰일 수 있을 듯 하다"고 말했다. 그러면서도 "이번 발표에서 자체 MoE나 하이브리드 어텐션(hybrid attention, 효율·성능을 위해 다양한 어텐션 방식을 상황별로 혼합한 구조), 아가포(AGAPO, 어텐션·파라미터 사용을 입력에 따라 동적으로 조절하는 내부 최적화 기법) 같은 기술들에서 인상 깊은 것이 없다는 것은 아쉽다"며 "다음에는 실질적 효과에 대한 정량적 수치가 잘 기술되면 좋을 듯 하다"고 덧붙였다.이에 대해 LG AI연구원 관계자는 "모델 제출 마감이 이번 주까지여서 제출 시점에 236B 모델을 공개할 것"이라며 "이 때 테크 리포트로 세부 사항도 담을 예정"이라고 설명했다. SK텔레콤도 이번 발표에서 많은 이들의 주목을 받았다. 짧은 시간 안에 국내 최초로 매개변수 5천억 개(500B) 규모를 자랑하는 초거대 AI 모델 'A.X K1'을 공개했기 때문이다. 특히 모델 크기가 경쟁사보다 상당히 크다는 점에서 AI 에이전트 구동 등에서 유리한 고지에 있다는 일부 평가도 나오고 있다. SK텔레콤은 모델 크기가 성능과 비례하는 AI 분야에서 한국이 AI 3강에 진출하려면 500B 규모의 AI 모델이 필수적이란 점을 강조하며 톱2까지 오를 것이란 야심을 드러내고 있다. 또 SK텔레콤은 모두의 AI를 목표로 기업과 소비자간 거래(B2C)와 기업간거래(B2B)를 아우르는 AI 확산 역량도 강조했다. 여기에 SK하이닉스, SK이노베이션, SK AX 등 관계사와 협업으로 한국의 AI 전환에 이바지하겠다는 포부도 밝혔다. 다만 일각에선 프롬 스크래치로 모델을 개발했는지에 대한 의구심을 드러내고 있어 심사 시 이를 제대로 입증해야 할 것으로 보인다. SK텔레콤은 MoE 구조라고 강조했으나, 각 전문가 모델들이 자체 개발인지, 오픈소스 튜닝인지 밝히지 않아 궁금증을 더했다. 또 모델카드는 공개했으나, 테크니컬 리포트를 공개하지 않았다는 점도 의구심을 더했다. 이승현 포티투마루 부사장은 "MoE 구조를 독자 개발했다면 보통 자랑스럽게 논문을 내는 것이 일반적"이라며 "SKT가 'A.X 3.1(34B)'라는 준수한 프롬 스크래치 모델이 있으나, 이를 15개 정도 복제해 MoE 기술로 묶은 것을 이번에 'A.X K1'으로 내놓은 것이라면 혁신은 아니라고 보여진다"고 평가했다. 이어 "정량적 벤치마크보다 서비스 적용 사례 위주로 발표가 돼 기술적 성취보다 '서비스 운영 효율'에 방점이 찍힌 듯 했다"며 "SKT가 'A.X 3.1' 모델 카드에 프롬 스크래치를 분명히 명시했지만, 이번에는 명시하지 않아 소버린 모델로 활용할 수 있을지에 대해선 아직 판단이 이르다"고 덧붙였다. 이에 대해 SKT는 다소 억울해하는 눈치다. 프롬 스크래치로 개발을 한 사실이 명백한 만큼, 조만간 발표될 테크니컬 리포트를 통해 일각의 우려를 해소시킬 것이란 입장이다. SKT 관계자는 "모델 카드에 밝혔듯 A.X K1은 192개의 소형 전문가(expert)를 가지는 MoE 구조로, A.X 3.1 모델을 단순히 이어 붙여서 만들 수 없는 복잡한 구조인 만큼 처음부터 프롬 스크래치로 학습됐다"며 "관련 세부 내용은 이달 5일 전후 테크니컬 리포트를 통해서 공개할 예정"이라고 밝혔다. 업계 관계자는 "SKT가 500B 모델을 만든다는 것을 사전에 알고 우려가 많았지만, 다른 팀에 비해 성공적으로 압도적으로 큰 모델을 공개했다는 것 자체는 굉장히 인상적"이라며 "내년 상반기까지 정부에서 지원하는 GPU를 쓰지 않기 때문에 SKT가 얼마나 많은 GPU를 투입했는지 알 수는 없지만, 500B를 충분히 학습하기에는 (성능을 끌어 올리기에) 시간이 부족했을 것 같다"고 말했다. 그러면서도 "2T까지 만들겠다는 포부는 높이 평가한다"며 "성공적인 2T 모델이 나오기를 기대한다"고 부연했다. 네이버클라우드는 국내 최초 네이티브 옴니모달 구조를 적용한 파운데이션 모델 '하이퍼클로바 X 시드 8B 옴니'를 오픈소스로 공개하며 자신감을 드러냈다.이곳은 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니 모델'을 제시했다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아닌, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 또 네이버클라우드는 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 고성능 추론모델 '하이퍼클로바 X 시드 32B 씽크'도 오픈소스로 공개했다. 이 모델은 올해 대학수학능력시험(수능) 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 업계에선 네이버클라우드의 발표를 두고 실제 '애니-투-애니(Any-to-Any) 모델'을 작은 사이즈로 공개한 부분에 대해 인상적이라고 평가했다. '애니-투-애니 모델'은 입력과 출력의 모달리티(형식)를 가리지 않고 어떤 조합이든 처리할 수 있는 멀티·옴니모달 모델이다. 또 유일하게 '덴스(Dense) 모델'을 썼다는 점도 주목을 받았다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다. 이로 인해 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수는 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 의견도 있다. 당초 1차 심사 때 14B를 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 점도 아쉬운 점으로 지목됐다. 업계 관계자는 "네이버가 태생부터 멀티모달인 '네이티브 옴니' 아키텍처를 설계했다는 점에서 방향성이 완벽하고 독자모델로도 입증을 했지만, 경량 모델을 공개했다는 점이 아쉽다"며 "거대 모델로 스케일업 했을 때의 추론 능력과 비용 효율성이 아직 검증되지 않았다는 것이 우려된다"고 짚었다. 이어 "옴니모달은 구글, 오픈AI도 지향하는 최신 아키텍처"라며 "네이버가 이를 '패치워크(여러 모델 붙이기)'가 아닌 '네이티브'로 구현했다고 강조했다는 점에서 소버린 모델로는 충분한 가치가 있다"고 덧붙였다. NC AI는 이연수 대표가 직접 발표에 나서 산업 특화 AI를 위한 파운데이션 모델 '베키(VAETKI)'를 소개했다. 또 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고 100B급 LLM 개발도 마쳤다고 공개했다. NC AI에 따르면 현재 베키는 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용돼 실질적인 성과를 창출하고 있다. NC AI는 AI 모델 바로크에 3차원(3D) 생성 기술이 결합된 바로크 3D를 활용해 전 산업군에 최적화된 버티컬 AI 설루션을 제공한다는 계획이다. 이 대표는 "우리는 1차로 100B(1천억 개)급 파운데이션 모델의 틀을 마련했다"며 "2차에서 200B, 3차에서 300B급으로 글로벌 모델급 성능을 달성하려고 한다"고 강조했다. 업계에선 NC AI의 이번 발표를 두고 경쟁력 있는 모델을 다수 보유하고 있는 것에 비해 전달력이 미흡했다고 평가했다. 100B 모델과 함께 서비스에 특화된 7B, 20B, VLM 7B까지 다양한 모델을 준비했으나, 발표 구성이 미흡해 강점이 충분히 전달되지 못했다는 의견도 나왔다. 업계 관계자는 "NC AI의 텍스트로 3D 에셋을 만드는 성능은 확실한 산업적 가치를 보여주지만, 그 이상의 것은 없어 아쉽다"며 "100B 모델을 기반으로 게임에 특화된 AI 활용을 좀 더 많이 보여줬다면 훨씬 좋았을 것 같다"고 말했다. 성과 확인 '끝'…1차 발표회 호평 속 투명한 검증 '과제' 업계에선 이번 1차 발표회의 전반적인 진행에 대해 긍정적인 평가와 함께 정부가 앞으로 조금 더 구체적인 국가대표 AI 육성 평가를 내놓을 필요가 있다고 지적했다. 이번 발표회에서 소버린 AI를 강조하는 곳은 많지만, 그 실체를 증명하는 기준이 조금 느슨해보였다는 평가도 나왔다. 업계 관계자는 "이번 발표회에서 각 팀들이 얼마나, 어떻게 혁신적인 모델을 개발해 공개했는지에 대한 구체적인 설명이 없어 아쉬움이 컸다"며 "단순한 제품 홍보 발표회 느낌을 많이 받았지만, 단기간에 모든 팀이 굉장한 일을 정부 지원을 토대로 해냈다는 것에 대해선 기대감을 가지게 했다"고 밝혔다. 이어 "최소 100B급 이상의 모델을 학습시킬만한 인프라 운용과 더불어 학습 노하우를 갖추고 있어 보여 좋았다"며 "단기간 내 실험 시간의 물리적 제한이 있었음에도 기본적으로 초거대 AI 모델을 학습시킬 기본 역량은 대부분 갖췄다고 보여져 놀라웠다"고 덧붙였다. 그러면서도 "2차 발표에선 오거나이징 하는 측에서 명확한 발표 가이드를 제시해주면 더 좋을 것 같다"며 "김성훈 업스테이지 대표의 말처럼 국민 세금이 많이 투입되고 있기 때문에 짧지만 굉장히 효과적인 발표회가 앞으로도 진행될 수 있길 바란다"고 언급했다. 또 다른 관계자는 "독자 AI 파운데이션 모델의 핵심은 어떤 데이터로, 어떤 아키텍처를 써서 어떤 방식으로 학습했는지가 투명해야 한다"며 "그 결과물은 글로벌 시장에서 통할 수 있는 객관적 수치로 증명돼야 하고, 각 팀들은 기술 리포트와 모델 카드를 의무적으로 공개해야 제대로 프롬 스크래치로 개발했는지 검증할 수 있다"고 강조했다. 그러면서 "프롬 스크래치가 만능은 아니지만 투명성은 필수"라며 "무늬만 국가대표가 아닌 실력 있는 국가대표를 가려내기 위해선 마케팅의 거품을 걷어내고 기술의 족보를 따지는 엄격한 검증 시스템이 필요하다고 본다"고 덧붙였다.

2025.12.31 17:59장유미

'AI 국가대표' 5개 정예팀, 첫 성적표 공개…"초거대·멀티모달 승부수"

정부가 추진 중인 '독자 인공지능(AI) 파운데이션 모델' 프로젝트 1차 성과가 공개되면서 정예팀 AI 전략 윤곽이 드러났다. 각 팀은 초거대·멀티모달·산업 특화 모델을 앞세워 AI 기술 경쟁력을 제시했다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 30일 서울 코엑스 오디토리움에서 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회를 열었다. 이날 네이버클라우드를 비롯한 NC AI, 업스테이지, SK텔레콤, LG AI연구원 등 5개 정예팀이 1차 성과를 공유했다. 행사에는 전문가, 기업 관계자, 시민 등 1천여 명이 참석했다. 정재헌 SK텔레콤 최고경영자(CEO)와 임우형·이홍락 LG AI연구원 공동원장, 김유원 네이버클라우드 대표, 김성훈 업스테이지 대표, 이연수 NC AI 대표 등 주요 기업 관계자들이 참석했다. 정부 측에서는 배경훈 과기정통부 부총리, 하정우 대통령실 AI미래기획수석, 임문영 국가AI전략위원회 상근 부위원장이 자리를 함께했다. 정부는 이번 1차 발표 이후 내년 1월 중 단계 평가를 진행할 예정이다. 정예팀들의 주요 성과와 향후 계획을 종합적으로 점검한 뒤 평가 결과를 공개하고, 이를 토대로 5개 팀 가운데 4개 팀을 최종 선별할 방침이다. 네이버클라우드, '옴니'모델 공개…NC AI, '베키'로 승부수 네이버클라우드는 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니(Omni) 모델'을 제시했다. 기존 텍스트 중심 AI의 한계를 넘어 현실 세계를 보다 입체적으로 이해하는 것이 목표다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아니라, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 앞으로 네이버클라우드는 옴니 모델를 에이전트 AI와 버티컬 서비스 기반 기술로 활용할 계획이다. 이를 통해 소버린 AI 경쟁력을 강화하고 향후 월드 모델과 로보틱스, 자율주행 등 물리 세계 AI로의 확장도 추진할 방침이다. NC AI는 파운데이션 모델 '베키(VEKI)' 중심으로 산업 특화 AI 기술과 사업 성과를 이뤘다고 강조했다. 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고, 100B급 LLM 개발을 마쳤다는 설명이다. 이연수 NC AI 대표는 베키가 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용됐다고 말했다. 그는 "현대오토에버와 손잡고 산업 AX 목표로 기술 적용을 추진했다"며 "제조·운영 데이터 기반의 AI 활용 가능성을 현장에서 검증하고 있다"고 설명했다. NC AI는 다중 전문가 구조(MoU)와 메모리 최적화 기반 MLA 아키텍처를 고도화해 기존 대비 그래픽처리장치(GPU) 사용량을 최대 83%까지 줄이고 연산 처리 시간도 약 15% 단축했다고 밝혔다. 또 데이터 부문에서는 20조 토큰 규모 다국어 사전 학습 데이터와 제조·공공·AI 안전성 등 14종의 전략적 멀티모달 데이터를 구축한 성과도 공유했다. 업스테이지, '솔라'로 한국어 추론 경쟁력 강조 업스테이지는 파운데이션 오픈 모델 '솔라 100B'를 공개하며 고성능과 효율성을 동시에 확보했다고 밝혔다. 솔라 100B는 LLM 성능을 유지하면서도 실제 활용을 염두에 둔 구조로 설계된 것이 특징이다. 전체 파라미터 규모는 1천억 개로 구성됐지만 실제 추론 과정에서는 약 120억 개 수준 파라미터만 활성화되는 구조로 작동한다. 김성훈 업스테이지 대표는 "이 모델은 대형 모델 수준 추론 능력을 유지하면서도 응답 속도와 자원 효율성을 크게 높였다"고 강조했다. 업스테이지는 해당 모델 학습 과정에서도 효율성을 강조했다. 대규모 GPU 환경에서 발생하는 장애를 자동 감지하고 즉시 대체하는 학습 시스템을 구축해 학습 중단 시간을 절반 이상 줄였다. 김 대표는 "우리는 제한된 기간과 자원 속에서도 약 20조 토큰에 달하는 대규모 데이터를 안정적으로 학습할 수 있었다"고 설명했다. 김 대표는 솔라 100B 특장점으로 우수한 한국어 이해와 추론 능력을 꼽았다. 그는 "해당 모델은 단순 암기가 아닌 단계적 추론과 맥락 이해에 초점을 맞춰 설계됐다"며 "한국어 뉘앙스와 복합 질문에서도 자연스러운 응답을 제공할 수 있다"고 말했다. 업스테이지는 솔라 100B가 산업 현장에서 실질적 생산성 향상을 이끄는 기반 모델로 자리 잡을 것으로 기대하고 있다. 김 대표는 "검색·요약·팩트체크·슬라이드 생성·심층 리포트 작성 등 복합 업무를 에이전트 방식으로 처리할 수 있다"며 "오픈 모델로 공개돼 기업과 연구기관이 커스터마이징할 수 있다"고 강조했다. SK텔레콤, '에이닷 엑스 K1' 공개…"국내 첫 5천억 파라미터" SK텔레콤은 AI 모델 '에이닷 엑스 K1(A.X K1)'을 공개했다. 에이닷 엑스 K1은 5천억 개의 파라미터를 보유한 국내 첫 LLM이다. 한국형 소버린 AI 경쟁력 확보를 목표로 개발됐다. SK텔레콤 정석근 AI CIC장은 "해당 모델은 한국어와 국내 산업 환경을 집중적으로 학습해 높은 언어 이해도와 복합 추론 능력을 갖췄다"고 설명했다. 해당 모델은 웹 탐색과 정보 분석, 요약, 이메일 발송 등 여러 단계를 거치는 복합 업무를 자율적으로 수행할 수 있다. 여행 일정 수립, 요금 조회, 예약 처리 같은 일상 업무뿐 아니라, 제조 현장 데이터와 작업 패턴을 학습해 업무 효율을 높이는 데도 활용되고 있다. 에이닷 엑스 K1은 이미 1천만 명 이상이 사용하는 '에이닷' 서비스에 적용됐다. 향후 앱을 비롯한 전화, 문자 등 여러 채널을 통해 제공될 예정이다. 정 CIC장은 "우리는 국민 누구나 일상에서 초거대 AI를 직접 활용할 수 있는 환경을 구축할 계획"이라고 강조했다. 이날 최태원 SK그룹 회장도 에이닷 엑스 K1 경쟁력을 영상을 통해 강조했다. 최 회장은 "우리는 AI를 반도체와 에너지, 배터리 등 핵심 산업에 빠르게 확산해 산업 경쟁력을 강화할 것"이라며 "대한민국 독자 AI 생태계를 주도할 것"이라고 밝혔다. LG AI연구원, 'K-엑사원' 5개월만 출시…"AI 3강 국가 발판" 이날 LG AI연구원도 'K-엑사원' 모델 성능을 처음 소개했다. 이번 모델은 매개변수 2천360억 개 규모의 프런티어급으로 설계됐다. K-엑사원은 전문가 혼합 모델 구조를 통해 성능과 효율성을 동시 확보한 것이 특징이다. 하이브리드 어텐션 기술을 적용해 기존 모델 대비 메모리 요구량과 연산량을 70% 줄였다. 성능 평가 결과 K-엑사원은 벤치마크 13종 평균에서 72.03점을 기록했다. 이는 알리바바클라우드의 '큐웬3 235B' 대비 104% 높은 성능이다. 또 오픈AI의 최신 오픈 웨이트 모델인 'GPT-OSS 120B'와 비교해도 103% 높은 수치다. 이 모델은 고가의 인프라 대신 A100급 그래픽처리장치(GPU) 환경에서도 구동이 가능하다. 이에 자금력 부족한 스타트업이나 중소기업도 프런티어급 AI 모델을 도입할 수 있는 길을 열었다는 설명이다. LG AI연구원 최정규 AI에이전트 그룹장 "우리는 향후 조 단위 파라미터 규모를 가진 글로벌 빅테크 모델과 경쟁할 것"이라며 "대한민국을 AI 3강 국가로 이끄는 게임 체인저 될 것"이라고 강조했다. 정부 관계자 '한자리'…"정예팀 모두 승자" 이날 정부 관계자도 한자리에 모여 독자 AI 파운데이션 모델 프로젝트에 참여한 정예팀을 격려했다. 배경훈 부총리 겸 과기정통부 장관은 축사를 통해 "AI 모델 개발에 매진해 온 정예팀 모두가 승자"라며 "이번 도전이 대한민국을 AI 강국으로 도약시키고, 경제·사회 전반의 AX 전환을 가속하는 결정적 동력이 될 것"이라고 밝혔다. 하정우 대통령실 AI미래기획수석은 "독자 AI 모델 개발을 통한 산업 생태계 조성을 적극 지원하겠다"며 "이번 프로젝트를 통해 국내 AI 기업들의 경쟁력이 글로벌 수준으로 빠르게 향상되고 있음을 확인했다"고 평가했다. 임문영 국가AI전략위원회 상근 부위원장은 "다섯 정예팀 모두가 대한민국 AI 생태계의 소중한 자산"이라며 "이번 1차 발표는 도전의 끝이 아니라 본격적인 출발점"이라고 강조했다.

2025.12.30 18:45김미정

독자 AI 파운데이션 모델 1차 성과 공개…"글로벌 경쟁력 확인

정부가 글로벌 인공지능(AI) 패권 경쟁을 위해 진행 중인 '독자 AI 파운데이션 모델' 프로젝트의 첫 번째 결과물이 공개됐다. 과학기술정보통신부(이하 과기정통부)와 정보통신산업진흥원(NIPA)은 서울 코엑스 오디토리움에서 '독자 AI 파운데이션 모델 프로젝트 1차 발표회'를 개최했다고 30일 밝혔다. 행사에는 네이버클라우드, 업스테이지, SKT, NC AI, LG AI연구원 등 국내 AI 산업을 이끄는 5개 정예팀이 참석해 그동안의 개발 성과를 공유했다. 현장에는 산·학·연 관계자와 일반 시민 등 1천여 명이 몰렸다. 이번 프로젝트는 글로벌 빅테크에 종속되지 않는 독자적인 AI 기술력을 확보하고 'AI 강국'으로 도약하기 위한 범국가적 도전의 일환이다. 배경훈 과기정통부 부총리, 하정우 대통령실 AI미래기획수석, 임문영 국가AI전략위원회 상근 부위원장 등 정부 핵심 인사들이 총출동해 민간의 도전에 힘을 실었다. 배경훈 부총리는 축사를 통해 "AI 모델 개발에 매진해 온 정예팀 모두가 승자"라며 "이번 도전은 대한민국 경제·사회 전반의 AX(AI 대전환)를 완성하는 결정적 동력이 될 것"이라고 강조했다. 발표회에서는 5개 정예팀이 개발한 1차 AI 모델이 공개됐다. 각 팀은 최신 글로벌 모델과 견주어도 손색없는 성능 지표를 제시해 이목을 끌었다. 네이버클라우드, 업스테이지, SKT, NC AI, LG AI연구원은 단순한 모델 개발을 넘어 전 산업 분야에 AI를 접목하는 구체적인 확산 전략도 함께 발표하며, 실질적인 AI 생태계 조성에 대한 의지를 다졌다. 행사장 로비에 마련된 체험 부스 열기도 뜨거웠다. 관람객들은 정예팀들이 개발한 AI 모델을 직접 시연해보고 피드백을 주고받았으며, 함께 전시된 파트너사들의 연계 서비스를 통해 확장된 AI 생태계를 직접 체험했다. 과기정통부는 이번 발표회 내용을 바탕으로 내년 1월 중 1차 단계평가를 진행해 정예팀들의 성과를 점검하고 향후 지원 방향을 구체화할 계획이다. 하정우 AI수석은 "국내 AI 기업들의 경쟁력이 글로벌 수준으로 빠르게 향상되고 있음을 확인했다"며 아시아의 AI 수도로 도약하기 위한 전폭적인 지원을 약속했다.

2025.12.30 17:39남혁우

"美·中 모델 능가"…LG AI연구원, 'K-엑사원' 성능 공개

LG AI연구원이 독자 기술력을 집약한 파운데이션 모델을 공개해 인공지능(AI) 기술력 강화에 나섰다. LG AI연구원은 서울 강남 코엑스에서 열린 과학기술정보통신부 주관 '독자 AI 파운데이션 모델 1차 발표회'서 'K-엑사원' 모델 성능을 처음 소개했다. 이번 모델은 매개변수 2천360억 개 규모의 프런티어급으로 설계됐다. K-엑사원은 전문가 혼합 모델 구조를 통해 성능과 효율성을 동시 확보한 것이 특징이다. 하이브리드 어텐션 기술을 적용해 기존 모델 대비 메모리 요구량과 연산량을 70% 줄였다. 성능 평가 결과 K-엑사원은 벤치마크 13종 평균에서 72.03점을 기록했다. 이는 알리바바클라우드의 '큐웬3 235B' 대비 104% 높은 성능이다. 또 오픈AI의 최신 오픈 웨이트 모델인 'GPT-OSS 120B'와 비교해도 103% 높은 수치다. 이 모델은 고가의 인프라 대신 A100급 그래픽처리장치(GPU) 환경에서도 구동이 가능하다. 이에 자금력 부족한 스타트업이나 중소기업도 프런티어급 AI 모델을 도입할 수 있는 길을 열었다는 설명이다. LG AI연구원은 향후 조 단위 파라미터 규모를 가진 글로벌 빅테크 모델과 경쟁할 계획이다. 이를 통해 대한민국을 AI 3강 국가로 이끄는 게임 체인저가 되겠다는 포부다. 이날 LG AI연구원은 부스를 마련해 K-엑사원 데모를 시연했다. 데모는 문서 분석과 전문 지식 질의, 복합 추론, 코드 작성 등 기업 업무 시나리오 중심으로 구성됐다. LG AI연구원 관계자는 K-엑사원 경쟁력으로 업무 친화적 설계·운영 효율성을 꼽았다. 복잡한 법·정책 분석이나 수치 계산처럼 사람이 처리하기 어려운 질문에도 단계적으로 분석해 결과를 도출할 수 있다는 이유에서다. 관계자는 "모델을 직접 구축·운영할 수 있는 오픈웨이트 구조를 통해 챗GPT나 제미나이와 달리 과금 부담 없이 기업 내부 시스템에 적용 가능하다는 점도 차별화 요소"라며 "모델 크기는 커졌지만 처리 속도는 유지돼 실무 투입 효율성이 높다"고 강조했다.

2025.12.30 16:02김미정

"큰 모델보다 쓰임새"…네이버클라우드, 옴니모달 AI 전략 승부수

네이버클라우드가 범용 대규모언어모델(LLM) 경쟁을 넘어 텍스트·이미지·음성·도구 활용을 하나의 모델로 통합하는 '옴니모달 인공지능(AI)' 전략을 전면에 내세웠다. 상대적으로 작은 모델부터 시작해 점진적으로 고도화하는 방식으로, 현실 환경을 이해하고 행동하는 AI 에이전트 구현을 목표로 차세대 파운데이션 모델 경쟁에서 기술적 차별화를 강조했다. 네이버클라우드는 30일 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 서울 코엑스에서 개최한 '독자 AI 파운데이션 모델 1차 대국민 발표회'에서 옴니모달 기반 파운데이션 모델과 이를 적용한 다양한 AI 서비스를 공개했다. 이날 네이버클라우드는 옴니 파운데이션 모델 전략을 제시했다. 전시 부스에서는 텍스트·이미지·오디오 등 서로 다른 형태의 데이터를 단일 모델에서 처음부터 함께 학습하는 네이티브 옴니모달 구조의 '하이퍼클로바X 시드 8B 옴니'와 복합 추론 능력을 강화한 '하이퍼클로바X 시드 32B 씽크' 두 가지 모델을 공개했다. 8B급 옴니모델은 규모는 비교적 작지만 멀티모달 입력을 단일 모델 구조에서 처리할 수 있도록 설계된 것이 특징이다. 텍스트·이미지·음성을 각각 다른 모델로 처리해 결합하는 기존 방식과 달리, 처음부터 하나의 의미 공간에서 학습해 응답 속도와 효율성을 높였다. 네이버클라우드는 이 모델을 시작점으로 삼아 데이터 확장과 학습 고도화를 통해 단계적으로 스케일업할 계획이다. 함께 공개된 32B급 씽크 모델은 옴니모달 입력을 바탕으로 추론과 문제 해결에 초점을 맞췄다. 이미지 이해, 음성 대화, 도구 활용 능력을 결합해 복합적인 요청을 처리하는 에이전트형 AI 경험을 구현하며 수학 문제 풀이나 시각 정보 기반 추론 등 고난도 작업을 수행하는 시연이 이뤄졌다. 부스에서는 이들 모델을 적용한 다양한 체험형 서비스도 공개됐다. 이미지 촬영만으로 문제를 이해하고 풀이 과정을 설명하는 AI 수학 에이전트, 민원 행정 상담을 돕는 AI 아바타, 법률 상담 챗봇, 감정 상담을 지원하는 마음 케어 아바타 등 공공·생활 밀착형 서비스가 관람객의 이목을 끌었다. 네이버클라우드는 이번 독자 AI 파운데이션 모델 프로젝트를 통해 대규모 파라미터 경쟁보다는 작은 모델을 촘촘하게 다져 키운다는 전략이다. 실제 서비스 환경에서 비용과 개발 부담을 줄이기 위해 8B·32B급 모델에서 옴니모달 구조와 추론 성능을 충분히 검증한 뒤 단계적으로 모델 규모를 확대하겠다는 구상이다. 이를 바탕으로 산업 및 공공 영역으로의 확장도 염두에 두고 있다. 네이버클라우드는 농기계와 모빌리티 등 다양한 산업 현장에서 음성·시각·공간 정보를 동시에 이해하는 AI 에이전트 활용 가능성을 제시하며 물리적 환경과 상호작용하는 피지컬 AI로의 진화를 준비 중이라고 설명했다. 네이버클라우드 관계자는 "옴니모달 AI는 단순히 모델을 크게 만드는 문제가 아니라, 현실 세계의 맥락을 얼마나 정교하게 이해하느냐가 핵심"이라며 "8B급 모델부터 차근차근 고도화해 나가며 산업과 일상에서 실제로 쓰이는 옴니 AI 에이전트를 구현해 나가겠다"고 말했다.

2025.12.30 14:40한정호

NC AI, 국방·제조 겨냥한 '산업 특화 전략' 공개…피지컬 AI 확장 목표

NC AI가 국방·제조 등 산업 현장에 직접 적용 가능한 산업 특화 인공지능(AI) 전략을 선보였다. 범용 대화형 AI 경쟁을 넘어 피지컬 AI로 확장 가능한 산업 중심 AI 모델을 통해 정부 정책 방향과의 정합성을 전면에 내세웠다. NC AI는 30일 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 서울 코엑스에서 개최한 '독자 AI 파운데이션 모델 프로젝트 1차 대국민 발표회'에서 체험형 전시 부스를 운영하고 국방·제조 산업에 특화된 AI 모델과 응용 서비스를 공개했다. 이번 행사는 독자 AI 파운데이션 모델 개발 사업에 참여 중인 5개 정예팀의 첫 대국민 공개 무대다. NC AI 부스의 중심에는 산업 AI 전환(AX) 전략이 자리했다. NC AI는 자체 100B급 '바르코' 대규모언어모델(LLM)을 기반으로 국방·제조·콘텐츠·패션 등 산업별 특화 서비스를 선보였다. 특히 정부가 차세대 핵심 기술로 강조하고 있는 피지컬 AI와의 연결 가능성을 부각했다. 국방 분야에서는 이미지 기반 전장 분석과 브리핑을 수행하는 국방 에이전트가 시연됐다. 드론 이미지나 전장 사진을 입력하면 객체 식별과 상황 분석, 요약 브리핑을 수행하는 방식으로, 공개 데이터와 검색증강생성(RAG) 구조를 활용해 정확성을 높였다. NC AI 관계자는 "향후 군과의 협업이 본격화될 경우 실제 국방 데이터 환경에서도 활용이 가능하도록 구조를 설계했다"고 밝혔다. 제조 산업 특화 LLM도 주요 전략으로 전시됐다. NC AI는 제조 설비와 디지털 트윈을 연계해 온톨로지 기반 데이터 구조를 생성하고 공정 간 연관관계를 이해하는 AI 모델을 선보였다. 자연어 지시를 프로그래머블 로직 컨트롤러(PLC) 코드 등 기계 제어 로직으로 변환하는 기능도 함께 시연하며 피지컬 AI로의 확장 가능성을 제시했다. 이같은 제조 특화 모델은 지역 산업과의 연계도 염두에 두고 있다. NC AI는 모빌리티·섬유·기계 등 지역별 주력 산업에 맞춰 AI 모델을 세분화해 적용할 수 있도록 설계했으며 단순 분석을 넘어 실제 생산성과 효율을 높이는 방향으로 고도화 중이다. 부스 한편에서는 음성·3D 생성 기술도 함께 전시됐다. '바르코 보이스' 기반 음성 변환 모델과 3D 생성 모델은 LLM과 결합해 콘텐츠 제작, 시뮬레이션, 가상 환경 구축 등 다양한 산업 활용 시나리오를 제시했다. 이는 게임·콘텐츠 기업으로 축적한 NC의 기술 자산을 산업 AI로 확장한 사례로 풀이된다. NC AI는 이번 독자 AI 파운데이션 모델 사업에서 범용 AI 경쟁보다는 산업 현장에 바로 쓰이는 AI를 차별화 포인트로 삼고 있다. 국방과 제조를 중심으로 한 산업 특화 전략을 통해 정부가 추진 중인 소버린 AI와 피지컬 AI 정책 기조에 부합하는 모델을 제시하겠다는 구상이다. NC AI 관계자는 "소버린 AI의 가치는 단순히 성능 경쟁에 있는 것이 아니라, 국방과 제조처럼 우리나라가 강점을 가진 산업을 글로벌 톱 수준으로 끌어올리는 데 있다"며 "산업 특화 AI를 통해 피지컬 AI 시대를 선도하는 것이 우리의 방향"이라고 강조했다.

2025.12.30 14:39한정호

"실무에 강해"…업스테이지, '다큐먼트 AI' 문서 인식 시연

업스테이지가 자체 인공지능(AI) 모델 '솔라'를 앞세워 문서 인식 경쟁력을 한층 강화했다. 업스테이지는 30일 서울 강남 코엑스에서 열린 과학기술정보통신부 주관 '독자 AI 파운데이션 모델 1차 발표회'서 부스를 꾸리고 '다큐먼트 AI' 데모를 시연했다. 다큐먼트 AI는 문서를 구조화된 정보 단위로 인식할 수 있는 AI 기술이다. PDF 스캔본부터 표, 도표, 계약서 등 여러 문서 형식과 의미를 동시에 해석할 수 있다. 이날 부스를 지키고 있던 업스테이지 관계자는 다큐먼트 AI 특장점으로 정교한 레이아웃 분석 기술을 꼽았다. 관계자는 "다큐먼트 AI는 문서 레이아웃과 항목 구조를 먼저 파악한 뒤 텍스트를 추출한다"며 "문서 제목부터 본문, 표, 각주 등 각 요소를 명확히 구분해 인식할 수 있어 전체 맥락을 유지할 수 있다"고 강조했다. 이어 "이 기술은 철저히 사용자가 입력한 문서 범위 내에서만 답변을 생성하도록 설계됐다"며 "근거 없는 정보가 섞일 가능성을 원천차단했다"고 덧붙였다. 이날 업스테이지는 다큐먼트 AI가 문서 처리하는 기능을 시연했다. AI가 수출입 신고서나 인보이스 등 여러 서류를 동시에 비교해 항목별 일치 여부를 자동으로 검증할 수 있었다. 이를 통해 오류 지점까지 정확히 찾아냈다. 여기에 이미지 이해 기능을 결합해 도면이나 그래프 속 문자까지 인식했으며, 그 수치가 갖는 의미까지 제시했다. 업스테이지는 다큐먼트 AI로 기업뿐 아니라 공공 시장까지 적용 범위를 확장하고 있다. 이 기술은 현재 조달청 디지털서비스몰에 등록돼 관세청 등에서 실무에 활용되고 있다. 특히 통계청 보고서와 데이터를 요약해 문서를 생성하는 등 데이터 무결성 보장이 필요한 고난도 작업에 투입되고 있다. 업스테이지는 PDF나 PPT뿐 아니라 HWP, DOC 등 국내 업무 환경에 필수적인 문서 규격 지원도 다큐먼트 AI에 추가했다. 보안이 최우선인 기관을 위해 폐쇄망에서도 구동 가능한 온프레미스 형태로 서비스를 제공하며 기술 도입 장벽을 낮췄다. 업스테이지는 "우리는 문서 구조 해석과 언어 모델 결합이라는 독자적인 기술 노선을 구축했다"며 "실무 효율을 중시하는 엔터프라이즈 AI 시장에서 한국형 AI의 강력한 경쟁 우위를 증명할 것"이라고 강조했다.

2025.12.30 14:38김미정

"500B급 AI로 G3 정조준"...SKT 정예팀, A.X K1 첫 공개

SK텔레콤 정예팀이 매개변수 5천억 개 규모 초거대 AI 모델 '에이닷엑스 케이원(A.X K1)'을 선보였다. 국가적으로 추구하는 'AI 3대 강국' 수준을 겨냥해 500B 규모의 AI 모델을 갖추는 것이 필수적이라는 전략이다. 30일 서울 삼성동 코엑스에서 열린 과학기술정보통신부 주최 '독자 AI 파운데이션 모델 프로젝트' 1차 발표회에서 SK텔레콤 정예팀은 대국민 프리젠테이션에 앞서 에이닷엑스 케이원을 소개하는 전시 부스를 꾸렸다. SK텔레콤 정예팀은 500B 규모 AI 모델을 통해 국내 산업을 혁신할 수 있는 고난도 작업 수행이 가능한 점을 강조했다. AI를 통한 사회간접자본(SOC) 역할을 할 수 있다는 뜻이다. 또한 SK텔레콤 정예팀은 AI 인프라부터 AI 모델, AI 서비스로 이어지는 소위 'AI 가치 사슬'을 자신들만의 차별점으로 내세웠다. SK텔레콤의 대표적인 AI 인프라인 GPU 클러스터 '해인'과 국내 최대 규모로 구축 중인 울산 AI 데이터센터가 AI 모델과 서비스의 발전을 이끌 수 있다는 설명이다. AI 연구를 선도하는 서울대, KAIST 교수진과의 AI 모델 개발부터 반도체(리벨리온), 게임(크래프톤), 모빌리티(포티투닷), 서비스(라이너), 데이터(셀렉트스타) 등 참여사의 다양한 AI 서비스 역량이 SK텔레콤 정예팀의 강력한 무기로 꼽힌다. '모두의 AI'를 목표로 B2C와 B2B를 아우르는 AI 확산 역량도 강조할 예정이다. SK텔레콤이 1천만 이용자를 보유한 AI 서비스 에이닷을 운영하고 있고 SK하이닉스, SK이노베이션, SK AX 등 관계사와의 협업을 통해 대한민국 산업 대전환에 이바지할 수 있는 점도 강점이다. 코엑스에 마련된 SK텔레콤 정예팀 체험 공간에서는 A.X K1을 챗봇 형태로 직접 사용해 볼 수 있다. 체험자는 '신속 모드(Fast Mode)'와 '사고 모드(Thinking Mode)' 중 하나를 선택해 질문하고 답변받을 수 있다. 실제 체험해본 '신속 모드'에서는 간단한 정보와 지식 검색이 가능하다. 예컨대 환율 문제를 5분 만에 이해할 방법, 새해 일출 명소 추천 등 일상 정보를 빠르게 제공한다. '사고 모드'는 대입 수학능력시험 문제 해결, 사용자 요청대로 자동으로 코딩해 주는 바이브 코딩 등 복잡한 추론 기능을 체험해 볼 수 있다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “A.X K1 모델은 챗봇 형태 외에 다양한 형태의 서비스에 적용할 수 있다”라며 “글로벌 AI 3강과 모두의 AI 실현을 위한 노력을 지속할 것”이라고 말했다.

2025.12.30 11:05박수형

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자가 돌아왔다...1년 만에 글로벌 D램 1위 탈환

"수익성은 부담, 상징성은 호감"…인천공항 면세점 입찰 딜레마

라스베이거스서 'K-뷰티테크' 알리다...에이피알 CES 전시 가보니

한국 전통 문화, '생성형 AI' 타고 세계로…K-스타트업의 도전

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.