• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
인공지능
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'파운데이션 AI 모델'통합검색 결과 입니다. (117건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

LG AI연구원, 'K-엑사원'으로 국가대표 AI 입증…구광모 'ABC 전략' 빛났다

LG AI연구원이 개발한 'K-엑사원(K-EXAONE)'이 정부가 주관하는 독자 인공지능(AI) 파운데이션 모델(이하 독파모) 프로젝트 1차 1위를 차지하며 국가대표 AI 모델로서의 입지를 굳혔다. 구광모 LG그룹 회장 미래 성장 동력으로 낙점하고 강력하게 추진해 온 'ABC전략'이 구체적인 결실을 맺은 것이란 평가다. 15일 과학기술정보통신부가 발표한 '독자 AI 파운데이션 모델 프로젝트' 1차 단계 평가 결과에 따르면 LG AI연구원의 K-엑사원이 가장 우수한 성적을 거두며 2차 단계 진출을 확정 지었다. 이번 평가에서 K-엑사원은 객관적인 성능 지표를 측정하는 '벤치마크 평가', 기술의 완성도를 검증하는 '전문가 평가', 그리고 실제 효용성을 판단하는 '사용자 평가' 등 모든 부문에서 최고점을 기록했다. 경쟁사들을 압도하는 기술력을 입증하며 명실상부한 국내 최고의 AI 파운데이션 모델임을 증명한 셈이다. LG 측은 이번 성과가 지난 2020년 구광모 대표의 주도로 설립된 LG AI연구원이 지난 5년간 묵묵히 쌓아온 기술력이 빛을 발한 결과라고 설명했다. 구 대표는 평소 AI를 미래 사업의 핵심 축으로 강조하며 전폭적인 지원을 아끼지 않았다. 특히 새해 신년사를 통해 "새로운 미래가 열리는 변곡점에서는 지금까지의 성공 방식을 넘어 새로운 혁신으로 도약해야 한다"며 '선택과 집중'을 강조한 바 있는데, 이번 성과는 LG의 AI 분야에 대한 집중적인 투자가 헛되지 않았음을 증명하는 사례다. LG 컨소시엄이 프로젝트 착수 단 5개월 만에 완성도 높은 모델을 선보일 수 있었던 배경에는 LG AI연구원이 축적해 온 독자적인 AI 파운데이션 모델 개발 노하우가 결정적인 역할을 했다는 후문이다. 임우형 LG AI연구원 공동 연구원장은 "엑사원에서 시작된 혁신은 이제 개별 기업의 성과를 넘어, 대한민국 산업 전반의 AI 생태계를 주도하는 핵심 엔진이 될 것"이라며, "K-엑사원이 지닌 독보적인 기술력을 바탕으로 글로벌 시장 내 기술 주도권을 확보하고, 대한민국이 AI 강국으로 도약할 수 있도록 최선을 다하겠다"고 소감을 밝혔다. 이어 "이번 결과는 K-엑사원이 글로벌 선도국과 어깨를 나란히 하며, 대한민국의 'AI 3대 강국' 도약을 보여주는 결정적 지표"라면서 "단순히 글로벌 수준의 모델을 확보하는 것에 그치지 않고 산업 현장으로의 적용 확산과 핵심 인재 육성 등 전방위적인 AI 생태계 구축을 선도해 나갈 것"이라고 포부를 덧붙였다. LG AI연구원은 이번 1차 평가 1위를 발판 삼아 AI 기술 역량을 한층 더 끌어올릴 계획이다. 현재의 성과에 안주하지 않고 남들이 불가능하다고 여기는 수준까지 기술을 고도화하여 글로벌 시장의 '게임 체인저'가 되겠다는 목표다. 임 연구원장은 "이번 1차수 모델은 프런티어급 AI로 도약하기 위한 견고한 기반을 다지는 시작점"이라며 "이제 본격적인 성능 고도화 단계를 거쳐 글로벌 경쟁력을 확보한 완성형 K-엑사원을 구현해 나갈 것"이라고 강조했다. 또한 "엑사원을 시작으로 멈추지 않고 달려온 여정 속에서, 이번 결과는 더 큰 도약을 향한 중요한 변곡점"이라며 "K-엑사원을 더욱 고도화하여 글로벌 생태계로 진화하는 국가대표 AI 모델로 자리매김하겠다"고 밝혔다. 한 업계 관계자는 "구광모 대표의 뚝심 있는 AI 투자와 LG AI연구원의 기술력이 시너지를 내면서 가시적인 성과가 나타나고 있다"며 "K-엑사원이 대한민국을 넘어 글로벌 AI 시장에서 어떤 활약을 펼칠지 귀추가 주목된다"고 말했다.

2026.01.15 16:32남혁우 기자

독파모 1차 통과 업스테이지 "글로벌 경쟁력 갖춘 모델 고도화"

독자 인공지능(AI) 파운데이션 모델(독파모) 프로젝트 1차 단계평가를 통과하며 기술 경쟁력과 실행력을 인정받은 업스테이지가 2차 단계에서 글로벌 수준의 모델 고도화에 집중하겠다는 입장을 밝혔다. 업스테이지는 15일 과학기술정보통신부가 발표한 독파모 프로젝트 1차 단계평가 결과에서 LG AI연구원, SK텔레콤과 함께 2차 단계에 진출한 3개 정예팀에 이름을 올렸다. 5개 정예팀 가운데 스타트업으로는 유일하게 2차 단계에 진출했다. 과기정통부에 따르면 업스테이지는 이번 평가에서 글로벌 개별 벤치마크 부문에서 높은 점수를 받았다. 특히 글로벌 최상위(SOTA) 모델과 비교하는 개별 벤치마크 평가에서 만점을 기록하며 비교적 적은 매개변수로도 대규모 모델 수준의 성능을 구현한 점이 경쟁력으로 평가됐다. 이번 1차 단계평가는 벤치마크 평가, 전문가 평가, 사용자 평가를 종합해 진행됐다. 업스테이지는 모델 성능뿐 아니라 실제 현장 활용 가능성과 비용 효율성 측면에서도 일정 수준 평가를 받은 것으로 알려졌다. 자체 개발한 언어모델 '솔라'를 기반으로 한 문서 이해·추론 등 실무 중심 기술이 강점으로 작용했다는 평가다. 업스테이지는 이번 프로젝트를 위해 민간·학계·연구기관이 참여하는 산학연 컨소시엄을 구성해왔다. 노타AI·래블업·플리토·오케스트로 등 기술 기업과 함께 카이스트, 서강대학교 교수진이 연구 협력에 참여하고 있으며 의료·제조·법률·공공·교육 등 다양한 산업 분야 기업들과도 협력 체계를 구축했다. 2차 단계에서는 컨소시엄을 더욱 확대해 연구 역량과 산업 적용 범위를 넓힐 계획이다. 업스테이지는 스탠퍼드대학교와 뉴욕대학교 연구진의 합류를 통해 핵심 모델 기술을 고도화하고 글로벌 시장을 겨냥한 프런티어급 모델을 완성한다는 목표다. 업스테이지는 독자적으로 설계·학습한 파운데이션 모델을 기반으로 한국어를 비롯한 다국어 추론 성능을 강화하고 공공·기업 현장에서 체감할 수 있는 AI 전환(AX) 사례를 확대한다는 전략이다. 이를 통해 기술 경쟁력과 실사용 성과를 동시에 입증하겠다는 구상이다. 김성훈 업스테이지 대표는 페이스북을 통해 "많은 분들의 응원으로 우리 컨소시엄의 솔라LLM은 계속 달려갈 것"이라며 "2차 단계부터는 스탠퍼드와 뉴욕대 연구진들이 합류해 글로벌에서 우뚝서는 모델을 만들어 갈 것"이라고 밝혔다.

2026.01.15 16:02한정호 기자

SKT 정예팀 "AI모델 멀티모달 추가, 조 단위 파라미터로 확장"

독자 AI 파운데이션 모델 프로젝트 1단계 평가를 통과, 2차 단계에 진출한 SK텔레콤 정예팀이 향후 멀티모달을 추가하고 조단위 프라미터 규모로 확장하는 방안을 목표로 세웠다. 15일 SK텔레콤에 따르면 국내 첫 500B급 AI 모델을 선보인 정예팀은 2단계 평가에서 멀티모달을 추가해 추가 학습을 진행하고 1000B급 규모의 LLM을 선보인다는 계획이다. 정예팀 내부적으로 1차 평가 통과는 컨소시엄에 참여한 이들이 갖춘 풀스택 서비스를 이유로 꼽았다. 이를테면 반도체 분야의 리벨리온, 게임 분야 크래프톤, 모빌리티 분야에서 포티투닷, 서비스 분야에서 라이너, 데이터 분야의 셀렉트스타 등이 갖춘 각기 역량이 더해진 결과라는 설명이다. 아울러 서울대와 KAIST 연구진의 선행연구 성과를 모델 개발에 활용한 점도 이점으로 들었다. SK텔레콤은 1천만 이용자를 거느린 AI 서비스 에이닷을 통한 B2C 접점과 SK하이닉스, SK이노베이션, SK AX 등 그룹사 협업을 통한 B2B 산업 적용으로 AI 전환을 이끈다는 계획이다. 아파치 2.0 라이선스로 개방한 AI 모델은 학생과 기관, 기업 등 다양한 이들이 자유롭게 활용할 수 있어 AI 확산에 용이한 점도 장점으로 제시했다. SK텔레콤 정예팀은 “앞으로도 AI 생태계 발전을 위해 노력하고 AI 글로벌 3강으로 가기 위한 역할을 다할 것”이라고 밝혔다.

2026.01.15 15:20박수형 기자

'독파모' 1차서 네이버·NC AI 동반 탈락…정부, 정예팀 1곳 추가 공모

독자 인공지능(AI) 파운데이션 모델(이하 독파모) 프로젝트 1차 단계평가에서 네이버클라우드와 NC AI가 최종 탈락했다. 당초 5개 정예팀 가운데 1개 팀만 탈락할 것으로 예상됐지만, 평가 과정에서 독자성 기준과 종합 점수 경쟁이 동시에 작동하면서 2개 팀이 2차 단계 진출에 실패하게 됐다. 과학기술정보통신부는 15일 정부서울청사에서 독파모 1차 단계평가 결과를 발표했다. 이번 평가 결과, LG AI연구원·SK텔레콤·업스테이지 등 3개 정예팀이 2차 단계에 진출했으며 기존 정예팀 가운데 네이버클라우드와 NC AI는 1차 단계에서 탈락했다. 독자 AI 파운데이션 모델 프로젝트는 당초 5개 정예팀을 선정한 뒤 1차 단계평가를 거쳐 4개 팀을 2차 단계로 압축하는 구조로 설계됐다. 그러나 이번 평가에 정책적 기준과 상대평가 결과가 함께 반영되면서 결과적으로 2개 팀이 탈락하고 3개 팀만 2차 단계에 진출하게 됐다. 과기정통는 네이버클라우드 경우 벤치마크·전문가·사용자 평가를 종합한 점수 기준에서는 상위 4개 팀에 포함됐으나, 독자 AI 파운데이션 모델 요건을 충족하지 못한 것으로 판단했다. 과기정통부는 "이번 사업에서 해외 AI 모델을 단순 파인튜닝한 파생형 모델은 독자 AI 파운데이션 모델로 인정하지 않는다는 기준을 적용해 왔다"며 "네이버클라우드 모델은 독자성 측면에서 한계가 있다는 전문가 의견이 제기됐다"고 설명했다. 반면 NC AI는 독자성 기준과 관련한 별도의 결격 사유는 제시되지 않았지만, 1차 단계평가에서 다른 정예팀과의 종합 점수 경쟁에서 밀리며 2차 단계 진출에 실패한 것으로 풀이된다. 이번 평가는 AI 모델 성능을 중심으로 한 벤치마크 평가와 전문가 평가, 실제 활용 가능성을 살핀 사용자 평가를 합산해 진행됐으며 이 과정에서 NC AI가 다른 정예팀 대비 상대적으로 낮은 점수를 받은 것으로 해석된다. 평가 구조상 네이버클라우드와 NC AI 두 기업이 동시에 1차 단계에서 탈락하는 결과로 이어지는 등 당초 예상보다 탈락 팀 수가 늘어나면서 프로젝트 경쟁 구도에도 변화가 생기게 됐다. 과기정통부는 이번 1차 평가 이후 정예팀이 3개로 줄어든 점을 고려해 향후 1개 정예팀을 추가로 선정하는 공모를 추진할 계획이다. 추가 공모에는 이번 1차 단계에서 탈락한 네이버클라우드와 NC AI 컨소시엄도 참여할 수 있도록 문을 열어두겠다는 방침이다. 다시 한 번 경쟁 기회가 주어진 만큼 향후 두 기업이 어떤 전략으로 재도전에 나설지 주목된다. 배경훈 부총리 겸 과기정통부 장관은 이날 결과 발표에 앞서 "승자와 패자를 구분하고 싶지 않고 결과에 대해 깨끗하게 승복하고 다시 도전하는 모습을 기대한다"며 "정부에서도 새로운 해법을 추가적으로 제시할 것"이라고 SNS를 통해 밝혔다.

2026.01.15 15:13한정호 기자

LG AI연구원·SK텔레콤·업스테이지, 'K-AI' 1차 평가 통과

정부가 '독자 인공지능(AI) 파운데이션 모델' 1차 평가 결과를 공개했다. 과학기술정보통신부는 독파모 기존 5개 정예팀 가운데 LG AI연구원과 SK텔레콤, 업스테이지를 2단계에 진출했다고 15일 밝혔다. 이번 평가는 벤치마크를 비롯한 전문가, 사용자 평가를 합산해 모델 성능과 비용 효율성, 실제 활용 가능성, 생태계 파급력을 종합 검증한 결과다. 세 지표에서 모두 최고점을 받은 LG AI연구원이 전체 1위를 기록했다. 벤치마크 평가 부문에서 LG AI연구원은 40점 만점 중 33.6점을 받아 평균을 상회했다. 전문가 평가에서도 35점 만점 중 31.6점, 사용자 평가에서는 25점 만점을 획득해 모든 영역에서 선두를 유지했다. 종합 점수상 상위 4개 팀에는 LG AI연구원, 네이버클라우드, SK텔레콤, 업스테이지가 포함됐다. 다만 네이버클라우드는 독자성 기준을 충족하지 못해 최종 탈락했다. 이에 따라 2차 단계는 LG AI연구원과 SK텔레콤, 업스테이지 3개 팀 체제로 진행된다. 과기정통부는 "독자 AI 파운데이션 모델은 해외 모델 미세조정이 아닌 아키텍처 설계와 데이터 구축, 가중치 초기화 후 학습까지 전 과정을 자체 수행한 국산 모델"이라고 정의했다. 이어 "네이버클라우드 모델은 가중치 기반 독자성 요건을 충족하지 못한 것으로 판단했다"며 탈락 이유를 밝혔다. 정부는 경쟁과 생태계 유지를 위해 1개 정예팀을 추가 공모해 총 4개 팀 체제를 다시 구축할 계획이다. 신규 정예팀에는 그래픽처리장치(GPU)와 데이터, 'K-AI 기업' 명칭이 제공된다. 과기정통부는 "이번 프로젝트는 대한민국이 글로벌 AI 경쟁에서 독자 기술로 당당히 맞서기 위한 역사적 도전"이라며 "K-AI 모델을 반드시 확보해 지속 가능하고 건강한 AI 생태계를 구축할 것"이라고 밝혔다.

2026.01.15 15:00김미정 기자

배경훈 "독파모 평가, 기술·정책·윤리 측면서 상세히 공개"

배경훈 부총리 겸 과학기술정보통시부 장관이 15일 독자 인공지능(AI) 파운데이션 모델 평가 결과를 두고 “기술적, 정책적, 윤리적 측면에서 상세히 공개될 것”이라고 밝혔다. 배 부총리는 이날 자신의 페이스북에 “정부는 흔들림 없이 독파모를 지원하고 기준을 세우고 평가했다”며 “무엇보다 국민 모두가 공감할 수 있는 기준으로 평가가 진행됐다”면서 이같이 말했다. 독파모 프로젝트를 시작하면서 질적인 성장이 이뤄졌다는 점도 강조했다. 배 부총리는 “독파모의 목표는 세계 최고 수준이어야 하고 대한민국의 자긍심이 되어야 한다”면서 “5개 컨소시엄 기업 모두 에포크AI '주목할만한 AI모델' 로 등재되는 성과도 거뒀다”고 했다. 이어, “불과 재작년만해도 1개의 모델만이 등재됐고 그전에는 아예 없었다”면서 “그만큼 우리 기업들이 많은 성장을 했다”고 덧붙였다. 독파모에서 탈락한 기업에도 지속해 기회를 부여한다는 뜻도 밝혔다. 배 부총리는 “AI 자원에 한계가 있기 때문에 자원을 집중하여 세계 최고에 도전하기 위해 지금의 평가 방식을 취하고 있지만, 탈락 기업에게도 지속적인 지원과 기회를 제공할 것”이라며 “승자와 패자를 구분하고 싶진 않다. 결과에 대해서도 깨끗하게 승복하고 다시 도전하는 모습을 기대한다”고 끝맺었다.

2026.01.15 09:42박수형 기자

오픈소스 활용한 딥시크, 어떻게 독자모델 인정받았나

현재 정부가 추진 중인 '독자적 파운데이션 모델(이하 독파모)' 선정 과정에서 오픈소스를 활용한 기업 독자 모델 인정여부를 두고 잡음이 일고 있다. 사용한 오픈소스가 더이상 지원하지 않거나 라이선스를 변경할 경우 독자 모델로서 존립하기 어렵다는 지적 때문이다. 하지만 지난해 초 중국 인공지능(AI) 스타트업 '딥시크(DeepSeek)'가 내놓은 AI 모델 R1과 비교하면 상황이 묘하다. 적은 비용으로 미국 빅테크들과 견줄 수 있는 성능을 낸 AI는 오픈소스 모듈을 적극적으로 차용해 개발됐지만 자체 AI모델로 인정받고 있다. 똑같이 외부 기술을 빌려 썼는데 딥시크는 독자 기술로 주목받고 국내 기업은 무늬만 독자라는 비판을 받고 있는 셈이다. 이에 대해 업계 전문가들은 양측의 가장 큰 차이로 기업이 가진 철학과 이를 구현하는 차별화를 꼽았다. 딥시크부터 구글까지...오픈소스 활용하는 글로벌 AI 딥시크의 기술 보고서에 따르면 R1을 비롯한 모델 라인업 개발 과정에서 주요 기능 구현에 경쟁사 모듈이 대거 사용됐다. 멀티모달 모델은 이미지를 인식하는 비전 인코더로 구글에서 개발한 모델을 도입했다. 딥시크-VL은 SigLIP-L, SAM-B를 하이브리드 비전 인코더로 썼고 야뉴스는 SigLIP-L을 비전 인코더로 채택했다 학습 과정도 마찬가지다. 딥시크는 모델 학습 속도를 극한으로 끌어올리기 위해 경쟁사인 오픈AI가 개발해 공개한 GPU 프로그래밍 언어 '트라이톤(Triton)'을 추론 및 커널 최적화 코드에서 활용했다. 학습 가속을 위해서는 스탠포드 대학 연구진이 개발한 플래시 어텐션 모듈을 차용했다. 이런 모듈 활용은 딥시크에 국한된 이야기가 아니다. 현재 오픈형 LLM 표준으로 불리는 메타의 라마 시리즈는 문맥 순서를 파악하는 위치 임베딩에 중국 AI 기업 쥬이이테크놀로지가 개발한 회전위치임베딩(RoPE) 모듈을 사용한다. 활성화 함수 역시 구글이 제안한 'SwiGLU' 방식을 채택했다. 구글 제미나이 역시 학습 효율을 위해 딥시크처럼 외부에서 개발한 플래시 어텐션 기술을 내부 인프라에 통합해 사용 중이다. 임정환 모티프 대표는 "자동차를 만들 때 타이어나 와이퍼를 전문 업체 부품으로 썼다고 해서 그 차를 독자 개발이 아니라고 하지 않는다"며 "인코더나 가속 라이브러리 같은 '부품을 외부에서 가져오는 방은 효율성을 위한 합리적인 선택"이라고 설명했다. 강화학습·MoE로 효율 혁신...딥시크, 기술로 증명한 독자 가치 다양한 오픈소스를 활용했음에도 딥시크가 독자 모델로 평가받는 이유는 그 동안 없었던 기술적 시도를 통해 새로운 가치를 증명했기 때문이다. 당시 중국은 미국 반도체 제재로 인해 최신 엔비디아 GPU를 구하기 어려운 상황에 처했다. 딥시크는 제한된 인프라 안에서 어떻게 하면 미국 빅테크와 대등한 성능을 낼 수 있을까라는 과제를 안고 있었다. 이를 해결하기 위해 도입한 방법이 강화학습이었다. 당시 업계는 강화학습을 챗봇 말투를 교정하는 용도(RLHF)로 제한해 활용했다. 추론 능력을 높이는 데는 효율이 떨어진다고 여겨 잘 시도하지 않았다. 하지만 딥시크는 "강화학습을 통해 AI가 스스로 생각하는 과정을 훈련시키면 적은 데이터와 파라미터로도 추론 능력을 극대화할 수 있다"는 독자적인 가설을 세웠다. 그리고 이를 기술적으로 구현해 냄으로써 단순히 데이터를 많이 쏟아붓는 방식이 아닌 새로운 '지능 향상의 길'을 열었다. 기존 오픈소스 모델을 가져와 데이터만 주입하던 방식과는 차원이 다른 접근이었다. 또 다른 혁신은 아키텍처 효율화에 있다. 이들이 채택한 '전문가 혼합(MoE)' 모델은 거대 AI를 각 분야에 최적화된 여러 개 '작은 전문가 모델'로 나눈 뒤 질문에 따라 필요한 모델만 불러와 처리함으로써 효율을 극대화하는 기술이다. 1991년 처음 제안된 후 구글이 '스위치 트랜스포머(Switch Transformer)' 등을 통해 발전시킨 개념이다. 딥시크는 기존 MoE 보다 전문가 모델을 더 세분화하고 어떤 질문이든 공통적으로 필요한 지식을 다루는 일부 모델은 항상 대기시키는 방식을 더해 딥시크MoE라는 독자적인 변형 아키텍처로 발전시켰다. 기존에 존재하던 기술을 재설계해 경쟁사 모델 대비 메모리 사용량과 연산 비용을 획기적으로 줄이는 데 성공했다. 결과적으로 적은 자원으로도 고성능을 낼 수 있음을 증명했다. 유명호 스누아이랩 대표는 "오픈소스를 활용하는 것보다 중요한 건 오픈소스를 그대로 가져다 쓰는지 아니면 거기에 독창적인 아이디어와 방법론을 결합해 새로운 가치를 만들어내느냐 차이"라고 지적했다. 이어 "학계에서도 기존 모델에 새로운 엔진이나 방법론을 접목해 성능을 개선하면 새로운 이론으로 인정한다"며 "단순히 오픈소스를 썼냐 아니냐를 따질 게 아니라 기업에서 제시한 새로운 이론이나 기술이 얼마나 적용되었는가를 따지는 심사 기준이 필요하다"고 말했다. 한국어만 잘하는 AI는 넘어...차별화된 혁신성 제시해야 업계 전문가들은 이번 논란을 계기로 한국 AI 산업이 '독자 AI'라는 단어의 함정에서 빠져나와야 한다고 지적한다. 단순히 부품 국산화율을 따지는 제조업식 사고방식으로는 AI 기술 패권 경쟁 본질을 놓칠 수 있다. 유명호 대표는 "비전 인코더는 데이터 구축도 어렵고 개발 난도가 매우 높다"며 "우리도 자체 개발하는 데만 2~3년이 걸렸다"며 단시간에 AI 관련 모든 인프라를 구축하는 것은 한계가 있다고 지적했다. 현재 글로벌 시장은 AI 관련 모든 요소를 자체적으로 만들었는지 보다 특정 분야라도 얼마나 독창적이고 차별화된 아키텍처를 만들었는지, 그 결과 비용 효율성이나 특정 기술 특화 등 차별화 포인트가 무엇인지를 묻고 있다. 딥시크가 인정받는 이유도 이 지점이다. 더불어 압도적인 자본과 인력을 쏟아붓는 미국과 중국을 단순히 추격하는 방식으로는 승산이 없다는 지적이다. 특히 글로벌 시장에서 경쟁하기 위한 AI 모델을 목표로 하는 만큼 한국어 인식률이 높다는 포인트만으로는 차별화 포인트를 제시할 수 없다는 것이 업계 반응이다. 임정환 대표는 "정부와 시장이 벤치마크 점수 1등이라는 타이틀에만 집착하면 기업은 결국 검증된 오픈소스 모델을 가져와 점수만 올리는 '안전한 길'만 택하게 된다"고 경고했다. 단기적으로는 가시적인 성과처럼 보일지 몰라도 장기적으로는 원천 기술 부재로 인한 글로벌 기술 종속을 심화시키는 결과를 초래할 수 있다는 지적이다. 이를 방지하고 한국 AI 산업이 딥시크와 같은 반열에 오르기 위해서는 '보여주기식 성과'에 집착하는 현재 평가 체계를 개선해야 한다는 요구도 제기되고 있다. 임 대표는 "진정한 국가대표 AI라면 단순히 한국어를 잘하는 AI를 넘어 글로벌 시장에 내세울 수 있는 특화된 장점과 경쟁력이 있어야 한다"며 "설령 당장은 점수가 낮거나 실패하더라도 맨땅에 헤딩하며 독자적인 가설을 세우고 원천 기술을 확보하려는 기업에게 더 많은 기회와 지원을 제공해야 한다"고 제언했다

2026.01.13 14:03남혁우 기자

'K-AI' 주도권 잡을 4개 정예팀은…정부, 첫 심사 발표 임박

정부가 이번 주 '독자 인공지능(AI) 파운데이션 모델 프로젝트' 첫 심사 결과 발표를 앞둔 가운데 공정 심사 여부와 첫 탈락팀에 대한 이목이 쏠리고 있다. 12일 IT 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 오는 15일 전후로 독자 AI 모델 1차 평가 결과를 발표할 예정인 것으로 알려졌다. 정부는 지난주부터 각 컨소시엄이 제출한 모델 성능과 효율성을 검토하면서 최종 선별 작업을 진행 중인 것으로 전해졌다. 현재 정예팀은 네이버클라우드와 NC AI, 업스테이지, SK텔레콤, LG AI연구원이다. 정부는 15일 전후로 여기서 4팀만 선별한다. 네이버클라우드는 텍스트·이미지·오디오 등 서로 다른 데이터를 단일 모델서 처리하는 옴니 파운데이션 모델 '네이티브 옴니모델(HyperCLOVA X SEED 8B Omni)'과 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 '고성능 추론모델(HyperCLOVA X SEED 32B Think)'을 오픈소스로 공개했다. 해당 모델은 에이전트 AI와 버티컬 서비스 기반 기술로 활용될 계획이다. 이를 통해 소버린 AI 경쟁력을 강화하고 월드모델과 로보틱스, 자율주행 등 물리 세계 AI로 키울 방침이다. NC AI는 멀티모달 생성용 파운데이션 모델 '배키(VAETKI)'를 내세웠다. 배키는 토크나이저 어휘 20%를 한국어에 할당하고 고어까지 처리 가능한 한글 조합 기능을 갖췄다. 이를 통해 국내 산업현장에 최적화된 소버린 AI를 달성하겠다는 포부다. 업스테이지는 '솔라 오픈 100B'를 허깅페이스에 내놨다. 솔라 오픈은 중국 딥시크 R1과 오픈AI GPT-OSS-120B' 등 글로벌 경쟁 모델을 주요 벤치마크에서 앞선 것으로 나타났다. 특히 한국어, 영어, 일본어 등 다국어 평가에서 모델 크기 대비 우수한 성능을 보였다. 향후 국내 금융을 비롯한 법률, 의료, 공공, 교육 등 산업별 AI 전환 확산에 활용될 방침이다. SK텔레콤은 한국형 소버린 AI 경쟁력 확보 목표로 '에이닷 엑스 K1'를 내놨다. 이 모델은 5천억 개 파라미터를 보유한 국내 첫 거대언어모델(LLM)이다. 웹 탐색과 정보 분석, 요약, 이메일 발송 등 여러 단계를 거치는 복합 업무를 자율적으로 수행할 수 있다. 향후 일상 업무뿐 아니라 제조 현장 데이터와 작업 패턴을 학습해 업무 효율을 높이는 데도 활용되는 것이 목표다. LG AI연구원은 'K-엑사원'을 공개했다. K-엑사원은 LG AI연구원이 지난 5년간 축적한 기술 바탕으로 하이브리드 어텐션 구조를 고도화해 설계됐다. 이를 통해 메모리 요구량과 연산량을 엑사원 4.0 대비 70% 줄이면서도 성능은 끌어올렸다. 해당 모델은 토크나이저 고도화, 멀티 토큰 예측 구조로 최대 26만 토큰의 초장문을 처리할 수 있다. 추론 속도도 기존 모델 대비 150% 높였다. A100급 그래픽처리장치(GPU) 환경에서도 구동 가능하다. 과기정통부 "평가 공정하게"…심사 기간은 연기 정부는 1차 발표를 앞두고 모델 평가 기간을 기존 일정보다 연장한 것으로 전해졌다. NIPA는 해당 사업에 참여하는 5개 팀에게 AI 모델 사이트를 지난 11일 자정까지 연장 운영해 달라고 요청한 것으로 확인됐다. 해당 사이트는 각 컨소시엄 모델 평가를 위해 전문 평가단이 확인할 수 있도록 구성된 플랫폼이다. 정예팀은 당초 지난 9일 오후 6시까지 사이트를 운영할 예정이었지만, 현재 정부 지침으로 약 56시간 연장한 것이다. NIPA는 해당 지침이 과기정통부 요청에 따른 것이라고 밝혔다. 과기정통부는 최근 사업 참여 컨소시엄에서 불거진 독자 기술력 논란과 모델 평가 기간 연장은 무관하다고 선 그은 것으로 알려졌다. 또 오는 15일 전후로 예정된 독자 AI 모델 선정 사업 1차 발표가 늦어질 가능성도 없다는 입장이다. 배경훈 부총리 겸 과기정통부 장관은 지난 8일 "독자 AI 파운데이션 모델 개발 프로젝트 평가는 객관적이고 공정하게 진행될 것"이라고 개인 소셜네트워크서비스(SNS)를 통해 밝혔다.

2026.01.12 15:21김미정 기자

정부, '독파모' 프로젝트 평가 일정 연장…"1차 발표 시기 그대로"

정부가 '독자 인공지능(AI) 파운데이션 모델 프로젝트' 정예팀 모델 평가 기간을 기존 일정보다 연장한 것으로 전해졌다. 11일 정보통신산업진흥원(NIPA)은 해당 사업에 참여하는 5개 팀에게 AI 모델 사이트를 이날 자정까지 연장 운영해 달라고 요청한 것으로 확인됐다. 해당 사이트는 각 컨소시엄 모델 평가를 위해 전문 평가단이 확인할 수 있도록 구성된 플랫폼이다. 정예팀은 당초 지난 9일 오후 6시까지 사이트를 운영할 예정이었지만, 현재 정부 지침으로 11일까지 약 56시간 연장한 것이다. NIPA는 해당 지침이 과학기술정보통신부 요청에 따른 것이라고 밝혔다. 과기정통부는 최근 사업 참여 컨소시엄에서 불거진 독자 기술력 논란과 모델 평가 기간 연장은 무관하다고 선 그은 것으로 알려졌다. 또 오는 15일 전후로 예정된 독자 AI 모델 선정 사업 1차 발표가 늦어질 가능성도 없다는 입장이다. 과기정통부 관계자는 "AI 모델 평가를 엄밀히 하기 위해 평가 사이트 운영 연장을 요청한 것"이라고 밝혔다.

2026.01.11 18:23김미정 기자

SKT 정예팀 AI 모델, 공개 나흘 만에 다운로드 9천건 기록

SK텔레콤 정예팀이 개발한 국내 최초 500B 급 초거대 AI 모델 '에이닷엑스 케이원(A.X K1)'이 공개 직후 국내외에서 좋은 평가를 받고 있다. A.X K1은 약 4개월의 한정된 기간 동안 519B 규모의 초거대 모델로 개발됐음에도 주요 벤치마크에서 딥시크 V3.1 등 글로벌 AI 모델과 유사하거나 앞선 성능을 선보였다. 특히 지난 7일 A.X K1 모델의 기술 보고서를 공개한 뒤 나흘 만에 모델 다운로드 수가 8천800여 건으로 급증하는 등 높은 관심이 이어지고 있다. 이처럼 A.X K1에 대한 관심이 큰 이유는 높은 확장성 때문으로 풀이된다. 링크드인과 페이스북 등 SNS에서는 A.X K1이 자유로운 사용과 배포가 가능한 '아파치 2.0' 라이선스로 공개된 점을 장점으로 꼽고 있다. 허깅페이스, 에포크 AI에서 주목받아 글로벌 AI 모델 플랫폼 허깅페이스의 창립자이자 CEO인 클렘 들랑그도 A.X K1 등을 직접 언급하며 대한민국 AI의 약진 사례로 지목했다. 클렘 들랑그 CEO는 8일 자신의 링크드인 계정을 통해 허깅페이스 인기 모델에 A.X K1을 포함한 한국의 3개 모델이 선정된 것을 알리면서 “AI 분야에서 미국과 중국에 대해 많이 이야기하지만, 오픈소스 덕분에 모든 국가가 개발자가 될 수 있으며 그렇게 되어야 한다”라 밝혔다. 앤비디아도 링크드인에 클렘 들랑그 CEO의 글을 리포스팅하며 한국 기업의 성과를 공개 지지했다. 미국 비영리 AI 연구 기관인 에포크AI는 지난해 12월29일부터 사흘간 '주목할 만한 AI 모델'에 대한민국의 독자 AI 파운데이션 모델 프로젝트 참여 모델 5종을 등재했다. 에포크 AI는 인공지능 모델의 연산 능력과 데이터 추세를 분석하며 학습 데이터양, 연산 효율성, 기술적 혁신성 등을 기준으로 전 세계 AI 모델을 엄격히 선별해 '주목할 만한 AI 모델' 리스트를 발표한다. “SKT, 멀티모달 추가하고 파라미터 확대 나서” AI 업계 관계자의 호평도 이어지고 있다. 이승현 포티투마루 부사장은 지난 8일 자신의 페이스북에서 "A.X K-1 모델은 프롬 스크래치 이상의 가치를 보여줬다"고 평가했다. 이 부사장은 자신이 제안한 '소버린 AI 판정 시스템'에 A.X K1을 적용한 결과, 기술 주권을 달성한 단계에 해당한다고 밝혔다. 해외 개발자들도 허깅페이스 등 AI 커뮤니티를 통해 "이 규모의 기초 모델이 공개되는 것은 드문 일"이라며, "처음부터 자체 개발한 모델이라는 점에서 매우 독창적"이라고 평가했다. 링크드인에도 “한국은 대규모 AI 개발에서 미국, 중국과 더 직접적으로 경쟁할 수 있는 위치에 놓였다"와 같은 평가들이 속속 게재되고 있다. 한편, SK텔레콤 정예팀은 올해부터 모델에 멀티모달 기능을 순차적으로 추가하고, 조 단위 파라미터로 확대하는 후속 개발을 이어 나갈 계획이다. SK텔레콤 정예팀은 A.X K1이 국가 AI 생태계를 지탱하는 '디지털 사회간접자본(SOC)'으로 활용될 수 있도록 한다는 전략이다. 또한 A.X K1을 기반으로 하는 다양한 소형 특화 모델들이 A.X K1의 지식을 바탕으로 성장할 수 있도록 지속적으로 지원해 나갈 계획이다.

2026.01.11 08:21박수형 기자

[AI는 지금] 배경훈, 'K-AI' 탈락 발표 앞두고 '공정 심사' 약속…정부 기준 '주목'

"독자 인공지능(AI) 파운데이션 모델 개발 프로젝트(K-AI) 평가는 객관적이고 공정하게 진행될 것입니다." 배경훈 과학기술정보통신부 장관이 '독자 AI 파운데이션 모델 개발 프로젝트' 1차 탈락자 발표를 앞두고 심사를 공정하게 할 것이란 의지를 드러냈다. 최근 평가 기준과 독자성 판단을 둘러싼 논쟁이 이어지는 가운데 정부가 명확한 기술 기준과 판단 체계를 갖춰 심사에 나서겠다는 메시지를 내놓은 것으로 풀이된다. 배 장관은 8일 자신의 소셜 미디어(SNS)를 통해 글로벌 오픈소스 AI 플랫폼 '허깅페이스'에서 독파모 모델들이 주목받고 있는 사례를 소개하며 오픈소스를 기반으로 각국이 AI '사용자'를 넘어 '개발자'가 될 수 있음을 강조했다. 배 장관은 "(우리나라의) 세계적 수준 AI 모델 (개발) 도전은 계속되고 있고 각종 지표에서의 반응도 긍정적"이라면서도 "(독파모) 평가는 윤리적 측면에서도 모두가 공감할 수 있어야 비로소 'K-AI' 타이틀을 유지하게 된다"고 언급했다. 배 장관의 이 발언은 단순한 원칙 선언을 넘어 독자 AI를 어떻게 정의하고 무엇을 기준으로 평가할 것인지에 대한 보다 명확한 기준 정립이 필요하다는 업계의 지적에 따른 것으로 분석된다. 또 정부가 이번 논란을 불식시키기 위해 공정한 기준으로 평가에 나설 것이란 의지를 드러낸 것으로도 보인다. 앞서 정부는 지난해 8월 네이버클라우드, 업스테이지, SK텔레콤, NC AI, LG AI연구원을 'K-AI' 국가대표로 선정한 바 있다. 오는 15일께 한 팀을 탈락시킬 1차 발표를 앞둔 상태로, 각 사가 제시한 목표치 도달 여부와 기술적 완성도, 독자성 등을 종합적으로 판단할 예정이다. 일단 정부가 지난해 'K-AI' 사업자 선정과 관련해 공개한 공문에선 해외 모델의 파인튜닝이나 파생형 개발은 독자 모델로 간주하지 않는다는 원칙을 제시했다. 그러나 구체적으로 명확한 기준을 제시하지 않아 업계에선 '독자성' 기준을 두고 혼선을 빚고 있다. 특히 최근에는 독자 모델 개발에서 중국을 포함한 해외 AI 모델의 아키텍처, 인코더, 학습 방식 등을 어디까지 활용할 수 있는지를 두고 논란이 가열되고 있다. 일각에선 글로벌 오픈소스 생태계에서 검증된 구조를 참고하는 것이 불가피하다는 의견도 있지만, 학습된 가중치나 핵심 모델을 그대로 사용하는 경우 독자성 판단이 달라질 수 있다는 반론도 만만치 않다.업계 관계자는 "독자 AI 파운데이션 모델을 가르는 핵심은 아키텍처가 아니라 가중치"라며 "구조는 참고할 수 있지만, 가중치를 처음부터 어떻게 학습했고 누가 통제하느냐가 소버린 AI의 기준"이라고 강조했다. 이어 "중국 모델을 구조로 가중치를 0으로 두고 재설계해 처음부터 자체 완전 학습을 시킨 경우라면 프롬 스크래치로 인정받을 수 있다"며 "하지만 기존 해외 모델의 가중치를 활용해 성능을 개선한 단계는 인정되지 않는다"고 덧붙였다. 그러면서 "AI 모델에서 비전·오디오 인코더 역시 지능의 핵심 요소"라며 "이를 미국, 중국 등 외부 모델에서 그대로 가져와 활용한 경우 독자 AI 모델로 정부가 바라봐선 안될 것"이라고 강조했다. 업계에선 정부가 글로벌에서 통용되고 있는 여러 기준들을 토대로 공정한 심사에 나설 수 있을지 주목하고 있다. 현재 글로벌 기술 문헌과 주요 연구 기관, 오픈소스 커뮤니티 등 여러 곳에서 공통적으로 지목하고 있는 '독자성' 기준은 ▲기존 모델의 학습된 가중치를 그대로 활용하거나 이를 기반으로 미세조정한 경우 ▲무작위 초기화 상태에서 독자 데이터와 학습으로 모델을 새롭게 구축한 경우로 나뉜다. 이는 IBM, 허깅페이스 등 주요 AI 플랫폼과 학계에서도 일반적으로 받아들여지고 있는 기준이다. 특히 특정 국가나 기업의 모델을 차용했는지 여부보다 그 결과물에 대한 통제권과 수정·개선 역량이 누구에게 있는지가 핵심 판단 요소로 꼽힌다.이 같은 논쟁은 최근 정부와 업계에서 확산되는 '소버린 AI' 논의와도 맞닿아 있다. 소버린 AI는 단순히 중국이나 미국 등 특정 국가의 모델을 쓰느냐의 문제가 아니라, 핵심 지능을 구성하는 가중치와 학습 과정에 대해 자국이 얼마나 통제권을 확보하고 있는가를 따지는 개념이다. 업계에선 이승현 포티투마루 부사장이 최근 공개한 '소버린 AI 2.0(T-클래스)' 분류체계가 하나의 참고 기준이 된다고 보고, 정부가 이를 반영해 심사에 나설 것을 희망했다. 이 분류체계는 AI 모델을 ▲설계(Code) ▲지능(Weights) ▲기원(Data)이라는 세 가지 요소로 나눠 단계별로 구분한다. 또 아키텍처 참조 자체보다 가중치를 처음부터 독자적으로 학습했는지를 중요한 분기점으로 삼는다. 업계 관계자는 "이 같은 접근이 중국 모델 차용 여부를 둘러싼 논쟁을 감정적 공방이 아닌, 기술적·제도적 판단의 문제로 전환할 수 있다"며 "정부가 명확한 기준을 제시하고 이를 일관되게 적용한다면 불필요한 오해와 소모적 논쟁도 자연스럽게 줄어들 것"이라고 말했다. 전문가들은 배 장관이 강조한 '객관적이고 공정한 심사'가 실질적인 의미를 가지려면 최종 선정 결과보다 판단 기준과 적용 과정이 명확히 설명되는 것이 중요하다고 지적했다.

2026.01.08 15:55장유미 기자

[AI 리더스] 'AI 표준' 만든 이승현 "K-AI 5곳, 모두 승자…톱2 집착 버려야"

"독자 인공지능(AI) 파운데이션 모델(K-AI) 사업자로 선정된 5곳은 사실상 모두 승자입니다. 2개 사업자만 선별해 정부가 지원하기 보다 각 팀이 짧은 시간 안에 각자의 방식으로 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점을 인정해야 합니다. 정부가 각 모델의 특성과 강점을 살릴 수 있는 지원책을 마련한다면 국내 AI 생태계도 훨씬 건강해질 수 있을 것입니다." 이승현 포티투마루 부사장은 8일 지디넷코리아와의 인터뷰를 통해 최근 독자 AI 파운데이션을 둘러싼 논란에 대해 이같이 정리했다. 오는 15일께 정부가 1차 탈락팀을 결정하기 전 각 업체들이 '이전투구' 양상으로 치닫는 모습을 보이는 것을 두고 정부가 2개팀만 선별해 지원하려는 구조 때문이라고도 진단했다. 또 이번 논란의 본질이 기술 경쟁이 아니라 구조적 문제에 있다고 봤다. 정부가 2개 사업자만 선별해 집중 지원하는 방식이 계속 유지되면 탈락 기업에 과도한 낙인이 찍히고 업계 전체가 방어적·공격적으로 변할 수밖에 없다고 분석했다. 성능 경쟁보다 통제 원칙 우선돼야…소버린 AI 기준 마련 필요 정부는 현재 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 독자 AI 파운데이션 모델 사업자로 선정된 5개 정예팀을 대상으로 1차 심사를 진행 중이다. 탈락팀 1곳은 오는 15일쯤 발표할 예정으로, 정예팀마다 평가 기준이 상이해 업계에선 각 업체별 모델을 두고 유불리 논란이 이어지고 있다. 이 부사장은 "정부 사업에서 탈락하면 해당 팀이 '사망선고'를 받는 것처럼 여겨지는 구조는 바람직하지 않다"며 "톱2만 키우는 방식은 산업 전체를 위축시킬 가능성이 높은 만큼, 선별보다 육성 중심의 정책 전환을 고민해야 한다"고 제언했다. 특히 이번 사업에 참여한 기업 상당수가 대기업 또는 대기업 계열이라는 점에서 1차 탈락이 갖는 파급력은 더 크다고 봤다. 그는 "1차에서 떨어졌다는 이유만으로 '이 정도밖에 못하느냐'는 평가가 붙으면 내부 투자나 그룹 차원의 지원이 위축될 가능성도 배제하기 어렵다"며 "그 부담이 기업을 더욱 공격적인 대응으로 몰아넣는다"고 진단했다.이에 이 부사장은 '선별'이 아닌 '육성'을 초점에 맞춘 정부 정책이 마련될 필요가 있다고 강조했다. 일정 수준 이상의 역량을 입증한 기업들을 여러 트랙으로 나눠 지속적으로 키우는 구조가 필요하다는 것이다. 그는 "영국 등 해외 사례를 보면 한 번 떨어졌다고 끝나는 게 아니라 다른 트랙으로 계속 경쟁과 육성을 이어간다"며 "이번에 선정된 5개 기업 역시 각자 다른 강점과 방향성을 갖고 있는 만큼, 정부가 이들을 '탑위너 그룹'으로 묶어 장기적으로 관리하는 전략이 필요하다"고 말했다.이 부사장은 소버린 AI를 둘러싼 논의 역시 '전면 강제'가 아니라 '위험 구간에서의 원칙'으로 재정의해야 한다고 강조했다. 글로벌 모델과의 성능 경쟁을 목표로 삼기보다 투명성을 바탕으로 통제 가능성과 주권 확보가 필요한 영역에서 전략적으로 활용해야 한다고 주장했다. 그는 "공공 영역만 보더라도 정보 등급에 따라 활용 원칙이 달라야 한다"며 "오픈 데이터나 공개 서비스 영역에서는 글로벌 모델이나 경량화 모델을 활용할 수 있지만, 민감정보·보안 등급으로 올라갈수록 소버린 모델을 원칙으로 삼는 방식이 합리적"이라고 말했다. 그러면서 "다만 소버린을 내세워 모든 것을 자체 모델로만 해결하려는 접근은 현실적이지 않다"며 "필요할 경우 월드모델 활용 등을 통해 안전한 방식의 연계·상호운용을 함께 고민해야 한다"고 덧붙였다. AI 정책, 구조적 한계 여실…공공 클라우드 전환 선행돼야 이처럼 이 부사장이 분석한 이유는 과거 공공 정책 현장에서 직접 경험한 구조적 한계가 지금도 크게 달라지지 않았다고 판단해서다. 그는 디지털정부플랫폼위원회 재직 당시부터 AI 시대를 준비하기 위해 공공 시장의 클라우드 전환이 선행돼야 한다고 꾸준히 주장해왔다. 이 부사장은 "지난 2022년 3월 무렵부터 공공이 AI 시대를 이야기하면서도 정작 기반이 되는 클라우드 전환은 제대로 이뤄지지 않는 점이 가장 큰 한계라고 봤다"며 "AI를 서비스(SaaS) 형태로 도입하려면 클라우드가 전제가 돼야 하는데, 공공 영역의 전환 속도가 이를 따라가지 못했다"고 설명했다. 그는 이에 대한 원인으로 ▲클라우드 전환 지연 ▲예산·제도 구조 ▲관료제의 연속성 부족을 꼽았다. 이 부사장은 "정부 예산 구조상 ISP 등 절차를 거치면 최소 2~3년이 소요되는데, 이 방식으로는 빠르게 변하는 AI 흐름을 따라가기 어렵다"며 "AI처럼 중장기 전략이 필요한 분야에서 담당 보직이 자주 바뀌면 학습 비용이 반복되고 정책 추진의 일관성도 흔들릴 수밖에 없다"고 지적했다. 또 그는 "이 때문에 국가AI전략위원회와 같은 컨트롤타워 조직에는 보다 실질적인 권한과 연속성이 필요하다"며 "전문가 의견을 모으는 데서 그치지 않고, 부처 간 정책을 조정하고 실행으로 연결할 수 있도록 조직에 힘을 실어줘야 한다"고 강조했다.다만 이 부사장은 제도 개선의 필요성을 강조하는 것만으로는 AI 정책의 한계를 넘기 어렵다고 봤다. 정책이 실제 서비스와 산업 현장으로 이어지지 못하는 구조가 반복되고 있다고 판단해서다. 이에 디지털플랫폼정부위원회 AI플랫폼혁신국장을 맡았던 이 부사장은 지난 달 포티투마루로 자리를 옮겼다. 이곳에서 공공 정책 설계 경험을 바탕으로 공공·민간 영역에서 AI가 실제 서비스로 구현되고 확산되는 구조를 만드는 데 직접 기여할 것이란 각오다. 또 공공 AI 활용 사례를 통해 스타트업과 중소기업이 함께 성장할 수 있는 실증 모델을 만드는 데도 집중할 계획이다. 이 부사장은 "4년간 공공 영역에서 AI 정책을 다루며 나름대로 전문성을 쌓았다고 생각했지만, 실제 현장에서는 또 다른 병목이 존재하고 있다고 판단됐다"며 "AI 강국이 되려면 결국 국민이 체감해야 한다"고 지적했다.이어 "공공 영역에서 AI를 통해 일하는 방식 혁신을 통해 생산성을 높이고, 대국민 서비스의 속도와 품질을 개선하며 의료·복지 등 사회 문제 해결로 이어져야 가능한 일"이라며 "포티투마루를 통해 공공 AI가 실제로 작동하는 사례를 만들고, 스타트업과 중소기업이 함께 성장할 수 있는 구조를 현장에서 증명하고 싶다"고 덧붙였다. 그러면서 "국내 소프트웨어 산업은 여전히 공공이 큰 축을 차지하고 있는데, 공공 시장이 SI 중심 구조에 머물러 있다 보니 스타트업이 성장할 수 있는 발판이 제한적"이라며 "영국 등은 정부가 클라우드 기반으로 전환하면서 스타트업들이 공공 시장에 자연스럽게 진입했지만, 한국은 제도와 조달 구조가 이를 가로막고 있다"고 지적했다. 소버린 AI 등급체계 직접 개발…'국산 AI' 논쟁 끝낼까 지난 6일 소버린 AI 기준 논의를 위해 직접 평가 기준과 이를 판별할 도구를 개발해 허깅페이스에 공개한 것도 이 같은 문제에 대한 고민에서 출발했다. 그는 소버린 AI 등급 체계인 'T-클래스 2.0'을 깃허브와 허깅페이스에 공개하며 막연한 '국산 AI' 구호로는 기술 주권을 설명할 수 없다는 점을 분명히 했다. 이 부사장이 제안한 'T-클래스 2.0'은 기존 논의와 달리 '설계(Code)', '지능(Weights)', '기원(Data)' 등 세 가지 실체적 기준을 중심으로 AI 모델을 T0부터 T6까지 7단계로 구분한다. ▲단순 API 호출 및 미세조정 수준(T0~T1) ▲오픈 웨이트를 활용한 과도기 모델(T2~T3) ▲소버린 AI의 기준점이 되는 아키텍처를 참조하되 가중치를 처음부터 자체 학습한 T4 ▲독자 설계 아키텍처와 한국어 토크나이저를 갖춘 T5 ▲국산 반도체·클라우드까지 결합한 T6 등으로 분류됐다. 이 중 T4를 T4-1과 T4-2로 세분화한 것이 기존 버전과의 차별점이다. T4-1은 표준 아키텍처를 그대로 유지한 채 가중치를 처음부터 학습한 모델이다. 데이터 주권은 확보했지만, 구조적 독창성은 제한적인 단계다. 반면 T4-2는 기존 아키텍처를 참고하되 레이어 구성, 파라미터 규모, 연산 구조 등을 최적화·확장한 모델로, 글로벌 표준을 활용하면서도 기술 주권까지 일정 수준 확보한 단계로 분류된다. 이 부사장은 "T4-1이 '데이터 소버린' 단계라면, T4-2는 '기술 소버린'에 한 발 더 다가간 모델"이라며 "현재 국내 독자 AI 파운데이션 모델로 선정된 팀 대부분은 모두 T4-2 영역에 해당하는 질적 변형을 수행했다는 점에서 충분히 평가받아야 한다"고 말했다. 이어 "아키텍처는 이미 범용 기술이 됐지만, 가중치는 국가가 소유해야 할 자산"이라며 "T4는 아키텍처라는 그릇을 빌리더라도 데이터와 연산, 결과 지능을 우리가 통제하는 실질적 소버린 모델"이라고 덧붙였다. 일각에서 독자 아키텍처(T5)까지 가야 진짜 소버린으로 인정할 수 있다는 주장에 대해선 "현실을 외면한 기술적 순혈주의"라고 선을 그었다. 또 수백억원을 들여 아키텍처를 처음부터 다시 만들어도 글로벌 표준 모델 대비 성능 우위를 확보하기는 쉽지 않다는 점도 분명히 했다. 이 부사장은 "대다수 기업에게는 아키텍처 재발명보다 고품질 데이터와 학습 인프라에 집중하는 것이 더 합리적인 전략"이라며 "T4는 산업의 허리를 튼튼하게 만드는 표준 전략이고, T5는 국가 안보와 기술 패권을 겨냥한 리더십 전략으로 두 트랙이 함께 가야 생태계가 건강해진다"고 강조했다. 이 기준을 구현한 '소버린 AI 판별 도구(Sovereign AI T-Class evaluator 2.0)'를 직접 개발해 공개한 이유에 대해서도 그는 투명성을 거듭 강조했다. 이 부사장은 "AI 개발은 참조와 변형의 경계가 매우 모호한 회색지대"라며 "명확한 가이드 없이 결과만 놓고 개발자를 비난하는 것은 부당하다"고 말했다. 그러면서 "기준이 없으니 불필요한 논쟁과 감정 싸움만 커진다"며 "누구나 같은 잣대로 설명할 수 있는 최소한의 공통 기준이 필요하다고 판단했다"고 덧붙였다. 실제로 해당 기준 공개 이후 업계에서는 "왜 이제야 이런 기준이 나왔느냐", "사실상 표준으로 삼을 만하다"는 반응이 이어지고 있다. 또 정부에서 이 부사장이 만든 'T-클래스 2.0'을 바탕으로 독자 AI 파운데이션 모델의 평가 기준이 구체적으로 만들어져 심사 투명성을 높여야 한다는 지적도 나왔다. 이 같은 분위기 속에 이 부사장은 독자 AI 논의가 현재 단계에만 머물러서도 안 된다고 지적했다. 또 현재의 혼란이 단기적인 사업 논쟁이 아니라 AI를 국가 전략 차원에서 어떻게 바라볼 것인가에 대한 더 큰 질문으로 이어지고 있다고 봤다. 그는 "독파모가 보여주기식 경쟁이나 단기 성과에 머물면, 월드모델·디지털 트윈·피지컬 AI로 이어지는 다음 스테이지를 놓칠 수 있다"며 "국가 R&D는 지금보다 한 단계 앞을 내다보는 구조여야 한다"고 강조했다. AGI 시대, 5년 내 현실화…AI 국가 전략, 체계적 마련 필요 이 부사장은 AI 경쟁의 종착점을 단기적인 모델 성능 비교에 두는 것 자체가 위험하다고도 경고했다. 그는 AGI(범용인공지능)가 5년 안에 현실화될 가능성이 높다고 전망하며 그 이후를 대비하지 않는 전략은 국가 차원에서도 지속 가능하지 않다고 지적했다. 그는 "AGI는 단순히 모델이 더 똑똑해지는 문제가 아니라 기억 구조와 추론 방식이 인간의 뇌를 닮아가는 단계"라며 "지금 구글이 시도하고 있는 중첩학습처럼 단기·중기·장기 기억을 분리·결합하는 구조는 거대언어모델(LLM) 이후를 준비하는 명확한 신호"라고 말했다. 그러면서 "글로벌 빅테크들은 이미 다음 스테이지를 보고 있다"며 "하지만 우리는 아직 현재 모델이 프롬 스크래치냐 아니냐에만 머물러 있는 건 아닌지 돌아봐야 한다"고 덧붙였다. 이 부사장은 AGI와 ASI(초지능)를 막연한 공포의 대상으로 보는 시각에도 선을 그었다. 그는 "인류는 오래전부터 인간을 능가하는 지능이 등장해 우리가 해결하지 못한 문제를 풀어주길 기대해왔다"며 "중요한 것은 AGI·ASI 자체가 아니라 그것을 어떤 문제 해결을 위해 어떻게 통제하고 활용할 것인가에 대한 고민"이라고 봤다. 이어 "AI를 두려워하기보다 인류 난제 해결이라는 방향성 속에서 통제권을 쥐는 것이 국가 전략의 핵심"이라고 강조했다. 이 부사장은 이 같은 고민을 담아 다음 달께 'AI 네이티브 국가'를 출간할 계획이다. 이 책에는 모델 개발을 넘어 지정학, 경제, 복지, 산업 구조 전반에서 AI가 국가 경쟁력을 어떻게 재편하는지에 대한 고민을 고스란히 담았다. 또 메모리 반도체, 제조 데이터, 클라우드 인프라를 동시에 보유한 한국의 구조적 강점을 짚으며 AI 시대에 한국이 '풀스택 국가'로 도약할 수 있는 전략도 함께 제시할 계획이다. 그는 "국내 AI 논의가 기술 우열이나 모델 성능에만 매몰돼 있는 흐름을 벗어나고 싶었다"며 "같은 기술이라도 국가가 어떤 전략을 취하느냐에 따라 결과는 전혀 달라질 수 있다는 점을 책을 통해 정리하고 싶었다"고 설명했다.마지막으로 그는 "AI를 둘러싼 지금의 혼란은 누군가가 틀렸기 때문이 아니라 기준과 구조가 없었기 때문"이라며 "논쟁을 줄이고 경쟁을 건강하게 만들 수 있는 최소한의 합의점을 만드는 데 앞으로도 계속 목소리를 낼 것"이라고 피력했다.

2026.01.08 10:10장유미 기자

아마존 AI 전략 설계자, 구글 클라우드 합류…에이전트 서비스 강화

구글 클라우드가 아마존에서 인공지능(AI) 전략과 파운데이션 모델 개발을 이끌었던 핵심 인재를 영입하며 AI 에이전트 강화에 박차를 가한다. 미국 IT 미디어 긱와이어에 따르면 구글 클라우드는 아마존에서 14년간 근무하며 AI 전략 수립과 기술 개발을 주도한 카르틱 라마크리슈난을 데이터 클라우드 조직 부사장(VP)으로 선임했다. 라마크리슈난은 아마존의 음성 AI 서비스 '알렉사' 초기 개발에 참여했으며 최근에는 자체 파운데이션 모델 '노바' 개발을 이끈 인물로 알려졌다. 라마크리슈난 부사장은 2012년 아마존에 합류한 이후 대화형 AI부터 멀티모달 범용인공지능(AGI)에 이르기까지 아마존 AI 기술 진화 전반에 관여한 것으로 평가된다. 아마존 합류 이전에는 마이크로소프트(MS)가 텔미 네트웍스를 인수한 후 3년간 수석 플랫폼 엔지니어로 근무한 바 있다. 이번 인사는 아마존 내부 AI 조직 개편과 맞물려 이뤄졌다. 최근 아마존에서는 AI 조직을 이끌던 로히트 프라사드 수석부사장이 회사를 떠났다. 앤디 재시 아마존 최고경영자(CEO)는 AI 모델 연구팀과 맞춤형 실리콘, 양자 컴퓨팅 조직을 통합하는 새로운 체제를 발표했다. 아마존은 지난해 말 '노바 2' 모델을 공개하며 경쟁사 추격에 나선 상태다. 빅테크 업계에서는 AI뿐 아니라 최고위 임원급 인재 이동이 이어지고 있다. 메타는 MS 출신 법무 책임자를 최고법률책임자(CLO)로 영입하는 등 주요 기업 간 인재 확보 경쟁이 더욱 치열해지는 양상이다. 라마크리슈난 부사장은 링크드인을 통해 "우리는 에이전트 시대에 진입하고 있다"며 "세계적 수준의 팀과 함께 미래 자율 데이터 플랫폼을 구축하는 데 집중할 것"이라고 밝혔다.

2026.01.07 17:38한정호 기자

독자 AI '프롬 스크래치' 논란 재점화…네이버클라우드, 오픈소스 차용 해명

정부가 추진 중인 '독자 인공지능(AI) 파운데이션 모델' 프로젝트를 둘러싸고 기술 자립성 논란이 다시 불거졌다. 네이버클라우드가 일부 멀티모달 구성 요소에 외부 오픈소스 모델을 활용한 사실이 알려지면서 '프롬 스크래치' 기준을 둘러싼 해석 차이가 업계 내 논쟁으로 확산되는 양상이다. 5일 업계에 따르면 네이버클라우드가 멀티모달 AI 모델 '하이퍼클로바X 시드 32B 싱크'의 음성·이미지 입력을 처리하는 비전·오디오 인코더 일부에 중국 알리바바의 오픈소스 모델 '큐웬' 계열을 활용한 것으로 알려졌다. 해당 인코더 가중치가 큐웬 모델과 높은 코사인 유사도와 피어슨 상관계수를 보였다는 점이 공개되면서 정부 과제 취지에 부합하는지 여부가 쟁점으로 떠올랐다. 정부의 독자 파운데이션 모델 프로젝트는 모델을 학습 초기 단계부터 자체 기술로 구축하는 이른바 프롬 스크래치 구현을 주요 평가 요소 중 하나로 삼고 있다. 이 때문에 핵심 구성 요소 중 일부라도 외부 모델을 활용할 경우 기술 자립성에 대한 문제 제기가 불가피하다는 지적이 나온다. 이에 대해 네이버클라우드는 어디까지를 파운데이션 모델로 볼 것인가에 대한 정의 차이를 제시했다. 회사 측은 "파운데이션 모델의 본질은 입력 정보를 해석하고 추론해 결과를 만들어내는 핵심 엔진에 있다"며 "이 영역은 인간으로 치면 사고와 정체성을 담당하는 두뇌에 해당한다"고 설명했다. 이어 "해당 핵심 추론 엔진을 프롬 스크래치 단계부터 100% 자체 기술로 개발해 왔으며 이를 통해 한국어와 한국 사회의 복잡한 맥락을 깊이 이해하는 독자적인 경쟁력을 확보해 왔다"고 강조했다. 논란이 된 비전·오디오 인코더는 이 두뇌에 입력 신호를 전달하는 역할로, 모델의 정체성과는 구분해야 한다는 입장이다. 특히 비전 인코더의 경우 시각 정보를 모델이 이해할 수 있는 신호로 변환하는 시신경 역할을 하며 자체 비전 기술 역량도 충분히 보유하고 있다고 설명했다. 이번 모델에서는 글로벌 기술 생태계와의 호환성과 전체 시스템의 효율적 최적화를 고려해 검증된 외부 인코더를 전략적으로 채택했다는 것이다. 또 네이버클라우드는 이러한 방식이 기술 자립도가 부족해서가 아닌 이미 표준화된 고성능 모듈을 활용해 전체 모델의 완성도와 안정성을 높이기 위한 고도의 엔지니어링 판단이라고 강조했다. 실제 글로벌 AI 업계에서도 알리바바의 큐웬-오디오가 오픈AI의 음성인식 기술을, 큐웬-옴니가 구글의 이미지 인식 기술을 기반으로 구축하는 등 유사한 사례가 존재한다는 점을 근거로 들었다. 아울러 관련 기술적 선택과 라이선스 정보를 허깅페이스와 테크리포트를 통해 투명하게 공개해 왔으며 모델 성능이나 기술 기여를 과장하려는 의도는 전혀 없다고 밝혔다. 멀티모달 AI에서 가장 어려운 과제는 개별 부품의 출처가 아니라 텍스트·음성·이미지를 하나의 유기적인 구조로 통합해 동시에 이해하고 생성하도록 설계하는 통합 아키텍처라는 설명이다. 정부의 독자 파운데이션 모델 프로젝트를 둘러싼 유사성 논란은 이번이 처음은 아니다. 앞서 업스테이지가 개발한 모델을 두고도 일부 가중치 유사성을 근거로 한 의혹이 제기된 바 있으며 이후 공개 검증과 추가 설명을 거치며 논쟁은 일단락됐다. 네이버클라우드 측은 "앞으로도 기술 개발의 모든 과정에서 투명성을 유지할 것"이라며 "단순히 모든 요소를 직접 만들었는가라는 프레임을 넘어, 어떻게 창의적으로 통합해 사용자에게 최고의 가치를 줄 것인가에 집중할 계획"이라고 밝혔다.

2026.01.05 20:32한정호 기자

[유미's 픽] 뿔난 업스테이지, '솔라 오픈 100B' 中 모델 파생 의혹에 공개 검증 '맞불'

정부에서 추진 중인 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참가한 업스테이지가 첫 성과를 공개한 후 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델을 제출했다는 의혹에 휩싸였다. 업스테이지는 억울함을 표하며 모델 공개 검증 행사와 함께 향후 의혹 제기에 대해 강경 대응에 나설 것을 시사했다. 1일 업계에 따르면 고석현 사이오닉에이아이 대표는 이날 자신의 소셜 미디어(SNS)에 깃허브 리포트를 게재하며 업스테이지 '솔라 오픈 100B'가 중국 지푸(Zhipu) AI의 'GLM-4.5-에어'에서 파생된 모델이라고 주장했다. 고 대표는 "국민 세금이 투입된 프로젝트에서 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델이 제출됐다"며 "상당히 큰 유감"이라고 말했다. 이번 논란은 이날 오후 1시께 올라온 깃허브 리포트가 발단이 됐다. 이 리포트는 '솔라 오픈 100B'와 'GLM-4.5-에어'의 가중치 구조를 통계적으로 비교 분석한 결과를 담고 있다. 앞서 업스테이지는 지난 달 30일 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 '프롬 스크래치(From Scratch)'를 기반으로 개발했다고 소개했다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 하지만 리포트 작성자는 '솔라 오픈 100B'와 'GLM-4.5-에어' 두 모델의 레이어별 파라미터 유사도를 측정한 결과 일부 계층에서 매우 높은 수준의 유사성이 관측됐다고 설명했다. 또 동일 모델 내부 레이어 비교보다 솔라와 GLM 간 동일 레이어 비교에서 더 높은 유사도가 나타났다고 주장하며, 이를 근거로 솔라 오픈 100B가 GLM-4.5-에어에서 파생됐다고 결론 내렸다. 다만 일각에서는 해당 분석이 두 모델의 학습 과정이나 개발 경로를 직접 확인한 것이 아니라는 점에서 해석에 신중할 필요가 있다는 지적이 나온다. 공개된 모델 가중치를 기반으로 한 사후적 통계 비교 방식으로 진행된 데다 실제 학습에 사용된 데이터셋, 학습 로그, 내부 코드베이스 등은 검증 대상에 포함되지 않았기 때문이다. 특정 가중치가 그대로 복사됐거나 모델 바이너리 차원에서 직접적인 공유가 있었다는 증거 역시 이번에 제시되지 않았다. 이 같은 의혹 제기에 대해 업스테이지는 즉각 반박에 나섰다. 고 대표가 게시물을 올린 지 2시간 후 김성훈 업스테이지 대표는 자신의 페이스북을 통해 "솔라 오픈 100B가 중국 모델을 복사해 미세 조정한 결과물이라는 주장은 사실과 다르다"며 "해당 모델은 명백히 프롬 스크래치 방식으로 학습됐다"고 강조했다. 그러면서 김 대표는 오는 2일 오후 3시 서울 강남역 부근에서 솔라 오픈 100B의 개발 과정을 공개적으로 검증받겠다고 밝혔다. 이 자리에는 의혹을 제기한 고석현 대표를 포함해 추가 검증에 참여하고 싶은 업계 및 정부 관계자들을 초청할 계획이다. 또 업스테이지 측은 이후에도 이 같은 의혹이 제기될 경우 더 강경하게 대응할지에 대해서도 내부 검토에 착수했다. 김 대표는 "학습에 사용한 중간 체크포인트(checkpoint)와 AI 모델 학습 과정과 실험 결과를 기록·관리하는 도구인 '웨이츠 앤 바이어시스(Weights & Biases·wandb)'를 모두 공개할 예정"이라며 "명확한 검증 절차를 공개해 사실 관계를 바로잡도록 할 것"이라고 말했다. 업계에서는 이번 공개 검증이 논란의 분수령이 될 수 있다는 평가를 내놨다. 실제 학습 체크포인트와 로그가 공개될 경우 '솔라 오픈 100B'가 특정 시점에서 외부 모델을 기반으로 파인튜닝됐는지, 독립적인 학습 경로를 거쳤는지를 보다 명확히 확인할 수 있기 때문이다. 동시에 통계적 유사성만으로 모델 복제 여부를 단정하기는 어렵다는 신중론도 제기된다. 대규모 언어모델 개발 과정에서는 유사한 아키텍처와 데이터, 학습 레시피를 사용할 경우 높은 유사도가 나타날 수 있어서다. 또 지식 증류(distillation)나 합성 데이터 활용 여부에 따라 통계적 패턴이 겹칠 가능성도 존재한다는 지적도 나온다. 업계 관계자는 "이번 논란이 주목받는 이유는 해당 모델이 정부 예산이 투입되는 '독자 AI 파운데이션 모델 프로젝트'의 결과물이기 때문"이라며 "사업 취지상 해외 모델에 대한 기술적 의존 여부와 개발 과정의 투명성은 핵심적인 검증 대상이 될 수밖에 없다"고 설명했다. 그러면서 "결국 이번 사안의 핵심은 통계 분석을 둘러싼 해석 논쟁을 넘어 실제 개발 과정에 대한 객관적 검증으로 옮겨가고 있다"며 "업스테이지가 예고한 공개 검증을 통해 솔라 오픈 100B의 학습 경로와 독립성이 어느 수준까지 입증될지에 많은 관심이 쏠리고 있다"고 덧붙였다.또 다른 관계자는 "이번 논란이 특정 기업의 문제를 넘어 독자 AI 파운데이션 모델 사업 전반의 검증 기준을 끌어올리는 계기가 될 수 있다"며 "다른 참여 기업들 역시 향후 모델 공개 과정에서 학습 출처와 개발 경로에 대한 설명 책임이 더 커질 가능성이 있다"고 말했다.

2026.01.01 18:09장유미 기자

[유미's 픽] "주사위는 던져졌다"…국대 AI 첫 탈락자, 1차 발표회서 판가름?

우리나라를 대표할 인공지능(AI) 모델을 선발하는 정부 사업 '독자 AI 파운데이션 모델 프로젝트'의 첫 결과물이 공개된 가운데 어떤 기업이 이번 심사에서 살아남을지 관심이 집중된다. 각 사업자들이 내세운 모델의 성과가 달라 정부가 심사기준을 어떻게 세웠을지도 관심사다. 31일 업계에 따르면 네이버, LG AI연구원, SK텔레콤은 AI 임원, NC AI와 업스테이지는 대표가 지난 30일 오후 2시부터 서울 강남구 코엑스에서 개최된 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참여했다. 발표는 네이버를 시작으로 NC AI, 업스테이지, SK텔레콤, LG AI연구원 순서로 진행됐다. 독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업이다. 과학기술정보통신부는 이번 발표를 기반으로 심사를 통해 내년 1월 15일 1개 팀을 탈락시키고, 이후에도 6개월마다 평가를 거쳐 2027년에 최종 2개 팀을 선정한다. 모델 성과 제각각…정부 심사 기준이 관건 이번 심사에선 각 팀이 주어진 공통 과제를 얼마나 잘 수행했는지, 각자 제시한 목표대로 성과를 냈는지가 관건이다. 모든 팀은 최근 6개월 내 공개된 글로벌 최고 모델 대비 95% 이상의 성능을 달성해야 하는 과제가 주어진 상태다.지난 8월 정예팀으로 선정된 지 4개월만에 첫 성과를 공개해야 하는 만큼, 개발 시간이 부족한 상황에서 각자 기술력을 얼마나 끌어올렸을지도 관심사다. 각 팀의 GPU 지원 여부, 지원 받은 시기 등이 각각 달랐다는 점에서 정부가 이를 심사 시 고려할 지도 주목된다. 이번 프로젝트를 위해 SK텔레콤과 네이버클라우드는 정부에게 GPU를 임대해주고 있다. 이 탓에 두 업체는 올해 '독자 AI 파운데이션 모델 프로젝트' 진행 시 정부로부터 GPU를 지원 받지 못했다. SK텔레콤은 엔비디아의 B200 칩 1천24장을 업스테이지와 LG AI연구원에, 네이버클라우드는 H200 칩 1천24장을 NC AI에 지원하고 있다. 이 탓에 GPU가 각 업체에 지원된 시기는 다 달랐다. 업계에선 정부가 어떤 기준을 세울지에 따라 각 팀의 승패가 갈릴 것으로 봤다. 정부는 그간 5개팀과 여러 차례 만나 평가 기준에 대해 논의 후 이달 중순께 합의를 보고 공지했으나, 어떤 팀이 탈락할 지에 따라 여전히 논란의 불씨가 많은 것으로 알려졌다. 업계 관계자는 "당초 5개 팀이 선정될 당시 정부에 제시했던 목표치를 달성했는지가 가장 중요할 것"이라며 "각 팀이 목표로 하고 있는 모델의 크기, 성능, 활용성이 제각각인 만큼 목표 달성률을 가장 중요한 기준치로 삼아야 할 것"이라고 강조했다. 이어 "벤치마크를 활용한다는 얘기가 있지만 모델 크기가 클수록 다운로드 수 측면에서 불리할 수 있어 이를 객관적 기준으로 삼기에는 다소 무리가 있을 수 있다"며 "5개 팀과 정부가 어떤 기준에 대해 합의를 했는지, 어떤 전문가를 앞세워 심사에 나설지도 주목해야 할 부분"이라고 덧붙였다. 5개 팀 첫 성과 공개…프롬 스크래치·모델 크기·활용성 주목 이번 1차 결과 공개에서 가장 주목 받는 곳은 업스테이지다. 대기업 경쟁자들 사이에서 짧은 시간 내 '프롬 스크래치(From Scratch)'를 기반으로 가성비 최고 수준인 모델을 완성도 높게 공개했다는 점에서 많은 이들의 호응을 얻었다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 업스테이지는 이날 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 자신감을 표출했다. 특히 발표에 직접 나선 김성훈 대표가 '솔라 오픈 100B'를 개발하게 된 과정을 스토리텔링 형식으로 발표해 호응을 얻기도 했다. 김 대표는 향후 200B, 300B 모델과 함께 멀티모달 모델도 선보일 예정이다.업계 관계자는 "김 대표가 발표 때 딥 리서치나 슬라이드 제작 등 코딩 외에 실제로 현장에서 많이 써봤을 것 같은 서비스를 직접 라이브 데모로 보여준 부분이 인상적이었다"며 "504장의 B200 GPU로 두 달 남짓 훈련한 것을 고려하면 모델 크기나 사용된 토큰수(추정)를 정말 빡빡하게 잘 쓴 게 아닌가 싶다"고 평가했다. 이승현 포티투마루 부사장은 "(업스테이지 발표 때) 솔라 프로가 'GPT-4o-미니'나 '파이-3 미디엄'보다 벤치마크가 높아 동급 사이즈에선 가장 우수하다고 했는데, 실제 가성비가 최고 수준인 것으로 보인다"며 "당장 기업들이 가져다 쓰기에도 좋을 것 같다"고 말했다. 이어 "그동안 업스테이지의 상징과도 같았던 DUS(구조 일부를 변경해 자체화한 AI 모델 개발 방식)를 넘어 프롬 스크래치로 모델을 개발했다는 점이 인상적"이라며 "기술 리포트가 없는 게 아쉽지만, 모델 카드에 프롬 스크래치를 기재한 것과 함께 API도 공개해 자신감을 드러낸 것이 국가대표로 내세우기 적합해 보였다"고 덧붙였다. 배경훈 과학기술정보통신부 부총리 겸 장관을 배출한 LG AI연구원도 이번 발표가 끝난 후 개발 중인 모델이 국가대표로 인정받기에 손색이 없다는 평가를 받았다. 이곳은 '엑사원 4.0' 아키텍처를 기반으로 파라미터 크기를 약 7배 키워 초기화한 상태에서 새로 학습시킨 'K-엑사원'을 이번에 공개했다. 'K-엑사원'은 매개변수 236B 규모의 프런티어급 모델이다. LG AI연구원에 따르면 'K-엑사원'은 개발 착수 5개월 만에 알리바바의 '큐웬3 235B'를 뛰어 넘고 오픈AI의 최신 오픈 웨이트 모델을 앞서 글로벌 빅테크 최신 모델과 경쟁할 수 있는 가능성을 입증했다. 글로벌 13개 공통 벤치마크 평균 성능 대비 104%를 확보했다는 점도 눈에 띄는 요소다. LG AI연구원은 "기존 엑사원 4.0 대비 효율성을 높이면서도 메모리 요구량과 연산량을 줄여 성능과 경제성을 동시에 확보했다"며 "특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 GPU 환경에서 구동할 수 있도록 했다"고 설명했다. 이곳은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다. 또 글로벌 프론티어 AI 모델을 뛰어넘는 경쟁력을 확보해 한국을 AI 3강으로 이끌 것이란 포부도 드러냈다. 이번 발표를 두고 업계에선 LG AI연구원이 5개 팀 중 기술적인 내용이 가장 많이 들어있어 신뢰도가 높았다고 평가했다. 또 추론 강화를 위해 아키텍처를 변형하고 커리큘럼 러닝을 적용했다는 점에서 모델이 '프롬 스크래치'임을 명백히 보여줬다고 평가했다. 다만 동일 아키텍처인 32B 모델의 리포트와 가중치만 공개돼 있고, 이번 모델인 236B는 공개하지 않았다는 점은 아쉬운 대목으로 지적됐다. 업계 관계자는 "'K-엑사원'은 구조, 가중치가 완전 국산이란 점에서 통제권과 설명 가능성이 충분히 확보돼 있다고 보인다"며 "국방, 외교, 행정망 등 국가 핵심 인프라에 충분히 쓰일 수 있을 듯 하다"고 말했다. 그러면서도 "이번 발표에서 자체 MoE나 하이브리드 어텐션(hybrid attention, 효율·성능을 위해 다양한 어텐션 방식을 상황별로 혼합한 구조), 아가포(AGAPO, 어텐션·파라미터 사용을 입력에 따라 동적으로 조절하는 내부 최적화 기법) 같은 기술들에서 인상 깊은 것이 없다는 것은 아쉽다"며 "다음에는 실질적 효과에 대한 정량적 수치가 잘 기술되면 좋을 듯 하다"고 덧붙였다.이에 대해 LG AI연구원 관계자는 "모델 제출 마감이 이번 주까지여서 제출 시점에 236B 모델을 공개할 것"이라며 "이 때 테크 리포트로 세부 사항도 담을 예정"이라고 설명했다. SK텔레콤도 이번 발표에서 많은 이들의 주목을 받았다. 짧은 시간 안에 국내 최초로 매개변수 5천억 개(500B) 규모를 자랑하는 초거대 AI 모델 'A.X K1'을 공개했기 때문이다. 특히 모델 크기가 경쟁사보다 상당히 크다는 점에서 AI 에이전트 구동 등에서 유리한 고지에 있다는 일부 평가도 나오고 있다. SK텔레콤은 모델 크기가 성능과 비례하는 AI 분야에서 한국이 AI 3강에 진출하려면 500B 규모의 AI 모델이 필수적이란 점을 강조하며 톱2까지 오를 것이란 야심을 드러내고 있다. 또 SK텔레콤은 모두의 AI를 목표로 기업과 소비자간 거래(B2C)와 기업간거래(B2B)를 아우르는 AI 확산 역량도 강조했다. 여기에 SK하이닉스, SK이노베이션, SK AX 등 관계사와 협업으로 한국의 AI 전환에 이바지하겠다는 포부도 밝혔다. 다만 일각에선 프롬 스크래치로 모델을 개발했는지에 대한 의구심을 드러내고 있어 심사 시 이를 제대로 입증해야 할 것으로 보인다. SK텔레콤은 MoE 구조라고 강조했으나, 각 전문가 모델들이 자체 개발인지, 오픈소스 튜닝인지 밝히지 않아 궁금증을 더했다. 또 모델카드는 공개했으나, 테크니컬 리포트를 공개하지 않았다는 점도 의구심을 더했다. 이승현 포티투마루 부사장은 "MoE 구조를 독자 개발했다면 보통 자랑스럽게 논문을 내는 것이 일반적"이라며 "SKT가 'A.X 3.1(34B)'라는 준수한 프롬 스크래치 모델이 있으나, 이를 15개 정도 복제해 MoE 기술로 묶은 것을 이번에 'A.X K1'으로 내놓은 것이라면 혁신은 아니라고 보여진다"고 평가했다. 이어 "정량적 벤치마크보다 서비스 적용 사례 위주로 발표가 돼 기술적 성취보다 '서비스 운영 효율'에 방점이 찍힌 듯 했다"며 "SKT가 'A.X 3.1' 모델 카드에 프롬 스크래치를 분명히 명시했지만, 이번에는 명시하지 않아 소버린 모델로 활용할 수 있을지에 대해선 아직 판단이 이르다"고 덧붙였다. 이에 대해 SKT는 다소 억울해하는 눈치다. 프롬 스크래치로 개발을 한 사실이 명백한 만큼, 조만간 발표될 테크니컬 리포트를 통해 일각의 우려를 해소시킬 것이란 입장이다. SKT 관계자는 "모델 카드에 밝혔듯 A.X K1은 192개의 소형 전문가(expert)를 가지는 MoE 구조로, A.X 3.1 모델을 단순히 이어 붙여서 만들 수 없는 복잡한 구조인 만큼 처음부터 프롬 스크래치로 학습됐다"며 "관련 세부 내용은 이달 5일 전후 테크니컬 리포트를 통해서 공개할 예정"이라고 밝혔다. 업계 관계자는 "SKT가 500B 모델을 만든다는 것을 사전에 알고 우려가 많았지만, 다른 팀에 비해 성공적으로 압도적으로 큰 모델을 공개했다는 것 자체는 굉장히 인상적"이라며 "내년 상반기까지 정부에서 지원하는 GPU를 쓰지 않기 때문에 SKT가 얼마나 많은 GPU를 투입했는지 알 수는 없지만, 500B를 충분히 학습하기에는 (성능을 끌어 올리기에) 시간이 부족했을 것 같다"고 말했다. 그러면서도 "2T까지 만들겠다는 포부는 높이 평가한다"며 "성공적인 2T 모델이 나오기를 기대한다"고 부연했다. 네이버클라우드는 국내 최초 네이티브 옴니모달 구조를 적용한 파운데이션 모델 '하이퍼클로바 X 시드 8B 옴니'를 오픈소스로 공개하며 자신감을 드러냈다.이곳은 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니 모델'을 제시했다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아닌, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 또 네이버클라우드는 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 고성능 추론모델 '하이퍼클로바 X 시드 32B 씽크'도 오픈소스로 공개했다. 이 모델은 올해 대학수학능력시험(수능) 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 업계에선 네이버클라우드의 발표를 두고 실제 '애니-투-애니(Any-to-Any) 모델'을 작은 사이즈로 공개한 부분에 대해 인상적이라고 평가했다. '애니-투-애니 모델'은 입력과 출력의 모달리티(형식)를 가리지 않고 어떤 조합이든 처리할 수 있는 멀티·옴니모달 모델이다. 또 유일하게 '덴스(Dense) 모델'을 썼다는 점도 주목을 받았다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다. 이로 인해 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수는 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 의견도 있다. 당초 1차 심사 때 14B를 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 점도 아쉬운 점으로 지목됐다. 업계 관계자는 "네이버가 태생부터 멀티모달인 '네이티브 옴니' 아키텍처를 설계했다는 점에서 방향성이 완벽하고 독자모델로도 입증을 했지만, 경량 모델을 공개했다는 점이 아쉽다"며 "거대 모델로 스케일업 했을 때의 추론 능력과 비용 효율성이 아직 검증되지 않았다는 것이 우려된다"고 짚었다. 이어 "옴니모달은 구글, 오픈AI도 지향하는 최신 아키텍처"라며 "네이버가 이를 '패치워크(여러 모델 붙이기)'가 아닌 '네이티브'로 구현했다고 강조했다는 점에서 소버린 모델로는 충분한 가치가 있다"고 덧붙였다. NC AI는 이연수 대표가 직접 발표에 나서 산업 특화 AI를 위한 파운데이션 모델 '베키(VAETKI)'를 소개했다. 또 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고 100B급 LLM 개발도 마쳤다고 공개했다. NC AI에 따르면 현재 베키는 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용돼 실질적인 성과를 창출하고 있다. NC AI는 AI 모델 바로크에 3차원(3D) 생성 기술이 결합된 바로크 3D를 활용해 전 산업군에 최적화된 버티컬 AI 설루션을 제공한다는 계획이다. 이 대표는 "우리는 1차로 100B(1천억 개)급 파운데이션 모델의 틀을 마련했다"며 "2차에서 200B, 3차에서 300B급으로 글로벌 모델급 성능을 달성하려고 한다"고 강조했다. 업계에선 NC AI의 이번 발표를 두고 경쟁력 있는 모델을 다수 보유하고 있는 것에 비해 전달력이 미흡했다고 평가했다. 100B 모델과 함께 서비스에 특화된 7B, 20B, VLM 7B까지 다양한 모델을 준비했으나, 발표 구성이 미흡해 강점이 충분히 전달되지 못했다는 의견도 나왔다. 업계 관계자는 "NC AI의 텍스트로 3D 에셋을 만드는 성능은 확실한 산업적 가치를 보여주지만, 그 이상의 것은 없어 아쉽다"며 "100B 모델을 기반으로 게임에 특화된 AI 활용을 좀 더 많이 보여줬다면 훨씬 좋았을 것 같다"고 말했다. 성과 확인 '끝'…1차 발표회 호평 속 투명한 검증 '과제' 업계에선 이번 1차 발표회의 전반적인 진행에 대해 긍정적인 평가와 함께 정부가 앞으로 조금 더 구체적인 국가대표 AI 육성 평가를 내놓을 필요가 있다고 지적했다. 이번 발표회에서 소버린 AI를 강조하는 곳은 많지만, 그 실체를 증명하는 기준이 조금 느슨해보였다는 평가도 나왔다. 업계 관계자는 "이번 발표회에서 각 팀들이 얼마나, 어떻게 혁신적인 모델을 개발해 공개했는지에 대한 구체적인 설명이 없어 아쉬움이 컸다"며 "단순한 제품 홍보 발표회 느낌을 많이 받았지만, 단기간에 모든 팀이 굉장한 일을 정부 지원을 토대로 해냈다는 것에 대해선 기대감을 가지게 했다"고 밝혔다. 이어 "최소 100B급 이상의 모델을 학습시킬만한 인프라 운용과 더불어 학습 노하우를 갖추고 있어 보여 좋았다"며 "단기간 내 실험 시간의 물리적 제한이 있었음에도 기본적으로 초거대 AI 모델을 학습시킬 기본 역량은 대부분 갖췄다고 보여져 놀라웠다"고 덧붙였다. 그러면서도 "2차 발표에선 오거나이징 하는 측에서 명확한 발표 가이드를 제시해주면 더 좋을 것 같다"며 "김성훈 업스테이지 대표의 말처럼 국민 세금이 많이 투입되고 있기 때문에 짧지만 굉장히 효과적인 발표회가 앞으로도 진행될 수 있길 바란다"고 언급했다. 또 다른 관계자는 "독자 AI 파운데이션 모델의 핵심은 어떤 데이터로, 어떤 아키텍처를 써서 어떤 방식으로 학습했는지가 투명해야 한다"며 "그 결과물은 글로벌 시장에서 통할 수 있는 객관적 수치로 증명돼야 하고, 각 팀들은 기술 리포트와 모델 카드를 의무적으로 공개해야 제대로 프롬 스크래치로 개발했는지 검증할 수 있다"고 강조했다. 그러면서 "프롬 스크래치가 만능은 아니지만 투명성은 필수"라며 "무늬만 국가대표가 아닌 실력 있는 국가대표를 가려내기 위해선 마케팅의 거품을 걷어내고 기술의 족보를 따지는 엄격한 검증 시스템이 필요하다고 본다"고 덧붙였다.

2025.12.31 17:59장유미 기자

'AI 국가대표' 5개 정예팀, 첫 성적표 공개…"초거대·멀티모달 승부수"

정부가 추진 중인 '독자 인공지능(AI) 파운데이션 모델' 프로젝트 1차 성과가 공개되면서 정예팀 AI 전략 윤곽이 드러났다. 각 팀은 초거대·멀티모달·산업 특화 모델을 앞세워 AI 기술 경쟁력을 제시했다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 30일 서울 코엑스 오디토리움에서 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회를 열었다. 이날 네이버클라우드를 비롯한 NC AI, 업스테이지, SK텔레콤, LG AI연구원 등 5개 정예팀이 1차 성과를 공유했다. 행사에는 전문가, 기업 관계자, 시민 등 1천여 명이 참석했다. 정재헌 SK텔레콤 최고경영자(CEO)와 임우형·이홍락 LG AI연구원 공동원장, 김유원 네이버클라우드 대표, 김성훈 업스테이지 대표, 이연수 NC AI 대표 등 주요 기업 관계자들이 참석했다. 정부 측에서는 배경훈 과기정통부 부총리, 하정우 대통령실 AI미래기획수석, 임문영 국가AI전략위원회 상근 부위원장이 자리를 함께했다. 정부는 이번 1차 발표 이후 내년 1월 중 단계 평가를 진행할 예정이다. 정예팀들의 주요 성과와 향후 계획을 종합적으로 점검한 뒤 평가 결과를 공개하고, 이를 토대로 5개 팀 가운데 4개 팀을 최종 선별할 방침이다. 네이버클라우드, '옴니'모델 공개…NC AI, '배키'로 승부수 네이버클라우드는 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니(Omni) 모델'을 제시했다. 기존 텍스트 중심 AI의 한계를 넘어 현실 세계를 보다 입체적으로 이해하는 것이 목표다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아니라, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 앞으로 네이버클라우드는 옴니 모델를 에이전트 AI와 버티컬 서비스 기반 기술로 활용할 계획이다. 이를 통해 소버린 AI 경쟁력을 강화하고 향후 월드 모델과 로보틱스, 자율주행 등 물리 세계 AI로의 확장도 추진할 방침이다. NC AI는 파운데이션 모델 '배키' 중심으로 산업 특화 AI 기술과 사업 성과를 이뤘다고 강조했다. 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고, 100B급 LLM 개발을 마쳤다는 설명이다. 이연수 NC AI 대표는 배키가 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용됐다고 말했다. 그는 "현대오토에버와 손잡고 산업 AX 목표로 기술 적용을 추진했다"며 "제조·운영 데이터 기반의 AI 활용 가능성을 현장에서 검증하고 있다"고 설명했다. NC AI는 다중 전문가 구조(MoU)와 메모리 최적화 기반 MLA 아키텍처를 고도화해 기존 대비 그래픽처리장치(GPU) 사용량을 최대 83%까지 줄이고 연산 처리 시간도 약 15% 단축했다고 밝혔다. 또 데이터 부문에서는 20조 토큰 규모 다국어 사전 학습 데이터와 제조·공공·AI 안전성 등 14종의 전략적 멀티모달 데이터를 구축한 성과도 공유했다. 업스테이지, '솔라'로 한국어 추론 경쟁력 강조 업스테이지는 파운데이션 오픈 모델 '솔라 100B'를 공개하며 고성능과 효율성을 동시에 확보했다고 밝혔다. 솔라 100B는 LLM 성능을 유지하면서도 실제 활용을 염두에 둔 구조로 설계된 것이 특징이다. 전체 파라미터 규모는 1천억 개로 구성됐지만 실제 추론 과정에서는 약 120억 개 수준 파라미터만 활성화되는 구조로 작동한다. 김성훈 업스테이지 대표는 "이 모델은 대형 모델 수준 추론 능력을 유지하면서도 응답 속도와 자원 효율성을 크게 높였다"고 강조했다. 업스테이지는 해당 모델 학습 과정에서도 효율성을 강조했다. 대규모 GPU 환경에서 발생하는 장애를 자동 감지하고 즉시 대체하는 학습 시스템을 구축해 학습 중단 시간을 절반 이상 줄였다. 김 대표는 "우리는 제한된 기간과 자원 속에서도 약 20조 토큰에 달하는 대규모 데이터를 안정적으로 학습할 수 있었다"고 설명했다. 김 대표는 솔라 100B 특장점으로 우수한 한국어 이해와 추론 능력을 꼽았다. 그는 "해당 모델은 단순 암기가 아닌 단계적 추론과 맥락 이해에 초점을 맞춰 설계됐다"며 "한국어 뉘앙스와 복합 질문에서도 자연스러운 응답을 제공할 수 있다"고 말했다. 업스테이지는 솔라 100B가 산업 현장에서 실질적 생산성 향상을 이끄는 기반 모델로 자리 잡을 것으로 기대하고 있다. 김 대표는 "검색·요약·팩트체크·슬라이드 생성·심층 리포트 작성 등 복합 업무를 에이전트 방식으로 처리할 수 있다"며 "오픈 모델로 공개돼 기업과 연구기관이 커스터마이징할 수 있다"고 강조했다. SK텔레콤, '에이닷 엑스 K1' 공개…"국내 첫 5천억 파라미터" SK텔레콤은 AI 모델 '에이닷 엑스 K1(A.X K1)'을 공개했다. 에이닷 엑스 K1은 5천억 개의 파라미터를 보유한 국내 첫 LLM이다. 한국형 소버린 AI 경쟁력 확보를 목표로 개발됐다. SK텔레콤 정석근 AI CIC장은 "해당 모델은 한국어와 국내 산업 환경을 집중적으로 학습해 높은 언어 이해도와 복합 추론 능력을 갖췄다"고 설명했다. 해당 모델은 웹 탐색과 정보 분석, 요약, 이메일 발송 등 여러 단계를 거치는 복합 업무를 자율적으로 수행할 수 있다. 여행 일정 수립, 요금 조회, 예약 처리 같은 일상 업무뿐 아니라, 제조 현장 데이터와 작업 패턴을 학습해 업무 효율을 높이는 데도 활용되고 있다. 에이닷 엑스 K1은 이미 1천만 명 이상이 사용하는 '에이닷' 서비스에 적용됐다. 향후 앱을 비롯한 전화, 문자 등 여러 채널을 통해 제공될 예정이다. 정 CIC장은 "우리는 국민 누구나 일상에서 초거대 AI를 직접 활용할 수 있는 환경을 구축할 계획"이라고 강조했다. 이날 최태원 SK그룹 회장도 에이닷 엑스 K1 경쟁력을 영상을 통해 강조했다. 최 회장은 "우리는 AI를 반도체와 에너지, 배터리 등 핵심 산업에 빠르게 확산해 산업 경쟁력을 강화할 것"이라며 "대한민국 독자 AI 생태계를 주도할 것"이라고 밝혔다. LG AI연구원, 'K-엑사원' 5개월만 출시…"AI 3강 국가 발판" 이날 LG AI연구원도 'K-엑사원' 모델 성능을 처음 소개했다. 이번 모델은 매개변수 2천360억 개 규모의 프런티어급으로 설계됐다. K-엑사원은 전문가 혼합 모델 구조를 통해 성능과 효율성을 동시 확보한 것이 특징이다. 하이브리드 어텐션 기술을 적용해 기존 모델 대비 메모리 요구량과 연산량을 70% 줄였다. 성능 평가 결과 K-엑사원은 벤치마크 13종 평균에서 72.03점을 기록했다. 이는 알리바바클라우드의 '큐웬3 235B' 대비 104% 높은 성능이다. 또 오픈AI의 최신 오픈 웨이트 모델인 'GPT-OSS 120B'와 비교해도 103% 높은 수치다. 이 모델은 고가의 인프라 대신 A100급 그래픽처리장치(GPU) 환경에서도 구동이 가능하다. 이에 자금력 부족한 스타트업이나 중소기업도 프런티어급 AI 모델을 도입할 수 있는 길을 열었다는 설명이다. LG AI연구원 최정규 AI에이전트 그룹장 "우리는 향후 조 단위 파라미터 규모를 가진 글로벌 빅테크 모델과 경쟁할 것"이라며 "대한민국을 AI 3강 국가로 이끄는 게임 체인저 될 것"이라고 강조했다. 정부 관계자 '한자리'…"정예팀 모두 승자" 이날 정부 관계자도 한자리에 모여 독자 AI 파운데이션 모델 프로젝트에 참여한 정예팀을 격려했다. 배경훈 부총리 겸 과기정통부 장관은 축사를 통해 "AI 모델 개발에 매진해 온 정예팀 모두가 승자"라며 "이번 도전이 대한민국을 AI 강국으로 도약시키고, 경제·사회 전반의 AX 전환을 가속하는 결정적 동력이 될 것"이라고 밝혔다. 하정우 대통령실 AI미래기획수석은 "독자 AI 모델 개발을 통한 산업 생태계 조성을 적극 지원하겠다"며 "이번 프로젝트를 통해 국내 AI 기업들의 경쟁력이 글로벌 수준으로 빠르게 향상되고 있음을 확인했다"고 평가했다. 임문영 국가AI전략위원회 상근 부위원장은 "다섯 정예팀 모두가 대한민국 AI 생태계의 소중한 자산"이라며 "이번 1차 발표는 도전의 끝이 아니라 본격적인 출발점"이라고 강조했다.

2025.12.30 18:45김미정 기자

독자 AI 파운데이션 모델 1차 성과 공개…"글로벌 경쟁력 확인

정부가 글로벌 인공지능(AI) 패권 경쟁을 위해 진행 중인 '독자 AI 파운데이션 모델' 프로젝트의 첫 번째 결과물이 공개됐다. 과학기술정보통신부(이하 과기정통부)와 정보통신산업진흥원(NIPA)은 서울 코엑스 오디토리움에서 '독자 AI 파운데이션 모델 프로젝트 1차 발표회'를 개최했다고 30일 밝혔다. 행사에는 네이버클라우드, 업스테이지, SKT, NC AI, LG AI연구원 등 국내 AI 산업을 이끄는 5개 정예팀이 참석해 그동안의 개발 성과를 공유했다. 현장에는 산·학·연 관계자와 일반 시민 등 1천여 명이 몰렸다. 이번 프로젝트는 글로벌 빅테크에 종속되지 않는 독자적인 AI 기술력을 확보하고 'AI 강국'으로 도약하기 위한 범국가적 도전의 일환이다. 배경훈 과기정통부 부총리, 하정우 대통령실 AI미래기획수석, 임문영 국가AI전략위원회 상근 부위원장 등 정부 핵심 인사들이 총출동해 민간의 도전에 힘을 실었다. 배경훈 부총리는 축사를 통해 "AI 모델 개발에 매진해 온 정예팀 모두가 승자"라며 "이번 도전은 대한민국 경제·사회 전반의 AX(AI 대전환)를 완성하는 결정적 동력이 될 것"이라고 강조했다. 발표회에서는 5개 정예팀이 개발한 1차 AI 모델이 공개됐다. 각 팀은 최신 글로벌 모델과 견주어도 손색없는 성능 지표를 제시해 이목을 끌었다. 네이버클라우드, 업스테이지, SKT, NC AI, LG AI연구원은 단순한 모델 개발을 넘어 전 산업 분야에 AI를 접목하는 구체적인 확산 전략도 함께 발표하며, 실질적인 AI 생태계 조성에 대한 의지를 다졌다. 행사장 로비에 마련된 체험 부스 열기도 뜨거웠다. 관람객들은 정예팀들이 개발한 AI 모델을 직접 시연해보고 피드백을 주고받았으며, 함께 전시된 파트너사들의 연계 서비스를 통해 확장된 AI 생태계를 직접 체험했다. 과기정통부는 이번 발표회 내용을 바탕으로 내년 1월 중 1차 단계평가를 진행해 정예팀들의 성과를 점검하고 향후 지원 방향을 구체화할 계획이다. 하정우 AI수석은 "국내 AI 기업들의 경쟁력이 글로벌 수준으로 빠르게 향상되고 있음을 확인했다"며 아시아의 AI 수도로 도약하기 위한 전폭적인 지원을 약속했다.

2025.12.30 17:39남혁우 기자

"美·中 모델 능가"…LG AI연구원, 'K-엑사원' 성능 공개

LG AI연구원이 독자 기술력을 집약한 파운데이션 모델을 공개해 인공지능(AI) 기술력 강화에 나섰다. LG AI연구원은 서울 강남 코엑스에서 열린 과학기술정보통신부 주관 '독자 AI 파운데이션 모델 1차 발표회'서 'K-엑사원' 모델 성능을 처음 소개했다. 이번 모델은 매개변수 2천360억 개 규모의 프런티어급으로 설계됐다. K-엑사원은 전문가 혼합 모델 구조를 통해 성능과 효율성을 동시 확보한 것이 특징이다. 하이브리드 어텐션 기술을 적용해 기존 모델 대비 메모리 요구량과 연산량을 70% 줄였다. 성능 평가 결과 K-엑사원은 벤치마크 13종 평균에서 72.03점을 기록했다. 이는 알리바바클라우드의 '큐웬3 235B' 대비 104% 높은 성능이다. 또 오픈AI의 최신 오픈 웨이트 모델인 'GPT-OSS 120B'와 비교해도 103% 높은 수치다. 이 모델은 고가의 인프라 대신 A100급 그래픽처리장치(GPU) 환경에서도 구동이 가능하다. 이에 자금력 부족한 스타트업이나 중소기업도 프런티어급 AI 모델을 도입할 수 있는 길을 열었다는 설명이다. LG AI연구원은 향후 조 단위 파라미터 규모를 가진 글로벌 빅테크 모델과 경쟁할 계획이다. 이를 통해 대한민국을 AI 3강 국가로 이끄는 게임 체인저가 되겠다는 포부다. 이날 LG AI연구원은 부스를 마련해 K-엑사원 데모를 시연했다. 데모는 문서 분석과 전문 지식 질의, 복합 추론, 코드 작성 등 기업 업무 시나리오 중심으로 구성됐다. LG AI연구원 관계자는 K-엑사원 경쟁력으로 업무 친화적 설계·운영 효율성을 꼽았다. 복잡한 법·정책 분석이나 수치 계산처럼 사람이 처리하기 어려운 질문에도 단계적으로 분석해 결과를 도출할 수 있다는 이유에서다. 관계자는 "모델을 직접 구축·운영할 수 있는 오픈웨이트 구조를 통해 챗GPT나 제미나이와 달리 과금 부담 없이 기업 내부 시스템에 적용 가능하다는 점도 차별화 요소"라며 "모델 크기는 커졌지만 처리 속도는 유지돼 실무 투입 효율성이 높다"고 강조했다.

2025.12.30 16:02김미정 기자

NC AI, 국방·제조 겨냥한 '산업 특화 전략' 공개…피지컬 AI 확장 목표

NC AI가 국방·제조 등 산업 현장에 직접 적용 가능한 산업 특화 인공지능(AI) 전략을 선보였다. 범용 대화형 AI 경쟁을 넘어 피지컬 AI로 확장 가능한 산업 중심 AI 모델을 통해 정부 정책 방향과의 정합성을 전면에 내세웠다. NC AI는 30일 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 서울 코엑스에서 개최한 '독자 AI 파운데이션 모델 프로젝트 1차 대국민 발표회'에서 체험형 전시 부스를 운영하고 국방·제조 산업에 특화된 AI 모델과 응용 서비스를 공개했다. 이번 행사는 독자 AI 파운데이션 모델 개발 사업에 참여 중인 5개 정예팀의 첫 대국민 공개 무대다. NC AI 부스의 중심에는 산업 AI 전환(AX) 전략이 자리했다. NC AI는 자체 100B급 '바르코' 대규모언어모델(LLM)을 기반으로 국방·제조·콘텐츠·패션 등 산업별 특화 서비스를 선보였다. 특히 정부가 차세대 핵심 기술로 강조하고 있는 피지컬 AI와의 연결 가능성을 부각했다. 국방 분야에서는 이미지 기반 전장 분석과 브리핑을 수행하는 국방 에이전트가 시연됐다. 드론 이미지나 전장 사진을 입력하면 객체 식별과 상황 분석, 요약 브리핑을 수행하는 방식으로, 공개 데이터와 검색증강생성(RAG) 구조를 활용해 정확성을 높였다. NC AI 관계자는 "향후 군과의 협업이 본격화될 경우 실제 국방 데이터 환경에서도 활용이 가능하도록 구조를 설계했다"고 밝혔다. 제조 산업 특화 LLM도 주요 전략으로 전시됐다. NC AI는 제조 설비와 디지털 트윈을 연계해 온톨로지 기반 데이터 구조를 생성하고 공정 간 연관관계를 이해하는 AI 모델을 선보였다. 자연어 지시를 프로그래머블 로직 컨트롤러(PLC) 코드 등 기계 제어 로직으로 변환하는 기능도 함께 시연하며 피지컬 AI로의 확장 가능성을 제시했다. 이같은 제조 특화 모델은 지역 산업과의 연계도 염두에 두고 있다. NC AI는 모빌리티·섬유·기계 등 지역별 주력 산업에 맞춰 AI 모델을 세분화해 적용할 수 있도록 설계했으며 단순 분석을 넘어 실제 생산성과 효율을 높이는 방향으로 고도화 중이다. 부스 한편에서는 음성·3D 생성 기술도 함께 전시됐다. '바르코 보이스' 기반 음성 변환 모델과 3D 생성 모델은 LLM과 결합해 콘텐츠 제작, 시뮬레이션, 가상 환경 구축 등 다양한 산업 활용 시나리오를 제시했다. 이는 게임·콘텐츠 기업으로 축적한 NC의 기술 자산을 산업 AI로 확장한 사례로 풀이된다. NC AI는 이번 독자 AI 파운데이션 모델 사업에서 범용 AI 경쟁보다는 산업 현장에 바로 쓰이는 AI를 차별화 포인트로 삼고 있다. 국방과 제조를 중심으로 한 산업 특화 전략을 통해 정부가 추진 중인 소버린 AI와 피지컬 AI 정책 기조에 부합하는 모델을 제시하겠다는 구상이다. NC AI 관계자는 "소버린 AI의 가치는 단순히 성능 경쟁에 있는 것이 아니라, 국방과 제조처럼 우리나라가 강점을 가진 산업을 글로벌 톱 수준으로 끌어올리는 데 있다"며 "산업 특화 AI를 통해 피지컬 AI 시대를 선도하는 것이 우리의 방향"이라고 강조했다.

2025.12.30 14:39한정호 기자

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

구글에 내준 '내비게이션' 지도, 1대 5000 지도와 뭐가 다를까

[단독] 주병기 공정위장 "과자 등 가공식품 가격도 내려야"

AI가 여는 제2의 창세기…테크노 문명이 역사를 재편한다

삼성 HBM4 자신감의 근원 '1c D램'…다음 목표는 수율 개선

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.