• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'파운데이션'통합검색 결과 입니다. (163건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

독파모 1차 탈락 네이버클라우드 "과기정통부 판단 존중…기술 경쟁력 높일 것"

독자 인공지능(AI) 파운데이션 모델(독파모) 프로젝트 1차 단계평가에서 탈락한 네이버클라우드가 정부 판단을 존중한다는 입장을 표명했다. 네이버클라우드 측은 15일 이번 탈락에 대해 "과학기술정보통신부의 판단을 존중하고 앞으로 AI 기술 경쟁력을 높이기 위해 다각적인 노력을 이어갈 것"이라고 밝혔다. 이날 과기정통부는 정부서울청사에서 독파모 프로젝트 1차 단계평가 결과를 발표했다. LG AI연구원과 SK텔레콤, 업스테이지 등 3개 정예팀이 2차 단계에 진출한 반면, 네이버클라우드와 NC AI는 1차 단계에서 탈락했다. 과기정통부는 네이버클라우드가 벤치마크·전문가·사용자 평가를 종합한 점수 기준에서는 상위 4개 팀에 포함됐지만, 독자성 부문 요건을 충족하지 못한 것으로 판단했다. 네이버클라우드 모델에 포함된 외부 인코더 활용 자체가 불가능한 것은 아니지만, 이번 평가에서는 인코더가 가중치를 업데이트할 수 없는 형태로 활용됐다는 점에서 독자 AI 모델로 인정하기 어렵다는 내부 판단이 있었다는 설명이다. 정부는 이번 평가 이후 정예팀이 3개로 줄어든 점을 고려해 1개 정예팀을 추가 선정하는 공모를 추진할 계획이다. 이날 브리핑에서는 이번 1차 평가에서 2차 단계에 진출하지 못한 기업들뿐 아니라, 최초 공모에 참여했던 다른 컨소시엄과 새로운 기업들에게도 기회를 열어두겠다는 방침을 밝혔다. 다만 2차 재도전에 대해 네이버클라우드 관계자는 "아직 검토하고 있진 않다"고 전했다.

2026.01.15 17:41한정호 기자

정부, 'K-AI' 2차 평가 재정비…"프롬 스크래치·오픈소스 기준 손본다"

"우리는 2차 평가에서도 벤치마크와 전문가 심사, 실사용자 평가를 3축으로 삼을 것입니다. 최근 불거진 기술 독자성 논란이 반복되지 않도록 기준도 보완할 것입니다." 류제명 과학기술정보통신부 제2차관은 15일 서울 정부청사에서 열린 독파모 1차 평가 발표에서 2단계 평가 기준을 이같이 밝혔다. 그는 "전문가 평가는 객관적인 성능과 기술 역량 중심으로 이뤄질 것"이라며 "실사용자 평가는 산업 현장에서 실제로 얼마나 유용한지를 보는 구조로 운영될 예정"이라고 밝혔다. 이어 "모델 크기보다 효율과 활용성을 모두 보겠다는 전략"이라고 덧붙였다. 류 차관은 1차 평가에서 논란이 됐던 프롬 스크래치를 비롯한 오픈소스 활용 기준, 배점과 차등 기준을 보완하겠다고 밝혔다. 그는 "학계와 업계, 전문가 의견을 모아 기준을 더 구체화할 것"이라고 강조했다. 이날 과기정통부는 독파모 기존 5개 정예팀 가운데 LG AI연구원과 SK텔레콤, 업스테이지를 2단계에 진출했다고 밝혔다. 종합 점수상 상위 4개 팀에는 LG AI연구원, 네이버클라우드, SK텔레콤, 업스테이지가 포함됐다. 다만 네이버클라우드는 독자성 기준을 충족하지 못해 최종 탈락했다. 정부는 경쟁과 생태계 유지를 위해 1개 정예팀을 추가 공모해 총 4개 팀 체제를 다시 구축할 계획이다. 신규 정예팀에는 그래픽처리장치(GPU)와 데이터, 'K-AI 기업' 명칭이 제공된다. 류 차관은 이번 프로젝트가 모든 기준을 처음부터 완벽하게 정해 놓고 출발한 사업은 아니었다고 밝혔다. 실제 운영 과정에서 기준과 목표를 조정하며 진행해 왔고, 이 과정에서 벤치마크 방식이나 평가 항목, 배점 구조도 참여 기업들과 협의해 하나씩 맞춰 왔다는 설명이다. 류 차관은 "앞으로 평가 불확실성은 최대한 줄이되 글로벌 AI 경쟁 속도가 빠른 만큼 목표와 방식은 환경 변화에 맞춰 유연하게 운영할 수 있도록 설계하겠다"고 설명했다. 그는 "프롬 스크래치와 관련한 기준도 학계, 업계, 전문가 의견을 반영해 차등과 배점 기준을 더 구체화하겠다"며 "앞으로 이런 문제가 다시 생기지 않게 하겠다"고 말했다.

2026.01.15 17:41김미정 기자

"5개팀 모두 승자"…AI 3강 노린 韓, 'K-AI' 선별보다 육성책 마련 절실

'독자 AI 파운데이션 모델(K-AI)' 프로젝트 1차 평가에서 네이버클라우드와 NC AI가 동시 탈락한 가운데 정부가 정책 설계의 방향을 재점검해야 한다는 목소리가 나오고 있다. 이번 사업을 통해 기술력의 우열을 가리는 경쟁보다 이미 성과를 입증한 5개 정예팀 각자의 강점을 살려 육성하는 방안을 마련할 필요가 있다는 지적이 나온다.조준희 한국소프트웨어산업협회(KOSA) 회장은 15일 자신의 소셜미디어(SNS)를 통해 'K-AI' 1차 평가 대상자인 5개 컨소시엄의 역량이 사장되지 않도록 정부가 세심한 후속 대책을 내놔야 한다고 촉구했다. 또 선정이 안된 기업 중 재도전하는 경우와 산업 또는 피지컬 AI용 파운데이션 모델로 전환하기를 원하는 경우에도 그간의 성과를 토대로 연구·개발이 가속화되도록 정부가 새로운 해법을 제시해야 한다고 주장했다. 앞서 과학기술정보통신부는 이날 정부서울청사에서 'K-AI' 1차 단계 평가 결과 LG AI연구원과 SK텔레콤, 업스테이지 등 3개 정예팀이 2차 단계에 진출했다고 발표했다. 기존 정예팀 중 네이버클라우드, NC AI는 고배를 마셨다. 이에 조 회장은 5개 컨소시엄이 '에포치(Epoch) AI'에 '주목할 만한 AI 모델(Notable AI Models)'로 등재되는 성과를 이뤘다는 점을 근거로 정부가 모두 육성해야 한다고 강조했다. '에포치 AI'는 글로벌 AI 연구 흐름을 데이터로 기록하는 비영리 연구기관으로, 글로벌 연구 커뮤니티 관점에서 기술적으로 의미 있는 사례를 선별해 '주목할 만한 AI 모델'로 등재한다.업계에선 LG AI연구원이 대규모 파라미터를 갖춘 범용 파운데이션 모델을 자체 학습해 산업 현장 적용 가능성과 성능을 동시에 입증한 사례로 평가돼 '에포치 AI'의 관찰 대상에 포함된 것으로 봤다. NC AI는 게임 개발에서 축적한 데이터와 시뮬레이션 역량을 기반으로 특정 산업에 최적화된 버티컬 파운데이션 모델을 구현한 점에서 기술적 차별성을 인정받았을 것으로 분석됐다. 업스테이지는 상대적으로 적은 매개변수로 대형 모델에 준하는 성능을 구현하는 고효율 학습 전략을 제시해 연구적으로 의미 있게 다가갔을 것으로 해석됐다. SK텔레콤은 수천억개 매개변수 규모의 초거대 모델 학습에 도전하며 대규모 인프라 기반 범용 파운데이션 모델 개발 사례를 만들었다는 점에서 주목됐을 것으로 평가됐다. 네이버클라우드는 텍스트·이미지·음성을 통합 처리하는 옴니모달 모델을 국가 단위 서비스 확장 전략과 결합한 시도가 긍정적인 영향을 줬을 것으로 봤다. 조 회장은 "혼신의 힘을 다해 노력해준 5개 컨소시엄에게 머리 숙여 감사드린다"며 "애석하게 3개 컨소시엄에 선정 안 된 다른 컨소시엄에게도 위로와 지난 도전의 여정에 대한 열정, 노력이 높이 평가돼야 한다고 생각한다"고 치켜세웠다. 이어 "사실상 모두가 승자로, 도전에는 마침표가 없어야 한다"며 "AI 3강을 향해 좌절할 시간이 없고, 우리는 한 팀이라는 생각으로 스스로의 저력을 믿어야 한다"고 강조했다. 업계에서도 5개 팀의 다양성 자체가 경쟁력이 있는 만큼 국내 AI 생태계 활성화 차원에서 정부가 육성책을 내놓을 필요가 있다고 지적했다. 각 팀 모두 짧은 기간 안에 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점 자체가 의미 있는 성과였단 점에서 기술을 사장시켜선 안된다고 봤다. 또 일각에선 정부가 2개 사업자만을 최종 선별해 집중 지원하는 방식이 유지될 경우 탈락 기업에 과도한 낙인이 찍히고 업계 전반이 방어적·공격적으로 변할 수밖에 없다는 점을 우려했다. 업계 관계자는 "단일 정답을 전제로 한 경쟁보다 이들의 다양성을 어떻게 국가 AI 자산으로 확장할지가 'K-AI' 프로젝트의 다음 과제가 될 것"이라며 "정부가 제시한 목표인 'AI 3강 도약'은 단기간에 2개 기업을 골라내는 방식만으로 달성하기 어렵다"고 말했다.이승현 포티투마루 부사장은 "정부 사업에서 탈락하면 해당 팀이 마치 '사망선고'를 받은 것처럼 인식되는 구조는 바람직하지 않다"며 "선별보다 육성 중심의 정책 전환이 필요하다"고 강조했다.

2026.01.15 17:20장유미 기자

LG AI연구원 컨소 한컴, 독파모 1차 통과에 "실사용·생태계 발전 기여할 것"

독자 인공지능(AI) 파운데이션 모델(독파모) 프로젝트 1차 단계평가를 통과한 LG AI연구원 컨소시엄 참여 기업인 한글과컴퓨터(한컴)가 독자 AI 모델의 실질적 활용 확대에 기여하겠다는 입장을 밝혔다. 한컴은 15일 이번 1차 단계평가 통과에 대해 "AI 모델 성능은 물론 기술적 독자성과 실제 서비스 적용을 통한 생태계 확산 가능성이 종합적으로 검증됐다는 점에서 의미가 크다"며 "LG AI연구원 컨소시엄 일원으로서 이번 평가 결과를 뜻깊게 생각한다"고 소감을 전했다. 한컴은 그동안 '한컴어시스턴트'와 '한컴피디아' 등 자사 AI 제품에 독자 AI 모델을 실제 적용·운영해 온 경험을 바탕으로 AI 모델의 실사용 가능성과 확장성을 검증하는 데 기여해 왔다고 설명했다. 이같은 실제 적용 사례가 LG AI연구원 컨소시엄 경쟁력과 AI 생태계 확산 가능성을 보여주는 요소로 작용했다는 평가다. 한컴은 "앞으로도 LG AI연구원 컨소시엄과 함께 AI 기반 문서 지식 서비스 전반에 독자 AI 모델의 적용을 확대할 것"이라며 "국내 AI 기술의 실질적 활용과 AI 생태계 발전에 기여해 나가겠다"고 강조했다.

2026.01.15 16:33한정호 기자

LG AI연구원, 'K-엑사원'으로 국가대표 AI 입증…구광모 'ABC 전략' 빛났다

LG AI연구원이 개발한 'K-엑사원(K-EXAONE)'이 정부가 주관하는 독자 인공지능(AI) 파운데이션 모델(이하 독파모) 프로젝트 1차 1위를 차지하며 국가대표 AI 모델로서의 입지를 굳혔다. 구광모 LG그룹 회장 미래 성장 동력으로 낙점하고 강력하게 추진해 온 'ABC전략'이 구체적인 결실을 맺은 것이란 평가다. 15일 과학기술정보통신부가 발표한 '독자 AI 파운데이션 모델 프로젝트' 1차 단계 평가 결과에 따르면 LG AI연구원의 K-엑사원이 가장 우수한 성적을 거두며 2차 단계 진출을 확정 지었다. 이번 평가에서 K-엑사원은 객관적인 성능 지표를 측정하는 '벤치마크 평가', 기술의 완성도를 검증하는 '전문가 평가', 그리고 실제 효용성을 판단하는 '사용자 평가' 등 모든 부문에서 최고점을 기록했다. 경쟁사들을 압도하는 기술력을 입증하며 명실상부한 국내 최고의 AI 파운데이션 모델임을 증명한 셈이다. LG 측은 이번 성과가 지난 2020년 구광모 대표의 주도로 설립된 LG AI연구원이 지난 5년간 묵묵히 쌓아온 기술력이 빛을 발한 결과라고 설명했다. 구 대표는 평소 AI를 미래 사업의 핵심 축으로 강조하며 전폭적인 지원을 아끼지 않았다. 특히 새해 신년사를 통해 "새로운 미래가 열리는 변곡점에서는 지금까지의 성공 방식을 넘어 새로운 혁신으로 도약해야 한다"며 '선택과 집중'을 강조한 바 있는데, 이번 성과는 LG의 AI 분야에 대한 집중적인 투자가 헛되지 않았음을 증명하는 사례다. LG 컨소시엄이 프로젝트 착수 단 5개월 만에 완성도 높은 모델을 선보일 수 있었던 배경에는 LG AI연구원이 축적해 온 독자적인 AI 파운데이션 모델 개발 노하우가 결정적인 역할을 했다는 후문이다. 임우형 LG AI연구원 공동 연구원장은 "엑사원에서 시작된 혁신은 이제 개별 기업의 성과를 넘어, 대한민국 산업 전반의 AI 생태계를 주도하는 핵심 엔진이 될 것"이라며, "K-엑사원이 지닌 독보적인 기술력을 바탕으로 글로벌 시장 내 기술 주도권을 확보하고, 대한민국이 AI 강국으로 도약할 수 있도록 최선을 다하겠다"고 소감을 밝혔다. 이어 "이번 결과는 K-엑사원이 글로벌 선도국과 어깨를 나란히 하며, 대한민국의 'AI 3대 강국' 도약을 보여주는 결정적 지표"라면서 "단순히 글로벌 수준의 모델을 확보하는 것에 그치지 않고 산업 현장으로의 적용 확산과 핵심 인재 육성 등 전방위적인 AI 생태계 구축을 선도해 나갈 것"이라고 포부를 덧붙였다. LG AI연구원은 이번 1차 평가 1위를 발판 삼아 AI 기술 역량을 한층 더 끌어올릴 계획이다. 현재의 성과에 안주하지 않고 남들이 불가능하다고 여기는 수준까지 기술을 고도화하여 글로벌 시장의 '게임 체인저'가 되겠다는 목표다. 임 연구원장은 "이번 1차수 모델은 프런티어급 AI로 도약하기 위한 견고한 기반을 다지는 시작점"이라며 "이제 본격적인 성능 고도화 단계를 거쳐 글로벌 경쟁력을 확보한 완성형 K-엑사원을 구현해 나갈 것"이라고 강조했다. 또한 "엑사원을 시작으로 멈추지 않고 달려온 여정 속에서, 이번 결과는 더 큰 도약을 향한 중요한 변곡점"이라며 "K-엑사원을 더욱 고도화하여 글로벌 생태계로 진화하는 국가대표 AI 모델로 자리매김하겠다"고 밝혔다. 한 업계 관계자는 "구광모 대표의 뚝심 있는 AI 투자와 LG AI연구원의 기술력이 시너지를 내면서 가시적인 성과가 나타나고 있다"며 "K-엑사원이 대한민국을 넘어 글로벌 AI 시장에서 어떤 활약을 펼칠지 귀추가 주목된다"고 말했다.

2026.01.15 16:32남혁우 기자

독파모 1차 통과 업스테이지 "글로벌 경쟁력 갖춘 모델 고도화"

독자 인공지능(AI) 파운데이션 모델(독파모) 프로젝트 1차 단계평가를 통과하며 기술 경쟁력과 실행력을 인정받은 업스테이지가 2차 단계에서 글로벌 수준의 모델 고도화에 집중하겠다는 입장을 밝혔다. 업스테이지는 15일 과학기술정보통신부가 발표한 독파모 프로젝트 1차 단계평가 결과에서 LG AI연구원, SK텔레콤과 함께 2차 단계에 진출한 3개 정예팀에 이름을 올렸다. 5개 정예팀 가운데 스타트업으로는 유일하게 2차 단계에 진출했다. 과기정통부에 따르면 업스테이지는 이번 평가에서 글로벌 개별 벤치마크 부문에서 높은 점수를 받았다. 특히 글로벌 최상위(SOTA) 모델과 비교하는 개별 벤치마크 평가에서 만점을 기록하며 비교적 적은 매개변수로도 대규모 모델 수준의 성능을 구현한 점이 경쟁력으로 평가됐다. 이번 1차 단계평가는 벤치마크 평가, 전문가 평가, 사용자 평가를 종합해 진행됐다. 업스테이지는 모델 성능뿐 아니라 실제 현장 활용 가능성과 비용 효율성 측면에서도 일정 수준 평가를 받은 것으로 알려졌다. 자체 개발한 언어모델 '솔라'를 기반으로 한 문서 이해·추론 등 실무 중심 기술이 강점으로 작용했다는 평가다. 업스테이지는 이번 프로젝트를 위해 민간·학계·연구기관이 참여하는 산학연 컨소시엄을 구성해왔다. 노타AI·래블업·플리토·오케스트로 등 기술 기업과 함께 카이스트, 서강대학교 교수진이 연구 협력에 참여하고 있으며 의료·제조·법률·공공·교육 등 다양한 산업 분야 기업들과도 협력 체계를 구축했다. 2차 단계에서는 컨소시엄을 더욱 확대해 연구 역량과 산업 적용 범위를 넓힐 계획이다. 업스테이지는 스탠퍼드대학교와 뉴욕대학교 연구진의 합류를 통해 핵심 모델 기술을 고도화하고 글로벌 시장을 겨냥한 프런티어급 모델을 완성한다는 목표다. 업스테이지는 독자적으로 설계·학습한 파운데이션 모델을 기반으로 한국어를 비롯한 다국어 추론 성능을 강화하고 공공·기업 현장에서 체감할 수 있는 AI 전환(AX) 사례를 확대한다는 전략이다. 이를 통해 기술 경쟁력과 실사용 성과를 동시에 입증하겠다는 구상이다. 김성훈 업스테이지 대표는 페이스북을 통해 "많은 분들의 응원으로 우리 컨소시엄의 솔라LLM은 계속 달려갈 것"이라며 "2차 단계부터는 스탠퍼드와 뉴욕대 연구진들이 합류해 글로벌에서 우뚝서는 모델을 만들어 갈 것"이라고 밝혔다.

2026.01.15 16:02한정호 기자

[유미's 픽] "특혜는 없었다"…독자 AI 1차 평가 결과에 정부 '호평' 받은 까닭

과학기술정보통신부가 '독자 AI 파운데이션 모델(K-AI)' 프로젝트 1차 평가에서 성능과 브랜드를 가리지 않고 엄격한 잣대를 적용하면서 정부 AI 정책의 기준선이 분명해진 모습이다. 이번 일을 두고 '특혜 시비' 없이 공정하게 이뤄졌다는 분석과 함께 독자 AI를 둘러싼 정책 신뢰도가 한층 높아진 것으로 평가된다. 과학기술정보통신부는 15일 정부서울청사에서 LG AI연구원·SK텔레콤·업스테이지 등 3개 정예팀이 'K-AI' 2차 단계에 진출했다고 발표했다. 기존 정예팀 가운데 네이버클라우드와 NC AI는 1차 단계에서 탈락했다.이번 1차 평가는 단순한 기술 성능 경쟁이 아니라 정부가 정의한 '독자 AI 파운데이션 모델'의 요건을 실제 평가에 어떻게 반영하는지를 가늠하는 과정으로 평가됐다. 앞서 과기정통부는 이 사업의 목적을 'AI 3강' 도약과 함께 글로벌 AI 모델 의존으로 인한 기술·경제·안보적 종속 해소로 설정한 바 있다. 또 해외 모델을 미세조정한 파생형(파인튜닝)이 아닌 모델 설계부터 사전학습 전 과정을 수행한 국산 모델만을 독자 AI로 인정한다는 기준을 공모 단계부터 명확히 해왔다. 이에 따라 1차 평가는 벤치마크, 전문가, 사용자 평가를 종합해 진행됐다. 이 과정에서 LG AI연구원이 전 부문에서 가장 높은 점수를 기록했고 네이버클라우드, SK텔레콤, 업스테이지가 상위권에 이름을 올렸다. 다만 네이버클라우드는 성능과 별개로 독자성 기준을 충족하지 못했다는 정책적 판단에 따라 2차 단계 진출에서 제외됐다. 반면 NC AI는 독자성 문제는 제기되지 않았지만, 종합 점수 경쟁에서 상위권에 들지 못해 이번 단계에서는 탈락했다. 업계에서는 이번 1차 평가를 결과보다 과정 중심으로 해석하는 분위기다. 단순히 탈락 여부를 가르는 선발전이라기보다 정부가 독자 AI를 어떤 기준과 관점에서 바라보고 있는지를 현장에서 확인하는 계기였다고 평가했다. 특히 성과 자체보다 제한된 조건 속에서 각 팀이 주어진 기회를 어떻게 활용했는지가 중요하게 다뤄졌다는 분석이 나온다. 업계 관계자는 "여러 컨소시엄 가운데 5개 정예팀으로 선발돼 도전 기회를 얻었다는 것 자체가 이미 역량을 인정받았다는 의미"라며 "제한된 시간과 자원 속에서 정예팀 모두가 상당한 노력을 기울였다고 본다"고 말했다. 이어 "평가 과정에서 정부는 K-AI 정예팀들이 주어진 기회를 얼마나 충실히 살렸는지를 중점적으로 검토했을 것”이라고 덧붙였다. 이번 평가를 계기로 독자 AI에 대한 기준이 한층 정교해질 가능성도 제기된다. 단순한 성능 순위나 '프롬 스크래치' 여부를 넘어 가중치 주권을 전제로 한 모델 설계 역량과 비용 효율성, 실제 현장에서의 활용 가능성까지 함께 평가하는 방향으로 심사 기준이 진화할 수 있다는 분석이다. 정부 역시 2차 심사에서 독창성과 기술적 기여도를 평가 항목에 포함하겠다고 밝히면서 향후 독자 AI 경쟁이 데이터·자본 경쟁을 넘어 '누가 더 깊이 모델을 설계했는가'를 가리는 국면으로 접어들 것이란 전망이 나온다. 다만 이 같은 기준 정교화를 위해서는 개념과 용어에 대한 선행 정리가 필요하다는 지적도 제기된다. 임정환 모티프테크놀로지스 대표는 "현재 독자 개발과 프롬 스크래치에 대한 개념이 혼재된 상황"이라며 "정부 차원에서 기술적 기여도에 따른 명확한 정의와 가이드라인 마련이 시급하다"고 강조했다. 2차 평가가 더욱 엄격해질 수 있다는 전망 속에 선발된 정예팀의 부담감도 더 커진 분위기다. 업계에선 1차가 '자격과 원칙'을 검증하는 단계였다면, 2차는 실제 성과를 증명해야 하는 '퍼포먼스 경쟁'이 될 가능성이 크다고 보고 있다. '퍼포먼스'에 대한 개념에 대해선 단순한 벤치마크 점수 경쟁과는 다르게 봐야한다는 것이 중론이다. 이승현 포티투마루 부사장은 "독자 AI 2차 심사에서 퍼포먼스는 단순히 점수로 줄 세울 문제가 아니다"며 "가중치를 처음부터 자체 학습했는지, 데이터와 학습 과정에 대한 통제권을 갖고 있는지, 같은 조건에서 성능을 안정적으로 재현할 수 있는지가 먼저 봐야 할 기준"이라고 말했다. 이어 "이 전제가 빠진 성능 비교는 기술 평가라기보다 보여주기에 가깝다"고 덧붙였다. 과기정통부는 1차 평가 이후 추가 공모를 통해 정예팀 1곳을 더 선정해 올해 상반기에는 총 4개 정예팀 경쟁 체제를 구축할 계획이다. 최종 2개팀 선정은 오는 12월이 목표다. 업계 관계자는 "이번 독파모 1차 경쟁은 우리나라가 AI 강국으로 도약하기 위해 겪는 성장통으로 볼 수 있다"며 "여러 이해관계와 논란 속에서도 정부의 많은 고민의 흔적이 보이는 발표였다는 점에서 의미가 크다"고 말했다. 과기정통부는 "이번 프로젝트는 대한민국이 글로벌 AI 경쟁에서 독자적 기술로 당당히 맞서기 위한 역사적 도전"이라며 "독자 AI 파운데이션 모델을 반드시 확보해 지속 가능하고 건강한 AI 생태계를 구축하고, 글로벌 AI 기술 경쟁의 선두에 설 수 있도록 가용한 모든 국가 역량을 집중하겠다"고 밝혔다.

2026.01.15 16:02장유미 기자

SKT 정예팀 "AI모델 멀티모달 추가, 조 단위 파라미터로 확장"

독자 AI 파운데이션 모델 프로젝트 1단계 평가를 통과, 2차 단계에 진출한 SK텔레콤 정예팀이 향후 멀티모달을 추가하고 조단위 프라미터 규모로 확장하는 방안을 목표로 세웠다. 15일 SK텔레콤에 따르면 국내 첫 500B급 AI 모델을 선보인 정예팀은 2단계 평가에서 멀티모달을 추가해 추가 학습을 진행하고 1000B급 규모의 LLM을 선보인다는 계획이다. 정예팀 내부적으로 1차 평가 통과는 컨소시엄에 참여한 이들이 갖춘 풀스택 서비스를 이유로 꼽았다. 이를테면 반도체 분야의 리벨리온, 게임 분야 크래프톤, 모빌리티 분야에서 포티투닷, 서비스 분야에서 라이너, 데이터 분야의 셀렉트스타 등이 갖춘 각기 역량이 더해진 결과라는 설명이다. 아울러 서울대와 KAIST 연구진의 선행연구 성과를 모델 개발에 활용한 점도 이점으로 들었다. SK텔레콤은 1천만 이용자를 거느린 AI 서비스 에이닷을 통한 B2C 접점과 SK하이닉스, SK이노베이션, SK AX 등 그룹사 협업을 통한 B2B 산업 적용으로 AI 전환을 이끈다는 계획이다. 아파치 2.0 라이선스로 개방한 AI 모델은 학생과 기관, 기업 등 다양한 이들이 자유롭게 활용할 수 있어 AI 확산에 용이한 점도 장점으로 제시했다. SK텔레콤 정예팀은 “앞으로도 AI 생태계 발전을 위해 노력하고 AI 글로벌 3강으로 가기 위한 역할을 다할 것”이라고 밝혔다.

2026.01.15 15:20박수형 기자

'독파모' 1차서 네이버·NC AI 동반 탈락…정부, 정예팀 1곳 추가 공모

독자 인공지능(AI) 파운데이션 모델(이하 독파모) 프로젝트 1차 단계평가에서 네이버클라우드와 NC AI가 최종 탈락했다. 당초 5개 정예팀 가운데 1개 팀만 탈락할 것으로 예상됐지만, 평가 과정에서 독자성 기준과 종합 점수 경쟁이 동시에 작동하면서 2개 팀이 2차 단계 진출에 실패하게 됐다. 과학기술정보통신부는 15일 정부서울청사에서 독파모 1차 단계평가 결과를 발표했다. 이번 평가 결과, LG AI연구원·SK텔레콤·업스테이지 등 3개 정예팀이 2차 단계에 진출했으며 기존 정예팀 가운데 네이버클라우드와 NC AI는 1차 단계에서 탈락했다. 독자 AI 파운데이션 모델 프로젝트는 당초 5개 정예팀을 선정한 뒤 1차 단계평가를 거쳐 4개 팀을 2차 단계로 압축하는 구조로 설계됐다. 그러나 이번 평가에 정책적 기준과 상대평가 결과가 함께 반영되면서 결과적으로 2개 팀이 탈락하고 3개 팀만 2차 단계에 진출하게 됐다. 과기정통는 네이버클라우드 경우 벤치마크·전문가·사용자 평가를 종합한 점수 기준에서는 상위 4개 팀에 포함됐으나, 독자 AI 파운데이션 모델 요건을 충족하지 못한 것으로 판단했다. 과기정통부는 "이번 사업에서 해외 AI 모델을 단순 파인튜닝한 파생형 모델은 독자 AI 파운데이션 모델로 인정하지 않는다는 기준을 적용해 왔다"며 "네이버클라우드 모델은 독자성 측면에서 한계가 있다는 전문가 의견이 제기됐다"고 설명했다. 반면 NC AI는 독자성 기준과 관련한 별도의 결격 사유는 제시되지 않았지만, 1차 단계평가에서 다른 정예팀과의 종합 점수 경쟁에서 밀리며 2차 단계 진출에 실패한 것으로 풀이된다. 이번 평가는 AI 모델 성능을 중심으로 한 벤치마크 평가와 전문가 평가, 실제 활용 가능성을 살핀 사용자 평가를 합산해 진행됐으며 이 과정에서 NC AI가 다른 정예팀 대비 상대적으로 낮은 점수를 받은 것으로 해석된다. 평가 구조상 네이버클라우드와 NC AI 두 기업이 동시에 1차 단계에서 탈락하는 결과로 이어지는 등 당초 예상보다 탈락 팀 수가 늘어나면서 프로젝트 경쟁 구도에도 변화가 생기게 됐다. 과기정통부는 이번 1차 평가 이후 정예팀이 3개로 줄어든 점을 고려해 향후 1개 정예팀을 추가로 선정하는 공모를 추진할 계획이다. 추가 공모에는 이번 1차 단계에서 탈락한 네이버클라우드와 NC AI 컨소시엄도 참여할 수 있도록 문을 열어두겠다는 방침이다. 다시 한 번 경쟁 기회가 주어진 만큼 향후 두 기업이 어떤 전략으로 재도전에 나설지 주목된다. 배경훈 부총리 겸 과기정통부 장관은 이날 결과 발표에 앞서 "승자와 패자를 구분하고 싶지 않고 결과에 대해 깨끗하게 승복하고 다시 도전하는 모습을 기대한다"며 "정부에서도 새로운 해법을 추가적으로 제시할 것"이라고 SNS를 통해 밝혔다.

2026.01.15 15:13한정호 기자

LG AI연구원·SK텔레콤·업스테이지, 'K-AI' 1차 평가 통과

정부가 '독자 인공지능(AI) 파운데이션 모델' 1차 평가 결과를 공개했다. 과학기술정보통신부는 독파모 기존 5개 정예팀 가운데 LG AI연구원과 SK텔레콤, 업스테이지를 2단계에 진출했다고 15일 밝혔다. 이번 평가는 벤치마크를 비롯한 전문가, 사용자 평가를 합산해 모델 성능과 비용 효율성, 실제 활용 가능성, 생태계 파급력을 종합 검증한 결과다. 세 지표에서 모두 최고점을 받은 LG AI연구원이 전체 1위를 기록했다. 벤치마크 평가 부문에서 LG AI연구원은 40점 만점 중 33.6점을 받아 평균을 상회했다. 전문가 평가에서도 35점 만점 중 31.6점, 사용자 평가에서는 25점 만점을 획득해 모든 영역에서 선두를 유지했다. 종합 점수상 상위 4개 팀에는 LG AI연구원, 네이버클라우드, SK텔레콤, 업스테이지가 포함됐다. 다만 네이버클라우드는 독자성 기준을 충족하지 못해 최종 탈락했다. 이에 따라 2차 단계는 LG AI연구원과 SK텔레콤, 업스테이지 3개 팀 체제로 진행된다. 과기정통부는 "독자 AI 파운데이션 모델은 해외 모델 미세조정이 아닌 아키텍처 설계와 데이터 구축, 가중치 초기화 후 학습까지 전 과정을 자체 수행한 국산 모델"이라고 정의했다. 이어 "네이버클라우드 모델은 가중치 기반 독자성 요건을 충족하지 못한 것으로 판단했다"며 탈락 이유를 밝혔다. 정부는 경쟁과 생태계 유지를 위해 1개 정예팀을 추가 공모해 총 4개 팀 체제를 다시 구축할 계획이다. 신규 정예팀에는 그래픽처리장치(GPU)와 데이터, 'K-AI 기업' 명칭이 제공된다. 과기정통부는 "이번 프로젝트는 대한민국이 글로벌 AI 경쟁에서 독자 기술로 당당히 맞서기 위한 역사적 도전"이라며 "K-AI 모델을 반드시 확보해 지속 가능하고 건강한 AI 생태계를 구축할 것"이라고 밝혔다.

2026.01.15 15:00김미정 기자

배경훈 "독파모 평가, 기술·정책·윤리 측면서 상세히 공개"

배경훈 부총리 겸 과학기술정보통시부 장관이 15일 독자 인공지능(AI) 파운데이션 모델 평가 결과를 두고 “기술적, 정책적, 윤리적 측면에서 상세히 공개될 것”이라고 밝혔다. 배 부총리는 이날 자신의 페이스북에 “정부는 흔들림 없이 독파모를 지원하고 기준을 세우고 평가했다”며 “무엇보다 국민 모두가 공감할 수 있는 기준으로 평가가 진행됐다”면서 이같이 말했다. 독파모 프로젝트를 시작하면서 질적인 성장이 이뤄졌다는 점도 강조했다. 배 부총리는 “독파모의 목표는 세계 최고 수준이어야 하고 대한민국의 자긍심이 되어야 한다”면서 “5개 컨소시엄 기업 모두 에포크AI '주목할만한 AI모델' 로 등재되는 성과도 거뒀다”고 했다. 이어, “불과 재작년만해도 1개의 모델만이 등재됐고 그전에는 아예 없었다”면서 “그만큼 우리 기업들이 많은 성장을 했다”고 덧붙였다. 독파모에서 탈락한 기업에도 지속해 기회를 부여한다는 뜻도 밝혔다. 배 부총리는 “AI 자원에 한계가 있기 때문에 자원을 집중하여 세계 최고에 도전하기 위해 지금의 평가 방식을 취하고 있지만, 탈락 기업에게도 지속적인 지원과 기회를 제공할 것”이라며 “승자와 패자를 구분하고 싶진 않다. 결과에 대해서도 깨끗하게 승복하고 다시 도전하는 모습을 기대한다”고 끝맺었다.

2026.01.15 09:42박수형 기자

[유미's 픽] '독자 AI' 논쟁, 韓서 유독 격화된 이유는

정부 주도의 독자 인공지능(AI) 파운데이션 모델 사업을 둘러싼 논란이 기업 간 경쟁을 넘어 정책·기술 논쟁으로 확산되고 있다. 해외 모델과의 유사성, '프롬 스크래치' 정의, 외부 가중치 사용 여부를 두고 해석이 엇갈리면서 논쟁의 강도도 커지는 양상이다. 나아가 업체 간 '진흙탕 싸움'으로도 번지자 이번 사업에서 국내 독자 AI 정책 설계 방식과 기준 설정이 미흡했기 때문이란 지적이 나온다. 14일 업계에 따르면 이번 논란이 확산된 것은 '독자 AI'라는 정책 목표가 기술적 정의보다 먼저 제시됐기 때문이다. 일단 정부는 지난 해 공모 단계에서 해외 AI 모델을 단순 미세조정(fine-tuning)한 파생형 모델을 독자 AI로 인정하지 않겠다는 원칙을 밝혔다. 그러나 '프롬 스크래치'와 '독자성'을 어디까지로 해석할 것인지에 대해서는 구체적인 기준을 제시하지 않았다. AI 연구 현장에서 통용되는 '프롬 스크래치'는 일반적으로 기존 모델의 가중치를 사용하지 않고 랜덤 초기화 상태에서 학습했는지를 의미한다. 반면 정책 논의 과정에서는 이 개념이 모델 구조, 아키텍처 차용, 모듈 활용 여부까지 포함하는 방식으로 확장되면서 기술적 정의와 정책적 해석 간의 차이가 드러났다는 평가가 나온다. 업계에선 이 간극이 이후 논쟁을 키운 근본 배경이라고 보고 있다. 평가 기준이 개발 전이 아닌 5개 팀 선발 결과 공개 이후에 본격적으로 논의됐다는 점도 논란을 키운 요인으로 꼽힌다. 짧은 개발 기간과 제한된 자원으로 글로벌 수준의 성능을 요구받은 상황 속에 다수 참여 기업이 오픈소스 생태계와 기존 연구 성과를 일정 부분 활용할 수밖에 없었다는 것도 문제다. 이를 활용했을 때 어느 수준까지 허용되는지에 대한 사전 합의가 충분히 공유되지 않은 탓이다. 이에 각 기업의 기술 선택은 현재 독자성 논쟁의 대상이 됐다. 업계 관계자는 "사전 가이드라인이 명확하지 않은 상태에서 사후 검증이 강화되다 보니 기술적 판단이 정책적·정치적 논쟁의 중심에 놓이게 됐다"며 "기술 선택의 맥락보다는 결과를 기준으로 한 평가가 이뤄지면서 논쟁이 과열됐다"고 진단했다. 이번 사업이 단순한 연구개발(R&D) 지원을 넘어 '국가대표 AI'를 선발하는 성격을 띠고 있다는 점도 논쟁을 증폭시킨 요인으로 분석된다. 기업 간 경쟁이 국가 기술 자립의 상징으로 해석되면서 기술적 차이보다 독자성의 순수성을 둘러싼 평가가 부각됐다는 점에서다. 글로벌 AI 연구 환경에서는 오픈소스와 기존 연구 성과를 활용하는 것이 일반적이지만, 국내에서는 안보와 기술 주권 담론이 결합되며 기술 선택 하나하나가 상징적 의미를 띠게 됐다는 지적도 나온다. 업계 관계자는 "이번 논쟁의 본질은 특정 기업의 기술 선택 문제가 아니라 기술 기준과 정책 기준이 혼재된 구조적 문제"라며 "AI 연구 관점에서는 구조 차용과 독자 학습을 구분해 평가하는 반면, 정책 관점에서는 외부 의존성과 통제 가능성이 더 중요한 판단 기준이 된다"고 말했다. 그러면서 "이번 독자 AI 사업에서는 이 두 기준이 동일한 언어로 정리되지 않은 상태에서 추진되면서 혼선이 커졌다"고 분석했다. 이로 인해 기술적으로는 합리적인 선택이 정책적으로는 부적절해 보일 수 있게 됐다. 반대로 정책적 메시지가 강한 선택이 기술적 완성도와는 별개로 평가되는 상황도 만들어졌다. 업계에선 이번 논쟁이 '유사성' 여부를 따지는 문제를 넘어 무엇을 기준으로 독자성을 판단할 것인지에 대한 논의로 이어지고 있다고 보고 있다. 일각에선 이번 1차 평가를 계기로 독자 AI의 기준을 보다 정교화할 필요가 있다는 의견을 내놨다. 단순한 성능 지표나 선언적 독자성보다 가중치 통제권, 설계 역량, 비용 효율성, 장기적 운용 가능성 등을 종합적으로 평가하는 체계가 필요하다는 지적이다. 업계 관계자는 "이번 논쟁이 한국 AI 산업에 반드시 부정적인 신호만은 아니라고 본다"며 "독자 AI의 정의와 정책 목표를 다시 정립하는 계기로 삼을 필요가 있다"고 밝혔다.이어 "앞으로 기술 논쟁을 도덕적 공방으로 몰고 가기보다 정책 목적과 기술 현실을 구분해 설명할 수 있는 기준을 우선 마련하는 것이 필요해보인다"며 "이번 독자 AI 논쟁은 개별 기업의 성패를 넘어 한국이 어떤 방식으로 AI 주권을 확보할 것인지에 대한 정책적 시험대가 될 것"이라고 덧붙였다.

2026.01.14 16:54장유미 기자

오픈소스 활용한 딥시크, 어떻게 독자모델 인정받았나

현재 정부가 추진 중인 '독자적 파운데이션 모델(이하 독파모)' 선정 과정에서 오픈소스를 활용한 기업 독자 모델 인정여부를 두고 잡음이 일고 있다. 사용한 오픈소스가 더이상 지원하지 않거나 라이선스를 변경할 경우 독자 모델로서 존립하기 어렵다는 지적 때문이다. 하지만 지난해 초 중국 인공지능(AI) 스타트업 '딥시크(DeepSeek)'가 내놓은 AI 모델 R1과 비교하면 상황이 묘하다. 적은 비용으로 미국 빅테크들과 견줄 수 있는 성능을 낸 AI는 오픈소스 모듈을 적극적으로 차용해 개발됐지만 자체 AI모델로 인정받고 있다. 똑같이 외부 기술을 빌려 썼는데 딥시크는 독자 기술로 주목받고 국내 기업은 무늬만 독자라는 비판을 받고 있는 셈이다. 이에 대해 업계 전문가들은 양측의 가장 큰 차이로 기업이 가진 철학과 이를 구현하는 차별화를 꼽았다. 딥시크부터 구글까지...오픈소스 활용하는 글로벌 AI 딥시크의 기술 보고서에 따르면 R1을 비롯한 모델 라인업 개발 과정에서 주요 기능 구현에 경쟁사 모듈이 대거 사용됐다. 멀티모달 모델은 이미지를 인식하는 비전 인코더로 구글에서 개발한 모델을 도입했다. 딥시크-VL은 SigLIP-L, SAM-B를 하이브리드 비전 인코더로 썼고 야뉴스는 SigLIP-L을 비전 인코더로 채택했다 학습 과정도 마찬가지다. 딥시크는 모델 학습 속도를 극한으로 끌어올리기 위해 경쟁사인 오픈AI가 개발해 공개한 GPU 프로그래밍 언어 '트라이톤(Triton)'을 추론 및 커널 최적화 코드에서 활용했다. 학습 가속을 위해서는 스탠포드 대학 연구진이 개발한 플래시 어텐션 모듈을 차용했다. 이런 모듈 활용은 딥시크에 국한된 이야기가 아니다. 현재 오픈형 LLM 표준으로 불리는 메타의 라마 시리즈는 문맥 순서를 파악하는 위치 임베딩에 중국 AI 기업 쥬이이테크놀로지가 개발한 회전위치임베딩(RoPE) 모듈을 사용한다. 활성화 함수 역시 구글이 제안한 'SwiGLU' 방식을 채택했다. 구글 제미나이 역시 학습 효율을 위해 딥시크처럼 외부에서 개발한 플래시 어텐션 기술을 내부 인프라에 통합해 사용 중이다. 임정환 모티프 대표는 "자동차를 만들 때 타이어나 와이퍼를 전문 업체 부품으로 썼다고 해서 그 차를 독자 개발이 아니라고 하지 않는다"며 "인코더나 가속 라이브러리 같은 '부품을 외부에서 가져오는 방은 효율성을 위한 합리적인 선택"이라고 설명했다. 강화학습·MoE로 효율 혁신...딥시크, 기술로 증명한 독자 가치 다양한 오픈소스를 활용했음에도 딥시크가 독자 모델로 평가받는 이유는 그 동안 없었던 기술적 시도를 통해 새로운 가치를 증명했기 때문이다. 당시 중국은 미국 반도체 제재로 인해 최신 엔비디아 GPU를 구하기 어려운 상황에 처했다. 딥시크는 제한된 인프라 안에서 어떻게 하면 미국 빅테크와 대등한 성능을 낼 수 있을까라는 과제를 안고 있었다. 이를 해결하기 위해 도입한 방법이 강화학습이었다. 당시 업계는 강화학습을 챗봇 말투를 교정하는 용도(RLHF)로 제한해 활용했다. 추론 능력을 높이는 데는 효율이 떨어진다고 여겨 잘 시도하지 않았다. 하지만 딥시크는 "강화학습을 통해 AI가 스스로 생각하는 과정을 훈련시키면 적은 데이터와 파라미터로도 추론 능력을 극대화할 수 있다"는 독자적인 가설을 세웠다. 그리고 이를 기술적으로 구현해 냄으로써 단순히 데이터를 많이 쏟아붓는 방식이 아닌 새로운 '지능 향상의 길'을 열었다. 기존 오픈소스 모델을 가져와 데이터만 주입하던 방식과는 차원이 다른 접근이었다. 또 다른 혁신은 아키텍처 효율화에 있다. 이들이 채택한 '전문가 혼합(MoE)' 모델은 거대 AI를 각 분야에 최적화된 여러 개 '작은 전문가 모델'로 나눈 뒤 질문에 따라 필요한 모델만 불러와 처리함으로써 효율을 극대화하는 기술이다. 1991년 처음 제안된 후 구글이 '스위치 트랜스포머(Switch Transformer)' 등을 통해 발전시킨 개념이다. 딥시크는 기존 MoE 보다 전문가 모델을 더 세분화하고 어떤 질문이든 공통적으로 필요한 지식을 다루는 일부 모델은 항상 대기시키는 방식을 더해 딥시크MoE라는 독자적인 변형 아키텍처로 발전시켰다. 기존에 존재하던 기술을 재설계해 경쟁사 모델 대비 메모리 사용량과 연산 비용을 획기적으로 줄이는 데 성공했다. 결과적으로 적은 자원으로도 고성능을 낼 수 있음을 증명했다. 유명호 스누아이랩 대표는 "오픈소스를 활용하는 것보다 중요한 건 오픈소스를 그대로 가져다 쓰는지 아니면 거기에 독창적인 아이디어와 방법론을 결합해 새로운 가치를 만들어내느냐 차이"라고 지적했다. 이어 "학계에서도 기존 모델에 새로운 엔진이나 방법론을 접목해 성능을 개선하면 새로운 이론으로 인정한다"며 "단순히 오픈소스를 썼냐 아니냐를 따질 게 아니라 기업에서 제시한 새로운 이론이나 기술이 얼마나 적용되었는가를 따지는 심사 기준이 필요하다"고 말했다. 한국어만 잘하는 AI는 넘어...차별화된 혁신성 제시해야 업계 전문가들은 이번 논란을 계기로 한국 AI 산업이 '독자 AI'라는 단어의 함정에서 빠져나와야 한다고 지적한다. 단순히 부품 국산화율을 따지는 제조업식 사고방식으로는 AI 기술 패권 경쟁 본질을 놓칠 수 있다. 유명호 대표는 "비전 인코더는 데이터 구축도 어렵고 개발 난도가 매우 높다"며 "우리도 자체 개발하는 데만 2~3년이 걸렸다"며 단시간에 AI 관련 모든 인프라를 구축하는 것은 한계가 있다고 지적했다. 현재 글로벌 시장은 AI 관련 모든 요소를 자체적으로 만들었는지 보다 특정 분야라도 얼마나 독창적이고 차별화된 아키텍처를 만들었는지, 그 결과 비용 효율성이나 특정 기술 특화 등 차별화 포인트가 무엇인지를 묻고 있다. 딥시크가 인정받는 이유도 이 지점이다. 더불어 압도적인 자본과 인력을 쏟아붓는 미국과 중국을 단순히 추격하는 방식으로는 승산이 없다는 지적이다. 특히 글로벌 시장에서 경쟁하기 위한 AI 모델을 목표로 하는 만큼 한국어 인식률이 높다는 포인트만으로는 차별화 포인트를 제시할 수 없다는 것이 업계 반응이다. 임정환 대표는 "정부와 시장이 벤치마크 점수 1등이라는 타이틀에만 집착하면 기업은 결국 검증된 오픈소스 모델을 가져와 점수만 올리는 '안전한 길'만 택하게 된다"고 경고했다. 단기적으로는 가시적인 성과처럼 보일지 몰라도 장기적으로는 원천 기술 부재로 인한 글로벌 기술 종속을 심화시키는 결과를 초래할 수 있다는 지적이다. 이를 방지하고 한국 AI 산업이 딥시크와 같은 반열에 오르기 위해서는 '보여주기식 성과'에 집착하는 현재 평가 체계를 개선해야 한다는 요구도 제기되고 있다. 임 대표는 "진정한 국가대표 AI라면 단순히 한국어를 잘하는 AI를 넘어 글로벌 시장에 내세울 수 있는 특화된 장점과 경쟁력이 있어야 한다"며 "설령 당장은 점수가 낮거나 실패하더라도 맨땅에 헤딩하며 독자적인 가설을 세우고 원천 기술을 확보하려는 기업에게 더 많은 기회와 지원을 제공해야 한다"고 제언했다

2026.01.13 14:03남혁우 기자

배 부총리 "ETRI 미래 AGI 연구한다면, 더 높은 목표 설정해야"

"한국전자통신연구원(ETRI) AGI 정의와 목표가 어떻게 되나. 미래 AGI, 원천을 연구한다면 더 높은 목표를 설정해야 하지 않나." 배경훈 부총리 겸 과학기술정보통신부 장관이 12일 세종 국가과학기술연구회에서 진행된 과학기술정보통신부 소관 과학기술분야 공공·유관 기관 첫날 업무보고에서 방승찬 ETRI 원장에 던진 질문이다. 기업이 할 수 있는 건 기업에 넘기고, 그들이 잘하지 못하는 걸 하라는 의미로 받아들여졌다. ETRI는 이날 업무보고에서 올해 계획으로 ▲AI 로봇 파운데이션 모델=독자로봇 파운데이션 모델(RFM) 개발 및 로봇 학습 데이터 팩토리 구축 ▲특화 AI파운데이션 모델=5대 분야 멀티모달 파운데이션 모델(MFM) 개발 ▲미래 AGI 원천기술=성장·체화·범용인지 분야 독자 체화형 자율성장 AI에이전트 개발 등을 발표했다. 이에 대해 배 부총리는 "넥스트 AI를 준비한다면, 그 정도라면 그걸 더 잘하는 기관에 몰아주고, 피지컬AI나 특화AI파운데이션 모델 등에 집중하는 게 낫지 않나"라며 "AI원천기술로 차세대, 넥스트 트랜스포머 모델을 개발한다든지, 미국 어텐션 모델에 대한 넥스트 모델을 개발한다든지 해야 하지 않냐"고 질문했다. 어텐션 모델은 텍스트의 핵심 정보에 집중해 자연어 처리 성능을 크게 향상시킨 기술이다. 챗GPT 등 최신 AI 서비스의 핵심 기반이다. 류제명 2차관도 질문에 나섰다. 류 차관은 "현재 ETRI가 과거 성과와 대비된다"며 "ETRI는 1980년대 TDX(전전자교환기) 개발, 1990년대 중반 CDMA(코드분할다중접속) 개발 등으로 우리나라를 통신 강국으로 만들었다"고 말했다. 류 차관은 "당시 개발 기술 공통점이 도전적이었다. 대학이나 기업이 보유하지 못한 기술을 출연연이 리드하며 개발하고, 산업계를 바꾸는 결정적 역할을 했다"며 "지금 개발하고자 하는 AGI나 로봇파운데이션 모델 개발이 과거 산업에 미쳤던 그런 영향을 미칠 수 있을까"라고 되물었다. 류 차관은 또 "국내 기업들도 기술 개발에 혼신을 다한다. 출연연이 기업의 생존을 건 기술 개발 경쟁을 쫓아갈 수 있을까하는 생각이 든다"며 "그래서 민간하고 어떻게 시너지 낼 것인지, 민간이 하지 않는 부분에서 무엇을 할 것인지 고민이 필요하다. 이제는 AI화(AIfication)다. 제품과 서비스 근본을 재설계해야 하는 시대"라고 강조했다. 이에 대해 방승찬 원장은 "AI모델에서 우리가 앞서기는 어렵다고 본다. AX는 세계 1등이 될 수 있다"며 "로봇은 휴머노이드만 있는 것은 아니다. 기계연구원이나 생산기술연구원, 대학, 해외기관과 함께 연구하기에, 그 형태는 옛날과 동일하다"고 답변했다. PBS(연구과제중심제도) 폐지로 인한 대규모 연구와 집단지성 연구에 대해서도 지적이 나왔다. 구혁채 1차관은 "슬라이드와 풀보고서 매칭이 잘 안된다. 기관장 구상과 조직 방향성이 잘 매치되는지 잘 모르겠다"고 지적했다 배경훈 부총리는 이날 업무보고에 앞서 ▲과기혁신, AI를 어떻게 만들어갈지 ▲PBS 폐지 이후 기관별 중점 임무를 어떻게 가져가고 협력할지 등을 입체적으로 고민했으면 한다고 주문했다. 배 부총리는 "미국 제네시스 미션이 파급력이 있을 것으로 본다. 우리도 한국판 제네시스 미션을 논의 중이다. 조만간 계획을 발표해야 할 것"이라며 "이는 출연연만 갖고 될 일이 아니다. 기업들과 어떻게 시너지 내서 목표를 설정할 것인지 살펴봐야 하고, 이사장이 이 부분을 집중해서 고민해달라"고 주문했다. 제네시스 미션은 트럼프 정부가 지난해 11월 미국 내 방대한 과학 데이터를 하나의 통합형 AI 플랫폼으로 묶고 민간 빅테크(거대 정보통신 기업)와 협력해 AI 주도권을 확보한다는 프로젝트다.

2026.01.12 23:16박희범 기자

'K-AI' 주도권 잡을 4개 정예팀은…정부, 첫 심사 발표 임박

정부가 이번 주 '독자 인공지능(AI) 파운데이션 모델 프로젝트' 첫 심사 결과 발표를 앞둔 가운데 공정 심사 여부와 첫 탈락팀에 대한 이목이 쏠리고 있다. 12일 IT 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 오는 15일 전후로 독자 AI 모델 1차 평가 결과를 발표할 예정인 것으로 알려졌다. 정부는 지난주부터 각 컨소시엄이 제출한 모델 성능과 효율성을 검토하면서 최종 선별 작업을 진행 중인 것으로 전해졌다. 현재 정예팀은 네이버클라우드와 NC AI, 업스테이지, SK텔레콤, LG AI연구원이다. 정부는 15일 전후로 여기서 4팀만 선별한다. 네이버클라우드는 텍스트·이미지·오디오 등 서로 다른 데이터를 단일 모델서 처리하는 옴니 파운데이션 모델 '네이티브 옴니모델(HyperCLOVA X SEED 8B Omni)'과 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 '고성능 추론모델(HyperCLOVA X SEED 32B Think)'을 오픈소스로 공개했다. 해당 모델은 에이전트 AI와 버티컬 서비스 기반 기술로 활용될 계획이다. 이를 통해 소버린 AI 경쟁력을 강화하고 월드모델과 로보틱스, 자율주행 등 물리 세계 AI로 키울 방침이다. NC AI는 멀티모달 생성용 파운데이션 모델 '배키(VAETKI)'를 내세웠다. 배키는 토크나이저 어휘 20%를 한국어에 할당하고 고어까지 처리 가능한 한글 조합 기능을 갖췄다. 이를 통해 국내 산업현장에 최적화된 소버린 AI를 달성하겠다는 포부다. 업스테이지는 '솔라 오픈 100B'를 허깅페이스에 내놨다. 솔라 오픈은 중국 딥시크 R1과 오픈AI GPT-OSS-120B' 등 글로벌 경쟁 모델을 주요 벤치마크에서 앞선 것으로 나타났다. 특히 한국어, 영어, 일본어 등 다국어 평가에서 모델 크기 대비 우수한 성능을 보였다. 향후 국내 금융을 비롯한 법률, 의료, 공공, 교육 등 산업별 AI 전환 확산에 활용될 방침이다. SK텔레콤은 한국형 소버린 AI 경쟁력 확보 목표로 '에이닷 엑스 K1'를 내놨다. 이 모델은 5천억 개 파라미터를 보유한 국내 첫 거대언어모델(LLM)이다. 웹 탐색과 정보 분석, 요약, 이메일 발송 등 여러 단계를 거치는 복합 업무를 자율적으로 수행할 수 있다. 향후 일상 업무뿐 아니라 제조 현장 데이터와 작업 패턴을 학습해 업무 효율을 높이는 데도 활용되는 것이 목표다. LG AI연구원은 'K-엑사원'을 공개했다. K-엑사원은 LG AI연구원이 지난 5년간 축적한 기술 바탕으로 하이브리드 어텐션 구조를 고도화해 설계됐다. 이를 통해 메모리 요구량과 연산량을 엑사원 4.0 대비 70% 줄이면서도 성능은 끌어올렸다. 해당 모델은 토크나이저 고도화, 멀티 토큰 예측 구조로 최대 26만 토큰의 초장문을 처리할 수 있다. 추론 속도도 기존 모델 대비 150% 높였다. A100급 그래픽처리장치(GPU) 환경에서도 구동 가능하다. 과기정통부 "평가 공정하게"…심사 기간은 연기 정부는 1차 발표를 앞두고 모델 평가 기간을 기존 일정보다 연장한 것으로 전해졌다. NIPA는 해당 사업에 참여하는 5개 팀에게 AI 모델 사이트를 지난 11일 자정까지 연장 운영해 달라고 요청한 것으로 확인됐다. 해당 사이트는 각 컨소시엄 모델 평가를 위해 전문 평가단이 확인할 수 있도록 구성된 플랫폼이다. 정예팀은 당초 지난 9일 오후 6시까지 사이트를 운영할 예정이었지만, 현재 정부 지침으로 약 56시간 연장한 것이다. NIPA는 해당 지침이 과기정통부 요청에 따른 것이라고 밝혔다. 과기정통부는 최근 사업 참여 컨소시엄에서 불거진 독자 기술력 논란과 모델 평가 기간 연장은 무관하다고 선 그은 것으로 알려졌다. 또 오는 15일 전후로 예정된 독자 AI 모델 선정 사업 1차 발표가 늦어질 가능성도 없다는 입장이다. 배경훈 부총리 겸 과기정통부 장관은 지난 8일 "독자 AI 파운데이션 모델 개발 프로젝트 평가는 객관적이고 공정하게 진행될 것"이라고 개인 소셜네트워크서비스(SNS)를 통해 밝혔다.

2026.01.12 15:21김미정 기자

정부, '독파모' 프로젝트 평가 일정 연장…"1차 발표 시기 그대로"

정부가 '독자 인공지능(AI) 파운데이션 모델 프로젝트' 정예팀 모델 평가 기간을 기존 일정보다 연장한 것으로 전해졌다. 11일 정보통신산업진흥원(NIPA)은 해당 사업에 참여하는 5개 팀에게 AI 모델 사이트를 이날 자정까지 연장 운영해 달라고 요청한 것으로 확인됐다. 해당 사이트는 각 컨소시엄 모델 평가를 위해 전문 평가단이 확인할 수 있도록 구성된 플랫폼이다. 정예팀은 당초 지난 9일 오후 6시까지 사이트를 운영할 예정이었지만, 현재 정부 지침으로 11일까지 약 56시간 연장한 것이다. NIPA는 해당 지침이 과학기술정보통신부 요청에 따른 것이라고 밝혔다. 과기정통부는 최근 사업 참여 컨소시엄에서 불거진 독자 기술력 논란과 모델 평가 기간 연장은 무관하다고 선 그은 것으로 알려졌다. 또 오는 15일 전후로 예정된 독자 AI 모델 선정 사업 1차 발표가 늦어질 가능성도 없다는 입장이다. 과기정통부 관계자는 "AI 모델 평가를 엄밀히 하기 위해 평가 사이트 운영 연장을 요청한 것"이라고 밝혔다.

2026.01.11 18:23김미정 기자

[유미's 픽] 독자 AI 논란 속 '설계 주권' 시험대…LG 'K-엑사원'이 돋보인 이유

"이번 경쟁에서 고유 아키텍처를 고수하며 바닥부터 설계하는 곳은 LG AI연구원 정도입니다. 정부 과제의 짧은 데드라인과 제한된 자원 속에서 검증된 글로벌 오픈소스를 적극 활용할 수밖에 없는 환경 속에 특정 모듈 차용이 문제라면, 오픈소스 기반으로 개발한 국내 기업 다수도 그 비판에서 자유롭기 어려울 것입니다."최근 정부 주도의 독자 인공지능(AI) 파운데이션 모델 프로젝트를 둘러싼 잡음이 이어진 가운데 LG AI 연구원의 'K-엑사원'이 비교적 논란 없이 업계의 호평을 받으며 존재감을 드러내고 있다. 성능 평가에서도 미국, 중국이 점령한 글로벌 AI 상위 10위권에서 7위를 기록하며 유일하게 이름을 올려 'AI 3강'을 노린 한국을 대표할 AI 모델로 자리를 굳히는 분위기다.LG AI연구원은 'K-엑사원'이 정부의 독자 AI 파운데이션 모델 프로젝트 1차 평가 기준인 13개의 벤치마크 테스트 중 10개 부문 1위를 기록했다고 11일 밝혔다. 전체 평균 점수는 72점으로, 5개 정예팀 중 1위를 차지했다. 이 기준으로 평가를 했을 시 경쟁사들은 50점 중반대에서 60점 중반대 정도의 평균 점수를 기록하는 것으로 알려졌다. 일부 참가업체들이 최근 공개한 테크 리포트에서 13개 벤치마크 결과를 모두 기재하지 않은 것과 달리, LG AI연구원은 모든 결과를 공개해 비교 가능성을 높여 우위에 올라섰다는 평가도 나온다. 업계에선 독자 AI 모델의 가장 중요한 요소로 '프롬 스크래치'와 '독자성' 해석을 꼽고 있다. 최근 해외 모델 유사성 등 여러 논란 속에서 가장 중요한 요소가 외부 모델 '가중치(Weight) 사용' 여부가 핵심으로 떠오르고 있는데, 특히 LG AI연구원의 'K-엑사원'은 이를 모두 충족시키는 모델로 평가 받고 있다. 가중치는 AI 모델이 학습을 통해 축적한 지식이 압축된 결과물로, 라이선스와 통제권 문제와 직결된다. 정부가 해외 모델을 파인튜닝한 파생형 AI를 독자 AI로 간주하지 않겠다고 밝힌 이유도 이 때문이다. 다만 일각에선 가중치 논쟁이 독자 AI의 기준을 지나치게 단순화할 수 있다는 지적도 나온다. 가중치는 독자 AI의 최소 조건일 뿐 그 위에서 어떤 기술적 선택을 했는지가 모델의 완성도를 가른다는 것이다. 특히 대규모 자본과 연산 자원을 투입해 데이터와 파라미터 규모를 늘리는 방식은 단기 성능 경쟁에는 유리할 수 있지만, 장기적인 국가 AI 전략과는 거리가 있다는 평가도 있다.이 때문에 최근에는 가중치 이후의 단계인 모델 구조에 대한 설계 역량이 중요 기준으로 떠오르고 있다. 대표적인 영역이 어텐션(Attention)과 토크나이저(Tokenizer)다. 어텐션은 AI가 방대한 정보 중 어떤 부분에 집중할지를 결정하는 핵심 메커니즘으로 연산량과 메모리 요구량을 좌우한다. 토크나이저는 문장을 토큰 단위로 분해하는 방식으로 학습 효율과 언어 이해 능력에 직접적인 영향을 미친다. 두 요소는 성능과 비용을 동시에 결정하는 구조적 레버로, 독자 AI의 '설계 주권'을 가늠하는 지표로 평가된다.이에 대해 임정환 모티프테크놀로지스 대표는 독자 기술의 기준을 보다 구조적으로 봐야 한다고 지적했다. 그는 "엔비디아가 설계를 하고 TSMC가 생산을 맡는 구조나, 삼성 스마트폰이 다양한 외부 부품을 조합해 만들어지는 사례를 보더라도 핵심은 누가 설계의 주체냐는 점"이라며 "단순히 코드를 복제한 뒤 재학습하는 방식은 기술적 난이도가 낮아 독자 아키텍처로 보기 어렵다"고 말했다. 이어 "중국 딥시크는 기존 구조를 그대로 쓰지 않고 이를 변형해 자신들만의 기술적 철학을 담았기 때문에 독자 기술로 평가받는 것"이라고 덧붙였다.업계에선 독자 AI의 '설계 주권'을 판단하는 기준이 어텐션과 토크나이저에만 국한돼서는 안 된다는 지적도 나온다. 실제로 AI 모델의 성능과 효율은 어텐션 외에도 정규화(Normalization) 방식, 레이어 구성, FFN(Feed-Forward Network) 구조, 학습 커리큘럼 설계, 추론(Reasoning) 구조의 내재화 여부 등 복합적인 설계 선택에 의해 좌우된다. 정규화 방식과 레이어 구성은 학습 안정성과 스케일링 한계를 결정하는 요소로, 표준 레이어놈(LayerNorm)을 그대로 사용하는지, RMS놈(RMSNorm) 등 변형된 방식을 적용했는지에 따라 대규모 학습에서의 효율과 수렴 특성이 달라진다. 레이어놈이 모든 신호를 고르게 '정돈'하는 방식이라면, RMS놈은 꼭 필요한 크기 정보만 남겨 계산 부담을 줄이는 방식에 가깝다.FFN 구조 역시 전체 파라미터의 상당 부분을 차지하는 영역으로, 활성화 함수 선택이나 게이트 구조 도입 여부에 따라 연산량 대비 성능 효율이 크게 달라진다. FFN은 AI가 주목한 정보를 자기 언어로 다시 정리하는 '내부 사고 회로'에 해당한다. 학습 커리큘럼 역시 설계 주권을 가늠하는 중요한 지표로 꼽힌다. 단순히 대규모 데이터를 한 번에 투입하는 방식이 아니라, 언어 이해·추론·지시 이행·도메인 특화 학습을 어떤 순서와 비중으로 설계했는지가 모델의 안정성과 범용성을 좌우하기 때문이다. 여기에 프롬프트 기법에 의존하지 않고, 추론 과정을 모델 구조 내부에 내재화했는지 여부도 공공·국방·금융 등 고신뢰 영역에서 중요한 평가 요소로 거론된다. 업계 관계자는 "가중치는 독자 AI의 출발점이고, 어텐션과 토크나이저는 그 다음 단계"라며 "그 이후에는 학습 시나리오와 추론 구조, 스케일링 전략까지 얼마나 스스로 설계했는지가 진짜 기술적 자립도를 가른다"고 설명했다. LG AI연구원의 'K-엑사원'은 이 지점에서 차별화된 접근을 택했다. LG AI연구원은 데이터 양이나 파라미터 규모를 무작정 키우는 방식 대신, 모델 구조 자체를 고도화해 성능은 높이고 학습·운용 비용은 낮추는 전략을 적용했다. 엑사원 4.0에서 검증한 '하이브리드 어텐션(Hybrid Attention)'을 'K-엑사원'에 고도화해 적용, 국소 범위에 집중하는 슬라이딩 윈도우 어텐션과 전체 맥락을 이해하는 글로벌 어텐션을 결합했다. 이를 통해 메모리 요구량과 연산량을 이전 세대 대비 약 70% 절감했다는 설명이다. 토크나이저 역시 단순 재사용이 아닌 구조적 개선이 이뤄졌다. LG AI연구원은 학습 어휘를 약 15만 개로 확장하고, 한국어에서 자주 쓰이는 단어 조합을 하나의 토큰으로 묶는 방식을 적용했다. 그 결과 동일한 연산 자원으로 더 긴 문서를 기억하고 처리할 수 있게 됐으며 기존 대비 약 1.3배 긴 컨텍스트 처리 능력을 확보했다. 여기에 멀티 토큰 예측(MTP) 구조를 도입해 추론 속도도 크게 높였다. 이 같은 구조 혁신은 정부 프로젝트의 성격과도 맞닿아 있다. 독자 AI 파운데이션 모델의 목표는 단기적인 성능 순위 경쟁이 아니라 공공·산업 현장에서 실제로 활용 가능한 국가 AI 인프라를 구축하는 데 있기 때문이다. LG AI연구원이 고가의 최신 그래픽처리장치(GPU)가 아닌 A100급 환경에서도 프런티어급 모델을 구동할 수 있도록 설계해 인프라 자원이 제한된 기업과 기관에서도 활용 가능성을 넓혔다는 점도 우위 요소로 보인다. 다른 참가 기업들 역시 각자의 강점을 내세우고 있다. SK텔레콤은 최신 어텐션 기법과 초거대 파라미터 확장을 통해 스케일 경쟁력을 강조하고 있고, NC AI는 산업 특화 영역에서 운용 효율을 앞세우고 있다. 네이버클라우드는 멀티모달 통합 아키텍처를 독자성의 핵심으로 제시하고 있으며, 업스테이지는 데이터와 학습 기법을 통해 성능을 끌어올리는 전략을 취하고 있다. 다만 일부 모델은 외부 가중치나 구조 차용 여부를 둘러싼 논란으로 인해 기술 외적인 설명 부담을 안고 있는 상황이다. 업계 관계자는 "이번 논쟁이 '순혈이냐, 개발이냐'의 이분법으로 끝나기보다 가중치 주권을 전제로 한 설계 주권 경쟁으로 진화하고 있다고 본다"며 "이 기준에서 'K-엑사원'은 성능, 비용 효율, 구조적 혁신이라는 세 요소를 동시에 충족한 사례로 평가되고, 한국형 독자 AI가 나아갈 한 방향을 보여주고 있다"고 분석했다.업계에선 이번 1차 평가를 계기로 독자 AI에 대한 기준이 한층 정교해질 가능성이 높다고 봤다. 단순한 성능 순위나 '프롬 스크래치' 여부를 넘어 가중치 주권을 전제로 한 모델 설계 역량과 비용 효율, 실제 활용 가능성까지 함께 평가하는 방향으로 심사 기준이 진화할 수 있을 것으로 전망했다. 정부 역시 2차 심사 과정에서 독창성과 기술적 기여도를 평가 항목으로 포함하겠다고 밝힌 만큼, 향후 독자 AI 경쟁은 데이터·자본 경쟁을 넘어 누가 더 깊이 모델을 설계했는지를 가리는 국면으로 접어들 것이란 분석도 나온다.임정환 모티프테크놀로지스 대표는 "현재 독자 개발과 프롬 스크래치에 대한 개념이 혼재된 상황"이라며 "(정부 차원에서) 기술적 기여도에 따른 명확한 정의와 가이드라인 마련이 시급하다"고 강조했다. 이승현 포티투마루 부사장은 "독자 AI 2차 심사에서 퍼포먼스는 단순히 벤치마크 점수로 줄 세울 문제가 아니다"며 "가중치를 처음부터 자체 학습했는지, 데이터와 학습 과정에 대한 통제권을 갖고 있는지, 같은 조건에서 성능을 안정적으로 재현할 수 있는지가 먼저 봐야 할 기준"이라고 말했다. 이어 "이 전제가 빠진 성능 비교는 기술 평가라기보다 보여주기에 가깝다"고 덧붙였다.

2026.01.11 15:57장유미 기자

SKT 정예팀 AI 모델, 공개 나흘 만에 다운로드 9천건 기록

SK텔레콤 정예팀이 개발한 국내 최초 500B 급 초거대 AI 모델 '에이닷엑스 케이원(A.X K1)'이 공개 직후 국내외에서 좋은 평가를 받고 있다. A.X K1은 약 4개월의 한정된 기간 동안 519B 규모의 초거대 모델로 개발됐음에도 주요 벤치마크에서 딥시크 V3.1 등 글로벌 AI 모델과 유사하거나 앞선 성능을 선보였다. 특히 지난 7일 A.X K1 모델의 기술 보고서를 공개한 뒤 나흘 만에 모델 다운로드 수가 8천800여 건으로 급증하는 등 높은 관심이 이어지고 있다. 이처럼 A.X K1에 대한 관심이 큰 이유는 높은 확장성 때문으로 풀이된다. 링크드인과 페이스북 등 SNS에서는 A.X K1이 자유로운 사용과 배포가 가능한 '아파치 2.0' 라이선스로 공개된 점을 장점으로 꼽고 있다. 허깅페이스, 에포크 AI에서 주목받아 글로벌 AI 모델 플랫폼 허깅페이스의 창립자이자 CEO인 클렘 들랑그도 A.X K1 등을 직접 언급하며 대한민국 AI의 약진 사례로 지목했다. 클렘 들랑그 CEO는 8일 자신의 링크드인 계정을 통해 허깅페이스 인기 모델에 A.X K1을 포함한 한국의 3개 모델이 선정된 것을 알리면서 “AI 분야에서 미국과 중국에 대해 많이 이야기하지만, 오픈소스 덕분에 모든 국가가 개발자가 될 수 있으며 그렇게 되어야 한다”라 밝혔다. 앤비디아도 링크드인에 클렘 들랑그 CEO의 글을 리포스팅하며 한국 기업의 성과를 공개 지지했다. 미국 비영리 AI 연구 기관인 에포크AI는 지난해 12월29일부터 사흘간 '주목할 만한 AI 모델'에 대한민국의 독자 AI 파운데이션 모델 프로젝트 참여 모델 5종을 등재했다. 에포크 AI는 인공지능 모델의 연산 능력과 데이터 추세를 분석하며 학습 데이터양, 연산 효율성, 기술적 혁신성 등을 기준으로 전 세계 AI 모델을 엄격히 선별해 '주목할 만한 AI 모델' 리스트를 발표한다. “SKT, 멀티모달 추가하고 파라미터 확대 나서” AI 업계 관계자의 호평도 이어지고 있다. 이승현 포티투마루 부사장은 지난 8일 자신의 페이스북에서 "A.X K-1 모델은 프롬 스크래치 이상의 가치를 보여줬다"고 평가했다. 이 부사장은 자신이 제안한 '소버린 AI 판정 시스템'에 A.X K1을 적용한 결과, 기술 주권을 달성한 단계에 해당한다고 밝혔다. 해외 개발자들도 허깅페이스 등 AI 커뮤니티를 통해 "이 규모의 기초 모델이 공개되는 것은 드문 일"이라며, "처음부터 자체 개발한 모델이라는 점에서 매우 독창적"이라고 평가했다. 링크드인에도 “한국은 대규모 AI 개발에서 미국, 중국과 더 직접적으로 경쟁할 수 있는 위치에 놓였다"와 같은 평가들이 속속 게재되고 있다. 한편, SK텔레콤 정예팀은 올해부터 모델에 멀티모달 기능을 순차적으로 추가하고, 조 단위 파라미터로 확대하는 후속 개발을 이어 나갈 계획이다. SK텔레콤 정예팀은 A.X K1이 국가 AI 생태계를 지탱하는 '디지털 사회간접자본(SOC)'으로 활용될 수 있도록 한다는 전략이다. 또한 A.X K1을 기반으로 하는 다양한 소형 특화 모델들이 A.X K1의 지식을 바탕으로 성장할 수 있도록 지속적으로 지원해 나갈 계획이다.

2026.01.11 08:21박수형 기자

[AI는 지금] 배경훈, 'K-AI' 탈락 발표 앞두고 '공정 심사' 약속…정부 기준 '주목'

"독자 인공지능(AI) 파운데이션 모델 개발 프로젝트(K-AI) 평가는 객관적이고 공정하게 진행될 것입니다." 배경훈 과학기술정보통신부 장관이 '독자 AI 파운데이션 모델 개발 프로젝트' 1차 탈락자 발표를 앞두고 심사를 공정하게 할 것이란 의지를 드러냈다. 최근 평가 기준과 독자성 판단을 둘러싼 논쟁이 이어지는 가운데 정부가 명확한 기술 기준과 판단 체계를 갖춰 심사에 나서겠다는 메시지를 내놓은 것으로 풀이된다. 배 장관은 8일 자신의 소셜 미디어(SNS)를 통해 글로벌 오픈소스 AI 플랫폼 '허깅페이스'에서 독파모 모델들이 주목받고 있는 사례를 소개하며 오픈소스를 기반으로 각국이 AI '사용자'를 넘어 '개발자'가 될 수 있음을 강조했다. 배 장관은 "(우리나라의) 세계적 수준 AI 모델 (개발) 도전은 계속되고 있고 각종 지표에서의 반응도 긍정적"이라면서도 "(독파모) 평가는 윤리적 측면에서도 모두가 공감할 수 있어야 비로소 'K-AI' 타이틀을 유지하게 된다"고 언급했다. 배 장관의 이 발언은 단순한 원칙 선언을 넘어 독자 AI를 어떻게 정의하고 무엇을 기준으로 평가할 것인지에 대한 보다 명확한 기준 정립이 필요하다는 업계의 지적에 따른 것으로 분석된다. 또 정부가 이번 논란을 불식시키기 위해 공정한 기준으로 평가에 나설 것이란 의지를 드러낸 것으로도 보인다. 앞서 정부는 지난해 8월 네이버클라우드, 업스테이지, SK텔레콤, NC AI, LG AI연구원을 'K-AI' 국가대표로 선정한 바 있다. 오는 15일께 한 팀을 탈락시킬 1차 발표를 앞둔 상태로, 각 사가 제시한 목표치 도달 여부와 기술적 완성도, 독자성 등을 종합적으로 판단할 예정이다. 일단 정부가 지난해 'K-AI' 사업자 선정과 관련해 공개한 공문에선 해외 모델의 파인튜닝이나 파생형 개발은 독자 모델로 간주하지 않는다는 원칙을 제시했다. 그러나 구체적으로 명확한 기준을 제시하지 않아 업계에선 '독자성' 기준을 두고 혼선을 빚고 있다. 특히 최근에는 독자 모델 개발에서 중국을 포함한 해외 AI 모델의 아키텍처, 인코더, 학습 방식 등을 어디까지 활용할 수 있는지를 두고 논란이 가열되고 있다. 일각에선 글로벌 오픈소스 생태계에서 검증된 구조를 참고하는 것이 불가피하다는 의견도 있지만, 학습된 가중치나 핵심 모델을 그대로 사용하는 경우 독자성 판단이 달라질 수 있다는 반론도 만만치 않다.업계 관계자는 "독자 AI 파운데이션 모델을 가르는 핵심은 아키텍처가 아니라 가중치"라며 "구조는 참고할 수 있지만, 가중치를 처음부터 어떻게 학습했고 누가 통제하느냐가 소버린 AI의 기준"이라고 강조했다. 이어 "중국 모델을 구조로 가중치를 0으로 두고 재설계해 처음부터 자체 완전 학습을 시킨 경우라면 프롬 스크래치로 인정받을 수 있다"며 "하지만 기존 해외 모델의 가중치를 활용해 성능을 개선한 단계는 인정되지 않는다"고 덧붙였다. 그러면서 "AI 모델에서 비전·오디오 인코더 역시 지능의 핵심 요소"라며 "이를 미국, 중국 등 외부 모델에서 그대로 가져와 활용한 경우 독자 AI 모델로 정부가 바라봐선 안될 것"이라고 강조했다. 업계에선 정부가 글로벌에서 통용되고 있는 여러 기준들을 토대로 공정한 심사에 나설 수 있을지 주목하고 있다. 현재 글로벌 기술 문헌과 주요 연구 기관, 오픈소스 커뮤니티 등 여러 곳에서 공통적으로 지목하고 있는 '독자성' 기준은 ▲기존 모델의 학습된 가중치를 그대로 활용하거나 이를 기반으로 미세조정한 경우 ▲무작위 초기화 상태에서 독자 데이터와 학습으로 모델을 새롭게 구축한 경우로 나뉜다. 이는 IBM, 허깅페이스 등 주요 AI 플랫폼과 학계에서도 일반적으로 받아들여지고 있는 기준이다. 특히 특정 국가나 기업의 모델을 차용했는지 여부보다 그 결과물에 대한 통제권과 수정·개선 역량이 누구에게 있는지가 핵심 판단 요소로 꼽힌다.이 같은 논쟁은 최근 정부와 업계에서 확산되는 '소버린 AI' 논의와도 맞닿아 있다. 소버린 AI는 단순히 중국이나 미국 등 특정 국가의 모델을 쓰느냐의 문제가 아니라, 핵심 지능을 구성하는 가중치와 학습 과정에 대해 자국이 얼마나 통제권을 확보하고 있는가를 따지는 개념이다. 업계에선 이승현 포티투마루 부사장이 최근 공개한 '소버린 AI 2.0(T-클래스)' 분류체계가 하나의 참고 기준이 된다고 보고, 정부가 이를 반영해 심사에 나설 것을 희망했다. 이 분류체계는 AI 모델을 ▲설계(Code) ▲지능(Weights) ▲기원(Data)이라는 세 가지 요소로 나눠 단계별로 구분한다. 또 아키텍처 참조 자체보다 가중치를 처음부터 독자적으로 학습했는지를 중요한 분기점으로 삼는다. 업계 관계자는 "이 같은 접근이 중국 모델 차용 여부를 둘러싼 논쟁을 감정적 공방이 아닌, 기술적·제도적 판단의 문제로 전환할 수 있다"며 "정부가 명확한 기준을 제시하고 이를 일관되게 적용한다면 불필요한 오해와 소모적 논쟁도 자연스럽게 줄어들 것"이라고 말했다. 전문가들은 배 장관이 강조한 '객관적이고 공정한 심사'가 실질적인 의미를 가지려면 최종 선정 결과보다 판단 기준과 적용 과정이 명확히 설명되는 것이 중요하다고 지적했다.

2026.01.08 15:55장유미 기자

[AI 리더스] 'AI 표준' 만든 이승현 "K-AI 5곳, 모두 승자…톱2 집착 버려야"

"독자 인공지능(AI) 파운데이션 모델(K-AI) 사업자로 선정된 5곳은 사실상 모두 승자입니다. 2개 사업자만 선별해 정부가 지원하기 보다 각 팀이 짧은 시간 안에 각자의 방식으로 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점을 인정해야 합니다. 정부가 각 모델의 특성과 강점을 살릴 수 있는 지원책을 마련한다면 국내 AI 생태계도 훨씬 건강해질 수 있을 것입니다." 이승현 포티투마루 부사장은 8일 지디넷코리아와의 인터뷰를 통해 최근 독자 AI 파운데이션을 둘러싼 논란에 대해 이같이 정리했다. 오는 15일께 정부가 1차 탈락팀을 결정하기 전 각 업체들이 '이전투구' 양상으로 치닫는 모습을 보이는 것을 두고 정부가 2개팀만 선별해 지원하려는 구조 때문이라고도 진단했다. 또 이번 논란의 본질이 기술 경쟁이 아니라 구조적 문제에 있다고 봤다. 정부가 2개 사업자만 선별해 집중 지원하는 방식이 계속 유지되면 탈락 기업에 과도한 낙인이 찍히고 업계 전체가 방어적·공격적으로 변할 수밖에 없다고 분석했다. 성능 경쟁보다 통제 원칙 우선돼야…소버린 AI 기준 마련 필요 정부는 현재 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 독자 AI 파운데이션 모델 사업자로 선정된 5개 정예팀을 대상으로 1차 심사를 진행 중이다. 탈락팀 1곳은 오는 15일쯤 발표할 예정으로, 정예팀마다 평가 기준이 상이해 업계에선 각 업체별 모델을 두고 유불리 논란이 이어지고 있다. 이 부사장은 "정부 사업에서 탈락하면 해당 팀이 '사망선고'를 받는 것처럼 여겨지는 구조는 바람직하지 않다"며 "톱2만 키우는 방식은 산업 전체를 위축시킬 가능성이 높은 만큼, 선별보다 육성 중심의 정책 전환을 고민해야 한다"고 제언했다. 특히 이번 사업에 참여한 기업 상당수가 대기업 또는 대기업 계열이라는 점에서 1차 탈락이 갖는 파급력은 더 크다고 봤다. 그는 "1차에서 떨어졌다는 이유만으로 '이 정도밖에 못하느냐'는 평가가 붙으면 내부 투자나 그룹 차원의 지원이 위축될 가능성도 배제하기 어렵다"며 "그 부담이 기업을 더욱 공격적인 대응으로 몰아넣는다"고 진단했다.이에 이 부사장은 '선별'이 아닌 '육성'을 초점에 맞춘 정부 정책이 마련될 필요가 있다고 강조했다. 일정 수준 이상의 역량을 입증한 기업들을 여러 트랙으로 나눠 지속적으로 키우는 구조가 필요하다는 것이다. 그는 "영국 등 해외 사례를 보면 한 번 떨어졌다고 끝나는 게 아니라 다른 트랙으로 계속 경쟁과 육성을 이어간다"며 "이번에 선정된 5개 기업 역시 각자 다른 강점과 방향성을 갖고 있는 만큼, 정부가 이들을 '탑위너 그룹'으로 묶어 장기적으로 관리하는 전략이 필요하다"고 말했다.이 부사장은 소버린 AI를 둘러싼 논의 역시 '전면 강제'가 아니라 '위험 구간에서의 원칙'으로 재정의해야 한다고 강조했다. 글로벌 모델과의 성능 경쟁을 목표로 삼기보다 투명성을 바탕으로 통제 가능성과 주권 확보가 필요한 영역에서 전략적으로 활용해야 한다고 주장했다. 그는 "공공 영역만 보더라도 정보 등급에 따라 활용 원칙이 달라야 한다"며 "오픈 데이터나 공개 서비스 영역에서는 글로벌 모델이나 경량화 모델을 활용할 수 있지만, 민감정보·보안 등급으로 올라갈수록 소버린 모델을 원칙으로 삼는 방식이 합리적"이라고 말했다. 그러면서 "다만 소버린을 내세워 모든 것을 자체 모델로만 해결하려는 접근은 현실적이지 않다"며 "필요할 경우 월드모델 활용 등을 통해 안전한 방식의 연계·상호운용을 함께 고민해야 한다"고 덧붙였다. AI 정책, 구조적 한계 여실…공공 클라우드 전환 선행돼야 이처럼 이 부사장이 분석한 이유는 과거 공공 정책 현장에서 직접 경험한 구조적 한계가 지금도 크게 달라지지 않았다고 판단해서다. 그는 디지털정부플랫폼위원회 재직 당시부터 AI 시대를 준비하기 위해 공공 시장의 클라우드 전환이 선행돼야 한다고 꾸준히 주장해왔다. 이 부사장은 "지난 2022년 3월 무렵부터 공공이 AI 시대를 이야기하면서도 정작 기반이 되는 클라우드 전환은 제대로 이뤄지지 않는 점이 가장 큰 한계라고 봤다"며 "AI를 서비스(SaaS) 형태로 도입하려면 클라우드가 전제가 돼야 하는데, 공공 영역의 전환 속도가 이를 따라가지 못했다"고 설명했다. 그는 이에 대한 원인으로 ▲클라우드 전환 지연 ▲예산·제도 구조 ▲관료제의 연속성 부족을 꼽았다. 이 부사장은 "정부 예산 구조상 ISP 등 절차를 거치면 최소 2~3년이 소요되는데, 이 방식으로는 빠르게 변하는 AI 흐름을 따라가기 어렵다"며 "AI처럼 중장기 전략이 필요한 분야에서 담당 보직이 자주 바뀌면 학습 비용이 반복되고 정책 추진의 일관성도 흔들릴 수밖에 없다"고 지적했다. 또 그는 "이 때문에 국가AI전략위원회와 같은 컨트롤타워 조직에는 보다 실질적인 권한과 연속성이 필요하다"며 "전문가 의견을 모으는 데서 그치지 않고, 부처 간 정책을 조정하고 실행으로 연결할 수 있도록 조직에 힘을 실어줘야 한다"고 강조했다.다만 이 부사장은 제도 개선의 필요성을 강조하는 것만으로는 AI 정책의 한계를 넘기 어렵다고 봤다. 정책이 실제 서비스와 산업 현장으로 이어지지 못하는 구조가 반복되고 있다고 판단해서다. 이에 디지털플랫폼정부위원회 AI플랫폼혁신국장을 맡았던 이 부사장은 지난 달 포티투마루로 자리를 옮겼다. 이곳에서 공공 정책 설계 경험을 바탕으로 공공·민간 영역에서 AI가 실제 서비스로 구현되고 확산되는 구조를 만드는 데 직접 기여할 것이란 각오다. 또 공공 AI 활용 사례를 통해 스타트업과 중소기업이 함께 성장할 수 있는 실증 모델을 만드는 데도 집중할 계획이다. 이 부사장은 "4년간 공공 영역에서 AI 정책을 다루며 나름대로 전문성을 쌓았다고 생각했지만, 실제 현장에서는 또 다른 병목이 존재하고 있다고 판단됐다"며 "AI 강국이 되려면 결국 국민이 체감해야 한다"고 지적했다.이어 "공공 영역에서 AI를 통해 일하는 방식 혁신을 통해 생산성을 높이고, 대국민 서비스의 속도와 품질을 개선하며 의료·복지 등 사회 문제 해결로 이어져야 가능한 일"이라며 "포티투마루를 통해 공공 AI가 실제로 작동하는 사례를 만들고, 스타트업과 중소기업이 함께 성장할 수 있는 구조를 현장에서 증명하고 싶다"고 덧붙였다. 그러면서 "국내 소프트웨어 산업은 여전히 공공이 큰 축을 차지하고 있는데, 공공 시장이 SI 중심 구조에 머물러 있다 보니 스타트업이 성장할 수 있는 발판이 제한적"이라며 "영국 등은 정부가 클라우드 기반으로 전환하면서 스타트업들이 공공 시장에 자연스럽게 진입했지만, 한국은 제도와 조달 구조가 이를 가로막고 있다"고 지적했다. 소버린 AI 등급체계 직접 개발…'국산 AI' 논쟁 끝낼까 지난 6일 소버린 AI 기준 논의를 위해 직접 평가 기준과 이를 판별할 도구를 개발해 허깅페이스에 공개한 것도 이 같은 문제에 대한 고민에서 출발했다. 그는 소버린 AI 등급 체계인 'T-클래스 2.0'을 깃허브와 허깅페이스에 공개하며 막연한 '국산 AI' 구호로는 기술 주권을 설명할 수 없다는 점을 분명히 했다. 이 부사장이 제안한 'T-클래스 2.0'은 기존 논의와 달리 '설계(Code)', '지능(Weights)', '기원(Data)' 등 세 가지 실체적 기준을 중심으로 AI 모델을 T0부터 T6까지 7단계로 구분한다. ▲단순 API 호출 및 미세조정 수준(T0~T1) ▲오픈 웨이트를 활용한 과도기 모델(T2~T3) ▲소버린 AI의 기준점이 되는 아키텍처를 참조하되 가중치를 처음부터 자체 학습한 T4 ▲독자 설계 아키텍처와 한국어 토크나이저를 갖춘 T5 ▲국산 반도체·클라우드까지 결합한 T6 등으로 분류됐다. 이 중 T4를 T4-1과 T4-2로 세분화한 것이 기존 버전과의 차별점이다. T4-1은 표준 아키텍처를 그대로 유지한 채 가중치를 처음부터 학습한 모델이다. 데이터 주권은 확보했지만, 구조적 독창성은 제한적인 단계다. 반면 T4-2는 기존 아키텍처를 참고하되 레이어 구성, 파라미터 규모, 연산 구조 등을 최적화·확장한 모델로, 글로벌 표준을 활용하면서도 기술 주권까지 일정 수준 확보한 단계로 분류된다. 이 부사장은 "T4-1이 '데이터 소버린' 단계라면, T4-2는 '기술 소버린'에 한 발 더 다가간 모델"이라며 "현재 국내 독자 AI 파운데이션 모델로 선정된 팀 대부분은 모두 T4-2 영역에 해당하는 질적 변형을 수행했다는 점에서 충분히 평가받아야 한다"고 말했다. 이어 "아키텍처는 이미 범용 기술이 됐지만, 가중치는 국가가 소유해야 할 자산"이라며 "T4는 아키텍처라는 그릇을 빌리더라도 데이터와 연산, 결과 지능을 우리가 통제하는 실질적 소버린 모델"이라고 덧붙였다. 일각에서 독자 아키텍처(T5)까지 가야 진짜 소버린으로 인정할 수 있다는 주장에 대해선 "현실을 외면한 기술적 순혈주의"라고 선을 그었다. 또 수백억원을 들여 아키텍처를 처음부터 다시 만들어도 글로벌 표준 모델 대비 성능 우위를 확보하기는 쉽지 않다는 점도 분명히 했다. 이 부사장은 "대다수 기업에게는 아키텍처 재발명보다 고품질 데이터와 학습 인프라에 집중하는 것이 더 합리적인 전략"이라며 "T4는 산업의 허리를 튼튼하게 만드는 표준 전략이고, T5는 국가 안보와 기술 패권을 겨냥한 리더십 전략으로 두 트랙이 함께 가야 생태계가 건강해진다"고 강조했다. 이 기준을 구현한 '소버린 AI 판별 도구(Sovereign AI T-Class evaluator 2.0)'를 직접 개발해 공개한 이유에 대해서도 그는 투명성을 거듭 강조했다. 이 부사장은 "AI 개발은 참조와 변형의 경계가 매우 모호한 회색지대"라며 "명확한 가이드 없이 결과만 놓고 개발자를 비난하는 것은 부당하다"고 말했다. 그러면서 "기준이 없으니 불필요한 논쟁과 감정 싸움만 커진다"며 "누구나 같은 잣대로 설명할 수 있는 최소한의 공통 기준이 필요하다고 판단했다"고 덧붙였다. 실제로 해당 기준 공개 이후 업계에서는 "왜 이제야 이런 기준이 나왔느냐", "사실상 표준으로 삼을 만하다"는 반응이 이어지고 있다. 또 정부에서 이 부사장이 만든 'T-클래스 2.0'을 바탕으로 독자 AI 파운데이션 모델의 평가 기준이 구체적으로 만들어져 심사 투명성을 높여야 한다는 지적도 나왔다. 이 같은 분위기 속에 이 부사장은 독자 AI 논의가 현재 단계에만 머물러서도 안 된다고 지적했다. 또 현재의 혼란이 단기적인 사업 논쟁이 아니라 AI를 국가 전략 차원에서 어떻게 바라볼 것인가에 대한 더 큰 질문으로 이어지고 있다고 봤다. 그는 "독파모가 보여주기식 경쟁이나 단기 성과에 머물면, 월드모델·디지털 트윈·피지컬 AI로 이어지는 다음 스테이지를 놓칠 수 있다"며 "국가 R&D는 지금보다 한 단계 앞을 내다보는 구조여야 한다"고 강조했다. AGI 시대, 5년 내 현실화…AI 국가 전략, 체계적 마련 필요 이 부사장은 AI 경쟁의 종착점을 단기적인 모델 성능 비교에 두는 것 자체가 위험하다고도 경고했다. 그는 AGI(범용인공지능)가 5년 안에 현실화될 가능성이 높다고 전망하며 그 이후를 대비하지 않는 전략은 국가 차원에서도 지속 가능하지 않다고 지적했다. 그는 "AGI는 단순히 모델이 더 똑똑해지는 문제가 아니라 기억 구조와 추론 방식이 인간의 뇌를 닮아가는 단계"라며 "지금 구글이 시도하고 있는 중첩학습처럼 단기·중기·장기 기억을 분리·결합하는 구조는 거대언어모델(LLM) 이후를 준비하는 명확한 신호"라고 말했다. 그러면서 "글로벌 빅테크들은 이미 다음 스테이지를 보고 있다"며 "하지만 우리는 아직 현재 모델이 프롬 스크래치냐 아니냐에만 머물러 있는 건 아닌지 돌아봐야 한다"고 덧붙였다. 이 부사장은 AGI와 ASI(초지능)를 막연한 공포의 대상으로 보는 시각에도 선을 그었다. 그는 "인류는 오래전부터 인간을 능가하는 지능이 등장해 우리가 해결하지 못한 문제를 풀어주길 기대해왔다"며 "중요한 것은 AGI·ASI 자체가 아니라 그것을 어떤 문제 해결을 위해 어떻게 통제하고 활용할 것인가에 대한 고민"이라고 봤다. 이어 "AI를 두려워하기보다 인류 난제 해결이라는 방향성 속에서 통제권을 쥐는 것이 국가 전략의 핵심"이라고 강조했다. 이 부사장은 이 같은 고민을 담아 다음 달께 'AI 네이티브 국가'를 출간할 계획이다. 이 책에는 모델 개발을 넘어 지정학, 경제, 복지, 산업 구조 전반에서 AI가 국가 경쟁력을 어떻게 재편하는지에 대한 고민을 고스란히 담았다. 또 메모리 반도체, 제조 데이터, 클라우드 인프라를 동시에 보유한 한국의 구조적 강점을 짚으며 AI 시대에 한국이 '풀스택 국가'로 도약할 수 있는 전략도 함께 제시할 계획이다. 그는 "국내 AI 논의가 기술 우열이나 모델 성능에만 매몰돼 있는 흐름을 벗어나고 싶었다"며 "같은 기술이라도 국가가 어떤 전략을 취하느냐에 따라 결과는 전혀 달라질 수 있다는 점을 책을 통해 정리하고 싶었다"고 설명했다.마지막으로 그는 "AI를 둘러싼 지금의 혼란은 누군가가 틀렸기 때문이 아니라 기준과 구조가 없었기 때문"이라며 "논쟁을 줄이고 경쟁을 건강하게 만들 수 있는 최소한의 합의점을 만드는 데 앞으로도 계속 목소리를 낼 것"이라고 피력했다.

2026.01.08 10:10장유미 기자

  Prev 1 2 3 4 5 6 7 8 9 Next  

지금 뜨는 기사

이시각 헤드라인

[비욘드IT] 초창기 챗GPT 닮은 '몰트북', AI 진화의 필연적 진통인가

[AI는 지금] 오픈소스AI, 미·중 패권경쟁 흔든다…"韓, 전략적 활용 시급"

"자율주행차 맞아?"...웨이모, '문 닫는 알바' 쓴다

블록체인 지갑 만드는 토스…디지털자산 담는 '슈퍼앱' 구상

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.