• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스 모델'통합검색 결과 입니다. (12건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈소스 활용한 딥시크, 어떻게 독자모델 인정받았나

현재 정부가 추진 중인 '독자적 파운데이션 모델(이하 독파모)' 선정 과정에서 오픈소스를 활용한 기업 독자 모델 인정여부를 두고 잡음이 일고 있다. 사용한 오픈소스가 더이상 지원하지 않거나 라이선스를 변경할 경우 독자 모델로서 존립하기 어렵다는 지적 때문이다. 하지만 지난해 초 중국 인공지능(AI) 스타트업 '딥시크(DeepSeek)'가 내놓은 AI 모델 R1과 비교하면 상황이 묘하다. 적은 비용으로 미국 빅테크들과 견줄 수 있는 성능을 낸 AI는 오픈소스 모듈을 적극적으로 차용해 개발됐지만 자체 AI모델로 인정받고 있다. 똑같이 외부 기술을 빌려 썼는데 딥시크는 독자 기술로 주목받고 국내 기업은 무늬만 독자라는 비판을 받고 있는 셈이다. 이에 대해 업계 전문가들은 양측의 가장 큰 차이로 기업이 가진 철학과 이를 구현하는 차별화를 꼽았다. 딥시크부터 구글까지...오픈소스 활용하는 글로벌 AI 딥시크의 기술 보고서에 따르면 R1을 비롯한 모델 라인업 개발 과정에서 주요 기능 구현에 경쟁사 모듈이 대거 사용됐다. 멀티모달 모델은 이미지를 인식하는 비전 인코더로 구글에서 개발한 모델을 도입했다. 딥시크-VL은 SigLIP-L, SAM-B를 하이브리드 비전 인코더로 썼고 야뉴스는 SigLIP-L을 비전 인코더로 채택했다 학습 과정도 마찬가지다. 딥시크는 모델 학습 속도를 극한으로 끌어올리기 위해 경쟁사인 오픈AI가 개발해 공개한 GPU 프로그래밍 언어 '트라이톤(Triton)'을 추론 및 커널 최적화 코드에서 활용했다. 학습 가속을 위해서는 스탠포드 대학 연구진이 개발한 플래시 어텐션 모듈을 차용했다. 이런 모듈 활용은 딥시크에 국한된 이야기가 아니다. 현재 오픈형 LLM 표준으로 불리는 메타의 라마 시리즈는 문맥 순서를 파악하는 위치 임베딩에 중국 AI 기업 쥬이이테크놀로지가 개발한 회전위치임베딩(RoPE) 모듈을 사용한다. 활성화 함수 역시 구글이 제안한 'SwiGLU' 방식을 채택했다. 구글 제미나이 역시 학습 효율을 위해 딥시크처럼 외부에서 개발한 플래시 어텐션 기술을 내부 인프라에 통합해 사용 중이다. 임정환 모티프 대표는 "자동차를 만들 때 타이어나 와이퍼를 전문 업체 부품으로 썼다고 해서 그 차를 독자 개발이 아니라고 하지 않는다"며 "인코더나 가속 라이브러리 같은 '부품을 외부에서 가져오는 방은 효율성을 위한 합리적인 선택"이라고 설명했다. 강화학습·MoE로 효율 혁신...딥시크, 기술로 증명한 독자 가치 다양한 오픈소스를 활용했음에도 딥시크가 독자 모델로 평가받는 이유는 그 동안 없었던 기술적 시도를 통해 새로운 가치를 증명했기 때문이다. 당시 중국은 미국 반도체 제재로 인해 최신 엔비디아 GPU를 구하기 어려운 상황에 처했다. 딥시크는 제한된 인프라 안에서 어떻게 하면 미국 빅테크와 대등한 성능을 낼 수 있을까라는 과제를 안고 있었다. 이를 해결하기 위해 도입한 방법이 강화학습이었다. 당시 업계는 강화학습을 챗봇 말투를 교정하는 용도(RLHF)로 제한해 활용했다. 추론 능력을 높이는 데는 효율이 떨어진다고 여겨 잘 시도하지 않았다. 하지만 딥시크는 "강화학습을 통해 AI가 스스로 생각하는 과정을 훈련시키면 적은 데이터와 파라미터로도 추론 능력을 극대화할 수 있다"는 독자적인 가설을 세웠다. 그리고 이를 기술적으로 구현해 냄으로써 단순히 데이터를 많이 쏟아붓는 방식이 아닌 새로운 '지능 향상의 길'을 열었다. 기존 오픈소스 모델을 가져와 데이터만 주입하던 방식과는 차원이 다른 접근이었다. 또 다른 혁신은 아키텍처 효율화에 있다. 이들이 채택한 '전문가 혼합(MoE)' 모델은 거대 AI를 각 분야에 최적화된 여러 개 '작은 전문가 모델'로 나눈 뒤 질문에 따라 필요한 모델만 불러와 처리함으로써 효율을 극대화하는 기술이다. 1991년 처음 제안된 후 구글이 '스위치 트랜스포머(Switch Transformer)' 등을 통해 발전시킨 개념이다. 딥시크는 기존 MoE 보다 전문가 모델을 더 세분화하고 어떤 질문이든 공통적으로 필요한 지식을 다루는 일부 모델은 항상 대기시키는 방식을 더해 딥시크MoE라는 독자적인 변형 아키텍처로 발전시켰다. 기존에 존재하던 기술을 재설계해 경쟁사 모델 대비 메모리 사용량과 연산 비용을 획기적으로 줄이는 데 성공했다. 결과적으로 적은 자원으로도 고성능을 낼 수 있음을 증명했다. 유명호 스누아이랩 대표는 "오픈소스를 활용하는 것보다 중요한 건 오픈소스를 그대로 가져다 쓰는지 아니면 거기에 독창적인 아이디어와 방법론을 결합해 새로운 가치를 만들어내느냐 차이"라고 지적했다. 이어 "학계에서도 기존 모델에 새로운 엔진이나 방법론을 접목해 성능을 개선하면 새로운 이론으로 인정한다"며 "단순히 오픈소스를 썼냐 아니냐를 따질 게 아니라 기업에서 제시한 새로운 이론이나 기술이 얼마나 적용되었는가를 따지는 심사 기준이 필요하다"고 말했다. 한국어만 잘하는 AI는 넘어...차별화된 혁신성 제시해야 업계 전문가들은 이번 논란을 계기로 한국 AI 산업이 '독자 AI'라는 단어의 함정에서 빠져나와야 한다고 지적한다. 단순히 부품 국산화율을 따지는 제조업식 사고방식으로는 AI 기술 패권 경쟁 본질을 놓칠 수 있다. 유명호 대표는 "비전 인코더는 데이터 구축도 어렵고 개발 난도가 매우 높다"며 "우리도 자체 개발하는 데만 2~3년이 걸렸다"며 단시간에 AI 관련 모든 인프라를 구축하는 것은 한계가 있다고 지적했다. 현재 글로벌 시장은 AI 관련 모든 요소를 자체적으로 만들었는지 보다 특정 분야라도 얼마나 독창적이고 차별화된 아키텍처를 만들었는지, 그 결과 비용 효율성이나 특정 기술 특화 등 차별화 포인트가 무엇인지를 묻고 있다. 딥시크가 인정받는 이유도 이 지점이다. 더불어 압도적인 자본과 인력을 쏟아붓는 미국과 중국을 단순히 추격하는 방식으로는 승산이 없다는 지적이다. 특히 글로벌 시장에서 경쟁하기 위한 AI 모델을 목표로 하는 만큼 한국어 인식률이 높다는 포인트만으로는 차별화 포인트를 제시할 수 없다는 것이 업계 반응이다. 임정환 대표는 "정부와 시장이 벤치마크 점수 1등이라는 타이틀에만 집착하면 기업은 결국 검증된 오픈소스 모델을 가져와 점수만 올리는 '안전한 길'만 택하게 된다"고 경고했다. 단기적으로는 가시적인 성과처럼 보일지 몰라도 장기적으로는 원천 기술 부재로 인한 글로벌 기술 종속을 심화시키는 결과를 초래할 수 있다는 지적이다. 이를 방지하고 한국 AI 산업이 딥시크와 같은 반열에 오르기 위해서는 '보여주기식 성과'에 집착하는 현재 평가 체계를 개선해야 한다는 요구도 제기되고 있다. 임 대표는 "진정한 국가대표 AI라면 단순히 한국어를 잘하는 AI를 넘어 글로벌 시장에 내세울 수 있는 특화된 장점과 경쟁력이 있어야 한다"며 "설령 당장은 점수가 낮거나 실패하더라도 맨땅에 헤딩하며 독자적인 가설을 세우고 원천 기술을 확보하려는 기업에게 더 많은 기회와 지원을 제공해야 한다"고 제언했다

2026.01.13 14:03남혁우 기자

"개방적이고 안전한 AI 만들자"…오픈소스데이 성료

개인정보 관련 최대 감독기구 협의체인 GPA(Global Privacy Assembly)의 제47회차 총회(GPA Seoul)가 16일 개막하는 가운데 하루 앞선 15일 '오픈소스 데이'가 개최됐다. 개인정보보호위원회(위원장 고학수, 개보위)는 15일 서울 용산구에 위치한 그랜드 하얏트 서울에서 오후 1시 GPA 총회 첫 공식 부대행사로 '오픈소스 데이'를 주최했다. '오픈소스 데이'는 ▲구글 ▲마이크로소프트 ▲오픈AI ▲네이버 ▲메타 ▲다투모 등 글로벌 인공지능(AI) 기업들이 자사 오픈소스 AI 모델 및 솔루션 최신 동향과 적용 전략을 소개하는 행사로 마련됐다. 각 글로벌 기업들이 국내 AI 기업과 협력해 오픈소스 모델을 적용한 구체적인 프로젝트 사례와 도입 과정에서의 기술·사업적 인사이트를 공유하는 식으로 진행됐다. 이날 현장에는 각 글로벌 기업 관계자들과 국내 AI 기업·연구자, 그리고 해외 감독기구 등 120여명이 참석했다. 우선 각 기업별 패널 발표에서 구글클라우드 김지혁 AI 스페셜리스트는 오픈 거대언어모델(LLM)에 대한 서빙 기술에 대해 소개했다. 오픈 소스 모델 운영을 위한 자사 플랫폼 '버텍스 AI'를 소개하면서 LLM 품질 평가 도구와 프롬프트 최적화 기능, 안전성 강화 도구 등 신뢰성·안전성 확보를 위한 도구 활용 방안에 대해 발표했다. 그는 "제미나이 등과 같은 파운데이션 모델에 대해 많은 효과를 본 기업들이 좀 더 민감한 데이터나 보안 사항이 높은 환경에 기반해 직접 LLM 시스템을 구축하고자 하는 니즈가 늘고 있다"며 "하지만 직접 구축하는 것보다 파운데이션 모델을 쓰는 것이 더 저렴하다. LLM 서빙의 핵심은 비용 효율화"라고 강조했다. 메타를 대표해 발표에 나선 에임(AIM)인텔리전스 공동 창립자인 김하늘 최고재무책임자(CFO)는 고객 대상 AI 서비스 운영 및 사내 업무용 AI 모델 활용 과정에서 기업들이 현장에서 직면하는 다양한 안전성 및 정보 보안 과제를 실제 경험과 함께 공유했다. 마이크로소프트 곽필주 매니저는 마이크로소프트의 AI 및 오픈소스 생태계에 대해 소개했다. 마이크로소프트 플랫폼인 'Azure AI Foundry'를 기반으로 에이전트 AI를 구축한 고객사 사례를 제시했다. 또 차세대 패러다임으로 주목받고 있는 에이전트 AI 구축을 위한 오픈소스 모델 및 도구 활용 가능성에 대해 소개했다. 네이버클라우드 정주환 이사는 오픈소스 모델 'HyperClovaX'를 설명했다. 공개 데이터셋과 벤치마크, AI 안전성 프레임워크 등 안전한 오픈소스 활용을 위한 도구를 소개했다. 정 이사는 "네이버클라우드는 국가 정책인 독자 AI 파운데이션 모델 사업에 참여하고 있다. 이에, 한국의 5가지 대표 AI 모델로 선정됐으며, 정부 지원 사업이라 오픈소스 형태로 공개하는 것을 목표로 하고 있다"며 "글로벌 모델보다는 부족한 부분이 있을 수 있겠지만, 그럼에도 전체적인 소버린 AI를 확대하고자 여러가지 연구들을 하고 있다"고 한국의 AI 생태계에 대한 관심을 당부했다. 오픈AI 측에서는 라파엘라 니콜라찌(Rafaela Nicolazzi) 오픈AI 데이터 및 프라이버시 글로벌 총괄 책임자가 발표에 나섰다. 그는 새롭게 공개한 자사 오픈소스 모델(gpt-oss-20b/120b)을 소개하며, 오픈소스 모델이 지니는 경제·사회적 가치와 더불어 안전성에 대한 우려와 책임성, 글로벌 차원의 논의 필요성 등 오픈소스 확산 과정에서 직면하는 과제를 함께 제기했다. 한편 최장혁 개보위 부위원장은 이날 현장에서 축사를 통해 "오픈소스를 가져다 사용할 때에는 보안적인 측면에서 굉장히 주의를 들여야 한다는 측면이 있다"며 "AI의 개발 측면 AI 발전을 위한 보안 측면에서 우리가 모두 협력해 AI가 잘 발전되면서도 오픈소스에 대한 보안 공백이 생기면 안 된다"고 당부했다. 이어 한국CPO협의회가 작년 8월 출범한 이후 지금까지 1년여의 짧은 기간에도 불구하고 정책당국과 CPO 간 정책소통을 위한 공식창구로 활발하게 활동해 온 점에 대해 매우 고무적이라고 생각한다고 격려하면서 "AI 기술은 급속한 발전과 함께 사회 전반으로 빠르게 확산하고 있으며, AI 혁신의 핵심원천으로서 데이터, 특히 개인정보의 안전한 처리와 보호에 대한 관심도 더욱 높아지고 있다. 또 최근 대규모 개인정보 유출사고가 지속 발생함에 따라 불안감이 커지는 상황에서 국민이 안심할 수 있는 신뢰 기반의 데이터 거버넌스 조성을 위한 CPO의 역할은 막중해지고 있다"고 짚었다. 이어 국내 주요 기업·기관의 CPO들이 AI 혁신과 프라이버시의 선순환 생태계를 조성하기 위한 공동선언문을 발표하고 CPO 중심의 AI 프라이버시 거버넌스 확립에 대한 실천의지를 다짐하는 오늘 이 자리가 매우 뜻깊다면서 "그동안 기관이나 기업에서 CPO의 역할을 IT 영역으로만 한정해 구성·운영함에 따라 조직 내 핵심 인프라 전반에 대한 CPO의 관리·감독 권한이 부실하다는 지적과 한계가 있어 왔다"면서 "이를 극복하기 위해서는 기업 최고경영자(CEO)의 책임을 강화하여 개인정보 보호가 비용이 아니라, 전략적 투자이자 기본적 책무라는 인식을 확립하고 CPO 중심의 적극적·선제적 내부통제 체계를 정착시켜 나갈 필요가 있다"고 밝혔다. 개인정보위는 CPO 권한과 역할을 강화하기 위한 제도 개선방안을 모색하고 있으며, 일선 현장에서 개인정보 보호 정책 발전을 위해 애써오신 CPO들의 권익 향상을 위해 한국CPO협의회의 활동도 다방면으로 적극 지원해 나갈 것이라면서 "오늘 이 자리가 프라이버시 보호와 AI 혁신의 선순환 생태계 조성으로 신뢰와 책임 기반의 AI시대를 견인하는 데 CPO가 주도적 역할을 해 나가는 전환점이 되기를 바란다"고 말했다. 김휘강 개인정보보호위원회 위원은 "오늘날 인공지능 발전을 이끄는 데에는 오픈소스 생태계 역할이 중요하다"며 "이같은 개방 공유 문화가 최신 기술을 확산시키고, 다양한 산업과 사회 전반에 혁신을 가속화하는 원동력이 된다. 하지만 동시에 개발성은 개인정보 보호 측면에서 새로운 피해를 안겨주기도하는 만큼 오늘 행사를 통해 개방적이면서도 신뢰할 수 있는 AI 발전을 함께 모색하는 의미 있는 출발점이 되기를 기대한다"고 말했다. 한편 이날 한국 개보위를 비롯한 영국, 이탈리아, 브라질 등 4개국 개인정보 감독기구가 패널로 참석한 라운드테이블도 진행됐다. 사회와 진행은 구민주 개인정보위 AI프라이버시 팀장이 맡았다. 4개국 개인정보 감독기구는 오픈소스 AI 생태계에서의 프라이버시 고려사항에 대해 논의하고, 개방성과 투명성에 기반한 신뢰할 수 있는 AI 구현 필요성에 공감대를 모았다. 특히, 향후 자율성에 기반한 에이전틱(Agentic) AI 시대가 도래할 것이라는 전망 속에서, 안전한 AI 생태계를 구축하기 위한 국제적 차원의 지속적 논의와 협력 필요성에 뜻을 모았다.

2025.09.15 16:14김기찬 기자

개방형 AI 모델도 급이 있다…'오픈소스'와 '오픈웨이트' 차이는?

인공지능(AI) 기업들이 잇따라 개방형 AI 모델을 공개하는 가운데 '오픈소스'와 '오픈웨이트' 개념 구분이 모호해지면서 혼란이 커질 수 있다는 우려가 나왔다. 6일 IT 업계에 따르면 공개 범위나 활용 가능성에서 오픈소스와 오픈웨이트 모델은 큰 차이를 보임에도 개발사 사이에선 이를 모두 오픈소스로 홍보하고 있다는 지적이 나오고 있다. 우선 오픈소스는 모델의 구조를 비롯한 학습 코드, 데이터셋 정보, 파라미터 등 전 요소를 투명하게 공개하는 방식이다. 사용자는 모델 작동 원리를 분석하고 수정할 수 있다. 모델을 아예 처음부터 다시 학습시킬 수도 있다. 대표적인 오픈소스 모델은 프랑스 미스트랄AI의 '미스트랄', GPT-3의 오픈소스 버전 'GPT-J' 등이다. 오픈웨이트는 말 그대로 학습 가중치만 외부에 제공하는 식이다. 제한적 공개 모델이라고 부르기도 한다. 공개 범위에 모델의 설계 코드나 학습 데이터는 포함되지 않는다. 사용자는 모델 파인튜닝이나 추론은 가능하지만 구조 변경이나 재학습을 할 수 없다. 메타의 '라마' 시리즈, 중국 제트에이아이(Z.ai)의 'GLM-4.5'는 모델이 대표적이다. 개방형 모델을 모두 오픈소스로 명칭할 경우 심각한 문제가 발생할 수 있다는 지적이 나오고 있다. 사용자가 오픈웨이트를 오픈소스로 오인하고 모델 구조 변경이나 재학습을 시도할 수 있어서다. 이럴 경우 코드와 데이터가 없어 프로젝트 전체가 중단될 수 있다. 파인튜닝만 가능한 오픈웨이트 모델 기반으로 개발을 기획하는 것은 일정·예산 낭비로 이어질 수 있다. 또 오픈웨이트 모델 중 다수는 상업적 이용을 제한하거나 별도 계약을 요구하는 라이선스를 포함한다. 이를 인지하지 못하고 상업 서비스에 통합할 경우, 라이선스 위반 소송이나 손해배상 문제가 발생할 수 있다. AI 모델의 공공성, 책임성 평가에 있어서도 두 모델 차이는 크다. 업계 관계자는 "보통 오픈소스 모델은 학습 데이터와 알고리즘을 검토할 수 있어 편향성과 투명성 문제에 대한 검증이 가능하지만, 오픈웨이트 모델은 내부 구조가 불분명해 윤리적 책임소재를 따지기 어렵고, AI 거버넌스 기준을 충족하지 못할 수 있다"고 지적했다. 또 다른 업계 관계자는 "오픈소스 모델로 기대하고 프로젝트에 참여했지만, 실상 오픈웨이트였던 경우가 있다"며 "이를 커뮤니티 사이에선 '가짜 오픈소스'라고 부르기도 한다"고 설명했다. 이어 "이는 모델을 만든 기업 신뢰도 하락까지 이어질 수 있을 것"이라고 덧붙였다. 그러면서 "오픈소스와 오픈웨이트는 공개 범위와 활용 가능성, 법적 조건이 전혀 다르다"며 "개발사는 학계와 산업계가 이를 처음부터 정확히 인지할 수 있도록 책임감 있는 안내를 진행해야 할 것"이라고 강조했다.

2025.08.07 09:28김미정 기자

中, 에이전틱 AI 시대 '가성비'로 승부수

중국이 며칠 새 오픈소스 인공지능(AI) 모델을 줄줄이 출시하면서 글로벌 AI 영향력 확대에 나섰다. 특히 저비용 '에이전틱 AI' 모델을 앞세워 기술 주도권 확보에 속도를 내고 있다. 29일 CNBC 등 외신에 따르면 중국 AI 스타트업 지에이아이(Z.ai)는 신형 AI 모델 'GLM-4.5'를 공개했다. 이 모델은 오픈소스 형태며 무료로 다운 가능하다. Z.ai는 GLM-4.5가 딥시크 모델 절반 크기며, 운영 비용도 더 낮다고 주장했다. 장펑 Z.ai 최고경영자(CEO)는 "GLM-4.5를 구동하는 데 엔비디아 H20 칩 8개면 충분하다"고 밝혔다. H20 칩은 미국 수출 규제에 맞춰 중국용으로 제작된 제품이다. 이달 초 미국 정부가 해당 칩의 중국 판매를 재개하겠다고 발표한 바 있다. 실제 출하 시점은 미정이다. Z.ai는 GLM-4.5가 기존 모델과 달리 '에이전틱 AI' 구조를 적용한 것이 특장점이라고 강조했다. 모델이 스스로 작업을 낱개로 분해해 정밀하게 처리하는 식이다. 이를 통해 모델 정확도를 높이고 활용 비용까지 낮출 수 있다는 설명이다. GLM-4.5 요금제는 입력 토큰 100만 개당 11센트, 출력 토큰 100만 개당 28센트다. 이는 딥시크 모델 R1의 입력 14센트, 출력 2.19달러보다 저렴한 수준이다. GLM-4.5 모델 학습 비용은 공개되지 않았다. Z.ai는 2019년 설립돼 중국에서 기업공개(IPO)를 준비 중인 것으로 알려졌다. 현재 알리바바를 비롯한 텐센트, 치밍벤처파트너스 등으로부터 15억 달러(약 2조800억원) 이상 투자받았다. 이 외에도 아람코가 지원하는 프로스페리티7 벤처스, 항저우와 청두 지방정부 펀드도 투자에 참여한 것으로 전해졌다. 앞서 Z.ai는 최근 미국 정부 견제 대상에 오른 바 있다. 6월 말 오픈AI가 중국 AI 기술이 미국 안보에 위협이 될 수 있다며 Z.ai의 전신인 지푸를 지목했다. 이어 미국 상무부는 Z.ai를 수출 통제 대상인 '엔터티 리스트'에 포함했다. 이에 미국 기업은 별도 허가 없이 Z.ai와 기술이나 제품을 거래할 수 없다. 외신들은 미국 제재에도 불구하고 딥시크 열풍이 중국에서 다시 불 것이라고 예측했다. 테크크런치는 "중국은 에이전틱 AI 시장에서도 기존 모델보다 더 똑똑하고 저렴한 모델로 승부 볼 것"이라고 내다봤다. 실제 중국에서 며칠 새 오픈소스 AI 모델 출시가 줄줄이 이어지고 있는 상황이다. 이달 초 알리바바가 지원하는 문샷은 키미 K2를 선보이며 챗GPT와 클로드보다 뛰어난 코딩 성능을 내세웠다. 키미 K2는 출력 기준으로 GLM보다 비싼 2.50달러의 요금을 부과하고 있다. 지난주 중국서 개최된 세계AI대회에서는 텐센트가 게임 개발용 3차원 장면 생성 모델 '훈위안월드 1.0'을 발표했다. 알리바바도 코드 작성용 모델 '큐원3-코더'를 새로 공개했다. 블룸버그는 "중국 AI 기업들은 가격 경쟁력까지 무기로 삼고 있다"며 "자국 내 생태계 중심으로 글로벌 영향력까지 확대하고 있다"고 분석했다.

2025.07.29 11:01김미정 기자

카카오, 경량 멀티모달·MOE 오픈소스 공개

카카오(대표 정신아)는 국내 공개 모델 중 최고 성능의 경량 멀티모달 언어모델과 혼합 전문가(MoE) 모델을 국내 최초 오픈소스로 공개한다고 24일 밝혔다 카카오는 허깅페이스를 통해 이미지 정보 이해 및 지시 이행 능력을 갖춘 경량 멀티모달 언어모델 '카나나(Kanana)-1.5-v-3b'와 MoE 언어모델 '카나나-1.5-15.7b-a3b'를 오픈소스로 선보였다. 지난 5월 공개한 언어모델 카나나-1.5 4종에 이어 두 달 만에 추가 모델을 오픈소스로 공개한 것이다. 정부가 추진하는 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참여한 카카오는 이러한 자체 모델 개발 역량 및 카카오톡 등의 대규모 서비스 운영 경험 등을 토대로 전 국민의 AI 접근성을 높이고 국가 AI 경쟁력을 강화하는데 기여한다는 방침이다. 이날 공개된 '카나나-1.5-v-3b'는 텍스트 뿐만 아니라 이미지 정보도 처리할 수 있는 멀티모달 언어모델로, 지난 5월 말 오픈소스로 공개한 카나나 1.5 모델을 기반으로 하고 있다. 카나나 1.5는 모델 개발의 처음부터 마지막 단계까지 카카오의 자체 기술을 바탕으로 구축하는 '프롬 스크래치' 방식으로 개발됐다. 멀티모달 언어모델인 '카나나-1.5-v-3b'는 이용자의 질문 의도를 정확히 이해하는 높은 지시 이행 성능과 뛰어난 한국어·영어 이미지 이해 능력을 보유했다고 회사 측은 설명했다. 또한, 한국어 벤치마크에서 유사 사이즈의 국내외 공개 모델과 비교한 결과 최고 점수를 기록했고 다양한 영어 벤치마크에서 해외 오픈소스 공개모델과 비교했을 때도 유사한 수준의 성능을 보인 것으로 알려졌다. 지시 이행 능력 벤치마크에서는 국내 공개된 유사한 규모의 멀티모달 언어모델 대비 128% 수준의 성능을 기록했다. 카카오는 인간 선호 반영 학습과 지식 증류를 통해 '카나나-1.5-v-3b'의 성능을 극대화했다. 지식 증류는 고성능의 대형 모델로부터 비교적 작은 모델을 학습하는 방식이다. 단순한 정답 뿐 아니라 대형 모델의 예측 확률 분포까지 학습에 반영함으로써 작은 모델이 더 정교하고 일반화된 예측 능력을 갖추도록 돕는 기술이다. 이를 통해 상대적으로 경량화된 모델 구조임에도 정확도나 언어 이해 등의 능력에서 대형 모델의 높은 성능에 근접하거나 이를 뛰어 넘을 수 있는 능력을 발휘하도록 돕는다. '카나나-1.5-v-3b'는 경량 멀티모달 언어모델의 강점을 토대로 ▲이미지 및 글자 인식 ▲동화 및 시 창작 ▲국내 문화유산 및 관광지 인식 ▲도표 이해 ▲수학 문제풀이 등 여러 분야에서 활용할 수 있다. 예를 들어, 장소 사진과 함께 이 사진이 촬영된 장소에 대해 간단히 설명해줘라고 질문하면 “이 사진은 서울 청계천을 배경으로 하고 있습니다”와 같이 국내 지역에 대한 인식력을 바탕으로 정확한 답변을 제공한다. 카카오는 모델의 성능에 집중하는 단계를 넘어 AI가 사람처럼 생각하고 행동할 수 있는 ▲멀티모달 이해 능력 ▲사용자 지시 수행 능력 ▲추론능력을 갖추도록 발전시키는 데 주력하고 있다. 하반기 중에는 에이전트형 AI 구현에 필수적인 추론 모델의 성과도 공개할 예정이다. 카카오는 일반적인 '밀집' 모델과 차별화되는 MoE 구조의 언어모델도 오픈소스로 함께 공개했다. 'MoE'는 입력 데이터 처리 시 모든 파라미터가 연산에 참여하는 기존 모델과 달리 특정 작업에 최적화된 일부 전문가 모델만 활성화되는 방식으로 효율적인 컴퓨팅 자원 활용과 비용 절감이 특징이다. MoE 아키텍처를 적용한 '카나나-1.5-15.7b-a3b'는 전체 15.7B의 파라미터 중 추론 시 약 3B 파라미터만 활성화돼 동작한다. 카카오는 모델의 학습 시간과 비용을 절약하기 위해 자사의 3B 규모의 모델 '카나나-Nano-1.5-3B'에 '업사이클링' 방식을 적용해 개발했다. 업사이클링은 기존 다층 신경망(MLP) 레이어를 복제해 여러 전문가 레이어로 변환하는 방식으로 모델을 처음부터 개발하는 방식에 비해 효율적이다. 활성화되는 파라미터가 3B에 불과하지만 성능은 '카나나-1.5-8B'와 동등하거나 상회하는 수준을 기록했다. 카카오의 MoE 모델은 고성능 AI 인프라를 저비용으로 구축하고자 하는 기업이나 연구 개발자들에게 실용적인 도움을 제공할 수 있다는 설명이다. 특히 추론 과정에서 제한된 파라미터만 사용하는 구조적 특성 덕분에 저비용, 고효율 서비스 구현에 유리하다. 카카오는 이번 경량 멀티모달 언어모델과 MoE 모델의 오픈소스 공개를 통해 AI 모델 생태계에 새로운 기준을 제시하고 더 많은 연구자와 개발자가 강력한 AI 기술을 자유롭게 활용할 수 있는 기반을 마련해 갈 계획이다. 뿐만 아니라 자체 기술 기반의 모델을 지속적으로 고도화하고 모델 스케일업을 통해 글로벌 플래그십 수준의 초거대 모델 개발에 도전함으로써 국내 AI 생태계의 자립성과 기술 경쟁력 강화에 기여할 계획이다. 김병학 카카오 카나나 성과리더는 “이번 오픈소스 공개는 비용 효율성과 성능이라는 유의미한 기술 개발의 성과를 거둔 것으로 단순한 모델 아키텍처의 진보를 넘어 서비스 적용과 기술 자립이라는 두 가지 측면의 목표에 부합하는 결과물”이라고 말했다.

2025.07.24 10:57박서린 기자

[유미's 픽] 국가대표 AI 선발, 오픈소스 비중·기술력·성능에 달렸다…新 모델 개발도 '관건'

이재명 정부의 핵심 국정 사업인 '글로벌 인공지능(AI) 강국' 꿈의 발판이 될 '국가대표 AI' 선정을 앞두고 사업 참여 의사를 밝힌 기업들이 잇따라 자체 개발한 추론 모델을 오픈소스로 개방하고 나섰다. 이번 정부 사업에선 '프롬 스크래치' 방식을 통한 기술력과 오픈소스 비중, AI 모델 성능이 당락을 좌우할 핵심 기준으로 지목되고 있다. 24일 업계에 따르면 지난 21일 마감된 '독자 AI 파운데이션 모델 개발 프로젝트'에는 총 15개 컨소시엄이 참여하는 것으로 집계됐다. 참가팀은 ▲네이버클라우드 ▲루닛 ▲모티프테크놀로지스 ▲바이오넥서스 ▲사이오닉에이아이 ▲업스테이지 ▲SK텔레콤 ▲NC AI ▲LG AI연구원 ▲정션메드 ▲카카오 ▲KT ▲코난테크놀로지 ▲파이온코퍼레이션 ▲한국과학기술원 등이다. 이 프로젝트는 글로벌 톱 수준의 국산 거대언어모델(LLM)을 만들겠다는 목표를 앞세워 추진하는 것으로, 정부에서 오는 2027년까지 약 2천136억원을 투입한다. 선발된 기업들은 정부로부터 그래픽처리장치(GPU)와 데이터, 전문 인력 등을 집중 지원받을 예정이다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 서면 평가는 이날부터 오는 26일까지 진행되며 총 10팀을 우선 선발한다. 서면 평가를 통과한 기업들은 이르면 26일, 늦어도 27일에 발표될 예정이다. PT 평가는 이달 30~31일에 진행되며 최종 사업자 발표는 8월 4~5일께 이뤄질 것으로 알려졌다. 심사위원 구성은 서면 평가가 7명 내외, PT 평가가 10명 내외인 것으로 전해졌다. 사업 초기에는 총 5개 기업이 우선 선발되며 이후 6개월 단위로 선별 축소할 예정이다. 성능·전략·파급효과 등을 기준으로 단계 평가를 거쳐 4개팀 → 3개팀 → 2개팀 식으로 줄여나갈 예정이다. 현재 업계에서 유력 후보로 보고 있는 곳은 네이버클라우드와 LG AI연구원, NC AI, 업스테이지 등으로 압축됐다. 또 해외 업체들과 활발한 협업에 나섰던 SK텔레콤, KT 등 통신사들은 정부가 이 프로젝트를 시작하며 대규모 자금 투입에 나서자 방향을 틀어 참여 의사를 밝힌 상태다. 중소·중견기업 중에선 코난테크놀로지도 사업자 선정에 대한 기대감을 높이고 있다. 카카오도 자체 개발한 LLM '카나나'를 앞세워 계열사의 다양한 서비스를 활용해 AI 모델 수요를 끌어 올릴 수 있다는 점을 경쟁력으로 내세운 것으로 전해졌다. 업계에선 기술 성숙도 측면에서 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준이 될 것으로 봤다. 외국 거대언어모델(LLM)을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 업계 관계자는 "정부가 '전국민 AI'에 쓸 AI 모델 수준을 현재 최고 수준으로 평가 받는 소타(SOTA·State-of-the-Art) 모델로 원하는 것으로 알고 있다"며 "이에 맞추기 위해선 '프롬 스크래치' 방식으로 300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 경험을 가지고 있어야 하는데, 여기에 맞는 기업이 손에 꼽힐 것으로 보여 유력 후보군이 상당히 압축될 수밖에 없다"고 봤다. 그러면서 "외국 AI 모델의 아키텍처를 재설계해 만든 모델임에도 최근 '프롬 스크래치' 방식이 주목 받기 시작하자 이를 마케팅으로 활용하는 기업들이 속속 나오고 있는 듯 하다"며 "해외 모델을 참고해 만들었음에도 '프롬 스크래치'라고 표현하는 것은 심사 위원뿐 아니라 업계 분위기를 흐리는 듯 해 '페이크 파운데이션 모델'로 분류하는 것도 필요해 보인다"고 지적했다. 업계에선 '프롬 스크래치' 방식을 그간 고집하며 대형 모델을 선보였던 네이버클라우드와 LG AI연구원, NC AI, KT가 이번 사업에서 다소 유리한 고지에 올랐다고 평가했다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 30B 이상의 대형 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발했다고 주장하고 있다. 반면 업스테이지는 메타 '라마', 마이크로소프트(MS) '파이' 등 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. SK텔레콤도 최근 '프롬 스크래치' 방식으로 만들었다고 강조하며 자체 LLM '에이닷엑스 3.1 라이트'를 공개했지만, 업스테이지와 동일하게 재설계된 모델인 것으로 알려졌다. 루닛과 컨소시엄을 구성한 트릴리온랩스가 지난 23일 공개한 자체 LLM '트리-21B'도 라마 등 해외 모델을 기반으로 한 것으로 업계에선 추정했다. 다만 회사 측은 '프롬 스크래치' 방식으로 그간 모델을 개발해왔던 만큼 이는 사실이 아니라는 입장이다. 정부는 일단 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건도 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 업계 관계자는 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 대부분 국내 스타트업들은 어느 한 곳도 선발전에 참여할 수 없을 것"이라며 "정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 새롭게 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 정부는 일단 독자 AI 모델 개발과 관련해 새로운 모델 개발 또는 기존 자체 모델을 고도화하는 방식을 모두 허용했다. 이 사업을 주도하고 있는 과학기술정보통신부는 어떤 방식이든 평가에 차등을 두지 않는다는 방침이다. 기존 자체 모델을 활용하는 곳은 LG AI연구원, KT가 대표적이다. 이들은 사업자로 선정됐을 시 기존에 선보였던 자체 LLM '엑사원', '믿:음'을 고도화 해 '전 국민 AI'로 활용하겠다는 계획을 밝혔다. 카카오도 자체 모델인 '카나나'를 활용해 모델 고도화 방향으로 전략을 짠 것으로 알려졌다. 반면 네이버클라우드, NC AI는 '전 국민 AI'에 맞춰 새로운 모델을 개발하는 것으로 방향을 잡았다. '프롬 스크래치' 방식으로 각각 '하이퍼클로바X', '바르코 LLM'을 개발해봤던 경험을 토대로 이미 기술력이 충분히 검증된 만큼, 한국에 특화된 LLM을 처음부터 새롭게 개발할 수 있다는 자신감을 내보이고 있다. SK텔레콤도 이달 들어 독자 구축 LLM인 '에이닷엑스'의 다양한 모델을 선보이고 있지만, 독자 AI 파운데이션 모델 사업자로 선정되면 새로운 모델 개발에 나설 것으로 파악됐다. 코난테크놀로지와 업스테이지 역시 새로운 모델을 개발한다는 계획이다. 이 같은 분위기 속에 일부 업체들은 자체 LLM을 오픈소스로 잇따라 공개하며 더 높은 점수를 받기 위해 고군분투하고 있다. 정부가 AI 모델 공개를 통해 국내 AI 생태계를 활성화시킬 수 있는지에 대한 여부도 주요 기준으로 삼고 있어서다. 네이버클라우드는 지난 22일 '하이퍼클로바 X 시드 14B 씽크'를 상업용으로 이용할 수 있는 무료 오픈소스를 공개했다. '하이퍼클로바 X 시드 14B 씽크'는 네이버의 독자 기술을 활용해 '프롬 스크래치'로 개발한 경량화 추론 모델로, 상용화된 해외 오픈소스 모델을 개조한 것이 아닌 원천기술로 추론 능력과 경량화 기술을 결합해 개발했다. 네이버클라우드는 추론모델을 연구용으로만 제한하지 않고 비즈니스에도 적용할 수 있게 이같은 결정을 내렸다. 다양한 산업 영역에서 만들어질 AI 에이전트의 기반 기술로 활용될 수 있게 함으로써 국내 AI 생태계를 한층 활성화시킬 것이란 방침이다. NC AI는 일찌감치 '바르코 LLM'을 학술적 용도뿐 아니라 상업적인 용도까지 활용할 수 있도록 오픈소스로 공개해왔다. 또 게임, 패션, 콘텐츠 등 다양한 산업군에서 실제 상용화된 AI 솔루션을 선보이고 있다는 점에서 이번 컨소시엄 구성에 국내 주요 대기업들이 대거 몰리기도 했다. 특히 오픈소스 모델 '바르코 비전 2.0'은 비전-언어 모델(VLM) 분야에서 최고 성능인 '소타'로 인정받아 눈길을 끌었다. LG AI연구원은 지난 해 8월 국내 최초로 연구용 오픈소스 모델인 '엑사원 3.0'을 공개했다. 같은 해 12월 공개한 '엑사원 3.5'는 국내 AI 모델 중 유일하게 스탠퍼드대에서 발간하는 AI 보고서에 포함돼 주목 받았다. 다만 최근 공개된 '엑사원 4.0'은 글로벌 오픈소스 AI 플랫폼 '허깅페이스'에 오픈웨이트(가중치 공개) 모델로만 공개했다. 또 LG AI연구원은 LG그룹 임직원 5만여 명이 사용하는 챗봇인 '챗엑사원'을 외부인도 사용해 볼 수 있도록 베타 버전을 공개해 문턱을 다소 낮췄다. 기업 사용자를 위한 API(애플리케이션인터페이스)도 공개해 '엑사원'을 다른 소프트웨어 개발에 사용할 수 있도록 했다. 기업들의 부담을 낮추기 위해 AI 모델 추론 서비스를 제공하는 스타트업 프렌들리AI와 손잡고 엑사원 API를 챗GPT의 10분의 1 가격으로 서비스하는 것도 강점으로 떠올랐다. 이와 별개로 LG AI연구원과 함께 컨소시엄을 구성한 것으로 알려진 LG CNS는 캐나다 AI 유니콘 기업 코히어와 손잡고 LLM 개발에 한창이다. 지난 5월 70억 파라미터의 한국어 특화 경량 LLM을 출시한 데 이어 두 달 만에 1천110억 개 파라미터를 갖춘 초대형 추론형 LLM을 공동 개발해 주목 받았다. 아직 이 모델들을 오픈소스로 공개하진 않았으나, 내부적으로는 검토 중인 것으로 전해졌다. 코난테크놀로지도 최근 매개변수 40억 개(4B) LLM '코난-LLM-IND'를 오픈소스로 공개했다. 이 모델은 중국 알리바바의 '큐원3'를 기반으로 한국어 최적화와 효율성 향상을 이뤘다는 평가를 받는다. 업스테이지는 신규 추론 AI 모델 '솔라 프로 2'를 중심으로 이번 정부 사업에 참여할 예정으로, 독립 LLM 성능 분석기관 아티피셜 애널리시스가 발표한 '지능 지표(Intelligence Index)'에서 국내 유일의 프런티어 모델로 선정돼 기술력을 입증했다. 이곳은 일찌감치 '솔라 10.7B'를 비롯한 여러 자체 모델을 허깅페이스 등 플랫폼에 공개했으며 해당 모델 가중치를 '아파치 2.0' 오픈소스 라이선스로 배포해 생태계 확장을 선도하고 있다는 평가를 받는다. SK텔레콤은 지난 11일 허깅페이스에 자체 LLM '에이닷 엑스 3.1 라이트'를 오픈소스로 공개했다. 70억 개(7B)의 매개변수를 기반으로 한 경량 모델로, 이 모델의 후속인 매개변수 340억 개(34B)의 프롬 스크래치 모델 '에이닷 엑스 3.1'을 조만간 오픈소스로 선보일 예정이다. KT 역시 지난 2023년 10월 공개한 '믿:음' 모델 중 70억 개 매개변수를 오픈소스로 제공했다. KT는 2천100억 개 매개변수를 가진 모델까지 개발하며 기술력을 과시한 바 있다. 업계 관계자는 "사업 당락은 독자 AI 모델의 오픈소스 공개 비중과 성능에 좌우될 것으로 예상된다"며 "정부가 AI 모델의 오픈소스 수준을 평가에 정밀하게 반영하고 정부 예산과 자부담 매칭 수준도 오픈소스 수준에 따라 차등화 한다는 방침을 세운 것으로 안다"고 말했다. 이어 "이번 사업은 LLM뿐 아니라 멀티모달 등 다양한 AI 모델 개발 역량과 자체 기술을 얼마나 활용하느냐에 따라 사업 성패가 갈릴 듯 하다"며 "정부가 이번에 업계에서 모두 인정할 만한 외국인 심사위원을 제대로 구성한 만큼, 이들이 여러 입김에 영향을 받지 않고 기술력으로만 공정한 심사를 할 것으로 기대된다"고 덧붙였다.

2025.07.24 09:03장유미 기자

"소버린 AI, 핵심은 오픈소스 모델·연산 인프라 자립"

각국이 인공지능(AI) 주권을 확보하는 '소버린 AI' 시대에 대비하려면 오픈소스 기반 모델과 클라우드 컴퓨팅 활용이 핵심이라는 전문가들의 분석이 나왔다. 6일 CNBC가 태국 방콕에서 주최한 '이스트 테크 웨스트 2025' 컨퍼런스에서 패널들은 AI가 점점 더 민주화되는 흐름 속에서 개발도상국들이 자체적인 AI 역량을 갖추는 것이 중요하다고 강조했다. 소버린 AI는 국가가 자국의 AI 기술과 데이터, 관련 인프라를 주도적으로 통제함으로써 고유한 언어와 문화, 안보 요구에 부합하는 기술을 개발할 수 있게 하는 전략적 자립의 개념이다. SCB 10X의 카시마 탄피피차이 AI 전략 총괄은 "지금까지 전 세계에서 가장 주목받는 대형언어모델(LLM)은 대부분 영어를 기반으로 설계돼 있다"고 지적하며 "언어가 다르면 사고방식과 세계와 상호작용하는 방식도 달라질 수 있는 만큼 단순 번역이 아닌 자국 언어와 문화를 반영한 AI 시스템 개발이 중요하다"고 말했다. 이어 "AI를 자국 중심으로 구축하지 않으면 궁극적으로 기술 종속에서 벗어나기 어렵다"고 덧붙였다. 패널들은 동남아시아국가연합(ASEAN) 지역이 소버린 AI를 구축하기에 특히 적합한 환경을 갖췄다고 평가했다. 약 7억 명에 달하는 전체 인구 중 35세 이하가 61%를 차지하며 하루 평균 12만5천 명이 새롭게 인터넷에 접속할 정도로 디지털 전환 속도가 빠르기 때문이다. 특히 이날 행사에서 패널들은 오픈소스 모델이 소버린 AI 환경을 구축하는 데 중요한 역할을 할 수 있다고 강조했다. 탄피피차이 총괄은 "태국과 동남아에는 훌륭한 AI 인재들이 많다"며 "이들이 만들어낸 결과물을 폐쇄된 형태로 묶어두는 것은 국가적으로 큰 손실"이라고 밝혔다. 그는 "오픈소스는 집단적 에너지를 만들어내며 AI 경쟁력을 국가 차원으로 끌어올리는 데 기여할 수 있다"고 설명했다. 오픈소스 모델은 기존의 폐쇄형 모델에 의존하지 않고 기업과 정부가 보다 다양한 선택지를 갖도록 해준다는 점에서 긍정적으로 평가받고 있다. 데이터브릭스의 세실리 응 아세안·중화권 총괄은 "중국의 경우 오픈소스를 통해 AI 생태계를 키우고 미국과의 경쟁력을 높일 수 있었다"며 "이러한 구조는 동남아 국가들에게도 유효하다"고 말했다. 또 AI 주권 확보를 위해서는 언어적 현지화뿐만 아니라 물리적인 컴퓨팅 인프라 자립도 중요하다는 의견이 나왔다. 레드햇의 프렘 파반 동남아·한국지역 총괄은 "그동안 AI 현지화는 언어 중심이었다면 이제는 연산 인프라 자체를 자국 내에서 운영하는 것이 더 중요해지고 있다"며 "글로벌 클라우드 기업뿐 아니라 지역 클라우드 사업자들과 협력해 연산 인프라를 국내에 구축하는 것도 한 방법"이라고 설명했다.

2025.07.06 10:46한정호 기자

[AI는 지금] 정부, '국가 파운데이션 모델' 추진…업계 "설계는 훌륭, 실행이 관건"

정부가 글로벌 생성형 인공지능(AI) 시장에서 독립적 경쟁력을 확보하기 위한 '독자 파운데이션 모델' 개발에 착수했다. 모델을 오픈소스로 공개해 민간 활용도를 극대화하겠다는 구상이다. 업계에서는 방향성과 의도에 대해 긍정적인 평가가 나오지만 실질 집행에 대한 지속적인 모니터링은 필요하다는 시각도 병존한다. 24일 업계에 따르면 과학기술정보통신부는 지난 20일 정보통신산업진흥원(NIPA), 지능정보사회진흥원(NIA), 정보통신기획평가원(IITP) 등과 함께 '독자 AI 파운데이션 모델' 프로젝트를 공식 발표했다. 해당 사업은 기존 '월드 베스트 거대언어모델(LLM)'로 불리던 기획의 정식 명칭으로, 다음달 7월 21일까지 국내 AI 정예팀 공모를 진행해 최대 5개 팀을 선발하고 단계별 압축 평가를 통해 상위팀으로 압축할 계획이다. 이번 사업은 최근 6개월 내 출시된 글로벌 최신 AI 모델 대비 95% 이상의 성능을 목표로 삼고 있다. 다만 고정된 성능 수치에 집착하기보다는 '무빙 타겟' 방식을 도입해 기술환경 변화에 따라 목표와 평가 기준을 유연하게 조정하는 전략을 채택했다. 과기정통부는 이와 같은 방식을 미국 방위고등연구계획국(DARPA)의 모델에 빗대어 'DARPA형'이라고 정의했다. 기술주권 위한 'K-AI 전략' 본격화…정예팀 자율 설계·정부 전폭 지원 구조 이 프로젝트를 위해 정예팀은 AI 모델 개발 전략과 방법론을 스스로 제시해야 한다. 정부는 GPU, 데이터, 인재 등 자원 항목에 대해 '희망 수요'를 정예팀이 먼저 요청하도록 하고 평가를 통해 적정 수준을 매칭 지원한다. 이 과정에서 오픈소스 공개 범위가 넓을수록 정부의 지원 매칭 비율은 높아진다. 그래픽 처리장치(GPU)는 당장 1차 추경 예산 1천576억원 규모를 활용해 민간 GPU를 임차해 지원한다. 팀 당 초기 지원 수량은 GPU 500장 수준이며 평가 결과에 따라 1천 장 이상까지 확대된다. 내년 하반기부터는 정부가 직접 구매한 첨단 GPU 1만 장을 본격 투입할 예정이다. 데이터는 공통수요와 개별수요로 나눠 지원된다. 정예팀이 필요로 하는 저작물 기반 학습데이터를 연간 100억원 규모로 공동구매하고 팀별 데이터 구축 및 가공은 연간 30억~50억원 수준으로 지원한다. 학습 효율성과 저작권 이슈를 동시에 감안한 전략이다. 인재 지원은 해외 우수 연구자 유치를 전제로 한다. 정예팀이 해외 팀이나 재외 한인 인재를 유치하면 정부가 연간 20억원 내외의 인건비 및 연구비를 매칭한다. 이 항목은 정예팀이 탈락하더라도 오는 2027년까지 지속 지원된다. 모델 성능 평가는 6개월 주기로 진행된다. 국민과 전문가가 함께 참여하는 콘테스트 기반 평가, 국내외 벤치마크 기준에 따른 검증 평가, 파생 모델 수를 기준으로 한 파생 평가 등을 결합한 입체적 방식이다. 단계평가를 통해 5개 팀에서 4개, 3개, 2개로 점차 압축하는 경쟁형 설계를 따를 예정이다. 모델 개발 완료 후에는 오픈소스를 통해 국내 AI 생태계 전반에 확산될 예정이다. 정예팀은 공모 시 '국민 AI 접근성 향상'과 '공공·경제·사회 전반의 AI 전환'을 위한 활용 계획을 함께 제출해야 하며 정부는 필요에 따라 이에 매칭해 후속 지원도 가능하다고 밝혔다. AI 안전성 확보도 주요 과제로 포함된다. 정부는 AI 안전연구소(K-AISI)와 협력해 파운데이션 모델의 신뢰성과 확장성을 검증하고 일정 수준 이상에 도달한 모델에 대해 'K-AI 모델', 'K-AI 기업' 등 명칭을 부여해 글로벌 시장에서의 공신력을 제고한다는 방침이다. 송상훈 과기정통부 정보통신정책실장은 "이번 프로젝트는 단순히 AI 모델을 만드는 데 그치지 않고 기술주권을 확보하고 모두가 활용할 수 있는 AI 생태계를 조성하는 출발점이 될 것"이라며 "정예팀들이 글로벌 수준의 독자 모델을 확보해 대한민국이 AI 강국으로 도약하는 기반을 마련하길 기대한다"고 밝혔다. 설계는 잘 했다…'기술·자원·평가' 운용이 진짜 시험대 업계에서는 정부의 독자 파운데이션 모델 추진을 대체로 긍정적으로 평가하고 있다. 국가가 주도해 자국 모델을 구축하려는 흐름은 이미 전 세계적으로 확산 중이며 한국의 이번 시도도 그 연장선에 있다는 분석이다. 실제로 국가 주도 모델 개발은 미국 오픈AI, 앤트로픽 등과 중국 딥시크 만의 경쟁 구도가 아니다. 프랑스는 오픈소스 기반 생성형 AI 기업 미스트랄을 중심으로 자체 모델을 개발하고 있으며 에마뉘엘 마크롱 대통령이 직접 나서 수천억 원대 민간 투자와 글로벌 협력을 이끌고 있다. 싱가포르 역시 '씨라이언(SEA-LION)' 프로젝트를 통해 동남아 현지 언어 기반 LLM을 개발 중이다. 최근에는 칠레 AI센터를 중심으로 아르헨티나, 브라질 등 남미 12개국이 연합해 '라탐-GPT' 개발을 공식화하며 오는 9월 공개를 예고한 상태다. 라지브 쿠마르 한국외국어대학교 연구교수는 "국가가 주도해 독자적인 파운데이션 모델을 개발하는 건 지금 전 세계적인 흐름으로, 한국 정부의 이번 시도는 매우 긍정적으로 본다"며 "인도도 스타트업 중심의 개발을 정책적으로 지원하면서 정부 차원에서 국내 생태계를 강화하려는 시도가 있다"고 말했다. 더불어 업계에서는 이번 프로젝트가 단순히 모델 하나를 만드는 데 그치지 않고 자원 배분 방식과 생태계 설계까지 포괄하고 있다는 점에 주목하고 있다. 'GPU·데이터·인재'라는 AI 핵심 자원을 수요 기반으로 자율 신청받고 이를 정부가 평가 후 매칭하는 구조가 민간 주도성과 정부 책임성을 동시에 확보하려는 시도로 보고 대체로 긍정적으로 반응하는 상황이다. 다만 실무 현장에서는 자원 지원이 선언에만 머물 경우 효과가 반감될 수 있다는 우려도 제기된다. 일례로 GPU의 경우 1천576억원 규모의 예산이 잡혀 있다 해도 실제 장비 임차·세팅·운영까지 이뤄지는 시간 차를 간과해선 안 된다는 게 중론이다. 단순한 GPU 확보가 아니라 팀별 물리적 접근성과 운영 안정성까지 감안한 체계 설계가 필요하다는 것이다. 데이터 항목도 비슷한 맥락이다. 정예팀이 요청하는 데이터에 대한 품질 기준과 저작권 검토 체계가 정비되지 않을 경우 향후 오픈소스 공개 과정에서 법적 리스크나 생태계 혼란을 야기할 수 있다. 특히 저작물 데이터의 공동구매가 연간 100억원 규모로 설정된 만큼, 명확한 선별 기준과 기술적 정제 절차가 병행돼야 한다는 의견이 나온다. 인재 유치 항목에 대해선 방향성은 맞지만 실질 효과는 제약이 클 수 있다는 관측도 있다. 단순히 해외 인재에게 연구비를 매칭 지원한다고 해서 국내에 안착하는 건 어렵다는 것으로 국내 기관의 위상, 프로젝트 자체의 매력도, 그리고 연구 독립성 등이 종합적으로 뒷받침돼야 할 것으로 관측된다. 오픈소스 정책 역시 마찬가지다. 오픈소스 정책이 산업 육성과 충돌하지 않도록 장기적으로는 파라미터 제한이나 일부 모듈 비공개 등에 대한 세분화된 가이드라인이 수립될 필요가 있다는 것이다. 한 업계 관계자는 "오픈소스를 전제로 한 모델 전략은 지금 시기에 필요하다"면서도 "오픈소스에 대한 구체적인 정의가 프로젝트가 진행되면서 확립돼야 할 것으로 보인다"고 말했다. "이어 기술 보호 없이 모든 걸 일괄적으로 공개할 경우 산업적 격차를 키울 수 있다"고 우려했다. 일각에서는 이 프로젝트가 '국가대표 AI'를 선발하는 성격인 만큼 평가 기준의 엄정성과 공정성이 핵심이라는 지적도 있다. 단순한 국내 경쟁이 아니라 세계적 기술 경쟁의 문턱을 넘는 출발점이 되려면 국제적인 벤치마크와 기술 평가 기준을 적극 반영해야 한다는 주장이다. 또 다른 업계 관계자는 프로젝트를 두고 "파운데이션 모델 구축을 위한 기술력과 역량은 충분하지만 자원이 부족했던 강소기업에게는 매우 훌륭한 육성 프로젝트로 보인다"며 "다만 기술적 발전이 빠른 만큼 평가 기준에는 국제적인 수준이 반영돼야 그 공신력이 확보되고 국가대표로서도 의미가 있을 것"이라고 말했다. 이와 함께 모델 규모에 대한 조건이 명확히 규정돼 있지 않다는 점도 일부에서 우려되는 대목이다. 개발 전략과 방법론을 정예팀이 자율적으로 제안하는 'DARPA형' 설계는 기술 진화에 유연하게 대응할 수 있다는 점에서 긍정적이지만 자칫 자원 격차에 따른 구조적 불균형을 초래할 수 있다는 지적이다. 업계 관계자는 "모델 규모에 대한 규정이 자칫 잘못되면 큰 모델들만이 성능과 역량이 좋게 평가를 받을 것"이라며 "기울어진 운동장이 될 수도 있으므로 이를 방지하기 위한 노력을 기울여야 할 것"이라고 평가했다.

2025.06.24 11:21조이환 기자

정부, '국가대표 AI' 만든다…글로벌 수준 모델 개발에 '총력'

대한민국 정부가 인공지능(AI) 기술 자립과 생태계 확장을 목표로 국내 정예팀을 뽑아 독자 모델 개발에 나선다. 글로벌 기업 중심의 AI 주도권 구도를 견제하고 기술 주권을 확보하기 위해서다. 과학기술정보통신부(과기정통부)는 '독자 AI 파운데이션 모델 프로젝트'를 공식 출범하고 다음달 21일까지 참여 정예팀 공모에 착수한다고 20일 밝혔다. 과기정통부 외에도 정보통신산업진흥원, 한국지능정보사회진흥원, 정보통신기획평가원이 공동으로 추진하는 이번 사업은 기존 '월드베스트 거대언어모델(World Best LLM)' 프로젝트의 공식화다. 이번 공모는 성능·전략·파급효과 등을 기준으로 최대 5개 정예팀을 선정한 뒤 단계별 평가를 통해 점진적으로 압축하는 방식으로 진행된다. 최신 글로벌 AI 모델 성능의 95% 이상 달성을 목표로, 참여팀은 자체적인 개발 전략과 방법론을 자유롭게 설계할 수 있다. 프로젝트는 일괄지원이 아닌 6개월 단위 경쟁형 압축 방식을 도입해 민첩한 기술 진화를 유도한다. 지원 자원은 그래픽 처리장치(GPU), 데이터, 인재라는 세 가지 축으로 구성된다. GPU는 올해부터 내년 상반기까지 민간 GPU 임차 형태로, 이후엔 정부 구매 GPU를 활용해 정예팀당 최대 1천 장 이상이 단계별로 지원된다. 데이터는 저작물 중심의 공동구매와 개별 가공 작업에 연간 최대 150억원 규모의 예산이 투입된다. 인재 분야는 해외 연구자 유치 시 연 20억원 한도 내에서 인건비와 연구비를 매칭해 준다. 특히 대학·대학원생의 참여를 필수로 명시하며 미래 인재 양성을 병행하는 구조다. 동시에 참여팀은 국민 AI 접근성 향상, 공공·경제·사회 전환(AX) 기여계획도 함께 제출해야 한다. 오픈소스 수준에 따라 정부 매칭 비율과 자부담 비율이 달라지는 구조도 설계됐다. 프로젝트는 단순한 기술개발에 머무르지 않는다. 국민 대상 사용성 평가, 컨테스트형 단계 심사, 벤치마크와 한국어 성능·안전성 검증 등 다층적 방식으로 완성도를 높인다. 우수한 모델에는 'K-AI' 명칭 부여 등 글로벌 브랜딩도 병행한다. 안전성 확보를 위해 AI안전연구소(K-ASIS)와의 협력도 예정돼 있다. 이 밖에 공공영역은 물론 국방·안보 등 민감 분야 활용도 계획에 포함돼 있다. 정부는 개발된 모델을 오픈소스화해 민간 AI 서비스 생태계 확산에도 적극 활용할 방침이다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 프로젝트는 AI 기술 주권 확보와 모두의 성장을 위한 생태계 구축이 목표"라며 "글로벌 수준의 독자 AI 모델을 통해 대한민국이 진정한 AI 강국으로 도약하길 기대한다"고 밝혔다.

2025.06.20 13:37조이환 기자

네이버 하이퍼클로바X, 오픈소스 공개 한 달만에 30만 다운로드 돌파

네이버클라우드의 오픈소스 인공지능(AI) 모델이 글로벌 시장에서 인기를 끌며 경쟁력을 입증하고 있다. 네이버클라우드는 지난달 24일 공개한 오픈소스 AI '하이퍼클로바X 시드' 3종 모델이 출시 한 달여 만에 30만 다운로드를 넘어섰다고 26일 밝혔다. 이는 글로벌 AI 모델 공유 커뮤니티 '허깅페이스'에 등록된 모델 중 상위 약 0.03%에 해당하는 수치로, 하이퍼클로바X의 영향력이 글로벌로 확대되고 있는 모습이다. 텍스트와 이미지, 영상 정보를 함께 처리할 수 있는 시각언어모델인 '하이퍼클로바X 시드 3B'는 약 26만 7천 회 다운로드를 기록하며 3종 모델 중 가장 큰 호응을 얻었다. 네이버클라우드가 한국어 및 영어 관련 시각 정보 이해 능력을 평가할 수 있는 9개 벤치마크의 평균 점수를 비교한 결과, 하이퍼클로바X 시드 3B는 유사 규모의 미국·중국 빅테크 모델보다 높은 점수를 기록했다. 또 파라미터 수가 훨씬 많은 해외 대규모 모델과 유사한 정답률을 보여 성능 경쟁력을 입증한 바 있다. 텍스트 모델인 '하이퍼클로바X 시드 1.5B'와 '하이퍼클로바X 시드 0.5B'도 약 3만5천 회의 다운로드를 기록했다. 특히 두 모델을 기반으로 29개에 달하는 파생 모델이 만들어지는 등 다양한 개선과 실험이 이뤄졌다. 개발자들은 "작은 크기에도 불구하고 균형 잡힌 언어 성능과 뛰어난 안정성이 돋보인다"며 "CPU 환경에서도 빨라 사내용 챗봇으로 매우 손쉽게 활용할 수 있을 것 같다"고 말했다. 네이버클라우드는 현재 개발 중인 하이퍼클로바X 추론 모델도 다음 달 대화형 AI 서비스 '클로바X'를 통해 선보일 계획이다. 또 하이퍼클로바X 음성 모델을 활용한 서비스도 향후 순차적으로 선보일 예정이다. 네이버클라우드 성낙호 하이퍼스케일 AI 기술 총괄은 "프롬 스크래치로 개발한 생성형 AI 모델이 글로벌 오픈소스 커뮤니티에서 주목받고 있어 뜻깊게 생각한다"고 말했다. 이어 "한국어를 비롯해 여러 언어와 문화를 이해하는 각각의 모델들이 공존할 수 있도록 AI 생태계에 다양성을 더할 것"이라며 "이를 기반으로 더욱 혁신적인 기술과 서비스가 나오는 데에 하이퍼클로바X가 기여할 수 있기를 기대한다"고 덧붙였다.

2025.05.26 14:59한정호 기자

[AI는 지금] "개보위, 中 AI 옹호"…딥시크에 긍정 신호 보낸 고학수 위원장, 이유는?

중국 딥시크의 국내 진출 여부를 둘러싼 논란이 이어지는 가운데 개인정보보호위원회가 오픈소스 기반 인공지능(AI) 모델 활용에 긍정적인 입장을 밝혔다. 중국 기업의 앱 자체를 옹호한 것이 아니라 딥시크 등의 오픈소스 생태계 확장이라는 기술 전략에 지지를 표한 것으로 보인다. 24일 업계에 따르면 고학수 개인정보보호위원회 위원장은 최근 한 세미나에서 딥시크 오픈소스 모델의 활용 가능성을 언급하며 '글로벌 빅테크가 아닌 기업도 도전할 수 있는 기회'라고 표현했다. 해당 발언은 지난달 국내 앱스토어에서 자진 철수한 딥시크 앱과는 별개로 발전하고 있는 오픈소스 기술 흐름을 짚은 것으로 평가된다. 딥시크는 중국발 오픈소스 거대언어모델(LLM) 스타트업으로, 지난 1월 이후 전 세계 AI 생태계를 신속히 장악했다. 오픈AI, 앤트로픽, 구글 딥마인드 등 미국·영국 프런티어 AI 기업들이 천문학적 자금을 투입한 것과 달리 적은 비용으로 고성능 모델을 구현한 데다 오픈소스로 공개돼 폭발적인 관심을 받았다. 퍼플렉시티 등 해외 LLM 서비스 기업들은 이미 딥시크를 로컬 환경에 설치해 운영 중이다. 최근에는 국내 기업들도 이를 기반으로 특화 모델 개발에 나서고 있다. 뤼튼테크놀로지스와 이스트소프트는 지난 2월 딥시크 모델을 자체 클라우드 환경에 구축해 운영을 시작했다. 크라우드웍스는 일본 법인을 통해 딥시크 R1 기반 일본어 모델을 개발한 뒤 이를 한국어로 확장할 계획이다. 일각에선 크라우드웍스가 딥시크 본사와 직접 계약을 맺고 한국어 모델을 공동 개발했다고 주장했지만 이는 사실이 아닌 것으로 확인됐다. 크라우드웍스 측이 지난 23일 딥시크 본사와 계약한 적이 없으며 회사가 활용 중인 모델은 앱이 아닌 설치형 B2B 버전이라고 해명했기 때문이다. 데이터가 중국 서버로 전송되는 B2C 앱과는 구조적으로 다르다는 설명이다. 실제로 퍼플렉시티, 뤼튼, 이스트소프트 등의 국내 설치형 모델은 외부 인터넷과 연결되지 않는 제한된 환경에서 구동된다. 이에 따라 중국 서버로 정보가 전송될 가능성은 원천적으로 차단된다. 다만 보안업계에서는 딥시크처럼 오픈소스로 제공되는 모델이라도 로컬 환경에 도입할 경우 여전히 위험 요소가 존재한다고 지적한다. 오픈소스 특성상 코드나 가중치 파일에 악성 코드가 삽입될 수 있으며 모델 로딩 과정에서 시스템 취약점을 노린 침투 가능성도 배제할 수 없기 때문이다. 또 일부 개발자가 모델에 내장된 안전 장치를 우회하거나 변형 모델을 제작할 경우 유해한 콘텐츠나 악성 코드를 생성하는 방식으로 악용될 수 있다. 특히 딥시크는 경쟁 모델에 비해 보안 업데이트나 코드 감사가 부족하다는 평가도 있어 도입 시 철저한 검증과 보안 관리가 필요하다는 지적이 잇따른다. 실제로 김승주 고려대학교 정보보호대학원 교수는 최근 자신의 링크드인을 통해 "딥시크를 PC나 클라우드에 설치해서 쓰면 운영주체가 중국이 아니기 때문에 안전하다는 말이 돈다"며 "이는 굉장히 위험한 생각"이라고 지적했다. 그럼에도 고 위원장이 딥시크를 위시한 오픈소스 LLM에 주목한 이유는 분명하다. 자본과 인프라가 부족한 국내 AI 생태계가 낮은 진입 장벽을 바탕으로 글로벌 경쟁에 도전할 수 있다는 점 때문이다. 업계에선 이 같은 메시지를 한국 정부가 추진 중인 '월드 베스트 LLM' 프로젝트와 맞물려 해석하는 분위기다. 정부는 국가 차원의 대규모 언어모델 개발을 위해 파운데이션 모델을 오픈소스로 공개하고 공공 중심의 활용 사례를 확산하겠다는 계획을 밝힌 바 있다. 이 프로젝트는 지난 2월 과학기술정보통신부가 발표한 'AI R&D 전략 고도화 방안'에 핵심 과제로 포함됐다. 정부는 향후 3개월 이내 'AI 국가대표팀'을 선발해 연구 자원과 데이터를 집중 지원하고 공공 데이터를 기반으로 한 특화 모델 개발을 유도할 방침이다. 업계에선 딥시크 사례가 이 같은 흐름을 촉발하는 계기가 됐다는 평가도 나온다. 고성능 언어모델을 오픈소스를 통해 낮은 비용으로 구현할 수 있다는 점이 확인되면서 '챗GPT'나 '클로드' 등 프런티어 AI를 빠르게 따라잡을 수 있다는 기대가 생겼다는 분석으로, 보안만 보장된다면 무료로 실사용도 가능하다는 인식이 퍼진 것이 정책 전환에 영향을 미쳤다는 해석도 제기된다. 고학수 개인정보보호위원회 위원장은 "딥시크 등의 모델에는 분명 잠재적인 불안 요소가 있지만 빅테크가 아니어도 적은 투자를 통해 세계 시장에 도전할 수 있다는 메시지를 줬다"며 "이러한 오픈소스를 통해 국내에서도 다양한 앱 서비스를 만들 수 있을 것"이라고 말했다. 이어 "향후에 보다 넓은 생태계를 구축해야 한다고 믿는다"며 "자유로운 혁신의 한 축은 열린 모델을 통해 새로운 응용 생태계를 형성하는 것이라 생각한다"고 말했다.

2025.03.24 16:16조이환 기자

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

점유율 2% 다음의 반격...업스테이지가 그리는 차세대 AI 포털

[르포] "위험작업 버튼 하나로"…KIRO서 본 '현장형 로봇'

쿠팡 사태에 美 상장 노린 기업들 '전전긍긍'

'몰트북' 나비효과?…韓 상륙한 AI들의 수다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.