• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈 모델'통합검색 결과 입니다. (67건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

카카오, 경량 멀티모달·MOE 오픈소스 공개

카카오(대표 정신아)는 국내 공개 모델 중 최고 성능의 경량 멀티모달 언어모델과 혼합 전문가(MoE) 모델을 국내 최초 오픈소스로 공개한다고 24일 밝혔다 카카오는 허깅페이스를 통해 이미지 정보 이해 및 지시 이행 능력을 갖춘 경량 멀티모달 언어모델 '카나나(Kanana)-1.5-v-3b'와 MoE 언어모델 '카나나-1.5-15.7b-a3b'를 오픈소스로 선보였다. 지난 5월 공개한 언어모델 카나나-1.5 4종에 이어 두 달 만에 추가 모델을 오픈소스로 공개한 것이다. 정부가 추진하는 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참여한 카카오는 이러한 자체 모델 개발 역량 및 카카오톡 등의 대규모 서비스 운영 경험 등을 토대로 전 국민의 AI 접근성을 높이고 국가 AI 경쟁력을 강화하는데 기여한다는 방침이다. 이날 공개된 '카나나-1.5-v-3b'는 텍스트 뿐만 아니라 이미지 정보도 처리할 수 있는 멀티모달 언어모델로, 지난 5월 말 오픈소스로 공개한 카나나 1.5 모델을 기반으로 하고 있다. 카나나 1.5는 모델 개발의 처음부터 마지막 단계까지 카카오의 자체 기술을 바탕으로 구축하는 '프롬 스크래치' 방식으로 개발됐다. 멀티모달 언어모델인 '카나나-1.5-v-3b'는 이용자의 질문 의도를 정확히 이해하는 높은 지시 이행 성능과 뛰어난 한국어·영어 이미지 이해 능력을 보유했다고 회사 측은 설명했다. 또한, 한국어 벤치마크에서 유사 사이즈의 국내외 공개 모델과 비교한 결과 최고 점수를 기록했고 다양한 영어 벤치마크에서 해외 오픈소스 공개모델과 비교했을 때도 유사한 수준의 성능을 보인 것으로 알려졌다. 지시 이행 능력 벤치마크에서는 국내 공개된 유사한 규모의 멀티모달 언어모델 대비 128% 수준의 성능을 기록했다. 카카오는 인간 선호 반영 학습과 지식 증류를 통해 '카나나-1.5-v-3b'의 성능을 극대화했다. 지식 증류는 고성능의 대형 모델로부터 비교적 작은 모델을 학습하는 방식이다. 단순한 정답 뿐 아니라 대형 모델의 예측 확률 분포까지 학습에 반영함으로써 작은 모델이 더 정교하고 일반화된 예측 능력을 갖추도록 돕는 기술이다. 이를 통해 상대적으로 경량화된 모델 구조임에도 정확도나 언어 이해 등의 능력에서 대형 모델의 높은 성능에 근접하거나 이를 뛰어 넘을 수 있는 능력을 발휘하도록 돕는다. '카나나-1.5-v-3b'는 경량 멀티모달 언어모델의 강점을 토대로 ▲이미지 및 글자 인식 ▲동화 및 시 창작 ▲국내 문화유산 및 관광지 인식 ▲도표 이해 ▲수학 문제풀이 등 여러 분야에서 활용할 수 있다. 예를 들어, 장소 사진과 함께 이 사진이 촬영된 장소에 대해 간단히 설명해줘라고 질문하면 “이 사진은 서울 청계천을 배경으로 하고 있습니다”와 같이 국내 지역에 대한 인식력을 바탕으로 정확한 답변을 제공한다. 카카오는 모델의 성능에 집중하는 단계를 넘어 AI가 사람처럼 생각하고 행동할 수 있는 ▲멀티모달 이해 능력 ▲사용자 지시 수행 능력 ▲추론능력을 갖추도록 발전시키는 데 주력하고 있다. 하반기 중에는 에이전트형 AI 구현에 필수적인 추론 모델의 성과도 공개할 예정이다. 카카오는 일반적인 '밀집' 모델과 차별화되는 MoE 구조의 언어모델도 오픈소스로 함께 공개했다. 'MoE'는 입력 데이터 처리 시 모든 파라미터가 연산에 참여하는 기존 모델과 달리 특정 작업에 최적화된 일부 전문가 모델만 활성화되는 방식으로 효율적인 컴퓨팅 자원 활용과 비용 절감이 특징이다. MoE 아키텍처를 적용한 '카나나-1.5-15.7b-a3b'는 전체 15.7B의 파라미터 중 추론 시 약 3B 파라미터만 활성화돼 동작한다. 카카오는 모델의 학습 시간과 비용을 절약하기 위해 자사의 3B 규모의 모델 '카나나-Nano-1.5-3B'에 '업사이클링' 방식을 적용해 개발했다. 업사이클링은 기존 다층 신경망(MLP) 레이어를 복제해 여러 전문가 레이어로 변환하는 방식으로 모델을 처음부터 개발하는 방식에 비해 효율적이다. 활성화되는 파라미터가 3B에 불과하지만 성능은 '카나나-1.5-8B'와 동등하거나 상회하는 수준을 기록했다. 카카오의 MoE 모델은 고성능 AI 인프라를 저비용으로 구축하고자 하는 기업이나 연구 개발자들에게 실용적인 도움을 제공할 수 있다는 설명이다. 특히 추론 과정에서 제한된 파라미터만 사용하는 구조적 특성 덕분에 저비용, 고효율 서비스 구현에 유리하다. 카카오는 이번 경량 멀티모달 언어모델과 MoE 모델의 오픈소스 공개를 통해 AI 모델 생태계에 새로운 기준을 제시하고 더 많은 연구자와 개발자가 강력한 AI 기술을 자유롭게 활용할 수 있는 기반을 마련해 갈 계획이다. 뿐만 아니라 자체 기술 기반의 모델을 지속적으로 고도화하고 모델 스케일업을 통해 글로벌 플래그십 수준의 초거대 모델 개발에 도전함으로써 국내 AI 생태계의 자립성과 기술 경쟁력 강화에 기여할 계획이다. 김병학 카카오 카나나 성과리더는 “이번 오픈소스 공개는 비용 효율성과 성능이라는 유의미한 기술 개발의 성과를 거둔 것으로 단순한 모델 아키텍처의 진보를 넘어 서비스 적용과 기술 자립이라는 두 가지 측면의 목표에 부합하는 결과물”이라고 말했다.

2025.07.24 10:57박서린

[유미's 픽] 국가대표 AI 선발, 오픈소스 비중·기술력·성능에 달렸다…新 모델 개발도 '관건'

이재명 정부의 핵심 국정 사업인 '글로벌 인공지능(AI) 강국' 꿈의 발판이 될 '국가대표 AI' 선정을 앞두고 사업 참여 의사를 밝힌 기업들이 잇따라 자체 개발한 추론 모델을 오픈소스로 개방하고 나섰다. 이번 정부 사업에선 '프롬 스크래치' 방식을 통한 기술력과 오픈소스 비중, AI 모델 성능이 당락을 좌우할 핵심 기준으로 지목되고 있다. 24일 업계에 따르면 지난 21일 마감된 '독자 AI 파운데이션 모델 개발 프로젝트'에는 총 15개 컨소시엄이 참여하는 것으로 집계됐다. 참가팀은 ▲네이버클라우드 ▲루닛 ▲모티프테크놀로지스 ▲바이오넥서스 ▲사이오닉에이아이 ▲업스테이지 ▲SK텔레콤 ▲NC AI ▲LG AI연구원 ▲정션메드 ▲카카오 ▲KT ▲코난테크놀로지 ▲파이온코퍼레이션 ▲한국과학기술원 등이다. 이 프로젝트는 글로벌 톱 수준의 국산 거대언어모델(LLM)을 만들겠다는 목표를 앞세워 추진하는 것으로, 정부에서 오는 2027년까지 약 2천136억원을 투입한다. 선발된 기업들은 정부로부터 그래픽처리장치(GPU)와 데이터, 전문 인력 등을 집중 지원받을 예정이다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 서면 평가는 이날부터 오는 26일까지 진행되며 총 10팀을 우선 선발한다. 서면 평가를 통과한 기업들은 이르면 26일, 늦어도 27일에 발표될 예정이다. PT 평가는 이달 30~31일에 진행되며 최종 사업자 발표는 8월 4~5일께 이뤄질 것으로 알려졌다. 심사위원 구성은 서면 평가가 7명 내외, PT 평가가 10명 내외인 것으로 전해졌다. 사업 초기에는 총 5개 기업이 우선 선발되며 이후 6개월 단위로 선별 축소할 예정이다. 성능·전략·파급효과 등을 기준으로 단계 평가를 거쳐 4개팀 → 3개팀 → 2개팀 식으로 줄여나갈 예정이다. 현재 업계에서 유력 후보로 보고 있는 곳은 네이버클라우드와 LG AI연구원, NC AI, 업스테이지 등으로 압축됐다. 또 해외 업체들과 활발한 협업에 나섰던 SK텔레콤, KT 등 통신사들은 정부가 이 프로젝트를 시작하며 대규모 자금 투입에 나서자 방향을 틀어 참여 의사를 밝힌 상태다. 중소·중견기업 중에선 코난테크놀로지도 사업자 선정에 대한 기대감을 높이고 있다. 카카오도 자체 개발한 LLM '카나나'를 앞세워 계열사의 다양한 서비스를 활용해 AI 모델 수요를 끌어 올릴 수 있다는 점을 경쟁력으로 내세운 것으로 전해졌다. 업계에선 기술 성숙도 측면에서 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준이 될 것으로 봤다. 외국 거대언어모델(LLM)을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 업계 관계자는 "정부가 '전국민 AI'에 쓸 AI 모델 수준을 현재 최고 수준으로 평가 받는 소타(SOTA·State-of-the-Art) 모델로 원하는 것으로 알고 있다"며 "이에 맞추기 위해선 '프롬 스크래치' 방식으로 300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 경험을 가지고 있어야 하는데, 여기에 맞는 기업이 손에 꼽힐 것으로 보여 유력 후보군이 상당히 압축될 수밖에 없다"고 봤다. 그러면서 "외국 AI 모델의 아키텍처를 재설계해 만든 모델임에도 최근 '프롬 스크래치' 방식이 주목 받기 시작하자 이를 마케팅으로 활용하는 기업들이 속속 나오고 있는 듯 하다"며 "해외 모델을 참고해 만들었음에도 '프롬 스크래치'라고 표현하는 것은 심사 위원뿐 아니라 업계 분위기를 흐리는 듯 해 '페이크 파운데이션 모델'로 분류하는 것도 필요해 보인다"고 지적했다. 업계에선 '프롬 스크래치' 방식을 그간 고집하며 대형 모델을 선보였던 네이버클라우드와 LG AI연구원, NC AI, KT가 이번 사업에서 다소 유리한 고지에 올랐다고 평가했다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 30B 이상의 대형 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발했다고 주장하고 있다. 반면 업스테이지는 메타 '라마', 마이크로소프트(MS) '파이' 등 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. SK텔레콤도 최근 '프롬 스크래치' 방식으로 만들었다고 강조하며 자체 LLM '에이닷엑스 3.1 라이트'를 공개했지만, 업스테이지와 동일하게 재설계된 모델인 것으로 알려졌다. 루닛과 컨소시엄을 구성한 트릴리온랩스가 지난 23일 공개한 자체 LLM '트리-21B'도 라마 등 해외 모델을 기반으로 한 것으로 업계에선 추정했다. 다만 회사 측은 '프롬 스크래치' 방식으로 그간 모델을 개발해왔던 만큼 이는 사실이 아니라는 입장이다. 정부는 일단 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건도 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 업계 관계자는 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 대부분 국내 스타트업들은 어느 한 곳도 선발전에 참여할 수 없을 것"이라며 "정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 새롭게 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 정부는 일단 독자 AI 모델 개발과 관련해 새로운 모델 개발 또는 기존 자체 모델을 고도화하는 방식을 모두 허용했다. 이 사업을 주도하고 있는 과학기술정보통신부는 어떤 방식이든 평가에 차등을 두지 않는다는 방침이다. 기존 자체 모델을 활용하는 곳은 LG AI연구원, KT가 대표적이다. 이들은 사업자로 선정됐을 시 기존에 선보였던 자체 LLM '엑사원', '믿:음'을 고도화 해 '전 국민 AI'로 활용하겠다는 계획을 밝혔다. 카카오도 자체 모델인 '카나나'를 활용해 모델 고도화 방향으로 전략을 짠 것으로 알려졌다. 반면 네이버클라우드, NC AI는 '전 국민 AI'에 맞춰 새로운 모델을 개발하는 것으로 방향을 잡았다. '프롬 스크래치' 방식으로 각각 '하이퍼클로바X', '바르코 LLM'을 개발해봤던 경험을 토대로 이미 기술력이 충분히 검증된 만큼, 한국에 특화된 LLM을 처음부터 새롭게 개발할 수 있다는 자신감을 내보이고 있다. SK텔레콤도 이달 들어 독자 구축 LLM인 '에이닷엑스'의 다양한 모델을 선보이고 있지만, 독자 AI 파운데이션 모델 사업자로 선정되면 새로운 모델 개발에 나설 것으로 파악됐다. 코난테크놀로지와 업스테이지 역시 새로운 모델을 개발한다는 계획이다. 이 같은 분위기 속에 일부 업체들은 자체 LLM을 오픈소스로 잇따라 공개하며 더 높은 점수를 받기 위해 고군분투하고 있다. 정부가 AI 모델 공개를 통해 국내 AI 생태계를 활성화시킬 수 있는지에 대한 여부도 주요 기준으로 삼고 있어서다. 네이버클라우드는 지난 22일 '하이퍼클로바 X 시드 14B 씽크'를 상업용으로 이용할 수 있는 무료 오픈소스를 공개했다. '하이퍼클로바 X 시드 14B 씽크'는 네이버의 독자 기술을 활용해 '프롬 스크래치'로 개발한 경량화 추론 모델로, 상용화된 해외 오픈소스 모델을 개조한 것이 아닌 원천기술로 추론 능력과 경량화 기술을 결합해 개발했다. 네이버클라우드는 추론모델을 연구용으로만 제한하지 않고 비즈니스에도 적용할 수 있게 이같은 결정을 내렸다. 다양한 산업 영역에서 만들어질 AI 에이전트의 기반 기술로 활용될 수 있게 함으로써 국내 AI 생태계를 한층 활성화시킬 것이란 방침이다. NC AI는 일찌감치 '바르코 LLM'을 학술적 용도뿐 아니라 상업적인 용도까지 활용할 수 있도록 오픈소스로 공개해왔다. 또 게임, 패션, 콘텐츠 등 다양한 산업군에서 실제 상용화된 AI 솔루션을 선보이고 있다는 점에서 이번 컨소시엄 구성에 국내 주요 대기업들이 대거 몰리기도 했다. 특히 오픈소스 모델 '바르코 비전 2.0'은 비전-언어 모델(VLM) 분야에서 최고 성능인 '소타'로 인정받아 눈길을 끌었다. LG AI연구원은 지난 해 8월 국내 최초로 연구용 오픈소스 모델인 '엑사원 3.0'을 공개했다. 같은 해 12월 공개한 '엑사원 3.5'는 국내 AI 모델 중 유일하게 스탠퍼드대에서 발간하는 AI 보고서에 포함돼 주목 받았다. 다만 최근 공개된 '엑사원 4.0'은 글로벌 오픈소스 AI 플랫폼 '허깅페이스'에 오픈웨이트(가중치 공개) 모델로만 공개했다. 또 LG AI연구원은 LG그룹 임직원 5만여 명이 사용하는 챗봇인 '챗엑사원'을 외부인도 사용해 볼 수 있도록 베타 버전을 공개해 문턱을 다소 낮췄다. 기업 사용자를 위한 API(애플리케이션인터페이스)도 공개해 '엑사원'을 다른 소프트웨어 개발에 사용할 수 있도록 했다. 기업들의 부담을 낮추기 위해 AI 모델 추론 서비스를 제공하는 스타트업 프렌들리AI와 손잡고 엑사원 API를 챗GPT의 10분의 1 가격으로 서비스하는 것도 강점으로 떠올랐다. 이와 별개로 LG AI연구원과 함께 컨소시엄을 구성한 것으로 알려진 LG CNS는 캐나다 AI 유니콘 기업 코히어와 손잡고 LLM 개발에 한창이다. 지난 5월 70억 파라미터의 한국어 특화 경량 LLM을 출시한 데 이어 두 달 만에 1천110억 개 파라미터를 갖춘 초대형 추론형 LLM을 공동 개발해 주목 받았다. 아직 이 모델들을 오픈소스로 공개하진 않았으나, 내부적으로는 검토 중인 것으로 전해졌다. 코난테크놀로지도 최근 매개변수 40억 개(4B) LLM '코난-LLM-IND'를 오픈소스로 공개했다. 이 모델은 중국 알리바바의 '큐원3'를 기반으로 한국어 최적화와 효율성 향상을 이뤘다는 평가를 받는다. 업스테이지는 신규 추론 AI 모델 '솔라 프로 2'를 중심으로 이번 정부 사업에 참여할 예정으로, 독립 LLM 성능 분석기관 아티피셜 애널리시스가 발표한 '지능 지표(Intelligence Index)'에서 국내 유일의 프런티어 모델로 선정돼 기술력을 입증했다. 이곳은 일찌감치 '솔라 10.7B'를 비롯한 여러 자체 모델을 허깅페이스 등 플랫폼에 공개했으며 해당 모델 가중치를 '아파치 2.0' 오픈소스 라이선스로 배포해 생태계 확장을 선도하고 있다는 평가를 받는다. SK텔레콤은 지난 11일 허깅페이스에 자체 LLM '에이닷 엑스 3.1 라이트'를 오픈소스로 공개했다. 70억 개(7B)의 매개변수를 기반으로 한 경량 모델로, 이 모델의 후속인 매개변수 340억 개(34B)의 프롬 스크래치 모델 '에이닷 엑스 3.1'을 조만간 오픈소스로 선보일 예정이다. KT 역시 지난 2023년 10월 공개한 '믿:음' 모델 중 70억 개 매개변수를 오픈소스로 제공했다. KT는 2천100억 개 매개변수를 가진 모델까지 개발하며 기술력을 과시한 바 있다. 업계 관계자는 "사업 당락은 독자 AI 모델의 오픈소스 공개 비중과 성능에 좌우될 것으로 예상된다"며 "정부가 AI 모델의 오픈소스 수준을 평가에 정밀하게 반영하고 정부 예산과 자부담 매칭 수준도 오픈소스 수준에 따라 차등화 한다는 방침을 세운 것으로 안다"고 말했다. 이어 "이번 사업은 LLM뿐 아니라 멀티모달 등 다양한 AI 모델 개발 역량과 자체 기술을 얼마나 활용하느냐에 따라 사업 성패가 갈릴 듯 하다"며 "정부가 이번에 업계에서 모두 인정할 만한 외국인 심사위원을 제대로 구성한 만큼, 이들이 여러 입김에 영향을 받지 않고 기술력으로만 공정한 심사를 할 것으로 기대된다"고 덧붙였다.

2025.07.24 09:03장유미

오픈AI, 범용 모델로 국제올림피아드서 '금메달급' 성과

오픈AI가 인공지능(AI) 모델로 국제 수학 올림피아드(IMO) 금메달 점수에 해당하는 성과를 거뒀다. 특정 도메인에 특화되지 않은 범용 모델이 복잡한 수학 문제를 해결한 것은 이번이 처음이다. 20일 샘 알트먼 오픈AI 최고경영자(CEO)는 개인 소셜미디어를 통해 "우리 범용 추론 모델이 IMO 2025 테스트에서 금메달 점수대에 도달했다"며 "AI의 지난 10년간 발전을 상징적으로 보여준 결과"라고 밝혔다. 이번 실험은 오픈AI 연구원 알렉산더 웨이 팀이 내부적으로 실험 중인 차세대 추론형 거대언어모델(LLM) 기반으로 진행됐다. 문제는 실제 IMO 형식과 동일하게 구성됐으며 이틀 동안 총 6문제를 푸는 방식으로 진행됐다. 오픈AI의 모델은 그중 5문제를 정확히 풀어 42점 만점 중 35점을 기록했다. IMO는 단순 계산이나 공식을 넘어 고도의 수학적 사고와 창의력을 요하는 문제로 구성된 것으로 알려졌다. 전 세계 20세 미만 대표 학생들이 참가하는 권위 있는 대회로 평가받고 있다. 오픈AI가 기록한 점수는 올해 인간 참가자 중 일부가 달성한 만점에는 미치지 못했다. 다만 범용 AI 모델이 수학 문제 해결 능력을 이 정도까지 끌어올린 사례는 처음이다. 이전까지 범용 모델이 IMO에서 금메달 점수대에 도달한 사례는 없었다. 앞서 구글 딥마인드의 '알파프루프'나 '알파지오메트리 2'는 은메달 수준의 성과를 낸 바 있다. 다만 이들은 수학 문제 풀이에 특화되도록 수년간 훈련된 모델이었다. 오픈AI 노암 브라운 연구원은 "바둑이나 포커처럼 특정 규칙이 명확한 게임에서 AI가 뛰어난 결과를 보였던 것은 해당 영역에 맞춰 수년간 집중 훈련했기 때문"이라며 "이번 모델은 특정 과목에 맞춰 설계된 것이 아니라 새로운 범용 추론 방식을 적용한 실험적 모델"이라고 설명했다. 브라운 연구원은 "기존 LLM은 짧은 시간 내 추론을 끝내지만 이 모델은 수 시간 동안 문제를 탐색하며 판단을 내릴 수 있는 능력을 갖췄다"며 "차원이 다른 '딥 리서치' 방식의 추론을 실현했다"고 덧붙였다. 글로벌 AI 모델 수학 성능을 분석하는 취리히연방공대(ETH)의 매스아레나에 따르면 오픈AI 외 다른 범용 AI 모델들은 올해 IMO 테스트에서 성과를 내지 못했다. 구글의 '제미나이 2.5 프로', xAI의 '그록4', 중국 딥시크의 'R1' 등은 모두 동메달 기준에도 미치지 못한 것으로 전해졌다. 다만 일각에선 오픈AI가 올해 IMO에 사용한 모델이 투명한 벤치마크 평가를 받아야 한다는 의견도 나왔다. 해당 모델이 외부에 공개되지 않은 실험용 버전이라서다. 매스아레나 역시 "AI의 수학적 추론 분야가 비약적으로 발전하고 있는 점은 긍정적"이라 평하면서도 "모델이 공개돼 투명한 평가가 이뤄지길 바란다"고 밝혔다.

2025.07.20 17:16김미정

"소버린 AI, 핵심은 오픈소스 모델·연산 인프라 자립"

각국이 인공지능(AI) 주권을 확보하는 '소버린 AI' 시대에 대비하려면 오픈소스 기반 모델과 클라우드 컴퓨팅 활용이 핵심이라는 전문가들의 분석이 나왔다. 6일 CNBC가 태국 방콕에서 주최한 '이스트 테크 웨스트 2025' 컨퍼런스에서 패널들은 AI가 점점 더 민주화되는 흐름 속에서 개발도상국들이 자체적인 AI 역량을 갖추는 것이 중요하다고 강조했다. 소버린 AI는 국가가 자국의 AI 기술과 데이터, 관련 인프라를 주도적으로 통제함으로써 고유한 언어와 문화, 안보 요구에 부합하는 기술을 개발할 수 있게 하는 전략적 자립의 개념이다. SCB 10X의 카시마 탄피피차이 AI 전략 총괄은 "지금까지 전 세계에서 가장 주목받는 대형언어모델(LLM)은 대부분 영어를 기반으로 설계돼 있다"고 지적하며 "언어가 다르면 사고방식과 세계와 상호작용하는 방식도 달라질 수 있는 만큼 단순 번역이 아닌 자국 언어와 문화를 반영한 AI 시스템 개발이 중요하다"고 말했다. 이어 "AI를 자국 중심으로 구축하지 않으면 궁극적으로 기술 종속에서 벗어나기 어렵다"고 덧붙였다. 패널들은 동남아시아국가연합(ASEAN) 지역이 소버린 AI를 구축하기에 특히 적합한 환경을 갖췄다고 평가했다. 약 7억 명에 달하는 전체 인구 중 35세 이하가 61%를 차지하며 하루 평균 12만5천 명이 새롭게 인터넷에 접속할 정도로 디지털 전환 속도가 빠르기 때문이다. 특히 이날 행사에서 패널들은 오픈소스 모델이 소버린 AI 환경을 구축하는 데 중요한 역할을 할 수 있다고 강조했다. 탄피피차이 총괄은 "태국과 동남아에는 훌륭한 AI 인재들이 많다"며 "이들이 만들어낸 결과물을 폐쇄된 형태로 묶어두는 것은 국가적으로 큰 손실"이라고 밝혔다. 그는 "오픈소스는 집단적 에너지를 만들어내며 AI 경쟁력을 국가 차원으로 끌어올리는 데 기여할 수 있다"고 설명했다. 오픈소스 모델은 기존의 폐쇄형 모델에 의존하지 않고 기업과 정부가 보다 다양한 선택지를 갖도록 해준다는 점에서 긍정적으로 평가받고 있다. 데이터브릭스의 세실리 응 아세안·중화권 총괄은 "중국의 경우 오픈소스를 통해 AI 생태계를 키우고 미국과의 경쟁력을 높일 수 있었다"며 "이러한 구조는 동남아 국가들에게도 유효하다"고 말했다. 또 AI 주권 확보를 위해서는 언어적 현지화뿐만 아니라 물리적인 컴퓨팅 인프라 자립도 중요하다는 의견이 나왔다. 레드햇의 프렘 파반 동남아·한국지역 총괄은 "그동안 AI 현지화는 언어 중심이었다면 이제는 연산 인프라 자체를 자국 내에서 운영하는 것이 더 중요해지고 있다"며 "글로벌 클라우드 기업뿐 아니라 지역 클라우드 사업자들과 협력해 연산 인프라를 국내에 구축하는 것도 한 방법"이라고 설명했다.

2025.07.06 10:46한정호

"챗GPT보다 싸고 빠르다"…라이너, 검색 LLM으로 AI 검색 시장 '정조준'

라이너가 '챗GPT'보다 정확하고 비용 효율적인 자체 검색 인공지능(AI) 성능을 공개했다. 핵심은 리서치에 최적화된 검색 결과를 신속히 제공하는 구조와 이를 뒷받침하는 데이터 기반 학습 역량이다. 라이너는 자사 '라이너 검색 LLM'이 AI 검색 컴포넌트 성능 비교 평가에서 오픈AI 'GPT-4.1'보다 우수한 결과를 기록했다고 3일 밝혔다. 이번 모델은 기존 오픈 소스 기반 구조 위에 10여 년간 축적한 방대한 사용자 데이터를 사후 학습 방식으로 적용해 정확도와 처리 속도를 높였다. 토큰당 비용도 평균 30~50% 절감한 것으로 나타났다. '라이너 검색 LLM'은 질문 분석부터 답변 생성까지 검색형 에이전트의 전 과정을 처리하는 데 필요한 8개 컴포넌트를 통합 구성한 모델이다. 이 중 카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 컴포넌트는 성능·속도·비용 전 항목에서 'GPT-4.1'을 상회했다. 특히 실제 서비스 환경에서 재현성과 신뢰성을 기반으로 성능을 측정한 점이 주목된다. 단순 벤치마크 수치가 아니라 실사용 기반 결과를 중심으로 비용·속도·정확도의 균형을 검증한 구조다. 이로 인해 기존 대형 모델 대비 가볍고 빠른 검색형 LLM 구현이 가능해졌다는 평가다. 라이너는 수년간 테스트와 개선을 반복하며 LLM 학습 구조를 고도화해 왔다. 자사 사용자 데이터를 활용한 정밀 학습을 통해 질문 처리 구조를 체계화하고 할루시네이션 가능성을 줄이는 방향으로 검색 정확도를 끌어올렸다는 설명이다. 검색 LLM의 비용 경쟁력 역시 차별점으로 꼽힌다. 'GPT-4.1' 대비 평균 30~50% 낮은 토큰당 처리 비용으로, 대규모 트래픽이 발생하는 검색형 에이전트 환경에서도 운영 효율성과 수익성 확보가 가능하다는 계산이다. 조현석 라이너 테크 리드는 "'라이너 검색 LLM'은 8가지 모든 컴포넌트에서 '챗GPT'를 뛰어넘는 성능을 입증했다"며 "어떤 데이터를 어떻게 학습하고 어떤 구조로 질문을 처리하느냐가 AI 할루시네이션을 줄이는 핵심"이라고 밝혔다. 이어 "데이터 학습과 연구 개발에 꾸준히 집중해 온 노력이 차별화된 AI 에이전트 기술 경쟁력으로 이어졌다는 점에서 의미가 크다"고 말했다.

2025.07.03 16:56조이환

[AI는 지금] 정부, '국가 파운데이션 모델' 추진…업계 "설계는 훌륭, 실행이 관건"

정부가 글로벌 생성형 인공지능(AI) 시장에서 독립적 경쟁력을 확보하기 위한 '독자 파운데이션 모델' 개발에 착수했다. 모델을 오픈소스로 공개해 민간 활용도를 극대화하겠다는 구상이다. 업계에서는 방향성과 의도에 대해 긍정적인 평가가 나오지만 실질 집행에 대한 지속적인 모니터링은 필요하다는 시각도 병존한다. 24일 업계에 따르면 과학기술정보통신부는 지난 20일 정보통신산업진흥원(NIPA), 지능정보사회진흥원(NIA), 정보통신기획평가원(IITP) 등과 함께 '독자 AI 파운데이션 모델' 프로젝트를 공식 발표했다. 해당 사업은 기존 '월드 베스트 거대언어모델(LLM)'로 불리던 기획의 정식 명칭으로, 다음달 7월 21일까지 국내 AI 정예팀 공모를 진행해 최대 5개 팀을 선발하고 단계별 압축 평가를 통해 상위팀으로 압축할 계획이다. 이번 사업은 최근 6개월 내 출시된 글로벌 최신 AI 모델 대비 95% 이상의 성능을 목표로 삼고 있다. 다만 고정된 성능 수치에 집착하기보다는 '무빙 타겟' 방식을 도입해 기술환경 변화에 따라 목표와 평가 기준을 유연하게 조정하는 전략을 채택했다. 과기정통부는 이와 같은 방식을 미국 방위고등연구계획국(DARPA)의 모델에 빗대어 'DARPA형'이라고 정의했다. 기술주권 위한 'K-AI 전략' 본격화…정예팀 자율 설계·정부 전폭 지원 구조 이 프로젝트를 위해 정예팀은 AI 모델 개발 전략과 방법론을 스스로 제시해야 한다. 정부는 GPU, 데이터, 인재 등 자원 항목에 대해 '희망 수요'를 정예팀이 먼저 요청하도록 하고 평가를 통해 적정 수준을 매칭 지원한다. 이 과정에서 오픈소스 공개 범위가 넓을수록 정부의 지원 매칭 비율은 높아진다. 그래픽 처리장치(GPU)는 당장 1차 추경 예산 1천576억원 규모를 활용해 민간 GPU를 임차해 지원한다. 팀 당 초기 지원 수량은 GPU 500장 수준이며 평가 결과에 따라 1천 장 이상까지 확대된다. 내년 하반기부터는 정부가 직접 구매한 첨단 GPU 1만 장을 본격 투입할 예정이다. 데이터는 공통수요와 개별수요로 나눠 지원된다. 정예팀이 필요로 하는 저작물 기반 학습데이터를 연간 100억원 규모로 공동구매하고 팀별 데이터 구축 및 가공은 연간 30억~50억원 수준으로 지원한다. 학습 효율성과 저작권 이슈를 동시에 감안한 전략이다. 인재 지원은 해외 우수 연구자 유치를 전제로 한다. 정예팀이 해외 팀이나 재외 한인 인재를 유치하면 정부가 연간 20억원 내외의 인건비 및 연구비를 매칭한다. 이 항목은 정예팀이 탈락하더라도 오는 2027년까지 지속 지원된다. 모델 성능 평가는 6개월 주기로 진행된다. 국민과 전문가가 함께 참여하는 콘테스트 기반 평가, 국내외 벤치마크 기준에 따른 검증 평가, 파생 모델 수를 기준으로 한 파생 평가 등을 결합한 입체적 방식이다. 단계평가를 통해 5개 팀에서 4개, 3개, 2개로 점차 압축하는 경쟁형 설계를 따를 예정이다. 모델 개발 완료 후에는 오픈소스를 통해 국내 AI 생태계 전반에 확산될 예정이다. 정예팀은 공모 시 '국민 AI 접근성 향상'과 '공공·경제·사회 전반의 AI 전환'을 위한 활용 계획을 함께 제출해야 하며 정부는 필요에 따라 이에 매칭해 후속 지원도 가능하다고 밝혔다. AI 안전성 확보도 주요 과제로 포함된다. 정부는 AI 안전연구소(K-AISI)와 협력해 파운데이션 모델의 신뢰성과 확장성을 검증하고 일정 수준 이상에 도달한 모델에 대해 'K-AI 모델', 'K-AI 기업' 등 명칭을 부여해 글로벌 시장에서의 공신력을 제고한다는 방침이다. 송상훈 과기정통부 정보통신정책실장은 "이번 프로젝트는 단순히 AI 모델을 만드는 데 그치지 않고 기술주권을 확보하고 모두가 활용할 수 있는 AI 생태계를 조성하는 출발점이 될 것"이라며 "정예팀들이 글로벌 수준의 독자 모델을 확보해 대한민국이 AI 강국으로 도약하는 기반을 마련하길 기대한다"고 밝혔다. 설계는 잘 했다…'기술·자원·평가' 운용이 진짜 시험대 업계에서는 정부의 독자 파운데이션 모델 추진을 대체로 긍정적으로 평가하고 있다. 국가가 주도해 자국 모델을 구축하려는 흐름은 이미 전 세계적으로 확산 중이며 한국의 이번 시도도 그 연장선에 있다는 분석이다. 실제로 국가 주도 모델 개발은 미국 오픈AI, 앤트로픽 등과 중국 딥시크 만의 경쟁 구도가 아니다. 프랑스는 오픈소스 기반 생성형 AI 기업 미스트랄을 중심으로 자체 모델을 개발하고 있으며 에마뉘엘 마크롱 대통령이 직접 나서 수천억 원대 민간 투자와 글로벌 협력을 이끌고 있다. 싱가포르 역시 '씨라이언(SEA-LION)' 프로젝트를 통해 동남아 현지 언어 기반 LLM을 개발 중이다. 최근에는 칠레 AI센터를 중심으로 아르헨티나, 브라질 등 남미 12개국이 연합해 '라탐-GPT' 개발을 공식화하며 오는 9월 공개를 예고한 상태다. 라지브 쿠마르 한국외국어대학교 연구교수는 "국가가 주도해 독자적인 파운데이션 모델을 개발하는 건 지금 전 세계적인 흐름으로, 한국 정부의 이번 시도는 매우 긍정적으로 본다"며 "인도도 스타트업 중심의 개발을 정책적으로 지원하면서 정부 차원에서 국내 생태계를 강화하려는 시도가 있다"고 말했다. 더불어 업계에서는 이번 프로젝트가 단순히 모델 하나를 만드는 데 그치지 않고 자원 배분 방식과 생태계 설계까지 포괄하고 있다는 점에 주목하고 있다. 'GPU·데이터·인재'라는 AI 핵심 자원을 수요 기반으로 자율 신청받고 이를 정부가 평가 후 매칭하는 구조가 민간 주도성과 정부 책임성을 동시에 확보하려는 시도로 보고 대체로 긍정적으로 반응하는 상황이다. 다만 실무 현장에서는 자원 지원이 선언에만 머물 경우 효과가 반감될 수 있다는 우려도 제기된다. 일례로 GPU의 경우 1천576억원 규모의 예산이 잡혀 있다 해도 실제 장비 임차·세팅·운영까지 이뤄지는 시간 차를 간과해선 안 된다는 게 중론이다. 단순한 GPU 확보가 아니라 팀별 물리적 접근성과 운영 안정성까지 감안한 체계 설계가 필요하다는 것이다. 데이터 항목도 비슷한 맥락이다. 정예팀이 요청하는 데이터에 대한 품질 기준과 저작권 검토 체계가 정비되지 않을 경우 향후 오픈소스 공개 과정에서 법적 리스크나 생태계 혼란을 야기할 수 있다. 특히 저작물 데이터의 공동구매가 연간 100억원 규모로 설정된 만큼, 명확한 선별 기준과 기술적 정제 절차가 병행돼야 한다는 의견이 나온다. 인재 유치 항목에 대해선 방향성은 맞지만 실질 효과는 제약이 클 수 있다는 관측도 있다. 단순히 해외 인재에게 연구비를 매칭 지원한다고 해서 국내에 안착하는 건 어렵다는 것으로 국내 기관의 위상, 프로젝트 자체의 매력도, 그리고 연구 독립성 등이 종합적으로 뒷받침돼야 할 것으로 관측된다. 오픈소스 정책 역시 마찬가지다. 오픈소스 정책이 산업 육성과 충돌하지 않도록 장기적으로는 파라미터 제한이나 일부 모듈 비공개 등에 대한 세분화된 가이드라인이 수립될 필요가 있다는 것이다. 한 업계 관계자는 "오픈소스를 전제로 한 모델 전략은 지금 시기에 필요하다"면서도 "오픈소스에 대한 구체적인 정의가 프로젝트가 진행되면서 확립돼야 할 것으로 보인다"고 말했다. "이어 기술 보호 없이 모든 걸 일괄적으로 공개할 경우 산업적 격차를 키울 수 있다"고 우려했다. 일각에서는 이 프로젝트가 '국가대표 AI'를 선발하는 성격인 만큼 평가 기준의 엄정성과 공정성이 핵심이라는 지적도 있다. 단순한 국내 경쟁이 아니라 세계적 기술 경쟁의 문턱을 넘는 출발점이 되려면 국제적인 벤치마크와 기술 평가 기준을 적극 반영해야 한다는 주장이다. 또 다른 업계 관계자는 프로젝트를 두고 "파운데이션 모델 구축을 위한 기술력과 역량은 충분하지만 자원이 부족했던 강소기업에게는 매우 훌륭한 육성 프로젝트로 보인다"며 "다만 기술적 발전이 빠른 만큼 평가 기준에는 국제적인 수준이 반영돼야 그 공신력이 확보되고 국가대표로서도 의미가 있을 것"이라고 말했다. 이와 함께 모델 규모에 대한 조건이 명확히 규정돼 있지 않다는 점도 일부에서 우려되는 대목이다. 개발 전략과 방법론을 정예팀이 자율적으로 제안하는 'DARPA형' 설계는 기술 진화에 유연하게 대응할 수 있다는 점에서 긍정적이지만 자칫 자원 격차에 따른 구조적 불균형을 초래할 수 있다는 지적이다. 업계 관계자는 "모델 규모에 대한 규정이 자칫 잘못되면 큰 모델들만이 성능과 역량이 좋게 평가를 받을 것"이라며 "기울어진 운동장이 될 수도 있으므로 이를 방지하기 위한 노력을 기울여야 할 것"이라고 평가했다.

2025.06.24 11:21조이환

정부, '국가대표 AI' 만든다…글로벌 수준 모델 개발에 '총력'

대한민국 정부가 인공지능(AI) 기술 자립과 생태계 확장을 목표로 국내 정예팀을 뽑아 독자 모델 개발에 나선다. 글로벌 기업 중심의 AI 주도권 구도를 견제하고 기술 주권을 확보하기 위해서다. 과학기술정보통신부(과기정통부)는 '독자 AI 파운데이션 모델 프로젝트'를 공식 출범하고 다음달 21일까지 참여 정예팀 공모에 착수한다고 20일 밝혔다. 과기정통부 외에도 정보통신산업진흥원, 한국지능정보사회진흥원, 정보통신기획평가원이 공동으로 추진하는 이번 사업은 기존 '월드베스트 거대언어모델(World Best LLM)' 프로젝트의 공식화다. 이번 공모는 성능·전략·파급효과 등을 기준으로 최대 5개 정예팀을 선정한 뒤 단계별 평가를 통해 점진적으로 압축하는 방식으로 진행된다. 최신 글로벌 AI 모델 성능의 95% 이상 달성을 목표로, 참여팀은 자체적인 개발 전략과 방법론을 자유롭게 설계할 수 있다. 프로젝트는 일괄지원이 아닌 6개월 단위 경쟁형 압축 방식을 도입해 민첩한 기술 진화를 유도한다. 지원 자원은 그래픽 처리장치(GPU), 데이터, 인재라는 세 가지 축으로 구성된다. GPU는 올해부터 내년 상반기까지 민간 GPU 임차 형태로, 이후엔 정부 구매 GPU를 활용해 정예팀당 최대 1천 장 이상이 단계별로 지원된다. 데이터는 저작물 중심의 공동구매와 개별 가공 작업에 연간 최대 150억원 규모의 예산이 투입된다. 인재 분야는 해외 연구자 유치 시 연 20억원 한도 내에서 인건비와 연구비를 매칭해 준다. 특히 대학·대학원생의 참여를 필수로 명시하며 미래 인재 양성을 병행하는 구조다. 동시에 참여팀은 국민 AI 접근성 향상, 공공·경제·사회 전환(AX) 기여계획도 함께 제출해야 한다. 오픈소스 수준에 따라 정부 매칭 비율과 자부담 비율이 달라지는 구조도 설계됐다. 프로젝트는 단순한 기술개발에 머무르지 않는다. 국민 대상 사용성 평가, 컨테스트형 단계 심사, 벤치마크와 한국어 성능·안전성 검증 등 다층적 방식으로 완성도를 높인다. 우수한 모델에는 'K-AI' 명칭 부여 등 글로벌 브랜딩도 병행한다. 안전성 확보를 위해 AI안전연구소(K-ASIS)와의 협력도 예정돼 있다. 이 밖에 공공영역은 물론 국방·안보 등 민감 분야 활용도 계획에 포함돼 있다. 정부는 개발된 모델을 오픈소스화해 민간 AI 서비스 생태계 확산에도 적극 활용할 방침이다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 프로젝트는 AI 기술 주권 확보와 모두의 성장을 위한 생태계 구축이 목표"라며 "글로벌 수준의 독자 AI 모델을 통해 대한민국이 진정한 AI 강국으로 도약하길 기대한다"고 밝혔다.

2025.06.20 13:37조이환

'클로드'도 AI 보이스 시장 참전…앤트로픽, 음성 기능 베타 출시

오픈AI가 선보인 챗GPT의 음성 기능이 인기를 끄는 가운데 경쟁사인 앤트로픽도 클로드 모델의 음성 인공지능(AI) 모드 출시를 예고하며 주목받고 있다. 28일 테크크런치에 따르면 앤트로픽은 클로드 음성 기능 베타 버전을 출시했다. 앞으로 몇 주 내에 정식 출시될 예정으로, 음성 기능은 앤트로픽의 클로드 소넷4 모델로 구동된다. 모바일 앱에서도 이용할 수 있다. 앤트로픽은 음성 기능을 활용해 사용자와 클로드 모델 간의 상호 작용 방식을 혁신한다는 목표다. 최근 오픈AI를 비롯한 여러 AI 기업이 자사 챗봇에 음성 채팅 기능을 통합해 제공 중이다. 챗GPT뿐만 아니라 구글은 제미나이 라이브를, xAI는 그록 모델의 보이스 모드를 서비스 중이다. 이런 추세에 맞춰 앤트로픽도 클로드의 음성 기능을 출시하게 됐다. 앤트로픽이 베타 버전으로 출시한 음성 기능은 문서나 이미지 등에 대한 대화도 지원한다. 서비스하는 음성 옵션은 총 다섯 가지이며 텍스트 모드와 음성 모드를 즉시 전환하고 대화 후 요약도 제공한다. 다만 현재는 베타 버전이기에 사용량에 제한이 있는 것으로 알려졌다. 클로드 무료 사용자는 20~30개의 대화만이 가능하다. 반면 유료 사용자는 음성 모드를 통해 구글 캘린더와 지메일 등 구글 워크스페이스와 연동된 서비스도 이용할 수 있다. 앤트로픽 측은 "주요 파트너사인 아마존, 음성 AI 스타트업 일레븐랩스와 향후 클로드의 음성 기능 고도화를 위한 논의를 진행 중"이라고 밝혔다.

2025.05.28 11:37한정호

네이버 하이퍼클로바X, 오픈소스 공개 한 달만에 30만 다운로드 돌파

네이버클라우드의 오픈소스 인공지능(AI) 모델이 글로벌 시장에서 인기를 끌며 경쟁력을 입증하고 있다. 네이버클라우드는 지난달 24일 공개한 오픈소스 AI '하이퍼클로바X 시드' 3종 모델이 출시 한 달여 만에 30만 다운로드를 넘어섰다고 26일 밝혔다. 이는 글로벌 AI 모델 공유 커뮤니티 '허깅페이스'에 등록된 모델 중 상위 약 0.03%에 해당하는 수치로, 하이퍼클로바X의 영향력이 글로벌로 확대되고 있는 모습이다. 텍스트와 이미지, 영상 정보를 함께 처리할 수 있는 시각언어모델인 '하이퍼클로바X 시드 3B'는 약 26만 7천 회 다운로드를 기록하며 3종 모델 중 가장 큰 호응을 얻었다. 네이버클라우드가 한국어 및 영어 관련 시각 정보 이해 능력을 평가할 수 있는 9개 벤치마크의 평균 점수를 비교한 결과, 하이퍼클로바X 시드 3B는 유사 규모의 미국·중국 빅테크 모델보다 높은 점수를 기록했다. 또 파라미터 수가 훨씬 많은 해외 대규모 모델과 유사한 정답률을 보여 성능 경쟁력을 입증한 바 있다. 텍스트 모델인 '하이퍼클로바X 시드 1.5B'와 '하이퍼클로바X 시드 0.5B'도 약 3만5천 회의 다운로드를 기록했다. 특히 두 모델을 기반으로 29개에 달하는 파생 모델이 만들어지는 등 다양한 개선과 실험이 이뤄졌다. 개발자들은 "작은 크기에도 불구하고 균형 잡힌 언어 성능과 뛰어난 안정성이 돋보인다"며 "CPU 환경에서도 빨라 사내용 챗봇으로 매우 손쉽게 활용할 수 있을 것 같다"고 말했다. 네이버클라우드는 현재 개발 중인 하이퍼클로바X 추론 모델도 다음 달 대화형 AI 서비스 '클로바X'를 통해 선보일 계획이다. 또 하이퍼클로바X 음성 모델을 활용한 서비스도 향후 순차적으로 선보일 예정이다. 네이버클라우드 성낙호 하이퍼스케일 AI 기술 총괄은 "프롬 스크래치로 개발한 생성형 AI 모델이 글로벌 오픈소스 커뮤니티에서 주목받고 있어 뜻깊게 생각한다"고 말했다. 이어 "한국어를 비롯해 여러 언어와 문화를 이해하는 각각의 모델들이 공존할 수 있도록 AI 생태계에 다양성을 더할 것"이라며 "이를 기반으로 더욱 혁신적인 기술과 서비스가 나오는 데에 하이퍼클로바X가 기여할 수 있기를 기대한다"고 덧붙였다.

2025.05.26 14:59한정호

"美 기업 3곳 중 1곳이 오픈AI 구독자"…앤트로픽·구글 뒤처져

미국서 오픈AI의 기업 유료 구독 증가율이 구글, 앤트로픽을 넘어섰다는 조사 결과가 나왔다. 7일 미국 핀테크 기업 램프가 '램프 AI 인덱스'를 인용해 조사한 결과에 따르면 미국 기업 중 32.4%가 오픈AI의 AI 모델·플랫폼에 유료로 가입한 것으로 나타났다. 이는 올해 1월 18.9%, 3월 28%에서 꾸준히 증가한 수치다. 반면 앤트로픽은 4.6%에서 8%로 증가하는 데 그쳤다. 구글은 2월 2.3%에서 4월 0.1%로 오히려 감소했다. 경쟁사들이 정체된 사이 오픈AI는 가장 빠른 고객 증가세를 기록한 것이다. 램프는 약 3만 개 기업의 카드·청구서 결제 데이터를 기반으로 AI 관련 구독 지출을 분석해 이같은 결과를 발표했다. 다수 외신은 오픈AI가 빠르게 기업 고객 기반을 넓히고 있다고 평가했다. 또 AI 기술을 업무에 도입하려는 기업이 오픈AI를 주요 선택지로 삼고 있다고 봤다. 오픈AI는 "4월 기준 200만 개 이상의 기업 계정을 보유하고 있다"며 "기업 시장에서 얻는 수익이 향후 핵심 재원이 될 것"이라고 밝힌 바 있다. 이는 지난해 9월 100만 개 대비 두 배 수준으로 증가한 규모다. 블룸버그는 오픈AI가 올해 127억 달러(약 17조7천700억원) 매출을 올리고 2026년에는 294억 달러(약 41조원)까지 확대될 것으로 전망했다. 오픈AI는 2029년까지 현금흐름 기준 흑자를 달성하지 못할 것으로 보고 있다. 다만 기업 고객에게 수천 달러 수준의 맞춤형 AI 에이전트를 판매하는 방안을 검토하고 있으며, 이를 통해 수익 기반을 다질 계획이다. 램프 이코노미스트 아라 카르지안은 "오픈AI는 다른 어떤 기업보다 고객을 빠르게 확보하고 있다"며 "기업 채택률이 경쟁 모델보다 빠르게 증가하고 있음을 보여준다"고 밝혔다.

2025.05.11 14:23김미정

[AI는 지금] "개보위, 中 AI 옹호"…딥시크에 긍정 신호 보낸 고학수 위원장, 이유는?

중국 딥시크의 국내 진출 여부를 둘러싼 논란이 이어지는 가운데 개인정보보호위원회가 오픈소스 기반 인공지능(AI) 모델 활용에 긍정적인 입장을 밝혔다. 중국 기업의 앱 자체를 옹호한 것이 아니라 딥시크 등의 오픈소스 생태계 확장이라는 기술 전략에 지지를 표한 것으로 보인다. 24일 업계에 따르면 고학수 개인정보보호위원회 위원장은 최근 한 세미나에서 딥시크 오픈소스 모델의 활용 가능성을 언급하며 '글로벌 빅테크가 아닌 기업도 도전할 수 있는 기회'라고 표현했다. 해당 발언은 지난달 국내 앱스토어에서 자진 철수한 딥시크 앱과는 별개로 발전하고 있는 오픈소스 기술 흐름을 짚은 것으로 평가된다. 딥시크는 중국발 오픈소스 거대언어모델(LLM) 스타트업으로, 지난 1월 이후 전 세계 AI 생태계를 신속히 장악했다. 오픈AI, 앤트로픽, 구글 딥마인드 등 미국·영국 프런티어 AI 기업들이 천문학적 자금을 투입한 것과 달리 적은 비용으로 고성능 모델을 구현한 데다 오픈소스로 공개돼 폭발적인 관심을 받았다. 퍼플렉시티 등 해외 LLM 서비스 기업들은 이미 딥시크를 로컬 환경에 설치해 운영 중이다. 최근에는 국내 기업들도 이를 기반으로 특화 모델 개발에 나서고 있다. 뤼튼테크놀로지스와 이스트소프트는 지난 2월 딥시크 모델을 자체 클라우드 환경에 구축해 운영을 시작했다. 크라우드웍스는 일본 법인을 통해 딥시크 R1 기반 일본어 모델을 개발한 뒤 이를 한국어로 확장할 계획이다. 일각에선 크라우드웍스가 딥시크 본사와 직접 계약을 맺고 한국어 모델을 공동 개발했다고 주장했지만 이는 사실이 아닌 것으로 확인됐다. 크라우드웍스 측이 지난 23일 딥시크 본사와 계약한 적이 없으며 회사가 활용 중인 모델은 앱이 아닌 설치형 B2B 버전이라고 해명했기 때문이다. 데이터가 중국 서버로 전송되는 B2C 앱과는 구조적으로 다르다는 설명이다. 실제로 퍼플렉시티, 뤼튼, 이스트소프트 등의 국내 설치형 모델은 외부 인터넷과 연결되지 않는 제한된 환경에서 구동된다. 이에 따라 중국 서버로 정보가 전송될 가능성은 원천적으로 차단된다. 다만 보안업계에서는 딥시크처럼 오픈소스로 제공되는 모델이라도 로컬 환경에 도입할 경우 여전히 위험 요소가 존재한다고 지적한다. 오픈소스 특성상 코드나 가중치 파일에 악성 코드가 삽입될 수 있으며 모델 로딩 과정에서 시스템 취약점을 노린 침투 가능성도 배제할 수 없기 때문이다. 또 일부 개발자가 모델에 내장된 안전 장치를 우회하거나 변형 모델을 제작할 경우 유해한 콘텐츠나 악성 코드를 생성하는 방식으로 악용될 수 있다. 특히 딥시크는 경쟁 모델에 비해 보안 업데이트나 코드 감사가 부족하다는 평가도 있어 도입 시 철저한 검증과 보안 관리가 필요하다는 지적이 잇따른다. 실제로 김승주 고려대학교 정보보호대학원 교수는 최근 자신의 링크드인을 통해 "딥시크를 PC나 클라우드에 설치해서 쓰면 운영주체가 중국이 아니기 때문에 안전하다는 말이 돈다"며 "이는 굉장히 위험한 생각"이라고 지적했다. 그럼에도 고 위원장이 딥시크를 위시한 오픈소스 LLM에 주목한 이유는 분명하다. 자본과 인프라가 부족한 국내 AI 생태계가 낮은 진입 장벽을 바탕으로 글로벌 경쟁에 도전할 수 있다는 점 때문이다. 업계에선 이 같은 메시지를 한국 정부가 추진 중인 '월드 베스트 LLM' 프로젝트와 맞물려 해석하는 분위기다. 정부는 국가 차원의 대규모 언어모델 개발을 위해 파운데이션 모델을 오픈소스로 공개하고 공공 중심의 활용 사례를 확산하겠다는 계획을 밝힌 바 있다. 이 프로젝트는 지난 2월 과학기술정보통신부가 발표한 'AI R&D 전략 고도화 방안'에 핵심 과제로 포함됐다. 정부는 향후 3개월 이내 'AI 국가대표팀'을 선발해 연구 자원과 데이터를 집중 지원하고 공공 데이터를 기반으로 한 특화 모델 개발을 유도할 방침이다. 업계에선 딥시크 사례가 이 같은 흐름을 촉발하는 계기가 됐다는 평가도 나온다. 고성능 언어모델을 오픈소스를 통해 낮은 비용으로 구현할 수 있다는 점이 확인되면서 '챗GPT'나 '클로드' 등 프런티어 AI를 빠르게 따라잡을 수 있다는 기대가 생겼다는 분석으로, 보안만 보장된다면 무료로 실사용도 가능하다는 인식이 퍼진 것이 정책 전환에 영향을 미쳤다는 해석도 제기된다. 고학수 개인정보보호위원회 위원장은 "딥시크 등의 모델에는 분명 잠재적인 불안 요소가 있지만 빅테크가 아니어도 적은 투자를 통해 세계 시장에 도전할 수 있다는 메시지를 줬다"며 "이러한 오픈소스를 통해 국내에서도 다양한 앱 서비스를 만들 수 있을 것"이라고 말했다. 이어 "향후에 보다 넓은 생태계를 구축해야 한다고 믿는다"며 "자유로운 혁신의 한 축은 열린 모델을 통해 새로운 응용 생태계를 형성하는 것이라 생각한다"고 말했다.

2025.03.24 16:16조이환

"딥시크만큼 똑똑"…알리바바, AI 추론 모델 공개

알리바바가 자사 새 인공지능(AI) 모델이 '딥시크-R1'과 대등한 수준이라고 주장했다. 7일 CNN 등 외신에 따르면 알리바바는 올해 1월에 이어 새 AI 모델 'QwQ-32B' 출시를 발표하면서 이같이 강조했다. 발표 내용에 따르면 QwQ-32B는 오픈AI의 저비용 추론 모델 '오픈AI-o1-미니'를 능가했으며 딥시크의 오픈소스 모델 딥시크-R1과 대등한 수준인 것으로 전해졌다. 또 수학을 비롯한 코딩, 일반 지식 분야에서 기존 모델보다 높은 점수를 받았다. 알리바바 모델 출시는 올해 1월 중국 AI 스타트업 딥시크가 고성능 AI 추론 모델 딥시크-R1을 공개한 지 두 달 만에 이뤄졌다. 당시 딥시크는 훈련 비용이 오픈AI, 구글 등 빅테크 모델보다 낮으면서도 높은 성능을 제공한다고 강조해 AI 산업계에 돌풍을 일으켰다. 같은 달 알리바바도 자사 모델 '큐웬 2.5 맥스'가 딥시크 모델 'V3'보다 우수한 성능을 보였다고 주장한 바 있다. 알리바바는 AI 경쟁력 강화하기 위해 대규모 투자를 추진하겠다고 밝혔다. 지난주 향후 3년간 AI와 클라우드 컴퓨팅 인프라에 최소 524억 달러(약 75조8천800억원)을 투자하겠다고 발표했다. 이는 지난 10년간 투자 규모를 넘어선 수준이다. 투자 발표 후 알리바바 홍콩 증시 상장 주가는 8% 상승으로 마감했다. 항셍 중국 기업지수까지 함께 증가해 중국 AI 시장에 대한 기대감이 올랐다. CNN은 "중국 AI 시장 경쟁은 더욱 치열해질 것으로 예상된다"며 "실제 모델 성능에 대한 시장 반응에 눈길이 쏠렸다"고 평가했다.

2025.03.07 09:32김미정

AI도 표현의 자유 얻나…오픈AI, 민감이슈 답변 허용·검열 수위 낮춘다

오픈AI가 '지적 자유'를 핵심 원칙으로 인공지능(AI) 모델 훈련 정책을 변경한다. 보다 개방적인 방식으로 질문에 답하고 다양한 관점을 제공하며 기존에 다루지 않았던 논란의 여지가 있는 주제에 대해서도 대응할 방침이다. 17일 테크크런치 등 외신에 따르면 오픈AI는 새로운 모델 사양(Model Spec)을 공개했다. 모델사양은 AI를 훈련시키는 과정에서 행동 지침과 설계 원칙을 담은 문서다. 어떤 방식으로 응답하고 무슨 기준을 가지고 판단해야 하는지 등을 규정해 AI가 답변이나 데이터를 생성하는 등 업무를 수행하는 과정에서 정확성을 높이고 합성된 허위데이터로 인한 환각 현상 등을 제거해 제어력을 향상시키는 것을 목표로 한다. 이번에 오픈AI가 공개한 최신 모델 사양은 187페이지 분량으로 AI 모델이 거짓을 말하지 않고 중요한 맥락을 생략하지 않으며 중립적 태도를 유지해야 한다는 원칙을 중심으로 구성됐다. 기존에는 민감한 사안에 대해 답변을 거부하거나 어느 한쪽 입장에 기울어질 경우 정책 위반 경고를 띄워 사용자를 제지했지만, 이제는 '지적 자유(intellectual freedom)'를 보장한다는 대원칙 하에 더욱 폭넓은 영역에서 답변을 허용하는 방향으로 선회한다는 것이다. 이번에 공개된 모델 스펙에 따르면 오픈AI는 '거짓말 금지'와 '함께 진실을 탐색한다'는 새로운 슬로건을 강조한다. 사용자의 질문에 대해 맥락과 사실 관계를 충분히 전하며 특정 진영의 주장을 배제하기보다는 다양한 관점을 함께 제시함으로써 중립성을 지키겠다는 취지로 해석된다. 예를 들어 사회 운동 관련 질문이 들어올 경우 '인류에 대한 포괄적 존중'을 전제하면서 양측의 시각을 동시에 보여주는 식으로 답변을 유도한다고 한다. 논쟁이 뜨거운 주제에 대한 언급이라 할지라도, 가능한 한 답변을 거부하지 않고 다양한 시각과 사실적 근거를 함께 제시하겠다는 것이다. 오픈AI는 여전히 허위 정보를 조장하거나 증오·폭력을 선동하는 발언 등 '명백히 해롭고 악의적인' 요청은 제한할 수 있다고 설명한다. 다만 사용자의 체감상 느끼는 '검열' 수준은 대폭 낮추겠다는 게 핵심이다. 실제로 챗GPT가 사용자의 정책 위반 여부를 지적하는 경고 문구를 일단 제거해 답변 과정에서 사용자와의 충돌을 완화하는 모습이 포착되기도 했다. 업계에서는 오픈AI의 이런 노선 변경이 새로운 정치 환경과도 연관이 있을 수 있다는 추측을 내놓는다. 일부 전문가는 재집권한 트럼프 행정부가 기술 기업 중 특히 빅테크가 제공하는 서비스가 '정치적 중립'을 유지하고 있는지 예의주시해 왔다는 점을 들어, 오픈AI가 선제적으로 '지적 자유'를 표방하며 보수 진영을 비롯한 다양한 계층의 신뢰를 얻으려는 포석으로 해석 중이다. 다만 오픈AI 대변인은 "특정 정부나 정치 세력을 의식해 정책을 바꾼 것은 아니다"며 "사용자가 다양한 정보를 접하고 스스로 판단하도록 돕는 것은 오픈AI의 오랜 신념"이라고 일축했다. 이러한 변화는 AI 업계 전반에서도 큰 흐름으로 자리 잡을 조짐이다. 기존에는 선거 관련 정보 제공이나 민감한 정치·사회 이슈에 대해 AI가 답변하는 것을 위험하다고 보고 일괄 차단하는 방식이 주류였다면, 이제는 발전된 AI 모델의 기술력과 정책적 안전장치를 기반으로 한층 개방적으로 답변을 허용하려는 분위기가 확산되는 것이다. xAI나 메타 등 다른 기업들도 표현의 자유를 최대한 보장하겠다고 표명하고 나섰다. 또 다른 맥락에서 오픈AI의 이번 정책 변화는 자사의 차세대 대규모 데이터센터 건설 프로젝트인 '스타게이트'와 함께 언급되기도 한다. 대규모 인프라 투자에서 정부 규제는 상당한 변수로 작용하므로, 특히 미국 정부와의 원활한 관계를 유지하는 것이 중요하다는 해석이다. 오픈AI는 신규 모델 사양을 오픈소스 라이선스 정책에 따라 퍼블릭 도메인으로 공개한다고 밝혔다. 퍼블릭 도메인은 저작권의 보호를 받지 않아 누구나 자유롭게 다운로드, 복제, 수정, 배포할 수 있으며 상업적 용도로도 사용할 수 있다. 오픈AI 측은 "우리의 목표는 유용하고 안전하며 사용자와 개발자의 요구 사항에 맞는 모델을 만드는 동시에 인공일반지능(AGI)이 모든 인류에게 이롭다는 사명을 발전시키는 것"이라며 "이 목표를 달성하려면 개발자와 사용자에게 권한을 부여하는 모델을 반복적으로 배포해야 하며 모델이 사용자나 다른 사람에게 심각한 해를 끼치지 않도록 방지하고 오픈AI의 운영 라이선스를 유지해야 한다"고 설명했다. 이어 "이번 업데이트는 임의의 제한 없이 AI를 탐색하고, 토론하고, 창조할 수 있는 사용자 정의, 투명성 및 지적 자유에 대한 우리의 헌신을 강화하는 동시에 실제 피해의 위험을 줄이기 위한 가드레일을 유지할 것"이라고 덧붙였다.

2025.02.17 10:28남혁우

"인간처럼 AI도 늙는다"…구형 모델, '인지 저하' 겪어

시간이 흐르면서 인공지능(AI) 모델도 사람처럼 '인지 저하'를 겪을 수 있다는 우려가 나왔다. 17일 영국의학저널(BMJ)에 따르면 거대언어모델(LLM) 기반 AI 챗봇 테스트 결과 이같은 연구 결과가 나온 것으로 전해졌다. 인간이 나이가 들수록 기억력 감퇴나 치매를 겪는 것처럼 AI도 비슷한 현상을 보인다는 설명이다. 연구진은 오픈AI '챗GPT'와 앤트로픽 '소네트', 구글 '제미나이' 등 LLM 기반 챗봇 대상으로 몬트리올 인지 평가(MoCA) 테스트를 진행했다. MoCA는 알츠하이머나 치매 등 인지 장애를 평가하는 검사다. 주의력과 기억력, 언어 능력, 공간 인지, 실행 기능 등을 측정한다. 실험 결과 모델 중 가장 최신 버전인 GPT-4o는 30점 만점 중 26점을 받아 정상 범주에 해당하는 점수를 기록했다. 상대적으로 구형 모델인 제미나이1.0은 16점에 그쳤다. 챗봇들은 이름 맞히기, 주의력, 언어 능력, 추상적 사고 영역에서 비교적 우수한 점수를 기록했다. 공간 인지, 실행 기능과 관련한 평가에서는 구형 모델일수록 낮은 점수를 받았다. 특히 기억 영역에서 가장 큰 격차를 보였다. 연구를 주도한 이스라엘 하다사 의료센터 로이 다얀 신경과학자는 "AI가 시각적 추상화(visual abstraction)와 실행 기능(executive function)이 필요한 작업에서 신뢰할 수 없는 결과를 낼 가능성이 높다"며 "AI가 인간을 대체하는 데 있어 치명적 한계를 가질 수 있을 것"이라고 지적했다. AI와 인간 인지 기능은 본질적으로 다르므로 직접적인 비교는 어렵다. 다만 연구진은 이번 보고서를 통해 AI 한계를 고려해야 한다는 점을 당부했다. 특히 의료 현장에서 AI를 활용할 때 이를 보완할 방안이 필요하다고 강조했다. 일각에선 AI 모델의 장기적 신뢰성 확보 중요성이 높아질 것이라는 전망이 나왔다. 신경학자들은 "인지 장애를 겪는 AI를 진단·관리할 수 있는 새 시장이 열릴 것"이라고 봤다.

2025.02.17 09:21김미정

"앤트로픽, 클로드 새 모델 공개 임박?"…출시설에 AI 업계 촉각

앤트로픽이 추론과 신속 응답을 결합한 '하이브리드' 인공지능(AI) 모델을 개발하고 있는 것으로 보인다. 최근 AI 업계에서는 주요 기업들이 잇따라 신형 모델을 출시하며 기술 경쟁이 격화되고 있어 앤트로픽의 행보에도 관심이 집중되고 있다. 14일에 디인포메이션에 따르면 앤트로픽은 향후 몇 주 안에 차세대 AI 모델을 출시할 계획을 가지고 있는 것으로 알려졌다. 이번 모델이 도입할 가능성이 높은 핵심 기술 중 하나는 '슬라이딩 스케일' 기능이다. 이 기능을 활용하면 AI의 연산 모드를 조절해 성능을 최적화할 수 있다. 앤트로픽 내부 직원들은 신형 AI 모델이 일부 프로그래밍 작업에서 오픈AI의 'o3-미니-하이' 모델을 능가하는 성능을 보였다고 전했다. 이에 따라 이 모델은 대규모 코드베이스 분석 및 비즈니스 활용에서도 강점을 가질 것으로 예상된다. 앤트로픽의 이번 행보는 AI 업계의 치열한 경쟁 구도 속에서 나온 결정으로 보인다. xAI의 최고경영책임자(CEO)인 일론 머스크 역시 지난 13일 두바이에서 열린 행사에서 "우리 AI 모델 '그록 3'가 최종 개발 단계에 있다"며 "향후 1~2주 내 출시될 것"이라고 밝힌 바 있다. 다만 이번 보도는 내부 정보망을 기반으로 한 것으로, 출시 여부와 정확한 일정은 공식적으로 확인되지 않았다. 업계에서는 앤트로픽의 신형 AI 모델이 오픈AI, 구글, xAI를 비롯한 경쟁사들과의 기술 격차를 줄이는 계기가 될지 주목하고 있다. 다리오 아모데이 앤트로픽 대표는 최근 테크크런치와의 인터뷰에서 "우리는 자체적으로 더 차별화된 추론 모델을 만드는 데 집중하고 있다"며 "일반 모델과 추론 모델을 구분하는 기존 개념이 다소 이해하기 어렵다"고 밝혔다.

2025.02.14 10:04조이환

오픈AI, 韓 기업 연쇄 회동…카카오·삼성 만나 '수익' 실현하나

샘 알트먼 오픈AI 최고경영자(CEO)가 한국을 방문해 카카오, SK, 삼성, 크래프톤 등 주요 대기업 및 스타트업과 연쇄 회동을 가졌다. 글로벌 인공지능(AI) 시장 경쟁이 치열해지는 가운데 수익성 강화를 위해 국내 기업들과의 협력·투자 유치를 추진하기 위함이다. 4일 업계에 따르면 알트먼 CEO는 이날 오전부터 빡빡한 일정을 이어갔다. 오전 8시부터 최태원 SK그룹 회장과 약 40분간 간담회를 진행했으며 9시에는 회사가 주최하는 개발자 행사 '오픈AI 빌더랩'에 참석했다. 이 자리에는 네이버, LG AI 연구원 등 IT 대기업과 뤼튼테크놀로지스, 와들, 포티투마루 등 국내 신생 AI 기업들의 개발자들이 대거 참석해 오픈AI의 기술과 전략에 대한 논의를 진행했다. 빌더랩 질의 응답에 참가한 알트먼 CEO는 오전 10시 40분부터 김창한 크래프톤 대표와 만나 AI 게임 캐릭터(CPC) 및 게임 특화 AI 모델 최적화 협력 방안을 논의했다. 이후 11시에는 카카오톡 미디어 간담회에 모습을 드러냈다. 이 자리에서는 카카오와 함께 '챗GPT' 기술을 카카오톡과 카카오의 새 AI 서비스 '카나나(Kanana)'에 통합한다고 전격 발표했다. 이에 따라 카카오는 '챗GPT' 엔터프라이즈를 회사 서비스에 전면적으로 적용하게 된다. 카카오와의 협력 발표가 끝난 후 그는 극비리에 방한한 손 마사요시 소프트뱅크 회장과 함께 삼성전자 서초사옥을 찾았다. 업계에서는 이 자리에서 AI 반도체, AI TV, AI 특화 디바이스 개발 등이 주요 의제로 다뤄졌을 것으로 본다. 특히 알트먼 CEO가 지난달 도널드 트럼프 전 미국 대통령이 발표한 대규모 데이터 센터 건설 사업인 '스타게이트 프로젝트' 참여를 삼성전자에 요청했을 가능성도 제기된다. 업계에서는 이처럼 알트먼 CEO가 동분서주하는 이유로 현금과 수익성 확보가 절실하기 때문이라고 분석한다. 현재 오픈AI는 세계 1위 AI 업체로 평가받으며 기업가치 1천570억 달러(한화 약 2천290조원)를 기록 중이지만 '챗GPT'의 B2C 수익만 놓고 보면 적자 상태인 것으로 알려졌다. 실제로 회사는 지난해 기준 매출 37억 달러(한화 약 51조원)에 적자 50억 달러(한화 약 68조원)를 기록한 상황으로, 올해 매출은 전년 대비 2배 이상 늘어날 것으로 전망됨에도 여전히 적자를 벗어나기 어려울 것으로 예상된다. 실제로 샘 알트먼 CEO는 지난달 자신의 X 계정에 "챗GPT '프로'를 발표한 뒤 너무 많은 사람이 사용해 적자를 보고 있다"며 "월 200달러(한화 약 30만원) 정도 구독료를 책정하면 수익을 낼 수 있으리라 봤다"고 언급했다. 이같은 상황 속에서 알트먼 CEO의 국내 방문과 협력 모색은 국내 IT·빅테크 업계와 협업 계획을 적극 추진하고 투자를 유치하면서 파트너 범위를 넓히려는 행보로 풀이된다. 특히 카카오와의 전면적인 협력은 오픈AI가 안정적 수익 창출원을 확보하기 위한 중요한 포인트로 해석된다. 이용자가 5천만 명에 달하는 카카오 플랫폼은 단숨에 대규모 사용자를 확보할 수 있는 통로이기 때문이다. 빌더랩 행사에 국내 주요 IT 대기업과 스타트업의 개발자들을 초청한 것도 같은 맥락으로 분석된다. 초대된 개발자들이 오픈AI 기술을 직접 체험하게 함으로써 잠재적인 파트너 풀을 확대해 API를 도입하게 함으로써 B2B 사업을 장기적으로 확장할 수 있다는 계산이다. 이날 빌더랩에 참석한 한 업계 관계자는 "질의응답 시간에 알트먼이 한국을 두고 AI 발전에 필요한 핵심 요소를 갖춘 장소'라고 강조했다"며 "오픈AI가 국내 IT 서비스 기업들에게도 경쟁력 있는 파운데이션 모델 API를 공급하려는 의지가 강하게 드러났다"고 설명했다. 이 같은 국내 협력 논의는 투자 유치와도 연결된다. 오픈AI는 B2B 확장을 통해 새로운 매출원을 발굴하는 동시에 글로벌 투자자들로부터 대규모 자금을 조달하려는 움직임을 보이고 있기 때문이다. 실제로 삼성전자와의 3자 대담에 동석한 손 마사요시 소프트뱅크 회장은 지난 3일 일본 도쿄에서 이미 알트먼 CEO와 별도로 회동해 투자 확대 방안을 논의했다. 소프트뱅크 그룹은 연간 30억 달러(한화 약 4조 원) 규모로 오픈AI의 도구를 자사 계열사에 도입하겠다는 계획을 발표했으며 지난달에는 '스타게이트' 프로젝트의 출자자로서 전면적인 지원을 아끼지 않겠다고 밝히며 사실상 오픈AI와 전략적 동맹 관계를 구축한 상태다. 오픈AI가 국내에서 투자 유치와 기업 협력을 강화하는 이유 중 하나는 최근 중국 AI 업계의 급부상이다. 중국 AI 스타트업 딥시크(DeepSeek)가 출시한 'R1' 모델이 업계에 거대한 지각변동을 일으키고 있기 때문이다. 지난달 20일 공개된 'R1'은 출력 토큰 100만 개당 2.19달러(한화 약 3천 원)로, 이는 오픈AI의 'o1' 모델 대비 97%나 저렴한 수준이다. 이미 아마존, MS, 퍼플렉시티 등 글로벌 IT 기업들이 딥시크 모델의 도입을 검토하거나 추진하면서 오픈AI 역시 비용 경쟁력을 확보하고 시장 대응 속도를 높이는 것이 시급해졌다. 다만 오픈AI의 한국 시장 내 입지는 오히려 더 강화될 가능성이 크다는 분석도 제기된다. 보안 문제로 인해 국내 IT 기업들은 중국산 LLM API 활용에 제약을 받을 가능성이 높으며 상대적으로 보안 신뢰도가 높은 오픈AI를 선호하는 기업이 많다는 점이 그 이유다. 이에 따라 오픈AI는 한국 시장을 AI 기반 B2B 사업 확장의 주요 거점으로 삼고 대기업과의 협력을 더욱 적극적으로 확대하려는 것으로 보인다. 한 업계 관계자는 "오픈AI가 기술 우위를 유지하는 동시에 보안 신뢰도와 파트너십을 빠르게 확대해 나간다면 국내에서의 장기적인 수익화에도 긍정적인 영향을 미칠 것"이라고 전망했다.

2025.02.04 17:43조이환

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환

"오픈AI에 도전장?"…中 딥씨크, 초거대 AI 모델 'V3' 공개

중국 오픈소스 인공지능(AI) 스타트업 딥씨크가 초대형 거대언어모델(LLM) 'V3'를 공개하며 업계에 파장을 일으키고 있다. 29일 테크크런치 등 외신에 따르면 딥씨크가 최근 공개한 'V3'는 6천710억 개 매개변수를 갖춰 텍스트 기반 작업, 코딩, 번역, 에세이 작성 등 다양한 과제를 처리하며 뛰어난 성능을 보이고 있다. 이 모델은 14.8조 개의 텍스트 토큰으로 학습됐으며 이를 통해 방대한 데이터에서 학습된 고도의 추론 능력을 보여준다. 그래픽처리장치(GPU) 사용량을 줄이며 550만 달러(한화 약 77억원)라는 비교적 낮은 비용으로 훈련된 점도 주목할 만하다. 딥씨크는 자체 벤치마크 결과 'V3'가 오픈AI의 'GPT-4'와 메타의 '라마 3.1' 모델을 뛰어넘었다고 주장했다. 특히 코딩 대회 플랫폼 '코드포스'와 '에이더 폴리글롯(Aider Polyglot)' 테스트에서 높은 점수를 기록하며 기술력을 입증했다. 그럼에도 불구하고 테크크런치 등 외신과 해외 유저들이 진행한 테스트에서 'V3'는 자신을 오픈AI의 'GPT-4'로 착각하는 등의 환각 문제를 보이며 논란을 일으켰다. 모델은 "나는 챗GPT입니다"라고 답하거나 오픈AI 애플리케이션 프로그램 인터페이스(API) 사용법을 설명하는 등 잘못된 정보를 제공한 것으로 알려졌다. 또 챗GPT와 유사한 농담을 그대로 반복하는 등 콘텐츠 혼란의 징후도 드러나고 있다. 딥씨크는 이에 대해 명확한 해명을 내놓지 않고 있어 의혹이 커지고 있다. 이에 전문가들은 'V3'가 학습 데이터에 '챗GPT'의 출력을 포함했을 가능성을 지적하고 있다. 경쟁 모델의 출력을 무단으로 학습했을 경우 발생할 수 있는 문제라는 분석이다. 중국 내 규제 상황도 'V3'의 한계로 지적된다. 'V3'를 포함한 딥씨크 서비스는 천안문 사태와 같은 민감한 정치적 질문에 응답하지 않는데 이는 중국의 인터넷 규제 정책에 부합하기 위해 설계된 결과다. 샘 알트먼 오픈AI 대표는 최근 자신의 X 계정에 "이미 작동중인 것들을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 밝혔다. 이는 딥씨크 모델 출시에 대한 우회적 비판으로 풀이된다. 마이크 쿡 런던 킹스칼리지 연구원은 "경쟁 모델 출력을 학습하는 것은 모델 품질 저하와 현실 왜곡을 초래할 수 있다"며 "이는 복사본의 복사본을 만드는 것과 같다"고 우려했다.

2024.12.29 10:17조이환

"AI 추론 비용 낮추는 양자화, 모델 성능까지 떨어뜨려"

인공지능(AI) 모델 추론 비용을 낮추기 위해 활용되는 '양자화' 기술이 오히려 모델 성능을 떨어뜨릴 수 있다는 의견이 나왔다. 29일 업계에 따르면 AI 모델 효율성을 높이기 위해 사용되는 양자화가 한계에 직면했다는 지적이 이어지고 있다. AI 모델 추론과 훈련 비용 문제를 해결하기 위한 수단으로 평가받았지만, 오히려 모델 성능을 저하할 수 있다는 평가다. 최근 AI 복잡성과 훈련 데이터 규모가 늘면서 모델 추론·운영에 드는 비용이 기하급수적으로 늘고 있는 것으로 전해졌다. 업계에서는 AI 모델이 질문에 답하거나 결과를 생성하는 추론 과정에 드는 비용이 늘었다는 분위기다. 이를 해결하기 위한 수단으로 양자화 기술이 활용되기 시작했다. 양자화는 모델이 데이터를 처리할 때 사용하는 숫자 정밀도를 낮추는 기술이다. 이는 모델 추론·계산 과정을 기존보다 빠르게 처리할 수 있게 돕는다. 예를 들어 사람이 AI 챗봇에 "지금 몇 시입니까?"라고 물었을 때 챗봇이 "12시 0분 1초 4밀리초" 대신 "12시"라고 답한다. 챗봇에 탑재된 모델이 양자화 과정을 거쳤기 때문에 답변을 간략히 내놓을 수 있다. 모델은 해당 방식으로 복잡한 추론 과정과 데이터 처리에 드는 정밀도를 줄여 업무를 진행한다. 이를 통해 추론·훈련 비용뿐 아니라 전력 소비까지 줄일 수 있다. 학계에선 AI 양자화가 모델 성능 자체를 떨어뜨릴 수 있다는 지적이 이어지고 있다. 추론 과정서 생기는 정밀도를 줄이면 비용을 낮출 순 있지만 환각현상이 생기거나 복잡한 업무 자체를 처리할 수 없다는 이유에서다. 지난 4월 메타의 '라마3' 성능이 양자화를 거친 후 타사 모델보다 성능 저하를 크게 보인다는 연구 결과가 나오기도 했다. 최근 하버드대와 스탠퍼드대, 메사추세츠 공대, 데이터브릭스, 카네기멜런이 공동 연구한 논문에 따르면 모델 규모가 클수록 양자화로 인한 부정적 영향을 받을 확률이 높은 것으로 전해졌다. 특히 오랜 시간 많은 데이터를 학습한 모델일수록 양자화 과정을 거친 후 성능 저하를 보일 수 있다는 연구 결과다. 해당 연구 1 저자인 하버드대 타니시 쿠마르 수학과 학생은 "양자화를 통해 모델 정밀도를 계속 낮추면 모델 성능이 낮아질 수밖에 없다"며 "모델 추론 비용을 줄이기 위한 지나친 양자화는 장기적으로 문제가 될 수 있다"고 지적했다. 그러면서 "높은 품질 데이터를 선별적으로 사용하거나 저정밀도 환경에서도 안정적으로 작동할 수 있는 새 AI 아키텍처가 필요한 시점"이라고 주장했다. 또 "기업이 대형 모델을 양자화하는 것보다 처음부터 소형 모델 개발하는 것이 이득일 수 있다"고 덧붙였다.

2024.12.29 10:15김미정

"AI 에이전트, 우리가 주도"…구글, 더 똑똑한 '제미나이 2.0'으로 승부수

구글이 멀티모달(복합 정보처리) 능력이 향상된 차세대 인공지능(AI) 모델을 앞세워 급성장하고 있는 'AI 에이전트(비서)' 시장 공략에 본격 나선다. 챗봇을 넘어 사용자 대신 행동까지 수행하는 'AI 에이전트'가 AI 시대의 새로운 트렌드로 자리 잡으면서 글로벌 빅테크들의 기술 경쟁도 한층 강화된 모습이다. 12일 블룸버그통신 등에 따르면 구글은 지난 11일(현지 시간) '제미나이 2.0'을 새롭게 출시했다. 구글의 새 AI 모델 출시는 올해 2월 '제미나이 1.5'를 내놓은 지 약 10개월 만이다. 자체 개발한 6세대 칩(TPU)인 '트릴리움(Trillium)'을 기반으로 구축된 '제미나이 2.0'은 구글이 지금까지 선보인 AI 모델 중 가장 뛰어난 성능을 가진 것으로 평가됐다. 텍스트는 물론 이미지와 동영상 기능을 갖춘 멀티모달 기능도 전작 대비 한층 더 개선된 것으로 나타났다. 주요 벤치마크에선 '제미나이1.5 프로'에 비해 속도가 2배 빠른 것으로 평가됐다. 구글은 이날부터 '제미나이2.0 플래시'를 개발자를 위한 플랫폼인 '구글 AI 스튜디오'와 기업용 플랫폼인 '버텍스 AI'에서 실험 모델로 제공한다. 이 중 '플래시' 모델은 울트라, 프로, 나노 등 매개변수 크기에 따른 제미나이 제품군 가운데 프로 모델을 경량화한 모델로, 지난 1.5 버전부터 선보였다. 구글은 '제미나이 2.0'의 고급 추론 기능을 10억 명이 이용하는 AI 검색 서비스 'AI 오버뷰'에도 적용할 예정이다. 수학 방정식이나 멀티모달 질문 및 코딩 등 더 복잡한 질문도 처리할 수 있도록 할 계획이다. 또 구글 검색을 시작으로 전 제품에 빠르게 '제미나이 2.0'을 적용될 계획이다. 순다 피차이 구글 최고경영자(CEO)는 "(이번 일로) 범용 어시스턴트라는 우리의 비전에 더 가까이 다가갈 수 있게 됐다"고 말했다. 구글은 '제미나이 2.0'을 기반으로 한 새로운 AI 에이전트도 이날 함께 선보였다. 실험 단계인 '프로젝트 마리너'는 '제미나이 2.0'을 탑재해 브라우저 화면을 이해하고 추론하는 등 복잡한 작업을 지원한다. 개발자를 위한 AI 에이전트 '줄스'는 코딩 작업을 도와준다. 지난 5월 선보인 '프로젝트 아스트라'에도 '제미나이 2.0'이 탑재됐다. 이에 따라 이용자와의 대화가 더욱 자연스러워지고 응답 속도가 빠르며 최대 10분간 대화 내용을 기억하는 등 기억력도 강화됐다. 또 다국어로 대화하는 것뿐 아니라 구글 검색과 구글 렌즈, 구글 맵스 등 다양한 기능도 활용할 수 있게 됐다. 구글은 제미나이 애플리케이션뿐 아니라 안경 형태의 폼팩터에서도 프로젝트 아스트라를 구현할 예정이다. 데미스 허사비스 구글 딥마인드 최고경영자(CEO)는 "'제미나이 2.0'은 다양한 기능 조합, 더욱 자연스러운 상호작용, 빠른 응답 속도, 복잡한 작업 처리 능력을 통해 완전히 새로운 차원의 에이전트형 기반 경험을 제공한다"며 "아직 항상 정확하지는 않고 작업을 완료하는 속도가 느리지만 시간이 지나며 빠르게 개선될 것"이라고 설명했다. 구글은 이날 '제미나이 2.0'을 장착해 복잡한 연구 보고서 작성을 도와주는 AI 어시스턴트 '딥 리서치'도 함께 공개했다. AI를 활용해 복잡한 주제를 탐구한 뒤 결과를 이해하기 쉬운 보고서로 제공하는 것이 특징이다. '딥 리서치'는 유료 구독제인 제미나이 어드밴스드를 통해 이용할 수 있다. 이번 일로 주요 글로벌 빅테크들의 AI 에이전트 경쟁은 한층 더 치열해질 것으로 보인다. 현재 AI 에이전트 개발에 두각을 나타내는 곳은 마이크로소프트(MS)로, 오픈AI와 손잡고 AI 비서 '코파일럿'을 공개한 데 이어 올해 11월에는 연례 행사인 '이그나이트 2024'를 통해 '자율형 AI 에이전트' 기술력을 뽐냈다. 아마존 역시 이달 초 개최한 'AWS 리인벤트 2024'에서 새로운 에이전트 기능을 선보여 눈길을 끌었다. 올해 공개한 기업용 AI 에이전트인 '아마존 Q 비즈니스'에 워크 플로우 자동화 기능을 추가한 것으로, 기업들이 사내 업무를 자동화 할 수 있게 만들었다. 이 외에 새 대규모언어모델(LLM) '노바'뿐 아니라 '노바 스피치 투 스피치 모델'과 '애니 투 애니 모델' 등 멀티모달 모델도 공개했다. 앤트로픽이 만든 AI 에이전트 기능 '컴퓨터 유즈'도 업계의 주목을 받고 있다. 이는 앤트로픽의 최신 AI 모델인 '클로드 3.5 소네트'를 기반으로 작동하는 AI 에이전트로, 키보드와 마우스 입력 등을 조작할 때 '인간처럼' 스스로 수행한다. '챗GPT' 등으로 AI 시장을 주도하고 있는 오픈AI도 코드명 '오퍼레이트'로 알려진 AI 에이전트 출시를 준비 중이다. 세라 프라이어 오픈AI 최고재무책임자(CFO)는 최근 파이낸셜타임스(FT)와의 인터뷰에서 "정보 수집과 예약, 상품 구매 등을 웹에서 실행하는 챗봇 비서 같은 'AI 에이전트'의 출시가 내년의 핵심 초점"이라며 "사람들의 일상을 돕는 매우 성공적인 에이전트가 배치되는 것을 보게 될 것"이라고 밝혔다. 이처럼 빅테크들이 AI 에이전트 시장에 경쟁적으로 나온 것은 성장성이 높아서다. 글로벌 시장조사기관 그랜드뷰리서치에 따르면 지난해 AI 에이전트 시장 규모는 약 58억2천만 달러로, 2030년까지 연평균 42.8% 성장할 것으로 전망된다. 2030년 시장 규모는 약 705억3천만 달러(약 100조원)로 전망된다. 하지만 해외 빅테크들과 달리 국내 업체들의 대응은 다소 더디다. 네이버, 카카오는 아직 본격적으로 서비스를 선보이지 못하고 있고, 통신사들이 운영하는 AI 에이전트는 부가 서비스 수준에 그치고 있다는 평가다. 업계 관계자는 "글로벌 빅테크들에 비해 국내 업체들의 움직임이 더디면서 AI 에이전트 시장에서 기술 격차가 더 벌어질 것으로 보인다"며 "빅테크들은 자체 LLM을 기반으로 다양한 AI 서비스 출시와 함께 수익화에 나서고 있지만, 국내 업체들은 갈수록 입지가 줄어드는 분위기"라고 말했다.

2024.12.12 10:03장유미

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

LPDDR 공급난…삼성·SK, 中업체 '장기계약' 요청받아

이마트24, 점포 줄고 적자 커져 이중고...'반전 카드' 통할까

"딸기 폭탄 맞아?"…파리바게뜨 ‘베리밤’ 케이크 논란 왜

비트코인 4년 주기론 깨졌나...가상자산업계 '갑론을박'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.