• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈 모델'통합검색 결과 입니다. (48건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI, MS 독점 구조 걷어냈다…멀티클라우드 전략 전환

오픈AI가 마이크로소프트와 인공지능(AI) 동맹 구조를 재편하며 독점 관계를 사실상 해소했다. 협력은 유지하되 경쟁을 병행하는 파트너 체제로 전환하면서 글로벌 클라우드·AI 시장 판도 변화가 나타날 전망이다. 오픈AI와 MS는 27일(현지시간) 공동성명을 통해 기존 독점 계약을 개정하고 AI 모델 판매 및 클라우드 협력 구조를 비독점 형태로 전환했다고 밝혔다. 양사는 계약 개편을 통해 대규모 AI 플랫폼 구축 역량을 유지하는 동시에 새로운 사업 기회를 모색할 수 있는 유연성을 확보했다고 설명했다. 이번 계약 개정은 MS가 보유해온 오픈AI 모델의 독점 판매 권한을 내려놓은 것이 핵심이다. 오픈AI는 특정 클라우드에 종속되지 않고 아마존웹서비스(AWS), 구글 클라우드 등 다양한 사업자와 자유롭게 협력할 수 있게 됐다. 그동안 오픈AI 모델은 사실상 MS 애저 인프라를 중심으로 유통되며 클라우드 경쟁력 강화에 기여해왔다. 그러나 생성형 AI 수요가 급증하면서 단일 인프라 중심 구조가 확장성과 비용 측면에서 한계를 드러냈고 기업 고객 확보 과정에서도 제약 요인으로 작용해왔다는 평가가 나온다. 이번 개정으로 수익 구조 역시 크게 바뀌었다. MS는 자사 클라우드를 통해 오픈AI 모델을 판매하면서 오픈AI에 지급하던 수익 배분을 중단하기로 했다. 반면 오픈AI는 2030년까지 일정 수준의 수익을 MS에 공유하되 총액 상한을 두는 방식으로 계약을 단순화했다. 또 기존 계약에서 핵심 변수였던 범용인공지능(AGI) 관련 조항도 삭제됐다. 이전에는 AGI 달성 시 수익 배분이 중단되는 구조였지만 이번 개편으로 기술 발전 여부와 무관하게 일정 기간 협력이 유지되는 방향으로 정리됐다. 다만 양사 관계가 완전히 끊긴 것은 아니다. MS는 여전히 오픈AI의 주요 클라우드 파트너 지위를 유지하며 신규 제품 역시 애저 인프라에서 우선 제공된다. 업계에선 이번 조치를 독점 동맹 해체가 아닌 협력과 경쟁의 병행 구조로 해석하고 있다. 오픈AI는 멀티클라우드 전략을 통해 유통 채널을 확대하고 MS는 자체 AI 모델과 타사 모델을 병행하는 멀티모델 전략으로 의존도를 낮추는 흐름이다. 특히 이번 계약 개정은 양사 간 갈등을 봉합하는 동시에 시장 환경 변화에 대응한 결과로 평가된다. 앞서 오픈AI가 AWS와 협력 확대를 추진하는 과정에서 독점 계약 위반 논란이 불거졌고 MS가 법적 대응까지 검토하면서 긴장 관계가 고조된 바 있다. 이번 변화는 기업 고객 선택권 확대와 클라우드 경쟁 심화로 이어질 전망이다. 현재 AI 시장에선 폭발적인 수요에 대응하고자 특정 플랫폼에 종속되지 않고 다양한 AI 모델과 인프라를 조합하는 흐름이 가속화되고 있다. 오픈AI 측은 "개정된 계약을 통해 더 큰 예측 가능성과 유연성을 확보했다"며 "다양한 파트너와 협력해 AI 기술을 보다 폭넓게 제공할 것"이라고 밝혔다.

2026.04.28 09:48한정호 기자

메타, 초지능팀 첫 AI '뮤즈 스파크' 공개

메타가 초지능팀 조직 이후 첫 인공지능(AI) 모델을 공개했다. 8일(현지시간) 블룸버그 등 외신에 따르면 알렉산더 왕 최고 AI 책임자가 이끄는 메타의 신규 조직 초지능 팀은 '뮤즈 스파크'라는 이름의 AI 모델을 공개했다. 뮤즈 스파크는 메타 AI 챗봇에 적용되며 기존 오픈소스 전략과 달리 설계와 코드가 공개되지 않는 폐쇄형 모델로 개발됐다. 뮤즈 스파크는 마크 저커버그 최고경영자(CEO)가 새롭게 꾸린 AI 조직의 첫 시험대로 평가받는다. 그는 지난해 약 140억 달러(약 )를 투자해 왕을 영입했으며 이후 AI 인재 확보와 데이터센터 등 인프라 구축에 수십억 달러를 추가로 투입해왔다. 이는 오픈AI, 앤트로픽, 구글 등 경쟁사에 뒤처졌다는 위기의식에서 촉발된 것으로, 메타는 AI 조직을 유연하게 운영하기 위해 연구자들에게 자율성을 부여하고 기존 관리 중심 구조를 최소화하고 있다. 왕은 약 100명의 직속 보고 체계를 두고 있는 것으로 알려졌다. 다만, 메타는 뮤즈 스파크가 일부 영역에서는 챗GPT, 클로드, 제미나이보다 성능이 떨어진다는 점을 인정했다. 메타는 블로그를 통해 “이번 모델은 향후 발전 방향을 보여주는 초기 단계의 결과물”이라며 더 큰 규모의 모델들을 개발 중이라고 밝혔다. 뮤즈 스파크는 개발 당시 '아보카도'라는 코드명으로 불렸으며 약 9개월에 걸쳐 만들어졌다. 이는 기존 오픈소스 '라마' 중심 전략에서 벗어나 메타의 AI 전략 전환을 상징하는 모델로 일컬어진다. 메타는 앞으로도 오픈소스 모델을 개발할 계획이지만, 동시에 뮤즈 스파크의 응용 프로그램 인터페이스(API)를 유료로 제공하는 방안도 검토 중이다. 현재 메타 AI 챗봇은 무료로 제공되지만, 향후 구독형 요금제를 도입할 가능성도 있다. 뮤즈 스파크라는 이름은 향후 이어질 AI 모델의 라인업 시작을 의미하며 비교적 가볍고 빠른 모델로, 초지능 팀의 연구를 본격적으로 가동하는 역할을 맡는다. 향후 뮤즈 시리즈 모델이 순차적으로 공개될 예정이다. 뮤즈 스파크는 알리바바의 큐웬을 포함해 오픈AI, 구글 등 다양한 외부 오픈소스 모델을 활용해 학습됐다. 메타는 “업계 전반과 마찬가지로 공개된 AI 모델을 활용해 학습하는 디스틸레이션 기법을 엄격한 안전장치 아래 적용하고 있다”고 설명했다. 해당 AI는 인스턴트(Instant), 싱킹(Thinking), 심사숙고(Contemplating) 모드 등 여러 수준의 추론 기능을 제공함 과학·건강ㅍ수학 분야 질문에 강점을 보인다. 코딩 능력은 상대적으로 약한 편이다. 뮤즈 스파크는 인스타그램, 페이스북, 왓츠앱 등 메타의 주요 서비스에 적용될 예정이다. 현재는 의류나 가구 등을 추천하는 쇼핑 에이전트 기능에도 활용되고 있다.

2026.04.09 09:17박서린 기자

[AI는 지금] "스마트폰서도 AI 추론"…구글, '젬마4'로 클라우드 중심 판 흔든다

구글이 오픈웨이트 인공지능(AI) 모델 '젬마4(Gemma 4)'를 공개하며 AI 실행 환경을 클라우드에서 디바이스로 확장하는 전략을 본격화했다. 스마트폰부터 워크스테이션까지 다양한 하드웨어에서 복잡한 추론과 자율형 에이전트 구현이 가능해지면서 온디바이스 AI 확산과 오픈 모델 생태계 변화에 큰 영향을 줄 것으로 전망된다. 구글 딥마인드는 2일(현지시간) 공식 블로그를 통해 '젬마4'를 공개했다. 이번 모델은 '제미나이3(Gemini 3)'와 동일 계열의 연구 및 기술을 기반으로 개발됐으며 로컬 환경에서 고급 AI 기능을 수행할 수 있도록 설계됐다. 젬마4는 이펙티브 2B(E2B), 이펙티브 4B(E4B), 26B 전문가 혼합(Mixture of Experts, MoE), 31B 덴스(Dense) 등 4종으로 구성된다. 이 가운데 E2B와 E4B 모델은 안드로이드 스마트폰과 라즈베리파이 등 경량 디바이스에 최적화됐으며 배터리와 메모리 제약 환경에서도 AI를 실행할 수 있도록 설계됐다. 반면 26B MoE와 31B 덴스 모델은 워크스테이션급 환경에서 고성능 추론을 수행하도록 설계돼 디바이스부터 고성능 컴퓨팅 환경까지 폭넓은 계층을 아우른다. 26B MoE 모델은 추론 과정에서 약 38억 개의 파라미터만 활성화하는 구조를 통해 처리 속도를 높이면서도 대형 모델 수준의 성능을 유지하도록 설계됐다. 31B 모델은 품질 중심 구조로 고도화된 추론 능력을 제공한다. '젬마4'는 단순 대화형 모델을 넘어 실제 작업 수행을 지원하는 '에이전트형 AI' 구현을 핵심 방향으로 제시했다. 이 모델은 함수 호출과 구조화된 JSON(Javascript Object Notation) 출력 기능을 네이티브로 지원해 외부 도구 및 API와 연동한 다단계 작업 수행이 가능하다. 이는 AI가 정보 생성에서 실행 중심으로 진화하고 있음을 보여주는 변화다. 또 모든 모델이 이미지와 비디오 입력을 처리할 수 있으며 E2B와 E4B 모델은 오디오 입력을 지원해 기기 내 음성 이해 기능을 제공한다. 구글은 "개발자 생태계를 제한 없이 지원하기 위해 상업적으로 자유로운 아파치(Apache) 2.0 라이선스로 공개했다"며 "데이터와 인프라, 모델에 대한 통제권을 개발자에게 제공하는 것이 목표"라고 밝혔다. '젬마4'는 모델 가중치를 공개하는 오픈 웨이트 형태로 제공되면서 기업과 개발자가 자체 인프라에서 AI를 직접 구축·운영할 수 있는 기반을 제공한다. 이에 따라 클라우드 의존도를 낮추고 비용 구조를 재편하는 한편, 기업 맞춤형 AI 개발과 데이터 통제 요구가 높은 산업을 중심으로 활용이 확대될 가능성이 제기된다. 모델은 구글 클라우드를 비롯해 허깅페이스, 캐글, 올라마 등 다양한 플랫폼에서 제공된다. 젬마4 출시는 오픈 모델 경쟁 구도에도 변화를 예고한다. 기존 메타 '라마(Llama)' 시리즈에 더해 알리바바 '큐웬(Qwen)', 즈푸AI 'GLM', 문샷AI '키미(Kimi)' 등 중국 기업 모델이 빠르게 부상하는 가운데 구글은 성능 대비 효율성과 온디바이스 실행을 결합한 전략으로 차별화를 시도한 모습이다. 젬마4가 구글의 기존 대형 모델 '제미나이'와 병행되는 전략적 포지션을 갖는다는 점도 눈여겨 볼 요소다. 제미나이가 클라우드 기반 초대형 모델 역할을 담당하는 반면, 젬마는 로컬 및 경량 환경을 맡는 식이다. 구글은 이를 통해 클라우드와 디바이스를 아우르는 AI 플랫폼 전략을 구축하고 있다. 젬마4는 오픈모델의 성능 고도화와 온디바이스 AI 확산, 에이전트 기반 자동화를 동시에 겨냥한 모델로 평가된다. 이는 AI 활용 방식이 중앙 서버 중심에서 분산형 구조로 이동하고 있음을 보여주는 흐름으로, 향후 기업의 AI 도입 전략과 비용 구조에도 변화를 가져올 가능성이 제기된다. 업계 전문가는 "젬마4는 고성능 AI를 클라우드 밖으로 확장해 디바이스까지 끌어내린 모델"이라며 "손바닥 크기의 컴퓨터에서도 복잡한 추론이 가능한 수준까지 발전했다는 점에서 앞으로 AI 경쟁은 성능뿐 아니라 어디에서 실행되느냐가 핵심 변수로 작용할 것"이라고 말했다.

2026.04.03 09:46장유미 기자

[AI는 지금] "이미지도 자체 기술로"…脫 오픈AI 노린 MS, 멀티모달 경쟁 본격화

마이크로소프트(MS)가 자체 개발한 이미지 생성 모델 '마이(MAI)-이미지-2'를 최근 공개하며 인공지능(AI) 시장 주도권 확보 경쟁에 본격적으로 나섰다. 오픈AI 등 외부 모델 의존에서 벗어나 기술 내재화를 추진하는 동시에 코파일럿 중심 생태계를 강화하려는 전략적 행보로 풀이된다. 27일 업계에 따르면 MS는 지난 19일 자사 AI 슈퍼인텔리전스 팀이 개발한 텍스트-이미지 변환 모델 '마이-이미지-2'를 공개했다. 해당 모델은 성능 평가 플랫폼 아레나 리더보드에서 상위권에 오르며 구글, 오픈AI와 함께 글로벌 이미지 생성 경쟁 구도에 진입했다. 이번 모델은 무스타파 술레이먼 MS AI 최고경영자(CEO)가 이끄는 초지능 팀에서 개발됐다. MS는 이를 통해 이미지 생성 분야에서도 독자 기술 기반을 강화하겠다는 방침이다.술레이먼 CEO는 "우리는 이 모델 출시로 세계 3대 텍스트 이미지 변환 연구소로 도약하게 됐다"며 "초지능 팀은 앞으로 더 많은 것을 선보일 예정인 만큼 기대해 달라"고 밝혔다.이처럼 MS가 자체 모델을 전면에 내세운 것은 오픈AI에 대한 의존도를 낮추려는 전략으로 분석된다. MS는 그간 오픈AI에 대규모 투자를 단행하며 협력 관계를 유지해왔지만, 핵심 AI 기능을 외부에 의존할 경우 비용 부담과 서비스 통제력에 한계가 있다는 평가를 받아왔다. 이에 MS는 자체 모델 확보를 통해 비용 구조를 개선하고 기능, 정책, 업데이트 방향을 독자적으로 설계할 수 있는 기반 마련에 본격 나선 것으로 보인다. 기술 경쟁 측면에서는 멀티모달 AI 시장을 겨냥한 행보로 읽힌다. 최근 AI 산업은 빅테크를 중심으로 텍스트에서 이미지, 음성, 영상까지 아우르는 멀티모달로 빠르게 확장되고 있다. 단일 모델이 다양한 형태의 데이터를 이해하고 생성하는 능력도 플랫폼 경쟁력의 핵심 요소로 자리잡고 있다. 시장 성장세도 가파르다. 글로벌 시장조사업체 그랜드뷰리서치는 멀티모달 AI 시장이 2024년 약 17억3000만 달러에서 2030년 108억9000만 달러 규모로 확대될 것으로 내다봤다. 또 콘텐츠 제작, 광고, 게임, 커머스 등 산업 전반에서 시각 콘텐츠 자동화 수요가 급증하고 있어 멀티모달 영역이 향후 핵심 성장 축이 될 것으로 관측됐다. 이 같은 분위기에 맞춰 MS는 '마이-이미지-2'를 앞세워 멀티모달 시장 내 주도권을 잡기 위해 속도를 낼 것으로 보인다. '마이-이미지-2'는 자연광과 질감, 공간감을 정교하게 구현하는 사실감은 물론, 이미지 내 긴 문장과 복잡한 타이포그래피를 안정적으로 생성하는 기능을 핵심 경쟁력으로 내세웠다. 이는 기존 이미지 생성 모델의 한계로 지적되던 텍스트 표현 문제를 개선한 것으로, 디자인·콘텐츠 제작 영역까지 활용 범위를 넓힐 수 있다는 점에서 주목된다. 제품 전략 측면에서는 코파일럿 생태계와의 결합이 눈에 띈다. MS는 해당 모델을 '코파일럿'과 '빙' 이미지 생성기에 단계적으로 적용할 계획이다. 워드, 파워포인트 등 생산성 도구와 연계될 경우 문서 작성 과정에서 이미지 생성이 기본 기능으로 자리잡을 가능성이 높다. 이는 텍스트 중심 생산성 도구를 멀티모달 플랫폼으로 확장하려는 시도다. 기업 시장 공략도 병행된다. MS는 현재 일부 기업 고객을 대상으로 API를 제공하고 있으며 향후 마이크로소프트 파운드리를 통해 개발자 접근성을 확대할 예정이다. 또 광고·마케팅 기업 등 대량 이미지 생성 수요를 겨냥해 이미지 AI를 산업용 생산 도구로 확장하기 위해 적극 나설 것으로 보인다. 다만 현재 서비스는 기능과 정책 측면에서 일부 제약이 있다. 생성 속도 지연과 사용 횟수 제한, 이미지 비율 고정, 편집 기능 부재 등이 대표적이다. 콘텐츠 필터링 기준도 비교적 엄격하게 적용되고 있다. 이는 기업용 서비스에서 요구되는 안정성과 리스크 관리를 반영한 설계로 해석된다. 업계 관계자는 "MS가 이미지 생성까지 자체 모델로 내재화하면서 AI 경쟁의 판이 텍스트에서 멀티모달 전반으로 빠르게 확장되고 있다"며 "향후 플랫폼 주도권은 얼마나 다양한 데이터를 하나의 경험으로 통합하느냐에 달려 있을 것"이라고 말했다.

2026.03.27 15:56장유미 기자

엔비디아, 오픈 모델로 '의료 AI' 혁신…헬스케어·신약 개발 가속

엔비디아가 오픈 모델과 데이터 플랫폼을 결합해 의료·생명과학 분야에 인공지능(AI) 활용 범위를 넓혔다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 '네모트론' 오픈 모델과 '네모 라이브러리'를 공개하고 의료 특화 AI 구축·배포를 지원한다고 밝혔다. 네모트론 오픈 모델은 오픈 가중치와 학습 레시피를 제공한다. 이를 통해 의료진과 개발자가 자체 인프라에서 맞춤형 AI 에이전트를 직접 구축할 수 있게 돕는다. 멀티모달 의료 데이터 증가에 대응해 고효율·저지연 처리 구조까지 제공해 기존 폐쇄형 시스템 의존도를 줄인다. 네모 라이브러리는 의료 전문 용어에 맞춘 파인튜닝을 지원해 범용 모델의 한계를 보완한다. 실제 헤이디 헬스는 네모트론 스피치 도입 후 지연 시간을 75% 줄이고 운영 비용을 64% 절감했다. 헬스케어 기업도 네모트론 기반으로 에이전틱 AI 도입을 확대하고 있다. 히포크라틱 AI는 임상 대화 모델을 구축했으며, 소드 헬스는 정신 건강 지원 모델을 고도화하고 있다. 또 아이큐비아와 오픈에비던스 베릴리도 각각 생명과학 연구와 의료 지식 통합 서비스에 활용하고 있다. 엔비디아는 바이오네모 플랫폼을 통해 생명과학 데이터 처리 영역도 확장했다. 파라브릭스와 쿠다-X 데이터 사이언스 라이브러리를 결합해 유전체 분석 속도를 높이고 연구 기간을 크게 단축하는 구조다. 베이스캠프 리서치는 초대규모 유전체 데이터 프로젝트를 통해 기존 공개 데이터 대비 10배 이상 큰 데이터셋을 구축했다. 이를 기반으로 수천조 개 DNA 염기쌍을 분석하며 기존 수십 년 걸리던 작업을 2년 미만으로 줄일 수 있는 환경을 마련했다. 타호 테라퓨틱스는 1억 개 세포 데이터 기반으로 가상 세포 모델을 개발했다. 향후 10억 개 세포 규모로 확장해 실제 실험 없이 치료 연구를 진행하는 시뮬레이션 환경을 구축할 계획이다. 퍼터브AI는 약 800만 개 뇌 세포 데이터를 활용한 CRISPR 유전체 아틀라스를 공개했다. 그래픽처리장치(GPU) 가속을 통해 분석 시간을 기존 며칠에서 실시간 수준으로 단축하며 질환 연구 속도를 높이고 있다. 엔비디아가 발표한 '헬스케어와 생명과학 분야 AI 현황' 조사에 따르면 의료 업계 리더 82%가 오픈소스를 핵심 전략으로 보고 있다. 엔비디아는 "의료 기관은 오픈 모델을 도입하고 이를 파인튜닝함으로써 데이터 주권을 확보할 수 있다"며 "투명성과 재현성에 대한 통제력을 유지하면서도 복잡한 에이전틱 애플리케이션에 필요한 높은 정확도를 확보할 것 이라고"고 밝혔다.

2026.03.20 18:15김미정 기자

수십억 달러 쏟았는데 '성능 미달'…메타, AI '아보카도' 출시 지연에 속앓이

메타가 개발 중인 차세대 인공지능(AI) 모델 '아보카도(Avocado)'의 공개 일정이 당초 계획보다 늦어질 것이란 주장이 나왔다. 로이터는 13일(현지시간) 뉴욕타임스(NYT) 보도를 인용해 메타가 내부적으로 아보카도 모델의 출시 시점을 최소 5월 이후로 미루는 방안을 검토하고 있다고 보도했다. 당초 메타는 해당 모델을 3월 중순 공개하는 방안을 목표로 개발을 진행해 온 것으로 알려졌다.아보카도는 메타가 수십억 달러를 투자해 개발 중인 차세대 대형 언어모델(LLM)로, 구글·오픈AI·앤트로픽 등 주요 경쟁사와의 AI 경쟁에서 핵심 역할을 맡을 프로젝트로 평가된다. 기존 오픈소스 AI 모델 '라마(Llama)' 시리즈 이후 메타의 AI 전략을 이끌 후속 모델로도 주목받고 있다. 다만 내부 테스트 과정에서 모델 성능이 기대 수준에 미치지 못했다는 평가가 나오면서 일정 조정이 검토되고 있는 것으로 전해졌다. 특히 최신 AI 모델들과의 벤치마크 비교에서 일부 영역 성능이 뒤처진 것으로 알려졌다. 일정 지연 가능성이 제기되면서 메타 내부에서는 자체 모델 완성 이전까지 경쟁력을 유지하기 위한 대안도 논의된 것으로 전해졌다. 뉴욕타임스는 메타가 구글의 AI 모델 '제미나이'를 라이선스 형태로 활용하는 방안까지 검토한 바 있다고 전했다.이 같은 상황 속에 업계에선 메타의 향후 AI 전략에 관심을 보이고 있다. 공격적인 투자와 인재 영입에도 불구하고 차세대 모델 출시 일정이 늦어질 수 있다는 점에서 이번에 기술 경쟁의 부담이 드러났다는 분석도 내놨다. 실제 메타는 그간 최고급 연구 인력 영입에 수십억 달러를 썼다. 또 데이터센터 구축 등에도 6000억 달러(약 800조원)가량을 투입할 계획이다. 메타의 올해 AI 관련 지출액은 지난해의 두 배인 1350억 달러(약 200조원)에 달할 전망이다. 업계 관계자는 "메타가 공격적으로 AI 투자와 인재 확보에 나서고 있지만 생성형 AI 기술 경쟁이 워낙 빠르게 전개되고 있다"며 "구글 제미나이와 오픈AI 모델이 빠르게 발전하는 상황에서 메타가 격차를 얼마나 빠르게 좁힐 수 있을지가 향후 경쟁 구도의 핵심 변수"라고 말했다.

2026.03.13 17:48장유미 기자

한컴, 오픈데이터로더 PDF v2.0 공개…문서 AI 시장 공략 박차

한글과컴퓨터가 인공지능(AI) 기반 PDF 데이터 추출 기술을 고도화해 오픈소스 생태계 확장에 나선다. AI와 직접 추출 방식을 결합한 하이브리드 엔진을 앞세워 문서 AI 시장 경쟁력을 강화한다는 전략이다. 한컴은 오픈소스 PDF 데이터 추출 부문에서 벤치마크 1위 성능을 달성한 '오픈데이터로더 PDF v2.0'을 공개했다고 12일 밝혔다. 이번 버전의 가장 큰 특징은 AI 방식과 직접 추출 방식을 결합한 하이브리드 엔진이다. 기업과 개발자는 외부 서버로의 데이터 유출 우려 없이 완전히 차단된 로컬 환경에서 고성능 PDF 데이터 추출 기능을 무료로 활용할 수 있다. 문서 내 복잡한 요소를 분석하기 위한 무료 AI 애드온 4종도 기본 탑재됐다. 광학문자인식(OCR)은 이미지 기반 PDF와 스캔 문서 텍스트 인식률을 높였고 표 추출 기능은 초경량 AI 모델을 활용해 병합된 셀 등 복잡한 표 구조를 정밀하게 분석한다. 수식 추출 기능은 과학·수학 논문의 복잡한 수식을 로컬 환경에서 인식하며 차트 분석 기능은 차트가 의미하는 내용을 문장 형태로 설명한다. 애드온은 도클링 등 타사 오픈소스 AI 모델과 호환되도록 구현됐다. 특정 기업과 공식 제휴 관계는 아니지만 사용자가 기존 기술 환경에서 쉽게 연동할 수 있도록 객관적인 기술 호환성을 확보했다. 향후 유연한 애드온 구조를 통해 더 많은 AI 모델을 추가할 수 있다는 설명이다. 오픈데이터로더 PDF v2.0은 자체 벤치마크 테스트에서 읽기 순서, 표, 제목 추론 등 다양한 항목에서 1위 수준의 성능을 기록했다. 한컴은 오픈소스의 핵심 가치인 투명성을 위해 벤치마크 테스트 데이터와 재현 가능한 상세 코드를 공식 깃허브 저장소에 공개했다고 밝혔다. 이번 출시와 함께 오픈소스 라이선스도 기존 MPL 2.0에서 아파치 2.0으로 전환했다. 상업적 활용이 자유로운 라이선스를 적용해 외부 개발자와 글로벌 IT 기업의 진입 장벽을 낮추고 웹 애플리케이션이나 서비스형 소프트웨어(SaaS) 등 다양한 비즈니스 모델이 형성되는 생태계를 구축한다는 계획이다. AI 에이전트 시대에 대응한 생태계 확장도 추진한다. 한컴은 지난해 랭체인 연동을 완료했으며 올해는 랭플로우·라마인덱스·제미나이 CLI 등 다양한 AI 프레임워크와의 연동을 확대할 예정이다. AI 에이전트 지원을 위한 모델 컨텍스트 프로토콜(MCP) 기능도 준비 중이다. 올 하반기에는 독자 문서 AI 기술을 기반으로 한 상용 AI 애드온도 출시할 계획이다. AI가 문서 구조를 분석해 접근성 태그를 자동 생성하는 기술을 오픈소스 최초로 탑재해 글로벌 접근성 표준(PDF/UA)을 충족하는 PDF AI 접근성 솔루션으로 확장한다는 방침이다. 정지환 한컴 최고기술책임자(CTO)는 "오픈데이터로더 PDF v2.0은 AI 하이브리드 엔진과 아파치 2.0 라이선스 전환을 통해 누구나 자유롭게 활용·확장할 수 있는 개방형 PDF 데이터 플랫폼으로 진화했다"며 "향후 상용 AI 애드온과 접근성 솔루션을 통해 전 세계 PDF 문서가 AI에 활용되는 것은 물론, 모든 사람에게 열린 문서가 되도록 글로벌 생태계를 선도하겠다"고 밝혔다.

2026.03.12 15:46한정호 기자

오픈소스 활용한 딥시크, 어떻게 독자모델 인정받았나

현재 정부가 추진 중인 '독자적 파운데이션 모델(이하 독파모)' 선정 과정에서 오픈소스를 활용한 기업 독자 모델 인정여부를 두고 잡음이 일고 있다. 사용한 오픈소스가 더이상 지원하지 않거나 라이선스를 변경할 경우 독자 모델로서 존립하기 어렵다는 지적 때문이다. 하지만 지난해 초 중국 인공지능(AI) 스타트업 '딥시크(DeepSeek)'가 내놓은 AI 모델 R1과 비교하면 상황이 묘하다. 적은 비용으로 미국 빅테크들과 견줄 수 있는 성능을 낸 AI는 오픈소스 모듈을 적극적으로 차용해 개발됐지만 자체 AI모델로 인정받고 있다. 똑같이 외부 기술을 빌려 썼는데 딥시크는 독자 기술로 주목받고 국내 기업은 무늬만 독자라는 비판을 받고 있는 셈이다. 이에 대해 업계 전문가들은 양측의 가장 큰 차이로 기업이 가진 철학과 이를 구현하는 차별화를 꼽았다. 딥시크부터 구글까지...오픈소스 활용하는 글로벌 AI 딥시크의 기술 보고서에 따르면 R1을 비롯한 모델 라인업 개발 과정에서 주요 기능 구현에 경쟁사 모듈이 대거 사용됐다. 멀티모달 모델은 이미지를 인식하는 비전 인코더로 구글에서 개발한 모델을 도입했다. 딥시크-VL은 SigLIP-L, SAM-B를 하이브리드 비전 인코더로 썼고 야뉴스는 SigLIP-L을 비전 인코더로 채택했다 학습 과정도 마찬가지다. 딥시크는 모델 학습 속도를 극한으로 끌어올리기 위해 경쟁사인 오픈AI가 개발해 공개한 GPU 프로그래밍 언어 '트라이톤(Triton)'을 추론 및 커널 최적화 코드에서 활용했다. 학습 가속을 위해서는 스탠포드 대학 연구진이 개발한 플래시 어텐션 모듈을 차용했다. 이런 모듈 활용은 딥시크에 국한된 이야기가 아니다. 현재 오픈형 LLM 표준으로 불리는 메타의 라마 시리즈는 문맥 순서를 파악하는 위치 임베딩에 중국 AI 기업 쥬이이테크놀로지가 개발한 회전위치임베딩(RoPE) 모듈을 사용한다. 활성화 함수 역시 구글이 제안한 'SwiGLU' 방식을 채택했다. 구글 제미나이 역시 학습 효율을 위해 딥시크처럼 외부에서 개발한 플래시 어텐션 기술을 내부 인프라에 통합해 사용 중이다. 임정환 모티프 대표는 "자동차를 만들 때 타이어나 와이퍼를 전문 업체 부품으로 썼다고 해서 그 차를 독자 개발이 아니라고 하지 않는다"며 "인코더나 가속 라이브러리 같은 '부품을 외부에서 가져오는 방은 효율성을 위한 합리적인 선택"이라고 설명했다. 강화학습·MoE로 효율 혁신...딥시크, 기술로 증명한 독자 가치 다양한 오픈소스를 활용했음에도 딥시크가 독자 모델로 평가받는 이유는 그 동안 없었던 기술적 시도를 통해 새로운 가치를 증명했기 때문이다. 당시 중국은 미국 반도체 제재로 인해 최신 엔비디아 GPU를 구하기 어려운 상황에 처했다. 딥시크는 제한된 인프라 안에서 어떻게 하면 미국 빅테크와 대등한 성능을 낼 수 있을까라는 과제를 안고 있었다. 이를 해결하기 위해 도입한 방법이 강화학습이었다. 당시 업계는 강화학습을 챗봇 말투를 교정하는 용도(RLHF)로 제한해 활용했다. 추론 능력을 높이는 데는 효율이 떨어진다고 여겨 잘 시도하지 않았다. 하지만 딥시크는 "강화학습을 통해 AI가 스스로 생각하는 과정을 훈련시키면 적은 데이터와 파라미터로도 추론 능력을 극대화할 수 있다"는 독자적인 가설을 세웠다. 그리고 이를 기술적으로 구현해 냄으로써 단순히 데이터를 많이 쏟아붓는 방식이 아닌 새로운 '지능 향상의 길'을 열었다. 기존 오픈소스 모델을 가져와 데이터만 주입하던 방식과는 차원이 다른 접근이었다. 또 다른 혁신은 아키텍처 효율화에 있다. 이들이 채택한 '전문가 혼합(MoE)' 모델은 거대 AI를 각 분야에 최적화된 여러 개 '작은 전문가 모델'로 나눈 뒤 질문에 따라 필요한 모델만 불러와 처리함으로써 효율을 극대화하는 기술이다. 1991년 처음 제안된 후 구글이 '스위치 트랜스포머(Switch Transformer)' 등을 통해 발전시킨 개념이다. 딥시크는 기존 MoE 보다 전문가 모델을 더 세분화하고 어떤 질문이든 공통적으로 필요한 지식을 다루는 일부 모델은 항상 대기시키는 방식을 더해 딥시크MoE라는 독자적인 변형 아키텍처로 발전시켰다. 기존에 존재하던 기술을 재설계해 경쟁사 모델 대비 메모리 사용량과 연산 비용을 획기적으로 줄이는 데 성공했다. 결과적으로 적은 자원으로도 고성능을 낼 수 있음을 증명했다. 유명호 스누아이랩 대표는 "오픈소스를 활용하는 것보다 중요한 건 오픈소스를 그대로 가져다 쓰는지 아니면 거기에 독창적인 아이디어와 방법론을 결합해 새로운 가치를 만들어내느냐 차이"라고 지적했다. 이어 "학계에서도 기존 모델에 새로운 엔진이나 방법론을 접목해 성능을 개선하면 새로운 이론으로 인정한다"며 "단순히 오픈소스를 썼냐 아니냐를 따질 게 아니라 기업에서 제시한 새로운 이론이나 기술이 얼마나 적용되었는가를 따지는 심사 기준이 필요하다"고 말했다. 한국어만 잘하는 AI는 넘어...차별화된 혁신성 제시해야 업계 전문가들은 이번 논란을 계기로 한국 AI 산업이 '독자 AI'라는 단어의 함정에서 빠져나와야 한다고 지적한다. 단순히 부품 국산화율을 따지는 제조업식 사고방식으로는 AI 기술 패권 경쟁 본질을 놓칠 수 있다. 유명호 대표는 "비전 인코더는 데이터 구축도 어렵고 개발 난도가 매우 높다"며 "우리도 자체 개발하는 데만 2~3년이 걸렸다"며 단시간에 AI 관련 모든 인프라를 구축하는 것은 한계가 있다고 지적했다. 현재 글로벌 시장은 AI 관련 모든 요소를 자체적으로 만들었는지 보다 특정 분야라도 얼마나 독창적이고 차별화된 아키텍처를 만들었는지, 그 결과 비용 효율성이나 특정 기술 특화 등 차별화 포인트가 무엇인지를 묻고 있다. 딥시크가 인정받는 이유도 이 지점이다. 더불어 압도적인 자본과 인력을 쏟아붓는 미국과 중국을 단순히 추격하는 방식으로는 승산이 없다는 지적이다. 특히 글로벌 시장에서 경쟁하기 위한 AI 모델을 목표로 하는 만큼 한국어 인식률이 높다는 포인트만으로는 차별화 포인트를 제시할 수 없다는 것이 업계 반응이다. 임정환 대표는 "정부와 시장이 벤치마크 점수 1등이라는 타이틀에만 집착하면 기업은 결국 검증된 오픈소스 모델을 가져와 점수만 올리는 '안전한 길'만 택하게 된다"고 경고했다. 단기적으로는 가시적인 성과처럼 보일지 몰라도 장기적으로는 원천 기술 부재로 인한 글로벌 기술 종속을 심화시키는 결과를 초래할 수 있다는 지적이다. 이를 방지하고 한국 AI 산업이 딥시크와 같은 반열에 오르기 위해서는 '보여주기식 성과'에 집착하는 현재 평가 체계를 개선해야 한다는 요구도 제기되고 있다. 임 대표는 "진정한 국가대표 AI라면 단순히 한국어를 잘하는 AI를 넘어 글로벌 시장에 내세울 수 있는 특화된 장점과 경쟁력이 있어야 한다"며 "설령 당장은 점수가 낮거나 실패하더라도 맨땅에 헤딩하며 독자적인 가설을 세우고 원천 기술을 확보하려는 기업에게 더 많은 기회와 지원을 제공해야 한다"고 제언했다

2026.01.13 14:03남혁우 기자

[유미's 픽] 고석현發 中 모델 의혹에 정부도 '움찔'…국가대표 AI 개발 경로까지 본다

정부가 독자 인공지능(AI) 파운데이션 모델 프로젝트 정예 5개 팀을 대상으로 최종 모델뿐 아니라 복수의 중간 학습 기록까지 제출받아 검증하기로 하면서 국가 AI 사업의 평가 기준이 성능 경쟁에서 개발 경로 검증 중심으로 전환되고 있다. 업스테이지의 '솔라 오픈 100B'를 둘러싼 모델 유사성 논란을 계기로, 정부가 '프롬 스크래치(from scratch)' 여부를 기술적으로 입증하는 체계를 본격화했다는 해석이 나온다. 4일 과학기술정보통신부에 따르면 정부는 다음 주부터 평가를 진행해 오는 15일께 독자 AI 파운데이션 모델 프로젝트 정예 5개 팀 중 한 팀을 탈락시킨다. 이번 평가에서는 모든 팀으로부터 최종 모델 파일과 함께 복수의 중간 체크포인트(checkpoint)를 제출받아 전문기관인 한국정보통신기술협회(TTA)를 통해 면밀한 기술 검증을 실시할 예정이다. 중간 체크포인트는 AI 모델이 학습 과정에서 일정 단계마다 저장한 가중치 상태로 ▲모델이 랜덤 초기화에서 출발했는지 ▲학습이 연속적인 경로를 거쳤는지 ▲외부 모델 가중치가 중간에 유입됐는지 여부를 사후적으로 확인할 수 있는 핵심 자료다. 단일 최종 결과물만으로는 확인하기 어려웠던 개발 이력을 추적할 수 있다는 점에서 업계에선 이번 방침을 프롬 스크래치 주장에 대한 증빙 책임을 제도화한 조치로 보고 있다.배경훈 과학기술정보통신부 부총리 겸 장관은 "평가 과정에서 모든 정예팀으로부터 개발 모델의 최종 파일과 복수의 중간 체크포인트 파일 등을 제출받아 검증할 예정"이라며 "전문가 평가위원회를 통해서도 같은 자료를 바탕으로 계획에 부합한 AI 모델이 개발됐는지 여부를 검증해 확인할 것"이라고 설명했다. 정부가 이처럼 나선 것은 고석현 사이오닉에이아이 대표가 지난 1일 업스테이지의 독자 AI 프로젝트 모델 '솔라 오픈 100B'가 중국 AI를 도용·파생했다는 의혹을 제기한 것이 계기가 됐다. 고 대표는 '솔라 오픈 100B'의 기술 분석 자료를 공개하고 중국 지푸AI의 'GLM-4.5-에어' 모델에 기반을 둔 파생 모델이라고 의혹을 제기했다. 또 정부가 독자 AI 프로젝트의 참여 조건으로 제시한 프롬 스크래치(처음부터 만드는 것) 방식으로 학습된 모델이라면 나타나기 어려운 유사도라고 강조했다.이에 업스테이지는 곧바로 다음날 서울 강남역 인근에서 기술 공개 검증 행사를 열어 단순 레이어 유사성만으로 모델 파생 여부를 단정하는 것은 무리가 있다고 반박했다. 김성훈 업스테이지 대표는 "학습된 다른 모델의 가중치를 그대로 가져왔다면 프롬 스크래치가 아니지만, 모델 아이디어나 인퍼런스 코드 스타일을 참조하는 건 허용된다"며 "오픈소스 생태계에서 모델이 상호 호환되려면 구조가 비슷해야 한다"고 주장했다. 이후 문제를 제기한 고 대표는 또 다른 게시물을 통해 "상이한 모델도 레이어 값에선 높은 유사도를 보일 수 있다고 본다"면서도 "중국 모델 코드와 구조를 잘 학습하는 게 국가적인 AI 사업의 방향으로 타당한지는 의문"이라고 재차 문제를 제기했다. 이를 두고 업계에선 고 대표가 제시한 분석이 기술적으로 성립하기 어렵다는 점을 지적하며 전반적으로 업스테이지의 손을 들어줬다. 고 대표 역시 이날 또 다시 입장문을 통해 자신의 분석 방법에 한계가 있었음을 인정하며 "해당 근거를 보다 엄밀하게 검증하지 않은 채 공개함으로써 불필요한 혼란과 논란을 야기했다"고 사과했다. 그러나 고 대표는 이번 사안을 단순한 기술적 도용 논쟁이 아니라 '소버린 AI'와 '독자 파운데이션 모델'의 기준을 어떻게 정의할 것인가에 대한 구조적 질문으로 봐야 한다는 입장은 여전히 유지했다. 해외 모델의 코드나 구조를 참고·학습하는 방식이 국가 주도 독자 AI 사업의 취지에 부합하는지, 독자성을 판단하는 기준이 기술·학술적으로 얼마나 명확히 정리돼 있는지에 대한 논의가 필요하다고도 주장했다. 일각에선 고 대표의 초기 문제 제기 방식에 대해선 비판적인 태도를 보였으나, 이번 논쟁을 통해 독자 AI 모델의 개발 경로, 외부 레퍼런스 활용 범위, 학습 과정 공개 수준 등에 대한 사회적 합의 필요성이 수면 위로 떠올랐다는 점에 대해선 긍정적으로 봤다. 업계 관계자는 "이번 논란은 누가 옳고 그르냐를 가르는 사건이라기보다 한국형 파운데이션 모델을 어떤 기준으로 검증하고 설명해야 하는지를 집단적으로 학습한 과정에 가깝다"며 "검증 로그 공개, 체크포인트 관리, 참고 문헌 표기 같은 관행이 정착되는 계기가 될 수 있다"고 말했다. 또 다른 관계자는 "(고 대표가) 의혹을 제기하는 과정에서는 분명히 성급했던 부분이 있었지만, 사과와 인정이 공개적으로 이뤄졌다는 점 자체가 국내 AI 생태계의 성숙도를 보여주는 장면"이라며 "장기적으로는 정부 프로젝트 전반의 신뢰성을 높이는 방향으로 이어질 가능성이 크다"고 평가했다.정부 역시 이번 사안을 계기로 독자 AI 파운데이션 모델 프로젝트의 평가 기준을 보다 구체화해야 한다는 과제를 안게 됐다. 성능 중심 평가를 넘어 학습 경로의 투명성, 외부 기술 활용에 대한 명확한 가이드라인, 검증 가능한 공개 방식 등이 제도적으로 보완될 필요가 있다는 지적이다.이번 일에 대해 배 부총리는 긍정적으로 평가하며 독자 AI 파운데이션 모델의 검증 체계를 보완해야 할 필요성을 언급했다. 또 이번 사안을 계기로 정부가 정의한 '독자 AI 파운데이션 모델'을 어떻게 기술적으로 검증할 것인가에 대해서도 고민하는 모습을 보였다. 그는 지난 3일 자신의 소셜 미디어(SNS)를 통해 "데이터 기반의 분석과 이에 대해 공개 검증으로 답하는 기업의 모습은 우리 AI 생태계가 이미 글로벌 수준의 자정 작용과 기술적 투명성을 갖추고 있음을 보여준다"며 "성장통 없는 혁신은 없다"고 밝혔다. 이어 "의혹 제기는 할 수 있는 것"이라며 "이를 공개 검증으로 증명한 기업과 인정하고 사과한 문제 제기자 모두에게 감사하다"고 덧붙였다.국가AI전략위원회 관계자들도 이번 일에 대해 긍정적으로 평가했다. 박태웅 국가AI전략위원회 공공 AX 분과장은 "순식간에 다양한 검증과 토론이 이뤄지는 과정을 통해 한국 AI 생태계의 저력을 확인했다"고 말했다. 임문영 국가AI전략위원회 부위원장 역시 "검증 논란을 통해 방법의 한계와 개선점이 드러났고, 이는 AI 생태계가 건강하게 작동하고 있음을 보여준다"고 밝혔다.조준희 국가AI전략위원회 산업 AX·생태계 분과장도 최근 독자 파운데이션 모델의 유사성 논란이 건강한 기술 토론으로 이어진 점을 매우 고무적이라고 평가했다. 그러면서도 이제는 기술의 원천에 대한 논쟁을 넘어 '우리 모델이 글로벌 빅테크 대비 어떠한 차별적 경쟁력을 갖출 것인가'라는 소비자 관점의 본질에 집중해야 한다는 점도 강조했다. 그는 "'독자 기술'이라는 명분에만 함몰되면 정작 사용성이 뒤처져 시장에서 외면 받는 결과를 초래할 수 있다"며 "모델의 성패가 사용자의 선택에 달려 있다"고 밝혔다. 이어 "국내 모델이 지속 가능한 선순환 구조를 만들려면 적시성 있는 답변과 높은 활용도 등 철저히 고객 친화적 개발 방향을 견지해야 할 것"이라며 "5개 컨소시엄들이 이 기술을 어떻게 '잘 팔리는 서비스'와 '매력적인 상품'으로 연결할지 치열하게 고민해야 할 시점"이라고 덧붙였다. 다만 일각에선 정부가 '프롬 스크래치'를 어디까지 허용할 것인지에 대한 세부 기술 기준을 공식 문서로 명시하진 않았다는 점에서 여전히 우려를 나타냈다. 오픈소스 아키텍처 활용 범위, 구조적 유사성의 허용선, 토크나이저 재사용 여부 등은 여전히 정책적 해석의 영역으로 남아 있어서다. 업계에선 이번 정부 방침을 독자 AI 평가가 '결과물 중심'에서 '개발 경로와 증빙 책임 중심'으로 이동하고 있음을 보여주는 신호로 받아들이는 분위기다. 성능 지표만으로는 설명할 수 없는 '독자성'을 앞으로 학습 이력과 로그로 입증해야 하는 단계에 들어섰다는 점에서 고무적으로 평가했다. 업계 관계자는 "이번 논란은 누가 맞고 틀렸는지를 가리는 사건이라기보다 한국 AI 생태계가 공개 검증과 공개 토론을 감당할 수 있는 단계에 들어섰음을 보여준 사례"라며 "이 경험이 제도와 기준으로 남는다면 독자 AI를 둘러싼 논쟁은 반복되지 않을 것"이라고 말했다. 배 부총리는 "지금의 논쟁은 대한민국 AI가 더 높이 도약하기 위해 반드시 거쳐야 할 과정"이라며 "정부는 공정한 심판이자 든든한 페이스메이커로서 우리 AI 생태계가 성숙하게 발전할 수 있도록 역할을 다하겠다"고 밝혔다.

2026.01.04 06:00장유미 기자

[유미's 픽] 뿔난 업스테이지, '솔라 오픈 100B' 中 모델 파생 의혹에 공개 검증 '맞불'

정부에서 추진 중인 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참가한 업스테이지가 첫 성과를 공개한 후 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델을 제출했다는 의혹에 휩싸였다. 업스테이지는 억울함을 표하며 모델 공개 검증 행사와 함께 향후 의혹 제기에 대해 강경 대응에 나설 것을 시사했다. 1일 업계에 따르면 고석현 사이오닉에이아이 대표는 이날 자신의 소셜 미디어(SNS)에 깃허브 리포트를 게재하며 업스테이지 '솔라 오픈 100B'가 중국 지푸(Zhipu) AI의 'GLM-4.5-에어'에서 파생된 모델이라고 주장했다. 고 대표는 "국민 세금이 투입된 프로젝트에서 중국 모델을 복사해 미세 조정한 결과물로 추정되는 모델이 제출됐다"며 "상당히 큰 유감"이라고 말했다. 이번 논란은 이날 오후 1시께 올라온 깃허브 리포트가 발단이 됐다. 이 리포트는 '솔라 오픈 100B'와 'GLM-4.5-에어'의 가중치 구조를 통계적으로 비교 분석한 결과를 담고 있다. 앞서 업스테이지는 지난 달 30일 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 '프롬 스크래치(From Scratch)'를 기반으로 개발했다고 소개했다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 하지만 리포트 작성자는 '솔라 오픈 100B'와 'GLM-4.5-에어' 두 모델의 레이어별 파라미터 유사도를 측정한 결과 일부 계층에서 매우 높은 수준의 유사성이 관측됐다고 설명했다. 또 동일 모델 내부 레이어 비교보다 솔라와 GLM 간 동일 레이어 비교에서 더 높은 유사도가 나타났다고 주장하며, 이를 근거로 솔라 오픈 100B가 GLM-4.5-에어에서 파생됐다고 결론 내렸다. 다만 일각에서는 해당 분석이 두 모델의 학습 과정이나 개발 경로를 직접 확인한 것이 아니라는 점에서 해석에 신중할 필요가 있다는 지적이 나온다. 공개된 모델 가중치를 기반으로 한 사후적 통계 비교 방식으로 진행된 데다 실제 학습에 사용된 데이터셋, 학습 로그, 내부 코드베이스 등은 검증 대상에 포함되지 않았기 때문이다. 특정 가중치가 그대로 복사됐거나 모델 바이너리 차원에서 직접적인 공유가 있었다는 증거 역시 이번에 제시되지 않았다. 이 같은 의혹 제기에 대해 업스테이지는 즉각 반박에 나섰다. 고 대표가 게시물을 올린 지 2시간 후 김성훈 업스테이지 대표는 자신의 페이스북을 통해 "솔라 오픈 100B가 중국 모델을 복사해 미세 조정한 결과물이라는 주장은 사실과 다르다"며 "해당 모델은 명백히 프롬 스크래치 방식으로 학습됐다"고 강조했다. 그러면서 김 대표는 오는 2일 오후 3시 서울 강남역 부근에서 솔라 오픈 100B의 개발 과정을 공개적으로 검증받겠다고 밝혔다. 이 자리에는 의혹을 제기한 고석현 대표를 포함해 추가 검증에 참여하고 싶은 업계 및 정부 관계자들을 초청할 계획이다. 또 업스테이지 측은 이후에도 이 같은 의혹이 제기될 경우 더 강경하게 대응할지에 대해서도 내부 검토에 착수했다. 김 대표는 "학습에 사용한 중간 체크포인트(checkpoint)와 AI 모델 학습 과정과 실험 결과를 기록·관리하는 도구인 '웨이츠 앤 바이어시스(Weights & Biases·wandb)'를 모두 공개할 예정"이라며 "명확한 검증 절차를 공개해 사실 관계를 바로잡도록 할 것"이라고 말했다. 업계에서는 이번 공개 검증이 논란의 분수령이 될 수 있다는 평가를 내놨다. 실제 학습 체크포인트와 로그가 공개될 경우 '솔라 오픈 100B'가 특정 시점에서 외부 모델을 기반으로 파인튜닝됐는지, 독립적인 학습 경로를 거쳤는지를 보다 명확히 확인할 수 있기 때문이다. 동시에 통계적 유사성만으로 모델 복제 여부를 단정하기는 어렵다는 신중론도 제기된다. 대규모 언어모델 개발 과정에서는 유사한 아키텍처와 데이터, 학습 레시피를 사용할 경우 높은 유사도가 나타날 수 있어서다. 또 지식 증류(distillation)나 합성 데이터 활용 여부에 따라 통계적 패턴이 겹칠 가능성도 존재한다는 지적도 나온다. 업계 관계자는 "이번 논란이 주목받는 이유는 해당 모델이 정부 예산이 투입되는 '독자 AI 파운데이션 모델 프로젝트'의 결과물이기 때문"이라며 "사업 취지상 해외 모델에 대한 기술적 의존 여부와 개발 과정의 투명성은 핵심적인 검증 대상이 될 수밖에 없다"고 설명했다. 그러면서 "결국 이번 사안의 핵심은 통계 분석을 둘러싼 해석 논쟁을 넘어 실제 개발 과정에 대한 객관적 검증으로 옮겨가고 있다"며 "업스테이지가 예고한 공개 검증을 통해 솔라 오픈 100B의 학습 경로와 독립성이 어느 수준까지 입증될지에 많은 관심이 쏠리고 있다"고 덧붙였다.또 다른 관계자는 "이번 논란이 특정 기업의 문제를 넘어 독자 AI 파운데이션 모델 사업 전반의 검증 기준을 끌어올리는 계기가 될 수 있다"며 "다른 참여 기업들 역시 향후 모델 공개 과정에서 학습 출처와 개발 경로에 대한 설명 책임이 더 커질 가능성이 있다"고 말했다.

2026.01.01 18:09장유미 기자

AI, 추론 모델→행동도구로…'월드모델' 경쟁 불붙는다

2025년은 한국 ICT 산업에 '성장 둔화'와 '기술 대격변'이 공존한 해였다. 시장 침체 속에서도 AI·에너지·로봇·반도체 등 미래 산업은 위기 속 새 기회를 만들었고, 플랫폼·소프트웨어·모빌리티·유통·금융 등은 비즈니스 모델의 전환을 꾀했다. 분야별 올해 성과와 과제를 정리하고, AI 대전환으로 병오년(丙午年) 더 힘차게 도약할 우리 ICT 산업의 미래를 전망한다. [편집자주] 올해 글로벌 인공지능(AI) 생태계는 대규모 투자와 치열한 모델 경쟁 속에서 빠르게 변화했다. 각국이 AI 거버넌스 정비와 인재·교육 체계 구축에 시동을 건 한 해이기도 했다. 이런 흐름 속에 새해에는 기술 개발 경쟁과 산업 주도권 다툼이 한층 치열해질 전망이다. 규제와 거버넌스, 교육을 둘러싼 정책 환경도 시험대에 오를 것으로 예상된다. 올해 글로벌 빅테크의 AI 투자는 '초거대 경쟁'이란 표현이 과장이 아닐 만큼 치열했다. 마이크로소프트는 2025 회계연도 AI 데이터센터와 클라우드 인프라에 800억 달러(약 11조4천600억원)를 투입하겠다고 선언했다. 구글도 연간 설비투자를 900억 달러(약 133조2천700억원) 이상으로 확대하며 AI 인프라와 텐서처리장치(TPU) 확장에 집중했다. 아마존웹서비스(AWS)도 ▲AI 인프라 투자 ▲오픈AI와의 대규모 클라우드 계약 등으로 수백억 달러 규모 AI 관련 자본 지출이 발생한 것으로 집계됐다. 오픈AI는 정확한 설비투자 수치를 공개하지 않았지만, 모델 개발과 연산 자원 확보에 연간 100억 달러 안팎의 자금이 투입되는 것으로 추정된다. 이에 따라 2025년은 AI 경쟁이 모델 성능을 넘어, 자본과 인프라를 장기간 감당할 수 있는 역량을 가르는 해로 평가되고 있다. 이런 빅테크의 공격적 행보가 계속되면서 'AI 투자 거품' 논쟁도 뜨겁게 벌어졌다. 그동안 AI 모델 경쟁을 주도한 것은 오픈AI였다. 하지만 최근 들어 이런 경쟁 구도가 변하고 있다. 구글이 차세대 모델 '제미나이3'를 앞세워 모델 경쟁력 우위를 확보했다는 평가가 나오면서다. 제미나이3는 주요 추론 벤치마크에서도 GPT-5.1이나 앤트로픽 최신 모델과 견줄 만한 성능을 보였다. 중국 기업들의 추격도 빨라졌다. 딥시크는 제미나이3급 성능을 목표로 한 차세대 모델을 오픈소스로 공개하며 비용 경쟁력을 앞세웠다. 알리바바클라우드와 텐센트클라우드도 오픈소스 기반 대형 언어 모델을 잇달아 공개하며 경쟁에 가세했다. 올해 AI 경쟁은 모델을 넘어 검색·업무·소비자 접점 서비스로 확산했다. 구글은 제미나이3를 검색에 통합해 맥락 이해와 추론 중심의 AI 검색을 강화했고, 오픈AI는 챗GPT 중심으로 웹 탐색과 요약·비교 기능을 합쳐 '답변형 검색' 영역을 확장하고 있다. 앤트로픽은 클로드로 업무·리서치·코딩 환경에서 정보 탐색과 고급 추론을 결합했다. 각국의 AI 정책과 거버넌스 추진 방향도 각양각색이다. 한국은 'AI 기본법'을 토대로 하위 법령과 가이드라인 정비에 착수해 내년 1월 시행을 앞뒀다. 미국에선 주정부 AI 규제를 둘러싼 연방·주 간 충돌이 격화됐고, 유럽연합(EU)은 AI 법을 단계적으로 시행하며 속도 조절에 나섰다. 정부의 AI 인재 양성과 교육 정책도 확대됐다. 외국인 AI 인재 유치와 비자 제도 개선이 추진됐고, 초·중·고부터 대학과 평생교육까지 AI 교육을 전 생애 주기로 확장하는 방안이 나왔다. 새해 'AI 에이전트' 확산…명확한 보안·책임 소재 필수 올해가 에이전틱 AI의 가능성을 확인하는 해였다면, 새해는 이를 산업 현장 직접 투입해 효과를 보는 원년이 될 전망이다. 개념검증(PoC)과 파일럿 단계를 거친 AI 에이전트가 실제 업무 흐름에 투입돼 사람과 AI가 협업하는 구조가 가시화될 것이란 예측이다. 글로벌 빅테크도 에이전틱 AI 사업 준비를 마친 상태다. 세일즈포스는 영업·마케팅·고객지원 전반에 AI 에이전트를 배치하는 '에이전틱 엔터프라이즈' 전략을 제시했고, 슬랙 등 협업 도구에서도 업무 맥락을 이해하고 후속 작업을 실행하는 에이전트 기능을 강화했다. 마이크로소프트와 AWS 등도 플랫폼에 에이전틱 AI 기능을 추가해 에이전틱 AI 사업 구상을 끝냈다. 최근 불붙은 에이전트 기반 'AI 브라우저' 경쟁도 가속화 할 전망이다. 오픈AI와 퍼플렉시티는 AI가 웹을 직접 조작해 반복적인 작업을 대신 수행하는 자동화형 에이전트를 선보였다. 구글은 여러 정보를 조합해 새로운 결과물과 인터페이스를 생성하는 방식으로 차별화를 시도했다. 에이전트가 기존 업무를 대신하는 자동화를 넘어 업무 방식 자체를 재구성하는 단계로 도약할 것으로 예측되고 있다. 개발 분야에서도 에이전틱 AI 활용은 빠르게 확산할 것으로 나타났다. 깃허브 코파일럿은 코드 생성뿐 아니라 테스트 작성과 오류 탐지, 코드 리뷰 지원까지 범위를 넓히며 SW 개발 생산성 향상 가능성을 보여주고 있다. 카일 데이글 깃허브 최고운영책임자(COO)는 "모든 에이전트를 단일 환경에서 관리·조정할 수 있는 기능이 확산할 것"이라고 밝혔다. 업계에선 데이터 정합성과 보안·책임 체계가 갖춰지지 않으면 에이전틱 AI가 PoC 수준에 머물 수 있다는 지적도 나왔다. 데이터브릭스 크레이그 와일리 AI 제품 총괄은 "AI 에이전트 성능과 데이터 품질을 지속적으로 평가·개선할 수 있는 체계가 향후 에이전트 도입 성패를 좌우할 것"이라고 내다봤다. 피지컬AI·월드모델 경쟁 '치열'…'행동하는 AI' 뜬다 2026년에는 피지컬 AI와 월드모델 개발 경쟁이 확산할 전망이다. 전문가들은 AI 경쟁 중심이 언어·이미지를 넘어, 물리적 세계를 이해하고 행동하는 단계로 이동할 것으로 내다봤다. 네이버클라우드 성낙호 전무는 "실제 상황을 시뮬레이션할 수 있도록 현실 데이터를 추가 학습한 월드모델이 AI 문제 해결의 새로운 성장 동력으로 부상할 것"이라고 최근 국회 포럼에서 주장하기도 했다. 구글 딥마인드는 자율 시스템이 물리 환경을 이해하고 스스로 판단·행동할 수 있는 월드모델 연구에 힘을 실을 것이라고 발표했다. 엔비디아도 '옴니버스'와 '아이작' 플랫폼을 앞세워 공장과 물류 현장을 가상 공간에서 학습하고 검증하는 시뮬레이션 생태계를 확대하고 있다. 페이페이 리 교수가 설립한 스타트업 월드랩스도 최근 3차원 공간을 생성·편집할 수 있는 월드모델 기반 상용 제품을 공개했다. 이에 업계에선 월드모델이 연구·실험 단계를 넘어, 콘텐츠·시뮬레이션 등 산업 현장으로 확장할 것이란 분위기가 나오고 있다. 내년 피지컬 AI 상용화 가능성이 내년 더 높아질 것으로 나타났다. 피규어AI와 보스턴다이내믹스는 AI 기반 인지·행동 모델을 적용해 로봇의 작업 수행 능력을 끌어올렸으며, 제조와 물류 현장에서의 활용 범위를 넓히고 있다. 반면 국내는 피지컬 AI 연구 기반이 아직 충분하지 않다는 평가가 이어지고 있다. 대규모 물리 데이터 축적과 장기 실증 경험이 부족하다는 이유에서다. 이에 국가AI전략위는 2030년 피지컬AI 1위 달성을 목표로 핵심기술과 데이터를 확보하겠다고 밝혔다. 카이스트 신진우 김재철AI대학원 석좌교수는 "앞으로 5년의 선택이 미래 50년간 피지컬 AI 경쟁력의 주요 잣대가 될 것"이라고 내다봤다. 국가별 AI법 속도·방향 갈려…AI 교육 투자 확대 절실 글로벌 AI 법·규제 환경은 국가별 정책 속도와 방향이 갈리면서, AI 규제 대응 전략도 지역별로 달라질 전망이다. 한국은 AI 법을 비교적 이르게 시행하는 국가에 속한 만큼, 신뢰 확보라는 규제 취지를 유지하면서도 산업 현장의 부담을 완화할 보완책 마련이 관건으로 꼽힌다. 특히 국내 업계에선 중소기업과 스타트업 대상으로 표준 가이드 제공과 교육·컨설팅 지원, 단계적 계도기간 운영이 함께 이뤄져야 한다는 목소리가 나온다. 실제 스타트업얼라이언스가 국내 AI 스타트업 101곳을 대상으로 실시한 조사에 따르면 응답 기업의 98%가 AI 기본법에 대비한 실질적 대응 체계를 갖추지 못한 것으로 나타났다. 스타트업을 위한 표준 가이드 마련이 병행되지 않을 경우 규제 충격이 불가피하다는 지적이 나오는 이유다. 내년 AI 인재·교육 정책 투자 확대 필요성도 내년 주요 과제로 거론되고 있다. AI 교육 확산 속도에 비해 대학과 연구기관, 스타트업이 활용할 수 있는 GPU 등 연산 인프라는 여전히 제한적인 상황으로, 교육 확대에 맞춘 인프라 공급 체계 구축이 필요하다는 전망이다. 대학 현장에서는 이미 부담이 가시화되고 있다. 한 사립대 관계자는 "대학원생 사이에서 GPU 사용을 둘러싼 경쟁이 여전히 치열하다"며 "AI 박사급 인재를 안정적으로 배출하기 위한 투자가 더 필요하다"고 털어놨다. 또 다른 관계자는 "GPU를 확보하더라도 매달 수십억원에 이르는 전기료를 감당하기 어렵다"며 "정부가 지원 사각지대를 면밀히 점검해야 한다"고 지적했다. 국내외 AI 인재 확보를 위한 제도적 기반 강화도 주요 과제로 꼽힌다. 카이스트 최재식 김재철AI대학원 교수는 지난달 국회 과학기술정보방송통신위원회 공청회에서 "해외로 나간 AI 인재가 다시 국내로 돌아올 수 있도록 하는 '순환형 인재 육성 모델'이 절실하다"고 강조했다. 한순구 연세대 경제학과 교수도 "미국과 중국에 인재를 보내 기술을 습득하게 한 뒤 다시 한국으로 복귀하도록 하는 구조를 고민할 필요가 있다"고 말했다. AI 전략위 교육 태스크포스(TF) 리더인 고려대 김현철 컴퓨터학과 교수는 간담회에서 "공공·사립 학교 간 AI 활용 역량 격차를 줄이는 것도 중요하다"며 "공통 AI 교육 플랫폼 제공이 점차 확대돼야 할 것"이라고 밝혔다.

2025.12.22 13:50김미정 기자

이미지 생성 AI 모델 경쟁 심화…오픈AI, 'GPT 이미지 1.5' 공개

오픈AI가 이미지 생성과 편집 성능을 강화한 새로운 모델을 선보이며 생성형 인공지능(AI) 이미지 시장 경쟁에 다시 불을 지폈다. 기존보다 정교한 지시 수행과 빠른 처리 속도를 앞세워 이미지 생성 도구를 실험 단계를 넘어 실사용 중심의 창작·업무 도구로 끌어올린다는 전략이다. 17일 테크크런치에 따르면 오픈AI는 새로운 이미지 생성 모델 'GPT 이미지 1.5'를 기반으로 한 챗GPT 이미지의 업데이트를 발표했다. 이번 모델은 지시 이행 정확도 향상, 세밀한 이미지 편집, 최대 4배 빠른 이미지 생성 속도가 특징으로, 모든 챗GPT 사용자에 순차적으로 제공된다. GPT 이미지 1.5는 오픈AI가 구글의 제미나이 시리즈와 이미지 생성 모델 경쟁을 본격화하는 과정과 맞물려 공개됐다. 구글이 최신 플래그십 모델과 이미지 생성기 '나노 바나나 프로'로 시장 점유율을 확대하는 가운데, 오픈AI가 이미지 모델 출시 시점을 앞당긴 것으로 풀이된다. 오픈AI의 이전 이미지 모델 출시는 지난 4월이었다. 이번 업데이트의 핵심은 반복 편집과 일관성이다. 기존 생성형 이미지 도구들이 특정 요소만 수정해 달라는 요청에도 이미지 전체를 다시 해석하는 한계가 있었던 반면, GPT 이미지 1.5는 얼굴 생김새, 조명, 구도, 색감 등 핵심 시각 요소를 유지한 채 요청한 부분만 정밀하게 수정할 수 있다. 이를 통해 실용적인 사진 보정은 물론 의상·헤어스타일 시뮬레이션, 원본 이미지를 유지한 스타일 변환 작업이 가능해졌다. 텍스트 렌더링 성능도 개선됐다. 작은 글자나 복잡한 텍스트 배치에서도 가독성이 높아졌으며 다수의 인물이 등장하는 이미지에서 얼굴 표현의 자연스러움도 향상됐다. 오픈AI는 이러한 개선을 통해 단순 이미지 생성뿐 아니라 마케팅·디자인·이커머스·커뮤니케이션 등 비즈니스 워크플로우 전반에서 활용도를 높일 수 있다고 설명했다. 사용자 경험 측면에서도 변화가 있다. 챗GPT 내부에 이미지 전용 공간이 새롭게 마련돼 모바일 앱과 웹 사이드바에서 접근할 수 있다. 사전 설정된 필터와 트렌드 기반 프롬프트를 활용해 보다 직관적인 이미지 탐색과 반복 시도가 가능해졌다. 오픈AI는 이 공간을 '크리에이티브 스튜디오'에 가깝게 설계했다고 밝혔다 . 다만 오픈AI는 이번 업데이트가 의미 있는 진전이지만 완성 단계는 아니라고 평가했다. 다양한 테스트 사례에서 성능 개선이 확인됐으나, 여전히 반복적인 개선이 필요한 영역이 남아 있으며 향후 업데이트를 통해 품질을 지속적으로 끌어올릴 계획이다. 피지 시모 오픈AI 애플리케이션 부문 CEO는 "챗GPT 사용자의 생각과 그것을 현실로 구현하는 능력 사이의 거리를 계속 좁혀 나가겠다"고 강조했다.

2025.12.17 15:04한정호 기자

엔비디아, 오픈 모델 '네모트론 3' 시리즈 공개…"추론 속도 4배↑"

엔비디아가 에이전틱 인공지능(AI) 애플리케이션 구축을 위한 오픈 모델 제품군을 공개했다. 엔비디아는 오픈 모델과 데이터, 라이브러리로 구성된 '네모트론 3' 시리즈를 17일 발표했다. 네모트론 3는 '하이브리드 잠재 전문가 혼합(MoE)' 아키텍처로 대규모 멀티 에이전트 시스템 신뢰성을 높였다. 개발자는 이를 통해 통신 과부하와 맥락 이탈, 높은 추론 비용 등 기존 협업형 AI 시스템이 겪던 기술적 난제를 해결할 수 있다. 이 시리즈는 나노, 슈퍼, 울트라로 구성됐다. 네모트론 3 나노는 300억 개의 파라미터를 갖춘 소형 모델이다. 전 세대 대비 4배 높은 처리량을 갖췄다. 소프트웨어 디버깅이나 콘텐츠 요약 같은 작업에 최적화됐다. 추론 토큰 생성량을 최대 60%까지 줄일 수 있다. 내년 상반기 출시 예정인 슈퍼와 울트라 모델은 각각 1천억 개, 5천억 개의 파라미터를 탑재했다. 해당 시리즈는 엔비디아 블랙웰 아키텍처 기반의 고효율 훈련 포맷으로 이뤄져 메모리 요구 사항을 줄이면서도 훈련 속도를 높일 수 있다. 엔비디아는 이번 제품군을 통해 각국 조직이 데이터와 규제, 가치에 부합하는 소버린 AI를 구축하도록 적극 지원한다고 밝혔다. 이미 서비스나우, 퍼플렉시티, 지멘스 등 글로벌 기업들이 네모트론 모델을 자사 워크플로에 통합해 제조, 보안, 미디어 등 다양한 산업 분야에서 활용 중이다. 이날 엔비디아는 전문화된 에이전트 구축을 돕기 위해 3조 개 토큰으로 구성된 훈련 데이터셋과 '네모 짐' 등 오픈소스 라이브러리도 공개했다. 모든 도구와 데이터셋은 깃허브와 허깅 페이스를 통해 즉시 이용 가능하다. 젠슨 황 엔비디아 최고경영자(CEO)는 "오픈 혁신은 AI 발전의 토대"라며 "네모트론을 통해 첨단 AI를 개방형 플랫폼으로 전환하고, 개발자들이 대규모 환경에서 에이전틱 시스템을 구축하는 데 필요한 투명성과 효율성을 제공하겠다"고 밝혔다.

2025.12.17 14:37김미정 기자

오픈AI, 한 달 만에 GPT-5.2 공개…구글 제미나이에 반격 나섰다

구글 제미나이의 거센 추격 속에서 오픈AI가 한 달 만에 프런티어 모델 'GPT-5.2'를 내놓으며 정면 돌파에 나섰다. 챗GPT 트래픽 감소와 내부 '코드 레드' 비상 체제까지 겹친 상황에서 강화된 성능의 신모델이 경쟁 구도를 다시 뒤흔들 것이라는 평가가 나온다. 오픈AI는 11일(현지시간) GPT-5.2 시리즈를 출시한다고 발표했다. 새 모델은 즉답·사고·프로 등 세 가지 모드로 구성되며 전문 지식 업무와 장시간 에이전트 실행에 최적화된 것이 특징이다. GPT-5.2는 챗GPT 유료 구독자에게 순차 제공되며 개발자들은 API를 통해 즉시 이용할 수 있다. GPT-5.1은 앞으로 3개월 뒤 지원이 종료된다. 이번 공개는 단순한 기능 업그레이드를 넘어 최근 제미나이 3의 급성장으로 흔들린 인공지능(AI) 시장 판도에 오픈AI가 다시 우위를 확보하려는 전략으로 풀이된다. 시장조사업체 시밀러웹에 따르면 챗GPT 트래픽 점유율은 1년 전 87%에서 최근 71.3%까지 떨어진 반면, 구글 제미나이는 같은 기간 5.7%에서 15.1%로 뛰어올랐다. 내부적으로도 샘 알트먼 오픈AI 최고경영자(CEO)는 직원들에게 코드 레드를 선언하며 챗GPT 모델 품질 개선을 최우선 과제로 지시한 바 있다. 이번에 공개된 GPT-5.2는 추론·코딩·수학·장문 분석·비전·도구 활용 등 전 영역에서 성능이 향상됐다. 오픈AI 자체 평가에서 사고 모드는 70.9%, 프로 모드는 74.1%를 기록해 인간 전문가와 대등하거나 능가하는 수준으로 평가됐다. 이전 버전 GPT-5의 38.8%와 비교하면 압도적인 성장이다. SWE 벤치마크에서도 80%를 기록하며 구글 제미나이 3 프로(76.2%)를 넘어섰고 앤트로픽 클로드 오퍼스4.5(80.9%)와도 1% 미만 차이에 불과한 것으로 나타났다. 또 사고 모드의 환각 오류율은 6.2%로 전작 대비 약 30% 감소했으며 긴 문서 맥락 이해와 이미지·그래프 분석 능력, 다단계 업무 처리 능력도 상향됐다. 복잡한 논리·수학 문제 해결 과정에 있어서도 이전보다 38% 적은 오류를 냈고 추론·코딩·과학 벤치마크에서도 최고치를 기록했다. 개발자들을 위한 API 측면에서는 추론 강도를 선택할 수 있는 다섯 단계의 옵션을 제공해 복잡한 프로젝트 수행 능력을 강화했다. 오픈AI 피지 시모 최고제품책임자(CPO)는 "GPT-5.2는 스프레드시트 제작, 프레젠테이션 구성, 코드 작성, 이미지 이해, 장문 맥락 추론, 도구 활용 등 실제 업무에서 큰 경제적 가치를 제공하도록 설계됐다"고 설명했다. 이번 공개는 오픈AI가 빠른 속도로 AI 모델을 출시하는 전환점으로 평가된다. GPT-5.1 발표 후 불과 한 달 만의 출시로, 이는 챗GPT 서비스를 시작한 2022년 이후 가장 짧은 주기다. 월스트리트저널과 여러 외신은 오픈AI가 내부 비상 상황 속에서 제미나이 3 프로의 벤치마크 공세를 의식해 GPT-5.2 출시 일정을 당긴 것으로 분석했다. 이번 GPT-5.2 공개로 오픈AI·구글·앤트로픽 간 경쟁이 한층 격렬해질 전망이다. 한편 오픈AI 내부에서는 고도화된 추론 모델 중심 전략이 높은 연산 비용 부담으로 이어질 수 있다는 우려도 제기되고 있다. 업계에서는 오픈AI의 추론 비용 상당 부분이 클라우드 이용료가 아닌 현금으로 지불되고 있다는 관측도 나온다. 오픈AI는 "더 효율적인 모델 구조와 강화된 성능을 통해 동일 비용 대비 더 높은 지능을 제공하는 방향으로 나아가고 있다"며 "앞으로도 안전성과 신뢰성을 강화하고 사용자가 기대하는 품질을 꾸준히 발전시켜 나가겠다"고 밝혔다.

2025.12.12 10:08한정호 기자

오픈AI, 스타트업 '넵튠' 인수…AI 모델 훈련 강화

챗GPT 개발사 오픈AI가 인공지능(AI) 모델 교육 과정을 향상시키기 위해 스타트업 넵튠을 인수한다. 3일(현지시간) 블룸버그 등 외신에 따르면 이번 거래는 주식 형태로 이뤄지지만, 구체적인 조건은 공개되지 않았다. 넵튠은 다른 고객들이 AI 모델을 개발할 때 훈련 실행 상황을 분석하고 문제를 발견하는데 도움을 주는 소프트웨어를 만든다. 오픈AI는 지난 1년간 넵튠의 도구를 이용해 여러 실험을 수행하고 다양한 모델 버전을 비교해왔다. 폴란드에 본사를 두고 있는 넵튠은 약 60명의 직원을 보유하고 있다. 오픈AI가 넵튠을 인수하기로 했지만, 이들 모두의 고용이 승계되는 것은 아니다. 오픈AI는 앞으로 넵튠의 도구를 자사 내부용으로만 유지하고 삼성전자, HP 등 다른 고객사들에 대한 서비스는 종료할 계획이다. 야쿠프 파초츠키 오픈AI 최고과학책임자(CSO)는 “(넵튠이) 연구자들이 복잡한 훈련 워크플로를 분석할 수 있도록 해주는 빠르고 정말한 시스템을 구축했다”며 “(넵튠의 도구가) 자사 모델이 어떻게 학습하는지에 대한 가시성을 확장하는데 도움이 될 것”이라고 전망했다.

2025.12.04 09:54박서린 기자

[현장] 국산 AI 반도체·클라우드 결합 '시동'…국가 인프라 강화 선언

국산 인공지능(AI) 반도체와 클라우드 산업의 융합이 궤도에 올랐다. 초거대 AI 시대를 맞아 국가 인프라의 근간이 되는 클라우드가 스마트화와 지능형 자원 운영이라는 새로운 전환점을 맞이하면서 국산 기술 중심의 풀스택 생태계 구축이 본격화되고 있다. 오픈K클라우드 커뮤니티는 25일 서울 강남 과학기술회관에서 '오픈K클라우드 데브데이 2025'를 열고 국산 AI 반도체와 클라우드 융합 전략을 공유했다. 오픈K클라우드 커뮤니티에는 한국전자통신연구원(ETRI), 한국전자기술연구원(KETI), 이노그리드, 오케스트로, 경희대학교, 연세대학교, 한국클라우드산업협회(KACI), 퓨리오사AI 등 산·학·연 주요 기관이 공동 참여한다. 이번 행사는 커뮤니티의 첫 공식 기술 교류 행사로, 국산 AI 반도체를 중심으로 한 클라우드·소프트웨어(SW) 전주기 기술을 한자리에서 조망하며 국가 AI 인프라 경쟁력 제고 방안을 논의했다. ETRI 최현화 박사는 "이제 AI 서비스의 경쟁력은 모델을 누가 더 잘 만드느냐보다 누가 더 나은 인프라로 지속적으로 운영하느냐가 핵심"이라고 강조하며 클라우드의 대전환기를 진단했다. 최 박사는 최근 글로벌 거대언어모델(LLM) 발전의 특징을 멀티모달 확장, 컨텍스트 윈도우의 급격한 증가, 툴 연동 기반 정확도 향상으로 정리했다. 특히 메타가 공개한 오픈소스 LLM '라마'의 컨텍스트 윈도우가 1천만 토큰 수준으로 확장된 점을 언급했다. 그는 이러한 추세 속에서 국내 클라우드 산업이 ▲AI 가속기 이질성의 심화 ▲메모리 병목 문제 ▲추론 비용의 급증 ▲에이전트 폭증에 따른 관리 복잡도 증가 등 여러 난제를 동시에 마주하고 있다고 짚었다. 가장 먼저 꼽힌 것은 AI 가속기의 이질성 문제다. 엔비디아 그래픽처리장치(GPU) 중심 생태계가 유지되고 있지만 국내외에서 신경망처리장치(NPU)·AI칩·메모리 내 연산(PIM) 등 다양한 가속기와 인터커넥트 기술이 빠르게 등장하면서 단일 아키텍처에 의존하는 방식은 지속 가능하지 않다는 지적이다. 이어 LLM 추론의 핵심 병목으로 작용하는 '메모리 월'도 문제로 제기됐다. GPU 성능이 가파르게 증가하는 동안 메모리 기술 향상 속도는 더디기 때문이다. 최 박사는 SK하이닉스의 'AiMX', CXL 기반 차세대 메모리 사례를 언급하며 "AI 추론은 본질적으로 메모리 중심 작업이기에 차세대 메모리가 성능의 핵심을 좌우하게 될 것"이라고 말했다. LLM 스케일링 문제 역시 중요한 도전 과제로 다뤄졌다. 사용자 요구는 계속 높아지지만 단일 모델의 크기 확장에는 한계가 있어 여러 전문가 모델을 조합하는 '전문가 혼합(MoE)' 방식이 중요한 돌파구가 될 것이라고 강조했다. AI 모델마다 강점이 다른 만큼 다중 LLM 기반 지능형 추론은 필연적인 흐름이라는 설명이다. 추론 비용 문제도 빠지지 않았다. 최 박사는 "엔비디아 B200 급 GPU의 전력 소비가 1킬로와트(kW)에 이르는데, 이러한 DGX 서버 100대를 하루 운영하면 테슬라 전기차로 지구를 일곱 바퀴 도는 전력량에 해당한다"고 설명했다. 그러면서 "전력·비용 최적화는 하드웨어(HW) 스펙뿐 아니라 스케줄링, 클러스터 재구성이 필수"라고 말했다. 또 LLM·에이전트·데이터소스가 동적으로 연결되는 시대가 되면서 모니터링 복잡성이 기하급수적으로 커지고 있다는 점도 지적했다. 기존에는 레이턴시와 처리량을 중심으로 모니터링했다면 이제는 LLM의 할루시네이션 여부, 에이전트 간 호출 관계, 로직 변경 이력까지 관측해야 안정적 운영이 가능하다는 것이다. 이 같은 문제를 해결하기 위해 ETRI는 과학기술정보통신부가 추진하는 'AI 반도체 클라우드 플랫폼 구축 및 최적화 기술 개발' 과제에 참여했다. 이를 통해 ▲이종 AI 반도체 관리 ▲클라우드 오케스트레이션 ▲자동 디바이스 감지 ▲협상 기반 스케줄링 ▲국산 NPU 특화 관측 기술을 포함한 오픈소스형 '오픈K클라우드 플랫폼'을 개발 중이다. ETRI는 5년간 진행되는 사업에서 2027년 파라미터 규모 640억 LLM, 2029년 3천200억 LLM 지원을 목표로 풀스택 AI 클라우드 생태계를 구축할 계획이다. 오픈K클라우드 커뮤니티에 참여하는 퓨리오사AI, 이노그리드, 오케스트로도 이날 국산 AI 반도체와 클라우드 융합 생태계 활성화를 위한 기술 전략을 발표했다. 퓨리오사AI 이병찬 수석은 엔비디아 의존을 극복하기 위해 전력·운영 효율성을 높인 '레니게이드' 칩과 SW 스택을 소개했다. 이노그리드 김바울 수석은 다양한 반도체가 혼재된 클라우드 구조를 성능·전력·비용 최적화로 통합한 옵저버빌리티의 전략을 공유했다. 오케스트로 박의규 소장은 자연어 요구 기반 코딩과 자동화된 테스트·배포를 지원하는 에이전트형 AI SW 개발환경(IDE) 트렌드와 국내 시장의 변화에 대해 발표했다. 최 박사는 "앞으로 오픈K클라우드 플랫폼을 통해 국산 AI 반도체가 국가 핵심 인프라에 적용될 수 있는 계기를 만들겠다"고 강조했다. 이어 "아직 확정은 아니지만 정부가 추진하는 '국가AI컴퓨팅센터' 사업에 우리 플랫폼을 탑재할 수 있는 계기를 만들 것"이라며 "국산 AI 반도체 실사용자의 요구사항을 반영해 레퍼런스를 쌓아가는 것이 목표"라고 덧붙였다.

2025.11.25 17:10한정호 기자

챗GPT, 금융 서비스 품는다…오픈AI-인튜이트 플랫폼 통합 협력

오픈AI가 회계 소프트웨어(SW) 기업 인튜이트와 손잡고 '개인 금융 비서 시대'를 연다. 19일 월스트리트저널(WSJ)에 따르면 양사는 1억 달러(약 1천464억원) 이상의 매출을 목표로 한 대규모 전략적 파트너십을 체결하며 챗GPT 안에서 터보택스·퀵북스 등 주요 금융 서비스를 직접 이용할 수 있도록 통합한다. 다년간 파트너십을 통해 인튜이트의 핵심 금융 애플리케이션들이 챗GPT 플랫폼과 연동하고 개인·중소기업 고객을 지원할 계획이다. 이번 계약을 통해 오픈AI는 1억 달러(약 1천464억원) 이상 규모의 수익을 올릴 것으로 예상되며 인튜이트는 오픈AI의 프론티어 모델을 자사 서비스 전반에 적용해 현금흐름 예측, 세무 준비, 급여 관리 등 다양한 인공지능(AI) 기반 자동화 기능을 강화할 예정이다. 이번 협력의 목표는 챗GPT를 단순한 대화형 도구를 넘어 실제 금융 의사결정을 도와주는 개인 슈퍼 어시스턴트로 발전시키는 데 있다. 인튜이트 앱들은 앞으로 챗GPT 내에서 직접 실행할 수 있게 돼 사용자들은 세금 환급 추정, 적합한 신용 상품 추천, 세금 전문가 연결 등 다양한 금융 활동을 챗GPT 안에서 바로 처리할 수 있다. 인튜이트의 금융 데이터·신용 모델과 오픈AI 모델이 결합하며 개인과 중소기업을 위한 예측 기반 금융 서비스가 한층 강화될 것이라는 전망이 나온다. 기업 사용자를 위한 기능도 확대된다. 퀵북스·메일침프 등 인튜이트의 주요 비즈니스 앱은 실시간 비즈니스 데이터를 기반으로 맞춤형 현금흐름 개선 인사이트를 제공하고 고객 도달 기능을 자동화해 생산성과 수익성을 높이도록 설계된다. 이번 계약에는 인튜이트의 챗GPT 엔터프라이즈 활용도 포함됐다. 인튜이트 직원들은 최신 챗GPT 모델을 활용해 생산성을 강화하고 회사 차원에서는 챗GPT 외에도 서드파티 거대언어모델(LLM) 활용과 자체 모델 개발을 병행할 예정이다. 사산 구다르지 인튜이트 최고경영자(CEO)는 "이번 협력은 우리의 독점 금융 데이터, 신용 모델, AI 플랫폼 역량을 오픈AI의 최첨단 모델과 결합해 사용자들에게 필요한 금융 우위를 제공할 것"이라고 말했다.

2025.11.19 10:20한정호 기자

LG유플러스 "3분기 AIDC 매출 전년비 14.5%↑"

LG유플러스의 3분기 AI 데이터센터(AIDC) 사업이 전년 대비 14.5% 성장했다. 평촌2센터 가동률 상승과 가산데이터센터 설계·시공·운영(DBO) 매출 반영이 기여한 결과다. 이 같은 성장세로, 하반기 큰폭의 AIDC의 성장이 기대된다. 안형균 LG유플러스 기업AI사업그룹장은 5일 열린 3분기 실적 컨퍼런스콜에서 이같이 밝혔다. 안 그룹장은 “평촌2센터는 2024년 상반기부터 고객사 입주가 시작됐고, 올해 상반기에는 일부 대형 고객의 신규 입주도 완료되면서 3분기 AIDC 매출 상승에 기여했다”고 설명했다. 그러면서 “코람코자산운용이 보유한 가산데이터센터의 위탁운영을 시작하면서 DBO 매출이 추가로 반영됐다”며 “이에 올 하반기 AIDC 매출은 상반기 대비 큰 폭 개선이 있을 것으로 예상된다”고 덧붙였다. 회사는 B2C·B2B 각 부문의 AI 경쟁력 확보에도 나서고 있다. 여명희 LG유플러스 최고재무책임자(CFO)는 AI 서비스 전략에 대해 “B2C에서는 '익시오'로 서비스 차별화를, B2B에서는 AX 기술과 역량을 활용해 경쟁력을 강화하고 있다”고 말했다. 이어 그는 “내부 고객센터에 적용한 인공지능 컨택센터(AICC)로 생산성을 높이고, 축적된 노하우를 사업화 기회로 확장할 계획”이라고 덧붙였다. 아울러 여 CFO는 “7월에 오픈AI와 제휴해 B2B용 AICC 구독형 상품을 공동 개발 중”이라며 “정부 주도의 독자 AI 파운데이션 모델 프로젝트에도 참여하고 있다”고 설명했다. LG유플러스는 연결 기준으로 올해 3분기 매출 4조108억원을 기록했다. 전년 동기 대비 5.5% 증가한 수치다. 반면 영업이익은 1천617억원, 당기순이익은 491억원으로 각각 34.3%, 63.6% 줄었다.

2025.11.05 18:15진성우 기자

베일 벗은 카카오·오픈AI 첫 협업물…"추가 협업도 가능"

카카오가 오픈AI와의 첫 협업물로 카카오톡에 챗GPT를 탑재한 '챗GPT 포 카카오'를 출시한 가운데, 추가적인 협업 가능성을 내비쳤다. 챗GPT와 카나나의 카톡 채팅 학습 가능성에 대한 우려를 일축했을 뿐만 아니라 자사 서비스를 연동한 '카카오 툴즈'에 외부 대형 서비스 제휴 여지도 남겨뒀다. 유용하 카카오 AI에이전트플랫폼 성과리더는 28일 경기도 판교 카카오아지트에서 열린 기자간담회에서 “추후 더 추가적인 전용 API를 이용한 협업의 여지나 새로운 전용 서비스, 상품 출시도 충분히 가능할 것”이라며 “다만, 현재 서비스(챗GPT 포 카카오)가 어느 정도 안정화되고 방향성이 정해진 후 추진할 수 있을 것”이라고 이같이 말했다. 이날 카카오는 현장에서 카카오톡에 챗GPT를 적용한 '챗GPT 포 카카오'와 카톡 안 대화 맥락을 파악해 먼저 메시지를 보내주는 '카나나 인 카카오톡'을 소개했다. 챗GPT 포 카카오는 카톡 안에서 대화하면서 채팅탭 상단에 위치한 챗GPT 버튼을 클릭해 서비스를 사용할 수 있는 기능이다. 오픈AI의 최신 언어모델인 'GPT-5'를 적용해 검색, 이미지 업로드·생성과 같은 기능을 모두 제공한다. 챗GPT 포 카카오는 '카카오 툴즈'를 활용해 카카오의 다양한 서비스와 연동되는 것이 특징이다. 카카오 툴스 안에는 카카오맵, 카톡 예약하기, 카톡 선물하기, 멜론이 포함되며 이용자의 요청에 따라 해당 서비스들이 자동으로 연결되는 경험을 제공한다. 이 과정에서 발생할 수 있는 광고 상품 우선 노출 우려에 대해서는 선을 그었다. 강지훈 카카오 AI디스커버리 성과리더는 “선물하기 추천 기능은 사실 광고라고 보고 어렵고, 숨어 있는 선물을 추천하는 기능”이라며 “오히려 이용자 편의성 위주로 가게 되는 기능에 더 가깝다”고 언급했다. 카카오 내부 기능이 우선 탑재된 카카오 툴스와 외부 서비스와의 제휴 가능성도 열어뒀다. 유 성과리더는 “외부 파트너사의 경우 올해 프로젝트가 시작됐고 출시하기까지 굉장히 짧은 시간이었기 때문에 제휴까지 진행하기는 짧은 시간”이라면서도 “외부 서비스도 내년부터 순차적으로 적용할텐데 사용자들의 선택에 최대한 초점을 맞출 예정이고 새로운 패러다임으로 발전할 수 있는 대형 제휴사도 충분히 들어올 수 있을 것”이라고 답했다. 보안 관련해서 임원진들은 카톡에서 나눈 대화가 챗GPT 뿐만 아니라 자체 모델인 카나나의 학습에도 활용되지 않는다고 강조했다. 유 성과리더는 “챗GPT 포 카카오에서 사용되는 여러 내용은 자체 모델(카나나) 학습에 사용되지 않는다. 카톡에서의 대화와 챗GPT는 완전히 서비스적으로 분리돼 있기 때문에 대화가 임의로 넘어가는 경우는 절대 없다”며 걱정을 일축했다. 챗GPT 포 카카오는 이용자가 직접 대화 내용 저장 여부와 AI 학습 반영 여부를 자유롭게 선택할 수 있으며 모든 이용자 정보는 카카오와 챗GPT의 개인정보 보호 정책에 따라 보호된다는 설명이다. 챗GPT 포 카카오는 이날부터 출시되며, 현재 아이폰15 프로 이상의 모바일 기기를 지원하는 카나나 인 카카오톡은 베타테스트를 거쳐 내년 1분기 중 안드로이드로 서비스 확대 후 정식 서비스로 선보일 예정이다.

2025.10.28 16:01박서린 기자

"챗GPT 곧 잡을까"…구글 제미나이, 월 방문자 11억 명 돌파

구글의 인공지능(AI) 챗봇 '제미나이'가 최근 한 달 새 방문자 수가 46% 급증하며 오픈AI '챗GPT'를 추격하고 있다. 13일 시장조사업체 시밀러웹에 따르면 제미나이의 지난 달 월간 방문자 수는 11억 명으로, 전월 대비 46% 증가했다. 트래픽 점유율은 지난 달 초 9.1%에서 이달 3일 기준 13.7%로 상승했으며 같은 기간 '챗GPT'는 78%에서 73.8%로 하락했다. 중국의 생성형 AI 모델 '딥시크'는 4%에서 3.9%로 소폭 줄었다. 제미나이의 급성장은 단순한 인기도 상승을 넘어 오픈AI의 내부 정책 변화와도 맞물려 있다는 분석이 나온다. 오픈AI는 최근 'GPT-5 인스턴트'라는 별도 모델을 도입해 사용자가 스트레스나 불안 상태로 판단될 경우 자동 전환하는 기능을 적용했다. 해당 조치는 위기 대응과 아동 보호를 위한 목적이지만, 일부 유료 이용자들 사이에서는 "대화가 조금만 민감해도 보호 모드로 바뀌어 흐름이 끊긴다"는 불만이 제기됐다. 이러한 안전모드 논란이 제미나이로의 사용자 이동을 부추겼다는 해석이다. 그럼에도 챗GPT의 충성도는 여전히 압도적이다. 시밀러웹 분석에 따르면 챗GPT 이용자의 82.2%는 다른 생성형 AI 서비스를 전혀 사용하지 않고 챗GPT만 이용하는 단독 사용자로 나타났다. 해당 충성도 지표에서 제미나이는 49.1%로 2위를 차지했으며 일론 머스크의 xAI 그록(35.6%), AI 검색엔진 퍼플렉시티(33.1%), 앤트로픽의 클로드(18%)가 뒤를 이었다. 챗GPT는 전 세계 트래픽 규모에서도 지배적이다. 지난달 기준 챗GPT의 월 방문자는 59억 명으로, 제미나이의 약 5배 수준이다. 챗GPT는 전 세계에서 다섯 번째로 방문자가 많은 웹사이트이자, 생성형 AI 중 유일하게 톱 10에 포함된 플랫폼으로 집계됐다. 시밀러웹은 "제미나이의 트래픽 증가세가 뚜렷하지만 여전히 챗GPT가 생성형 AI 시장의 중심에 있다"고 분석했다.

2025.10.13 18:24한정호 기자

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

[유미's 픽] AI가 들러리인가…하정우·임문영 두 축 선거판으로

광고 속 그 연예인, 진짜일까…'AI 무단 합성' 칼 빼든 미국

한강 뒤덮은 5000여 잉어킹…'포켓몬런 2026 in 서울' 가보니

애플 '아이폰17', 1Q 세계 판매 1위...삼성 갤럭시는

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.