• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'경량 모델'통합검색 결과 입니다. (6건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

노타, 삼성 '엑시노스'에 AI 최적화 기술 공급…"온디바이스 기술력·시장성 입증"

노타가 삼성전자의 최신 애플리케이션 프로세서(AP)에 인공지능(AI) 최적화 기술을 탑재해 온디바이스 생성형 AI 대중화에 박차를 가한다. 노타는 자사 AI 모델 최적화 기술을 삼성전자의 '엑시노스 2500'에 공급하는 계약을 체결했다고 26일 밝혔다. 이번 계약을 통해 노타는 삼성전자의 AI 모델 최적화 툴체인 '엑시노스 AI 스튜디오'에 핵심 기술을 제공하며 엑시노스 2500 AP에서 고도화된 생성형 AI 경험이 구현될 수 있도록 기술적 기반을 마련했다. 엑시노스 AI 스튜디오는 고객이 개발한 AI 모델을 엑시노스 프로세서에 최적화해 효율적으로 구동할 수 있도록 지원하는 툴체인이다. 여기에 노타의 기술이 접목되면서 모델 최적화 효율과 성능이 향상되는 것은 물론 클라우드 연결 없이도 스마트폰에서 한층 강화된 온디바이스 AI 경험이 가능해졌다. 삼성전자 모바일 AP S/W 개발팀 조철민 상무는 "엑시노스 AI 스튜디오에 노타의 AI 모델 최적화 기술이 적용되면서 온디바이스 AI 모델 개발 효율성이 전작 대비 향상됐다"며 "양사 간 기술 협업으로 좋은 성과를 낼 수 있어 기쁘다"고 밝혔다. 노타는 이번 삼성전자와의 협업으로 기술력에 더해 시장성과 사업성을 입증했다고 강조했다. 노타는 최근 코스닥 시장에 공식 상장했으며 확보한 자금을 북미·유럽·중동 등 주요 글로벌 시장에서의 사업 확장에 투입할 계획이다. 이를 통해 온디바이스 생성형 AI의 상용화를 선도하고 글로벌 AI 기술 리더로서의 입지를 공고히 한다는 방침이다. 채명수 노타 대표는 "삼성전자와의 협업은 우리의 AI 최적화 기술이 글로벌 소비자용 제품에 적용돼 상용화된 의미 있는 사례"라며 "AI 반도체와 소프트웨어의 유기적 결합을 통해 온디바이스에서 고성능 생성형 AI를 구현했다"고 말했다. 이어 "앞으로도 삼성전자 및 글로벌 파트너들과 함께 온디바이스 AI 생태계 확장을 주도해 나가겠다"고 덧붙였다.

2025.11.26 16:23한정호

노타, 온디바이스 기술력 글로벌서 입증…'매드 랜드스케이프' 2년 연속 선정

노타가 글로벌 인공지능(AI) 생태계를 대표하는 주요 벤치마크에 이름을 올리며 기술 경쟁력을 입증했다. 노타는 글로벌 AI 산업의 핵심 지표로 평가되는 '2025 매드(머신러닝·AI·데이터) 랜드스케이프'에서에서 엣지 AI 부문에 2년 연속 선정됐다고 13일 밝혔다. 이는 올해 4월 CB 인사이트가 발표한 '2025 글로벌 혁신 AI 스타트업 100'에 이어 거둔 성과다. 매드 랜드스케이프는 글로벌 VC·테크 업계가 AI·데이터 산업의 구조적 변화를 파악하는 데 활용하는 대표 자료다. 올해 발표에서는 AI가 클라우드 중심에서 디바이스·하드웨어 중심으로 재편되는 흐름이 더욱 뚜렷해졌다는 점이 주목된다. 특히 엣지 AI는 이러한 변화의 중심에 있으며 고성능 모델의 디바이스 탑재 수요 증가에 따라 글로벌 AI 경쟁력의 핵심 지표로 부상한 분야다. 전 세계 1천150여 개 기업이 포함된 이번 매드 랜드스케이프에서 한국 기업은 삼성을 포함해 단 세 곳이며 노타는 엔비디아·퀄컴·애플·인텔·AMD 등 칩셋·디바이스 생태계를 구축한 글로벌 테크 리더들과 함께 엣지 AI 부문에 선정됐다. 이를 통해 노타는 온디바이스 AI 분야에서 기술적 존재감과 글로벌 경쟁력을 빠르게 확대하고 있음을 입증했다. 노타가 독자 개발한 AI 모델 최적화 플랫폼 '넷츠프레소'는 AI 반도체부터 IoT 디바이스까지 다양한 하드웨어에서 모델을 효율적으로 압축·최적화·배포할 수 있는 기술 플랫폼이다. 모델 크기를 최대 90% 이상 줄이면서도 정확도를 유지해 개발·운영 비용을 대폭 절감하며 다양한 산업의 AI 도입 속도를 크게 높이고 있다. 노타는 삼성전자·퀄컴·르네사스·소니 등 글로벌 반도체 기업과 협력을 통해 엣지 인텔리전스 산업 전반에서 입지를 확대하고 있다. 최근에는 저사양 디바이스에서도 대규모언어모델(LLM)을 구동할 수 있는 최적화 기술을 선보여 제조·가전·IoT 등 디바이스 중심 산업으로 온디바이스 AI 적용 범위를 확장 중이다. 또 정부의 독자 AI 파운데이션 모델 개발 프로젝트에 정예팀으로 참여하며 국가적 차원에서도 기술력을 인정받고 있다. 채명수 노타 대표는 "CB 인사이트 AI 100에 이어 매드 랜드스케이프 엣지 AI 부문에도 연달아 선정된 것은 우리의 기술 혁신성이 글로벌에서 인정받은 중요한 성과"라며 "앞으로도 독보적인 AI 경량화·최적화 기술을 기반으로 제조·모빌리티·로봇·가전 등 산업 전반의 적용 범위를 넓히고 글로벌 시장에서 새로운 성장 기회를 주도하겠다"고 말했다.

2025.11.13 16:55한정호

앤트로픽, 경량 AI 모델 '클로드 하이쿠 4.5' 공개..."GPT-5급 성능"

앤트로픽이 자사 대형언어모델(LLM) 제품군 '클로드'의 최신 경량 버전 '클로드 하이쿠 4.5'를 공개했다. 기존 하이쿠 3.5 대비 속도와 효율을 크게 높인 것이 특징으로, 실시간 응답과 대규모 병렬 처리를 중시하는 서비스 환경에 최적화됐다. 앤트로픽은 16일(현지시간) 자사 블로그를 통해 클로드 하이쿠 4.5를 전 세계 사용자에게 공개한다고 발표했다. 이 모델은 최근 공개된 '클로드 소넷 4.5'를 소형화한 버전으로, 성능은 유사하지만 비용은 3분의 1, 처리 속도는 두 배 이상 빠른 것으로 알려졌다. 앤트로픽은 하이쿠 4.5가 코드 수정 정확도를 평가하는 'SWE-벤치'에서 73%, 명령줄 기반 작업 수행 능력을 측정하는 '터미널-벤치'에서 41%를 기록했다고 밝혔다. 이는 클로드 소넷 4.5보다는 다소 낮지만 GPT-5와 구글 제미니 2.5 등과 비슷한 수준이다. 특히 툴 사용, 시각적 추론, 컴퓨터 조작 능력 등에서 이전 세대보다 개선된 성능을 보였다는 게 앤트로픽 측 설명이다. 이번 모델은 무료 사용자 계정에도 적용된다. 개발자들은 하이쿠 4.5를 클로드 API, 아마존 베드록, 구글 클라우드 버텍스 AI 등에서도 즉시 활용할 수 있다. 앤트로픽은 이번 업데이트로 클로드 제품군 전 라인업을 새 버전으로 완성하며 모델 간 속도·비용·지능의 균형을 맞춘 에이전트 조합 전략을 본격화한다는 목표다. 앤트로픽 마이크 크리거 최고제품책임자(CPO)는 "하이쿠 4.5는 실시간 대화, 고객 서비스, 페어 프로그래밍 등 반응 속도가 중요한 작업에 최적화됐다"며 "소넷 4.5가 복잡한 문제 해결을 맡고 여러 하이쿠 모델이 병렬로 세부 작업을 수행하는 다중 에이전트 구성이 가능하다"고 말했다.

2025.10.16 15:00한정호

카카오, 경량 멀티모달·MOE 오픈소스 공개

카카오(대표 정신아)는 국내 공개 모델 중 최고 성능의 경량 멀티모달 언어모델과 혼합 전문가(MoE) 모델을 국내 최초 오픈소스로 공개한다고 24일 밝혔다 카카오는 허깅페이스를 통해 이미지 정보 이해 및 지시 이행 능력을 갖춘 경량 멀티모달 언어모델 '카나나(Kanana)-1.5-v-3b'와 MoE 언어모델 '카나나-1.5-15.7b-a3b'를 오픈소스로 선보였다. 지난 5월 공개한 언어모델 카나나-1.5 4종에 이어 두 달 만에 추가 모델을 오픈소스로 공개한 것이다. 정부가 추진하는 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참여한 카카오는 이러한 자체 모델 개발 역량 및 카카오톡 등의 대규모 서비스 운영 경험 등을 토대로 전 국민의 AI 접근성을 높이고 국가 AI 경쟁력을 강화하는데 기여한다는 방침이다. 이날 공개된 '카나나-1.5-v-3b'는 텍스트 뿐만 아니라 이미지 정보도 처리할 수 있는 멀티모달 언어모델로, 지난 5월 말 오픈소스로 공개한 카나나 1.5 모델을 기반으로 하고 있다. 카나나 1.5는 모델 개발의 처음부터 마지막 단계까지 카카오의 자체 기술을 바탕으로 구축하는 '프롬 스크래치' 방식으로 개발됐다. 멀티모달 언어모델인 '카나나-1.5-v-3b'는 이용자의 질문 의도를 정확히 이해하는 높은 지시 이행 성능과 뛰어난 한국어·영어 이미지 이해 능력을 보유했다고 회사 측은 설명했다. 또한, 한국어 벤치마크에서 유사 사이즈의 국내외 공개 모델과 비교한 결과 최고 점수를 기록했고 다양한 영어 벤치마크에서 해외 오픈소스 공개모델과 비교했을 때도 유사한 수준의 성능을 보인 것으로 알려졌다. 지시 이행 능력 벤치마크에서는 국내 공개된 유사한 규모의 멀티모달 언어모델 대비 128% 수준의 성능을 기록했다. 카카오는 인간 선호 반영 학습과 지식 증류를 통해 '카나나-1.5-v-3b'의 성능을 극대화했다. 지식 증류는 고성능의 대형 모델로부터 비교적 작은 모델을 학습하는 방식이다. 단순한 정답 뿐 아니라 대형 모델의 예측 확률 분포까지 학습에 반영함으로써 작은 모델이 더 정교하고 일반화된 예측 능력을 갖추도록 돕는 기술이다. 이를 통해 상대적으로 경량화된 모델 구조임에도 정확도나 언어 이해 등의 능력에서 대형 모델의 높은 성능에 근접하거나 이를 뛰어 넘을 수 있는 능력을 발휘하도록 돕는다. '카나나-1.5-v-3b'는 경량 멀티모달 언어모델의 강점을 토대로 ▲이미지 및 글자 인식 ▲동화 및 시 창작 ▲국내 문화유산 및 관광지 인식 ▲도표 이해 ▲수학 문제풀이 등 여러 분야에서 활용할 수 있다. 예를 들어, 장소 사진과 함께 이 사진이 촬영된 장소에 대해 간단히 설명해줘라고 질문하면 “이 사진은 서울 청계천을 배경으로 하고 있습니다”와 같이 국내 지역에 대한 인식력을 바탕으로 정확한 답변을 제공한다. 카카오는 모델의 성능에 집중하는 단계를 넘어 AI가 사람처럼 생각하고 행동할 수 있는 ▲멀티모달 이해 능력 ▲사용자 지시 수행 능력 ▲추론능력을 갖추도록 발전시키는 데 주력하고 있다. 하반기 중에는 에이전트형 AI 구현에 필수적인 추론 모델의 성과도 공개할 예정이다. 카카오는 일반적인 '밀집' 모델과 차별화되는 MoE 구조의 언어모델도 오픈소스로 함께 공개했다. 'MoE'는 입력 데이터 처리 시 모든 파라미터가 연산에 참여하는 기존 모델과 달리 특정 작업에 최적화된 일부 전문가 모델만 활성화되는 방식으로 효율적인 컴퓨팅 자원 활용과 비용 절감이 특징이다. MoE 아키텍처를 적용한 '카나나-1.5-15.7b-a3b'는 전체 15.7B의 파라미터 중 추론 시 약 3B 파라미터만 활성화돼 동작한다. 카카오는 모델의 학습 시간과 비용을 절약하기 위해 자사의 3B 규모의 모델 '카나나-Nano-1.5-3B'에 '업사이클링' 방식을 적용해 개발했다. 업사이클링은 기존 다층 신경망(MLP) 레이어를 복제해 여러 전문가 레이어로 변환하는 방식으로 모델을 처음부터 개발하는 방식에 비해 효율적이다. 활성화되는 파라미터가 3B에 불과하지만 성능은 '카나나-1.5-8B'와 동등하거나 상회하는 수준을 기록했다. 카카오의 MoE 모델은 고성능 AI 인프라를 저비용으로 구축하고자 하는 기업이나 연구 개발자들에게 실용적인 도움을 제공할 수 있다는 설명이다. 특히 추론 과정에서 제한된 파라미터만 사용하는 구조적 특성 덕분에 저비용, 고효율 서비스 구현에 유리하다. 카카오는 이번 경량 멀티모달 언어모델과 MoE 모델의 오픈소스 공개를 통해 AI 모델 생태계에 새로운 기준을 제시하고 더 많은 연구자와 개발자가 강력한 AI 기술을 자유롭게 활용할 수 있는 기반을 마련해 갈 계획이다. 뿐만 아니라 자체 기술 기반의 모델을 지속적으로 고도화하고 모델 스케일업을 통해 글로벌 플래그십 수준의 초거대 모델 개발에 도전함으로써 국내 AI 생태계의 자립성과 기술 경쟁력 강화에 기여할 계획이다. 김병학 카카오 카나나 성과리더는 “이번 오픈소스 공개는 비용 효율성과 성능이라는 유의미한 기술 개발의 성과를 거둔 것으로 단순한 모델 아키텍처의 진보를 넘어 서비스 적용과 기술 자립이라는 두 가지 측면의 목표에 부합하는 결과물”이라고 말했다.

2025.07.24 10:57박서린

'오픈AI 대항마' 손잡은 LG CNS, 또 일냈다…추론형 LLM으로 '에이전틱 AI'서 승부수

"앞으로 LG CNS와 원팀으로 계속 협업을 이어가며 한국 특화 거대언어모델(LLM)을 만들 뿐 아니라 풀스택을 갖추고 있는 만큼 고객에게 맞는 최적화 된 모델을 선보일 것입니다." '오픈AI 대항마'로 여겨지는 캐나다 AI 스타트업 코히어를 설립한 에이단 고메즈 최고경영자(CEO)가 지난 3월 LG CNS와 함께 공약했던 LLM이 또 다시 공개됐다. LG AI 연구원의 LLM인 '엑사원'을 기반으로 하지 않고 코히어와의 협업을 통해 LG CNS가 추론 모델을 직접 개발했다는 점에서 AX 전문기업으로서의 역량을 다시 한 번 입증했다는 평가가 나온다. LG CNS는 최근 코히어와 손잡고 1천110억 개의 파라미터를 갖춘 추론형 LLM을 공동 개발했다고 10일 밝혔다. 이 LLM은 한국어, 영어 등 23개 언어를 지원하며 추론 등 핵심 성능에서 글로벌 상위 모델을 뛰어넘는 결과를 보였다. LG CNS는 지난 5월 코히어와 70억 개의 파라미터로 구성된 한국어 특화 경량 모델을 출시한 지 두 달 만에 초대형 모델을 연이어 발표하며 생성형 AI 역량을 보여줬다. LG CNS는 금융, 공공 등 민감한 데이터를 다루는 국내 고객들의 비즈니스 혁신을 위해 글로벌 시장에서 역량을 인정 받고 있는 코히어와 협력해 추론형 LLM을 개발했다. 추론형 LLM은 AI가 복잡한 문제에 대해 여러 변수를 고려한 논리적인 해답을 도출하는 모델로, AI가 스스로 판단하고 작업을 수행하는 '에이전틱 AI' 서비스 구현에 필수적인 기술로 손꼽힌다. LG CNS는 코히어와 공동 개발한 초대형·경량형 2종의 LLM과 LG AI연구원의 '엑사원' 등 LLM 라인업을 갖춰 고객이 맞춤형 에이전틱 AI 서비스를 만들 수 있는 기반을 마련했다. 에이전틱 AI는 AI가 스스로 판단, 추론해 복잡한 작업을 수행하는 차세대 인공지능으로 비즈니스 자동화, 최적화 등에 활용도가 높다. LG CNS는 이 LLM 개발을 위해 코히어의 기업용 LLM인 '커맨드(Command)' 모델에 LG CNS가 국내 전 산업 분야에서 축적한 IT전문성과 AI 기술력을 결합했다. 특히 코히어의 커맨드 모델은 이미 캐나다 최대은행 RBC(Royal Bank of Canada) 등에서 온프레미스와 클라우드 방식으로 사용되고 있어 글로벌 기업에서 검증된 바 있다. LG CNS는 LLM을 온프레미스 방식으로 제공해 고객사들이 민감한 데이터의 외부 유출 없이도 자체 인프라 내에서 안전하게 처리할 수 있도록 할 계획이다. 이번에 선보인 LLM은 모델 압축 기술을 통해 2장의 그래픽처리장치(GPU)만으로 구동이 가능하다는 장점도 갖췄다. 통상 파라미터 1천억 개 이상의 LLM에는 최소 4장의 GPU가 필요한 것으로 알려졌다. 이를 통해 고객사들은 회사의 비즈니스 환경에 최적화된 LLM을 효율적인 비용으로 확보하면서도 데이터와 인프라 주권을 확보하는 '소버린 AI'를 실현할 수 있다. '소버린 AI'는 국가나 기업이 자체 인프라를 기반으로 자국의 언어, 법, 문화 등을 반영한 독립적인 AI를 만들어 운영하는 것을 말한다. 양사가 개발한 LLM은 한국어와 영어에서 우수한 추론 능력을 보였다. 양사의 자체 테스트 결과 추론 능력 검증 대표 벤치마크 테스트인 ▲Math500과 ▲AIME 2024 영역에서 한국어, 영어 모두 GPT-4o, GPT4.1, 클로드 3.7 소넷 등 글로벌 LLM보다 높은 점수를 기록했다. 'Math500'은 대학 수준 이상의 수학문제 500개로 구성된 테스트로 AI가 얼마나 논리적으로 문제를 풀 수 있는지를 검증한다. 'AIME 2024'는 미국의 수학 경시대회 문제를 활용해 AI의 수학적 추론 능력을 평가한다. 양사의 LLM은 한국어·영어·일본어·중국어는 물론 히브리어·페르시아어 등 소수 언어까지 총 23개 언어를 지원한다. 이 중 한국어 평가 테스트에서는 온프레미스 방식의 LLM 중 현존 최고 수준의 성능(SOTA, State-of-the-Art)을 내는 것으로 나타났다. 한국어 평가 테스트인 ▲KMMLU ▲KO-IFeval에서 글로벌 LLM 대비 최고점을 달성했다. 특히 파라미터 규모가 2배 이상 많은 '큐원3(Qwen3)'보다도 우수한 성능을 보였다. 복잡한 비즈니스 문제 해결과 한국어 기반의 정교한 소통이 가능해 고객사의 업무 효율과 의사결정 품질을 획기적으로 개선할 수 있다. 'KMMLU'는 한국어 이해 능력을 종합적으로 평가하는 지표다. 인문학·사회과학·응용과학 등 45가지 분야 전문가 수준의 지식을 담은 3만5천여 개의 객관식 문제로 구성돼 있다. 'KO-IFeval'는 구글과 예일대학교가 만든 'IFeval'을 한국어로 번역한 벤치마크 테스트로, LLM이 대화 내용을 얼마나 잘 이해하고 지시사항을 잘 따르는지를 평가한다. LG CNS는 코히어와의 지속적인 협력을 이어가며 LLM의 성능을 고도화해나갈 계획이다. LG CNS AI클라우드사업부장 김태훈 전무는 "차별화된 AI 역량과 경쟁력을 바탕으로 고객의 비즈니스에 특화된 에이전틱 AI 서비스를 제공할 것"이라며 "고객의 AX를 선도하는 최고의 파트너로 자리매김할 것"이라고 밝혔다.

2025.07.10 10:00장유미

[현장] "소버린 AI 생태계 활성화"…네이버클라우드, 오픈소스 경량 AI 모델 공개

네이버클라우드가 초거대 인공지능(AI) '하이퍼클로바X'의 경량화 모델을 오픈소스로 공개하며 국내 '소버린 AI' 생태계 구축과 활성화에 박차를 가한다. 김유원 네이버클라우드 대표는 23일 네이버 스퀘어 역삼점에서 열린 '네이버클라우드 테크밋업'에서 "네이버의 '온 서비스 AI' 전략이 가속화됨에 따라 안정적이고 비용 효율적인 경량 모델을 개발해 서비스에 적용했고, 우리나라 전체 AI 생태계 활성화를 위해 이를 오픈소스로 공개한다"고 강조했다. 네이버의 온 서비스 AI는 네이버가 제공하는 검색·쇼핑·광고·블로그 등 여러 서비스에 하이퍼클로바X를 적용해 나가는 전략이다. 앞서 네이버 내부에서는 하이퍼클로바X 경량 모델을 활용해 300여 건이 넘는 프로젝트를 수행해 온 바 있다. 네이버클라우드는 이 경량 모델 제품군을 상업적 이용이 가능한 오픈소스로 공개해 국내·외 기업과 중소규모 사업자, 연구기관이 비즈니스와 학술 연구 등에 적극 활용할 수 있도록 지원한다는 방침이다. 이번에 발표된 경량 모델은 '하이퍼클로바X 시드 3B'를 비롯해 1.5B·0.5B 등 총 3종이다. 하이퍼클로바X 시드 3B는 텍스트뿐만 아니라 이미지와 영상 정보를 처리할 수 있는 시각언어모델로, 도표 이해, 개체 인식, 사진 묘사 등의 기능을 갖추고 있다. 네이버클라우드에 따르면 한국어·한국문화와 영어 관련 시각 정보 이해 능력을 평가할 수 있는 9개 벤치마크에서 유사 규모의 미·중 빅테크 모델보다 높은 점수를 기록했다. 또 파라미터 수가 훨씬 많은 해외 대규모 모델과도 유사한 정답률을 보인 것으로 나타났다. 1.5B 모델의 경우 사용자 지시 이행 능력이 특화된 텍스트 기반 소형 모델이다. 0.5B 모델은 초소형 모델로, 대화형 인터페이스 구현이 강점이다. 세 경량 모델 모두 GPU 리소스 부담 없는 낮은 운영 비용으로 범용적으로 활용할 수 있고 빠른 처리 속도를 자랑한다. 경량 모델 제품군을 오픈소스로 공개함으로써 네이버클라우드는 국내 소버린 AI 생태계를 활성화한다는 목표다. 김 대표는 "네이버 내부에서 사용한 경량 모델을 오픈소스로 공개한 이유는 우리나라 소버린 AI 생태계 활성화에 도움이 되기 위한 것"이라며 "전 세계적으로 AI 기술 패권 갈등이 치열해지고 있어 우리나라의 보안·안보·금융 등 중요 인프라를 책임질 소버린 AI가 중요해지고 있다"고 설명했다. 이어 "이제는 필수가 된 소버린 AI를 구축하기 위해선 우리나라의 가치관과 관습에 대한 학습은 물론이고 기술적·사업적 기반이 마련돼 있어야 한다"며 "우리는 데이터센터부터 클라우드 플랫폼, AI 모델, 애플리케이션까지 풀스택을 갖춘 사업자"라고 덧붙였다. 실제 네이버클라우드는 한국수력원자력·한국은행과 보안에 특화된 '뉴로클라우드 포 하이퍼클로바X' 공급 계약을 체결하며 국가 중요 인프라를 대상으로 한 소버린 AI 구축에 속도를 내고 있다. 나아가 소버린 AI 구축 수요가 있는 동남아시아와 중동·북아프리카(MENA) 지역으로의 AI 사업 진출도 적극 추진하고 있다. 이날 행사에서 네이버클라우드는 올 상반기 중 공개할 추론 모델의 청사진도 공개했다. 네이버클라우드 성낙호 하이퍼스케일 AI 기술 총괄은 "우리는 이미지·영상 이해를 강화하는 '감각의 확장'과 모델의 추론 능력을 강화하는 '지능의 확장' 두 축을 중심으로 하이퍼클로바X를 고도화하고 있다"고 소개했다. 공개를 앞둔 하이퍼클로바X 추론 모델은 네이버클라우드의 벤치마크 결과, 오픈AI의 챗GPT 4o 서치 프리뷰 모델보다 영어 추론 능력에서 앞서고 한국어 추론에서도 유사한 성능을 달성했다. 또 글로벌 표준 기술로 부상한 '모델 컨텍스트 프로토콜(MCP)'을 적용해 네이버부터 다양한 외부 서비스까지 연동해 추론을 수행하는 하이퍼클로바X의 AI 에이전트를 구현했다. 성 총괄은 "AI는 막연한 미래가 아니라 당면한 현재"라며 "하이퍼클로바X 추론 모델을 올 상반기 내 출시해 네이버를 넘어 국내 산업 전반의 AI 에이전트 전환을 지원하겠다"고 밝혔다.

2025.04.23 13:43한정호

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

좁혀지는 KT CEO 후보군...내부냐 외부냐 '촉각'

'핀테크 공룡' 네이버·두나무, 글로벌 무대서 금융 새 판 짠다

신세계그룹이 각 잡고 만든 '이마트24 플래그십 스토어' 가보니

구광모, CEO 3명 교체 결단…젊어진 LG 체질 개선 가속

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.