• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (241건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

포티투마루가 제시한 공공 AX 해법은?

기존 업무에 인공지능(AI) 도구를 덧붙이는 것만으로는 공공 AX를 이룰 수 없다는 전문가 지적이 나왔다. AI를 행정 기본 운영체제로 설정해 일하는 방식 자체를 바꿔야 한다는 설명이다. 포티투마루는 지난 11일 세종시 신용보증재단중앙회 사옥에서 열린 '2월 역량강화아카데미' 공공 AI 특강에서 임직원 대상으로 공공 AX 전략과 미래 비전을 공유했다고 13일 밝혔다. 이승현 포티투마루 부사장이 'AI 시대, 정부 혁신과 디지털 전환 전략'을 주제로 강연했다. 이승현 부사장은 공공 AX를 기존 업무에 AI 도구를 덧붙이는 수준에서 벗어나야 한다고 주장했다. AI를 행정 기본 운영체제로 삼아 일하는 방식과 의사결정 체계를 재설계하는 과정을 필수로 둬야 한다고 설명했다. 기술 발전 속도와 제도 변화 속도의 격차, 경직된 예산 구조, 전문 인력 부족을 공공 부문의 3대 구조적 한계로 짚었다. 이 부사장은 AI 도입 자체가 목적이 돼서는 안 된다고 강조했다. 해결하려는 행정 문제를 먼저 정의하고, 작은 성공 사례를 빠르게 검증한 뒤 조직 전반으로 확산하는 실증 중심 접근이 공공 AX 핵심이라고 설명했다. 이 부사장은 지역신용보증재단 업무 특성에 맞춘 'AI 혁신 3대 방향'도 제시했다. 심사 검증 리포트를 자동 생성해 업무 시간을 80% 단축하는 '심사 에이전트', 규정과 지침을 실시간 검색해 지원하는 '업무 지원 에이전트', 매출 급감 등 이상 징후를 감지해 선제 컨설팅을 제안하는 '능동형 에이전트' 도입이 골자다. 그는 포티투마루 검색증강생성 'RAG42'와 인공지능 독해 'MRC42'를 활용한 공공 특화 서비스 모델도 소개했다. 질의응답, 데이터 분석·시각화, 문서 초안 작성과 요약, 정책 기획 지원, 24시간 민원 상담, 민원 접수·분류·배정 자동화 등 6대 서비스 유형을 제시하며 현장 적용 가능성을 강조했다. 포티투마루는 거대언어모델 환각 현상을 RAG42와 MRC42 엔지니어링으로 완화하고, 산업 특화 경량 모델 LLM42를 개발·서비스하고 있다. 기업용 프라이빗 모드를 지원해 내부 데이터와 민감 정보 유출 우려를 낮출 수 있다. 김동환 포티투마루 대표는 "AI 기술은 단순한 업무 효율화를 넘어, 금융 이력이 부족한 소상공인에게 정밀한 신용 평가를 제공하고 위기 상황을 선제적으로 막아주는 '사회적 안전망' 역할을 해야 한다"고 강조했다.

2026.02.13 14:42김미정 기자

[AI는 지금] 알리바바·삼성 참여로 'AI 올림픽' 현실로…밀라노 올림픽, 남다른 이유는

지난 6일 시작된 이탈리아 밀라노-코르티나 동계올림픽이 단순한 스포츠 이벤트를 넘어 인공지능(AI)과 클라우드 기술이 집약된 디지털 인프라 경쟁의 장으로 떠오르고 있다. 경기 중계에서 콘텐츠 제작·보존, 팬 서비스, 대회 운영 전반까지 클라우드와 대규모 언어 모델(LLM)을 중심으로 한 구조적 전환이 본격화된 모습이다. 11일 업계에 따르면 과거 올림픽은 경기장과 중계차 중심의 물리적 인프라 경쟁이었으나, 이번 대회는 누가 더 효율적이고 안정적인 디지털 운영 체계를 구축하느냐가 핵심 관전 포인트로 꼽힌다. 국제올림픽위원회(IOC)와 올림픽방송서비스(OBS) 역시 이번 올림픽을 AI와 클라우드 기반 중계·운영 체계를 한층 확대 적용하는 계기로 보고 있다. 대회 전반을 클라우드 환경으로 통합하고 AI 기반 제작·검색·리플레이 시스템을 본격 적용하면서 중계와 운영 방식의 구조적 전환이 현실화되고 있기 때문이다. 이 같은 변화는 중계 영역에서 구체화되고 있다. 1인칭 시점(FPV) 드론과 실시간 데이터 그래픽, AI 기반 리플레이가 결합되며 중계가 단순 장면 전달을 넘어 분석과 이해를 돕는 방식으로 확장되고 있어서다. 특히 알리바바 클라우드는 OBS와 협력해 AI 기반 실시간 360도 리플레이 시스템을 도입해 주목받고 있다. 이 시스템은 다수의 카메라 영상을 AI로 분석해 주요 장면을 3차원으로 재구성하고, 다각도·슬로모션·동작 분해 화면을 빠르게 제공하는 기술이다. 이는 연출 중심의 하이라이트를 넘어 기술과 전술을 설명하는 분석형 중계로의 전환을 의미한다. OBS는 FPV 드론 촬영을 확대 적용하며 중계의 몰입도를 높이고 있다. 드론 중계는 기동성 높은 촬영 장비에 더해 실시간 영상 전송과 지연 최소화, 영상 보정 기술이 안정적으로 결합돼야 구현된다. 업계에선 이러한 구조가 장비 성능보다 시스템 설계와 데이터 처리 역량을 중시하는 방향으로 중계 기술 경쟁을 바꾸고 있다고 봤다. 제작과 편집 과정에서도 AI의 역할은 커지고 있다. 특히 알리바바는 자사 LLM인 큐원(Qwen)을 기반으로 OBS의 영상 자동 태깅 및 설명 생성 시스템을 지원하고 있다. 이 시스템은 선수와 주요 순간을 자동 식별해 영상에 메타데이터를 부여하고 제작진이 자연어 검색만으로 필요한 장면을 즉시 찾을 수 있도록 돕는다. 이 같은 시스템 도입으로 대회 기간 쏟아지는 방대한 영상은 단순 저장을 넘어 검색 가능한 데이터 자산으로 전환되고 있다. 업계에선 이를 두고 올림픽 중계 제작 방식이 수작업 중심에서 데이터 기반 워크플로로 넘어가는 분기점이라고 평가했다. 클라우드 기반 원격 제작도 확대돼 눈길을 끈다. 이번 동계올림픽에선 현장 중계차 의존도를 낮추고 분산된 스튜디오와 제작 인력이 클라우드에서 실시간 협업하는 방식으로 운영되고 있다. 이에 '2026 밀라노 코르티나 동계올림픽'은 클라우드·IP·AI가 결합된 차세대 중계 모델이 대규모로 시험되는 무대로도 주목받고 있다. 기록 보존 방식 역시 변화하고 있다. 알리바바는 2024년 파리 올림픽에서 도입된 클라우드 기반 미디어 아카이빙 솔루션을 고도화해 이번에 AI 태깅, 영상 검색, 대화형 검색 기능을 강화하고 있다. 수십 년간 축적된 올림픽 영상이 단순 보관을 넘어 즉시 검색·재활용 가능한 콘텐츠 자산으로 전환되는 데 중요한 역할을 하고 있는 것이다.콘텐츠뿐 아니라 선수 데이터 영역에서도 클라우드 기반 분석 체계가 확대되고 있다. 스노우플레이크가 각국 대표팀의 훈련·경기 데이터를 통합 관리하는 데이터 클라우드 플랫폼을 제공하며 AI 기반 분석을 지원하고 있는 것이 대표적인 예다. 이는 중계·제작을 넘어 선수 성능 관리까지 데이터 기반 운영이 확산되는 흐름을 보여주는 것으로 평가된다. 팬 서비스도 AI 중심으로 재편됐다. 올림픽 공식 웹사이트에는 실시간 경기 정보와 질의응답을 제공하는 AI 어시스턴트가 도입됐다. 이는 외부 검색 결과가 아닌 IOC의 공식 데이터와 규정을 기반으로 응답하는 것이 특징이다. 현장에선 알리바바가 밀라노 스포르차 성 광장에 AI·클라우드 기반 체험 공간 '원더 온 아이스'를 운영한다. 이는 AI 생성 콘텐츠와 인터랙티브 기술을 결합해 관람객 참여형 경험을 제공하는 쇼케이스다. 삼성전자는 파트너로 참여해 '갤럭시(Galaxy) AI'를 포함한 모바일 기술을 통해 선수·관중·운영진을 연결하는 디바이스 기반 경험을 강화하고 있다. 대회 전반이 클라우드와 데이터 중심 구조로 재편되면서 보안 역시 단순 지원 기능을 넘어 핵심 인프라로 자리 잡고 있다. 중계·제작·아카이브·팬 서비스가 모두 네트워크 기반 시스템으로 연결되는 구조에선 단 한 번의 장애나 침해 사고도 대회 운영 전반에 영향을 미칠 수 있기 때문이다. 실제 이탈리아 정부는 이번 동계올림픽을 앞두고 국가 차원의 사이버 보안 협력 체계를 강화했다. 또 올림픽 관련 온라인 시스템을 노린 공격 시도도 일찌감치 보고된 바 있다. 업계에선 클라우드와 LLM을 기반으로 한 '디지털 올림픽'이 효율성과 확장성을 높이는 동시에 위협 노출면 역시 확대시키는 구조라고 분석했다. 업계 관계자는 "이번 동계올림픽에서 보안은 별도의 기술 영역이 아니라 클라우드·AI 기반 운영 체계를 지탱하는 토대가 되고 있다"며 "이제 사이버 보안은 대회를 보호하는 기능이 아니라 대회를 가능하게 하는 인프라"라고 의미를 부여했다. 일각에선 이번 동계올림픽이 AI 기술을 일부 적용한 대회가 아니라 클라우드와 LLM을 중심으로 올림픽 운영 체계 전체를 재설계한 첫 사례라고 평가했다. 이러한 전환은 개별 기술 도입을 넘어 중계·제작·보존·서비스를 하나의 디지털 인프라로 묶는 구조 변화라는 점에서도 의미가 있다고 봤다. 이 같은 전환은 참여 기업들의 역할 분담에서도 드러난다. 알리바바 클라우드는 중계·제작·아카이브·팬 서비스를 클라우드와 LLM 기반 스택으로 연결하는 축을 맡았고, OBS는 현장 중계 기술과 제작 시스템 고도화를 담당하고 있다. 삼성전자는 스마트폰, 모바일 기술을 통해 선수와 관중, 운영진을 연결하는 접점을 확대하고 있고, 오메가는 계측과 판정 기술을 고도화해 경기의 정확성을 뒷받침하고 있다. 여기에 이탈리아 정부는 사이버 보안을 담당하며 디지털 인프라의 안정성을 확보하고 있다. 일라리오 코르나 IOC 최고기술정보책임자(CTIO)는 "밀라노-코르티나 2026은 올림픽 무브먼트에 AI가 본격적으로 통합되는 전환점"이라며 "올림픽 최초의 LLM 기술 적용을 통해 팬 경험을 강화하는 동시에 스포츠 AI와 같은 지능형 시스템을 구축해 역사적인 올림픽 순간을 미래 세대까지 보존할 수 있게 됐다"고 말했다.

2026.02.11 16:24장유미 기자

에임인텔리전스, BMW와 기업용 AI 정책 '사각지대' 밝혀냈다

에임인텔리전스가 BMW그룹과 함께 거대언어모델(LLM)을 도입한 기업이 설정한 정책 수준을 넘어선 답변을 내놓지 않도록 하는 프레임워크를 개발했다. 인공지능(AI) 보안 전문기업 에임인텔리전스(대표 유상윤)가 BMW 그룹과 협력해 LLM의 기업별 맞춤형 정책 준수 여부를 체계적으로 평가하는 최초의 프레임워크 'COMPASS'를 공동개발했다고 10일 밝혔다. COMPASS는 LLM이 기업별 특정 정책을 잘 준수하고 있는지 체계적으로 평가하는 프레임워크다. 최근 의료·금융·자동차 등 전 산업군에서 LLM 도입이 가속화되고 있으나, 기업 내부의 복잡한 운영 지침이나 법적 제약 사항을 AI가 정확히 따르는지에 대한 객관적인 지표는 부족한 실정이었다. 이번 연구는 기존의 표준 안전성 테스트를 통과한 AI 모델이라도, 실제 기업 현장 상황에 따라 달라지는 복잡한 규칙을 적용 시 금지된 규칙을 제대로 따르지 않는 문제점을 발견했다. 또한 이러한 문제점을 해결하기 위해 해석이 불분명한 조항이나, 상충하는 규칙 등을 찾아내 해결하는 등 4가지 검증단계를 통해 오작동 비율을 현격히 줄여나갈 방침이다. 특히 최근 LLM 도입이 가속화 되고 있는 자동차·금융·의료·교육 등 8개 핵심 산업에서 발생하는 시나리오를 기반으로, 6000여개의 질의 데이터를 생성해 검증의 신뢰도를 높였다. 또한 기업들이 자사의 정책에 맞춰 AI 시스템을 직접 평가해 볼 수 있도록 COMPASS 프레임워크와 데이터셋을 깃허브(GitHub) 및 허깅페이스(HuggingFace)에 무료로 공개하기도 했다. 이번 프로젝트는 에임인텔리전스와 BMW 그룹을 필두로 서울대학교·연세대학교· 포항공과대학교(POSTECH) 연구진이 공동으로 참여했다. 상세 논문은 논문 사전공개 사이트인 '아카이브(arXiv)'에 공개됐다. 유상윤 에임인텔리전스 대표는 "일반적인 관점에만 초점을 맞추는 AI 안전 테스트와 달리, COMPASS는 실무적 관점에서 모든 규칙이 제대로 지켜지도록 신뢰성을 높인 것이 특징"이라며 "앞으로도 기업과 공공기관이 AI를 보다 안심하고 활용할 수 있는 현실적인 AI 보안 적용 방안을 선보일 것"이라고 말했다.

2026.02.10 21:14김기찬 기자

"혼저옵서예"…이스트소프트, 제주도 사투리 알아듣는 AI로 지역 맞춤형 AX 가속

이스트소프트가 소멸 위기 언어인 제주어에 특화된 인공지능(AI) 모델을 선보이며 지역별 맞춤형 AI 전환(AX) 시장 선점에 나선다. 이스트소프트는 지역 특화 언어 모델 '앨런 LLM 제주어 v1 4B(Alan LLM Jeju Dialect v1 4B)'를 오픈소스 플랫폼 허깅페이스에 공개했다고 9일 밝혔다. 이번에 공개된 모델은 40억 개의 파라미터(매개변수) 규모로, 제주어와 표준어 사이의 정교한 소통을 구현하는 데 집중했다. 이스트소프트는 이번 제주어 특화 모델 공개를 기점으로 독자 AI 파운데이션 모델과의 시너지를 창출한다는 복안이다. 이를 관광·행정 등 다양한 지역 인프라와 결합해 실질적인 성공 사례를 만들 방침이다. 특히 제주국제자유도시개발센터(JDC)와 협력해 제주 캠퍼스를 중심으로 한 지역 AI 전환 활동도 가속한다. 기술 공개에 그치지 않고 지역 경쟁력을 강화하는 실무형 AX 역량을 확보하는 것이 회사 측 목표다. 변형진 이스트소프트 최고AI책임자(CAIO)는 "이번 모델은 국내 환경에 특화된 데이터를 활용해 실질적인 서비스 가치를 창출하는 AX 실무 역량을 보여주는 사례"라며 "고효율 중심의 기술 경쟁력과 지역 인프라를 연계해 대국민 AX를 이룰 것"이라고 말했다.

2026.02.09 15:46이나연 기자

더벤처스, 오픈AI·구글·앤트로픽과 협력

초기 기업 전문 투자사 더벤처스는 ▲오픈AI ▲구글 ▲앤트로픽과 파트너십을 체결했다고 2일 밝혔다. 국내 초기 투자사 중 글로벌 빅테크 3사와 동시에 파트너십을 구축한 것은 더벤처스가 처음이다. 더벤처스는 이번 파트너십을 통해 투자 창업팀을 대상으로 각 사의 거대언어모델(LLM) 크레딧을 지원한다. 생성형 인공지능(AI) 서비스를 개발하는 초기 기업의 핵심 인프라 비용 부담을 실질적으로 덜어주기 위해서다. 이번 협력으로 더벤처스가 투자한 창업팀들은 ▲오픈AI의 GPT 시리즈 ▲구글의 제미나이 ▲앤트로픽의 클로드 중 서비스 특성에 가장 적합한 모델을 선택해 서비스 고도화에 활용할 수 있게 됐다. 이와 함께 더벤처스는 지난해 국내 최초로 도입한 AI 심사역 비키를 통해 업계에서 가장 신속한 투자 의사결정 체계를 가동하고 있다. 비키는 인간 심사역과 87.5%에 달하는 높은 판단 일치율을 보여주며, 통상 수개월이 소요되던 심사 기간을 단 1주일로 단축했다는 것이 회사 측 설명이다. 여기에 이번 LLM 크레딧 지원이 더해지면서 빠른 자금 집행부터 서비스 구현을 위한 기술 인프라까지 동시에 제공하는 원스톱 지원 체계가 완성됐다. 이은찬 더벤처스 심사역은 "초기 스타트업에게 가장 귀한 자원은 시간이며, 투자사의 빠른 피드백과 의사결정은 창업팀이 시장의 골든타임을 놓치지 않게 하는 최고의 조력"이라며 "빅테크 3사와의 협업은 포트폴리오사가 비용 제약 없이 기술 혁신에만 몰입할 수 있도록 돕는 실질적인 파트너십이 될 것"이라고 밝혔다.

2026.02.02 13:57박서린 기자

"우린 GPU에만 의존하지 않아"…AI 가속기 선택 SW로 효율·전력·비용 잡아

GPU와 NPU(AI 계산에 특화된 반도체), PIM(메모리 안에서 AI 연산을 처리하는 차세대 반도체) 등 다양한 AI 가속기를 선택적으로 사용, 효율과 전력·비용 세마리 토끼를 한 방에 잡을 수 있는 차세대 AI 인프라 소프트웨어가 개발됐다. KAIST는 이 기술 개발에 박종세 전산학부 교수와 권영진· 허재혁 교수가 참여하고, 쿤레 올루코툰(Kunle Olukotun) 미국 AI 반도체 시스템 스타트업 삼바노바(SambaNova) 공동창업자이자 스탠포드대학 교수가 자문을 수행했다고 1일 밝혔다. 이 기술은 최근 카카오가 주최한 '4대 과학기술원×카카오 AI 육성 프로젝트'에서 애니브릿지 AI 팀으로 참가, 대상을 수상하고 상금 2,000만원과 3,500만원 어치 카카오클라우드 크레딧을 받았다. 연구팀은 초대형언어모델(LLM) 서비스가 대부분 고가 GPU 인프라에 의존, 서비스 규모가 확대될수록 운영 비용과 전력 소모가 급격히 증가하는 구조적 한계가 있다는 점에 주목했다. 특히, 이 문제의 근본 원인이 특정 하드웨어 성능이 아니라, GPU나 NPU, PIM 등 다양한 AI 가속기를 효율적으로 연결·운용할 수 있는 시스템 소프트웨어 계층 부재에 있다고 봤다. 연구팀은 이에 가속기 종류와 관계없이 동일한 인터페이스와 런타임 환경에서 LLM을 서비스할 수 있는 통합 소프트웨어 스택을 개발한 것. 특히 GPU 중심으로 고착화된 기존 LLM 서빙 구조의 한계를 지적하고, 여러 종류의 AI 가속기를 하나의 시스템에서 함께 활용할 수 있는 '멀티 가속기 LLM 서빙 런타임 소프트웨어'를 핵심 기술로 제시했다. 이 기술은 특정 벤더나 하드웨어에 종속되지 않으면서도, 작업 특성에 따라 가장 적합한 AI 가속기를 선택·조합할 수 있는 유연한 AI 인프라 구조 구현이 가능하다. 이는 LLM 서비스 비용과 전력 소모를 줄이고, 확장성을 크게 높일 수 있는 장점이 있다. 박종세 교수는 "AI 시스템과 컴퓨터 아키텍처 분야에서 축적한 연구 성과를 바탕으로 산업 현장에서 활용 가능한 기술 개발을 통해 글로벌 시장으로 진출할 계획"이라고 말했다.

2026.02.01 01:16박희범 기자

"K-의료 특화 모델 필수"...포티투마루, AI 헬스케어 미래 비전 제시

포티투마루가 국내 의료 환경에 최적화된 인공지능(AI) 모델 필요성을 강조했다. 포티투마루는 지난 29일부터 이틀간 강원도 춘천에서 열린 '2026 연합 심포지엄' 기조연설을 통해 에이전틱 AI가 재구성할 의료 현장의 미래 비전을 공유했다고 31일 밝혔다. 이번 행사는 의료·헬스케어 분야 데이터 활용과 설명 가능한 AI 등 현장의 핵심 현안을 논의하기 위해 마련됐다. 이날 김동환 포티투마루 대표는 구글 '메드팜'과 마이크로소프트 'MAI-DxO' 등 글로벌 빅테크 기업들이 진단·예측 보조 영역을 넘어 헬스케어 생태계를 장악하고 있는 흐름을 분석했다. 이에 대응해 병원 업무 효율화, 환자 데이터 기반 임상 진료차트 자동 생성, 전국민 심리케어 상담사 보조 등 국내 현장에 적용 중인 실질적인 사례들을 소개했다. 김 대표는 "의료 분야는 범용 모델의 단순 미세 조정만으로는 한계가 명확하다"며 "아키텍처 구조 설계 단계부터 새롭게 개발하는 의료 특화 파운데이션 모델이 필요하다"고 강조했다. 이어 "국내 규제 환경과 의료 데이터의 특수성을 고려할 때 데이터 접근 통제와 감사가 가능한 소버린 AI 기반의 운영 체계 구축이 시급하다"고 진단했다. 포티투마루는 초거대 언어모델 문제인 환각 현상을 'RAG42'와 'MRC42'를 결합해 해결하고 있다. 기업용 프라이빗 모드를 통해 민감한 환자 정보 유출 우려를 해소하는 동시에 경량화 모델인 'LLM42'로 구축·운영 비용을 절감하는 전략을 취하고 있다. 김 대표는 "의료·헬스케어는 데이터의 민감도가 높은 만큼 강력한 보안과 신뢰를 함께 설계하는 접근이 필수"라며 "한국 의료 현장에 최적화된 케어 서비스 혁신이 실제로 작동하고 뿌리내릴 수 있도록 기술적 리더십을 발휘해 나갈 것"이라고 밝혔다.

2026.01.31 16:28김미정 기자

"물가·금리 영향 분석을 위한 데이터 찾아줘" 명령하니 데이터셋 '뚝딱'

“물가와 경기 변동이 단기금리에 미치는 영향을 분석하고 싶으니, 활용 가능한 데이터를 찾아달라”고 입력하자 기준금리를 포함한 소비자물가지수(CPI), 국내총생산(GDP) 등 관련 데이터셋이 일목요연하게 제시됐다. 데이터 검색뿐 아니라 5페이지 분량의 연설문 작성, 내외부 보고서 탐색 등 업무 전반에 걸친 다양한 요청도 수행할 수 있다. 한국은행과 네이버가 공동 개발한 인공지능(AI) 모델 '보키(BOKI)'가 공개됐다. 보키는 네이버의 프라이빗 클라우드 인프라와 거대언어모델(LLM)을 기반으로 한 금융•경제 특화 AI다. 한국은행 내부망에 구축한 이른바 '소버린 AI'로, 글로벌 중앙은행 가운데 최초 사례다. 박정필 한국은행 디지털혁신실장은 21일 서울 중구 한국은행 별관에서 열린 한국은행-네이버 공동 주최 'AX 컨퍼런스'에서 보키를 시연했다. 그는 “2020년 창립 20주년 기념 전략 목표 가운데 하나로 '디지털 혁신'을 제시했고, 그 세부 과제로 AI•기계학습(ML)의 업무 도입을 추진해왔다”며 “이번에 전사적 AI 도입을 본격화하게 됐다”고 설명했다. 한국은행과 네이버는 약 1년 반에 걸쳐 네이버의 하이퍼클로바X 모델을 설치하고 AI 서비스별 애플리케이션을 개발했다. 이 과정에서 한국은행은 지난 20년간 축적된 330만건의 문서를 수집해 중복 내용을 제거한 뒤 140만건의 정형 데이터로 가공했다. 이를 바탕으로 행내외 조사 연구 자료와 내부 규정, 지침을 토대로 답변을 제공하는 AI 어시스턴트와 한국은행 종합데이터플랫폼과 연동된 분석 서비스를 구현했다. 아울러 한국은행은 AI가 질문 의도를 정확히 이해하도록 업무흐름(워크플로우)을 직접 설계했다. 박 실장은 “단순한 질문이라도 답변을 도출하기까지 여러 단계의 프로세스가 필요하다”며 “질문의 의도를 분해, 재작성하고 중요도를 판단하는 과정에서 많은 시행착오를 겪었다”고 말했다. AI 구축 과정에서 중점을 둔 부분은 시간의 흐름에 따라 기록되는 시계열 데이터 활용이다. 카드 사용내역이나 거래패턴 등이 대표적인 예로, 금융권에서 시계열 데이터는 AI 모델에 필수 요소로 꼽힌다. 한국은행의 경우 종합데이터플랫폼인 '바이다스.ai'를 통해 시계열 데이터를 관리하고 있다. 2022년 약 300만건이던 시계열 데이터는 현재 1900만건으로 늘었다. 데이터 업무 흐름 중심으로 기능을 개선하면서, 과거에는 IT 인력 지원이 필요했던 분석 작업도 이제는 직원들이 주도적으로 수행할 수 있게 됐다. 네이버 역시 시계열 데이터를 이해하는 AI 구현을 보키의 고도화 핵심 목표로 삼았다. 김유원 네이버클라우드 대표는 “금융권 데이터 대부분이 시계열이라는 점에서 이를 이해하는 AI를 어떻게 만들 것인지 고민했다”며 “이 부분이 한국은행에도 가장 중요한 요소라는 점을 인식하고 우선순위로 설정했다”고 말했다. 결과적으로, 한국은행이 시계열 데이터를 적극 활용할 수 있도록 지원하는 것이 소버린 AI의 방향성이라는 설명이다. 김 대표는 “시계열을 이해하는 AI를 구축하면 한국은행은 전세계 중앙은행 가운데서도 드문 마이크로, 매크로 시계열 데이터 분석 도구를 갖추게 된다”며 “이는 한국 중앙은행의 금융 경쟁력을 높이는 데 기여할 것”이라고 강조했다.

2026.01.21 17:57홍하나 기자

AI, 기술을 넘어 일과 생활 방식 재편하다

이메일 초안을 작성하는 AI 어시스턴트부터 저녁 식사를 준비하는 로봇까지, 글로벌 AI 혁신의 물결은 단순한 기술 진보를 넘어 우리의 일상과 업무 환경 전반을 빠르게 재편하고 있다. 그렇다면 이 변화는 우리에게 무엇을 의미할까. AI는 단지 효율성을 높이는 도구에 머무를 것인가, 아니면 우리가 소통하고 창조하며 경쟁하는 방식 자체를 바꿔놓고 있는가? 결론부터 말하자면, AI가 꿈꾸는 세상, 즉 AI의 진정한 가치 실현은 기술 그 자체가 아니라 AI 혁신이 어디에, 어떻게, 얼마나 깊게 적용되는가에 달려있다. 현재 트렌드: 규모와 속도 가장 눈에 띄는 변화는 AI 도입 속도다. 스마트폰 제조사들은 운영체제 전반에 거대언어모델(LLM)을 통합해 사용자의 맥락과 의도를 이해하는 음성 어시스턴트를 구현하고 있다. 가정에서는 사용자의 생활 패턴을 학습한 AI가 조명·온도·미디어 환경을 자동으로 조정한다. 자동차 역시 스마트 콕핏을 중심으로 운전자와의 자연스러운 상호작용과 자율주행 판단 능력을 고도화하고 있다. 업무 환경도 빠르게 재편되고 있다. 금융 기업들은 하루에 수천 건의 고객 문의 처리, 보고서 작성, 회의 요약을 AI 어시스턴트에게 맡기고 있으며, 이를 통해 반복적인 작업을 줄이고 고부가가치 판단에 인력을 집중시키고 있다. 이는 단순한 자동화를 넘어 업무 역할의 재정의로 이어지고 있다. 창작 산업의 지형 역시 크게 변화하고 있다. 게임 산업에서는 AI 기반 코드 생성 및 테스트 시스템 도입으로 제작 기간이 절반 가까이 단축됐다. 중국의 주요 인터넷·게임 기업은 AI 모델을 활용해 개발 효율을 약 50% 개선했다. 전자상거래 분야에서는 LLM이 검색·추천 엔진의 핵심으로 자리 잡았다. 알리바바 그룹은 타오바오와 티몰에 AI를 통합해 복잡한 검색어에 대한 정확도와 특정 추천 시나리오의 클릭률을 두 자릿수 이상 개선했다. 이는 AI가 '보조 기능'이 아니라 플랫폼 경쟁력을 좌우하는 핵심 인프라로 이동하고 있음을 보여준다. 이런 변화는 한국 시장에서도 본격화되고 있다. 2024년 삼성전자가 갤럭시 S24에 실시간 통번역 등 생성형 AI 기능을 적용하며 온디바이스 AI 시대를 열었고, 이후 국내 생성형 AI 활용도는 실험 단계를 넘어 실용 단계로 진입했다. 글로벌 시장조사기관은 2028년까지 기업 일상 업무의 15% 이상이 AI 에이전트에 의해 처리될 것으로 전망하고 있다. AI의 현실: 공상에서 현실로 이런 발전을 단순한 점진적인 생산성 및 효율성 개선으로 보기 쉽지만, 전체적으로 조망하면 훨씬 구조적인 변화가 진행 중임을 알 수 있다. 스마트폰은 개인 비서로, 가정은 예측형 환경으로, 사무실은 인간과 AI가 실시간으로 협업하는 공간으로 변모하고 있다. 이같은 변화가 미치는 영향은 광범위하다. AI는 사람들을 지루한 반복 노동에서 해방시키고, 업무 처리 시간을 대폭 단축시켜준다. 과거에는 불가능했던 창의적 가능성을 열어주는 동시에 필요한 역량이 무엇인지, 일자리의 미래는 어떻게 될지, 사회가 이러한 변화에 얼마나 빠르게 적응할 수 있을지에 대한 새로운 질문도 제기한다. AI가 기존 대비 90% 낮은 비용으로 20배 빠르게 소설을 번역할 수 있다면 번역가의 역할은 어떻게 바뀔까. 산업용 설계도를 일주일이 아닌 하룻밤 만에 완성할 수 있다면 엔지니어는 자신의 가치를 어떻게 재정의해야 할까. 꿈꿀 용기: 기업은 어떻게 대응해야 하는가 앞서 나가는 글로벌 AI 기업들의 경험이 보여주는 공통점은 명확하다. 이들 기업은 AI를 제품, 의사결정, 프로세스 전반에 내재화해 사용자 경험을 혁신하고 경쟁력을 강화하고 있다. 소비자 가전 분야에서 알리바바의 LLM Qwen을 탑재한 Quark AI 안경은 핸즈프리 통화, 음악 스트리밍, 실시간 번역 등을 제공하며 하드웨어 경험의 새로운 기준을 제시하고 있다. 의사결정 영역에서도 변화는 뚜렷하다. 한 글로벌 바이오제약 기업은 중국에서 Qwen 기반의 이상반응 보고 도구를 개발해 검토자가 관련 문헌을 식별하고 상세 보고서를 생성하는 과정을 지원하고 있다. 이 모델은 핵심 안전 정보를 요약하는 데 95%의 정확도를 달성했으며, 인력 분석 대비 프로세스 효율성을 300% 개선했다. 로봇청소기 제조사들은 로봇과 사물인터넷(IoT) 기기를 하나의 매끄러운 워크플로우로 통합해 자동화가 더 이상 고립된 개별 기능에 머물지 않고, 기업들이 전체 생태계를 조율하는 단계로 진화하고 있음을 보여준다. 이 모든 것은 어디로 향하고 있는가 공상과학 소설 속 '꿈'만 같던 AI가 만들어내는 세상은 이미 스마트폰, 가정, 자동차, 사무실, 공장 곳곳에서 구체적인 현실로 구현되고 있다. 앞서 살펴본 사례들은 AI가 우리의 생산성과 창의성, 경쟁력을 크게 향상시킬 수 있지만, 동시에 어떤 역량이 필요한지, 일이 어떻게 조직돼야 하는지, 그리고 사회가 변화에 얼마나 빠르게 적응할 수 있는지에 대해 다시 생각하게 만든다. AI는 더 이상 '완성된 형태'로 도착하기를 기다릴 대상이 아니다. AI는 이미 우리 일, 산업, 그리고 우리의 생활을 실시간으로 재편하고 있다. 진정한 기회는 AI를 실험하고, 조직 전반에 내재화하며, 책임감 있게 확장해 조직의 DNA로 만드는 데 있다. 이렇게 하는 기업만이 단순한 비용 절감이나 워크플로우 개선을 넘어, 시장이 어떻게 진화할지 그 방향을 규정하는 주체가 될 것이다.

2026.01.21 10:16윤용준 컬럼니스트

코난테크, 신규 모델 공개…"기업 환경 AI 에이전트 구현"

코난테크놀로지가 에이전트 중심 업무 자동화 기능을 강화한 '코난 거대언어모델(LLM)'을 공개했다. 코난테크놀로지는 자체 검색 엔진과 MCP(Model Context Protocol·AI 연결 표준 규격) 도구를 결합한 코난 LLM 신규 모델을 출시했다고 21일 밝혔다. 신규 모델은 추론 통합 모델 코난 LLM 'ENT-11'의 맥락 이해 및 추론 능력을 기반으로 한다. 사용자 지시를 정확히 파악하고 이를 실행에 옮기는 에이전트로서 역량을 극대화했다는 게 회사 측 설명이다. 외부 시스템과의 연동을 위한 표준 규격인 MCP를 지원하는 것도 특징이다. 신규 모델은 검색 엔진, 데이터베이스, 협업 도구 등 다양한 외부 도구를 구조화되고 안전하게 호출할 수 있도록 설계돼 단순 응답을 넘어 실제 업무 완결성을 높였다. 코난테크놀로지는 외부 벡터 데이터베이스(DB)에 의존하지 않고, 대규모 고차원 데이터를 정밀 탐색하는 자체 검색 엔진을 모델 내에 통합했다는 것을 차별점으로 내세운다. 이를 통해 에이전트가 자체적으로 정보를 검증하고 오류를 수정함으로써 검색 증강 생성(RAG) 정확도를 높였다. 기업 내 비정형 문서는 물론 정형 DB까지 탐색해 종합적인 분석 결과와 전문 보고서를 도출하는 '딥 리서치' 기능을 구현했다. 또 자연어를 통해 데이터베이스에 접근하고 분석을 수행하는 NL2SQL(Natural Language to SQL) 기능을 탑재했다. 비전문가도 데이터 기반 의사결정에 쉽게 참여할 수 있도록 한 것이다. AI 에이전트와 결합하면 데이터 분석, 인사이트 도출, 보고서 작성 및 예측까지 자연어 명령 하나로 자동화할 수 있다. 코난테크놀로지는 사용자가 직접 에이전트를 설계하는 '에이전트 빌더' 사용성을 높이고, 에이전트 실행 과정의 주요 의사결정 단계에 사람 판단을 결합하는 HITL(Human-In-The-Loop) 기능을 도입할 계획이다. 도원철 인공지능연구소 LLM그룹 상무는 "LLM이 단순 질의응답을 넘어 복잡한 과업을 수행하는 '두뇌' 역할을 하도록 설계에 주력했다"며 "급변하는 기업 환경에서 즉시 활용 가능한 에이전트로서 실질적인 생산성 혁신을 이끌겠다"고 강조했다.

2026.01.21 09:47이나연 기자

'오르다' 앞세운 유라클, 'K-AI' 업스테이지 손잡고 기업용 AI 시장 공략 박차

유라클이 업스테이지와 손잡고 자사 인공지능(AI) 운영 플랫폼 '오르다(AURDA)'를 앞세워 기업용 인공지능(AI) 시장 공략에 박차를 가한다. 유라클은 업스테이지와 전략적 업무협약(MOU)을 체결했다고 19일 밝혔다. 이번 협약의 핵심은 유라클의 AI 기술력이 집약된 '오르다'를 중심으로 업스테이지의 고성능 거대언어모델(LLM) 솔라(Solar)와 문서 처리 솔루션 '도큐먼트 파스(document Parse)' 기술을 통합하는 데 있다. 이를 통해 기업 고객은 즉시 비즈니스에 투입 가능한 고도화된 AI 환경을 보다 쉽고 빠르게 구축할 수 있게 된다. 이번 협력에서 가장 주목할 점은 '오르다'의 플랫폼 경쟁력 강화다. '오르다'는 복잡한 AI 모델뿐만 아니라 그래픽처리장치(GPU), 신경망처리장치(NPU) 등 이기종 하드웨어 인프라를 기업 환경에 맞게 최적화해 배포, 모니터링, 운영하는 AI 옵스(Ops) 플랫폼이다. 이번 협약으로 업스테이지의 솔라 모델이 '오르다' 내에 최적화된 형태로 탑재됨에 따라 고객사는 별도의 복잡한 구축 과정 없이도 세계적 수준의 LLM을 '오르다' 위에서 안정적으로 운용할 수 있다. 데이터 자산화 측면에서의 시너지도 기대된다. 업스테이지의 '도큐먼트 파스' 기술이 결합돼 기업 내부의 복잡한 PDF, 표, 이미지 문서들을 정확하게 텍스트로 변환함으로써 LLM의 답변 정확도를 결정짓는 RAG(검색 증강 생성) 환경을 완벽하게 지원할 예정이다. 양사는 이미 작년부터 유라클의 기술력, 구축 노하우와 업스테이지의 독보적인 솔루션을 결합해 주요 사업을 공동 진행하며 기술적 신뢰를 쌓아왔다. 이번 업무협약을 계기로 보안 이슈로 클라우드 도입을 주저하는 공공기관과 금융권을 대상으로 '온프레미스(내부망 구축형) AI 패키지'를 집중 제안하며 시장 장악력을 높일 계획이다. 또 두 회사는 한국인공지능·소프트웨어산업협회(KOSA)의 K-AI 풀스택 모델 컨소시엄을 통해 한국 AI 풀스택 연합 모델을 해외 시장에 제안하는 등 글로벌 진출도 함께 도모한다. 권태일 유라클 대표는 "'오르다'는 이미 다양한 국내 주요 LLM 모델 및 NPU 업체들과의 협업을 통해 독보적인 유연성과 안정성을 입증해 왔다"며 "이번 협력은 '오르다'가 단순한 운영 플랫폼을 넘어 국내외 최고의 AI 기술들을 담아내는 핵심 인프라로서 엔터프라이즈 AI의 글로벌 표준으로 도약하는 계기가 될 것"이라고 강조했다.

2026.01.19 15:19장유미 기자

SK하이닉스, AI 추론 병목 줄이는 '커스텀 HBM' 정조준

SK하이닉스가 향후 다가올 커스텀 HBM(고대역폭메모리) 시대를 위한 무기로 '스트림DQ(StreamDQ)'를 꺼내 들었다. 기존 GPU가 담당해 추론 과정에서 병목 현상을 일으키던 작업을, HBM이 자체적으로 수행해 데이터 처리 성능을 끌어올리는 것이 골자다. GPU 업체 입장에서도 HBM으로 일부 기능을 이전할 수 있기 때문에 칩 설계를 보다 유연하게 할 수 있다는 이점이 있다. SK하이닉스는 해당 기술을 통해 엔비디아 등 주요 고객사와 협의를 진행할 것으로 관측된다. SK하이닉스는 지난 6일(현지시간) 미국 라스베이거스 베니션 호텔에서 'CES 2026' 프라이빗 전시관을 마련하고 커스텀 HBM 기술을 공개했다. 커스텀 HBM 시장 정조준…고객사에 '스트림DQ' 기술 제안 커스텀 HBM은 차세대 버전인 HBM4E(7세대 HBM)부터 본격적으로 적용될 것으로 전망되는 제품이다. 기존 HBM이 표준에 따라 제작됐다면, 커스텀 HBM은 고객사가 원하는 기능을 베이스 다이에 추가하는 것이 가장 큰 차별점이다. 베이스 다이는 HBM을 적층한 코어 다이의 메모리 컨트롤러 기능을 담당하는 칩으로, HBM과 GPU 등의 시스템반도체를 PHY(물리계층)로 연결한다. 기존에는 메모리 회사가 이를 제조했으나, 다양한 로직 기능이 추가되면서 HBM4부터는 주로 파운드리 공정을 통해 양산된다. SK하이닉스는 커스텀 HBM 상용화를 위해 고객사에 스트림DQ라는 기술을 제안하고 있다. 얼마전 막을 내린 CES 2026 전시관이 고객사 대상으로 운영된 만큼, 엔비디아 등 글로벌 빅테크에 적극적인 프로모션을 진행했을 것으로 예상된다. SK하이닉스 관계자는 "스트림DQ는 커스텀 HBM의 한 사례로서, SK하이닉스는 해당 기술을 논문으로도 냈다"며 "고객사가 커스텀 HBM 관련 기술을 우리에게 제안하기도 하지만, 반대로 SK하이닉스가 제시하기도 한다"고 설명했다. GPU 일부 기능 HBM으로 이전…빅테크 부담 덜어준다 스트림DQ 기술은 기존 GPU 내부의 컨트롤러 기능 일부를 HBM의 베이스 다이로 이전하는 것이 주 골자다. 이렇게 되면 GPU 제조사는 칩 내부 공간을 더 넓게 쓸 수 있어, 시스템반도체의 성능 및 효율성 향상을 도모할 수 있다. SK하이닉스 입장에서는 베이스 다이에 GPU 컨트롤러 등을 추가하더라도 큰 부담이 없다. 대만 주요 파운드리인 TSMC의 선단 공정을 적용하기 때문이다. 또한 SK하이닉스는 해당 베이스 다이에 UCIe 인터페이스를 적용해 칩의 집적도를 더 높였다. UCIe는 칩을 기능별 단위로 분할해 제조한 후, 서로 연결하는 최첨단 기술이다. HBM이 '역양자화' 대신 처리…LLM 처리 속도 7배 향상 가능 AI 가속기의 데이터 처리 성능 역시 획기적으로 높아진다. 대규모언어모델(LLM)은 메모리 사용량을 효율적으로 감축하기 위해 낮은 비트 정수로 데이터를 압축하는 '양자화(Quantization)' 과정을 거친다. 이후 실제 연산 과정에서는 데이터를 다시 압축 해제하는 '역양자화(Dequantization)'를 진행한다. 기존 역양자화 작업은 GPU가 담당했다. 그런데 GPU가 역양자화를 진행하면 전체 LLM 추론 시간의 최대 80%를 잡아먹는 메모리 병목 현상을 일으키는 문제가 발생해 왔다. 반면 스트림DQ는 양자화된 정보를 그대로 GPU에 보내는 것이 아니라, HBM 내부에서 데이터가 흘러가는 과정에서 역양자화를 곧바로(on-the-fly) 진행한다. 덕분에 GPU는 별도의 작업 없이 곧바로 연산 작업을 진행할 수 있게 된다. 이처럼 흘러가는(스트림) 데이터를 곧바로 역양자화(DQ)한다는 관점에서 스트림DQ라는 이름이 붙었다. 이를 통해 병목 현상이 발생했던 LLM 추론 처리 속도가 약 7배 이상으로 개선될 수 있다는 게 SK하이닉스의 설명이다. 전체 AI 가속기의 추론 속도 역시 크게 향상될 것으로 기대된다. SK하이닉스 관계자는 "방대한 양의 데이터를 처리하는 시스템반도체를 메모리 근처에 가져다 놓고 데이터 결과값만 받게 하면 시스템적으로 굉장히 효율적"이라며 "프로세싱 니어 메모리(PNM)의 개념으로 볼 수 있다"고 말했다.

2026.01.14 13:48장경윤 기자

엘리스그룹, '한국어 AI 교육용 데이터셋' 허깅페이스에 공개...1900억 토큰 규모

엘리스그룹(대표 김재원)이 한국어 교육용 데이터셋 2종을 글로벌 오픈소스 플랫폼 '허깅페이스'에 공개했다고 14일 밝혔다. 엘리스그룹은 한국어 AI 모델 학습에 적합한 고품질 데이터를 연구자, 개발자, 기업이 폭넓게 활용할 수 있도록 제공해 국내외 AI 연구·개발 활성화를 지원할 계획이다. 이번에 공개된 데이터셋은 거대 언어 모델(LLM)의 한국어 성능을 학술·교육 도메인에서 강화하기 위해 설계된 '한국어 파인웹 교육 데이터셋 데모'와 '한국어 웹 텍스트 교육 데이터셋' 2종으로 구성됐다. 한국어 파인웹 교육 데이터셋 데모는 영문 교육용 웹 텍스트 코퍼스(Corpus, 말뭉치)인 FineWeb-Edu를 한국어로 번역한 데이터셋 'korean-translated-fineweb-edu-dedup'의 5%를 샘플 형태로 구성한 데모다. 학술·교육 도메인의 한국어 LLM 학습에 활용할 수 있도록 설계했으며, 대규모 학습에 앞서 데이터 특성과 활용 가능성을 검증하는 용도로 제공된다. 데모의 원본인 korean-translated-fineweb-edu-dedup은 약 1천900억(190B) 토큰 규모의 대형 텍스트 데이터셋으로 수천만 페이지 분량에 해당한다. 다국어 데이터를 함께 활용할 경우 파운데이션 모델 학습에 활용 가능한 수준의 규모다. 이번에 공개한 한국어 파인웹 교육 데이터셋 데모는 이 중 5% 분량의 샘플이지만 오픈소스로 공개된 한국어 고품질 데이터셋 중에서는 대규모 수준에 해당한다. 함께 공개된 한국어 웹 텍스트 교육 데이터셋은 대규모 한국어 웹 텍스트에서 교육적 가치 점수를 통과한 콘텐츠만 선별해 구축했다. 사실성·문맥 일관성·교육 적합성을 평가해 한국어 AI 모델 학습에 활용할 수 있도록 구성했다. 이번 데이터셋 공개는 엘리스그룹이 AI 인프라, 모델 학습, 교육·산업 현장 적용까지 축적해 온 경험을 바탕으로 이뤄졌다. 엘리스그룹은 이번 데이터셋 공개를 통해 한국어 AI 연구 환경의 진입 장벽을 낮추는 한편, 교육·연구·공공 영역에서 한국어 AI 모델 활용을 지원할 계획이다. 또 AI 인프라·클라우드·데이터 엔지니어링 역량과 연계해 한국어 특화 AI 서비스와 솔루션 개발을 가속화한다는 전략이다. 엘리스그룹 김수인 CRO는 “데이터 접근성과 품질은 AI 기술 발전의 핵심 요소”라며 “엘리스그룹은 실제 모델 학습과 서비스 환경에서 검증된 기준을 적용해 연구자와 개발자, 기업이 보다 쉽게 활용할 수 있는 고품질 데이터셋을 구축했다”고 말했다. 이어 “앞으로도 데이터·모델·인프라를 아우르는 기술 역량을 기반으로 한국어 AI 연구와 산업 생태계 성장에 지속적으로 기여하겠다”고 덧붙였다.

2026.01.14 09:06백봉삼 기자

"공공 LLM 프로젝트 70% 수주"…코난테크, 수억대 시장 '싹쓸이'

코난테크놀로지가 정부 인공지능 전환(AX) 정책에 힘입어 공공 거대언어모델(LLM) 시장에서 연달아 성과를 거두며 시장 지배력을 강화하고 있다. 13일 정보기술(IT)업계에 따르면 코난테크놀로지는 지난해 수억원대 규모로 진행된 공공 LLM 프로젝트 중 70% 이상을 수주한 것으로 나타났다. 코난테크놀로지는 도메인 특화 기반의 LLM 기술력을 바탕으로 공공기관의 생성형 AI 도입을 주도하고 있다. 자체 그래픽처리장치(GPU) 인프라를 활용한 하드웨어 운용, 도메인 데이터 학습, 보안 중심 사내 구축까지 이어지는 전체 프로세스를 온프레미스(현장 구축) 환경에 최적화해 시스템화(SI) 하면서다. 작년 한 해에만 한국남부발전에 이어 서부발전, 동서발전까지 '발전 3사' LLM 사업을 연속 수주해 에너지 공기업 분야에서 실적을 쌓았다. 특히 한국중부발전과는 LLM 심층 컨설팅을 완수하며 업무 혁신 기틀을 마련했다. 사법 및 지자체 행정 영역 내 활약도 두드러진다. 대법원과 경기도청의 LLM 구축사업을 수주해 '경기도형 특화 LLM' 기반의 생성형 AI 플랫폼 구축에 나섰다. 사업 영역은 공공을 넘어 의료와 금융권까지 확장 중이다. 코난테크놀로지는 한림대의료원과 함께 국내 최초 LLM 기반 의료 생성형 AI 플랫폼 개발을 마쳤다. 금융권에서는 한화손해보험, KB증권 등과 기술 검증(PoC)을 수행하며 산업별 요구사항에 최적화된 모델 적용 가능성을 입증했다. 이 외에 기술적 차별화를 위해 이종 AI 반도체 기반 LLM 실증도 나섰다. 회사의 또 다른 핵심 사업군인 국방 인공지능(AI) 분야는 지난 2024년 12월 비상계엄 등 영향으로 사업이 다소 주춤했다. 하지만 올해는 공공 AX 예산 증액과 함께 수주 규모가 전년보다 확대될 것으로 전망된다. 과학기술정보통신부는 2026년 예산안에서 AX 부문에 5조1천억원을 배정했다. 공공과 지역을 포함한 세부 AX 사업은 4조5천억원 수준이다. 코난테크놀로지의 독자 개발 모델인 '코난 LLM'은 최근 국내 모델 최초로 국제표준 기반 'AI+' 인증을 획득했다. 한국표준협회와 와이즈스톤이 심사하는 이 인증은 실제 운영 환경에서의 위험 관리와 윤리적 책임성을 평가한다. 코난 LLM은 추론 통합모델 'ENT-11'로 스탠다드 등급을 받았다. 코난테크놀로지는 ENT-11 모델 고도화와 더불어 차세대 '에이전트 AI' 기능 확대에 박차를 가하고 있다. 에이전틱 AI를 강화한 신규 모델을 연내 출시할 계획이다. 해당 모델은 공공 AX 구축 시 스스로 판단하고 실행하는 '업무 완결형 에이전트'로서 기능하게 된다. 코난테크놀로지 관계자는 "지난해 발주된 공공 부문 대형 LLM 사업들을 연속 수주한 배경에는 시장 신뢰도와 직결되는 레퍼런스 수치, 내부에 축적된 한국남부발전 사례 기반 실무 완수 경험을 꼽을 수 있다"고 강조했다.

2026.01.13 15:59이나연 기자

현신균 LG CNS 대표 "에이전틱 AI·데이터센터로 글로벌 성장 가속"

"글로벌 인공지능(AI) 시장에서 꾸준히 차근차근 성장을 이어가겠습니다." 현신균 LG CNS 대표는 지난 7일(현지시간) 미국 라스베이거스에서 열린 CES 2026에서 이같이 말하며 AI 및 데이터센터 사업 확대 전략을 공유했다. 이번 행사에서 LG CNS는 올해 에이전틱 AI를 중심으로 한 글로벌 파트너십 성과를 구체화하는 한편, 해외 데이터센터 구축과 그래픽처리장치(GPU) 확보와 관련해서도 중장기적 관점의 투자 기조를 재확인했다. 현 대표는 CES 2026 참가에 대해 단기적인 테마보다 지속적인 성장의 중요성을 강조했다. 그는 "자본시장은 자극적인 이슈에 반응하는 경향이 있지만 우리는 건실하게 기반을 쌓아가며 성장세를 만들어가고 있다"며 "이런 흐름 속에서 좋은 소식이 이어질 것"이라고 소감을 밝혔다. 특히 에이전틱 AI 사업 전략을 구체적으로 소개했다. LG CNS는 글로벌 AI 유니콘 기업 코히어와 협력해 에이전틱 AI 기반 솔루션을 공동으로 개발·확산하고 있다. 현 대표는 "코히어 거대언어모델(LLM)과 에이전틱 AI 워크플로우 엔진을 기반으로 클라우드가 아닌 온프레미스 모듈 형태의 솔루션을 제공하고 있다"고 설명했다. 이 협력은 LG그룹 자체 초거대 AI 모델 '엑사원'과 코히어 LLM을 결합해 고객 환경에 최적화된 형태로 제공하는 것이 특징이다. LG CNS는 단순 모델 적용이 아니라 기업별 환경에 맞춘 재학습과 파인튜닝까지 포함한 형태로 에이전틱 AI를 구축 중이다. 여기에 에이전틱 AI 워크플로우 설계를 위한 엔진과 관련 기능을 통합한 플랫폼도 코히어와 공동 개발했다. 양사는 기술 협력뿐 아니라 공동 마케팅도 진행 중이다. LG CNS는 국내 시장은 물론 글로벌 시장을 대상으로 에이전틱 AI 사업 확장을 추진한다는 목표다. 데이터센터 사업도 LG CNS의 주요 성장 축 중 하나다. LG CNS는 지난해 베트남 국영 통신사 VNPT와 데이터센터 협력을 위한 양해각서(MOU)를 체결한 이후 구체적인 실행 단계에 들어갔다. 현 대표는 "부지 선정과 전력, 수전, 상업적 조건 등 다양한 요소를 논의 중이며 하나씩 마무리하고 있다"고 밝혔다. 수전 규모에 대해서는 현재 협의 중이라고 설명했다. GPU 확보 전략과 관련해선 유연한 조달 방식을 강조했다. 현 대표는 "GPU를 얼마나 많이 보유하고 있느냐 자체가 가장 중요하다고 보지는 않는다"며 "필요한 최소한의 GPU는 확보하되, 추가 수요는 클라우드나 GPU 서비스 형태로 조달하는 전략을 취하고 있다"고 말했다. 이어 "카펙스(CAPEX)와 오펙스(OPEX)를 고려해 전략적으로 투자 형태를 분류 중"이라고 덧붙였다. 끝으로 그는 "꾸준하게 성장 기조를 유지하고 있어 앞으로도 글로벌 AI 시장에서 좋은 소식이 계속 이어질 것"이라고 강조했다.

2026.01.13 10:47한정호 기자

KCA, '딥리서치' 가이드북 배포

한국방송통신전파진흥원(KCA)은 '딥리서치 업무활용 가이드북'을 제작·배포했다고 7일 밝혔다. 이번 가이드북은 오픈AI의 챗GPT, 구글 제미나이 등 주요 생성형 AI의 기능과 효과적인 활용법을 소개한다. 가이드북은 정책자료 조사, 보고서 초안 작성, 분석 업무 지원 등 다양한 활용 사례 중심으로 구성했다. 딥리서치를 통한 답변의 정확도 향상을 위한 프롬프트 작성법도 함께 수록했다. 특히, 생성형 AI 사용 시 유의해야 할 개인정보 및 보안, AI 윤리, 모델 편향성과 허위 정보 생성 문제 등과 함께 국산 LLM 현황을 포함했다. 이상훈 방송통신전파진흥원장은 “AI 기술이 급속히 발전하는 지금, 딥리서치 활용은 업무혁신을 위한 통찰을 얻는 중요한 과정”이라며, “이번 가이드북이 직원들의 AI 활용 역량을 더욱 넓히는 한편, 유관 공공기관 및 국민들께도 유용한 참고자료가 되길 기대한다”고 밝혔다.

2026.01.07 17:59홍지후 기자

보건의료연구원, 의료 현장 생성형 AI 활용 원칙 제시

한국보건의료연구원(이하 NECA)은 의료현장에서 빠르게 확산되고 있는 생성형 인공지능(AI)에 대해 'AI를 잘 만드는 것이 아니라, 잘 사용하는 것'을 목표로 '의료 분야 생성형 인공지능 적정 활용 원칙'을 발표했다. 최근 대규모 언어모델(LLM)과 다중모달모델(LMM)을 기반의 생성형 AI는 의료 현장에서 폭넓게 활용되고 있다. 그러나 기술 활용이 확대될수록 환자 안전, 개인정보 보호, 의료 판단에 대한 과신, 책임 소재와 같은 쟁점도 함께 제기되고 있으며, 제도적 규제만으로는 실제 이용 행태와 다양한 적용 환경을 충분히 포괄하기 어렵다는 한계도 지적되고 있다. 이에 NECA는 2025년 원탁회의 주제를 '의료 AI'로 선정하고, 두 차례에 걸쳐 의료인·연구자·산업계·법·정책 전문가 및 국민참여단과 함께 의료 AI 적정 활용 원칙에 대해 논의했다. 원칙은 ▲개발자·서비스 제공자 ▲의료인 ▲국민(이용자) 등 세 주체별 핵심 역할과 실천 원칙으로 구성되며, 기술 규제나 세부 가이드라인을 제시하기보다, 의료 AI를 사용하는 모든 주체가 공유해야 할 '사회적 약속(Social Compact)'에 초점을 두고 있다. 개발자·서비스 제공자는 의료 AI를 신뢰할 수 있는 기술과 서비스를 설계·제공하는 주체로서, 환자 안전과 투명성 확보, 공정성·설명가능성의 강화, 인간 감독의 내재화(Human-in-the-loop) 등을 핵심 원칙으로 제시했다. 오류 발생 시 신속한 개선과 정보 공개, AI 생성 결과의 명확한 표시, 정보취약층을 고려한 쉬운 말 모드와 필수 정보 자동 확인(slot filling) 등 접근성 강화 책임도 포함됐다. 의료인은 AI를 임상 판단을 돕는 참고 도구로 활용하되, 최종 의사결정의 책임은 의료인에게 있음을 분명히 했다. 이를 위해 보조적 활용 원칙, 근거 기반 검증, 환자 중심 설명과 동의, 오류 예방과 학습, 지속적인 디지털 역량 강화를 핵심 실천 원칙으로 제시했다. 국민(이용자)은 AI를 자신을 보호하고 판단하는 보조 도구로 인식하고, 자율과 책임, 안전한 사용, 개인정보 보호, 비판적 이해를 핵심 원칙으로 제시했다. 특히 응급·고위험 상황에서는 AI의 답변만으로 판단하지 말고 즉시 의료기관을 이용하도록 했으며, AI가 이상하거나 불편한 답변을 할 경우 즉시 사용을 중단하는 등 생활 속 실천 수칙을 함께 제시했다. 이재태 NECA 원장은 “의료 AI는 국민 건강 증진을 위한 중요한 기회인 동시에, 잘못 활용될 경우 의료 신뢰를 훼손할 수 있는 위험도 함께 가지고 있다”며 “이번 원칙은 규제를 넘어 의료 현장에서 실제로 참고할 수 있는 공공적 기준점으로서 의미가 있다”고 밝혔다. 한편 NECA 원탁회의는 보건의료 현안에 대해 다양한 이해관계자가 참여해 논의하는 공론의 장이다. '의료 분야 생성형 인공지능 적정 활용 원칙'은 이러한 원탁회의 논의를 종합해 도출된 결과로, 향후 의료 현장과 정책 논의에서 참고자료로 활용될 예정이다.

2026.01.07 14:22조민규 기자

카카오, 사람처럼 자기 점검하는 멀티모달 언어모델 공개

카카오는 가벼운 일상 대화부터 논리적 사고가 필요한 복잡한 문제 해결까지 하나의 모델로 처리할 수 있는 자체 개발 신규 AI 모델 '카나나-v-4b-하이브리드'의 성능을 공개했다고 5일밝혔다. 새로운 모델은 지난해 7월 허깅페이스를 통해 오픈소스로 공개한 '카나나-1.5-v-3b'를 토대로 개발됐다. 단순히 이미지를 텍스트로 변환하거나 이를 설명하는 수준을 넘어 사람처럼 정보를 종합하고 계산하며 스스로 검산하는 자기 점검 과정을 거치는 것이 특징이다. 이를 통해 인공 지능 모델이 가진 환각 현상을 최소화할 수 있으며 복잡한 형태의 표나 영수증, 수학 문제 등 까다롭고 복합적인 문제나 상황에서 발생하기 쉬운 계산 실수나 조건 누락을 줄이고 정확도를 높였다. 카나나-v-4b-하이브리드 모델의 높은 성능을 위해 카카오는 단계별로 정교하게 설계된 학습 과정을 적용했다. ▲기초 학습 ▲장문 사고 사슬(Long CoT) ▲오프라인 강화학습 ▲온라인 강화학습으로 이어지는 4단계의 고도화된 학습 절차를 거쳤다. 한국어 논리 전개 능력에서 경쟁력을 입증하기도 했다. 기존 글로벌 모델들의 경우 한국어 질문을 영어로 번역해 사고한 뒤 재번역해 답하는 과정에서 맥락과 논리가 결여되는 한계점을 보였으나 이 모델은 한국어 질문을 있는 그대로 이해하고 사고하도록 훈련됐다. 이런 한국어 성능을 바탕으로 대학수학능력시험 사회탐구나 수학 등의 문제에서 한국어의 미묘한 조건들을 놓치지 않고 높은 정답률을 기록했다. 한국의 교육 체계를 기반으로 하는 AI 학력 평가 벤치마크인 'KoNET'에서는 92.8점을 획득했다. 이밖에도 유사한 크기의 글로벌 모델 큐웬3-VL-4B, 인턴VL3.5-4B, GPT-5-나노 및 국내 모델과의 성능 평가에서 ▲과학과 공학 ▲일반 시각 질의응답 ▲문서 이해 등의 영역에서 뛰어난 성능을 기록했으며, 수학과 과학 등 복잡한 추론이 필요한 영역과 일반 시각 이해 능력에서는 글로벌 모델을 뛰어넘는 성과를 보였다는 것이 회사 측 설명이다. 카카오는 향후 사용자가 모델을 선택할 필요 없이 AI가 질문의 복잡도를 스스로 판단한 뒤 일반·추론 모드를 직접 자동 전환해 동작할 수 있는 형태로 고도화해 갈 계획이다. 이를 통해 하나의 대화창에서 단순한 질문과 복잡한 분석 요청에 대해 자연스럽고 끊김 없는 사용 경험을 제공하면서 최적의 리소스를 활용하는 비용 효율적 모델을 선보일 예정이다. 김병학 카카오 카나나 성과리더는 “카나나-v-4b-하이브리드는 한국어 환경에서 가장 자연스럽고 정확하게 생각하고 답변할 수 있는 모델로, 일상과 복잡한 작업을 모두 하나의 AI에 맡길 수 있는 혁신적인 연구 성과”라며 “한국어에 특화된 높은 성능과 효율을 갖춘 자체 AI 모델 개발을 통해 글로벌 무대에서 경쟁력을 높이고, 국내 AI 생태계 발전의 선도 역할을 이어가겠다”고 말했다.

2026.01.05 11:01박서린 기자

[유미's 픽] "주사위는 던져졌다"…국대 AI 첫 탈락자, 1차 발표회서 판가름?

우리나라를 대표할 인공지능(AI) 모델을 선발하는 정부 사업 '독자 AI 파운데이션 모델 프로젝트'의 첫 결과물이 공개된 가운데 어떤 기업이 이번 심사에서 살아남을지 관심이 집중된다. 각 사업자들이 내세운 모델의 성과가 달라 정부가 심사기준을 어떻게 세웠을지도 관심사다. 31일 업계에 따르면 네이버, LG AI연구원, SK텔레콤은 AI 임원, NC AI와 업스테이지는 대표가 지난 30일 오후 2시부터 서울 강남구 코엑스에서 개최된 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참여했다. 발표는 네이버를 시작으로 NC AI, 업스테이지, SK텔레콤, LG AI연구원 순서로 진행됐다. 독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업이다. 과학기술정보통신부는 이번 발표를 기반으로 심사를 통해 내년 1월 15일 1개 팀을 탈락시키고, 이후에도 6개월마다 평가를 거쳐 2027년에 최종 2개 팀을 선정한다. 모델 성과 제각각…정부 심사 기준이 관건 이번 심사에선 각 팀이 주어진 공통 과제를 얼마나 잘 수행했는지, 각자 제시한 목표대로 성과를 냈는지가 관건이다. 모든 팀은 최근 6개월 내 공개된 글로벌 최고 모델 대비 95% 이상의 성능을 달성해야 하는 과제가 주어진 상태다.지난 8월 정예팀으로 선정된 지 4개월만에 첫 성과를 공개해야 하는 만큼, 개발 시간이 부족한 상황에서 각자 기술력을 얼마나 끌어올렸을지도 관심사다. 각 팀의 GPU 지원 여부, 지원 받은 시기 등이 각각 달랐다는 점에서 정부가 이를 심사 시 고려할 지도 주목된다. 이번 프로젝트를 위해 SK텔레콤과 네이버클라우드는 정부에게 GPU를 임대해주고 있다. 이 탓에 두 업체는 올해 '독자 AI 파운데이션 모델 프로젝트' 진행 시 정부로부터 GPU를 지원 받지 못했다. SK텔레콤은 엔비디아의 B200 칩 1천24장을 업스테이지와 LG AI연구원에, 네이버클라우드는 H200 칩 1천24장을 NC AI에 지원하고 있다. 이 탓에 GPU가 각 업체에 지원된 시기는 다 달랐다. 업계에선 정부가 어떤 기준을 세울지에 따라 각 팀의 승패가 갈릴 것으로 봤다. 정부는 그간 5개팀과 여러 차례 만나 평가 기준에 대해 논의 후 이달 중순께 합의를 보고 공지했으나, 어떤 팀이 탈락할 지에 따라 여전히 논란의 불씨가 많은 것으로 알려졌다. 업계 관계자는 "당초 5개 팀이 선정될 당시 정부에 제시했던 목표치를 달성했는지가 가장 중요할 것"이라며 "각 팀이 목표로 하고 있는 모델의 크기, 성능, 활용성이 제각각인 만큼 목표 달성률을 가장 중요한 기준치로 삼아야 할 것"이라고 강조했다. 이어 "벤치마크를 활용한다는 얘기가 있지만 모델 크기가 클수록 다운로드 수 측면에서 불리할 수 있어 이를 객관적 기준으로 삼기에는 다소 무리가 있을 수 있다"며 "5개 팀과 정부가 어떤 기준에 대해 합의를 했는지, 어떤 전문가를 앞세워 심사에 나설지도 주목해야 할 부분"이라고 덧붙였다. 5개 팀 첫 성과 공개…프롬 스크래치·모델 크기·활용성 주목 이번 1차 결과 공개에서 가장 주목 받는 곳은 업스테이지다. 대기업 경쟁자들 사이에서 짧은 시간 내 '프롬 스크래치(From Scratch)'를 기반으로 가성비 최고 수준인 모델을 완성도 높게 공개했다는 점에서 많은 이들의 호응을 얻었다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 업스테이지는 이날 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 자신감을 표출했다. 특히 발표에 직접 나선 김성훈 대표가 '솔라 오픈 100B'를 개발하게 된 과정을 스토리텔링 형식으로 발표해 호응을 얻기도 했다. 김 대표는 향후 200B, 300B 모델과 함께 멀티모달 모델도 선보일 예정이다.업계 관계자는 "김 대표가 발표 때 딥 리서치나 슬라이드 제작 등 코딩 외에 실제로 현장에서 많이 써봤을 것 같은 서비스를 직접 라이브 데모로 보여준 부분이 인상적이었다"며 "504장의 B200 GPU로 두 달 남짓 훈련한 것을 고려하면 모델 크기나 사용된 토큰수(추정)를 정말 빡빡하게 잘 쓴 게 아닌가 싶다"고 평가했다. 이승현 포티투마루 부사장은 "(업스테이지 발표 때) 솔라 프로가 'GPT-4o-미니'나 '파이-3 미디엄'보다 벤치마크가 높아 동급 사이즈에선 가장 우수하다고 했는데, 실제 가성비가 최고 수준인 것으로 보인다"며 "당장 기업들이 가져다 쓰기에도 좋을 것 같다"고 말했다. 이어 "그동안 업스테이지의 상징과도 같았던 DUS(구조 일부를 변경해 자체화한 AI 모델 개발 방식)를 넘어 프롬 스크래치로 모델을 개발했다는 점이 인상적"이라며 "기술 리포트가 없는 게 아쉽지만, 모델 카드에 프롬 스크래치를 기재한 것과 함께 API도 공개해 자신감을 드러낸 것이 국가대표로 내세우기 적합해 보였다"고 덧붙였다. 배경훈 과학기술정보통신부 부총리 겸 장관을 배출한 LG AI연구원도 이번 발표가 끝난 후 개발 중인 모델이 국가대표로 인정받기에 손색이 없다는 평가를 받았다. 이곳은 '엑사원 4.0' 아키텍처를 기반으로 파라미터 크기를 약 7배 키워 초기화한 상태에서 새로 학습시킨 'K-엑사원'을 이번에 공개했다. 'K-엑사원'은 매개변수 236B 규모의 프런티어급 모델이다. LG AI연구원에 따르면 'K-엑사원'은 개발 착수 5개월 만에 알리바바의 '큐웬3 235B'를 뛰어 넘고 오픈AI의 최신 오픈 웨이트 모델을 앞서 글로벌 빅테크 최신 모델과 경쟁할 수 있는 가능성을 입증했다. 글로벌 13개 공통 벤치마크 평균 성능 대비 104%를 확보했다는 점도 눈에 띄는 요소다. LG AI연구원은 "기존 엑사원 4.0 대비 효율성을 높이면서도 메모리 요구량과 연산량을 줄여 성능과 경제성을 동시에 확보했다"며 "특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 GPU 환경에서 구동할 수 있도록 했다"고 설명했다. 이곳은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다. 또 글로벌 프론티어 AI 모델을 뛰어넘는 경쟁력을 확보해 한국을 AI 3강으로 이끌 것이란 포부도 드러냈다. 이번 발표를 두고 업계에선 LG AI연구원이 5개 팀 중 기술적인 내용이 가장 많이 들어있어 신뢰도가 높았다고 평가했다. 또 추론 강화를 위해 아키텍처를 변형하고 커리큘럼 러닝을 적용했다는 점에서 모델이 '프롬 스크래치'임을 명백히 보여줬다고 평가했다. 다만 동일 아키텍처인 32B 모델의 리포트와 가중치만 공개돼 있고, 이번 모델인 236B는 공개하지 않았다는 점은 아쉬운 대목으로 지적됐다. 업계 관계자는 "'K-엑사원'은 구조, 가중치가 완전 국산이란 점에서 통제권과 설명 가능성이 충분히 확보돼 있다고 보인다"며 "국방, 외교, 행정망 등 국가 핵심 인프라에 충분히 쓰일 수 있을 듯 하다"고 말했다. 그러면서도 "이번 발표에서 자체 MoE나 하이브리드 어텐션(hybrid attention, 효율·성능을 위해 다양한 어텐션 방식을 상황별로 혼합한 구조), 아가포(AGAPO, 어텐션·파라미터 사용을 입력에 따라 동적으로 조절하는 내부 최적화 기법) 같은 기술들에서 인상 깊은 것이 없다는 것은 아쉽다"며 "다음에는 실질적 효과에 대한 정량적 수치가 잘 기술되면 좋을 듯 하다"고 덧붙였다.이에 대해 LG AI연구원 관계자는 "모델 제출 마감이 이번 주까지여서 제출 시점에 236B 모델을 공개할 것"이라며 "이 때 테크 리포트로 세부 사항도 담을 예정"이라고 설명했다. SK텔레콤도 이번 발표에서 많은 이들의 주목을 받았다. 짧은 시간 안에 국내 최초로 매개변수 5천억 개(500B) 규모를 자랑하는 초거대 AI 모델 'A.X K1'을 공개했기 때문이다. 특히 모델 크기가 경쟁사보다 상당히 크다는 점에서 AI 에이전트 구동 등에서 유리한 고지에 있다는 일부 평가도 나오고 있다. SK텔레콤은 모델 크기가 성능과 비례하는 AI 분야에서 한국이 AI 3강에 진출하려면 500B 규모의 AI 모델이 필수적이란 점을 강조하며 톱2까지 오를 것이란 야심을 드러내고 있다. 또 SK텔레콤은 모두의 AI를 목표로 기업과 소비자간 거래(B2C)와 기업간거래(B2B)를 아우르는 AI 확산 역량도 강조했다. 여기에 SK하이닉스, SK이노베이션, SK AX 등 관계사와 협업으로 한국의 AI 전환에 이바지하겠다는 포부도 밝혔다. 다만 일각에선 프롬 스크래치로 모델을 개발했는지에 대한 의구심을 드러내고 있어 심사 시 이를 제대로 입증해야 할 것으로 보인다. SK텔레콤은 MoE 구조라고 강조했으나, 각 전문가 모델들이 자체 개발인지, 오픈소스 튜닝인지 밝히지 않아 궁금증을 더했다. 또 모델카드는 공개했으나, 테크니컬 리포트를 공개하지 않았다는 점도 의구심을 더했다. 이승현 포티투마루 부사장은 "MoE 구조를 독자 개발했다면 보통 자랑스럽게 논문을 내는 것이 일반적"이라며 "SKT가 'A.X 3.1(34B)'라는 준수한 프롬 스크래치 모델이 있으나, 이를 15개 정도 복제해 MoE 기술로 묶은 것을 이번에 'A.X K1'으로 내놓은 것이라면 혁신은 아니라고 보여진다"고 평가했다. 이어 "정량적 벤치마크보다 서비스 적용 사례 위주로 발표가 돼 기술적 성취보다 '서비스 운영 효율'에 방점이 찍힌 듯 했다"며 "SKT가 'A.X 3.1' 모델 카드에 프롬 스크래치를 분명히 명시했지만, 이번에는 명시하지 않아 소버린 모델로 활용할 수 있을지에 대해선 아직 판단이 이르다"고 덧붙였다. 이에 대해 SKT는 다소 억울해하는 눈치다. 프롬 스크래치로 개발을 한 사실이 명백한 만큼, 조만간 발표될 테크니컬 리포트를 통해 일각의 우려를 해소시킬 것이란 입장이다. SKT 관계자는 "모델 카드에 밝혔듯 A.X K1은 192개의 소형 전문가(expert)를 가지는 MoE 구조로, A.X 3.1 모델을 단순히 이어 붙여서 만들 수 없는 복잡한 구조인 만큼 처음부터 프롬 스크래치로 학습됐다"며 "관련 세부 내용은 이달 5일 전후 테크니컬 리포트를 통해서 공개할 예정"이라고 밝혔다. 업계 관계자는 "SKT가 500B 모델을 만든다는 것을 사전에 알고 우려가 많았지만, 다른 팀에 비해 성공적으로 압도적으로 큰 모델을 공개했다는 것 자체는 굉장히 인상적"이라며 "내년 상반기까지 정부에서 지원하는 GPU를 쓰지 않기 때문에 SKT가 얼마나 많은 GPU를 투입했는지 알 수는 없지만, 500B를 충분히 학습하기에는 (성능을 끌어 올리기에) 시간이 부족했을 것 같다"고 말했다. 그러면서도 "2T까지 만들겠다는 포부는 높이 평가한다"며 "성공적인 2T 모델이 나오기를 기대한다"고 부연했다. 네이버클라우드는 국내 최초 네이티브 옴니모달 구조를 적용한 파운데이션 모델 '하이퍼클로바 X 시드 8B 옴니'를 오픈소스로 공개하며 자신감을 드러냈다.이곳은 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니 모델'을 제시했다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아닌, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 또 네이버클라우드는 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 고성능 추론모델 '하이퍼클로바 X 시드 32B 씽크'도 오픈소스로 공개했다. 이 모델은 올해 대학수학능력시험(수능) 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 업계에선 네이버클라우드의 발표를 두고 실제 '애니-투-애니(Any-to-Any) 모델'을 작은 사이즈로 공개한 부분에 대해 인상적이라고 평가했다. '애니-투-애니 모델'은 입력과 출력의 모달리티(형식)를 가리지 않고 어떤 조합이든 처리할 수 있는 멀티·옴니모달 모델이다. 또 유일하게 '덴스(Dense) 모델'을 썼다는 점도 주목을 받았다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다. 이로 인해 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수는 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 의견도 있다. 당초 1차 심사 때 14B를 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 점도 아쉬운 점으로 지목됐다. 업계 관계자는 "네이버가 태생부터 멀티모달인 '네이티브 옴니' 아키텍처를 설계했다는 점에서 방향성이 완벽하고 독자모델로도 입증을 했지만, 경량 모델을 공개했다는 점이 아쉽다"며 "거대 모델로 스케일업 했을 때의 추론 능력과 비용 효율성이 아직 검증되지 않았다는 것이 우려된다"고 짚었다. 이어 "옴니모달은 구글, 오픈AI도 지향하는 최신 아키텍처"라며 "네이버가 이를 '패치워크(여러 모델 붙이기)'가 아닌 '네이티브'로 구현했다고 강조했다는 점에서 소버린 모델로는 충분한 가치가 있다"고 덧붙였다. NC AI는 이연수 대표가 직접 발표에 나서 산업 특화 AI를 위한 파운데이션 모델 '베키(VAETKI)'를 소개했다. 또 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고 100B급 LLM 개발도 마쳤다고 공개했다. NC AI에 따르면 현재 베키는 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용돼 실질적인 성과를 창출하고 있다. NC AI는 AI 모델 바로크에 3차원(3D) 생성 기술이 결합된 바로크 3D를 활용해 전 산업군에 최적화된 버티컬 AI 설루션을 제공한다는 계획이다. 이 대표는 "우리는 1차로 100B(1천억 개)급 파운데이션 모델의 틀을 마련했다"며 "2차에서 200B, 3차에서 300B급으로 글로벌 모델급 성능을 달성하려고 한다"고 강조했다. 업계에선 NC AI의 이번 발표를 두고 경쟁력 있는 모델을 다수 보유하고 있는 것에 비해 전달력이 미흡했다고 평가했다. 100B 모델과 함께 서비스에 특화된 7B, 20B, VLM 7B까지 다양한 모델을 준비했으나, 발표 구성이 미흡해 강점이 충분히 전달되지 못했다는 의견도 나왔다. 업계 관계자는 "NC AI의 텍스트로 3D 에셋을 만드는 성능은 확실한 산업적 가치를 보여주지만, 그 이상의 것은 없어 아쉽다"며 "100B 모델을 기반으로 게임에 특화된 AI 활용을 좀 더 많이 보여줬다면 훨씬 좋았을 것 같다"고 말했다. 성과 확인 '끝'…1차 발표회 호평 속 투명한 검증 '과제' 업계에선 이번 1차 발표회의 전반적인 진행에 대해 긍정적인 평가와 함께 정부가 앞으로 조금 더 구체적인 국가대표 AI 육성 평가를 내놓을 필요가 있다고 지적했다. 이번 발표회에서 소버린 AI를 강조하는 곳은 많지만, 그 실체를 증명하는 기준이 조금 느슨해보였다는 평가도 나왔다. 업계 관계자는 "이번 발표회에서 각 팀들이 얼마나, 어떻게 혁신적인 모델을 개발해 공개했는지에 대한 구체적인 설명이 없어 아쉬움이 컸다"며 "단순한 제품 홍보 발표회 느낌을 많이 받았지만, 단기간에 모든 팀이 굉장한 일을 정부 지원을 토대로 해냈다는 것에 대해선 기대감을 가지게 했다"고 밝혔다. 이어 "최소 100B급 이상의 모델을 학습시킬만한 인프라 운용과 더불어 학습 노하우를 갖추고 있어 보여 좋았다"며 "단기간 내 실험 시간의 물리적 제한이 있었음에도 기본적으로 초거대 AI 모델을 학습시킬 기본 역량은 대부분 갖췄다고 보여져 놀라웠다"고 덧붙였다. 그러면서도 "2차 발표에선 오거나이징 하는 측에서 명확한 발표 가이드를 제시해주면 더 좋을 것 같다"며 "김성훈 업스테이지 대표의 말처럼 국민 세금이 많이 투입되고 있기 때문에 짧지만 굉장히 효과적인 발표회가 앞으로도 진행될 수 있길 바란다"고 언급했다. 또 다른 관계자는 "독자 AI 파운데이션 모델의 핵심은 어떤 데이터로, 어떤 아키텍처를 써서 어떤 방식으로 학습했는지가 투명해야 한다"며 "그 결과물은 글로벌 시장에서 통할 수 있는 객관적 수치로 증명돼야 하고, 각 팀들은 기술 리포트와 모델 카드를 의무적으로 공개해야 제대로 프롬 스크래치로 개발했는지 검증할 수 있다"고 강조했다. 그러면서 "프롬 스크래치가 만능은 아니지만 투명성은 필수"라며 "무늬만 국가대표가 아닌 실력 있는 국가대표를 가려내기 위해선 마케팅의 거품을 걷어내고 기술의 족보를 따지는 엄격한 검증 시스템이 필요하다고 본다"고 덧붙였다.

2025.12.31 17:59장유미 기자

과기정통부 "카나나, 라마·미스트랄보다 안전"…첫 AI 안전성 평가서 '합격점'

카카오가 개발한 인공지능(AI) 모델 '카나나(Kanana)'가 라마(Llama), 미스트랄(Mistral) 등 세계 주요 오픈소스 모델보다 안전성이 높다는 정부 평가 결과가 나왔다. 29일 과학기술정보통신부(이하 과기정통부)는 인공지능안전연구소, 한국정보통신기술협회(TTA)와 함께 '카나나 에센스 1.5'를 대상으로 실시한 '국내 첫 AI 안전성 평가' 결과를 공개했다. 이번 평가는 내년 1월 'AI기본법' 시행을 앞두고 고성능 AI 모델의 위험 요소를 식별하고 안전성을 검증하기 위해 추진됐다. 평가단은 카나나와 비슷한 글로벌 모델인 메타의 '라마 3.1', 미스트랄의 '미스트랄 0.3'과 동일한 조건에서 비교 분석했다. 평가 결과 카나나는 비교 대상보다 높은 안전성을 확보한 것으로 나타났다. 폭력이나 차별적 표현과 같은 일반적인 위험 요소는 물론, 무기 제작이나 보안 취약점 악용 등 오남용 가능성이 높은 고위험 시나리오에서도 우수한 방어 능력을 보였다. 평가에는 국내 연구진이 주도하여 구축한 데이터셋이 핵심적인 역할을 했다. TTA와 카이스트 최호진 교수팀이 개발한 '어슈어AI 데이터셋'과 AI안전연구소의 '고위험 분야 평가 데이터셋'이 활용됐으며, 한국어 특성을 반영한 35개 위험 영역에 대한 정밀 검증이 이루어졌다. 과기정통부 관계자는 "이번 평가는 단순히 국내 모델을 테스트한 것을 넘어, 우리가 만든 평가 기준과 데이터셋으로 글로벌 모델과 비교 검증을 수행했다는 데 의의가 있다"며 "국산 AI 모델이 성능뿐만 아니라 안전성 측면에서도 세계적 경쟁력을 갖췄음을 입증한 것"이라고 설명했다. 정부는 이번 평가 결과를 발판 삼아 AI 안전 생태계 확산에 속도를 낼 방침이다. 구축된 안전성 평가 데이터셋(AssurAI)을 국제표준화기구(ISO/IEC) 등에 제안해 글로벌 표준 반영을 추진하고, 미국·영국 등 국제 AI안전연구소 네트워크와 공조를 통해 평가 기준 국제 정합성을 높일 계획이다. AI안전연구소는 향후 국내외 주요 AI 기업들과 협력하여 타 모델에 대한 안전성 평가를 확대하고 새해 예정된 '독자 AI 파운데이션 모델' 프로젝트 단계 평가에도 이번 검증 체계를 적용할 계획이다. 김경만 과기정통부 인공지능정책실장은 "전 세계적으로 AI 안전 논의가 규제보다는 실질적인 '검증'과 '구현'으로 넘어가고 있다"며 "이번 평가는 국내 AI 모델 안전성 경쟁력을 증명한 사례로, 앞으로도 국내 기업이 글로벌 AI 안전성 리더십을 주도할 수 있도록 적극 지원하겠다"고 강조했다.

2025.12.29 16:54남혁우 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[AI는 지금] "인류 통제 벗어날 수도"…세계 석학들이 보낸 적색 경보

"또 실패는 없다"…구글이 AI 글래스 '킬러앱'에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

저평가주 외인 매수세에...SK텔레콤 주가 고공행진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.