• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'S/4 HANA 클라우드'통합검색 결과 입니다. (1514건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

LG AI연구원·SK텔레콤·업스테이지, 'K-AI' 1차 평가 통과

정부가 '독자 인공지능(AI) 파운데이션 모델' 1차 평가 결과를 공개했다. 과학기술정보통신부는 독파모 기존 5개 정예팀 가운데 LG AI연구원과 SK텔레콤, 업스테이지를 2단계에 진출했다고 15일 밝혔다. 이번 평가는 벤치마크를 비롯한 전문가, 사용자 평가를 합산해 모델 성능과 비용 효율성, 실제 활용 가능성, 생태계 파급력을 종합 검증한 결과다. 세 지표에서 모두 최고점을 받은 LG AI연구원이 전체 1위를 기록했다. 벤치마크 평가 부문에서 LG AI연구원은 40점 만점 중 33.6점을 받아 평균을 상회했다. 전문가 평가에서도 35점 만점 중 31.6점, 사용자 평가에서는 25점 만점을 획득해 모든 영역에서 선두를 유지했다. 종합 점수상 상위 4개 팀에는 LG AI연구원, 네이버클라우드, SK텔레콤, 업스테이지가 포함됐다. 다만 네이버클라우드는 독자성 기준을 충족하지 못해 최종 탈락했다. 이에 따라 2차 단계는 LG AI연구원과 SK텔레콤, 업스테이지 3개 팀 체제로 진행된다. 과기정통부는 "독자 AI 파운데이션 모델은 해외 모델 미세조정이 아닌 아키텍처 설계와 데이터 구축, 가중치 초기화 후 학습까지 전 과정을 자체 수행한 국산 모델"이라고 정의했다. 이어 "네이버클라우드 모델은 가중치 기반 독자성 요건을 충족하지 못한 것으로 판단했다"며 탈락 이유를 밝혔다. 정부는 경쟁과 생태계 유지를 위해 1개 정예팀을 추가 공모해 총 4개 팀 체제를 다시 구축할 계획이다. 신규 정예팀에는 그래픽처리장치(GPU)와 데이터, 'K-AI 기업' 명칭이 제공된다. 과기정통부는 "이번 프로젝트는 대한민국이 글로벌 AI 경쟁에서 독자 기술로 당당히 맞서기 위한 역사적 도전"이라며 "K-AI 모델을 반드시 확보해 지속 가능하고 건강한 AI 생태계를 구축할 것"이라고 밝혔다.

2026.01.15 15:00김미정 기자

GS리테일이 선택한 '카카오클라우드'…AI 운영비 35%↓

카카오엔터프라이즈가 카카오클라우드를 기반으로 한 유통 현장의 실질적 비용 절감과 기술 고도화에 박차를 가한다. 카카오엔터프라이즈는 GS리테일이 운영하는 홈쇼핑 GS샵의 AI 검색·추천 시스템을 카카오클라우드 기반으로 지원 중이라고 15일 밝혔다. GS리테일은 GS샵을 비롯해 편의점 GS25, 슈퍼마켓 GS더프레시 등 주요 유통 채널을 운영하는 종합 유통기업이다. 이 가운데 GS샵은 데이터 파이프라인 구축부터 모델 서빙, 품질 모니터링까지 AI·머신러닝 운영(MLOps) 전반에 대한 자체 역량을 기반으로 검색·추천 시스템을 고도화해 왔다. GS리테일은 2024년부터 카카오클라우드 그래픽처리장치(GPU) 인스턴스와 쿠브플로우를 활용해 검색·추천 시스템과 분석 환경을 운영 중이다. 지난해 5월부터는 카카오클라우드에서 학습한 텍스트 임베딩 모델을 적용해 의미 기반 검색을 구현했으며 사용자 행동 데이터를 바탕으로 협업 필터링(CF)과 시퀀스 모델을 결합한 추천 모델을 통해 검색 품질을 개선했다. 이 같은 전환을 통해 GS리테일은 검색·추천 모델 학습과 운영 비용을 월평균 약 35% 절감하는 동시에 모델 실험 사례 수를 40% 이상 늘렸다. 기존 대비 약 5배 많은 GPU 메모리를 활용할 수 있게 되면서 다양한 실험이 가능해졌고 검색·추천 모델 성능 개선 속도도 빨라졌다. GS리테일은 유동적인 GPU 수요 대응과 환율 변동 리스크 최소화를 위해 카카오클라우드를 선택했다. 기존 글로벌 클라우드는 GPU 리소스를 사전에 예약 구매해야 해 유연성이 떨어졌고 환율 변동 시 예산 운용에 부담이 있었다. 반면 카카오클라우드는 GPU 리소스를 최소 단위로 구성해 필요에 따라 확장할 수 있어 비용 예측과 안정적인 예산 집행이 가능했다는 설명이다. GS리테일 김요한 AX본부 홈쇼핑AX부문장은 "기존 검색·추천 시스템에서 사용하던 쿠브플로우 기반 파이프라인을 그대로 카카오클라우드로 이전해 활용할 수 있었고 유연성과 확장성 측면에서 매우 만족스러웠다"며 "앞으로 검색·추천 분야에서 고객 여정 단계별 개선에 집중해 AI 에이전트 기반 대화형 쇼핑 서비스, 초개인화 추천과 고객별 맞춤형 동적 사용 경험을 제공하고자 노력을 다할 것"이라고 말했다. 카카오엔터프라이즈 이용민 클라우드부문장은 "GS리테일의 AI 검색·추천 시스템 혁신 사례는 유통 분야에서 카카오클라우드를 기반으로 비용 절감과 실험 수 증가라는 정량적인 성과를 동시에 달성한 모범 사례"라며 "고객 필요에 따라 세분화된 선택지를 제공하는 클라우드 전략 파트너로서 고객이 핵심 경쟁력에 집중할 수 있는 AI 인프라 환경을 조성하는 데 최선의 노력을 다할 것"이라고 강조했다.

2026.01.15 14:05한정호 기자

"AI 성패는 인프라에 달렸다"…오라클, OCI로 '현장 적용' 승부수

생성형 인공지능(AI)이 산업 전반으로 확산되면서 기업들의 관심은 어떤 모델을 쓰느냐에서 어떻게 운영해 성과를 내느냐로 이동하고 있다. 하지만 초고성능 컴퓨팅과 초저지연 네트워크, 대규모 데이터 처리 역량이 뒷받침되지 않으면 AI는 개념검증(PoC)을 넘어 실제 비즈니스 혁신으로 이어지기 어렵다는 지적이 나온다. 15일 오라클은 이같은 흐름 속에서 '오라클 클라우드 인프라스트럭처(OCI)'를 AI 최적화 인프라로 제시했다. 생성형 AI 확산으로 기업 환경에서 고성능 인프라 수요가 커지는 점에 주목하며 AI 전환이 실제 운영 단계로 넘어가기 위한 기반을 강화한다는 전략이다. OCI는 고성능·보안·데이터 통합을 모두 갖춘 엔터프라이즈급 AI 플랫폼으로, 단순 클라우드 인프라를 넘어 성공적인 AI 전환·운영을 지원하는 핵심 인프라로 주목받고 있다. 오라클은 기업이 PoC 단계를 넘어 실제 성과(ROI)를 내는 AI를 구현하도록 앞장선다는 목표다. "모델만으론 부족"…데이터·AI·애플리케이션 연결이 경쟁력 오라클은 AI 시대 경쟁력은 모델이 아닌 운영 가능한 구조에 있다고 강조한다. 기업이 AI 도입을 성공시키려면 내부 데이터가 AI 모델로 이어지고 다시 실사용 애플리케이션에 즉시 반영되는 흐름이 필요하다는 것이다. 이에 오라클은 OCI로 ▲퓨전 애플리케이션 ▲자율운영 데이터베이스(DB) ▲데이터 플랫폼 ▲OCI 생성형 AI 등을 단일 플랫폼으로 연결해 데이터·AI·애플리케이션이 이어지는 엔드투엔드 구조를 제공한다. 이같은 통합 구조로 AI 활용 가속화 핵심인 데이터를 AI에 가져오는 속도를 빠르게 하고 운영 효율과 적용 속도를 높인다는 구상이다. 기업이 생성형 AI를 본격 확산하려면 성능 못지않게 보안과 규제 대응도 중요하다. 금융·공공 등 규제 산업에서는 데이터 이동 과정에서 발생할 수 있는 유출 위험, 주권 이슈, 거버넌스 문제가 AI 도입 속도를 제한할 수 있다는 분석이 나온다. 오라클 OCI는 ▲고객 데이터를 모델 학습에 사용하지 않는 정책 ▲데이터 레지던시 100% 준수 ▲정부·금융권을 위한 전용 리전 ▲멀티 클라우드 및 고객 전용 클라우드 배포 등을 지원한다. 이처럼 보안이 해결된 상태에서 기업이 AI를 안전하게 사용할 수 있도록 설계됐다는 점을 전면에 내세우고 있다. "PoC는 끝났다"…현장에서 바로 쓰는 AI로 생성형 AI 경쟁의 주요 관건으로는 비용이 꼽힌다. 기업들이 AI를 PoC가 아니라 상시 운영 체계로 확대할수록 그래픽처리장치(GPU)·스토리지·네트워크 비용 부담이 커지고 결국 비용 효율이 AI 확산 속도를 좌우할 수 있는 상황이다. 오라클은 이를 해결할 인프라로 'OCI 슈퍼클러스터'를 제시한다. 생성형 AI 시대에 요구되는 GPU 클러스터링 구조와 초저지연 네트워크, 페타바이트(PB)급 스토리지를 기본으로 제공하는 전략이다. 회사에 따르면 이는 동일 사양 기준 타 클라우드 대비 30~60% 비용 절감이 가능한 것으로 나타났다. 오라클은 AI 전략 무게중심이 이제 PoC 성공 여부가 아니라 현장 성과로 이동하고 있다고 진단했다. OCI 기반 AI를 통해 실제 기업 현장에서 즉시 성과를 낼 수 있도록 지원한다는 목표다. 최근 OCI는 업무 자동화, 문서 요약·검색, 다국어 콘텐츠 생성, 챗봇·고객서비스 고도화, 제조·유통·금융 시나리오 최적화 등 다양한 분야에 빠르게 적용되고 있다. 오라클은 "AI 시대 승패는 고성능 인프라와 데이터·애플리케이션을 잇는 통합 구조 위에서 결정된다"며 "OCI는 기업이 생성형 AI를 PoC 수준을 넘어 실전 비즈니스 반영 단계까지 실행할 수 있게 하는 핵심 기반"이라고 강조했다.

2026.01.15 10:42한정호 기자

[유미's 픽] '독자 AI' 논쟁, 韓서 유독 격화된 이유는

정부 주도의 독자 인공지능(AI) 파운데이션 모델 사업을 둘러싼 논란이 기업 간 경쟁을 넘어 정책·기술 논쟁으로 확산되고 있다. 해외 모델과의 유사성, '프롬 스크래치' 정의, 외부 가중치 사용 여부를 두고 해석이 엇갈리면서 논쟁의 강도도 커지는 양상이다. 나아가 업체 간 '진흙탕 싸움'으로도 번지자 이번 사업에서 국내 독자 AI 정책 설계 방식과 기준 설정이 미흡했기 때문이란 지적이 나온다. 14일 업계에 따르면 이번 논란이 확산된 것은 '독자 AI'라는 정책 목표가 기술적 정의보다 먼저 제시됐기 때문이다. 일단 정부는 지난 해 공모 단계에서 해외 AI 모델을 단순 미세조정(fine-tuning)한 파생형 모델을 독자 AI로 인정하지 않겠다는 원칙을 밝혔다. 그러나 '프롬 스크래치'와 '독자성'을 어디까지로 해석할 것인지에 대해서는 구체적인 기준을 제시하지 않았다. AI 연구 현장에서 통용되는 '프롬 스크래치'는 일반적으로 기존 모델의 가중치를 사용하지 않고 랜덤 초기화 상태에서 학습했는지를 의미한다. 반면 정책 논의 과정에서는 이 개념이 모델 구조, 아키텍처 차용, 모듈 활용 여부까지 포함하는 방식으로 확장되면서 기술적 정의와 정책적 해석 간의 차이가 드러났다는 평가가 나온다. 업계에선 이 간극이 이후 논쟁을 키운 근본 배경이라고 보고 있다. 평가 기준이 개발 전이 아닌 5개 팀 선발 결과 공개 이후에 본격적으로 논의됐다는 점도 논란을 키운 요인으로 꼽힌다. 짧은 개발 기간과 제한된 자원으로 글로벌 수준의 성능을 요구받은 상황 속에 다수 참여 기업이 오픈소스 생태계와 기존 연구 성과를 일정 부분 활용할 수밖에 없었다는 것도 문제다. 이를 활용했을 때 어느 수준까지 허용되는지에 대한 사전 합의가 충분히 공유되지 않은 탓이다. 이에 각 기업의 기술 선택은 현재 독자성 논쟁의 대상이 됐다. 업계 관계자는 "사전 가이드라인이 명확하지 않은 상태에서 사후 검증이 강화되다 보니 기술적 판단이 정책적·정치적 논쟁의 중심에 놓이게 됐다"며 "기술 선택의 맥락보다는 결과를 기준으로 한 평가가 이뤄지면서 논쟁이 과열됐다"고 진단했다. 이번 사업이 단순한 연구개발(R&D) 지원을 넘어 '국가대표 AI'를 선발하는 성격을 띠고 있다는 점도 논쟁을 증폭시킨 요인으로 분석된다. 기업 간 경쟁이 국가 기술 자립의 상징으로 해석되면서 기술적 차이보다 독자성의 순수성을 둘러싼 평가가 부각됐다는 점에서다. 글로벌 AI 연구 환경에서는 오픈소스와 기존 연구 성과를 활용하는 것이 일반적이지만, 국내에서는 안보와 기술 주권 담론이 결합되며 기술 선택 하나하나가 상징적 의미를 띠게 됐다는 지적도 나온다. 업계 관계자는 "이번 논쟁의 본질은 특정 기업의 기술 선택 문제가 아니라 기술 기준과 정책 기준이 혼재된 구조적 문제"라며 "AI 연구 관점에서는 구조 차용과 독자 학습을 구분해 평가하는 반면, 정책 관점에서는 외부 의존성과 통제 가능성이 더 중요한 판단 기준이 된다"고 말했다. 그러면서 "이번 독자 AI 사업에서는 이 두 기준이 동일한 언어로 정리되지 않은 상태에서 추진되면서 혼선이 커졌다"고 분석했다. 이로 인해 기술적으로는 합리적인 선택이 정책적으로는 부적절해 보일 수 있게 됐다. 반대로 정책적 메시지가 강한 선택이 기술적 완성도와는 별개로 평가되는 상황도 만들어졌다. 업계에선 이번 논쟁이 '유사성' 여부를 따지는 문제를 넘어 무엇을 기준으로 독자성을 판단할 것인지에 대한 논의로 이어지고 있다고 보고 있다. 일각에선 이번 1차 평가를 계기로 독자 AI의 기준을 보다 정교화할 필요가 있다는 의견을 내놨다. 단순한 성능 지표나 선언적 독자성보다 가중치 통제권, 설계 역량, 비용 효율성, 장기적 운용 가능성 등을 종합적으로 평가하는 체계가 필요하다는 지적이다. 업계 관계자는 "이번 논쟁이 한국 AI 산업에 반드시 부정적인 신호만은 아니라고 본다"며 "독자 AI의 정의와 정책 목표를 다시 정립하는 계기로 삼을 필요가 있다"고 밝혔다.이어 "앞으로 기술 논쟁을 도덕적 공방으로 몰고 가기보다 정책 목적과 기술 현실을 구분해 설명할 수 있는 기준을 우선 마련하는 것이 필요해보인다"며 "이번 독자 AI 논쟁은 개별 기업의 성패를 넘어 한국이 어떤 방식으로 AI 주권을 확보할 것인지에 대한 정책적 시험대가 될 것"이라고 덧붙였다.

2026.01.14 16:54장유미 기자

SAP, 섹타나인과 차세대 클라우드 ERP 구축…식품 제조 DX 가속

SAP가 클라우드 전사적자원관리(ERP) 시스템 구축을 주도하며 식품 제조 분야 품질관리 체계 고도화에 나섰다. SAP코리아는 섹타나인과 'SAP S/4HANA 클라우드 프라이빗 에디션'을 도입해 차세대 ERP 시스템을 구축하고 지난해 8월부터 안정적인 운영에 돌입했다고 14일 밝혔다. 이번 프로젝트를 통해 파리크라상·삼립·SPL·비알코리아 등 핵심 생산 및 물류 거점에 최신 SAP 클라우드 ERP 솔루션이 적용됐다. 글로벌 비즈니스 확장에 필수적인 민첩성과 확장성을 확보하고 품질·안전성 강화, ESG 대응, 데이터 기반 의사결정 등 미래 경쟁력 확보를 위한 토대를 마련했다는 설명이다. 섹타나인은 국내외 13개 회사에서 운영해온 기존 온프레미스 환경의 비표준화된 데이터 한계와 글로벌 확장성 한계를 극복하고자 했다. 이를 위해 기존 시스템을 그대로 옮기는 대신 글로벌 표준 프로세스에 맞춰 시스템을 새롭게 설계하는 '그린필드' 접근 방식을 채택했다. 섹타나인 오대식 ERP부문장은 "이번 프로젝트는 단순한 시스템 교체를 넘어 비즈니스 모델 혁신을 목표로 진행됐다"고 강조했다. SAP에 따르면 지난해 8월 차세대 ERP 전환 이후 섹타나인을 비롯한 각 회사들은 운영 효율화 및 품질 강화 측면에서 뚜렷한 성과를 거두고 있다. 13개 계열사 시스템을 통합함으로써 재고와 물류의 가시성이 크게 향상됐으며 HACCP 대응과 실시간 품질 데이터 분석을 통해 안전성이 강화됐다. 또 경영 자원 운영 유연성을 확보해 시장 변화에 빠르게 대응할 수 있는 IT 인프라를 갖췄으며 실시간 KPI 모니터링을 통해 데이터에 기반한 정교한 의사결정이 가능해졌다. 현장 혁신 측면에서는 파리크라상과 SPL 평택공장이 'SAP 모바일 스타트'를 활용해 현장 품질관리(QM) 업무를 모바일로 전환했다. SAP 모바일 스타트는 검사 요청과 승인 절차를 모바일에서 실시간 처리할 수 있도록 지원한다. 품질 데이터가 ERP와 연동돼 실시간으로 데이터를 추적할 수 있다. 이를 통해 불량품 관리와 시정 및 예방 조치(CAPA) 실행 속도가 빨라졌으며 검사 계획 확인부터 결과 등록, 승인 절차까지 전 과정이 스마트폰에서 가능해지면서 업무 효율이 개선됐다. 또 일부 생산 공장에서는 이를 기반으로 품질 알림과 데이터 분석을 강화해 불량률을 낮추는 성과를 거둔 것으로 나타났다. 향후 SAP는 ▲인공지능(AI)·머신러닝 기반 예측 품질관리 고도화 ▲'SAP 빌드 워크존'을 통한 사용자 경험 강화 ▲'쥴(Joule)' 기반 차세대 AI 도입을 지속적으로 지원할 계획이다. 이번 SAP S/4HANA 클라우드 프라이빗 에디션 도입은 국내 식품 제조업계 디지털 전환(DX)의 새로운 이정표를 세운 것으로 평가된다. 단순한 인프라 클라우드 전환을 넘어 글로벌 확장성 확보, ESG 경영 대응, AI 및 모바일 기반 스마트팩토리 구현 등 실질적인 비즈니스 가치를 입증한 사례라는 설명이다. 신은영 SAP코리아 대표는 "섹타나인과 함께한 성공적인 전환은 국내 기업들이 글로벌 시장에서 경쟁력을 강화하는 데 있어 중요한 이정표가 될 것"이라며 "앞으로도 최신 IT 기술과 AI를 접목해 고객사 비즈니스 혁신을 지속적으로 지원할 예정"이라고 밝혔다.

2026.01.14 16:52한정호 기자

메이사-골프존클라우드, 드론·AI 기반 골프장 코스관리 협력

드론·AI 기반 코스관리 솔루션 기업 메이사는 국내 골프장 운영 시스템 기업 골프존클라우드와 골프장 디지털 운영 혁신을 위한 업무협약(MOU)을 체결했다고 14일 밝혔다. 양사는 골프존클라우드 골프장 운영 시스템(WGMS)과 경기 관제 솔루션에 메이사 드론·AI 코스 관리 기술을 결합한 '차세대 골프장 토탈 관리 시스템'을 제안한다. 골프장 운영·관제·코스관리을 단일 플랫폼에서 통합 관리해 보다 효율적인 데이터 기반 운영 환경을 구축한다는 방침이다. 골프존클라우드 WGMS는 예약·정산·회원관리 등 골프장의 핵심 운영 기능을 처리하는 국내 골프장 운영 플랫폼이다. 경기 관제·스마트캐디·무인화 솔루션 등 다양한 디지털 인프라와 연동이 가능한 운영 시스템(OS) 역할을 수행하고 있다. 메이사 AI 기반 코스 분석 기술이 결합되면 골프장은 골프존클라우드 플랫폼 위에서 드론 촬영을 통해 수집된 고화질 코스 상태와 AI 자동 분석 결과를 실시간으로 확인할 수 있게 된다. 코스팀 현장 점검 과정을 혁신적으로 줄이고 정량화된 데이터를 바탕으로 코스 관리 품질을 균일하게 유지할 수 있는 환경을 제공할 것으로 기대된다. 안원익 골프존클라우드 대표는 "골프장 운영 효율화와 코스 품질관리라는 두 가지 핵심 영역을 통합적으로 관리할 수 있게 됐다"며 "앞으로 골프장 디지털 운영의 새로운 표준을 선도해 나가겠다"고 말했다. 최석원 메이사 대표는 "골프존클라우드가 보유한 운영 시스템과 결합을 통해 골프장에 고정밀 코스 정보를 더 쉽게 제공할 수 있게 됐다"며 "향후 예측 기반 코스관리까지 확장해 골프장 운영 전반의 혁신을 가속하겠다"고 밝혔다. 양사는 이번 협력을 통해 국내 골프장의 디지털 경쟁력을 강화하는 것은 물론, 글로벌 시장에서도 'IT 기반 골프장 운영 혁신' 모델을 제시하기 위해 지속적인 공동 개발과 기술 고도화를 이어갈 계획이다.

2026.01.14 16:37신영빈 기자

공공 AX서 존재감 키우는 '클라비'…현장형 소버린 AI 확산

공공부문 인공지능 전환(AX) 시장이 본격 열리는 가운데, 활용도 높은 서비스를 잇달아 구축한 AI·클라우드 매니지드(MSP) 기업 클라비가 업계 주목을 받고 있다. 데이터 기반 행정·대민 서비스에 생성형 AI를 접목하며 소버린 AI 확산 흐름에서 존재감을 키우는 모습이다. 14일 클라비에 따르면 회사는 생성형 AI를 적용한 '소상공인 365' 서비스를 지난달 말 개시했다. 클라비는 생성형 AI와 클라우드 전문기업으로, 민간·공공 영역에서 데이터 활용을 쉽게 하고 현장 실무에 바로 적용 가능한 형태의 생성형 AI 서비스를 구현하는 데 집중하고 있다. 특히 단순 개념검증(PoC)을 넘어 실제 서비스 론칭 사례를 빠르게 확보해가고 있다. 회사는 네이버클라우드 '하이퍼클로바 X'를 기반으로 공공분야 생성형 AI 서비스를 구축·제공해온 결과, 네이버클라우드가 전략적 지분 투자를 단행했다. 기술보증기금(KIBO)에서도 지분 투자를 했으며 공공부문에서 쌓은 기술력과 사업 신뢰도를 바탕으로 AI·클라우드 전환 프로젝트를 확대 중이다. 최근 클라비가 개시한 소상공인 365는 예비창업자 및 소상공인을 위한 데이터 기반 경영지원 플랫폼에 생성형 AI 기능을 결합한 서비스다. 64개 공공·민간 데이터를 수집하고 이를 22종으로 융합해 빅데이터 기반 상권분석, 가게 경영진단, 상권·시장 트렌드, 정책 가이드 등 다양한 정보를 통합 제공함으로써 데이터 기반 경영 의사결정을 지원한다. 이용자가 자연어로 질문하면 조건에 맞는 지원사업과 관련 정보를 안내하는 등 소상공인 시장을 겨냥한 편리하고 접근성 높은 생성형 AI 활용 모델을 구체화한 것으로 평가된다. 클라비는 자사 경쟁력이 단일 서비스 구축 역량을 넘어 생성형 AI와 클라우드 네이티브를 기반으로 한 다층적 사업 포트폴리오에 있다는 설명이다. 컨설팅을 시작으로 클라우드 전환·운영, 서비스형 소프트웨어(SaaS) 솔루션, AI SaaS, 산업 특화 생성형 AI로 확장되는 구조를 갖춘 AI·클라우드 통합 플랫폼 기업으로 거듭난다는 목표다. 특히 ▲머신러닝 운영관리(MLOps) 플랫폼 ▲SaaS 빌더 X ▲검색증강생성(RAG) 어시스턴트 솔루션 '클라리오' ▲RAG 평가 솔루션 '클라리오-에바' ▲디지털 전환 및 클라우드 관리 플랫폼 솔루션 등 자체 개발한 5대 핵심 기술 솔루션을 보유 중이다. 이를 기반으로 공공·교육·산업 전반에서 생성형 AI 실질적 적용과 확산을 추진 중이다. 클라비는 공공과 민간 시장을 각각 다른 방식으로 공략하는 이원화 전략을 내세우고 있다. 공공 부문에서는 소버린 AI 기반으로 행정·정책 특화 AI를 구축하고 보안·감사·망분리 기준을 충족하는 공공 전용 AI 플랫폼을 마련해 기관 단위 장기 계약 및 구독 모델로 확산한다는 구상이다. 민간 부문에서는 기업 생산성과 수익성에 초점을 맞춰 SaaS 기반 AI 서비스를 확대하고 산업별 AI SaaS 패키지와 구독·사용량 기반 과금 모델, 파트너·마켓플레이스 확장을 통해 빠르게 시장을 키우는 전략을 추진한다. 중장기적으로는 2030년까지 산업 특화 생성형 AI 모델을 축적해 AI 구축부터 플랫폼 전환, 구독형 서비스 확산, 생태계 완성 단계로 이어지는 성장 구조를 확장한다는 목표다. 안인구 클라비 대표는 "소버린 AI 기반 생성형 AI로 공공·민간 데이터 활용을 쉽게 하고 행정·대민 서비스 현장에 적용 가능한 AI로 공공 AX를 적극 지원하겠다"고 밝혔다.

2026.01.14 11:23한정호 기자

정부, 독파모 1차 평가에 개별 벤치마크 추가…"모델별 성능 본다"

정부가 '독자 인공지능(AI) 파운데이션 모델 프로젝트' 1차 결과를 앞두고 새 평가 방식을 도입했다. 14일 업계에 따르면 과학기술정보통신부는 기존 13개 공통 벤치마크에 기업별 개별 벤치마크 2종을 평가에 추가 적용한다. 공통 벤치마크는 전문지식, 추론, 코딩, 한국어 특화 등 거대언어모델(LLM) 기본 성능을 평가하는 지표들로 구성됐다. 모든 참여 모델은 이 13개 항목을 동일한 기준으로 검증받는다. 여기에 각 기업이 개발한 모델의 특성을 반영할 수 있도록 개별 벤치마크가 더해졌다. 텍스트 기반 LLM뿐 아니라 이미지, 문서, 음성 등 다양한 입력을 처리하는 멀티모달·옴니모달 모델 성능도 평가하기 위한 취지다. 현재 정예팀인 네이버클라우드는 시각 정보 질의응답(Text VQA)과 문서 기반 질의응답(DocVQA)을 개별 벤치마크로 제출한 것으로 알려졌다. 다른 기업들도 각자의 모델 특성에 맞는 지표를 개별 벤치마크로 제시한 것으로 전해졌다. 현재까지 공통 벤치마크 기준에서는 LG AI연구원 'K-엑사원' 13개 항목 중 10개에서 1위를 기록했다. 개별 벤치마크 결과는 공통 지표와 종합 평가에 반영된다. 과기정통부는 현재 1차 평가를 마무리하고 있다. 공통 성능과 모델별 특화 역량을 고려해 4개팀을 선별한다. 이번 1차 평가 결과는 15일 전후 공개된다.

2026.01.14 10:12김미정 기자

우정사업본부, 민간 클라우드 도입 추진…공공 전환 신호탄 될까

우정사업본부가 지난해 국가정보자원관리원(국정자원) 화재로 촉발된 공공 전산 인프라 위기 이후 대국민 서비스를 민간 클라우드로 전환하는 방안을 본격 추진한다. 우편·금융 등 국민 생활과 직결된 핵심 시스템을 '액티브-액티브' 방식으로 분산 운영해 장애 대응력을 높인다는 구상으로, 공공부문 민간 클라우드 전환 논의에도 속도가 붙을지 주목된다. 우정사업본부는 지난 13일 과학기술정보통신부에 이같은 내용을 담은 올해 업무계획을 보고했다. 우정사업본부는 올해 우편 서비스와 우체국쇼핑몰 등 국민 생활과 밀접한 서비스 기반을 민간 클라우드로 전환하겠다는 방침을 공식화했다. 이는 지난해 국정자원 화재로 핵심 서비스가 대규모로 마비된 제2의 국정자원 사태를 막기 위한 선제 조치로 풀이된다. 당시 화재로 인해 우편·은행 서비스가 일시 중단되는 등 국민 불편이 확산되면서 공공 디지털 인프라의 구조적 취약성이 드러났다는 평가가 이어졌다. 특히 일부 핵심 시스템이 특정 센터에 집중된 구조 속에서 재난 대응을 위한 복수 시스템 운영과 트래픽 분산 체계가 미흡했다는 지적이 나왔다. 이번 우정사업본부의 민간 클라우드 전환 구상은 국가인공지능(AI)전략위원회 논의 흐름과도 맞물려 있다. 국가AI전략위원회가 지난달 공개한 '대한민국 AI 행동계획(안)'에는 공공 정보화 사업을 민간 클라우드 중심으로 전환하겠다는 방향성이 담겼다. 민간 클라우드 이용을 제한해 온 법·제도 전반을 점검하고 단계적 전환 계획을 마련하라는 정책 권고가 포함되면서 공공 전환 흐름이 권고를 넘어 제도화 단계로 가고 있다는 분석이 나온다. 행동계획안에 따르면 행정안전부·과기정통부·국가정보원은 공공기관의 민간 클라우드 활용을 저해하는 법·제도를 정리하고 개선안을 마련해야 한다. 행안부에는 내년 2분기까지 공공 정보화 사업의 민간 클라우드 전환 계획을 수립하라는 권고도 내려졌다. 우정사업본부 역시 단순 이전이 아닌, 장애 대응력을 높이기 위한 운영 구조까지 함께 재설계하겠다는 전략을 세웠다. 우정사업본부는 여러 시스템이 동시에 운영되며 부하를 분산 처리하는 액티브-액티브 기반 서비스를 목표로 잡았으며 이를 통해 대국민 서비스의 재난 대응력을 높이겠다는 구상이다. 또 인프라 전환 방향을 구체화하는 동시에, 향후 사업 발주와 예산 편성까지 이어질 수 있는 내부 로드맵 마련에 착수한다는 목표다. 곽병진 우정사업본부장 직무대리는 "민간 클라우드로 전환이 추진되는 국가 서비스에는 우체국 쇼핑·우편 등의 시스템도 포함됐고 올해 관련된 정보전략계획(ISP)을 추진할 계획"이라고 밝혔다. 다만 현장에서는 공공부문 민간 클라우드 전환이 속도를 내기 위해선 규제 정비가 선행돼야 한다는 지적이 나온다. 대표적으로 과기정통부의 클라우드 보안인증(CSAP)과 국정원의 보안성 검토가 동시 적용되는 이중 규제 구조가 공공 시장 진입 장벽으로 작용하고 있다는 설명이다. 국내 클라우드 업계 관계자는 "향후 제도 정비 속도와 부처 간 역할 조정이 공공부문 민간 클라우드 전환과 확산의 핵심 변수가 될 것"이라며 "클라우드 전환이 선언에 그치지 않으려면 보안·조달·책임 체계까지 함께 손질해 정책 실행력을 높여야 한다"고 강조했다.

2026.01.14 10:10한정호 기자

HPE "AI 네이티브 전환 확산…인프라 경쟁력 기준 달라진다"

인공지능(AI)이 데이터센터와 네트워킹 인프라의 설계·운영 방식 전반을 재편하면서 향후 인프라 경쟁력 기준 역시 근본적으로 달라질 것이란 전망이 나왔다. AI를 중심으로 한 자동화·자율화 흐름이 본격화되며 데이터센터는 물론 네트워크 운영과 인력 역할까지 구조적 전환이 불가피하다는 분석이다. 13일 HPE가 발표한 올해 데이터센터 및 네트워킹 인프라 분야 주요 전망에 따르면 데이터센터와 네트워킹 인프라는 올해를 기점으로 AI 네이티브 구조로 빠르게 전환될 것으로 전망된다. 워크로드 배치, 장애 예측, 성능 최적화는 물론 에너지 효율 관리와 전력 비용 협상까지 AI가 지원하는 폐쇄형 루프 운영 모델이 확산되며 수동 개입 중심 기존 운영 방식은 점차 한계를 드러낼 것으로 예상된다. 특히 데이터센터 영역에서는 엣지와 AI 결합이 가속화되면서 마이크로 하이퍼스케일러가 새로운 인프라 모델로 부상할 것으로 전망했다. 고속 이더넷과 AI 추론 가속기, 자율 운영 기술을 기반으로 한 소규모 데이터센터가 지역 단위에서 중앙 클라우드 워크로드를 분산 처리하며 엣지는 단순한 보조 인프라를 넘어 전략적 수익 창출 거점으로 역할이 확대될 것으로 분석했다. 네트워크 구조 역시 AI 학습과 추론에 최적화된 방향으로 재편될 것으로 보인다. HPE는 올해 이후 데이터센터 설계 출발점이 컴퓨트가 아닌 네트워크 패브릭이 될 것으로 내다봤다. 조 단위 파라미터 모델 확산과 함께 개방형 고성능 이더넷 기반 AI 패브릭 수요가 증가하면서 네트워크는 애플리케이션을 인지하고 실시간으로 적응하는 지능형 구조로 진화할 것이란 전망이다. 이더넷 자율화도 주요 변화로 꼽혔다. AI 텔레메트리를 내장한 스위치 ASIC을 통해 혼잡 제어와 전력 효율 최적화가 자동으로 이뤄지고 의도 기반 네트워킹은 패브릭 스스로 학습·예측·교정하는 형태로 구현될 것이란 설명이다. 이에 따라 복잡한 CLI 중심의 네트워크 운영 방식은 점차 사라질 것으로 예상했다. 보안 역시 네트워크 패브릭의 기본 요소로 내재화될 것으로 전망했다. 모든 패킷과 포트, 프로세스에 신뢰 점수를 부여하고 분산형 AI 엔진이 이를 실시간 검증하는 구조가 확산되면서 제로 트러스트 데이터센터가 기본 설계 기준으로 자리 잡을 것이란 분석이다. 무선 네트워크 분야에서는 AI 운영관리(Ops)가 핵심 운영 요소로 부상할 것으로 보인다. HPE는 복잡해진 무선 환경에서 AI 기반 운영 없이는 안정적인 네트워크 품질 유지가 어려워질 것으로 내다봤다. AI가 혼잡을 예측하고 RF 동작과 채널 구성을 자동 최적화하면서 기존 수동 튜닝 중심 운영 방식은 점차 사라질 것이란 설명이다. HPE는 에이전틱 AI를 기반으로 한 LAN의 역할 변화도 주목했다. LAN은 단순히 장애를 복구하는 수준을 넘어 사용자 경험을 사전에 예측하고 선제적으로 최적화하는 경험 엔진으로 진화한다는 전망이다. 스위치와 액세스 포인트에 내장된 AI 에이전트가 사용자 행동과 서비스 수요를 분석해 성능 저하를 체감하기 전에 문제를 해결하는 구조가 확산될 것으로 분석했다. 이와 함께 유선·무선·WAN을 넘어 컴퓨트와 스토리지를 아우르는 풀스택 통합 운영이 기본값으로 자리 잡을 것이라고 밝혔다. 기업들은 단일 운영 프레임워크와 공통 AI 거버넌스 하에서 전체 인프라를 관리할 수 있는 환경을 요구하게 되며 경쟁력 기준도 개별 제품 성능이 아닌 통합된 시스템 완성도로 이동할 것이란 전망이다. 인력 측면에서도 변화가 예상된다. HPE는 네트워크 엔지니어 역할이 단순 설정·운영 중심에서 AI 코파일럿과 협업하는 전략적 역할로 진화할 것으로 내다봤다. 생성형 AI가 1차 운영과 장애 대응을 담당하면서 엔지니어는 대규모 자동화를 설계·검증하고 AI를 오케스트레이션하는 역할에 집중하게 될 것이란 설명이다. HPE는 "올해 데이터센터와 네트워킹 인프라는 개별 기술의 집합이 아닌, AI를 중심으로 단일 유기체처럼 동작하는 구조로 진화할 것"이라며 "성공적인 기업은 풀스택 인프라를 단일한 경험으로 제공할 수 있는 전략을 선택하게 될 것"이라고 강조했다.

2026.01.13 15:14한정호 기자

메가존클라우드·베스핀글로벌, 오픈AI 파트너십 논의…AI 선도기업 가속

메가존클라우드와 베스핀글로벌이 오픈AI와 파트너십 확보를 위해 기반 작업을 진행 중이다. 양사는 아직 계약이 최종 확정된 단계는 아니라고 신중함을 보이고 있다. 다만 이번 협력을 발판 삼아 올해 인공지능(AI) 클라우드 선도 기업 역량을 강화하겠다는 청사진을 제시했다. 13일 관련업계에 따르면 메가존클라우드와 베스핀글로벌은 오픈AI 국내 공식 리셀러 및 파트너 자격을 획득하기 위해 각각 논의를 진행 중이다. 이번 계약은 기존 클라우드 인프라 운영·관리 중심이었던 사업 모델을 AI 중심으로 재편하려는 전략적 판단에서 비롯됐다. 단순 재판매를 넘어 기업의 AI 전환(AX)을 이끄는 핵심 파트너로 자리 잡겠다는 것이다. 메가존클라우드 관계자는 "내부적으로 AI 클라우드 리딩 기업 정체성을 강화하는 것을 올해 목표로 삼고 있다"며 "AI가 거스를 수 없는 대세가 된 만큼 시장에서 가장 확실한 존재감을 가진 오픈AI와 협력은 필수적인 수순"이라고 설명했다. 이미 구글 클라우드(GCP)와 협력을 통해 제미나이 등 다양한 모델을 서비스 중인 메가존클라우드는 오픈AI까지 라인업에 추가해 고객 맞춤형 멀티 대규모언어모델(LLM) 환경을 제공하겠다는 복안이다. 베스핀글로벌 역시 올해를 AI 클라우드 기업으로 거듭나는 해로 정의하고 역량을 집중하고 있다. 오픈AI와의 협력을 바탕으로 AI MSP 서비스의 기술 경쟁력을 높이고, 다양한 산업군에 생성형 AI 도입을 확산시키겠다는 계획이다. 베스핀글로벌 관계자는 "연말연초 오픈AI 측의 휴무 등으로 잠시 논의가 숨 고르기에 들어갔었으나, 최근 미팅을 재개하고 파트너십 논의를 이어가고 있다"고 전했다. 업계에서는 이번 파트너십이 성사될 경우 파급력이 상당할 것으로 보고 있다. 오픈AI가 보유한 AI서비스에 국내 MSP 기업이 보유한 기업간 거래(B2B) 영업망과 기술 지원 노하우가 결합하면 강력한 시너지가 예상되기 때문이다. 오픈AI 입장에서도 1차로 계약한 삼성SDS를 통한 엔터프라이즈 시장 공략에 이어 MSP와 협력을 통해 중소·중견기업 및 스타트업 생태계를 진출에 박차를 가할 것이란 분석이다. 다만 양사는 최종 계약 시점에 대해서는 말을 아꼈다. 메가존클라우드 측은 "논의가 상당히 진척된 것은 맞지만 계약이 최종 성사되는 시점에 맞춰 공식 발표를 할 예정"이라고 밝혔다. 베스핀글로벌 측 또한 "아직 논의가 진행 중인 과정으로, 세부 조건이 확정되기 전까지는 신중하게 접근하고 있다"고 덧붙였다.

2026.01.13 11:29남혁우 기자

"AI 확산에 데이터센터 투자, 2030년까지 3조 달러 몰린다"

인공지능(AI)과 클라우드 확산으로 글로벌 데이터센터 산업에 향후 수년간 천문학적인 자금이 투입될 전망이다. 서버와 전산 장비는 물론 데이터센터 시설, 전력 인프라까지 대규모 투자가 불가피하다는 분석이 나왔다. 13일 신용평가기관 무디스에 따르면 전 세계 데이터센터 관련 투자 규모는 2030년까지 최소 3조 달러(약 4천411조원)에 이를 것으로 예상된다. 무디스는 최근 보고서를 통해 AI와 클라우드 컴퓨팅 수요 확대를 뒷받침하기 위해 서버, 컴퓨팅 장비, 데이터센터 시설, 신규 전력 설비 전반에 걸쳐 막대한 자본 투입이 필요하다고 밝혔다. 투자 자금 상당 부분은 빅테크 기업들이 직접 부담할 것으로 전망된다. 무디스는 마이크로소프트(MS)·아마존·알파벳·오라클·메타·코어위브 등 미국 내 6개 하이퍼스케일러가 올해 데이터센터 투자에만 약 5천억 달러(약 735조원)를 집행할 것으로 내다봤다. 데이터센터 용량 확장이 지속되는 가운데 이를 운영하기 위한 전력 수요 역시 빠르게 증가하고 있다는 설명이다. 자금 조달 측면에서는 은행권의 역할이 여전히 핵심을 차지하는 한편, 대규모 자본 수요에 대응해 기관투자가들의 참여도 확대될 것으로 분석됐다. 향후 은행과 함께 다른 기관투자가들이 공동으로 금융을 제공하는 사례가 늘어날 것이라는 전망이다. 또 무디스는 미국 내 데이터센터들이 차환 시점에 자산유동화증권(ABS), 상업용 부동산담보부증권(CMBS), 프라이빗 크레딧 시장을 보다 적극적으로 활용할 가능성이 높다고 봤다. 올해 기록적인 자금 발행 이후 신규 금융 규모와 집중도가 더 커질 것으로 예상됐다. 실제 미국 ABS 시장에서는 지난해 약 150억 달러(약 22조원)가 발행된 만큼, 데이터센터 건설 대출을 중심으로 올해 발행 규모가 크게 증가할 것으로 전망했다. AI 확산을 뒷받침하기 위해 필요한 막대한 부채 규모를 두고 일각에서는 거품 우려도 제기되고 있다. 일부 기술이 기대에 못 미칠 경우 주식 및 신용 투자자들에게 부정적인 영향을 미칠 수 있다는 지적이다. 다만 무디스는 신규 데이터센터 건설 수요가 둔화될 조짐은 보이지 않는다고 평가했다. 무디스는 데이터센터 증설 경쟁이 아직 초기 단계에 있으며 향후 12~18개월 동안 글로벌 시장에서 성장세가 이어질 것으로 내다봤다. 장기적으로는 향후 10년 내 필요한 용량을 확보하기 위한 투자가 지속될 것이라는 분석이다. 무디스 존 메디나 수석 부사장은 "불과 3년 전만 해도 존재하지 않았던 챗GPT와 같은 서비스가 이제는 막대한 연산 자원을 사용하고 있다"며 "신기술 등장 속도가 빨라 향후 채택 속도를 정확히 예측하기는 어렵지만, 데이터센터 용량 증설은 결국 필요해질 것"이라고 말했다.

2026.01.13 11:20한정호 기자

[AI 리더스] 신현석 투라인클라우드 공동대표 "MSA 기술로 AI 도입·확산 조력자 될 것"

"AI를 '말하는 기술'이 아니라, 기업에서 실제로 '일하게 만드는 기술'로 구현하는 최고의 파트너가 되겠습니다." 신현석 투라인클라우드 공동대표는 13일 서울 강남 사옥에서 지디넷코리아와 만나 이같은 포부를 밝혔다. 그는 많은 기업이 AI 도입을 추진하는 가운데, 투라인클라우드가 보유한 마이크로서비스 아키텍처(MSA) 역량을 앞세워 기존 IT 구조를 AI·클라우드 친화적으로 재설계하고 고객 업무 환경에 안정적인 안착을 지원한다는 목표다. 신 대표는 마이크로소프트(MS)와 아마존웹서비스(AWS), SK C&C(현 SK AX) 등 국내외 주요 IT 기업에서 클라우드 사업과 파트너 전략을 이끌어온 인물이다. 이후 스마일게이트 베트남 법인장을 맡아 현지 법인 설립과 사업 안착을 주도하며 아시아 시장 경험을 쌓았다. 최근 투라인클라우드에 공동대표로 합류해 중장기 성장 전략과 글로벌 확장을 이끌고 있다. AI 도입 최대 장벽 '레거시'…MSA로 해결한다 신 대표는 현재 기업들이 AI 도입에 어려움을 겪는 가장 큰 이유로 레거시 시스템과 AI 사이의 단절을 꼽았다. AI 자체에 대한 관심은 높지만, 기존 시스템과 어떻게 연결해야 할지에 대한 해법이 부족하다는 것이다. 그는 "대부분 기업 시스템은 여전히 모놀리식 구조에 묶여 있다"며 "이 상태에서는 새로운 AI 기술이 나와도 실제 업무에 적용하기가 쉽지 않다"고 지적했다. 단순 챗봇이나 시범 사업 수준을 넘지 못하는 사례가 반복되는 배경도 이 때문이라는 설명이다. 투라인클라우드는 이 문제를 AI 연결 구조라는 관점에서 접근 중이다. 기존 레거시 시스템을 유지한 채 AI를 안전하게 연결할 수 있는 중간 계층을 MSA와 클라우드를 기반으로 먼저 구축하는 방식이다. 신 대표는 "AI 도입을 위해 시스템을 전면 개편하기보다는 단계적 전환을 하는 것이 비용과 리스크를 동시에 줄일 수 있다"며 "변화가 잦거나 트래픽이 많은 영역부터 점진적으로 마이크로서비스로 전환함으로써 AI 도입과 이후 성과를 만드는 것이 현실적인 전략"이라고 말했다. 이같은 접근은 공공과 금융 시장에서도 유효하다고 봤다. 보안과 안정성이 중요한 산업일수록 통제 가능한 AI 도입과 점진적 MSA 전환이 필요하다는 설명이다. 이에 투라인클라우드는 ▲AI 자동화 플랫폼 '투라코' ▲MSA 전환을 지원하는 'MSAP.ai' ▲DaaS 기반 스마트워크 솔루션 '하이퍼덱스'를 통해 기업 AI 실행 환경 구축을 전방위적으로 지원하고 있다. 공동대표 체제·사옥 통합…조직 실행력 강화 신 대표 합류와 함께 투라인클라우드는 공동대표 체제와 강남 사옥 통합 이전을 동시에 추진하며 조직 실행력을 강화했다. 이를 통해 전략과 실행이 분리되지 않는 구조를 만들겠다는 구상이다. 공동대표 체제에서 기존 현승엽 대표는 재무 안정성과 조직 운영, 기술 실행의 안정성을 책임지고 신 대표는 사업·영업·인사를 총괄하며 시장 확장과 글로벌 전략에 집중한다. 여기에 최근 서울 강남으로 사옥을 통합 이전하면서 분산돼 있던 개발·영업·운영 조직이 한 공간에서 협업하는 구조를 갖췄다. 기술 개발부터 고객 대응, 파트너 협업까지 의사결정과 실행 속도를 높이기 위한 물리적 기반을 마련했다. 그간 현 대표가 클라우드 네이티브와 MSA 기반 기술 역량을 탄탄하게 구축해온 만큼, 신 대표는 이를 바탕으로 한 파트너 생태계 확장과 해외 진출 등 스케일아웃 전략에 집중한다. 특히 사옥 통합 이전 후 AI 자동화 플랫폼과 MSA, DaaS 솔루션·영업 조직을 하나의 기술 흐름으로 묶어 시너지를 창출한다는 목표다. 신 대표는 "전사 조직이 한 공간에 모이면서 기술과 사업 전략이 현장에서 바로 맞물려 돌아가는 구조가 만들어졌다"며 "빠른 판단과 안정적인 실행의 균형을 이룰 것"이라고 설명했다. 올해 핵심 전략은 파트너십…시장 확장 속도 높인다 신 대표는 올해 투라인클라우드가 추진할 핵심 전략으로 파트너십 확대를 꼽았다. AI와 MSA 전환 수요가 빠르게 늘어나는 상황에서 다양한 산업과 고객 환경에 보다 신속하게 대응하기 위해 파트너와 함께 성장하는 구조가 필요하다는 판단에서다. 신 대표는 "AI와 MSA 전환은 특정 산업이나 고객군에 국한되지 않고 전방위적으로 확산되고 있다"며 "파트너와 함께 사업을 확장해야 더 많은 고객에게 빠르게 가치를 전달할 수 있다"고 말했다. 파트너가 투라인클라우드가 보유한 솔루션을 기반으로 직접 사업을 수행하고 각자 강점을 결합해 시장을 키우는 구조를 만들겠다는 설명이다. 이를 위해 투라인클라우드는 파트너 전략 전담 조직을 구성하고 공동 사업 모델과 수익 분배 구조를 정비할 방침이다. 단발성 프로젝트 중심 협업이 아닌 반복 가능한 사업과 구독형 수익으로 이어질 수 있는 구조를 만드는 데 초점을 맞췄다. 이같은 파트너 전략은 국내 시장에만 국한되지 않는다. 한국에서 검증한 사업 모델을 해외 시장으로 확산한다는 목표다. 현지 CSP와 로컬 파트너를 중심으로 일본과 베트남, 인도네시아 등 아시아 시장에서 동일한 사업 구조를 단계적으로 적용할 계획이다. 신 대표는 "국내에서 축적한 기술과 사업 경험을 파트너와 함께 확산시키는 것이 글로벌 전략의 핵심"이라며 "파트너십 전략은 우리와 파트너의 성장을 가속하는 동시에 클라우드·MSA·AI 시장 전체를 키우는 동력이 될 것"이라고 강조했다. "AI 도입 고민, 앞장서 해결하는 회사 되겠다" 신 대표는 투라인클라우드의 중장기 비전을 기업 AI 도입의 출발점이 되는 회사로 정의했다. AI를 도입해야 한다는 공감대는 형성됐지만, 어디서부터 어떻게 시작해야 할지 명확한 답을 찾지 못한 기업들에게 현실적인 출발점과 실행 경로를 제시하겠다는 포부다. 이를 위해 투라인클라우드는 기존 SI 중심 사업 구조에서 벗어나 플랫폼·구독 기반 모델로의 전환을 추진하고 있다. AI를 기존 시스템과 연결하는 플랫폼을 중심으로 AI 에이전트가 실제로 업무를 수행할 수 있는 실행 환경과 DaaS 기반 업무 환경을 결합해 기업 AI 전환을 단계적으로 지원한다는 전략이다. 특히 지속적으로 활용되고 확장 가능한 구조를 만드는 데 초점을 맞췄다. 아시아 시장 공략을 위한 준비도 본격화한다. 한국에서 축적한 기술과 사업 경험을 바탕으로 베트남과 일본, 인도네시아를 중심으로 현지 파트너 및 CSP와 협력해 동일한 사업 모델을 단계적으로 확산할 계획이다. 국내에서 검증한 구조를 현지 환경에 맞게 적용해 재현성을 높인다는 방침이다. 신 대표는 "많은 기업이 AI 전환의 필요성을 인식하고 있지만, 이를 장기적인 성과로 연결하는 과정에서는 여전히 구조적인 과제가 존재한다"며 "레거시 시스템 중심 모놀리식 구조에서는 새로운 기술을 유연하게 적용하고 반복적으로 개선하는 데 한계가 있다"고 설명했다. 이어 "이러한 한계를 MSA와 클라우드 기술력으로 해소하는 것이 우리가 지향하는 역할"이라며 "AI를 도입하려는 기업들이 어떻게 추진해야 할지 고민할 때, 가장 먼저 앞장서서 돕는 회사가 되겠다"고 강조했다.

2026.01.13 10:49한정호 기자

MS, 공공 SaaS 진입 가시화되나…업계 "외산 솔루션 확산은 아직 더뎌"

마이크로소프트(MS)가 '마이크로소프트 365(M365)'의 공공 서비스형 소프트웨어(SaaS) 시장 진입을 추진하는 것으로 알려지며 업계의 관심이 쏠리고 있다. 다만 외산 SaaS는 제도적 진입과 달리 공공부문에서 실질적인 확산까지는 상당한 시간이 필요할 것이라는 관측이 제기된다. 12일 업계에 따르면 MS는 M365에 대해 한국인터넷진흥원(KISA) 클라우드 안인증(CSAP) '하' 등급 취득을 목표로 관련 절차를 진행 중인 것으로 전해졌다. 이를 취득할 시 MS는 글로벌 빅테크 가운데 처음으로 공공 SaaS 시장 진입을 본격 추진하게 된다. M365는 엑셀·워드·파워포인트 등 오피스 제품군과 협업 도구를 구독 형태로 제공하는 대표적인 글로벌 SaaS다. CSAP 하 등급을 획득할 경우 논리적 망분리 환경에서도 공공기관 도입이 가능해져 공공 업무 환경 변화 가능성도 거론된다. 다만 업계에서는 제도적 요건 충족이 곧바로 시장 확산으로 이어지지는 않을 것으로 보고 있다. 이미 아마존웹서비스(AWS), 구글 클라우드, MS 애저 등 외산 클라우드 서비스들이 인프라(IaaS) 영역에서 인증과 조달 등록을 마쳤지만, 공공부문에서 뚜렷한 실적으로 이어진 사례는 제한적이라는 이유에서다. 특히 SaaS는 공공기관 업무 데이터가 외부 서비스에 직접 연동되는 구조인 만큼, IaaS보다 보안과 책임 소재에 대한 부담이 크다는 평가다. 이로 인해 외산 SaaS의 공공 도입은 제도적 허용 이후에도 속도 조절이 불가피하다는 분석이 나온다. 국내 클라우드 업계 관계자는 "애저나 구글 클라우드 플랫폼(GCP) 등 주요 IaaS 서비스가 조달 등록과 디지털서비스몰 입점까지는 일부 이뤄졌지만, 실제 수주나 활용 사례는 아직 거의 없는 상황"이라며 "M365가 SaaS 영역에서도 하 등급을 받더라도 유사한 흐름을 겪을 가능성이 크다"고 말했다. MS가 SaaS 하 등급 인증을 추진하는 배경에는 앞서 애저가 IaaS 하 등급을 획득하며 공공 시장 진입의 제도적 기반을 마련한 점이 영향을 미친 것으로 풀이된다. 업계에서는 MS가 당시 함께 신청했던 SaaS 인증 절차가 최근 다시 속도가 붙은 것이라는 해석도 나온다. MS와 KISA는 이번 사안에 대해 구체적인 확인이 어렵다는 입장이다. 신청 여부와 심사 단계, 일정 모두 공개되지 않았다. 업계 관계자는 "외산 솔루션이 공공 시장에서 의미 있는 확산을 이루려면 인증보다 더 중요한 것은 실제 적용 사례와 신뢰"라며 "M365 역시 제도적 문이 열리더라도 공공 현장에서 본격적으로 자리 잡기까지는 꽤 오랜 시간이 걸릴 것"이라고 전망했다.

2026.01.12 18:29한정호 기자

몬드리안에이아이, '네오클라우드' 사업 출사표…포스트매스와 AI 에듀테크 고도화

몬드리안에이아이가 글로벌 인공지능(AI) 시장 새 패러다임인 '네오클라우드' 사업에 본격 나섰다. 몬드리안에이아이는 포스트매스와 손잡고 AI 에듀테크 플랫폼 고도화를 위한 전략적 파트너십을 체결했다고 12일 밝혔다. 몬드리안에이아이는 이번 파트너십을 통해 최신 엔비디아 그래픽처리장치(GPU)인 B300 클러스터를 구축하고 이를 기반으로 한 차세대 네오클라우드 서비스를 선보인다. 네오클라우드는 기존 범용 퍼블릭 클라우드와 달리, 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스다. 몬드리안에이아이는 자사 AI 플랫폼 '런유어 AI'와 첨단 GPU 자산을 결합해 포스트매스와 같은 딥테크 기업이 인프라 제약 없이 혁신을 주도하도록 지원하는 네오클라우드 서비스 공급자로서 입지를 공고히 할 계획이다. 몬드리안에이아이 네오클라우드 인프라는 포스트매스가 추진하는 AI 기반 에듀테크 플랫폼 고도화를 뒷받침하는 핵심 엔진 역할을 수행할 전망이다. 포스트매스는 몬드리안에이아이 B300 인프라를 활용해 자체 AI 모델 개발과 400만 개 이상 데이터베이스(DB)를 활용한 AI 학습·자동화 솔루션 개발에 적용할 예정이다. 이는 포스트매스가 첨단 AI 인프라 확보를 통해 교육 솔루션 완전 자동화와 글로벌 확장을 앞당기고자 하는 적극적 투자 전략이다. 몬드리안에이아이는 네오클라우드 사업 핵심인 매니지드 서비스 역량을 집중 투입한다. B300 하이엔드 GPU 운영에 필수적인 고밀도 전력 및 냉각 시스템, 머신러닝 운영관리(MLOps) 기술력을 바탕으로 포스트매스 연구진이 인프라 관리 부담 없이 AI 모델 연구와 서비스 혁신에만 몰입할 수 있는 환경을 제공한다는 방침이다. 이와 함께 몬드리안에이아이는 고성능 인프라 확보와 안정적인 운영 환경 구축에 어려움을 겪는 기업 및 연구기관을 대상으로 AI 인프라 전략 컨설팅을 상시 운영한다. 차세대 추론형 AI 모델 개발을 위해 고성능 연산 자원이 필요한 고객사를 대상으로 전문 매니지드 서비스를 제공해 인프라 구축부터 최적화까지 원스톱 솔루션을 지원할 계획이다. 홍대의 몬드리안에이아이 대표는 "이번 협력은 우리가 표방하는 네오클라우드 비즈니스의 본격적인 출발점"이라며 "포스트매스가 주도하는 에듀테크 플랫폼 솔루션 혁명이 성공적으로 안착할 수 있도록 독보적인 인프라 기술력을 총동원하겠다"고 밝혔다. 최준호 포스트매스 대표는 "올해는 우리가 운영하는 AI 콘텐츠 제작 플랫폼 '수학비서'가 글로벌 에듀테크 플랫폼으로 약진하는 시발점이 될 것이기에 그 어느 때보다 AI 인프라가 중요한 시점"이라며 "몬드리안에이아이와의 파트너십이 좋은 선례가 될 것으로 기대하며 상호 보완 및 협력 사업 발굴에 적극 임할 것"이라고 말했다.

2026.01.12 17:00한정호 기자

'K-AI' 주도권 잡을 4개 정예팀은…정부, 첫 심사 발표 임박

정부가 이번 주 '독자 인공지능(AI) 파운데이션 모델 프로젝트' 첫 심사 결과 발표를 앞둔 가운데 공정 심사 여부와 첫 탈락팀에 대한 이목이 쏠리고 있다. 12일 IT 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 오는 15일 전후로 독자 AI 모델 1차 평가 결과를 발표할 예정인 것으로 알려졌다. 정부는 지난주부터 각 컨소시엄이 제출한 모델 성능과 효율성을 검토하면서 최종 선별 작업을 진행 중인 것으로 전해졌다. 현재 정예팀은 네이버클라우드와 NC AI, 업스테이지, SK텔레콤, LG AI연구원이다. 정부는 15일 전후로 여기서 4팀만 선별한다. 네이버클라우드는 텍스트·이미지·오디오 등 서로 다른 데이터를 단일 모델서 처리하는 옴니 파운데이션 모델 '네이티브 옴니모델(HyperCLOVA X SEED 8B Omni)'과 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 '고성능 추론모델(HyperCLOVA X SEED 32B Think)'을 오픈소스로 공개했다. 해당 모델은 에이전트 AI와 버티컬 서비스 기반 기술로 활용될 계획이다. 이를 통해 소버린 AI 경쟁력을 강화하고 월드모델과 로보틱스, 자율주행 등 물리 세계 AI로 키울 방침이다. NC AI는 멀티모달 생성용 파운데이션 모델 '배키(VAETKI)'를 내세웠다. 배키는 토크나이저 어휘 20%를 한국어에 할당하고 고어까지 처리 가능한 한글 조합 기능을 갖췄다. 이를 통해 국내 산업현장에 최적화된 소버린 AI를 달성하겠다는 포부다. 업스테이지는 '솔라 오픈 100B'를 허깅페이스에 내놨다. 솔라 오픈은 중국 딥시크 R1과 오픈AI GPT-OSS-120B' 등 글로벌 경쟁 모델을 주요 벤치마크에서 앞선 것으로 나타났다. 특히 한국어, 영어, 일본어 등 다국어 평가에서 모델 크기 대비 우수한 성능을 보였다. 향후 국내 금융을 비롯한 법률, 의료, 공공, 교육 등 산업별 AI 전환 확산에 활용될 방침이다. SK텔레콤은 한국형 소버린 AI 경쟁력 확보 목표로 '에이닷 엑스 K1'를 내놨다. 이 모델은 5천억 개 파라미터를 보유한 국내 첫 거대언어모델(LLM)이다. 웹 탐색과 정보 분석, 요약, 이메일 발송 등 여러 단계를 거치는 복합 업무를 자율적으로 수행할 수 있다. 향후 일상 업무뿐 아니라 제조 현장 데이터와 작업 패턴을 학습해 업무 효율을 높이는 데도 활용되는 것이 목표다. LG AI연구원은 'K-엑사원'을 공개했다. K-엑사원은 LG AI연구원이 지난 5년간 축적한 기술 바탕으로 하이브리드 어텐션 구조를 고도화해 설계됐다. 이를 통해 메모리 요구량과 연산량을 엑사원 4.0 대비 70% 줄이면서도 성능은 끌어올렸다. 해당 모델은 토크나이저 고도화, 멀티 토큰 예측 구조로 최대 26만 토큰의 초장문을 처리할 수 있다. 추론 속도도 기존 모델 대비 150% 높였다. A100급 그래픽처리장치(GPU) 환경에서도 구동 가능하다. 과기정통부 "평가 공정하게"…심사 기간은 연기 정부는 1차 발표를 앞두고 모델 평가 기간을 기존 일정보다 연장한 것으로 전해졌다. NIPA는 해당 사업에 참여하는 5개 팀에게 AI 모델 사이트를 지난 11일 자정까지 연장 운영해 달라고 요청한 것으로 확인됐다. 해당 사이트는 각 컨소시엄 모델 평가를 위해 전문 평가단이 확인할 수 있도록 구성된 플랫폼이다. 정예팀은 당초 지난 9일 오후 6시까지 사이트를 운영할 예정이었지만, 현재 정부 지침으로 약 56시간 연장한 것이다. NIPA는 해당 지침이 과기정통부 요청에 따른 것이라고 밝혔다. 과기정통부는 최근 사업 참여 컨소시엄에서 불거진 독자 기술력 논란과 모델 평가 기간 연장은 무관하다고 선 그은 것으로 알려졌다. 또 오는 15일 전후로 예정된 독자 AI 모델 선정 사업 1차 발표가 늦어질 가능성도 없다는 입장이다. 배경훈 부총리 겸 과기정통부 장관은 지난 8일 "독자 AI 파운데이션 모델 개발 프로젝트 평가는 객관적이고 공정하게 진행될 것"이라고 개인 소셜네트워크서비스(SNS)를 통해 밝혔다.

2026.01.12 15:21김미정 기자

이노그리드, 전국 6개 권역 지사 체계 전환…지역 클라우드 대응 강화

이노그리드가 지방 고객 확대와 지역별 클라우드 서비스 수요 증가에 박차를 가한다. 이노그리드는 전국 6개 권역 기반 지사 운영 체계로 전환하고 영업·기술지원 역량 강화를 중심으로 한 영업 확장 전략을 본격 추진한다고 12일 밝혔다. 이번 지사 체계 전환은 기존 수도권 중심 단일 운영 구조에서 벗어나 권역별 고객 대응 프로세스를 고도화하고 지역 특성에 맞춘 영업 전략을 단계적으로 확대해 전국 단위 B2B 고객 지원 역량을 강화하려는 조치다. 이노그리드는 이번 지사 체계 전환에 앞서 대표 직속 조직을 폐지하고 개발·사업·수행·BD·전략·경영 등 6개 그룹 체계로 조직을 재편하는 전사 조직개편을 단행했다. 각 그룹장 책임 아래 기능별 전문성과 의사결정, 실행력을 강화해 회사 전반의 사업 수행 효율과 운영 안정성을 높였다는 설명이다. 이같은 조직개편을 바탕으로 이노그리드는 전국을 ▲서울·강원 ▲인천·경기 ▲충청 ▲호남 ▲영남 ▲대구·경북 등 6개 권역으로 구분해 운영한다. 서울·강원과 인천·경기 권역은 기존과 같이 서울 본사를 중심으로 통합 대응하고 충청권에는 대전지사, 호남권에는 광주지사, 영남권에는 부산지사, 대구·경북 권역에는 대구지사를 운영한다. 이를 통해 전국 6개 권역, 4개 지사 기반의 전국 단위 클라우드 서비스 네트워크를 가동한다. 각 지사는 단순 영업 거점이 아닌 클라우드, 인공지능(AI) 인프라 구축, 재해복구(DR) 시스템 구축, 외산 솔루션 윈백, 전환 컨설팅, 서비스 운영 및 기술지원 등 클라우드 전문기업 역할을 수행하게 된다. 또 지역 내 공공기관 및 기업 고객을 대상으로 영업 활동과 지역별 특성·수요를 반영한 맞춤형 서비스를 제공한다. 지사 체계는 박홍선 상무가 총괄한다. 박홍선 리전 익스펜션 사업본부장은 "이번 지사 체계 전환은 우리 핵심 역량인 클라우드 기술력을 전국으로 확산하고 지역별 고객들에게 보다 신속하고 차별화된 고품질 서비스를 제공하기 위한 전략적 결정"이라며 "각 권역에서 영업과 기술지원이 유기적으로 협력해 고객과 거리를 좁히고 지역 현장에서 체감할 수 있는 실질적인 서비스 경쟁력을 지속 강화해 나가겠다"고 밝혔다. 또 이노그리드는 지사 운영과 연계해 지역 기반 기술 인력 확보에도 나선다. 지역 우수 IT 인재 채용을 통해 수도권 중심 인력 구조에서 벗어나고 본사와 지사 간 협업 체계를 강화해 분산된 환경에서도 안정적인 프로젝트 수행과 기술지원이 가능케 할 계획이다. 아울러 지사 설립을 계기로 지역 IT 기업들과 협력도 강화한다. 클라우드 기술력과 지역 IT 기업의 인프라 및 시장 이해도를 결합해 지역별 산업 특성에 최적화된 맞춤형 디지털 전환 모델을 공동 개발하고 판로 개척을 지원하는 등 동반 성장을 추진할 방침이다. 김명진 이노그리드 대표는 "이번 지사 체계 전환은 올해 AI 시대를 주도하는 클라우드 솔루션 기업으로 도약하기 위한 사업 확산의 초석으로, 전국 6개 권역을 중심으로 고객 접점을 촘촘히 넓히고 지역 특화 파트너와 협업을 제도화해 전국 단위 파트너사 체계를 확립하겠다"고 말했다. 이어 "기술과 실행으로 고객 가치를 높이고 지역과 함께 성장하는 디지털 전환 생태계를 만들어 가겠다"고 덧붙였다.

2026.01.12 11:36한정호 기자

[유미's 픽] 독자 AI 논란 속 '설계 주권' 시험대…LG 'K-엑사원'이 돋보인 이유

"이번 경쟁에서 고유 아키텍처를 고수하며 바닥부터 설계하는 곳은 LG AI연구원 정도입니다. 정부 과제의 짧은 데드라인과 제한된 자원 속에서 검증된 글로벌 오픈소스를 적극 활용할 수밖에 없는 환경 속에 특정 모듈 차용이 문제라면, 오픈소스 기반으로 개발한 국내 기업 다수도 그 비판에서 자유롭기 어려울 것입니다."최근 정부 주도의 독자 인공지능(AI) 파운데이션 모델 프로젝트를 둘러싼 잡음이 이어진 가운데 LG AI 연구원의 'K-엑사원'이 비교적 논란 없이 업계의 호평을 받으며 존재감을 드러내고 있다. 성능 평가에서도 미국, 중국이 점령한 글로벌 AI 상위 10위권에서 7위를 기록하며 유일하게 이름을 올려 'AI 3강'을 노린 한국을 대표할 AI 모델로 자리를 굳히는 분위기다.LG AI연구원은 'K-엑사원'이 정부의 독자 AI 파운데이션 모델 프로젝트 1차 평가 기준인 13개의 벤치마크 테스트 중 10개 부문 1위를 기록했다고 11일 밝혔다. 전체 평균 점수는 72점으로, 5개 정예팀 중 1위를 차지했다. 이 기준으로 평가를 했을 시 경쟁사들은 50점 중반대에서 60점 중반대 정도의 평균 점수를 기록하는 것으로 알려졌다. 일부 참가업체들이 최근 공개한 테크 리포트에서 13개 벤치마크 결과를 모두 기재하지 않은 것과 달리, LG AI연구원은 모든 결과를 공개해 비교 가능성을 높여 우위에 올라섰다는 평가도 나온다. 업계에선 독자 AI 모델의 가장 중요한 요소로 '프롬 스크래치'와 '독자성' 해석을 꼽고 있다. 최근 해외 모델 유사성 등 여러 논란 속에서 가장 중요한 요소가 외부 모델 '가중치(Weight) 사용' 여부가 핵심으로 떠오르고 있는데, 특히 LG AI연구원의 'K-엑사원'은 이를 모두 충족시키는 모델로 평가 받고 있다. 가중치는 AI 모델이 학습을 통해 축적한 지식이 압축된 결과물로, 라이선스와 통제권 문제와 직결된다. 정부가 해외 모델을 파인튜닝한 파생형 AI를 독자 AI로 간주하지 않겠다고 밝힌 이유도 이 때문이다. 다만 일각에선 가중치 논쟁이 독자 AI의 기준을 지나치게 단순화할 수 있다는 지적도 나온다. 가중치는 독자 AI의 최소 조건일 뿐 그 위에서 어떤 기술적 선택을 했는지가 모델의 완성도를 가른다는 것이다. 특히 대규모 자본과 연산 자원을 투입해 데이터와 파라미터 규모를 늘리는 방식은 단기 성능 경쟁에는 유리할 수 있지만, 장기적인 국가 AI 전략과는 거리가 있다는 평가도 있다.이 때문에 최근에는 가중치 이후의 단계인 모델 구조에 대한 설계 역량이 중요 기준으로 떠오르고 있다. 대표적인 영역이 어텐션(Attention)과 토크나이저(Tokenizer)다. 어텐션은 AI가 방대한 정보 중 어떤 부분에 집중할지를 결정하는 핵심 메커니즘으로 연산량과 메모리 요구량을 좌우한다. 토크나이저는 문장을 토큰 단위로 분해하는 방식으로 학습 효율과 언어 이해 능력에 직접적인 영향을 미친다. 두 요소는 성능과 비용을 동시에 결정하는 구조적 레버로, 독자 AI의 '설계 주권'을 가늠하는 지표로 평가된다.이에 대해 임정환 모티프테크놀로지스 대표는 독자 기술의 기준을 보다 구조적으로 봐야 한다고 지적했다. 그는 "엔비디아가 설계를 하고 TSMC가 생산을 맡는 구조나, 삼성 스마트폰이 다양한 외부 부품을 조합해 만들어지는 사례를 보더라도 핵심은 누가 설계의 주체냐는 점"이라며 "단순히 코드를 복제한 뒤 재학습하는 방식은 기술적 난이도가 낮아 독자 아키텍처로 보기 어렵다"고 말했다. 이어 "중국 딥시크는 기존 구조를 그대로 쓰지 않고 이를 변형해 자신들만의 기술적 철학을 담았기 때문에 독자 기술로 평가받는 것"이라고 덧붙였다.업계에선 독자 AI의 '설계 주권'을 판단하는 기준이 어텐션과 토크나이저에만 국한돼서는 안 된다는 지적도 나온다. 실제로 AI 모델의 성능과 효율은 어텐션 외에도 정규화(Normalization) 방식, 레이어 구성, FFN(Feed-Forward Network) 구조, 학습 커리큘럼 설계, 추론(Reasoning) 구조의 내재화 여부 등 복합적인 설계 선택에 의해 좌우된다. 정규화 방식과 레이어 구성은 학습 안정성과 스케일링 한계를 결정하는 요소로, 표준 레이어놈(LayerNorm)을 그대로 사용하는지, RMS놈(RMSNorm) 등 변형된 방식을 적용했는지에 따라 대규모 학습에서의 효율과 수렴 특성이 달라진다. 레이어놈이 모든 신호를 고르게 '정돈'하는 방식이라면, RMS놈은 꼭 필요한 크기 정보만 남겨 계산 부담을 줄이는 방식에 가깝다.FFN 구조 역시 전체 파라미터의 상당 부분을 차지하는 영역으로, 활성화 함수 선택이나 게이트 구조 도입 여부에 따라 연산량 대비 성능 효율이 크게 달라진다. FFN은 AI가 주목한 정보를 자기 언어로 다시 정리하는 '내부 사고 회로'에 해당한다. 학습 커리큘럼 역시 설계 주권을 가늠하는 중요한 지표로 꼽힌다. 단순히 대규모 데이터를 한 번에 투입하는 방식이 아니라, 언어 이해·추론·지시 이행·도메인 특화 학습을 어떤 순서와 비중으로 설계했는지가 모델의 안정성과 범용성을 좌우하기 때문이다. 여기에 프롬프트 기법에 의존하지 않고, 추론 과정을 모델 구조 내부에 내재화했는지 여부도 공공·국방·금융 등 고신뢰 영역에서 중요한 평가 요소로 거론된다. 업계 관계자는 "가중치는 독자 AI의 출발점이고, 어텐션과 토크나이저는 그 다음 단계"라며 "그 이후에는 학습 시나리오와 추론 구조, 스케일링 전략까지 얼마나 스스로 설계했는지가 진짜 기술적 자립도를 가른다"고 설명했다. LG AI연구원의 'K-엑사원'은 이 지점에서 차별화된 접근을 택했다. LG AI연구원은 데이터 양이나 파라미터 규모를 무작정 키우는 방식 대신, 모델 구조 자체를 고도화해 성능은 높이고 학습·운용 비용은 낮추는 전략을 적용했다. 엑사원 4.0에서 검증한 '하이브리드 어텐션(Hybrid Attention)'을 'K-엑사원'에 고도화해 적용, 국소 범위에 집중하는 슬라이딩 윈도우 어텐션과 전체 맥락을 이해하는 글로벌 어텐션을 결합했다. 이를 통해 메모리 요구량과 연산량을 이전 세대 대비 약 70% 절감했다는 설명이다. 토크나이저 역시 단순 재사용이 아닌 구조적 개선이 이뤄졌다. LG AI연구원은 학습 어휘를 약 15만 개로 확장하고, 한국어에서 자주 쓰이는 단어 조합을 하나의 토큰으로 묶는 방식을 적용했다. 그 결과 동일한 연산 자원으로 더 긴 문서를 기억하고 처리할 수 있게 됐으며 기존 대비 약 1.3배 긴 컨텍스트 처리 능력을 확보했다. 여기에 멀티 토큰 예측(MTP) 구조를 도입해 추론 속도도 크게 높였다. 이 같은 구조 혁신은 정부 프로젝트의 성격과도 맞닿아 있다. 독자 AI 파운데이션 모델의 목표는 단기적인 성능 순위 경쟁이 아니라 공공·산업 현장에서 실제로 활용 가능한 국가 AI 인프라를 구축하는 데 있기 때문이다. LG AI연구원이 고가의 최신 그래픽처리장치(GPU)가 아닌 A100급 환경에서도 프런티어급 모델을 구동할 수 있도록 설계해 인프라 자원이 제한된 기업과 기관에서도 활용 가능성을 넓혔다는 점도 우위 요소로 보인다. 다른 참가 기업들 역시 각자의 강점을 내세우고 있다. SK텔레콤은 최신 어텐션 기법과 초거대 파라미터 확장을 통해 스케일 경쟁력을 강조하고 있고, NC AI는 산업 특화 영역에서 운용 효율을 앞세우고 있다. 네이버클라우드는 멀티모달 통합 아키텍처를 독자성의 핵심으로 제시하고 있으며, 업스테이지는 데이터와 학습 기법을 통해 성능을 끌어올리는 전략을 취하고 있다. 다만 일부 모델은 외부 가중치나 구조 차용 여부를 둘러싼 논란으로 인해 기술 외적인 설명 부담을 안고 있는 상황이다. 업계 관계자는 "이번 논쟁이 '순혈이냐, 개발이냐'의 이분법으로 끝나기보다 가중치 주권을 전제로 한 설계 주권 경쟁으로 진화하고 있다고 본다"며 "이 기준에서 'K-엑사원'은 성능, 비용 효율, 구조적 혁신이라는 세 요소를 동시에 충족한 사례로 평가되고, 한국형 독자 AI가 나아갈 한 방향을 보여주고 있다"고 분석했다.업계에선 이번 1차 평가를 계기로 독자 AI에 대한 기준이 한층 정교해질 가능성이 높다고 봤다. 단순한 성능 순위나 '프롬 스크래치' 여부를 넘어 가중치 주권을 전제로 한 모델 설계 역량과 비용 효율, 실제 활용 가능성까지 함께 평가하는 방향으로 심사 기준이 진화할 수 있을 것으로 전망했다. 정부 역시 2차 심사 과정에서 독창성과 기술적 기여도를 평가 항목으로 포함하겠다고 밝힌 만큼, 향후 독자 AI 경쟁은 데이터·자본 경쟁을 넘어 누가 더 깊이 모델을 설계했는지를 가리는 국면으로 접어들 것이란 분석도 나온다.임정환 모티프테크놀로지스 대표는 "현재 독자 개발과 프롬 스크래치에 대한 개념이 혼재된 상황"이라며 "(정부 차원에서) 기술적 기여도에 따른 명확한 정의와 가이드라인 마련이 시급하다"고 강조했다. 이승현 포티투마루 부사장은 "독자 AI 2차 심사에서 퍼포먼스는 단순히 벤치마크 점수로 줄 세울 문제가 아니다"며 "가중치를 처음부터 자체 학습했는지, 데이터와 학습 과정에 대한 통제권을 갖고 있는지, 같은 조건에서 성능을 안정적으로 재현할 수 있는지가 먼저 봐야 할 기준"이라고 말했다. 이어 "이 전제가 빠진 성능 비교는 기술 평가라기보다 보여주기에 가깝다"고 덧붙였다.

2026.01.11 15:57장유미 기자

생성형 AI, 수업·행정 효율 돕지만…가트너 "관리 역량 부족"

전 세계 교육 기관이 생성형 인공지능(AI)을 수업 준비와 행정 업무 효율화에 활용하고 있지만 기술 공정성과 활용 범위에 대한 기준과 거버넌스는 여전히 부족하다는 분석이 나왔다. 11일 가트너가 공개한 트렌드 보고서에 따르면 각국 초·중·고 학교에는 AI 기술 도입 속도와 이를 관리하는 체계 사이에 뚜렷한 격차가 존재하는 것으로 나타났다. 가트너는 교육기관 내 AI 확산이 오히려 관리와 기준 공백을 키우고 있다고 진단했다. 이에 따라 교육 기술 경쟁 초점도 단순한 도입을 넘어 거버넌스와 통합 운영으로 이동하고 있다는 분석이다. 보고서는 생성형 AI가 수업 준비와 행정 업무 전반에 빠르게 적용되고 있는 반면, 학생 데이터 보호를 비롯해 기술 공정성, 활용 범위에 대한 명확한 기준과 관리 체계는 여전히 미흡하다고 지적했다. 특히 학생 개인정보와 학습 기록, 행동 데이터가 AI 시스템과 연결되면서 실시간 모니터링, 제로 트러스트 보안, 사이버 위협 대응 역량이 충분히 뒷받침되지 않고 있다는 평가가 나왔다. 가트너는 코로나 시기 대규모로 도입된 노트북, 태블릿, 네트워크 장비가 노후화 단계에 접어든 점도 주요 배경으로 봤다. 이에 단기적인 기기 교체가 아닌 장기 기술 교체와 클라우드 전환이 학교 운영 핵심 과제가 될 것이라고 전망했다. 또 학교 선택제 확대와 홈스쿨링 증가로 학습 모델이 다변화되면서, 학생 이동, 등록, 학습 이력을 통합 분석하는 상호운용 플랫폼에 대한 수요도 함께 커지고 있다고 분석했다. 가트너는 "각국 학교는 AI와 보안, 디지털 인프라를 개별 과제가 아닌 통합 전략으로 다뤄야 한다"며 "효율성과 규제, 학생 보호를 동시에 충족하는 구조로 전환해야 한다"고 밝혔다.

2026.01.11 15:00김미정 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

수천억 적자의 역설… '회계 착시' 걷어낸 K-팹리스 진짜 체력

신세계가 열흘만에 오픈AI 협업 계획 뒤집은 이유

[유미's 픽] 챗GPT·제미나이, HWP 읽는다…한컴, 'AI 문맹' 오명 벗고 재도약 시동

R&D 지표 가른 양산성 확보…장부 엇갈린 K-AI 반도체

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.