• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'클라우드 인프라'통합검색 결과 입니다. (195건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

국정자원 화재가 키운 공공 DR…미·중은 '기준'부터 세웠다

국가정보자원관리원(국정자원) 화재 이후 공공 재해복구(DR) 시장이 빠르게 확대되고 있다. 정부가 공공 IT 안정성을 핵심 과제로 끌어올리는 가운데, 미국과 중국은 각각 표준 기반의 민간 활용 모델과 국가 주도 통제 모델로 DR 체계를 구축해온 것으로 나타나 국내 정책 방향과 비교 대상이 되고 있다. 25일 업계에 따르면 국내 공공 DR 시장은 국정자원 화재 이후 정부 부처들이 핵심 시스템 이중화와 자동전환 도입에 속도를 내면서 빠르게 커지는 추세다. 행안부·복지부·고용부 등 주요 기관이 무중단 서비스 환경을 전제로 인프라 고도화에 나서면서 IT서비스 기업들도 공공 DR 사업을 주요 수주 영역으로 주목하고 있다. 일각에서는 국내 DR 확대가 사고 이후 정책 추진 속도가 빨라지며 형성된 시장이라는 평가도 나온다. 화재로 범정부 행정 서비스가 동시에 멈춘 경험 이후 정부는 공공 서비스 중단을 막기 위한 인프라 강화에 드라이브를 걸었고, 공공 DR은 단순 백업을 넘어 필수 인프라로 격상되며 공공 IT 시장 재편의 주요 키워드로 자리잡았다. 실제 현장에서 추진되는 방향도 변화하고 있다. 행안부는 지방세입정보시스템 같은 범정부 핵심 인프라를 컨테이너 기반 프라이빗 클라우드로 전면 전환하는 동시에 DR 체계를 결합해 유연성과 안정성을 동시에 확보하려는 구상이다. 복지부 역시 차세대 사회보장정보시스템의 접속 장애 문제를 줄이기 위해 부하 분산과 데이터센터 이중화를 추진하며 재해 시에도 필수 업무가 중단되지 않도록 안정성을 강화하고 있다. 고용노동부는 고용24 같은 대국민 서비스 안정성을 위해 물리적으로 떨어진 데이터센터 간 데이터를 실시간 동기화하는 멀티존 구성을 추진하는 등 복구 수준을 끌어올리는 양상이다. 이같이 공공 DR 정책은 시스템 안정성과 서비스 연속성 확보 요구가 동시에 높아지는 양상이다. 반면 미국은 DR을 '표준-인증-민간 활용' 구조로 설계한 접근이 특징이다. 정부가 기술 구현 방식을 일일이 강제하기보다 미국 국립표준기술연구소(NIST) 가이드라인을 기반으로 DR을 비상계획 관점에서 정의하고 공공 시스템이 공통 기준에 따라 복구 체계를 설계하도록 유도한다. 또 다른 특징은 민간 클라우드 활용을 제도적으로 열어둔 점이다. 페드램프(FedRAMP) 인증을 통해 상용 클라우드를 공공 DR 인프라로 활용하되, 보안성과 성능 검증은 정부가 책임지는 방식이다. 정부가 표준과 신뢰 체계를 제공하고 민간 생태계가 인프라 공급과 운영 역량을 담당하는 구조다. 이같은 구조는 국내와 대비되는 지점으로 꼽힌다. 한국도 공공 DR 확대 과정에서 민간 클라우드 활용 논의가 커지고 있지만 부처별 기준과 예산 체계, 망 분리 규제 등 현실 요인이 복잡하게 얽혀 운영 기준의 통일성이 과제로 지적돼왔다. 중국은 IT 인프라 장애를 경제적 손실보다 국가 안보 위협으로 간주하고 강한 법적 강제성을 바탕으로 DR 체계를 구축하는 흐름이 뚜렷하다. 등급보호제도(MLPS 2.0)를 통해 시스템을 1~5등급으로 나눈 뒤, 고등급 시스템에 대해서는 원격지 DR 센터 구축을 사실상 의무화하는 방식이 대표적이다. 또 중국은 데이터 현지화 원칙을 강하게 적용해 핵심 데이터를 국외에 두는 것을 제한하고 국외 DR 구축 자체도 엄격히 통제하는 방향을 취하고 있다. 민간 생태계 확장보다는 국가 주도 통제력과 일원화된 추진 체계를 우선순위에 둔 접근으로 평가된다. 이런 미·중 사례와 비교해 국내 공공 DR 확대는 빠른 시장 성장과 함께 기술·운영 체계 고도화가 동시에 요구되는 단계라는 분석이 나온다. 무중단 서비스를 구현하려면 마이크로서비스 아키텍처(MSA), 컨테이너, 하이브리드 클라우드 등 복합 역량이 결합돼야 하는데 시장 요구 수준이 빠르게 상향되는 만큼 수행 역량에 대한 검증 필요성도 커지고 있다. 업계 관계자는 "공공 DR은 단순 구축을 넘어 서비스 연속성을 담보하는 핵심 인프라로 자리잡고 있다"며 "미국처럼 표준을 정교화하고 중국처럼 중요도에 따른 의무 수준과 책임 범위를 명확히 하는 거버넌스 논의가 함께 필요하다"고 밝혔다.

2026.01.25 10:25한정호 기자

오케스트로, 소버린 AI 클라우드 데이터센터 솔루션 출시…인프라·SW 통합

오케스트로 그룹이 소버린 인공지능(AI) 구현을 지원하는 새로운 통합 솔루션을 앞세워 데이터센터 사업 확대에 박차를 가한다. 오케스트로 그룹은 데이터 주권 확보와 AI 인프라 통제가 가능한 '소버린 AI 클라우드 데이터센터' 솔루션을 출시했다고 22일 밝혔다. 이 서비스는 오케스트로 그룹이 축적해 온 소버린 AI 클라우드 아키텍처를 기반으로 클라우드 인프라와 AI 서비스를 단일 구조로 통합한 원스톱 프라이빗 AI 클라우드 통합 솔루션이다. 퍼블릭 클라우드의 운영 불확실성과 온프레미스 환경의 구축 부담을 동시에 보완한다는 목표다. 소버린 AI 클라우드 데이터센터 솔루션은 안전한 고객 전용 인프라를 맞춤형으로 제공하며 초기 투자 부담을 줄이고 고객이 운영 비용을 직접 통제할 수 있는 비즈니스 구조를 제공한다. 복잡한 소프트웨어(SW) 구성을 최소화해 인프라 설계와 운영에 드는 시간과 자원을 줄였다. 또 퍼블릭 클라우드의 확장성과 온프레미스 환경의 운영 통제력을 결합함으로써 AI 서비스 확장에 따른 비용 변동성을 줄이고 예측 가능한 AI 인프라 총소유비용(TCO)을 구현한 것이 핵심이다. 외부 클라우드나 공용 자원에 의존하지 않는 프라이빗 클라우드 기반의 고객 전용 환경으로 구성되며 데이터와 AI 운영, 인프라 자원을 전용 영역으로 분리해 구성한다. 기업과 기관이 쉽게 데이터 접근과 운영 정책을 직접 설정하고 통제할 수 있는 프라이빗 소버린 AI 환경을 제공하는 것이 핵심이다. 아울러 고객 맞춤형 서비스 조합을 패키지 형태로 지원해 온프레미스 환경에서 요구되던 복잡한 구축 과정 없이 가상머신(VM)과 컨테이너 기반의 AI 서비스 환경을 빠르게 구현할 수 있다. 모듈형 구조로 필요한 기능만 선택해 조합할 수 있어 고객 요구에 맞는 AI 서비스 환경을 구성할 수 있다는 설명이다. 이 솔루션에는 ▲서버 가상화 솔루션 '콘트라베이스' ▲클라우드 네이티브 운영관리 플랫폼 '비올라' ▲AI 인프라 플랫폼 '콘체르토 AI' ▲생성형 AI 솔루션 '클라리넷' ▲AI 기반 클라우드 자동화 솔루션 '심포니 A.I' ▲데브옵스 통합 관리 플랫폼 '트럼본' ▲멀티 클라우드 통합 관리 솔루션 '오케스트로 CMP' ▲마이그레이션 전문 솔루션 '콘트라베이스 레가토 마이그레이터' ▲재해복구 전문 솔루션 '콘트라베이스 레가토 DR' 등 풀스택으로 구성된다. 솔루션 출시와 함께 오케스트로 그룹은 프라이빗 AI 데이터센터를 직접 갖추기 어려운 고객을 위한 소버린 AI 클라우드 데이터센터를 구축하고 있다. SW부터 하드웨어(HW) 및 상면까지 포함한 모든 프라이빗 클라우드 서비스를 퍼블릭 클라우드처럼 사용할 수 있다. 특히 그래픽처리장치(GPU) 중심의 AI 워크로드는 물론 국산 AI 반도체(NPU)와 국산 거대언어모델(LLM)을 연계할 수 있는 구조를 적용해 AI 인프라부터 AI 모델까지 아우르는 소버린 AI 환경을 제공한다는 전략이다. 올해부터 마곡·청담·여의도 등 주요 권역에서 소버린 AI 데이터센터를 순차 오픈하고 SW 중심 패키지에서 물리적 데이터센터 인프라까지 연결되는 소버린 AI 인프라 생태계를 구축해 나갈 계획이다. 이 과정에서 그룹 내 솔루션 전문 계열사인 오케스트로와 오케스트로 AGI, 오케스트로 데이타커맨드는 AI 클라우드 풀스택 SW를 제공한다. 클라우드 네이티브 서비스 전문 계열사인 오케스트로 클라우드는 해당 솔루션이 적용될 데이터센터의 컨설팅·설계·구축·운영 등 전 과정을 지원한다. 김민준 오케스트로 그룹 의장은 "이번 솔루션은 AI·클라우드 풀스택 솔루션과 소버린 AI 데이터센터 구축·운영 역량을 결합해 단일 통합 제품으로 구현한 것"이라며 "그룹 차원의 기술과 인프라 역량을 바탕으로 소버린 AI 데이터센터 사업을 본격 확대해 나가겠다"고 말했다.

2026.01.22 17:01한정호 기자

[현장] STT GDC, 가산에 첫 데이터센터 연다…韓 코로케이션 시장 본격 진출

글로벌 데이터센터 전문기업 STT GDC가 국내 첫 데이터센터를 올해 6월 가동하며 한국 시장 공략에 본격 나선다. 인공지능(AI)·클라우드 수요 확대에 대응하는 AI-레디 인프라를 앞세워 국내 코로케이션 시장에서 입지를 구축할 계획이다. 허철회 STT GDC 코리아 대표는 22일 서울 여의도 FKI타워에서 진행한 기자간담회에서 "가산에 들어서는 'STT 서울1'을 시작으로 한국 시장에서 AI·클라우드 수요를 안정적으로 받쳐줄 인프라를 단계적으로 확대해 나가겠다"고 밝혔다. STT GDC는 싱가포르에 본사를 둔 글로벌 데이터센터 전문기업으로, 12개국에서 100개 이상의 데이터센터를 운영하며 총 IT 부하 용량 2기가와트(GW) 이상을 확보하고 있다. 고성능·고효율·저탄소 데이터센터 인프라를 기반으로 아마존·마이크로소프트·구글 등 글로벌 하이퍼스케일러들을 지원해왔다. STT GDC가 한국을 전략 시장으로 설정한 배경에는 AI 확산에 따른 데이터센터 수요 급증이 있다. 허 대표는 "AI 지출 확대와 에이전틱 AI, AI 서비스형 소프트웨어(SaaS) 등 시장이 빠르게 커지고 있다"며 "이에 맞춰 데이터센터 인프라뿐 아니라 저지연 네트워크·해저 케이블 등 연결성까지 중요해지고 있다"고 설명했다. 특히 허 대표는 앞으로 데이터센터 수요를 주도할 핵심 축으로 '추론'을 지목했다. 그는 "AI 애플리케이션과 추론 중심 워크로드가 늘수록 데이터센터의 수도권 입지와 네트워크가 더 중요해질 것"이라고 진단했다. 이런 흐름에 한국 시장도 소버린 AI와 그래픽처리장치(GPU) 확산 정책이 맞물리며 전력 수요가 크게 늘고 있다는 게 STT GDC의 판단이다. 허 대표는 정부가 엔비디아와 체결한 GPU 26만 장 도입 논의 등으로 인해 추가 전력 수요가 발생할 수 있으며 2030년에는 국내 데이터센터 전력 수요가 3GW 수준까지 필요해질 수 있다고 언급했다. STT GDC가 이번에 첫 거점으로 공개한 STT 서울1은 서울 금천구 가산동에 위치한 AI 데이터센터로, 최대 IT 부하 30메가와트(MW)를 수용하도록 설계됐다. STT GDC는 이 센터를 기반으로 국내 고객의 AI·클라우드 인프라 수요에 대응하는 동시에, 글로벌 확장과 연계한 코로케이션 서비스를 제공하겠다는 구상이다. STT 서울1은 주·예비 2회선 이중화 기반 22.9kV 전력 인입, 분산형 중복 구성 방식 무정전전원장치(UPS), N+1 비상발전기 등 안정성을 고려한 전력 설계를 갖췄다. 최대 부하 기준 24시간 무급유 발전이 가능한 연료탱크를 구축했고 업타임 티어 3 TCCD·TCCF 인증과 무중단 유지보수·내결함성 설계도 추진한다. 건물은 지하 2층부터 지상 10층까지 멀티스토리 구조로 설계됐으며 데이터센터 특성상 층고가 높아 체감 높이는 일반 아파트 약 20층 수준에 해당한다. STT GDC는 도심 내 제한된 부지에서 전력·설비 집적도를 극대화하기 위해 이같은 구조를 선택했다고 밝혔다. 네트워크는 망중립 구조를 기반으로 2개의 독립된 MDF실과 3개의 인입 경로를 구성해 복수 통신사 및 다양한 연결 옵션을 확보했다. 냉각은 설계 전력사용효율(PUE) 1.3 미만을 목표로 중앙 냉수식 냉방 설비와 팬월 유닛 등을 적용해 AI 워크로드에 대비한 열관리 효율을 높인다는 방침이다. 나아가 STT GDC는 액침 냉각 등 차세대 냉각 기술도 글로벌 본사 차원에서 검증하고 있다. 슈나이더 일렉트릭, 아이스오토프와 협력해 액침 냉각 기술검증(PoC)을 진행했고 인도 법인도 액체 냉각 기술 연구·테스트를 추진 중이다. 국내 센터 운영 전략으로는 인하우스 중심 운영을 강조했다. STT GDC 코리아 양재석 운영센터장은 "다수 데이터센터 사업자가 운영을 외주화하는 것과 달리, 우리는 운영 핵심 기능을 자체 인력으로 수행한다"며 "글로벌 하이퍼스케일러 지원 경험을 바탕으로 국내에서도 동일한 표준과 교육 체계를 적용할 계획"이라고 밝혔다. STT GDC는 한국 시장이 글로벌 하이퍼스케일러뿐 아니라 국내 클라우드 사업자와 소버린 AI 프로젝트 확대로 수요 구조가 빠르게 바뀌고 있다고 진단했다. 이에 대해 허 대표는 "연도별 수요·공급 변동성이 커지는 만큼 단계적 확장과 안정적 운영 역량이 중요해졌다"며 "향후 한국 내 추가 데이터센터 부지 확보도 검토 중"이라고 말했다. 끝으로 "AI 시대 데이터센터는 단순히 전력을 공급하는 시설이 아니라, 고밀도 워크로드를 안정적으로 처리하면서도 지속가능성을 함께 달성해야 한다"며 "재생에너지 확대와 냉각 혁신을 바탕으로 한국에서도 장기적으로 경쟁력 있는 데이터센터 플랫폼을 구축해 나가겠다"고 강조했다.

2026.01.22 16:33한정호 기자

[현장] "소버린 AI 늦으면 도태된다…기술·데이터·인프라 통제권 갖춰야"

글로벌 인공지능(AI) 패권 경쟁이 격화되는 가운데, 소버린 AI 확보가 지연될 경우 기술·데이터·인프라 통제권을 잃고 국가와 기업이 동시에 종속 위험에 직면할 수 있다는 AI 기업들의 우려가 나왔다. LG AI연구원 김유철 전략부문장은 21일 네이버와 한국은행이 공동 개최한 AX 컨퍼런스에서 "앞으로 AI는 국가 경쟁력을 좌우하는 전략 자산이 될 것"이라며 "각 나라가 AI 기술과 인프라를 스스로 통제하고 운영하려는 흐름이 소버린 AI"라고 말했다. 김 부문장은 소버린 AI 확보 논의가 단순 기술 트렌드를 넘어 생존 전략이라고 강조했다. 그는 "지금이 아니면 다시는 AI 기술을 확보하기 어려울 것"이라며 "이 기술과 인프라 역량을 확보하지 못하면 선진국에서 중진국·후진국으로 떨어질 수도 있다"고 경고했다. 특히 그는 소버린 AI를 둘러싼 경쟁이 국가 총력전 양상으로 치닫고 있다고 진단했다. 전력망·데이터센터·AI 반도체·파운데이션 모델 등 국가 단위 투자 경쟁이 본격화되는 상황에서 통제권을 잃으면 AI 활용 비용 자체가 외부 변수에 휘둘릴 수 있다는 설명이다. 아울러 네이버클라우드 성낙호 하이퍼스케일 AI 기술총괄은 소버린 AI의 본질에 대해 "데이터를 지능으로 바꾸는 기술"이라고 정의하며 인터넷 데이터에만 머무르던 AI가 음악·영상·피지컬 AI로 확장되는 흐름을 짚었다. 그는 "최근 AI는 인터넷에 없는 데이터를 기반으로 만들어내는 것들을 보여주고 있다"며 "이를 구현할 때 독자적인 기술이 없으면 데이터가 있어도 새로운 지능을 만들어낼 방법이 없어진다"고 말했다. 또 성 총괄은 외산 AI 의존이 가져올 비용·주권 리스크도 언급했다. 그는 "소버린 AI 전략을 시도하지 않고 외산 AI를 쓰다 보면 갑자기 가격이 올라갈 수도 있고 전략 자산화될 수도 있다"고 지적했다. AI가 생활과 산업 전반의 기반 기술로 고착되는 만큼 가격 결정권이 해외로 넘어가면 종속 관계가 구조화될 수 있다는 우려다. 이날 토론에서 LG AI연구원과 네이버클라우드는 소버린 AI가 자립형 모델 개발에 그치지 않고 산업 현장과 업무 시스템에 뿌리내리는 것이 중요하다는 데에도 공감대를 형성했다. 특히 김 부문장은 AI 전환(AX)의 필요성을 강하게 주장했다. 그는 "AX가 국가 경쟁력과 기업 경쟁력에 도움이 되느냐를 넘어 현재는 AX를 하지 않으면 도태되는 상황"이라며 "기업은 AI 도입이 늦어져 생산성이 낮아지고 고정비가 커지면 다른 기업과 경쟁에서 이길 수 없고 국가도 AX가 늦어지면 마찬가지로 위험하다"고 역설했다. 이어 "외산 AI를 활용하는 것과 별개로 핵심 영역에서는 우리 스스로 운영 가능한 역량을 갖춰야 한다"며 "소버린 AI 기반을 갖추는 것이 장기적으로 지속 가능한 경쟁력을 만드는 길"이라고 덧붙였다.

2026.01.21 18:36한정호 기자

티맥스티베로, 근로복지공단 대국민 서비스 '클라우드 네이티브' 전환

티맥스티베로가 핵심 대국민 서비스를 클라우드 네이티브로 전환하며 데이터베이스 관리시스템(DBMS) 기술력을 입증했다. 티맥스티베로는 근로복지공단 '고용·산재보험 토탈서비스 시스템'의 클라우드 네이티브 전환 사업을 완료했다고 21일 밝혔다. 이번 사업은 월평균 250만 명 이상이 이용하는 대규모 행정 시스템을 기존 온프레미스 환경에서 NHN클라우드 기반 클라우드 네이티브 환경으로 전면 재설계하는 대형 프로젝트다. 24시간 무중단 서비스와 급격한 트래픽 변동에 대한 탄력적 대응이 요구되는 공공 핵심 시스템을 성공적으로 전환했다는 점에서 공공부문 클라우드 네이티브 전환 우수 사례로 평가받고 있다. 이번 프로젝트 핵심 DBMS로 채택된 '티베로 DB'는 기존 티베로5에서 최신 버전인 티베로7로 업그레이드가 적용되며 대규모 트래픽 환경과 마이크로서비스 아키텍처(MSA) 구조에 최적화된 안정성과 성능을 입증했다. 티베로7은 강화된 병렬 처리와 동시성 제어 구조를 기반으로 대국민 서비스 특유의 트래픽 집중 구간에서도 서비스 지연이나 장애 없이 안정적인 운영이 가능하도록 지원했다. 티베로 DB는 병렬 처리, 파티셔닝, 로우 레벨 락킹, 다중버전 동시성 제어(MVCC) 등 대용량 트랜잭션 처리에 최적화된 기술을 기반으로 클라우드 네이티브 환경에서도 안정적이고 일관된 성능을 구현했다. 또 OLTP 데이터 압축과 인덱스 키 압축 관리 기능을 통해 저장 공간 활용도를 크게 높였다. 여기에 기존 라이선스를 그대로 활용하는 BYOL 방식을 적용해 공공기관이 부담하는 비용 절감까지 함께 확보했다는 점이 이번 사업의 주요 성과로 꼽힌다. 시스템 전환 이후 성과는 실제 수치로도 나타났다. 회사 측에 따르면 자동 확장이 가능한 클라우드 환경을 기반으로 기존 평균 4.44초에 달하던 시스템 응답 속도가 0.19초로 단축돼 약 95% 이상의 성능 개선 효과를 기록했다. 이는 단순한 인프라 증설 효과가 아니라 MSA 구조 기반의 서비스 단위 확장과 티베로7 업그레이드를 통한 DB 처리 성능 고도화가 함께 작동한 결과로, 대규모 트래픽 환경에서도 안정적인 성능을 유지할 수 있음을 수치로 입증했다는 설명이다. 또 MSA 구조와 지속적 통합·지속적 배포(CI·CD) 체계를 구축함으로써 기능 개선이나 시스템 고도화 과정에서도 서비스 중단 없이 즉각적인 배포가 가능한 운영 환경을 확보했다. 이를 통해 향후 정책 변경이나 서비스 확장에도 유연하게 대응할 수 있는 디지털 기반을 마련했다. 근로복지공단 AI혁신기획부 차경근 차장은 "대규모 트래픽이 집중되는 대국민 서비스 환경에서 티베로 DB는 MSA 구조에 최적화된 안정성과 성능을 동시에 입증했다"며 "응답 속도 개선은 물론 서비스 중단에 대한 우려 없이 보다 신속하고 안정적인 사회보장 서비스를 제공할 수 있는 디지털 기반을 마련하게 됐다"고 말했다. 박경희 티맥스티베로 대표는 "이번 사업은 공공부문의 미션 크리티컬한 시스템을 클라우드 네이티브 환경으로 전환하며 기술적 신뢰성과 완성도를 입증한 사례"라며 "앞으로도 공공기관 디지털 전환 파트너로서 고성능·고가용성 클라우드 DBMS 시장을 선도해 나갈 것"이라고 강조했다.

2026.01.21 15:07한정호 기자

주가 40% 빠진 오라클…월가서 반등론 나오는 이유는

오라클 주가가 지난해 9월 중순 최고점을 찍은 후 최근 40% 이상 하락했지만 시장의 기대감은 오히려 다시 높아지고 있다. 인공지능(AI) 시장에 대한 기대 조정이 주가에 영향을 줬지만, 주요 투자은행들이 매출 기반과 고객 구조가 견조한 오라클의 중장기 성장성에 대한 평가를 유지하면서 주가도 재차 반등할 수 있다는 시각이 나온다.19일 업계에 따르면 오라클 주가는 지난 17일 191.09달러로 장을 마쳤다. 이는 52주 최고가(345.72달러)였던 지난해 9월 10일 대비 약 44.5% 정도 하락한 수치다. 이는 AI 투자 자금이 엔비디아를 중심으로 한 반도체·연산 인프라 기업과 오픈AI 관련 플랫폼 기업으로 집중된 반면, 오라클처럼 AI 인프라 투자가 비용으로 먼저 반영되는 기업들은 상대적으로 소외됐기 때문으로 풀이된다. 데이터센터 확장에 따른 감가상각과 자본지출 부담이 단기 실적 우려로 연결되며 주가 하락 압력을 키운 것도 영향이 컸다. 그러나 애널리스트들의 시각은 주가 흐름과 다소 결이 다르다. 최근 기준 오라클에 대해 '매수(Buy)' 의견을 유지하는 애널리스트 비중은 70%를 웃돌고 있다. UBS는 목표주가를 하향 조정하면서도 투자의견은 유지했고, 골드만삭스는 새롭게 오라클에 대한 커버리지를 개시하며 매수 의견을 제시했다. 애널리스트들은 이번 주가 하락을 실적 부진보다는 AI 기대 조정에 따른 밸류에이션 재조정으로 해석하고 있다. AI 인프라 투자 확대에 따라 단기적으로 수익성 압박이 불가피하지만, 매출 기반이나 고객 이탈 등 구조적인 훼손 신호는 제한적이라는 평가다. UBS는 "신용 및 자금조달 관련 우려는 이미 주가에 반영돼 있다"며 오라클의 중기 성장성에 대한 시각은 유지했다. 다만 리스크도 명확하다. 데이터센터와 GPU 확보를 위한 오라클의 대규모 투자가 이어지는 만큼, 투자 대비 수익화 시점이 지연될 경우 현금 흐름 부담이 커질 수 있다. 또 AWS와 마이크로소프트 애저, 구글 클라우드에 비해 개발자 생태계와 브랜드 인지도 측면에서 열세라는 점도 여전히 부담 요인으로 꼽힌다. 하지만 오라클이 완전히 시장에서 외면받지 않는 이유는 AI 인프라 시장에서의 포지션 때문이다. 오라클은 AI 모델 개발 기업이 아닌 대규모 연산을 안정적으로 처리할 수 있는 인프라를 제공하는 데 강점을 갖고 있다. 특히 대형 엔터프라이즈 고객을 중심으로 한 오라클 클라우드 인프라(OCI)는 고성능과 비용 효율성을 앞세워 수요를 확대하고 있다는 평가다. 시장에서는 데이터센터 투자를 단기적인 비용 부담으로 보는 시각이 우세하지만, 애널리스트들은 이를 장기 진입장벽으로 해석했다. 초대형 AI 데이터센터는 초기 투자비가 크지만 일단 가동되면 장기 계약을 통해 안정적인 매출로 이어질 가능성이 높다는 이유에서다. 여기에 데이터베이스와 전사적자원관리(ERP) 등 기존 사업에서의 높은 고객 락인 효과도 주가 하방을 지지하는 요소로 거론된다. 골드만삭스는 최근 오라클에 대한 커버리지를 개시하며 목표주가 240달러와 함께 투자의견 '매수'를 제시했다. 그러면서 "AI 도입 확산은 향후 10년간 소프트웨어 산업의 총주소가능시장(TAM, 특정 산업이 이론적으로 확보할 수 있는 최대 시장 규모)'을 확대할 것"이라며 "오라클은 클라우드 규모와 엔터프라이즈 고객 기반, 데이터센터 확장을 바탕으로 인프라서비스(IaaS) 시장에서 점유율을 높일 수 있는 유리한 위치에 있다"고 평가했다.

2026.01.19 16:41장유미 기자

NHN클라우드, 크래프톤 GPU 클러스터 사업 수주…운영 기술력 입증

NHN클라우드가 대규모 그래픽처리장치(GPU) 클러스터를 서비스형 GPU(GPUaaS)로 구축·운영하는 기술력과 역량을 입증했다. NHN클라우드는 크래프톤이 발주한 GPU 클러스터 사업 최종 사업자로 선정돼 계약을 체결하고 GPUaaS 기반 인프라를 제공한다고 19일 밝혔다. 이번 사업은 크래프톤이 지난해 10월 인공지능(AI) 퍼스트를 경영 핵심 전략으로 선언한 이후 AI 활용을 본격 확대하는 과정에서 증가하는 AI 연산 수요에 대응하기 위해 추진됐다. GPU 클러스터는 AI 플랫폼과 데이터 통합·자동화 기반 고도화 등 중장기 AI 전략을 안정적으로 실행하기 위한 핵심 기반으로, NHN클라우드가 제공하는 GPUaaS를 활용해 인프라를 유연하게 확장하고 운영 효율을 높이는 데 초점을 맞췄다. NHN클라우드는 이번 사업에서 대규모 GPU 클러스터를 제공함으로써 크래프톤의 AI 전략 실행을 뒷받침한다. NHN클라우드가 광주 국가 AI 센터를 자체 설계·구축하고 2021년부터 현재까지 GPUaaS 서비스를 안정적으로 제공해 온 기술력을 보유한 점과 수년간 다수 공공·민간 고객을 대상으로 AI 인프라 서비스를 운영해 온 경험이 이번 사업 파트너로 선정된 배경으로 꼽힌다. 또 고객 요구사항을 면밀히 분석해 함께 시스템을 설계·구축해 온 컨설팅 및 사업 수행 역량도 강점으로 작용했다. NHN클라우드는 이번 사업에서 엔비디아 최신 GPU인 블랙웰 울트라 1천여 장으로 구성된 GPU 팜을 멀티 클러스터 구조로 구성해 대규모 AI 연산 환경을 구축한다. 여기에 XDR-800G급 초고속 인피니밴드 네트워크를 적용해 GPU 간 대용량 데이터를 저지연·고속으로 전송할 수 있도록 설계한다. 이를 통해 여러 GPU를 동시에 사용하는 환경에서도 데이터 전송 지연을 최소화하고 고성능 GPU를 효과적으로 활용해 AI 모델 학습 속도를 높이는 한편 전반적인 AI 작업을 안정적으로 운영할 수 있도록 할 계획이다. NHN클라우드는 GPU 클러스터 구성 요소를 효율적으로 조합해 동일 예산 대비 실제 활용 가능한 GPU 연산 자원을 극대화했으며 장기적인 운영 효율까지 고려한 구조로 설계했다. 특히 GPU를 여러 작업이 함께 사용할 수 있도록 동적 관리 구조를 적용한다. 이를 통해 AI 개발·학습·추론 등 다양한 작업이 동시에 진행되더라도 GPU 자원을 필요에 따라 유연하게 나눠 쓰고 조정할 수 있어 유휴 자원을 최소화하고 전체 클러스터 활용 효율을 높일 계획이다. 이같은 GPU 리소스 동적 관리 방식은 소규모 AI 개발 환경부터 대규모언어모델(LLM) 학습까지 AI 작업 규모와 특성에 맞춰 GPU 활용도를 탄력적으로 조정할 수 있다. 아울러 NHN클라우드는 맞춤형 GPUaaS로 AI 개발과 운영 전반에 유연한 환경을 제공한다. 대규모 AI 학습과 연산 특성에 맞춰 쿠버네티스와 고성능 컴퓨팅(HPC) 환경에 적합한 슬럼 기반 자원 관리 솔루션을 적용해 다양한 AI 작업이 동시에 진행되는 환경에서도 안정적인 운영이 가능하다. 이에 더해 다양한 AI 개발 도구와 외부 시스템을 연동할 수 있는 구조를 갖춰 AI 서비스 개발 속도와 전반적인 업무 효율을 함께 높일 수 있도록 지원할 계획이다. 이번 블랙웰 울트라 GPU 인프라는 NHN클라우드 판교 NCC 센터에 구축된다. 판교 NCC는 고집적 연산을 원활히 운영할 수 있는 전력·냉각 인프라와 우수한 네트워크 연결성을 갖춰 대규모 AI 워크로드 처리에 적합한 시설이다. 해당 인프라는 오는 7월 중 구축을 완료하고 본격 가동될 예정이다. 크래프톤 관계자는 "AI 퍼스트 전략을 추진하는 과정에서 GPU 클러스터는 전사 AI 운영 핵심 기반"이라며 "NHN클라우드의 우수한 GPUaaS 서비스를 통해 AI 연구와 서비스 전반의 확장성과 효율성을 강화할 수 있을 것으로 기대한다"고 말했다. NHN클라우드 관계자는 "이번 프로젝트는 대규모 GPU 클러스터를 GPUaaS 형태로 구축·운영할 수 있는 우리 기술력과 운영 역량을 입증한 사례"라며 "7월 가동을 시작으로 크래프톤의 AI 퍼스트 전략을 실질적으로 뒷받침할 수 있도록 안정적인 클러스터 제공과 운영 기술 지원에 집중하겠다"고 밝혔다.

2026.01.19 10:51한정호 기자

100억대 공공 클라우드 발주 러시…정작 '퍼블릭'은 제한적

공공기관들이 새해를 맞아 클라우드 전환을 내건 대형 정보화 사업을 잇달아 발주하고 있다. 다만 제안요청서(RFP)를 살펴보면 민간 퍼블릭 클라우드 서비스를 직접 활용하는 방식보다는, 기관 환경에 맞춘 시스템 통합(SI) 방식의 클라우드 인프라 구축·전환이라는 지적이 나온다. 18일 조달청 나라장터에 따르면 건강보험심사평가원은 2026년 클라우드 전환 및 업무서비스 개선 사업을 추진한다. 사업비는 약 153억5천만원 규모로, 사업 기간은 계약 체결 후 240일 이내다. 이번 사업은 기관 전반의 업무서비스 고도화와 인프라 개선 과제를 묶은 패키지형 프로젝트다. 세부 과업에는 ▲인공지능(AI) 통합 플랫폼 구축 ▲클라우드 네트워크 환경 부족 자원 증설 ▲척추질환 AI 기반 의료영상 심사판독 시스템 고도화 ▲디지털 메시지 본서비스 전환 등이 포함됐다. 여기에 ▲디지털플랫폼 인프라 확대(IaaS) 구축 ▲DUR 클라우드 전환 및 고도화 ▲동물병원 판매의약품 관리기능 개발 ▲요양급여내역 확인시스템 인프라 전환·확대 등 다양한 개선 과제가 병행된다. 심평원은 특히 자체 인프라 기반을 확장하는 방향으로 클라우드 전환을 추진하는 모습이다. 제안요청서에는 주센터와 재해복구(DR)센터에 프라이빗 클라우드 환경을 구축하는 내용이 담겼다. 세부 요구사항에는 프라이빗 클라우드 어플라이언스 도입을 전제로 관리노드·컴퓨트노드·스토리지노드·네트워크 노드 구성 등 인프라 사양까지 제시됐다. 기관 내부 업무 특성과 운영 안정성을 고려해 자체 클라우드 기반을 강화하는 흐름으로 해석된다. 클라우드 네이티브 요소도 포함됐다. 컨테이너 기반 전환, 쿠버네티스 오브젝트 구성, CI/CD 파이프라인 구축, 헬름(Helm) 차트 제공 등 운영 자동화·표준화 관련 요구사항이 제시됐다. 또 다른 대형 사업으로는 법무부 서울출입국·외국인청이 추진하는 출입국정보화센터 이전 및 클라우드 전환 사업이 발주된다. 사업 기간은 계약일로부터 10개월이며 총사업 금액은 173억4천600만원 규모다. 이번 사업은 올해 10월 신청사 개청에 맞춰 출입국정보시스템을 안정적으로 이전하고 노후 유닉스 서버를 리눅스 기반으로 전환(U2L)하는 것이 핵심이다. 가상서버(VM) 생성과 솔루션 설치, 서비스 환경 구성, 전환·테스트 수행 등이 포함됐다. 전산장비 이설과 기반시설 구축 등 물리적 요건도 사업 범위에 포함됐다. 제안요청서에는 항온항습기·무정전전원장치(UPS) 등 전산실 운영 기반 구축과 출입통제·CCTV 등 물리보안 설비, 온라인 소산 시스템 구성까지 제시돼 있다. 업계에선 이번 사업들이 클라우드 전환이라는 기조를 담고 있지만, 발주 구조상 민간 퍼블릭 클라우드 서비스 도입형이라기보다 SI 기반 구축·전환 성격이 강한 것으로 보고 있다. 실제 일부 제안요청서에서는 클라우드 보안인증(CSAP) 서비스 요건이 '해당 없음'으로 표기돼 외부 퍼블릭 클라우드 활용 범위가 크지 않을 가능성도 거론된다. 국내 클라우드 업계 관계자는 "공공 클라우드 전환 사업이 확대되는 건 분명 긍정적"이라며 "다만 일부 사업에서 CSAP 기반 퍼블릭 클라우드 활용이 전제되지 않으면, 민간 클라우드 서비스를 통한 혁신 효과가 제한될 수 있다는 점도 함께 고려할 필요가 있다"고 말했다.

2026.01.18 15:30한정호 기자

HPE "AI 네이티브 전환 확산…인프라 경쟁력 기준 달라진다"

인공지능(AI)이 데이터센터와 네트워킹 인프라의 설계·운영 방식 전반을 재편하면서 향후 인프라 경쟁력 기준 역시 근본적으로 달라질 것이란 전망이 나왔다. AI를 중심으로 한 자동화·자율화 흐름이 본격화되며 데이터센터는 물론 네트워크 운영과 인력 역할까지 구조적 전환이 불가피하다는 분석이다. 13일 HPE가 발표한 올해 데이터센터 및 네트워킹 인프라 분야 주요 전망에 따르면 데이터센터와 네트워킹 인프라는 올해를 기점으로 AI 네이티브 구조로 빠르게 전환될 것으로 전망된다. 워크로드 배치, 장애 예측, 성능 최적화는 물론 에너지 효율 관리와 전력 비용 협상까지 AI가 지원하는 폐쇄형 루프 운영 모델이 확산되며 수동 개입 중심 기존 운영 방식은 점차 한계를 드러낼 것으로 예상된다. 특히 데이터센터 영역에서는 엣지와 AI 결합이 가속화되면서 마이크로 하이퍼스케일러가 새로운 인프라 모델로 부상할 것으로 전망했다. 고속 이더넷과 AI 추론 가속기, 자율 운영 기술을 기반으로 한 소규모 데이터센터가 지역 단위에서 중앙 클라우드 워크로드를 분산 처리하며 엣지는 단순한 보조 인프라를 넘어 전략적 수익 창출 거점으로 역할이 확대될 것으로 분석했다. 네트워크 구조 역시 AI 학습과 추론에 최적화된 방향으로 재편될 것으로 보인다. HPE는 올해 이후 데이터센터 설계 출발점이 컴퓨트가 아닌 네트워크 패브릭이 될 것으로 내다봤다. 조 단위 파라미터 모델 확산과 함께 개방형 고성능 이더넷 기반 AI 패브릭 수요가 증가하면서 네트워크는 애플리케이션을 인지하고 실시간으로 적응하는 지능형 구조로 진화할 것이란 전망이다. 이더넷 자율화도 주요 변화로 꼽혔다. AI 텔레메트리를 내장한 스위치 ASIC을 통해 혼잡 제어와 전력 효율 최적화가 자동으로 이뤄지고 의도 기반 네트워킹은 패브릭 스스로 학습·예측·교정하는 형태로 구현될 것이란 설명이다. 이에 따라 복잡한 CLI 중심의 네트워크 운영 방식은 점차 사라질 것으로 예상했다. 보안 역시 네트워크 패브릭의 기본 요소로 내재화될 것으로 전망했다. 모든 패킷과 포트, 프로세스에 신뢰 점수를 부여하고 분산형 AI 엔진이 이를 실시간 검증하는 구조가 확산되면서 제로 트러스트 데이터센터가 기본 설계 기준으로 자리 잡을 것이란 분석이다. 무선 네트워크 분야에서는 AI 운영관리(Ops)가 핵심 운영 요소로 부상할 것으로 보인다. HPE는 복잡해진 무선 환경에서 AI 기반 운영 없이는 안정적인 네트워크 품질 유지가 어려워질 것으로 내다봤다. AI가 혼잡을 예측하고 RF 동작과 채널 구성을 자동 최적화하면서 기존 수동 튜닝 중심 운영 방식은 점차 사라질 것이란 설명이다. HPE는 에이전틱 AI를 기반으로 한 LAN의 역할 변화도 주목했다. LAN은 단순히 장애를 복구하는 수준을 넘어 사용자 경험을 사전에 예측하고 선제적으로 최적화하는 경험 엔진으로 진화한다는 전망이다. 스위치와 액세스 포인트에 내장된 AI 에이전트가 사용자 행동과 서비스 수요를 분석해 성능 저하를 체감하기 전에 문제를 해결하는 구조가 확산될 것으로 분석했다. 이와 함께 유선·무선·WAN을 넘어 컴퓨트와 스토리지를 아우르는 풀스택 통합 운영이 기본값으로 자리 잡을 것이라고 밝혔다. 기업들은 단일 운영 프레임워크와 공통 AI 거버넌스 하에서 전체 인프라를 관리할 수 있는 환경을 요구하게 되며 경쟁력 기준도 개별 제품 성능이 아닌 통합된 시스템 완성도로 이동할 것이란 전망이다. 인력 측면에서도 변화가 예상된다. HPE는 네트워크 엔지니어 역할이 단순 설정·운영 중심에서 AI 코파일럿과 협업하는 전략적 역할로 진화할 것으로 내다봤다. 생성형 AI가 1차 운영과 장애 대응을 담당하면서 엔지니어는 대규모 자동화를 설계·검증하고 AI를 오케스트레이션하는 역할에 집중하게 될 것이란 설명이다. HPE는 "올해 데이터센터와 네트워킹 인프라는 개별 기술의 집합이 아닌, AI를 중심으로 단일 유기체처럼 동작하는 구조로 진화할 것"이라며 "성공적인 기업은 풀스택 인프라를 단일한 경험으로 제공할 수 있는 전략을 선택하게 될 것"이라고 강조했다.

2026.01.13 15:14한정호 기자

"AI 확산에 데이터센터 투자, 2030년까지 3조 달러 몰린다"

인공지능(AI)과 클라우드 확산으로 글로벌 데이터센터 산업에 향후 수년간 천문학적인 자금이 투입될 전망이다. 서버와 전산 장비는 물론 데이터센터 시설, 전력 인프라까지 대규모 투자가 불가피하다는 분석이 나왔다. 13일 신용평가기관 무디스에 따르면 전 세계 데이터센터 관련 투자 규모는 2030년까지 최소 3조 달러(약 4천411조원)에 이를 것으로 예상된다. 무디스는 최근 보고서를 통해 AI와 클라우드 컴퓨팅 수요 확대를 뒷받침하기 위해 서버, 컴퓨팅 장비, 데이터센터 시설, 신규 전력 설비 전반에 걸쳐 막대한 자본 투입이 필요하다고 밝혔다. 투자 자금 상당 부분은 빅테크 기업들이 직접 부담할 것으로 전망된다. 무디스는 마이크로소프트(MS)·아마존·알파벳·오라클·메타·코어위브 등 미국 내 6개 하이퍼스케일러가 올해 데이터센터 투자에만 약 5천억 달러(약 735조원)를 집행할 것으로 내다봤다. 데이터센터 용량 확장이 지속되는 가운데 이를 운영하기 위한 전력 수요 역시 빠르게 증가하고 있다는 설명이다. 자금 조달 측면에서는 은행권의 역할이 여전히 핵심을 차지하는 한편, 대규모 자본 수요에 대응해 기관투자가들의 참여도 확대될 것으로 분석됐다. 향후 은행과 함께 다른 기관투자가들이 공동으로 금융을 제공하는 사례가 늘어날 것이라는 전망이다. 또 무디스는 미국 내 데이터센터들이 차환 시점에 자산유동화증권(ABS), 상업용 부동산담보부증권(CMBS), 프라이빗 크레딧 시장을 보다 적극적으로 활용할 가능성이 높다고 봤다. 올해 기록적인 자금 발행 이후 신규 금융 규모와 집중도가 더 커질 것으로 예상됐다. 실제 미국 ABS 시장에서는 지난해 약 150억 달러(약 22조원)가 발행된 만큼, 데이터센터 건설 대출을 중심으로 올해 발행 규모가 크게 증가할 것으로 전망했다. AI 확산을 뒷받침하기 위해 필요한 막대한 부채 규모를 두고 일각에서는 거품 우려도 제기되고 있다. 일부 기술이 기대에 못 미칠 경우 주식 및 신용 투자자들에게 부정적인 영향을 미칠 수 있다는 지적이다. 다만 무디스는 신규 데이터센터 건설 수요가 둔화될 조짐은 보이지 않는다고 평가했다. 무디스는 데이터센터 증설 경쟁이 아직 초기 단계에 있으며 향후 12~18개월 동안 글로벌 시장에서 성장세가 이어질 것으로 내다봤다. 장기적으로는 향후 10년 내 필요한 용량을 확보하기 위한 투자가 지속될 것이라는 분석이다. 무디스 존 메디나 수석 부사장은 "불과 3년 전만 해도 존재하지 않았던 챗GPT와 같은 서비스가 이제는 막대한 연산 자원을 사용하고 있다"며 "신기술 등장 속도가 빨라 향후 채택 속도를 정확히 예측하기는 어렵지만, 데이터센터 용량 증설은 결국 필요해질 것"이라고 말했다.

2026.01.13 11:20한정호 기자

몬드리안에이아이, '네오클라우드' 사업 출사표…포스트매스와 AI 에듀테크 고도화

몬드리안에이아이가 글로벌 인공지능(AI) 시장 새 패러다임인 '네오클라우드' 사업에 본격 나섰다. 몬드리안에이아이는 포스트매스와 손잡고 AI 에듀테크 플랫폼 고도화를 위한 전략적 파트너십을 체결했다고 12일 밝혔다. 몬드리안에이아이는 이번 파트너십을 통해 최신 엔비디아 그래픽처리장치(GPU)인 B300 클러스터를 구축하고 이를 기반으로 한 차세대 네오클라우드 서비스를 선보인다. 네오클라우드는 기존 범용 퍼블릭 클라우드와 달리, 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스다. 몬드리안에이아이는 자사 AI 플랫폼 '런유어 AI'와 첨단 GPU 자산을 결합해 포스트매스와 같은 딥테크 기업이 인프라 제약 없이 혁신을 주도하도록 지원하는 네오클라우드 서비스 공급자로서 입지를 공고히 할 계획이다. 몬드리안에이아이 네오클라우드 인프라는 포스트매스가 추진하는 AI 기반 에듀테크 플랫폼 고도화를 뒷받침하는 핵심 엔진 역할을 수행할 전망이다. 포스트매스는 몬드리안에이아이 B300 인프라를 활용해 자체 AI 모델 개발과 400만 개 이상 데이터베이스(DB)를 활용한 AI 학습·자동화 솔루션 개발에 적용할 예정이다. 이는 포스트매스가 첨단 AI 인프라 확보를 통해 교육 솔루션 완전 자동화와 글로벌 확장을 앞당기고자 하는 적극적 투자 전략이다. 몬드리안에이아이는 네오클라우드 사업 핵심인 매니지드 서비스 역량을 집중 투입한다. B300 하이엔드 GPU 운영에 필수적인 고밀도 전력 및 냉각 시스템, 머신러닝 운영관리(MLOps) 기술력을 바탕으로 포스트매스 연구진이 인프라 관리 부담 없이 AI 모델 연구와 서비스 혁신에만 몰입할 수 있는 환경을 제공한다는 방침이다. 이와 함께 몬드리안에이아이는 고성능 인프라 확보와 안정적인 운영 환경 구축에 어려움을 겪는 기업 및 연구기관을 대상으로 AI 인프라 전략 컨설팅을 상시 운영한다. 차세대 추론형 AI 모델 개발을 위해 고성능 연산 자원이 필요한 고객사를 대상으로 전문 매니지드 서비스를 제공해 인프라 구축부터 최적화까지 원스톱 솔루션을 지원할 계획이다. 홍대의 몬드리안에이아이 대표는 "이번 협력은 우리가 표방하는 네오클라우드 비즈니스의 본격적인 출발점"이라며 "포스트매스가 주도하는 에듀테크 플랫폼 솔루션 혁명이 성공적으로 안착할 수 있도록 독보적인 인프라 기술력을 총동원하겠다"고 밝혔다. 최준호 포스트매스 대표는 "올해는 우리가 운영하는 AI 콘텐츠 제작 플랫폼 '수학비서'가 글로벌 에듀테크 플랫폼으로 약진하는 시발점이 될 것이기에 그 어느 때보다 AI 인프라가 중요한 시점"이라며 "몬드리안에이아이와의 파트너십이 좋은 선례가 될 것으로 기대하며 상호 보완 및 협력 사업 발굴에 적극 임할 것"이라고 말했다.

2026.01.12 17:00한정호 기자

이노그리드, 전국 6개 권역 지사 체계 전환…지역 클라우드 대응 강화

이노그리드가 지방 고객 확대와 지역별 클라우드 서비스 수요 증가에 박차를 가한다. 이노그리드는 전국 6개 권역 기반 지사 운영 체계로 전환하고 영업·기술지원 역량 강화를 중심으로 한 영업 확장 전략을 본격 추진한다고 12일 밝혔다. 이번 지사 체계 전환은 기존 수도권 중심 단일 운영 구조에서 벗어나 권역별 고객 대응 프로세스를 고도화하고 지역 특성에 맞춘 영업 전략을 단계적으로 확대해 전국 단위 B2B 고객 지원 역량을 강화하려는 조치다. 이노그리드는 이번 지사 체계 전환에 앞서 대표 직속 조직을 폐지하고 개발·사업·수행·BD·전략·경영 등 6개 그룹 체계로 조직을 재편하는 전사 조직개편을 단행했다. 각 그룹장 책임 아래 기능별 전문성과 의사결정, 실행력을 강화해 회사 전반의 사업 수행 효율과 운영 안정성을 높였다는 설명이다. 이같은 조직개편을 바탕으로 이노그리드는 전국을 ▲서울·강원 ▲인천·경기 ▲충청 ▲호남 ▲영남 ▲대구·경북 등 6개 권역으로 구분해 운영한다. 서울·강원과 인천·경기 권역은 기존과 같이 서울 본사를 중심으로 통합 대응하고 충청권에는 대전지사, 호남권에는 광주지사, 영남권에는 부산지사, 대구·경북 권역에는 대구지사를 운영한다. 이를 통해 전국 6개 권역, 4개 지사 기반의 전국 단위 클라우드 서비스 네트워크를 가동한다. 각 지사는 단순 영업 거점이 아닌 클라우드, 인공지능(AI) 인프라 구축, 재해복구(DR) 시스템 구축, 외산 솔루션 윈백, 전환 컨설팅, 서비스 운영 및 기술지원 등 클라우드 전문기업 역할을 수행하게 된다. 또 지역 내 공공기관 및 기업 고객을 대상으로 영업 활동과 지역별 특성·수요를 반영한 맞춤형 서비스를 제공한다. 지사 체계는 박홍선 상무가 총괄한다. 박홍선 리전 익스펜션 사업본부장은 "이번 지사 체계 전환은 우리 핵심 역량인 클라우드 기술력을 전국으로 확산하고 지역별 고객들에게 보다 신속하고 차별화된 고품질 서비스를 제공하기 위한 전략적 결정"이라며 "각 권역에서 영업과 기술지원이 유기적으로 협력해 고객과 거리를 좁히고 지역 현장에서 체감할 수 있는 실질적인 서비스 경쟁력을 지속 강화해 나가겠다"고 밝혔다. 또 이노그리드는 지사 운영과 연계해 지역 기반 기술 인력 확보에도 나선다. 지역 우수 IT 인재 채용을 통해 수도권 중심 인력 구조에서 벗어나고 본사와 지사 간 협업 체계를 강화해 분산된 환경에서도 안정적인 프로젝트 수행과 기술지원이 가능케 할 계획이다. 아울러 지사 설립을 계기로 지역 IT 기업들과 협력도 강화한다. 클라우드 기술력과 지역 IT 기업의 인프라 및 시장 이해도를 결합해 지역별 산업 특성에 최적화된 맞춤형 디지털 전환 모델을 공동 개발하고 판로 개척을 지원하는 등 동반 성장을 추진할 방침이다. 김명진 이노그리드 대표는 "이번 지사 체계 전환은 올해 AI 시대를 주도하는 클라우드 솔루션 기업으로 도약하기 위한 사업 확산의 초석으로, 전국 6개 권역을 중심으로 고객 접점을 촘촘히 넓히고 지역 특화 파트너와 협업을 제도화해 전국 단위 파트너사 체계를 확립하겠다"고 말했다. 이어 "기술과 실행으로 고객 가치를 높이고 지역과 함께 성장하는 디지털 전환 생태계를 만들어 가겠다"고 덧붙였다.

2026.01.12 11:36한정호 기자

생성형 AI, 수업·행정 효율 돕지만…가트너 "관리 역량 부족"

전 세계 교육 기관이 생성형 인공지능(AI)을 수업 준비와 행정 업무 효율화에 활용하고 있지만 기술 공정성과 활용 범위에 대한 기준과 거버넌스는 여전히 부족하다는 분석이 나왔다. 11일 가트너가 공개한 트렌드 보고서에 따르면 각국 초·중·고 학교에는 AI 기술 도입 속도와 이를 관리하는 체계 사이에 뚜렷한 격차가 존재하는 것으로 나타났다. 가트너는 교육기관 내 AI 확산이 오히려 관리와 기준 공백을 키우고 있다고 진단했다. 이에 따라 교육 기술 경쟁 초점도 단순한 도입을 넘어 거버넌스와 통합 운영으로 이동하고 있다는 분석이다. 보고서는 생성형 AI가 수업 준비와 행정 업무 전반에 빠르게 적용되고 있는 반면, 학생 데이터 보호를 비롯해 기술 공정성, 활용 범위에 대한 명확한 기준과 관리 체계는 여전히 미흡하다고 지적했다. 특히 학생 개인정보와 학습 기록, 행동 데이터가 AI 시스템과 연결되면서 실시간 모니터링, 제로 트러스트 보안, 사이버 위협 대응 역량이 충분히 뒷받침되지 않고 있다는 평가가 나왔다. 가트너는 코로나 시기 대규모로 도입된 노트북, 태블릿, 네트워크 장비가 노후화 단계에 접어든 점도 주요 배경으로 봤다. 이에 단기적인 기기 교체가 아닌 장기 기술 교체와 클라우드 전환이 학교 운영 핵심 과제가 될 것이라고 전망했다. 또 학교 선택제 확대와 홈스쿨링 증가로 학습 모델이 다변화되면서, 학생 이동, 등록, 학습 이력을 통합 분석하는 상호운용 플랫폼에 대한 수요도 함께 커지고 있다고 분석했다. 가트너는 "각국 학교는 AI와 보안, 디지털 인프라를 개별 과제가 아닌 통합 전략으로 다뤄야 한다"며 "효율성과 규제, 학생 보호를 동시에 충족하는 구조로 전환해야 한다"고 밝혔다.

2026.01.11 15:00김미정 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

오케스트로, 경기도 정보시스템 국산 클라우드 전환…'탈VM웨어' 앞장

오케스트로가 VM웨어 기반 경기도 정보시스템을 자사 솔루션으로 전환해 외산 가상화 인프라를 국산 클라우드로 윈백했다. 오케스트로는 경기도 클라우드컴퓨팅 시스템 구축사업을 완료했다고 9일 밝혔다. 이번 사업은 경기도 AI통합데이터센터 내 클라우드 존을 구축하고 노후 정보시스템을 프라이빗 클라우드 환경으로 전환하는 데 초점을 맞췄다. 전체 시스템 구축은 엔디에스(NDS) 컨소시엄이 수행했다. 오케스트로는 대규모 시스템에 자사 풀스택 클라우드 솔루션을 적용하고 이를 안정적으로 운영할 수 있는 환경을 구축했다. 전환 대상 시스템은 단종된 VM웨어를 포함한 이기종 환경에서 운영돼 왔으며 시스템별 운영 환경과 구조가 제각각 달라 까다로운 마이그레이션 조건을 갖추고 있었다. 특히 일부 시스템은 기존 인프라에 대한 의존도가 높아 탈VM웨어 환경으로 전환이 쉽지 않다는 평가를 받아왔다. 이러한 기술적 제약을 극복하기 위해 오케스트로는 마이그레이션 전문 솔루션 '콘트라베이스 레가토 마이그레이터'를 적용했다. 이를 통해 단종된 시스템을 포함한 100여 개 이상 가상 서버를 서비스 중단 없이 안정적으로 이전했다. 기존 솔루션으로는 대응이 어려웠던 이기종 환경까지 전환하며 고객이 직면했던 라이선스 문제와 기술 지원 공백 우려도 해소했다. 전환 과정에선 서버 가상화 솔루션 '콘트라베이스'를 중심으로 탈VM웨어 환경으로 윈백했다. 더불어 클라우드 네이티브 운영관리 플랫폼 '비올라'와 멀티 클라우드 통합 관리 솔루션 '오케스트로 CMP'를 적용해 전환 이후 운영 안정성과 관리 체계까지 함께 고도화했다. 이를 통해 외산 가상화 환경에 의존하던 경기도 정보시스템을 국산 클라우드 기반 통합 운영 체계로 전환했다. 오케스트로는 지난해 국내 서버 가상화 분야에서 윈백 레퍼런스를 다수 확보해 왔다. 이번 사례 역시 자사 전환 역량을 바탕으로 복잡한 전환 요건을 지닌 공공 인프라도 국산 기술로 전환할 수 있음을 입증했다는 설명이다. 경기도는 이번 전환을 통해 외산 솔루션에 대한 의존도를 낮추고 안정적인 정보시스템 운영 기반과 장기적인 비용 효율성까지 함께 확보했다. 김범재 오케스트로 대표는 "이번 사업은 복잡한 기존 인프라 환경에서도 국산 기술로 대규모 시스템을 안정적으로 전환한 의미 있는 사례"라며 "공공 행정 시스템에 특화된 전환 역량을 바탕으로 앞으로도 공공부문에서 신뢰받는 기술 파트너로 자리매김해 나가겠다"고 말했다.

2026.01.09 16:04한정호 기자

엔비디아·오픈AI 파트너 英 엔스케일, 20억 달러 투자 추진…IPO 수순 밟나

엔비디아의 지원을 받는 영국 인공지능(AI) 데이터센터 기업 엔스케일이 대규모 신규 투자 유치에 나설 가능성이 제기됐다. AI 인프라 투자 열기가 이어지는 가운데 '네오클라우드'로 불리는 신흥 AI 하이퍼스케일러들의 몸값과 사업 지속성에 이목이 쏠리고 있다. 9일 블룸버그통신에 따르면 엔스케일은 약 20억 달러(약 2조9천억원) 규모 자금 조달을 목표로 투자자들과 논의를 진행 중이다. 이는 두 차례에 걸쳐 15억 달러(약 2조1천800억원) 이상을 조달한 지 불과 석 달여 만이다. 이번 잠재적 투자 유치를 위해 골드만삭스와 JP모건체이스와 협력 중인 것으로 알려졌다. 다만 논의는 초기 단계로, 최종적으로 거래가 성사되지 않을 가능성도 배제할 수 없다고 소식통들은 전했다. 엔스케일은 2024년 암호화폐 채굴 사업을 시작으로 현재는 고성능 AI 반도체를 클라우드형 서비스로 제공하는 네오클라우드 사업자 중 하나다. 엔스케일은 엔비디아, 오픈AI와의 파트너십을 기반으로 유럽 내 AI 인프라 수요를 흡수하며 빠르게 성장해왔다. 최근 포르투갈에서 마이크로소프트(MS) 및 현지 파트너와 함께 100억 달러(약 14조원)를 투입해 데이터센터를 구축 중이다. 노르웨이와 영국에서도 엔스케일 데이터센터 자원을 임대할 계획이다. 앞서 엔스케일은 지난해 9월과 10월 각각 11억 달러(약 1조6천억원), 4억3천300만 달러(약 6천299억원) 규모 투자를 유치했다. 특히 9월 라운드 투자는 유럽 역사상 최대 규모 시리즈B 투자로 기록됐으며 엔비디아를 비롯해 델·노키아·피델리티·블루아울·포인트72 등이 투자자로 참여했다. 경영진 보강도 눈에 띈다. 엔스케일은 최근 팔란티어 출신의 로런 허위츠를 최고운영책임자(COO)로 영입했고 지난달에는 JP모건에서 20년 이상 근무한 앨리스 타흐타잔을 최고재무책임자(CFO)로, 마이크로소프트 애저 AI·HPC 인프라 부문 임원을 지낸 니디 차펠을 AI 인프라 부문 사장으로 선임했다. 일부 투자자들은 이같은 인사 행보를 향후 기업공개(IPO)를 염두에 둔 포석으로 보고 있다. 최근 네오클라우드 기업들의 주가는 변동성이 확대되는 양상이다. 코어위브는 지난해 3월 상장 이후 주가가 고점 대비 조정받았지만, 현재도 공모가 대비 두 배 수준에서 거래 중이다. 네비우스 그룹은 대형 파트너십을 바탕으로 지난 1년간 주가가 세 배 이상 상승했다. 사안에 정통한 소식통은 "엔스케일은 엔비디아 및 오픈AI와의 협력을 무기로 유럽 내 AI 인프라 수요를 선점하고 있지만, 이번 투자 유치는 시장 상황과 기업가치를 둘러싼 투자자들의 판단에 따라 최종 결정이 내려질 것"이라고 밝혔다.

2026.01.09 11:23한정호 기자

티맥스티베로, 포스코 해외법인 ERP 시스템 고도화…속도·성능 50%↑

티맥스티베로가 복잡해지는 글로벌 데이터 인프라 변화 속에서 국산 데이터베이스(DB) 경쟁력을 입증했다. 티맥스티베로는 포스코 글로벌 법인을 대상으로 진행한 전사적자원관리(ERP) 시스템 인프라 환경 업그레이드 사업을 완료했다고 6일 밝혔다. 이 사업은 포스코 해외가공법인을 비롯해 무역·물류 및 이차전지소재 관련 법인의 핵심 업무 시스템을 대상으로 티베로 DB를 포함한 자바·WAS·프레임워크·클라우드 서버·운영체제(OS) 등 IT 인프라 전반을 최신 버전으로 업그레이드하는 프로젝트다. 이를 통해 한국·중국·동남아·인도·미주·유럽 등 포스코 6개 권역 해외가공법인이 표준 프로세스를 기반으로 동일한 업무 체계를 더욱 안정적으로 운영할 수 있도록 지원하며 보안과 성능을 강화하고 운영 효율을 높이는 데 중점을 뒀다. 특히 미주·유럽·인도 등 원거리 지역과 한국 본사 간의 데이터 복제 속도 및 안정성을 확보하고 데이터 유실 모니터링·복구 기능을 추가 적용해 글로벌 멀티 리전 운영 환경을 고도화했다. 이를 위해 기존 티베로 6 DB를 클라우드 환경에 최적화된 최신 버전 '티베로7' DB로 업그레이드하고 실시간 데이터 동기화를 지원하는 솔루션 '프로싱크'도 최신 버전으로 적용했다. 이번 프로젝트는 6개 권역에 분산된 ERP 운영 환경의 내부 소프트웨어와 클라우드 서버를 동시에 최신 버전으로 업그레이드하는 방식으로 추진됐다. 티베로는 사전 기술검증(PoC) 단계부터 완료까지 전 과정에서 DB 및 데이터 복제·연계 환경에 대한 기술 지원과 성능 개선을 수행했다. 포스코는 해당 프로젝트를 통해 글로벌 멀티 리전 환경에서 ERP 시스템을 더욱 안정적으로 운영할 수 있는 시스템 안정성과 확장성을 확보했다. 포스코 측에 따르면 시스템 업그레이드 이후 결산 처리 속도와 사용자 체감 성능은 기존 대비 50% 이상 향상된 것으로 나타났다. 포스코 관계자는 "이번 프로젝트를 통해 글로벌 경영 관리 체계를 한층 강화할 수 있었다"며 "해외가공법인의 업무 효율성과 데이터 활용 경쟁력이 크게 향상될 것으로 기대한다"고 말했다. 티맥스티베로 정순보 부사장은 "복잡한 대규모 글로벌 인프라 변경 속에서도 국산 DB의 기술적 우수성과 신뢰성을 입증한 의미 있는 성과"라며 "앞으로도 축적된 기술 역량을 바탕으로 기업의 핵심 경영 시스템 분야에서 글로벌 시장을 적극 공략할 것"이라고 밝혔다.

2026.01.06 17:50한정호 기자

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호 기자

[인터뷰] "AI 인프라 폭증 시대…해법은 카카오클라우드 하이브리드 GPUaaS"

"인공지능(AI) 서비스가 커질수록 인프라 비용 부담이 수익성을 잠식하는 구조가 고착화되고 있습니다. 이제는 클라우드만으로는 이 문제를 해결하기 어렵습니다." 카카오엔터프라이즈 이재한 클라우드부문 사업본부장은 최근 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간'에서 지디넷코리아와 만나 이같이 강조했다. AI 인프라 시장이 학습 중심에서 추론 중심으로 전환되는 과정에서 기업들이 비용 구조의 한계를 직면한다는 설명이다. 이 본부장은 "AI 서비스가 확산될수록 추론 트래픽이 급증하고 이에 따라 고가 그래픽처리장치(GPU) 사용이 불가피해진다"며 "매출이 늘수록 인프라 비용도 함께 증가하는 역설적인 상황이 이미 현실화되고 있다"고 진단했다. 카카오엔터프라이즈는 이러한 구조적 문제의 해법으로 '하이브리드 서비스형 GPU(GPUaaS)'를 제시하고 있다. 하이브리드 GPUaaS는 고객이 GPU 서버를 자산으로 보유하되, 카카오클라우드의 단일 콘솔과 플랫폼을 통해 퍼블릭 클라우드 GPUaaS와 동일한 방식으로 운영·관리할 수 있도록 한 모델이다. 초기 개발이나 기술검증(PoC) 단계에서는 클라우드 GPU를 활용해 민첩성을 확보하고 서비스가 본궤도에 오르면 GPU 자산화를 통해 중장기 총소유비용(TCO)을 낮추는 방식이 핵심이다. 이를 통해 클라우드의 유연성과 온프레미스의 비용 효율성을 동시에 확보할 수 있다. AI 추론 시대의 비용 딜레마, '하이브리드 GPUaaS'로 풀다 AI 인프라 시장의 가장 큰 변화는 추론 비용이 학습 비용을 추월하는 시점이 도래하고 있다는 점이다. 글로벌 리서치와 카카오엔터프라이즈의 분석에 따르면 내년을 전후로 AI 서비스의 총비용 구조에서 추론이 차지하는 비중이 학습을 넘어설 것으로 전망된다. 문제는 기존 '클라우드 온리' 전략이 이러한 환경에서 수익성 악화를 가속화할 수 있다는 점이다. 서비스 이용량이 늘수록 GPU 사용량이 증가하고 이는 곧 비용 증가로 직결된다. 일부 글로벌 AI 기업들이 대규모 자체 데이터센터 구축과 자산화 전략으로 회귀하는 배경도 여기에 있다. 이 본부장은 "국내 스타트업과 중소기업 입장에서는 대규모 온프레미스 구축이 현실적으로 쉽지 않다"며 "전력·상면·냉각·운영 인력까지 고려하면 초기 진입 장벽이 매우 높다"고 말했다. 실제 국내에서 최신 엔비디아 B200·B300급 GPU를 수용할 수 있는 데이터센터는 제한적이며 랙당 전력 밀도 역시 주요 제약 요소로 작용하고 있다. 이러한 상황에서 단순한 온프레미스 전환은 또 다른 부담으로 작용할 수 있다는 설명이다. 카카오엔터프라이즈는 이 지점에서 하이브리드 전략이 현실적인 대안이 된다고 바라봤다. 고정 수요는 자산화된 GPU로 처리하고 변동성이 큰 수요는 클라우드 GPUaaS로 흡수하는 구조다. 이 모델을 적용할 경우 퍼블릭 클라우드 GPUaaS 대비 약 33% 수준의 TCO 절감 효과를 기대할 수 있고 고객이 직접 온프레미스를 구축하는 방식과 비교해도 약 10~20% 비용 효율성이 개선된다는 것이 카카오엔터프라이즈의 분석이다. 이 본부장은 "결국 AI 서비스가 성장할수록 기업의 고민은 어떻게 GPU를 더 싸고 안정적으로 쓰느냐로 수렴한다"며 "하이브리드 GPUaaS는 그 질문에 대한 가장 현실적인 답"이라고 말했다. 운영·확장·가시성까지…"민첩성과 수익성 동시 확보 지원" 하이브리드 GPUaaS의 차별점은 단순 비용 절감에 그치지 않는다. 카카오엔터프라이즈는 유연성·효율성·가시성을 핵심 가치로 제시하고 있다. 먼저 유연성 측면에서 고객은 평상시에는 전용 GPU 자산을 활용해 최대 효율을 확보하고 트래픽이 급증할 경우 클라우드 GPU로 즉시 확장할 수 있다. 모든 자원은 하나의 VPC와 단일 콘솔에서 관리된다. 효율성 측면에서는 GPU 자원 할당과 회수, 모델 학습·배포·서빙까지 머신러닝 운영관리(MLOps) 기반 자동화를 지원한다. 이를 통해 유휴 GPU 발생을 최소화하고 운영 인력 부담을 줄일 수 있다. 가시성 역시 핵심 요소다. 물리적으로 분산된 GPU 자원을 단일 대시보드에서 모니터링하고 사용량·가동률·비용을 통합적으로 파악할 수 있어 TCO 관리가 용이하다. 보안 측면에서도 금융권 수준의 클라우드 서비스 제공사(CSP) 안정성 평가를 충족한 데이터센터 환경을 기반으로 서비스를 제공한다. 이는 규제 산업으로의 확장 가능성을 뒷받침하는 요소다. 이 본부장은 "하이브리드 GPUaaS는 금융권과 공공기관, 대규모 엔터프라이즈를 중심으로 도입 사례가 확산되고 있다"며 "전력과 상면 확보가 어려운 고객일수록 수요가 빠르게 늘고 있다"고 밝혔다. "GPU는 싸게만 쓰는 게 아니다"…플랫폼·통합 모니터링으로 차별화 카카오엔터프라이즈는 하이브리드 GPUaaS를 단순한 인프라 상품이 아니라 AI 플랫폼 전략의 출발점으로 보고 있다. 이 본부장은 "GPU 비용만 낮춘다고 AI 경쟁력이 생기는 것은 아니다"라며 "GPU를 얼마나 효율적으로 운영·관리하고 AI 개발과 서비스로 연결할 수 있느냐가 더 중요해지고 있다"고 설명했다. 이를 위해 카카오엔터프라이즈는 GPU 자원 통합 관리와 모니터링을 중심으로 한 AI 플랫폼 고도화를 추진하고 있다. 온프레미스 GPU와 카카오클라우드 GPUaaS는 물론, 외부에 분산된 GPU 자원을 일원화해서 하나의 대시보드로 통합 관리하는 방향을 준비 중이다. 이 본부장은 "고객 입장에서는 GPU가 어느 인프라에 있든 상관없이 하나의 콘솔에서 쓰는 것이 중요하다"며 "하이브리드 GPUaaS는 이런 통합 관리 전략을 실현하기 위한 기반"이라고 말했다. 특히 GPU 사용 현황, 가동률, 성능, 비용을 실시간으로 모니터링하고 학습·추론 워크로드를 효율적으로 배치하는 기능이 핵심이다. 이를 통해 불필요한 유휴 자원을 줄이고 AI 서비스 운영 단계에서의 비용 예측 가능성을 높인다는 구상이다. 카카오엔터프라이즈는 이러한 통합 운영 역량이 향후 AI 플랫폼 경쟁력의 핵심 요소가 될 것으로 보고 있다. 단순히 GPU를 제공하는 것을 넘어 AI 모델 학습부터 배포·서빙·운영까지 이어지는 전체 흐름을 플랫폼 차원에서 지원하겠다는 전략이다. 카카오엔터프라이즈 이재한 본부장은 "AI 비즈니스가 지속 가능하게 성장하려면 인프라 비용을 통제할 수 있는 구조가 필요하다"며 "카카오클라우드의 하이브리드 GPUaaS는 AI를 위한 멀티·하이브리드 전략의 한 축으로 자리 잡을 것"이라고 강조했다. 이어 "하이브리드 GPUaaS를 통해 고객이 성장 단계에 맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 적극 돕겠다"고 덧붙였다.

2025.12.21 16:19한정호 기자

굿어스데이터, 오라클 클라우드 핵심 파트너로 '부상'…스타트업 해외 진출 지원

굿어스데이터가 오라클 클라우드 인프라스트럭처(OCI)를 기반으로 한 인공지능 전환(AX) 프로젝트를 연이어 수행하며 글로벌 AI 서비스 확장을 지원하는 스케일업 파트너로서의 역량을 입증했다. 굿어스데이터는 AI 기반 투자정보 서비스 기업 투디지트의 모델을 기반으로 한 미국 주식 분석서비스 기술검증(PoC)을 마쳤다고 19일 밝혔다. 굿어스데이터는 OCI 기술력을 바탕으로 인공지능(AI)·헬스케어 분야 기업들의 글로벌 진출을 지원 중이다. 투디지트는 과학기술정보통신부와 중소벤처기업부가 주관한 AI 스타트업 거대언어모델(LLM) 챌린지 사업에서 '글로벌 시장 진출 유망 AI 스타트업'에 선정된 기업이다. 굿어스데이터가 구축한 OCI 기반의 고성능 그래픽처리장치(GPU) 환경을 기반으로 미국 시장 서비스 출시를 앞두고 있다. 굿어스데이터는 이번 프로젝트에서 ▲OCI 기반 글로벌 서비스 아키텍처 구축 ▲데이터베이스(DB) 전환·운영 안정화 설계 ▲대규모 LLM 서비스 운영 환경 최적화 등을 수행했다. 이를 통해 투디지트가 대규모 모델 기반 서비스를 해외 클라우드 환경에서도 안정적으로 운영할 수 있는 시스템을 확보하도록 지원했다. 굿어스데이터는 오라클의 AI 데이터 플랫폼 전문 파트너로서 AI 서비스 상용화와 글로벌 확장 지원을 핵심 사업 목표로 삼고 있다. 이번 프로젝트를 통해 LLM 기반 AI 서비스에 요구되는 대규모 데이터 처리 역량과 안정적인 클라우드 인프라 구축 경험을 축적했다. 앞으로 금융·헬스케어 등 다양한 산업군에서 AI 서비스 스타트업과 디지털 헬스케어 플랫폼 기업을 중심으로 PoC부터 상용화, 해외 시장에서의 서비스 운영까지 전 과정을 지원하는 표준 전환 모델을 정립·확산하며 국내 AI 기업의 글로벌 진출을 지원할 계획이다. 아울러 굿어스데이터는 최근 피지컬 AI 기반 디지털 헬스케어 플랫폼 기업 엠아이제이의 클라우드 인프라 전환 프로젝트도 수행했다. 헬스케어 서비스 특성에 맞춘 OCI 기반 구축, 시스템 이관, 애플리케이션 최적화 등을 지원해 안정적이고 확장 가능한 클라우드 인프라 환경 구축했다. 굿어스데이터는 오라클 클라우드를 기반으로 전략적 파트너십을 확대해 국내 AI 생태계 확장과 클라우드 기술력 고도화를 이끈다는 목표다. 굿어스데이터 데이터사업부 장재식 상무는 "오라클 클라우드를 기반으로 기업들이 글로벌 시장에서도 흔들림 없이 서비스를 운영할 수 있도록 안정적인 인프라 환경을 제공하는 것이 우리의 역할"이라며 "각 기업의 산업적 특성과 기술 구조에 맞춘 클라우드 환경을 제공함으로써 해외 시장 확장에 필요한 기반 마련을 함께하고 있다"고 말했다.

2025.12.19 15:43한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

업황은 냉랭 현장은 북적…7.7만명 몰린 인터배터리 이모저모

헤드폰·뷰티기기까지…화이트데이 '핑크 디바이스' 주목

펄어비스 '붉은사막' 출시 D-7...글로벌 시장 정조준

[단독] 오픈AI CFO, 비공개 방한…SK네트웍스·업스테이지 수장 한 자리서 만난 이유는

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.