• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU 클라우드'통합검색 결과 입니다. (101건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

글로벌 AI 투자 몰리는 '네오클라우드'…한국 스타트업도 도전장

생성형 인공지능(AI) 확산과 함께 그래픽처리장치(GPU)를 중심으로 한 '네오클라우드'가 글로벌 인프라 시장의 새로운 축으로 부상하고 있다. 미국과 유럽에서 수십조원대 투자가 이어지는 가운데, 국내 스타트업들도 AI 전용 인프라 시장을 정조준하며 본격적인 경쟁에 뛰어드는 모습이다. 1일 업계에 따르면 네오클라우드는 기존 범용 클라우드와 달리 AI 학습·추론에 최적화된 고성능 GPU 자원을 서비스형(GPUaaS)으로 제공하는 사업 모델을 뜻한다. AI 모델 크기와 연산량이 급증하면서 하이퍼스케일러만으로는 수요를 감당하기 어려워지자 GPU 중심 인프라를 특화해 제공하는 사업자들이 빠르게 성장 중이다. 글로벌 시장에선 코어위브·람다랩스·네비우스 등이 대표적이다. 이들 기업은 엔비디아 GPU를 대규모로 확보해 AI 기업에 맞춤형 연산 자원을 제공하며 몸집을 키우고 있다. 특히 북미 기준 엔비디아 H100 GPU 임대 비용이 하이퍼스케일러 대비 3분의 1 수준에 불과하다는 조사 결과도 나오며 가격 경쟁력도 부각되고 있다. 금융권 자금도 네오클라우드로 몰리고 있다. 미국 주요 금융사는 네오클라우드 기업이 보유한 GPU를 담보로 대규모 대출을 실행하며 인프라 확장을 지원하고 있다. 시장조사기관 ABI리서치는 GPUaaS 기반 네오클라우드 시장이 2030년 약 90조원 규모로 성장할 것으로 내다봤다 . 이같은 흐름 속에 국내 스타트업들도 AI 전용 인프라 사업자로 정체성을 재정립하며 시장 공략에 속도를 내고 있다. 대표 사례가 베슬AI다. 이 회사는 자사 플랫폼 '베슬 클라우드'를 기반으로 AI 워크로드 운영에 특화된 네오클라우드 사업자로 입지를 강화하고 있다 . 베슬AI는 최근 GPU 클라우드 서비스를 공식 출시하고 연내 H200·B200·B300 등 최신 GPU 1만 장 규모 인프라를 구축하겠다는 계획을 밝혔다. 이미 미국·이스라엘·핀란드 등 6개 지역 데이터센터와 계약을 체결했으며 100여 개 기업과 연구기관이 서비스를 이용 중이다. 글로벌 대학과 연구기관 도입도 확대되며 지난해 매출은 전년 대비 3.4배 성장했다. 에너지 효율 측면에서도 차별화를 시도하고 있다. 베슬AI는 미국 데이터센터 기업과 협력해 전력망 상황에 따라 AI 워크로드를 자동 조정하는 그리드 인지형 머신러닝 운영관리(MLOps) 솔루션을 공동 개발 중이다. GPU 확보 경쟁을 넘어 운영 효율까지 아우르는 네오클라우드 전략이다. 몬드리안에이아이 역시 네오클라우드를 차세대 성장 축으로 내세웠다. 이 회사는 지난해부터 네오클라우드 사업 출사표를 던지며 최근 엔비디아 B300 GPU 클러스터 구축에 나섰다. 네오클라우드를 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스로 정의하고 매니지드 서비스 역량까지 결합하겠다는 전략이다 . 특히 델 테크놀로지스 인프라와 자체 ML옵스 플랫폼 '예니퍼', AI 실행환경 패키지 '몬스택'을 결합한 어플라이언스 '몬박스'를 교육·연구 현장에서 빠르게 확산하고 있다. 서울과학기술대학교와 성균관대학교 등에서 도입 사례가 이어지며 복잡한 설정 없이 즉시 AI 연구가 가능한 환경을 제공하고 있다는 평가다. 몬드리안에이아이는 최근 150억원 규모 시리즈B 투자 유치에 나서며 GPU 인프라 확충과 글로벌 진출을 병행하겠다는 계획도 밝혔다. 단순 GPU 임대를 넘어 인프라·플랫폼·서비스를 아우르는 네오클라우드 그룹으로 도약하겠다는 구상이다 . 업계에선 네오클라우드가 하이퍼스케일러의 대체재라기보다 AI 특화 워크로드를 분리·보완하는 공존형 인프라로 자리 잡을 가능성에 무게를 둔다. 다만 GPU 확보 비용, 전력비 상승, 엔비디아 의존도 등은 장기 리스크로 꼽힌다. 그럼에도 AI 모델 고도화와 산업 전반의 AI 전환(AX)이 가속화되는 한 GPU 중심 인프라 수요는 지속 확대될 것이란 전망이 우세하다. 글로벌 자본이 몰리는 네오클라우드 시장에서 한국 스타트업들이 기술·운영 역량을 바탕으로 의미 있는 경쟁력을 확보할 수 있을지 주목된다. 박현규 몬드리안에이아이 부사장은 "네오클라우드는 단순히 GPU를 임대하는 사업이 아니라 AI 연구와 서비스가 바로 작동할 수 있는 환경을 패키지로 제공하는 모델"이라며 "국내 기업과 연구기관이 인프라 부담 없이 AI 혁신에 집중할 수 있도록 네오클라우드 역량을 지속적으로 고도화하겠다"고 밝혔다.

2026.03.01 08:47한정호 기자

베슬AI, GPU 클라우드 서비스 출시…연내 1만장 규모 인프라 구축

베슬AI가 올해 1만 장 규모 최신 그래픽처리장치(GPU) 인프라를 구축해 클라우드 사업 확대에 나선다. 베슬AI는 GPU 자원을 효율적으로 운영하는 서비스 '베슬 클라우드'를 공식 출시했다고 24일 밝혔다. 베슬 클라우드는 분산된 GPU 자원을 활용해 인공지능(AI) 개발 환경의 비용과 운영 부담을 줄이는 데 초점을 맞춘 클라우드 서비스다. 회사 측에 따르면 업계 최소 수준인 분 단위의 과금 체계를 적용했으며 작업을 중단해도 데이터와 환경을 유지하는 '스마트 퍼징' 기능을 통해 유휴 자원 비용을 최소화한다. 장애 발생 시 자동 복구 기능과 다중 클러스터 기능도 지원해 안정적인 운영 환경을 제공한다. 글로벌 보안 통제 기준인 'SOC 2 타입 2' 인증을 획득해 기업 환경에 필요한 신뢰성과 안정성도 확보했다. 이번 출시는 베슬AI가 추진하는 글로벌 인프라 공급망 네오클라우드 전략의 본격적인 실행 단계에 해당한다. 회사는 이스라엘·미국·핀란드·한국을 포함한 6개 지역 데이터센터와 계약을 체결했으며 연내 신규 데이터센터 구축을 포함해 H200·B200·B300 등 GPU 1만 장 규모의 인프라를 단계적으로 확충할 계획이다. 이를 통해 증가하는 고성능 연산 수요에 대응한다는 방침이다. 현재 베슬 클라우드는 미국 피지컬 AI 스타트업부터 국내 대형 금융지주에 이르기까지 100여 개 기업 및 연구기관에서 이용되고 있다. 특히 로보틱스·미세 조정·자율주행 등 고성능 연산이 요구되는 딥테크 분야와 금융권에서 실제 상용 환경에 활용되며 안정성을 검증받고 있다. 베슬 클라우드는 지난 1월 한 달 만에 지난해 베슬AI 전체 연간 매출의 50% 이상을 기록했다. 이는 고성능 연산 자원 운영에 대한 시장 수요가 빠르게 확대되고 있음을 보여주는 지표다. 안재만 베슬AI 대표는 "AI 인프라 경쟁은 단순히 GPU 수량 확보를 넘어 전 세계에 분산된 자원을 얼마나 효율적으로 연결하고 운영하느냐가 핵심"이라며 "확충 중인 GPU 인프라와 이미 확인된 성장 흐름을 기반으로 올해 전년 대비 10배 이상의 매출 성장을 달성하고 네오클라우드 생태계를 글로벌 수준으로 확장해 나가겠다"고 말했다.

2026.02.24 14:13한정호 기자

정부, 고성능 GPU 1만5천장 확충한다…다음주 사업 공고 전망

정부가 올해 1만 5000장 규모의 고성능 그래픽처리장치(GPU)를 추가 확보하는 대형 사업을 다음주 공개할 전망이다. 지난해 1만 3000여 장 도입에 이어 2년 연속 대규모 확충에 나서며 국가 인공지능(AI) 인프라를 강화하는 모습이다. 20일 업계에 따르면 과학기술정보통신부는 '첨단 AI반도체 서버확충 및 통합운영환경 구축' 사업 공고를 이르면 다음주 말께 게시할 예정이다. 공고 시점은 내부 검토 상황에 따라 다소 유동적이지만 최대한 이른 시일 내 공개할 것으로 전해졌다. 이번 사업은 1만 5000장 이상 규모의 GPU를 확보·구축하는 내용으로 설계되고 있다. 총 지원 예산은 약 2조원 규모로 편성됐다. 확보된 자원은 민간 클라우드 서비스 제공업체(CSP)가 구축·운영하는 서비스형 GPU(GPUaaS) 방식으로 제공될 예정이다. 정부의 GPU 확충 정책은 지난해 추경을 통해 1만 3000여 장을 확보하는 등 단계적으로 추진돼 왔다. 이후 엔비디아와의 협력 발표를 계기로 중장기 공급 로드맵이 보다 구체화되면서 확충 속도에 힘이 실린 것으로 평가된다. 당시 정부는 2030년까지 총 26만 장 규모 GPU를 국내에 도입하는 계획을 제시했고 이 가운데 정부 몫은 5만 2000장 수준으로 제시됐다. 올해 추가 확보 사업도 이러한 중장기 로드맵을 이행하는 과정의 연장선이다. 정부는 지난해 약 1만 3000장의 GPU를 확보하고 네이버클라우드·NHN클라우드·카카오를 1차 사업자로 선정한 바 있다. 당시 확보 물량은 엔비디아 B200 1만 80장, H200 3056장으로 구성됐으며 이 중 1만장 이상이 정부 활용분으로 산학연 등에 순차 지원하도록 이뤄졌다. 특히 1차 사업에서는 GPU 통합지원 플랫폼 구축을 통해 산학연과 스타트업이 온라인으로 GPU 자원을 신청·배정받는 구조도 마련됐다. 정부와 운용 사업자들은 실무협의체를 구성해 확보·구축·운용 계획과 배분 일정 등을 점검해왔다. 이를 토대로 최근 정부가 진행하는 GPU 보급 사업에 초거대 AI 모델 개발을 추진하는 스타트업과 대학·연구기관의 관심이 집중되며 신청 수요가 빠르게 늘어난 것으로 전해졌다. 올해 사업은 이같은 기반에 GPU 물량을 더 확대하는 방식이다. 과기정통부 산하 정보통신산업진흥원(NIPA)은 지난달 통합 사업설명회를 통해 올해 GPU 1만 5000장 확보를 목표로 제시하며 국가AI컴퓨팅센터 설립과 병행 추진하겠다는 계획을 밝힌 바 있다. 이번 사업은 지난해 참여했던 네이버클라우드·카카오·NHN클라우드를 비롯해 KT클라우드 등 주요 CSP들의 참여 여부가 관심사로 떠오르고 있다. 이미 GPUaaS 운영 경험과 데이터센터 인프라를 갖춰 공공사업을 진행 중인 만큼 다시 한번 GPU 추가 확보에 나설 가능성이 거론된다. 사업 공고에 따라 단일 사업자, 복수 사업자, 컨소시엄 형태 등 다양한 방식이 검토될 수 있다는 관측도 나온다. 이번에 확보될 GPU는 산학연 연구 수요와 국가 전략 AI 프로젝트 등에 투입될 전망이다. 정부는 지난해 확보 물량을 통해 초대형 클러스터 기반 AI 워크로드 지원 체계를 마련했으며 올해 추가 물량을 통해 지원 범위와 규모를 더욱 확대한다는 구상이다. 사업 일정은 공고 이후 사업자 선정, 협약 체결, GPU 발주 및 구축 순으로 진행될 예정이다. 이와 함께 정부는 삼성SDS 컨소시엄이 수주한 국가AI컴퓨팅센터 구축도 병행하고 있다. 현재 금융 심사가 진행 중이며 관련 절차가 마무리되는 대로 인프라 확충 작업이 이어질 전망이다. 정부는 민간과 협력하는 GPUaaS 모델을 통해 단기 수요에 대응하고 중장기적으로는 국가 차원의 컴퓨팅 인프라를 체계화한다는 방침이다. 과기정통부 관계자는 "최대한 빨리 공고를 내기 위해 준비 중이며 내부 검토를 거쳐 다음주 말쯤 공개될 것으로 예상한다"고 밝혔다. 업계 관계자는 "지난해 사업을 통해 GPUaaS 운영 모델이 어느 정도 안착한 만큼, 올해 추가 물량까지 더해지면 국가에서 추진하는 다양한 AI 개발 프로젝트를 수준 높게 지원할 수 있을 것"이라고 말했다.

2026.02.20 14:52한정호 기자

[종합] 한국 클라우드, AI 인프라·공공사업이 판 키웠다…2025년 나란히 실적 반등

국내 클라우드 산업이 인공지능(AI) 인프라 수요 확대를 발판으로 또 한 번의 분기 성장세를 기록했다. 네이버·KT·NHN 등 주요 클라우드 서비스 제공사(CSP)들은 그래픽처리장치(GPU) 기반 AI 인프라와 공공 클라우드 전환 수요를 양축으로 외형 확대와 수익성 개선을 동시에 모색한 것으로 나타났다. 12일 네이버·KT·NHN이 공시한 2025년 4분기 실적에 따르면 각 기업은 AI 인프라 고도화와 공공·산업별 디지털 전환 수요를 기반으로 엔터프라이즈·기술·클라우드 부문 매출을 끌어올렸다. GPU 확보 경쟁과 데이터센터 투자 확대가 실적에 본격 반영되며 그룹 내 존재감을 키웠고 단순 인프라 공급을 넘어 AI 중심 플랫폼 사업자로의 전환이 본격화됐다는 평가가 나온다. 먼저 네이버는 2025년 4분기 엔터프라이즈 부문에서 1718억원의 매출을 기록했다. 전년 동기 대비 3.2% 감소했지만, 전년도에 반영된 일회성 요인을 제외하면 16.6% 성장한 수치다. 직전 분기 대비로는 14.5% 증가하며 회복세를 보였고 연간 기준으로는 5878억원을 기록하며 전년 대비 4.3% 성장했다. 이번 실적은 서비스형 GPU(GPUaaS) 매출 반영과 사우디아라비아 슈퍼앱 구축, 디지털 트윈 등 글로벌 프로젝트 확대에 힘입은 결과다. 네이버는 AI·클라우드 사업을 이끄는 네이버클라우드를 주축으로 금융·공공·의료 등 고보안 영역 중심의 소버린 AI 전략을 강화 중이며 서울대학교병원·한국은행과의 협업을 통해 산업별 특화 AI 모델 구축을 확대하고 있다. 다만 네이버클라우드는 최근 과학기술정보통신부가 추진한 독자 AI 파운데이션 모델 프로젝트 1차 평가에서 다음 단계 진출에 실패하며 우려가 제기돼왔다. 이에 대해 최수연 네이버 대표는 지난 6일 실적발표 컨퍼런스콜에서 "정부 측 결과를 존중하나 이것이 네이버의 기술 경쟁력 부족을 의미하는 것은 아니다"라며 "B2B 매출에 큰 영향은 없을 것이며 연구개발(R&D)을 통해 기술 리더십을 공고히 하겠다"고 밝혔다. KT클라우드는 2025년 연간 매출 9975억원으로 전년 대비 27.4% 성장하며 1조원에 근접한 실적을 기록했다. 4분기 매출은 2779억원이다. 공공 AI 클라우드 수요 확대와 글로벌 고객 데이터센터 이용률 증가가 동시에 작용한 결과라는 게 회사 측 설명이다. KT클라우드는 지난해 11월 국내 최초로 액체 냉각 기술을 적용한 가산 AI 데이터센터를 개소하며 고성능 AI 연산 수요에 대응하고 있다. 앞서 2030년까지 320메가와트(MW) 규모 AI 데이터센터 전력 인프라를 확보한다는 중장기 로드맵도 제시한 바 있다. 이같은 GPU 기반 인프라 확장에 더해 국내외 소프트웨어(SW) 기업과 협력하는 AI 파운드리 전략을 바탕으로 인프라·플랫폼·파트너 생태계를 아우르는 구조를 구축한다는 전략이다. 장민 KT 최고재무책임자(CFO)는 "KT클라우드는 글로벌 고객의 데이터센터 이용률 증가와 공공 AI 클라우드 수요 확대에 힘입어 의미 있는 성과를 거뒀다"며 "이러한 성장 흐름은 올해도 이어질 것"이라고 말했다. 다음으로 NHN클라우드는 2025년 4분기 사상 첫 분기 흑자를 달성했다. NHN 기술 부문은 4분기 1391억원의 매출을 기록했으며 이 가운데 NHN클라우드는 전년 동기 대비 30.7%, 전 분기 대비 37.6% 증가하며 영업이익 기준 첫 흑자를 냈다. 연간 기술 부문 매출은 4609억원으로 전년 대비 11.3% 성장했다. NHN클라우드는 광주 국가AI데이터센터에서 GPU 서비스를 국내 기업과 공공기관, 대학 등에 제공하며 AI 수요 확대에 대응해왔다. 또 정부 'GPU 확보·구축·운용지원 사업'에서 다음 달 가동을 목표로 엔비디아 B200 7천656장을 서울 양평 리전에 구축 중이다. 4000장 이상 GPU를 단일 클러스터로 구성하고 수냉식 냉각 시스템 도입으로 대규모 AI 인프라 운영 역량을 강화했다. 민간 부문에서도 성과가 이어졌다. NHN클라우드는 최근 크래프톤의 초거대 GPU 클러스터 사업자로 선정되며 대형 민간 레퍼런스를 확보했다. 지난해 국가정보자원관리원 대전센터 화재 이후 공공 재해복구(DR) 수요 확대와 민간 GPU 매출 증가가 동시에 반영되며 수익 구조 개선에 속도가 붙었다는 분석이다. 정우진 NHN 대표는 "국정자원 대구센터를 통해 주요 공공기관의 클라우드 전환을 완료했고 지난해 화재로 영향을 받았던 주요 정보 시스템도 성공적으로 복구했다"며 "올해도 NHN클라우드는 GPU를 기반으로 확대되는 시장 기회를 선점해 더 높은 수준의 성장 국면에 진입할 것"이라고 강조했다. 아울러 또다른 국내 주요 CSP인 카카오엔터프라이즈는 아직 명확한 실적이 공개되진 않았으나, 업계에선 이원주 대표 선임 이후 비용 효율화를 단행한 만큼 적자 폭을 상당 부분 줄였을 것이라는 예상이 나온다. 클라우드 중심 조직 재편과 비핵심 사업 정리를 통해 체질 개선에 나선 영향이 지난해 실적에 반영됐을 것이라는 관측이다. 카카오엔터프라이즈 역시 다른 CSP와 마찬가지로 GPU 서비스를 강화하고 있다. 지난해 하이브리드 GPUaaS를 공개하며 온프레미스와 클라우드를 결합한 AI 인프라 전략을 제시했다. GPU 인프라 비용 절감과 유연성 확보를 동시에 내세우며 AI 스타트업 및 엔터프라이즈 시장을 겨냥 중이다. 한편 지난해 국정자원 대전센터 화재 이후 공공 디지털 인프라의 안정성과 재해 대응 체계에 대한 경각심이 높아지면서 정부의 민간 클라우드 도입 논의도 활성화되고 있다. 주요 정보시스템의 이중화와 DR 체계 고도화가 정책 과제로 부상하면서 공공기관의 클라우드 전환 및 민관 협력형 인프라 구축 사업이 본격화될 것이라는 전망이 나온다. 이에 공공 레퍼런스와 데이터센터 운영 역량을 확보한 국내 CSP들에게는 중장기적 사업 기회가 확대될 수 있다는 분석이다. 다만 지난해 하반기부터 공공 클라우드 보안인증(CSAP) 재편 논의가 업계 변수로 떠올랐다. CSAP와 국정원 보안 절차 간 조정 가능성이 거론되면서 공공 클라우드 시장의 제도 환경 변화가 기로에 선 상황이다. 이에 국내 CSP들은 변화에 대비하며 공공 레퍼런스 확보와 기술 내재화 전략을 동시에 강화하는 분위기다. 클라우드 업계 관계자는 "GPU 확보와 데이터센터 효율화, 공공 AI 전환 수요가 동시에 확대되며 국내 CSP 간 경쟁이 치열해지고 있다"며 "올해는 외형 성장뿐 아니라 AI 인프라 내재화와 수익성 구조 개선이 경쟁을 가르는 분기점이 될 것"이라고 전망했다.

2026.02.12 15:21한정호 기자

NHN클라우드, 2025년 4분기 첫 흑자…GPU·공공 전환 수혜

NHN클라우드가 그래픽처리장치(GPU) 기반 인공지능(AI) 인프라 사업 확대와 공공 클라우드 전환 수요 증가에 힘입어 2025년 4분기 사상 첫 분기 흑자를 달성했다. 국가정보자원관리원(국정자원) 화재 이후 재해복구(DR) 수요가 본격화되고 정부 GPU 구축 사업이 가시화되면서 외형 성장과 수익성 개선을 동시에 이뤄냈다는 평가다. NHN은 12일 진행한 2025년 4분기 실적발표 컨퍼런스콜을 통해 기술 부문이 전년 동기 대비 17.4%, 전 분기 대비 24.5% 증가한 1391억원의 매출을 기록했다고 발표했다. 이 가운데 NHN클라우드는 4분기 매출이 전년 동기 대비 30.7%, 전 분기 대비 37.6% 증가하며 영업이익 기준 최초 분기 흑자를 달성했다고 밝혔다. 연결 기준 기술 부문 연간 매출은 4609억원으로 전년 대비 11.3% 성장했다. 4분기에는 GPU 서비스 매출 증가와 공공 클라우드 전환 사업 확대가 본격 반영됐다. 특히 NHN클라우드는 광주 국가AI데이터센터에서 GPU 서비스를 국내 기업과 공공기관, 대학 등에 제공하며 AI 수요 확대에 대응했다. 동시에 행정안전부 '모바일전자정부시스템' 등 주요 공공 시스템의 클라우드 전환 및 복구 사업을 수행하며 공공 레퍼런스를 강화했다. 정우진 NHN 대표는 "국정자원 대구센터를 통해 주요 공공기관의 클라우드 전환을 완료했고 지난해 화재로 영향을 받았던 주요 정보 시스템도 성공적으로 복구했다"고 밝혔다. 국가정보자원관리원 화재 이후 DR 수요가 확대되며 공공 클라우드 전환 사업이 실적에 본격 반영됐다는 분석이다. AI 인프라 분야에서도 대형 프로젝트 성과가 이어졌다. NHN클라우드는 정부 'GPU 확보·구축·운용지원 사업'에서 엔비디아 B200 7656장을 서울 양평 리전에 구축 중이며 다음 달 본격 가동을 앞두고 있다. NHN클라우드는 이 사업의 최다 구축 기업으로, 4000장 이상 GPU를 단일 클러스터로 구성하고 수냉식 냉각 시스템을 도입해 국내 최고 수준 운영 역량 입증에 나섰다. 이같은 기술력을 기반으로 최근에는 크래프톤의 초거대 GPU 클러스터 사업자로도 선정됐다. 민간향 AI GPU 매출 확대와 함께 통합 메시지 플랫폼 '노티피케이션' 사용량 증가도 4분기 실적 개선에 힘을 보탰다. NHN은 올해도 GPU 기반 AI 인프라 수요 확대와 DR 사업에서의 지속 수혜를 전망하고 있다. 안현식 NHN 최고재무책임자(CFO)는 "올해 GPU 사업에서 괄목할 만한 성장이 예상되고 DR 사업 수요도 이어질 것"이라며 "올해 클라우드 부문에서 영업이익을 확실히 달성해 흑자 전환될 구조를 만들겠다"고 말했다. 정우진 NHN 대표는 "올해도 NHN 클라우드는 GPU 기반으로 확대되는 시장 기회를 선점해 더 높은 수준의 성장 국면에 진입할 것"이라고 밝혔다.

2026.02.12 10:46한정호 기자

카카오, 구글과 협력…차세대 AI 경험 선보인다

카카오가 차세대 인공지능(AI) 경험을 제공하고자 구글과 손 잡는다. 정신아 카카오 대표는 12일 지난해 4분기 실적 발표 컨퍼런스 콜에서 "올해부터 자사가 더 집중하고자 하는 디바이스 측면에서 차세대 AI 경험을 선보이기 위해 글로벌 협업을 본격적으로 시작하기로 합의했다"고 말했다. 이번 파트너십의 출발점으로 카카오는 자사 온디바이스 AI 서비스를 고도화하기 위해 구글 안드로이드와 협업을 시작한다. 안드로이드 개발팀과 직접 협업한다. 여기에 카카오는 AI 인프라에 대한 재무적 부담이 점진적으로 증가하고 있다는 점을 고려해 그래픽처리장치(GPU)에서 나아가 다양한 칩 라인업을 모델과 서비스별로 최적화해 배치함으로써 자본 효율적인 방식으로 AI 인프라를 강화하는 방안을 고민한다. 또 카카오는 구글클라우드와의 유의미한 규모의 중앙처리장치(CPU) 클라우드 운영에 대한 논의도 진행 중이다. 카카오는 향후 출시될 구글 AI 글래스에서의 협업에도 착수한다. 정 대표는 "앞으로 다양한 AI 폼팩터 환경에서 카카오 서비스가 더해질 때 이용자 경험이 어떻게 달라질 수 있을지에 대한 가설을 세우고 이를 바탕으로 하나씩 실험하며 새로운 AI 사용 경험을 만들어 가고자 한다"고 덧붙였다.

2026.02.12 09:32박서린 기자

[유미's 픽] 李 'AI 고속도로'가 바꾼 판…정부 GPU 지원, 스타트업 실험에 불 붙였다

'인공지능(AI) 고속도로' 구축을 위해 이재명 정부가 추진해온 고성능 그래픽처리장치(GPU) 지원 사업이 국내 AI 스타트업 생태계 조성에 실질적인 역할을 했다는 평가가 나오고 있다. 대규모 연산 자원이 필수적인 파운데이션 모델 개발과 차세대 AI 구조 연구에서 초기 자본이 부족한 스타트업들도 정부 덕에 기술 실험을 지속할 수 있는 토대가 마련됐다는 분석이다. 10일 업계에 따르면 트릴리온랩스는 지난해 9월부터 4개월여간 정부로부터 엔비디아 H200 GPU 80장 규모의 고성능 연산 자원을 지원받아 차세대 AI 구조 연구를 진행했다. 이를 통해 초거대 모델 학습뿐 아니라 기존 트랜스포머 구조의 연산 효율을 개선하기 위한 신규 아키텍처 실험과 대규모 검증을 병행할 수 있는 환경을 구축했다. 이 연산 인프라는 구체적인 기술 성과로도 이어졌다. 트릴리온랩스는 지원받은 GPU 자원을 활용해 지난 달 디퓨전 기반 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다. '트리다-7B'는 단어를 하나씩 순차적으로 생성하는 기존 방식에서 벗어나 문장 전체를 병렬로 생성하는 확산(diffusion) 기법을 언어 모델에 적용한 것이 특징이다. 또 이미지 생성에 주로 활용되던 디퓨전 기술을 언어 모델 구조에 이식함으로써 추론 속도와 연산 효율을 동시에 끌어올렸다. 이와 함께 지난해 10월에는 소규모 프록시 모델을 활용해 대형 언어모델의 성능을 사전에 예측하는 '알브릿지(rBridge)' 기법도 개발했다. 실제 대형 모델을 반복 실행하지 않고도 성능을 가늠할 수 있는 구조로, 연산 효율을 최대 700배 이상 개선하고 거대언어모델(LLM) 개발 비용을 대폭 절감할 수 있는 가능성을 제시했다. 대규모 모델 학습에 앞서 시행착오를 줄일 수 있다는 점에서 파운데이션 모델 개발 방식 자체를 바꿀 수 있는 접근으로 평가된다. 업계에선 이러한 성과가 단순한 개별 기술 개발을 넘어 AI 연구·개발의 비용과 시간, 자원 구조를 근본적으로 재설계했다는 점에 주목하고 있다. 대형 모델을 '더 많이 돌리는 방식'이 아니라 '덜 돌리고도 더 많이 검증하는 방식'으로 전환할 수 있는 가능성을 보여줬다는 점에서다. 이는 스타트업이 제한된 자원 환경에서도 고난도 연구를 지속할 수 있는 실질적인 해법으로 꼽힌다. 이 같은 결과 뒤에는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 지원 방식도 한 몫 했다는 평가다. 앞서 정부는 삼성SDS·KT클라우드·엘리스클라우드를 '고성능컴퓨팅 지원사업' 공급사로 선정한 후 지난해 9월부터 12월까지 국내 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등에 총 1천 장의 GPU를 지원했다. 당시 삼성SDS와 엘리스그룹은 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급했다. 당시 정부에선 그간 단순히 GPU를 일괄 배분하는 데 그치지 않고 연구 단계와 실험 난이도에 맞춰 자원 활용 계획을 조정하며 과제 수행 전반을 관리했다. 또 개발 과정에서 발생하는 변수에 따라 지원 방식을 유연하게 조정하고 현장의 피드백을 즉각 반영하는 방식으로 연구 완성도를 높였다. 이 과정에서 정부는 단순한 예산 집행 기관을 넘어 프로젝트의 '내비게이터' 역할을 수행하며 실질적인 성과를 견인했다는 평가를 받았다. 또 단순히 규모가 큰 기업이 아닌, 독보적인 기술력과 성장 잠재력을 보유한 스타트업을 정밀하게 선별해 과제 수행 기업으로 낙점하려는 노력이 참여 기업으로부터 큰 호응을 얻었다. 업계 관계자는 "정부가 행정적 관리에 그치지 않고 모델 출시 과정에서 발생하는 변수에 맞춰 지원 체계를 업데이트했다"며 "현장의 목소리를 즉각 반영해 모델의 완성도를 높이는 실질적인 가이드도 제공해줬다"고 말했다.이어 "무한정한 지원 대신, 한정된 예산 내에서 최선의 결과물을 낼 수 있도록 목표 난이도를 정교하게 조정해준 점도 인상 깊었다"며 "이를 통해 자원의 낭비를 막고 효율적인 사용 위에 최대의 성과를 이끌어냈다"고 덧붙였다. 트릴리온랩스 역시 정부 인프라 지원을 발판 삼아 국내에서 시도된 적 없는 기술 실험을 진행할 수 있었다고 평가했다. 독자적인 모델 구조와 학습 기법을 실제 대규모 환경에서 반복 검증하며 스타트업이 겪는 컴퓨팅 파워 한계를 일정 부분 극복할 수 있었다는 것이다. 신재민 트릴리온랩스 대표는 "정부의 GPU 지원 사업이 단순한 인프라 제공을 넘어 기술 기업의 도전 방식을 바꿨다"며 "자본력보다 기술적 실험과 구조 혁신에 집중할 수 있는 조건을 마련했다는 점에서 국내 AI 생태계에 미친 영향이 적지 않다"고 강조했다. 이 같은 분위기 속에 정부가 추가경정예산으로 확보한 고성능 GPU 자원으로 어떤 AI 연구 기관, 기업들이 수혜를 받을지 관심이 쏠린다. 정부는 총 1만3천136장 규모의 GPU를 최대 12개월까지 이용할 수 있도록 한 사업을 공고한 후 지난 달 28일 마감했다. 이번에는 학계·연구기관은 무상으로, 산업계는 자부담 방식으로 지원받는 구조다. 구축·운영은 민간 클라우드 3사가 맡는다. 네이버클라우드는 세종 데이터센터에 H200 2296장을 안착시켰고, 카카오는 안산 데이터센터에 B200 2040장을 클러스터 형태로 구축했다. NHN클라우드는 3월께 B200 6120장을 갖출 계획이다. 정부는 이 사업에 예산 1조4590억원을 투입했다. 이번 프로젝트는 과제별로 H200, B200 중 하나만 신청할 수 있다. 신청은 서버 묶음 기준으로 이뤄진다. H200은 최소 서버 2대(16장)에서 최대 서버 32대(256장)까지, B200은 최소 서버 2대(16장)에서 최대 서버 16대(128장)까지다. 조만간 선정될 수요 기업은 원격 접속 방식인 GPUaaS(GPU as a Service)로 고성능 컴퓨팅 자원을 손쉽게 이용할 수 있다. 정부가 고수한 '1사 1지원' 원칙을 사실상 폐기해 중복 신청 문턱이 낮아진 점도 눈에 띈다. 이 일로 동일 기업 내 복수 부서도 각각 GPU 자원을 확보할 수 있게 됐다. 다만 연구 인력의 독립성과 과제 주제는 차별돼야 한다. 여기에 정부는 지난해 확보한 1만3000장에 이어 올해는 B200 기준 1만5000장을 투입해 지원 범위를 넓힐 계획이다. 이를 구축하기 위해 총 2조831억원(출연금)이 투입될 이번 사업 공고는 이달 중 나올 예정으로, 과기정통부 단일 사업 기준 최대 규모 프로젝트로 평가된다. 또 단일 사업자가 전체 물량을 감당하기 어려운 만큼, 사업 구조 자체를 어떻게 설계할지가 관건이 될 전망이다. 과기정통부 관계자는 "주요 클라우드 서비스 제공업체(CSP)들과 면담한 결과 데이터센터 상면(물리적 수용 공간) 확보는 어느 정도 가능한 수준으로 파악됐다"며 "최신 GPU를 확보하는 것이 유리한 만큼 엔비디아 차세대 AI 칩 '베라루빈'을 업체들이 제안할 경우 가점을 줄 지에 대한 방안에 대해선 고민 중"이라고 밝혔다. 업계에선 정부의 고성능 연산 인프라 지원이 일회성 사업에 그치지 않고 파운데이션 모델·신규 아키텍처·산업 특화 AI로 이어지는 연속적인 연구 생태계로 정착할 수 있을지가 향후 사업 성공 여부의 관건이 될 것이라고 전망했다. 업계 관계자는 "특히 연산 자원 접근성이 기술 경쟁력으로 직결되는 AI 산업 특성을 감안할 때 정부의 GPU 지원 정책이 국내 스타트업들의 글로벌 도전 여력을 좌우하는 핵심 변수로 작용할 것으로 예상된다"며 "단기 성과보다 중장기 연구 축적이 가능한 구조로 설계될 경우 정부 지원이 국내 AI 산업의 체질을 바꾸는 계기가 될 수 있다"고 말했다.

2026.02.10 11:43장유미 기자

오케스트로, 여의도에 도심형 엣지 데이터센터 구축…소버린 AI 겨냥

오케스트로가 여의도 신사옥 부지에 도심형 엣지 인공지능(AI) 데이터센터를 구축해 고객의 소버린 AI 수요 대응에 나선다. 오케스트로는 DCK와 소버린 AI 클라우드 데이터센터 구축을 위한 업무협약(MOU)을 체결했다고 28일 밝혔다. 협약식은 지난 22일 서울 여의도 오케스트로 본사에서 열렸으며 양사 주요 관계자들이 참석했다. 생성형 AI 확산으로 그래픽처리장치(GPU) 기반 AI 인프라 수요가 빠르게 증가하는 가운데, 최근 데이터 주권과 보안, 비용 통제가 가능한 프라이빗 AI 환경에 대한 관심이 높아지고 있다. 특히 금융·공공·대기업을 중심으로 퍼블릭 클라우드의 제약을 벗어나 데이터와 운영 정책을 직접 통제할 수 있는 소버린 AI 환경을 도입하려는 움직임도 본격화된 상황이다. 이번 협약은 프라이빗 클라우드 기반 소버린 AI 클라우드 데이터센터를 구축하기 위해 추진됐다. 양사는 오케스트로 여의도 신사옥 부지를 활용해 도심형 엣지 AI 데이터센터를 조성하고 이를 고객 전용 소버린 AI 클라우드 데이터센터로 구현할 계획이다. 여의도에 조성될 이 센터는 5메가와트(MW)급 규모로, GPU 기반 대규모 AI 워크로드와 국산 AI 반도체(NPU), 국산 거대언어모델(LLM)까지 연계할 수 있도록 설계된다. 외부 클라우드나 공용 자원에 의존하지 않는 전용 환경을 통해 고객이 데이터와 운영 정책을 직접 설정하고 관리할 수 있는 안전한 프라이빗 소버린 AI 환경을 구현하는 것이 목표다. 특히 랙당 최대 30키로와트(kW)를 수용할 수 있는 고밀도 전력·냉각 설계와 수냉식 냉각 설비를 적용해 고성능 GPU 운영에 필요한 대규모 AI 전용 인프라를 구현하는 것이 강점이다. 랙 후면 도어 열교환기(RDHx) 방식을 적용해 공랭 기반 장비의 배기열을 수냉으로 제거하는 구조로 설계해 고밀도 GPU 환경에서도 열을 효과적으로 제어할 수 있다는 설명이다. 오케스트로는 해당 데이터센터에 자사 AI·클라우드 풀스택 솔루션을 적용해 AI 서비스부터 클라우드 인프라, 통합 운영 관리까지 하나의 아키텍처로 제공할 계획이다. 이를 통해 고객은 자체 데이터센터를 구축하거나 별도 운영 인력을 투입하지 않고도 통합된 소프트웨어·하드웨어·상면 서비스를 기반으로 프라이빗 AI 인프라를 운영할 수 있다. 해당 데이터센터의 설계·구축은 DCK가 전담한다. 양사는 개발·인허가부터 설계·조달·시공(EPC), 운영, 영업에 이르기까지 데이터센터 구축 전 과정에 걸쳐 협력한다. DCK는 전국 주요 거점에서 AI 특화 데이터센터 개발을 추진해 왔으며 최근 수도권 내 도심형 엣지 AI 데이터센터 인허가를 확보하는 등 데이터센터 설계·구축 역량을 보유 중이다. 오케스트로는 이번 협약을 통해 여의도 도심형 엣지 AI 데이터센터를 기반으로 한 소버린 AI 데이터센터 구축을 단계적으로 확대할 방침이다. DCK가 보유한 마곡·청담 AI 데이터센터에도 자사 AI·클라우드 풀스택 솔루션을 적용해 산업별 AI 인프라 수요에 대응할 계획이다. 김범재 오케스트로 대표는 "여의도 신사옥에 소버린 AI 클라우드 데이터센터를 구축하는 것은 우리 AI 인프라 전략을 구체화하는 중요한 과정"이라며 "고밀도 전력·냉각 설계를 통해 고성능 GPU를 안정적으로 운영할 수 있는 프라이빗 AI 데이터센터를 구축하고 주요 거점으로 단계적 확장해 소버린 AI 환경 구축을 본격화할 것"이라고 말했다.

2026.01.28 17:00한정호 기자

메가존클라우드, 하나은행과 디지털 혁신 금융 서비스 발굴 '맞손'

메가존클라우드가 하나은행과 인공지능(AI)·클라우드·데이터 사이언스 등 디지털 신기술을 접목한 혁신 금융 서비스 공동 발굴에 나선다. 메가존클라우드는 지난 23일 서울 중구 하나은행 을지로 본점에서 하나은행과 AI 클라우드 시장 내 상호 협업과 금융 서비스 지원을 위한 전략적 업무협약(MOU)을 체결했다고 26일 밝혔다. 이날 체결식에는 이주완 메가존클라우드 이사회 의장과 이호성 하나은행장이 참석했다. 이번 협약을 통해 양측은 정부의 글로벌 AI 3강 비전에 따른 AI 데이터센터 구축을 위해 메가존클라우드가 도입 예정인 대규모 그래픽처리장치(GPU)·신경망처리장치(NPU) 서버 수입과 관련한 하나은행의 수출입 금융 지원을 추진한다. 아울러 금융 서비스, 클라우드, AI 등 양사가 보유한 기술과 서비스를 활용한 융복합 비즈니스 모델 발굴 등에 지속 협력할 방침이다. 특히 하나은행은 GPU·NPU 서버 수입과 관련한 금융 지원과 별도로 직·간접 지분 투자도 추진할 계획이다. 이를 통해 메가존클라우드는 아시아 최대 클라우드 관리 서비스 기업(MSP) 입지와 기술 경쟁력을 강화한다는 목표다. 또 GPU 수급에 어려움을 겪고 있는 국내 빅테크·반도체 기업의 성장 촉진도 도모할 방침이다. 메가존클라우드 황인철 최고매출책임자(CRO)는 "우리 강점인 멀티·하이브리드 클라우드 운영 역량과 AI 특화 플랫폼을 하나은행의 금융 데이터들과 겹합해 AI 금융 특화 솔루션을 만들고 금융 특화 AI 데이터센터 활성화를 가속화할 예정"이라고 밝혔다.

2026.01.26 16:14한정호 기자

NHN클라우드, 크래프톤 GPU 클러스터 사업 수주…운영 기술력 입증

NHN클라우드가 대규모 그래픽처리장치(GPU) 클러스터를 서비스형 GPU(GPUaaS)로 구축·운영하는 기술력과 역량을 입증했다. NHN클라우드는 크래프톤이 발주한 GPU 클러스터 사업 최종 사업자로 선정돼 계약을 체결하고 GPUaaS 기반 인프라를 제공한다고 19일 밝혔다. 이번 사업은 크래프톤이 지난해 10월 인공지능(AI) 퍼스트를 경영 핵심 전략으로 선언한 이후 AI 활용을 본격 확대하는 과정에서 증가하는 AI 연산 수요에 대응하기 위해 추진됐다. GPU 클러스터는 AI 플랫폼과 데이터 통합·자동화 기반 고도화 등 중장기 AI 전략을 안정적으로 실행하기 위한 핵심 기반으로, NHN클라우드가 제공하는 GPUaaS를 활용해 인프라를 유연하게 확장하고 운영 효율을 높이는 데 초점을 맞췄다. NHN클라우드는 이번 사업에서 대규모 GPU 클러스터를 제공함으로써 크래프톤의 AI 전략 실행을 뒷받침한다. NHN클라우드가 광주 국가 AI 센터를 자체 설계·구축하고 2021년부터 현재까지 GPUaaS 서비스를 안정적으로 제공해 온 기술력을 보유한 점과 수년간 다수 공공·민간 고객을 대상으로 AI 인프라 서비스를 운영해 온 경험이 이번 사업 파트너로 선정된 배경으로 꼽힌다. 또 고객 요구사항을 면밀히 분석해 함께 시스템을 설계·구축해 온 컨설팅 및 사업 수행 역량도 강점으로 작용했다. NHN클라우드는 이번 사업에서 엔비디아 최신 GPU인 블랙웰 울트라 1천여 장으로 구성된 GPU 팜을 멀티 클러스터 구조로 구성해 대규모 AI 연산 환경을 구축한다. 여기에 XDR-800G급 초고속 인피니밴드 네트워크를 적용해 GPU 간 대용량 데이터를 저지연·고속으로 전송할 수 있도록 설계한다. 이를 통해 여러 GPU를 동시에 사용하는 환경에서도 데이터 전송 지연을 최소화하고 고성능 GPU를 효과적으로 활용해 AI 모델 학습 속도를 높이는 한편 전반적인 AI 작업을 안정적으로 운영할 수 있도록 할 계획이다. NHN클라우드는 GPU 클러스터 구성 요소를 효율적으로 조합해 동일 예산 대비 실제 활용 가능한 GPU 연산 자원을 극대화했으며 장기적인 운영 효율까지 고려한 구조로 설계했다. 특히 GPU를 여러 작업이 함께 사용할 수 있도록 동적 관리 구조를 적용한다. 이를 통해 AI 개발·학습·추론 등 다양한 작업이 동시에 진행되더라도 GPU 자원을 필요에 따라 유연하게 나눠 쓰고 조정할 수 있어 유휴 자원을 최소화하고 전체 클러스터 활용 효율을 높일 계획이다. 이같은 GPU 리소스 동적 관리 방식은 소규모 AI 개발 환경부터 대규모언어모델(LLM) 학습까지 AI 작업 규모와 특성에 맞춰 GPU 활용도를 탄력적으로 조정할 수 있다. 아울러 NHN클라우드는 맞춤형 GPUaaS로 AI 개발과 운영 전반에 유연한 환경을 제공한다. 대규모 AI 학습과 연산 특성에 맞춰 쿠버네티스와 고성능 컴퓨팅(HPC) 환경에 적합한 슬럼 기반 자원 관리 솔루션을 적용해 다양한 AI 작업이 동시에 진행되는 환경에서도 안정적인 운영이 가능하다. 이에 더해 다양한 AI 개발 도구와 외부 시스템을 연동할 수 있는 구조를 갖춰 AI 서비스 개발 속도와 전반적인 업무 효율을 함께 높일 수 있도록 지원할 계획이다. 이번 블랙웰 울트라 GPU 인프라는 NHN클라우드 판교 NCC 센터에 구축된다. 판교 NCC는 고집적 연산을 원활히 운영할 수 있는 전력·냉각 인프라와 우수한 네트워크 연결성을 갖춰 대규모 AI 워크로드 처리에 적합한 시설이다. 해당 인프라는 오는 7월 중 구축을 완료하고 본격 가동될 예정이다. 크래프톤 관계자는 "AI 퍼스트 전략을 추진하는 과정에서 GPU 클러스터는 전사 AI 운영 핵심 기반"이라며 "NHN클라우드의 우수한 GPUaaS 서비스를 통해 AI 연구와 서비스 전반의 확장성과 효율성을 강화할 수 있을 것으로 기대한다"고 말했다. NHN클라우드 관계자는 "이번 프로젝트는 대규모 GPU 클러스터를 GPUaaS 형태로 구축·운영할 수 있는 우리 기술력과 운영 역량을 입증한 사례"라며 "7월 가동을 시작으로 크래프톤의 AI 퍼스트 전략을 실질적으로 뒷받침할 수 있도록 안정적인 클러스터 제공과 운영 기술 지원에 집중하겠다"고 밝혔다.

2026.01.19 10:51한정호 기자

GS리테일이 선택한 '카카오클라우드'…AI 운영비 35%↓

카카오엔터프라이즈가 카카오클라우드를 기반으로 한 유통 현장의 실질적 비용 절감과 기술 고도화에 박차를 가한다. 카카오엔터프라이즈는 GS리테일이 운영하는 홈쇼핑 GS샵의 AI 검색·추천 시스템을 카카오클라우드 기반으로 지원 중이라고 15일 밝혔다. GS리테일은 GS샵을 비롯해 편의점 GS25, 슈퍼마켓 GS더프레시 등 주요 유통 채널을 운영하는 종합 유통기업이다. 이 가운데 GS샵은 데이터 파이프라인 구축부터 모델 서빙, 품질 모니터링까지 AI·머신러닝 운영(MLOps) 전반에 대한 자체 역량을 기반으로 검색·추천 시스템을 고도화해 왔다. GS리테일은 2024년부터 카카오클라우드 그래픽처리장치(GPU) 인스턴스와 쿠브플로우를 활용해 검색·추천 시스템과 분석 환경을 운영 중이다. 지난해 5월부터는 카카오클라우드에서 학습한 텍스트 임베딩 모델을 적용해 의미 기반 검색을 구현했으며 사용자 행동 데이터를 바탕으로 협업 필터링(CF)과 시퀀스 모델을 결합한 추천 모델을 통해 검색 품질을 개선했다. 이 같은 전환을 통해 GS리테일은 검색·추천 모델 학습과 운영 비용을 월평균 약 35% 절감하는 동시에 모델 실험 사례 수를 40% 이상 늘렸다. 기존 대비 약 5배 많은 GPU 메모리를 활용할 수 있게 되면서 다양한 실험이 가능해졌고 검색·추천 모델 성능 개선 속도도 빨라졌다. GS리테일은 유동적인 GPU 수요 대응과 환율 변동 리스크 최소화를 위해 카카오클라우드를 선택했다. 기존 글로벌 클라우드는 GPU 리소스를 사전에 예약 구매해야 해 유연성이 떨어졌고 환율 변동 시 예산 운용에 부담이 있었다. 반면 카카오클라우드는 GPU 리소스를 최소 단위로 구성해 필요에 따라 확장할 수 있어 비용 예측과 안정적인 예산 집행이 가능했다는 설명이다. GS리테일 김요한 AX본부 홈쇼핑AX부문장은 "기존 검색·추천 시스템에서 사용하던 쿠브플로우 기반 파이프라인을 그대로 카카오클라우드로 이전해 활용할 수 있었고 유연성과 확장성 측면에서 매우 만족스러웠다"며 "앞으로 검색·추천 분야에서 고객 여정 단계별 개선에 집중해 AI 에이전트 기반 대화형 쇼핑 서비스, 초개인화 추천과 고객별 맞춤형 동적 사용 경험을 제공하고자 노력을 다할 것"이라고 말했다. 카카오엔터프라이즈 이용민 클라우드부문장은 "GS리테일의 AI 검색·추천 시스템 혁신 사례는 유통 분야에서 카카오클라우드를 기반으로 비용 절감과 실험 수 증가라는 정량적인 성과를 동시에 달성한 모범 사례"라며 "고객 필요에 따라 세분화된 선택지를 제공하는 클라우드 전략 파트너로서 고객이 핵심 경쟁력에 집중할 수 있는 AI 인프라 환경을 조성하는 데 최선의 노력을 다할 것"이라고 강조했다.

2026.01.15 14:05한정호 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

[유미's 픽] 'AI 3강' 외치는 정부, 국가AI컴퓨팅센터 추진 속도낼까

조(兆) 단위 초대형 인공지능(AI) 데이터센터를 짓는 정부 사업이 연초부터 제 속도를 내지 못하고 있다. '국가AI컴퓨팅센터' 구축 사업자에 삼성SDS가 주도하는 대기업 컨소시엄이 유일하게 도전장을 내밀었지만, 정부가 계획된 일정에 맞춰 사업을 진행하지 않고 있어서다. 7일 업계에 따르면 과학기술정보통신부는 지난해 10월 국가AI컴퓨팅센터 사업 대상자로 선정된 삼성SDS 컨소시엄과 아직까지 우선협상대상자 계약을 체결하지 못했다. 당초 삼성SDS 컨소시엄을 대상으로 기술·정책 평가와 투자·대출 등 금융심사를 거쳐 지난해 12월 말 우선협상대상자 선정을 마무리할 것이란 계획을 밝혔으나, 해가 바뀌었음에도 여전히 논의만 하고 있는 상태다.국가AI컴퓨팅센터 사업은 정부와 민간이 공동으로 특수목적법인(SPC)을 설립해 대규모 그래픽처리장치(GPU) 인프라를 확보하고 산업계·학계·스타트업에 연산 자원을 제공하는 대형 공공 인프라 프로젝트다. 총 사업비는 약 2조5천억원 규모로, 정부가 800억원을 출자하고 민간과 정책금융기관이 나머지를 분담한다. 정부는 'AI 고속도로' 거점이 될 이곳에 오는 2028년까지 첨단 GPU 1만5천 장 이상을 확보, 2030년까지 지속 확충한다는 계획이다. 앞서 두 차례 공모는 공공 지분 비율(51%)과 매수청구권, 국산 AI 반도체(NPU) 의무 장착 조항 등으로 인해 유찰됐다. 이에 정부는 공공 지분을 30% 미만으로 낮추고 매수청구권과 국산화 의무를 폐지했다. 또 복수 CSP가 참여한 컨소시엄을 우대하고 단독 입찰이어도 적격 심사 절차를 거쳐 추진할 수 있도록 조건을 완화했다. 이후 삼성SDS는 네이버클라우드와 카카오, KT 등 주요 클라우드 서비스 사업자(CSP)와 연합해 이 사업에 홀로 도전장을 내밀었다. 삼성SDS 컨소시엄은 지난해 10월 국가 AI컴퓨팅센터 구축사업에 단독으로 참여한 이후 특수목적법인(SPC) 설립 TF를 구성해 ▲특수목적법인 설립 ▲데이터센터 설계(인허가 등) ▲사업 기획(사업모델 수립 등)을 준비해왔다. 하지만 정부가 계획대로 국가AI컴퓨팅센터 사업을 추진하지 않으면서 삼성SDS 컨소시엄과 SPC 설립을 위한 협약 체결을 제때 할 수 있을지도 미지수다. 과기정통부는 당초 올해 2월 SPC 설립 협약을 체결한 후 오는 3월 SPC 설립을 마무리할 계획이었다. 삼성SDS 관계자는 "지난해 11월 기술·정책평가를 통과했다"며 "현재 금융심사가 진행 중"이라고 설명했다. 이로 인해 'AI 고속도로'의 핵심 인프라를 마련함으로써 지역 균형 발전 투자를 활성화하고 글로벌 'AI 3강'으로 도약하겠다는 이재명 정부의 당초 의지도 점차 무뎌지는 모양새다. 업계에서는 사업 지연의 배경으로 대규모 정책금융이 투입되는 사업 구조상 정부 내부의 재정·리스크 검토가 예상보다 길어지고 있는 것으로 분석했다. 특히 우선협상대상자 선정 이후 금융심사와 함께 사업 추진 과정 전반에 대한 세부적인 정책 판단이 병행되면서 다음 단계로의 의사결정이 늦어지고 있는 것 아니냐는 관측도 나온다. 이처럼 정부가 사업 추진을 머뭇거리고 있지만, 삼성SDS 컨소시엄은 전남 해남에 위치한 국가 AI컴퓨팅센터 부지 방문을 시작으로 사업 추진을 위한 본격적인 움직임에 나선 모습이다. 삼성SDS는 이날 네이버클라우드와 전라남도(지자체) 등 컨소시엄 참여사 관계자 30명과 함께 국가AI컴퓨팅센터 부지로 선정된 솔라시도를 직접 찾아 데이터센터 건립 예정지를 시찰했다. 또 지반조사 진행 결과 확인 및 전력·통신 등 주변 인프라 여건도 종합적으로 점검했다. 이는 사업 공모에 참여한 이후 첫 공식 대외 일정이다. 삼성SDS 컨소시엄은 금융심사와 우선협상자 선정이 조속히 마무리되면 실시협약을 거쳐 특수목적법인 설립 절차에 착수할 계획이다. 삼성SDS 컨소시엄 관계자는 "이번 현장 방문은 국가 AI컴퓨팅센터를 신속하고 차질 없이 구축하겠다는 컨소시엄의 의지를 재확인하고, 사업 추진에 앞서 현장 여건을 선제적으로 점검하기 위한 것"이라며 "국가 AI컴퓨팅센터가 우리나라 AI 연구·산업 생태계의 글로벌 도약을 이끄는 토대가 될 수 있도록 컨소시엄 참여사들의 역량을 결집해 사업을 성공적으로 추진하겠다"고 말했다.

2026.01.07 15:31장유미 기자

맷 가먼 AWS CEO "엔비디아 '루빈' GPU 결합 기대"…협력 의사 공식화

글로벌 클라우드 시장 핵심 플레이어인 아마존웹서비스(AWS)가 엔비디아의 차세대 그래픽처리장치(GPU) 아키텍처 '루빈'을 중심으로 한 협력 의지를 드러냈다. 맷 가먼 AWS 최고경영자(CEO)는 6일 링크드인을 통해 "엔비디아가 발표한 루빈 플랫폼을 고객들에게 제공할 수 있기를 기대한다"고 밝혔다. 이어 "루빈은 우리의 규모·보안·AI 서비스와 결합돼 고객들이 가장 까다로운 AI 워크로드를 더 빠르고 비용 효율적으로 구축·학습·배포할 수 있도록 도울 것"이라고 강조했다. 가먼 CEO의 발언은 엔비디아가 미국 라스베이거스에서 열린 CES 2026에서 루빈을 공식 공개한 직후 나왔다. 젠슨 황 엔비디아 CEO는 기조연설을 통해 루빈이 기존 '블랙웰'을 잇는 차세대 AI 컴퓨팅 플랫폼이며 이미 본격적인 양산 단계에 돌입했다고 발표했다. 황 CEO에 따르면 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 대규모 AI 학습과 추론 과정에서 병목으로 작용해온 데이터 이동 문제를 해소하고 전체 시스템 효율을 극대화하는 데 초점을 맞췄다. 특히 루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 적응형 압축 기술을 적용해 추론 성능을 크게 끌어올렸다. 엔비디아는 루빈이 블랙웰 대비 동일 모델 기준 토큰당 비용을 10분의 1 수준으로 낮추고 학습에 필요한 GPU 수를 25%까지 줄일 수 있다고 설명했다. 또 루빈 아키텍처가 AI가 단순 응답을 넘어 추론 중심으로 진화하는 시장 환경에 대응하기 위한 핵심 플랫폼이라고 강조했다. 내부 테스트 기준으로 루빈은 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배까지 향상됐으며 전력 효율 역시 크게 개선됐다. AWS는 이러한 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 보다 효율적인 AI 학습·추론 환경을 제공한다는 계획이다. 엔비디아와 15년 이상 이어온 협력 관계를 바탕으로 AWS의 글로벌 인프라와 AI 서비스 역량을 결합해 고객 선택권과 유연성을 확대한다는 구상이다. 엔비디아는 루빈을 주요 클라우드 사업자와 AI 기업들에 올해 연말부터 공급할 예정이다. AWS를 비롯해 구글 클라우드·마이크로소프트·오라클은 물론 오픈AI·앤트로픽·xAI 등 주요 AI 기업과 연구기관이 루빈을 도입할 전망이다. 가먼 CEO는 "우리와 엔비디아의 오랜 협력을 바탕으로 고객들이 차세대 AI 혁신을 빠르게 실현할 수 있도록 지원할 것"이라고 밝혔다.

2026.01.06 16:16한정호 기자

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호 기자

카카오 "정부 'GPU 확보 사업' 인프라 구축 순항"

카카오(대표 정신아)가 정부 주도 '그래픽 처리 장치(GPU) 확보 사업'의 최종 사업자로 선정된 이후, 최신 GPU 인프라 구축을 성공적으로 진행하며 국내 AI 연구 및 개발 환경 지원에 본격 나선다고 29일 밝혔다. 이번 사업은 정부가 AI 3대 강국을 위한 핵심 인프라인 GPU를 민간에 지원하는 국책사업으로, 카카오는 지난 8월 최종 사업자로 선정됐다. 카카오는 이번 사업을 통해 총 2천424장의 GPU 'B200'을 확보 및 구축하고 이를 5년간 위탁 운영하며 국내 AI 연구 및 개발 환경을 지원할 계획이다. 카카오는 경기도 안산시에 위치한 '카카오 데이터센터 안산'을 기반으로 대규모 GPU 인프라 구축을 안정적으로 진행하고 있다. 자체 데이터센터의 인프라 역량과 GPU 클러스터 구축 및 운영 노하우를 바탕으로 당초 계획 대비 구축 일정을 앞당겼으며, 현재 전체 할당량의 약 84%에 해당하는 255노드(GPU 2,040장)의 인프라 구축을 완료했다. 이는 당초 제출했던 연내 구축 목표치인 64노드 대비 4배를 상회하는 규모다. 이 같은 조기 구축 성과는 카카오의 자체 데이터센터인 '카카오 데이터센터 안산'의 고도화된 인프라 역량이 뒷받침되었기에 가능했다. 카카오는 GPU 확보부터 구축, 운영 준비에 이르는 전 과정에 걸쳐 철저한 프로젝트 관리를 수행했다. 공급사와의 긴밀한 협력을 통해 핵심 장비를 조기에 확보했으며, 사전 기술 검증(PoC)을 통해 실제 가동 단계에서 발생할 수 있는 리스크를 사전에 점검하고 최소화해 구축 일정을 앞당겼다. 또한 데이터센터 안산은 고집적 서버 운영에 필수적인 안정적인 전력 공급 시스템과 냉각 시스템을 선제적으로 마련했다. 특히 고성능 GPU 서버에서 발생하는 열을 효과적으로 관리하기 위해 뜨거운 공기를 격리해 냉각 장치로 바로 순환시키는 '열복도 밀폐시스템(Hot Aisle Containment system)'을 적용해 냉각 효율을 극대화했다. 카카오는 인프라 제공뿐만 아니라 이용자가 AI 모델 개발에 집중할 수 있는 소프트웨어 환경도 함께 지원한다. 국가 AI 컴퓨팅 자원 지원 포털과 연동된 통합 플랫폼을 통해 이용자가 포털에서 카카오엔터프라이즈가 운영하는 카카오클라우드로 손쉽게 진입할 수 있도록 했으며, 카카오클라우드의 AI 플랫폼인 쿠브플로우(Kubeflow)를 제공한다. 카카오클라우드 쿠브플로우는 클라우드 네이티브 환경에서 보다 쉽고 빠르게 머신러닝 워크플로우를 구축하고 실행할 수 있도록 지원하는 플랫폼이다. 모델 개발, 학습, 배포 및 추론에 이르는 전 과정을 쿠버네티스 환경에서 지원해 연구자가 머신러닝 워크플로우를 손쉽게 자동화하고 클라우드 리소스를 효율적으로 관리할 수 있도록 돕는다. 현재 카카오는 구축을 완료한 255노드에 대해 네트워크 및 성능 테스트를 진행 중이며, 내년 1월 2일부터 과학기술정보통신부와 정보통신산업진흥원이 베타서비스 공모를 통해 선정한 산·학·연 과제에 최신 컴퓨팅 자원을 제공할 예정이다. 카카오 AI시너지 김세웅 성과리더는 “대규모 GPU 인프라를 안정적으로 구축하고 운영하는 것은 AI 경쟁력의 핵심” 이라며 “카카오의 데이터센터 및 클라우드 역량을 바탕으로 안정적이고 효율적인 AI 개발 환경을 제공해 국내 AI 생태계 발전에 기여해 나가겠다”고 말했다.

2025.12.29 21:30안희정 기자

정부, 첨단 GPU 4천장 배분 시작…산학연 AI 과제 공모 착수

정부가 국가 차원으로 확보한 첨단 그래픽처리장치(GPU)를 산·학·연 인공지능(AI) 연구·개발·혁신 서비스 창출 지원을 위해 본격 배분한다. 과학기술정보통신부는 22일부터 다음 달 28일까지 온라인 플랫폼 'AI인프라 허브'를 통해 H200 2천296장, B200 2천40장에 대한 산·학·연 과제 공모를 개시한다. 정부는 올해 1차 추가경정예산 약 1조4천600억원을 통해 약 1만3천 장의 첨단 그래픽처리장치를 확보하고 이를 네이버클라우드·카카오·NHN클라우드 등 클라우드 사업자의 데이터센터에 순차적으로 구축 중이다. 정부는 이 중 1만 장의 GPU를 클라우드 서비스 형태로 활용할 예정이다. 먼저 구축될 H200 2천296장, B200 2천40장은 산·학·연의 시급한 AI 혁신 수요에 우선 배분된다. 국가 주력산업 혁신, 미래유망 산업 등에서 혁신적 AI 서비스·모델을 창출하기 위한 과제들이 선정될 계획이다. 과제 당 H200은 서버 2대(16장)~최대 32대(256장), B200은 서버 2대(16장)~최대 16대(128장), 최대 12개월까지 지원한다. 각 과제는 ▲기술·사회적 파급효과 ▲AI 생태계 기여도 ▲수요자 역량·준비도 및 실현 가능성 등을 기준으로 전문가 심사를 통해 선정하며 지역 소재기업은 가점 부여로 우대한다. 또 H200 64장 이상, B200 32장 이상을 활용한 대형 과제는 적격성 인터뷰를 추가로 진행한다. 아울러 이용 시 학·연은 무상, 산업계에는 시장가격의 약 5~10% 수준의 자부담을 부과한다. 청년 기업은 추가로 50% 할인을 제공된다. 기타 상세한 지원 요건 등은 온라인 플랫폼을 통해 확인할 수 있다. 과기정통부는 향후 정부 GPU 구매사업 진행 경과 및 공모 내용 설명 등을 위한 현장 설명회도 다음 달 9일에 진행할 예정이다. 또 사전에 이용자 불편 사항 등을 개선하기 위해 B200 512장에 대한 베타테스트를 무상으로 제공할 계획이다. 베타테스트 이용자 공모도 온라인 플랫폼을 통해 22일부터 진행된다. 과기정통부 김경만 인공지능정책실장은 "이번 공모를 통해 산·학·연에 첨단 GPU 자원을 공급해 혁신적인 AI 연구 및 서비스 개발을 지원하고 국가 AI 경쟁력 강화와 혁신 생태계 조성에 기여 할 예정"이라고 밝혔다.

2025.12.22 15:33한정호 기자

[인터뷰] "AI 인프라 폭증 시대…해법은 카카오클라우드 하이브리드 GPUaaS"

"인공지능(AI) 서비스가 커질수록 인프라 비용 부담이 수익성을 잠식하는 구조가 고착화되고 있습니다. 이제는 클라우드만으로는 이 문제를 해결하기 어렵습니다." 카카오엔터프라이즈 이재한 클라우드부문 사업본부장은 최근 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간'에서 지디넷코리아와 만나 이같이 강조했다. AI 인프라 시장이 학습 중심에서 추론 중심으로 전환되는 과정에서 기업들이 비용 구조의 한계를 직면한다는 설명이다. 이 본부장은 "AI 서비스가 확산될수록 추론 트래픽이 급증하고 이에 따라 고가 그래픽처리장치(GPU) 사용이 불가피해진다"며 "매출이 늘수록 인프라 비용도 함께 증가하는 역설적인 상황이 이미 현실화되고 있다"고 진단했다. 카카오엔터프라이즈는 이러한 구조적 문제의 해법으로 '하이브리드 서비스형 GPU(GPUaaS)'를 제시하고 있다. 하이브리드 GPUaaS는 고객이 GPU 서버를 자산으로 보유하되, 카카오클라우드의 단일 콘솔과 플랫폼을 통해 퍼블릭 클라우드 GPUaaS와 동일한 방식으로 운영·관리할 수 있도록 한 모델이다. 초기 개발이나 기술검증(PoC) 단계에서는 클라우드 GPU를 활용해 민첩성을 확보하고 서비스가 본궤도에 오르면 GPU 자산화를 통해 중장기 총소유비용(TCO)을 낮추는 방식이 핵심이다. 이를 통해 클라우드의 유연성과 온프레미스의 비용 효율성을 동시에 확보할 수 있다. AI 추론 시대의 비용 딜레마, '하이브리드 GPUaaS'로 풀다 AI 인프라 시장의 가장 큰 변화는 추론 비용이 학습 비용을 추월하는 시점이 도래하고 있다는 점이다. 글로벌 리서치와 카카오엔터프라이즈의 분석에 따르면 내년을 전후로 AI 서비스의 총비용 구조에서 추론이 차지하는 비중이 학습을 넘어설 것으로 전망된다. 문제는 기존 '클라우드 온리' 전략이 이러한 환경에서 수익성 악화를 가속화할 수 있다는 점이다. 서비스 이용량이 늘수록 GPU 사용량이 증가하고 이는 곧 비용 증가로 직결된다. 일부 글로벌 AI 기업들이 대규모 자체 데이터센터 구축과 자산화 전략으로 회귀하는 배경도 여기에 있다. 이 본부장은 "국내 스타트업과 중소기업 입장에서는 대규모 온프레미스 구축이 현실적으로 쉽지 않다"며 "전력·상면·냉각·운영 인력까지 고려하면 초기 진입 장벽이 매우 높다"고 말했다. 실제 국내에서 최신 엔비디아 B200·B300급 GPU를 수용할 수 있는 데이터센터는 제한적이며 랙당 전력 밀도 역시 주요 제약 요소로 작용하고 있다. 이러한 상황에서 단순한 온프레미스 전환은 또 다른 부담으로 작용할 수 있다는 설명이다. 카카오엔터프라이즈는 이 지점에서 하이브리드 전략이 현실적인 대안이 된다고 바라봤다. 고정 수요는 자산화된 GPU로 처리하고 변동성이 큰 수요는 클라우드 GPUaaS로 흡수하는 구조다. 이 모델을 적용할 경우 퍼블릭 클라우드 GPUaaS 대비 약 33% 수준의 TCO 절감 효과를 기대할 수 있고 고객이 직접 온프레미스를 구축하는 방식과 비교해도 약 10~20% 비용 효율성이 개선된다는 것이 카카오엔터프라이즈의 분석이다. 이 본부장은 "결국 AI 서비스가 성장할수록 기업의 고민은 어떻게 GPU를 더 싸고 안정적으로 쓰느냐로 수렴한다"며 "하이브리드 GPUaaS는 그 질문에 대한 가장 현실적인 답"이라고 말했다. 운영·확장·가시성까지…"민첩성과 수익성 동시 확보 지원" 하이브리드 GPUaaS의 차별점은 단순 비용 절감에 그치지 않는다. 카카오엔터프라이즈는 유연성·효율성·가시성을 핵심 가치로 제시하고 있다. 먼저 유연성 측면에서 고객은 평상시에는 전용 GPU 자산을 활용해 최대 효율을 확보하고 트래픽이 급증할 경우 클라우드 GPU로 즉시 확장할 수 있다. 모든 자원은 하나의 VPC와 단일 콘솔에서 관리된다. 효율성 측면에서는 GPU 자원 할당과 회수, 모델 학습·배포·서빙까지 머신러닝 운영관리(MLOps) 기반 자동화를 지원한다. 이를 통해 유휴 GPU 발생을 최소화하고 운영 인력 부담을 줄일 수 있다. 가시성 역시 핵심 요소다. 물리적으로 분산된 GPU 자원을 단일 대시보드에서 모니터링하고 사용량·가동률·비용을 통합적으로 파악할 수 있어 TCO 관리가 용이하다. 보안 측면에서도 금융권 수준의 클라우드 서비스 제공사(CSP) 안정성 평가를 충족한 데이터센터 환경을 기반으로 서비스를 제공한다. 이는 규제 산업으로의 확장 가능성을 뒷받침하는 요소다. 이 본부장은 "하이브리드 GPUaaS는 금융권과 공공기관, 대규모 엔터프라이즈를 중심으로 도입 사례가 확산되고 있다"며 "전력과 상면 확보가 어려운 고객일수록 수요가 빠르게 늘고 있다"고 밝혔다. "GPU는 싸게만 쓰는 게 아니다"…플랫폼·통합 모니터링으로 차별화 카카오엔터프라이즈는 하이브리드 GPUaaS를 단순한 인프라 상품이 아니라 AI 플랫폼 전략의 출발점으로 보고 있다. 이 본부장은 "GPU 비용만 낮춘다고 AI 경쟁력이 생기는 것은 아니다"라며 "GPU를 얼마나 효율적으로 운영·관리하고 AI 개발과 서비스로 연결할 수 있느냐가 더 중요해지고 있다"고 설명했다. 이를 위해 카카오엔터프라이즈는 GPU 자원 통합 관리와 모니터링을 중심으로 한 AI 플랫폼 고도화를 추진하고 있다. 온프레미스 GPU와 카카오클라우드 GPUaaS는 물론, 외부에 분산된 GPU 자원을 일원화해서 하나의 대시보드로 통합 관리하는 방향을 준비 중이다. 이 본부장은 "고객 입장에서는 GPU가 어느 인프라에 있든 상관없이 하나의 콘솔에서 쓰는 것이 중요하다"며 "하이브리드 GPUaaS는 이런 통합 관리 전략을 실현하기 위한 기반"이라고 말했다. 특히 GPU 사용 현황, 가동률, 성능, 비용을 실시간으로 모니터링하고 학습·추론 워크로드를 효율적으로 배치하는 기능이 핵심이다. 이를 통해 불필요한 유휴 자원을 줄이고 AI 서비스 운영 단계에서의 비용 예측 가능성을 높인다는 구상이다. 카카오엔터프라이즈는 이러한 통합 운영 역량이 향후 AI 플랫폼 경쟁력의 핵심 요소가 될 것으로 보고 있다. 단순히 GPU를 제공하는 것을 넘어 AI 모델 학습부터 배포·서빙·운영까지 이어지는 전체 흐름을 플랫폼 차원에서 지원하겠다는 전략이다. 카카오엔터프라이즈 이재한 본부장은 "AI 비즈니스가 지속 가능하게 성장하려면 인프라 비용을 통제할 수 있는 구조가 필요하다"며 "카카오클라우드의 하이브리드 GPUaaS는 AI를 위한 멀티·하이브리드 전략의 한 축으로 자리 잡을 것"이라고 강조했다. 이어 "하이브리드 GPUaaS를 통해 고객이 성장 단계에 맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 적극 돕겠다"고 덧붙였다.

2025.12.21 16:19한정호 기자

엘리스그룹, AI 클라우드 인프라 혁신으로 과기정통부 장관 표창 수상

엘리스그룹(대표 김재원)이 18일 서울 코엑스에서 열린 '2025 데이터∙클라우드 산업 진흥 유공자 표창 시상식'에서 클라우드 산업발전 유공 부문 과학기술정보통신부 장관 표창을 수상했다. 과학기술정보통신부가 주최하고, 정보통신산업진흥원(NIPA)과 한국지능정보사회진흥원(NIA)이 주관하는 '클라우드 산업발전 유공 표창'은 클라우드 산업 활성화와 클라우드 컴퓨팅 기술 발전에 기여한 유공자 및 기관을 선정해 수여하는 상이다. 정책 및 기술 개발은 물론, 민간과 공공부문의 클라우드 도입 확산에 대한 기여도를 평가한다. 엘리스그룹은 수랭식 B200 기반 고성능 AI 데이터센터를 구축하고, 자체 기술 기반의 AI 클라우드 인프라를 산업 전반에 확산시켜 국내 AI 생태계 활성화에 기여한 점을 인정받아 '미래선도∙산업고도화' 분야에서 표창을 수상했다. 특히, 고성능∙고효율 모듈형 데이터센터 '엘리스 AI PMDC'와 AI 전용 IaaS 'ECI(Elice Cloud Infrastructure)'를 중심으로, 기업과 연구기관이 대규모 GPU 자원을 보다 유연하고 안정적으로 활용할 수 있는 AI 클라우드 환경을 제공하고 있다. 이와 함께 제조∙의료∙공공 등 산업별 특화 AI 솔루션, 교육 현장을 위한 AI 교육∙평가 플랫폼, 업무 생산성을 높이는 생성형 AI 솔루션 및 에이전트까지 확장하며 데이터센터 인프라부터 AI 서비스 레이어까지 이어지는 AI 풀스택 역량을 확보했다. 현재 엘리스클라우드는 4천800개 이상의 고객 기관을 확보하고 있으며, 대기업과 스타트업, 학교, AI 연구실 등 다양한 고객층에서 활용되고 있다. 정부 주도의 'AI 특화 파운데이션 모델 프로젝트 사업'에 고성능 GPU 인프라를 공급하는 한편, 산업용 로봇 개발사와 의료 AI 스타트업 등 제조∙의료∙공공 분야 전반에서 AI 전환(AX) 성과 확산을 이끌고 있다. 김재원 엘리스그룹 대표는 “국내 AI 인프라 확장이 본격화되는 시점에 클라우드 산업발전 유공 표창을 받게 돼 큰 책임감을 느낀다”며 “내년에 고성능 GPU 1만 장 규모의 인프라 구축을 통해 누구나 필요한 만큼 AI를 잘 활용할 수 있는 환경을 조성하고, 국내 AI 산업의 글로벌 도약을 적극 뒷받침하겠다”고 말했다. 또 “모듈형 AIDC 인프라부터 산업별 AI 솔루션, 교육과 에이전트까지 연결하는 AI 풀스택 기업으로서 기업과 기관의 실질적인 AI 전환 성과를 만들어가겠다”고 덧붙였다.

2025.12.19 09:54백봉삼 기자

"엔비디아 종속 벗어나자"…구글-메타, TPU 활용 범위 확장

구글이 인공지능(AI) 인프라 시장을 장악한 엔비디아에 대응하기 위해 메타와 협력한다. 18일 로이터통신에 따르면 구글클라우드는 메타 손잡고 AI 개발 도구 '파이토치'를 텐서처리장치(TPU)에서 구동할 수 있는 기술 개발에 착수한 것으로 전해졌다. 그동안 엔비디아 인프라에 묶인 생태계를 개방형으로 전환해 구글클라우드 독자 칩인 TPU 활용도를 끌어올리기 위한 전략이다. 파이토치는 AI 모델 구축에 필수적인 프로그래밍 도구다. 전 세계 개발자들 사이에서 사실상 표준으로 자리 잡았으나 그간 엔비디아 인프라에서만 가장 높은 성능을 발휘해 왔다. 이로 인해 개발자들이 구글클라우드의 TPU를 사용하려면 새로운 도구 습득에 따른 비용과 시간을 감수해야 했고 이는 구글클라우드 칩 생태계 확장의 고질적인 걸림돌로 작용했다. 구글클라우드는 이런 기술적 장벽을 허물기 위해 내부 프로젝트인 '토치TPU'를 가동하고 파이토치와 인프라 연동성을 올리는 데 집중하고 있다. 프로젝트가 성과를 거두면 개발자들은 기존 SW 환경을 유지하면서 HW만 엔비디아에서 구글클라우드의 TPU로 손쉽게 교체할 수 있는 유연성을 확보하게 된다. 특히 이번 프로젝트에는 파이토치의 종가인 메타가 직접 참여해 구글클라우드와 공조 체계를 이룬 것으로 알려졌다. 양측은 최근 수십억 달러 규모의 TPU 공급 방안을 논의 중이며 메타는 이를 통해 초지능 AI 개발에 필요한 막대한 인프라 구축 비용을 절감할 수 있을 것으로 기대된다. 구글클라우드 대변인은 "개발자가 선택한 HW에 관계없이 필요한 유연성과 확장성을 제공하는 데 주력하고 있다"고 밝혔다.

2025.12.18 18:14김미정 기자

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

[종합] 네이버·삼성 등 5개사, 2조원 정부 GPU 확충 도전장…AWS·MSP 불참 가닥

삼성전자, ASMPT와 HBM TC본더 평가...공급망 다변화 지속

진화하는 독버섯...피싱·스미싱과의 전쟁

서클 "원화 스테이블코인 직접 발행 안 해…인프라 제공에 집중"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.