• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU 클라우드'통합검색 결과 입니다. (78건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[종합] 한국 클라우드, AI 인프라·공공사업이 판 키웠다…2025년 나란히 실적 반등

국내 클라우드 산업이 인공지능(AI) 인프라 수요 확대를 발판으로 또 한 번의 분기 성장세를 기록했다. 네이버·KT·NHN 등 주요 클라우드 서비스 제공사(CSP)들은 그래픽처리장치(GPU) 기반 AI 인프라와 공공 클라우드 전환 수요를 양축으로 외형 확대와 수익성 개선을 동시에 모색한 것으로 나타났다. 12일 네이버·KT·NHN이 공시한 2025년 4분기 실적에 따르면 각 기업은 AI 인프라 고도화와 공공·산업별 디지털 전환 수요를 기반으로 엔터프라이즈·기술·클라우드 부문 매출을 끌어올렸다. GPU 확보 경쟁과 데이터센터 투자 확대가 실적에 본격 반영되며 그룹 내 존재감을 키웠고 단순 인프라 공급을 넘어 AI 중심 플랫폼 사업자로의 전환이 본격화됐다는 평가가 나온다. 먼저 네이버는 2025년 4분기 엔터프라이즈 부문에서 1718억원의 매출을 기록했다. 전년 동기 대비 3.2% 감소했지만, 전년도에 반영된 일회성 요인을 제외하면 16.6% 성장한 수치다. 직전 분기 대비로는 14.5% 증가하며 회복세를 보였고 연간 기준으로는 5878억원을 기록하며 전년 대비 4.3% 성장했다. 이번 실적은 서비스형 GPU(GPUaaS) 매출 반영과 사우디아라비아 슈퍼앱 구축, 디지털 트윈 등 글로벌 프로젝트 확대에 힘입은 결과다. 네이버는 AI·클라우드 사업을 이끄는 네이버클라우드를 주축으로 금융·공공·의료 등 고보안 영역 중심의 소버린 AI 전략을 강화 중이며 서울대학교병원·한국은행과의 협업을 통해 산업별 특화 AI 모델 구축을 확대하고 있다. 다만 네이버클라우드는 최근 과학기술정보통신부가 추진한 독자 AI 파운데이션 모델 프로젝트 1차 평가에서 다음 단계 진출에 실패하며 우려가 제기돼왔다. 이에 대해 최수연 네이버 대표는 지난 6일 실적발표 컨퍼런스콜에서 "정부 측 결과를 존중하나 이것이 네이버의 기술 경쟁력 부족을 의미하는 것은 아니다"라며 "B2B 매출에 큰 영향은 없을 것이며 연구개발(R&D)을 통해 기술 리더십을 공고히 하겠다"고 밝혔다. KT클라우드는 2025년 연간 매출 9975억원으로 전년 대비 27.4% 성장하며 1조원에 근접한 실적을 기록했다. 4분기 매출은 2779억원이다. 공공 AI 클라우드 수요 확대와 글로벌 고객 데이터센터 이용률 증가가 동시에 작용한 결과라는 게 회사 측 설명이다. KT클라우드는 지난해 11월 국내 최초로 액체 냉각 기술을 적용한 가산 AI 데이터센터를 개소하며 고성능 AI 연산 수요에 대응하고 있다. 앞서 2030년까지 320메가와트(MW) 규모 AI 데이터센터 전력 인프라를 확보한다는 중장기 로드맵도 제시한 바 있다. 이같은 GPU 기반 인프라 확장에 더해 국내외 소프트웨어(SW) 기업과 협력하는 AI 파운드리 전략을 바탕으로 인프라·플랫폼·파트너 생태계를 아우르는 구조를 구축한다는 전략이다. 장민 KT 최고재무책임자(CFO)는 "KT클라우드는 글로벌 고객의 데이터센터 이용률 증가와 공공 AI 클라우드 수요 확대에 힘입어 의미 있는 성과를 거뒀다"며 "이러한 성장 흐름은 올해도 이어질 것"이라고 말했다. 다음으로 NHN클라우드는 2025년 4분기 사상 첫 분기 흑자를 달성했다. NHN 기술 부문은 4분기 1391억원의 매출을 기록했으며 이 가운데 NHN클라우드는 전년 동기 대비 30.7%, 전 분기 대비 37.6% 증가하며 영업이익 기준 첫 흑자를 냈다. 연간 기술 부문 매출은 4609억원으로 전년 대비 11.3% 성장했다. NHN클라우드는 광주 국가AI데이터센터에서 GPU 서비스를 국내 기업과 공공기관, 대학 등에 제공하며 AI 수요 확대에 대응해왔다. 또 정부 'GPU 확보·구축·운용지원 사업'에서 다음 달 가동을 목표로 엔비디아 B200 7천656장을 서울 양평 리전에 구축 중이다. 4000장 이상 GPU를 단일 클러스터로 구성하고 수냉식 냉각 시스템 도입으로 대규모 AI 인프라 운영 역량을 강화했다. 민간 부문에서도 성과가 이어졌다. NHN클라우드는 최근 크래프톤의 초거대 GPU 클러스터 사업자로 선정되며 대형 민간 레퍼런스를 확보했다. 지난해 국가정보자원관리원 대전센터 화재 이후 공공 재해복구(DR) 수요 확대와 민간 GPU 매출 증가가 동시에 반영되며 수익 구조 개선에 속도가 붙었다는 분석이다. 정우진 NHN 대표는 "국정자원 대구센터를 통해 주요 공공기관의 클라우드 전환을 완료했고 지난해 화재로 영향을 받았던 주요 정보 시스템도 성공적으로 복구했다"며 "올해도 NHN클라우드는 GPU를 기반으로 확대되는 시장 기회를 선점해 더 높은 수준의 성장 국면에 진입할 것"이라고 강조했다. 아울러 또다른 국내 주요 CSP인 카카오엔터프라이즈는 아직 명확한 실적이 공개되진 않았으나, 업계에선 이원주 대표 선임 이후 비용 효율화를 단행한 만큼 적자 폭을 상당 부분 줄였을 것이라는 예상이 나온다. 클라우드 중심 조직 재편과 비핵심 사업 정리를 통해 체질 개선에 나선 영향이 지난해 실적에 반영됐을 것이라는 관측이다. 카카오엔터프라이즈 역시 다른 CSP와 마찬가지로 GPU 서비스를 강화하고 있다. 지난해 하이브리드 GPUaaS를 공개하며 온프레미스와 클라우드를 결합한 AI 인프라 전략을 제시했다. GPU 인프라 비용 절감과 유연성 확보를 동시에 내세우며 AI 스타트업 및 엔터프라이즈 시장을 겨냥 중이다. 한편 지난해 국정자원 대전센터 화재 이후 공공 디지털 인프라의 안정성과 재해 대응 체계에 대한 경각심이 높아지면서 정부의 민간 클라우드 도입 논의도 활성화되고 있다. 주요 정보시스템의 이중화와 DR 체계 고도화가 정책 과제로 부상하면서 공공기관의 클라우드 전환 및 민관 협력형 인프라 구축 사업이 본격화될 것이라는 전망이 나온다. 이에 공공 레퍼런스와 데이터센터 운영 역량을 확보한 국내 CSP들에게는 중장기적 사업 기회가 확대될 수 있다는 분석이다. 다만 지난해 하반기부터 공공 클라우드 보안인증(CSAP) 재편 논의가 업계 변수로 떠올랐다. CSAP와 국정원 보안 절차 간 조정 가능성이 거론되면서 공공 클라우드 시장의 제도 환경 변화가 기로에 선 상황이다. 이에 국내 CSP들은 변화에 대비하며 공공 레퍼런스 확보와 기술 내재화 전략을 동시에 강화하는 분위기다. 클라우드 업계 관계자는 "GPU 확보와 데이터센터 효율화, 공공 AI 전환 수요가 동시에 확대되며 국내 CSP 간 경쟁이 치열해지고 있다"며 "올해는 외형 성장뿐 아니라 AI 인프라 내재화와 수익성 구조 개선이 경쟁을 가르는 분기점이 될 것"이라고 전망했다.

2026.02.12 15:21한정호 기자

NHN클라우드, 2025년 4분기 첫 흑자…GPU·공공 전환 수혜

NHN클라우드가 그래픽처리장치(GPU) 기반 인공지능(AI) 인프라 사업 확대와 공공 클라우드 전환 수요 증가에 힘입어 2025년 4분기 사상 첫 분기 흑자를 달성했다. 국가정보자원관리원(국정자원) 화재 이후 재해복구(DR) 수요가 본격화되고 정부 GPU 구축 사업이 가시화되면서 외형 성장과 수익성 개선을 동시에 이뤄냈다는 평가다. NHN은 12일 진행한 2025년 4분기 실적발표 컨퍼런스콜을 통해 기술 부문이 전년 동기 대비 17.4%, 전 분기 대비 24.5% 증가한 1391억원의 매출을 기록했다고 발표했다. 이 가운데 NHN클라우드는 4분기 매출이 전년 동기 대비 30.7%, 전 분기 대비 37.6% 증가하며 영업이익 기준 최초 분기 흑자를 달성했다고 밝혔다. 연결 기준 기술 부문 연간 매출은 4609억원으로 전년 대비 11.3% 성장했다. 4분기에는 GPU 서비스 매출 증가와 공공 클라우드 전환 사업 확대가 본격 반영됐다. 특히 NHN클라우드는 광주 국가AI데이터센터에서 GPU 서비스를 국내 기업과 공공기관, 대학 등에 제공하며 AI 수요 확대에 대응했다. 동시에 행정안전부 '모바일전자정부시스템' 등 주요 공공 시스템의 클라우드 전환 및 복구 사업을 수행하며 공공 레퍼런스를 강화했다. 정우진 NHN 대표는 "국정자원 대구센터를 통해 주요 공공기관의 클라우드 전환을 완료했고 지난해 화재로 영향을 받았던 주요 정보 시스템도 성공적으로 복구했다"고 밝혔다. 국가정보자원관리원 화재 이후 DR 수요가 확대되며 공공 클라우드 전환 사업이 실적에 본격 반영됐다는 분석이다. AI 인프라 분야에서도 대형 프로젝트 성과가 이어졌다. NHN클라우드는 정부 'GPU 확보·구축·운용지원 사업'에서 엔비디아 B200 7656장을 서울 양평 리전에 구축 중이며 다음 달 본격 가동을 앞두고 있다. NHN클라우드는 이 사업의 최다 구축 기업으로, 4000장 이상 GPU를 단일 클러스터로 구성하고 수냉식 냉각 시스템을 도입해 국내 최고 수준 운영 역량 입증에 나섰다. 이같은 기술력을 기반으로 최근에는 크래프톤의 초거대 GPU 클러스터 사업자로도 선정됐다. 민간향 AI GPU 매출 확대와 함께 통합 메시지 플랫폼 '노티피케이션' 사용량 증가도 4분기 실적 개선에 힘을 보탰다. NHN은 올해도 GPU 기반 AI 인프라 수요 확대와 DR 사업에서의 지속 수혜를 전망하고 있다. 안현식 NHN 최고재무책임자(CFO)는 "올해 GPU 사업에서 괄목할 만한 성장이 예상되고 DR 사업 수요도 이어질 것"이라며 "올해 클라우드 부문에서 영업이익을 확실히 달성해 흑자 전환될 구조를 만들겠다"고 말했다. 정우진 NHN 대표는 "올해도 NHN 클라우드는 GPU 기반으로 확대되는 시장 기회를 선점해 더 높은 수준의 성장 국면에 진입할 것"이라고 밝혔다.

2026.02.12 10:46한정호 기자

카카오, 구글과 협력…차세대 AI 경험 선보인다

카카오가 차세대 인공지능(AI) 경험을 제공하고자 구글과 손 잡는다. 정신아 카카오 대표는 12일 지난해 4분기 실적 발표 컨퍼런스 콜에서 "올해부터 자사가 더 집중하고자 하는 디바이스 측면에서 차세대 AI 경험을 선보이기 위해 글로벌 협업을 본격적으로 시작하기로 합의했다"고 말했다. 이번 파트너십의 출발점으로 카카오는 자사 온디바이스 AI 서비스를 고도화하기 위해 구글 안드로이드와 협업을 시작한다. 안드로이드 개발팀과 직접 협업한다. 여기에 카카오는 AI 인프라에 대한 재무적 부담이 점진적으로 증가하고 있다는 점을 고려해 그래픽처리장치(GPU)에서 나아가 다양한 칩 라인업을 모델과 서비스별로 최적화해 배치함으로써 자본 효율적인 방식으로 AI 인프라를 강화하는 방안을 고민한다. 또 카카오는 구글클라우드와의 유의미한 규모의 중앙처리장치(CPU) 클라우드 운영에 대한 논의도 진행 중이다. 카카오는 향후 출시될 구글 AI 글래스에서의 협업에도 착수한다. 정 대표는 "앞으로 다양한 AI 폼팩터 환경에서 카카오 서비스가 더해질 때 이용자 경험이 어떻게 달라질 수 있을지에 대한 가설을 세우고 이를 바탕으로 하나씩 실험하며 새로운 AI 사용 경험을 만들어 가고자 한다"고 덧붙였다.

2026.02.12 09:32박서린 기자

[유미's 픽] 李 'AI 고속도로'가 바꾼 판…정부 GPU 지원, 스타트업 실험에 불 붙였다

'인공지능(AI) 고속도로' 구축을 위해 이재명 정부가 추진해온 고성능 그래픽처리장치(GPU) 지원 사업이 국내 AI 스타트업 생태계 조성에 실질적인 역할을 했다는 평가가 나오고 있다. 대규모 연산 자원이 필수적인 파운데이션 모델 개발과 차세대 AI 구조 연구에서 초기 자본이 부족한 스타트업들도 정부 덕에 기술 실험을 지속할 수 있는 토대가 마련됐다는 분석이다. 10일 업계에 따르면 트릴리온랩스는 지난해 9월부터 4개월여간 정부로부터 엔비디아 H200 GPU 80장 규모의 고성능 연산 자원을 지원받아 차세대 AI 구조 연구를 진행했다. 이를 통해 초거대 모델 학습뿐 아니라 기존 트랜스포머 구조의 연산 효율을 개선하기 위한 신규 아키텍처 실험과 대규모 검증을 병행할 수 있는 환경을 구축했다. 이 연산 인프라는 구체적인 기술 성과로도 이어졌다. 트릴리온랩스는 지원받은 GPU 자원을 활용해 지난 달 디퓨전 기반 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다. '트리다-7B'는 단어를 하나씩 순차적으로 생성하는 기존 방식에서 벗어나 문장 전체를 병렬로 생성하는 확산(diffusion) 기법을 언어 모델에 적용한 것이 특징이다. 또 이미지 생성에 주로 활용되던 디퓨전 기술을 언어 모델 구조에 이식함으로써 추론 속도와 연산 효율을 동시에 끌어올렸다. 이와 함께 지난해 10월에는 소규모 프록시 모델을 활용해 대형 언어모델의 성능을 사전에 예측하는 '알브릿지(rBridge)' 기법도 개발했다. 실제 대형 모델을 반복 실행하지 않고도 성능을 가늠할 수 있는 구조로, 연산 효율을 최대 700배 이상 개선하고 거대언어모델(LLM) 개발 비용을 대폭 절감할 수 있는 가능성을 제시했다. 대규모 모델 학습에 앞서 시행착오를 줄일 수 있다는 점에서 파운데이션 모델 개발 방식 자체를 바꿀 수 있는 접근으로 평가된다. 업계에선 이러한 성과가 단순한 개별 기술 개발을 넘어 AI 연구·개발의 비용과 시간, 자원 구조를 근본적으로 재설계했다는 점에 주목하고 있다. 대형 모델을 '더 많이 돌리는 방식'이 아니라 '덜 돌리고도 더 많이 검증하는 방식'으로 전환할 수 있는 가능성을 보여줬다는 점에서다. 이는 스타트업이 제한된 자원 환경에서도 고난도 연구를 지속할 수 있는 실질적인 해법으로 꼽힌다. 이 같은 결과 뒤에는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 지원 방식도 한 몫 했다는 평가다. 앞서 정부는 삼성SDS·KT클라우드·엘리스클라우드를 '고성능컴퓨팅 지원사업' 공급사로 선정한 후 지난해 9월부터 12월까지 국내 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등에 총 1천 장의 GPU를 지원했다. 당시 삼성SDS와 엘리스그룹은 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급했다. 당시 정부에선 그간 단순히 GPU를 일괄 배분하는 데 그치지 않고 연구 단계와 실험 난이도에 맞춰 자원 활용 계획을 조정하며 과제 수행 전반을 관리했다. 또 개발 과정에서 발생하는 변수에 따라 지원 방식을 유연하게 조정하고 현장의 피드백을 즉각 반영하는 방식으로 연구 완성도를 높였다. 이 과정에서 정부는 단순한 예산 집행 기관을 넘어 프로젝트의 '내비게이터' 역할을 수행하며 실질적인 성과를 견인했다는 평가를 받았다. 또 단순히 규모가 큰 기업이 아닌, 독보적인 기술력과 성장 잠재력을 보유한 스타트업을 정밀하게 선별해 과제 수행 기업으로 낙점하려는 노력이 참여 기업으로부터 큰 호응을 얻었다. 업계 관계자는 "정부가 행정적 관리에 그치지 않고 모델 출시 과정에서 발생하는 변수에 맞춰 지원 체계를 업데이트했다"며 "현장의 목소리를 즉각 반영해 모델의 완성도를 높이는 실질적인 가이드도 제공해줬다"고 말했다.이어 "무한정한 지원 대신, 한정된 예산 내에서 최선의 결과물을 낼 수 있도록 목표 난이도를 정교하게 조정해준 점도 인상 깊었다"며 "이를 통해 자원의 낭비를 막고 효율적인 사용 위에 최대의 성과를 이끌어냈다"고 덧붙였다. 트릴리온랩스 역시 정부 인프라 지원을 발판 삼아 국내에서 시도된 적 없는 기술 실험을 진행할 수 있었다고 평가했다. 독자적인 모델 구조와 학습 기법을 실제 대규모 환경에서 반복 검증하며 스타트업이 겪는 컴퓨팅 파워 한계를 일정 부분 극복할 수 있었다는 것이다. 신재민 트릴리온랩스 대표는 "정부의 GPU 지원 사업이 단순한 인프라 제공을 넘어 기술 기업의 도전 방식을 바꿨다"며 "자본력보다 기술적 실험과 구조 혁신에 집중할 수 있는 조건을 마련했다는 점에서 국내 AI 생태계에 미친 영향이 적지 않다"고 강조했다. 이 같은 분위기 속에 정부가 추가경정예산으로 확보한 고성능 GPU 자원으로 어떤 AI 연구 기관, 기업들이 수혜를 받을지 관심이 쏠린다. 정부는 총 1만3천136장 규모의 GPU를 최대 12개월까지 이용할 수 있도록 한 사업을 공고한 후 지난 달 28일 마감했다. 이번에는 학계·연구기관은 무상으로, 산업계는 자부담 방식으로 지원받는 구조다. 구축·운영은 민간 클라우드 3사가 맡는다. 네이버클라우드는 세종 데이터센터에 H200 2296장을 안착시켰고, 카카오는 안산 데이터센터에 B200 2040장을 클러스터 형태로 구축했다. NHN클라우드는 3월께 B200 6120장을 갖출 계획이다. 정부는 이 사업에 예산 1조4590억원을 투입했다. 이번 프로젝트는 과제별로 H200, B200 중 하나만 신청할 수 있다. 신청은 서버 묶음 기준으로 이뤄진다. H200은 최소 서버 2대(16장)에서 최대 서버 32대(256장)까지, B200은 최소 서버 2대(16장)에서 최대 서버 16대(128장)까지다. 조만간 선정될 수요 기업은 원격 접속 방식인 GPUaaS(GPU as a Service)로 고성능 컴퓨팅 자원을 손쉽게 이용할 수 있다. 정부가 고수한 '1사 1지원' 원칙을 사실상 폐기해 중복 신청 문턱이 낮아진 점도 눈에 띈다. 이 일로 동일 기업 내 복수 부서도 각각 GPU 자원을 확보할 수 있게 됐다. 다만 연구 인력의 독립성과 과제 주제는 차별돼야 한다. 여기에 정부는 지난해 확보한 1만3000장에 이어 올해는 B200 기준 1만5000장을 투입해 지원 범위를 넓힐 계획이다. 이를 구축하기 위해 총 2조831억원(출연금)이 투입될 이번 사업 공고는 이달 중 나올 예정으로, 과기정통부 단일 사업 기준 최대 규모 프로젝트로 평가된다. 또 단일 사업자가 전체 물량을 감당하기 어려운 만큼, 사업 구조 자체를 어떻게 설계할지가 관건이 될 전망이다. 과기정통부 관계자는 "주요 클라우드 서비스 제공업체(CSP)들과 면담한 결과 데이터센터 상면(물리적 수용 공간) 확보는 어느 정도 가능한 수준으로 파악됐다"며 "최신 GPU를 확보하는 것이 유리한 만큼 엔비디아 차세대 AI 칩 '베라루빈'을 업체들이 제안할 경우 가점을 줄 지에 대한 방안에 대해선 고민 중"이라고 밝혔다. 업계에선 정부의 고성능 연산 인프라 지원이 일회성 사업에 그치지 않고 파운데이션 모델·신규 아키텍처·산업 특화 AI로 이어지는 연속적인 연구 생태계로 정착할 수 있을지가 향후 사업 성공 여부의 관건이 될 것이라고 전망했다. 업계 관계자는 "특히 연산 자원 접근성이 기술 경쟁력으로 직결되는 AI 산업 특성을 감안할 때 정부의 GPU 지원 정책이 국내 스타트업들의 글로벌 도전 여력을 좌우하는 핵심 변수로 작용할 것으로 예상된다"며 "단기 성과보다 중장기 연구 축적이 가능한 구조로 설계될 경우 정부 지원이 국내 AI 산업의 체질을 바꾸는 계기가 될 수 있다"고 말했다.

2026.02.10 11:43장유미 기자

오케스트로, 여의도에 도심형 엣지 데이터센터 구축…소버린 AI 겨냥

오케스트로가 여의도 신사옥 부지에 도심형 엣지 인공지능(AI) 데이터센터를 구축해 고객의 소버린 AI 수요 대응에 나선다. 오케스트로는 DCK와 소버린 AI 클라우드 데이터센터 구축을 위한 업무협약(MOU)을 체결했다고 28일 밝혔다. 협약식은 지난 22일 서울 여의도 오케스트로 본사에서 열렸으며 양사 주요 관계자들이 참석했다. 생성형 AI 확산으로 그래픽처리장치(GPU) 기반 AI 인프라 수요가 빠르게 증가하는 가운데, 최근 데이터 주권과 보안, 비용 통제가 가능한 프라이빗 AI 환경에 대한 관심이 높아지고 있다. 특히 금융·공공·대기업을 중심으로 퍼블릭 클라우드의 제약을 벗어나 데이터와 운영 정책을 직접 통제할 수 있는 소버린 AI 환경을 도입하려는 움직임도 본격화된 상황이다. 이번 협약은 프라이빗 클라우드 기반 소버린 AI 클라우드 데이터센터를 구축하기 위해 추진됐다. 양사는 오케스트로 여의도 신사옥 부지를 활용해 도심형 엣지 AI 데이터센터를 조성하고 이를 고객 전용 소버린 AI 클라우드 데이터센터로 구현할 계획이다. 여의도에 조성될 이 센터는 5메가와트(MW)급 규모로, GPU 기반 대규모 AI 워크로드와 국산 AI 반도체(NPU), 국산 거대언어모델(LLM)까지 연계할 수 있도록 설계된다. 외부 클라우드나 공용 자원에 의존하지 않는 전용 환경을 통해 고객이 데이터와 운영 정책을 직접 설정하고 관리할 수 있는 안전한 프라이빗 소버린 AI 환경을 구현하는 것이 목표다. 특히 랙당 최대 30키로와트(kW)를 수용할 수 있는 고밀도 전력·냉각 설계와 수냉식 냉각 설비를 적용해 고성능 GPU 운영에 필요한 대규모 AI 전용 인프라를 구현하는 것이 강점이다. 랙 후면 도어 열교환기(RDHx) 방식을 적용해 공랭 기반 장비의 배기열을 수냉으로 제거하는 구조로 설계해 고밀도 GPU 환경에서도 열을 효과적으로 제어할 수 있다는 설명이다. 오케스트로는 해당 데이터센터에 자사 AI·클라우드 풀스택 솔루션을 적용해 AI 서비스부터 클라우드 인프라, 통합 운영 관리까지 하나의 아키텍처로 제공할 계획이다. 이를 통해 고객은 자체 데이터센터를 구축하거나 별도 운영 인력을 투입하지 않고도 통합된 소프트웨어·하드웨어·상면 서비스를 기반으로 프라이빗 AI 인프라를 운영할 수 있다. 해당 데이터센터의 설계·구축은 DCK가 전담한다. 양사는 개발·인허가부터 설계·조달·시공(EPC), 운영, 영업에 이르기까지 데이터센터 구축 전 과정에 걸쳐 협력한다. DCK는 전국 주요 거점에서 AI 특화 데이터센터 개발을 추진해 왔으며 최근 수도권 내 도심형 엣지 AI 데이터센터 인허가를 확보하는 등 데이터센터 설계·구축 역량을 보유 중이다. 오케스트로는 이번 협약을 통해 여의도 도심형 엣지 AI 데이터센터를 기반으로 한 소버린 AI 데이터센터 구축을 단계적으로 확대할 방침이다. DCK가 보유한 마곡·청담 AI 데이터센터에도 자사 AI·클라우드 풀스택 솔루션을 적용해 산업별 AI 인프라 수요에 대응할 계획이다. 김범재 오케스트로 대표는 "여의도 신사옥에 소버린 AI 클라우드 데이터센터를 구축하는 것은 우리 AI 인프라 전략을 구체화하는 중요한 과정"이라며 "고밀도 전력·냉각 설계를 통해 고성능 GPU를 안정적으로 운영할 수 있는 프라이빗 AI 데이터센터를 구축하고 주요 거점으로 단계적 확장해 소버린 AI 환경 구축을 본격화할 것"이라고 말했다.

2026.01.28 17:00한정호 기자

메가존클라우드, 하나은행과 디지털 혁신 금융 서비스 발굴 '맞손'

메가존클라우드가 하나은행과 인공지능(AI)·클라우드·데이터 사이언스 등 디지털 신기술을 접목한 혁신 금융 서비스 공동 발굴에 나선다. 메가존클라우드는 지난 23일 서울 중구 하나은행 을지로 본점에서 하나은행과 AI 클라우드 시장 내 상호 협업과 금융 서비스 지원을 위한 전략적 업무협약(MOU)을 체결했다고 26일 밝혔다. 이날 체결식에는 이주완 메가존클라우드 이사회 의장과 이호성 하나은행장이 참석했다. 이번 협약을 통해 양측은 정부의 글로벌 AI 3강 비전에 따른 AI 데이터센터 구축을 위해 메가존클라우드가 도입 예정인 대규모 그래픽처리장치(GPU)·신경망처리장치(NPU) 서버 수입과 관련한 하나은행의 수출입 금융 지원을 추진한다. 아울러 금융 서비스, 클라우드, AI 등 양사가 보유한 기술과 서비스를 활용한 융복합 비즈니스 모델 발굴 등에 지속 협력할 방침이다. 특히 하나은행은 GPU·NPU 서버 수입과 관련한 금융 지원과 별도로 직·간접 지분 투자도 추진할 계획이다. 이를 통해 메가존클라우드는 아시아 최대 클라우드 관리 서비스 기업(MSP) 입지와 기술 경쟁력을 강화한다는 목표다. 또 GPU 수급에 어려움을 겪고 있는 국내 빅테크·반도체 기업의 성장 촉진도 도모할 방침이다. 메가존클라우드 황인철 최고매출책임자(CRO)는 "우리 강점인 멀티·하이브리드 클라우드 운영 역량과 AI 특화 플랫폼을 하나은행의 금융 데이터들과 겹합해 AI 금융 특화 솔루션을 만들고 금융 특화 AI 데이터센터 활성화를 가속화할 예정"이라고 밝혔다.

2026.01.26 16:14한정호 기자

NHN클라우드, 크래프톤 GPU 클러스터 사업 수주…운영 기술력 입증

NHN클라우드가 대규모 그래픽처리장치(GPU) 클러스터를 서비스형 GPU(GPUaaS)로 구축·운영하는 기술력과 역량을 입증했다. NHN클라우드는 크래프톤이 발주한 GPU 클러스터 사업 최종 사업자로 선정돼 계약을 체결하고 GPUaaS 기반 인프라를 제공한다고 19일 밝혔다. 이번 사업은 크래프톤이 지난해 10월 인공지능(AI) 퍼스트를 경영 핵심 전략으로 선언한 이후 AI 활용을 본격 확대하는 과정에서 증가하는 AI 연산 수요에 대응하기 위해 추진됐다. GPU 클러스터는 AI 플랫폼과 데이터 통합·자동화 기반 고도화 등 중장기 AI 전략을 안정적으로 실행하기 위한 핵심 기반으로, NHN클라우드가 제공하는 GPUaaS를 활용해 인프라를 유연하게 확장하고 운영 효율을 높이는 데 초점을 맞췄다. NHN클라우드는 이번 사업에서 대규모 GPU 클러스터를 제공함으로써 크래프톤의 AI 전략 실행을 뒷받침한다. NHN클라우드가 광주 국가 AI 센터를 자체 설계·구축하고 2021년부터 현재까지 GPUaaS 서비스를 안정적으로 제공해 온 기술력을 보유한 점과 수년간 다수 공공·민간 고객을 대상으로 AI 인프라 서비스를 운영해 온 경험이 이번 사업 파트너로 선정된 배경으로 꼽힌다. 또 고객 요구사항을 면밀히 분석해 함께 시스템을 설계·구축해 온 컨설팅 및 사업 수행 역량도 강점으로 작용했다. NHN클라우드는 이번 사업에서 엔비디아 최신 GPU인 블랙웰 울트라 1천여 장으로 구성된 GPU 팜을 멀티 클러스터 구조로 구성해 대규모 AI 연산 환경을 구축한다. 여기에 XDR-800G급 초고속 인피니밴드 네트워크를 적용해 GPU 간 대용량 데이터를 저지연·고속으로 전송할 수 있도록 설계한다. 이를 통해 여러 GPU를 동시에 사용하는 환경에서도 데이터 전송 지연을 최소화하고 고성능 GPU를 효과적으로 활용해 AI 모델 학습 속도를 높이는 한편 전반적인 AI 작업을 안정적으로 운영할 수 있도록 할 계획이다. NHN클라우드는 GPU 클러스터 구성 요소를 효율적으로 조합해 동일 예산 대비 실제 활용 가능한 GPU 연산 자원을 극대화했으며 장기적인 운영 효율까지 고려한 구조로 설계했다. 특히 GPU를 여러 작업이 함께 사용할 수 있도록 동적 관리 구조를 적용한다. 이를 통해 AI 개발·학습·추론 등 다양한 작업이 동시에 진행되더라도 GPU 자원을 필요에 따라 유연하게 나눠 쓰고 조정할 수 있어 유휴 자원을 최소화하고 전체 클러스터 활용 효율을 높일 계획이다. 이같은 GPU 리소스 동적 관리 방식은 소규모 AI 개발 환경부터 대규모언어모델(LLM) 학습까지 AI 작업 규모와 특성에 맞춰 GPU 활용도를 탄력적으로 조정할 수 있다. 아울러 NHN클라우드는 맞춤형 GPUaaS로 AI 개발과 운영 전반에 유연한 환경을 제공한다. 대규모 AI 학습과 연산 특성에 맞춰 쿠버네티스와 고성능 컴퓨팅(HPC) 환경에 적합한 슬럼 기반 자원 관리 솔루션을 적용해 다양한 AI 작업이 동시에 진행되는 환경에서도 안정적인 운영이 가능하다. 이에 더해 다양한 AI 개발 도구와 외부 시스템을 연동할 수 있는 구조를 갖춰 AI 서비스 개발 속도와 전반적인 업무 효율을 함께 높일 수 있도록 지원할 계획이다. 이번 블랙웰 울트라 GPU 인프라는 NHN클라우드 판교 NCC 센터에 구축된다. 판교 NCC는 고집적 연산을 원활히 운영할 수 있는 전력·냉각 인프라와 우수한 네트워크 연결성을 갖춰 대규모 AI 워크로드 처리에 적합한 시설이다. 해당 인프라는 오는 7월 중 구축을 완료하고 본격 가동될 예정이다. 크래프톤 관계자는 "AI 퍼스트 전략을 추진하는 과정에서 GPU 클러스터는 전사 AI 운영 핵심 기반"이라며 "NHN클라우드의 우수한 GPUaaS 서비스를 통해 AI 연구와 서비스 전반의 확장성과 효율성을 강화할 수 있을 것으로 기대한다"고 말했다. NHN클라우드 관계자는 "이번 프로젝트는 대규모 GPU 클러스터를 GPUaaS 형태로 구축·운영할 수 있는 우리 기술력과 운영 역량을 입증한 사례"라며 "7월 가동을 시작으로 크래프톤의 AI 퍼스트 전략을 실질적으로 뒷받침할 수 있도록 안정적인 클러스터 제공과 운영 기술 지원에 집중하겠다"고 밝혔다.

2026.01.19 10:51한정호 기자

GS리테일이 선택한 '카카오클라우드'…AI 운영비 35%↓

카카오엔터프라이즈가 카카오클라우드를 기반으로 한 유통 현장의 실질적 비용 절감과 기술 고도화에 박차를 가한다. 카카오엔터프라이즈는 GS리테일이 운영하는 홈쇼핑 GS샵의 AI 검색·추천 시스템을 카카오클라우드 기반으로 지원 중이라고 15일 밝혔다. GS리테일은 GS샵을 비롯해 편의점 GS25, 슈퍼마켓 GS더프레시 등 주요 유통 채널을 운영하는 종합 유통기업이다. 이 가운데 GS샵은 데이터 파이프라인 구축부터 모델 서빙, 품질 모니터링까지 AI·머신러닝 운영(MLOps) 전반에 대한 자체 역량을 기반으로 검색·추천 시스템을 고도화해 왔다. GS리테일은 2024년부터 카카오클라우드 그래픽처리장치(GPU) 인스턴스와 쿠브플로우를 활용해 검색·추천 시스템과 분석 환경을 운영 중이다. 지난해 5월부터는 카카오클라우드에서 학습한 텍스트 임베딩 모델을 적용해 의미 기반 검색을 구현했으며 사용자 행동 데이터를 바탕으로 협업 필터링(CF)과 시퀀스 모델을 결합한 추천 모델을 통해 검색 품질을 개선했다. 이 같은 전환을 통해 GS리테일은 검색·추천 모델 학습과 운영 비용을 월평균 약 35% 절감하는 동시에 모델 실험 사례 수를 40% 이상 늘렸다. 기존 대비 약 5배 많은 GPU 메모리를 활용할 수 있게 되면서 다양한 실험이 가능해졌고 검색·추천 모델 성능 개선 속도도 빨라졌다. GS리테일은 유동적인 GPU 수요 대응과 환율 변동 리스크 최소화를 위해 카카오클라우드를 선택했다. 기존 글로벌 클라우드는 GPU 리소스를 사전에 예약 구매해야 해 유연성이 떨어졌고 환율 변동 시 예산 운용에 부담이 있었다. 반면 카카오클라우드는 GPU 리소스를 최소 단위로 구성해 필요에 따라 확장할 수 있어 비용 예측과 안정적인 예산 집행이 가능했다는 설명이다. GS리테일 김요한 AX본부 홈쇼핑AX부문장은 "기존 검색·추천 시스템에서 사용하던 쿠브플로우 기반 파이프라인을 그대로 카카오클라우드로 이전해 활용할 수 있었고 유연성과 확장성 측면에서 매우 만족스러웠다"며 "앞으로 검색·추천 분야에서 고객 여정 단계별 개선에 집중해 AI 에이전트 기반 대화형 쇼핑 서비스, 초개인화 추천과 고객별 맞춤형 동적 사용 경험을 제공하고자 노력을 다할 것"이라고 말했다. 카카오엔터프라이즈 이용민 클라우드부문장은 "GS리테일의 AI 검색·추천 시스템 혁신 사례는 유통 분야에서 카카오클라우드를 기반으로 비용 절감과 실험 수 증가라는 정량적인 성과를 동시에 달성한 모범 사례"라며 "고객 필요에 따라 세분화된 선택지를 제공하는 클라우드 전략 파트너로서 고객이 핵심 경쟁력에 집중할 수 있는 AI 인프라 환경을 조성하는 데 최선의 노력을 다할 것"이라고 강조했다.

2026.01.15 14:05한정호 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

[유미's 픽] 'AI 3강' 외치는 정부, 국가AI컴퓨팅센터 추진 속도낼까

조(兆) 단위 초대형 인공지능(AI) 데이터센터를 짓는 정부 사업이 연초부터 제 속도를 내지 못하고 있다. '국가AI컴퓨팅센터' 구축 사업자에 삼성SDS가 주도하는 대기업 컨소시엄이 유일하게 도전장을 내밀었지만, 정부가 계획된 일정에 맞춰 사업을 진행하지 않고 있어서다. 7일 업계에 따르면 과학기술정보통신부는 지난해 10월 국가AI컴퓨팅센터 사업 대상자로 선정된 삼성SDS 컨소시엄과 아직까지 우선협상대상자 계약을 체결하지 못했다. 당초 삼성SDS 컨소시엄을 대상으로 기술·정책 평가와 투자·대출 등 금융심사를 거쳐 지난해 12월 말 우선협상대상자 선정을 마무리할 것이란 계획을 밝혔으나, 해가 바뀌었음에도 여전히 논의만 하고 있는 상태다.국가AI컴퓨팅센터 사업은 정부와 민간이 공동으로 특수목적법인(SPC)을 설립해 대규모 그래픽처리장치(GPU) 인프라를 확보하고 산업계·학계·스타트업에 연산 자원을 제공하는 대형 공공 인프라 프로젝트다. 총 사업비는 약 2조5천억원 규모로, 정부가 800억원을 출자하고 민간과 정책금융기관이 나머지를 분담한다. 정부는 'AI 고속도로' 거점이 될 이곳에 오는 2028년까지 첨단 GPU 1만5천 장 이상을 확보, 2030년까지 지속 확충한다는 계획이다. 앞서 두 차례 공모는 공공 지분 비율(51%)과 매수청구권, 국산 AI 반도체(NPU) 의무 장착 조항 등으로 인해 유찰됐다. 이에 정부는 공공 지분을 30% 미만으로 낮추고 매수청구권과 국산화 의무를 폐지했다. 또 복수 CSP가 참여한 컨소시엄을 우대하고 단독 입찰이어도 적격 심사 절차를 거쳐 추진할 수 있도록 조건을 완화했다. 이후 삼성SDS는 네이버클라우드와 카카오, KT 등 주요 클라우드 서비스 사업자(CSP)와 연합해 이 사업에 홀로 도전장을 내밀었다. 삼성SDS 컨소시엄은 지난해 10월 국가 AI컴퓨팅센터 구축사업에 단독으로 참여한 이후 특수목적법인(SPC) 설립 TF를 구성해 ▲특수목적법인 설립 ▲데이터센터 설계(인허가 등) ▲사업 기획(사업모델 수립 등)을 준비해왔다. 하지만 정부가 계획대로 국가AI컴퓨팅센터 사업을 추진하지 않으면서 삼성SDS 컨소시엄과 SPC 설립을 위한 협약 체결을 제때 할 수 있을지도 미지수다. 과기정통부는 당초 올해 2월 SPC 설립 협약을 체결한 후 오는 3월 SPC 설립을 마무리할 계획이었다. 삼성SDS 관계자는 "지난해 11월 기술·정책평가를 통과했다"며 "현재 금융심사가 진행 중"이라고 설명했다. 이로 인해 'AI 고속도로'의 핵심 인프라를 마련함으로써 지역 균형 발전 투자를 활성화하고 글로벌 'AI 3강'으로 도약하겠다는 이재명 정부의 당초 의지도 점차 무뎌지는 모양새다. 업계에서는 사업 지연의 배경으로 대규모 정책금융이 투입되는 사업 구조상 정부 내부의 재정·리스크 검토가 예상보다 길어지고 있는 것으로 분석했다. 특히 우선협상대상자 선정 이후 금융심사와 함께 사업 추진 과정 전반에 대한 세부적인 정책 판단이 병행되면서 다음 단계로의 의사결정이 늦어지고 있는 것 아니냐는 관측도 나온다. 이처럼 정부가 사업 추진을 머뭇거리고 있지만, 삼성SDS 컨소시엄은 전남 해남에 위치한 국가 AI컴퓨팅센터 부지 방문을 시작으로 사업 추진을 위한 본격적인 움직임에 나선 모습이다. 삼성SDS는 이날 네이버클라우드와 전라남도(지자체) 등 컨소시엄 참여사 관계자 30명과 함께 국가AI컴퓨팅센터 부지로 선정된 솔라시도를 직접 찾아 데이터센터 건립 예정지를 시찰했다. 또 지반조사 진행 결과 확인 및 전력·통신 등 주변 인프라 여건도 종합적으로 점검했다. 이는 사업 공모에 참여한 이후 첫 공식 대외 일정이다. 삼성SDS 컨소시엄은 금융심사와 우선협상자 선정이 조속히 마무리되면 실시협약을 거쳐 특수목적법인 설립 절차에 착수할 계획이다. 삼성SDS 컨소시엄 관계자는 "이번 현장 방문은 국가 AI컴퓨팅센터를 신속하고 차질 없이 구축하겠다는 컨소시엄의 의지를 재확인하고, 사업 추진에 앞서 현장 여건을 선제적으로 점검하기 위한 것"이라며 "국가 AI컴퓨팅센터가 우리나라 AI 연구·산업 생태계의 글로벌 도약을 이끄는 토대가 될 수 있도록 컨소시엄 참여사들의 역량을 결집해 사업을 성공적으로 추진하겠다"고 말했다.

2026.01.07 15:31장유미 기자

맷 가먼 AWS CEO "엔비디아 '루빈' GPU 결합 기대"…협력 의사 공식화

글로벌 클라우드 시장 핵심 플레이어인 아마존웹서비스(AWS)가 엔비디아의 차세대 그래픽처리장치(GPU) 아키텍처 '루빈'을 중심으로 한 협력 의지를 드러냈다. 맷 가먼 AWS 최고경영자(CEO)는 6일 링크드인을 통해 "엔비디아가 발표한 루빈 플랫폼을 고객들에게 제공할 수 있기를 기대한다"고 밝혔다. 이어 "루빈은 우리의 규모·보안·AI 서비스와 결합돼 고객들이 가장 까다로운 AI 워크로드를 더 빠르고 비용 효율적으로 구축·학습·배포할 수 있도록 도울 것"이라고 강조했다. 가먼 CEO의 발언은 엔비디아가 미국 라스베이거스에서 열린 CES 2026에서 루빈을 공식 공개한 직후 나왔다. 젠슨 황 엔비디아 CEO는 기조연설을 통해 루빈이 기존 '블랙웰'을 잇는 차세대 AI 컴퓨팅 플랫폼이며 이미 본격적인 양산 단계에 돌입했다고 발표했다. 황 CEO에 따르면 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 대규모 AI 학습과 추론 과정에서 병목으로 작용해온 데이터 이동 문제를 해소하고 전체 시스템 효율을 극대화하는 데 초점을 맞췄다. 특히 루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 적응형 압축 기술을 적용해 추론 성능을 크게 끌어올렸다. 엔비디아는 루빈이 블랙웰 대비 동일 모델 기준 토큰당 비용을 10분의 1 수준으로 낮추고 학습에 필요한 GPU 수를 25%까지 줄일 수 있다고 설명했다. 또 루빈 아키텍처가 AI가 단순 응답을 넘어 추론 중심으로 진화하는 시장 환경에 대응하기 위한 핵심 플랫폼이라고 강조했다. 내부 테스트 기준으로 루빈은 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배까지 향상됐으며 전력 효율 역시 크게 개선됐다. AWS는 이러한 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 보다 효율적인 AI 학습·추론 환경을 제공한다는 계획이다. 엔비디아와 15년 이상 이어온 협력 관계를 바탕으로 AWS의 글로벌 인프라와 AI 서비스 역량을 결합해 고객 선택권과 유연성을 확대한다는 구상이다. 엔비디아는 루빈을 주요 클라우드 사업자와 AI 기업들에 올해 연말부터 공급할 예정이다. AWS를 비롯해 구글 클라우드·마이크로소프트·오라클은 물론 오픈AI·앤트로픽·xAI 등 주요 AI 기업과 연구기관이 루빈을 도입할 전망이다. 가먼 CEO는 "우리와 엔비디아의 오랜 협력을 바탕으로 고객들이 차세대 AI 혁신을 빠르게 실현할 수 있도록 지원할 것"이라고 밝혔다.

2026.01.06 16:16한정호 기자

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호 기자

카카오 "정부 'GPU 확보 사업' 인프라 구축 순항"

카카오(대표 정신아)가 정부 주도 '그래픽 처리 장치(GPU) 확보 사업'의 최종 사업자로 선정된 이후, 최신 GPU 인프라 구축을 성공적으로 진행하며 국내 AI 연구 및 개발 환경 지원에 본격 나선다고 29일 밝혔다. 이번 사업은 정부가 AI 3대 강국을 위한 핵심 인프라인 GPU를 민간에 지원하는 국책사업으로, 카카오는 지난 8월 최종 사업자로 선정됐다. 카카오는 이번 사업을 통해 총 2천424장의 GPU 'B200'을 확보 및 구축하고 이를 5년간 위탁 운영하며 국내 AI 연구 및 개발 환경을 지원할 계획이다. 카카오는 경기도 안산시에 위치한 '카카오 데이터센터 안산'을 기반으로 대규모 GPU 인프라 구축을 안정적으로 진행하고 있다. 자체 데이터센터의 인프라 역량과 GPU 클러스터 구축 및 운영 노하우를 바탕으로 당초 계획 대비 구축 일정을 앞당겼으며, 현재 전체 할당량의 약 84%에 해당하는 255노드(GPU 2,040장)의 인프라 구축을 완료했다. 이는 당초 제출했던 연내 구축 목표치인 64노드 대비 4배를 상회하는 규모다. 이 같은 조기 구축 성과는 카카오의 자체 데이터센터인 '카카오 데이터센터 안산'의 고도화된 인프라 역량이 뒷받침되었기에 가능했다. 카카오는 GPU 확보부터 구축, 운영 준비에 이르는 전 과정에 걸쳐 철저한 프로젝트 관리를 수행했다. 공급사와의 긴밀한 협력을 통해 핵심 장비를 조기에 확보했으며, 사전 기술 검증(PoC)을 통해 실제 가동 단계에서 발생할 수 있는 리스크를 사전에 점검하고 최소화해 구축 일정을 앞당겼다. 또한 데이터센터 안산은 고집적 서버 운영에 필수적인 안정적인 전력 공급 시스템과 냉각 시스템을 선제적으로 마련했다. 특히 고성능 GPU 서버에서 발생하는 열을 효과적으로 관리하기 위해 뜨거운 공기를 격리해 냉각 장치로 바로 순환시키는 '열복도 밀폐시스템(Hot Aisle Containment system)'을 적용해 냉각 효율을 극대화했다. 카카오는 인프라 제공뿐만 아니라 이용자가 AI 모델 개발에 집중할 수 있는 소프트웨어 환경도 함께 지원한다. 국가 AI 컴퓨팅 자원 지원 포털과 연동된 통합 플랫폼을 통해 이용자가 포털에서 카카오엔터프라이즈가 운영하는 카카오클라우드로 손쉽게 진입할 수 있도록 했으며, 카카오클라우드의 AI 플랫폼인 쿠브플로우(Kubeflow)를 제공한다. 카카오클라우드 쿠브플로우는 클라우드 네이티브 환경에서 보다 쉽고 빠르게 머신러닝 워크플로우를 구축하고 실행할 수 있도록 지원하는 플랫폼이다. 모델 개발, 학습, 배포 및 추론에 이르는 전 과정을 쿠버네티스 환경에서 지원해 연구자가 머신러닝 워크플로우를 손쉽게 자동화하고 클라우드 리소스를 효율적으로 관리할 수 있도록 돕는다. 현재 카카오는 구축을 완료한 255노드에 대해 네트워크 및 성능 테스트를 진행 중이며, 내년 1월 2일부터 과학기술정보통신부와 정보통신산업진흥원이 베타서비스 공모를 통해 선정한 산·학·연 과제에 최신 컴퓨팅 자원을 제공할 예정이다. 카카오 AI시너지 김세웅 성과리더는 “대규모 GPU 인프라를 안정적으로 구축하고 운영하는 것은 AI 경쟁력의 핵심” 이라며 “카카오의 데이터센터 및 클라우드 역량을 바탕으로 안정적이고 효율적인 AI 개발 환경을 제공해 국내 AI 생태계 발전에 기여해 나가겠다”고 말했다.

2025.12.29 21:30안희정 기자

정부, 첨단 GPU 4천장 배분 시작…산학연 AI 과제 공모 착수

정부가 국가 차원으로 확보한 첨단 그래픽처리장치(GPU)를 산·학·연 인공지능(AI) 연구·개발·혁신 서비스 창출 지원을 위해 본격 배분한다. 과학기술정보통신부는 22일부터 다음 달 28일까지 온라인 플랫폼 'AI인프라 허브'를 통해 H200 2천296장, B200 2천40장에 대한 산·학·연 과제 공모를 개시한다. 정부는 올해 1차 추가경정예산 약 1조4천600억원을 통해 약 1만3천 장의 첨단 그래픽처리장치를 확보하고 이를 네이버클라우드·카카오·NHN클라우드 등 클라우드 사업자의 데이터센터에 순차적으로 구축 중이다. 정부는 이 중 1만 장의 GPU를 클라우드 서비스 형태로 활용할 예정이다. 먼저 구축될 H200 2천296장, B200 2천40장은 산·학·연의 시급한 AI 혁신 수요에 우선 배분된다. 국가 주력산업 혁신, 미래유망 산업 등에서 혁신적 AI 서비스·모델을 창출하기 위한 과제들이 선정될 계획이다. 과제 당 H200은 서버 2대(16장)~최대 32대(256장), B200은 서버 2대(16장)~최대 16대(128장), 최대 12개월까지 지원한다. 각 과제는 ▲기술·사회적 파급효과 ▲AI 생태계 기여도 ▲수요자 역량·준비도 및 실현 가능성 등을 기준으로 전문가 심사를 통해 선정하며 지역 소재기업은 가점 부여로 우대한다. 또 H200 64장 이상, B200 32장 이상을 활용한 대형 과제는 적격성 인터뷰를 추가로 진행한다. 아울러 이용 시 학·연은 무상, 산업계에는 시장가격의 약 5~10% 수준의 자부담을 부과한다. 청년 기업은 추가로 50% 할인을 제공된다. 기타 상세한 지원 요건 등은 온라인 플랫폼을 통해 확인할 수 있다. 과기정통부는 향후 정부 GPU 구매사업 진행 경과 및 공모 내용 설명 등을 위한 현장 설명회도 다음 달 9일에 진행할 예정이다. 또 사전에 이용자 불편 사항 등을 개선하기 위해 B200 512장에 대한 베타테스트를 무상으로 제공할 계획이다. 베타테스트 이용자 공모도 온라인 플랫폼을 통해 22일부터 진행된다. 과기정통부 김경만 인공지능정책실장은 "이번 공모를 통해 산·학·연에 첨단 GPU 자원을 공급해 혁신적인 AI 연구 및 서비스 개발을 지원하고 국가 AI 경쟁력 강화와 혁신 생태계 조성에 기여 할 예정"이라고 밝혔다.

2025.12.22 15:33한정호 기자

[인터뷰] "AI 인프라 폭증 시대…해법은 카카오클라우드 하이브리드 GPUaaS"

"인공지능(AI) 서비스가 커질수록 인프라 비용 부담이 수익성을 잠식하는 구조가 고착화되고 있습니다. 이제는 클라우드만으로는 이 문제를 해결하기 어렵습니다." 카카오엔터프라이즈 이재한 클라우드부문 사업본부장은 최근 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간'에서 지디넷코리아와 만나 이같이 강조했다. AI 인프라 시장이 학습 중심에서 추론 중심으로 전환되는 과정에서 기업들이 비용 구조의 한계를 직면한다는 설명이다. 이 본부장은 "AI 서비스가 확산될수록 추론 트래픽이 급증하고 이에 따라 고가 그래픽처리장치(GPU) 사용이 불가피해진다"며 "매출이 늘수록 인프라 비용도 함께 증가하는 역설적인 상황이 이미 현실화되고 있다"고 진단했다. 카카오엔터프라이즈는 이러한 구조적 문제의 해법으로 '하이브리드 서비스형 GPU(GPUaaS)'를 제시하고 있다. 하이브리드 GPUaaS는 고객이 GPU 서버를 자산으로 보유하되, 카카오클라우드의 단일 콘솔과 플랫폼을 통해 퍼블릭 클라우드 GPUaaS와 동일한 방식으로 운영·관리할 수 있도록 한 모델이다. 초기 개발이나 기술검증(PoC) 단계에서는 클라우드 GPU를 활용해 민첩성을 확보하고 서비스가 본궤도에 오르면 GPU 자산화를 통해 중장기 총소유비용(TCO)을 낮추는 방식이 핵심이다. 이를 통해 클라우드의 유연성과 온프레미스의 비용 효율성을 동시에 확보할 수 있다. AI 추론 시대의 비용 딜레마, '하이브리드 GPUaaS'로 풀다 AI 인프라 시장의 가장 큰 변화는 추론 비용이 학습 비용을 추월하는 시점이 도래하고 있다는 점이다. 글로벌 리서치와 카카오엔터프라이즈의 분석에 따르면 내년을 전후로 AI 서비스의 총비용 구조에서 추론이 차지하는 비중이 학습을 넘어설 것으로 전망된다. 문제는 기존 '클라우드 온리' 전략이 이러한 환경에서 수익성 악화를 가속화할 수 있다는 점이다. 서비스 이용량이 늘수록 GPU 사용량이 증가하고 이는 곧 비용 증가로 직결된다. 일부 글로벌 AI 기업들이 대규모 자체 데이터센터 구축과 자산화 전략으로 회귀하는 배경도 여기에 있다. 이 본부장은 "국내 스타트업과 중소기업 입장에서는 대규모 온프레미스 구축이 현실적으로 쉽지 않다"며 "전력·상면·냉각·운영 인력까지 고려하면 초기 진입 장벽이 매우 높다"고 말했다. 실제 국내에서 최신 엔비디아 B200·B300급 GPU를 수용할 수 있는 데이터센터는 제한적이며 랙당 전력 밀도 역시 주요 제약 요소로 작용하고 있다. 이러한 상황에서 단순한 온프레미스 전환은 또 다른 부담으로 작용할 수 있다는 설명이다. 카카오엔터프라이즈는 이 지점에서 하이브리드 전략이 현실적인 대안이 된다고 바라봤다. 고정 수요는 자산화된 GPU로 처리하고 변동성이 큰 수요는 클라우드 GPUaaS로 흡수하는 구조다. 이 모델을 적용할 경우 퍼블릭 클라우드 GPUaaS 대비 약 33% 수준의 TCO 절감 효과를 기대할 수 있고 고객이 직접 온프레미스를 구축하는 방식과 비교해도 약 10~20% 비용 효율성이 개선된다는 것이 카카오엔터프라이즈의 분석이다. 이 본부장은 "결국 AI 서비스가 성장할수록 기업의 고민은 어떻게 GPU를 더 싸고 안정적으로 쓰느냐로 수렴한다"며 "하이브리드 GPUaaS는 그 질문에 대한 가장 현실적인 답"이라고 말했다. 운영·확장·가시성까지…"민첩성과 수익성 동시 확보 지원" 하이브리드 GPUaaS의 차별점은 단순 비용 절감에 그치지 않는다. 카카오엔터프라이즈는 유연성·효율성·가시성을 핵심 가치로 제시하고 있다. 먼저 유연성 측면에서 고객은 평상시에는 전용 GPU 자산을 활용해 최대 효율을 확보하고 트래픽이 급증할 경우 클라우드 GPU로 즉시 확장할 수 있다. 모든 자원은 하나의 VPC와 단일 콘솔에서 관리된다. 효율성 측면에서는 GPU 자원 할당과 회수, 모델 학습·배포·서빙까지 머신러닝 운영관리(MLOps) 기반 자동화를 지원한다. 이를 통해 유휴 GPU 발생을 최소화하고 운영 인력 부담을 줄일 수 있다. 가시성 역시 핵심 요소다. 물리적으로 분산된 GPU 자원을 단일 대시보드에서 모니터링하고 사용량·가동률·비용을 통합적으로 파악할 수 있어 TCO 관리가 용이하다. 보안 측면에서도 금융권 수준의 클라우드 서비스 제공사(CSP) 안정성 평가를 충족한 데이터센터 환경을 기반으로 서비스를 제공한다. 이는 규제 산업으로의 확장 가능성을 뒷받침하는 요소다. 이 본부장은 "하이브리드 GPUaaS는 금융권과 공공기관, 대규모 엔터프라이즈를 중심으로 도입 사례가 확산되고 있다"며 "전력과 상면 확보가 어려운 고객일수록 수요가 빠르게 늘고 있다"고 밝혔다. "GPU는 싸게만 쓰는 게 아니다"…플랫폼·통합 모니터링으로 차별화 카카오엔터프라이즈는 하이브리드 GPUaaS를 단순한 인프라 상품이 아니라 AI 플랫폼 전략의 출발점으로 보고 있다. 이 본부장은 "GPU 비용만 낮춘다고 AI 경쟁력이 생기는 것은 아니다"라며 "GPU를 얼마나 효율적으로 운영·관리하고 AI 개발과 서비스로 연결할 수 있느냐가 더 중요해지고 있다"고 설명했다. 이를 위해 카카오엔터프라이즈는 GPU 자원 통합 관리와 모니터링을 중심으로 한 AI 플랫폼 고도화를 추진하고 있다. 온프레미스 GPU와 카카오클라우드 GPUaaS는 물론, 외부에 분산된 GPU 자원을 일원화해서 하나의 대시보드로 통합 관리하는 방향을 준비 중이다. 이 본부장은 "고객 입장에서는 GPU가 어느 인프라에 있든 상관없이 하나의 콘솔에서 쓰는 것이 중요하다"며 "하이브리드 GPUaaS는 이런 통합 관리 전략을 실현하기 위한 기반"이라고 말했다. 특히 GPU 사용 현황, 가동률, 성능, 비용을 실시간으로 모니터링하고 학습·추론 워크로드를 효율적으로 배치하는 기능이 핵심이다. 이를 통해 불필요한 유휴 자원을 줄이고 AI 서비스 운영 단계에서의 비용 예측 가능성을 높인다는 구상이다. 카카오엔터프라이즈는 이러한 통합 운영 역량이 향후 AI 플랫폼 경쟁력의 핵심 요소가 될 것으로 보고 있다. 단순히 GPU를 제공하는 것을 넘어 AI 모델 학습부터 배포·서빙·운영까지 이어지는 전체 흐름을 플랫폼 차원에서 지원하겠다는 전략이다. 카카오엔터프라이즈 이재한 본부장은 "AI 비즈니스가 지속 가능하게 성장하려면 인프라 비용을 통제할 수 있는 구조가 필요하다"며 "카카오클라우드의 하이브리드 GPUaaS는 AI를 위한 멀티·하이브리드 전략의 한 축으로 자리 잡을 것"이라고 강조했다. 이어 "하이브리드 GPUaaS를 통해 고객이 성장 단계에 맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 적극 돕겠다"고 덧붙였다.

2025.12.21 16:19한정호 기자

엘리스그룹, AI 클라우드 인프라 혁신으로 과기정통부 장관 표창 수상

엘리스그룹(대표 김재원)이 18일 서울 코엑스에서 열린 '2025 데이터∙클라우드 산업 진흥 유공자 표창 시상식'에서 클라우드 산업발전 유공 부문 과학기술정보통신부 장관 표창을 수상했다. 과학기술정보통신부가 주최하고, 정보통신산업진흥원(NIPA)과 한국지능정보사회진흥원(NIA)이 주관하는 '클라우드 산업발전 유공 표창'은 클라우드 산업 활성화와 클라우드 컴퓨팅 기술 발전에 기여한 유공자 및 기관을 선정해 수여하는 상이다. 정책 및 기술 개발은 물론, 민간과 공공부문의 클라우드 도입 확산에 대한 기여도를 평가한다. 엘리스그룹은 수랭식 B200 기반 고성능 AI 데이터센터를 구축하고, 자체 기술 기반의 AI 클라우드 인프라를 산업 전반에 확산시켜 국내 AI 생태계 활성화에 기여한 점을 인정받아 '미래선도∙산업고도화' 분야에서 표창을 수상했다. 특히, 고성능∙고효율 모듈형 데이터센터 '엘리스 AI PMDC'와 AI 전용 IaaS 'ECI(Elice Cloud Infrastructure)'를 중심으로, 기업과 연구기관이 대규모 GPU 자원을 보다 유연하고 안정적으로 활용할 수 있는 AI 클라우드 환경을 제공하고 있다. 이와 함께 제조∙의료∙공공 등 산업별 특화 AI 솔루션, 교육 현장을 위한 AI 교육∙평가 플랫폼, 업무 생산성을 높이는 생성형 AI 솔루션 및 에이전트까지 확장하며 데이터센터 인프라부터 AI 서비스 레이어까지 이어지는 AI 풀스택 역량을 확보했다. 현재 엘리스클라우드는 4천800개 이상의 고객 기관을 확보하고 있으며, 대기업과 스타트업, 학교, AI 연구실 등 다양한 고객층에서 활용되고 있다. 정부 주도의 'AI 특화 파운데이션 모델 프로젝트 사업'에 고성능 GPU 인프라를 공급하는 한편, 산업용 로봇 개발사와 의료 AI 스타트업 등 제조∙의료∙공공 분야 전반에서 AI 전환(AX) 성과 확산을 이끌고 있다. 김재원 엘리스그룹 대표는 “국내 AI 인프라 확장이 본격화되는 시점에 클라우드 산업발전 유공 표창을 받게 돼 큰 책임감을 느낀다”며 “내년에 고성능 GPU 1만 장 규모의 인프라 구축을 통해 누구나 필요한 만큼 AI를 잘 활용할 수 있는 환경을 조성하고, 국내 AI 산업의 글로벌 도약을 적극 뒷받침하겠다”고 말했다. 또 “모듈형 AIDC 인프라부터 산업별 AI 솔루션, 교육과 에이전트까지 연결하는 AI 풀스택 기업으로서 기업과 기관의 실질적인 AI 전환 성과를 만들어가겠다”고 덧붙였다.

2025.12.19 09:54백봉삼 기자

"엔비디아 종속 벗어나자"…구글-메타, TPU 활용 범위 확장

구글이 인공지능(AI) 인프라 시장을 장악한 엔비디아에 대응하기 위해 메타와 협력한다. 18일 로이터통신에 따르면 구글클라우드는 메타 손잡고 AI 개발 도구 '파이토치'를 텐서처리장치(TPU)에서 구동할 수 있는 기술 개발에 착수한 것으로 전해졌다. 그동안 엔비디아 인프라에 묶인 생태계를 개방형으로 전환해 구글클라우드 독자 칩인 TPU 활용도를 끌어올리기 위한 전략이다. 파이토치는 AI 모델 구축에 필수적인 프로그래밍 도구다. 전 세계 개발자들 사이에서 사실상 표준으로 자리 잡았으나 그간 엔비디아 인프라에서만 가장 높은 성능을 발휘해 왔다. 이로 인해 개발자들이 구글클라우드의 TPU를 사용하려면 새로운 도구 습득에 따른 비용과 시간을 감수해야 했고 이는 구글클라우드 칩 생태계 확장의 고질적인 걸림돌로 작용했다. 구글클라우드는 이런 기술적 장벽을 허물기 위해 내부 프로젝트인 '토치TPU'를 가동하고 파이토치와 인프라 연동성을 올리는 데 집중하고 있다. 프로젝트가 성과를 거두면 개발자들은 기존 SW 환경을 유지하면서 HW만 엔비디아에서 구글클라우드의 TPU로 손쉽게 교체할 수 있는 유연성을 확보하게 된다. 특히 이번 프로젝트에는 파이토치의 종가인 메타가 직접 참여해 구글클라우드와 공조 체계를 이룬 것으로 알려졌다. 양측은 최근 수십억 달러 규모의 TPU 공급 방안을 논의 중이며 메타는 이를 통해 초지능 AI 개발에 필요한 막대한 인프라 구축 비용을 절감할 수 있을 것으로 기대된다. 구글클라우드 대변인은 "개발자가 선택한 HW에 관계없이 필요한 유연성과 확장성을 제공하는 데 주력하고 있다"고 밝혔다.

2025.12.18 18:14김미정 기자

"AI 추론 비용 내년부터 폭증…하이브리드 GPUaaS가 부담 덜 것"

카카오엔터프라이즈가 인공지능(AI) 인프라의 새로운 대안으로 '하이브리드 서비스형 그래픽처리장치(GPUaaS)를 제안했다. 내년에 AI 서비스가 더 많이 이용되면서 클라우드 비용이 급증할 것으로 예상되는 만큼 유연성과 경제성을 동시에 확보하는 가장 현실적인 해법이 '하이브리드 GPUaaS'가 될 것으로 판단해서다. 카카오엔터프라이즈는 지난 16일 과학기술정보통신부가 주최하는 '2025 AI를 위한 데이터&클라우드 진흥주간' 행사에 이재한 클라우드부문 사업본부장이 참여해 이처럼 강조했다고 17일 밝혔다. 오는 19일까지 서울 강남구 코엑스 그랜드볼룸에서 열리는 '데이터&클라우드 진흥주간'은 '모두를 위한 AI, AI를 위한 데이터&클라우드'라는 슬로건 아래 데이터 및 클라우드 업계 관계자들이 모여 최신 기술, 산업 동향, 미래 방향 등을 공유할 수 있는 자리다. 이재한 카카오엔터프라이즈 클라우드부문 사업본부장은 이번 행사에 참석해 "2026년에는 AI 추론에 드는 비용이 학습 비용을 추월할 전망"이라며 "AI 서비스가 더 많이 이용될수록 추론에 소요되는 클라우드 비용이 급증하면서 AI 서비스 기업 및 기관의 적자폭이 커지는 구조적인 문제에 직면할 가능성이 높다"고 내년 AI 서비스 시장을 전망했다. 이어 "GPU는 AI 모델과 서비스 개발에 필수 요소이나, GPUaaS(서비스형 GPU)는 비용 부담이 높고 온프레미스 방식은 구축이나 상면 확보, 운영 등의 부담이 높다는 측면이 있다"며 "AI 서비스 기업 및 기관은 비즈니스 성장 단계에 따라 빠르게 증가하는 클라우드 비용을 절감할 수 있는 방법을 고민하며, GPU 등 자산 확보를 통한 수익성 개선 방안을 염두에 두어야한다"고 강조했다. 카카오엔터프라이즈는 이러한 AI 서비스 기업 및 기관의 부담을 해소할 수 있도록 고객이 GPU를 자산으로 소유하고 카카오클라우드가 GPU 클러스터를 구축 및 운영하는 새로운 형태의 하이브리드 GPUaaS를 선보인 바 있다. 카카오클라우드의 하이브리드 GPUaaS는 불확실한 초기 개발 및 기술 검증(PoC) 단계에서는 클라우드를 통해 투자 리스크를 최소화하며 민첩성을 확보하고, 비즈니스가 본 궤도에 오르는 시기에 자산화를 통해 효율적으로 수익성을 개선할 수 있도록 지원한다. 이 사업본부장은 "우리의 하이브리드 GPUaaS는 클라우드의 '유연성'과 소유의 '경제성' 등 두 가치를 동시에 확보할 수 있는 가장 현실적이고 강력한 해답"이라며 "우리는 AI 서비스 기업 고객과 기관의 클라우드 전략 파트너로서 고객이 불확실한 비즈니스 환경에서도 성장 단계에 발맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 가장 효율적이고 안정적인 방안을 제시할 것"이라고 말했다.

2025.12.17 15:27장유미 기자

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호 기자

오라클, "AI가 DB 안으로"…AI 데이터베이스 26ai로 차별화 승부

오라클이 데이터를 밖으로 빼내지 않고 데이터베이스에서 바로 인공지능(AI)을 실행하는 방식을 앞세워 AI 데이터플랫폼 기업으로 거듭나겠다고 선언했다. 한국오라클은 11일 서울 강남구 아셈타워에서 미디어 브리핑을 열고 오라클 AI 월드 2025의 주요 발표 내용을 국내 시장 관점에서 재정리했다. 올해 처음 개최된 오라클 AI 월드는 기존 글로벌 연례 행사였던 '오라클 클라우드월드'의 이름을 바꾼 것으로 클라우드 인프라와 데이터베이스, 애플리케이션 전반을 AI 중심으로 재편하는 전략이 집중적으로 소개된 무대다. 행사에서 나정옥 한국오라클 부사장(클라우드 엔지니어링 총괄)은 AI 전략의 출발점을 'AI를 위한 데이터'가 아니라 '데이터를 위한 AI(AI for Data)'라고 규정했다. 그는 "AI 도입의 성패는 '데이터 이동'을 얼마나 줄이느냐에 달렸다"며 "오라클은 데이터를 AI 모델로 가져가는 비효율을 없애고, 데이터가 저장된 바로 그곳에 AI를 심는 '데이터 중심' 전략으로 시장 판도를 바꾸겠다"고 강조했다. 나 부사장은 "오픈AI가 오라클을 선택한 이유도 타사가 수년 걸릴 대규모 클러스터를 1년이 채 안 되는 기간에 구축할 수 있는 인프라 역량 때문"이라며 "AI를 위해 데이터를 밖으로 빼내지 않는다는 원칙 아래, 데이터가 머무는 자리로 AI를 가져오는 것이 오라클 전략의 핵심"이라고 말했다. 차세대 인프라 전략은 장진호 상무가 설명했다. 그는 오라클 클라우드 인프라(OCI)의 기존 '젠2(Gen 2)' 클라우드 아키텍처를 AI 워크로드에 맞게 재설계한 '엑셀러론(Acceleron)' 기반 인프라를 소개했다. 엑셀러론은 GPU 간 연결 구조와 네트워크, 스토리지를 모두 AI 학습·추론에 맞게 최적화한 구조로, 수십만개의 GPU를 하나의 거대한 클러스터로 묶는 것이 특징이다. 실제로 오라클은 엔비디아 GPU를 최대 80만개까지 단일 클러스터로 연결하는 'OCI 제타스케일10(Zettascale10)' 아키텍처를 공개했으며, 미국 텍사스 애빌린에 오픈AI와 함께 구축 중인 '스타게이트' 슈퍼클러스터의 기반 패브릭으로 적용하고 있다. 장 상무는 "엑셀러론은 단순히 하드웨어를 늘린 것이 아니라, 네트워크와 스토리지까지 전 계층을 AI 워크로드에 맞춰 다시 설계한 인프라"라며 "이미 13만장 규모 GPU 클러스터를 운영 중이고, 제타스케일10을 통해 80만장 수준까지 확장하는 '물리적 체급'의 차이를 보여줄 것"이라고 말했다. 데이터베이스 측면에서는 '오라클 AI 데이터베이스 26ai'가 프레임 전환의 중심에 섰다. 오라클은 기존 '오라클 데이터베이스 23ai'에서 선보였던 AI 벡터 검색, 셀렉트 AI 기능을 발전시켜 26ai에 통합했다. 조경진 상무는 "벡터 검색은 기계가 사람처럼 문맥과 의미를 이해하게 만드는 핵심 기술"이라며 "오라클은 별도 벡터 데이터베이스를 따로 구축하지 않고도, 기존 데이터베이스 안에서 관계형 데이터와 문서, 이미지 같은 비정형 데이터를 함께 벡터로 다루고 검색할 수 있다"고 설명했다. 그는 "개발자는 익숙한 SQL과 JSON, 그래프, 공간 데이터 위에 AI 벡터 검색을 얹어, 복잡한 인프라를 다시 짜지 않고도 LLM, RAG 같은 고급 AI 기능을 구현할 수 있다"고 덧붙였다. 실제 시연에서는 자연어로 "이번 달 배송 지연 건수는?"이라고 묻자, 셀렉트 AI가 데이터베이스 스키마 정보를 바탕으로 SQL을 자동 생성해 결과를 반환하는 화면이 소개됐다. 오라클 셀렉트 AI는 자연어를 SQL로 변환하고, 필요할 경우 기업 문서와 로그를 벡터로 변환해 함께 조회하는 방식으로 '대화하듯 데이터에 질의'하는 경험을 제공한다. 조 상무는 "결국 중요한 것은 LLM이 아니라 기업 고유 데이터"라며 "데이터베이스 안에 AI를 내장해 개발자와 데이터 분석가가 기존 워크플로를 거의 바꾸지 않고도 AI 기능을 쓰게 하는 것이 목표"라고 말했다. 데이터 플랫폼 전략은 김태완 상무가 맡았다. 그는 파편화된 데이터를 하나로 엮는 '오라클 AI 데이터 플랫폼'과 '오픈 데이터 레이크하우스', '제로 ETL(Zero-ETL)' 전략을 함께 제시했다. 김 상무는 "이제 데이터가 어디에 있든 상관없는 '오픈 데이터' 시대"라며 "오라클의 전략은 데이터를 복제하거나 옮기는 작업을 최소화해, 이동에 드는 시간과 비용을 없애는 '제로 ETL'을 실현하는 것"이라고 강조했다. 그는 "AWS, 마이크로소프트 애저, 구글 클라우드 등과의 멀티클라우드 연동을 통해, 여러 클라우드에 흩어진 데이터를 데이터 사일로 없이 하나의 논리적 플랫폼처럼 다루게 하는 것이 목표"라고 설명했다. 보안과 규제 준수 측면에서 오라클은 '프라이빗 AI'를 핵심 차별점으로 내세웠다. 나정옥 부사장은 "많은 기업이 비싼 GPU를 도입해 놓고도, 데이터 반출과 규제 이슈 때문에 실제 업무에는 쓰지 못하고 있다"며 "오라클은 'AI를 위해 데이터를 밖으로 빼내지 않는다'는 철학 아래, 데이터가 저장된 데이터베이스와 데이터 레이크, 애플리케이션 주변에 AI를 심는 구조를 택했다"고 말했다. 그는 "데이터 주권과 규제가 중요한 금융, 공공, 제조 기업이 기존 보안·거버넌스 체계를 그대로 유지한 상태에서 고성능 AI를 쓸 수 있도록 하는 것이 오라클 프라이빗 AI의 지향점"이라고 부연했다.

2025.12.11 21:50남혁우 기자

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

[AI는 지금] "인류 통제 벗어날 수도"…세계 석학들이 보낸 적색 경보

"또 실패는 없다"…구글이 AI 글래스 '킬러앱'에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

저평가주 외인 매수세에...SK텔레콤 주가 고공행진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.