• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (320건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아가 찜한 투게더 AI, 기업가치 1년 새 2.5배 껑충…10억 달러 투자 추진

인공지능(AI) 클라우드 스타트업 투게더 AI(Together AI)가 약 75억 달러(약 10조원) 기업가치를 기준으로 신규 투자 유치를 추진하고 있는 것으로 전해졌다. 6일 디인포메이션에 따르면 투게더 AI는 약 10억 달러 규모의 신규 투자 라운드를 논의 중이다. 투자 유치가 성사될 경우 기업가치는 약 75억 달러 수준으로 평가될 전망이다. 투게더 AI는 엔비디아 그래픽처리장치(GPU) 기반 AI 클라우드 인프라를 제공하는 스타트업으로, 기업과 개발자들이 대규모 AI 모델을 학습하거나 추론 작업을 수행할 수 있는 컴퓨팅 환경을 제공한다. 특히 메타의 라마 등 오픈소스 대형언어모델(LLM)을 운영할 수 있는 플랫폼을 지원하는 것이 특징이다. AI 산업이 급성장하면서 대규모 GPU 컴퓨팅 인프라에 대한 수요도 빠르게 늘어나고 있다. 이에 따라 투게더 AI를 비롯해 코어위브, 람다 등 AI 전용 클라우드 인프라 기업들이 빠르게 성장하는 추세다. 투게더 AI의 기업가치는 최근 몇 년 사이 급격히 상승했다. 이 회사는 2024년 약 12억 달러 수준에서 평가됐으나 이후 투자 유치 과정에서 30억 달러 이상으로 올라섰다. 이번 투자 논의에서는 75억 달러까지 확대될 가능성이 제기되고 있다. 업계에선 투게더 AI를 단순한 GPU 인프라 제공 기업이 아니라 AI 추론 소프트웨어와 클라우드 인프라를 결합한 사업 모델을 구축한 기업으로 평가하고 있다. 특히 엔비디아가 투자한 AI 인프라 스타트업이라는 점도 시장에서 긍정적인 요인으로 작용하고 있다는 분석이다. 일각에선 이번 투자 라운드가 기업가치를 크게 끌어올리는 후기 단계 투자라는 점에서 향후 기업공개(IPO)로 이어질 가능성에도 주목하고 있다. 또 이번 투자 유치가 성사될 경우 투게더 AI가 향후 상장을 준비하는 과정에서 중요한 전환점이 될 수 있다는 관측도 나온다. AI 인프라 시장이 빠르게 확대되면서 투게더 AI 같은 관련 기업들의 가치도 상승하는 분위기다. 특히 생성형 AI 확산으로 고성능 GPU 수요가 급증하면서 AI 인프라 기업들의 역할도 더욱 커질 것으로 예상된다. 업계 관계자는 "AI 모델 개발 경쟁이 치열해지면서 이를 뒷받침하는 GPU 기반 클라우드 인프라에 대한 수요도 급증하고 있다"며 "AI 인프라 기업들이 향후 AI 생태계에서 핵심 역할을 맡게 될 것"이라고 전망했다.

2026.03.06 15:43장유미 기자

유럽·중동·아프리카까지…래블업, 글로벌 AI 인프라 입지 '확대'

래블업이 이달 초 싱가포르와 스페인 바르셀로나에서 해외 기업과의 협업 소식을 연이어 전하며 전 세계 인공지능(AI) 인프라 시장 영향력을 넓히고 있다. 작년 미국 산호세 법인 설립 이후 아시아·북미에 이어 유럽·중동·아프리카(EMEA)에 이르는 '백엔드닷에이아이(Backend.AI)' 유통망을 완성한 모습이다. 6일 정보기술(IT) 업계에 따르면 래블업은 지난 2일(현지시간) 싱가포르에서 열린 '한·싱 인공지능(AI) 커넥트 서밋'과 스페인 바르셀로나에서 열린 'MWC26'에서 각각 전략적 업무협약(MOU) 및 파트너십을 맺었다. 래블업은 이재명 대통령의 싱가포르 국빈 방문 중 열린 '한·싱 AI 커넥트 서밋'에 정부 측 초청으로 참석했다. 이날 행사를 계기로 한·싱 AI얼라이언스' 구축과 함께 양국 기업·기관 간 AI 분야 공동연구와 산업협력을 위한 총 7건의 MOU도 체결됐다. 한국 참여사 중 AI 인프라 기업으로 분류되는 곳은 래블업이 유일하다. 우선 래블업은 싱가포르의 IT 솔루션 전문 기업인 PTC 시스템과 AI 및 고성능 컴퓨팅(HPC) 인프라 분야의 전략적 협력을 약속했다. 양사는 ▲그래픽처리장치(GPU) 오케스트레이션 및 플랫폼 솔루션 배포 ▲공공 및 기업용 AI 프로젝트 기술검증(PoC) 및 전면 상용화 ▲AI 인재 개발 및 생태계 구축 등에서 협력할 계획이다. 래블업은 싱가포르의 노벨 엔지니어링(Knovel Engineering)과도 손을 잡았다. 노벨 엔지니어링은 응용 AI 시스템 설계와 프로덕션 배포 분야에서 검증된 역량을 보유한 기업이다. 래블업은 Backend.AI가 가진 자원 관리 기술과 노벨 엔지니어링의 시스템 설계 노하우를 결합해 양국 기업들의 대규모 AI 도입을 지원할 예정이다. AI 모델이 실험 단계에서 생산 단계로 전환될 때 발생하는 운영상의 마찰을 줄이고 안정성을 강화하는 것이 양사 협력 골자다. 신정규 래블업 대표는 싱가포르 기업 협력 성과에 대해 "아시아에서 가장 역동적인 두 혁신 생태계를 연결하는 차세대 AI 인프라를 발전시키게 돼 기쁘다"고 말했다. 유럽 시장 공략도 본격화된다. 래블업은 같은 날 MWC26 현장에서 영국 HPC 전문 기업 보스턴 리미티드(Boston Limited)와 EMEA 지역 유통 및 판매를 위한 전략적 파트너십을 체결했다. 보스턴 리미티드는 30년 이상의 업력을 바탕으로 유럽 전역의 연구기관과 공공 부문에 맞춤형 고성능 컴퓨팅 솔루션을 공급해 온 글로벌 기업이다. 이번 협약에 따라 보스턴 리미티드는 EMEA 지역에서 Backend.AI 클라우드 서비스(SaaS)와 온프레미스 소프트웨어 라이선스를 판매하며 현지 고객을 위한 설치·구성·자문 등 전문 서비스를 제공한다. 래블업이 개발한 Backend.AI는 엔비디아(NVIDIA), AMD, 인텔(Intel) 및 국산 신경망처리장치(NPU) 등 서로 다른 종류의 AI 반도체를 단일 플랫폼에서 통합 관리하는 소프트웨어 정의 AI 인프라 플랫폼이다. 컨테이너 수준의 GPU 분할 가상화 기술과 자체 개발한 소코반(Sokovan) 오케스트레이터를 통해 엔터프라이즈 환경에서의 AI 도입 비용과 운영 복잡성을 낮췄다. 지금까지 전 세계 110여 개 지역에서 1만 6000대 이상의 GPU를 관리하고 있다. 신 대표는 "그동안 우리는 기업용 AI의 핵심 과제인 대규모 GPU 자원을 안전하고 효율적으로 조율하는 기술력에 집중해 왔다"며 "아시아를 넘어 유럽·중동·아프리카 시장에서도 엣지부터 데이터센터, 하이브리드 클라우드까지 아우르는 인프라를 제공해 전 세계 기업들이 'AI 준비' 단계를 넘어 '실제 배포 및 성과 창출'로 나아가는 간극을 메울 글로벌 파트너가 되겠다"고 강조했다.

2026.03.06 15:03이나연 기자

"美 정부, AI 반도체 수출 통제 강화 검토"

미국 정부가 인공지능(AI) 반도체 수출 통제 강화를 검토중이다. 대규모 데이터센터 구축에 필수적인 GPU 공급을 통제헤 글로벌 AI 인프라 구축을 통제하겠다는 의도가 있다. 5일(현지시간) 로이터통신과 액시오스 등 현지 언론에 따르면, 미국 정부는 미국 기업이 설계한 고성능 AI 반도체 해외 판매를 강화하는 새로운 규제 체계를 검토하고 있다. 보도에 따르면 미국 정부는 해외 기업이나 국가가 AI 반도체를 대량 구매할 경우 정부 허가를 요구할 예정이다. 특히 일정 규모 이상 GPU를 구매할 경우 미국 정부와 협력 등 추가 조건을 요구하는 방안도 거론된다. 새로운 규제 대상에는 AI 처리를 위한 GPU 시장을 양분하고 있는 엔비디아와 AMD가 포함될 가능성이 크다. 미국 정부는 현재 중국 등 일부 국가에만 AI 반도체 수출을 제한했다. 그러나 새 규제는 이런 통제를 전 세계로 확대하려는 의도를 담고 있다. AI 데이터센터를 구축하려는 기업이나 국가가 미국 정부의 관계에 따라 GPU 확보에 실패할 가능성도 생긴다. 액시오스는 "새 규제는 현제 미국 정부 내부 검토 단계이며 구체적인 시행 시기나 최종 규정은 확정되지 않았다"고 설명했다.

2026.03.06 09:48권봉석 기자

중동 전쟁에 LNG 운임 상승…AI 데이터센터 업계 '전력비 변수' 주시

중동 전쟁 여파로 액화천연가스(LNG) 운임이 상승하면서 전력비 부담 가능성이 제기되는 가운데, 전력 소비가 큰 인공지능(AI) 데이터센터 업계가 상황을 예의주시하고 있다. 당장 운영 차질은 없지만 전력 가격 변동이 장기화될 경우 데이터센터 운영 비용에 영향을 줄 수 있다는 관측이 나온다. 5일 업계에 따르면 최근 중동 정세 불안으로 LNG 운임이 상승하면서 전력 시장에도 변수로 작용할 가능성이 제기되고 있다. AI 데이터센터는 일반 서버보다 훨씬 많은 전력을 소비하는 구조로 전력 가격 변동에 민감하기 때문이다. 실제 세계 최대 LNG 거점 중 하나인 카타르 라스라판 가동 중단 여파로 LNG선 단기 운임은 약 20% 상승한 것으로 알려졌다. 가스 도입 가격이 오르면 국내 전력 도매가격(SMP) 상승으로 이어질 수 있어 전기요금 인상 압박 요인이 될 수 있다는 분석이다. 여기에 중동 전쟁으로 주요 에너지 운송로인 호르무즈 해협을 둘러싼 긴장까지 높아지면서 LNG 운송 비용 변동성도 확대되는 분위기다. 업계에선 이러한 에너지 가격 상승 압력이 장기화될 경우 전력 소비가 많은 AI 데이터센터 운영 비용에도 영향을 줄 수 있다고 보고 있다. AI 데이터센터는 대규모 그래픽처리장치(GPU)와 고성능 서버를 운영해야 하는 만큼 일반 데이터센터보다 전력 소비가 많은 구조다. 다만 현재까지 국내 데이터센터 운영에는 직접적인 영향이 나타나지 않은 상황이다. 주요 통신사와 클라우드 기업들은 서비스 가용성에는 문제가 없으며 상황을 주시하고 있다는 입장이다. 최근 중동 지역에선 클라우드 인프라가 실제 군사 충돌의 영향을 받을 수 있다는 사례도 나오고 있다. 아마존웹서비스(AWS)의 중동 데이터센터가 드론 공격을 받아 일부 서비스 장애가 발생하면서 지정학적 리스크가 디지털 인프라로 확산될 수 있다는 우려가 제기되고 있다. 이에 국내 클라우드 기업들도 중동 사업 리스크 점검에 나선 모습이다. 중동은 최근 AI 인프라와 초대형 데이터센터 투자가 집중되는 지역으로, 지정학적 긴장이 장기화될 경우 일부 IT 인프라 프로젝트 일정에도 변수로 작용할 수 있다는 분석이 나온다. 대표적으로 중동 시장 공략에 나서고 있는 네이버클라우드는 현재 중동 프로젝트 운영에 차질이 없다는 입장이다. 네이버는 사우디아라비아를 중심으로 디지털 트윈과 AI·클라우드 사업을 추진하며 중동을 글로벌 전략 거점 중 하나로 육성 중이다. 회사 측은 중동 지역에 자체 데이터센터 시설을 직접 운영하고 있지는 않으며 현지에는 사무공간 중심 거점만 두고 있어 전쟁의 직접적 영향은 받지 않고 있다. 사우디 아람코 디지털과 협력 중인 메가존클라우드 역시 사업 운영에는 큰 영향이 없다는 입장이다. 앞서 메가존클라우드는 현지 클라우드 및 디지털 전환 사업을 추진하는 등 중동 시장 진출을 확대해 왔다. 현재까지 국내 클라우드 기업들의 데이터센터 운영 및 해외 거점에 대한 직접적인 영향은 확인되지 않고 있다. 다만 에너지 가격 상승이 장기화될 경우 데이터센터 산업 전반의 비용 구조에 영향을 줄 가능성은 배제할 수 없다는 시각도 나온다. 공공과 민간 모두에서 고성능 GPU 중심의 AI 인프라 수요가 빠르게 늘면서 전력 비용이 데이터센터 운영의 핵심 변수로 떠오르고 있어서다. 데이터센터 업계 관계자는 "현재까지 국내 AI 데이터센터 운영에 직접적인 영향은 없지만 LNG 가격 상승이 장기화될 경우 전기요금 상승으로 이어질 가능성이 있는 만큼 상황을 예의주시하고 있다"고 말했다.

2026.03.05 17:41한정호 기자

LG CNS, 그룹 기술 결집한 소형 데이터센터 'AI 박스' 공개…글로벌 공략

LG CNS가 LG그룹 계열사와 기술력을 결집한 컨테이너형 인공지능(AI) 데이터센터 'AI 박스'를 선보이며 글로벌 AI 인프라 시장 공략에 나선다. LG CNS는 컨테이너 하나에 그래픽처리장치(GPU) 576장을 수용할 수 있는 AI 박스를 출시했다고 5일 밝혔다. AI 박스는 별도의 건물을 신축하지 않고 컨테이너형 모듈을 연결하는 방식으로 구축되는 소형 AI 데이터센터다. 전통적인 데이터센터 구축에 약 2년이 걸리는 것과 달리 약 6개월 만에 구축이 가능해 AI 인프라 수요에 빠르게 대응할 수 있다는 점이 특징이다. 모듈형 구조를 적용해 확장성도 확보했다. 단일 컨테이너 단위로 운영할 수 있을 뿐 아니라 수십 개의 컨테이너를 단계적으로 결합해 하이퍼스케일급 AI 데이터센터로 확장할 수 있다. 고객은 초기 투자 부담을 줄이면서도 필요에 따라 인프라 규모를 유연하게 확대할 수 있다는 설명이다. AI 박스는 LG CNS의 데이터센터 설계·구축·운영(DBO) 역량과 LG 계열사의 기술력을 결합한 '원(One) LG' 기반 AI 데이터센터 모델이다. LG CNS는 약 40년간 축적한 데이터센터 설계·구축·운영 경험을 바탕으로 AI 플랫폼과 전력·냉각 인프라, IT 장비를 통합 설계했다. 특히 LG전자의 냉각수 분배 장치(CDU)와 항온항습기, 냉동기 등 냉각 설비와 LG에너지솔루션의 UPS용 배터리를 패키지 형태로 적용해 고전력·고밀도 AI 환경에 최적화된 전력·냉각 인프라를 구현했다. AI 박스는 전력 인프라를 담당하는 무정전전원장치(UPS)·변압기·수배전반 등 전기실과 IT 장비 운영 공간인 전산실로 구성된다. 외부에는 발전기와 배터리실, 냉동기를 갖춰 안정적인 전력 공급과 효율적인 열 관리를 지원한다. AI 박스 1개당 서버 전력은 1.2메가와트(MW) 규모로 최대 576장의 GPU를 수용할 수 있다. AI 데이터센터 수요가 빠르게 증가하는 상황에서 AI 박스는 구축 기간과 인프라 확보 문제를 해결할 수 있는 대안으로 주목받고 있다. 기존 대형 데이터센터는 부지 확보와 인허가, 전력·냉각 설계 등에 시간이 오래 걸려 급증하는 AI 인프라 수요에 신속히 대응하기 어려웠다는 한계가 있었다. LG CNS는 첫 번째 AI 박스를 부산 글로벌 클라우드 데이터센터 부지에 구축할 계획이다. 향후 약 2만 7179㎡(약 8221평) 부지에 약 50개의 AI 박스를 집적한 대규모 'AI 박스 캠퍼스'를 조성해 국내 AI 인프라 수요에 대응할 방침이다. 시장조사업체 포춘 비즈니스 인사이트에 따르면 글로벌 AI 데이터센터 시장 규모는 2030년까지 약 700조원 규모로 성장할 전망이다. LG CNS는 AI 박스를 통해 설계·구축·운영을 아우르는 데이터센터 DBO 역량을 강화하고 AI 인프라 패키지 사업자로 도약한다는 목표다. 조헌혁 LG CNS 데이터센터사업담당 상무는 "AI 서버부터 전력·냉각·운영까지 통합 제공하는 AI 박스는 데이터센터 사업의 새로운 패러다임을 이끌어 갈 것"이라며 "국내 시장의 성공 사례를 바탕으로 동남아시아, 북미 등 글로벌 시장으로 사업을 확대해 나가겠다"고 말했다.

2026.03.05 10:00한정호 기자

에이수스코리아, AW2026에 엣지 AI 솔루션 출품

에이수스코리아 인프라 솔루션 사업 그룹은 국내 공식 공급사인 피앤티링크와 '2026 스마트공장·자동화산업전(AW2026)'에 엣지 AI 솔루션과 미니 PC를 출품한다고 밝혔다. AW2026은 AI·휴머노이드 기반 자율제조(AX) 산업을 주제로 4일부터 6일까지 서울 삼성동 코엑스에서 진행되며 24개국 500개 기업이 총 2300부스 규모로 참여한다. 에이수스코리아는 행사 기간 중 엔비디아 젯슨 T5000 기반 초소형 엣지 AI 컴퓨터 'PE3000N', 2U 폼팩터에 인텔 코어 울트라 200S 프로세서와 최대 600W GPU를 통합한 랙 단위 AI GPU 시스템 'RUC-1000G'를 전시한다. PE3000N은 컴퓨팅 성능을 전 세대 대비 최대 7.5배, 전력 효율성을 3.5배 높인 엔비디아 젯슨 T5000으로 2070 FP4 TFLOPS 연산 성능을 구현했다. 생성형 VLM/LLM 모델, 실시간 지능형 비디오 분석, 완전 자율 제어 애플리케이션을 엣지에서 실행한다. RUC-1000G는 PCI 익스프레스 5.0 인터페이스로 연결된 GPU로 데이터 전송/처리 속도를 높이는 한편 메인 시스템과 GPU 섀시를 분리하여 관리하는 냉각 시스템을 적용했다. 인텔 코어 울트라 X9 프로세서를 통합한 미니 PC인 NUC 16 프로, 4K AI 이미지 처리가 가능한 MDS M700 등 미니 PC를 포함해 산업용 마더보드, NUC 미니 PC 시리즈 등 산업 환경에 최적화된 하드웨어도 함께 전시된다. 에이수스코리아는 기간 중 참관객 대상으로 각종 행사와 경품을 제공 예정이다.

2026.03.04 12:10권봉석 기자

AMD, 통신 산업 AI 가속 위한 '오픈텔코 AI' 참가

AMD가 2일(현지시간) 스페인 바르셀로나에서 열리는 MWC26 기간에 발맞춰 통신사들의 AI 전환 가속을 위한 '오픈텔코 AI' 이니셔티브에 참여한다고 밝혔다. 오픈텔코 AI는 세계이동통신사업자연합회(GSMA)가 주도하는 글로벌 협력 플랫폼이며 AMD를 포함해 미국 AT&T 등 통신사, AI 클라우드 업체 텐서웨이브 등이 참여한다. GSMA는 통신 특화 AI 연구, 데이터셋, 벤치마크, 도구를 공유하는 포털을 운영하며 이를 통해 AI 모델이 통신 네트워크의 실제 과제를 해결할 수 있도록 협업 기반을 제시한다. 또 거대언어모델(LLM)이 통신사 특화 쿼리 처리 정확도, 통신 분야 지식 처리 능력 등을 평가하는 오픈텔코 LLM 벤치마크를 통해 망 운영자와 개발자들이 모델 성능을 비교·검증할 수 있게 한다. AMD는 인스팅트 GPU와 개방형 AI 프레임워크인 ROCm을 제공해 오픈텔코 AI 모델을 훈련하고 이를 기반으로 통신 네트워크에 특화된 AI 솔루션을 구현하도록 돕는다. AMD는 AI 모델을 상용 서비스로 전환하기 위한 AMD 엔터프라이즈 AI 스위트도 제공한다. 쿠버네티스 기반의 컨테이너 환경에서 모델 서빙, 거버넌스, DevOps/MLOps 통합, 보안과 워크플로우를 통합 지원한다. AMD는 최근 vRAN 등 엣지 환경에 최적화된 에픽 8005 프로세서도 공개했다. 이 프로세서는 소켓당 최대 84개 코어에 달하는 높은 연산 밀도와 전력 효율로 통신 핵심 워크로드를 지원하며, 넓은 온도 범위에서 안정적으로 작동한다. GSMA 보고서에 따르면 생성 AI가 실제 네트워크에 적용된 사례는 16%에 불과했다. AMD는 "통신사가 단순한 AI 실험 단계에서 벗어나 실서비스 운영 환경에 AI를 배포하기 위해서는 단일 모델이나 하드웨어가 아니라, 개방형 생태계, 검증된 소프트웨어 스택, 현장 배치를 고려한 컴퓨팅 인프라 전반이 균형을 이루는 전략이 필요하다"고 밝혔다.

2026.03.02 16:15권봉석 기자

글로벌 AI 투자 몰리는 '네오클라우드'…한국 스타트업도 도전장

생성형 인공지능(AI) 확산과 함께 그래픽처리장치(GPU)를 중심으로 한 '네오클라우드'가 글로벌 인프라 시장의 새로운 축으로 부상하고 있다. 미국과 유럽에서 수십조원대 투자가 이어지는 가운데, 국내 스타트업들도 AI 전용 인프라 시장을 정조준하며 본격적인 경쟁에 뛰어드는 모습이다. 1일 업계에 따르면 네오클라우드는 기존 범용 클라우드와 달리 AI 학습·추론에 최적화된 고성능 GPU 자원을 서비스형(GPUaaS)으로 제공하는 사업 모델을 뜻한다. AI 모델 크기와 연산량이 급증하면서 하이퍼스케일러만으로는 수요를 감당하기 어려워지자 GPU 중심 인프라를 특화해 제공하는 사업자들이 빠르게 성장 중이다. 글로벌 시장에선 코어위브·람다랩스·네비우스 등이 대표적이다. 이들 기업은 엔비디아 GPU를 대규모로 확보해 AI 기업에 맞춤형 연산 자원을 제공하며 몸집을 키우고 있다. 특히 북미 기준 엔비디아 H100 GPU 임대 비용이 하이퍼스케일러 대비 3분의 1 수준에 불과하다는 조사 결과도 나오며 가격 경쟁력도 부각되고 있다. 금융권 자금도 네오클라우드로 몰리고 있다. 미국 주요 금융사는 네오클라우드 기업이 보유한 GPU를 담보로 대규모 대출을 실행하며 인프라 확장을 지원하고 있다. 시장조사기관 ABI리서치는 GPUaaS 기반 네오클라우드 시장이 2030년 약 90조원 규모로 성장할 것으로 내다봤다 . 이같은 흐름 속에 국내 스타트업들도 AI 전용 인프라 사업자로 정체성을 재정립하며 시장 공략에 속도를 내고 있다. 대표 사례가 베슬AI다. 이 회사는 자사 플랫폼 '베슬 클라우드'를 기반으로 AI 워크로드 운영에 특화된 네오클라우드 사업자로 입지를 강화하고 있다 . 베슬AI는 최근 GPU 클라우드 서비스를 공식 출시하고 연내 H200·B200·B300 등 최신 GPU 1만 장 규모 인프라를 구축하겠다는 계획을 밝혔다. 이미 미국·이스라엘·핀란드 등 6개 지역 데이터센터와 계약을 체결했으며 100여 개 기업과 연구기관이 서비스를 이용 중이다. 글로벌 대학과 연구기관 도입도 확대되며 지난해 매출은 전년 대비 3.4배 성장했다. 에너지 효율 측면에서도 차별화를 시도하고 있다. 베슬AI는 미국 데이터센터 기업과 협력해 전력망 상황에 따라 AI 워크로드를 자동 조정하는 그리드 인지형 머신러닝 운영관리(MLOps) 솔루션을 공동 개발 중이다. GPU 확보 경쟁을 넘어 운영 효율까지 아우르는 네오클라우드 전략이다. 몬드리안에이아이 역시 네오클라우드를 차세대 성장 축으로 내세웠다. 이 회사는 지난해부터 네오클라우드 사업 출사표를 던지며 최근 엔비디아 B300 GPU 클러스터 구축에 나섰다. 네오클라우드를 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스로 정의하고 매니지드 서비스 역량까지 결합하겠다는 전략이다 . 특히 델 테크놀로지스 인프라와 자체 ML옵스 플랫폼 '예니퍼', AI 실행환경 패키지 '몬스택'을 결합한 어플라이언스 '몬박스'를 교육·연구 현장에서 빠르게 확산하고 있다. 서울과학기술대학교와 성균관대학교 등에서 도입 사례가 이어지며 복잡한 설정 없이 즉시 AI 연구가 가능한 환경을 제공하고 있다는 평가다. 몬드리안에이아이는 최근 150억원 규모 시리즈B 투자 유치에 나서며 GPU 인프라 확충과 글로벌 진출을 병행하겠다는 계획도 밝혔다. 단순 GPU 임대를 넘어 인프라·플랫폼·서비스를 아우르는 네오클라우드 그룹으로 도약하겠다는 구상이다 . 업계에선 네오클라우드가 하이퍼스케일러의 대체재라기보다 AI 특화 워크로드를 분리·보완하는 공존형 인프라로 자리 잡을 가능성에 무게를 둔다. 다만 GPU 확보 비용, 전력비 상승, 엔비디아 의존도 등은 장기 리스크로 꼽힌다. 그럼에도 AI 모델 고도화와 산업 전반의 AI 전환(AX)이 가속화되는 한 GPU 중심 인프라 수요는 지속 확대될 것이란 전망이 우세하다. 글로벌 자본이 몰리는 네오클라우드 시장에서 한국 스타트업들이 기술·운영 역량을 바탕으로 의미 있는 경쟁력을 확보할 수 있을지 주목된다. 박현규 몬드리안에이아이 부사장은 "네오클라우드는 단순히 GPU를 임대하는 사업이 아니라 AI 연구와 서비스가 바로 작동할 수 있는 환경을 패키지로 제공하는 모델"이라며 "국내 기업과 연구기관이 인프라 부담 없이 AI 혁신에 집중할 수 있도록 네오클라우드 역량을 지속적으로 고도화하겠다"고 밝혔다.

2026.03.01 08:47한정호 기자

정부 GPU 지원에 업계 '호응'…배경훈 "더 많은 기업에 지원 확대"

정부가 국가 인공지능(AI) 경쟁력 강화를 위해 추진 중인 '첨단 그래픽처리장치(GPU) 활용 지원 사업'이 현장에서 가시적인 반응을 얻고 있다. 정식 공모에 앞선 사전 베타테스트만으로도 스타트업이 엔비디아 최신 블랙웰(B200) GPU를 활용해 대규모 모델 학습을 경험하는 등 고성능 연산 자원 접근성 확대가 본격화되는 모습이다. 배경훈 부총리 겸 과학기술정보통신부 장관은 지난 25일 페이스북을 통해 "정부 GPU 지원 서비스에 선정돼 블랙웰 32장을 쓰게 됐습니다. 비록 14일이지만 감개무량합니다. 저희 같은 스타트업에 큰 도움이 됩니다"라는 한 스타트업 대표의 메시지를 전하며, 더 많은 기업이 고성능 GPU를 활용할 수 있도록 지원을 확대하겠다는 의지를 밝혔다. 이는 첨단 GPU 활용 지원 사업의 사전 베타테스트로, 현재 정식 공모를 진행 중이며 곧 결과 발표를 앞두고 있다. 배 부총리는 "GPU가 있는 것과 없는 것은 한번이라도 더 좋은 아이디어를 실험해 볼 수 있느냐 없느냐의 차이"라며 현장 체감도를 강조했다. 과기정통부와 정보통신산업진흥원(NIPA)이 주관하는 사업으로, 정부가 엔비디아 H100과 B200 등 최신 고성능 GPU를 대규모로 확보해 국내 스타트업과 연구기관에 지원하는 것이 핵심이다. 정책적으로는 'AI 고속도로' 구축의 핵심 사업으로 평가된다. 이번 사전 베타테스트에서는 블랙웰 GPU를 단기간 집중 지원하는 방식이 적용됐다. 스타트업이 자체적으로 확보하기 어려운 고가·고성능 자원을 단기간이라도 병렬 클러스터 환경에서 운용해보며 대규모언어모델(LLM) 학습과 스케일링을 직접 검증할 수 있도록 했다. 이같은 정부 지원에 대한 현장 수요도 폭발적이다. 업계에 따르면 해당 사업에 공공·민간을 합쳐 4만 장이 넘는 GPU 사용 신청이 접수돼 올해 공급 예정 물량의 4배를 웃도는 것으로 알려졌다. 정부는 올해 공공 6000장, 민간·산학연 4000장 등 총 1만 장의 GPU 서비스를 제공할 계획이다. GPU는 지난해 정부가 추경 예산을 통해 확보한 물량을 기반으로 하며 네이버·카카오·NHN 등 클라우드 사업자의 국내 데이터센터 인프라를 활용해 서비스형 방식으로 제공된다. 기업과 기관이 별도 장비 구매 없이 고성능 연산 환경을 활용할 수 있도록 지원한다. 정부는 추가 인프라 확충에도 속도를 내고 있다. 올해 2조 1000억원을 투입해 GPU 1만 5000장을 추가 확보할 계획으로, 향후 국가 AI 경쟁력 강화를 위한 중장기 기반을 갖춘다는 목표다. '첨단 AI반도체 서버확충 및 통합운영환경 구축'이라는 공고로 다음 달 초 사업이 공개될 예정이다. 배 부총리는 "AI는 말로 강해지지 않고 실제로 학습이 돌아갈 때 만들어진다"며 "본 공모 지원도 차질 없이 추진하고 더 많은 팀이 도전할 수 있도록 정부도 계속 함께 뛰겠다"고 강조했다.

2026.02.27 17:42한정호 기자

[현장] 시스코 "AI 운영, 모델부터 네트워크·데이터까지 전 구간 검토해야"

"인공지능(AI)는 그래픽처리장치(GPU), 네트워크, 스토리지, 데이터, 에이전트까지 전 계층이 동시에 얽혀 있는 복합 시스템입니다. 어느 한 지점만 봐서는 장애 원인, 성능 병목, 비용 문제도 정확히 알 수 없습니다. 그래서 AI 운영은 전 구간을 통합해 들여다보는 옵저버빌리티가 필수입니다." 인필교 시스코 상무는 26일 서울 마곡 LG사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 'AI를 위한 옵저버빌리티 전략'을 주제로 발표에 나섰다. 그는 "AI는 모델만의 문제가 아니라 인프라 전반의 문제"라며 모든 인프라를 통합적으로 들여다보는 가시성이 필요하다고 강조했다. 인 상무는 먼저 AI 인프라의 복잡성을 짚었다. GPU 서버 도입이 급증했지만, 실제 운영 단계에서는 GPU 사용률, 병목 구간, 네트워크 지연, 스토리지 성능, 전력과 냉각까지 모두 영향을 미친다고 설명했다. 그는 "GPU가 정상이라고 해서 AI 서비스가 정상은 아니다"라며 "CPU, 메모리, GPU 간 연결, 클러스터 네트워크, 데이터 공급 체계까지 함께 봐야 한다"고 말했다. 이어 '옵저버빌리티 포 AI(Observability for AI)' 개념을 소개했다. 이는 기존 포인트 모니터링을 넘어 인프라 메트릭, 로그, 트레이스, 이벤트 데이터를 통합 수집해 전체 흐름을 한 번에 파악해야 한다는 개념이다. 또 오픈텔레메트리 기반 데이터 수집과 '피델리티 데이터(fidelity data)' 확보의 중요성도 이날 강조했다. 인 상무는 "AI 환경은 일반 IT 시스템보다 훨씬 많은 데이터를 실시간으로 생성한다"며 "데이터가 빠짐없이 수집돼야 정확한 분석과 원인 규명이 가능하다"고 말했다. AI 모델 관측 영역에 대해서도 언급했다. 그는 "이제는 모델과 에이전트 자체도 모니터링 대상"이라며 "환각 문제, 프롬프트별 응답 품질, 토큰 사용량과 비용까지 분석해야 한다"고 설명했다. 이어 "모든 프롬프트와 응답을 데이터로 확보해야 환각 여부와 품질을 판단할 수 있다"며 "운영 품질과 비용 최적화를 동시에 달성해야 한다"고 덧붙였다. 운영 과정에서 발생하는 장애를 방지하기 위한 에이전틱 AI도 소개했다. 인 상무는 기존에는 운영자가 AI에 질문해 원인을 찾는 방식이었다면, 앞으로는 AI 에이전트가 스스로 데이터를 수집하고, 문제를 감지하며 원인을 분석한 뒤 필요 시 자동 복구까지 수행하는 구조로 진화한다고 설명했다. 다만 모든 조치를 자동화하는 것은 아니라고 선을 그었다. 코드 수정이 필요한 사안 등은 사람의 승인과 판단을 거치도록 설계했다고 덧붙였다. 또 서비스형 소프트웨어(SaaS) 기반 제공을 기본으로 하되, 보안 요구가 높은 기업을 위해 온프레미스 환경도 지원할 계획이라고 밝혔다. 인 상무는 "엔터프라이즈 AI 운영에는 더 완벽한 가시성과 더 빠르고 정확한 문제 감지가 필요하다"며 "AI 기반 지능형 원인 분석을 통해 복잡해진 AI 인프라 운영을 더 간편하게 만들겠다"고 말했다.

2026.02.26 17:38남혁우 기자

게이밍 GPU 교체주기 장기화...AI 기능으로 '공백 메우기'

글로벌 빅테크 기업의 대규모 AI 인프라 투자 경쟁 속에서 데이터센터용 GPU 수요가 급증하면서, 게이머나 일반 소비자용 GPU의 신제품 투입 우선순위가 내려가고 있다. 엔비디아는 현행 블랙웰과 차기 제품인 루빈에 GPU 신제품 개발과 생산 역량을 집중하는 한편 일반 소비자용 신제품 투입 시기를 미루고 있다. 올해에서 내년까지 새 GPU 투입이 미뤄질 것이라는 전망도 나온 바 있다. 엔비디아는 AI 기반 소프트웨어 기술을 활용한 업스케일링·프레임 생성 등으로 신제품 공백을 메우고 있다. 올 초 CES에서 DLSS 4.5를 공개한 데 이어 올해 중 업데이트를 통해 이를 강화할 예정이다. 2024년 이후 데스크톱 PC용 GPU 신제품 출시가 없는 인텔 역시 AI 기반 프레임 생성 기능을 현행 최신 제품 뿐만 아니라 2022년 출시된 전 세대 GPU까지 확장했다. 그래픽카드 시장의 경쟁 축도 AI 알고리듬 경쟁으로 향하고 있다. 엔비디아, 게이밍 GPU 신제품 투입 연기 엔비디아는 일반 소비자용 GPU 출시 이후 일정 시간이 지나면 작동 클록을 높이고 메모리 탑재량을 늘린 '슈퍼' 시리즈를 추가 출시했다. 이는 제품 수명을 연장하고 최대 경쟁사인 AMD 대응력을 유지하기 위한 수단이다. 올 초 CES를 앞두고도 파생 제품 출시가 예상됐지만 이는 실현되지 않았다. 글로벌 빅테크가 AI 인프라 투자에 경쟁적으로 나서면서 일반 소비자용 GPU 추가 출시는 우선 순위에서 밀린 것으로 판단된다. 이달 초 미국 IT 매체 디인포메이션은 익명을 요구한 관계자를 인용해 "RTX 50 파생 제품의 설계는 이미 끝났지만 메모리 반도체 수급난과 공급 부족 때문에 출시가 보류됐다"고 설명했다. DLSS, AI 기반 프레임 생성으로 성능 강화 엔비디아가 CES에서 새 GPU 대신 내세운 기술은 AI를 활용해 게임 프레임 수를 향상시킬 수 있는 기능인 DLSS(딥러닝 슈퍼샘플링) 4.5다. DLSS는 AI를 이용해 저해상도 게임 화면을 고해상도로 처리한다. 그래픽칩셋 부하는 줄이고 화질 저하는 최소화하며 초당 프레임 수는 높일 수 있다. RTX 5090 등 최상위 GPU가 아니어도 충분히 높은 프레임을 뽑아낼 수 있다. DLSS 4.5는 지포스 RTX 40/50 시리즈 GPU에서 작동한다. 지난 해 초 CES 2025에서 공개된 DLSS 4를 보완했고 2세대 트랜스포머 모델을 이용해 화질 저하 현상을 개선했다. 인텔, 2022년 출시 GPU까지 XeSS 확장 인텔 역시 아크 A/B시리즈용 GPU의 AI 연산 기능을 활용한 XeSS(Xe 슈퍼샘플링) 기능을 구현한 상태다. 코어 울트라 시리즈3(팬서레이크)에 탑재된 아크 B390 GPU에는 기준 프레임 두 개로 최대 세 개 중간 프레임을 AI로 생성하는 XeSS-MFG(다프레임 생성) 기능이 추가됐다. 지난 13일 업데이트된 아크 GPU 드라이버는 XeSS-MFG 기능을 2022년 출시된 데스크톱 PC용 그래픽카드인 아크 A770, 코어 울트라 시리즈1(메테오레이크)/시리즈2(루나레이크)에 탑재된 아크 GPU까지 확장했다. 이를 이용하면 아크 A770 등 구형 그래픽카드에서도 초당 프레임을 최대 네 배까지 끌어올릴 수 있다. 그래픽카드 교체주기 연장... AI 기반 부가기능으로 보완 디인포메이션 등에 따르면 엔비디아는 새 GPU 아키텍처 '루빈(Rubin)'을 적용한 RTX 50 시리즈 후속 제품을 2027년 말 대량 생산하려던 계획도 연기한 것으로 추정된다. 올해 뿐만 아니라 내년까지 새 PC용 GPU가 등장하지 않을 수 있다는 의미다. HBM뿐 아니라 고성능 GDDR 메모리 확보도 점점 어려워지면서 소비자용 GPU 생산 일정이 영향을 받고 있다는 분석도 나온다. 일반 소비자용 그래픽카드 교체 주기가 길어지고 AI 기반 성능 개선 기술 의존도가 높아질 전망이다. 엔비디아는 지난 해 출시한 RTX 50 시리즈 GPU의 성능 향상을 위한 DLSS 4.5 추가 업데이트도 준비중이다. AI 생성 프레임을 6배로 늘리는 한편 모니터 최대 화면주사율에 맞춰 화질과 프레임의 균형을 자동으로 조절하는 기능이 포함될 예정이다.

2026.02.25 16:31권봉석 기자

베슬AI, GPU 클라우드 서비스 출시…연내 1만장 규모 인프라 구축

베슬AI가 올해 1만 장 규모 최신 그래픽처리장치(GPU) 인프라를 구축해 클라우드 사업 확대에 나선다. 베슬AI는 GPU 자원을 효율적으로 운영하는 서비스 '베슬 클라우드'를 공식 출시했다고 24일 밝혔다. 베슬 클라우드는 분산된 GPU 자원을 활용해 인공지능(AI) 개발 환경의 비용과 운영 부담을 줄이는 데 초점을 맞춘 클라우드 서비스다. 회사 측에 따르면 업계 최소 수준인 분 단위의 과금 체계를 적용했으며 작업을 중단해도 데이터와 환경을 유지하는 '스마트 퍼징' 기능을 통해 유휴 자원 비용을 최소화한다. 장애 발생 시 자동 복구 기능과 다중 클러스터 기능도 지원해 안정적인 운영 환경을 제공한다. 글로벌 보안 통제 기준인 'SOC 2 타입 2' 인증을 획득해 기업 환경에 필요한 신뢰성과 안정성도 확보했다. 이번 출시는 베슬AI가 추진하는 글로벌 인프라 공급망 네오클라우드 전략의 본격적인 실행 단계에 해당한다. 회사는 이스라엘·미국·핀란드·한국을 포함한 6개 지역 데이터센터와 계약을 체결했으며 연내 신규 데이터센터 구축을 포함해 H200·B200·B300 등 GPU 1만 장 규모의 인프라를 단계적으로 확충할 계획이다. 이를 통해 증가하는 고성능 연산 수요에 대응한다는 방침이다. 현재 베슬 클라우드는 미국 피지컬 AI 스타트업부터 국내 대형 금융지주에 이르기까지 100여 개 기업 및 연구기관에서 이용되고 있다. 특히 로보틱스·미세 조정·자율주행 등 고성능 연산이 요구되는 딥테크 분야와 금융권에서 실제 상용 환경에 활용되며 안정성을 검증받고 있다. 베슬 클라우드는 지난 1월 한 달 만에 지난해 베슬AI 전체 연간 매출의 50% 이상을 기록했다. 이는 고성능 연산 자원 운영에 대한 시장 수요가 빠르게 확대되고 있음을 보여주는 지표다. 안재만 베슬AI 대표는 "AI 인프라 경쟁은 단순히 GPU 수량 확보를 넘어 전 세계에 분산된 자원을 얼마나 효율적으로 연결하고 운영하느냐가 핵심"이라며 "확충 중인 GPU 인프라와 이미 확인된 성장 흐름을 기반으로 올해 전년 대비 10배 이상의 매출 성장을 달성하고 네오클라우드 생태계를 글로벌 수준으로 확장해 나가겠다"고 말했다.

2026.02.24 14:13한정호 기자

[AI는 지금] 5000억 달러 '스타게이트' 제동…오픈AI 전략 차질에 반도체도 영향 받나

오픈AI와 소프트뱅크, 오라클이 추진해온 미국 초대형 인공지능(AI) 데이터센터 프로젝트 '스타게이트'가 1년 넘게 본격 가동되지 못한 것으로 알려졌다. 5000억 달러(약 720조원) 규모로 발표되며 글로벌 AI 인프라 경쟁의 상징으로 주목받았지만, 파트너십 구조를 둘러싼 이견과 자금 조달 문제 등이 겹치며 사실상 전략 수정 국면에 들어갔다는 평가가 나온다. 미국 IT 전문매체 디인포메이션은 23일(현지시간) 복수 소식통을 인용해 오픈AI·소프트뱅크·오라클이 프로젝트 발표 직후부터 역할 분담과 지배구조를 두고 의견 차이를 보여왔고, 이로 인해 사업이 실질적 진전을 이루지 못하고 있다고 보도했다. 스타게이트는 초기 1000억 달러를 투입해 10GW(기가와트) 규모의 AI 전용 컴퓨팅 인프라를 구축하는 것을 1단계 목표로 제시했다. 그러나 현재까지 핵심 인력 충원은 물론 오픈AI 주도의 데이터센터 개발도 착수 단계에 이르지 못한 것으로 전해졌다. 업계에선 초대형 인프라 사업 특성상 자산 소유권과 운영 통제권, 수익 배분 구조가 명확히 정리되지 않으면 금융 조달과 건설 일정이 동시에 지연될 수밖에 없다고 보고 있다. 특히 데이터센터 자산을 누가 보유할 것인지, 기술 통제권을 어디까지 인정할 것인지를 두고 3사 간 견해차가 컸던 것으로 알려졌다. 오픈AI는 한때 직접 데이터센터 구축을 추진했지만, 금융권이 상환 능력에 의문을 제기하면서 자금 조달이 보류된 것으로 전해졌다. AI 인프라는 선투자 규모가 막대하고 회수 기간이 긴데, 그래픽처리장치(GPU) 등 고가 연산 장비의 감가상각 부담과 기술 진화 속도까지 고려하면 금융기관 입장에서는 위험도가 높은 사업으로 분류된다. 결국 오픈AI는 3자 공동 추진 대신 소프트뱅크·오라클과 각각 개별 계약을 맺는 방식으로 방향을 틀었다. 오라클과는 미국 내 여러 지역에서 4.5GW 규모 데이터센터를 개발하고, 텍사스 밀럼 카운티 1GW 프로젝트는 소프트뱅크와 협력하는 구조다. 데이터센터 자산은 파트너가 보유하고, 오픈AI는 설계와 지식재산권(IP) 통제에 집중한다는 방침이다. 프로젝트 지연은 재무 부담으로도 이어졌다. 2030년까지의 컴퓨팅 비용 전망치는 기존 4500억 달러에서 6650억 달러로 상향 조정된 것으로 전해졌다. 한때 1조4000억 달러에 달했던 투자 계획도 최근에는 6000억 달러 수준으로 축소된 것으로 알려졌다. 공격적 확장에서 재무 안정성 중심 전략으로 기조가 이동하고 있는 것이다. 스타게이트 난항은 반도체 업계에도 영향을 미칠 수 있을 것으로 보인다. 초대형 AI 데이터센터 프로젝트는 대규모 GPU 발주와 이에 연동된 고대역폭메모리(HBM) 수요를 수반하기 때문이다. 프로젝트가 지연될 경우 관련 장비와 부품의 발주 일정 역시 조정될 가능성이 있다. 다만 업계에선 이를 AI 수요 위축으로 단정하기는 이르다는 분위기다. 스타게이트와 같은 초대형 단일 프로젝트가 지연될 경우 GPU 및 HBM 수요의 '총량'이 줄어들기보다는 대규모 발주의 집행 시점이 뒤로 밀리면서 시장 체감 성장 속도가 완만해질 가능성이 크다고 봤다. AI 인프라 투자가 중장기적으로 이어지는 흐름은 유지되더라도 데이터센터 건설 일정이 늦춰지면 반도체 업계의 실적 반영 시점 역시 후행할 수 있다는 의미다. 업계 관계자는 "스타게이트 사례는 AI 산업이 기술 경쟁을 넘어 자본 조달과 거버넌스 안정성이라는 현실적 과제에 직면했음을 보여주는 것"이라며 "인프라 확장의 방향성은 유지되지만, 속도와 방식은 조정되는 국면에 접어든 것으로 보인다"고 평가했다.

2026.02.24 10:41장유미 기자

클라우다이크 '브이픽', 엔비디아 AI스타트업 지원 프로그램 선정

클라우드 및 인공지능(AI) 솔루션 전문 기업 클라우다이크(대표 이선웅)는 AI 영상 분석 및 숏폼 제작 서비스 '브이픽(VPick)'이 엔비디아 스타트업 육성 프로그램인 '엔비디아 인셉션(NVIDIA Inception)'에 선정됐다고 23일 밝혔다. '엔비디아 인셉션'은 AI, 데이터 사이언스 등 혁신 기술을 보유한 전 세계 스타트업을 발굴, 지원하는 프로그램이다. 선정된 기업은 엔비디아 최신 GPU 기술 지원을 비롯한 클라우드 크레딧, 기술 교육 및 투자자 연결 등 기업 성장을 위한 다양한 혜택이 주어진다. 이선웅 대표는 이번 선정에 대해 "클라우다이크가 최근 출시한 브이픽의 AI 기술력을 인정받은 결과"라고 자평했다. 브이픽은 기업이 보유한 방대한 영상 데이터를 AI가 자동으로 분석, 마케팅에 즉시 활용 가능한 '숏폼(Short-form)' 영상으로 재가공해 주는 B2B SaaS(서비스형 소프트웨어)다. 브이픽은 단순히 영상을 이해하는 것을 넘어, 사용자가 클릭 몇 번으로 ▲자연어 명령을 통한 영상 검색 ▲AI를 통한 자동 숏폼 생성 ▲자동 자막 생성 등 고난도 영상 편집 작업을 수행할 수 있다. 이는 네이버클라우드 미디어 인텔리전스, 구글 제미나이(Gemini) 등 미디어 및 거대언어모델(LLM)을 결합한 '하이브리드 AI 아키텍처'를 적용했기 때문이다. 클라우다이크는 이번 엔비디아 인셉션 선정을 계기로 브이픽의 AI 기술 역량 고도화를 추진한다. 엔비디아의 고성능 GPU 인프라를 활용해 영상 처리 속도를 획기적으로 단축하고 서비스 운영 원가 절감 등을 통해 보다 합리적인 고객 서비스를 제공할 계획이다. 이선웅 대표는 “브이픽이 단순한 편집 도구를 넘어, GPU 가속 기술이 내재된 고도화된 AI 솔루션이라는 점을 글로벌 시장에 입증한 것"이라며 "향후 엔비디아 기술 지원을 바탕으로 영상 콘텐츠 제작 비효율 개선을 추진하며, 글로벌 AI 시장 진출에 박차를 가할 것"이라고 밝혔다.

2026.02.23 13:49박희범 기자

정부, 고성능 GPU 1만5천장 확충한다…다음주 사업 공고 전망

정부가 올해 1만 5000장 규모의 고성능 그래픽처리장치(GPU)를 추가 확보하는 대형 사업을 다음주 공개할 전망이다. 지난해 1만 3000여 장 도입에 이어 2년 연속 대규모 확충에 나서며 국가 인공지능(AI) 인프라를 강화하는 모습이다. 20일 업계에 따르면 과학기술정보통신부는 '첨단 AI반도체 서버확충 및 통합운영환경 구축' 사업 공고를 이르면 다음주 말께 게시할 예정이다. 공고 시점은 내부 검토 상황에 따라 다소 유동적이지만 최대한 이른 시일 내 공개할 것으로 전해졌다. 이번 사업은 1만 5000장 이상 규모의 GPU를 확보·구축하는 내용으로 설계되고 있다. 총 지원 예산은 약 2조원 규모로 편성됐다. 확보된 자원은 민간 클라우드 서비스 제공업체(CSP)가 구축·운영하는 서비스형 GPU(GPUaaS) 방식으로 제공될 예정이다. 정부의 GPU 확충 정책은 지난해 추경을 통해 1만 3000여 장을 확보하는 등 단계적으로 추진돼 왔다. 이후 엔비디아와의 협력 발표를 계기로 중장기 공급 로드맵이 보다 구체화되면서 확충 속도에 힘이 실린 것으로 평가된다. 당시 정부는 2030년까지 총 26만 장 규모 GPU를 국내에 도입하는 계획을 제시했고 이 가운데 정부 몫은 5만 2000장 수준으로 제시됐다. 올해 추가 확보 사업도 이러한 중장기 로드맵을 이행하는 과정의 연장선이다. 정부는 지난해 약 1만 3000장의 GPU를 확보하고 네이버클라우드·NHN클라우드·카카오를 1차 사업자로 선정한 바 있다. 당시 확보 물량은 엔비디아 B200 1만 80장, H200 3056장으로 구성됐으며 이 중 1만장 이상이 정부 활용분으로 산학연 등에 순차 지원하도록 이뤄졌다. 특히 1차 사업에서는 GPU 통합지원 플랫폼 구축을 통해 산학연과 스타트업이 온라인으로 GPU 자원을 신청·배정받는 구조도 마련됐다. 정부와 운용 사업자들은 실무협의체를 구성해 확보·구축·운용 계획과 배분 일정 등을 점검해왔다. 이를 토대로 최근 정부가 진행하는 GPU 보급 사업에 초거대 AI 모델 개발을 추진하는 스타트업과 대학·연구기관의 관심이 집중되며 신청 수요가 빠르게 늘어난 것으로 전해졌다. 올해 사업은 이같은 기반에 GPU 물량을 더 확대하는 방식이다. 과기정통부 산하 정보통신산업진흥원(NIPA)은 지난달 통합 사업설명회를 통해 올해 GPU 1만 5000장 확보를 목표로 제시하며 국가AI컴퓨팅센터 설립과 병행 추진하겠다는 계획을 밝힌 바 있다. 이번 사업은 지난해 참여했던 네이버클라우드·카카오·NHN클라우드를 비롯해 KT클라우드 등 주요 CSP들의 참여 여부가 관심사로 떠오르고 있다. 이미 GPUaaS 운영 경험과 데이터센터 인프라를 갖춰 공공사업을 진행 중인 만큼 다시 한번 GPU 추가 확보에 나설 가능성이 거론된다. 사업 공고에 따라 단일 사업자, 복수 사업자, 컨소시엄 형태 등 다양한 방식이 검토될 수 있다는 관측도 나온다. 이번에 확보될 GPU는 산학연 연구 수요와 국가 전략 AI 프로젝트 등에 투입될 전망이다. 정부는 지난해 확보 물량을 통해 초대형 클러스터 기반 AI 워크로드 지원 체계를 마련했으며 올해 추가 물량을 통해 지원 범위와 규모를 더욱 확대한다는 구상이다. 사업 일정은 공고 이후 사업자 선정, 협약 체결, GPU 발주 및 구축 순으로 진행될 예정이다. 이와 함께 정부는 삼성SDS 컨소시엄이 수주한 국가AI컴퓨팅센터 구축도 병행하고 있다. 현재 금융 심사가 진행 중이며 관련 절차가 마무리되는 대로 인프라 확충 작업이 이어질 전망이다. 정부는 민간과 협력하는 GPUaaS 모델을 통해 단기 수요에 대응하고 중장기적으로는 국가 차원의 컴퓨팅 인프라를 체계화한다는 방침이다. 과기정통부 관계자는 "최대한 빨리 공고를 내기 위해 준비 중이며 내부 검토를 거쳐 다음주 말쯤 공개될 것으로 예상한다"고 밝혔다. 업계 관계자는 "지난해 사업을 통해 GPUaaS 운영 모델이 어느 정도 안착한 만큼, 올해 추가 물량까지 더해지면 국가에서 추진하는 다양한 AI 개발 프로젝트를 수준 높게 지원할 수 있을 것"이라고 말했다.

2026.02.20 14:52한정호 기자

KOSA "GPU 26만장 확보는 시작…활용 경쟁으로 전환해야"

정부가 대규모 그래픽처리장치(GPU) 확보를 앞둔 가운데 한국인공지능·소프트웨어산업협회(KOSA)가 공공부문이 첫 고객으로 나서 수요를 창출하고 하드웨어(HW) 중심 정책을 소프트웨어(SW)·데이터 중심으로 전환해야 한다고 제언했다. 확보 경쟁을 넘어 실제 활용 경쟁으로 정책의 무게중심을 옮기지 못할 경우 막대한 예산이 투입된 GPU가 유휴 자산으로 전락할 수 있다고 경고했다. KOSA는 19일 발간한 '공공부문 GPU 활용 전략 보고서'를 통해 "GPU 26만 장 확보는 끝이 아닌 시작이며 진정한 승부는 누가 어떻게 쓰는가에 달려 있다"며 "인프라 보유 경쟁에서 벗어나 산업 현장의 활용 경쟁으로 정책 패러다임을 전환해야 한다"고 밝혔다. KOSA 산하 AI정책협력위원회가 발간한 이번 보고서는 2030년까지 정부가 확보하게 될 GPU 물량을 효율적으로 활용하기 위한 구체적 실행 방안을 담았다. 보고서는 GPU 수명이 3~5년에 불과하다는 점을 짚으며 인프라 규모에 비해 산업계의 실질적 활용 수요가 부족한 상황에서 도입 초기 가동률을 끌어올리지 못하면 전략 자산이 고철로 전락할 위험이 있다고 경고했다. 보고서는 이를 위해 4대 핵심 전략을 제시했다. 먼저 정부가 첫 번째 고객으로 나서 초기 시장을 여는 역할을 해야 한다고 강조했다. 행정·국방 등 공공부문에 국산 AI 도입을 촉진해 시장 불확실성을 제거하고 AI 도입률이 낮은 중소 제조기업을 대상으로 진단부터 기술검증(PoC), 구축까지 전 과정을 지원하는 원스톱 패키지 신설이 필요하다는 주장이다. 또 HW 구매에 편중된 예산 구조를 SW와 데이터 가치 중심으로 개편해야 한다고 제안했다. 정부 지원 사업에 수시 신청 트랙을 도입하고 성과가 검증된 기업에는 최대 3년(2+1년)까지 지원을 연장하는 다년도 체계를 마련해 기업이 비즈니스 기회를 적기에 활용할 수 있도록 해야 한다는 설명이다. 아울러 인프라 효율성을 높이기 위해 학습과 추론을 전략적으로 분리해야 한다고 제시했다. 고난도 모델 개발과 관련 연구개발(R&D)에는 엔비디아 GPU를 집중 투입하되, 대국민 서비스 등 추론 단계에서는 국산 신경망처리장치(NPU) 사용을 원칙으로 해 국산 칩의 초기 레퍼런스를 확보하고 생태계를 키워야 한다는 제언이다. 마지막으로 실전형 AI 엔지니어링 인재와 슈퍼컴퓨팅 아키텍트 육성을 강조했다. 산업 현장의 도메인 지식을 갖춘 인력을 대상으로 한 재교육과 함께 대규모 GPU 클러스터를 설계·운영할 수 있는 고성능컴퓨팅(HPC) 전문 인력을 국가 차원에서 체계적으로 양성해야 한다고 제안했다. 임우형 AI정책협력위원회 위원장(LG AI연구원 공동원장)은 "GPU 확보가 가시화된 지금이 AI 3대 강국 도약을 실현할 수 있는 골든타임"이라며 "공공부문이 선제적으로 마중물 역할을 하고 민간이 창의적인 엔지니어링으로 화답하는 민·관 원팀 플레이가 어느 때보다 절실하다"고 밝혔다. 조준희 KOSA 회장은 "우리나라가 보유한 세계 최고 수준의 제조 데이터를 무기로 풀스택 AI 패키지를 구축해 글로벌 수출 경쟁력을 확보해야 한다"며 "정부 예산이 GPU 구매라는 HW에만 머물지 않고 AI 공정대가 지급과 같이 SW 가치가 제대로 인정받는 건강한 생태계 조성으로 이어지도록 협회가 앞장서겠다"고 밝혔다.

2026.02.19 10:11한정호 기자

韓 AI반도체, '엔비디아 대항마' 넘어 실전으로

AI 시대의 개막과 함께 반도체 산업의 패러다임이 급변하고 있다. 인공지능 구현에 필수적인 고성능 반도체의 수요가 폭증함에 따라, 엔비디아의 GPU(그래픽처리장치)를 중심으로 한 글로벌 AI 생태계는 그 어느 때보다 공고한 성벽을 쌓아 올렸다. 그러나 최근 AI 시장의 무게추가 모델 학습에서 '추론(Inference)'으로 이동하며 GPU 중심의 시장 구조에 변화의 조짐이 나타나고 있다. 학습에서 추론으로, NPU 시장의 활성화 생성형 AI의 확산은 데이터센터부터 엣지, 온디바이스 전반에 걸쳐 막대한 연산 수요를 창출하고 있다. 초기 시장이 대규모 언어 모델을 학습시키기 위한 GPU 중심이었다면, 이제는 학습된 모델을 실무 서비스에 적용하는 추론 단계가 핵심 경쟁력으로 부상했다. 이 과정에서 AI 연산에 특화된 NPU(신경망처리장치) 시장이 본격적으로 활성화되고 있다. NPU는 범용성을 갖춘 GPU와 달리 AI 알고리즘 처리에 최적화돼 있어, 전력 효율성과 비용 측면에서 압도적인 강점을 가진다. 글로벌 테크 기업들이 효율적인 AI 인프라 구축을 위해 NPU로 눈을 돌리면서, NPU는 GPU의 대안을 넘어 차세대 반도체의 주역으로 자리매김하고 있다. 2026년, 대한민국 AI 반도체 '원년'의 선포 이러한 시장 변곡점에서 국내 AI 반도체 기업들은 글로벌 시장의 주도권을 잡기 위해 총력전을 펼치고 있다. 특히 2026년은 국내 주요 AI 반도체 스타트업들의 기술력이 담긴 칩들이 일제히 시장에 출시되는 시점으로, '한국 AI 반도체의 원년'이라 부르기에 부족함이 없다. 리벨리온, 퓨리오사AI, 딥엑스, 모빌린트 등 국내 기업들은 각기 다른 전략과 포지셔닝을 통해 글로벌 경쟁력 확보에 매진하고 있다. 이들은 단순한 기술 개발을 넘어 시제품(PoC) 단계를 통과하고 실제 양산 및 상용화 단계로 진입하며 실질적인 성과를 증명해야 하는 중요한 기로에 서 있는 셈이다. 생존 전략을 위한 SWOT 분석 [K-AI칩이 온다] 연재 기획은 국내 주요 AI 반도체 및 인프라 기업 7곳을 대상으로 이들의 기술력과 시장 생존 전략을 집중 조명한다. 각 기업의 주력 시장과 포지셔닝, 성능 및 전력 효율성, 그리고 소프트웨어(SW) 경쟁력을 다각도로 분석할 예정이다. 급변하는 글로벌 공급망 리스크와 양산 과제 속에서 국내 기업들이 가진 강점(Strength), 약점(Weakness), 기회(Opportunity), 위협(Threat) 요인을 면밀히 분석함으로써 대한민국 AI 반도체 산업의 현주소와 미래 가능성을 제시하고자 한다.

2026.02.18 16:00전화평 기자

엔비디아, 메타에 AI칩 수백만개 공급 예정…장기 파트너십 체결

엔비디아가 글로벌 주요 클라우드서비스제공자(CSP) 메타와 장기간·대규모 AI 반도체 공급에 대한 계약을 체결했다. 17일(현지시간) 엔비디아는 메타와 온프레미스, 클라우드 및 AI 인프라에 대한 다년간의 전략적 파트너십을 맺었다고 밝혔다. 이번 협력으로 엔비디아는 메타에 수백만 개의 '블랙웰' 및 '루빈' GPU를 공급할 예정이다. 해당 GPU는 AI 데이터센터에 필요한 초고성능 칩이다. 특히 루빈의 경우, 올해 본격적인 상용화가 예상된다. 또한 메타는 자사 데이터센터에 엔비디아의 그레이스 CPU를 단독으로 도입하기로 했다. 주요 CSP 기업 중 엔비디아의 그레이스 CPU만을 채용한 사례는 이번이 처음이다. 그간 메타는 Arm 기반의 CPU를 자사 AI칩의 보조 프로세서로 활용해 왔다. 이와 관련해 로이터통신은 "고객사향 매출을 공개한 적은 없지만, 메타는 엔비디아의 최근 분기 매출의 61%를 차지하는 4대 CSP 중 하나"라며 "엔비디아가 이번 계약을 강조한 것은 메타와의 대규모 사업 관계 유지와 CPU 시장에서의 입지 강화를 보여주기 위한 것"이라고 평가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "엔비디아는 CPU, GPU, 네트워킹 및 소프트웨어 전반에 걸친 심층적인 공동 설계로 메타가 차세대 AI 인프라를 구축하는 데 필요한 모든 플랫폼을 제공할 것"이라고 말했다. 마크 저커버크 메타 CEO는 "엔비디아와의 파트너십 확대로 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축하고, 전 세계 모든 사람에게 맞춤형 인공지능을 제공하게 돼 기쁘다"고 밝혔다.

2026.02.18 10:10장경윤 기자

경남형 피지컬 AI 시동…엔비디아 B200 품은 제조AI센터 발주

제조 공정 데이터와 실물 설비를 연결하는 피지컬 인공지능(AI)이 차세대 국가 경쟁력으로 부상하는 가운데, 경상남도가 제조업 중심 산업 구조에 특화된 인프라 구축에 나섰다. 고성능 그래픽처리장치(GPU)를 기반으로 한 제조AI 데이터센터를 조성해 도내 중소 제조기업의 AI 전환(AX)을 지원하겠다는 구상이다. 14일 조달청 나라장터에 따르면 경남테크노파크는 경남 제조AI 데이터센터 구축 사업을 발주했다. 총 사업비는 약 56억원 규모로 책정됐다. 사업기간은 계약 체결일로부터 60일로, 비교적 단기간 내 구축을 완료한다는 계획이다. 이번 사업은 지역 주도형 AI 대전환 사업의 일환으로, 공용 GPU 자원을 집적한 데이터센터를 통해 제조 현장에 특화된 AI 학습·추론 환경을 마련하는 것이 핵심이다. 경남 지역 산업 특성과 여건에 맞는 맞춤형 AI센터를 구축하고 공용 GPU 서버 및 엣지컴퓨팅 기반 인프라를 도입해 제조 현장 중심의 AI 서비스를 구현할 전망이다. 특히 고성능 GPU 서버를 중심으로 한 AI 인프라 확충을 통해 도내 중소 제조기업의 AI 활용도를 높이고 서비스 신뢰성을 제고할 계획이다. 사업 범위는 제조AI 및 중소 제조기업 AI 대전환(AX)을 위한 인프라 도입과 데이터센터 구축 전반을 포함한다. 고성능 GPU 서버와 고용량 스토리지 도입, AI 운영 솔루션 구축, 전산실 기반 환경 조성 등이 주요 과업이다. 아울러 기존에 도입된 GPU 서버와 스토리지 등 관련 인프라를 신규 센터로 이전·재배치해 통합 운영 환경을 마련한다. GPU 서버는 10U 랙형 서버 5대로 구성되며 엔비디아 B200 HGX SXM 기반 GPU를 서버당 8개 이상 탑재하도록 요구됐다. 이는 대규모 모델 학습과 분산 연산을 고려한 구성으로, 제조 공정 데이터 분석과 AI 모델 고도화에 대응하기 위한 설계로 풀이된다. 소프트웨어 측면에선 GPU 자원 풀링과 컨테이너 기반 학습·추론 환경을 위한 AI 운영 솔루션이 도입된다. GPU 가상화와 분할 기능을 활용해 단일 대형 모델뿐 아니라 소규모 추론부터 다중 노드 분산 학습까지 폭넓은 워크로드를 소화하기 위한 구조다. 해당 데이터센터는 경남 창원시 의창구 기업연구관 3층에 조성된다. 제안요청서에는 전산실 배치, 이중마루 및 냉복도 컨테인먼트 구성 등 물리적 인프라 요건도 세부적으로 명시됐다. 사업은 계약 이후 세부 수행 계획 수립과 현황 조사, 기반 인프라 구축, 장비 납품·설치, 정보시스템 이전, 통합 시험운영을 거쳐 완료보고 및 검사·검수 단계로 이어진다. 시험운영과 이중화 테스트를 통해 요구 성능 충족 여부를 검증하며 문제 발생 시 교체·증설·보완을 요구할 수 있도록 했다. 특히 기술능력평가 90점, 가격평가 10점 비중으로 종합평가를 실시한다. 기술평가에서는 장비·운용환경 구축, 기반인프라 계획, 정보시스템 이전 방안, 시험 및 안정화, 유지관리 정책 등을 중점적으로 본다. 단순 장비 납품을 넘어 프로젝트 관리 역량과 보안·품질 관리 체계까지 종합 평가 대상이다. 장애 발생 시 4시간 이내 조치 착수, 8시간 이내 복구 등 구체적 대응 기준도 제시돼 운영 안정성을 확보하도록 했다. 업계에선 이번 사업에 GPU 서버·AI 인프라 구축 경험을 보유한 시스템통합(SI) 기업과 데이터센터 전문 업체, 클라우드·AI 플랫폼 기업 등이 관심을 보일 것으로 보고 있다. 특히 엔비디아 B200 HGX 기반 사양이 명시된 만큼 관련 공급 레퍼런스를 확보한 기업 중심의 경쟁이 예상된다. 제조 데이터 특화 AI 운영 역량과 전산실 기반 인프라 구축 경험이 기술평가에서 핵심 변수가 될 것이라는 분석도 나온다. 이번 경남 제조AI데이터센터 구축은 단순한 GPU 집적 사업을 넘어 제조 현장의 설비·공정 데이터와 AI를 연결하는 경남형 피지컬 AI 인프라의 출발점으로 평가된다. 지역 제조기업이 자체적으로 고가의 GPU 자원을 확보하기 어려운 상황에서 공용 데이터센터를 통해 연산·저장·운영 환경을 통합 제공함으로써 AX를 가속화하겠다는 전략이다. 경남테크노파크 측은 "고성능 GPU 기반 제조AI데이터센터를 구축해 도내 중소 제조기업의 AI 대전환을 지원할 계획"이라며 "연산·운용·저장 자원을 통합한 데이터 기반 환경을 조성해 경남 주력산업의 AX를 촉진하겠다"고 밝혔다.

2026.02.14 09:23한정호 기자

[종합] 한국 클라우드, AI 인프라·공공사업이 판 키웠다…2025년 나란히 실적 반등

국내 클라우드 산업이 인공지능(AI) 인프라 수요 확대를 발판으로 또 한 번의 분기 성장세를 기록했다. 네이버·KT·NHN 등 주요 클라우드 서비스 제공사(CSP)들은 그래픽처리장치(GPU) 기반 AI 인프라와 공공 클라우드 전환 수요를 양축으로 외형 확대와 수익성 개선을 동시에 모색한 것으로 나타났다. 12일 네이버·KT·NHN이 공시한 2025년 4분기 실적에 따르면 각 기업은 AI 인프라 고도화와 공공·산업별 디지털 전환 수요를 기반으로 엔터프라이즈·기술·클라우드 부문 매출을 끌어올렸다. GPU 확보 경쟁과 데이터센터 투자 확대가 실적에 본격 반영되며 그룹 내 존재감을 키웠고 단순 인프라 공급을 넘어 AI 중심 플랫폼 사업자로의 전환이 본격화됐다는 평가가 나온다. 먼저 네이버는 2025년 4분기 엔터프라이즈 부문에서 1718억원의 매출을 기록했다. 전년 동기 대비 3.2% 감소했지만, 전년도에 반영된 일회성 요인을 제외하면 16.6% 성장한 수치다. 직전 분기 대비로는 14.5% 증가하며 회복세를 보였고 연간 기준으로는 5878억원을 기록하며 전년 대비 4.3% 성장했다. 이번 실적은 서비스형 GPU(GPUaaS) 매출 반영과 사우디아라비아 슈퍼앱 구축, 디지털 트윈 등 글로벌 프로젝트 확대에 힘입은 결과다. 네이버는 AI·클라우드 사업을 이끄는 네이버클라우드를 주축으로 금융·공공·의료 등 고보안 영역 중심의 소버린 AI 전략을 강화 중이며 서울대학교병원·한국은행과의 협업을 통해 산업별 특화 AI 모델 구축을 확대하고 있다. 다만 네이버클라우드는 최근 과학기술정보통신부가 추진한 독자 AI 파운데이션 모델 프로젝트 1차 평가에서 다음 단계 진출에 실패하며 우려가 제기돼왔다. 이에 대해 최수연 네이버 대표는 지난 6일 실적발표 컨퍼런스콜에서 "정부 측 결과를 존중하나 이것이 네이버의 기술 경쟁력 부족을 의미하는 것은 아니다"라며 "B2B 매출에 큰 영향은 없을 것이며 연구개발(R&D)을 통해 기술 리더십을 공고히 하겠다"고 밝혔다. KT클라우드는 2025년 연간 매출 9975억원으로 전년 대비 27.4% 성장하며 1조원에 근접한 실적을 기록했다. 4분기 매출은 2779억원이다. 공공 AI 클라우드 수요 확대와 글로벌 고객 데이터센터 이용률 증가가 동시에 작용한 결과라는 게 회사 측 설명이다. KT클라우드는 지난해 11월 국내 최초로 액체 냉각 기술을 적용한 가산 AI 데이터센터를 개소하며 고성능 AI 연산 수요에 대응하고 있다. 앞서 2030년까지 320메가와트(MW) 규모 AI 데이터센터 전력 인프라를 확보한다는 중장기 로드맵도 제시한 바 있다. 이같은 GPU 기반 인프라 확장에 더해 국내외 소프트웨어(SW) 기업과 협력하는 AI 파운드리 전략을 바탕으로 인프라·플랫폼·파트너 생태계를 아우르는 구조를 구축한다는 전략이다. 장민 KT 최고재무책임자(CFO)는 "KT클라우드는 글로벌 고객의 데이터센터 이용률 증가와 공공 AI 클라우드 수요 확대에 힘입어 의미 있는 성과를 거뒀다"며 "이러한 성장 흐름은 올해도 이어질 것"이라고 말했다. 다음으로 NHN클라우드는 2025년 4분기 사상 첫 분기 흑자를 달성했다. NHN 기술 부문은 4분기 1391억원의 매출을 기록했으며 이 가운데 NHN클라우드는 전년 동기 대비 30.7%, 전 분기 대비 37.6% 증가하며 영업이익 기준 첫 흑자를 냈다. 연간 기술 부문 매출은 4609억원으로 전년 대비 11.3% 성장했다. NHN클라우드는 광주 국가AI데이터센터에서 GPU 서비스를 국내 기업과 공공기관, 대학 등에 제공하며 AI 수요 확대에 대응해왔다. 또 정부 'GPU 확보·구축·운용지원 사업'에서 다음 달 가동을 목표로 엔비디아 B200 7천656장을 서울 양평 리전에 구축 중이다. 4000장 이상 GPU를 단일 클러스터로 구성하고 수냉식 냉각 시스템 도입으로 대규모 AI 인프라 운영 역량을 강화했다. 민간 부문에서도 성과가 이어졌다. NHN클라우드는 최근 크래프톤의 초거대 GPU 클러스터 사업자로 선정되며 대형 민간 레퍼런스를 확보했다. 지난해 국가정보자원관리원 대전센터 화재 이후 공공 재해복구(DR) 수요 확대와 민간 GPU 매출 증가가 동시에 반영되며 수익 구조 개선에 속도가 붙었다는 분석이다. 정우진 NHN 대표는 "국정자원 대구센터를 통해 주요 공공기관의 클라우드 전환을 완료했고 지난해 화재로 영향을 받았던 주요 정보 시스템도 성공적으로 복구했다"며 "올해도 NHN클라우드는 GPU를 기반으로 확대되는 시장 기회를 선점해 더 높은 수준의 성장 국면에 진입할 것"이라고 강조했다. 아울러 또다른 국내 주요 CSP인 카카오엔터프라이즈는 아직 명확한 실적이 공개되진 않았으나, 업계에선 이원주 대표 선임 이후 비용 효율화를 단행한 만큼 적자 폭을 상당 부분 줄였을 것이라는 예상이 나온다. 클라우드 중심 조직 재편과 비핵심 사업 정리를 통해 체질 개선에 나선 영향이 지난해 실적에 반영됐을 것이라는 관측이다. 카카오엔터프라이즈 역시 다른 CSP와 마찬가지로 GPU 서비스를 강화하고 있다. 지난해 하이브리드 GPUaaS를 공개하며 온프레미스와 클라우드를 결합한 AI 인프라 전략을 제시했다. GPU 인프라 비용 절감과 유연성 확보를 동시에 내세우며 AI 스타트업 및 엔터프라이즈 시장을 겨냥 중이다. 한편 지난해 국정자원 대전센터 화재 이후 공공 디지털 인프라의 안정성과 재해 대응 체계에 대한 경각심이 높아지면서 정부의 민간 클라우드 도입 논의도 활성화되고 있다. 주요 정보시스템의 이중화와 DR 체계 고도화가 정책 과제로 부상하면서 공공기관의 클라우드 전환 및 민관 협력형 인프라 구축 사업이 본격화될 것이라는 전망이 나온다. 이에 공공 레퍼런스와 데이터센터 운영 역량을 확보한 국내 CSP들에게는 중장기적 사업 기회가 확대될 수 있다는 분석이다. 다만 지난해 하반기부터 공공 클라우드 보안인증(CSAP) 재편 논의가 업계 변수로 떠올랐다. CSAP와 국정원 보안 절차 간 조정 가능성이 거론되면서 공공 클라우드 시장의 제도 환경 변화가 기로에 선 상황이다. 이에 국내 CSP들은 변화에 대비하며 공공 레퍼런스 확보와 기술 내재화 전략을 동시에 강화하는 분위기다. 클라우드 업계 관계자는 "GPU 확보와 데이터센터 효율화, 공공 AI 전환 수요가 동시에 확대되며 국내 CSP 간 경쟁이 치열해지고 있다"며 "올해는 외형 성장뿐 아니라 AI 인프라 내재화와 수익성 구조 개선이 경쟁을 가르는 분기점이 될 것"이라고 전망했다.

2026.02.12 15:21한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

포털 다음, '실검' 6년 만에 부활..."여론조작 잘 막을까"

갤럭시S26 사러 신도림 갔더니…"한 달 뒤 오세요"

왜 지금 단종인가…천만 관객이 선택한 ‘패배한 왕’

"美 정부, AI 반도체 수출 통제 강화 검토"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.