• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU 클라우드'통합검색 결과 입니다. (98건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[인터뷰] 김현창 네트러닝 센터장 "NHN클라우드와 AI 교육 고도화…日 AX 수요 선점"

[도쿄(일본)=장유미 기자] 일본 최대급 온라인 교육·연수 기업 네트러닝이 NHN클라우드와의 협업을 계기로 인공지능(AI) 기반 교육 플랫폼 고도화와 일본 시장 확장에 속도를 내고 있다. 단순 e러닝 콘텐츠 공급을 넘어 데이터 기반 인재 전략 플랫폼으로 진화하면서 일본 기업들의 DX(디지털 전환)·AX(AI 전환) 수요를 선점하겠다는 전략이다. 김현창 네트러닝 넥스트ED AI 센터장은 8일 일본 도쿄 빅사이트에서 개최된 '재팬 IT 위크'에 참석해 "NHN클라우드와의 협력을 통해 자사 '멀티버스' 플랫폼의 클라우드 전환과 AI 추천·콘텐츠 자동 생성 기능 강화를 병행하고 있다"며 "아직 NHN클라우드로의 완전한 통합은 진행 중이지만, 향후 인프라 유연성과 확장성 측면에서 구조적 변화가 본격화될 것으로 보고 있다"고 강조했다. 네트러닝은 일본 내 기업 연수와 직무 교육 분야에서 최대급 사업자로 꼽히는 e러닝 전문 기업이다. 대규모 기업 고객을 확보하고 있으며 최근에는 단순 온라인 교육을 넘어 AI 기반 학습 추천, 학습 데이터 분석, 인재 전략 플랫폼으로 사업 영역을 빠르게 넓히고 있다.또 이 회사는 이미 AI 기반 코스 추천 시스템과 코스·테스트 자동 생성 서비스를 상용화했으며 기업 고객을 위한 AI 튜터 출시도 앞두고 있다. 이를 통해 교육 기획 시간을 대폭 줄이고 필요한 과정을 빠르게 설계할 수 있어 기업 고객의 업무 효율성을 높였다는 평가를 받고 있다. 김 센터장은 "기존의 키워드 중심 검색에서 벗어나 이제는 자연어 기반으로 개인의 관심사를 이해하고 콘텐츠를 추천하고 있다"며 "현장과 가까운 실무자나 전문가들이 직접 이러닝 콘텐츠를 생성하고 제공할 수 있는 구조로 바뀌고 있다"고 설명했다. 이 같은 AI 고도화의 기반에는 방대한 교육 데이터가 있다. 올해 3월 기준 누적 학습자 수는 약 1억1700만 명, 이용 기업은 7500여 개에 달한다. 다만 장기간 축적된 데이터의 형식이 일관되지 않아 누락·오류 데이터를 검토하고 AI 학습에 적합한 형태로 재구성하는 작업이 핵심 과제로 꼽힌다. 이에 맞춰 네트러닝은 오픈 배지(Open Badge), 케이스(CASE), CLR 등 국제 표준을 기반으로 메타데이터를 재정비하며 고품질 교육 데이터 플랫폼 구축에 힘을 쏟고 있다. 김 센터장은 "다양한 출처의 데이터를 유기적으로 연결하고 국제 표준 기반으로 메타데이터를 재구성하고 있다"며 "향후 AI 기반 추천과 학습 분석, 자동화된 학습 경로 설계까지 가능한 플랫폼으로 발전시킬 계획"이라고 밝혔다. 이 같은 상황에서 네트러닝이 일본 현지 사업자 대신 NHN클라우드를 선택한 이유로는 비용 경쟁력이 꼽힌다. 글로벌 클라우드 서비스 대비 약 30% 수준의 비용 절감 효과와 환율 리스크 완화가 장기 운영 측면에서 유리하다고 판단했기 때문이다. 이는 일본 기업들이 비용 효율성과 안정적인 운영을 동시에 중시하는 시장 특성이 반영된 선택으로 풀이된다. 김 센터장은 "NHN클라우드를 선택한 가장 큰 이유는 가격 경쟁력"이라며 "엔화 약세가 이어지는 상황에서 환율 변동에 따른 비용 리스크를 상대적으로 덜 받을 수 있다는 점도 중요한 장점"이라고 말했다. 일본 IT 교육 시장의 변화도 한 몫 했다. 코로나19 이후 급성장한 온라인 교육 시장은 이제 단순 콘텐츠 판매 단계를 넘어 기업 인재 전략과 직결되는 플랫폼 경쟁으로 재편되고 있다. 특히 일본은 한국과 달리 개인 역량 강화보다 전사 단위 DX·AX 교육 수요가 크고, HR 부서가 교육 구매를 주도하는 구조가 강하다. 이에 따라 교육 서비스 역시 기술 습득을 넘어 조직 운영 방식과 의사결정 구조를 바꾸는 방향으로 진화하고 있다.김 센터장은 "한국이 개발자 중심의 기술 교육 시장이라면 일본은 전사 단위의 조직 변화 중심 교육 시장이 훨씬 활성화돼 있다"며 "앞으로는 AI를 활용해 조직의 일하는 방식 자체를 혁신하는 수요가 더욱 확대될 것"이라고 내다봤다.

2026.04.08 13:30장유미 기자

NHN클라우드, GPU로 호남 공략…중소벤처 AI 도입·사업화 가속

NHN클라우드가 호남 지역 손잡고 인공지능(AI) 생태계 구축에 나섰다. NHN클라우드는 중소벤처기업진흥공단, 인공지능산학연협회와 3자 간 업무협약을 체결했다고 7일 밝혔다. 협약은 호남 지역 AI 중소벤처기업 성장 지원과 제조 현장 AX 확산을 목표로 뒀다. 이번 협약은 정책과 인프라 교육을 결합한 통합 지원 모델 구축에 초점 맞춰졌다. 정부의 5극3특 전략과 광주 전남 행정통합 기조에 맞춰 지역 AI 산업 생태계를 조성하려는 움직임이다. 중소벤처기업진흥공단은 정책자금 투융자와 수출 지원 창업 지원을 통해 AI 도입 기업의 사업화를 지원한다. 기업 성장 단계별 맞춤 프로그램과 컨설팅으로 경쟁력 강화도 뒷받침한다. AI산학연협회는 지원 대상 기업을 발굴하고 기관 간 연계를 담당한다. 산업 현장 수요를 전달하고 정책과 인프라가 효과적으로 적용될 수 있도록 조율하는 역할을 맡는다. NHN클라우드는 클라우드 크레딧과 보안 기술 개발 지원을 제공한다. 그래픽처리장치(GPU) 기반 AI 인프라를 통해 기업이 초기 투자 부담 없이 AI 개발과 서비스를 수행할 수 있도록 돕는다. 조한교 중소벤처기업진흥공단 인력성장이사는 "이번 협약을 통해 AI 기술 도입을 고민하는 중소벤처기업이 자금 교육 인프라를 동시에 지원받을 수 있는 기반이 마련됐다"며 "앞으로도 AI 도입 기업 현장의 애로를 해소하고 중소벤처기업이 성장해 나갈 수 있도록 적극 지원하겠다"고 밝혔다.

2026.04.07 16:58김미정 기자

[종합] 한국 클라우드, AI 타고 몸집 키웠다…이제 승부는 GPU·공공

한국 클라우드 산업이 인공지능(AI) 수요 확대와 공공·기업 디지털 전환 흐름을 타고 외형 성장과 수익성 개선을 동시에 이어간 것으로 나타났다. 주요 클라우드 서비스 제공업체(CSP)들은 데이터센터·그래픽처리장치(GPU) 인프라 투자와 공공 시장 공략을 병행하며 시장 주도권 경쟁을 본격화하는 모습이다. 6일 금융감독원 전자공시시스템에 따르면 네이버클라우드는 2025년 매출 1조 5544억원, 영업이익 1592억원을 기록하며 전년 대비 각각 11.1%, 48.3% 성장했다. AI 수요 확대에 대응해 데이터센터 코로케이션을 확대하고 정부 GPU 구축 사업 대응을 위한 인프라 확보에 나서는 등 공격적인 투자 전략이 실적 개선으로 이어졌다는 분석이다. 특히 네이버클라우드는 최근 LG CNS의 데이터센터 추가 임차와 자체 데이터센터 증축을 병행하며 상면 확보에 속도를 내고 있다. 정부가 추진하는 대규모 GPU 구축 사업 참여를 염두에 두고 복수 데이터센터 기반 분산형 인프라 전략을 강화하는 동시에, 협업 플랫폼 '네이버웍스'를 앞세워 공공 AI 행정 시장에도 적극 진입하는 양상이다. KT클라우드는 지난해 매출 9975억원, 영업이익 663억원으로 각각 27.4%, 25.7% 증가하며 1조원 매출에 근접했다. 공공·기업 시장에서 안정적인 수주 기반을 확보한 가운데, 데이터센터와 AI 인프라 투자 확대가 성장세를 견인한 것으로 풀이된다. 특히 삼성SDS, NHN클라우드와 함께 국가정보자원관리원 대구센터 민관협력형 클라우드(PPP) 사업에 참여해 정부 핵심 시스템 수용 인프라를 구축하며 공공 시장 영향력을 확대했다. 아울러 최근 대표 자리에 김봉균 KT 엔터프라이즈 부문장을 내정하며 사업 전략 재정비에도 나섰다. 기존 기술 중심 성장에 더해 KT 엔터프라이즈 조직과의 연계를 강화한 B2B 통합 사업 구조로 전환을 모색 중이며 액체 냉각 기반 AI 데이터센터 구축 등 인프라 고도화도 병행할 전망이다. NHN클라우드는 매출 2천157억원으로 전년 대비 약 9.8% 성장했지만 영업손실 197억원을 기록하며 적자 구조를 이어갔다. 다만 영업손실은 전년 284억원에서 약 30.5% 줄어들며 손실 폭을 축소했다. NHN클라우드는 국산 기술 기반 AI 인프라 생태계 구축과 일본 등 글로벌 시장 공략을 병행 중이다. 국정자원 PPP 사업에도 참여해 다양한 공공 클라우드 인프라 구축과 행정안전부 클라우드 네이티브 전환 사업 등을 수행해왔다. 최근엔 티맥스티베로와 협력해 GPU 인프라와 데이터베이스 관리 시스템(DBMS)을 결합한 국산 AI 인프라 생태계 구축에도 속도를 내고 있다. 일본 시장에선 서비스형 GPU(GPUaaS)를 앞세워 현지 AI 전환(AX) 수요 공략에 집중하는 등 해외 확장을 통해 수익성 개선 돌파구를 마련하려는 전략이다. 카카오엔터프라이즈는 매출 1697억원으로 전년 대비 약 25.9% 증가했으나 영업손실 343억원을 기록했다. 다만 영업손실은 전년 672억원에서 약 49.0% 줄어들며 절반 수준으로 개선했다. 회사는 카카오클라우드의 '하이브리드 GPUaaS' 전략을 통해 AI 인프라 비용 구조 개선과 수익성 확보를 동시에 추진 중이다. 카카오엔터프라이즈는 특히 AI 추론 중심 시장 변화에 대응해 온프레미스 GPU와 클라우드 연계를 결합한 구조를 강화하고 있다. 단일 콘솔 기반 통합 운영과 비용 효율화 전략을 통해 금융·공공 등 규제 산업으로의 확장도 동시에 노리는 모습이다. 가비아는 매출 3356억원, 영업이익 404억원으로 각각 18.9%, 15.3% 증가하며 안정적인 성장세를 이어갔다. 클라우드·데이터센터·보안 등 전 사업 부문에서 고른 성장이 나타났으며 AI 연산 환경에 대응하기 위한 데이터센터 및 GPU 인프라 강화에도 나서고 있다. 가비아는 과천 데이터센터를 중심으로 고전력 GPU 인프라를 확보하며 AI 대응 역량을 키우고 있다. 자체 클라우드뿐 아니라 아마존웹서비스(AWS)의 관리 서비스(MSP) 사업도 병행하며 하이브리드·멀티클라우드 전략을 확대해왔다. 여기에 서비스형 데스크톱(DaaS)과 그룹웨어 '하이웍스' 중심의 서비스형 소프트웨어(SaaS)까지 아우르는 통합 서비스 모델로 사업 영역을 넓히고 있다. 업계에선 GPU 확보 경쟁과 데이터센터 인프라 확대가 향후 경쟁력을 가름할 핵심 변수로 꼽힌다. 지난해에 이어 정부가 올해도 추진 중인 GPU 1만 5000장 구축 사업을 계기로 CSP 간 인프라 경쟁이 본격화됐다. 지난해 사업엔 네이버클라우드·NHN클라우드·카카오 등이 참여한 가운데, 올해 사업에는 어떤 CSP가 참여해 주도권을 확보할지에도 관심이 쏠리고 있다. 여기에 공공 클라우드 시장 확대도 중요한 성장 동력으로 평가된다. 정부는 2030년까지 행정·공공 정보시스템을 클라우드로 전면 전환하는 정책을 추진하겠다고 밝힌 바 있다. 현재 약 42.4% 수준인 전환율을 단계적으로 끌어올릴 계획이다. 민감·공개 데이터의 민간 클라우드 활용을 확대하는 하이브리드 구조 전환도 병행된다. 국가AI전략위원회 역시 지난해 국가정보자원관리원 화재 이후 후속 발전 방안으로 약 1만 5000개 정부 시스템의 재해복구(DR) 체계를 재설계하고 민간 클라우드 활용을 확대하는 방향을 제시했다. 이에 기존 제한적이던 공공 시장이 점차 개방되면서 CSP들의 사업 기회가 확대될 전망이다. 다만 정책 실행력 확보를 위한 과제도 적지 않다. 공공 클라우드 전환 예산이 AI 관련 예산 대비 상대적으로 부족한 가운데 부처 간 협력과 보안 인증 체계 정비, 기관별 비용 부담 문제 등이 변수로 지목된다. 특히 클라우드보안인증(CSAP), 국가망보안체계(N2SF) 등 복잡한 제도 구조가 사업 추진 속도를 좌우할 핵심 요인이다. 업계는 공공 클라우드 전환 정책과 AI 인프라 투자 확대가 맞물리며 국내 클라우드 시장이 중장기적으로 빠르게 성장할 것으로 보고 있다. 단순 인프라 이전을 넘어 AI 기반 서비스 구조까지 함께 설계하는 방향으로 정책이 구체화돼야 한다는 지적도 나온다. 클라우드 업계 관계자는 "AI 확산과 공공 클라우드 전환이 동시에 진행되면서 국내 CSP들에게는 큰 기회가 열리고 있다"며 "다만 인프라 투자 부담과 제도 불확실성이 여전히 존재하는 만큼 정부 정책과 민간 투자 간 균형이 중요해질 것"이라고 말했다.

2026.04.06 14:19한정호 기자

[유미's 픽] '상면 부족' 네이버, LG CNS 데이터센터도 빌렸다…정부 GPU 사업 겨냥?

네이버클라우드가 LG CNS 데이터센터를 추가로 임차하며 인공지능(AI) 인프라 확장에 속도를 내고 있다. 정부가 추진 중인 '그래픽처리장치(GPU) 1만5000장 구축 사업'을 앞두고 대규모 자원 수용 능력을 확보하기 위해 선제적으로 나선 모습이다. 2일 업계에 따르면 네이버클라우드는 최근 LG CNS와 삼송 데이터센터 코로케이션 계약을 체결했다. 계약 기간은 2035년까지로, 장기 인프라 확보 차원의 전략적 투자로 평가된다.이로써 LG CNS와 네이버클라우드는 데이터센터 코로케이션 사업에서 두 번째 대형 계약을 체결하게 됐다. 앞서 양사는 지난해 죽전 데이터센터 코로케이션 계약을 맺은 바 있다. 죽전 데이터센터 계약은 2025년 6월부터 2033년 5월까지 이행될 예정으로, 공시 기준을 고려할 때 약 1500억원 안팎 규모로 추정된다. 코로케이션은 데이터센터 내 서버 설치 공간과 전력·냉각 인프라를 함께 제공받는 방식이다. AI 서비스 확산으로 GPU 수요가 급증하면서 자체 데이터센터만으로는 대응이 어려워진 사업자들이 코로케이션으로 외부 상면 확보에 적극 나서는 추세다. 네이버클라우드의 이번 계약은 단순한 인프라 확장을 넘어 정부 사업 대응과 맞물린 움직임으로 해석된다. 과학기술정보통신부는 현재 GPU 1만5000장을 구축하는 대규모 사업을 추진 중으로, 참여 기업에는 대량 GPU를 단기간 내 구축·운용할 수 있는 역량이 요구된다. 이 사업은 총 2조800억원 규모로, GPU 서버와 네트워크, 스토리지, 냉각 설비 등을 포함한 대규모 클러스터 구축을 목표로 한다. 민간 클라우드 사업자(CSP)가 국내 데이터센터에 인프라를 구축·운영하는 방식으로 진행되며 장비 구매 비용은 정부가 지원하고 실제 운영 비용은 사업자가 부담하는 구조다. 특히 올해부터는 서비스 수준 협약(SLA) 요건이 포함되면서 24시간 장애 대응과 성능 유지, 기술 지원 체계까지 요구되고 있다. 물리적 인프라뿐 아니라 실제 서비스 운영 역량까지 종합적으로 검증하는 구조로, 사업 난도가 크게 높아졌다는 평가다. 평가 기준에서도 이러한 방향성이 반영됐다. 전체 점수의 절반인 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도(18점)와 구축 계획의 구체성(32점)이 핵심 항목으로 제시됐다. 단순히 GPU를 얼마나 확보했는지가 아니라 이를 어떤 구조로 구축하고 실제 서비스까지 연결할 수 있는지를 입증해야 높은 점수를 받을 수 있는 구조다. 이에 대규모 GPU를 수용할 수 있는 데이터센터 상면과 전력, 냉각 인프라 확보 여부가 사업 참여의 핵심 조건으로 떠오르고 있다. GPU 확보 능력보다 이를 안정적으로 운영할 수 있는 인프라와 설계 역량이 경쟁력을 좌우하는 방향으로 재편되고 있다는 분석이다. 네이버클라우드 역시 기존 데이터센터 가동률이 높은 수준에 이른 상태다. 주요 거점이 사실상 풀가동 상태에 가까운 가운데 신규 프로젝트 대응을 위해 추가 상면 확보가 불가피해진 것으로 알려졌다. 실제 내부적으로도 상면 부족 문제가 핵심 과제로 지목되고 있다. 이에 복수 데이터센터를 활용한 확장 전략이 불가피한 상황이다. 네이버클라우드 관계자는 "상면이 부족한 건 사실로, 서비스용과 사업용을 포함해 전체적으로 계속 사용해야 하는 상황"이라며 "LG CNS 삼송 데이터센터와 자체 데이터센터인 '각 세종' 증축 등을 포함해 여러 거점을 활용하게 될 가능성이 있다"고 말했다. 이어 "죽전 데이터센터도 거의 풀가동 상태인 것으로 알고 있다"며 "추가 임차나 증축 일정에 따라 향후 인프라 운영 방향이 결정될 것"이라고 덧붙였다. 이처럼 네이버클라우드는 LG CNS 등 외부 데이터센터 임차와 자체 시설 증축을 병행하며 인프라 확장에 나선 것으로 보인다. 단일 거점이 아닌 복수 데이터센터를 활용하는 분산형 구조를 통해 대규모 GPU 클러스터 구축 기반을 선제적으로 마련하려는 전략이다. 이 같은 구조는 대규모 GPU 자원을 안정적으로 운영해야 하는 사업 특성상 유리하게 작용할 수 있다. 복수 데이터센터를 기반으로 자원을 분산·운용할 경우 장애 대응과 자원 활용 효율 측면에서 경쟁력을 확보할 수 있기 때문이다. 업계 관계자는 "대규모 GPU 클러스터는 네트워크 지연과 자원 병목을 고려할 때 단일 센터에 집중하기보다 분산 구조로 설계하는 것이 유리하다"며 "복수 데이터센터를 기반으로 자원을 나누면 장애 대응뿐 아니라 자원 활용 효율 측면에서도 안정성을 확보할 수 있다"고 분석했다. 더불어 이번 사업에서 차세대 GPU '베라루빈' 도입이 본격화되면서 데이터센터 인프라 부담도 한층 커진 상태다. '베라루빈'은 수냉 기반 구조로 전환되면서 장비 무게와 전력 요구 수준이 크게 높아진 것으로 알려졌다. 이에 따라 데이터센터 하중과 냉각 설계 부담이 동시에 증가해 인프라 확보 역량이 사업 경쟁력을 좌우하는 핵심 변수로 부상하고 있다. 이를 고려하면 네이버클라우드는 인프라 측면에서 일정 수준 대응 기반을 마련한 것으로 평가된다. 다만 상면 여유가 충분하다고 보긴 어려운 만큼 실제 사업 참여 여부와 규모는 향후 인프라 확보 속도에 따라 달라질 가능성도 있다. 업계 관계자는 "대규모 GPU 클러스터는 장비보다 이를 수용하는 데이터센터 설계가 성능을 좌우한다"며 "전력·냉각·네트워크 조건이 동시에 충족되지 않으면 구축 자체가 어려워 상면과 인프라 확보가 사실상 진입 장벽으로 작용하고 있다"고 말했다.

2026.04.02 10:22장유미 기자

[유미's 픽] "GPU만 사오면 끝?"…정부, 1.5만장 구축 사업서 '설계 능력' 보는 까닭

정부의 대규모 그래픽처리장치(GPU) 인프라 사업 경쟁이 장비 확보에서 운용 능력 중심으로 재편되고 있다. 최신 GPU 도입 여부보다 이를 얼마나 효율적으로 설계·운영할 수 있는지가 올해 사업 선정의 핵심 변수로 떠오른 가운데, 정부가 국내 기업들의 인프라 경쟁력을 끌어올리기 위해 본격 나선 모양새다. 30일 업계에 따르면 과학기술정보통신부는 다음달 13일까지 GPU 1만5000장을 구축하기 위한 사업자 공모에 나선다. 총 2조800억원을 투입해 GPU 서버와 부대 장비를 구매한 후 산·학·연에 공급할 예정으로, 최신 GPU를 신속히 확보하고 이를 대규모로 묶어(클러스터링) 구축·운용할 수 있는 민간 기업을 선정한다는 방침이다. 앞서 정부는 지난해 추가경정예산 1조4000억원을 투입해 확보한 엔비디아 B200 등 첨단 GPU 1만3000장을 NHN클라우드, 네이버클라우드, 카카오엔터프라이즈 등을 통해 구축했다. 또 이 물량을 최근 산·학·연에 3000장, 국가 프로젝트에 4000장, 독자 AI 파운데이션 모델에 3000장씩 배분했다. 또 지난 25일부터 산학연을 대상으로 2000장에 대한 추가 공모에도 들어갔다. 올해 5월 중 선정될 사업자는 연내 GPU 1만5000장 구축 및 서비스를 개시해 2031년 12월 31일까지 운영하게 된다. 이 물량 역시 산·학·연 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 이병묵 NIPA AI인프라확충팀장은 "올해 블랙웰급 이상의 최신 GPU 1만5000장 확보를 목표로 한다"며 "고성능 GPU를 대규모로 공급할 수 있는 사업자가 높은 평가를 받을 것"이라고 말했다. 정부는 이번 사업을 통해 참여 기업들의 기술 경쟁력을 끌어올린다는 목표다. 그간 GPU 물량 싸움 중심으로 인프라 구축 사업을 펼친 결과 수행 과정에서 한계가 곳곳에서 드러났던 탓이다. 특히 지난해 처음 GPU 구축 사업에 나서면서 일부 기업들이 H100, B200급을 확보해두고도 소프트웨어, 구성 문제로 실제 성능 효율이 낮은 사례가 발생하자 정부가 이에 대해 문제의식을 크게 느낀 것으로 알려졌다. 대규모 GPU 클러스터는 데이터 흐름과 메모리 구조, 네트워크 구성에 따라 전체 성능이 좌우되는 만큼 단일 장비 성능만으로는 효율을 담보하기 어렵다.또 B200 도입에 따라 수냉식 등 최신 냉각 기술을 적용해야 함에도 불구하고 하중 보강 공사, 구조 변경 등이 빠르게 뒷받침 되지 못해 구축 일정이 지연되는 사례도 벌어지자 정부가 난감해 한 것으로 전해졌다. 업계 관계자는 "정부가 GPU 1만3000장 구축 사업을 진행하면서 GPU만 사오면 끝나면 사업이 아니란 점을 뼈저리게 느낀 듯 하다"며 "지난해엔 얼마나 GPU를 많이 확보하고 싸게 제안했는지를 중점적으로 들여다 본 탓에 정작 운용능력이 뒷받침되지 않아 정부도 속앓이를 많이 한 것으로 안다"고 지적했다. 이에 정부는 올해 사업 평가 기준을 대폭 수정했다. 단순한 장비 확보 능력보다 실제 운영 효율을 검증할 수 있는 요소들을 대거 평가 체계에 포함한 것이다. 실제 이번 사업의 주요 평가 항목 및 배점을 살펴보면 절반인 50점이 사업 준비도 및 경쟁력에 배정됐다. 이 중 인프라 준비도(18점)와 구축 계획의 구체성(32점)은 핵심 평가 항목으로 제시됐다. 특히 데이터센터 상면 확보 여부를 비롯해 전력·냉각 설비, 네트워크 구성, 자원 관리 체계 등 물리적·논리적 인프라를 종합적으로 검증하겠다는 방침을 내세웠다. 이는 단순 가격 경쟁이나 물량 확보보다 실제 대규모 GPU 클러스터를 구축해 안정적으로 운영할 수 있는 역량을 우선 보겠다는 의미다. 특히 32점이 배정된 구축계획 우수성은 정부가 이번 사업을 사실상 '설계 능력 평가'로 보고 있음을 보여준다. 어떤 GPU를 얼마나 들여오겠다는 수준을 넘어 이를 어떤 구조로 묶고 어떤 일정으로 구축하며 실제 서비스 단계까지 어떻게 연결할 것인지를 구체적으로 입증해야 높은 점수를 받을 수 있는 구조란 점에서다. 업계 관계자는 "GPU 활용 효율을 입증할 수 있는 성능 지표 제시가 요구되면서 사업자들의 부담이 한층 커진 상황"이라며 "실제 연산 효율을 얼마나 끌어올릴 수 있는지에 대한 구체적인 방법론과 결과를 함께 제시해야 하기 때문"이라고 말했다. 업계에선 이를 두고 정부가 사업 방향을 '물량 경쟁'에서 '효율 경쟁'으로 전환한 것으로 보고 있다. 동일한 GPU 환경에서도 메모리 활용 방식, 데이터 전송 구조, 추론 엔진 설계에 따라 처리 성능과 비용 효율이 크게 달라지기 때문이다. 이 과정에서 메모리 처리 구조와 데이터 흐름 최적화 등 소프트웨어 역량이 핵심 변수로 부상하고 있다. GPU 연산 성능이 높아도 메모리 대역폭이나 데이터 처리 구조가 이를 뒷받침하지 못할 경우 전체 성능이 제한되는 구조적 한계 때문이다. 이에 일부 기업들은 이러한 병목 현상을 해소하기 위해 추론 엔진 최적화, 모델 경량화, 데이터 처리 구조 개선 등 다양한 기술 경쟁을 벌이고 있다. 같은 GPU를 사용하더라도 운영 방식에 따라 처리 가능한 작업량이 크게 달라져서다. 업계 관계자는 "정부가 차세대 GPU인 '베라루빈' 제안 시 평가에 우대 조건으로 반영할 수 있도록 한 것도 이러한 흐름과 맞닿아 있다"며 "단순 도입 여부보다 고성능 장비를 안정적으로 운용할 수 있는 인프라 설계 능력을 함께 보겠다는 의미"라고 해석했다. 다만 베라루빈과 같은 차세대 GPU는 수냉 기반 구조 등으로 인해 기존 대비 장비 무게와 전력 요구 수준이 크게 높아지는 만큼, 일각에선 이를 수용할 수 있는 데이터센터 인프라 확보 여부가 새로운 변수가 될 것으로 봤다. 실제 올해 사업에서는 데이터센터 하중 구조를 사전에 점검해 제출하도록 하는 요건이 추가된 것으로 알려졌다. 지난해 일부 사업자가 수냉식 장비 도입 과정에서 구조 보강 문제로 일정 지연을 겪은 경험이 반영된 결과다. 업계 관계자는 "작년에는 장비 확보와 단가 경쟁이 중심이었다면, 올해는 성능 효율과 운영 구조까지 함께 검증하는 방향으로 완전히 바뀌었다"며 "실제 서비스를 돌릴 수 있는 수준의 설계 역량을 갖추지 않으면 사업 참여 자체가 쉽지 않은 구조"라고 밝혔다. 전문가들은 이번 사업이 국내 AI 인프라 경쟁 방식 자체를 바꾸는 계기가 될 것으로 보고 있다. 단순한 하드웨어 투자에서 벗어나 소프트웨어와 운영 기술까지 포함한 종합 경쟁력 확보가 요구되고 있기 때문이다. 또 다른 관계자는 "이제는 GPU를 얼마나 확보했는지가 아니라 같은 자원으로 얼마나 높은 효율을 내느냐가 경쟁력의 핵심"이라며 "이번 사업은 국내 기업들이 글로벌 수준의 인프라 운용 역량을 갖추도록 유도하는 전환점이 될 것"이라고 말했다.

2026.03.30 16:27장유미 기자

베슬AI, 엔비디아 GB200·B300 확보…듀얼 네오클라우드 운영

베슬AI가 초거대 모델 학습과 추론을 동시에 지원하는 최신 엔비디아 그래픽처리장치(GPU) 라인업을 구축해 국내 인공지능(AI) 인프라 시장에서 입지를 강화한다. 베슬AI는 엔비디아 'GB200'과 'B300'을 확보하고 이를 기반으로 클라우드 서비스형 GPU(GPUaaS) 사업을 확대한다고 27일 밝혔다. 베슬AI에 따르면 회사는 국내에서 GB200과 B300을 동시에 제공하는 유일한 네오클라우드 사업자로, 차별화된 AI 인프라 경쟁력을 확보했다. 이번 GPU 확보를 통해 기업 고객은 AI 워크로드 특성에 맞춰 GPU를 선택할 수 있게 됐다. B300은 대규모 AI 모델 추론에, GB200은 초거대 모델 학습에 적합해 다양한 AI 개발 환경을 지원한다. 서비스 접근성도 강화했다. 베슬AI는 A100과 H100 등 주요 GPU와 스토리지, AI 개발 플랫폼을 별도 협의 없이 즉시 사용할 수 있는 셀프서비스 방식으로 제공한다. 기업과 개발자가 별도 계약이나 승인 절차 없이 필요한 시점에 바로 GPU를 활용할 수 있도록 지원한다. 비용 효율성도 강점으로 내세웠다. 분 단위 과금 체계와 '스마트 퍼징' 기능을 통해 유휴 자원 낭비를 최소화하고 AI 인프라 총소유비용(TCO)을 절감할 수 있도록 했다. 직관적인 요금 구조와 유연한 크레딧 관리 방식도 도입해 GPUaaS 도입 장벽을 낮췄다는 설명이다. 베슬AI는 자사 GPU 클라우드 플랫폼 '베슬 클라우드'를 통해 GPU 자원을 제공 중이며 현재 일부 물량을 기반으로 기업들의 인바운드 문의가 이어지고 있다. 향후 글로벌 클라우드 파트너십을 기반으로 공급 규모를 확대하고 다양한 지역으로 서비스를 확장할 계획이다. 안재만 베슬AI 대표는 "A100부터 B300까지 국내에서 가장 폭넓은 GPU 라인업을 갖춘 네오클라우드 사업자로서 국내 기업들의 AI 인프라 경쟁력을 높이는 데 기여하겠다"고 말했다.

2026.03.27 17:35한정호 기자

[AI 고속도로] '베라루빈' 도입·연내 구축 가능할까…정부 GPU 확충 쟁점은

정부가 '인공지능(AI) 고속도로' 구현을 위한 2조원 규모 최신 그래픽처리장치(GPU) 확충 사업에 착수한다. 엔비디아가 공개한 차세대 GPU '베라루빈' 도입 가능성까지 포함되면서 사업 방향과 세부 기준에 대한 업계 관심이 높아지고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 개최했다. 이날 현장에선 사업 구조와 평가 기준, 데이터센터 요건 등을 설명하고 현장 질의응답을 진행했다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 밝혔다. 이날 설명회에는 지난해 사업에 선정된 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)와 엘리스그룹이 자리했다. 또 삼성SDS·LG CNS 등 SI 기업과 메가존클라우드·디딤365, 레드햇·클러쉬, 델·HPE·IBM·넷앱·슈퍼마이크로 등 인프라 기업, 엔비디아·AMD·인텔, MS·구글 클라우드, SK텔레콤·쿠팡 등 60여개 기업 200여 명이 참석했다. 현장 질의응답에선 차세대 GPU 도입 기준을 비롯해 데이터센터 구축 방식, 글로벌 공급망 위협과 환율 변동에 따른 비용 부담, 연내 구축 일정 등 주요 쟁점을 중심으로 사업 참여를 검토하는 기업들의 질의가 이어졌다. 특히 베라루빈 도입 여부와 구축 일정 간 균형, 국내 인프라 중심 운영 원칙 등이 핵심 관심사로 부각됐다. 최신 GPU 중심 평가…베라루빈 도입 기준·일정 변수는 -사업 요건의 비용 대비 높은 GPU 성능은 어떤 기준으로 평가되나. "경제성 항목은 단순히 장비 수량을 많이 확보하는 개념이 아니라, 최신 GPU 기준으로 성능 대비 얼마나 효율적으로 제안하느냐를 보는 것이다. 동일한 예산 안에서 최신 아키텍처 GPU를 얼마나 확보할 수 있는지가 핵심이다. 구형 GPU를 대량으로 제안하는 방식보다는 최신 GPU 중심으로 실제 AI 학습과 추론에 적합한 성능을 확보했는지가 평가 포인트가 된다. 성능 대비 비용, 그 성능이 실제 AI 활용에 얼마나 적합한지를 종합적으로 볼 것이다." -베라루빈 제안 시 클러스터 구축 기준은 어떻게 적용되나. "베라루빈은 아직 구체적인 구성 방식이나 클러스터 단위가 완전히 정형화되지 않은 차세대 GPU다. 기존 블랙웰 계열과 동일한 기준을 그대로 적용하기는 어려울 수 있다. 이 부분은 칩 제조사와 공급망을 통해 확인해야 하는 영역이다. 제안 단계에선 가능한 범위에서 구성 계획을 제시하되, 세부 기준은 제조사 스펙과 실제 공급 조건을 반영해 판단하게 된다. 중요한 것은 차세대 GPU 도입 의지와 실현 가능성이다." -특정 제조사의 GPU만을 고려해 평가가 이뤄지는지. "이번 사업은 특정 칩 제조사를 배제하거나 제한하려는 것이 아니라, 국가 차원에서 AI 인프라를 가장 빠르게 확보하는 것이 목적이다. 현재 시장에서 대규모 AI 모델 학습과 서비스에 가장 널리 활용되는 최신 GPU를 중심으로 판단하게 된다. 다양한 선택지가 있을 수 있지만 실제 활용성과 안정성, 공급 가능성을 종합적으로 고려할 수밖에 없다." -베라 루빈 출시 일정과 연내 구축 목표가 충돌할 경우 기준은. "기본적으로 이번 사업은 연내 구축과 서비스 개시가 중요한 목표다. 다만 차세대 GPU 도입은 평가에서 우대 요소로 반영된다. 베라 루빈의 경우 일반적인 글로벌 공급 일정과 달리 국내 도입 시점이 앞당겨질 가능성도 있다. 관계 부처와 제조사 간 협의를 통해 국내 물량 확보를 추진해 왔다. 결국 일정과 최신성 두 요소를 함께 고려하되, 현실적인 공급 상황을 반영해 판단할 것이다." -GPU 납기 지연 등 변수 발생 시 일정 조정이 가능한가. "사업자가 최종 선정된 이후 협약 단계에서 시장 상황을 반영해 일부 조정은 가능하다. 기본 원칙은 유지하되, 실제 납기나 공급 이슈가 불가피하게 발생하는 경우까지 일률적으로 적용하기는 어렵다. 협약 과정에서 합리적으로 논의할 수 있는 여지는 있다." "국내 데이터센터 집적이 원칙"…냉각 인프라도 예산에 포함 -복수 데이터센터를 활용한 구축·운용이 가능한가. "데이터센터를 여러 개 제안하는 것은 가능하다. 다만 사업에서 요구하는 최소 클러스터 단위는 반드시 동일 공간 또는 동일 층에 물리적으로 집적돼야 한다. 대규모 AI 연산을 위해서는 GPU 간 통신 지연을 최소화하는 구조가 필요하기 때문이다. 따라서 분산 배치는 가능하지만, 핵심 클러스터는 집적형으로 구성해야 한다." -동일 제조사 내 서로 다른 GPU 모델을 혼합해 제안할 수 있나. "가능은 하지만 단순 혼합이 아니라, 각각의 GPU 구성에 대한 명확한 목적과 타당성을 제시해야 한다. 어떤 워크로드에 어떤 GPU를 쓰는지, 클러스터 단위 기준을 어떻게 충족하는지를 설명해야 한다. 단순히 여러 모델을 섞는 방식은 설득력이 떨어질 수 있다." -해외 데이터 연동이나 네트워크 활용은 원천 불가능한가. "사업의 기본 원칙은 국내 데이터센터에서 GPU를 직접 운영·통제하는 것이다. 국가 AI 인프라라는 특성상 데이터 주권과 보안이 중요하다. 다만 실제 운영 과정에서 필요한 세부 사항은 추가 논의를 통해 정리할 수 있다." -수냉 배관 등 데이터센터 공사 비용도 사업 지원비에 포함되나. "GPU 서버가 최고 성능을 낼 수 있도록 필요한 환경이라면 통합 구축 범위에 포함해 제안할 수 있다. 단순히 장비만 도입하는 것이 아니라 실제 운영 가능한 인프라를 구축하는 것이 목적이다. 전력·냉각·네트워크까지 포함한 전체 시스템 관점에서 제안하는 것이 중요하다." -콜드플레이트 등 냉각 구성 요소는 어떻게 반영해야 하나. "세부적인 하드웨어 구성은 서버 벤더와 칩 제조사 기준을 따르는 것이 바람직하다. GPU 성능을 충분히 발휘할 수 있는 구성이라면 관련 부대장비까지 포함해 제안하면 된다. 단순 장비 나열이 아니라 완성된 인프라로서 제안해야 한다." 환율 변수에도 제안가 기준…"사업 종료 후 관리는 정부가" -환율 변동에 따른 가격 차이는 추후 어떻게 반영되나. "기본적으로는 제안 시점에서 확보한 가격을 기준으로 본다. 공모 사업 특성상 사후 정산 구조이기 때문에 가격 변동이 발생하더라도 그 기준을 중심으로 관리하게 된다." -환율 급등 등 외부 변수 발생 시 대응은. "원칙은 제안 가격 기준이다. 다만 전쟁이나 글로벌 공급망 충격과 같은 불가피한 상황이 발생할 경우에는 협약 단계에서 논의가 필요할 수 있다. 모든 변수를 사전에 규정하기는 어렵지만 현실적인 범위에서 대응할 예정이다." -정부 활용분과 기업 자체 활용분은 어떤 기준으로 산정되나. "정부 활용분에 대해 요구되는 최소 클러스터 규모를 먼저 충족해야 하고 그 이후 남는 자원을 자체 활용분으로 설정하는 구조다. GPU 종류나 성능이 서로 다른 경우에는 단순 장수 기준만으로 판단하지 않고 도입 비용과 활용 목적까지 함께 고려해 전체 구성의 타당성을 평가한다. 단순 비율이 아니라 정부 활용 목적에 부합하는지와 자원 배분의 합리성을 종합적으로 볼 것이다." -정부 활용분 GPU에 대한 수요는 보장되나. "수요 모집과 배분은 정부가 담당한다. 사업자는 인프라를 제공하고 운영을 지원하는 역할을 수행하게 된다. 수요 확보 부담을 사업자에게 전가하는 구조는 아니다." -사업 종료 후 GPU 자산은 어떻게 되나. "GPU와 부대장비는 NIPA 자산으로 관리된다. 이후 처리 방식은 관련 규정과 절차에 따라 결정된다. 매각이나 이전 등 다양한 방안을 검토할 예정이다."

2026.03.20 17:58한정호 기자

[AI 고속도로] 고성능 GPU 확보 나선 정부, 2조 규모 인프라 사업에 기업 관심 ↑

정부가 약 2조800억원 규모의 '인공지능(AI) 컴퓨팅 인프라 구축 사업'을 추진하며 첨단 그래픽처리장치(GPU) 확보에 속도를 내고 있다. 생성형 AI 경쟁이 짧은 기간 내 판가름 날 수 있다는 판단에 따라 최신 GPU를 조기에 대규모로 확보해 'AI 고속도로'를 구축하겠다는 구상이지만, 사업 구조와 요구 조건 측면에서 기업들의 부담이 적지 않을 것이란 관측도 나오고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이후 사업 협약 종료 시점인 2031년 12월 31일까지 산업계·학계·연구계 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 사업은 민간 클라우드 사업자(CSP)를 선정해 국내 데이터센터에 GPU 클러스터를 구축·운영하도록 하는 방식으로 추진된다. 정부는 GPU 서버와 스토리지, 네트워크, 냉각장치 등 장비 구매 비용만 지원하고, 운영 비용은 사업자가 부담하도록 했다. 대신 일부 GPU 자원은 자체 활용을 허용해 수익을 확보할 수 있도록 했다. 이번 사업의 핵심은 '최신성'과 '대규모 클러스터'다. 정부는 최소 256노드, 2048장 이상의 GPU를 단일 클러스터로 구성하는 방안을 기본으로 제시하며 블랙웰급 이상 최신 GPU 도입을 사실상 전제로 삼았다. 차세대 GPU인 베라루빈 계열도 제안 가능 대상으로 열어두면서 최신 기술 도입을 적극 유도하는 모습이다. 특히 베라루빈 도입을 둘러싼 논의는 이번 사업의 방향성을 보여주는 대목으로 꼽힌다. 당초 사업 요건에 베라루빈을 명시적으로 포함하는 방안까지 검토됐던 것으로 전해졌으나, 최종 공모에선 강제 조건으로 포함시키지 않았다. 업계에선 정부가 엔비디아와의 협의를 통해 국내 물량 확보 가능성을 타진하면서도, 아직 레퍼런스가 부족한 점을 감안해 기업 자율 제안으로 방향을 조정한 것으로 보고 있다. 그러나 실제 도입 규모는 제한적일 것이라는 전망이 우세하다. 차세대 GPU 특성상 공급 물량이 충분하지 않고, 성능 검증 사례도 부족해 기업들이 대규모로 제안하기에는 부담이 크다는 이유에서다. 업계에선 일부 상징적 물량 수준에서 제안이 이뤄질 가능성에 무게를 두고 있다. 평가 기준을 보면 정부가 무엇을 우선순위로 두고 있는지도 드러난다. 총 100점 가운데 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도 18점, 구축계획 우수성 32점이 핵심이다. 데이터센터 상면 확보를 비롯해 전력·냉각 설비, 네트워크 구성, 보안·안정성 체계 등이 주요 평가 항목에 포함됐다. 이는 대규모 GPU를 실제로 안정적으로 운영할 수 있는 인프라 역량을 가장 중요한 기준으로 삼겠다는 의미다. GPU 물량보다 성능을 중시하는 평가 방식도 특징이다. 동일 예산 기준에서 구형 GPU를 대량 확보하는 방식보다 최신 GPU 기반 고성능 클러스터를 구축하는 제안이 더 유리한 구조다. 서비스 개시 시점이 빠를수록 가점을 부여하는 항목도 포함돼 조기 구축과 실제 활용 가능성 역시 핵심 평가 요소로 설정됐다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 개발에서 서비스까지 걸리는 시간이 크게 단축된 상황"이라며 "최신 GPU를 신속하게 확보해 국내에 공급하는 것이 경쟁력 확보의 핵심"이라고 강조했다. 업계에선 이번 사업을 두고 참여 문턱이 높은 것 같다는 평가를 내놨다. 대규모 GPU 클러스터를 구축하려면 충분한 데이터센터 상면과 전력, 고성능 냉각 인프라가 필수적인데 이를 단기간 내 확보할 수 있는 기업이 제한적이기 때문이다. 수도권 중심 데이터센터 전력 수급 문제도 부담 요인으로 지목된다. 운영비 부담도 주요 변수다. 정부 지원은 장비 구매에 한정되고 실제 운영비는 사업자가 부담해야 하기 때문이다. 자체 활용 GPU로 수익을 확보할 수는 있지만, 정부 활용 자원 비중이 높을수록 평가에서 유리한 구조여서 사업성과 점수 간 균형을 맞추기 쉽지 않다는 지적이 나온다. 가격과 환율 리스크도 기업들이 부담으로 꼽는 대목이다. GPU 조달 비용은 대부분 달러 기반으로 형성되는데, 사업 구조상 비용 절감분은 정산 대상인 반면 가격 상승에 따른 리스크는 일정 부분 사업자가 떠안아야 한다. 차세대 GPU의 경우 납기와 가격 변동성이 커 불확실성이 더 크다.여기에 올해부터 서비스 수준 협약(SLA) 요건이 새롭게 포함되면서 운영 부담은 더 커질 전망이다. 장애 대응, 성능 유지, 기술 지원 체계를 구체적으로 제시해야 하는 만큼, 단일 CSP가 이를 모두 감당하기는 쉽지 않다는 평가다. 이에 따라 CSP가 운영·관리 전문기업(MSP)과 협력하는 컨소시엄 형태가 늘어날 것이라는 관측이 나온다.업계 관계자는 "단순히 GPU를 구축하는 수준이 아니라 24시간 대응 체계와 서비스 품질까지 함께 요구되면서 사업 난도가 크게 올라갔다"며 "운영과 기술지원 역량을 동시에 갖춘 구조를 만들어야 하는 부담이 커진 상황"이라고 말했다.이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 맡는다. 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 여부와 확보 계획, 데이터의 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등도 주요 평가 항목에 포함됐다. 특히 AI 워크로드를 이해하는 전문 인력과 24시간 대응이 가능한 기술지원 체계를 반드시 제시해야 한다는 점도 이번에 강조됐다. 단순 인프라 운영을 넘어 AI 모델 개발과 서비스까지 지원할 수 있는 수준의 역량이 요구된다는 점에서 기업 부담이 추가로 커졌다는 평가가 나온다.설계 부담도 적지 않을 것으로 보인다. 특히 차세대 GPU인 베라루빈을 적용할 경우 클러스터 구성 단위와 성능 기준이 명확히 정해져 있지 않아 기업이 직접 제조사와 협의를 통해 구성 방안을 검토해야 하는 상황이다. GPU 종류별로 클러스터 구조와 성능 산정 방식이 달라질 수 있는 만큼, 제안 단계에서부터 기술적 검증과 설계 부담이 기업에 상당 부분 전가됐다는 평가가 나온다. 이번 설명회에는 네이버클라우드, KT클라우드, NHN클라우드, 카카오엔터프라이즈, SK텔레콤, 삼성SDS 등 주요 클라우드 사업자를 비롯해 메가존클라우드, LG CNS 등 클라우드 서비스 운영 관리 기업(MSP)과 델, 시스코, HPE, 엔비디아 등 글로벌 장비·반도체 기업까지 대거 참석했다. 이 같은 구조를 감안하면 실제 경쟁은 일부 대형 사업자 중심으로 형성될 가능성이 크다. 업계에선 네이버클라우드와 KT클라우드를 유력 후보로 거론하는 가운데 삼성SDS와 SK텔레콤 등도 경쟁군으로 함께 언급했다. NHN클라우드 등은 컨소시엄 형태로 참여할 가능성이 제기된다. 아마존웹서비스(AWS), 마이크로소프트 애저, 구글 클라우드 등 해외 CSP 역시 참여는 가능하지만 국내 데이터센터 기반과 직접 운영·통제 요구 등을 고려할 때 진입 장벽은 여전히 높다는 평가다. 업계 관계자는 "베라루빈 같은 차세대 GPU는 상징적으로 일부 들어갈 수는 있겠지만, 실제 사업은 전력과 냉각, 운영 역량 확보가 더 큰 변수"라며 "SLA까지 포함되면서 기업 부담이 상당히 커진 구조"라고 말했다. NIPA 관계자는 "시장 상황과 공급 여건이 쉽지 않다는 점을 충분히 인지하고 있다"며 "선정 이후 협상 과정에서 일정과 세부 조건은 현실적으로 조정해 나가고, 민간과 협력해 AI 인프라를 빠르게 구축하겠다"고 밝혔다.

2026.03.20 17:02장유미 기자

[AI 고속도로] 정부, 2조원 규모 GPU 확보 첫발…'베라루빈'까지 품는다

정부가 '인공지능(AI) 고속도로' 구축을 위한 그래픽처리장치(GPU) 확보에 속도를 내며 차세대 엔비디아 아키텍처 '베라루빈'까지 포함한 대규모 컴퓨팅 인프라 확충에 나섰다. 약 2조원 규모 예산을 투입해 첨단 GPU를 민관 협력 방식으로 조기 확보하고 국내 AI 산업 경쟁력을 끌어올린다는 목표다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 진행했다. 이날 현장에는 지난해 1차년도 사업에 참여했던 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)를 비롯해 서비스형 GPU(GPUaaS) 사업을 하는 엘리스그룹이 참석했다. 이 외에도 ▲시스템 통합(SI) 기업 삼성SDS·LG CNS·아이티센씨티에스·에스넷시스템 ▲매니지드 서비스 기업(MSP) 메가존클라우드·디딤365 ▲AI 플랫폼 기업 레드햇·클러쉬 ▲서버·스토리지 기업 델 테크놀로지스·HS효성인포메이션시스템·시스코·넷앱·슈퍼마이크로·HPE·IBM ▲칩 벤더인 엔비디아·AMD·인텔이 자리했다. 여기에 마이크로소프트(MS)·구글 클라우드 등 글로벌 CSP와 SK텔레콤, 쿠팡까지 가세하면서 총 60여개 기업, 200여 명이 이번 설명회를 찾았다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 말했다. 이번 사업은 약 2조 805억원 규모 예산이 GPU 서버와 랙·냉각장치·스토리지·네트워크 등 부대장비 구매 비용에 집중 투입된다. 올해 첨단 GPU 구축을 완료하고 연내 서비스 개시를 목표로 한다. 이후 2031년까지 약 68개월간 운영·지원이 이어진다. 사업 추진 방향은 단순한 물량 확대가 아닌 ▲비용 대비 높은 성능 ▲대규모 클러스터링 ▲직접 클러스터링을 통한 기술력 확보 ▲최신 GPU 우선 도입 ▲연내 서비스 개시 등이 핵심이다. 특히 올해 공모에선 차세대 GPU 도입 여부가 주요한 평가 요소로 떠올랐다. 블랙웰급 이상의 최신 GPU를 기본으로 제안하되, 최근 공개된 차세대 하이엔드 GPU인 베라루빈을 제안할 경우 평가에서 우대한다는 설명이다. 이 사업을 통해 확보되는 GPU는 동일 데이터센터, 동일 공간 또는 동일 층에 물리적으로 집적해 클러스터를 구성해야 하는 것이 요건이다. 참여 기업의 전력·냉각·항온항습·초저지연 네트워크 등 인프라 설계 역량도 평가에 반영된다. 최소 256노드(GPU 2048개) 규모 이상의 클러스터 구성이 기본 기준으로 제시됐다. 이번 사업은 국내 기업 중심의 AI 인프라 역량 강화에도 초점이 맞춰졌다. 이 팀장은 "국내 CSP들이 직접 클러스터링과 운영을 수행하면서 기술력을 축적할 수 있도록 하는 것이 중요한 목적"이라며 "우리 기업들의 인프라 구축·운영 역량을 키우는 방향으로 설계됐다"고 강조했다. 사업 참여는 단독뿐 아니라 컨소시엄 형태도 가능하다. 다만 모든 참여 기업이 GPUaaS 운영 실적 등 신청 요건을 충족해야 하며 사전검토와 발표평가, 데이터센터 현장실사를 거쳐 최종 사업자가 선정된다. 복수 사업자 선정도 가능해 CSP·MSP·SI·통신 기업 간 치열한 연합 경쟁이 예상된다. 평가 기준도 구체적으로 제시됐다. 총 100점 만점 기준에서 사업 준비도 및 경쟁력이 50점으로 가장 큰 비중을 차지하며 이 가운데 구축계획 우수성이 32점, 인프라 준비도가 18점으로 구성된다. 여기에 AI 생태계 발전 노력 26점, 사업 이해도 및 추진역량 12점, 운영 역량 및 사업관리 12점이 반영된다. 이 팀장은 "정부 활용 GPU 비중이 높고 산학연 지원 계획이 구체적일수록 높은 평가를 받을 것"이라며 "국내 데이터센터에서 GPU 자원을 직접 운영·통제하는 구조 역시 중요한 평가 요소"라고 밝혔다. 특히 GPU 자원 중 일부는 사업자가 자체 활용할 수 있도록 허용되지만, 해당 비중과 활용 계획 역시 평가에 반영된다. 정부는 국가 AI 프로젝트와 산학연, 스타트업 지원을 우선 고려한다는 방침이다. 이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 담당하게 된다. 동시에 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 현황과 확보 계획, 데이터 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등이 주요 평가 대상에 포함된다. 특히 AI 워크로드를 이해하는 전문 인력과 안정적인 기술지원 체계를 반드시 제시해야 한다는 점도 강조됐다. 단순 인프라 운영을 넘어 실질적인 AI 모델 개발과 서비스까지 지원할 수 있는 수준이 요구된다. 정부는 이번 사업을 통해 확보한 GPU를 국가 AI 프로젝트와 연구개발, 산업 현장에 폭넓게 공급하며 국내 AI 생태계 전반의 경쟁력을 끌어올린다는 계획이다. 원상호 NIPA AI인프라본부장은 "민간과 협력해 국내 AI 산업 생태계가 체감할 수 있는 첨단 활용 기반을 마련하는 것이 중요하다"며 "글로벌 AI 경쟁 기반을 넓히고 우리 산업의 경쟁력을 한 단계 끌어올리는 계기가 될 것"이라고 강조했다.

2026.03.20 16:55한정호 기자

엔비디아 '깐부' AWS, AI 경쟁력 강화…클라우드 주도권 굳히기 박차

엔비디아가 아마존웹서비스(AWS)와 협력을 확대하며 클라우드 기반 AI 인프라 주도권 굳히기에 나섰다. 그래픽처리장치(GPU) 중심의 기존 우위를 바탕으로 데이터 처리와 AI 모델까지 영역을 넓히며 경쟁사들과의 격차 확대에 나선 모양새다.엔비디아는 17일(현지시간) 미국 새너제이에서 열린 'GTC 2026'에서 AWS와의 협력을 통해 GPU 가속 솔루션을 확대한다고 밝혔다. 양사는 AWS 환경에서 엔비디아 기반 데이터 처리 기능을 확장하고 네모트론(Nemotron) 오픈 모델 제품군 지원을 추가할 계획이다. 이번 협력은 단순 인프라 제공을 넘어 풀스택 AI 생태계 구축으로 이어진다는 점에서 주목된다. 엔비디아와 AWS는 2010년부터 협업을 이어오며 GPU 인프라, 소프트웨어, 서비스 전반을 통합한 솔루션을 제공해왔고 이를 통해 기업의 AI 구축 및 배포 시간을 단축해왔다. 특히 이번 발표에서 주목되는 부분은 최신 GPU의 클라우드 도입이다. 엔비디아의 'RTX 프로 4500 블랙웰 서버 에디션' GPU는 아마존 EC2 인스턴스를 통해 AWS에 처음 도입될 예정이다. AWS는 해당 GPU를 지원하는 최초의 클라우드 사업자로, 이를 통해 고객은 온프레미스 수준의 블랙웰 성능을 클라우드에서도 활용할 수 있게 된다. 해당 인스턴스는 AWS 니트로 시스템 기반으로 설계돼 보안성과 안정성을 강화했으며 아마존 EMR과 결합 시 대규모 데이터 처리 워크로드에 최적화된 성능을 제공한다. 이는 데이터 분석 및 AI 학습 환경에서 클라우드 활용도를 한층 끌어올릴 것으로 전망된다. AI 모델 측면에서도 협력 범위가 확대됐다. 엔비디아의 '네모트론 나노 3' 모델은 세일즈포스의 AI 플랫폼 '에이전트포스'에 아마존 베드록을 통해 제공된다. 해당 모델은 높은 처리량이 요구되는 B2C 애플리케이션 환경에서도 활용 가능하며 세일즈포스 벤치마크 기준 요약 및 생성 작업에서 높은 비용 효율성을 보인 것으로 평가된다. 또 AWS는 아마존 베드록에서 네모트론 모델을 위한 강화 학습 기반 파인튜닝(RFT) 기능을 지원할 예정이다. 이를 통해 개발자는 특정 산업에 맞춰 모델의 추론 방식과 응답 구조를 정밀하게 조정할 수 있다. 이는 법률, 헬스케어, 금융 등 고도화된 전문 영역에서 AI 활용도를 높이는 핵심 기능으로 꼽힌다. AWS 역시 이번 협력을 통해 AI 인프라 경쟁력 강화에 나선 것으로 해석된다. 기업들이 엔비디아 '쿠다(CUDA)' 생태계를 중심으로 AI를 개발하는 상황에서 최신 GPU를 선제 확보해 고객 이탈을 막고, 아마존 EMR과 베드록 등 자사 서비스와 결합해 AI 워크로드를 플랫폼 내부에 묶어두려는 전략이다. 업계에선 AWS가 자체 AI 칩과 엔비디아 GPU를 병행하는 '투트랙 전략'을 통해 성능과 비용 경쟁력을 동시에 확보하려는 행보로 보고 있다. 업계 관계자는 "AWS는 단순히 GPU를 도입하는 수준을 넘어 AI 인프라 전반을 자사 플랫폼 중심으로 재편하려는 듯 하다"며 "이번 일을 기점으로 향후 생성형 AI 서비스 경쟁에서 클라우드 사업자의 영향력이 더 커질 가능성이 있다"고 말했다.

2026.03.18 12:15장유미 기자

리사 수 AMD CEO, 오늘 방한... 네이버·삼성전자 연쇄 회동

PC·서버용 프로세서와 AI 가속용 GPU를 설계하는 미국 팹리스 기업, AMD의 리사 수 CEO가 오늘(18일)부터 1박 2일 일정으로 한국을 방문한다. 리사 수 CEO는 2014년 취임 이후 12년 만에 처음으로 한국 공식 방문에 나섰다. 방문 목적으로는 GPU 활용 확대를 위한 고객사 확보, 차세대 고대역폭메모리인 HBM4의 안정적인 확보가 꼽힌다. 리사 수 CEO는 양대 목적 달성을 위해 네이버클라우드와 삼성전자를 잇달아 찾을 예정이다. AMD는 최근 PC용 '라이젠', 서버용 '에픽' 프로세서를 앞세워 경쟁사 인텔을 빠르게 추격하고 있다. 시장조사업체 머큐리리서치에 따르면 지난해 4분기 x86 프로세서 시장 점유율은 서버 28.8%, 데스크톱 36.4%, 노트북 26.0%다. 인텔 점유율을 상당 부분 빼앗은 수치다. 다만 현재 수요가 집중되는 데이터센터용 AI GPU 시장에서는 상황이 다르다. 이 분야에서는 엔비디아가 약 90% 점유율로 압도적인 1위를 차지하고 있으며, AMD는 아직 격차를 좁히지 못하고 있다. 또한 올해 하반기 출시 예정인 GPU 가속기 '인스팅트 MI450' 생산을 위해 핵심 부품인 HBM4 확보도 필수적이다. 리사 수 CEO는 18일 오전 입국 후 경기도 성남시 판교에 위치한 네이버 1784 사옥으로 이동한다. 해외 출장 중인 김유원 네이버클라우드 대표를 대신해 최수연 네이버 대표가 직접 맞이할 예정이다. 양측은 에픽 프로세서와 인스팅트 MI 시리즈 GPU 도입, 그리고 소버린 AI 인프라 구축 등 폭넓은 협력 방안을 논의할 것으로 보인다. 오후에는 삼성전자 평택캠퍼스를 방문한다. 이 자리에서 전영현 DS(디바이스솔루션) 부문장, 한진만 파운드리 사업부장 등 삼성전자 고위층과 HBM4를 포함한 고성능 메모리 공급 방안을 논의할 것으로 예상된다. 저녁에는 이재용 삼성전자 회장과 만찬이 예정돼 있다. 장소는 삼성그룹 영빈관 역할을 하는 서울 한남동 소재 '승지원'이 유력하다. 이곳은 2019년 사우디아라비아의 무함마드 빈 살만 왕세자, 2024년 마크 저커버그 CEO 등이 방문한 바 있는 상징적인 장소다. 리사 수 CEO는 국내 공급사, 고객사와 일정을 마친 뒤 19일 출국할 예정이다. 19일 일정은 유동적이며 일정 중 국내 임직원 대상 타운홀 미팅 등에 나설 가능성도 있다. 출국 이후 미국으로 바로 귀국하지 않고 인접 국가를 추가 방문할 가능성도 제기된다. 이동 거리와 동선을 고려할 때 일본이 유력한 후보지로 거론된다.

2026.03.18 06:30권봉석 기자

2조원 규모 국가 GPU 확충 닻 올렸다…'AI 고속도로' 시동

정부가 2조원대 예산을 투입해 첨단 그래픽처리장치(GPU) 확충에 나선다. 지난해 1만 3000여 장 확보에 이어 올해는 공모 단계부터 대규모·최신 GPU 클러스터와 연내 서비스 개시를 전면에 내세우며 산학연과 국가 인공지능(AI) 프로젝트를 뒷받침할 'AI 고속도로' 구축을 본격화한다. 과학기술정보통신부는 12일 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모를 이날부터 다음 달 13일까지 진행한다고 발표했다. 국내 AI 생태계 활성화와 AI 3대 강국 도약의 핵심 인프라인 AI 고속도로 구축을 본격 추진한다는 목표다. 이번 사업은 약 2조 805억원을 투입해 첨단 GPU와 통합 운영환경을 민관 협력 방식으로 신속히 확보하는 것이 핵심이다. 협약 기간은 올해 협약 체결 시점부터 2031년 12월 31일까지 약 68개월이다. 올해는 구축과 서비스 개시, 2027년부터 2031년까지는 운영 단계로 이어진다. 정부는 이번 사업 예산을 GPU 서버와 랙, 냉각장치, 스토리지, 네트워크 케이블·스위치, 소프트웨어(SW) 라이선스, 기술지원 패키지 등 구매 비용에 집중 투입할 계획이다. 공고에 따르면 정부는 단순히 GPU 수량을 늘리는 것을 넘어 ▲비용 대비 높은 성능 ▲대규모 클러스터링 ▲직접 클러스터링을 통한 기술력 확보 ▲최신 기종 우선 도입 ▲연내 서비스 개시 등을 중점 추진 방향으로 제시했다. 특히 정부 활용분 가운데 최소 1개 이상 클러스터를 256서버(GPU 2048개) 이상 규모로 구성하는 제안이 우대되며 최신 GPU는 엔비디아 블랙웰급 이상을 기본으로 보고 차세대 베라루빈 제안 시에도 우대한다는 기준을 내세웠다. 사업 참여 대상은 국내에서 클라우드 기반 서비스형 GPU(GPUaaS) 제공·운영이 가능한 사업자다. 단독 또는 컨소시엄 형태 모두 가능하지만 최근 3년 이내 관련 매출과 운영 실적을 사업계획서에 포함해야 한다. 참여 기업은 국내 데이터센터에 상면을 확보하고 같은 공간 또는 같은 층에서 GPU 서버를 물리적으로 집적해야 한다. 대규모 클러스터를 구성할 수 있는 전력·냉각·항온항습·네트워크 인프라 계획도 제출 요건이다. 이는 정부가 단순 조달보다 실제 대형 AI 학습과 추론을 감당할 수 있는 고성능 집적 인프라 구축 역량을 전면 평가하겠다는 것으로 풀이된다. 정부는 공고에 관한 사업설명회를 오는 20일 서울 포스코타워 역삼에서 개최한다. 다음 달까지 공모 접수를 거쳐 오는 4~5월 평가위원회 선정평가와 데이터센터 현장실사를 진행하고 5월 사업수행기관을 확정할 예정이다. 이후 12월까지 협약 체결과 정부출연금 교부, GPU 발주·구축·테스트·연내 서비스 개시가 이어지며 중간보고는 9월, 결과보고와 평가는 내년 1월, 정산은 내년 2월로 예정됐다. 올해 사업은 지난해 GPU 확보 사업의 연장선으로 진행된다. 정부는 지난해 추가경정예산 약 1조 4000억원을 투입해 1만 3000여 장 규모 GPU 확보를 추진했다. 이 사업에는 네이버클라우드·NHN클라우드·카카오가 최종 선정됐다. 이후 정부와 기업이 실무협의체를 구성해 확보·구축·운용 계획과 GPU 통합지원 플랫폼 구축, 산학연 지원 일정 등을 논의해왔다. 민관 협력으로 이달 초부터는 지난해 확보된 정부 GPU가 본격적으로 산학연에 공급되기 시작했다. 이번 공모는 이미 가동을 시작한 1차 공급 체계에 추가 물량과 더 큰 클러스터를 얹는 2단계 확장 사업으로 평가된다. AI 고속도로 구축 속도를 높이고자 정부는 올해 공고에 지난해보다 한층 구체적인 운영 조건도 담았다. 제안사는 전체 GPU 자원 중 자체 활용 허용 자원 비중을 스스로 제안할 수 있지만, 정부 활용 자원 비중이 높을수록 평가에서 우대받는다. 동시에 독자 AI 파운데이션 모델 등 국가 AI 프로젝트와 국내 산학연 대상 지원 계획, 국내 직접 운영·통제 체계, GPU 자원 관리 시스템, 통합 SW 플랫폼, 모니터링과 기술지원 체계 등이 핵심으로 제시됐다. 업계에선 단순 GPU 확보를 넘어 공급·운영·지원이 결합된 상시 GPU 서비스 체계를 만들겠다는 의지로 보고 있다. 정부 주도 대형 AI 인프라 사업인 만큼 어떤 사업자가 이번 공모에 뛰어들지도 주목된다. 지난해 사업에 참여했던 네이버클라우드·NHN클라우드·카카오는 물론, 대형 데이터센터·클라우드 인프라를 보유한 KT클라우드와 같은 주요 클라우드 서비스 기업(CSP)과 GPU 운용 역량을 키우고 있는 통신사업자 등이 경쟁 구도를 형성할 가능성이 거론된다. 공모상 정부가 복수 사업자 선정도 가능하게 열어둔 만큼, 대규모 단일 클러스터 구축 역량과 운영 경험, 보안 인증, 직접 운영 체계 등을 얼마나 설득력 있게 제시하느냐가 관전 포인트다. 특히 정부가 국가 AI 경쟁력 뒷받침을 중점으로 국내 AI 생태계를 실질적으로 지원할 수 있는 운영·지원 능력이 최종 승부를 가를 전망이다. 실제 공고에 기재된 평가 항목엔 총 100점 만점 중 구축계획 우수성이 32점으로 가장 크고 뒤를 이어 AI 생태계 발전 노력이 26점으로 높은 배정이 산정됐다. 이번 사업으로 확보되는 GPU는 대규모 학습과 추론 자원이 필요한 국가 AI 프로젝트, 산학연 연구개발, 스타트업 AI 서비스 고도화 등에 폭넓게 쓰일 전망이다. 정부가 지난해 확보 물량 공급을 시작한 데 이어 올해 추가 공모에 착수하면서 국내 AI 인프라는 초기 확보에서 확장·고도화 단계로 넘어가고 있다. 클라우드 업계 관계자는 "지난해 사업을 통해 국가 AI 생태계를 지원할 GPUaaS 운영 기반이 마련됐다"며 "올해는 규모가 더 커진 만큼 기존 참여 기업을 비롯한 주요 클라우드 사업자들이 참여 여부를 검토하며 경쟁 구도가 형성될 것으로 보인다"고 밝혔다. 배경훈 부총리 겸 과기정통부 장관은 "작년 추경을 통해 확보한 정부 GPU는 현장의 뜨거운 반응과 함께 이달 초부터 본격적으로 산학연에 공급되고 있다"며 "첨단 GPU를 추가로 확보해 더 많은 기업과 연구자들이 좋은 아이디어를 AI로 구현해 볼 수 있도록 지원하고 더 많은 팀이 도전할 수 있도록 정부가 함께 뛰겠다"고 강조했다.

2026.03.12 18:31한정호 기자

NHN클라우드, 日 최대 IT쇼서 AI 인프라 승부수…GPU 앞세워 시장 공략

NHN클라우드가 일본 최대 IT 전시회에 참가해 인공지능(AI) 인프라 서비스를 앞세워 현지 시장 공략에 속도를 낸다. 최근 일본에서 인공지능 전환(AX)과 클라우드 인프라 수요가 빠르게 늘고 있는 만큼, 현지 사업 기반을 강화해 새로운 성장 기회를 확보하겠다는 전략이다. NHN클라우드는 오는 4월 8일부터 10일까지 일본 도쿄 빅사이트에서 열리는 '재팬 IT 위크(Japan IT Week Spring) 2026'에 참가한다고 12일 밝혔다. 재팬 IT 위크는 일본을 대표하는 IT 산업 전시회로, AI·클라우드·소프트웨어 등 최신 기술과 솔루션을 선보이고 기업 간 협력 기회를 모색하는 글로벌 ICT 행사다. NHN클라우드는 이번 행사에서 GPU 기반 AI 인프라 서비스(GPUaaS)를 중심으로 산업별 맞춤형 클라우드 솔루션과 AI 기술을 소개한다. 특히 그래픽처리장치(GPU) 클러스터 운영, 성능 모니터링, 장애 대응, 리소스 최적화 등을 포함한 AI 풀 라이프사이클 관리 체계를 통해 안정적인 AI 인프라 운영 서비스를 제공하고 있다는 점을 강조할 계획이다. 또 최근 생성형 AI 도입이 확대되면서 일본 기업들 사이에서도 고성능 GPU 인프라와 안정적인 AI 운영 환경 확보에 대한 수요가 커진 만큼, NHN클라우드는 관련 인프라 운영 경험을 앞세워 시장을 공략할 계획이다. NHN클라우드가 이처럼 나선 것은 일본이 해외 사업에서 핵심 시장이기 때문이다. 지난 2019년부터 일본에서 데이터센터를 직접 운영하며 현지 규제와 보안 요건을 충족하는 클라우드 인프라를 제공하고 있는 상태로, 교육, 게임, 콘텐츠 등 다양한 산업 분야에서 클라우드 환경 구축 경험을 축적하며 현지 사업 기반도 꾸준히 확대해 왔다. 특히 한국과 일본 양국에서 한국어와 일본어 기술 지원 체계를 동시에 운영하고 있고, 일본 엔화 기반 요금 체계를 적용해 환율 변동에 따른 비용 부담을 줄일 수 있다는 점도 NHN클라우드만의 경쟁력으로 꼽힌다. NHN클라우드는 이번 전시를 통해 일본 기업과 파트너를 대상으로 실제 비즈니스 적용 사례를 공유하고 협력 기회를 확대할 계획이다. 또 일본 현지 법인인 NHN클라우드 재팬을 중심으로 축적한 사업 운영 경험을 바탕으로 일본 진출을 준비하는 국내 기업과의 협력 모델도 제시한다는 방침이다. 이 같은 행보는 최근 일본에서 확대되고 있는 AI 전환 흐름과도 맞물린다. 일본에서는 디지털 전환(DX)을 넘어 인공지능 전환(AX)에 대한 관심이 높아지고 있다. 올해 1월 한일 정상회담을 계기로 양국 간 AI 협력 논의가 확대되면서 일본 기업들의 AI 인프라와 클라우드 서비스 도입 수요도 점차 커지는 분위기다. NHN클라우드는 이번 전시 참가를 통해 일본 시장에서 요구되는 산업별 클라우드 수요를 직접 확인하고, 현지 기술 트렌드와 디지털 전환 흐름에 대한 인사이트도 확보한다는 계획이다. NHN클라우드 관계자는 "일본 시장의 다양한 기업 및 파트너와 직접 소통할 수 있는 자리에서 GPUaaS를 비롯한 우리의 기술 경쟁력을 소개하고 협력 기회를 발굴하기 위해 이번 행사에 참여했다"며 "일본을 전략 지역으로 삼아 현지 기업에 수준 높은 클라우드 인프라를 제공하고 일본 시장에 진출하는 한국 기업의 안정적인 정착을 지원하는 역할도 지속해 나갈 계획"이라고 말했다.

2026.03.12 17:40장유미 기자

[AI 리더스] 오픈소스컨설팅 "AI 시대 인프라·협업 모두 아우른다…글로벌 파트너 도전"

"인공지능(AI) 시대에도 기업이 새로운 기술을 유연하게 받아들이고 활용할 수 있도록 돕는 것이 우리의 역할입니다. 오픈소스 기반 기술과 자체 제품 경쟁력을 바탕으로 글로벌 시장에서도 성장하는 회사가 되겠습니다." 장용훈 오픈소스컨설팅 대표는 12일 서울 강남구 본사에서 지디넷코리아와 만나 AI 시대 기업 IT 환경 변화와 회사의 전략 방향에 대해 이같이 말했다. 그는 "AI 기술은 빠르게 발전하고 있지만 기업의 기존 인프라와 조직 문화는 그 속도를 따라가기 쉽지 않다"며 "새로운 기술을 실제 기업 환경에서 활용할 수 있도록 연결하는 데 앞장설 것"이라고 강조했다. 오픈소스컨설팅은 오픈소스 기반 클라우드 인프라와 협업 플랫폼 사업을 중심으로 성장해온 기업이다. 최근에는 AI 인프라와 워크 매니지먼트 플랫폼을 결합해 기업 디지털 전환(DX)을 지원하는 전략을 강화하고 있다. 회사는 올해 글로벌(Global)·AI·프로덕트(Product)·파트너(Partner)를 축으로 한 'GAPP' 전략을 중심으로 사업 구조를 양적 성장에서 질적 성장 중심으로 전환한다는 목표다. "기존 IT 인프라와 AI 사이 간극 메운다" 장 대표는 AI 시장을 바라보는 관점에서 과도한 기대와 현실 사이의 간극을 언급했다. 그는 AI가 기업 환경을 빠르게 변화시키고 있지만 실제 기업 시스템 전체를 단기간에 대체하기는 어렵다고 설명했다. 장 대표는 "AI가 빠르게 발전하는 것은 사실이지만 기업 내부에는 아직도 유닉스나 기존 가상화 환경을 사용하는 시스템이 많다"며 "이런 환경에서 AI를 제대로 활용하려면 인프라와 업무 시스템을 함께 변화시키는 과정이 필요하다"고 말했다. 장 대표는 협업 플랫폼과 클라우드 인프라의 중요성이 더 커질 것으로 봤다. AI 도입 자체보다 이를 활용할 수 있는 환경 구축이 더 중요해질 것이라는 판단이다. AI가 기존 시스템을 완전히 대체하기보다는 데이터를 분석하고 의사결정을 돕는 방식으로 기업 업무를 강화할 가능성이 높다는 것이다. 이에 대해 한진규 오픈소스컨설팅 사장은 "전사적자원관리(ERP)나 워크 플랫폼 같은 기업 시스템은 이미 복잡도가 매우 높아 AI가 단순히 대체하기 어렵다"며 "대신 AI는 데이터를 빠르게 분석해 경영진과 조직이 더 많은 인사이트를 얻도록 돕는 방향으로 활용될 것"이라고 밝혔다. AI 확산은 기업 협업 환경에도 변화를 가져올 것으로 내다봤다. 다양한 서비스형 소프트웨어(SaaS) 협업 도구와 내부 시스템을 AI로 연결해 업무 효율을 높이는 방향으로 발전할 것이라는 전망이다. 한 사장은 "우리가 파트너십을 맺고 있는 아틀라시안·먼데이닷컴 같은 SaaS 협업툴과 기업 내부 시스템을 AI로 연결해 어디서든 필요한 정보를 얻을 수 있는 환경이 중요해질 것"이라며 "우리는 이런 플랫폼 통합 역할에 집중하고 있다"고 설명했다. 장 대표 역시 AI가 협업을 대체하기보다는 새로운 협업 방식의 파트너가 될 것이라고 봤다. 그는 "AI는 직원을 완전히 대체하기보다는 함께 일하는 새로운 협업 파트너가 될 가능성이 크다"며 "이 과정에서 협업 플랫폼과 데이터 기반 업무 환경의 중요성이 더욱 커질 것"이라고 강조했다. 클라우드·GPU 인프라 전략 강화…"AI 활용 가능한 환경이 핵심" 최근 AI 확산과 함께 기업 인프라 전략도 빠르게 변화하고 있다. 특히 그래픽처리장치(GPU) 인프라와 클라우드 환경을 어떻게 구축하고 운영하느냐가 중요한 과제로 떠오르고 있다. 오픈소스컨설팅은 프라이빗 클라우드 플랫폼 '플레이스 클라우드'를 중심으로 이같은 시장 변화에 대응 중이다. 이 플랫폼은 가상머신·컨테이너·GPU 등 다양한 인프라 자원을 통합 관리할 수 있는 오픈소스 기반 프라이빗 클라우드 환경을 지원한다. 기업들이 브로드컴의 VM웨어 인수 이후 비용 증가 등의 영향으로 기존 가상화 환경을 대체하려는 움직임을 보이는 동시에, 생성형 AI 확산으로 GPU 기반 인프라 수요도 빠르게 증가하고 있다. 오픈소스컨설팅은 플레이스 클라우드를 앞세워 이 시장 공략에 박차를 가하고 있다. 글로벌 커뮤니티를 통해 지속적으로 업데이트되는 오픈소스 기술들을 패키징하기에 AI 시대에 맞는 유연한 하이브리드 인프라 구축을 지원하는 것이 강점이다. 특히 인프라 비용 부담과 기술 지원이 우려되는 '벤더 종속' 문제를 해소하는 데 앞장선다는 방침이다. 한 사장은 "현재 AI 시장에선 VM웨어 솔루션과 퍼블릭 클라우드를 사용할 경우 비용과 데이터 관리 측면에서 부담이 커질 수 있다"며 "기업의 중요한 내부 데이터나 핵심 시스템은 프라이빗 클라우드에서 운영하려는 수요가 늘고 있다"고 설명했다. 이 흐름에 맞춰 GPU 자원을 효율적으로 운영할 수 있는 인프라 기술도 강화하고 있다. 오픈소스컨설팅은 GPU 자원을 세분화해 할당하고 자동으로 관리할 수 있는 AI 인프라 구축 경험을 공공·민간 시장에서 확보했다. 최근엔 스트라토와 협력해 클라우드 통합 운영관리 플랫폼을 결합한 서비스형 GPU(GPUaaS) 기반 글로벌 AI 인프라 사업에도 나섰다. 기업이 AI 데이터센터와 GPU 클러스터를 보다 효율적으로 운영할 수 있도록 지원한다는 계획이다. 장 대표는 "GPU를 확보하는 것만으로 AI 도입·확산이 실현되는 것은 아니다"라며 "기업이 실제로 AI를 활용할 수 있도록 인프라와 운영관리 환경을 함께 구축하는 것이 더 중요하다"고 밝혔다. "유럽 거점으로 글로벌 공략…파트너 생태계 확대" 오픈소스컨설팅은 올해를 글로벌 사업 확장의 전환점으로 설정했다. 이미 유럽 지역에 영업 거점을 마련하고 글로벌 시장 공략을 본격화하고 있다. 현재 회사는 네덜란드 암스테르담과 스페인 바르셀로나에 인력을 배치해 유럽 시장을 중심으로 활동 중이다. 이 거점을 통해 장기적으로 미국 시장까지 사업 영역을 확대할 계획이다. 한 사장은 "한국 기업이 해외 시장을 직접 개척하는 것은 쉽지 않지만 유럽을 거점으로 글로벌 판매 체계를 구축하고 있다"며 "국내 영업 조직과 해외 영업 조직이 협력해 시장을 확대 중"이라고 설명했다. 아틀라시안 생태계에서의 파트너십도 대표적인 글로벌 시장 확장 전략이다. 오픈소스컨설팅은 최근 글로벌 소프트웨어 기업 앱파이어로부터 아시아태평양(APAC) 최우수 파트너로 선정되며 기술력을 인정받았다고 밝혔다. 회사는 자체 개발한 아틀라시안 마켓플레이스 앱 '플렉서블' 라인업을 토대로 글로벌 고객도 확보에 속도를 내고 있다. 회사에 따르면 현재 전 세계 수백 개 기업이 해당 솔루션을 사용 중이다. 장 대표는 향후 자체 클라우드·SaaS 솔루션 중심의 사업 구조로 전환하겠다는 목표도 내세웠다. 그는 "아직은 파트너 솔루션 매출 비중이 크지만 앞으로 3년 안에 자체 제품 매출 비중을 60% 이상으로 높이는 것이 목표"라고 말했다. 끝으로 그는 "AI 기술 경쟁은 결국 기업이 얼마나 빠르게 기술을 활용할 수 있느냐의 문제"라며 "오픈소스 기반 기술과 자체 제품 경쟁력을 바탕으로 기업의 AI 전환을 돕는 글로벌 기술 파트너로 성장하겠다"고 강조했다.

2026.03.12 14:26한정호 기자

[현장] 레드햇 "AI 운영 핵심은 추론 인프라…오픈소스 플랫폼 지원 확대"

레드햇이 기업의 인공지능(AI) 도입 확대에 맞춰 AI 추론 인프라와 하이브리드 클라우드 기반 플랫폼 지원을 강화한다. 그래픽처리장치(GPU) 활용 효율과 AI 운영 거버넌스를 동시에 확보하는 플랫폼 전략을 앞세워 AI 서비스 구축과 운영을 지원한다는 목표다. 최원영 한국레드햇 전무는 11일 양재 엘타워에서 열린 '레드햇 테크데이'에서 "기업이 AI 서비스를 운영하려면 추론 아키텍처와 GPU 활용 전략을 포함한 통합 플랫폼 접근이 필요하다"며 "오픈소스 기반 플랫폼 '레드햇 AI'를 통해 AI 도입·운영을 지속 지원할 것"이라고 강조했다. 이날 행사는 AI-레디 하이브리드 클라우드 플랫폼 구축 전략을 주제로 기업 AI 환경 구축을 위한 인프라와 플랫폼 전략을 공유하는 자리로 마련됐다. 행사에는 300여 명의 고객과 파트너가 참석했다. 최 전무에 따르면 최근 생성형 AI와 멀티 에이전트 기반 서비스가 확산되면서 AI 모델의 실제 서비스 단계인 추론 영역의 중요성이 커지고 있다. AI 에이전트는 단순 질의응답을 넘어 계획 수립, 도구 호출, 결과 검증 등 여러 단계를 거치기에 연산량과 토큰 사용량이 크게 증가하는 추세다. 그는 "AI 에이전트 기반 서비스는 단순한 거대언어모델(LLM) 응답보다 훨씬 많은 추론 연산이 필요하다"며 "이 과정에서 GPU 자원을 얼마나 효율적으로 활용하느냐가 기업 AI 운영의 핵심 과제가 되고 있다"고 설명했다. 레드햇은 이를 지원하고자 '오픈시프트'를 중심으로 한 레드햇 AI 플랫폼 전략을 추진 중이다. 해당 플랫폼은 다양한 오픈소스 기반 AI 도구를 통합해 기업 환경에서 안정적으로 운영할 수 있도록 지원한다. 레드햇 AI 플랫폼은 ▲AI 엔터프라이즈 ▲오픈시프트 AI ▲엔터프라이즈 리눅스 AI ▲AI 인퍼런스 서버 등으로 구성된다. 특히 가상 거대언어모델(vLLM) 기반 AI 인퍼런스 서버를 통해 다양한 GPU와 가속기 환경에서 대규모 AI 모델을 효율적으로 운영할 수 있도록 지원한다. 또 GPU 자원을 여러 사용자와 서비스가 유연하게 공유할 수 있는 서비스형 GPU(GPUaaS) 구조도 제공한다. 기업이 보유한 GPU 자원을 보다 효율적으로 활용하고 AI 인프라 비용 부담을 줄인다는 목표다. 레드햇은 최근 글로벌 오픈소스 커뮤니티와 함께 엔비디아와 AMD GPU, 구글 텐서처리장치(TPU), 나아가 국내 AI 반도체 기업 리벨리온의 신경망처리장치(NPU) 등 다양한 AI 가속기에 대한 최적화도 진행 중이다. AI 플랫폼 생태계 확대도 박차를 가한다. 레드햇은 엔비디아와 협력해 DGX 시스템에 AI 플랫폼을 통합하는 '레드햇 AI 팩토리 위드 엔비디아' 협력 모델을 지난달 발표했다. 현재 엔비디아 블랙웰 플랫폼과 통합됐으며 향후 차세대 루빈 플랫폼과의 연계도 추진할 계획이다. 이날 행사에선 한전KDN이 레드햇 오픈시프트 기반 클라우드 네이티브 환경을 통해 전력 제어 시스템을 현대화하는 프로젝트 사례도 소개됐다. 한전KDN은 현재 10년 규모의 변전소 원격 감시·제어 시스템(SCADA) 개발 프로젝트를 진행 중이다. 기존 시스템 중심 구조에서 벗어나 유연성과 확장성을 갖춘 클라우드 플랫폼 기반으로 전환하는 것이 목적이다. 배선준 한전KDN 차장은 "전력 제어 시스템은 수많은 변전소에서 데이터를 수집하고 실시간으로 제어해야 하기에 안정성과 운영 효율성이 무엇보다 중요하다"며 "레드햇 오픈시프트 플랫폼을 통해 개발 자동화와 지속적 통합·배포(CI/CD) 체계를 구축하고 클라우드 네이티브 전환을 추진 중"이라고 밝혔다. 이어 "컨테이너 기반 환경으로 장애 발생 시 영향 범위를 격리하고 신속하게 대응할 수 있는 구조를 구축해 한국전력 제어 시스템을 고도화할 것"이라고 덧붙였다. 레드햇은 오픈소스 기반 플랫폼이 기업의 기존 IT 인프라와 AI 워크로드를 통합 운영하는 데 적합하다고 강조했다. 특히 하이브리드 클라우드 환경에서 애플리케이션과 AI 서비스를 단일 플랫폼 레드햇 AI에서 관리할 수 있다는 점을 주요 강점으로 내세웠다. 최 전무는 "AI도 기존 IT 환경과 마찬가지로 보안과 거버넌스를 함께 고려해야 한다"며 "기업이 기존 IT 운영 플랫폼 위에서 AI를 통합적으로 관리할 수 있도록 지원할 것"이라고 말했다.

2026.03.11 15:46한정호 기자

엔비디아가 찜한 투게더 AI, 기업가치 1년 새 2.5배 껑충…10억 달러 투자 추진

인공지능(AI) 클라우드 스타트업 투게더 AI(Together AI)가 약 75억 달러(약 10조원) 기업가치를 기준으로 신규 투자 유치를 추진하고 있는 것으로 전해졌다. 6일 디인포메이션에 따르면 투게더 AI는 약 10억 달러 규모의 신규 투자 라운드를 논의 중이다. 투자 유치가 성사될 경우 기업가치는 약 75억 달러 수준으로 평가될 전망이다. 투게더 AI는 엔비디아 그래픽처리장치(GPU) 기반 AI 클라우드 인프라를 제공하는 스타트업으로, 기업과 개발자들이 대규모 AI 모델을 학습하거나 추론 작업을 수행할 수 있는 컴퓨팅 환경을 제공한다. 특히 메타의 라마 등 오픈소스 대형언어모델(LLM)을 운영할 수 있는 플랫폼을 지원하는 것이 특징이다. AI 산업이 급성장하면서 대규모 GPU 컴퓨팅 인프라에 대한 수요도 빠르게 늘어나고 있다. 이에 따라 투게더 AI를 비롯해 코어위브, 람다 등 AI 전용 클라우드 인프라 기업들이 빠르게 성장하는 추세다. 투게더 AI의 기업가치는 최근 몇 년 사이 급격히 상승했다. 이 회사는 2024년 약 12억 달러 수준에서 평가됐으나 이후 투자 유치 과정에서 30억 달러 이상으로 올라섰다. 이번 투자 논의에서는 75억 달러까지 확대될 가능성이 제기되고 있다. 업계에선 투게더 AI를 단순한 GPU 인프라 제공 기업이 아니라 AI 추론 소프트웨어와 클라우드 인프라를 결합한 사업 모델을 구축한 기업으로 평가하고 있다. 특히 엔비디아가 투자한 AI 인프라 스타트업이라는 점도 시장에서 긍정적인 요인으로 작용하고 있다는 분석이다. 일각에선 이번 투자 라운드가 기업가치를 크게 끌어올리는 후기 단계 투자라는 점에서 향후 기업공개(IPO)로 이어질 가능성에도 주목하고 있다. 또 이번 투자 유치가 성사될 경우 투게더 AI가 향후 상장을 준비하는 과정에서 중요한 전환점이 될 수 있다는 관측도 나온다. AI 인프라 시장이 빠르게 확대되면서 투게더 AI 같은 관련 기업들의 가치도 상승하는 분위기다. 특히 생성형 AI 확산으로 고성능 GPU 수요가 급증하면서 AI 인프라 기업들의 역할도 더욱 커질 것으로 예상된다. 업계 관계자는 "AI 모델 개발 경쟁이 치열해지면서 이를 뒷받침하는 GPU 기반 클라우드 인프라에 대한 수요도 급증하고 있다"며 "AI 인프라 기업들이 향후 AI 생태계에서 핵심 역할을 맡게 될 것"이라고 전망했다.

2026.03.06 15:43장유미 기자

중동 전쟁에 LNG 운임 상승…AI 데이터센터 업계 '전력비 변수' 주시

중동 전쟁 여파로 액화천연가스(LNG) 운임이 상승하면서 전력비 부담 가능성이 제기되는 가운데, 전력 소비가 큰 인공지능(AI) 데이터센터 업계가 상황을 예의주시하고 있다. 당장 운영 차질은 없지만 전력 가격 변동이 장기화될 경우 데이터센터 운영 비용에 영향을 줄 수 있다는 관측이 나온다. 5일 업계에 따르면 최근 중동 정세 불안으로 LNG 운임이 상승하면서 전력 시장에도 변수로 작용할 가능성이 제기되고 있다. AI 데이터센터는 일반 서버보다 훨씬 많은 전력을 소비하는 구조로 전력 가격 변동에 민감하기 때문이다. 실제 세계 최대 LNG 거점 중 하나인 카타르 라스라판 가동 중단 여파로 LNG선 단기 운임은 약 20% 상승한 것으로 알려졌다. 가스 도입 가격이 오르면 국내 전력 도매가격(SMP) 상승으로 이어질 수 있어 전기요금 인상 압박 요인이 될 수 있다는 분석이다. 여기에 중동 전쟁으로 주요 에너지 운송로인 호르무즈 해협을 둘러싼 긴장까지 높아지면서 LNG 운송 비용 변동성도 확대되는 분위기다. 업계에선 이러한 에너지 가격 상승 압력이 장기화될 경우 전력 소비가 많은 AI 데이터센터 운영 비용에도 영향을 줄 수 있다고 보고 있다. AI 데이터센터는 대규모 그래픽처리장치(GPU)와 고성능 서버를 운영해야 하는 만큼 일반 데이터센터보다 전력 소비가 많은 구조다. 다만 현재까지 국내 데이터센터 운영에는 직접적인 영향이 나타나지 않은 상황이다. 주요 통신사와 클라우드 기업들은 서비스 가용성에는 문제가 없으며 상황을 주시하고 있다는 입장이다. 최근 중동 지역에선 클라우드 인프라가 실제 군사 충돌의 영향을 받을 수 있다는 사례도 나오고 있다. 아마존웹서비스(AWS)의 중동 데이터센터가 드론 공격을 받아 일부 서비스 장애가 발생하면서 지정학적 리스크가 디지털 인프라로 확산될 수 있다는 우려가 제기되고 있다. 이에 국내 클라우드 기업들도 중동 사업 리스크 점검에 나선 모습이다. 중동은 최근 AI 인프라와 초대형 데이터센터 투자가 집중되는 지역으로, 지정학적 긴장이 장기화될 경우 일부 IT 인프라 프로젝트 일정에도 변수로 작용할 수 있다는 분석이 나온다. 대표적으로 중동 시장 공략에 나서고 있는 네이버클라우드는 현재 중동 프로젝트 운영에 차질이 없다는 입장이다. 네이버는 사우디아라비아를 중심으로 디지털 트윈과 AI·클라우드 사업을 추진하며 중동을 글로벌 전략 거점 중 하나로 육성 중이다. 회사 측은 중동 지역에 자체 데이터센터 시설을 직접 운영하고 있지는 않으며 현지에는 사무공간 중심 거점만 두고 있어 전쟁의 직접적 영향은 받지 않고 있다. 사우디 아람코 디지털과 협력 중인 메가존클라우드 역시 사업 운영에는 큰 영향이 없다는 입장이다. 앞서 메가존클라우드는 현지 클라우드 및 디지털 전환 사업을 추진하는 등 중동 시장 진출을 확대해 왔다. 현재까지 국내 클라우드 기업들의 데이터센터 운영 및 해외 거점에 대한 직접적인 영향은 확인되지 않고 있다. 다만 에너지 가격 상승이 장기화될 경우 데이터센터 산업 전반의 비용 구조에 영향을 줄 가능성은 배제할 수 없다는 시각도 나온다. 공공과 민간 모두에서 고성능 GPU 중심의 AI 인프라 수요가 빠르게 늘면서 전력 비용이 데이터센터 운영의 핵심 변수로 떠오르고 있어서다. 데이터센터 업계 관계자는 "현재까지 국내 AI 데이터센터 운영에 직접적인 영향은 없지만 LNG 가격 상승이 장기화될 경우 전기요금 상승으로 이어질 가능성이 있는 만큼 상황을 예의주시하고 있다"고 말했다.

2026.03.05 17:41한정호 기자

글로벌 AI 투자 몰리는 '네오클라우드'…한국 스타트업도 도전장

생성형 인공지능(AI) 확산과 함께 그래픽처리장치(GPU)를 중심으로 한 '네오클라우드'가 글로벌 인프라 시장의 새로운 축으로 부상하고 있다. 미국과 유럽에서 수십조원대 투자가 이어지는 가운데, 국내 스타트업들도 AI 전용 인프라 시장을 정조준하며 본격적인 경쟁에 뛰어드는 모습이다. 1일 업계에 따르면 네오클라우드는 기존 범용 클라우드와 달리 AI 학습·추론에 최적화된 고성능 GPU 자원을 서비스형(GPUaaS)으로 제공하는 사업 모델을 뜻한다. AI 모델 크기와 연산량이 급증하면서 하이퍼스케일러만으로는 수요를 감당하기 어려워지자 GPU 중심 인프라를 특화해 제공하는 사업자들이 빠르게 성장 중이다. 글로벌 시장에선 코어위브·람다랩스·네비우스 등이 대표적이다. 이들 기업은 엔비디아 GPU를 대규모로 확보해 AI 기업에 맞춤형 연산 자원을 제공하며 몸집을 키우고 있다. 특히 북미 기준 엔비디아 H100 GPU 임대 비용이 하이퍼스케일러 대비 3분의 1 수준에 불과하다는 조사 결과도 나오며 가격 경쟁력도 부각되고 있다. 금융권 자금도 네오클라우드로 몰리고 있다. 미국 주요 금융사는 네오클라우드 기업이 보유한 GPU를 담보로 대규모 대출을 실행하며 인프라 확장을 지원하고 있다. 시장조사기관 ABI리서치는 GPUaaS 기반 네오클라우드 시장이 2030년 약 90조원 규모로 성장할 것으로 내다봤다 . 이같은 흐름 속에 국내 스타트업들도 AI 전용 인프라 사업자로 정체성을 재정립하며 시장 공략에 속도를 내고 있다. 대표 사례가 베슬AI다. 이 회사는 자사 플랫폼 '베슬 클라우드'를 기반으로 AI 워크로드 운영에 특화된 네오클라우드 사업자로 입지를 강화하고 있다 . 베슬AI는 최근 GPU 클라우드 서비스를 공식 출시하고 연내 H200·B200·B300 등 최신 GPU 1만 장 규모 인프라를 구축하겠다는 계획을 밝혔다. 이미 미국·이스라엘·핀란드 등 6개 지역 데이터센터와 계약을 체결했으며 100여 개 기업과 연구기관이 서비스를 이용 중이다. 글로벌 대학과 연구기관 도입도 확대되며 지난해 매출은 전년 대비 3.4배 성장했다. 에너지 효율 측면에서도 차별화를 시도하고 있다. 베슬AI는 미국 데이터센터 기업과 협력해 전력망 상황에 따라 AI 워크로드를 자동 조정하는 그리드 인지형 머신러닝 운영관리(MLOps) 솔루션을 공동 개발 중이다. GPU 확보 경쟁을 넘어 운영 효율까지 아우르는 네오클라우드 전략이다. 몬드리안에이아이 역시 네오클라우드를 차세대 성장 축으로 내세웠다. 이 회사는 지난해부터 네오클라우드 사업 출사표를 던지며 최근 엔비디아 B300 GPU 클러스터 구축에 나섰다. 네오클라우드를 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스로 정의하고 매니지드 서비스 역량까지 결합하겠다는 전략이다 . 특히 델 테크놀로지스 인프라와 자체 ML옵스 플랫폼 '예니퍼', AI 실행환경 패키지 '몬스택'을 결합한 어플라이언스 '몬박스'를 교육·연구 현장에서 빠르게 확산하고 있다. 서울과학기술대학교와 성균관대학교 등에서 도입 사례가 이어지며 복잡한 설정 없이 즉시 AI 연구가 가능한 환경을 제공하고 있다는 평가다. 몬드리안에이아이는 최근 150억원 규모 시리즈B 투자 유치에 나서며 GPU 인프라 확충과 글로벌 진출을 병행하겠다는 계획도 밝혔다. 단순 GPU 임대를 넘어 인프라·플랫폼·서비스를 아우르는 네오클라우드 그룹으로 도약하겠다는 구상이다 . 업계에선 네오클라우드가 하이퍼스케일러의 대체재라기보다 AI 특화 워크로드를 분리·보완하는 공존형 인프라로 자리 잡을 가능성에 무게를 둔다. 다만 GPU 확보 비용, 전력비 상승, 엔비디아 의존도 등은 장기 리스크로 꼽힌다. 그럼에도 AI 모델 고도화와 산업 전반의 AI 전환(AX)이 가속화되는 한 GPU 중심 인프라 수요는 지속 확대될 것이란 전망이 우세하다. 글로벌 자본이 몰리는 네오클라우드 시장에서 한국 스타트업들이 기술·운영 역량을 바탕으로 의미 있는 경쟁력을 확보할 수 있을지 주목된다. 박현규 몬드리안에이아이 부사장은 "네오클라우드는 단순히 GPU를 임대하는 사업이 아니라 AI 연구와 서비스가 바로 작동할 수 있는 환경을 패키지로 제공하는 모델"이라며 "국내 기업과 연구기관이 인프라 부담 없이 AI 혁신에 집중할 수 있도록 네오클라우드 역량을 지속적으로 고도화하겠다"고 밝혔다.

2026.03.01 08:47한정호 기자

베슬AI, GPU 클라우드 서비스 출시…연내 1만장 규모 인프라 구축

베슬AI가 올해 1만 장 규모 최신 그래픽처리장치(GPU) 인프라를 구축해 클라우드 사업 확대에 나선다. 베슬AI는 GPU 자원을 효율적으로 운영하는 서비스 '베슬 클라우드'를 공식 출시했다고 24일 밝혔다. 베슬 클라우드는 분산된 GPU 자원을 활용해 인공지능(AI) 개발 환경의 비용과 운영 부담을 줄이는 데 초점을 맞춘 클라우드 서비스다. 회사 측에 따르면 업계 최소 수준인 분 단위의 과금 체계를 적용했으며 작업을 중단해도 데이터와 환경을 유지하는 '스마트 퍼징' 기능을 통해 유휴 자원 비용을 최소화한다. 장애 발생 시 자동 복구 기능과 다중 클러스터 기능도 지원해 안정적인 운영 환경을 제공한다. 글로벌 보안 통제 기준인 'SOC 2 타입 2' 인증을 획득해 기업 환경에 필요한 신뢰성과 안정성도 확보했다. 이번 출시는 베슬AI가 추진하는 글로벌 인프라 공급망 네오클라우드 전략의 본격적인 실행 단계에 해당한다. 회사는 이스라엘·미국·핀란드·한국을 포함한 6개 지역 데이터센터와 계약을 체결했으며 연내 신규 데이터센터 구축을 포함해 H200·B200·B300 등 GPU 1만 장 규모의 인프라를 단계적으로 확충할 계획이다. 이를 통해 증가하는 고성능 연산 수요에 대응한다는 방침이다. 현재 베슬 클라우드는 미국 피지컬 AI 스타트업부터 국내 대형 금융지주에 이르기까지 100여 개 기업 및 연구기관에서 이용되고 있다. 특히 로보틱스·미세 조정·자율주행 등 고성능 연산이 요구되는 딥테크 분야와 금융권에서 실제 상용 환경에 활용되며 안정성을 검증받고 있다. 베슬 클라우드는 지난 1월 한 달 만에 지난해 베슬AI 전체 연간 매출의 50% 이상을 기록했다. 이는 고성능 연산 자원 운영에 대한 시장 수요가 빠르게 확대되고 있음을 보여주는 지표다. 안재만 베슬AI 대표는 "AI 인프라 경쟁은 단순히 GPU 수량 확보를 넘어 전 세계에 분산된 자원을 얼마나 효율적으로 연결하고 운영하느냐가 핵심"이라며 "확충 중인 GPU 인프라와 이미 확인된 성장 흐름을 기반으로 올해 전년 대비 10배 이상의 매출 성장을 달성하고 네오클라우드 생태계를 글로벌 수준으로 확장해 나가겠다"고 말했다.

2026.02.24 14:13한정호 기자

정부, 고성능 GPU 1만5천장 확충한다…다음주 사업 공고 전망

정부가 올해 1만 5000장 규모의 고성능 그래픽처리장치(GPU)를 추가 확보하는 대형 사업을 다음주 공개할 전망이다. 지난해 1만 3000여 장 도입에 이어 2년 연속 대규모 확충에 나서며 국가 인공지능(AI) 인프라를 강화하는 모습이다. 20일 업계에 따르면 과학기술정보통신부는 '첨단 AI반도체 서버확충 및 통합운영환경 구축' 사업 공고를 이르면 다음주 말께 게시할 예정이다. 공고 시점은 내부 검토 상황에 따라 다소 유동적이지만 최대한 이른 시일 내 공개할 것으로 전해졌다. 이번 사업은 1만 5000장 이상 규모의 GPU를 확보·구축하는 내용으로 설계되고 있다. 총 지원 예산은 약 2조원 규모로 편성됐다. 확보된 자원은 민간 클라우드 서비스 제공업체(CSP)가 구축·운영하는 서비스형 GPU(GPUaaS) 방식으로 제공될 예정이다. 정부의 GPU 확충 정책은 지난해 추경을 통해 1만 3000여 장을 확보하는 등 단계적으로 추진돼 왔다. 이후 엔비디아와의 협력 발표를 계기로 중장기 공급 로드맵이 보다 구체화되면서 확충 속도에 힘이 실린 것으로 평가된다. 당시 정부는 2030년까지 총 26만 장 규모 GPU를 국내에 도입하는 계획을 제시했고 이 가운데 정부 몫은 5만 2000장 수준으로 제시됐다. 올해 추가 확보 사업도 이러한 중장기 로드맵을 이행하는 과정의 연장선이다. 정부는 지난해 약 1만 3000장의 GPU를 확보하고 네이버클라우드·NHN클라우드·카카오를 1차 사업자로 선정한 바 있다. 당시 확보 물량은 엔비디아 B200 1만 80장, H200 3056장으로 구성됐으며 이 중 1만장 이상이 정부 활용분으로 산학연 등에 순차 지원하도록 이뤄졌다. 특히 1차 사업에서는 GPU 통합지원 플랫폼 구축을 통해 산학연과 스타트업이 온라인으로 GPU 자원을 신청·배정받는 구조도 마련됐다. 정부와 운용 사업자들은 실무협의체를 구성해 확보·구축·운용 계획과 배분 일정 등을 점검해왔다. 이를 토대로 최근 정부가 진행하는 GPU 보급 사업에 초거대 AI 모델 개발을 추진하는 스타트업과 대학·연구기관의 관심이 집중되며 신청 수요가 빠르게 늘어난 것으로 전해졌다. 올해 사업은 이같은 기반에 GPU 물량을 더 확대하는 방식이다. 과기정통부 산하 정보통신산업진흥원(NIPA)은 지난달 통합 사업설명회를 통해 올해 GPU 1만 5000장 확보를 목표로 제시하며 국가AI컴퓨팅센터 설립과 병행 추진하겠다는 계획을 밝힌 바 있다. 이번 사업은 지난해 참여했던 네이버클라우드·카카오·NHN클라우드를 비롯해 KT클라우드 등 주요 CSP들의 참여 여부가 관심사로 떠오르고 있다. 이미 GPUaaS 운영 경험과 데이터센터 인프라를 갖춰 공공사업을 진행 중인 만큼 다시 한번 GPU 추가 확보에 나설 가능성이 거론된다. 사업 공고에 따라 단일 사업자, 복수 사업자, 컨소시엄 형태 등 다양한 방식이 검토될 수 있다는 관측도 나온다. 이번에 확보될 GPU는 산학연 연구 수요와 국가 전략 AI 프로젝트 등에 투입될 전망이다. 정부는 지난해 확보 물량을 통해 초대형 클러스터 기반 AI 워크로드 지원 체계를 마련했으며 올해 추가 물량을 통해 지원 범위와 규모를 더욱 확대한다는 구상이다. 사업 일정은 공고 이후 사업자 선정, 협약 체결, GPU 발주 및 구축 순으로 진행될 예정이다. 이와 함께 정부는 삼성SDS 컨소시엄이 수주한 국가AI컴퓨팅센터 구축도 병행하고 있다. 현재 금융 심사가 진행 중이며 관련 절차가 마무리되는 대로 인프라 확충 작업이 이어질 전망이다. 정부는 민간과 협력하는 GPUaaS 모델을 통해 단기 수요에 대응하고 중장기적으로는 국가 차원의 컴퓨팅 인프라를 체계화한다는 방침이다. 과기정통부 관계자는 "최대한 빨리 공고를 내기 위해 준비 중이며 내부 검토를 거쳐 다음주 말쯤 공개될 것으로 예상한다"고 밝혔다. 업계 관계자는 "지난해 사업을 통해 GPUaaS 운영 모델이 어느 정도 안착한 만큼, 올해 추가 물량까지 더해지면 국가에서 추진하는 다양한 AI 개발 프로젝트를 수준 높게 지원할 수 있을 것"이라고 말했다.

2026.02.20 14:52한정호 기자

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

앤트로픽 '클로드' 서버 장애 지속…국내 AI 서비스 영향

[국방 AX 거점④] "AI 인프라·인재 10년 키워…판교, 육군 전초기지로"

[르포] 한일 정상회담 후 달라진 日…현지 최대 IT 행사서 'K-AI'에 관심 폭발

[단독] 코인원, ‘특금법 위반’ 영업 일부정지 3개월 제재 가닥

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.