• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU 클라우드'통합검색 결과 입니다. (72건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[인터뷰] "AI 인프라 폭증 시대…해법은 카카오클라우드 하이브리드 GPUaaS"

"인공지능(AI) 서비스가 커질수록 인프라 비용 부담이 수익성을 잠식하는 구조가 고착화되고 있습니다. 이제는 클라우드만으로는 이 문제를 해결하기 어렵습니다." 카카오엔터프라이즈 이재한 클라우드부문 사업본부장은 최근 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간'에서 지디넷코리아와 만나 이같이 강조했다. AI 인프라 시장이 학습 중심에서 추론 중심으로 전환되는 과정에서 기업들이 비용 구조의 한계를 직면한다는 설명이다. 이 본부장은 "AI 서비스가 확산될수록 추론 트래픽이 급증하고 이에 따라 고가 그래픽처리장치(GPU) 사용이 불가피해진다"며 "매출이 늘수록 인프라 비용도 함께 증가하는 역설적인 상황이 이미 현실화되고 있다"고 진단했다. 카카오엔터프라이즈는 이러한 구조적 문제의 해법으로 '하이브리드 서비스형 GPU(GPUaaS)'를 제시하고 있다. 하이브리드 GPUaaS는 고객이 GPU 서버를 자산으로 보유하되, 카카오클라우드의 단일 콘솔과 플랫폼을 통해 퍼블릭 클라우드 GPUaaS와 동일한 방식으로 운영·관리할 수 있도록 한 모델이다. 초기 개발이나 기술검증(PoC) 단계에서는 클라우드 GPU를 활용해 민첩성을 확보하고 서비스가 본궤도에 오르면 GPU 자산화를 통해 중장기 총소유비용(TCO)을 낮추는 방식이 핵심이다. 이를 통해 클라우드의 유연성과 온프레미스의 비용 효율성을 동시에 확보할 수 있다. AI 추론 시대의 비용 딜레마, '하이브리드 GPUaaS'로 풀다 AI 인프라 시장의 가장 큰 변화는 추론 비용이 학습 비용을 추월하는 시점이 도래하고 있다는 점이다. 글로벌 리서치와 카카오엔터프라이즈의 분석에 따르면 내년을 전후로 AI 서비스의 총비용 구조에서 추론이 차지하는 비중이 학습을 넘어설 것으로 전망된다. 문제는 기존 '클라우드 온리' 전략이 이러한 환경에서 수익성 악화를 가속화할 수 있다는 점이다. 서비스 이용량이 늘수록 GPU 사용량이 증가하고 이는 곧 비용 증가로 직결된다. 일부 글로벌 AI 기업들이 대규모 자체 데이터센터 구축과 자산화 전략으로 회귀하는 배경도 여기에 있다. 이 본부장은 "국내 스타트업과 중소기업 입장에서는 대규모 온프레미스 구축이 현실적으로 쉽지 않다"며 "전력·상면·냉각·운영 인력까지 고려하면 초기 진입 장벽이 매우 높다"고 말했다. 실제 국내에서 최신 엔비디아 B200·B300급 GPU를 수용할 수 있는 데이터센터는 제한적이며 랙당 전력 밀도 역시 주요 제약 요소로 작용하고 있다. 이러한 상황에서 단순한 온프레미스 전환은 또 다른 부담으로 작용할 수 있다는 설명이다. 카카오엔터프라이즈는 이 지점에서 하이브리드 전략이 현실적인 대안이 된다고 바라봤다. 고정 수요는 자산화된 GPU로 처리하고 변동성이 큰 수요는 클라우드 GPUaaS로 흡수하는 구조다. 이 모델을 적용할 경우 퍼블릭 클라우드 GPUaaS 대비 약 33% 수준의 TCO 절감 효과를 기대할 수 있고 고객이 직접 온프레미스를 구축하는 방식과 비교해도 약 10~20% 비용 효율성이 개선된다는 것이 카카오엔터프라이즈의 분석이다. 이 본부장은 "결국 AI 서비스가 성장할수록 기업의 고민은 어떻게 GPU를 더 싸고 안정적으로 쓰느냐로 수렴한다"며 "하이브리드 GPUaaS는 그 질문에 대한 가장 현실적인 답"이라고 말했다. 운영·확장·가시성까지…"민첩성과 수익성 동시 확보 지원" 하이브리드 GPUaaS의 차별점은 단순 비용 절감에 그치지 않는다. 카카오엔터프라이즈는 유연성·효율성·가시성을 핵심 가치로 제시하고 있다. 먼저 유연성 측면에서 고객은 평상시에는 전용 GPU 자산을 활용해 최대 효율을 확보하고 트래픽이 급증할 경우 클라우드 GPU로 즉시 확장할 수 있다. 모든 자원은 하나의 VPC와 단일 콘솔에서 관리된다. 효율성 측면에서는 GPU 자원 할당과 회수, 모델 학습·배포·서빙까지 머신러닝 운영관리(MLOps) 기반 자동화를 지원한다. 이를 통해 유휴 GPU 발생을 최소화하고 운영 인력 부담을 줄일 수 있다. 가시성 역시 핵심 요소다. 물리적으로 분산된 GPU 자원을 단일 대시보드에서 모니터링하고 사용량·가동률·비용을 통합적으로 파악할 수 있어 TCO 관리가 용이하다. 보안 측면에서도 금융권 수준의 클라우드 서비스 제공사(CSP) 안정성 평가를 충족한 데이터센터 환경을 기반으로 서비스를 제공한다. 이는 규제 산업으로의 확장 가능성을 뒷받침하는 요소다. 이 본부장은 "하이브리드 GPUaaS는 금융권과 공공기관, 대규모 엔터프라이즈를 중심으로 도입 사례가 확산되고 있다"며 "전력과 상면 확보가 어려운 고객일수록 수요가 빠르게 늘고 있다"고 밝혔다. "GPU는 싸게만 쓰는 게 아니다"…플랫폼·통합 모니터링으로 차별화 카카오엔터프라이즈는 하이브리드 GPUaaS를 단순한 인프라 상품이 아니라 AI 플랫폼 전략의 출발점으로 보고 있다. 이 본부장은 "GPU 비용만 낮춘다고 AI 경쟁력이 생기는 것은 아니다"라며 "GPU를 얼마나 효율적으로 운영·관리하고 AI 개발과 서비스로 연결할 수 있느냐가 더 중요해지고 있다"고 설명했다. 이를 위해 카카오엔터프라이즈는 GPU 자원 통합 관리와 모니터링을 중심으로 한 AI 플랫폼 고도화를 추진하고 있다. 온프레미스 GPU와 카카오클라우드 GPUaaS는 물론, 외부에 분산된 GPU 자원을 일원화해서 하나의 대시보드로 통합 관리하는 방향을 준비 중이다. 이 본부장은 "고객 입장에서는 GPU가 어느 인프라에 있든 상관없이 하나의 콘솔에서 쓰는 것이 중요하다"며 "하이브리드 GPUaaS는 이런 통합 관리 전략을 실현하기 위한 기반"이라고 말했다. 특히 GPU 사용 현황, 가동률, 성능, 비용을 실시간으로 모니터링하고 학습·추론 워크로드를 효율적으로 배치하는 기능이 핵심이다. 이를 통해 불필요한 유휴 자원을 줄이고 AI 서비스 운영 단계에서의 비용 예측 가능성을 높인다는 구상이다. 카카오엔터프라이즈는 이러한 통합 운영 역량이 향후 AI 플랫폼 경쟁력의 핵심 요소가 될 것으로 보고 있다. 단순히 GPU를 제공하는 것을 넘어 AI 모델 학습부터 배포·서빙·운영까지 이어지는 전체 흐름을 플랫폼 차원에서 지원하겠다는 전략이다. 카카오엔터프라이즈 이재한 본부장은 "AI 비즈니스가 지속 가능하게 성장하려면 인프라 비용을 통제할 수 있는 구조가 필요하다"며 "카카오클라우드의 하이브리드 GPUaaS는 AI를 위한 멀티·하이브리드 전략의 한 축으로 자리 잡을 것"이라고 강조했다. 이어 "하이브리드 GPUaaS를 통해 고객이 성장 단계에 맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 적극 돕겠다"고 덧붙였다.

2025.12.21 16:19한정호

엘리스그룹, AI 클라우드 인프라 혁신으로 과기정통부 장관 표창 수상

엘리스그룹(대표 김재원)이 18일 서울 코엑스에서 열린 '2025 데이터∙클라우드 산업 진흥 유공자 표창 시상식'에서 클라우드 산업발전 유공 부문 과학기술정보통신부 장관 표창을 수상했다. 과학기술정보통신부가 주최하고, 정보통신산업진흥원(NIPA)과 한국지능정보사회진흥원(NIA)이 주관하는 '클라우드 산업발전 유공 표창'은 클라우드 산업 활성화와 클라우드 컴퓨팅 기술 발전에 기여한 유공자 및 기관을 선정해 수여하는 상이다. 정책 및 기술 개발은 물론, 민간과 공공부문의 클라우드 도입 확산에 대한 기여도를 평가한다. 엘리스그룹은 수랭식 B200 기반 고성능 AI 데이터센터를 구축하고, 자체 기술 기반의 AI 클라우드 인프라를 산업 전반에 확산시켜 국내 AI 생태계 활성화에 기여한 점을 인정받아 '미래선도∙산업고도화' 분야에서 표창을 수상했다. 특히, 고성능∙고효율 모듈형 데이터센터 '엘리스 AI PMDC'와 AI 전용 IaaS 'ECI(Elice Cloud Infrastructure)'를 중심으로, 기업과 연구기관이 대규모 GPU 자원을 보다 유연하고 안정적으로 활용할 수 있는 AI 클라우드 환경을 제공하고 있다. 이와 함께 제조∙의료∙공공 등 산업별 특화 AI 솔루션, 교육 현장을 위한 AI 교육∙평가 플랫폼, 업무 생산성을 높이는 생성형 AI 솔루션 및 에이전트까지 확장하며 데이터센터 인프라부터 AI 서비스 레이어까지 이어지는 AI 풀스택 역량을 확보했다. 현재 엘리스클라우드는 4천800개 이상의 고객 기관을 확보하고 있으며, 대기업과 스타트업, 학교, AI 연구실 등 다양한 고객층에서 활용되고 있다. 정부 주도의 'AI 특화 파운데이션 모델 프로젝트 사업'에 고성능 GPU 인프라를 공급하는 한편, 산업용 로봇 개발사와 의료 AI 스타트업 등 제조∙의료∙공공 분야 전반에서 AI 전환(AX) 성과 확산을 이끌고 있다. 김재원 엘리스그룹 대표는 “국내 AI 인프라 확장이 본격화되는 시점에 클라우드 산업발전 유공 표창을 받게 돼 큰 책임감을 느낀다”며 “내년에 고성능 GPU 1만 장 규모의 인프라 구축을 통해 누구나 필요한 만큼 AI를 잘 활용할 수 있는 환경을 조성하고, 국내 AI 산업의 글로벌 도약을 적극 뒷받침하겠다”고 말했다. 또 “모듈형 AIDC 인프라부터 산업별 AI 솔루션, 교육과 에이전트까지 연결하는 AI 풀스택 기업으로서 기업과 기관의 실질적인 AI 전환 성과를 만들어가겠다”고 덧붙였다.

2025.12.19 09:54백봉삼

"엔비디아 종속 벗어나자"…구글-메타, TPU 활용 범위 확장

구글이 인공지능(AI) 인프라 시장을 장악한 엔비디아에 대응하기 위해 메타와 협력한다. 18일 로이터통신에 따르면 구글클라우드는 메타 손잡고 AI 개발 도구 '파이토치'를 텐서처리장치(TPU)에서 구동할 수 있는 기술 개발에 착수한 것으로 전해졌다. 그동안 엔비디아 인프라에 묶인 생태계를 개방형으로 전환해 구글클라우드 독자 칩인 TPU 활용도를 끌어올리기 위한 전략이다. 파이토치는 AI 모델 구축에 필수적인 프로그래밍 도구다. 전 세계 개발자들 사이에서 사실상 표준으로 자리 잡았으나 그간 엔비디아 인프라에서만 가장 높은 성능을 발휘해 왔다. 이로 인해 개발자들이 구글클라우드의 TPU를 사용하려면 새로운 도구 습득에 따른 비용과 시간을 감수해야 했고 이는 구글클라우드 칩 생태계 확장의 고질적인 걸림돌로 작용했다. 구글클라우드는 이런 기술적 장벽을 허물기 위해 내부 프로젝트인 '토치TPU'를 가동하고 파이토치와 인프라 연동성을 올리는 데 집중하고 있다. 프로젝트가 성과를 거두면 개발자들은 기존 SW 환경을 유지하면서 HW만 엔비디아에서 구글클라우드의 TPU로 손쉽게 교체할 수 있는 유연성을 확보하게 된다. 특히 이번 프로젝트에는 파이토치의 종가인 메타가 직접 참여해 구글클라우드와 공조 체계를 이룬 것으로 알려졌다. 양측은 최근 수십억 달러 규모의 TPU 공급 방안을 논의 중이며 메타는 이를 통해 초지능 AI 개발에 필요한 막대한 인프라 구축 비용을 절감할 수 있을 것으로 기대된다. 구글클라우드 대변인은 "개발자가 선택한 HW에 관계없이 필요한 유연성과 확장성을 제공하는 데 주력하고 있다"고 밝혔다.

2025.12.18 18:14김미정

"AI 추론 비용 내년부터 폭증…하이브리드 GPUaaS가 부담 덜 것"

카카오엔터프라이즈가 인공지능(AI) 인프라의 새로운 대안으로 '하이브리드 서비스형 그래픽처리장치(GPUaaS)를 제안했다. 내년에 AI 서비스가 더 많이 이용되면서 클라우드 비용이 급증할 것으로 예상되는 만큼 유연성과 경제성을 동시에 확보하는 가장 현실적인 해법이 '하이브리드 GPUaaS'가 될 것으로 판단해서다. 카카오엔터프라이즈는 지난 16일 과학기술정보통신부가 주최하는 '2025 AI를 위한 데이터&클라우드 진흥주간' 행사에 이재한 클라우드부문 사업본부장이 참여해 이처럼 강조했다고 17일 밝혔다. 오는 19일까지 서울 강남구 코엑스 그랜드볼룸에서 열리는 '데이터&클라우드 진흥주간'은 '모두를 위한 AI, AI를 위한 데이터&클라우드'라는 슬로건 아래 데이터 및 클라우드 업계 관계자들이 모여 최신 기술, 산업 동향, 미래 방향 등을 공유할 수 있는 자리다. 이재한 카카오엔터프라이즈 클라우드부문 사업본부장은 이번 행사에 참석해 "2026년에는 AI 추론에 드는 비용이 학습 비용을 추월할 전망"이라며 "AI 서비스가 더 많이 이용될수록 추론에 소요되는 클라우드 비용이 급증하면서 AI 서비스 기업 및 기관의 적자폭이 커지는 구조적인 문제에 직면할 가능성이 높다"고 내년 AI 서비스 시장을 전망했다. 이어 "GPU는 AI 모델과 서비스 개발에 필수 요소이나, GPUaaS(서비스형 GPU)는 비용 부담이 높고 온프레미스 방식은 구축이나 상면 확보, 운영 등의 부담이 높다는 측면이 있다"며 "AI 서비스 기업 및 기관은 비즈니스 성장 단계에 따라 빠르게 증가하는 클라우드 비용을 절감할 수 있는 방법을 고민하며, GPU 등 자산 확보를 통한 수익성 개선 방안을 염두에 두어야한다"고 강조했다. 카카오엔터프라이즈는 이러한 AI 서비스 기업 및 기관의 부담을 해소할 수 있도록 고객이 GPU를 자산으로 소유하고 카카오클라우드가 GPU 클러스터를 구축 및 운영하는 새로운 형태의 하이브리드 GPUaaS를 선보인 바 있다. 카카오클라우드의 하이브리드 GPUaaS는 불확실한 초기 개발 및 기술 검증(PoC) 단계에서는 클라우드를 통해 투자 리스크를 최소화하며 민첩성을 확보하고, 비즈니스가 본 궤도에 오르는 시기에 자산화를 통해 효율적으로 수익성을 개선할 수 있도록 지원한다. 이 사업본부장은 "우리의 하이브리드 GPUaaS는 클라우드의 '유연성'과 소유의 '경제성' 등 두 가치를 동시에 확보할 수 있는 가장 현실적이고 강력한 해답"이라며 "우리는 AI 서비스 기업 고객과 기관의 클라우드 전략 파트너로서 고객이 불확실한 비즈니스 환경에서도 성장 단계에 발맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 가장 효율적이고 안정적인 방안을 제시할 것"이라고 말했다.

2025.12.17 15:27장유미

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

오라클, "AI가 DB 안으로"…AI 데이터베이스 26ai로 차별화 승부

오라클이 데이터를 밖으로 빼내지 않고 데이터베이스에서 바로 인공지능(AI)을 실행하는 방식을 앞세워 AI 데이터플랫폼 기업으로 거듭나겠다고 선언했다. 한국오라클은 11일 서울 강남구 아셈타워에서 미디어 브리핑을 열고 오라클 AI 월드 2025의 주요 발표 내용을 국내 시장 관점에서 재정리했다. 올해 처음 개최된 오라클 AI 월드는 기존 글로벌 연례 행사였던 '오라클 클라우드월드'의 이름을 바꾼 것으로 클라우드 인프라와 데이터베이스, 애플리케이션 전반을 AI 중심으로 재편하는 전략이 집중적으로 소개된 무대다. 행사에서 나정옥 한국오라클 부사장(클라우드 엔지니어링 총괄)은 AI 전략의 출발점을 'AI를 위한 데이터'가 아니라 '데이터를 위한 AI(AI for Data)'라고 규정했다. 그는 "AI 도입의 성패는 '데이터 이동'을 얼마나 줄이느냐에 달렸다"며 "오라클은 데이터를 AI 모델로 가져가는 비효율을 없애고, 데이터가 저장된 바로 그곳에 AI를 심는 '데이터 중심' 전략으로 시장 판도를 바꾸겠다"고 강조했다. 나 부사장은 "오픈AI가 오라클을 선택한 이유도 타사가 수년 걸릴 대규모 클러스터를 1년이 채 안 되는 기간에 구축할 수 있는 인프라 역량 때문"이라며 "AI를 위해 데이터를 밖으로 빼내지 않는다는 원칙 아래, 데이터가 머무는 자리로 AI를 가져오는 것이 오라클 전략의 핵심"이라고 말했다. 차세대 인프라 전략은 장진호 상무가 설명했다. 그는 오라클 클라우드 인프라(OCI)의 기존 '젠2(Gen 2)' 클라우드 아키텍처를 AI 워크로드에 맞게 재설계한 '엑셀러론(Acceleron)' 기반 인프라를 소개했다. 엑셀러론은 GPU 간 연결 구조와 네트워크, 스토리지를 모두 AI 학습·추론에 맞게 최적화한 구조로, 수십만개의 GPU를 하나의 거대한 클러스터로 묶는 것이 특징이다. 실제로 오라클은 엔비디아 GPU를 최대 80만개까지 단일 클러스터로 연결하는 'OCI 제타스케일10(Zettascale10)' 아키텍처를 공개했으며, 미국 텍사스 애빌린에 오픈AI와 함께 구축 중인 '스타게이트' 슈퍼클러스터의 기반 패브릭으로 적용하고 있다. 장 상무는 "엑셀러론은 단순히 하드웨어를 늘린 것이 아니라, 네트워크와 스토리지까지 전 계층을 AI 워크로드에 맞춰 다시 설계한 인프라"라며 "이미 13만장 규모 GPU 클러스터를 운영 중이고, 제타스케일10을 통해 80만장 수준까지 확장하는 '물리적 체급'의 차이를 보여줄 것"이라고 말했다. 데이터베이스 측면에서는 '오라클 AI 데이터베이스 26ai'가 프레임 전환의 중심에 섰다. 오라클은 기존 '오라클 데이터베이스 23ai'에서 선보였던 AI 벡터 검색, 셀렉트 AI 기능을 발전시켜 26ai에 통합했다. 조경진 상무는 "벡터 검색은 기계가 사람처럼 문맥과 의미를 이해하게 만드는 핵심 기술"이라며 "오라클은 별도 벡터 데이터베이스를 따로 구축하지 않고도, 기존 데이터베이스 안에서 관계형 데이터와 문서, 이미지 같은 비정형 데이터를 함께 벡터로 다루고 검색할 수 있다"고 설명했다. 그는 "개발자는 익숙한 SQL과 JSON, 그래프, 공간 데이터 위에 AI 벡터 검색을 얹어, 복잡한 인프라를 다시 짜지 않고도 LLM, RAG 같은 고급 AI 기능을 구현할 수 있다"고 덧붙였다. 실제 시연에서는 자연어로 "이번 달 배송 지연 건수는?"이라고 묻자, 셀렉트 AI가 데이터베이스 스키마 정보를 바탕으로 SQL을 자동 생성해 결과를 반환하는 화면이 소개됐다. 오라클 셀렉트 AI는 자연어를 SQL로 변환하고, 필요할 경우 기업 문서와 로그를 벡터로 변환해 함께 조회하는 방식으로 '대화하듯 데이터에 질의'하는 경험을 제공한다. 조 상무는 "결국 중요한 것은 LLM이 아니라 기업 고유 데이터"라며 "데이터베이스 안에 AI를 내장해 개발자와 데이터 분석가가 기존 워크플로를 거의 바꾸지 않고도 AI 기능을 쓰게 하는 것이 목표"라고 말했다. 데이터 플랫폼 전략은 김태완 상무가 맡았다. 그는 파편화된 데이터를 하나로 엮는 '오라클 AI 데이터 플랫폼'과 '오픈 데이터 레이크하우스', '제로 ETL(Zero-ETL)' 전략을 함께 제시했다. 김 상무는 "이제 데이터가 어디에 있든 상관없는 '오픈 데이터' 시대"라며 "오라클의 전략은 데이터를 복제하거나 옮기는 작업을 최소화해, 이동에 드는 시간과 비용을 없애는 '제로 ETL'을 실현하는 것"이라고 강조했다. 그는 "AWS, 마이크로소프트 애저, 구글 클라우드 등과의 멀티클라우드 연동을 통해, 여러 클라우드에 흩어진 데이터를 데이터 사일로 없이 하나의 논리적 플랫폼처럼 다루게 하는 것이 목표"라고 설명했다. 보안과 규제 준수 측면에서 오라클은 '프라이빗 AI'를 핵심 차별점으로 내세웠다. 나정옥 부사장은 "많은 기업이 비싼 GPU를 도입해 놓고도, 데이터 반출과 규제 이슈 때문에 실제 업무에는 쓰지 못하고 있다"며 "오라클은 'AI를 위해 데이터를 밖으로 빼내지 않는다'는 철학 아래, 데이터가 저장된 데이터베이스와 데이터 레이크, 애플리케이션 주변에 AI를 심는 구조를 택했다"고 말했다. 그는 "데이터 주권과 규제가 중요한 금융, 공공, 제조 기업이 기존 보안·거버넌스 체계를 그대로 유지한 상태에서 고성능 AI를 쓸 수 있도록 하는 것이 오라클 프라이빗 AI의 지향점"이라고 부연했다.

2025.12.11 21:50남혁우

과기정통부 "AI 3대 강국, 정부·민간 협력 생태계 구축해 달성한다"

"인공지능(AI)을 국가 성장의 핵심축으로 삼고 민간과 함께 생태계를 구축하겠습니다." 과학기술정보통신부 장기철 인공지능데이터진흥과장은 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 국가 AI 경쟁력 강화와 디지털 인프라 전환에 대해 이같이 밝혔다. 지디넷코리아가 주최한 ACC 2025는 AI와 클라우드 분야의 실질적 비즈니스 성과 창출 방안을 모색하는 대표 기술 컨퍼런스다. 올해 행사에는 과기정통부 비롯해 구글 클라우드·삼성SDS·뉴타닉스 코리아·아카마이·알리바바 클라우드·나무기술 등 글로벌 및 국내 주요 기업들이 대거 참여해 성황을 이뤘다. 이날 장 과장은 글로벌 'AI 3대 강국(AI G3)' 도약을 목표로 하는 정부의 AI 정책 확대 로드맵을 공유했다. 그는 "현재 우리나라 AI의 수준은 미국·중국을 뒤따르는 3위권 그룹으로, 앞으로는 압도적인 3강을 굳히는 것이 목표"라고 말했다. 특히 글로벌 AI 모델 평가 지표에서 LG AI연구원의 '엑사원', 업스테이지 '솔라' 모델이 상위권에 오른 점을 언급하며 "우리도 톱티어 모델을 만들 역량이 있다"고 덧붙였다. 정부는 AI G3 도약을 위해 내년 대규모 예산을 투입한다. 정부 AI 예산 10조원, 국민성장펀드를 통한 AI 투자 30조원 등을 통해 GPU·데이터·반도체·모델·인재까지 이어지는 AI 풀스택 역량을 모두 강화한다는 방침이다. 특히 2030년까지 엔비디아 26만 장 그래픽처리장치(GPU)를 확보하는 계획을 바탕으로 한국형 'AI 고속도로' 구축에 속도를 낼 전망이다. 장 과장은 AI 인재 문제도 시급한 과제로 꼽았다. 국내에서 충분한 GPU를 써볼 기회가 없어 연구자들이 해외로 빠져나가는 현실을 타개하고자 정부는 ▲해외 AI 인재 특별비자 도입 ▲AI대학원·AX 융합대학원 확대 ▲AI 스타펠로우십 지원 등 제도 개선을 추진하고 있다. 또 '독자 AI 파운데이션 모델 프로젝트'에도 속도를 낸다. 장 과장은 "프롬 스크래치 기술을 갖춘 우수 국내 AI 기업들과 함께 글로벌 톱 모델 확보에 도전한다"며 "공공·민간의 데이터와 GPU, 인재 등 기술과 정부 지원 역량을 결합해 글로벌 모델 10위권에 진입할 것"이라고 밝혔다. AI 기반 국가 대전환 전략도 소개됐다. 제조·지역·공공·과학 분야로 구분된 AX 전략을 통해 AI 로봇·AI 공장·AI 복지·AI 납세 관리 등 전 산업·행정 분야의 디지털 혁신을 동시 추진한다는 구상이다. 장 과장은 "대통령 직속 국가AI전략위원회를 중심으로 범부처 협업을 강화해 AI 정부로 전환되고 있다"고 강조했다. 아울러 지난 9월 국가정보자원관리원 화재 사고 이후 국가가 운영하는 디지털 인프라의 안정성 확보 대책도 언급됐다. 그는 "국가에서 관리하는 데이터센터들이 민간 클라우드를 더 많이 활용할 수 있도록 방안을 마련 중"이라며 "국가AI전략위원회에서 별도 대책을 준비하고 있어 이른 시일 내 발표될 것"이라고 말했다. 장 과장은 AI G3 도약을 위한 향후 정부의 역할도 공유했다. 예산 측면에서는 마중물 역할을, 산업 측면에서는 규제 완화와 공공 조달을 통한 초기 시장 조성을 핵심 방향으로 제시했다. 그는 "정부가 AI에 있어 모든 것을 다 할 수 있다고 생각하지 않는다"며 "민간이 AI 비즈니스를 잘할 수 있도록 적절한 제도와 환경을 만드는 데 집중하겠다"고 말했다.

2025.12.11 17:34한정호

래블업 "인간 지능 대체 시도 활발…수직 통합·오픈 생태계 해법으로"

래블업이 인간의 지능을 대체하고자 하는 시도가 활발하게 일어나는 현 시점에 기술적 문제의 해결법으로 수직 통합과 대규모 오픈 생태계 진입을 제시했다. 김준기 래블업 최고기술책임자(CTO)는 11일 서울 중구 신라호텔에서 열린 'ACC 2025'에서 "AI 기술이 등장하면서 이전에는 슈퍼컴퓨터를 동원해야만 계산할 수 있었던 연산들이 적은 개수의 서버로 수행할 수 있게 되면서 AI 모델이 저정밀도 환경에서도 잘 작동한다는 깨달음을 얻게 됐다"며 "고도화된 AI 모델을 만들고 이를 통해 인간의 지능을 대체하는 시도들이 활발하게 일어나고 있는 게 현재 시점"이라고 말했다. 'ACC 2025'는 지디넷코리아가 주관·주최하고 과학기술정보통신부, 래블업, 네이버 등이 후원하는 컨퍼런스다. 이 자리에서 김 CTO는 "경제적인 동인에 따라 그래픽처리장치(GPU)의 아키텍처가 점점 빈틈없이 메워지기 시작했다"며 "이전에는 인간의 고유한 지적 활동으로 취급됐던 지능이 산업적 측면에서 재화나 물품으로 취급될 수 있다는 시각이 나왔다"고 설명했다. 또 그는 이 과정에서 고장 등의 현실적인 문제가 발생했으나, 래블업은 이같은 컴퓨팅 인프라를 관리하는 데 필요한 여러 기술적 어려움과 고민들을 숨겨주는 것을 목표로 하고 있다고 언급했다. 이를 위해 이 회사는 오픈소스 개발 단계에서 여러 엔터프라이즈 확장 기능을 붙이는 방식을 추구하고 있다. 또 간단한 PC 스케일부터 클라우드까지 가능한 일관된 경험을 제공하는 것을 목표로 개발을 이어가고 있는 상황이다. 김 CTO는 "다양한 층위에서 사실 공통된 원리들이 적용되는데 이를 시스템 디자인에 얼마나 잘 녹여낼 수 있느냐에 대한 고민을 많이 하고 있다"며 "보안에 대한 문제도 고민 중"이라고 말했다. 그는 기술적으로 아무리 복잡한 문제를 해결했어도 이를 실제 고객에게 공급하고 기술 지원을 할 것이냐는 어려운 문제라고 토로했다. 김 CTO는 "기술적 관점에서 가능한 수직 통합을 해 모든 요소를 우리 통제 하에 두겠다는 것이 하나의 방향"이라며 "요즘 고민하는 것은 어느 정도 안정성 등이 검증된 대규모 오픈 생태계인 '거인의 어깨'에 올라타는 전략"이라고 언급했다. 다만 래블업은 AI 시장이 이제 시작 단계에 있다고 보고 다양한 특화 환경에 맞는 AI 반도체 등장을 염두에 두고 특정 벤더에 종속되지 않는 형태의 디자인에 대한 개발을 내부적으로 이어오고 있다고 강조했다. 김 CTO는 "지능 인프라를 공급하는 회사로 다양한 기술적 문제를 해결해나가고 있다"며 "이런 부분이 여러분들의 의사결정과 연구개발에 도움이 됐으면 좋겠다"고 밝혔다.

2025.12.11 16:53박서린

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

와탭랩스 "향후 10년 AI 네이티브 옵저버빌리티 시대 주도한다"

"인공지능(AI) 인프라 시대에는 그래픽처리장치(GPU)와 클라우드 네이티브 환경을 아우르는 통합 옵저버빌리티가 기업 경쟁력을 좌우할 것입니다" 이동인 와탭랩스 대표는 지난 20일 웨스틴 서울 파르나스 호텔에서 열린 '와탭 옵저브 서밋 2025' 기자간담회에서 AI 시대 옵저버빌리티의 역할에 대해 이같이 강조했다. 이날 와탭랩스는 GPU·쿠버네티스·온프레미스·서비스형 소프트웨어(SaaS) 환경을 통합하는 차세대 옵저버빌리티 전략을 공유했다. 최근 AI 인프라 확장에 따라 관측·분석해야 할 IT 지표가 기하급수적으로 늘어나는 상황에서 이를 실시간 통합해 해석할 수 있는 와탭랩스 플랫폼의 수요가 늘고 있다. 이에 대해 와탭랩스 김성조 최고기술책임자(CTO)는 "향후 데이터센터는 GPU 기반 AI 인프라 중심으로 빠르게 재편될 것"이라며 "데이터 규모와 시스템 복잡도가 폭발적으로 증가하는 만큼, 효율적으로 AI를 활용하기 위해서는 통합 옵저버빌리티 전략의 중요성이 더 커질 수밖에 없다"고 말했다. 이런 흐름에 맞춰 와탭랩스는 GPU 전력 단계부터 서버·컨테이너·쿠버네티스까지 전 계층을 연동해 분석하는 기존에 존재하지 않던 형태를 개발 과정에 반영했다. 상당한 기술적 어려움을 극복한 와탭랩스는 올해 GPU 모니터링 솔루션을 공식 출시해 다수 기업과 기술검증(PoC)을 진행하며 국내 최다 수준의 GPU 모니터링 경험을 확보했다고 강조했다. 이 대표는 "국내 기업들이 GPU 인프라 운영 규모를 크게 공개하지 않는 상황에서도 문의가 꾸준히 증가하고 있다"며 "내년에는 GPU 모니터링 사업이 올해의 4배 수준인 매출 20% 기여도까지 확대될 수 있을 것"이라고 전망했다. 쿠버네티스 모니터링 경쟁력에 대한 강점도 소개했다. 실시간성을 기반으로 한 초 단위 분석, 직관적 UI, SaaS·온프레미스 동시 제공 구조가 글로벌 모니터링 솔루션과 차별화되는 핵심 요소라는 설명이다. 해외 제품들이 분 단위로 데이터를 집계하는 것에 비해 와탭랩스 플랫폼은 전 계층을 초 단위로 수집해 즉시 분석할 수 있어 실시간 대응에 최적화돼 있다는 것이다. 글로벌 확장 로드맵도 공유했다. 이 대표는 "일본·동남아 시장에서 빠르게 성장하고 있으며 특히 동남아에서는 전년 대비 2배 이상의 매출을 기대하고 있다"며 "아시아 기업은 온프레미스 기반 풀스택 옵저버빌리티 수요가 여전히 높아 우리 플랫폼의 구조적 강점이 크게 작용하고 있다"고 밝혔다. 이어 "내년에는 미국 진출도 본격 추진할 계획"이라고 덧붙였다. 이번 서밋에서 와탭랩스는 데이터 레이크 기반의 AI 레디 옵저버빌리티 플랫폼 '옵스레이크'를 중심으로 GPU 모니터링 고도화, AI 기반 운영 자동화, 오픈 메트릭 통합 등 기술 로드맵도 발표했다. 행사에는 아마존웹서비스(AWS)를 비롯한 주요 파트너사·고객사가 참여해 GPU·AI·테크·비즈니스 분야의 실제 활용 사례도 공유했다. 와탭랩스는 올해 가트너 '인프라 모니터링 도구 마켓 가이드'에서 국내 기업 중 유일하게 대표 기업으로 선정되는 등 기술력을 입증했다. 1천200여 고객사 기반의 글로벌 사업 확장도 지속 추진한다는 목표다. 이 대표는 "AI가 개발과 운영 방식을 근본적으로 재정의하고 있는 지금, 옵저버빌리티는 AI의 속도를 따라가기 위한 기업의 엔진이자 중심축이 되고 있다"며 "앞으로의 10년은 우리가 주도하는 AI 네이티브 옵저버빌리티 시대로 만들겠다"고 강조했다.

2025.11.21 09:01한정호

엔비디아 손잡은 메가존클라우드, AI 총판으로 IPO 기대감 '↑'

메가존클라우드가 엔비디아와 국내 AI 인프라 총판 계약을 체결했다. 상장(IPO)을 추진 중인 상황에서 AI 인프라 사업 역량을 강화하고 기업 가치와 성장 스토리를 보강할 수 있는 계기를 마련했다는 평가다. 메가존클라우드는 17일 엔비디아와 국내 AI 인프라 총판 계약을 체결했다고 밝혔다. 총판 계약의 범위는 데이터센터·기업·공공 등 기업간 거래(B2B) 영역의 AI 인프라를 중심으로 한다. 개인용 그래픽카드 등 B2C 리테일 시장은 포함되지 않는다. 관련 업계에서는 이번 총판 계약이 메가존클라우드를 AI 인프라 시대의 핵심 사업자로 부상시키는 동시에 IPO를 앞두고 수익 구조와 성장 스토리를 구체화하는 계기가 될 것으로 보고 있다. 엔비디아 손잡은 메가존클라우드, 플랫폼형 AI 총판으로 도약 메가존클라우드는 DGX·HGX GPU 서버와 인피니밴드 기반 고성능 네트워크 장비 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급하며 AI 인프라 공급과 생태계 확산에 본격 나선다. 이를 통해 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요를 겨냥한다는 계획이다. 특히 이번 계약을 단순 하드웨어 유통을 넘어 '플랫폼형 총판' 모델로 가져간다는 전략이다. 고객사의 AI 사업을 빠르게 추진할 수 있도록 AI 인프라 설계·구성 지원, AI 기술 검증(PoC)과 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계 등 전 과정을 패키지로 제공한다. 하드웨어 납품과 더불어 인프라 설계, 운영, 인력 역량 강화까지 하나의 서비스 체계로 묶어 제공하겠다는 구상이다. 이를 통해 메가존클라우드는 엔비디아라는 벤더와 국내외 파트너, 최종 고객을 하나의 플랫폼 위에서 기술적으로 오케스트레이션하는 허브 역할을 자처한다. GPU와 네트워크 장비와 함께 클라우드·보안·운영·애플리케이션을 얹어 수익성을 높이는 서비스·플랫폼 사업의 출발점으로 삼겠다는 것이다. 기업 내부에서도 총판 마진 자체보다 상위 레이어 비즈니스에서 나오는 장기 매출과 이익 기여에 더 큰 무게를 두고 있는 것으로 전해진다. 이미 메가존클라우드는 클라우드 매니지드 서비스(MSP)와 디지털 전환(DX) 사업을 통해 다수의 고객 인프라를 운영해 온 경험을 갖고 있다. 2천여명의 클라우드·AI 기술 전문가를 보유하고 있으며, 국내외 8천여곳의 고객사를 대상으로 클라우드 전환과 운영을 지원하고 있다. 이 밖에도 글로벌·국내 주요 클라우드 서비스 제공업체(CSP)와 전략적 협력 관계를 구축하고 1백50여곳의 ISV 파트너, 자체 개발한 클라우드·AI·보안 솔루션 포트폴리오도 확보한 상태다. 메가존클라우드는 이러한 기반 위에 엔비디아 총판 역량을 더해 GPU 인프라 조달부터 배치, 운영, 비용·성능 최적화, 상위 애플리케이션까지 원스톱으로 제공하는 AI 인프라 플랫폼 사업을 강화하겠다는 입장이다. 메가존클라우드, AI 인프라 총판으로 IPO 기대감 ↑ 관련 업계에서는 이번 계약이 상장을 준비 중인 메가존클라우드의 기업 가치 제고에도 우호적으로 작용할 것으로 분석 중이다. 글로벌 AI 인프라 시장에서 사실상 표준으로 자리 잡은 엔비디아와의 전략적 총판 계약은 메가존클라우드가 단순 클라우드 MSP를 넘어 AI 인프라 플랫폼 기업으로 포지셔닝을 강화하는 신호로 읽히기 때문이다. 회사가 그동안 쌓아 온 클라우드, 데이터, 보안 사업 위에, 엔비디아 GPU 총판이라는 상징성과 성장 동력을 추가해 IPO 스토리를 한층 풍부하게 만들 수 있다는 기대도 제기된다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 전개할 계획이다. 산업별 기술 세미나와 고객 대상 웨비나를 열고 개념검증(PoC) 지원 캠페인과 파트너 기술 교육 프로그램을 운영해 엔비디아 기반 AI 인프라 도입을 확대한다는 방침이다. 메가존클라우드는 기존 고객 기반과 글로벌 파트너 네트워크를 활용해 제조·금융·공공·게임·미디어 등 주요 산업에서 AI 인프라 레퍼런스를 빠르게 확보하고, 이를 다시 레퍼런스 패키지로 전환하는 선순환 구조를 만들겠다는 구상이다. 메가존클라우드 염동훈 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 돕겠다"고 말했다.

2025.11.17 17:05남혁우

메가존클라우드, 엔비디아 한국 총판 계약…AI 인프라 플랫폼 사업 본격화

메가존클라우드(대표 염동훈)가 엔비디아와 한국 총판 계약을 체결했다. 이를 바탕으로 하고 인공지능(AI) 인프라 설계부터 구축·운영, 교육까지 아우르는 '플랫폼형 총판' 모델로 국내 AI 인프라 시장 공략에 속도를 낼 계획이다. 메가존클라우드는 엔비디아와 한국 총판 계약을 체결했다고 14일 밝혔다. 양사는 13일 과천 메가존산학연센터에서 염동훈 메가존클라우드 대표와 제프 팬처 엔비디아 글로벌 총판 총괄, 정소영 엔비디아코리아 대표 등 주요 경영진이 참석한 가운데 총판 계약 체결식을 진행했다. 메가존클라우드는 이번 계약을 통해 엔비디아의 국내 공식 총판으로서 AI 인프라 공급과 AI 생태계 확산을 본격 추진할 계획이다. 이번 계약으로 메가존클라우드는 엔비디아의 DGX·HGX GPU 서버와 고성능 네트워크 장비인 인피니밴드(InfiniBand) 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급한다. 메가존클라우드는 이를 기반으로 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 비전 및 엣지 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요에 대응한다는 방침이다. 메가존클라우드는 단순 제품 유통을 넘어 고객의 AI 사업을 빠르게 추진할 수 있도록 지원하는 새로운 개념의 '플랫폼형 총판' 운영 모델을 도입한다. 이를 통해 AI 인프라 설계와 구성 단계부터 기술 검증(PoC), 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계까지 전 과정을 기술적으로 오케스트레이션하는 역할을 수행한다. 메가존클라우드는 벤더·파트너·고객을 효율적으로 연결해 복잡한 AI 인프라 도입 과정을 단순화하고, 파트너가 자체 서비스와 솔루션을 빠르게 시장에 선보일 수 있도록 돕겠다는 구상이다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 강화한다. 산업별 기술 세미나와 고객 대상 웨비나, PoC 지원 캠페인, 파트너 기술 교육 프로그램 등 다양한 활동을 통해 고객 접점을 넓히고, 파트너 생태계 육성에도 나설 계획이다. 특히 각 산업별 레퍼런스 구축과 사례 공유를 통해 국내 기업들의 AI 도입 장벽을 낮추고 활용 범위를 넓히는 데 집중한다는 전략이다. 염동훈 메가존클라우드 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 하겠다"고 말했다.

2025.11.14 10:39남혁우

[종합] 韓 클라우드, AI 인프라 힘입어 나란히 성장…GPU 확보·효율화 경쟁 '점화'

국내 주요 클라우드 기업 네이버·KT·NHN이 3분기 나란히 성장세를 보였다. 글로벌 인공지능(AI) 인프라 확장과 서비스형 그래픽처리장치(GPUaaS) 매출 확대, 공공·산업별 맞춤형 클라우드 구축 수요가 실적을 견인한 것으로 나타났다. 10일 업계에 따르면 올해 3분기 세 회사 모두 AI 인프라 고도화와 공공 클라우드 수요를 중심으로 매출이 증가했다. 특히 GPU 확보 경쟁이 본격화되면서 각 사가 추진 중인 데이터센터 확충과 AI 인프라 서비스가 향후 성장의 관건으로 부상했다. 네이버는 엔터프라이즈 부문에서 전년 동기 대비 3.8% 성장한 1천500억원의 매출을 기록했다. 전 분기 대비 13.9% 증가한 수치로, GPUaaS 신규 매출이 본격 반영되고 협업 솔루션 '라인웍스'의 유료 ID 증가가 매출 성장을 이끌었다. 네이버는 최근 엔비디아와 피지컬 AI 사업 업무협약(MOU)을 체결하고 2030년까지 GPU 6만 장을 추가 확보하기로 했다. 이를 기반으로 사우디아라비아·태국·모로코 등에서 소버린 AI 및 데이터센터 구축 프로젝트에 박차를 가한다. 또 일본에 이어 대만에도 라인웍스를 공식 출시하며 아시아 B2B 시장 확대에 나섰다. 네이버는 공공과 민간 모두를 대상으로 맞춤형 프라이빗 클라우드 구축과 GPUaaS 수요 확보에 집중할 방침이다. 최수연 네이버 대표는 "B2B 사업에서 GPUaaS 신규 매출을 확보하고 라인웍스 등 솔루션의 두 자릿수 성장을 이어가고 있다"며 "엔비디아와의 협력으로 피지컬 AI 경쟁력을 강화하고 글로벌 AI·로보틱스 사업을 확장해 나가겠다"고 밝혔다. KT클라우드는 3분기 매출이 전년 대비 20.3% 증가한 2천490억원을 기록하며 그룹 내 핵심 성장축으로 부상했다. 전 분기 대비로도 12.4% 증가해 뚜렷한 상승세를 보였다. 성장 배경으로는 글로벌 데이터센터 이용률 확대와 공공 AI 클라우드 수요 증가가 꼽혔다. KT는 최근 국내 최초 액체 냉각 방식의 '가산 AI 데이터센터'를 가동해 GPU 서버 냉각 효율을 극대화했으며 '콜로닷AI' 등 자사 AI 인프라 서비스도 상용화했다. 아울러 금융·제조·이커머스 산업군을 대상으로 'AI 파운드리' 사업을 추진하며 기업 맞춤형 AI 전환(AX) 플랫폼 생태계도 확대하고 있다. KT 그룹 차원에서도 독자 모델 '믿:음 K 2.0', 마이크로소프트(MS) 협력 모델 '소타 K', 메타의 오픈소스 모델을 활용한 '라마 K' 등 한국형 거대언어모델(LLM) 라인업을 구축하며 AI 중심 기업으로 전환을 가속하고 있다. KT 장민 최고재무책임자(CFO)는 "클라우드와 데이터센터의 성장이 이번 분기 그룹 실적을 견인했다"며 "AI·AX 사업을 중심으로 기업 가치 제고에 힘쓸 것"이라고 말했다. NHN은 3분기 기술 부문 매출이 전년 동기 대비 8.8% 증가한 1천118억원을 기록하며 안정적인 성장세를 이어갔다. 특히 NHN클라우드는 공공·AI 인프라 구축 사업에서 두드러진 성과를 보였다. 국가정보자원관리원 대구센터에 추가 상면을 확보하고 주요 정부 시스템 이관 작업을 진행 중이며 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'GPU 확보·구축·운용지원 사업'의 최다 구축 사업자로 선정돼 7천600장 이상 규모의 엔비디아 B200 GPU를 공급할 예정이다. 또 SRT 운영 시스템을 전면 클라우드로 전환해 예매기간 오류 0건을 기록했고 중앙보훈병원 차세대 인프라 전환 사업도 수주하며 공공·의료 클라우드 시장에서도 입지를 넓히고 있다. 김동훈 NHN클라우드 대표는 "GPU 확보 사업을 비롯한 정부 AI 인프라 구축이 내년 1분기 내 시스템 구축을 완료하고 2분기부터 본격적인 매출로 이어질 것"이라며 "국가정보자원관리원 대구센터의 추가 상면 확보를 기반으로 주요 정부 시스템 이관을 주도할 것"이라고 말했다. 업계에선 올해를 기점으로 국내 클라우드 산업의 주도권이 단순 인프라 제공을 넘어 AI·데이터 중심 플랫폼 경쟁으로 이동했다고 분석한다. GPU 확보와 데이터센터 효율화, 산업별 AX 서비스가 향후 3사의 매출 구조를 결정지을 핵심 요인으로 꼽힌다. 클라우드 업계 관계자는 "정부와 민간이 함께 AI 인프라 생태계를 구축하는 가운데, 연말과 내년 토종 클라우드 기업들의 기술 내재화가 경쟁력의 분기점이 될 것"이라고 설명했다.

2025.11.10 15:02한정호

NHN 기술 부문, 3분기 매출 8.8%↑…공공·AI 클라우드 사업 호조

NHN이 3분기 기술 부문에서 안정적인 성장세를 이어가며 클라우드 사업 중심의 체질 강화를 가속하고 있다. 특히 NHN클라우드는 정부 공공·AI 인프라 구축과 주요 기관 시스템 전환 사업 성과를 바탕으로 기술 부문 성장을 견인했다. NHN은 10일 올해 3분기 실적 발표 컨퍼런스콜을 통해 기술 부문 매출이 전년 동기 대비 8.8% 증가한 1천118억원을 기록했다고 발표했다. 전 분기 대비로도 7% 증가하며 안정적인 성과를 거뒀다. 이번 성장세는 NHN클라우드의 공공·AI 부문 매출 증가가 견인한 것으로 풀이된다. NHN클라우드는 국가정보원 보안기준 상 등급을 획득하며 공공 클라우드 신뢰를 확보했다. 이를 바탕으로 국가정보자원관리원 대구센터에 상면을 추가로 확보해 주요 정부 시스템 이관 작업을 진행 중이다. 또 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 '그래픽처리장치(GPU) 확보·구축·운용지원 사업'의 최다 구축 사업자로 선정돼 7천6백 장 규모의 엔비디아 B200 GPU를 공급할 계획이다. 내년 1분기부터 본격 가동을 목표로 대규모 수냉식 GPU 클러스터를 구축 중이며 이 사업이 향후 AI 인프라 매출 확대의 발판이 될 전망이다. 공공 클라우드 구축 사례도 잇따르고 있다. NHN클라우드는 SRT 운영 시스템 전체를 클라우드로 전환하며 추석 명절 예매 기간 중 오류 0건을 기록하며 안정성과 확장성을 입증했다. 아울러 중앙보훈병원의 차세대 정보시스템 인프라 전환 사업을 수주해 전국 9개 보훈의료기관의 병원정보시스템을 클라우드 기반으로 일원화하고 있다. 민감한 의료 데이터를 다루는 공공병원 시스템에 클라우드가 도입된 첫 사례로, 의료·공공 클라우드 시장 확장에 속도를 낼 방침이다. 이외에도 NHN 기술 부문은 통합 메시지 플랫폼 '노티피케이션'의 사용량 증가, NHN두레이의 국방부 '국방이음' 협업 플랫폼 수주, 일본 시장에서의 NHN테코러스 클라우드 매니지드 서비스(MSP) 성장세 등으로 글로벌 매출 기반을 강화하고 있다. 김동훈 NHN클라우드 대표는 "GPU 확보 사업을 비롯한 정부 AI 인프라 구축이 내년 1분기 내 시스템 구축을 완료하고 2분기부터 본격적인 매출로 이어질 것"이라며 "국가정보자원관리원 대구센터의 추가 상면 확보를 기반으로 주요 정부 시스템 이관을 주도할 것"이라고 강조했다.

2025.11.10 11:04한정호

MS, '네오클라우드'에 86조원 투자…AI 인프라 확보 총력

마이크로소프트(MS)가 인공지능(AI) 경쟁 속에서 고성능 그래픽처리장치(GPU) 확보를 목표로 올해 '네오클라우드' 기업에 600억 달러(약 86조원) 규모의 투자를 단행한 것으로 나타났다. 네오클라우드는 AI 모델 학습·추론을 위한 고성능 GPU를 서비스형(GPUaaS)으로 제공하는 새로운 형태의 클라우드 사업자로, 코어위브와 네비우스그룹 등이 대표적이다. 기존 대형 클라우드보다 빠르게 GPU와 전력 등 자원을 확보할 수 있는 것이 강점이다. 5일 블룸버그통신에 따르면 MS는 AI 서비스 수요 급증에 대응하고자 네오클라우드 데이터센터 기업인 엔스케일·아이렌·람다 등과 대규모 계약을 체결했다. 이번 투자는 지난달 초 이후 두 배 가까이 늘어난 규모로, 최근 발표된 두 건의 신규 계약만 100억 달러(약 14조원) 이상에 이른다. 이 중 최대 규모인 230억 달러(약 33조원)는 영국 스타트업 엔스케일에 투입된다. 이번 계약으로 MS는 엔스케일이 운영하는 영국·노르웨이·포르투갈·미국 텍사스 등지의 데이터센터에서 엔비디아의 최신 GPU인 GB300 칩 약 20만 개를 확보하게 된다. MS는 데이터센터를 자체적으로 신속히 확충하기 어려운 상황에서 소규모 인프라 제공업체인 네오클라우드 기업들과의 협력을 확대하고 있다. 최근 공개된 계약 중에는 호주 기업 아이렌과의 97억 달러(약 14조원) 규모 칩 임대 계약, 람다와의 수십억 달러 규모 계약이 포함됐다. 계약 대부분이 5년 단위로 체결된 것으로 알려졌다. 블룸버그 인텔리전스의 아누라그 라나 애널리스트는 "MS의 잇따른 네오클라우드 계약은 업계 전반의 심각한 컴퓨팅 용량 부족 상황을 보여준다"며 "AI 워크로드 급증이 그 원인"이라고 말했다. MS 대변인은 "단기·장기 수요 신호에 기반해 유연성과 선택성을 갖춘 글로벌 인프라 전략을 추진하고 있다"며 "자체 데이터센터, 임차 시설, 제3자 제공업체 활용을 혼합해 전 세계적으로 인프라를 신속히 확장 중"이라고 밝혔다.

2025.11.05 11:22한정호

삼성SDS, 동탄 데이터센터 서관 가동 '임박'…AI 인프라 확충 속도

삼성SDS가 차세대 성장축으로 삼은 인공지능(AI) 클라우드 인프라 확충 핵심 거점인 '동탄 데이터센터' 서관 가동을 앞두고 있다. 내년 1~2월 본격 오픈과 함께 그래픽처리장치(GPU) 기반 AI 클라우드 서비스 매출이 본격 반영되며 회사의 클라우드 사업이 새로운 성장 국면에 진입할 전망이다. 4일 업계에 따르면 삼성SDS는 오는 12월 전력 인입을 완료한 뒤 내년 초 동탄 데이터센터 서관을 본격 가동할 계획이다. 서관은 20메가와트(MW) 규모로 구축돼 있으며 동탄 센터의 동관과 함께 약 2만 대의 서버로 구성된 대규모 AI 전용 인프라를 완성하게 된다. 서관 가동을 통해 삼성SDS의 GPU 및 AI 클라우드 플랫폼인 '삼성 클라우드 플랫폼(SCP)'의 운영·공급이 확대될 전망이다. 그동안 AI 학습용 서버 수요와 클라우드 기반 GPU 인프라 부족으로 제한적이던 AI 서비스 매출도 내년 1분기부터 반영될 것으로 관측된다. 삼성SDS는 AI 클라우드 사업을 중심으로 한 구조 전환에 속도를 내고 있다. 올해 3분기 실적 기준, 전체 사업 부문 가운데 클라우드 부문이 성장세를 보이며 전년 동기 대비 5.9% 증가한 매출 6천746억원을 기록했다. 특히 클라우드 서비스 제공(CSP) 부문은 2천800억원으로 18% 성장했다. 이 같은 성장세를 발판으로 삼성SDS GPU 인프라 확보는 물론 국가 AI 사업에 적극 나섰다. 회사는 정부 주도 대규모 인프라 프로젝트인 '국가AI컴퓨팅센터' 구축 사업에 컨소시엄 주관사로 참여해 총 2조5천억원 규모의 AI 인프라 구축을 이끌 예정이다. 아울러 구미 지역에도 차세대 AI 데이터센터 신설을 추진 중이다. 구미 부지는 이미 확보했으며 설계와 디자인 단계에 들어갔다. 구미 센터는 냉각 효율을 높이기 위한 수랭식 시스템과 재생에너지 사용 확대로 ESG 기준을 충족하는 고효율 인프라로 구축된다. 이호준 삼성SDS 클라우드서비스사업부장은 지난달 30일 실적발표 컨퍼런스콜에서 "동탄 데이터센터 서관은 20MW 규모로 가동 준비 막바지 단계에 있으며 12월 전력 인입 후 내년 1~2월 중 본격 오픈할 예정"이라며 "GPU 및 클라우드 사업 매출이 본격 반영될 것"이라고 밝혔다.

2025.11.04 18:17한정호

오픈AI, 아마존과 54조원 규모 클라우드 계약

챗GPT 개발사 오픈AI가 마이크로소프트(MS) 중심의 클라우드 의존 체제를 벗어나 아마존웹서비스(AWS)와 손을 잡았다. 총 380억 달러(약 54조원)에 달하는 초대형 계약으로, 오픈AI는 엔비디아 그래픽처리장치(GPU) 수십만 개를 확보하고 차세대 인공지능(AI) 모델 훈련과 서비스 운영에 필요한 대규모 컴퓨팅 파워를 확보하게 됐다. 4일 로이터 등 외신에 따르면 오픈AI는 AWS와 7년간의 전략적 클라우드 파트너십을 체결하고 AWS의 '아마존 EC2 울트라서버'를 통해 자사 AI 워크로드를 운영하기로 했다. 이번 계약으로 오픈AI는 수십만개의 엔비디아 GB200·GB300 GPU를 활용할 수 있으며 향후 수천만 개의 CPU로 확장 가능한 인프라를 제공받는다. AWS는 내년 말까지 모든 컴퓨팅 용량을 공급한 뒤 2027년 이후 추가 확장 계획도 추진할 예정이다. 이를 통해 오픈AI는 2019년부터 이어온 MS '애저' 클라우드 독점 사용 계약에서 완전히 벗어나며 독립적 인프라 다변화 전략을 본격화했다. 이번 계약은 MS의 우선협상권이 종료된 뒤 성사됐다. 이번 계약은 오픈AI의 폭발적인 연산 수요를 감당하기 위한 행보로도 평가된다. 주요 외신은 "AI 산업의 연산력 경쟁이 인간 수준의 지능을 목표로 가속화되는 가운데, 오픈AI의 계약 규모는 이 부문 최대급"이라고 분석했다. 앞서 오픈AI는 AWS 외에도 구글·오라클 등과도 각각 수천억 달러 규모의 계약을 맺은 바 있다. 다만 시장에서는 오픈AI의 재무 여력에 대한 우려도 제기된다. 미국 증권가 일부에서는 적자 구조인 오픈AI가 수천억 달러 규모의 컴퓨팅 계약 자금을 어떻게 조달할지 의문을 제기했다. 오픈AI는 최근 비영리 구조를 재편하고 기업공개(IPO) 추진 가능성을 시사하며 자금 조달 기반을 넓히고 있다. 이번 계약 발표 후 아마존 주가는 하루 만에 4~5% 급등하며 사상 최고가를 경신했다. 시장에서는 이번 협력을 AWS가 AI 인프라 경쟁력을 재입증한 계기로 보고 있다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "최전선의 AI를 확장하려면 안정적인 대규모 컴퓨팅이 필수적이며 AWS와의 협력은 차세대를 이끌 컴퓨팅 생태계를 강화하고 더 많은 사람에게 첨단 AI를 제공하는 데 도움이 될 것"이라고 밝혔다. 맷 가먼 AWS CEO는 "우리의 최적화된 컴퓨팅 자원은 오픈AI의 방대한 AI 작업을 지원하는 데 독보적인 위치에 있으며 이번 협력이 AI 시대의 핵심 동력이 될 것"이라고 말했다.

2025.11.04 10:03한정호

엔비디아 블랙웰 26만장 한국행…'AI 인프라 허브' 도약 신호탄

엔비디아가 우리 정부와 주요 기업에 블랙웰 그래픽처리장치(GPU) 26만 장을 공급한다. 정부의 국가AI컴퓨팅센터 구축과 민간 AI 인프라 확충이 함께 맞물리며 한국이 아시아 AI 허브로 도약할 기반이 마련됐다는 평가가 나온다. 31일 엔비디아는 한국 정부와 삼성전자·SK그룹·현대자동차그룹·네이버클라우드 등 5곳에 총 26만 장의 블랙웰 GPU를 공급한다고 발표했다. 이 중 정부는 최대 5만 장을 소버린 클라우드 구축용으로 확보하고, 삼성전자·SK·현대차가 각각 5만 장, 네이버클라우드는 6만 장을 공급받는다. 엔비디아는 이번 협력을 통해 반도체·로보틱스·통신·데이터센터 등 AI 인프라 전반에서 한국 기업들과 협력을 강화한다는 방침이다. 업계에서는 이번 공급 규모가 아시아 최대 수준으로, AI 반도체 확보 경쟁의 중심에 한국이 본격적으로 진입하게 됐다고 평가한다. 네이버클라우드, 엔비디아와 소버린·피지컬 AI 전방위 '협력' 정부는 이번 협력과 맞물려 현재 국가AI컴퓨팅센터 구축 사업을 가속화하고 있다. 과학기술정보통신부는 민관 합작 특수목적법인(SPC)을 설립해 2028년까지 GPU 1만5천 장, 2030년까지 5만 장 이상을 확보할 계획이다. 총사업비는 2조5천억 원 규모로, 정부 800억 원을 출자하고 민간과 정책금융기관이 나머지를 분담한다. 국가AI컴퓨팅센터 사업은 AI 연구기관과 스타트업에 연산 자원을 제공하고 민간 클라우드 기업의 기술을 공공 인프라에 접목하는 구조로 설계됐다. 정부는 대규모 GPU 인프라를 공공 연구개발에 활용함으로써 AI 모델 개발 경쟁력과 산업계 접근성을 동시에 높인다는 목표를 세웠다. 이번 공급의 수혜 기업 중 하나인 네이버클라우드는 국가AI컴퓨팅센터 사업에서 삼성SDS 컨소시엄의 주요 파트너로 참여하고 있다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 테크밋업에서 "정부 인프라에 민간 기술 내재화를 결합해 기술 자립 기반을 강화하겠다"며 "국가AI컴퓨팅센터 구축은 네이버의 서비스형 GPU 플랫폼(GPUaaS)을 국가 데이터센터로 확장하는 구조로 발전할 것"이라고 설명했다. 네이버는 이날 오후 엔비디아와 피지컬 AI 플랫폼 공동 개발 협약도 체결했다. 양사는 디지털 트윈과 로보틱스 기술을 결합해 산업 현장을 가상 공간에 정밀하게 구현하고 AI가 분석·판단·제어를 지원하는 시스템을 구축할 계획이다. AI와 클라우드 인프라의 융합을 추진하는 만큼, 네이버클라우드가 담당하는 역할이 커질 전망이다. 김유원 네이버클라우드 대표는 이날 행사에서 "이번 협력은 피지컬 AI 시대의 출발점이 될 것"이라며 "하이퍼스케일 AI 인프라와 클라우드 운영 역량을 기반으로 국내 제조 산업의 AI 혁신을 이끌 신뢰받는 기술 파트너가 되겠다"고 밝혔다. 엔비디아와 네이버의 협력은 이번이 처음은 아니다. 네이버클라우드는 초거대언어모델(LLM) '하이퍼클로바X'를 운영하며 엔비디아 GPU를 기반으로 한 고성능 클러스터를 구축한 경험을 갖고 있다. 특히 양사는 최근 태국·모로코 등 해외에서도 '소버린 AI' 인프라 구축을 함께 추진 중이다. 이 외에도 네이버는 엔비디아와 글로벌 투자사 등과 컨소시엄을 구성해 모로코에 블랙웰 GPU 기반 40메가와트(MW)급 AI 데이터센터도 구축 중이다. 해당 프로젝트는 유럽과 중동, 아프리카를 잇는 글로벌 AI 허브로 확장될 예정이며 한국형 AI 인프라 모델의 해외 진출 사례로 주목받고 있다. 국가 AI 인프라 확충 '가속'…AI 생태계 전반 확산 전망 우리나라에서 국가AI컴퓨팅센터 사업과 같이 민간과 공공이 함께 GPU 인프라를 확충하는 구조가 자리 잡으면서 한국이 아시아 AI 산업의 중심지로 부상할 가능성이 높다는 평가가 나온다. 업계 관계자는 "AI 인프라 경쟁력은 GPU 확보 속도와 활용 효율성에 달려 있다"며 "정부와 기업이 함께 대규모 연산 자원을 구축하는 한국형 모델이 아시아 AI 생태계의 새로운 기준이 될 수 있다"고 기대했다. 정부의 국가AI컴퓨팅센터 사업 역시 이번 공급 발표로 추진 동력이 커질 전망이다. 과기정통부는 연내 우선협상대상자 선정을 마무리하고 내년 상반기 SPC 설립과 착공 절차에 착수할 계획이다. 이번 엔비디아의 GPU 공급 발표로 AI 인프라 확충이 가속화되면 산업·학계·연구기관 전반에서 AI 학습 및 응용 환경이 대폭 개선될 것으로 예상된다. 이번 공급은 국가AI컴퓨팅센터 외에도 정부가 추진 중인 독자 AI 파운데이션 모델 프로젝트 등 국가 AI 사업 전반에 직간접적 영향을 미칠 전망이다. 업계에서는 국가 차원에서 GPU 자원이 충분히 확보되면 정부의 AI 연구·산업 지원 정책이 전방위적으로 활성화될 것으로 보고 있다. 엔비디아의 이번 결정은 한국의 AI 인프라 확충 노력에 대한 글로벌 기술 기업의 신뢰가 반영된 결과라는 평가도 나온다. 업계 관계자는 "최근 정부가 AI 인프라 확충을 적극적으로 추진하고 민간이 기술 내재화를 빠르게 진행하고 있는 만큼, 한국은 엔비디아의 아시아 전략에서 핵심 거점으로 부상할 것"이라고 전망했다.

2025.10.31 15:04한정호

엔비디아, 韓 정부·기업에 GPU 26만장 공급

엔비디아가 31일 한국 정부와 기업에 GPU 26만장을 공급하고 AI 인프라와 반도체, 로보틱스, 통신, 데이터센터 등 모든 분야에서 전방위 협력에 나선다고 밝혔다. 현재 국내 시장에 도입된 엔비디아 호퍼 GPU는 기업과 기관을 합쳐 약 6만 5천장 규모로 추산된다. 엔비디아는 한국 정부와 삼성전자, SK그룹, 현대자동차그룹 등에 각각 최대 5만장, 네이버클라우드에 6만장 등 총 26만장의 블랙웰 GPU를 공급한다. 엔비디아 관계자는 "국내 공급될 블랙웰 GPU는 서버용 GB200과 워크스테이션용 RTX 프로 6000 등을 모두 포함한다. 도입이 완료되면 한국 내 엔비디아 GPU 규모는 6만 5천장에서 32만장으로 5배 가까이 늘어날 것"이라고 설명했다. 삼성전자·SK하이닉스, GPU 기반 반도체 설계 가속 도입 삼성전자는 엔비디아 GPU 블랙웰 5만장을 공급받아 반도체 제조 효율과 수율을 높이는 AI 기반 제조·설계 최적화 시스템을 개발한다. 반도체 식각 공정에 쓰이는 포토마스크 생산에 컴퓨터 연산을 활용해 설계 시간을 단축하는 cu리소(cuLitho) 등 AI 반도체 공정 툴이 투입될 예정이다. 또 반도체 생산시설 설계와 최적화에 엔비디아 옴니버스 기술도 활용한다. SK그룹은 SK하이닉스의 반도체 설계 역량 강화, GPU 기반 디지털 트윈 기술을 활용한 공장 자동화, AI 에이전트 개발에 나선다. SK텔레콤은 RTX 6000과 블랙웰 서버를 기반으로 옴니버스 플랫폼을 활용해 로보틱스 및 디지털 트윈 기술을 강화한다. 현대차그룹은 5만장의 블랙웰 GPU로 자율주행과 로보틱스 분야의 AI 모델을 훈련시키고, 30억 달러(약 4조 2천800억원) 규모 피지컬 AI 투자를 정부와 공동 추진한다. 한국 특화 LLM 개발과 소버린 AI 구축 지원 과학기술정보통신부는 지난 8월 선정된 LG AI연구원, 업스테이지, 네이버클라우드, SK텔레콤, NC AI 등 국가대표 AI 기업 다섯 곳과 함께 국내 기업과 기관이 활용할 수 있는 한국형 거대언어모델(LLM) 개발 작업에 착수할 예정이다. 한국형 LLM 개발에는 엔비디아 오픈프레임워크 '니모'(Nemo)를 활용한 오픈모델인 '니모트론'(Nemotron)을 활용한다. 개발된 한국형 LLM은 한국어 중심의 데이터와 문화를 반영한 소버린 AI 개발의 핵심이 될 전망이다. 이를 위해 엔비디아 클라우드 협력사인 네이버클라우드, NHN클라우드와 카카오 등에 최초 1만3천장의 엔비디아 GPU가 공급될 예정이다. LG그룹의 AI 싱크탱크인 LG AI연구원은 엔비디아와 함께 LG의 AI 모델 '엑사원'(EXAONE)을 국내 기업과 스타트업, 학계에 지원하기 위해 협력하고 있다. 최근에는 엑사원을 암 진단에 활용할 수 있도록 스타트업과 학계에 제공하고 있다. 국내 통신 3사와 차세대 6G AI RAN 기술 공동 개발 엔비디아는 이번 주 미국에서 진행된 'GTC 워싱턴' 기간 중 노키아와 협업해 차세대 통신 규격인 6G AI RAN(무선통신네트워크) 처리 기술을 개발할 것이라고 밝힌 바 있다. 국내 시장에서도 삼성전자 등 장비 제조사, 연세대학교와 한국전자통신연구원(ETRI) 등 연구기관, SK텔레콤, KT, LG유플러스 등 통신 3사와 함께 6G AI RAN을 개발할 예정이다. 엔비디아는 "한국 기업·기관과 공동 개발한 6G AI RAN은 GPU 연산 작업을 기지국으로 분산해 운영 비용을 줄이고 기기 배터리 지속 시간을 늘리게 될 것"이라고 설명했다. 양자 컴퓨팅 연구 지원, 스타트업 지원도 확대 엔비디아는 한국과학기술정보연구원(KISTI)과 GPU 기반 양자 컴퓨팅 제어 시스템 연구도 공동으로 진행한다. 내년 상반기 구축될 국가 슈퍼컴퓨터 6호기 '한강'에서 엔비디아 양자 시뮬레이션 쿠다Q(CUDA-Q), 피직스 등을 구동 예정이다. 엔비디아는 스타트업 지원에도 속도를 높인다. 현재 750개 이상의 국내 기업이 엔비디아의 인셉션 프로그램에 참여하고 있으며, 엔비디아는 지원 기업 규모를 1천개 이상으로 확대할 예정이다.

2025.10.31 15:00권봉석

나무기술, 경량 언어모델로 제조 AI 선도…정부 GPU 지원 사업 선정

나무기술이 정부의 그래픽처리장치(GPU) 지원 사업을 통해 제조 분야 인공지능(AI) 혁신에 박차를 가한다. 나무기술은 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'AI컴퓨팅 자원 활용 기반 강화(GPU 임차 지원)' 사업에 선정됐다고 29일 밝혔다. 이번 사업은 산업별 AI 기술 고도화를 위한 GPU 인프라 지원 프로그램으로, 나무기술은 제조 현장에 특화된 AI 자율제조 기술 역량을 인정받았다. 나무기술은 공정 데이터와 설비 정보를 실시간으로 분석해 생산 과정의 예측과 제어를 수행할 수 있는 경량 언어모델(SLM)을 설계했다. 복잡한 제조 환경에서도 빠르게 추론하고 효율적으로 연산하도록 구성돼 품질 이상 탐지·공정 최적화·보고서 자동 작성 등 다양한 작업을 지능적으로 지원한다. 이 기능은 생산 현장의 의사결정 속도를 높이고 예측 중심의 운영 체계를 정착시키는 데 활용된다. 현재 나무기술은 GPU·엣지 기반의 실시간 추론 검증을 통해 모델의 안정성과 적용 범위를 확인하고 있으며 포장설비와 바이오 제조 등 실제 산업 현장에서의 실증으로 확장성을 검증하고 있다. 이 과정에는 클라우드 오케스트레이션 플랫폼 '칵테일 클라우드'와 통합 관리 플랫폼 '스페로'가 함께 적용돼 AI 학습·추론·자원 운영을 통합 관리하는 구조를 구현했다. 이를 통해 기업이 자체 데이터를 활용한 안정적인 AI 자율제조 환경을 구축하고 현장 중심의 AI 운영 체계를 구현할 수 있도록 지원한다. 나무기술 관계자는 "이번 선정은 우리가 축적해 온 AI·클라우드 융합 기술력과 산업 현장 중심의 실증 경험이 높은 평가를 받은 결과"라며 "풀스택 아키텍처를 기반으로 제조 산업의 효율성과 품질 경쟁력을 높이며 AI 내재화와 자율화를 향한 기술 혁신의 지속적인 혁신을 추진하고 있다"고 밝혔다. 이어 "제조 분야에서 검증된 기술을 바탕으로 에너지·물류·바이오 등 데이터 중심 산업으로 AI 자율 운영 모델을 확장해 산업별 맞춤형 AI 적용 사례를 넓혀갈 예정"이라고 덧붙였다.

2025.10.29 16:03한정호

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

소비자원, 1인당 10만원씩 보상...SKT "신중히 결정"

챗GPT 성격 고른다…오픈AI, 사용자 설정 기능 확대

양자기술, 강원 기업이 사업 가능성 입증했다

美 정부, 엔비디아 AI 칩 중국 판매 재검토 착수

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.