• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능 인프라'통합검색 결과 입니다. (84건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

주가 40% 빠진 오라클…월가서 반등론 나오는 이유는

오라클 주가가 지난해 9월 중순 최고점을 찍은 후 최근 40% 이상 하락했지만 시장의 기대감은 오히려 다시 높아지고 있다. 인공지능(AI) 시장에 대한 기대 조정이 주가에 영향을 줬지만, 주요 투자은행들이 매출 기반과 고객 구조가 견조한 오라클의 중장기 성장성에 대한 평가를 유지하면서 주가도 재차 반등할 수 있다는 시각이 나온다.19일 업계에 따르면 오라클 주가는 지난 17일 191.09달러로 장을 마쳤다. 이는 52주 최고가(345.72달러)였던 지난해 9월 10일 대비 약 44.5% 정도 하락한 수치다. 이는 AI 투자 자금이 엔비디아를 중심으로 한 반도체·연산 인프라 기업과 오픈AI 관련 플랫폼 기업으로 집중된 반면, 오라클처럼 AI 인프라 투자가 비용으로 먼저 반영되는 기업들은 상대적으로 소외됐기 때문으로 풀이된다. 데이터센터 확장에 따른 감가상각과 자본지출 부담이 단기 실적 우려로 연결되며 주가 하락 압력을 키운 것도 영향이 컸다. 그러나 애널리스트들의 시각은 주가 흐름과 다소 결이 다르다. 최근 기준 오라클에 대해 '매수(Buy)' 의견을 유지하는 애널리스트 비중은 70%를 웃돌고 있다. UBS는 목표주가를 하향 조정하면서도 투자의견은 유지했고, 골드만삭스는 새롭게 오라클에 대한 커버리지를 개시하며 매수 의견을 제시했다. 애널리스트들은 이번 주가 하락을 실적 부진보다는 AI 기대 조정에 따른 밸류에이션 재조정으로 해석하고 있다. AI 인프라 투자 확대에 따라 단기적으로 수익성 압박이 불가피하지만, 매출 기반이나 고객 이탈 등 구조적인 훼손 신호는 제한적이라는 평가다. UBS는 "신용 및 자금조달 관련 우려는 이미 주가에 반영돼 있다"며 오라클의 중기 성장성에 대한 시각은 유지했다. 다만 리스크도 명확하다. 데이터센터와 GPU 확보를 위한 오라클의 대규모 투자가 이어지는 만큼, 투자 대비 수익화 시점이 지연될 경우 현금 흐름 부담이 커질 수 있다. 또 AWS와 마이크로소프트 애저, 구글 클라우드에 비해 개발자 생태계와 브랜드 인지도 측면에서 열세라는 점도 여전히 부담 요인으로 꼽힌다. 하지만 오라클이 완전히 시장에서 외면받지 않는 이유는 AI 인프라 시장에서의 포지션 때문이다. 오라클은 AI 모델 개발 기업이 아닌 대규모 연산을 안정적으로 처리할 수 있는 인프라를 제공하는 데 강점을 갖고 있다. 특히 대형 엔터프라이즈 고객을 중심으로 한 오라클 클라우드 인프라(OCI)는 고성능과 비용 효율성을 앞세워 수요를 확대하고 있다는 평가다. 시장에서는 데이터센터 투자를 단기적인 비용 부담으로 보는 시각이 우세하지만, 애널리스트들은 이를 장기 진입장벽으로 해석했다. 초대형 AI 데이터센터는 초기 투자비가 크지만 일단 가동되면 장기 계약을 통해 안정적인 매출로 이어질 가능성이 높다는 이유에서다. 여기에 데이터베이스와 전사적자원관리(ERP) 등 기존 사업에서의 높은 고객 락인 효과도 주가 하방을 지지하는 요소로 거론된다. 골드만삭스는 최근 오라클에 대한 커버리지를 개시하며 목표주가 240달러와 함께 투자의견 '매수'를 제시했다. 그러면서 "AI 도입 확산은 향후 10년간 소프트웨어 산업의 총주소가능시장(TAM, 특정 산업이 이론적으로 확보할 수 있는 최대 시장 규모)'을 확대할 것"이라며 "오라클은 클라우드 규모와 엔터프라이즈 고객 기반, 데이터센터 확장을 바탕으로 인프라서비스(IaaS) 시장에서 점유율을 높일 수 있는 유리한 위치에 있다"고 평가했다.

2026.01.19 16:41장유미

NHN클라우드, 크래프톤 GPU 클러스터 사업 수주…운영 기술력 입증

NHN클라우드가 대규모 그래픽처리장치(GPU) 클러스터를 서비스형 GPU(GPUaaS)로 구축·운영하는 기술력과 역량을 입증했다. NHN클라우드는 크래프톤이 발주한 GPU 클러스터 사업 최종 사업자로 선정돼 계약을 체결하고 GPUaaS 기반 인프라를 제공한다고 19일 밝혔다. 이번 사업은 크래프톤이 지난해 10월 인공지능(AI) 퍼스트를 경영 핵심 전략으로 선언한 이후 AI 활용을 본격 확대하는 과정에서 증가하는 AI 연산 수요에 대응하기 위해 추진됐다. GPU 클러스터는 AI 플랫폼과 데이터 통합·자동화 기반 고도화 등 중장기 AI 전략을 안정적으로 실행하기 위한 핵심 기반으로, NHN클라우드가 제공하는 GPUaaS를 활용해 인프라를 유연하게 확장하고 운영 효율을 높이는 데 초점을 맞췄다. NHN클라우드는 이번 사업에서 대규모 GPU 클러스터를 제공함으로써 크래프톤의 AI 전략 실행을 뒷받침한다. NHN클라우드가 광주 국가 AI 센터를 자체 설계·구축하고 2021년부터 현재까지 GPUaaS 서비스를 안정적으로 제공해 온 기술력을 보유한 점과 수년간 다수 공공·민간 고객을 대상으로 AI 인프라 서비스를 운영해 온 경험이 이번 사업 파트너로 선정된 배경으로 꼽힌다. 또 고객 요구사항을 면밀히 분석해 함께 시스템을 설계·구축해 온 컨설팅 및 사업 수행 역량도 강점으로 작용했다. NHN클라우드는 이번 사업에서 엔비디아 최신 GPU인 블랙웰 울트라 1천여 장으로 구성된 GPU 팜을 멀티 클러스터 구조로 구성해 대규모 AI 연산 환경을 구축한다. 여기에 XDR-800G급 초고속 인피니밴드 네트워크를 적용해 GPU 간 대용량 데이터를 저지연·고속으로 전송할 수 있도록 설계한다. 이를 통해 여러 GPU를 동시에 사용하는 환경에서도 데이터 전송 지연을 최소화하고 고성능 GPU를 효과적으로 활용해 AI 모델 학습 속도를 높이는 한편 전반적인 AI 작업을 안정적으로 운영할 수 있도록 할 계획이다. NHN클라우드는 GPU 클러스터 구성 요소를 효율적으로 조합해 동일 예산 대비 실제 활용 가능한 GPU 연산 자원을 극대화했으며 장기적인 운영 효율까지 고려한 구조로 설계했다. 특히 GPU를 여러 작업이 함께 사용할 수 있도록 동적 관리 구조를 적용한다. 이를 통해 AI 개발·학습·추론 등 다양한 작업이 동시에 진행되더라도 GPU 자원을 필요에 따라 유연하게 나눠 쓰고 조정할 수 있어 유휴 자원을 최소화하고 전체 클러스터 활용 효율을 높일 계획이다. 이같은 GPU 리소스 동적 관리 방식은 소규모 AI 개발 환경부터 대규모언어모델(LLM) 학습까지 AI 작업 규모와 특성에 맞춰 GPU 활용도를 탄력적으로 조정할 수 있다. 아울러 NHN클라우드는 맞춤형 GPUaaS로 AI 개발과 운영 전반에 유연한 환경을 제공한다. 대규모 AI 학습과 연산 특성에 맞춰 쿠버네티스와 고성능 컴퓨팅(HPC) 환경에 적합한 슬럼 기반 자원 관리 솔루션을 적용해 다양한 AI 작업이 동시에 진행되는 환경에서도 안정적인 운영이 가능하다. 이에 더해 다양한 AI 개발 도구와 외부 시스템을 연동할 수 있는 구조를 갖춰 AI 서비스 개발 속도와 전반적인 업무 효율을 함께 높일 수 있도록 지원할 계획이다. 이번 블랙웰 울트라 GPU 인프라는 NHN클라우드 판교 NCC 센터에 구축된다. 판교 NCC는 고집적 연산을 원활히 운영할 수 있는 전력·냉각 인프라와 우수한 네트워크 연결성을 갖춰 대규모 AI 워크로드 처리에 적합한 시설이다. 해당 인프라는 오는 7월 중 구축을 완료하고 본격 가동될 예정이다. 크래프톤 관계자는 "AI 퍼스트 전략을 추진하는 과정에서 GPU 클러스터는 전사 AI 운영 핵심 기반"이라며 "NHN클라우드의 우수한 GPUaaS 서비스를 통해 AI 연구와 서비스 전반의 확장성과 효율성을 강화할 수 있을 것으로 기대한다"고 말했다. NHN클라우드 관계자는 "이번 프로젝트는 대규모 GPU 클러스터를 GPUaaS 형태로 구축·운영할 수 있는 우리 기술력과 운영 역량을 입증한 사례"라며 "7월 가동을 시작으로 크래프톤의 AI 퍼스트 전략을 실질적으로 뒷받침할 수 있도록 안정적인 클러스터 제공과 운영 기술 지원에 집중하겠다"고 밝혔다.

2026.01.19 10:51한정호

오픈AI, 세레브라스와 14조원 규모 컴퓨팅 계약…"엔비디아 의존 낮춘다"

오픈AI가 차세대 인공지능(AI) 서비스 경쟁력 강화를 위해 대규모 컴퓨팅 인프라 확충에 나섰다. 반도체 스타트업 세레브라스와 수십억 달러 규모 장기 계약을 체결하며 AI 추론 속도와 서비스 확장성을 동시에 끌어올린다는 전략이다. 15일 블룸버그통신에 따르면 오픈AI는 세레브라스와 다년간 협력 계약을 체결하고 총 750메가와트(MW) 규모 컴퓨팅 파워를 공급받기로 했다. 해당 인프라는 단계적으로 구축되며 완공 목표 시점은 2028년이다. 계약 규모는 100억 달러(약 14조원)를 웃도는 것으로 알려졌다. 이번 계약은 오픈AI가 챗GPT 등 자사 AI 모델 응답 속도를 개선하려는 조치로 풀이된다. 양사는 공동 성명을 통해 세레브라스 인프라가 오픈AI 모델 실행 시 지연 시간을 줄이고 대규모 사용자 유입에 대비한 안정적인 서비스 운영을 가능하게 할 것이라고 밝혔다. 세레브라스는 초대형 단일 칩을 기반으로 한 독자적 반도체 아키텍처를 앞세워 엔비디아 중심 그래픽처리장치(GPU) 시장에 도전하고 있는 기업이다. 데이터센터 운영까지 직접 수행하며 AI 추론 분야 경쟁력을 강조해 왔다. 협약 배경에 대해 오픈AI는 'GPT-OSS-120B' 모델 테스트에서 세레브라스 시스템이 기존 하드웨어 대비 최대 15배 빠른 성능을 보였다고 설명했다. 오픈AI의 대규모 인프라 투자는 이번이 처음이 아니다. 엔비디아는 지난해 오픈AI에 최대 1천억 달러(약 146조원)를 투자해 10기가와트(GW)급 데이터센터 구축을 추진하겠다고 밝혔으며 AMD 역시 수년간 6GW 규모 GPU를 공급하기로 했다. 이와 별도로 오픈AI는 브로드컴과 자체 AI 칩 개발도 진행 중이다. 업계에서는 이번 계약을 오픈AI가 컴퓨팅 포트폴리오를 다각화하는 전략의 일환으로 보고 있다. 오픈AI는 특정 하드웨어에 대한 의존도를 낮추고 워크로드 특성에 맞는 최적의 시스템을 조합해 AI 서비스 확장성을 높인다는 목표다. 오픈AI 사친 카티 컴퓨팅 인프라 담당은 "세레브라스는 우리 플랫폼에 저지연 추론 솔루션을 더해 더 빠른 응답과 자연스러운 상호작용을 가능케 한다"며 "더 많은 사람에게 실시간 AI를 확장할 수 있는 기반을 제공할 것"이라고 밝혔다.

2026.01.15 11:29한정호

퓨리오사AI, 망고부스트와 맞손...AI 데이터센터 공략 가속화

AI 반도체 기업 퓨리오사AI와 망고부스트가 차세대 AI 데이터센터 시장 공략을 위해 손을 잡았다. 퓨리오사AI는 망고부스트와 차세대 AI 인프라 기술 공동 개발을 위한 업무협약(MOU)을 체결했다고 15일 밝혔다. 양사는 이번 협약을 통해 인공지능 및 데이터센터 인프라 분야에서 상호 협력 체계를 구축하고, 기술 교류를 통해 데이터센터 시장에서의 경쟁력을 강화한다는 방침이다. 전 세계 기업들이 본격적으로 인공지능 인프라 구축을 통한 인공지능 전환(AX)에 나서고 있는 가운데 GPU의 높은 전력소비는 인공지능의 빠른 확산에 병목으로 작용하고 있다. 이에 실제 인공지능 서비스 환경이 요구하는 성능을 높은 효율로 구현할 수 있는 반도체 솔루션에 대한 시장 수요가 나날이 폭증하고 있다. 고효율 반도체는 인프라 전성비를 개선시킬 뿐 아니라 냉각 설비, 부지 선정 등 제약요건을 완화시키는 만큼 인프라 구축 시점을 단축시키고 인공지능 전환을 가속화한다. 퓨리오사AI는 AI 연산에 특화된 독자적인 칩 아키텍처 텐서 축약 프로세서(TCP)와 소프트웨어 스택 기술을 보유중이며, HBM을 탑재한 2세대 칩 RNGD(레니게이드) 양산을 이달 말 앞두고 있다. 망고부스트는 고성능 네트워킹에 특화된 DPU(데이터처리장치)및 AI 시스템 성능 최적화 기술을 보유 중이며, 이달 초 400GbE 급 성능을 가진 BoostX DPU 제품군의 양산을 시작했다. 세계적으로 기술력을 인정받은 딥테크 기업간의 협력이라는 점에서 세계적으로 대두되고 있는 인공지능 병목을 해소할 수 있을지 결과가 주목된다. 백준호 퓨리오사AI 대표는 “차세대 AI 데이터센터의 경쟁력은 고성능 AI 반도체와 네트워킹 칩을 얼마나 긴밀하고 효율적으로 결합하느냐에 달려 있다"며 "퓨리오사AI는 망고부스트와의 협력을 통해 대한민국 AI 인프라 기술의 새로운 가능성을 보여주겠다”라고 말했다. 김장우 망고부스트 대표는 “이번 협약은 대한민국을 대표하는 AI 반도체 스타트업 간의 전략적 결합이라는 점에서 의미가 크다”며 “양사의 혁신 기술을 결합해 효율적이고 지속가능한 차세대 데이터센터의 표준을 제시하겠다”고 밝혔다.

2026.01.15 10:19전화평

MS "AI 데이터센터 전기료, 소비자에 전가 안 한다"…지역사회 우선 내세워

인공지능(AI) 데이터센터 확산으로 '전기 먹는 하마' 논란이 거세지는 가운데, 마이크로소프트(MS)가 전력 비용을 소비자에게 전가하지 않겠다는 지역사회 우선 운영 원칙을 내걸며 여론 달래기에 나섰다. 데이터센터 전력 수요가 가정용 전기요금 인상으로 이어질 수 있다는 우려가 커지자, 빅테크가 비용을 직접 부담해야 한다는 압박이 본격화되는 분위기다. 14일 월스트리트저널(WSJ)에 따르면 MS는 미국 내 자사 AI 데이터센터가 사용하는 전력 비용이 일반 소비자 요금으로 넘어가지 않도록 전력회사와 공공위원회에 충분히 높은 요금 책정을 요구하겠다고 밝혔다. MS는 데이터센터 전력 비용이 지역 전기요금 인상으로 이어진다는 반발을 의식해 기업용 요금 체계 개편을 통해 주민 부담을 원천 차단하겠다는 입장이다. 브래드 스미스 MS 사장은 미국 위스콘신주가 초대형 전력 소비 기업에 높은 비용을 청구하는 새로운 요금체계를 마련한 점을 벤치마킹 모델로 제시하며 다른 주에서도 유사 정책이 도입될 수 있도록 추진하겠다고 설명했다. 전력 이슈뿐 아니라 환경 부담 완화도 함께 꺼냈다. 데이터센터 냉각 과정에서 쓰이는 물 사용량을 최소화하고 취수량보다 더 많은 물을 지역사회에 보충하겠다는 약속이다. 이와 함께 지역 일자리 창출, 지방세 인하 요구 중단, AI 교육 및 비영리단체 지원 강화 등도 공약으로 내걸었다. 이번 조치는 데이터센터 확산이 미국 내 정치·사회적 쟁점으로 부상한 흐름과 맞물려 있다. 지난 1년간 미국 내에서는 데이터센터에 대한 지역 반발이 거세진 상황이다. 데이터센터는 생성형 AI 모델을 학습·운영하는 핵심 인프라지만, 막대한 전력 소비로 전력망 부담과 요금 상승 우려를 키우는 시설로 평가된다. 이 때문에 미국 곳곳에서 데이터센터 건립 반대 움직임이 확산되고 있으며 일부 프로젝트는 지역 반발로 지연되거나 중단되는 사례도 이어지고 있다. 도널드 트럼프 미국 대통령도 빅테크의 비용 부담 필요성을 전면에 내세우고 있다. 트럼프 대통령은 SNS를 통해 MS의 전기료 부담 방침을 "미국인이 전력 소비 부담을 떠안지 않도록 하는 조치"라고 평가하며 다른 기업을 향해서도 유사한 대응을 예고했다. 업계 전반으로도 전력 비용과 지역사회 부담을 완화하려는 흐름이 확산하는 모습이다. 앞서 메타는 원전기업들과 대규모 전력 공급 계약을 발표하며 데이터센터 에너지 비용을 전액 부담해 소비자 부담을 줄이겠다는 취지의 입장을 밝힌 바 있다. 브래드 스미스 MS 사장은 "데이터센터가 소모하는 전력 비용을 충당할 수 있을 정도로 높은 요금을 전력 업체와 이를 승인하는 공공위원회가 책정할 수 있도록 요청하겠다"고 강조했다.

2026.01.14 15:37한정호

HPE "AI 네이티브 전환 확산…인프라 경쟁력 기준 달라진다"

인공지능(AI)이 데이터센터와 네트워킹 인프라의 설계·운영 방식 전반을 재편하면서 향후 인프라 경쟁력 기준 역시 근본적으로 달라질 것이란 전망이 나왔다. AI를 중심으로 한 자동화·자율화 흐름이 본격화되며 데이터센터는 물론 네트워크 운영과 인력 역할까지 구조적 전환이 불가피하다는 분석이다. 13일 HPE가 발표한 올해 데이터센터 및 네트워킹 인프라 분야 주요 전망에 따르면 데이터센터와 네트워킹 인프라는 올해를 기점으로 AI 네이티브 구조로 빠르게 전환될 것으로 전망된다. 워크로드 배치, 장애 예측, 성능 최적화는 물론 에너지 효율 관리와 전력 비용 협상까지 AI가 지원하는 폐쇄형 루프 운영 모델이 확산되며 수동 개입 중심 기존 운영 방식은 점차 한계를 드러낼 것으로 예상된다. 특히 데이터센터 영역에서는 엣지와 AI 결합이 가속화되면서 마이크로 하이퍼스케일러가 새로운 인프라 모델로 부상할 것으로 전망했다. 고속 이더넷과 AI 추론 가속기, 자율 운영 기술을 기반으로 한 소규모 데이터센터가 지역 단위에서 중앙 클라우드 워크로드를 분산 처리하며 엣지는 단순한 보조 인프라를 넘어 전략적 수익 창출 거점으로 역할이 확대될 것으로 분석했다. 네트워크 구조 역시 AI 학습과 추론에 최적화된 방향으로 재편될 것으로 보인다. HPE는 올해 이후 데이터센터 설계 출발점이 컴퓨트가 아닌 네트워크 패브릭이 될 것으로 내다봤다. 조 단위 파라미터 모델 확산과 함께 개방형 고성능 이더넷 기반 AI 패브릭 수요가 증가하면서 네트워크는 애플리케이션을 인지하고 실시간으로 적응하는 지능형 구조로 진화할 것이란 전망이다. 이더넷 자율화도 주요 변화로 꼽혔다. AI 텔레메트리를 내장한 스위치 ASIC을 통해 혼잡 제어와 전력 효율 최적화가 자동으로 이뤄지고 의도 기반 네트워킹은 패브릭 스스로 학습·예측·교정하는 형태로 구현될 것이란 설명이다. 이에 따라 복잡한 CLI 중심의 네트워크 운영 방식은 점차 사라질 것으로 예상했다. 보안 역시 네트워크 패브릭의 기본 요소로 내재화될 것으로 전망했다. 모든 패킷과 포트, 프로세스에 신뢰 점수를 부여하고 분산형 AI 엔진이 이를 실시간 검증하는 구조가 확산되면서 제로 트러스트 데이터센터가 기본 설계 기준으로 자리 잡을 것이란 분석이다. 무선 네트워크 분야에서는 AI 운영관리(Ops)가 핵심 운영 요소로 부상할 것으로 보인다. HPE는 복잡해진 무선 환경에서 AI 기반 운영 없이는 안정적인 네트워크 품질 유지가 어려워질 것으로 내다봤다. AI가 혼잡을 예측하고 RF 동작과 채널 구성을 자동 최적화하면서 기존 수동 튜닝 중심 운영 방식은 점차 사라질 것이란 설명이다. HPE는 에이전틱 AI를 기반으로 한 LAN의 역할 변화도 주목했다. LAN은 단순히 장애를 복구하는 수준을 넘어 사용자 경험을 사전에 예측하고 선제적으로 최적화하는 경험 엔진으로 진화한다는 전망이다. 스위치와 액세스 포인트에 내장된 AI 에이전트가 사용자 행동과 서비스 수요를 분석해 성능 저하를 체감하기 전에 문제를 해결하는 구조가 확산될 것으로 분석했다. 이와 함께 유선·무선·WAN을 넘어 컴퓨트와 스토리지를 아우르는 풀스택 통합 운영이 기본값으로 자리 잡을 것이라고 밝혔다. 기업들은 단일 운영 프레임워크와 공통 AI 거버넌스 하에서 전체 인프라를 관리할 수 있는 환경을 요구하게 되며 경쟁력 기준도 개별 제품 성능이 아닌 통합된 시스템 완성도로 이동할 것이란 전망이다. 인력 측면에서도 변화가 예상된다. HPE는 네트워크 엔지니어 역할이 단순 설정·운영 중심에서 AI 코파일럿과 협업하는 전략적 역할로 진화할 것으로 내다봤다. 생성형 AI가 1차 운영과 장애 대응을 담당하면서 엔지니어는 대규모 자동화를 설계·검증하고 AI를 오케스트레이션하는 역할에 집중하게 될 것이란 설명이다. HPE는 "올해 데이터센터와 네트워킹 인프라는 개별 기술의 집합이 아닌, AI를 중심으로 단일 유기체처럼 동작하는 구조로 진화할 것"이라며 "성공적인 기업은 풀스택 인프라를 단일한 경험으로 제공할 수 있는 전략을 선택하게 될 것"이라고 강조했다.

2026.01.13 15:14한정호

"AI 확산에 데이터센터 투자, 2030년까지 3조 달러 몰린다"

인공지능(AI)과 클라우드 확산으로 글로벌 데이터센터 산업에 향후 수년간 천문학적인 자금이 투입될 전망이다. 서버와 전산 장비는 물론 데이터센터 시설, 전력 인프라까지 대규모 투자가 불가피하다는 분석이 나왔다. 13일 신용평가기관 무디스에 따르면 전 세계 데이터센터 관련 투자 규모는 2030년까지 최소 3조 달러(약 4천411조원)에 이를 것으로 예상된다. 무디스는 최근 보고서를 통해 AI와 클라우드 컴퓨팅 수요 확대를 뒷받침하기 위해 서버, 컴퓨팅 장비, 데이터센터 시설, 신규 전력 설비 전반에 걸쳐 막대한 자본 투입이 필요하다고 밝혔다. 투자 자금 상당 부분은 빅테크 기업들이 직접 부담할 것으로 전망된다. 무디스는 마이크로소프트(MS)·아마존·알파벳·오라클·메타·코어위브 등 미국 내 6개 하이퍼스케일러가 올해 데이터센터 투자에만 약 5천억 달러(약 735조원)를 집행할 것으로 내다봤다. 데이터센터 용량 확장이 지속되는 가운데 이를 운영하기 위한 전력 수요 역시 빠르게 증가하고 있다는 설명이다. 자금 조달 측면에서는 은행권의 역할이 여전히 핵심을 차지하는 한편, 대규모 자본 수요에 대응해 기관투자가들의 참여도 확대될 것으로 분석됐다. 향후 은행과 함께 다른 기관투자가들이 공동으로 금융을 제공하는 사례가 늘어날 것이라는 전망이다. 또 무디스는 미국 내 데이터센터들이 차환 시점에 자산유동화증권(ABS), 상업용 부동산담보부증권(CMBS), 프라이빗 크레딧 시장을 보다 적극적으로 활용할 가능성이 높다고 봤다. 올해 기록적인 자금 발행 이후 신규 금융 규모와 집중도가 더 커질 것으로 예상됐다. 실제 미국 ABS 시장에서는 지난해 약 150억 달러(약 22조원)가 발행된 만큼, 데이터센터 건설 대출을 중심으로 올해 발행 규모가 크게 증가할 것으로 전망했다. AI 확산을 뒷받침하기 위해 필요한 막대한 부채 규모를 두고 일각에서는 거품 우려도 제기되고 있다. 일부 기술이 기대에 못 미칠 경우 주식 및 신용 투자자들에게 부정적인 영향을 미칠 수 있다는 지적이다. 다만 무디스는 신규 데이터센터 건설 수요가 둔화될 조짐은 보이지 않는다고 평가했다. 무디스는 데이터센터 증설 경쟁이 아직 초기 단계에 있으며 향후 12~18개월 동안 글로벌 시장에서 성장세가 이어질 것으로 내다봤다. 장기적으로는 향후 10년 내 필요한 용량을 확보하기 위한 투자가 지속될 것이라는 분석이다. 무디스 존 메디나 수석 부사장은 "불과 3년 전만 해도 존재하지 않았던 챗GPT와 같은 서비스가 이제는 막대한 연산 자원을 사용하고 있다"며 "신기술 등장 속도가 빨라 향후 채택 속도를 정확히 예측하기는 어렵지만, 데이터센터 용량 증설은 결국 필요해질 것"이라고 말했다.

2026.01.13 11:20한정호

몬드리안에이아이, '네오클라우드' 사업 출사표…포스트매스와 AI 에듀테크 고도화

몬드리안에이아이가 글로벌 인공지능(AI) 시장 새 패러다임인 '네오클라우드' 사업에 본격 나섰다. 몬드리안에이아이는 포스트매스와 손잡고 AI 에듀테크 플랫폼 고도화를 위한 전략적 파트너십을 체결했다고 12일 밝혔다. 몬드리안에이아이는 이번 파트너십을 통해 최신 엔비디아 그래픽처리장치(GPU)인 B300 클러스터를 구축하고 이를 기반으로 한 차세대 네오클라우드 서비스를 선보인다. 네오클라우드는 기존 범용 퍼블릭 클라우드와 달리, 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스다. 몬드리안에이아이는 자사 AI 플랫폼 '런유어 AI'와 첨단 GPU 자산을 결합해 포스트매스와 같은 딥테크 기업이 인프라 제약 없이 혁신을 주도하도록 지원하는 네오클라우드 서비스 공급자로서 입지를 공고히 할 계획이다. 몬드리안에이아이 네오클라우드 인프라는 포스트매스가 추진하는 AI 기반 에듀테크 플랫폼 고도화를 뒷받침하는 핵심 엔진 역할을 수행할 전망이다. 포스트매스는 몬드리안에이아이 B300 인프라를 활용해 자체 AI 모델 개발과 400만 개 이상 데이터베이스(DB)를 활용한 AI 학습·자동화 솔루션 개발에 적용할 예정이다. 이는 포스트매스가 첨단 AI 인프라 확보를 통해 교육 솔루션 완전 자동화와 글로벌 확장을 앞당기고자 하는 적극적 투자 전략이다. 몬드리안에이아이는 네오클라우드 사업 핵심인 매니지드 서비스 역량을 집중 투입한다. B300 하이엔드 GPU 운영에 필수적인 고밀도 전력 및 냉각 시스템, 머신러닝 운영관리(MLOps) 기술력을 바탕으로 포스트매스 연구진이 인프라 관리 부담 없이 AI 모델 연구와 서비스 혁신에만 몰입할 수 있는 환경을 제공한다는 방침이다. 이와 함께 몬드리안에이아이는 고성능 인프라 확보와 안정적인 운영 환경 구축에 어려움을 겪는 기업 및 연구기관을 대상으로 AI 인프라 전략 컨설팅을 상시 운영한다. 차세대 추론형 AI 모델 개발을 위해 고성능 연산 자원이 필요한 고객사를 대상으로 전문 매니지드 서비스를 제공해 인프라 구축부터 최적화까지 원스톱 솔루션을 지원할 계획이다. 홍대의 몬드리안에이아이 대표는 "이번 협력은 우리가 표방하는 네오클라우드 비즈니스의 본격적인 출발점"이라며 "포스트매스가 주도하는 에듀테크 플랫폼 솔루션 혁명이 성공적으로 안착할 수 있도록 독보적인 인프라 기술력을 총동원하겠다"고 밝혔다. 최준호 포스트매스 대표는 "올해는 우리가 운영하는 AI 콘텐츠 제작 플랫폼 '수학비서'가 글로벌 에듀테크 플랫폼으로 약진하는 시발점이 될 것이기에 그 어느 때보다 AI 인프라가 중요한 시점"이라며 "몬드리안에이아이와의 파트너십이 좋은 선례가 될 것으로 기대하며 상호 보완 및 협력 사업 발굴에 적극 임할 것"이라고 말했다.

2026.01.12 17:00한정호

이노그리드, 전국 6개 권역 지사 체계 전환…지역 클라우드 대응 강화

이노그리드가 지방 고객 확대와 지역별 클라우드 서비스 수요 증가에 박차를 가한다. 이노그리드는 전국 6개 권역 기반 지사 운영 체계로 전환하고 영업·기술지원 역량 강화를 중심으로 한 영업 확장 전략을 본격 추진한다고 12일 밝혔다. 이번 지사 체계 전환은 기존 수도권 중심 단일 운영 구조에서 벗어나 권역별 고객 대응 프로세스를 고도화하고 지역 특성에 맞춘 영업 전략을 단계적으로 확대해 전국 단위 B2B 고객 지원 역량을 강화하려는 조치다. 이노그리드는 이번 지사 체계 전환에 앞서 대표 직속 조직을 폐지하고 개발·사업·수행·BD·전략·경영 등 6개 그룹 체계로 조직을 재편하는 전사 조직개편을 단행했다. 각 그룹장 책임 아래 기능별 전문성과 의사결정, 실행력을 강화해 회사 전반의 사업 수행 효율과 운영 안정성을 높였다는 설명이다. 이같은 조직개편을 바탕으로 이노그리드는 전국을 ▲서울·강원 ▲인천·경기 ▲충청 ▲호남 ▲영남 ▲대구·경북 등 6개 권역으로 구분해 운영한다. 서울·강원과 인천·경기 권역은 기존과 같이 서울 본사를 중심으로 통합 대응하고 충청권에는 대전지사, 호남권에는 광주지사, 영남권에는 부산지사, 대구·경북 권역에는 대구지사를 운영한다. 이를 통해 전국 6개 권역, 4개 지사 기반의 전국 단위 클라우드 서비스 네트워크를 가동한다. 각 지사는 단순 영업 거점이 아닌 클라우드, 인공지능(AI) 인프라 구축, 재해복구(DR) 시스템 구축, 외산 솔루션 윈백, 전환 컨설팅, 서비스 운영 및 기술지원 등 클라우드 전문기업 역할을 수행하게 된다. 또 지역 내 공공기관 및 기업 고객을 대상으로 영업 활동과 지역별 특성·수요를 반영한 맞춤형 서비스를 제공한다. 지사 체계는 박홍선 상무가 총괄한다. 박홍선 리전 익스펜션 사업본부장은 "이번 지사 체계 전환은 우리 핵심 역량인 클라우드 기술력을 전국으로 확산하고 지역별 고객들에게 보다 신속하고 차별화된 고품질 서비스를 제공하기 위한 전략적 결정"이라며 "각 권역에서 영업과 기술지원이 유기적으로 협력해 고객과 거리를 좁히고 지역 현장에서 체감할 수 있는 실질적인 서비스 경쟁력을 지속 강화해 나가겠다"고 밝혔다. 또 이노그리드는 지사 운영과 연계해 지역 기반 기술 인력 확보에도 나선다. 지역 우수 IT 인재 채용을 통해 수도권 중심 인력 구조에서 벗어나고 본사와 지사 간 협업 체계를 강화해 분산된 환경에서도 안정적인 프로젝트 수행과 기술지원이 가능케 할 계획이다. 아울러 지사 설립을 계기로 지역 IT 기업들과 협력도 강화한다. 클라우드 기술력과 지역 IT 기업의 인프라 및 시장 이해도를 결합해 지역별 산업 특성에 최적화된 맞춤형 디지털 전환 모델을 공동 개발하고 판로 개척을 지원하는 등 동반 성장을 추진할 방침이다. 김명진 이노그리드 대표는 "이번 지사 체계 전환은 올해 AI 시대를 주도하는 클라우드 솔루션 기업으로 도약하기 위한 사업 확산의 초석으로, 전국 6개 권역을 중심으로 고객 접점을 촘촘히 넓히고 지역 특화 파트너와 협업을 제도화해 전국 단위 파트너사 체계를 확립하겠다"고 말했다. 이어 "기술과 실행으로 고객 가치를 높이고 지역과 함께 성장하는 디지털 전환 생태계를 만들어 가겠다"고 덧붙였다.

2026.01.12 11:36한정호

생성형 AI, 수업·행정 효율 돕지만…가트너 "관리 역량 부족"

전 세계 교육 기관이 생성형 인공지능(AI)을 수업 준비와 행정 업무 효율화에 활용하고 있지만 기술 공정성과 활용 범위에 대한 기준과 거버넌스는 여전히 부족하다는 분석이 나왔다. 11일 가트너가 공개한 트렌드 보고서에 따르면 각국 초·중·고 학교에는 AI 기술 도입 속도와 이를 관리하는 체계 사이에 뚜렷한 격차가 존재하는 것으로 나타났다. 가트너는 교육기관 내 AI 확산이 오히려 관리와 기준 공백을 키우고 있다고 진단했다. 이에 따라 교육 기술 경쟁 초점도 단순한 도입을 넘어 거버넌스와 통합 운영으로 이동하고 있다는 분석이다. 보고서는 생성형 AI가 수업 준비와 행정 업무 전반에 빠르게 적용되고 있는 반면, 학생 데이터 보호를 비롯해 기술 공정성, 활용 범위에 대한 명확한 기준과 관리 체계는 여전히 미흡하다고 지적했다. 특히 학생 개인정보와 학습 기록, 행동 데이터가 AI 시스템과 연결되면서 실시간 모니터링, 제로 트러스트 보안, 사이버 위협 대응 역량이 충분히 뒷받침되지 않고 있다는 평가가 나왔다. 가트너는 코로나 시기 대규모로 도입된 노트북, 태블릿, 네트워크 장비가 노후화 단계에 접어든 점도 주요 배경으로 봤다. 이에 단기적인 기기 교체가 아닌 장기 기술 교체와 클라우드 전환이 학교 운영 핵심 과제가 될 것이라고 전망했다. 또 학교 선택제 확대와 홈스쿨링 증가로 학습 모델이 다변화되면서, 학생 이동, 등록, 학습 이력을 통합 분석하는 상호운용 플랫폼에 대한 수요도 함께 커지고 있다고 분석했다. 가트너는 "각국 학교는 AI와 보안, 디지털 인프라를 개별 과제가 아닌 통합 전략으로 다뤄야 한다"며 "효율성과 규제, 학생 보호를 동시에 충족하는 구조로 전환해야 한다"고 밝혔다.

2026.01.11 15:00김미정

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호

엔비디아·오픈AI 파트너 英 엔스케일, 20억 달러 투자 추진…IPO 수순 밟나

엔비디아의 지원을 받는 영국 인공지능(AI) 데이터센터 기업 엔스케일이 대규모 신규 투자 유치에 나설 가능성이 제기됐다. AI 인프라 투자 열기가 이어지는 가운데 '네오클라우드'로 불리는 신흥 AI 하이퍼스케일러들의 몸값과 사업 지속성에 이목이 쏠리고 있다. 9일 블룸버그통신에 따르면 엔스케일은 약 20억 달러(약 2조9천억원) 규모 자금 조달을 목표로 투자자들과 논의를 진행 중이다. 이는 두 차례에 걸쳐 15억 달러(약 2조1천800억원) 이상을 조달한 지 불과 석 달여 만이다. 이번 잠재적 투자 유치를 위해 골드만삭스와 JP모건체이스와 협력 중인 것으로 알려졌다. 다만 논의는 초기 단계로, 최종적으로 거래가 성사되지 않을 가능성도 배제할 수 없다고 소식통들은 전했다. 엔스케일은 2024년 암호화폐 채굴 사업을 시작으로 현재는 고성능 AI 반도체를 클라우드형 서비스로 제공하는 네오클라우드 사업자 중 하나다. 엔스케일은 엔비디아, 오픈AI와의 파트너십을 기반으로 유럽 내 AI 인프라 수요를 흡수하며 빠르게 성장해왔다. 최근 포르투갈에서 마이크로소프트(MS) 및 현지 파트너와 함께 100억 달러(약 14조원)를 투입해 데이터센터를 구축 중이다. 노르웨이와 영국에서도 엔스케일 데이터센터 자원을 임대할 계획이다. 앞서 엔스케일은 지난해 9월과 10월 각각 11억 달러(약 1조6천억원), 4억3천300만 달러(약 6천299억원) 규모 투자를 유치했다. 특히 9월 라운드 투자는 유럽 역사상 최대 규모 시리즈B 투자로 기록됐으며 엔비디아를 비롯해 델·노키아·피델리티·블루아울·포인트72 등이 투자자로 참여했다. 경영진 보강도 눈에 띈다. 엔스케일은 최근 팔란티어 출신의 로런 허위츠를 최고운영책임자(COO)로 영입했고 지난달에는 JP모건에서 20년 이상 근무한 앨리스 타흐타잔을 최고재무책임자(CFO)로, 마이크로소프트 애저 AI·HPC 인프라 부문 임원을 지낸 니디 차펠을 AI 인프라 부문 사장으로 선임했다. 일부 투자자들은 이같은 인사 행보를 향후 기업공개(IPO)를 염두에 둔 포석으로 보고 있다. 최근 네오클라우드 기업들의 주가는 변동성이 확대되는 양상이다. 코어위브는 지난해 3월 상장 이후 주가가 고점 대비 조정받았지만, 현재도 공모가 대비 두 배 수준에서 거래 중이다. 네비우스 그룹은 대형 파트너십을 바탕으로 지난 1년간 주가가 세 배 이상 상승했다. 사안에 정통한 소식통은 "엔스케일은 엔비디아 및 오픈AI와의 협력을 무기로 유럽 내 AI 인프라 수요를 선점하고 있지만, 이번 투자 유치는 시장 상황과 기업가치를 둘러싼 투자자들의 판단에 따라 최종 결정이 내려질 것"이라고 밝혔다.

2026.01.09 11:23한정호

케이투스, 유럽서 AI 데이터센터 턴키 모델 검증…"韓에도 유효"

케이투스가 통합 턴키 서비스를 통해 대규모 수냉식 인공지능(AI) 데이터센터 구축 속도 단축에 박차를 가한다. 설계·설치·시운전·최적화·가동 전 과정을 하나로 묶은 원스톱 엔드투엔드 서비스를 제공해 복잡한 AI 인프라 구축 과정에서 발생할 수 있는 운영 부담을 줄인다는 목표다. 케이투스는 최근 유럽에서 100캐비닛 규모 고밀도 수냉식 AI 데이터센터를 약 4개월 만에 구축했다고 8일 밝혔다. 이번 프로젝트는 통상 10~12개월이 소요되는 수냉식 AI 데이터센터 구축 기간을 최대 80%가량 단축한 사례로, 고밀도 AI 인프라를 단기간에 구축해야 하는 고객 요구에 대응한 것이 특징이다. 구축 과정에서는 정밀한 성능 테스트와 시스템 튜닝을 병행해 전체 클러스터 성능을 약 20% 향상시켰다. 해당 데이터센터는 전자상거래·핀테크·디지털 미디어 분야를 대상으로 컴퓨팅·스토리지·네트워크 서비스를 제공하는 유럽의 인프라 유니콘 기업을 위해 구축됐다. AI 워크로드 증가에 따라 제한된 일정과 높은 기술 복잡성 속에서 안정적인 고성능 AI 클러스터를 신속히 구축해야 하는 과제를 해결하고자 케이투스와 협력했다. 케이투스는 캐비닛 단위로 사전 제작·검증을 완료하는 모듈형 딜리버리 방식을 적용했다. 수냉 서버와 냉각 분배 장치, 매니폴드, 커넥터 등을 공장에서 단일 시스템으로 통합한 뒤 출하 전 압력 테스트와 번인 테스트를 거쳐 현장 설치 시간을 대폭 줄였다. 현장에서는 데이터홀 주 냉각 루프에 연결한 뒤 최소한의 시운전만으로 즉시 가동이 가능하도록 했다. 또 구축 전 과정에서 전문 서비스팀이 참여해 현장 환경에 맞춘 맞춤형 설계와 시공을 진행했다. 고기밀 핫·콜드 아일 컨테인먼트 설계, 캐비닛 하중 균형을 고려한 구조 보강, 액체냉각 배관 안정성을 높이기 위한 정밀 시공을 통해 장기 운영 안정성과 냉각 효율을 동시에 확보했다. 시스템 설치 이후에는 운영체제·드라이버·소프트웨어 버전 일관성을 유지하는 병렬 배포 기술과 단계별 성능 검증을 통해 클러스터 전체의 안정성과 성능을 끌어올렸다. 그 결과 주요 AI 연산 및 통신 성능 벤치마크에서 약 20% 수준의 성능 개선 효과를 확인했다. 케이투스 코리아 손영락 부사장 겸 AI 최고전략책임자는 "이번 유럽 프로젝트를 통해 검증된 통합 턴키 서비스 모델을 국내에도 적용할 계획"이라며 "한국의 높은 전력비용과 여름철 고온 환경을 고려하면 우리 고효율 액체냉각 솔루션이 특히 유효할 것"이라고 밝혔다. 이어 "기존 공랭식 대비 냉각 효율을 대폭 개선해 전력 사용량을 최대 30% 절감할 수 있어 총소유비용(TCO) 최적화 측면에서 국내 기업들에게 경쟁력 있는 대안을 제공할 것"이라고 덧붙였다.

2026.01.08 17:28한정호

슈퍼마이크로, 엔비디아 '베라 루빈' 지원 발표…수냉식 AI 인프라 공개

슈퍼마이크로가 CES 2026에서 공개된 차세대 엔비디아 베라 루빈과 플랫폼 지원을 위한 수냉식 인공지능(AI) 인프라 구축을 공식 발표했다. 슈퍼마이크로는 엔비디아와 협력해 베라 루빈 NVL72 및 HGX 루빈 NVL8 플랫폼을 지원하는 수냉식 AI 인프라 솔루션을 신속히 제공하기 위해 제조 역량과 냉각 기술을 확대한다고 8일 밝혔다. 이번 협력을 통해 슈퍼마이크로는 엔비디아 베라 루빈 NVL72 슈퍼클러스터와 HGX 루빈 NVL8 솔루션을 신속히 공급한다는 목표다. 랙 스케일 설계와 모듈형 데이터센터 빌딩 블록 솔루션(DCBBS)을 기반으로 다양한 구성 옵션과 신속한 구축을 지원해 대규모 AI 인프라 도입 기간을 단축할 계획이다. 엔비디아 베라 루빈 NVL72 슈퍼클러스터는 엔비디아 루빈 그래픽처리장치(GPU) 72개와 엔비디아 베라 중앙처리장치(CPU) 36개를 하나의 랙 스케일 솔루션으로 통합한 플래그십 AI 인프라다. 엔비디아 NV링크 6 기반 고속 인터커넥트와 커넥트X-9 슈퍼 NIC, 블루필드-4 DPU를 통해 GPU 및 CPU 간 고속 통신을 지원하며 인피니밴드와 이더넷 기반 네트워크로 대규모 클러스터 확장이 가능하다. 슈퍼마이크로가 공개한 2U 수냉식 엔비디아 HGX 루빈 NVL8 솔루션은 8-GPU 기반 고밀도 시스템으로 AI와 고성능컴퓨팅(HPC) 워크로드에 최적화됐다. 고속 NV링크와 HBM4 메모리 대역폭을 제공하며 차세대 인텔 제온 및 AMD 에픽 프로세서를 지원하는 x86 기반 구성 옵션을 갖췄다. 직접 수냉식(DLC) 기술도 적용돼 집적도와 에너지 효율도 높였다. 이와 함께 슈퍼마이크로는 엔비디아 스펙트럼-X 이더넷 포토닉스 네트워킹과 블루필드-4 DPU를 지원하는 서버·스토리지 솔루션을 통해 네트워크 및 데이터 처리 성능을 강화했다. 확장된 제조 시설과 엔드투엔드 수냉식 기술 스택을 바탕으로 하이퍼스케일러와 엔터프라이즈 고객의 대규모 AI 인프라 구축 수요에 대응할 방침이다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "확장된 제조 역량과 수냉식 기술을 바탕으로 하이퍼스케일러와 엔터프라이즈 고객이 베라 루빈 및 플랫폼 기반 AI 인프라를 대규모로 신속하고 효율적으로 구축할 수 있도록 지원할 것"이라고 밝혔다.

2026.01.08 17:09한정호

팀네이버, 엔비디아 B200 4천장 클러스터 구축…AI 개발 속도 12배↑

팀네이버가 인공지능(AI) 기술을 서비스와 산업 전반에 유연하게 적용하기 위한 글로벌 수준 컴퓨팅 파워를 확보했다. 팀네이버는 차세대 엔비디아 그래픽처리장치(GPU) B200 4천 장 규모를 기반으로 국내 최대 규모 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다. 팀네이버는 단순 장비 도입을 넘어 대규모 GPU 자원을 하나로 연결해 최적의 성능을 끌어내는 클러스터링 분야에 중점을 뒀다. 지난 2019년 엔비디아 슈퍼컴퓨팅 인프라인 '슈퍼팟'을 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계·운영한 실증 경험을 축적해왔다. 이번에 구축된 B200 4K 클러스터에는 이러한 경험을 바탕으로 한 냉각·전력·네트워크 최적화 기술이 집약됐다. 대규모 병렬 연산과 고속 통신을 전제로 설계된 이번 클러스터는 글로벌 톱500 상위권 슈퍼컴퓨터들과 비교 가능한 수준의 컴퓨팅 규모를 갖춘 것으로 평가된다. 이같은 인프라 성능은 AI 모델 개발 속도로 직결된다. 회사 측은 내부 시뮬레이션 결과, 720억 개(72B) 파라미터 규모 모델 학습 시 기존 A100 기반 주력 인프라로 약 18개월이 소요되던 학습 기간을 이번 B200 4K 클러스터에서는 약 1.5개월 수준으로 단축할 수 있는 효과를 확인했다. 해당 수치는 내부 시뮬레이션 결과로, 실제 학습 과제와 설정에 따라 소요 기간은 달라질 수 있다는 설명이다. 학습 효율이 12배 이상 향상됨에 따라 팀네이버는 더 많은 실험과 반복 학습을 통해 모델 완성도를 높이고 변화하는 기술 환경에 보다 기민하게 대응할 수 있는 개발·운영 체계를 갖추게 됐다고 설명했다. 대규모 학습을 빠르게 반복할 수 있는 인프라가 확보되면서 AI 모델 개발 전반의 속도와 유연성이 한층 강화됐다는 평가다. 팀네이버는 이러한 인프라를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에도 속도를 낼 계획이다. 텍스트를 넘어 이미지·비디오·음성을 동시에 처리하는 옴니 모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고 이를 다양한 서비스와 산업 현장에 단계적으로 적용한다는 구상이다. 최수연 네이버 대표는 "이번 AI 인프라 구축은 단순한 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보했다는 데 의미가 있다"며 "빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 보다 유연하게 적용해 실질적인 가치를 만들어 나갈 것"이라고 말했다.

2026.01.08 16:59한정호

삼성SDS, 60MW 규모 구미 AI 데이터센터 건립 추진…2029년 가동

삼성SDS는 4천273억원을 투입해 60메가와트(MW) 규모 구미 인공지능(AI) 데이터센터 신규 건립에 박차를 가한다. 삼성SDS는 7일(현지시간) 미국 라스베이거스에서 열린 CES 2026에서 경상북도, 구미시와 구미 AI 데이터센터 건립을 위한 양해각서(MOU)를 체결했다고 밝혔다. 이날 체결식에는 이준희 삼성SDS 대표, 김장호 구미시장, 경상북도 양금희 경제부지사가 참석했다. 구미 AI 데이터센터는 삼성SDS가 지난 2024년 12월 삼성전자로부터 취득한 옛 삼성전자 구미1사업장 부지에 들어서며 가동 예정 시점은 2029년 3월이다. 이번 데이터센터 구축을 통해 삼성SDS는 급증하는 AI 수요에 대응하는 핵심 인프라를 확보하고 구미시 지역 경제 활성화와 AI 산업 생태계 확충에 기여할 계획이다. 구미 AI 데이터센터는 AI·그래픽처리장치(GPU) 중심 서비스에 최적화된 고전력 IT 장비 운영 환경을 목표로, 유연성·확장성·신뢰성을 갖춘 미래 수요 대응형 하이퍼스케일 데이터센터로 건립된다. 삼성SDS는 이러한 하이퍼스케일 데이터센터 운영을 위해 냉각과 전력 인프라 전반에 최신 기술을 적용한다. 서버룸에서 발생하는 고발열에 대응하기 위해 공냉식과 수냉식을 하나의 서버룸에 혼합 적용하는 하이브리드 쿨링 기술을 도입한다. 이를 통해 GPU 등 고전력을 소비하는 서버에 냉수를 직접 공급하고 네트워크나 스토리지 등 상대적으로 발열이 낮은 장비에는 공냉식을 적용함으로써 전력 효율을 높이고 에너지 소비를 최소화할 계획이다. 또 서버룸은 다양한 전력 밀도 랙 운영을 고려해 설계되며 향후 초고전력 랙까지 안정적으로 운영할 수 있는 환경으로 구축된다. 경상북도와 구미시는 이번 MOU를 계기로 삼성SDS의 구미 AI 데이터센터 투자 계획이 원활히 추진될 수 있도록 행정적·제도적 지원에 나선다. 앞서 삼성SDS는 지난 2일 구미 AI 데이터센터 투자를 공시했다. 이날 이사회에서 승인된 투자 금액 4천273억원은 데이터센터 건물 건립과 설비 구축 비용으로, 향후 AI 인프라 확충에 따라 추가 설비 투자가 이뤄질 수 있다는 설명이다. 이준희 삼성SDS 대표는 "구미 AI 데이터센터 투자를 통해 AI 인프라 경쟁력을 강화하는 동시에 구미시 지역 경제 활성화와 산업 생태계 발전에 기여해 나가겠다"고 밝혔다. 양금희 경제부지사는 "이번 협약을 CES 2026 현장에서 체결한 것은 경상북도가 글로벌 시장과 투자자들에게 AI 인프라 투자 최적지로서의 경쟁력과 추진 의지를 분명히 보여준 의미 있는 성과"라고 말했다. 김장호 구미시장은 "이번 협약을 계기로 구미는 AI 인프라를 기반으로 한 미래 산업 중심 도시로 한 단계 더 도약하게 될 것"이라고 강조했다.

2026.01.08 11:33한정호

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호

삼성SDS, 구미 AI 데이터센터 건립 착수…4273억원 투자 의결

삼성SDS가 경북 구미에 대규모 인공지능(AI) 데이터센터를 구축한다. AI 연산 인프라를 확대해 서비스 경쟁력을 강화하려는 행보다. 삼성SDS는 2일 구미 AI 데이터센터 건립을 위해 4천273억원 규모의 유형자산 취득을 결정했다고 공시했다. 투자는 이날 열린 이사회에서 결정됐다. 안건 의결에는 사외이사 4명이 모두 참석했다. 삼성SDS는 구미 AI 데이터센터를 건립해 AI 연산 수요 증가에 대응하고 중장기 성장 기반을 마련한다는 계획이다. 공시에 따르면 이번에 승인된 취득가액은 건물과 설비 투자 금액으로, 향후 수요 점검 결과에 따라 추가 설비 투자가 이뤄질 가능성도 열어뒀다. 데이터센터는 2024년 12월 이미 취득한 구미 부지에 들어설 예정이다. 삼성SDS는 앞서 2024년 11월 삼성전자로부터 경북 구미 1공장 일부 부지를 매입하며 AI 데이터센터 구축을 추진해왔다. 현재는 설계와 디자인 단계에 들어간 것으로 알려졌다. 구미 AI 데이터센터는 고집적 AI 연산을 고려해 냉각 효율을 높인 수랭식 시스템을 적용하고 재생에너지 사용 비중을 확대하는 등 ESG 기준을 충족하는 고효율 인프라로 구축될 전망이다. 업계에서는 이번 투자가 삼성전자를 포함한 삼성 관계사의 AI 서비스와 내부 시스템을 안정적으로 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 자체 데이터센터를 통한 연산 내재화로 보안성과 비용 효율성을 동시에 확보하려는 전략이라는 분석이다. 특히 삼성SDS는 외부 고객을 대상으로 한 서비스형 그래픽처리장치(GPUaaS) 등 AI 인프라 기반 대외 사업 확대에도 구미 AI 데이터센터를 활용할 계획이다. 공시상 공사 완료 및 가동 예정 시점은 2029년 3월이다. 삼성SDS는 장기간에 걸친 단계적 투자를 통해 AI·클라우드 수요 증가에 대응하는 중장기 성장 축으로 데이터센터 사업을 키운다는 구상이다. 한국투자증권 정호윤 연구원은 최근 리포트를 통해 "데이터센터 투자는 삼성SDS가 보유한 현금성 자산을 활용해 장기적인 자기자본이익률(ROE)을 높이는 큰 그림과 맞닿아 있다"며 "시간이 흐를수록 실적 증가 잠재력이 높아질 것"이라고 밝혔다.

2026.01.02 18:00한정호

소프트뱅크, 오픈AI에 57조원 투자 완료…지분율 10% 상회

손정의 회장이 이끄는 소프트뱅크가 오픈AI에 약속했던 400억 달러(약 57조원) 투자를 모두 완료했다. 이번 투자로 오픈AI 핵심 주주로 올라서며 AI 인프라와 생태계 전반에 대한 대규모 베팅을 본격화하고 있다. 1일 CNBC에 따르면 소프트뱅크는 최근 오픈AI에 대한 투자 약정 잔금인 220억~225억달러를 납입하며 총 400억 달러 투자 약속을 이행했다. 소프트뱅크는 앞서 지난해 4월 80억 달러를 직접 출자한 데 이어 공동 투자자들과 함께 100억 달러를 추가 조성하는 등 단계적으로 자금을 집행해왔다. 이번 투자는 지난해 2월 오픈AI 기업가치를 2천600억달러(약 376조원)로 평가한 조건을 기준으로 이뤄졌다. 이후 오픈AI의 기업가치는 급격히 상승해 10월 기준 5천억 달러(약 723조원)까지 치솟았으며 향후 기업공개(IPO)에 나설 경우 1조 달러(약 1천447조원) 수준의 평가를 받을 수 있다는 관측도 나온다. 소프트뱅크는 이번 투자로 오픈AI 지분율 10%를 넘기며 마이크로소프트(MS)와 비영리 오픈AI 재단에 이은 주요 주주로 자리매김했다. 오픈AI는 지난 10월 공익과 영리를 동시에 추구하는 공익법인(PBC)으로 기업 구조를 개편하며 MS와 재단의 지분율을 각각 27%, 26%로 조정한 바 있다. 소프트뱅크는 오픈AI 투자 재원을 마련하기 위해 보유 중이던 약 58억 달러(약 8조4천억원) 규모 엔비디아 지분을 전량 매각하기도 했다. 당시 손정의 회장은 "오픈AI 등에 투자하기 위해 울며 겨자 먹기로 매각했다"고 밝혔다. 이번 투자금의 일부는 소프트뱅크·오픈AI·오라클이 공동 추진하는 미국 내 초대형 AI 데이터센터 구축 프로젝트 '스타게이트'에 투입될 예정이다. 앞서 소프트뱅크는 최근 AI 인프라 투자 확대를 위해 데이터센터 전문 투자사 디지털브리지를 40억 달러(약 5조7천억원)에 인수한다고 발표했다.

2026.01.01 09:30한정호

오픈AI·오라클 스타게이트, 美 미시간서 전력·환경 갈등 촉발

인공지능(AI) 인프라 확장을 둘러싼 기대와 우려가 미국 미시간주에서 정면 충돌하고 있다. 21일 가디언 등 주요 외신에 따르면 오픈AI와 오라클이 추진 중인 초대형 데이터센터 프로젝트 '스타게이트'가 지역 전력망 부담과 환경 훼손, 절차적 정당성 논란까지 불러오며 지역사회 반발을 키우고 있다. 미국 미시간주 세일린 타운십에 건설 예정인 스타게이트 데이터센터는 최대 1.4기가와트(GW)의 전력을 사용하는 초대형 시설로, 디트로이트시 전체 전력 사용량에 맞먹는 규모다. 총 투자액은 약 70억 달러(약 10조원)에 달한다. 문제는 전력과 환경 부담이다. 주민들은 대규모 전력 수요로 인해 전기요금 인상 가능성이 커지고, 지하수 고갈 및 농촌 지역 훼손이 불가피하다고 주장하고 있다. 특히 미시간주가 2040년까지 재생에너지 전환을 의무화한 상황에서 스타게이트 프로젝트가 예외 조항을 촉발해 화석연료 발전 확대의 빌미가 될 수 있다는 우려도 제기된다 . 당초 세일린 타운십 이사회는 주민 반대 여론을 이유로 데이터센터 부지 용도 변경을 부결했지만, 개발사가 소송을 제기하면서 합의로 사업이 재추진됐다. 이후 미시간 공공서비스위원회(MPSC)는 별도의 공청회 없이 전력 공급 계약을 승인해 논란을 키웠다. 전력 공급사 DTE 에너지는 "데이터센터 전력 비용이 일반 가정용 요금으로 전가되지 않는다"고 설명했지만, 주민들은 충분한 검증이 이뤄지지 않았다고 반발하고 있다. 스타게이트 프로젝트는 오픈AI와 오라클이 주도하는 미국 정부 차원의 AI 인프라 전략 사업이다. 도널드 트럼프 미국 대통령은 이를 미국 기술 경쟁력의 상징으로 평가했으며 샘 알트먼 오픈AI 최고경영자(CEO)와 래리 엘리슨 오라클 창업자 등도 직접 관여하고 있다. 한편 오픈AI는 최근 스타게이트 프로젝트의 글로벌 확장을 본격화하며 영국 재무장관 출신 조지 오스본을 '오픈AI 포 컨트리' 총괄 책임자로 영입했다. 이는 각국 정부와 협력해 민주적 가치에 기반한 AI 인프라를 구축하겠다는 구상으로, 스타게이트를 미국 밖으로 확장하려는 전략의 일환이다. 주요 외신들은 이번 미시간 사례를 미국 전역에서 반복되고 있는 데이터센터 갈등의 전형으로 보고 있다. AI 경쟁이 격화되면서 전력·환경·지방자치 권한을 둘러싼 충돌이 불가피해지고 있으며 대규모 AI 인프라 투자가 지역사회 수용성이라는 새로운 시험대에 올랐다는 분석이다.

2025.12.21 17:36한정호

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, SK하이닉스와 메모리 수익성 좁혔다

[AI 기본법 시행②] "준비만이 살 길"…대기업·스타트업·협단체 대응 총력

"두쫀쿠 유행 타고 싶지만"…식품사·프랜차이즈 망설이는 이유

스테이블코인에 쏠린 시선...법인계좌·디지털자산 ETF 논의 '잠잠'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.