• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'클라우드 데이터센터'통합검색 결과 입니다. (96건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호

엔비디아·오픈AI 파트너 英 엔스케일, 20억 달러 투자 추진…IPO 수순 밟나

엔비디아의 지원을 받는 영국 인공지능(AI) 데이터센터 기업 엔스케일이 대규모 신규 투자 유치에 나설 가능성이 제기됐다. AI 인프라 투자 열기가 이어지는 가운데 '네오클라우드'로 불리는 신흥 AI 하이퍼스케일러들의 몸값과 사업 지속성에 이목이 쏠리고 있다. 9일 블룸버그통신에 따르면 엔스케일은 약 20억 달러(약 2조9천억원) 규모 자금 조달을 목표로 투자자들과 논의를 진행 중이다. 이는 두 차례에 걸쳐 15억 달러(약 2조1천800억원) 이상을 조달한 지 불과 석 달여 만이다. 이번 잠재적 투자 유치를 위해 골드만삭스와 JP모건체이스와 협력 중인 것으로 알려졌다. 다만 논의는 초기 단계로, 최종적으로 거래가 성사되지 않을 가능성도 배제할 수 없다고 소식통들은 전했다. 엔스케일은 2024년 암호화폐 채굴 사업을 시작으로 현재는 고성능 AI 반도체를 클라우드형 서비스로 제공하는 네오클라우드 사업자 중 하나다. 엔스케일은 엔비디아, 오픈AI와의 파트너십을 기반으로 유럽 내 AI 인프라 수요를 흡수하며 빠르게 성장해왔다. 최근 포르투갈에서 마이크로소프트(MS) 및 현지 파트너와 함께 100억 달러(약 14조원)를 투입해 데이터센터를 구축 중이다. 노르웨이와 영국에서도 엔스케일 데이터센터 자원을 임대할 계획이다. 앞서 엔스케일은 지난해 9월과 10월 각각 11억 달러(약 1조6천억원), 4억3천300만 달러(약 6천299억원) 규모 투자를 유치했다. 특히 9월 라운드 투자는 유럽 역사상 최대 규모 시리즈B 투자로 기록됐으며 엔비디아를 비롯해 델·노키아·피델리티·블루아울·포인트72 등이 투자자로 참여했다. 경영진 보강도 눈에 띈다. 엔스케일은 최근 팔란티어 출신의 로런 허위츠를 최고운영책임자(COO)로 영입했고 지난달에는 JP모건에서 20년 이상 근무한 앨리스 타흐타잔을 최고재무책임자(CFO)로, 마이크로소프트 애저 AI·HPC 인프라 부문 임원을 지낸 니디 차펠을 AI 인프라 부문 사장으로 선임했다. 일부 투자자들은 이같은 인사 행보를 향후 기업공개(IPO)를 염두에 둔 포석으로 보고 있다. 최근 네오클라우드 기업들의 주가는 변동성이 확대되는 양상이다. 코어위브는 지난해 3월 상장 이후 주가가 고점 대비 조정받았지만, 현재도 공모가 대비 두 배 수준에서 거래 중이다. 네비우스 그룹은 대형 파트너십을 바탕으로 지난 1년간 주가가 세 배 이상 상승했다. 사안에 정통한 소식통은 "엔스케일은 엔비디아 및 오픈AI와의 협력을 무기로 유럽 내 AI 인프라 수요를 선점하고 있지만, 이번 투자 유치는 시장 상황과 기업가치를 둘러싼 투자자들의 판단에 따라 최종 결정이 내려질 것"이라고 밝혔다.

2026.01.09 11:23한정호

[유미's 픽] 'K-AI 고속도로'는 아직 심사 중?…7월 착공 공표한 삼성SDS, 정부도 발 맞출까

국가인공지능(AI)컴퓨팅센터 추진 속도가 더딘 가운데 사업 주도권을 쥔 삼성SDS가 처음으로 착공 시점을 공개하며 속도전에 나섰다. 정부가 'AI 3대 강국'과 'K-AI 고속도로'를 외치고 있지만, 실제 움직임은 민간 시계가 더 빠르게 움직이고 있다는 평가가 나온다. 삼성SDS는 7일(현지시간) 'CES 2026' 현장에서 열린 기자간담회에서 국가AI컴퓨팅센터 착공 시점을 올해 7월로 잠정 결정했다고 밝혔다. 금융 심사가 2월 초 마무리되면 4월 1일 특수목적법인(SPC)을 설립하고, 설계 준비를 거쳐 곧바로 공사에 착수한다는 내부 타임라인도 함께 제시했다. 센터 개소 목표는 2028년이다.이준희 삼성SDS 대표는 "7월에 국가AI컴퓨팅센터를 착공한다"며 "현재 기술심사평가를 마치고 금융 부문 심사를 진행하는 중"이라고 말했다. 삼성SDS는 이 자리에서 이미 기술·정책 평가를 통과했고, 남은 절차는 금융 심사뿐이라는 점도 분명히 했다. 그간 '안갯속'처럼 추진돼 왔던 국가AI컴퓨팅센터의 일정이 처음 구체적으로 공개됐다는 점에서 업계에선 향후 정부가 이에 발 맞춰 협조할지를 두고 예의주시하고 있다. 그러나 정부의 행정 절차는 매우 더딘 상태다. 과학기술정보통신부는 지난해 말까지 우선협상대상자 선정을 마무리하겠다는 계획을 세웠지만, 현재까지 금융 심사가 이어지고 있다. 조 단위 자금이 투입되는 대형 프로젝트인 만큼 정책금융기관의 리스크 검토와 국민성장펀드 투자 심사가 겹치며 검토 기간이 길어지고 있는 것으로 전해졌다. 국가AI컴퓨팅센터는 총 2조5천억원 규모의 민관 협력 사업으로, 그래픽처리장치(GPU) 수만 장을 갖춘 초대형 AI 컴퓨팅 인프라를 구축하는 것이 목표다. 기업과 대학, 연구기관, 스타트업에 고성능 연산 자원을 제공하는 'AI 고속도로'의 핵심 거점으로, 정부의 AI 3대 강국 전략을 상징하는 프로젝트이기도 하다. 이처럼 사업 규모와 정책적 상징성이 큰 만큼, 업계에선 실제 사업 속도를 좌우할 핵심 변수로 'SPC 설립 시점'을 꼽고 있다. 국가AI컴퓨팅센터는 민관이 SPC를 세우고, 이 SPC가 구축·운영의 실체가 되는 구조다. 삼성SDS와 네이버클라우드, 카카오, KT 등 컨소시엄 참여사들은 지분 투자자 역할을 맡고, 실제 센터 구축과 운영은 SPC를 중심으로 이뤄진다. 현재로선 금융 심사가 마무리돼야 우선협상대상자 선정과 실시협약, SPC 출범이 연쇄적으로 진행될 수 있다. 이 대표는 "컨소시엄 구성원의 공식적인 역할은 SPC 설립을 위한 지분 투자자"라며 "실제 사업은 SPC가 하는 만큼 SPC를 통해 여러 협상과 논의가 이뤄질 것"이라고 말했다. 이 같은 상황에서 삼성SDS 컨소시엄은 전남 해남 솔라시도 부지를 직접 찾으며 선제 행보에 나섰다. 공모 참여 이후 첫 공식 대외 일정으로, 데이터센터 건립 예정지의 지반 조사 결과와 전력·통신 인프라 여건을 점검했다. 다만 삼성SDS 컨소시엄은 정부의 우선협상대상자 발표 후 5개월도 안 되는 시간에 SPC 설립과 센터 설계, 착공까지 마무리하는 가파른 일정을 소화해야 한다는 점에서 부담을 느끼고 있을 가능성이 높다. 업계 관계자는 "삼성SDS가 정부 결정을 기다리는 동시에 준비는 이미 끝났다는 시그널을 보낸 것"이라며 "정부 입장에서도 더 늦추기 어려운 압박이 될 수 있다"고 분석했다.또 다른 관계자는 "정부의 심사 지연은 곧 '착공 지연'으로 직결될 수 있다"며 "7월 착공이란 민간 계획이 현실이 되려면 정부의 빠른 결단이 필요하다"고 지적했다. 이어 "'AI 3강'이라는 구호가 실행력으로 이어질지, 첫 국가 AI 인프라부터 지연의 상징이 될지는 해남 국가AI컴퓨팅센터 추진에 달렸다"며 "이번 일이 정부 AI 정책의 시험대가 된 분위기"라고 덧붙였다.

2026.01.08 11:55장유미

[SW키트] AI 인프라 비용 폭증 시대…"엣지·분산 클라우드로 탈피"

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 전 세계가 인공지능(AI) 인프라 확장으로 비용 부담이 커지고 있는 가운데 분산 클라우드와 온디바이스 AI가 대안으로 부상하고 있다. 이를 통해 중앙집중형 데이터센터 의존도를 낮추고, AI를 효율적으로 구동하기 위한 전략이다. 6일 IT 업계에 따르면 글로벌 AI 인프라 경쟁이 격화하면서 막대한 전력과 비용 부담이 커질 것이란 전망이 나오면서 업계에선 이같은 대안책을 제시하고 있다. 단순히 데이터센터 확장만으로는 전력이나 비용 부담을 그대로 감당하기 어렵다는 판단에서다. 그동안 글로벌 AI 인프라 경쟁력은 그래픽처리장치(GPU) 확보, 데이터센터 확장에 집중됐다. 이에 국내 업계는 이 과정에서 전력과 비용이 천문학적으로 늘어났다는 점을 문제로 지적했다. 딥엑스 김강욱 부사장은 최근 국회 세미나에서 "현재 국가별 AI 자원 격차가 경쟁력 차이로 이어질 수 있다"며 "국내 AI 인프라 규모가 상대적으로 적은 만큼 대안을 마련해야 한다"고 주장했다. 이에 업계는 AI 연산을 중앙에 집중시키지 않는 구조에 눈을 돌리고 있다. 사용자와 가까운 곳에서 AI를 처리해 지연을 줄이고 인프라 부담을 낮추는 방식이다. 대표 사례로 아카마이의 분산 클라우드가 꼽히고 있다. 아카마이는 전 세계 4천400여 개 네트워크 거점(POP) 기반 분산 엣지 플랫폼으로 AI 모델 추론을 수행하고 있다. 중앙 데이터센터 대신 네트워크 엣지단에서 AI 연산을 처리할 수 있는 구조다. 분산 클라우드는 기존 클라우드와 달리 데이터센터에서 연산을 따로 모을 필요가 없다. 사용자와 가까운 엣지 서버에서 필요한 연산을 수행할 수 있어서다. 이에 AI 응답 속도를 높이고 트래픽 부담까지 줄일 수 있다. 이경준 아카마이코리아 대표는 "향후 AI 인프라 핵심은 데이터가 생성되는 곳에서 바로 추론까지 이뤄지는 구조일 것"이라며 "이는 중앙집중형 클라우드보다 성능과 비용을 동시에 관리할 수 있다"고 지디넷코리아 인터뷰를 통해 강조했다. "AI 처리에 클라우드 의존 벗어야" IT 업계는 클라우드에만 의존하는 기존 AI 처리 구조에도 변화가 필요하다고 봤다. 모든 데이터를 원격 서버로 보내야 지식 처리와 판단이 이뤄지는 방식은 전력과 비용 부담을 키울 수 있다는 지적이다. 딥엑스 김강욱 부사장은 개별 단말기에서도 지식 기반 AI 처리가 가능하도록 하는 전략이 필요하다고 강조했다. 일상적인 질의나 판단은 기기 내부에서 처리하고, 복잡한 연산만 클라우드가 맡는 구조다. 딥엑스는 온디바이스 AI용 시스템 반도체를 개발하는 기업이다. 데이터센터용 그래픽처리장치(GPU)와 달리, 저전력·저비용 신경처리장치(NPU)를 설계해 단말기 자체에서 AI 연산이 가능하도록 지원하고 있다. 특히 스마트폰, 가전, 차량, 로봇 등 다양한 기기에 AI를 내장해 중앙 클라우드 의존도를 낮추는 전략을 추진한다. 해당 기술은 최근 바이두에 공급됐으며, 회사는 내년을 목표로 기업공개(IPO) 절차를 밟고 있다. 김 부사장은 "이 같은 구조가 구현되면 대규모 데이터센터를 추가로 짓지 않아도 AI 서비스를 확장할 수 있다"며 "AI 연산을 분산 처리함으로써 전력 소모와 인프라 집중도를 낮출 수 있다"고 밝혔다.

2026.01.06 13:38김미정

[현장] AI 경쟁 기준 바뀐다…"모델·칩·서비스 통합 설계 필요"

"글로벌 인공지능(A) 경쟁력을 높이려면 모델과 인프라 개발을 따로 봐선 안 됩니다. 기업과 정부는 두 영역을 하나의 구조로 보고, 이를 함께 설계해야 할 것입니다." 이동수 네이버클라우드 AI 컴퓨팅 솔루션 부문 전무는 5일 서울 여의도 국회의원회관에서 열린 'G3 도약을 위한 AI 산업 경쟁력 강화 전략 국회토론회'에서 AI 인프라 경쟁 패러다임 변화를 강조했다. 이번 토론회는 더불어민주당 박수현, 송기헌, 위성곤 의원이 주최했다. 이 전무는 AI 경쟁 기준이 과거와 완전히 달라졌다고 진단했다. 단순히 거대 모델이나 빠른 반도체를 만드는 것보다 실제 서비스에 최적화된 모델과 칩을 통합 설계하는 능력이 핵심으로 떠올랐다는 설명이다. 그는 "AI 모델과 칩, 서비스가 각각 독립적으로 설계돼 온 기존 방식은 한계에 도달했다"며 "개발 초기부터 이를 통합적으로 설계해야 비용과 성능 문제를 동시에 해결할 수 있다"고 판단했다. 이 전무는 에이전틱 AI 시대에 해당 과제가 더 중요해질 것이라고 봤다. AI가 스스로 업무를 처리하는 구조가 확산하면서 전력과 반도체 수요가 급격히 늘어날 것으로 전망했다. 이 전무는 AI 반도체와 인프라를 처음 검증하고 적용하는 과정은 민간 기업이 단독으로 감당하기 어렵다고 지적했다. 그는 "성능과 안정성이 완전히 입증되지 않은 기술에 장기간 인력·비용을 투입해야 하는 구조가 기업 입장에선 큰 부담"이라고 말했다. 이어 "정부가 실증 환경을 마련하고 초기 도입 단계에서 위험 부담을 나눠야 한다"며 "AI 반도체와 서비스가 함께 성장할 수 있는 생태계 필수 조건"이라고 덧붙였다. 전력·비용 한계에 AI 구조 전환…"엣지·온디바이스 뜬다" 딥엑스 김정욱 부사장은 AI 인프라 구조가 데이터센터 중심에서 엣지와 온디바이스로 확장할 것이라고 예측했다. AI 연산을 중앙에서 처리하던 방식에서 벗어나 비용과 전력 부담을 줄이려는 흐름이 뚜렷해졌다는 분석이다. 김 부사장은 기존 데이터센터 중심 AI 구조가 한계에 직면할 것이라고 내다봤다. 그는 "데이터센터 전력 소모와 구축 비용이 급증하면서 새 처리 방식이 필요해졌다"며 "이에 대한 대안으로 엣지와 온디바이스 AI 필요성이 높아질 것"이라고 전망했다. 그는 "간단한 판단과 응답은 디바이스에서 바로 처리하고 복잡한 연산만 데이터센터가 맡는 분산 구조"라며 "이는 센터 부담을 줄이면서도 AI 활용 범위를 넓힐 수 있는 해법"이라고 강조했다. 그러면서 "엣지와 온디바이스, 데이터센터를 역할별로 나누는 전략이 실질적인 G3 AI 강국으로 이어질 수 있는 해법"이라고 덧붙였다.

2026.01.05 16:19김미정

카카오 "정부 'GPU 확보 사업' 인프라 구축 순항"

카카오(대표 정신아)가 정부 주도 '그래픽 처리 장치(GPU) 확보 사업'의 최종 사업자로 선정된 이후, 최신 GPU 인프라 구축을 성공적으로 진행하며 국내 AI 연구 및 개발 환경 지원에 본격 나선다고 29일 밝혔다. 이번 사업은 정부가 AI 3대 강국을 위한 핵심 인프라인 GPU를 민간에 지원하는 국책사업으로, 카카오는 지난 8월 최종 사업자로 선정됐다. 카카오는 이번 사업을 통해 총 2천424장의 GPU 'B200'을 확보 및 구축하고 이를 5년간 위탁 운영하며 국내 AI 연구 및 개발 환경을 지원할 계획이다. 카카오는 경기도 안산시에 위치한 '카카오 데이터센터 안산'을 기반으로 대규모 GPU 인프라 구축을 안정적으로 진행하고 있다. 자체 데이터센터의 인프라 역량과 GPU 클러스터 구축 및 운영 노하우를 바탕으로 당초 계획 대비 구축 일정을 앞당겼으며, 현재 전체 할당량의 약 84%에 해당하는 255노드(GPU 2,040장)의 인프라 구축을 완료했다. 이는 당초 제출했던 연내 구축 목표치인 64노드 대비 4배를 상회하는 규모다. 이 같은 조기 구축 성과는 카카오의 자체 데이터센터인 '카카오 데이터센터 안산'의 고도화된 인프라 역량이 뒷받침되었기에 가능했다. 카카오는 GPU 확보부터 구축, 운영 준비에 이르는 전 과정에 걸쳐 철저한 프로젝트 관리를 수행했다. 공급사와의 긴밀한 협력을 통해 핵심 장비를 조기에 확보했으며, 사전 기술 검증(PoC)을 통해 실제 가동 단계에서 발생할 수 있는 리스크를 사전에 점검하고 최소화해 구축 일정을 앞당겼다. 또한 데이터센터 안산은 고집적 서버 운영에 필수적인 안정적인 전력 공급 시스템과 냉각 시스템을 선제적으로 마련했다. 특히 고성능 GPU 서버에서 발생하는 열을 효과적으로 관리하기 위해 뜨거운 공기를 격리해 냉각 장치로 바로 순환시키는 '열복도 밀폐시스템(Hot Aisle Containment system)'을 적용해 냉각 효율을 극대화했다. 카카오는 인프라 제공뿐만 아니라 이용자가 AI 모델 개발에 집중할 수 있는 소프트웨어 환경도 함께 지원한다. 국가 AI 컴퓨팅 자원 지원 포털과 연동된 통합 플랫폼을 통해 이용자가 포털에서 카카오엔터프라이즈가 운영하는 카카오클라우드로 손쉽게 진입할 수 있도록 했으며, 카카오클라우드의 AI 플랫폼인 쿠브플로우(Kubeflow)를 제공한다. 카카오클라우드 쿠브플로우는 클라우드 네이티브 환경에서 보다 쉽고 빠르게 머신러닝 워크플로우를 구축하고 실행할 수 있도록 지원하는 플랫폼이다. 모델 개발, 학습, 배포 및 추론에 이르는 전 과정을 쿠버네티스 환경에서 지원해 연구자가 머신러닝 워크플로우를 손쉽게 자동화하고 클라우드 리소스를 효율적으로 관리할 수 있도록 돕는다. 현재 카카오는 구축을 완료한 255노드에 대해 네트워크 및 성능 테스트를 진행 중이며, 내년 1월 2일부터 과학기술정보통신부와 정보통신산업진흥원이 베타서비스 공모를 통해 선정한 산·학·연 과제에 최신 컴퓨팅 자원을 제공할 예정이다. 카카오 AI시너지 김세웅 성과리더는 “대규모 GPU 인프라를 안정적으로 구축하고 운영하는 것은 AI 경쟁력의 핵심” 이라며 “카카오의 데이터센터 및 클라우드 역량을 바탕으로 안정적이고 효율적인 AI 개발 환경을 제공해 국내 AI 생태계 발전에 기여해 나가겠다”고 말했다.

2025.12.29 21:30안희정

AI 투자 열풍에 메모리·SSD 이어 HDD도 들썩인다

글로벌 빅테크의 AI 관련 집중 투자는 메모리와 SSD에 이어 한동안 하락세를 이어오던 하드디스크드라이브(HDD) 가격까지 끌어올리고 있다. 시장조사업체와 업계에 따르면 최근 HDD 공급가는 4%, 실제 판매가는 20% 가량 올랐다. AI 모델을 학습하고 훈련하기 전의 데이터, 학습을 마친 데이터를 담아 두는 데 가장 효율적인 저장장치로 HDD가 널리 쓰이면서 데이터센터와 기업용 스토리지 시장을 중심으로 가격 인상 압력이 확산되고 있다. 과거 2011년 태국 홍수로 인한 HDD 생산량 감소, 2021년 암호화폐 '치아'(Chia)로 인한 일시적인 가격 변동과 달리, 이번 가격 상승은 AI 투자 확대에 따라 장기적으로 지속될 것으로 보인다. 올 4분기 HDD 공급가, 3분기 대비 4% 상승 트렌드포스에 따르면 웨스턴디지털은 지난 9월 중순 모든 HDD 가격을 올렸다. 전례 없는 수요 증가, 연구개발(R&D) 투자 확대에 따라 가격 조정이 불가피하다는 것이다. 닛케이에 따르면 올 4분기 HDD 공급가는 3분기 대비 4% 가량 올랐다. 이는 최근 2년간 가장 큰 가격 상승이다. 국내 시장에서도 네트워크 저장장치(NAS)와 워크스테이션, 서버 등에 쓰이는 고성능 니어라인(Nearline) HDD를 중심으로 유통 가격이 상승하고 있다. 일부 제품은 분기가 아닌 월 단위로 공급 가격이 책정되고 있다. 글로벌 HDD 국내 공급을 담당하는 한 업체 관계자는 19일 "24시간 365일 구동을 염두에 두고 만들어진 고성능 제품 중심으로 작년 대비 평균 20% 가량 판매가격이 올랐다"고 설명했다. AI 모델 관련 데이터 상당수 HDD에 저장 현재 HDD 가격이 오르는 가장 큰 원인은 클라우드 서비스 제공사(CSP)와 대형 데이터센터의 수요 급증이다. AI 모델 학습과 추론 과정에서 발생하는 방대한 데이터가 여전히 HDD에 담긴다. SSD는 빠른 입출력 속도로 처리 시간을 줄이는 효과가 있지만 대량 데이터 보관 영역에서는 여전히 HDD가 핵심 역할을 맡고 있다. 같은 비용으로 SSD 대비 3-5배 가까운 용량을 담아 둘 수 있다. 시장조사업체 IDC 집계에 따르면 2023년부터 2028년까지 만 5년간 생성되는 데이터 양은 최대 3배까지 늘어나 400제타바이트(ZB)에 달할 전망이다. 이 데이터 중 SSD에서 처리된 데이터가 마지막으로 향하는 곳이 HDD다. 헬륨 가스 수급 문제·중국 시장 수요 증가도 소폭 영향 12TB 이상 고용량 HDD에 공기 대신 채우는 헬륨 기체의 수급 문제도 HDD 가격 상승에 일부 영향을 미쳤다. 씨게이트에 따르면 현재 기업용/니어라인 고성능 HDD 제품군의 78% 가량은 헬륨 기체를 채운다. 그러나 헬륨 주요 공급처인 카타르가 올 상반기 헬륨 수출량을 전년 대비 23% 가량 줄였다. 관련 업계는 미국 텍사스 주에 새로운 헬륨 생산 시설이 가동되는 올 3분기를 정점으로 4분기 경부터 헬륨 공급가가 서서히 감소할 것으로 전망했다. 최근 중국 정부와 공공기관에서는 일부 업무나 데이터 저장에 SSD 대신 HDD를 이용하도록 권장하고 있다. 장시간 꺼져 있는 상태에서 SSD를 구성하는 플래시 메모리 안의 전하가 서서히 빠져나가 저장된 데이터가 날아갈 수 있다. 2021년 '치아' 채굴 광풍에 HDD 가격 크게 상승 HDD 가격이 상승하는 현상은 과거에도 있었다. 가장 가까운 예로는 2021년 3월부터 약 9개월간 지속된 암호화폐 '치아' 채굴로 인한 현상을 들 수 있다. 당시 비싼 고성능 그래픽카드 대신 저장공간을 빌려주고 보상을 받을 수 있는 구조에 대용량 HDD와 SSD가 대거 소진됐다. 국내를 포함해 일본과 중국 등 동아시아 시장에서도 가격 상승이 이어졌다. 같은 해 9월 경 치아 시세 하락이 급격히 일어나며 저장장치 관련 수요는 급감했고 이에 따라 HDD와 SSD 공급난과 가격 상승이 동시에 해소됐다. 단 치아 채굴 후 남은 중고 HDD가 새 것으로 둔갑해 공급되는 문제는 지속되고 있다. 일반 소비자보다 전문가·중소규모 기업에 더 영향 커 HDD 가격 상승은 메모리나 SSD와 달리 일반 소비자에게는 큰 영향을 주지 않을 것으로 보인다. 대부분의 PC가 주 저장장치로 SSD를 이용하며 일반 소비자도 사진이나 문서 등을 클라우드에 백업하기 때문이다. 19일 글로벌 HDD 제조사 관계자는 "4베이(HDD 4개 동시 장착) 이상 네트워크 저장장치를 구성하려는 전문가들, 혹은 스토리지를 구성하려는 중소규모 기업 담당자들에게는 적지 않은 영향을 미칠 것"이라고 설명했다.

2025.12.19 15:39권봉석

엘리스그룹, AI 클라우드 인프라 혁신으로 과기정통부 장관 표창 수상

엘리스그룹(대표 김재원)이 18일 서울 코엑스에서 열린 '2025 데이터∙클라우드 산업 진흥 유공자 표창 시상식'에서 클라우드 산업발전 유공 부문 과학기술정보통신부 장관 표창을 수상했다. 과학기술정보통신부가 주최하고, 정보통신산업진흥원(NIPA)과 한국지능정보사회진흥원(NIA)이 주관하는 '클라우드 산업발전 유공 표창'은 클라우드 산업 활성화와 클라우드 컴퓨팅 기술 발전에 기여한 유공자 및 기관을 선정해 수여하는 상이다. 정책 및 기술 개발은 물론, 민간과 공공부문의 클라우드 도입 확산에 대한 기여도를 평가한다. 엘리스그룹은 수랭식 B200 기반 고성능 AI 데이터센터를 구축하고, 자체 기술 기반의 AI 클라우드 인프라를 산업 전반에 확산시켜 국내 AI 생태계 활성화에 기여한 점을 인정받아 '미래선도∙산업고도화' 분야에서 표창을 수상했다. 특히, 고성능∙고효율 모듈형 데이터센터 '엘리스 AI PMDC'와 AI 전용 IaaS 'ECI(Elice Cloud Infrastructure)'를 중심으로, 기업과 연구기관이 대규모 GPU 자원을 보다 유연하고 안정적으로 활용할 수 있는 AI 클라우드 환경을 제공하고 있다. 이와 함께 제조∙의료∙공공 등 산업별 특화 AI 솔루션, 교육 현장을 위한 AI 교육∙평가 플랫폼, 업무 생산성을 높이는 생성형 AI 솔루션 및 에이전트까지 확장하며 데이터센터 인프라부터 AI 서비스 레이어까지 이어지는 AI 풀스택 역량을 확보했다. 현재 엘리스클라우드는 4천800개 이상의 고객 기관을 확보하고 있으며, 대기업과 스타트업, 학교, AI 연구실 등 다양한 고객층에서 활용되고 있다. 정부 주도의 'AI 특화 파운데이션 모델 프로젝트 사업'에 고성능 GPU 인프라를 공급하는 한편, 산업용 로봇 개발사와 의료 AI 스타트업 등 제조∙의료∙공공 분야 전반에서 AI 전환(AX) 성과 확산을 이끌고 있다. 김재원 엘리스그룹 대표는 “국내 AI 인프라 확장이 본격화되는 시점에 클라우드 산업발전 유공 표창을 받게 돼 큰 책임감을 느낀다”며 “내년에 고성능 GPU 1만 장 규모의 인프라 구축을 통해 누구나 필요한 만큼 AI를 잘 활용할 수 있는 환경을 조성하고, 국내 AI 산업의 글로벌 도약을 적극 뒷받침하겠다”고 말했다. 또 “모듈형 AIDC 인프라부터 산업별 AI 솔루션, 교육과 에이전트까지 연결하는 AI 풀스택 기업으로서 기업과 기관의 실질적인 AI 전환 성과를 만들어가겠다”고 덧붙였다.

2025.12.19 09:54백봉삼

앤트로픽, 구글 TPU 핵심 파트너와 AI 데이터센터 구축 '박차'

인공지능(AI) 인프라 경쟁이 본격화되는 가운데, 앤트로픽이 구글의 핵심 파트너로 떠오른 네오클라우드 기업 플루이드스택과 초대형 데이터센터 구축에 박차를 가한다. 18일 월스트리트저널(WSJ)에 따르면 플루이드스택은 미국 루이지애나주에 건설되는 대규모 AI 데이터센터에서 앤트로픽이 활용할 고성능 컴퓨팅 클러스터 운영을 맡게 됐다. 해당 프로젝트는 단계별로 확장되는 구조로, 초기에는 약 245메가와트(MW) 규모의 연산 용량이 제공될 예정이다. 이 인프라는 앤트로픽이 대규모 언어모델(LLM)을 학습·운영·확장하는 데 활용된다 . 이번 협력에서 플루이드스택은 단순 임대 사업자를 넘어 AI 연산 인프라 운영의 중심 역할을 맡는다. 회사는 구글 텐서처리장치(TPU) 생태계의 핵심 파트너로, 최근 '제미나이 3' 학습용 TPU 인프라를 공급하며 급부상했다. TPU 중심 전략을 앞세워 AI 모델 개발사들의 엔비디아 그래픽처리장치(GPU) 의존도를 낮추는 동시에 대형 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축에 속도를 내고 있다 . 플루이드스택은 현재 약 7억 달러(약 1조345억원) 규모의 신규 투자 유치를 추진 중이며 투자 성사 시 기업가치는 70억 달러(약 10조원)에 이를 것으로 전망된다. 구글과 골드만삭스가 투자 논의에 참여한 것으로 알려졌고 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 공개했다. 이는 글로벌 AI 인프라 수요가 급증하는 가운데, 기술 기업과 금융권이 결합한 새로운 데이터센터 투자 모델을 대표하는 사례로 평가된다. 앤트로픽 역시 공격적인 인프라 투자에 나서고 있다. 회사는 총 500억 달러(약 73조원)를 투입해 미국 내 맞춤형 AI 데이터센터를 구축할 계획이며 텍사스와 뉴욕을 시작으로 내년부터 순차 가동한다. 이 과정에서 플루이드스택과의 협력은 앤트로픽이 안정적인 연산 자원과 전력을 확보하는 핵심 축으로 작동할 전망이다. 업계에서는 앤트로픽의 대규모 인프라 투자가 오픈AI, 메타 등 경쟁사들의 초대형 프로젝트에 대응하기 위한 전략적 선택으로 보고 있다. 생성형 AI 성능 경쟁이 연산 능력과 전력 확보 경쟁으로 확산되면서 클라우드 사업자의 위상도 빠르게 높아지고 있다는 분석이 나온다. 플루이드스택이 단기간에 구글과 앤트로픽을 지원하는 글로벌 AI 인프라 핵심 사업자로 부상한 배경도 이같은 흐름과 맞물려 있다 . 앤트로픽은 "이번 데이터센터 구축을 통해 보다 강력하고 안전한 AI 시스템을 개발하고 과학적 발견과 산업 전반의 혁신을 가속화할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.18 13:31한정호

[현장] "AI가 두뇌라면 데이터는 혈액, 클라우드는 심장"…민관 인프라 협력 시동

"모두가 주연 배우인 인공지능(AI)에 주목할 때, 조연 배우인 데이터와 클라우드를 함께 챙겨야 성공적인 AI 생태계를 만들 수 있습니다." 과학기술정보통신부 류제명 차관은 16일 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간' 개막식에서 AI 시대 데이터와 클라우드의 중요성에 대해 이같이 강조했다. 올해 처음 개최된 데이터·클라우드 진흥주간은 과기정통부가 주최하고 한국지능정보사회진흥원(NIA), 정보통신산업진흥원(NIPA), 정보통신기획평가원(IITP), 한국데이터산업진흥원(K-DATA) 등이 공동으로 참여하는 국내 최대 규모의 데이터·클라우드 통합 행사다. '모두를 위한 AI, AI를 위한 데이터·클라우드'를 슬로건으로 이날부터 19일까지 나흘간 서울 코엑스에서 열린다. 류 차관은 개회사를 통해 "AI 성능과 국가 경쟁력의 핵심은 결국 양질의 데이터와 신뢰할 수 있는 클라우드에 있다"며 "AI가 두뇌라면 데이터는 혈액이고 클라우드는 혈액을 순환시키는 심장"이라고 말했다. 정부 차원의 전략도 공유했다. 그는 "국가AI전략위원회와 과학기술관계장관회의를 중심으로 범부처 역량을 결집한 전략적 대응 체계를 구축하고 있다"며 "독자적인 AI 생태계와 AI 고속도로를 만들어 국민 누구나 AI 혜택을 누리는 모두의 AI 사회를 구현하겠다"고 덧붙였다. 이번 개막식에서는 데이터·클라우드 분야 핵심 7개 기관과 협회가 참여하는 업무협약(MOU) 체결식도 함께 진행됐다. 이번 협약은 데이터와 클라우드를 기반으로 한 AI 혁신을 공동 추진하고 대한민국의 AI 3강 도약을 목표로 한다. MOU에는 한국지능정보사회진흥원·정보통신산업진흥원·정보통신기획평가원·한국데이터산업진흥원과 함께 한국클라우드산업협회·한국데이터산업협회·한국데이터센터연합회 등 총 7개 기관·협회가 참여했다. 각 기관은 전문성과 역할을 바탕으로 상호 협력 체계를 구축하기로 했다. 협약에 따라 이들 기관은 국가 데이터 인프라 구축, 공공부문 클라우드 전환 확대, AI 데이터 기반 연구개발(R&D) 지원, 산업 현장의 데이터 활용 촉진 등 전 주기에 걸쳐 협력한다. 데이터·클라우드 산업 경쟁력을 강화하고 기술 성과가 산업 생태계 전반으로 확산되도록 공동 대응한다는 계획이다. 이날 행사에는 국회 과학기술정보방송통신위원회 최민희 위원장을 비롯해 김현·최형두 의원의 영상 축사도 이어졌다. 국회는 데이터와 클라우드가 국가 전략 자산으로 자리 잡을 수 있도록 입법·제도적 지원을 이어가겠다는 뜻을 밝혔다. 이어진 기조연설에서 김동훈 NHN클라우드 대표는 AI 시대 데이터센터의 역할을 'AI 팩토리'로 정의하며 기존 데이터센터와는 다른 인프라 전환이 필요하다고 강조했다. 앞으로 고성능 그래픽처리장치(GPU), 대규모 전력, 첨단 냉각 기술이 결합된 AI 데이터센터가 필요하다는 설명이다. 김 대표는 "현재 데이터센터는 단순한 저장 공간이 아니라 AI 서비스를 생산하는 공장으로 진화하고 있다"며 "한국도 이러한 AI 팩토리 역량을 갖춰야 글로벌 경쟁에서 살아남을 수 있다"고 강조했다.

2025.12.16 16:19한정호

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

ACC 2025 찾은 관람객 "AI 풀스택 인상적"…실무형 혁신 전략 쏟아져

"모델 구축부터 재해복구(DR)까지 인공지능(AI) 서비스를 운영하는 데 필요한 '풀스택' 기술을 한 자리에서 접할 수 있어 정보가 머릿속에서 유기적으로 연결되는 느낌을 받았습니다." 글로벌 경기 침체 속에서 기업들이 단순한 AI 도입을 넘어 '실질적인 성과'를 고민하고 있는 가운데, 최신 IT 기술과 비즈니스 적용 해법을 확인할 수 있는 자리가 마련돼 업계의 높은 관심을 받았다. 지디넷코리아는 11일 서울 중구 신라호텔 다이너스티홀에서 'AI & Cloud Conference 2025(ACC 2025)' 행사를 개최했다. 이번 행사는 글로벌 구글 클라우드·삼성SDS·퓨어스토리지 등 국내외 주요 기업이 참여해 2026년을 선도할 비즈니스 전략과 AI·클라우드 혁신안 등을 제시했다. 또 현장에서는 생성형AI·인프라·보안 등 최신 솔루션을 보다 직접적으로 경험해 볼 수 있는 기업 전시 부스도 운영돼 관람객들의 이목을 집중시켰다. 행사장은 이른 아침부터 등록을 마친 관람객들로 붐볐다. 특히 올해 행사는 단순한 AI 기술의 신기함을 넘어, 기업 현장에 AI를 어떻게 도입하고 실질적인 성과를 낼 것인가에 대한 구체적인 해법을 찾는 실무자들의 발길이 이어졌다. 이날 첫 번째 키노트로 나선 구글 클라우드 안영균 엔터프라이즈 파트너십 헤드는 이제는 AI를 도구가 아닌 '만능 비서'로 봐야 한다며 행사의 포문을 열었다. 이어 퓨어스토리지 김영석 상무, 뉴타닉스 마이클 신 전무, 알리바바 클라우드 임종진 테크리드, 삼성SDS 최정진 그룹장이 연단에 올라 AI 인프라와 재해복구(DR) 전략 등 심도 있는 인사이트를 공유했다. 오후에는 트랙 A·B로 나눠 ▲바이트플러스 ▲Odoo ▲배스트데이터 ▲오픈서베이 ▲아카마이 ▲HPE ▲래블업 ▲나무기술 등이 각 기업 환경에 맞춘 구체적인 기술 도입 사례와 운영 전략을 발표해 호응을 얻었다. 다양한 AI 솔루션을 주제로 진행된 행사인 만큼 부스를 찾은 참관객들의 반응도 뜨거웠다. 특히 보안과 비용 효율성을 강조한 부스들에 실무자들의 발길이 이어졌다. HPE 부스에서는 AI와 머신러닝(ML) 이더넷 패브릭 환경에서 고용량 스파인 및 리프 스위치로 활용되는 'QFX5230'의 실물이 전시돼 관람객들의 기술적 호기심을 자극했다. 또 '앱스트라 데이터센터 디렉터' 사용자화면(UI)을 통해 데이터센터 네트워크 최적화 방안을 직접 시연해 눈길을 끌었다. 래블업 부스에서는 단 2대의 서버로 120B(1천200억 파라미터) 규모의 거대언어모델(LLM)을 구동하는 시연이 주목받았다. 래블업 관계자는 "보안 문제로 외부망 사용이 어려운 기업들을 위해 온프레미스 환경에서도 효율적인 AI 구축이 가능하다는 점을 강조하고 있다"고 설명했다. 바이트플러스는 AI 영상 생성 기술로 관람객을 사로잡았다. 립싱크뿐만 아니라 영상 생성까지 가능한 기능들을 선보였다. 바이트플러스 관계자는 "콘솔 하나로 클라우드와 AI 제품을 통합 관리할 수 있어 아마존웹서비스(AWS)처럼 편리하게 사용할 수 있다"고 소개했다. 아카마이는 엔비디아와 협업한 GPU 모델 제공과 AI 보안 솔루션을 소개하며 'AI 인프라 기업'으로서의 확장을 알렸다. 이날 행사를 찾은 한 IT 기업 관계자는 "보통 세미나는 단편적인 정보에 그치기 쉬운데 이번 행사는 AI 도입의 전체 과정을 빠짐없이 설명하려는 진심이 느껴졌다"며 "파편화된 정보들이 융합돼 인프라 구축과 서비스 운영에 대한 명확한 인사이트를 얻을 수 있었다"고 호평했다. 현장의 디지털 전환을 고민하며 행사장을 찾은 의료 업계 관계자는 "폐쇄망을 사용하는 병원 환경에서 클라우드와 자체 구축 사이의 인프라 해법을 찾기 위해 컨퍼런스와 부스를 주의 깊게 살펴봤다"고 말했다.

2025.12.11 16:58진성우

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

이노그리드, 개방형 R&D 생태계 확장…파트너사와 협력 강화

이노그리드가 연구개발(R&D) 협력 생태계를 기반으로 글로벌 수준의 클라우드·인공지능(AI) 기술 경쟁력 확보에 나선다. 이노그리드 '산·학·연 R&D 파트너 초청 행사'를 진행했다고 5일 밝혔다. 이번 행사는 AI·데이터센터·자율행동체·의료·양자 등 차세대 ICT 기술 분야 공동 연구 성과를 공유하고 향후 협력 로드맵을 논의하기 위해 마련됐다. 행사에는 건국대·이화여대· 한국과학기술정보연구원·한국전자통신연구원·한국전자기술연구원·제트컨버터클라우드· 엑세스랩·위엠비 등 산·학·연 R&D 파트너 50여 명이 참석했다. 행사는 김명진 이노그리드 대표의 인사말로 시작해 회사의 주요 R&D 히스토리와 추진 전략을 공유했다. 이어 각 분야 전문가가 AI·데이터센터·자율행동체·의료·양자 등 향후 기술 전략을 소개했다. 먼저 이노그리드 김바울 수석이 'AI 모델과 서비스 개발을 위한 PaaS 기술 개발', ETRI 최현화 책임이 'AI 반도체 클라우드 플랫폼 구축 및 최적화 기술 개발'을 주제로 클라우드 기반 AI 기술 개발 방향에 대해 발표했다. 다음으로 이노그리드 구원본 상무가 '디지털트윈 기반 AI DCIM 통합 운영관리 시스템 기술 개발'을 주제로 발표했으며 KETI 김현우 팀장은 '일상생활 공간에서 자율행동체의 복잡작업 성공률 향상을 위한 자율행동체 엣지 AI SW 기술 개발'에 대해 소개했다. 의료 및 양자 분야에 대한 발표도 이어졌다. ETRI 김선욱 책임은 '이동형 맞춤 의료서비스 지원을 위한 유연의료 5G 엣지 컴퓨팅 SW 기술 개발'에 대해 설명했으며 마지막으로 이노그리드의 김홍진 전무가 '양자 하이브리드 클라우드 컴퓨팅의 이노그리드 양자 Ops 솔루션'에 대해 발표했다. 이를 통해 참석자들은 R&D를 통한 기술 경쟁력 확보 방안을 논의하며 실질적인 동반 성장을 위한 방안을 모색했다. 이노그리드는 공공·민간 클라우드 구축·운영 경험을 바탕으로 AI·데이터센터·양자 분야 연구를 확대 중이다. 이날 논의된 과제를 중심으로 후속 공동 연구와 정기 기술 교류 프로그램을 운영할 계획이다. 회사는 향후에도 파트너 대상 기술 간담회와 세미나를 정례화해 오픈 R&D 협력 네트워크를 강화한다는 전략이다. 김명진 이노그리드 대표는 "이번 R&D 파트너 초청 행사는 우리와 산·학·연 파트너가 함께 축적해 온 연구 성과를 점검하고 AI와 데이터센터, 양자 기술 등 미래 성장 분야에서 협력을 한 단계 더 확장하는 계기가 됐다"며 "앞으로도 개방형 R&D 협력 생태계를 기반으로 글로벌 수준의 클라우드·AI 기술 경쟁력을 확보해 나가겠다"고 말했다.

2025.12.06 09:25한정호

[현장] 국정자원 화재·공공 시스템 마비가 남긴 과제…"해법은 거버넌스 재정립"

국가정보자원관리원(국정자원) 대전센터 화재 이후 공공 정보 인프라의 전면 재검토 필요성이 제기되는 가운데, 재해복구(DR) 체계와 거버넌스 개편 방향을 논의하기 위해 업계와 학계가 머리를 맞댔다. 한국경영학회, 한국경영정보학회, 연세대학교 바른ICT연구소는 20일 고려대 경영대학에서 '국가 데이터센터, 위기 이후 변화와 정책 방향' 세미나를 열고 국가 정보시스템 복원력 확보를 위한 해법을 모색했다. 이날 세미나에는 양희동 한국경영학회장과 이동원 한국경영정보학회장을 비롯해 IT 전문 교수진과 NHN클라우드·KT클라우드·네이버클라우드 등 국내 대표 민간 클라우드(CSP) 3사 실무진이 참여했다. 행사는 국정자원 사태 이후 정부 주도의 대책 마련 움직임이 본격화된 가운데, 현장 전문가들의 기술·정책적 의견을 공유하고 향후 정책 논의에 반영하기 위한 취지로 진행됐다. 양 회장은 개회사를 통해 "이번 국정자원 화재는 단순 사고로 치부하기 어렵다"며 “국가 핵심 데이터가 전소된 사건을 계기로 재발 방지 체계와 산업 육성 정책까지 종합적으로 점검해야 한다"고 말했다. 민간 클라우드 기업을 비롯한 산업계가 이번 사태를 위기가 아닌 기회로 바라보고 공공 데이터센터의 운영 방식을 재검토해야 한다는 취지다. "공공 DR 개편·클라우드 활용은 근본적 거버넌스 정비부터" 국내 CSP 3사는 이번 국정자원 사태가 단순한 장비 장애가 아니라 공공 인프라 구조 전반을 재정비해야 하는 신호라고 지적했다. 특히 공공 데이터센터의 운영 구조와 기술 체계가 민간 수준의 복원력 확보에 미치지 못하고 있는 현황과 이를 개선하기 위한 로드맵을 제언했다. 김용진 NHN클라우드 실장은 "이번 사태는 응급실로 실려 온 환자 같은 상황"이라고 비유하면서 표면적 문제뿐 아니라 수년간 누적된 구조적 결함이 드러났다고 진단했다. 그는 "중앙집중식으로 경직된 IT 운영 체계와 노후화된 온프레미스 환경이 국정자원 시스템 복구 지연의 근본 원인"이라고 분석했다. 특히 김 실장은 공공기관 DR 전환 속도가 민간과 비교해 느리다는 점을 지적하며 현재의 기술·프로세스·인력 체계를 동시에 손봐야 한다고 강조했다. 그는 국정자원 대구센터에서 진행 중인 민관협력형(PPP) 기반의 신규 데이터센터 모델을 중장기 국가 데이터센터 대안으로 제시했다. KT클라우드 공용준 본부장은 국가 단위 DR 전략이 없다는 점을 짚으며 국가 시스템의 클라우드 전환에 앞서 목표 복구 시간(RTO)·목표 복구 시점(RPO) 등의 DR 체계를 국가가 일괄적으로 제시해야 한다고 강조했다. 국가 서비스 중요도에 따라 계층적 DR 체계를 정립하는 것이 필요하다는 설명이다. 또 공 본부장은 최근 IT 아키텍처가 쿠버네티스·마이크로서비스 아키텍처(MSA) 중심으로 복잡해지면서 DR 난도가 기존보다 훨씬 높아졌다고 밝혔다. 그는 "내부 IT 자산 측정조차 어려운 환경에서 DR을 준비하려면 민간 클라우드 기반 멀티 리전·멀티 존 구조가 필수"라며 "데이터 복제를 위한 고속 네트워크 및 국가 단위 중앙 집중식 데이터베이스(CMDB)도 갖춰야 한다"고 말했다. 네이버클라우드 김지훈 리더는 현재 가장 큰 문제가 국가 차원의 최고정보책임자(CIO) 부재라고 짚었다. 민간에서는 CIO가 DR·보안·예산까지 총괄하는 통합 책임자 역할을 하지만, 정부에는 명확한 책임 구조가 존재하지 않아 정책과 실행의 간극이 발생한다는 지적이다. 김 리더는 공공 규제체계의 상호 불일치도 문제로 꼽았다. 그는 "클라우드 보안인증(CSAP), 국가망보안체계(N2SF), 클라우드컴퓨팅 보안 가이드라인이 서로 맞물리지 않고 따로 움직이면서 기관별로 다른 해석을 낳고 있다"며 "이로 인해 민간 클라우드 활용 DR 검토 과정에서도 혼란이 확대되고 있다"고 설명했다. 이어 공공에서의 민간 클라우드 활용이 필요하지만 제도·예산·기술이 맞물리지 않으면 또 다른 실패 사례가 생길 수 있다고 우려했다. 학계 "전자정부 철학·거버넌스 재정립해야" 학계에서는 전자정부의 기본 철학부터 다시 세워야 한다는 지적이 나왔다. 발표자들은 전자정부 1.0 성공 이후 지속적인 혁신 동력이 사라졌고 민간 기술 수용이 늦어지면서 시스템의 복원력이 취약해졌다고 진단했다. 양 회장은 "국가 핵심 데이터가 손실됐지만 책임 논의조차 부족했다"며 "이번 사태를 계기로 데이터센터 운영 방식뿐 아니라 보안·산업정책까지 확장된 논의가 필요하다"고 말했다. 단발성 점검을 넘어 장기적 체계 전환이 필요하다는 지적이다. 연세대 김범수 교수는 국가 DR 구조 재편을 위한 세 가지 모델을 제시했다. ▲정부 단독 구축 ▲PPP ▲단기 PPP 후 국가·민간 협력형 하이브리드 장기 독자체계다. 그는 "AI 시대에는 기존 방식의 공공 데이터센터 확장은 비효율적"이라며 "현 상황에서는 PPP 모델이 가장 빠르게 현실적 성과를 낼 수 있다"고 평가했다. 이기혁 중앙대 교수는 데이터센터가 물리적 재해와 사이버 재해가 결합된 복합재난의 중심에 있다고 설명했다. 그는 "기관 대부분이 물리재난만 담당하고 있으나 이제는 물리·사이버를 통합한 새로운 하이브리드 보안 체계를 구축해야 한다"고 제안했다. 또 데이터 정합성 문제도 강조했다. 그는 "액티브-액티브 DR은 이론적으로 가능해 보이지만 실제로는 중복·충돌·손실 문제가 반복된다"며 "국가 데이터센터에서는 가용성보다 정합성을 우선해야 한다"고 말했다. 아울러 DR 계획을 문서화하는 데서 끝나는 기존 관행을 비판하며 실제 훈련 기반의 DR 체계를 도입해야 한다고 주장했다. 이경호 고려대 교수는 전자정부 30년의 역사와 현재의 구조적 문제를 짚었다. 그는 "망분리 중심 보안 정책 이후 공공에서 민간 기술을 적시에 흡수하지 못했고 유지보수 비중이 전체의 70%까지 늘며 혁신 여력이 급감했다"고 진단했다. 그는 현재 전자정부의 실패와 국정자원 화재와 같은 공공 인프라 사고의 주요 요인으로 ▲CIO·최고데이터책임자(CDO) 부재 ▲조달체계의 저가 구조 ▲인력 수급 한계 ▲비전과 전략의 실종을 꼽았다. 기술적 난제보다 거버넌스와 전략 부재가 더 큰 문제라는 설명이다. 이에 이 교수는 대통령 직속 CIO·CDO 체계 도입을 포함한 12개월 단기 실행 플랜을 제안했다. 클라우드 퍼스트 정책 재정립, 데이터 거버넌스 법제화, 적정가격 조달 구매제 등 총체적 재설계를 통해 국가 데이터센터 복원력을 강화해야 한다는 제언이다. 이번 세미나에서 민간·학계는 DR 강화, 규제 정합성 확보, 거버넌스 개편, 인력 체계 개선 등이 동시에 진행돼야 한다는 데 의견을 모았다. 단순한 인프라 보완이 아니라 국가 정보전략의 패러다임 전환이 필요하다는 것이다. 이경호 교수는 "전자정부가 다시 신뢰를 얻기 위해서는 복원력·거버넌스·전략이 함께 작동해야 한다"며 "지금 필요한 것은 기술보다 철학과 체계의 재정비이며 이번을 계기로 국가 정보인프라가 한 단계 성숙하길 바란다"고 강조했다.

2025.11.20 16:59한정호

롯데이노베이트, 에이스공조와 '엣지 데이터센터' 구축 나선다

롯데이노베이트가 냉동·공조 전문기업 에이스공조와 손잡고 데이터센터 구축 사업을 본격 추진한다. 롯데이노베이트는 지난 17일 본사에서 에이스공조와 엣지 데이터센터 구축 사업을 위한 전략적 업무협약(MOU)을 체결했다고 18일 밝혔다. 이날 협약식에는 롯데이노베이트 정인태 CX사업 본부장, 김근배 클라우드 부문장과 장규환 에이스공조 대표, 장인산 IDC사업본부장 등 양사 주요 관계자들이 참석했다. 이번 협약으로 롯데이노베이트는 해당 사업에 대한 우선 권리를 부여받았으며 자사가 보유한 첨단 기술과 인프라를 활용해 에이스공조의 엣지 데이터센터 사업을 지원할 예정이다. 최근 인공지능(AI) 등 디지털 전환이 가속화되면서 다양한 산업군에서 데이터센터 수요가 급증하고 있다. 상업용 부동산 종합 서비스 기업 알스퀘어가 발표한 '2025 데이터센터 리포트'에 따르면 2023년 기준 약 518조원에 달했던 글로벌 데이터센터 시장 규모는 2029년 약 867조원까지 성장할 전망이다. 특히 도심지 및 업무 지구를 중심으로 상대적으로 전력 소모가 적고 통신 속도와 운영 효율성이 높은 소규모 데이터센터인 엣지 데이터센터에 대한 수요도 빠르게 증가하는 추세다. 롯데이노베이트는 현재 서울·용인·대전 등 총 4개의 데이터센터를 구축·운영 중이며 축적된 IT, 운영 노하우를 토대로 향후 엣지 데이터센터 사업을 본격 확대해 나갈 계획이다. 롯데이노베이트 김근배 클라우드 부문장은 "이번 협업을 통해 우리가 보유하고 있는 역량과 기술력 등을 최대한 활용해 에이스공조의 엣지 데이터센터 구축 사업을 적극 지원할 계획"이라며 "향후 엣지 데이터센터 구축 사업을 확대해 나갈 것"이라고 말했다.

2025.11.18 18:05한정호

韓, 글로벌 AI 인프라 허브로 급부상…빅테크·운용사 데이터센터 투자 '러시'

한국이 글로벌 인공지능(AI) 인프라의 주요 거점으로 부상하고 있다. 미국·중국·싱가포르 등의 주요 빅테크는 물론 대형 자산운용사까지 한국을 아시아태평양 AI 허브의 전략 요충지로 삼으면서 AI 데이터센터 건립·그래픽처리장치(GPU) 공급·재생에너지 연계 인프라 구축이 전방위적으로 확산되는 양상이다. 18일 업계에 따르면 아마존웹서비스(AWS)·알리바바 등 하이퍼스케일 클라우드 사업자를 비롯해 ESR·프린스턴 디지털 그룹(PDG)과 같은 글로벌 자산·데이터센터 운용사들이 한국 데이터센터 개발에 나서고 있다. 수도권과 도심 인근 지역을 중심으로 AI 특화 데이터센터 착공이 잇따르고 정부 역시 국가 차원의 AI 인프라 확충에 속도를 내는 상황이다. 이같은 글로벌 투자 확산의 배경에는 한국의 반도체 공급망 경쟁력, 안정적 전력·통신 인프라, 수도권 중심의 거대 소비·산업 수요 등이 동시에 작용한 것으로 풀이된다. AWS는 한국을 AI 혁신의 핵심 거점으로 지목하며 2031년까지 총 50억 달러(약 7조원) 이상을 추가 투자하기로 했다. 특히 SK그룹과 울산에서 추진 중인 '울산 AI 존'과 인천·경기권 신규 AI 데이터센터 프로젝트는 한국이 하이퍼스케일 AI 인프라 경쟁에서 본격적으로 체급을 키우는 상징적 사례로 평가된다. AWS는 이미 인천 서구 일대 부지를 매입하고 시공사 선정까지 완료해 본격적인 구축 절차에 들어갔다. 중국 알리바바 클라우드도 한국 투자를 강화하고 있다. 알리바바는 내년에 세 번째 국내 데이터센터를 착공해 서울 수도권에 AI 인프라를 대폭 확장할 예정이다. 이는 올해 발표한 두 번째 데이터센터 개소에 이은 연속 투자로, 이커머스·인터넷 기업의 AI 수요 증가에 대응하기 위한 전략이다. 글로벌 자산운용사·데이터센터 운영 전문기업들의 움직임도 빨라지고 있다. 아태지역 실물자산 투자사 ESR은 인천 부평구에 80메가와트(MW)급 AI 데이터센터 'KR1' 착공에 돌입할 예정이다. 해당 시설은 아태지역 기반 운용사인 PDG가 운영을 맡아 2028년 가동될 예정이다. PDG는 이 시설을 포함해 한국에 총 60억 달러(약 8조원) 집중 투자 및 500MW 데이터센터 확장 계획을 공식화하며 기존 싱가포르·일본·인도·인도네시아·중국·말레이시아에 이어 한국을 거점으로 AI·클라우드 수요를 흡수한다는 목표다. 스튜어트 깁슨 ESR 최고경영자(CEO)는 "한국에서 첫 데이터센터 개발을 시작하게 돼 기쁘다"며 "KR1은 고객과 파트너를 성장의 중심으로 이끌 것"이라고 말했다. 또 랑구 살가메 PDG 회장은 "한국은 매우 중요한 시장이며 장기적 확장 전략의 핵심 거점"이라고 강조했다. 글로벌 대형 금융 자본 역시 한국의 잠재력을 높게 평가한다. 블랙록 자회사 뷔나는 우리 정부와 총 20조원 규모의 투자 의향서를 제출하며 재생에너지·데이터센터 결합형 AI 인프라 로드맵을 제시했다. 이는 한국이 아시아의 AI 수도가 될 수 있다는 평가를 실질적인 대규모 투자로 전환한 사례로 꼽힌다. 특히 도심 인근 지역을 중심으로 한 데이터센터 건설이 활발해지고 있다. 서울 상암·인천·경기 북부 등 기존 IT 인프라가 밀집한 지역에 AI 전용 설비가 빠르게 확장되면서 수도권이 글로벌 AI 데이터센터 벨트로 재편되고 있다. 대표적인 글로벌 코로케이션 데이터센터 사업자인 에퀴닉스는 서울 상암 SL1과 경기 고양시 SL2x·SL4에 이어 네 번째 데이터센터 SL3x 건립에 착수했고 액체 냉각 기술(D2C) 등 차세대 인프라 도입을 본격화하고 있다. 디지털리얼티 역시 망중립성을 기반으로 AI 전용 코로케이션 수요에 대응하고 있다. 초저지연 네트워크와 고밀도 랙 구조 등 하이퍼스케일 AI에 필요한 요소를 갖추면서 글로벌·국내 기업들의 입주가 확대되는 추세다. 장혜덕 에퀴닉스 한국 대표는 "국내 데이터가 해외 사용자와 AI 모델 개발자에게 연결되는 플랫폼을 강화해 글로벌 AI 허브로서 한국의 역할이 커질 것"이라고 강조했다. 여기에 챗GPT 개발사인 오픈AI도 삼성과 전략적 파트너십을 맺고 메모리·데이터센터·클라우드 협력에 나서면서 국내 AI 인프라 생태계 확장에 힘을 보탰다. 특히 AI 데이터센터 설계·운영에 있어 전방위 협력이 진행되고 있다. 이에 업계에서는 글로벌 빅테크·자산운용사·데이터센터 운영사가 모두 한국을 AI 기반시설의 핵심 시장으로 인식하면서 한국이 아시아를 넘어 글로벌 AI 인프라 허브로 도약할 기회를 맞고 있다는 평가가 나온다. 아울러 정부에서도 'AI 고속도로' 구축을 핵심 국정과제로 삼아 국가 핵심 AI 인프라가 될 '국가AI컴퓨팅센터' 구축에 나섰고 엔비디아의 블랙웰 GPU 26만 장 공급으로 경쟁력 확보에 탄력을 더했다. 정부는 2030년까지 최소 5만 장 이상의 GPU를 확보해 공공·산업·연구 전반의 접근성을 높인다는 계획이다. 데이터센터 업계 관계자는 "AI 인프라 경쟁력은 전력·냉각·네트워크·GPU 수급이 동시에 갖춰질 때 완성되는데 아시아 시장에서 한국은 이러한 풀스택 인프라를 빠르게 갖춘 나라"라며 "글로벌 하이퍼스케일러들이 잇따라 투자를 결정하는 것도 한국이 향후 글로벌 AI 데이터센터 전략에서 리스크가 낮고 성장성이 높은 시장으로 평가받기 때문"이라고 말했다.

2025.11.18 17:10한정호

[현장] 에퀴닉스 "AI 시대 분산형 인프라가 경쟁력"…'SL4'서 차세대 전략 공개

에퀴닉스가 에이전틱 인공지능(AI) 시대 높아지는 워크로드 수요에 맞춰 차세대 분산형 인프라 전략을 공개했다. 장혜덕 에퀴닉스 한국 대표는 18일 경기도 고양시 향동동에서 열린 'SL4' 데이터센터 투어 행사에서 "AI 시대에는 데이터가 생성되는 위치에서 바로 추론까지 이어지는 초저지연 인프라가 핵심 경쟁력이 될 것"이라며 "글로벌 표준의 회복 탄력성과 연결성을 한국 시장에서도 동일하게 제공하겠다"고 강조했다. 이날 행사에서 에퀴닉스는 SL4 데이터센터 설계 철학과 글로벌 AI 에코시스템 전략을 소개하며 한국 시장 내 AI 인프라 수요 확산에 맞춘 고집적·고효율 인프라 대응 방안을 제시했다. SL4는 상암 SL1과 다크파이버로 직접 연결된 도심형 멀티사이트 구조를 기반으로 그래픽처리장치(GPU) 기반 AI 워크로드를 소화할 수 있도록 전력·냉각·보안·연결성 전반을 강화한 점이 특징이다. "AI 워크로드가 기존 인프라를 바꾸고 있다" 이날 장 대표는 AI 워크로드 확산이 기존 데이터센터 인프라의 한계를 드러내고 있다고 설명했다. 전통적인 IT 워크로드가 랙당 5~10키로와트(kW) 전력을 기준으로 설계돼 온 반면, 최신 AI 서버는 랙당 40~80kW, 일부 고성능 모델은 120kW까지 요구하며 기존 설계 기준을 넘어서는 수준으로 진화하고 있다는 분석이다. AI 추론의 실시간성도 주요 의제로 다뤄졌다. AI 서비스가 10밀리초(ms) 미만의 지연을 전제로 설계되고 있으며 제조·금융·미디어 등 다양한 산업에서 엣지 기반 실시간 서비스가 급증하면서 데이터센터의 물리적 위치와 네트워크 구조 전반이 재편되고 있는 상황이다. 장 대표는 "AI 인프라는 기존 시설의 여유 용량을 조금 더 활용하는 수준이 아니라 완전히 다른 차원의 설계 구조를 요구한다"며 "데이터가 생성된 곳에서 즉시 추론하는 구조가 AI 시대의 기본 환경이 될 것"이라고 설명했다. 특히 AI 학습·추론을 위한 데이터 이동 비용·지연·규제 부담이 커지면서 기업들이 데이터를 가능한 인접 클라우드나 내부 인프라에 위치시키는 방식을 선호한다는 분석도 제기됐다. 이와 관련해 장 대표는 에퀴닉스가 구축한 글로벌 AI 에코시스템을 소개했다. 아마존웹서비스(AWS)·마이크로소프트(MS) 애저·구글 클라우드 등 글로벌 클라우드 사업자(CSP)는 물론, 엔비디아·AMD 같은 AI 인프라 기업, 네트워크 사업자와 데이터 플랫폼 기업들을 에퀴닉스 생태계 안에서 모두 연결한다는 게 강점으로 평가된다. 에퀴닉스 데이터센터 고객은 하나의 플랫폼 상에서 다양한 AI 서비스와 인프라를 조합할 수 있다는 설명이다. 차세대 분산형 AI 인프라 전략도 제시했다. 데이터 생성 위치에서는 추론, 중앙 리전에서는 대규모 학습을 수행하는 이원화 구조를 통해 성능과 비용을 모두 확보할 수 있는 방안이다. 장 대표는 "에퀴닉스 생태계 안에서 퍼블릭 AI와 프라이빗 AI 간 이동성이 확보되면 산업 전반의 AI 도입 속도가 더욱 빨라질 것"이라고 덧붙였다. 마지막으로 데이터센터 지속가능성과 회복 탄력성도 강조됐다. 에퀴닉스는 전 세계 37개국, 77개 대도시에서 270개 이상 데이터센터를 재생에너지 기반으로 운영 중이며 연간 99.999% 이상의 가동률을 유지하고 있다. 고집적·고효율 설계로 무장한 SL4…AI 시대 데이터센터 표준 제시 이날 행사가 진행된 SL4 데이터센터는 서울·고양 일대를 하나의 디지털 캠퍼스로 연결하는 전략적 거점으로 구축됐다. 에퀴닉스가 상암에 구축한 SL1, 고양시에 위치한 SL2x와 다크파이버로 직접 연결해 초저지연 환경을 보장하며 AI·클라우드 서비스가 요구하는 분산형 워크로드를 구성했다. 전력 공급 체계는 'N+1' 구조를 적용해 안정성을 극대화했다. 3.9메가와트(MW)급 비상 발전기 10대를 확보해 외부 전력 차단 시에도 장시간 독립 운영이 가능하며 모든 발전기는 지하층 대형 연료탱크와 연동돼 중단 없는 전력 공급을 보장한다. 매년 전력 차단 후 발전기 단독으로 센터 전체를 가동하는 'CUFT 테스트'를 직접 수행하는 것도 에퀴닉스의 차별화된 안정성 확보 전략이다. 무정전전원공급장치(UPS)와 배터리룸은 국내 기준보다 높은 수준으로 설계됐다. 배터리룸은 별도 공간으로 분리됐으며 2시간 내화 성능을 갖춘 방화벽 구조가 적용됐다. 이종래 에퀴닉스 한국 센터장은 "일반적으로 한 공간에 배터리와 UPS를 함께 두는 경우가 많지만 글로벌 기준은 철저한 분리 구조를 요구한다"고 설명했다. 냉각 구조는 에퀴닉스 특허 기반 '핫 아이슬' 컨테인먼트 방식이 적용됐다. 뜨거운 공기를 분리해 회수하는 구조를 통해 높은 에너지 효율을 확보하고 리퀴드 쿨링을 즉시 적용할 수 있도록 수배관 설계를 미리 반영한 점도 특징이다. GPU 기반 서버 증가로 열 밀도가 빠르게 높아지는 시장 상황에 대응한 설계로 꼽힌다. 운영·보안 측면에서도 SL4는 글로벌 표준을 그대로 적용했다. 고객별 프라이빗 케이지와 QR 기반 장비 식별·문서화 시스템을 통해 장애 대응 속도를 높였으며 설비·전력·통신 라인은 색상과 레이어별로 완전히 분리해 운영 안정성을 확보했다. 소방 인프라 역시 고급형 노즐 시스템 도입 등 비용보다 안정성을 우선한 설계 철학이 반영됐다. "한국은 성장 잠재력이 큰 시장…전력·망·생태계가 경쟁력 결정" 아울러 에퀴닉스는 국내 데이터센터 시장의 성장 조건과 과제를 설명하며 글로벌 사업자가 바라보는 경쟁력 요소를 제시했다. 먼저 에퀴닉스는 글로벌 이중화 구조를 기반으로 해외 리전 장애 시에도 한국 리전으로 즉시 우회가 가능한 운영 체계를 강조했다. 이같은 글로벌 표준화 운영 모델은 멀티리전 기반의 AI 서비스를 제공하는 기업에게 중요한 인프라 요소라는 설명이다. GPU 고집도 이슈에 대해서는 최신 AI 서버가 요구하는 전력량과 발열이 기존 데이터센터 구조를 빠르게 대체하고 있다고 진단했다. SL4는 공랭 기반으로도 운영이 가능하지만 필요 시 즉시 리퀴드 쿨링으로 확장할 수 있는 파이프 구조를 이미 설계 단계에서 반영했다. 또 전력 인프라와 입지 조건에 대해 장 대표는 "전력이 제공되지 않는 지역은 데이터센터 입지로 의미가 없다"며 "한국에서도 에너지 인프라 확충 정책이 가시화되고 있어 긍정적"이라고 평가했다. 국내 시장 구조에 대해서는 기존 통신사 중심 시장이 점차 분산되고 있다고 설명했다. 에퀴닉스는 통신사 중립적 사업자라는 점을 강조하며 다양한 글로벌·국내 네트워크 사업자가 한 공간에서 연결되는 구조가 AI 시대의 가장 큰 차별성이라고 소개했다. 이를 통해 국내 데이터를 해외 사용자나 글로벌 AI 서비스와 빠르고 효율적으로 연결할 수 있다는 점도 부각됐다. 분산형 AI 환경이 본격화되는 흐름도 설명했다. 데이터가 생성되는 지점에서 추론을 수행하고, 중앙 리전에서 학습을 처리하는 구조가 확산되면서 다계층 네트워크 패브릭을 제공하는 에퀴닉스의 역할이 커지고 있다는 것이다. 장 대표는 SL4를 포함한 서울·고양 데이터센터 캠퍼스가 이러한 분산형 AI 구조를 한국 기업이 활용하는 데 주요 거점 역할을 할 것으로 전망했다. 마지막으로 에너지·망 정책 이슈에 대해서도 의견을 제시했다. 장 대표는 "정부의 AI 확산 기조에 맞춰 에너지 확보 정책과 전력 인프라 지원이 확대되면서 국내 데이터센터 산업의 성장 속도가 빨라질 것"이라며 "망사용료 관련 논의도 산업 전반의 투명성과 개방성을 높이는 방향으로 이뤄지길 기대한다"고 밝혔다. 이어 "한국 시장에서 다양한 생태계 파트너가 만나는 분산형 AI 허브라는 본연의 역할을 강화해 나가겠다"고 덧붙였다.

2025.11.18 15:14한정호

엔비디아 손잡은 메가존클라우드, AI 총판으로 IPO 기대감 '↑'

메가존클라우드가 엔비디아와 국내 AI 인프라 총판 계약을 체결했다. 상장(IPO)을 추진 중인 상황에서 AI 인프라 사업 역량을 강화하고 기업 가치와 성장 스토리를 보강할 수 있는 계기를 마련했다는 평가다. 메가존클라우드는 17일 엔비디아와 국내 AI 인프라 총판 계약을 체결했다고 밝혔다. 총판 계약의 범위는 데이터센터·기업·공공 등 기업간 거래(B2B) 영역의 AI 인프라를 중심으로 한다. 개인용 그래픽카드 등 B2C 리테일 시장은 포함되지 않는다. 관련 업계에서는 이번 총판 계약이 메가존클라우드를 AI 인프라 시대의 핵심 사업자로 부상시키는 동시에 IPO를 앞두고 수익 구조와 성장 스토리를 구체화하는 계기가 될 것으로 보고 있다. 엔비디아 손잡은 메가존클라우드, 플랫폼형 AI 총판으로 도약 메가존클라우드는 DGX·HGX GPU 서버와 인피니밴드 기반 고성능 네트워크 장비 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급하며 AI 인프라 공급과 생태계 확산에 본격 나선다. 이를 통해 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요를 겨냥한다는 계획이다. 특히 이번 계약을 단순 하드웨어 유통을 넘어 '플랫폼형 총판' 모델로 가져간다는 전략이다. 고객사의 AI 사업을 빠르게 추진할 수 있도록 AI 인프라 설계·구성 지원, AI 기술 검증(PoC)과 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계 등 전 과정을 패키지로 제공한다. 하드웨어 납품과 더불어 인프라 설계, 운영, 인력 역량 강화까지 하나의 서비스 체계로 묶어 제공하겠다는 구상이다. 이를 통해 메가존클라우드는 엔비디아라는 벤더와 국내외 파트너, 최종 고객을 하나의 플랫폼 위에서 기술적으로 오케스트레이션하는 허브 역할을 자처한다. GPU와 네트워크 장비와 함께 클라우드·보안·운영·애플리케이션을 얹어 수익성을 높이는 서비스·플랫폼 사업의 출발점으로 삼겠다는 것이다. 기업 내부에서도 총판 마진 자체보다 상위 레이어 비즈니스에서 나오는 장기 매출과 이익 기여에 더 큰 무게를 두고 있는 것으로 전해진다. 이미 메가존클라우드는 클라우드 매니지드 서비스(MSP)와 디지털 전환(DX) 사업을 통해 다수의 고객 인프라를 운영해 온 경험을 갖고 있다. 2천여명의 클라우드·AI 기술 전문가를 보유하고 있으며, 국내외 8천여곳의 고객사를 대상으로 클라우드 전환과 운영을 지원하고 있다. 이 밖에도 글로벌·국내 주요 클라우드 서비스 제공업체(CSP)와 전략적 협력 관계를 구축하고 1백50여곳의 ISV 파트너, 자체 개발한 클라우드·AI·보안 솔루션 포트폴리오도 확보한 상태다. 메가존클라우드는 이러한 기반 위에 엔비디아 총판 역량을 더해 GPU 인프라 조달부터 배치, 운영, 비용·성능 최적화, 상위 애플리케이션까지 원스톱으로 제공하는 AI 인프라 플랫폼 사업을 강화하겠다는 입장이다. 메가존클라우드, AI 인프라 총판으로 IPO 기대감 ↑ 관련 업계에서는 이번 계약이 상장을 준비 중인 메가존클라우드의 기업 가치 제고에도 우호적으로 작용할 것으로 분석 중이다. 글로벌 AI 인프라 시장에서 사실상 표준으로 자리 잡은 엔비디아와의 전략적 총판 계약은 메가존클라우드가 단순 클라우드 MSP를 넘어 AI 인프라 플랫폼 기업으로 포지셔닝을 강화하는 신호로 읽히기 때문이다. 회사가 그동안 쌓아 온 클라우드, 데이터, 보안 사업 위에, 엔비디아 GPU 총판이라는 상징성과 성장 동력을 추가해 IPO 스토리를 한층 풍부하게 만들 수 있다는 기대도 제기된다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 전개할 계획이다. 산업별 기술 세미나와 고객 대상 웨비나를 열고 개념검증(PoC) 지원 캠페인과 파트너 기술 교육 프로그램을 운영해 엔비디아 기반 AI 인프라 도입을 확대한다는 방침이다. 메가존클라우드는 기존 고객 기반과 글로벌 파트너 네트워크를 활용해 제조·금융·공공·게임·미디어 등 주요 산업에서 AI 인프라 레퍼런스를 빠르게 확보하고, 이를 다시 레퍼런스 패키지로 전환하는 선순환 구조를 만들겠다는 구상이다. 메가존클라우드 염동훈 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 돕겠다"고 말했다.

2025.11.17 17:05남혁우

구글, 터키 통신사와 대규모 데이터센터 구축한다

알파벳의 구글이 터키 최대 이동통신사 터크셀과 협력해 하이퍼스케일 데이터센터를 구축한다. 하이퍼스케일 데이터센터는 수천대의 서버를 수용해 AI 연산·스트리밍·클라우드 스토리지 등 대규모 디지털 서비스를 지원하는 핵심 인프라다. 12일(현지시간) 블룸버그통신에 따르면 터크셀은 최근 공시를 통해 구글 클라우드와 전략적 파트너십을 체결했다고 밝혔다. 양사는 2029년까지 최소 3개의 데이터센터로 구성된 신규 클라우드 리전을 구축할 계획이다. 터크셀은 이번 협력을 통해 인프라 제공업체이자 구글 클라우드 서비스 재판매자로서 역할을 수행한다. 회사는 클라우드 시장이 향후 연평균 20% 성장해 2029년에는 약 42억 달러(약 6조2천억원) 규모에 이를 것으로 전망했다. 알리 타하 코크 터크셀 CEO는 블룸버그 HT를 통해 “이번 협력은 터키 최초의 하이퍼스케일 데이터센터를 건설하는 역사적인 전환점”이라며 “터크셀이 글로벌 클라우드 중심지로 도약하는 계기가 될 것”이라고 말했다. 터크셀은 2032년까지 약 10억 달러(약 1조5천억원)를 투자해 데이터센터 용량을 두 배 이상 늘리고, 클라우드 및 데이터센터 매출을 미화 기준 6배 이상 확대할 계획이다.

2025.11.12 18:01진성우

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 역대 최대 매출에도 일회성 비용에 실적 '뒷걸음'

페이커 소속 '팀 리드', 2026 LCK 시즌 오프닝 2년 연속 우승

거리로 나온 '무진장 신발 많은 곳'…무신사 킥스 가보니

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.