• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터센터 인프라'통합검색 결과 입니다. (110건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성전자, 엔비디아향 '소캠2' 공급 임박…샘플 평가·표준화 협력

삼성전자와 엔비디아가 AI 메모리 분야에서 긴밀한 협력을 더 강화하고 있다. LPDDR(저전력 D램) 기반 차세대 서버 메모리 모듈에 대한 평가를 진행 중인 것은 물론, 공식 표준화 작업도 함께 진행 중이다. 양사 간 협업은 내년 초부터 본격적인 시너지 효과를 발휘할 것으로 기대된다. 삼성전자는 18일 공식 뉴스룸을 통해 고객사에 SOCAMM(소캠; Small Outline Compression Attached Memory Module)2 샘플을 공급하고 있다고 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈로, 저전력 D램인 LPDDR을 4개씩 집적한다. 기존 모듈(RDIMM) 대비 데이터 전송 통로인 I/O(입출력단자) 수가 많아, 데이터 처리 성능의 척도인 대역폭이 높다는 장점이 있다. 소캠2는 2세대 소캠으로서, RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공한다. 또한 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장해야 했지만, 소캠2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있다. 삼성전자가 개발한 소캠2는 내년 초부터 본격 상용화될 전망이다. 현재 삼성전자는 1b(5세대 10나노급) D램을 기반으로 소캠2를 개발해, 주요 고객사인 엔비디아와 퀄(품질) 테스트를 거치고 있는 것으로 알려졌다. 삼성전자는 "서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다"며 "특히 엔비디아와의 기술 협업을 통해 소캠2를 엔비디아 가속 인프라에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다"고 밝혔다. 소캠2의 공식 표준화 작업도 마무리 단계에 접어들었다. 현재 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다. 디온 헤리스 엔비디아 HPC 및 AI 인프라 솔루션 총괄 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 피지컬 AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며 "삼성전자와의 지속적인 기술 협력을 통해 소캠2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

2025.12.18 11:04장경윤 기자

[현장] "AI가 두뇌라면 데이터는 혈액, 클라우드는 심장"…민관 인프라 협력 시동

"모두가 주연 배우인 인공지능(AI)에 주목할 때, 조연 배우인 데이터와 클라우드를 함께 챙겨야 성공적인 AI 생태계를 만들 수 있습니다." 과학기술정보통신부 류제명 차관은 16일 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간' 개막식에서 AI 시대 데이터와 클라우드의 중요성에 대해 이같이 강조했다. 올해 처음 개최된 데이터·클라우드 진흥주간은 과기정통부가 주최하고 한국지능정보사회진흥원(NIA), 정보통신산업진흥원(NIPA), 정보통신기획평가원(IITP), 한국데이터산업진흥원(K-DATA) 등이 공동으로 참여하는 국내 최대 규모의 데이터·클라우드 통합 행사다. '모두를 위한 AI, AI를 위한 데이터·클라우드'를 슬로건으로 이날부터 19일까지 나흘간 서울 코엑스에서 열린다. 류 차관은 개회사를 통해 "AI 성능과 국가 경쟁력의 핵심은 결국 양질의 데이터와 신뢰할 수 있는 클라우드에 있다"며 "AI가 두뇌라면 데이터는 혈액이고 클라우드는 혈액을 순환시키는 심장"이라고 말했다. 정부 차원의 전략도 공유했다. 그는 "국가AI전략위원회와 과학기술관계장관회의를 중심으로 범부처 역량을 결집한 전략적 대응 체계를 구축하고 있다"며 "독자적인 AI 생태계와 AI 고속도로를 만들어 국민 누구나 AI 혜택을 누리는 모두의 AI 사회를 구현하겠다"고 덧붙였다. 이번 개막식에서는 데이터·클라우드 분야 핵심 7개 기관과 협회가 참여하는 업무협약(MOU) 체결식도 함께 진행됐다. 이번 협약은 데이터와 클라우드를 기반으로 한 AI 혁신을 공동 추진하고 대한민국의 AI 3강 도약을 목표로 한다. MOU에는 한국지능정보사회진흥원·정보통신산업진흥원·정보통신기획평가원·한국데이터산업진흥원과 함께 한국클라우드산업협회·한국데이터산업협회·한국데이터센터연합회 등 총 7개 기관·협회가 참여했다. 각 기관은 전문성과 역할을 바탕으로 상호 협력 체계를 구축하기로 했다. 협약에 따라 이들 기관은 국가 데이터 인프라 구축, 공공부문 클라우드 전환 확대, AI 데이터 기반 연구개발(R&D) 지원, 산업 현장의 데이터 활용 촉진 등 전 주기에 걸쳐 협력한다. 데이터·클라우드 산업 경쟁력을 강화하고 기술 성과가 산업 생태계 전반으로 확산되도록 공동 대응한다는 계획이다. 이날 행사에는 국회 과학기술정보방송통신위원회 최민희 위원장을 비롯해 김현·최형두 의원의 영상 축사도 이어졌다. 국회는 데이터와 클라우드가 국가 전략 자산으로 자리 잡을 수 있도록 입법·제도적 지원을 이어가겠다는 뜻을 밝혔다. 이어진 기조연설에서 김동훈 NHN클라우드 대표는 AI 시대 데이터센터의 역할을 'AI 팩토리'로 정의하며 기존 데이터센터와는 다른 인프라 전환이 필요하다고 강조했다. 앞으로 고성능 그래픽처리장치(GPU), 대규모 전력, 첨단 냉각 기술이 결합된 AI 데이터센터가 필요하다는 설명이다. 김 대표는 "현재 데이터센터는 단순한 저장 공간이 아니라 AI 서비스를 생산하는 공장으로 진화하고 있다"며 "한국도 이러한 AI 팩토리 역량을 갖춰야 글로벌 경쟁에서 살아남을 수 있다"고 강조했다.

2025.12.16 16:19한정호 기자

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호 기자

ACC 2025 찾은 관람객 "AI 풀스택 인상적"…실무형 혁신 전략 쏟아져

"모델 구축부터 재해복구(DR)까지 인공지능(AI) 서비스를 운영하는 데 필요한 '풀스택' 기술을 한 자리에서 접할 수 있어 정보가 머릿속에서 유기적으로 연결되는 느낌을 받았습니다." 글로벌 경기 침체 속에서 기업들이 단순한 AI 도입을 넘어 '실질적인 성과'를 고민하고 있는 가운데, 최신 IT 기술과 비즈니스 적용 해법을 확인할 수 있는 자리가 마련돼 업계의 높은 관심을 받았다. 지디넷코리아는 11일 서울 중구 신라호텔 다이너스티홀에서 'AI & Cloud Conference 2025(ACC 2025)' 행사를 개최했다. 이번 행사는 글로벌 구글 클라우드·삼성SDS·퓨어스토리지 등 국내외 주요 기업이 참여해 2026년을 선도할 비즈니스 전략과 AI·클라우드 혁신안 등을 제시했다. 또 현장에서는 생성형AI·인프라·보안 등 최신 솔루션을 보다 직접적으로 경험해 볼 수 있는 기업 전시 부스도 운영돼 관람객들의 이목을 집중시켰다. 행사장은 이른 아침부터 등록을 마친 관람객들로 붐볐다. 특히 올해 행사는 단순한 AI 기술의 신기함을 넘어, 기업 현장에 AI를 어떻게 도입하고 실질적인 성과를 낼 것인가에 대한 구체적인 해법을 찾는 실무자들의 발길이 이어졌다. 이날 첫 번째 키노트로 나선 구글 클라우드 안영균 엔터프라이즈 파트너십 헤드는 이제는 AI를 도구가 아닌 '만능 비서'로 봐야 한다며 행사의 포문을 열었다. 이어 퓨어스토리지 김영석 상무, 뉴타닉스 마이클 신 전무, 알리바바 클라우드 임종진 테크리드, 삼성SDS 최정진 그룹장이 연단에 올라 AI 인프라와 재해복구(DR) 전략 등 심도 있는 인사이트를 공유했다. 오후에는 트랙 A·B로 나눠 ▲바이트플러스 ▲Odoo ▲배스트데이터 ▲오픈서베이 ▲아카마이 ▲HPE ▲래블업 ▲나무기술 등이 각 기업 환경에 맞춘 구체적인 기술 도입 사례와 운영 전략을 발표해 호응을 얻었다. 다양한 AI 솔루션을 주제로 진행된 행사인 만큼 부스를 찾은 참관객들의 반응도 뜨거웠다. 특히 보안과 비용 효율성을 강조한 부스들에 실무자들의 발길이 이어졌다. HPE 부스에서는 AI와 머신러닝(ML) 이더넷 패브릭 환경에서 고용량 스파인 및 리프 스위치로 활용되는 'QFX5230'의 실물이 전시돼 관람객들의 기술적 호기심을 자극했다. 또 '앱스트라 데이터센터 디렉터' 사용자화면(UI)을 통해 데이터센터 네트워크 최적화 방안을 직접 시연해 눈길을 끌었다. 래블업 부스에서는 단 2대의 서버로 120B(1천200억 파라미터) 규모의 거대언어모델(LLM)을 구동하는 시연이 주목받았다. 래블업 관계자는 "보안 문제로 외부망 사용이 어려운 기업들을 위해 온프레미스 환경에서도 효율적인 AI 구축이 가능하다는 점을 강조하고 있다"고 설명했다. 바이트플러스는 AI 영상 생성 기술로 관람객을 사로잡았다. 립싱크뿐만 아니라 영상 생성까지 가능한 기능들을 선보였다. 바이트플러스 관계자는 "콘솔 하나로 클라우드와 AI 제품을 통합 관리할 수 있어 아마존웹서비스(AWS)처럼 편리하게 사용할 수 있다"고 소개했다. 아카마이는 엔비디아와 협업한 GPU 모델 제공과 AI 보안 솔루션을 소개하며 'AI 인프라 기업'으로서의 확장을 알렸다. 이날 행사를 찾은 한 IT 기업 관계자는 "보통 세미나는 단편적인 정보에 그치기 쉬운데 이번 행사는 AI 도입의 전체 과정을 빠짐없이 설명하려는 진심이 느껴졌다"며 "파편화된 정보들이 융합돼 인프라 구축과 서비스 운영에 대한 명확한 인사이트를 얻을 수 있었다"고 호평했다. 현장의 디지털 전환을 고민하며 행사장을 찾은 의료 업계 관계자는 "폐쇄망을 사용하는 병원 환경에서 클라우드와 자체 구축 사이의 인프라 해법을 찾기 위해 컨퍼런스와 부스를 주의 깊게 살펴봤다"고 말했다.

2025.12.11 16:58진성우 기자

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호 기자

[AI는 지금] "13억 인도 시장 잡아라"…AWS·구글 이어 MS도 돈 보따리 푼다

아마존, 구글에 이어 마이크로소프트(MS)가 인도 클라우드 및 인공지능(AI) 인프라 증설을 위해 대규모 투자에 나선다. 13억 인구가 이끄는 디지털 서비스 수요 폭증과 정부 행정의 디지털화, 전자상거래·핀테크 성장세가 맞물리며 글로벌 빅테크들의 자금이 인도로 빠르게 몰리는 모양새다.로이터통신 등 외신에 따르면 사티아 나델라 MS 최고경영자(CEO)는 9일(현지시간) 나렌드라 모디 총리와 인도서 회동 후 2026년부터 4년간 175억 달러(약 26조원)를 투자하겠다고 밝혔다. 이는 MS의 아시아 시장 투자 중 최대 규모로, 올해 초 발표한 30억 달러 투자의 연장선상이다. 모디 총리와 나델라 CEO는 이번 회동에서 인도의 AI 전략 및 기술주권 강화 방안을 논의했다. 또 MS는 이번 투자를 통해 하이데라바드, 푸네 등 도시에 초대형(하이퍼스케일) 클라우드 인프라를 추가로 구축하고, 국가 플랫폼 AI 내재화, AI 전문 인재 양성 등에도 자금을 투입키로 했다. MS가 1년도 지나지 않아 인도 투자 규모를 6배 가까이 키운 것은 글로벌 빅테크들의 투자 경쟁이 본격화되고 있어서다. 인도는 MS·아마존웹서비스(AWS)·구글 등 세 기업 모두 100억 달러 이상 베팅한 드문 신흥시장이다. 글로벌 클라우드 기업들에게 인도는 '차세대 하이퍼스케일 격전지'로 자리잡았다는 평가를 받고 있다.실제 AWS는 오는 2030년까지 인도 텔랑가나·마하라슈트라 등지에 총 127억 달러(약 18조1천293억원)를 투입해 클라우드·AI 인프라를 확충하겠다는 계획을 내놓은 상태다. 이 과정에서 2016~2022년 사이 이미 37억 달러를 선제적으로 투자한 데 이어 중소기업 1천500만 곳과 학생 400만 명에게 AI 교육과 도구를 제공하는 로드맵도 함께 제시했다. 구글 역시 지난 10월 안드라프라데시 비사카파트남에 자사의 첫 '기가와트(GW)급 AI 허브'를 구축하기 위해 150억 달러를 투자하겠다고 발표했다. 이 허브는 대규모 데이터센터·광케이블망·전력 인프라가 통합된 형태로, 미국 외 지역에서 구글이 단행한 최대 규모 AI 인프라 투자다. 여기에 인도 재벌 리라이언스와 캐나다 브룩필드 합작사인 '디지털 커넥션'은 비사카파트남에 1GW 규모 AI 데이터센터 단지를 구축하기 위해 110억 달러를 투자한다고 밝혔다. 일본의 NTT와 인도 기업 요타(Yotta)·컨트롤에스(CtrlS) 등도 대규모 데이터센터 및 GPU 인프라 투자 계획을 잇따라 발표했다. 챗GPT 개발사인 오픈AI도 인도 남부 지역에 1GW 규모 데이터센터 설립을 위해 부지 물색에 나섰다. 인텔은 지난 8일 인도 뭄바이의 타타 일렉트로닉스와 제휴 협정을 체결하고 반도체 및 AI용 칩 제품 생산 협업을 추진하기로 했다.이처럼 인도는 글로벌 빅테크·현지 대기업·인프라 자본이 동시에 몰리며 '초거대 AI 집적지'가 형성돼 가는 분위기다. 또 각 기업들이 경쟁적으로 데이터센터 투자에 나서면서 AI 수요 급증 속 최대 수혜국 중 하나로 급부상했다. 이 같은 자금 쏠림의 가장 큰 배경은 확실한 수요와 성장 전망 덕분이다. 인도는 13억 명 인구와 급격히 증가하는 인터넷·스마트폰 보급률을 기반으로 전자상거래·핀테크·모빌리티·에듀테크 등 디지털 서비스 이용이 폭발적으로 증가하고 있다. 이로 인해 데이터센터 시장 규모도 빠르게 커지는 분위기다. 상업용부동산서비스업체 CBRE그룹에 따르면 인도 데이터센터 시장 규모는 2027년까지 1천억 달러(약 142조7천700억원) 규모로 성장할 것으로 추정된다. 또 업계에선 인도의 데이터센터 전력 수용 용량이 현재 약 1.3GW에서 2030년경 9GW 수준으로 7배 이상 확대될 것으로 전망했다. 이는 단순한 서버 증설을 넘어 국가 규모의 클라우드 트래픽 허브로 도약하는 수준이다. 인도 정부가 'AI 미션'과 '디지털 인디아' 프로젝트를 중심으로 공공 서비스의 디지털화를 가속하고 있다는 점도 매력 요소로 꼽힌다. 이곳은 금융·공공 데이터의 국내 저장을 요구하는 데이터 현지화 정책도 강화하고 있다. 최근에는 총 180억 달러 규모의 '인도 반도체 미션'을 통해 10개 반도체 프로젝트를 승인하며 칩 설계·제조·패키징·AI 인프라를 연결하는 산업 생태계를 구축하는 데도 속도를 내고 있다. MS가 이번 투자 발표에서 인도 내 AI 인재 양성 목표를 두 배인 2천만 명으로 확대한 것도 이러한 정부 전략과 궤를 같이한다. 지정학적 환경도 인도에 유리하게 작용하고 있다. 미·중 갈등 이후 글로벌 기술 기업들은 생산기지·데이터센터·R&D 허브를 중국·홍콩 중심에서 인도·동남아·중동으로 재배치하는 '차이나 플러스 원' 전략을 본격화하고 있다. 인도는 영어 기반 인력 생태계, 민주주의 국가의 제도적 안정성, 미국과의 전략적 협력 관계 등을 기반으로 '신뢰할 수 있는 기술 파트너'로 부상하고 있다는 평가가 나온다. 모디 총리 역시 이번 MS 투자 발표 직후 "이번 기회로 인도의 젊은 세대가 AI의 힘을 활용해 더 나은 미래를 만들 것"이라고 강조했다. 빅테크들의 인도 투자 전략을 보면 단순한 데이터센터 투자가 아니라 AI 전용 하드웨어 인프라·주권 클라우드·AI 거버넌스·대규모 AI 교육 프로그램이 결합된 '패키지형 진출'이란 점도 눈여겨 볼 요소다. AWS가 학생·중소기업 대상 AI 교육을 확대한 데 이어 MS가 교육 대상 인원을 2천만 명으로 늘린 것, 구글이 글로벌 해저케이블과 AI 데이터센터를 묶어 투자하는 것 모두 같은 흐름으로 읽힌다. 다만 일각에선 전력·수자원 부담, 지역별 전력망 격차, AI 인프라 투자 과열 가능성 등 리스크가 있다고 지적했다. GW 단위 데이터센터는 막대한 전력과 냉각 인프라가 필요하기 때문에 전력수급이 빠듯한 일부 지역에서는 공급이 뒤따르지 못할 수 있다는 우려가 나온다. 글로벌 금융시장에서는 AI 인프라 경쟁의 속도가 실제 수요를 앞지르는 'AI 버블' 가능성도 꾸준히 제기된다. 이 같은 상황 속에서도 인도는 소프트웨어 인력 공급지에서 AI·클라우드·반도체 인프라의 전면적 생산·운영 허브로 빠르게 전환하고 있다. 나델라 CEO는 소셜미디어(SNS)를 통해 "이번 투자가 인도의 'AI 퍼스트' 미래를 구축하는 데 필요한 인프라·기술·인재 역량을 뒷받침할 것"이라고 밝히며 인도 정부에 힘을 싣는 분위기다. 업계 관계자는 "이번 MS의 175억 달러 투자는 인도의 산업 전환 방향성을 더욱 명확히 하는 신호탄이 될 것"이라며 "앞으로 5~10년간 인도가 글로벌 AI 가치사슬에서 어떤 위치를 차지하게 될지, 빅테크·정부·현지 산업이 이를 어떻게 조율해 나갈지 주목된다"고 말했다.

2025.12.10 17:17장유미 기자

구글 TPU 파트너 플루이드스택, 기업가치 10조원 '눈앞'…대형 데이터센터 투자 시동

글로벌 인공지능(AI) 인프라 시장에서 신흥 강자로 떠오른 플루이드스택이 대규모 자금 조달에 나서며 기업가치가 70억 달러(약 10조원)에 이를 것이라는 전망이 나왔다. 구글 텐서처리장치(TPU) 생태계를 뒷받침하며 존재감을 키운 가운데, 대규모 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축을 본격화하면서 업계의 시선이 집중되고 있다. 5일 디인포메이션 등 외신에 따르면 플루이드스택은 약 7억 달러(약 1조원) 규모의 신규 투자 유치를 추진 중이며 투자 라운드가 성사될 경우 기업가치는 70억 달러(약 10조원) 수준까지 상승할 것으로 관측된다. 이번 투자 라운드는 전 오픈AI 연구원이 설립한 시추에이셔널 어웨어니스가 주도하며 알파벳(구글)과 골드만삭스가 참여 논의를 진행 중인 것으로 알려졌다. 플루이드스택은 최근 구글의 TPU를 대규모로 임대·호스팅하며 주목받고 있다. 특히 '제미나이 3' 학습에 활용된 TPU 인프라를 공급한 핵심 파트너로 알려지면서 글로벌 AI 인프라 생태계에서 빠르게 입지를 넓히는 중이다. 그동안 엔비디아 그래픽처리장치(GPU) 임대 중심이었던 사업 구조도 TPU 중심으로 전환을 가속하고 있다. 회사는 지금까지 주식 기반 조달보다는 차입금에 의존해 서버 구축 비용을 조달해왔고 올해 초에는 엔비디아 등 AI 칩을 담보로 100억 달러(약 14조원) 이상의 신용 승인도 확보한 것으로 전해졌다. 올해에만 구글과 두 건의 데이터센터 개발 계약을 체결한 것도 주목된다. 플루이드스택은 테라울프·사이퍼 마이닝과 함께 데이터센터 프로젝트를 진행 중이다. 해당 계약에서 구글은 플루이드스택이 자금을 갚지 못하는 상황이 오면 대신 빚을 갚아주기로 한 '보증인' 역할까지 맡아 지원했다. 이는 AI 인프라 수요 급증 속에서 기술 기업과 금융기관이 새로운 방식으로 데이터센터 투자를 확대하는 흐름과 맞물려 있다. 플루이드스택은 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 발표했다. 내년 가동을 목표로 하는 이 프로젝트는 프랑스 정부가 AI 경쟁력 확보를 위해 추진하는 대규모 전략의 핵심으로 평가된다. 회사는 현재 메타·하니웰 등과의 파트너십도 강화하며 글로벌 AI 기업들과 협력을 확대하고 있다.

2025.12.05 14:43한정호 기자

AI가 미국 전력망 흔든다…데이터센터 전력 수요 300% 급증 전망

인공지능(AI) 확산이 미국 데이터센터의 전력 수요를 폭발적으로 끌어올리며 에너지 인프라 전체에 구조적 변화를 예고하고 있다. 2035년까지 전력 수요가 현재의 3배에 달할 것이라는 전망까지 나오며 전력망 안정성에 대한 우려가 제기된다. 2일 블룸버그NEF가 발표한 보고서에 따르면 미국 데이터센터의 전력 수요는 현재 40기가와트(GW) 규모에서 2035년 106GW로 급증할 전망이다. 이는 약 300% 증가한 수치로, 지난 4월 전망보다 크게 상향 조정됐다. 보고서는 최근 발표된 초기 단계 데이터센터 프로젝트 급증이 전력 수요 전망치를 올렸다고 설명했다. 보고서에 따르면 현재 전체 미국 데이터센터 중 50메가와트(MW) 이상 전력을 사용하는 시설은 10%에 불과하지만 향후 신규 센터의 평균 소비전력은 100MW를 넘길 것으로 예상된다. 500MW 이상 초대형 데이터센터 비중은 25%에 달하고 일부 시설은 1GW를 초과할 것이라는 전망도 나왔다. 도시 인근 부지 부족으로 인해 이러한 대규모 센터는 농촌 지역을 중심으로 확산될 것으로 관측됐다. AI 학습과 추론이 전체 데이터센터 컴퓨팅의 약 40%를 차지하게 되면서 센터 평균 활용률도 59%에서 69%로 상승할 것으로 분석됐다. AI 기업들의 적극적인 인프라 구축으로 올해 전 세계 데이터센터 투자 규모는 5천800억 달러(약 853조원)에 달한 것으로 나타났다. 전력 수요 급증은 지역 전력망 운영에도 직접적인 압박을 주고 있다. 특히 버지니아·펜실베이니아·오하이오·일리노이·뉴저지 등에서 데이터센터 건설이 집중되고 있다. 현재 이 지역은 미국 동부·중서부 13개 주의 송전망 운영을 총괄하는 지역 전력망 운영기구(RTO)인 PJM 인터커넥션(PJM)이 관리 중이다. 텍사스를 관활하는 ERCOT 전력망 역시 대규모 추가 부하가 예정된 상황이다. 초기 단계 데이터센터 프로젝트는 지난해 대비 두 배 넘게 증가해 향후 수년간 전력망 부담이 지속될 가능성이 크다는 분석도 제기됐다. 이런 상황에서 PJM의 독립 감시기관인 모니터링 애널리틱스는 연방에너지규제위원회(FERC)에 전력망이 충분히 감당 가능한 경우에만 신규 데이터센터 연결을 허용해야 한다고 주장했다. 대규모 데이터센터로 인해 지역 전력 공급 안정성과 비용 증가에 대한 우려가 커지고 있어서다. 모니터링 애널리틱스는 "PJM은 안정성 유지 의무의 일환으로 전력 부하가 안정적으로 처리될 때까지 대규모 신규 데이터센터가 추가되는 것을 기다리도록 요구할 권한이 있다"고 밝혔다. 또 데이터센터가 해당 지역 전기요금 상승의 핵심 원인이라고 지적하며 "PJM이 지역 주민들에게 안정적이고 저렴한 서비스를 제공하지 못하는 것은 부당하고 불합리하다"고 비판했다.

2025.12.02 10:08한정호 기자

xAI, 태양광 발전소 구축 계획…"가스 의존은 지속"

일론 머스크의 xAI가 인공지능(AI) 연산 전력 확보를 위해 태양광 발전소를 짓는다고 발표했지만, 가스 의존을 줄이지 못해 오염 논란에서 벗어나지 못할 것이라는 비판을 받고 있다. 27일 테크크런치 등 외신에 따르면 xAI는 미국 멤피스 데이터센터 인근에 소규모 태양광 발전소를 건설한다는 계획을 밝혔다. xAI는 멤피스 시와 카운티 계획 담당자들에게 콜로서스 데이터센터 서쪽과 남쪽 약 35.6헥타르(ha) 규모 부지에 발전소를 짓겠다고 알렸다. 콜로서스는 세계 최대급 AI 학습용 데이터센터로 알려져 전력 수요가 매우 큰 편에 속한다. 해당 부지는 개발사가 보유한 약 55ha 규모 공터와 맞닿았다. 태양광 발전 규모는 약 30메가와트(MW)로 추정된다. 다만 이는 전체 전력 수요의 약 10% 수준에 불과한 것으로 확인됐다. 이에 다수 외신은 xAI가 가스 터빈에 지속 의존할 것이라고 분석했다. 현재 xAI는 허가 없이 400MW 넘는 천연가스 터빈을 운영해 왔다는 비판을 받고 있다. 미국 남부환경법센터는 xAI가 연간 2천톤 넘는 질소산화물을 배출할 수 있는 가스 터빈을 35기 넘게 가동하고 있다고 밝혔다. 이 가스 터빈은 인근 보크스타운 주민들의 반발을 불러왔다. xAI 운영 이후 환경 변화가 심각해졌다는 이유에서다. 테네시대 녹스빌 캠퍼스 연구진도 xAI 터빈 가동 후 주변 지역의 이산화질소 농도가 79% 증가했다고 분석했다. 지역 활동가들도 데이터센터가 문을 연 뒤 천식 발작과 호흡기 질환 사례가 늘었다고 주장하고 있다. xAI는 대체 전력을 확보하기 전까지 터빈 사용을 계속하겠다는 입장을 고수하고 있다. 현지 당국은 xAI에 2027년 1월까지 터빈 15기 운영을 공식 허가한 상태다. 또 xAI는 지난 9월 100MW 태양광과 100MW 배터리 팩을 결합한 별도 에너지 프로젝트도 추진하겠다고 밝혔다. 이 프로젝트는 세븐스테이츠파워 코퍼레이션이 개발을 맡았으며 미국 농무부는 총 4억3천900만 달러(약 6천437억원)를 지원했다. 이 가운데 4억1천400만달러는 무이자 대출로 배정됐다. 현재 미시시피 지역에서도 xAI 가스 터빈 59대가 설치됐다. 이중 18기는 임시 설비로 분류돼 규제기관의 오염물질 추적 대상에서 제외다. 해당 터빈들은 '콜로서스 2' 데이터센터 전력 공급에 사용되고 있다. 테크크런치는 "트럼프 행정부가 환경보호청과 에너지부에 청정에너지 보조금을 대거 중단한 상황에서 이번 사례는 이례적"이라고 평가했다.

2025.11.27 11:09김미정 기자

이노그리드, 위엠비와 AI 데이터센터 운영 관리 역량 '강화'

이노그리드가 미래 인공지능(AI) 인프라 시장 선도를 위한 구축·관리 역량 확보에 박차를 가한다. 이노그리드는 위엠비와 국내 AI 데이터센터 관리 사업 협력을 위한 업무협약(MOU)을 체결했다고 25일 밝혔다. 협약식은 지난 24일 위엠비 사옥에서 진행됐으며 김명진 이노그리드 대표, 박창원 전무, 김홍진 전무와 김수현 위엠비 대표, 임대춘 상무, 박건범 상무 등 주요 관계자가 참석했다. 이노그리드는 올해 7월 과학기술정보통신부와 정보통신기획평가원이 주관하는 '마이크로 데이터센터 연동 스케일아웃 클라우드 기술개발' 연구개발(R&D) 과제를 수주했다. 이를 바탕으로 분산된 초소형 데이터센터를 통합 관리하고 대규모 AI 연산을 효율적으로 처리할 수 있는 혁신 기술 개발·상용화를 추진 중이다. 이노그리드는 지난 12일 개최한 자사 클라우드 컨퍼런스 'IC3 2025'에서 AI 드리븐 데이터센터 솔루션 사업자로의 변모를 공식 선언하는 등 미래 AI 데이터센터 시장을 선도하기 위한 준비를 하고 있다. 이번 협약은 급변하는 AI 시대에 발맞춰 미래 AI 데이터센터 기술 개발과 공동 비즈니스를 발굴하기 위해 추진됐다. 앞서 이노그리드와 위엠비는 과기정통부와 정보통신산업진흥원이 추진하는 '국산 장비·소프트웨어(SW) 개발 고도화 및 실증' 사업을 통해 AI 기반의 데이터센터 인프라 관리(DCIM) 고도화와 국산화를 진행하는 등 협력 관계를 이어오고 있다. 이번 협약으로 양사는 이노그리드의 클라우드, AI 인프라 구축 역량과 위엠비의 데이터센터 관리 기술을 결합해 ▲AI 데이터센터 운영 관리를 위한 공동 기술 개발 ▲AI 데이터센터 시장 전반에 대한 공동 비즈니스 ▲AI 데이터센터를 위한 양사 전문 기술 정보 교류 ▲양사 기술 개발 및 비즈니스 협력을 위한 신규 사업 발굴 등을 추진할 계획이다. 양사는 향후 기술 협력 범위를 확대해 공동 기술 개발 로드맵 수립과 파일럿 과제 발굴도 진행한다. 김명진 이노그리드 대표는 "양사의 전문성 융합을 통해 AI 시대를 선도할 데이터센터의 혁신 생태계를 만들어 미래 성장 동력을 창출하고 AI 데이터센터의 기준점을 제시하겠다"고 밝혔다. 김수현 위엠비 대표는 "AI 서비스의 안정성과 효율성을 확보하려면 데이터센터 운영의 지능화가 필수적"이라며 "이번 협력을 통해 국내 AI 데이터센터 운영의 새로운 기준을 마련하고 실증 기반 기술 고도화와 상용화를 통해 고객 가치 제고에 기여하겠다"고 말했다.

2025.11.25 10:37한정호 기자

韓, 글로벌 AI 인프라 허브로 급부상…빅테크·운용사 데이터센터 투자 '러시'

한국이 글로벌 인공지능(AI) 인프라의 주요 거점으로 부상하고 있다. 미국·중국·싱가포르 등의 주요 빅테크는 물론 대형 자산운용사까지 한국을 아시아태평양 AI 허브의 전략 요충지로 삼으면서 AI 데이터센터 건립·그래픽처리장치(GPU) 공급·재생에너지 연계 인프라 구축이 전방위적으로 확산되는 양상이다. 18일 업계에 따르면 아마존웹서비스(AWS)·알리바바 등 하이퍼스케일 클라우드 사업자를 비롯해 ESR·프린스턴 디지털 그룹(PDG)과 같은 글로벌 자산·데이터센터 운용사들이 한국 데이터센터 개발에 나서고 있다. 수도권과 도심 인근 지역을 중심으로 AI 특화 데이터센터 착공이 잇따르고 정부 역시 국가 차원의 AI 인프라 확충에 속도를 내는 상황이다. 이같은 글로벌 투자 확산의 배경에는 한국의 반도체 공급망 경쟁력, 안정적 전력·통신 인프라, 수도권 중심의 거대 소비·산업 수요 등이 동시에 작용한 것으로 풀이된다. AWS는 한국을 AI 혁신의 핵심 거점으로 지목하며 2031년까지 총 50억 달러(약 7조원) 이상을 추가 투자하기로 했다. 특히 SK그룹과 울산에서 추진 중인 '울산 AI 존'과 인천·경기권 신규 AI 데이터센터 프로젝트는 한국이 하이퍼스케일 AI 인프라 경쟁에서 본격적으로 체급을 키우는 상징적 사례로 평가된다. AWS는 이미 인천 서구 일대 부지를 매입하고 시공사 선정까지 완료해 본격적인 구축 절차에 들어갔다. 중국 알리바바 클라우드도 한국 투자를 강화하고 있다. 알리바바는 내년에 세 번째 국내 데이터센터를 착공해 서울 수도권에 AI 인프라를 대폭 확장할 예정이다. 이는 올해 발표한 두 번째 데이터센터 개소에 이은 연속 투자로, 이커머스·인터넷 기업의 AI 수요 증가에 대응하기 위한 전략이다. 글로벌 자산운용사·데이터센터 운영 전문기업들의 움직임도 빨라지고 있다. 아태지역 실물자산 투자사 ESR은 인천 부평구에 80메가와트(MW)급 AI 데이터센터 'KR1' 착공에 돌입할 예정이다. 해당 시설은 아태지역 기반 운용사인 PDG가 운영을 맡아 2028년 가동될 예정이다. PDG는 이 시설을 포함해 한국에 총 60억 달러(약 8조원) 집중 투자 및 500MW 데이터센터 확장 계획을 공식화하며 기존 싱가포르·일본·인도·인도네시아·중국·말레이시아에 이어 한국을 거점으로 AI·클라우드 수요를 흡수한다는 목표다. 스튜어트 깁슨 ESR 최고경영자(CEO)는 "한국에서 첫 데이터센터 개발을 시작하게 돼 기쁘다"며 "KR1은 고객과 파트너를 성장의 중심으로 이끌 것"이라고 말했다. 또 랑구 살가메 PDG 회장은 "한국은 매우 중요한 시장이며 장기적 확장 전략의 핵심 거점"이라고 강조했다. 글로벌 대형 금융 자본 역시 한국의 잠재력을 높게 평가한다. 블랙록 자회사 뷔나는 우리 정부와 총 20조원 규모의 투자 의향서를 제출하며 재생에너지·데이터센터 결합형 AI 인프라 로드맵을 제시했다. 이는 한국이 아시아의 AI 수도가 될 수 있다는 평가를 실질적인 대규모 투자로 전환한 사례로 꼽힌다. 특히 도심 인근 지역을 중심으로 한 데이터센터 건설이 활발해지고 있다. 서울 상암·인천·경기 북부 등 기존 IT 인프라가 밀집한 지역에 AI 전용 설비가 빠르게 확장되면서 수도권이 글로벌 AI 데이터센터 벨트로 재편되고 있다. 대표적인 글로벌 코로케이션 데이터센터 사업자인 에퀴닉스는 서울 상암 SL1과 경기 고양시 SL2x·SL4에 이어 네 번째 데이터센터 SL3x 건립에 착수했고 액체 냉각 기술(D2C) 등 차세대 인프라 도입을 본격화하고 있다. 디지털리얼티 역시 망중립성을 기반으로 AI 전용 코로케이션 수요에 대응하고 있다. 초저지연 네트워크와 고밀도 랙 구조 등 하이퍼스케일 AI에 필요한 요소를 갖추면서 글로벌·국내 기업들의 입주가 확대되는 추세다. 장혜덕 에퀴닉스 한국 대표는 "국내 데이터가 해외 사용자와 AI 모델 개발자에게 연결되는 플랫폼을 강화해 글로벌 AI 허브로서 한국의 역할이 커질 것"이라고 강조했다. 여기에 챗GPT 개발사인 오픈AI도 삼성과 전략적 파트너십을 맺고 메모리·데이터센터·클라우드 협력에 나서면서 국내 AI 인프라 생태계 확장에 힘을 보탰다. 특히 AI 데이터센터 설계·운영에 있어 전방위 협력이 진행되고 있다. 이에 업계에서는 글로벌 빅테크·자산운용사·데이터센터 운영사가 모두 한국을 AI 기반시설의 핵심 시장으로 인식하면서 한국이 아시아를 넘어 글로벌 AI 인프라 허브로 도약할 기회를 맞고 있다는 평가가 나온다. 아울러 정부에서도 'AI 고속도로' 구축을 핵심 국정과제로 삼아 국가 핵심 AI 인프라가 될 '국가AI컴퓨팅센터' 구축에 나섰고 엔비디아의 블랙웰 GPU 26만 장 공급으로 경쟁력 확보에 탄력을 더했다. 정부는 2030년까지 최소 5만 장 이상의 GPU를 확보해 공공·산업·연구 전반의 접근성을 높인다는 계획이다. 데이터센터 업계 관계자는 "AI 인프라 경쟁력은 전력·냉각·네트워크·GPU 수급이 동시에 갖춰질 때 완성되는데 아시아 시장에서 한국은 이러한 풀스택 인프라를 빠르게 갖춘 나라"라며 "글로벌 하이퍼스케일러들이 잇따라 투자를 결정하는 것도 한국이 향후 글로벌 AI 데이터센터 전략에서 리스크가 낮고 성장성이 높은 시장으로 평가받기 때문"이라고 말했다.

2025.11.18 17:10한정호 기자

[현장] 에퀴닉스 "AI 시대 분산형 인프라가 경쟁력"…'SL4'서 차세대 전략 공개

에퀴닉스가 에이전틱 인공지능(AI) 시대 높아지는 워크로드 수요에 맞춰 차세대 분산형 인프라 전략을 공개했다. 장혜덕 에퀴닉스 한국 대표는 18일 경기도 고양시 향동동에서 열린 'SL4' 데이터센터 투어 행사에서 "AI 시대에는 데이터가 생성되는 위치에서 바로 추론까지 이어지는 초저지연 인프라가 핵심 경쟁력이 될 것"이라며 "글로벌 표준의 회복 탄력성과 연결성을 한국 시장에서도 동일하게 제공하겠다"고 강조했다. 이날 행사에서 에퀴닉스는 SL4 데이터센터 설계 철학과 글로벌 AI 에코시스템 전략을 소개하며 한국 시장 내 AI 인프라 수요 확산에 맞춘 고집적·고효율 인프라 대응 방안을 제시했다. SL4는 상암 SL1과 다크파이버로 직접 연결된 도심형 멀티사이트 구조를 기반으로 그래픽처리장치(GPU) 기반 AI 워크로드를 소화할 수 있도록 전력·냉각·보안·연결성 전반을 강화한 점이 특징이다. "AI 워크로드가 기존 인프라를 바꾸고 있다" 이날 장 대표는 AI 워크로드 확산이 기존 데이터센터 인프라의 한계를 드러내고 있다고 설명했다. 전통적인 IT 워크로드가 랙당 5~10키로와트(kW) 전력을 기준으로 설계돼 온 반면, 최신 AI 서버는 랙당 40~80kW, 일부 고성능 모델은 120kW까지 요구하며 기존 설계 기준을 넘어서는 수준으로 진화하고 있다는 분석이다. AI 추론의 실시간성도 주요 의제로 다뤄졌다. AI 서비스가 10밀리초(ms) 미만의 지연을 전제로 설계되고 있으며 제조·금융·미디어 등 다양한 산업에서 엣지 기반 실시간 서비스가 급증하면서 데이터센터의 물리적 위치와 네트워크 구조 전반이 재편되고 있는 상황이다. 장 대표는 "AI 인프라는 기존 시설의 여유 용량을 조금 더 활용하는 수준이 아니라 완전히 다른 차원의 설계 구조를 요구한다"며 "데이터가 생성된 곳에서 즉시 추론하는 구조가 AI 시대의 기본 환경이 될 것"이라고 설명했다. 특히 AI 학습·추론을 위한 데이터 이동 비용·지연·규제 부담이 커지면서 기업들이 데이터를 가능한 인접 클라우드나 내부 인프라에 위치시키는 방식을 선호한다는 분석도 제기됐다. 이와 관련해 장 대표는 에퀴닉스가 구축한 글로벌 AI 에코시스템을 소개했다. 아마존웹서비스(AWS)·마이크로소프트(MS) 애저·구글 클라우드 등 글로벌 클라우드 사업자(CSP)는 물론, 엔비디아·AMD 같은 AI 인프라 기업, 네트워크 사업자와 데이터 플랫폼 기업들을 에퀴닉스 생태계 안에서 모두 연결한다는 게 강점으로 평가된다. 에퀴닉스 데이터센터 고객은 하나의 플랫폼 상에서 다양한 AI 서비스와 인프라를 조합할 수 있다는 설명이다. 차세대 분산형 AI 인프라 전략도 제시했다. 데이터 생성 위치에서는 추론, 중앙 리전에서는 대규모 학습을 수행하는 이원화 구조를 통해 성능과 비용을 모두 확보할 수 있는 방안이다. 장 대표는 "에퀴닉스 생태계 안에서 퍼블릭 AI와 프라이빗 AI 간 이동성이 확보되면 산업 전반의 AI 도입 속도가 더욱 빨라질 것"이라고 덧붙였다. 마지막으로 데이터센터 지속가능성과 회복 탄력성도 강조됐다. 에퀴닉스는 전 세계 37개국, 77개 대도시에서 270개 이상 데이터센터를 재생에너지 기반으로 운영 중이며 연간 99.999% 이상의 가동률을 유지하고 있다. 고집적·고효율 설계로 무장한 SL4…AI 시대 데이터센터 표준 제시 이날 행사가 진행된 SL4 데이터센터는 서울·고양 일대를 하나의 디지털 캠퍼스로 연결하는 전략적 거점으로 구축됐다. 에퀴닉스가 상암에 구축한 SL1, 고양시에 위치한 SL2x와 다크파이버로 직접 연결해 초저지연 환경을 보장하며 AI·클라우드 서비스가 요구하는 분산형 워크로드를 구성했다. 전력 공급 체계는 'N+1' 구조를 적용해 안정성을 극대화했다. 3.9메가와트(MW)급 비상 발전기 10대를 확보해 외부 전력 차단 시에도 장시간 독립 운영이 가능하며 모든 발전기는 지하층 대형 연료탱크와 연동돼 중단 없는 전력 공급을 보장한다. 매년 전력 차단 후 발전기 단독으로 센터 전체를 가동하는 'CUFT 테스트'를 직접 수행하는 것도 에퀴닉스의 차별화된 안정성 확보 전략이다. 무정전전원공급장치(UPS)와 배터리룸은 국내 기준보다 높은 수준으로 설계됐다. 배터리룸은 별도 공간으로 분리됐으며 2시간 내화 성능을 갖춘 방화벽 구조가 적용됐다. 이종래 에퀴닉스 한국 센터장은 "일반적으로 한 공간에 배터리와 UPS를 함께 두는 경우가 많지만 글로벌 기준은 철저한 분리 구조를 요구한다"고 설명했다. 냉각 구조는 에퀴닉스 특허 기반 '핫 아이슬' 컨테인먼트 방식이 적용됐다. 뜨거운 공기를 분리해 회수하는 구조를 통해 높은 에너지 효율을 확보하고 리퀴드 쿨링을 즉시 적용할 수 있도록 수배관 설계를 미리 반영한 점도 특징이다. GPU 기반 서버 증가로 열 밀도가 빠르게 높아지는 시장 상황에 대응한 설계로 꼽힌다. 운영·보안 측면에서도 SL4는 글로벌 표준을 그대로 적용했다. 고객별 프라이빗 케이지와 QR 기반 장비 식별·문서화 시스템을 통해 장애 대응 속도를 높였으며 설비·전력·통신 라인은 색상과 레이어별로 완전히 분리해 운영 안정성을 확보했다. 소방 인프라 역시 고급형 노즐 시스템 도입 등 비용보다 안정성을 우선한 설계 철학이 반영됐다. "한국은 성장 잠재력이 큰 시장…전력·망·생태계가 경쟁력 결정" 아울러 에퀴닉스는 국내 데이터센터 시장의 성장 조건과 과제를 설명하며 글로벌 사업자가 바라보는 경쟁력 요소를 제시했다. 먼저 에퀴닉스는 글로벌 이중화 구조를 기반으로 해외 리전 장애 시에도 한국 리전으로 즉시 우회가 가능한 운영 체계를 강조했다. 이같은 글로벌 표준화 운영 모델은 멀티리전 기반의 AI 서비스를 제공하는 기업에게 중요한 인프라 요소라는 설명이다. GPU 고집도 이슈에 대해서는 최신 AI 서버가 요구하는 전력량과 발열이 기존 데이터센터 구조를 빠르게 대체하고 있다고 진단했다. SL4는 공랭 기반으로도 운영이 가능하지만 필요 시 즉시 리퀴드 쿨링으로 확장할 수 있는 파이프 구조를 이미 설계 단계에서 반영했다. 또 전력 인프라와 입지 조건에 대해 장 대표는 "전력이 제공되지 않는 지역은 데이터센터 입지로 의미가 없다"며 "한국에서도 에너지 인프라 확충 정책이 가시화되고 있어 긍정적"이라고 평가했다. 국내 시장 구조에 대해서는 기존 통신사 중심 시장이 점차 분산되고 있다고 설명했다. 에퀴닉스는 통신사 중립적 사업자라는 점을 강조하며 다양한 글로벌·국내 네트워크 사업자가 한 공간에서 연결되는 구조가 AI 시대의 가장 큰 차별성이라고 소개했다. 이를 통해 국내 데이터를 해외 사용자나 글로벌 AI 서비스와 빠르고 효율적으로 연결할 수 있다는 점도 부각됐다. 분산형 AI 환경이 본격화되는 흐름도 설명했다. 데이터가 생성되는 지점에서 추론을 수행하고, 중앙 리전에서 학습을 처리하는 구조가 확산되면서 다계층 네트워크 패브릭을 제공하는 에퀴닉스의 역할이 커지고 있다는 것이다. 장 대표는 SL4를 포함한 서울·고양 데이터센터 캠퍼스가 이러한 분산형 AI 구조를 한국 기업이 활용하는 데 주요 거점 역할을 할 것으로 전망했다. 마지막으로 에너지·망 정책 이슈에 대해서도 의견을 제시했다. 장 대표는 "정부의 AI 확산 기조에 맞춰 에너지 확보 정책과 전력 인프라 지원이 확대되면서 국내 데이터센터 산업의 성장 속도가 빨라질 것"이라며 "망사용료 관련 논의도 산업 전반의 투명성과 개방성을 높이는 방향으로 이뤄지길 기대한다"고 밝혔다. 이어 "한국 시장에서 다양한 생태계 파트너가 만나는 분산형 AI 허브라는 본연의 역할을 강화해 나가겠다"고 덧붙였다.

2025.11.18 15:14한정호 기자

한국 AI·클라우드 허브 부상…ESR, 인천에 80MW급 'KR1' 데이터센터 착공

한국이 아시아 시장의 클라우드·인공지능(AI) 인프라 허브로 부상하면서 글로벌 자산 운용사들의 대형 데이터센터 건립이 확대되고 있다. 아시아태평양(APAC) 지역 특화 실물자산 투자·운용사 ESR은 서울 소재 와이드크릭자산운용(와이드크릭 AMC)과 파트너십을 맺고 한국 내 첫 번째 데이터센터 개발을 추진한다고 17일 밝혔다. 인천 부평구에 위치할 지상 9층 80메가와트(MW)급 'KR1 데이터센터(KR1)' 건립은 이번 주 착공에 들어간다. 이는 프린스턴 디지털 그룹(PDG)에 임대되며 2028년에 가동될 예정이다. KR1 데이터센터는 ESR이 개발관리사로서 설계를 맡고 ESR과 와이드크릭 AMC가 건물 골조 및 외관 공사를 공동으로 수행한다. PDG는 건립 이후 내부 인프라 구축과 운영을 담당한다. 인천은 한국 디지털 경제의 전략적 허브로 서울의 기술산업 벨트와 인접해 있으며 견고한 광섬유 네트워크, 안정적인 전력 인프라를 갖춘 것으로 평가된다. 또 약 607만 제곱미터(㎡) 규모의 대표 스마트시티인 송도국제도시가 위치해 있어 클라우드 및 AI 기반 산업의 본고장으로서 중요성이 한층 강화될 전망이다. KR1은 지속가능한 데이터센터로서 리드 골드 인증 획득을 목표로 개발된다. 건물일체형 태양광(BIPV)과 연료전지 등 첨단 사양을 도입해 에너지 효율성을 높일 계획이다. KR1은 ESR이 아태지역 전역에서 확보한 3.2기가와트(GW) 이상의 전력 및 부지 파이프라인의 일부로, 자본 파트너와 고객에게 데이터센터 솔루션을 제공함으로써 아태지역의 급격한 디지털 성장, 확장가능한 고성능 인프라 수요 증가에 효과적으로 대응·활용한다는 목표다. 스튜어트 깁슨 ESR 공동 창립자 겸 최고경영자(CEO)는 "한국은 아시아에서 가장 역동적이고 빠르게 성장하는 디지털 경제권 중 하나로 두각을 나타내고 있어 한국에서 첫 번째 데이터센터인 KR1을 개발하게 돼 기쁘다"며 "세계적인 인프라를 갖춘 핵심 비즈니스 허브 인천에 전략적으로 위치한 KR1은 고객과 파트너를 성장의 중심으로 이끌 것"이라고 말했다. 이어 "이번 프로젝트는 우리가 범 아태지역 데이터센터 전략을 강화하고 역내 고수요 시장에서 대규모 개발 파이프라인의 가치를 창출하는 중요한 이정표가 될 것"이라고 덧붙였다. 디알미드 매시 ESR 데이터센터 부문 CEO는 "KR1은 한국과 아태지역 전역에서 원활한 데이터 흐름과 AI 기반 혁신을 뒷받침하는 데 핵심적인 역할을 할 것"이라며 "이번 개발은 이 지역의 빠른 디지털 전환을 촉진할 것"이라고 강조했다.

2025.11.18 12:24한정호 기자

아시아 데이터센터 운용사 PDG, 1조원 투입해 한국 첫 진출…"AI 허브로 확장"

아시아 데이터센터 시장이 인공지능(AI) 경쟁 거점으로 부상하는 가운데 미국계 사모펀드 워버그 핀커스가 지원하는 프린스턴디지털그룹(PDG)이 한국 시장에 대규모 투자와 함께 본격 진출을 선언했다. 글로벌 하이퍼스케일 기업들의 AI 인프라 수요가 폭증하는 상황에서 한국 시장을 핵심 전략 허브로 삼겠다는 목표다. 17일 블룸버그통신에 따르면 PDG는 약 7억 달러(약 1조201억원)를 투입해 인천에 첫 번째 한국 데이터센터 캠퍼스를 구축할 계획이다. 초기 48메가와트(MW) 규모로 시작해 향후 여러 부지를 포함해 총 500MW 규모까지 확장할 예정이다. PDG는 이미 전력 수급을 확보했으며 이달 착공을 시작해 2028년 초 상용화를 추진한다는 구상이다. 아시아 각국은 미국 빅테크와 AI 기업들이 수천억 달러를 투입하며 확장하는 데이터센터 시장에 뒤처지지 않기 위해 투자를 확대하고 있다. 일본·인도·한국 등은 자체 대형언어모델(LLM) 개발, 데이터 주권 요건 충족, 기업용 AI 수요 대응을 위해 인프라 구축에 속도를 내는 중이다. PDG 역시 향후 5년간 총 250억 달러(약 36조원)를 투입해 아시아 인프라 전체 용량을 현재 1.3기가와트(GW)에서 4GW 이상으로 확대할 계획이다. 이 가운데 60억 달러(약 8조7천480억원)는 한국 시장에 집중 투자한다는 전략이다. 현재 PDG는 싱가포르·일본·인도·인도네시아·중국·말레이시아에서 16개 데이터센터를 운용 중이다. 한국은 전력망·부지 제약과 인허가 절차 등으로 데이터센터 진출이 쉽지 않은 시장으로 꼽힌다. 다만 최근 정부가 대규모 AI 인프라 육성 의지를 밝히면서 글로벌 기업들의 행보가 빨라지고 있다. 오픈AI는 최근 첫 한국 지사를 설립했고 아마존도 향후 2031년까지 인천·경기 일대 신규 AI 데이터센터 구축 등에 50억 달러(약 7조2천860억원)를 추가 투자한다고 발표했다. 앞서 PDG는 지난 8월 인프라 및 실물자산 전문 대체투자회사 스톤피크로부터 13억 달러(약 1조8천921억원) 투자를 유치한 바 있다. 이를 바탕으로 아시아 데이터센터 시장 확장에 속도를 낼 계획이다. 랑구 살가메 PDG 회장 겸 최고경영자(CEO)는 "아시아 기반 AI 인프라 공급망은 경쟁 우위로 작용해 빠르고 비용 효율적인 배치가 가능하다"며 "기존 시장에서의 성장을 배가시키는 동시에 호주와 한국 같은 신규 시장으로 확장할 것"이라고 강조했다.

2025.11.17 10:56한정호 기자

앤트로픽, 73조원 투입해 美 데이터센터 구축…내년 가동

인공지능(AI) 경쟁이 격화되는 가운데 앤트로픽이 500억 달러(약 73조원) 규모 미국 데이터센터 구축 계획을 발표하며 기술·전력·인프라 확보전에 본격적으로 뛰어들었다. 텍사스와 뉴욕을 시작으로 대규모 맞춤형 AI 시설을 건설해 경쟁사와의 격차를 좁히겠다는 전략이다. 13일 블룸버그통신에 따르면 앤트로픽은 영국 네오클라우드 기업 플루이드스택과 협력해 미국 텍사스와 뉴욕에 대규모 AI 데이터센터를 건설하는 계획을 발표했다. 해당 시설은 내년부터 순차적으로 가동될 예정이며 약 800개의 상시 고용과 2천400개의 건설 인력을 창출할 전망이다. 앤트로픽은 이 인프라가 자사 '클로드' 모델의 연구·개발 효율을 극대화할 뿐 아니라 미국 정부가 추진하는 AI 기술 주도권 전략에도 부합한다고 설명했다. 이번 투자 규모 500억 달러는 스타트업이 단행한 인프라 투자 중 최대 수준이다. 앤트로픽은 2028년 700억 달러(약 102조원) 매출과 170억 달러(약 24조원) 흑자 전환을 전망하고 있다. 최근 기업가치도 1천830억 달러(약 268조원) 수준까지 치솟았다. 기업용 AI 시장에서 점유율을 빠르게 확대하며 30만 개 이상의 고객사를 확보한 점이 성장세를 견인한 것으로 분석된다. 플루이드스택 역시 이번 계약을 통해 글로벌 AI 인프라 시장의 핵심 사업자로 부상했다는 평가를 받는다. 업계에서는 이번 프로젝트가 글로벌 AI 인프라 경쟁의 분수령이 될 것이라는 전망이 나온다. 오픈AI는 엔비디아·브로드컴·오라클 등과 협력해 1조4천억 달러(2천58조원) 규모 '스타게이트' 프로젝트를 전개하고 있으며 메타 역시 향후 수년 내 미국 내 인프라·전력·데이터센터에만 6천억 달러(882조원)를 투입할 계획이다. 앤트로픽의 이번 행보는 경쟁사에 대응해 자체 인프라 주도권을 확보하려는 전략적 결정으로 해석된다. 또 주요 외신에서는 이번 투자가 트럼프 행정부가 추진하는 'AI 액션 플랜'과도 맞물려 있다고 분석했다. 백악관의 테크·AI 정상회의 이후 여러 빅테크 기업이 미국 내 투자 비중을 대폭 확대하는 등 정책·산업적 이해관계가 제도화되고 있다는 설명이다. 앤트로픽 측은 "이번 데이터센터 구축으로 보다 강력한 AI 시스템을 실현하고 과학적 발견과 산업 혁신을 가속하는 데 기여할 것"이라고 말했다.

2025.11.13 10:15한정호 기자

"AI의 심장은 데이터센터"…지능형 인프라가 여는 차세대 AI 시대

“오늘날 데이터센터는 단순한 인프라가 아니라 지능의 심장부로 진화하고 있습니다.” 이중연 KTNF 대표는 12일 서울 강남구 그랜드인터컨티넨탈 파르나스에서 열린 인공지능반도체조찬포럼에서 이같이 밝혔다. 그는 “AI가 폭발적으로 발전하면서 이제 데이터센터는 단순히 데이터를 저장하고 처리하는 공간이 아니라, 지능형 컴퓨팅의 중심으로 재정의되고 있다”고 강조했다. KTNF는 2002년에 설립된 서버 전문 개발 및 제조 기업이다. 자체 기술력으로 국산 서버를 직접 설계·제조한 뒤 공급한다. 이 대표는 AI 시대의 데이터센터가 직면한 가장 큰 도전으로 전력, 냉각, 자원 활용 효율을 꼽았다. GPT-4 학습에 수만 개의 CPU가 투입될 정도로 연산 수요가 급증하지만, 기존 인프라는 이를 감당하지 못한다는 것이다. 그는 “AI가 요구하는 연산 밀도와 속도를 지원하려면 기존 설계의 한계를 뛰어넘는 새로운 구조가 필요하다”고 말했다. 이 대표가 제시한 해법은 'AI 특화형 데이터센터 모델'이다. 이 모델은 CPU, GPU, MPU 등 다양한 가속기를 CXL(컴퓨트 익스프레스 링크) 기반으로 연결해 자원을 실시간 공유하고 자동으로 최적화할 수 있는 구조다. 이를 통해 대규모 모델 학습과 추론을 효율적으로 처리하면서도 전력 낭비를 최소화할 수 있다. 그는 “에너지 효율적이면서도 지능적으로 확산되는 차세대 AI 데이터센터를 통해 AI가 더 빠르고 더 안전하며 더 지속 가능하게 성장하는 세상을 만들어야 한다”고 전했다. 냉각 기술의 혁신도 AI 데이터센터 구성의 중요 요소로 꼽았다. 특히 DLC(직접 액체 냉각) 기술의 필요성을 강조했다. DLC는 서버나 GPU 같은 발열 부품 표면에 냉각수를 직접 순환시켜 냉각하는 방식이다. 공냉식 대비 열 제거 효율이 최대 10배 이상 높다. 이 대표는 “고밀도 AI 서버는 전력뿐 아니라 열이 성능의 한계를 결정짓는 요소가 됐다”며 “냉각 효율이 곧 연산 효율로 이어지는 시대에 전력과 냉각은 AI 인프라의 생명선”이라고 강조했다. 보안이 AI 데이터센터 구현의 문턱이 될 것으로 내다봤다. 그가 제시한 해법은 물리적 보안 체계다. 현재 시장에서는 반도체 미세 불균일성을 이용한 PUF(물리적 복제 방지 기능)기술과 QRNG(양자 난수 생성기), PQC(양자내성암호)를 AI 데이터센터를 위한 차세대 보안 요소로 보고 있다. 이 기술은 칩 자체가 고유한 '전기적 지문'을 갖도록 만들어 복제나 위·변조를 원천 차단한다. 이 대표는 “AI가 스스로 학습하고 판단하는 만큼, 그 기반이 되는 하드웨어의 신뢰성이 중요하다”고 말했다. 이 대표는 또 AI 인프라를 위해 시스템을 구축해야 한다고 전했다. 그는 “AI 인프라의 핵심은 이제 연산 속도나 저장 용량이 아니라, 얼마나 지능적으로 자원을 관리하고 얼마나 신뢰할 수 있는 시스템을 갖추느냐에 달려 있다”고 강조했다. 이어 “국산 AI 반도체와 지능형 인프라 기술을 융합해 한국형 데이터센터 모델을 발전시켜 나가겠다”며 “AI가 AI를 위한 인프라를 설계하는 시대를 준비하겠다”고 덧붙였다.

2025.11.12 13:40전화평 기자

AI 열풍에도 전력 부족…디지털리얼티 美 데이터센터 가동 지연

인공지능(AI)과 클라우드 확산으로 데이터센터 수요가 급증하고 있지만, 전력 공급이 따라가지 못하면서 일부 시설이 가동되지 못하는 사례가 나타나고 있다. 11일 블룸버그통신에 따르면 미국 캘리포니아주 산타클라라에서 디지털리얼티와 스택인프라가 추진 중인 데이터센터가 전력 부족으로 가동이 지연되고 있다. 디지털리얼티는 2019년 48메가와트(MW) 규모의 데이터센터 건립을 신청했지만 6년이 지난 현재까지 전력 인입이 완료되지 않았다. 스택인프라 역시 48MW 규모의 시설을 완공했으나, 지역 공기업인 실리콘밸리 파워가 송전 용량을 확대하지 못해 가동을 시작하지 못한 상태다. 산타클라라에는 현재 운영 중이거나 건설 중인 데이터센터가 57개에 이른다. 실리콘밸리 파워는 전력 수요 증가에 대응하기 위해 4억5천만 달러(약 6천589억원) 규모의 설비 업그레이드를 추진 중이며 2028년 완공을 목표로 하고 있다. 미국 내 다른 지역에서도 유사한 상황이 이어지고 있다. 버지니아주의 도미니언에너지는 대형 데이터센터의 전력 연결까지 최대 7년이 걸릴 수 있다고 밝혔다. 오리건주에서는 아마존이 전력 배분 문제로 발전사와 갈등을 겪고 있는 것으로 알려졌다. AI 연산 수요가 늘어나면서 전력망 한계가 뚜렷해질 것이란 지적이 힘을 얻고 있다. 블룸버그 조사에 따르면 AI 컴퓨팅으로 인한 미국 내 전력 사용량은 2035년까지 두 배 이상 증가할 전망이다. 디지털리얼티 측은 "산타클라라에서는 부지를 확보해도 실제 전력 공급까지 수년이 걸린다"며 "실리콘밸리 파워와 협력해 올해 말까지 총 48MW의 전력을 확보할 계획"이라고 밝혔다.

2025.11.11 17:10한정호 기자

[컨콜] 이우현 OCI홀딩스 회장, AI 인프라 사업 진출 선언

OCI홀딩스가 인공지능(AI) 인프라 개발사업(디벨로퍼)을 미래 먹거리로 낙점했다. 이우현 OCI홀딩스 회장은 11일 올해 3분기 실적발표 컨퍼런스콜에서 "그동안 소재 사업에 집중했지만, 올해부터는 태양광 에너지저장장치(ESS) 발전사업과 전기공급 사업 AI 인프라 사업으로 투자와 노력을 집중할 생각"이라고 밝혔다. 이어 "2030년 AI 인프라 관련 실적 비중을 전체 매출과 이익의 30%로 만들겠다는 것이 회사의 새로운 비전"이라며 "전 세계적으로 AI 데이터센터에 대규모 투자가 이뤄지고 있는 만큼, 회사가 가진 전력 인프라를 활용해 새로운 성장동력을 만들겠다"고 강조했다. 이날 OCI홀딩스는 지난 2011년부터 북미 태양광 및 ESS 프로젝트 개발사업을 하고 있는 OCI 에너지가 그간 쌓아온 디벨로퍼 역량과 이미 전력·용수 등 인프라가 갖춰진 OCI 유휴부지를 활용하면 신속한 개발이 가능하고 밝혔다. 특히 부지확보, 인허가, 설계, 자금조달, 시공, 운영 등의 단계별로 진행되는 디벨로퍼 핵심 역량은 데이터센터 개발과 매우 유사해 사업 전환에 있어 전략적 시너지를 기대할 수 있다고 덧붙였다.

2025.11.11 16:04류은주 기자

[종합] 韓 클라우드, AI 인프라 힘입어 나란히 성장…GPU 확보·효율화 경쟁 '점화'

국내 주요 클라우드 기업 네이버·KT·NHN이 3분기 나란히 성장세를 보였다. 글로벌 인공지능(AI) 인프라 확장과 서비스형 그래픽처리장치(GPUaaS) 매출 확대, 공공·산업별 맞춤형 클라우드 구축 수요가 실적을 견인한 것으로 나타났다. 10일 업계에 따르면 올해 3분기 세 회사 모두 AI 인프라 고도화와 공공 클라우드 수요를 중심으로 매출이 증가했다. 특히 GPU 확보 경쟁이 본격화되면서 각 사가 추진 중인 데이터센터 확충과 AI 인프라 서비스가 향후 성장의 관건으로 부상했다. 네이버는 엔터프라이즈 부문에서 전년 동기 대비 3.8% 성장한 1천500억원의 매출을 기록했다. 전 분기 대비 13.9% 증가한 수치로, GPUaaS 신규 매출이 본격 반영되고 협업 솔루션 '라인웍스'의 유료 ID 증가가 매출 성장을 이끌었다. 네이버는 최근 엔비디아와 피지컬 AI 사업 업무협약(MOU)을 체결하고 2030년까지 GPU 6만 장을 추가 확보하기로 했다. 이를 기반으로 사우디아라비아·태국·모로코 등에서 소버린 AI 및 데이터센터 구축 프로젝트에 박차를 가한다. 또 일본에 이어 대만에도 라인웍스를 공식 출시하며 아시아 B2B 시장 확대에 나섰다. 네이버는 공공과 민간 모두를 대상으로 맞춤형 프라이빗 클라우드 구축과 GPUaaS 수요 확보에 집중할 방침이다. 최수연 네이버 대표는 "B2B 사업에서 GPUaaS 신규 매출을 확보하고 라인웍스 등 솔루션의 두 자릿수 성장을 이어가고 있다"며 "엔비디아와의 협력으로 피지컬 AI 경쟁력을 강화하고 글로벌 AI·로보틱스 사업을 확장해 나가겠다"고 밝혔다. KT클라우드는 3분기 매출이 전년 대비 20.3% 증가한 2천490억원을 기록하며 그룹 내 핵심 성장축으로 부상했다. 전 분기 대비로도 12.4% 증가해 뚜렷한 상승세를 보였다. 성장 배경으로는 글로벌 데이터센터 이용률 확대와 공공 AI 클라우드 수요 증가가 꼽혔다. KT는 최근 국내 최초 액체 냉각 방식의 '가산 AI 데이터센터'를 가동해 GPU 서버 냉각 효율을 극대화했으며 '콜로닷AI' 등 자사 AI 인프라 서비스도 상용화했다. 아울러 금융·제조·이커머스 산업군을 대상으로 'AI 파운드리' 사업을 추진하며 기업 맞춤형 AI 전환(AX) 플랫폼 생태계도 확대하고 있다. KT 그룹 차원에서도 독자 모델 '믿:음 K 2.0', 마이크로소프트(MS) 협력 모델 '소타 K', 메타의 오픈소스 모델을 활용한 '라마 K' 등 한국형 거대언어모델(LLM) 라인업을 구축하며 AI 중심 기업으로 전환을 가속하고 있다. KT 장민 최고재무책임자(CFO)는 "클라우드와 데이터센터의 성장이 이번 분기 그룹 실적을 견인했다"며 "AI·AX 사업을 중심으로 기업 가치 제고에 힘쓸 것"이라고 말했다. NHN은 3분기 기술 부문 매출이 전년 동기 대비 8.8% 증가한 1천118억원을 기록하며 안정적인 성장세를 이어갔다. 특히 NHN클라우드는 공공·AI 인프라 구축 사업에서 두드러진 성과를 보였다. 국가정보자원관리원 대구센터에 추가 상면을 확보하고 주요 정부 시스템 이관 작업을 진행 중이며 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'GPU 확보·구축·운용지원 사업'의 최다 구축 사업자로 선정돼 7천600장 이상 규모의 엔비디아 B200 GPU를 공급할 예정이다. 또 SRT 운영 시스템을 전면 클라우드로 전환해 예매기간 오류 0건을 기록했고 중앙보훈병원 차세대 인프라 전환 사업도 수주하며 공공·의료 클라우드 시장에서도 입지를 넓히고 있다. 김동훈 NHN클라우드 대표는 "GPU 확보 사업을 비롯한 정부 AI 인프라 구축이 내년 1분기 내 시스템 구축을 완료하고 2분기부터 본격적인 매출로 이어질 것"이라며 "국가정보자원관리원 대구센터의 추가 상면 확보를 기반으로 주요 정부 시스템 이관을 주도할 것"이라고 말했다. 업계에선 올해를 기점으로 국내 클라우드 산업의 주도권이 단순 인프라 제공을 넘어 AI·데이터 중심 플랫폼 경쟁으로 이동했다고 분석한다. GPU 확보와 데이터센터 효율화, 산업별 AX 서비스가 향후 3사의 매출 구조를 결정지을 핵심 요인으로 꼽힌다. 클라우드 업계 관계자는 "정부와 민간이 함께 AI 인프라 생태계를 구축하는 가운데, 연말과 내년 토종 클라우드 기업들의 기술 내재화가 경쟁력의 분기점이 될 것"이라고 설명했다.

2025.11.10 15:02한정호 기자

엔비디아 파트너 코어위브, AI 열풍 속 주가 급락…인수 무산에도 성장 기대 '유효'

엔비디아의 투자를 받은 인공지능(AI) 데이터센터 기업 코어위브가 최근 주가 급락과 인수 무산 등 악재를 맞았다. 다만 AI 인프라 시장의 확장세가 이어지고 있어 중장기 성장 기대감은 여전히 남아 있다는 분석이 나온다. 10일 미국 증권가와 외신 등에 따르면 코어위브 주가는 최근 한 주 동안 20% 이상 하락했다. AI 관련주의 평가가치가 지나치게 높아졌다는 우려가 커지면서 투자심리가 위축된 것으로 풀이된다. 코어위브는 최근 90억 달러(약 13조원) 규모로 암호화폐 채굴기업 코어사이언티픽 인수를 추진했지만 주주 반대로 무산됐다. 두 차례 시도 끝에 인수 계획이 좌절되면서 회사의 사업 확장 전략에 제동이 걸렸다는 평가가 나온다. 코어위브는 2017년 암호화폐 채굴로 출발해 그래픽처리장치(GPU) 기반 AI 클라우드 서비스 기업으로 전환했다. 현재 오픈AI·마이크로소프트·메타 등 주요 빅테크 기업에 AI 연산 인프라를 제공하고 있다. 올해 2분기 매출은 전년 동기 대비 207% 증가한 12억 달러(약 1조7천400억원)를 기록했으며 수주 잔고는 301억 달러(약 43조원)에 달했다. 3분기에는 오픈AI와 메타, 엔비디아와의 추가 계약으로 수주 잔고가 560억 달러(약 81조원)를 넘을 것으로 예상된다. 엔비디아와의 긴밀한 협력 관계도 주목받고 있다. 엔비디아는 코어위브 지분 약 7%를 보유하고 있으며 GPU 공급과 데이터센터 협력도 확대 중이다. 코어위브는 엔비디아의 최신 GPU를 우선적으로 공급받는 엘리트 퍼스트 파트너로 지정돼 있다. 다만 공격적인 투자와 차입 확대가 부담 요인으로 꼽힌다. 코어위브는 올해 200억 달러(약 29조원) 이상을 AI 데이터센터 확충에 투입할 계획이며 이로 인해 2분기 순이자비용이 전년 대비 300% 증가한 2억6천700만 달러(약 3천882억원)를 기록했다. 월가에서는 코어위브가 단기 수익성보다는 시장 점유율 확대에 집중하는 전략을 유지할 것으로 보고 있다. 코어위브는 오는 11일(현지시간) 3분기 실적을 발표한다. 월가에서는 코어위브의 3분기 매출을 13억 달러(약 1조8천905억원)로 예상 중이며 고객 다변화가 진행되는 내년부터 손익 개선이 가능할 것으로 분석하고 있다. 한 미국 증권가 애널리스트는 "AI 인프라 시장의 성장은 아직 초기 단계이며 코어위브는 엔비디아와 함께 이 시장의 핵심 기업으로 자리 잡고 있다"며 "단기 조정은 있을 수 있으나 장기 성장 가능성은 여전히 유효하다"고 말했다.

2025.11.10 11:52한정호 기자

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

'몰트북' 나비효과?…韓 상륙한 AI들의 수다

[르포] 코어·모터·가공까지…뉴로메카 포항 생산거점 승부수

'잔치 끝난' 주류시장...해외·저도수 전략 통할까

롯데면세점, 3년만에 인천공항 복귀...득일까 실일까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.