• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터센터 인프라'통합검색 결과 입니다. (157건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

글로벌 CSP, 투자규모 또 상향…AI 메모리 호황에 힘 싣는다

전세계 주요 클라우드서비스업체(CSP)들이 최근 실적발표에서 기존 전망을 웃도는 설비투자를 집행하겠다고 밝혔다. 인공지능(AI) 과잉투자론을 반박한 셈이다. 삼성전자·SK하이닉스 등 국내 반도체 기업도 AI 메모리 수요가 중장기적으로 지속될 것이라고 전망하고 있다. 1일 업계에 따르면 주요 CSP 기업들이 AI 데이터센터와 클라우드 용량 확보를 위한 올해 설비투자(CAPEX) 규모를 상향하고 있다. 최근 마이크로소프트는 올해 설비투자 규모를 총 1900억달러로 제시했다. 증권가 컨센서스 1500억달러를 크게 웃돈다. 회사 투자 규모 중 역대 최대치다. 마이크로소프트는 "투자액 중 250억달러는 반도체 등 부품 가격 상승 때문"이라며 "그럼에도 급증하는 AI와 클라우드 수요를 충족하려며 이러한 투자가 필요하다"고 설명했다. 구글도 올해 연간 설비투자 전망치를 기존 1750억~1850억달러에서 1800억~1900억달러로 상향했다. 2027년 투자 전망에 대해선 "2026년 대비 크게 증가할 것으로 예상한다"고 밝혔다. 메타도 올해 자본지출 규모를 기존 1150억~1350억달러에서 1250억~1450억달러로 상향했다. 메타는 "부품 가격 상승과 향후 용량 확대를 위한 추가 데이터센터 구축 비용 때문"이라고 설명했다. 그간 업계에서는 글로벌 CSP 기업들의 AI 인프라 투자 규모가 시장 잠재력 대비 과도하다는 비판이 제기돼 왔다. 그러나 이들 기업은 실적발표에서 매번 AI 과잉투자론을 정면 반박하는 수준의 자본지출 계획을 공표하고 있다. 또 다른 주요 CSP 기업 아마존웹서비스(AWS)는 "향후 몇년 간 자본지출 증가율이 매출 성장률을 앞지를 수 있다"고 말하기도 했다. 삼성전자, SK하이닉스 등 국내 주요 반도체 기업도 중장기 관점에서 AI 메모리 수요가 견조할 것이라고 전망한다. 삼성전자는 지난달 30일 1분기 실적발표 컨퍼런스콜에서 "주요 고객사들은 AI 관련 미래 수요에 대한 확신을 바탕으로 중장기 물량 확보를 요청하고 있다"며 "당사가 공급 가능한 범위 내에서 다년 계약을 추진 중이고, 다년계약을 통해 고객과 당사 모두 사업 안정성과 가시성을 높일 수 있을 것"이라고 말했다. SK하이닉스는 지난달 23일 실적발표에서 "메모리 공급 부족이 장기화되면서 고객들로부터 중장기 물량 확보 요청이 크게 늘고 있다"며 "고객들이 향후 가격과 공급 불확실성을 사업 핵심 리스크로 인식할 만큼 메모리 중요도가 매우 높아졌다"고 강조했다. 서버용 D램 가격 상승세도 당초 예상보다 강하게 나타날 전망이다. 시장조사업체 트렌드포스는 최근 보고서에서 올 2분기 서버용 D램 고정가 상승세(전 분기 대비)를 기존 43~48%에서 45~50%로 높였다. 올 3·4분기 전망치도 각각 10~15%, 3~8%로 이전 대비 상향 조정했다.

2026.05.01 10:00장경윤 기자

오픈AI 성장 제동 걸리나…뉴욕증시 기술주도 '흔들'

오픈AI가 내부 성장 둔화와 막대한 인공지능(AI) 인프라 투자 부담 사이에서 전략 재정비에 나선 것으로 나타났다. 사용자 증가세와 매출이 기대에 못 미치면서 데이터센터 중심 확장 전략에 대한 시장 우려가 커지는 모습이다. 28일(현지시간) 월스트리트저널에 따르면 오픈AI는 최근 내부적으로 설정한 주간 사용자 수와 매출 목표를 달성하지 못한 것으로 알려졌다. 이에 회사 내부에선 향후 대규모 데이터센터 투자 비용을 감당할 수 있을지에 대한 우려가 제기되고 있다. 특히 사라 프라이어 오픈AI 최고재무책임자(CFO)는 매출 성장 속도가 충분히 빠르지 않을 경우 향후 컴퓨팅 계약 비용을 감당하기 어려울 수 있다는 점을 경영진에 전달한 것으로 알려졌다. 이 과정에서 이사회 역시 샘 알트먼 최고경영자(CEO)가 추진해온 대규모 인프라 확장 전략에 대해 점검을 강화한 것으로 전해졌다. 오픈AI는 그동안 컴퓨팅 확보에 공격적으로 투자해왔다. 알트먼 CEO는 AI 성장의 핵심 제약을 연산 자원 부족으로 보고 데이터센터 용량을 선제적으로 확보하는 전략을 추진해왔다. 실제 회사는 향후 수년간 수천억 달러 규모의 컴퓨팅 투자 계약을 체결한 상태다. 하지만 챗GPT 성장세가 둔화 조짐을 보이면서 내부 기류에도 변화가 감지된다. 오픈AI는 지난해 말까지 주간 사용자 10억 명 달성을 목표로 했으나 이를 달성하지 못했고 매출 역시 목표치를 밑돈 것으로 알려졌다. 경쟁사인 구글 '제미나이'와 앤트로픽 '클로드' 등이 빠르게 점유율을 확대하면서 시장 경쟁도 심화된 상황이다. 회사 내부에선 비용 통제와 사업 구조 개선 필요성이 제기되고 있다. 일부 프로젝트 축소와 함께 수익성 중심 전략으로 전환하려는 움직임도 나타나는 상황으로, 기업공개(IPO) 준비 과정에서도 재무 건전성 확보가 주요 과제로 부상했다. 이같은 오픈AI의 성장성 우려는 미국 금융시장에도 즉각 반영됐다. 뉴욕증시는 기술주를 중심으로 하락세를 보였으며 AI 인프라 관련 종목들이 일제히 약세를 나타냈다. 다우존스30 산업평균지수는 소폭 하락했고 스탠더드앤드푸어스(S&P)500과 나스닥 지수도 각각 0.49%, 0.90% 떨어졌다. 엔비디아, 브로드컴, AMD, 마이크론 등 반도체 기업과 오라클 등 인프라 기업 주가도 하락했다. 오픈AI의 데이터센터 투자 둔화 가능성이 관련 산업 전반의 수요 전망에 영향을 준 것이라는 분석이 나온다. 오픈AI는 내부 갈등이나 성장 둔화 우려에 대해 선을 긋고 있다. 회사 측은 성명을 통해 "사업은 전반적으로 안정적으로 운영되고 있으며 내부 분위기도 긍정적"이라고 밝혔다. 또 "컴퓨팅 자원 확보와 사업 성장 전략에 대해 경영진 간 이견은 없으며 회사는 여전히 성장 궤도에 있다"고 덧붙였다.

2026.04.29 10:14한정호 기자

최태원 "韓 AI 성장하려면 스케일·스피드 중요…엔비디아 전략 카피해야"

최태원 SK그룹 회장이 인공지능(AI) 성장전략 핵심요소로 에너지·반도체 등 병목현상 해결을 꼽았다. 한국은 미국과 중국보다 데이터센터 등 인프라가 부족해, 빠른 기술 개발과 투자 확대가 필요하다고 강조했다. 최 회장은 28일 오전 국회 의원회관에서 열린 '한중의원연맹 2026 제1회 정책세미나'에서 '미·중 AI 기술패권 경쟁 속 대한민국 성장전략'을 주제로 특별강연을 진행했다. 최 회장은 "AI 산업이 발전하면서 생기는 병목현상을 어떻게 잘 이용할 것인지가 세계 각국이 추진하는 AI 성장전략의 관건"이라며 "AI 데이터센터 같은 인프라, 전기, 그래픽처리장치(GPU), 메모리 등 4가지가 핵심 병목현상 요소"라고 설명했다. 한국은 주요 경쟁국 대비 데이터센터 구축 규모가 부족하다. 최 회장은 "국내 데이터센터를 다 합치면 1기가와트 정도 되는데, 그 중 AI에 쓸 수 있는 건 5%도 되지 않는다"며 "향후 전세계적으로 연간 10~20기가와트급 데이터센터를 구축할 것으로 보이는데, 대부분 미국과 중국이 짓고 있는 상황"이라고 진단했다. 중국 약진이 특히 거세다. 최 회장은 "중국은 서쪽 지역의 풍부한 자원을 토대로 미국보다 전기를 만드는 속도가 매우 빠르다"며 "AI 전쟁에서 전기는 중국이 우세할 것"이라고 평가했다. 이어 "(중국은) 최첨단 GPU를 쓸 수 없는 대신 스스로 반도체를 개발해야 하는데, 속도가 매우 빨라 저희같은 반도체 회사에도 위협"이라고 밝혔다. 반면 국내 메모리 업계는 전체 AI 생태계 내에서 위상이 크게 올라가고 있다. AI 가속기에 탑재하는 고대역폭메모리(HBM)는 물론, 서버용 D램과 낸드 모두 구조적인 공급부족에 직면해 있다. 최 회장은 "현재 누구를 만나도 '메모리를 달라'고 얘기하는데, 생산량이 정해져 있어 상당한 공급부족에 시달리고 있다"며 "최대한 공급량을 늘리도록 투자를 지속하고 있다"고 말했다. 한국 AI 성장전략에 대해서는 "일단은 과감하게 인프라에 투자해야 한다"며 "스케일(규모)과 스피드(속도)가 중요하다"고 강조했다. 최 회장은 "현재 SK는 아마존과 협력해 100메가와트급 데이터센터를 울산에 짓고 있는데, 용량을 900메가와트 더 늘려 1기가와트까지 가보려는 생각을 하고 있다"며 "여기에 정부 혹은 공공 수요가 뒷받침되면 대한민국이 AI 이니셔티브를 가져가는 선순환 엔진이 돌기 시작할 것"이라고 말했다. 그는 "빠른 개발 속도로 주도권을 확보하려면 엔비디아 전략을 우선 카피해야 한다"며 "동시에 AI가 가져올 충격에 대비해 사회적 가치를 더 정밀하게 측정하고 이를 키우는 새로운 자본주의가 필요하다"고 덧붙였다. 한일 경제협력 필요성도 강조했다. 최 회장은 "미중 패권 (경쟁) 속에서 우리가 스스로를 보호할 수 있으려면 경제 규모를 키워야 하는데, 우리와 비슷한 처지의 일본과 협력해야 한다"며 "양국을 합치면 6조달러 국내총생산(GDP)으로 중국 3분의 1 수준까지 올라오기 때문에, 열린 마음으로 협력해야 한다"고 말했다.

2026.04.28 16:24장경윤 기자

[AI는 지금] 스타게이트 '자금 경고등'…오라클 인프라 투자, 월가 부담 키운다

인공지능(AI) 수요가 빠르게 증가하면서 이를 뒷받침하기 위한 데이터센터 투자도 급속도로 확대되고 있다. 초대형 인프라 구축에 필요한 자금 규모가 커지면서 금융시장 수용 능력 역시 시험대에 오르고 있다는 평가다. 일부 프로젝트에선 자금 조달 과정에서 제약 요인이 나타나고 있다는 분석도 나온다. 25일(현지시간) 월스트리트저널에 따르면 오라클과 오픈AI가 추진 중인 '스타게이트' 프로젝트가 대규모 데이터센터 구축을 위한 자금 조달 과정에서 금융기관 대출 한도와 위험 관리 규정에 영향을 받고 있는 것으로 알려졌다. 스타게이트 프로젝트는 약 3000억 달러(약 443조원) 규모로 알려진 초대형 AI 인프라 구축 사업으로, 미국 내 복수 지역에 데이터센터를 조성해 AI 서비스 확장에 필요한 컴퓨팅 자원을 확보하는 것을 목표로 한다. 해당 프로젝트는 최근 AI 산업에서 나타나는 초대형 설비 투자 경쟁을 상징하는 사례로 평가된다. 업계에 따르면 주요 금융기관들은 오라클이 임차인으로 참여하는 데이터센터 건설 프로젝트에 대한 대출을 시장에 분산시키는 과정에서 일정 기간이 소요된 것으로 전해졌다. 금융기관들이 특정 기업에 대한 투자 비중을 제한하는 내부 규정에 묶이면서 대규모 자금 소화에 제약이 발생했다. 실제 일부 프로젝트 구조에도 영향을 미쳤다. 텍사스 애빌린 지역 데이터센터 확장 사업에선 오라클 대신 마이크로소프트가 임차인으로 참여하면서 자금 조달이 이뤄지기도 했다. 데이터센터 투자에서 임차인의 신용도와 금융시장 수용성이 중요한 변수로 작용하고 있다. 현재 AI 산업에선 데이터센터 구축 속도가 서비스 확장 속도를 좌우하는 핵심 요소로 꼽힌다. 다만 전력 공급 문제, 지역 사회 수용성, 자금 조달 등 다양한 요인이 복합적으로 작용하면서 인프라 확장 속도에 영향을 줄 수 있다는 분석이 나온다. 시장 조사에 따르면 글로벌 주요 기술 기업들은 2028년까지 약 3조 달러(약 4432조원) 규모 AI 투자를 계획하고 있으나, 자체 현금만으로는 전체 투자 규모의 절반 수준만 충당 가능한 것으로 추정된다. 나머지 자금은 은행 대출, 회사채, 사모 신용 등 외부 금융에 의존해야 하는 구조다. 이같은 흐름은 AI 산업이 기술 경쟁을 넘어 자본 집약적 산업으로 전환되고 있음을 보여준다. 반도체, 전력, 부지 확보와 함께 자금 조달 능력이 인프라 확장과 직결되는 요소로 부각되고 있다. 오라클의 경우 AI 클라우드 사업 확대 과정에서 대규모 투자를 진행 중이나 일부 경쟁사 대비 재무 구조 측면에서 부담 요인이 존재하는 것으로 평가된다. 업계에선 오라클이 상대적으로 낮은 신용도와 높은 부채 부담을 안고 있는 점을 고려할 때 향후 자금 조달 과정에서 부담이 커질 수 있다는 시각도 나온다. 금융시장에선 이런 상황이 특정 기업에 국한된 문제라기보다 AI 인프라 투자 확대 과정에서 나타나는 구조적 현상으로 보고 있다. 특히 프로젝트 파이낸싱 방식으로 추진되는 데이터센터 사업의 경우 대규모 자금이 단기간에 집중되면서 금융기관의 위험 관리 기준과 충돌할 가능성이 있다는 설명이다. 다만 현재까지 주요 금융기관들은 신용도가 높은 대형 기술 기업에 대해선 비교적 안정적으로 자금을 공급하고 있다. AI 투자 전반이 위축되기보다는 프로젝트별로 자금 조달 환경에 차이가 나타나는 양상이 이어질 가능성이 제기된다. 더 빠르게 투자하는 것보다 안정적으로 자금을 조달하느냐가 핵심 변수로 평가된다. 업계 관계자는 "AI 인프라 투자는 계속 확대되고 있지만 자금 조달 구조가 점차 복잡해지고 있다"며 "금융시장 수용 범위와 투자 효율성을 동시에 고려하는 방향으로 사업 구조가 조정될 가능성이 있다"고 말했다.

2026.04.26 09:31한정호 기자

엘리스그룹, AI PMDC 특허 4종 취득

엘리스그룹(대표 김재원)이 AI 이동식 모듈형 데이터센터인 '엘리스 AI PMDC(Portable Modular Data Center)' 관련 핵심 기술 특허 4종을 취득하며 AI 인프라 경쟁력 강화에 나섰다. 이번 특허 취득은 최근 고성능 GPU 및 HPC(고성능 컴퓨팅) 확산으로 인한 고출력·고발열 문제를 해결하고, 데이터센터 설계의 패러다임을 '통합 제어 인프라'로 전환했다는 점에서 의미가 크다. 이번에 확보한 특허는 ▲모듈형 데이터센터용 서버 랙의 이동 장치 및 이의 동작 방법 ▲모듈형 데이터센터의 화재 관리 시스템 및 이의 동작 방법 ▲모듈형 데이터센터의 공랭식 냉각 시스템 및 이의 동작 방법 ▲서버 랙의 수랭식 냉각 시스템 및 이의 동작 방법 등 총 4종이다. 특히 화재 관리 시스템은 온도, 연기, 가스 센서 데이터를 기반으로 화재 확산 가능성을 분석하고, UPS(무정전 전원 장치)와 연동해 서버 동작을 정밀 제어하는 등 데이터 보호를 최우선으로 설계됐다. 고밀도 AI 서버 환경의 최대 난제인 발열 문제를 해결하기 위해 수랭식과 공랭식 냉각 기술도 고도화했다. 직접 냉각 방식의 수랭 기술로 고밀도 환경의 발열을 정밀하게 제어하고, 모듈형 구조에 최적화된 공랭 기술을 통해 기류 흐름을 효율화했다. 엘리스그룹은 이번 특허 확보로 냉각과 안전 분야를 아우르는 기술 포트폴리오를 완성했다. 해당 기술들은 현재 설계 및 검증 단계를 거쳐 일부 실제 인프라에 적용돼 실시간 운영 데이터를 축적 중이다. 엘리스그룹은 향후 다양한 환경에서 추가 검증을 거쳐 적용 범위를 지속적으로 확대할 계획이다. 엘리스그룹 박정국 최고기술책임자는 “이번 기술 확보는 고성능 GPU 운영에 필수적인 고신뢰 AI 인프라 역량을 기술적으로 공식 인정받은 결과”라며 “AI 환경에 최적화된 통합 제어 인프라 기술을 통해 글로벌 시장에서도 신뢰받는 AI 솔루션 표준을 제시하겠다”고 말했다.

2026.04.24 10:49백봉삼 기자

AI가 네트워크 직접 운영…에퀴닉스, '패브릭 인텔리전스' 출시

에퀴닉스가 에이전틱 인공지능(AI)을 기반으로 네트워크 인프라를 자동화하는 신제품을 출시하며 엔터프라이즈 AI 시장 공략에 속도를 낸다. 복잡한 멀티클라우드 환경에서 AI 워크로드 운영을 자동화해 기업의 인프라 효율성과 확장성을 동시에 끌어올린다는 전략이다. 에퀴닉스는 AI 네이티브 네트워크 운영 계층 '패브릭 인텔리전스'를 출시했다고 16일 밝혔다. 패브릭 인텔리전스는 기업이 AI 기반 네트워크를 설계·배포·운영할 수 있도록 지원하는 플랫폼으로, 기존 소프트웨어 정의 네트워킹(SDN) 중심 구조에서 벗어나 AI 워크플로우에 최적화된 네트워크 운영 환경을 제공하는 것이 특징이다. 이 솔루션은 에퀴닉스의 '분산형 AI 허브'를 기반으로 동작하며 글로벌 데이터센터와 클라우드, 엣지 환경 전반에 걸친 인프라 구축과 운영을 자동화한다. 기업은 복잡한 네트워크 환경에서도 AI 워크로드를 보다 효율적이고 안정적으로 운영할 수 있게 된다. 특히 AI 에이전트가 네트워크 환경을 자율적으로 관리하는 에이전틱 AI 개념을 적용했다. 수동 중심의 기존 네트워크 운영 방식에서 벗어나 실시간 데이터 분석과 자동 대응을 통해 인프라를 최적화하는 구조다. 패브릭 인텔리전스는 자연어 기반 명령과 자동화된 워크플로우를 지원하는 '패브릭 슈퍼 에이전트', 다양한 AI 클라이언트와 연동되는 'MCP 서버', 프라이빗 연결 기반 AI 서비스 접근을 지원하는 '패브릭 애플리케이션 커넥트', 실시간 이상 탐지와 예측 분석을 제공하는 '패브릭 인사이트' 등으로 구성됐다. 회사 측에 따르면 기업은 네트워크 설계와 운영을 단순화하고 기존 수주 단위로 소요되던 배포 시간을 수분 단위로 단축할 수 있다. 또 민감 데이터를 퍼블릭 인터넷에 노출하지 않고도 AI 서비스에 접근할 수 있어 보안성과 성능을 동시에 확보할 수 있다는 설명이다. 에퀴닉스는 전 세계 77개 도시, 280개 이상의 데이터센터로 구성된 글로벌 인프라를 기반으로 패브릭 인텔리전스를 제공하며 멀티클라우드 환경에서 AI 워크로드 확산을 지원할 계획이다. 현재 4400개 이상의 고객이 에퀴닉스 패브릭을 활용하고 있다. 업계에선 AI 확산 속도에 비해 네트워크 인프라가 이를 따라가지 못하는 격차가 커지고 있다는 점에 주목하고 있다. 기존 레거시 네트워크는 AI 워크로드가 요구하는 실시간성과 유연성을 충분히 지원하지 못해 병목 현상을 유발하고 있다는 지적이다. 에퀴닉스는 이번 신제품을 통해 이러한 문제를 해결하고 네트워크 인프라를 단순 지원 요소가 아닌 AI 경쟁력의 핵심 요소로 전환하겠다는 전략이다. 존 린 에퀴닉스 최고비즈니스책임자(CBO)는 "모든 기업이 AI를 활용해 비즈니스를 혁신하는 데 주력하고 있지만, 대부분은 성장을 주도하는 방식으로 AI를 대규모 배포할 인프라를 갖추지 못하고 있다"며 "에이전틱 AI가 성숙해지고 추론 애플리케이션이 기업 전반으로 확산됨에 따라 네트워크 인프라는 그 어느 때보다 빠르고 유연해야 한다"고 말했다. 이어 "패브릭 인텔리전스는 고객이 복잡한 인프라 관리에 소요하는 시간을 줄이고 비즈니스 발전에 더 많은 시간을 할애할 수 있도록 지원함으로써, 인프라를 제약 요소에서 경쟁 우위로 전환시킬 것"이라고 덧붙였다.

2026.04.16 11:05한정호 기자

엘리스 "차세대 AI 클라우드 인프라 시장 공략…K-PMDC 추진"

인공지능(AI) 풀스택 기업 엘리스그룹이 토종 기술로 완성한 'K-PMDC'를 기반으로 차세대 AI 클라우드 인프라 시장에 진출한다. AI PMDC 구축을 통해 차세대 GPU 아키텍처를 반영한 AI 데이터센터로 고성능 컴퓨팅 환경에 걸맞은 인프라를 설립하고, AI 수요에 대응할 수 있는 토대를 만든다. 엘리스그룹은 15일 서울 강남에서 기자간담회 '엘리스 임팩트(IMPACT) 2026: AI풀스택 가능성의 확장'을 열고, AI 인프라부터 AI 교육까지 전 영역을 아우르는 'AI 풀스택 전략'을 공개했다. 엘리스그룹은 국산 기술로 완성한 'K-PMDC'를 중심으로 차세대 AI 클라우드 인프라 시장 공략에 나설 계획이다. 엘리스그룹은 AI 기반 교육 실습 플랫폼을 시작으로 AI 클라우드 인프라까지 영역을 확장하며 AI 전 영역을 직접 구현하고 운영할 수 있는 풀스택 기업으로 진화해왔다. 기존에 국내에 없던 AI PMDC라는 방식으로 AI 전용 데이터센터를 구축한 데 이어 AI 클라우드 가상화 솔루션 ECI를 자체 개발해 대규모 그래픽처리장치(GPU) 자원을 효율적으로 운영·활용할 수 있는 구조를 구축했다. 엘리스그룹은 AI 인프라 국산화를 핵심 전략으로 삼고, 차세대 AI PMDC 구축을 본격 추진한다. 차세대 GPU 아키텍처를 반영한 AI 데이터센터를 통해 고성능 컴퓨팅 환경에 최적화된 인프라를 구현하고, 급증하는 AI 수요에 대응할 수 있는 기반을 마련한다는 방침이다. 랙당 230kW 수준의 전력을 요구하는 차세대 GPU '베라 루빈 NVL72'을 지원하는 PMDC 개발을 완료하며, 고전력 환경에서도 안정적으로 운영할 수 있는 인프라 설계 역량을 확보했다. 현재 엘리스그룹이 제공하는 AI 모듈형 데이터센터는 기존 약 2년 이상 소요되던 데이터센터를 약 3개월 내 구축할 수 있어, 빠른 구축과 유연한 확장이 가능하다. 아울러, 엘리스그룹은 AI 인프라 활용도를 극대화할 수 있도록 국내 클라우드 서비스 제공자(CSP) 최초로 'GPU 스팟 요금제'를 도입했다. GPU 스팟 요금제는 유휴 GPU 자원을 활용함으로써 온디맨드 대비 최대 50% 수준의 비용으로 제공하는 것이 특징이다. 이를 통해 수요 기업은 동일한 GPU 자원을 효율적인 비용으로 활용할 수 있다. 해당 요금제는 B200, H100, A100 등 주요 GPU 전 라인업을 지원한다. 이번 요금제 출시로 엘리스그룹은 기존의 장기 약정형, 온디맨드와 함께 스팟까지 포함한 3종 과금 모델을 모두 갖춘 국내 유일의 CSP가 됐다. 엘리스그룹은 'AI 풀스택 가능성의 확장'이라는 방향성 아래 AI 클라우드 인프라뿐 아니라 AI 솔루션과 교육 영역에서도 AI 전환(AX)을 가속화하고 있다. 엘리스그룹의 AI 문서 분석 솔루션 '헬피 비전(Helpy Vision)' 라인업은 기업별로 상이한 복잡한 문서 구조를 학습해 비정형 데이터를 정형화하는 기술을 제공하며, 이를 통해 AI 에이전트가 활용 가능한 데이터 기반을 구축한다. 복잡한 표 구조 인식(TSR) 분야에서 최고 성능을 유지하고 있다. 또한, 기업과 학교에서 맞춤형으로 활용하는 생성형 AI 솔루션 'AI헬피챗'에도 헬피 비전을 통합해 문서 이해도를 높여 한층 정확한 리포트 생성을 가능하게 할 계획이다. 이밖에도 현장에 사용 가능한 AI 기반 이용자경험(UX) 라이팅(Writing) 툴 등 기업맞춤형 도구를 통합하고, AI헬피챗에 엘리스가 자체 보유한 ML API 구동 초거대언어모델(LLM)으로 개인·기밀 정보 유출 위험을 제거할 예정이다. 주요 대기업 및 학교의 AX 교육을 이끌어 온 경험 기반으로 엔터프라이즈 리더 및 실무자 대상 AX 교육도 고도화한다. AI 시대에 맞춰 실제 업무 프로세스 혁신과 업무 전환을 목표로 생성형 AI부터 에이전트 워크플로 구축까지 전 영역을 포함할 계획이다. 또한, 전사 교육, AX 컨설팅, PoC 구축, 대규모 프로젝트 수행까지 기업의 AI 전환을 위한 전 과정을 풀스택으로 지원한다. 김재원 엘리스그룹 대표는 “AI 인프라 경쟁력은 GPU 개수가 아니라, 이를 얼마나 잘 활용하느냐에 달려있다”며 “국산 기술로 완성한 차세대 AI 인프라를 통해 국내 AI 생태계의 자립도를 높이고, 기업들이 비용 장벽 없이 AI 혁신을 이룰 수 있는 토대를 만들겠다”고 말했다.

2026.04.15 10:45박서린 기자

리벨리온, Arm·SKT와 협력...추론 인프라 시장 겨냥

인공지능(AI) 반도체 스타트업 리벨리온이 Arm, SK텔레콤 등 글로벌 AI 기업과 협력해 추론 인프라 시장을 겨냥한다고 10일 밝혔다. 소버린 AI와 통신사 특화 데이터센터 수요에 대응한 추론 인프라 제공이 목표다. 3사는 Arm의 자체 설계 데이터센터용 중앙처리장치(CPU)인 'AGI CPU'와 리벨리온의 AI 반도체를 결합한 AI 서버를 공동 개발하고, 이를 SK텔레콤의 AI 데이터센터에서 검증할 계획이다. 리벨리온은 "AI 인프라 분야 전문 기업이 참여하는 이번 연합은 급성장하는 추론 시장 수요에 기민하게 대응하고, 고성능·저전력 기반 소버린 AI 인프라 표준 정립이 목표"라고 설명했다. 이어 "이를 통해 인프라 설계부터 실전 검증까지 전 밸류체인을 포괄하는 협력 체계를 구축할 계획"이라고 덧붙였다. 이를 위해 Arm 네오버스(Neoverse) CSS V3 기반의 'Arm AGI CPU'와 리벨리온의 '리벨카드'를 통합한다. 리벨카드는 기존 1세대 칩 ATOM을 비롯한 국내외 AI 반도체 다수가 RTX 등 워크스테이션급 칩과 비교돼 온 것과 달리, 한국 최초로 데이터센터 서버급 고성능 AI 반도체 리벨100을 탑재했다. 리벨리온과 Arm은 단순 하드웨어 결합을 넘어 펌웨어 등 소프트웨어 전반을 공동으로 개발하고, SK텔레콤 데이터센터에 도입하여 실제 운영환경에 배치해 데이터 처리 성능과 안정성을 검증한다. 특히, SK텔레콤이 개발한 독자 파운데이션 모델 A.X K1를 해당 서버로 운영하는 방안도 검토 중이다. Arm과 리벨리온은 지난 3월 'Arm 에브리웨어' 행사에서 각 사 칩을 결합해 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간 시연하며, 초기 검증 결과와 대규모 데이터센터 워크로드 적용 가능성을 확인했다. 기술 검증 후 3사는 더 넓은 범위의 상용화 기회를 발굴할 예정이다. 리벨리온은 글로벌 소버린 AI 데이터센터 최적화 솔루션을 공급하고, 아시아 지역을 중심으로 시장을 공략할 계획이다. 독자 AI 인프라 구축이 필요한 글로벌 통신사와 공공 산업군을 중심으로, 안정성이 검증된 맞춤형 특화 솔루션 공급에 주력할 예정이다. 오진욱 리벨리온 최고기술책임자(CTO)는 “리벨리온은 압도적 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당한다”며 “AI 특화 인프라 구축을 위해 각 분야 전문가가 원팀으로 뭉친 이번 협력은 업계에도 유의미한 선례가 될 것"이라고 기대했다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공해 AI 데이터센터 경쟁력을 강화하겠다”고 말했다. 에디 라미레즈 Arm 클라우드 AI 사업부 GTM 부사장은 “AI 인프라가 전 세계적으로 확산됨에 따라 가속기, 메모리, 네트워킹 전반 워크로드를 조율하는 CPU 역할이 중요해졌다”며 “Arm 네오버스 CSS V3를 기반으로 설계한 'Arm AGI CPU'는 대규모 AI 구축에 필수인 성능과 효율성을 갖췄다. 이를 바탕으로 리벨리온, SK텔레콤 등 주요 파트너와 협력해 소버린 AI 및 통신 시장을 위한 확장성 있는 인프라를 실현해 기쁘다”고 밝혔다.

2026.04.10 10:11전화평 기자

[현장] 한국 AI 수요 폭발…에퀴닉스, 수도권 데이터센터 확장 속도

에퀴닉스가 국내 인공지능(AI) 수요 급증에 대응해 데이터센터 확장에 속도를 낸다. 싱가포르투자청(GIC)과 합작 형태로 신규 프로젝트를 추진하는 가운데, 수도권 중심 인프라를 키워 핵심 디지털 허브 역할을 한다는 목표다. 장혜덕 에퀴닉스 한국 대표는 9일 여의도 하나증권빌딩에서 개최한 에듀케이션 세션에서 "AI와 클라우드 수요가 폭발적으로 증가하면서 한국에서도 데이터센터 인프라에 대한 요구가 커졌다"며 "국내 데이터센터 추가 프로젝트와 관련해선 구체적인 일정과 계획이 확정되는 대로 발표할 예정"이라고 밝혔다. 에퀴닉스는 통신사·클라우드·기업 간 연결을 망 중립적으로 제공하는 글로벌 코로케이션 데이터센터 사업자다. 1998년 설립 이후 전 세계 36개국 77개 도시에서 280개 이상의 데이터센터를 운영하며 50만 개 이상의 상호연결(인터커넥션)을 기반으로 디지털 생태계를 구축해왔다. 코로케이션 데이터센터는 여러 기업이 동일한 시설 내에서 IT 인프라를 공유하면서 직접 연결할 수 있는 구조가 특징이다. 에퀴닉스는 이를 상호연결 기반 아키텍처와 디지털 비즈니스 허브로 정의해 클라우드·네트워크·기업 간 트래픽을 퍼블릭 인터넷을 거치지 않고 직접 교환할 수 있도록 지원한다. 이는 지연시간을 줄이고 보안성과 안정성을 높이는 핵심 요소로 꼽힌다. 한국에는 2019년 진출해 약 7년간 사업을 이어오고 있다. 현재 서울 상암 DMC에 첫 데이터센터 'SL1'과 고양시 향동 일대에 위치한 'SL4', 'SL2x' 데이터센터를 운영하며 수도권을 중심으로 상호연결형 디지털 캠퍼스를 구축했다. 특히 회사는 싱가포르투자청(GIC)과 합작법인 형태로 국내 신규 데이터센터 건설 프로젝트를 추진 중이다. 글로벌 자본과 협력해 대규모 투자 부담을 분산하고 빠르게 증가하는 국내 AI·클라우드 수요에 대응하는 전략으로 풀이된다. 장 대표에 따르면 추가 건립될 데이터센터 입지 역시 수도권이 될 전망이다. 기존 센터와의 연계를 바탕으로 네트워크 효율성과 확장성을 높일 수 있어서다. 장 대표는 "국내외 하이퍼스케일 고객 수요와 대규모 AI 워크로드를 수용하기 위해선 인프라를 빠르게 확장하는 것이 중요하다"며 "수요 증가 속도에 맞춰 적절한 시점에 공급이 이뤄질 수 있도록 다양한 방안을 검토하고 있다"고 말했다. 이날 행사에선 AI 확산에 따른 데이터센터 구조 변화도 소개됐다. 생성형 AI와 대규모언어모델(LLM) 확산으로 그래픽처리장치(GPU) 기반 고밀도 인프라 수요가 급증하면서 전력과 냉각 방식이 빠르게 진화하고 있다는 설명이다. 장 대표는 "과거 서버 랙 하나 전력이 4키로와트(kW) 수준이었다면 최신 GPU는 100kW에 달하는 수준까지 올라왔다"며 "이제는 공랭식만으로는 감당이 어려워 액체 냉각 등 새로운 기술 도입이 필수가 돼 데이터센터 사업자들도 이에 맞춘 상면을 설계 중"이라고 말했다. 데이터센터 입지 전략 역시 변화하고 있다. 대규모 전력 확보가 핵심 변수로 떠오르면서 도심 중심에서 전력 인프라가 확보된 외곽 지역으로 이동하는 추세다. 한국 역시 송배전 문제로 수도권 전력 확보에 제약이 있어 입지 다변화가 불가피하다는 분석이다. 이와 함께 'AI 데이터센터 진흥 특별법'도 국내 인프라 투자 환경을 좌우할 주요 제도 변화로 주목된다. 해당 법안은 지난달 국회 과학기술정보방송통신위원회 법안심사소위원회를 통과했으며 현재 전체회의와 법제사법위원회, 본회의 의결 등 후속 입법 절차를 앞두고 있다. 법안에는 인허가 절차 간소화와 전력 확보 지원, 입지 규제 완화 등이 담겼으며 특히 비수도권 데이터센터에 대한 전력계통영향평가 면제와 발전사업자와의 전력구매계약(PPA) 허용 등이 핵심 내용으로 포함됐다. 이에 대해 장 대표는 "AI 데이터센터 특별법에서 인허가를 원스톱으로 지원하는 부분은 업계 입장에서 매우 긍정적"이라며 "여러 기관을 거치는 현재 구조에선 인프라 확충과 사업 속도를 내기 어려운 만큼 제도 개선이 필요했다"고 밝혔다. 이어 "데이터센터는 전력 확보가 핵심인데, 안정적인 전력과 인허가 체계가 갖춰지면 한국 시장에서도 글로벌 수준의 AI 인프라 투자가 더욱 활발해질 것"이라고 덧붙였다. 끝으로 그는 "27년간 구축해온 디지털 비즈니스 생태계를 바탕으로 글로벌 AI 수요를 빠르게 수용하고 있다"며 "이 생태계를 기반으로 한국에서도 기업들이 더 빠르고 안정적으로 연결될 수 있는 환경을 만드는 데 집중하겠다"고 강조했다.

2026.04.09 15:54한정호 기자

맷 가먼 AWS CEO "중동 데이터센터 24시간 대응 체제 가동…투자 지속"

아마존웹서비스(AWS)가 이란 혁명수비대의 드론 공격으로 중동 지역 데이터센터 일부 인프라가 피해를 입자 24시간 대응 체제를 가동하며 서비스 복구와 안정화에 총력을 기울이고 있다. 맷 가먼 AWS 최고경영자(CEO)는 7일(현지시간) 미국 샌프란시스코에서 열린 인공지능(AI) 콘퍼런스 '휴먼X' 현장에서 CNBC와의 인터뷰를 통해 "중동 지역 고객을 위해 인프라를 안정적으로 유지하고자 주 7일 24시간 상시 대응 체제를 가동 중"이라고 밝혔다. 앞서 AWS는 지난달 아랍에미리트(UAE)와 바레인에 위치한 데이터센터가 드론 공격으로 물리적 피해를 입었다고 밝혔다. 일부 시설은 직접 타격을 받았고 인근 공격 여파로 전력 공급 중단과 화재, 침수 피해까지 발생한 것으로 전해졌다. 이 영향으로 중동 지역 주요 서비스에서도 장애가 이어졌다. 금융·결제·모빌리티 등 다양한 디지털 서비스에서 지연과 오류가 발생했으며 일부 클라우드 기능은 일시적으로 이용이 제한됐다. AWS는 고객들에게 데이터 백업 강화와 함께 다른 리전으로 워크로드를 이전하는 방안을 검토할 것을 권고했다. 이번 사건은 데이터센터가 군사적 공격의 직접적인 표적이 된 첫 사례로 평가된다. 그동안 중동은 글로벌 빅테크 기업들이 AI와 클라우드 인프라 거점으로 삼아온 핵심 지역이지만, 이번 사태를 계기로 지정학적 리스크 관리의 중요성이 더욱 부각되고 있다. 가먼 CEO는 이번 분쟁이 단순한 지역 이슈를 넘어 글로벌 경제에도 영향을 미치고 있다고 진단했다. 그는 "이번 전쟁은 세계 경제에 엄청난 혼란을 주고 있으며 단기적인 문제가 아니라 지속적인 부담 요인"이라고 말했다. 그럼에도 AWS는 중동 지역에 대한 투자를 지속하겠다는 입장을 분명히 했다. 가먼 CEO는 "중동은 기업가 정신이 강하고 투자 의지도 높은 지역"이라며 "장기적인 성장 가능성이 높다"고 덧붙였다. 한편 그는 인터뷰를 통해 AI 시장 거품론에 대해서도 선을 그었다. 현재 기술만으로도 기업 생산성을 수년간 개선할 수 있으며 일부 기업이 실패하더라도 기술 자체의 가치는 유지될 것이라는 설명이다. 또 기존 소프트웨어 기업들을 향해선 변화 대응의 필요성을 언급했다. AI 도입과 비즈니스 모델 혁신에 적극 나서지 않을 경우 경쟁에서 뒤처질 수 있다는 경고다. 가먼 CEO는 "기존 방식을 고수하며 혁신하지 않는다면 곤경에 처할 수 있지만, AI를 적극적으로 수용하면 오히려 새로운 기회를 만들 수 있다"고 강조했다.

2026.04.08 13:18한정호 기자

[현장] "AI 다음은 양자"…시스코, 차세대 네트워크 주도권 잡는다

시스코가 에이전틱 인공지능(AI)과 양자컴퓨팅 시대를 겨냥한 차세대 네트워크 전략을 앞세워 인프라 혁신에 박차를 가한다. 네트워크 장비 기업을 넘어 AI 인프라·보안·데이터를 아우르는 엔드투엔드 플랫폼으로 진화해 기업 AI 전환(AX)을 뒷받침하는 핵심 기반을 제공한다는 목표다. 최지희 시스코코리아 대표는 8일 서울 코엑스에서 개최한 '시스코 커넥트 2026 코리아' 기자간담회에서 "AI 시대를 준비하는 크리티컬 인프라를 제공하는 것을 목표로 네트워킹과 보안, 데이터 관리 전반에서 기술 혁신을 이어가고 있다"고 밝혔다. 이날 행사에는 최 대표를 비롯해 비조이 판데이 시스코 아웃시프트 총괄 매니저 겸 수석 부사장, 빌 가트너 시스코 옵티컬 시스템·옵틱스 부문 수석 부사장 겸 총괄 매니저가 참석해 AI와 양자컴퓨팅이 촉발하는 네트워크 패러다임 전환과 대응 전략을 공유했다. 시스코는 현재 컴퓨팅 환경이 '결정론적 시스템'에서 '확률적 시스템'으로 전환되고 있다고 진단했다. 기존에는 동일한 입력에 동일한 결과가 나오는 구조였다면, 앞으로는 최적의 답을 찾아가는 방식으로 진화한다는 설명이다. 비조이 판데이 수석 부사장은 이러한 변화의 핵심 동력으로 에이전틱 컴퓨팅과 양자컴퓨팅을 꼽았다. 특히 AI 에이전트가 서로 협력하는 구조가 등장하면서 기존 단일 모델 중심의 AI에서 집단 지성 기반으로 진화하고 있다고 강조했다. 그는 "우리는 AI 에이전트들이 서로 소통하고 협력할 수 있도록 하는 메커니즘을 만들고 있다"며 "이를 통해 컴퓨팅 기술을 개별 지능에서 집단 지능으로 진화시키고 있다"고 말했다. 이같은 비전을 구현하는 핵심 개념으로는 '인지 인터넷'을 제시했다. 이는 에이전트 간 협업을 위한 프로토콜과 지식 공유 구조를 기반으로, 기업 경계를 넘어 새로운 가치를 창출하는 네트워크 구조다. 시스코는 이를 가속하고자 리눅스 재단과 함께 오픈소스 프로젝트 'AGNTCY'를 추진 중이다. 구글·델·오라클·레드햇 등 80여 개 글로벌 기업이 참여해 에이전트 간 식별, 통신, 관측을 위한 표준을 구축하는 활동이다. 양자컴퓨팅 역시 핵심 축으로 제시됐다. 시스코는 양자 네트워크를 통해 여러 양자컴퓨터를 연결하는 방식으로 대규모 연산을 구현하는 전략을 추진하고 있다. 특히 IBM, 아톰 컴퓨팅 등과 협력해 양자컴퓨터를 네트워크로 연결하는 기술을 검증해 왔다. 실제 미국 뉴욕에서 상용 광섬유망을 활용해 17.6km 구간에 걸쳐 양자 네트워크를 실증하는 데 성공했다. 양자컴퓨팅의 상용화가 현실화되면서 기존 보안 체계에 대한 위협도 빠르게 부각되고 있다. 양자 네트워크 기술이 실제 환경에서 검증되며 기술 성숙도가 높아지는 만큼, 보안 대응 역시 선제적으로 준비해야 한다는 지적이다. 이에 대해 비조이 판데이 수석 부사장은 "양자컴퓨팅 발전으로 기존 RSA 암호 체계가 무력화되는 시점이 2029년으로 예상되는 만큼, 지금부터 양자 내성 암호(PQC)를 도입해야 한다"고 제언했다. AI 인프라 측면에선 초고성능 네트워크 기술이 강조됐다. AI 모델이 대형화되고 에이전트 간 상호작용이 증가하면서 데이터센터 네트워크의 확장성과 성능 요구가 급격히 높아지고 있다는 분석이다. 빌 가트너 수석 부사장은 "AI는 예상보다 훨씬 빠르게 발전하고 있으며 에이전틱 AI로 진화하면서 네트워크 스케일 요구도 크게 증가하고 있다"고 말했다. 그는 AI 인프라를 구성하는 네트워크 구조를 스케일 업, 스케일 아웃, 스케일 어크로스 3단계로 구분해 설명했다. 스케일 업은 단일 시스템 내 연산 성능을 높이는 것이고 스케일 아웃은 데이터센터 내부에서 랙 간 연결을 확장하는 방식이다. 스케일 어크로스는 물리적으로 떨어진 데이터센터 간을 연결해 전체 인프라를 하나처럼 운영하는 구조를 의미한다. 빌 가트너 수석 부사장은 "AI 워크로드가 확산될수록 데이터센터 내부뿐 아니라 데이터센터 간 연결까지 동시에 최적화하는 것이 중요해지고 있다"며 "특히 장거리 데이터센터 연결과 대규모 트래픽 처리를 동시에 지원하는 네트워크 아키텍처가 핵심 경쟁력이 될 것"이라고 설명했다. 시스코는 이에 대응하기 위해 성능, 운영 단순화, 보안 내재화를 3대 축으로 제시했다. 초당 100기가비트(Gb)에서 1.6테라비트(Tb)급까지 확장되는 네트워크 성능과 인프라 내 보안 통합을 핵심 전략으로 삼고 있다. 이날 102.4Tbps급 '실리콘 원 G300' 칩과 1.6T 옵틱스, 데이터센터 간 연결을 위한 51.2T급 라우터 등을 공개하며 AI 데이터센터 확장 전략을 구체화했다. 끝으로 최 대표는 "고객이 성공적인 AX를 완수할 수 있도록 신뢰할 수 있는 네트워크와 보안 기반을 제공하는 파트너가 되겠다"고 강조했다.

2026.04.08 10:55한정호 기자

[종합] 한국 클라우드, AI 타고 몸집 키웠다…이제 승부는 GPU·공공

한국 클라우드 산업이 인공지능(AI) 수요 확대와 공공·기업 디지털 전환 흐름을 타고 외형 성장과 수익성 개선을 동시에 이어간 것으로 나타났다. 주요 클라우드 서비스 제공업체(CSP)들은 데이터센터·그래픽처리장치(GPU) 인프라 투자와 공공 시장 공략을 병행하며 시장 주도권 경쟁을 본격화하는 모습이다. 6일 금융감독원 전자공시시스템에 따르면 네이버클라우드는 2025년 매출 1조 5544억원, 영업이익 1592억원을 기록하며 전년 대비 각각 11.1%, 48.3% 성장했다. AI 수요 확대에 대응해 데이터센터 코로케이션을 확대하고 정부 GPU 구축 사업 대응을 위한 인프라 확보에 나서는 등 공격적인 투자 전략이 실적 개선으로 이어졌다는 분석이다. 특히 네이버클라우드는 최근 LG CNS의 데이터센터 추가 임차와 자체 데이터센터 증축을 병행하며 상면 확보에 속도를 내고 있다. 정부가 추진하는 대규모 GPU 구축 사업 참여를 염두에 두고 복수 데이터센터 기반 분산형 인프라 전략을 강화하는 동시에, 협업 플랫폼 '네이버웍스'를 앞세워 공공 AI 행정 시장에도 적극 진입하는 양상이다. KT클라우드는 지난해 매출 9975억원, 영업이익 663억원으로 각각 27.4%, 25.7% 증가하며 1조원 매출에 근접했다. 공공·기업 시장에서 안정적인 수주 기반을 확보한 가운데, 데이터센터와 AI 인프라 투자 확대가 성장세를 견인한 것으로 풀이된다. 특히 삼성SDS, NHN클라우드와 함께 국가정보자원관리원 대구센터 민관협력형 클라우드(PPP) 사업에 참여해 정부 핵심 시스템 수용 인프라를 구축하며 공공 시장 영향력을 확대했다. 아울러 최근 대표 자리에 김봉균 KT 엔터프라이즈 부문장을 내정하며 사업 전략 재정비에도 나섰다. 기존 기술 중심 성장에 더해 KT 엔터프라이즈 조직과의 연계를 강화한 B2B 통합 사업 구조로 전환을 모색 중이며 액체 냉각 기반 AI 데이터센터 구축 등 인프라 고도화도 병행할 전망이다. NHN클라우드는 매출 2천157억원으로 전년 대비 약 9.8% 성장했지만 영업손실 197억원을 기록하며 적자 구조를 이어갔다. 다만 영업손실은 전년 284억원에서 약 30.5% 줄어들며 손실 폭을 축소했다. NHN클라우드는 국산 기술 기반 AI 인프라 생태계 구축과 일본 등 글로벌 시장 공략을 병행 중이다. 국정자원 PPP 사업에도 참여해 다양한 공공 클라우드 인프라 구축과 행정안전부 클라우드 네이티브 전환 사업 등을 수행해왔다. 최근엔 티맥스티베로와 협력해 GPU 인프라와 데이터베이스 관리 시스템(DBMS)을 결합한 국산 AI 인프라 생태계 구축에도 속도를 내고 있다. 일본 시장에선 서비스형 GPU(GPUaaS)를 앞세워 현지 AI 전환(AX) 수요 공략에 집중하는 등 해외 확장을 통해 수익성 개선 돌파구를 마련하려는 전략이다. 카카오엔터프라이즈는 매출 1697억원으로 전년 대비 약 25.9% 증가했으나 영업손실 343억원을 기록했다. 다만 영업손실은 전년 672억원에서 약 49.0% 줄어들며 절반 수준으로 개선했다. 회사는 카카오클라우드의 '하이브리드 GPUaaS' 전략을 통해 AI 인프라 비용 구조 개선과 수익성 확보를 동시에 추진 중이다. 카카오엔터프라이즈는 특히 AI 추론 중심 시장 변화에 대응해 온프레미스 GPU와 클라우드 연계를 결합한 구조를 강화하고 있다. 단일 콘솔 기반 통합 운영과 비용 효율화 전략을 통해 금융·공공 등 규제 산업으로의 확장도 동시에 노리는 모습이다. 가비아는 매출 3356억원, 영업이익 404억원으로 각각 18.9%, 15.3% 증가하며 안정적인 성장세를 이어갔다. 클라우드·데이터센터·보안 등 전 사업 부문에서 고른 성장이 나타났으며 AI 연산 환경에 대응하기 위한 데이터센터 및 GPU 인프라 강화에도 나서고 있다. 가비아는 과천 데이터센터를 중심으로 고전력 GPU 인프라를 확보하며 AI 대응 역량을 키우고 있다. 자체 클라우드뿐 아니라 아마존웹서비스(AWS)의 관리 서비스(MSP) 사업도 병행하며 하이브리드·멀티클라우드 전략을 확대해왔다. 여기에 서비스형 데스크톱(DaaS)과 그룹웨어 '하이웍스' 중심의 서비스형 소프트웨어(SaaS)까지 아우르는 통합 서비스 모델로 사업 영역을 넓히고 있다. 업계에선 GPU 확보 경쟁과 데이터센터 인프라 확대가 향후 경쟁력을 가름할 핵심 변수로 꼽힌다. 지난해에 이어 정부가 올해도 추진 중인 GPU 1만 5000장 구축 사업을 계기로 CSP 간 인프라 경쟁이 본격화됐다. 지난해 사업엔 네이버클라우드·NHN클라우드·카카오 등이 참여한 가운데, 올해 사업에는 어떤 CSP가 참여해 주도권을 확보할지에도 관심이 쏠리고 있다. 여기에 공공 클라우드 시장 확대도 중요한 성장 동력으로 평가된다. 정부는 2030년까지 행정·공공 정보시스템을 클라우드로 전면 전환하는 정책을 추진하겠다고 밝힌 바 있다. 현재 약 42.4% 수준인 전환율을 단계적으로 끌어올릴 계획이다. 민감·공개 데이터의 민간 클라우드 활용을 확대하는 하이브리드 구조 전환도 병행된다. 국가AI전략위원회 역시 지난해 국가정보자원관리원 화재 이후 후속 발전 방안으로 약 1만 5000개 정부 시스템의 재해복구(DR) 체계를 재설계하고 민간 클라우드 활용을 확대하는 방향을 제시했다. 이에 기존 제한적이던 공공 시장이 점차 개방되면서 CSP들의 사업 기회가 확대될 전망이다. 다만 정책 실행력 확보를 위한 과제도 적지 않다. 공공 클라우드 전환 예산이 AI 관련 예산 대비 상대적으로 부족한 가운데 부처 간 협력과 보안 인증 체계 정비, 기관별 비용 부담 문제 등이 변수로 지목된다. 특히 클라우드보안인증(CSAP), 국가망보안체계(N2SF) 등 복잡한 제도 구조가 사업 추진 속도를 좌우할 핵심 요인이다. 업계는 공공 클라우드 전환 정책과 AI 인프라 투자 확대가 맞물리며 국내 클라우드 시장이 중장기적으로 빠르게 성장할 것으로 보고 있다. 단순 인프라 이전을 넘어 AI 기반 서비스 구조까지 함께 설계하는 방향으로 정책이 구체화돼야 한다는 지적도 나온다. 클라우드 업계 관계자는 "AI 확산과 공공 클라우드 전환이 동시에 진행되면서 국내 CSP들에게는 큰 기회가 열리고 있다"며 "다만 인프라 투자 부담과 제도 불확실성이 여전히 존재하는 만큼 정부 정책과 민간 투자 간 균형이 중요해질 것"이라고 말했다.

2026.04.06 14:19한정호 기자

LG CNS, 삼송 데이터센터 최소 7800억 매출 확보

LG CNS가 코로케이션과 위탁운영을 동시에 확보하며 삼송 데이터센터를 축으로 인공지능(AI) 인프라 사업 확대에 속도를 내고 있다. 40여 년간 축적한 데이터센터 역량을 바탕으로 LG CNS는 국내 점유율 1위를 공고히 함과 동시에 차세대 '모듈형 AI 데이터센터(AIDC)'를 앞세워 글로벌 시장까지 진출할 계획이다. 1일 금융감독원 전자공시시스템에 따르면 LG CNS는 2차 구축 중인 삼송 데이터센터에 네이버클라우드, 우리은행과 연이어 대규모 장기 계약을 체결했다. "단일 계약 최대 규모"…네이버클라우드와 두 번째 대규모 계약 LG CNS는 네이버클라우드와 '삼송 데이터센터 코로케이션(Co-location) 서비스 계약'을 맺었다. 코로케이션은 기업이 막대한 비용을 들여 데이터센터를 직접 짓는 대신, 전문 데이터센터 내에 자사의 서버와 네트워크 장비 등을 설치할 공간을 임대하고 전력·냉각·보안·운영 등 필수 인프라를 종합적으로 제공받는 서비스다. 네이버클라우드가 공시를 통해 밝힌 바에 따르면 이번 계약은 6030억원에 달한다. 올해 국내에서 체결된 데이터센터 코로케이션 사업 중 최대 규모이자 LG CNS가 진행한 단일 계약 기준으로도 역대 최대 규모인 것으로 전해졌다. 계약 기간은 올해 7월부터 2035년 5월까지다. 이는 지난해 체결된 죽전 데이터센터에 이은 양사 간 두 번째 대형 계약으로 네이버클라우드는 AI 등 핵심 기술 운영에 필요한 하이엔드급 인프라를 안정적으로 확장하게 됐다. 기업 입장에서는 초기 인프라 구축 비용(CAPEX)을 대폭 절감하고 핵심 비즈니스에만 역량을 집중할 수 있는 강점이 있다. 더불어 LG CNS는 삼송 데이터센터 소유사인 이지스자산운용과 약 1820억원 규모 '고양 삼송 데이터센터 위탁운영 계약'도 체결했다. 계약 기간은 2035년 5월까지다. 결과적으로 LG CNS는 삼송 데이터센터를 통해 상면 임대와 위탁운영이라는 두 가지 비즈니스 모델을 통해 약 7800억원에 달하는 대형 장기 수익을 확정지었다. 국내 DBO 점유율 60%…'원 LG' 앞세워 글로벌 진출 가속 LG CNS는 이번 대형 계약 수주의 배경에는 약 40년간 데이터센터 사업을 수행하며 입증한 기술력이 자리하고 있다고 밝혔다. 2019년 국내 최초로 데이터센터 설계·구축·운영(DBO) 사업 모델을 도입해 하남, 죽전, 삼송 등 수십 메가와트(MW) 규모의 하이퍼스케일급 데이터센터 구축 사업을 성공적으로 수행해 왔다. LG CNS는 국내 데이터센터 DBO 설계·컨설팅 영역에서 약 60% 점유율을 차지하고 있으며 구축 및 운영 영역에서도 최고 수준을 기록 중이다. 자체 데이터센터 역시 국내 최초로 오픈한 이래 부산, 상암, 가산을 비롯해 미국, 유럽, 중국 등 글로벌 거점에서 운영하고 있다. 생성형 AI 확산으로 고전력·고밀도 인프라 수요가 급증함에 따라 LG CNS는 6개월 내 구축이 가능한 혁신적인 '모듈형 AI 데이터센터'도 선보였다. 이 모델은 컨테이너 하나에 GPU 576장을 수용하는 소형 데이터센터로, 통상 2년이 걸리던 구축 기간을 단축하고 컨테이너 결합을 통해 하이퍼스케일급으로 확장이 가능하다. LG CNS는 지난해 '원 LG' 기술력을 결집해 인도네시아 자카르타에서 1000억원 규모의 하이퍼스케일급 AI 데이터센터 사업을 수주하며 한국 기업 최초로 해외 진출의 포문을 열었다. 향후 베트남 등 추가적인 글로벌 시장 공략에도 박차를 가할 계획이다. 한 업계 관계자는 "LG CNS가 데이터센터 역량을 바탕으로 안정적인 장기 수익 구조를 구축하고 있다"며 "이를 바탕으로 국내는 물론 글로벌 AI 데이터센터 시장까지 적극적으로 진출할 것으로 예상된다"고 말했다.

2026.04.01 16:03남혁우 기자

오라클, AI 투자 확대에 인력 수천명 감축…클라우드·DB 전반 영향

오라클이 인공지능(AI) 인프라 투자 확대에 따른 재원 확보를 위해 대규모 인력 감축에 나섰다. 클라우드와 데이터베이스(DB) 사업 전반에서 구조조정을 단행하며 비용 절감과 동시에 데이터센터 구축 등 AI 투자를 강화하는 모습이다. 31일(현지시간) 월스트리트저널에 따르면 오라클은 이날 미국과 인도 등 주요 거점에서 직원들에게 해고 통보를 시작했으며 감원은 클라우드·DB 등 핵심 사업 전반에 걸쳐 진행되고 있다. 일부 직원들은 이날 새벽 이메일을 통해 "현재 사업적 필요를 고려해 직무를 없애기로 했다"는 통보와 함께 즉시 근무 종료를 안내받은 것으로 전해졌다. 정확한 감원 규모는 공개되지 않았지만, 내부 지표 기준 이미 수천 명 수준에 이른 것으로 알려졌다. 앞서 투자은행 TD코웬은 오라클이 AI 인프라 투자 재원을 마련하기 위해 최대 3만 명까지 인력을 줄일 가능성을 제기한 바 있다. 오라클의 전체 직원 수는 지난해 기준 약 16만 2000명이다. 이번 구조조정은 오라클이 오픈AI와 추진 중인 대규모 데이터센터 프로젝트 '스타게이트'와 맞물려 있다. 오라클은 향후 수년간 수십억 달러 규모의 투자를 통해 데이터센터를 구축할 계획이며 이 과정에서 재무 부담 확대에 대한 우려가 제기되고 있다. 특히 스타게이트 프로젝트는 일부 확장 계획에서 차질을 빚으며 구조 재편이 진행되는 모습이다. 미국 텍사스 애빌린 데이터센터 일부 확장 부지가 마이크로소프트(MS)로 넘어가면서 오라클이 추진 중인 스타게이트 프로젝트의 인프라 확보 계획이 일부 조정된 것으로 전해졌다. 다만 기존 프로젝트 자체는 유지된 채 지역 및 투자 전략을 재조정하는 방향으로 추진되는 상황이다. 오라클은 최근 공시를 통해 구조조정 비용을 기존보다 5억 달러(약 7500억원) 늘리겠다고 밝히며 인력 감축 확대 가능성을 시사했다. 동시에 AI 수요가 공급을 웃도는 상황이 이어지고 있다며 데이터센터 등 관련 인프라 투자를 지속하겠다는 입장을 유지했다. 다만 투자자들은 데이터센터 자금 조달 계획의 실현 가능성과 수익성에 대해 우려를 나타내고 있다. 오라클 주가는 최근 6개월간 약 50% 하락하는 등 변동성이 커졌으며 AI 투자 확대에 따른 재무 부담이 주요 리스크로 지목된다. 이같은 흐름은 오라클에 국한되지 않는다. 아마존과 메타 등 주요 빅테크 기업들도 AI 전환 과정에서 인력 감축과 자동화를 병행하며 AI 투자를 위한 '선 구조조정' 기조가 업계 전반으로 확산되는 양상이다. 업계 관계자는 "AI 경쟁이 심화되면서 글로벌 빅테크들이 투자 여력을 확보하기 위해 인건비를 포함한 비용 절감에 나서고 있다"고 말했다.

2026.04.01 12:17한정호 기자

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

국방부가 생성형 인공지능(AI) 기반 국방 데이터 인프라 구축을 위한 첫 단계 사업에 착수했다. 대규모 그래픽처리장치(GPU) 서버를 중심으로 한 인프라를 구축해 국방 AI 서비스 운영 기반을 마련하고 향후 국방 통합 AI 데이터센터 구축을 위한 실증 데이터를 확보한다는 구상이다. 30일 조달청 나라장터에 따르면 국방부 산하 국방통합데이터센터(DIDC)는 최근 '2026년 국방통합AI데이터센터 실증 목적 GPU 서버 구축사업' 입찰을 공고했다. 이번 사업은 국방 AI 데이터센터 구축을 위한 초기 실증 사업으로, GPU 자원 확보와 함께 AI 인프라 운영·관리 체계를 구축하는 것이 핵심이다. 사업 예산은 약 216억원 규모로 책정됐으며 계약 후 210일 이내 수행될 예정이다. 특히 일반경쟁입찰 계약방식으로 평가 비중은 기술 90%, 가격 10%로 구성됐다. 이번 사업은 지난해 구축된 국방 생성형 AI '국방 생성형 AI(GeDAI, Generative Defense AI)' 서비스의 안정적 운영을 지원하기 위한 후속 인프라 확장 성격을 띤다. 국방부는 GeDAI를 실증 수단으로 활용해 GPU 수요와 국방 데이터 활용 요구사항을 도출하고 향후 데이터센터 구축 시 기준으로 활용할 계획이다. 사업 범위는 단순 장비 도입을 넘어선다. 우선 대규모 AI 추론 서비스를 위한 GPU 서버와 클라우드 관리 서버, 고속 네트워크 및 스토리지 등 핵심 인프라가 구축된다. 이와 함께 GPU 가상화 기반 서비스형 플랫폼(PaaS), 백업 시스템, 관제 및 보안 솔루션도 포함된다. 특히 GPU 서버는 엔비디아 B300 기반 고성능 장비로 구성되며 서버 간 최대 800기가비피에스(Gbps)급 네트워크를 통해 대규모 AI 추론 환경을 구현하는 것이 목표다. 이를 바탕으로 국방 데이터 기반 AI 모델 학습과 추론을 동시에 지원하는 고성능 인프라가 마련될 전망이다. 사업은 착수 이후 ▲환경 조사 및 요구사항 분석 ▲아키텍처 상세 설계 ▲장비 설치 및 시험평가 ▲보안 측정 및 검수 ▲안정화 단계로 진행된다. 이후 무상 하자보수 및 운영 안정화까지 포함된 전체 구축 사이클이 약 7개월 내 완료될 예정이다. 국방부는 이번 사업을 통해 GPU 자원을 확대하고 각 군과 수요기관에 AI 서비스를 제공할 수 있는 기반을 마련한다는 방침이다. 또 민·군 협력 기반 AI 연구개발 환경을 조성하고 향후 전군 단위 AI 서비스 확산을 위한 인프라 표준 확보에도 활용된다. 이번 사업은 향후 추진될 국방 통합 AI 데이터센터 구축의 전초 단계로 평가된다. 앞서 정부는 2030년까지 최대 5만 개 GPU를 투입하는 대규모 국방 AI 인프라 구축 계획을 밝힌 바 있다. 이번 실증 사업이 핵심 기반이 될 것이라는 예상이 나온다. 국방부 측은 사업 제안요청서를 통해 "AI 과학기술 강군 육성을 위해 기존 국방 생성형 AI 서비스를 안정적으로 운영·관리할 수 있도록 정보시스템을 증설한다"며 "GPU 기반 인프라 구축을 통해 효율적이고 안정적인 AI 서비스 제공 환경을 마련할 것"이라고 밝혔다.

2026.03.30 17:44한정호 기자

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

AI 인프라 허브로 부상한 인도…재벌 아다니, 메타·구글과 협력 모색

인도 대표 재벌 가우탐 아다니가 이끄는 아다니 그룹이 글로벌 빅테크와 손잡고 데이터센터 사업 확장에 속도를 낸다. 인도를 글로벌 인공지능(AI)·클라우드 인프라 핵심 거점으로 키운다는 목표다. 25일(현지시간) 블룸버그통신에 따르면 아다니 그룹은 최근 메타·구글 등 미국 기술 대기업과 데이터센터 사업 협력을 위한 논의를 진행 중인 것으로 알려졌다. 이번 협의는 아다니 그룹이 추진 중인 1000억 달러(약 150조원) 규모 디지털 인프라 투자 전략의 일환으로 평가된다. 그룹은 초대형 데이터센터 구축과 AI·클라우드 서비스에 필수적인 토지와 재생에너지를 동시 공급하는 사업자로 자리매김한다는 방침이다. 월마트의 인도 전자상거래 자회사 플립카트도 협상에 참여한 것으로 전해졌다. 아다니 그룹은 인도 각 지역에서 데이터센터 부지를 물색 중이며 현재 논의는 초기 단계로 구체적인 위치는 아직 확정되지 않았다. 이같은 움직임은 인도를 둘러싼 글로벌 AI 인프라 경쟁이 한층 격화되고 있음을 보여준다. 인도는 빠르게 성장하는 경제와 방대한 인구 기반을 바탕으로 해외 투자와 기술 기업을 끌어들이고 있으며 이에 맞춰 데이터센터 시장 역시 급성장 중이다. 컨설팅업체 KPMG에 따르면 인도의 데이터센터 전력 용량은 2030년까지 8기가와트(GW)를 넘어설 전망이다. 이는 현재 대비 약 5배 수준이다. 아다니 그룹은 이미 AI 인프라 확대에 공격적으로 나서고 있다. 오는 2035년까지 1000억 달러(약 150조원)를 투입해 친환경 기반 AI 데이터센터를 구축할 계획이다. 이 투자는 서버·전력 인프라 등 연관 산업에서 장기적으로 1500억 달러(약 225조원) 규모의 투자 유발 효과를 창출할 것으로 보고 있다. 이와 함께 글로벌 기업들의 현지 시장 투자도 이어지고 있다. 아마존은 2030년까지 인도 클라우드 인프라에 약 127억 달러(약 19조원)를 투자할 계획이며 오픈AI 역시 1GW 규모 데이터센터 구축을 검토 중이다. 인도 내 기업 간 경쟁도 치열하다. 릴라이언스는 110억 달러(약 16조원) 규모 데이터센터 프로젝트를 추진 중이며 타타그룹 역시 외부 투자 유치를 통해 사업 확대에 나섰다. 업계에선 인도가 AI·클라우드 인프라의 차세대 글로벌 허브로 부상하고 있다는 평가가 나온다. 대규모 수요와 정부의 디지털 정책, 글로벌 기업들의 투자 경쟁이 맞물리며 초거대 AI 인프라 집적지로 빠르게 변모하고 있다는 분석이다. 아다니 그룹은 "데이터센터와 재생에너지를 결합한 통합 인프라를 앞세워 글로벌 AI 시대의 핵심 공급자로 자리잡겠다"고 밝혔다.

2026.03.26 14:39한정호 기자

전력·인허가에 묶인 AI 인프라…데이터센터 특별법, 규제 완화 속도낸다

인공지능(AI) 경쟁력의 핵심 기반으로 꼽히는 데이터센터 구축을 둘러싼 제도 정비가 본격화됐다. 국회에서 'AI 데이터센터 진흥 특별법'이 첫 문턱을 넘으면서 전력·입지·인허가 등 산업 전반의 구조적 병목 해소 기대가 커지고 있다. 26일 업계에 따르면 국회 과학기술정보방송통신위원회는 지난 24일 법안심사소위원회를 열고 'AI 데이터센터 지원에 관한 특별법'을 통과시켰다. 이번 법안은 정동영·조인철·한민수·황정아 의원과 김장겸 의원, 이해민 의원이 각각 발의한 6개 법안을 병합한 대안이다. 법안소위 통과는 입법 절차의 초기 단계지만, 여야 간 이견 없이 처리됐다는 점에서 향후 상임위원회와 법제사법위원회, 본회의 통과 가능성도 높다는 평가가 나온다. 이번 특별법은 AI 데이터센터를 국가 경쟁력을 좌우하는 전략 인프라로 규정하고 인허가 절차 간소화와 입지 규제 완화, 세제 지원, 전력 확보 지원 등을 골자로 한다. 특히 비수도권 데이터센터에 대한 전력계통영향평가 면제와 발전사업자와의 직접 전력구매계약(PPA) 허용이 핵심으로 꼽힌다. 생성형 AI 확산으로 고성능 그래픽처리장치(GPU) 기반 연산 수요가 급증하면서 데이터센터는 단순 설비를 넘어 AI 경쟁력을 좌우하는 핵심 기반으로 부상했다. 업계에선 전력 확보와 인허가 지연이 국내 AI 인프라 투자 확대를 가로막는 대표적인 요인으로 지목돼 왔다. 클라우드 업계 관계자는 "AI 서비스 수준과 경쟁력은 결국 인프라에서 갈린다"며 "전력과 인허가 불확실성이 줄어들면 민간 투자 환경도 빠르게 개선될 것"이라고 말했다. 특히 이번 법안은 행정 절차 측면에서의 변화가 주목된다. 과학기술정보통신부가 인허가 창구 역할을 맡아 관계 부처 협의를 일괄 처리하고 일정 기간 내 결과를 도출하는 '타임아웃제'를 도입한다. 이에 따라 데이터센터 구축 인허가 절차가 최대 150일 내 처리되는 구조가 마련될 전망이다. 과기정통부 관계자는 "특별법은 창구 일원화와 함께 시설·입지·전력 특례를 포함하는 구조"라며 "데이터센터 구축 과정에서 과도하게 적용되던 승강기, 주차장, 전기차 충전시설, 미술품 설치 의무 등 규제를 완화하고 입지 해석을 명확히 해 기업 부담을 줄이는 데 초점을 맞췄다"고 설명했다. 데이터센터 업계 관계자는 "그동안 지자체, 한전, 산업부 등 여러 기관을 각각 상대해야 해 사업 일정이 지연되는 경우가 많았다"며 "과기정통부가 창구 역할을 맡아 조정해주는 구조는 현장에서 체감도가 클 것"이라고 말했다. 전력 특례 역시 산업 영향 측면에서 핵심 변수로 꼽힌다. AI 데이터센터는 전력 비용이 전체 운영비의 상당 부분을 차지하는 구조로, 안정적이고 예측 가능한 전력 확보가 사업성에 직결된다. 이번 법안에 포함된 PPA 특례와 전력계통영향평가 면제는 이러한 부담을 완화하기 위한 장치다. 다만 전력 특례를 둘러싼 부처 간 시각차는 여전히 남아 있는 것으로 알려졌다. 기후에너지환경부는 특정 산업에 대한 별도 전력 특례 도입보다는 기존 분산에너지 제도 틀 안에서 접근해야 한다는 입장을 유지해온 것으로 전해졌다. 또 PPA를 개별 산업에 확대 적용할 경우 제도 형평성과 전력시장 구조에 영향을 줄 수 있다는 점도 고려해야 한다는 시각이다. 이에 대해 업계에선 AI 데이터센터의 특수성을 감안한 별도 제도 필요성을 강조하고 있다. 데이터센터 업계 관계자는 "AI 데이터센터는 일반 산업과 비교하기 어려울 정도로 전력 수요가 큰 구조"라며 "전력 특례가 마련되지 않으면 국내 투자 유치 경쟁력 확보에도 한계가 있을 수 있다"고 말했다. 입지 측면에선 비수도권 데이터센터 유치에도 긍정적인 영향을 미칠 것으로 예상된다. 발전소 인근에서 직접 전력을 조달할 수 있는 환경이 조성될 경우 지방 입지의 경제성이 높아질 수 있어서다. 정부는 이번 특별법이 통과될 경우 단순 인프라 구축을 넘어 클라우드 생태계 전반을 활성화한다는 구상이다. 과기정통부가 창구 역할을 맡아 인허가와 부처 협의를 조정하고 기술 개발과 인력 양성 지원까지 연계하는 방안을 검토 중이다. 법안은 현재 법안소위 단계를 통과한 만큼 향후 상임위원회, 법제사법위원회, 본회의 등 입법 절차를 거치며 세부 내용이 조정될 가능성도 남아있다. 데이터센터 업계 관계자는 "법안소위 통과로 방향성은 확인됐지만, 전력 특례와 인허가 개선이 실제 사업 환경에서 얼마나 체감될지가 관건"이라며 "남은 입법 절차에서 실효성이 가려질 것"이라고 밝혔다.

2026.03.26 14:15한정호 기자

에퀴닉스, AI 시대 데이터센터 인재 키운다…글로벌 투자 확대

에퀴닉스가 글로벌 데이터센터 산업의 인력 부족 문제에 대응하기 위해 인재 양성 투자를 확대한다. 인공지능(AI)과 디지털 전환 확산에 따른 인프라 수요 증가에 맞춰 교육·채용 연계를 강화한다는 목표다. 에퀴닉스는 디지털 인프라 분야 차세대 기술 인재 양성을 위한 글로벌 투자 계획을 발표했다고 25일 밝혔다. 이번 이니셔티브는 국제 데이터센터의 날을 맞아 공개됐으며 고급 기술 인력 일자리 기회를 확대하고 지역 사회 기반 인재 생태계를 강화하는 데 초점을 맞췄다. 핵심 프로그램은 '패스웨이 투 테크'의 글로벌 확대다. 해당 프로그램은 14~18세 학생을 대상으로 데이터센터 운영 분야 진입 경로를 제공하는 초기 인재 양성 과정이다. 기존 미국과 아시아태평양 일부 지역에서 약 2000명을 대상으로 운영된 바 있다. 이를 전 세계 에퀴닉스 데이터센터로 확대해 청년층의 산업 진입을 지원한다. 참가자는 전문가 멘토링, 데이터센터 투어, 실습 중심 교육 등을 통해 디지털 인프라 환경을 직접 경험할 수 있다. 인턴십과 견습 프로그램으로 이어지는 경력 경로도 제공해 접근성이 낮지만 수요가 높은 고임금 기술 직군 진입을 돕는다는 설명이다. 아울러 글로벌 데이터센터 기술자 교육 연합도 출범한다. 에퀴닉스 재단은 비영리 단체 제너레이션과 협력해 교육 커리큘럼 개발과 채용 연계를 추진하며 브라질을 시작으로 글로벌 확장을 계획 중이다. 글로벌 운영 견습 프로그램도 확대된다. 브라질·프랑스·독일·미국·싱가포르·영국 등 주요 시장에서 통합된 교육과정을 도입해 인턴십과 초기 경력 프로그램을 강화하고 현장 중심 기술 인력 양성 체계를 구축할 예정이다. 또 '러닝 랩' 프로그램을 통해 데이터센터 인프라 운영에 필요한 실무 역량 교육도 제공한다. 전기 시스템, 냉각·공조, 안전, 시설 운영 등 핵심 기술을 현장 중심으로 학습할 수 있도록 설계됐다. 에퀴닉스는 이러한 프로그램을 올해부터 미주, 유럽·중동·아프리카(EMEA), 아시아태평양 지역에 순차적으로 도입해 글로벌 인재 파이프라인을 구축할 계획이다. 라우프 압델 에퀴닉스 글로벌 운영 수석 부사장은 "데이터센터는 디지털 세계의 심장이자 글로벌 연결의 핵심 인프라"라며 "AI로 인한 인프라 수요 증가에 대응하기 위해 미래 기술 인재 양성에 지속적으로 투자할 것"이라고 말했다. 브랜디 갤빈 모란디 에퀴닉스 최고인사책임자(CPO)는 "우리는 조기 인재 양성과 지역 사회 기반 기회 확대를 통해 업계에 필요한 숙련 인재를 확보하고 있다"며 "교육과 실무 경험을 결합해 새로운 기술 인재를 발굴·육성해 나갈 것"이라고 밝혔다.

2026.03.25 16:47한정호 기자

[AI 고속도로] '베라루빈' 도입·연내 구축 가능할까…정부 GPU 확충 쟁점은

정부가 '인공지능(AI) 고속도로' 구현을 위한 2조원 규모 최신 그래픽처리장치(GPU) 확충 사업에 착수한다. 엔비디아가 공개한 차세대 GPU '베라루빈' 도입 가능성까지 포함되면서 사업 방향과 세부 기준에 대한 업계 관심이 높아지고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 개최했다. 이날 현장에선 사업 구조와 평가 기준, 데이터센터 요건 등을 설명하고 현장 질의응답을 진행했다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 밝혔다. 이날 설명회에는 지난해 사업에 선정된 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)와 엘리스그룹이 자리했다. 또 삼성SDS·LG CNS 등 SI 기업과 메가존클라우드·디딤365, 레드햇·클러쉬, 델·HPE·IBM·넷앱·슈퍼마이크로 등 인프라 기업, 엔비디아·AMD·인텔, MS·구글 클라우드, SK텔레콤·쿠팡 등 60여개 기업 200여 명이 참석했다. 현장 질의응답에선 차세대 GPU 도입 기준을 비롯해 데이터센터 구축 방식, 글로벌 공급망 위협과 환율 변동에 따른 비용 부담, 연내 구축 일정 등 주요 쟁점을 중심으로 사업 참여를 검토하는 기업들의 질의가 이어졌다. 특히 베라루빈 도입 여부와 구축 일정 간 균형, 국내 인프라 중심 운영 원칙 등이 핵심 관심사로 부각됐다. 최신 GPU 중심 평가…베라루빈 도입 기준·일정 변수는 -사업 요건의 비용 대비 높은 GPU 성능은 어떤 기준으로 평가되나. "경제성 항목은 단순히 장비 수량을 많이 확보하는 개념이 아니라, 최신 GPU 기준으로 성능 대비 얼마나 효율적으로 제안하느냐를 보는 것이다. 동일한 예산 안에서 최신 아키텍처 GPU를 얼마나 확보할 수 있는지가 핵심이다. 구형 GPU를 대량으로 제안하는 방식보다는 최신 GPU 중심으로 실제 AI 학습과 추론에 적합한 성능을 확보했는지가 평가 포인트가 된다. 성능 대비 비용, 그 성능이 실제 AI 활용에 얼마나 적합한지를 종합적으로 볼 것이다." -베라루빈 제안 시 클러스터 구축 기준은 어떻게 적용되나. "베라루빈은 아직 구체적인 구성 방식이나 클러스터 단위가 완전히 정형화되지 않은 차세대 GPU다. 기존 블랙웰 계열과 동일한 기준을 그대로 적용하기는 어려울 수 있다. 이 부분은 칩 제조사와 공급망을 통해 확인해야 하는 영역이다. 제안 단계에선 가능한 범위에서 구성 계획을 제시하되, 세부 기준은 제조사 스펙과 실제 공급 조건을 반영해 판단하게 된다. 중요한 것은 차세대 GPU 도입 의지와 실현 가능성이다." -특정 제조사의 GPU만을 고려해 평가가 이뤄지는지. "이번 사업은 특정 칩 제조사를 배제하거나 제한하려는 것이 아니라, 국가 차원에서 AI 인프라를 가장 빠르게 확보하는 것이 목적이다. 현재 시장에서 대규모 AI 모델 학습과 서비스에 가장 널리 활용되는 최신 GPU를 중심으로 판단하게 된다. 다양한 선택지가 있을 수 있지만 실제 활용성과 안정성, 공급 가능성을 종합적으로 고려할 수밖에 없다." -베라 루빈 출시 일정과 연내 구축 목표가 충돌할 경우 기준은. "기본적으로 이번 사업은 연내 구축과 서비스 개시가 중요한 목표다. 다만 차세대 GPU 도입은 평가에서 우대 요소로 반영된다. 베라 루빈의 경우 일반적인 글로벌 공급 일정과 달리 국내 도입 시점이 앞당겨질 가능성도 있다. 관계 부처와 제조사 간 협의를 통해 국내 물량 확보를 추진해 왔다. 결국 일정과 최신성 두 요소를 함께 고려하되, 현실적인 공급 상황을 반영해 판단할 것이다." -GPU 납기 지연 등 변수 발생 시 일정 조정이 가능한가. "사업자가 최종 선정된 이후 협약 단계에서 시장 상황을 반영해 일부 조정은 가능하다. 기본 원칙은 유지하되, 실제 납기나 공급 이슈가 불가피하게 발생하는 경우까지 일률적으로 적용하기는 어렵다. 협약 과정에서 합리적으로 논의할 수 있는 여지는 있다." "국내 데이터센터 집적이 원칙"…냉각 인프라도 예산에 포함 -복수 데이터센터를 활용한 구축·운용이 가능한가. "데이터센터를 여러 개 제안하는 것은 가능하다. 다만 사업에서 요구하는 최소 클러스터 단위는 반드시 동일 공간 또는 동일 층에 물리적으로 집적돼야 한다. 대규모 AI 연산을 위해서는 GPU 간 통신 지연을 최소화하는 구조가 필요하기 때문이다. 따라서 분산 배치는 가능하지만, 핵심 클러스터는 집적형으로 구성해야 한다." -동일 제조사 내 서로 다른 GPU 모델을 혼합해 제안할 수 있나. "가능은 하지만 단순 혼합이 아니라, 각각의 GPU 구성에 대한 명확한 목적과 타당성을 제시해야 한다. 어떤 워크로드에 어떤 GPU를 쓰는지, 클러스터 단위 기준을 어떻게 충족하는지를 설명해야 한다. 단순히 여러 모델을 섞는 방식은 설득력이 떨어질 수 있다." -해외 데이터 연동이나 네트워크 활용은 원천 불가능한가. "사업의 기본 원칙은 국내 데이터센터에서 GPU를 직접 운영·통제하는 것이다. 국가 AI 인프라라는 특성상 데이터 주권과 보안이 중요하다. 다만 실제 운영 과정에서 필요한 세부 사항은 추가 논의를 통해 정리할 수 있다." -수냉 배관 등 데이터센터 공사 비용도 사업 지원비에 포함되나. "GPU 서버가 최고 성능을 낼 수 있도록 필요한 환경이라면 통합 구축 범위에 포함해 제안할 수 있다. 단순히 장비만 도입하는 것이 아니라 실제 운영 가능한 인프라를 구축하는 것이 목적이다. 전력·냉각·네트워크까지 포함한 전체 시스템 관점에서 제안하는 것이 중요하다." -콜드플레이트 등 냉각 구성 요소는 어떻게 반영해야 하나. "세부적인 하드웨어 구성은 서버 벤더와 칩 제조사 기준을 따르는 것이 바람직하다. GPU 성능을 충분히 발휘할 수 있는 구성이라면 관련 부대장비까지 포함해 제안하면 된다. 단순 장비 나열이 아니라 완성된 인프라로서 제안해야 한다." 환율 변수에도 제안가 기준…"사업 종료 후 관리는 정부가" -환율 변동에 따른 가격 차이는 추후 어떻게 반영되나. "기본적으로는 제안 시점에서 확보한 가격을 기준으로 본다. 공모 사업 특성상 사후 정산 구조이기 때문에 가격 변동이 발생하더라도 그 기준을 중심으로 관리하게 된다." -환율 급등 등 외부 변수 발생 시 대응은. "원칙은 제안 가격 기준이다. 다만 전쟁이나 글로벌 공급망 충격과 같은 불가피한 상황이 발생할 경우에는 협약 단계에서 논의가 필요할 수 있다. 모든 변수를 사전에 규정하기는 어렵지만 현실적인 범위에서 대응할 예정이다." -정부 활용분과 기업 자체 활용분은 어떤 기준으로 산정되나. "정부 활용분에 대해 요구되는 최소 클러스터 규모를 먼저 충족해야 하고 그 이후 남는 자원을 자체 활용분으로 설정하는 구조다. GPU 종류나 성능이 서로 다른 경우에는 단순 장수 기준만으로 판단하지 않고 도입 비용과 활용 목적까지 함께 고려해 전체 구성의 타당성을 평가한다. 단순 비율이 아니라 정부 활용 목적에 부합하는지와 자원 배분의 합리성을 종합적으로 볼 것이다." -정부 활용분 GPU에 대한 수요는 보장되나. "수요 모집과 배분은 정부가 담당한다. 사업자는 인프라를 제공하고 운영을 지원하는 역할을 수행하게 된다. 수요 확보 부담을 사업자에게 전가하는 구조는 아니다." -사업 종료 후 GPU 자산은 어떻게 되나. "GPU와 부대장비는 NIPA 자산으로 관리된다. 이후 처리 방식은 관련 규정과 절차에 따라 결정된다. 매각이나 이전 등 다양한 방안을 검토할 예정이다."

2026.03.20 17:58한정호 기자

  Prev 1 2 3 4 5 6 7 8 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자 DX부문 노조, 공동투쟁 철회…"전체 조합원 권익 의견 반영 안돼"

美 FCC, 중국 내 전자제품 시험 금지 추진…"아이폰도 영향권"

5년새 빵값 38%↑...편의점, 가성비 'PB빵' 빵 터졌다

"응급실 진단, AI가 의사 앞섰다"…하버드 연구 결과

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.