• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (584건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

HPE, AI 인프라 수요에 실적 전망 상향…시장 예상치 웃돌아

HPE가 인공지능(AI) 인프라 수요 확대에 힘입어 시장 예상치를 웃도는 매출 전망을 제시하며 실적 기대감을 높였다. AI 데이터센터 구축과 고속 네트워크 장비 수요가 늘어나면서 서버·네트워크 사업 전반에서 성장 동력이 강화되는 모습이다. HPE는 다음 달 마감 분기 매출이 96억~100억 달러(약 14조 1100억~14조 6980억원)로 전망된다고 9일(현지시간) 발표했다. 이는 미국 애널리스트 평균 예상치인 95억 7000만 달러(약 14조 707억원)를 웃도는 수치다. 일부 항목을 제외한 주당순이익(EPS)은 0.51~0.55달러로 제시했으며 이는 시장 평균 전망치인 0.53달러와 비슷한 수준이다. 회사는 올해 연간 매출 성장 전망을 유지하는 동시에 조정 EPS 전망을 기존 2.30~2.50달러 범위로 상향 조정했다. 시장에서는 평균 2.35달러 수준을 예상해 왔다. AI 인프라 구축 수요 확대가 실적 전망 상향의 배경으로 꼽힌다. HPE에 따르면 AI 워크로드 확산으로 데이터센터 네트워크 장비 수요가 빠르게 증가하고 있다. 데이터센터 스위칭 장비 주문은 전년 대비 약 40% 증가했고 라우팅 장비 주문도 20%대 중반 성장한 것으로 나타났다. 이러한 네트워크 장비는 데이터센터 내 수천~수만 대 서버 간 데이터를 빠르게 전송하는 핵심 인프라다. HPE는 네트워크 사업을 미래 성장 축으로 보고 관련 투자를 확대 중이다. 회사는 지난해 약 130억 달러(약 19조 1113억원)를 들여 네트워크 장비 업체 주니퍼 네트웍스를 인수했으며 이를 통해 데이터센터 네트워크 사업 경쟁력을 강화하고 있다. 최근 분기 실적도 견조한 흐름을 보이고 있다. HPE의 회계연도 1분기 매출은 전년 동기 대비 18% 증가한 93억 달러(약 13조 6719억원)를 기록했고 조정 EPS는 0.65달러로 집계됐다. 다만 클라우드·AI 사업 매출은 서버 판매 감소 영향으로 63억 달러(약 9조 2622억원)로 전년 대비 2.7% 줄었다. 회사 측은 메모리 반도체 공급 부족이 당분간 이어질 것으로 보고 가격 정책을 조정하고 있다. 일부 고객 공급을 제한하고 기업 고객이나 국가 단위 클라우드 프로젝트 등 수익성이 높은 사업에 집중하는 전략도 병행하고 있다. 또 각국 정부가 자체 AI 클라우드 구축에 나서면서 관련 계약 수주 경쟁도 치열해지고 있다고 밝혔다. 다만 이같은 프로젝트는 계약 체결과 미국 수출 규제 승인 절차가 길어 실제 매출 반영은 올해 하반기 이후가 될 가능성이 크다는 설명이다. 이번 실적 전망 발표 이후 HPE 주가는 시간외 거래에서 약 2% 상승했다. 안토니오 네리 HPE 최고경영자(CEO)는 "공급망 부족과 비용 인플레이션이 맞물린 역동적인 환경 속에서도 우리는 강력한 실행력을 유지하며 대응하고 있다"고 밝혔다.

2026.03.10 09:47한정호 기자

[유미's 픽] "글로벌 AI SW 기업 되겠다"...LG유플 선언에 LG CNS '예의주시'

"통신과 AX 기술의 솔루션화를 주도하는 AI 중심의 SW 기업이 되겠습니다." 홍범식 LG유플러스 사장이 최근 스페인 바르셀로나에서 열린 MWC26에서 이같이 선언하면서 LG그룹 내 인공지능(AI) 인프라 사업 구도에도 변화가 감지되고 있다. 데이터센터 설계·구축·운영(DBO) 시장 1위 사업자인 LG CNS가 주도해 온 데이터센터·인공지능 전환(AX) 영역에 통신 계열사 LG유플러스가 AI 인프라 사업 확대를 선언하며 사실상 도전장을 내민 모양새다. 9일 업계에 따르면 LG유플러스는 MWC26에서 '원(One) LG' 전략을 기반으로 한 인공지능 데이터센터(AIDC) 사업 확대 계획을 공개했다. 2027년 완공 예정인 경기 파주 AIDC를 중심으로 AI 연산 인프라 사업을 확대하고 데이터센터 운영을 넘어 AI 플랫폼과 서비스까지 사업 범위를 넓히겠다는 구상이다. 파주 AIDC는 약 200MW 규모로 구축되며 최대 12만 개의 그래픽처리장치(GPU)를 수용할 수 있는 대형 AI 데이터센터로 조성될 예정이다. LG유플러스는 데이터센터 운영과 AI 인프라 관리 시스템을 담당하고 냉각과 전력 등 인프라는 LG전자와 LG에너지솔루션 등 계열사 기술을 활용한다는 계획이다. LG CNS 역시 AI 인프라 사업을 핵심 성장 동력으로 삼고 있다. LG CNS는 데이터센터 설계·구축·운영(DBO)을 포함한 인프라 사업을 주요 사업으로 추진하고 있다. 최근에는 컨테이너형 데이터센터 'AI 박스'를 공개하고 GPU 576장을 수용할 수 있는 모듈형 AI 데이터센터 모델을 선보였다. 부산 데이터센터 부지에는 약 50개의 AI 박스를 집적한 'AI 박스 캠퍼스' 구축도 추진 중이다. 해외에서도 AI 데이터센터 사업을 확대하고 있다. LG CNS는 인도네시아 자카르타에서 약 1000억원 규모의 하이퍼스케일급 AI 데이터센터 구축 사업을 수주하고 현지 대기업 시나르마스 그룹과 합작법인을 설립했다. 이 사업 역시 LG전자 냉각 기술과 LG에너지솔루션 배터리 솔루션을 결합한 '원 LG' 방식으로 추진된다. 이처럼 LG유플러스와 LG CNS가 각각 AI 데이터센터와 AI 인프라 사업을 확대하면서 두 회사의 사업 영역은 점차 교차하는 모습이다. 특히 데이터센터 산업에서 설계(Design)·구축(Build)·운영(Operate)을 포함하는 DBO 사업은 통합 인프라 사업으로 분류되는데 양사가 모두 해당 영역을 핵심 사업으로 제시하고 있다. 실제로 양사가 발표한 자료에서도 이러한 흐름이 확인된다. LG CNS는 데이터센터 설계·구축·운영 역량을 중심으로 '원 LG' 전략을 설명하고 있으며, LG유플러스 역시 AI 데이터센터 구축과 운영을 중심으로 같은 전략을 강조하고 있다. 같은 협력 구조를 언급하면서도 사업 중심은 각 회사로 설명하는 방식이다. LG CNS 내부에서는 이러한 흐름을 예의주시하는 분위기다. LG CNS는 데이터센터 설계·구축·운영(DBO) 시장에서 국내 1위 사업자로 꼽힌다. 업계에서는 LG CNS를 선두로 KT클라우드 등이 뒤를 잇는 구조로 평가하고 있다. 이 때문에 통신 계열사인 LG유플러스가 AI 데이터센터 사업 확대를 선언하면서 사실상 같은 인프라 영역에 진입하는 것 아니냐는 시각도 나온다. 업계에선 AI 인프라 시장 확대 과정에서 기존 DBO 강자인 LG CNS에 통신사가 도전하는 구도가 형성되고 있다는 분석도 제기된다. LG그룹은 AI 모델 개발은 LG AI연구원이, 데이터센터 냉각은 LG전자, 전력 인프라는 LG에너지솔루션이 담당하는 방식으로 계열사 협력을 강화하고 있다. 여기에 데이터센터 구축과 운영, AI 인프라 사업을 두고 LG CNS와 LG유플러스가 동시에 사업 확대에 나서면서 그룹 내 사업 경계가 이전보다 복잡해지는 모습이다. 업계에선 이러한 흐름이 통신 산업 구조 변화와 맞물린 현상으로 보고 있다. 이동통신 시장 성장세가 둔화되면서 통신사들이 AI·클라우드·데이터센터 등 인프라 사업으로 영역을 확대하고 있기 때문이다. 실제로 SK텔레콤과 SK AX, KT와 KT DS 등 국내 주요 통신 그룹에서도 통신 계열사와 IT서비스 계열사의 사업 영역이 일부 겹치는 구조가 나타나고 있다. 업계 관계자는 "LG CNS는 국내 DBO 시장에서 가장 많은 데이터센터 구축 경험을 가진 사업자"라며 "AI 데이터센터 시장이 커질수록 통신사와 IT서비스 기업 간 경쟁 구도가 더욱 뚜렷해질 가능성이 있다"고 말했다.

2026.03.09 10:23장유미 기자

"AI 인프라 확대 너무했나"…오라클, 수천명 감원 추진

오라클이 인공지능(AI) 인프라 투자 확대에 따른 재무 부담을 완화하기 위해 수천 명 규모의 인력 감축을 추진하는 것으로 알려졌다. 6일 블룸버그통신에 따르면 오라클은 이르면 이달부터 여러 사업 부문에서 대규모 구조조정을 단행하는 방안을 검토하고 있는 것으로 전해졌다. AI 도입 확대에 따라 향후 필요성이 줄어들 것으로 판단되는 직무를 중심으로 감원을 추진하고 있는 것으로 파악됐다. 이번 감원은 오라클이 추진 중인 대규모 AI 데이터센터 구축 프로젝트와 밀접한 관련이 있는 것으로 분석된다. 오라클은 최근 오픈AI 등 고객사를 위한 AI 워크로드 처리 인프라 확대에 나서면서 데이터센터 투자 규모를 크게 늘리고 있다. 오라클은 전통적으로 데이터베이스 소프트웨어 기업으로 알려져 있지만 최근 몇 년간 클라우드 사업을 강화하며 AI 인프라 기업으로의 전환을 추진해 왔다. 이를 통해 아마존웹서비스(AWS)와 마이크로소프트(MS) 등 클라우드 시장 선두 업체와 경쟁력을 확보한다는 전략이다. 다만 막대한 선행 투자 비용이 단기적인 재무 부담으로 작용하고 있다. 블룸버그가 집계한 월가 전망에 따르면 AI 데이터센터 투자 확대에 따라 오라클의 현금흐름은 향후 몇 년간 마이너스(−)로 전환될 가능성이 있는 것으로 예상된다. 투자 효과가 본격적으로 나타나는 시점은 2030년 이후로 전망된다. 이에 따라 오라클은 올해 최대 500억 달러(약 66조원)를 채권 및 주식 발행을 통해 조달할 계획이라고 지난달 밝혔다. 구조조정은 채용 정책에도 영향을 미치고 있다. 회사는 최근 내부적으로 클라우드 부문 채용 공고를 재검토하며 사실상 채용 속도를 늦추거나 동결하는 조치를 취한 것으로 전해졌다. 오라클은 지난해 5월 기준 전 세계 약 16만2000명의 직원을 고용하고 있다.블룸버그통신은 "오라클이 AI 클라우드 사업자로 전환을 추진하면서 초기에는 투자자들의 긍정적인 반응을 얻었다"며 "오라클 주가는 2024년 61%, 2025년 20% 상승하며 강세를 보였다"고 설명했다. 하지만 데이터센터 구축 등 AI 투자 비용이 급격히 늘어나면서 시장 분위기가 바뀌었다. 오라클 주가는 2025년 9월 기록한 고점 대비 지난 4일 종가 기준 약 54% 하락했다. 이번 감원 계획 보도가 나온 이후에도 주가는 하락 압력을 받았다. 오라클 주가는 목요일 장중 최대 1.5% 하락해 150.12달러까지 떨어졌다. 오라클뿐 아니라 AI 투자 확대에 따른 비용 부담으로 빅테크 업계 전반에서도 인력 감축 움직임이 확산되고 있다. 마이크로소프트는 지난해 데이터센터와 AI 소프트웨어 투자 확대 속에서 약 1만5000명을 감원했으며 결제 기업 블록(Block)도 최근 직원의 절반에 가까운 규모의 구조조정을 발표했다. 오라클 역시 지난해 9월 공시를 통해 최대 16억 달러 규모의 역대 최대 구조조정 계획을 밝힌 바 있다. 이는 퇴직금 등 비용을 포함한 규모로, 회사 역사상 가장 큰 구조조정이다. 오라클은 다음 주 회계연도 3분기 실적 발표를 앞두고 있다. 블룸버그통신은 "이번 구조조정은 오라클이 통상적으로 진행해온 상시적인 소규모 인력 감축보다 훨씬 광범위한 수준이 될 것"이라며 "최근 내부적으로 클라우드 사업 부문의 채용 공고 상당수를 재검토하기로 결정하면서 채용 속도를 늦추거나 사실상 동결하는 조치를 취한 것으로 알고 있다"고 말했다.

2026.03.06 11:15장유미 기자

중동 전쟁에 LNG 운임 상승…AI 데이터센터 업계 '전력비 변수' 주시

중동 전쟁 여파로 액화천연가스(LNG) 운임이 상승하면서 전력비 부담 가능성이 제기되는 가운데, 전력 소비가 큰 인공지능(AI) 데이터센터 업계가 상황을 예의주시하고 있다. 당장 운영 차질은 없지만 전력 가격 변동이 장기화될 경우 데이터센터 운영 비용에 영향을 줄 수 있다는 관측이 나온다. 5일 업계에 따르면 최근 중동 정세 불안으로 LNG 운임이 상승하면서 전력 시장에도 변수로 작용할 가능성이 제기되고 있다. AI 데이터센터는 일반 서버보다 훨씬 많은 전력을 소비하는 구조로 전력 가격 변동에 민감하기 때문이다. 실제 세계 최대 LNG 거점 중 하나인 카타르 라스라판 가동 중단 여파로 LNG선 단기 운임은 약 20% 상승한 것으로 알려졌다. 가스 도입 가격이 오르면 국내 전력 도매가격(SMP) 상승으로 이어질 수 있어 전기요금 인상 압박 요인이 될 수 있다는 분석이다. 여기에 중동 전쟁으로 주요 에너지 운송로인 호르무즈 해협을 둘러싼 긴장까지 높아지면서 LNG 운송 비용 변동성도 확대되는 분위기다. 업계에선 이러한 에너지 가격 상승 압력이 장기화될 경우 전력 소비가 많은 AI 데이터센터 운영 비용에도 영향을 줄 수 있다고 보고 있다. AI 데이터센터는 대규모 그래픽처리장치(GPU)와 고성능 서버를 운영해야 하는 만큼 일반 데이터센터보다 전력 소비가 많은 구조다. 다만 현재까지 국내 데이터센터 운영에는 직접적인 영향이 나타나지 않은 상황이다. 주요 통신사와 클라우드 기업들은 서비스 가용성에는 문제가 없으며 상황을 주시하고 있다는 입장이다. 최근 중동 지역에선 클라우드 인프라가 실제 군사 충돌의 영향을 받을 수 있다는 사례도 나오고 있다. 아마존웹서비스(AWS)의 중동 데이터센터가 드론 공격을 받아 일부 서비스 장애가 발생하면서 지정학적 리스크가 디지털 인프라로 확산될 수 있다는 우려가 제기되고 있다. 이에 국내 클라우드 기업들도 중동 사업 리스크 점검에 나선 모습이다. 중동은 최근 AI 인프라와 초대형 데이터센터 투자가 집중되는 지역으로, 지정학적 긴장이 장기화될 경우 일부 IT 인프라 프로젝트 일정에도 변수로 작용할 수 있다는 분석이 나온다. 대표적으로 중동 시장 공략에 나서고 있는 네이버클라우드는 현재 중동 프로젝트 운영에 차질이 없다는 입장이다. 네이버는 사우디아라비아를 중심으로 디지털 트윈과 AI·클라우드 사업을 추진하며 중동을 글로벌 전략 거점 중 하나로 육성 중이다. 회사 측은 중동 지역에 자체 데이터센터 시설을 직접 운영하고 있지는 않으며 현지에는 사무공간 중심 거점만 두고 있어 전쟁의 직접적 영향은 받지 않고 있다. 사우디 아람코 디지털과 협력 중인 메가존클라우드 역시 사업 운영에는 큰 영향이 없다는 입장이다. 앞서 메가존클라우드는 현지 클라우드 및 디지털 전환 사업을 추진하는 등 중동 시장 진출을 확대해 왔다. 현재까지 국내 클라우드 기업들의 데이터센터 운영 및 해외 거점에 대한 직접적인 영향은 확인되지 않고 있다. 다만 에너지 가격 상승이 장기화될 경우 데이터센터 산업 전반의 비용 구조에 영향을 줄 가능성은 배제할 수 없다는 시각도 나온다. 공공과 민간 모두에서 고성능 GPU 중심의 AI 인프라 수요가 빠르게 늘면서 전력 비용이 데이터센터 운영의 핵심 변수로 떠오르고 있어서다. 데이터센터 업계 관계자는 "현재까지 국내 AI 데이터센터 운영에 직접적인 영향은 없지만 LNG 가격 상승이 장기화될 경우 전기요금 상승으로 이어질 가능성이 있는 만큼 상황을 예의주시하고 있다"고 말했다.

2026.03.05 17:41한정호 기자

브로드컴, AI칩 고성장 자신…삼성·SK 메모리 수요 견인

브로드컴이 주문형 인공지능(AI) 반도체 사업 성장세를 자신했다. 구글·오픈AI 등 글로벌 기업들의 자체 AI 가속기 출하량 확대에 따른 효과다. 오는 2027년에는 관련 매출이 연 1000억 달러(약 146조원)에 달할 것으로 내다봤다. 해당 칩에 고대역폭메모리(HBM) 등 고부가 메모리를 공급하는 삼성전자·SK하이닉스도 견조한 수요가 지속될 전망이다. 브로드컴은 4일(현지시간) 회계연도 2026년 1분기(2026년 2월 1일 마감) 매출액 193억 1100만 달러(약 28조원)를 기록했다고 밝혔다. 전년동기 대비 29%, 전분기 대비 7% 증가했다. 특히 AI 반도체 매출은 86억 달러로 전년동기 대비 106%, 전분기 대비 29% 증가했다. 전체 사업군 중 가장 가파른 성장세다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·앤트로픽 등 고객사의 AI 반도체를 위탁 개발하고 있다. 향후 전망도 긍정적이다. 브로드컴은 회계연도 2026년 2분기 AI 반도체 매출액 예상치를 107억 달러로 제시했다. 전년동기 대비 143%, 전분기 대비 27% 증가한 수준이다. 증권가 컨센서스(약 92억 달러) 역시 크게 웃돌았다. 성장세의 주요 배경은 글로벌 기업들의 적극적인 AI 인프라 투자다. 현재 브로드컴은 AI 반도체 사업에서 5개 고객사를 확보한 상황으로, 각 고객사들은 맞춤형 AI 가속기(XPU) 도입을 가속화하고 있다. 최근에는 6번째 고객사도 추가로 확보했다. 특히 브로드컴의 핵심 고객사인 구글의 텐서처리장치(TPU)가 강력한 수요를 보일 것으로 예상된다. TPU는 대규모 학습 및 추론 분야에서 범용 GPU 대비 높은 효율을 보인다. 현재 7세대 칩인 '아이언우드'까지 상용화가 이뤄졌다. 호크 탄 브로드컴 최고경영자(CEO)는 "구글은 물론 메타의 AI 가속기 출하량이 확대될 예정"이라며 "또다른 고객사들도 출하량이 호조세를 보여, 2027년에는 규모가 2배 이상 증가할 것으로 예상한다"고 밝혔다. 그는 이어 "여섯 번째 고객으로 오픈AI가 2027년에 1GW(기가와트) 이상의 컴퓨팅 용량을 갖춘 1세대 AI XPU를 대량으로 도입할 것으로 기대한다"며 "AI XPU 개발을 위한 협력은 다년간 지속될 것임을 강조하고 싶다"고 덧붙였다. 브로드컴의 AI 반도체 매출 확대는 삼성전자·SK하이닉스 등 국내 메모리 기업들의 실적과도 연계된다. 브로드컴이 설계하는 XPU에 HBM 등 고부가 메모리가 탑재되기 때문이다. 올해만 해도 삼성전자, SK하이닉스, 마이크론 3사의 HBM3E 물량 30%가 구글 TPU에 할당될 것으로 알려졌다. 오픈AI 역시 삼성전자, SK하이닉스 메모리 사업의 '큰손' 고객사로 떠오를 전망이다. 앞서 오픈AI는 지난해 하반기 삼성전자·SK하이닉스와 핵심 AI 인프라 구축을 위한 전방위적 협력 체계를 맺은 바 있다. 호크 탄 CEO는 "당사는 오는 2027년 XPU, 스위치 칩 등을 포함한 AI 반도체 매출액이 1000억 달러를 넘어설 것으로 예상하고 있다"며 "이를 달성하는 데 필요한 공급망도 확보했다"고 강조했다.

2026.03.05 17:24장경윤 기자

파네시아, SKT·오픈칩과 CXL 동맹…차세대 AI 데이터센터 공략

국내 인공지능(AI) 인프라 링크 솔루션 기업 파네시아가 세계 최대 이동통신 전시회 'MWC26' 현장에서 국내외 대형 파트너들과 손잡고 차세대 AI 데이터센터(DC) 시장 공략에 속도를 낸다. 파네시아는 현지시간 4일 SK텔레콤과 'CXL 기반 차세대 AI DC 아키텍처' 공동 개발을 위한 전략적 파트너십을 체결한 데 이어, 5일에는 유럽의 시스템 반도체 기업 오픈칩과 AI/HPC 인프라 기술 협력 MOU를 맺었다고 밝혔다. SKT와 '서버 틀' 깨는 CXL 기반 연결 구조 혁신 파네시아와 SK텔레콤은 대규모 AI 서비스 구동을 위한 천문학적인 그래픽처리장치(GPU) 도입 비용 문제를 해결하기 위해 '연결 구조의 혁신'에 주목했다. 양사는 단순한 장비 증설 대신 컴퓨트 익스프레스 링크(CXL) 기술을 활용해 기존 컴퓨팅 자원 효율을 극대화하는 방안을 제시한다. 기존 AI DC는 CPU·GPU·메모리가 서버 단위로 고정돼 있어 특정 자원이 남아도 다른 서버에서 쓸 수 없었다. 양사는 이를 해결하기 위해 자원을 종류별로 분리한 뒤, 랙 단위에서 CXL 패브릭 스위치로 연결해 하나의 통합 시스템처럼 운영하는 구조를 설계한다. 기존 이더넷 기반 네트워크 전송 과정에서 발생하는 데이터 복사와 지연 시간을 줄이기 위해 모든 자원에 '링크 컨트롤러'를 통합하는 방안도 추진한다. 링크 컨트롤러는 장치 간 효율적 데이터 전송을 돕는 전자부품으로, CPU∙GPU∙AI 가속기∙메모리에 통합되어 해당 장치가 CXL을 기반으로 통신할 수 있도록 지원한다. 이를 통해 복잡한 소프트웨어 개입 없이 메모리 접근 동작만으로 데이터를 고속 전송해 연산 효율을 높인다는 전략이다. 유럽 오픈칩과 'RISC-V 가속기' 생태계 확장 파네시아는 유럽 AI 가속기 설계 기업인 오픈칩과도 손을 잡았다. 오픈칩은 스페인 바르셀로나에 본사를 둔 기업으로, RISC-V 기반 가속기와 풀스택 소프트웨어 포트폴리오를 보유하고 있다. 양사는 AI/HPC 환경에서 요구되는 성능과 확장성을 확보하기 위해 링크 아키텍처 고도화 방안을 논의했다. 특히 오픈칩의 RISC-V 기반 가속기에 파네시아 첨단 링크 기술을 결합해, 데이터 이동의 고질적 병목 현상을 해결하고 유럽 내 디지털 주권 강화를 위한 고성능 인프라 구축에 협력할 계획이다. 정석근 SK텔레콤 AI CIC장은 “이번 협력은 데이터 흐름의 병목인 '메모리 월'을 완화해 AI DC의 성능과 경제성을 동시에 끌어올릴 것”이라고 평가했다. 세스크 구임 오픈칩 최고경영자(CEO)는 “파네시아와의 협력은 확장 가능하고 효율적인 AI 인프라 구축에 필수적인 절차”라고 강조했다. 정명수 파네시아 대표는 “차세대 AI 인프라는 개별 장비의 성능이 아니라 다양한 링크 반도체가 만들어내는 '구조'가 성패를 좌우한다”며 “SK텔레콤, 오픈칩 등 글로벌 파트너들과 함께 고효율 AI 데이터센터의 표준 모델을 제시하고 생태계를 지속 확장하겠다”고 밝혔다. 한편 파네시아와 SK텔레콤은 실제 AI 모델을 활용해 GPU·메모리 활용률 등을 검증한 뒤, 올 연말까지 차세대 AI 데이터센터 구조를 공개할 예정이다.

2026.03.05 15:54전화평 기자

데이터센터 밖으로 확장된 AI…서버 업계, '엣지 AI' 경쟁 가속

인공지능(AI) 인프라의 중심이 데이터센터에서 현장으로 이동하고 있다. 생성형 AI 확산으로 대규모 모델 학습뿐 아니라 실시간 추론 수요가 빠르게 증가하면서 제조 현장, 매장, 통신 기지국 등 데이터가 생성되는 장소에서 바로 AI를 활용하는 '엣지 AI'가 차세대 인프라로 떠오르고 있다. 5일 업계에 따르면 글로벌 서버 기업들은 데이터센터 중심의 기존 AI 인프라 전략을 넘어 제조·리테일·통신·로봇 등 산업 현장에서 AI 연산을 처리하는 엣지 인프라 구축 경쟁에 속도를 내고 있다. 특히 델 테크놀로지스, HPE, 슈퍼마이크로 등 주요 서버 기업들이 엣지 환경에서 AI 추론을 수행할 수 있는 특화 서버와 네트워크 솔루션을 잇달아 선보이며 시장 공략에 나서고 있다. 엣지 AI는 데이터를 중앙 데이터센터로 보내 처리하는 대신 데이터가 생성되는 현장에서 즉시 분석과 의사결정을 수행하는 방식이다. 실시간 처리가 필요한 산업에서 지연 시간을 줄이고 네트워크 비용을 낮출 수 있다는 점에서 스마트팩토리·리테일·자율주행·로봇 등 다양한 산업에서 활용 가능성이 주목받고 있다 포춘비즈니스인사이트 등 주요 시장조사업체에 따르면 글로벌 엣지 AI 시장 규모는 2024년 약 200억 달러(약 29조원) 수준에서 2030년 1천억 달러(약 146조원)로 연평균 20% 이상 성장할 전망이다. 서버 기업들은 이같은 흐름에 맞춰 엣지 환경에 최적화된 AI 인프라를 잇따라 내놓고 있다. 델 테크놀로지스는 최근 실외 환경에서도 AI 워크로드를 처리할 수 있는 서버 '파워엣지 XR9700'을 공개하며 엣지 AI 시장 공략을 강화했다. 해당 서버는 전신주나 옥상 등 외부 환경에서도 설치할 수 있도록 설계됐으며 통신 기지국과 원격지에서 클라우드 무선 접속망(RAN)과 엣지 AI 애플리케이션을 직접 실행할 수 있도록 지원한다. HPE 역시 엣지 인프라 전략을 강화하고 있다. MWC26에서 'HPE 프로라이언트 컴퓨트 EL9000 섀시'와 'EL140 젠12 서버' 기반 AI 인프라를 공개하며 코어 데이터센터부터 통신 기지국 등 엣지 환경까지 AI 워크로드를 처리하는 플랫폼을 제시했다. 해당 솔루션은 통신사와 서비스 사업자가 증가하는 AI 트래픽을 처리하고 엣지 환경에서 AI 서비스를 제공할 수 있도록 설계된 것이 특징이다. 슈퍼마이크로도 통신 네트워크와 결합한 엣지 AI 인프라 확대에 나섰다. 회사는 AI-RAN을 지원하는 서버 시스템을 공개하고 노키아·SK텔레콤 등 글로벌 통신사와 협력해 통신망에서 AI 워크로드를 처리하는 분산형 인프라 활용 사례를 선보였다. 이 시스템은 그래픽처리장치(GPU) 기반 AI 서버를 활용해 엣지 AI를 위한 네트워크 최적화와 자동화를 지원한다. 글로벌 네트워크 기업들도 엣지 AI 경쟁에 뛰어들고 있다. 시스코는 분산형 AI 환경을 지원하기 위한 '유니파이드 엣지' 플랫폼을 공개하며 컴퓨팅·네트워킹·스토리지·보안을 하나의 인프라로 통합했다. 데이터가 생성되는 지점에서 실시간 AI 추론을 수행하는 분산형 AI 환경을 구현한다는 전략이다. 클라우드 기업 역시 AI 추론을 엣지로 확장하는 움직임을 보이고 있다. 대표적으로 아카마이는 엔비디아 AI 인프라를 기반으로 한 '인퍼런스 클라우드'를 공개하며 데이터센터에서 인터넷 엣지까지 AI 추론을 확장하는 분산형 AI 플랫폼 구축에 나서고 있다. 스마트 커머스와 실시간 금융 의사결정, 산업용 로봇 등 다양한 AI 서비스에 대응한다는 계획이다. 업계에선 엣지 AI가 향후 피지컬 AI 확산을 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 공장 자동화와 자율주행, 로봇 등 물리 세계와 연결된 AI 서비스는 밀리초 단위의 실시간 데이터 처리 능력이 요구되기 때문이다. 이에 기존 데이터센터 중심 AI 인프라와 함께 산업 현장과 초고속 네트워크 환경에 맞춤화된 분산형 엣지 AI 인프라 역시 성장할 것이라는 전망이 나온다. 데이터센터 업계 관계자는 "AI 산업이 모델 학습 중심에서 실제 서비스와 산업 적용 단계로 넘어가면서 데이터가 생성되는 현장에서 AI를 처리하는 엣지 인프라가 주목받고 있다"며 "향후 스마트팩토리와 로봇, 자율주행 등 피지컬 AI 확산과 함께 엣지 AI 서버 시장도 성장할 것"이라고 말했다.

2026.03.05 14:12한정호 기자

10조원대 비트코인 쏟아지나…채굴업계, AI 붐에 '데이터센터' 전환 가속

인공지능(AI) 데이터센터 수요가 급증하면서 비트코인 채굴업체들이 보유하던 대규모 비트코인을 매각하고 AI 사업으로 전환하는 움직임이 빨라지고 있다. 4일(현지시간) 블룸버그통신에 따르면 채굴업체들이 보유한 비트코인 규모만 80억 달러(약 10조원) 이상에 달하는 가운데 일부 기업들은 최근 이를 현금화해 AI 인프라 투자에 활용하는 분위기다. 그동안 주요 비트코인 채굴기업들은 채굴한 코인을 장기간 보유하는 이른바 '트레저리 전략(treasury strategy)'을 유지해왔다. 비트코인의 희소성이 장기적으로 가격 상승을 이끌 것이라는 기대에 따라 기업 재무제표에 대규모 코인 보유분을 쌓아두는 방식이다. 그러나 최근 들어 일부 채굴기업들이 보유 물량을 매각하기 시작하면서 업계 전략에도 변화가 감지되고 있다. 시장에서는 채굴업체들이 보유한 비트코인 가운데 상당 부분이 AI 데이터센터 구축 자금으로 이동하고 있는 것으로 보고 있다. 대형 채굴시설이 갖춘 저렴한 전력 접근성과 대규모 서버 운영 경험이 AI 데이터센터 인프라와 구조적으로 유사하기 때문이다.업계 관계자는 "채굴업체들이 기존 설비와 전력 인프라를 활용해 AI 데이터센터 사업자로 변신하려는 움직임이 확산되고 있다"고 분석했다. 실제로 주요 채굴기업들은 AI 사업 확대에 속도를 내고 있다. 비트코인 보유량 기준으로 마이클 세일러의 스트래티지 다음으로 많은 비트코인을 보유한 마라 홀딩스(MARA Holdings)는 약 40억 달러 규모의 비트코인 보유분 일부를 매각할 가능성을 열어두며 전략 수정에 나섰다. 클린스파크와 라이엇 플랫폼스도 경영진 개편을 통해 AI 데이터센터 사업 전환을 가속하고 있다. 비트디어 테크놀로지스는 보유 비트코인을 전량 매각하고 AI 사업에 집중하는 전략을 택했다. 채굴업체들이 AI 사업으로 눈을 돌리는 이유는 수익 구조의 차이에 있다. 비트코인 채굴은 토큰 가격, 네트워크 난이도, 반감기 등 여러 변수에 따라 수익이 크게 변동한다. 반면 AI 연산 서비스는 장기 계약 기반의 안정적인 매출을 확보할 수 있어 수익 예측 가능성이 높다는 평가다. 캐나다 데이터센터 기업 비트제로에 투자한 케빈 오리어리 창립자는 "만약 비트코인 채굴 기업이 채굴 장비를 모두 제거하고 대형 클라우드 기업에 AI 데이터센터를 임대한다고 발표한다면 주가가 5배까지 상승할 수도 있다"며 "비트코인 수요가 줄어든다는 의미가 아니라 더 높은 수익을 낼 수 있는 사업이 있기 때문"이라고 말했다. 채굴업체들의 비트코인 매각 움직임은 최근 약세를 보이고 있는 암호화폐 시장의 불안 심리를 키우고 있다. 비트코인 가격은 지난해 10월 사상 최고가를 기록한 약 12만6000달러 대비 40% 이상 하락한 상태다. 다만 업계에서는 이번 매각이 과거처럼 운영비 충당을 위한 것이 아니라 전략적 사업 재편의 성격이 강하다고 보고 있다. JP모건 분석가들은 최근 보고서에서 "채굴기업들의 실적 발표에서는 대부분 AI 고성능 컴퓨팅(HPC) 계약 체결과 데이터센터 건설 진행 상황이 핵심 논의 주제가 되고 있다"고 설명했다. 투자자들의 압력도 사업 전환을 가속화하는 요인으로 꼽힌다. 미국 텍사스에 대형 채굴 시설을 보유한 라이엇 플랫폼스는 행동주의 투자자 스타보드로부터 AI 프로젝트 확대 요구를 받고 있는 것으로 알려졌다. 업계에선 전력 인프라를 기반으로 한 채굴기업들의 AI 전환이 향후 관련 산업 구조에도 영향을 미칠 것으로 보고 있다. 매튜 킴멜 코인셰어즈 디지털자산 분석가는 "비트코인 채굴기업들이 AI 사업으로 전환할 때의 가치는 전력 확보 능력과 장기 컴퓨팅 계약에서 나온다"며 "이 수익 구조는 비트코인 가격 변동과의 연관성이 낮아 공모시장 투자자들에게 더 매력적으로 평가되고 있다"고 말했다.

2026.03.05 10:14장유미 기자

LG CNS, 그룹 기술 결집한 소형 데이터센터 'AI 박스' 공개…글로벌 공략

LG CNS가 LG그룹 계열사와 기술력을 결집한 컨테이너형 인공지능(AI) 데이터센터 'AI 박스'를 선보이며 글로벌 AI 인프라 시장 공략에 나선다. LG CNS는 컨테이너 하나에 그래픽처리장치(GPU) 576장을 수용할 수 있는 AI 박스를 출시했다고 5일 밝혔다. AI 박스는 별도의 건물을 신축하지 않고 컨테이너형 모듈을 연결하는 방식으로 구축되는 소형 AI 데이터센터다. 전통적인 데이터센터 구축에 약 2년이 걸리는 것과 달리 약 6개월 만에 구축이 가능해 AI 인프라 수요에 빠르게 대응할 수 있다는 점이 특징이다. 모듈형 구조를 적용해 확장성도 확보했다. 단일 컨테이너 단위로 운영할 수 있을 뿐 아니라 수십 개의 컨테이너를 단계적으로 결합해 하이퍼스케일급 AI 데이터센터로 확장할 수 있다. 고객은 초기 투자 부담을 줄이면서도 필요에 따라 인프라 규모를 유연하게 확대할 수 있다는 설명이다. AI 박스는 LG CNS의 데이터센터 설계·구축·운영(DBO) 역량과 LG 계열사의 기술력을 결합한 '원(One) LG' 기반 AI 데이터센터 모델이다. LG CNS는 약 40년간 축적한 데이터센터 설계·구축·운영 경험을 바탕으로 AI 플랫폼과 전력·냉각 인프라, IT 장비를 통합 설계했다. 특히 LG전자의 냉각수 분배 장치(CDU)와 항온항습기, 냉동기 등 냉각 설비와 LG에너지솔루션의 UPS용 배터리를 패키지 형태로 적용해 고전력·고밀도 AI 환경에 최적화된 전력·냉각 인프라를 구현했다. AI 박스는 전력 인프라를 담당하는 무정전전원장치(UPS)·변압기·수배전반 등 전기실과 IT 장비 운영 공간인 전산실로 구성된다. 외부에는 발전기와 배터리실, 냉동기를 갖춰 안정적인 전력 공급과 효율적인 열 관리를 지원한다. AI 박스 1개당 서버 전력은 1.2메가와트(MW) 규모로 최대 576장의 GPU를 수용할 수 있다. AI 데이터센터 수요가 빠르게 증가하는 상황에서 AI 박스는 구축 기간과 인프라 확보 문제를 해결할 수 있는 대안으로 주목받고 있다. 기존 대형 데이터센터는 부지 확보와 인허가, 전력·냉각 설계 등에 시간이 오래 걸려 급증하는 AI 인프라 수요에 신속히 대응하기 어려웠다는 한계가 있었다. LG CNS는 첫 번째 AI 박스를 부산 글로벌 클라우드 데이터센터 부지에 구축할 계획이다. 향후 약 2만 7179㎡(약 8221평) 부지에 약 50개의 AI 박스를 집적한 대규모 'AI 박스 캠퍼스'를 조성해 국내 AI 인프라 수요에 대응할 방침이다. 시장조사업체 포춘 비즈니스 인사이트에 따르면 글로벌 AI 데이터센터 시장 규모는 2030년까지 약 700조원 규모로 성장할 전망이다. LG CNS는 AI 박스를 통해 설계·구축·운영을 아우르는 데이터센터 DBO 역량을 강화하고 AI 인프라 패키지 사업자로 도약한다는 목표다. 조헌혁 LG CNS 데이터센터사업담당 상무는 "AI 서버부터 전력·냉각·운영까지 통합 제공하는 AI 박스는 데이터센터 사업의 새로운 패러다임을 이끌어 갈 것"이라며 "국내 시장의 성공 사례를 바탕으로 동남아시아, 북미 등 글로벌 시장으로 사업을 확대해 나가겠다"고 말했다.

2026.03.05 10:00한정호 기자

SK하이닉스, HBM4 '성능 점프' 비책 짰다…新패키징 기술 도입 추진

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) SK하이닉스가 고대역폭메모리(HBM)용 패키징 기술 변혁을 꾀한다. 대대적인 공정 전환 없이 HBM의 안정성과 성능을 강화할 수 있는 기술을 고안해, 현재 검증을 진행 중인 것으로 파악됐다. 실제 상용화가 이뤄지는 경우, 엔비디아가 요구하는 HBM4(6세대)의 최고 성능 달성은 물론 차세대 제품에서의 성능 강화도 한층 수월해질 것으로 예상된다. 이에 해당 기술의 성패에 업계의 이목이 쏠린다. 3일 지디넷코리아 취재를 종합하면 SK하이닉스는 HBM 성능 강화를 위한 새로운 패키징 기술 적용을 추진하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, 실리콘관통전극(TSV)를 뚫어 연결한 메모리다. 각 D램은 미세한 돌기의 마이크로 범프를 접합해 붙인다. HBM4의 경우 12단 적층 제품부터 상용화된다. SK하이닉스는 현재 HBM4의 초도 양산을 시작했다. HBM4의 리드타임(제품 양산, 공급에 필요한 전체 시간)이 6개월 내외인 만큼, 엔비디아와의 공식적인 퀄(품질) 테스트 마무리에 앞서 선제적으로 제품을 양산하는 개념이다. HBM4 공급은 문제 없지만…최고 성능 구현 고심 그간 업계에서는 SK하이닉스 HBM4의 성능 및 안정성 저하를 우려해 왔다. 엔비디아가 HBM4의 최대 성능(핀 당 속도)을 당초 제품 표준인 8Gbps를 크게 상회하는 11.7Gbps까지 요구하면서, 개발 난이도가 급격히 상승한 탓이다. 실제로 SK하이닉스 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 어려움을 겪어, 올해 초까지 일부 회로의 개선 작업을 거쳐 왔다. 이에 따라 본격적인 램프업(대량 양산) 시점도 당초 업계 예상보다 일정이 늦춰진 상황이다. 다만 업계 이야기를 종합하면, SK하이닉스가 엔비디아향 HBM4 공급에 큰 차질을 겪을 가능성은 현재로선 매우 낮은 수준이다. 주요 배경은 공급망에 있다. 엔비디아가 HBM4에 높은 사양을 요구하고 있긴 하지만, 이를 고집하는 경우 올 하반기 최신형 AI 가속기 '루빈'을 충분히 공급하는 데 제약이 생길 수 있다. 현재 HBM4에서 가장 좋은 피드백을 받고 있는 삼성전자도 수율, 1c D램 투자 현황 등을 고려하면 당장 공급량을 확대하기 어렵다. 때문에 업계는 엔비디아가 초기 수급하는 HBM4의 성능 조건을 10Gbps대로 완화할 가능성이 유력하다고 보고 있다. 반도체 전문 분석기관 세미애널리시스는 최근 보고서를 통해 "엔비디아가 루빈 칩의 총 대역폭을 당초 22TB/s로 목표했으나, 메모리 공급사들은 엔비디아의 요구 사항을 충족하는 데 어려움을 겪고 있는 것으로 파악된다"며 "초기 출하량은 이보다 낮은 20TB/s(역산하면 HBM4 핀 당 속도가 10Gbps급)에 가까울 것으로 예상한다"고 밝혔다. 반도체 업계 관계자는 "HBM 공급망은 단순 속도가 아니라 수율·공급망 안정성 등 어려 요소가 고려돼야 하기 때문에, SK하이닉스가 가장 많은 물량을 공급할 것이라는 전망은 여전히 유효하다"며 "다만 최고 성능 도달을 위한 개선 작업도 지속적으로 병행하는 등 기술적으로 안주할 수 없는 상황"이라고 말했다. HBM 성능 한계 돌파할 '신무기' 준비…현재 검증 단계 이와 관련, 현재 SK하이닉스는 HBM4 및 차세대 제품에 적용하는 것을 목표로 새로운 패키징 공법 도입을 시도하고 있다. 업계가 지목하는 HBM4 성능 제약의 가장 큰 요인은 입출력단자(I/O) 수의 확장이다. I/O는 데이터 송수신 통로로, HBM4의 경우 이전 세대 대비 2배 증가한 2048개가 구현된다. 그런데 I/O 수가 2배로 늘면 밀집된 I/O끼리 간섭 현상이 발생할 수 있다. 또한 전압 문제로 하부층의 로직 다이(HBM 밑에서 컨트롤러 역할을 담당하는 칩)에서 가장 높은 상부층까지 전력이 충분히 전달되기가 어렵다. 특히 SK하이닉스는 주요 경쟁사인 삼성전자 대비 한 세대 이전의 1b(5세대 10나노급) D램을 채용한다. 로직 다이도 TSMC의 12나노미터(nm) 공정으로, 삼성전자(삼성 파운드리 4나노) 대비 집적도가 낮다. 때문에 기술적으로 I/O 수 증가에 따른 문제에 취약하다. 대대적 공정 전환 없이 HBM 성능·안정성 향상…상용화 여부 주목 이에 SK하이닉스는 새로운 패키징 공법으로 새로운 비책을 마련하고 있는 것으로 파악됐다. 핵심은 ▲코어 다이 두께 향상, 그리고 ▲D램 간 간격(Gap) 축소다. 우선 일부 상부층 D램의 두께를 이전보다 두껍게 만든다. 기존엔 HBM4의 패키징 규격(높이 775마이크로미터)을 맞추기 위해 D램의 뒷면을 얇게 갈아내는 씨닝 공정이 적용된다. 다만 D램이 너무 얇아지면 칩 성능이 저하되거나 외부 충격에 쉽게 손상을 받을 수 있다. 때문에 SK하이닉스는 D램의 두께 향상으로 HBM4의 안정성을 강화하려는 것으로 풀이된다. 또한 D램 간 간격을 더 줄여, 전체 패키징 두께가 늘어나지 않도록 하는 동시에 전력 효율성을 높였다. 각 D램의 거리가 가까워지면 데이터가 더 빠르게 도달하게 되고, D램 최상층으로 전력이 도달하는 데 필요한 전력이 줄어들게 된다. 관건은 구현 난이도다. D램 간 간격이 줄어들면 MUF(몰디드언더필) 소재를 틈에 안정적으로 주입하기 힘들어진다. MUF는 D램의 보호재·절연체 등의 역할을 담당하는 소재로, 고르게 도포되지 않고 공백(Void)가 생기면 칩의 불량을 야기할 수 있다. SK하이닉스는 이를 해결할 수 있는 새로운 패키징 기술을 고안해냈다. 구체적인 사안은 밝혀지지 않았으나, 대대적인 공정 및 설비 변화 없이 D램 간격을 안정적인 수율로 줄일 수 있는 것이 주 골자다. 최근 진행된 내부 테스트 결과 역시 긍정적인 것으로 알려졌다. 만약 SK하이닉스가 해당 기술을 빠르게 상용화하는 경우, HBM4 및 차세대 제품에서 D램 간격을 효과적으로 줄일 수 있을 것으로 예상된다. 반대로 해당 기술이 양산 적용에 난항을 겪을 가능성도 남아 있다. 사안에 정통한 관계자는 "SK하이닉스가 기존 HBM의 한계를 극복하기 위한 새로운 패키징 공법을 고안해, 현재 검증 작업을 활발히 거치고 있다"며 "대규모 설비투자 없이 HBM 성능을 개선할 수 있기 때문에 상용화 시에는 파급 효과가 적지 않을 것"이라고 설명했다.

2026.03.03 14:29장경윤 기자

[기고] 피지컬 AI 시대 지속 가능한 데이터센터 진화 전략

2026년 현재 아시아·태평양 지역은 전 세계 디지털 전환의 가장 뜨거운 중심지로 자리매김했다. 특히 한국은 지난해 10월 아태경제협력체(APEC) 계기로 엔비디아·아마존웹서비스(AWS) 등 글로벌 기업의 그래픽처리장치(GPU) 공급 계획과 데이터센터 투자 유치가 가시화되며 인공지능(AI) 인프라 경쟁에서 유리한 위치를 선점했다. 국내 디지털 인프라 양적 확대뿐 아니라 운영 효율·안정성·지속가능성 중심으로 인프라 혁신을 가속하고 있다. 현재 AI 산업은 생성형 AI을 넘어 제조·물류·로보틱스 등 현실 세계로 뻗어가는 '피지컬 AI'로 나아가고 있으며, 산업 전반에서 수요가 급증할 것으로 예상된다. 이번 CES 2026에서 리사 수 AMD 최고경영자(CEO)는 '요타 스케일 컴퓨팅 시대'를, 젠슨 황 엔비디아 CEO는 앞으로 수년 동안 AI 인프라 경쟁 분수령이 될 것임을 시사했다. AI 시대를 가능하게 하는 핵심 인프라는 단연 데이터센터다. 다만 데이터센터를 단순히 '서버가 있는 건물'로만 보면 그 본질을 놓치기 쉽다. AI 데이터센터는 고집적 GPU 클러스터가 만들어내는 전력·열공학 시스템에 가깝다. 랙 당 소비전력이 커질수록 설비 중심은 서버룸과 변전·배전, UPS, 발전기, 공조시스템이 결합된 플랜트로 진화한다. 한국IDC에 따르면 국내 데이터센터 전력 수요는 2028년까지 연평균 11% 성장해 6기가바이트(GW)를 상회할 전망이다. 문제는 이 같은 전력 수요의 급증이 단순히 전기를 더 쓰는 문제로 끝나지 않는다는 점이다. 전력 사용량 증가는 탄소 배출과 직결되기 때문이다. 데이터센터는 AI 확산 기반이자 지속가능성 시험대가 된다. 데이터센터 전망에 우려만 있는 것은 아니다. 데이터센터 운영사들은 명확한 로드맵을 바탕으로 환경적 책임을 경쟁력으로 전환하고 있다. 실례로 STT GDC는 2030년 탄소중립 달성을 목표로 글로벌 데이터센터 운영 전력 78% 이상을 재생에너지로 충당하며 지속가능한 운영 전환을 실행하고 있다. 싱가포르는 비상발전 연료 일부를 기존 경유 대신 탄소 배출을 90% 절감하는 수소화 식물성 기름(HVO)으로 전환했다. AI 기반 데이터센터 운영 제어 시스템 파일럿 프로젝트를 통해 에너지 소비를 최대 30% 절감하는 성과를 기대하고 있다. 이는 지속가능성이 선언에 그치지 않고 측정가능한 운영 혁신으로 구현될 수 있음을 보여준다. 이런 변화는 운영사 과제만이 아니다. AI 에코시스템에 속한 기업들도 같은 방향으로 향하고 있다. 반도체 제조사의 아키텍쳐 효율, 클라우드 서비스사들의 액체 냉각 솔루션 개발, 정책·조달 기준의 탄소 요구가 맞물리며, 환경 우려가 곧 지속 가능성을 위한 혁신의 촉매가 되는 선순환으로 이어지는 움직임을 보이고 있다. 실제 엔비디아는 CES 2026에서 전 세대 대비 에너지 효율을 2배 향상시킨 차세대 GPU 아키텍처 '베라 루빈 NVL72'를 선보이며 저전력 고효율 연산 시대를 본격화했다. 구글과 마이크로소프트도 액체 냉각 솔루션, 마이크로플루이딕스(microfluidics)와 같은 냉각 방식을 채택하며 전력 사용 전력 사용 감소를 위해 노력하고 있다. 액체 냉각 방식은 공랭식 대비 50% 이상의 냉각 전력을 절감할 수 있어, 전력 효율·탄소 배출 개선을 위한 핵심 기술로 주목받고 있다. AI가 가져올 편리함과 경제적 효과에 대한 기대에 반해 데이터센터의 전력·탄소 부담에 대한 우려라는 상반된 시각이 공존한다. 그러나 고효율 연산, 액체 냉각, AI 기반 운영 고도화가 확산하면 전력·열·탄소·운영을 동시에 최적화하는 에너지 효율적이고 안정적인 에코시스템을 구축할 수 있다. 관건은 인프라 확장과 함께 효율과 책임을 설계 기준과 운영 핵심성과지표(KPI)에 내재화하고 끝까지 이행하는 실행력이다. 이를 실천한다면 데이터센터는 AI 경제의 심장으로서 환경 우려를 지속가능한 혁신의 동력으로 전환하며 미래를 떠받치는 견고한 기반이 될 것이다.

2026.03.03 10:34허철회 STT GDC 코리아 대표 컬럼니스트

한전, 지난해 영업이익 13.5조…부채·차입금 206조·130조 여전

한국전력(대표 김동철)은 2025년 결산 결과, 매출액은 전년대비 4.3% 증가한 97조4345억원, 영업비용은 1.3% 감소한 83조9097억원을 기록했다고 26일 밝혔다. 영업이익은 전년보다 5조1601억원 증가한 13조5248억원으로 집계됐다. 연결기준 재무현황을 보면, 전기판매량이 0.1% 감소했으나 판매단가는 전년보다 4.6% 상승해 전기판매수익이 4조1148억원 증가한 93조46억원을 기록했다. 자회사 연료비는 원전, LNG 등 자회사 발전량 감소와 연료가격 하락으로 3조1014억원 감소한 19조4364억원, 민간발전사 구입전력비는 구입량 증가에도 전력도매가격(SMP) 하락 등으로 6072억원 감소한 34조527억원으로 나타났다. 또 자구노력의 일환으로 전력계통 불안정시 신속한 계통안정을 위해 사전에 계약된 고객부하를 긴급차단하는 '고객참여 부하차단 제도' 시행으로 4026억원을 절감했다. 기타영업비용은 자회사 해외사업비용이 1조4161억원 증가하고, 발전 및 송배전 설비 자산 증가에 따라 감가상각비와 수선유지비가 6528억원 증가하는 등 2조5841억원 증가했다. 한전은 그러나 이같은 영업이익에도 연결기준 206조원의 부채와 130조원에 이르는 차입금이 남아있어, 하루 이자비용으로만 119억원을 부담하고 있다. 별도 재무제표 기준으로 살펴보면, 매출액 95조5362억원, 영업비용 86조9962억원, 영업이익은 전년 대비 5조3733억원 증가한 8조5400억원을 기록했다. 이는 2024년 10월 요금 조정 등의 영향으로 매출액이 3조8896억원 증가했고, 영업비용은 연료가격 안정과 재정 건전화 계획의 충실한 이행 노력(2025년 3조6000억원) 등의 영향으로 1조4837억원 감소했기 때문이다. 한전은 지난해 고객참여 부하차단 제도 시행·미세먼지 계절관리제 탄력운영 등으로 1조3천억원의 구입전력비를 절감했고 인공지능(AI)을 활용한 자산관리시스템(AMS) 고도화로 설비 유지보수를 효율화하고, 최적 설계를 통한 공사비용 절감 등으로 사업비 등을 9000억원 낮췄다. 또 건설사업 공정 관리와 투자사업 시기 조정 등을 통해 5000억원을 절감했다. 시설부담금 현실화 등 영업제도를 개선하고 비핵심 자산 매각 등으로 9000억원의 전기요금 외 수익을 창출했다. 다만, 별도기준으로 2021~2023년 연료비 급등으로 인한 누적 영업 적자 47조8000억원 가운데 36조1000억원이 여전히 해소되지 않고 있고, 부채는 118조원(부채비율 444%), 차입금 잔액은 84조9000억원에 달해 하루 이자비용만 72억원을 부담하고 있다. 한전 관계자는 “실적 개선을 바탕으로 차입금 이자지급과 원금상환 등을 통해 재무건전성 회복에 힘쓰고 있다”며 “특히 재생에너지 확대와 AI·데이터센터 등 첨단산업 전력 수요 증가에 충실히 대응하기 위해 미래 투자에도 매진할 계획”이라고 밝혔다. 한전은 매년 10조원 규모로 송배전망에 투자하는 등 20조원 이상의 추가자금 소요가 발생하고 있어, 국가 핵심 산업에 안정적인 전력공급을 위한 투자를 적기에 추진하기 위해 재무개선이 필요하다고 보고 지속해서 구입전력비 절감을 위한 전력시장 제도 개선과 고강도 자구노력을 추진하고, 다각적인 재원 조달 방안 등을 마련해 나갈 계획이다. 또 계절별·시간대별 요금제 개편·지역별 요금 도입 등 산업계 부담을 고려한 합리적인 요금체계 개편 추진을 검토하고, 재생에너지 연계와 AI·데이터센터 등 첨단산업 육성에 필수적인 국가 전력망 적기 구축에 모든 역량을 집중한다는 방침이다.

2026.02.27 02:11주문정 기자

[현장] "GPU 개수 경쟁 끝났다"…엔비디아가 제시한 '수직 통합' AI 인프라

"그래픽처리장치(GPU) 몇 장을 도입할지 경쟁하는 시대는 지났습니다. 이제는 기업 전체 구조를 다시 설계하는 단계로 들어섰습니다." 정구형 엔비디아 코리아 팀장은 26일 서울 마곡 사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 애플리케이션부터 데이터센터, 전력까지 아우르는 차세대 AI 인프라 청사진을 제시했다. 정 팀장은 AI 인프라를 ▲애플리케이션 ▲모델 ▲AI 플랫폼 ▲가속 컴퓨팅 인프라 ▲데이터센터, 에너지 인프라 등 5개 레이어로 구분해 설명했다. 그는 "AI는 한 층만 잘 만든다고 완성되지 않는다"며 "애플리케이션부터 전력까지 수직 통합 관점에서 설계해야 한다"고 말했다. 가장 위에는 기업이 실제로 사용하는 업무용 AI 애플리케이션과 에이전트가 있다. 그 아래로는 대형 언어모델 등 모델 레이어, 이를 학습·배포·운영하는 플랫폼 레이어가 이어진다. 이어 GPU, CPU, 네트워킹, DPU 등으로 구성된 가속 컴퓨팅 인프라가 이를 떠받친다. 마지막으로 대규모 전력과 냉각을 감당하는 데이터센터, 에너지 인프라가 기반을 이룬다. 정 팀장은 "AI 경쟁은 이제 GPU 수량이 아니다"며 "이 5개 레이어를 얼마나 유기적으로 설계하느냐의 문제"라고 강조했다. 엔비디아 내부 사례도 공개했다. 그는 단순히 요약된 답을 제시하는 것이 아니라 어떤 문서의 어느 부분을 참고했는지까지 추적 가능하도록 설계했다는 것을 강조했다. 정 팀장은 "우리도 사내에서 에이전틱 AI를 적극 활용하고 있다"며 "컨플루언스, 셰어포인트 등 내부 협업 시스템과 직접 연동해 답변의 근거를 함께 제시하는 구조를 구축했다"고 설명했다. 이 같은 내부 적용을 통해 제품 개발과 의사결정 속도가 빨라졌다고도 밝혔다. 반복적으로 확인해야 했던 기술 문서, 설계 변경 이력, 사내 정책 자료 등을 에이전트가 즉시 찾아 제시하면서 업무 시간이 단축됐다는 설명이다. 정 팀장은 "엔터프라이즈 환경에서는 정확도만큼이나 '출처 투명성'이 중요하다"며 "이를 통해 개발자와 엔지니어가 정보 검색에 쓰는 시간을 줄이고 실제 설계와 검증에 더 집중할 수 있게 됐다"고 말했다. 엔비디아는 이러한 시행착오와 운영 경험을 정리해 '엔터프라이즈 AI 팩토리 디자인' 가이드로 공개했다. 가이드에는 에이전트 설계 방식, 내부 데이터 연동 구조, 플랫폼 구성, 인프라 선택 기준 등 기업이 AI를 도입할 때 고려해야 할 기술적 의사결정 요소가 담겼다. 모델 전략에 대해서는 오픈소스 기반 접근을 강조했다. 시스템 구조가 얼마나 개방돼 있는고 실제 서비스에서 얼마나 효율적인지가 실제 업무 성능을 좌우하기 때문이다. 그는 오픈 모델 제품군인 '네모트론3'를 언급하며 "성능 지표뿐 아니라 서빙 효율 측면에서도 의미 있는 진전을 이뤘다"며 "기업이 자체 모델을 고도화할 때 충분히 고려할 수 있는 기반이 될 것"이라고 설명했다. 하드웨어와 인프라 설계 방향도 구체적으로 제시했다. 그는 차세대 GPU 아키텍처 기반 랙 단위 통합 설계를 소개하며 "수십 개 GPU를 하나의 도메인처럼 묶어 동작시키는 구조가 표준이 되고 있다"고 말했다. 이어 "고속 네트워킹과 DPU를 결합해 서버, 스토리지, 네트워크를 유기적으로 연결해야 진짜 AI 인프라가 완성된다"고 강조했다. 데이터센터와 에너지 이슈에 대해서도 언급했다. 정 팀장은 "AI 인프라의 끝은 결국 전력"이라며 "기가와트급 데이터센터 시대가 이미 시작됐다"고 말했다. 이어 "디지털 트윈 기반 설계를 통해 가상 환경에서 충분히 검증한 뒤 실제 구축에 들어가야 시행착오를 줄일 수 있다"고 설명했다. 그러면서 "AI 인프라는 장비 조합의 문제가 아니라 애플리케이션에서 에너지까지 하나로 이어진 설계 철학의 문제"라며 발표를 마무리했다.

2026.02.26 15:17남혁우 기자

NHN클라우드, 일본 공공·IT 관계자와 기술 교류…글로벌 협력 확대

NHN클라우드가 일본 주요 공공·IT 관계자들에게 한국형 클라우드 전환 사례와 인공지능(AI) 데이터센터 운영 역량을 공유하며 글로벌 협력 기반 확대에 나섰다. NHN클라우드는 판교 본사 플레이뮤지엄에서 일본 선진정보화사회시찰단을 대상으로 국내 클라우드 및 AI 인프라 기술을 소개하는 설명회를 진행했다고 26일 밝혔다. 이번 방문은 일본 기업인과 전문가들이 한국의 ICT 활용 사례를 참관하고 양국 간 기술 협력을 모색하는 '인터넷 콜럼버스 프로젝트'의 일환으로 마련됐다. 시찰단의 한국 방문은 2002년부터 시작돼 누적 참가자 수가 5000명을 넘어섰다. 올해는 도쿄도청, 도쿄가스 아이넷, 료비 시스템즈 등 일본 주요 기업 및 공공기관 7곳의 관계자 19명이 참석했다. 시찰단은 국회·성동구청·서울도시가스·분당서울대병원 등 총 11개 주요 기업·기관을 방문했으며 클라우드 전문 기업으로는 NHN클라우드가 유일하게 포함됐다. 설명회에서 NHN클라우드는 공공·금융 등 다양한 산업 분야에 적용된 클라우드 전환 사례와 성과를 소개하고 그래픽처리장치(GPU) 인프라 구축 사업을 중심으로 안정적인 서비스 운영 역량을 강조했다. 구체적으로 정부 GPU 구축 사업과 행정안전부 정부 서비스 종합 창구, SRT 등 공공 분야 AI 전환 사례를 비롯해 프라이빗 클라우드 기반 금융 보안존 운영 노하우, 교육 포털 및 업무 시스템 전환 등 산업별 맞춤형 클라우드 적용 현황을 공유했다. 아울러 일본 시장의 특수한 수요를 반영해 서비스형 소프트웨어(SaaS) 인프라 전환 전략, 일본 기업의 한국 시장 진출 시 인프라 지원 방안, 오픈스택 기반 비용 구조 등 실질적인 협력 모델과 실행 방안을 제시했다. 서비스형 GPU(GPUaaS) 사업 현황과 함께 광주 AI 데이터센터, 대구 민관협력 데이터센터(PPP), 일본 등 해외 리전을 포함한 글로벌 데이터센터 운영 역량도 소개했다. 시찰단을 이끄는 염종순 단장은 "NHN클라우드는 일본에서 주로 사용 중인 외산 클라우드 대비 비용 효율성 측면에서 충분한 경쟁력을 갖추고 있으며 기능적 완성도와 운영 안정성, 산업별 맞춤형 구축 경험에서도 강점을 지니고 있다"며 "이번 방문을 통해 관계자들이 직접 서비스를 확인하고 비교할 수 있는 계기가 됐다"고 말했다. 이어 "향후 일본 내 비즈니스 논의 테이블에 올려 구체적인 협력을 검토할 수 있을 것으로 기대한다"고 덧붙였다. NHN클라우드 관계자는 "일본 IT 산업을 이끄는 주요 관계자들에게 우리의 안정적인 서비스 모델과 보안 요건을 충족하는 클라우드 설계 방식, AI 데이터센터 운영 노하우를 공유할 수 있어 뜻깊다"며 "이번 교류를 통해 일본 주요 기업들과 파트너십을 강화하고 글로벌 비즈니스 협력을 더욱 확대해 나갈 것"이라고 밝혔다.

2026.02.26 15:15한정호 기자

"1년 새 전기요금 6% 올랐다"…중간선거 앞둔 트럼프, AI 공룡에 전력 자급 압박

인공지능(AI) 데이터센터가 급증하면서 미국 전력 수요가 빠르게 늘고 있는 가운데 백악관이 주요 기술기업을 향해 전력 비용을 스스로 부담하라고 요구하고 나섰다. 올해 11월 중간선거를 앞둔 상황에서 전기요금이 빠르게 인상된 것이 민감한 민생 이슈로 급부상한 탓이다. 26일 테크크런치에 따르면 지난 1년간 미국 전국 평균 전기요금은 6% 이상 상승한 것으로 나타났다. 이에 도널드 트럼프 대통령은 지난 25일(현지시간) 의회 상·하원 합동회의에서 행한 국정연설을 통해 '전기요금 납부자 보호 서약(rate payer protection pledges)'을 추진하고 있다고 소개하며 AI 인프라 확충이 가계 부담으로 이어지는 구조를 차단하겠다는 의지를 드러냈다.그는 "대형 기술기업들은 자사 전력 수요를 스스로 충당할 의무가 있다"며 "공장 부지 내 자체 발전소를 건설해 일반 가정의 전기요금이 오르지 않도록 해야 한다"고 밝혔다. 이어 "많은 미국인은 AI 데이터센터의 에너지 수요가 자신들의 전기 요금을 부당하게 인상시킬까 우려한다"며 "우리 전력망은 노후화됐고, 필요한 전력량을 감당할 수 없다"고 덧붙였다. 실제 주요 AI 기업들은 최근 유사한 방침을 연이어 발표하며 정부의 움직임에 발 맞추고 있다. 마이크로소프트(MS)는 지난달 11일 데이터센터 운영에 따른 전력 비용이 가정용 요금에 전가되지 않도록 하겠다는 정책을 공개했다. 이어 오픈AI도 같은 달 26일 운영 과정에서 발생하는 에너지 비용을 자체 부담하겠다고 밝혔다. 이달 11일에는 앤트로픽도 데이터센터로 인한 소비자 전기요금 인상분을 보전하겠다고 약속했다. 구글은 전날 미네소타 데이터센터를 지원하기 위한 대규모 배터리 프로젝트를 발표하며 전력 인프라 확충 계획을 구체화했다. 업계에선 재생에너지 투자 확대, 자체 발전 설비 구축, 고요금 계약 체결 등이 병행될 가능성이 큰 것으로 보고 있다. 백악관 대변인은 다음 주 아마존, 구글, 메타, MS, xAI, 오라클, 오픈AI 등 주요 기업들이 백악관에서 관련 서약에 공식 서명할 예정이라고 밝혔다. 다만 각 기업은 참석 여부를 공식 확인하지 않았다. 그러나 구체적 이행 방식은 여전히 불확실하다. 어떤 데이터센터가 얼마만큼의 전기요금 인상에 영향을 미쳤는지, 인상분 산정 기준은 무엇인지에 대한 세부 지침은 공개되지 않았다. 백악관도 현재까지 서약 문안을 발표하지 않은 상태다. 마크 켈리 민주당 상원의원은 "빅테크와의 구두 합의만으로는 충분하지 않다"며 "에너지 가격 급등을 막을 실질적 보장과 지역사회 참여가 필요하다"고 지적했다. 전문가들은 기업이 자체 발전소를 건설하더라도 문제가 완전히 해소되지는 않을 것으로 보고 있다. 천연가스 기반 발전은 환경 부담을 수반할 수 있고, 태양광·배터리·터빈 등 설비 수요 확대는 공급망 압박으로 이어질 가능성이 있어서다. 또 대규모 데이터센터의 전력 수요 자체가 지역 전력망 안정성에 영향을 줄 수 있어 단순한 비용 부담을 넘어 전력 인프라 전반의 재설계가 필요하다는 지적도 나온다. 업계 관계자는 "AI 산업의 급속한 성장과 전력 인프라의 제약이 맞물리면서 향후 데이터센터 확장 전략은 비용 분담 구조와 지역사회 수용성, 에너지 정책과의 정합성을 동시에 고려하는 방향으로 재편될 것으로 전망된다"며 "기업과 정부 간 협의가 구체적인 제도 설계로 이어질지가 향후 시장 불확실성을 좌우할 것"이라고 말했다.

2026.02.26 09:34장유미 기자

트럼프, 빅테크 수장 소환…"전력 비용 부담하라"

도널드 트럼프 미국 대통령이 조만간 빅테크 경영진을 소집해 데이터센터의 전기요금을 기업이 자체 부담하겠다는 서약에 서명하도록 할 예정이다. 25일(현지시간) 블룸버그 등 외신에 따르면 내달 4일 백악관에서 열리는 행사에 아마존, 메타, 마이크로소프트(MS), 알파벳 관계자들이 참석할 전망이다. xAI와 오라클, 오픈AI도 초청 명단에 포함됐다. 이번 약속은 법적 구속력이 없지만, 행정부는 공식적이고 공개적인 서약이 기업의 책임성을 높이고, 인공지능(AI)에 필수적인 데이터센터의 급속한 확장이 환경 훼손이나 전기요금 인상으로 이어질 수 있다는 소비자 우려를 완화하는 데 도움이 될 것으로 보고 있다. 테일러 로저스 백악관 대변인은 전날 “이번 이니셔티브에 따라 빅테크는 신규 AI 데이터센터를 위해 자체 전력원을 건설·도입·구매하게 될 것”이라며 “전력 수요가 증가하더라도 미국인의 전기요금이 오르지 않도록 하겠다”고 말했다. 이어 “트럼프 대통령은 미국의 AI 패권을 확보하는 동시에 근로 가정의 비용을 낮추는 데 전념하고 있다”고 덧붙였다. 이번 전기요금 보호 서약은 오는 11월 중간선거를 앞두고 전기요금 상승이라는 정치적 부담을 해소하려는 트럼프 대통령의 행보로 풀이된다. 데이터센터로 인한 전력 수요 증가 비용을 국민이 떠안게 될 수 있다는 우려에 데이터센터는 최근 대중의 반발에 직면했다. 또한 데이터센터의 물과 토지 사용, 비상 전원용 디젤 발전기 의존 등에 대한 우려도 반대 여론을 키우고 있다. 2024년 대선 당시 트럼프 대통령은 전기요금을 절반으로 낮추겠다는 공약을 내세웠지만, 실제로는 데이터센터와 산업시설 수요 증가, 가정 난방·조리·교통의 전기화 확대 등으로 전력 비용이 상승했다. 미국의 전국 평균 소매 전기요금은 지난해 12월 kWh당 17.24센트로, 전년 대비 6% 상승했다. 블루로즈 리서치가 실시한 여론조사에 따르면 유권자의 64%가 데이터센터 개발과 관련해 공공요금 부담을 가장 우려되는 문제로 꼽았다. 일각에서는 AI 데이터센터 열풍을 이끄는 빅테크는 필요한 전력에 더 많은 비용을 지불하는데 비교적 적극적일 것이라는 분석도 나왔다. 브래드 스미스 MS 사장은 “데이터센터가 소비자 전기요금 인상에 기여하지 않도록 하려는 행정부의 노력을 높이 평가한다”고 밝혔다. 반대로 이번 서약을 비판하는 측에서는 법적 구속력이 없는 약속만으로는 소매 전기요금을 안정적으로 유지하기 어렵다고 지적했다. 트럼프 대통령은 국정연설에서 데이터센터 확충이 전기요금을 낮추고 미국 송전망 시스템을 개선할 기회라고 주장했다. 그는 “우리는 주요 기술 기업들에 자체 전력 수요를 책임질 의무가 있다고 말하고 있다”며 “공장 일부로 자체 발전소를 건설할 수 있고, 그렇게 할 경우 누구의 전기요금도 오르지 않을 것이다. 지역사회 전기요금은 크게 낮아질 것”이라고 설명했다.

2026.02.26 09:23박서린 기자

SK하이닉스, 샌디스크와 'HBF' 글로벌 표준화 작업 본격 착수

SK하이닉스와 샌디스크(Sandisk)가 25일(현지시간) 미국 샌디스크 본사에서 'HBF 스펙(Spec.) 표준화 컨소시엄' 킥오프 행사를 열고, AI 추론 시대를 겨냥한 고대역폭플래시(HBF)의 글로벌 표준화 전략을 발표했다. SK하이닉스는 "샌디스크와 함께 HBF를 업계 표준으로 마련해 AI 생태계 전체가 함께 성장할 수 있는 기반을 구축하겠다"며 "오픈 컴퓨트 프로젝트(OCP) 산하에 핵심 과제 전담 워크스트림을 샌디스크와 함께 구성해 본격적인 표준화 작업에 착수한다"고 밝혔다. OCP는 세계 최대의 개방형 데이터센터 기술 협력체다. 워크스트림은 특정 기술 주제를 중심으로 운영되는 OCP 산하 협업 체계를 뜻한다. 최근 AI 산업은 거대언어모델(LLM)을 만드는 '학습(Training)' 단계에서, 실제 서비스를 제공하는 '추론(Inference)' 단계로 무게중심이 빠르게 이동하고 있다. AI 서비스를 동시에 사용하는 이용자가 급증하면서 빠르고 효율적인 메모리가 필수적이지만, 기존 메모리 구조만으로는 추론 단계에서 요구되는 대용량 데이터 처리와 전력 효율성을 동시에 충족하기 어렵다. 이러한 한계를 해결할 수 있는 대안으로 등장한 것이 HBF다. HBF는 초고속 메모리인 HBM과 대용량 저장장치인 SSD 사이에 위치하는 새로운 메모리 계층이다. HBM의 뛰어난 성능과 SSD의 대용량 특성 사이의 공백을 메우며, 추론 영역에서 요구되는 용량 확장과 전력 효율성을 동시에 확보한다. 기존 HBM이 최고 수준의 대역폭을 담당하는 가운데, HBF가 이를 보완하는 구조다. 특히 HBF는 AI 시스템의 확장성을 높이면서도 전체 운영 비용(TCO)을 줄일 수 있을 것으로 예상된다. 업계는 HBF를 포함한 복합 메모리 설루션에 대한 수요가 2030년 전후로 본격 확대될 것으로 보고 있다. AI 추론 시장에서는 단일 칩의 성능보다 CPU·GPU·메모리·스토리지를 아우르는 시스템 레벨 최적화가 경쟁력을 좌우한다. 이로 인해 HBM과 HBF를 모두 제공할 수 있는 종합 메모리 설루션 기업의 역할이 더욱 중요해지고 있다. SK하이닉스와 샌디스크는 HBM과 낸드 분야에서 쌓은 설계·패키징 기술과 대량 양산 경험을 바탕으로 HBF의 빠른 표준화, 제품화를 선제적으로 추진할 계획이다. 안현 SK하이닉스 개발총괄 사장(CDO)은 "AI 인프라의 핵심은 단일 기술의 성능 경쟁을 넘어, 생태계 전체를 최적화하는 것"이라며 "HBF 표준화를 통해 협력 체계를 구축하고, AI시대 고객·파트너를 위한 최적화된 메모리 아키텍처를 제시함으로써 새로운 가치를 창출하겠다"고 밝혔다.

2026.02.26 08:49장경윤 기자

다나클라우드, 중동 AI 데이터센터 사업 추진…최대 723억원 투자 검토

다나클라우드가 자체 통합 클라우드 플랫폼 '다나IX'를 앞세워 중동 인공지능(AI) 인프라 시장 공략에 본격 나선다. 다나클라우드는 아랍에미리트(UAE) 투자 그룹 아라비안 걸프 인베스트먼트 홀딩스(AGI)와 AI 레디 모듈형 데이터센터 및 클라우드 인프라 공동 개발을 위한 업무협약(MOU)을 체결했다고 25일 밝혔다. 최근 생성형 AI 확산으로 고성능 그래픽처리장치(GPU) 서버와 AI 전용 데이터센터 수요가 빠르게 증가하고 있으나 고전력·고밀도 서버를 수용할 수 있는 데이터센터 공급은 충분하지 않은 상황이다. 이에 구축 속도와 확장성을 동시에 확보할 수 있는 모듈형 데이터센터 모델이 현실적 대안으로 주목받고 있다. 이같은 상황에서 이번 협약은 중동 지역 AI 인프라 시장에서 공동 사업 기회를 모색하기 위해 체결됐다. 양사는 AI 레디 모듈형 데이터센터 및 통합 클라우드 인프라 분야를 중심으로 협력 방안을 구체화하고 추진 과정에서 최대 5000만 달러(약 723억원) 범위 내 투자 가능성을 검토할 계획이다. 다나클라우드는 AI 레디 모듈형 데이터센터의 설계·구축·운영, 프로젝트 투자 구조 설계를 담당한다. 특히 자사 통합 클라우드 플랫폼 다나IX를 통해 인프라 구축부터 운영까지 전 과정을 지원한다. 다나IX는 물리적 인프라부터 클라우드 관리, 컨트롤 패널, 엔터프라이즈급 서비스형 인프라(IaaS) 및 서비스형 플랫폼(PaaS)까지 전 계층을 통합 지원하는 플랫폼으로 인프라부터 애플리케이션까지 즉시 운영 가능한 환경을 제공한다. AGI는 UAE를 기반으로 한 투자 그룹으로서 전략적 투자 지원과 사업 구조 설계, 현지 네트워크 연계를 통한 프로젝트 추진을 지원할 방침이다. 모하마드 바하에딘 다나클라우드 대표는 "양사 협력을 바탕으로 현지 시장 수요에 맞춘 인프라 서비스 도입을 위해 노력하겠다"고 말했다. 칼리파 사이프 알 무하르비 AGI 회장은 "AI 레디 모듈형 데이터센터와 고도화된 클라우드 플랫폼은 중동 지역의 장기적 디지털·경제 전략과 맞닿아 있다"며 "이번 협력이 미래 인프라 발전에 기여할 것"이라고 밝혔다. 칼 사이먼 AGI 대표는 "이번 협약을 바탕으로 확장성과 지속가능성을 갖춘 클라우드 및 AI 인프라 기반을 단계적으로 마련해 나가겠다"고 강조했다.

2026.02.25 17:25한정호 기자

정부, 2030년까지 전 시스템 재해복구 구축…민간 클라우드 활용

지난해 국가정보자원관리원(국정자원) 대전센터 화재로 7천여 개 국가 시스템이 멈춰 서는 사태 이후 정부가 공공 정보 인프라 전반에 대한 대수술에 착수한다. 정부 시스템의 재해복구(DR)를 완료하고 민간 클라우드를 적극 활용하는 인공지능(AI) 정부 인프라로 재설계한다는 목표다. 정재웅 AI정부 인프라 거버넌스·혁신 TF리더는 25일 서울 중구 서울스퀘어에서 열린 국가AI전략위원회 제2차 전체회의에서 "2030년까지 1만 5000여 개 정부 정보시스템에 대해 등급별 DR 체계를 완비하고 국민 생명·안전과 직결된 핵심 시스템은 2028~2029년 내 전환을 완료하겠다"고 밝혔다. AI정부 인프라 거버넌스·혁신 TF는 지난해 국정자원 대전센터 화재 이후 이재명 대통령의 지시에 따라 정부 인프라 재설계를 추진해왔다. 대전센터로 중단된 국가 시스템은 완전 복구까지 95일이 걸린 바 있다. 이날 국가AI전략위원회 전체회의는 대한민국 인공지능 행동계획과 AI정부 인프라 거버넌스·혁신 추진 방향을 포함한 5개 안건을 심의·의결하기 위해 마련됐다. 정 리더는 이번 사태를 계기로 드러난 문제를 ▲공공 데이터센터 안전 기준 미흡 ▲재해복구 체계 구축 미비 ▲분산된 거버넌스 구조 등 세 가지로 진단했다. 그는 "서버 배터리 미분리 등 안전 기준이 민간 데이터센터·클라우드 대비 미흡했다"며 "국가 필수 시스템의 액티브-액티브 DR 체계가 제대로 구축되지 않았고 일부 DR도 기관별로 제각각 운영돼 공통 기준이 없었다"고 설명했다. 이어 "예산, 구축·운영, 보안 표준 권한이 분리돼 있어 위기 상황에서 총괄 관리 체계가 부족했다"고 덧붙였다. 이에 TF는 세 가지 축을 중심으로 AI 정부 인프라 혁신안을 마련했다. 우선 정부·공공 데이터센터의 안전 기준을 민간 수준으로 상향하고 화재가 발생한 대전센터는 2030년까지 폐쇄해 단계적으로 새로운 인프라로 이전한다는 계획이다. 아울러 DR 구축 기관에 대해 연 1회 이상 실전 훈련을 의무화해 재난 대응 역량을 제도화할 방침이다. 미래 인프라 설계 원칙으로는 ▲민간 투자 자원 적극 활용 ▲클라우드 기술 도입 ▲지역 분산형 인프라 구축을 제시했다. 이 방안에 맞춰 정부는 1만 5000여 개 국가 시스템을 국가망보안체계(N2SF) 기반 보안 등급(C·S·O)과 가용성 등급(A1~A4)으로 분류해 차등 관리할 계획이다. C(기밀)등급 데이터는 정부가 직접 관리하되, S(민감)·O(공개)등급은 민간 데이터센터와 클라우드를 적극 활용하도록 한다는 목표다. 특히 C등급 핵심 데이터는 대전에 신규 데이터센터 2곳을 구축해 액티브-액티브 체계로 운영하고 광주·대구·대전 등 기존 국정자원의 3축 인프라는 유지한다는 방침이다. 올해는 134개 시스템에 대해 DR 구축을 추진한다. 기획재정부의 '디브레인', 우정사업본부의 우편정보시스템, 행정안전부의 안전지도 시스템 등을 선도 프로젝트로 선정해 표준 모델을 만들 예정이다. 또 50여 개 시스템은 민간 클라우드로 이전해 DR을 강화할 계획이다. 거버넌스 측면에서는 예산·운영·표준 권한을 통합하는 방향의 개편을 추진한다. TF 이후에는 과학기술부총리 산하에 'AI 정부 인프라 거버넌스 혁신 추진단(가칭)'을 구성해 구체적 실행 방안을 마련할 예정이다. 정 리더는 "민간 클라우드와 데이터센터를 적극 활용해 보다 안전하고 유연한 AI 정부 인프라로 재설계하겠다"며 "구체적인 가이드라인 마련과 법·제도 정비도 병행해 실행력을 높이겠다"고 강조했다.

2026.02.25 11:21한정호 기자

AI 데이터센터 특별법, 국회 법안소위 상정…최대 쟁점은 '전력 특례'

인공지능(AI) 데이터센터 산업을 국가 전략 인프라로 육성하기 위한 특별법 제정 논의가 국회에서 본격화됐다. 여야가 법안 필요성에 공감대를 형성한 가운데, 전력 직접거래(PPA) 허용과 전력계통영향평가 특례가 입법의 핵심 쟁점으로 떠오르고 있다. 24일 업계에 따르면 'AI 데이터센터 지원에 관한 특별법' 제정안이 이날 국회 과학기술정보방송통신위원회 법안심사소위원회에 상정됐다. 현재 국회에는 AI 데이터센터 진흥과 관련해 정동영·한민수·황정아·조인철 의원 등이 발의한 제정안과 김장겸·이해민 의원이 각각 대표발의한 법안들이 계류돼 있다. 이들 법안은 공통적으로 AI 데이터센터를 국가 경쟁력을 좌우하는 핵심 기반 시설로 규정하고 인허가 절차 간소화와 세제 지원, 전력·용수·부지 확보 지원 등 행정·재정적 지원 근거를 담고 있다. 특히 일부 법안은 전력 특례를 명시적으로 규정했다. 황정아 의원이 발의한 법안은 관계 부처 승인 시 전력시장을 거치지 않고 전기를 직접 공급할 수 있도록 하는 특례를 담았고 이해민 의원이 발의한 법안도 비수도권 AI 데이터센터에 대해 발전사업자의 직접 전력 공급을 허용하는 내용을 포함했다. 이번에 상정된 특별법 제정안의 핵심 쟁점은 전력계통영향평가 면제 여부와 PPA 특례 범위다. AI 데이터센터를 기존 시설에서 전환하거나 연산 규모를 대폭 확장할 경우 전력계통영향평가를 일부 면제하거나 완화하는 방안이 거론되지만 관계 부처 간 입장 차가 남아 있는 것으로 전해졌다. 기후에너지환경부는 전력계통영향평가 면제 기준을 데이터센터 특별법에 별도로 두기보다는 '분산에너지활성화특별법' 체계 안에서 규정하는 것이 제도 정합성 측면에서 바람직하다는 입장인 것으로 알려졌다. 또 AI 데이터센터에 대한 PPA 특례 역시 개별법에 신설하기보다는 분산에너지 특구 등 기존 제도를 활용하는 것이 적절하다는 의견을 제시한 것으로 전해졌다. 데이터센터 산업 정책을 총괄하는 과학기술정보통신부는 AI 데이터센터의 특수성을 고려한 제도적 지원 필요성에 공감하며 관계 부처와 세부 조율을 이어가고 있는 것으로 알려졌다. 전력 특례는 이번 특별법의 실효성을 가를 핵심 요소로 꼽힌다. AI 데이터센터는 대규모 전력 확보 여부가 투자 결정의 전제가 되는 구조다. 현행 전기사업법 체계에서는 대규모 전력 수요자가 한국전력을 통해서만 전력을 구매해야 한다. 1기가와트(GW)급 대형 AI 데이터센터의 경우 연간 전기요금이 약 1조원에 달하는 것으로 추산되는 만큼, 장기 PPA를 통한 안정적 전력 조달 체계 마련이 산업 경쟁력과 직결된다는 것이 업계 시각이다. 미국과 일본 등 주요국이 GW급 데이터센터 전력 확보에 나서며 발전소와 장기 계약을 체결하고 있는 점도 비교 사례로 거론된다. 이번 상정과 관련해 법안소위에서 복수의 AI 데이터센터 지원 제정안을 병합해 통합 조정안을 마련할 가능성도 제기된다. 전력 특례 조항의 범위와 적용 방식이 어떻게 조율되느냐에 따라 법안 처리 속도가 영향을 받을 전망이다. 특별법이 통과될 경우 AI 데이터센터를 둘러싼 전력·입지 규제 불확실성이 일정 부분 해소되면서 국내 AI 인프라 투자 환경이 개선될 것이라는 기대가 나온다. 특히 비수도권을 중심으로 한 대규모 데이터센터 유치와 전력 조달 다변화가 가능해질 시 글로벌 빅테크와의 협업 및 해외 투자 유치 측면에서도 경쟁력을 확보할 수 있다는 분석이다. 업계에선 전력 특례 범위가 법안 실효성을 좌우할 핵심 변수로 보고 있다. 이해민 의원은 지난달 28일 지디넷코리아와의 신년 인터뷰를 통해 "비수도권을 중심으로 한 오프그리드형 데이터센터와 PPA를 제도적으로 허용해야 한다"며 "신규 데이터센터 건설만 논의할 것이 아니라, 기존 데이터센터를 AI 연산에 적합한 인프라로 전환할 수 있도록 규제 완화와 제도적 지원이 병행돼야 한다"고 밝힌 바 있다.

2026.02.24 17:42한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

더 크게보다 더 가볍게…AI 인프라 경량화 시대 부상

[현장] 지드래곤·태민 춤 완벽 재현한 로봇들…'피지컬 AI 엔터테크' 시대 성큼

전기차 대신 ESS 키우는 포드…배터리 전략 선회

"드론 비행거리 2배로"…中, 차세대 리튬-황 배터리 화제

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.