• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (511건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

채대석 LS일렉 대표 "美 시장 5년치 물량 확보…유럽 거점도 검토"

LS일렉트릭이 올해도 해외 매출 신장에 드라이브를 건다. 북미 시장을 우선순위에 두면서 유럽에도 생산거점을 검토하는 등 본격적인 시장 공략에 나선다. 채대석 LS일렉트릭 대표는 11일 오후 서울 코엑스에서 열린 '인터배터리 2026' 기자간담회에서 이 같은 계획을 공유했다. 채 대표는 "배터리 산업은 단순히 셀과 소재에 국한된 것이 아니라 전력 인프라와도 긴밀히 연결돼 있다"며 "재생 에너지 확대와 특히 최근 데이터센터 전력 수요 증가에 따라 ESS와 전력망 기술이 중요하게 대두되고 있는데, LS일렉트릭은 전력 시스템과 변환 제어 관련 기술을 국내에서 가장 잘 하는 회사기 때문에 배터리 산업과 밀접하다"고 말했다. 이어 "배터리 산업 후방에서 전력 그리드와 전력망을 연결하는 솔루션을 갖고 나오는 회사는 LS일렉트릭 외에도 많은 것으로 알고 있다"며 "과거 화재 사건으로 국내 ESS 시장이 주춤한 사이 스페인 등 글로벌 회사들의 시장 지배력이 높아졌는데, 최근 국내 기업들도 상당한 약진을 하고 있다"고 덧붙였다. 채 대표는 LS일렉트릭이 15년 전부터 ESS 관련 기술을 차곡차곡 확보해 온 만큼 국내외 시장 공략에 대한 자신감도 드러냈다. 그는 "미국과 일본에서 계통 연계 관련 프로젝트들을 확보하고 있으며, 국내에서도 ESS 프로젝트에서 상당 부분 참여할 예정"이라며 "정부에서도 차세대 전력망 계획을 추진하고 있기 때문에 정부 차원 투자와 민간의 다양한 기술 개발에 걸맞은 솔루션들이 확보될 것으로 예상된다"고 말했다. AI 데이터센터 전력 사용 급증으로 인한 수혜는 올해도 이어진다. 채 대표는 "지난해 데이터센터 관련 수주가 1조원 이상이었으며, 그중 80%가 미국에서 발생했다"며 "올해도 미국 빅테크 및 CSP사, AI를 활용하는 다양한 산업에서 수주를 하고 있다"며 "올 1분기에도 대규모 수주가 예정돼 있으며, 올해 두 자릿수 매출 성장을 목표로 하고 있다"고 밝혔다. HVDC 핵심 설비 국산화 위해 GE버노바와 JV 논의...직류 기술 승부수 LS일렉트릭은 국내 경쟁사들이 북미 시장 선점을 위해 초고압 설비 증설에 집중하는 것과 달리, 자사 강점인 배전 사업에 집중하겠다는 방향도 제시했다. 채 대표는 "초고압 물량은 국내 생산 물량으로 일차적으로 커버를 하고 있고, 미국 내에서 우리가 조금 더 잘 할 수 있는 배전 사업을 확장할 계획"이라며 "노후 송전망 교체가 끝나면 결국 배전망도 노후화 되기 때문에 배전망에 집중하는 것이 맞다고 보고 있다"고 설명했다. 차세대 송전 기술인 전압형 초고압직류송전(HVDC) 핵심 설비 국산화도 추진 중이다.채 대표는 "GE버노바와 JV 설립에 큰 틀에서 합의했고, 조만간 발표가 가능할 것 같다"며 "설립 시기나 양산 일정 등을 아직 못 박기 어렵지만, 부산 등 기존에 확보한 부지를 활용을 우선 활용할 생각을 하고 있다"고 밝혔다. LS일렉트릭은 AI 데이터센터 전력 시장에서 앞으로 직류(DC) 기반 솔루션이 대세가 될 것으로 보고 이를 미래 성장동력으로 점찍고 있다. 채 대표는 "엔비디아 등 빅테크 기업들이 800V급 직류 기술을 검토하면서 전력 손실을 10% 이상 줄일 수 있는 직류 계통 기술이 2년 뒤에 시장 내에서 많이 보급될 것으로 보인다"며 "10년 전부터 준비해 온 저압 직류 차단기와 전력변환장치(PCS) 일체형 제품을 이르면 곧 실용화하겠다"고 말했다. "ESS 배터리, LFP가 삼원계보다 안정성 높고 경제적" ESS 화재 안정성에 대한 자신감도 보였다. 채 대표는 "배터리 업체들은 화재를 사전에 감지할 수 있는 BMS나 액침냉각 기술 등을 선보이고 있지만, LS일렉트릭은 전력변환장치 분야를 맡고 있다"며 "지금까지 변환 장치를 공급한 현장에서는 화재가 발생한 적이 없다"며 "결국 이러한 전력 변환 기술을 우선적으로 갖고 가야할 필요가 있다"고 강조했다. ESS에 탑재되는 배터리와 관련해서는 리튬인산철(LFP) 기반 제품이 시장 요구에 더 부합한다는 견해도 밝혔다. 채 대표는 "삼원계보다 LFP 계열이 열폭주 현상이 적다"며 "LFP가 경제성도 있기 때문에 ESS업계는 LFP를 더 선호했고, 국내 배터리사들도 이에 대응하기 위해 국내 생산 전환에 나서는 것으로 알고 있다"고 말했다. 이어 "국내 생산 LFP 배터리가 없다보니 최근 중앙계약시장에서 삼원계 계열도 선택 됐던 것 같지만, 앞으로도 안정성과 가격 측면에서 강점이 있는 LFP 기반 ESS로 갈 가능성이 크다"고 덧붙였다.

2026.03.11 20:35류은주 기자

김민준 오케스트로 그룹 의장, '디지털정부 발전 유공' 대통령 국민포장 수훈

국산 인공지능(AI)·클라우드 기술로 디지털정부 발전에 기여해 온 김민준 오케스트로 그룹 의장이 공로를 인정받았다. 오케스트로 그룹은 지난 9일 판교테크노밸리 경기창조경제혁신센터에서 열린 AI 국민비서 시범서비스 개통식에서 김 의장이 '디지털정부 발전 유공' 대통령 국민포장을 수훈했다고 11일 밝혔다. 포장은 훈장과 함께 대통령이 수여하는 최고 권위의 국가 서훈으로, 국가 발전과 더불어 정치·경제·사회·교육·학술 분야 발전에 이바지한 공적이 뚜렷한 사람에게 수여되는 국가 포상이다. 이번 디지털정부 발전 유공 포상에서는 대통령 포장 1명과 표창 3명 등 총 4명에게 포상이 수여됐으며 김 의장은 국민포장을 받은 유일한 수훈자로 이름을 올렸다. 그는 국산 AI·클라우드 기술 개발을 이끌며 디지털 행정 혁신과 공공 서비스 고도화, 공공부문 AI 활용 확대와 산업 경쟁력 강화에 기여한 공로를 인정받았다. 이번 수훈에는 김 의장이 이끄는 오케스트로가 국가 연구개발(R&D) 과제와 주요 AI 프로젝트에 참여해 온 성과도 반영됐다. 특히 오케스트로는 국가대표 AI를 선정하는 독자 AI 파운데이션 모델 프로젝트에서 공공부문 생성형 AI 서비스 구현을 전담하고 있다. 또 오케스트로는 서버 가상화 솔루션 '콘트라베이스'를 중심으로 외산 가상화 솔루션이 주도한 국내 가상화 시장에서 독자 기술력을 바탕으로 입지를 넓혀 왔다. 공공·금융·제조·통신 등 주요 산업의 VM웨어 환경을 콘트라베이스로 전환하며 지난해 윈백 매출 100억원을 돌파했다. 최근에는 공공·기업 환경에서 데이터 주권과 인프라 통제권을 확보할 수 있는 소버린 AI 클라우드 데이터센터 솔루션도 선보였다. 해당 서비스는 서비스형 인프라(IaaS)부터 플랫폼·데브옵스·AI 운영관리·마이그레이션·재해복구(DR) 등 풀스택 솔루션을 단일 통합 패키지로 제공해 프라이빗 소버린 AI 환경을 지원한다. 오케스트로는 이 패키지 기술을 일본 AI 데이터센터에 수출해 그래픽처리장치(GPU) 가상화 기반 대규모언어모델(LLM) 환경을 구현했다. 이를 계기로 글로벌 시장 협력과 사업 확대도 이어지고 있다. 김 의장은 "이번 대통령 국민포장 수훈은 우리의 국산 AI·클라우드 기술이 디지털정부 혁신과 공공 서비스 발전에 기여한 성과를 인정받은 결과"며 "앞으로도 소버린 AI 클라우드 기술 고도화를 통해 디지털 주권을 강화하고 국내 AI 산업 경쟁력 제고에 기여하겠다"고 말했다.

2026.03.11 16:16한정호 기자

다이가 다르다...삼성·SK, 차세대 HBM '두뇌' 로직다이서 엇갈린 전략

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) 삼성전자와 SK하이닉스가 차세대 고대역폭메모리(HBM)용 로직(베이스) 다이(Die) 공정을 고도화하는 가운데, 다소 상이한 입장 차이를 보이고 있다. 삼성전자는 성능을 최우선으로 초미세 공정을 적극 채용할 계획이다. SK하이닉스 역시 고객사 요구에 맞춰 공정 미세화를 추진하고 있지만 기본적으로 비용 효율화에 무게를 두는 전략을 구사하고 있다. 양 사의 전략적 기술 판단이 향후 어떤 시장 판도 변화나 결과를 초래할지 관심이 쏠린다. 11일 업계에 따르면 삼성전자와 SK하이닉스는 차세대 HBM용 로직 다이 공정 개발에서 다른 전략을 취하고 있다. ■ 삼성전자, 로직 다이 공정 고도화 '전념'…2나노까지 설계 로직 다이는 HBM의 컨트롤러 기능을 담당하는 칩이다. 여러 개의 D램을 수직으로 적층한 코어 다이 아래에 위치해 있다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해, 데이터를 고속으로 주고받을 수 있도록 만든다. HBM에서 로직 다이가 차지하는 중요도는 점차 높아지는 추세다. HBM 세대가 진화할수록 핀 당 처리 속도 향상, D램 적층 수 증가 등으로 로직 다이에 요구되는 성능도 올라가야 하기 때문이다. 이에 삼성전자·SK하이닉스는 HBM4부터 로직 다이를 기존 D램 공정에서 더 미세화된 파운드리 공정으로 옮겨 제조하고 있다. 로직 다이에서 선단 공정을 가장 적극적으로 채택하고 있는 기업은 삼성전자다. 앞서 삼성전자는 지난 2023년께 HBM4에 적용될 로직 다이 공정을 당초 8나노미터(nm)에서 4나노로 상향 조정한 바 있다. 나아가 삼성전자는 HBM4E부터 본격화될 커스텀 HBM 시대를 준비하기 위해, 로직 다이를 4나노에서 최대 2나노로 설계하고 있다. 2나노는 지난해 하반기부터 양산이 시작된 최첨단 파운드리 공정이다. 현재 시스템LSI사업부 내 커스텀SoC 팀에서 각 고객사에 최적화된 칩 개발을 진행 중인 것으로 파악됐다. 해당 사안에 정통한 관계자는 "HBM 고객사들은 차세대 제품에 더 낮은 전력과 더 높은 대역폭을 동시에 달성하기 원하는데, 삼성전자 내부에서는 이에 대한 근원적 해법을 로직 다이 공정 고도화로 보고 있다"며 "올해 해당 연구개발에 대한 구체적인 성과가 나올 것"이라고 강조했다. ■ SK하이닉스, 미세 공정 준비하면서도 '비용 최적화'에 무게 SK하이닉스는 대만 주요 파운드리 TSMC를 통해 로직 다이를 양산하고 있다. HBM4에는 12나노 공정을 적용했다. SK하이닉스 역시 HBM4E에서는 최대 3나노 공정을 적용할 계획이다. 당초에는 최대 4나노 공정을 채택할 계획이었지만, 고객사 요구 및 성능 향상 등을 이유로 최근 상향 조정한 것으로 알려졌다. 다만 고객사 요구가 크게 반영되지 않는 HBM4E 제품은 기존 HBM4와 마찬가지로 12나노 공정을 채택할 계획이다. 최근 HBM4에서 주요 경쟁사인 삼성전자 대비 로직 다이 성능이 뒤떨어진다는 지적이 제기돼 왔음에도 기존 공정을 고수하기로 했다. 업계는 SK하이닉스가 로직 다이의 무조건적인 성능 향상보다는 비용 최적화에 무게를 둔 것으로 해석하고 있다. 실제로 회사 안팎의 이야기를 종합하면, SK하이닉스는 HBM4E용 로직다이 공정 고도화에 다소 보수적인 입장을 취하고 있다. 그보다는 신규 패키징 공법 등 다른 분야에서 기술적 진보를 이뤄내겠다는 전략이다. 해당 사안에 정통한 관계자는 "SK하이닉스는 현재의 로직 다이 공정으로도 HBM4E 대응이 충분히 가능하다고 판단하고 있다. 성능에 심각한 문제가 있다고 인지했다면 공정에 변화를 줬을 것"이라며 "경쟁사와 달리 로직 다이 공정의 급격한 고도화가 효용이 떨어진다고 보고 있다"고 말했다.

2026.03.11 15:35장경윤 기자

LS머트리얼즈, 수명 6배 늘린 AI 데이터센터용 UC 선봬

LS머트리얼즈가 생성형 AI 확산으로 커지는 데이터센터 전력 안정화 수요를 겨냥해 고출력·장수명 특성을 강화한 차세대 전력 솔루션을 선보였다. LS머트리얼즈는 11일 수명을 늘린 인공지능(AI) 데이터센터용 울트라캐패시터(UC) 시스템을 '인터배터리 2026'에서 공개했다고 밝혔다. 이 제품은 충·방전 수명이 600만 회 이상으로, 기존 범용 UC 제품(약 100만 회)보다 약 6배 길다. AI 데이터센터 환경에서 범용 UC 제품의 운용 기간이 통상 1년 안팎에 그치는 것과 달리, 이번 제품은 최대 5년 이상 사용할 수 있다는 설명이다. 또한 순간적인 전력 피크에 대응할 수 있는 고출력 성능을 확보해 AI 데이터센터 환경에 적합하도록 설계됐다. 최근 GPU 서버 전력 사용량이 급증하면서 데이터센터에서는 짧은 시간에 대량의 전력이 집중되는 전력 피크 현상이 빈번해지고 있다. 이에 따라 순간적인 전력 변동을 안정적으로 제어할 수 있는 캐패시터 기반 전력 장치의 중요성이 커지고 있다. LS머트리얼즈는 이런 수요에 대응해 UC 기반 전력 솔루션을 셀 단위에서 모듈·시스템 단계로 확장했다. 방열 성능을 2배 이상 개선하고 내부 저항을 낮춘 설계를 적용해 고전력 환경에서도 안정적인 출력과 효율적인 발열 관리가 가능하다고 회사 측은 설명했다. 홍영호 LS머트리얼즈 대표는 “AI 데이터센터에서는 순간적인 전력 피크 대응과 긴 수명의 전력 장치가 핵심 경쟁력”이라며 “현재 AI 데이터센터용 서버 장비를 제작하는 글로벌 기업들과 공급 협의를 진행 중”이라고 밝혔다. LS머트리얼즈는 인터배터리에서 해당 제품을 공개하고 글로벌 고객사와 협력을 확대할 계획이다.

2026.03.11 14:25류은주 기자

AI 인프라 임계점, '네트워크 다이어트'와 '개방형 생태계'에서 답을 찾다

인공지능(AI)과 클라우드 데이터센터가 산업의 지형을 바꾸고 있는 지금, 기업 의사결정권자들은 보이지 않는 거대한 장벽에 직면해 있습니다. 데이터 처리량 폭증은 반가운 신호이지만, 이를 뒷받침하기 위해 투입되는 막대한 에너지 비용과 상면 부족 문제는 수익성을 갉아먹는 핵심 요인이 됐습니다. 이런 병목 현상을 해결할 궁극적인 지향점으로 공동 패키지 광학(Co-Packaged Optics, CPO) 기술이 거론되고 있습니다. 하지만 하드웨어의 물리적 변화만으로는 부족합니다. 진정한 혁신은 그 목적지까지 가는 과정에서 '얼마나 효율적인 자산 구조를 구축하느냐'에 달려 있습니다. 이에 E&B 정보통신은 북유럽의 혁신적 아키텍처인 SMARTOPTICS DCP를 통해 국내 시장에 새로운 인프라 표준을 제시하고 있습니다. 구조적 단순화가 가져오는 명확한 경제적 실익 전통적인 네트워크는 IP 계층과 광전송 계층이 분리돼 각각의 독립적인 장비와 복잡한 배선이 필수적이었습니다. 이는 단순한 기술적 불편함을 넘어 중복된 투자비용(CAPEX)과 운영비용(OPEX) 고착화를 의미합니다. 최근 글로벌 선도 기업들이 IPoDWDM (IP over DWDM) 아키텍처에 주목하는 이유는 명확합니다. 라우터와 전송 장비의 경계를 허물어 인프라를 '슬림화'함으로써 장비 점유 공간과 전력 소모를 획기적으로 줄일 수 있기 때문입니다. 이는 재무적 관점에서 단순한 비용 절감을 넘어, 한정된 자원 내에서 더 높은 성능을 뽑아내는 '자산 효율성(Asset Efficiency)' 극대화를 의미합니다. 벤더 종속을 넘어선 자율형 인프라로의 진화 기술의 변화 속도가 빨라질수록 특정 제조사의 기술에 묶이는 '록인(Lock-in)' 리스크는 기업의 발목을 잡는 족쇄가 됩니다. 미래를 준비하는 기술 리더들이 OpenROADM 기반의 개방형 솔루션에 주목하는 이유 또한 여기에 있습니다. 단순히 장비를 분리하는 수준을 넘어, OpenROADM(OLS) 위에 다양한 제조사의 트랜스폰더는 물론 400G/800G ZR/ZR+ 모듈을 탑재한 라우터를 직접 수용하는 'Layer 통합'이 핵심입니다. 이러한 구조적 혁신은 기존 ROADM 망에서 필수적이었던 Layer 1(OTN) 계층을 과감히 제거할 수 있게 해줍니다. 이는 하드웨어 비용 절감을 넘어 관리 포인트를 획기적으로 최소화하는 결과로 이어집니다. 복잡한 물리 계층의 간섭이 줄어들면서, 기업은 인공지능 기반 운영(AIOps)이나 자율형 네트워크(Autonomous Networking) 전략을 L3 계층에 집중하여 추진할 수 있는 강력한 동력을 얻게 됩니다. 불필요한 레이어를 걷어내고 지능화된 제어권에 집중함으로써, 진정한 의미의 자율화된 인프라 운영 체계를 완성하게 되는 것입니다. 미래를 설계하는 기술적 가교: SMARTOPTICS DCP 차세대 인터커넥트 구조인 CPO는 어느 날 갑자기 완성되는 기술이 아닙니다. 현재의 네트워크가 얼마나 유연하고 고집적화되어 있느냐에 따라 그 수혜를 입는 시기가 결정됩니다. SMARTOPTICS의 DCP(Dynamic Connectivity Platform)는 바로 이 지점에서 현실적인 해법을 제시합니다. DCP는 고속 전송과 유연한 확장을 동시에 만족시키는 아키텍처로서, 기업이 현재의 비용 절감과 미래의 기술 선점이라는 두 마리 토끼를 모두 잡을 수 있도록 돕습니다. E&B 정보통신은 단순한 장비 공급을 넘어, 이러한 개방형 솔루션을 통해 차세대 IPoDWDM과 CPO 시대를 잇는 기술 파트너로서 국내 네트워크 시장의 새로운 기준을 만들어가고 있습니다. 결론: 인프라가 비즈니스 속도를 결정한다 이제 네트워크는 단순한 '연결'의 수단을 넘어 비즈니스의 경쟁 우위를 결정짓는 전략적 자산입니다. 준비된 네트워크 위에서만 AI의 잠재력은 온전히 폭발할 수 있습니다. 미래의 광 아키텍처를 지금 설계하고, 단계별로 진화할 수 있는 토대를 마련하는 것. 이것이 바로 AI 시대의 파고를 넘는 가장 영리한 인프라 전략이자, 기업의 지속 가능한 성장을 담보하는 유일한 길입니다.

2026.03.11 13:42최홍석 컬럼니스트

금융심사 넘은 '국가AI컴퓨팅센터'…구축 속도 붙을까

국가 인공지능(AI) 인프라 구축을 위한 '국가AI컴퓨팅센터' 사업이 금융심사 절차를 마무리하며 본격 추진 단계에 들어섰다. 그동안 정책금융기관의 금융심사가 길어지면서 사업 일정이 당초 계획보다 늦어졌지만, 삼성SDS 컨소시엄이 우선협상대상자로 확정되면서 국가 AI 인프라 구축 프로젝트가 본궤도에 올랐다는 평가가 나온다. 과학기술정보통신부는 국가AI컴퓨팅센터 구축 사업의 우선협상대상자로 삼성SDS 컨소시엄을 선정했다고 10일 밝혔다. 국가AI컴퓨팅센터는 전남 해남 솔라시도 데이터센터 파크 부지에 들어선다. 정부는 올해 3분기 착공해 2028년까지 구축을 완료한다는 계획이다. 센터에는 첨단 그래픽처리장치(GPU) 1만 5000장 규모의 AI 컴퓨팅 인프라가 조성될 예정이다. 정부는 이를 통해 산업계와 학계, 스타트업 등이 대규모 AI 학습과 서비스 개발에 활용할 수 있는 국가 차원의 연산 자원을 확보한다는 구상이다. 이번 사업은 정부와 민간이 공동으로 특수목적법인(SPC)을 설립해 추진하는 민관 합작 프로젝트다. 총 사업비는 약 2조 5000억원 규모로, 정부가 약 800억원을 출자하고 나머지는 민간 기업과 정책금융기관이 분담하는 구조다. 정부 지분은 30% 미만으로 설정됐으며 공공이 마중물 역할을 하고 민간이 실제 구축과 운영을 주도하는 방식으로 설계됐다. 재원 조달 측면에서는 정책금융 지원 여부가 주요 변수로 꼽혀왔다. 정부가 추진 중인 국민성장펀드는 AI와 반도체 등 미래 산업 투자를 위해 정책금융과 민간 자금을 결합해 총 150조원 규모의 투자 재원을 마련하는 계획이다. 산업은행이 주요 운용 역할을 맡고 있으며 국가AI컴퓨팅센터 역시 대표적인 정책금융 지원 대상이다. 이번 사업은 지난해 10월 공모가 마감된 뒤 곧바로 속도를 내지 못했다. 정부는 당초 지난해 말까지 우선협상대상자 선정을 마무리하고 올해 2월 SPC 설립 협약, 3월 SPC 설립까지 이어간다는 계획을 세웠다. 그러나 정책금융기관의 금융심사가 예상보다 길어지면서 일정이 수개월가량 미뤄졌고 업계에선 이 과정이 국가AI컴퓨팅센터 사업의 병목으로 작용했다는 평가가 나왔다. 지연 배경으로는 대출 조건과 금리 수준, 자금 조달 구조를 둘러싼 협의가 꼽힌다. 공공 자금 투입 방식과 민간 부담 수준, 회수 가능성 등을 함께 검토해야 했던 만큼 단순한 형식 심사보다 훨씬 복잡한 조율이 필요했던 것으로 전해졌다. 정책금융기관 입장에서는 조 단위 자금이 투입되는 대형 인프라 사업인 만큼 사업성은 물론 리스크 분담 구조까지 동시에 따져봐야 했고 이 과정에서 협의가 길어졌다는 설명이다. 사업자 공모 자체도 순탄치 않았다. 국가AI컴퓨팅센터 사업은 앞서 지난해 5월과 6월 두 차례 유찰을 겪었다. 초기 공모안에 담긴 공공 중심 구조와 의무 조항이 민간 참여를 가로막는 요인으로 작용했다는 평가다. 당시에는 공공 지분 비율이 51% 수준으로 설정돼 민간이 실질적 경영권을 확보하기 어렵다는 지적이 있었고 매수청구권 조항과 국산 AI 반도체(NPU) 의무 장착 조건도 기업들의 부담을 키운 요인으로 꼽혔다. 이후 정부는 공공 지분 비율을 30% 미만으로 낮추고 매수청구권과 국산 AI 반도체 탑재 의무 조항을 없앴다. 여기에 복수 클라우드 서비스 사업자(CSP)가 참여하는 컨소시엄에 가점을 부여하고 단독 입찰이어도 적격 심사를 거쳐 사업을 추진할 수 있도록 기준을 완화하면서 세 번째 공모를 진행했다. 이같은 조건 조정 이후 삼성SDS가 사업 참여를 공식화했다. 삼성SDS를 주관기관으로 네이버클라우드·삼성물산·카카오·삼성전자·클러쉬·KT·전라남도·서남해안기업도시개발 등이 참여한 컨소시엄이 구성됐으며 해당 컨소시엄이 단독으로 입찰에 참여했다. 정부가 복수 클라우드 서비스 제공기업(CSP)이 참여한 컨소시엄에 가점을 부여하는 평가 구조를 적용하면서 국내 주요 클라우드 기업과 통신사가 함께 참여하는 형태로 사업 제안이 이뤄졌다. 삼성SDS 컨소시엄은 이번 우선협상대상자 선정 전부터 사업 준비 작업을 병행해 왔다. 삼성SDS는 SPC 설립을 위한 전담팀을 구성하고 데이터센터 설계와 사업 기획 등 사전 준비를 진행했다. 컨소시엄 참여사들은 지난 1월 전남 해남 솔라시도 부지를 직접 방문해 전력·통신 등 인프라 여건을 점검하는 등 사업 추진을 위한 준비 작업도 이어갔다. 금융심사와 우선협상대상자 선정이 마무리되면 실시협약 체결과 SPC 설립, 본격적인 공사 준비로 곧바로 넘어가기 위한 사전 포석으로 풀이된다. 컨소시엄 대표사인 삼성SDS는 전체 사업 계획 수립과 인프라 구축·운영을 총괄할 예정이다. 참여 기업들은 통신 서비스, 데이터 관리, AI 서비스 등 각자 역할을 나눠 맡는 구조다. 정부 입장에서도 단일 사업자보다 복수 기업이 참여하는 컨소시엄 형태를 통해 클라우드와 통신, 반도체, 지역 인프라 역량을 한데 묶는 방식이 국가 AI 인프라 구축에 더 적합하다고 판단한 것으로 해석된다. 남은 과제는 속도다. 정부와 정책금융기관, 삼성SDS 컨소시엄은 앞으로 SPC 이사회 구성과 민·관 권리·의무 관계, 출자와 대출의 세부 조건 등을 구체화한 뒤 실시협약을 체결하게 된다. 이후 최종 사업자 확정과 함께 착공 준비에 들어가야 하는데, 이미 일정이 당초 계획보다 늦어진 만큼 향후 절차를 얼마나 압축적으로 진행하느냐가 2028년 구축 완료 목표 달성의 관건이 될 전망이다. 최동원 과기정통부 인공지능인프라정책관은 "AI 고속도로의 핵심 기반 시설이자 AI 생태계 성장의 플랫폼인 국가AI컴퓨팅센터 구축 사업이 본격적으로 진행될 것으로 기대된다"며 "2028년 이내에 국가AI컴퓨팅센터를 구축할 수 있도록 삼성SDS, 관계 기관 등과 긴밀히 소통해 신속한 사업 추진에 만전을 기해 나가겠다"고 말했다. 삼성SDS 관계자는 "우선협상대상자로 선정된 만큼 컨소시엄 참여사들과 함께 사업 준비를 이어가며 국가AI컴퓨팅센터 구축을 차질 없이 추진하겠다"고 밝혔다.

2026.03.10 17:13한정호 기자

액침냉각 기술 '갑론을박'...효율의 2상인가, 범용성의 1상인가

AI 데이터센터(DC) 시장 확대에 따라 고성능 반도체의 막대한 발열을 제어하기 위한 냉각 기술 개발에 관심이 집중되고 있다. 이중 기존 공랭식은 이미 물리적 한계에 도달했고, 칩에 직접 액체를 흘리는 액체냉각(D2C)은 과도기적 대안으로 평가받는다. 이에 업계 안팎에서는 서버를 전용 액체에 담가 식히는 '액침냉각'으로 눈을 돌리고 있다. 하지만 높은 에너지 효율이라는 전망 이면에는 상용화를 가로막는 현실적 문턱과 방향성을 놓고 갑론을박이 일고 있다. 특히 효율을 극대화한 2상 방식과 운영 안정성을 앞세운 1상 방식을 두고 공조 업계의 고민이 깊어지고 있다. 10일 업계에 따르면 액침냉각 시장의 주도권을 쥐기 위한 기술 방향성을 두고 의견이 갈리고 있다. 현재 액침냉각은 냉각유의 상태 변화 여부에 따라 1상과 2상으로 나뉜다. 각 방식이 가진 기술적 장단점이 뚜렷해 상용화의 걸림돌로 작용하고 있는 것이다. 액침냉각은 서버를 전용 용액에 담가 식히는 냉각 방식으로, 빠르면 내년 상용화될 전망이다. 운용 안정성으로 시장 표준 노린다 먼저 1상 방식은 운용의 연속성과 안정성을 무기로 삼는다. 냉각유를 액체 상태로 유지하며 순환시키는 구조다. 액체에서 상태가 변하지 않아 현장 유지보수가 용이하다. 대규모 상용화 단계에서 가장 중요한 '안정적인 인프라 관리'에 최적화된 대안으로 평가받는 이유다. 국내 정유 업계도 1상 방식에 주목하고 있다. 현대오일뱅크, GS칼텍스 등 주요 기업들은 자체 개발한 냉각유를 활용해 1상 액침냉각 실증을 활발히 진행 중이다. 특히 이들은 글로벌 서버 제조사 등으로부터 기술 인증을 받는 등 상용화를 위한 구체적인 검증 단계를 밟고 있다. 2상 방식도 함께 연구하고 있지만, 시장 진입을 위한 실질적인 성과는 인프라 정합성이 높은 1상에서 먼저 나타나고 있는 셈이다. 액침냉각 기업 GRC 관계자는 "2상 액침냉각은 기화도 됐다가, 다시 액화도 된다. 상이 2개인 것"이라며 "액체가 기화된 상태에서 그 뚜껑을 열면 그 기체가 밖으로 증발해서 올라가기 때문에 밖으로 빠져나가며 안정성에 문제가 생길 수 있다"고 설명했다. 효율 앞세워 AI 발열 한계 돌파 반면 2상 방식 진영의 시각은 다르다. 기술적 난도는 높지만, 반도체의 높은 발열을 제어하기 위해서는 결국 2상이 필수적이라는 논리다. 2상 방식의 핵심은 액체가 기체로 변할 때 대량의 열을 앗아가는 '기화열'에 있다. 냉각 소재 업계 관계자는 “2상은 외기(실외 공기)를 이용해 수돗물 정도의 온수만 공급해도 유증기를 다시 액체로 응축할 수 있다”며 “별도의 대형 냉동기 없이 에너지를 극도로 아낄 수 있는 방식”이라고 강조했다. 1상이 냉각유를 식히기 위해 끊임없이 전력을 써야 하는 것과 대조적이다. 유해성 논란에 대해서는 “2상에 쓰이는 불소 케미칼은 기화되더라도 공기보다 무거워 위로 날아가지 않고 액체 표면 위에 특정 띠(Zone)를 형성하며 머문다”며 “가스가 누출돼도 바닥부터 쌓이는 이산화탄소처럼 특정 영역에 존재할 뿐, 뚜껑을 연다고 작업자에게 바로 비산되는 구조가 아니다”라고 설명했다. 업계에서는 1, 2상의 기술 한계를 먼저 해결하는 여부에 따라 시장이 바뀔 것으로 보고 있다. 양용석 3M 이사(팀장)는 “이 분야는 재료부터 건설까지 모든 공학 기술이 응집된 결과물”이라며 “종국에는 2상이 요구되는 시점이 오겠지만, 현재는 각 기술이 가진 딜레마를 어떻게 해결하느냐가 차세대 데이터센터 시장의 승자를 가를 것”이라고 전망했다.

2026.03.10 15:03전화평 기자

HPE, AI 인프라 수요에 실적 전망 상향…시장 예상치 웃돌아

HPE가 인공지능(AI) 인프라 수요 확대에 힘입어 시장 예상치를 웃도는 매출 전망을 제시하며 실적 기대감을 높였다. AI 데이터센터 구축과 고속 네트워크 장비 수요가 늘어나면서 서버·네트워크 사업 전반에서 성장 동력이 강화되는 모습이다. HPE는 다음 달 마감 분기 매출이 96억~100억 달러(약 14조 1100억~14조 6980억원)로 전망된다고 9일(현지시간) 발표했다. 이는 미국 애널리스트 평균 예상치인 95억 7000만 달러(약 14조 707억원)를 웃도는 수치다. 일부 항목을 제외한 주당순이익(EPS)은 0.51~0.55달러로 제시했으며 이는 시장 평균 전망치인 0.53달러와 비슷한 수준이다. 회사는 올해 연간 매출 성장 전망을 유지하는 동시에 조정 EPS 전망을 기존 2.30~2.50달러 범위로 상향 조정했다. 시장에서는 평균 2.35달러 수준을 예상해 왔다. AI 인프라 구축 수요 확대가 실적 전망 상향의 배경으로 꼽힌다. HPE에 따르면 AI 워크로드 확산으로 데이터센터 네트워크 장비 수요가 빠르게 증가하고 있다. 데이터센터 스위칭 장비 주문은 전년 대비 약 40% 증가했고 라우팅 장비 주문도 20%대 중반 성장한 것으로 나타났다. 이러한 네트워크 장비는 데이터센터 내 수천~수만 대 서버 간 데이터를 빠르게 전송하는 핵심 인프라다. HPE는 네트워크 사업을 미래 성장 축으로 보고 관련 투자를 확대 중이다. 회사는 지난해 약 130억 달러(약 19조 1113억원)를 들여 네트워크 장비 업체 주니퍼 네트웍스를 인수했으며 이를 통해 데이터센터 네트워크 사업 경쟁력을 강화하고 있다. 최근 분기 실적도 견조한 흐름을 보이고 있다. HPE의 회계연도 1분기 매출은 전년 동기 대비 18% 증가한 93억 달러(약 13조 6719억원)를 기록했고 조정 EPS는 0.65달러로 집계됐다. 다만 클라우드·AI 사업 매출은 서버 판매 감소 영향으로 63억 달러(약 9조 2622억원)로 전년 대비 2.7% 줄었다. 회사 측은 메모리 반도체 공급 부족이 당분간 이어질 것으로 보고 가격 정책을 조정하고 있다. 일부 고객 공급을 제한하고 기업 고객이나 국가 단위 클라우드 프로젝트 등 수익성이 높은 사업에 집중하는 전략도 병행하고 있다. 또 각국 정부가 자체 AI 클라우드 구축에 나서면서 관련 계약 수주 경쟁도 치열해지고 있다고 밝혔다. 다만 이같은 프로젝트는 계약 체결과 미국 수출 규제 승인 절차가 길어 실제 매출 반영은 올해 하반기 이후가 될 가능성이 크다는 설명이다. 이번 실적 전망 발표 이후 HPE 주가는 시간외 거래에서 약 2% 상승했다. 안토니오 네리 HPE 최고경영자(CEO)는 "공급망 부족과 비용 인플레이션이 맞물린 역동적인 환경 속에서도 우리는 강력한 실행력을 유지하며 대응하고 있다"고 밝혔다.

2026.03.10 09:47한정호 기자

[유미's 픽] "글로벌 AI SW 기업 되겠다"...LG유플 선언에 LG CNS '예의주시'

"통신과 AX 기술의 솔루션화를 주도하는 AI 중심의 SW 기업이 되겠습니다." 홍범식 LG유플러스 사장이 최근 스페인 바르셀로나에서 열린 MWC26에서 이같이 선언하면서 LG그룹 내 인공지능(AI) 인프라 사업 구도에도 변화가 감지되고 있다. 데이터센터 설계·구축·운영(DBO) 시장 1위 사업자인 LG CNS가 주도해 온 데이터센터·인공지능 전환(AX) 영역에 통신 계열사 LG유플러스가 AI 인프라 사업 확대를 선언하며 사실상 도전장을 내민 모양새다. 9일 업계에 따르면 LG유플러스는 MWC26에서 '원(One) LG' 전략을 기반으로 한 인공지능 데이터센터(AIDC) 사업 확대 계획을 공개했다. 2027년 완공 예정인 경기 파주 AIDC를 중심으로 AI 연산 인프라 사업을 확대하고 데이터센터 운영을 넘어 AI 플랫폼과 서비스까지 사업 범위를 넓히겠다는 구상이다. 파주 AIDC는 약 200MW 규모로 구축되며 최대 12만 개의 그래픽처리장치(GPU)를 수용할 수 있는 대형 AI 데이터센터로 조성될 예정이다. LG유플러스는 데이터센터 운영과 AI 인프라 관리 시스템을 담당하고 냉각과 전력 등 인프라는 LG전자와 LG에너지솔루션 등 계열사 기술을 활용한다는 계획이다. LG CNS 역시 AI 인프라 사업을 핵심 성장 동력으로 삼고 있다. LG CNS는 데이터센터 설계·구축·운영(DBO)을 포함한 인프라 사업을 주요 사업으로 추진하고 있다. 최근에는 컨테이너형 데이터센터 'AI 박스'를 공개하고 GPU 576장을 수용할 수 있는 모듈형 AI 데이터센터 모델을 선보였다. 부산 데이터센터 부지에는 약 50개의 AI 박스를 집적한 'AI 박스 캠퍼스' 구축도 추진 중이다. 해외에서도 AI 데이터센터 사업을 확대하고 있다. LG CNS는 인도네시아 자카르타에서 약 1000억원 규모의 하이퍼스케일급 AI 데이터센터 구축 사업을 수주하고 현지 대기업 시나르마스 그룹과 합작법인을 설립했다. 이 사업 역시 LG전자 냉각 기술과 LG에너지솔루션 배터리 솔루션을 결합한 '원 LG' 방식으로 추진된다. 이처럼 LG유플러스와 LG CNS가 각각 AI 데이터센터와 AI 인프라 사업을 확대하면서 두 회사의 사업 영역은 점차 교차하는 모습이다. 특히 데이터센터 산업에서 설계(Design)·구축(Build)·운영(Operate)을 포함하는 DBO 사업은 통합 인프라 사업으로 분류되는데 양사가 모두 해당 영역을 핵심 사업으로 제시하고 있다. 실제로 양사가 발표한 자료에서도 이러한 흐름이 확인된다. LG CNS는 데이터센터 설계·구축·운영 역량을 중심으로 '원 LG' 전략을 설명하고 있으며, LG유플러스 역시 AI 데이터센터 구축과 운영을 중심으로 같은 전략을 강조하고 있다. 같은 협력 구조를 언급하면서도 사업 중심은 각 회사로 설명하는 방식이다. LG CNS 내부에서는 이러한 흐름을 예의주시하는 분위기다. LG CNS는 데이터센터 설계·구축·운영(DBO) 시장에서 국내 1위 사업자로 꼽힌다. 업계에서는 LG CNS를 선두로 KT클라우드 등이 뒤를 잇는 구조로 평가하고 있다. 이 때문에 통신 계열사인 LG유플러스가 AI 데이터센터 사업 확대를 선언하면서 사실상 같은 인프라 영역에 진입하는 것 아니냐는 시각도 나온다. 업계에선 AI 인프라 시장 확대 과정에서 기존 DBO 강자인 LG CNS에 통신사가 도전하는 구도가 형성되고 있다는 분석도 제기된다. LG그룹은 AI 모델 개발은 LG AI연구원이, 데이터센터 냉각은 LG전자, 전력 인프라는 LG에너지솔루션이 담당하는 방식으로 계열사 협력을 강화하고 있다. 여기에 데이터센터 구축과 운영, AI 인프라 사업을 두고 LG CNS와 LG유플러스가 동시에 사업 확대에 나서면서 그룹 내 사업 경계가 이전보다 복잡해지는 모습이다. 업계에선 이러한 흐름이 통신 산업 구조 변화와 맞물린 현상으로 보고 있다. 이동통신 시장 성장세가 둔화되면서 통신사들이 AI·클라우드·데이터센터 등 인프라 사업으로 영역을 확대하고 있기 때문이다. 실제로 SK텔레콤과 SK AX, KT와 KT DS 등 국내 주요 통신 그룹에서도 통신 계열사와 IT서비스 계열사의 사업 영역이 일부 겹치는 구조가 나타나고 있다. 업계 관계자는 "LG CNS는 국내 DBO 시장에서 가장 많은 데이터센터 구축 경험을 가진 사업자"라며 "AI 데이터센터 시장이 커질수록 통신사와 IT서비스 기업 간 경쟁 구도가 더욱 뚜렷해질 가능성이 있다"고 말했다.

2026.03.09 10:23장유미 기자

"AI 인프라 확대 너무했나"…오라클, 수천명 감원 추진

오라클이 인공지능(AI) 인프라 투자 확대에 따른 재무 부담을 완화하기 위해 수천 명 규모의 인력 감축을 추진하는 것으로 알려졌다. 6일 블룸버그통신에 따르면 오라클은 이르면 이달부터 여러 사업 부문에서 대규모 구조조정을 단행하는 방안을 검토하고 있는 것으로 전해졌다. AI 도입 확대에 따라 향후 필요성이 줄어들 것으로 판단되는 직무를 중심으로 감원을 추진하고 있는 것으로 파악됐다. 이번 감원은 오라클이 추진 중인 대규모 AI 데이터센터 구축 프로젝트와 밀접한 관련이 있는 것으로 분석된다. 오라클은 최근 오픈AI 등 고객사를 위한 AI 워크로드 처리 인프라 확대에 나서면서 데이터센터 투자 규모를 크게 늘리고 있다. 오라클은 전통적으로 데이터베이스 소프트웨어 기업으로 알려져 있지만 최근 몇 년간 클라우드 사업을 강화하며 AI 인프라 기업으로의 전환을 추진해 왔다. 이를 통해 아마존웹서비스(AWS)와 마이크로소프트(MS) 등 클라우드 시장 선두 업체와 경쟁력을 확보한다는 전략이다. 다만 막대한 선행 투자 비용이 단기적인 재무 부담으로 작용하고 있다. 블룸버그가 집계한 월가 전망에 따르면 AI 데이터센터 투자 확대에 따라 오라클의 현금흐름은 향후 몇 년간 마이너스(−)로 전환될 가능성이 있는 것으로 예상된다. 투자 효과가 본격적으로 나타나는 시점은 2030년 이후로 전망된다. 이에 따라 오라클은 올해 최대 500억 달러(약 66조원)를 채권 및 주식 발행을 통해 조달할 계획이라고 지난달 밝혔다. 구조조정은 채용 정책에도 영향을 미치고 있다. 회사는 최근 내부적으로 클라우드 부문 채용 공고를 재검토하며 사실상 채용 속도를 늦추거나 동결하는 조치를 취한 것으로 전해졌다. 오라클은 지난해 5월 기준 전 세계 약 16만2000명의 직원을 고용하고 있다.블룸버그통신은 "오라클이 AI 클라우드 사업자로 전환을 추진하면서 초기에는 투자자들의 긍정적인 반응을 얻었다"며 "오라클 주가는 2024년 61%, 2025년 20% 상승하며 강세를 보였다"고 설명했다. 하지만 데이터센터 구축 등 AI 투자 비용이 급격히 늘어나면서 시장 분위기가 바뀌었다. 오라클 주가는 2025년 9월 기록한 고점 대비 지난 4일 종가 기준 약 54% 하락했다. 이번 감원 계획 보도가 나온 이후에도 주가는 하락 압력을 받았다. 오라클 주가는 목요일 장중 최대 1.5% 하락해 150.12달러까지 떨어졌다. 오라클뿐 아니라 AI 투자 확대에 따른 비용 부담으로 빅테크 업계 전반에서도 인력 감축 움직임이 확산되고 있다. 마이크로소프트는 지난해 데이터센터와 AI 소프트웨어 투자 확대 속에서 약 1만5000명을 감원했으며 결제 기업 블록(Block)도 최근 직원의 절반에 가까운 규모의 구조조정을 발표했다. 오라클 역시 지난해 9월 공시를 통해 최대 16억 달러 규모의 역대 최대 구조조정 계획을 밝힌 바 있다. 이는 퇴직금 등 비용을 포함한 규모로, 회사 역사상 가장 큰 구조조정이다. 오라클은 다음 주 회계연도 3분기 실적 발표를 앞두고 있다. 블룸버그통신은 "이번 구조조정은 오라클이 통상적으로 진행해온 상시적인 소규모 인력 감축보다 훨씬 광범위한 수준이 될 것"이라며 "최근 내부적으로 클라우드 사업 부문의 채용 공고 상당수를 재검토하기로 결정하면서 채용 속도를 늦추거나 사실상 동결하는 조치를 취한 것으로 알고 있다"고 말했다.

2026.03.06 11:15장유미 기자

중동 전쟁에 LNG 운임 상승…AI 데이터센터 업계 '전력비 변수' 주시

중동 전쟁 여파로 액화천연가스(LNG) 운임이 상승하면서 전력비 부담 가능성이 제기되는 가운데, 전력 소비가 큰 인공지능(AI) 데이터센터 업계가 상황을 예의주시하고 있다. 당장 운영 차질은 없지만 전력 가격 변동이 장기화될 경우 데이터센터 운영 비용에 영향을 줄 수 있다는 관측이 나온다. 5일 업계에 따르면 최근 중동 정세 불안으로 LNG 운임이 상승하면서 전력 시장에도 변수로 작용할 가능성이 제기되고 있다. AI 데이터센터는 일반 서버보다 훨씬 많은 전력을 소비하는 구조로 전력 가격 변동에 민감하기 때문이다. 실제 세계 최대 LNG 거점 중 하나인 카타르 라스라판 가동 중단 여파로 LNG선 단기 운임은 약 20% 상승한 것으로 알려졌다. 가스 도입 가격이 오르면 국내 전력 도매가격(SMP) 상승으로 이어질 수 있어 전기요금 인상 압박 요인이 될 수 있다는 분석이다. 여기에 중동 전쟁으로 주요 에너지 운송로인 호르무즈 해협을 둘러싼 긴장까지 높아지면서 LNG 운송 비용 변동성도 확대되는 분위기다. 업계에선 이러한 에너지 가격 상승 압력이 장기화될 경우 전력 소비가 많은 AI 데이터센터 운영 비용에도 영향을 줄 수 있다고 보고 있다. AI 데이터센터는 대규모 그래픽처리장치(GPU)와 고성능 서버를 운영해야 하는 만큼 일반 데이터센터보다 전력 소비가 많은 구조다. 다만 현재까지 국내 데이터센터 운영에는 직접적인 영향이 나타나지 않은 상황이다. 주요 통신사와 클라우드 기업들은 서비스 가용성에는 문제가 없으며 상황을 주시하고 있다는 입장이다. 최근 중동 지역에선 클라우드 인프라가 실제 군사 충돌의 영향을 받을 수 있다는 사례도 나오고 있다. 아마존웹서비스(AWS)의 중동 데이터센터가 드론 공격을 받아 일부 서비스 장애가 발생하면서 지정학적 리스크가 디지털 인프라로 확산될 수 있다는 우려가 제기되고 있다. 이에 국내 클라우드 기업들도 중동 사업 리스크 점검에 나선 모습이다. 중동은 최근 AI 인프라와 초대형 데이터센터 투자가 집중되는 지역으로, 지정학적 긴장이 장기화될 경우 일부 IT 인프라 프로젝트 일정에도 변수로 작용할 수 있다는 분석이 나온다. 대표적으로 중동 시장 공략에 나서고 있는 네이버클라우드는 현재 중동 프로젝트 운영에 차질이 없다는 입장이다. 네이버는 사우디아라비아를 중심으로 디지털 트윈과 AI·클라우드 사업을 추진하며 중동을 글로벌 전략 거점 중 하나로 육성 중이다. 회사 측은 중동 지역에 자체 데이터센터 시설을 직접 운영하고 있지는 않으며 현지에는 사무공간 중심 거점만 두고 있어 전쟁의 직접적 영향은 받지 않고 있다. 사우디 아람코 디지털과 협력 중인 메가존클라우드 역시 사업 운영에는 큰 영향이 없다는 입장이다. 앞서 메가존클라우드는 현지 클라우드 및 디지털 전환 사업을 추진하는 등 중동 시장 진출을 확대해 왔다. 현재까지 국내 클라우드 기업들의 데이터센터 운영 및 해외 거점에 대한 직접적인 영향은 확인되지 않고 있다. 다만 에너지 가격 상승이 장기화될 경우 데이터센터 산업 전반의 비용 구조에 영향을 줄 가능성은 배제할 수 없다는 시각도 나온다. 공공과 민간 모두에서 고성능 GPU 중심의 AI 인프라 수요가 빠르게 늘면서 전력 비용이 데이터센터 운영의 핵심 변수로 떠오르고 있어서다. 데이터센터 업계 관계자는 "현재까지 국내 AI 데이터센터 운영에 직접적인 영향은 없지만 LNG 가격 상승이 장기화될 경우 전기요금 상승으로 이어질 가능성이 있는 만큼 상황을 예의주시하고 있다"고 말했다.

2026.03.05 17:41한정호 기자

브로드컴, AI칩 고성장 자신…삼성·SK 메모리 수요 견인

브로드컴이 주문형 인공지능(AI) 반도체 사업 성장세를 자신했다. 구글·오픈AI 등 글로벌 기업들의 자체 AI 가속기 출하량 확대에 따른 효과다. 오는 2027년에는 관련 매출이 연 1000억 달러(약 146조원)에 달할 것으로 내다봤다. 해당 칩에 고대역폭메모리(HBM) 등 고부가 메모리를 공급하는 삼성전자·SK하이닉스도 견조한 수요가 지속될 전망이다. 브로드컴은 4일(현지시간) 회계연도 2026년 1분기(2026년 2월 1일 마감) 매출액 193억 1100만 달러(약 28조원)를 기록했다고 밝혔다. 전년동기 대비 29%, 전분기 대비 7% 증가했다. 특히 AI 반도체 매출은 86억 달러로 전년동기 대비 106%, 전분기 대비 29% 증가했다. 전체 사업군 중 가장 가파른 성장세다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·앤트로픽 등 고객사의 AI 반도체를 위탁 개발하고 있다. 향후 전망도 긍정적이다. 브로드컴은 회계연도 2026년 2분기 AI 반도체 매출액 예상치를 107억 달러로 제시했다. 전년동기 대비 143%, 전분기 대비 27% 증가한 수준이다. 증권가 컨센서스(약 92억 달러) 역시 크게 웃돌았다. 성장세의 주요 배경은 글로벌 기업들의 적극적인 AI 인프라 투자다. 현재 브로드컴은 AI 반도체 사업에서 5개 고객사를 확보한 상황으로, 각 고객사들은 맞춤형 AI 가속기(XPU) 도입을 가속화하고 있다. 최근에는 6번째 고객사도 추가로 확보했다. 특히 브로드컴의 핵심 고객사인 구글의 텐서처리장치(TPU)가 강력한 수요를 보일 것으로 예상된다. TPU는 대규모 학습 및 추론 분야에서 범용 GPU 대비 높은 효율을 보인다. 현재 7세대 칩인 '아이언우드'까지 상용화가 이뤄졌다. 호크 탄 브로드컴 최고경영자(CEO)는 "구글은 물론 메타의 AI 가속기 출하량이 확대될 예정"이라며 "또다른 고객사들도 출하량이 호조세를 보여, 2027년에는 규모가 2배 이상 증가할 것으로 예상한다"고 밝혔다. 그는 이어 "여섯 번째 고객으로 오픈AI가 2027년에 1GW(기가와트) 이상의 컴퓨팅 용량을 갖춘 1세대 AI XPU를 대량으로 도입할 것으로 기대한다"며 "AI XPU 개발을 위한 협력은 다년간 지속될 것임을 강조하고 싶다"고 덧붙였다. 브로드컴의 AI 반도체 매출 확대는 삼성전자·SK하이닉스 등 국내 메모리 기업들의 실적과도 연계된다. 브로드컴이 설계하는 XPU에 HBM 등 고부가 메모리가 탑재되기 때문이다. 올해만 해도 삼성전자, SK하이닉스, 마이크론 3사의 HBM3E 물량 30%가 구글 TPU에 할당될 것으로 알려졌다. 오픈AI 역시 삼성전자, SK하이닉스 메모리 사업의 '큰손' 고객사로 떠오를 전망이다. 앞서 오픈AI는 지난해 하반기 삼성전자·SK하이닉스와 핵심 AI 인프라 구축을 위한 전방위적 협력 체계를 맺은 바 있다. 호크 탄 CEO는 "당사는 오는 2027년 XPU, 스위치 칩 등을 포함한 AI 반도체 매출액이 1000억 달러를 넘어설 것으로 예상하고 있다"며 "이를 달성하는 데 필요한 공급망도 확보했다"고 강조했다.

2026.03.05 17:24장경윤 기자

파네시아, SKT·오픈칩과 CXL 동맹…차세대 AI 데이터센터 공략

국내 인공지능(AI) 인프라 링크 솔루션 기업 파네시아가 세계 최대 이동통신 전시회 'MWC26' 현장에서 국내외 대형 파트너들과 손잡고 차세대 AI 데이터센터(DC) 시장 공략에 속도를 낸다. 파네시아는 현지시간 4일 SK텔레콤과 'CXL 기반 차세대 AI DC 아키텍처' 공동 개발을 위한 전략적 파트너십을 체결한 데 이어, 5일에는 유럽의 시스템 반도체 기업 오픈칩과 AI/HPC 인프라 기술 협력 MOU를 맺었다고 밝혔다. SKT와 '서버 틀' 깨는 CXL 기반 연결 구조 혁신 파네시아와 SK텔레콤은 대규모 AI 서비스 구동을 위한 천문학적인 그래픽처리장치(GPU) 도입 비용 문제를 해결하기 위해 '연결 구조의 혁신'에 주목했다. 양사는 단순한 장비 증설 대신 컴퓨트 익스프레스 링크(CXL) 기술을 활용해 기존 컴퓨팅 자원 효율을 극대화하는 방안을 제시한다. 기존 AI DC는 CPU·GPU·메모리가 서버 단위로 고정돼 있어 특정 자원이 남아도 다른 서버에서 쓸 수 없었다. 양사는 이를 해결하기 위해 자원을 종류별로 분리한 뒤, 랙 단위에서 CXL 패브릭 스위치로 연결해 하나의 통합 시스템처럼 운영하는 구조를 설계한다. 기존 이더넷 기반 네트워크 전송 과정에서 발생하는 데이터 복사와 지연 시간을 줄이기 위해 모든 자원에 '링크 컨트롤러'를 통합하는 방안도 추진한다. 링크 컨트롤러는 장치 간 효율적 데이터 전송을 돕는 전자부품으로, CPU∙GPU∙AI 가속기∙메모리에 통합되어 해당 장치가 CXL을 기반으로 통신할 수 있도록 지원한다. 이를 통해 복잡한 소프트웨어 개입 없이 메모리 접근 동작만으로 데이터를 고속 전송해 연산 효율을 높인다는 전략이다. 유럽 오픈칩과 'RISC-V 가속기' 생태계 확장 파네시아는 유럽 AI 가속기 설계 기업인 오픈칩과도 손을 잡았다. 오픈칩은 스페인 바르셀로나에 본사를 둔 기업으로, RISC-V 기반 가속기와 풀스택 소프트웨어 포트폴리오를 보유하고 있다. 양사는 AI/HPC 환경에서 요구되는 성능과 확장성을 확보하기 위해 링크 아키텍처 고도화 방안을 논의했다. 특히 오픈칩의 RISC-V 기반 가속기에 파네시아 첨단 링크 기술을 결합해, 데이터 이동의 고질적 병목 현상을 해결하고 유럽 내 디지털 주권 강화를 위한 고성능 인프라 구축에 협력할 계획이다. 정석근 SK텔레콤 AI CIC장은 “이번 협력은 데이터 흐름의 병목인 '메모리 월'을 완화해 AI DC의 성능과 경제성을 동시에 끌어올릴 것”이라고 평가했다. 세스크 구임 오픈칩 최고경영자(CEO)는 “파네시아와의 협력은 확장 가능하고 효율적인 AI 인프라 구축에 필수적인 절차”라고 강조했다. 정명수 파네시아 대표는 “차세대 AI 인프라는 개별 장비의 성능이 아니라 다양한 링크 반도체가 만들어내는 '구조'가 성패를 좌우한다”며 “SK텔레콤, 오픈칩 등 글로벌 파트너들과 함께 고효율 AI 데이터센터의 표준 모델을 제시하고 생태계를 지속 확장하겠다”고 밝혔다. 한편 파네시아와 SK텔레콤은 실제 AI 모델을 활용해 GPU·메모리 활용률 등을 검증한 뒤, 올 연말까지 차세대 AI 데이터센터 구조를 공개할 예정이다.

2026.03.05 15:54전화평 기자

데이터센터 밖으로 확장된 AI…서버 업계, '엣지 AI' 경쟁 가속

인공지능(AI) 인프라의 중심이 데이터센터에서 현장으로 이동하고 있다. 생성형 AI 확산으로 대규모 모델 학습뿐 아니라 실시간 추론 수요가 빠르게 증가하면서 제조 현장, 매장, 통신 기지국 등 데이터가 생성되는 장소에서 바로 AI를 활용하는 '엣지 AI'가 차세대 인프라로 떠오르고 있다. 5일 업계에 따르면 글로벌 서버 기업들은 데이터센터 중심의 기존 AI 인프라 전략을 넘어 제조·리테일·통신·로봇 등 산업 현장에서 AI 연산을 처리하는 엣지 인프라 구축 경쟁에 속도를 내고 있다. 특히 델 테크놀로지스, HPE, 슈퍼마이크로 등 주요 서버 기업들이 엣지 환경에서 AI 추론을 수행할 수 있는 특화 서버와 네트워크 솔루션을 잇달아 선보이며 시장 공략에 나서고 있다. 엣지 AI는 데이터를 중앙 데이터센터로 보내 처리하는 대신 데이터가 생성되는 현장에서 즉시 분석과 의사결정을 수행하는 방식이다. 실시간 처리가 필요한 산업에서 지연 시간을 줄이고 네트워크 비용을 낮출 수 있다는 점에서 스마트팩토리·리테일·자율주행·로봇 등 다양한 산업에서 활용 가능성이 주목받고 있다 포춘비즈니스인사이트 등 주요 시장조사업체에 따르면 글로벌 엣지 AI 시장 규모는 2024년 약 200억 달러(약 29조원) 수준에서 2030년 1천억 달러(약 146조원)로 연평균 20% 이상 성장할 전망이다. 서버 기업들은 이같은 흐름에 맞춰 엣지 환경에 최적화된 AI 인프라를 잇따라 내놓고 있다. 델 테크놀로지스는 최근 실외 환경에서도 AI 워크로드를 처리할 수 있는 서버 '파워엣지 XR9700'을 공개하며 엣지 AI 시장 공략을 강화했다. 해당 서버는 전신주나 옥상 등 외부 환경에서도 설치할 수 있도록 설계됐으며 통신 기지국과 원격지에서 클라우드 무선 접속망(RAN)과 엣지 AI 애플리케이션을 직접 실행할 수 있도록 지원한다. HPE 역시 엣지 인프라 전략을 강화하고 있다. MWC26에서 'HPE 프로라이언트 컴퓨트 EL9000 섀시'와 'EL140 젠12 서버' 기반 AI 인프라를 공개하며 코어 데이터센터부터 통신 기지국 등 엣지 환경까지 AI 워크로드를 처리하는 플랫폼을 제시했다. 해당 솔루션은 통신사와 서비스 사업자가 증가하는 AI 트래픽을 처리하고 엣지 환경에서 AI 서비스를 제공할 수 있도록 설계된 것이 특징이다. 슈퍼마이크로도 통신 네트워크와 결합한 엣지 AI 인프라 확대에 나섰다. 회사는 AI-RAN을 지원하는 서버 시스템을 공개하고 노키아·SK텔레콤 등 글로벌 통신사와 협력해 통신망에서 AI 워크로드를 처리하는 분산형 인프라 활용 사례를 선보였다. 이 시스템은 그래픽처리장치(GPU) 기반 AI 서버를 활용해 엣지 AI를 위한 네트워크 최적화와 자동화를 지원한다. 글로벌 네트워크 기업들도 엣지 AI 경쟁에 뛰어들고 있다. 시스코는 분산형 AI 환경을 지원하기 위한 '유니파이드 엣지' 플랫폼을 공개하며 컴퓨팅·네트워킹·스토리지·보안을 하나의 인프라로 통합했다. 데이터가 생성되는 지점에서 실시간 AI 추론을 수행하는 분산형 AI 환경을 구현한다는 전략이다. 클라우드 기업 역시 AI 추론을 엣지로 확장하는 움직임을 보이고 있다. 대표적으로 아카마이는 엔비디아 AI 인프라를 기반으로 한 '인퍼런스 클라우드'를 공개하며 데이터센터에서 인터넷 엣지까지 AI 추론을 확장하는 분산형 AI 플랫폼 구축에 나서고 있다. 스마트 커머스와 실시간 금융 의사결정, 산업용 로봇 등 다양한 AI 서비스에 대응한다는 계획이다. 업계에선 엣지 AI가 향후 피지컬 AI 확산을 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 공장 자동화와 자율주행, 로봇 등 물리 세계와 연결된 AI 서비스는 밀리초 단위의 실시간 데이터 처리 능력이 요구되기 때문이다. 이에 기존 데이터센터 중심 AI 인프라와 함께 산업 현장과 초고속 네트워크 환경에 맞춤화된 분산형 엣지 AI 인프라 역시 성장할 것이라는 전망이 나온다. 데이터센터 업계 관계자는 "AI 산업이 모델 학습 중심에서 실제 서비스와 산업 적용 단계로 넘어가면서 데이터가 생성되는 현장에서 AI를 처리하는 엣지 인프라가 주목받고 있다"며 "향후 스마트팩토리와 로봇, 자율주행 등 피지컬 AI 확산과 함께 엣지 AI 서버 시장도 성장할 것"이라고 말했다.

2026.03.05 14:12한정호 기자

10조원대 비트코인 쏟아지나…채굴업계, AI 붐에 '데이터센터' 전환 가속

인공지능(AI) 데이터센터 수요가 급증하면서 비트코인 채굴업체들이 보유하던 대규모 비트코인을 매각하고 AI 사업으로 전환하는 움직임이 빨라지고 있다. 4일(현지시간) 블룸버그통신에 따르면 채굴업체들이 보유한 비트코인 규모만 80억 달러(약 10조원) 이상에 달하는 가운데 일부 기업들은 최근 이를 현금화해 AI 인프라 투자에 활용하는 분위기다. 그동안 주요 비트코인 채굴기업들은 채굴한 코인을 장기간 보유하는 이른바 '트레저리 전략(treasury strategy)'을 유지해왔다. 비트코인의 희소성이 장기적으로 가격 상승을 이끌 것이라는 기대에 따라 기업 재무제표에 대규모 코인 보유분을 쌓아두는 방식이다. 그러나 최근 들어 일부 채굴기업들이 보유 물량을 매각하기 시작하면서 업계 전략에도 변화가 감지되고 있다. 시장에서는 채굴업체들이 보유한 비트코인 가운데 상당 부분이 AI 데이터센터 구축 자금으로 이동하고 있는 것으로 보고 있다. 대형 채굴시설이 갖춘 저렴한 전력 접근성과 대규모 서버 운영 경험이 AI 데이터센터 인프라와 구조적으로 유사하기 때문이다.업계 관계자는 "채굴업체들이 기존 설비와 전력 인프라를 활용해 AI 데이터센터 사업자로 변신하려는 움직임이 확산되고 있다"고 분석했다. 실제로 주요 채굴기업들은 AI 사업 확대에 속도를 내고 있다. 비트코인 보유량 기준으로 마이클 세일러의 스트래티지 다음으로 많은 비트코인을 보유한 마라 홀딩스(MARA Holdings)는 약 40억 달러 규모의 비트코인 보유분 일부를 매각할 가능성을 열어두며 전략 수정에 나섰다. 클린스파크와 라이엇 플랫폼스도 경영진 개편을 통해 AI 데이터센터 사업 전환을 가속하고 있다. 비트디어 테크놀로지스는 보유 비트코인을 전량 매각하고 AI 사업에 집중하는 전략을 택했다. 채굴업체들이 AI 사업으로 눈을 돌리는 이유는 수익 구조의 차이에 있다. 비트코인 채굴은 토큰 가격, 네트워크 난이도, 반감기 등 여러 변수에 따라 수익이 크게 변동한다. 반면 AI 연산 서비스는 장기 계약 기반의 안정적인 매출을 확보할 수 있어 수익 예측 가능성이 높다는 평가다. 캐나다 데이터센터 기업 비트제로에 투자한 케빈 오리어리 창립자는 "만약 비트코인 채굴 기업이 채굴 장비를 모두 제거하고 대형 클라우드 기업에 AI 데이터센터를 임대한다고 발표한다면 주가가 5배까지 상승할 수도 있다"며 "비트코인 수요가 줄어든다는 의미가 아니라 더 높은 수익을 낼 수 있는 사업이 있기 때문"이라고 말했다. 채굴업체들의 비트코인 매각 움직임은 최근 약세를 보이고 있는 암호화폐 시장의 불안 심리를 키우고 있다. 비트코인 가격은 지난해 10월 사상 최고가를 기록한 약 12만6000달러 대비 40% 이상 하락한 상태다. 다만 업계에서는 이번 매각이 과거처럼 운영비 충당을 위한 것이 아니라 전략적 사업 재편의 성격이 강하다고 보고 있다. JP모건 분석가들은 최근 보고서에서 "채굴기업들의 실적 발표에서는 대부분 AI 고성능 컴퓨팅(HPC) 계약 체결과 데이터센터 건설 진행 상황이 핵심 논의 주제가 되고 있다"고 설명했다. 투자자들의 압력도 사업 전환을 가속화하는 요인으로 꼽힌다. 미국 텍사스에 대형 채굴 시설을 보유한 라이엇 플랫폼스는 행동주의 투자자 스타보드로부터 AI 프로젝트 확대 요구를 받고 있는 것으로 알려졌다. 업계에선 전력 인프라를 기반으로 한 채굴기업들의 AI 전환이 향후 관련 산업 구조에도 영향을 미칠 것으로 보고 있다. 매튜 킴멜 코인셰어즈 디지털자산 분석가는 "비트코인 채굴기업들이 AI 사업으로 전환할 때의 가치는 전력 확보 능력과 장기 컴퓨팅 계약에서 나온다"며 "이 수익 구조는 비트코인 가격 변동과의 연관성이 낮아 공모시장 투자자들에게 더 매력적으로 평가되고 있다"고 말했다.

2026.03.05 10:14장유미 기자

LG CNS, 그룹 기술 결집한 소형 데이터센터 'AI 박스' 공개…글로벌 공략

LG CNS가 LG그룹 계열사와 기술력을 결집한 컨테이너형 인공지능(AI) 데이터센터 'AI 박스'를 선보이며 글로벌 AI 인프라 시장 공략에 나선다. LG CNS는 컨테이너 하나에 그래픽처리장치(GPU) 576장을 수용할 수 있는 AI 박스를 출시했다고 5일 밝혔다. AI 박스는 별도의 건물을 신축하지 않고 컨테이너형 모듈을 연결하는 방식으로 구축되는 소형 AI 데이터센터다. 전통적인 데이터센터 구축에 약 2년이 걸리는 것과 달리 약 6개월 만에 구축이 가능해 AI 인프라 수요에 빠르게 대응할 수 있다는 점이 특징이다. 모듈형 구조를 적용해 확장성도 확보했다. 단일 컨테이너 단위로 운영할 수 있을 뿐 아니라 수십 개의 컨테이너를 단계적으로 결합해 하이퍼스케일급 AI 데이터센터로 확장할 수 있다. 고객은 초기 투자 부담을 줄이면서도 필요에 따라 인프라 규모를 유연하게 확대할 수 있다는 설명이다. AI 박스는 LG CNS의 데이터센터 설계·구축·운영(DBO) 역량과 LG 계열사의 기술력을 결합한 '원(One) LG' 기반 AI 데이터센터 모델이다. LG CNS는 약 40년간 축적한 데이터센터 설계·구축·운영 경험을 바탕으로 AI 플랫폼과 전력·냉각 인프라, IT 장비를 통합 설계했다. 특히 LG전자의 냉각수 분배 장치(CDU)와 항온항습기, 냉동기 등 냉각 설비와 LG에너지솔루션의 UPS용 배터리를 패키지 형태로 적용해 고전력·고밀도 AI 환경에 최적화된 전력·냉각 인프라를 구현했다. AI 박스는 전력 인프라를 담당하는 무정전전원장치(UPS)·변압기·수배전반 등 전기실과 IT 장비 운영 공간인 전산실로 구성된다. 외부에는 발전기와 배터리실, 냉동기를 갖춰 안정적인 전력 공급과 효율적인 열 관리를 지원한다. AI 박스 1개당 서버 전력은 1.2메가와트(MW) 규모로 최대 576장의 GPU를 수용할 수 있다. AI 데이터센터 수요가 빠르게 증가하는 상황에서 AI 박스는 구축 기간과 인프라 확보 문제를 해결할 수 있는 대안으로 주목받고 있다. 기존 대형 데이터센터는 부지 확보와 인허가, 전력·냉각 설계 등에 시간이 오래 걸려 급증하는 AI 인프라 수요에 신속히 대응하기 어려웠다는 한계가 있었다. LG CNS는 첫 번째 AI 박스를 부산 글로벌 클라우드 데이터센터 부지에 구축할 계획이다. 향후 약 2만 7179㎡(약 8221평) 부지에 약 50개의 AI 박스를 집적한 대규모 'AI 박스 캠퍼스'를 조성해 국내 AI 인프라 수요에 대응할 방침이다. 시장조사업체 포춘 비즈니스 인사이트에 따르면 글로벌 AI 데이터센터 시장 규모는 2030년까지 약 700조원 규모로 성장할 전망이다. LG CNS는 AI 박스를 통해 설계·구축·운영을 아우르는 데이터센터 DBO 역량을 강화하고 AI 인프라 패키지 사업자로 도약한다는 목표다. 조헌혁 LG CNS 데이터센터사업담당 상무는 "AI 서버부터 전력·냉각·운영까지 통합 제공하는 AI 박스는 데이터센터 사업의 새로운 패러다임을 이끌어 갈 것"이라며 "국내 시장의 성공 사례를 바탕으로 동남아시아, 북미 등 글로벌 시장으로 사업을 확대해 나가겠다"고 말했다.

2026.03.05 10:00한정호 기자

SK하이닉스, HBM4 '성능 점프' 비책 짰다…新패키징 기술 도입 추진

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) SK하이닉스가 고대역폭메모리(HBM)용 패키징 기술 변혁을 꾀한다. 대대적인 공정 전환 없이 HBM의 안정성과 성능을 강화할 수 있는 기술을 고안해, 현재 검증을 진행 중인 것으로 파악됐다. 실제 상용화가 이뤄지는 경우, 엔비디아가 요구하는 HBM4(6세대)의 최고 성능 달성은 물론 차세대 제품에서의 성능 강화도 한층 수월해질 것으로 예상된다. 이에 해당 기술의 성패에 업계의 이목이 쏠린다. 3일 지디넷코리아 취재를 종합하면 SK하이닉스는 HBM 성능 강화를 위한 새로운 패키징 기술 적용을 추진하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, 실리콘관통전극(TSV)를 뚫어 연결한 메모리다. 각 D램은 미세한 돌기의 마이크로 범프를 접합해 붙인다. HBM4의 경우 12단 적층 제품부터 상용화된다. SK하이닉스는 현재 HBM4의 초도 양산을 시작했다. HBM4의 리드타임(제품 양산, 공급에 필요한 전체 시간)이 6개월 내외인 만큼, 엔비디아와의 공식적인 퀄(품질) 테스트 마무리에 앞서 선제적으로 제품을 양산하는 개념이다. HBM4 공급은 문제 없지만…최고 성능 구현 고심 그간 업계에서는 SK하이닉스 HBM4의 성능 및 안정성 저하를 우려해 왔다. 엔비디아가 HBM4의 최대 성능(핀 당 속도)을 당초 제품 표준인 8Gbps를 크게 상회하는 11.7Gbps까지 요구하면서, 개발 난이도가 급격히 상승한 탓이다. 실제로 SK하이닉스 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 어려움을 겪어, 올해 초까지 일부 회로의 개선 작업을 거쳐 왔다. 이에 따라 본격적인 램프업(대량 양산) 시점도 당초 업계 예상보다 일정이 늦춰진 상황이다. 다만 업계 이야기를 종합하면, SK하이닉스가 엔비디아향 HBM4 공급에 큰 차질을 겪을 가능성은 현재로선 매우 낮은 수준이다. 주요 배경은 공급망에 있다. 엔비디아가 HBM4에 높은 사양을 요구하고 있긴 하지만, 이를 고집하는 경우 올 하반기 최신형 AI 가속기 '루빈'을 충분히 공급하는 데 제약이 생길 수 있다. 현재 HBM4에서 가장 좋은 피드백을 받고 있는 삼성전자도 수율, 1c D램 투자 현황 등을 고려하면 당장 공급량을 확대하기 어렵다. 때문에 업계는 엔비디아가 초기 수급하는 HBM4의 성능 조건을 10Gbps대로 완화할 가능성이 유력하다고 보고 있다. 반도체 전문 분석기관 세미애널리시스는 최근 보고서를 통해 "엔비디아가 루빈 칩의 총 대역폭을 당초 22TB/s로 목표했으나, 메모리 공급사들은 엔비디아의 요구 사항을 충족하는 데 어려움을 겪고 있는 것으로 파악된다"며 "초기 출하량은 이보다 낮은 20TB/s(역산하면 HBM4 핀 당 속도가 10Gbps급)에 가까울 것으로 예상한다"고 밝혔다. 반도체 업계 관계자는 "HBM 공급망은 단순 속도가 아니라 수율·공급망 안정성 등 어려 요소가 고려돼야 하기 때문에, SK하이닉스가 가장 많은 물량을 공급할 것이라는 전망은 여전히 유효하다"며 "다만 최고 성능 도달을 위한 개선 작업도 지속적으로 병행하는 등 기술적으로 안주할 수 없는 상황"이라고 말했다. HBM 성능 한계 돌파할 '신무기' 준비…현재 검증 단계 이와 관련, 현재 SK하이닉스는 HBM4 및 차세대 제품에 적용하는 것을 목표로 새로운 패키징 공법 도입을 시도하고 있다. 업계가 지목하는 HBM4 성능 제약의 가장 큰 요인은 입출력단자(I/O) 수의 확장이다. I/O는 데이터 송수신 통로로, HBM4의 경우 이전 세대 대비 2배 증가한 2048개가 구현된다. 그런데 I/O 수가 2배로 늘면 밀집된 I/O끼리 간섭 현상이 발생할 수 있다. 또한 전압 문제로 하부층의 로직 다이(HBM 밑에서 컨트롤러 역할을 담당하는 칩)에서 가장 높은 상부층까지 전력이 충분히 전달되기가 어렵다. 특히 SK하이닉스는 주요 경쟁사인 삼성전자 대비 한 세대 이전의 1b(5세대 10나노급) D램을 채용한다. 로직 다이도 TSMC의 12나노미터(nm) 공정으로, 삼성전자(삼성 파운드리 4나노) 대비 집적도가 낮다. 때문에 기술적으로 I/O 수 증가에 따른 문제에 취약하다. 대대적 공정 전환 없이 HBM 성능·안정성 향상…상용화 여부 주목 이에 SK하이닉스는 새로운 패키징 공법으로 새로운 비책을 마련하고 있는 것으로 파악됐다. 핵심은 ▲코어 다이 두께 향상, 그리고 ▲D램 간 간격(Gap) 축소다. 우선 일부 상부층 D램의 두께를 이전보다 두껍게 만든다. 기존엔 HBM4의 패키징 규격(높이 775마이크로미터)을 맞추기 위해 D램의 뒷면을 얇게 갈아내는 씨닝 공정이 적용된다. 다만 D램이 너무 얇아지면 칩 성능이 저하되거나 외부 충격에 쉽게 손상을 받을 수 있다. 때문에 SK하이닉스는 D램의 두께 향상으로 HBM4의 안정성을 강화하려는 것으로 풀이된다. 또한 D램 간 간격을 더 줄여, 전체 패키징 두께가 늘어나지 않도록 하는 동시에 전력 효율성을 높였다. 각 D램의 거리가 가까워지면 데이터가 더 빠르게 도달하게 되고, D램 최상층으로 전력이 도달하는 데 필요한 전력이 줄어들게 된다. 관건은 구현 난이도다. D램 간 간격이 줄어들면 MUF(몰디드언더필) 소재를 틈에 안정적으로 주입하기 힘들어진다. MUF는 D램의 보호재·절연체 등의 역할을 담당하는 소재로, 고르게 도포되지 않고 공백(Void)가 생기면 칩의 불량을 야기할 수 있다. SK하이닉스는 이를 해결할 수 있는 새로운 패키징 기술을 고안해냈다. 구체적인 사안은 밝혀지지 않았으나, 대대적인 공정 및 설비 변화 없이 D램 간격을 안정적인 수율로 줄일 수 있는 것이 주 골자다. 최근 진행된 내부 테스트 결과 역시 긍정적인 것으로 알려졌다. 만약 SK하이닉스가 해당 기술을 빠르게 상용화하는 경우, HBM4 및 차세대 제품에서 D램 간격을 효과적으로 줄일 수 있을 것으로 예상된다. 반대로 해당 기술이 양산 적용에 난항을 겪을 가능성도 남아 있다. 사안에 정통한 관계자는 "SK하이닉스가 기존 HBM의 한계를 극복하기 위한 새로운 패키징 공법을 고안해, 현재 검증 작업을 활발히 거치고 있다"며 "대규모 설비투자 없이 HBM 성능을 개선할 수 있기 때문에 상용화 시에는 파급 효과가 적지 않을 것"이라고 설명했다.

2026.03.03 14:29장경윤 기자

[기고] 피지컬 AI 시대 지속 가능한 데이터센터 진화 전략

2026년 현재 아시아·태평양 지역은 전 세계 디지털 전환의 가장 뜨거운 중심지로 자리매김했다. 특히 한국은 지난해 10월 아태경제협력체(APEC) 계기로 엔비디아·아마존웹서비스(AWS) 등 글로벌 기업의 그래픽처리장치(GPU) 공급 계획과 데이터센터 투자 유치가 가시화되며 인공지능(AI) 인프라 경쟁에서 유리한 위치를 선점했다. 국내 디지털 인프라 양적 확대뿐 아니라 운영 효율·안정성·지속가능성 중심으로 인프라 혁신을 가속하고 있다. 현재 AI 산업은 생성형 AI을 넘어 제조·물류·로보틱스 등 현실 세계로 뻗어가는 '피지컬 AI'로 나아가고 있으며, 산업 전반에서 수요가 급증할 것으로 예상된다. 이번 CES 2026에서 리사 수 AMD 최고경영자(CEO)는 '요타 스케일 컴퓨팅 시대'를, 젠슨 황 엔비디아 CEO는 앞으로 수년 동안 AI 인프라 경쟁 분수령이 될 것임을 시사했다. AI 시대를 가능하게 하는 핵심 인프라는 단연 데이터센터다. 다만 데이터센터를 단순히 '서버가 있는 건물'로만 보면 그 본질을 놓치기 쉽다. AI 데이터센터는 고집적 GPU 클러스터가 만들어내는 전력·열공학 시스템에 가깝다. 랙 당 소비전력이 커질수록 설비 중심은 서버룸과 변전·배전, UPS, 발전기, 공조시스템이 결합된 플랜트로 진화한다. 한국IDC에 따르면 국내 데이터센터 전력 수요는 2028년까지 연평균 11% 성장해 6기가바이트(GW)를 상회할 전망이다. 문제는 이 같은 전력 수요의 급증이 단순히 전기를 더 쓰는 문제로 끝나지 않는다는 점이다. 전력 사용량 증가는 탄소 배출과 직결되기 때문이다. 데이터센터는 AI 확산 기반이자 지속가능성 시험대가 된다. 데이터센터 전망에 우려만 있는 것은 아니다. 데이터센터 운영사들은 명확한 로드맵을 바탕으로 환경적 책임을 경쟁력으로 전환하고 있다. 실례로 STT GDC는 2030년 탄소중립 달성을 목표로 글로벌 데이터센터 운영 전력 78% 이상을 재생에너지로 충당하며 지속가능한 운영 전환을 실행하고 있다. 싱가포르는 비상발전 연료 일부를 기존 경유 대신 탄소 배출을 90% 절감하는 수소화 식물성 기름(HVO)으로 전환했다. AI 기반 데이터센터 운영 제어 시스템 파일럿 프로젝트를 통해 에너지 소비를 최대 30% 절감하는 성과를 기대하고 있다. 이는 지속가능성이 선언에 그치지 않고 측정가능한 운영 혁신으로 구현될 수 있음을 보여준다. 이런 변화는 운영사 과제만이 아니다. AI 에코시스템에 속한 기업들도 같은 방향으로 향하고 있다. 반도체 제조사의 아키텍쳐 효율, 클라우드 서비스사들의 액체 냉각 솔루션 개발, 정책·조달 기준의 탄소 요구가 맞물리며, 환경 우려가 곧 지속 가능성을 위한 혁신의 촉매가 되는 선순환으로 이어지는 움직임을 보이고 있다. 실제 엔비디아는 CES 2026에서 전 세대 대비 에너지 효율을 2배 향상시킨 차세대 GPU 아키텍처 '베라 루빈 NVL72'를 선보이며 저전력 고효율 연산 시대를 본격화했다. 구글과 마이크로소프트도 액체 냉각 솔루션, 마이크로플루이딕스(microfluidics)와 같은 냉각 방식을 채택하며 전력 사용 전력 사용 감소를 위해 노력하고 있다. 액체 냉각 방식은 공랭식 대비 50% 이상의 냉각 전력을 절감할 수 있어, 전력 효율·탄소 배출 개선을 위한 핵심 기술로 주목받고 있다. AI가 가져올 편리함과 경제적 효과에 대한 기대에 반해 데이터센터의 전력·탄소 부담에 대한 우려라는 상반된 시각이 공존한다. 그러나 고효율 연산, 액체 냉각, AI 기반 운영 고도화가 확산하면 전력·열·탄소·운영을 동시에 최적화하는 에너지 효율적이고 안정적인 에코시스템을 구축할 수 있다. 관건은 인프라 확장과 함께 효율과 책임을 설계 기준과 운영 핵심성과지표(KPI)에 내재화하고 끝까지 이행하는 실행력이다. 이를 실천한다면 데이터센터는 AI 경제의 심장으로서 환경 우려를 지속가능한 혁신의 동력으로 전환하며 미래를 떠받치는 견고한 기반이 될 것이다.

2026.03.03 10:34허철회 STT GDC 코리아 대표 컬럼니스트

한전, 지난해 영업이익 13.5조…부채·차입금 206조·130조 여전

한국전력(대표 김동철)은 2025년 결산 결과, 매출액은 전년대비 4.3% 증가한 97조4345억원, 영업비용은 1.3% 감소한 83조9097억원을 기록했다고 26일 밝혔다. 영업이익은 전년보다 5조1601억원 증가한 13조5248억원으로 집계됐다. 연결기준 재무현황을 보면, 전기판매량이 0.1% 감소했으나 판매단가는 전년보다 4.6% 상승해 전기판매수익이 4조1148억원 증가한 93조46억원을 기록했다. 자회사 연료비는 원전, LNG 등 자회사 발전량 감소와 연료가격 하락으로 3조1014억원 감소한 19조4364억원, 민간발전사 구입전력비는 구입량 증가에도 전력도매가격(SMP) 하락 등으로 6072억원 감소한 34조527억원으로 나타났다. 또 자구노력의 일환으로 전력계통 불안정시 신속한 계통안정을 위해 사전에 계약된 고객부하를 긴급차단하는 '고객참여 부하차단 제도' 시행으로 4026억원을 절감했다. 기타영업비용은 자회사 해외사업비용이 1조4161억원 증가하고, 발전 및 송배전 설비 자산 증가에 따라 감가상각비와 수선유지비가 6528억원 증가하는 등 2조5841억원 증가했다. 한전은 그러나 이같은 영업이익에도 연결기준 206조원의 부채와 130조원에 이르는 차입금이 남아있어, 하루 이자비용으로만 119억원을 부담하고 있다. 별도 재무제표 기준으로 살펴보면, 매출액 95조5362억원, 영업비용 86조9962억원, 영업이익은 전년 대비 5조3733억원 증가한 8조5400억원을 기록했다. 이는 2024년 10월 요금 조정 등의 영향으로 매출액이 3조8896억원 증가했고, 영업비용은 연료가격 안정과 재정 건전화 계획의 충실한 이행 노력(2025년 3조6000억원) 등의 영향으로 1조4837억원 감소했기 때문이다. 한전은 지난해 고객참여 부하차단 제도 시행·미세먼지 계절관리제 탄력운영 등으로 1조3천억원의 구입전력비를 절감했고 인공지능(AI)을 활용한 자산관리시스템(AMS) 고도화로 설비 유지보수를 효율화하고, 최적 설계를 통한 공사비용 절감 등으로 사업비 등을 9000억원 낮췄다. 또 건설사업 공정 관리와 투자사업 시기 조정 등을 통해 5000억원을 절감했다. 시설부담금 현실화 등 영업제도를 개선하고 비핵심 자산 매각 등으로 9000억원의 전기요금 외 수익을 창출했다. 다만, 별도기준으로 2021~2023년 연료비 급등으로 인한 누적 영업 적자 47조8000억원 가운데 36조1000억원이 여전히 해소되지 않고 있고, 부채는 118조원(부채비율 444%), 차입금 잔액은 84조9000억원에 달해 하루 이자비용만 72억원을 부담하고 있다. 한전 관계자는 “실적 개선을 바탕으로 차입금 이자지급과 원금상환 등을 통해 재무건전성 회복에 힘쓰고 있다”며 “특히 재생에너지 확대와 AI·데이터센터 등 첨단산업 전력 수요 증가에 충실히 대응하기 위해 미래 투자에도 매진할 계획”이라고 밝혔다. 한전은 매년 10조원 규모로 송배전망에 투자하는 등 20조원 이상의 추가자금 소요가 발생하고 있어, 국가 핵심 산업에 안정적인 전력공급을 위한 투자를 적기에 추진하기 위해 재무개선이 필요하다고 보고 지속해서 구입전력비 절감을 위한 전력시장 제도 개선과 고강도 자구노력을 추진하고, 다각적인 재원 조달 방안 등을 마련해 나갈 계획이다. 또 계절별·시간대별 요금제 개편·지역별 요금 도입 등 산업계 부담을 고려한 합리적인 요금체계 개편 추진을 검토하고, 재생에너지 연계와 AI·데이터센터 등 첨단산업 육성에 필수적인 국가 전력망 적기 구축에 모든 역량을 집중한다는 방침이다.

2026.02.27 02:11주문정 기자

[현장] "GPU 개수 경쟁 끝났다"…엔비디아가 제시한 '수직 통합' AI 인프라

"그래픽처리장치(GPU) 몇 장을 도입할지 경쟁하는 시대는 지났습니다. 이제는 기업 전체 구조를 다시 설계하는 단계로 들어섰습니다." 정구형 엔비디아 코리아 팀장은 26일 서울 마곡 사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 애플리케이션부터 데이터센터, 전력까지 아우르는 차세대 AI 인프라 청사진을 제시했다. 정 팀장은 AI 인프라를 ▲애플리케이션 ▲모델 ▲AI 플랫폼 ▲가속 컴퓨팅 인프라 ▲데이터센터, 에너지 인프라 등 5개 레이어로 구분해 설명했다. 그는 "AI는 한 층만 잘 만든다고 완성되지 않는다"며 "애플리케이션부터 전력까지 수직 통합 관점에서 설계해야 한다"고 말했다. 가장 위에는 기업이 실제로 사용하는 업무용 AI 애플리케이션과 에이전트가 있다. 그 아래로는 대형 언어모델 등 모델 레이어, 이를 학습·배포·운영하는 플랫폼 레이어가 이어진다. 이어 GPU, CPU, 네트워킹, DPU 등으로 구성된 가속 컴퓨팅 인프라가 이를 떠받친다. 마지막으로 대규모 전력과 냉각을 감당하는 데이터센터, 에너지 인프라가 기반을 이룬다. 정 팀장은 "AI 경쟁은 이제 GPU 수량이 아니다"며 "이 5개 레이어를 얼마나 유기적으로 설계하느냐의 문제"라고 강조했다. 엔비디아 내부 사례도 공개했다. 그는 단순히 요약된 답을 제시하는 것이 아니라 어떤 문서의 어느 부분을 참고했는지까지 추적 가능하도록 설계했다는 것을 강조했다. 정 팀장은 "우리도 사내에서 에이전틱 AI를 적극 활용하고 있다"며 "컨플루언스, 셰어포인트 등 내부 협업 시스템과 직접 연동해 답변의 근거를 함께 제시하는 구조를 구축했다"고 설명했다. 이 같은 내부 적용을 통해 제품 개발과 의사결정 속도가 빨라졌다고도 밝혔다. 반복적으로 확인해야 했던 기술 문서, 설계 변경 이력, 사내 정책 자료 등을 에이전트가 즉시 찾아 제시하면서 업무 시간이 단축됐다는 설명이다. 정 팀장은 "엔터프라이즈 환경에서는 정확도만큼이나 '출처 투명성'이 중요하다"며 "이를 통해 개발자와 엔지니어가 정보 검색에 쓰는 시간을 줄이고 실제 설계와 검증에 더 집중할 수 있게 됐다"고 말했다. 엔비디아는 이러한 시행착오와 운영 경험을 정리해 '엔터프라이즈 AI 팩토리 디자인' 가이드로 공개했다. 가이드에는 에이전트 설계 방식, 내부 데이터 연동 구조, 플랫폼 구성, 인프라 선택 기준 등 기업이 AI를 도입할 때 고려해야 할 기술적 의사결정 요소가 담겼다. 모델 전략에 대해서는 오픈소스 기반 접근을 강조했다. 시스템 구조가 얼마나 개방돼 있는고 실제 서비스에서 얼마나 효율적인지가 실제 업무 성능을 좌우하기 때문이다. 그는 오픈 모델 제품군인 '네모트론3'를 언급하며 "성능 지표뿐 아니라 서빙 효율 측면에서도 의미 있는 진전을 이뤘다"며 "기업이 자체 모델을 고도화할 때 충분히 고려할 수 있는 기반이 될 것"이라고 설명했다. 하드웨어와 인프라 설계 방향도 구체적으로 제시했다. 그는 차세대 GPU 아키텍처 기반 랙 단위 통합 설계를 소개하며 "수십 개 GPU를 하나의 도메인처럼 묶어 동작시키는 구조가 표준이 되고 있다"고 말했다. 이어 "고속 네트워킹과 DPU를 결합해 서버, 스토리지, 네트워크를 유기적으로 연결해야 진짜 AI 인프라가 완성된다"고 강조했다. 데이터센터와 에너지 이슈에 대해서도 언급했다. 정 팀장은 "AI 인프라의 끝은 결국 전력"이라며 "기가와트급 데이터센터 시대가 이미 시작됐다"고 말했다. 이어 "디지털 트윈 기반 설계를 통해 가상 환경에서 충분히 검증한 뒤 실제 구축에 들어가야 시행착오를 줄일 수 있다"고 설명했다. 그러면서 "AI 인프라는 장비 조합의 문제가 아니라 애플리케이션에서 에너지까지 하나로 이어진 설계 철학의 문제"라며 발표를 마무리했다.

2026.02.26 15:17남혁우 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

KT 조직개편...박윤영號 첫날 '본질·성장' 속도전

[종합] 넥슨, ‘파이프라인 재조정’으로 체질 개선…지속 가능 성장에 '올인'

고용노동부, '빽다방 알바 고소 논란' 감독...더본코리아 "법무담당 급파"

[단독] KT클라우드 수장 교체, 사업 모델 전환 신호탄?…IPO 변수될까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.