• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (584건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[현장] "AI 다음은 양자"…시스코, 차세대 네트워크 주도권 잡는다

시스코가 에이전틱 인공지능(AI)과 양자컴퓨팅 시대를 겨냥한 차세대 네트워크 전략을 앞세워 인프라 혁신에 박차를 가한다. 네트워크 장비 기업을 넘어 AI 인프라·보안·데이터를 아우르는 엔드투엔드 플랫폼으로 진화해 기업 AI 전환(AX)을 뒷받침하는 핵심 기반을 제공한다는 목표다. 최지희 시스코코리아 대표는 8일 서울 코엑스에서 개최한 '시스코 커넥트 2026 코리아' 기자간담회에서 "AI 시대를 준비하는 크리티컬 인프라를 제공하는 것을 목표로 네트워킹과 보안, 데이터 관리 전반에서 기술 혁신을 이어가고 있다"고 밝혔다. 이날 행사에는 최 대표를 비롯해 비조이 판데이 시스코 아웃시프트 총괄 매니저 겸 수석 부사장, 빌 가트너 시스코 옵티컬 시스템·옵틱스 부문 수석 부사장 겸 총괄 매니저가 참석해 AI와 양자컴퓨팅이 촉발하는 네트워크 패러다임 전환과 대응 전략을 공유했다. 시스코는 현재 컴퓨팅 환경이 '결정론적 시스템'에서 '확률적 시스템'으로 전환되고 있다고 진단했다. 기존에는 동일한 입력에 동일한 결과가 나오는 구조였다면, 앞으로는 최적의 답을 찾아가는 방식으로 진화한다는 설명이다. 비조이 판데이 수석 부사장은 이러한 변화의 핵심 동력으로 에이전틱 컴퓨팅과 양자컴퓨팅을 꼽았다. 특히 AI 에이전트가 서로 협력하는 구조가 등장하면서 기존 단일 모델 중심의 AI에서 집단 지성 기반으로 진화하고 있다고 강조했다. 그는 "우리는 AI 에이전트들이 서로 소통하고 협력할 수 있도록 하는 메커니즘을 만들고 있다"며 "이를 통해 컴퓨팅 기술을 개별 지능에서 집단 지능으로 진화시키고 있다"고 말했다. 이같은 비전을 구현하는 핵심 개념으로는 '인지 인터넷'을 제시했다. 이는 에이전트 간 협업을 위한 프로토콜과 지식 공유 구조를 기반으로, 기업 경계를 넘어 새로운 가치를 창출하는 네트워크 구조다. 시스코는 이를 가속하고자 리눅스 재단과 함께 오픈소스 프로젝트 'AGNTCY'를 추진 중이다. 구글·델·오라클·레드햇 등 80여 개 글로벌 기업이 참여해 에이전트 간 식별, 통신, 관측을 위한 표준을 구축하는 활동이다. 양자컴퓨팅 역시 핵심 축으로 제시됐다. 시스코는 양자 네트워크를 통해 여러 양자컴퓨터를 연결하는 방식으로 대규모 연산을 구현하는 전략을 추진하고 있다. 특히 IBM, 아톰 컴퓨팅 등과 협력해 양자컴퓨터를 네트워크로 연결하는 기술을 검증해 왔다. 실제 미국 뉴욕에서 상용 광섬유망을 활용해 17.6km 구간에 걸쳐 양자 네트워크를 실증하는 데 성공했다. 양자컴퓨팅의 상용화가 현실화되면서 기존 보안 체계에 대한 위협도 빠르게 부각되고 있다. 양자 네트워크 기술이 실제 환경에서 검증되며 기술 성숙도가 높아지는 만큼, 보안 대응 역시 선제적으로 준비해야 한다는 지적이다. 이에 대해 비조이 판데이 수석 부사장은 "양자컴퓨팅 발전으로 기존 RSA 암호 체계가 무력화되는 시점이 2029년으로 예상되는 만큼, 지금부터 양자 내성 암호(PQC)를 도입해야 한다"고 제언했다. AI 인프라 측면에선 초고성능 네트워크 기술이 강조됐다. AI 모델이 대형화되고 에이전트 간 상호작용이 증가하면서 데이터센터 네트워크의 확장성과 성능 요구가 급격히 높아지고 있다는 분석이다. 빌 가트너 수석 부사장은 "AI는 예상보다 훨씬 빠르게 발전하고 있으며 에이전틱 AI로 진화하면서 네트워크 스케일 요구도 크게 증가하고 있다"고 말했다. 그는 AI 인프라를 구성하는 네트워크 구조를 스케일 업, 스케일 아웃, 스케일 어크로스 3단계로 구분해 설명했다. 스케일 업은 단일 시스템 내 연산 성능을 높이는 것이고 스케일 아웃은 데이터센터 내부에서 랙 간 연결을 확장하는 방식이다. 스케일 어크로스는 물리적으로 떨어진 데이터센터 간을 연결해 전체 인프라를 하나처럼 운영하는 구조를 의미한다. 빌 가트너 수석 부사장은 "AI 워크로드가 확산될수록 데이터센터 내부뿐 아니라 데이터센터 간 연결까지 동시에 최적화하는 것이 중요해지고 있다"며 "특히 장거리 데이터센터 연결과 대규모 트래픽 처리를 동시에 지원하는 네트워크 아키텍처가 핵심 경쟁력이 될 것"이라고 설명했다. 시스코는 이에 대응하기 위해 성능, 운영 단순화, 보안 내재화를 3대 축으로 제시했다. 초당 100기가비트(Gb)에서 1.6테라비트(Tb)급까지 확장되는 네트워크 성능과 인프라 내 보안 통합을 핵심 전략으로 삼고 있다. 이날 102.4Tbps급 '실리콘 원 G300' 칩과 1.6T 옵틱스, 데이터센터 간 연결을 위한 51.2T급 라우터 등을 공개하며 AI 데이터센터 확장 전략을 구체화했다. 끝으로 최 대표는 "고객이 성공적인 AX를 완수할 수 있도록 신뢰할 수 있는 네트워크와 보안 기반을 제공하는 파트너가 되겠다"고 강조했다.

2026.04.08 10:55한정호 기자

삼성전기, '그록3 LPU'용 FC-BGA 공급

삼성전기가 '그록(Groq)3 언어처리장치(LPU)'용 반도체 패키지기판의 주력 공급망 지위를 확보했다. 그록3 LPU는 엔비디아의 최첨단 인공지능(AI) 반도체 '베라 루빈(Vera Rubin)' 성능을 높일 추론 가속기 칩이다. AI 산업에서 추론 중요성이 커지는 만큼, 삼성전기도 엔비디아 AI 반도체 생태계 내 영역을 확장할 것으로 기대된다. 8일 지디넷코리아 취재에 따르면 삼성전기는 최근 그록3 LPU용 플립칩-볼그레이드어레이(FC-BGA) 양산 준비에 돌입했다. 삼성전기는 그록3 LPU용 FC-BGA의 '퍼스트 벤더(공급량 1위 업체)' 지위를 확보했고, 올 2분기부터 본격 양산할 것으로 관측된다. 그록3 LPU는 4나노 공정 기반의 AI 추론 가속기 칩이다. 삼성전자 파운드리에서 양산한다. 삼성 파운드리가 그록3 LPU에 할당한 웨이퍼 투입량은 월 1만장 수준으로 추산된다. FC-BGA는 반도체 칩과 기판을 '플립칩 범프(칩을 뒤집는 방식)'로 연결하는 패키지기판이다. 기존 와이어 본딩 대비 전기적·열적 특성이 높다. 초도 물량은 적지만, 삼성전기는 이번 FC-BGA 공급으로 엔비디아 AI 반도체 생태계 내 영역을 확장할 수 있다. 앞서 삼성전기는 올해 초 'NV스위치' 칩용 FC-BGA 공급을 확정하며 엔비디아 공급망에 진입한 바 있다. NV스위치는 서버 내 복수 그래픽처리장치(GPU)를 연결하는 데 쓰인다. 그록 LPU 역시 엔비디아 AI 반도체 플랫폼에 채택된 만큼, 향후 출하량 확대가 기대된다. 이와 관련, 젠슨 황 엔비디아 최고경영자(CEO)는 지난달 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 첨단 AI 반도체 플랫폼 변화를 발표했다. 엔비디아가 올해 하반기 출시하는 베라 루빈 플랫폼은 당초 '루빈' GPU와 '베라' 중앙처리장치(CPU)를 비롯해 '블루필드-4' 데이터처리장치(DPU), 스위치 등 6개의 칩으로 구성됐다. 그러나 젠슨 황 CEO는 베라 루빈 플랫폼에 그록 3 LPU을 추가해, 총 7개의 칩 구조로 변화시켰다. 256개의 그록 3 LPU를 탑재한 추론 전용 랙 '그록 3 LPX'를 엔비디아 베라 루빈 NV72 랙에 통합하는 방식이다. NV72는 72개의 루빈 GPU와 36개의 베라 CPU로 구성된다. 그록 3 LPU는 D램 대비 용량이 작지만 데이터 전송속도가 빠른 S램을 탑재했다. 덕분에 LLM의 추론 단계에서 기존 단일 GPU 시스템에서 발생하던 지연(레이턴시) 현상을 크게 줄일 수 있다. LPX가 결합된 베라 루빈의 경우, 1조 매개변수 모델에서 메가와트당 최대 35배 더 높은 처리량을 제공할 수 있다고 엔비디아는 설명한다. 이에 엔비디아는 지난해 말 약 29조원을 들여 그록을 우회 인수하는 등 적극적인 협력 체계를 구축하고 있다. 반도체 업계 한 관계자는 "엔비디아가 각 영역에 특화된 칩으로 전체 AI 플랫폼을 구상하는 전략을 강화하고 있다"며 "그록 LPU 채택량도 더 늘어날 것으로 전망되고, 협력사들도 수혜를 입을 것"이라고 설명했다.

2026.04.08 10:35장경윤 기자

역대 최대 실적 경신한 삼성전자, 메모리 영업익만 50조원 돌파

삼성전자가 올 1분기 매출과 영업이익 모두 사상 최대 실적을 경신했다. AI 산업 주도로 D램·낸드 가격이 크게 상승하고, 새로 출시한 '갤럭시S26' 시리즈가 흥행에 성공한 덕분으로 풀이된다. 환율 역시 긍정적인 영향을 미쳤다. 7일 삼성전자는 2026년 1분기 잠정 실적 발표를 통해 연결기준 매출 133조원, 영업이익 57조2000억원을 기록했다고 밝혔다. 매출은 전년동기 대비 68.06%, 전분기 대비 41.73% 증가했다. 영업이익은 전년동기 대비 755.01%, 전분기 대비 185% 증가했다. 또한 증권가 컨센서스(매출 118조원, 영업이익 38조4977억원)을 크게 상회하면서, 어닝 서프라이즈를 기록했다. 이번 역대급 실적의 핵심 배경은 메모리 슈퍼사이클에 있다는 평가다. 전세계 주요 IT 기업들이 공격적인 AI 인프라 투자 확대에 나서면서, 서버용 고부가 D램·낸드의 수요가 크게 증가했다. 반면 공급업체들의 생산량 증가는 제한돼, 평균판매가격(ASP)의 상승을 부추겼다. 범용 D램·낸드도 덩달아 공급난이 심화됐다. 특히 D램의 가격 상승세가 강했다. 현재 업계가 추산하는 D램의 전분기 대비 ASP 증가율은 90%에 달한다. 낸드 역시 D램에 준하는 수준의 가격 상승세를 기록한 것으로 알려졌다. 이에 따라 삼성전자의 D램·낸드를 합산한 삼성전자의 메모리 분야 영업이익은 53조~54조원에 달할 전망이다. 제품별로는 D램이 40조원대, 낸드가 10조원대의 영업이익을 기록했을 것으로 관측된다. 디바이스솔루션(DS) 전체 영업이익은 비메모리(파운드리, 시스템LSI)의 적자 영향으로 이보다는 소폭 낮은 52조~53조원으로 추산된다. 모바일경험(MX) 사업부도 이번 분기 업계 예상을 뛰어넘는 수익성을 거뒀을 가능성이 유력하다. 올 1분기 출시한 최신형 플래그십 스마트폰 갤럭시S26 시리즈가 높은 판매량을 기록하면서, 해당 기간 4조원에 육박하는 영업이익을 기록한 것으로 관측된다.

2026.04.07 08:58장경윤 기자

[유미's 픽] 정용진에 '러브콜' 보낸 오픈AI·리플렉션AI, 노림수는?

글로벌 인공지능(AI) 기업들이 정용진 회장이 이끄는 신세계그룹과 잇따라 손잡으며 협력 배경에 관심이 쏠리고 있다. 단순한 사업 확장을 넘어 실제 시장 기반 확보와 인프라 결합을 동시에 노린 전략적 행보라는 분석이 나온다. 6일 업계에 따르면 오픈AI는 이날 웨스틴 조선 서울에서 신세계그룹과 'AI 커머스 사업협력' 양해각서(MOU)를 체결하고 대화형 쇼핑, AI 쇼핑 에이전트 개발, 전사적 AI 전환(AX) 등을 중심으로 협력키로 했다. 소비자가 자연어로 대화하며 상품을 탐색하고 추천·결제까지 이어지는 전 과정을 AI가 지원하는 형태다. 이처럼 오픈AI가 국내 유통 대기업인 신세계와 협력에 나선 이유는 실제 유통 환경에서 AI 기술을 적용·검증하려는 수요가 반영된 것으로 풀이된다. 생성형 AI가 텍스트와 이미지 중심 서비스에서 빠르게 확산됐지만, 구매·결제·배송까지 이어지는 상거래 전 과정에서의 적용 사례는 아직 초기 단계에 머물러 있기 때문이다. 신세계가 이마트를 비롯해 온·오프라인을 아우르는 유통망과 대규모 고객 데이터를 동시에 보유하고 있다는 점에서 오픈AI 입장에선 적합한 파트너를 확보한 것으로 평가된다. 이 같은 환경은 AI가 상품 추천을 넘어 실제 구매 행동에 어떻게 개입할 수 있는지를 검증할 수 있는 기반이 될 수 있어서다. 특히 자연어 기반 대화형 인터페이스를 활용한 쇼핑은 'AI 에이전트' 형태로 확장될 가능성이 높은 영역으로, 상용화 가능성을 점검할 수 있는 사례가 될 것이란 관측이 나온다. 반면 지난달 신세계와 손잡은 리플렉션AI의 전략은 인프라 중심으로 평가된다. 이 회사는 신세계와 함께 250메가와트(MW) 규모 AI 데이터센터를 구축키로 하며 한국 시장 진출을 본격화했다. 해당 데이터센터는 국내 최대 수준으로, 그래픽처리장치(GPU) 기반 연산 자원을 통해 AI 모델 학습과 서비스 운영을 동시에 수행할 수 있는 기반이 될 전망이다. 리플렉션AI는 구글 딥마인드 출신 연구진이 설립한 기업으로, 오픈 웨이트 기반 AI 모델을 앞세워 기업이나 국가가 직접 모델을 운영할 수 있도록 하는 전략을 추진하고 있다. 이 같은 구조를 구현하기 위해서는 대규모 연산 인프라와 초기 수요 확보가 필수적인데, 신세계와의 협력은 이 두 요소를 동시에 확보할 수 있는 구조라는 점에서 주목된다. 업계에선 신세계가 자본과 인프라, 실제 산업 데이터를 제공하고 리플렉션AI가 모델과 기술을 공급하는 방식의 역할 분담에도 주목하고 있다. 특히 한국은 높은 디지털 인프라 수준과 기업 수요를 갖춘 시장으로, AI 모델을 실제 서비스에 적용하고 검증하기에 적합한 환경으로 평가된다. 이번 협력은 리플렉션AI의 첫 아시아 진출 사례라는 점에서도 의미가 있다. 연구개발 중심 단계에 있던 기업이 상용화 시장으로 진입하는 과정에서 한국을 테스트베드로 활용하려는 전략으로 풀이된다. 이 같은 움직임은 최근 글로벌 AI 산업에서 확산되는 '소버린 AI' 흐름과도 맞물린다. 각국이 자국 데이터와 규제 체계에 부합하는 AI 구축을 요구하면서 글로벌 기업들은 단순 기술 공급을 넘어 현지 파트너와 함께 인프라와 생태계를 공동 구축하는 방향으로 전략을 전환하는 추세다. 오픈AI와 리플렉션AI의 이번 협력은 각각 커머스 서비스와 AI 인프라 영역에서 기술을 실제 산업에 적용하고 검증하는 사례라는 점에서 주목된다. 모델 성능 중심이던 경쟁 구도가 점차 인프라, 데이터, 실사용 사례 확보로 확장되고 있다는 점을 보여주는 흐름으로도 평가된다.일각에선 신세계가 이번 협력을 통해 확보하는 AI 인프라와 데이터 역량을 향후 외부 기업에 서비스 형태로 제공하는 사업 모델로 확장할 가능성에도 주목하고 있다. 유통 기업을 넘어 AI 기반 플랫폼 사업자로의 역할 확대 가능성에 대한 관측도 나온다. 업계 관계자는 "글로벌 AI 기업들이 기술 자체보다 실제 적용 환경과 인프라 확보를 동시에 중시하는 단계로 넘어가고 있다"며 "신세계와의 협력은 한국을 거점으로 한 실증과 시장 확대 전략의 출발점으로 볼 수 있다"고 말했다.

2026.04.06 17:01장유미 기자

'한국판 스트래티지' 비트플래닛, "AI 데이터센터·채굴로 사업 확장"

국내 대표 가상자산 재무전략(DAT) 기업 비트플래닛이 에너지 인프라 기업으로의 도약을 선언했다. 비트코인 축적을 넘어 인공지능(AI) 데이터센터 설립과 비트코인 채굴 사업으로 확대하겠다는 구상이다. 이성훈 비트플래닛 대표는 지난달 20일 지디넷코리아와 만나 이같은 장기 비전을 밝혔다. 비트플래닛은 마이클 세일러가 창립한 '스트래티지'처럼 비트코인 매입을 재무 전략으로 채택한 기업이다. 지난 2월 기준 300개의 비트코인을 보유하고 있으며, 전세계 비트코인 DAT 기업 가운데 상위 78위에 이름을 올렸다. 이 대표는 “중장기적으로 비트코인 1만개 보유를 목표로 꾸준히 매입하는 한편, 기존 사업과 신규 사업을 병행해 안정적인 현금흐름을 확보할 것”이라며 “이를 기반으로 추가적인 비트코인 취득을 이어갈 계획”이라고 설명했다. AI 데이터센터·채굴 '투트랙'…“에너지 인프라 사업” 비트플래닛은 신규 사업으로 AI 데이터센터 건립 및 운영과 비트코인 채굴을 병행하는 '투트랙 전략'을 추진할 방침이다. 이 대표는 이를 '에너지 인프라 사업'이라고 규정했다. AI 에이전트가 고도화·범용화될수록 전력 등 에너지의 가치가 더욱 중요해질 것이라는 판단에서다. 그는 비트코인 역시 유사한 맥락에서 바라봤다. 공급량이 제한된 비트코인이 향후 AI 에이전트 시대에서 '희소한 에너지 자산' 역할을 할 수 있다는 설명이다. 비트플래닛은 AI 데이터센터 운영을 통해 비트코인을 직접 채굴하거나, 외부 기업에 연산 능력(해시레이트)을 제공하는 등 다양한 사업 모델을 구상하고 있다. 현재 국내 AI 데이터센터 구축을 위해 글로벌 사업자와 협의를 진행 중이며, 연내 파트너십을 구체화할 방침이다. 이 대표는 “채굴 사업자에게 연산 능력을 제공하고 그 대가로 비트코인을 받거나, 채굴 장비를 직접 도입해 운영하는 방식 등을 검토하고 있다”며 “AI 데이터센터 운영을 통해서는 안정적인 현금흐름을 창출할 것”이라고 밝혔다. 전신은 SI 기업…기존 사업으로 현금흐름 확보 비트플래닛은 기존 시스템통합(SI) 사업도 지속할 계획이다. 회사의 전신은 국내 SI 기업 SGA로, 지난해 9월 이 대표가 참여한 아시아 스트래티지 파트너스 컨소시엄이 약 49%의 지분을 확보하면서 현재의 비트플래닛으로 탈바꿈했다. 하버드 로스쿨 출신인 이 대표는 미국 로펌과 가상자산 수탁 기업 비트고(BitGo)의 벤처 투자 부문인 비트고 벤처스에서 경력을 쌓은 법률 및 가상자산 전문가다. 이후 국내에서 DAT 사업을 추진하기 위해 컨소시엄을 구성하고 SGA 인수를 주도했다. SGA는 교육·공공 부문을 중심으로 SI 사업을 영위해 왔으며, 해당 사업이 전체 연간 매출의 약 80%를 차지한다. 비트플래닛은 이같은 기존 사업의 안정적인 매출과 현금흐름을 기반으로 AI 데이터센터 구축과 가상자산 채굴 등 신사업을 확대해 나간다는 방침이다. “비트코인 매입, 시세에 흔들리지 않을 것” 비트플래닛은 핵심 전략인 비트코인 매입도 시장 상황과 재무 상태를 고려해 지속적으로 이어갈 계획이다. 최근 비트코인 가격이 고점 대비 50% 이상 하락한 상황에 대해서도 큰 영향을 받지 않는다는 입장이다. 이 대표는 “장기적인 비트코인 매입 기조를 유지할 예정이기 때문에 단기적인 가격 변동에는 크게 영향을 받지 않는다”며 “중요한 것은 변동성을 견딜 수 있는 사업 구조를 만드는 것”이라고 강조했다. 다만 비트코인 매도 가능성에 대해서는 선을 그었다. 그는 “비트플래닛이 비트코인을 장기 보유하는 기업이라는 인식을 시장에 심고, AI 데이터센터와 채굴 사업을 통해 주주가치를 환원하고 싶다”고 말했다.

2026.04.06 14:24홍하나 기자

[종합] 한국 클라우드, AI 타고 몸집 키웠다…이제 승부는 GPU·공공

한국 클라우드 산업이 인공지능(AI) 수요 확대와 공공·기업 디지털 전환 흐름을 타고 외형 성장과 수익성 개선을 동시에 이어간 것으로 나타났다. 주요 클라우드 서비스 제공업체(CSP)들은 데이터센터·그래픽처리장치(GPU) 인프라 투자와 공공 시장 공략을 병행하며 시장 주도권 경쟁을 본격화하는 모습이다. 6일 금융감독원 전자공시시스템에 따르면 네이버클라우드는 2025년 매출 1조 5544억원, 영업이익 1592억원을 기록하며 전년 대비 각각 11.1%, 48.3% 성장했다. AI 수요 확대에 대응해 데이터센터 코로케이션을 확대하고 정부 GPU 구축 사업 대응을 위한 인프라 확보에 나서는 등 공격적인 투자 전략이 실적 개선으로 이어졌다는 분석이다. 특히 네이버클라우드는 최근 LG CNS의 데이터센터 추가 임차와 자체 데이터센터 증축을 병행하며 상면 확보에 속도를 내고 있다. 정부가 추진하는 대규모 GPU 구축 사업 참여를 염두에 두고 복수 데이터센터 기반 분산형 인프라 전략을 강화하는 동시에, 협업 플랫폼 '네이버웍스'를 앞세워 공공 AI 행정 시장에도 적극 진입하는 양상이다. KT클라우드는 지난해 매출 9975억원, 영업이익 663억원으로 각각 27.4%, 25.7% 증가하며 1조원 매출에 근접했다. 공공·기업 시장에서 안정적인 수주 기반을 확보한 가운데, 데이터센터와 AI 인프라 투자 확대가 성장세를 견인한 것으로 풀이된다. 특히 삼성SDS, NHN클라우드와 함께 국가정보자원관리원 대구센터 민관협력형 클라우드(PPP) 사업에 참여해 정부 핵심 시스템 수용 인프라를 구축하며 공공 시장 영향력을 확대했다. 아울러 최근 대표 자리에 김봉균 KT 엔터프라이즈 부문장을 내정하며 사업 전략 재정비에도 나섰다. 기존 기술 중심 성장에 더해 KT 엔터프라이즈 조직과의 연계를 강화한 B2B 통합 사업 구조로 전환을 모색 중이며 액체 냉각 기반 AI 데이터센터 구축 등 인프라 고도화도 병행할 전망이다. NHN클라우드는 매출 2천157억원으로 전년 대비 약 9.8% 성장했지만 영업손실 197억원을 기록하며 적자 구조를 이어갔다. 다만 영업손실은 전년 284억원에서 약 30.5% 줄어들며 손실 폭을 축소했다. NHN클라우드는 국산 기술 기반 AI 인프라 생태계 구축과 일본 등 글로벌 시장 공략을 병행 중이다. 국정자원 PPP 사업에도 참여해 다양한 공공 클라우드 인프라 구축과 행정안전부 클라우드 네이티브 전환 사업 등을 수행해왔다. 최근엔 티맥스티베로와 협력해 GPU 인프라와 데이터베이스 관리 시스템(DBMS)을 결합한 국산 AI 인프라 생태계 구축에도 속도를 내고 있다. 일본 시장에선 서비스형 GPU(GPUaaS)를 앞세워 현지 AI 전환(AX) 수요 공략에 집중하는 등 해외 확장을 통해 수익성 개선 돌파구를 마련하려는 전략이다. 카카오엔터프라이즈는 매출 1697억원으로 전년 대비 약 25.9% 증가했으나 영업손실 343억원을 기록했다. 다만 영업손실은 전년 672억원에서 약 49.0% 줄어들며 절반 수준으로 개선했다. 회사는 카카오클라우드의 '하이브리드 GPUaaS' 전략을 통해 AI 인프라 비용 구조 개선과 수익성 확보를 동시에 추진 중이다. 카카오엔터프라이즈는 특히 AI 추론 중심 시장 변화에 대응해 온프레미스 GPU와 클라우드 연계를 결합한 구조를 강화하고 있다. 단일 콘솔 기반 통합 운영과 비용 효율화 전략을 통해 금융·공공 등 규제 산업으로의 확장도 동시에 노리는 모습이다. 가비아는 매출 3356억원, 영업이익 404억원으로 각각 18.9%, 15.3% 증가하며 안정적인 성장세를 이어갔다. 클라우드·데이터센터·보안 등 전 사업 부문에서 고른 성장이 나타났으며 AI 연산 환경에 대응하기 위한 데이터센터 및 GPU 인프라 강화에도 나서고 있다. 가비아는 과천 데이터센터를 중심으로 고전력 GPU 인프라를 확보하며 AI 대응 역량을 키우고 있다. 자체 클라우드뿐 아니라 아마존웹서비스(AWS)의 관리 서비스(MSP) 사업도 병행하며 하이브리드·멀티클라우드 전략을 확대해왔다. 여기에 서비스형 데스크톱(DaaS)과 그룹웨어 '하이웍스' 중심의 서비스형 소프트웨어(SaaS)까지 아우르는 통합 서비스 모델로 사업 영역을 넓히고 있다. 업계에선 GPU 확보 경쟁과 데이터센터 인프라 확대가 향후 경쟁력을 가름할 핵심 변수로 꼽힌다. 지난해에 이어 정부가 올해도 추진 중인 GPU 1만 5000장 구축 사업을 계기로 CSP 간 인프라 경쟁이 본격화됐다. 지난해 사업엔 네이버클라우드·NHN클라우드·카카오 등이 참여한 가운데, 올해 사업에는 어떤 CSP가 참여해 주도권을 확보할지에도 관심이 쏠리고 있다. 여기에 공공 클라우드 시장 확대도 중요한 성장 동력으로 평가된다. 정부는 2030년까지 행정·공공 정보시스템을 클라우드로 전면 전환하는 정책을 추진하겠다고 밝힌 바 있다. 현재 약 42.4% 수준인 전환율을 단계적으로 끌어올릴 계획이다. 민감·공개 데이터의 민간 클라우드 활용을 확대하는 하이브리드 구조 전환도 병행된다. 국가AI전략위원회 역시 지난해 국가정보자원관리원 화재 이후 후속 발전 방안으로 약 1만 5000개 정부 시스템의 재해복구(DR) 체계를 재설계하고 민간 클라우드 활용을 확대하는 방향을 제시했다. 이에 기존 제한적이던 공공 시장이 점차 개방되면서 CSP들의 사업 기회가 확대될 전망이다. 다만 정책 실행력 확보를 위한 과제도 적지 않다. 공공 클라우드 전환 예산이 AI 관련 예산 대비 상대적으로 부족한 가운데 부처 간 협력과 보안 인증 체계 정비, 기관별 비용 부담 문제 등이 변수로 지목된다. 특히 클라우드보안인증(CSAP), 국가망보안체계(N2SF) 등 복잡한 제도 구조가 사업 추진 속도를 좌우할 핵심 요인이다. 업계는 공공 클라우드 전환 정책과 AI 인프라 투자 확대가 맞물리며 국내 클라우드 시장이 중장기적으로 빠르게 성장할 것으로 보고 있다. 단순 인프라 이전을 넘어 AI 기반 서비스 구조까지 함께 설계하는 방향으로 정책이 구체화돼야 한다는 지적도 나온다. 클라우드 업계 관계자는 "AI 확산과 공공 클라우드 전환이 동시에 진행되면서 국내 CSP들에게는 큰 기회가 열리고 있다"며 "다만 인프라 투자 부담과 제도 불확실성이 여전히 존재하는 만큼 정부 정책과 민간 투자 간 균형이 중요해질 것"이라고 말했다.

2026.04.06 14:19한정호 기자

AI 전력난 게임 체인저될까…반도체 '엑시톤 ' 83배 증폭 첫 발견

인공지능(AI) 데이터 센터 난제인 전력 문제를 해결할 실마리가 제시했다. POSTECH(포항공과대학교)은 박경덕 물리학과·반도체공학과·융합대학원·반도체대학원 교수 연구팀이 2차원 반도체 '엑시톤(exciton)' 이동을 나노미터(10억분의 1m) 공간에서 정밀 제어하고, 이를 기존 대비 최대 8,300%까지 증폭시키는 물리 현상을 세계 처음 발견했다고 3일 밝혔다. 반도체는 전자 흐름을 이용해 정보를 전달한다. 하지만 전자가 이동할수록 열이 발생하고, 이는 곧 에너지 손실과 성능 저하로 이어진다. 실제 AI 데이터센터는 도시 하나에 맞먹는 전력을 소비할 정도로 에너지 문제가 심각하다. 이러한 한계를 극복할 대안으로 주목받는 것이 바로 '엑시톤'이다. 엑시톤은 반도체 내부에서 빛과 전자 성질이 결합된 입자다. 전기적으로 중성이기 때문에 이동 과정에서 열 발생이 거의 없다. 이 때문에 차세대 초저전력 정보 전달 매개체로 주목받고 있다. 그러나 엑시톤은 원하는 방식으로 정밀하게 제어하는 것이 매우 어려워 실제 소자 응용에 제약이 많았다. 연구팀은 이를 빛과 전기를 나노미터 수준에서 자유롭게 다룰 수 있는 새로운 방식의 나노 공진 분광 기술을 개발, 해결했다. 이 기술을 이용하면 빛과 전기장이 최첨단 반도체 공정의 최소 선폭 정도의 초미세 공간에 모이면서, 반도체 내부 '에너지 지형'을 나노 공간에서 정밀하게 제어하고 동시에 관측할 수 있다. 연구를 주도한 이형우 박사는 "이 방법으로 특정 영역에 엑시톤을 집중시켰고, 그 과정에서 기존 이론과는 다른 흥미로운 현상을 발견했다"며 "좁은 공간에 모인 엑시톤들이 서로 밀어내며, 오히려 더 빠르고 강하게 바깥으로 퍼져나가는 것을 확이했다"고 설명했다. 연구팀은 이 현상이 단순히 엑시톤 개수가 많아서가 아니라, 엑시톤이 얼마나 가파르게 몰려 있는지를 나타내는 '밀도 기울기'에 의해 결정된다는 사실을 밝혀냈다. 이를 통해 기존 방식 대비 최대 8,300%에 달하는 엑시톤 확산 증폭 효과를 입증했다. 또한 이 현상은 전압만으로 실시간 제어가 가능하다는 것도 확인했다. 스위치를 켜고 끄듯, 전압을 조절하는 것만으로 엑시톤 이동 방향과 세기를 자유롭게 바꿀 수 있어, 향후 반도체 칩 내부에서 정보를 빠르고 효율적으로 전달하는 기술로 이어질 가능성이 클 것으로 연구팀은 내다봤다. 박경덕 교수는 "기존 전자 기반 회로를 넘어, 빛과 입자 특성을 동시에 활용하는 새로운 형태의 '엑시톤 회로' 구현 가능성을 보여준다"고 덧붙였다. 이 기술 활영 분야는 AI 데이터센터 초저전력 인터커넥트, 고효율 광전자 소자, 차세대 태양전지 등이다. 연구결과는 국제학술지 '네이처 머티리얼즈'에 게재됐다.

2026.04.03 17:57박희범 기자

인옵틱스, AI 데이터센터 채널당 400Gbps급 초고속 전송 인프라 선점나서

광통신 소재·부품 전문 기업 인옵틱스 (대표 강세경)가 인공지능(AI) 데이터센터 난제인 고집적화와 저전력화를 동시에 해결할 차세대 유리기판 공정 기술을 공개해 관심을 끌었다. 인옵틱스는 지난3월 개최된 세계 최대 광통신 학술회의 'OFC2026'에서 독자 개발한 '전자·광 통합 집적형 유리기판 공정 플랫폼(GOFOP™, Glass-based Opto-Electronic Fan-Out Packaging)'을 처음 공개했다고 3일 밝혔다. 강세경 대표는 "이 전시에서 고집적형 광인터커넥션 모듈(CPO, Co-Packaged Optics) 구현을 위한 혁신적인 솔루션을 제시했다"며 "코히어런트와 메타 등 글로벌 테크 기업 및 연구 관계자들로부터 큰 주목을 받았다"고 말했다. '유리기판', AI 데이터센터 광인터커넥션 게임 체인저 최근 AI 데이터센터는 폭발적인 데이터 처리량 증가로 인해 고집적화, 대용량화, 저전력화라는 기술적 임계점에 직면해 있다. 인옵틱스가 개발중인 유리기판 기술은 기존 유기 소재 (플라스틱 계열) 기판 대비 신호 손실이 현저히 적고, 미세 패턴 구현이 용이하다. 특히 열에 강하고 휘어짐 (Warpage) 현상이 적어 차세대 광인터커넥션 기술 핵심인 CPO 구현을 위한 최적의 기판 소재로 평가받고 있다. 인옵틱스는 중소벤처기업부 창업성장기술개발(딥테크 팁스, 디딤돌) 정부사업 지원을 받아 한국원자력연구원 첨단방사선연구소 방사선기기팹 시설과 기술지원으로 관련 공정을 개발하고, 고도화를 진행 중이다. 고팝 플랫폼은 지난해 3월부터 이미 국내외 주요 기관 및 기업들과 NDA(비밀유지협약)를 체결, 고객 맞춤형 전자·광소자 통합 집적화 공정 서비스를 제공하며 기술 상용화 단계에 진입했다. 채널당 400Gbps급 초고속 전송 인프라 선점 목표 강세경 대표는 "AI 서비스가 가속화하며 향후 데이터센터 내 채널당 신호 전송 속도가 400Gbps가 넘는 초고속 환경으로 진화할 것으로 예상된다"며 "인옵틱스 유리기판 공정 기술이 이러한 초고속 전송 환경에서 신호 무결성을 보장하는 핵심 인프라가 될 것"이라고 강조했다. 강 대표는 또 “미래 AI 데이터센터는 전력 효율은 높이면서 물리적 한계를 극복하는 패키징 기술이 승부처가 될 것”이라며, “고팝 플랫폼으로 초고속 광인터커넥션 시장을 선점하기 위해 서비스 공급 등 다양한 마케팅 전략을 구사할 계획"이라고 덧붙였다.

2026.04.03 08:00박희범 기자

엘리스그룹-아리스타, 차세대 AI 네트워크 기술 협력한다

엘리스그룹(대표 김재원)은 아리스타네트웍스 코리아와 손잡고 '이더넷 기반의 대규모 GPU 클러스터링' 구현에 나선다. 엘리스그룹은 지난 1일, 엘리스그룹 본사에서 아리스타네트웍스 코리아와 '차세대 AI 네트워크 기술 협력'을 위한 업무협약(MOU)를 체결했다. 이번 협약은 그간 고가의 전용 통신망에 의존했던 대규모 AI 인프라를 범용 네트워크 표준인 이더넷 기반으로 전환함으로써, AI 데이터센터의 경제성을 극대화하고 국내 AI 산업의 진입 장벽을 낮추기 위해 추진됐다. 최근 AI 모델의 급격한 발전으로 수천 개의 GPU를 하나로 연결하는 네트워크 기술이 AI 데이터센터의 경쟁력을 결정짓는 핵심 요소로 부상했다. 그동안 AI 네트워크 시장에서는 고가의 전용 통신망 '인피니밴드'를 주로 사용했으나, 최근 글로벌 기업을 중심으로 범용성이 높고 비용 효율적인 이더넷 기반의 네트워크로 전환하는 추세다. 양사는 이번 협약으로 'RoCE(RDMA over Converged Ethernet)v2' 기술 기반의 AI 네트워크 구축에 집중한다. RoCEv2는 기존 범용 이더넷 망에서 데이터 전송 속도를 극대화하고 병목 현상을 없애 대규모 AI 연산을 원활하게 돕는 차세대 핵심 기술이다. AI 네트워크 기술의 상용화를 위한 다양한 공동 프로젝트도 추진한다. 엘리스그룹은 AI 특화 클라우드인 엘리스클라우드와 AI PMDC(이동식 모듈형 데이터센터) 내에 RoCEv2 기반 고성능 네트워크 환경을 선도적으로 도입한다. 아리스타네트웍스 코리아는 글로벌 AI 네트워크 분야에서 검증된 기술력을 통해 고성능 네트워크 설계 및 기술 지원을 담당할 예정이다. 박정국 엘리스그룹 최고개발책임자는 “AI 인프라 경쟁력의 핵심은 수만 개의 GPU가 얼마나 효율적으로 데이터를 주고 받느냐에 달려 있다”며 “아리스타와 협업을 통해 경제적이고 효율적인 AI 인프라 표준을 제시하고, 국내외 기업들이 더 쉽고 빠르게 AI 전환을 이룰 수 있도록 앞장서겠다”고 말했다. 김세진 아리스타네트웍스 코리아 지사장은 “엘리스그룹과의 협력은 RoCEv2 기반 AI 데이터센터 네트워크의 혁신을 실현할 수 있는 중요한 기회”라면서 “앞으로도 한국 시장에서의 기술 협력을 지속적으로 확대해 나가겠다”고 밝혔다.

2026.04.02 10:43백봉삼 기자

[AI는 지금] "총 대신 데이터"…MS·AWS 등 빅테크, 이란 공격 경고장 받은 이유는

미국과 이란 간 긴장 완화 가능성이 거론되고 있는 가운데 최근 이란 혁명수비대(IRGC)가 글로벌 빅테크를 겨냥해 공격 시점까지 특정하며 경고에 나서 긴장감이 다시 높아지고 있다. 군사 충돌은 완화되는 흐름을 보이지만, 인공지능(AI)·클라우드·데이터 인프라를 둘러싼 디지털 전선은 오히려 확장되는 분위기다. 1일 이란 타스님통신 등에 따르면 IRGC는 성명을 통해 구글, 마이크로소프트, 애플, 메타, 엔비디아, 팔란티어 등 18개 기업을 보복 대상으로 지목했다. 또 테헤란 시각 기준으로 이날 오후 8시(한국 시각 2일 오전 1시 30분)부터 이 기업들을 대상으로 공격이 개시될 수 있다고 경고했다. 이란 측은 해당 기업들이 미국과 이스라엘의 군사 작전 과정에서 표적 식별과 정보 분석 등에 기술적으로 관여했다고 주장했다. 이를 근거로 관련 기업과 시설을 '합법적 타격 대상'으로 규정했다. 이 같은 흐름은 최근 실제 공격 사례와도 맞물린다. 지난 3월 아랍에미리트(UAE)와 바레인 소재 아마존웹서비스(AWS) 데이터센터가 드론 공격을 받은 것으로 알려졌고, 이스라엘 내 지멘스 산업 소프트웨어 센터와 AT&T 통신 거점도 타격 대상에 포함됐다. 전통적인 군사시설이 아닌 데이터센터와 통신 인프라가 공격 대상에 포함됐다는 점에서 전장 범위가 디지털 영역으로 확대된 분위기다. 공격 대상으로 거론된 기업 구성도 눈에 띈다. 클라우드·AI 기업을 비롯해 반도체(엔비디아, 인텔), 네트워크(시스코), 산업·군수(보잉, GE), 금융(JP모건)까지 포함됐다. UAE의 AI 기업 G42와 사이버보안 업체 스파이어 솔루션즈도 함께 지목되면서 대상 범위는 특정 국가를 넘어 기술·산업 생태계 전반으로 확대된 모습이다.이 같은 움직임은 단순한 보복 경고를 넘어 전쟁 수행 구조 변화와 맞물려 있다. 최근 군사 작전은 AI 기반 표적 식별, 클라우드 기반 데이터 처리, 위성·통신 네트워크를 중심으로 이루어지고 있다. 이 과정에서 글로벌 빅테크 기업들이 제공하는 인프라는 작전 수행의 핵심 요소로 자리 잡았다. 실제로 전장에선 데이터 분석과 실시간 정보 처리 능력이 무기 체계 못지않은 역할을 하고 있다. 이에 따라 기술 기업이 제공하는 클라우드와 AI 시스템은 군사 작전의 '눈과 뇌' 기능을 수행하고 있다. 이란이 이들 기업을 직접적인 타격 대상으로 규정한 배경도 이러한 변화가 반영돼 있다. 이란은 군사력뿐 아니라 데이터와 인프라를 제공하는 주체까지 전쟁 당사자로 간주하는 상황이다. 업계에선 이번 조치를 비대칭 전력 활용의 일환으로 보고 있다. 직접적인 군사 충돌 대신 글로벌 기업 인프라를 겨냥해 영향력을 확대하는 방식이다. 특히 사이버 공격과 물리적 인프라 타격이 병행되면 금융·통신·클라우드 서비스 전반에 걸쳐 파급력이 커질 가능성이 높아 우려된다. 이에 따라 중동 지역에 거점을 둔 글로벌 기업들은 운영 리스크 점검과 인력 재배치에 나서려는 분위기다. AI와 반도체 기업 역시 지정학적 변수 확대에 따른 투자 전략 재조정이 불가피할 것으로 전망된다. 업계 관계자는 "AI와 데이터 분석 시스템이 군사 작전의 핵심으로 활용되면서 이를 제공하는 기업도 사실상 전쟁 인프라로 인식되고 있다"며 "이 같은 흐름은 향후 다른 분쟁 지역으로도 확산될 가능성이 크다"고 말했다.

2026.04.01 16:57장유미 기자

LG CNS, 삼송 데이터센터 최소 7800억 매출 확보

LG CNS가 코로케이션과 위탁운영을 동시에 확보하며 삼송 데이터센터를 축으로 인공지능(AI) 인프라 사업 확대에 속도를 내고 있다. 40여 년간 축적한 데이터센터 역량을 바탕으로 LG CNS는 국내 점유율 1위를 공고히 함과 동시에 차세대 '모듈형 AI 데이터센터(AIDC)'를 앞세워 글로벌 시장까지 진출할 계획이다. 1일 금융감독원 전자공시시스템에 따르면 LG CNS는 2차 구축 중인 삼송 데이터센터에 네이버클라우드, 우리은행과 연이어 대규모 장기 계약을 체결했다. "단일 계약 최대 규모"…네이버클라우드와 두 번째 대규모 계약 LG CNS는 네이버클라우드와 '삼송 데이터센터 코로케이션(Co-location) 서비스 계약'을 맺었다. 코로케이션은 기업이 막대한 비용을 들여 데이터센터를 직접 짓는 대신, 전문 데이터센터 내에 자사의 서버와 네트워크 장비 등을 설치할 공간을 임대하고 전력·냉각·보안·운영 등 필수 인프라를 종합적으로 제공받는 서비스다. 네이버클라우드가 공시를 통해 밝힌 바에 따르면 이번 계약은 6030억원에 달한다. 올해 국내에서 체결된 데이터센터 코로케이션 사업 중 최대 규모이자 LG CNS가 진행한 단일 계약 기준으로도 역대 최대 규모인 것으로 전해졌다. 계약 기간은 올해 7월부터 2035년 5월까지다. 이는 지난해 체결된 죽전 데이터센터에 이은 양사 간 두 번째 대형 계약으로 네이버클라우드는 AI 등 핵심 기술 운영에 필요한 하이엔드급 인프라를 안정적으로 확장하게 됐다. 기업 입장에서는 초기 인프라 구축 비용(CAPEX)을 대폭 절감하고 핵심 비즈니스에만 역량을 집중할 수 있는 강점이 있다. 더불어 LG CNS는 삼송 데이터센터 소유사인 이지스자산운용과 약 1820억원 규모 '고양 삼송 데이터센터 위탁운영 계약'도 체결했다. 계약 기간은 2035년 5월까지다. 결과적으로 LG CNS는 삼송 데이터센터를 통해 상면 임대와 위탁운영이라는 두 가지 비즈니스 모델을 통해 약 7800억원에 달하는 대형 장기 수익을 확정지었다. 국내 DBO 점유율 60%…'원 LG' 앞세워 글로벌 진출 가속 LG CNS는 이번 대형 계약 수주의 배경에는 약 40년간 데이터센터 사업을 수행하며 입증한 기술력이 자리하고 있다고 밝혔다. 2019년 국내 최초로 데이터센터 설계·구축·운영(DBO) 사업 모델을 도입해 하남, 죽전, 삼송 등 수십 메가와트(MW) 규모의 하이퍼스케일급 데이터센터 구축 사업을 성공적으로 수행해 왔다. LG CNS는 국내 데이터센터 DBO 설계·컨설팅 영역에서 약 60% 점유율을 차지하고 있으며 구축 및 운영 영역에서도 최고 수준을 기록 중이다. 자체 데이터센터 역시 국내 최초로 오픈한 이래 부산, 상암, 가산을 비롯해 미국, 유럽, 중국 등 글로벌 거점에서 운영하고 있다. 생성형 AI 확산으로 고전력·고밀도 인프라 수요가 급증함에 따라 LG CNS는 6개월 내 구축이 가능한 혁신적인 '모듈형 AI 데이터센터'도 선보였다. 이 모델은 컨테이너 하나에 GPU 576장을 수용하는 소형 데이터센터로, 통상 2년이 걸리던 구축 기간을 단축하고 컨테이너 결합을 통해 하이퍼스케일급으로 확장이 가능하다. LG CNS는 지난해 '원 LG' 기술력을 결집해 인도네시아 자카르타에서 1000억원 규모의 하이퍼스케일급 AI 데이터센터 사업을 수주하며 한국 기업 최초로 해외 진출의 포문을 열었다. 향후 베트남 등 추가적인 글로벌 시장 공략에도 박차를 가할 계획이다. 한 업계 관계자는 "LG CNS가 데이터센터 역량을 바탕으로 안정적인 장기 수익 구조를 구축하고 있다"며 "이를 바탕으로 국내는 물론 글로벌 AI 데이터센터 시장까지 적극적으로 진출할 것으로 예상된다"고 말했다.

2026.04.01 16:03남혁우 기자

오라클, AI 투자 확대에 인력 수천명 감축…클라우드·DB 전반 영향

오라클이 인공지능(AI) 인프라 투자 확대에 따른 재원 확보를 위해 대규모 인력 감축에 나섰다. 클라우드와 데이터베이스(DB) 사업 전반에서 구조조정을 단행하며 비용 절감과 동시에 데이터센터 구축 등 AI 투자를 강화하는 모습이다. 31일(현지시간) 월스트리트저널에 따르면 오라클은 이날 미국과 인도 등 주요 거점에서 직원들에게 해고 통보를 시작했으며 감원은 클라우드·DB 등 핵심 사업 전반에 걸쳐 진행되고 있다. 일부 직원들은 이날 새벽 이메일을 통해 "현재 사업적 필요를 고려해 직무를 없애기로 했다"는 통보와 함께 즉시 근무 종료를 안내받은 것으로 전해졌다. 정확한 감원 규모는 공개되지 않았지만, 내부 지표 기준 이미 수천 명 수준에 이른 것으로 알려졌다. 앞서 투자은행 TD코웬은 오라클이 AI 인프라 투자 재원을 마련하기 위해 최대 3만 명까지 인력을 줄일 가능성을 제기한 바 있다. 오라클의 전체 직원 수는 지난해 기준 약 16만 2000명이다. 이번 구조조정은 오라클이 오픈AI와 추진 중인 대규모 데이터센터 프로젝트 '스타게이트'와 맞물려 있다. 오라클은 향후 수년간 수십억 달러 규모의 투자를 통해 데이터센터를 구축할 계획이며 이 과정에서 재무 부담 확대에 대한 우려가 제기되고 있다. 특히 스타게이트 프로젝트는 일부 확장 계획에서 차질을 빚으며 구조 재편이 진행되는 모습이다. 미국 텍사스 애빌린 데이터센터 일부 확장 부지가 마이크로소프트(MS)로 넘어가면서 오라클이 추진 중인 스타게이트 프로젝트의 인프라 확보 계획이 일부 조정된 것으로 전해졌다. 다만 기존 프로젝트 자체는 유지된 채 지역 및 투자 전략을 재조정하는 방향으로 추진되는 상황이다. 오라클은 최근 공시를 통해 구조조정 비용을 기존보다 5억 달러(약 7500억원) 늘리겠다고 밝히며 인력 감축 확대 가능성을 시사했다. 동시에 AI 수요가 공급을 웃도는 상황이 이어지고 있다며 데이터센터 등 관련 인프라 투자를 지속하겠다는 입장을 유지했다. 다만 투자자들은 데이터센터 자금 조달 계획의 실현 가능성과 수익성에 대해 우려를 나타내고 있다. 오라클 주가는 최근 6개월간 약 50% 하락하는 등 변동성이 커졌으며 AI 투자 확대에 따른 재무 부담이 주요 리스크로 지목된다. 이같은 흐름은 오라클에 국한되지 않는다. 아마존과 메타 등 주요 빅테크 기업들도 AI 전환 과정에서 인력 감축과 자동화를 병행하며 AI 투자를 위한 '선 구조조정' 기조가 업계 전반으로 확산되는 양상이다. 업계 관계자는 "AI 경쟁이 심화되면서 글로벌 빅테크들이 투자 여력을 확보하기 위해 인건비를 포함한 비용 절감에 나서고 있다"고 말했다.

2026.04.01 12:17한정호 기자

MS, 10조원 '전력 확보' 베팅…AI 데이터센터 경쟁 판 흔든다

마이크로소프트(MS)가 미국 텍사스에서 약 70억 달러(약 10조원) 규모의 대형 발전 프로젝트를 추진하며 인공지능(AI) 시대 핵심 자원으로 부상한 전력 확보 경쟁에 본격적으로 뛰어들었다. 데이터센터 확장에 따른 전력 수요 폭증이 빅테크 기업들의 전략 지형을 바꾸는 분위기다. 1일 블룸버그통신에 따르면 MS는 셰브론, 투자펀드 엔진 넘버원(No.1)과 함께 미국 서부 텍사스에서 천연가스 기반 발전소 건설 및 장기 전력 수급을 위한 독점 협상을 진행 중이다. 해당 발전소는 초기 2500메가와트(MW) 규모로 설계되며 향후 최대 5000MW까지 확장될 가능성도 있다. 이는 원전 2기 이상에 해당하는 전력 생산 능력이다. 이번 프로젝트의 핵심은 '수요-공급 일체형 구조'다. MS가 장기 전력 구매자로 참여할 경우 발전소는 안정적인 수익 기반을 확보하게 되고 이를 통해 대규모 초기 투자비 조달이 용이해진다. 반대로 MS는 AI 데이터센터 운영에 필수적인 기저 전력을 안정적으로 확보할 수 있다. 업계 관계자는 "AI 산업 확장과 함께 전력은 반도체·데이터센터와 함께 핵심 인프라로 부상하고 있다"며 "특히 생성형 AI는 기존 클라우드 서비스 대비 수배 이상의 전력을 소비해 부담이 크다"고 말했다. 이에 따라 MS, 구글, 아마존 등 빅테크 기업들은 데이터센터 입지를 전력 공급지 중심으로 재편하는 추세다. 실제 이번 발전소 부지가 위치한 퍼미안 분지는 미국 최대 산유 지역으로, 원유 생산 과정에서 발생하는 천연가스 공급이 풍부하다. 파이프라인 부족으로 일부 가스가 소각되는 상황까지 발생하면서 발전 연료 확보 측면에서 최적지로 평가된다. 셰브론 역시 이번 프로젝트를 통해 '에너지 기업'에서 '전력 공급자'로 사업 영역을 확장하고 있다. 엔진 넘버원과의 협력은 이러한 전략 전환의 일환으로, 양사는 이미 GE 버노바로부터 대형 가스터빈 7기를 확보하며 선제적 설비 투자에 나선 상태다. 터빈 공급 부족으로 신규 프로젝트의 진입 장벽이 높아진 상황에서 선점 효과를 노린 행보다. 다만 사업 성사까지는 변수도 적지 않다. 세제 혜택 승인과 환경 인허가 절차, 전력 구매 조건 협상 등이 남아 있으며 최종 계약은 아직 체결되지 않았다. 발전소 가동 시점은 2027년으로 예상되며 완전 가동까지는 추가로 수년이 소요될 전망이다. 업계에선 이번 프로젝트를 단순한 발전 투자 이상의 의미로 해석하고 있다. AI 시대에는 컴퓨팅 파워뿐 아니라 이를 뒷받침할 '에너지 인프라'가 경쟁력을 좌우할 핵심 요소로 떠오르고 있기 때문이다. 특히 빅테크 기업들이 직접 전력 확보에 나서는 흐름은 향후 글로벌 에너지 시장에도 구조적 변화를 가져올 가능성이 크다는 분석이다. 업계 관계자는 "AI 경쟁의 본질이 데이터와 반도체에서 전력으로 확장되고 있다"며 "향후에는 전력 확보 능력이 곧 기업 경쟁력을 결정짓는 시대가 될 것"이라고 말했다.

2026.04.01 09:55장유미 기자

미스트랄, AI 인프라 자립 '속도'…8억 3000만 달러 조달

미스트랄AI가 유럽에 자체 데이터센터를 구축해 인공지능(AI) 인프라 확대에 나섰다. 30일(현지시간) 테크크런치 등 외신에 따르면 미스트랄AI는 프랑스 파리 인근 브뤼예르르샤텔에 엔비디아 칩 기반 데이터센터를 구축하기 위해 8억 3000만 달러(약 1조 2600억원) 규모 부채를 조달한 것으로 전해졌다. 해당 시설은 올 2분기 가동을 목표로 한다. 이번 데이터센터는 미스트랄AI가 지난해부터 추진해 온 인프라 전략 연장선이다. 아서 멘슈 미스트랄AI 최고경영자(CEO)는 지난해 2월 다양한 자금 조달 방안을 검토하겠다고 밝힌 바 있다. 미스트랄AI는 유럽 전역 인프라 확장에도 속도를 내고 있다. 스웨덴에 14억 달러(약 2조 1000억원)를 투자해 데이터센터를 포함한 AI 인프라를 구축할 계획이다. 또 내년 유럽에 200메가와트(MW) 규모 연산 용량을 배치할 방침이다. 미스트랄AI는 지금까지 총 28억 유로 넘는 자금을 확보했다. 제너럴캐털리스트를 비롯한 ASML, 앤드리슨호로위츠, 라이트스피드, DST글로벌 등이 투자에 참여했다. 멘슈 CEO는 "유럽 내 인프라 확장은 고객을 지원하고 AI 혁신과 자율성이 유럽 중심에 머물도록 하는 데 중요하다"며 "정부 기업 연구기관이 자체 AI 환경 구축 수요를 보이는 만큼 투자를 지속할 것"이라고 밝혔다.

2026.03.31 09:31김미정 기자

스타클라우드, 2500억 투자 유치…우주 데이터센터 유니콘 등극

우주 데이터센터 구축을 목표로 하는 스타트업 스타클라우드가 1억 7000만 달러(약 2579억원) 규모 시리즈 A 투자를 유치했다. 31일 테크크런치 등 외신에 따르면 스타클라우드는 11억 달러(약 1조 6692억원)의 기업가치를 인정받으며 와이콤비네이터 졸업 후 가장 빠르게 유니콘 반열에 오른 스타트업 중 하나가 됐다. 이번 투자는 벤치마크와 EQT벤처스가 주도했다. 데모데이 이후 17개월 만에 성사됐다. 지상 데이터센터가 전력, 부지, 규제 문제에 직면하면서 이를 우주로 확장하려는 시도가 투자 확대의 배경으로 분석된다. 스타클라우드는 이번 라운드를 포함해 총 2억 달러를 확보했다. 2025년 11월 엔비디아 H100 GPU를 탑재한 첫 위성을 발사했다. 올해 하반기에는 블랙웰 칩과 AWS 서버 블레이드 등을 탑재한 '스타클라우드2'를 발사할 계획이다. 차세대 데이터센터 우주선 '스타클라우드3' 개발도 진행한다. 이 장비는 200킬로와트 전력을 사용하는 3톤급으로, 스페이스X의 '스타십' 로켓을 통해 발사될 예정이다. 스타링크 위성 배치 방식인 '페즈 디스펜서' 구조에 맞춰 설계된다. 필립 존스턴 CEO는 발사 비용이 킬로그램당 500달러 수준까지 낮아질 경우 전력 비용이 kWh당 0.05달러 수준으로 떨어져 지상 데이터센터와 경쟁이 가능할 것으로 전망했다. 다만 스타십 상용화가 핵심 변수다. 회사는 2028~2029년 상용 발사를 예상하고 있다. 사업 모델은 두 가지다. 먼저 궤도상 위성에 연산 서비스를 제공한다. 이후 발사 비용이 낮아지면 지상 데이터센터의 연산을 우주로 분산 처리하는 구조로 확장한다는 계획이다. 회사는 첫 위성에서 AI 모델 학습과 '제미니' 실행을 수행했다고 설명했다. 다만 기술적 과제는 여전히 크다. 고성능 GPU의 발열을 처리할 냉각 기술과 안정적인 전력 공급이 필요하다. 스타클라우드2에는 대형 전개형 라디에이터가 탑재될 예정이다. 또한 수백, 수천 개 GPU를 연결하려면 위성 간 고속 레이저 통신도 확보해야 한다. 시장 경쟁도 본격화되고 있다. 에테르플럭스, 구글 '프로젝트 선캐처', 에테로 등이 유사 사업을 추진 중이다. 스페이스X 역시 최대 100만 개 위성을 활용한 분산 컴퓨팅 구상을 추진하고 있다. 필립 존스턴 CEO는 "스페이스X는 주로 그록(Grok)과 테슬라의 작업 처리를 위한 용도에 집중하고 있다"며 "반면 우리는 에너지 및 인프라 서비스 플레이어로서 접근하고 있기 때문에 충분히 공존할 수 있다"고 밝혔다.

2026.03.31 09:25남혁우 기자

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

국방부가 생성형 인공지능(AI) 기반 국방 데이터 인프라 구축을 위한 첫 단계 사업에 착수했다. 대규모 그래픽처리장치(GPU) 서버를 중심으로 한 인프라를 구축해 국방 AI 서비스 운영 기반을 마련하고 향후 국방 통합 AI 데이터센터 구축을 위한 실증 데이터를 확보한다는 구상이다. 30일 조달청 나라장터에 따르면 국방부 산하 국방통합데이터센터(DIDC)는 최근 '2026년 국방통합AI데이터센터 실증 목적 GPU 서버 구축사업' 입찰을 공고했다. 이번 사업은 국방 AI 데이터센터 구축을 위한 초기 실증 사업으로, GPU 자원 확보와 함께 AI 인프라 운영·관리 체계를 구축하는 것이 핵심이다. 사업 예산은 약 216억원 규모로 책정됐으며 계약 후 210일 이내 수행될 예정이다. 특히 일반경쟁입찰 계약방식으로 평가 비중은 기술 90%, 가격 10%로 구성됐다. 이번 사업은 지난해 구축된 국방 생성형 AI '국방 생성형 AI(GeDAI, Generative Defense AI)' 서비스의 안정적 운영을 지원하기 위한 후속 인프라 확장 성격을 띤다. 국방부는 GeDAI를 실증 수단으로 활용해 GPU 수요와 국방 데이터 활용 요구사항을 도출하고 향후 데이터센터 구축 시 기준으로 활용할 계획이다. 사업 범위는 단순 장비 도입을 넘어선다. 우선 대규모 AI 추론 서비스를 위한 GPU 서버와 클라우드 관리 서버, 고속 네트워크 및 스토리지 등 핵심 인프라가 구축된다. 이와 함께 GPU 가상화 기반 서비스형 플랫폼(PaaS), 백업 시스템, 관제 및 보안 솔루션도 포함된다. 특히 GPU 서버는 엔비디아 B300 기반 고성능 장비로 구성되며 서버 간 최대 800기가비피에스(Gbps)급 네트워크를 통해 대규모 AI 추론 환경을 구현하는 것이 목표다. 이를 바탕으로 국방 데이터 기반 AI 모델 학습과 추론을 동시에 지원하는 고성능 인프라가 마련될 전망이다. 사업은 착수 이후 ▲환경 조사 및 요구사항 분석 ▲아키텍처 상세 설계 ▲장비 설치 및 시험평가 ▲보안 측정 및 검수 ▲안정화 단계로 진행된다. 이후 무상 하자보수 및 운영 안정화까지 포함된 전체 구축 사이클이 약 7개월 내 완료될 예정이다. 국방부는 이번 사업을 통해 GPU 자원을 확대하고 각 군과 수요기관에 AI 서비스를 제공할 수 있는 기반을 마련한다는 방침이다. 또 민·군 협력 기반 AI 연구개발 환경을 조성하고 향후 전군 단위 AI 서비스 확산을 위한 인프라 표준 확보에도 활용된다. 이번 사업은 향후 추진될 국방 통합 AI 데이터센터 구축의 전초 단계로 평가된다. 앞서 정부는 2030년까지 최대 5만 개 GPU를 투입하는 대규모 국방 AI 인프라 구축 계획을 밝힌 바 있다. 이번 실증 사업이 핵심 기반이 될 것이라는 예상이 나온다. 국방부 측은 사업 제안요청서를 통해 "AI 과학기술 강군 육성을 위해 기존 국방 생성형 AI 서비스를 안정적으로 운영·관리할 수 있도록 정보시스템을 증설한다"며 "GPU 기반 인프라 구축을 통해 효율적이고 안정적인 AI 서비스 제공 환경을 마련할 것"이라고 밝혔다.

2026.03.30 17:44한정호 기자

파두, CFMS 2026 참가..."아시아 AIDC 공략 강화"

데이터센터 반도체 기업 파두가 27일 중국 선전에서 개최된 '차이나 플래시 마켓 서밋(CFMS) 2026'에 참가해 중국과 아시아 잠재 고객을 발굴하겠다고 30일 밝혔다. 올해 8회차를 맞아 '사이클을 넘어, 가치 창출'이란 주제로 개최된 CFMS에는 유수의 반도체 기업 등 1500개 이상 기업들이 참가했다. 파두의 Gen5 컨트롤러와 이를 기반으로 한 완제품 SSD는 글로벌 데이터센터 고객들을 통해 성능과 전력 효율성이 검증된 솔루션이다. 현재 글로벌 CSP 및 OEM 업체에 채택됐다. 하이퍼스케일 데이터센터 AI 환경에 최적화한 Gen5 컨트롤러는 최대 14GB/s 순차 읽기 속도, 초당 340만 건(3.4M IOPS) 랜덤 읽기 성능, 7W 미만 전력 효율을 지원한다. 차세대 Gen6 컨트롤러는 AI 데이터센터 환경에서 요구되는 초고속 데이터 처리 성능과 함께 높은 성능에서도 전력 효율을 유지하는 아키텍처를 갖췄다. 기존 Gen5 컨트롤러 대비 2배 이상 향상된 최대 28.5GB/s 순차 읽기 속도, 6.9M IOPS 랜덤 읽기 성능과 함께 8W 미만 전력 효율을 제공해 AI 데이터센터 비용 효율을 높이도록 지원한다. Gen6 컨트롤러는 개발을 마쳤다. 올해 하반기부터 납품할 예정이다. 플렉스 SSD는 고객 각각의 AI 워크로드에 맞춰 기업용 SSD(eSSD)를 설계하도록 지원하는 파두의 맞춤형 플랫폼이다. 고객 필요에 맞게 양산 규모, 브랜드, 펌웨어, 하드웨어를 유연하게 선택할 수 있다. 기존 제조업자 개발방식(ODM)과 달리 고객 수요에 따라 고객 자체 브랜드로 펌웨어와 하드웨어를 최적화해 공급할 수 있다. 강뢰(康雷, 캉레이) 파두 중국법인장은 행사에서 '스토리지의 경계를 확장하다: AI 데이터센터를 위한 차세대 SSD'란 주제로 기조연설했다. 그는 오늘날 AI 추론 서버에는 훈련 서버 대비 더욱 많은 수의 SSD와 높은 SSD 성능∙용량이 요구돼 Gen5, Gen6 도입이 가속된다는 점에 주목하며 파두 최신 컨트롤러와 플렉스 SSD 솔루션을 소개했다. 남이현 파두 대표는 "CFMS 등 해외 전시회를 기반으로 마케팅 활동을 활발하게 펼쳐 고객 다변화와 글로벌 시장 공략을 가속하겠다"며 "올해 1분기에만 수주액이 1500억원을 돌파하며 본격 성장하고 있고 흑자전환도 가시화되는 등 올해는 매출과 이익이 함께 퀀텀점프하는 원년이 될 것"이라고 말했다.

2026.03.30 09:52전화평 기자

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

삼성전자, SK하이닉스의 고대역폭메모리(HBM) 출하량이 올해에도 큰 폭의 성장을 이어갈 전망이다. 삼성전자의 경우 엔비디아와 브로드컴, AMD 등 고객사 수요로 출하량이 100억Gb(기가비트)를 넘길 것으로 관측된다. SK하이닉스는 최근 엔비디아향 HBM4에서 성능 논란을 겪었지만, 적정한 성능 선에서 제품을 공급하는 데 무리가 없을 것이라는 평가가 중론이다. 결과적으로 양사 모두 연초 설정했던 HBM 출하량 계획에서 큰 변동은 없을 것으로 보인다. 27일 업계에 따르면 삼성전자, SK하이닉스의 올해 HBM 출하량은 용량 기준 도합 300억Gb에 달할 전망이다. 삼성전자, HBM 출하량 100Gb 돌파 전망…HBM4 성과 두각 삼성전자는 올해 HBM 생산량을 지난해 대비 3배 이상 확대하겠다는 목표를 세우고 있다. 황상준 삼성전자 메모리개발담당 부사장은 지난 16일(현지시간) 미국에서 열린 'GTC 2026'에서 "HBM 생산을 빠르게 확대하고 있다. 올해는 지난해 대비 3배 이상 수준으로 늘릴 계획"이라고 밝힌 바 있다. 삼성전자의 지난해 총 HBM 출하량은 40억Gb 내외로 추산된다. 이를 고려하면 올해 출하량 목표치는 110억Gb 내외에 달할 전망이다. 실제로 삼성전자는 지난해 말께 올해 HBM 사업 전략을 구상하는 단계에서 이 같은 성장세를 자신한 것으로 전해진다. 당시 차세대 제품인 HBM4가 엔비디아로부터 긍정적인 피드백을 받았고, AMD와 브로드컴 등 타 고객사와의 공급 협의도 사실상 마무리 단계에 접어들어서다. 브로드컴은 구글, 오픈AI 등 빅테크의 AI 반도체를 위탁 생산하고 있다. 특히 엔비디아는 삼성전자 HBM4의 가장 큰 고객사가 될 전망이다. 삼성전자는 HBM의 코어 다이로 1c(6세대 10나노급) D램을, 컨트롤러 역할의 베이스 다이는 자사 파운드리 4나노미터(nm) 공정을 채택했다. 두 다이 모두 경쟁사 대비 공정이 고도화됐다. 이를 토대로 삼성전자는 엔비디아가 높인 HBM4 성능 기준을 가장 먼저 충족했다는 평가를 받았다. 당초 국제반도체표준화기구(JEDEC)가 정한 HBM4의 성능은 8Gbps급이었으나, 엔비디아는 이를 11.7Gbps 수준까지 요구했다. HBM3E 제품에서는 브로드컴이 가장 큰 고객사로 꼽힌다. 구글은 자체 제작한 AI 반도체 TPU(텐서처리장치)에 HBM을 탑재하고 있으며, 올해는 HBM3E 기반의 v7p 버전의 물량을 크게 확대할 것으로 알려졌다. 반대로 삼성전자의 HBM 출하량이 더 늘어날 가능성은 높지 않다는 평가다. 올해 말까지 삼성전자가 확보 가능한 1c D램의 생산능력은 월 13만장 수준이다. 이 중 대부분이 HBM에 할당된 상태로, 추가적인 생산능력 확보가 어려운 상황인 것으로 관측된다. SK하이닉스, 성능 논란 속에서도 당초 출하량 계획 변동 無 SK하이닉스의 올해 HBM 출하량은 전년(120억Gb 수준) 대비 60%가량 증가한 200억Gb 내외에 달할 전망이다. 이 중 3분의 2가량이 엔비디아에 할당된 것으로 파악된다. 상반기에는 HBM3E를 주력으로 공급하고, 하반기부터 HBM4 공급량이 확대될 예정이다. 최근 SK하이닉스는 엔비디아향 HBM4 공급에 차질이 생길 수 있다는 우려에 휩싸인 바 있다. 엔비디아가 상향 조정한 HBM4 성능을 만족시키기 어렵다는 이유에서다. SK하이닉스의 HBM4는 코어다이로 1b(5세대 10나노급) D램을, 베이스다이로 TSMC의 12나노 공정을 채택했다. 삼성전자 대비 레거시(성숙) 공정에 해당한다. 실제로 SK하이닉스의 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 난항을 겪었다. 코어 다이 최상부층까지 전력이 제대로 도달되지 않는 문제가 가장 큰 요인으로 지목된다. 이에 SK하이닉스는 일부 회로를 수정하는 방안으로 개선 작업을 진행해 왔다. 다만 SK하이닉스가 당초 계획한 엔비디아향 HBM 공급량에 변동이 생길 가능성은 극히 적은 것으로 관측된다. 엔비디아가 HBM4의 성능을 최대 11.7Gbps까지 요구하기는 했으나, 10Gbps 등 하위 성능의 제품도 동시에 수급하기 때문이다. 최상위 제품만 도입하는 경우 최첨단 최신 AI 칩인 '베라 루빈'을 충분히 양산하지 못할 수 있어, 이 같은 전략을 짠 것으로 풀이된다. 곽노정 SK하이닉스 사장도 최근 열린 SK하이닉스 정기 주주총회 현장에서 "고객사와의 협의로 약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다"고 밝힌 바 있다. 반도체 업계 관계자는 "HBM4가 상용화 시점에 접어들면서 다양한 성능, 고객사 관련 이슈들이 떠오르고 있으나, 삼성전자와 SK하이닉스 모두 당초 계획했던 HBM 출하량 변동에서 큰 조정은 없는 상황"이라며 "HBM 총 공급능력이 수요를 크게 밑도는 수준이라, 결국 양사 제품이 무난하게 잘 팔릴 것이라는 게 중론"이라고 설명했다.

2026.03.27 11:07장경윤 기자

산일전기, 2대주주 지분 9.98% 블록딜 완료…"유동성 확보 목적"

변압기 제조업체 산일전기는 회사 2대주주 강은숙씨가 산일전기 지분 9.98%를 유럽계 국부펀드를 포함한 글로벌 투자기관에 매각했다고 27일 밝혔다. 강은숙씨는 본인이 보유한 지분 19.06% 가운데 9.98%를 시간외대량매매(블록딜) 방식으로 매각했다. 주당 매각가는 14만 7000원으로 총거래 규모는 4490억원이다. 지분 매각으로 강씨 지분율은 19.06%에서 9.09%로 9.97%포인트 낮아졌다. 산일전기 최대주주는 지분 35.82%를 보유한 박동석 대표다. 박동석 대표 지분율은 변동이 없다. 그외 특수관계인을 포함한 최대주주 지분율은 55.04%에서 45.07%로 낮아졌다. 강씨의 이번 산일전기 주식 매각 사유는 보유주식 매각을 통한 자금 확보다. 산일전기 관계자는 "당사는 주식 거래량이 상대적으로 적어, 이번 거래가 회사의 유동주식수 증대에 긍정적 영향을 미치고, 사업적으로는 인공지능(AI) 데이터센터 등 성장 산업 확장을 통한 매출 성장으로 주주가치를 높일 것으로 기대한다"고 말했다.

2026.03.27 09:32장경윤 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

더 크게보다 더 가볍게…AI 인프라 경량화 시대 부상

[현장] 지드래곤·태민 춤 완벽 재현한 로봇들…'피지컬 AI 엔터테크' 시대 성큼

전기차 대신 ESS 키우는 포드…배터리 전략 선회

"드론 비행거리 2배로"…中, 차세대 리튬-황 배터리 화제

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.