• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터센터'통합검색 결과 입니다. (531건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

日KDDI "수전용량 50MW IDC, 1년 만에 구축·가동"

일본 이동통신사 KDDI가 오사카 사카이 데이터센터 가동을 시작했다. 수랭식 설비를 갖춘 최대 수전 용량 50MW 급의 IDC를 열 달 만에 구축하고 가동한 점이 주목할 부분이다. 씨넷재팬에 따르면 오사카 사카이 센터는 엔비디아 블랙웰 아키텍처 GB200 NVL72를 도입해 AI 개발을 지원하게 되는데, KDDI가 IDC 부지로 샤프의 공장 부지를 지난해 4월에 인수한 뒤 1년도 걸리지 않아 데이터센터 가동에 이르게 됐다. 마쓰다 히로미치 KDDI 대표는 “수랭 설비를 갖춘 IDC 건설에는 통상 3~4년이 걸리지만, 샤프 공장에 정비된 건물과 전력 설비, 냉각 장치 등 귀중한 자산을 계승해 빠르게 공사를 진행했다”고 설명했다. 이어, “1년 만에 데이터 가동을 실현했고, 현 시점에서 약 100억엔(한화 약 930억원) 규모의 비용 절감 효과를 거뒀다”고 덧붙였다. 오사카 사카이 데이터센터는 지상 4층 규모로, 연면적은 약 5만7000㎡에 이른다. 현재는 3층 일부만 가동하고 있으나 지속적인 설비 확정에 나설 예정이다. 엔비디아 블랙웰 NVL72 외에 H100, H200도 함께 구축됐다. GB200은 추론 모델 개발과 대규모 학습, H100과 H200은 구글의 제미나이 운영으로 활용한다.

2026.01.25 09:36박수형 기자

中, 엔비디아 H200 수입 준비…자국 AI칩 동시 활용

중국 정부가 알리바바를 비롯한 자국 주요 IT기업들에 엔비디아의 첨단 인공지능(AI) 반도체인 'H200' 주문을 준비하라고 통보했다고 블룸버그통신이 23일(현지시간) 보도했다. 보도에 따르면 중국 정부는 최근 알리바바, 텐센트, 바이트댄스 등에 H200 칩 구매를 구체적으로 진행할 수 있는 자격을 부여했다. 이로써 해당 기업들은 필요한 칩 물량 등에 대한 사항을 논의할 수 있게 됐다. H200 수입을 위한 조건도 붙었다. 블룸버그는 익명의 소식통을 인용해 "중국 정부가 수입 승인 조건으로 일정 물량의 자국산 칩을 함께 구매하도록 독려할 방침"이라며 "정확한 수량은 아직 정해지지 않았다"고 밝혔다. 도널드 트럼프 미국 대통령은 지난해 말 중국향 수출이 금지돼 왔던 H200의 수출 재개를 허용하겠다고 밝힌 바 있다. H200은 엔비디아의 최신 AI가속기인 '블랙웰' 시리즈에 비해서는 한 세대 뒤쳐지지만, 중국 기업들의 AI 인프라 투자에 있어 매우 높은 가치를 가지고 있다. 미국이 H200의 수출을 허용한 데에는 중국 내 AI 반도체 자립화 시도를 억제하려는 의도가 깔려있는 것으로 풀이된다. 화웨이, 캠브리콘 등 중국 기업들은 엔비디아가 규제를 받는 사이 자체 AI반도체 개발을 가속화해 왔다. 중국 역시 미국의 H200 수출 재개에 기민하게 대응하려는 것으로 보인다. H200 수급으로 자국 IT 기업들의 AI 인프라 투자를 원활하게 하는 것과 동시에, 자국 AI 칩을 일정량 도입하게 해 기술 자립화 시도 역시 멈추지 않겠다는 전략이다.

2026.01.24 13:11장경윤 기자

엑세스랩, 퀄컴 기반 Arm 추론 어플라이언스 출시

Arm CPU 기반 데이터센터 전문기업인 엑세스랩이 23일 퀄컴 AI 추론 솔루션 기반 저전력·고성능 AI 추론용 어플라이언스 'V-랩터 Q100'을 출시했다. V-랩터 Q100은 엑세스랩이 자체 개발한 Arm 기반 저전력 CPU와 퀄컴 클라우드 AI 100 울트라 가속기를 활용해 AI 추론과 에너지 효율성, 확장성을 노렸다. 퀄컴 클라우드 AI 100 울트라는 퀄컴이 개발한 SoC와 LPDDR4 128GB 메모리를 활용해 INT8(정수 8비트) AI 연산을 초당 870 TOPS(1초당 1조 번 연산), FP16(부동소수점 16비트) 연산은 288 테라플롭스로 처리한다. 김상표 퀄컴코리아 사장은 "퀄컴은 생성 AI와 지능형 엣지 컴퓨팅 수요 급증에 따라 IoT 제품과 솔루션 포트폴리오를 확장중이며 엑세스랩과의 협업을 시작으로 온프레미스 어플라이언스 시장을 적극 공략하고 포트폴리오를 더욱 확대할 것"이라고 밝혔다. 유명환 엑세스랩 대표이사는 "퀄컴과 협업으로 출시한 AI 추론용 Arm CPU 서버 어플라이언스를 시작으로 향후 퀄컴과의 지속적인 기술 개발과 협업을 통해 온프레미스 어플라이언스와 AI 인프라의 글로벌 표준을 만들어가겠다"고 밝혔다.

2026.01.23 10:59권봉석 기자

롯데이노베이트, ESG 경영 선도...데이터센터 전력 35%↓

롯데이노베이트가 데이터센터 냉방 전력 효율을 대폭 개선하며 온실가스 감축과 친환경 경영에 앞장섰다. 롯데이노베이트는 친환경 신기술을 도입해 냉방 설비 전력 사용량을 기존 대비 약 35% 절감했다고 23일 밝혔다. 이는 기존 공랭식 항온항습기에서 외기를 적극 활용하는 수랭식 프리쿨링 설비로 전환한 것으로, 롯데이노베이트는 2020년부터 서울 데이터센터에 이 신기술을 적용해 온실 감축 효과를 거뒀다. 이같은 성과를 바탕으로 롯데이노베이트는 기후에너지환경부로부터 온실가스 감축 실적을 공식 인증 받아 탄소배출권을 확보했다. 이번에 인정받은 탄소배출권은 연평균 1천460톤에 달한다. 이는 연간 약 3.2기가와트시(GWh)의 냉방 전력을 절감한 것과 동일한 효과다. 서울특별시 에너지 정보의 지난해 가구당 전력 소비량 기준으로 환산하면 서울 시내 약 930가구가 1년간 사용할 수 있는 전력량에 해당한다. 롯데이노베이트는 데이터센터 에너지 효율화 외에도 다양한 친환경 활동을 이어가고 있다. 지난해 4월 태양광 발전 설비를 자체 구축해 연평균 약 20톤의 온실가스를 추가로 감축 중이다. 또 에너지 효율성을 체계적으로 관리하는 국제 표준 에너지경영시스템(ISO50001)과 환경 영향을 최소화하는 국제 표준 환경경영시스템(ISO14001) 인증도 모두 획득하며 ESG 경영에 박차를 가하고 있다. 롯데이노베이트는 해당 기술을 지속 고도화해 데이터센터 전력 효율을 개선하고 최근 급성장 중인 AI 데이터센터 시장에서도 경쟁력을 확보할 방침이다. 롯데이노베이트 관계자는 "기후 위기 대응과 함께 지속 가능한 산업 생태계 구축에 기여하기 위해 꾸준히 노력할 것"이라며 "앞으로도 친환경 설비 도입과 온실가스 감축에 적극적으로 나서겠다"고 말했다.

2026.01.23 10:50한정호 기자

메모리 시장, 내년에도 좋다…연매출 '1천조원' 첫 돌파 전망

전례 없는 '슈퍼사이클'에 접어든 메모리반도체 시장이 내년에도 기세를 이어갈 전망이다. 내년 D램·낸드를 합한 시장 규모가 전년 대비 53% 증가해, 처음으로 1천조원을 돌파할 것이라는 분석이 제기됐다. 22일 트렌드포스에 따르면 메모리 시장 규모는 올해 5천516억 달러(한화 약 810조원)에서 내년 8천427억 달러(1천239조원)로 전년 대비 53% 성장할 전망이다. 가장 큰 요인은 지난해부터 본격화된 AI 산업의 급격한 발달이다. AI가 방대한 양의 데이터 처리를 요구하면서, 고대역폭·대용량·저지연 특성을 갖춘 고성능 D램에 대한 의존도가 높아졌다. 낸드 또한 고용량·고속 데이터 전송의 필수 요소로서 각광받는 추세다. 반면 메모리 제조업체들의 생산능력 확대는 수요를 따라가지 못하고 있어, 가격 상승을 유발하고 있다. 특히 D램은 지난해 기준 시장 규모가 1천657억 달러로 전년 대비 73% 증가했을 만큼 매우 강한 급등세를 보인 것으로 추산된다. 트렌드포스는 "역사적으로 D램의 분기별 가격 상승률은 최고 35% 정도였으나, 지난해 4분기에는 DDR5 수요 강세로 D램 가격이 53~58%나 급등했다"며 "이미 높은 가격에도 CSP(클라우드서비스제공자)들은 여전히 수요 강세를 보여 가격 상승을 더욱 부추기고 있다"고 설명했다. 이에 따라 D램 가격은 올 1분기에도 60% 이상 상승하고, 일부 품목은 2배 가까이 오를 것으로 예상된다. 트렌드포스는 이러한 가격 상승세가 향후 3분기 동안 지속되면서, 올해 D램 매출이 전년 동기 대비 144% 급증한 4천43억달러에 이를 것으로 분석했다. 낸드 역시 글로벌 빅테크인 엔비디아 주도로 고성능 제품 수요가 강하게 촉진될 전망이다. 생성형 AI가 장시간의 AI 추론을 요구하면서, 높은 IOPS(1초당 처리할 수 있는 입출력 횟수)를 지원하는 데이터센터용 eSSD 수요가 크게 늘어나고 있다. 트렌드포스는 올 1분기 낸드 가격이 전분기 대비 55~60% 상승하고, 연말까지 지속적인 상승세를 보일 것으로 내다봤다. 이에 따른 올해 낸드 연매출은 전년동기 대비 112% 증가한 1천473억 달러로 예상했다. 트렌드포스는 "메모리 시장 전반에서 공급 부족 현상이 완화될 기미를 보이지 않아 공급업체의 가격 결정력이 유지되고 있다"며 "AI 서버, 고성능 컴퓨팅 및 엔터프라이즈 스토리지에 대한 지속적인 수요에 힘입어 D램 및 낸드 계약 가격은 2027년까지 상승할 것으로 예상된다"고 밝혔다.

2026.01.22 17:40장경윤 기자

오케스트로, 소버린 AI 클라우드 데이터센터 솔루션 출시…인프라·SW 통합

오케스트로 그룹이 소버린 인공지능(AI) 구현을 지원하는 새로운 통합 솔루션을 앞세워 데이터센터 사업 확대에 박차를 가한다. 오케스트로 그룹은 데이터 주권 확보와 AI 인프라 통제가 가능한 '소버린 AI 클라우드 데이터센터' 솔루션을 출시했다고 22일 밝혔다. 이 서비스는 오케스트로 그룹이 축적해 온 소버린 AI 클라우드 아키텍처를 기반으로 클라우드 인프라와 AI 서비스를 단일 구조로 통합한 원스톱 프라이빗 AI 클라우드 통합 솔루션이다. 퍼블릭 클라우드의 운영 불확실성과 온프레미스 환경의 구축 부담을 동시에 보완한다는 목표다. 소버린 AI 클라우드 데이터센터 솔루션은 안전한 고객 전용 인프라를 맞춤형으로 제공하며 초기 투자 부담을 줄이고 고객이 운영 비용을 직접 통제할 수 있는 비즈니스 구조를 제공한다. 복잡한 소프트웨어(SW) 구성을 최소화해 인프라 설계와 운영에 드는 시간과 자원을 줄였다. 또 퍼블릭 클라우드의 확장성과 온프레미스 환경의 운영 통제력을 결합함으로써 AI 서비스 확장에 따른 비용 변동성을 줄이고 예측 가능한 AI 인프라 총소유비용(TCO)을 구현한 것이 핵심이다. 외부 클라우드나 공용 자원에 의존하지 않는 프라이빗 클라우드 기반의 고객 전용 환경으로 구성되며 데이터와 AI 운영, 인프라 자원을 전용 영역으로 분리해 구성한다. 기업과 기관이 쉽게 데이터 접근과 운영 정책을 직접 설정하고 통제할 수 있는 프라이빗 소버린 AI 환경을 제공하는 것이 핵심이다. 아울러 고객 맞춤형 서비스 조합을 패키지 형태로 지원해 온프레미스 환경에서 요구되던 복잡한 구축 과정 없이 가상머신(VM)과 컨테이너 기반의 AI 서비스 환경을 빠르게 구현할 수 있다. 모듈형 구조로 필요한 기능만 선택해 조합할 수 있어 고객 요구에 맞는 AI 서비스 환경을 구성할 수 있다는 설명이다. 이 솔루션에는 ▲서버 가상화 솔루션 '콘트라베이스' ▲클라우드 네이티브 운영관리 플랫폼 '비올라' ▲AI 인프라 플랫폼 '콘체르토 AI' ▲생성형 AI 솔루션 '클라리넷' ▲AI 기반 클라우드 자동화 솔루션 '심포니 A.I' ▲데브옵스 통합 관리 플랫폼 '트럼본' ▲멀티 클라우드 통합 관리 솔루션 '오케스트로 CMP' ▲마이그레이션 전문 솔루션 '콘트라베이스 레가토 마이그레이터' ▲재해복구 전문 솔루션 '콘트라베이스 레가토 DR' 등 풀스택으로 구성된다. 솔루션 출시와 함께 오케스트로 그룹은 프라이빗 AI 데이터센터를 직접 갖추기 어려운 고객을 위한 소버린 AI 클라우드 데이터센터를 구축하고 있다. SW부터 하드웨어(HW) 및 상면까지 포함한 모든 프라이빗 클라우드 서비스를 퍼블릭 클라우드처럼 사용할 수 있다. 특히 그래픽처리장치(GPU) 중심의 AI 워크로드는 물론 국산 AI 반도체(NPU)와 국산 거대언어모델(LLM)을 연계할 수 있는 구조를 적용해 AI 인프라부터 AI 모델까지 아우르는 소버린 AI 환경을 제공한다는 전략이다. 올해부터 마곡·청담·여의도 등 주요 권역에서 소버린 AI 데이터센터를 순차 오픈하고 SW 중심 패키지에서 물리적 데이터센터 인프라까지 연결되는 소버린 AI 인프라 생태계를 구축해 나갈 계획이다. 이 과정에서 그룹 내 솔루션 전문 계열사인 오케스트로와 오케스트로 AGI, 오케스트로 데이타커맨드는 AI 클라우드 풀스택 SW를 제공한다. 클라우드 네이티브 서비스 전문 계열사인 오케스트로 클라우드는 해당 솔루션이 적용될 데이터센터의 컨설팅·설계·구축·운영 등 전 과정을 지원한다. 김민준 오케스트로 그룹 의장은 "이번 솔루션은 AI·클라우드 풀스택 솔루션과 소버린 AI 데이터센터 구축·운영 역량을 결합해 단일 통합 제품으로 구현한 것"이라며 "그룹 차원의 기술과 인프라 역량을 바탕으로 소버린 AI 데이터센터 사업을 본격 확대해 나가겠다"고 말했다.

2026.01.22 17:01한정호 기자

[현장] STT GDC, 가산에 첫 데이터센터 연다…韓 코로케이션 시장 본격 진출

글로벌 데이터센터 전문기업 STT GDC가 국내 첫 데이터센터를 올해 6월 가동하며 한국 시장 공략에 본격 나선다. 인공지능(AI)·클라우드 수요 확대에 대응하는 AI-레디 인프라를 앞세워 국내 코로케이션 시장에서 입지를 구축할 계획이다. 허철회 STT GDC 코리아 대표는 22일 서울 여의도 FKI타워에서 진행한 기자간담회에서 "가산에 들어서는 'STT 서울1'을 시작으로 한국 시장에서 AI·클라우드 수요를 안정적으로 받쳐줄 인프라를 단계적으로 확대해 나가겠다"고 밝혔다. STT GDC는 싱가포르에 본사를 둔 글로벌 데이터센터 전문기업으로, 12개국에서 100개 이상의 데이터센터를 운영하며 총 IT 부하 용량 2기가와트(GW) 이상을 확보하고 있다. 고성능·고효율·저탄소 데이터센터 인프라를 기반으로 아마존·마이크로소프트·구글 등 글로벌 하이퍼스케일러들을 지원해왔다. STT GDC가 한국을 전략 시장으로 설정한 배경에는 AI 확산에 따른 데이터센터 수요 급증이 있다. 허 대표는 "AI 지출 확대와 에이전틱 AI, AI 서비스형 소프트웨어(SaaS) 등 시장이 빠르게 커지고 있다"며 "이에 맞춰 데이터센터 인프라뿐 아니라 저지연 네트워크·해저 케이블 등 연결성까지 중요해지고 있다"고 설명했다. 특히 허 대표는 앞으로 데이터센터 수요를 주도할 핵심 축으로 '추론'을 지목했다. 그는 "AI 애플리케이션과 추론 중심 워크로드가 늘수록 데이터센터의 수도권 입지와 네트워크가 더 중요해질 것"이라고 진단했다. 이런 흐름에 한국 시장도 소버린 AI와 그래픽처리장치(GPU) 확산 정책이 맞물리며 전력 수요가 크게 늘고 있다는 게 STT GDC의 판단이다. 허 대표는 정부가 엔비디아와 체결한 GPU 26만 장 도입 논의 등으로 인해 추가 전력 수요가 발생할 수 있으며 2030년에는 국내 데이터센터 전력 수요가 3GW 수준까지 필요해질 수 있다고 언급했다. STT GDC가 이번에 첫 거점으로 공개한 STT 서울1은 서울 금천구 가산동에 위치한 AI 데이터센터로, 최대 IT 부하 30메가와트(MW)를 수용하도록 설계됐다. STT GDC는 이 센터를 기반으로 국내 고객의 AI·클라우드 인프라 수요에 대응하는 동시에, 글로벌 확장과 연계한 코로케이션 서비스를 제공하겠다는 구상이다. STT 서울1은 주·예비 2회선 이중화 기반 22.9kV 전력 인입, 분산형 중복 구성 방식 무정전전원장치(UPS), N+1 비상발전기 등 안정성을 고려한 전력 설계를 갖췄다. 최대 부하 기준 24시간 무급유 발전이 가능한 연료탱크를 구축했고 업타임 티어 3 TCCD·TCCF 인증과 무중단 유지보수·내결함성 설계도 추진한다. 건물은 지하 2층부터 지상 10층까지 멀티스토리 구조로 설계됐으며 데이터센터 특성상 층고가 높아 체감 높이는 일반 아파트 약 20층 수준에 해당한다. STT GDC는 도심 내 제한된 부지에서 전력·설비 집적도를 극대화하기 위해 이같은 구조를 선택했다고 밝혔다. 네트워크는 망중립 구조를 기반으로 2개의 독립된 MDF실과 3개의 인입 경로를 구성해 복수 통신사 및 다양한 연결 옵션을 확보했다. 냉각은 설계 전력사용효율(PUE) 1.3 미만을 목표로 중앙 냉수식 냉방 설비와 팬월 유닛 등을 적용해 AI 워크로드에 대비한 열관리 효율을 높인다는 방침이다. 나아가 STT GDC는 액침 냉각 등 차세대 냉각 기술도 글로벌 본사 차원에서 검증하고 있다. 슈나이더 일렉트릭, 아이스오토프와 협력해 액침 냉각 기술검증(PoC)을 진행했고 인도 법인도 액체 냉각 기술 연구·테스트를 추진 중이다. 국내 센터 운영 전략으로는 인하우스 중심 운영을 강조했다. STT GDC 코리아 양재석 운영센터장은 "다수 데이터센터 사업자가 운영을 외주화하는 것과 달리, 우리는 운영 핵심 기능을 자체 인력으로 수행한다"며 "글로벌 하이퍼스케일러 지원 경험을 바탕으로 국내에서도 동일한 표준과 교육 체계를 적용할 계획"이라고 밝혔다. STT GDC는 한국 시장이 글로벌 하이퍼스케일러뿐 아니라 국내 클라우드 사업자와 소버린 AI 프로젝트 확대로 수요 구조가 빠르게 바뀌고 있다고 진단했다. 이에 대해 허 대표는 "연도별 수요·공급 변동성이 커지는 만큼 단계적 확장과 안정적 운영 역량이 중요해졌다"며 "향후 한국 내 추가 데이터센터 부지 확보도 검토 중"이라고 말했다. 끝으로 "AI 시대 데이터센터는 단순히 전력을 공급하는 시설이 아니라, 고밀도 워크로드를 안정적으로 처리하면서도 지속가능성을 함께 달성해야 한다"며 "재생에너지 확대와 냉각 혁신을 바탕으로 한국에서도 장기적으로 경쟁력 있는 데이터센터 플랫폼을 구축해 나가겠다"고 강조했다.

2026.01.22 16:33한정호 기자

[종합] 삼성SDS, 오픈AI 동맹·5천억 투자 '총공세'…기업용 AI 선점 박차

삼성SDS가 새해 인공지능 전환(AX) 사업에 강력한 드라이브를 건다. 사내 AI 역량을 결집한 'AX 센터'를 신설해 업무를 대신 수행하는 '에이전틱 AI(Agentic AI)' 시대를 열고 오픈AI(OpenAI)와 파트너십을 통해 기업용 AI 시장 선점에 박차를 가한다. 이를 뒷받침하기 위해 2029년까지 데이터센터 투자를 2배로 늘리고, 2026년에만 설비투자(CAPEX)에 5천억원을 투입하는 등 인프라 확장에도 속도를 낸다. 단순 IT 서비스를 넘어 서비스와 인프라를 아우르는 'AI 토털 솔루션 기업'으로 거듭나겠다는 비전이다. 22일 삼성SDS 실적발표 컨퍼런스콜에 따르면 2025년 연간 매출액은 13조 9천299억원, 영업이익은 9천571억원으로 집계됐다. 4분기 기준으로는 매출 3조 5천368억원, 영업이익 2천261억원을 기록했다. 클라우드가 이끈 IT서비스, '체질 개선' 완성 지난해 실적에서 눈에 띈 분야는 IT서비스 부문이었다. 클라우드 사업이 폭발적으로 성장하며 전통적인 시스템 구축(SI)을 넘어 주력 수익원으로 자리 잡았다. IT서비스 부문 연간 매출은 6조 5천435억원을 기록했다. 이 중 클라우드 매출은 2조 6천802억원으로 전년 대비 15.4% 성장했다. 전체 IT서비스 매출에서 클라우드가 차지하는 비중은 역대 최대인 41%까지 확대됐다. 세부적으로는 클라우드 서비스 사업(CSP), 클라우드 관리 서비스(MSP), 서비스형 소프트웨어(SaaS) 등 전 영역이 고른 성장을 보였다. 생성형 AI 확산에 따라 공공 및 금융 업종에서 고성능 컴퓨팅(HPC) 사용량이 급증하며 CSP 매출을 견인했고 금융권 클라우드 전환 프로젝트와 '브리티 웍스' 등 기업용 솔루션 도입이 늘면서 MSP와 SaaS 매출도 탄탄한 흐름을 이어갔다. 반면 전통적인 SI 사업은 고부가가치 프로젝트 위주로 재편하며 내실을 다졌다. 클라우드서비스사업부장인 이호준 부사장은 "목표치인 30% 수준에 미치지 못한 15% 수준이지만 이는 경기 침체와 일회성 요인에 의해 일부 감소가 있었다"며 "이달부터 동탄 데이터센터가 전체 가동을 시작했고 구미 AI 데이터센터와 국가 AI 컴퓨팅 센터 프로젝트가 시작되면서 AI 인프라 경쟁력을 확보한 만큼 오는 3~ 4분기에는 성장률이 많이 좋아질 것"이라고 말했다. 물류 부문은 글로벌 경기 둔화와 해상 운임 하락이라는 악재 속에서도 '디지털 물류' 경쟁력을 앞세워 실적 방어에 성공했다. 물류 부문 연간 매출은 7조 3,864억원으로 전년 대비 0.5% 소폭 감소했다. 해상 및 항공 운임 하락세로 운송 매출 자체는 줄었으나, 연말 성수기 물동량 증가와 내륙 운송 및 창고 물류 수요가 회복되면서 매출 감소 폭을 최소화했다. 특히 디지털 물류 플랫폼 '첼로 스퀘어(Cello Square)' 약진이 두드러졌다. 첼로 스퀘어 4분기 매출은 3,307억원으로 전년 동기 대비 8.0%, 전 분기 대비로는 27%나 성장하며 가파른 상승세를 보였다. 가입 고객사 역시 2만 4,600여 곳을 돌파하며 전년 대비 27% 증가했다. 삼성SDS는 향후 AI 기반 데이터 분석을 통해 고객에게 최적의 운송 경로를 제안하는 등 고부가가치 물류 서비스를 강화해 수익성을 높일 계획이다. AX센터 신설…오픈AI와 맞손, 기업 시장 선점 나서 삼성SDS는 올해를 '기업형 AI'가 실험실을 벗어나 실제 업무 현장에 안착하는 원년으로 선언했다. 이를 위해 전사 AI 역량을 결집한 컨트롤타워 'AX 센터'도 공식 출범했다. AX 센터는 기존 생성형 AI가 수행하던 단순 질의응답 수준을 넘어, 스스로 판단하고 계획하여 업무까지 완결하는 '에이전틱 AI'를 차세대 핵심 전략으로 제시했다. 이를 실현하기 위해 ▲기술이 아닌 '업무(Use Case)' 중심 적용 ▲단순 자동화를 넘어선 '실행(Action)' 중심 에이전트 구현 ▲데이터 유출 걱정 없는 '기업 맞춤형 보안 플랫폼' 제공 등 3대 실행 전략을 추진한다. 글로벌 빅테크와 동맹 전선도 구체화했다. 삼성SDS는 오픈AI와 전략적 협업을 공식화하며, 국내 최초로 기업용 서비스인 '챗GPT 엔터프라이즈(ChatGPT Enterprise)' 리셀러 파트너십을 체결했다고 밝혔다. 초대 AX센터장을 맡은 김종필 부사장은 "오픈AI 등 글로벌 선도 기업과 전략적 협업을 통해 최고 수준 AI 모델을 확보하고, 이를 기업 맞춤형 보안 체계와 결합해 내재화할 것"이라며 "단순 질의응답을 넘어 AI가 스스로 판단하고 계획하여 업무를 완결하는 '에이전틱 AI' 시대를 열겠다"고 강조했다. AI 데이터센터 규모 2배 확장… 설비투자 5천억원 수준으로 확대 폭발적으로 증가하는 AI 클라우드 수요를 선점하기 위한 대규모 인프라 투자 로드맵도 구체화됐다. 이호준 부사장은 "2029년까지 데이터센터(IDC) 직접 투자를 현재 보유 규모 최소 2배 수준으로 확대할 계획"이라고 밝혔다. 이는 단순한 물리적 확장을 넘어, 고성능 컴퓨팅(HPC) 수요에 대응하는 AI 전용 인프라로 체질 개선을 의미한다. 이를 위해 삼성SDS는 ▲구미 신규 데이터센터(60MW 규모) 건립 ▲ 국가 AI 컴퓨팅 센터 구축 사업을 핵심 거점으로 삼아 AI 인프라 사업을 공격적으로 확장한다. 국가 AI 컴퓨팅 센터는 지난 11월 기술 심사를 통과했다. 이에 따라 삼성SDS는 2026년 설비투자 규모를 약 5천억원 수준으로 대폭 확대할 전망이다. 여기에는 AI 연산 핵심인 엔비디아(NVIDIA) 차세대 GPU 'B300' 도입 비용과 이연된 서버 투자 비용 등이 포함된다. 회사 측은 최신 GPU 도입을 통해 공공 및 금융권 초거대 AI 수요에 대응하는 '전용 클라우드 서비스(Dedicated SCP)' 경쟁력을 극대화한다는 전략이다. 아울러 30년간 축적된 데이터센터 설계·구축·운영 노하우를 상품화한 데이터센터 위탁 운영(DBO) 사업에도 본격 진출한다. 삼성SDS는 이미 DBO 전담 조직을 신설했으며, 자체 데이터센터뿐만 아니라 대외 고객사 데이터센터를 기획 단계부터 운영까지 전담하는 새로운 수익 모델을 창출하겠다는 청사진을 제시했다. 배당금 10% 상향, 주주환원 강화…IT서비스 4~6% 성장 목표 삼성SDS는 견조한 실적을 바탕으로 주주 가치 제고에도 적극 나섰다. 2025년 결산 배당금은 주당 3190원으로 전년(2,900원) 대비 약 10% 인상되었다. 이에 따른 배당 성향은 32.5%를 기록하며 전년 대비 2.9%p 상승했다. 전략마케팅실장 이정헌 부사장은 "수출 가치 제고와 주주 이익 환원을 위해 배당금을 증액했다"고 설명하며 향후에도 특별 배당이나 자사주 매입·소각 등 주주 가치와 기업 가치를 동시에 높일 수 있는 다양한 환원 정책을 다각도로 검토하겠다는 의지를 내비쳤다. 삼성SDS는 경기 회복에 따른 IT 투자 재개와 클라우드 고성장에 힘입어 IT서비스 부문에서 4~6% 수준 성장을 달성하겠다고 밝혔다. 특히 지난해 경기 침체로 이연되었던 프로젝트들이 재개되고 생성형 AI 도입이 본격화되는 하반기로 갈수록 실적 개선폭이 커질 것으로 내다봤다. 이정헌 부사장은 "글로벌 불확실성이 여전하지만, 생성형 AI 도입과 클라우드 전환은 이제 기업 생존을 위한 필수 투자"라고 강조했다. 이어 "금융권 핵심 계정계 고도화, 공공 부문 범정부 AI 플랫폼 구축, 제조 현장 AI 기반 운영 효율화 등 핵심 업종에서 축적한 디지털 전환 역량을 앞세워 대외 사업 성장을 주도하겠다"고 밝혔다.

2026.01.22 16:32남혁우 기자

정부 주도 'AI 고속도로' 본격 확장…NIPA, 올해 SW·인프라에 방점

정보통신산업진흥원(NIPA)이 올해 국가 인공지능(AI) 경쟁력 강화를 위해 정부 주도 첨단 AI 컴퓨팅 인프라 확충과 국산 AI 반도체 산업 역량 확보에 박차를 가한다. NIPA는 21일 서울 양재 엘타워에서 '2026년도 통합 사업설명회'를 열고 소프트웨어(SW)·AI 인프라·글로벌 진출을 포함한 주요 지원사업 추진 방향을 공개했다. NIPA는 최근 AI 전환(AX)이 본격화되는 가운데 인프라 확충, SW 생태계 강화, 글로벌 시장 진출을 함께 추진한다는 전략을 제시했다. 특히 AI 산업 경쟁 핵심 요소로 컴퓨팅 자원 확보가 부각됨에 따라 AI 컴퓨팅 인프라 확충과 활용 지원을 강화하고 국가AI컴퓨팅센터 운영·관리 지원과 소형 데이터센터·서비스 활성화까지 연계하는 방안을 추진한다. 우선 AI 인프라 분야에서는 AI 고속도로 운영을 본격화하는 동시에 이를 확장해 산업 현장 수요에 대응한다는 방침이다. NIPA는 고성능컴퓨팅 지원 사업을 통해 기업과 연구기관의 고성능 연산 수요를 뒷받침하고 AI 바우처 지원과 함께 올해 신규 사업으로 'AX 원스톱 바우처 지원'도 추진할 예정이다. AI 인프라 확충과 관련해서는 첨단 AI 반도체 서버 확충 및 통합 운영환경 구축 사업을 신규로 진행한다. 또 산·학·연 대상 첨단 AI 반도체 활용지원 사업도 새롭게 포함해 국산 AI 반도체 활용 기반을 넓힐 계획이다. 데이터센터 분야 역시 핵심 지원 축으로 반영됐다. NIPA는 올해 신규 사업으로 소형 데이터센터 기반 AI 산업 성장 지원을 추진하고 지속가능한 데이터센터 산업발전 지원 사업을 통해 산업 기반 확산과 안정적 운영 환경 조성에 나선다. SW 부문에서는 오픈소스를 핵심 축으로 삼아 산업 경쟁력을 강화한다는 목표다. NIPA는 오픈소스 AI·SW 개발·활용 지원 사업을 통해 AI 및 SW 개발 생태계를 확대하는 한편 신산업 분야 오픈소스 사업화 지원도 추진해 기술의 상용화 연결을 뒷받침한다. 또 기업의 SW 활용 기반을 높이기 위한 지원 과제들도 포함됐다. 서비스형 소프트웨어(SaaS) 개발·사업화 지원을 통해 SaaS 전문기업 육성을 추진하고 중소기업 등 클라우드서비스 보급확산 사업을 통해 기업들의 클라우드 전환과 서비스 도입을 지원할 계획이다. 글로벌 분야에서는 AICT 산업의 해외시장 선점을 위한 지원을 확대한다. NIPA는 글로벌 신시장 개척을 통해 AICT 수출을 확대하고 해외 진출 역량을 내재화하겠다는 방향을 제시했다. 이를 위한 주요 사업으로 ICT 비즈니스 파트너십, 글로벌 ICT 미래유니콘 육성, 디지털 혁신기업 글로벌 성장 바우처 지원 등을 내세웠다. 아울러 DNA 대중소 파트너십 동반진출, SW 신산업 글로벌 레퍼런스 확대지원, 글로벌 SaaS 마켓플레이스 지원 등도 추진해 국내 SW·AI 기업의 해외 레퍼런스 확보와 수출 확대를 지원할 예정이다. NIPA 측은 "정부 주도 첨단 AI 컴퓨팅 인프라 확충을 통해 대규모 AI 컴퓨팅 자원을 확보하고 국산 AI 반도체의 대규모 실증 인프라 확충과 판로개척을 추진하겠다"며 "글로벌 신시장 개척을 통해 AICT 수출을 확대하고 해외진출 역량 내재화도 지원하겠다"고 밝혔다.

2026.01.21 14:01한정호 기자

[단독] 최태원 SK 회장, 다음달 방미…하이닉스에 '협업' 주문

최태원 SK그룹 회장이 다음달 2월 중 미국을 방문한다. 작년 10월 중순께 AI 인프라 구축 프로젝트 '스타게이트(Stargate)'를 이끌고 있는 손정의 소프트뱅크 회장의 초청으로 미국을 방문한지 3개월여만이다. 최 회장은 미국 출장을 앞두고 SK하이닉스에 '의미 있는 협업 아이템을 발굴하라'는 지시를 내린 것으로 알려져 그 배경과 행보에도 관심이 쏠린다. 20일 복수의 관계자에 따르면 그룹 내에서 최 회장의 미국 방문 일정이 정해진 이후, 하이닉스를 중심으로 방미 관련 아젠다를 검토하는 작업이 진행되고 있다. 다만 현재까지 구체적으로 확정된 딜이나 협력 사안은 파악되지 않은 상황으로 전해진다. 업계 한 관계자는 "최 회장의 방미 자체는 이미 정해진 일정이지만, 이를 계기로 공개할 만한 '의미 있는 협업'을 만들라는 요구가 내부에 내려온 것으로 안다"고 말했다. 최 회장은 지난해 10월에도 미국을 찾아 '스타게이트' 프로젝트와 관련한 일정을 소화한 바 있다. 당시 미국 현지에서 글로벌 빅테크 기업들과 접촉하며 AI 인프라와 반도체, 데이터센터 생태계 전반을 둘러싼 협력 가능성을 점검한 것으로 전해졌다. 업계에서는 해당 방미 역시 단기 성과보다는 중장기 협력 구도를 염두에 둔 행보였다는 평가가 나왔다. 업계 안팎에서는 이번 최 회장의 방미 기간 중 글로벌 빅테크 기업들과의 미팅 가능성이 거론되고 있다. 아마존웹서비스(AWS), 마이크로소프트(MS) 등과의 만남이 이뤄질 수 있다는 관측이지만, 이 역시 구체적인 협업 발표로 이어질지는 아직 불투명하다. 또 다른 관계자는 “사전에 충분히 준비된 대형 딜이 있다기보다는, 협력 관계 점검과 시장 가능성 탐색 성격에 가까울 수 있다”고 봤다. 이번 방미에서 현지 AI 데이터센터 사업과 관련된 내용이 나올 지도 주목된다. SK그룹은 그룹 차원에서 글로벌 AI 데이터센터 시장에 큰 관심을 기울이고 있다. AI와 반도체, 클라우드 수요 확대와 맞물려 데이터센터 인프라 산업 전반이 그룹 차원의 주요 공략 대상으로 부상한 만큼, 관련 생태계와의 접점 확대나 협력 논의가 이뤄질 수 있다는 관측이다. 반도체 분야와 관련해 SK하이닉스는 고대역폭메모리(HBM)를 중심으로 AI 반도체 시장에서 존재감을 키우고 있지만, 일부 차세대 기술은 아직 개발 및 검증 단계에 있어 이번 방미에서 새로운 형태의 협력 구도가 제기될 수 있을지 관심사다. 업계 관계자는 “이번 미국 방문은 단기 성과를 내기보다는, 글로벌 파트너들과의 접점을 점검하고 중장기 협력 가능성을 모색하는 성격이 강할 것”이라며 “시장에 강한 메시지를 주는 발표보다는, 향후 행보를 위한 사전 정지 작업에 가깝게 볼 필요가 있다”고 말했다. 한편 SK그룹 관계자는 "사안에 관련해서 언급하기 어렵다"고 밝혔다.

2026.01.21 09:46전화평 기자

인텔, 퀄컴 '아드레노' GPU 설계 주역 에릭 데머스 영입

인텔이 데이터센터·서버용 GPU 전략 타개를 위해 AMD-퀄컴 출신 GPU 전문가 에릭 데머스(Eric Demers)를 영입했다. 에릭 데머스 수석부사장은 2012년부터 최근까지 퀄컴에서 수석부사장(SVP)으로 재직하며 퀄컴 스냅드래곤 시리즈에 내장되는 모바일용 GPU인 '아드레노(Adreno)'에 깊게 관여한 전문가다. 2020년 이후 AI GPU 시장에서 고전중인 인텔은 조직 개편과 로드맵 수정에도 불구하고 데이터센터용 AI GPU 시장에서 존재감을 회복하지 못했다. GPU 아키텍처 설계와 조직 운영 역량을 갖춘 전문가를 통해 기술적 방향성과 실행력을 동시에 강화하겠다는 의도로 보인다. 에릭 데머스, 작년 11월 퀄컴 행사에 등장 에릭 데머스는 2000년대 초반부터 ATI(AMD에 피인수), AMD 등을 거치며 그래픽관련 하드웨어와 소프트웨어 설계를 도맡은 전문가다. 가장 최근까지 몸담은 곳은 퀄컴으로 2012년 3월부터 지난 주까지 수석부사장(SVP)으로 재직했다. 에릭 데머스는 지난 해 11월 퀄컴이 미국 캘리포니아 주 샌디에이고에서 진행한 기술 행사 '스냅드래곤 X 엘리트 딥 다이브' 행사에서 스냅드래곤 X2 엘리트/익스트림 내장 GPU에 대해 설명하기도 했다. 그는 당시 "14년 전에 퀄컴에 합류해서 3세대 아드레노 GPU를 처음 만들었고 아드레노 X2는 퀄컴이 지금까지 만든 GPU 중 가장 크고 빠른 제품"이라고 강조하기도 했다. "이번 주부터 인텔서 수석부사장으로 근무" 16일(이하 현지시간) 미국 CRN에 따르면, 에릭 데머스는 이번 주부터 인텔에서 수석부사장으로 AI 처리 성능에 중점을 두고 GPU 엔지니어링 조직을 이끌 예정이다. 에릭 데머스 수석부사장은 자신의 링크드인 계정을 통해 "지난 몇 달간 립부 탄 인텔 CEO와 조직 내 몇몇 수장을 만났고 2025년 동안 일어났던 여러 사건 이후에도 CEO에 대한 확신과 긍정적인 전망에 깊은 인상을 받았다"고 설명했다. 이어 "새로운 인텔에서 일하고 지속적인 전환 과정에 참여할 수 있다는 점에서 기대감이 크다. 당분간 원격근무 예정이지만 다친 어깨가 낫는 대로 여러 팀을 방문할 것"이라고 덧붙였다. 인텔, 최근 수 년간 AI GPU 가속기 분야서 고전 인텔의 AI GPU 가속기 전략은 제품과 조직 모두 현재 매우 불안정한 상태다. 2022년 5월 처음 개발 계획을 밝혔던 '팰콘 쇼어'는 CPU와 GPU, 메모리를 자유롭게 조합할 수 있는 제품으로 출발했다. 그러나 이는 GPU만 조합한 제품으로 퇴보했고 지난 해 2월에는 이마저도 출시를 포기했다. 인텔 로드맵대로라면 올해는 서버용 GPU '재규어 쇼어'를 출시 예정이지만 시제품이나 구체적인 제원 중 어느 것도 드러나지 않았다. 지난 해 10월에는 추론 특화 GPU '크레센트 아일랜드'(Crescent Island)를 공개하고 올해 안에 시제품 공급을 선언했지만 이 역시 불투명하다. 에릭 데머스 구심점으로 AI·GPU 전략 재정비 전망 립부 탄 CEO는 지난 해 3월 취임 이후 데이터센터와 묶여 있던 AI 부문을 독립 조직으로 분리하고 사친 카티를 최고 기술 및 AI 책임자(CTO)로 선임하기도 했다. 그러나 사친 카티는 지난 해 11월 오픈AI로 이적했다. 인텔은 에릭 데머스 영입을 통해 엔비디아와 AMD 대비 뒤처진 AI GPU 가속기 전략과 로드맵 등 재정비에 나설 것으로 보인다. GPU가 수행할 수 있는 여러 분야 중 AI에 중점을 뒀다는 면에서 특히 그렇다. 시장조사업체 무어인사이트 소속 안셸 색 수석 분석가는 "에릭 데머스의 이적은 사람들의 생각보다 큰 의미가 있다. 그는 임원인 동시에 GPU 구조를 백지 상태부터 시작해 완전히 만들 수 있는 수준의 아키텍트"라고 평가했다. 인텔, 과거에도 엔비디아·AMD 등 경쟁사 임원 영입 인텔은 에릭 데머스 이전에도 AMD와 엔비디아 등 GPU 경쟁사의 임원들을 다수 영입했다. 가장 대표적인 인물은 애플과 AMD를 거쳐 2017년 11월 인텔로 이적했던 라자 코두리다. 그는 노트북부터 서버까지 커버할 수 있는 그래픽 구조인 Xe 아키텍처를 개발하고 2022년 1월 가속 컴퓨팅 시스템·그래픽 그룹(AXG) 수장까지 올랐다. 라자 코두리는 2023년 초 인텔을 떠난 후 비슷한 커리어 경로를 거친 짐 켈러가 이끄는 RISC-V(리스크파이브) 기반 팹리스인 텐스토렌트 이사회에 이름을 올렸다. 2019년 엔비디아에서 인텔로 이적한 톰 피터슨 그래픽 및 소프트웨어 아키텍처 부문 펠로우는 인텔이 주최하는 여러 행사에서 GPU 관련 기술적인 해설에 꾸준히 나서고 있다.

2026.01.19 16:42권봉석 기자

오케스트로, '탈VM웨어' 성과 7배↑…가상화 매출 100억원 돌파

오케스트로가 국내 가상화 시장에서 VM웨어 윈백 주도권 선점에 박차를 가한다. 오케스트로는 지난해 수행한 VM웨어 윈백 사례가 전년 대비 약 7배 증가했다고 16일 밝혔다. 브로드컴이 VM웨어 인수 이후 외산 가상화 솔루션들의 라이선스 정책 변경과 가격 인상이 이어지면서 최근 공공기관과 기업을 중심으로 '탈VM웨어' 전환 수요가 본격화되고 있다. 이 가운데 오케스트로는 서버 가상화 솔루션 '콘트라베이스'를 앞세워 국내 가상화 시장에서 윈백 사례를 빠르게 확대 중이다. 이같은 시장 흐름은 매출 성과로도 이어졌다. 지난해 콘트라베이스 매출 중 윈백 매출이 최초로 100억원을 돌파했다. 이는 VM웨어로 고착돼 있던 시장 판도 변화를 상징하는 성과라는 게 회사 측 설명이다. 특히 탈VM웨어 수요가 본격화된 2023년 이후 2년 만에 윈백 레퍼런스는 약 20배, 수주 금액은 약 24배 증가하는 등 성장세를 보이며 콘트라베이스를 중심으로 한 VM웨어 윈백 시장 주도권 선점에 속도를 내고 있다. 성과 요인으로는 오케스트로의 마이그레이션 전문 솔루션 '콘트라베이스 레가토 마이그레이터'가 꼽힌다.레가토는 지속 데이터 보호(CDP) 기반 연속 복제를 통해 초단위 컷 오버 기능을 구현하며 VM웨어 환경에서도 서비스 중단 없이 대규모 워크로드를 안정적으로 이전할 수 있도록 지원한다. 오케스트로는 실제 고객 환경에서 기술 검증과 전환 시뮬레이션을 수행하며 복잡한 시스템과 까다로운 마이그레이션 조건으로 전환을 주저하던 고객에게 전환 안정성과 기술력을 입증해 왔다. 그 결과 검토 단계에 머물던 논의들이 실제 도입으로 이어지고 있다. 이러한 흐름은 공공과 민간 전반의 실제 전환 사례를 통해 확인되고 있다. 오케스트로는 미션 크리티컬한 행정서비스를 제공하는 공공뿐만 아니라, 제조·통신·전자·금융 등 국내 주요 대기업 VM웨어 환경을 콘트라베이스로 전환해왔다. 최근에는 VM웨어 의존도가 높은 일본 시장에서도 단기간에 고객사를 확보하며 글로벌 시장 성과를 내고 있다. 오케스트로는 2018년 창립 이후 외산 가상화 솔루션이 주도하던 국내 시장에서 독자 기술력을 바탕으로 입지를 넓혀왔다. 특히 대규모 데이터센터 환경에서 미션 크리티컬 시스템을 안정적으로 전환·운영할 수 있는 역량을 갖췄다. 아울러 인공지능(AI) 인프라 분야에서도 사업 영역을 확장하고 있다. 지난해 콘트라베이스가 포함된 소버린 AI 클라우드 솔루션 패키지를 일본 AI 데이터센터에 수출하며 그래픽처리장치(GPU) 가상화 기반 대규모언어모델(LLM) 환경을 구현했다. 이를 바탕으로 하드웨어가 결합된 소버린 AI 클라우드 데이터센터 사업도 단계적으로 확대해 나갈 계획이다. 김범재 오케스트로 대표는 "VM웨어 환경에서의 전환은 단순한 시스템 교체가 아니라, 핵심 시스템의 안정성과 서비스 연속성을 동시에 충족해야 하는 고난도 과제"라며 "국내 가상화 시장을 선도하는 기업으로서 그동안 축적한 윈백 경험을 바탕으로 올해도 윈백 사업 중심 시장 확대에 속도를 낼 것"이라고 말했다.

2026.01.16 14:17한정호 기자

TSMC, 올해 설비투자 전년比 25% 이상 확대...AI 붐 장기화 기대감↑

세계 최대 파운드리(반도체 위탁생산) 업체인 대만 TSMC(대만반도체제조)가 AI 반도체 수요 장기화에 대한 강한 자신감을 드러내며 올해 대규모 설비투자 계획과 고성장 전망을 제시했다. TSMC는 현지시간 15일 지난해 4분기 및 연간 실적 발표에서 올해 자본적지출(CAPEX) 규모를 520억~560억달러(약 76조5천388억원~82조3천536억원)로 제시했다. 이는 지난해 대비 최소 25% 이상 늘어난 수준이다. 시장에서는 당초 TSMC가 480억~500억달러 수준의 투자를 집행할 것으로 예상했다. 이번 가이던스가 공격적인 투자 계획으로 평가되는 이유다. 이 같은 투자 확대는 글로벌 빅테크 기업들의 데이터센터 투자 지속성에 대한 우려를 일부 완화하는 신호로도 해석된다. AI 반도체 수요의 바로미터로 꼽히는 TSMC가 설비투자와 함께 매출 성장 전망까지 동시에 상향 제시했기 때문이다. TSMC는 올해 매출이 약 30% 가까이 성장할 것으로 내다봤다. 이는 애널리스트들의 평균 예상치를 웃도는 수준으로, AI 가속기와 고성능컴퓨팅(HPC)용 칩 수요가 예상보다 빠르게 확대되고 있다는 판단이 반영됐다. C.C. 웨이 TSMC 최고경영자(CEO)는 실적 발표 자리에서 “인공지능은 현실이며, 이제 막 시작되고 있다”며 “우리는 이를 하나의 'AI 메가 트렌드'로 보고 있다”고 강조했다. 실적 역시 이러한 자신감을 뒷받침했다. TSMC는 지난해 4분기 순이익으로 5057억대만달러(약 160억달러)를 기록해 시장 예상치를 웃돌았다. 앞서 발표한 매출을 포함해 TSMC는 2025년 연간 매출 1천억달러(약 147조원)를 처음으로 돌파했다. AI 인프라 투자 확대는 TSMC의 고성장을 이끌고 있다. 글로벌 빅테크를 중심으로 1조달러를 웃도는 AI 데이터센터 투자 계획이 추진되면서, 첨단 공정과 대량 생산 능력을 동시에 갖춘 TSMC의 역할은 더욱 커지고 있다. 회사는 최근 2년간 연평균 30% 이상의 매출 성장률을 기록했다. 이번 설비투자는 AI 반도체 생산에 필요한 첨단 공정 확대와 차세대 미세공정 개발, 글로벌 생산기지 구축에 집중될 전망이다. 특히 AI 데이터센터용 칩 수요 증가에 대응하기 위한 생산능력 확충이 핵심이다. 한편 TSMC는 글로벌 생산망 확대에도 속도를 낸다. 미국에 최대 1650억달러를 투자하는 계획을 포함해 일본과 독일에서도 생산 거점을 구축하고 있다. 회사는 이와 동시에 대만에서는 초미세 공정 기술 개발에 역량을 집중해 기술 경쟁력을 유지한다는 전략이다.

2026.01.15 16:43전화평 기자

퓨리오사AI, 망고부스트와 맞손...AI 데이터센터 공략 가속화

AI 반도체 기업 퓨리오사AI와 망고부스트가 차세대 AI 데이터센터 시장 공략을 위해 손을 잡았다. 퓨리오사AI는 망고부스트와 차세대 AI 인프라 기술 공동 개발을 위한 업무협약(MOU)을 체결했다고 15일 밝혔다. 양사는 이번 협약을 통해 인공지능 및 데이터센터 인프라 분야에서 상호 협력 체계를 구축하고, 기술 교류를 통해 데이터센터 시장에서의 경쟁력을 강화한다는 방침이다. 전 세계 기업들이 본격적으로 인공지능 인프라 구축을 통한 인공지능 전환(AX)에 나서고 있는 가운데 GPU의 높은 전력소비는 인공지능의 빠른 확산에 병목으로 작용하고 있다. 이에 실제 인공지능 서비스 환경이 요구하는 성능을 높은 효율로 구현할 수 있는 반도체 솔루션에 대한 시장 수요가 나날이 폭증하고 있다. 고효율 반도체는 인프라 전성비를 개선시킬 뿐 아니라 냉각 설비, 부지 선정 등 제약요건을 완화시키는 만큼 인프라 구축 시점을 단축시키고 인공지능 전환을 가속화한다. 퓨리오사AI는 AI 연산에 특화된 독자적인 칩 아키텍처 텐서 축약 프로세서(TCP)와 소프트웨어 스택 기술을 보유중이며, HBM을 탑재한 2세대 칩 RNGD(레니게이드) 양산을 이달 말 앞두고 있다. 망고부스트는 고성능 네트워킹에 특화된 DPU(데이터처리장치)및 AI 시스템 성능 최적화 기술을 보유 중이며, 이달 초 400GbE 급 성능을 가진 BoostX DPU 제품군의 양산을 시작했다. 세계적으로 기술력을 인정받은 딥테크 기업간의 협력이라는 점에서 세계적으로 대두되고 있는 인공지능 병목을 해소할 수 있을지 결과가 주목된다. 백준호 퓨리오사AI 대표는 “차세대 AI 데이터센터의 경쟁력은 고성능 AI 반도체와 네트워킹 칩을 얼마나 긴밀하고 효율적으로 결합하느냐에 달려 있다"며 "퓨리오사AI는 망고부스트와의 협력을 통해 대한민국 AI 인프라 기술의 새로운 가능성을 보여주겠다”라고 말했다. 김장우 망고부스트 대표는 “이번 협약은 대한민국을 대표하는 AI 반도체 스타트업 간의 전략적 결합이라는 점에서 의미가 크다”며 “양사의 혁신 기술을 결합해 효율적이고 지속가능한 차세대 데이터센터의 표준을 제시하겠다”고 밝혔다.

2026.01.15 10:19전화평 기자

MS "AI 데이터센터 전기료, 소비자에 전가 안 한다"…지역사회 우선 내세워

인공지능(AI) 데이터센터 확산으로 '전기 먹는 하마' 논란이 거세지는 가운데, 마이크로소프트(MS)가 전력 비용을 소비자에게 전가하지 않겠다는 지역사회 우선 운영 원칙을 내걸며 여론 달래기에 나섰다. 데이터센터 전력 수요가 가정용 전기요금 인상으로 이어질 수 있다는 우려가 커지자, 빅테크가 비용을 직접 부담해야 한다는 압박이 본격화되는 분위기다. 14일 월스트리트저널(WSJ)에 따르면 MS는 미국 내 자사 AI 데이터센터가 사용하는 전력 비용이 일반 소비자 요금으로 넘어가지 않도록 전력회사와 공공위원회에 충분히 높은 요금 책정을 요구하겠다고 밝혔다. MS는 데이터센터 전력 비용이 지역 전기요금 인상으로 이어진다는 반발을 의식해 기업용 요금 체계 개편을 통해 주민 부담을 원천 차단하겠다는 입장이다. 브래드 스미스 MS 사장은 미국 위스콘신주가 초대형 전력 소비 기업에 높은 비용을 청구하는 새로운 요금체계를 마련한 점을 벤치마킹 모델로 제시하며 다른 주에서도 유사 정책이 도입될 수 있도록 추진하겠다고 설명했다. 전력 이슈뿐 아니라 환경 부담 완화도 함께 꺼냈다. 데이터센터 냉각 과정에서 쓰이는 물 사용량을 최소화하고 취수량보다 더 많은 물을 지역사회에 보충하겠다는 약속이다. 이와 함께 지역 일자리 창출, 지방세 인하 요구 중단, AI 교육 및 비영리단체 지원 강화 등도 공약으로 내걸었다. 이번 조치는 데이터센터 확산이 미국 내 정치·사회적 쟁점으로 부상한 흐름과 맞물려 있다. 지난 1년간 미국 내에서는 데이터센터에 대한 지역 반발이 거세진 상황이다. 데이터센터는 생성형 AI 모델을 학습·운영하는 핵심 인프라지만, 막대한 전력 소비로 전력망 부담과 요금 상승 우려를 키우는 시설로 평가된다. 이 때문에 미국 곳곳에서 데이터센터 건립 반대 움직임이 확산되고 있으며 일부 프로젝트는 지역 반발로 지연되거나 중단되는 사례도 이어지고 있다. 도널드 트럼프 미국 대통령도 빅테크의 비용 부담 필요성을 전면에 내세우고 있다. 트럼프 대통령은 SNS를 통해 MS의 전기료 부담 방침을 "미국인이 전력 소비 부담을 떠안지 않도록 하는 조치"라고 평가하며 다른 기업을 향해서도 유사한 대응을 예고했다. 업계 전반으로도 전력 비용과 지역사회 부담을 완화하려는 흐름이 확산하는 모습이다. 앞서 메타는 원전기업들과 대규모 전력 공급 계약을 발표하며 데이터센터 에너지 비용을 전액 부담해 소비자 부담을 줄이겠다는 취지의 입장을 밝힌 바 있다. 브래드 스미스 MS 사장은 "데이터센터가 소모하는 전력 비용을 충당할 수 있을 정도로 높은 요금을 전력 업체와 이를 승인하는 공공위원회가 책정할 수 있도록 요청하겠다"고 강조했다.

2026.01.14 15:37한정호 기자

SK하이닉스, AI 추론 병목 줄이는 '커스텀 HBM' 정조준

SK하이닉스가 향후 다가올 커스텀 HBM(고대역폭메모리) 시대를 위한 무기로 '스트림DQ(StreamDQ)'를 꺼내 들었다. 기존 GPU가 담당해 추론 과정에서 병목 현상을 일으키던 작업을, HBM이 자체적으로 수행해 데이터 처리 성능을 끌어올리는 것이 골자다. GPU 업체 입장에서도 HBM으로 일부 기능을 이전할 수 있기 때문에 칩 설계를 보다 유연하게 할 수 있다는 이점이 있다. SK하이닉스는 해당 기술을 통해 엔비디아 등 주요 고객사와 협의를 진행할 것으로 관측된다. SK하이닉스는 지난 6일(현지시간) 미국 라스베이거스 베니션 호텔에서 'CES 2026' 프라이빗 전시관을 마련하고 커스텀 HBM 기술을 공개했다. 커스텀 HBM 시장 정조준…고객사에 '스트림DQ' 기술 제안 커스텀 HBM은 차세대 버전인 HBM4E(7세대 HBM)부터 본격적으로 적용될 것으로 전망되는 제품이다. 기존 HBM이 표준에 따라 제작됐다면, 커스텀 HBM은 고객사가 원하는 기능을 베이스 다이에 추가하는 것이 가장 큰 차별점이다. 베이스 다이는 HBM을 적층한 코어 다이의 메모리 컨트롤러 기능을 담당하는 칩으로, HBM과 GPU 등의 시스템반도체를 PHY(물리계층)로 연결한다. 기존에는 메모리 회사가 이를 제조했으나, 다양한 로직 기능이 추가되면서 HBM4부터는 주로 파운드리 공정을 통해 양산된다. SK하이닉스는 커스텀 HBM 상용화를 위해 고객사에 스트림DQ라는 기술을 제안하고 있다. 얼마전 막을 내린 CES 2026 전시관이 고객사 대상으로 운영된 만큼, 엔비디아 등 글로벌 빅테크에 적극적인 프로모션을 진행했을 것으로 예상된다. SK하이닉스 관계자는 "스트림DQ는 커스텀 HBM의 한 사례로서, SK하이닉스는 해당 기술을 논문으로도 냈다"며 "고객사가 커스텀 HBM 관련 기술을 우리에게 제안하기도 하지만, 반대로 SK하이닉스가 제시하기도 한다"고 설명했다. GPU 일부 기능 HBM으로 이전…빅테크 부담 덜어준다 스트림DQ 기술은 기존 GPU 내부의 컨트롤러 기능 일부를 HBM의 베이스 다이로 이전하는 것이 주 골자다. 이렇게 되면 GPU 제조사는 칩 내부 공간을 더 넓게 쓸 수 있어, 시스템반도체의 성능 및 효율성 향상을 도모할 수 있다. SK하이닉스 입장에서는 베이스 다이에 GPU 컨트롤러 등을 추가하더라도 큰 부담이 없다. 대만 주요 파운드리인 TSMC의 선단 공정을 적용하기 때문이다. 또한 SK하이닉스는 해당 베이스 다이에 UCIe 인터페이스를 적용해 칩의 집적도를 더 높였다. UCIe는 칩을 기능별 단위로 분할해 제조한 후, 서로 연결하는 최첨단 기술이다. HBM이 '역양자화' 대신 처리…LLM 처리 속도 7배 향상 가능 AI 가속기의 데이터 처리 성능 역시 획기적으로 높아진다. 대규모언어모델(LLM)은 메모리 사용량을 효율적으로 감축하기 위해 낮은 비트 정수로 데이터를 압축하는 '양자화(Quantization)' 과정을 거친다. 이후 실제 연산 과정에서는 데이터를 다시 압축 해제하는 '역양자화(Dequantization)'를 진행한다. 기존 역양자화 작업은 GPU가 담당했다. 그런데 GPU가 역양자화를 진행하면 전체 LLM 추론 시간의 최대 80%를 잡아먹는 메모리 병목 현상을 일으키는 문제가 발생해 왔다. 반면 스트림DQ는 양자화된 정보를 그대로 GPU에 보내는 것이 아니라, HBM 내부에서 데이터가 흘러가는 과정에서 역양자화를 곧바로(on-the-fly) 진행한다. 덕분에 GPU는 별도의 작업 없이 곧바로 연산 작업을 진행할 수 있게 된다. 이처럼 흘러가는(스트림) 데이터를 곧바로 역양자화(DQ)한다는 관점에서 스트림DQ라는 이름이 붙었다. 이를 통해 병목 현상이 발생했던 LLM 추론 처리 속도가 약 7배 이상으로 개선될 수 있다는 게 SK하이닉스의 설명이다. 전체 AI 가속기의 추론 속도 역시 크게 향상될 것으로 기대된다. SK하이닉스 관계자는 "방대한 양의 데이터를 처리하는 시스템반도체를 메모리 근처에 가져다 놓고 데이터 결과값만 받게 하면 시스템적으로 굉장히 효율적"이라며 "프로세싱 니어 메모리(PNM)의 개념으로 볼 수 있다"고 말했다.

2026.01.14 13:48장경윤 기자

HPE "AI 네이티브 전환 확산…인프라 경쟁력 기준 달라진다"

인공지능(AI)이 데이터센터와 네트워킹 인프라의 설계·운영 방식 전반을 재편하면서 향후 인프라 경쟁력 기준 역시 근본적으로 달라질 것이란 전망이 나왔다. AI를 중심으로 한 자동화·자율화 흐름이 본격화되며 데이터센터는 물론 네트워크 운영과 인력 역할까지 구조적 전환이 불가피하다는 분석이다. 13일 HPE가 발표한 올해 데이터센터 및 네트워킹 인프라 분야 주요 전망에 따르면 데이터센터와 네트워킹 인프라는 올해를 기점으로 AI 네이티브 구조로 빠르게 전환될 것으로 전망된다. 워크로드 배치, 장애 예측, 성능 최적화는 물론 에너지 효율 관리와 전력 비용 협상까지 AI가 지원하는 폐쇄형 루프 운영 모델이 확산되며 수동 개입 중심 기존 운영 방식은 점차 한계를 드러낼 것으로 예상된다. 특히 데이터센터 영역에서는 엣지와 AI 결합이 가속화되면서 마이크로 하이퍼스케일러가 새로운 인프라 모델로 부상할 것으로 전망했다. 고속 이더넷과 AI 추론 가속기, 자율 운영 기술을 기반으로 한 소규모 데이터센터가 지역 단위에서 중앙 클라우드 워크로드를 분산 처리하며 엣지는 단순한 보조 인프라를 넘어 전략적 수익 창출 거점으로 역할이 확대될 것으로 분석했다. 네트워크 구조 역시 AI 학습과 추론에 최적화된 방향으로 재편될 것으로 보인다. HPE는 올해 이후 데이터센터 설계 출발점이 컴퓨트가 아닌 네트워크 패브릭이 될 것으로 내다봤다. 조 단위 파라미터 모델 확산과 함께 개방형 고성능 이더넷 기반 AI 패브릭 수요가 증가하면서 네트워크는 애플리케이션을 인지하고 실시간으로 적응하는 지능형 구조로 진화할 것이란 전망이다. 이더넷 자율화도 주요 변화로 꼽혔다. AI 텔레메트리를 내장한 스위치 ASIC을 통해 혼잡 제어와 전력 효율 최적화가 자동으로 이뤄지고 의도 기반 네트워킹은 패브릭 스스로 학습·예측·교정하는 형태로 구현될 것이란 설명이다. 이에 따라 복잡한 CLI 중심의 네트워크 운영 방식은 점차 사라질 것으로 예상했다. 보안 역시 네트워크 패브릭의 기본 요소로 내재화될 것으로 전망했다. 모든 패킷과 포트, 프로세스에 신뢰 점수를 부여하고 분산형 AI 엔진이 이를 실시간 검증하는 구조가 확산되면서 제로 트러스트 데이터센터가 기본 설계 기준으로 자리 잡을 것이란 분석이다. 무선 네트워크 분야에서는 AI 운영관리(Ops)가 핵심 운영 요소로 부상할 것으로 보인다. HPE는 복잡해진 무선 환경에서 AI 기반 운영 없이는 안정적인 네트워크 품질 유지가 어려워질 것으로 내다봤다. AI가 혼잡을 예측하고 RF 동작과 채널 구성을 자동 최적화하면서 기존 수동 튜닝 중심 운영 방식은 점차 사라질 것이란 설명이다. HPE는 에이전틱 AI를 기반으로 한 LAN의 역할 변화도 주목했다. LAN은 단순히 장애를 복구하는 수준을 넘어 사용자 경험을 사전에 예측하고 선제적으로 최적화하는 경험 엔진으로 진화한다는 전망이다. 스위치와 액세스 포인트에 내장된 AI 에이전트가 사용자 행동과 서비스 수요를 분석해 성능 저하를 체감하기 전에 문제를 해결하는 구조가 확산될 것으로 분석했다. 이와 함께 유선·무선·WAN을 넘어 컴퓨트와 스토리지를 아우르는 풀스택 통합 운영이 기본값으로 자리 잡을 것이라고 밝혔다. 기업들은 단일 운영 프레임워크와 공통 AI 거버넌스 하에서 전체 인프라를 관리할 수 있는 환경을 요구하게 되며 경쟁력 기준도 개별 제품 성능이 아닌 통합된 시스템 완성도로 이동할 것이란 전망이다. 인력 측면에서도 변화가 예상된다. HPE는 네트워크 엔지니어 역할이 단순 설정·운영 중심에서 AI 코파일럿과 협업하는 전략적 역할로 진화할 것으로 내다봤다. 생성형 AI가 1차 운영과 장애 대응을 담당하면서 엔지니어는 대규모 자동화를 설계·검증하고 AI를 오케스트레이션하는 역할에 집중하게 될 것이란 설명이다. HPE는 "올해 데이터센터와 네트워킹 인프라는 개별 기술의 집합이 아닌, AI를 중심으로 단일 유기체처럼 동작하는 구조로 진화할 것"이라며 "성공적인 기업은 풀스택 인프라를 단일한 경험으로 제공할 수 있는 전략을 선택하게 될 것"이라고 강조했다.

2026.01.13 15:14한정호 기자

"AI 확산에 데이터센터 투자, 2030년까지 3조 달러 몰린다"

인공지능(AI)과 클라우드 확산으로 글로벌 데이터센터 산업에 향후 수년간 천문학적인 자금이 투입될 전망이다. 서버와 전산 장비는 물론 데이터센터 시설, 전력 인프라까지 대규모 투자가 불가피하다는 분석이 나왔다. 13일 신용평가기관 무디스에 따르면 전 세계 데이터센터 관련 투자 규모는 2030년까지 최소 3조 달러(약 4천411조원)에 이를 것으로 예상된다. 무디스는 최근 보고서를 통해 AI와 클라우드 컴퓨팅 수요 확대를 뒷받침하기 위해 서버, 컴퓨팅 장비, 데이터센터 시설, 신규 전력 설비 전반에 걸쳐 막대한 자본 투입이 필요하다고 밝혔다. 투자 자금 상당 부분은 빅테크 기업들이 직접 부담할 것으로 전망된다. 무디스는 마이크로소프트(MS)·아마존·알파벳·오라클·메타·코어위브 등 미국 내 6개 하이퍼스케일러가 올해 데이터센터 투자에만 약 5천억 달러(약 735조원)를 집행할 것으로 내다봤다. 데이터센터 용량 확장이 지속되는 가운데 이를 운영하기 위한 전력 수요 역시 빠르게 증가하고 있다는 설명이다. 자금 조달 측면에서는 은행권의 역할이 여전히 핵심을 차지하는 한편, 대규모 자본 수요에 대응해 기관투자가들의 참여도 확대될 것으로 분석됐다. 향후 은행과 함께 다른 기관투자가들이 공동으로 금융을 제공하는 사례가 늘어날 것이라는 전망이다. 또 무디스는 미국 내 데이터센터들이 차환 시점에 자산유동화증권(ABS), 상업용 부동산담보부증권(CMBS), 프라이빗 크레딧 시장을 보다 적극적으로 활용할 가능성이 높다고 봤다. 올해 기록적인 자금 발행 이후 신규 금융 규모와 집중도가 더 커질 것으로 예상됐다. 실제 미국 ABS 시장에서는 지난해 약 150억 달러(약 22조원)가 발행된 만큼, 데이터센터 건설 대출을 중심으로 올해 발행 규모가 크게 증가할 것으로 전망했다. AI 확산을 뒷받침하기 위해 필요한 막대한 부채 규모를 두고 일각에서는 거품 우려도 제기되고 있다. 일부 기술이 기대에 못 미칠 경우 주식 및 신용 투자자들에게 부정적인 영향을 미칠 수 있다는 지적이다. 다만 무디스는 신규 데이터센터 건설 수요가 둔화될 조짐은 보이지 않는다고 평가했다. 무디스는 데이터센터 증설 경쟁이 아직 초기 단계에 있으며 향후 12~18개월 동안 글로벌 시장에서 성장세가 이어질 것으로 내다봤다. 장기적으로는 향후 10년 내 필요한 용량을 확보하기 위한 투자가 지속될 것이라는 분석이다. 무디스 존 메디나 수석 부사장은 "불과 3년 전만 해도 존재하지 않았던 챗GPT와 같은 서비스가 이제는 막대한 연산 자원을 사용하고 있다"며 "신기술 등장 속도가 빨라 향후 채택 속도를 정확히 예측하기는 어렵지만, 데이터센터 용량 증설은 결국 필요해질 것"이라고 말했다.

2026.01.13 11:20한정호 기자

암참, 블룸에너지와 SOFC 전력 기술 보급 확대 협력

인공지능(AI) 데이터센터 확산으로 고품질·안정적 전력 수요가 커지는 가운데, 주한미국상공회의소(암참)과 블룸에너지가 분산형 전력 해법 도입을 위한 협력에 나섰다. 암참은 12일 미국 글로벌 청정에너지 기술 기업 블룸에너지와 '지속가능한 산업 인프라 조성 및 스마트 전력 솔루션 확대'를 위한 양해각서(MOU)를 체결했다고 13일 밝혔다. 여의도 IFC 더포럼에서 열린 본 협약식에는 양측 주요 관계자들을 비롯해 주한미국대사관 애런 뱅크스 한국 투자 및 방문 (KIT) 전담 데스크 조정관이 참석해, 이번 파트너십이 한·미 에너지 협력관계에서 갖는 전략적 중요성을 강조했다. 이번 MOU는 대한민국 차세대 AI 데이터센터에 최적화된 고품질·지속가능 전력 솔루션의 도입을 촉진하는 데 목적이 있다. 암참과 블룸에너지는 고체산화물 연료전지(SOFC) 기반 분산형 전력 시스템을 국내 보급에 협력해 나갈 예정이다. 암참은 이 기술이 높은 효율과 신뢰성, 저탄소 특성을 바탕으로 한국의 탄소중립 달성, 에너지 안보 강화, 지속가능한 산업 생태계 구축에 실질적인 기여를 할 것이라고 기대했다. 제임스 김 암참 회장 겸 대표는 “블룸에너지가 암참의 '바이 아메리카' 캠페인 공식 파트너로 함께 하게 된 것을 매우 뜻깊게 생각한다”며 “산업 현장에 최적화된 블룸에너지의 청정에너지 솔루션은 한국의 지속가능한 성장뿐 아니라, 한국이 세계 3대 AI 강국으로 도약하는 데 핵심인 에너지 안보 확보에도 중요한 역할을 할 것”이라고 말했다. 이어 “암참은 한미 양국 간 가교 역할을 통해 혁신과 회복력, 지속가능한 번영이 조화를 이루는 비즈니스 환경 조성에 앞장서고 있다”며, “이번 협약은 한·미 전략적 협력관계를 한층 강화하고, 보다 지속가능한 미래로 나아가는 데 있어 중요한 이정표가 될 것”이라고 덧붙였다. 최준 블룸에너지코리아 대표는 “이번 암참과의 협약은 AI데이터센터 등 차세대 산업 인프라에 필요한 고품질∙안정적 전력을 보다 효과적으로 공급하기 위한 중요한 출발점이자, 한∙미 양국 간 에너지 협력이 강화되고 있음을 보여주는 의미 있는 사례”라고 말했다. 이어 “AI 경쟁력의 핵심은 GPU 이후의 전력 인프라이며, 안정적인 전력 없이는 AI산업의 성장도 불가능하다”며 “글로벌 데이터센터에서 이미 검증된 블룸에너지의 SOFC 기술은 한국이 AI 강국으로 도약하는 과정에서 전환점이 되는 전력 해법이 될 수 있을 것”이라고 말했다. 블룸에너지는 미국 캘리포니아 산호세에 본사를 둔 글로벌 청정에너지 기술기업으로, 독자적인 고체산화물 연료전지(SOFC) 기술을 기반으로 한 고효율·저탄소 분산형 전력 시스템을 제공하고 있다. 이를 통해 산업 및 상업용 고객이 탈탄소화 목표를 달성하는 동시에 에너지 안정성과 고효율의 운영까지 확보할 수 있도록 지원한다. 이번 협약은 암참이 추진 중인 '바이 아메리카' 캠페인 여섯 번째 전략적 파트너십이다. 암참은 올해도 캠페인을 지속적으로 확대해 나가며, 기술, 무역, 지속가능성 분야에서 한미 양국의 핵심 이해관계자들과 협력을 강화하고 양국 경제의 공동 번영에 기여하는 플랫폼으로서의 역할을 이어갈 예정이다.

2026.01.13 09:20류은주 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

AI·반도체가 가리키는 전력 해답 ‘원전’ 국내외 급부상

놀면 뭐 하니...설날 전용 알바 기획전 '봇물'

[2026 주목! 보안기업] 로그프레소 "통합보안 수요 폭발...3월 신제품 출시"

고 구본무 회장 뚝심 'R&D 결실'…LG엔솔, 30년 발자취 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.