• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'마이크로 데이터센터'통합검색 결과 입니다. (10건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

데이터센터 밖으로 확장된 AI…서버 업계, '엣지 AI' 경쟁 가속

인공지능(AI) 인프라의 중심이 데이터센터에서 현장으로 이동하고 있다. 생성형 AI 확산으로 대규모 모델 학습뿐 아니라 실시간 추론 수요가 빠르게 증가하면서 제조 현장, 매장, 통신 기지국 등 데이터가 생성되는 장소에서 바로 AI를 활용하는 '엣지 AI'가 차세대 인프라로 떠오르고 있다. 5일 업계에 따르면 글로벌 서버 기업들은 데이터센터 중심의 기존 AI 인프라 전략을 넘어 제조·리테일·통신·로봇 등 산업 현장에서 AI 연산을 처리하는 엣지 인프라 구축 경쟁에 속도를 내고 있다. 특히 델 테크놀로지스, HPE, 슈퍼마이크로 등 주요 서버 기업들이 엣지 환경에서 AI 추론을 수행할 수 있는 특화 서버와 네트워크 솔루션을 잇달아 선보이며 시장 공략에 나서고 있다. 엣지 AI는 데이터를 중앙 데이터센터로 보내 처리하는 대신 데이터가 생성되는 현장에서 즉시 분석과 의사결정을 수행하는 방식이다. 실시간 처리가 필요한 산업에서 지연 시간을 줄이고 네트워크 비용을 낮출 수 있다는 점에서 스마트팩토리·리테일·자율주행·로봇 등 다양한 산업에서 활용 가능성이 주목받고 있다 포춘비즈니스인사이트 등 주요 시장조사업체에 따르면 글로벌 엣지 AI 시장 규모는 2024년 약 200억 달러(약 29조원) 수준에서 2030년 1천억 달러(약 146조원)로 연평균 20% 이상 성장할 전망이다. 서버 기업들은 이같은 흐름에 맞춰 엣지 환경에 최적화된 AI 인프라를 잇따라 내놓고 있다. 델 테크놀로지스는 최근 실외 환경에서도 AI 워크로드를 처리할 수 있는 서버 '파워엣지 XR9700'을 공개하며 엣지 AI 시장 공략을 강화했다. 해당 서버는 전신주나 옥상 등 외부 환경에서도 설치할 수 있도록 설계됐으며 통신 기지국과 원격지에서 클라우드 무선 접속망(RAN)과 엣지 AI 애플리케이션을 직접 실행할 수 있도록 지원한다. HPE 역시 엣지 인프라 전략을 강화하고 있다. MWC26에서 'HPE 프로라이언트 컴퓨트 EL9000 섀시'와 'EL140 젠12 서버' 기반 AI 인프라를 공개하며 코어 데이터센터부터 통신 기지국 등 엣지 환경까지 AI 워크로드를 처리하는 플랫폼을 제시했다. 해당 솔루션은 통신사와 서비스 사업자가 증가하는 AI 트래픽을 처리하고 엣지 환경에서 AI 서비스를 제공할 수 있도록 설계된 것이 특징이다. 슈퍼마이크로도 통신 네트워크와 결합한 엣지 AI 인프라 확대에 나섰다. 회사는 AI-RAN을 지원하는 서버 시스템을 공개하고 노키아·SK텔레콤 등 글로벌 통신사와 협력해 통신망에서 AI 워크로드를 처리하는 분산형 인프라 활용 사례를 선보였다. 이 시스템은 그래픽처리장치(GPU) 기반 AI 서버를 활용해 엣지 AI를 위한 네트워크 최적화와 자동화를 지원한다. 글로벌 네트워크 기업들도 엣지 AI 경쟁에 뛰어들고 있다. 시스코는 분산형 AI 환경을 지원하기 위한 '유니파이드 엣지' 플랫폼을 공개하며 컴퓨팅·네트워킹·스토리지·보안을 하나의 인프라로 통합했다. 데이터가 생성되는 지점에서 실시간 AI 추론을 수행하는 분산형 AI 환경을 구현한다는 전략이다. 클라우드 기업 역시 AI 추론을 엣지로 확장하는 움직임을 보이고 있다. 대표적으로 아카마이는 엔비디아 AI 인프라를 기반으로 한 '인퍼런스 클라우드'를 공개하며 데이터센터에서 인터넷 엣지까지 AI 추론을 확장하는 분산형 AI 플랫폼 구축에 나서고 있다. 스마트 커머스와 실시간 금융 의사결정, 산업용 로봇 등 다양한 AI 서비스에 대응한다는 계획이다. 업계에선 엣지 AI가 향후 피지컬 AI 확산을 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 공장 자동화와 자율주행, 로봇 등 물리 세계와 연결된 AI 서비스는 밀리초 단위의 실시간 데이터 처리 능력이 요구되기 때문이다. 이에 기존 데이터센터 중심 AI 인프라와 함께 산업 현장과 초고속 네트워크 환경에 맞춤화된 분산형 엣지 AI 인프라 역시 성장할 것이라는 전망이 나온다. 데이터센터 업계 관계자는 "AI 산업이 모델 학습 중심에서 실제 서비스와 산업 적용 단계로 넘어가면서 데이터가 생성되는 현장에서 AI를 처리하는 엣지 인프라가 주목받고 있다"며 "향후 스마트팩토리와 로봇, 자율주행 등 피지컬 AI 확산과 함께 엣지 AI 서버 시장도 성장할 것"이라고 말했다.

2026.03.05 14:12한정호 기자

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호 기자

슈퍼마이크로, 'AMD MI355X' 탑재 공냉식 서버 출시…AI 포트폴리오 확대

슈퍼마이크로가 AMD의 그래픽처리장치(GPU)를 탑재한 차세대 서버 제품군을 선보이며 인공지능(AI) 워크로드 성능 강화 포트폴리오를 확대한다. 슈퍼마이크로는 'AMD 인스팅트 MI355X' GPU 탑재 10U 공냉식 서버를 출시했다고 20일 밝혔다. 이번 솔루션은 AMD 인스팅트 MI355X GPU의 고성능을 공냉식 냉각 환경에서 구현하려는 기업을 위해 설계됐으며 우수한 성능·확장성·전력 효율성을 제공한다. 슈퍼마이크로 빅 말얄라 테크놀로지·AI부문 수석부사장은 "우리의 데이터센터 빌딩 블록 솔루션(DCBBS)은 검증된 서비스를 시장에 공급하는 과정에서 AMD 솔루션과 같은 최첨단 기술을 신속하게 통합할 수 있도록 한다"고 강조했다. 이어 "새로운 AMD 인스팅트 MI355X GPU 공냉식 솔루션 추가로 우리 AI 제품군을 확장·강화하며 고객들의 차세대 데이터센터 구축에 다양한 선택지를 제공할 수 있게 됐다"고 덧붙였다. 슈퍼마이크로는 이번 10U 공냉식 서버 출시를 통해 수냉식 및 공냉식 기반 고성능 제품군을 확장했다. 해당 솔루션은 업계 표준 OCP 가속기 모듈(OAM)을 활용해 GPU당 288GB의 HBM3e 메모리와 8TB/s 대역폭을 제공한다. 또 TDP가 1천 와트(W)에서 1천400W로 증가함에 따라 기존 8U MI350X 공냉식 시스템 대비 최대 두 자릿수의 성능 향상이 이뤄져 데이터를 빠르게 처리할 수 있다. 이번 제품군 확장으로 슈퍼마이크로 고객은 공냉식과 수냉식 인프라 모두에서 랙당 성능을 효율적으로 확장할 수 있다는 설명이다. 특히 이번 GPU 솔루션은 클라우드 서비스 제공 업체와 엔터프라이즈 환경 전반에서 대규모 AI 및 추론 워크로드에 최대 성능을 제공하도록 설계됐다. AMD 트래비스 카 데이터센터 GPU 사업부문 비즈니스 개발 담당 부사장은 "슈퍼마이크로와 협력해 공냉식 AMD 인스팅트 MI355X GPU를 시장에 선보여 고객들은 기존 인프라에서도 고급 AI 성능을 보다 쉽게 도입할 수 있게 됐다"며 "양사는 성능과 효율성 분야의 선두주자로서 전 세계 데이터센터의 혁신을 가속화하는 차세대 AI 및 고성능컴퓨팅(HPC) 솔루션을 제공하고 있다"고 말했다.

2025.11.20 17:19한정호 기자

김명진 대표 "3년 내 재상장 도전"…정부사업 기반 AI 데이터센터 사업 박차

이노그리드가 정부 주도 연구개발(R&D) 사업을 기반으로 인공지능(AI) 기반 데이터센터 서비스 상용화를 추진한다. 3년 내 기술 상용화, 5년 내 매출 반영이라는 구체적 목표도 제시했다. 또 지난해 무산됐던 기업공개(IPO)도 3년내 진행할 것이라는 계획도 공개했다. 김명진 이노그리드 대표는 12일 서울 강남구 그랜드 인터컨티넨탈 파르나스에서 열린 'IC3 2025'에서 과학기술정보통신부의 '국산 AI 반도체 기반 마이크로 데이터센터 확산 연구개발(R&D) 사업' 주관사로 선정됐다고 밝혔다. 이번 사업은 5년간 총 70억원 규모로 국산 AI 반도체(NPU)와 연계된 표준형 데이터센터 구조를 구축하는 것을 목표로 한다. AI 반도체를 중심으로 초소형 데이터센터(MDC)를 전국적으로 확산시키고, 이를 논리적으로 통합해 하나의 대규모 데이터센터처럼 운영하는 기술 개발을 포함한다. 이노그리드는 주관기관으로서 AI 워크로드 특성에 따라 CPU, GPU, NPU 등의 연산 자원을 자동 분석·분배하는 소프트웨어를 개발하고 이를 통해 분산된 데이터센터를 실시간으로 연결하고 무중단 서비스를 구현할 예정이다. 특히 3종의 NPU를 지원하는 관리 소프트웨어 개발이 핵심 과제로, 이는 사업 종료 시점까지 반드시 달성해야 하는 정부 목표다. 김 대표는 "이번 과제를 통해 클라우드 중심의 기존 사업 구조를 넘어 AI 기반 데이터센터 솔루션 기업으로 전환하겠다"며 "AI 워크로드 최적화, 하이브리드 클라우드 연동, 보안 관리까지 포함한 차세대 데이터센터 플랫폼을 완성하겠다"고 말했다. 이어 "3년 내 상용화가 가능한 수준의 핵심 소프트웨어를 확보하고 5년 내 매출 구조로 연결하겠다"고 덧붙였다. 이번 과제는 이노그리드가 IC3 2025 현장에서 선언한 클라우드 데이터센터 매니지먼트 기업으로의 전환을 보여주는 핵심 사례가 될 전망이다. 김 대표는 "국내에서는 아직 이같은 AI 워크로드 기반의 데이터센터 운영기술이 상용화된 사례가 없다"며 "이번 사업을 통해 독자적인 소프트웨어 원천기술을 확보하고, 이를 민간 및 공공 데이터센터에 확대 적용할 것"이라고 말했다. 이어 "국내 데이터센터 시장은 빠르게 성장하고 있으나 여전히 하드웨어 중심의 구조에 머물러 있다"며 "이번 과제를 통해 소프트웨어 중심의 전환을 이끌겠다"고 강조했다. 이노그리드는 현재 정부 연구개발 사업을 중심으로 원천기술 확보에 집중하고 있다. 김 대표는 "지난 8년간 약 300억원의 정부 R&D 자금을 확보해 제품 상용화로 이어왔다"며 "외부 투자를 최소화하고 기술 중심의 기업 성장을 지향해왔다"고 설명했다. 이번 마이크로 데이터센터 과제 역시 이러한 R&D 중심 성장 전략의 연장선이다. 그는 "이번 과제가 끝나면 마이크로 데이터센터 관리용 소프트웨어 'MDC-IT(가칭)'을 제품화할 계획"이라며 "하드웨어 제조기업과의 컨소시엄을 통해 AI 데이터센터 표준화와 기술 검증을 병행하겠다"고 밝혔다. 또한 이노그리드는 이번 사업을 계기로 그룹 차원의 데이터센터 통합관제 역량 강화에도 나선다. 김 대표는 "에티버스 그룹과 협력해 내년 상반기까지 통합 관제센터 '제로스퀘어센터'를 '제로버스(가칭)'로 고도화할 것"이라며 "클라우드 관제에 더해 보안·인프라·데이터센터까지 통합 관리하는 형태로 발전시킬 계획"이라고 말했다. 이어 "내년 3월부터는 GPU 매니지 서비스 사업자(MSP) 사업을 본격화해 GPU 클라우드·보안·관제 등 AI 인프라 서비스를 확장하겠다"고 덧붙였다. SDT와 협력해 '하이브리드 양자 클라우드' 사업도 준비 중이다. GPU와 양자 기술을 결합한 양자 하이브리드 클라우드 MSP 모델을 구축하고 이를 통해 장기적으로 AI·양자 융합 데이터센터 기술을 확보할 계획이다. 김 대표는 "이노그리드는 국내에 아직 많지 않은 클라우드 영역을 선도하는 클라우드 기업"이라며 "AI와 양자 컴퓨팅이 결합된 차세대 인프라 기술로 글로벌 경쟁력을 확보하겠다"고 말했다. 한편 이노그리드는 정부 과제 외에도 상장을 포함한 기업 성장 전략을 병행 추진한다. 김 대표는 "이노그리드는 IPO 재추진을 준비 중이며 거래소 상장 심사 절차를 다시 밟고 있다"며 "다만 IPO는 단기 목표가 아니라 회사의 기술력과 시장 신뢰를 객관적으로 증명하기 위한 과정로 약 3년 내 재상장을 목표로 준비하고 있다"고 덧붙였다.

2025.11.12 15:46남혁우 기자

마이크로칩, 업계 최초 3나노 공정 PCIe Gen 6 스위치 출시

마이크로칩테크놀로지는 차세대 스위치텍(Switchtec) Gen 6 PCIe 스위치 제품군을 출시한다고 14일 밝혔다. 스위치텍 Gen 6 제품군은 업계 최초로 3나노미터(3nm) 공정으로 제조된 PCIe Gen 6 스위치로, 전력 소비를 줄이고 고밀도 AI 시스템 연결을 위해 최대 160레인을 지원하도록 설계됐다. 또한 하드웨어 루트 오브 트러스트와 보안 부팅 등 고급 보안 기능을 포함하며, CNSA 2.0(상업용 국가보안알고리즘)을 준수하는 포스트 퀀텀 안전(Post-Quantum Safe) 암호 기술을 채택해 강화된 보안을 제공한다. 이전 세대의 PCIe 기술은 CPU, GPU, 메모리, 스토리지 간 데이터 전송에서 대역폭 병목 현상을 일으켜 데이터의 활용도가 떨어지고 불필요한 연산 사이클이 발생하는 문제를 초래했다. 새로운 PCIe 6.0 표준은 PCIe 5.0 대비 두 배인 레인당 64GT/s의 대역폭을 제공해, 가장 강력한 AI 액셀러레이터(AI Accelerator)에 안정적으로 데이터를 공급할 수 있는 필수 데이터 파이프라인을 제공한다. 스위치텍 Gen 6 PCle 스위치는 CPU, GPU, SoC, AI 액셀러레이터, 스토리지 간의 고속 연결을 구현하며, 데이터센터 설계자들이 차세대 AI 및 클라우드 인프라의 잠재력을 최대한 활용할 수 있도록 지원한다. 브라이언 멕카슨 마이크로칩 데이터센터 솔루션 사업부 부사장은 “AI 시대의 급속한 혁신은 데이터센터 아키텍처가 기존의 전통적 설계에서 벗어나, 컴퓨팅 자원을 공유하는 풀 기반 아키텍처로 전환하도록 이끌고 있다”고 말하며 “마이크로칩은 검증된 스위치텍 제품 라인을 PCIe 6.0으로 확장함으로써 주요 컴퓨팅 리소스 간의 직접적 통신이 용이해지도록 변화를 지원하고 있으며, 지금까지 생산한 것 중 전례 없는 가장 강력하고 에너지 효율적인 스위치를 제공하게 됐다”고 말했다. 스위치텍 Gen 6 스위치는 고성능 인터커넥트로서 서버 랙에서 GPU 간 간단하고 직접적인 연결을 가능케 해 신호 손실을 최소화하고 AI 패브릭이 요구하는 낮은 지연시간을 유지하는데 중요하다. PCIe 6.0 표준은 플로우 컨트롤 유닛(FLIT) 모드, 경량 순방향 오류 수정(FEC) 시스템, 동적 자원 할당 기능을 새롭게 도입해 특히 AI 워크로드에서 흔한 소규모 패킷의 데이터 전송의 효율성과 안정성을 대폭 향상시켰다. 그 결과 전체 처리량은 증가하고, 실효 지연은 감소한다. 스위치텍 Gen 6 PCIe 스위치는 20개의 포트와 10개의 스택을 갖추고 있으며, 각 포트는 핫플러그 및 서프라이즈 플러그 컨트롤러를 내장하고 있다. 또한 멀티 호스트 도메인을 연결하고 분리할 수 있는 논트랜스페어런트 브리징(NTB)과 단일 도메인 내 1:N 데이터 분배를 위한 멀티캐스트도 지원한다. 이 스위치는 고급 오류 격리 기능, 종합적인 진단 및 디버깅 기능, 다양한 I/O 인터페이스, 그리고 x8 및 x16 분기 옵션을 제공하는 통합 MIPS 프로세서로 설계되었다. 입출력 기준 클록은 각 스택별로 4개의 입력 클록을 사용하는 PCIe 스택 기반이다. 마이크로칩의 전체 PCIe 스위치 포트폴리오에 대한 자세한 내용은 웹사이트를 방문하면 확인할 수 있다.

2025.10.14 09:44장경윤 기자

엔비디아 독주에 균열?…슈퍼마이크로·AMD '맞손'에 AI 서버 판도 흔들

슈퍼마이크로가 AMD의 최신 그래픽 처리장치(GPU)를 탑재한 인공지능(AI) 전용 서버 라인업을 확대하며 차세대 데이터센터 수요 선점에 나섰다. 고성능·고효율을 앞세워 AI 학습 및 추론 환경에서의 총소유비용(TCO) 절감 수요를 겨냥한 전략으로 풀이된다. 슈퍼마이크로는 AMD 인스팅트 'MI350' 시리즈 GPU와 AMD 'EPYC 9005' 시리즈 컴퓨팅 처리장치(CPU)를 결합한 'H14' 세대 AI 서버 솔루션을 19일 발표했다. 해당 제품은 4세대 'CDNA' 아키텍처 기반으로, 수냉식·공냉식 냉각 방식을 모두 지원한다. 이번 신규 서버는 GPU당 288기가바이트 고대역폭 메모리(HBM3e)를 제공하며 시스템당 최대 2.3테라바이트 용량 구성을 지원한다. 이는 기존 제품 대비 약 1.5배 향상된 수치로, AI 추론과 학습 워크로드 전반에 걸쳐 대용량 데이터를 빠르게 처리할 수 있도록 설계됐다. 슈퍼마이크로는 4유닛(4U) 수냉식과 8유닛 공냉식 등 랙 규모별 옵션을 마련했다. 특히 직접 수냉식 냉각(DLC) 아키텍처를 적용한 4U 모델은 고집적도 환경에서 최대 40%까지 전력 소비를 절감할 수 있으며 랙당 성능 밀도도 극대화했다. 서버 설계는 업계 표준인 개방-폐쇄 원칙(OCP) 가속기 모듈(OAM)을 채택해 AMD GPU와의 호환성과 확장성을 확보했다. 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 체계를 통해 컨설팅부터 구축·운영까지 전 주기 지원이 가능하도록 구성됐다. 해당 제품군은 클라우드 서비스 제공자, 엔터프라이즈 고객 모두를 겨냥해 고도화된 인프라 수요를 수용할 수 있도록 설계됐다. AI 외에도 고성능 컴퓨팅(HPC), 클라우드, 과학 시뮬레이션 등 복합 워크로드 환경에도 대응 가능하다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "GPU 서버 라인업에 'MI350' 시리즈를 추가함으로써 고객이 차세대 AI 데이터센터를 설계하고 구축하는 데 더 많은 선택지를 가질 수 있게 됐다"고 밝혔다. 리사 수 AMD CEO는 "'MI350' 시리즈는 경쟁 제품 대비 달러당 처리량에서 최대 40% 높은 성능을 제공한다"며 "슈퍼마이크로와의 협업을 통해 완전 통합형 랙 솔루션을 구현할 수 있다"고 설명했다.

2025.06.19 13:06조이환 기자

슈퍼마이크로, 'DLC 2·신형 서버'로 컴퓨텍스 정조준…"AI·엣지·클라우드 전방위 공략"

슈퍼마이크로가 대만 최대의 IT 박람회를 앞두고 인공지능(AI) 인프라 주도권 강화를 노리고 차세대 서버 기술을 전면에 내세웠다. 자사 데이터센터 포트폴리오에 대한 시장 신뢰도를 높이고 고성능 컴퓨팅 수요층을 선점하려는 전략이다. 슈퍼마이크로는 16일 온라인으로 '컴퓨텍스 2025' 사전 기자간담회를 개최했다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)가 직접 기조연설을 맡았고 이후 미디어 Q&A 세션을 통해 질문에 실시간으로 답변했다. 간담회에서는 AI·ML, 클라우드, 스토리지, 엣지를 아우르는 차세대 데이터센터 서버를 중심으로 슈퍼마이크로의 기술 로드맵이 공개됐다. 직접액체냉각(DLC) 기술의 고도화와 업계 협업을 기반으로 한 고성능 컴퓨팅(HPC)용 토탈 솔루션이 핵심 발표 내용으로 포함됐다. 찰스 리앙 CEO "AIDC, 설계부터 운영까지…우리가 책임진다" 이날 실리콘밸리 본사에서 실시간으로 접속해 기조연설에 나선 찰스 리앙 슈퍼마이크로 CEO는 차세대 AI 데이터센터 설계의 해법으로 '데이터 센터 빌딩 블록(DC BBs)'과 '직접액체냉각(DLC)'을 제시했다. 기술 경쟁력을 앞세워 고성능·고효율·저비용이라는 세 마리 토끼를 잡겠다는 전략이다. 그는 "AI 데이터센터(AIDC)는 해마다 복잡성과 비용이 높아지고 있다"며 "우리 빌딩 블록은 이 복잡한 문제를 단순화하면서 고객 맞춤형 구성으로 설계부터 설치, 운영까지 전체 프로세스를 최적화할 수 있는 방식"이라고 설명했다. 리앙 CEO에 따르면 슈퍼마이크로는 더 이상 단순한 시스템 기업이 아니다. 오히려 서버 기반 스토리지, 사물인터넷, AI 인프라까지 아우르는 데이터센터 풀스택 인프라 기업으로 진화한 상황이다. 슈퍼마이크로가 이날 공개한 '데이터센터 빌딩블록'은 그래픽처리장치(GPU) 기반 서버를 랙 단위, 시스템 단위, 전력·스토리지·배터리 백업 등 전체 구성 요소와 함께 플러그앤플레이 방식으로 제공하는 토탈 솔루션이다. 설계, 설치, 배선, 소프트웨어까지 전방위 맞춤 구성이 가능해 데이터센터 구축 시간을 단축하고 비용 절감을 유도한다. 리앙 CEO는 "우리 빌딩 블록은 서버, 스토리지, 스위치, 냉각, 배터리, 네트워킹, 케이블링, 운영 소프트웨어, 현장 설계 및 구축까지 모든 것을 포함한다"며 "고객이 원하는 워크로드에 최적화된 구성으로 빠르게 설치해 운영할 수 있도록 설계돼 있다"고 강조했다. 기술적 강점 외에도 회사는 실제 상업화 경험이 있다는 강점이 있다. 지난해만 해도 경쟁사보다 6개월 빠르게 'H100 HGX GPU' 솔루션을 출하하고 DLC 서버 4천 대를 출하했다. 올해에는 'DLC 2'를 통해 다시 한 번 시장을 리드한다는 것이 리앙 CEO의 설명이다. 이번에 소개된 'DLC 2'는 기존 직접액체냉각 방식 대비 전기요금과 물 소비량을 최대 40% 절감할 수 있는 고도화된 냉각 솔루션이다. 소음도 50데시벨 수준으로 기존 대비 대폭 줄였다. 찰스 리앙 CEO는 "이전 DLC 서버는 소음이 약 73데시벨이었지만 'DLC 2'는 도서관 수준인 50데시벨로 낮췄다"며 "냉각수로 실온수를 사용해 냉각탑이나 냉각수 장비 없이도 운영 가능하다"고 강조했다. 이어 "총 데이터센터 비용의 20~30%까지 절감 효과가 있을 것"이라고 내다봤다. 제품별 로드맵도 구체적으로 제시됐다. 슈퍼마이크로는 현재까지 'B200', 'B300', 'GB200', 'GB300' 랙형 서버, AMD 기반의 'MI325X', 'MI350', 'MI355' DLC 시리즈 등 다양한 AI 서버와 DLC 시스템을 확보했다. 이들 중 상당수는 이미 출하됐거나 수주 준비를 마친 상태이며 일부 모델은 엔비디아 GPU 수급 상황에 따라 출하 일정이 결정될 예정이다. 리앙 CEO는 "슈퍼마이크로는 이미 DLC 기반 AI 서버 시장 점유율 80% 이상을 확보했다"며 "이번에 발표한 제품군 역시 두 달 전부터 출하를 시작해 수만 대 이상 공급되고 있다"고 말했다. 또 서버 외에도 스토리지, 고속 네트워크 스위치, 엣지 컴퓨팅, IoT 시스템 등도 함께 전시한다. 기존 90베이 스토리지부터 최신 400G 네트워크 스위치, 브레이드 서버, 트윈 솔루션 등 전체 제품군이 갖춰져 있다는 점을 강조했다. 그는 "우리는 GPU뿐 아니라 전체 인프라를 갖춘 기업"이라며 "시간을 단축하고 효율을 극대화할 수 있는 솔루션을 통해 고객의 비즈니스 성장을 함께 이루겠다"고 말했다. "DLC는 이미 준비 끝"…Q&A서 전략·공급망·시장전망 총정리 기조연설 직후 이어진 미디어 질의 세션에서 찰스 리앙 슈퍼마이크로 CEO는 차세대 데이터센터 인프라 전략, 기술 적용 현황, 시장 전망에 대해 구체적으로 입장을 밝혔다. 그는 각국 기자들의 질문에 직접 답하며 자사의 기술력과 대응 전략을 강조했다. 먼저 직접액체냉각(DLC) 기술의 보편화 가능성에 대한 질문이 나오자 리앙 CEO는 "DLC는 이미 시장에서 검증된 기술"이라며 "지난해에만 4천개 랙, 약 10만 개 시스템을 출하해 글로벌 DLC 시장의 80% 이상을 점유했다"고 말했다. 그는 "기술적으로는 이미 준비가 완료됐지만 고객들이 DLC 기반 데이터센터를 준비하는 데 시간이 걸리는 것이 현실"이라며 "직접 구축 부담을 줄일 수 있도록 데이터센터 빌딩블록 솔루션을 함께 제공하고 있다"고 설명했다. 기업 시장에서 AI 서버 수요를 어떻게 확대할 것이냐는 질문에는 하이퍼스케일 기업과 일반 엔터프라이즈 간 역량 차이를 언급했다. 리앙 CEO는 "하이퍼스케일러는 자체 설계와 구축 역량이 있지만 대부분의 기업 고객은 전문 인력이 부족하다"며 "우리 빌딩 블록은 이러한 엔터프라이즈 고객이 신속하고 효율적으로 데이터센터를 구축할 수 있도록 돕는다"고 밝혔다. 향후 AI 서버 및 범용 서버 시장의 성장 전망에 대해서는 낙관적 입장을 드러냈다. 슈퍼마이크로는 지난 3년간 매출이 4배 이상 증가했기 때문에 향후 3년간은 최소 3배에서 최대 5배까지 성장이 가능할 것이라는 설명이다. 이러한 성장을 견인할 요인으로 '빌딩 블록'과 'DLC 2'의 조합을 들었다. 리앙 CEO는 "우리는 기술적으로 앞서 있을 뿐 아니라 운영비 절감과 빠른 설치가 가능하다"며 "고객사의 도입 속도가 훨씬 빨라질 것"이라고 판단했다. 냉각 기술이 서버 구조 및 랙스케일 설계에 미치는 영향에 대해서도 언급했다. 리앙 CEO는 "원래는 'DLC 2'를 오는 2026~2027년에 출시하려 했지만 기술 성숙도가 기대 이상으로 빨라 올해 여름부터 시장에 공급하게 됐다"고 말했다. 글로벌 공급망 전략에 대한 질문도 나왔다. 리앙 CEO에 따르면 슈퍼마이크로는 미국 실리콘밸리 외에도 대만, 네덜란드, 말레이시아에 생산기지를 운영하고 있다. 말레이시아 캠퍼스는 이미 대량 생산이 가능하며 위탁생산(OEM) 및 대형 고객 대응까지 준비가 완료된 상태다. 실제로 미국에서는 월 5천개 랙 생산 능력을 갖췄고 이 중 2천개는 DLC 서버 전용이다. 말레이시아에서는 초기 월 800개 수준에서 시작했지만 수요에 따라 언제든 두세 배로 확장할 수 있다. 그는 "다양한 지역에 제조 거점을 두고 있어 관세 이슈나 공급망 리스크에도 유연하게 대응할 수 있다"며 "수요만 있다면 생산량은 언제든 두세 배로 늘릴 수 있다"고 말했다. GPU 전력 소비 증가에 따른 데이터센터 전략에 대해서는 DLC의 효율성을 다시 강조했다. DLC는 초기 설비 비용도 기존 대비 낮으며 운영비 절감 폭이 최대 30%까지 가능하다는 것으로, 고밀도 서버 운영이 필요한 환경일수록 효과가 보다 커진다는 입장이다. 또 AI 칩 아키텍처가 다양화되는 상황에서 어떻게 호환성과 성능 최적화를 동시에 달성하는지에 대해서도 답했다. 리앙 CEO는 "우리는 창립 초기부터 빌딩블록 구조를 채택해 다양한 구성과 워크로드에 최적화된 설계를 빠르게 제공할 수 있다"고 말했다. 액체냉각 방식과 공랭식이 공존하는 현 시점에서 어느 환경에 어떤 방식이 더 적합한지에 대해서도 견해를 밝혔다. DLC는 추가 비용 없이 구현이 가능하며 오히려 냉각 효율성과 에너지 절감을 고려하면 공랭식보다 경제적이라는 설명이다. 찰스 리앙 슈퍼마이크로 CEO는 행사를 마치며 "우리는 오는 '컴퓨텍스 2025' 행사에서 이 같은 전략 제품과 솔루션을 대거 선보일 예정"이라며 "현장에서 다시 만나기를 기대한다"고 말했다.

2025.05.16 16:20조이환 기자

"AI 연산 획기적 향상"…슈퍼마이크로, 엔비디아 블랙웰 울트라 플랫폼 기반 솔루션 공개

슈퍼마이크로가 인공지능(AI) 연산 성능을 향상할 수 있는 차세대 AI 솔루션을 선보인다. 슈퍼마이크로는 엔비디아 블랙웰 울트라 플랫폼을 탑재한 새로운 서버·랙제품군을 공개했다고 27일 밝혔다. 슈퍼마이크로의 새로운 AI 제품군은 엔비디아 'HGX B300 NVL16'와 'GB300 NVL72' 플랫폼을 탑재해 AI 추론, 에이전틱 AI, 비디오 추론 등 고성능 연산 AI 워크로드에서 높은 성능을 제공한다. 엔비디아 블랙웰 울트라 플랫폼은 GPU 메모리 용량과 네트워크 대역폭 제약으로 발생하는 병목현상을 해소하고 대규모 클러스터 환경에서 요구되는 AI 워크로드를 안정적으로 처리할 수 있도록 설계됐다. GPU당 288GB의 HBM3e 고대역폭 메모리가 탑재돼 초대규모 AI 모델의 학습·추론에서 향상된 AI 플롭스(FLOPS)를 구현한다. 또 네트워킹 플랫폼에 엔비디아 퀀텀-X800 인피니밴드와 스펙트럼-X 이더넷을 통합해 최대 800Gb/s의 컴퓨팅 패브릭 대역폭을 제공한다. 슈퍼마이크로와 엔비디아는 이번 공개한 차세대 AI 솔루션을 통해 AI 분야에서의 리더십을 더욱 공고히 한다는 목표다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "자사의 데이터센터 빌딩 블록 솔루션을 활용해 엔비디아 HGX B300 NVL16 GB300 NVL72의 열 관리 및 내부 토폴로지(topology)에 최적화된 새로운 공냉식·수냉식 냉각 시스템을 구현했다"며 "이 시스템은 수자원을 절약하면서 전력 소비도 최대 40%까지 줄여 엔터프라이즈 데이터센터의 환경적·운영적 측면에서 상당한 이점을 제공한다"고 설명했다. 이어 "자사는 엔비디아와 오랜 파트너십을 지속하며 엔비디아 블랙웰 울트라 플랫폼을 기반으로 한 최신 AI 기술을공개하게 돼 기쁘다"고 덧붙였다.

2025.03.27 12:05한정호

'인텔 지원군' 슈퍼마이크로, 고성능 '제온' 탑재한 서버로 시장 공략

인텔이 데이터센터 서버에 적용되는 칩 시장 내 입지 확대를 위해 적극 나서고 있는 가운데 슈퍼마이크로컴퓨터가 든든한 지원군으로 나섰다. 슈퍼마이크로는 인텔 제온 6900 시리즈 프로세서(P-코어) 기반의 고성능 X14 서버를 대량으로 출하하고 있다고 15일 밝혔다. 이 서버는 엄청난 양의 그래픽처리장치(GPU)를 요구하는 작업 환경은 물론, 대규모 AI, 클러스터 규모 고성능컴퓨팅(HPC) 등 고성능 워크로드에 최적화된 새로운 아키텍처와 업그레이드된 기술을 제공한다. 슈퍼마이크로 X14 서버는 수냉식 냉각 기능을 제공하는 GPU 최적화 플랫폼 등의 모델로 출시된다. 슈퍼마이크로는 점프 스타트 프로그램 등을 통해 X14 서버를 원격 테스트 및 검증할 수 있도록 지원하고 있다. 이번 일로 인텔이 시장 내 입지를 탄탄하게 굳힐 수 있을지도 주목된다. 현재 시장에서는 GPU 가속 서버의 73%가 호스트 CPU로 '인텔 제온'을 사용하고 있다. 인텔은 AI 가속기 시장에서도 CPU 리더십을 기반으로 고객사들이 보다 비용 효율적인 시스템을 구축할 수 있을 것으로 보고 있다. 찰스 리앙 슈퍼마이크로 사장 겸 최고경영자(CEO)는 "현재 대량으로 출하되고 있는 X14 서버는 전 세계 고객에게 강력한 기능과 향상된 성능을 제공한다"며 "새로운 애플리케이션에 최적화 기술을 탑재한 전체 제품군을 출시할 수 있던 것은 자사만의 서버 빌딩 블록 솔루션(Server Building Block Solutions) 설계 덕분"이라고 말했다. 이어 "다양한 규모의 솔루션을 공급할 수 있는 글로벌 역량과 타의 추종을 불허하는 자체 개발 수냉식 냉각 솔루션을 통해 업계를 최고 성능 컴퓨팅을 향한 새로운 시대로 이끌 것"이라고 덧붙였다.

2025.01.15 11:26장유미 기자

델·슈퍼마이크로에 밀리던 HPE, 일론 머스크 덕에 AI 서버 시장서 존재감 '업'

일론 머스크 테슬라 최고경영자(CEO)가 운영하는 소셜네트워크 X(옛 트위터)가 인공지능(AI) 서비스 강화를 위해 HPE의 서버를 택했다. 머스크가 설립한 AI 스타트업 xAI와 서버를 공유하기 위한 것으로, 이번 일로 AI 서버 시장 내 HPE의 위상도 한층 올라섰다는 평가다. 13일 블룸버그통신 등에 따르면 X는 최근 AI 서버를 새롭게 구축하기 위해 HPE와 10억 달러(약 1조4천700억원)가 넘는 계약을 맺은 것으로 알려졌다. 이번 계약은 AI 서버 업체인 델 테크놀로지스, 슈퍼마이크로 등도 참여한 경쟁 입찰을 거쳐 지난해 말 마무리됐다. AI 서버 비용 중 일반적으로 그래픽처리장치(GPU)가 절반을 차지한다는 점을 고려해 볼 때 이번 계약에서 GPU는 5억 달러 규모로, 1만 개 이상의 엔비디아 '블랙웰' GPU가 투입될 것으로 추산됐다. 머스크 CEO의 이 같은 움직임은 그가 공동 창립했지만 떠난 챗GPT 개발사 오픈AI를 의식한 행보로 풀이된다. 머스크 CEO는 지난 2023년 xAI를 설립한 후 인재 채용은 물론, 수십억 달러 규모의 투자 유치, 미국 테네시주 멤피스 내 데이터센터 건설 등으로 글로벌 AI 시장에서 xAI의 경쟁력을 강화해 오픈AI를 뛰어 넘기 위해 안간힘을 쓰고 있다. 특히 최근에는 xAI를 위한 자체적인 데이터센터를 미국 전역에 건설하며 AI 인프라 강화에 총력을 기울이고 있다. X와 xAI는 AI 인프라를 공유하는 것으로 알려진 만큼, 새로운 서버는 xAI의 AI 챗봇 '그록' 개발과 운영에 활용될 가능성이 크다. 앞서 xAI는 지난달부터 X를 통해 '그록'의 무료 버전을 제공해왔으나, 최근 앱까지 출시하며 이용자 확보에 본격 나선 상태다. '그록' 앱은 이번에 초기 베타 서비스로 미국에서만 아이폰 앱스토어에 먼저 출시됐다. 이번 일로 HPE도 시장 내 입지가 더 높아질 것으로 보인다. HPE는 그간 AI 서버 시장에서 델 테크놀로지스, 슈퍼마이크로에 비해 존재감이 다소 밀리는 분위기였다. xAI가 세계 최대 규모인 데이터센터 '콜로서스'에도 델 테크놀로지스, 슈퍼마이크로만 택했다는 소식이 전해지기도 했다. 블룸버그통신은 "HPE의 AI 서버 사업은 델과 슈퍼마이크로에 비해 상대적으로 뒤처진 것으로 여겨져 왔다"며 "하지만 이번 계약으로 HPE에 대한 xAI의 신뢰가 드러났다"고 평가했다. 그러면서 "AI 서버에는 엔비디아를 비롯한 여러 회사의 고성능 칩이 탑재돼 있다"며 "HPE의 수냉식 기술이 이번 계약에 중요한 역할을 한 것으로 보인다"고 덧붙였다. 이처럼 xAI 외에도 마이크로소프트, 아마존 등 빅테크들이 최근 AI 인프라에 투자 속도를 높이고 있다는 점에서 AI 서버 시장은 앞으로도 훈풍이 불 것으로 보인다. 아마존웹서비스(AWS)는 이달 들어 미국 조지아주의 데이터센터 확장을 위해 최소 110억 달러(약 15조원)를 투입하겠다고 밝혔다. 지난해 12월에는 미국 오하이오주에 데이터 센터 확장을 위해 2030년까지 230억 달러(약 33조원)를 지원하겠다고 발표했다. 마이크로소프트도 올해 6월까지 데이터센터에 800억 달러(약 118조원)를 투자하겠다고 밝혔다. 비저블 알파의 조사에 따르면 MS의 2025 회계연도 자본 지출은 842억4천만 달러에 이를 것으로 예상된다. 이는 전년보다 42%가 늘어난 것이다. 시너지 리서치 그룹은 데이터센터 인프라 지출이 지난해 34% 증가한 2천820억 달러에 이를 것으로 추산했다. 시너지 리서치 그룹은 "지난해에는 엔비디아의 폭발적인 성장이 단연 주목됐다"며 "하지만 이 중 많은 부분은 서버 및 시스템 공급업체의 매출 증가를 통해 나타났다"고 설명했다.

2025.01.13 10:41장유미 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

나프타 쇼크에 포장재 비상…파우치 배터리는 괜찮나

네이버·카카오의 요즘 인재상…"AI 활용 넘어 소통·사고력"

"AI 스타트업 성패는 '인프라'…글로벌 확장 기회 좌우"

美, 반도체 공급망 위한 '팍스 실리카' 펀드 출범…3700억원 투입

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.