• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'마이크로 데이터센터'통합검색 결과 입니다. (10건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

김명진 대표 "3년 내 재상장 도전"…정부사업 기반 AI 데이터센터 사업 박차

이노그리드가 정부 주도 연구개발(R&D) 사업을 기반으로 인공지능(AI) 기반 데이터센터 서비스 상용화를 추진한다. 3년 내 기술 상용화, 5년 내 매출 반영이라는 구체적 목표도 제시했다. 또 지난해 무산됐던 기업공개(IPO)도 3년내 진행할 것이라는 계획도 공개했다. 김명진 이노그리드 대표는 12일 서울 강남구 그랜드 인터컨티넨탈 파르나스에서 열린 'IC3 2025'에서 과학기술정보통신부의 '국산 AI 반도체 기반 마이크로 데이터센터 확산 연구개발(R&D) 사업' 주관사로 선정됐다고 밝혔다. 이번 사업은 5년간 총 70억원 규모로 국산 AI 반도체(NPU)와 연계된 표준형 데이터센터 구조를 구축하는 것을 목표로 한다. AI 반도체를 중심으로 초소형 데이터센터(MDC)를 전국적으로 확산시키고, 이를 논리적으로 통합해 하나의 대규모 데이터센터처럼 운영하는 기술 개발을 포함한다. 이노그리드는 주관기관으로서 AI 워크로드 특성에 따라 CPU, GPU, NPU 등의 연산 자원을 자동 분석·분배하는 소프트웨어를 개발하고 이를 통해 분산된 데이터센터를 실시간으로 연결하고 무중단 서비스를 구현할 예정이다. 특히 3종의 NPU를 지원하는 관리 소프트웨어 개발이 핵심 과제로, 이는 사업 종료 시점까지 반드시 달성해야 하는 정부 목표다. 김 대표는 "이번 과제를 통해 클라우드 중심의 기존 사업 구조를 넘어 AI 기반 데이터센터 솔루션 기업으로 전환하겠다"며 "AI 워크로드 최적화, 하이브리드 클라우드 연동, 보안 관리까지 포함한 차세대 데이터센터 플랫폼을 완성하겠다"고 말했다. 이어 "3년 내 상용화가 가능한 수준의 핵심 소프트웨어를 확보하고 5년 내 매출 구조로 연결하겠다"고 덧붙였다. 이번 과제는 이노그리드가 IC3 2025 현장에서 선언한 클라우드 데이터센터 매니지먼트 기업으로의 전환을 보여주는 핵심 사례가 될 전망이다. 김 대표는 "국내에서는 아직 이같은 AI 워크로드 기반의 데이터센터 운영기술이 상용화된 사례가 없다"며 "이번 사업을 통해 독자적인 소프트웨어 원천기술을 확보하고, 이를 민간 및 공공 데이터센터에 확대 적용할 것"이라고 말했다. 이어 "국내 데이터센터 시장은 빠르게 성장하고 있으나 여전히 하드웨어 중심의 구조에 머물러 있다"며 "이번 과제를 통해 소프트웨어 중심의 전환을 이끌겠다"고 강조했다. 이노그리드는 현재 정부 연구개발 사업을 중심으로 원천기술 확보에 집중하고 있다. 김 대표는 "지난 8년간 약 300억원의 정부 R&D 자금을 확보해 제품 상용화로 이어왔다"며 "외부 투자를 최소화하고 기술 중심의 기업 성장을 지향해왔다"고 설명했다. 이번 마이크로 데이터센터 과제 역시 이러한 R&D 중심 성장 전략의 연장선이다. 그는 "이번 과제가 끝나면 마이크로 데이터센터 관리용 소프트웨어 'MDC-IT(가칭)'을 제품화할 계획"이라며 "하드웨어 제조기업과의 컨소시엄을 통해 AI 데이터센터 표준화와 기술 검증을 병행하겠다"고 밝혔다. 또한 이노그리드는 이번 사업을 계기로 그룹 차원의 데이터센터 통합관제 역량 강화에도 나선다. 김 대표는 "에티버스 그룹과 협력해 내년 상반기까지 통합 관제센터 '제로스퀘어센터'를 '제로버스(가칭)'로 고도화할 것"이라며 "클라우드 관제에 더해 보안·인프라·데이터센터까지 통합 관리하는 형태로 발전시킬 계획"이라고 말했다. 이어 "내년 3월부터는 GPU 매니지 서비스 사업자(MSP) 사업을 본격화해 GPU 클라우드·보안·관제 등 AI 인프라 서비스를 확장하겠다"고 덧붙였다. SDT와 협력해 '하이브리드 양자 클라우드' 사업도 준비 중이다. GPU와 양자 기술을 결합한 양자 하이브리드 클라우드 MSP 모델을 구축하고 이를 통해 장기적으로 AI·양자 융합 데이터센터 기술을 확보할 계획이다. 김 대표는 "이노그리드는 국내에 아직 많지 않은 클라우드 영역을 선도하는 클라우드 기업"이라며 "AI와 양자 컴퓨팅이 결합된 차세대 인프라 기술로 글로벌 경쟁력을 확보하겠다"고 말했다. 한편 이노그리드는 정부 과제 외에도 상장을 포함한 기업 성장 전략을 병행 추진한다. 김 대표는 "이노그리드는 IPO 재추진을 준비 중이며 거래소 상장 심사 절차를 다시 밟고 있다"며 "다만 IPO는 단기 목표가 아니라 회사의 기술력과 시장 신뢰를 객관적으로 증명하기 위한 과정로 약 3년 내 재상장을 목표로 준비하고 있다"고 덧붙였다.

2025.11.12 15:46남혁우

마이크로칩, 업계 최초 3나노 공정 PCIe Gen 6 스위치 출시

마이크로칩테크놀로지는 차세대 스위치텍(Switchtec) Gen 6 PCIe 스위치 제품군을 출시한다고 14일 밝혔다. 스위치텍 Gen 6 제품군은 업계 최초로 3나노미터(3nm) 공정으로 제조된 PCIe Gen 6 스위치로, 전력 소비를 줄이고 고밀도 AI 시스템 연결을 위해 최대 160레인을 지원하도록 설계됐다. 또한 하드웨어 루트 오브 트러스트와 보안 부팅 등 고급 보안 기능을 포함하며, CNSA 2.0(상업용 국가보안알고리즘)을 준수하는 포스트 퀀텀 안전(Post-Quantum Safe) 암호 기술을 채택해 강화된 보안을 제공한다. 이전 세대의 PCIe 기술은 CPU, GPU, 메모리, 스토리지 간 데이터 전송에서 대역폭 병목 현상을 일으켜 데이터의 활용도가 떨어지고 불필요한 연산 사이클이 발생하는 문제를 초래했다. 새로운 PCIe 6.0 표준은 PCIe 5.0 대비 두 배인 레인당 64GT/s의 대역폭을 제공해, 가장 강력한 AI 액셀러레이터(AI Accelerator)에 안정적으로 데이터를 공급할 수 있는 필수 데이터 파이프라인을 제공한다. 스위치텍 Gen 6 PCle 스위치는 CPU, GPU, SoC, AI 액셀러레이터, 스토리지 간의 고속 연결을 구현하며, 데이터센터 설계자들이 차세대 AI 및 클라우드 인프라의 잠재력을 최대한 활용할 수 있도록 지원한다. 브라이언 멕카슨 마이크로칩 데이터센터 솔루션 사업부 부사장은 “AI 시대의 급속한 혁신은 데이터센터 아키텍처가 기존의 전통적 설계에서 벗어나, 컴퓨팅 자원을 공유하는 풀 기반 아키텍처로 전환하도록 이끌고 있다”고 말하며 “마이크로칩은 검증된 스위치텍 제품 라인을 PCIe 6.0으로 확장함으로써 주요 컴퓨팅 리소스 간의 직접적 통신이 용이해지도록 변화를 지원하고 있으며, 지금까지 생산한 것 중 전례 없는 가장 강력하고 에너지 효율적인 스위치를 제공하게 됐다”고 말했다. 스위치텍 Gen 6 스위치는 고성능 인터커넥트로서 서버 랙에서 GPU 간 간단하고 직접적인 연결을 가능케 해 신호 손실을 최소화하고 AI 패브릭이 요구하는 낮은 지연시간을 유지하는데 중요하다. PCIe 6.0 표준은 플로우 컨트롤 유닛(FLIT) 모드, 경량 순방향 오류 수정(FEC) 시스템, 동적 자원 할당 기능을 새롭게 도입해 특히 AI 워크로드에서 흔한 소규모 패킷의 데이터 전송의 효율성과 안정성을 대폭 향상시켰다. 그 결과 전체 처리량은 증가하고, 실효 지연은 감소한다. 스위치텍 Gen 6 PCIe 스위치는 20개의 포트와 10개의 스택을 갖추고 있으며, 각 포트는 핫플러그 및 서프라이즈 플러그 컨트롤러를 내장하고 있다. 또한 멀티 호스트 도메인을 연결하고 분리할 수 있는 논트랜스페어런트 브리징(NTB)과 단일 도메인 내 1:N 데이터 분배를 위한 멀티캐스트도 지원한다. 이 스위치는 고급 오류 격리 기능, 종합적인 진단 및 디버깅 기능, 다양한 I/O 인터페이스, 그리고 x8 및 x16 분기 옵션을 제공하는 통합 MIPS 프로세서로 설계되었다. 입출력 기준 클록은 각 스택별로 4개의 입력 클록을 사용하는 PCIe 스택 기반이다. 마이크로칩의 전체 PCIe 스위치 포트폴리오에 대한 자세한 내용은 웹사이트를 방문하면 확인할 수 있다.

2025.10.14 09:44장경윤

엔비디아 독주에 균열?…슈퍼마이크로·AMD '맞손'에 AI 서버 판도 흔들

슈퍼마이크로가 AMD의 최신 그래픽 처리장치(GPU)를 탑재한 인공지능(AI) 전용 서버 라인업을 확대하며 차세대 데이터센터 수요 선점에 나섰다. 고성능·고효율을 앞세워 AI 학습 및 추론 환경에서의 총소유비용(TCO) 절감 수요를 겨냥한 전략으로 풀이된다. 슈퍼마이크로는 AMD 인스팅트 'MI350' 시리즈 GPU와 AMD 'EPYC 9005' 시리즈 컴퓨팅 처리장치(CPU)를 결합한 'H14' 세대 AI 서버 솔루션을 19일 발표했다. 해당 제품은 4세대 'CDNA' 아키텍처 기반으로, 수냉식·공냉식 냉각 방식을 모두 지원한다. 이번 신규 서버는 GPU당 288기가바이트 고대역폭 메모리(HBM3e)를 제공하며 시스템당 최대 2.3테라바이트 용량 구성을 지원한다. 이는 기존 제품 대비 약 1.5배 향상된 수치로, AI 추론과 학습 워크로드 전반에 걸쳐 대용량 데이터를 빠르게 처리할 수 있도록 설계됐다. 슈퍼마이크로는 4유닛(4U) 수냉식과 8유닛 공냉식 등 랙 규모별 옵션을 마련했다. 특히 직접 수냉식 냉각(DLC) 아키텍처를 적용한 4U 모델은 고집적도 환경에서 최대 40%까지 전력 소비를 절감할 수 있으며 랙당 성능 밀도도 극대화했다. 서버 설계는 업계 표준인 개방-폐쇄 원칙(OCP) 가속기 모듈(OAM)을 채택해 AMD GPU와의 호환성과 확장성을 확보했다. 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 체계를 통해 컨설팅부터 구축·운영까지 전 주기 지원이 가능하도록 구성됐다. 해당 제품군은 클라우드 서비스 제공자, 엔터프라이즈 고객 모두를 겨냥해 고도화된 인프라 수요를 수용할 수 있도록 설계됐다. AI 외에도 고성능 컴퓨팅(HPC), 클라우드, 과학 시뮬레이션 등 복합 워크로드 환경에도 대응 가능하다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "GPU 서버 라인업에 'MI350' 시리즈를 추가함으로써 고객이 차세대 AI 데이터센터를 설계하고 구축하는 데 더 많은 선택지를 가질 수 있게 됐다"고 밝혔다. 리사 수 AMD CEO는 "'MI350' 시리즈는 경쟁 제품 대비 달러당 처리량에서 최대 40% 높은 성능을 제공한다"며 "슈퍼마이크로와의 협업을 통해 완전 통합형 랙 솔루션을 구현할 수 있다"고 설명했다.

2025.06.19 13:06조이환

슈퍼마이크로, 'DLC 2·신형 서버'로 컴퓨텍스 정조준…"AI·엣지·클라우드 전방위 공략"

슈퍼마이크로가 대만 최대의 IT 박람회를 앞두고 인공지능(AI) 인프라 주도권 강화를 노리고 차세대 서버 기술을 전면에 내세웠다. 자사 데이터센터 포트폴리오에 대한 시장 신뢰도를 높이고 고성능 컴퓨팅 수요층을 선점하려는 전략이다. 슈퍼마이크로는 16일 온라인으로 '컴퓨텍스 2025' 사전 기자간담회를 개최했다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)가 직접 기조연설을 맡았고 이후 미디어 Q&A 세션을 통해 질문에 실시간으로 답변했다. 간담회에서는 AI·ML, 클라우드, 스토리지, 엣지를 아우르는 차세대 데이터센터 서버를 중심으로 슈퍼마이크로의 기술 로드맵이 공개됐다. 직접액체냉각(DLC) 기술의 고도화와 업계 협업을 기반으로 한 고성능 컴퓨팅(HPC)용 토탈 솔루션이 핵심 발표 내용으로 포함됐다. 찰스 리앙 CEO "AIDC, 설계부터 운영까지…우리가 책임진다" 이날 실리콘밸리 본사에서 실시간으로 접속해 기조연설에 나선 찰스 리앙 슈퍼마이크로 CEO는 차세대 AI 데이터센터 설계의 해법으로 '데이터 센터 빌딩 블록(DC BBs)'과 '직접액체냉각(DLC)'을 제시했다. 기술 경쟁력을 앞세워 고성능·고효율·저비용이라는 세 마리 토끼를 잡겠다는 전략이다. 그는 "AI 데이터센터(AIDC)는 해마다 복잡성과 비용이 높아지고 있다"며 "우리 빌딩 블록은 이 복잡한 문제를 단순화하면서 고객 맞춤형 구성으로 설계부터 설치, 운영까지 전체 프로세스를 최적화할 수 있는 방식"이라고 설명했다. 리앙 CEO에 따르면 슈퍼마이크로는 더 이상 단순한 시스템 기업이 아니다. 오히려 서버 기반 스토리지, 사물인터넷, AI 인프라까지 아우르는 데이터센터 풀스택 인프라 기업으로 진화한 상황이다. 슈퍼마이크로가 이날 공개한 '데이터센터 빌딩블록'은 그래픽처리장치(GPU) 기반 서버를 랙 단위, 시스템 단위, 전력·스토리지·배터리 백업 등 전체 구성 요소와 함께 플러그앤플레이 방식으로 제공하는 토탈 솔루션이다. 설계, 설치, 배선, 소프트웨어까지 전방위 맞춤 구성이 가능해 데이터센터 구축 시간을 단축하고 비용 절감을 유도한다. 리앙 CEO는 "우리 빌딩 블록은 서버, 스토리지, 스위치, 냉각, 배터리, 네트워킹, 케이블링, 운영 소프트웨어, 현장 설계 및 구축까지 모든 것을 포함한다"며 "고객이 원하는 워크로드에 최적화된 구성으로 빠르게 설치해 운영할 수 있도록 설계돼 있다"고 강조했다. 기술적 강점 외에도 회사는 실제 상업화 경험이 있다는 강점이 있다. 지난해만 해도 경쟁사보다 6개월 빠르게 'H100 HGX GPU' 솔루션을 출하하고 DLC 서버 4천 대를 출하했다. 올해에는 'DLC 2'를 통해 다시 한 번 시장을 리드한다는 것이 리앙 CEO의 설명이다. 이번에 소개된 'DLC 2'는 기존 직접액체냉각 방식 대비 전기요금과 물 소비량을 최대 40% 절감할 수 있는 고도화된 냉각 솔루션이다. 소음도 50데시벨 수준으로 기존 대비 대폭 줄였다. 찰스 리앙 CEO는 "이전 DLC 서버는 소음이 약 73데시벨이었지만 'DLC 2'는 도서관 수준인 50데시벨로 낮췄다"며 "냉각수로 실온수를 사용해 냉각탑이나 냉각수 장비 없이도 운영 가능하다"고 강조했다. 이어 "총 데이터센터 비용의 20~30%까지 절감 효과가 있을 것"이라고 내다봤다. 제품별 로드맵도 구체적으로 제시됐다. 슈퍼마이크로는 현재까지 'B200', 'B300', 'GB200', 'GB300' 랙형 서버, AMD 기반의 'MI325X', 'MI350', 'MI355' DLC 시리즈 등 다양한 AI 서버와 DLC 시스템을 확보했다. 이들 중 상당수는 이미 출하됐거나 수주 준비를 마친 상태이며 일부 모델은 엔비디아 GPU 수급 상황에 따라 출하 일정이 결정될 예정이다. 리앙 CEO는 "슈퍼마이크로는 이미 DLC 기반 AI 서버 시장 점유율 80% 이상을 확보했다"며 "이번에 발표한 제품군 역시 두 달 전부터 출하를 시작해 수만 대 이상 공급되고 있다"고 말했다. 또 서버 외에도 스토리지, 고속 네트워크 스위치, 엣지 컴퓨팅, IoT 시스템 등도 함께 전시한다. 기존 90베이 스토리지부터 최신 400G 네트워크 스위치, 브레이드 서버, 트윈 솔루션 등 전체 제품군이 갖춰져 있다는 점을 강조했다. 그는 "우리는 GPU뿐 아니라 전체 인프라를 갖춘 기업"이라며 "시간을 단축하고 효율을 극대화할 수 있는 솔루션을 통해 고객의 비즈니스 성장을 함께 이루겠다"고 말했다. "DLC는 이미 준비 끝"…Q&A서 전략·공급망·시장전망 총정리 기조연설 직후 이어진 미디어 질의 세션에서 찰스 리앙 슈퍼마이크로 CEO는 차세대 데이터센터 인프라 전략, 기술 적용 현황, 시장 전망에 대해 구체적으로 입장을 밝혔다. 그는 각국 기자들의 질문에 직접 답하며 자사의 기술력과 대응 전략을 강조했다. 먼저 직접액체냉각(DLC) 기술의 보편화 가능성에 대한 질문이 나오자 리앙 CEO는 "DLC는 이미 시장에서 검증된 기술"이라며 "지난해에만 4천개 랙, 약 10만 개 시스템을 출하해 글로벌 DLC 시장의 80% 이상을 점유했다"고 말했다. 그는 "기술적으로는 이미 준비가 완료됐지만 고객들이 DLC 기반 데이터센터를 준비하는 데 시간이 걸리는 것이 현실"이라며 "직접 구축 부담을 줄일 수 있도록 데이터센터 빌딩블록 솔루션을 함께 제공하고 있다"고 설명했다. 기업 시장에서 AI 서버 수요를 어떻게 확대할 것이냐는 질문에는 하이퍼스케일 기업과 일반 엔터프라이즈 간 역량 차이를 언급했다. 리앙 CEO는 "하이퍼스케일러는 자체 설계와 구축 역량이 있지만 대부분의 기업 고객은 전문 인력이 부족하다"며 "우리 빌딩 블록은 이러한 엔터프라이즈 고객이 신속하고 효율적으로 데이터센터를 구축할 수 있도록 돕는다"고 밝혔다. 향후 AI 서버 및 범용 서버 시장의 성장 전망에 대해서는 낙관적 입장을 드러냈다. 슈퍼마이크로는 지난 3년간 매출이 4배 이상 증가했기 때문에 향후 3년간은 최소 3배에서 최대 5배까지 성장이 가능할 것이라는 설명이다. 이러한 성장을 견인할 요인으로 '빌딩 블록'과 'DLC 2'의 조합을 들었다. 리앙 CEO는 "우리는 기술적으로 앞서 있을 뿐 아니라 운영비 절감과 빠른 설치가 가능하다"며 "고객사의 도입 속도가 훨씬 빨라질 것"이라고 판단했다. 냉각 기술이 서버 구조 및 랙스케일 설계에 미치는 영향에 대해서도 언급했다. 리앙 CEO는 "원래는 'DLC 2'를 오는 2026~2027년에 출시하려 했지만 기술 성숙도가 기대 이상으로 빨라 올해 여름부터 시장에 공급하게 됐다"고 말했다. 글로벌 공급망 전략에 대한 질문도 나왔다. 리앙 CEO에 따르면 슈퍼마이크로는 미국 실리콘밸리 외에도 대만, 네덜란드, 말레이시아에 생산기지를 운영하고 있다. 말레이시아 캠퍼스는 이미 대량 생산이 가능하며 위탁생산(OEM) 및 대형 고객 대응까지 준비가 완료된 상태다. 실제로 미국에서는 월 5천개 랙 생산 능력을 갖췄고 이 중 2천개는 DLC 서버 전용이다. 말레이시아에서는 초기 월 800개 수준에서 시작했지만 수요에 따라 언제든 두세 배로 확장할 수 있다. 그는 "다양한 지역에 제조 거점을 두고 있어 관세 이슈나 공급망 리스크에도 유연하게 대응할 수 있다"며 "수요만 있다면 생산량은 언제든 두세 배로 늘릴 수 있다"고 말했다. GPU 전력 소비 증가에 따른 데이터센터 전략에 대해서는 DLC의 효율성을 다시 강조했다. DLC는 초기 설비 비용도 기존 대비 낮으며 운영비 절감 폭이 최대 30%까지 가능하다는 것으로, 고밀도 서버 운영이 필요한 환경일수록 효과가 보다 커진다는 입장이다. 또 AI 칩 아키텍처가 다양화되는 상황에서 어떻게 호환성과 성능 최적화를 동시에 달성하는지에 대해서도 답했다. 리앙 CEO는 "우리는 창립 초기부터 빌딩블록 구조를 채택해 다양한 구성과 워크로드에 최적화된 설계를 빠르게 제공할 수 있다"고 말했다. 액체냉각 방식과 공랭식이 공존하는 현 시점에서 어느 환경에 어떤 방식이 더 적합한지에 대해서도 견해를 밝혔다. DLC는 추가 비용 없이 구현이 가능하며 오히려 냉각 효율성과 에너지 절감을 고려하면 공랭식보다 경제적이라는 설명이다. 찰스 리앙 슈퍼마이크로 CEO는 행사를 마치며 "우리는 오는 '컴퓨텍스 2025' 행사에서 이 같은 전략 제품과 솔루션을 대거 선보일 예정"이라며 "현장에서 다시 만나기를 기대한다"고 말했다.

2025.05.16 16:20조이환

"AI 연산 획기적 향상"…슈퍼마이크로, 엔비디아 블랙웰 울트라 플랫폼 기반 솔루션 공개

슈퍼마이크로가 인공지능(AI) 연산 성능을 향상할 수 있는 차세대 AI 솔루션을 선보인다. 슈퍼마이크로는 엔비디아 블랙웰 울트라 플랫폼을 탑재한 새로운 서버·랙제품군을 공개했다고 27일 밝혔다. 슈퍼마이크로의 새로운 AI 제품군은 엔비디아 'HGX B300 NVL16'와 'GB300 NVL72' 플랫폼을 탑재해 AI 추론, 에이전틱 AI, 비디오 추론 등 고성능 연산 AI 워크로드에서 높은 성능을 제공한다. 엔비디아 블랙웰 울트라 플랫폼은 GPU 메모리 용량과 네트워크 대역폭 제약으로 발생하는 병목현상을 해소하고 대규모 클러스터 환경에서 요구되는 AI 워크로드를 안정적으로 처리할 수 있도록 설계됐다. GPU당 288GB의 HBM3e 고대역폭 메모리가 탑재돼 초대규모 AI 모델의 학습·추론에서 향상된 AI 플롭스(FLOPS)를 구현한다. 또 네트워킹 플랫폼에 엔비디아 퀀텀-X800 인피니밴드와 스펙트럼-X 이더넷을 통합해 최대 800Gb/s의 컴퓨팅 패브릭 대역폭을 제공한다. 슈퍼마이크로와 엔비디아는 이번 공개한 차세대 AI 솔루션을 통해 AI 분야에서의 리더십을 더욱 공고히 한다는 목표다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "자사의 데이터센터 빌딩 블록 솔루션을 활용해 엔비디아 HGX B300 NVL16 GB300 NVL72의 열 관리 및 내부 토폴로지(topology)에 최적화된 새로운 공냉식·수냉식 냉각 시스템을 구현했다"며 "이 시스템은 수자원을 절약하면서 전력 소비도 최대 40%까지 줄여 엔터프라이즈 데이터센터의 환경적·운영적 측면에서 상당한 이점을 제공한다"고 설명했다. 이어 "자사는 엔비디아와 오랜 파트너십을 지속하며 엔비디아 블랙웰 울트라 플랫폼을 기반으로 한 최신 AI 기술을공개하게 돼 기쁘다"고 덧붙였다.

2025.03.27 12:05한정호

'인텔 지원군' 슈퍼마이크로, 고성능 '제온' 탑재한 서버로 시장 공략

인텔이 데이터센터 서버에 적용되는 칩 시장 내 입지 확대를 위해 적극 나서고 있는 가운데 슈퍼마이크로컴퓨터가 든든한 지원군으로 나섰다. 슈퍼마이크로는 인텔 제온 6900 시리즈 프로세서(P-코어) 기반의 고성능 X14 서버를 대량으로 출하하고 있다고 15일 밝혔다. 이 서버는 엄청난 양의 그래픽처리장치(GPU)를 요구하는 작업 환경은 물론, 대규모 AI, 클러스터 규모 고성능컴퓨팅(HPC) 등 고성능 워크로드에 최적화된 새로운 아키텍처와 업그레이드된 기술을 제공한다. 슈퍼마이크로 X14 서버는 수냉식 냉각 기능을 제공하는 GPU 최적화 플랫폼 등의 모델로 출시된다. 슈퍼마이크로는 점프 스타트 프로그램 등을 통해 X14 서버를 원격 테스트 및 검증할 수 있도록 지원하고 있다. 이번 일로 인텔이 시장 내 입지를 탄탄하게 굳힐 수 있을지도 주목된다. 현재 시장에서는 GPU 가속 서버의 73%가 호스트 CPU로 '인텔 제온'을 사용하고 있다. 인텔은 AI 가속기 시장에서도 CPU 리더십을 기반으로 고객사들이 보다 비용 효율적인 시스템을 구축할 수 있을 것으로 보고 있다. 찰스 리앙 슈퍼마이크로 사장 겸 최고경영자(CEO)는 "현재 대량으로 출하되고 있는 X14 서버는 전 세계 고객에게 강력한 기능과 향상된 성능을 제공한다"며 "새로운 애플리케이션에 최적화 기술을 탑재한 전체 제품군을 출시할 수 있던 것은 자사만의 서버 빌딩 블록 솔루션(Server Building Block Solutions) 설계 덕분"이라고 말했다. 이어 "다양한 규모의 솔루션을 공급할 수 있는 글로벌 역량과 타의 추종을 불허하는 자체 개발 수냉식 냉각 솔루션을 통해 업계를 최고 성능 컴퓨팅을 향한 새로운 시대로 이끌 것"이라고 덧붙였다.

2025.01.15 11:26장유미

델·슈퍼마이크로에 밀리던 HPE, 일론 머스크 덕에 AI 서버 시장서 존재감 '업'

일론 머스크 테슬라 최고경영자(CEO)가 운영하는 소셜네트워크 X(옛 트위터)가 인공지능(AI) 서비스 강화를 위해 HPE의 서버를 택했다. 머스크가 설립한 AI 스타트업 xAI와 서버를 공유하기 위한 것으로, 이번 일로 AI 서버 시장 내 HPE의 위상도 한층 올라섰다는 평가다. 13일 블룸버그통신 등에 따르면 X는 최근 AI 서버를 새롭게 구축하기 위해 HPE와 10억 달러(약 1조4천700억원)가 넘는 계약을 맺은 것으로 알려졌다. 이번 계약은 AI 서버 업체인 델 테크놀로지스, 슈퍼마이크로 등도 참여한 경쟁 입찰을 거쳐 지난해 말 마무리됐다. AI 서버 비용 중 일반적으로 그래픽처리장치(GPU)가 절반을 차지한다는 점을 고려해 볼 때 이번 계약에서 GPU는 5억 달러 규모로, 1만 개 이상의 엔비디아 '블랙웰' GPU가 투입될 것으로 추산됐다. 머스크 CEO의 이 같은 움직임은 그가 공동 창립했지만 떠난 챗GPT 개발사 오픈AI를 의식한 행보로 풀이된다. 머스크 CEO는 지난 2023년 xAI를 설립한 후 인재 채용은 물론, 수십억 달러 규모의 투자 유치, 미국 테네시주 멤피스 내 데이터센터 건설 등으로 글로벌 AI 시장에서 xAI의 경쟁력을 강화해 오픈AI를 뛰어 넘기 위해 안간힘을 쓰고 있다. 특히 최근에는 xAI를 위한 자체적인 데이터센터를 미국 전역에 건설하며 AI 인프라 강화에 총력을 기울이고 있다. X와 xAI는 AI 인프라를 공유하는 것으로 알려진 만큼, 새로운 서버는 xAI의 AI 챗봇 '그록' 개발과 운영에 활용될 가능성이 크다. 앞서 xAI는 지난달부터 X를 통해 '그록'의 무료 버전을 제공해왔으나, 최근 앱까지 출시하며 이용자 확보에 본격 나선 상태다. '그록' 앱은 이번에 초기 베타 서비스로 미국에서만 아이폰 앱스토어에 먼저 출시됐다. 이번 일로 HPE도 시장 내 입지가 더 높아질 것으로 보인다. HPE는 그간 AI 서버 시장에서 델 테크놀로지스, 슈퍼마이크로에 비해 존재감이 다소 밀리는 분위기였다. xAI가 세계 최대 규모인 데이터센터 '콜로서스'에도 델 테크놀로지스, 슈퍼마이크로만 택했다는 소식이 전해지기도 했다. 블룸버그통신은 "HPE의 AI 서버 사업은 델과 슈퍼마이크로에 비해 상대적으로 뒤처진 것으로 여겨져 왔다"며 "하지만 이번 계약으로 HPE에 대한 xAI의 신뢰가 드러났다"고 평가했다. 그러면서 "AI 서버에는 엔비디아를 비롯한 여러 회사의 고성능 칩이 탑재돼 있다"며 "HPE의 수냉식 기술이 이번 계약에 중요한 역할을 한 것으로 보인다"고 덧붙였다. 이처럼 xAI 외에도 마이크로소프트, 아마존 등 빅테크들이 최근 AI 인프라에 투자 속도를 높이고 있다는 점에서 AI 서버 시장은 앞으로도 훈풍이 불 것으로 보인다. 아마존웹서비스(AWS)는 이달 들어 미국 조지아주의 데이터센터 확장을 위해 최소 110억 달러(약 15조원)를 투입하겠다고 밝혔다. 지난해 12월에는 미국 오하이오주에 데이터 센터 확장을 위해 2030년까지 230억 달러(약 33조원)를 지원하겠다고 발표했다. 마이크로소프트도 올해 6월까지 데이터센터에 800억 달러(약 118조원)를 투자하겠다고 밝혔다. 비저블 알파의 조사에 따르면 MS의 2025 회계연도 자본 지출은 842억4천만 달러에 이를 것으로 예상된다. 이는 전년보다 42%가 늘어난 것이다. 시너지 리서치 그룹은 데이터센터 인프라 지출이 지난해 34% 증가한 2천820억 달러에 이를 것으로 추산했다. 시너지 리서치 그룹은 "지난해에는 엔비디아의 폭발적인 성장이 단연 주목됐다"며 "하지만 이 중 많은 부분은 서버 및 시스템 공급업체의 매출 증가를 통해 나타났다"고 설명했다.

2025.01.13 10:41장유미

슈퍼마이크로, '블랙웰' 탑재 AI 최적화 서버 공개

슈퍼마이크로컴퓨터는 생성형 AI 개발 및 구축을 지원하는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 최적화된 '슈퍼클러스터'를 11일 공개했다. 슈퍼마이크로 슈퍼클러스터는 산업을 막론하고 기업의 생성형 AI 채택을 가속화하는 클라우드 네이티브 솔루션을 위해 설계된 R2D 액침 냉각식 AI 데이터센터에서 사용된다. 엔비디아에서 최근 선보인 블랙웰 GPU에 슈퍼마이크로의 4U 수냉식 냉각 서버가 탑재돼 단일 GPU에서 20 페타 플롭스(FLOPS)의 AI 성능을 완벽하게 구현할 수 있다. 기존 GPU 대비 4배 강력한 AI 훈련 및 30배 강력한 추론 성능을 자랑하며, 추가적인 비용 절감 효과를 가져온다. 슈퍼마이크로는 시장 선점 전략에 따라 최근 블랙웰 아키텍처를 기반으로 한, 엔비디아 HGX B100, B200, 그리고 GB200 그레이스 블랙웰 슈퍼칩용 신규 제품군을 선보인 바 있다. 슈퍼마이크로는 '컴퓨텍스 2024'에 참가해 곧 출시될 엔비디아 블랙웰 GPU에 최적화된 서버를 공개했으며, 여기에는 엔비디아 HGX B200 기반의 10U 공냉식 및 4U 수냉식 냉각 서버가 포함됐다. 8U 공냉식 엔비디아 HGX B100 시스템, 엔비디아 NV링크 스위치와 상호 연결된 GPU 72개를 탑재한 슈퍼마이크로의 엔비디아 GB200 NVL72 랙, 그리고 엔비디아 H200 NVL PCLe GOU 및 엔비디아 GB200 NVL2 아키텍처를 지원하는 신규 엔비디아 MGX 시스템을 제공할 예정이다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI가 모든 컴퓨팅 스택의 재설정을 주도하고 있는 가운데, 새로운 데이터센터는 GPU 가속화로 AI에 최적화될 것”이라며 “슈퍼마이크로는 최첨단 엔비디아 가속 컴퓨팅 및 네트워킹 솔루션을 설계하고, 수조 달러 규모의 글로벌 데이터센터가 AI 시대에 최적화될 수 있도록 지원한다”고 밝혔다. LLM의 급속한 발전과 더불어 메타 라마3 및 믹스트랄 8x22B 같은 오픈소스 모델의 지속적인 출시로 인해 오늘날 최첨단 AI 모델에 대한 기업의 접근성이 높아졌다. 현재 폭발적인 AI 혁신을 지원하는 데 있어 가장 중요한 요소는 AI 인프라를 간소화하고 가장 비용 효율적인 방식에 대한 접근성을 제공하는 것이다. 슈퍼마이크로 클라우드 네이티브 AI 슈퍼클러스터는 엔비디아 AI 엔터프라이즈를 활용해 클라우드의 즉각적인 접근 편의성과 휴대성 사이의 간극을 메운다. 또한, 파일럿부터 프로덕션까지 모든 규모의 AI 프로젝트를 원활하게 추진할 수 있도록 지원한다. 이를 통해 호스팅 시스템이나 온프레미스 대규모 데이터센터를 비롯해 데이터를 안전하게 보호하는 곳에 유연성을 제공한다. 여러 업계의 기업들이 빠르게 생성형 AI 사용 사례를 실험하고 있는 가운데, 슈퍼마이크로는 엔비디아와의 긴밀한 협업을 통해 시험 및 파일럿 AI 애플리케이션에서 양산형 배포 및 대규모 데이터센터 AI로의 원활하고 매끄러운 전환을 보장한다. 이는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 통해 랙 및 클러스트 단위의 최적화를 이룬 결과로, 초기 탐색부터 확장 가능한 AI 구현까지 원활한 여정을 지원한다. 관리형 서비스는 인프라 채택, 데이터 공유, 그리고 생성형 AI 전략 제어에 부정적인 영향을 미친다. 하지만 슈퍼마이크로는 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 NIM 마이크로서비스를 통해 관리형 및 생성형 AI 및 오픈소스 배포의 장점만을 제공한다. 마이크로서비스를 활용한 다목적 추론 수행 시간은 오픈소스부터 엔비디아 기반 모델에 이르기까지 다양한 모델에서 생성형 AI 구축을 가속화한다. 또한, 엔비디아 NeMo를 지원해 데이터 큐레이션, 고급 커스터마이징 및 RAG를 통한 엔터프라이즈급 솔루션용 맞춤형 모델 개발이 가능하다. 슈퍼마이크로의 엔비디아 AI 엔터프라이즈용 슈퍼클러스터와 결합된 엔비디아 NIM은 확장 가능하고 가속화된 생성형 AI 프로덕션 구축을 향한 지름길로 안내한다. 슈퍼마이크로 수냉식 냉각 엔비디아 HGX H100·H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 5개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 공냉식 냉각 엔비디아 HGX H100/H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 슈퍼마이크로 엔비디아 MGX GH200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 그레이스 호퍼 슈퍼칩 256개를 탑재한다. 슈퍼마이크로 슈퍼클러스터는 엔드투엔드 생성형 AI 커스터마이징을 위해 엔비디아 NIM 마이크로서비스 및 엔비디아 네모(NeMo) 플랫폼 등 엔비디아 AI 엔터프라이즈를 탑재했다. 400Gbps의 네트워킹 속도로 수십만 개의 GPU가 있는 대규모 클러스터까지 확장 가능하며, 엔비디아 퀀텀-2 인피니밴드 및 신규 엔비디아 스펙트럼-X 이더넷 플랫폼에 최적화됐다. 슈퍼마이크로 슈퍼클러스터 솔루션은 LLM 학습, 딥러닝, 그리고 대용량 및 대규모 추론에 최적화됐다. 슈퍼마이크로의 L11 및 L12 검증 테스트와 현장 구축 서비스는 고객에게 원활한 경험을 선사한다. 데이터센터에서 도입이 쉽고, 그 결과를 보다 빠르게 확인할 수 있는 플러그 앤 플레이 확장형 유닛을 제공한다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "슈퍼마이크로는 랙 스케일 액침 냉각식 AI 솔루션을 개발 및 구축하며 지속적으로 업계를 선도하고 있다"며 "수냉식 냉각 데이터선터는 전력 사용량 감축을 통해 사실상 무상으로 제공되며, 이는 고객에게 추가적인 가치를 제공할 수 있다”고 밝혔다. 그는 “슈퍼마이크로의 솔루션은 다양한 산업군의 고객을 위해 엔비디아 AI 엔터프라이즈 소프트웨어에 최적화됐다”며 “엔비디아 HGX H100 및 H200은 물론, 새로 출시된 B100, B200, 그리고 GB200에 수냉식 또는 공냉식 냉각 턴키 클러스터를 배포하는 시간을 단축할 수 있다”고 설명했다. 그는 “냉각판부터 CPU와 냉각탑에 이르기까지 슈퍼마이크로의 랙 스케일 종합 액체 냉각 솔루션은 데이터센터에서 사용하고 있는 전력량을 최대 40%까지 줄일 수 있다”고 덧붙였다.

2024.06.11 10:31김우용

데이터센터 에너지 절감을 위한 슈퍼마이크로의 제안

전세계적으로 인공지능(AI) 수요가 폭발적으로 증가하면서 데이터센터의 에너지 소비 증가 문제가 대두되고 있다. 생성형 AI의 기반 인프라인 GPU 서버가 그 자체로 대량의 에너지를 소모하고, 서버 발열을 식히기 위한 냉각 시스템도 대량의 에너지를 필요로 하고 있다. 마이클 맥너니 슈퍼마이크로 마케팅 및 네트워크 시큐리티 부사장과 김성민 슈퍼마이크로 FAE & 비즈니스 개발 부문 이사는 최근 본지와 진행한 서면 인터뷰에서 데이터센터의 에너지 소비 문제를 진단하고 그에 대한 슈퍼마이크로의 솔루션을 설명했다. 마이클 맥너니 부사장은 “국제에너지기구(IEA)에 따르면 데이터센터, AI 및 암호화폐 부문의 전력 수요가 2026년까지 두 배 증가할 것으로 예측되며, 이중 데이터센터가 주요인으로 꼽혔다”며 “2022년 전세계 데이터센터는 연간 전력 소비 중 2%에 달하는 460테라와트시(TWh)의 전력을 소비했고, 2026년 1천TWh를 초과할 것으로 전망된다”고 설명했다. 그는 “데이터센터에서 냉각 시스템과 서버는 주요 전력 소비원으로, 일반적으로 각각 전체 소비량의 40%를 차지하며 나머지 20%는 전원 공급 시스템, 스토리지, 통신 장비가 사용한다”며 “ 2023년 전 세계 전력 생산으로 인한 CO2 배출량은 1만3천575 톤에 달했으며, 한국과 일본의 경우 728 톤을 배출했는데, 이는 데이터센터의 전력 사용량을 감축했을 때 환경에 미치는 영향 또한 줄일 수 있음을 의미한다”고 밝혔다. 그는 “기후 변화가 점점 더 악화될 것으로 예상되는만큼 데이터센터의 환경 영향을 저감하기 위한 조치를 취해야 할 때”라며 “서버 기술의 발전 및 가용 범위의 증가에도 불구하고 대부분의 서버는 최대 성능에 훨씬 못 미치는 수준으로 실행되고, 가장 효율적인 서버도 약 50% 정도의 성능만만 발휘하며 에너지 낭비를 초래한다”고 덧붙였다. 환경단체뿐 아니라 정부, 기업 등도 데이터센터의 에너지 소비 증가 문제를 심각하게 여기고 있다. 하지만 투자평가사의 기업 ESG 평가 체제 중 IT 인프라에만 초점을 맞춘 구체적인 표준 등급이나 측정 항목은 없다. 다만 에너지 효율성, 재생 에너지 사용, 탄소 발자국, 전자 폐기물 관리, 공급망 영향, 데이터 보안 및 개인정보 보호 등 다양한 요소가 기업의 지속가능성 달성에 대한 평가 중 일부분으로 고려된다. 맥너니 부사장은 “슈퍼마이크로는 많은 제품의 제품 탄소발자국(PCF) 리포트를 최적화하기 위해 노력하고 있다”며 “다만 광범위한 포트폴리오로 인해 많은 시간이 필요해 요청에 따라 준비하고 있고, 여러가지 EPEAT 인증도 진행하고 있으며, 이는 슈퍼마이크로 및 EPEAT 웹사이트에 게시될 예정”이라고 밝혔다. 생성형 AI에서 고집적 GPU 클러스터의 급증에 따른 데이터센터 에너지 소비문제는 매우 심각하다. 마이클 맥너니 부사장에 의하면, 하이퍼스케일 데이터센터 하나에서 서버, 스토리지, 그리고 네트워킹 인프라를 원활히 작동하기 위해선 100메가와트(MW)의 전력을 필요로 한다. 이는 미국 8만 가구에 전력을 공급할 수 있는 양이다. 그는 “지정학적 여건에 따라 차이는 있지만 세계 각지에서 생산하는 전기 중 약 80%가 석탄, 가스, 석유 등 화석 연료를 연소하는 방식으로 만들어지고 있다”며 “일부 데이터센터와 이를 운영하는 기업이 재생 가능한 에너지로의 전환 또는 화석 연료 소비 감축을 위한 목표를 세우고 있으나, 데이터센터는 여전히 화석 연료를 태우는 전력망을 상당량 사용해 에너지 수요를 충족하고 있다”고 설명했다.. 그는 워크로드에서 에너지를 절감할 수 있는 방안으로 워크로드에 적합한 규모의 시스템 사용, 멀티 노드 및 블레이드 효율성 향상, 주요 서버 시스템의 구성 요소 선택 및 최적화, 서버 시스템 구성 요소의 교체 주기 늘리기 등을 제시했다.  맥너니 부사장은 “데이터센터 내 각 워크로드에 적합한 서버를 선택하면 전력 소비를 크게 줄일 수 있다”며 “최적화된 서버 시스템은 워크로드 요건에 맞춰 불필요한 처리를 최소화하며, 에너지 효율적인 설계와 부품 공유를 특징으로 하는 최신 서버는 와트당 처리량이 많아 전력 사용량을 줄인다”고 설명했다. 그는 “맞춤 설계는 불필요한 기능, 비용, 열 발생을 줄인다”며 “고속 CPU나 광범위한 I/O 기능을 요구하는 등 각 워크로드에 따라 맞춤화 된 서버가 과도한 용량 및 비용을 줄일 수 있다”고 덧붙였다. 다수의 노드에서 전원 공급 장치 및 팬과 같은 리소스를 공유해 부품 중복을 줄이고, 더 크고 효율적인 부품을 사용 가능하도록 함으로써 서버 시스템의 효율성을 높일 수 있다고 그는 강조했다. 그는 “이를 통해 모든 노드가 작동 중일 때 전력 소비를 줄일 수 있다”며 “또 다른 방법은 독립 서버가 네트워킹, 전원 공급 장치, 팬을 공용함으로써 랙 공간 및 케이블을 줄이는 것으로, 이는 공랭식 서버의 에너지 절약에는 케이블로 인한 공기 흐름 방해를 최소화하는 것이 중요하기 때문”이라고 설명했다. 이어 “특히 통합 스위칭 서버의 경우 일반적으로 연결 케이블 수가 적어 섀시 내외부에 전략적으로 케이블을 배치하면 에너지 효율 향상에 도움이 될 수 있다”며 “예를 들어, 1U 랙 마운트 서버 20대 대비 8U 섀시에 블레이드 20개가 탑재된 최신 블레이드 시스템은 케이블이 95% 감소하며, 공기 흐름 개선 및 팬 속도 감소로 인해 전기 사용량도 줄어든다”고 밝혔다.. 주요 서버 시스템의 구성 요소 선택 및 최적화 에 대해선 하드웨어와 워크로드 및 서비스수준협약(SLA) 준수율까지 고려해 새 서버 하드웨어를 구매해야 한다고 했다. 애플리케이션 실행에 소비되는 전력을 줄일 수 있다는 이유다. 그는 “CPU와 GPU 설계가 발전함에 따라 최신 서버의 와트당 성능은 최대 3배 높아지므로, 데이터센터의 서비스를 확장하면서도 필요한 전력량을 유지 또는 감축하려 할 때 도움이 된다”며 “CPU의 경우 코어 수, 클럭 속도, 전력 소모량, 캐시 크기 등의 옵션이 전기 사용량 및 열 출력에 직접적인 영향을 미친다”고 설명했다. 그는 “이메일 서버와 같이 처리 시간이 유연한 워크로드의 경우 저전력 CPU로도 충분할 수 있으며, 데이터베이스 작업과 같이 완료 속도가 중요한 작업에는 고성능 CPU가 적합하다”며 “GPU 같은 가속기는 특정 작업에서 성능을 향상시켜 작동 시간 및 전력 비용을 줄일 수 있는데, 하드 디스크 드라이브(HDD)에서 솔리드 스테이트 드라이브(SSD)로의 전환 시, 특히 I/O 집약적인 애플리케이션에서 데이터 검색 시간 및 전력 소비량이 줄어들며 이는 서버 운영의 전반적인 에너지 효율성에 기여한다”고 했다. 현재 아마존웹서비스(AWS), 마이크로소프트, 구글 등은 자사 데이터센터의 서버시스템 구성요소의 사용연한을 느려 시스템 교체주기를 늦추고 있다. 애플리케이션이 AI 학습이나 콘텐츠 전송 네트워크 등에 더 많은 데이터를 소요함에 따라 서버는 가격과 성능 측면에서 지속적으로 강화돼야 하지만, 서버 구성 요소는 각기 다른 속도로 발전하기 때문에 교체 주기가 서로 일치하지 않을 가능성이 있으며 전자 폐기물로 이어진다. 맥너니 부사장은 “이 때 분리형 방식을 사용한다면 최신 기술이 출시될 때마다 구성품 또는 하위 시스템을 개별적으로 교체할 수 있고, 그 결과로 서버를 통째로 폐기하는 일이 줄어든다”며 “잘 설계된 섀시는 전체가 아닌 각 구성 요소를 기술 주기에 따라 매끄럽게 교체할 수 있다”고 했다. 그는 “서버의 경우 다양한 CPU와 GPU를 수용하도록 설계된다면 전체 유닛을 폐기하지 않고 선택적으로 구성 요소를 업그레이드할 수 있다”며 “이러한 접근 방식은 환경에 미치는 영향을 최소화하는 동시에 서버가 발전하는 기술 요건에 맞춰 최신 상태를 유지하도록 보장한다”고 강조했다. 전세계적으로 데이터센터 에너지 소비 절약에 대한 관심과, 실천 정도는 어느정도일까. 국제에너지기구(IEA)에 따르면 2022년 전 세계 데이터센터에서 소비한 전력량은 460TWh에 달한다. 이는 전체 에너지 소비량 중 약 2%를 차지한다. 이로 인해 주요 국가들은 데이터센터에 대한 에너지 효율 규제를 도입하고 있다. EU는 2023년 10월 'EU 에너지 효율 지침(EED)'를 개정하며 이러한 변화를 선도하고 있다. EED는 2012년에 처음 채택되었으며, 에너지 효율 목표 달성을 위한 규칙 및 의무를 다루고 있다. 이번 개정은 EU가 2030년까지 2020년 기준치 대비 에너지 소비를 11.7% 추가 감축하기로 합의함에 따라 이루어졌다. 연간 에너지 절감 목표는 2023년 0.8%에서 2024년 이후 1.3%, 2030년 1.9%로 증가한다. 김성민 이사는 “세계적인 추세에 따라 우리나라도 구체적인 정책을 시행하기 시작했다”며 “정부가 건물 에너지 관리를 위해 도입한 제로에너지건축물(ZEB) 인증제도가 대표적인 예”라며 “ZEB는 건물의 에너지 부하를 최소화하고 신재생 에너지를 사용해 에너지 소비를 최소화하는 친환경 건축물로, 2017년부터 인증제도를 시행했다”고 설명했다. 그는 “2020년부터 연면적 1000m2 이상의 공공건축물에 의무화됐으며, 이는 민간 건축물까지 확장될 예정”이라며 “민간 데이터센터는 2025년부터 일정량의 재생에너지를 의무적으로 사용해야 한다는 의미로,. ZEB인증은 1) 에너지 효율 등급 1++ 이상, 2) 에너지 자립률 20% 이상, 3) 건물 에너지 관리 시스템(BEMS) 또는 원격 전자 계량기 설치 등을 기준으로 한다”고 했다. 그는 “이러한 정책의 확대는 기업들이 보다 적극적으로 데이터센터의 에너지 소비를 감축하는 데 동참할 수 있도록 장려할 것”이라며 “결과적으로, 전체 전력 소비의 40%를 차지하는 냉각 시스템에 대한 관심이 높아지고, 보다 효율적인 칠러 선택의 중요성도 강조될 것”이라고 덧붙였다. 슈퍼마이크로는 데이터센터 리소스 최적화를 위한 표준화와 비즈니스 경쟁력을 위한 유연성 간의 균형을 맞추기 위해 노력하고 있다. 슈퍼마이크로의 메가DC 및 클라우드DC 제품군은 차세대 하이퍼스케일 데이터센터를 위한 핵심 솔루션으로 제시된다. 버전 관리를 위한 OpenBMC, OCP3.0 SFF 표준을 지원하는 AIOM 모듈, 전력 최적화 설계를 비롯한 개방형 규격의 확장된 지원을 통해 데이터센터 운영자는 기존 인프라를 개조하지 않고도 개방형 컴퓨팅 개념의 이점을 누릴 수 있다고 회사측은 강조한다. 맥너니 부사장은 “슈퍼마이크로의 AIOM은 OCP3.0을 준수하고 향상된 기계 설계는 섀시를 열지 않고 서비스 및/또는 교체가 가능하도록 해 서비스 및 유지보수가 용이하다”며 “AIOM/OCP 3.0을 지원하는 플랫폼은 향상된 열 제어 기능으로 냉각 비용 절감이 가능하며, 소형 폼 팩터에 다양한 네트워킹 옵션이 제공되므로 간편한 구축이 가능하고, 열 효율이 높은 구성 요소를 갖춰 관리와 서비스가 간편하다”고 밝혔다. 그는 “슈퍼마이크로는 OCP 3.0 설계 개념을 활용해 아키텍처에 AIOM을 구현했을 때 아키텍처가 개선된 기성 표준 솔루션을 제공한다”고 덧붙였다.: 슈퍼마이크로의 AIOM 카드는 마더보드 상단에 수직 또는 수평으로 설치되는 기존 PCI-E와 달리 마더보드와 동일한 레벨에 설치되도록 설계됐다. 이로 인해 시스템 전체의 공기 흐름을 크게 증가시켜 열 관리를 개선한다. 기존 PCI-E 카드는 상단에 설치되어 설치 및 교체 시 섀시 상단을 열어야 하는 반면, AIOM 카드는 섀시 후면에서 설치되기 때문에 번거로운 작업이 필요하지 않으며, 풀 탭과 나사 노브로 인해 별도의 도구 없이 서비스 가능하다. 맥너니 부사장은 “슈퍼마이크로는 소형 폼 팩터(SFF), 열 효율성, 손쉬운 서비스 가능성, 그리고 OpenBMC 구현을 통해 서비스 시간을 단축하고 시스템 다운타임을 최소화하는 솔루션을 제공한다”며 “서버부터 랙, 데이터센터 규모까지 AIOM 탑재 솔루션을 도입한다면 인프라가 확장되는 만큼 TCO도 개선된다”고 밝혔다. 2018년 슈퍼마이크로는 실리콘밸리에서 최초로 청정 연료전지 에너지를 사용한 첨단 시설 '빌딩 21'을 공개했다. 이 시설은 로봇을 이용해 60대의 랙을 자동으로 한 번에 번인할수 있는 시설을 갖췄으며, 대규모 데이터센터에 필요한 장비를 신속하게 조립, 공급, 설치할 수 있다. 그는 “약 1만9천 제곱미터 규모의 건물에 생산 라인, 테스트 시설, 번인 시설, 랙 조립 시설이 갖춰져 있고, 슈퍼마이크로는 이와 같은 최첨단 시설을 통해 서버 구축 및 테스트부터 공급 단계까지의 엔드 투 엔드 프로세스를 관리하는 것은 물론, 에너지를 대폭 절약하고 환경 오염을 효과적으로 줄이는 데 앞장서고 있다”며 “빌딩 21을 통해 슈퍼마이크로는 향후 10년간 약 800만 달러의 에너지 비용을 절감할 수 있을 것으로 예상한다”고 강조했다. 슈퍼마이크로는 전세계적인 데이터센터 현대화 추세 속에서 강세를 보이며 급성장하고 있다. 맥너니 부사장은 '그린 컴퓨팅'에 초점을 맞춘 투자와 역량 강화에 있다고 했다. 그는 “전 세계 전력 수요의 1%에서 1.5%까지 소비하는 오늘날의 데이터센터에 그린 컴퓨팅은 매우 중요하다”며 “슈퍼마이크로의 완벽한 랙 스케일 수냉식 솔루션은 기존 냉각 방식의 필요성을 크게 낮추며, 공급 장치와 펌프는 핫스왑 및 이중 전원이 가능해 장애 발생 시 고성능 AI 및 HPC에 최적화된 서버의 랙 전체를 효율적으로 냉각할 수 있다”고 밝혔다. 그는 “이러한 솔루션은 CPU와 GPU 모두에 맞춤 설계된 콜드 플레이트를 사용해 기존 설계보다 효율적으로 열을 제거한다”며 “슈퍼마이크로 기술로 데이터센터 PUE를 1.0에 가깝게 낮출 시 30개의 화석 연료 발전소 건설을 하지 않아도 되며, 그로 인해 최대 100억 달러의 에너지 비용을 절감할 수 있다”고 설명했다. 슈퍼마이크로의 서버는 성능 대비 적은 전력을 사용하도록 설계됐다. 이는 가능한 경우 부품을 공유하는 설계를 통해 이뤄진다. 또한 슈퍼마이크로 서버는 전체 섀시 전체를 교체하지 않고 CPU, 메모리, 스토리지 등 개별 하위 시스템을 업그레이드할 수 있도록 설계됐다. 이러한 분리형 설계를 사용하면 전자 폐기물을 크게 줄이고 새로운 기술을 도입할 때 비용을 절감할 수 있다. 그는 “슈퍼마이크로 그린 컴퓨팅의 핵심은 슈퍼마이크로가 전력 소비를 줄이는 엔비디아, 인텔, AMD 등의 최신 CPU 및 GPU 기술을 통해 최첨단 서버와 스토리지 시스템을 설계, 제조 가능하게 한다는 것”이라며 “슈퍼마이크로의 혁신적인 랙 스케일 수냉식 냉각 옵션을 통해 데이터센터 전력 사용 비용을 최대 40%까지 줄일 수 있다”고 밝혔다. 그는 “엔비디아 HGX H100 8-GPU 서버를 탑재한 슈퍼마이크로의 대표 GPU 서버는 AI 워크로드로 인해 수요가 지속 증가하고 있다”며 “슈퍼마이크로는 전 세계 통틀어 매월 5천 개의 랙을 출하할 수 있으며, 그 결과 매출 200억 달러 달성을 향해 성장할 것으로 기대된다”고 강조했다.

2024.04.25 13:17김우용

[MWC] SKT, 슈퍼마이크로-람다와 AI 데이터센터 시장 공략

SK텔레콤이 슈퍼마이크로, 람다와 협력해 AI 분야 필수 인프라로 손꼽히는 AI 데이터센터(AI DC) 시장 공략에 본격 나선다고 29일 밝혔다. AI DC란 AI 학습과 추론 등에 필수적인 GPU 서버, 안정적 운영을 위한 전력 공급, 열효율 관리를 위한 냉각시스템을 제공하는 AI 시대 차세대 데이터센터다. SK텔레콤은 28일(현지시간) MWC24에서 서버 및 스토리지 시스템 제조 기업 슈퍼마이크로와 글로벌 AI DC 사업을 위한 협약을 체결했다. 슈퍼마이크로는 AI 및 GPU 시장 리더인 엔비디아로부터 칩을 공급받고 있는 주요 협력사다. 특히 최근 1년간 주가가 약 9배 상승하는 등 전 세계 AI 산업에서 가장 주목받고 있는 기업 중 하나다. 슈퍼마이크로는 데이터센터, 클라우드 컴퓨팅, 인공지능(AI), 5G, 엣지 컴퓨팅 등 다양한 시장에서 앱에 최적화된 서버 및 스토리지 시스템을 제공 중이다. 특히, 에너지 절감 및 환경 친화적인 제품을 설계, 구축할 수 있는 점이 큰 경쟁력으로 꼽힌다. 슈퍼마이크로는 SK텔레콤 AI DC에 서버를 공급하는 역할을 맡을 예정이다. 이에 앞서, SK텔레콤은 지난 21일 AI DC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 그래픽 처리장치(GPU)의 안정적 확보를 위해 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 람다는 엔비디아로부터 최신 GPU를 공급 받아 클라우드 서비스를 제공 중인 회사로, SK텔레콤은 람다 투자를 통해 GPU를 안정적으로 확보, 국내 최대 규모의 AI클라우드 역량을 기반으로 하는 AI DC 사업을 추진할 수 있을 것으로 기대하고 있다. 또한 양사는 글로벌 사업 협력을 위한 전략적 파트너십 계약도 상반기 내로 맺고, 국내외에서 AI 클라우드 시장 공략에 나설 계획이다. 최근 업계에서는 다수의 국내 기업들이 보유 중인 서비스 상품과 생성형 AI의 결합에 나선 상황으로, SK텔레콤은 AI 클라우드 시장 수요가 지속적으로 증가할 것으로 전망하고 있다. 양사가 협력할 AI DC는 전통적인 데이터센터와는 달리 다양한 파트너와의 협력이 필수인 분야다. SK텔레콤은 슈퍼마이크로와의 협력에 있어 자사 및 사피온은 물론 SK브로드밴드, SK하이닉스 등 그룹 내 관련 역량을 보유한 관계사와 함께 차별화 전략을 검토할 계획이다. SK텔레콤 통신 네트워크 AI 고도화에 슈퍼마이크로와 협력 SK텔레콤은 슈퍼 마이크로와의 협력을 기반으로 통신 네트워크에 AI를 접목하고 이를 통해 미래 통신 네트워크 엣지 지능화, 고도화에도 나설 계획이다. SK텔레콤은 네트워크 엣지에 AI를 적용하면 고객과 가까운 위치에서 데이터 처리가 가능해 통신 서비스의 성능을 높이고 응답 시간을 줄이는 등 다양한 장점이 있다고 설명했다. SK텔레콤 관계자는 "AIDC와 통신 네트워크의 조합을 통해 통신사 네트워크의 활용도가 크게 증가될 수 있다"라며 "SK그룹 내 다양한 관계사 역량을 결집해 통신 네트워크의 차별화에 나설 것"이라고 밝혔다. AI반도체 사피온 NPU 칩의 새로운 판로 확대 양사는 장기적으로 슈퍼마이크로가 공급하는 AI DC 서버에 AI 반도체 사피온 NPU칩을 탑재하는 것에 대해서도 협력하기로 했다. 또한 슈퍼마이크로가 보유한 글로벌 채널을 통해 사피온 NPU 서버를 전 세계 시장에 판매하는 것도 논의 중이다. SK텔레콤은 슈퍼마이크로와의 협력이 AI DC 활용 노하우 축적은 물론 사피온의 판로 확대에도 도움이 될 것으로 기대하고 있다. 유영상 SK텔레콤 사장은 “글로벌 AI DC 분야 리더 기업들과 협력은 SKT가 명실상부한 글로벌 AI 컴퍼니로 발돋움하기 위한 초석이 될 것”이라며 “슈퍼마이크로, 람다와의 협력을 통해 SKT AI DC는 연내 의미 있는 사업적 성과를 낼 수 있을 것으로 기대하고 있다”고 밝혔다.

2024.02.29 08:00박수형

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

中, 270인치 '마이크로 LED' 공개...삼성·LG 맹추격

[르포] AI가 5초에 한번씩 200도 보일러재 분석…GS EPS '스마트 발전소' 혁신

"삼성전자·SK하이닉스·샌디스크, HBF 준비…2030년 뜰 것"

지스타2025 D-1, 주요 게임사 성장잠재력 엿본다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.