• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'슈퍼마이크로'통합검색 결과 입니다. (18건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

슈퍼마이크로, 'DLC 2·신형 서버'로 컴퓨텍스 정조준…"AI·엣지·클라우드 전방위 공략"

슈퍼마이크로가 대만 최대의 IT 박람회를 앞두고 인공지능(AI) 인프라 주도권 강화를 노리고 차세대 서버 기술을 전면에 내세웠다. 자사 데이터센터 포트폴리오에 대한 시장 신뢰도를 높이고 고성능 컴퓨팅 수요층을 선점하려는 전략이다. 슈퍼마이크로는 16일 온라인으로 '컴퓨텍스 2025' 사전 기자간담회를 개최했다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)가 직접 기조연설을 맡았고 이후 미디어 Q&A 세션을 통해 질문에 실시간으로 답변했다. 간담회에서는 AI·ML, 클라우드, 스토리지, 엣지를 아우르는 차세대 데이터센터 서버를 중심으로 슈퍼마이크로의 기술 로드맵이 공개됐다. 직접액체냉각(DLC) 기술의 고도화와 업계 협업을 기반으로 한 고성능 컴퓨팅(HPC)용 토탈 솔루션이 핵심 발표 내용으로 포함됐다. 찰스 리앙 CEO "AIDC, 설계부터 운영까지…우리가 책임진다" 이날 실리콘밸리 본사에서 실시간으로 접속해 기조연설에 나선 찰스 리앙 슈퍼마이크로 CEO는 차세대 AI 데이터센터 설계의 해법으로 '데이터 센터 빌딩 블록(DC BBs)'과 '직접액체냉각(DLC)'을 제시했다. 기술 경쟁력을 앞세워 고성능·고효율·저비용이라는 세 마리 토끼를 잡겠다는 전략이다. 그는 "AI 데이터센터(AIDC)는 해마다 복잡성과 비용이 높아지고 있다"며 "우리 빌딩 블록은 이 복잡한 문제를 단순화하면서 고객 맞춤형 구성으로 설계부터 설치, 운영까지 전체 프로세스를 최적화할 수 있는 방식"이라고 설명했다. 리앙 CEO에 따르면 슈퍼마이크로는 더 이상 단순한 시스템 기업이 아니다. 오히려 서버 기반 스토리지, 사물인터넷, AI 인프라까지 아우르는 데이터센터 풀스택 인프라 기업으로 진화한 상황이다. 슈퍼마이크로가 이날 공개한 '데이터센터 빌딩블록'은 그래픽처리장치(GPU) 기반 서버를 랙 단위, 시스템 단위, 전력·스토리지·배터리 백업 등 전체 구성 요소와 함께 플러그앤플레이 방식으로 제공하는 토탈 솔루션이다. 설계, 설치, 배선, 소프트웨어까지 전방위 맞춤 구성이 가능해 데이터센터 구축 시간을 단축하고 비용 절감을 유도한다. 리앙 CEO는 "우리 빌딩 블록은 서버, 스토리지, 스위치, 냉각, 배터리, 네트워킹, 케이블링, 운영 소프트웨어, 현장 설계 및 구축까지 모든 것을 포함한다"며 "고객이 원하는 워크로드에 최적화된 구성으로 빠르게 설치해 운영할 수 있도록 설계돼 있다"고 강조했다. 기술적 강점 외에도 회사는 실제 상업화 경험이 있다는 강점이 있다. 지난해만 해도 경쟁사보다 6개월 빠르게 'H100 HGX GPU' 솔루션을 출하하고 DLC 서버 4천 대를 출하했다. 올해에는 'DLC 2'를 통해 다시 한 번 시장을 리드한다는 것이 리앙 CEO의 설명이다. 이번에 소개된 'DLC 2'는 기존 직접액체냉각 방식 대비 전기요금과 물 소비량을 최대 40% 절감할 수 있는 고도화된 냉각 솔루션이다. 소음도 50데시벨 수준으로 기존 대비 대폭 줄였다. 찰스 리앙 CEO는 "이전 DLC 서버는 소음이 약 73데시벨이었지만 'DLC 2'는 도서관 수준인 50데시벨로 낮췄다"며 "냉각수로 실온수를 사용해 냉각탑이나 냉각수 장비 없이도 운영 가능하다"고 강조했다. 이어 "총 데이터센터 비용의 20~30%까지 절감 효과가 있을 것"이라고 내다봤다. 제품별 로드맵도 구체적으로 제시됐다. 슈퍼마이크로는 현재까지 'B200', 'B300', 'GB200', 'GB300' 랙형 서버, AMD 기반의 'MI325X', 'MI350', 'MI355' DLC 시리즈 등 다양한 AI 서버와 DLC 시스템을 확보했다. 이들 중 상당수는 이미 출하됐거나 수주 준비를 마친 상태이며 일부 모델은 엔비디아 GPU 수급 상황에 따라 출하 일정이 결정될 예정이다. 리앙 CEO는 "슈퍼마이크로는 이미 DLC 기반 AI 서버 시장 점유율 80% 이상을 확보했다"며 "이번에 발표한 제품군 역시 두 달 전부터 출하를 시작해 수만 대 이상 공급되고 있다"고 말했다. 또 서버 외에도 스토리지, 고속 네트워크 스위치, 엣지 컴퓨팅, IoT 시스템 등도 함께 전시한다. 기존 90베이 스토리지부터 최신 400G 네트워크 스위치, 브레이드 서버, 트윈 솔루션 등 전체 제품군이 갖춰져 있다는 점을 강조했다. 그는 "우리는 GPU뿐 아니라 전체 인프라를 갖춘 기업"이라며 "시간을 단축하고 효율을 극대화할 수 있는 솔루션을 통해 고객의 비즈니스 성장을 함께 이루겠다"고 말했다. "DLC는 이미 준비 끝"…Q&A서 전략·공급망·시장전망 총정리 기조연설 직후 이어진 미디어 질의 세션에서 찰스 리앙 슈퍼마이크로 CEO는 차세대 데이터센터 인프라 전략, 기술 적용 현황, 시장 전망에 대해 구체적으로 입장을 밝혔다. 그는 각국 기자들의 질문에 직접 답하며 자사의 기술력과 대응 전략을 강조했다. 먼저 직접액체냉각(DLC) 기술의 보편화 가능성에 대한 질문이 나오자 리앙 CEO는 "DLC는 이미 시장에서 검증된 기술"이라며 "지난해에만 4천개 랙, 약 10만 개 시스템을 출하해 글로벌 DLC 시장의 80% 이상을 점유했다"고 말했다. 그는 "기술적으로는 이미 준비가 완료됐지만 고객들이 DLC 기반 데이터센터를 준비하는 데 시간이 걸리는 것이 현실"이라며 "직접 구축 부담을 줄일 수 있도록 데이터센터 빌딩블록 솔루션을 함께 제공하고 있다"고 설명했다. 기업 시장에서 AI 서버 수요를 어떻게 확대할 것이냐는 질문에는 하이퍼스케일 기업과 일반 엔터프라이즈 간 역량 차이를 언급했다. 리앙 CEO는 "하이퍼스케일러는 자체 설계와 구축 역량이 있지만 대부분의 기업 고객은 전문 인력이 부족하다"며 "우리 빌딩 블록은 이러한 엔터프라이즈 고객이 신속하고 효율적으로 데이터센터를 구축할 수 있도록 돕는다"고 밝혔다. 향후 AI 서버 및 범용 서버 시장의 성장 전망에 대해서는 낙관적 입장을 드러냈다. 슈퍼마이크로는 지난 3년간 매출이 4배 이상 증가했기 때문에 향후 3년간은 최소 3배에서 최대 5배까지 성장이 가능할 것이라는 설명이다. 이러한 성장을 견인할 요인으로 '빌딩 블록'과 'DLC 2'의 조합을 들었다. 리앙 CEO는 "우리는 기술적으로 앞서 있을 뿐 아니라 운영비 절감과 빠른 설치가 가능하다"며 "고객사의 도입 속도가 훨씬 빨라질 것"이라고 판단했다. 냉각 기술이 서버 구조 및 랙스케일 설계에 미치는 영향에 대해서도 언급했다. 리앙 CEO는 "원래는 'DLC 2'를 오는 2026~2027년에 출시하려 했지만 기술 성숙도가 기대 이상으로 빨라 올해 여름부터 시장에 공급하게 됐다"고 말했다. 글로벌 공급망 전략에 대한 질문도 나왔다. 리앙 CEO에 따르면 슈퍼마이크로는 미국 실리콘밸리 외에도 대만, 네덜란드, 말레이시아에 생산기지를 운영하고 있다. 말레이시아 캠퍼스는 이미 대량 생산이 가능하며 위탁생산(OEM) 및 대형 고객 대응까지 준비가 완료된 상태다. 실제로 미국에서는 월 5천개 랙 생산 능력을 갖췄고 이 중 2천개는 DLC 서버 전용이다. 말레이시아에서는 초기 월 800개 수준에서 시작했지만 수요에 따라 언제든 두세 배로 확장할 수 있다. 그는 "다양한 지역에 제조 거점을 두고 있어 관세 이슈나 공급망 리스크에도 유연하게 대응할 수 있다"며 "수요만 있다면 생산량은 언제든 두세 배로 늘릴 수 있다"고 말했다. GPU 전력 소비 증가에 따른 데이터센터 전략에 대해서는 DLC의 효율성을 다시 강조했다. DLC는 초기 설비 비용도 기존 대비 낮으며 운영비 절감 폭이 최대 30%까지 가능하다는 것으로, 고밀도 서버 운영이 필요한 환경일수록 효과가 보다 커진다는 입장이다. 또 AI 칩 아키텍처가 다양화되는 상황에서 어떻게 호환성과 성능 최적화를 동시에 달성하는지에 대해서도 답했다. 리앙 CEO는 "우리는 창립 초기부터 빌딩블록 구조를 채택해 다양한 구성과 워크로드에 최적화된 설계를 빠르게 제공할 수 있다"고 말했다. 액체냉각 방식과 공랭식이 공존하는 현 시점에서 어느 환경에 어떤 방식이 더 적합한지에 대해서도 견해를 밝혔다. DLC는 추가 비용 없이 구현이 가능하며 오히려 냉각 효율성과 에너지 절감을 고려하면 공랭식보다 경제적이라는 설명이다. 찰스 리앙 슈퍼마이크로 CEO는 행사를 마치며 "우리는 오는 '컴퓨텍스 2025' 행사에서 이 같은 전략 제품과 솔루션을 대거 선보일 예정"이라며 "현장에서 다시 만나기를 기대한다"고 말했다.

2025.05.16 16:20조이환

AI 투자 열기 식었나…빅테크 움직임에 슈퍼마이크로 실적도 '뚝'

최근 미국 상호관세 영향으로 글로벌 불확실성이 여느 때보다 높아진 가운데 빅테크 기업들이 AI 인프라 지출을 줄이려는 모습을 보이자 서버 업체들도 타격을 입는 모양새다. 30일 블룸버그통신에 따르면 미국 서버 제조업체 슈퍼마이크로컴퓨터는 회계연도 3분기(1~3월) 잠정 실적을 발표하자 주가가 시간외 거래에서 한 때 19%까지 떨어졌다. 이 기간 동안 실적이 시장 예상치를 하회했기 때문이다. 슈퍼마이크로의 3분기 매출은 45억~46억 달러, 주당 순이익은 0.29∼0.31달러로 집계됐다. 이는 애널리스트들이 예상한 53억5천만 달러는 물론, 슈퍼마이크로의 가이던스(55억 달러)에 크게 못 미치는 수치다. 주당 순이익 역시 월가 예상치인 0.53달러, 자체 전망치 0.46~0.62달러를 하회했다. 다만 매출은 지난해 같은 기간 대비 18% 증가했다. 그러나 1년 전에 기록했던 200% 성장보다는 폭이 대폭 줄어들었다. 분기 총이익률도 구형 제품에 대한 재고 평가충당금 증가와 신제품 출시를 위한 긴급 조달 비용 증가 등의 영향으로 전 분기보다 2.2%p 하락했다. 슈퍼마이크로는 최근까지 고성능 그래픽처리장치(GPU) 기반 AI 서버 수요 급증에 힘입어 투자자들 사이에서 AI 수혜주로 각광 받아왔다. 지난 2월에는 오는 2026년 6월 종료되는 회계연도에 매출을 400억 달러까지 확대하겠다는 장기 전망을 제시하기도 했다. 이는 올해 예상 매출의 두 배에 달하는 수준이다. 하지만 최근 빅테크들이 AI 투자에 대한 속도 조절에 나서면서 슈퍼마이크로도 타격을 입게 됐다. 실제 마이크로소프트(MS)는 인도네시아, 영국, 호주뿐만 아니라 미국 내 일리노이, 노스다코타, 위스콘신주 등 여러 지역에서 데이터센터 부지에 대한 협상을 중단하거나 설립 계획을 연기했다. 앞서 미국 투자은행 TD 코헨은 MS가 미국과 유럽에서 약 2기가와트(GW) 용량에 해당하는 새로운 데이터 프로젝트를 중단했으며, 지난 2월에는 최소 두 곳의 민간 운영 업체와 체결했던 데이터센터 임차 계약도 취소했다고 밝힌 바 있다. 아마존도 일부 데이터센터 임대 협상을 중단한 것으로 알려졌다. 미국 대형은행인 웰스파고 애널리스트들은 아마존의 임대 중단 규모가 명확하지 않지만 최근 마이크로소프트의 임대 축소와 유사하다고 평가했다. 슈퍼마이크로도 이 같은 분위기 탓에 실적이 부진했음을 시사했다. 슈퍼마이크로는 이번 분기 실적에 대해 "일부 고객이 구매를 연기하면서 매출이 다음 분기로 이연됐다"고 설명했다. 우진호 블룸버그 인텔리전스 애널리스트는 "슈퍼마이크로의 매출이 가이던스 대비 15% 하회한 것은 초대형 AI 계약에 과도하게 의존한 결과"라며 "구형 GPU 재고 증가와 고객 납품 지연은 엔비디아의 차세대 블랙웰(Blackwell) 칩 기반 신제품 출시 전까지 고객이 구매를 미룰 수 있음을 시사한다"고 분석했다. 이 탓에 슈퍼마이크로의 주가는 이날 뉴욕 증시 정규장에서 3.41% 내렸으나, 잠정 실적 발표 후 시간외 거래에서는 약 15% 폭락했다. 한 때 19%까지 떨어지기도 했다. 이는 경쟁사들의 주가에도 영향을 줬다. 서버 경쟁업체인 델 테크놀로지스의 주가는 약 5%, 휴렛팩커드 엔터프라이즈는 2% 하락했다. 엔비디아의 주가도 약 2% 떨어졌다. 슈퍼마이크로 주가는 이미 최근 12개월간 60% 하락한 상태다. 지난해 8월 연간 재무 보고서 제출 기한을 넘겼고, 같은 해 10월에는 감사기관인 언스트앤영(EY)이 회사의 지배구조 및 투명성 문제를 이유로 사임하면서 상장 폐지 위기에 몰리기도 했다. 그러나 재무보고서를 2차 마감 시한인 지난 25일 미국 증권거래위원회(SEC)에 제출하면서 나스닥 상장 폐지 위기를 넘겼다. 슈퍼마이크로는 오는 5월 6일 오후 5시에 이번 실적에 대한 컨퍼런스콜을 개최할 예정이다. 업계 관계자는 "이번 분기의 부진한 실적이 일시적 문제인지, AI 투자의 전반적인 지연을 의미하는지가 컨퍼런스콜을 통해 드러날 것으로 예상된다"고 말했다.

2025.04.30 10:58장유미

"AI 연산 획기적 향상"…슈퍼마이크로, 엔비디아 블랙웰 울트라 플랫폼 기반 솔루션 공개

슈퍼마이크로가 인공지능(AI) 연산 성능을 향상할 수 있는 차세대 AI 솔루션을 선보인다. 슈퍼마이크로는 엔비디아 블랙웰 울트라 플랫폼을 탑재한 새로운 서버·랙제품군을 공개했다고 27일 밝혔다. 슈퍼마이크로의 새로운 AI 제품군은 엔비디아 'HGX B300 NVL16'와 'GB300 NVL72' 플랫폼을 탑재해 AI 추론, 에이전틱 AI, 비디오 추론 등 고성능 연산 AI 워크로드에서 높은 성능을 제공한다. 엔비디아 블랙웰 울트라 플랫폼은 GPU 메모리 용량과 네트워크 대역폭 제약으로 발생하는 병목현상을 해소하고 대규모 클러스터 환경에서 요구되는 AI 워크로드를 안정적으로 처리할 수 있도록 설계됐다. GPU당 288GB의 HBM3e 고대역폭 메모리가 탑재돼 초대규모 AI 모델의 학습·추론에서 향상된 AI 플롭스(FLOPS)를 구현한다. 또 네트워킹 플랫폼에 엔비디아 퀀텀-X800 인피니밴드와 스펙트럼-X 이더넷을 통합해 최대 800Gb/s의 컴퓨팅 패브릭 대역폭을 제공한다. 슈퍼마이크로와 엔비디아는 이번 공개한 차세대 AI 솔루션을 통해 AI 분야에서의 리더십을 더욱 공고히 한다는 목표다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "자사의 데이터센터 빌딩 블록 솔루션을 활용해 엔비디아 HGX B300 NVL16 GB300 NVL72의 열 관리 및 내부 토폴로지(topology)에 최적화된 새로운 공냉식·수냉식 냉각 시스템을 구현했다"며 "이 시스템은 수자원을 절약하면서 전력 소비도 최대 40%까지 줄여 엔터프라이즈 데이터센터의 환경적·운영적 측면에서 상당한 이점을 제공한다"고 설명했다. 이어 "자사는 엔비디아와 오랜 파트너십을 지속하며 엔비디아 블랙웰 울트라 플랫폼을 기반으로 한 최신 AI 기술을공개하게 돼 기쁘다"고 덧붙였다.

2025.03.27 12:05한정호

슈퍼마이크로, 엔비디아 GPU 지원 서버 제품군 확대…"AI 모델 추론 극대화"

슈퍼마이크로가 인공지능(AI) 워크로드 처리 성능을 극대화할 수 있는 엔비디아 GPU 지원 제품군을 선보인다. 슈퍼마이크로는 새로운 엔비디아 'RTX 프로 6000 블랙웰 서버 에디션' GPU 지원과 워크로드 최적화 GPU 서버·워크스테이션 제품군을 확장했다고 26일 밝혔다. 슈퍼마이크로의 새로운 제품군은 엔비디아 블랙웰 세대 PCIe GPU에 최적화돼 더 많은 기업이 ▲거대언어모델(LLM) 추론 ▲미세조정 ▲에이전틱 AI ▲시각화 ▲그래픽·렌더링 ▲가상화 등에 가속 컴퓨팅을 활용할 수 있도록 지원한다. 슈퍼마이크로의 많은 GPU 최적화 시스템은 엔비디아 인증을 획득했으며 AI 개발과 프로세스 단순화를 위해 엔비디아 AI 엔터프라이즈에 대한 호환성과 지원을 보장한다. 찰스리앙(Charles Liang) 슈퍼마이크로 최고경영자(CEO)는 "자사는 다양한 엔터프라이즈 환경에서 구축할 수 있는 광범위한 애플리케이션 최적화 GPU 서버 제품군을 매우 짧은 리드타임으로 제공한다"며 "엔비디아 RTX 프로 6000 블랙웰 서버 에디션 GPU를 지원함으로써 데이터센터부터 지능형 엣지까지 최신 가속 컴퓨팅 기능을 구현하려는 고객에게 새로운 차원의 성능과 유연성을 제공한다"고 말했다. 이어 "자사의 광범위한 PCIe GPU 최적화 서버는 엔비디아 2-웨이(way) 및 4-웨이 NV링크 환경에서 엔비디아 H200 NVL을 지원한다"며 "최첨단 AI 모델의 추론 성능을 극대화하고 고성능 컴퓨팅(HPC) 워크로드를 가속할 것"이라고 설명했다. 엔비디아 RTX 프로 6000 블랙웰 서버 에디션은 AI와 그래픽 워크로드 모두에 최적화된 범용 GPU다. 기존 엔비디아 L40S 대비 GDDR7 메모리 속도가 빨라지고 메모리 용량이 두배로 늘어나는 등 성능이 크게 향상됐다. 또 PCIe 5.0 인터페이스를 지원해 GPU와 CPU 사이의 통신 속도도 빨라졌다. 새로운 멀티 인스턴스 GPU 기능을 통해 GPU 하나를 공유할 수 있는 완전 분리된 인스턴스 수도 최대 4개까지 확장됐다. 슈퍼마이크로 GPU 최적화 서버는 블루필드-3와 커넥트X-8과 같은 엔비디아 슈퍼NIC을 지원하도록 설계됐으며 엔비디아의 퀀텀 인피니밴드와 스펙트럼 이더넷을 활용해 인프라 확장과 GPU 클러스터링을 제공한다. 밥 피트(Bob Pette) 엔비디아 엔터프라이즈 플랫폼 담당 부사장은 "RTX 프로 6000 블랙웰 서버 에디션은 AI와 비주얼 컴퓨팅을 위한 최고의 데이터센터 GPU"라며 "가장 까다로운 워크로드에서도 전례 없는 가속 성능을 제공한다"고 말했다. 이어 "슈퍼마이크로의 광범위한 엔비디아 가속 시스템에 RTX 프로 6000 블랙웰 서버 에디션이 추가됨으로써 AI 개발·추론을 포함한 대부분의 워크로드 속도를 높일 수 있게 됐다"고 덧붙였다.

2025.03.26 17:19한정호

[유미's 픽] '블랙웰' 서버 쏟아지는데 韓 '잠잠'…AI 3대 강국 꿈 멀어지나

인공지능(AI) 서버 시장을 주도하고 있는 주요 업체들이 엔비디아의 차세대 그래픽처리장치(GPU) '블랙웰'을 탑재한 제품을 잇따라 출하하면서 세대교체가 본격화되는 분위기다. '블랙웰'이 기존보다 발열이 심한 탓에 수랭식 냉각 시스템을 적용한 데이터센터를 중심으로 이 서버를 도입할 수 있다는 제약이 있지만, AI 기술 경쟁에 나선 기업들은 선제적으로 물량을 확보하기 위해 대규모 투자에 적극 나서고 있다. 24일 업계에 따르면 일론 머스크 테슬라 최고경영자(CEO)가 만든 AI 기업 xAI는 미국 서버업체 델 테크놀로지스와 최근 50억 달러(약 7조원) 이상 규모의 서버 구매 계약을 체결할 것으로 알려졌다. 이 서버는 엔비디아의 'GB200' 시스템을 탑재한 것으로, xAI가 현재 테네시주 멤피스에 짓고 있는 데이터센터에 적용될 것으로 전해졌다. 'GB200'은 엔비디아의 GPU '블랙웰'이 장착된 시스템으로, 대규모 AI 모델 훈련 및 추론에 필요한 컴퓨팅 성능을 제공한다. 엔비디아는 '블랙웰'을 출시하면서 72개의 GPU와 36개의 중앙처리장치(CPU)를 결합한 GB200 NVL72 형태로 판매하고 있다. 수랭식 엔비디아 GB200 NVL72는 공랭식 엔비디아 'H100' 시스템 보다 최대 25배 더 효율적인 것으로 평가 받고 있다. 블랙웰 기반 'B100' 제품의 경우 호퍼 기반의 'H100' 제품보다 AI 추론 성능이 30배 향상된 것으로 분석됐다. 이에 경쟁사인 다른 빅테크들도 '블랙웰'이 탑재된 서버 출시를 앞두고 대규모 투자 계획을 내놓은 상태다. 구글 모회사 알파벳은 올해 AI 인프라 등에 약 750억 달러(한화 109조원)를, 마이크로소프트(MS)는 전년보다 60% 늘어난 800억 달러를 AI 분야에 투자키로 했다. 페이스북 모회사 메타도 650억 달러를 투자할 계획이라고 밝혔다. 최근 오픈AI와 소프트뱅크, 오라클 등이 함께 추진하고 있는 '스타게이트'도 전 세계 AI 관련 시설 투자 확대 움직임에 불을 지폈다. 이 업체들은 합작 벤처 형태로 미국 내 AI용 데이터센터 건설에 최대 5천억 달러(약 730조원)를 향후 4년간 투자하는 방안을 구상 중이다. 또 이 기업들은 이미 델과 폭스콘, 윈스트론 등 협력사를 통해 '블랙웰' GPU 기반 제품 주문도 넣은 것으로 전해졌다. 모건스탠리는"올해 세계 10대 클라우드 업체의 설비 투자 금액은 지난해보다 약 32% 늘어난 3천500억 달러(약 504조4천억원)에 이를 것으로 보인다"며 "스타게이트가 전 세계 AI 시설 투자 확대를 주도하는 역할을 담당하고 있다"고 분석했다. 이에 맞춰 서버업체들의 움직임도 분주해졌다. 업계 강자인 델 테크놀로지스는 지난해 말부터 일찌감치 '델 파워엣지 XE9712'를 AI 하이퍼스케일러 기업인 '코어위브(CoreWeave)'에 공급해 주목 받았다. 엔비디아 'GB200'을 탑재한 서버를 고객에 납품한 것은 델 테크놀로지스가 업계 처음이다. '델 파워엣지 XE9712'는 엔비디아 기반 델 AI 팩토리 포트폴리오에 속한 제품으로, 대규모 AI 구축 환경의 거대언어모델(LLM) 학습 및 실시간 추론을 위한 고성능의 고집적 가속 컴퓨팅을 제공한다. 또 '블랙웰' 아키텍처 기반인 'GB200 NV L72'를 탑재해 우수한 GPU 집적도를 보여준다. 슈퍼마이크로도 지난 5일 '블랙웰'을 활용한 AI 데이터센터용 서버를 대량 생산 및 공급할 수 있게 됐다고 발표하며 고객 확보에 본격 나섰다. HPE 역시 지난 20일 '블랙웰' 기반 첫 번째 솔루션인 엔비디아 'GB200 NVL72'를 공식 출하한다고 밝혔다. 직접 서버를 만들어 판매하는 ODM 업체들도 일정 차질 없이 '블랙웰'을 탑재한 서버 공급을 진행 중인 것으로 알려졌다. 대표적인 ODM 업체인 대만 폭스콘은 지난해 4분기에 소량 공급을 시작한 후 올해 1분기부터 생산량을 확대할 계획이다. 콴타도 올해 1분기부터 대량 생산을 개시할 예정이다. 이처럼 서버업체들이 '블랙웰'을 탑재한 AI 서버를 속속 내놓고 있지만, 업계에선 당장 세대교체가 쉽진 않을 것으로 봤다. '블랙웰'의 발열 문제와 함께 가격이 '호퍼' 대비 50~60% 높아 부담이 크기 때문이다. '호퍼' 가격은 개당 4만 달러(한화 5천만원)가 넘는 것으로 알려졌다. 발열 문제에 따른 시스템 구축 비용도 만만치 않다. 현재 대부분의 데이터센터 냉각 방식은 공랭식(공기로 냉방)이 압도적으로 많은 상태지만, '블랙웰'의 발열을 잡기 위해선 투자 비용이 더 많이 드는 수랭식(냉각수로 냉방) 시스템이 갖춰져야 하기 때문이다. 앞서 젠슨 황 엔비디아 CEO도 "차기 GPU인 '블랙웰'부터는 데이터센터에 수랭식을 도입하기 바란다"고 밝힌 바 있다. 이에 '쩐의 전쟁'에서 밀리고 있는 국내 업체들은 미국 빅테크들과 달리 '블랙웰' 탑재 서버 출하 소식에도 머뭇거리고 있다. 네이버클라우드, KT클라우드, NHN클라우드 등 토종 클라우드서비스제공사업자(CSP)를 비롯해 삼성SDS 등 대규모 데이터센터를 보유한 국내 업체들은 아직까지 선뜻 도입하기를 꺼려하는 분위기다. 업계 관계자는 "국내 데이터센터는 대부분 공랭식 시스템으로 냉각 방식이 운영되고 있다"며 "'블랙웰'은 데이터센터 설계 때부터 수랭식 시스템 도입이 고려된 곳을 중심으로 적용할 수밖에 없다 보니 국내에선 이를 감당할 수 있는 곳이 거의 없는 것으로 안다"고 설명했다. 이어 "기존 데이터센터를 운영하는 곳보다는 신축 데이터센터를 지으려 나선 기업들을 중심으로 '블랙웰' 탑재 서버를 도입할 수 있을 듯 하다"고 덧붙였다. 이 탓에 국내 기업들은 AI 기술 경쟁력을 끌어올리는 요소로 아직까지 엔비디아 '호퍼'를 기반으로 한 GPU를 경쟁 요소로 삼는 분위기다. NHN클라우드가 광주 AI 데이터센터에 1천 개 이상의 'H100'을, KT클라우드가 자사 AI 훈련 서비스에 'H200'을 도입한다는 점을 앞세워 홍보하는 것이 대표적인 예다. 다만 자체 데이터센터를 보유하고 있는 일부 기업들이 최근 액침냉각 시스템 도입을 잇따라 추진하고 나섰다는 점에서 국내에서도 '블랙웰' 기반 서버 도입이 머지 않았다는 전망도 있다. 현재 국내에서 액침냉각에 관심을 보이고 있는 곳은 SK텔레콤과 삼성SDS, LG CNS 등이다. 특히 삼성SDS는 지난 2022년 12월 가동을 시작한 동탄 데이터센터에 수랭식 시스템과 함께 액침냉각 시스템 적용을 위한 관련 인프라를 갖춰 놓은 상태다. 서버 강자인 델 테크놀로지스와 끈끈한 관계를 유지하고 있다는 점에서 국내에서 '블랙웰' 서버 도입을 가장 먼저 추진할 수도 있을 것이란 기대감을 높이고 있다. 업계 관계자는 "클라우드 컴퓨팅 서비스를 제공하는 CSP들은 엔비디아 고성능 GPU를 얼마나 확보했는지가 중요한 경쟁력이 됐다"며 "지난해 엔비디아, 델 테크놀로지스와 다양한 협업 움직임을 보여줬던 삼성SDS가 'B100' 물량을 확보하게 되면 경쟁사들의 긴장감은 더 해질 것"이라고 내다봤다. 서버 업계 관계자는 "현재 국내에선 삼성SDS와 삼성전자, 네이버, 카카오 등이 블랙웰이 탑재된 서버 도입에 상당한 관심을 가지고 있는 상태"라면서도 "블랙웰에 대한 관심은 높지만 비용 부담이 커 국내에선 호퍼 기반의 서버가 한참 더 인기를 끌 것으로 보인다"고 전망했다. 이에 일각에선 우리나라 정부가 최근 미국, 중국에 이어 'AI 3대 강국'을 목표로 AI 인프라 투자에 나설 것이라고 발표했다는 점에서 기대감을 드러내기도 했다. 현재 AI 경쟁력의 핵심인 데이터센터 개수는 국내 188개로, 미국 5천381개, 독일 521개 등에 비하면 턱없이 부족하다. 소프트웨어정책연구소에 따르면 2023년 한국의 'H100' 보유량은 약 2천 개로, 같은 기간 메타의 15만 개에도 한참 못 미친다. 중국 딥시크가 확보한 A100 1만 장(H100 환산 기준 최소 2천500개)에도 모자란다. 이 같은 상황에서 정부는 민관합작 투자를 통해 SPC를 설립, 2조원 가량을 투입해 오는 2027년께 국가AI컴퓨팅센터를 오픈한다는 계획이다. 초기에는 GPU 등 해외 AI반도체를 중심으로 인프라를 구축하되 점차 국산 AI 반도체 비중을 늘리기로 했다. 비중은 2030년까지 50%로 높이는 것이 목표다. 업계 관계자는 "국내 기업들은 미국 빅테크들과 비교해 자금력이 부족한 탓에 수급난이 발생하면 우선 순위에서 밀리는 등 엔비디아 고성능 칩을 확보하기가 쉽지 않았다"며 "정부에서 이처럼 나서 국가AI컴퓨팅센터가 설립되면 최신 칩을 확보해 활용하는 것이 좀 더 수월해질 것으로 기대된다"고 밝혔다.

2025.02.24 17:58장유미

'인텔 지원군' 슈퍼마이크로, 고성능 '제온' 탑재한 서버로 시장 공략

인텔이 데이터센터 서버에 적용되는 칩 시장 내 입지 확대를 위해 적극 나서고 있는 가운데 슈퍼마이크로컴퓨터가 든든한 지원군으로 나섰다. 슈퍼마이크로는 인텔 제온 6900 시리즈 프로세서(P-코어) 기반의 고성능 X14 서버를 대량으로 출하하고 있다고 15일 밝혔다. 이 서버는 엄청난 양의 그래픽처리장치(GPU)를 요구하는 작업 환경은 물론, 대규모 AI, 클러스터 규모 고성능컴퓨팅(HPC) 등 고성능 워크로드에 최적화된 새로운 아키텍처와 업그레이드된 기술을 제공한다. 슈퍼마이크로 X14 서버는 수냉식 냉각 기능을 제공하는 GPU 최적화 플랫폼 등의 모델로 출시된다. 슈퍼마이크로는 점프 스타트 프로그램 등을 통해 X14 서버를 원격 테스트 및 검증할 수 있도록 지원하고 있다. 이번 일로 인텔이 시장 내 입지를 탄탄하게 굳힐 수 있을지도 주목된다. 현재 시장에서는 GPU 가속 서버의 73%가 호스트 CPU로 '인텔 제온'을 사용하고 있다. 인텔은 AI 가속기 시장에서도 CPU 리더십을 기반으로 고객사들이 보다 비용 효율적인 시스템을 구축할 수 있을 것으로 보고 있다. 찰스 리앙 슈퍼마이크로 사장 겸 최고경영자(CEO)는 "현재 대량으로 출하되고 있는 X14 서버는 전 세계 고객에게 강력한 기능과 향상된 성능을 제공한다"며 "새로운 애플리케이션에 최적화 기술을 탑재한 전체 제품군을 출시할 수 있던 것은 자사만의 서버 빌딩 블록 솔루션(Server Building Block Solutions) 설계 덕분"이라고 말했다. 이어 "다양한 규모의 솔루션을 공급할 수 있는 글로벌 역량과 타의 추종을 불허하는 자체 개발 수냉식 냉각 솔루션을 통해 업계를 최고 성능 컴퓨팅을 향한 새로운 시대로 이끌 것"이라고 덧붙였다.

2025.01.15 11:26장유미

델·슈퍼마이크로에 밀리던 HPE, 일론 머스크 덕에 AI 서버 시장서 존재감 '업'

일론 머스크 테슬라 최고경영자(CEO)가 운영하는 소셜네트워크 X(옛 트위터)가 인공지능(AI) 서비스 강화를 위해 HPE의 서버를 택했다. 머스크가 설립한 AI 스타트업 xAI와 서버를 공유하기 위한 것으로, 이번 일로 AI 서버 시장 내 HPE의 위상도 한층 올라섰다는 평가다. 13일 블룸버그통신 등에 따르면 X는 최근 AI 서버를 새롭게 구축하기 위해 HPE와 10억 달러(약 1조4천700억원)가 넘는 계약을 맺은 것으로 알려졌다. 이번 계약은 AI 서버 업체인 델 테크놀로지스, 슈퍼마이크로 등도 참여한 경쟁 입찰을 거쳐 지난해 말 마무리됐다. AI 서버 비용 중 일반적으로 그래픽처리장치(GPU)가 절반을 차지한다는 점을 고려해 볼 때 이번 계약에서 GPU는 5억 달러 규모로, 1만 개 이상의 엔비디아 '블랙웰' GPU가 투입될 것으로 추산됐다. 머스크 CEO의 이 같은 움직임은 그가 공동 창립했지만 떠난 챗GPT 개발사 오픈AI를 의식한 행보로 풀이된다. 머스크 CEO는 지난 2023년 xAI를 설립한 후 인재 채용은 물론, 수십억 달러 규모의 투자 유치, 미국 테네시주 멤피스 내 데이터센터 건설 등으로 글로벌 AI 시장에서 xAI의 경쟁력을 강화해 오픈AI를 뛰어 넘기 위해 안간힘을 쓰고 있다. 특히 최근에는 xAI를 위한 자체적인 데이터센터를 미국 전역에 건설하며 AI 인프라 강화에 총력을 기울이고 있다. X와 xAI는 AI 인프라를 공유하는 것으로 알려진 만큼, 새로운 서버는 xAI의 AI 챗봇 '그록' 개발과 운영에 활용될 가능성이 크다. 앞서 xAI는 지난달부터 X를 통해 '그록'의 무료 버전을 제공해왔으나, 최근 앱까지 출시하며 이용자 확보에 본격 나선 상태다. '그록' 앱은 이번에 초기 베타 서비스로 미국에서만 아이폰 앱스토어에 먼저 출시됐다. 이번 일로 HPE도 시장 내 입지가 더 높아질 것으로 보인다. HPE는 그간 AI 서버 시장에서 델 테크놀로지스, 슈퍼마이크로에 비해 존재감이 다소 밀리는 분위기였다. xAI가 세계 최대 규모인 데이터센터 '콜로서스'에도 델 테크놀로지스, 슈퍼마이크로만 택했다는 소식이 전해지기도 했다. 블룸버그통신은 "HPE의 AI 서버 사업은 델과 슈퍼마이크로에 비해 상대적으로 뒤처진 것으로 여겨져 왔다"며 "하지만 이번 계약으로 HPE에 대한 xAI의 신뢰가 드러났다"고 평가했다. 그러면서 "AI 서버에는 엔비디아를 비롯한 여러 회사의 고성능 칩이 탑재돼 있다"며 "HPE의 수냉식 기술이 이번 계약에 중요한 역할을 한 것으로 보인다"고 덧붙였다. 이처럼 xAI 외에도 마이크로소프트, 아마존 등 빅테크들이 최근 AI 인프라에 투자 속도를 높이고 있다는 점에서 AI 서버 시장은 앞으로도 훈풍이 불 것으로 보인다. 아마존웹서비스(AWS)는 이달 들어 미국 조지아주의 데이터센터 확장을 위해 최소 110억 달러(약 15조원)를 투입하겠다고 밝혔다. 지난해 12월에는 미국 오하이오주에 데이터 센터 확장을 위해 2030년까지 230억 달러(약 33조원)를 지원하겠다고 발표했다. 마이크로소프트도 올해 6월까지 데이터센터에 800억 달러(약 118조원)를 투자하겠다고 밝혔다. 비저블 알파의 조사에 따르면 MS의 2025 회계연도 자본 지출은 842억4천만 달러에 이를 것으로 예상된다. 이는 전년보다 42%가 늘어난 것이다. 시너지 리서치 그룹은 데이터센터 인프라 지출이 지난해 34% 증가한 2천820억 달러에 이를 것으로 추산했다. 시너지 리서치 그룹은 "지난해에는 엔비디아의 폭발적인 성장이 단연 주목됐다"며 "하지만 이 중 많은 부분은 서버 및 시스템 공급업체의 매출 증가를 통해 나타났다"고 설명했다.

2025.01.13 10:41장유미

[유미's 픽] "블랙웰 발열? 신경 안 써"…델·슈퍼마이크로 등 서버업계, AI 서버 공급 본격화

엔비디아의 차세대 그래픽처리장치(GPU) '블랙웰'의 발열 문제가 다시 불거진 가운데 서버업체들이 크게 개의치 않고 기존 계획대로 고객사에 납품할 채비에 나섰다. 열을 잡기 위해 수랭식(흐르는 물)도 잇따라 도입하는 모습이다. 26일 업계에 따르면 델 테크놀로지스와 슈퍼마이크로, 대만 폭스콘, 콴타 등 서버 업체들은 최근 '블랙웰'이 탑재된 서버를 잇따라 고객사에 납품하기 시작했다. 엔비디아 '블랙웰'은 2천80억 개 트랜지스터를 탑재한 AI칩으로, 트랜지스터 800억 개인 엔비디아의 차세대 AI칩 'H100' 보다 2.5배 많은 수준이다. 트랜지스터가 많을수록 칩 성능이 좋아진다. 그러나 '블랙웰'은 올 들어 생산 과정에서 수차례 결함이 발견되면서 출시가 계획대로 이뤄지지 않았다. 엔비디아는 지난 3월 '블랙웰'을 처음 공개하며 2분기 중 출시할 수 있다고 공언했다. 하지만 이후 설계 결함이 발견되면서 출시 시기가 예정보다 최소 3개월 늦춰졌다. 또 지난 8월에는 블랙웰을 4분기부터 양산할 계획이라고 발표했으나, 최근 다시 서버 과열 문제가 불거졌다. 이에 '블랙웰'을 사전 주문한 마이크로소프트(MS)·메타·오픈AI·xAI 등 빅테크 업체들은 제품 출시 지연에 대비해 엔비디아의 AI 칩인 'H100'과 'H200' 등 '호퍼' 제품군 주문을 늘리는 방안을 검토하고 있는 것으로 알려졌다. 하지만 서버업체들의 분위기는 다르다. 델 테크놀로지스는 최근 '델 파워엣지 XE9712'를 인공지능(AI) 하이퍼스케일러 기업인 '코어위브(CoreWeave)'에 공급했다. 엔비디아 'GB200'을 탑재한 서버를 고객에 납품한 것은 델 테크놀로지스가 업계 처음이다. '델 파워엣지 XE9712'는 엔비디아 기반 델 AI 팩토리 포트폴리오에 속한 제품으로, 대규모 AI 구축 환경의 거대언어모델(LLM) 학습 및 실시간 추론을 위한 고성능의 고집적 가속 컴퓨팅을 제공한다. 또 엔비디아의 차세대 '블랙웰' 아키텍처 기반인 'GB200 NV L72'를 탑재해 우수한 그래픽처리장치(GPU) 집적도를 보여준다. 이 플랫폼은 랙 스케일 설계에서 최대 36개의 엔비디아 그레이스 CPU(NVIDIA Grace CPU)와 72개의 엔비디아 블랙웰 GPU(NVIDIA Blackwell GPU) 연결을 지원한다. 72개의 GPU NV링크(NVLink) 도메인은 최대 30배 빠른 실시간 1조 개 파라미터 LLM 추론이 가능한 단일 GPU로서 구동된다. 수랭식 엔비디아 GB200 NVL72는 공랭식 엔비디아 'H100' 시스템 보다 최대 25배 더 효율적이다. 이번 출하와 관련해 마이클 델 델 최고경영자(CEO)는 지난 19일 "엔비디아 블랙웰 시리즈의 GB200 AI 가속기 플랫폼을 탑재한 서버가 운송을 시작했다"며 "수랭식 서버를 통해 공급될 것"이라고 설명했다. 경쟁사인 슈퍼마이크로 역시 최근 엔비디아 '블랙웰'을 탑재한 'HGX B200 8GPU' 시스템을 고객사에 공급 중인 것으로 파악됐다. 이 제품은 수냉식의 냉각 효율성을 바탕으로 기존 슈퍼클러스터보다 GPU 컴퓨팅 집적도를 향상시켰다. 또 열 관리와 전력 공급이 향상됐으며 듀얼 500W 인텔 제온6(8천800MT/s DDR5 MRDIMM 포함), AMD 에픽 9005 시리즈 프로세서를 지원한다. 새롭게 설계된 공냉식 10U 폼 팩터는 열전도 헤드룸이 확장돼 1천 W TDP 블랙웰 GPU 8개를 수용할 수 있다. 다만 엔비디아가 최근 슈퍼마이크로와 거리두기에 나선 것으로 알려져 향후 제품 출하가 계획대로 되지 않을 가능성도 제기됐다. 엔비디아가 '블랙웰'의 공급이 부족한 상황에서 슈퍼마이크로 대신 다른 업체에게 물량을 공급하고 있다는 주장이 나오고 있어서다. 디지타임즈에 따르면 엔비디아는 슈퍼마이크로의 여러 문제에 휘말리고 싶지 않아 이처럼 결정 내린 것으로 알려졌다. 하지만 슈퍼마이크로는 엔비디아와의 협업에 문제가 없다는 입장이다. 찰스 리앙(Charles Liang) 슈퍼마이크로 사장 겸 최고경영자(CEO)는 "세계 최대 규모의 수랭식 AI 데이터센터 프로젝트에 기여할 수 있는 전문성, 배포 속도, 배송 역량을 지니고 있다"며 "최근 엔비디아와 GPU 10만 개 규모의 AI 데이터센터도 성공적으로 구축했다"고 강조했다. 직접 서버를 만들어 판매하는 ODM 업체들도 일정 차질 없이 '블랙웰'을 탑재한 서버 공급을 진행할 예정이다. 대표적인 ODM 업체인 대만 폭스콘은 4분기에 소량 공급을 시작한 후 내년 1분기에 생산량을 확대할 계획이다. 콴타도 내년 1분기부터 대량 생산을 개시할 예정이다. 대만 경제일보는 "(블랙웰에 대한) 우려와 달리 서버업체들은 발열 문제에 대해 들어본 적이 없다고 전했다"며 "폭스콘과 콴타 모두 공급 계획에 차질이 없을 것이라고 밝혔다"고 보도했다. HPE도 블랙웰의 발열 문제를 크게 신경쓰지 않는 분위기다. 이 회사는 지난 17일부터 22일까지 미국 애틀란타주에서 열린 '슈퍼컴퓨팅 2024(SC 2024) 콘퍼런스'에서 블랙웰이 탑재된 'HPE 프로라이언트 컴퓨트 XD685' 서버를 공개하며 제품 출시가 임박했음을 알렸다. 이처럼 서버업체들이 '블랙웰'의 발열 문제에 크게 신경쓰지 않는 것은 엔비디아가 일찌감치 이를 예고해 대비했기 때문으로 분석된다. 앞서 젠슨 황 엔비디아 CEO는 "차기 GPU인 '블랙웰'부터는 데이터센터에 수랭식을 도입하기 바란다"고 밝힌 바 있다. 또 엔비디아가 설계 결함을 발견한 후 빠르게 해결책을 마련해 제품 공급에 나선 것도 주효한 것으로 보인다. 덕분에 엔비디아는 올 4분기 '블랙웰' 매출이 당초 예상인 50~60억 달러를 넘어설 것으로 전망됐다. 젠슨 황 CEO는 "블랙웰 수요가 공급을 여전히 초과하는 현상이 이어지고 있으며 이를 충족하기 위해 노력 중"이라며 "올 4분기에 과거 예상보다 더 많은 블랙웰 GPU를 공급할 수 있을 것으로 기대한다"고 밝혔다. 이어 "모든 업체가 블랙웰 GPU를 원하는 상황"이라며 "TSMC와 몰렉스(커넥터 제조사), SK하이닉스와 마이크론, 폭스콘과 콴타, 델테크놀로지스와 HPE, 슈퍼마이크로 등 공급망 관련 모든 업체와 협력해 수요에 대응하고 있다"고 덧붙였다.

2024.11.26 16:27장유미

'나스닥 퇴출 위기' 슈퍼마이크로, 새 감사인 지정

미국 서버 제조 업체 슈퍼마이크로컴퓨터가 새로운 감사인을 지정하고 거래소 규정을 지키겠다는 계획을 나스닥거래소에 제출했다. 이 같은 행보에 힙입어 슈퍼마이크로 주가가 40% 가까이 폭등했다. 18일(현지시간) 미국 경제방송 CNBC에 따르면 슈퍼마이크로는 이날 미국 회계법인 BDO를 새로운 감사인으로 지정했다. 또 거래소 규정을 지키겠다는 계획을 나스닥거래소에 제출했다. 이런 소식이 알려지자 슈퍼마이크로 주가는 시간외거래에서 39.79% 올라 30.11달러를 기록했다. 앞서 슈퍼마이크로는 미국 증권거래위원회(SEC)에 연례 보고서를 제때 내지 못해 상장 폐지 위기에 몰렸다. 지난달 감사인이 사임했기 때문이다. 슈퍼마이크로가 회계를 조작했다는 의혹에 지난 감사인이 그만둔 것으로 알려졌다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 “거래소가 우리 계획을 살펴보는 동안 슈퍼마이크로 주식은 나스닥 상장을 유지한다”고 말했다. 슈퍼마이크로는 인공지능(AI) 반도체 기업 엔비디아의 AI 칩으로 서버를 만드는 회사다. AI 열풍이 불자 슈퍼마이크로 주가는 지난해부터 2년 동안 20배 이상 치솟았다.

2024.11.19 17:10유혜진

코너 몰린 슈퍼마이크로, 상장 폐지 시 자금도 '빨간불'

회계 부정 의혹으로 곤욕을 치르고 있는 슈퍼마이크로가 상장폐지 위기에 몰린 가운데 자금 문제에도 '빨간불'이 켜졌다. 상장 폐지 시 최대 17억2천500만 달러(약 2조3천883억원)를 조기 상환해야 할 수도 있어서다. 8일 블룸버그통신에 따르면 슈퍼마이크로는 오는 2029년 3월이 되기 전에 상장폐지될 경우 조기에 전환사채 보유자에게 원금을 돌려줘야 하는 계약을 맺고 있는 것으로 파악됐다. 인공지능(AI) 열풍을 타고 날아올랐던 미국 서버 업체 슈퍼마이크로는 이 일로 자금 압박에 시달릴 가능성이 커졌다. 전 직원의 고발로 시작된 회계 의혹은 공매도 업체가 관련 보고서를 내놓은 데 이어 회계감사를 맡았던 법인이 회사의 신뢰성에 의문을 제기한 뒤 사임하면서 겉 잡을 수 없이 확산되고 있다. 특히 감사인 사임으로 8월 마감일까지 연례 10-K 보고서를 제출하지 못해 상장 폐지 위기까지 몰렸다. 나스닥 규정에 따르면 회사는 11월 중순까지 규정 준수를 위한 복구 계획을 제출해야 한다. 이 계획이 승인될 경우에는 내년 2월까지로 추가 제출 시간을 받을 수 있다. 그러나 슈퍼마이크로의 회계 감사인이었던 언스트앤영(E&Y)의 사임과 사임 사유로 인해 후임으로 회계 감사를 구하기 어려워진 상태다. E&Y는 슈퍼 마이크로 경영진의 성실성과 윤리에 대한 의지를 믿을 수 없다며 사임했다. 블룸버그통신은 "슈퍼마이크로의 상장폐지가 현실화 될 가능성이 높아진 상황"이라며 "인공지능(AI) 시장 주요 수혜자인 이 회사의 주가가 급락하는 것은 엄청난 충격이 될 수 있다"고 전망했다. 하지만 슈퍼마이크로 측은 은행들과 장기적으로 좋은 관계를 맺고 있어 부채 부담을 크게 느끼지 않는다는 입장이다. 또 필요에 따라 부채와 관련해 연장을 신청하거나 면제를 받을 예정으로, 자본 문제에 대해 걱정할 필요가 없다는 취지로 애널리스트들에게 의견을 전달한 것으로 알려졌다. 이 회사는 9월 말 기준 약 21억 달러의 현금 또는 이에 상응하는 자산을 보유하고 있는 것으로 전해졌다. 하지만 슈퍼마이크로는 이 같은 상황에 놓이자 최근 다른 부채의 일부를 재조정하고 나섰다. 지난주에는 뱅크 오브 아메리카(Bank of America)와 올해 7월에 체결한 5억 달러 규모의 장기 대출을 선지급하고 해지했다. 또 캐세이 은행과의 대출을 조정해 감사된 재무 자료를 제출하는 기한을 연말까지 연장했다. 이 계약에서 슈퍼마이크로는 1억5천만 달러의 제한 없는 현금을 보유해야 한다는 규정을 추가했다. 슈퍼마이크로의 주가는 맥을 못추고 있다. 이 회사는 AI 반도체 시장을 주도하는 엔비디아의 AI칩을 사용해 특수 서버를 제작하는 업체로, AI 열풍에 힘입어 그간 주가가 급등하는 모습을 보였다. 2018년 말 13.8달러였던 주가는 매년 상승했고, 1대 10의 액면 분할 전인 작년 말 주가가 284달러 수준에서 지난 3월 1천229달러까지 치솟기도 했다. 다만 회계 부정 의혹이 알려진 이후 주가는 곤두박질 치다 지난 7일(현지시간) 뉴욕증시에서 간만에 폭등한 모습을 보였다. 이날 주가는 전거래일보다 12.25% 폭등한 25.48달러를 기록했다. 블룸버그통신은 "슈퍼마이크로의 주가는 3월 정점 이후 81% 하락해 약 530억 달러의 시장 가치가 사라졌다"며 "막대한 부채가 조기에 만기될 가능성이 있다는 점은 확실히 위험하다고 본다"고 밝혔다.

2024.11.08 09:49장유미

'AI 수혜주' 슈퍼마이크로, 하루 만에 주가 32% 빠졌다…무슨 일이길래?

인공지능(AI) 열풍을 타고 날아올랐던 미국 서버 업체 슈퍼마이크로 컴퓨터가 회계 조작 의혹으로 몸살을 앓고 있다. 전 직원의 고발로 시작된 이번 일은 공매도 업체가 관련 보고서를 내놓은 데 이어 회계감사를 맡았던 법인이 회사의 신뢰성에 의문을 제기한 뒤 사임하면서 겉 잡을 수 없이 확산되고 있다. 31일 블룸버그통신에 따르면 회계법인 언스트앤영(Ernst & Young LLP·EY)은 지난 30일(현지시간) 슈퍼마이크로의 감사직에서 사임했다. 회사 거버넌스와 투명성에 대한 우려가 높다는 판단에서다. E&Y는 "최근 알게 된 정보로 인해 경영진과 감사 위원회의 진술을 신뢰할 수 없게 됐고 경영진이 작성한 재무제표와 연관되기를 원하지 않는다"며 "관련 법률과 전문가로서의 의무에 따라 더 이상 감사 서비스를 제공할 수 없다는 결론을 내렸기에 사임한다"고 밝혔다. 2024 회계연도 감사를 위해 지난 3월 고용된 E&Y는 이사회가 찰스 리앙 최고경영자(CEO) 등 경영진으로부터 독립적이지 않다는 점에 대해서도 지적했다. 또 지난 7월 말에는 슈퍼마이크로의 내부 재무 통제, 지배구조(거버넌스) 및 전망에 문제가 있다고 보고했다. 이에 대해 슈퍼마이크로는 E&Y의 사임 결정에 동의하지 않는 동시에 새로운 감사를 찾기 위해 노력 중이라고 입장을 밝혔다. 또 E&Y가 제기한 문제나 이전에 발표된 이사회 특별 위원회에서 고려 중인 문제의 해결책이 이미 종료된 회계연도의 재무결과를 다시 기재하는 결과로 이어지지는 않을 것이라고 강조했다. 이번 일은 지난 4월 슈퍼마이크로에 있던 전 직원인 밥 루옹이 슈퍼마이크로와 함께 찰스 리앙 CEO를 회계 위반 혐의로 고발하며 시작됐다. 또 지난 8월에는 공매도 업체인 힌덴버그 리서치에서 슈퍼마이크로가 회계를 조작했다는 보고서를 내놓기도 했다. 힌덴버그는 보고서에서 슈퍼마이크로에 대한 3개월간 조사를 거쳐 "심각한 회계 문제와 제대로 공시되지 않은 특수관계자 거래에 대한 증거를 발견했다"며 "중국이나 러시아에 대한 반도체 수출 통제를 제대로 준수하지 않았고 고객과의 문제도 있다"고 밝혔다. 이에 슈퍼마이크로는 지난 8월 28일 규제당국에 연차보고서 제출을 연기한다고 밝혔다. 또 미국 법무부는 지난달 슈퍼마이크로의 회계 조작 의혹에 대한 수사에 착수한 것으로 알려졌다. 슈퍼마이크로는 AI 반도체 시장을 주도하는 엔비디아의 AI칩을 사용해 특수 서버를 제작하는 업체로, AI 열풍에 힘입어 그간 주가가 급등하는 모습을 보였다. 2018년 말 13.8달러였던 주가는 매년 상승해 1대 10의 액면 분할 전인 작년 말 주가는 284달러 수준에서 지난 3월에는 1천229달러까지 치솟기도 했다. 다만 회계 부정 의혹이 알려진 이후 주가는 곤두박질 치고 있다. 특히 E&Y의 사임 소식이 전해지면서 이날 뉴욕 증시에서 슈퍼마이크로 주가는 전일 대비 32.68% 폭락해 33.07달러에 마감됐다. 다우존스 데이터에 따르면 슈퍼마이크로 주식은 지난 3월 13일에 최고가 118.81달러를 기록한 후 69% 하락했다. 그러나 월가에선 이번 일에 대해 너무 과도한 우려라고 평가했다. JP모건은 "제재 회피에 대한 혐의는 확인하기 어렵지만 AI 서버 시장에서 슈퍼마이크로의 매출 기회가 사라지진 않을 것"이라며 "보고서가 슈퍼마이크로의 중기 전망을 바꿀 만한 혐의에 대한 구체적인 내용이 거의 없고, 기업 지배구조와 투명성 개선과 관련해 이미 알려진 영역을 주로 다시 살펴보고 있다"고 분석했다. 또 다른 시장 전문가들은 슈퍼마이크로를 둘러싼 최근의 부정적 우려를 감안해 AI 서버 분야의 경쟁 구도를 재점검 할 필요가 있다는 지적을 내놨다. 에버코어SIS 애널리스트는 "경쟁사인 델이 시장 점유율을 높일 것으로 보인다"며 "더 나은 공급망 다양성을 원하는 고객들에게 논리적인 파트너가 될 것"이라고 말했다. 그러면서 "델의 AI 서버 매출은 올해 80억 달러를 초과하고 내년에는 100억 달러를 넘어설 것"이라고 덧붙였다.

2024.10.31 09:41장유미

'델' 주도 AI 서버 시장, 엔비디아 최신 칩 등장 속 판도 변화 올까

생성형 인공지능(AI) 시장 확대와 맞물려 AI 가속기 기반 서버 수요가 폭발하면서 관련 업체들이 고객 확보 경쟁에 본격 나섰다. 각 업체들은 최신 AI 칩을 기반으로 한 신무기를 잇따라 선보이며 점유율 확대에 사활을 건 분위기다. 16일 블룸버그통신에 따르면 델 테크놀로지스는 엔비디아의 AI 가속기인 '블랙웰' 칩을 탑재한 서버를 다음 달부터 일부 고객에게 발송한다. 내년 초부터는 일반 고객에게도 제공될 예정이다. '블랙웰'은 기존 엔비디아 AI 칩인 'H100', 'H200' 등 호퍼(Hopper)를 이을 최신 칩으로, 올해 11월부터 본격적인 양산에 들어간다. 'GB200'은 엔비디아가 블랙웰 아키텍처로 생산된다. 블랙웰 AI 서버 시스템인 'GB200 NVL72'는 이미 출하되고 있는 상태로, 2개의 블랙웰 GPU와 엔비디아의 CPU인 그레이스를 하나로 연결한 GB200 슈퍼칩 36개로 구성됐다. 가격은 380만 달러에 달하며 엔비디아 'GB200' 출하의 대부분을 차지할 것으로 전망됐다. 델 테크놀로지스는 'GB200 NVL72' 시스템을 기반으로 한 파워엣지 'XE9712'를 현재 일부 고객들에게 샘플용으로 공급하고 있다. '블랙웰' 칩은 지난 8월 패키징 결함으로 출시가 다소 늦어질 것으로 예상됐으나 최근 본격 생산되기 시작하며 수요가 폭발적으로 늘어나고 있는 상태다. 특히 마이크로소프트, 오픈AI 등 빅테크들이 AI 데이터센터 구축을 위해 '블랙웰'을 대량 주문하면서 이미 12개월치 생산 물량이 매진됐다. 이 같은 상황에서 델 테크놀로지스는 엔비디아와의 끈끈한 협력 관계를 바탕으로 '블랙웰' 초기 물량 확보에 성공하며 AI 서버 시장에서 입지를 더 탄탄히 구축할 수 있게 됐다. 아서 루이스 델 테크놀로지스 인프라스트럭처 부문 사장은 "'블랙웰' 칩이 포함된 AI 기반 서버는 다음 달 일부 고객에게 보내져 내년 초에 일반 공급될 것"이라며 "다양한 서비스 및 제품으로 차별화한 덕분에 엔비디아의 최신 칩을 조기에 공급 받을 수 있었다"고 설명했다. 델 테크놀로지스는 현재 AI 작업용 고성능 서버 판매 사업 확장에 주력하고 있는 상태로, '블랙웰' 외에 AMD의 기술을 탑재한 AI 특화 서버 신제품 'XE7745'도 전날 공개해 고객들의 선택 폭을 넓혔다. 이 제품은 4U 공냉식 섀시에서 최대 8개의 이중 폭 또는 16개의 단일 폭 PCIe GPU와 AMD 5세대 에픽 프로세서를 지원한다. 이 제품은 AMD 5세대 에픽 프로세서를 탑재한 '델 파워엣지 R6715'와 '델 파워엣지 R7715' 서버와 함께 내년 1월까지 순차적으로 출시된다. 경쟁사인 HPE는 엔비디아 '블랙웰'의 대항마로 여겨지는 AMD의 '인스팅트 MI325X' 가속기를 탑재한 'HPE 프로라이언트 컴퓨트(ProLiant Compute) XD685'를 새로운 무기로 꺼내들었다. 이 서버는 대규모 언어 모델(LLM) 학습, 자연어 처리(NLP), 멀티모달 학습 등 고성능 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 설계된 제품이다. 또 5U 모듈형 섀시로 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 갖추고 있다. 이번 일을 기점으로 HPE는 AMD와의 협력을 통해 앞으로 AI 서비스 제공업체, 정부, 대규모 AI 모델 개발자들이 요구하는 유연하고 고성능의 솔루션을 제공해 AI 경쟁에서 우위를 점하겠다는 목표를 가지고 있다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장은 "AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 AI 혁신을 확장할 것"이라며 "AI 모델 개발자 시장의 수요에 부응하며 산업 전반에서 과학과 공학의 혁신을 가속화할 것"이라고 말했다. 슈퍼마이크로 역시 AMD '인스팅트 MI325X' 기반의 새로운 서버를 최근 선보였다. 이번에 출시한 'H14' 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버 및 AI 추론 GPU 시스템을 포함하고 있다. 또 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. 찰스 리앙 슈퍼마이크로 CEO는 "'H14' 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 자사 'H11' 서버 대비 2.44배 더 빠른 성능을 제공한다"며 "고객은 데이터센터의 총면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다"고 설명했다. 이처럼 각 업체들이 AI 시장을 노리고 잇따라 성능을 높인 새로운 서버를 출시하면서 업계에선 시장 판도에 변화가 생길 지 주목하고 있다. 전 세계 서버 시장은 현재 델테크놀로지스가 주도하고 있는 상태로, HPE와 슈퍼마이크로가 뒤를 잇고 있다. 특히 현재 5~7%가량의 점유율을 차지하고 있는 슈퍼마이크로는 GPU 기반 AI 서버 시장에서 존재감을 높이며 델 테크놀로지스를 점차 위협하고 있다. 미즈호증권 비제이 라케시 애널리스트에 따르면 2022~2023년 AI 서버 시장 내 슈퍼마이크로의 점유율은 80~100%에 달했다. 다만 델 테크놀로지스도 최근 들어 AI 서버 매출을 점차 늘리고 있다. 올해 5~7월에는 31억 달러가 출하됐고, 지난해 5월부터 올해 4월까지는 60억 달러가량의 AI 서버가 판매됐다. 업계 관계자는 "AI 서비스에 대한 수요가 증가함에 따라 자연스럽게 AI 서버에 대한 수요도 함께 늘어나고 있다"며 "우수한 설계 능력과 강력한 AI 파트너십을 바탕으로 존재감을 드러내고 있는 슈퍼마이크로가 향후 델, HPE 등 경쟁사들의 점유율을 빼앗을 가능성이 높다"고 말했다. 아거스리서치 애널리스트들은 "슈퍼마이크로는 AI 시대를 선도하는 컴퓨터 및 서버 업체"라며 "지난 1년간 큰 폭의 이익을 얻었는데 앞으로도 수년 동안 강력한 매출 성장과 마진 확대, 주당순이익(EPS) 가속화에 대비하고 있다"고 평가했다.

2024.10.16 11:51장유미

美 법무부, 세계 3위 서버 제조사 슈퍼마이크로 조사 착수

미국 법무부가 세계 시장 점유율 3위 서버 업체인 슈퍼마이크로 조사에 들어갔다고 월스트리트저널이 26일(미국 현지시간) 익명의 소식통을 인용해 보도했다. 슈퍼마이크로는 인텔·AMD·엔비디아 등 미국 내 주요 반도체 기업이 생산한 프로세서와 GPU, AI 가속기 기반 서버를 생산해 공급한다. 세계 서버 시장에서 델테크놀로지스와 HPe에 이어 3위 업체로 5%~7% 가량 점유율을 유지하고 있다. 슈퍼마이크로는 엔비디아 고객사 중 규모 면에서 세 번째에 이른다. 인텔이 최근 출시한 제온6와 가우디3 AI 가속기 탑재 서버도 시장에 공개 예정이다. 월스트리트저널은 소식통을 인용해 "미국 법무부가 회사를 회계부정으로 고발한 전 임직원 관련 정보를 요청했다"고 밝혔다. 단 조사 관련 세부 내용까지 밝히지 않았다. 부실 기업이나 회계부정 기업 공매도로 차익을 올리는 미국 행동주의 펀드, 힌덴버그 리서치(Hindenburg Research)는 지난 8월 "슈퍼마이크로가 회계 부정을 저지르고 있다"고 주장하는 보고서를 내고 공매도에 나섰다. 힌덴버그 리서치는 "슈퍼마이크로가 부풀려진 수요에 따라 유통 채널에 물량을 공급하고 있고 회계규정 위반으로 미국 증권거래위원회(SEC)가 적발한 임원을 재고용했으며 지난 3년간 10억 달러(약 1조 3천173억원) 가량을 특수 관계에 있는 회사에 지원했다"고 주장했다. 슈퍼마이크로는 이달 초 "힌덴버그 리서치의 보고서는 사전에 공개한 정보를 잘못된 방법으로 해석한 부정확한 정보를 포함하고 있다"고 반박했다. 슈퍼마이크로는 예정대로라면 8월 말 끝났어야 하는 2분기 실적 공시도 연기한 상태다.

2024.09.27 10:16권봉석

슈퍼마이크로, '블랙웰' 탑재 AI 최적화 서버 공개

슈퍼마이크로컴퓨터는 생성형 AI 개발 및 구축을 지원하는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 최적화된 '슈퍼클러스터'를 11일 공개했다. 슈퍼마이크로 슈퍼클러스터는 산업을 막론하고 기업의 생성형 AI 채택을 가속화하는 클라우드 네이티브 솔루션을 위해 설계된 R2D 액침 냉각식 AI 데이터센터에서 사용된다. 엔비디아에서 최근 선보인 블랙웰 GPU에 슈퍼마이크로의 4U 수냉식 냉각 서버가 탑재돼 단일 GPU에서 20 페타 플롭스(FLOPS)의 AI 성능을 완벽하게 구현할 수 있다. 기존 GPU 대비 4배 강력한 AI 훈련 및 30배 강력한 추론 성능을 자랑하며, 추가적인 비용 절감 효과를 가져온다. 슈퍼마이크로는 시장 선점 전략에 따라 최근 블랙웰 아키텍처를 기반으로 한, 엔비디아 HGX B100, B200, 그리고 GB200 그레이스 블랙웰 슈퍼칩용 신규 제품군을 선보인 바 있다. 슈퍼마이크로는 '컴퓨텍스 2024'에 참가해 곧 출시될 엔비디아 블랙웰 GPU에 최적화된 서버를 공개했으며, 여기에는 엔비디아 HGX B200 기반의 10U 공냉식 및 4U 수냉식 냉각 서버가 포함됐다. 8U 공냉식 엔비디아 HGX B100 시스템, 엔비디아 NV링크 스위치와 상호 연결된 GPU 72개를 탑재한 슈퍼마이크로의 엔비디아 GB200 NVL72 랙, 그리고 엔비디아 H200 NVL PCLe GOU 및 엔비디아 GB200 NVL2 아키텍처를 지원하는 신규 엔비디아 MGX 시스템을 제공할 예정이다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI가 모든 컴퓨팅 스택의 재설정을 주도하고 있는 가운데, 새로운 데이터센터는 GPU 가속화로 AI에 최적화될 것”이라며 “슈퍼마이크로는 최첨단 엔비디아 가속 컴퓨팅 및 네트워킹 솔루션을 설계하고, 수조 달러 규모의 글로벌 데이터센터가 AI 시대에 최적화될 수 있도록 지원한다”고 밝혔다. LLM의 급속한 발전과 더불어 메타 라마3 및 믹스트랄 8x22B 같은 오픈소스 모델의 지속적인 출시로 인해 오늘날 최첨단 AI 모델에 대한 기업의 접근성이 높아졌다. 현재 폭발적인 AI 혁신을 지원하는 데 있어 가장 중요한 요소는 AI 인프라를 간소화하고 가장 비용 효율적인 방식에 대한 접근성을 제공하는 것이다. 슈퍼마이크로 클라우드 네이티브 AI 슈퍼클러스터는 엔비디아 AI 엔터프라이즈를 활용해 클라우드의 즉각적인 접근 편의성과 휴대성 사이의 간극을 메운다. 또한, 파일럿부터 프로덕션까지 모든 규모의 AI 프로젝트를 원활하게 추진할 수 있도록 지원한다. 이를 통해 호스팅 시스템이나 온프레미스 대규모 데이터센터를 비롯해 데이터를 안전하게 보호하는 곳에 유연성을 제공한다. 여러 업계의 기업들이 빠르게 생성형 AI 사용 사례를 실험하고 있는 가운데, 슈퍼마이크로는 엔비디아와의 긴밀한 협업을 통해 시험 및 파일럿 AI 애플리케이션에서 양산형 배포 및 대규모 데이터센터 AI로의 원활하고 매끄러운 전환을 보장한다. 이는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 통해 랙 및 클러스트 단위의 최적화를 이룬 결과로, 초기 탐색부터 확장 가능한 AI 구현까지 원활한 여정을 지원한다. 관리형 서비스는 인프라 채택, 데이터 공유, 그리고 생성형 AI 전략 제어에 부정적인 영향을 미친다. 하지만 슈퍼마이크로는 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 NIM 마이크로서비스를 통해 관리형 및 생성형 AI 및 오픈소스 배포의 장점만을 제공한다. 마이크로서비스를 활용한 다목적 추론 수행 시간은 오픈소스부터 엔비디아 기반 모델에 이르기까지 다양한 모델에서 생성형 AI 구축을 가속화한다. 또한, 엔비디아 NeMo를 지원해 데이터 큐레이션, 고급 커스터마이징 및 RAG를 통한 엔터프라이즈급 솔루션용 맞춤형 모델 개발이 가능하다. 슈퍼마이크로의 엔비디아 AI 엔터프라이즈용 슈퍼클러스터와 결합된 엔비디아 NIM은 확장 가능하고 가속화된 생성형 AI 프로덕션 구축을 향한 지름길로 안내한다. 슈퍼마이크로 수냉식 냉각 엔비디아 HGX H100·H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 5개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 공냉식 냉각 엔비디아 HGX H100/H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 슈퍼마이크로 엔비디아 MGX GH200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 그레이스 호퍼 슈퍼칩 256개를 탑재한다. 슈퍼마이크로 슈퍼클러스터는 엔드투엔드 생성형 AI 커스터마이징을 위해 엔비디아 NIM 마이크로서비스 및 엔비디아 네모(NeMo) 플랫폼 등 엔비디아 AI 엔터프라이즈를 탑재했다. 400Gbps의 네트워킹 속도로 수십만 개의 GPU가 있는 대규모 클러스터까지 확장 가능하며, 엔비디아 퀀텀-2 인피니밴드 및 신규 엔비디아 스펙트럼-X 이더넷 플랫폼에 최적화됐다. 슈퍼마이크로 슈퍼클러스터 솔루션은 LLM 학습, 딥러닝, 그리고 대용량 및 대규모 추론에 최적화됐다. 슈퍼마이크로의 L11 및 L12 검증 테스트와 현장 구축 서비스는 고객에게 원활한 경험을 선사한다. 데이터센터에서 도입이 쉽고, 그 결과를 보다 빠르게 확인할 수 있는 플러그 앤 플레이 확장형 유닛을 제공한다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "슈퍼마이크로는 랙 스케일 액침 냉각식 AI 솔루션을 개발 및 구축하며 지속적으로 업계를 선도하고 있다"며 "수냉식 냉각 데이터선터는 전력 사용량 감축을 통해 사실상 무상으로 제공되며, 이는 고객에게 추가적인 가치를 제공할 수 있다”고 밝혔다. 그는 “슈퍼마이크로의 솔루션은 다양한 산업군의 고객을 위해 엔비디아 AI 엔터프라이즈 소프트웨어에 최적화됐다”며 “엔비디아 HGX H100 및 H200은 물론, 새로 출시된 B100, B200, 그리고 GB200에 수냉식 또는 공냉식 냉각 턴키 클러스터를 배포하는 시간을 단축할 수 있다”고 설명했다. 그는 “냉각판부터 CPU와 냉각탑에 이르기까지 슈퍼마이크로의 랙 스케일 종합 액체 냉각 솔루션은 데이터센터에서 사용하고 있는 전력량을 최대 40%까지 줄일 수 있다”고 덧붙였다.

2024.06.11 10:31김우용

데이터센터 에너지 절감을 위한 슈퍼마이크로의 제안

전세계적으로 인공지능(AI) 수요가 폭발적으로 증가하면서 데이터센터의 에너지 소비 증가 문제가 대두되고 있다. 생성형 AI의 기반 인프라인 GPU 서버가 그 자체로 대량의 에너지를 소모하고, 서버 발열을 식히기 위한 냉각 시스템도 대량의 에너지를 필요로 하고 있다. 마이클 맥너니 슈퍼마이크로 마케팅 및 네트워크 시큐리티 부사장과 김성민 슈퍼마이크로 FAE & 비즈니스 개발 부문 이사는 최근 본지와 진행한 서면 인터뷰에서 데이터센터의 에너지 소비 문제를 진단하고 그에 대한 슈퍼마이크로의 솔루션을 설명했다. 마이클 맥너니 부사장은 “국제에너지기구(IEA)에 따르면 데이터센터, AI 및 암호화폐 부문의 전력 수요가 2026년까지 두 배 증가할 것으로 예측되며, 이중 데이터센터가 주요인으로 꼽혔다”며 “2022년 전세계 데이터센터는 연간 전력 소비 중 2%에 달하는 460테라와트시(TWh)의 전력을 소비했고, 2026년 1천TWh를 초과할 것으로 전망된다”고 설명했다. 그는 “데이터센터에서 냉각 시스템과 서버는 주요 전력 소비원으로, 일반적으로 각각 전체 소비량의 40%를 차지하며 나머지 20%는 전원 공급 시스템, 스토리지, 통신 장비가 사용한다”며 “ 2023년 전 세계 전력 생산으로 인한 CO2 배출량은 1만3천575 톤에 달했으며, 한국과 일본의 경우 728 톤을 배출했는데, 이는 데이터센터의 전력 사용량을 감축했을 때 환경에 미치는 영향 또한 줄일 수 있음을 의미한다”고 밝혔다. 그는 “기후 변화가 점점 더 악화될 것으로 예상되는만큼 데이터센터의 환경 영향을 저감하기 위한 조치를 취해야 할 때”라며 “서버 기술의 발전 및 가용 범위의 증가에도 불구하고 대부분의 서버는 최대 성능에 훨씬 못 미치는 수준으로 실행되고, 가장 효율적인 서버도 약 50% 정도의 성능만만 발휘하며 에너지 낭비를 초래한다”고 덧붙였다. 환경단체뿐 아니라 정부, 기업 등도 데이터센터의 에너지 소비 증가 문제를 심각하게 여기고 있다. 하지만 투자평가사의 기업 ESG 평가 체제 중 IT 인프라에만 초점을 맞춘 구체적인 표준 등급이나 측정 항목은 없다. 다만 에너지 효율성, 재생 에너지 사용, 탄소 발자국, 전자 폐기물 관리, 공급망 영향, 데이터 보안 및 개인정보 보호 등 다양한 요소가 기업의 지속가능성 달성에 대한 평가 중 일부분으로 고려된다. 맥너니 부사장은 “슈퍼마이크로는 많은 제품의 제품 탄소발자국(PCF) 리포트를 최적화하기 위해 노력하고 있다”며 “다만 광범위한 포트폴리오로 인해 많은 시간이 필요해 요청에 따라 준비하고 있고, 여러가지 EPEAT 인증도 진행하고 있으며, 이는 슈퍼마이크로 및 EPEAT 웹사이트에 게시될 예정”이라고 밝혔다. 생성형 AI에서 고집적 GPU 클러스터의 급증에 따른 데이터센터 에너지 소비문제는 매우 심각하다. 마이클 맥너니 부사장에 의하면, 하이퍼스케일 데이터센터 하나에서 서버, 스토리지, 그리고 네트워킹 인프라를 원활히 작동하기 위해선 100메가와트(MW)의 전력을 필요로 한다. 이는 미국 8만 가구에 전력을 공급할 수 있는 양이다. 그는 “지정학적 여건에 따라 차이는 있지만 세계 각지에서 생산하는 전기 중 약 80%가 석탄, 가스, 석유 등 화석 연료를 연소하는 방식으로 만들어지고 있다”며 “일부 데이터센터와 이를 운영하는 기업이 재생 가능한 에너지로의 전환 또는 화석 연료 소비 감축을 위한 목표를 세우고 있으나, 데이터센터는 여전히 화석 연료를 태우는 전력망을 상당량 사용해 에너지 수요를 충족하고 있다”고 설명했다.. 그는 워크로드에서 에너지를 절감할 수 있는 방안으로 워크로드에 적합한 규모의 시스템 사용, 멀티 노드 및 블레이드 효율성 향상, 주요 서버 시스템의 구성 요소 선택 및 최적화, 서버 시스템 구성 요소의 교체 주기 늘리기 등을 제시했다.  맥너니 부사장은 “데이터센터 내 각 워크로드에 적합한 서버를 선택하면 전력 소비를 크게 줄일 수 있다”며 “최적화된 서버 시스템은 워크로드 요건에 맞춰 불필요한 처리를 최소화하며, 에너지 효율적인 설계와 부품 공유를 특징으로 하는 최신 서버는 와트당 처리량이 많아 전력 사용량을 줄인다”고 설명했다. 그는 “맞춤 설계는 불필요한 기능, 비용, 열 발생을 줄인다”며 “고속 CPU나 광범위한 I/O 기능을 요구하는 등 각 워크로드에 따라 맞춤화 된 서버가 과도한 용량 및 비용을 줄일 수 있다”고 덧붙였다. 다수의 노드에서 전원 공급 장치 및 팬과 같은 리소스를 공유해 부품 중복을 줄이고, 더 크고 효율적인 부품을 사용 가능하도록 함으로써 서버 시스템의 효율성을 높일 수 있다고 그는 강조했다. 그는 “이를 통해 모든 노드가 작동 중일 때 전력 소비를 줄일 수 있다”며 “또 다른 방법은 독립 서버가 네트워킹, 전원 공급 장치, 팬을 공용함으로써 랙 공간 및 케이블을 줄이는 것으로, 이는 공랭식 서버의 에너지 절약에는 케이블로 인한 공기 흐름 방해를 최소화하는 것이 중요하기 때문”이라고 설명했다. 이어 “특히 통합 스위칭 서버의 경우 일반적으로 연결 케이블 수가 적어 섀시 내외부에 전략적으로 케이블을 배치하면 에너지 효율 향상에 도움이 될 수 있다”며 “예를 들어, 1U 랙 마운트 서버 20대 대비 8U 섀시에 블레이드 20개가 탑재된 최신 블레이드 시스템은 케이블이 95% 감소하며, 공기 흐름 개선 및 팬 속도 감소로 인해 전기 사용량도 줄어든다”고 밝혔다.. 주요 서버 시스템의 구성 요소 선택 및 최적화 에 대해선 하드웨어와 워크로드 및 서비스수준협약(SLA) 준수율까지 고려해 새 서버 하드웨어를 구매해야 한다고 했다. 애플리케이션 실행에 소비되는 전력을 줄일 수 있다는 이유다. 그는 “CPU와 GPU 설계가 발전함에 따라 최신 서버의 와트당 성능은 최대 3배 높아지므로, 데이터센터의 서비스를 확장하면서도 필요한 전력량을 유지 또는 감축하려 할 때 도움이 된다”며 “CPU의 경우 코어 수, 클럭 속도, 전력 소모량, 캐시 크기 등의 옵션이 전기 사용량 및 열 출력에 직접적인 영향을 미친다”고 설명했다. 그는 “이메일 서버와 같이 처리 시간이 유연한 워크로드의 경우 저전력 CPU로도 충분할 수 있으며, 데이터베이스 작업과 같이 완료 속도가 중요한 작업에는 고성능 CPU가 적합하다”며 “GPU 같은 가속기는 특정 작업에서 성능을 향상시켜 작동 시간 및 전력 비용을 줄일 수 있는데, 하드 디스크 드라이브(HDD)에서 솔리드 스테이트 드라이브(SSD)로의 전환 시, 특히 I/O 집약적인 애플리케이션에서 데이터 검색 시간 및 전력 소비량이 줄어들며 이는 서버 운영의 전반적인 에너지 효율성에 기여한다”고 했다. 현재 아마존웹서비스(AWS), 마이크로소프트, 구글 등은 자사 데이터센터의 서버시스템 구성요소의 사용연한을 느려 시스템 교체주기를 늦추고 있다. 애플리케이션이 AI 학습이나 콘텐츠 전송 네트워크 등에 더 많은 데이터를 소요함에 따라 서버는 가격과 성능 측면에서 지속적으로 강화돼야 하지만, 서버 구성 요소는 각기 다른 속도로 발전하기 때문에 교체 주기가 서로 일치하지 않을 가능성이 있으며 전자 폐기물로 이어진다. 맥너니 부사장은 “이 때 분리형 방식을 사용한다면 최신 기술이 출시될 때마다 구성품 또는 하위 시스템을 개별적으로 교체할 수 있고, 그 결과로 서버를 통째로 폐기하는 일이 줄어든다”며 “잘 설계된 섀시는 전체가 아닌 각 구성 요소를 기술 주기에 따라 매끄럽게 교체할 수 있다”고 했다. 그는 “서버의 경우 다양한 CPU와 GPU를 수용하도록 설계된다면 전체 유닛을 폐기하지 않고 선택적으로 구성 요소를 업그레이드할 수 있다”며 “이러한 접근 방식은 환경에 미치는 영향을 최소화하는 동시에 서버가 발전하는 기술 요건에 맞춰 최신 상태를 유지하도록 보장한다”고 강조했다. 전세계적으로 데이터센터 에너지 소비 절약에 대한 관심과, 실천 정도는 어느정도일까. 국제에너지기구(IEA)에 따르면 2022년 전 세계 데이터센터에서 소비한 전력량은 460TWh에 달한다. 이는 전체 에너지 소비량 중 약 2%를 차지한다. 이로 인해 주요 국가들은 데이터센터에 대한 에너지 효율 규제를 도입하고 있다. EU는 2023년 10월 'EU 에너지 효율 지침(EED)'를 개정하며 이러한 변화를 선도하고 있다. EED는 2012년에 처음 채택되었으며, 에너지 효율 목표 달성을 위한 규칙 및 의무를 다루고 있다. 이번 개정은 EU가 2030년까지 2020년 기준치 대비 에너지 소비를 11.7% 추가 감축하기로 합의함에 따라 이루어졌다. 연간 에너지 절감 목표는 2023년 0.8%에서 2024년 이후 1.3%, 2030년 1.9%로 증가한다. 김성민 이사는 “세계적인 추세에 따라 우리나라도 구체적인 정책을 시행하기 시작했다”며 “정부가 건물 에너지 관리를 위해 도입한 제로에너지건축물(ZEB) 인증제도가 대표적인 예”라며 “ZEB는 건물의 에너지 부하를 최소화하고 신재생 에너지를 사용해 에너지 소비를 최소화하는 친환경 건축물로, 2017년부터 인증제도를 시행했다”고 설명했다. 그는 “2020년부터 연면적 1000m2 이상의 공공건축물에 의무화됐으며, 이는 민간 건축물까지 확장될 예정”이라며 “민간 데이터센터는 2025년부터 일정량의 재생에너지를 의무적으로 사용해야 한다는 의미로,. ZEB인증은 1) 에너지 효율 등급 1++ 이상, 2) 에너지 자립률 20% 이상, 3) 건물 에너지 관리 시스템(BEMS) 또는 원격 전자 계량기 설치 등을 기준으로 한다”고 했다. 그는 “이러한 정책의 확대는 기업들이 보다 적극적으로 데이터센터의 에너지 소비를 감축하는 데 동참할 수 있도록 장려할 것”이라며 “결과적으로, 전체 전력 소비의 40%를 차지하는 냉각 시스템에 대한 관심이 높아지고, 보다 효율적인 칠러 선택의 중요성도 강조될 것”이라고 덧붙였다. 슈퍼마이크로는 데이터센터 리소스 최적화를 위한 표준화와 비즈니스 경쟁력을 위한 유연성 간의 균형을 맞추기 위해 노력하고 있다. 슈퍼마이크로의 메가DC 및 클라우드DC 제품군은 차세대 하이퍼스케일 데이터센터를 위한 핵심 솔루션으로 제시된다. 버전 관리를 위한 OpenBMC, OCP3.0 SFF 표준을 지원하는 AIOM 모듈, 전력 최적화 설계를 비롯한 개방형 규격의 확장된 지원을 통해 데이터센터 운영자는 기존 인프라를 개조하지 않고도 개방형 컴퓨팅 개념의 이점을 누릴 수 있다고 회사측은 강조한다. 맥너니 부사장은 “슈퍼마이크로의 AIOM은 OCP3.0을 준수하고 향상된 기계 설계는 섀시를 열지 않고 서비스 및/또는 교체가 가능하도록 해 서비스 및 유지보수가 용이하다”며 “AIOM/OCP 3.0을 지원하는 플랫폼은 향상된 열 제어 기능으로 냉각 비용 절감이 가능하며, 소형 폼 팩터에 다양한 네트워킹 옵션이 제공되므로 간편한 구축이 가능하고, 열 효율이 높은 구성 요소를 갖춰 관리와 서비스가 간편하다”고 밝혔다. 그는 “슈퍼마이크로는 OCP 3.0 설계 개념을 활용해 아키텍처에 AIOM을 구현했을 때 아키텍처가 개선된 기성 표준 솔루션을 제공한다”고 덧붙였다.: 슈퍼마이크로의 AIOM 카드는 마더보드 상단에 수직 또는 수평으로 설치되는 기존 PCI-E와 달리 마더보드와 동일한 레벨에 설치되도록 설계됐다. 이로 인해 시스템 전체의 공기 흐름을 크게 증가시켜 열 관리를 개선한다. 기존 PCI-E 카드는 상단에 설치되어 설치 및 교체 시 섀시 상단을 열어야 하는 반면, AIOM 카드는 섀시 후면에서 설치되기 때문에 번거로운 작업이 필요하지 않으며, 풀 탭과 나사 노브로 인해 별도의 도구 없이 서비스 가능하다. 맥너니 부사장은 “슈퍼마이크로는 소형 폼 팩터(SFF), 열 효율성, 손쉬운 서비스 가능성, 그리고 OpenBMC 구현을 통해 서비스 시간을 단축하고 시스템 다운타임을 최소화하는 솔루션을 제공한다”며 “서버부터 랙, 데이터센터 규모까지 AIOM 탑재 솔루션을 도입한다면 인프라가 확장되는 만큼 TCO도 개선된다”고 밝혔다. 2018년 슈퍼마이크로는 실리콘밸리에서 최초로 청정 연료전지 에너지를 사용한 첨단 시설 '빌딩 21'을 공개했다. 이 시설은 로봇을 이용해 60대의 랙을 자동으로 한 번에 번인할수 있는 시설을 갖췄으며, 대규모 데이터센터에 필요한 장비를 신속하게 조립, 공급, 설치할 수 있다. 그는 “약 1만9천 제곱미터 규모의 건물에 생산 라인, 테스트 시설, 번인 시설, 랙 조립 시설이 갖춰져 있고, 슈퍼마이크로는 이와 같은 최첨단 시설을 통해 서버 구축 및 테스트부터 공급 단계까지의 엔드 투 엔드 프로세스를 관리하는 것은 물론, 에너지를 대폭 절약하고 환경 오염을 효과적으로 줄이는 데 앞장서고 있다”며 “빌딩 21을 통해 슈퍼마이크로는 향후 10년간 약 800만 달러의 에너지 비용을 절감할 수 있을 것으로 예상한다”고 강조했다. 슈퍼마이크로는 전세계적인 데이터센터 현대화 추세 속에서 강세를 보이며 급성장하고 있다. 맥너니 부사장은 '그린 컴퓨팅'에 초점을 맞춘 투자와 역량 강화에 있다고 했다. 그는 “전 세계 전력 수요의 1%에서 1.5%까지 소비하는 오늘날의 데이터센터에 그린 컴퓨팅은 매우 중요하다”며 “슈퍼마이크로의 완벽한 랙 스케일 수냉식 솔루션은 기존 냉각 방식의 필요성을 크게 낮추며, 공급 장치와 펌프는 핫스왑 및 이중 전원이 가능해 장애 발생 시 고성능 AI 및 HPC에 최적화된 서버의 랙 전체를 효율적으로 냉각할 수 있다”고 밝혔다. 그는 “이러한 솔루션은 CPU와 GPU 모두에 맞춤 설계된 콜드 플레이트를 사용해 기존 설계보다 효율적으로 열을 제거한다”며 “슈퍼마이크로 기술로 데이터센터 PUE를 1.0에 가깝게 낮출 시 30개의 화석 연료 발전소 건설을 하지 않아도 되며, 그로 인해 최대 100억 달러의 에너지 비용을 절감할 수 있다”고 설명했다. 슈퍼마이크로의 서버는 성능 대비 적은 전력을 사용하도록 설계됐다. 이는 가능한 경우 부품을 공유하는 설계를 통해 이뤄진다. 또한 슈퍼마이크로 서버는 전체 섀시 전체를 교체하지 않고 CPU, 메모리, 스토리지 등 개별 하위 시스템을 업그레이드할 수 있도록 설계됐다. 이러한 분리형 설계를 사용하면 전자 폐기물을 크게 줄이고 새로운 기술을 도입할 때 비용을 절감할 수 있다. 그는 “슈퍼마이크로 그린 컴퓨팅의 핵심은 슈퍼마이크로가 전력 소비를 줄이는 엔비디아, 인텔, AMD 등의 최신 CPU 및 GPU 기술을 통해 최첨단 서버와 스토리지 시스템을 설계, 제조 가능하게 한다는 것”이라며 “슈퍼마이크로의 혁신적인 랙 스케일 수냉식 냉각 옵션을 통해 데이터센터 전력 사용 비용을 최대 40%까지 줄일 수 있다”고 밝혔다. 그는 “엔비디아 HGX H100 8-GPU 서버를 탑재한 슈퍼마이크로의 대표 GPU 서버는 AI 워크로드로 인해 수요가 지속 증가하고 있다”며 “슈퍼마이크로는 전 세계 통틀어 매월 5천 개의 랙을 출하할 수 있으며, 그 결과 매출 200억 달러 달성을 향해 성장할 것으로 기대된다”고 강조했다.

2024.04.25 13:17김우용

슈퍼마이크로, X14 서버에 6세대 인텔 제온 탑재 예고

슈퍼마이크로컴퓨터는 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 17일 공개했다. 신제품은 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 광범위한 인텔 제온 6 프로세서 신제품군을 결합했다. 슈퍼마이크로는 고객의 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 슈퍼마이크로의 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온6 프로세서에 대한 소켓 호환성을 지원한다. 해당 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어 SKU와 AI, HPC, 스토리지 및 엣지 워크로드에 대해 코어당 성능을 높이는 P-코어 SKU로 제공된다. 인텔 AMX에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 대폭 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다. 라이언 타브라 인텔 부사장 겸 제온 E-코어 제품 부문 총괄은 "해당 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다”며 “고객은 온프레미스, 클라우드, 또는 엣지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다"고 강조했다. 슈퍼마이크로의 X14 서버 제품군은 성능 및 에너지 효율의 최적화, 관리 용이성과 보안 개선, 개방형 산업 표준 지원, 랙 스케일 최적화를 갖췄다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것"이라며 "슈퍼마이크로는 수냉식 100kW 랙 1천350개를 포함해 전 세계적으로 매월 5천개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다”고 밝혔다. 그는 “현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다"고 덧붙였다. 한편, 슈퍼마이크로는 워크로드 검증을 위해 원격 점프스타트 및 조기 배송 프로그램을 제공함으로써 일부 고객에게 인텔 제온 6 프로세서로 구동되는 새로운 X14 서버에 대한 조기 엑세스를 제공할 예정이라고 밝혔다.

2024.04.17 09:18김우용

슈퍼마이크로, 풀스택 생성형 AI 슈퍼클러스터 3종 출시

슈퍼마이크로컴퓨터(이하 슈퍼마이크로)는 생성형 AI의 도입을 가속화하기 위한 슈퍼클러스터 포트폴리오를 22일 발표했다. 최신 솔루션은 현재는 물론 미래의 거대언어모델(LLM) 인프라에도 적합한 핵심 빌딩 블록을 제공한다. 슈퍼마이크로 슈퍼클러스터 솔루션 3종은 현재 생성형 AI 워크로드에 사용 가능하다. 4U 수냉식 냉각 시스템 또는 8U 공냉식 냉각 시스템은 강력한 LLM 학습 성능은 물론 대규모 배치와 대용량 LLM 추론용으로 특별히 제작 및 설계됐다. 1U 공냉식 슈퍼마이크로 엔비디아 MGXTM 시스템을 갖춘 슈퍼클러스터는 클라우드 규모 추론에 최적화됐다. 슈퍼마이크로 4U 엔비디아 HGX H100/H200 8-GPU 시스템은 수냉식 냉각을 사용해 8U 공랭식 시스템의 밀도를 두 배로 높이고 에너지 소비량과 데이터센터 TCO를 낮춘다. 차세대 엔비디아 블랙웰 아키텍처 기반의 GPU를 지원하도록 설계됐다. 슈퍼마이크로 냉각 분배 장치(CDU)와 매니폴드(CDM)는 냉각된 액체를 슈퍼마이크로의 맞춤형 D2C 콜드 플레이트에 분배하기 위한 핵심 부품으로, GPU와 CPU를 최적의 온도로 유지하고, 성능을 극대화한다. 이러한 냉각 방식은 데이터센터의 총 전기 비용을 최대 40% 절감하고 물리적 공간도 절약할 수 있다. 엔비디아 HGX H100/H200 8-GPU를 탑재한 시스템은 생성형 Al 학습에 이상적이다. 엔비디아 NV링크 로 상호 연결된 고속 GPU와 더불어 넓은 GPU 메모리 대역폭 및 용량은 LLM 모델의 비용 효율적인 구동에 핵심적인 역할을 한다. 슈퍼마이크로의 슈퍼클러스터는 하나의 AI 슈퍼컴퓨터처럼 작동하는 대규모 GPU 리소스 풀을 생성한다. 조 단위의 토큰으로 구성된 데이터 세트로 학습된 대규모 기초 모델을 처음부터 구축하거나 클라우드 규모의 LLM 추론 인프라를 구축할 때, 비차단 400Gbps 패브릭을 갖춘 스파인 및 리프 네트워크 토폴로지를 사용한다면 32개 노드에서 수천 개의 노드까지 원활하게 확장할 수 있다. 슈퍼마이크로는 수냉식 냉각을 활용하는 테스트를 통해 배포 전에 운영 효율성과 효과를 철저하게 검증한다. 슈퍼마이크로의 엔비디아 MGX 시스템 설계는 엔비디아 GH200 그레이스 호퍼 슈퍼칩을 통해 생성형 AI의 주요 병목 현상을 해결하는 미래형 AI 클러스터에 대한 청사진을 제시할 것이다. 이때 병목 현상은 운영비용을 절감하기 위해 고성능 추론 배치 규모로 LLM을 실행하는 GPU 메모리 대역폭과 용량을 의미한다. 256노드 클러스터는 쉽게 구축 및 확장이 가능한 클라우드 규모의 대규모 추론 성능을 지원한다. 랙 5개에 4U 수냉식 냉각 시스템 또는 랙 9개에 8U 공랭식 시스템을 갖춘 슈퍼클러스터는 확장 가능한 유닛 하나에 엔비디아 H100/H200 텐서 코어 GPU 256개를 탑재한다. 수냉식 냉각의 경우 공냉식 256 GPU 및 32노드 솔루션과 동일한 설치 면적에서 512 GPU, 64노드를 지원한다. 확장 가능한 유닛 하나에 엔비디아 H100을 포함한 20TB HBM3 또는 엔비디아 H200을 포함한 36TB HBM3e을 탑재한다. 1대1 네트워킹으로 각 GPU에 최대 400Gbps를 제공하며, 최대 조 단위의 매개변수로 LLM을 학습시키기 위한 GPU 다이렉트 RDMA 및 스토리지를 활성화한다. 엔비디아 퀀텀-2 인피니밴드, 엔비디아 스펙트럽-X 이더넷 플랫폼 등 확장성이 뛰어난 스파인-리프 네트워크 토폴로지를 갖춘 400G 인피니밴드 또는 400GbE 이더넷 스위치 패브릭으로 연결된다. 병렬 파일 시스템 옵션을 갖춘 맞춤형 AI 데이터 파이프라인 스토리지 패브릭을 구성한다 .엔비디아 AI 엔터프라이즈 5.0 소프트웨어로 대규모 AI 모델 구축을 가속화하는 새로운 엔비디아 NIM 추론 마이크로서비스를 지원한다. 랙 9개에 1U 공냉식식 냉각 엔비디아 MGX 시스템을 갖춘 슈퍼클러스터는 확장 가능한 유닛 하나에 256개의 GH200 그레이스 호퍼 슈퍼칩을 장착하며, 최대 144GB의 HBM3e + 480GB의 LPDDR5X 통합 메모리로, 하나의 노드에 70B+ 매개변수 모델을 수용할 수 있다. 400G 인피니밴드 또는 400GbE 이더넷 스위치 패브릭을 지원하며, 노드당 최대 8개의 내장 E1.S NVMe 스토리지 장치를 제공한다. 엔비디아 블루필드-3 DPU와 맞춤형 AI 데이터 파이프라인 스토리지 패브릭으로 각 GPU에 많은 처리량과 짧은 지연 시간의 스토리지 액세스를 제공한다. 엔비디아 AI 엔터프라이즈 5.0 소프트웨어를 제공한다. 슈퍼마이크로의 슈퍼클러스터 솔루션은 GPU-GPU 연결을 위해 달성할 수 있는 네트워크 성능을 갖췄으며, LLM 훈련, 딥 러닝, 그리고 대용량 및 대규모 배치 추론에 최적화됐다. 현장 배포 서비스와 결합된 슈퍼마이크로의 L11 및 L12 검증 테스트는 고객에게 매끄러운 사용 경험을 제공한다. 고객은 플러그 앤 플레이 확장형 유닛을 통해 데이터센터에 쉽게 구축하고 더 빠르게 결과를 얻을 수 있다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "AI 시대에 컴퓨팅 단위는 단순히 서버 수가 아닌 클러스터로 측정된다”며 “슈퍼마이크로는 글로벌 제조량을 월 5,000개의 랙으로 확장해 그 어느 때보다 빠르게 완전한 생성형 AI 클러스터를 제공할 수 있다"고 설명했다. 그는 "확장 가능한 클러스터 빌딩 블록에 64노드 클러스터는 400Gb/s 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹을 갖춰 72TB의 HBM3e및 512개의 엔비디아 HGX H200 GPU를 지원한다”고 밝혔다 이어 “슈퍼마이크로의 슈퍼클러스터 솔루션은 엔비디아 AI 엔터프라이즈 소프트웨어와 결합됐다”며 “그 결과 오늘날 최대 조 단위의 매개변수로 LLM을 학습하는 기업 및 클라우드 인프라에 이상적”이라고 덧붙였다. 카우츠브 상하니 엔비디아 GPU 제품 부문 부사장은 "엔비디아의 최신 GPU, CPU, 네트워킹 및 소프트웨어 기술은 시스템 제조사가 글로벌 시장을 위한 다양한 차세대 AI 워크로드를 가속화할 수 있도록 지원한다"며 “슈퍼마이크로는 블랙웰 아키텍처 기반 제품에 엔비디아 가속 컴퓨팅 플랫폼을 활용해 데이터센터에 쉽게 구축 가능한 최첨단 서버 시스템을 제공하고 있다"고 밝혔다.

2024.03.22 18:06김우용

[MWC] SKT, 슈퍼마이크로-람다와 AI 데이터센터 시장 공략

SK텔레콤이 슈퍼마이크로, 람다와 협력해 AI 분야 필수 인프라로 손꼽히는 AI 데이터센터(AI DC) 시장 공략에 본격 나선다고 29일 밝혔다. AI DC란 AI 학습과 추론 등에 필수적인 GPU 서버, 안정적 운영을 위한 전력 공급, 열효율 관리를 위한 냉각시스템을 제공하는 AI 시대 차세대 데이터센터다. SK텔레콤은 28일(현지시간) MWC24에서 서버 및 스토리지 시스템 제조 기업 슈퍼마이크로와 글로벌 AI DC 사업을 위한 협약을 체결했다. 슈퍼마이크로는 AI 및 GPU 시장 리더인 엔비디아로부터 칩을 공급받고 있는 주요 협력사다. 특히 최근 1년간 주가가 약 9배 상승하는 등 전 세계 AI 산업에서 가장 주목받고 있는 기업 중 하나다. 슈퍼마이크로는 데이터센터, 클라우드 컴퓨팅, 인공지능(AI), 5G, 엣지 컴퓨팅 등 다양한 시장에서 앱에 최적화된 서버 및 스토리지 시스템을 제공 중이다. 특히, 에너지 절감 및 환경 친화적인 제품을 설계, 구축할 수 있는 점이 큰 경쟁력으로 꼽힌다. 슈퍼마이크로는 SK텔레콤 AI DC에 서버를 공급하는 역할을 맡을 예정이다. 이에 앞서, SK텔레콤은 지난 21일 AI DC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 그래픽 처리장치(GPU)의 안정적 확보를 위해 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 람다는 엔비디아로부터 최신 GPU를 공급 받아 클라우드 서비스를 제공 중인 회사로, SK텔레콤은 람다 투자를 통해 GPU를 안정적으로 확보, 국내 최대 규모의 AI클라우드 역량을 기반으로 하는 AI DC 사업을 추진할 수 있을 것으로 기대하고 있다. 또한 양사는 글로벌 사업 협력을 위한 전략적 파트너십 계약도 상반기 내로 맺고, 국내외에서 AI 클라우드 시장 공략에 나설 계획이다. 최근 업계에서는 다수의 국내 기업들이 보유 중인 서비스 상품과 생성형 AI의 결합에 나선 상황으로, SK텔레콤은 AI 클라우드 시장 수요가 지속적으로 증가할 것으로 전망하고 있다. 양사가 협력할 AI DC는 전통적인 데이터센터와는 달리 다양한 파트너와의 협력이 필수인 분야다. SK텔레콤은 슈퍼마이크로와의 협력에 있어 자사 및 사피온은 물론 SK브로드밴드, SK하이닉스 등 그룹 내 관련 역량을 보유한 관계사와 함께 차별화 전략을 검토할 계획이다. SK텔레콤 통신 네트워크 AI 고도화에 슈퍼마이크로와 협력 SK텔레콤은 슈퍼 마이크로와의 협력을 기반으로 통신 네트워크에 AI를 접목하고 이를 통해 미래 통신 네트워크 엣지 지능화, 고도화에도 나설 계획이다. SK텔레콤은 네트워크 엣지에 AI를 적용하면 고객과 가까운 위치에서 데이터 처리가 가능해 통신 서비스의 성능을 높이고 응답 시간을 줄이는 등 다양한 장점이 있다고 설명했다. SK텔레콤 관계자는 "AIDC와 통신 네트워크의 조합을 통해 통신사 네트워크의 활용도가 크게 증가될 수 있다"라며 "SK그룹 내 다양한 관계사 역량을 결집해 통신 네트워크의 차별화에 나설 것"이라고 밝혔다. AI반도체 사피온 NPU 칩의 새로운 판로 확대 양사는 장기적으로 슈퍼마이크로가 공급하는 AI DC 서버에 AI 반도체 사피온 NPU칩을 탑재하는 것에 대해서도 협력하기로 했다. 또한 슈퍼마이크로가 보유한 글로벌 채널을 통해 사피온 NPU 서버를 전 세계 시장에 판매하는 것도 논의 중이다. SK텔레콤은 슈퍼마이크로와의 협력이 AI DC 활용 노하우 축적은 물론 사피온의 판로 확대에도 도움이 될 것으로 기대하고 있다. 유영상 SK텔레콤 사장은 “글로벌 AI DC 분야 리더 기업들과 협력은 SKT가 명실상부한 글로벌 AI 컴퍼니로 발돋움하기 위한 초석이 될 것”이라며 “슈퍼마이크로, 람다와의 협력을 통해 SKT AI DC는 연내 의미 있는 사업적 성과를 낼 수 있을 것으로 기대하고 있다”고 밝혔다.

2024.02.29 08:00박수형

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

K-반도체 육성, 기존 틀 깨야 불확실성 돌파…새 정부 과제 '산적'

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 187만...오늘 50만명에 유심재설정 안내

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현