• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'슈퍼마이크로'통합검색 결과 입니다. (26건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

美 법무부, 세계 3위 서버 제조사 슈퍼마이크로 조사 착수

미국 법무부가 세계 시장 점유율 3위 서버 업체인 슈퍼마이크로 조사에 들어갔다고 월스트리트저널이 26일(미국 현지시간) 익명의 소식통을 인용해 보도했다. 슈퍼마이크로는 인텔·AMD·엔비디아 등 미국 내 주요 반도체 기업이 생산한 프로세서와 GPU, AI 가속기 기반 서버를 생산해 공급한다. 세계 서버 시장에서 델테크놀로지스와 HPe에 이어 3위 업체로 5%~7% 가량 점유율을 유지하고 있다. 슈퍼마이크로는 엔비디아 고객사 중 규모 면에서 세 번째에 이른다. 인텔이 최근 출시한 제온6와 가우디3 AI 가속기 탑재 서버도 시장에 공개 예정이다. 월스트리트저널은 소식통을 인용해 "미국 법무부가 회사를 회계부정으로 고발한 전 임직원 관련 정보를 요청했다"고 밝혔다. 단 조사 관련 세부 내용까지 밝히지 않았다. 부실 기업이나 회계부정 기업 공매도로 차익을 올리는 미국 행동주의 펀드, 힌덴버그 리서치(Hindenburg Research)는 지난 8월 "슈퍼마이크로가 회계 부정을 저지르고 있다"고 주장하는 보고서를 내고 공매도에 나섰다. 힌덴버그 리서치는 "슈퍼마이크로가 부풀려진 수요에 따라 유통 채널에 물량을 공급하고 있고 회계규정 위반으로 미국 증권거래위원회(SEC)가 적발한 임원을 재고용했으며 지난 3년간 10억 달러(약 1조 3천173억원) 가량을 특수 관계에 있는 회사에 지원했다"고 주장했다. 슈퍼마이크로는 이달 초 "힌덴버그 리서치의 보고서는 사전에 공개한 정보를 잘못된 방법으로 해석한 부정확한 정보를 포함하고 있다"고 반박했다. 슈퍼마이크로는 예정대로라면 8월 말 끝났어야 하는 2분기 실적 공시도 연기한 상태다.

2024.09.27 10:16권봉석

슈퍼마이크로, '블랙웰' 탑재 AI 최적화 서버 공개

슈퍼마이크로컴퓨터는 생성형 AI 개발 및 구축을 지원하는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 최적화된 '슈퍼클러스터'를 11일 공개했다. 슈퍼마이크로 슈퍼클러스터는 산업을 막론하고 기업의 생성형 AI 채택을 가속화하는 클라우드 네이티브 솔루션을 위해 설계된 R2D 액침 냉각식 AI 데이터센터에서 사용된다. 엔비디아에서 최근 선보인 블랙웰 GPU에 슈퍼마이크로의 4U 수냉식 냉각 서버가 탑재돼 단일 GPU에서 20 페타 플롭스(FLOPS)의 AI 성능을 완벽하게 구현할 수 있다. 기존 GPU 대비 4배 강력한 AI 훈련 및 30배 강력한 추론 성능을 자랑하며, 추가적인 비용 절감 효과를 가져온다. 슈퍼마이크로는 시장 선점 전략에 따라 최근 블랙웰 아키텍처를 기반으로 한, 엔비디아 HGX B100, B200, 그리고 GB200 그레이스 블랙웰 슈퍼칩용 신규 제품군을 선보인 바 있다. 슈퍼마이크로는 '컴퓨텍스 2024'에 참가해 곧 출시될 엔비디아 블랙웰 GPU에 최적화된 서버를 공개했으며, 여기에는 엔비디아 HGX B200 기반의 10U 공냉식 및 4U 수냉식 냉각 서버가 포함됐다. 8U 공냉식 엔비디아 HGX B100 시스템, 엔비디아 NV링크 스위치와 상호 연결된 GPU 72개를 탑재한 슈퍼마이크로의 엔비디아 GB200 NVL72 랙, 그리고 엔비디아 H200 NVL PCLe GOU 및 엔비디아 GB200 NVL2 아키텍처를 지원하는 신규 엔비디아 MGX 시스템을 제공할 예정이다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI가 모든 컴퓨팅 스택의 재설정을 주도하고 있는 가운데, 새로운 데이터센터는 GPU 가속화로 AI에 최적화될 것”이라며 “슈퍼마이크로는 최첨단 엔비디아 가속 컴퓨팅 및 네트워킹 솔루션을 설계하고, 수조 달러 규모의 글로벌 데이터센터가 AI 시대에 최적화될 수 있도록 지원한다”고 밝혔다. LLM의 급속한 발전과 더불어 메타 라마3 및 믹스트랄 8x22B 같은 오픈소스 모델의 지속적인 출시로 인해 오늘날 최첨단 AI 모델에 대한 기업의 접근성이 높아졌다. 현재 폭발적인 AI 혁신을 지원하는 데 있어 가장 중요한 요소는 AI 인프라를 간소화하고 가장 비용 효율적인 방식에 대한 접근성을 제공하는 것이다. 슈퍼마이크로 클라우드 네이티브 AI 슈퍼클러스터는 엔비디아 AI 엔터프라이즈를 활용해 클라우드의 즉각적인 접근 편의성과 휴대성 사이의 간극을 메운다. 또한, 파일럿부터 프로덕션까지 모든 규모의 AI 프로젝트를 원활하게 추진할 수 있도록 지원한다. 이를 통해 호스팅 시스템이나 온프레미스 대규모 데이터센터를 비롯해 데이터를 안전하게 보호하는 곳에 유연성을 제공한다. 여러 업계의 기업들이 빠르게 생성형 AI 사용 사례를 실험하고 있는 가운데, 슈퍼마이크로는 엔비디아와의 긴밀한 협업을 통해 시험 및 파일럿 AI 애플리케이션에서 양산형 배포 및 대규모 데이터센터 AI로의 원활하고 매끄러운 전환을 보장한다. 이는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 통해 랙 및 클러스트 단위의 최적화를 이룬 결과로, 초기 탐색부터 확장 가능한 AI 구현까지 원활한 여정을 지원한다. 관리형 서비스는 인프라 채택, 데이터 공유, 그리고 생성형 AI 전략 제어에 부정적인 영향을 미친다. 하지만 슈퍼마이크로는 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 NIM 마이크로서비스를 통해 관리형 및 생성형 AI 및 오픈소스 배포의 장점만을 제공한다. 마이크로서비스를 활용한 다목적 추론 수행 시간은 오픈소스부터 엔비디아 기반 모델에 이르기까지 다양한 모델에서 생성형 AI 구축을 가속화한다. 또한, 엔비디아 NeMo를 지원해 데이터 큐레이션, 고급 커스터마이징 및 RAG를 통한 엔터프라이즈급 솔루션용 맞춤형 모델 개발이 가능하다. 슈퍼마이크로의 엔비디아 AI 엔터프라이즈용 슈퍼클러스터와 결합된 엔비디아 NIM은 확장 가능하고 가속화된 생성형 AI 프로덕션 구축을 향한 지름길로 안내한다. 슈퍼마이크로 수냉식 냉각 엔비디아 HGX H100·H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 5개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 공냉식 냉각 엔비디아 HGX H100/H200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 H100/H200 GPU 256개를 탑재한다. 슈퍼마이크로 엔비디아 MGX GH200 슈퍼클러스터는 전용 네트워킹 랙 1개를 포함해 총 9개의 랙에서 확장 가능한 컴퓨팅 단위로 그레이스 호퍼 슈퍼칩 256개를 탑재한다. 슈퍼마이크로 슈퍼클러스터는 엔드투엔드 생성형 AI 커스터마이징을 위해 엔비디아 NIM 마이크로서비스 및 엔비디아 네모(NeMo) 플랫폼 등 엔비디아 AI 엔터프라이즈를 탑재했다. 400Gbps의 네트워킹 속도로 수십만 개의 GPU가 있는 대규모 클러스터까지 확장 가능하며, 엔비디아 퀀텀-2 인피니밴드 및 신규 엔비디아 스펙트럼-X 이더넷 플랫폼에 최적화됐다. 슈퍼마이크로 슈퍼클러스터 솔루션은 LLM 학습, 딥러닝, 그리고 대용량 및 대규모 추론에 최적화됐다. 슈퍼마이크로의 L11 및 L12 검증 테스트와 현장 구축 서비스는 고객에게 원활한 경험을 선사한다. 데이터센터에서 도입이 쉽고, 그 결과를 보다 빠르게 확인할 수 있는 플러그 앤 플레이 확장형 유닛을 제공한다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "슈퍼마이크로는 랙 스케일 액침 냉각식 AI 솔루션을 개발 및 구축하며 지속적으로 업계를 선도하고 있다"며 "수냉식 냉각 데이터선터는 전력 사용량 감축을 통해 사실상 무상으로 제공되며, 이는 고객에게 추가적인 가치를 제공할 수 있다”고 밝혔다. 그는 “슈퍼마이크로의 솔루션은 다양한 산업군의 고객을 위해 엔비디아 AI 엔터프라이즈 소프트웨어에 최적화됐다”며 “엔비디아 HGX H100 및 H200은 물론, 새로 출시된 B100, B200, 그리고 GB200에 수냉식 또는 공냉식 냉각 턴키 클러스터를 배포하는 시간을 단축할 수 있다”고 설명했다. 그는 “냉각판부터 CPU와 냉각탑에 이르기까지 슈퍼마이크로의 랙 스케일 종합 액체 냉각 솔루션은 데이터센터에서 사용하고 있는 전력량을 최대 40%까지 줄일 수 있다”고 덧붙였다.

2024.06.11 10:31김우용

데이터센터 에너지 절감을 위한 슈퍼마이크로의 제안

전세계적으로 인공지능(AI) 수요가 폭발적으로 증가하면서 데이터센터의 에너지 소비 증가 문제가 대두되고 있다. 생성형 AI의 기반 인프라인 GPU 서버가 그 자체로 대량의 에너지를 소모하고, 서버 발열을 식히기 위한 냉각 시스템도 대량의 에너지를 필요로 하고 있다. 마이클 맥너니 슈퍼마이크로 마케팅 및 네트워크 시큐리티 부사장과 김성민 슈퍼마이크로 FAE & 비즈니스 개발 부문 이사는 최근 본지와 진행한 서면 인터뷰에서 데이터센터의 에너지 소비 문제를 진단하고 그에 대한 슈퍼마이크로의 솔루션을 설명했다. 마이클 맥너니 부사장은 “국제에너지기구(IEA)에 따르면 데이터센터, AI 및 암호화폐 부문의 전력 수요가 2026년까지 두 배 증가할 것으로 예측되며, 이중 데이터센터가 주요인으로 꼽혔다”며 “2022년 전세계 데이터센터는 연간 전력 소비 중 2%에 달하는 460테라와트시(TWh)의 전력을 소비했고, 2026년 1천TWh를 초과할 것으로 전망된다”고 설명했다. 그는 “데이터센터에서 냉각 시스템과 서버는 주요 전력 소비원으로, 일반적으로 각각 전체 소비량의 40%를 차지하며 나머지 20%는 전원 공급 시스템, 스토리지, 통신 장비가 사용한다”며 “ 2023년 전 세계 전력 생산으로 인한 CO2 배출량은 1만3천575 톤에 달했으며, 한국과 일본의 경우 728 톤을 배출했는데, 이는 데이터센터의 전력 사용량을 감축했을 때 환경에 미치는 영향 또한 줄일 수 있음을 의미한다”고 밝혔다. 그는 “기후 변화가 점점 더 악화될 것으로 예상되는만큼 데이터센터의 환경 영향을 저감하기 위한 조치를 취해야 할 때”라며 “서버 기술의 발전 및 가용 범위의 증가에도 불구하고 대부분의 서버는 최대 성능에 훨씬 못 미치는 수준으로 실행되고, 가장 효율적인 서버도 약 50% 정도의 성능만만 발휘하며 에너지 낭비를 초래한다”고 덧붙였다. 환경단체뿐 아니라 정부, 기업 등도 데이터센터의 에너지 소비 증가 문제를 심각하게 여기고 있다. 하지만 투자평가사의 기업 ESG 평가 체제 중 IT 인프라에만 초점을 맞춘 구체적인 표준 등급이나 측정 항목은 없다. 다만 에너지 효율성, 재생 에너지 사용, 탄소 발자국, 전자 폐기물 관리, 공급망 영향, 데이터 보안 및 개인정보 보호 등 다양한 요소가 기업의 지속가능성 달성에 대한 평가 중 일부분으로 고려된다. 맥너니 부사장은 “슈퍼마이크로는 많은 제품의 제품 탄소발자국(PCF) 리포트를 최적화하기 위해 노력하고 있다”며 “다만 광범위한 포트폴리오로 인해 많은 시간이 필요해 요청에 따라 준비하고 있고, 여러가지 EPEAT 인증도 진행하고 있으며, 이는 슈퍼마이크로 및 EPEAT 웹사이트에 게시될 예정”이라고 밝혔다. 생성형 AI에서 고집적 GPU 클러스터의 급증에 따른 데이터센터 에너지 소비문제는 매우 심각하다. 마이클 맥너니 부사장에 의하면, 하이퍼스케일 데이터센터 하나에서 서버, 스토리지, 그리고 네트워킹 인프라를 원활히 작동하기 위해선 100메가와트(MW)의 전력을 필요로 한다. 이는 미국 8만 가구에 전력을 공급할 수 있는 양이다. 그는 “지정학적 여건에 따라 차이는 있지만 세계 각지에서 생산하는 전기 중 약 80%가 석탄, 가스, 석유 등 화석 연료를 연소하는 방식으로 만들어지고 있다”며 “일부 데이터센터와 이를 운영하는 기업이 재생 가능한 에너지로의 전환 또는 화석 연료 소비 감축을 위한 목표를 세우고 있으나, 데이터센터는 여전히 화석 연료를 태우는 전력망을 상당량 사용해 에너지 수요를 충족하고 있다”고 설명했다.. 그는 워크로드에서 에너지를 절감할 수 있는 방안으로 워크로드에 적합한 규모의 시스템 사용, 멀티 노드 및 블레이드 효율성 향상, 주요 서버 시스템의 구성 요소 선택 및 최적화, 서버 시스템 구성 요소의 교체 주기 늘리기 등을 제시했다.  맥너니 부사장은 “데이터센터 내 각 워크로드에 적합한 서버를 선택하면 전력 소비를 크게 줄일 수 있다”며 “최적화된 서버 시스템은 워크로드 요건에 맞춰 불필요한 처리를 최소화하며, 에너지 효율적인 설계와 부품 공유를 특징으로 하는 최신 서버는 와트당 처리량이 많아 전력 사용량을 줄인다”고 설명했다. 그는 “맞춤 설계는 불필요한 기능, 비용, 열 발생을 줄인다”며 “고속 CPU나 광범위한 I/O 기능을 요구하는 등 각 워크로드에 따라 맞춤화 된 서버가 과도한 용량 및 비용을 줄일 수 있다”고 덧붙였다. 다수의 노드에서 전원 공급 장치 및 팬과 같은 리소스를 공유해 부품 중복을 줄이고, 더 크고 효율적인 부품을 사용 가능하도록 함으로써 서버 시스템의 효율성을 높일 수 있다고 그는 강조했다. 그는 “이를 통해 모든 노드가 작동 중일 때 전력 소비를 줄일 수 있다”며 “또 다른 방법은 독립 서버가 네트워킹, 전원 공급 장치, 팬을 공용함으로써 랙 공간 및 케이블을 줄이는 것으로, 이는 공랭식 서버의 에너지 절약에는 케이블로 인한 공기 흐름 방해를 최소화하는 것이 중요하기 때문”이라고 설명했다. 이어 “특히 통합 스위칭 서버의 경우 일반적으로 연결 케이블 수가 적어 섀시 내외부에 전략적으로 케이블을 배치하면 에너지 효율 향상에 도움이 될 수 있다”며 “예를 들어, 1U 랙 마운트 서버 20대 대비 8U 섀시에 블레이드 20개가 탑재된 최신 블레이드 시스템은 케이블이 95% 감소하며, 공기 흐름 개선 및 팬 속도 감소로 인해 전기 사용량도 줄어든다”고 밝혔다.. 주요 서버 시스템의 구성 요소 선택 및 최적화 에 대해선 하드웨어와 워크로드 및 서비스수준협약(SLA) 준수율까지 고려해 새 서버 하드웨어를 구매해야 한다고 했다. 애플리케이션 실행에 소비되는 전력을 줄일 수 있다는 이유다. 그는 “CPU와 GPU 설계가 발전함에 따라 최신 서버의 와트당 성능은 최대 3배 높아지므로, 데이터센터의 서비스를 확장하면서도 필요한 전력량을 유지 또는 감축하려 할 때 도움이 된다”며 “CPU의 경우 코어 수, 클럭 속도, 전력 소모량, 캐시 크기 등의 옵션이 전기 사용량 및 열 출력에 직접적인 영향을 미친다”고 설명했다. 그는 “이메일 서버와 같이 처리 시간이 유연한 워크로드의 경우 저전력 CPU로도 충분할 수 있으며, 데이터베이스 작업과 같이 완료 속도가 중요한 작업에는 고성능 CPU가 적합하다”며 “GPU 같은 가속기는 특정 작업에서 성능을 향상시켜 작동 시간 및 전력 비용을 줄일 수 있는데, 하드 디스크 드라이브(HDD)에서 솔리드 스테이트 드라이브(SSD)로의 전환 시, 특히 I/O 집약적인 애플리케이션에서 데이터 검색 시간 및 전력 소비량이 줄어들며 이는 서버 운영의 전반적인 에너지 효율성에 기여한다”고 했다. 현재 아마존웹서비스(AWS), 마이크로소프트, 구글 등은 자사 데이터센터의 서버시스템 구성요소의 사용연한을 느려 시스템 교체주기를 늦추고 있다. 애플리케이션이 AI 학습이나 콘텐츠 전송 네트워크 등에 더 많은 데이터를 소요함에 따라 서버는 가격과 성능 측면에서 지속적으로 강화돼야 하지만, 서버 구성 요소는 각기 다른 속도로 발전하기 때문에 교체 주기가 서로 일치하지 않을 가능성이 있으며 전자 폐기물로 이어진다. 맥너니 부사장은 “이 때 분리형 방식을 사용한다면 최신 기술이 출시될 때마다 구성품 또는 하위 시스템을 개별적으로 교체할 수 있고, 그 결과로 서버를 통째로 폐기하는 일이 줄어든다”며 “잘 설계된 섀시는 전체가 아닌 각 구성 요소를 기술 주기에 따라 매끄럽게 교체할 수 있다”고 했다. 그는 “서버의 경우 다양한 CPU와 GPU를 수용하도록 설계된다면 전체 유닛을 폐기하지 않고 선택적으로 구성 요소를 업그레이드할 수 있다”며 “이러한 접근 방식은 환경에 미치는 영향을 최소화하는 동시에 서버가 발전하는 기술 요건에 맞춰 최신 상태를 유지하도록 보장한다”고 강조했다. 전세계적으로 데이터센터 에너지 소비 절약에 대한 관심과, 실천 정도는 어느정도일까. 국제에너지기구(IEA)에 따르면 2022년 전 세계 데이터센터에서 소비한 전력량은 460TWh에 달한다. 이는 전체 에너지 소비량 중 약 2%를 차지한다. 이로 인해 주요 국가들은 데이터센터에 대한 에너지 효율 규제를 도입하고 있다. EU는 2023년 10월 'EU 에너지 효율 지침(EED)'를 개정하며 이러한 변화를 선도하고 있다. EED는 2012년에 처음 채택되었으며, 에너지 효율 목표 달성을 위한 규칙 및 의무를 다루고 있다. 이번 개정은 EU가 2030년까지 2020년 기준치 대비 에너지 소비를 11.7% 추가 감축하기로 합의함에 따라 이루어졌다. 연간 에너지 절감 목표는 2023년 0.8%에서 2024년 이후 1.3%, 2030년 1.9%로 증가한다. 김성민 이사는 “세계적인 추세에 따라 우리나라도 구체적인 정책을 시행하기 시작했다”며 “정부가 건물 에너지 관리를 위해 도입한 제로에너지건축물(ZEB) 인증제도가 대표적인 예”라며 “ZEB는 건물의 에너지 부하를 최소화하고 신재생 에너지를 사용해 에너지 소비를 최소화하는 친환경 건축물로, 2017년부터 인증제도를 시행했다”고 설명했다. 그는 “2020년부터 연면적 1000m2 이상의 공공건축물에 의무화됐으며, 이는 민간 건축물까지 확장될 예정”이라며 “민간 데이터센터는 2025년부터 일정량의 재생에너지를 의무적으로 사용해야 한다는 의미로,. ZEB인증은 1) 에너지 효율 등급 1++ 이상, 2) 에너지 자립률 20% 이상, 3) 건물 에너지 관리 시스템(BEMS) 또는 원격 전자 계량기 설치 등을 기준으로 한다”고 했다. 그는 “이러한 정책의 확대는 기업들이 보다 적극적으로 데이터센터의 에너지 소비를 감축하는 데 동참할 수 있도록 장려할 것”이라며 “결과적으로, 전체 전력 소비의 40%를 차지하는 냉각 시스템에 대한 관심이 높아지고, 보다 효율적인 칠러 선택의 중요성도 강조될 것”이라고 덧붙였다. 슈퍼마이크로는 데이터센터 리소스 최적화를 위한 표준화와 비즈니스 경쟁력을 위한 유연성 간의 균형을 맞추기 위해 노력하고 있다. 슈퍼마이크로의 메가DC 및 클라우드DC 제품군은 차세대 하이퍼스케일 데이터센터를 위한 핵심 솔루션으로 제시된다. 버전 관리를 위한 OpenBMC, OCP3.0 SFF 표준을 지원하는 AIOM 모듈, 전력 최적화 설계를 비롯한 개방형 규격의 확장된 지원을 통해 데이터센터 운영자는 기존 인프라를 개조하지 않고도 개방형 컴퓨팅 개념의 이점을 누릴 수 있다고 회사측은 강조한다. 맥너니 부사장은 “슈퍼마이크로의 AIOM은 OCP3.0을 준수하고 향상된 기계 설계는 섀시를 열지 않고 서비스 및/또는 교체가 가능하도록 해 서비스 및 유지보수가 용이하다”며 “AIOM/OCP 3.0을 지원하는 플랫폼은 향상된 열 제어 기능으로 냉각 비용 절감이 가능하며, 소형 폼 팩터에 다양한 네트워킹 옵션이 제공되므로 간편한 구축이 가능하고, 열 효율이 높은 구성 요소를 갖춰 관리와 서비스가 간편하다”고 밝혔다. 그는 “슈퍼마이크로는 OCP 3.0 설계 개념을 활용해 아키텍처에 AIOM을 구현했을 때 아키텍처가 개선된 기성 표준 솔루션을 제공한다”고 덧붙였다.: 슈퍼마이크로의 AIOM 카드는 마더보드 상단에 수직 또는 수평으로 설치되는 기존 PCI-E와 달리 마더보드와 동일한 레벨에 설치되도록 설계됐다. 이로 인해 시스템 전체의 공기 흐름을 크게 증가시켜 열 관리를 개선한다. 기존 PCI-E 카드는 상단에 설치되어 설치 및 교체 시 섀시 상단을 열어야 하는 반면, AIOM 카드는 섀시 후면에서 설치되기 때문에 번거로운 작업이 필요하지 않으며, 풀 탭과 나사 노브로 인해 별도의 도구 없이 서비스 가능하다. 맥너니 부사장은 “슈퍼마이크로는 소형 폼 팩터(SFF), 열 효율성, 손쉬운 서비스 가능성, 그리고 OpenBMC 구현을 통해 서비스 시간을 단축하고 시스템 다운타임을 최소화하는 솔루션을 제공한다”며 “서버부터 랙, 데이터센터 규모까지 AIOM 탑재 솔루션을 도입한다면 인프라가 확장되는 만큼 TCO도 개선된다”고 밝혔다. 2018년 슈퍼마이크로는 실리콘밸리에서 최초로 청정 연료전지 에너지를 사용한 첨단 시설 '빌딩 21'을 공개했다. 이 시설은 로봇을 이용해 60대의 랙을 자동으로 한 번에 번인할수 있는 시설을 갖췄으며, 대규모 데이터센터에 필요한 장비를 신속하게 조립, 공급, 설치할 수 있다. 그는 “약 1만9천 제곱미터 규모의 건물에 생산 라인, 테스트 시설, 번인 시설, 랙 조립 시설이 갖춰져 있고, 슈퍼마이크로는 이와 같은 최첨단 시설을 통해 서버 구축 및 테스트부터 공급 단계까지의 엔드 투 엔드 프로세스를 관리하는 것은 물론, 에너지를 대폭 절약하고 환경 오염을 효과적으로 줄이는 데 앞장서고 있다”며 “빌딩 21을 통해 슈퍼마이크로는 향후 10년간 약 800만 달러의 에너지 비용을 절감할 수 있을 것으로 예상한다”고 강조했다. 슈퍼마이크로는 전세계적인 데이터센터 현대화 추세 속에서 강세를 보이며 급성장하고 있다. 맥너니 부사장은 '그린 컴퓨팅'에 초점을 맞춘 투자와 역량 강화에 있다고 했다. 그는 “전 세계 전력 수요의 1%에서 1.5%까지 소비하는 오늘날의 데이터센터에 그린 컴퓨팅은 매우 중요하다”며 “슈퍼마이크로의 완벽한 랙 스케일 수냉식 솔루션은 기존 냉각 방식의 필요성을 크게 낮추며, 공급 장치와 펌프는 핫스왑 및 이중 전원이 가능해 장애 발생 시 고성능 AI 및 HPC에 최적화된 서버의 랙 전체를 효율적으로 냉각할 수 있다”고 밝혔다. 그는 “이러한 솔루션은 CPU와 GPU 모두에 맞춤 설계된 콜드 플레이트를 사용해 기존 설계보다 효율적으로 열을 제거한다”며 “슈퍼마이크로 기술로 데이터센터 PUE를 1.0에 가깝게 낮출 시 30개의 화석 연료 발전소 건설을 하지 않아도 되며, 그로 인해 최대 100억 달러의 에너지 비용을 절감할 수 있다”고 설명했다. 슈퍼마이크로의 서버는 성능 대비 적은 전력을 사용하도록 설계됐다. 이는 가능한 경우 부품을 공유하는 설계를 통해 이뤄진다. 또한 슈퍼마이크로 서버는 전체 섀시 전체를 교체하지 않고 CPU, 메모리, 스토리지 등 개별 하위 시스템을 업그레이드할 수 있도록 설계됐다. 이러한 분리형 설계를 사용하면 전자 폐기물을 크게 줄이고 새로운 기술을 도입할 때 비용을 절감할 수 있다. 그는 “슈퍼마이크로 그린 컴퓨팅의 핵심은 슈퍼마이크로가 전력 소비를 줄이는 엔비디아, 인텔, AMD 등의 최신 CPU 및 GPU 기술을 통해 최첨단 서버와 스토리지 시스템을 설계, 제조 가능하게 한다는 것”이라며 “슈퍼마이크로의 혁신적인 랙 스케일 수냉식 냉각 옵션을 통해 데이터센터 전력 사용 비용을 최대 40%까지 줄일 수 있다”고 밝혔다. 그는 “엔비디아 HGX H100 8-GPU 서버를 탑재한 슈퍼마이크로의 대표 GPU 서버는 AI 워크로드로 인해 수요가 지속 증가하고 있다”며 “슈퍼마이크로는 전 세계 통틀어 매월 5천 개의 랙을 출하할 수 있으며, 그 결과 매출 200억 달러 달성을 향해 성장할 것으로 기대된다”고 강조했다.

2024.04.25 13:17김우용

슈퍼마이크로, X14 서버에 6세대 인텔 제온 탑재 예고

슈퍼마이크로컴퓨터는 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 17일 공개했다. 신제품은 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 광범위한 인텔 제온 6 프로세서 신제품군을 결합했다. 슈퍼마이크로는 고객의 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 슈퍼마이크로의 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온6 프로세서에 대한 소켓 호환성을 지원한다. 해당 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어 SKU와 AI, HPC, 스토리지 및 엣지 워크로드에 대해 코어당 성능을 높이는 P-코어 SKU로 제공된다. 인텔 AMX에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 대폭 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다. 라이언 타브라 인텔 부사장 겸 제온 E-코어 제품 부문 총괄은 "해당 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다”며 “고객은 온프레미스, 클라우드, 또는 엣지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다"고 강조했다. 슈퍼마이크로의 X14 서버 제품군은 성능 및 에너지 효율의 최적화, 관리 용이성과 보안 개선, 개방형 산업 표준 지원, 랙 스케일 최적화를 갖췄다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것"이라며 "슈퍼마이크로는 수냉식 100kW 랙 1천350개를 포함해 전 세계적으로 매월 5천개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다”고 밝혔다. 그는 “현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다"고 덧붙였다. 한편, 슈퍼마이크로는 워크로드 검증을 위해 원격 점프스타트 및 조기 배송 프로그램을 제공함으로써 일부 고객에게 인텔 제온 6 프로세서로 구동되는 새로운 X14 서버에 대한 조기 엑세스를 제공할 예정이라고 밝혔다.

2024.04.17 09:18김우용

슈퍼마이크로, 풀스택 생성형 AI 슈퍼클러스터 3종 출시

슈퍼마이크로컴퓨터(이하 슈퍼마이크로)는 생성형 AI의 도입을 가속화하기 위한 슈퍼클러스터 포트폴리오를 22일 발표했다. 최신 솔루션은 현재는 물론 미래의 거대언어모델(LLM) 인프라에도 적합한 핵심 빌딩 블록을 제공한다. 슈퍼마이크로 슈퍼클러스터 솔루션 3종은 현재 생성형 AI 워크로드에 사용 가능하다. 4U 수냉식 냉각 시스템 또는 8U 공냉식 냉각 시스템은 강력한 LLM 학습 성능은 물론 대규모 배치와 대용량 LLM 추론용으로 특별히 제작 및 설계됐다. 1U 공냉식 슈퍼마이크로 엔비디아 MGXTM 시스템을 갖춘 슈퍼클러스터는 클라우드 규모 추론에 최적화됐다. 슈퍼마이크로 4U 엔비디아 HGX H100/H200 8-GPU 시스템은 수냉식 냉각을 사용해 8U 공랭식 시스템의 밀도를 두 배로 높이고 에너지 소비량과 데이터센터 TCO를 낮춘다. 차세대 엔비디아 블랙웰 아키텍처 기반의 GPU를 지원하도록 설계됐다. 슈퍼마이크로 냉각 분배 장치(CDU)와 매니폴드(CDM)는 냉각된 액체를 슈퍼마이크로의 맞춤형 D2C 콜드 플레이트에 분배하기 위한 핵심 부품으로, GPU와 CPU를 최적의 온도로 유지하고, 성능을 극대화한다. 이러한 냉각 방식은 데이터센터의 총 전기 비용을 최대 40% 절감하고 물리적 공간도 절약할 수 있다. 엔비디아 HGX H100/H200 8-GPU를 탑재한 시스템은 생성형 Al 학습에 이상적이다. 엔비디아 NV링크 로 상호 연결된 고속 GPU와 더불어 넓은 GPU 메모리 대역폭 및 용량은 LLM 모델의 비용 효율적인 구동에 핵심적인 역할을 한다. 슈퍼마이크로의 슈퍼클러스터는 하나의 AI 슈퍼컴퓨터처럼 작동하는 대규모 GPU 리소스 풀을 생성한다. 조 단위의 토큰으로 구성된 데이터 세트로 학습된 대규모 기초 모델을 처음부터 구축하거나 클라우드 규모의 LLM 추론 인프라를 구축할 때, 비차단 400Gbps 패브릭을 갖춘 스파인 및 리프 네트워크 토폴로지를 사용한다면 32개 노드에서 수천 개의 노드까지 원활하게 확장할 수 있다. 슈퍼마이크로는 수냉식 냉각을 활용하는 테스트를 통해 배포 전에 운영 효율성과 효과를 철저하게 검증한다. 슈퍼마이크로의 엔비디아 MGX 시스템 설계는 엔비디아 GH200 그레이스 호퍼 슈퍼칩을 통해 생성형 AI의 주요 병목 현상을 해결하는 미래형 AI 클러스터에 대한 청사진을 제시할 것이다. 이때 병목 현상은 운영비용을 절감하기 위해 고성능 추론 배치 규모로 LLM을 실행하는 GPU 메모리 대역폭과 용량을 의미한다. 256노드 클러스터는 쉽게 구축 및 확장이 가능한 클라우드 규모의 대규모 추론 성능을 지원한다. 랙 5개에 4U 수냉식 냉각 시스템 또는 랙 9개에 8U 공랭식 시스템을 갖춘 슈퍼클러스터는 확장 가능한 유닛 하나에 엔비디아 H100/H200 텐서 코어 GPU 256개를 탑재한다. 수냉식 냉각의 경우 공냉식 256 GPU 및 32노드 솔루션과 동일한 설치 면적에서 512 GPU, 64노드를 지원한다. 확장 가능한 유닛 하나에 엔비디아 H100을 포함한 20TB HBM3 또는 엔비디아 H200을 포함한 36TB HBM3e을 탑재한다. 1대1 네트워킹으로 각 GPU에 최대 400Gbps를 제공하며, 최대 조 단위의 매개변수로 LLM을 학습시키기 위한 GPU 다이렉트 RDMA 및 스토리지를 활성화한다. 엔비디아 퀀텀-2 인피니밴드, 엔비디아 스펙트럽-X 이더넷 플랫폼 등 확장성이 뛰어난 스파인-리프 네트워크 토폴로지를 갖춘 400G 인피니밴드 또는 400GbE 이더넷 스위치 패브릭으로 연결된다. 병렬 파일 시스템 옵션을 갖춘 맞춤형 AI 데이터 파이프라인 스토리지 패브릭을 구성한다 .엔비디아 AI 엔터프라이즈 5.0 소프트웨어로 대규모 AI 모델 구축을 가속화하는 새로운 엔비디아 NIM 추론 마이크로서비스를 지원한다. 랙 9개에 1U 공냉식식 냉각 엔비디아 MGX 시스템을 갖춘 슈퍼클러스터는 확장 가능한 유닛 하나에 256개의 GH200 그레이스 호퍼 슈퍼칩을 장착하며, 최대 144GB의 HBM3e + 480GB의 LPDDR5X 통합 메모리로, 하나의 노드에 70B+ 매개변수 모델을 수용할 수 있다. 400G 인피니밴드 또는 400GbE 이더넷 스위치 패브릭을 지원하며, 노드당 최대 8개의 내장 E1.S NVMe 스토리지 장치를 제공한다. 엔비디아 블루필드-3 DPU와 맞춤형 AI 데이터 파이프라인 스토리지 패브릭으로 각 GPU에 많은 처리량과 짧은 지연 시간의 스토리지 액세스를 제공한다. 엔비디아 AI 엔터프라이즈 5.0 소프트웨어를 제공한다. 슈퍼마이크로의 슈퍼클러스터 솔루션은 GPU-GPU 연결을 위해 달성할 수 있는 네트워크 성능을 갖췄으며, LLM 훈련, 딥 러닝, 그리고 대용량 및 대규모 배치 추론에 최적화됐다. 현장 배포 서비스와 결합된 슈퍼마이크로의 L11 및 L12 검증 테스트는 고객에게 매끄러운 사용 경험을 제공한다. 고객은 플러그 앤 플레이 확장형 유닛을 통해 데이터센터에 쉽게 구축하고 더 빠르게 결과를 얻을 수 있다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "AI 시대에 컴퓨팅 단위는 단순히 서버 수가 아닌 클러스터로 측정된다”며 “슈퍼마이크로는 글로벌 제조량을 월 5,000개의 랙으로 확장해 그 어느 때보다 빠르게 완전한 생성형 AI 클러스터를 제공할 수 있다"고 설명했다. 그는 "확장 가능한 클러스터 빌딩 블록에 64노드 클러스터는 400Gb/s 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹을 갖춰 72TB의 HBM3e및 512개의 엔비디아 HGX H200 GPU를 지원한다”고 밝혔다 이어 “슈퍼마이크로의 슈퍼클러스터 솔루션은 엔비디아 AI 엔터프라이즈 소프트웨어와 결합됐다”며 “그 결과 오늘날 최대 조 단위의 매개변수로 LLM을 학습하는 기업 및 클라우드 인프라에 이상적”이라고 덧붙였다. 카우츠브 상하니 엔비디아 GPU 제품 부문 부사장은 "엔비디아의 최신 GPU, CPU, 네트워킹 및 소프트웨어 기술은 시스템 제조사가 글로벌 시장을 위한 다양한 차세대 AI 워크로드를 가속화할 수 있도록 지원한다"며 “슈퍼마이크로는 블랙웰 아키텍처 기반 제품에 엔비디아 가속 컴퓨팅 플랫폼을 활용해 데이터센터에 쉽게 구축 가능한 최첨단 서버 시스템을 제공하고 있다"고 밝혔다.

2024.03.22 18:06김우용

[MWC] SKT, 슈퍼마이크로-람다와 AI 데이터센터 시장 공략

SK텔레콤이 슈퍼마이크로, 람다와 협력해 AI 분야 필수 인프라로 손꼽히는 AI 데이터센터(AI DC) 시장 공략에 본격 나선다고 29일 밝혔다. AI DC란 AI 학습과 추론 등에 필수적인 GPU 서버, 안정적 운영을 위한 전력 공급, 열효율 관리를 위한 냉각시스템을 제공하는 AI 시대 차세대 데이터센터다. SK텔레콤은 28일(현지시간) MWC24에서 서버 및 스토리지 시스템 제조 기업 슈퍼마이크로와 글로벌 AI DC 사업을 위한 협약을 체결했다. 슈퍼마이크로는 AI 및 GPU 시장 리더인 엔비디아로부터 칩을 공급받고 있는 주요 협력사다. 특히 최근 1년간 주가가 약 9배 상승하는 등 전 세계 AI 산업에서 가장 주목받고 있는 기업 중 하나다. 슈퍼마이크로는 데이터센터, 클라우드 컴퓨팅, 인공지능(AI), 5G, 엣지 컴퓨팅 등 다양한 시장에서 앱에 최적화된 서버 및 스토리지 시스템을 제공 중이다. 특히, 에너지 절감 및 환경 친화적인 제품을 설계, 구축할 수 있는 점이 큰 경쟁력으로 꼽힌다. 슈퍼마이크로는 SK텔레콤 AI DC에 서버를 공급하는 역할을 맡을 예정이다. 이에 앞서, SK텔레콤은 지난 21일 AI DC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 그래픽 처리장치(GPU)의 안정적 확보를 위해 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 람다는 엔비디아로부터 최신 GPU를 공급 받아 클라우드 서비스를 제공 중인 회사로, SK텔레콤은 람다 투자를 통해 GPU를 안정적으로 확보, 국내 최대 규모의 AI클라우드 역량을 기반으로 하는 AI DC 사업을 추진할 수 있을 것으로 기대하고 있다. 또한 양사는 글로벌 사업 협력을 위한 전략적 파트너십 계약도 상반기 내로 맺고, 국내외에서 AI 클라우드 시장 공략에 나설 계획이다. 최근 업계에서는 다수의 국내 기업들이 보유 중인 서비스 상품과 생성형 AI의 결합에 나선 상황으로, SK텔레콤은 AI 클라우드 시장 수요가 지속적으로 증가할 것으로 전망하고 있다. 양사가 협력할 AI DC는 전통적인 데이터센터와는 달리 다양한 파트너와의 협력이 필수인 분야다. SK텔레콤은 슈퍼마이크로와의 협력에 있어 자사 및 사피온은 물론 SK브로드밴드, SK하이닉스 등 그룹 내 관련 역량을 보유한 관계사와 함께 차별화 전략을 검토할 계획이다. SK텔레콤 통신 네트워크 AI 고도화에 슈퍼마이크로와 협력 SK텔레콤은 슈퍼 마이크로와의 협력을 기반으로 통신 네트워크에 AI를 접목하고 이를 통해 미래 통신 네트워크 엣지 지능화, 고도화에도 나설 계획이다. SK텔레콤은 네트워크 엣지에 AI를 적용하면 고객과 가까운 위치에서 데이터 처리가 가능해 통신 서비스의 성능을 높이고 응답 시간을 줄이는 등 다양한 장점이 있다고 설명했다. SK텔레콤 관계자는 "AIDC와 통신 네트워크의 조합을 통해 통신사 네트워크의 활용도가 크게 증가될 수 있다"라며 "SK그룹 내 다양한 관계사 역량을 결집해 통신 네트워크의 차별화에 나설 것"이라고 밝혔다. AI반도체 사피온 NPU 칩의 새로운 판로 확대 양사는 장기적으로 슈퍼마이크로가 공급하는 AI DC 서버에 AI 반도체 사피온 NPU칩을 탑재하는 것에 대해서도 협력하기로 했다. 또한 슈퍼마이크로가 보유한 글로벌 채널을 통해 사피온 NPU 서버를 전 세계 시장에 판매하는 것도 논의 중이다. SK텔레콤은 슈퍼마이크로와의 협력이 AI DC 활용 노하우 축적은 물론 사피온의 판로 확대에도 도움이 될 것으로 기대하고 있다. 유영상 SK텔레콤 사장은 “글로벌 AI DC 분야 리더 기업들과 협력은 SKT가 명실상부한 글로벌 AI 컴퍼니로 발돋움하기 위한 초석이 될 것”이라며 “슈퍼마이크로, 람다와의 협력을 통해 SKT AI DC는 연내 의미 있는 사업적 성과를 낼 수 있을 것으로 기대하고 있다”고 밝혔다.

2024.02.29 08:00박수형

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

정부 위약금 면제 판단에...KT "해킹 보상안 조속히 발표"

배민 독주에 균열...새해 승부처는 ‘AI 효율화’

분리 매각 카드 꺼낸 홈플러스…마트는 어떻게 되나

쿠팡 사실상 '1만원' 보상...부정 여론 잠잠해질까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.