• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'HPE'통합검색 결과 입니다. (40건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

HPE, 국가 슈퍼컴퓨터 6호기 구축 사업 수주…"AI 연구 허브 만든다"

HPE가 국내 최대 규모의 슈퍼컴퓨터 구축 사업을 수행하는 중책을 맡게 됐다. HPE는 한국과학기술정보연구원(KISTI)의 국가 슈퍼컴퓨터 6호기 'KISTI-6' 구축 사업자로 선정됐다고 14일 밝혔다. HPE는 KISTI-6를 한층 발전된 다목적 컴퓨팅 아키텍처로 구성할 계획이며 이를 통해 국내 최고 슈퍼컴퓨터 성능을 갖추게 될 것으로 기대하고 있다. 특히 팬 없는 100% 직접 수냉 방식(DLC) 아키텍처를 채택해 효율성과 지속가능성, 집적도를 높인 것이 특징이다. KISTI는 연구 기관, 대학, 다양한 규모의 민간 기업 등 폭넓은 사용자를 대상으로 슈퍼컴퓨팅 서비스를 제공해 왔다. 새롭게 도입될 이번 슈퍼컴퓨터는 데이터 집약적인 고난도 연구 과제를 폭넓게 지원하며 국내 인공지능(AI), 시뮬레이션 기반 연구개발의 핵심 인프라 역할을 수행할 예정이다. 이 시스템은 이론상 최대 600페타플롭스(PF)의 연산 성능을 제공할 수 있다. HPE 조셉 양 아시아태평양·인도 HPC·AI 부문 총괄은 “슈퍼컴퓨팅의 선두 주자로서 전 세계에서 가장 빠르고 에너지 효율적인 HPC 및 AI용 시스템을 다수 구축해 왔다"며 "우리는 전력 소비를 최소화하면서 비즈니스 성과를 극대화할 수 있도록 지원하는 독보적인 위치에 있다”고 강조했다. 이어 "이번 전략적 사업을 통해 한국의 기초 과학 연구 및 첨단 AI 역량 강화에 기여하게 돼 매우 뜻깊게 생각한다"며 "이는 국가 연구개발(R&D) 혁신을 가속화하려는 한국의 중장기 비전과도 부합한다"고 덧붙였다. 이번에 구축되는 슈퍼컴퓨터 6호기는 두 개의 파티션으로 구성된 'HPE 크레이 슈퍼컴퓨팅 EX4000'을 기반으로 엔비디아 GH200 그레이스 호퍼 슈퍼칩과 5세대 AMD 에픽 프로세서를 탑재할 예정이다. 최신 AI 가속기는 학습·추론·시뮬레이션에 필요한 대용량 데이터를 처리할 예정이다. 또 엑사스케일 인터커넥트를 지원하는 'HPE 슬링샷 인터커넥트 400'은 컴퓨팅 및 스토리지 유닛 간 초당 400기가비트(Gb) 속도의 고속 데이터 전송을 지원하며 워크로드와 애플리케이션의 시스템 전반 확장성을 높인다. 엔비디아 존 조세파키스 슈퍼컴퓨팅·HPC 부문 부사장은 "전 세계 연구원·과학자·전문가들은 점점 더 증가하는 슈퍼컴퓨팅 수요에 대응하기 위해 고도화되고 복잡한 AI 및 시뮬레이션 기능에 더욱 의존하고 있다"며 "KISTI, HPE와의 협력을 통해 HPC 접근성을 확대하고 산업 전반과 연구팀이 더욱 빠르고 효율적으로 혁신할 수 있도록 지원할 것"이라고 밝혔다. AMD 피터 챔버스 아태지역 총괄은 "세계 최고 수준의 슈퍼컴퓨터에 기술을 공급한 경험을 바탕으로 HPE와 협력해 AI에 최적화된 업계 최고의 CPU인 5세대 에픽 프로세서를 KISTI-6에 구축하고 있다"며 "혁신적인 성능과 탁월한 에너지 효율을 통해 연구진이 복잡한 과제를 보다 빠르고 효율적으로 해결할 수 있도록 지원하고 있다"고 말했다. KISTI는 데이터 집약적인 워크로드 수요 증가에 대응하기 위해 효율적이고 확장 가능한 데이터 관리를 위한 고속 NVMe와 대용량 NL-SAS 디스크, HPE 데이터 매니지먼트 프레임워크를 탑재한 'HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000'도 함께 도입한다. KISTI의 복잡한 연구 요구 사항에 맞춘 완전 통합형 솔루션은 HPE가 설계·제공하며 수냉식 시스템을 위해 특별히 맞춰진 정부 데이터센터에 배치될 예정이다. 이식 KISTI 원장은 "산업 전반의 혁신을 촉진하고 사회적 가치를 높이기 위해서는 AI의 접근성과 포용성을 확보하는 것이 매우 중요하다"고 말했다. 이어 "HPE·AMD·엔비디아와의 협력을 통해 한국이 슈퍼컴퓨팅 및 소버린 AI 혁신 분야에서 선도국으로서의 입지를 공고히 하는 것이 목표"라며 "데이터 활용, 고성능 컴퓨팅, AI 기술 분야의 전문가를 양성해 과학기술 경쟁력을 더욱 강화하고자 한다"고 덧붙였다.

2025.05.14 16:22한정호

6차례 유찰 슈퍼컴퓨터 6호기, HPE와 계약..."엔비디아 고성능 GPU 8496장 탑재"

GPU와 예산 문제로 6차례나 유찰되는 등 도입에 난항을 겪어온 슈퍼컴퓨터 6호기 계약이 최종 체결됐다. 사업 추진 3년 만이다. 과학기술정보통신부는 한국과학기술정보연구원(KISTI)과 ㈜휴렛팩커드유한회사(HPE) 가 올해 내 국가초고성능컴퓨터(슈퍼컴) 6호기를 구축하기로 하는 계약을 지난 12일 체결했다고 14일 밝혔다. 투입 예산은 총 3,825억 원(5년간 유지보수비 780억원 포함) 규모다. 조달청에 따르면 이번 슈퍼컴 6호기 입찰에는 슈퍼컴퓨터 제조사 2곳이 참가, 규격과 성능 검토를 거쳐 HPE를 최종 낙찰 대상자로 선정했다. 슈퍼컴 6호기는 내년 상반기 공식 서비스를 목표로 한다. 대략 8~10개월간 전세계에서 수백만개에 달하는 부품 및 장비를 국내로 들여와 현장 조립 과정을 진행한 뒤, 내년 초 약 2개월간 베타 서비스를 진행할 예정이다. 이식 KISTI 원장은 "내년 상반기 사용자들이 연구 계획서를 제출하게 될 것"이라며 "전기 사용량은 15MW 정도다. 2~3년 내 정상 가동시 전기요금이 200억 원에 이를 것"으로 예상했다. 슈퍼컴 6호기 시스템 이론성능은 600PF(1PF는 초당 1조번 연산)로 초고성능컴퓨터 TOP500 6위 수준이다. 저장 용량은 205PB다. TOP 500 1~4위는 미국, 5위는 이탈리아로 이론 성능 607PE다. CPU는 9천936개 갖췄다. 총 800노드(서버)를 설치한다. 서버 1대(노드 하나)에 AMD 투린(Turin) 9745 모델 CPU가 2개 들어 있다. 각 CPU는 128개 코어를 갖는다. 작동 속도는 2.4GHz다. 전체 시스템은 800*256코어로, 총 20만4천800코어 성능을 보유했다. GPU는 모두 8천496장을 탑재한다. 엔비디아 GH200 GPU 8천336개와 20대의 고성능 서버(GPU-Fat 노드)에 엔비디아 H200 SXM GPU 160장으로 구성된다. GH200은 주로 AI 추론, HPC, 데이터 집약형 계산에 쓰인다. 슈퍼컴퓨터에 적합한 구조다. H200 SXM은 AI 학습, 초대규모 모델 훈련에 유용하다. 데이터센터나 AI 팜, LLM 학습에 활용한다. KISTI 홍태영 슈퍼컴퓨팅인프라센터장은 "6호기 자원은 기초‧원천 연구에 40%, 공공‧사회현안 20%, 산업활용 20%, 공동활용 20%를 배분하기로 했다"며 "인공지능 분야에는 전체 자원의 30%를 활용할 계획"이라고 말했다. 슈퍼컴 교체 주기에 대해 과기정통부 김성수 기초원천연구정책관은 "1~5호기 평균 7.8년 정도 된다. 외국은 5년 정도"라며 향후 국내에서도 교체 주기가 빨라질 것으로 예상했다. 한편 슈퍼컴 업계와 학계에서는 도입 이후에도 세밀한 운용 전략이 필요하다고 지적한다. 슈퍼컴 국산화 고민과 함께 GPU 사용에 따른 전력과 예산 문제, 운용 SW 개발 및 추가 비용, 6호기 결과물 활용 방안 등을 지적했다. 계산과학자를 위한 연구용 슈퍼컴이 아니라, 대단위 예산이 들어가는 만큼 CPU나 GPU 활용 성과를 면밀하게 검토할 필요가 있다는 주문이다. 또 TOP 500순위에 연연해 할 필요가 없다는 지적도 나왔다. TOP 500 순위 20위 권에는 미국이 10대, 일본이 3대, 이탈리아 2대를 차지한다. 그외 중국, 이탈리아, 스위스, 핀란드, 독일이 각각 1대를 보유했다. 과기정통부는 지난 3월 'AI+S&T 활성화 방안'을 통해 국내 과학기술 전반의 AI 활용을 확산하겠다고 밝힌 바 있다. 이식 원장은 "기초 과학 분야에서는 72PF급 이상 문제를 풀게 될 것"이라며 "예를 들어 우주 과학이나 초고에너지, 기계 유체(CFD), 천체물리학 등에서의 시뮬레이션에 활용될 것"이라고 전망했다.

2025.05.14 10:00박희범

AI 투자 열기 식었나…빅테크 움직임에 슈퍼마이크로 실적도 '뚝'

최근 미국 상호관세 영향으로 글로벌 불확실성이 여느 때보다 높아진 가운데 빅테크 기업들이 AI 인프라 지출을 줄이려는 모습을 보이자 서버 업체들도 타격을 입는 모양새다. 30일 블룸버그통신에 따르면 미국 서버 제조업체 슈퍼마이크로컴퓨터는 회계연도 3분기(1~3월) 잠정 실적을 발표하자 주가가 시간외 거래에서 한 때 19%까지 떨어졌다. 이 기간 동안 실적이 시장 예상치를 하회했기 때문이다. 슈퍼마이크로의 3분기 매출은 45억~46억 달러, 주당 순이익은 0.29∼0.31달러로 집계됐다. 이는 애널리스트들이 예상한 53억5천만 달러는 물론, 슈퍼마이크로의 가이던스(55억 달러)에 크게 못 미치는 수치다. 주당 순이익 역시 월가 예상치인 0.53달러, 자체 전망치 0.46~0.62달러를 하회했다. 다만 매출은 지난해 같은 기간 대비 18% 증가했다. 그러나 1년 전에 기록했던 200% 성장보다는 폭이 대폭 줄어들었다. 분기 총이익률도 구형 제품에 대한 재고 평가충당금 증가와 신제품 출시를 위한 긴급 조달 비용 증가 등의 영향으로 전 분기보다 2.2%p 하락했다. 슈퍼마이크로는 최근까지 고성능 그래픽처리장치(GPU) 기반 AI 서버 수요 급증에 힘입어 투자자들 사이에서 AI 수혜주로 각광 받아왔다. 지난 2월에는 오는 2026년 6월 종료되는 회계연도에 매출을 400억 달러까지 확대하겠다는 장기 전망을 제시하기도 했다. 이는 올해 예상 매출의 두 배에 달하는 수준이다. 하지만 최근 빅테크들이 AI 투자에 대한 속도 조절에 나서면서 슈퍼마이크로도 타격을 입게 됐다. 실제 마이크로소프트(MS)는 인도네시아, 영국, 호주뿐만 아니라 미국 내 일리노이, 노스다코타, 위스콘신주 등 여러 지역에서 데이터센터 부지에 대한 협상을 중단하거나 설립 계획을 연기했다. 앞서 미국 투자은행 TD 코헨은 MS가 미국과 유럽에서 약 2기가와트(GW) 용량에 해당하는 새로운 데이터 프로젝트를 중단했으며, 지난 2월에는 최소 두 곳의 민간 운영 업체와 체결했던 데이터센터 임차 계약도 취소했다고 밝힌 바 있다. 아마존도 일부 데이터센터 임대 협상을 중단한 것으로 알려졌다. 미국 대형은행인 웰스파고 애널리스트들은 아마존의 임대 중단 규모가 명확하지 않지만 최근 마이크로소프트의 임대 축소와 유사하다고 평가했다. 슈퍼마이크로도 이 같은 분위기 탓에 실적이 부진했음을 시사했다. 슈퍼마이크로는 이번 분기 실적에 대해 "일부 고객이 구매를 연기하면서 매출이 다음 분기로 이연됐다"고 설명했다. 우진호 블룸버그 인텔리전스 애널리스트는 "슈퍼마이크로의 매출이 가이던스 대비 15% 하회한 것은 초대형 AI 계약에 과도하게 의존한 결과"라며 "구형 GPU 재고 증가와 고객 납품 지연은 엔비디아의 차세대 블랙웰(Blackwell) 칩 기반 신제품 출시 전까지 고객이 구매를 미룰 수 있음을 시사한다"고 분석했다. 이 탓에 슈퍼마이크로의 주가는 이날 뉴욕 증시 정규장에서 3.41% 내렸으나, 잠정 실적 발표 후 시간외 거래에서는 약 15% 폭락했다. 한 때 19%까지 떨어지기도 했다. 이는 경쟁사들의 주가에도 영향을 줬다. 서버 경쟁업체인 델 테크놀로지스의 주가는 약 5%, 휴렛팩커드 엔터프라이즈는 2% 하락했다. 엔비디아의 주가도 약 2% 떨어졌다. 슈퍼마이크로 주가는 이미 최근 12개월간 60% 하락한 상태다. 지난해 8월 연간 재무 보고서 제출 기한을 넘겼고, 같은 해 10월에는 감사기관인 언스트앤영(EY)이 회사의 지배구조 및 투명성 문제를 이유로 사임하면서 상장 폐지 위기에 몰리기도 했다. 그러나 재무보고서를 2차 마감 시한인 지난 25일 미국 증권거래위원회(SEC)에 제출하면서 나스닥 상장 폐지 위기를 넘겼다. 슈퍼마이크로는 오는 5월 6일 오후 5시에 이번 실적에 대한 컨퍼런스콜을 개최할 예정이다. 업계 관계자는 "이번 분기의 부진한 실적이 일시적 문제인지, AI 투자의 전반적인 지연을 의미하는지가 컨퍼런스콜을 통해 드러날 것으로 예상된다"고 말했다.

2025.04.30 10:58장유미

"에이전틱·피지컬 AI 가속화"…HPE-엔비디아, 신규 엔터프라이즈 AI 솔루션 발표

HPE가 엔비디아와의 인공지능(AI) 데이터 플랫폼 부문 협력을 강화해 AI 시대 선도에 나선다. HPE는 엔비디아(NVIDIA)와 생성형(Generative)·에이전틱(Agentic)·피지컬(Physical) AI의 구축을 가속화하는 새로운 엔터프라이즈 AI 솔루션을 발표했다고 24일 밝혔다. HPE가 새롭게 발표한 'HPE 기반 엔비디아 AI 컴퓨팅((NVIDIA AI Computing by HPE)'은 성능, 전력 효율, 보안을 강화하고 AI를 위한 풀스택 턴키 프라이빗 클라우드 기능을 추가한 AI 솔루션이다. 이를 통해 HPE는 모든 규모의 기업이 AI 모델을 효과적으로 훈련·튜닝·추론할 수 있도록 지원한다는 방침이다. 이번 출시로 HPE는 새로운 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform)을 통해 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)를 확장하게 됐다. HPE 프라이빗 클라우드 AI는 HPE 그린레이크의 셀프서비스 클라우드 환경을 기반으로 AI 모델의 훈련과 튜닝, 추론을 위한 인프라를 제공한다. HPE와 엔비디아가 함께 지속 개발하고 있는 HPE 프라이빗 클라우드 AI는 ▲엔비디아 AI-Q 블루프린트(NVIDIA AI-Q Blueprints) ▲리즈닝(reasoning) 역량을 갖춘 엔비디아 라마 네모트론(NVIDIA Llama Nemotron) 모델을 위한 엔비디아 NIM 마이크로서비스(NVIDIA NIM microservices) 등 엔비디아 AI 데이터 플랫폼의 핵심 블루프린트과 모델을 빠르게 배포할 수 있도록 설계됐다. 엔비디아 AI 데이터 플랫폼은 엔비디아의 가속 컴퓨팅, 네트워킹, AI 소프트웨어와 엔터프라이즈 스토리지를 활용하는 연속적 데이터 프로세싱을 지원해 기업의 데이터를 활용 가능한 인텔리전스로 변환한다. 해당 기능들은 현재 HPE 프라이빗 클라우드 AI에 모두 포함돼 있다. 특히 HPE는 ▲HPE 기반 엔비디아 GB300 NVL72 ▲HPE 프로라이언트 컴퓨트 XD ▲HPE 프로라이언트 컴퓨트 DL384b 젠12 ▲HPE 프로라이언트 컴퓨트 DL380a 젠12 등 최신 AI 서버를 제공해 엔비디아 블랙웰 울트라(NVIDIA Blackwell Ultra) 플랫폼을 지원한다. 각 AI 서버는 차세대 AI 시대를 위한 최적의 성능·효율성·안정성·확장성을 보장하기 위해 엔비디아 가속 컴퓨팅, 네트워킹, 엔비디아 AI 엔터프라이즈 소프트웨어와 함께 배포할 수 있다. 아울러 HPE 프라이빗 클라우드 AI에는 즉시 사용 가능한 AI 개발 환경이 추가됐다. 또 HPE 데이터 패브릭 소프트웨어(HPE Data Fabric Software) 등 핵심 통합 데이터 레이어도 지원한다. 이에 더해 HPE 프라이빗 클라우드 AI는 엔비디아 블루프린트의 신속한 배포를 지원한다. 이를 통해 엔비디아의 광범위한 에이전틱 AI 및 피지컬 AI 애플리케이션 라이브러리에서 AI 서비스를 즉각 활용할 수 있도록 돕는다. 이 외에도 HPE는 HPE 옵스램프(OpsRamp)를 통해 AI 네이티브 소프트웨어 스택에 대한 가시성을 포함하는 GPU 최적화 기능을 지원한다. 이를 활용해 사용자는 대규모 엔비디아 가속 컴퓨팅 클러스터에서 실행되는 훈련·추론 워크로드의 성능을 관리할 수 있는 풀스택 가시성을 제공받을 수 있다. 안토니오 네리(Antonio Neri) HPE 최고경영자(CEO)는 "HPE와 엔비디아는 AI의 잠재력을 최대한 활용하기 위해 기업의 가치 실현 시간을 단축해 생산성을 높이고 새로운 수익원을 창출하는 포괄적인 AI 솔루션 포트폴리오를 시장에 출시한다"고 말했다. 젠슨 황(Jensen Huang) 엔비디아 CEO는 "AI는 모든 산업의 변화를 이끌고 있으며 기업은 인텔리전스 생산을 위한 AI 팩토리 구축에 속도를 내고 있다"며 "자사와 HPE는 생성형 AI와 에이전틱 AI는 물론 로보틱스, 디지털 트윈까지 아우르는 풀스택 인프라를 제공해 기업이 AI를 개발·학습·배포할 수 있도록 지원한다"고 설명했다. 이어 "이번 협력을 통해 AI 기반 비즈니스 혁신이 가속되고 기업의 생산성과 혁신이 한층 도약할 것"이라고 덧붙였다.

2025.03.24 14:58한정호

HPE, 인텔리전트 통합 데이터 레이어 공개…에이전틱 AI 시대 선도

HPE가 인공지능(AI) 시대를 겨냥해 AI, 데이터 기반 비즈니스 혁신을 위한 전략을 본격화한다. HPE는 인텔리전트 통합 데이터 레이어를 발표하고 엔비디아(NVIDIA)와의 협력을 강화한다고 20일 밝혔다. 엔비디아와의 협력을 통해 HPE는 AI 추론을 위한 전반적인 데이터 파이프라인을 혁신하고, AI 애플리케이션과 모델, 에이전트에 최적화된 'AI-레디 데이터'를 제공하는 데 집중하고 있다. 이를 위해 엔비디아의 최신 AI 데이터 플랫폼(NVIDIA AI Data Platform)을 지원하며 고성능 인프라와 통합된 맞춤형 레퍼런스 디자인을 통해 AI 데이터 수명주기를 대폭 단축할 계획이다. AI 데이터 플랫폼은 엔비디아 가속 컴퓨팅, 네트워킹 및 AI 소프트웨어와 함께 HPE의 프라이빗 클라우드 AI 및 스토리지 솔루션과 통합돼 AI 추론 워크로드를 최적화한다. 특히 엔비디아 AI 엔터프라이즈 소프트웨어와 함께 AI 추론 성능을 강화하는 다양한 에이전트와 도구들이 제공된다. HPE는 이번 발표를 통해 정형 및 비정형 데이터를 통합 관리하는 통합 데이터 레이어를 공개했다. HPE 데이터 패브릭 소프트웨어와 HPE 알레트라 스토리지 MP X10000을 기반으로 하며 아파치 아이스버그를 지원해 고품질 스트리밍 데이터를 AI 모델에 일관되게 제공한다. AI 워크로드에 적합한 자동화된 메타데이터 태깅 기능도 새롭게 도입됐다. HPE는 데이터 보호를 위한 통합 랜섬웨어 탐지 및 복구 기능도 발표했다. HPE 알레트라 스토리지 MP B10000은 기본 내장된 랜섬웨어 탐지 기능과 제르토(Zerto)의 복구 솔루션을 결합해 고객 데이터를 보호하며, 마이크로소프트 애저 기반의 소프트웨어 정의 스토리지 'HPE 알레트라 블록 스토리지 포 애저'를 통해 하이브리드 클라우드 환경에서의 데이터 관리 효율성을 높였다. 업계 최초로 단일 OS와 아키텍처 기반에서 블록 및 파일 스토리지를 분리형으로 지원하는 유연한 통합 스토리지 아키텍처도 소개됐다. 이를 통해 기업은 온프레미스와 클라우드 간 데이터 이동을 원활하게 수행할 수 있으며, AI 기반 AIOps를 활용한 자율 스토리지 관리도 가능하다. HPE 그린레이크 포 파일 스토리지는 엔비디아 인증 스토리지 프로그램을 통과해, 기업용 AI 팩토리 구축에 적합한 고성능 데이터 솔루션으로 검증됐다. 이를 통해 기업은 신뢰할 수 있는 스토리지 인프라 기반에서 AI 개발 및 배포를 가속화할 수 있다. 보다폰지그고의 제니 미네마 운영 지원 시스템 책임자는 “HPE 데이터 패브릭은 보다폰지그고의 네트워크 데이터 허브(NDH)의 기반이 되어 데이터 중심 자율 네트워크로의 전환을 지원하고 있다”고 전했다. HPE 데이터 패브릭은 HPE 프라이빗 클라우드 AI 및 HPE 알레트라 스토리지 MP X10000과 함께 올 여름 출시 예정이다. HPE 피델마 루소 하이브리드 클라우드 사장 겸 CTO는 "에이전틱 AI 시대에서 데이터 관리의 근본적 변화가 필요하다"며 "HPE는 인텔리전트 스토리지와 클라우드 기반 AI 플랫폼을 통해 고도로 분산된 데이터를 신속히 활용할 수 있도록 지원한다"고 강조했다.

2025.03.20 17:37남혁우

"고성능 통신 지원"…HPE, 차세대 셀룰러 플랫폼 확장

HPE가 통신사들이 기업 고객 대상으로 엣지와 클라우드를 연결하는 신규 서비스 출시를 지원한다. HPE는 스페인 바르셀로나에서 열린 '모바일 월드 콩그레스(MWC) 2025'에서 네트워킹 분야 혁신 가속화를 위한 새 솔루션과 파트너십을 발표했다. 이를 통해 통신사는 네트워크 엣지와 클라우드를 연계한 신규 서비스 출시를 가속화할 방침이다. 이번 행사에서 HPE는 개방형 랜(Open RAN) 기술 성장과 성공을 지원하고 전 세계 통신사에 최적의 인프라를 제공하는 노력을 입증했다고 밝혔다. 특히 인공지능(AI) 기반 네트워크 구축을 지원하는 리더십을 강조하며 차세대 네트워크 환경을 위한 새로운 기술들을 공개했다. 우선 AI 워크로드·프라이빗 5G 환경에서 필수적인 정밀 타이밍 기술을 새롭게 발표됐다. HPE 아루바 네트워킹의 CX 8325P 네트워크 스위치는 나노초 단위의 정밀 타이밍을 제공한다. 자율주행차, 제조, 로봇 공학 등 고속·저지연 애플리케이션의 성능을 극대화한다. 또 경기장과 같은 대규모 시설에서 셀룰러 트래픽 로밍 환경을 개선하고 AI 애플리케이션, 방송, 클라우드 무선 액세스 네트워크(C-RAN) 구축에도 활용될 수 있다. 기존 위성을 활용한 정밀 시간 프로토콜(PTP)과 달리, HPE 아루바 네트워킹은 네트워크 자체에 PTP 지원 기능을 내장했다. 이를 통해 별도의 타이밍 장비 없이도 정밀한 시간 동기화를 제공하고, 장애 발생 시 이중화 기능으로 안정성을 확보할 수 있도록 했다. HPE는 인텔의 새로운 제온 6 그래나이트 래피즈-D(Xeon 6 Granite Rapids-D) 칩셋 기반으로 한 차세대 서버 'HPE 프로라이언트 DL110 젠12'를 공개했다. 이 서버는 극한 환경에서의 통신사 배포를 위해 설계돼 높은 연산 성능과 보안 기능을 갖췄다. 특히 개방형 랜 구축을 위한 최적의 인프라로 활용될 전망이다. 이번 MWC 2025에서 HPE는 엣지 컴퓨팅과 프라이빗 5G, 와이파이, 통합 SASE 포트폴리오를 통해 고객의 운영 자동화, 비용 절감, 배포 시간 단축 방안을 제시하는 라이브 데모를 진행할 예정이다. 또 AI 기반 캠퍼스 및 지사 네트워킹을 활용한 새로운 수익 창출 방안을 모색한다. 윌 타운젠드 무어 인사이트 앤 스트래티지 부사장은 "프라이빗 셀룰러 네트워킹은 운송과 물류를 비롯한 다양한 산업에서 혁신적 활용 사례를 창출할 잠재력을 갖추고 있다"며 "HPE 아루바 네트워킹 CX 8325P는 통신사급 타이밍을 네트워크 패브릭에 통합해 초저지연 환경을 제공하며, 네트워크 엣지를 포함한 전반적인 관리 복잡성을 줄이는 데 기여할 것"이라고 말했다.

2025.03.06 13:50김미정

HPE, 가상화 시장 장악 나선다…'VM 에센셜'로 하이브리드 클라우드 공략

휴렛팩커드 엔터프라이즈(HPE)가 하이브리드 클라우드 운영 모델 전환을 지원하는 가상화 솔루션을 통해 기업의 비용 부담과 벤더 락인 문제를 완화한다. 합리적인 가격 모델과 파트너 중심 전략을 통해 가상화 시장 주도권을 확보하려는 의도다. HPE는 'HPE VM 에센셜'을 전 세계에 공식 발표했다고 28일 밝혔다. 해당 솔루션은 커널 기반 버츄얼 머신(KVM) 기반의 하이퍼바이저를 탑재해 기존 VM웨어 하이퍼바이저와 함께 운영할 수 있다. HPE는 VM 에센셜을 자사 채널을 통해 독점적으로 제공하며 국내 파트너사를 중심으로 공급망을 구축할 계획이다. 이번 솔루션은 독립형 가상화 솔루션으로, 기업이 기존 VM웨어 환경을 유지하면서도 보다 개방적이고 비용 효율적인 가상화 환경을 구축할 수 있도록 지원한다. 특히 소켓 기반의 가격 모델을 적용해 기존 라이선스 기반 과금 방식보다 경제적인 선택지를 제공한다. 또 'VM 에센셜'은 HPE의 클라우드 관리 솔루션 '모피어스'와 연동이 가능해 하이브리드 클라우드 환경을 더욱 간소화할 수 있다. 기업은 필요에 따라 이를 업그레이드해 확장형 가상화 인프라를 구축할 수 있다. 더불어 HPE 프로라이언트 컴퓨트 '젠11' 및 '젠12' 서버, HPE '알레트라 스토리지 MP B10000'과 호환된다. 이를 통해 높은 가용성과 성능을 확보하면서도 가상화 환경의 복잡성을 줄일 수 있다. 회사는 향후 자사 하이퍼컨버지드 인프라(HCI) 솔루션뿐만 아니라 타사 시스템으로도 지원 범위를 확대할 계획이다. HPE는 이번 'VM 에센셜' 출시를 통해 국내 채널 파트너사와의 협력을 더욱 강화할 방침이다. 이를 통해 기업 고객이 신뢰할 수 있는 가상화 솔루션을 제공하고 파트너사가 부가가치 서비스를 구축할 수 있도록 지원할 예정이다. 또 가상화 인프라 도입을 고려하는 기업들의 총소유비용(TCO)을 절감하는 데 초점을 맞췄다. 사이먼 유잉턴 HPE 월드와이드 채널 및 파트너 생태계 수석 부사장은 "이 솔루션의 채널 중심 전략은 가상화 시장에서의 기회를 극대화하는 동시에 고객에게 더 많은 선택지를 제공한다"며 "엣지-투-클라우드 전략을 실현하기 위해 솔루션사들과의 협력을 더욱 강화할 것"이라고 밝혔다. 김영채 한국휴렛팩커드 대표는 "우리 솔루션은 비용 효율적인 가상화 대안을 찾는 기업들에게 중요한 선택지가 될 것"이라며 "경쟁력 있는 가격과 성능을 갖춘 가상화 솔루션을 제공하고 파트너사들이 주도적으로 솔루션을 공급할 수 있도록 적극 지원하겠다"고 말했다.

2025.02.28 15:13조이환

[유미's 픽] '블랙웰' 서버 쏟아지는데 韓 '잠잠'…AI 3대 강국 꿈 멀어지나

인공지능(AI) 서버 시장을 주도하고 있는 주요 업체들이 엔비디아의 차세대 그래픽처리장치(GPU) '블랙웰'을 탑재한 제품을 잇따라 출하하면서 세대교체가 본격화되는 분위기다. '블랙웰'이 기존보다 발열이 심한 탓에 수랭식 냉각 시스템을 적용한 데이터센터를 중심으로 이 서버를 도입할 수 있다는 제약이 있지만, AI 기술 경쟁에 나선 기업들은 선제적으로 물량을 확보하기 위해 대규모 투자에 적극 나서고 있다. 24일 업계에 따르면 일론 머스크 테슬라 최고경영자(CEO)가 만든 AI 기업 xAI는 미국 서버업체 델 테크놀로지스와 최근 50억 달러(약 7조원) 이상 규모의 서버 구매 계약을 체결할 것으로 알려졌다. 이 서버는 엔비디아의 'GB200' 시스템을 탑재한 것으로, xAI가 현재 테네시주 멤피스에 짓고 있는 데이터센터에 적용될 것으로 전해졌다. 'GB200'은 엔비디아의 GPU '블랙웰'이 장착된 시스템으로, 대규모 AI 모델 훈련 및 추론에 필요한 컴퓨팅 성능을 제공한다. 엔비디아는 '블랙웰'을 출시하면서 72개의 GPU와 36개의 중앙처리장치(CPU)를 결합한 GB200 NVL72 형태로 판매하고 있다. 수랭식 엔비디아 GB200 NVL72는 공랭식 엔비디아 'H100' 시스템 보다 최대 25배 더 효율적인 것으로 평가 받고 있다. 블랙웰 기반 'B100' 제품의 경우 호퍼 기반의 'H100' 제품보다 AI 추론 성능이 30배 향상된 것으로 분석됐다. 이에 경쟁사인 다른 빅테크들도 '블랙웰'이 탑재된 서버 출시를 앞두고 대규모 투자 계획을 내놓은 상태다. 구글 모회사 알파벳은 올해 AI 인프라 등에 약 750억 달러(한화 109조원)를, 마이크로소프트(MS)는 전년보다 60% 늘어난 800억 달러를 AI 분야에 투자키로 했다. 페이스북 모회사 메타도 650억 달러를 투자할 계획이라고 밝혔다. 최근 오픈AI와 소프트뱅크, 오라클 등이 함께 추진하고 있는 '스타게이트'도 전 세계 AI 관련 시설 투자 확대 움직임에 불을 지폈다. 이 업체들은 합작 벤처 형태로 미국 내 AI용 데이터센터 건설에 최대 5천억 달러(약 730조원)를 향후 4년간 투자하는 방안을 구상 중이다. 또 이 기업들은 이미 델과 폭스콘, 윈스트론 등 협력사를 통해 '블랙웰' GPU 기반 제품 주문도 넣은 것으로 전해졌다. 모건스탠리는"올해 세계 10대 클라우드 업체의 설비 투자 금액은 지난해보다 약 32% 늘어난 3천500억 달러(약 504조4천억원)에 이를 것으로 보인다"며 "스타게이트가 전 세계 AI 시설 투자 확대를 주도하는 역할을 담당하고 있다"고 분석했다. 이에 맞춰 서버업체들의 움직임도 분주해졌다. 업계 강자인 델 테크놀로지스는 지난해 말부터 일찌감치 '델 파워엣지 XE9712'를 AI 하이퍼스케일러 기업인 '코어위브(CoreWeave)'에 공급해 주목 받았다. 엔비디아 'GB200'을 탑재한 서버를 고객에 납품한 것은 델 테크놀로지스가 업계 처음이다. '델 파워엣지 XE9712'는 엔비디아 기반 델 AI 팩토리 포트폴리오에 속한 제품으로, 대규모 AI 구축 환경의 거대언어모델(LLM) 학습 및 실시간 추론을 위한 고성능의 고집적 가속 컴퓨팅을 제공한다. 또 '블랙웰' 아키텍처 기반인 'GB200 NV L72'를 탑재해 우수한 GPU 집적도를 보여준다. 슈퍼마이크로도 지난 5일 '블랙웰'을 활용한 AI 데이터센터용 서버를 대량 생산 및 공급할 수 있게 됐다고 발표하며 고객 확보에 본격 나섰다. HPE 역시 지난 20일 '블랙웰' 기반 첫 번째 솔루션인 엔비디아 'GB200 NVL72'를 공식 출하한다고 밝혔다. 직접 서버를 만들어 판매하는 ODM 업체들도 일정 차질 없이 '블랙웰'을 탑재한 서버 공급을 진행 중인 것으로 알려졌다. 대표적인 ODM 업체인 대만 폭스콘은 지난해 4분기에 소량 공급을 시작한 후 올해 1분기부터 생산량을 확대할 계획이다. 콴타도 올해 1분기부터 대량 생산을 개시할 예정이다. 이처럼 서버업체들이 '블랙웰'을 탑재한 AI 서버를 속속 내놓고 있지만, 업계에선 당장 세대교체가 쉽진 않을 것으로 봤다. '블랙웰'의 발열 문제와 함께 가격이 '호퍼' 대비 50~60% 높아 부담이 크기 때문이다. '호퍼' 가격은 개당 4만 달러(한화 5천만원)가 넘는 것으로 알려졌다. 발열 문제에 따른 시스템 구축 비용도 만만치 않다. 현재 대부분의 데이터센터 냉각 방식은 공랭식(공기로 냉방)이 압도적으로 많은 상태지만, '블랙웰'의 발열을 잡기 위해선 투자 비용이 더 많이 드는 수랭식(냉각수로 냉방) 시스템이 갖춰져야 하기 때문이다. 앞서 젠슨 황 엔비디아 CEO도 "차기 GPU인 '블랙웰'부터는 데이터센터에 수랭식을 도입하기 바란다"고 밝힌 바 있다. 이에 '쩐의 전쟁'에서 밀리고 있는 국내 업체들은 미국 빅테크들과 달리 '블랙웰' 탑재 서버 출하 소식에도 머뭇거리고 있다. 네이버클라우드, KT클라우드, NHN클라우드 등 토종 클라우드서비스제공사업자(CSP)를 비롯해 삼성SDS 등 대규모 데이터센터를 보유한 국내 업체들은 아직까지 선뜻 도입하기를 꺼려하는 분위기다. 업계 관계자는 "국내 데이터센터는 대부분 공랭식 시스템으로 냉각 방식이 운영되고 있다"며 "'블랙웰'은 데이터센터 설계 때부터 수랭식 시스템 도입이 고려된 곳을 중심으로 적용할 수밖에 없다 보니 국내에선 이를 감당할 수 있는 곳이 거의 없는 것으로 안다"고 설명했다. 이어 "기존 데이터센터를 운영하는 곳보다는 신축 데이터센터를 지으려 나선 기업들을 중심으로 '블랙웰' 탑재 서버를 도입할 수 있을 듯 하다"고 덧붙였다. 이 탓에 국내 기업들은 AI 기술 경쟁력을 끌어올리는 요소로 아직까지 엔비디아 '호퍼'를 기반으로 한 GPU를 경쟁 요소로 삼는 분위기다. NHN클라우드가 광주 AI 데이터센터에 1천 개 이상의 'H100'을, KT클라우드가 자사 AI 훈련 서비스에 'H200'을 도입한다는 점을 앞세워 홍보하는 것이 대표적인 예다. 다만 자체 데이터센터를 보유하고 있는 일부 기업들이 최근 액침냉각 시스템 도입을 잇따라 추진하고 나섰다는 점에서 국내에서도 '블랙웰' 기반 서버 도입이 머지 않았다는 전망도 있다. 현재 국내에서 액침냉각에 관심을 보이고 있는 곳은 SK텔레콤과 삼성SDS, LG CNS 등이다. 특히 삼성SDS는 지난 2022년 12월 가동을 시작한 동탄 데이터센터에 수랭식 시스템과 함께 액침냉각 시스템 적용을 위한 관련 인프라를 갖춰 놓은 상태다. 서버 강자인 델 테크놀로지스와 끈끈한 관계를 유지하고 있다는 점에서 국내에서 '블랙웰' 서버 도입을 가장 먼저 추진할 수도 있을 것이란 기대감을 높이고 있다. 업계 관계자는 "클라우드 컴퓨팅 서비스를 제공하는 CSP들은 엔비디아 고성능 GPU를 얼마나 확보했는지가 중요한 경쟁력이 됐다"며 "지난해 엔비디아, 델 테크놀로지스와 다양한 협업 움직임을 보여줬던 삼성SDS가 'B100' 물량을 확보하게 되면 경쟁사들의 긴장감은 더 해질 것"이라고 내다봤다. 서버 업계 관계자는 "현재 국내에선 삼성SDS와 삼성전자, 네이버, 카카오 등이 블랙웰이 탑재된 서버 도입에 상당한 관심을 가지고 있는 상태"라면서도 "블랙웰에 대한 관심은 높지만 비용 부담이 커 국내에선 호퍼 기반의 서버가 한참 더 인기를 끌 것으로 보인다"고 전망했다. 이에 일각에선 우리나라 정부가 최근 미국, 중국에 이어 'AI 3대 강국'을 목표로 AI 인프라 투자에 나설 것이라고 발표했다는 점에서 기대감을 드러내기도 했다. 현재 AI 경쟁력의 핵심인 데이터센터 개수는 국내 188개로, 미국 5천381개, 독일 521개 등에 비하면 턱없이 부족하다. 소프트웨어정책연구소에 따르면 2023년 한국의 'H100' 보유량은 약 2천 개로, 같은 기간 메타의 15만 개에도 한참 못 미친다. 중국 딥시크가 확보한 A100 1만 장(H100 환산 기준 최소 2천500개)에도 모자란다. 이 같은 상황에서 정부는 민관합작 투자를 통해 SPC를 설립, 2조원 가량을 투입해 오는 2027년께 국가AI컴퓨팅센터를 오픈한다는 계획이다. 초기에는 GPU 등 해외 AI반도체를 중심으로 인프라를 구축하되 점차 국산 AI 반도체 비중을 늘리기로 했다. 비중은 2030년까지 50%로 높이는 것이 목표다. 업계 관계자는 "국내 기업들은 미국 빅테크들과 비교해 자금력이 부족한 탓에 수급난이 발생하면 우선 순위에서 밀리는 등 엔비디아 고성능 칩을 확보하기가 쉽지 않았다"며 "정부에서 이처럼 나서 국가AI컴퓨팅센터가 설립되면 최신 칩을 확보해 활용하는 것이 좀 더 수월해질 것으로 기대된다"고 밝혔다.

2025.02.24 17:58장유미

HPE, '젠12' 서버 출시…"생산성·보안 업그레이드"

HPE가 워크로드 생산성·보안을 인공지능(AI)으로 강화한 서버를 공개해 기업 전력 소비 감소와 워크로드 성능 개선에 나섰다. HPE는 새로운 HPE 프로라이언트 컴퓨트 '젠 12(HPE ProLiant Compute Gen12)' 서버 8종을 출시했다고 13일 밝혔다. 젠12 서버에는 향후 출시될 인텔 제온 6 프로세서가 탑재될 예정이다. 이번 신제품은 데이터센터와 엣지 환경을 고려해 최적의 성능과 지속가능성을 확보하는 데 초점 맞췄다. HPE 프로라이언트 젠12 서버는 서버 라이프사이클 전반을 보호하는 칩-투-클라우드 보안을 적용했다. HPE iLO(Integrated Lights Out) 7은 보안 전용 프로세서인 '시큐어 엔클레이브'를 도입해 펌웨어 보호 기능을 강화했다. 이 기술은 양자 컴퓨팅 보안 위협에 대비한 서버 아키텍처다. 미국 연방 보안 인증(FIPS) 140-3 레벨 3 보안 표준을 충족한다. 해당 서버는 HPE 공급망을 통해 서버 제조부터 폐기까지 전 과정에서 보안성을 유지한다. 이에 사용이 끝난 서버를 안전하게 폐기하는 'HPE 현장 철거 서비스'를 통해 장비 폐기 후에 데이터 유출을 방지한다. 새로운 HPE 컴퓨트 옵스 매니지먼트(Compute Ops Management) 플랫폼은 AI 기반 예측 분석 기능을 탑재해 전력 사용량을 최적화한다. 이를 통해 기업들은 탄소 배출을 줄이고, IT 인프라 운영 비용을 절감할 수 있다. 해당 서버는 글로벌 맵 뷰 기능도 갖췄다. 이 기능은 여러 지역에 분산된 IT 환경에서 서버 상태를 직관적으로 모니터링할 수 있도록 지원한다. 서드파티 툴과 통합돼 서버당 연간 최대 4.8시간의 다운타임을 줄일 수 있다. HPE는 AI 기반 서버 설정 자동화 기능도 제공한다. 현지 IT 인력이 부족한 원격지나 중소기업 환경에서도 서버 운영이 가능하도록 지원한다. HPE 프로라이언트 젠12 서버는 AI·데이터 분석·엣지 컴퓨팅·가상 데스크톱 환경(VDI) 등 고부하 워크로드에 최적화됐다. HPE는 해당 서버가 기존 엔터프라이즈 시스템 대비 와트당 성능을 최대 41% 올릴 수 있다고 강조했다. 또 연간 전력 소비를 최대 65% 절감할 수 있다고 덧붙였다. HPE는 직접 수냉 방식(DLC) 옵션을 추가해 데이터센터의 냉각 효율을 높였다. DLC는 공기 냉각 대비 최대 3천배 이상의 열 제거 효과를 제공할 수 있다. 이를 통해 데이터센터 전력 사용량 절감을 돕는다. HPE는 전 세계 300개 넘는 DLC 특허를 보유하고 있다. 세계에서 가장 빠른 DLC 기반 슈퍼컴퓨터를 구축한 경험을 바탕으로 이 기술을 발전시키고 있다. HPE는 올 1분기부터 젠12 서버 8종 중 6종을 우선 출시한다. 이번에 공개되는 모델은 DL320, DL340, DL360, DL380, DL380a, ML350 젠12 서버다. HPE 시너지 480·DL580 모델은 올 여름 출시될 예정이다. 신제품은 개별 구매 또는 HPE 그린레이크 서비스를 통해 클라우드 기반 운영도 가능하다. HPE는 컨설팅, 전문 서비스, 운영·관리 서비스 등을 제공해 기업들이 HPE 프로라이언트 젠12 서버를 최대한 활용할 수 있도록 지원할 계획이다. 피닉스NAP 윌리엄 벨 제품 담당 부사장은 "HPE와의 파트너십을 통해 고객들에게 최적화된 IT 인프라를 제공할 수 있었다"며 "해당 서버를 가장 먼저 도입해 혁신적인 성능과 보안성을 직접 경험했다"고 밝혔다.

2025.02.13 15:12김미정

씨이랩, GPU 클러스터 솔루션 '아스트라고' 업데이트…AI 인프라 관리 '혁신'

씨이랩이 인공지능(AI) 인프라 효율성 극대화와 그래픽처리장치(GPU) 관리 혁신을 위한 방안을 제시했다. 씨이랩은 지난 16일 서울 엘타워에서 열린 'HPE 파트너데이'에서 GPU 클러스터 관리 솔루션 '아스트라고'의 신규 기능과 성공 사례를 발표했다고 17일 밝혔다. 이번 행사는 HPE 파트너사를 대상으로 최신 기술 트렌드와 협력 방안을 공유하기 위해 마련됐다. 아스트라고는 쿠버네티스 기반으로 설계돼 AI 워크로드를 효과적으로 관리하며 GPU 자원의 최적화를 지원한다. HPE 원뷰와의 완벽한 연동을 통해 소프트웨어와 하드웨어를 단일 플랫폼에서 관리할 수 있는 것이 강점이다. 이번에 새롭게 추가된 레드피시 연동 기능은 실시간 모니터링과 원격 제어를 제공해 운영 효율성을 높였다. '크레이' 제품과의 간단한 연동 및 베이스보드 관리 컨트롤러(BMC) 포트 활용으로 시스템 로그 확인도 가능하다. 씨이랩은 오픈소스 기반으로 솔루션을 개발해 별도의 라이선스 비용 부담을 없앴다. 또 구독형 모델을 통해 기업과 공공기관이 경제적인 방식으로 AI 인프라를 도입하도록 지원하고 있다. 유진수 씨이랩 매니저는 "'아스트라고'는 고객이 AI 인프라를 효율적으로 운영하며 비용을 절감할 수 있도록 돕는 솔루션"이라며 "HPE 원뷰와 레드피시 연동을 통해 GPU 클러스터 관리의 새로운 표준을 만들어 갈 것"이라고 밝혔다.

2025.01.17 10:23조이환

델·슈퍼마이크로에 밀리던 HPE, 일론 머스크 덕에 AI 서버 시장서 존재감 '업'

일론 머스크 테슬라 최고경영자(CEO)가 운영하는 소셜네트워크 X(옛 트위터)가 인공지능(AI) 서비스 강화를 위해 HPE의 서버를 택했다. 머스크가 설립한 AI 스타트업 xAI와 서버를 공유하기 위한 것으로, 이번 일로 AI 서버 시장 내 HPE의 위상도 한층 올라섰다는 평가다. 13일 블룸버그통신 등에 따르면 X는 최근 AI 서버를 새롭게 구축하기 위해 HPE와 10억 달러(약 1조4천700억원)가 넘는 계약을 맺은 것으로 알려졌다. 이번 계약은 AI 서버 업체인 델 테크놀로지스, 슈퍼마이크로 등도 참여한 경쟁 입찰을 거쳐 지난해 말 마무리됐다. AI 서버 비용 중 일반적으로 그래픽처리장치(GPU)가 절반을 차지한다는 점을 고려해 볼 때 이번 계약에서 GPU는 5억 달러 규모로, 1만 개 이상의 엔비디아 '블랙웰' GPU가 투입될 것으로 추산됐다. 머스크 CEO의 이 같은 움직임은 그가 공동 창립했지만 떠난 챗GPT 개발사 오픈AI를 의식한 행보로 풀이된다. 머스크 CEO는 지난 2023년 xAI를 설립한 후 인재 채용은 물론, 수십억 달러 규모의 투자 유치, 미국 테네시주 멤피스 내 데이터센터 건설 등으로 글로벌 AI 시장에서 xAI의 경쟁력을 강화해 오픈AI를 뛰어 넘기 위해 안간힘을 쓰고 있다. 특히 최근에는 xAI를 위한 자체적인 데이터센터를 미국 전역에 건설하며 AI 인프라 강화에 총력을 기울이고 있다. X와 xAI는 AI 인프라를 공유하는 것으로 알려진 만큼, 새로운 서버는 xAI의 AI 챗봇 '그록' 개발과 운영에 활용될 가능성이 크다. 앞서 xAI는 지난달부터 X를 통해 '그록'의 무료 버전을 제공해왔으나, 최근 앱까지 출시하며 이용자 확보에 본격 나선 상태다. '그록' 앱은 이번에 초기 베타 서비스로 미국에서만 아이폰 앱스토어에 먼저 출시됐다. 이번 일로 HPE도 시장 내 입지가 더 높아질 것으로 보인다. HPE는 그간 AI 서버 시장에서 델 테크놀로지스, 슈퍼마이크로에 비해 존재감이 다소 밀리는 분위기였다. xAI가 세계 최대 규모인 데이터센터 '콜로서스'에도 델 테크놀로지스, 슈퍼마이크로만 택했다는 소식이 전해지기도 했다. 블룸버그통신은 "HPE의 AI 서버 사업은 델과 슈퍼마이크로에 비해 상대적으로 뒤처진 것으로 여겨져 왔다"며 "하지만 이번 계약으로 HPE에 대한 xAI의 신뢰가 드러났다"고 평가했다. 그러면서 "AI 서버에는 엔비디아를 비롯한 여러 회사의 고성능 칩이 탑재돼 있다"며 "HPE의 수냉식 기술이 이번 계약에 중요한 역할을 한 것으로 보인다"고 덧붙였다. 이처럼 xAI 외에도 마이크로소프트, 아마존 등 빅테크들이 최근 AI 인프라에 투자 속도를 높이고 있다는 점에서 AI 서버 시장은 앞으로도 훈풍이 불 것으로 보인다. 아마존웹서비스(AWS)는 이달 들어 미국 조지아주의 데이터센터 확장을 위해 최소 110억 달러(약 15조원)를 투입하겠다고 밝혔다. 지난해 12월에는 미국 오하이오주에 데이터 센터 확장을 위해 2030년까지 230억 달러(약 33조원)를 지원하겠다고 발표했다. 마이크로소프트도 올해 6월까지 데이터센터에 800억 달러(약 118조원)를 투자하겠다고 밝혔다. 비저블 알파의 조사에 따르면 MS의 2025 회계연도 자본 지출은 842억4천만 달러에 이를 것으로 예상된다. 이는 전년보다 42%가 늘어난 것이다. 시너지 리서치 그룹은 데이터센터 인프라 지출이 지난해 34% 증가한 2천820억 달러에 이를 것으로 추산했다. 시너지 리서치 그룹은 "지난해에는 엔비디아의 폭발적인 성장이 단연 주목됐다"며 "하지만 이 중 많은 부분은 서버 및 시스템 공급업체의 매출 증가를 통해 나타났다"고 설명했다.

2025.01.13 10:41장유미

HPE "엔비디아 손잡고 AI 개발 문턱 낮춰…슬링샷이 HPC 시장 주도"

"기업이 고성능 인공지능(AI) 개발 인프라를 다양한 요구사항에 맞춰 사용할 수 있는 시대가 왔습니다. 엔비디아와 손잡고 만든 'HPE 프라이빗 클라우드(PC) AI'는 기업들의 AI 도입 과정을 단순화하고 맞춤형 옵션을 제공합니다. 사용 기업은 이 통합 관리 시스템으로 다양한 AI 개발·관리를 간단하고 효율적으로 할 수 있습니다." HPE 트리시 댐크로거 HPC 및 AI 인프라 솔루션 부문 수석 부사장 겸 총괄은 최근 기자와의 인터뷰에서 HPE의 차별화된 AI 솔루션에 대해 이같이 밝혔다. 댐크로거 총괄은 2년 반 동안 HPC와 AI 시장 부문 사업을 맡고 있다. 그는 HPE가 PC AI로 시장 차별화 전략을 펼칠 것으로 봤다. PC AI는 HPE가 엔비디아와 협력해 만든 첫 AI 워크로드 가속화 솔루션이다. 그래픽처리장치(GPU) 수에 따라 다양한 규모로 제공된다. 기업 규모나 필요에 따라 소형부터 대형까지 선택할 수 있는 구성이 마련돼 기업 요구사항에 적합한 용량으로 제공된다. 댐크로거 총괄은 PC AI를 통한 AI 애플리케이션 개발 과정이 매우 간소화될 것으로 봤다. 그는 "사용자는 단 세번의 클릭만으로 인스턴스를 시작할 수 있다"며 "개발 과정이 매우 간단한 것이 특징"이라고 강조했다. 그는 PC AI가 관리 측면에서도 차별화된 효율성을 제공한다고 주장했다. PC AI가 통합 컨트롤 플레인을 통해 인프라 전체를 하나로 통합 관리한다는 이유에서다. 또 HPE의 그린레이크 플랫폼과 통합돼 HPE 장비뿐 아니라 AWS나 마이크로소프트 애저 등 퍼블릭 클라우드 인프라까지 한 곳에 결합할 수 있는 것도 강점이다. 기업은 특정 벤더에 종속되지 않고 독립적으로 AI 인프라를 운영할 수 있다. 댐크로거 총괄은 "PC AI는 고객들이 하이브리드 클라우드 환경을 자유롭게 이용할 수 있도록 지원한다"며 "AI 도입 과정에서 생길 수 있는 벤더 종속성을 최소화하는 것이 핵심 목표"라고 강조했다. PC AI가 비용 효율성에 초점 맞췄다는 설명도 이어졌다. 사용한 만큼 지불하는 (Pay-as-you-go) 형태로 서비스를 제공하고 있어서다. 플랫폼에 탑재된 100개 이상의 스탠다드 워크로드를 통해 AI 앱 개발이나 거대언어모델(LLM) 훈련에 드는 비용과 시간까지 절감할 수 있다. 댐크로거 총괄은 "기업 고객들은 비용 걱정 없이 AI와 관련된 실험을 신속하게 진행할 것"이라며 "비즈니스를 확장할 수 있는 기반을 갖출 것"이라고 강조했다. "AI 시대 지속 가능성은 필수…슬링샷 기술로 HPC 시장 선도" 댐크로거 총괄은 앞으로 고성능 컴퓨팅(HPC) 분야에서 지속 가능성이 핵심 요소가 될 것으로 내다봤다. 생성형 AI 비즈니스가 가속하면서 데이터센터와 HPC에서 나오는 에너지가 폭발적으로 증가할 것이라는 전망 때문이다. 이에 발맞춰 HPE는 HPC 전용 인터커넥트인 '슬링샷'을 자체 개발해 시장에서 차별화를 꾀했다. HPC 기업 크레이를 인수해 작업한 결과물이다. 슬링샷은 HPC 전용 네트워크 인터커넥트 기술이다. 초고속 데이터를 전송할 수 있으며 HPC에서 대규모 데이터 처리와 연산을 최적화할 수 있다. 시스템이 커져도 성능 저하 없이 네트워크 통신을 원활히 유지할 수 있게 지원한다. 특히 슬링샷은 고성능 데이터를 처리하면서도 낮은 전력 소비를 목표로 설계된 것으로 알려졌다. 네트워크 트래픽을 지능적으로 관리해 불필요한 데이터 전송을 최소한으로 줄인다. 이를 통해 데이터센터 에너지 소비를 줄일 수 있다는 의미다. HPE는 이 기술에 액체 냉각 기술을 결합해 데이터센터 냉각 비용과 에너지 소모 감소에도 노력 중이다. 댐크로거 총괄은 "고온 환경에서도 네트워크 성능을 유지하면서 에너지 소모를 최소화할 수 있는 자체 기술"이라고 평했다. 그러면서 "슬링샷 같은 전용 인터커넥트를 보유한 회사는 많지 않다"며 "향후 1년 동안 추가 혁신 소식을 발표하겠다"고 말했다. 댐크로커 총괄은 HPE가 2030년까지 전체 공급망을 지속 가능하게 만들기 위한 목표도 세웠다고 설명했다. 그는 "단순 제품뿐 아니라 고객사 제조 공정과 솔루션 사용 단계까지 지속 가능성을 접목하겠다"고 설명했다. 그는 가장 큰 예로 장비 재사용 장려를 꼽았다. 기업이 이용하던 장비를 반납하면 HPE가 이에 대한 크레딧을 제공하는 형태다. 댐크로커 총괄은 "다음 세대 기술로 업그레이드하려면 자원 최적화는 필수"라고 강조했다.

2024.11.30 14:45김미정

[유미's 픽] "블랙웰 발열? 신경 안 써"…델·슈퍼마이크로 등 서버업계, AI 서버 공급 본격화

엔비디아의 차세대 그래픽처리장치(GPU) '블랙웰'의 발열 문제가 다시 불거진 가운데 서버업체들이 크게 개의치 않고 기존 계획대로 고객사에 납품할 채비에 나섰다. 열을 잡기 위해 수랭식(흐르는 물)도 잇따라 도입하는 모습이다. 26일 업계에 따르면 델 테크놀로지스와 슈퍼마이크로, 대만 폭스콘, 콴타 등 서버 업체들은 최근 '블랙웰'이 탑재된 서버를 잇따라 고객사에 납품하기 시작했다. 엔비디아 '블랙웰'은 2천80억 개 트랜지스터를 탑재한 AI칩으로, 트랜지스터 800억 개인 엔비디아의 차세대 AI칩 'H100' 보다 2.5배 많은 수준이다. 트랜지스터가 많을수록 칩 성능이 좋아진다. 그러나 '블랙웰'은 올 들어 생산 과정에서 수차례 결함이 발견되면서 출시가 계획대로 이뤄지지 않았다. 엔비디아는 지난 3월 '블랙웰'을 처음 공개하며 2분기 중 출시할 수 있다고 공언했다. 하지만 이후 설계 결함이 발견되면서 출시 시기가 예정보다 최소 3개월 늦춰졌다. 또 지난 8월에는 블랙웰을 4분기부터 양산할 계획이라고 발표했으나, 최근 다시 서버 과열 문제가 불거졌다. 이에 '블랙웰'을 사전 주문한 마이크로소프트(MS)·메타·오픈AI·xAI 등 빅테크 업체들은 제품 출시 지연에 대비해 엔비디아의 AI 칩인 'H100'과 'H200' 등 '호퍼' 제품군 주문을 늘리는 방안을 검토하고 있는 것으로 알려졌다. 하지만 서버업체들의 분위기는 다르다. 델 테크놀로지스는 최근 '델 파워엣지 XE9712'를 인공지능(AI) 하이퍼스케일러 기업인 '코어위브(CoreWeave)'에 공급했다. 엔비디아 'GB200'을 탑재한 서버를 고객에 납품한 것은 델 테크놀로지스가 업계 처음이다. '델 파워엣지 XE9712'는 엔비디아 기반 델 AI 팩토리 포트폴리오에 속한 제품으로, 대규모 AI 구축 환경의 거대언어모델(LLM) 학습 및 실시간 추론을 위한 고성능의 고집적 가속 컴퓨팅을 제공한다. 또 엔비디아의 차세대 '블랙웰' 아키텍처 기반인 'GB200 NV L72'를 탑재해 우수한 그래픽처리장치(GPU) 집적도를 보여준다. 이 플랫폼은 랙 스케일 설계에서 최대 36개의 엔비디아 그레이스 CPU(NVIDIA Grace CPU)와 72개의 엔비디아 블랙웰 GPU(NVIDIA Blackwell GPU) 연결을 지원한다. 72개의 GPU NV링크(NVLink) 도메인은 최대 30배 빠른 실시간 1조 개 파라미터 LLM 추론이 가능한 단일 GPU로서 구동된다. 수랭식 엔비디아 GB200 NVL72는 공랭식 엔비디아 'H100' 시스템 보다 최대 25배 더 효율적이다. 이번 출하와 관련해 마이클 델 델 최고경영자(CEO)는 지난 19일 "엔비디아 블랙웰 시리즈의 GB200 AI 가속기 플랫폼을 탑재한 서버가 운송을 시작했다"며 "수랭식 서버를 통해 공급될 것"이라고 설명했다. 경쟁사인 슈퍼마이크로 역시 최근 엔비디아 '블랙웰'을 탑재한 'HGX B200 8GPU' 시스템을 고객사에 공급 중인 것으로 파악됐다. 이 제품은 수냉식의 냉각 효율성을 바탕으로 기존 슈퍼클러스터보다 GPU 컴퓨팅 집적도를 향상시켰다. 또 열 관리와 전력 공급이 향상됐으며 듀얼 500W 인텔 제온6(8천800MT/s DDR5 MRDIMM 포함), AMD 에픽 9005 시리즈 프로세서를 지원한다. 새롭게 설계된 공냉식 10U 폼 팩터는 열전도 헤드룸이 확장돼 1천 W TDP 블랙웰 GPU 8개를 수용할 수 있다. 다만 엔비디아가 최근 슈퍼마이크로와 거리두기에 나선 것으로 알려져 향후 제품 출하가 계획대로 되지 않을 가능성도 제기됐다. 엔비디아가 '블랙웰'의 공급이 부족한 상황에서 슈퍼마이크로 대신 다른 업체에게 물량을 공급하고 있다는 주장이 나오고 있어서다. 디지타임즈에 따르면 엔비디아는 슈퍼마이크로의 여러 문제에 휘말리고 싶지 않아 이처럼 결정 내린 것으로 알려졌다. 하지만 슈퍼마이크로는 엔비디아와의 협업에 문제가 없다는 입장이다. 찰스 리앙(Charles Liang) 슈퍼마이크로 사장 겸 최고경영자(CEO)는 "세계 최대 규모의 수랭식 AI 데이터센터 프로젝트에 기여할 수 있는 전문성, 배포 속도, 배송 역량을 지니고 있다"며 "최근 엔비디아와 GPU 10만 개 규모의 AI 데이터센터도 성공적으로 구축했다"고 강조했다. 직접 서버를 만들어 판매하는 ODM 업체들도 일정 차질 없이 '블랙웰'을 탑재한 서버 공급을 진행할 예정이다. 대표적인 ODM 업체인 대만 폭스콘은 4분기에 소량 공급을 시작한 후 내년 1분기에 생산량을 확대할 계획이다. 콴타도 내년 1분기부터 대량 생산을 개시할 예정이다. 대만 경제일보는 "(블랙웰에 대한) 우려와 달리 서버업체들은 발열 문제에 대해 들어본 적이 없다고 전했다"며 "폭스콘과 콴타 모두 공급 계획에 차질이 없을 것이라고 밝혔다"고 보도했다. HPE도 블랙웰의 발열 문제를 크게 신경쓰지 않는 분위기다. 이 회사는 지난 17일부터 22일까지 미국 애틀란타주에서 열린 '슈퍼컴퓨팅 2024(SC 2024) 콘퍼런스'에서 블랙웰이 탑재된 'HPE 프로라이언트 컴퓨트 XD685' 서버를 공개하며 제품 출시가 임박했음을 알렸다. 이처럼 서버업체들이 '블랙웰'의 발열 문제에 크게 신경쓰지 않는 것은 엔비디아가 일찌감치 이를 예고해 대비했기 때문으로 분석된다. 앞서 젠슨 황 엔비디아 CEO는 "차기 GPU인 '블랙웰'부터는 데이터센터에 수랭식을 도입하기 바란다"고 밝힌 바 있다. 또 엔비디아가 설계 결함을 발견한 후 빠르게 해결책을 마련해 제품 공급에 나선 것도 주효한 것으로 보인다. 덕분에 엔비디아는 올 4분기 '블랙웰' 매출이 당초 예상인 50~60억 달러를 넘어설 것으로 전망됐다. 젠슨 황 CEO는 "블랙웰 수요가 공급을 여전히 초과하는 현상이 이어지고 있으며 이를 충족하기 위해 노력 중"이라며 "올 4분기에 과거 예상보다 더 많은 블랙웰 GPU를 공급할 수 있을 것으로 기대한다"고 밝혔다. 이어 "모든 업체가 블랙웰 GPU를 원하는 상황"이라며 "TSMC와 몰렉스(커넥터 제조사), SK하이닉스와 마이크론, 폭스콘과 콴타, 델테크놀로지스와 HPE, 슈퍼마이크로 등 공급망 관련 모든 업체와 협력해 수요에 대응하고 있다"고 덧붙였다.

2024.11.26 16:27장유미

HPE, '그린레이크 포트폴리오' 발표…하이브리드 클라우드 리더십 '혁신'

HPE가 새로운 '그린레이크 포트폴리오'를 발표하며 하이브리드 클라우드 시장에서의 리더십을 공고히 했다. HPE는 스페인 바르셀로나에서 열린 'HPE 디스커버 2024'에서 HPE '그린레이크 클라우드' 솔루션이 복잡한 IT 환경을 간소화하고 비용 절감을 도모할 것이라고 25일 밝혔다. 이번 발표는 기업 고객의 하이브리드 IT 운영 효율성과 혁신을 지원하는 데 초점을 맞췄다. 이번에 공개된 주요 솔루션으로는 HPE 'VM 에센셜 소프트웨어'와 '알레트라 스토리지 MP X10000'이 포함됐다. 'VM 에센셜'은 하이브리드 환경에서 가상화된 워크로드를 간편하게 관리하도록 지원하며 최대 5배의 총소유비용 절감을 제공한다. 또 '알레트라 스토리지 MP X10000'은 엑사바이트 규모를 지원함으로써 기존 대비 최대 6배 빠른 성능을 제공한다. 또 HPE는 규제 환경에서도 안정적인 클라우드 운영이 가능하도록 '디스커넥티드 관리' 기능을 도입할 예정이라고 밝혔다. 이를 통해 민감한 데이터를 다루는 기업과 기관들이 인터넷 연결 없이도 클라우드 경험을 누릴 수 있다. 인공지능(AI)과 관련해서는 엔비디아와 협력해 프라이빗 클라우드 AI 솔루션을 강화하고 활용 사례를 확장했다. 또 AI 기반 애플리케이션의 개발과 배포를 위해 6곳의 새로운 파트너를 추가하며 생태계를 보다 확대했다. 피델마 루소 HPE 하이브리드 클라우드 사업부 총괄은 "완성도 높은 '그린레이크 포트폴리오'를 발표하게 돼 자랑스럽다"며 "이번 솔루션들은 가상화와 AI 워크로드를 지원하는 미래 지향적 클라우드 모델을 제공할 것"이라고 밝혔다.

2024.11.25 17:40조이환

[유미's 픽] "주니퍼 품기 힘드네"…HPE, 인수 합병 절차 연내 마무리 힘들 듯

주니퍼네트웍스 합병을 추진 중인 휴렛팩커드엔터프라이즈(HPE)가 미국 규제 당국의 딴지에 난감해 하고 있다. 인공지능(AI) 관련 사업을 확대해 경쟁력 확보에 속도를 내야 하는 상황이지만 연내 인수 합병이 마무리되지 않을 가능성이 커졌기 때문이다. 23일 월스트리트저널 등 외신 및 업계에 따르면 미국 법무부는 HPE의 140억 달러 규모 주니퍼네트웍스 인수 건에 대해 제소를 검토하고 있는 것으로 알려졌다. 이 인수 합병으로 인해 상품이나 서비스 경쟁이 실질적으로 약화할 가능성이 커질 것으로 우려돼서다. 지난 2015년 휴렛팩커드에서 분사한 HPE는 중소기업에서 대기업, 정부에 이르기까지 다양한 고객들에게 클라우드 서비스를 제공하는 기업이다. 또 주니퍼를 인수해 기존 네트워킹 사업을 두 배로 확장할 계획을 갖고 있다. HPE는 네트워킹 부문의 매출 비중이 2023년 18%에서 합병 후 약 31%로 성장할 것으로 보고 있다. 주니퍼는 기술, 통신, 금융 등 분야 기업에 스위치 등 통신 네트워크 서비스와 장비를 공급 업체다. AI와 머신러닝(기계학습)을 활용해 사용자의 무선 액세스를 최적화하는 '미스트 AI'라는 인공지능 관련 사업도 하고 있다. HPE는 주니퍼의 인수 추진 소식을 지난 1월 초 공개하며 올해 말이나 내년 초쯤 절차를 마무리한다는 계획을 세웠다. 그러나 미국, 영국 등 일부 국가의 규제 당국에서 잇따라 양사의 합병 계약을 두고 반독점 여부를 들여다 보기 시작하면서 계획이 조금씩 어그러지고 있는 모양새다. 특히 미국 법무부가 최근 나서면서 연내 인수 합병 절차를 마무리하는 것은 더욱 쉽지 않아졌다. 법무부는 지난주 HPE 관계자들을 만나 이번 일에 대해 우려 사항을 전달한 상태로, 반독점 소송 제기 여부에 대한 최종 결정을 앞두고 있다. 블룸버그통신은 "HPE와 주니퍼가 미국 당국의 호의적인 반응을 얻기 위해 내년 1월 도널드 트럼프 대통령 당선자의 행정부가 들어설 때까지 마무리 절차를 연기할 가능성도 있다"고 관측했다. HPE는 주니퍼를 인수해 AI 기술을 활용함으로써 사업 시너지를 키우려는 움직임을 보였다. 주니퍼는 최근 몇 년 간 AI 기술을 적용한 네트워킹 관리 및 가시성 솔루션을 강화해왔다. 미스트 AI와 AI 엔터프라이즈 운영(AIOps) 분야에서도 기술력을 키우고 있다. HPE 또한 AI 시스템에 전력을 공급하는 클라우드 컴퓨팅 서비스를 출시한다고 예고하며 관련 기술에 관심이 있다는 사실을 내비쳤다. 주니퍼는 올 초 발표문을 통해 "AI는 인터넷이 탄생한 이후 우리가 살고, 일하고, 즐기는 방식을 바꿀 가장 큰 변곡점이나 다름이 없다"며 "HPE와 함께라면 (고객에게) 엔드-투-엔드 경험과 AI 네이티브 솔루션을 제공할 수 있게 될 것"이라고 말했다. 일각에선 HPE가 주니퍼를 인수하게 되면 네트워크 선도 기업인 시스코와도 본격적으로 경쟁할 수 있을 것으로 봤다. 다만 네트워크 시장이 수익을 남기기 어려운 환경이란 점에서 시스코만큼 경쟁력을 키울 수 있을지 의문을 표하는 의견도 있다. HP가 무선랜 솔루션 강자인 아루바 네트웍스를 인수했을 때도 시스코는 큰 타격을 입지 않았다. 업계 관계자는 "네트워크 시장은 거래 액수는 크지만 고객이 예상하는 단가가 한정돼 있어 전략을 다각화해 큰 폭의 마진을 남기기가 까다롭다"며 "HPE와 주니퍼가 생존을 위해 각자도생보다 상부상조를 택한 것으로 보인다"고 분석했다. 악사라 바시(Akshara Bassi) 카운터포인트 리서치 수석 분석가는 "주니퍼는 기존 HPE가 아루바를 통해 공략한 네트워크 사업에서 시너지를 제공할 전망"이라며 "데이터센터 영역에서 HPE 제품군을 확장하는 움직임이 있고, AI에 대한 요구가 증가하는 만큼 네트워킹에 대한 수요도 커질 가능성이 있다"고 내다봤다. 하지만 미국 규제 당국의 움직임 탓에 HPE와 주니퍼의 합병을 염두에 두고 사업을 추진하던 업체들은 불안한 기색을 보이고 있다. HPE 파트너 e360의 최고경영자(CEO)는 "규제 승인을 받지 못하면 실망스러울 것"이라며 "시스코뿐 아니라 다른 네트워킹 회사와 상당한 경쟁이 발생하고 있는 이 시장에서 양사의 합병이 시장 지배력에 영향을 줄 만한 반독점인지 잘 모르겠다"고 지적했다. HPE의 주요 파트너인 AI 개발업체 어드바이즈의 CR 해우디쉘 최고경영자(CEO)는 "만약 HPE가 주니퍼 인수에 차질을 빚게 되면 네트워킹 서비스 및 AI 판매 기회에서 수 천만 달러의 손실을 입게 될 것"이라며 "우리는 이미 HPE의 주니퍼 인수를 기반으로 내년에 공격적으로 협업을 하려고 계획을 세워둔 상태"라고 말했다. 그러면서 "HPE가 주니퍼를 인수하게 되면 네트워킹 및 AI 시장에 절실히 필요한 활력을 불어넣을 것으로 기대된다"며 "트럼프 행정부가 출범하면 HPE와 주니퍼가 더 유리한 규제 검토를 받을 수 있을 것으로 보인다"고 덧붙였다. 다만 HPE는 영국과 EU(유럽 연합), 인도 규제 당국이 이번 인수 합병 건에 대해 승인을 완료했다는 점에서 미국의 움직임에 크게 우려하지 않는 분위기다. 또 주니퍼와의 인수 합병 절차도 거의 마무리가 돼 조만간 이와 관련된 입장을 정리해 발표할 것으로 알려졌다. 안토니오 네리 HPE 회장 겸 CEO는 "모든 규제 기관과 협력하고 있는 상태로, 이번 인수 합병 거래를 완료하는 데 크게 걱정하지 않는다"며 "몇 주가 걸릴 수는 있지만 계획대로 진행할 수 있는 협력 프로세스를 갖추고 있다"고 말했다.

2024.11.23 09:00장유미

"업계 첫 수냉 방식"…HPE, AI 모델 학습·HPC 서버 출시

HPE가 고성능컴퓨팅(HPC) 솔루션과 통합 시스템 출시를 통해 갈수록 늘어나는 기업의 인공지능(AI) 도입 가속화를 지원한다. HPE는 리더십급 'HPE 크레이 슈퍼컴퓨팅 EX'와 거대언어모델(LLM) 학습과 자연어처리(NLP), 멀티모달 모델 학습에 최적화된 시스템 2종을 포함한 새로운 HPC·인공지능(AI) 인프라 포트폴리오를 15일 발표했다. HPE 크레이 슈퍼컴퓨팅 EX 시스템 기반으로 작동하는 HPC 포트폴리오 신제품은 세계 난제 해결을 맡은 연구 기관과 소버린 AI 이니셔티브를 개발하는 정부 기관을 위해 설계됐다. 이 제품군은 업계에서 처음으로 100% 팬리스 직접 수냉 방식 시스템 아키텍처 기반으로 작동한다. 컴퓨팅 노드와 네트워킹, 스토리지를 포함한 HPE 슈퍼컴퓨팅 솔루션의 모든 레이어에 걸쳐 새 소프트웨어(SW) 오퍼링으로 보완된다. HPE 크레이 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드는 단일 캐비닛에서 최대 9만8천304개 코어를 제공할 수 있는 HPE 크레이 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드다. 슈퍼컴퓨팅을 위한 가장 강력한 원랙 유닛 시스템을 구현하는 제품이다. 8개의 5세대 AMD EPYC 프로세서를 탑재했다. 중앙처리장치(CPU) 집적도 이점을 제공함으로써 고객이 동일한 공간 내에서 더 높은 성능의 컴퓨팅을 실현할 수 있도록 지원한다. HPE Cray 슈퍼컴퓨팅 EX4252 2세대 컴퓨팅 블레이드는 내년 봄 출시 예정이다. HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드는 슈퍼컴퓨팅 워크로드를 완료하는 데 걸리는 시간을 획기적으로 단축한다. 단일 캐비닛에 최대 224개 엔비디아 블랙웰(NVIDIA Blackwell) 그래픽터리장치(GPU)를 탑재할 수 있다. 각 가속기 블레이드는 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩을 탑재했다. 엔비디아 NV링크-C2C를 통해 2개의 엔비디아 그레이스 CPU와 통합된 4개의 엔비디아 NV링크 연결 블랙웰 GPU를 보유하고 있다. HPE 크레이 슈퍼컴퓨팅 EX154n 가속기 블레이드는 2025년 말에 공급 예정이다. HPE 슬링샷 인터커넥트 400는 차세대 엑사스케일 지원 HPE 인터커넥트 포트폴리오다. 초당 400기가바이트(GB) 속도의 네트워크 인터페이스 컨트롤러(NIC), 케이블 및 스위치를 제공한다. 기존 버전보다 2배 빠른 회선 속도를 제공한다. 자동화된 혼잡 관리 및 초저 테일 레이턴시를 위한 어댑티브 라우팅과 같은 기능을 제공한다. 이를 통해 고객이 훨씬 적은 네트워크 인프라로 대규모 워크로드를 실행할 수 있도록 돕는다. 이 버전의 HPE 슬링샷은 내년 하반기부터 HPE 크레이(Cray) 슈퍼컴퓨팅 EX 시스템 기반 클러스터에 적용된다 HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000은 대규모 슈퍼컴퓨터용으로 설계된 고성능 스토리지 시스템이다. 이전 세대2 대비 입출력(I/O) 성능이 두 배 이상 올랐다. HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000은 오픈 소스 러스터 파일 시스템을 기반으로 한다. I/O 작업 중 유휴 시간을 줄여 CPU와 GPU 기반 컴퓨팅 노드의 활용도를 모두 높일 수 있다. 이 HPC 스토리지 시스템은 내년 초에 HPE 크레이 슈퍼컴퓨팅 EX 시스템에서 일반적으로 제공될 예정이다. HPE 크레이 슈퍼컴퓨팅 사용자 서비스 SW는 컴퓨팅 집약적 워크로드 실행의 사용자 경험을 개선하는 새 SW다. 고객이 시스템 효율성을 최적화하고 전력 소비를 조절하며 슈퍼컴퓨팅 인프라에서 다양한 워크로드를 유연하게 실행하도록 돕는다. "AI 훈련·튜닝에 최적"…HPE 프로라이언트 컴퓨터 XD 제품군 출시 HPE는 고객이 대규모 고성능 AI 클러스터를 간소화할 수 있도록 지원하는 새로운 카테고리 서버를 선보인다. 특히 자체 AI 모델을 학습하는 SP와 대기업을 위해 설계된 HPE 프로라이언트 컴퓨트 XD 서버는 대규모 AI 시스템 설치와 배포를 돕는다. HPE의 최첨단 제조 시설 내에서 솔루션 구축부터 맞춤화, 통합, 검증, 전체 테스트를 지원하는 HPE 서비스 옵션을 활용하면 신속한 온사이트 배포가 가능하다고 평가받고 있다. HPE 프로라이언트 컴퓨트 서버에서만 사용 가능한 HPE iLO 관리 기술을 사용하면 일부 권한이 있는 직원이 서버에 대한 대역 외 원격 제어 액세스를 허용함으로써 표준 대역 내 네트워크 액세스보다 보안을 강화할 수 있다. HPE 프로라이언트 컴퓨트 XD680는 복잡한 AI 학습과 튜닝, 추론 워크로드를 처리하도록 설계됐다. HPE가 설계한 섀시에는 단일 컴팩트 노드에 8개의 인텔 가우디 3 AI 가속기가 탑재됐다. 인텔 가우디 3가 탑재된 HPE 프로라이언트 컴퓨트 XD680 서버는 올 12월에 출시될 예정이다. HPE 프로라이언트 컴퓨트 XD685 서버는 성능부터 경쟁 우위, 에너지 효율성을 우선시하는 고객을 위해 대규모의 복잡한 AI 모델에 대한 학습을 가속화할 수 있다. 향후 엔비디아 GPU가 탑재된 새로운 버전의 HPE 프로라이언트 컴퓨트 XD685 서버가 출시될 예정이다. 이 서버는 5개의 랙 유닛 섀시에 8개의 엔비디아 H200 SXM 텐서 코어 GPU 또는 엔비디아 블랙웰 GPU로 구동된다. 수냉식 냉각 분야에서 수십 년간 쌓아온 HPE의 전문성을 활용해 GPU와 CPU, 스위치를 효율적으로 냉각시킨다. HPE 프로라이언트 컴퓨트 XD685 서버의 엔비디아 HGX H200 8-GPU 버전은 내년 초 출시 예정이다. 엔비디아 블랙웰 GPU 버전은 출시에 맞춰 선보일 계획이다. 앞서 지난 10월에 8개의 AMD 인스팅트 MI325X 가속기와 2개의 AMD EPYC™ CPU가 탑재된 HPE 프로라이언트 컴퓨트 XD685 서버 버전이 발표된 바 있다. HPE 프로라이언트 컴퓨트 XD 서버는 HPE 프라이빗 클라우드 AI 및 HPE 프로라이언트 컴퓨트 DL 서버를 포함한 HPE의 포괄적인 AI 제품군 일부다. HPE는 시장 요구를 충족하고 과학 연구 성과를 올리기 위해 AI 모델을 사용하는 기존 슈퍼컴퓨팅 고객의 증가 수요를 지원하기 위해 많은 노력을 기울이고 있다. 이달 17일부터 22일까지 미국 애틀랜타에서 열리는 슈퍼컴퓨터 기술 전시회인 슈퍼컴퓨팅24(SC24)에서 차세대 HPC·대규모 AI 시스템 정보를 확인할 수 있는 HPE 솔루션을 선보일 예정이다. HPE 트리시 댐크로거 HPC·AI 인프라 솔루션 부문 수석 부사장 겸 총괄은 "소버린 AI 이니셔티브에 투자하는 서비스 제공업체(SP)와 국가들은 발견과 혁신을 가속화하기 위한 대규모 AI 학습을 가능하게 하는 중요한 백본으로 HPC를 점점 더 많이 고려하고 있다"며 "고객은 세계 최고의 HPC 솔루션과 완전 통합형 시스템 제공, 배포 및 서비스 분야에서 수십 년간 쌓아온 경험을 활용해 더 빠르고 효율적으로 가치를 실현하면서 AI 시스템 배포를 빠르게 진행할 것"이라고 밝혔다.

2024.11.15 15:03김미정

HPE, 100% 팬리스 직접 수냉 시스템 아키텍처 공개…"AI 효율성 극대화"

HPE가 대규모 인공지능(AI) 활용시 데이터센터의 에너지 및 비용 효율성을 극대화할 수 있는 수냉 시스템 아키텍처를 발표했다. HPE는 'AI 데이(AI Day)' 행사에서 100% 팬리스 직접 수냉 방식 시스템 아키텍처를 공개했다고 29일 밝혔다. 100% 팬리스 직접 수냉 방식(Fanless DLC) 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를 37% 절감하는 특별한 이점을 제공한다. 이를 통해 전력 비용, 탄소 배출량, 데이터센터의 팬 소음을 줄일 수 있으며, 해당 아키텍처를 사용하는 시스템은 서버 캐비닛의 집적도를 높여, 바닥 면적을 절반으로 줄일 수 있다. HPE의 노하우로 설계된 100% 팬리스 DLC 아키텍처는 이미 대규모 생성형 AI를 구축하는 조직들이 누리고 있는 비용 및 에너지 효율성의 이점을 더 많은 조직들이 누릴 수 있도록 지원한다. 안토니오 네리 HPE 회장 겸 CEO는 “조직들이 생성형 AI의 가능성을 받아들이는 동시에, 지속가능성 목표를 달성하고, 증가하는 전력 수요에 대응하며 운영 비용을 절감해야 한다"며 " 공개한 아키텍처는 오로지 수냉 방식을 적용해, 시중의 대체 솔루션보다 에너지 및 비용 절감 측면에서 큰 이점을 제공한다. 실제로, 해당 DLC 아키텍처는 기존 공랭식 시스템에 비해 냉각 전력 소비를 90%까지 절감할 수 있다"고 설명했다. 한편 AI 데이 행사에서 안토니오 네리 HPE 회장 겸 CEO, 피델마 루소 HPE 하이브리드 클라우드 부사장 겸 총괄 매니저 및 CTO, 그리고 닐 맥도날드 HPE 서버 사업부 부사장 겸 총괄 매니저는 HPE의 포트폴리오가 네트워킹, 하이브리드 클라우드 및 AI의 비전을 실현하는 데 필요한 핵심 요소들을 어떻게 제공하는지에 대해 논의했다.

2024.10.29 17:36남혁우

'델' 주도 AI 서버 시장, 엔비디아 최신 칩 등장 속 판도 변화 올까

생성형 인공지능(AI) 시장 확대와 맞물려 AI 가속기 기반 서버 수요가 폭발하면서 관련 업체들이 고객 확보 경쟁에 본격 나섰다. 각 업체들은 최신 AI 칩을 기반으로 한 신무기를 잇따라 선보이며 점유율 확대에 사활을 건 분위기다. 16일 블룸버그통신에 따르면 델 테크놀로지스는 엔비디아의 AI 가속기인 '블랙웰' 칩을 탑재한 서버를 다음 달부터 일부 고객에게 발송한다. 내년 초부터는 일반 고객에게도 제공될 예정이다. '블랙웰'은 기존 엔비디아 AI 칩인 'H100', 'H200' 등 호퍼(Hopper)를 이을 최신 칩으로, 올해 11월부터 본격적인 양산에 들어간다. 'GB200'은 엔비디아가 블랙웰 아키텍처로 생산된다. 블랙웰 AI 서버 시스템인 'GB200 NVL72'는 이미 출하되고 있는 상태로, 2개의 블랙웰 GPU와 엔비디아의 CPU인 그레이스를 하나로 연결한 GB200 슈퍼칩 36개로 구성됐다. 가격은 380만 달러에 달하며 엔비디아 'GB200' 출하의 대부분을 차지할 것으로 전망됐다. 델 테크놀로지스는 'GB200 NVL72' 시스템을 기반으로 한 파워엣지 'XE9712'를 현재 일부 고객들에게 샘플용으로 공급하고 있다. '블랙웰' 칩은 지난 8월 패키징 결함으로 출시가 다소 늦어질 것으로 예상됐으나 최근 본격 생산되기 시작하며 수요가 폭발적으로 늘어나고 있는 상태다. 특히 마이크로소프트, 오픈AI 등 빅테크들이 AI 데이터센터 구축을 위해 '블랙웰'을 대량 주문하면서 이미 12개월치 생산 물량이 매진됐다. 이 같은 상황에서 델 테크놀로지스는 엔비디아와의 끈끈한 협력 관계를 바탕으로 '블랙웰' 초기 물량 확보에 성공하며 AI 서버 시장에서 입지를 더 탄탄히 구축할 수 있게 됐다. 아서 루이스 델 테크놀로지스 인프라스트럭처 부문 사장은 "'블랙웰' 칩이 포함된 AI 기반 서버는 다음 달 일부 고객에게 보내져 내년 초에 일반 공급될 것"이라며 "다양한 서비스 및 제품으로 차별화한 덕분에 엔비디아의 최신 칩을 조기에 공급 받을 수 있었다"고 설명했다. 델 테크놀로지스는 현재 AI 작업용 고성능 서버 판매 사업 확장에 주력하고 있는 상태로, '블랙웰' 외에 AMD의 기술을 탑재한 AI 특화 서버 신제품 'XE7745'도 전날 공개해 고객들의 선택 폭을 넓혔다. 이 제품은 4U 공냉식 섀시에서 최대 8개의 이중 폭 또는 16개의 단일 폭 PCIe GPU와 AMD 5세대 에픽 프로세서를 지원한다. 이 제품은 AMD 5세대 에픽 프로세서를 탑재한 '델 파워엣지 R6715'와 '델 파워엣지 R7715' 서버와 함께 내년 1월까지 순차적으로 출시된다. 경쟁사인 HPE는 엔비디아 '블랙웰'의 대항마로 여겨지는 AMD의 '인스팅트 MI325X' 가속기를 탑재한 'HPE 프로라이언트 컴퓨트(ProLiant Compute) XD685'를 새로운 무기로 꺼내들었다. 이 서버는 대규모 언어 모델(LLM) 학습, 자연어 처리(NLP), 멀티모달 학습 등 고성능 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 설계된 제품이다. 또 5U 모듈형 섀시로 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 갖추고 있다. 이번 일을 기점으로 HPE는 AMD와의 협력을 통해 앞으로 AI 서비스 제공업체, 정부, 대규모 AI 모델 개발자들이 요구하는 유연하고 고성능의 솔루션을 제공해 AI 경쟁에서 우위를 점하겠다는 목표를 가지고 있다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장은 "AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 AI 혁신을 확장할 것"이라며 "AI 모델 개발자 시장의 수요에 부응하며 산업 전반에서 과학과 공학의 혁신을 가속화할 것"이라고 말했다. 슈퍼마이크로 역시 AMD '인스팅트 MI325X' 기반의 새로운 서버를 최근 선보였다. 이번에 출시한 'H14' 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버 및 AI 추론 GPU 시스템을 포함하고 있다. 또 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. 찰스 리앙 슈퍼마이크로 CEO는 "'H14' 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 자사 'H11' 서버 대비 2.44배 더 빠른 성능을 제공한다"며 "고객은 데이터센터의 총면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다"고 설명했다. 이처럼 각 업체들이 AI 시장을 노리고 잇따라 성능을 높인 새로운 서버를 출시하면서 업계에선 시장 판도에 변화가 생길 지 주목하고 있다. 전 세계 서버 시장은 현재 델테크놀로지스가 주도하고 있는 상태로, HPE와 슈퍼마이크로가 뒤를 잇고 있다. 특히 현재 5~7%가량의 점유율을 차지하고 있는 슈퍼마이크로는 GPU 기반 AI 서버 시장에서 존재감을 높이며 델 테크놀로지스를 점차 위협하고 있다. 미즈호증권 비제이 라케시 애널리스트에 따르면 2022~2023년 AI 서버 시장 내 슈퍼마이크로의 점유율은 80~100%에 달했다. 다만 델 테크놀로지스도 최근 들어 AI 서버 매출을 점차 늘리고 있다. 올해 5~7월에는 31억 달러가 출하됐고, 지난해 5월부터 올해 4월까지는 60억 달러가량의 AI 서버가 판매됐다. 업계 관계자는 "AI 서비스에 대한 수요가 증가함에 따라 자연스럽게 AI 서버에 대한 수요도 함께 늘어나고 있다"며 "우수한 설계 능력과 강력한 AI 파트너십을 바탕으로 존재감을 드러내고 있는 슈퍼마이크로가 향후 델, HPE 등 경쟁사들의 점유율을 빼앗을 가능성이 높다"고 말했다. 아거스리서치 애널리스트들은 "슈퍼마이크로는 AI 시대를 선도하는 컴퓨터 및 서버 업체"라며 "지난 1년간 큰 폭의 이익을 얻었는데 앞으로도 수년 동안 강력한 매출 성장과 마진 확대, 주당순이익(EPS) 가속화에 대비하고 있다"고 평가했다.

2024.10.16 11:51장유미

인텔-AMD 손잡았다…'x86 자문그룹' 공동 구성

PC와 서버 프로세서 분야 경쟁업체인 인텔과 AMD가 현재 가장 널리 쓰이는 명령어체계(ISA)인 x86 호환성과 확장성 향상을 위해 손을 잡았다. 두 회사는 15일(미국 현지시간) 진행된 레노버 행사 '테크월드 2024' 중 이같이 밝혔다. 인텔과 AMD는 x86 시장에서 경쟁자인 동시에 PCI, PCI 익스프레스, ACPI, USB 등 업계 표준 보급과 보안 향상을 위해 노력해 왔다. 양사는 "x86 생태계 자문 그룹은 과거 지속된 협업을 전체 컴퓨팅 생태계의 이익과 제품 혁신의 촉매가 될 수 있도록 다음 단계로 격상할 것"이라고 설명했다. 양사가 결성한 x86 생태계 자문 그룹에는 델테크놀로지스, 메타, 레노버, 구글, 마이크로소프트, 오라클, 레드햇, HP 등 PC·서버·소프트웨어 업체가 모두 참여한다. 오픈소스 운영체제인 리눅스 창시자, 리누스 토발즈와 팀 스위니 에픽게임즈 창업자도 이름을 올렸다. 자문 그룹은 x86 하드웨어 제조사와 소프트웨어 개발자들이 요구하는 필수 기능에 대한 의견을 수렴하고 이를 토대로 x86 명령어의 호환성과 예측 가능성, 지속성을 개선하기 위해 노력할 예정이다. 인텔과 AMD는 "x86은 지난 40년 이상 현대 컴퓨팅 환경의 토대가 됐고 세계 데이터센터와 PC가 가장 선호하는 아키텍처가 됐다"며 "AI 워크로드와 맞춤형 칩렛, 3D 패키징과 시스템 아키텍처 진화 등 현재 진화하는 환경에서 x86의 중요성이 더 커졌다"고 밝혔다. 팻 겔싱어 인텔 CEO는 "우리는 x86 아키텍처와 생태계에서 가장 중요한 변화 시점에 서 있고 현재와 미래 고객의 요구를 충족하기 위한 새로운 수준의 호환성, 확장성이 필요하다"고 밝혔다. 이어 "인텔은 AMD, 자문 그룹의 창립 회원사와 함께 미래 컴퓨팅을 시작했으며 많은 업계 리더의 지원에 감사한다"고 덧붙였다. 리사 수 AMD CEO는 "이번 x86 생태계 자문 그룹 설립은 x86 아키텍처가 개발자와 고객 모두에 계속해서 선택받는 컴퓨팅 플랫폼으로 진화하도록 도울 것"이라고 설명했다. 리사 수 CEO는 또 "AMD와 인텔은 업계를 한데 모아 미래의 아키텍처 개선 방향을 제시하고, x86의 놀라운 성공을 앞으로 수십 년 동안 확장해 나갈 수 있기를 기대한다"고 덧붙였다.

2024.10.16 09:22권봉석

[기고] 액체 냉각, AI를 위한 최적의 냉각 방식

인공지능(AI)은 현재 가장 많은 컴퓨팅 자원을 소모하는 워크로드 중 하나로, 사용량 증가에 따라 AI 시스템의 전력 소비와 에너지 비용이 급격히 증가하고 있다. 국제에너지기구(IEA)에 따르면 전 세계 데이터센터는 2022년에 전체 전력의 2%를 사용했으며 2026년까지 이 비율이 두 배 이상 증가할 것으로 예측된다. 차세대 가속기에서 효율성이 개선됐지만, AI 도입이 늘어나면서 전력 소비는 더욱 증가할 예정이다. 현재의 데이터센터들은 증가하는 프로세서 전력을 지원하기 위한 냉각 수요를 맞추지 못하고 있다. 이에 따라 이 시설들은 AI 워크로드를 보다 효율적으로 운영해야 한다. 그러한 가운데 이러한 문제를 해결하기 위한 액체 냉각이 필수적인 기술로 떠오르고 있다. HPE는 수십 년간의 혁신을 통해 컴퓨팅 집약적인 고성능 컴퓨팅(HPC) 워크로드를 실행하는 대규모 시스템을 효율적으로 냉각하는 액체 냉각 시스템을 전 세계적으로 제공해 왔다. 냉각팬을 사용하는 전통적인 공기 냉각 방식과 달리, 직접 액체 냉각(DLC)은 냉각제를 서버에 직접 주입하여 프로세서에서 발생하는 열을 흡수한 후 이를 데이터센터 외부의 열교환 시스템으로 전달한다. 최신 가속기를 사용하는 미래의 AI 인프라는 전력효율성, 지속가능성 및 AI 워크로드의 안정성을 유지하기 위한 시스템 복원력 문제를 해결하기 위해 이러한 액체 냉각 혁신이 필요할 것이다. AI 데이터센터에서 액체 냉각이 왜 이상적인 솔루션인지, 그 네 가지 주요 이유를 살펴보자. 더 작은 공간에 더 높은 성능을 담도록 설계된 새로운 칩들의 경우, 모든 중요한 구성 요소를 효과적으로 냉각하기 어려울 수 있다. 칩을 충분히 빠르게 냉각하지 못하면 데이터센터는 과열 문제에 직면하게 되고, 이로 인해 시스템 장애 및 AI 작업의 예기치 않은 중단이 발생할 수 있다. 물은 공기보다 열용량이 세 배 더 높기 때문에 액체 냉각을 이용하면 칩을 더 빠르고 효율적으로 냉각할 수 있다. 이를 통해 가속기와 CPU, 메모리 및 네트워킹 스위치와 같은 다른 구성 요소에서 발생하는 열을 더 효과적으로 흡수할 수 있다. 차세대 가속기의 효율적인 냉각 방식은 시스템의 안정성을 확보하는 데에도 필수적이지만, 환경을 위한 지속가능성의 측면에서도 더욱 중요해지고 있다. 액체 냉각은 차세대 가속기에 대해 뛰어난 지속가능성 및 비용 절감 효과를 제공한다. 1만개의 서버를 갖춘 HPC 데이터센터를 예로 들면 모든 서버가 공기 냉각 방식을 사용할 경우 8천700톤 이상의 이산화탄소(CO2)를 배출한다. 반면 액체 냉각 서버를 사용할 경우 CO2는 1천200톤으로 줄어든다. 이는 에너지 소비를 87% 절감하고 매년 약 1천780만 파운드의 CO2 배출을 막는 효과를 가져온다. 이러한 대규모 전력 절감은 비용 절감 효과로도 이어진다. 1만 개의 액체 냉각 서버를 가진 데이터센터는 서버당 연간 45.99달러(약 6만2천원)의 비용이 들지만, 공기 냉각 서버는 서버당 연간 254.70달러(약 34만2천원)의 비용이 든다. 이를 비교하면 운영 비용에서 연간 약 210만 달러(약 28억1천300만원)를 절감할 수 있다는 것을 알 수 있다. 액체 냉각 시스템은 열을 포착한 후 열을 데이터센터 외부의 열교환 시스템으로 전달한다. 이때 가열된 물은 다른 건물이나 시설에 에너지원으로 재활용할 수 있다. 세계적인 재생 에너지 중심지 중 하나인 미국 에너지부의 국립재생에너지연구소(NREL)는 수년 동안 이 방법을 성공적으로 활용해 왔다. HPE 크레이 액체 냉각 슈퍼컴퓨터인 페레그린 시스템의 경우 열을 포착해 가열된 물의 90%를 자원으로 재활용해 에너지시스템통합시설(ESIF) 사무실 및 실험실 공간의 주요 열원으로 사용했다. 데이터센터에서 미래의 AI 인프라 도입을 계획할 때 밀도는 중요한 요소로 작용한다. 이는 고성능 AI 솔루션을 위한 공간을 확보하는 데 큰 영향을 미치기 때문이다. 액체 냉각은 공기 냉각에서 요구되는 팬 및 이에 따른 장비들이 필요 없기 때문에 데이터센터에서 서버 랙을 더 적고 밀집되게 배치해 공간을 최대한 활용하거나 필요에 따라 확장할 수 있다. 예를 들어 1만 개의 서버를 갖춘 데이터센터에서 액체 냉각 서버를 사용한다면 필요한 공간을 77.5% 줄일 수 있다. 또 5년 동안 액체 냉각 솔루션은 섀시 전력을 14.9% 덜 사용하며 공기 냉각 솔루션에 비해 kW당 성능이 20.7% 더 높다. HPE는 50년 이상의 경험과 300개 이상의 액체 냉각 관련 특허를 보유하고 있다. 지난 2년 동안 세계에서 가장 빠른 10대 시스템 중 4대를 공급했다. 이는 HPE 크레이 EX 액체 냉각 슈퍼컴퓨터다. 이 중 하나인 프론티어는 미국 에너지부의 오크리지국립연구소를 위해 구축된 세계 1위 슈퍼컴퓨터로, 엑사스케일 속도 장벽을 돌파하며 수만 개의 가속기를 무결점으로 실행하는 엔지니어링 성과를 달성했다. 이처럼 막대한 성능 규모에도 불구하고 프론티어는 여전히 세계에서 가장 에너지 효율적인 슈퍼컴퓨터로 인정받고 있다. 이처럼 HPE는 컴퓨팅 집약적인 시스템을 구축하고 효율적으로 운영하는 데 필요한 노하우를 갖추고 있다. 오랫동안 AI를 준비해온 HPE는 정교한 냉각 솔루션으로 고객의 AI 여정을 지속적으로 지원할 준비가 돼 있다.

2024.09.20 16:33제이슨 제일러

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

대기업 유통·이커머스 뒤바뀐 처지..."규제 풀어야 산다"

[르포] 골프 코치에서 피부 상담까지…일상 파고든 AI, AWS서밋에서 만난다

허희수 SPC "韓서 40년된 배스킨라빈스, 아이스크림 그 이상 브랜드로 도약"

"관광이냐, 안보냐"...'지도 반출' 결정 일시 보류

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현