• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'HPE'통합검색 결과 입니다. (44건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

HPE, 100% 팬리스 직접 수냉 시스템 아키텍처 공개…"AI 효율성 극대화"

HPE가 대규모 인공지능(AI) 활용시 데이터센터의 에너지 및 비용 효율성을 극대화할 수 있는 수냉 시스템 아키텍처를 발표했다. HPE는 'AI 데이(AI Day)' 행사에서 100% 팬리스 직접 수냉 방식 시스템 아키텍처를 공개했다고 29일 밝혔다. 100% 팬리스 직접 수냉 방식(Fanless DLC) 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를 37% 절감하는 특별한 이점을 제공한다. 이를 통해 전력 비용, 탄소 배출량, 데이터센터의 팬 소음을 줄일 수 있으며, 해당 아키텍처를 사용하는 시스템은 서버 캐비닛의 집적도를 높여, 바닥 면적을 절반으로 줄일 수 있다. HPE의 노하우로 설계된 100% 팬리스 DLC 아키텍처는 이미 대규모 생성형 AI를 구축하는 조직들이 누리고 있는 비용 및 에너지 효율성의 이점을 더 많은 조직들이 누릴 수 있도록 지원한다. 안토니오 네리 HPE 회장 겸 CEO는 “조직들이 생성형 AI의 가능성을 받아들이는 동시에, 지속가능성 목표를 달성하고, 증가하는 전력 수요에 대응하며 운영 비용을 절감해야 한다"며 " 공개한 아키텍처는 오로지 수냉 방식을 적용해, 시중의 대체 솔루션보다 에너지 및 비용 절감 측면에서 큰 이점을 제공한다. 실제로, 해당 DLC 아키텍처는 기존 공랭식 시스템에 비해 냉각 전력 소비를 90%까지 절감할 수 있다"고 설명했다. 한편 AI 데이 행사에서 안토니오 네리 HPE 회장 겸 CEO, 피델마 루소 HPE 하이브리드 클라우드 부사장 겸 총괄 매니저 및 CTO, 그리고 닐 맥도날드 HPE 서버 사업부 부사장 겸 총괄 매니저는 HPE의 포트폴리오가 네트워킹, 하이브리드 클라우드 및 AI의 비전을 실현하는 데 필요한 핵심 요소들을 어떻게 제공하는지에 대해 논의했다.

2024.10.29 17:36남혁우

'델' 주도 AI 서버 시장, 엔비디아 최신 칩 등장 속 판도 변화 올까

생성형 인공지능(AI) 시장 확대와 맞물려 AI 가속기 기반 서버 수요가 폭발하면서 관련 업체들이 고객 확보 경쟁에 본격 나섰다. 각 업체들은 최신 AI 칩을 기반으로 한 신무기를 잇따라 선보이며 점유율 확대에 사활을 건 분위기다. 16일 블룸버그통신에 따르면 델 테크놀로지스는 엔비디아의 AI 가속기인 '블랙웰' 칩을 탑재한 서버를 다음 달부터 일부 고객에게 발송한다. 내년 초부터는 일반 고객에게도 제공될 예정이다. '블랙웰'은 기존 엔비디아 AI 칩인 'H100', 'H200' 등 호퍼(Hopper)를 이을 최신 칩으로, 올해 11월부터 본격적인 양산에 들어간다. 'GB200'은 엔비디아가 블랙웰 아키텍처로 생산된다. 블랙웰 AI 서버 시스템인 'GB200 NVL72'는 이미 출하되고 있는 상태로, 2개의 블랙웰 GPU와 엔비디아의 CPU인 그레이스를 하나로 연결한 GB200 슈퍼칩 36개로 구성됐다. 가격은 380만 달러에 달하며 엔비디아 'GB200' 출하의 대부분을 차지할 것으로 전망됐다. 델 테크놀로지스는 'GB200 NVL72' 시스템을 기반으로 한 파워엣지 'XE9712'를 현재 일부 고객들에게 샘플용으로 공급하고 있다. '블랙웰' 칩은 지난 8월 패키징 결함으로 출시가 다소 늦어질 것으로 예상됐으나 최근 본격 생산되기 시작하며 수요가 폭발적으로 늘어나고 있는 상태다. 특히 마이크로소프트, 오픈AI 등 빅테크들이 AI 데이터센터 구축을 위해 '블랙웰'을 대량 주문하면서 이미 12개월치 생산 물량이 매진됐다. 이 같은 상황에서 델 테크놀로지스는 엔비디아와의 끈끈한 협력 관계를 바탕으로 '블랙웰' 초기 물량 확보에 성공하며 AI 서버 시장에서 입지를 더 탄탄히 구축할 수 있게 됐다. 아서 루이스 델 테크놀로지스 인프라스트럭처 부문 사장은 "'블랙웰' 칩이 포함된 AI 기반 서버는 다음 달 일부 고객에게 보내져 내년 초에 일반 공급될 것"이라며 "다양한 서비스 및 제품으로 차별화한 덕분에 엔비디아의 최신 칩을 조기에 공급 받을 수 있었다"고 설명했다. 델 테크놀로지스는 현재 AI 작업용 고성능 서버 판매 사업 확장에 주력하고 있는 상태로, '블랙웰' 외에 AMD의 기술을 탑재한 AI 특화 서버 신제품 'XE7745'도 전날 공개해 고객들의 선택 폭을 넓혔다. 이 제품은 4U 공냉식 섀시에서 최대 8개의 이중 폭 또는 16개의 단일 폭 PCIe GPU와 AMD 5세대 에픽 프로세서를 지원한다. 이 제품은 AMD 5세대 에픽 프로세서를 탑재한 '델 파워엣지 R6715'와 '델 파워엣지 R7715' 서버와 함께 내년 1월까지 순차적으로 출시된다. 경쟁사인 HPE는 엔비디아 '블랙웰'의 대항마로 여겨지는 AMD의 '인스팅트 MI325X' 가속기를 탑재한 'HPE 프로라이언트 컴퓨트(ProLiant Compute) XD685'를 새로운 무기로 꺼내들었다. 이 서버는 대규모 언어 모델(LLM) 학습, 자연어 처리(NLP), 멀티모달 학습 등 고성능 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 설계된 제품이다. 또 5U 모듈형 섀시로 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 갖추고 있다. 이번 일을 기점으로 HPE는 AMD와의 협력을 통해 앞으로 AI 서비스 제공업체, 정부, 대규모 AI 모델 개발자들이 요구하는 유연하고 고성능의 솔루션을 제공해 AI 경쟁에서 우위를 점하겠다는 목표를 가지고 있다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장은 "AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 AI 혁신을 확장할 것"이라며 "AI 모델 개발자 시장의 수요에 부응하며 산업 전반에서 과학과 공학의 혁신을 가속화할 것"이라고 말했다. 슈퍼마이크로 역시 AMD '인스팅트 MI325X' 기반의 새로운 서버를 최근 선보였다. 이번에 출시한 'H14' 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버 및 AI 추론 GPU 시스템을 포함하고 있다. 또 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. 찰스 리앙 슈퍼마이크로 CEO는 "'H14' 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 자사 'H11' 서버 대비 2.44배 더 빠른 성능을 제공한다"며 "고객은 데이터센터의 총면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다"고 설명했다. 이처럼 각 업체들이 AI 시장을 노리고 잇따라 성능을 높인 새로운 서버를 출시하면서 업계에선 시장 판도에 변화가 생길 지 주목하고 있다. 전 세계 서버 시장은 현재 델테크놀로지스가 주도하고 있는 상태로, HPE와 슈퍼마이크로가 뒤를 잇고 있다. 특히 현재 5~7%가량의 점유율을 차지하고 있는 슈퍼마이크로는 GPU 기반 AI 서버 시장에서 존재감을 높이며 델 테크놀로지스를 점차 위협하고 있다. 미즈호증권 비제이 라케시 애널리스트에 따르면 2022~2023년 AI 서버 시장 내 슈퍼마이크로의 점유율은 80~100%에 달했다. 다만 델 테크놀로지스도 최근 들어 AI 서버 매출을 점차 늘리고 있다. 올해 5~7월에는 31억 달러가 출하됐고, 지난해 5월부터 올해 4월까지는 60억 달러가량의 AI 서버가 판매됐다. 업계 관계자는 "AI 서비스에 대한 수요가 증가함에 따라 자연스럽게 AI 서버에 대한 수요도 함께 늘어나고 있다"며 "우수한 설계 능력과 강력한 AI 파트너십을 바탕으로 존재감을 드러내고 있는 슈퍼마이크로가 향후 델, HPE 등 경쟁사들의 점유율을 빼앗을 가능성이 높다"고 말했다. 아거스리서치 애널리스트들은 "슈퍼마이크로는 AI 시대를 선도하는 컴퓨터 및 서버 업체"라며 "지난 1년간 큰 폭의 이익을 얻었는데 앞으로도 수년 동안 강력한 매출 성장과 마진 확대, 주당순이익(EPS) 가속화에 대비하고 있다"고 평가했다.

2024.10.16 11:51장유미

인텔-AMD 손잡았다…'x86 자문그룹' 공동 구성

PC와 서버 프로세서 분야 경쟁업체인 인텔과 AMD가 현재 가장 널리 쓰이는 명령어체계(ISA)인 x86 호환성과 확장성 향상을 위해 손을 잡았다. 두 회사는 15일(미국 현지시간) 진행된 레노버 행사 '테크월드 2024' 중 이같이 밝혔다. 인텔과 AMD는 x86 시장에서 경쟁자인 동시에 PCI, PCI 익스프레스, ACPI, USB 등 업계 표준 보급과 보안 향상을 위해 노력해 왔다. 양사는 "x86 생태계 자문 그룹은 과거 지속된 협업을 전체 컴퓨팅 생태계의 이익과 제품 혁신의 촉매가 될 수 있도록 다음 단계로 격상할 것"이라고 설명했다. 양사가 결성한 x86 생태계 자문 그룹에는 델테크놀로지스, 메타, 레노버, 구글, 마이크로소프트, 오라클, 레드햇, HP 등 PC·서버·소프트웨어 업체가 모두 참여한다. 오픈소스 운영체제인 리눅스 창시자, 리누스 토발즈와 팀 스위니 에픽게임즈 창업자도 이름을 올렸다. 자문 그룹은 x86 하드웨어 제조사와 소프트웨어 개발자들이 요구하는 필수 기능에 대한 의견을 수렴하고 이를 토대로 x86 명령어의 호환성과 예측 가능성, 지속성을 개선하기 위해 노력할 예정이다. 인텔과 AMD는 "x86은 지난 40년 이상 현대 컴퓨팅 환경의 토대가 됐고 세계 데이터센터와 PC가 가장 선호하는 아키텍처가 됐다"며 "AI 워크로드와 맞춤형 칩렛, 3D 패키징과 시스템 아키텍처 진화 등 현재 진화하는 환경에서 x86의 중요성이 더 커졌다"고 밝혔다. 팻 겔싱어 인텔 CEO는 "우리는 x86 아키텍처와 생태계에서 가장 중요한 변화 시점에 서 있고 현재와 미래 고객의 요구를 충족하기 위한 새로운 수준의 호환성, 확장성이 필요하다"고 밝혔다. 이어 "인텔은 AMD, 자문 그룹의 창립 회원사와 함께 미래 컴퓨팅을 시작했으며 많은 업계 리더의 지원에 감사한다"고 덧붙였다. 리사 수 AMD CEO는 "이번 x86 생태계 자문 그룹 설립은 x86 아키텍처가 개발자와 고객 모두에 계속해서 선택받는 컴퓨팅 플랫폼으로 진화하도록 도울 것"이라고 설명했다. 리사 수 CEO는 또 "AMD와 인텔은 업계를 한데 모아 미래의 아키텍처 개선 방향을 제시하고, x86의 놀라운 성공을 앞으로 수십 년 동안 확장해 나갈 수 있기를 기대한다"고 덧붙였다.

2024.10.16 09:22권봉석

[기고] 액체 냉각, AI를 위한 최적의 냉각 방식

인공지능(AI)은 현재 가장 많은 컴퓨팅 자원을 소모하는 워크로드 중 하나로, 사용량 증가에 따라 AI 시스템의 전력 소비와 에너지 비용이 급격히 증가하고 있다. 국제에너지기구(IEA)에 따르면 전 세계 데이터센터는 2022년에 전체 전력의 2%를 사용했으며 2026년까지 이 비율이 두 배 이상 증가할 것으로 예측된다. 차세대 가속기에서 효율성이 개선됐지만, AI 도입이 늘어나면서 전력 소비는 더욱 증가할 예정이다. 현재의 데이터센터들은 증가하는 프로세서 전력을 지원하기 위한 냉각 수요를 맞추지 못하고 있다. 이에 따라 이 시설들은 AI 워크로드를 보다 효율적으로 운영해야 한다. 그러한 가운데 이러한 문제를 해결하기 위한 액체 냉각이 필수적인 기술로 떠오르고 있다. HPE는 수십 년간의 혁신을 통해 컴퓨팅 집약적인 고성능 컴퓨팅(HPC) 워크로드를 실행하는 대규모 시스템을 효율적으로 냉각하는 액체 냉각 시스템을 전 세계적으로 제공해 왔다. 냉각팬을 사용하는 전통적인 공기 냉각 방식과 달리, 직접 액체 냉각(DLC)은 냉각제를 서버에 직접 주입하여 프로세서에서 발생하는 열을 흡수한 후 이를 데이터센터 외부의 열교환 시스템으로 전달한다. 최신 가속기를 사용하는 미래의 AI 인프라는 전력효율성, 지속가능성 및 AI 워크로드의 안정성을 유지하기 위한 시스템 복원력 문제를 해결하기 위해 이러한 액체 냉각 혁신이 필요할 것이다. AI 데이터센터에서 액체 냉각이 왜 이상적인 솔루션인지, 그 네 가지 주요 이유를 살펴보자. 더 작은 공간에 더 높은 성능을 담도록 설계된 새로운 칩들의 경우, 모든 중요한 구성 요소를 효과적으로 냉각하기 어려울 수 있다. 칩을 충분히 빠르게 냉각하지 못하면 데이터센터는 과열 문제에 직면하게 되고, 이로 인해 시스템 장애 및 AI 작업의 예기치 않은 중단이 발생할 수 있다. 물은 공기보다 열용량이 세 배 더 높기 때문에 액체 냉각을 이용하면 칩을 더 빠르고 효율적으로 냉각할 수 있다. 이를 통해 가속기와 CPU, 메모리 및 네트워킹 스위치와 같은 다른 구성 요소에서 발생하는 열을 더 효과적으로 흡수할 수 있다. 차세대 가속기의 효율적인 냉각 방식은 시스템의 안정성을 확보하는 데에도 필수적이지만, 환경을 위한 지속가능성의 측면에서도 더욱 중요해지고 있다. 액체 냉각은 차세대 가속기에 대해 뛰어난 지속가능성 및 비용 절감 효과를 제공한다. 1만개의 서버를 갖춘 HPC 데이터센터를 예로 들면 모든 서버가 공기 냉각 방식을 사용할 경우 8천700톤 이상의 이산화탄소(CO2)를 배출한다. 반면 액체 냉각 서버를 사용할 경우 CO2는 1천200톤으로 줄어든다. 이는 에너지 소비를 87% 절감하고 매년 약 1천780만 파운드의 CO2 배출을 막는 효과를 가져온다. 이러한 대규모 전력 절감은 비용 절감 효과로도 이어진다. 1만 개의 액체 냉각 서버를 가진 데이터센터는 서버당 연간 45.99달러(약 6만2천원)의 비용이 들지만, 공기 냉각 서버는 서버당 연간 254.70달러(약 34만2천원)의 비용이 든다. 이를 비교하면 운영 비용에서 연간 약 210만 달러(약 28억1천300만원)를 절감할 수 있다는 것을 알 수 있다. 액체 냉각 시스템은 열을 포착한 후 열을 데이터센터 외부의 열교환 시스템으로 전달한다. 이때 가열된 물은 다른 건물이나 시설에 에너지원으로 재활용할 수 있다. 세계적인 재생 에너지 중심지 중 하나인 미국 에너지부의 국립재생에너지연구소(NREL)는 수년 동안 이 방법을 성공적으로 활용해 왔다. HPE 크레이 액체 냉각 슈퍼컴퓨터인 페레그린 시스템의 경우 열을 포착해 가열된 물의 90%를 자원으로 재활용해 에너지시스템통합시설(ESIF) 사무실 및 실험실 공간의 주요 열원으로 사용했다. 데이터센터에서 미래의 AI 인프라 도입을 계획할 때 밀도는 중요한 요소로 작용한다. 이는 고성능 AI 솔루션을 위한 공간을 확보하는 데 큰 영향을 미치기 때문이다. 액체 냉각은 공기 냉각에서 요구되는 팬 및 이에 따른 장비들이 필요 없기 때문에 데이터센터에서 서버 랙을 더 적고 밀집되게 배치해 공간을 최대한 활용하거나 필요에 따라 확장할 수 있다. 예를 들어 1만 개의 서버를 갖춘 데이터센터에서 액체 냉각 서버를 사용한다면 필요한 공간을 77.5% 줄일 수 있다. 또 5년 동안 액체 냉각 솔루션은 섀시 전력을 14.9% 덜 사용하며 공기 냉각 솔루션에 비해 kW당 성능이 20.7% 더 높다. HPE는 50년 이상의 경험과 300개 이상의 액체 냉각 관련 특허를 보유하고 있다. 지난 2년 동안 세계에서 가장 빠른 10대 시스템 중 4대를 공급했다. 이는 HPE 크레이 EX 액체 냉각 슈퍼컴퓨터다. 이 중 하나인 프론티어는 미국 에너지부의 오크리지국립연구소를 위해 구축된 세계 1위 슈퍼컴퓨터로, 엑사스케일 속도 장벽을 돌파하며 수만 개의 가속기를 무결점으로 실행하는 엔지니어링 성과를 달성했다. 이처럼 막대한 성능 규모에도 불구하고 프론티어는 여전히 세계에서 가장 에너지 효율적인 슈퍼컴퓨터로 인정받고 있다. 이처럼 HPE는 컴퓨팅 집약적인 시스템을 구축하고 효율적으로 운영하는 데 필요한 노하우를 갖추고 있다. 오랫동안 AI를 준비해온 HPE는 정교한 냉각 솔루션으로 고객의 AI 여정을 지속적으로 지원할 준비가 돼 있다.

2024.09.20 16:33제이슨 제일러

HPE·바이브컴퍼니·동국시스템즈…한국어 LLM 공동 개발 나서

인공지능(AI)·IT솔루션·데이터 처리 전문 기업들이 한국 기업들의 원활한 AI 도입을 위해 머리를 맞댄다. 한국HPE는 바이브컴퍼니·동국시스템즈와 협력해 한국어 대규모언어모델(LLM)을 개발했다고 22일 밝혔다. 3사의 협력으로 개발되는 이번 LLM 솔루션은 기업 고객이 쉽게 IT 환경과 비즈니스 목적에 맞는 프라이빗 LLM 구축을 돕는다. 한국어 LLM 모델 개발로 한국 기업들의 부문별 필요에도 최적화할 수 있단 점이 장점이다. 이번 협력으로 한국HPE는 엔비디아 그래픽 처리 장치(GPU)를 탑재한 'HPE 크레이 XD670'과 'HPE 프로라이언트 DL380a 젠11 서버'를 지원한다. HPE 크레이 XD670은 대규모 AI 모델의 학습과 조정에 맞게 설계되고 최적화됐으며 HPE 프로라이언트 DL380a 젠11 서버는 AI 추론 작업을 지원할 예정이다. 바이브컴퍼니는 생성형 AI 기반 모델인 '바이브젬', 자동 질의응답 시스템인 '바이브 서치GPT', 일상 대화가 가능한 '바이브 스마트챗' 등을 이용해 기업의 필요에 따라 설계할 수 있는 LLM 솔루션을 개발한다. 동국시스템즈는 고객사 장비 설치·서비스 제공 등에서 기업들을 도울 예정이다. 김영채 한국HPE 대표는 "자사는 다양한 IT 환경에서의 모델 학습부터 엣지에서의 추론까지 엔터프라이즈 AI 워크로드를 위한 포괄적인 포트폴리오를 보유했다"며 "LLM 개발 기술을 갖고 있는 바이브컴퍼니와 네트워크를 보유한 동국시스템즈과 협업해 AI 기술을 활용한 국내 기업들의 경쟁력 강화에 기여하길 기대한다"고 강조했다. 김성언 바이브컴퍼니 대표는 20년 이상 업계를 이끌어 온 AI 기술력으로 HPE·동국시스템즈와 국내 기업·기관들의 AI 전환 솔루션을 개발하기 위해 노력하겠다고 언급했다. 김오련 동국시스템즈 대표는 "HPE와는 오랜 기간 파트너십을 맺어온 관계"라며 "더 많은 기업에 AI를 원활히 도입하도록 추진하겠다"고 말했다.

2024.08.22 15:50양정민

HPE 아루바, 행동 분석 기반 NDR 기능 도입

HPE는 HPE 아루바 네트워킹 센트럴에 행동 분석 기반의 네트워크 위협 탐지 및 대응(NDR) 기능을 도입한다고 8일 밝혔다. HPE는 캠퍼스 중심의 근거리 통신망(LAN)으로 영역대를 확장해 클라우드 기반의 범용 제로 트러스트 네트워크 액세스(ZTNA) 접근 방식을 강화했다. 해당 역량은 클라우드에서 설정한 액세스 제어 정책을 캠퍼스와 데이터센터에도 직접 동일하게 적용하여, 사용자의 위치나 연결 방식과 관계없이 우수한 사용자 경험을 제공하고 정책이 일관되게 적용될 수 있도록 한다. 이러한 신규 NDR 솔루션은 HPE 아루바 네트워킹 센트럴의 데이터 레이크에서 수집한 텔레메트리를 활용하여 AI 모델을 훈련하고 배포한다. 이를 통해 미션 크리티컬 비즈니스 프로세스에 필수적이며 보안에 취약한 사물인터넷(IoT) 디바이스의 비정상적인 활동을 모니터링하고 탐지할 수 있다. 특히, 기업이 생성형 AI 모델을 훈련하고 활성화할 때 필요한 데이터가 IoT 기기에서 더 많이 수집되고 있어, 보안 침해 상황의 지표가 되는 네트워크 트래픽 패턴, 연결 상태, 이동식 디바이스의 속성 변화 등을 감지하는 일의 중요성도 함께 증가하고 있다. HPE 아루바 네트워킹 센트럴은 더욱 선제적으로 위협에 대응하기 위하여 위협 탐지 기능과 함께 새로운 정책 권장 사항을 통합함으로써 잠재적 위협을 차단하여 보호하고 있다. 권장 사항이 네트워크 운영 현황에는 영향을 미치지 않도록, IT 부서들은 정책 적용 전 변경 사항을 미리 검토할 수도 있다. HPE 아루바 네트워킹은 금번 새로운 툴을 공개하며 보안 포트폴리오를 더욱 확장했다. 이는 HPE 아루바 네트워킹 센트럴의 AI 기반 보안 옵저버빌리티 및 모니터링 역량과 HPE의 첫 번째 SSE 서비스형 방화벽 등 지난 5월 RSA 컨퍼런스에서 공개된 새로운 솔루션을 기반으로 두고 있다. 7일부터 8일까지 미국에서 개최되는 정보 보안 컨퍼런스 '블랙 햇 USA 2024('에서 HPE 아루바 네트워킹 센트럴 및 HPE 아루바 네트워킹 SSE가 HPE 부스에서 전시될 예정이다. HPE는 랜섬웨어와 같은 사이버 위협으로부터 통합적으로 네트워크를 보호하기 위해 네트워크 보안 제어 기능을 보완해주는 보안 컴퓨팅 관리 기능과 젤토의 신속한 에어갭 복구 솔루션도 함께 선보일 예정이다. 존 그린 HPE 아루바 네트워킹 최고 기술 및 보안 책임자는 “기업들은 네트워크 내의 보안이 취약한 IoT 디바이스가 보안 솔루션의 옵저버빌리티에 맹점을 유발한다는 것을 점차 인식하고 있다”며 “이러한 디바이스는 대규모 네트워크 공격에 악용될 수 있으며, 공격 범위를 넓히는 주요 원인 중 하나로 작용한다”고 설명했다. 그는 “보안팀이 제로 트러스트 보안 솔루션을 제공하기 위해 점차 네트워크에 더욱 의존함에 따라, HPE 아루바 네트워킹은 온프레미스 또는 오프프레미스 환경 모두에서 애플리케이션 리소스에 대한 단일 액세스 제어 정책을 활용함으로써 고객들이 중복적이고 혼란스러운 제어 환경을 피할 수 있도록 지원한다”고 강조했다.

2024.08.08 15:03김우용

HPE, '2023 리빙 프로그레스 리포트' 발간

HPE는 데이터 중심의 지속 가능하고 책임감 있는 기술 솔루션을 창출하기 위해 지난 한 해 (회계연도 2023년 기준) 실천한 기업의 비즈니스 전략과 노력을 담은 '2023 리빙 프로그레스 리포트'를 발간했다고 9일 밝혔다. HPE는 2040년까지 자사의 전 벨류체인에서 탄소중립을 실현한 기업으로 거듭나기 위해 노력하고 있다. 이 목표는 과학기반 감축목표 이니셔티브(SBTi)에서 인정한 다양한 목표들과 마찬가지로, 기후 과학에 기초하고 있으며 HPE의 넷제로 로드맵에 뒷받침되고 있다. HPE는 SBTi의 넷제로표준에 2040년, 혹은 그 이전까지의 탄소중립 달성 목표를 인정받은 최초의 글로벌 IT 기업 중 하나다. 먼저 HPE는 통제하의 사내 탄소 배출량을 주로 청정 에너지로의 전환을 통해 줄임으로써 자체 비즈니스 운영의 지속 가능성을 높이고자 했다. 그 결과, HPE는 2025년까지 50%의 재생 가능 전력을 조달하겠다는 목표를 2년 연속으로 예정보다 앞당겨 달성했다. 자사 밸류체인에 속한 협력사, 해외 법인의 상품·운송·물류 등 직접 통제할 수 없는 부분을 일컫는 스코프 3에서 탄소 배출은 기업의 온실가스 발자국에서 가장 큰 부분을 차지한다. 이는 탄소 배출 감축에 있어 HPE를 비롯한 IT 업계가 직면한 가장 큰 과제이자 기회다. HPE는 2030 탄소 중립 목표를 달성하기 위해 지속적으로 노력하고 있으며, 빠르게 발전하는 고객의 IT 수요가 환경에 미치는 영향을 완화할 수 있도록 혁신적인 제품과 비즈니스 모델을 지속적으로 고객에게 제공하고 있다. 2023년 HPE의 전체 탄소 배출량은 비즈니스 성장과 제품 조합의 변화로 인해 전년 대비 8% 증가했다. HPE의 스코프 3 탄소배출 감축 로드맵에 따르면, HPE와 공급업체 및 고객이 의존하고 있는 전력 에너지의 탈탄소화를 가속하기 위해서는 장기적인 투자와 혁신이 필요하다. HPE의 모든 리더는 탄소중립 목표를 달성하는 과정에서 중요한 역할을 한다. 이에 HPE는 탄소 중립 목표 달성에 더 큰 책임감을 갖고 활동할 수 있도록 HPE의 임원위원회에 고유한 보상 시스템을 적용했다. 각 부서별 목표 및 기후관련 지표를 보상 시스템과 함께 연계함으로써 임원위원회의 위원들이 각자의 관리 영역에서 HPE의 탄소 집약도를 줄일 수 있도록 했다. 점점 더 증가하고 있는 IT 수요가 모든 IT 솔루션의 생애주기 단계에서 환경에 미치는 영향을 고객이 줄일 수 있도록, HPE는 효율적이고 책임감 있는 IT 제품들의 통합적 포트폴리오를 확장하고 있다. HPE가 2023년 도입한 지속 가능한 제품 로드맵은 지속 가능한 IT 환경을 위해 세 가지 주요 영역에서 고객의 요구 사항을 충족시키는 것을 목표로 한다. 작년 HPE는 지속 가능성에 관한 문제를 종합적으로 해결하기 위해 데이터 센터부터 워크로드와 개별 기기까지 아우른 IT 지속 가능성 서비스 포트폴리오를 확장했다. 예를 들어, HPE 라이트 믹스 어드바이저와 HPE 엣지-투-클라우드 도입 프레임워크는 포함한 다양한 툴과 프로세스를 활용하여 환경 및 지속 가능성 목표를 달성하고, 인프라 현대화를 효율적으로 계획할 수 있도록 한다. HPE는 IT 자산의 환경적 영향을 확인할 수 있는 데이터와 가시성을 제공하여 고객이 IT 인프라를 구매, 관리, 폐기할 때 환경적 요소를 고려할 수 있도록 지원한다. 예를 들어, 작년 출시된 HPE 지속 가능성 인사이트 센터는 HPE 그린레이크 플랫폼 통합 콘솔을 통해 에너지 및 탄소 배출 보고서를 제공하여 고객이 영향력 있는 변화를 이끌어내고 비용을 절감하며 지속 가능한 IT 목표를 달성할 수 있도록 지원한다. 작년 HPE 시스템 103개가 세계에서 가장 에너지 효율적인 슈퍼컴퓨터 목록인 그린500에 등재됐으며, 그 중 여섯 개는 상위 10위 안에 속했다. 미국 에너지부와 오크리지 국립 연구소와 함께 구축한 최첨단 엑사스케일 컴퓨터인 프론티어는 타임즈의 2023년 최고의 발명품 중 실험적 카테고리 부문에 선정됐다. HPE 프로라이언트 Gen11 서버는 전력, 냉각, 공간 사용 및 라이선스 비용의 절감 등을 통해 동일하거나 더 작은 탄소 배출만으로 컴퓨팅 역량을 강화하고 확장할 수 있게 한다. HPE 프로라이언트 Gen11 서버는 이전 세대에 비해 데이터 센터 탄소 배출을 60% 줄이고 전력 및 냉각 비용을 81% 절감할 수 있다. HPE는 모든 사람의 존엄성을 존중해야 할 책임이 있다고 믿으며, 인권 존중 문화는 상위 경영진에서부터 시작된다고 강조한다. 제조에 필요한 자재를 조달하는 방법부터 각 제품의 사용 단계, 그리고 팀원을 대하고 교육하는 방식에 이르기까지 HPE는 비즈니스의 모든 측면에서 인권을 고려한다. 2023년 HPE는 근로자 교육, 근로자 의견 및 채용 수수료 금지 등 세 가지 새로운 공급망 책임 목표를 설정하고 진전을 보였다. 제품 개발, 파트너십, 영업 계약 전반에 걸쳐 HPE의 AI 윤리 원칙을 더욱 강화했다. HPE는 다양성을 보장하고 AI의 작동 방식이나 결정 기준을 사용자가 파악할 수 있도록 하는 AI 서비스 및 기술을 제공해 고객이 현재 산업과 사회가 직면한 가장 어려운 과제에 대한 중요한 통찰력을 얻을 수 있게 한다. 또한, HPE는 HPE와 고객이 회사의 윤리 기준에 따라 AI 제품 및 솔루션을 사용, 개발, 배포할 수 있도록 AI 윤리 자문위원회를 설립했다. 2023년 HPE 이사회 구성원 중 46%는 여성이었고, 15%는 다양한 인종 출신이었다. HPE 임원위원회는 50%가 여성으로 구성되어 있다. HPE는 사회적 영향력을 강화하고자 하는 스타트업이 목표를 달성할 수 있도록 기술과 자금을 지원하는 다양한 기술 액셀러레이터 프로그램을 마련했다. 작년 9월 금융, 산업, 정부 파트너의 지원을 받아 기후 변화에 대응하기 위해 차세대 혁신을 촉진하는 세 개의 새로운 액셀러레이터 프로그램을 시작했다. 안토니오 네리 HPE 회장 겸 CEO는 “번영하는 지속가능한 사회란 식량과 의료 서비스와 같은 기본적인 요구들이 지구 내 생태계 안에서 충족되면서, 동시에 보안과 프라이버시가 보장되는 사회이다. 이를 이끄는 힘은 결국 기술”이라며 “HPE는 윤리적이고 지속 가능한 방식으로 혁신을 추진하여 미래를 가속할 수 있도록 노력하고 있다”고 강조했다.

2024.07.09 11:32김우용

HPE, 파트너 수익성 강화하는 AI 활성화 프로그램 발표

HPE는 엔비디아와 협력해 파트너의 수익성 강화와 신규 수익원 창출을 지원하는 인공지능(AI) 활성화 프로그램을 28일 발표했다. 해당 프로그램은 AI, 컴퓨팅, 스토리지, 네트워킹, 하이브리드 클라우드, 지속가능성 부문을 모두 아우르는 새로운 기능 및 추가 리소스와 함께 향상된 HPE 그린레이크 프로그램 및 역량을 제공한다. HPE는 새롭게 공개한 HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오의 일환으로 엔비디아와 협력해 새로운 AI 파트너 전략을 수립했다. 양사는 HPE의 선두적인 엣지투클라우드(edge-to-cloud) 포트폴리오를 활용해 더 큰 혁신과 기회를 도모할 계획이다. HPE는 주요 파트너사들이 자사 AI 기술을 더욱 발전시킬 수 있도록 차별화된 트레이닝 및 자격 과정 AI 워크숍 및 역량 프로그램을 제공할 예정이다: AI 가속화 워크숍은 AI 활용을 희망하는 파트너들을 지원하며, AI 활용 준비 상태를 평가하고 맞춤형 AI 성장 전략, 성공여부 평가기준, AI 서비스 사례 구축을 위한 로드맵 등을 제공한다. AI 기술 개발 워크숍, 자기주도 학습 콘텐츠 및 자격증 프로그램이 운영된다. HPE 테크 프로에서 해당 워크숍 및 프로그램 등 모든 기능들을 이용할 수 있으며, 엔비디아가 개발한 자기주도 트레이닝 프로그램도 제공될 예정이다. HPE는 엔비디아의 최신 자격증 프로그램도 활용할 계획이다. 이러한 자료들은 HPE와 엔비디아의 AI 솔루션 포트폴리오의 풀스택 AI 솔루션을 판매하고 구축할 수 있는 역량 등, 파트너사들의 AI 역량을 한층 더 발전시킬 수 있도록 도와준다. HPE AI 솔루션 역량은 파트너들이 AI의 모든 라이프 사이클에 걸쳐서 폭넓은 AI 사용 사례를 개발할 수 있도록 지원한다. AI를 처음 도입하는 고객사, 또는 기존 사용 사례를 더욱 확장하는 경우, 고급 AI 연구를 실행하는 사례에 이르기까지 다양한 단계에 거쳐 활용할 수 있다. 엔비디아와 HPE는 채널 파트너들을 대상으로 더욱 종합적인 역량 강화 프로그램을 제공한다. 채널 파트너들은 AI 워크로드용으로 설계된 풀스택 턴키 프라이빗 클라우드인 HPE 프라이빗 클라우드 AI 같은 AI 소프트웨어 및 하드웨어 솔루션 스택을 추천, 배포 및 관리할 수 있는 역량을 기를 수 있다. HPE 컴퓨팅 역량은 파트너로 하여금 고객이 계획한 AI 모델과 사용사례를 더욱 원활하게 지원할 수 있도록 추론 솔루션에 대한 전문성을 개발할 수 있도록 한다. 일례로 엔비디아 인증 HPE 프로라이언트 GenAI 추론 서버는 고객이 원하는 추론 성능 요구 사항에 최적화된 AI 및 데이터 소프트웨어를 갖추고 있으며 성능 대비 효율성도 뛰어나 투자수익률(ROI)에도 긍정적인 효과를 가져올 수 있다. 파트너들은 파트너 프로그램을 통해 이처럼 최적화된 HPE의 컴퓨팅 역량을 고객에게 추천할 수도 있다. HPE의 엔터프레이즈 레벨 고성능 컴퓨팅(HPC) 역량은 파트너들이 더욱 독자적인 생성형 AI 모델을 개발하고 있는 기업 고객들의 더욱 높은 수준을 지원할 수 있도록 한다. 또한, HPC 역량은 딥러닝, 자율주행, 금융 모델링과 같은 데이터 집약적인 모델과 사용사례를 지원할 수 있는 전문성을 더욱 개발할 수 있다. 해당 역량은 파트너들이 엔비디아 인증 HPE 크레이 시스템 등 HPE 크레이 포트폴리오를 자사 AI 및 HPC 전략에 통합하여 활용할 수 있도록 한다. HPE 스토리지 및 데이터 서비스 역량은 HPE 알레트라 MP 파일 스토리지를 지원할 수 있는 전문성을 더욱 강화해 업데이트됐다. NVIDIA DGX BasePOD 인증 및 NVIDIA OVX 검증이 완료된 엔터프라이즈급 파일 스토리지 솔루션을 제공해 AI, 생성형 AI 및 GPU 집약적인 워크로드의 대규모 활용을 가속한다. HPE 파트너 레디 벤티지 프로그램은 파트너들이 연간 반복 매출(ARR)을 증대시키고 서비스를 지속적으로 성장시킬 수 있는 기반을 제공하는 프로그램이다. 해당 프로그램은 포괄적인 영역을 다루는 COE 및 역량(competency)을 제공해 파트너들이 새로운 역량과 더욱 차별화된 솔루션 및 서비스를 개발해 수익과 성장을 견인할 수 있도록 지원한다. HPE는 글로벌 시장조사업체 카날리스와 협력해 파트너 경제 승수 지표에 대한 연구를 통해 프로그램에 등록한 파트너들이 수익을 낼 수 있는 기회들을 수치화했다. 해당 연구에 따르면, 고객이 HPE 솔루션에 투자한 1달러당, 파트너의 제품 및 서비스에 최대 4.9달러를 지출한다. 이는 곧 HPE 파트너 레디 벤티지 프로그램에 등록해 고객들에게 추가적인 서비스를 제공하는 파트너들은 잠재적으로 지속 우상향하는 수익 창출 기회를 얻을 수 있다는 점을 시사한다. 파트너 레디 벤티지에 등록된 파트너는 추가적인 수익 향상 지원으로, HPE 아루바 네트워킹 시큐리티 서비스 엣지, 지속가능성을 위한 HPE 솔루션, HPE 파이낸셜 서비스(HPEFS) 파트너 참여 가이드, HPE 그린레이크 기반 서비스 제공 등을 이용할 수 있다. HPE는 새로운 HPE 그린레이크 제품 및 서비스를 제공해 파트너들이 더욱 빠르게 가치를 실현하고 고객의 하이브리드 클라우드 환경에 관한 강력한 인사이트를 도출할 수 있도록 했다. HPE 그린레이크 인스턴스는 표준화돼 빠르게 이용할 수 있게 됐다. HPE 그린레이크 플렉스 솔루션은 지속가능성 및 옵저버비리리티 관련 기능을 갖춘 하이브리드 클라우드 환경을 제공할 수 있도록 업그레이드 됐다. HPE 그린레이크 관리형 서비스 공급자(MSP)용 워크스페이스는 옵스램프, 컴퓨팅 옵스 매니지먼트를 위한 HPE 그린레이크, HPE 아루바 네트워킹 UXI를 지원한다. 사이먼 유잉턴 HPE 월드와이드 채널 및 파트너 생태계 부사장은 “이러한 최신 기술들을 통해 HPE는 파트너 에코시스템이 더욱 확장하고 새로운 수익원을 창출할 수 있도록 계속해서 투자하고 있다”며 “파트너들이 AI를 활용할 수 있도록 필요한 툴과 기술을 제공하고 시장에서 거대한 기회를 모색할 수 있도록 지원하고 있는 노력들이 이에 해당된다”고 밝혔다. 그는 “엔비디아와 협력을 더욱 확대하면서, HPE의 새로운 기술 개발 프로그램은 파트너들로 하여금 그들의 고객이 새로운 AI 기술을 개발하고 배포하는 방법을 더욱 잘 안내할 수 있도록 지원한다”며 “이로써 고객은 다양한 사용 사례를 개발하고 전 산업부문에 걸쳐 경쟁력을 더욱 강화할 수 있게 된다”고 강조했다.

2024.06.28 15:02김우용

HPE, 프라이빗 클라우드서 KVM 기반 '가상화' 제공

HPE는 가상화 역량을 추가한 'HPE 프라이빗 클라우드'를 21일 공개했다. HPE의 가상화 기능은 오픈 소스 커널 기반 가상 머신(KVM)과 HPE의 클러스터 오케스트레이션 소프트웨어를 결합해 까다로운 엔터프라이즈 워크로드에 필요한 높은 성능과 가용성을 지원한다. HPE의 가상화 클러스터는 클라우드 기반 컨트롤 플레인을 통해 관리할 수 있어 온프레미스 관리 전용 리소스를 별도로 투입하지 않아도 된다. 동시에 HPE의 가상화 기능은 클라우드 연결이 끊어진 경우에도 가용성을 높게 유지할 수 있도록 설계됐다. HPE의 가상화 기능은 HPE 컴퓨팅, 네트워킹, 스토리지 기능을 기반으로 구축된 통합 프라이빗 클라우드 솔루션에 포함되어 제공된다. HPE의 가상화 기능을 겸비한HPE 프라이빗 클라우드를 도입하는 고객은 간단하고 직관적인 관리 경험을 누릴 수 있다. 또한, 자동화된 데이0, 데이1+ 운영 기능, 통합 데이터 보호 기능이 추가된 투클릭 VM 프로비저닝, 자동화된 수명주기 관리 기능도 함께 제공된다. 또한 통합형HPE 알레트라 스토리지 MP 플랫폼의 모든 이점을 누릴 수 있다. 해당 제품은 데이터 집약적인 워크로드를 위한 높은 성능과 효율적인 데이터 정리 기능을 제공한다. HPE 알레트라 스토리지 MP를 통해 개별 워크로드 요구 사항에 맞게 독립적으로 확장할 수 있으며, 소프트웨어 정의 스토리지(SDS) 역량을 활용해 데이터 복제 기능을 퍼블릭 클라우드로 확대할 수도 있다. 뿐만 아니라 고객은 HPE의 자문 서비스, 전문적인 관리형 서비스 등을 통해 운영 및 기술상의 위험을 방지하는 동시에 가치 실현시간은 더욱 단축시킬 수 있다. HPE프라이빗 클라우드는 가상머신, 컨테이너 및 베어메탈 지원을 통해 가상화 워크로드뿐만 아니라 클라우드 네이티브 및 AI 워크로드를 가능하게 한다. HPE 프라이빗 클라우드를 선택하는 기업은 데이터 보호 및 사이버 탄력성(은 물론 AI 기반 IT 운영 관리와 같은 HPE 하이브리드 클라우드 서비스가 통합된 기능을 기본으로 이용할 수 있으며 다른 선도적인 3자 기업의 기능도 여기 있다. HPE 그린레이크 클라우드는 이러한 모든 기능을 단일화된 플랫폼 기반 클라우드 관리 모델로 제공하고 있다. 새로운 가상화 기술을 추가함으로써 HPE는 하이브리드 클라우드 기술 스택 전반에 걸쳐 전반적인 엔터프라이즈급 기능과 서비스를 제공하게 됐다. 모든 역량을 지원하는 제품군을 서드파티 지원과 통합해 제공하는 HPE의 포트폴리오는 기술 및 운영 리스크를 최소화하기 위해 단일 벤더를 원하는 고객을 위해 최적화 되어있다. 기업고객은 HPE 프라이빗 클라우드를 채택하고 HPE와 협력하여 가상화 된 IT 자산을 현대화함으로써 총소유비용(TCO)을 최대 5배 절감할 수 있다고 회사측은 강조했다. HPE는 이를 위해 최적화, 현대화, 단순화 등의 종합적인 3단계 접근 방식을 확립했다. HPE 클라우드 피직스를 활용해 고객 가상화 공간 규모를 적절하게 조정하고 HPE 프라이빗 클라우드 솔루션의 아키텍처 관련 이점을 활용하여 TCO를 최적화한다. 그리고HPE 서비스를 통해 Zerto 데이터 마이그레이션, HPE의 컨테이너 및 가상화 기능, 서드파티 솔루션, 퍼블릭 클라우드 파트너 등 HPE 기능을 활용하여 클라우드 네이티브 및 AI 플랫폼 채택을 가속화한다. 다음으로 HPE 그린레이크 클라우드 플랫폼과 처음부터 멀티 벤더 및 멀티 클라우드를 지원할 수 있는 HPE의 통합된 하이브리드 클라우드 서비스를 이용해 통합된 운영 경험을 이용할 수 있다. 이를 통해 프라이빗 및 퍼블릭 클라우드 환경 등 다양한 환경을 관리하는 어려움을 간소화할 수 있다. 행 탄 HPE 하이브리드 클라우드 최고운영책임자(COO)는 “하이브리드 클라우드의 가능성을 진정으로 실현하려면 통합된 플랫폼 기반 클라우드 운영 모델을 통해 유연성, 제어 기능을 제공하고 락인효과를 방지할 수 있는 '설계부터 하이브리드' 접근 방식을 취해야 한다”며 “이러한 기업 고객의 요구 사항에 대응해 HPE는 HPE 프라이빗 클라우드에 HPE 가상화 기능을 추가한 HPE 하이브리드 클라우드 제품군을 더욱 확대해 출시했다”고 설명했다. 그는 “풀스택 하이브리드 클라우드 기능과 개방형 하이브리드 클라우드 에코시스템의 결합으로 HPE 그린레이크 클라우드는 기업을 위한 미래 지향적인 하이브리드 클라우드로 거듭났다”며 “HPE 그린레이크 클라우드는 고객을 최우선에 두고 있으며, 개방형 표준 도입과 멀티 벤더 및 멀티 클라우드 지원을 위해 최선을 다하고 있다”고 강조했다. 그는 “이러한 노력의 일환으로 HPE는 가상화 및 컨테이너 기술 부문의 리더들과 지속 협력하여 고객에게 가장 적합한 솔루션을 제공하는 런타임을 지원할 것”이라고 덧붙였다. HPE의 가상화 기능은 미리보기로 공개됐으며, 하반기 HPE 프라이빗 클라우드 비즈니스 에디션 의 일부로 먼저 출시될 예정이다.

2024.06.21 13:54김우용

HPE-엔비디아, 생성형 AI 인프라 협업 포트폴리오 출시

HPE는 엔비디아와 공동 개발한 AI 솔루션 'HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE) 포트폴리오'를 19일 출시했다. 이는 HPE가 기업 고객들이 생성형 AI 도입을 가속할 수 있도록 엔비디아와 협력해 개발한 AI 솔루션 및 고투마켓 포트폴리오다. 포트폴리오의 주요 제공 서비스 중 하나는 HPE 프라이빗 클라우드 AI다. HPE 프라이빗 클라우드 AI는 엔비디아의 AI 컴퓨팅, 네트워킹과 소프트웨어를 HPE의 AI 스토리지, 컴퓨팅, 및 HPE 그린레이크 클라우드와 가장 견고하게 통합됐다. IT 운영이 워크로드 및 IT 효율성을 향상시킬 수 있도록 새로운 옵스램프 AI 코파일럿을 제공한다. 전체 수명주기 관리를 포함한 셀프 서비스 클라우드 경험을 제공하며, 다양한 AI 워크로드와 사용 사례를 지원하기 위해 4가지 사이즈의 다른 구성으로 제공된다. HPE가 제공하는 모든 엔비디아 AI 컴퓨팅 제품 및 서비스는 양사의 공통 고투마켓 전략을 기반으로 제공되며, 이 전략에는 판매팀 및 채널 파트너, 교육, 그리고 딜로이트, HCL테크, 인포시스, TCS 및 위프로 등 SI 업체를 아우르는 글로벌 네트워크를 포함한다. HPE 프라이빗 클라우드 AI는 혁신을 가속화하고 투자 수익을 높이는 동시에 AI로 인한 기업의 리스크를 관리할 수 있는 독특한 클라우드 기반 경험을 제공한다. 이 솔루션은 고유 데이터를 활용한 추론, 미세 조정 및 RAG AI 워크로드를 지원한다. 데이터 프라이버시, 보안, 투명성, 거버넌스 요건을 위한 엔터프라이즈급 제어 기능을 제공하며, 생산성 향상을 위한 IT옵스 및 AI옵스 기능을 포함한 클라우드 경험을 갖췄다. AI 및 데이터 소프트웨어 스택의 기반은 엔비디아 NIM 추론 마이크로 서비스를 포함한 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼으로 시작된다. 엔비디아 AI 엔터프라이즈는 데이터 사이언스 파이프라인을 가속하고, 프로덕션급 코파일럿 및 기타 생성형 AI 애플리케이션의 개발 및 배포를 간소화한다. 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM은 최적화된 AI 모델 추론을 위한 사용하기 쉬운 마이크로서비스를 제공하여 다양한 사용 사례에 대해 프로토타입에서 안전한 AI 모델 배포로 원활하게 전환할 수 있도록 한다. 엔비디아 AI 엔터프라이즈 및 엔비디아 NIM을 보완하는 HPE AI 에센셜 소프트웨어는 적응형 솔루션, 지속적인 기업 지원, 안전한 AI 서비스를 제공하는 통합 컨트롤 플레인을 갖춘 준비된AI 및 데이터 기반 툴 세트를 제공하며, 이를 통해 데이터 및 모델 준수, 확장 가능한 기능 등 AI 수명 주기 전반에 걸쳐, AI 파이프라인이 규정을 준수하는 동시에 설명 및 재현이 가능하도록 보장한다. HPE 프라이빗 클라우드 AI는 엔비디아 스펙트럼-X 이더넷 네트워킹, HPE 알레트라 MP 파일 스토리지, 엔비디아 L40S·H100 NVL 텐서코어 GPU·GH200 NVL2 등을 지원하는 HPE 프로라이언트 서버로 구성된다. HPE 프라이빗 클라우드 AI는 HPE 그린레이크 클라우드 기반의 셀프 서비스 클라우드 환경을 제공한다. HPE 그린레이크 클라우드 서비스를 이용하는 고객들은 단일 플랫폼 기반 컨트롤 플레인을 통해 하이브리드 환경 전반에서 엔드포인트, 워크로드 및 데이터를 자동화, 조정 및 관리할 수 있는 관리 기능 및 옵저버빌리티를 제공 받으며, 워크로드 및 엔드포인트의 지속 가능성 관련 지표도 확인할 수 있다. 옵스램프의 IT 운영은 HPE 그린레이크 클라우드와 통합돼 모든 HPE 제품 및 서비스에 대한 통합 옵저버빌리티 및 AI옵스를 제공한다. 또한, 엔비디아 NIM 및 AI 소프트웨어 같은 엔비디아 가속 컴퓨팅 스택과 엔비디아 텐서 코어 GPU, AI 클러스터 및 엔비디아 퀀텀 인피니밴드, 엔비디아 스펙트럼 이더넷 스위치에 대한 엔드투엔드 통합 옵저버빌리티도 제공한다. 옵스램프 운영 코파일럿은 엔비디아의 가속 컴퓨팅 플랫폼을 활용해 대규모 데이터를 대화형 어시스턴트를 통해 분석하고 통찰력을 제공하여 운영 관리의 생산성을 높인다. 옵스램프는 또한 크라우드스트라이크 API와 통합돼 전체 인프라와 애플리케이션 전반에 걸친 엔드포인트 보안 현황을 한눈에 볼 수 있도록 한다. 안토니오 네리 HPE 회장 겸 CEO는 “생성형 AI는 기업 혁신을 위한 엄청난 잠재력을 가지고 있지만, 단편화된 AI 기술의 복잡성은 대규모 기업의 AI 기술 도입을 어렵게 하는 많은 리스크와 장애물을 포함하고 있어 기업의 가장 가치있는 자산인 고유 데이터를 위험에 처하게 할 수 있다”며 “HPE와 엔비디아는 기업에서 생성형 AI의 엄청난 잠재력을 발휘할 수 있도록 하기 위해 AI를 위한 포괄적인 턴키 프라이빗 클라우드를 공동 개발했다”고 말했다. 젠슨 황 엔비디아 참립자 겸 CEO는 “생성형 AI와 가속 컴퓨팅은 모든 산업이 산업 혁명에 동참하기 위해 경쟁하면서 근본적인 변화를 일으키고 있다”며 “엔비디아와 HPE는 우리의 기술을 이렇게 깊게 통합한 적이 없었으며, 엔비디아의 전체 AI 컴퓨팅 스택과 HPE의 프라이빗 클라우드 기술을 결합해 기업 고객과 AI 전문가들에게 AI의 경계를 확장할 수 있는 가장 진보된 컴퓨팅 인프라와 서비스를 제공할 계획”이라고 강조했다.

2024.06.19 15:30김우용

HPE, AI 열풍에 2분기 실적 '굿'…주가도 펄쩍 뛰어

휴렛팩커드 엔터프라이즈(HPE)가 인공지능(AI) 열풍에 힘입어 2분기에 호실적을 기록하면서 주가도 함께 동반 상승했다. HPE는 2024 회계연도 2분기(올해 2~4월) 매출이 전년 동기 대비 3.3% 증가한 72억 달러를 기록했다고 5일 발표했다. 이는 블룸버그와 팩트셋이 집계한 매출 예상치를 웃도는 실적으로, 팩트셋은 앞서 HPE의 2분기 매출을 전년 대비 2%가량 감소한 68억 달러로 예상한 바 있다. HPE의 1분기 매출이 전년 동기 대비 14% 감소했으나, 2분기에는 대폭 개선됐다는 점도 눈에 띈다. 이는 AI 시스템 누적 주문이 46억 달러에 달하는 등 AI가 주요 매출 동력이 된 덕분이다. 마리 마이어스 HPE 최고재무책임자는 "AI 수요가 지리적으로도, 고객층 측면으로도 모두 확대되고 있다"며 "HPE의 광범위한 포트폴리오와 오랜 컴퓨팅 부문 역사가 고객들에게 큰 반향을 일으키고 있다"고 말했다. 2분기 서버 사업부 매출도 시장 기대치(34억5천만 달러)를 넘어선 38억7천만 달러에 달했다. AI 중심 시스템 매출은 전분기 대비 두 배 증가한 9억 달러 이상을 기록했다. 다만 인텔리전트 엣지 매출은 전년 동기 대비 19% 감소했다. 안토니오 네리 HPE 최고경영자(CEO)는 "엔비디아의 고성능 반도체에 대한 수요 증가와 가용성 개선이 AI 시스템 매출 증가를 이끌었다"며 "엔비디아의 고성능 반도체가 더 많이 생산돼 시장에 공급됨으로써 HPE의 AI 시스템 판매도 증가했다"고 설명했다. 이 기간 동안 HPE 순이익은 3억1천400만 달러, 주당 24센트를 기록했다. 1년 전 3억8천700만 달러, 주당 29센트보다는 감소했다. 조정 주당순이익은 42센트로, 시장 전망치(39센트)를 웃돌았다. HPE는 이번 회계연도 3분기 매출은 74억~78억 달러, 조정 주당순이익 전망은 43~48센트로 예상했다. 앞서 시장에선 HPE가 이 기간에 74억5천만 달러의 매출과 47센트의 조정 주당순이익을 예상했다. HPE는 이번 회계연도 한 해 매출이 1~3% 늘어날 것으로 기대했다. 조정 주당순이익은 1.85~1.95달러로 전망했다. 마리 마이어스 HPE 최고재무책임자는 컨퍼런스 콜에서 "현재 HPE의 AI 시스템 수주잔고는 31억 달러에 달한다"고 말했다. 다만 경쟁사인 델은 지난주 AI 서버 수주 잔고가 38억 달러라고 밝힌 바 있다. 이에 델은 올 들어 주가가 80%나 급등했다. 슈퍼마이크로 컴퓨터 주가는 171% 상승했다. 반면 HPE 주가는 3.9% 상승에 그쳐 경쟁사들이 AI 서버로 주가가 크게 오른 것과는 다소 대조적인 모습을 보였다. 그러나 이날 HPE가 실적을 발표한 후 시장 기대치가 커지면서 시간 외 거래에서 주가는 20.90달러(오후 5시 36분 기준)까지 올라 종가(17.60달러) 대비 18% 이상 올랐다. 우진호 블룸버그 인텔리전스 애널리스트는 "AI 서버 증가가 마침내 현실화되고 있다"며 "하지만 AI 비즈니스의 증가를 고려할 때 HPE의 연간 전망치는 압도적으로 낮은데, 이는 네트워킹과 같은 다른 사업 부문이 실적을 끌어내리고 있음을 시사한다"고 밝혔다.

2024.06.05 08:49장유미

HPE, SW정의 스토리지 신제품 공개

HPE는 온프레미스와 퍼블릭 클라우드 환경에서 데이터를 관리하고, 스토리지 워크로드를 최적화할 수 있는 'HPE 그린레이크 플랫폼'의 새로운 솔루션을 29일 발표했다. 새로 공개된 아마존웹서비스(AWS)용 소프트웨어 정의 블록 스토리지 신제품 'HPE 알레트라 MP 블록 포 AWS는 이브리드 클라우드를 위해 AWS상에서 소프트웨어 정의 방식으로 제공되는 HPE의 엔터프라이즈 블록 스토리지다. HPE 알레트라 MP 블록 스토리지는 최대 5.6PB까지 NVMe SSD 용량 확장 가능해지고, HPE 인포사이트의 AI옵스와 크로스 스택 분석 기능을 통해 IT 오퍼레이션을 간소화하고 보다 쉽고 편하게 관리해 생산성과 효율성을 극대화할 수 있다. HPE 타임리스 프로그램은 고객 자산과 투자를 보호하는 새로운 오너십 프로그램으로 HPE 알레트라 MP 블록 스토리지를 사용하는 모든 고객의 총소유비용(TCO)을 절감해준다. 프라이빗 클라우드 비즈니스 에디션(PCBE) 포트폴리오에 HPE 알레트라 MP 블록 및 HPE 심플리비티 Gen 11가 추가됐다. 작년 HPE는 중소규모부터 대규모 엔터프라이즈급 고객을 모두 지원하는 스토리지 운영체제를 탑재한 모듈형 스케일아웃 블록 스토리지1를 통해 하이브리드 클라우드 스토리지에 혁신을 가져왔다. 이를 통해 비즈니스 크리티컬뿐만 아니라 및 미션 크리티컬 워크로드를 단일 플랫폼에서 실행할 수 있게 됐다. HPE는 기업 고객들이 일상적으로 개별 스토리지 각각을 따로 관리하던 환경에서 벗어날 수 있게 도와준다. 통합 데이터 관리 환경으로 전환해 클라우드 운영 모델, AI 기반 자동화 기능, 원활한 데이터 모빌리티 등을 경험할 수 있도록 플랫폼 기반 전략을 지속적으로 확장하고 있다. 짐 오도리시오 HPE 스토리지 수석 부사장 겸 총괄 매니저는 “업계 내 경쟁사들도 서비스형 스토리지를 제공하고 있지만, HPE처럼 플랫폼을 기반으로 하이브리드 클라우드 관리 및 데이터 스토리지 서비스를 제공하는 혁신적인 곳은 없다”며 “HPE 알레트라 스토리지와 HPE 그린레이크 플랫폼이 갖고 있는 뛰어난 역량을 통해 더욱 간편하고 비용 효율적인 IT 환경 및 스토리지 관리의 표준을 새롭게 정립해 나가고 있다”고 밝혔다.

2024.05.29 10:36김우용

HPE "기업 내 AI 기대치와 실제 전략 간 격차 존재"

HPE는 한국을 포함해 전 세계 14개국 기업들의 AI 여정 현황을 다룬 'AI 이점 설계(Architect an AI Advantage)' 보고서를 20일 발표했다. 조사 결과에 따르면, 설문조사에 참여한 전 세계 기업 내 IT 리더 중 절반에 못 미치는 44%만 '자신의 기업이 인공지능(AI)의 이점을 실현할 준비가 됐다'고 응답했다. 이는 실제 AI 도입 과정과 지표가 유기적으로 연결되어 있지 않는 등 AI 전략 내 중대한 격차가 존재함을 보여주며, 결과적으로 파편적인 접근방식을 취하게 되어 실제 AI 도입 시 문제가 악화될 수 있음을 시사한다. 이번 설문조사는 전 세계 14개국 2천명 이상의 IT 리더를 대상으로 진행되었으며, 보고서에 따르면 전 세계적으로 AI에 대한 투자가 증가하고 있지만 기업들은 낮은 데이터 성숙도, 네트워킹 및 컴퓨팅 프로비저닝의 결함 가능성, 주요 윤리 원칙 및 컴플라이언스 고려 사항 등 성공적인 AI 도입 결과에 영향을 미치는 핵심 영역을 간과하고 있는 것으로 나타났다. 또한 향후 투자수익률(ROI)에 부정적인 영향을 미칠 수 있는 전략과 이해도 간의 격차도 발견했다. 비즈니스 성과에 영향을 미치는 강력한 AI 성능은 양질의 데이터 인풋에 달려 있다. 그러나 이번 조사에 따르면 기업이 데이터 관리를 성공적인 AI 활용을 위한 가장 중요한 요소 중 하나로 인식하고 있음에도 불구하고, 데이터 성숙도는 여전히 낮은 수준에 머물러 있는 것으로 나타났다. 단 7%의 조직만이 실시간 데이터 푸시/풀을 실행해 혁신을 일으켜 외부 데이터를 수익화 할 수 있으며, 26%만 데이터 거버넌스 모델을 수립해 고급 분석을 실행할 수 있는 것으로 나타났다. 더욱 우려되는 점은 응답자 10명 중 6명 미만이 '자신의 기업이 AI 모델을 위한 데이터 준비의 주요 단계인 액세스(59%), 저장(57%), 처리(55%), 복구(51%)를 모두 완벽하게 처리할 수 있다'고 답했다는 점이다. 이러한 결과는 AI 모델 생성 프로세스를 지연시킬 위험이 있을 뿐만 아니라, 모델이 부정확한 인사이트를 제공하고 부정적인 ROI를 초래할 가능성도 높다. 응답자들에게 엔드투엔드 AI 생애주기 전반에 필요한 컴퓨팅 및 네트워킹 수준에 대해 질문했을 때도 비슷한 격차가 나타났다. 조사 내 IT 리더의 93%는 사내 네트워크 인프라가 AI 트래픽을 지원하도록 설정되어 있다고 답했으며, 84%는 사내 시스템이 AI 생애주기 전반에서 필요한 특수 사항들을 지원할 수 있는 충분히 유연한 컴퓨팅 용량을 갖추고 있다고 답했다. 이러한 결과는 표면적으로 기업 시스템에 대한 신뢰도가 높은 것을 보여준다. 가트너는 "2025년까지 텍스트 및 데이터 집약적인 작업의 70%를 생성형 AI가 다루게 할 것”으로 예상하며 이는 2023년의 10% 미만에서 크게 증가한 수치라고 설명했다. 그러나 IT 리더 중 절반 미만만이 학습, 튜닝, 추론을 포함한 다양한 AI 워크로드 요구사항을 완전히 이해하고 있다고 인정해, 이들이 AI 관련 요구사항을 얼마나 정확하게 프로비저닝할 수 있는지 심각한 의문이 제기된다. IT 리더의 1/4 이상(28%)이 기업의 전반적인 AI 접근 방식이 '파편화되어 있다'고 답하는 등, 기업들이 주요 비즈니스 영역을 유기적으로 연결하는 데 실패하고 있다. 이를 증명하듯, 3분의1 이상(35%)의 기업이 각 기능에 대해 별도의 AI 전략을 수립하고 있으며, 32%는 아예 서로 다른 목표를 세우고 있다. 더욱 위험한 것은 소비자와 규제 기관 모두의 윤리 원칙 및 컴플라이언스 준수에 대한 관심이 높아지고 조사가 강화되고 있음에도 불구하고 해당 요소들이 완전히 간과되고 있다는 점이다. 조사에 따르면 IT 리더들은 법률 및 컴플라이언스(13%)와 윤리(11%)가 AI 성공에 가장 중요하지 않다고 생각하는 것으로 나타났다. 또한 기업 4곳 중 1곳(22%)은 비즈니스를 위한 AI 전략 논의에 법률팀을 전혀 참여시키지 않는 것으로 나타났다. 기업이 AI에 대한 몰아치는 관심에 빠르게 대응할 때, 적절한 AI 윤리 및 컴플라이언스 규정이 지켜지지 않는다면 시장에서 경쟁 우위를 선점하고 브랜드 평판을 유지하기 위한 기업만의 데이터가 노출될 위험이 있다. 윤리 정책이 없는 기업은 적절한 컴플라이언스와 다양성 기준이 부족한 모델을 개발하게 돼 브랜드에 부정적인 영향을 미치고 매출 손실 또는 높은 벌금과 법적 분쟁을 초래할 위험이 있다. AI 모델의 결과물은 데이터의 품질에 따라 제한되기 때문에 추가적인 리스크도 존재한다. 이는 데이터 성숙도 수준이 여전히 낮은 것으로 나타난 이번 설문조사 결과에서도 확인할 수 있다. 이러한 결과를 IT 리더의 절반이 AI 생애주기 전반에서 필요한 IT 인프라 조건에 대해 완전하게 이해하지 못했다고 인정한 지표와 결합하면, AI 환각 현상 등과 같이 비효율적인 모델을 개발할 위험이 전반적으로 증가한다. 또한, AI 모델을 실행하는 데 필요한 전력 수요가 매우 높기 때문에 데이터센터의 탄소 배출량이 불필요하게 증가할 수 있다. 이러한 문제는 기업의 AI 자본 투자에 대한 ROI를 떨어뜨리고 전반적인 기업 브랜드에 부정적인 영향을 미칠 수 있다. 실비아 훅스 HPE 아루바 네트워크 부사장은 “AI가 빠르게 도입이 되고 있으며, 거의 모든 IT 리더들이 향후 12개월 동안 AI에 대한 투자를 늘릴 계획”이라며 “조사 결과는 AI에 대한 높은 수요를 보여주면서도, 보다 포괄적인 접근 방식을 따르지 않으면 발전이 정체될 수 있는 점도 강조한다”고 설명했다. 그는 “예를 들어, 사내 전략과 부서의 참여 방식이 일치하지 않는 경우, 기업은 중요한 전문 지식을 활용하고 효과적이고 효율적인 결정을 내리며 AI 로드맵이 비즈니스 전반에 일관되게 유익한 결과를 도출하는 데 어려움을 겪을 수 있다”고 덧붙였다. HPE 글로벌 HPC 및 AI 부문 부사장 겸 최고 기술책임자(CTO) 엥림 고 박사는 “AI는 우리 시대의 가장 데이터 및 전력 집약적인 워크로드이며, 생성형 AI을 효과적으로 활용하려면 솔루션이 하이브리드 방식으로 설계되고 최신 AI 아키텍처로 구축되어야 한다”며 “온프레미스, 코로케이션 또는 퍼블릭 클라우드에서의 모델 트레이닝 및 튜닝부터 엣지에서의 추론에 이르기까지, 생성형 AI는 네트워크의 모든 디바이스에서 데이터를 인사이트로 전환할 수 있는 잠재력을 가지고 있다”고 밝혔다. 그는 “그러나 기업은 시장 내 AI 선두주자로 활약해서 얻는 장점과 AI 라이프사이클 전반의 격차를 완전히 이해하지 못할 위험 간의 균형을 신중하게 고려해야 하며, 그렇지 않으면 대규모 자본 투자가 결국 마이너스 ROI를 가져올 수 있다”고 강조했다.

2024.05.20 13:38김우용

HPE 크레이, 씨유박스 영상인식 기술 AI 혁신 지원

HPE는 인공지능(AI) 얼굴 및 영상인식 전문기업 씨유박스(CUBOX)가 HPE 크레이 XD 슈퍼컴퓨터를 활용해 기존 영상인식 솔루션을 훈련시키기 위한 생성형 AI 모델을 개발하고 있다고 30일 발표했다. 씨유박스는 해당 시스템을 통해 새로운 영상 처리 기술 개발에 중점을 두고 혁신을 더욱 강화할 계획이다. 씨유박스는 인천국제공항 내 자동 출입국 심사대 및 주요 정부 기관에 얼굴인식 단말기를 공급하는 등 국내 얼굴인식 기술 기반 보안 산업을 주도하고 있다. 씨유박스는 이번 HPE 크레이 XD 슈퍼컴퓨터의 도입을 통해 생성형 AI 모델 훈련을 최적화한다는 계획이다. 기존 공공시장(B2G)에서 더 나아가 금융 부문 AI 솔루션에 중점을 두고 B2B 시장으로 영역을 더욱 확대하고 있는 씨유박스는 다양한 B2C 서비스를 구축하는데 있어 생성형 AI 역할의 중요성을 인식하고 B2C AI 서비스 모델에 대한 투자도 이어가고 있다. 씨유박스의 시스템은 HPE 크레이 XD6500 슈퍼컴퓨터를 사용하여 구축되었다. 해당 시스템은 이론상 최대 8.136 페타플롭스(FLOPs)의 성능을 자랑하며, 세계에서 가장 강력한 슈퍼컴퓨터 순위인 TOP500 목록에서 156위을 차지했다. HPE 크레이 XD 슈퍼컴퓨터의 향상된 컴퓨팅 성능과 첨단 기능은 씨유박스가 영상, 텍스트, 음성 및 비디오 처리의 기반이 되는 대규모 언어모델(LLM) 및 대규모 멀티모달모델(LMM)과 같은 대규모 AI 기술을 지원하는 기술 로드맵을 수립하는데 결정적인 역할을 했다. 남운성 씨유박스 대표는 “씨유박스는 영상인식 기술의 발전을 주도하고, AI 기반 솔루션으로 인간 상호작용을 새롭게 정의하며 보안을 발전시키는 미래를 만들어가고 있다”며 “새로운 인프라를 기반으로 생성형 AI 서비스를 구축하여 사업을 확장하고, 의료서비스, 로봇시스템 및 디지털트윈과 같은 새로운 비즈니스에 영상 인식 솔루션을 적용하고 있다”고 밝혔다. 김영채 한국HPE 대표이사는 “AI, 모델링, 시뮬레이션 등의 작업은 강력한 스케일링, 대규모 성능이 필요하다”며 “슈퍼컴퓨터는 이러한 컴퓨팅 및 데이터 집약적인 워크로드를 효율적으로 지원할 수 있는 이상적인 플랫폼을 제공한다”고 설명했다. 그는 “세계에서 가장 강력한 슈퍼컴퓨터 중 하나를 구동하여 씨유박스를 지원하고, 정부 기관 및 다양한 조직의 혁신을 촉진하는 영상인식 솔루션을 발전시키는데 기여할 수 있게 돼 매우 영광스럽게 생각한다”고 강조했다.

2024.04.30 14:40김우용

HPE아루바, 고성능 와이파이 7 AP 출시

HPE는 시장 내 타제품 대비 최대 30% 더 많은 무선 트래픽 용량을 제공하는 와이파이 7 액세스 포인트(AP)를 출시한다고 25일 밝혔다. 새로운 AP는 네트워크 보안을 강화하고 위치 기반 서비스를 개선하여 까다로운 엔터프라이즈 AI, IoT(사물 인터넷), 위치 및 보안 애플리케이션에 연결성을 제공한다. 엔터프라이즈 무선 분야 시장 리더이자 가트너 매직 쿼드런트 엔터프라이즈 유무선 LAN 인프라 부문에서 18년 연속 리더로 선정된 HPE 아루바 네트워킹은 표준 요구사항을 뛰어넘는 새로운 와이파이 7 AP로 혁신을 이어가고 있다. HPE의 울트라 트라이밴드 하드웨어를 통해 5GHz 및 6GHz 대역을 활용하고, 대역 간 불필요한 경합을 자동 및 지속적으로 제거해 성능을 더욱 높였다. HPE 아루바 네트워킹 센트럴에서 관리하는 새로운 HPE 아루바 네트워킹 AP는 지그비, 블루투스, 또는 듀얼 USB 인터페이스 등 광범위한 IoT 프로토콜을 내장 하드웨어 지원 서비스로 제공함으로써 IoT 네트워크 오버레이를 배포할 필요가 없다. AP는 카메라, 모터 센서, 에너지 센서, 동작 감지기 등 기업들이 네트워크 엣지에 배포하는 IoT 디바이스의 증가에 대비해 안전한 연결 플랫폼을 제공한다. IoT 기기들이 AI 훈련 및 추론을 위한 많은 양의 데이터 소스를 생성함에 따라, HPE는 350여곳 이상의 기술 파트너와의 협력을 통해 비즈니스 솔루션 생태계를 더욱 확장함으로써 기업고객이 IoT 소스 데이터를 효율적으로 캡처, 보호, 전송 및 활용하여 실시간 비즈니스 인사이트를 도출하고 고유의 AI 데이터 레이크를 구축할 수 있도록 했다. 이러한 혁신 기술을 바탕으로 기업고객은 데이터를 활용하여 예측 관리, 디지털 트윈, 고객용 개인화된 사용자 경험과 같은 솔루션을 위한 AI 모델을 훈련하고 적용할 수 있다. 새롭게 출시된 HPE 아루바 네트워킹 730 시리즈 캠퍼스 AP는 까다로운 사용 사례를 위해 와이파이 성능을 향상시켰다. UTB 필터링은 5GHz 및 6GHz 대역의 인접 채널에서의 간섭을 제거해 성능과 용량을 극대화하고, 조직이 두 대역을 동시에 사용할 수 있는 유연성을 제공한다. 정책 기반 액세스 제어 및 레이어 7 애플리케이션 방화벽은 IoT 가시성 향상을 위한 HPE 아루바 네트워킹 센트럴 클라이언트 인사이트와 자동화된 다이내믹 세그먼테이션 등 보안 우선 무선 기능을 기반으로 하여 사용자 및 IoT 디바이스에 역할 기반 액세스를 제공한다. 추가 기능으로는 유선 데이터 보호를 AP까지 확장하는 새로운 링크 레벨의 암호화(MACsec) 기능과 대학 캠퍼스와 같은 그룹 환경에서 사용자 디바이스의 안전한 셀프서비스 온보딩을 제공하는 개인 무선 네트워크 모드가 있다. HPE 아루바 네트워킹 센트럴의 IoT 운영 대시보드는 디바이스 온보딩을 간소화하고, 벤더 특정 IoT 오버레이 네트워크의 과도한 오버헤드를 제거하여 AP가 IoT 장치의 커넥터 및 로컬 처리 요소로 작동하게 하고, IoT 장치가 제3자 IoT 서비스와 직접 통신할 수 있게 한다. 듀얼 전용 블루투스 및 지그비 라디오는 고밀도 IoT 환경을 지원하며, 듀얼 USB 포트는 독점 프로토콜을 사용하는 광범위한 IoT 디바이스에 강력한 연결성을 제공한다. AP의 통합형 비영구 외부 안테나는 까다로운 무선 주파수(RF)를 위해 설계되었다. HPE 아루바 네트워킹 730 시리즈 AP는 이전 HPE 모델보다 2배 더 많은 SDRAM 및 플래시 메모리를 갖추고 있어 애플리케이션별 컨테이너를 AP 자체에서 실행할 수 있다. 이는 데이터 전송을 간소화하고 데이터를 로컬에서 처리하여 온도나 동작과 같은 실시간 조건에 보다 신속하게 대응할 수 있다. HPE 아루바 네트워킹 730 시리즈 AP는 최초로 신규 와이파이 위치 표준을 활용했다. 이를 통해 실시간, 몰입형 및 산업용 사용 사례를 위해 1미터 이내의 정밀도를 제공하는 향상된 위치 인식 서비스와 자체 위치 네트워크를 활성화하는 데 도움이 되는 IEEE 802.11az 표준을 지원한다. 추가 기능으로는 사용자 참여를 높이고 귀중한 자산을 추적하여 손실을 줄일 수 있는 양방향 IoT 위치 데이터를 위해 저전력 블루투스(BLE) 5.4를 통합하는 글로벌 내비게이션 위성 시스템(GNSS) 수신기와 바닥 레벨 매핑용 기압 센서가 있다. AI 기술을 활용한 동적 절전 모드를 통해 기업의 에너지 사용량과 비용을 절감할 수 있다. 오는 7월 전 세계에 출시되는 HPE 아루바 네트워킹 730 시리즈 AP는 부분적으로 영구 보증을 제공한다. HPE 아루바 네트워킹 730 시리즈 캠퍼스 AP 관리 기능은 HPE 아루바 네트워킹 센트럴을 통해 구독형 서비스로 이용할 수 있다. HPE 아루바 네트워킹 센트럴은 독립형 SaaS 제품으로 이용할 수 있을 뿐만 아니라, HPE 그린레이크(NaaS) 구독형 서비스에도 포함되어 있으며, HPE 그린레이크 엣지-투-클라우드 플랫폼을 통해 이용할 수 있다. 스튜어트 스트릭랜드 HPE 아루바 네트워킹 무선 부문 최고기술책임자(CTO)는 “HPE 아루바 네트워킹은 스포츠팬들을 위한 몰입형 경험부터 자동화된 제조 공정에 이르기까지 고객에게 안전하고 안정적인 고성능 연결성을 제공하며 다양한 비즈니스의 목표달성을 지원하기 위해 계속 노력하고 있다”며 “와이파이 7 AP는 단순히 성능과 효율성 향상을 넘어, 네트워크 보호부터, 워크로드 분산, 환경 특화, 비즈니스 및 운영 분석을 위한 기반을 제공하는 지능형 IoT 허브로 발전하고 있다”고 밝혔다.

2024.04.25 14:46김우용

[기고] 서비스형 네트워크(NaaS) 선택 시 고려해야 할 5가지

서비스형 네트워크(NaaS)는 구독 기반 과금 모델 또는 유연한 소비 모델로 한 번에 제공되는 네트워크 인프라스트럭처의 하드웨어, 소프트웨어, 서비스, 관리 및 라이선스 컴포넌트를 말한다. 기업들은 NaaS를 통해 프로비저닝, 배포, 네트워크 관리, 유지 및 네트워크 인프라 생명주기 관리 등에 이르는 일련의 작업들을 외주로 처리할 수 있는데, 최근 더욱 업계 전반에 다양해진 IoT 기기의 활용과 하이브리드 업무 환경으로 인해 민첩하고 유연한 네트워크 구축이 필수적인 요소로 떠오르며 네트워크를 더욱 쉽게 관리할 수 있는 NaaS의 도입은 더욱 가속화될 전망이다. 이때 NaaS를 도입하기 위한 최적의 벤더를 고르는 것은 비즈니스의 성공과도 바로 직결된다. 이러한 NaaS를 제공하는 벤더는 NaaS가 도입할 준비가 되었는지 잘 파악하여 원하는 비즈니스 및 운영상의 결과를 도출할 수 있는 솔루션을 제공할 수 있어야 하는데, 네트워크 인프라 전환을 앞둔 기업이라면 벤더 결정 시 다음과 같은 5가지를 고려해볼 필요가 있다. 1. 각종 툴 및 자원 확보 여부 먼저 NaaS 벤더가 비즈니스의 성공을 더욱 가속화하기 위한 툴과 자원을 확보하고 있는지 확인해야 한다. 세일즈 부문에 있어서 벤더는 고객이 NaaS를 도입하고자 하는 방식을 이해할 수 있는 툴이 필요하고, 자본지출과 운영비용 투자간 차이를 보여줄 수 있는 투자수익율 계산툴도 보유하고 있어야 한다. 또한, 인프라 전환 과정이 매끄럽고 NaaS를 도입한 후 이를 문제없이 효율적으로 운영하기 위해서 벤더는 세분화된 체크리스트와 명확하고 구조화된 절차를 제공할 수 있는 실행 가이드를 필수적으로 보유해야 한다. 이러한 자원들은 기업이 충분한 정보를 바탕으로 의사결정을 할 수 있게 도와줄 뿐만이 아니라 최적의 상태로 NaaS로 전환을 이룰 수 있게 한다. 2.통합적인 구현 가이드의 제공 여부 솔루션 도입 시에는 설치에 얼마만큼의 노력이 필요한지 파악하고, 해당 솔루션을 도입한 사내에서 학습 및 활용 효과가 나타나는데 시간이 얼마나 걸릴 지 가늠할 수 있어야 한다. 많은 벤더들이 트레이닝을 제공한다고 하지만, 이는 실제 구현 비용에 포함되어 있지 않을 수 있다. 따라서, 잘 정비된 절차와 통합적인 구현 가이드, 설계 및 배포 모범사례 등을 제공하는 NaaS 벤더를 우선해 선택해야 한다. 3. 파일럿 프로그램 어떤 솔루션은 설명상으로는 아주 이상적으로 보일지라도, 실제 상황이나 기업이 현재 필요한 부분과는 잘 맞지 않는 경우가 있다. 이에 새로이 도입되는 기술의 가치를 증명하기 위해서 파일럿 프로그램을 진행해볼 수 있는 벤더여야 한다. 리스크가 무엇인지까지도 알려줄 수 있는 벤더야 말로 비즈니스의 성공을 함께 지원해줄 수 있을 뿐만 아니라, 파일럿 프로그램 기간 전반에 걸쳐 충분한 지원을 아끼지 않을 것이다. 4. 폭넓은 지원 범위 아무리 철저하게 벤더를 선택한다고 해도, 지원사항 부문에서는 항상 문제가 발생하기 마련이다. 기획에서부터 배포, 운영 및 최적화에 이르기까지 포함된 모든 서비스의 가용성, 수준 및 범위를 철저하게 평가해야 필요 시 적절한 지원을 받을 수 있다. 5. 입증된 실력을 가진 벤더 벤더의 경험과 네트워킹 업계 내 지위를 고려해야 한다. 오랜 역사와 동시에 혁신 의지를 갖고 있는 기업을 살펴보아야 한다. 기업이 최신 기술을 활용하는지, 장기적인 발전을 위해서 명확한 건설적인 로드맵을 갖고 있는지, 고객 피드백을 적극적으로 수렴해 제품에 반영하는지가 중요하다. 그리고 무엇보다도 실제로 만족스러운 도입 경험을 함께 나누고자 하는 고객을 보유했는지, 다양한 업계와 규모의 기업에게 NaaS를 도입한 사례를 확보하고 있는지도 따져야 한다. 이러한 요소들은 결국 벤더 역량의 지표이며 네트워킹 부문에서의 신뢰도를 나타낸다고 할 수 있다. 기업의 네트워킹 인프라 전환은 기업 내부 운영 프로그램에서부터, 세일즈 및 고객 경험까지 기업의 모든 부문에 영향을 미치는 중대한 결정이다. 따라서 그 어느 때보다 신중한 결정이 필요하기에 더욱 성공적으로 자사 인프라시스템을 유연한 NaaS로 전환하길 원하는 기업이라면, 벤더 선정 시 위와 같은 5가지 사항들을 고려해보기를 제안한다.

2024.04.15 08:47강인철

HPE AI 스토리지 '알레트라 MP 파일' 집적도 대폭 향상

지난달 HPE는 인공지능(AI), 기계학습(ML), 고성능컴퓨팅(HPC) 등의 전용 스토리지인 'HPE 알레트라 MP 파일 스토리지'의 신규 업데이트를 출시했다. HPE 알레트라 MP 파일 스토리지는 엔터프라이즈 대규모 AI 환경, 데이터레이크 등의 데이터 중심의 고성능 워크로드에 최적화된 스토리지로 활용되고 있다. 가장 큰 변화는 고집적성이다. 기존 대비 랙 유닛당 4배 많은 용량과 2배 향상된 성능을 제공한다. 그에 따라 AI 업무 처리량을 2배로 늘릴 수 있고, 전력 소비를 최대 50%까지 절감할 수 있게 됐다. 컨트롤러의 접적성 향상 뿐만 아니라 1RU당 1.3PB 용량의 올NVMe를 제공하는 드라이브 샤시의 혁신을 통해 비용을 크게 줄이며 데이터 센터의 상면과 전력 소비를 크게 절감할 수 있다. 이러한 개선 사항을 통해 HPE는 AI 및 데이터레이크 등 데이터 중심의 고성능 워크로드에서 성능, 운영 편의성, 효율성 향상을 달성할 수 있도록 도움을 준다. 작년 출시된 HPE 알레트라 MP 파일 스토리지는 지속적인 업데이트와 혁신 적용을 약속해 왔으며 최신 업데이트에서 기존 대비 7배 높은 고집적도를 제공하면서 그 약속을 실현했다. 이번 업데이트를 통해 HPE 알레트라 MP 파일스토리지는 경쟁사의 파일 스토리지 대비 2.3배 높은 집적성을 제공한다고 회사측은 강조했다. HPE는 특히 AI 워크로드에서 성능과 역량적인 측면을 더욱 개선해왔다. 이는 폭발적으로 증가하는 AI 워크로드에 대응해 가장 범용적인 스케일아웃 파일 스토리지에 투자하길 원하는 고객을 선제적으로 지원하기 위한 HPE의 노력을 반영한다. 많은 기업이 AI를 최우선 당면 과제로 여기고 있으며 신속하게 도입, 적용하고 확대함에 따라 HPE는 그에 맞는 AI 전용 스토리지를 출시하여 고객들의 고민을 함께 해결해왔다. HPE 알레트라 MP 파일은 작은 규모로 시작해 대규모로 확장할 수 있는 유연성과 효율성을 제공하고, 스냅샷, 원격복제, 중복제거·압축·유사성제거, QoS, 고가용성 아키텍처 등 엔터프라이즈급 환경을 지원한다. 고성능을 통해 학습, 튜닝, 추론의 모든 AI 단계를 아우를 수 있다. 그렇기에 생성형 AI, 대규모 언어 모델(LLM) 등 다양한 AI 워크로드에서 각광을 받고 있다. AI 워크로드를 처리함에 있어 기존의 레거시 스케일아웃 NAS 스토리지는 성능 확장성의 제한이라는 한계점이 존재한다. 비공유 아키텍처로 인해 발생하는 한계다. 기존의 스케일아웃 스토리지는 다수의 노드로 구성되며, 각 노드는 컨트롤러 CPU, 메모리, 드라이브, NIC가 함께 구성된다. 각 노드 내부에 저장된 데이터는 해당 노드 자신만이 데이터를 볼 수 있으며, 다른 노드와 공유 및 분산저장, 처리하려면 고속의 네트워크로 구성돼야 하며, 그로 인해 발생하는 이스트웨스트 트래픽으로 인해 성능 확장성의 한계를 가지게 된다. 즉, 단 하나의 파일을 접근하는 작업이라도 항상 모든 노드들과 통신을 해야만 하는 단점이 존재한다. HPE 알레트라 MP 파일 스토리지의 공유 아키텍처는 컨트롤러와 드라이브 노드를 분리 구성해 모든 컨트롤러는 모든 드라이브를 직접 볼 수 있는 구조로 노드 간 이스트웨스트 트래픽을 원천적으로 제거했다. 이로 인해 성능 확장이 필요한 경우 컨트롤러만 독립적으로 증설하여 효율적인 성능 확장이 가능하다. 용량 확장이 필요한 경우 드라이브만 독립적으로 증설해 불필요한 컴퓨팅 파워의 증설을 사전에 방지할 수 있다. HPE 알레트라 MP 파일 스토리지는 기본 장착되는 고속의 NVMe SCM이 캐싱역할을 담당해 빠른 응답속도를 제공한다. 모든 데이터는 NVMe SSD에 최종 저장돼 미디어 간 데이터 이동, 티어링을 하지 않아 데이터 집약적인 AI 워크로드에서 성능을 극대화 한다. HPE 알레트라 MP 파일 스토리지는 생성형 AI 및 LLM 등을 비롯한 가장 까다롭고 데이터 집약적인 AI 워크로드 전반에서 빠르고 일정한 수준을 유지하는 성능을 제공할 수 있다. 레거시 파일 스토리지는 또 다른 문제가 있다. 전문 지식을 가진 엔지니어만 스토리지를 다룰 수 있으며 유지보수관리를 위해 복잡하고 어려운 명령어 기반의 수동 작업이 필요한 경우가 바로 그것이다. 이로 인해 조직은 새로운 AI 모델의 가치 창출보다 반복적이고 일상적인 관리 업무에 많은 시간을 소모하게 된다. HPE 알레트라 MP 파일은 누구나 쉽고 간편하게 다룰 수 있는 GUI로 모든 관리를 할 수 있다. 운영 및 관리 오버헤드를 줄이고 AI 를 통한 생산성 향상에 기여를 한다. 더 이상 전문 지식과 복잡한 설정 프로세스가 필요하지 않으며 새로운 개발 및 혁신에 걸리는 시간을 단축할 수 있다. HPE 그린레이크 플랫폼에서 동작하는 클라우드 관리 콘솔을 제공해 언제 어디서나 모든 기기에서 엑세스할 수 있는 통합 관리를 제공한다. 스마트폰처럼 최적의 버전에 대한 업데이트 알림을 주고 시스템 중단 없이 업그레이드를 수행할 수 있다. 블록스토리지, HCI, 백업·복구, 재해복구, SAN 스위치 등을 함께 통합된 환경에서 관리할 수 있어 인프라 관리에 소요되는 시간과 인력, 노력을 최소화 할 수 있다. 데이터 집약적인 AI 모델은 스토리지 용량, 상면, 전력 소비와 관련해 충족해야 할 사항들이 매우 많다. 하지만 레거시 NAS 스토리지는 집적성, 단위 TB당 비용, 전력 효율성 등의 요구사항을 충족하기에 턱없이 부족하다. HPE 알레트라 MP 파일은 단위 랙 유닛 밀도당 4배 더 많은 용량과 절반의 전력 소비로 AI 스토리지 비용을 절감한다. 데이터 중복제거·압축·유사성제거 기술, 무중단 업그레이드, 낭비 자원을 방지하는 애즈어서비스 구독형 AI 스토리지 모델을 통해 탄소 배출량도 줄일 수 있다. 성능과 용량을 독립적으로 확장 가능하여 확장 효율성을 높이면서도 비용은 절감시킬 수 있고, NVIDIA의 GPU다이렉트 스토리지 기능을 완벽 지원하여 GPU 사용률을 극대화함으로써 GPU의 투자수익(ROI)을 최대화할 수 있다. 용량 효율성 측면을 살펴보면, 업계 유일의 유사성 제거 기능을 통해 중복제거, 압축과 더불어 한번 더 용량을 절감하여 저장할 수 있다. 유사성 제거는 매우 정교한 방식으로 데이터를 줄여주는 기술로 생명과학 데이터의 경우 2대1, 중복제거된 백업, 압축 로그 파일, HPC 및 애니메이션 데이터의 경우 3대1, 그리고 비압축 시계열 데이터의 경우 8:1의 비율로 절감 효과가 있다. HPE 알레트라 MP 파일스토리지는 엔비디아 퀀텀-2 플랫폼과 우수한 호환성을 제공하며, 인피니밴드, 엔비디아 GPU다이렉트 연동을 통한 AI 모델 생성시 체크포인트를 신속하게 생성할 수 있어 GPU 활용을 최적화 하고 AI 워크로드를 가속화한다. 데이비드 유 HPE 스토리지 제품 수석 매니저는 “조직이 AI 당면 과제를 해결하고 오늘날의 시장에서 경쟁하려면 엔터프라이즈급 성능, 간편성, 효율성을 모두 제공할 수 있는 전용의 AI 파일 스토리지가 필요하다”며 “AI 워크로드를 진정으로 가속화하려면 이 세 가지 역량을 모두 필수적으로 갖춰야 한다”고 설명했다. 그는 “HPE 알레트라 MP 파일은 각 역량을 모두 제공하도록 설계되었으며 학습, 추론, 튜닝의 모든 AI 단계에 적합하다”며 “AI, HPC, 데이터레이크, 생명과학, 금융, 미디어 & 엔터테인먼트, 교육, 제조 등의 모든 워크로드를 포괄하는 유일한 솔루션으로 데이터를 활용해 가치를 창출해내려는 모든 기업에 최고의 지원을 제공한다”고 강조했다.

2024.04.12 13:34김우용

HPE 아루바, 생성형 AI 기능으로 AI옵스 기능 강화

HPE는 클라우드 네이티브 네트워크 관리 솔루션인 'HPE 아루바 네트워킹 센트럴'에 다양한 생성형 AI 대규모 언어 모델(LLM)을 통합해 AI옵스 네트워크 관리 기능을 확장했다고 28일 밝혔다. HPE는 미국 네트워크 전문기업 버라이존 비즈니스가 자사 고객에게 보안 중심의 인공지능(AI) 기반 네트워킹을 제공할 수 있도록 HPE 아루바 네트워킹 센트럴을 자사 관리형 서비스 포트폴리오에 추가하며 서비스를 확대한다고 발표했다. 다른 생성형 AI 네트워킹의 접근 방식은 단순히 퍼블릭 LLM에 API 호출을 보내는 방식인 반면, HPE 아루바 네트워킹 센트럴의 새로운 독립형 LLM 모델 세트는 혁신적인 사전 처리 및 가드레일을 통해 검색 응답 시간, 정확성 및 데이터 프라이버시에 중점을 두고 사용자 경험과 운영 효율성을 개선하도록 설계됐다. 대규모 데이터레이크를 보유한 HPE 아루바 네트워킹은 약 400만 개의 네트워크 관리형 디바이스와 10억 개 이상의 고유 고객 엔드포인트에서 텔레메트리를 수집하며, HPE 아루바 네트워킹 센트럴의 예측형 애널리틱스 및 제안용 머신러닝 모델은 이를 기반으로 구동된다. 이러한 새로운 생성형 AI LLM 기능은 HPE 아루바 네트워킹 센트럴의 AI 검색 기능에 통합되어 포트폴리오 전반에서 기존 머신러닝(ML) 기반 AI를 보완함으로써 더 깊은 인사이트를 도출하고 더욱 향상된 애널리틱스 기능 및 선제적인 대응 역량을 제공한다. HPE 아루바 네트워킹은 개인 및 고객 식별 정보(PII/CII) 보안을 최우선으로 하는 접근방식을 바탕으로 AI를 안전하게 활용하기 위한 노력을 지속하고 있으며, LLM은 HPE 그린레이크 클라우드 플랫폼에서 실행되는 HPE 아루바 네트워킹 센트럴 내에서 샌드박스화 됐다. HPE 아루바 네트워킹 센트럴은 네트워크 운영 관련 질문에 1초 내로 신속하게 응답하며, PII/CII 데이터를 제거하고 검색 정확도를 개선하는 목적 기반 LLM을 활용해 고객 데이터 보안을 보장한다. 이에 더해, 생성형 AI 모델용 HPE 아루바 네트워킹 훈련 세트는 다른 클라우드 기반 플랫폼보다 최대 10배 더 크고, 공개 도메인에서 가져온 HPE 아루바 네트워킹의 소스 문서들과 지난 다년간의 운영과정에서 수집한 300만개 이상의 고객 문의사항을 포함하고 있다. 미국 네트워크 전문기업 버라이존 비즈니스와 HPE는 기업 고객들이 네트워크 및 애플리케이션 성능을 개선해 사내 IT 리소스에 부담을 주지 않으면서 보다 민첩하고 예측 가능한 결과를 얻을 수 있도록 협력해왔다. 전 세계 150여 개국에서 30년 이상 축척한 4,500개 이상의 고객 네트워크 관리 경험을 바탕으로한 버라이존 관리형 서비스에는 이제 HPE 아루바 네트워킹 센트럴이 포함되어 제공된다. 생성형 AI LLM 기능이 추가됨에 따라 버라이존 고객들은 새로운 기능을 활용할 수 있게 되었다. 스콧 로렌스 버라이존 비즈니스 글로벌 솔루션 수석 부사장은 “네트워크 관리 솔루션을 평가할 때 우리는 플랫폼이 확장성, 보안성 및 전반적인 운영 경험을 갖추었는지 살펴본다”며 “HPE 아루바 네트워킹 센트럴의 생성형AI LLM 기능을 도입했다는 것은 버라이존의 혁신에 대한 지속적인 관심과 고객에게 이러한 기능들을 관리형 서비스로 제공하겠다는 우리의 확고한 결심을 나타낸다”고 강조했다. 2014년 출시된 이래로 HPE 아루바 네트워킹 센트럴은 유무선 LAN, WAN, IoT 전반에 걸쳐 네트워크의 구성, 관리, 모니터링, 문제 해결을 위한 강력한 기능을 제공하는 동시에 네트워크 운영의 수명 주기 전반에 걸쳐 이러한 기능을 통합해왔다. HPE 아루바 네트워킹 센트럴은 파운데이션 유형 및 고급 유형으로 구성된 2단계 라이선싱 모델을 연간 구독 방식으로 이용할 수 있는 SaaS 제품이다. 새로운 생성형 AI LLM 기반 검색 엔진은 HPE의 회계연도 기준 2024년 2분기에 제공될 예정이며 모든 라이선스 유형에 포함돼 제공된다. HPE 아루바 네트워킹 센트럴은 독립형 SaaS 제품으로도 제공되지만, 네트워킹용 HPE 그린레이크 구독 모델을 활용해 NaaS 방식으로 HPE 그린레이크 플랫폼을 통해 이용할 수 있다. 데이빗 휴즈 HPE 아루바 네트워킹 최고 제품 책임자는 “현대 네트워킹 고객은 중요 인프라에 대한 보안 중심의 AI 기반 인사이트를 필요로 하고, HPE는 바로 이러한 서비스를 제공하는 기업”이라며 “HPE는 대담한 노력과 함께 HPE 아루바 네트워킹 센트럴의 새로운 접근방식을 통해 다양한 LLM 모델을 배포함으로써 AI 혁신을 이어 나가고 있다”고 밝혔다.

2024.03.28 12:57김우용

HPE, 생성형 AI용 슈퍼컴퓨팅 포트폴리오 출시

HPE는 지난 18일 엔비디아 연례 컨퍼런스 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 업계 가장 통합적인 AI 네이티브 포트폴리오를 새롭게 업데이트 했다고 26일 발표했다. HPE와 엔비디아는 공동 엔지니어링한 풀스택 생성형 AI 솔루션을 선보였다. HPE 머신러닝 추론 소프트웨어 프리뷰 버전과 엔터프라이즈급 검생증강생성(RAG) 레퍼런스 아키텍처 등도 소개됐다. HPE와 엔비디아는 블랙웰 플랫폼 기반 제품 개발을 지원한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션이 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩이 제공된다. 해당 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 설치까지 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2-3배 더욱 신속히 진행할 수 있다. 디스커버 바스셀로나 2023 행사에서 선보였듯 HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 이제 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는HPE 그린레이크를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링해 사전 구성된 미세 조정 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 해당 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU로 사전 구성됐다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. 솔루션 도입 시AI 기술 격차를 해소하기 위해서 HPE 서비스 전문가들이 적합한 모델 조정 기술 등을 포함해 솔루션의 설계, 배포부터 관리까지 지원한다. HPE와 엔비디아는 기업들이 AI 및 ML 개념검증 단계에서 실제 애플리케이션 생산으로 넘어갈 수 있는 소프트웨어 솔루션을 제공하기 위해 협업하고 있다. HPE 고객들은 HPE 머신 러닝 추론 소프트웨어 솔루션을 프리뷰 버전으로 이용할 수 있으며 해당 소프트웨어를 이용해 기업들은 빠르고 안전하게 ML 모델을 대규모로 배포할 수 있다. 프라이빗 데이터를 이용하여 생성형 AI 애플리케이션을 빠르게 구축 및 배포해야 하는 기업들을 위해서 HPE는 엔비디아 네모 리트리머 마이크로 서비스 아키텍처에 기반한 엔터프라이즈 RAG용 레퍼런스 아키텍처를 개발했다. 해당 레퍼런스 아키텍처는 HPE 에즈메랄 데이터 패브릭 소프트웨어와 파일스토리지용 HPE 그린레이크로부터 추출한 종합적인 데이터 파운데이션을 기반으로 한다. 이외에도 데이터 준비, AI 훈련 및 추론 등을 지원하기 위해 해당 솔루션은 HPE 에즈메랄 유니파이드 애널리틱스 소프트웨어와 HPE의 AI 소프트웨어에서 모든 오픈소스 툴과 솔루션을 병합하여 사용할 수 있도록 했다. HPE 머신 러닝 데이터 매니지먼트 소프트웨어, HPE 머신 러닝 개발환경 소프트웨어, 신규 HPE 머신러닝 추론 소프트웨어 등도 이에 해당된다. HPE 소프트웨어는 HPE 슈퍼컴퓨팅과 생성형 AI 용 엔터프라이즈 컴퓨팅 솔루션 모두에서 이용가능해 고객은 생성형 AI 워크로드를 일정한 환경에서 관리할 수 있다. HPE는 향후 새롭게 발표된 엔비디아 블랙웰 플랫폼을 기반으로 제품을 개발할 계획이며 이러한 제품은 2세대 트랜스포머 엔진을 통합해 생성형 AI 워크로드를 가속한다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩, HGX 200, HGXB100 등이 장착된 HPE 제품에 관한 더욱 자세한 정보는 추후 공개될 예정이다. 안토니오 네리 HPE 회장 겸 CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다”며 “AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것에서부터 엣지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”고 설명했다. 그는 “HPE와 엔비디아는 오랫동안 혁신을 위해 협력해왔다. 양사는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 강조했다. 젠슨 황 엔비디아 창립자 겸 CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다”며 “엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 밝혔다.

2024.03.26 16:44김우용

"복잡하게 연계된 하이브리드 워크, 통합 SASE로 해결"

"기업이 여러 클라우드 플랫폼과 애플리케이션을 혼용하게 되면서 네트워킹에 전반적인 보안 정책을 획일화하기 힘들어졌다. 연계되는 플랫폼이 많아지고, 시스템 이용 위치도 다양해지다보니 대역폭은 낭비되고, 정책 적용은 느슨해지기 쉽다. HPE 아루바는 서비스액세스보안엣지(SASE)와 서비스보안엣지(SSE)를 통합적으로 제공해 모든 사용자, 장치, 서버 등의 위치에나 경로에 상관없이 안전하게 이용하게 해준다.” 한창훈 한국HPE 아루바네트워킹 기술팀 총괄은 최근 본지와 인터뷰에서 HPE 아루바의 SASE 솔루션에 대해 이같이 설명했다. SASE는 네트워킹 및 보안 기능을 단일 플랫폼으로 통합하고 전 세계에 분산된 인력을 위해 모든 사용자, 장치, 애플리케이션을 안전하게 연결하는 IT 프레임워크를 말한다. 각 지점에 구축된 고급 SD-WAN 엣지와 포괄적인 클라우드 제공 보안 서비스를 결합한 것이다. 기존 기업의 트래픽은 모든 지점의 애플리케이션 트래픽이 프라이빗 MPLS 서비스에서 보안 검사 및 검증을 위해 기업의 데이터센터로 이동했다. 이러한 아키텍처는 애플리케이션이 기업의 데이터센터에서만 호스팅되는 경우에 적합했다. 하지만 애플리케이션과 서비스가 클라우드로 마이그레이션하게 되면서, 기존의 네트워크 아키텍처로 대응하기 힘들어졌다. 인터넷의 트래픽이 최종 목적지에 도달하기 전 데이터센터와 기업의 방화벽을 통과해야 하기 때문에 애플리케이션 성능과 사용자 체감 만족도가 하락하는 탓이다. 클라우드 애플리케이션에 바로 연결하는 원격 근무자의 수가 증가하는 가운데 기존의 경계선 기반 보안은 충분하지 않다. 이 경우 기업은 SASE를 통해 WAN 및 보안 아키텍처를 전환해 이용하는 장치나 위치와 상관없이 멀티 클라우드 환경에서 직접적으로 안전하게 애플리케이션 및 서비스를 이용할 수 있게 된다. 한창훈 총괄은 “하이브리드 워크, 개인정보보호나 보안 정책, 접근제어 등 복잡한 상황에서 보안 담당자의 부담은 가증되고 있다”며 “SD-WAN은 레거시 VPN을 대체해 관리 역량을 높여주고, SSE는 단말기 연결 부분을 분석하고 사용자마다 적합한 클라우드로 연결하게 한다”고 말했다. HPE 아루바네트워킹의 SASE 솔루션은 WAN 엣지 서비스(SD-WAN)와 SSE 등 2개 기술 세트로 구성된다. SSE는 제로트러스트네트워킹액세스(ZTNA), 시큐리티웹게이트웨이(SWG), 클라우드액세스시큐리티브로커(CASB), 디지털익스피리언스모델(DEM) 등을 포함한다. 네트워크팀과 보안팀이 모든 사용자, 장치, 서버 등의 위치에서든 어떤 수송 수단을 사용하든 함께 안전하게 연결하게 해 줄 수 있다. PoP의 글로벌 네트워크로 방대한 SD-WAN 패브릭 및 클라우드 제공 SSE를 활용함으로써 빠른 엣지 투 클라우드 액세스가 가능하며 이를 통해 대기 시간을 줄이고 성능이 개선된다. 한 총괄은 “지점 간 연결은 트래픽 경로를 어떻게 잘 선택하는 최적화가 중요하다”며 “HPE 아루바의 SD-WAN은 MPLS 전용선이나 인터넷이나 해외회선 등의 트래픽을 50% 압축해 회선비용을 절감해준다”고 강조했다. 그는 “팀즈, 스카이프, 웹엑스, 줌 같은 실시간성 앱은 들어오는 트래픽을 잘 분류해야 WAN을 최적화하므로, 최적화와 압축, 경로 선정 등을 위해 분석을 잘 해야 한다”며 “예를 들어 화상회의 프로토콜을 분석해서 트래픽을 분류하고 압축하고, 두개 회선을 가졌다면 여러 패킷을 모아서 순서를 재배치하는 리오더링을 자동화한다”고 덧붙였다. HPE 아루바의 SD-WAN은 하나의 앱 트래픽을 여러 회선들을 합치는 본딩에 강점을 갖는다. 운영자 입장에선 트래픽의 경로 흐름을 볼 수 있고, 최종 사용자는 아무 문제없는 트래픽을 경험하게 된다. 만약, 클라우드 PoP을 거쳐 최종 업무 애플리케이션으로 간다면 사용자 접속지에서 PoP을 거치는 2단계 회선 접속을 하게 된다. 만약 사용자가 PoP까지 가는 회선은 매우 빠른 반면, PoP에서 애플리케이션으로 가는 회선이 느리다면 결과적으로 사용자의 경험은 나빠진다. HPE 아루바의 SD-WAN은 중간의 경로와 단계별 네트워크 상황을 측정 및 인지하고 가장 효율적인 경로로 자동으로 보낸다. 지점 간 통신도 최적 경로로 하게 한다. 한 총괄은 “HPE 아루바 SD-WAN을 통해 실시간 장비의 상태를 모니터링하는 가시성을 높일 수 있으며, 여러 지점의 연결을 자동화할 수 있다”고 강조했다. HPE는 작년 3월 액시스시큐리티를 인수했다. HPE는 액시스 인수를 통해 SSE 역량을 확보하게 됐고, 통합 SASE 솔루션을 제공하게 됐다. 액시스의 SSE 플랫폼은 네트워크 엣지의 프라이빗 애플리케이션에 대한 인증된 사용자 액세스, 인터넷에 대한 사용자 액세스를 보호하는 SWG, SaaS 애플리케이션에 대한 보안 인라인 액세스를 제공하는 CASB ,사용자 체감 만족도에 대한 인사이트를 제공하는 DEM을 제공한다. 기본적으로 모든 종류의 SASE 솔루션과 연동 가능하다. 한 총괄은 “액시스 SSE의 게이트웨이는 여러 브랜치의 앱을 연결하는데, 사용자가 인터넷에 붙어 게이트웨이로 가는 순간 게이트웨이 포털에서 어느 앱으로 갈 수 있는지를 판단해 연결해준다”며 “기존의 경우 사용자가 방화벽과 DMZ 존의 여러 보안장비를 거쳐 앱으로 가는 방식은 사용자별 접근 정책을 구현하기 어렵지만, 액시스의 게이트웨이를 이용하면 중간에 경유하는 보안 인프라를 관리하기 여러운 상황을 해결할 수 있다”고 말했다. 그는 “사용자의 ID 변경이나, 조직 변경, 퇴사 등 계정관리도 사내 인사시스템과 연결해 쉽게 해결할 수 있다”고 설명했다. 기업이 클라우드를 많이 활용하고, 개발조직이 여러 퍼블릭 클라우드를 개발환경으로 사용한다면 HPE 아루바의 SASE 솔루션은 매우 적합한 해법이다. 개발팀과 구성원마다 접근할 수 있는 클라우드 환경을 정책에 맞게 할당하고, 계정 사용자의 변경에 따라 접근 권한을 쉽게 바꿀 수 있다. 한 총괄은 “게이트웨이 접근을 위해 지점에 깔리는 커넥터는 리눅스 기반으로 설치하므로 매우 쉽다”며 “모든 OS도 지원하고, 어떤 서비스 영역 어디든 상관없이 사용할 수 있다”며 “구독 방식이므로 정해진 기간동안만 쓰면 되고, 커넥터 설치 갯수도 제한을 두지 않는다”고 말했다. 그는 “사용자 ID 수 기반으로 과금하므로 전세계 브랜치에 하나의 ID로 깐다면 하나만 지불하면 된다”며 “가령 감사팀이 전세계 브랜치를 돌면서 업무할 때 하나의 ID면 모든 곳에서 다 사용할 수 있다”고 덧붙였다.

2024.03.12 11:07김우용

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 새 정부 출범 D-3…트럼프 철강 관세 50% 이번주 발효

美 관세 최대 타격 '자동차'…"중고차로 상쇄해야"

'주 4.5일 근무' 이상-현실 사이...HR 전문가 생각은?

"계정 공유 시대 끝"…OTT '공유 제한' 전면 확대

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현