웨카, 차세대 WEKApod 어플라이언스 공개…AI 스토리지 경제성 새롭게 정의
AlloyFlash 기반의 WEKApod Prime은 가격 대비 성능을 65% 끌어올려 비용 효율을 크게 높였다. WEKApod Nitro는 고부하 AI 워크로드를 위해 처리 속도를 두 배로 향상, 업계 최고 수준의 성능 밀도를 제공한다. 세인트루이스 및 캘리포니아주 캠벨, 2025년 11월 20일 /PRNewswire/ -- SC25에서 AI 스토리지 기업 웨카(WEKA)는 기존의 성능•비용 한계를 넘어서는 차세대 WEKApod™ 어플라이언스를 공개했다. 새롭게 선보인 WEKApod Prime은 혼합 플래시 구성에 데이터를 지능적으로 배치해 가격 대비 성능을 65% 끌어올리면서 속도 저하 없이 비용 효율을 획기적으로 향상시켰다. WEKApod Nitro는 최신 하드웨어를 적용해 단위 공간당 성능을 두 배로 확장함으로써 조직의 AI 및 고성능컴퓨팅(HPC) 혁신을 가속하고 GPU 활용도를 극대화하며 더 많은 워크로드를 처리할 수 있도록 지원한다. 또한 고밀도 설계는 성능을 유지하면서 대규모 객체 스토리지 환경과 AI 데이터 레이크 구축에도 효과적으로 활용할 수 있다. WEKA Unveils Next-Gen WEKApod Appliances to Redefine AI Storage Economics WEKApod 어플라이언스는 대규모 AI 가속화를 위해 설계된 세계 유일의 스토리지 시스템인 WEKA의 NeuralMesh™를 가장 쉽고 빠르게 도입하고 확장할 수 있는 방식이다. WEKApod는 플러그 앤 플레이 환경과 개선된 설정 유틸리티를 갖춘 검증된 구성으로 제공돼 NeuralMesh가 제공하는 소프트웨어 기반의 유연한 구성•확장성을 그대로 활용할 수 있다. 기업은 최소 8대의 서버로 시작해 필요에 따라 수백 대까지 확장할 수 있으며 복잡한 통합 과정을 거치지 않고도 분산 데이터 보호, 즉시 스냅샷, 다중 프로토콜 접근, 자동 계층화, 암호화, 하이브리드 클라우드 기능 등 NeuralMesh의 엔터프라이즈 기능 전반을 사용할 수 있다. 인프라 효율성 위기 AI 인프라에 투자하는 기업은 GPU 활용률 저하, 장기화되는 학습 주기, 증가하는 추론 비용, 데이터 확대로 인한 클라우드 비용 상승이 이어지며 투자 수익률(ROI)을 입증해야 하는 부담이 커지고 있다. 기존 스토리지 시스템은 최고 성능과 비용 효율 중 하나만 선택해야 하는 구조여서 두 가지를 동시에 충족하기가 사실상 어렵다. 여기에 랙 공간, 전력, 냉각 용량 같은 데이터센터의 제약 요소가 겹치면서 각 랙 유닛에서 더 높은 효율을 확보하지 못하면 인프라 비용이 빠르게 증가할 수밖에 없다. 차세대 WEKApod 제품군은 이러한 현실적 문제에 대해 명확한 해법을 제시한다. 특히 WEKApod Prime은 기존에 성능과 비용 중 하나를 선택해야 했던 구조를 없애고, 워크로드 특성에 맞춰 데이터 배치를 자동으로 최적화하는 지능형 기술을 통해 가격 대비 성능을 65% 끌어올렸다. 이를 통해 쓰기 성능을 그대로 유지하면서 비용 효율을 크게 개선할 수 있게 됐다. AI 개발사와 클라우드 제공업체, 성능과 비용의 딜레마 해소 WEKApod Prime: 혼합 플래시 기술을 새로운 방식으로 구현한다. TLC와 eTLC 플래시 드라이브를 조합해 1U 랙에서는 최대 20개, 2U 랙에서는 최대 40개의 드라이브를 지원한다. 기존 계층형 스토리지처럼 캐시 계층 구조나 계층 간 데이터 이동으로 인한 쓰기 성능 저하가 발생하지 않으며, WEKApod의 AlloyFlash는 쓰로틀링 없이 쓰기 성능을 그대로 유지하면서 모든 작업에서 안정적인 성능과 비용 효율을 보장한다. 캐시 계층도 없고, 쓰기 성능 저하도 없으며, 성능을 위해 포기해야 할 부분도 없다. WEKApod Prime은 이미 덴마크 AI 혁신센터(DCAI)를 포함한 주요 AI 클라우드 기업들이 사용하고 있다. 이로써 데이터센터의 자원 제약을 효과적으로 해소할 수 있는 높은 밀도가 구현됐다. 이전 세대 대비 랙 유닛당 용량 밀도는 4.6배, 쓰기 IOPS는 5배 향상됐으며, kW당 23000 IOPS(또는 kW당 1.6 PB)를 기록해 전력 밀도는 4배 높아졌다. 테라바이트당 전력 소비량도 68% 줄었지만 AI 워크로드가 요구하는 성능은 그대로 유지된다. 특히 훈련이나 체크포인트처럼 쓰기 부하가 큰 AI 워크로드에서는 스토리지가 병목 없이 처리 속도를 따라가 중요한 작업 과정에서 고가의 GPU가 대기 상태로 머무는 상황을 막을 수 있다. WEKApod Nitro: 수백~수천 개의 GPU를 운용하는 AI 팩토리를 위해 설계된 제품으로, 업그레이드된 하드웨어 기반으로 성능은 2배, 가격 대비 성능은 60% 향상됐다. NVIDIA ConnectX-8 SuperNIC을 탑재해 800Gb/s의 처리량을 제공하며, 20개의 TLC 드라이브를 1U 폼팩터에 구성했다. 또한 NVIDIA DGX SuperPOD 및 NVIDIA 클라우드 파트너(NCP) 인증을 갖춘 턴키 어플라이언스이기 때문에 기존처럼 통합 작업에 몇 주를 소모할 필요가 없다. 기업은 몇 개월이 걸리던 작업을 며칠 만에 완료해 고객용 서비스를 시장에 내놓을 수 있으며, 스토리지 인프라 역시 차세대 가속기의 처리 속도를 충분히 뒷받침할 수 있다. AI 구축 전반에서 확인되는 실질적 성과 AI 클라우드 제공업체와 네오클라우드: 보장된 성능 SLA(Service Level Agreement)를 유지하면서 기존 인프라만으로 더 많은 고객에게 수익성 있는 서비스를 제공할 수 있다. 가격 대비 성능이 65% 향상되면서 GPUaaS(GPU as a Service) 제공 모델의 마진도 직접적으로 높아진다. 배포 시간이 빨라지면 신규 고객의 수익 창출 시점 역시 앞당겨지는 효과가 있다. AI 팩토리를 구축하는 기업: 복잡한 통합 작업을 없앤 턴키 솔루션을 통해 AI 프로젝트를 몇 개월이 아니라 며칠 만에 배포할 수 있다. IT 팀은 별도의 전문 지식 없이도 엔터프라이즈급 스토리지 성능을 구현할 수 있으며, 향상된 밀도와 효율성을 통해 전력 소비를 최대 68%까지 줄일 수 있다. 또한 데이터센터의 공간•전력•냉각 요구를 증가시키지 않고도 AI 역량을 확장할 수 있기 때문에 도입 첫날부터 가시적인 인프라 투자 수익률(ROI)을 기대할 수 있다. AI 빌더와 연구원: GPU 활용률 90% 이상을 기반으로 모델 개발 속도를 크게 향상시킬 수 있다. 훈련 시간을 줄여 반복 주기를 앞당기고 경쟁 우위를 확보할 수 있으며, 추론 비용을 낮춰 새로운 AI 애플리케이션의 경제성을 확보하는 것도 가능하다. 최소 8대의 서버로 시작해 수요에 따라 수백 대까지 유연하게 확장할 수 있고, 기본 제공되는 NeuralMesh 엔터프라이즈 기능도 모두 활용할 수 있다. AI 인프라 제공업체들은 이러한 혁신의 효과를 이미 사업 현장에서 체감: 나디아 칼스텐(Nadia Carlsten) 덴마크 AI 혁신 센터(DCAI) 최고경영자(CEO)는 "데이터센터 혁신의 새로운 한계는 공간과 전력이다. WEKApod의 뛰어난 스토리지 성능 밀도 덕분에 최적화된 설치 공간 안에서 하이퍼스케일러 수준의 데이터 처리량과 효율성을 구현해 킬로와트와 제곱미터당 더 많은 AI 역량을 확보할 수 있다. 이러한 효율성은 경제성을 직접 개선하고, 우리가 고객에게 AI 혁신을 제공하는 속도를 높여준다"고 밝혔다. 웨카의 아제이 싱(Ajay Singh) 최고제품책임자(CPO)는 "AI 투자는 반드시 ROI를 입증해야 한다. WEKApod Prime은 속도 저하 없이 가격 대비 성능을 65% 끌어올리고, WEKApod Nitro는 성능을 두 배로 높여 GPU 활용도를 극대화한다. 이를 통해 모델 개발 속도가 빨라지고 추론 처리량이 향상되며, 컴퓨팅 투자 효율이 높아져 기업의 수익성과 시장 출시 속도에 직접적인 영향을 미친다"고 말했다. 케빈 디어링(Kevin Deierling) 엔비디아(NVIDIA) 네트워킹 부문 수석부사장은 "네트워킹은 AI 인프라의 핵심 요소로, 컴퓨팅과 스토리지를 통합해 대규모 지능 기반 데이터와 결과물을 생성•전달하는 플랫폼으로 기능하도록 한다. WEKApod에 NVIDIA Spectrum-X Ethernet과 NVIDIA ConnectX-8 네트워킹이 적용되면서 기업들이 데이터 병목을 해소할 수 있게 됐으며, 이는 AI 성능을 최적화하는 데 필수적인 요소"라고 강조했다. 출시 정보 차세대 WEKApod 어플라이언스는 현재 이용 가능하다. 자세한 정보는 weka.io/wekapod에서 확인할 수 있으며, SuperComputing 2025 행사장의 WEKA 부스(#2215)에서도 만나볼 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 WEKA®의 NeuralMesh™를 통해 조직이 AI 워크플로를 구축•운영•확장하는 방식을 혁신적으로 변화시키고 있다. 기존 데이터 인프라가 워크로드가 증가할수록 느려지고 취약해지는 것과 달리 NeuralMesh는 확장될수록 더 빠르고 강력하며 효율적으로 작동하고, AI 환경과 동적으로 연동돼 성장하며, 기업 AI 및 에이전틱 AI 혁신에 필요한 유연한 기반을 제공한다. 포춘 50대 기업 30%가 신뢰하는 NeuralMesh는 선도기업, AI 클라우드 제공업체, AI 개발자들이 GPU를 최적화하고, AI를 더 빠르게 확장하고, 혁신 비용을 절감할 수 있도록 지원한다. www.weka.io을 방문하거나 링크드인 및 X에서 웨카를 팔로우하면 자세한 내용을 확인할 수 있다. WEKA 및 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 언급된 기타 상표명은 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2825279/PR_Next_Gen_WEKAPod_launch_ID_3f30ac2ba733.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600