• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'클라우드 데이터센터 서버'통합검색 결과 입니다. (6건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

세종 부용산에 숨 쉬는 네이버의 AI 심장, '각 세종' 가보니

세종시 부용산 자락에 자리한 네이버의 두 번째 데이터센터 '각 세종'. 겉으로는 조용하지만 내부는 쉼 없이 움직이는 거대한 기술 생태계다. 인공지능(AI) 시대 핵심 인프라로 불리는 이곳을 직접 찾아가 봤다. 네이버클라우드는 지난 27일 각 세종 데이터센터에서 테크밋업을 개최하고 AI 인프라 운영 기술과 친환경 설계 시스템을 공개했다. 이날 현장에서는 AI 서비스의 핵심인 그래픽처리장치(GPU) 서버, 냉각 기술, 전력 구조, 자율주행 로봇 시스템까지 살펴볼 수 있었다. 첫 방문지는 서버 IT 창고였다. 자산 관리 구역임에도 인력의 움직임은 거의 없었다. 대신 '가로'와 '세로'로 불리는 로봇이 서버를 실어 나르며 작동 중이었다. 이 로봇들은 자산 입출고를 자동화해 사람의 개입 없이 서버를 적재하고 회수하는 역할을 한다. 매년 5천 대 이상의 서버를 교체할 수 있는 효율성을 갖췄다. 로봇은 카메라와 센서를 기반으로 서버 위치를 스스로 인식하고 높이 3m 랙에도 정확히 접근한다. 자율주행 로봇 가로는 최대 400㎏의 장비를 운반할 수 있으며 내부 동선은 네이버클라우드의 통합 로봇 관제 플랫폼 '아크' 시스템으로 관리된다. 이어진 공간은 냉각 기술의 핵심인 '나무'였다. 이는 네이버가 자체 개발한 외기 냉각 시스템으로, 자연 바람을 활용해 서버의 열을 식히는 구조다. 네이버 김예원 도슨트는 "각 세종에 적용된 나무 3세대는 계절과 기후에 따라 외기 모드를 자동 전환하는 하이브리드 시스템"이라며 "일반 냉동 방식 대비 최대 73%의 전력 효율을 달성했다"고 설명했다. 서버실에서 발생하는 열은 폐열 회수 시스템을 통해 재활용된다. 바닥 난방과 겨울철 도로 제설용 스노우멜팅 시스템에 쓰이며 센터의 에너지 순환 구조를 완성한다. 이러한 각 세종의 전력효율지수(PUE)는 1.1 수준으로, 글로벌 하이퍼스케일 센터 중에서도 최상위 등급이다. GPU 서버실에 들어서면 공기의 흐름이 달라진다. 고전력 서버에서 발생한 열은 천장을 통해 배출되고 바닥과 벽면을 따라 차가운 공기가 순환한다. 각 세종은 정전이나 장애에 대비해 전력 인입선로를 이중화했으며 무정전전원장치(UPS)와 비상 발전기를 통해 72시간 이상 자가 전력을 유지할 수 있다. 운영 효율을 높이기 위해 각 세종은 로봇 기반 자산 관리와 자율주행 셔틀 '알트비' 시스템도 도입했다. 축구장 41개 크기의 부지를 이동하며 인력과 장비를 운반하는 이 셔틀은 네이버랩스의 자율주행 기술과 네이버클라우드의 관제 시스템이 결합된 결과물이다. 센터의 중앙 제어실은 각종 수치를 실시간으로 모니터링하는 관제의 두뇌 역할을 맡고 있었다. 온습도, 전력 사용량, GPU 랙당 전력 밀도, 네트워크 트래픽이 실시간으로 표시되고 외부 사고나 트래픽 급증 상황에 즉각 대응할 수 있도록 구성됐다. 김 도슨트는 "각 세종은 국내 데이터센터 중 유일하게 네트워크망·전력·데이터 모두를 이중화한 구조"라며 "정전이나 장애가 발생해도 즉시 복구 가능한 구조로 설계됐다"고 말했다. 센터 외부의 친환경 설계도 눈에 띄었다. 옥상에는 태양광 발전 설비가, 지하에는 지열 냉난방 시스템이 적용돼 있으며 서버실에서 발생한 폐열은 다시 에너지로 순환된다. 네이버에 따르면 이 구조를 통해 연간 이산화탄소 배출량을 약 1만5천 톤 줄일 수 있고 이는 나무 225만 그루를 심는 효과와 맞먹는다. 또 각 세종은 세계적 친환경 건축 인증인 리드 플래티넘 등급을 획득했다. 세종 부용산의 단단한 화강암 지반 위에 세워진 이 건물은 규모 7의 지진에도 견디는 내진 특등급으로 설계됐다. 각 세종은 향후 증축을 통해 270메가와트(MW) 전력 수용 규모로 확장될 예정이다. 완공 시에는 세종시 전체 인구의 전력 소비량에 맞먹는 AI 인프라가 된다. 네이버클라우드 노상민 센터장은 "각 세종은 단순히 데이터를 보관하는 공간이 아니라 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼"이라며 "지속가능성과 효율, 복원력을 모두 갖춘 하이퍼스케일 인프라로 설계됐다"고 강조했다.

2025.10.28 09:03한정호

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호

NHN클라우드, 장애로 공공기관 서버 2시간 마비…"공조 설비 문제 확인 중"

NHN클라우드가 운영하는 클라우드 서비스에서 장애가 발생해 일부 지방자치단체 홈페이지가 약 2시간 동안 마비됐다. 이번 장애는 공조 설비 문제로 인해 발생한 것으로 밝혀진 상황으로, 세부 원인은 조사 중이다. 26일 업계에 따르면 이날 오전 7시 56분부터 9시 55분까지 NHN클라우드 판교 리전에서 공공기관용 클라우드 서비스 장애가 발생했다. 이로 인해 광주광역시와 경상남도청을 비롯한 다수의 공공기관 홈페이지가 접속 불가 상태에 놓였다. 광주에서는 동구·북구청, 시청, 문화관광포털 등 19개 웹사이트가 영향을 받았다. 경남에서는 도청 및 도지사 홈페이지를 포함해 산하 지자체와 도립미술관 등 50여 개 웹사이트가 장애를 겪었다. NHN클라우드는 문제가 발생한 서버 저장장치(스토리지)를 복구한 뒤 정상화 작업을 진행했다. NHN클라우드 관계자는 "현재까지 파악된 바로는 공조 설비 이상으로 인해 서버룸 내 온도가 올라갔고 이로 인해 일부 서버 스토리지가 다운됐다"며 "구체적인 원인은 추가 조사가 필요하다"고 설명했다. 이번 장애로 인한 데이터 손실 여부는 아직 확인되지 않았다. NHN클라우드 측은 "현재까지 파악된 문제는 홈페이지 접속 장애이며 내부 행정망에 추가적인 영향이 있었는지는 조사 중"이라고 밝혔다. 공조 설비 문제로 인한 장애가 재발할 가능성에 대해서도 우려가 제기된다. 회사는 현재 판교 리전의 설비 점검을 진행 중이며 유사한 문제가 발생하지 않도록 대응책을 마련하겠다는 방침이다. 다만 향후 구체적인 재발 방지 대책에 대한 구체적인 계획은 확인되지 않았다. NHN클라우드 관계자는 "향후 유사한 사태를 방지하고 원활한 서비스 제공을 위해 최선을 다하겠다"며 "장애 원인과 피해 규모가 파악되는 대로 추가적인 조치를 검토할 예정"이라고 말했다.

2025.02.26 13:28조이환

김재원 대표 "엘리스그룹, 에듀테크 기업에서 AI 기업으로"

AI 에듀테크 기업으로 잘 알려진 엘리스그룹(대표 김재원)은 인프라·데이터·플랫폼·콘텐츠 등 AI에 필요한 모든 것을 통합 제공하는 'AI 솔루션 기업'으로 자리매김하고 있다. 김재원 엘리스그룹 대표는 본격적인 AI 시대를 맞아 새해 이런 변화에 더욱 속도를 낸다는 계획이다. 엘리스그룹에 따르면, 회사는 AI 교육이 필요한 기업 또는 기관이 몰입도 높은 비대면(가상화) 실습 환경 아래에서 교육생들의 학습 관리를 편리하게 할 수 있는 '엘리스LXP' 플랫폼을 서비스 중이다. 이 플랫폼을 통해 ▲초중고 공교육 ▲취준생 및 재직자 직무교육 ▲산업 맞춤형 디지털 전환 교육 등 다양한 교육 콘텐츠가 제공된다. SK·LG·현대차 등 국내 대기업뿐만 아니라, 서울대·카이스트 등 대학과 정부·공공기관 총 5천300여 곳에서 맞춤형 디지털 전환 교육을 하고 있다. 관리자는 엘리스LXP에서 학습 데이터를 분석하고 시각화한 AI 대시보드를 통해 교육생들을 보다 효율적으로 관리함으로써 이수율을 높일 수 있다. 나아가 거대언어모델(LLM) 기반으로 만들어진 AI 챗봇(AI 헬피)을 통해 학습자들의 질문에 대한 맞춤형 답변도 빠르게 할 수 있다. 아울러 '엘리스테스트'는 개발자 채용 평가부터 재직자 역량 평가, 대규모 경진대회 등 온라인 테스트 환경을 지원한다. 부정행위 방지 기능과 다양한 테스트 콘텐츠, 체계적 온보딩 시스템과 안정적 서버환경 등은 엘리스테스트의 강점이다. 이동형 모듈러 데이터센터 구축...강력한 AI 인프라 제공 엘리스그룹은 다양한 환경의 AI 연구·개발·배포를 위한 안정적인 GPU를 제공하는 '엘리스클라우드' 사업도 키워나가고 있다. 엔비디아의 A100·H100 등 강력한 GPU 서버 스펙을 바탕으로 AI 데이터센터를 구축한 상태다. 회사는 지난해 델 테크놀로지스로부터 엔비디아 H100 텐서코어 GPU를 탑재한 델 파워엣지 서버와 네트워킹 스위치를 도입해 데이터센터 인프라를 업그레이드한 바 있다. 특히 엘리스그룹은 델 테크놀로지스와의 협력을 통해 엘리스클라우드에 모듈 단위로 탄력적인 인프라 확장이 가능한 이동형 모듈러 데이터센터(PMDC) 방식을 적용했다. 엘리스그룹 전력 밀도는 랙당 20~40kW로, 국내 데이터센터 평균(3.3kW)보다 효율성이 높다. 아울러 회사는 GPU·NPU를 효율적으로 이용할 수 있는 동적 할당 기술을 적용해 사용자가 필요로 하는 만큼 실시간으로 컴퓨팅 자원을 할당받을 수 있게 했다. 이를 통해 비용을 낮추면서도 AI·디지털 전환 관련 교육 과정을 원활히 받을 수 있는 환경을 갖추게 됐다. 최근에는 AI 반도체 스타트업 리벨리온과 상호 협력 업무협약을 맺고, 리벨리온 NPU 기반 클라우드 플랫폼 구축을 위한 기술 협력을 진행한 뒤 이를 바탕으로 글로벌 데이터센터 진출에도 힘을 모으기로 했다. 엘리스클라우드 PUE(전력 효율 지수)는 1.27이며, 지난해 8월 정보보안에 대한 글로벌 인증(ISO 27001·27701)을 획득하기도 했다. "엘리스그룹은 AI 기업" 2015년 회사를 창업한 김재원 대표는 엘리스그룹을 'AI 기업'으로 정의했다. 재직자 대상으로 디지털 전환과 AI 교육을 통해 업무 효율성을 높여주고, 취준생들에게는 대학과 산업 간의 격차를 줄여주는 부트캠프를 통해 이들이 AI에 대한 이해도와 전문성을 갖추도록 돕기 때문이다. 특히 엘리스클라우드를 통해 AI 연구팀이나 전문가들이 안정적인 클라우드 및 컴퓨팅 환경에서 AI 모델링 프로젝트를 수행하도록 지원해서다. 재작년과 작년에는 각각 국방부 대규모 AI 해커톤과 한국천문연구원의 태양 흑점 이미지 분석 AI 해커톤에 고성능 GPU 환경을 제공했다. “엘리스클라우드는 AI 전문 인프라입니다. 기존 AI 해커톤의 경우 예산 안에서 진행이 불가능했는데, 저희는 참가자들에게 고성능 환경을 제공하고 적게는 3분의 1, 많게는 10분의 1 예산 안에서 고성능 클라우드 환경을 제공해드리고 있습니다. AI 클라우드 인프라를 구성함에 있어 기존 데이터센터는 고전력이 아니다 보니 어렵고, 그렇다고 고가의 GPU 서버 인프라를 구성하기도 쉽지 않았는데 엘리스클라우드는 PMDC를 통해 비용 단가를 낮추면서도 안정성은 높였습니다. 쓰는 만큼 시간당 과금되기 때문에 효율적 이용도 가능합니다.” 기업 또는 기관들은 업무 생산성 향상을 위해 디지털 전환이 필요할 때 엘리스그룹의 다양한 플랫폼과 콘텐츠, 인프라 등을 취사선택해 사용하면 된다. AI 기업으로서 안정적인 서버가 필요하다면 엘리스클라우드를, AI 등 디지털 전환 교육이 필요하다면 엘리스LXP 플랫폼을 통해 대상에 맞는 엘리스의 콘텐츠를 제공하면 되는 식이다. “모든 정부 기관과 기업들의 AI 디지털 전환이 필요한 때라고 생각합니다. 그렇지 않으면 강대국들에 의해 도태될 수밖에 없겠죠. 저마다 속도는 다를 수 있겠지만, 결국 AI는 전기처럼 쓰게 될 테니, 이런 방향에 필요한 교육과 인프라를 제공하려 합니다.” "클라우드 인프라·기술력에 계속 투자할 것" 엘리스그룹의 올해 목표는 엘리스클라우드를 통한 더 큰 성장이다. 지난해 실적은 전년보다 성장하긴 했지만 기대만큼 크진 않았다고 김 대표는 말했다. AI 도입이 빠르게 확산되는 것은 맞지만, 아직은 기대만큼 그 속도가 빠르지 않은 것 같다고. 그는 AI의 더 빠른 도입을 위해서는 시간과 기술적 요인들이 더 필요하다고 말했다. 김 대표는 앞으로도 클라우드 인프라와 기술력에 계속 투자한다는 방침이다. 또 사내에 AI 전문 연구원들이 다수 있어 경쟁사 대비 AI 교육에 있어서는 훨씬 전문성이 있다고 자부했다. 나아가 AI 밸류 체인이 완성된 만큼, 올해는 클라우드 인프라와 기술력 투자에 집중한다는 방침이다. “약 3년 전 엔비디아 A100을 구매해서 계속 연구하다 2023년부터 내부에서 활용할 수 있게 개발했습니다. 그 후 AI 교육, 해커톤 등에서 활용할 수 있도록 했고, 지난해부터 기능을 강화하면서 외부 세일즈를 진행해 작년 처음으로 클라우드 매출이 발생했습니다. 강의, 콘텐츠 제작, 플랫폼 기능 확대에 이어 AI 인프라 세일즈까지 AI 밸류 체인 전주기를 완성했습니다. 이를 강화하는 것이 올해 목표이고요. 저희는 AI를 통해 실제 매출을 내고, 이를 클라우드 인프라와 기술력에 재투자하고 있습니다.” 김 대표는 앞으로 AI가 사람들의 업무와 실생활에 녹아들며 계속 발전할 것으로 내다봤다. 반면, 글로벌 시장에서는 엄청나게 빠른 속도로 발전하고 활용하는 이런 기술들이 국내 정치적·사회적 이슈들에 뒤처지는 것에는 아쉬움을 표했다. “더 이상 휴대폰 없이 일한다는 건 불가능하듯, AI 없이 일을 하면 비효율이 분명 발생할 겁니다. 앞으로 AI의 실생활 활용에 대한 부분이 강조될 텐데, 이를 지탱할 인프라에 대한 강화도 필요하죠. 어마어마한 속도로 발전될 AI를 활용하게 될 글로벌 경쟁에서 뒤처지지 않게 우리도 정진해야 한다고 생각합니다.”

2025.01.16 14:30백봉삼

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 역대 최대 매출에도 일회성 비용에 실적 '뒷걸음'

페이커 소속 '팀 리드', 2026 LCK 시즌 오프닝 2년 연속 우승

거리로 나온 '무진장 신발 많은 곳'…무신사 킥스 가보니

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.