• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'클라우드 서버'통합검색 결과 입니다. (13건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

삼성SDS "AI 시대 데이터 폭증…효율적 스토리지 전략이 기업 경쟁력 좌우"

인공지능(AI) 전환이 가속화되며 기업이 다루는 데이터의 양과 복잡성이 폭발적으로 증가하고 있다. 데이터 일관성과 무결성을 확보하는 동시에 장기 보관까지 고려한 스토리지 전략이 기업 경쟁력의 핵심 요소로 떠오른 가운데 삼성SDS가 효율적인 클라우드 스토리지 활용 방안을 제시했다. 삼성SDS는 13일 '기업의 데이터 신뢰성을 높이는 스토리지 구현 전략'을 주제로 '삼성SDS 클라우드 토크' 온라인 웨비나를 개최했다. 이번 세션에서는 삼성클라우드플랫폼(SCP) 스토리지를 기반으로 데이터 일관성 유지, 백업·복구 체계, 장기 보관 전략 등 기업 IT 환경의 핵심 과제가 집중적으로 다뤄졌다. 발표를 맡은 삼성SDS SCP사업팀 김현웅 프로는 현재 기업들이 직면한 데이터 환경 변화를 소개했다. AI, 빅데이터 분석 등 디지털 기술 확산으로 데이터가 폭발적으로 증가하고 있으며 전 세계 데이터의 90%가 최근 2년 사이 생성됐다는 추정 결과를 강조했다. 이에 복수 서버가 동시에 데이터를 처리하는 환경이 보편화되면서 데이터 일관성과 안정성 확보 중요성도 커지고 있다고 설명했다. 기업이 겪는 주요 고민 역시 이같은 변화와 연결된다. ▲고가용성 환경에서의 일관성 유지 ▲안정적인 데이터 복구 ▲폭증하는 데이터를 장기 보관할 수 있는 확장성 등이 기업 IT 인프라 구축에서 핵심 검토 요소로 떠오르고 있다. 삼성SDS는 이러한 수요에 대응하기 위해 SCP 기반 블록·파일·오브젝트·아카이브 스토리지로 구성된 포트폴리오를 제시했다. 블록 스토리지는 고성능·고가용성이 필요한 데이터베이스·메일 서버 등에 적합하고 파일 스토리지는 여러 서버가 네트워크를 통해 데이터를 손쉽게 공유하는 구조다. 오브젝트 스토리지는 인터넷 URL 기반 접근으로 확장성이 높으며 아카이브 스토리지는 오브젝트 데이터를 장기간 보관하기 위한 저비용 스토리지로 소개됐다. 김 프로는 "AI 시대, 어떤 서버에 접속하더라도 동일하고 정확한 데이터가 유지돼야 한다"며 "고가용성 환경에서 여러 서버가 하나의 스토리지를 공유해 데이터의 무결성을 유지하려면 각 스토리지 종류에 맞는 연결 방식을 갖춰야 한다"고 말했다. 실제 SCP 콘솔을 활용한 파일 스토리지 실습도 이뤄졌다. 서버 운영체제(OS)에 맞춘 프로토콜(NFS/CIFS) 선택, 파일 스토리지 생성 및 연결 방식, 오토스케일링 전환 시 콘텐츠를 오브젝트 스토리지로 이전하는 절차 등이 시연됐다. 오브젝트 스토리지는 아마존웹서비스(AWS)의 S3 스토리지와도 호환돼 CLI 명령어 기반 데이터 이관도 지원한다. 데이터 보호와 복구 전략도 중요한 주제로 다뤄졌다. SCP 파일 스토리지는 특정 시점의 데이터를 그대로 저장하는 스냅샷 기능을 제공하며 오브젝트 스토리지는 변경 이력을 축적하는 버전 관리 기능을 제공한다. 이를 통해 실수로 데이터가 삭제되거나 덮어 쓰인 경우에도 원하는 시점으로 복구할 수 있다. 필요시 저비용 구조의 아카이브 스토리지로 데이터를 이관해 보존 기간을 늘릴 수도 있다. SCP의 아카이브 스토리지는 자동 확장·축소되는 용량 구조, 오브젝트 대비 낮은 비용, 3시간 이내 검색·복구 기능 등을 지원한다. 김 프로는 "아카이브 스토리지는 법적·제도적 요건에 따라 수년 이상 데이터를 보관해야 하는 제조·금융·의료 등 산업군에서 활용성이 크다"며 "다른 클라우드 사업자들의 스토리지 서비스와 비교해 비용 구조가 효율적이고 가격 측면에서도 경쟁력이 높다"고 설명했다. 삼성SDS는 대규모 이차전지 제조사 A사의 아카이브 스토리지 적용 사례도 소개했다. 이차전지 생산 과정에서 생성되는 이미지 데이터를 15년 이상 보관해야 하는 법적 규제에 맞춰 SCP의 아카이브 스토리지를 도입함으로써 데이터 관리 비용과 운영 복잡성 문제를 개선했다. 국내외 사업장의 데이터를 삼성SDS 수원 데이터센터의 아카이브 스토리지로 통합했고 유지보수 기간 제한 문제도 해결했다. 특히 유럽 사업장 이미지 데이터 이관 기간을 기존 대비 약 6개월 이상 단축하는 효과를 얻었다. 김 프로는 "데이터 폭증 시대에는 일관성과 무결성을 보장하는 고가용성 스토리지 구성, 안정적인 백업·복구, 비용 효율적인 장기 보관 구조 확보가 필수"라며 "SCP 스토리지는 이러한 요건을 충족하는 플랫폼으로 기업의 데이터 경쟁력을 높일 수 있다"고 강조했다.

2025.11.13 15:36한정호

NHN클라우드, SR 전체 시스템 클라우드 전환…"추석 예매 오류 0건"

NHN클라우드가 SRT 운영 시스템을 클라우드로 전환해 편리한 대국민 서비스 환경을 구축했다. NHN클라우드는 SR이 운영하는 모든 시스템의 클라우드 전환을 완료하고 추석 명절 예매 기간 중 오류 없는 안정적인 운영을 지원했다고 30일 밝혔다. NHN클라우드는 2023년 SR의 통합정보시스템 클라우드 전환 구축·운영 사업을 수주한 이후 지난 7월 예약 발매 시스템 등 대국민 서비스와 내부 업무 시스템의 클라우드 전환을 완료했다. ▲시스템 구조 개선 및 확장성 확보 ▲보안 환경 강화 ▲백업 환경 개선을 목표로, SR의 업무 환경에 최적화된 맞춤형 퍼블릭·프라이빗 클라우드 모델을 3년에 걸친 대규모 프로젝트로 진행한 것이 특징이다. 이를 통해 올 추석 SRT 예매 기간에 성과가 두드러졌다. SR은 예매 오픈 전, 클라우드 환경의 장점을 활용해 웹 서버 및 웹 애플리케이션 서버(WAS) 등을 평소 대비 30배까지 유연하게 확장했다. 그 결과, 올해는 서버 과부하나 서비스 작동 중단 등 장애 없이 오류 0건을 기록했으며 전년 추석 대비 예매 대기 시간은 50%, 민원 건수는 65% 감소한 것으로 나타났다. 서버 확장에 따른 비용과 인력 부담도 줄었다. 기존 온프레미스 환경에서는 예매 시즌에 대비해 한 달 전부터 물리 서버를 임차하고 설치하는 번거로움과 높은 비용이 발생했다. 반면 클라우드 전환 이후에는 별도의 장비 설치나 호환 작업 없이 몇 번의 조작만으로 서버 확장이 가능했으며 더 많은 서버를 사용하고도 이전보다 비용을 절감할 수 있었다. 예약 발매 시스템의 접근 속도도 향상됐다. 메인 페이지 응답 시간은 기존 구축형 환경 대비 약 25% 단축돼 국민들이 끊김없이 쾌적한 환경에서 서비스를 이용할 수 있게 됐다. SR 관계자는 "전체 시스템의 클라우드 전환을 통해 이번 추석에 국민들께 양질의 예약 발매 서비스를 제공할 수 있었다"며 "앞으로 NHN클라우드와 더욱 긴밀히 협력하며 SR 시스템의 인공지능 전환(AX)을 적극 추진해 나가겠다"고 말했다. 김동훈 NHN클라우드 대표는 "국내 최초로 공공기관의 B2C 시스템을 클라우드로 전환하는 이번 사업을 성공적으로 마무리한 결과, 올 추석 국민들이 클라우드 전환 효과를 실감할 수 있는 귀중한 계기가 됐다"며 "앞으로도 다양한 공공기관에 클라우드를 공급해 원활한 행정 수행을 지원하고 국민 모두가 더욱 편리하게 공공 서비스를 이용할 수 있는 환경을 구축하도록 노력하겠다"고 밝혔다.

2025.10.30 17:32한정호

세종 부용산에 숨 쉬는 네이버의 AI 심장, '각 세종' 가보니

세종시 부용산 자락에 자리한 네이버의 두 번째 데이터센터 '각 세종'. 겉으로는 조용하지만 내부는 쉼 없이 움직이는 거대한 기술 생태계다. 인공지능(AI) 시대 핵심 인프라로 불리는 이곳을 직접 찾아가 봤다. 네이버클라우드는 지난 27일 각 세종 데이터센터에서 테크밋업을 개최하고 AI 인프라 운영 기술과 친환경 설계 시스템을 공개했다. 이날 현장에서는 AI 서비스의 핵심인 그래픽처리장치(GPU) 서버, 냉각 기술, 전력 구조, 자율주행 로봇 시스템까지 살펴볼 수 있었다. 첫 방문지는 서버 IT 창고였다. 자산 관리 구역임에도 인력의 움직임은 거의 없었다. 대신 '가로'와 '세로'로 불리는 로봇이 서버를 실어 나르며 작동 중이었다. 이 로봇들은 자산 입출고를 자동화해 사람의 개입 없이 서버를 적재하고 회수하는 역할을 한다. 매년 5천 대 이상의 서버를 교체할 수 있는 효율성을 갖췄다. 로봇은 카메라와 센서를 기반으로 서버 위치를 스스로 인식하고 높이 3m 랙에도 정확히 접근한다. 자율주행 로봇 가로는 최대 400㎏의 장비를 운반할 수 있으며 내부 동선은 네이버클라우드의 통합 로봇 관제 플랫폼 '아크' 시스템으로 관리된다. 이어진 공간은 냉각 기술의 핵심인 '나무'였다. 이는 네이버가 자체 개발한 외기 냉각 시스템으로, 자연 바람을 활용해 서버의 열을 식히는 구조다. 네이버 김예원 도슨트는 "각 세종에 적용된 나무 3세대는 계절과 기후에 따라 외기 모드를 자동 전환하는 하이브리드 시스템"이라며 "일반 냉동 방식 대비 최대 73%의 전력 효율을 달성했다"고 설명했다. 서버실에서 발생하는 열은 폐열 회수 시스템을 통해 재활용된다. 바닥 난방과 겨울철 도로 제설용 스노우멜팅 시스템에 쓰이며 센터의 에너지 순환 구조를 완성한다. 이러한 각 세종의 전력효율지수(PUE)는 1.1 수준으로, 글로벌 하이퍼스케일 센터 중에서도 최상위 등급이다. GPU 서버실에 들어서면 공기의 흐름이 달라진다. 고전력 서버에서 발생한 열은 천장을 통해 배출되고 바닥과 벽면을 따라 차가운 공기가 순환한다. 각 세종은 정전이나 장애에 대비해 전력 인입선로를 이중화했으며 무정전전원장치(UPS)와 비상 발전기를 통해 72시간 이상 자가 전력을 유지할 수 있다. 운영 효율을 높이기 위해 각 세종은 로봇 기반 자산 관리와 자율주행 셔틀 '알트비' 시스템도 도입했다. 축구장 41개 크기의 부지를 이동하며 인력과 장비를 운반하는 이 셔틀은 네이버랩스의 자율주행 기술과 네이버클라우드의 관제 시스템이 결합된 결과물이다. 센터의 중앙 제어실은 각종 수치를 실시간으로 모니터링하는 관제의 두뇌 역할을 맡고 있었다. 온습도, 전력 사용량, GPU 랙당 전력 밀도, 네트워크 트래픽이 실시간으로 표시되고 외부 사고나 트래픽 급증 상황에 즉각 대응할 수 있도록 구성됐다. 김 도슨트는 "각 세종은 국내 데이터센터 중 유일하게 네트워크망·전력·데이터 모두를 이중화한 구조"라며 "정전이나 장애가 발생해도 즉시 복구 가능한 구조로 설계됐다"고 말했다. 센터 외부의 친환경 설계도 눈에 띄었다. 옥상에는 태양광 발전 설비가, 지하에는 지열 냉난방 시스템이 적용돼 있으며 서버실에서 발생한 폐열은 다시 에너지로 순환된다. 네이버에 따르면 이 구조를 통해 연간 이산화탄소 배출량을 약 1만5천 톤 줄일 수 있고 이는 나무 225만 그루를 심는 효과와 맞먹는다. 또 각 세종은 세계적 친환경 건축 인증인 리드 플래티넘 등급을 획득했다. 세종 부용산의 단단한 화강암 지반 위에 세워진 이 건물은 규모 7의 지진에도 견디는 내진 특등급으로 설계됐다. 각 세종은 향후 증축을 통해 270메가와트(MW) 전력 수용 규모로 확장될 예정이다. 완공 시에는 세종시 전체 인구의 전력 소비량에 맞먹는 AI 인프라가 된다. 네이버클라우드 노상민 센터장은 "각 세종은 단순히 데이터를 보관하는 공간이 아니라 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼"이라며 "지속가능성과 효율, 복원력을 모두 갖춘 하이퍼스케일 인프라로 설계됐다"고 강조했다.

2025.10.28 09:03한정호

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호

델, 글로벌 AI 전쟁 본격 참전…韓 시장에 올인 선언

델 테크놀로지스가 차세대 인공지능(AI) 인프라 전략을 대거 공개하며 'AI 팩토리'를 중심으로 한 글로벌 확장과 국내 협력 의지를 밝혔다. 생성형 AI 확산과 함께 그래픽처리장치(GPU) 서버 수요가 급증하는 가운데 하드웨어(HW)·소프트웨어(SW)·서비스 통합 포트폴리오를 앞세워 국내외 기업의 데이터센터 현대화를 지원하겠다는 구상이다. 델 테크놀로지스 조용노 전무는 17일 서울 삼성동 코엑스에서 열린 '델 테크놀로지스 포럼 2025' 미디어 브리핑에서 "AI 인프라는 더 이상 기술검증(PoC)을 넘어 기업 핵심 전략으로 자리 잡았다"며 "글로벌 경험과 기술을 바탕으로 한국 고객과 동반 성장하겠다"고 강조했다. 이날 조 전무는 퍼블릭 클라우드로 AI 도입을 시작하는 사례가 많지만 실제 업무로 확산할 때는 보안·비용 문제로 온프레미스 전환이 불가피하다는 점을 짚었다. 이에 델은 데이터가 있는 곳에 AI를 가깝게 배치해야 한다는 원칙을 내세우고 있다. 이같은 전략으로 델은 지난해 처음 공개한 통합 포트폴리오 'AI 팩토리'를 통해 현재까지 3천여 개 고객사를 확보했다. 국내에서는 삼성SDS·LG CNS·네이버클라우드·NHN클라우드·엘리스클라우드 등이 대표적 파트너다. 글로벌 선도기업과의 파트너십도 빠르게 확장 중이다. HW 지원을 넘어선 파트너 생태계와 SW 통합을 통한 개방형 전략이다. 구글 클라우드 제미나이, 레드햇 AI 스택, 미스트랄 AI, 메타 라마 등과의 협력이 대표적이다. 조 전무는 "국내 독립 소프트웨어 벤더(ISV) 파트너 대부분과도 협력을 맺고 있다"며 "AI 팩토리가 글로벌뿐 아니라 한국 고객에게도 확산될 수 있는 기반"이라고 말했다. 양원석 전무는 "우리만의 독립 AI 허브에는 메타 라마, 허깅페이스 등 글로벌 AI 모델과 플랫폼이 올라가 있어 고객이 최적화된 인프라를 쉽게 선택할 수 있다"며 "이 덕분에 AI 팩토리에 대한 고객 만족도가 높다"고 설명했다. 이날 델은 AI 워크로드에 최적화된 GPU 서버 포트폴리오도 공개했다. 지난해 폭발적 판매를 기록한 '델 파워엣지 XE9680'의 후속으로 'XE9780'을 출시했고 엔비디아 GB300 NVL72 아키텍처를 탑재한 'XE9712'도 선보였다. IDC 조사에 따르면 델 코리아는 국내 서버 시장에서 15분기 연속 매출 1위를 차지했다. 특히 XE9680이 생성형 AI를 위한 데이터센터의 대표 서버 제품으로 자리매김하며 후속 모델인 XE9780에 대한 기대감도 모이고 있다. 양 전무는 "GPU·스토리지·네트워크 등 AI 팩토리 관련 매출은 일반 서버와는 다른 속도로 매분기 성장하고 있다"며 "한국뿐 아니라 글로벌 시장에서도 같은 추세"라고 말했다. 이어 "XE9680은 델 역사상 가장 빠르게 매출을 기록한 단일 모델이었다"며 "XE9780으로 또 다른 신화를 준비 중"이라고 강조했다. 아울러 델은 공공 프로젝트 참여 가능성에 대해서도 언급했다. 양 전무는 "소버린 AI는 각국의 정서와 데이터를 반영하는 국가적 사업"이라며 "우리는 공급자로서 적시에 인프라를 제공하는 역할을 하고 있고 클라우드 서비스 제공사(CSP) 및 시스템 통합(SI) 업체들과 협력해 참여하고 있다"고 말했다. 그러면서 "온프레미스 AI 데이터센터 수요가 계속 늘어나고 있기에 직접적인 공공사업 참여는 어렵더라도 협력 기회가 있다면 적극 검토하겠다"고 덧붙였다.

2025.09.17 14:29한정호

IBM, 차세대 서버 '파워11' 출시…"다운타임 제로·랜섬웨어 탐지 1분 이내"

IBM이 기업들의 유연한 클라우드 전환·활용을 지원하는 인공지능(AI) 시대 맞춤형 차세대 서버 제품을 선보인다. IBM은 엔터프라이즈 서버인 'IBM 파워11'을 출시했다고 12일 밝혔다. 파워11은 하이브리드 클라우드 구축을 지원하며 기업이 요구하는 가용성·복원력·성능·확장성을 제공한다. 금융·의료·제조·공공 등 다양한 산업 분야 기업들은 오랫동안 IBM 파워를 활용해 데이터 집약적인 핵심 워크로드를 운영해 왔다. LG디스플레이는 노후화된 타사 서버를 IBM 파워 서버로 전면 교체하며 전사적자원관리(ERP) 시스템의 성능과 안정성을 크게 향상시킨 바 있다. 파워11은 99.9999%의 가동 시간을 제공하며 IBM 파워 플랫폼 역사상 가장 복원력이 뛰어난 서버로 설계됐다. 다운타임 없이 시스템 유지 관리가 가능하며 IBM 파워 사이버 볼트를 통해 1분 이내에 랜섬웨어 위협을 탐지할 수 있다. 또 미국 국립표준기술연구소(NIST) 인증을 받은 양자내성암호를 내장해 '선수집 후해독' 공격과 펌웨어 무결성 공격으로부터 시스템을 보호한다. 파워11은 고사양·중간사양·기본사양급 서버와 IBM 클라우드에서 제공되는 'IBM 파워 버추얼 서버'를 포함한 다양한 제품군으로 제공된다. IBM 파워 버추얼 서버는 파워 워크로드의 클라우드 전환을 지원하며 '라이즈 위드 SAP'의 하이퍼스케일러 플랫폼으로도 인증받았다. 또 파워11은 자율 운영을 지원해 복잡성을 줄이고 워크로드 효율성을 개선한다. 파워9 대비 최대 55% 향상된 코어 성능을 제공하며 기본·중간 사양의 시스템에서 파워10 대비 최대 45% 더 많은 용량을 제공한다. 한국IBM 파워 사업부 총괄 김경홍 상무는 "IBM 파워11은 기업의 디지털 전환을 가속화하고 AI 시대의 새로운 가능성을 열어줄 핵심 솔루션"이라며 "2039년까지의 장기 로드맵을 기반으로 고객의 핵심 워크로드를 안정적으로 지원하는 동시에 AI와 자동화를 통해 미래 경쟁력 강화에 기여할 것"이라고 말했다. 톰 맥퍼슨 IBM 파워 시스템즈 사장은 "파워11을 통해 고객들은 가장 시급한 비즈니스 요구사항에 맞춘 혁신을 통해 AI 시대로의 전환을 가속화할 수 있다"고 강조했다.

2025.08.12 16:44한정호

"서버리스 기술 우수"…알리바바클라우드, 포레스터 리더 선정

알리바바클라우드가 서버리스 기술력으로 글로벌 시장서 인정받았다. 알리바바클라우드는 글로벌 시장조사기관 포레스터의 '2025년 2분기 서버리스 개발 플랫폼' 보고서에서 리더로 선정됐다고 8일 밝혔다. 포레스터는 6개월 동안 11개 벤더를 대상으로 개발자 경험, 파트너 생태계, API·이벤트 기반 통합, 인공지능(AI) 애플리케이션 개발 역량, 비전 등 21개 항목을 분석했다. 알리바바클라우드는 펑션 컴퓨트(Function Compute)와 서버리스 앱 엔진(SAE)을 기반으로 9개 항목에서 최고 점수인 5점을 받았다. 보고서는 알리바바클라우드가 확장 가능한 이벤트 기반 컴퓨팅 환경과 강력한 생태계 통합 역량을 갖췄다고 평가했다. 중국과 아시아·태평양(APAC) 시장에서의 선도적 위치와 현지 최적화 기술, 다양한 기업 도입 사례도 경쟁력으로 꼽혔다. 알리바바클라우드는 AI 애플리케이션 개발을 핵심 영역으로 삼고 모델 배포와 이벤트 기반 추론 워크플로를 기본 지원한다. 초기화를 비롯한 배포, 런타임 유연성 전반에서 강력한 기능을 제공하며 오픈소스 확대와 생태계 성장을 위한 혁신을 지속하고 있다. 2017년 출시된 펑션 컴퓨트는 완전관리형 이벤트 기반 컴퓨팅 서비스다. 해당 서비스는 인프라 관리 부담을 줄이고 사용량 기반 요금제로 운영된다. 모델 추론과 학습 지원뿐 아니라 생성형 AI 개발 플랫폼 모델 스튜디오와 모델 스코프 커뮤니티를 강화하는 역할을 한다. 서버리스 앱 엔진은 업계 첫 애플리케이션 중심 서버리스 플랫폼형 소프트웨어(PaaS)다. 쿠버네티스 기반의 마이크로서비스 모델과 서버리스 아키텍처를 결합했다. 사용자는 다양한 프로그래밍 언어로 된 애플리케이션을 몇 초 만에 배포할 수 있다. 현재 알리바바클라우드의 서버리스 솔루션은 전 세계 1만 개 이상 기업에 도입된 상태다. 이커머스를 비롯한 제조, 교육, 미디어, 엔터테인먼트, 인터넷, 게임 등에서 활용되고 있다. 쟝웨이 쟝 알리바바클라우드 인프라스트럭처 제품 총괄 책임자 겸 부사장은 "이번 포레스터의 평가는 서버리스 개발 고도화에 집중해 온 노력의 결과"라며 "혁신적 기술과 안정적 지원을 결합해 모든 규모의 기업이 최신 기술을 쉽게 도입하고 성장할 수 있도록 돕고 있다"고 강조했다.

2025.08.08 13:57김미정

정부 AI 인프라 정책에 외면받는 '국산 서버'…"NPU와 함께 풀스택 고려해야"

정부가 인공지능(AI) 경쟁력 강화를 위한 국가 인프라 확충 정책을 본격 추진하는 가운데 국산 AI 서버 업계에선 그래픽처리장치(GPU)나 신경망처리장치(NPU)뿐 아니라 서버·스토리지 등 AI 인프라 전반을 아우르는 풀스택 관점의 전략이 필요하다는 목소리가 거세지고 있다. 정부가 국산 AI 반도체 실증에 집중하고 있지만 정작 이를 담아 구동할 서버 인프라 산업은 외산 일색이라는 현실이 재조명되며 정책 사각지대라는 지적도 잇따른다. 21일 업계에 따르면 과학기술정보통신부는 두 차례 유찰됐던 국가AI컴퓨팅센터 구축 사업의 재공모를 준비하며 기업 및 부처 간 협의를 통해 GPU 자원에 대한 대규모 구매와 클라우드 위탁 운영 방안 등을 검토 중이다. AI 학습과 추론에 필요한 컴퓨팅 자원을 대규모로 제공하겠다는 취지는 긍정적이나 업계 일각에선 이번 기회에 국산 서버 생태계도 함께 육성해야 한다는 주장이 제기되고 있다. 현재 국내 AI 서버 시장은 델·HPE·레노버 등 외산 기업들이 과점한 상황이다. 국내 기업들은 대부분 외산 서버를 리브랜딩해 공급하거나 제한된 모델만을 자체 설계·제조하는 수준에 머물고 있다. 기술적으로는 글로벌 수준과의 격차를 상당 부분 좁혔지만 여전한 공공 조달 관행, 낮은 인지도, 외산 선호 등의 이유로 실질적인 공급 기회를 확보하지 못하고 있다는 게 업계의 토로다. 특히 GPU 기반 AI 인프라 확산이 본격화되면서 서버는 외산, 반도체만 국산이라는 구조가 고착화될 수 있다는 우려도 나온다. 국내 서버 업체 한 대표는 "국산 서버 제조사들은 이미 공공 조달 시장에 x86 아키텍처 기반 제품을 다수 등록해 놓고 있지만, 시스템 통합(SI) 업체 중심의 총액계약이 일반화되면서 직접 공급 기회는 제한적"이라며 "여기에 공공 발주자들의 외산 선호까지 겹치면서 국산 제품의 입지가 더욱 좁아지고 있다"고 말했다. 실제 행정안전부의 '2024년도 공공부문 정보자원 현황 통계보고서'에 따르면 국산 서버의 공공기관 점유율은 28.15%에 그쳤다. 이외의 스토리지는 4.34%, 백업 장비는 4.01% 등으로 조사되며 대부분의 하드웨어(HW) 유형에서 외산 비율이 높게 나타났다. 국산 기술력이 일정 수준 이상 올라섰음에도 불구하고 인지도와 신뢰도를 넘는 벽은 여전히 높다는 게 공통된 시각이다. 이 가운데 정부는 최근 국산 AI 반도체인 NPU를 중심으로 민간 클라우드 기업과 컨소시엄을 구성하는 실증 사업을 추진하고 앞으로 구축될 국가AI컴퓨팅센터 내 NPU 점유율 확대 등 정책 지원을 집중 중이다. 이에 정부가 AI 기술 자립을 목표로 '소버린 AI' 전략을 실행하나 국산 AI 반도체가 실질적으로 탑재될 서버 인프라에 대한 정책 지원은 뒷전이라는 지적이 나온다. 업계 관계자는 "AI 생태계가 GPU나 NPU로만 구성되는 것이 아니다"라며 "이를 구동하고 관리하는 서버· 스토리지·운영 소프트웨어(SW)가 함께 고려돼야 풀스택 관점의 AI 기술 자립이 가능하다"고 강조했다. 아울러 국내 HW 업계는 AI 정책 수혜가 SW와 클라우드 위주로 쏠리는 현 구조도 개선해야 한다고 주장한다. 정부가 현재 서비스형 소프트웨어(SaaS), 클라우드 서비스 확산, 국가 AI 모델 육성에 정책 역량을 집중하며 민간 SW 수요만을 부각시키고 있다는 비판이다. 업계에 따르면 국산 서버 제조사는 메인보드와 펌웨어를 자체 설계하고 글로벌 수준의 인증을 확보하는 등 기술 경쟁력을 끌어올렸지만 정부 차원의 연구개발(R&D) 사업 지원은 사실상 2010년대 중반 이후 끊긴 상태다. 일각에선 정부의 '중소 기업자 간 경쟁 제품 제도' 등 일부 제도적 지원 기반이 존재하긴 하나 실질적으로는 외산 중심의 조달 관행을 깨기 어렵다는 회의론도 나온다. 실제 일부 기관은 조달 예외조항을 근거로 외산 제품을 구매하거나 입찰 조건을 통해 국산 제품을 사실상 배제하고 있는 것으로 알려졌다. 국산 HW 업계는 이에 대응하기 위해 기업 간 공동 기술지원 체계를 논의하고 있지만 정책적 뒷받침 없이는 자생이 어렵다는 견해다. 국내 서버 업체 한 대표는 "AI 경쟁력의 핵심은 GPU도, 서버도 아닌 전체 인프라의 균형 있는 발전"이라며 "정부가 AI 반도체에만 시선을 둘 게 아니라 이들을 실제 운용할 기반 인프라 생태계에도 관심을 가져야 한다"고 강조했다. 또 다른 관계자는 "잘 만든 SW 하나가 매력적인 서비스로 이어질 수 있지만 그것도 안정적인 HW가 뒷받침될 때 가능하다"며 "이제는 국산 AI·SW만큼이나 HW도 국가 전략산업으로 키워야 할 시점"이라고 말했다.

2025.07.21 11:17한정호

NHN클라우드, 장애로 공공기관 서버 2시간 마비…"공조 설비 문제 확인 중"

NHN클라우드가 운영하는 클라우드 서비스에서 장애가 발생해 일부 지방자치단체 홈페이지가 약 2시간 동안 마비됐다. 이번 장애는 공조 설비 문제로 인해 발생한 것으로 밝혀진 상황으로, 세부 원인은 조사 중이다. 26일 업계에 따르면 이날 오전 7시 56분부터 9시 55분까지 NHN클라우드 판교 리전에서 공공기관용 클라우드 서비스 장애가 발생했다. 이로 인해 광주광역시와 경상남도청을 비롯한 다수의 공공기관 홈페이지가 접속 불가 상태에 놓였다. 광주에서는 동구·북구청, 시청, 문화관광포털 등 19개 웹사이트가 영향을 받았다. 경남에서는 도청 및 도지사 홈페이지를 포함해 산하 지자체와 도립미술관 등 50여 개 웹사이트가 장애를 겪었다. NHN클라우드는 문제가 발생한 서버 저장장치(스토리지)를 복구한 뒤 정상화 작업을 진행했다. NHN클라우드 관계자는 "현재까지 파악된 바로는 공조 설비 이상으로 인해 서버룸 내 온도가 올라갔고 이로 인해 일부 서버 스토리지가 다운됐다"며 "구체적인 원인은 추가 조사가 필요하다"고 설명했다. 이번 장애로 인한 데이터 손실 여부는 아직 확인되지 않았다. NHN클라우드 측은 "현재까지 파악된 문제는 홈페이지 접속 장애이며 내부 행정망에 추가적인 영향이 있었는지는 조사 중"이라고 밝혔다. 공조 설비 문제로 인한 장애가 재발할 가능성에 대해서도 우려가 제기된다. 회사는 현재 판교 리전의 설비 점검을 진행 중이며 유사한 문제가 발생하지 않도록 대응책을 마련하겠다는 방침이다. 다만 향후 구체적인 재발 방지 대책에 대한 구체적인 계획은 확인되지 않았다. NHN클라우드 관계자는 "향후 유사한 사태를 방지하고 원활한 서비스 제공을 위해 최선을 다하겠다"며 "장애 원인과 피해 규모가 파악되는 대로 추가적인 조치를 검토할 예정"이라고 말했다.

2025.02.26 13:28조이환

김재원 대표 "엘리스그룹, 에듀테크 기업에서 AI 기업으로"

AI 에듀테크 기업으로 잘 알려진 엘리스그룹(대표 김재원)은 인프라·데이터·플랫폼·콘텐츠 등 AI에 필요한 모든 것을 통합 제공하는 'AI 솔루션 기업'으로 자리매김하고 있다. 김재원 엘리스그룹 대표는 본격적인 AI 시대를 맞아 새해 이런 변화에 더욱 속도를 낸다는 계획이다. 엘리스그룹에 따르면, 회사는 AI 교육이 필요한 기업 또는 기관이 몰입도 높은 비대면(가상화) 실습 환경 아래에서 교육생들의 학습 관리를 편리하게 할 수 있는 '엘리스LXP' 플랫폼을 서비스 중이다. 이 플랫폼을 통해 ▲초중고 공교육 ▲취준생 및 재직자 직무교육 ▲산업 맞춤형 디지털 전환 교육 등 다양한 교육 콘텐츠가 제공된다. SK·LG·현대차 등 국내 대기업뿐만 아니라, 서울대·카이스트 등 대학과 정부·공공기관 총 5천300여 곳에서 맞춤형 디지털 전환 교육을 하고 있다. 관리자는 엘리스LXP에서 학습 데이터를 분석하고 시각화한 AI 대시보드를 통해 교육생들을 보다 효율적으로 관리함으로써 이수율을 높일 수 있다. 나아가 거대언어모델(LLM) 기반으로 만들어진 AI 챗봇(AI 헬피)을 통해 학습자들의 질문에 대한 맞춤형 답변도 빠르게 할 수 있다. 아울러 '엘리스테스트'는 개발자 채용 평가부터 재직자 역량 평가, 대규모 경진대회 등 온라인 테스트 환경을 지원한다. 부정행위 방지 기능과 다양한 테스트 콘텐츠, 체계적 온보딩 시스템과 안정적 서버환경 등은 엘리스테스트의 강점이다. 이동형 모듈러 데이터센터 구축...강력한 AI 인프라 제공 엘리스그룹은 다양한 환경의 AI 연구·개발·배포를 위한 안정적인 GPU를 제공하는 '엘리스클라우드' 사업도 키워나가고 있다. 엔비디아의 A100·H100 등 강력한 GPU 서버 스펙을 바탕으로 AI 데이터센터를 구축한 상태다. 회사는 지난해 델 테크놀로지스로부터 엔비디아 H100 텐서코어 GPU를 탑재한 델 파워엣지 서버와 네트워킹 스위치를 도입해 데이터센터 인프라를 업그레이드한 바 있다. 특히 엘리스그룹은 델 테크놀로지스와의 협력을 통해 엘리스클라우드에 모듈 단위로 탄력적인 인프라 확장이 가능한 이동형 모듈러 데이터센터(PMDC) 방식을 적용했다. 엘리스그룹 전력 밀도는 랙당 20~40kW로, 국내 데이터센터 평균(3.3kW)보다 효율성이 높다. 아울러 회사는 GPU·NPU를 효율적으로 이용할 수 있는 동적 할당 기술을 적용해 사용자가 필요로 하는 만큼 실시간으로 컴퓨팅 자원을 할당받을 수 있게 했다. 이를 통해 비용을 낮추면서도 AI·디지털 전환 관련 교육 과정을 원활히 받을 수 있는 환경을 갖추게 됐다. 최근에는 AI 반도체 스타트업 리벨리온과 상호 협력 업무협약을 맺고, 리벨리온 NPU 기반 클라우드 플랫폼 구축을 위한 기술 협력을 진행한 뒤 이를 바탕으로 글로벌 데이터센터 진출에도 힘을 모으기로 했다. 엘리스클라우드 PUE(전력 효율 지수)는 1.27이며, 지난해 8월 정보보안에 대한 글로벌 인증(ISO 27001·27701)을 획득하기도 했다. "엘리스그룹은 AI 기업" 2015년 회사를 창업한 김재원 대표는 엘리스그룹을 'AI 기업'으로 정의했다. 재직자 대상으로 디지털 전환과 AI 교육을 통해 업무 효율성을 높여주고, 취준생들에게는 대학과 산업 간의 격차를 줄여주는 부트캠프를 통해 이들이 AI에 대한 이해도와 전문성을 갖추도록 돕기 때문이다. 특히 엘리스클라우드를 통해 AI 연구팀이나 전문가들이 안정적인 클라우드 및 컴퓨팅 환경에서 AI 모델링 프로젝트를 수행하도록 지원해서다. 재작년과 작년에는 각각 국방부 대규모 AI 해커톤과 한국천문연구원의 태양 흑점 이미지 분석 AI 해커톤에 고성능 GPU 환경을 제공했다. “엘리스클라우드는 AI 전문 인프라입니다. 기존 AI 해커톤의 경우 예산 안에서 진행이 불가능했는데, 저희는 참가자들에게 고성능 환경을 제공하고 적게는 3분의 1, 많게는 10분의 1 예산 안에서 고성능 클라우드 환경을 제공해드리고 있습니다. AI 클라우드 인프라를 구성함에 있어 기존 데이터센터는 고전력이 아니다 보니 어렵고, 그렇다고 고가의 GPU 서버 인프라를 구성하기도 쉽지 않았는데 엘리스클라우드는 PMDC를 통해 비용 단가를 낮추면서도 안정성은 높였습니다. 쓰는 만큼 시간당 과금되기 때문에 효율적 이용도 가능합니다.” 기업 또는 기관들은 업무 생산성 향상을 위해 디지털 전환이 필요할 때 엘리스그룹의 다양한 플랫폼과 콘텐츠, 인프라 등을 취사선택해 사용하면 된다. AI 기업으로서 안정적인 서버가 필요하다면 엘리스클라우드를, AI 등 디지털 전환 교육이 필요하다면 엘리스LXP 플랫폼을 통해 대상에 맞는 엘리스의 콘텐츠를 제공하면 되는 식이다. “모든 정부 기관과 기업들의 AI 디지털 전환이 필요한 때라고 생각합니다. 그렇지 않으면 강대국들에 의해 도태될 수밖에 없겠죠. 저마다 속도는 다를 수 있겠지만, 결국 AI는 전기처럼 쓰게 될 테니, 이런 방향에 필요한 교육과 인프라를 제공하려 합니다.” "클라우드 인프라·기술력에 계속 투자할 것" 엘리스그룹의 올해 목표는 엘리스클라우드를 통한 더 큰 성장이다. 지난해 실적은 전년보다 성장하긴 했지만 기대만큼 크진 않았다고 김 대표는 말했다. AI 도입이 빠르게 확산되는 것은 맞지만, 아직은 기대만큼 그 속도가 빠르지 않은 것 같다고. 그는 AI의 더 빠른 도입을 위해서는 시간과 기술적 요인들이 더 필요하다고 말했다. 김 대표는 앞으로도 클라우드 인프라와 기술력에 계속 투자한다는 방침이다. 또 사내에 AI 전문 연구원들이 다수 있어 경쟁사 대비 AI 교육에 있어서는 훨씬 전문성이 있다고 자부했다. 나아가 AI 밸류 체인이 완성된 만큼, 올해는 클라우드 인프라와 기술력 투자에 집중한다는 방침이다. “약 3년 전 엔비디아 A100을 구매해서 계속 연구하다 2023년부터 내부에서 활용할 수 있게 개발했습니다. 그 후 AI 교육, 해커톤 등에서 활용할 수 있도록 했고, 지난해부터 기능을 강화하면서 외부 세일즈를 진행해 작년 처음으로 클라우드 매출이 발생했습니다. 강의, 콘텐츠 제작, 플랫폼 기능 확대에 이어 AI 인프라 세일즈까지 AI 밸류 체인 전주기를 완성했습니다. 이를 강화하는 것이 올해 목표이고요. 저희는 AI를 통해 실제 매출을 내고, 이를 클라우드 인프라와 기술력에 재투자하고 있습니다.” 김 대표는 앞으로 AI가 사람들의 업무와 실생활에 녹아들며 계속 발전할 것으로 내다봤다. 반면, 글로벌 시장에서는 엄청나게 빠른 속도로 발전하고 활용하는 이런 기술들이 국내 정치적·사회적 이슈들에 뒤처지는 것에는 아쉬움을 표했다. “더 이상 휴대폰 없이 일한다는 건 불가능하듯, AI 없이 일을 하면 비효율이 분명 발생할 겁니다. 앞으로 AI의 실생활 활용에 대한 부분이 강조될 텐데, 이를 지탱할 인프라에 대한 강화도 필요하죠. 어마어마한 속도로 발전될 AI를 활용하게 될 글로벌 경쟁에서 뒤처지지 않게 우리도 정진해야 한다고 생각합니다.”

2025.01.16 14:30백봉삼

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

눈앞으로 다가온 '피지컬 AI'…CES 2026이 증명했다

[ZD브리핑] 국가대표 AI 1차 탈락팀 발표 예정...새해 행사·정책 일정 잇따라

인텔, 아크 B390 성능 공개 "노트북용 별도 GPU 필요없다"

[르포] 폭설에 얼어붙는 도시…전기차 보기 힘든 홋카이도 가다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.