• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (289건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오케스트로, 소버린 AI 클라우드 데이터센터 솔루션 출시…인프라·SW 통합

오케스트로 그룹이 소버린 인공지능(AI) 구현을 지원하는 새로운 통합 솔루션을 앞세워 데이터센터 사업 확대에 박차를 가한다. 오케스트로 그룹은 데이터 주권 확보와 AI 인프라 통제가 가능한 '소버린 AI 클라우드 데이터센터' 솔루션을 출시했다고 22일 밝혔다. 이 서비스는 오케스트로 그룹이 축적해 온 소버린 AI 클라우드 아키텍처를 기반으로 클라우드 인프라와 AI 서비스를 단일 구조로 통합한 원스톱 프라이빗 AI 클라우드 통합 솔루션이다. 퍼블릭 클라우드의 운영 불확실성과 온프레미스 환경의 구축 부담을 동시에 보완한다는 목표다. 소버린 AI 클라우드 데이터센터 솔루션은 안전한 고객 전용 인프라를 맞춤형으로 제공하며 초기 투자 부담을 줄이고 고객이 운영 비용을 직접 통제할 수 있는 비즈니스 구조를 제공한다. 복잡한 소프트웨어(SW) 구성을 최소화해 인프라 설계와 운영에 드는 시간과 자원을 줄였다. 또 퍼블릭 클라우드의 확장성과 온프레미스 환경의 운영 통제력을 결합함으로써 AI 서비스 확장에 따른 비용 변동성을 줄이고 예측 가능한 AI 인프라 총소유비용(TCO)을 구현한 것이 핵심이다. 외부 클라우드나 공용 자원에 의존하지 않는 프라이빗 클라우드 기반의 고객 전용 환경으로 구성되며 데이터와 AI 운영, 인프라 자원을 전용 영역으로 분리해 구성한다. 기업과 기관이 쉽게 데이터 접근과 운영 정책을 직접 설정하고 통제할 수 있는 프라이빗 소버린 AI 환경을 제공하는 것이 핵심이다. 아울러 고객 맞춤형 서비스 조합을 패키지 형태로 지원해 온프레미스 환경에서 요구되던 복잡한 구축 과정 없이 가상머신(VM)과 컨테이너 기반의 AI 서비스 환경을 빠르게 구현할 수 있다. 모듈형 구조로 필요한 기능만 선택해 조합할 수 있어 고객 요구에 맞는 AI 서비스 환경을 구성할 수 있다는 설명이다. 이 솔루션에는 ▲서버 가상화 솔루션 '콘트라베이스' ▲클라우드 네이티브 운영관리 플랫폼 '비올라' ▲AI 인프라 플랫폼 '콘체르토 AI' ▲생성형 AI 솔루션 '클라리넷' ▲AI 기반 클라우드 자동화 솔루션 '심포니 A.I' ▲데브옵스 통합 관리 플랫폼 '트럼본' ▲멀티 클라우드 통합 관리 솔루션 '오케스트로 CMP' ▲마이그레이션 전문 솔루션 '콘트라베이스 레가토 마이그레이터' ▲재해복구 전문 솔루션 '콘트라베이스 레가토 DR' 등 풀스택으로 구성된다. 솔루션 출시와 함께 오케스트로 그룹은 프라이빗 AI 데이터센터를 직접 갖추기 어려운 고객을 위한 소버린 AI 클라우드 데이터센터를 구축하고 있다. SW부터 하드웨어(HW) 및 상면까지 포함한 모든 프라이빗 클라우드 서비스를 퍼블릭 클라우드처럼 사용할 수 있다. 특히 그래픽처리장치(GPU) 중심의 AI 워크로드는 물론 국산 AI 반도체(NPU)와 국산 거대언어모델(LLM)을 연계할 수 있는 구조를 적용해 AI 인프라부터 AI 모델까지 아우르는 소버린 AI 환경을 제공한다는 전략이다. 올해부터 마곡·청담·여의도 등 주요 권역에서 소버린 AI 데이터센터를 순차 오픈하고 SW 중심 패키지에서 물리적 데이터센터 인프라까지 연결되는 소버린 AI 인프라 생태계를 구축해 나갈 계획이다. 이 과정에서 그룹 내 솔루션 전문 계열사인 오케스트로와 오케스트로 AGI, 오케스트로 데이타커맨드는 AI 클라우드 풀스택 SW를 제공한다. 클라우드 네이티브 서비스 전문 계열사인 오케스트로 클라우드는 해당 솔루션이 적용될 데이터센터의 컨설팅·설계·구축·운영 등 전 과정을 지원한다. 김민준 오케스트로 그룹 의장은 "이번 솔루션은 AI·클라우드 풀스택 솔루션과 소버린 AI 데이터센터 구축·운영 역량을 결합해 단일 통합 제품으로 구현한 것"이라며 "그룹 차원의 기술과 인프라 역량을 바탕으로 소버린 AI 데이터센터 사업을 본격 확대해 나가겠다"고 말했다.

2026.01.22 17:01한정호 기자

[현장] STT GDC, 가산에 첫 데이터센터 연다…韓 코로케이션 시장 본격 진출

글로벌 데이터센터 전문기업 STT GDC가 국내 첫 데이터센터를 올해 6월 가동하며 한국 시장 공략에 본격 나선다. 인공지능(AI)·클라우드 수요 확대에 대응하는 AI-레디 인프라를 앞세워 국내 코로케이션 시장에서 입지를 구축할 계획이다. 허철회 STT GDC 코리아 대표는 22일 서울 여의도 FKI타워에서 진행한 기자간담회에서 "가산에 들어서는 'STT 서울1'을 시작으로 한국 시장에서 AI·클라우드 수요를 안정적으로 받쳐줄 인프라를 단계적으로 확대해 나가겠다"고 밝혔다. STT GDC는 싱가포르에 본사를 둔 글로벌 데이터센터 전문기업으로, 12개국에서 100개 이상의 데이터센터를 운영하며 총 IT 부하 용량 2기가와트(GW) 이상을 확보하고 있다. 고성능·고효율·저탄소 데이터센터 인프라를 기반으로 아마존·마이크로소프트·구글 등 글로벌 하이퍼스케일러들을 지원해왔다. STT GDC가 한국을 전략 시장으로 설정한 배경에는 AI 확산에 따른 데이터센터 수요 급증이 있다. 허 대표는 "AI 지출 확대와 에이전틱 AI, AI 서비스형 소프트웨어(SaaS) 등 시장이 빠르게 커지고 있다"며 "이에 맞춰 데이터센터 인프라뿐 아니라 저지연 네트워크·해저 케이블 등 연결성까지 중요해지고 있다"고 설명했다. 특히 허 대표는 앞으로 데이터센터 수요를 주도할 핵심 축으로 '추론'을 지목했다. 그는 "AI 애플리케이션과 추론 중심 워크로드가 늘수록 데이터센터의 수도권 입지와 네트워크가 더 중요해질 것"이라고 진단했다. 이런 흐름에 한국 시장도 소버린 AI와 그래픽처리장치(GPU) 확산 정책이 맞물리며 전력 수요가 크게 늘고 있다는 게 STT GDC의 판단이다. 허 대표는 정부가 엔비디아와 체결한 GPU 26만 장 도입 논의 등으로 인해 추가 전력 수요가 발생할 수 있으며 2030년에는 국내 데이터센터 전력 수요가 3GW 수준까지 필요해질 수 있다고 언급했다. STT GDC가 이번에 첫 거점으로 공개한 STT 서울1은 서울 금천구 가산동에 위치한 AI 데이터센터로, 최대 IT 부하 30메가와트(MW)를 수용하도록 설계됐다. STT GDC는 이 센터를 기반으로 국내 고객의 AI·클라우드 인프라 수요에 대응하는 동시에, 글로벌 확장과 연계한 코로케이션 서비스를 제공하겠다는 구상이다. STT 서울1은 주·예비 2회선 이중화 기반 22.9kV 전력 인입, 분산형 중복 구성 방식 무정전전원장치(UPS), N+1 비상발전기 등 안정성을 고려한 전력 설계를 갖췄다. 최대 부하 기준 24시간 무급유 발전이 가능한 연료탱크를 구축했고 업타임 티어 3 TCCD·TCCF 인증과 무중단 유지보수·내결함성 설계도 추진한다. 건물은 지하 2층부터 지상 10층까지 멀티스토리 구조로 설계됐으며 데이터센터 특성상 층고가 높아 체감 높이는 일반 아파트 약 20층 수준에 해당한다. STT GDC는 도심 내 제한된 부지에서 전력·설비 집적도를 극대화하기 위해 이같은 구조를 선택했다고 밝혔다. 네트워크는 망중립 구조를 기반으로 2개의 독립된 MDF실과 3개의 인입 경로를 구성해 복수 통신사 및 다양한 연결 옵션을 확보했다. 냉각은 설계 전력사용효율(PUE) 1.3 미만을 목표로 중앙 냉수식 냉방 설비와 팬월 유닛 등을 적용해 AI 워크로드에 대비한 열관리 효율을 높인다는 방침이다. 나아가 STT GDC는 액침 냉각 등 차세대 냉각 기술도 글로벌 본사 차원에서 검증하고 있다. 슈나이더 일렉트릭, 아이스오토프와 협력해 액침 냉각 기술검증(PoC)을 진행했고 인도 법인도 액체 냉각 기술 연구·테스트를 추진 중이다. 국내 센터 운영 전략으로는 인하우스 중심 운영을 강조했다. STT GDC 코리아 양재석 운영센터장은 "다수 데이터센터 사업자가 운영을 외주화하는 것과 달리, 우리는 운영 핵심 기능을 자체 인력으로 수행한다"며 "글로벌 하이퍼스케일러 지원 경험을 바탕으로 국내에서도 동일한 표준과 교육 체계를 적용할 계획"이라고 밝혔다. STT GDC는 한국 시장이 글로벌 하이퍼스케일러뿐 아니라 국내 클라우드 사업자와 소버린 AI 프로젝트 확대로 수요 구조가 빠르게 바뀌고 있다고 진단했다. 이에 대해 허 대표는 "연도별 수요·공급 변동성이 커지는 만큼 단계적 확장과 안정적 운영 역량이 중요해졌다"며 "향후 한국 내 추가 데이터센터 부지 확보도 검토 중"이라고 말했다. 끝으로 "AI 시대 데이터센터는 단순히 전력을 공급하는 시설이 아니라, 고밀도 워크로드를 안정적으로 처리하면서도 지속가능성을 함께 달성해야 한다"며 "재생에너지 확대와 냉각 혁신을 바탕으로 한국에서도 장기적으로 경쟁력 있는 데이터센터 플랫폼을 구축해 나가겠다"고 강조했다.

2026.01.22 16:33한정호 기자

[현장] "소버린 AI 늦으면 도태된다…기술·데이터·인프라 통제권 갖춰야"

글로벌 인공지능(AI) 패권 경쟁이 격화되는 가운데, 소버린 AI 확보가 지연될 경우 기술·데이터·인프라 통제권을 잃고 국가와 기업이 동시에 종속 위험에 직면할 수 있다는 AI 기업들의 우려가 나왔다. LG AI연구원 김유철 전략부문장은 21일 네이버와 한국은행이 공동 개최한 AX 컨퍼런스에서 "앞으로 AI는 국가 경쟁력을 좌우하는 전략 자산이 될 것"이라며 "각 나라가 AI 기술과 인프라를 스스로 통제하고 운영하려는 흐름이 소버린 AI"라고 말했다. 김 부문장은 소버린 AI 확보 논의가 단순 기술 트렌드를 넘어 생존 전략이라고 강조했다. 그는 "지금이 아니면 다시는 AI 기술을 확보하기 어려울 것"이라며 "이 기술과 인프라 역량을 확보하지 못하면 선진국에서 중진국·후진국으로 떨어질 수도 있다"고 경고했다. 특히 그는 소버린 AI를 둘러싼 경쟁이 국가 총력전 양상으로 치닫고 있다고 진단했다. 전력망·데이터센터·AI 반도체·파운데이션 모델 등 국가 단위 투자 경쟁이 본격화되는 상황에서 통제권을 잃으면 AI 활용 비용 자체가 외부 변수에 휘둘릴 수 있다는 설명이다. 아울러 네이버클라우드 성낙호 하이퍼스케일 AI 기술총괄은 소버린 AI의 본질에 대해 "데이터를 지능으로 바꾸는 기술"이라고 정의하며 인터넷 데이터에만 머무르던 AI가 음악·영상·피지컬 AI로 확장되는 흐름을 짚었다. 그는 "최근 AI는 인터넷에 없는 데이터를 기반으로 만들어내는 것들을 보여주고 있다"며 "이를 구현할 때 독자적인 기술이 없으면 데이터가 있어도 새로운 지능을 만들어낼 방법이 없어진다"고 말했다. 또 성 총괄은 외산 AI 의존이 가져올 비용·주권 리스크도 언급했다. 그는 "소버린 AI 전략을 시도하지 않고 외산 AI를 쓰다 보면 갑자기 가격이 올라갈 수도 있고 전략 자산화될 수도 있다"고 지적했다. AI가 생활과 산업 전반의 기반 기술로 고착되는 만큼 가격 결정권이 해외로 넘어가면 종속 관계가 구조화될 수 있다는 우려다. 이날 토론에서 LG AI연구원과 네이버클라우드는 소버린 AI가 자립형 모델 개발에 그치지 않고 산업 현장과 업무 시스템에 뿌리내리는 것이 중요하다는 데에도 공감대를 형성했다. 특히 김 부문장은 AI 전환(AX)의 필요성을 강하게 주장했다. 그는 "AX가 국가 경쟁력과 기업 경쟁력에 도움이 되느냐를 넘어 현재는 AX를 하지 않으면 도태되는 상황"이라며 "기업은 AI 도입이 늦어져 생산성이 낮아지고 고정비가 커지면 다른 기업과 경쟁에서 이길 수 없고 국가도 AX가 늦어지면 마찬가지로 위험하다"고 역설했다. 이어 "외산 AI를 활용하는 것과 별개로 핵심 영역에서는 우리 스스로 운영 가능한 역량을 갖춰야 한다"며 "소버린 AI 기반을 갖추는 것이 장기적으로 지속 가능한 경쟁력을 만드는 길"이라고 덧붙였다.

2026.01.21 18:36한정호 기자

정부 주도 'AI 고속도로' 본격 확장…NIPA, 올해 SW·인프라에 방점

정보통신산업진흥원(NIPA)이 올해 국가 인공지능(AI) 경쟁력 강화를 위해 정부 주도 첨단 AI 컴퓨팅 인프라 확충과 국산 AI 반도체 산업 역량 확보에 박차를 가한다. NIPA는 21일 서울 양재 엘타워에서 '2026년도 통합 사업설명회'를 열고 소프트웨어(SW)·AI 인프라·글로벌 진출을 포함한 주요 지원사업 추진 방향을 공개했다. NIPA는 최근 AI 전환(AX)이 본격화되는 가운데 인프라 확충, SW 생태계 강화, 글로벌 시장 진출을 함께 추진한다는 전략을 제시했다. 특히 AI 산업 경쟁 핵심 요소로 컴퓨팅 자원 확보가 부각됨에 따라 AI 컴퓨팅 인프라 확충과 활용 지원을 강화하고 국가AI컴퓨팅센터 운영·관리 지원과 소형 데이터센터·서비스 활성화까지 연계하는 방안을 추진한다. 우선 AI 인프라 분야에서는 AI 고속도로 운영을 본격화하는 동시에 이를 확장해 산업 현장 수요에 대응한다는 방침이다. NIPA는 고성능컴퓨팅 지원 사업을 통해 기업과 연구기관의 고성능 연산 수요를 뒷받침하고 AI 바우처 지원과 함께 올해 신규 사업으로 'AX 원스톱 바우처 지원'도 추진할 예정이다. AI 인프라 확충과 관련해서는 첨단 AI 반도체 서버 확충 및 통합 운영환경 구축 사업을 신규로 진행한다. 또 산·학·연 대상 첨단 AI 반도체 활용지원 사업도 새롭게 포함해 국산 AI 반도체 활용 기반을 넓힐 계획이다. 데이터센터 분야 역시 핵심 지원 축으로 반영됐다. NIPA는 올해 신규 사업으로 소형 데이터센터 기반 AI 산업 성장 지원을 추진하고 지속가능한 데이터센터 산업발전 지원 사업을 통해 산업 기반 확산과 안정적 운영 환경 조성에 나선다. SW 부문에서는 오픈소스를 핵심 축으로 삼아 산업 경쟁력을 강화한다는 목표다. NIPA는 오픈소스 AI·SW 개발·활용 지원 사업을 통해 AI 및 SW 개발 생태계를 확대하는 한편 신산업 분야 오픈소스 사업화 지원도 추진해 기술의 상용화 연결을 뒷받침한다. 또 기업의 SW 활용 기반을 높이기 위한 지원 과제들도 포함됐다. 서비스형 소프트웨어(SaaS) 개발·사업화 지원을 통해 SaaS 전문기업 육성을 추진하고 중소기업 등 클라우드서비스 보급확산 사업을 통해 기업들의 클라우드 전환과 서비스 도입을 지원할 계획이다. 글로벌 분야에서는 AICT 산업의 해외시장 선점을 위한 지원을 확대한다. NIPA는 글로벌 신시장 개척을 통해 AICT 수출을 확대하고 해외 진출 역량을 내재화하겠다는 방향을 제시했다. 이를 위한 주요 사업으로 ICT 비즈니스 파트너십, 글로벌 ICT 미래유니콘 육성, 디지털 혁신기업 글로벌 성장 바우처 지원 등을 내세웠다. 아울러 DNA 대중소 파트너십 동반진출, SW 신산업 글로벌 레퍼런스 확대지원, 글로벌 SaaS 마켓플레이스 지원 등도 추진해 국내 SW·AI 기업의 해외 레퍼런스 확보와 수출 확대를 지원할 예정이다. NIPA 측은 "정부 주도 첨단 AI 컴퓨팅 인프라 확충을 통해 대규모 AI 컴퓨팅 자원을 확보하고 국산 AI 반도체의 대규모 실증 인프라 확충과 판로개척을 추진하겠다"며 "글로벌 신시장 개척을 통해 AICT 수출을 확대하고 해외진출 역량 내재화도 지원하겠다"고 밝혔다.

2026.01.21 14:01한정호 기자

주가 40% 빠진 오라클…월가서 반등론 나오는 이유는

오라클 주가가 지난해 9월 중순 최고점을 찍은 후 최근 40% 이상 하락했지만 시장의 기대감은 오히려 다시 높아지고 있다. 인공지능(AI) 시장에 대한 기대 조정이 주가에 영향을 줬지만, 주요 투자은행들이 매출 기반과 고객 구조가 견조한 오라클의 중장기 성장성에 대한 평가를 유지하면서 주가도 재차 반등할 수 있다는 시각이 나온다.19일 업계에 따르면 오라클 주가는 지난 17일 191.09달러로 장을 마쳤다. 이는 52주 최고가(345.72달러)였던 지난해 9월 10일 대비 약 44.5% 정도 하락한 수치다. 이는 AI 투자 자금이 엔비디아를 중심으로 한 반도체·연산 인프라 기업과 오픈AI 관련 플랫폼 기업으로 집중된 반면, 오라클처럼 AI 인프라 투자가 비용으로 먼저 반영되는 기업들은 상대적으로 소외됐기 때문으로 풀이된다. 데이터센터 확장에 따른 감가상각과 자본지출 부담이 단기 실적 우려로 연결되며 주가 하락 압력을 키운 것도 영향이 컸다. 그러나 애널리스트들의 시각은 주가 흐름과 다소 결이 다르다. 최근 기준 오라클에 대해 '매수(Buy)' 의견을 유지하는 애널리스트 비중은 70%를 웃돌고 있다. UBS는 목표주가를 하향 조정하면서도 투자의견은 유지했고, 골드만삭스는 새롭게 오라클에 대한 커버리지를 개시하며 매수 의견을 제시했다. 애널리스트들은 이번 주가 하락을 실적 부진보다는 AI 기대 조정에 따른 밸류에이션 재조정으로 해석하고 있다. AI 인프라 투자 확대에 따라 단기적으로 수익성 압박이 불가피하지만, 매출 기반이나 고객 이탈 등 구조적인 훼손 신호는 제한적이라는 평가다. UBS는 "신용 및 자금조달 관련 우려는 이미 주가에 반영돼 있다"며 오라클의 중기 성장성에 대한 시각은 유지했다. 다만 리스크도 명확하다. 데이터센터와 GPU 확보를 위한 오라클의 대규모 투자가 이어지는 만큼, 투자 대비 수익화 시점이 지연될 경우 현금 흐름 부담이 커질 수 있다. 또 AWS와 마이크로소프트 애저, 구글 클라우드에 비해 개발자 생태계와 브랜드 인지도 측면에서 열세라는 점도 여전히 부담 요인으로 꼽힌다. 하지만 오라클이 완전히 시장에서 외면받지 않는 이유는 AI 인프라 시장에서의 포지션 때문이다. 오라클은 AI 모델 개발 기업이 아닌 대규모 연산을 안정적으로 처리할 수 있는 인프라를 제공하는 데 강점을 갖고 있다. 특히 대형 엔터프라이즈 고객을 중심으로 한 오라클 클라우드 인프라(OCI)는 고성능과 비용 효율성을 앞세워 수요를 확대하고 있다는 평가다. 시장에서는 데이터센터 투자를 단기적인 비용 부담으로 보는 시각이 우세하지만, 애널리스트들은 이를 장기 진입장벽으로 해석했다. 초대형 AI 데이터센터는 초기 투자비가 크지만 일단 가동되면 장기 계약을 통해 안정적인 매출로 이어질 가능성이 높다는 이유에서다. 여기에 데이터베이스와 전사적자원관리(ERP) 등 기존 사업에서의 높은 고객 락인 효과도 주가 하방을 지지하는 요소로 거론된다. 골드만삭스는 최근 오라클에 대한 커버리지를 개시하며 목표주가 240달러와 함께 투자의견 '매수'를 제시했다. 그러면서 "AI 도입 확산은 향후 10년간 소프트웨어 산업의 총주소가능시장(TAM, 특정 산업이 이론적으로 확보할 수 있는 최대 시장 규모)'을 확대할 것"이라며 "오라클은 클라우드 규모와 엔터프라이즈 고객 기반, 데이터센터 확장을 바탕으로 인프라서비스(IaaS) 시장에서 점유율을 높일 수 있는 유리한 위치에 있다"고 평가했다.

2026.01.19 16:41장유미 기자

NHN클라우드, 크래프톤 GPU 클러스터 사업 수주…운영 기술력 입증

NHN클라우드가 대규모 그래픽처리장치(GPU) 클러스터를 서비스형 GPU(GPUaaS)로 구축·운영하는 기술력과 역량을 입증했다. NHN클라우드는 크래프톤이 발주한 GPU 클러스터 사업 최종 사업자로 선정돼 계약을 체결하고 GPUaaS 기반 인프라를 제공한다고 19일 밝혔다. 이번 사업은 크래프톤이 지난해 10월 인공지능(AI) 퍼스트를 경영 핵심 전략으로 선언한 이후 AI 활용을 본격 확대하는 과정에서 증가하는 AI 연산 수요에 대응하기 위해 추진됐다. GPU 클러스터는 AI 플랫폼과 데이터 통합·자동화 기반 고도화 등 중장기 AI 전략을 안정적으로 실행하기 위한 핵심 기반으로, NHN클라우드가 제공하는 GPUaaS를 활용해 인프라를 유연하게 확장하고 운영 효율을 높이는 데 초점을 맞췄다. NHN클라우드는 이번 사업에서 대규모 GPU 클러스터를 제공함으로써 크래프톤의 AI 전략 실행을 뒷받침한다. NHN클라우드가 광주 국가 AI 센터를 자체 설계·구축하고 2021년부터 현재까지 GPUaaS 서비스를 안정적으로 제공해 온 기술력을 보유한 점과 수년간 다수 공공·민간 고객을 대상으로 AI 인프라 서비스를 운영해 온 경험이 이번 사업 파트너로 선정된 배경으로 꼽힌다. 또 고객 요구사항을 면밀히 분석해 함께 시스템을 설계·구축해 온 컨설팅 및 사업 수행 역량도 강점으로 작용했다. NHN클라우드는 이번 사업에서 엔비디아 최신 GPU인 블랙웰 울트라 1천여 장으로 구성된 GPU 팜을 멀티 클러스터 구조로 구성해 대규모 AI 연산 환경을 구축한다. 여기에 XDR-800G급 초고속 인피니밴드 네트워크를 적용해 GPU 간 대용량 데이터를 저지연·고속으로 전송할 수 있도록 설계한다. 이를 통해 여러 GPU를 동시에 사용하는 환경에서도 데이터 전송 지연을 최소화하고 고성능 GPU를 효과적으로 활용해 AI 모델 학습 속도를 높이는 한편 전반적인 AI 작업을 안정적으로 운영할 수 있도록 할 계획이다. NHN클라우드는 GPU 클러스터 구성 요소를 효율적으로 조합해 동일 예산 대비 실제 활용 가능한 GPU 연산 자원을 극대화했으며 장기적인 운영 효율까지 고려한 구조로 설계했다. 특히 GPU를 여러 작업이 함께 사용할 수 있도록 동적 관리 구조를 적용한다. 이를 통해 AI 개발·학습·추론 등 다양한 작업이 동시에 진행되더라도 GPU 자원을 필요에 따라 유연하게 나눠 쓰고 조정할 수 있어 유휴 자원을 최소화하고 전체 클러스터 활용 효율을 높일 계획이다. 이같은 GPU 리소스 동적 관리 방식은 소규모 AI 개발 환경부터 대규모언어모델(LLM) 학습까지 AI 작업 규모와 특성에 맞춰 GPU 활용도를 탄력적으로 조정할 수 있다. 아울러 NHN클라우드는 맞춤형 GPUaaS로 AI 개발과 운영 전반에 유연한 환경을 제공한다. 대규모 AI 학습과 연산 특성에 맞춰 쿠버네티스와 고성능 컴퓨팅(HPC) 환경에 적합한 슬럼 기반 자원 관리 솔루션을 적용해 다양한 AI 작업이 동시에 진행되는 환경에서도 안정적인 운영이 가능하다. 이에 더해 다양한 AI 개발 도구와 외부 시스템을 연동할 수 있는 구조를 갖춰 AI 서비스 개발 속도와 전반적인 업무 효율을 함께 높일 수 있도록 지원할 계획이다. 이번 블랙웰 울트라 GPU 인프라는 NHN클라우드 판교 NCC 센터에 구축된다. 판교 NCC는 고집적 연산을 원활히 운영할 수 있는 전력·냉각 인프라와 우수한 네트워크 연결성을 갖춰 대규모 AI 워크로드 처리에 적합한 시설이다. 해당 인프라는 오는 7월 중 구축을 완료하고 본격 가동될 예정이다. 크래프톤 관계자는 "AI 퍼스트 전략을 추진하는 과정에서 GPU 클러스터는 전사 AI 운영 핵심 기반"이라며 "NHN클라우드의 우수한 GPUaaS 서비스를 통해 AI 연구와 서비스 전반의 확장성과 효율성을 강화할 수 있을 것으로 기대한다"고 말했다. NHN클라우드 관계자는 "이번 프로젝트는 대규모 GPU 클러스터를 GPUaaS 형태로 구축·운영할 수 있는 우리 기술력과 운영 역량을 입증한 사례"라며 "7월 가동을 시작으로 크래프톤의 AI 퍼스트 전략을 실질적으로 뒷받침할 수 있도록 안정적인 클러스터 제공과 운영 기술 지원에 집중하겠다"고 밝혔다.

2026.01.19 10:51한정호 기자

QAI, '상업용 양자-AI 하이브리드' 서비스 시작

큐에이아이(대표 임세만, 이하 QAI)가 '상업용 양자-AI 하이브리드 데이터센터' 첫 번째 상용 서비스 분야로 '바이오 신약 개발'을 선정, 시장 공략에 본격 나선다. QAI는 바이오엔시스템스와 전략적 파트너십을 체결하고 자사의 양자-AI 하이브리드 인프라에 바이오엔시스템스 AI 신약 분석 플랫폼을 탑재한다고 19일 밝혔다. 양사는 이번 협력을 통해 기존 컴퓨팅 환경의 한계를 넘어선 고효율의 신약 개발 환경을 구현하고, 양자 컴퓨팅 기술의 실질적인 산업적 가치를 입증하겠다는 계획이다. 검증된 바이오 데이터, 'KREO SC-20'과 '큐브스택' 인프라 위에서 초고속 구현 QAI가 이번 서비스 구현을 위해 구축한 핵심 인프라는 20큐비트 초전도체 양자 컴퓨터 'KREO SC-20'과 이를 제어하는 초저지연 하이브리드 퀀텀 클라우드 솔루션 '큐브스택'이다. QAI는 이 강력한 하드웨어 및 솔루션 기반 위에 바이오엔시스템스의 AI 신약 분석 플랫폼 'AISPA(AI-Supported Protein Analytix)'를 연동한다. AISPA는 바이오엔시스템스가 15년 이상 축적한 100종 이상의 항체 데이터와 수십만 건의 시료 분석 경험이 집약된 플랫폼이다. QAI는 이 플랫폼에 양자 컴퓨팅 특유의 병렬 처리 기술을 접목한다. 단백질의 물리화학적 특성을 해석하는 과정에서 발생하는 방대한 연산 시나리오를 QAI의 하이브리드 시스템으로 처리, 분석의 정밀도를 유지하면서도 결과 도출 속도를 단축시킬 수 있게 됐다. '분석'에서 '설계'까지… 하반기 AI 설계 플랫폼 '짝' 서비스 확대 양사는 이번 파트너십을 계기로 단순 분석 지원을 넘어 신약 '설계' 영역으로 기술 협력을 확대한다. 이를 위해 올 하반기 중 AI 바이오 의약품 설계 플랫폼인 '짝'의 고도화를 완료하고 서비스를 시작한다는 계획이다. 짝은 바이오엔시스템스가 AIaaS 전문 기업 데브크라와 전략적 파트너십을 체결하고 공동 개발한 플랫폼이다. 특정 항원 정보만으로 최적의 결합 물질을 찾아내는 '드 노보 합성' 기술을 기반으로 한다. 기존의 대조 방식과 달리 AI가 타겟에 최적화된 물질을 직접 설계하는 혁신적인 방식이다. QAI의 인프라 환경에서 구동될 이 서비스는 분리·정제 공정 최적화 물질 설계부터 정밀 분석 도구 설계까지 지원한다. 고객사가 별도의 고가 장비 없이도 최첨단 양자 AI 기술을 활용할 수 있도록 접근성을 높일 예정이다. 이를 통해 바이오엔시스템스는 후보물질 발굴부터 분석에 이르는 전 과정을 아우르는 'CRADO(Contract Research Analysis and Development Organization)' 비즈니스 모델을 구체화할 방침이다. 서정근 바이오엔시스템스 대표는 "당사가 보유한 고품질의 바이오 데이터가 QAI의 양자 컴퓨팅 기술과 결합함으로써 신약 개발의 패러다임을 바꿀 혁신적인 모멘텀을 마련했다"며 "양자-AI 하이브리드 솔루션을 통해 분석의 정밀도를 극대화하고 고객사에 신약 설계의 효율성을 제공하는 글로벌 디스커버리 플랫폼 기업으로 거듭날 것"이라고 말했다. 임세만 QAI 대표는 “국내 기술로 구축된 양자-AI 하이브리드 인프라가 바이오엔시스템스의 독보적인 데이터와 만나 바이오 산업의 기술적 수준을 한 단계 끌어올리는 기폭제가 될 것”이라며 “앞으로도 다양한 산업군과의 협력을 통해 퀀텀 AI가 비즈니스의 병목 현상을 해결하는 핵심 인프라로 자리 잡도록 노력하겠다”고 밝혔다.

2026.01.19 10:01백봉삼 기자

오픈AI, 세레브라스와 14조원 규모 컴퓨팅 계약…"엔비디아 의존 낮춘다"

오픈AI가 차세대 인공지능(AI) 서비스 경쟁력 강화를 위해 대규모 컴퓨팅 인프라 확충에 나섰다. 반도체 스타트업 세레브라스와 수십억 달러 규모 장기 계약을 체결하며 AI 추론 속도와 서비스 확장성을 동시에 끌어올린다는 전략이다. 15일 블룸버그통신에 따르면 오픈AI는 세레브라스와 다년간 협력 계약을 체결하고 총 750메가와트(MW) 규모 컴퓨팅 파워를 공급받기로 했다. 해당 인프라는 단계적으로 구축되며 완공 목표 시점은 2028년이다. 계약 규모는 100억 달러(약 14조원)를 웃도는 것으로 알려졌다. 이번 계약은 오픈AI가 챗GPT 등 자사 AI 모델 응답 속도를 개선하려는 조치로 풀이된다. 양사는 공동 성명을 통해 세레브라스 인프라가 오픈AI 모델 실행 시 지연 시간을 줄이고 대규모 사용자 유입에 대비한 안정적인 서비스 운영을 가능하게 할 것이라고 밝혔다. 세레브라스는 초대형 단일 칩을 기반으로 한 독자적 반도체 아키텍처를 앞세워 엔비디아 중심 그래픽처리장치(GPU) 시장에 도전하고 있는 기업이다. 데이터센터 운영까지 직접 수행하며 AI 추론 분야 경쟁력을 강조해 왔다. 협약 배경에 대해 오픈AI는 'GPT-OSS-120B' 모델 테스트에서 세레브라스 시스템이 기존 하드웨어 대비 최대 15배 빠른 성능을 보였다고 설명했다. 오픈AI의 대규모 인프라 투자는 이번이 처음이 아니다. 엔비디아는 지난해 오픈AI에 최대 1천억 달러(약 146조원)를 투자해 10기가와트(GW)급 데이터센터 구축을 추진하겠다고 밝혔으며 AMD 역시 수년간 6GW 규모 GPU를 공급하기로 했다. 이와 별도로 오픈AI는 브로드컴과 자체 AI 칩 개발도 진행 중이다. 업계에서는 이번 계약을 오픈AI가 컴퓨팅 포트폴리오를 다각화하는 전략의 일환으로 보고 있다. 오픈AI는 특정 하드웨어에 대한 의존도를 낮추고 워크로드 특성에 맞는 최적의 시스템을 조합해 AI 서비스 확장성을 높인다는 목표다. 오픈AI 사친 카티 컴퓨팅 인프라 담당은 "세레브라스는 우리 플랫폼에 저지연 추론 솔루션을 더해 더 빠른 응답과 자연스러운 상호작용을 가능케 한다"며 "더 많은 사람에게 실시간 AI를 확장할 수 있는 기반을 제공할 것"이라고 밝혔다.

2026.01.15 11:29한정호 기자

퓨리오사AI, 망고부스트와 맞손...AI 데이터센터 공략 가속화

AI 반도체 기업 퓨리오사AI와 망고부스트가 차세대 AI 데이터센터 시장 공략을 위해 손을 잡았다. 퓨리오사AI는 망고부스트와 차세대 AI 인프라 기술 공동 개발을 위한 업무협약(MOU)을 체결했다고 15일 밝혔다. 양사는 이번 협약을 통해 인공지능 및 데이터센터 인프라 분야에서 상호 협력 체계를 구축하고, 기술 교류를 통해 데이터센터 시장에서의 경쟁력을 강화한다는 방침이다. 전 세계 기업들이 본격적으로 인공지능 인프라 구축을 통한 인공지능 전환(AX)에 나서고 있는 가운데 GPU의 높은 전력소비는 인공지능의 빠른 확산에 병목으로 작용하고 있다. 이에 실제 인공지능 서비스 환경이 요구하는 성능을 높은 효율로 구현할 수 있는 반도체 솔루션에 대한 시장 수요가 나날이 폭증하고 있다. 고효율 반도체는 인프라 전성비를 개선시킬 뿐 아니라 냉각 설비, 부지 선정 등 제약요건을 완화시키는 만큼 인프라 구축 시점을 단축시키고 인공지능 전환을 가속화한다. 퓨리오사AI는 AI 연산에 특화된 독자적인 칩 아키텍처 텐서 축약 프로세서(TCP)와 소프트웨어 스택 기술을 보유중이며, HBM을 탑재한 2세대 칩 RNGD(레니게이드) 양산을 이달 말 앞두고 있다. 망고부스트는 고성능 네트워킹에 특화된 DPU(데이터처리장치)및 AI 시스템 성능 최적화 기술을 보유 중이며, 이달 초 400GbE 급 성능을 가진 BoostX DPU 제품군의 양산을 시작했다. 세계적으로 기술력을 인정받은 딥테크 기업간의 협력이라는 점에서 세계적으로 대두되고 있는 인공지능 병목을 해소할 수 있을지 결과가 주목된다. 백준호 퓨리오사AI 대표는 “차세대 AI 데이터센터의 경쟁력은 고성능 AI 반도체와 네트워킹 칩을 얼마나 긴밀하고 효율적으로 결합하느냐에 달려 있다"며 "퓨리오사AI는 망고부스트와의 협력을 통해 대한민국 AI 인프라 기술의 새로운 가능성을 보여주겠다”라고 말했다. 김장우 망고부스트 대표는 “이번 협약은 대한민국을 대표하는 AI 반도체 스타트업 간의 전략적 결합이라는 점에서 의미가 크다”며 “양사의 혁신 기술을 결합해 효율적이고 지속가능한 차세대 데이터센터의 표준을 제시하겠다”고 밝혔다.

2026.01.15 10:19전화평 기자

MS "AI 데이터센터 전기료, 소비자에 전가 안 한다"…지역사회 우선 내세워

인공지능(AI) 데이터센터 확산으로 '전기 먹는 하마' 논란이 거세지는 가운데, 마이크로소프트(MS)가 전력 비용을 소비자에게 전가하지 않겠다는 지역사회 우선 운영 원칙을 내걸며 여론 달래기에 나섰다. 데이터센터 전력 수요가 가정용 전기요금 인상으로 이어질 수 있다는 우려가 커지자, 빅테크가 비용을 직접 부담해야 한다는 압박이 본격화되는 분위기다. 14일 월스트리트저널(WSJ)에 따르면 MS는 미국 내 자사 AI 데이터센터가 사용하는 전력 비용이 일반 소비자 요금으로 넘어가지 않도록 전력회사와 공공위원회에 충분히 높은 요금 책정을 요구하겠다고 밝혔다. MS는 데이터센터 전력 비용이 지역 전기요금 인상으로 이어진다는 반발을 의식해 기업용 요금 체계 개편을 통해 주민 부담을 원천 차단하겠다는 입장이다. 브래드 스미스 MS 사장은 미국 위스콘신주가 초대형 전력 소비 기업에 높은 비용을 청구하는 새로운 요금체계를 마련한 점을 벤치마킹 모델로 제시하며 다른 주에서도 유사 정책이 도입될 수 있도록 추진하겠다고 설명했다. 전력 이슈뿐 아니라 환경 부담 완화도 함께 꺼냈다. 데이터센터 냉각 과정에서 쓰이는 물 사용량을 최소화하고 취수량보다 더 많은 물을 지역사회에 보충하겠다는 약속이다. 이와 함께 지역 일자리 창출, 지방세 인하 요구 중단, AI 교육 및 비영리단체 지원 강화 등도 공약으로 내걸었다. 이번 조치는 데이터센터 확산이 미국 내 정치·사회적 쟁점으로 부상한 흐름과 맞물려 있다. 지난 1년간 미국 내에서는 데이터센터에 대한 지역 반발이 거세진 상황이다. 데이터센터는 생성형 AI 모델을 학습·운영하는 핵심 인프라지만, 막대한 전력 소비로 전력망 부담과 요금 상승 우려를 키우는 시설로 평가된다. 이 때문에 미국 곳곳에서 데이터센터 건립 반대 움직임이 확산되고 있으며 일부 프로젝트는 지역 반발로 지연되거나 중단되는 사례도 이어지고 있다. 도널드 트럼프 미국 대통령도 빅테크의 비용 부담 필요성을 전면에 내세우고 있다. 트럼프 대통령은 SNS를 통해 MS의 전기료 부담 방침을 "미국인이 전력 소비 부담을 떠안지 않도록 하는 조치"라고 평가하며 다른 기업을 향해서도 유사한 대응을 예고했다. 업계 전반으로도 전력 비용과 지역사회 부담을 완화하려는 흐름이 확산하는 모습이다. 앞서 메타는 원전기업들과 대규모 전력 공급 계약을 발표하며 데이터센터 에너지 비용을 전액 부담해 소비자 부담을 줄이겠다는 취지의 입장을 밝힌 바 있다. 브래드 스미스 MS 사장은 "데이터센터가 소모하는 전력 비용을 충당할 수 있을 정도로 높은 요금을 전력 업체와 이를 승인하는 공공위원회가 책정할 수 있도록 요청하겠다"고 강조했다.

2026.01.14 15:37한정호 기자

HPE "AI 네이티브 전환 확산…인프라 경쟁력 기준 달라진다"

인공지능(AI)이 데이터센터와 네트워킹 인프라의 설계·운영 방식 전반을 재편하면서 향후 인프라 경쟁력 기준 역시 근본적으로 달라질 것이란 전망이 나왔다. AI를 중심으로 한 자동화·자율화 흐름이 본격화되며 데이터센터는 물론 네트워크 운영과 인력 역할까지 구조적 전환이 불가피하다는 분석이다. 13일 HPE가 발표한 올해 데이터센터 및 네트워킹 인프라 분야 주요 전망에 따르면 데이터센터와 네트워킹 인프라는 올해를 기점으로 AI 네이티브 구조로 빠르게 전환될 것으로 전망된다. 워크로드 배치, 장애 예측, 성능 최적화는 물론 에너지 효율 관리와 전력 비용 협상까지 AI가 지원하는 폐쇄형 루프 운영 모델이 확산되며 수동 개입 중심 기존 운영 방식은 점차 한계를 드러낼 것으로 예상된다. 특히 데이터센터 영역에서는 엣지와 AI 결합이 가속화되면서 마이크로 하이퍼스케일러가 새로운 인프라 모델로 부상할 것으로 전망했다. 고속 이더넷과 AI 추론 가속기, 자율 운영 기술을 기반으로 한 소규모 데이터센터가 지역 단위에서 중앙 클라우드 워크로드를 분산 처리하며 엣지는 단순한 보조 인프라를 넘어 전략적 수익 창출 거점으로 역할이 확대될 것으로 분석했다. 네트워크 구조 역시 AI 학습과 추론에 최적화된 방향으로 재편될 것으로 보인다. HPE는 올해 이후 데이터센터 설계 출발점이 컴퓨트가 아닌 네트워크 패브릭이 될 것으로 내다봤다. 조 단위 파라미터 모델 확산과 함께 개방형 고성능 이더넷 기반 AI 패브릭 수요가 증가하면서 네트워크는 애플리케이션을 인지하고 실시간으로 적응하는 지능형 구조로 진화할 것이란 전망이다. 이더넷 자율화도 주요 변화로 꼽혔다. AI 텔레메트리를 내장한 스위치 ASIC을 통해 혼잡 제어와 전력 효율 최적화가 자동으로 이뤄지고 의도 기반 네트워킹은 패브릭 스스로 학습·예측·교정하는 형태로 구현될 것이란 설명이다. 이에 따라 복잡한 CLI 중심의 네트워크 운영 방식은 점차 사라질 것으로 예상했다. 보안 역시 네트워크 패브릭의 기본 요소로 내재화될 것으로 전망했다. 모든 패킷과 포트, 프로세스에 신뢰 점수를 부여하고 분산형 AI 엔진이 이를 실시간 검증하는 구조가 확산되면서 제로 트러스트 데이터센터가 기본 설계 기준으로 자리 잡을 것이란 분석이다. 무선 네트워크 분야에서는 AI 운영관리(Ops)가 핵심 운영 요소로 부상할 것으로 보인다. HPE는 복잡해진 무선 환경에서 AI 기반 운영 없이는 안정적인 네트워크 품질 유지가 어려워질 것으로 내다봤다. AI가 혼잡을 예측하고 RF 동작과 채널 구성을 자동 최적화하면서 기존 수동 튜닝 중심 운영 방식은 점차 사라질 것이란 설명이다. HPE는 에이전틱 AI를 기반으로 한 LAN의 역할 변화도 주목했다. LAN은 단순히 장애를 복구하는 수준을 넘어 사용자 경험을 사전에 예측하고 선제적으로 최적화하는 경험 엔진으로 진화한다는 전망이다. 스위치와 액세스 포인트에 내장된 AI 에이전트가 사용자 행동과 서비스 수요를 분석해 성능 저하를 체감하기 전에 문제를 해결하는 구조가 확산될 것으로 분석했다. 이와 함께 유선·무선·WAN을 넘어 컴퓨트와 스토리지를 아우르는 풀스택 통합 운영이 기본값으로 자리 잡을 것이라고 밝혔다. 기업들은 단일 운영 프레임워크와 공통 AI 거버넌스 하에서 전체 인프라를 관리할 수 있는 환경을 요구하게 되며 경쟁력 기준도 개별 제품 성능이 아닌 통합된 시스템 완성도로 이동할 것이란 전망이다. 인력 측면에서도 변화가 예상된다. HPE는 네트워크 엔지니어 역할이 단순 설정·운영 중심에서 AI 코파일럿과 협업하는 전략적 역할로 진화할 것으로 내다봤다. 생성형 AI가 1차 운영과 장애 대응을 담당하면서 엔지니어는 대규모 자동화를 설계·검증하고 AI를 오케스트레이션하는 역할에 집중하게 될 것이란 설명이다. HPE는 "올해 데이터센터와 네트워킹 인프라는 개별 기술의 집합이 아닌, AI를 중심으로 단일 유기체처럼 동작하는 구조로 진화할 것"이라며 "성공적인 기업은 풀스택 인프라를 단일한 경험으로 제공할 수 있는 전략을 선택하게 될 것"이라고 강조했다.

2026.01.13 15:14한정호 기자

"AI 확산에 데이터센터 투자, 2030년까지 3조 달러 몰린다"

인공지능(AI)과 클라우드 확산으로 글로벌 데이터센터 산업에 향후 수년간 천문학적인 자금이 투입될 전망이다. 서버와 전산 장비는 물론 데이터센터 시설, 전력 인프라까지 대규모 투자가 불가피하다는 분석이 나왔다. 13일 신용평가기관 무디스에 따르면 전 세계 데이터센터 관련 투자 규모는 2030년까지 최소 3조 달러(약 4천411조원)에 이를 것으로 예상된다. 무디스는 최근 보고서를 통해 AI와 클라우드 컴퓨팅 수요 확대를 뒷받침하기 위해 서버, 컴퓨팅 장비, 데이터센터 시설, 신규 전력 설비 전반에 걸쳐 막대한 자본 투입이 필요하다고 밝혔다. 투자 자금 상당 부분은 빅테크 기업들이 직접 부담할 것으로 전망된다. 무디스는 마이크로소프트(MS)·아마존·알파벳·오라클·메타·코어위브 등 미국 내 6개 하이퍼스케일러가 올해 데이터센터 투자에만 약 5천억 달러(약 735조원)를 집행할 것으로 내다봤다. 데이터센터 용량 확장이 지속되는 가운데 이를 운영하기 위한 전력 수요 역시 빠르게 증가하고 있다는 설명이다. 자금 조달 측면에서는 은행권의 역할이 여전히 핵심을 차지하는 한편, 대규모 자본 수요에 대응해 기관투자가들의 참여도 확대될 것으로 분석됐다. 향후 은행과 함께 다른 기관투자가들이 공동으로 금융을 제공하는 사례가 늘어날 것이라는 전망이다. 또 무디스는 미국 내 데이터센터들이 차환 시점에 자산유동화증권(ABS), 상업용 부동산담보부증권(CMBS), 프라이빗 크레딧 시장을 보다 적극적으로 활용할 가능성이 높다고 봤다. 올해 기록적인 자금 발행 이후 신규 금융 규모와 집중도가 더 커질 것으로 예상됐다. 실제 미국 ABS 시장에서는 지난해 약 150억 달러(약 22조원)가 발행된 만큼, 데이터센터 건설 대출을 중심으로 올해 발행 규모가 크게 증가할 것으로 전망했다. AI 확산을 뒷받침하기 위해 필요한 막대한 부채 규모를 두고 일각에서는 거품 우려도 제기되고 있다. 일부 기술이 기대에 못 미칠 경우 주식 및 신용 투자자들에게 부정적인 영향을 미칠 수 있다는 지적이다. 다만 무디스는 신규 데이터센터 건설 수요가 둔화될 조짐은 보이지 않는다고 평가했다. 무디스는 데이터센터 증설 경쟁이 아직 초기 단계에 있으며 향후 12~18개월 동안 글로벌 시장에서 성장세가 이어질 것으로 내다봤다. 장기적으로는 향후 10년 내 필요한 용량을 확보하기 위한 투자가 지속될 것이라는 분석이다. 무디스 존 메디나 수석 부사장은 "불과 3년 전만 해도 존재하지 않았던 챗GPT와 같은 서비스가 이제는 막대한 연산 자원을 사용하고 있다"며 "신기술 등장 속도가 빨라 향후 채택 속도를 정확히 예측하기는 어렵지만, 데이터센터 용량 증설은 결국 필요해질 것"이라고 말했다.

2026.01.13 11:20한정호 기자

몬드리안에이아이, '네오클라우드' 사업 출사표…포스트매스와 AI 에듀테크 고도화

몬드리안에이아이가 글로벌 인공지능(AI) 시장 새 패러다임인 '네오클라우드' 사업에 본격 나섰다. 몬드리안에이아이는 포스트매스와 손잡고 AI 에듀테크 플랫폼 고도화를 위한 전략적 파트너십을 체결했다고 12일 밝혔다. 몬드리안에이아이는 이번 파트너십을 통해 최신 엔비디아 그래픽처리장치(GPU)인 B300 클러스터를 구축하고 이를 기반으로 한 차세대 네오클라우드 서비스를 선보인다. 네오클라우드는 기존 범용 퍼블릭 클라우드와 달리, 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스다. 몬드리안에이아이는 자사 AI 플랫폼 '런유어 AI'와 첨단 GPU 자산을 결합해 포스트매스와 같은 딥테크 기업이 인프라 제약 없이 혁신을 주도하도록 지원하는 네오클라우드 서비스 공급자로서 입지를 공고히 할 계획이다. 몬드리안에이아이 네오클라우드 인프라는 포스트매스가 추진하는 AI 기반 에듀테크 플랫폼 고도화를 뒷받침하는 핵심 엔진 역할을 수행할 전망이다. 포스트매스는 몬드리안에이아이 B300 인프라를 활용해 자체 AI 모델 개발과 400만 개 이상 데이터베이스(DB)를 활용한 AI 학습·자동화 솔루션 개발에 적용할 예정이다. 이는 포스트매스가 첨단 AI 인프라 확보를 통해 교육 솔루션 완전 자동화와 글로벌 확장을 앞당기고자 하는 적극적 투자 전략이다. 몬드리안에이아이는 네오클라우드 사업 핵심인 매니지드 서비스 역량을 집중 투입한다. B300 하이엔드 GPU 운영에 필수적인 고밀도 전력 및 냉각 시스템, 머신러닝 운영관리(MLOps) 기술력을 바탕으로 포스트매스 연구진이 인프라 관리 부담 없이 AI 모델 연구와 서비스 혁신에만 몰입할 수 있는 환경을 제공한다는 방침이다. 이와 함께 몬드리안에이아이는 고성능 인프라 확보와 안정적인 운영 환경 구축에 어려움을 겪는 기업 및 연구기관을 대상으로 AI 인프라 전략 컨설팅을 상시 운영한다. 차세대 추론형 AI 모델 개발을 위해 고성능 연산 자원이 필요한 고객사를 대상으로 전문 매니지드 서비스를 제공해 인프라 구축부터 최적화까지 원스톱 솔루션을 지원할 계획이다. 홍대의 몬드리안에이아이 대표는 "이번 협력은 우리가 표방하는 네오클라우드 비즈니스의 본격적인 출발점"이라며 "포스트매스가 주도하는 에듀테크 플랫폼 솔루션 혁명이 성공적으로 안착할 수 있도록 독보적인 인프라 기술력을 총동원하겠다"고 밝혔다. 최준호 포스트매스 대표는 "올해는 우리가 운영하는 AI 콘텐츠 제작 플랫폼 '수학비서'가 글로벌 에듀테크 플랫폼으로 약진하는 시발점이 될 것이기에 그 어느 때보다 AI 인프라가 중요한 시점"이라며 "몬드리안에이아이와의 파트너십이 좋은 선례가 될 것으로 기대하며 상호 보완 및 협력 사업 발굴에 적극 임할 것"이라고 말했다.

2026.01.12 17:00한정호 기자

이노그리드, 전국 6개 권역 지사 체계 전환…지역 클라우드 대응 강화

이노그리드가 지방 고객 확대와 지역별 클라우드 서비스 수요 증가에 박차를 가한다. 이노그리드는 전국 6개 권역 기반 지사 운영 체계로 전환하고 영업·기술지원 역량 강화를 중심으로 한 영업 확장 전략을 본격 추진한다고 12일 밝혔다. 이번 지사 체계 전환은 기존 수도권 중심 단일 운영 구조에서 벗어나 권역별 고객 대응 프로세스를 고도화하고 지역 특성에 맞춘 영업 전략을 단계적으로 확대해 전국 단위 B2B 고객 지원 역량을 강화하려는 조치다. 이노그리드는 이번 지사 체계 전환에 앞서 대표 직속 조직을 폐지하고 개발·사업·수행·BD·전략·경영 등 6개 그룹 체계로 조직을 재편하는 전사 조직개편을 단행했다. 각 그룹장 책임 아래 기능별 전문성과 의사결정, 실행력을 강화해 회사 전반의 사업 수행 효율과 운영 안정성을 높였다는 설명이다. 이같은 조직개편을 바탕으로 이노그리드는 전국을 ▲서울·강원 ▲인천·경기 ▲충청 ▲호남 ▲영남 ▲대구·경북 등 6개 권역으로 구분해 운영한다. 서울·강원과 인천·경기 권역은 기존과 같이 서울 본사를 중심으로 통합 대응하고 충청권에는 대전지사, 호남권에는 광주지사, 영남권에는 부산지사, 대구·경북 권역에는 대구지사를 운영한다. 이를 통해 전국 6개 권역, 4개 지사 기반의 전국 단위 클라우드 서비스 네트워크를 가동한다. 각 지사는 단순 영업 거점이 아닌 클라우드, 인공지능(AI) 인프라 구축, 재해복구(DR) 시스템 구축, 외산 솔루션 윈백, 전환 컨설팅, 서비스 운영 및 기술지원 등 클라우드 전문기업 역할을 수행하게 된다. 또 지역 내 공공기관 및 기업 고객을 대상으로 영업 활동과 지역별 특성·수요를 반영한 맞춤형 서비스를 제공한다. 지사 체계는 박홍선 상무가 총괄한다. 박홍선 리전 익스펜션 사업본부장은 "이번 지사 체계 전환은 우리 핵심 역량인 클라우드 기술력을 전국으로 확산하고 지역별 고객들에게 보다 신속하고 차별화된 고품질 서비스를 제공하기 위한 전략적 결정"이라며 "각 권역에서 영업과 기술지원이 유기적으로 협력해 고객과 거리를 좁히고 지역 현장에서 체감할 수 있는 실질적인 서비스 경쟁력을 지속 강화해 나가겠다"고 밝혔다. 또 이노그리드는 지사 운영과 연계해 지역 기반 기술 인력 확보에도 나선다. 지역 우수 IT 인재 채용을 통해 수도권 중심 인력 구조에서 벗어나고 본사와 지사 간 협업 체계를 강화해 분산된 환경에서도 안정적인 프로젝트 수행과 기술지원이 가능케 할 계획이다. 아울러 지사 설립을 계기로 지역 IT 기업들과 협력도 강화한다. 클라우드 기술력과 지역 IT 기업의 인프라 및 시장 이해도를 결합해 지역별 산업 특성에 최적화된 맞춤형 디지털 전환 모델을 공동 개발하고 판로 개척을 지원하는 등 동반 성장을 추진할 방침이다. 김명진 이노그리드 대표는 "이번 지사 체계 전환은 올해 AI 시대를 주도하는 클라우드 솔루션 기업으로 도약하기 위한 사업 확산의 초석으로, 전국 6개 권역을 중심으로 고객 접점을 촘촘히 넓히고 지역 특화 파트너와 협업을 제도화해 전국 단위 파트너사 체계를 확립하겠다"고 말했다. 이어 "기술과 실행으로 고객 가치를 높이고 지역과 함께 성장하는 디지털 전환 생태계를 만들어 가겠다"고 덧붙였다.

2026.01.12 11:36한정호 기자

생성형 AI, 수업·행정 효율 돕지만…가트너 "관리 역량 부족"

전 세계 교육 기관이 생성형 인공지능(AI)을 수업 준비와 행정 업무 효율화에 활용하고 있지만 기술 공정성과 활용 범위에 대한 기준과 거버넌스는 여전히 부족하다는 분석이 나왔다. 11일 가트너가 공개한 트렌드 보고서에 따르면 각국 초·중·고 학교에는 AI 기술 도입 속도와 이를 관리하는 체계 사이에 뚜렷한 격차가 존재하는 것으로 나타났다. 가트너는 교육기관 내 AI 확산이 오히려 관리와 기준 공백을 키우고 있다고 진단했다. 이에 따라 교육 기술 경쟁 초점도 단순한 도입을 넘어 거버넌스와 통합 운영으로 이동하고 있다는 분석이다. 보고서는 생성형 AI가 수업 준비와 행정 업무 전반에 빠르게 적용되고 있는 반면, 학생 데이터 보호를 비롯해 기술 공정성, 활용 범위에 대한 명확한 기준과 관리 체계는 여전히 미흡하다고 지적했다. 특히 학생 개인정보와 학습 기록, 행동 데이터가 AI 시스템과 연결되면서 실시간 모니터링, 제로 트러스트 보안, 사이버 위협 대응 역량이 충분히 뒷받침되지 않고 있다는 평가가 나왔다. 가트너는 코로나 시기 대규모로 도입된 노트북, 태블릿, 네트워크 장비가 노후화 단계에 접어든 점도 주요 배경으로 봤다. 이에 단기적인 기기 교체가 아닌 장기 기술 교체와 클라우드 전환이 학교 운영 핵심 과제가 될 것이라고 전망했다. 또 학교 선택제 확대와 홈스쿨링 증가로 학습 모델이 다변화되면서, 학생 이동, 등록, 학습 이력을 통합 분석하는 상호운용 플랫폼에 대한 수요도 함께 커지고 있다고 분석했다. 가트너는 "각국 학교는 AI와 보안, 디지털 인프라를 개별 과제가 아닌 통합 전략으로 다뤄야 한다"며 "효율성과 규제, 학생 보호를 동시에 충족하는 구조로 전환해야 한다"고 밝혔다.

2026.01.11 15:00김미정 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

엔비디아·오픈AI 파트너 英 엔스케일, 20억 달러 투자 추진…IPO 수순 밟나

엔비디아의 지원을 받는 영국 인공지능(AI) 데이터센터 기업 엔스케일이 대규모 신규 투자 유치에 나설 가능성이 제기됐다. AI 인프라 투자 열기가 이어지는 가운데 '네오클라우드'로 불리는 신흥 AI 하이퍼스케일러들의 몸값과 사업 지속성에 이목이 쏠리고 있다. 9일 블룸버그통신에 따르면 엔스케일은 약 20억 달러(약 2조9천억원) 규모 자금 조달을 목표로 투자자들과 논의를 진행 중이다. 이는 두 차례에 걸쳐 15억 달러(약 2조1천800억원) 이상을 조달한 지 불과 석 달여 만이다. 이번 잠재적 투자 유치를 위해 골드만삭스와 JP모건체이스와 협력 중인 것으로 알려졌다. 다만 논의는 초기 단계로, 최종적으로 거래가 성사되지 않을 가능성도 배제할 수 없다고 소식통들은 전했다. 엔스케일은 2024년 암호화폐 채굴 사업을 시작으로 현재는 고성능 AI 반도체를 클라우드형 서비스로 제공하는 네오클라우드 사업자 중 하나다. 엔스케일은 엔비디아, 오픈AI와의 파트너십을 기반으로 유럽 내 AI 인프라 수요를 흡수하며 빠르게 성장해왔다. 최근 포르투갈에서 마이크로소프트(MS) 및 현지 파트너와 함께 100억 달러(약 14조원)를 투입해 데이터센터를 구축 중이다. 노르웨이와 영국에서도 엔스케일 데이터센터 자원을 임대할 계획이다. 앞서 엔스케일은 지난해 9월과 10월 각각 11억 달러(약 1조6천억원), 4억3천300만 달러(약 6천299억원) 규모 투자를 유치했다. 특히 9월 라운드 투자는 유럽 역사상 최대 규모 시리즈B 투자로 기록됐으며 엔비디아를 비롯해 델·노키아·피델리티·블루아울·포인트72 등이 투자자로 참여했다. 경영진 보강도 눈에 띈다. 엔스케일은 최근 팔란티어 출신의 로런 허위츠를 최고운영책임자(COO)로 영입했고 지난달에는 JP모건에서 20년 이상 근무한 앨리스 타흐타잔을 최고재무책임자(CFO)로, 마이크로소프트 애저 AI·HPC 인프라 부문 임원을 지낸 니디 차펠을 AI 인프라 부문 사장으로 선임했다. 일부 투자자들은 이같은 인사 행보를 향후 기업공개(IPO)를 염두에 둔 포석으로 보고 있다. 최근 네오클라우드 기업들의 주가는 변동성이 확대되는 양상이다. 코어위브는 지난해 3월 상장 이후 주가가 고점 대비 조정받았지만, 현재도 공모가 대비 두 배 수준에서 거래 중이다. 네비우스 그룹은 대형 파트너십을 바탕으로 지난 1년간 주가가 세 배 이상 상승했다. 사안에 정통한 소식통은 "엔스케일은 엔비디아 및 오픈AI와의 협력을 무기로 유럽 내 AI 인프라 수요를 선점하고 있지만, 이번 투자 유치는 시장 상황과 기업가치를 둘러싼 투자자들의 판단에 따라 최종 결정이 내려질 것"이라고 밝혔다.

2026.01.09 11:23한정호 기자

케이투스, 유럽서 AI 데이터센터 턴키 모델 검증…"韓에도 유효"

케이투스가 통합 턴키 서비스를 통해 대규모 수냉식 인공지능(AI) 데이터센터 구축 속도 단축에 박차를 가한다. 설계·설치·시운전·최적화·가동 전 과정을 하나로 묶은 원스톱 엔드투엔드 서비스를 제공해 복잡한 AI 인프라 구축 과정에서 발생할 수 있는 운영 부담을 줄인다는 목표다. 케이투스는 최근 유럽에서 100캐비닛 규모 고밀도 수냉식 AI 데이터센터를 약 4개월 만에 구축했다고 8일 밝혔다. 이번 프로젝트는 통상 10~12개월이 소요되는 수냉식 AI 데이터센터 구축 기간을 최대 80%가량 단축한 사례로, 고밀도 AI 인프라를 단기간에 구축해야 하는 고객 요구에 대응한 것이 특징이다. 구축 과정에서는 정밀한 성능 테스트와 시스템 튜닝을 병행해 전체 클러스터 성능을 약 20% 향상시켰다. 해당 데이터센터는 전자상거래·핀테크·디지털 미디어 분야를 대상으로 컴퓨팅·스토리지·네트워크 서비스를 제공하는 유럽의 인프라 유니콘 기업을 위해 구축됐다. AI 워크로드 증가에 따라 제한된 일정과 높은 기술 복잡성 속에서 안정적인 고성능 AI 클러스터를 신속히 구축해야 하는 과제를 해결하고자 케이투스와 협력했다. 케이투스는 캐비닛 단위로 사전 제작·검증을 완료하는 모듈형 딜리버리 방식을 적용했다. 수냉 서버와 냉각 분배 장치, 매니폴드, 커넥터 등을 공장에서 단일 시스템으로 통합한 뒤 출하 전 압력 테스트와 번인 테스트를 거쳐 현장 설치 시간을 대폭 줄였다. 현장에서는 데이터홀 주 냉각 루프에 연결한 뒤 최소한의 시운전만으로 즉시 가동이 가능하도록 했다. 또 구축 전 과정에서 전문 서비스팀이 참여해 현장 환경에 맞춘 맞춤형 설계와 시공을 진행했다. 고기밀 핫·콜드 아일 컨테인먼트 설계, 캐비닛 하중 균형을 고려한 구조 보강, 액체냉각 배관 안정성을 높이기 위한 정밀 시공을 통해 장기 운영 안정성과 냉각 효율을 동시에 확보했다. 시스템 설치 이후에는 운영체제·드라이버·소프트웨어 버전 일관성을 유지하는 병렬 배포 기술과 단계별 성능 검증을 통해 클러스터 전체의 안정성과 성능을 끌어올렸다. 그 결과 주요 AI 연산 및 통신 성능 벤치마크에서 약 20% 수준의 성능 개선 효과를 확인했다. 케이투스 코리아 손영락 부사장 겸 AI 최고전략책임자는 "이번 유럽 프로젝트를 통해 검증된 통합 턴키 서비스 모델을 국내에도 적용할 계획"이라며 "한국의 높은 전력비용과 여름철 고온 환경을 고려하면 우리 고효율 액체냉각 솔루션이 특히 유효할 것"이라고 밝혔다. 이어 "기존 공랭식 대비 냉각 효율을 대폭 개선해 전력 사용량을 최대 30% 절감할 수 있어 총소유비용(TCO) 최적화 측면에서 국내 기업들에게 경쟁력 있는 대안을 제공할 것"이라고 덧붙였다.

2026.01.08 17:28한정호 기자

슈퍼마이크로, 엔비디아 '베라 루빈' 지원 발표…수냉식 AI 인프라 공개

슈퍼마이크로가 CES 2026에서 공개된 차세대 엔비디아 베라 루빈과 플랫폼 지원을 위한 수냉식 인공지능(AI) 인프라 구축을 공식 발표했다. 슈퍼마이크로는 엔비디아와 협력해 베라 루빈 NVL72 및 HGX 루빈 NVL8 플랫폼을 지원하는 수냉식 AI 인프라 솔루션을 신속히 제공하기 위해 제조 역량과 냉각 기술을 확대한다고 8일 밝혔다. 이번 협력을 통해 슈퍼마이크로는 엔비디아 베라 루빈 NVL72 슈퍼클러스터와 HGX 루빈 NVL8 솔루션을 신속히 공급한다는 목표다. 랙 스케일 설계와 모듈형 데이터센터 빌딩 블록 솔루션(DCBBS)을 기반으로 다양한 구성 옵션과 신속한 구축을 지원해 대규모 AI 인프라 도입 기간을 단축할 계획이다. 엔비디아 베라 루빈 NVL72 슈퍼클러스터는 엔비디아 루빈 그래픽처리장치(GPU) 72개와 엔비디아 베라 중앙처리장치(CPU) 36개를 하나의 랙 스케일 솔루션으로 통합한 플래그십 AI 인프라다. 엔비디아 NV링크 6 기반 고속 인터커넥트와 커넥트X-9 슈퍼 NIC, 블루필드-4 DPU를 통해 GPU 및 CPU 간 고속 통신을 지원하며 인피니밴드와 이더넷 기반 네트워크로 대규모 클러스터 확장이 가능하다. 슈퍼마이크로가 공개한 2U 수냉식 엔비디아 HGX 루빈 NVL8 솔루션은 8-GPU 기반 고밀도 시스템으로 AI와 고성능컴퓨팅(HPC) 워크로드에 최적화됐다. 고속 NV링크와 HBM4 메모리 대역폭을 제공하며 차세대 인텔 제온 및 AMD 에픽 프로세서를 지원하는 x86 기반 구성 옵션을 갖췄다. 직접 수냉식(DLC) 기술도 적용돼 집적도와 에너지 효율도 높였다. 이와 함께 슈퍼마이크로는 엔비디아 스펙트럼-X 이더넷 포토닉스 네트워킹과 블루필드-4 DPU를 지원하는 서버·스토리지 솔루션을 통해 네트워크 및 데이터 처리 성능을 강화했다. 확장된 제조 시설과 엔드투엔드 수냉식 기술 스택을 바탕으로 하이퍼스케일러와 엔터프라이즈 고객의 대규모 AI 인프라 구축 수요에 대응할 방침이다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "확장된 제조 역량과 수냉식 기술을 바탕으로 하이퍼스케일러와 엔터프라이즈 고객이 베라 루빈 및 플랫폼 기반 AI 인프라를 대규모로 신속하고 효율적으로 구축할 수 있도록 지원할 것"이라고 밝혔다.

2026.01.08 17:09한정호 기자

팀네이버, 엔비디아 B200 4천장 클러스터 구축…AI 개발 속도 12배↑

팀네이버가 인공지능(AI) 기술을 서비스와 산업 전반에 유연하게 적용하기 위한 글로벌 수준 컴퓨팅 파워를 확보했다. 팀네이버는 차세대 엔비디아 그래픽처리장치(GPU) B200 4천 장 규모를 기반으로 국내 최대 규모 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다. 팀네이버는 단순 장비 도입을 넘어 대규모 GPU 자원을 하나로 연결해 최적의 성능을 끌어내는 클러스터링 분야에 중점을 뒀다. 지난 2019년 엔비디아 슈퍼컴퓨팅 인프라인 '슈퍼팟'을 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계·운영한 실증 경험을 축적해왔다. 이번에 구축된 B200 4K 클러스터에는 이러한 경험을 바탕으로 한 냉각·전력·네트워크 최적화 기술이 집약됐다. 대규모 병렬 연산과 고속 통신을 전제로 설계된 이번 클러스터는 글로벌 톱500 상위권 슈퍼컴퓨터들과 비교 가능한 수준의 컴퓨팅 규모를 갖춘 것으로 평가된다. 이같은 인프라 성능은 AI 모델 개발 속도로 직결된다. 회사 측은 내부 시뮬레이션 결과, 720억 개(72B) 파라미터 규모 모델 학습 시 기존 A100 기반 주력 인프라로 약 18개월이 소요되던 학습 기간을 이번 B200 4K 클러스터에서는 약 1.5개월 수준으로 단축할 수 있는 효과를 확인했다. 해당 수치는 내부 시뮬레이션 결과로, 실제 학습 과제와 설정에 따라 소요 기간은 달라질 수 있다는 설명이다. 학습 효율이 12배 이상 향상됨에 따라 팀네이버는 더 많은 실험과 반복 학습을 통해 모델 완성도를 높이고 변화하는 기술 환경에 보다 기민하게 대응할 수 있는 개발·운영 체계를 갖추게 됐다고 설명했다. 대규모 학습을 빠르게 반복할 수 있는 인프라가 확보되면서 AI 모델 개발 전반의 속도와 유연성이 한층 강화됐다는 평가다. 팀네이버는 이러한 인프라를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에도 속도를 낼 계획이다. 텍스트를 넘어 이미지·비디오·음성을 동시에 처리하는 옴니 모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고 이를 다양한 서비스와 산업 현장에 단계적으로 적용한다는 구상이다. 최수연 네이버 대표는 "이번 AI 인프라 구축은 단순한 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보했다는 데 의미가 있다"며 "빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 보다 유연하게 적용해 실질적인 가치를 만들어 나갈 것"이라고 말했다.

2026.01.08 16:59한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

HBM4 출하 경쟁 '과열'...엔비디아 수급 전략이 공급망 핵심 변수

"또 실패는 없다"…구글이 AI 글래스 '킬러앱'에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

저평가주 외인 매수세에...SK텔레콤 주가 고공행진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.