• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능 인프라'통합검색 결과 입니다. (133건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

코람코, 의정부에 100MW 초대형 AI 데이터센터 짓는다…2030년 가동

코람코자산운용이 폭증하는 국내 인공지능(AI) 수요에 맞춰 초대형 데이터센터 개발 사업에 착수한다. 2032년까지 약 10조원에 달하는 중장기 데이터센터 투자를 지속해 국내를 대표하는 디지털 인프라 투자사로 도약한다는 목표다. 코람코는 경기도 의정부시 산곡동에 개발되는 복합문화융합단지 '리듬시티' 내에 수전용량 100메가와트(MW) 규모 하이퍼스케일 AI 및 복합 데이터센터 개발 사업에 착수한다고 28일 밝혔다. 이번 프로젝트는 코람코가 추진해 온 데이터센터 개발 사업 가운데 최대 규모로, 국내에서 통상 대형으로 분류되는 30~40MW 데이터센터를 두 배 이상 뛰어 넘는 압도적 스케일로 평가된다. 단일 캠퍼스 기준으로도 울트라 하이퍼스케일 데이터센터로 분류될 수 있는 수준이라는 게 회사 측 설명이다. '케이스퀘어데이터센터 의정부'로 명명된 코람코의 이번 사업은 의정부시 산곡동 805번지 일원에 위치하며 부지 면적 약 1만1천500평에 연면적 약 2만5천평 규모로 조성될 예정이다. 특히 프로젝트금융투자회사(PFV) 설립에 앞서 154킬로볼트(kV) 2회선 기준 총 100MW 전기 사용계약과 건축 인허가도 모두 완료한 상태다. 전력 확보 문제로 다수 데이터센터 개발이 불발되는 상황에서 사업 안정성을 갖춘 것이다. 100MW 규모 전력을 선제 확보한 사례는 국내에서도 흔치 않은 것으로 알려졌다. 코람코는 설립 예정인 PFV의 자산관리회사(AMC)로서 사업 전반을 관리하며 NH투자증권과 LG CNS가 컨소시엄에 참여해 금융 조달과 설계·운영 측면의 안정성을 동시에 확보할 계획이다. 부동산 금융 전문 운용사와 금융·IT 인프라 전문기업이 결합한 구조로, 대규모 데이터센터 개발에 수반되는 복합적인 리스크를 효과적으로 분산했다는 설명이다. 케이스퀘어데이터센터 의정부는 총 2개 동으로 구성된다. 한 개 동은 글로벌 클라우드 서비스 제공사(CSP)의 폭발적으로 증가하는 AI 수요에 대응하기 위한 AI 특화 고효율 데이터센터이며 나머지 한 개 동은 일반 클라우드 및 금융권 수요를 수용하는 복합 데이터센터다. 고사양 AI 서버 운용을 고려해 액체 냉각 시스템(CDU)과 초고밀도 랙 설계를 적용하는 등 AI·클라우드 워크로드를 동시에 수용할 수 있는 하이퍼스케일 사양이 도입될 예정이다. 케이스퀘어데이터센터 의정부 프로젝트는 코람코의 전 주기 데이터센터 개발 역량을 상징하는 사업으로도 평가된다. 코람코는 지난해 서울 구로구 가산동에서 '케이스퀘어데이터센터 가산'을 준공하며 부지 매입부터 설계·인허가·시공·운영에 이르는 전 과정을 직접 수행한 바 있다. 이후 부산 장림, 의정부 용현, 안산 성곡 등 서울과 부산, 수도권 주요 거점에서 데이터센터 개발을 연이어 추진하며 국내 데이터센터 투자시장 주도권 확보에 나섰다. 케이스퀘어데이터센터 의정부는 이르면 내년 상반기 착공해 오는 2030년부터 단계적으로 준공·가동될 예정이다. 이 사업은 코람코가 지난해 제시한 '2032 데이터센터 중장기 전략'의 핵심 이정표로 평가된다. 코람코는 2032년까지 약 10조원을 투자해 수전 용량 기준 약 1.4기가와트(GW), IT 부하 기준 1GW 규모 데이터센터를 운영하는 디지털 인프라 플랫폼으로 도약하겠다는 청사진을 제시한 바 있다. 김태원 코람코자산운용 대표는 "데이터센터는 단순한 부동산 자산이 아니라, 국가 산업과 디지털 경제를 지탱하는 핵심 인프라"라며 "부지 확보, 인허가, 전력, 금융 구조, 시공과 운영에 이르는 전 과정을 직접 설계하고 실행할 수 있는 국내 몇 안 되는 투자 플랫폼으로서 향후 국내 데이터센터 시장 기준을 만들어가는 역할을 해 나갈 것"이라고 강조했다. 이어 "단 건 개발 성과가 아닌 장기적으로 글로벌 수준 데이터센터 포트폴리오를 구축해 한국을 대표하는 디지털 인프라 투자사로 도약하는 것이 중장기 목표"라고 덧붙였다.

2026.01.28 15:38한정호 기자

[신년 인터뷰] 이해민 의원 "AI 정책, 기술 넘어 전체 생태계를 봐야 할 때"

글로벌 경제 위기 속에서 올해 인공지능(AI) 산업은 다시 한 번 중대한 분기점에 섰다. 생성형 AI의 급격한 확산 후 이어진 성능 경쟁과 투자 열풍은 이제 '얼마나 더 큰 모델을 만들 수 있는가'라는 질문을 넘어 'AI가 실제 무엇을 할 수 있는가'라는 보다 본질적인 문제로 이동하고 있다. 지디넷코리아는 릴레이 인터뷰를 통해 각기 다른 위치에서 AI 산업을 바라보는 리더들의 시선을 종합해 올해 AI 산업이 어디로 향하고 있는지, 무엇을 준비해야 하는지를 짚어본다. 기술 낙관과 과도한 불안 사이에서 AI의 현실적인 진화 경로와 산업적 의미도 살펴본다. [편집자주] "인공지능(AI)은 결코 단독으로 존재하는 기술이 아닙니다. 그 아래에는 클라우드가 있고 이를 떠받치는 소프트웨어(SW)와 하드웨어(HW), 데이터센터와 전력 인프라까지 모두 연결돼 있습니다. 이 연결을 모두 아우르는 AI 정책이 필요한 시점입니다." 조국혁신당 이해민 의원은 28일 신년을 맞아 진행된 지디넷코리아와의 인터뷰를 통해 한국 AI 산업 진흥을 위해 입법부·정부가 맡아야 할 역할에 대해 이같이 말했다. 이 의원은 생성형 AI 확산 이후 AI 산업 경쟁 구도가 초거대 모델 경쟁에서 실제 산업과 사회에 어떤 가치를 제공하는가로 이동하고 있다고 진단하며 한국은 여전히 글로벌 경쟁에서 추격자 위치에 있다고 평가했다. 특히 AI 정책을 단일 기술 영역이 아닌 클라우드, 공공 SW, 데이터센터, 전력 정책까지 아우르는 종합 전략으로 접근해야 한다는 점을 강조했다. "AI 3강 전략, 독자 모델과 산업 육성 투트랙 접근 필요" 이 의원은 정부가 제시한 'AI 3대 강국' 목표가 자칫 추상적인 구호에 머물 경우 정책 실효성이 떨어질 수 있다고 지적했다. 초거대 모델 수나 그래픽처리장치(GPU) 확보 같은 단편적 지표만으로는 국가 AI 경쟁력을 설명하기 어렵다는 것이다. 그는 "한국은 현재 AI 선도국이 아니라 명확한 추격자 위치"라며 "추격자 전략의 핵심은 선택과 집중"이라고 말했다. 이에 독자 파운데이션 모델 확보와 민간 산업 활성화를 동시에 추진하는 투트랙 전략이 필수적이라는 설명이다. 이 의원은 "독자 파운데이션 모델은 기술 자립 차원에서 반드시 필요하다"며 "공공·안보 영역에서 활용할 수 있을 뿐 아니라, 연구자와 학생들이 실제로 모델을 설계·운영해보는 경험 자체가 국가 경쟁력"이라고 강조했다. 구독료 부담 없이 AI를 활용할 수 있는 환경을 제공한다는 점에서도 의미가 크다고 덧붙였다. 다만 그는 "AI 3대 강국 목표가 독자 모델 하나로 완성되는 것은 아니다"라고 선을 그었다. 목표가 산업 경쟁력 강화라면 민간이 글로벌 시장에서 성장할 수 있도록 제도를 설계해야 한다는 지적이다. 이와 관련해 한국이 경쟁력을 가질 수 있는 영역으로는 피지컬 AI와 버티컬 AI를 꼽았다. 그는 "제조·모빌리티 등 우리나라가 강점을 가진 산업과 결합된 AI 서비스가 현실적인 승부처"라며 "초거대 범용 모델로 정면 승부하기보다 산업 중심 전략이 필요하다"고 밝혔다. "공공 SW·AI 사업 구조, 납품 중심 사고부터 바꿔야" 공공부문 AI·SW 사업 구조에 대해서도 이 의원은 근본적인 전환이 필요하다고 지적했다. AI 시대에 들어섰음에도 공공 SW 사업은 여전히 한 번 만들고 납품하면 끝이라는 사고에 머물러 있다는 진단이다. 그는 "AI와 SW는 지속적으로 업데이트되고 운영돼야 하는 서비스"라며 "과업이 변경돼도 예산에 반영되지 않는 현재의 구조적 한계는 사실상 민간 기업의 무료 노동을 전제로 한 것"이라고 말했다. 이 의원은 이러한 문제를 개선하고자 과업 변경 시 계약 금액 조정을 명시하는 국가계약법·소프트웨어진흥법 개정안을 발의해왔다. 그는 "공공 사업 현장에서 과업 변경이 없는 경우는 거의 없다"며 "제도가 현실을 따라가야 한다"고 강조했다. 공공 사업 참여 기준의 불투명성도 문제로 꼽았다. 그는 "중소·대기업 참여 기준이 시행령에 맡겨져 있어 일관성이 떨어진다"며 "결과적으로 경쟁력 있는 사업자가 공정하게 평가받는 구조로 가야 한다"고 설명했다. 이어 "AI 정책을 이야기하면서 공공 SW 계약 구조를 함께 논의하지 않는 것은 근본적인 오류"라며 "AI는 SW의 한 영역인데 이를 분리해서 접근하면 정책은 계속 엇박자를 낼 수밖에 없다"고 역설했다. 공공 클라우드 보안 정책 정비 시급…"국내 기업 성장 도와야" AI 산업의 기반인 클라우드 정책 역시 개선이 시급하다고 진단했다. 지난해를 기점으로 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 등 글로벌 클라우드 사업자들이 국내 공공 시장 진입을 본격화하면서 공공 클라우드 정책의 방향성과 기준을 둘러싼 논의가 불거져왔다. 해외 사업자의 공공 진출을 둘러싸고 데이터 주권과 안보 우려, 국내 산업 보호 논리가 동시에 제기되는 상황이다. 이 의원은 이러한 논의가 단순히 해외 클라우드는 위험하고, 국내 클라우드는 안전하다는 이분법으로 흘러서는 안 된다고 지적했다. 그는 "현재 공공 클라우드 정책은 쓸 수 있느냐 없느냐의 이분법에 머물러 있다"며 "정작 중요한 것은 어떤 서비스에, 어떤 수준의 보안과 책임을 요구할 것인지에 대한 정교한 설계"라고 말했다. 이어 "ISMS, ISMS-P, CSAP 등 유사한 보안 인증을 각각 준비해야 하는 구조는 기업 입장에서 철인 3종 경기와 같다"며 "이로 인해 공공 시장 진입을 포기하거나 아예 해외 시장을 먼저 공략하겠다는 기업이 늘고 있다"고 우려했다. 이 의원은 이같은 문제의 본질이 보안 자체가 아니라 제도 설계 방식에 있다고 봤다. 그는 "각 부처가 공급자 관점에서 인증과 기준을 쌓아 올리다 보니 수요자인 기업과 이용자의 부담이 과도하게 커졌다"며 "결과적으로 공공 영역에서조차 클라우드 활용이 위축되는 상황이 벌어지고 있다"고 지적했다. 그러면서 "국가 안보나 기밀이 필요한 영역과 그렇지 않은 영역을 명확히 구분해 보안 수준을 차등 적용해야 한다"며 "민간과 해외 클라우드를 적절히 활용할 수 있어야 공공 서비스의 효율성과 품질도 함께 올라간다"고 덧붙였다. 국내 클라우드 산업 진흥을 위한 접근 방식에 대해서도 이분법적 해법은 경계했다. 이 의원은 "국내 기업을 보호한다는 명분으로 시장을 가두는 방식은 장기적으로 경쟁력을 약화시킨다"며 "정부는 특정 해외 사업자를 배제하기보다는 국내 기업에 인센티브를 지원하는 등의 적절한 지원책으로 공정한 경쟁 환경을 조성해야 한다"고 강조했다. 또 그는 "국내 기업이 글로벌 사업자로 성장할 수 있도록 돕는 것이 정책 목표가 돼야 한다"며 "공공 시장 역시 이러한 성장 경로의 일부로 설계돼야 한다"고 밝혔다. 아울러 지난해 국가정보자원관리원 화재로 행정 시스템이 마비됐던 사례도 거론하며 공공 클라우드 정책이 여전히 이전 중심 사고에 머물러 있다고 지적했다. 이 의원은 "클라우드는 단순히 서버를 옮기는 것이 아니라, 장애와 재난을 전제로 설계되는 인프라"라며 "공공 영역에서 이 개념이 제대로 작동하지 않았다는 점은 정책 전반을 다시 점검해야 한다는 신호"라고 말했다. "GPU만으로는 안 된다…전력·냉각 논의 필요" 최근 AI 인프라 확충 논의에서 GPU 확보가 과도하게 강조되는 현실에 대해서도 이 의원은 경계의 목소리를 냈다. 그는 "현재 국내에 GPU가 부족한 것은 사실이지만, GPU를 쌓아둔다고 AI 경쟁력이 생기지는 않는다"고 말했다. 이어 "GPU를 수용할 데이터센터와 이를 안정적으로 운영할 전문 인력, 전력과 냉각 인프라가 함께 갖춰져야 한다"며 "이 중 하나라도 부족하면 AI 인프라는 제대로 작동하지 않는다"고 지적했다. 이 의원은 특히 국가 차원에서 추진 중인 AI 컴퓨팅 인프라 확충 역시 HW 확보에만 치우쳐서는 안 된다고 강조했다. 그는 "국가AI컴퓨팅센터 역시 GPU 숫자만 늘린다고 완성되지 않는다"며 "이를 지속적으로 운영할 수 있는 데이터센터 환경과 전력 수급, 냉각 설계까지 함께 고려돼야 한다"고 설명했다. 데이터센터 운영에서 전력과 냉각이 차지하는 비중도 짚었다. 그는 "대규모 AI 데이터센터에서는 실제 연산보다 냉각과 유지에 더 많은 전력이 쓰이는 구조"라며 "전력 확보와 냉각 방식에 대한 고민 없이 AI 인프라를 논의하는 것은 현실과 동떨어진 접근"이라고 말했다. 이와 관련해 전력 정책과 입지 전략의 전환 필요성도 제기했다. 이 의원은 "수도권은 이미 전력 여력이 부족한 반면, 비수도권은 재생에너지와 원전 기반으로 상대적인 여유가 있다"며 "비수도권을 중심으로 한 오프그리드형 데이터센터와 전력 직거래(PPA)를 제도적으로 허용해야 한다"고 주장했다. 또 그는 "신규 데이터센터 건설만 논의할 것이 아니라, 기존 데이터센터를 AI 연산에 적합한 인프라로 전환할 수 있도록 규제 완화와 제도적 지원이 병행돼야 한다"고 덧붙였다. "AI, 국민 모두의 기회 돼야" 아울러 이 의원은 최근 본격 시행된 AI 기본법에 대해 "기본법은 기술을 세세하게 규정하는 법이 아니라 변화에 대응할 수 있는 틀을 만드는 역할을 할 것"이라며 "입법과 행정은 기술 발전 속도를 따라갈 수 없기 때문에 AI 기본법은 앞으로 민간과의 긴밀한 논의를 통해 채워지는 그릇으로 설계했고, 대신 거버넌스와 책임 주체를 명확히 하는 데 집중했다"고 설명했다. AI 기본법에는 모델 개발자, 서비스 제공자, 이용자, 영향을 받는 제3자 등 네 가지 주체가 구분돼 있다. 이 구조를 통해 후속 제도가 유연하게 작동할 수 있을 것이라는 게 이 의원의 전망이다. 시행 과정에서의 혼란에 대해서도 일정 부분 불가피하다고 봤다. 그는 "처음부터 완벽한 법은 없기에 앞으로 개정안을 통해 계속 보완해 나가는 것이 입법부의 역할"이라고 말했다. 이 의원은 "AI 기본법은 규제를 위한 규제가 아니라, 안전하게 혁신할 수 있도록 기업들을 돕는 신호등 같은 법이 될 것"이라며 "최소한의 규제가 오히려 산업과 사회를 보호할 것"이라고 덧붙였다. 이어 그는 올해 추가 입법 계획도 공유했다. 이 의원은 "공공 SW·AI 사업의 지속 운영을 전제로 한 계약 구조 개선, 클라우드 보안 인증 체계 단순화, 데이터센터와 AI 인프라를 국가 전략 인프라로 다루기 위한 법·제도 정비는 올해 안에 반드시 추진해야 할 과제"라며 "현장의 목소리를 반영해 필요한 부분은 주저 없이 후속 법안과 개정안을 발의하겠다"고 강조했다. 끝으로 이 의원은 "AI는 소수 기업이나 전문가만의 기술이 아니라 국민 모두의 기회가 돼야 한다"며 "AI·클라우드·공공 SW 정책이 디지털 권리가 보장되는 사회로 이어질 수 있도록 입법과 정책 수립에서 책임을 다하겠다"고 밝혔다.

2026.01.28 11:24한정호 기자

알리바바 클라우드, 글로벌 조사기관 평가서 잇단 '리더' 선정

알리바바 클라우드가 주요 글로벌 시장조사기관 평가에서 인공지능(AI) 인프라·모델·솔루션 전반의 경쟁력을 인정받았다. 알리바바 클라우드는 2025년 가트너·포레스터·옴디아 등 글로벌 조사기관의 시장 분석 보고서에서 잇따라 업계 리더로 선정됐다고 26일 밝혔다. 먼저 옴디아는 지난해 12월 발간한 '마켓 레이더: 2025 글로벌 엔터프라이즈급 MaaS 시장 분석' 보고서에서 알리바바 클라우드를 리더로 선정했다. 서비스형 모델(MaaS)은 AI 모델을 중심으로 API와 애플리케이션, 통합형 솔루션 등을 통해 사용자에게 AI 기능을 제공하는 서비스 모델이다. 알리바바 클라우드는 9개 핵심 역량 중 이용 가능한 파운데이션 모델의 다양성, 모델 커스터마이징·튜닝, AI 에이전트 개발·스케줄링, 비용 최적화 전략, 프로덕션 배포 접근 방식 등 5개 부문에서 어드밴스드 등급을 획득했다. 보고서에 따르면 알리바바 클라우드는 자체 개발한 '큐웬' 모델을 PAI 컴퓨팅 인프라와 모델 스튜디오 애플리케이션 플랫폼과 수직 통합해 기업이 AI 애플리케이션을 개발부터 배포·운영까지 전 라이프사이클에 걸쳐 구현할 수 있도록 지원한 점을 인정받았다. 또 옴디아는 지난해 6월 발표한 '2025 아시아·오세아니아 지역 생성형 AI 클라우드 대표 기업' 보고서에서도 알리바바 클라우드를 시장 리더로 선정했다. 알리바바 클라우드는 평가 대상 9개 글로벌 벤더 중 4개 리더 기업 가운데 하나로 이름을 올렸으며, 9개 평가 항목 중 7개 항목에서 최고 등급인 '어드밴스드'를 획득했다. 가트너는 지난해 11월 발표한 4개의 '생성형 AI 혁신 가이드' 보고서에서 알리바바 클라우드를 평가 대상 4개 부문 모두 신흥 리더로 선정했다. 해당 부문은 생성형 AI 특화 클라우드 인프라, 생성형 AI 모델 제공업체, 생성형 AI 엔지니어링, 생성형 AI 지식 관리 앱·범용 생산성 영역이다. AI 인프라 혁신 분야에서도 성과를 이어갔다. 알리바바 클라우드는 '포레스터 웨이브: AI 인프라 솔루션' 2025년 4분기 보고서에서 리더로 선정됐다. 구성·데이터 관리·운영 관리·장애 허용성·효율성·배포 환경 등 7개 항목에서 최고 점수인 5.00점을 받았다. 이와 관련해 지난해 8월엔 가트너의 '2025 매직 쿼드런트: 클라우드 네이티브 애플리케이션 플랫폼' 보고서에서도 리더로 선정됐다. 서버리스 앱 엔진(SAE), 함수 컴퓨트, 컨테이너 컴퓨트 서비스(ACS) 등을 통해 기업이 AI 기반 애플리케이션을 더 빠르게 구축·배포·확장할 수 있도록 지원한다는 점이 강점으로 꼽혔다. 서버리스 분야에서는 '포레스터 웨이브: 서버리스 개발 플랫폼' 2025년 2분기 보고서에서 리더로 선정되며 경쟁력을 입증했다. 알리바바 클라우드는 함수 컴퓨트와 서버리스 앱 엔진 역량을 기반으로 초기화 및 배포, 워크로드 유연성, 관찰성, AI 애플리케이션 개발 등 9개 항목에서 최고 점수 5점을 획득했다. 아울러 가트너의 클라우드 데이터베이스 관리 및 컨테이너 관리 관련 보고서에서도 리더로 선정됐다. 지난해 11월 '가트너 매직 쿼드런트: 클라우드 데이터베이스 관리 시스템(DBMS)' 보고서에서 6년 연속 리더에 올랐으며 같은 해 8월 '가트너 매직 쿼드런트: 컨테이너 관리' 보고서에서도 리더로 선정됐다. 알리바바 클라우드는 첨단 클라우드 인프라와 고급 AI 역량을 결합한 AI+클라우드 전략을 중심으로 기술 혁신을 이어가고 있다고 강조했다. 현재 전 세계 29개 지역에서 92개 데이터센터를 운영하며 글로벌 클라우드 인프라 역량을 강화하고 있다. 알리바바 클라우드는 "AI와 클라우드 기술 혁신을 통해 전 세계 기업 고객들에게 실질적인 비즈니스 가치를 제공하겠다"고 밝혔다.

2026.01.26 17:40한정호 기자

소프트뱅크, 美 데이터센터 인수 중단…'스타게이트' 구상에 제동

소프트뱅크그룹이 미국 데이터센터 업체 인수 계획을 중단한 것으로 확인됐다. 이에 손정의 소프트뱅크 회장이 구상해 온 '스타게이트' 프로젝트 확장 속도에도 제동이 걸릴 수 있다는 관측이 나오고 있다. 26일 블룸버그통신에 따르면 소프트뱅크는 미국 데이터센터 운영사 스위치 인수 협상을 중단한 것으로 알려졌다. 손 회장은 전면 인수가 어렵다는 판단하에 1월로 예정됐던 공식 발표를 철회한 것으로 전해졌다. 손 회장은 수개월간 약 500억 달러(약 72조원) 규모로 스위치 인수를 추진해 왔다. 에너지 효율형 데이터센터 네트워크를 직접 통제해 오픈AI를 위한 대규모 컴퓨팅 인프라를 확보하려는 구상이었다. 현재 두 기업은 협상을 완전히 종료하지는 않은 상태다. 소프트뱅크와 스위치는 부분 투자나 전략적 파트너십 가능성을 놓고 논의를 이어가고 있는 것으로 알려졌다. 이번 거래가 성사됐다면 소프트뱅크 역사상 최대급 인수 중 하나가 될 수 있었다. 앞서 업계에선 스타게이트 프로젝트의 미국 내 데이터센터 구축에도 중요한 전환점이 될 수 있다는 평가가 나오기도 했다. 스타게이트는 손 회장이 주도하는 초대형 AI 인프라 구축 구상이다. 소프트뱅크는 오픈AI 등과 협력해 대규모 데이터센터와 컴퓨팅 자원을 확보하는 것을 목표로 하고 있다. AI 모델 학습과 추론에 필요한 전력·서버·반도체 인프라를 직접 통제해 글로벌 AI 경쟁에서 주도권을 잡겠다는 전략이다. 소프트뱅크 내부에서는 거래 규모 부담과 운영 복잡성에 대한 우려도 제기돼 왔다. 스위치는 미국 라스베이거스에서 애틀랜타까지 여러 지역에 데이터센터를 운영하고 있으며 연내 기업공개(IPO)도 준비 중이다. 소프트뱅크는 최근 AI 투자에 속도를 높이고 있다. 오픈AI 지분 11%를 확보했고 암페어컴퓨팅을 65억 달러(약 9조3천700억원)에 인수했으며 ABB 로봇 사업부 인수도 발표했다. 이 과정에서 재무 부담에 대한 경고도 받았다. S&P 글로벌레이팅스는 소프트뱅크 신용도 압박이 커지고 있다고 지적했다. S&P 글로벌레이팅스는 "소프트뱅크는 보유 자산 매각 등 신속한 완화 조치를 취하지 않으면 신용등급에 압박을 더 강하게 받을 것"이라고 보고서를 통해 밝혔다.

2026.01.26 16:20김미정 기자

아이티센씨티에스, 세타온과 AI 인프라 최적화 사업 '맞손'

아이티센씨티에스가 인공지능(AI) 인프라 비용 잠식 문제를 해결하기 위해 기술 파트너십을 강화한다. 아이티센씨티에스는 세타온과 차세대 AI 인프라 구축·운영 최적화 기술 사업화를 위한 업무협약(MOU)을 체결했다고 22일 밝혔다. 양사는 이번 협력을 통해 AI 모델 대형화에 따른 전력 소모 및 비용 상승 문제를 해결하고 지능형 인프라 시장을 선점할 계획이다. 최근 AI 시장은 그래픽처리장치(GPU) 서버의 폭발적인 전력 소모와 기하급수적인 스토리지 증설 비용으로 인해 비용 잠식이라는 문제에 직면했다. 세타온은 소프트웨어(SW)와 하드웨어(HW)를 통합 제어하는 AI 커널 기술을 통해 이러한 난제를 해결할 원천 기술을 보유 중이다. 특히 단일 위상 파라미터 기반 동적 제어와 의미 기반 저장 기술을 통해 전력 효율과 스토리지 총소유비용(TCO)을 각각 30% 이상 최적화하는 핵심 솔루션을 제공한다. 또 데이터 중복 맥락을 제거하는 업무형 영구기억 기술은 기업의 핵심 자산 유출을 차단하고 글로벌 빅테크에 대한 종속을 탈피할 수 있는 소버린 AI 구현의 핵심 역할을 할 것으로 주목받고 있다. 아이티센씨티에스는 자사 AI 고성능 컴퓨팅(HPC) 최적화 및 인프라 설계 역량에 세타온의 커널 최적화 기술을 결합해 차별화된 AI 인프라 매니지먼트 서비스를 강화한다는 방침이다. 양사는 아이티센 AI 이노베이션 데이터센터에서 AI 서비스 개발부터 테스트, 최적화까지 전 과정을 자동화한 처리 시스템 모델을 공동 실증할 예정이다. 특히 이번 MOU를 기점으로 ▲아이티센 AI 이노베이션 데이터센터 내 커널 기술검증(PoC)을 통한 성능 지표 확보 ▲통합 AI 랙 공식 론칭 ▲공공 및 기업용 소버린 AI 플랫폼 구축 ▲동남아·일본 등 글로벌 시장 진출을 단계적으로 추진할 방침이다. 이를 통해 인프라 운영 마진율을 15% 이상 높이고 라이선스 기반의 고정 수익 모델을 안착시킨다는 전략이다. 한상욱 아이티센씨티에스 대표는 "세타온 AI 커널 기술은 인프라 운영 효율을 극대화할 수 있는 게임체인저가 될 것"이라며 "양사 시너지를 통해 공공 및 기업 고객이 직면한 에너지와 비용 문제를 해결하는 차세대 AI 운영 표준을 제시하겠다"고 말했다.

2026.01.22 18:32한정호 기자

오케스트로, 소버린 AI 클라우드 데이터센터 솔루션 출시…인프라·SW 통합

오케스트로 그룹이 소버린 인공지능(AI) 구현을 지원하는 새로운 통합 솔루션을 앞세워 데이터센터 사업 확대에 박차를 가한다. 오케스트로 그룹은 데이터 주권 확보와 AI 인프라 통제가 가능한 '소버린 AI 클라우드 데이터센터' 솔루션을 출시했다고 22일 밝혔다. 이 서비스는 오케스트로 그룹이 축적해 온 소버린 AI 클라우드 아키텍처를 기반으로 클라우드 인프라와 AI 서비스를 단일 구조로 통합한 원스톱 프라이빗 AI 클라우드 통합 솔루션이다. 퍼블릭 클라우드의 운영 불확실성과 온프레미스 환경의 구축 부담을 동시에 보완한다는 목표다. 소버린 AI 클라우드 데이터센터 솔루션은 안전한 고객 전용 인프라를 맞춤형으로 제공하며 초기 투자 부담을 줄이고 고객이 운영 비용을 직접 통제할 수 있는 비즈니스 구조를 제공한다. 복잡한 소프트웨어(SW) 구성을 최소화해 인프라 설계와 운영에 드는 시간과 자원을 줄였다. 또 퍼블릭 클라우드의 확장성과 온프레미스 환경의 운영 통제력을 결합함으로써 AI 서비스 확장에 따른 비용 변동성을 줄이고 예측 가능한 AI 인프라 총소유비용(TCO)을 구현한 것이 핵심이다. 외부 클라우드나 공용 자원에 의존하지 않는 프라이빗 클라우드 기반의 고객 전용 환경으로 구성되며 데이터와 AI 운영, 인프라 자원을 전용 영역으로 분리해 구성한다. 기업과 기관이 쉽게 데이터 접근과 운영 정책을 직접 설정하고 통제할 수 있는 프라이빗 소버린 AI 환경을 제공하는 것이 핵심이다. 아울러 고객 맞춤형 서비스 조합을 패키지 형태로 지원해 온프레미스 환경에서 요구되던 복잡한 구축 과정 없이 가상머신(VM)과 컨테이너 기반의 AI 서비스 환경을 빠르게 구현할 수 있다. 모듈형 구조로 필요한 기능만 선택해 조합할 수 있어 고객 요구에 맞는 AI 서비스 환경을 구성할 수 있다는 설명이다. 이 솔루션에는 ▲서버 가상화 솔루션 '콘트라베이스' ▲클라우드 네이티브 운영관리 플랫폼 '비올라' ▲AI 인프라 플랫폼 '콘체르토 AI' ▲생성형 AI 솔루션 '클라리넷' ▲AI 기반 클라우드 자동화 솔루션 '심포니 A.I' ▲데브옵스 통합 관리 플랫폼 '트럼본' ▲멀티 클라우드 통합 관리 솔루션 '오케스트로 CMP' ▲마이그레이션 전문 솔루션 '콘트라베이스 레가토 마이그레이터' ▲재해복구 전문 솔루션 '콘트라베이스 레가토 DR' 등 풀스택으로 구성된다. 솔루션 출시와 함께 오케스트로 그룹은 프라이빗 AI 데이터센터를 직접 갖추기 어려운 고객을 위한 소버린 AI 클라우드 데이터센터를 구축하고 있다. SW부터 하드웨어(HW) 및 상면까지 포함한 모든 프라이빗 클라우드 서비스를 퍼블릭 클라우드처럼 사용할 수 있다. 특히 그래픽처리장치(GPU) 중심의 AI 워크로드는 물론 국산 AI 반도체(NPU)와 국산 거대언어모델(LLM)을 연계할 수 있는 구조를 적용해 AI 인프라부터 AI 모델까지 아우르는 소버린 AI 환경을 제공한다는 전략이다. 올해부터 마곡·청담·여의도 등 주요 권역에서 소버린 AI 데이터센터를 순차 오픈하고 SW 중심 패키지에서 물리적 데이터센터 인프라까지 연결되는 소버린 AI 인프라 생태계를 구축해 나갈 계획이다. 이 과정에서 그룹 내 솔루션 전문 계열사인 오케스트로와 오케스트로 AGI, 오케스트로 데이타커맨드는 AI 클라우드 풀스택 SW를 제공한다. 클라우드 네이티브 서비스 전문 계열사인 오케스트로 클라우드는 해당 솔루션이 적용될 데이터센터의 컨설팅·설계·구축·운영 등 전 과정을 지원한다. 김민준 오케스트로 그룹 의장은 "이번 솔루션은 AI·클라우드 풀스택 솔루션과 소버린 AI 데이터센터 구축·운영 역량을 결합해 단일 통합 제품으로 구현한 것"이라며 "그룹 차원의 기술과 인프라 역량을 바탕으로 소버린 AI 데이터센터 사업을 본격 확대해 나가겠다"고 말했다.

2026.01.22 17:01한정호 기자

[현장] STT GDC, 가산에 첫 데이터센터 연다…韓 코로케이션 시장 본격 진출

글로벌 데이터센터 전문기업 STT GDC가 국내 첫 데이터센터를 올해 6월 가동하며 한국 시장 공략에 본격 나선다. 인공지능(AI)·클라우드 수요 확대에 대응하는 AI-레디 인프라를 앞세워 국내 코로케이션 시장에서 입지를 구축할 계획이다. 허철회 STT GDC 코리아 대표는 22일 서울 여의도 FKI타워에서 진행한 기자간담회에서 "가산에 들어서는 'STT 서울1'을 시작으로 한국 시장에서 AI·클라우드 수요를 안정적으로 받쳐줄 인프라를 단계적으로 확대해 나가겠다"고 밝혔다. STT GDC는 싱가포르에 본사를 둔 글로벌 데이터센터 전문기업으로, 12개국에서 100개 이상의 데이터센터를 운영하며 총 IT 부하 용량 2기가와트(GW) 이상을 확보하고 있다. 고성능·고효율·저탄소 데이터센터 인프라를 기반으로 아마존·마이크로소프트·구글 등 글로벌 하이퍼스케일러들을 지원해왔다. STT GDC가 한국을 전략 시장으로 설정한 배경에는 AI 확산에 따른 데이터센터 수요 급증이 있다. 허 대표는 "AI 지출 확대와 에이전틱 AI, AI 서비스형 소프트웨어(SaaS) 등 시장이 빠르게 커지고 있다"며 "이에 맞춰 데이터센터 인프라뿐 아니라 저지연 네트워크·해저 케이블 등 연결성까지 중요해지고 있다"고 설명했다. 특히 허 대표는 앞으로 데이터센터 수요를 주도할 핵심 축으로 '추론'을 지목했다. 그는 "AI 애플리케이션과 추론 중심 워크로드가 늘수록 데이터센터의 수도권 입지와 네트워크가 더 중요해질 것"이라고 진단했다. 이런 흐름에 한국 시장도 소버린 AI와 그래픽처리장치(GPU) 확산 정책이 맞물리며 전력 수요가 크게 늘고 있다는 게 STT GDC의 판단이다. 허 대표는 정부가 엔비디아와 체결한 GPU 26만 장 도입 논의 등으로 인해 추가 전력 수요가 발생할 수 있으며 2030년에는 국내 데이터센터 전력 수요가 3GW 수준까지 필요해질 수 있다고 언급했다. STT GDC가 이번에 첫 거점으로 공개한 STT 서울1은 서울 금천구 가산동에 위치한 AI 데이터센터로, 최대 IT 부하 30메가와트(MW)를 수용하도록 설계됐다. STT GDC는 이 센터를 기반으로 국내 고객의 AI·클라우드 인프라 수요에 대응하는 동시에, 글로벌 확장과 연계한 코로케이션 서비스를 제공하겠다는 구상이다. STT 서울1은 주·예비 2회선 이중화 기반 22.9kV 전력 인입, 분산형 중복 구성 방식 무정전전원장치(UPS), N+1 비상발전기 등 안정성을 고려한 전력 설계를 갖췄다. 최대 부하 기준 24시간 무급유 발전이 가능한 연료탱크를 구축했고 업타임 티어 3 TCCD·TCCF 인증과 무중단 유지보수·내결함성 설계도 추진한다. 건물은 지하 2층부터 지상 10층까지 멀티스토리 구조로 설계됐으며 데이터센터 특성상 층고가 높아 체감 높이는 일반 아파트 약 20층 수준에 해당한다. STT GDC는 도심 내 제한된 부지에서 전력·설비 집적도를 극대화하기 위해 이같은 구조를 선택했다고 밝혔다. 네트워크는 망중립 구조를 기반으로 2개의 독립된 MDF실과 3개의 인입 경로를 구성해 복수 통신사 및 다양한 연결 옵션을 확보했다. 냉각은 설계 전력사용효율(PUE) 1.3 미만을 목표로 중앙 냉수식 냉방 설비와 팬월 유닛 등을 적용해 AI 워크로드에 대비한 열관리 효율을 높인다는 방침이다. 나아가 STT GDC는 액침 냉각 등 차세대 냉각 기술도 글로벌 본사 차원에서 검증하고 있다. 슈나이더 일렉트릭, 아이스오토프와 협력해 액침 냉각 기술검증(PoC)을 진행했고 인도 법인도 액체 냉각 기술 연구·테스트를 추진 중이다. 국내 센터 운영 전략으로는 인하우스 중심 운영을 강조했다. STT GDC 코리아 양재석 운영센터장은 "다수 데이터센터 사업자가 운영을 외주화하는 것과 달리, 우리는 운영 핵심 기능을 자체 인력으로 수행한다"며 "글로벌 하이퍼스케일러 지원 경험을 바탕으로 국내에서도 동일한 표준과 교육 체계를 적용할 계획"이라고 밝혔다. STT GDC는 한국 시장이 글로벌 하이퍼스케일러뿐 아니라 국내 클라우드 사업자와 소버린 AI 프로젝트 확대로 수요 구조가 빠르게 바뀌고 있다고 진단했다. 이에 대해 허 대표는 "연도별 수요·공급 변동성이 커지는 만큼 단계적 확장과 안정적 운영 역량이 중요해졌다"며 "향후 한국 내 추가 데이터센터 부지 확보도 검토 중"이라고 말했다. 끝으로 "AI 시대 데이터센터는 단순히 전력을 공급하는 시설이 아니라, 고밀도 워크로드를 안정적으로 처리하면서도 지속가능성을 함께 달성해야 한다"며 "재생에너지 확대와 냉각 혁신을 바탕으로 한국에서도 장기적으로 경쟁력 있는 데이터센터 플랫폼을 구축해 나가겠다"고 강조했다.

2026.01.22 16:33한정호 기자

[현장] "소버린 AI 늦으면 도태된다…기술·데이터·인프라 통제권 갖춰야"

글로벌 인공지능(AI) 패권 경쟁이 격화되는 가운데, 소버린 AI 확보가 지연될 경우 기술·데이터·인프라 통제권을 잃고 국가와 기업이 동시에 종속 위험에 직면할 수 있다는 AI 기업들의 우려가 나왔다. LG AI연구원 김유철 전략부문장은 21일 네이버와 한국은행이 공동 개최한 AX 컨퍼런스에서 "앞으로 AI는 국가 경쟁력을 좌우하는 전략 자산이 될 것"이라며 "각 나라가 AI 기술과 인프라를 스스로 통제하고 운영하려는 흐름이 소버린 AI"라고 말했다. 김 부문장은 소버린 AI 확보 논의가 단순 기술 트렌드를 넘어 생존 전략이라고 강조했다. 그는 "지금이 아니면 다시는 AI 기술을 확보하기 어려울 것"이라며 "이 기술과 인프라 역량을 확보하지 못하면 선진국에서 중진국·후진국으로 떨어질 수도 있다"고 경고했다. 특히 그는 소버린 AI를 둘러싼 경쟁이 국가 총력전 양상으로 치닫고 있다고 진단했다. 전력망·데이터센터·AI 반도체·파운데이션 모델 등 국가 단위 투자 경쟁이 본격화되는 상황에서 통제권을 잃으면 AI 활용 비용 자체가 외부 변수에 휘둘릴 수 있다는 설명이다. 아울러 네이버클라우드 성낙호 하이퍼스케일 AI 기술총괄은 소버린 AI의 본질에 대해 "데이터를 지능으로 바꾸는 기술"이라고 정의하며 인터넷 데이터에만 머무르던 AI가 음악·영상·피지컬 AI로 확장되는 흐름을 짚었다. 그는 "최근 AI는 인터넷에 없는 데이터를 기반으로 만들어내는 것들을 보여주고 있다"며 "이를 구현할 때 독자적인 기술이 없으면 데이터가 있어도 새로운 지능을 만들어낼 방법이 없어진다"고 말했다. 또 성 총괄은 외산 AI 의존이 가져올 비용·주권 리스크도 언급했다. 그는 "소버린 AI 전략을 시도하지 않고 외산 AI를 쓰다 보면 갑자기 가격이 올라갈 수도 있고 전략 자산화될 수도 있다"고 지적했다. AI가 생활과 산업 전반의 기반 기술로 고착되는 만큼 가격 결정권이 해외로 넘어가면 종속 관계가 구조화될 수 있다는 우려다. 이날 토론에서 LG AI연구원과 네이버클라우드는 소버린 AI가 자립형 모델 개발에 그치지 않고 산업 현장과 업무 시스템에 뿌리내리는 것이 중요하다는 데에도 공감대를 형성했다. 특히 김 부문장은 AI 전환(AX)의 필요성을 강하게 주장했다. 그는 "AX가 국가 경쟁력과 기업 경쟁력에 도움이 되느냐를 넘어 현재는 AX를 하지 않으면 도태되는 상황"이라며 "기업은 AI 도입이 늦어져 생산성이 낮아지고 고정비가 커지면 다른 기업과 경쟁에서 이길 수 없고 국가도 AX가 늦어지면 마찬가지로 위험하다"고 역설했다. 이어 "외산 AI를 활용하는 것과 별개로 핵심 영역에서는 우리 스스로 운영 가능한 역량을 갖춰야 한다"며 "소버린 AI 기반을 갖추는 것이 장기적으로 지속 가능한 경쟁력을 만드는 길"이라고 덧붙였다.

2026.01.21 18:36한정호 기자

정부 주도 'AI 고속도로' 본격 확장…NIPA, 올해 SW·인프라에 방점

정보통신산업진흥원(NIPA)이 올해 국가 인공지능(AI) 경쟁력 강화를 위해 정부 주도 첨단 AI 컴퓨팅 인프라 확충과 국산 AI 반도체 산업 역량 확보에 박차를 가한다. NIPA는 21일 서울 양재 엘타워에서 '2026년도 통합 사업설명회'를 열고 소프트웨어(SW)·AI 인프라·글로벌 진출을 포함한 주요 지원사업 추진 방향을 공개했다. NIPA는 최근 AI 전환(AX)이 본격화되는 가운데 인프라 확충, SW 생태계 강화, 글로벌 시장 진출을 함께 추진한다는 전략을 제시했다. 특히 AI 산업 경쟁 핵심 요소로 컴퓨팅 자원 확보가 부각됨에 따라 AI 컴퓨팅 인프라 확충과 활용 지원을 강화하고 국가AI컴퓨팅센터 운영·관리 지원과 소형 데이터센터·서비스 활성화까지 연계하는 방안을 추진한다. 우선 AI 인프라 분야에서는 AI 고속도로 운영을 본격화하는 동시에 이를 확장해 산업 현장 수요에 대응한다는 방침이다. NIPA는 고성능컴퓨팅 지원 사업을 통해 기업과 연구기관의 고성능 연산 수요를 뒷받침하고 AI 바우처 지원과 함께 올해 신규 사업으로 'AX 원스톱 바우처 지원'도 추진할 예정이다. AI 인프라 확충과 관련해서는 첨단 AI 반도체 서버 확충 및 통합 운영환경 구축 사업을 신규로 진행한다. 또 산·학·연 대상 첨단 AI 반도체 활용지원 사업도 새롭게 포함해 국산 AI 반도체 활용 기반을 넓힐 계획이다. 데이터센터 분야 역시 핵심 지원 축으로 반영됐다. NIPA는 올해 신규 사업으로 소형 데이터센터 기반 AI 산업 성장 지원을 추진하고 지속가능한 데이터센터 산업발전 지원 사업을 통해 산업 기반 확산과 안정적 운영 환경 조성에 나선다. SW 부문에서는 오픈소스를 핵심 축으로 삼아 산업 경쟁력을 강화한다는 목표다. NIPA는 오픈소스 AI·SW 개발·활용 지원 사업을 통해 AI 및 SW 개발 생태계를 확대하는 한편 신산업 분야 오픈소스 사업화 지원도 추진해 기술의 상용화 연결을 뒷받침한다. 또 기업의 SW 활용 기반을 높이기 위한 지원 과제들도 포함됐다. 서비스형 소프트웨어(SaaS) 개발·사업화 지원을 통해 SaaS 전문기업 육성을 추진하고 중소기업 등 클라우드서비스 보급확산 사업을 통해 기업들의 클라우드 전환과 서비스 도입을 지원할 계획이다. 글로벌 분야에서는 AICT 산업의 해외시장 선점을 위한 지원을 확대한다. NIPA는 글로벌 신시장 개척을 통해 AICT 수출을 확대하고 해외 진출 역량을 내재화하겠다는 방향을 제시했다. 이를 위한 주요 사업으로 ICT 비즈니스 파트너십, 글로벌 ICT 미래유니콘 육성, 디지털 혁신기업 글로벌 성장 바우처 지원 등을 내세웠다. 아울러 DNA 대중소 파트너십 동반진출, SW 신산업 글로벌 레퍼런스 확대지원, 글로벌 SaaS 마켓플레이스 지원 등도 추진해 국내 SW·AI 기업의 해외 레퍼런스 확보와 수출 확대를 지원할 예정이다. NIPA 측은 "정부 주도 첨단 AI 컴퓨팅 인프라 확충을 통해 대규모 AI 컴퓨팅 자원을 확보하고 국산 AI 반도체의 대규모 실증 인프라 확충과 판로개척을 추진하겠다"며 "글로벌 신시장 개척을 통해 AICT 수출을 확대하고 해외진출 역량 내재화도 지원하겠다"고 밝혔다.

2026.01.21 14:01한정호 기자

주가 40% 빠진 오라클…월가서 반등론 나오는 이유는

오라클 주가가 지난해 9월 중순 최고점을 찍은 후 최근 40% 이상 하락했지만 시장의 기대감은 오히려 다시 높아지고 있다. 인공지능(AI) 시장에 대한 기대 조정이 주가에 영향을 줬지만, 주요 투자은행들이 매출 기반과 고객 구조가 견조한 오라클의 중장기 성장성에 대한 평가를 유지하면서 주가도 재차 반등할 수 있다는 시각이 나온다.19일 업계에 따르면 오라클 주가는 지난 17일 191.09달러로 장을 마쳤다. 이는 52주 최고가(345.72달러)였던 지난해 9월 10일 대비 약 44.5% 정도 하락한 수치다. 이는 AI 투자 자금이 엔비디아를 중심으로 한 반도체·연산 인프라 기업과 오픈AI 관련 플랫폼 기업으로 집중된 반면, 오라클처럼 AI 인프라 투자가 비용으로 먼저 반영되는 기업들은 상대적으로 소외됐기 때문으로 풀이된다. 데이터센터 확장에 따른 감가상각과 자본지출 부담이 단기 실적 우려로 연결되며 주가 하락 압력을 키운 것도 영향이 컸다. 그러나 애널리스트들의 시각은 주가 흐름과 다소 결이 다르다. 최근 기준 오라클에 대해 '매수(Buy)' 의견을 유지하는 애널리스트 비중은 70%를 웃돌고 있다. UBS는 목표주가를 하향 조정하면서도 투자의견은 유지했고, 골드만삭스는 새롭게 오라클에 대한 커버리지를 개시하며 매수 의견을 제시했다. 애널리스트들은 이번 주가 하락을 실적 부진보다는 AI 기대 조정에 따른 밸류에이션 재조정으로 해석하고 있다. AI 인프라 투자 확대에 따라 단기적으로 수익성 압박이 불가피하지만, 매출 기반이나 고객 이탈 등 구조적인 훼손 신호는 제한적이라는 평가다. UBS는 "신용 및 자금조달 관련 우려는 이미 주가에 반영돼 있다"며 오라클의 중기 성장성에 대한 시각은 유지했다. 다만 리스크도 명확하다. 데이터센터와 GPU 확보를 위한 오라클의 대규모 투자가 이어지는 만큼, 투자 대비 수익화 시점이 지연될 경우 현금 흐름 부담이 커질 수 있다. 또 AWS와 마이크로소프트 애저, 구글 클라우드에 비해 개발자 생태계와 브랜드 인지도 측면에서 열세라는 점도 여전히 부담 요인으로 꼽힌다. 하지만 오라클이 완전히 시장에서 외면받지 않는 이유는 AI 인프라 시장에서의 포지션 때문이다. 오라클은 AI 모델 개발 기업이 아닌 대규모 연산을 안정적으로 처리할 수 있는 인프라를 제공하는 데 강점을 갖고 있다. 특히 대형 엔터프라이즈 고객을 중심으로 한 오라클 클라우드 인프라(OCI)는 고성능과 비용 효율성을 앞세워 수요를 확대하고 있다는 평가다. 시장에서는 데이터센터 투자를 단기적인 비용 부담으로 보는 시각이 우세하지만, 애널리스트들은 이를 장기 진입장벽으로 해석했다. 초대형 AI 데이터센터는 초기 투자비가 크지만 일단 가동되면 장기 계약을 통해 안정적인 매출로 이어질 가능성이 높다는 이유에서다. 여기에 데이터베이스와 전사적자원관리(ERP) 등 기존 사업에서의 높은 고객 락인 효과도 주가 하방을 지지하는 요소로 거론된다. 골드만삭스는 최근 오라클에 대한 커버리지를 개시하며 목표주가 240달러와 함께 투자의견 '매수'를 제시했다. 그러면서 "AI 도입 확산은 향후 10년간 소프트웨어 산업의 총주소가능시장(TAM, 특정 산업이 이론적으로 확보할 수 있는 최대 시장 규모)'을 확대할 것"이라며 "오라클은 클라우드 규모와 엔터프라이즈 고객 기반, 데이터센터 확장을 바탕으로 인프라서비스(IaaS) 시장에서 점유율을 높일 수 있는 유리한 위치에 있다"고 평가했다.

2026.01.19 16:41장유미 기자

NHN클라우드, 크래프톤 GPU 클러스터 사업 수주…운영 기술력 입증

NHN클라우드가 대규모 그래픽처리장치(GPU) 클러스터를 서비스형 GPU(GPUaaS)로 구축·운영하는 기술력과 역량을 입증했다. NHN클라우드는 크래프톤이 발주한 GPU 클러스터 사업 최종 사업자로 선정돼 계약을 체결하고 GPUaaS 기반 인프라를 제공한다고 19일 밝혔다. 이번 사업은 크래프톤이 지난해 10월 인공지능(AI) 퍼스트를 경영 핵심 전략으로 선언한 이후 AI 활용을 본격 확대하는 과정에서 증가하는 AI 연산 수요에 대응하기 위해 추진됐다. GPU 클러스터는 AI 플랫폼과 데이터 통합·자동화 기반 고도화 등 중장기 AI 전략을 안정적으로 실행하기 위한 핵심 기반으로, NHN클라우드가 제공하는 GPUaaS를 활용해 인프라를 유연하게 확장하고 운영 효율을 높이는 데 초점을 맞췄다. NHN클라우드는 이번 사업에서 대규모 GPU 클러스터를 제공함으로써 크래프톤의 AI 전략 실행을 뒷받침한다. NHN클라우드가 광주 국가 AI 센터를 자체 설계·구축하고 2021년부터 현재까지 GPUaaS 서비스를 안정적으로 제공해 온 기술력을 보유한 점과 수년간 다수 공공·민간 고객을 대상으로 AI 인프라 서비스를 운영해 온 경험이 이번 사업 파트너로 선정된 배경으로 꼽힌다. 또 고객 요구사항을 면밀히 분석해 함께 시스템을 설계·구축해 온 컨설팅 및 사업 수행 역량도 강점으로 작용했다. NHN클라우드는 이번 사업에서 엔비디아 최신 GPU인 블랙웰 울트라 1천여 장으로 구성된 GPU 팜을 멀티 클러스터 구조로 구성해 대규모 AI 연산 환경을 구축한다. 여기에 XDR-800G급 초고속 인피니밴드 네트워크를 적용해 GPU 간 대용량 데이터를 저지연·고속으로 전송할 수 있도록 설계한다. 이를 통해 여러 GPU를 동시에 사용하는 환경에서도 데이터 전송 지연을 최소화하고 고성능 GPU를 효과적으로 활용해 AI 모델 학습 속도를 높이는 한편 전반적인 AI 작업을 안정적으로 운영할 수 있도록 할 계획이다. NHN클라우드는 GPU 클러스터 구성 요소를 효율적으로 조합해 동일 예산 대비 실제 활용 가능한 GPU 연산 자원을 극대화했으며 장기적인 운영 효율까지 고려한 구조로 설계했다. 특히 GPU를 여러 작업이 함께 사용할 수 있도록 동적 관리 구조를 적용한다. 이를 통해 AI 개발·학습·추론 등 다양한 작업이 동시에 진행되더라도 GPU 자원을 필요에 따라 유연하게 나눠 쓰고 조정할 수 있어 유휴 자원을 최소화하고 전체 클러스터 활용 효율을 높일 계획이다. 이같은 GPU 리소스 동적 관리 방식은 소규모 AI 개발 환경부터 대규모언어모델(LLM) 학습까지 AI 작업 규모와 특성에 맞춰 GPU 활용도를 탄력적으로 조정할 수 있다. 아울러 NHN클라우드는 맞춤형 GPUaaS로 AI 개발과 운영 전반에 유연한 환경을 제공한다. 대규모 AI 학습과 연산 특성에 맞춰 쿠버네티스와 고성능 컴퓨팅(HPC) 환경에 적합한 슬럼 기반 자원 관리 솔루션을 적용해 다양한 AI 작업이 동시에 진행되는 환경에서도 안정적인 운영이 가능하다. 이에 더해 다양한 AI 개발 도구와 외부 시스템을 연동할 수 있는 구조를 갖춰 AI 서비스 개발 속도와 전반적인 업무 효율을 함께 높일 수 있도록 지원할 계획이다. 이번 블랙웰 울트라 GPU 인프라는 NHN클라우드 판교 NCC 센터에 구축된다. 판교 NCC는 고집적 연산을 원활히 운영할 수 있는 전력·냉각 인프라와 우수한 네트워크 연결성을 갖춰 대규모 AI 워크로드 처리에 적합한 시설이다. 해당 인프라는 오는 7월 중 구축을 완료하고 본격 가동될 예정이다. 크래프톤 관계자는 "AI 퍼스트 전략을 추진하는 과정에서 GPU 클러스터는 전사 AI 운영 핵심 기반"이라며 "NHN클라우드의 우수한 GPUaaS 서비스를 통해 AI 연구와 서비스 전반의 확장성과 효율성을 강화할 수 있을 것으로 기대한다"고 말했다. NHN클라우드 관계자는 "이번 프로젝트는 대규모 GPU 클러스터를 GPUaaS 형태로 구축·운영할 수 있는 우리 기술력과 운영 역량을 입증한 사례"라며 "7월 가동을 시작으로 크래프톤의 AI 퍼스트 전략을 실질적으로 뒷받침할 수 있도록 안정적인 클러스터 제공과 운영 기술 지원에 집중하겠다"고 밝혔다.

2026.01.19 10:51한정호 기자

오픈AI, 세레브라스와 14조원 규모 컴퓨팅 계약…"엔비디아 의존 낮춘다"

오픈AI가 차세대 인공지능(AI) 서비스 경쟁력 강화를 위해 대규모 컴퓨팅 인프라 확충에 나섰다. 반도체 스타트업 세레브라스와 수십억 달러 규모 장기 계약을 체결하며 AI 추론 속도와 서비스 확장성을 동시에 끌어올린다는 전략이다. 15일 블룸버그통신에 따르면 오픈AI는 세레브라스와 다년간 협력 계약을 체결하고 총 750메가와트(MW) 규모 컴퓨팅 파워를 공급받기로 했다. 해당 인프라는 단계적으로 구축되며 완공 목표 시점은 2028년이다. 계약 규모는 100억 달러(약 14조원)를 웃도는 것으로 알려졌다. 이번 계약은 오픈AI가 챗GPT 등 자사 AI 모델 응답 속도를 개선하려는 조치로 풀이된다. 양사는 공동 성명을 통해 세레브라스 인프라가 오픈AI 모델 실행 시 지연 시간을 줄이고 대규모 사용자 유입에 대비한 안정적인 서비스 운영을 가능하게 할 것이라고 밝혔다. 세레브라스는 초대형 단일 칩을 기반으로 한 독자적 반도체 아키텍처를 앞세워 엔비디아 중심 그래픽처리장치(GPU) 시장에 도전하고 있는 기업이다. 데이터센터 운영까지 직접 수행하며 AI 추론 분야 경쟁력을 강조해 왔다. 협약 배경에 대해 오픈AI는 'GPT-OSS-120B' 모델 테스트에서 세레브라스 시스템이 기존 하드웨어 대비 최대 15배 빠른 성능을 보였다고 설명했다. 오픈AI의 대규모 인프라 투자는 이번이 처음이 아니다. 엔비디아는 지난해 오픈AI에 최대 1천억 달러(약 146조원)를 투자해 10기가와트(GW)급 데이터센터 구축을 추진하겠다고 밝혔으며 AMD 역시 수년간 6GW 규모 GPU를 공급하기로 했다. 이와 별도로 오픈AI는 브로드컴과 자체 AI 칩 개발도 진행 중이다. 업계에서는 이번 계약을 오픈AI가 컴퓨팅 포트폴리오를 다각화하는 전략의 일환으로 보고 있다. 오픈AI는 특정 하드웨어에 대한 의존도를 낮추고 워크로드 특성에 맞는 최적의 시스템을 조합해 AI 서비스 확장성을 높인다는 목표다. 오픈AI 사친 카티 컴퓨팅 인프라 담당은 "세레브라스는 우리 플랫폼에 저지연 추론 솔루션을 더해 더 빠른 응답과 자연스러운 상호작용을 가능케 한다"며 "더 많은 사람에게 실시간 AI를 확장할 수 있는 기반을 제공할 것"이라고 밝혔다.

2026.01.15 11:29한정호 기자

퓨리오사AI, 망고부스트와 맞손...AI 데이터센터 공략 가속화

AI 반도체 기업 퓨리오사AI와 망고부스트가 차세대 AI 데이터센터 시장 공략을 위해 손을 잡았다. 퓨리오사AI는 망고부스트와 차세대 AI 인프라 기술 공동 개발을 위한 업무협약(MOU)을 체결했다고 15일 밝혔다. 양사는 이번 협약을 통해 인공지능 및 데이터센터 인프라 분야에서 상호 협력 체계를 구축하고, 기술 교류를 통해 데이터센터 시장에서의 경쟁력을 강화한다는 방침이다. 전 세계 기업들이 본격적으로 인공지능 인프라 구축을 통한 인공지능 전환(AX)에 나서고 있는 가운데 GPU의 높은 전력소비는 인공지능의 빠른 확산에 병목으로 작용하고 있다. 이에 실제 인공지능 서비스 환경이 요구하는 성능을 높은 효율로 구현할 수 있는 반도체 솔루션에 대한 시장 수요가 나날이 폭증하고 있다. 고효율 반도체는 인프라 전성비를 개선시킬 뿐 아니라 냉각 설비, 부지 선정 등 제약요건을 완화시키는 만큼 인프라 구축 시점을 단축시키고 인공지능 전환을 가속화한다. 퓨리오사AI는 AI 연산에 특화된 독자적인 칩 아키텍처 텐서 축약 프로세서(TCP)와 소프트웨어 스택 기술을 보유중이며, HBM을 탑재한 2세대 칩 RNGD(레니게이드) 양산을 이달 말 앞두고 있다. 망고부스트는 고성능 네트워킹에 특화된 DPU(데이터처리장치)및 AI 시스템 성능 최적화 기술을 보유 중이며, 이달 초 400GbE 급 성능을 가진 BoostX DPU 제품군의 양산을 시작했다. 세계적으로 기술력을 인정받은 딥테크 기업간의 협력이라는 점에서 세계적으로 대두되고 있는 인공지능 병목을 해소할 수 있을지 결과가 주목된다. 백준호 퓨리오사AI 대표는 “차세대 AI 데이터센터의 경쟁력은 고성능 AI 반도체와 네트워킹 칩을 얼마나 긴밀하고 효율적으로 결합하느냐에 달려 있다"며 "퓨리오사AI는 망고부스트와의 협력을 통해 대한민국 AI 인프라 기술의 새로운 가능성을 보여주겠다”라고 말했다. 김장우 망고부스트 대표는 “이번 협약은 대한민국을 대표하는 AI 반도체 스타트업 간의 전략적 결합이라는 점에서 의미가 크다”며 “양사의 혁신 기술을 결합해 효율적이고 지속가능한 차세대 데이터센터의 표준을 제시하겠다”고 밝혔다.

2026.01.15 10:19전화평 기자

MS "AI 데이터센터 전기료, 소비자에 전가 안 한다"…지역사회 우선 내세워

인공지능(AI) 데이터센터 확산으로 '전기 먹는 하마' 논란이 거세지는 가운데, 마이크로소프트(MS)가 전력 비용을 소비자에게 전가하지 않겠다는 지역사회 우선 운영 원칙을 내걸며 여론 달래기에 나섰다. 데이터센터 전력 수요가 가정용 전기요금 인상으로 이어질 수 있다는 우려가 커지자, 빅테크가 비용을 직접 부담해야 한다는 압박이 본격화되는 분위기다. 14일 월스트리트저널(WSJ)에 따르면 MS는 미국 내 자사 AI 데이터센터가 사용하는 전력 비용이 일반 소비자 요금으로 넘어가지 않도록 전력회사와 공공위원회에 충분히 높은 요금 책정을 요구하겠다고 밝혔다. MS는 데이터센터 전력 비용이 지역 전기요금 인상으로 이어진다는 반발을 의식해 기업용 요금 체계 개편을 통해 주민 부담을 원천 차단하겠다는 입장이다. 브래드 스미스 MS 사장은 미국 위스콘신주가 초대형 전력 소비 기업에 높은 비용을 청구하는 새로운 요금체계를 마련한 점을 벤치마킹 모델로 제시하며 다른 주에서도 유사 정책이 도입될 수 있도록 추진하겠다고 설명했다. 전력 이슈뿐 아니라 환경 부담 완화도 함께 꺼냈다. 데이터센터 냉각 과정에서 쓰이는 물 사용량을 최소화하고 취수량보다 더 많은 물을 지역사회에 보충하겠다는 약속이다. 이와 함께 지역 일자리 창출, 지방세 인하 요구 중단, AI 교육 및 비영리단체 지원 강화 등도 공약으로 내걸었다. 이번 조치는 데이터센터 확산이 미국 내 정치·사회적 쟁점으로 부상한 흐름과 맞물려 있다. 지난 1년간 미국 내에서는 데이터센터에 대한 지역 반발이 거세진 상황이다. 데이터센터는 생성형 AI 모델을 학습·운영하는 핵심 인프라지만, 막대한 전력 소비로 전력망 부담과 요금 상승 우려를 키우는 시설로 평가된다. 이 때문에 미국 곳곳에서 데이터센터 건립 반대 움직임이 확산되고 있으며 일부 프로젝트는 지역 반발로 지연되거나 중단되는 사례도 이어지고 있다. 도널드 트럼프 미국 대통령도 빅테크의 비용 부담 필요성을 전면에 내세우고 있다. 트럼프 대통령은 SNS를 통해 MS의 전기료 부담 방침을 "미국인이 전력 소비 부담을 떠안지 않도록 하는 조치"라고 평가하며 다른 기업을 향해서도 유사한 대응을 예고했다. 업계 전반으로도 전력 비용과 지역사회 부담을 완화하려는 흐름이 확산하는 모습이다. 앞서 메타는 원전기업들과 대규모 전력 공급 계약을 발표하며 데이터센터 에너지 비용을 전액 부담해 소비자 부담을 줄이겠다는 취지의 입장을 밝힌 바 있다. 브래드 스미스 MS 사장은 "데이터센터가 소모하는 전력 비용을 충당할 수 있을 정도로 높은 요금을 전력 업체와 이를 승인하는 공공위원회가 책정할 수 있도록 요청하겠다"고 강조했다.

2026.01.14 15:37한정호 기자

HPE "AI 네이티브 전환 확산…인프라 경쟁력 기준 달라진다"

인공지능(AI)이 데이터센터와 네트워킹 인프라의 설계·운영 방식 전반을 재편하면서 향후 인프라 경쟁력 기준 역시 근본적으로 달라질 것이란 전망이 나왔다. AI를 중심으로 한 자동화·자율화 흐름이 본격화되며 데이터센터는 물론 네트워크 운영과 인력 역할까지 구조적 전환이 불가피하다는 분석이다. 13일 HPE가 발표한 올해 데이터센터 및 네트워킹 인프라 분야 주요 전망에 따르면 데이터센터와 네트워킹 인프라는 올해를 기점으로 AI 네이티브 구조로 빠르게 전환될 것으로 전망된다. 워크로드 배치, 장애 예측, 성능 최적화는 물론 에너지 효율 관리와 전력 비용 협상까지 AI가 지원하는 폐쇄형 루프 운영 모델이 확산되며 수동 개입 중심 기존 운영 방식은 점차 한계를 드러낼 것으로 예상된다. 특히 데이터센터 영역에서는 엣지와 AI 결합이 가속화되면서 마이크로 하이퍼스케일러가 새로운 인프라 모델로 부상할 것으로 전망했다. 고속 이더넷과 AI 추론 가속기, 자율 운영 기술을 기반으로 한 소규모 데이터센터가 지역 단위에서 중앙 클라우드 워크로드를 분산 처리하며 엣지는 단순한 보조 인프라를 넘어 전략적 수익 창출 거점으로 역할이 확대될 것으로 분석했다. 네트워크 구조 역시 AI 학습과 추론에 최적화된 방향으로 재편될 것으로 보인다. HPE는 올해 이후 데이터센터 설계 출발점이 컴퓨트가 아닌 네트워크 패브릭이 될 것으로 내다봤다. 조 단위 파라미터 모델 확산과 함께 개방형 고성능 이더넷 기반 AI 패브릭 수요가 증가하면서 네트워크는 애플리케이션을 인지하고 실시간으로 적응하는 지능형 구조로 진화할 것이란 전망이다. 이더넷 자율화도 주요 변화로 꼽혔다. AI 텔레메트리를 내장한 스위치 ASIC을 통해 혼잡 제어와 전력 효율 최적화가 자동으로 이뤄지고 의도 기반 네트워킹은 패브릭 스스로 학습·예측·교정하는 형태로 구현될 것이란 설명이다. 이에 따라 복잡한 CLI 중심의 네트워크 운영 방식은 점차 사라질 것으로 예상했다. 보안 역시 네트워크 패브릭의 기본 요소로 내재화될 것으로 전망했다. 모든 패킷과 포트, 프로세스에 신뢰 점수를 부여하고 분산형 AI 엔진이 이를 실시간 검증하는 구조가 확산되면서 제로 트러스트 데이터센터가 기본 설계 기준으로 자리 잡을 것이란 분석이다. 무선 네트워크 분야에서는 AI 운영관리(Ops)가 핵심 운영 요소로 부상할 것으로 보인다. HPE는 복잡해진 무선 환경에서 AI 기반 운영 없이는 안정적인 네트워크 품질 유지가 어려워질 것으로 내다봤다. AI가 혼잡을 예측하고 RF 동작과 채널 구성을 자동 최적화하면서 기존 수동 튜닝 중심 운영 방식은 점차 사라질 것이란 설명이다. HPE는 에이전틱 AI를 기반으로 한 LAN의 역할 변화도 주목했다. LAN은 단순히 장애를 복구하는 수준을 넘어 사용자 경험을 사전에 예측하고 선제적으로 최적화하는 경험 엔진으로 진화한다는 전망이다. 스위치와 액세스 포인트에 내장된 AI 에이전트가 사용자 행동과 서비스 수요를 분석해 성능 저하를 체감하기 전에 문제를 해결하는 구조가 확산될 것으로 분석했다. 이와 함께 유선·무선·WAN을 넘어 컴퓨트와 스토리지를 아우르는 풀스택 통합 운영이 기본값으로 자리 잡을 것이라고 밝혔다. 기업들은 단일 운영 프레임워크와 공통 AI 거버넌스 하에서 전체 인프라를 관리할 수 있는 환경을 요구하게 되며 경쟁력 기준도 개별 제품 성능이 아닌 통합된 시스템 완성도로 이동할 것이란 전망이다. 인력 측면에서도 변화가 예상된다. HPE는 네트워크 엔지니어 역할이 단순 설정·운영 중심에서 AI 코파일럿과 협업하는 전략적 역할로 진화할 것으로 내다봤다. 생성형 AI가 1차 운영과 장애 대응을 담당하면서 엔지니어는 대규모 자동화를 설계·검증하고 AI를 오케스트레이션하는 역할에 집중하게 될 것이란 설명이다. HPE는 "올해 데이터센터와 네트워킹 인프라는 개별 기술의 집합이 아닌, AI를 중심으로 단일 유기체처럼 동작하는 구조로 진화할 것"이라며 "성공적인 기업은 풀스택 인프라를 단일한 경험으로 제공할 수 있는 전략을 선택하게 될 것"이라고 강조했다.

2026.01.13 15:14한정호 기자

"AI 확산에 데이터센터 투자, 2030년까지 3조 달러 몰린다"

인공지능(AI)과 클라우드 확산으로 글로벌 데이터센터 산업에 향후 수년간 천문학적인 자금이 투입될 전망이다. 서버와 전산 장비는 물론 데이터센터 시설, 전력 인프라까지 대규모 투자가 불가피하다는 분석이 나왔다. 13일 신용평가기관 무디스에 따르면 전 세계 데이터센터 관련 투자 규모는 2030년까지 최소 3조 달러(약 4천411조원)에 이를 것으로 예상된다. 무디스는 최근 보고서를 통해 AI와 클라우드 컴퓨팅 수요 확대를 뒷받침하기 위해 서버, 컴퓨팅 장비, 데이터센터 시설, 신규 전력 설비 전반에 걸쳐 막대한 자본 투입이 필요하다고 밝혔다. 투자 자금 상당 부분은 빅테크 기업들이 직접 부담할 것으로 전망된다. 무디스는 마이크로소프트(MS)·아마존·알파벳·오라클·메타·코어위브 등 미국 내 6개 하이퍼스케일러가 올해 데이터센터 투자에만 약 5천억 달러(약 735조원)를 집행할 것으로 내다봤다. 데이터센터 용량 확장이 지속되는 가운데 이를 운영하기 위한 전력 수요 역시 빠르게 증가하고 있다는 설명이다. 자금 조달 측면에서는 은행권의 역할이 여전히 핵심을 차지하는 한편, 대규모 자본 수요에 대응해 기관투자가들의 참여도 확대될 것으로 분석됐다. 향후 은행과 함께 다른 기관투자가들이 공동으로 금융을 제공하는 사례가 늘어날 것이라는 전망이다. 또 무디스는 미국 내 데이터센터들이 차환 시점에 자산유동화증권(ABS), 상업용 부동산담보부증권(CMBS), 프라이빗 크레딧 시장을 보다 적극적으로 활용할 가능성이 높다고 봤다. 올해 기록적인 자금 발행 이후 신규 금융 규모와 집중도가 더 커질 것으로 예상됐다. 실제 미국 ABS 시장에서는 지난해 약 150억 달러(약 22조원)가 발행된 만큼, 데이터센터 건설 대출을 중심으로 올해 발행 규모가 크게 증가할 것으로 전망했다. AI 확산을 뒷받침하기 위해 필요한 막대한 부채 규모를 두고 일각에서는 거품 우려도 제기되고 있다. 일부 기술이 기대에 못 미칠 경우 주식 및 신용 투자자들에게 부정적인 영향을 미칠 수 있다는 지적이다. 다만 무디스는 신규 데이터센터 건설 수요가 둔화될 조짐은 보이지 않는다고 평가했다. 무디스는 데이터센터 증설 경쟁이 아직 초기 단계에 있으며 향후 12~18개월 동안 글로벌 시장에서 성장세가 이어질 것으로 내다봤다. 장기적으로는 향후 10년 내 필요한 용량을 확보하기 위한 투자가 지속될 것이라는 분석이다. 무디스 존 메디나 수석 부사장은 "불과 3년 전만 해도 존재하지 않았던 챗GPT와 같은 서비스가 이제는 막대한 연산 자원을 사용하고 있다"며 "신기술 등장 속도가 빨라 향후 채택 속도를 정확히 예측하기는 어렵지만, 데이터센터 용량 증설은 결국 필요해질 것"이라고 말했다.

2026.01.13 11:20한정호 기자

몬드리안에이아이, '네오클라우드' 사업 출사표…포스트매스와 AI 에듀테크 고도화

몬드리안에이아이가 글로벌 인공지능(AI) 시장 새 패러다임인 '네오클라우드' 사업에 본격 나섰다. 몬드리안에이아이는 포스트매스와 손잡고 AI 에듀테크 플랫폼 고도화를 위한 전략적 파트너십을 체결했다고 12일 밝혔다. 몬드리안에이아이는 이번 파트너십을 통해 최신 엔비디아 그래픽처리장치(GPU)인 B300 클러스터를 구축하고 이를 기반으로 한 차세대 네오클라우드 서비스를 선보인다. 네오클라우드는 기존 범용 퍼블릭 클라우드와 달리, 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스다. 몬드리안에이아이는 자사 AI 플랫폼 '런유어 AI'와 첨단 GPU 자산을 결합해 포스트매스와 같은 딥테크 기업이 인프라 제약 없이 혁신을 주도하도록 지원하는 네오클라우드 서비스 공급자로서 입지를 공고히 할 계획이다. 몬드리안에이아이 네오클라우드 인프라는 포스트매스가 추진하는 AI 기반 에듀테크 플랫폼 고도화를 뒷받침하는 핵심 엔진 역할을 수행할 전망이다. 포스트매스는 몬드리안에이아이 B300 인프라를 활용해 자체 AI 모델 개발과 400만 개 이상 데이터베이스(DB)를 활용한 AI 학습·자동화 솔루션 개발에 적용할 예정이다. 이는 포스트매스가 첨단 AI 인프라 확보를 통해 교육 솔루션 완전 자동화와 글로벌 확장을 앞당기고자 하는 적극적 투자 전략이다. 몬드리안에이아이는 네오클라우드 사업 핵심인 매니지드 서비스 역량을 집중 투입한다. B300 하이엔드 GPU 운영에 필수적인 고밀도 전력 및 냉각 시스템, 머신러닝 운영관리(MLOps) 기술력을 바탕으로 포스트매스 연구진이 인프라 관리 부담 없이 AI 모델 연구와 서비스 혁신에만 몰입할 수 있는 환경을 제공한다는 방침이다. 이와 함께 몬드리안에이아이는 고성능 인프라 확보와 안정적인 운영 환경 구축에 어려움을 겪는 기업 및 연구기관을 대상으로 AI 인프라 전략 컨설팅을 상시 운영한다. 차세대 추론형 AI 모델 개발을 위해 고성능 연산 자원이 필요한 고객사를 대상으로 전문 매니지드 서비스를 제공해 인프라 구축부터 최적화까지 원스톱 솔루션을 지원할 계획이다. 홍대의 몬드리안에이아이 대표는 "이번 협력은 우리가 표방하는 네오클라우드 비즈니스의 본격적인 출발점"이라며 "포스트매스가 주도하는 에듀테크 플랫폼 솔루션 혁명이 성공적으로 안착할 수 있도록 독보적인 인프라 기술력을 총동원하겠다"고 밝혔다. 최준호 포스트매스 대표는 "올해는 우리가 운영하는 AI 콘텐츠 제작 플랫폼 '수학비서'가 글로벌 에듀테크 플랫폼으로 약진하는 시발점이 될 것이기에 그 어느 때보다 AI 인프라가 중요한 시점"이라며 "몬드리안에이아이와의 파트너십이 좋은 선례가 될 것으로 기대하며 상호 보완 및 협력 사업 발굴에 적극 임할 것"이라고 말했다.

2026.01.12 17:00한정호 기자

이노그리드, 전국 6개 권역 지사 체계 전환…지역 클라우드 대응 강화

이노그리드가 지방 고객 확대와 지역별 클라우드 서비스 수요 증가에 박차를 가한다. 이노그리드는 전국 6개 권역 기반 지사 운영 체계로 전환하고 영업·기술지원 역량 강화를 중심으로 한 영업 확장 전략을 본격 추진한다고 12일 밝혔다. 이번 지사 체계 전환은 기존 수도권 중심 단일 운영 구조에서 벗어나 권역별 고객 대응 프로세스를 고도화하고 지역 특성에 맞춘 영업 전략을 단계적으로 확대해 전국 단위 B2B 고객 지원 역량을 강화하려는 조치다. 이노그리드는 이번 지사 체계 전환에 앞서 대표 직속 조직을 폐지하고 개발·사업·수행·BD·전략·경영 등 6개 그룹 체계로 조직을 재편하는 전사 조직개편을 단행했다. 각 그룹장 책임 아래 기능별 전문성과 의사결정, 실행력을 강화해 회사 전반의 사업 수행 효율과 운영 안정성을 높였다는 설명이다. 이같은 조직개편을 바탕으로 이노그리드는 전국을 ▲서울·강원 ▲인천·경기 ▲충청 ▲호남 ▲영남 ▲대구·경북 등 6개 권역으로 구분해 운영한다. 서울·강원과 인천·경기 권역은 기존과 같이 서울 본사를 중심으로 통합 대응하고 충청권에는 대전지사, 호남권에는 광주지사, 영남권에는 부산지사, 대구·경북 권역에는 대구지사를 운영한다. 이를 통해 전국 6개 권역, 4개 지사 기반의 전국 단위 클라우드 서비스 네트워크를 가동한다. 각 지사는 단순 영업 거점이 아닌 클라우드, 인공지능(AI) 인프라 구축, 재해복구(DR) 시스템 구축, 외산 솔루션 윈백, 전환 컨설팅, 서비스 운영 및 기술지원 등 클라우드 전문기업 역할을 수행하게 된다. 또 지역 내 공공기관 및 기업 고객을 대상으로 영업 활동과 지역별 특성·수요를 반영한 맞춤형 서비스를 제공한다. 지사 체계는 박홍선 상무가 총괄한다. 박홍선 리전 익스펜션 사업본부장은 "이번 지사 체계 전환은 우리 핵심 역량인 클라우드 기술력을 전국으로 확산하고 지역별 고객들에게 보다 신속하고 차별화된 고품질 서비스를 제공하기 위한 전략적 결정"이라며 "각 권역에서 영업과 기술지원이 유기적으로 협력해 고객과 거리를 좁히고 지역 현장에서 체감할 수 있는 실질적인 서비스 경쟁력을 지속 강화해 나가겠다"고 밝혔다. 또 이노그리드는 지사 운영과 연계해 지역 기반 기술 인력 확보에도 나선다. 지역 우수 IT 인재 채용을 통해 수도권 중심 인력 구조에서 벗어나고 본사와 지사 간 협업 체계를 강화해 분산된 환경에서도 안정적인 프로젝트 수행과 기술지원이 가능케 할 계획이다. 아울러 지사 설립을 계기로 지역 IT 기업들과 협력도 강화한다. 클라우드 기술력과 지역 IT 기업의 인프라 및 시장 이해도를 결합해 지역별 산업 특성에 최적화된 맞춤형 디지털 전환 모델을 공동 개발하고 판로 개척을 지원하는 등 동반 성장을 추진할 방침이다. 김명진 이노그리드 대표는 "이번 지사 체계 전환은 올해 AI 시대를 주도하는 클라우드 솔루션 기업으로 도약하기 위한 사업 확산의 초석으로, 전국 6개 권역을 중심으로 고객 접점을 촘촘히 넓히고 지역 특화 파트너와 협업을 제도화해 전국 단위 파트너사 체계를 확립하겠다"고 말했다. 이어 "기술과 실행으로 고객 가치를 높이고 지역과 함께 성장하는 디지털 전환 생태계를 만들어 가겠다"고 덧붙였다.

2026.01.12 11:36한정호 기자

생성형 AI, 수업·행정 효율 돕지만…가트너 "관리 역량 부족"

전 세계 교육 기관이 생성형 인공지능(AI)을 수업 준비와 행정 업무 효율화에 활용하고 있지만 기술 공정성과 활용 범위에 대한 기준과 거버넌스는 여전히 부족하다는 분석이 나왔다. 11일 가트너가 공개한 트렌드 보고서에 따르면 각국 초·중·고 학교에는 AI 기술 도입 속도와 이를 관리하는 체계 사이에 뚜렷한 격차가 존재하는 것으로 나타났다. 가트너는 교육기관 내 AI 확산이 오히려 관리와 기준 공백을 키우고 있다고 진단했다. 이에 따라 교육 기술 경쟁 초점도 단순한 도입을 넘어 거버넌스와 통합 운영으로 이동하고 있다는 분석이다. 보고서는 생성형 AI가 수업 준비와 행정 업무 전반에 빠르게 적용되고 있는 반면, 학생 데이터 보호를 비롯해 기술 공정성, 활용 범위에 대한 명확한 기준과 관리 체계는 여전히 미흡하다고 지적했다. 특히 학생 개인정보와 학습 기록, 행동 데이터가 AI 시스템과 연결되면서 실시간 모니터링, 제로 트러스트 보안, 사이버 위협 대응 역량이 충분히 뒷받침되지 않고 있다는 평가가 나왔다. 가트너는 코로나 시기 대규모로 도입된 노트북, 태블릿, 네트워크 장비가 노후화 단계에 접어든 점도 주요 배경으로 봤다. 이에 단기적인 기기 교체가 아닌 장기 기술 교체와 클라우드 전환이 학교 운영 핵심 과제가 될 것이라고 전망했다. 또 학교 선택제 확대와 홈스쿨링 증가로 학습 모델이 다변화되면서, 학생 이동, 등록, 학습 이력을 통합 분석하는 상호운용 플랫폼에 대한 수요도 함께 커지고 있다고 분석했다. 가트너는 "각국 학교는 AI와 보안, 디지털 인프라를 개별 과제가 아닌 통합 전략으로 다뤄야 한다"며 "효율성과 규제, 학생 보호를 동시에 충족하는 구조로 전환해야 한다"고 밝혔다.

2026.01.11 15:00김미정 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

국제유가 100달러 육박…주간 상승률 43년만에 최고

갤럭시S26 사러 신도림 갔더니…"한 달 뒤 오세요"

왜 지금 단종인가…천만 관객이 선택한 ‘패배한 왕’

[AI전 된 이란전①] 우크라이나서 이란까지…AI로 진화된 전장

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.