• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (381건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

LG CNS, 삼송 데이터센터 최소 7800억 매출 확보

LG CNS가 코로케이션과 위탁운영을 동시에 확보하며 삼송 데이터센터를 축으로 인공지능(AI) 인프라 사업 확대에 속도를 내고 있다. 40여 년간 축적한 데이터센터 역량을 바탕으로 LG CNS는 국내 점유율 1위를 공고히 함과 동시에 차세대 '모듈형 AI 데이터센터(AIDC)'를 앞세워 글로벌 시장까지 진출할 계획이다. 1일 금융감독원 전자공시시스템에 따르면 LG CNS는 2차 구축 중인 삼송 데이터센터에 네이버클라우드, 우리은행과 연이어 대규모 장기 계약을 체결했다. "단일 계약 최대 규모"…네이버클라우드와 두 번째 대규모 계약 LG CNS는 네이버클라우드와 '삼송 데이터센터 코로케이션(Co-location) 서비스 계약'을 맺었다. 코로케이션은 기업이 막대한 비용을 들여 데이터센터를 직접 짓는 대신, 전문 데이터센터 내에 자사의 서버와 네트워크 장비 등을 설치할 공간을 임대하고 전력·냉각·보안·운영 등 필수 인프라를 종합적으로 제공받는 서비스다. 네이버클라우드가 공시를 통해 밝힌 바에 따르면 이번 계약은 6030억원에 달한다. 올해 국내에서 체결된 데이터센터 코로케이션 사업 중 최대 규모이자 LG CNS가 진행한 단일 계약 기준으로도 역대 최대 규모인 것으로 전해졌다. 계약 기간은 올해 7월부터 2035년 5월까지다. 이는 지난해 체결된 죽전 데이터센터에 이은 양사 간 두 번째 대형 계약으로 네이버클라우드는 AI 등 핵심 기술 운영에 필요한 하이엔드급 인프라를 안정적으로 확장하게 됐다. 기업 입장에서는 초기 인프라 구축 비용(CAPEX)을 대폭 절감하고 핵심 비즈니스에만 역량을 집중할 수 있는 강점이 있다. 더불어 LG CNS는 삼송 데이터센터 소유사인 이지스자산운용과 약 1820억원 규모 '고양 삼송 데이터센터 위탁운영 계약'도 체결했다. 계약 기간은 2035년 5월까지다. 결과적으로 LG CNS는 삼송 데이터센터를 통해 상면 임대와 위탁운영이라는 두 가지 비즈니스 모델을 통해 약 7800억원에 달하는 대형 장기 수익을 확정지었다. 국내 DBO 점유율 60%…'원 LG' 앞세워 글로벌 진출 가속 LG CNS는 이번 대형 계약 수주의 배경에는 약 40년간 데이터센터 사업을 수행하며 입증한 기술력이 자리하고 있다고 밝혔다. 2019년 국내 최초로 데이터센터 설계·구축·운영(DBO) 사업 모델을 도입해 하남, 죽전, 삼송 등 수십 메가와트(MW) 규모의 하이퍼스케일급 데이터센터 구축 사업을 성공적으로 수행해 왔다. LG CNS는 국내 데이터센터 DBO 설계·컨설팅 영역에서 약 60% 점유율을 차지하고 있으며 구축 및 운영 영역에서도 최고 수준을 기록 중이다. 자체 데이터센터 역시 국내 최초로 오픈한 이래 부산, 상암, 가산을 비롯해 미국, 유럽, 중국 등 글로벌 거점에서 운영하고 있다. 생성형 AI 확산으로 고전력·고밀도 인프라 수요가 급증함에 따라 LG CNS는 6개월 내 구축이 가능한 혁신적인 '모듈형 AI 데이터센터'도 선보였다. 이 모델은 컨테이너 하나에 GPU 576장을 수용하는 소형 데이터센터로, 통상 2년이 걸리던 구축 기간을 단축하고 컨테이너 결합을 통해 하이퍼스케일급으로 확장이 가능하다. LG CNS는 지난해 '원 LG' 기술력을 결집해 인도네시아 자카르타에서 1000억원 규모의 하이퍼스케일급 AI 데이터센터 사업을 수주하며 한국 기업 최초로 해외 진출의 포문을 열었다. 향후 베트남 등 추가적인 글로벌 시장 공략에도 박차를 가할 계획이다. 한 업계 관계자는 "LG CNS가 데이터센터 역량을 바탕으로 안정적인 장기 수익 구조를 구축하고 있다"며 "이를 바탕으로 국내는 물론 글로벌 AI 데이터센터 시장까지 적극적으로 진출할 것으로 예상된다"고 말했다.

2026.04.01 16:03남혁우 기자

오라클, AI 투자 확대에 인력 수천명 감축…클라우드·DB 전반 영향

오라클이 인공지능(AI) 인프라 투자 확대에 따른 재원 확보를 위해 대규모 인력 감축에 나섰다. 클라우드와 데이터베이스(DB) 사업 전반에서 구조조정을 단행하며 비용 절감과 동시에 데이터센터 구축 등 AI 투자를 강화하는 모습이다. 31일(현지시간) 월스트리트저널에 따르면 오라클은 이날 미국과 인도 등 주요 거점에서 직원들에게 해고 통보를 시작했으며 감원은 클라우드·DB 등 핵심 사업 전반에 걸쳐 진행되고 있다. 일부 직원들은 이날 새벽 이메일을 통해 "현재 사업적 필요를 고려해 직무를 없애기로 했다"는 통보와 함께 즉시 근무 종료를 안내받은 것으로 전해졌다. 정확한 감원 규모는 공개되지 않았지만, 내부 지표 기준 이미 수천 명 수준에 이른 것으로 알려졌다. 앞서 투자은행 TD코웬은 오라클이 AI 인프라 투자 재원을 마련하기 위해 최대 3만 명까지 인력을 줄일 가능성을 제기한 바 있다. 오라클의 전체 직원 수는 지난해 기준 약 16만 2000명이다. 이번 구조조정은 오라클이 오픈AI와 추진 중인 대규모 데이터센터 프로젝트 '스타게이트'와 맞물려 있다. 오라클은 향후 수년간 수십억 달러 규모의 투자를 통해 데이터센터를 구축할 계획이며 이 과정에서 재무 부담 확대에 대한 우려가 제기되고 있다. 특히 스타게이트 프로젝트는 일부 확장 계획에서 차질을 빚으며 구조 재편이 진행되는 모습이다. 미국 텍사스 애빌린 데이터센터 일부 확장 부지가 마이크로소프트(MS)로 넘어가면서 오라클이 추진 중인 스타게이트 프로젝트의 인프라 확보 계획이 일부 조정된 것으로 전해졌다. 다만 기존 프로젝트 자체는 유지된 채 지역 및 투자 전략을 재조정하는 방향으로 추진되는 상황이다. 오라클은 최근 공시를 통해 구조조정 비용을 기존보다 5억 달러(약 7500억원) 늘리겠다고 밝히며 인력 감축 확대 가능성을 시사했다. 동시에 AI 수요가 공급을 웃도는 상황이 이어지고 있다며 데이터센터 등 관련 인프라 투자를 지속하겠다는 입장을 유지했다. 다만 투자자들은 데이터센터 자금 조달 계획의 실현 가능성과 수익성에 대해 우려를 나타내고 있다. 오라클 주가는 최근 6개월간 약 50% 하락하는 등 변동성이 커졌으며 AI 투자 확대에 따른 재무 부담이 주요 리스크로 지목된다. 이같은 흐름은 오라클에 국한되지 않는다. 아마존과 메타 등 주요 빅테크 기업들도 AI 전환 과정에서 인력 감축과 자동화를 병행하며 AI 투자를 위한 '선 구조조정' 기조가 업계 전반으로 확산되는 양상이다. 업계 관계자는 "AI 경쟁이 심화되면서 글로벌 빅테크들이 투자 여력을 확보하기 위해 인건비를 포함한 비용 절감에 나서고 있다"고 말했다.

2026.04.01 12:17한정호 기자

AWS, 韓 7조원 추가 투자…AI 보안 자동화 전면에

아마존웹서비스(AWS)가 한국 시장에서 인공지능(AI)·클라우드 인프라 확장과 정보보호 역량 강화를 동시에 추진하며 대규모 투자에 나선다. 국내 기업의 AI 도입 수요 확대에 대응하는 동시에 보안 자동화를 앞세워 시장 영향력 확대를 본격화하는 모습이다. 31일 업계에 따르면 AWS코리아는 한국인터넷진흥원(KISA) 정보보호 공시를 통해 2025년부터 2031년까지 약 7조원을 추가 투자할 계획이라고 밝혔다. 기존 투자액 5조 6000억원을 포함하면 국내 누적 투자 규모는 12조 6000억원을 넘어설 전망이다. 이번 투자는 AI 및 클라우드 인프라 확장을 중심으로 진행된다. AWS는 데이터센터 구축·운영·연결·유지보수 등을 포함한 전반적인 인프라 고도화를 통해 국내 기업들이 머신러닝과 데이터 분석, AI 에이전트 기반 자동화 등 고도화된 기술을 활용할 수 있는 환경을 제공한다는 계획이다. 경제적 파급 효과도 상당할 것으로 예상된다. AWS는 2023년부터 2027년까지 한국 국내총생산(GDP)에 약 15조 600억원 규모의 기여 효과를 낼 것으로 전망했다. 이는 클라우드 인프라 구축과 운영 과정에서 발생하는 국내 지출과 IT 부문 가치 창출이 반영된 수치다. 특히 이번 공시에선 AI 기반 보안 자동화도 강점으로 내세웠다. AWS는 보안 사고 대응 서비스에 AI 에이전트를 적용해 침해 사고 조사 과정을 자동화했다. 해당 시스템은 로그 분석, 계정 활동 추적, 네트워크 이벤트 상관관계 분석 등을 자동으로 수행해 대응 시간을 단축하는 것이 특징이다. 또 애플리케이션 단계에서 취약점을 사전에 탐지하는 'AWS 보안 에이전트'와 제로 트러스트 기반 접근 제어 서비스 등 다양한 보안 기능도 확대했다. AWS는 지난 한 해 동안 114개의 신규 보안 통제 기능을 추가하고 모든 계정 유형에 다중인증(MFA)을 의무화하는 등 보안 체계를 강화했다. 글로벌 수준의 보안 인증과 컴플라이언스 대응 역량도 강조됐다. AWS는 PCI-DSS, HIPAA, FedRAMP, GDPR 등 총 143개 보안 표준과 인증을 보유 중이다. 국내에서도 클라우드 서비스 보안인증(CSAP)과 정보보호관리체계(ISMS)를 유지하고 있다. 이와 함께 AWS는 'AWS 트러스트 센터'를 통해 보안 정책, 규정 준수, 데이터 보호 체계 등을 통합 제공하며 고객 신뢰 확보에도 나섰다. 해당 플랫폼은 클라우드 인프라부터 서비스 전반에 이르는 보안 접근 방식을 한눈에 확인할 수 있도록 지원한다. 조직 측면에서도 보안 역량을 강화했다. AWS는 보안 테스트를 담당하는 서비스팀, 인프라 보안 운영 전문가, 최고정보보호책임자(CISO) 조직 등으로 구성된 3단계 체계를 통해 정보보호 수준을 관리 중이다. 다만 국내 정보보호 투자액과 관련한 구체적인 금액은 공개되지 않았다. AWS 측은 "정보보호는 최우선 순위이며 고객 신뢰 확보는 우리 비즈니스의 토대"라며 "고객과 긴밀히 협력해 정보보호 요구사항을 파악하고 포괄적인 서비스와 도구, 전문성을 제공하기 위해 기술·운영·계약 전반에 걸쳐 지속적으로 투자하고 있다"고 밝혔다.

2026.03.31 10:55한정호 기자

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

국방부가 생성형 인공지능(AI) 기반 국방 데이터 인프라 구축을 위한 첫 단계 사업에 착수했다. 대규모 그래픽처리장치(GPU) 서버를 중심으로 한 인프라를 구축해 국방 AI 서비스 운영 기반을 마련하고 향후 국방 통합 AI 데이터센터 구축을 위한 실증 데이터를 확보한다는 구상이다. 30일 조달청 나라장터에 따르면 국방부 산하 국방통합데이터센터(DIDC)는 최근 '2026년 국방통합AI데이터센터 실증 목적 GPU 서버 구축사업' 입찰을 공고했다. 이번 사업은 국방 AI 데이터센터 구축을 위한 초기 실증 사업으로, GPU 자원 확보와 함께 AI 인프라 운영·관리 체계를 구축하는 것이 핵심이다. 사업 예산은 약 216억원 규모로 책정됐으며 계약 후 210일 이내 수행될 예정이다. 특히 일반경쟁입찰 계약방식으로 평가 비중은 기술 90%, 가격 10%로 구성됐다. 이번 사업은 지난해 구축된 국방 생성형 AI '국방 생성형 AI(GeDAI, Generative Defense AI)' 서비스의 안정적 운영을 지원하기 위한 후속 인프라 확장 성격을 띤다. 국방부는 GeDAI를 실증 수단으로 활용해 GPU 수요와 국방 데이터 활용 요구사항을 도출하고 향후 데이터센터 구축 시 기준으로 활용할 계획이다. 사업 범위는 단순 장비 도입을 넘어선다. 우선 대규모 AI 추론 서비스를 위한 GPU 서버와 클라우드 관리 서버, 고속 네트워크 및 스토리지 등 핵심 인프라가 구축된다. 이와 함께 GPU 가상화 기반 서비스형 플랫폼(PaaS), 백업 시스템, 관제 및 보안 솔루션도 포함된다. 특히 GPU 서버는 엔비디아 B300 기반 고성능 장비로 구성되며 서버 간 최대 800기가비피에스(Gbps)급 네트워크를 통해 대규모 AI 추론 환경을 구현하는 것이 목표다. 이를 바탕으로 국방 데이터 기반 AI 모델 학습과 추론을 동시에 지원하는 고성능 인프라가 마련될 전망이다. 사업은 착수 이후 ▲환경 조사 및 요구사항 분석 ▲아키텍처 상세 설계 ▲장비 설치 및 시험평가 ▲보안 측정 및 검수 ▲안정화 단계로 진행된다. 이후 무상 하자보수 및 운영 안정화까지 포함된 전체 구축 사이클이 약 7개월 내 완료될 예정이다. 국방부는 이번 사업을 통해 GPU 자원을 확대하고 각 군과 수요기관에 AI 서비스를 제공할 수 있는 기반을 마련한다는 방침이다. 또 민·군 협력 기반 AI 연구개발 환경을 조성하고 향후 전군 단위 AI 서비스 확산을 위한 인프라 표준 확보에도 활용된다. 이번 사업은 향후 추진될 국방 통합 AI 데이터센터 구축의 전초 단계로 평가된다. 앞서 정부는 2030년까지 최대 5만 개 GPU를 투입하는 대규모 국방 AI 인프라 구축 계획을 밝힌 바 있다. 이번 실증 사업이 핵심 기반이 될 것이라는 예상이 나온다. 국방부 측은 사업 제안요청서를 통해 "AI 과학기술 강군 육성을 위해 기존 국방 생성형 AI 서비스를 안정적으로 운영·관리할 수 있도록 정보시스템을 증설한다"며 "GPU 기반 인프라 구축을 통해 효율적이고 안정적인 AI 서비스 제공 환경을 마련할 것"이라고 밝혔다.

2026.03.30 17:44한정호 기자

KT클라우드, 고가용성 플랫폼 CSAP 인증 획득…공공 인프라 공략 박차

KT클라우드가 자체 기술로 구현한 클라우드 플랫폼의 보안 인증을 획득하며 공공 클라우드 시장 공략에 속도를 낸다. 멀티 가용성 영역(AZ) 기반 고가용성 인프라를 앞세워 서비스 안정성과 확장성을 동시에 확보한다는 전략이다. KT클라우드는 자체 개발한 'KT클라우드 플랫폼'이 클라우드 보안인증(CSAP)을 획득하고 공공 시장 경쟁력 강화에 나선다고 30일 밝혔다. KT클라우드 플랫폼은 설계부터 개발, 운영까지 전 과정을 자체 기술로 구현한 차세대 클라우드 인프라 플랫폼이다. 글로벌 표준 오픈소스를 기반으로 클라우드 네이티브 구조를 내재화해 확장성과 안정성을 동시에 확보한 것이 특징이다. 플랫폼은 쿠버네티스를 기반으로 오픈스택을 재구성한 아키텍처를 적용해 인프라 운영을 자동화·표준화했다. 이를 통해 가상머신(VM)과 컨테이너 환경을 하나의 플랫폼에서 통합 운영할 수 있으며 그래픽처리장치(GPU) 기반 인공지능(AI) 인프라와의 연계도 가능하다. 또 글로벌 표준 환경과의 호환성을 확보해 고객이 별도 학습 없이 플랫폼을 활용할 수 있도록 지원한다. AI 플랫폼 및 외부 솔루션과의 유연한 연계를 통해 멀티 클라우드 환경에서도 확장성을 확보했다. 고가용성 확보를 위한 인프라도 강화했다. KT클라우드는 멀티 리전 구조를 통해 서비스 연속성을 높이고 서울·경북 간 멀티 리전과 서울 용산·목동 간 멀티 AZ 체계를 구축해 재해복구(DR) 환경을 고도화할 계획이다. 최근 공공과 민간 시장에서 이중화와 안정성 요구가 높아지는 가운데, KT클라우드는 멀티 AZ 기반 인프라를 통해 서비스 신뢰성을 높이고 공공 클라우드 시장에서 경쟁력을 강화한다는 방침이다. 안재석 KT클라우드 기술본부장은 "KT클라우드 플랫폼은 우리의 글로벌 수준 기술력을 바탕으로 고객 IT 환경을 클라우드 네이티브 구조로 전환하는 핵심 인프라"라며 "멀티 AZ 기반 고가용성 인프라를 통해 서비스 신뢰성을 높이고 고객의 안정적인 클라우드 운영을 지원하겠다"고 밝혔다.

2026.03.30 16:23한정호 기자

한국 클라우드 시장, 10조원 돌파할까…"지난해 사상 최대"

한국 클라우드 산업이 매출 10조원에 근접한 생태계로 활성화되고 있다. 기업·인력 수 역시 매해 성장을 거듭하며 인공지능(AI) 시대 국가 경쟁력의 핵심 기반으로 자리잡고 있다는 평가다. 27일 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 발표한 '2025년 클라우드 산업 실태조사'에 따르면 2024년 국내 클라우드 시장 전체 매출액이 전년보다 25.2% 증가한 9조 2609억원으로 사상 최대를 기록했다. 기업 수는 전년 대비 13.5% 증가한 2712개, 인력 수는 전년보다 8.4% 늘어난 3만 3000명으로 집계됐다. 이번 조사는 생성형 AI 시대를 맞아 클라우드 수요 증가와 정부 및 업계 현황 전반을 종합적으로 파악하고자 진행됐다. 먼저 2024년 국내 클라우드 부문 전체 매출액의 경우 9조 2609억원으로 2023년 기록한 7조 4000억원 대비 25.2% 늘어났다. 최근 5년간 연평균 성장률은 23.2%를 기록하며 꾸준한 성장세를 입증했다. 세부 서비스 유형별로 살펴보면 ▲서비스형 인프라(IaaS) 부문 매출액이 전년 대비 24.4% 증가한 3조 9400억원 ▲서비스형 플랫폼(PaaS) 부문 매출액은 전년보다 22.0% 상승한 5700억원 ▲서비스형 소프트웨어(SaaS) 부문 매출은 전년 대비 24.2% 증가한 3조 2200억원을 기록했다. 아울러 클라우드 관리 서비스(CMS) 부문 매출액은 1조 4800억원을 기록하며 전년 대비 31.4% 성장한 것으로 나타났다. 클라우드 기업 수 역시 증가했다. 2024년 관련 기업은 총 2712곳으로 전년 대비 323개, 13.5% 증가했다. 이 중 SaaS 기업이 전년보다 15.3% 증가한 1894개, IaaS 기업은 4.8% 상승한 457개사로 기록되며 SaaS 기업이 클라우드 기업의 69.8%를 차지했다. 메가존클라우드 등 CMS 기업은 전년 대비 47.9%가 증가한 139개로 전 서비스 유형 중 가장 높은 증가세를 보였다. 특히 증가분의 대부분이 30인 이상 기업에서 발생한 것으로 나타났다. 이에 맞춰 클라우드 산업 종사자 수도 늘어났다. 2024년 클라우드 인력은 3만 3217명으로 이전년도 대비 8.4% 증가한 2563명으로 조사됐다. 15.3% 이상 늘어난 전년도 대비 다소 둔화된 증가율을 보였으나, 지속적인 증가세를 유지하고 있다. 세부 분야별로 살펴보면 클라우드 개발자가 1만 1146명(33.6%)으로 가장 큰 비중을 차지했다. 이어 클라우드 운영(19.7%), 기획·영업·지원(17.1%), 클라우드 아키텍트(15.6%), 클라우드 보안(14.1%) 순으로 나타났다. 과기정통부는 이번 실태조사 결과를 바탕으로 클라우드 산업의 지속적인 성장을 뒷받침한다는 목표다. 국가AI컴퓨팅센터 구축, 그래픽처리장치(GPU) 구매 및 임차 지원 등 GPU 마중물 사업과 이를 수용할 AI 데이터센터 생태계 조성을 위해 지속적으로 노력한다는 방침이다. 또 독자 AI 파운데이션 모델 프로젝트와 AI 전환(AX) 원스톱 바우처 등 국내 클라우드 수요를 창출할 수 있는 핵심 사업들도 적극 추진해 나갈 예정이다. 최동원 과기정통부 인공지능인프라정책관은 "국내 클라우드 시장 매출액이 9조원을 넘어서며 AI 시대의 핵심 인프라로 자리잡고 있다"며 "국가 AI 경쟁력을 좌우하는 핵심 기반인 클라우드 수요 확대에 발맞춰 민간 클라우드 시장의 지속적인 성장과 공공 부문의 민간 클라우드 도입 확산을 위해 적극적으로 노력해 나가겠다"고 밝혔다.

2026.03.30 12:00한정호 기자

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

베슬AI, 엔비디아 GB200·B300 확보…듀얼 네오클라우드 운영

베슬AI가 초거대 모델 학습과 추론을 동시에 지원하는 최신 엔비디아 그래픽처리장치(GPU) 라인업을 구축해 국내 인공지능(AI) 인프라 시장에서 입지를 강화한다. 베슬AI는 엔비디아 'GB200'과 'B300'을 확보하고 이를 기반으로 클라우드 서비스형 GPU(GPUaaS) 사업을 확대한다고 27일 밝혔다. 베슬AI에 따르면 회사는 국내에서 GB200과 B300을 동시에 제공하는 유일한 네오클라우드 사업자로, 차별화된 AI 인프라 경쟁력을 확보했다. 이번 GPU 확보를 통해 기업 고객은 AI 워크로드 특성에 맞춰 GPU를 선택할 수 있게 됐다. B300은 대규모 AI 모델 추론에, GB200은 초거대 모델 학습에 적합해 다양한 AI 개발 환경을 지원한다. 서비스 접근성도 강화했다. 베슬AI는 A100과 H100 등 주요 GPU와 스토리지, AI 개발 플랫폼을 별도 협의 없이 즉시 사용할 수 있는 셀프서비스 방식으로 제공한다. 기업과 개발자가 별도 계약이나 승인 절차 없이 필요한 시점에 바로 GPU를 활용할 수 있도록 지원한다. 비용 효율성도 강점으로 내세웠다. 분 단위 과금 체계와 '스마트 퍼징' 기능을 통해 유휴 자원 낭비를 최소화하고 AI 인프라 총소유비용(TCO)을 절감할 수 있도록 했다. 직관적인 요금 구조와 유연한 크레딧 관리 방식도 도입해 GPUaaS 도입 장벽을 낮췄다는 설명이다. 베슬AI는 자사 GPU 클라우드 플랫폼 '베슬 클라우드'를 통해 GPU 자원을 제공 중이며 현재 일부 물량을 기반으로 기업들의 인바운드 문의가 이어지고 있다. 향후 글로벌 클라우드 파트너십을 기반으로 공급 규모를 확대하고 다양한 지역으로 서비스를 확장할 계획이다. 안재만 베슬AI 대표는 "A100부터 B300까지 국내에서 가장 폭넓은 GPU 라인업을 갖춘 네오클라우드 사업자로서 국내 기업들의 AI 인프라 경쟁력을 높이는 데 기여하겠다"고 말했다.

2026.03.27 17:35한정호 기자

"외산 의존 끊는다"…NHN클라우드-티맥스티베로, 국산 AI 인프라 확산 '동맹'

NHN클라우드가 티맥스티베로와 협력해 외산 기술 의존도를 낮춘 국산 기반 인공지능(AI) 인프라 생태계 구축에 앞장선다. 클라우드와 데이터베이스(DBMS)를 결합해 실제 업무 환경에 적용 가능한 AI 인프라를 구현하고 공공·금융 등 규제 산업까지 확산한다는 전략이다. NHN클라우드는 티맥스티베로와 국산 기술 기반 AI 인프라 생태계 구축을 위한 업무협약(MOU)을 체결했다고 27일 밝혔다. 티맥스티베로는 국산 DBMS '티베로'를 개발·공급하며 공공·금융·제조 등 다양한 산업에서 활용 사례를 확보하고 있다. 대규모 트랜잭션 처리와 안정성을 강점으로 외산 DBMS 대체를 위한 기술 확보에 주력해왔다. 이번 협약을 통해 양사는 각자 핵심 기술을 결합해 국산 AI 인프라 환경을 공동 구축하고 이를 기반으로 사업 확대와 시장 확산에 나설 계획이다. 우선 NHN클라우드의 그래픽처리장치(GPU) 기반 클라우드 인프라와 티맥스티베로의 DBMS를 연계해 AI 서비스 환경을 구성한다. AI 학습·추론 데이터와 업무 데이터를 통합 관리할 수 있는 구조를 설계하고 이를 기반으로 공동 솔루션을 제안할 예정이다. 또 실제 업무 환경에서 장기 운영이 가능한 AI 인프라 아키텍처를 공동 검토하고 공공·금융 등 규제 산업을 고려한 데이터 주권, 보안, 거버넌스 대응 방안도 마련한다. 양사는 공공·금융·제조 등 데이터 집약 산업을 중심으로 공동 영업과 도입 제안을 추진해 레퍼런스를 확보하고 성공 사례를 기반으로 시장 확대에 속도를 낼 방침이다. 이번 협력은 클라우드와 DBMS 분야를 대표하는 국내 기업이 손잡고 국산 기술 기반 AI 인프라를 구축하는 선도 사례로 평가된다. 양사는 기존 협력 관계를 바탕으로 기술 협력을 더욱 강화해 국내 AI 생태계 성장에 기여한다는 방침이다. 박경희 티맥스티베로 대표는 "인프라와 데이터, AI 서비스가 분리되지 않고 하나의 흐름으로 이어질 때 AI는 실험을 넘어 실제 업무를 바꾸는 도구가 될 수 있다"며 "이번 협약을 통해 고객이 데이터 주권과 보안·규제 요건을 충족하면서도 AI를 안정적으로 운영·확장할 수 있도록 현실적인 데이터 인프라 환경을 제시하겠다"고 말했다. 김동훈 NHN클라우드 대표는 "우리 클라우드를 기반으로 티베로 DBMS 공동 개발을 함께한 티맥스티베로와 AI 인프라 생태계 조성을 위해 다시 한번 손을 잡게 됐다"며 "국내 클라우드와 DBMS를 대표하는 기업으로서 외산 기술에 의존하지 않고도 국산 AI 인프라 생태계 구축이 가능하다는 점을 업계에 입증해 나가겠다"고 밝혔다.

2026.03.27 16:41한정호 기자

[현장] "제조 AI, 이제 실행할 때"…GS네오텍, '미소'로 현장 바꾼다

GS네오텍이 제조 현장 데이터를 실질적인 의사결정과 실행으로 연결하는 인공지능(AI) 플랫폼을 앞세워 산업 현장 AI 전환(AX) 확산에 앞장선다. 자체 개발한 노코드·로우코드 기반 AI 플랫폼 '미소(MISO)'를 중심으로 보안·유연성·확장성을 동시에 확보하며 제조 기업의 생산성 향상과 비용 절감, 보안 리스크 최소화를 동시에 구현한다는 전략이다. GS네오텍 김용규 AI 리서치 엔지니어는 27일 서울 송파구 롯데호텔 월드에서 열린 제조 고객 대상 아마존웹서비스(AWS) 파트너 클라우드 솔루션 컨퍼런스에서 "제조 AX를 위해선 데이터를 단순히 분석하는 데 그치지 않고 실제 실행까지 자동화해야 한다"고 강조했다. 그는 제조업 AI 시장이 빠르게 성장하고 있지만 실제 도입 성공률은 낮다고 진단했다. GS네오텍이 발췌한 시장조사 자료에 따르면 제조 분야 AI 시장은 2023년부터 2030년까지 5년간 평균 700% 이상 성장할 것으로 예상되지만, 프로젝트의 80% 이상이 실패하고 있다. AI로 해결할 문제 정의가 잘못되거나 데이터·인프라가 부족한 상태에서 시작하는 것이 주요 원인으로 꼽힌다. 이에 대해 김 엔지니어는 "AI 프로젝트의 가장 큰 위험은 기술적으로는 성공한 것처럼 보이지만 현장에서 사용되지 않는 경우"라며 "중요한 것은 기술의 화려함이 아니라 실제 문제 해결 역량"이라고 말했다. GS네오텍은 이같은 문제를 해결하는 방법으로 AWS 기반 인프라와 생성형 AI를 결합한 제조 특화 플랫폼 아키텍처를 제시했다. 김 엔지니어는 "AWS IoT와 아마존 베드록이 지원하는 생성형 AI를 결합해 공장 데이터를 실시간으로 수집하고 분석해 즉각적인 인사이트로 전환한다"며 "AI 챗봇 기반 현장 어시스턴트, 품질 진단, 공정 시각화 기능까지 통합 제공한다"고 설명했다. 이 시스템은 센서와 비전 데이터를 IoT 환경에서 수집한 뒤 클라우드로 전송하고 람다와 베드록 등을 통해 분석하는 구조로 구성된다. 생산 공정·설비 간 연결 관계를 파악하고 이상 징후 발생 시 원인 분석과 대응 가이드를 즉시 제공한다. 단순 알림을 넘어 AI가 해결 방법까지 제시해 현장 대응 시간을 줄이도록 지원한다. 이를 통해 관리자가 현장에 직접 가지 않아도 실시간 데이터를 기반으로 정확한 의사결정을 할 수 있도록 돕는다는 목표다. 이날 GS네오텍은 전 산업군에 적용 가능한 핵심 솔루션으로 노코드·로우코드 기반 생성형 AI 플랫폼 미소도 선보였다. 미소는 기업 내부 데이터를 외부 대형언어모델(LLM)에 맡기지 않는 구조로 설계돼 보안을 강화한 것이 특징이다. 미소는 '클로드'를 비롯한 다양한 최신 생성형 AI 모델을 유연하게 선택·연동할 수 있도록 설계된 점도 강점이다. 기업 환경에 따라 최적의 모델을 적용할 수 있으며 모델 컨텍스트 프로토콜(MCP) 서버를 통해 외부 API나 사내 시스템을 손쉽게 연결할 수 있도록 설계했다. 기존 업무 시스템과 AI를 자연스럽게 결합해 데이터 활용도를 높이고 복잡한 개발 과정 없이도 맞춤형 AI 서비스를 구현할 수 있다. 김 엔지니어는 "미소는 에이전트 방식과 워크플로우 방식을 모두 지원해 기업이 업무 특성에 맞는 AI 앱을 쉽게 구축할 수 있다"며 "100여 개 이상의 외부 서비스와 내부 시스템을 연동해 별도 코딩 없이 AI 애플리케이션을 만들 수 있다"고 말했다. 실제 활용 사례도 소개됐다. 한 고객사는 스마트 공장 안전 가이드 앱의 환경 변화 반영 시간을 기존 2~4주에서 실시간 수준으로 단축했고 안전 수칙 검색 시간도 96% 줄였다. 또 다른 기업은 AI 쇼카드 검수 시스템의 검수 시간을 1분에서 1~2초로 단축해 월 100시간 이상의 운영 시간을 절감했다. 이날 GS네오텍은 행사장 내 전시부스를 마련해 미소와 제조 특화 AI 솔루션을 직접 시연했다. 부스에선 미소 플랫폼을 활용해 노코드 방식으로 AI 에이전트를 구성하고 다양한 데이터를 연결하는 과정을 직관적으로 선보였다. 특히 이날 발표 세션에서 소개한 스마트팩토리 통합 플랫폼 '가디언 에이전트 팩 플랫폼'을 현장에서 전시했다. 이 플랫폼은 스마트팩토리 환경에서 실시간 데이터 수집과 품질 분석을 수행하는 솔루션으로, 센서와 비전 데이터를 기반으로 불량품을 자동 판별하고 설비 이상을 감지하는 기능을 갖췄다. 공정 흐름을 시각적으로 보여주고 실시간 데이터를 모니터링하며 AI 기반 분석을 결합하는 솔루션으로, 생산 현장의 상태를 한눈에 파악해 이상 여부를 빠르게 확인할 수 있도록 설계됐다. 아울러 미소를 활용한 AI 앱 제작 과정도 공개됐다. 사용자가 노코드 형태의 클릭 기반 UI에서 워크플로우를 구성하고 다양한 AI 모델과 외부 API를 연결해 맞춤형 에이전트를 손쉽게 구축할 수 있도록 했다. 김 엔지니어는 "AX는 단순한 기술 도입을 넘어 기업 경쟁력을 좌우하는 핵심 요소"라며 "제조 현장에서 실제로 작동하는 AI를 지원해 고객과 함께 지속 가능한 혁신을 만들어가겠다"고 강조했다.

2026.03.27 14:55한정호 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

AI 인프라 허브로 부상한 인도…재벌 아다니, 메타·구글과 협력 모색

인도 대표 재벌 가우탐 아다니가 이끄는 아다니 그룹이 글로벌 빅테크와 손잡고 데이터센터 사업 확장에 속도를 낸다. 인도를 글로벌 인공지능(AI)·클라우드 인프라 핵심 거점으로 키운다는 목표다. 25일(현지시간) 블룸버그통신에 따르면 아다니 그룹은 최근 메타·구글 등 미국 기술 대기업과 데이터센터 사업 협력을 위한 논의를 진행 중인 것으로 알려졌다. 이번 협의는 아다니 그룹이 추진 중인 1000억 달러(약 150조원) 규모 디지털 인프라 투자 전략의 일환으로 평가된다. 그룹은 초대형 데이터센터 구축과 AI·클라우드 서비스에 필수적인 토지와 재생에너지를 동시 공급하는 사업자로 자리매김한다는 방침이다. 월마트의 인도 전자상거래 자회사 플립카트도 협상에 참여한 것으로 전해졌다. 아다니 그룹은 인도 각 지역에서 데이터센터 부지를 물색 중이며 현재 논의는 초기 단계로 구체적인 위치는 아직 확정되지 않았다. 이같은 움직임은 인도를 둘러싼 글로벌 AI 인프라 경쟁이 한층 격화되고 있음을 보여준다. 인도는 빠르게 성장하는 경제와 방대한 인구 기반을 바탕으로 해외 투자와 기술 기업을 끌어들이고 있으며 이에 맞춰 데이터센터 시장 역시 급성장 중이다. 컨설팅업체 KPMG에 따르면 인도의 데이터센터 전력 용량은 2030년까지 8기가와트(GW)를 넘어설 전망이다. 이는 현재 대비 약 5배 수준이다. 아다니 그룹은 이미 AI 인프라 확대에 공격적으로 나서고 있다. 오는 2035년까지 1000억 달러(약 150조원)를 투입해 친환경 기반 AI 데이터센터를 구축할 계획이다. 이 투자는 서버·전력 인프라 등 연관 산업에서 장기적으로 1500억 달러(약 225조원) 규모의 투자 유발 효과를 창출할 것으로 보고 있다. 이와 함께 글로벌 기업들의 현지 시장 투자도 이어지고 있다. 아마존은 2030년까지 인도 클라우드 인프라에 약 127억 달러(약 19조원)를 투자할 계획이며 오픈AI 역시 1GW 규모 데이터센터 구축을 검토 중이다. 인도 내 기업 간 경쟁도 치열하다. 릴라이언스는 110억 달러(약 16조원) 규모 데이터센터 프로젝트를 추진 중이며 타타그룹 역시 외부 투자 유치를 통해 사업 확대에 나섰다. 업계에선 인도가 AI·클라우드 인프라의 차세대 글로벌 허브로 부상하고 있다는 평가가 나온다. 대규모 수요와 정부의 디지털 정책, 글로벌 기업들의 투자 경쟁이 맞물리며 초거대 AI 인프라 집적지로 빠르게 변모하고 있다는 분석이다. 아다니 그룹은 "데이터센터와 재생에너지를 결합한 통합 인프라를 앞세워 글로벌 AI 시대의 핵심 공급자로 자리잡겠다"고 밝혔다.

2026.03.26 14:39한정호 기자

전력·인허가에 묶인 AI 인프라…데이터센터 특별법, 규제 완화 속도낸다

인공지능(AI) 경쟁력의 핵심 기반으로 꼽히는 데이터센터 구축을 둘러싼 제도 정비가 본격화됐다. 국회에서 'AI 데이터센터 진흥 특별법'이 첫 문턱을 넘으면서 전력·입지·인허가 등 산업 전반의 구조적 병목 해소 기대가 커지고 있다. 26일 업계에 따르면 국회 과학기술정보방송통신위원회는 지난 24일 법안심사소위원회를 열고 'AI 데이터센터 지원에 관한 특별법'을 통과시켰다. 이번 법안은 정동영·조인철·한민수·황정아 의원과 김장겸 의원, 이해민 의원이 각각 발의한 6개 법안을 병합한 대안이다. 법안소위 통과는 입법 절차의 초기 단계지만, 여야 간 이견 없이 처리됐다는 점에서 향후 상임위원회와 법제사법위원회, 본회의 통과 가능성도 높다는 평가가 나온다. 이번 특별법은 AI 데이터센터를 국가 경쟁력을 좌우하는 전략 인프라로 규정하고 인허가 절차 간소화와 입지 규제 완화, 세제 지원, 전력 확보 지원 등을 골자로 한다. 특히 비수도권 데이터센터에 대한 전력계통영향평가 면제와 발전사업자와의 직접 전력구매계약(PPA) 허용이 핵심으로 꼽힌다. 생성형 AI 확산으로 고성능 그래픽처리장치(GPU) 기반 연산 수요가 급증하면서 데이터센터는 단순 설비를 넘어 AI 경쟁력을 좌우하는 핵심 기반으로 부상했다. 업계에선 전력 확보와 인허가 지연이 국내 AI 인프라 투자 확대를 가로막는 대표적인 요인으로 지목돼 왔다. 클라우드 업계 관계자는 "AI 서비스 수준과 경쟁력은 결국 인프라에서 갈린다"며 "전력과 인허가 불확실성이 줄어들면 민간 투자 환경도 빠르게 개선될 것"이라고 말했다. 특히 이번 법안은 행정 절차 측면에서의 변화가 주목된다. 과학기술정보통신부가 인허가 창구 역할을 맡아 관계 부처 협의를 일괄 처리하고 일정 기간 내 결과를 도출하는 '타임아웃제'를 도입한다. 이에 따라 데이터센터 구축 인허가 절차가 최대 150일 내 처리되는 구조가 마련될 전망이다. 과기정통부 관계자는 "특별법은 창구 일원화와 함께 시설·입지·전력 특례를 포함하는 구조"라며 "데이터센터 구축 과정에서 과도하게 적용되던 승강기, 주차장, 전기차 충전시설, 미술품 설치 의무 등 규제를 완화하고 입지 해석을 명확히 해 기업 부담을 줄이는 데 초점을 맞췄다"고 설명했다. 데이터센터 업계 관계자는 "그동안 지자체, 한전, 산업부 등 여러 기관을 각각 상대해야 해 사업 일정이 지연되는 경우가 많았다"며 "과기정통부가 창구 역할을 맡아 조정해주는 구조는 현장에서 체감도가 클 것"이라고 말했다. 전력 특례 역시 산업 영향 측면에서 핵심 변수로 꼽힌다. AI 데이터센터는 전력 비용이 전체 운영비의 상당 부분을 차지하는 구조로, 안정적이고 예측 가능한 전력 확보가 사업성에 직결된다. 이번 법안에 포함된 PPA 특례와 전력계통영향평가 면제는 이러한 부담을 완화하기 위한 장치다. 다만 전력 특례를 둘러싼 부처 간 시각차는 여전히 남아 있는 것으로 알려졌다. 기후에너지환경부는 특정 산업에 대한 별도 전력 특례 도입보다는 기존 분산에너지 제도 틀 안에서 접근해야 한다는 입장을 유지해온 것으로 전해졌다. 또 PPA를 개별 산업에 확대 적용할 경우 제도 형평성과 전력시장 구조에 영향을 줄 수 있다는 점도 고려해야 한다는 시각이다. 이에 대해 업계에선 AI 데이터센터의 특수성을 감안한 별도 제도 필요성을 강조하고 있다. 데이터센터 업계 관계자는 "AI 데이터센터는 일반 산업과 비교하기 어려울 정도로 전력 수요가 큰 구조"라며 "전력 특례가 마련되지 않으면 국내 투자 유치 경쟁력 확보에도 한계가 있을 수 있다"고 말했다. 입지 측면에선 비수도권 데이터센터 유치에도 긍정적인 영향을 미칠 것으로 예상된다. 발전소 인근에서 직접 전력을 조달할 수 있는 환경이 조성될 경우 지방 입지의 경제성이 높아질 수 있어서다. 정부는 이번 특별법이 통과될 경우 단순 인프라 구축을 넘어 클라우드 생태계 전반을 활성화한다는 구상이다. 과기정통부가 창구 역할을 맡아 인허가와 부처 협의를 조정하고 기술 개발과 인력 양성 지원까지 연계하는 방안을 검토 중이다. 법안은 현재 법안소위 단계를 통과한 만큼 향후 상임위원회, 법제사법위원회, 본회의 등 입법 절차를 거치며 세부 내용이 조정될 가능성도 남아있다. 데이터센터 업계 관계자는 "법안소위 통과로 방향성은 확인됐지만, 전력 특례와 인허가 개선이 실제 사업 환경에서 얼마나 체감될지가 관건"이라며 "남은 입법 절차에서 실효성이 가려질 것"이라고 밝혔다.

2026.03.26 14:15한정호 기자

[유미's 픽] 'AI G3' 외치지만 실무 인력 태부족…인력난 해결 '절실'

이재명 정부가 인공지능(AI) 3대 강국(G3) 도약을 목표로 천문학적인 예산을 쏟아붓고 있지만, 이를 현장에서 집행할 행정 조직의 '실행력'에 빨간불이 켜졌다. 정책의 외연은 '부총리급' 위상에 걸맞게 커진 반면, 실무를 뒷받침할 인력과 직제는 과거 수준에 머물러 있어 자칫 '정책 동력 상실'로 이어질 수 있다는 지적이 나온다. 25일 정부에 따르면 과학기술정보통신부 내에서 약 2조원 규모의 '그래픽처리장치(GPU) 확보 사업'과 4조원 규모의 '국가 AI 컴퓨팅 센터 구축' 등 핵심 인프라 사업을 전담하는 실무 인력은 단 5명에 불과한 것으로 확인됐다. 이들은 단순한 자원 배분 업무를 넘어 ▲GPU 임대 운영 및 성과 평가 ▲범국가적 AI 컴퓨팅 인프라 R&D 기획 ▲활용 전략 수립 등 전문성이 요구되는 고난도 업무를 동시에 수행하고 있다. 1인당 관리해야 하는 사업 예산 규모만 '조 단위'다. 업계 관계자는 "연초부터 쏟아지는 정책 보고와 사업 공고 준비로 해당 조직의 업무 강도는 이미 임계치를 넘어선 상태"라며 "올 초 이재명 대통령이 격려의 의미로 피자를 보낼 만큼 고충이 크지만, 상징적 격려보다 시급한 것은 실질적인 인력 보강"이라고 꼬집었다. 조직 규모 면에서도 부처 간 '조직 비대칭' 현상이 뚜렷하다. 국가 AI 정책을 총괄하는 과기정통부 AI정책실 인력은 74명(2국 체계)인 반면, 공공 AI 전환을 담당하는 행정안전부 인공지능정부실은 190명(3국 체계)으로 두 배가 넘는 규모다. 정책의 컨트롤타워보다 집행 조직의 규모가 더 큰 구조다.과기정통부 역시 AI 조직을 실 단위로 격상시켰으나, 실질적인 인력과 직제는 정책 수요를 따라가지 못하고 있다. 실제 AI정책실 신설 이전 약 49명이던 인력은 개편 이후에도 74명 수준으로 늘어나는 데 그쳤다. 국가 AI 정책의 기획과 실행 기능이 한 조직에 집중돼 있음에도 불구하고 여전히 '2개 정책관(국) 체제'에 머물러 있다. ▲정책기획관(39명)과 ▲인프라정책관(34명)이 정책 총괄부터 안전, 인재 양성, 데이터, 산업 지원까지 도맡고 있어 기능 분산이 충분하지 않다는 지적이다. 특히 폭발적으로 늘어난 정책 수요에 대응할 정규직 정원이 제때 뒷받침되지 못하면서 부처 내 인력 운용의 기형화도 심화되고 있다. 대규모 예산이 투입되는 핵심 인프라 사업의 상당수가 정식 직제가 아닌 태스크포스(TF)나 임시 직제 중심으로 운영되면서 정책의 연속성마저 위협받는 상황이다.반면 행정안전부는 인공지능정부정책국(71명), 인공지능정부서비스국(65명), 인공지능정부기반국(53명) 등 3개 국 체계를 기반으로 정책·서비스·인프라 기능을 분리해 운영하고 있다. 여기에 각 부처와 산하기관에서 선발한 169명의 'AI 리더' 조직까지 별도로 두고 공공 AI 확산을 추진 중이다. 다만, 행안부는 인공지능정부실 190명 전체를 AI 전담 인력으로 보는 것은 부정확하다는 입장이다. 정부24, 모바일 신분증, 데이터 등 디지털 행정 인력이 포함된 수치로, 실제 AI 관련 인력은 이보다 훨씬 적은 수준이라는 것이다. 행안부 관계자는 "공공 디지털 전환 전반을 수행하는 조직 특성상 단순 인원 비교는 적절하지 않다"며 "AI 전담 기준으로 보면 타 부처와 큰 차이가 없거나 오히려 적을 수 있다"고 말했다.업계 관계자는 "국가 전략을 짜는 부처보다 집행 부처의 덩치가 훨씬 큰 엇박자가 이어지고 있다"며 "행안부는 정책, 서비스, 인프라 기능을 3개 국으로 명확히 분리해 전문성을 높인 반면, 국가 AI 정책의 컨트롤타워인 과기정통부는 상대적으로 빈약한 체급으로 '험지'를 돌파하고 있는 셈"이라고 지적했다. 이 같은 인력난의 근본 원인은 중앙부처의 조직과 정원을 관리하는 행정안전부와의 협의 구조 때문으로 분석된다. 이 탓에 과기정통부가 인력 확대를 요청하더라도 '공무원 정원 동결' 기조나 부처 간 형평성 논리에 가로막히면 반영되기 어렵다. AI 정책을 총괄하는 부처가 필요로 하는 인력을 자체적으로 확보하기 어려운 구조인 것이다. 특히 과기정통부 장관이 부총리급으로 격상되고 AI가 국가 전략의 핵심으로 자리 잡았음에도 이를 실무적으로 뒷받침할 정규 인력 확충은 사업 규모를 따라가지 못하고 있다는 지적도 나오고 있다. 정책의 위상과 조직 현실 간 괴리가 커지고 있는 셈이다. 이로 인해 범부처 협업이 필요한 AI 정책이 실제 집행 단계에서는 특정 부처에 업무가 집중되는 현상도 나타나고 있다. 일부 부처가 소관 업무를 이유로 정책 수행에 적극적으로 나서지 않는 사례도 있는 것으로 전해졌다. 업계 관계자는 "AI 정책은 예산뿐 아니라 이를 실제로 집행할 조직과 인력이 핵심"이라며 "정책을 총괄하는 부처에 걸맞은 인력과 체계가 갖춰지지 않으면 현장 부담은 계속 커질 수밖에 없다"고 말했다.또 다른 관계자는 "우리나라의 AI G3 도약은 예산 규모가 아니라 정책의 집행 속도와 전문성에서 결정된다"며 "현장의 병목 현상을 해소하기 위해 행안부와 기재부가 전향적으로 조직 확충에 협력해야 한다"고 강조했다.

2026.03.25 17:26장유미 기자

에퀴닉스, AI 시대 데이터센터 인재 키운다…글로벌 투자 확대

에퀴닉스가 글로벌 데이터센터 산업의 인력 부족 문제에 대응하기 위해 인재 양성 투자를 확대한다. 인공지능(AI)과 디지털 전환 확산에 따른 인프라 수요 증가에 맞춰 교육·채용 연계를 강화한다는 목표다. 에퀴닉스는 디지털 인프라 분야 차세대 기술 인재 양성을 위한 글로벌 투자 계획을 발표했다고 25일 밝혔다. 이번 이니셔티브는 국제 데이터센터의 날을 맞아 공개됐으며 고급 기술 인력 일자리 기회를 확대하고 지역 사회 기반 인재 생태계를 강화하는 데 초점을 맞췄다. 핵심 프로그램은 '패스웨이 투 테크'의 글로벌 확대다. 해당 프로그램은 14~18세 학생을 대상으로 데이터센터 운영 분야 진입 경로를 제공하는 초기 인재 양성 과정이다. 기존 미국과 아시아태평양 일부 지역에서 약 2000명을 대상으로 운영된 바 있다. 이를 전 세계 에퀴닉스 데이터센터로 확대해 청년층의 산업 진입을 지원한다. 참가자는 전문가 멘토링, 데이터센터 투어, 실습 중심 교육 등을 통해 디지털 인프라 환경을 직접 경험할 수 있다. 인턴십과 견습 프로그램으로 이어지는 경력 경로도 제공해 접근성이 낮지만 수요가 높은 고임금 기술 직군 진입을 돕는다는 설명이다. 아울러 글로벌 데이터센터 기술자 교육 연합도 출범한다. 에퀴닉스 재단은 비영리 단체 제너레이션과 협력해 교육 커리큘럼 개발과 채용 연계를 추진하며 브라질을 시작으로 글로벌 확장을 계획 중이다. 글로벌 운영 견습 프로그램도 확대된다. 브라질·프랑스·독일·미국·싱가포르·영국 등 주요 시장에서 통합된 교육과정을 도입해 인턴십과 초기 경력 프로그램을 강화하고 현장 중심 기술 인력 양성 체계를 구축할 예정이다. 또 '러닝 랩' 프로그램을 통해 데이터센터 인프라 운영에 필요한 실무 역량 교육도 제공한다. 전기 시스템, 냉각·공조, 안전, 시설 운영 등 핵심 기술을 현장 중심으로 학습할 수 있도록 설계됐다. 에퀴닉스는 이러한 프로그램을 올해부터 미주, 유럽·중동·아프리카(EMEA), 아시아태평양 지역에 순차적으로 도입해 글로벌 인재 파이프라인을 구축할 계획이다. 라우프 압델 에퀴닉스 글로벌 운영 수석 부사장은 "데이터센터는 디지털 세계의 심장이자 글로벌 연결의 핵심 인프라"라며 "AI로 인한 인프라 수요 증가에 대응하기 위해 미래 기술 인재 양성에 지속적으로 투자할 것"이라고 말했다. 브랜디 갤빈 모란디 에퀴닉스 최고인사책임자(CPO)는 "우리는 조기 인재 양성과 지역 사회 기반 기회 확대를 통해 업계에 필요한 숙련 인재를 확보하고 있다"며 "교육과 실무 경험을 결합해 새로운 기술 인재를 발굴·육성해 나갈 것"이라고 밝혔다.

2026.03.25 16:47한정호 기자

옴디아 "SKT, AI 수익화 고민 해법 찾았다"

글로벌 시장조사기관 '옴디아(Omdia)'가 보고서에서 SK텔레콤의 GPU 운용 효율화, 수익화 기반 소버린 AI 인프라 구축 전략을 높이 평가했다. 24일 SK텔레콤 뉴스룸에 따르면 옴디아는 '해인(Haein) 클러스터'와 '페타서스 AI 클라우드'로 AI 인프라의 고질적인 난제를 자체 해결한 점에 주목했다. '해인'은 엔비디아차세대 AI 가속 칩 '블랙웰'이 탑재된 고성능 GPU 인프라다. 이를 기반으로 SK텔레콤은 대규모 AI 모델 학습, 추론에 최적화된 연산 환경을 안정적으로 제공한다. 해인엔 자체 가상화 솔루션 '페타서스 AI 클라우드'를 적용해 GPU 클러스터 가동률을 극대화했다. SK텔레콤이 하나의 시스템이나 소프트웨어를 여러 사용자가 이용하는 멀티테넌시 환경의 보안 문제를 독자적인 가상화 기술로 극복했다는 점도 조명했다. 이는 보안과 효율성을 동시에 잡은 구조로, AI 인프라 경쟁력을 갖췄다는 평가다. 수익화 전략도 주목했다. 옴디아는 SK텔레콤이 AI 기술 경쟁력과 투자를 통해 실질적인 수익화 구조를 마련했다는 점을 높이 샀다. SK텔레콤 자체 거대언어모델(LLM) 'A.X K1'과 MWC26에서 공개된 '소버린 AI 서비스 패키지'가 인프라(AI DC)-모델(A.X)-서비스를 통합 제공하는 엔드 투 엔드 구조를 완성했다고 분석했다. 이를 통해 기술 경쟁력이 어떻게 비즈니스 수익 구조를 마련할 수 있는지 구체적으로 제시했다고 설명했다. AI DC 사업 재무적 성과가 이 같은 수익화 모델의 가능성을 보여준다고 설명했다. 지난해 가산, 양주 등 주요 거점 데이터센터 가동률 상승에 힘입어 연간 매출이 전년 대비 약 35% 성장한 3억 5400만 달러(약 5293억원)에 이르는 점에 주목했다. SK텔레콤이 2030년까지 AI DC 매출 7억 달러(약 1조원) 달성이라는 확고한 로드맵을 보유하고 있으며, 이는 전체 매출의 약 5%를 차지하는 핵심 수익원이 될 것으로 전망했다. SK텔레콤은 "독보적인 AI 기술력과 비즈니스 모델을 바탕으로 글로벌 AI 생태계를 선도하고, AI G3 도약이라는 국가 비전에도 기여할 방침"이라고 밝혔다.

2026.03.24 15:21홍지후 기자

모빌린트, 스피어에이엑스와 엣지 AI 기반 영상 분석 협력

AI 반도체 기업 모빌린트가 AI 영상 분석 솔루션 기업 스피어에이엑스(SPHERE AX)와 AI 기반 안전·보안 및 스마트 인프라 사업 협력을 위한 전략적 업무협약(MOU)을 체결했다고 24일 밝혔다. 양사는 이번 협약을 통해 각 사가 보유한 기술력과 인프라를 결합해 엣지 AI 기반 영상 분석 솔루션을 공동 개발하고, 산업 현장의 안전 관리와 스마트 인프라 구축을 위한 사업 협력을 추진할 예정이다. 주요 협력 내용은 ▲엣지 AI 기반 지능형 영상 분석 솔루션 공동 개발 ▲산업 안전 및 보안 분야 사업 기회 공동 발굴 ▲기술 검토 및 실증(PoC) 수행 ▲공동 마케팅 및 생태계 연계 협력 등이다. 모빌린트는 자사의 고성능 NPU(신경망처리장치)를 기반으로 엣지 환경에서 고효율 AI 연산이 가능한 하드웨어 플랫폼을 제공하고, 스피어에이엑스는 AI 영상 분석 알고리즘 기술을 접목해 지능형 영상 분석 솔루션을 구현할 예정이다. 이를 통해 제조 현장, 건설 현장, 공공시설 등 다양한 산업 환경에서 실시간 안전 모니터링과 지능형 보안 시스템 구축을 추진한다는 계획이다. 특히 양사는 엣지 AI 기반 영상 분석 기술을 활용해 산업 안전 관리 및 스마트 인프라 분야에서 새로운 사업 기회를 공동 발굴하고, 실제 운영 환경에서의 성능 검증(PoC)을 통해 상용화를 추진할 예정이다. 신동주 모빌린트 대표는 “스피어에이엑스의 AI 영상 분석 기술과 모빌린트의 고성능 NPU 기술이 결합되면 산업 현장에서 요구되는 실시간 AI 분석과 안정적인 시스템 구축이 가능해질 것”이라며 “양사의 협력을 통해 지능형 안전 관리 및 스마트 인프라 분야에서 새로운 AI 솔루션 모델을 만들어 나가겠다”고 말했다. 박윤하 스피어에이엑스 대표는 “스피어에이엑스가 보유한 영상 기반 AI 추론 기술과 모빌린트의 NPU 기반 엣지 AI 하드웨어플랫폼이 결합되면 향후 피지컬 AI 분야에서 큰 시너지를 창출할 수 있을 것으로 기대한다”며 “특히 모빌리티, 드론, 로봇 등 다양한 산업 영역에서 영상 기반 AI 인지 및 판단 기술이 중요한 역할을 하게 될 것으로 보고 있으며, 양사의 기술 협력을 통해 이러한 분야에서 새로운 AI 응용 시장을 개척하고 글로벌 시장을 선도해 나가겠다”고 밝혔다.

2026.03.24 14:59전화평 기자

가비아, 제로트러스트 DaaS로 AI 업무 환경 연다

가비아가 제로트러스트 기반 서비스형 데스크톱(DaaS)을 앞세워 보안과 인공지능(AI) 업무 환경을 동시에 구현하는 시장 공략에 나섰다. 공공·민간을 아우르는 고성능 AI 업무 환경 수요에 대응해 스마트워크 인프라 확산을 본격화한다는 목표다. 가비아는 '제25회 세계보안엑스포(SECON 2026) & 제14회 전자정부 정보보호 솔루션 페어(eGISEC 2026)'에 참가해 제로트러스트 기반 '가비아 DaaS'를 선보였다고 23일 밝혔다. 가비아는 이번 전시에서 AI를 위한 DaaS를 주제로 보안 위협 없이 고성능 AI 인프라를 활용할 수 있는 스마트워크 환경을 공개했다. 가비아 DaaS는 제로트러스트 보안 체계 내에서 운영돼 민감 정보 유출을 사전에 차단하는 것이 특징이다. 동시에 데이터 분석과 그래픽 렌더링에 최적화된 그래픽처리장치(GPU) 인프라를 제공해 고성능 연산이 필요한 AI 업무 환경을 지원한다. 보안과 성능을 동시에 확보한 AI 업무 환경을 구현했다는 설명이다. 기술력은 현장 시연을 통해 입증됐다. 가비아는 MMORPG 게임을 DaaS 환경에서 구동해 저지연·고성능 처리 역량을 시연했으며 AI 기반 화상회의에서는 다국어 번역과 자동 요약 기능을 끊김 없이 구현했다. 이를 통해 고사양 AI 프로그램 운영에 최적화된 환경을 선보였다. 실제 도입 사례도 함께 공개했다. 한국마사회 등 공공기관과 한국맥도날드, 코웨이 등 민간 기업에서 DaaS를 활용해 재택·출장 등 다양한 근무 환경에서도 보안과 업무 연속성을 유지한 사례를 소개했다. 가비아는 이번 전시를 계기로 공공·민간 시장을 중심으로 DaaS 공급 확대에 나설 계획이다. 대규모 AI 연산과 그래픽 처리 등 고성능 인프라 수요가 증가하는 가운데, 보안과 성능을 동시에 제공하는 DaaS로 시장 점유율을 확대한다는 방침이다. 장성문 가비아 보안사업본부장은 "올해부터 공공기관 경영평가에 AI 전환(AX)이 반영되고 국가망보안체계(N2SF) 구축 시 가산점까지 부여됨에 따라 AI 도입은 기관의 핵심 생존 전략이 됐다"며 "물리적 망 분리의 한계를 극복하고 안전한 AI 활용을 가능케 하는 최적의 방법은 제로트러스트 기반의 DaaS"라고 강조했다. 이어 "국내 최초로 DaaS 클라우드 보안인증(CSAP)을 획득한 기술력을 바탕으로 신기술을 자유롭게 활용할 수 있는 스마트워크 환경을 제공해 기관의 경영 성과 제고에 기여하겠다"고 덧붙였다.

2026.03.23 15:50한정호 기자

흩어진 AI를 하나로…HPE, 엔비디아와 'AI 그리드'로 통신 시장 공략

HPE가 분산형 인공지능(AI) 인프라를 하나의 지능형 시스템으로 통합하는 'AI 그리드'를 공개하며 통신사업자(SP) 대상 AI 서비스 시장 공략에 나섰다. 초저지연·고신뢰 연결을 기반으로 엣지부터 데이터센터까지 분산된 AI 환경을 통합해 새로운 서비스 창출을 지원한다는 전략이다. HPE는 최근 'GTC 2026'에서 엔비디아 레퍼런스 아키텍처를 기반으로 한 엔드투엔드 솔루션 'HPE AI 그리드'를 발표했다고 23일 밝혔다. HPE AI 그리드는 지역 및 초엣지 환경에 분산된 AI 팩토리와 추론 클러스터를 안전하게 연결하는 것이 특징이다. 이를 통해 서비스 프로바이더는 수천 개의 분산형 추론 사이트를 구축·운영하면서 개별 인프라를 하나의 통합 시스템처럼 관리할 수 있다. 최근 AI 네이티브 애플리케이션 확산으로 예측 가능한 저지연 인프라 수요가 빠르게 증가하고 있다. HPE AI 그리드는 통합 오케스트레이션을 기반으로 초저지연 성능과 제로 터치 프로비저닝, 자동화된 보안을 제공해 실시간 AI 서비스 구현을 지원한다. 이 솔루션은 HPE 주니퍼 네트워킹 기반 멀티클라우드 라우팅과 WAN 자동화, 보안 기능을 포함해 통신사업자급 네트워크 환경을 지원한다. 여기에 엔비디아 RTX 프로 6000 블랙웰 그래픽처리장치(GPU)와 블루필드 데이터 처리 유닛(DPU), 스펙트럼-X 스위치 등 가속 컴퓨팅 인프라를 결합해 분산형 AI 추론 환경을 구현한다. 기존 전력 및 네트워크 인프라를 활용해 무선접속망(RAN) 기반 AI 인프라로 전환할 수 있도록 설계된 점도 특징이다. 리테일 개인화, 제조 예측 정비, 헬스케어 엣지 추론, 통신사업자급 AI 서비스 등 다양한 분야에서 실시간 AI 활용을 지원한다는 설명이다. 실제 적용 사례도 제시됐다. 컴캐스트는 HPE AI 그리드를 기반으로 분산된 네트워크 환경에서 실시간 엣지 AI 추론을 테스트하고 있으며 소형언어모델(sLM)을 활용한 AI 기반 프론트 데스크 서비스 구현을 추진 중이다. HPE는 금융 프로그램을 통해 AI 인프라 도입 지원도 확대한다. 네트워크 AI옵스(Ops) 소프트웨어를 지원하는 프로그램과 AI 네트워킹 리스 계약 시 비용 절감 혜택을 제공해 기업의 도입 부담을 낮춘다는 방침이다. 라미 라힘 HPE 네트워킹 부문 총괄은 "HPE AI 그리드는 엔비디아와의 협력을 통해 서비스 프로바이더가 분산형 추론 환경을 단일 시스템처럼 운영할 수 있도록 지원한다"며 "예측 가능하고 초저지연의 성능을 바탕으로 고객 혁신을 가속화하고 새로운 서비스 창출을 가능케 할 것"이라고 말했다. 크리스 펜로즈 엔비디아 텔코 부문 글로벌 부사장은 "AI 그리드는 지리적으로 분산된 AI 클러스터를 통합해 AI 워크로드를 최적의 위치에 배치함으로써 성능과 비용, 지연시간을 균형 있게 관리한다"며 "HPE와 협력해 가속 컴퓨팅과 통신사업자급 인프라를 결합함으로써 분산형 추론을 위한 단일 지능형 네트워크를 구축할 것"이라고 밝혔다.

2026.03.23 15:31한정호 기자

퍼블릭 클라우드 '흔들'…AI·데이터 주권에 '프라이빗 회귀' 가속

전 세계적으로 생성형 인공지능(AI) 확산과 데이터 주권 요구가 맞물리면서 기업들의 클라우드 전략이 빠르게 재편되고 있다. 기존 퍼블릭 클라우드 중심에서 벗어나 보안·규제·비용을 동시에 고려한 하이브리드 및 프라이빗 클라우드로 이동하는 흐름이 뚜렷해지며, 이른바 '인프라 회귀' 현상이 산업 전반에 확산되는 양상이다. 22일 엔터프라이즈 오픈 소스 기업 수세가 발표한 설문조사에 따르면 기업의 59%가 하이브리드 클라우드를, 16%는 프라이빗 클라우드를 우선 도입 전략으로 고려하는 것으로 나타났다. 이번 조사는 미국·영국·일본·인도·독일 등 주요 국가의 IT 의사결정권자 약 600명을 대상으로 진행됐다. 특히 AI 도입이 기업 인프라 전략 변화의 핵심 요인으로 작용하고 있는 것으로 분석됐다. 응답자의 61%는 AI 도입을 '중대한 과제'로 꼽았으며 AI 모델 학습 과정에서 데이터 주권 확보 중요성에 대해 80% 이상이 '매우 중요하다'고 답했다. AI 확산은 단순한 기술 도입을 넘어 인프라 복잡성과 리스크를 동시에 증가시키고 있다. 이에 기업들은 기존 퍼블릭 인프라 중심 구조에서 벗어나 통제 가능한 환경을 확보하기 위해 하이브리드 및 프라이빗 클라우드로 눈을 돌리는 분위기다. 이 과정에서 데이터 주권이 핵심 키워드로 떠오르고 있다. 특히 유럽과 미국을 중심으로 데이터 지역화 규제와 보안 요구가 강화되면서, 기업 내부 또는 통제 가능한 환경에서 데이터를 관리하려는 움직임이 확대되고 있다. 클라우드 전략 변화는 비용 구조에서도 영향을 받고 있다. AI 워크로드는 대규모 그래픽처리장치(GPU) 자원을 요구하는 만큼 퍼블릭 클라우드 기반 과금 모델에서 비용 부담이 급격히 증가하는 문제가 발생하고 있다. 장기적으로는 프라이빗과 하이브리드 인프라 환경이 비용 효율 측면에서도 유리하다는 인식이 확산되고 있다. 이같은 흐름은 단순 기술 선택의 문제를 넘어 기업 핵심 자산인 데이터를 어디까지 통제할 수 있는지에 대한 전략 경쟁으로 확장되고 있다. 특히 생성형 AI가 기업 내부 데이터를 학습에 활용하는 구조로 발전하면서, 퍼블릭 클라우드에 대한 의존도를 줄이고 자체 인프라를 강화하려는 움직임이 더욱 가속화되는 추세다. 실제 조사 결과 기업의 51%는 멀티·하이브리드 클라우드 환경 확장에 대한 투자를 늘릴 계획이며 46%는 오픈소스 엔터프라이즈 지원 확대에 나설 것으로 나타났다. 이는 특정 벤더 종속에서 벗어나 유연성을 확보하려는 전략으로 풀이된다. 벤더 종속성 문제 역시 주요 변수로 지목된다. 미국 기업의 경우 39%가 벤더 락인(종속성)을 주요 우려로 꼽았으며 절반 이상이 이를 '중대한 과제'로 인식하고 있는 것으로 조사됐다. 이와 함께 IT 복원력과 보안 강화도 주요 투자 우선순위로 떠올랐다. 미국 응답자의 64%는 IT 복원력을 최우선 기술 과제로 꼽았으며 글로벌 평균 역시 높은 수준을 보였다. 이는 퍼블릭 클라우드 장애나 보안 사고 경험이 누적된 결과로 해석된다. 국내에서도 유사한 흐름이 감지된다. 금융·공공 분야를 중심으로 데이터 주권과 보안 요구가 강화되면서 프라이빗 및 하이브리드 클라우드 도입이 확대되는 추세다. 특히 최근 VM웨어 가격 정책 변화와 벤더 종속 우려가 겹치며 오픈소스 기반 인프라로의 전환 움직임도 점차 가속화되고 있다. 업계에선 이러한 변화가 단기적인 트렌드가 아닌 구조적 전환이라는 분석이 나온다. AI 시대에 데이터가 핵심 자산으로 부상하면서 이를 얼마나 통제할 수 있는지가 기업 경쟁력의 핵심 요소로 자리 잡고 있기 때문이다. 특히 오픈소스 기반 인프라는 이러한 흐름에서 중요한 역할을 하고 있다. 기업들은 특정 벤더에 종속되지 않으면서도 유연성과 확장성을 확보할 수 있는 오픈소스 환경을 통해 하이브리드·프라이빗 전략을 강화하고 있다. 마가렛 도슨 수세 최고마케팅책임자(CMO)는 "AI 도입이 기업 인프라 전략에 큰 변화를 가져오고 있다"며 "고객들은 보다 유연하고 확장 가능하며 통제된 환경으로 빠르게 이동하고 있다"고 말했다. 클라우드 업계 관계자는 "이제 클라우드는 단순한 IT 인프라가 아니라 데이터 주권과 직결된 전략 자산"이라며 "하이브리드와 프라이빗 중심 구조는 AI 시대의 필수 선택지가 될 것"이라고 밝혔다.

2026.03.22 09:19한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성·SK 반도체 슈퍼사이클인데…소재·부품 업계 '시름', 왜?

[유미's 픽] 독파모 탈락 오명 지울까...'KT 수장' 박윤영, LG AI 성공 방정식 이식 총력

롯데월드 점령한 핑크빈…넥슨 '메이플 아일랜드' 가보니

[종합] "에이전틱 AI, 대한민국이 주도한다"…민관 新협력체, 생태계 활성화 박차

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.