• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (386건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

메타넷엑스, 2025년 역대 최대 실적 달성…매출 5541억·영업이 170억 기록

메타넷엑스가 인공지능(AI) 인프라 사업 확대를 기반으로 2025년 사상 최대 실적을 기록했다. 메타넷엑스는 2025년 연결 기준 매출 5541억원, 영업이익 170억원을 기록했다고 2일 밝혔다. 전년 대비 매출은 11.9%, 영업이익은 35.9% 증가했다. 상각 전 영업이익(EBITDA)은 231억원으로, 전년보다 36.6% 늘었다. 이번 성과는 AI 네이티브 인프라 사업 성장에 따른 수익성 개선 영향으로 분석된다. 회사는 운영, 최적화, 자동화를 아우르는 인프라 사업 구조를 통해 실질적인 이익 확대를 이끌었다고 설명했다. 사업 부문별로 보면 인프라, 하이브리드 클라우드 부문이 4462억원으로 전년 대비 8.2% 성장했다. 퍼블릭 클라우드 부문도 670억원을 기록하며 16.5% 증가했다. 보안 사업 역시 안정적인 성장세를 이어가며 전 사업 부문이 고르게 실적을 견인했다. 메타넷엑스는 멀티, 하이브리드 클라우드와 오픈소스, 데이터 플랫폼, SaaS, AI 운영, 보안 관제, 비용 최적화까지 연계한 통합 역량을 기반으로 기업의 AI 환경 구축부터 운영, 자동화까지 지원하고 있다. 금융, 제조 등 주요 산업에서 핵심 시스템 구축과 장기 운영 경험을 바탕으로 기존 단발성 구축 중심에서 반복 매출과 장기 계약 중심 구조로 전환하며 수익성을 강화하고 있다. 회사 측은 생성형 AI 도입이 본격화되면서 AI 워크로드를 안정적으로 처리하고 비용 효율성과 보안을 동시에 확보할 수 있는 차세대 인프라 수요가 확대될 것으로 내다봤다. 또한 전략적 인수와 그룹 내 기술 내재화를 통해 AX 역량 강화에도 속도를 내고 있다. 스켈터랩스를 통해 LLM 기반 엔터프라이즈 AI 기술을 확보했고, 락플레이스를 통해 오픈소스 기반 클라우드와 데이터 역량을 확대했다. 안현덕 메타넷엑스 사장은 "AI 네이티브 인프라 경쟁력 강화를 위한 투자와 실행이 의미 있는 성과로 이어졌다"며 "멀티, 하이브리드 클라우드와 AI, 데이터, 보안을 유기적으로 연결해 고객의 AX 전환을 지속 지원해 나가겠다"고 밝혔다.

2026.04.02 19:21남혁우 기자

퓨리오사AI "올해 2세대 NPU 2만장 양산 목표...제품 공급 시작"

국내 AI 반도체 스타트업 퓨리오사AI가 2세대 AI칩 '레니게이드(RNGD)'의 상용화 성과를 알리며 본격적인 신경망처리장치(NPU) 생태계 확장에 나섰다. 퓨리오사AI는 2일 서울 강남구 에스제이쿤스트할레에서 '레니게이드 2026 서밋'을 개최했다. 이날 행사에는 레니게이드를 직접 도입하는 주요 AI 모델 기업, 통신사, 클라우드 사업자 등 200여명의 관계자가 참석해 AI 반도체 도입 현황과 확산 방안을 공유했다. "올해 2만장 규모 양산"…HBM 탑재 NPU로 글로벌 시장 정조준 퓨리오사AI는 앞선 지난 1월 1차 양산 물량 4000장을 인도받으며 레니게이드의 양산을 개시했다. 고대역폭메모리(HBM)를 탑재한 NPU가 개발을 넘어 양산 단계까지 이른 것은 세계적으로도 드문 사례다. 특히 백준호 대표는 올해 공격적인 공급 계획을 밝혔다. 백 대표는 "올해 레니게이드 카드를 약 2만장 규모로 양산할 수 있도록 모든 준비를 마쳤으며, 현재 양산이 순조롭게 진행 중"이라며 "이미 다양한 고객사들에게 제품 공급을 시작했다"고 강조했다. 2세대 레니게이드는 극강의 전력 효율을 꾀한 추론용 칩이다. 칩당 열 설계 전력(TDP)을 180W 이하로 획기적으로 낮추면서도 고성능을 달성했다. 부동소수점 연산 기준으로 초당 512테라플롭스(TFLOPS), 정수형(INT4) 기준 1페타플롭스(PFLOPS)의 성능을 제공하며, 4세대 HBM3를 탑재해 메모리 병목 현상을 해소했다. 퓨리오사AI가 공개한 최신 벤치마킹 결과에 따르면 레니게이드는 엔비디아 RTX PRO 6000과 비교해 동일한 전력으로 최대 7.4배 규모의 사용자를 처리할 수 있다. 이를 통해 기존 GPU 대비 인프라 총소유비용(TCO)을 약 40% 절감할 수 있다는 것이 회사 측의 설명이다. "실전 투입 채비 마쳤다"…주요 파트너사 협력 릴레이 이날 행사의 가장 큰 화두는 레니게이드를 실제 인프라와 서비스에 도입하는 주요 파트너사들의 생생한 현장 목소리였다. 파트너사들은 단순한 개념 검증을 넘어 구체적인 상용화 계획을 잇달아 발표했다. 먼저 LG AI연구원은 2022년부터 퓨리오사AI와 교감하며 자사의 LLM(거대언어모델) '엑사원(EXAONE)'을 레니게이드 환경에서 구동하는 작업을 진행해 왔다. 임우형 LG AI연구원 원장은 "단순 모델 서빙을 넘어 다양한 서비스 시나리오에 대해 벤치마크 테스트를 진행했고, 퓨리오사AI의 신속한 소프트웨어 개선 등 우수한 엔지니어링 역량을 확인했다"고 평가했다. LG유플러스는 엑사원 모델과 레니게이드를 결합해 보안과 제어가 가능한 '소버린 AI' 어플라이언스 솔루션을 구축 중이다. 이상엽 LG유플러스 CTO는 "향후 보이스 기반 AI 서비스가 상용화되면 텍스트 대비 토큰 비용이 30배 이상 급증할 수 있다"며 "이를 해결하기 위해 엣지 및 온디바이스가 결합된 하이브리드 AI 인프라 구축에 레니게이드가 효과적"이라고 말했다. 삼성SDS는 올해 7월 삼성 클라우드 플랫폼(SCP)을 통해 국내 CSP(클라우드 서비스 제공사업자) 최초로 NPU 기반 구독형 서비스인 'NPUaaS'를 론칭할 계획이다. 이주형 삼성SDS 상무는 "고객이 1장, 2장, 4장, 8장 단위로 필요한 만큼 구독해 사용할 수 있도록 클라우드 가상화 통합 작업을 성공적으로 진행해 왔다"고 밝혔다. 업스테이지는 약 200만명의 사용자를 보유한 챗봇 서비스와 주력 LLM인 '솔라(Solar)'를 서빙하는 과정에서 발생하는 막대한 GPU 운용 비용 문제를 해결하고자 퓨리오사AI와 손을 잡았다. 김성훈 업스테이지 대표는 "척박한 서비스 생존 경쟁 속에서 경제적인 추론 칩이 절실했다"며 "퓨리오사AI의 지원으로 실질적인 상용 테스트를 속도감 있게 진행하고 있다"고 말했다. 메가존클라우드는 퓨리오사AI 등과 컨소시엄을 구성해 사우디아라비아 아람코 등 중동 진출을 위한 개념검증(PoC)을 주도하고 있다. 이주완 메가존클라우드 회장은 "경남, 전북, 구미 등 주요 지방 산단에 엣지 클라우드 인프라를 구축해 중소·중견 제조사들의 AI 도입을 직접적으로 지원할 것"이라며 "향후 3년 내 500억원, 5년 내 3000억원 규모의 퓨리오사AI 칩 공급을 추진하겠다"는 구체적인 목표도 제시했다. PC용 경량화 모델부터 3세대 칩까지…차세대 로드맵 가속 퓨리오사AI는 시장의 빠른 변화에 대응하기 위해 레니게이드 라인업을 다각화하는 구체적인 로드맵도 제시했다. 백 대표는 단기적으로 "레니게이드의 메모리를 기존 HBM3에서 차세대 메모리로 업그레이드하고, 현재 출시된 서버 어플라이언스 제품군 역시 지속해서 고도화해 신제품을 선보일 것"이라고 말했다. 또한 제품군의 외연 확장도 예고했다. PC나 워크스테이션 환경에 맞춰 칩을 경량화한 '레니게이드 S'의 모든 준비를 마쳐 올해 말에서 내년 초 사이 출시할 예정이다. 나아가 2028년에는 레니게이의 핵심 엔진 아키텍처를 기반으로 메모리와 연산 규모 등 이른바 '배기량'을 대폭 확대한 3세대 AI 칩을 선보이며 글로벌 경쟁력을 이어갈 계획이다. 백 대표는 "오늘 행사는 레니게이드 기반 NPU 생태계 확산을 이끌어갈 국내외 주요 파트너사들과 함께 하는 뜻깊은 자리"라며 "레니게이드 기반의 생태계 확산을 통해 글로벌 AI 인프라 시장에서 한국 반도체의 저력을 직접 증명하겠다"고 포부를 밝혔다.

2026.04.02 16:08전화평 기자

사람 대신 AI가 장애 대응…SK AX, '무중단 운영' 체제 무기 꺼냈다

SK AX가 에이전틱 인공지능(AI) 기반 자동화 운영 체계를 앞세워 기업 인프라의 '무중단 운영' 구현에 나섰다. AI가 문제를 사전에 탐지하고 대응하는 구조로 시스템 장애를 줄이고 AI 전환(AX) 실행 속도까지 끌어올리겠다는 전략이다. SK AX는 에이전틱 AI 기반 인프라 운영 서비스 '엑스젠틱와이어 NPO(AXgenticWire NPO)'를 출시하고 시스템 장애 예방 중심의 운영 혁신에 나섰다고 2일 밝혔다. 이 서비스는 기존 사람이 중심이던 IT 운영 방식을 AI 중심 구조로 전환하는 데 초점을 맞췄다. 특히 최근 AI 클라우드 환경이 확대되면서 그래픽처리장치(GPU) 자원 관리와 워크로드 변동성이 복잡해지고 있는 만큼, 휴먼에러를 최소화하고 선제 대응 체계를 구축하는 것이 핵심 과제로 떠오르고 있다는 점이 반영됐다. 엑스젠틱와이어 NPO는 에이전틱 AI가 문제 상황을 탐지·분석·판단·조치하는 전 과정을 자동으로 수행하는 구조를 갖췄다. 이상 징후를 감지하는 탐지 에이전트를 시작으로, 원인을 추론하는 분석 에이전트, 영향 범위를 판단하는 에이전트, 복구 및 자원 재할당을 수행하는 조치 에이전트가 유기적으로 작동한다. 장애 발생 가능성을 사전에 낮추고 대응 시간을 단축할 수 있다는 설명이다. 업계에선 이러한 흐름을 운영형 AI 확산 단계로 보고 있다. 단순 분석이나 예측을 넘어 실제 시스템 운영에 AI가 개입하는 형태로 진화하고 있으며 특히 제조·금융·공공 분야에서 서비스 중단 리스크를 줄이는 기술 수요가 빠르게 증가하는 추세다. 회사 측에 따르면 엑스젠틱와이어 NPO 적용시 다양한 산업별 업무 혁신이 예상된다. 제조업에선 설비 이상을 실시간으로 감지해 생산 차질을 줄일 수 있고 금융권에선 중단 없는 전자금융 시스템 운영이 가능하다. 공공 영역에서도 대국민 서비스 안정성과 장애 대응 체계를 동시에 강화할 수 있다는 게 회사 측 설명이다. SK AX는 단순 운영 자동화를 넘어 IT 운영 방식과 비용 구조 전반을 재설계한다는 목표다. 로그·메트릭·이벤트 데이터를 기반으로 AI가 인프라 전반을 통합 관리하고 운영자는 자연어 기반 인터페이스를 통해 상태 조회와 제어를 수행할 수 있도록 했다. 또 기업 도입 환경에 맞춰 선택형 구조를 제공하는 것도 특징이다. 설치형 방식부터 특정 업무를 위탁하는 BPO, 전체 운영을 통합하는 ITO까지 다양한 도입 모델을 지원한다. AI 스튜디오와 모델 컨텍스트 프로토콜(MCP) 빌더, GPU 자원을 통합 관리하는 서비스 등을 통해 구축과 운영 편의성도 높였다. 차지원 SK AX 최고AI혁신책임자(CAIO)는 "엑스젠틱와이어 NPO 도입으로 기업들은 다운타임 없는 운영 체계에서부터 애플리케이션의 지능화된 서비스까지 AX 실행 전환 속도를 높일 수 있다"며 "AX 전체 영역에서 운영비용 구조 혁신과 프로세스 재설계도 실현할 것"이라고 밝혔다.

2026.04.02 14:46한정호 기자

딥엑스, 롯데이노베이트와 국산 AI 반도체 상용화 양산 협력

AI 반도체 기업 딥엑스가 롯데이노베이트와 AI 반도체 기반의 상용화 양산 협력을 본격화한다고 2일 밝혔다. 이번 협력은 양사가 공동 진행한 딥엑스 신경망처리장치(NPU) 솔루션의 현장 성능 검증(PoC)이 완료됨에 따라 결정됐다. 롯데이노베이트 관계자는 "딥엑스의 DX-M1 제품의 연산 성능이 높은 점과 발열 제어 부분에서 타 기술대비 발군의 성능을 보여주었다”고 말했다. 양사의 주요 상용화 협력 분야는 지능형 교통 인프라와 리테일 인프라 구축이다. 먼저 지능형 교통 인프라 확충을 위해 교통 밀집 구간에 딥엑스 NPU를 탑재한 AI 엣지 카메라를 도입한다. 클라우드 서버 연동 없이 현장에서 실시간 차량 인식과 이상 상황 탐지를 자체 수행해 통신 비용을 절감하는 차세대 지능형 교통시스템(ITS)을 실증할 예정이다. 대형 유통 매장에는 지능형 리테일 인프라 강화를 위한 초저전력 온디바이스 AI 기반 영상 분석 시스템을 구축한다. 수천 대 규모의 스마트 CCTV를 운용하는 환경에서 기존 GPU 대비 전력 소모를 낮추면서 고객 동선 분석, 안전 관제, 재고 모니터링을 효율적으로 처리한다는 목표다. 이번 협력을 위해 롯데이노베이트는 산업 데이터와 사업 현장을 실증 환경(Test-bed)으로 제공하며, 자체 개발한 AI 알고리즘을 딥엑스의 SDK인 'DXNN'에 최적화해 탑재하는 표준 개발 프로세스를 구축한다. 딥엑스는 저전력·저발열 하드웨어 최적화 기술과 전담 인력을 지원하며, 자체 공급망 관리(SCM)를 통해 반도체 물량을 우선 공급해 비즈니스 연속성을 담보한다. 양사는 교통 및 유통 분야 양산을 시작으로 향후 제조, 로봇, 스마트 팩토리, 안전 관제 등 롯데의 주요 산업 영역으로 엣지 AI 솔루션 적용을 확대할 계획이다. 김녹원 딥엑스 대표는 "이번 협력으로 딥엑스의 AI 반도체가 실제 도로와 매장이라는 산업 현장의 핵심 인프라로 작동하기 시작했다"고 말했다. 김영갑 롯데이노베이트 AX사업본부장은 "딥엑스의 고성능·저전력 NPU 역량을 결합해 롯데 전반의 산업 현장에 최적화된 온디바이스 AI 인프라를 구축하겠다"고 말했다.

2026.04.02 10:29전화평 기자

LG 구광모 "AI 시대 위한 확고한 배터리 사업기반 확보해야"

구광모 LG 대표가 미국과 브라질을 잇달아 찾으며 인공지능(AI) 시대를 뒷받침할 인프라인 '에너지'와 신흥시장인 '글로벌 사우스(Global South)'를 축으로 한 미래 성장 전략을 점검했다. LG는 구광모 대표가 지난달 30일(현지시간) 미국 매사추세츠주 웨스트보로에 위치한 LG에너지솔루션의 에너지저장시스템(ESS) 시스템 통합(SI) 자회사 버테크(Vertech)를 방문했다고 2일 밝혔다. LG는 "이번 행보는 AI 산업 성장으로 중요 인프라로 부상한 ESS 사업 방향을 점검하고, 글로벌 사우스에서 입지를 공고히 하겠다는 의지를 반영한 것"이라고 설명했다. 구 대표는 AI 데이터센터와 피지컬 AI 등 미래 산업의 급성장에 맞춰 에너지 인프라 시장 주도권 선제 확보를 주문했다. 구 대표는 "어떤 외부환경에도 흔들리지 않는 사업기반을 확보해야 한다"며 "특히 ESS 배터리 하드웨어 공급을 넘어 고객에게 부가가치가 높은 통합 솔루션 역량을 강화해 시장을 선도하는 압도적 지위를 구축해야 한다"고 강조했다. LG는 세계 최고 수준의 배터리 제조 경쟁력에 소프트웨어 기반 운영·관리역량을 더해 AI 시대 에너지 인프라 시장을 위한 배터리 사업 질적 성장을 목표로 하고 있다. ESS 시장은 AI 데이터센터 확산, 산업 전동화, 재생에너지 확대 등 요인으로 빠르게 성장하고 있다. 특히 AI 데이터센터 같은 고성능 컴퓨팅 환경에서는 ESS가 단순 저장기능을 넘어 전력 부하 최적화와 공급 안정성 확보를 위한 중요 인프라로 자리매김하고 있다. LG에너지솔루션은 글로벌 ESS 주류로 부상한 리튬인산철(LFP) 배터리를 적기에 도입했다. 북미 수요 급증에 맞춰 현지 생산거점 5곳을 ESS 생산라인으로 전환하고 있다. 현재 북미에서 ESS 배터리를 생산해 공급하는 기업은 LG에너지솔루션이 유일하다. LG에너지솔루션은 버테크와 시너지도 강화하고 있다. 버테크는 ESS 사업의 핵심역량인 설계, 설치, 유지·보수와 소프트웨어 기반 운영 관리를 아우르는 시스템 통합 역량을 갖췄다. LG의 ESS를 선택하는 고객은 배터리 공급부터 설치, 사후 관리까지 한번에 해결할 수 있다. 구 대표는 미국 버테크 일정을 마친 뒤 브라질로 이동해 LG전자 마나우스 생산법인과 현지 유통매장을 찾아 중남미 시장 전략을 논의했다. 브라질은 인구 2억 1000만 명의 세계 7위 인구 대국이다. 중남미 전체 국내총생산(GDP)의 40%를 차지하는 글로벌 사우스 핵심국이다. LG는 "구 대표가 지난해 2월 인도, 6월 인도네시아에 이어 이번에 브라질을 방문하며 합계 인구 20억 명인 글로벌 사우스 공략에 속도를 내고 있다"고 밝혔다. LG전자가 브라질 남부 파라나주에 구축 중인 냉장고 신공장은 높은 수입 규제와 관세 장벽을 극복하고 중남미 지배력을 강화하기 위한 전략 기지다. 올해 7월부터 본격 가동 예정이다. LG는 "보호무역주의가 강한 시장 특성에 맞춰 브라질 내수 수요에 대응하고 물류 효율을 확보하기 위한 전략 일환"이라고 설명했다.

2026.04.02 10:00장경윤 기자

LG CNS, 삼송 데이터센터 최소 7800억 매출 확보

LG CNS가 코로케이션과 위탁운영을 동시에 확보하며 삼송 데이터센터를 축으로 인공지능(AI) 인프라 사업 확대에 속도를 내고 있다. 40여 년간 축적한 데이터센터 역량을 바탕으로 LG CNS는 국내 점유율 1위를 공고히 함과 동시에 차세대 '모듈형 AI 데이터센터(AIDC)'를 앞세워 글로벌 시장까지 진출할 계획이다. 1일 금융감독원 전자공시시스템에 따르면 LG CNS는 2차 구축 중인 삼송 데이터센터에 네이버클라우드, 우리은행과 연이어 대규모 장기 계약을 체결했다. "단일 계약 최대 규모"…네이버클라우드와 두 번째 대규모 계약 LG CNS는 네이버클라우드와 '삼송 데이터센터 코로케이션(Co-location) 서비스 계약'을 맺었다. 코로케이션은 기업이 막대한 비용을 들여 데이터센터를 직접 짓는 대신, 전문 데이터센터 내에 자사의 서버와 네트워크 장비 등을 설치할 공간을 임대하고 전력·냉각·보안·운영 등 필수 인프라를 종합적으로 제공받는 서비스다. 네이버클라우드가 공시를 통해 밝힌 바에 따르면 이번 계약은 6030억원에 달한다. 올해 국내에서 체결된 데이터센터 코로케이션 사업 중 최대 규모이자 LG CNS가 진행한 단일 계약 기준으로도 역대 최대 규모인 것으로 전해졌다. 계약 기간은 올해 7월부터 2035년 5월까지다. 이는 지난해 체결된 죽전 데이터센터에 이은 양사 간 두 번째 대형 계약으로 네이버클라우드는 AI 등 핵심 기술 운영에 필요한 하이엔드급 인프라를 안정적으로 확장하게 됐다. 기업 입장에서는 초기 인프라 구축 비용(CAPEX)을 대폭 절감하고 핵심 비즈니스에만 역량을 집중할 수 있는 강점이 있다. 더불어 LG CNS는 삼송 데이터센터 소유사인 이지스자산운용과 약 1820억원 규모 '고양 삼송 데이터센터 위탁운영 계약'도 체결했다. 계약 기간은 2035년 5월까지다. 결과적으로 LG CNS는 삼송 데이터센터를 통해 상면 임대와 위탁운영이라는 두 가지 비즈니스 모델을 통해 약 7800억원에 달하는 대형 장기 수익을 확정지었다. 국내 DBO 점유율 60%…'원 LG' 앞세워 글로벌 진출 가속 LG CNS는 이번 대형 계약 수주의 배경에는 약 40년간 데이터센터 사업을 수행하며 입증한 기술력이 자리하고 있다고 밝혔다. 2019년 국내 최초로 데이터센터 설계·구축·운영(DBO) 사업 모델을 도입해 하남, 죽전, 삼송 등 수십 메가와트(MW) 규모의 하이퍼스케일급 데이터센터 구축 사업을 성공적으로 수행해 왔다. LG CNS는 국내 데이터센터 DBO 설계·컨설팅 영역에서 약 60% 점유율을 차지하고 있으며 구축 및 운영 영역에서도 최고 수준을 기록 중이다. 자체 데이터센터 역시 국내 최초로 오픈한 이래 부산, 상암, 가산을 비롯해 미국, 유럽, 중국 등 글로벌 거점에서 운영하고 있다. 생성형 AI 확산으로 고전력·고밀도 인프라 수요가 급증함에 따라 LG CNS는 6개월 내 구축이 가능한 혁신적인 '모듈형 AI 데이터센터'도 선보였다. 이 모델은 컨테이너 하나에 GPU 576장을 수용하는 소형 데이터센터로, 통상 2년이 걸리던 구축 기간을 단축하고 컨테이너 결합을 통해 하이퍼스케일급으로 확장이 가능하다. LG CNS는 지난해 '원 LG' 기술력을 결집해 인도네시아 자카르타에서 1000억원 규모의 하이퍼스케일급 AI 데이터센터 사업을 수주하며 한국 기업 최초로 해외 진출의 포문을 열었다. 향후 베트남 등 추가적인 글로벌 시장 공략에도 박차를 가할 계획이다. 한 업계 관계자는 "LG CNS가 데이터센터 역량을 바탕으로 안정적인 장기 수익 구조를 구축하고 있다"며 "이를 바탕으로 국내는 물론 글로벌 AI 데이터센터 시장까지 적극적으로 진출할 것으로 예상된다"고 말했다.

2026.04.01 16:03남혁우 기자

오라클, AI 투자 확대에 인력 수천명 감축…클라우드·DB 전반 영향

오라클이 인공지능(AI) 인프라 투자 확대에 따른 재원 확보를 위해 대규모 인력 감축에 나섰다. 클라우드와 데이터베이스(DB) 사업 전반에서 구조조정을 단행하며 비용 절감과 동시에 데이터센터 구축 등 AI 투자를 강화하는 모습이다. 31일(현지시간) 월스트리트저널에 따르면 오라클은 이날 미국과 인도 등 주요 거점에서 직원들에게 해고 통보를 시작했으며 감원은 클라우드·DB 등 핵심 사업 전반에 걸쳐 진행되고 있다. 일부 직원들은 이날 새벽 이메일을 통해 "현재 사업적 필요를 고려해 직무를 없애기로 했다"는 통보와 함께 즉시 근무 종료를 안내받은 것으로 전해졌다. 정확한 감원 규모는 공개되지 않았지만, 내부 지표 기준 이미 수천 명 수준에 이른 것으로 알려졌다. 앞서 투자은행 TD코웬은 오라클이 AI 인프라 투자 재원을 마련하기 위해 최대 3만 명까지 인력을 줄일 가능성을 제기한 바 있다. 오라클의 전체 직원 수는 지난해 기준 약 16만 2000명이다. 이번 구조조정은 오라클이 오픈AI와 추진 중인 대규모 데이터센터 프로젝트 '스타게이트'와 맞물려 있다. 오라클은 향후 수년간 수십억 달러 규모의 투자를 통해 데이터센터를 구축할 계획이며 이 과정에서 재무 부담 확대에 대한 우려가 제기되고 있다. 특히 스타게이트 프로젝트는 일부 확장 계획에서 차질을 빚으며 구조 재편이 진행되는 모습이다. 미국 텍사스 애빌린 데이터센터 일부 확장 부지가 마이크로소프트(MS)로 넘어가면서 오라클이 추진 중인 스타게이트 프로젝트의 인프라 확보 계획이 일부 조정된 것으로 전해졌다. 다만 기존 프로젝트 자체는 유지된 채 지역 및 투자 전략을 재조정하는 방향으로 추진되는 상황이다. 오라클은 최근 공시를 통해 구조조정 비용을 기존보다 5억 달러(약 7500억원) 늘리겠다고 밝히며 인력 감축 확대 가능성을 시사했다. 동시에 AI 수요가 공급을 웃도는 상황이 이어지고 있다며 데이터센터 등 관련 인프라 투자를 지속하겠다는 입장을 유지했다. 다만 투자자들은 데이터센터 자금 조달 계획의 실현 가능성과 수익성에 대해 우려를 나타내고 있다. 오라클 주가는 최근 6개월간 약 50% 하락하는 등 변동성이 커졌으며 AI 투자 확대에 따른 재무 부담이 주요 리스크로 지목된다. 이같은 흐름은 오라클에 국한되지 않는다. 아마존과 메타 등 주요 빅테크 기업들도 AI 전환 과정에서 인력 감축과 자동화를 병행하며 AI 투자를 위한 '선 구조조정' 기조가 업계 전반으로 확산되는 양상이다. 업계 관계자는 "AI 경쟁이 심화되면서 글로벌 빅테크들이 투자 여력을 확보하기 위해 인건비를 포함한 비용 절감에 나서고 있다"고 말했다.

2026.04.01 12:17한정호 기자

AWS, 韓 7조원 추가 투자…AI 보안 자동화 전면에

아마존웹서비스(AWS)가 한국 시장에서 인공지능(AI)·클라우드 인프라 확장과 정보보호 역량 강화를 동시에 추진하며 대규모 투자에 나선다. 국내 기업의 AI 도입 수요 확대에 대응하는 동시에 보안 자동화를 앞세워 시장 영향력 확대를 본격화하는 모습이다. 31일 업계에 따르면 AWS코리아는 한국인터넷진흥원(KISA) 정보보호 공시를 통해 2025년부터 2031년까지 약 7조원을 추가 투자할 계획이라고 밝혔다. 기존 투자액 5조 6000억원을 포함하면 국내 누적 투자 규모는 12조 6000억원을 넘어설 전망이다. 이번 투자는 AI 및 클라우드 인프라 확장을 중심으로 진행된다. AWS는 데이터센터 구축·운영·연결·유지보수 등을 포함한 전반적인 인프라 고도화를 통해 국내 기업들이 머신러닝과 데이터 분석, AI 에이전트 기반 자동화 등 고도화된 기술을 활용할 수 있는 환경을 제공한다는 계획이다. 경제적 파급 효과도 상당할 것으로 예상된다. AWS는 2023년부터 2027년까지 한국 국내총생산(GDP)에 약 15조 600억원 규모의 기여 효과를 낼 것으로 전망했다. 이는 클라우드 인프라 구축과 운영 과정에서 발생하는 국내 지출과 IT 부문 가치 창출이 반영된 수치다. 특히 이번 공시에선 AI 기반 보안 자동화도 강점으로 내세웠다. AWS는 보안 사고 대응 서비스에 AI 에이전트를 적용해 침해 사고 조사 과정을 자동화했다. 해당 시스템은 로그 분석, 계정 활동 추적, 네트워크 이벤트 상관관계 분석 등을 자동으로 수행해 대응 시간을 단축하는 것이 특징이다. 또 애플리케이션 단계에서 취약점을 사전에 탐지하는 'AWS 보안 에이전트'와 제로 트러스트 기반 접근 제어 서비스 등 다양한 보안 기능도 확대했다. AWS는 지난 한 해 동안 114개의 신규 보안 통제 기능을 추가하고 모든 계정 유형에 다중인증(MFA)을 의무화하는 등 보안 체계를 강화했다. 글로벌 수준의 보안 인증과 컴플라이언스 대응 역량도 강조됐다. AWS는 PCI-DSS, HIPAA, FedRAMP, GDPR 등 총 143개 보안 표준과 인증을 보유 중이다. 국내에서도 클라우드 서비스 보안인증(CSAP)과 정보보호관리체계(ISMS)를 유지하고 있다. 이와 함께 AWS는 'AWS 트러스트 센터'를 통해 보안 정책, 규정 준수, 데이터 보호 체계 등을 통합 제공하며 고객 신뢰 확보에도 나섰다. 해당 플랫폼은 클라우드 인프라부터 서비스 전반에 이르는 보안 접근 방식을 한눈에 확인할 수 있도록 지원한다. 조직 측면에서도 보안 역량을 강화했다. AWS는 보안 테스트를 담당하는 서비스팀, 인프라 보안 운영 전문가, 최고정보보호책임자(CISO) 조직 등으로 구성된 3단계 체계를 통해 정보보호 수준을 관리 중이다. 다만 국내 정보보호 투자액과 관련한 구체적인 금액은 공개되지 않았다. AWS 측은 "정보보호는 최우선 순위이며 고객 신뢰 확보는 우리 비즈니스의 토대"라며 "고객과 긴밀히 협력해 정보보호 요구사항을 파악하고 포괄적인 서비스와 도구, 전문성을 제공하기 위해 기술·운영·계약 전반에 걸쳐 지속적으로 투자하고 있다"고 밝혔다.

2026.03.31 10:55한정호 기자

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

국방부가 생성형 인공지능(AI) 기반 국방 데이터 인프라 구축을 위한 첫 단계 사업에 착수했다. 대규모 그래픽처리장치(GPU) 서버를 중심으로 한 인프라를 구축해 국방 AI 서비스 운영 기반을 마련하고 향후 국방 통합 AI 데이터센터 구축을 위한 실증 데이터를 확보한다는 구상이다. 30일 조달청 나라장터에 따르면 국방부 산하 국방통합데이터센터(DIDC)는 최근 '2026년 국방통합AI데이터센터 실증 목적 GPU 서버 구축사업' 입찰을 공고했다. 이번 사업은 국방 AI 데이터센터 구축을 위한 초기 실증 사업으로, GPU 자원 확보와 함께 AI 인프라 운영·관리 체계를 구축하는 것이 핵심이다. 사업 예산은 약 216억원 규모로 책정됐으며 계약 후 210일 이내 수행될 예정이다. 특히 일반경쟁입찰 계약방식으로 평가 비중은 기술 90%, 가격 10%로 구성됐다. 이번 사업은 지난해 구축된 국방 생성형 AI '국방 생성형 AI(GeDAI, Generative Defense AI)' 서비스의 안정적 운영을 지원하기 위한 후속 인프라 확장 성격을 띤다. 국방부는 GeDAI를 실증 수단으로 활용해 GPU 수요와 국방 데이터 활용 요구사항을 도출하고 향후 데이터센터 구축 시 기준으로 활용할 계획이다. 사업 범위는 단순 장비 도입을 넘어선다. 우선 대규모 AI 추론 서비스를 위한 GPU 서버와 클라우드 관리 서버, 고속 네트워크 및 스토리지 등 핵심 인프라가 구축된다. 이와 함께 GPU 가상화 기반 서비스형 플랫폼(PaaS), 백업 시스템, 관제 및 보안 솔루션도 포함된다. 특히 GPU 서버는 엔비디아 B300 기반 고성능 장비로 구성되며 서버 간 최대 800기가비피에스(Gbps)급 네트워크를 통해 대규모 AI 추론 환경을 구현하는 것이 목표다. 이를 바탕으로 국방 데이터 기반 AI 모델 학습과 추론을 동시에 지원하는 고성능 인프라가 마련될 전망이다. 사업은 착수 이후 ▲환경 조사 및 요구사항 분석 ▲아키텍처 상세 설계 ▲장비 설치 및 시험평가 ▲보안 측정 및 검수 ▲안정화 단계로 진행된다. 이후 무상 하자보수 및 운영 안정화까지 포함된 전체 구축 사이클이 약 7개월 내 완료될 예정이다. 국방부는 이번 사업을 통해 GPU 자원을 확대하고 각 군과 수요기관에 AI 서비스를 제공할 수 있는 기반을 마련한다는 방침이다. 또 민·군 협력 기반 AI 연구개발 환경을 조성하고 향후 전군 단위 AI 서비스 확산을 위한 인프라 표준 확보에도 활용된다. 이번 사업은 향후 추진될 국방 통합 AI 데이터센터 구축의 전초 단계로 평가된다. 앞서 정부는 2030년까지 최대 5만 개 GPU를 투입하는 대규모 국방 AI 인프라 구축 계획을 밝힌 바 있다. 이번 실증 사업이 핵심 기반이 될 것이라는 예상이 나온다. 국방부 측은 사업 제안요청서를 통해 "AI 과학기술 강군 육성을 위해 기존 국방 생성형 AI 서비스를 안정적으로 운영·관리할 수 있도록 정보시스템을 증설한다"며 "GPU 기반 인프라 구축을 통해 효율적이고 안정적인 AI 서비스 제공 환경을 마련할 것"이라고 밝혔다.

2026.03.30 17:44한정호 기자

KT클라우드, 고가용성 플랫폼 CSAP 인증 획득…공공 인프라 공략 박차

KT클라우드가 자체 기술로 구현한 클라우드 플랫폼의 보안 인증을 획득하며 공공 클라우드 시장 공략에 속도를 낸다. 멀티 가용성 영역(AZ) 기반 고가용성 인프라를 앞세워 서비스 안정성과 확장성을 동시에 확보한다는 전략이다. KT클라우드는 자체 개발한 'KT클라우드 플랫폼'이 클라우드 보안인증(CSAP)을 획득하고 공공 시장 경쟁력 강화에 나선다고 30일 밝혔다. KT클라우드 플랫폼은 설계부터 개발, 운영까지 전 과정을 자체 기술로 구현한 차세대 클라우드 인프라 플랫폼이다. 글로벌 표준 오픈소스를 기반으로 클라우드 네이티브 구조를 내재화해 확장성과 안정성을 동시에 확보한 것이 특징이다. 플랫폼은 쿠버네티스를 기반으로 오픈스택을 재구성한 아키텍처를 적용해 인프라 운영을 자동화·표준화했다. 이를 통해 가상머신(VM)과 컨테이너 환경을 하나의 플랫폼에서 통합 운영할 수 있으며 그래픽처리장치(GPU) 기반 인공지능(AI) 인프라와의 연계도 가능하다. 또 글로벌 표준 환경과의 호환성을 확보해 고객이 별도 학습 없이 플랫폼을 활용할 수 있도록 지원한다. AI 플랫폼 및 외부 솔루션과의 유연한 연계를 통해 멀티 클라우드 환경에서도 확장성을 확보했다. 고가용성 확보를 위한 인프라도 강화했다. KT클라우드는 멀티 리전 구조를 통해 서비스 연속성을 높이고 서울·경북 간 멀티 리전과 서울 용산·목동 간 멀티 AZ 체계를 구축해 재해복구(DR) 환경을 고도화할 계획이다. 최근 공공과 민간 시장에서 이중화와 안정성 요구가 높아지는 가운데, KT클라우드는 멀티 AZ 기반 인프라를 통해 서비스 신뢰성을 높이고 공공 클라우드 시장에서 경쟁력을 강화한다는 방침이다. 안재석 KT클라우드 기술본부장은 "KT클라우드 플랫폼은 우리의 글로벌 수준 기술력을 바탕으로 고객 IT 환경을 클라우드 네이티브 구조로 전환하는 핵심 인프라"라며 "멀티 AZ 기반 고가용성 인프라를 통해 서비스 신뢰성을 높이고 고객의 안정적인 클라우드 운영을 지원하겠다"고 밝혔다.

2026.03.30 16:23한정호 기자

한국 클라우드 시장, 10조원 돌파할까…"지난해 사상 최대"

한국 클라우드 산업이 매출 10조원에 근접한 생태계로 활성화되고 있다. 기업·인력 수 역시 매해 성장을 거듭하며 인공지능(AI) 시대 국가 경쟁력의 핵심 기반으로 자리잡고 있다는 평가다. 27일 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 발표한 '2025년 클라우드 산업 실태조사'에 따르면 2024년 국내 클라우드 시장 전체 매출액이 전년보다 25.2% 증가한 9조 2609억원으로 사상 최대를 기록했다. 기업 수는 전년 대비 13.5% 증가한 2712개, 인력 수는 전년보다 8.4% 늘어난 3만 3000명으로 집계됐다. 이번 조사는 생성형 AI 시대를 맞아 클라우드 수요 증가와 정부 및 업계 현황 전반을 종합적으로 파악하고자 진행됐다. 먼저 2024년 국내 클라우드 부문 전체 매출액의 경우 9조 2609억원으로 2023년 기록한 7조 4000억원 대비 25.2% 늘어났다. 최근 5년간 연평균 성장률은 23.2%를 기록하며 꾸준한 성장세를 입증했다. 세부 서비스 유형별로 살펴보면 ▲서비스형 인프라(IaaS) 부문 매출액이 전년 대비 24.4% 증가한 3조 9400억원 ▲서비스형 플랫폼(PaaS) 부문 매출액은 전년보다 22.0% 상승한 5700억원 ▲서비스형 소프트웨어(SaaS) 부문 매출은 전년 대비 24.2% 증가한 3조 2200억원을 기록했다. 아울러 클라우드 관리 서비스(CMS) 부문 매출액은 1조 4800억원을 기록하며 전년 대비 31.4% 성장한 것으로 나타났다. 클라우드 기업 수 역시 증가했다. 2024년 관련 기업은 총 2712곳으로 전년 대비 323개, 13.5% 증가했다. 이 중 SaaS 기업이 전년보다 15.3% 증가한 1894개, IaaS 기업은 4.8% 상승한 457개사로 기록되며 SaaS 기업이 클라우드 기업의 69.8%를 차지했다. 메가존클라우드 등 CMS 기업은 전년 대비 47.9%가 증가한 139개로 전 서비스 유형 중 가장 높은 증가세를 보였다. 특히 증가분의 대부분이 30인 이상 기업에서 발생한 것으로 나타났다. 이에 맞춰 클라우드 산업 종사자 수도 늘어났다. 2024년 클라우드 인력은 3만 3217명으로 이전년도 대비 8.4% 증가한 2563명으로 조사됐다. 15.3% 이상 늘어난 전년도 대비 다소 둔화된 증가율을 보였으나, 지속적인 증가세를 유지하고 있다. 세부 분야별로 살펴보면 클라우드 개발자가 1만 1146명(33.6%)으로 가장 큰 비중을 차지했다. 이어 클라우드 운영(19.7%), 기획·영업·지원(17.1%), 클라우드 아키텍트(15.6%), 클라우드 보안(14.1%) 순으로 나타났다. 과기정통부는 이번 실태조사 결과를 바탕으로 클라우드 산업의 지속적인 성장을 뒷받침한다는 목표다. 국가AI컴퓨팅센터 구축, 그래픽처리장치(GPU) 구매 및 임차 지원 등 GPU 마중물 사업과 이를 수용할 AI 데이터센터 생태계 조성을 위해 지속적으로 노력한다는 방침이다. 또 독자 AI 파운데이션 모델 프로젝트와 AI 전환(AX) 원스톱 바우처 등 국내 클라우드 수요를 창출할 수 있는 핵심 사업들도 적극 추진해 나갈 예정이다. 최동원 과기정통부 인공지능인프라정책관은 "국내 클라우드 시장 매출액이 9조원을 넘어서며 AI 시대의 핵심 인프라로 자리잡고 있다"며 "국가 AI 경쟁력을 좌우하는 핵심 기반인 클라우드 수요 확대에 발맞춰 민간 클라우드 시장의 지속적인 성장과 공공 부문의 민간 클라우드 도입 확산을 위해 적극적으로 노력해 나가겠다"고 밝혔다.

2026.03.30 12:00한정호 기자

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

베슬AI, 엔비디아 GB200·B300 확보…듀얼 네오클라우드 운영

베슬AI가 초거대 모델 학습과 추론을 동시에 지원하는 최신 엔비디아 그래픽처리장치(GPU) 라인업을 구축해 국내 인공지능(AI) 인프라 시장에서 입지를 강화한다. 베슬AI는 엔비디아 'GB200'과 'B300'을 확보하고 이를 기반으로 클라우드 서비스형 GPU(GPUaaS) 사업을 확대한다고 27일 밝혔다. 베슬AI에 따르면 회사는 국내에서 GB200과 B300을 동시에 제공하는 유일한 네오클라우드 사업자로, 차별화된 AI 인프라 경쟁력을 확보했다. 이번 GPU 확보를 통해 기업 고객은 AI 워크로드 특성에 맞춰 GPU를 선택할 수 있게 됐다. B300은 대규모 AI 모델 추론에, GB200은 초거대 모델 학습에 적합해 다양한 AI 개발 환경을 지원한다. 서비스 접근성도 강화했다. 베슬AI는 A100과 H100 등 주요 GPU와 스토리지, AI 개발 플랫폼을 별도 협의 없이 즉시 사용할 수 있는 셀프서비스 방식으로 제공한다. 기업과 개발자가 별도 계약이나 승인 절차 없이 필요한 시점에 바로 GPU를 활용할 수 있도록 지원한다. 비용 효율성도 강점으로 내세웠다. 분 단위 과금 체계와 '스마트 퍼징' 기능을 통해 유휴 자원 낭비를 최소화하고 AI 인프라 총소유비용(TCO)을 절감할 수 있도록 했다. 직관적인 요금 구조와 유연한 크레딧 관리 방식도 도입해 GPUaaS 도입 장벽을 낮췄다는 설명이다. 베슬AI는 자사 GPU 클라우드 플랫폼 '베슬 클라우드'를 통해 GPU 자원을 제공 중이며 현재 일부 물량을 기반으로 기업들의 인바운드 문의가 이어지고 있다. 향후 글로벌 클라우드 파트너십을 기반으로 공급 규모를 확대하고 다양한 지역으로 서비스를 확장할 계획이다. 안재만 베슬AI 대표는 "A100부터 B300까지 국내에서 가장 폭넓은 GPU 라인업을 갖춘 네오클라우드 사업자로서 국내 기업들의 AI 인프라 경쟁력을 높이는 데 기여하겠다"고 말했다.

2026.03.27 17:35한정호 기자

"외산 의존 끊는다"…NHN클라우드-티맥스티베로, 국산 AI 인프라 확산 '동맹'

NHN클라우드가 티맥스티베로와 협력해 외산 기술 의존도를 낮춘 국산 기반 인공지능(AI) 인프라 생태계 구축에 앞장선다. 클라우드와 데이터베이스(DBMS)를 결합해 실제 업무 환경에 적용 가능한 AI 인프라를 구현하고 공공·금융 등 규제 산업까지 확산한다는 전략이다. NHN클라우드는 티맥스티베로와 국산 기술 기반 AI 인프라 생태계 구축을 위한 업무협약(MOU)을 체결했다고 27일 밝혔다. 티맥스티베로는 국산 DBMS '티베로'를 개발·공급하며 공공·금융·제조 등 다양한 산업에서 활용 사례를 확보하고 있다. 대규모 트랜잭션 처리와 안정성을 강점으로 외산 DBMS 대체를 위한 기술 확보에 주력해왔다. 이번 협약을 통해 양사는 각자 핵심 기술을 결합해 국산 AI 인프라 환경을 공동 구축하고 이를 기반으로 사업 확대와 시장 확산에 나설 계획이다. 우선 NHN클라우드의 그래픽처리장치(GPU) 기반 클라우드 인프라와 티맥스티베로의 DBMS를 연계해 AI 서비스 환경을 구성한다. AI 학습·추론 데이터와 업무 데이터를 통합 관리할 수 있는 구조를 설계하고 이를 기반으로 공동 솔루션을 제안할 예정이다. 또 실제 업무 환경에서 장기 운영이 가능한 AI 인프라 아키텍처를 공동 검토하고 공공·금융 등 규제 산업을 고려한 데이터 주권, 보안, 거버넌스 대응 방안도 마련한다. 양사는 공공·금융·제조 등 데이터 집약 산업을 중심으로 공동 영업과 도입 제안을 추진해 레퍼런스를 확보하고 성공 사례를 기반으로 시장 확대에 속도를 낼 방침이다. 이번 협력은 클라우드와 DBMS 분야를 대표하는 국내 기업이 손잡고 국산 기술 기반 AI 인프라를 구축하는 선도 사례로 평가된다. 양사는 기존 협력 관계를 바탕으로 기술 협력을 더욱 강화해 국내 AI 생태계 성장에 기여한다는 방침이다. 박경희 티맥스티베로 대표는 "인프라와 데이터, AI 서비스가 분리되지 않고 하나의 흐름으로 이어질 때 AI는 실험을 넘어 실제 업무를 바꾸는 도구가 될 수 있다"며 "이번 협약을 통해 고객이 데이터 주권과 보안·규제 요건을 충족하면서도 AI를 안정적으로 운영·확장할 수 있도록 현실적인 데이터 인프라 환경을 제시하겠다"고 말했다. 김동훈 NHN클라우드 대표는 "우리 클라우드를 기반으로 티베로 DBMS 공동 개발을 함께한 티맥스티베로와 AI 인프라 생태계 조성을 위해 다시 한번 손을 잡게 됐다"며 "국내 클라우드와 DBMS를 대표하는 기업으로서 외산 기술에 의존하지 않고도 국산 AI 인프라 생태계 구축이 가능하다는 점을 업계에 입증해 나가겠다"고 밝혔다.

2026.03.27 16:41한정호 기자

[현장] "제조 AI, 이제 실행할 때"…GS네오텍, '미소'로 현장 바꾼다

GS네오텍이 제조 현장 데이터를 실질적인 의사결정과 실행으로 연결하는 인공지능(AI) 플랫폼을 앞세워 산업 현장 AI 전환(AX) 확산에 앞장선다. 자체 개발한 노코드·로우코드 기반 AI 플랫폼 '미소(MISO)'를 중심으로 보안·유연성·확장성을 동시에 확보하며 제조 기업의 생산성 향상과 비용 절감, 보안 리스크 최소화를 동시에 구현한다는 전략이다. GS네오텍 김용규 AI 리서치 엔지니어는 27일 서울 송파구 롯데호텔 월드에서 열린 제조 고객 대상 아마존웹서비스(AWS) 파트너 클라우드 솔루션 컨퍼런스에서 "제조 AX를 위해선 데이터를 단순히 분석하는 데 그치지 않고 실제 실행까지 자동화해야 한다"고 강조했다. 그는 제조업 AI 시장이 빠르게 성장하고 있지만 실제 도입 성공률은 낮다고 진단했다. GS네오텍이 발췌한 시장조사 자료에 따르면 제조 분야 AI 시장은 2023년부터 2030년까지 5년간 평균 700% 이상 성장할 것으로 예상되지만, 프로젝트의 80% 이상이 실패하고 있다. AI로 해결할 문제 정의가 잘못되거나 데이터·인프라가 부족한 상태에서 시작하는 것이 주요 원인으로 꼽힌다. 이에 대해 김 엔지니어는 "AI 프로젝트의 가장 큰 위험은 기술적으로는 성공한 것처럼 보이지만 현장에서 사용되지 않는 경우"라며 "중요한 것은 기술의 화려함이 아니라 실제 문제 해결 역량"이라고 말했다. GS네오텍은 이같은 문제를 해결하는 방법으로 AWS 기반 인프라와 생성형 AI를 결합한 제조 특화 플랫폼 아키텍처를 제시했다. 김 엔지니어는 "AWS IoT와 아마존 베드록이 지원하는 생성형 AI를 결합해 공장 데이터를 실시간으로 수집하고 분석해 즉각적인 인사이트로 전환한다"며 "AI 챗봇 기반 현장 어시스턴트, 품질 진단, 공정 시각화 기능까지 통합 제공한다"고 설명했다. 이 시스템은 센서와 비전 데이터를 IoT 환경에서 수집한 뒤 클라우드로 전송하고 람다와 베드록 등을 통해 분석하는 구조로 구성된다. 생산 공정·설비 간 연결 관계를 파악하고 이상 징후 발생 시 원인 분석과 대응 가이드를 즉시 제공한다. 단순 알림을 넘어 AI가 해결 방법까지 제시해 현장 대응 시간을 줄이도록 지원한다. 이를 통해 관리자가 현장에 직접 가지 않아도 실시간 데이터를 기반으로 정확한 의사결정을 할 수 있도록 돕는다는 목표다. 이날 GS네오텍은 전 산업군에 적용 가능한 핵심 솔루션으로 노코드·로우코드 기반 생성형 AI 플랫폼 미소도 선보였다. 미소는 기업 내부 데이터를 외부 대형언어모델(LLM)에 맡기지 않는 구조로 설계돼 보안을 강화한 것이 특징이다. 미소는 '클로드'를 비롯한 다양한 최신 생성형 AI 모델을 유연하게 선택·연동할 수 있도록 설계된 점도 강점이다. 기업 환경에 따라 최적의 모델을 적용할 수 있으며 모델 컨텍스트 프로토콜(MCP) 서버를 통해 외부 API나 사내 시스템을 손쉽게 연결할 수 있도록 설계했다. 기존 업무 시스템과 AI를 자연스럽게 결합해 데이터 활용도를 높이고 복잡한 개발 과정 없이도 맞춤형 AI 서비스를 구현할 수 있다. 김 엔지니어는 "미소는 에이전트 방식과 워크플로우 방식을 모두 지원해 기업이 업무 특성에 맞는 AI 앱을 쉽게 구축할 수 있다"며 "100여 개 이상의 외부 서비스와 내부 시스템을 연동해 별도 코딩 없이 AI 애플리케이션을 만들 수 있다"고 말했다. 실제 활용 사례도 소개됐다. 한 고객사는 스마트 공장 안전 가이드 앱의 환경 변화 반영 시간을 기존 2~4주에서 실시간 수준으로 단축했고 안전 수칙 검색 시간도 96% 줄였다. 또 다른 기업은 AI 쇼카드 검수 시스템의 검수 시간을 1분에서 1~2초로 단축해 월 100시간 이상의 운영 시간을 절감했다. 이날 GS네오텍은 행사장 내 전시부스를 마련해 미소와 제조 특화 AI 솔루션을 직접 시연했다. 부스에선 미소 플랫폼을 활용해 노코드 방식으로 AI 에이전트를 구성하고 다양한 데이터를 연결하는 과정을 직관적으로 선보였다. 특히 이날 발표 세션에서 소개한 스마트팩토리 통합 플랫폼 '가디언 에이전트 팩 플랫폼'을 현장에서 전시했다. 이 플랫폼은 스마트팩토리 환경에서 실시간 데이터 수집과 품질 분석을 수행하는 솔루션으로, 센서와 비전 데이터를 기반으로 불량품을 자동 판별하고 설비 이상을 감지하는 기능을 갖췄다. 공정 흐름을 시각적으로 보여주고 실시간 데이터를 모니터링하며 AI 기반 분석을 결합하는 솔루션으로, 생산 현장의 상태를 한눈에 파악해 이상 여부를 빠르게 확인할 수 있도록 설계됐다. 아울러 미소를 활용한 AI 앱 제작 과정도 공개됐다. 사용자가 노코드 형태의 클릭 기반 UI에서 워크플로우를 구성하고 다양한 AI 모델과 외부 API를 연결해 맞춤형 에이전트를 손쉽게 구축할 수 있도록 했다. 김 엔지니어는 "AX는 단순한 기술 도입을 넘어 기업 경쟁력을 좌우하는 핵심 요소"라며 "제조 현장에서 실제로 작동하는 AI를 지원해 고객과 함께 지속 가능한 혁신을 만들어가겠다"고 강조했다.

2026.03.27 14:55한정호 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

AI 인프라 허브로 부상한 인도…재벌 아다니, 메타·구글과 협력 모색

인도 대표 재벌 가우탐 아다니가 이끄는 아다니 그룹이 글로벌 빅테크와 손잡고 데이터센터 사업 확장에 속도를 낸다. 인도를 글로벌 인공지능(AI)·클라우드 인프라 핵심 거점으로 키운다는 목표다. 25일(현지시간) 블룸버그통신에 따르면 아다니 그룹은 최근 메타·구글 등 미국 기술 대기업과 데이터센터 사업 협력을 위한 논의를 진행 중인 것으로 알려졌다. 이번 협의는 아다니 그룹이 추진 중인 1000억 달러(약 150조원) 규모 디지털 인프라 투자 전략의 일환으로 평가된다. 그룹은 초대형 데이터센터 구축과 AI·클라우드 서비스에 필수적인 토지와 재생에너지를 동시 공급하는 사업자로 자리매김한다는 방침이다. 월마트의 인도 전자상거래 자회사 플립카트도 협상에 참여한 것으로 전해졌다. 아다니 그룹은 인도 각 지역에서 데이터센터 부지를 물색 중이며 현재 논의는 초기 단계로 구체적인 위치는 아직 확정되지 않았다. 이같은 움직임은 인도를 둘러싼 글로벌 AI 인프라 경쟁이 한층 격화되고 있음을 보여준다. 인도는 빠르게 성장하는 경제와 방대한 인구 기반을 바탕으로 해외 투자와 기술 기업을 끌어들이고 있으며 이에 맞춰 데이터센터 시장 역시 급성장 중이다. 컨설팅업체 KPMG에 따르면 인도의 데이터센터 전력 용량은 2030년까지 8기가와트(GW)를 넘어설 전망이다. 이는 현재 대비 약 5배 수준이다. 아다니 그룹은 이미 AI 인프라 확대에 공격적으로 나서고 있다. 오는 2035년까지 1000억 달러(약 150조원)를 투입해 친환경 기반 AI 데이터센터를 구축할 계획이다. 이 투자는 서버·전력 인프라 등 연관 산업에서 장기적으로 1500억 달러(약 225조원) 규모의 투자 유발 효과를 창출할 것으로 보고 있다. 이와 함께 글로벌 기업들의 현지 시장 투자도 이어지고 있다. 아마존은 2030년까지 인도 클라우드 인프라에 약 127억 달러(약 19조원)를 투자할 계획이며 오픈AI 역시 1GW 규모 데이터센터 구축을 검토 중이다. 인도 내 기업 간 경쟁도 치열하다. 릴라이언스는 110억 달러(약 16조원) 규모 데이터센터 프로젝트를 추진 중이며 타타그룹 역시 외부 투자 유치를 통해 사업 확대에 나섰다. 업계에선 인도가 AI·클라우드 인프라의 차세대 글로벌 허브로 부상하고 있다는 평가가 나온다. 대규모 수요와 정부의 디지털 정책, 글로벌 기업들의 투자 경쟁이 맞물리며 초거대 AI 인프라 집적지로 빠르게 변모하고 있다는 분석이다. 아다니 그룹은 "데이터센터와 재생에너지를 결합한 통합 인프라를 앞세워 글로벌 AI 시대의 핵심 공급자로 자리잡겠다"고 밝혔다.

2026.03.26 14:39한정호 기자

전력·인허가에 묶인 AI 인프라…데이터센터 특별법, 규제 완화 속도낸다

인공지능(AI) 경쟁력의 핵심 기반으로 꼽히는 데이터센터 구축을 둘러싼 제도 정비가 본격화됐다. 국회에서 'AI 데이터센터 진흥 특별법'이 첫 문턱을 넘으면서 전력·입지·인허가 등 산업 전반의 구조적 병목 해소 기대가 커지고 있다. 26일 업계에 따르면 국회 과학기술정보방송통신위원회는 지난 24일 법안심사소위원회를 열고 'AI 데이터센터 지원에 관한 특별법'을 통과시켰다. 이번 법안은 정동영·조인철·한민수·황정아 의원과 김장겸 의원, 이해민 의원이 각각 발의한 6개 법안을 병합한 대안이다. 법안소위 통과는 입법 절차의 초기 단계지만, 여야 간 이견 없이 처리됐다는 점에서 향후 상임위원회와 법제사법위원회, 본회의 통과 가능성도 높다는 평가가 나온다. 이번 특별법은 AI 데이터센터를 국가 경쟁력을 좌우하는 전략 인프라로 규정하고 인허가 절차 간소화와 입지 규제 완화, 세제 지원, 전력 확보 지원 등을 골자로 한다. 특히 비수도권 데이터센터에 대한 전력계통영향평가 면제와 발전사업자와의 직접 전력구매계약(PPA) 허용이 핵심으로 꼽힌다. 생성형 AI 확산으로 고성능 그래픽처리장치(GPU) 기반 연산 수요가 급증하면서 데이터센터는 단순 설비를 넘어 AI 경쟁력을 좌우하는 핵심 기반으로 부상했다. 업계에선 전력 확보와 인허가 지연이 국내 AI 인프라 투자 확대를 가로막는 대표적인 요인으로 지목돼 왔다. 클라우드 업계 관계자는 "AI 서비스 수준과 경쟁력은 결국 인프라에서 갈린다"며 "전력과 인허가 불확실성이 줄어들면 민간 투자 환경도 빠르게 개선될 것"이라고 말했다. 특히 이번 법안은 행정 절차 측면에서의 변화가 주목된다. 과학기술정보통신부가 인허가 창구 역할을 맡아 관계 부처 협의를 일괄 처리하고 일정 기간 내 결과를 도출하는 '타임아웃제'를 도입한다. 이에 따라 데이터센터 구축 인허가 절차가 최대 150일 내 처리되는 구조가 마련될 전망이다. 과기정통부 관계자는 "특별법은 창구 일원화와 함께 시설·입지·전력 특례를 포함하는 구조"라며 "데이터센터 구축 과정에서 과도하게 적용되던 승강기, 주차장, 전기차 충전시설, 미술품 설치 의무 등 규제를 완화하고 입지 해석을 명확히 해 기업 부담을 줄이는 데 초점을 맞췄다"고 설명했다. 데이터센터 업계 관계자는 "그동안 지자체, 한전, 산업부 등 여러 기관을 각각 상대해야 해 사업 일정이 지연되는 경우가 많았다"며 "과기정통부가 창구 역할을 맡아 조정해주는 구조는 현장에서 체감도가 클 것"이라고 말했다. 전력 특례 역시 산업 영향 측면에서 핵심 변수로 꼽힌다. AI 데이터센터는 전력 비용이 전체 운영비의 상당 부분을 차지하는 구조로, 안정적이고 예측 가능한 전력 확보가 사업성에 직결된다. 이번 법안에 포함된 PPA 특례와 전력계통영향평가 면제는 이러한 부담을 완화하기 위한 장치다. 다만 전력 특례를 둘러싼 부처 간 시각차는 여전히 남아 있는 것으로 알려졌다. 기후에너지환경부는 특정 산업에 대한 별도 전력 특례 도입보다는 기존 분산에너지 제도 틀 안에서 접근해야 한다는 입장을 유지해온 것으로 전해졌다. 또 PPA를 개별 산업에 확대 적용할 경우 제도 형평성과 전력시장 구조에 영향을 줄 수 있다는 점도 고려해야 한다는 시각이다. 이에 대해 업계에선 AI 데이터센터의 특수성을 감안한 별도 제도 필요성을 강조하고 있다. 데이터센터 업계 관계자는 "AI 데이터센터는 일반 산업과 비교하기 어려울 정도로 전력 수요가 큰 구조"라며 "전력 특례가 마련되지 않으면 국내 투자 유치 경쟁력 확보에도 한계가 있을 수 있다"고 말했다. 입지 측면에선 비수도권 데이터센터 유치에도 긍정적인 영향을 미칠 것으로 예상된다. 발전소 인근에서 직접 전력을 조달할 수 있는 환경이 조성될 경우 지방 입지의 경제성이 높아질 수 있어서다. 정부는 이번 특별법이 통과될 경우 단순 인프라 구축을 넘어 클라우드 생태계 전반을 활성화한다는 구상이다. 과기정통부가 창구 역할을 맡아 인허가와 부처 협의를 조정하고 기술 개발과 인력 양성 지원까지 연계하는 방안을 검토 중이다. 법안은 현재 법안소위 단계를 통과한 만큼 향후 상임위원회, 법제사법위원회, 본회의 등 입법 절차를 거치며 세부 내용이 조정될 가능성도 남아있다. 데이터센터 업계 관계자는 "법안소위 통과로 방향성은 확인됐지만, 전력 특례와 인허가 개선이 실제 사업 환경에서 얼마나 체감될지가 관건"이라며 "남은 입법 절차에서 실효성이 가려질 것"이라고 밝혔다.

2026.03.26 14:15한정호 기자

[유미's 픽] 'AI G3' 외치지만 실무 인력 태부족…인력난 해결 '절실'

이재명 정부가 인공지능(AI) 3대 강국(G3) 도약을 목표로 천문학적인 예산을 쏟아붓고 있지만, 이를 현장에서 집행할 행정 조직의 '실행력'에 빨간불이 켜졌다. 정책의 외연은 '부총리급' 위상에 걸맞게 커진 반면, 실무를 뒷받침할 인력과 직제는 과거 수준에 머물러 있어 자칫 '정책 동력 상실'로 이어질 수 있다는 지적이 나온다. 25일 정부에 따르면 과학기술정보통신부 내에서 약 2조원 규모의 '그래픽처리장치(GPU) 확보 사업'과 4조원 규모의 '국가 AI 컴퓨팅 센터 구축' 등 핵심 인프라 사업을 전담하는 실무 인력은 단 5명에 불과한 것으로 확인됐다. 이들은 단순한 자원 배분 업무를 넘어 ▲GPU 임대 운영 및 성과 평가 ▲범국가적 AI 컴퓨팅 인프라 R&D 기획 ▲활용 전략 수립 등 전문성이 요구되는 고난도 업무를 동시에 수행하고 있다. 1인당 관리해야 하는 사업 예산 규모만 '조 단위'다. 업계 관계자는 "연초부터 쏟아지는 정책 보고와 사업 공고 준비로 해당 조직의 업무 강도는 이미 임계치를 넘어선 상태"라며 "올 초 이재명 대통령이 격려의 의미로 피자를 보낼 만큼 고충이 크지만, 상징적 격려보다 시급한 것은 실질적인 인력 보강"이라고 꼬집었다. 조직 규모 면에서도 부처 간 '조직 비대칭' 현상이 뚜렷하다. 국가 AI 정책을 총괄하는 과기정통부 AI정책실 인력은 74명(2국 체계)인 반면, 공공 AI 전환을 담당하는 행정안전부 인공지능정부실은 190명(3국 체계)으로 두 배가 넘는 규모다. 정책의 컨트롤타워보다 집행 조직의 규모가 더 큰 구조다.과기정통부 역시 AI 조직을 실 단위로 격상시켰으나, 실질적인 인력과 직제는 정책 수요를 따라가지 못하고 있다. 실제 AI정책실 신설 이전 약 49명이던 인력은 개편 이후에도 74명 수준으로 늘어나는 데 그쳤다. 국가 AI 정책의 기획과 실행 기능이 한 조직에 집중돼 있음에도 불구하고 여전히 '2개 정책관(국) 체제'에 머물러 있다. ▲정책기획관(39명)과 ▲인프라정책관(34명)이 정책 총괄부터 안전, 인재 양성, 데이터, 산업 지원까지 도맡고 있어 기능 분산이 충분하지 않다는 지적이다. 특히 폭발적으로 늘어난 정책 수요에 대응할 정규직 정원이 제때 뒷받침되지 못하면서 부처 내 인력 운용의 기형화도 심화되고 있다. 대규모 예산이 투입되는 핵심 인프라 사업의 상당수가 정식 직제가 아닌 태스크포스(TF)나 임시 직제 중심으로 운영되면서 정책의 연속성마저 위협받는 상황이다.반면 행정안전부는 인공지능정부정책국(71명), 인공지능정부서비스국(65명), 인공지능정부기반국(53명) 등 3개 국 체계를 기반으로 정책·서비스·인프라 기능을 분리해 운영하고 있다. 여기에 각 부처와 산하기관에서 선발한 169명의 'AI 리더' 조직까지 별도로 두고 공공 AI 확산을 추진 중이다. 다만, 행안부는 인공지능정부실 190명 전체를 AI 전담 인력으로 보는 것은 부정확하다는 입장이다. 정부24, 모바일 신분증, 데이터 등 디지털 행정 인력이 포함된 수치로, 실제 AI 관련 인력은 이보다 훨씬 적은 수준이라는 것이다. 행안부 관계자는 "공공 디지털 전환 전반을 수행하는 조직 특성상 단순 인원 비교는 적절하지 않다"며 "AI 전담 기준으로 보면 타 부처와 큰 차이가 없거나 오히려 적을 수 있다"고 말했다.업계 관계자는 "국가 전략을 짜는 부처보다 집행 부처의 덩치가 훨씬 큰 엇박자가 이어지고 있다"며 "행안부는 정책, 서비스, 인프라 기능을 3개 국으로 명확히 분리해 전문성을 높인 반면, 국가 AI 정책의 컨트롤타워인 과기정통부는 상대적으로 빈약한 체급으로 '험지'를 돌파하고 있는 셈"이라고 지적했다. 이 같은 인력난의 근본 원인은 중앙부처의 조직과 정원을 관리하는 행정안전부와의 협의 구조 때문으로 분석된다. 이 탓에 과기정통부가 인력 확대를 요청하더라도 '공무원 정원 동결' 기조나 부처 간 형평성 논리에 가로막히면 반영되기 어렵다. AI 정책을 총괄하는 부처가 필요로 하는 인력을 자체적으로 확보하기 어려운 구조인 것이다. 특히 과기정통부 장관이 부총리급으로 격상되고 AI가 국가 전략의 핵심으로 자리 잡았음에도 이를 실무적으로 뒷받침할 정규 인력 확충은 사업 규모를 따라가지 못하고 있다는 지적도 나오고 있다. 정책의 위상과 조직 현실 간 괴리가 커지고 있는 셈이다. 이로 인해 범부처 협업이 필요한 AI 정책이 실제 집행 단계에서는 특정 부처에 업무가 집중되는 현상도 나타나고 있다. 일부 부처가 소관 업무를 이유로 정책 수행에 적극적으로 나서지 않는 사례도 있는 것으로 전해졌다. 업계 관계자는 "AI 정책은 예산뿐 아니라 이를 실제로 집행할 조직과 인력이 핵심"이라며 "정책을 총괄하는 부처에 걸맞은 인력과 체계가 갖춰지지 않으면 현장 부담은 계속 커질 수밖에 없다"고 말했다.또 다른 관계자는 "우리나라의 AI G3 도약은 예산 규모가 아니라 정책의 집행 속도와 전문성에서 결정된다"며 "현장의 병목 현상을 해소하기 위해 행안부와 기재부가 전향적으로 조직 확충에 협력해야 한다"고 강조했다.

2026.03.25 17:26장유미 기자

에퀴닉스, AI 시대 데이터센터 인재 키운다…글로벌 투자 확대

에퀴닉스가 글로벌 데이터센터 산업의 인력 부족 문제에 대응하기 위해 인재 양성 투자를 확대한다. 인공지능(AI)과 디지털 전환 확산에 따른 인프라 수요 증가에 맞춰 교육·채용 연계를 강화한다는 목표다. 에퀴닉스는 디지털 인프라 분야 차세대 기술 인재 양성을 위한 글로벌 투자 계획을 발표했다고 25일 밝혔다. 이번 이니셔티브는 국제 데이터센터의 날을 맞아 공개됐으며 고급 기술 인력 일자리 기회를 확대하고 지역 사회 기반 인재 생태계를 강화하는 데 초점을 맞췄다. 핵심 프로그램은 '패스웨이 투 테크'의 글로벌 확대다. 해당 프로그램은 14~18세 학생을 대상으로 데이터센터 운영 분야 진입 경로를 제공하는 초기 인재 양성 과정이다. 기존 미국과 아시아태평양 일부 지역에서 약 2000명을 대상으로 운영된 바 있다. 이를 전 세계 에퀴닉스 데이터센터로 확대해 청년층의 산업 진입을 지원한다. 참가자는 전문가 멘토링, 데이터센터 투어, 실습 중심 교육 등을 통해 디지털 인프라 환경을 직접 경험할 수 있다. 인턴십과 견습 프로그램으로 이어지는 경력 경로도 제공해 접근성이 낮지만 수요가 높은 고임금 기술 직군 진입을 돕는다는 설명이다. 아울러 글로벌 데이터센터 기술자 교육 연합도 출범한다. 에퀴닉스 재단은 비영리 단체 제너레이션과 협력해 교육 커리큘럼 개발과 채용 연계를 추진하며 브라질을 시작으로 글로벌 확장을 계획 중이다. 글로벌 운영 견습 프로그램도 확대된다. 브라질·프랑스·독일·미국·싱가포르·영국 등 주요 시장에서 통합된 교육과정을 도입해 인턴십과 초기 경력 프로그램을 강화하고 현장 중심 기술 인력 양성 체계를 구축할 예정이다. 또 '러닝 랩' 프로그램을 통해 데이터센터 인프라 운영에 필요한 실무 역량 교육도 제공한다. 전기 시스템, 냉각·공조, 안전, 시설 운영 등 핵심 기술을 현장 중심으로 학습할 수 있도록 설계됐다. 에퀴닉스는 이러한 프로그램을 올해부터 미주, 유럽·중동·아프리카(EMEA), 아시아태평양 지역에 순차적으로 도입해 글로벌 인재 파이프라인을 구축할 계획이다. 라우프 압델 에퀴닉스 글로벌 운영 수석 부사장은 "데이터센터는 디지털 세계의 심장이자 글로벌 연결의 핵심 인프라"라며 "AI로 인한 인프라 수요 증가에 대응하기 위해 미래 기술 인재 양성에 지속적으로 투자할 것"이라고 말했다. 브랜디 갤빈 모란디 에퀴닉스 최고인사책임자(CPO)는 "우리는 조기 인재 양성과 지역 사회 기반 기회 확대를 통해 업계에 필요한 숙련 인재를 확보하고 있다"며 "교육과 실무 경험을 결합해 새로운 기술 인재를 발굴·육성해 나갈 것"이라고 밝혔다.

2026.03.25 16:47한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

아르테미스 2호 탑재 국내위성 "수차례 교신 시도"

[르포] 배터리 증설 멈춰도 장비 혁신은 지속…미래 준비하는 CIS 공장

[AI 리더스] "AI 통제 권한 주체는 시민...K-디지털 공론장 절실"

트럼프 "2~3주간 이란에 대대적 공격...종전 협상도 진행"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.