• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인프라'통합검색 결과 입니다. (552건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

국방부가 생성형 인공지능(AI) 기반 국방 데이터 인프라 구축을 위한 첫 단계 사업에 착수했다. 대규모 그래픽처리장치(GPU) 서버를 중심으로 한 인프라를 구축해 국방 AI 서비스 운영 기반을 마련하고 향후 국방 통합 AI 데이터센터 구축을 위한 실증 데이터를 확보한다는 구상이다. 30일 조달청 나라장터에 따르면 국방부 산하 국방통합데이터센터(DIDC)는 최근 '2026년 국방통합AI데이터센터 실증 목적 GPU 서버 구축사업' 입찰을 공고했다. 이번 사업은 국방 AI 데이터센터 구축을 위한 초기 실증 사업으로, GPU 자원 확보와 함께 AI 인프라 운영·관리 체계를 구축하는 것이 핵심이다. 사업 예산은 약 216억원 규모로 책정됐으며 계약 후 210일 이내 수행될 예정이다. 특히 일반경쟁입찰 계약방식으로 평가 비중은 기술 90%, 가격 10%로 구성됐다. 이번 사업은 지난해 구축된 국방 생성형 AI '국방 생성형 AI(GeDAI, Generative Defense AI)' 서비스의 안정적 운영을 지원하기 위한 후속 인프라 확장 성격을 띤다. 국방부는 GeDAI를 실증 수단으로 활용해 GPU 수요와 국방 데이터 활용 요구사항을 도출하고 향후 데이터센터 구축 시 기준으로 활용할 계획이다. 사업 범위는 단순 장비 도입을 넘어선다. 우선 대규모 AI 추론 서비스를 위한 GPU 서버와 클라우드 관리 서버, 고속 네트워크 및 스토리지 등 핵심 인프라가 구축된다. 이와 함께 GPU 가상화 기반 서비스형 플랫폼(PaaS), 백업 시스템, 관제 및 보안 솔루션도 포함된다. 특히 GPU 서버는 엔비디아 B300 기반 고성능 장비로 구성되며 서버 간 최대 800기가비피에스(Gbps)급 네트워크를 통해 대규모 AI 추론 환경을 구현하는 것이 목표다. 이를 바탕으로 국방 데이터 기반 AI 모델 학습과 추론을 동시에 지원하는 고성능 인프라가 마련될 전망이다. 사업은 착수 이후 ▲환경 조사 및 요구사항 분석 ▲아키텍처 상세 설계 ▲장비 설치 및 시험평가 ▲보안 측정 및 검수 ▲안정화 단계로 진행된다. 이후 무상 하자보수 및 운영 안정화까지 포함된 전체 구축 사이클이 약 7개월 내 완료될 예정이다. 국방부는 이번 사업을 통해 GPU 자원을 확대하고 각 군과 수요기관에 AI 서비스를 제공할 수 있는 기반을 마련한다는 방침이다. 또 민·군 협력 기반 AI 연구개발 환경을 조성하고 향후 전군 단위 AI 서비스 확산을 위한 인프라 표준 확보에도 활용된다. 이번 사업은 향후 추진될 국방 통합 AI 데이터센터 구축의 전초 단계로 평가된다. 앞서 정부는 2030년까지 최대 5만 개 GPU를 투입하는 대규모 국방 AI 인프라 구축 계획을 밝힌 바 있다. 이번 실증 사업이 핵심 기반이 될 것이라는 예상이 나온다. 국방부 측은 사업 제안요청서를 통해 "AI 과학기술 강군 육성을 위해 기존 국방 생성형 AI 서비스를 안정적으로 운영·관리할 수 있도록 정보시스템을 증설한다"며 "GPU 기반 인프라 구축을 통해 효율적이고 안정적인 AI 서비스 제공 환경을 마련할 것"이라고 밝혔다.

2026.03.30 17:44한정호 기자

KT클라우드, 고가용성 플랫폼 CSAP 인증 획득…공공 인프라 공략 박차

KT클라우드가 자체 기술로 구현한 클라우드 플랫폼의 보안 인증을 획득하며 공공 클라우드 시장 공략에 속도를 낸다. 멀티 가용성 영역(AZ) 기반 고가용성 인프라를 앞세워 서비스 안정성과 확장성을 동시에 확보한다는 전략이다. KT클라우드는 자체 개발한 'KT클라우드 플랫폼'이 클라우드 보안인증(CSAP)을 획득하고 공공 시장 경쟁력 강화에 나선다고 30일 밝혔다. KT클라우드 플랫폼은 설계부터 개발, 운영까지 전 과정을 자체 기술로 구현한 차세대 클라우드 인프라 플랫폼이다. 글로벌 표준 오픈소스를 기반으로 클라우드 네이티브 구조를 내재화해 확장성과 안정성을 동시에 확보한 것이 특징이다. 플랫폼은 쿠버네티스를 기반으로 오픈스택을 재구성한 아키텍처를 적용해 인프라 운영을 자동화·표준화했다. 이를 통해 가상머신(VM)과 컨테이너 환경을 하나의 플랫폼에서 통합 운영할 수 있으며 그래픽처리장치(GPU) 기반 인공지능(AI) 인프라와의 연계도 가능하다. 또 글로벌 표준 환경과의 호환성을 확보해 고객이 별도 학습 없이 플랫폼을 활용할 수 있도록 지원한다. AI 플랫폼 및 외부 솔루션과의 유연한 연계를 통해 멀티 클라우드 환경에서도 확장성을 확보했다. 고가용성 확보를 위한 인프라도 강화했다. KT클라우드는 멀티 리전 구조를 통해 서비스 연속성을 높이고 서울·경북 간 멀티 리전과 서울 용산·목동 간 멀티 AZ 체계를 구축해 재해복구(DR) 환경을 고도화할 계획이다. 최근 공공과 민간 시장에서 이중화와 안정성 요구가 높아지는 가운데, KT클라우드는 멀티 AZ 기반 인프라를 통해 서비스 신뢰성을 높이고 공공 클라우드 시장에서 경쟁력을 강화한다는 방침이다. 안재석 KT클라우드 기술본부장은 "KT클라우드 플랫폼은 우리의 글로벌 수준 기술력을 바탕으로 고객 IT 환경을 클라우드 네이티브 구조로 전환하는 핵심 인프라"라며 "멀티 AZ 기반 고가용성 인프라를 통해 서비스 신뢰성을 높이고 고객의 안정적인 클라우드 운영을 지원하겠다"고 밝혔다.

2026.03.30 16:23한정호 기자

한국 클라우드 시장, 10조원 돌파할까…"지난해 사상 최대"

한국 클라우드 산업이 매출 10조원에 근접한 생태계로 활성화되고 있다. 기업·인력 수 역시 매해 성장을 거듭하며 인공지능(AI) 시대 국가 경쟁력의 핵심 기반으로 자리잡고 있다는 평가다. 27일 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 발표한 '2025년 클라우드 산업 실태조사'에 따르면 2024년 국내 클라우드 시장 전체 매출액이 전년보다 25.2% 증가한 9조 2609억원으로 사상 최대를 기록했다. 기업 수는 전년 대비 13.5% 증가한 2712개, 인력 수는 전년보다 8.4% 늘어난 3만 3000명으로 집계됐다. 이번 조사는 생성형 AI 시대를 맞아 클라우드 수요 증가와 정부 및 업계 현황 전반을 종합적으로 파악하고자 진행됐다. 먼저 2024년 국내 클라우드 부문 전체 매출액의 경우 9조 2609억원으로 2023년 기록한 7조 4000억원 대비 25.2% 늘어났다. 최근 5년간 연평균 성장률은 23.2%를 기록하며 꾸준한 성장세를 입증했다. 세부 서비스 유형별로 살펴보면 ▲서비스형 인프라(IaaS) 부문 매출액이 전년 대비 24.4% 증가한 3조 9400억원 ▲서비스형 플랫폼(PaaS) 부문 매출액은 전년보다 22.0% 상승한 5700억원 ▲서비스형 소프트웨어(SaaS) 부문 매출은 전년 대비 24.2% 증가한 3조 2200억원을 기록했다. 아울러 클라우드 관리 서비스(CMS) 부문 매출액은 1조 4800억원을 기록하며 전년 대비 31.4% 성장한 것으로 나타났다. 클라우드 기업 수 역시 증가했다. 2024년 관련 기업은 총 2712곳으로 전년 대비 323개, 13.5% 증가했다. 이 중 SaaS 기업이 전년보다 15.3% 증가한 1894개, IaaS 기업은 4.8% 상승한 457개사로 기록되며 SaaS 기업이 클라우드 기업의 69.8%를 차지했다. 메가존클라우드 등 CMS 기업은 전년 대비 47.9%가 증가한 139개로 전 서비스 유형 중 가장 높은 증가세를 보였다. 특히 증가분의 대부분이 30인 이상 기업에서 발생한 것으로 나타났다. 이에 맞춰 클라우드 산업 종사자 수도 늘어났다. 2024년 클라우드 인력은 3만 3217명으로 이전년도 대비 8.4% 증가한 2563명으로 조사됐다. 15.3% 이상 늘어난 전년도 대비 다소 둔화된 증가율을 보였으나, 지속적인 증가세를 유지하고 있다. 세부 분야별로 살펴보면 클라우드 개발자가 1만 1146명(33.6%)으로 가장 큰 비중을 차지했다. 이어 클라우드 운영(19.7%), 기획·영업·지원(17.1%), 클라우드 아키텍트(15.6%), 클라우드 보안(14.1%) 순으로 나타났다. 과기정통부는 이번 실태조사 결과를 바탕으로 클라우드 산업의 지속적인 성장을 뒷받침한다는 목표다. 국가AI컴퓨팅센터 구축, 그래픽처리장치(GPU) 구매 및 임차 지원 등 GPU 마중물 사업과 이를 수용할 AI 데이터센터 생태계 조성을 위해 지속적으로 노력한다는 방침이다. 또 독자 AI 파운데이션 모델 프로젝트와 AI 전환(AX) 원스톱 바우처 등 국내 클라우드 수요를 창출할 수 있는 핵심 사업들도 적극 추진해 나갈 예정이다. 최동원 과기정통부 인공지능인프라정책관은 "국내 클라우드 시장 매출액이 9조원을 넘어서며 AI 시대의 핵심 인프라로 자리잡고 있다"며 "국가 AI 경쟁력을 좌우하는 핵심 기반인 클라우드 수요 확대에 발맞춰 민간 클라우드 시장의 지속적인 성장과 공공 부문의 민간 클라우드 도입 확산을 위해 적극적으로 노력해 나가겠다"고 밝혔다.

2026.03.30 12:00한정호 기자

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

베슬AI, 엔비디아 GB200·B300 확보…듀얼 네오클라우드 운영

베슬AI가 초거대 모델 학습과 추론을 동시에 지원하는 최신 엔비디아 그래픽처리장치(GPU) 라인업을 구축해 국내 인공지능(AI) 인프라 시장에서 입지를 강화한다. 베슬AI는 엔비디아 'GB200'과 'B300'을 확보하고 이를 기반으로 클라우드 서비스형 GPU(GPUaaS) 사업을 확대한다고 27일 밝혔다. 베슬AI에 따르면 회사는 국내에서 GB200과 B300을 동시에 제공하는 유일한 네오클라우드 사업자로, 차별화된 AI 인프라 경쟁력을 확보했다. 이번 GPU 확보를 통해 기업 고객은 AI 워크로드 특성에 맞춰 GPU를 선택할 수 있게 됐다. B300은 대규모 AI 모델 추론에, GB200은 초거대 모델 학습에 적합해 다양한 AI 개발 환경을 지원한다. 서비스 접근성도 강화했다. 베슬AI는 A100과 H100 등 주요 GPU와 스토리지, AI 개발 플랫폼을 별도 협의 없이 즉시 사용할 수 있는 셀프서비스 방식으로 제공한다. 기업과 개발자가 별도 계약이나 승인 절차 없이 필요한 시점에 바로 GPU를 활용할 수 있도록 지원한다. 비용 효율성도 강점으로 내세웠다. 분 단위 과금 체계와 '스마트 퍼징' 기능을 통해 유휴 자원 낭비를 최소화하고 AI 인프라 총소유비용(TCO)을 절감할 수 있도록 했다. 직관적인 요금 구조와 유연한 크레딧 관리 방식도 도입해 GPUaaS 도입 장벽을 낮췄다는 설명이다. 베슬AI는 자사 GPU 클라우드 플랫폼 '베슬 클라우드'를 통해 GPU 자원을 제공 중이며 현재 일부 물량을 기반으로 기업들의 인바운드 문의가 이어지고 있다. 향후 글로벌 클라우드 파트너십을 기반으로 공급 규모를 확대하고 다양한 지역으로 서비스를 확장할 계획이다. 안재만 베슬AI 대표는 "A100부터 B300까지 국내에서 가장 폭넓은 GPU 라인업을 갖춘 네오클라우드 사업자로서 국내 기업들의 AI 인프라 경쟁력을 높이는 데 기여하겠다"고 말했다.

2026.03.27 17:35한정호 기자

"외산 의존 끊는다"…NHN클라우드-티맥스티베로, 국산 AI 인프라 확산 '동맹'

NHN클라우드가 티맥스티베로와 협력해 외산 기술 의존도를 낮춘 국산 기반 인공지능(AI) 인프라 생태계 구축에 앞장선다. 클라우드와 데이터베이스(DBMS)를 결합해 실제 업무 환경에 적용 가능한 AI 인프라를 구현하고 공공·금융 등 규제 산업까지 확산한다는 전략이다. NHN클라우드는 티맥스티베로와 국산 기술 기반 AI 인프라 생태계 구축을 위한 업무협약(MOU)을 체결했다고 27일 밝혔다. 티맥스티베로는 국산 DBMS '티베로'를 개발·공급하며 공공·금융·제조 등 다양한 산업에서 활용 사례를 확보하고 있다. 대규모 트랜잭션 처리와 안정성을 강점으로 외산 DBMS 대체를 위한 기술 확보에 주력해왔다. 이번 협약을 통해 양사는 각자 핵심 기술을 결합해 국산 AI 인프라 환경을 공동 구축하고 이를 기반으로 사업 확대와 시장 확산에 나설 계획이다. 우선 NHN클라우드의 그래픽처리장치(GPU) 기반 클라우드 인프라와 티맥스티베로의 DBMS를 연계해 AI 서비스 환경을 구성한다. AI 학습·추론 데이터와 업무 데이터를 통합 관리할 수 있는 구조를 설계하고 이를 기반으로 공동 솔루션을 제안할 예정이다. 또 실제 업무 환경에서 장기 운영이 가능한 AI 인프라 아키텍처를 공동 검토하고 공공·금융 등 규제 산업을 고려한 데이터 주권, 보안, 거버넌스 대응 방안도 마련한다. 양사는 공공·금융·제조 등 데이터 집약 산업을 중심으로 공동 영업과 도입 제안을 추진해 레퍼런스를 확보하고 성공 사례를 기반으로 시장 확대에 속도를 낼 방침이다. 이번 협력은 클라우드와 DBMS 분야를 대표하는 국내 기업이 손잡고 국산 기술 기반 AI 인프라를 구축하는 선도 사례로 평가된다. 양사는 기존 협력 관계를 바탕으로 기술 협력을 더욱 강화해 국내 AI 생태계 성장에 기여한다는 방침이다. 박경희 티맥스티베로 대표는 "인프라와 데이터, AI 서비스가 분리되지 않고 하나의 흐름으로 이어질 때 AI는 실험을 넘어 실제 업무를 바꾸는 도구가 될 수 있다"며 "이번 협약을 통해 고객이 데이터 주권과 보안·규제 요건을 충족하면서도 AI를 안정적으로 운영·확장할 수 있도록 현실적인 데이터 인프라 환경을 제시하겠다"고 말했다. 김동훈 NHN클라우드 대표는 "우리 클라우드를 기반으로 티베로 DBMS 공동 개발을 함께한 티맥스티베로와 AI 인프라 생태계 조성을 위해 다시 한번 손을 잡게 됐다"며 "국내 클라우드와 DBMS를 대표하는 기업으로서 외산 기술에 의존하지 않고도 국산 AI 인프라 생태계 구축이 가능하다는 점을 업계에 입증해 나가겠다"고 밝혔다.

2026.03.27 16:41한정호 기자

메가존클라우드, 양자컴퓨팅 산업화 속도…KISTI와 실행 거점 구축

메가존클라우드가 양자컴퓨팅 실행형 거점을 구축해 연구 중심에 머물렀던 기술을 실제 산업 현장으로 확산한다. 메가존클라우드는 한국과학기술정보연구원(KISTI)과 공동으로 '한국양자융합센터(KQNC)'를 서울 강남구 역삼동 메가존빌딩에 구축하고 공식 개소했다고 27일 밝혔다. 이번 센터는 양사가 지난해 6월부터 공동 수행 중인 '양자컴퓨팅 서비스 및 활용체계 구축' 사업의 일환으로 마련됐다. 해당 사업은 과학기술정보통신부가 추진하는 국가 연구개발(R&D) 과제로 KISTI가 주관기관을 맡고 메가존클라우드가 공동연구기관으로 참여하고 있다. KQNC는 ▲산업 특화 양자 알고리즘 개발 ▲적용 사례 발굴 ▲기업 대상 활용 검증(PoC) ▲기술지원 ▲교육 및 인력 양성 ▲산·학·연 협력 네트워크 운영 등 양자컴퓨팅 도입 전 과정을 지원하는 것이 핵심 역할이다. 특히 기존의 연구 중심 접근에서 벗어나 기업과 연구기관이 실제 업무 환경에서 양자컴퓨팅을 적용할 수 있도록 돕는 실행형 인프라를 지원할 방침이다. 메가존클라우드는 교육과 기술지원, 활용 검증 등 전주기 지원 체계를 제공하고 KISTI의 양자컴퓨팅 인프라와 연계해 산업계 접근성을 높일 계획이다. 최근 양자컴퓨팅은 국가 전략기술로 중요성이 커지고 있지만, 국내 산업 현장에서는 실제 활용 경험과 응용 역량이 제한적인 상황이다. 이에 이론 중심 교육을 넘어 실제 시스템 기반 교육과 기술지원, 실증이 가능한 지원 체계 구축 필요성이 커지고 있다. 메가존클라우드는 이같은 수요에 대응해 양자컴퓨팅의 산업 적용을 지원하는 실행형 인프라를 구축하고 관련 생태계 확산을 선도한다는 목표다. 지난 26일 센터 개소와 함께 열린 'KQNC 퀀텀 인사이트 포럼'에는 이주완 메가존클라우드 의장과 이식 KISTI 원장, 과기정통부 관계자 등 산·학·연 주요 인사 25명이 참석해 양자컴퓨팅의 산업 전환 가능성과 협력 모델을 논의했다. 이주완 메가존클라우드 의장은 "KQNC는 양자컴퓨팅 기술을 실제 산업 현장의 과제 해결로 연결하기 위한 전략적 실행 거점"이라며 "개별 기술 검증을 넘어 산업별 적용 시나리오를 발굴하고 기업과 연구기관이 함께 활용 사례를 만들어가는 협력 기반을 구축해 나가겠다"고 말했다. 이식 KISTI 원장은 "이번 센터 개소가 양자기술과 산업을 잇는 활용 체계를 구축하고 기술 적용과 실증 확산을 촉진하는 출발점이 되길 기대한다"며 "주관기관으로서 양자컴퓨팅과 고성능컴퓨팅(HPC)을 결합한 차세대 인프라를 구축할 것"이라고 밝혔다. 이어 "메가존클라우드와 공동 연구를 통해 다양한 활용 사례를 발굴하고 국가 R&D 성과 창출과 글로벌 기술·산업 주도권 확보에 기여하겠다"고 덧붙였다.

2026.03.27 16:40한정호 기자

[현장] "제조 AI, 이제 실행할 때"…GS네오텍, '미소'로 현장 바꾼다

GS네오텍이 제조 현장 데이터를 실질적인 의사결정과 실행으로 연결하는 인공지능(AI) 플랫폼을 앞세워 산업 현장 AI 전환(AX) 확산에 앞장선다. 자체 개발한 노코드·로우코드 기반 AI 플랫폼 '미소(MISO)'를 중심으로 보안·유연성·확장성을 동시에 확보하며 제조 기업의 생산성 향상과 비용 절감, 보안 리스크 최소화를 동시에 구현한다는 전략이다. GS네오텍 김용규 AI 리서치 엔지니어는 27일 서울 송파구 롯데호텔 월드에서 열린 제조 고객 대상 아마존웹서비스(AWS) 파트너 클라우드 솔루션 컨퍼런스에서 "제조 AX를 위해선 데이터를 단순히 분석하는 데 그치지 않고 실제 실행까지 자동화해야 한다"고 강조했다. 그는 제조업 AI 시장이 빠르게 성장하고 있지만 실제 도입 성공률은 낮다고 진단했다. GS네오텍이 발췌한 시장조사 자료에 따르면 제조 분야 AI 시장은 2023년부터 2030년까지 5년간 평균 700% 이상 성장할 것으로 예상되지만, 프로젝트의 80% 이상이 실패하고 있다. AI로 해결할 문제 정의가 잘못되거나 데이터·인프라가 부족한 상태에서 시작하는 것이 주요 원인으로 꼽힌다. 이에 대해 김 엔지니어는 "AI 프로젝트의 가장 큰 위험은 기술적으로는 성공한 것처럼 보이지만 현장에서 사용되지 않는 경우"라며 "중요한 것은 기술의 화려함이 아니라 실제 문제 해결 역량"이라고 말했다. GS네오텍은 이같은 문제를 해결하는 방법으로 AWS 기반 인프라와 생성형 AI를 결합한 제조 특화 플랫폼 아키텍처를 제시했다. 김 엔지니어는 "AWS IoT와 아마존 베드록이 지원하는 생성형 AI를 결합해 공장 데이터를 실시간으로 수집하고 분석해 즉각적인 인사이트로 전환한다"며 "AI 챗봇 기반 현장 어시스턴트, 품질 진단, 공정 시각화 기능까지 통합 제공한다"고 설명했다. 이 시스템은 센서와 비전 데이터를 IoT 환경에서 수집한 뒤 클라우드로 전송하고 람다와 베드록 등을 통해 분석하는 구조로 구성된다. 생산 공정·설비 간 연결 관계를 파악하고 이상 징후 발생 시 원인 분석과 대응 가이드를 즉시 제공한다. 단순 알림을 넘어 AI가 해결 방법까지 제시해 현장 대응 시간을 줄이도록 지원한다. 이를 통해 관리자가 현장에 직접 가지 않아도 실시간 데이터를 기반으로 정확한 의사결정을 할 수 있도록 돕는다는 목표다. 이날 GS네오텍은 전 산업군에 적용 가능한 핵심 솔루션으로 노코드·로우코드 기반 생성형 AI 플랫폼 미소도 선보였다. 미소는 기업 내부 데이터를 외부 대형언어모델(LLM)에 맡기지 않는 구조로 설계돼 보안을 강화한 것이 특징이다. 미소는 '클로드'를 비롯한 다양한 최신 생성형 AI 모델을 유연하게 선택·연동할 수 있도록 설계된 점도 강점이다. 기업 환경에 따라 최적의 모델을 적용할 수 있으며 모델 컨텍스트 프로토콜(MCP) 서버를 통해 외부 API나 사내 시스템을 손쉽게 연결할 수 있도록 설계했다. 기존 업무 시스템과 AI를 자연스럽게 결합해 데이터 활용도를 높이고 복잡한 개발 과정 없이도 맞춤형 AI 서비스를 구현할 수 있다. 김 엔지니어는 "미소는 에이전트 방식과 워크플로우 방식을 모두 지원해 기업이 업무 특성에 맞는 AI 앱을 쉽게 구축할 수 있다"며 "100여 개 이상의 외부 서비스와 내부 시스템을 연동해 별도 코딩 없이 AI 애플리케이션을 만들 수 있다"고 말했다. 실제 활용 사례도 소개됐다. 한 고객사는 스마트 공장 안전 가이드 앱의 환경 변화 반영 시간을 기존 2~4주에서 실시간 수준으로 단축했고 안전 수칙 검색 시간도 96% 줄였다. 또 다른 기업은 AI 쇼카드 검수 시스템의 검수 시간을 1분에서 1~2초로 단축해 월 100시간 이상의 운영 시간을 절감했다. 이날 GS네오텍은 행사장 내 전시부스를 마련해 미소와 제조 특화 AI 솔루션을 직접 시연했다. 부스에선 미소 플랫폼을 활용해 노코드 방식으로 AI 에이전트를 구성하고 다양한 데이터를 연결하는 과정을 직관적으로 선보였다. 특히 이날 발표 세션에서 소개한 스마트팩토리 통합 플랫폼 '가디언 에이전트 팩 플랫폼'을 현장에서 전시했다. 이 플랫폼은 스마트팩토리 환경에서 실시간 데이터 수집과 품질 분석을 수행하는 솔루션으로, 센서와 비전 데이터를 기반으로 불량품을 자동 판별하고 설비 이상을 감지하는 기능을 갖췄다. 공정 흐름을 시각적으로 보여주고 실시간 데이터를 모니터링하며 AI 기반 분석을 결합하는 솔루션으로, 생산 현장의 상태를 한눈에 파악해 이상 여부를 빠르게 확인할 수 있도록 설계됐다. 아울러 미소를 활용한 AI 앱 제작 과정도 공개됐다. 사용자가 노코드 형태의 클릭 기반 UI에서 워크플로우를 구성하고 다양한 AI 모델과 외부 API를 연결해 맞춤형 에이전트를 손쉽게 구축할 수 있도록 했다. 김 엔지니어는 "AX는 단순한 기술 도입을 넘어 기업 경쟁력을 좌우하는 핵심 요소"라며 "제조 현장에서 실제로 작동하는 AI를 지원해 고객과 함께 지속 가능한 혁신을 만들어가겠다"고 강조했다.

2026.03.27 14:55한정호 기자

본에이아이, 美 핵심 안보 싱크탱크서 한·미 방산 협력 논의

본에이아이(대표 이도경)가 미국 핵심 안보 싱크탱크에서 한국의 압도적인 풀스택 제조 인프라를 바탕으로 한·미 방산 동맹에 기여하겠다는 청사진을 밝혔다. 이도경 본에이아이 대표는 지난 25일(현지시간) 미국 워싱턴 DC 스팀슨센터 주최로 열린 '한·미 방산 협력 라운드테이블'에 한국 방산 스타트업 대표로 참가했다. 이번 행사는 국제 안보에 특화된 스팀슨센터 주최로 한·미 양국 간 조선 및 방위 산업의 협력 확대안을 논의하기 위해 마련됐다. 이날 '차세대 방산 협력: 한·미 국방 산업 생태계 내 스타트업 통합'을 주제로 열린 세션에서는 미국의 혁신적인 국방 획득 체계인 DIU 혁신 모델을 한국 방산 생태계에 어떻게 구현할 것인가가 핵심 아젠다로 다뤄졌다. 한국 스타트업 중 유일하게 초청된 이 대표는 미 현지 방산 전문가들과 함께 패널로 나서 깊이 있는 의견을 교환했다. 이 대표는 한국이 가진 제조 인프라의 강점을 강조하며, 방산 딥테크 스타트업으로서 본에이아이의 역할과 기여 방안을 제시했다. 이 대표는 "한국은 반경 250km 내에 소재·부품·장비부터 주요 하드웨어 설계, 제조, 소프트웨어 개발 역량까지 모두 집적돼 있는 세계적 수준의 인프라를 갖추고 있다"며 "이런 지리적 강점을 활용하면 최단 시간 내 풀스택 방산 솔루션을 개발하고 양국 안보에 필요한 시스템을 대량 공급할 수 있다"고 설명했다. 이어 "지능화되는 차세대 전장 환경에 발맞춰 무인항공기, 무인로봇차량, 무인수상정 등 주요 하드웨어의 대량 양산 체계 구축과 딥테크 R&D 고도화에 공격적으로 투자하고 있다"면서 "스타트업 특유의 속도와 혁신으로 한·미 방산 동맹의 든든한 축이 되겠다"고 덧붙였다.

2026.03.27 11:16백봉삼 기자

신성이엔지, 주식 액면병합 결의…"성장·혁신 원년 만들 것"

반도체 클린룸 업체인 신성이엔지는 경기 과천 본사 스마트에듀센터에서 제47기 정기주주총회를 개최했다고 26일 밝혔다. 이날 회사는 대외 불확실성 속에서도 성장과 혁신 기조를 이어가는 한편, 자사주 소각을 통해 주주가치를 실질적으로 높여 나가겠다는 방향을 제시했다. 이지선 대표이사는 인사말에서 “올해를 명실상부한 글로벌 톱티어 기업으로 도약하기 위한 성장과 혁신의 원년으로 만들겠다”고 밝혔다. 이번 주주총회에서는 주식 액면병합이 결의됐다. 1주당 액면가액을 기존 500원에서 5000원으로 변경하는 10대 1 비율로, 주가 안정성을 높이고 투자자 접근성을 개선하기 위한 조치다. 회사는 이번 액면병합을 통해 주식 구조를 효율적으로 정비하고 기업가치 평가 기반을 강화함으로써 장기적인 주주가치 제고에 기여할 것으로 기대하고 있다. 이사 보수 한도는 전기 150억원에서 100억원으로 축소됐다. 어려운 경영 환경 속에서도 이사진 스스로 책임 경영을 실천하는 차원의 결정이라고 회사 측은 설명했다. 이 대표는 “미국·이란 분쟁과 원자재 가격 상승 등 대외 불확실성이 여전한 상황이지만, 당사는 결코 멈춰 있지 않을 것”이라며 “어려운 환경일수록 기본에 충실하고 사업 구조를 탄탄히 다지는 것이 중요하다”고 강조했다. 이어 “글로벌 클린룸 수요 확대 흐름 속에서 국내외 사업 경쟁력을 강화하고, 글로벌 시장에서의 입지를 지속적으로 넓혀 안정적인 성장 궤도를 만들어 나가겠다”고 덧붙였다. 한편 이날 주주총회에서는 ▲정관 일부 변경의 건 ▲감사위원회 위원 선임의 건(사외이사 조남신) ▲이사 보수 한도 승인의 건 등 3개 안건이 모두 원안대로 의결됐다.

2026.03.26 17:21장경윤 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

AI 인프라 허브로 부상한 인도…재벌 아다니, 메타·구글과 협력 모색

인도 대표 재벌 가우탐 아다니가 이끄는 아다니 그룹이 글로벌 빅테크와 손잡고 데이터센터 사업 확장에 속도를 낸다. 인도를 글로벌 인공지능(AI)·클라우드 인프라 핵심 거점으로 키운다는 목표다. 25일(현지시간) 블룸버그통신에 따르면 아다니 그룹은 최근 메타·구글 등 미국 기술 대기업과 데이터센터 사업 협력을 위한 논의를 진행 중인 것으로 알려졌다. 이번 협의는 아다니 그룹이 추진 중인 1000억 달러(약 150조원) 규모 디지털 인프라 투자 전략의 일환으로 평가된다. 그룹은 초대형 데이터센터 구축과 AI·클라우드 서비스에 필수적인 토지와 재생에너지를 동시 공급하는 사업자로 자리매김한다는 방침이다. 월마트의 인도 전자상거래 자회사 플립카트도 협상에 참여한 것으로 전해졌다. 아다니 그룹은 인도 각 지역에서 데이터센터 부지를 물색 중이며 현재 논의는 초기 단계로 구체적인 위치는 아직 확정되지 않았다. 이같은 움직임은 인도를 둘러싼 글로벌 AI 인프라 경쟁이 한층 격화되고 있음을 보여준다. 인도는 빠르게 성장하는 경제와 방대한 인구 기반을 바탕으로 해외 투자와 기술 기업을 끌어들이고 있으며 이에 맞춰 데이터센터 시장 역시 급성장 중이다. 컨설팅업체 KPMG에 따르면 인도의 데이터센터 전력 용량은 2030년까지 8기가와트(GW)를 넘어설 전망이다. 이는 현재 대비 약 5배 수준이다. 아다니 그룹은 이미 AI 인프라 확대에 공격적으로 나서고 있다. 오는 2035년까지 1000억 달러(약 150조원)를 투입해 친환경 기반 AI 데이터센터를 구축할 계획이다. 이 투자는 서버·전력 인프라 등 연관 산업에서 장기적으로 1500억 달러(약 225조원) 규모의 투자 유발 효과를 창출할 것으로 보고 있다. 이와 함께 글로벌 기업들의 현지 시장 투자도 이어지고 있다. 아마존은 2030년까지 인도 클라우드 인프라에 약 127억 달러(약 19조원)를 투자할 계획이며 오픈AI 역시 1GW 규모 데이터센터 구축을 검토 중이다. 인도 내 기업 간 경쟁도 치열하다. 릴라이언스는 110억 달러(약 16조원) 규모 데이터센터 프로젝트를 추진 중이며 타타그룹 역시 외부 투자 유치를 통해 사업 확대에 나섰다. 업계에선 인도가 AI·클라우드 인프라의 차세대 글로벌 허브로 부상하고 있다는 평가가 나온다. 대규모 수요와 정부의 디지털 정책, 글로벌 기업들의 투자 경쟁이 맞물리며 초거대 AI 인프라 집적지로 빠르게 변모하고 있다는 분석이다. 아다니 그룹은 "데이터센터와 재생에너지를 결합한 통합 인프라를 앞세워 글로벌 AI 시대의 핵심 공급자로 자리잡겠다"고 밝혔다.

2026.03.26 14:39한정호 기자

딜리버드코리아, 220개국 수출 원스톱 서비스 강화

글로벌 역직구 기업 딜리버드코리아는 국내 기업이 해외 판매를 시작할 때 가장 큰 부담으로 꼽히는 '주문 등록–배송 접수–통관–배송추적–정산'까지 전 과정을 한 번에 관리할 수 있는 통합 글로벌 배송 솔루션 '글로벌쉽'을 전면에 내세우며 지원 범위를 강화하겠다고 26일 밝혔다. 글로벌쉽은 쇼핑몰 주문 등록부터 배송 신청, 배송 현황 추적, 인보이스 정산 확인까지 해외배송 운영 흐름을 단일 화면에서 처리하도록 설계된 것이 핵심이다. 딜리버드코리아에 따르면 주문 연동이 되지 않는 쇼핑몰을 사용하더라도 단건·대량으로 주문을 등록할 수 있어, 해외 판매 초기 단계 기업도 별도 시스템 구축 없이 운영을 시작할 수 있다는 것이 강점이다. 특히 '배송 안정성'과 '고객 응대'는 해외 판매에서 핵심 요소로 꼽힌다. 글로벌쉽은 화물의 배송 정보를 실시간으로 확인할 수 있고, 고객용 배송 추적 링크를 제공해 해외 소비자 문의 대응 부담을 줄이도록 했다. 딜리버드코리아가 강조하는 또 다른 강점은 글로벌 배송 운영 역량이다. 글로벌쉽은 220개국 배송이 가능한 인프라를 기반으로 배송 국가 확장을 지원하며, 계약된 운송사 네트워크를 통해 합리적인 운송 비용과 안정적인 서비스 품질을 동시에 확보할 수 있도록 돕는다. 또한 기업이 해외 배송 인프라를 직접 구축해야 하는 부담을 줄여, 적은 물량에도 경쟁력 있는 운임을 통해 안정적인 운영이 가능하도록 설계됐다. 업계에서는 역직구 시장이 점차 커지는 만큼, 물류·통관·정산 같은 '운영 장벽'을 낮추는 솔루션 수요도 함께 증가하는 추세다. 딜리버드코리아는 자사 역직구 거래 데이터 및 시장 흐름을 근거로 K-콘텐츠 기반 소비가 확대되는 가운데, 국내 기업의 글로벌 진출이 확산 단계에 접어든 것으로 보고 있다. 딜리버드코리아 김종익 대표는 “해외 판매를 준비하는 기업들이 주문·배송·통관 등 각 단계에서 겪는 운영 부담과 복잡성을 줄이는 데 초점을 맞췄다”며 “글로벌쉽을 통해 별도 시스템 구축 없이도 안정적으로 해외 배송을 운영할 수 있도록 하고, 앞으로도 서비스 고도화를 지속해 나갈 것”이라고 밝혔다.

2026.03.26 14:33안희정 기자

전력·인허가에 묶인 AI 인프라…데이터센터 특별법, 규제 완화 속도낸다

인공지능(AI) 경쟁력의 핵심 기반으로 꼽히는 데이터센터 구축을 둘러싼 제도 정비가 본격화됐다. 국회에서 'AI 데이터센터 진흥 특별법'이 첫 문턱을 넘으면서 전력·입지·인허가 등 산업 전반의 구조적 병목 해소 기대가 커지고 있다. 26일 업계에 따르면 국회 과학기술정보방송통신위원회는 지난 24일 법안심사소위원회를 열고 'AI 데이터센터 지원에 관한 특별법'을 통과시켰다. 이번 법안은 정동영·조인철·한민수·황정아 의원과 김장겸 의원, 이해민 의원이 각각 발의한 6개 법안을 병합한 대안이다. 법안소위 통과는 입법 절차의 초기 단계지만, 여야 간 이견 없이 처리됐다는 점에서 향후 상임위원회와 법제사법위원회, 본회의 통과 가능성도 높다는 평가가 나온다. 이번 특별법은 AI 데이터센터를 국가 경쟁력을 좌우하는 전략 인프라로 규정하고 인허가 절차 간소화와 입지 규제 완화, 세제 지원, 전력 확보 지원 등을 골자로 한다. 특히 비수도권 데이터센터에 대한 전력계통영향평가 면제와 발전사업자와의 직접 전력구매계약(PPA) 허용이 핵심으로 꼽힌다. 생성형 AI 확산으로 고성능 그래픽처리장치(GPU) 기반 연산 수요가 급증하면서 데이터센터는 단순 설비를 넘어 AI 경쟁력을 좌우하는 핵심 기반으로 부상했다. 업계에선 전력 확보와 인허가 지연이 국내 AI 인프라 투자 확대를 가로막는 대표적인 요인으로 지목돼 왔다. 클라우드 업계 관계자는 "AI 서비스 수준과 경쟁력은 결국 인프라에서 갈린다"며 "전력과 인허가 불확실성이 줄어들면 민간 투자 환경도 빠르게 개선될 것"이라고 말했다. 특히 이번 법안은 행정 절차 측면에서의 변화가 주목된다. 과학기술정보통신부가 인허가 창구 역할을 맡아 관계 부처 협의를 일괄 처리하고 일정 기간 내 결과를 도출하는 '타임아웃제'를 도입한다. 이에 따라 데이터센터 구축 인허가 절차가 최대 150일 내 처리되는 구조가 마련될 전망이다. 과기정통부 관계자는 "특별법은 창구 일원화와 함께 시설·입지·전력 특례를 포함하는 구조"라며 "데이터센터 구축 과정에서 과도하게 적용되던 승강기, 주차장, 전기차 충전시설, 미술품 설치 의무 등 규제를 완화하고 입지 해석을 명확히 해 기업 부담을 줄이는 데 초점을 맞췄다"고 설명했다. 데이터센터 업계 관계자는 "그동안 지자체, 한전, 산업부 등 여러 기관을 각각 상대해야 해 사업 일정이 지연되는 경우가 많았다"며 "과기정통부가 창구 역할을 맡아 조정해주는 구조는 현장에서 체감도가 클 것"이라고 말했다. 전력 특례 역시 산업 영향 측면에서 핵심 변수로 꼽힌다. AI 데이터센터는 전력 비용이 전체 운영비의 상당 부분을 차지하는 구조로, 안정적이고 예측 가능한 전력 확보가 사업성에 직결된다. 이번 법안에 포함된 PPA 특례와 전력계통영향평가 면제는 이러한 부담을 완화하기 위한 장치다. 다만 전력 특례를 둘러싼 부처 간 시각차는 여전히 남아 있는 것으로 알려졌다. 기후에너지환경부는 특정 산업에 대한 별도 전력 특례 도입보다는 기존 분산에너지 제도 틀 안에서 접근해야 한다는 입장을 유지해온 것으로 전해졌다. 또 PPA를 개별 산업에 확대 적용할 경우 제도 형평성과 전력시장 구조에 영향을 줄 수 있다는 점도 고려해야 한다는 시각이다. 이에 대해 업계에선 AI 데이터센터의 특수성을 감안한 별도 제도 필요성을 강조하고 있다. 데이터센터 업계 관계자는 "AI 데이터센터는 일반 산업과 비교하기 어려울 정도로 전력 수요가 큰 구조"라며 "전력 특례가 마련되지 않으면 국내 투자 유치 경쟁력 확보에도 한계가 있을 수 있다"고 말했다. 입지 측면에선 비수도권 데이터센터 유치에도 긍정적인 영향을 미칠 것으로 예상된다. 발전소 인근에서 직접 전력을 조달할 수 있는 환경이 조성될 경우 지방 입지의 경제성이 높아질 수 있어서다. 정부는 이번 특별법이 통과될 경우 단순 인프라 구축을 넘어 클라우드 생태계 전반을 활성화한다는 구상이다. 과기정통부가 창구 역할을 맡아 인허가와 부처 협의를 조정하고 기술 개발과 인력 양성 지원까지 연계하는 방안을 검토 중이다. 법안은 현재 법안소위 단계를 통과한 만큼 향후 상임위원회, 법제사법위원회, 본회의 등 입법 절차를 거치며 세부 내용이 조정될 가능성도 남아있다. 데이터센터 업계 관계자는 "법안소위 통과로 방향성은 확인됐지만, 전력 특례와 인허가 개선이 실제 사업 환경에서 얼마나 체감될지가 관건"이라며 "남은 입법 절차에서 실효성이 가려질 것"이라고 밝혔다.

2026.03.26 14:15한정호 기자

첫 주총장 들어선 류석문 "현대오토에버, 모빌리티 테크 컴퍼니 역량 강화할 것"

현대오토에버가 소프트웨어(SW) 중심 모빌리티 기술·품질 경쟁력 고도화와 글로벌 사업 확대를 통해 지속 성장 기반을 강화하겠다는 비전을 제시했다. 류석문 현대오토에버 대표는 26일 서울 강남구 동일타워에서 개최한 '제26기 정기 주주총회'에서 "올해 현대차그룹의 SW 중심 모빌리티 기업으로의 전환을 뒷받침하기 위해 기술과 품질 수준을 높이고 모빌리티 테크 컴퍼니로서의 정체성과 역량을 고도화하는 데 최선을 다하겠다"고 말했다. 류 대표는 지난해 전 사업 부문에서 안정적인 실적 성장을 기록하며 주주가치 제고 성과를 냈다고 강조했다. 현대오토에버의 2025년 연간 매출은 4조 2521억원으로, 불확실한 대외 환경 속에서도 SW 본업 경쟁력 강화와 고객 가치 창출을 중심으로 성장을 이어갔다는 설명이다. 올해 회사는 엔터프라이즈 IT 사업에서 글로벌 표준 관리체계 적용 확대와 신공장 제조 IT 구축을 추진할 계획이다. 여기에 운영기술(OT)과 로보틱스 사업도 강화해 제조 혁신 영역에서 경쟁력을 확보할 방침이다. 차량 사업 부문에서는 내비게이션 SW 사업 효율화와 외부 사업 확대를 추진하는 동시에 전장 SW 품질 및 기능 개선, 시스템 통합 사업 확대에 집중한다. 이를 통해 차량 SW 전반의 경쟁력을 끌어올린다는 전략이다. 이와 함께 글로벌 수준의 보안 체계 구축과 대응 역량 강화, 인프라 및 클라우드 운영의 안정성·효율성 확보에도 나선다. 디지털 기반 기술 사업 영역을 확장해 전사 경쟁력을 높인다는 목표다. 조직 문화 혁신과 데이터 기반 경영도 주요 과제로 제시됐다. 류 대표는 "임직원 모두가 담당 업무에 책임지는 의사결정을 할 수 있도록 조직문화를 구축할 계획"이라며 "수평적인 조직 환경이 될 수 있도록 개방적이고 자유로운 커뮤니케이션을 통해 고객 가치를 위한 혁신을 이뤄내겠다"고 강조했다. 이어 "정보의 투명성을 중요 가치로 삼고 궁극적으로 고객 가치 창출에 집중하는 조직으로 도약할 것"이라며 "데이터 기반의 실시간 의사결정 체계 도입을 통해 차별화된 고객 가치를 창출하고 주주가치 제고에도 힘쓰겠다"고 덧붙였다.

2026.03.26 09:49한정호 기자

[유미's 픽] 'AI G3' 외치지만 실무 인력 태부족…인력난 해결 '절실'

이재명 정부가 인공지능(AI) 3대 강국(G3) 도약을 목표로 천문학적인 예산을 쏟아붓고 있지만, 이를 현장에서 집행할 행정 조직의 '실행력'에 빨간불이 켜졌다. 정책의 외연은 '부총리급' 위상에 걸맞게 커진 반면, 실무를 뒷받침할 인력과 직제는 과거 수준에 머물러 있어 자칫 '정책 동력 상실'로 이어질 수 있다는 지적이 나온다. 25일 정부에 따르면 과학기술정보통신부 내에서 약 2조원 규모의 '그래픽처리장치(GPU) 확보 사업'과 4조원 규모의 '국가 AI 컴퓨팅 센터 구축' 등 핵심 인프라 사업을 전담하는 실무 인력은 단 5명에 불과한 것으로 확인됐다. 이들은 단순한 자원 배분 업무를 넘어 ▲GPU 임대 운영 및 성과 평가 ▲범국가적 AI 컴퓨팅 인프라 R&D 기획 ▲활용 전략 수립 등 전문성이 요구되는 고난도 업무를 동시에 수행하고 있다. 1인당 관리해야 하는 사업 예산 규모만 '조 단위'다. 업계 관계자는 "연초부터 쏟아지는 정책 보고와 사업 공고 준비로 해당 조직의 업무 강도는 이미 임계치를 넘어선 상태"라며 "올 초 이재명 대통령이 격려의 의미로 피자를 보낼 만큼 고충이 크지만, 상징적 격려보다 시급한 것은 실질적인 인력 보강"이라고 꼬집었다. 조직 규모 면에서도 부처 간 '조직 비대칭' 현상이 뚜렷하다. 국가 AI 정책을 총괄하는 과기정통부 AI정책실 인력은 74명(2국 체계)인 반면, 공공 AI 전환을 담당하는 행정안전부 인공지능정부실은 190명(3국 체계)으로 두 배가 넘는 규모다. 정책의 컨트롤타워보다 집행 조직의 규모가 더 큰 구조다.과기정통부 역시 AI 조직을 실 단위로 격상시켰으나, 실질적인 인력과 직제는 정책 수요를 따라가지 못하고 있다. 실제 AI정책실 신설 이전 약 49명이던 인력은 개편 이후에도 74명 수준으로 늘어나는 데 그쳤다. 국가 AI 정책의 기획과 실행 기능이 한 조직에 집중돼 있음에도 불구하고 여전히 '2개 정책관(국) 체제'에 머물러 있다. ▲정책기획관(39명)과 ▲인프라정책관(34명)이 정책 총괄부터 안전, 인재 양성, 데이터, 산업 지원까지 도맡고 있어 기능 분산이 충분하지 않다는 지적이다. 특히 폭발적으로 늘어난 정책 수요에 대응할 정규직 정원이 제때 뒷받침되지 못하면서 부처 내 인력 운용의 기형화도 심화되고 있다. 대규모 예산이 투입되는 핵심 인프라 사업의 상당수가 정식 직제가 아닌 태스크포스(TF)나 임시 직제 중심으로 운영되면서 정책의 연속성마저 위협받는 상황이다.반면 행정안전부는 인공지능정부정책국(71명), 인공지능정부서비스국(65명), 인공지능정부기반국(53명) 등 3개 국 체계를 기반으로 정책·서비스·인프라 기능을 분리해 운영하고 있다. 여기에 각 부처와 산하기관에서 선발한 169명의 'AI 리더' 조직까지 별도로 두고 공공 AI 확산을 추진 중이다. 다만, 행안부는 인공지능정부실 190명 전체를 AI 전담 인력으로 보는 것은 부정확하다는 입장이다. 정부24, 모바일 신분증, 데이터 등 디지털 행정 인력이 포함된 수치로, 실제 AI 관련 인력은 이보다 훨씬 적은 수준이라는 것이다. 행안부 관계자는 "공공 디지털 전환 전반을 수행하는 조직 특성상 단순 인원 비교는 적절하지 않다"며 "AI 전담 기준으로 보면 타 부처와 큰 차이가 없거나 오히려 적을 수 있다"고 말했다.업계 관계자는 "국가 전략을 짜는 부처보다 집행 부처의 덩치가 훨씬 큰 엇박자가 이어지고 있다"며 "행안부는 정책, 서비스, 인프라 기능을 3개 국으로 명확히 분리해 전문성을 높인 반면, 국가 AI 정책의 컨트롤타워인 과기정통부는 상대적으로 빈약한 체급으로 '험지'를 돌파하고 있는 셈"이라고 지적했다. 이 같은 인력난의 근본 원인은 중앙부처의 조직과 정원을 관리하는 행정안전부와의 협의 구조 때문으로 분석된다. 이 탓에 과기정통부가 인력 확대를 요청하더라도 '공무원 정원 동결' 기조나 부처 간 형평성 논리에 가로막히면 반영되기 어렵다. AI 정책을 총괄하는 부처가 필요로 하는 인력을 자체적으로 확보하기 어려운 구조인 것이다. 특히 과기정통부 장관이 부총리급으로 격상되고 AI가 국가 전략의 핵심으로 자리 잡았음에도 이를 실무적으로 뒷받침할 정규 인력 확충은 사업 규모를 따라가지 못하고 있다는 지적도 나오고 있다. 정책의 위상과 조직 현실 간 괴리가 커지고 있는 셈이다. 이로 인해 범부처 협업이 필요한 AI 정책이 실제 집행 단계에서는 특정 부처에 업무가 집중되는 현상도 나타나고 있다. 일부 부처가 소관 업무를 이유로 정책 수행에 적극적으로 나서지 않는 사례도 있는 것으로 전해졌다. 업계 관계자는 "AI 정책은 예산뿐 아니라 이를 실제로 집행할 조직과 인력이 핵심"이라며 "정책을 총괄하는 부처에 걸맞은 인력과 체계가 갖춰지지 않으면 현장 부담은 계속 커질 수밖에 없다"고 말했다.또 다른 관계자는 "우리나라의 AI G3 도약은 예산 규모가 아니라 정책의 집행 속도와 전문성에서 결정된다"며 "현장의 병목 현상을 해소하기 위해 행안부와 기재부가 전향적으로 조직 확충에 협력해야 한다"고 강조했다.

2026.03.25 17:26장유미 기자

에퀴닉스, AI 시대 데이터센터 인재 키운다…글로벌 투자 확대

에퀴닉스가 글로벌 데이터센터 산업의 인력 부족 문제에 대응하기 위해 인재 양성 투자를 확대한다. 인공지능(AI)과 디지털 전환 확산에 따른 인프라 수요 증가에 맞춰 교육·채용 연계를 강화한다는 목표다. 에퀴닉스는 디지털 인프라 분야 차세대 기술 인재 양성을 위한 글로벌 투자 계획을 발표했다고 25일 밝혔다. 이번 이니셔티브는 국제 데이터센터의 날을 맞아 공개됐으며 고급 기술 인력 일자리 기회를 확대하고 지역 사회 기반 인재 생태계를 강화하는 데 초점을 맞췄다. 핵심 프로그램은 '패스웨이 투 테크'의 글로벌 확대다. 해당 프로그램은 14~18세 학생을 대상으로 데이터센터 운영 분야 진입 경로를 제공하는 초기 인재 양성 과정이다. 기존 미국과 아시아태평양 일부 지역에서 약 2000명을 대상으로 운영된 바 있다. 이를 전 세계 에퀴닉스 데이터센터로 확대해 청년층의 산업 진입을 지원한다. 참가자는 전문가 멘토링, 데이터센터 투어, 실습 중심 교육 등을 통해 디지털 인프라 환경을 직접 경험할 수 있다. 인턴십과 견습 프로그램으로 이어지는 경력 경로도 제공해 접근성이 낮지만 수요가 높은 고임금 기술 직군 진입을 돕는다는 설명이다. 아울러 글로벌 데이터센터 기술자 교육 연합도 출범한다. 에퀴닉스 재단은 비영리 단체 제너레이션과 협력해 교육 커리큘럼 개발과 채용 연계를 추진하며 브라질을 시작으로 글로벌 확장을 계획 중이다. 글로벌 운영 견습 프로그램도 확대된다. 브라질·프랑스·독일·미국·싱가포르·영국 등 주요 시장에서 통합된 교육과정을 도입해 인턴십과 초기 경력 프로그램을 강화하고 현장 중심 기술 인력 양성 체계를 구축할 예정이다. 또 '러닝 랩' 프로그램을 통해 데이터센터 인프라 운영에 필요한 실무 역량 교육도 제공한다. 전기 시스템, 냉각·공조, 안전, 시설 운영 등 핵심 기술을 현장 중심으로 학습할 수 있도록 설계됐다. 에퀴닉스는 이러한 프로그램을 올해부터 미주, 유럽·중동·아프리카(EMEA), 아시아태평양 지역에 순차적으로 도입해 글로벌 인재 파이프라인을 구축할 계획이다. 라우프 압델 에퀴닉스 글로벌 운영 수석 부사장은 "데이터센터는 디지털 세계의 심장이자 글로벌 연결의 핵심 인프라"라며 "AI로 인한 인프라 수요 증가에 대응하기 위해 미래 기술 인재 양성에 지속적으로 투자할 것"이라고 말했다. 브랜디 갤빈 모란디 에퀴닉스 최고인사책임자(CPO)는 "우리는 조기 인재 양성과 지역 사회 기반 기회 확대를 통해 업계에 필요한 숙련 인재를 확보하고 있다"며 "교육과 실무 경험을 결합해 새로운 기술 인재를 발굴·육성해 나갈 것"이라고 밝혔다.

2026.03.25 16:47한정호 기자

KTR, 태국 전기차 충전기 안전인증 도입 지원

KTR이 태국 전기자동차 충전기 안전인증 도입과 국내 기업 수출지원에 나선다. KTR(한국화학융합시험연구원·원장 김현철)은 25일 태국 상무부와 전기차 충전 인프라 구축 지원을 위한 업무협약을 체결했다고 밝혔다. 태국 정부는 2030년까지 전기차 생산량을 전체의 30%까지 확대하는 정책을 발표하고 전기차 충전 인프라 구축 및 법정계량 제도 도입을 서두르고 있다. KTR은 협약에 따라 태국 상무부를 비롯해 태국 정부 산하 전기전자 시험연구소 관계자를 대상으로 한국 전기차 충전기 법정계량·형식승인 시스템 등에 대한 기술 전문 교육을 수행한다. 교육 프로그램은 ▲법적 제도적 인프라 ▲형식승인 기술기준 ▲정밀측정 및 오차시험 ▲검인증 및 사후관리 등 전기차 충전기 인증 제도 도입에 대응하기 위한 내용으로 구성된다. KTR과 태국 상무부는 또 태국 법정계량 규제 대응 협력 등 전기차 충전기 수출 국내기업 지원을 위한 협력방안을 모색하기로 했다. KTR은 국가기술표준원으로부터 전력량계 전기차 충전기 형식승인·검정기관으로 지정받아 충전기 계량성능·구조안전·신뢰성·전자파적합성 등 형식승인 및 검정 관련 공인 시험서비스를 원스톱으로 제공하고 있다. 국내 시험인증기관 최초로 태국 산업표준원과 협력관계를 구축, 태국에 제품을 수출하는 국내 기업의 태국 강제인증 TISI 획득을 지원하고 있다. 김현철 KTR 원장은 “KTR의 노하우와 인프라를 활용해 태국 전기차 충전기 시험인증 제도 구축을 적극 도울 것”이라며 “태국 정부와 협력해 국내 수출 기업의 동남아 시장 진출을 더욱 효과적으로 지원할 수 있는 여러 사업을 추진할 계획”이라고 밝혔다.

2026.03.25 14:53주문정 기자

스테이블코인 간 교환은 곧 외환거래…효율적 시스템 갖추려면

스테이블코인 간 교환은 사실상 외환(FX) 거래와 마찬가지다. USDT↔USDC, USDC↔EURC처럼 서로 다른 통화, 발행사, 체인 간 스왑은 슬리피지와 수수료에 극도로 민감하다. 수십억~수백억 단위의 대규모 거래에서는 몇 bp 차이가 손익을 가르기도 한다. 이 지점에서 인텐트-솔버 모델의 장점이 두드러진다. AMM처럼 항상 깊은 풀을 유지할 필요 없이, 솔버가 중앙화거래소(CEX), 장외거래(OTC), 기관 간 직거래 등에서 그때그때 필요한 유동성을 조달한다. 복수의 유동성 소스를 나눠 활용하고 개인간개인(P2P) 매칭을 동원해 가격 충격을 최소화한다. 동일 거래 기준 자동화 마켓메이커(AMM) 대비 슬리피지를 10분의 1 수준으로 줄일 수 있다. 또 윈터뮤트, 점프크립토 같은 글로벌 마켓메이커가 솔버로 참여하면서, 일반 사용자도 사실상 기관급 환전 서비스를 이용할 수 있는 구조가 완성되고 있다. “한국형 스테이블코인 FX 정산 레이어가 필요하다” 국내 블록체인 기업 수호아이오는 스테이블코인 기반 외환 정산 시스템 '이지스(Ezys) FX'를 “차세대 스테이블코인 FX·정산 인프라”로 정의한다. 은행·핀테크·환전 사업자가 솔버로 참여하는 인텐트 기반 FX 네트워크를 지향한다. 이지스FX에서 인텐트 제출자는 주로 외국인 관광객 결제 앱, 전자결제대행(PG)사, 증권사·거래소의 토큰증권(ST) 플랫폼, 글로벌 결제·송금 핀테크, 유통·플랫폼 기업 등이 해당된다. 일본인 관광객 대상 결제 서비스로 예를 들어 보자. 일본인 이용자는 엔화 기반 카드로 결제하고 싶어하고, 한국 가맹점은 원화 정산을 원한다. 이때 백엔드에서 스테이블코인 기반 FX가 발생한다. 이지스FX 구조에서 PG사가 던지는 인텐트는 "오늘 들어온 결제 중 5억원 상당 금액을 30초 안에 원화 스테이블코인으로 정산해줘. 최대 수수료는 0.3%, 스프레드는 0.1% 이내"로 간단하다. 그렇다면, 누가 솔버가 될 수 있을까. 이지스FX에선 은행·증권사·환전 사업자·글로벌 유동성 공급자(LP)가 솔버 역할을 맡는다. 인텐트가 들어오면 호가와 조건을 자동으로 제시한다. •A은행: "0.09% 스프레드, 5초 이내 정산" •B핀테크: "0.05% 스프레드, 20초 이내 정산" •C글로벌 LP: "0.03% 스프레드, 40초 이내 정산" 수호아이오의 이지스FX인 '이지스'는 인텐트 발신자가 사전에 등록한 정책에 따라 최적의 솔버를 선택한다. 정산 속도 수수료 등의 효과 이지스FX 활용 시 기업 입장에서 체감할 수 있는 변화는 세 가지다. 첫째, 정산 속도다. 기존 은행 간 해외 송금은 T+1~T+2(1~2영업일)가 표준이다. 그러나 이지스FX에서는 수십 초~수 분 내 정산이 가능하다. 결제 사업자 입장에서는 환 리스크 노출 시간이 사실상 제로에 가까워진다. 두번째는 수수료다. 전통 은행 FX 거래에서 스프레드는 0.3~1.0% 수준이 일반적이지만, 복수 솔버 경쟁이 발생하는 이지스 구조에서는 0.03~0.1% 수준으로 줄일 수 있다. 월 거래액 100억원 기준으로 연간 수 천만원의 비용 절감 효과를 볼 수 있다. 세번째는 운영 복잡도다. PG사나 핀테크가 직접 체인·브릿지·거래소를 연동할 필요 없이, 인텐트 한 줄로 복잡한 FX 로직을 외부화할 수 있다. 국경을 넘나드는 FX 허브 이지스FX는 국내 결제·송금 시장만 겨냥하지 않는다. 수호아이오는 유럽 규제형 토큰증권 거래소 21X와 제휴를 맺고, 원화 기반 스테이블코인이 유럽 토큰증권 시장으로 흘러갈 수 있는 인프라를 구축하고 있다. 프로토콜 카우스왑, 유니스왑X가 온체인에서 하던 역할을, 이지스FX가 원화·기관·규제 환경에 맞게 재구성해 수행한다. 리스크도 수반...모니터링 체계 갖춰야 효율이 올라가면 새로운 리스크가 따라오기도 한다. 인텐트-솔버 구조는 새로운 유형의 리스크를 수반한다. 리스크는 기존의 스마트컨트랙트 코드 감사만으로 잡아낼 수 없다. 시장 불안 상황에서 솔버들이 자금을 회수하면, 계약 코드가 안전하더라도 실행이 지연되거나 중단될 수 있다. 시스템이 '기술적으로는 문제없음'이지만 '경제적으로는 작동 불가'인 상태가 될 수 있다. 불투명성도 문제다. 솔버의 실행 전략은 비공개다. 시스템은 유동성이 조용히 특정 솔버에게 집중될 때까지 외관상 정상적으로 보일 수 있다. 집중화 압력은 구조적 문제로 이어진다. 자본력이 풍부한 솔버일수록 더 낮은 스프레드로 경쟁할 수 있어, 시간이 지남에 따라 소수 업체가 주문 흐름을 장악하는 현상이 심화된다. 이미 카우스왑과 유니스왑X은 소수의 전문 솔버가 전체 거래량의 80% 이상을 처리하는 현상이 나타나고 있다. 이는 치명적인 결함은 아니지만, 인텐트 기반 프로토콜을 모니터링해야 한다는 것을 보여준다. 감사만으로는 충분하지 않으며, 유동성 분배·솔버 집중도·경제적 스트레스에 대한 회복력 또한 핵심 지표로 활용해야 한다. 업계가 이러한 딜레마를 크게 세 가지 방식으로 해결하고자 한다. 솔버 다양성 정책(특정 솔버의 점유율 상한 설계), 최소 응찰 의무화(소액 인텐트에도 반드시 응찰하도록 하는 규칙), 스마트컨트랙트 기반 자동 패널티(이행 불이행 시 온체인에서 즉시 집행)가 그것이다. 표준화가 시작됐다…ERC-7683 인텐트 기반 크로스체인 시스템이 확산되면서, 각 프로토콜마다 다른 인텐트 포맷을 통일하려는 움직임이 본격화되고 있다. 이더리움 생태계에서 논의 중인 프로토콜 ERC-7683은 크로스체인 인텐트 프레임워크를 공식 표준으로 정의하고, 네트워크 간 상호운용성을 개선하는 것을 목표로 한다. 표준화의 의미는 크다. 인텐트 포맷이 통일되면 사용자는 어떤 프로토콜을 사용하든 동일한 방식으로 인텐트를 제출할 수 있고, 솔버는 여러 네트워크의 인텐트를 단일 시스템으로 처리할 수 있다. 인텐트 기반 FX 인프라 간 공통 언어를 쓰는 셈이다. 인텐트-솔버 아키텍처의 확산은 개발자와 아키텍트의 역할도 바꾼다. 핵심은 두 가지다. 어떤 의도 포맷을 정의할 것인가(통화쌍, 금액, 최대 스프레드, 마감 시간, 리스크 허용 범위, 규제 요건의 구조화), 그리고 어떤 솔버 네트워크를 설계·개방할 것인가(참여 자격, 호가 정책, 담합 리스크 감시 체계)가 핵심 설계 과제다. 정교한 설계를 위해 점검해야 할 것 인텐트-솔버 아키텍처 설계 시 점검 사항은 세 가지다. 첫째, 서비스의 FX 처리 구조를 파악하는 것이다. PG사·결제 플랫폼을 운영하거나 연동하고 있다면, 현재 스프레드·정산 시간·실패율을 수치로 기록해둬야 한다. 둘째, 인텐트를 정의할 수 있는 역량을 키워야 한다. “어떤 조건이면 이 거래를 수락하겠다”는 비즈니스 로직을 구조화된 인텐트 포맷으로 표현해야 한다. 앞으로 FX 인프라 협상력의 핵심이 될 것으로 보인다. 셋째, 솔버 네트워크 참여 가능성을 타진해야 한다. 유동성이나 FX 역량이 있는 기관이라면, 솔버로 참여해 수수료·스프레드 수익을 가져가는 구조를 검토할 시점이다. 크로스체인 인텐트는 단순한 기술 개선이 아니다. 사용자가 브리지·가스 토큰·최종성 기간을 이해하도록 강요하는 대신, 결과를 명시하고 복잡성을 시장에 위임하도록 하는 철학적 전환이다. 앞으로는 누가 더 정교하게 인텐트와 솔버 네트워크를 설계할 수 있는지가 경쟁력이다. 스테이블코인을 배달 앱 쓰듯 쉽게 환전하는 시대는 이미 시작됐다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다. • 2025 ~ 현재: Noone21 대표이사, 포항공대 CCBR(Center for Cryptocurrency & Blockchain Research) 부센터장 • 2023 ~ 현재: 수호아이오 사업 및 전략 고문 • 2018 ~ 2023: 람다256 대표이사 • 2016 ~ 2018: SK텔레콤 전무이사 (서비스 플랫폼) • 2008 ~ 2016: 삼성전자 무선사업부 상무이사 (삼성페이, 챗온)

2026.03.25 10:16박재현 컬럼니스트

"스테이블코인도 배달 앱 쓰듯 쉽게 환전할 수 있어야"

지난 2024년 글로벌 스테이블코인 일평균 결제 거래량은 약 270억 달러를 넘어섰다. 이는 비자(VISA)·마스터카드의 일평균 결제 규모와 맞먹는 수준이다. 스테이블코인의 결제 규모는 커졌지만, 정작 실제 거래에 쓰려면 통화 간 교환인 온체인 외환(FX)이 필수다. USDT를 원화 스테이블코인으로, 엔화 스테이블코인을 EURC로 바꾸는 과정이 매끄럽지 않으면 스테이블코인은 결제 수단이 아니라 보유 수단에 그친다. 바로 이 지점에서 기존 자동화 마켓메이커(AMM) 방식의 한계가 수면 위로 드러나고 있다. 동시에 인텐트(의도)와 솔버(해결안 제공자) 아키텍처가 대안으로 빠르게 부상하고 있다. AMM에서 인텐트로…셀프 주유소와 배달 앱 차이 항공편을 예약한다고 상상해보자. 이 경우 우리가 직접 항공사에 전화하지 않고, 연료 계약을 협상하지도 않고, 항공 교통 관제를 조율하지도 않는다. 단지 앱을 열고 날짜를 입력하고 원하는 시간대의 비행을 예약, 결제하면 된다. 나머지는 시스템이 처리한다. 온체인 자산 교환은 이 방식과는 반대다. 유니스왑 같은 AMM 중심 구조에서는 사용자가 직접 어느 풀에 유동성이 얼마나 있는지, 어떤 슬리피지를 감수할지, 어떤 체인에서 실행할지 모두 결정해야 했다. 마치 비행기 탑승 전 항공기 정비 매뉴얼과 미국 연방항공청(FAA) 규정을 모두 이해해야 하는 일종의 '셀프 주유소' 모델인 셈이다. 문제는 규모가 커질수록 AMM의 비효율이 선명해진다는 것이다. 100억원 규모의 USDT→USDC 스왑을 단일 AMM 풀에 던지면 슬리피지가 0.3~0.5%까지 발생한다. 10bp(0.1%)가 '비싼 수준'으로 취급되는 기관 FX 시장에서 이는 용납하기 어려운 비용이다. 인텐트 기반 모델은 이 경험을 근본적으로 바꾼다. 사용자는 더 이상 어디서, 어떻게 바꿀지 고민하지 않아도 된다. "솔라나에 USDC 500개가 있는데, 이더리움 지갑으로 이더리움 1개를 받고 싶다"처럼 원하는 결과(조건)만 정하고 서명하면 된다. 경로를 지정하지 않고, 유동성을 관리하지 않고, 결제를 조정하지 않아도 된다. 결과는 사용자가 결정하고, 나머지는 시스템이 알아서 처리한다. "실행 먼저, 정산은 나중에"…패러다임의 핵심 인텐트 기반 시스템이 기존 브리지와 근본적으로 다른 점은 순서에 있다. 전통적인 크로스체인 브리지는 엄격하고 순차적인 흐름을 따른다. 자산이 소스 체인에 잠기고, 암호학적 증명이 생성 검증된 후에야 목적지 체인에서 자금이 해제된다. 모든 단계는 다음 단계가 시작되기 전에 암호학적 확인이 이뤄져야 한다. 수학적 원리가 정확성을 보장하지만, 안정성에는 대가가 따르기 마련이다. 그 대가는 지연 시간이다. 초기 레이어(L)2 브리지에서는 며칠이 걸리기도 했고, 지금도 수 초~수 분을 대기해야 한다. 인텐트 시스템은 이 모델을 완전히 뒤집는다. 실행이 먼저 이뤄지고, 정산은 나중에 이뤄진다. 암호학적 최종성을 기다리지 않고도 자금을 즉시 수령할 수 있다. 검증은 백그라운드에서 비동기적으로 처리된다. 기존 브리지는 시스템이 반응할 때까지 사용자가 기다려야 했다면, 인텐트 기반 시스템은 사용자가 다른 작업을 하는 동안에도 시스템이 작동한다. 중요한 것은 인텐트가 암호학적 보장을 제거하는 것이 아니라는 점이다. 단지 그 보장을 정산 계층으로 옮긴다. 사용자는 솔버의 유동성을 바탕으로 즉각적인 실행을 경험하고, 암호학적 검증은 그 이후에 이뤄진다. 인텐트-솔버의 교과서 인텐트-솔버 구조는 이미 온체인에서 충분히 검증된 모델이다. 그 중에서도 카우스왑(CoW Swap), 유니스왑X, 어크로스 프로토콜은 공통 패턴을 공유한다. 세 프로토콜의 공통점은 분명하다. 사용자는 인텐트만 제출하고, 거래 실패·경로 선택·가스비 최적화는 솔버가 책임지는 구조다. 솔버는 스프레드·수수료에서 보상을 가져가고, 경쟁을 통해 자연스럽게 효율이 높아진다. 경제적으로 보면, 솔버는 전통적인 브리지 운영자보다 고빈도 유동성 공급자(마켓메이커)에 더 가깝다. 카우스왑의 경우, 동일한 거래를 일반 AMM에서 실행했을 때 대비 평균 0.2~0.4%의 가격 개선 효과가 있다. 100억원 규모의 거래라면 2000만~4000만원의 비용 차이가 발생한다. 속도만의 문제가 아냐…3가지 트릴레마 크로스체인 전송 시 단축되는 밀리초는 어딘가에서 비롯된다. 속도는 매혹적이지만, 공짜가 아니다. 실제로 크로스체인 인프라에는 동시에 최적화할 수 없는 세 가지 요소가 존재한다. •엄격한 암호학적 최종성 → 느리다 •즉각적인 사용자 경험 → 유동성이 필요하다 •풍부한 유동성 → 솔버 집중화를 촉진한다 전통적인 브리지는 최종성을 극대화하며, 의도 기반 시스템은 속도를 극대화한다. 유동성 집중은 조용한 압력 지점이 된다. 이 트릴레마(3개 중 2개만 선택 가능한 구조적 딜레마)는 각 프로토콜의 아키텍처 선택에 그대로 반영된다. 실제로 브릿지 프로토콜 어크로스처럼 인텐트 기반으로 설계된 시스템은 수 초 내 실행이 가능하다. 반면 크로스체인 브릿지 프로토콜인 스타게이트(Stargate)의 버스 모드처럼 배치 처리 방식은 비용을 절감하는 대신 지연 시간이 늘어난다. 서클의 USDC 전용 크로스체인 전송 시스템인 CCTP는 소각-발행 구조로 유동성 풀 자체를 배제하지만, 특정 자산에만 적용된다. 체인링크의 프로토콜 CCIP는 프로그래밍 가능성과 강력한 보안을 우선시하는 메시징 레이어로, 단순 토큰 전송이 아닌 복잡한 크로스체인 로직 처리에 강점이 있다. 이렇듯 정답은 하나가 아니다. 전송 규모, 리스크 허용 범위, 사용자 기대치, 자산 유형에 따라 적합한 아키텍처가 달라진다. 기관 재무 부서는 CCIP 방식의 암호학적 보증을 선호할 수 있고, 일반 사용자는 어크로스 방식의 빠른 속도를 선호한다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다. • 2025 ~ 현재: Noone21 대표이사, 포항공대 CCBR(Center for Cryptocurrency & Blockchain Research) 부센터장 • 2023 ~ 현재: 수호아이오 사업 및 전략 고문 • 2018 ~ 2023: 람다256 대표이사 • 2016 ~ 2018: SK텔레콤 전무이사 (서비스 플랫폼) • 2008 ~ 2016: 삼성전자 무선사업부 상무이사 (삼성페이, 챗온)

2026.03.25 10:16박재현 컬럼니스트

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

대통령도 꼬집은 담합 과징금 액수...더 세질까

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

이재현 CJ 회장, ‘올리브영 명동 타운’서 쇼핑…장바구니 봤더니

박윤영號 KT, 기존 조직장 대거 물갈이

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.