• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'네트워크 인프라'통합검색 결과 입니다. (18건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI가 네트워크 직접 운영…에퀴닉스, '패브릭 인텔리전스' 출시

에퀴닉스가 에이전틱 인공지능(AI)을 기반으로 네트워크 인프라를 자동화하는 신제품을 출시하며 엔터프라이즈 AI 시장 공략에 속도를 낸다. 복잡한 멀티클라우드 환경에서 AI 워크로드 운영을 자동화해 기업의 인프라 효율성과 확장성을 동시에 끌어올린다는 전략이다. 에퀴닉스는 AI 네이티브 네트워크 운영 계층 '패브릭 인텔리전스'를 출시했다고 16일 밝혔다. 패브릭 인텔리전스는 기업이 AI 기반 네트워크를 설계·배포·운영할 수 있도록 지원하는 플랫폼으로, 기존 소프트웨어 정의 네트워킹(SDN) 중심 구조에서 벗어나 AI 워크플로우에 최적화된 네트워크 운영 환경을 제공하는 것이 특징이다. 이 솔루션은 에퀴닉스의 '분산형 AI 허브'를 기반으로 동작하며 글로벌 데이터센터와 클라우드, 엣지 환경 전반에 걸친 인프라 구축과 운영을 자동화한다. 기업은 복잡한 네트워크 환경에서도 AI 워크로드를 보다 효율적이고 안정적으로 운영할 수 있게 된다. 특히 AI 에이전트가 네트워크 환경을 자율적으로 관리하는 에이전틱 AI 개념을 적용했다. 수동 중심의 기존 네트워크 운영 방식에서 벗어나 실시간 데이터 분석과 자동 대응을 통해 인프라를 최적화하는 구조다. 패브릭 인텔리전스는 자연어 기반 명령과 자동화된 워크플로우를 지원하는 '패브릭 슈퍼 에이전트', 다양한 AI 클라이언트와 연동되는 'MCP 서버', 프라이빗 연결 기반 AI 서비스 접근을 지원하는 '패브릭 애플리케이션 커넥트', 실시간 이상 탐지와 예측 분석을 제공하는 '패브릭 인사이트' 등으로 구성됐다. 회사 측에 따르면 기업은 네트워크 설계와 운영을 단순화하고 기존 수주 단위로 소요되던 배포 시간을 수분 단위로 단축할 수 있다. 또 민감 데이터를 퍼블릭 인터넷에 노출하지 않고도 AI 서비스에 접근할 수 있어 보안성과 성능을 동시에 확보할 수 있다는 설명이다. 에퀴닉스는 전 세계 77개 도시, 280개 이상의 데이터센터로 구성된 글로벌 인프라를 기반으로 패브릭 인텔리전스를 제공하며 멀티클라우드 환경에서 AI 워크로드 확산을 지원할 계획이다. 현재 4400개 이상의 고객이 에퀴닉스 패브릭을 활용하고 있다. 업계에선 AI 확산 속도에 비해 네트워크 인프라가 이를 따라가지 못하는 격차가 커지고 있다는 점에 주목하고 있다. 기존 레거시 네트워크는 AI 워크로드가 요구하는 실시간성과 유연성을 충분히 지원하지 못해 병목 현상을 유발하고 있다는 지적이다. 에퀴닉스는 이번 신제품을 통해 이러한 문제를 해결하고 네트워크 인프라를 단순 지원 요소가 아닌 AI 경쟁력의 핵심 요소로 전환하겠다는 전략이다. 존 린 에퀴닉스 최고비즈니스책임자(CBO)는 "모든 기업이 AI를 활용해 비즈니스를 혁신하는 데 주력하고 있지만, 대부분은 성장을 주도하는 방식으로 AI를 대규모 배포할 인프라를 갖추지 못하고 있다"며 "에이전틱 AI가 성숙해지고 추론 애플리케이션이 기업 전반으로 확산됨에 따라 네트워크 인프라는 그 어느 때보다 빠르고 유연해야 한다"고 말했다. 이어 "패브릭 인텔리전스는 고객이 복잡한 인프라 관리에 소요하는 시간을 줄이고 비즈니스 발전에 더 많은 시간을 할애할 수 있도록 지원함으로써, 인프라를 제약 요소에서 경쟁 우위로 전환시킬 것"이라고 덧붙였다.

2026.04.16 11:05한정호 기자

[현장] 아태 AI 거점 된 한국…시스코-엔비디아, 인프라 판 키운다

시스코가 아시아·태평양 지역 가운데 한국을 핵심 거점으로 삼고 인공지능(AI) 인프라 고도화와 글로벌 생태계 협력을 강화하겠다는 비전을 제시했다. 벤 도슨 시스코 아시아태평양·일본·중국(APJC) 총괄 사장은 8일 서울 코엑스에서 개최한 '시스코 커넥트 2026 코리아'에서 "AI는 개인과 기업, 경제와 사회 전반을 바꾸는 가장 큰 전환이며 그 변화는 한국에서 가장 빠르게 일어나고 있다"고 강조했다. 그는 한국을 AI 혁신의 핵심 국가로 꼽았다. 반도체·제조·바이오 등 다양한 산업에서 AI가 실제 물리적 세계와 결합하며 글로벌 수준의 혁신을 만들어낼 수 있다는 평가다. 특히 고도화된 제조 기반과 ICT 인프라, 빠른 기술 수용 속도를 바탕으로 AI 산업 전반에서 경쟁력을 빠르게 끌어올리고 있다는 점에 주목했다. 도슨 사장은 "한국은 AI로 가치를 창출하며 세계에 가능성을 보여주고 있다"며 "AI가 실제 산업과 결합해 성과로 이어지는 대표적인 시장"이라고 말했다. AI 도입이 빠르게 확산되면서 이를 뒷받침할 인프라 전환 필요성도 함께 커지고 있다. 시스코는 이런 변화에 대응해 AI 시대 핵심 인프라 전략을 재정립하고 있다. 노후화된 기존 네트워크를 단순히 업그레이드하는 수준을 넘어 AI 워크로드에 최적화된 구조로 전환하는 것이 핵심이다. 특히 네트워크와 보안을 분리하지 않고 하나의 구조로 통합하는 접근을 강조했다. AI 시대에는 데이터 흐름과 공격 표면이 동시에 확대되는 만큼, 보안을 네트워크 중심에 내재화해야 한다는 설명이다. 벤 도슨 사장은 "보안은 별도의 기능이 아니라 네트워크 자체에 녹아 있어야 한다"며 "AI 시대 인프라 핵심은 안전한 네트워크"라고 강조했다. 시스코는 AI 전환(AX)을 위한 준비가 전 세계적으로 아직 충분하지 않다고도 진단했다. 자체 조사 결과, 전체 기업 중 약 30%만이 AI를 본격적으로 활용 가능한 상태로 나타났다. 기술뿐 아니라 거버넌스·보안·인력 등 전반적인 준비가 필요하다는 설명이다. 이에 시스코는 AI 데이터센터, 네트워크, 보안, 협업 등 핵심 영역을 통합한 'AI 레디 인프라' 구축을 지원하고 있다. 파트너 생태계를 강화하는 '시스코 360' 프로그램도 도입해 고객 맞춤형 기술 지원을 확대할 계획이다. 이날 행사에선 시스코의 핵심 파트너인 엔비디아와의 협력 전략도 주목받았다. 특히 AI 데이터센터와 컴퓨팅 인프라 수요가 급증하면서, 그래픽처리장치(GPU) 기반 인프라와 네트워크 기술의 결합이 중요해지고 있다는 점이 강조됐다. 발표를 맡은 정소영 엔비디아 코리아 대표는 AI 인프라가 'AI 팩토리' 개념으로 진화하고 있다고 설명했다. 그는 "AI 팩토리는 전기와 데이터를 입력받아 지능을 생산하는 구조로, 향후 모든 산업의 핵심 인프라가 될 것"이라고 말했다. 특히 한국 시장에서 정부의 소버린 AI 정책 확대에 따라 GPU 및 AI 인프라 수요가 빠르게 증가하고 있다고 짚었다. 이에 맞춰 엔비디아는 차세대 AI 슈퍼컴퓨팅 플랫폼 '베라 루빈'을 연내 공급할 방침이다. 정 대표는 "베라 루빈은 CPU와 GPU, 네트워크가 결합된 새로운 AI 슈퍼컴퓨팅 플랫폼으로 학습과 추론 모두에서 성능을 크게 향상시킨다"며 "한국 정부와 기업들의 AI 투자 확대에 맞춰 공급을 준비하고 있다"고 밝혔다. 엔비디아는 향후 로드맵도 공개했다. 베라 루빈 이후 '루빈 울트라', 차세대 아키텍처 '로사 파인만'까지 이어지는 AI 인프라 혁신을 지속할 계획이다. 또 시스코와의 협력을 통해 GPU 컴퓨팅과 네트워크 기술을 결합한 엔터프라이즈 AI 인프라 구축에도 속도를 낸다. 양사는 AI 팩토리 구현을 위한 핵심 파트너로서 협력 범위를 확대하고 있다. 정 대표는 "앞으로도 시스코와 협력을 지속하며 한국 시장에서 AI 인프라 혁신을 함께 만들어가겠다"고 강조했다.

2026.04.08 13:17한정호 기자

[현장] "AI 다음은 양자"…시스코, 차세대 네트워크 주도권 잡는다

시스코가 에이전틱 인공지능(AI)과 양자컴퓨팅 시대를 겨냥한 차세대 네트워크 전략을 앞세워 인프라 혁신에 박차를 가한다. 네트워크 장비 기업을 넘어 AI 인프라·보안·데이터를 아우르는 엔드투엔드 플랫폼으로 진화해 기업 AI 전환(AX)을 뒷받침하는 핵심 기반을 제공한다는 목표다. 최지희 시스코코리아 대표는 8일 서울 코엑스에서 개최한 '시스코 커넥트 2026 코리아' 기자간담회에서 "AI 시대를 준비하는 크리티컬 인프라를 제공하는 것을 목표로 네트워킹과 보안, 데이터 관리 전반에서 기술 혁신을 이어가고 있다"고 밝혔다. 이날 행사에는 최 대표를 비롯해 비조이 판데이 시스코 아웃시프트 총괄 매니저 겸 수석 부사장, 빌 가트너 시스코 옵티컬 시스템·옵틱스 부문 수석 부사장 겸 총괄 매니저가 참석해 AI와 양자컴퓨팅이 촉발하는 네트워크 패러다임 전환과 대응 전략을 공유했다. 시스코는 현재 컴퓨팅 환경이 '결정론적 시스템'에서 '확률적 시스템'으로 전환되고 있다고 진단했다. 기존에는 동일한 입력에 동일한 결과가 나오는 구조였다면, 앞으로는 최적의 답을 찾아가는 방식으로 진화한다는 설명이다. 비조이 판데이 수석 부사장은 이러한 변화의 핵심 동력으로 에이전틱 컴퓨팅과 양자컴퓨팅을 꼽았다. 특히 AI 에이전트가 서로 협력하는 구조가 등장하면서 기존 단일 모델 중심의 AI에서 집단 지성 기반으로 진화하고 있다고 강조했다. 그는 "우리는 AI 에이전트들이 서로 소통하고 협력할 수 있도록 하는 메커니즘을 만들고 있다"며 "이를 통해 컴퓨팅 기술을 개별 지능에서 집단 지능으로 진화시키고 있다"고 말했다. 이같은 비전을 구현하는 핵심 개념으로는 '인지 인터넷'을 제시했다. 이는 에이전트 간 협업을 위한 프로토콜과 지식 공유 구조를 기반으로, 기업 경계를 넘어 새로운 가치를 창출하는 네트워크 구조다. 시스코는 이를 가속하고자 리눅스 재단과 함께 오픈소스 프로젝트 'AGNTCY'를 추진 중이다. 구글·델·오라클·레드햇 등 80여 개 글로벌 기업이 참여해 에이전트 간 식별, 통신, 관측을 위한 표준을 구축하는 활동이다. 양자컴퓨팅 역시 핵심 축으로 제시됐다. 시스코는 양자 네트워크를 통해 여러 양자컴퓨터를 연결하는 방식으로 대규모 연산을 구현하는 전략을 추진하고 있다. 특히 IBM, 아톰 컴퓨팅 등과 협력해 양자컴퓨터를 네트워크로 연결하는 기술을 검증해 왔다. 실제 미국 뉴욕에서 상용 광섬유망을 활용해 17.6km 구간에 걸쳐 양자 네트워크를 실증하는 데 성공했다. 양자컴퓨팅의 상용화가 현실화되면서 기존 보안 체계에 대한 위협도 빠르게 부각되고 있다. 양자 네트워크 기술이 실제 환경에서 검증되며 기술 성숙도가 높아지는 만큼, 보안 대응 역시 선제적으로 준비해야 한다는 지적이다. 이에 대해 비조이 판데이 수석 부사장은 "양자컴퓨팅 발전으로 기존 RSA 암호 체계가 무력화되는 시점이 2029년으로 예상되는 만큼, 지금부터 양자 내성 암호(PQC)를 도입해야 한다"고 제언했다. AI 인프라 측면에선 초고성능 네트워크 기술이 강조됐다. AI 모델이 대형화되고 에이전트 간 상호작용이 증가하면서 데이터센터 네트워크의 확장성과 성능 요구가 급격히 높아지고 있다는 분석이다. 빌 가트너 수석 부사장은 "AI는 예상보다 훨씬 빠르게 발전하고 있으며 에이전틱 AI로 진화하면서 네트워크 스케일 요구도 크게 증가하고 있다"고 말했다. 그는 AI 인프라를 구성하는 네트워크 구조를 스케일 업, 스케일 아웃, 스케일 어크로스 3단계로 구분해 설명했다. 스케일 업은 단일 시스템 내 연산 성능을 높이는 것이고 스케일 아웃은 데이터센터 내부에서 랙 간 연결을 확장하는 방식이다. 스케일 어크로스는 물리적으로 떨어진 데이터센터 간을 연결해 전체 인프라를 하나처럼 운영하는 구조를 의미한다. 빌 가트너 수석 부사장은 "AI 워크로드가 확산될수록 데이터센터 내부뿐 아니라 데이터센터 간 연결까지 동시에 최적화하는 것이 중요해지고 있다"며 "특히 장거리 데이터센터 연결과 대규모 트래픽 처리를 동시에 지원하는 네트워크 아키텍처가 핵심 경쟁력이 될 것"이라고 설명했다. 시스코는 이에 대응하기 위해 성능, 운영 단순화, 보안 내재화를 3대 축으로 제시했다. 초당 100기가비트(Gb)에서 1.6테라비트(Tb)급까지 확장되는 네트워크 성능과 인프라 내 보안 통합을 핵심 전략으로 삼고 있다. 이날 102.4Tbps급 '실리콘 원 G300' 칩과 1.6T 옵틱스, 데이터센터 간 연결을 위한 51.2T급 라우터 등을 공개하며 AI 데이터센터 확장 전략을 구체화했다. 끝으로 최 대표는 "고객이 성공적인 AX를 완수할 수 있도록 신뢰할 수 있는 네트워크와 보안 기반을 제공하는 파트너가 되겠다"고 강조했다.

2026.04.08 10:55한정호 기자

[최홍석 칼럼] 개방하면 단순해지고, 단순해야 AI가 일한다

"OFC 2026의 현장이 보낸 메시지는 하나였다. 계층을 줄여라. 그래야 AI가 망을 읽을 수 있다." 2026년 3월, 로스앤젤레스 컨벤션 센터. 700개 이상의 글로벌 기업이 집결한 'OFC 2026'의 열기는 예년과 달랐습니다. CPO(Co-Packaged Optics)·LPO·1.6T 전송 기술이 화두였지만, 엔지니어들의 실제 대화를 지배한 키워드는 따로 있었습니다. '어떻게 계층을 줄이고, 어떻게 제어를 통합하는가.' 이 질문에 가장 명확한 답을 내놓은 아키텍처가 바로 OpenROADM 기반의 OLS(Open Line system)입니다. 화려한 신기술의 홍수 속에서, 정작 의사결정권자가 주목해야 할 것은 '다음 10년의 인프라를 얼마나 단순하고 개방적으로 설계하느냐'의 문제입니다. 전통 광망의 구조적 함정: 우리가 지불해 온 '보이지 않는 비용' 국내외 대부분의 통신사와 대형 엔터프라이즈 네트워크는 지금도 동일한 3계층 구조를 운영하고 있습니다. IP 라우터 계층, OTN(광전송망) 계층, 그리고 DWDM 계층. 각각의 레이어는 각각의 벤더가 공급하고, 각각의 관리 시스템이 존재합니다. 문제는 이 구조가 만들어내는 중복 비용, 운영 복잡성, 그리고 벤더 종속입니다. OTN 스위치는 IP 계층과 DWDM 계층 사이에서 신호를 변환하고 다중화하는 역할을 합니다. 그러나 400G 이상의 코히어런트 광 기술이 보편화된 지금, 이 '중간 계층'은 가치보다 비용을 더 많이 만들어내고 있습니다. OTN 계층 하나를 운영하기 위해 별도의 장비 비용, 상면 공간, 전력 소비, 전문 운영 인력이 필요합니다. 그리고 가장 치명적인 문제는 특정 벤더의 장비에 묶이는 순간, 그 벤더의 가격 정책, 기술 로드맵, 지원 일정에 종속됩니다. 의사결정권자 입장에서 이것은 협상력의 소멸을 의미합니다. OpenROADM(OLS)이 제시하는 세 가지 구조적 전환 OpenROADM은 2016년 AT&T 주도로 시작된 개방형 광 네트워크 표준입니다. 단순히 '장비를 혼용할 수 있게 하는 표준'이 아닙니다. 이것은 광 네트워크 운영의 철학을 바꾸는 아키텍처 혁신입니다. ① OTN 계층 제거 — 구조적 다이어트 OpenROADM 기반 OLS의 핵심은 IP 라우터를 ROADM(재구성 가능한 광 다중화기)에 직접 연결하는 것입니다. 400G/800G ZR/ZR+ 코히어런트 광 모듈을 탑재한 라우터가 OTN 스위치의 역할을 흡수합니다. 중간 계층이 사라지면 어떤 일이 벌어지는가. 장비 수가 줄고, 전력이 줄고, 공간이 줄고, 운영 포인트가 줄고, 장애 지점이 줄고, 비용이 줄고, 의사결정이 빨라집니다. CAPEX 기준 30~45%, 전력·공간 기준 최대 60% 절감은 단순한 예측이 아니라 글로벌 도입 사례에서 반복 검증된 수치입니다. ② 400G/800G ZR+ 직접 수용 — 미래 트래픽에 대한 준비 OFC 2026에서 확인된 것처럼, 차세대 AI 워크로드는 데이터센터 내부와 DCI(데이터센터 상호연결) 구간의 트래픽을 동시에 폭발시키고 있습니다. 이에 대응하기 위해 별도의 트랜스폰더를 추가하는 방식은 비용과 복잡성을 함께 증가시킵니다. OpenROADM 기반 OLS 위에서는 라우터가 직접 800G ZR+ 모듈을 수용하고, OLS가 이를 수동으로 통과시킵니다. 추가 장비 없이 전송 용량을 확장합니다. OFC 2026이 CPO·LPO와 함께 개방형 광 표준의 중요성을 강조한 이유가 여기 있습니다. ③ 멀티벤더 개방 생태계 — 협상력의 회복 OpenROADM 표준(YANG 모델·NETCONF API)을 준수하는 어떤 벤더의 ROADM, 앰프, 트랜스폰더도 함께 운영할 수 있습니다. OIF의 PlugFest에서 매년 다수 벤더의 실시간 상호운용성이 검증되고 있습니다. 이것이 의사결정권자에게 의미하는 바는 명확합니다. 기술 사이클마다 최적의 벤더를 선택할 수 있고, 특정 공급사의 가격 협상에서 실질적인 카드를 가질 수 있습니다. 인프라 주권을 되찾는 것입니다. 왜 지금인가 — AN 자율화는 '단순한 기반' 위에서만 작동한다 "AI는 복잡한 계층을 이해하지 못한다. AI에게 망의 제어권을 주려면, 먼저 망을 읽을 수 있는 구조로 만들어야 한다." 자율 네트워크(AN) 투자를 고려하는 조직이 가장 먼저 직면하는 현실이 있습니다. AI 기반 운영 플랫폼을 도입해도, 제어 대상인 망 자체가 이기종 계층과 폐쇄형 인터페이스로 뒤엉켜 있으면 AI는 제 역할을 할 수 없습니다. AN의 핵심 기술인 IBN(의도 기반 네트워킹)과 에이전틱 AI는 단일하고 개방된 인터페이스로 망 전체를 읽고 제어할 수 있을 때 비로소 작동합니다. OpenROADM이 제공하는 표준화된 YANG 모델과 NETCONF API는 바로 그 조건입니다. 불필요한 OTN 계층이 사라진 2계층 구조 위에서, AI는 광 경로와 IP 라우팅을 동시에 읽고 최적화할 수 있습니다. 복잡한 레이어 간 인터페이스를 해석하는 데 소모되던 자원이 실질적인 자율 최적화에 투입됩니다. OpenROADM은 AN 자율화의 선행 조건이자 가장 확실한 투자 근거입니다. 현실적 출발점: SMARTOPTICS DCP가 제시하는 경로 개방형 광 아키텍처로의 전환은 기존 망을 당장 전면 교체하는 것을 의미하지 않습니다. SMARTOPTICS의 DCP(Dynamic Connectivity Platform)는 이 전환을 현실적이고 단계적으로 가능하게 합니다. DCP는 기존 ROADM 환경에 OpenROADM 표준을 오버레이하는 방식으로 적용할 수 있습니다. 현재 운영 중인 라우터가 400G/800G ZR+ 모듈을 지원한다면, OTN 스위치를 우회하여 DCP OLS에 직접 연결하는 것이 가능합니다. 한 구간씩, 한 레이어씩 전환 비용과 리스크를 분산하면서 개방형 구조로 이행합니다. E&B 정보통신은 이 전환 과정에서 단순한 장비 공급이 아닌 아키텍처 설계 파트너로서 함께합니다. 현재의 비용 절감과 미래의 AI 자율화를 동시에 준비하는 인프라 전략, 그 구체적인 첫 걸음을 제안합니다. "광 계층을 단순화하지 않은 채 AI를 올리는 것은, 낡은 도로 위에 자율주행차를 올리는 것과 같다." 인프라 투자의 본질은 언제나 같습니다. 복잡성을 줄이고 유연성을 높이는 방향으로 진화하는 것. OpenROADM(OLS)은 그 방향의 현재 최선입니다. 그리고 그 선택이 다음 AI 자율화의 기반이 됩니다.

2026.04.02 16:41최홍석 컬럼니스트

스테이블코인 간 교환은 곧 외환거래…효율적 시스템 갖추려면

스테이블코인 간 교환은 사실상 외환(FX) 거래와 마찬가지다. USDT↔USDC, USDC↔EURC처럼 서로 다른 통화, 발행사, 체인 간 스왑은 슬리피지와 수수료에 극도로 민감하다. 수십억~수백억 단위의 대규모 거래에서는 몇 bp 차이가 손익을 가르기도 한다. 이 지점에서 인텐트-솔버 모델의 장점이 두드러진다. AMM처럼 항상 깊은 풀을 유지할 필요 없이, 솔버가 중앙화거래소(CEX), 장외거래(OTC), 기관 간 직거래 등에서 그때그때 필요한 유동성을 조달한다. 복수의 유동성 소스를 나눠 활용하고 개인간개인(P2P) 매칭을 동원해 가격 충격을 최소화한다. 동일 거래 기준 자동화 마켓메이커(AMM) 대비 슬리피지를 10분의 1 수준으로 줄일 수 있다. 또 윈터뮤트, 점프크립토 같은 글로벌 마켓메이커가 솔버로 참여하면서, 일반 사용자도 사실상 기관급 환전 서비스를 이용할 수 있는 구조가 완성되고 있다. “한국형 스테이블코인 FX 정산 레이어가 필요하다” 국내 블록체인 기업 수호아이오는 스테이블코인 기반 외환 정산 시스템 '이지스(Ezys) FX'를 “차세대 스테이블코인 FX·정산 인프라”로 정의한다. 은행·핀테크·환전 사업자가 솔버로 참여하는 인텐트 기반 FX 네트워크를 지향한다. 이지스FX에서 인텐트 제출자는 주로 외국인 관광객 결제 앱, 전자결제대행(PG)사, 증권사·거래소의 토큰증권(ST) 플랫폼, 글로벌 결제·송금 핀테크, 유통·플랫폼 기업 등이 해당된다. 일본인 관광객 대상 결제 서비스로 예를 들어 보자. 일본인 이용자는 엔화 기반 카드로 결제하고 싶어하고, 한국 가맹점은 원화 정산을 원한다. 이때 백엔드에서 스테이블코인 기반 FX가 발생한다. 이지스FX 구조에서 PG사가 던지는 인텐트는 "오늘 들어온 결제 중 5억원 상당 금액을 30초 안에 원화 스테이블코인으로 정산해줘. 최대 수수료는 0.3%, 스프레드는 0.1% 이내"로 간단하다. 그렇다면, 누가 솔버가 될 수 있을까. 이지스FX에선 은행·증권사·환전 사업자·글로벌 유동성 공급자(LP)가 솔버 역할을 맡는다. 인텐트가 들어오면 호가와 조건을 자동으로 제시한다. •A은행: "0.09% 스프레드, 5초 이내 정산" •B핀테크: "0.05% 스프레드, 20초 이내 정산" •C글로벌 LP: "0.03% 스프레드, 40초 이내 정산" 수호아이오의 이지스FX인 '이지스'는 인텐트 발신자가 사전에 등록한 정책에 따라 최적의 솔버를 선택한다. 정산 속도 수수료 등의 효과 이지스FX 활용 시 기업 입장에서 체감할 수 있는 변화는 세 가지다. 첫째, 정산 속도다. 기존 은행 간 해외 송금은 T+1~T+2(1~2영업일)가 표준이다. 그러나 이지스FX에서는 수십 초~수 분 내 정산이 가능하다. 결제 사업자 입장에서는 환 리스크 노출 시간이 사실상 제로에 가까워진다. 두번째는 수수료다. 전통 은행 FX 거래에서 스프레드는 0.3~1.0% 수준이 일반적이지만, 복수 솔버 경쟁이 발생하는 이지스 구조에서는 0.03~0.1% 수준으로 줄일 수 있다. 월 거래액 100억원 기준으로 연간 수 천만원의 비용 절감 효과를 볼 수 있다. 세번째는 운영 복잡도다. PG사나 핀테크가 직접 체인·브릿지·거래소를 연동할 필요 없이, 인텐트 한 줄로 복잡한 FX 로직을 외부화할 수 있다. 국경을 넘나드는 FX 허브 이지스FX는 국내 결제·송금 시장만 겨냥하지 않는다. 수호아이오는 유럽 규제형 토큰증권 거래소 21X와 제휴를 맺고, 원화 기반 스테이블코인이 유럽 토큰증권 시장으로 흘러갈 수 있는 인프라를 구축하고 있다. 프로토콜 카우스왑, 유니스왑X가 온체인에서 하던 역할을, 이지스FX가 원화·기관·규제 환경에 맞게 재구성해 수행한다. 리스크도 수반...모니터링 체계 갖춰야 효율이 올라가면 새로운 리스크가 따라오기도 한다. 인텐트-솔버 구조는 새로운 유형의 리스크를 수반한다. 리스크는 기존의 스마트컨트랙트 코드 감사만으로 잡아낼 수 없다. 시장 불안 상황에서 솔버들이 자금을 회수하면, 계약 코드가 안전하더라도 실행이 지연되거나 중단될 수 있다. 시스템이 '기술적으로는 문제없음'이지만 '경제적으로는 작동 불가'인 상태가 될 수 있다. 불투명성도 문제다. 솔버의 실행 전략은 비공개다. 시스템은 유동성이 조용히 특정 솔버에게 집중될 때까지 외관상 정상적으로 보일 수 있다. 집중화 압력은 구조적 문제로 이어진다. 자본력이 풍부한 솔버일수록 더 낮은 스프레드로 경쟁할 수 있어, 시간이 지남에 따라 소수 업체가 주문 흐름을 장악하는 현상이 심화된다. 이미 카우스왑과 유니스왑X은 소수의 전문 솔버가 전체 거래량의 80% 이상을 처리하는 현상이 나타나고 있다. 이는 치명적인 결함은 아니지만, 인텐트 기반 프로토콜을 모니터링해야 한다는 것을 보여준다. 감사만으로는 충분하지 않으며, 유동성 분배·솔버 집중도·경제적 스트레스에 대한 회복력 또한 핵심 지표로 활용해야 한다. 업계가 이러한 딜레마를 크게 세 가지 방식으로 해결하고자 한다. 솔버 다양성 정책(특정 솔버의 점유율 상한 설계), 최소 응찰 의무화(소액 인텐트에도 반드시 응찰하도록 하는 규칙), 스마트컨트랙트 기반 자동 패널티(이행 불이행 시 온체인에서 즉시 집행)가 그것이다. 표준화가 시작됐다…ERC-7683 인텐트 기반 크로스체인 시스템이 확산되면서, 각 프로토콜마다 다른 인텐트 포맷을 통일하려는 움직임이 본격화되고 있다. 이더리움 생태계에서 논의 중인 프로토콜 ERC-7683은 크로스체인 인텐트 프레임워크를 공식 표준으로 정의하고, 네트워크 간 상호운용성을 개선하는 것을 목표로 한다. 표준화의 의미는 크다. 인텐트 포맷이 통일되면 사용자는 어떤 프로토콜을 사용하든 동일한 방식으로 인텐트를 제출할 수 있고, 솔버는 여러 네트워크의 인텐트를 단일 시스템으로 처리할 수 있다. 인텐트 기반 FX 인프라 간 공통 언어를 쓰는 셈이다. 인텐트-솔버 아키텍처의 확산은 개발자와 아키텍트의 역할도 바꾼다. 핵심은 두 가지다. 어떤 의도 포맷을 정의할 것인가(통화쌍, 금액, 최대 스프레드, 마감 시간, 리스크 허용 범위, 규제 요건의 구조화), 그리고 어떤 솔버 네트워크를 설계·개방할 것인가(참여 자격, 호가 정책, 담합 리스크 감시 체계)가 핵심 설계 과제다. 정교한 설계를 위해 점검해야 할 것 인텐트-솔버 아키텍처 설계 시 점검 사항은 세 가지다. 첫째, 서비스의 FX 처리 구조를 파악하는 것이다. PG사·결제 플랫폼을 운영하거나 연동하고 있다면, 현재 스프레드·정산 시간·실패율을 수치로 기록해둬야 한다. 둘째, 인텐트를 정의할 수 있는 역량을 키워야 한다. “어떤 조건이면 이 거래를 수락하겠다”는 비즈니스 로직을 구조화된 인텐트 포맷으로 표현해야 한다. 앞으로 FX 인프라 협상력의 핵심이 될 것으로 보인다. 셋째, 솔버 네트워크 참여 가능성을 타진해야 한다. 유동성이나 FX 역량이 있는 기관이라면, 솔버로 참여해 수수료·스프레드 수익을 가져가는 구조를 검토할 시점이다. 크로스체인 인텐트는 단순한 기술 개선이 아니다. 사용자가 브리지·가스 토큰·최종성 기간을 이해하도록 강요하는 대신, 결과를 명시하고 복잡성을 시장에 위임하도록 하는 철학적 전환이다. 앞으로는 누가 더 정교하게 인텐트와 솔버 네트워크를 설계할 수 있는지가 경쟁력이다. 스테이블코인을 배달 앱 쓰듯 쉽게 환전하는 시대는 이미 시작됐다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다. • 2025 ~ 현재: Noone21 대표이사, 포항공대 CCBR(Center for Cryptocurrency & Blockchain Research) 부센터장 • 2023 ~ 현재: 수호아이오 사업 및 전략 고문 • 2018 ~ 2023: 람다256 대표이사 • 2016 ~ 2018: SK텔레콤 전무이사 (서비스 플랫폼) • 2008 ~ 2016: 삼성전자 무선사업부 상무이사 (삼성페이, 챗온)

2026.03.25 10:16박재현 컬럼니스트

"스테이블코인도 배달 앱 쓰듯 쉽게 환전할 수 있어야"

지난 2024년 글로벌 스테이블코인 일평균 결제 거래량은 약 270억 달러를 넘어섰다. 이는 비자(VISA)·마스터카드의 일평균 결제 규모와 맞먹는 수준이다. 스테이블코인의 결제 규모는 커졌지만, 정작 실제 거래에 쓰려면 통화 간 교환인 온체인 외환(FX)이 필수다. USDT를 원화 스테이블코인으로, 엔화 스테이블코인을 EURC로 바꾸는 과정이 매끄럽지 않으면 스테이블코인은 결제 수단이 아니라 보유 수단에 그친다. 바로 이 지점에서 기존 자동화 마켓메이커(AMM) 방식의 한계가 수면 위로 드러나고 있다. 동시에 인텐트(의도)와 솔버(해결안 제공자) 아키텍처가 대안으로 빠르게 부상하고 있다. AMM에서 인텐트로…셀프 주유소와 배달 앱 차이 항공편을 예약한다고 상상해보자. 이 경우 우리가 직접 항공사에 전화하지 않고, 연료 계약을 협상하지도 않고, 항공 교통 관제를 조율하지도 않는다. 단지 앱을 열고 날짜를 입력하고 원하는 시간대의 비행을 예약, 결제하면 된다. 나머지는 시스템이 처리한다. 온체인 자산 교환은 이 방식과는 반대다. 유니스왑 같은 AMM 중심 구조에서는 사용자가 직접 어느 풀에 유동성이 얼마나 있는지, 어떤 슬리피지를 감수할지, 어떤 체인에서 실행할지 모두 결정해야 했다. 마치 비행기 탑승 전 항공기 정비 매뉴얼과 미국 연방항공청(FAA) 규정을 모두 이해해야 하는 일종의 '셀프 주유소' 모델인 셈이다. 문제는 규모가 커질수록 AMM의 비효율이 선명해진다는 것이다. 100억원 규모의 USDT→USDC 스왑을 단일 AMM 풀에 던지면 슬리피지가 0.3~0.5%까지 발생한다. 10bp(0.1%)가 '비싼 수준'으로 취급되는 기관 FX 시장에서 이는 용납하기 어려운 비용이다. 인텐트 기반 모델은 이 경험을 근본적으로 바꾼다. 사용자는 더 이상 어디서, 어떻게 바꿀지 고민하지 않아도 된다. "솔라나에 USDC 500개가 있는데, 이더리움 지갑으로 이더리움 1개를 받고 싶다"처럼 원하는 결과(조건)만 정하고 서명하면 된다. 경로를 지정하지 않고, 유동성을 관리하지 않고, 결제를 조정하지 않아도 된다. 결과는 사용자가 결정하고, 나머지는 시스템이 알아서 처리한다. "실행 먼저, 정산은 나중에"…패러다임의 핵심 인텐트 기반 시스템이 기존 브리지와 근본적으로 다른 점은 순서에 있다. 전통적인 크로스체인 브리지는 엄격하고 순차적인 흐름을 따른다. 자산이 소스 체인에 잠기고, 암호학적 증명이 생성 검증된 후에야 목적지 체인에서 자금이 해제된다. 모든 단계는 다음 단계가 시작되기 전에 암호학적 확인이 이뤄져야 한다. 수학적 원리가 정확성을 보장하지만, 안정성에는 대가가 따르기 마련이다. 그 대가는 지연 시간이다. 초기 레이어(L)2 브리지에서는 며칠이 걸리기도 했고, 지금도 수 초~수 분을 대기해야 한다. 인텐트 시스템은 이 모델을 완전히 뒤집는다. 실행이 먼저 이뤄지고, 정산은 나중에 이뤄진다. 암호학적 최종성을 기다리지 않고도 자금을 즉시 수령할 수 있다. 검증은 백그라운드에서 비동기적으로 처리된다. 기존 브리지는 시스템이 반응할 때까지 사용자가 기다려야 했다면, 인텐트 기반 시스템은 사용자가 다른 작업을 하는 동안에도 시스템이 작동한다. 중요한 것은 인텐트가 암호학적 보장을 제거하는 것이 아니라는 점이다. 단지 그 보장을 정산 계층으로 옮긴다. 사용자는 솔버의 유동성을 바탕으로 즉각적인 실행을 경험하고, 암호학적 검증은 그 이후에 이뤄진다. 인텐트-솔버의 교과서 인텐트-솔버 구조는 이미 온체인에서 충분히 검증된 모델이다. 그 중에서도 카우스왑(CoW Swap), 유니스왑X, 어크로스 프로토콜은 공통 패턴을 공유한다. 세 프로토콜의 공통점은 분명하다. 사용자는 인텐트만 제출하고, 거래 실패·경로 선택·가스비 최적화는 솔버가 책임지는 구조다. 솔버는 스프레드·수수료에서 보상을 가져가고, 경쟁을 통해 자연스럽게 효율이 높아진다. 경제적으로 보면, 솔버는 전통적인 브리지 운영자보다 고빈도 유동성 공급자(마켓메이커)에 더 가깝다. 카우스왑의 경우, 동일한 거래를 일반 AMM에서 실행했을 때 대비 평균 0.2~0.4%의 가격 개선 효과가 있다. 100억원 규모의 거래라면 2000만~4000만원의 비용 차이가 발생한다. 속도만의 문제가 아냐…3가지 트릴레마 크로스체인 전송 시 단축되는 밀리초는 어딘가에서 비롯된다. 속도는 매혹적이지만, 공짜가 아니다. 실제로 크로스체인 인프라에는 동시에 최적화할 수 없는 세 가지 요소가 존재한다. •엄격한 암호학적 최종성 → 느리다 •즉각적인 사용자 경험 → 유동성이 필요하다 •풍부한 유동성 → 솔버 집중화를 촉진한다 전통적인 브리지는 최종성을 극대화하며, 의도 기반 시스템은 속도를 극대화한다. 유동성 집중은 조용한 압력 지점이 된다. 이 트릴레마(3개 중 2개만 선택 가능한 구조적 딜레마)는 각 프로토콜의 아키텍처 선택에 그대로 반영된다. 실제로 브릿지 프로토콜 어크로스처럼 인텐트 기반으로 설계된 시스템은 수 초 내 실행이 가능하다. 반면 크로스체인 브릿지 프로토콜인 스타게이트(Stargate)의 버스 모드처럼 배치 처리 방식은 비용을 절감하는 대신 지연 시간이 늘어난다. 서클의 USDC 전용 크로스체인 전송 시스템인 CCTP는 소각-발행 구조로 유동성 풀 자체를 배제하지만, 특정 자산에만 적용된다. 체인링크의 프로토콜 CCIP는 프로그래밍 가능성과 강력한 보안을 우선시하는 메시징 레이어로, 단순 토큰 전송이 아닌 복잡한 크로스체인 로직 처리에 강점이 있다. 이렇듯 정답은 하나가 아니다. 전송 규모, 리스크 허용 범위, 사용자 기대치, 자산 유형에 따라 적합한 아키텍처가 달라진다. 기관 재무 부서는 CCIP 방식의 암호학적 보증을 선호할 수 있고, 일반 사용자는 어크로스 방식의 빠른 속도를 선호한다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다. • 2025 ~ 현재: Noone21 대표이사, 포항공대 CCBR(Center for Cryptocurrency & Blockchain Research) 부센터장 • 2023 ~ 현재: 수호아이오 사업 및 전략 고문 • 2018 ~ 2023: 람다256 대표이사 • 2016 ~ 2018: SK텔레콤 전무이사 (서비스 플랫폼) • 2008 ~ 2016: 삼성전자 무선사업부 상무이사 (삼성페이, 챗온)

2026.03.25 10:16박재현 컬럼니스트

흩어진 AI를 하나로…HPE, 엔비디아와 'AI 그리드'로 통신 시장 공략

HPE가 분산형 인공지능(AI) 인프라를 하나의 지능형 시스템으로 통합하는 'AI 그리드'를 공개하며 통신사업자(SP) 대상 AI 서비스 시장 공략에 나섰다. 초저지연·고신뢰 연결을 기반으로 엣지부터 데이터센터까지 분산된 AI 환경을 통합해 새로운 서비스 창출을 지원한다는 전략이다. HPE는 최근 'GTC 2026'에서 엔비디아 레퍼런스 아키텍처를 기반으로 한 엔드투엔드 솔루션 'HPE AI 그리드'를 발표했다고 23일 밝혔다. HPE AI 그리드는 지역 및 초엣지 환경에 분산된 AI 팩토리와 추론 클러스터를 안전하게 연결하는 것이 특징이다. 이를 통해 서비스 프로바이더는 수천 개의 분산형 추론 사이트를 구축·운영하면서 개별 인프라를 하나의 통합 시스템처럼 관리할 수 있다. 최근 AI 네이티브 애플리케이션 확산으로 예측 가능한 저지연 인프라 수요가 빠르게 증가하고 있다. HPE AI 그리드는 통합 오케스트레이션을 기반으로 초저지연 성능과 제로 터치 프로비저닝, 자동화된 보안을 제공해 실시간 AI 서비스 구현을 지원한다. 이 솔루션은 HPE 주니퍼 네트워킹 기반 멀티클라우드 라우팅과 WAN 자동화, 보안 기능을 포함해 통신사업자급 네트워크 환경을 지원한다. 여기에 엔비디아 RTX 프로 6000 블랙웰 그래픽처리장치(GPU)와 블루필드 데이터 처리 유닛(DPU), 스펙트럼-X 스위치 등 가속 컴퓨팅 인프라를 결합해 분산형 AI 추론 환경을 구현한다. 기존 전력 및 네트워크 인프라를 활용해 무선접속망(RAN) 기반 AI 인프라로 전환할 수 있도록 설계된 점도 특징이다. 리테일 개인화, 제조 예측 정비, 헬스케어 엣지 추론, 통신사업자급 AI 서비스 등 다양한 분야에서 실시간 AI 활용을 지원한다는 설명이다. 실제 적용 사례도 제시됐다. 컴캐스트는 HPE AI 그리드를 기반으로 분산된 네트워크 환경에서 실시간 엣지 AI 추론을 테스트하고 있으며 소형언어모델(sLM)을 활용한 AI 기반 프론트 데스크 서비스 구현을 추진 중이다. HPE는 금융 프로그램을 통해 AI 인프라 도입 지원도 확대한다. 네트워크 AI옵스(Ops) 소프트웨어를 지원하는 프로그램과 AI 네트워킹 리스 계약 시 비용 절감 혜택을 제공해 기업의 도입 부담을 낮춘다는 방침이다. 라미 라힘 HPE 네트워킹 부문 총괄은 "HPE AI 그리드는 엔비디아와의 협력을 통해 서비스 프로바이더가 분산형 추론 환경을 단일 시스템처럼 운영할 수 있도록 지원한다"며 "예측 가능하고 초저지연의 성능을 바탕으로 고객 혁신을 가속화하고 새로운 서비스 창출을 가능케 할 것"이라고 말했다. 크리스 펜로즈 엔비디아 텔코 부문 글로벌 부사장은 "AI 그리드는 지리적으로 분산된 AI 클러스터를 통합해 AI 워크로드를 최적의 위치에 배치함으로써 성능과 비용, 지연시간을 균형 있게 관리한다"며 "HPE와 협력해 가속 컴퓨팅과 통신사업자급 인프라를 결합함으로써 분산형 추론을 위한 단일 지능형 네트워크를 구축할 것"이라고 밝혔다.

2026.03.23 15:31한정호 기자

AWS, AT&T와 통신 인프라 현대화 협력…클라우드·네트워크 역량 결집

아마존웹서비스(AWS)가 클라우드·인공지능(AI) 역량과 광섬유 네트워크를 결합해 차세대 통신 인프라 발전에 속도를 낸다. AWS는 AT&T, 아마존 레오와 미국 통신 인프라 현대화와 차세대 클라우드 혁신을 위한 협력을 추진한다고 12일 밝혔다. 이번 협력은 AT&T의 광범위한 광섬유 네트워크와 AWS의 보안·안정성·고성능 클라우드 인프라, AI 역량을 결합해 탄력적이고 확장 가능한 연결 솔루션을 구축하는 데 초점을 맞췄다. 세 기업은 데이터센터 연결, 클라우드 전환, 위성 네트워크 확장 등 다양한 영역에서 협력을 확대할 계획이다. AT&T는 내부 운영 효율성과 전환 속도를 높이기 위해 일부 온프레미스 워크로드를 AWS의 온프레미스 관리형 하이브리드 클라우드 서비스 'AWS 아웃포스트'로 마이그레이션할 예정이다. 또 AWS 프로페셔널 서비스의 지원을 받아 '아마존 Q 디벨로퍼'와 에이전틱 서비스 등을 활용해 네트워크 서비스 활성화 기능을 AWS로 이전하는 작업을 진행 중이다. AWS의 클라우드 인프라 확장에도 AT&T 네트워크 역량이 활용된다. AT&T는 고용량 광섬유 네트워크로 AWS 데이터센터를 연결해 AI 애플리케이션 구축·운영에 필요한 고성능 클라우드 인프라를 지원할 계획이다. AT&T는 아마존의 저궤도 위성 네트워크 '아마존 레오'와도 협력한다. AT&T는 아마존 레오를 활용해 네트워크 연결 범위를 확대하고 기존 네트워크 인프라가 닿지 않는 지역의 기업 고객에 고정형 광대역 인터넷 서비스를 제공할 방침이다. 숀 하클 AT&T 비즈니스 제품 담당 수석부사장은 "우리 광섬유 인프라와 AWS의 클라우드 역량을 결합하고 데이터센터를 연결해 미래 인프라를 구축할 것"이라며 "탄력적이고 확장 가능하며 지능적인 연결 생태계를 만들 것"이라고 밝혔다. 얀 호프마이르 AWS 통신 부문 부사장은 "AT&T의 첨단 광섬유 네트워킹 리더십과 우리 클라우드·AI 역량을 결합함으로써 미국 전역 고객에게 혁신적인 서비스를 제공할 것"이라고 말했다.

2026.03.12 16:53한정호 기자

HPE, AI 인프라 수요에 실적 전망 상향…시장 예상치 웃돌아

HPE가 인공지능(AI) 인프라 수요 확대에 힘입어 시장 예상치를 웃도는 매출 전망을 제시하며 실적 기대감을 높였다. AI 데이터센터 구축과 고속 네트워크 장비 수요가 늘어나면서 서버·네트워크 사업 전반에서 성장 동력이 강화되는 모습이다. HPE는 다음 달 마감 분기 매출이 96억~100억 달러(약 14조 1100억~14조 6980억원)로 전망된다고 9일(현지시간) 발표했다. 이는 미국 애널리스트 평균 예상치인 95억 7000만 달러(약 14조 707억원)를 웃도는 수치다. 일부 항목을 제외한 주당순이익(EPS)은 0.51~0.55달러로 제시했으며 이는 시장 평균 전망치인 0.53달러와 비슷한 수준이다. 회사는 올해 연간 매출 성장 전망을 유지하는 동시에 조정 EPS 전망을 기존 2.30~2.50달러 범위로 상향 조정했다. 시장에서는 평균 2.35달러 수준을 예상해 왔다. AI 인프라 구축 수요 확대가 실적 전망 상향의 배경으로 꼽힌다. HPE에 따르면 AI 워크로드 확산으로 데이터센터 네트워크 장비 수요가 빠르게 증가하고 있다. 데이터센터 스위칭 장비 주문은 전년 대비 약 40% 증가했고 라우팅 장비 주문도 20%대 중반 성장한 것으로 나타났다. 이러한 네트워크 장비는 데이터센터 내 수천~수만 대 서버 간 데이터를 빠르게 전송하는 핵심 인프라다. HPE는 네트워크 사업을 미래 성장 축으로 보고 관련 투자를 확대 중이다. 회사는 지난해 약 130억 달러(약 19조 1113억원)를 들여 네트워크 장비 업체 주니퍼 네트웍스를 인수했으며 이를 통해 데이터센터 네트워크 사업 경쟁력을 강화하고 있다. 최근 분기 실적도 견조한 흐름을 보이고 있다. HPE의 회계연도 1분기 매출은 전년 동기 대비 18% 증가한 93억 달러(약 13조 6719억원)를 기록했고 조정 EPS는 0.65달러로 집계됐다. 다만 클라우드·AI 사업 매출은 서버 판매 감소 영향으로 63억 달러(약 9조 2622억원)로 전년 대비 2.7% 줄었다. 회사 측은 메모리 반도체 공급 부족이 당분간 이어질 것으로 보고 가격 정책을 조정하고 있다. 일부 고객 공급을 제한하고 기업 고객이나 국가 단위 클라우드 프로젝트 등 수익성이 높은 사업에 집중하는 전략도 병행하고 있다. 또 각국 정부가 자체 AI 클라우드 구축에 나서면서 관련 계약 수주 경쟁도 치열해지고 있다고 밝혔다. 다만 이같은 프로젝트는 계약 체결과 미국 수출 규제 승인 절차가 길어 실제 매출 반영은 올해 하반기 이후가 될 가능성이 크다는 설명이다. 이번 실적 전망 발표 이후 HPE 주가는 시간외 거래에서 약 2% 상승했다. 안토니오 네리 HPE 최고경영자(CEO)는 "공급망 부족과 비용 인플레이션이 맞물린 역동적인 환경 속에서도 우리는 강력한 실행력을 유지하며 대응하고 있다"고 밝혔다.

2026.03.10 09:47한정호 기자

데이터센터 밖으로 확장된 AI…서버 업계, '엣지 AI' 경쟁 가속

인공지능(AI) 인프라의 중심이 데이터센터에서 현장으로 이동하고 있다. 생성형 AI 확산으로 대규모 모델 학습뿐 아니라 실시간 추론 수요가 빠르게 증가하면서 제조 현장, 매장, 통신 기지국 등 데이터가 생성되는 장소에서 바로 AI를 활용하는 '엣지 AI'가 차세대 인프라로 떠오르고 있다. 5일 업계에 따르면 글로벌 서버 기업들은 데이터센터 중심의 기존 AI 인프라 전략을 넘어 제조·리테일·통신·로봇 등 산업 현장에서 AI 연산을 처리하는 엣지 인프라 구축 경쟁에 속도를 내고 있다. 특히 델 테크놀로지스, HPE, 슈퍼마이크로 등 주요 서버 기업들이 엣지 환경에서 AI 추론을 수행할 수 있는 특화 서버와 네트워크 솔루션을 잇달아 선보이며 시장 공략에 나서고 있다. 엣지 AI는 데이터를 중앙 데이터센터로 보내 처리하는 대신 데이터가 생성되는 현장에서 즉시 분석과 의사결정을 수행하는 방식이다. 실시간 처리가 필요한 산업에서 지연 시간을 줄이고 네트워크 비용을 낮출 수 있다는 점에서 스마트팩토리·리테일·자율주행·로봇 등 다양한 산업에서 활용 가능성이 주목받고 있다 포춘비즈니스인사이트 등 주요 시장조사업체에 따르면 글로벌 엣지 AI 시장 규모는 2024년 약 200억 달러(약 29조원) 수준에서 2030년 1천억 달러(약 146조원)로 연평균 20% 이상 성장할 전망이다. 서버 기업들은 이같은 흐름에 맞춰 엣지 환경에 최적화된 AI 인프라를 잇따라 내놓고 있다. 델 테크놀로지스는 최근 실외 환경에서도 AI 워크로드를 처리할 수 있는 서버 '파워엣지 XR9700'을 공개하며 엣지 AI 시장 공략을 강화했다. 해당 서버는 전신주나 옥상 등 외부 환경에서도 설치할 수 있도록 설계됐으며 통신 기지국과 원격지에서 클라우드 무선 접속망(RAN)과 엣지 AI 애플리케이션을 직접 실행할 수 있도록 지원한다. HPE 역시 엣지 인프라 전략을 강화하고 있다. MWC26에서 'HPE 프로라이언트 컴퓨트 EL9000 섀시'와 'EL140 젠12 서버' 기반 AI 인프라를 공개하며 코어 데이터센터부터 통신 기지국 등 엣지 환경까지 AI 워크로드를 처리하는 플랫폼을 제시했다. 해당 솔루션은 통신사와 서비스 사업자가 증가하는 AI 트래픽을 처리하고 엣지 환경에서 AI 서비스를 제공할 수 있도록 설계된 것이 특징이다. 슈퍼마이크로도 통신 네트워크와 결합한 엣지 AI 인프라 확대에 나섰다. 회사는 AI-RAN을 지원하는 서버 시스템을 공개하고 노키아·SK텔레콤 등 글로벌 통신사와 협력해 통신망에서 AI 워크로드를 처리하는 분산형 인프라 활용 사례를 선보였다. 이 시스템은 그래픽처리장치(GPU) 기반 AI 서버를 활용해 엣지 AI를 위한 네트워크 최적화와 자동화를 지원한다. 글로벌 네트워크 기업들도 엣지 AI 경쟁에 뛰어들고 있다. 시스코는 분산형 AI 환경을 지원하기 위한 '유니파이드 엣지' 플랫폼을 공개하며 컴퓨팅·네트워킹·스토리지·보안을 하나의 인프라로 통합했다. 데이터가 생성되는 지점에서 실시간 AI 추론을 수행하는 분산형 AI 환경을 구현한다는 전략이다. 클라우드 기업 역시 AI 추론을 엣지로 확장하는 움직임을 보이고 있다. 대표적으로 아카마이는 엔비디아 AI 인프라를 기반으로 한 '인퍼런스 클라우드'를 공개하며 데이터센터에서 인터넷 엣지까지 AI 추론을 확장하는 분산형 AI 플랫폼 구축에 나서고 있다. 스마트 커머스와 실시간 금융 의사결정, 산업용 로봇 등 다양한 AI 서비스에 대응한다는 계획이다. 업계에선 엣지 AI가 향후 피지컬 AI 확산을 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 공장 자동화와 자율주행, 로봇 등 물리 세계와 연결된 AI 서비스는 밀리초 단위의 실시간 데이터 처리 능력이 요구되기 때문이다. 이에 기존 데이터센터 중심 AI 인프라와 함께 산업 현장과 초고속 네트워크 환경에 맞춤화된 분산형 엣지 AI 인프라 역시 성장할 것이라는 전망이 나온다. 데이터센터 업계 관계자는 "AI 산업이 모델 학습 중심에서 실제 서비스와 산업 적용 단계로 넘어가면서 데이터가 생성되는 현장에서 AI를 처리하는 엣지 인프라가 주목받고 있다"며 "향후 스마트팩토리와 로봇, 자율주행 등 피지컬 AI 확산과 함께 엣지 AI 서버 시장도 성장할 것"이라고 말했다.

2026.03.05 14:12한정호 기자

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호 기자

에스넷시스템, 3분기 실적 회복세…전년비 63% 개선

에스넷시스템이 올해 3분기 기존 공공·제조 고객 중심의 안정적인 사업 운영을 바탕으로 견조한 실적을 유지했다. 에스넷시스템은 올해 3분기 누적 연결 기준 매출 2천660억원, 영업손실 9억원을 기록했다고 14일 공시를 통해 밝혔다. 영업이익은 전년 동기 대비 약 63% 개선되며 손익 구조가 뚜렷한 회복세를 보였다. 이는 주요 고객군을 중심으로 안정적인 매출 흐름을 이어간 결과다. 에스넷시스템은 공공·민간 부문에서 클라우드 네트워크(SDN) 확장, 정보시스템 유지관리, 인프라 고도화 프로젝트 등을 수행하며 견조한 사업 성과를 달성했다. 또 관계사 굿어스의 제조·의료 분야 프로젝트 수행, 굿어스데이터의 교육 분야 기술 서비스 확대, 굿어스스마트솔루션의 제조 분야 네트워크 구축 사업 수주 등 그룹 차원의 협력 시너지가 전반적인 실적 개선에 힘을 보탠 것으로 풀이된다. 에스넷시스템은 4분기에도 안정적인 사업 흐름을 이어갈 것으로 전망하고 있다. 기존 공공기업 대상의 대규모 수주는 물론 해외 주요 제조 거점의 인프라 구축 등 다양한 프로젝트가 예정돼 있어 성과에 대한 기대감이 형성되고 있다. 에스넷시스템 관계자는 "이번 3분기 실적 개선은 안정적인 사업 운영과 그룹 차원의 시너지가 결합된 결과"라며 "4분기에는 예정된 공공·제조 중심의 대형 프로젝트 수행을 통해 수익성을 더욱 높이는 한편, 인공지능(AI) 인프라 사업의 경쟁력 강화와 서비스 확장을 통해 미래 성과로 이어가겠다"고 밝혔다.

2025.11.14 16:18한정호 기자

통신망 고도화 안 이뤄지면 AI 발전도 없다

“도로가 없는데 자율주행차가 운행하길 바라는 것과 같다.” 인공지능(AI) 3대 강국 도약을 논의하면서 AI 모델과 서비스 개발 논의는 무르익고 있지만, 데이터 학습과 전송을 위한 네트워크 인프라에 대한 고민이 상대적으로 적다는 점을 지적한 의견이다. 장경희 6G포럼 집행위원장은 19일 국회서 열린 6G AI 네트워크 정책토론회에서 “AI 서비스 활성화는 네트워크 인프라의 진화 없이는 불가능하다”며 “AI와 네트워크의 관계는 빼놓고 설명할 수가 없다”고 말했다. 오픈랜인더스트리얼라이언스의 김동구 집행위원장 역시 “AI 데이터센터 논의가 한창인데 앞으로 데이터센터가 계속 만들어지면 데이터 학습이나 모델 개발을 한 곳에서 못하고 여러 곳에서 분산 컴퓨팅을 써야 하고 이 때 네트워크의 역할이 매우 크다”고 짚었다. 그러면서 “피지컬 에이전트 AI 시대가 되면 외부에 있는 데이터를 모두 끌어올려야 하는데 역시 네트워크의 역할이 매우 중요해진다”고 강조했다. 이경한 서울대 교수는 “AI 3대 강국의 지표를 따질 때 원천 기술을 잘 가진 나라를 볼 수도 있겠지만, 그 나라 국민들이 얼마나 AI를 잘 활용할 수 있고 차세대 서비스를 받아들일 수 있느지도 살펴야 한다”며 “결국 AI 서비스를 제대로 제공하기 위해서는 전국적으로 얼마나 고도화된 네트워크 인프라를 갖추냐가 중요한 지점”이라고 설명했다. 결국 네트워크 인프라가 AI 발전의 결정적인 역할을 하는 중추라는데 학계의 뜻이 모인 셈이다. 네트워크 인프라 구축을 담당하는 통신사들도 같은 목소리를 냈다. 아울러 네트워크를 위한 AI와 AI를 위한 네트워크를 구분해 접근하는 시각을 보였다. 류탁기 SK텔레콤 인프라기술본부장은 “AI 시대라고 한다면 실생활에 인텔리전스 서비스가 속속들이 들어가있는 것을 뜻하게 될 것”이라며 “그런 인텔리전스의 본질은 커넥티비티”라고 했다. 이어, “네트워크 안에서 모든 게 연결돼 있고 실현하는 게 진정한 AI”라며 “네트워크도 AI를 잘 수용해야 하지만 네트워크가 AI 서비스가 잘 이뤄지도록 하는 두 가지 방향을 살펴야 한다”고 설명했다. 이상헌 LG유플러스 NW선행개발담당은 “AI를 활용해 네트워크를 얼마나 잘 운용하느냐의 문제가 있고, AI 서비스 발전을 위한 네트워크 인프라를 어떻게 구현할지 연구가 필요한 상황”이라고 밝혔다. 그러면서 “AI 환경에서 네트워크 인프라 성능이나 대역폭을 높이는 점도 있지만, 어떻게 해야 AI 자원을 네트워크 자원과 잘 결합하냐의 문제가 있다”며 “AI 서비스와 네트워크를 플랫폼을 유기적으로 결합시키는 문제에 대한 선행 연구가 이뤄져야 한다”고 덧붙였다. 네트워크 인프라에 그치지 않고 보안 문제까지 고민해야 한다는 의견도 주목된다. 이종식 KT 미래네트워크연구소장은 “AI와 양자컴퓨터가 사이버 보안을 위협하며 고도화된 공격이 이뤄질 수도 있는데 똑같이 그 기술로 네트워크 보안을 방어해야 하는 점도 있다”며 “보안 문제를 해결한다는 자체는 네트워크 고도화돠 고신뢰성으로 진화하는 점에서 통신 네트워크를 확장된 개념으로 봐야 한다”고 내다봤다. 이어, “데이터센터 안에서 데이터가 서비스 형태로 고객에 전달될 때 엔드투엔드(종단간) 모든 측면을 보지 않으면 데이터 유출이 발생할 때 데이터센터에서 이뤄진 건지 통신망에서 이뤄진 건지 책임 소재가 불분명하기 때문에 네트워크의 개념에 대한 확장이 필요할 것”이라고 주장했다. 이날 토론회를 주관한 정보통신기획평가원의 홍진배 원장은 “CDMA, 5G 세계 최초 상용화로 이룬 그간 우리의 위상을 넘어 또 한번의 AI 통신강국 신화 창조로 AI G3 국가 도약의 발판을 마련하는 중요한 계기가 됐다”고 했다. 공동 주관을 맡은 한국전자통신연구원의 방승찬 원장 역시 “AI의 급속한 발전에 따라 통신·네트워크 기술의 혁신을 촉진하도록 6G AI 네트워크 연구개발과 산업계, 학계, 연구계의 역량 결집에 최선을 다하겠다”고 밝혔다.

2025.08.19 16:45박수형 기자

NIA, 세계 첫 'AI-RAN' 상용화 도전…글로벌 협의체 합류

한국지능정보사회진흥원(NIA)이 인공지능(AI) 3대 강국 실현에 힘을 싣기 위해 세계에서 가장 앞선 AI 무선 인프라 구축 활동에 나선다. NIA는 'AI-RAN 얼라이언스' 멤버로 참여해 AI 무선 인프라 구축을 주도할 계획이라고 21일 밝혔다. AI-RAN은 AI와 무선통신기술(RAN)을 융합해 휴머노이드 로봇·드론·자율주행차 등 피지컬 AI를 실현하기 위한 차세대 핵심 인프라로 꼽힌다. AI-RAN 얼라이언스는 스페인 바르셀로나에서 개최된 'MWC 2024'에서 엔비디아·마이크로소프트(MS)·소프트뱅크·에릭슨·삼성전자 등 전 세계 AI와 통신을 주도하는 기업·대학·연구소가 구성한 글로벌 협의체이다. NIA는 이번 얼라이언스 참여를 통해 글로벌 리더들과의 협력해 AI 기술을 무선통신에 적용하는 사업을 추진하고 공공·재난·국방 등 혁신적 AI 서비스를 발굴해 국가 현안 해결과 통신망 자원 효율화를 위한 국책 과제를 기획할 예정이다. 특히 그간 축적한 네트워크와 AI 전문성을 바탕으로 국내 기업·대학·연구소·유관기관 등과의 협력을 통해 세계 최고 수준의 AI 무선 인프라 구축을 주도해 나간다는 목표다. NIA는 AI-RAN을 현재 진행 중인 오픈랜, AI 기반 5G 어드밴스드 테스트베드, 차세대 네트워크 선도망 등과 연계하여 발전시킬 계획이다. AI-RAN 얼라이언스에 참여 중인 국내 통신 3사는 AI-RAN을 통해 네트워크 자동화를 넘어 네트워크가 스스로 학습하고 판단하는 초지능형 네트워크로 발전할 것으로 전망하고 있다. 또 망 운영비 절감과 혁신적 AI 서비스를 통한 새로운 수익원 창출도 기대하고 있다. 황종성 NIA 원장은 "한국은 경제협력개발기구(OECD)와 국제전기통신연합(ITU) 등에서 인정한 세계 최고 수준의 정보통신망 보유국"이라며 "AI-RAN을 세계 최초로 상용화할 경우 그간 뒤처졌던 글로벌 AI 인프라 경쟁에서 새로운 우위를 점하게 될 결정적 계기가 될 것"이라고 밝혔다.

2025.07.21 14:47한정호 기자

"5년 뒤 무선트래픽 80%는 5G 통신"

2030년까지 전 세계 모바일 데이터 트래픽의 80%가 5G 네트워크를 통해 발생할 것으로 전망된다. 단순한 가입자 증가를 넘어, 확장현실(XR), 고정형 무선 인터넷(FWA), 인공지능(AI) 단말기 등 고용량 서비스 확산이 트래픽 판도를 재편하고 있다는 분석이다. 에릭슨코리아파트너스는 16일 오전 서울 시청역 인근 HSBC빌딩에서 열린 '에릭슨 모빌리티 보고서' 기자간담회를 열어 이같은 전망치를 내놨다. 박병성 에릭슨 테크니컬디렉터는 “2024년 기준 전체 모바일 트래픽의 약 35%가 5G 기반에서 발생하고 있으며, 이는 2030년까지 약 80% 수준으로 확대될 것”이라며 “특히 FWA, XR, AI 단말기 등 데이터 집약형 서비스의 확산이 이 같은 변화를 주도하고 있다”고 설명했다. 이어, “트래픽 총량이 증가하는 동시에 트래픽의 질적 구조도 바뀌고 있다”며 “기존에는 다운로드 중심이었다면, 앞으로는 업링크 트래픽이 주요 과제가 될 것”이라고 강조했다. 주목할 점은 이러한 트래픽 증가가 '단순한 다운로드' 중심에서 벗어나고 있다는 점이다. AI 스마트 디바이스나 XR 장비 등은 지속적인 업링크(데이터 송신) 성능을 요구하고 있어, 통신망 설계도 이에 맞춰 전환이 필요하다는 뜻이다. 박병성 디렉터는 “글로벌 주요 통신사들은 이미 5G 특화망(SA) 기반의 '네트워크 슬라이싱' 기술을 통해 이벤트 결제, 고화질 방송, 기업용 네트워크 등 고수익 모델을 구현하고 있다”며 “트래픽의 질과 패턴 변화에 맞춰 네트워크 고도화 전략이 뒤따라야 한다”고 강조했다. 이는 글로벌 통신사들이 이미 다음 수익화 모델로 '네트워크 슬라이싱'을 시행하고 있으며, 이 기술을 도입하기 위해서는 5G SA가 필요하다는 설명이다. 네트워크 슬라이싱은 하나의 물리적인 5G 네트워크 인프라를 여러 개의 가상 네트워크(슬라이스)로 분리해, 각기 다른 서비스나 사용자의 요구에 맞는 맞춤형 통신 환경을 제공하는 기술이다. 주로 데이터 사용량과 가입자 수에 의존하는 기존 통신 수익모델(베스트에포트)과 달리, 5G SA 기반의 네트워크 슬라이싱은 고속·저지연·고신뢰 통신이 필요한 기업·산업·공공 서비스에 맞춤형 품질(QoS)을 제공하고, 이에 따라 서비스 수준 협약(SLA) 기반의 프리미엄 과금이 가능해 수익 단가와 안정성 모두에서 기존 모델보다 훨씬 유리한 구조로 평가된다. 반면, 한국은 여전히 비단독망(NSA) 중심의 네트워크 구조에 머물러 있다. 이는 5G SA를 적극 도입하는 국가들과는 다른 궤를 걷고 있는 것으로, 네트워크 기술 발전에 따른 인프라 전환이 뒤처지고 있다는 평가를 받는다. 박 디렉터는 "글로벌 통신사들은 로우밴드와 미드밴드를 유연하게 결합해 3~6개 주파수를 활용하고 있으나, 국내에서는 여전히 제한된 밴드 운용으로 인해 SA 전환에 어려움을 겪고 있다"고 지적했다. 또한 그는 한국 정책 유연성의 한계를 꼬집으며 “글로벌 사업자들은 규제보다 수요와 전략에 따라 주파수를 유연하게 조합해 네트워크를 설계하는 반면, 한국은 상대적으로 정부 주도의 주파수 운용 구조가 강한 편”이라며 “이러한 구조는 기술 도입의 속도나 서비스 다양성 측면에서 개선 여지가 있다”고 설명했다. 이어 “앞으로 6G 시대를 준비하는 과정에서도 보다 유연한 정책 설계와 주파수 활용 전략이 필요할 것”이라고 덧붙였다.

2025.07.16 14:57진성우 기자

NHN클라우드, '웹3' 시장 본격 진출…크레더와 공동 생태계 구축 '박차'

NHN클라우드가 블록체인 네트워크 최적화 클라우드를 앞세워 웹3 인프라 시장을 본격 공략한다. NHN클라우드는 고객사로 확보한 블록체인 개발사 크레더와 '아발란체' 기반 웹3 공동사업 업무협약(MOU)을 체결했다고 16일 밝혔다. 크레더는 금을 블록체인에 접목해 거래할 수 있도록 디지털화하는 실물연계자산(RWA) 플랫폼 '골드스테이션' 운영 기업이다. 레이어1 블록체인 아발란체를 비롯해 '카이아' 등 다양한 블록체인 네트워크에 대한 '검증인' 참여를 통해 웹3 생태계 확장에 기술적으로 기여해 나가고 있다. NHN클라우드는 지난 4월 골드스테이션 인프라를 기존 클라우드 서비스에서 자사 클라우드 서비스로 이관했다. 골드스테이션은 RWA 플랫폼 특성상 24시간 중단 없는 안정성과 높은 수준의 보안이 필수적이다. 이번 윈백은 NHN클라우드가 유연한 오픈스택 기반 서비스 및 높은 보안 수준 등 특장점을 기반으로 타 클라우드 대비 안정적인 서비스 제공이 가능하다는 점에서 높이 평가받아 이뤄졌다. 이에 골드스테이션 이용자는 NHN클라우드 기반의 블록체인 환경에서 안전하게 금 거래를 진행할 수 있게 됐다. 이러한 기술적 신뢰를 바탕으로 NHN클라우드와 크레더는 MOU를 체결해 웹3 기술 공동 개발 부문에서 긴밀히 협력해 나갈 예정이다. 클라우드 인프라 공급을 넘어 웹3 생태계의 핵심인 검증인에 최적화된 클라우드를 공동으로 구축·운영해 나가겠다는 계획이다. 구체적으로 고성능 블록체인 아발란체 등 주요 네트워크 검증인 시스템에 필요한 최적의 클라우드 설계, 시스템 구축, 보안 강화 등을 위해 협력할 방침이다. 나아가 각각 클라우드, 블록체인에 특화된 양사의 역량을 결합해 웹3 생태계 전반의 핵심 기술 분야에서 공동 연구 및 사업화를 추진하며 협력을 다방면으로 확대해 나갈 계획이다. 임대훈 크레더 대표는 "블록체인 특성상 서비스 중단 없는 이관이 매우 중요한데 NHN클라우드의 안정적인 기술 지원 덕분에 높은 신뢰를 갖고 이관을 마무리할 수 있었다"며 "이번 MOU를 계기로 다양한 블록체인 네트워크에서의 검증인 시스템 클라우드 전환·확장에 속도를 낼 계획"이라고 밝혔다. 김동훈 NHN클라우드 대표는 "크레더에 안정적인 클라우드 인프라를 제공한 데 이어 클라우드 기반의 블록체인 기술 개발에도 함께 하며 웹3 시장으로 영향력을 확대하게 돼 뜻깊게 생각한다"며 "다양한 산업에서 검증된 인프라 운영 역량을 바탕으로 블록체인과 웹3 환경에서도 고객에게 최적의 인프라를 제공할 수 있도록 지원해 나갈 것"이라고 말했다.

2025.06.16 09:49한정호 기자

씨디네트웍스, 신흥시장 진출 글로벌 기업 지원 강화

아시아를 중심으로 전 세계 네트워크 서비스를 제공하는 씨디네트웍스가 기업들의 글로벌 진출을 지원하기 위해 앞장선다. 씨디네트웍스는 라틴아메리카, 남아시아 및 동남아시아, 중동·아프리카 등 주요 신흥 시장으로 진출하는 글로벌 기업을 지원하기 위한 계획을 강화하고 있고 30일 밝혔다. 빠른 성장세에 맞춰 필요하고 효과적인 서비스 지원이 필요한 시장에 탄탄한 입지를 구축하고 있는 씨디네트웍스는 글로벌 기업의 다양한 사례와 전문적인 기술을 통해 그 영역을 더욱 확대해 나간다는 목표다. 현재 수많은 글로벌 기업들이 신흥 시장 진입에 어려움을 격는 대표적인 이유로는 일관되지 않은 네트워크 성능, 보안 위험 등의 문제가 꼽힌다. 이로 인해 시장 진입이 어렵거나 진입 자체를 포기해야 하는 경우가 많은 실정이다. 이같은 문제점을 해결하고 효과적으로 지원하기 위해 씨디네트웍스는 글로벌 기업의 시장 진입을 간소화하고 지속 가능한 성장을 지원하는 것을 목표로 하는 웹 성능 및 보안 솔루션을 출시·제공하고 있다. 씨디네트웍스는 전 세계 70개 이상의 국가·지역에 걸쳐 2천800개 이상의 콘텐츠 전송 네트워크(CDN) 상호 접속(PoP)과 40개의 스크러빙 센터를 운영해 주요 신흥 시장에서 우수한 네트워크 커버리지를 제공한다. 강력한 인프라를 통해 글로벌 기업이 현지 사용자에게 지연 시간이 짧고 안정적이며 안전한 디지털 경험을 제공할 수 있도록 돕는다는 방침이다. 또 씨디네트웍스는 클라우드 보안, 웹·네트워크 성능, 미디어 전송, 엣지 컴퓨팅을 포함한 솔루션 제품군을 제공 중이다. 신흥 시장 기업을 위해 효율적인 콘텐츠 전송, 적응형 보안 방어, 최적화된 성능을 지원한다는 목표다. 이뿐만 아니라 주요 신흥 시장의 선도적 ISP와 긴밀한 파트너십을 구축해 글로벌 기업이 각 현지 시장의 필요한 요구 사항에 빠르고 정확하게 적용할 수 있도록 지원한다. 마지막으로 씨디네트웍스는 글로벌 기업이 시장에 진출할 때 문제 발생을 사전에 최소화하는 동시에 고성능 기술 적용과 효율적인 운영을 유지할 수 있도록 맞춤형 기술 지원도 제공 중이다. 씨디네트웍스의 안토니 리 글로벌 인프라 책임자는 "신흥 시장은 흥미로운 개척지이지만 그 나름의 어려움을 안고 있다"며 "우리는 확실한 솔루션을 통해 글로벌 기업들이 이러한 어려움을 극복하고 서비스를 제공하고 성장할 수 있도록 앞으로도 최선을 다해 지원해 나가겠다"고 말했다.

2025.04.30 09:48한정호 기자

STEPI, "해저케이블 네트워크, 과도한 '안보화' 논리 함정에 빠져선 안돼"

해저케이블 네트워크의 국제 협력이 과도한 안보화 논리 함정에 빠져선 안된다는 경고가 나왔다. 지난 주 인도네시아에서 열린 'AOIP 세미나'에서 과학기술정책연구원(STEPI) 조원선 부연구위원은 해저케이블 산업경쟁력 분석 연구를 기반으로 전략적 탈안보화와 협력 모델을 제안하며 이 같이 언급했다. 조 부연구위원은 "미·중 전략경쟁 심화와 AI 기반 디지털 전환이 데이터의 전략적 가치와 해저케이블의 중요성을 더욱 부각시키고 있다"며 "기술적, 안보적 연결성이 동시에 강화되는 추세"라고 말했다. 조 부연구위원은 "해저케이블 네트워크가 단순한 인프라를 넘어 국가 안보와 지정학적 리스크의 핵심 요소로 떠올랐다"며 "해저케이블 네트워크에서 협력 논의에서 과도한 안보화 논리의 함정에 빠져선 안된다"고 경고했다. 해저케이블 네트워크에서 과도한 안보 논리 강화가 오히려 국가들의 디지털 자율성을 약화시키고, 외부 기술 의존도를 높이는 결과를 초래해 왔다는 것이다. 이에 대한 대안으로 조 부연구위원은 조원선 부연구위원(STEPI)은 4가지 대안을 제시했다. 4가지 대안은 ▲독립적인 디지털 인프라 구축과 전략적 탈안보화 논리 강화 ▲과도한 안보 논리 최소화 및 기업 중심의 협력 모델 활성화 ▲통합적인 측면에서의 디지털 인프라 플랫폼과 시스템 구축 ▲공공이 지원하고 민간 부문이 혁신과 투자를 주도하는 체계적인 공공-민간 협력(PPP) 모델 구축 등이다. 조 부연구위원은 "아세안의 강점인 무역 기반 경쟁력은 기술 경쟁력 발전 없이는 장기적으로 지속될 수 없으며, 이를 해결하기 위해서는 지역 차원의 기술 협력과 전략적 탈안보화가 필수"라고 밝혔다. 한편 STEPI는 향후 데이터 공급망의 핵심인 해저케이블 중심 디지털 네트워크 인프라의 지속가능한 발전과 글로벌 경쟁력 강화를 위한 정책 연구를 지속할 계획이다.

2025.02.16 22:55박희범 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

수천억 적자의 역설… '회계 착시' 걷어낸 K-팹리스 진짜 체력

신세계가 열흘만에 오픈AI 협업 계획 뒤집은 이유

[유미's 픽] 챗GPT·제미나이, HWP 읽는다…한컴, 'AI 문맹' 오명 벗고 재도약 시동

R&D 지표 가른 양산성 확보…장부 엇갈린 K-AI 반도체

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.