• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'네트워킹'통합검색 결과 입니다. (46건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 네트워킹, 인피니밴드에서 이더넷으로 대세 바뀐다

챗GPT 등장 후 생성형 인공지능(AI) 기반 서비스가 모든 산업군에 변화를 만들고 있다. AI 기술은 모든 산업의 새로운 먹거리로 인식되는 상황이다. 대기업, 인터넷서비스기업, 클라우드 기업 등은 AI 시장을 선점하려 대대적인 물량 투자와 함께 기업 인프라를 개혁하고 있다. 오늘날 AI 기술은 챗GPT 이전과 이후로 나뉜다고 할 정도다. 챗GPT를 뒷받침하는 트랜스포머 아키텍처는 인간과 소통하듯 '자연스러운' 대규모언어모델(LLM)을 만들어냈다. 그리고 이 '자연스러움'을 더욱더 인간처럼 구현하려면 방대한 규모의 고성능 GPU 클러스터 인프라가 필수적이다. AI 인프라의 근간인 GPU, 서버, 스토리지, 네트워크 등은 수많은 제품을 요구하는 고비용 서비스다. LLM의 경우 GPU 갯수를 늘릴수록 학습 시간을 획기적으로 늘릴 수 있는 구조다. 예를 들어 2년 전 나온 GPT-3.5의 경우 1만개의 GPU로 서비스된다. GPT-3.5를 GPU 한개로 학습시킨다면 약 355년이 필요하다. AI 인프라 기술 그 자체는 전과 크게 달라지지 않았다. AI 인프라가 작은 연산 자원을 대규모로 한대 묶어 성능을 획기적으로 높이는 고성능컴퓨팅(HPC) 기술을 근간으로 한다. HPC 기술은 처음에 CPU를 중심으로 발전하다 21세기 들어 GPU 클러스터로 발전했다. 현재 LLM 학습과 추론을 위한 GPU 시장은 엔비디아 독주 체제다. 엔비디아 텐서코어 H100이나 A100 GPU는 칩셋 하나당 5천만원 내외의 단가로 거래되고, 그마저도 공급부족으로 품귀현상을 보인다. 주문한다고 해도 구하기 쉽지 않고, 가격도 고공행진중이다. 오픈AI의 GPT, 구글 제미나이, 메타 라마 등 유명 LLM의 발전과 출시는 GPU의 빅테크 쏠림과 공급부족 현상을 한층 부추기고, 일반 수요자를 더 안달나게 만든다. 이런 독점 체제를 깨기 위해 AMD, 인텔 등이 경쟁 제품을 속속 출시중이다. ■ AI 인프라에서 네트워킹이 왜 중요한가 AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적인 것이다. 고성능 AI 인프라 수용을 위한 네트워킹은 전통적인 워크로드 수용을 위한 인프라보다 거대할 수밖에 없는 구조다. 노드 내 GPU 간 연산 능력은 4개의 GPU를 내부 버스를 통해 P2P로 연결하는 NV링크 또는 서버 내 8개의 GPU를 연결하기 위해 NV스위치를 통해 극대화 가능하다. 여러 GPU 노드를 클러스트링하고 각 GPU 노드들의 통신 간 병목현상을 최소화하려면 GPU 당 한개의 고성능의 네트워크인터페이스카드(NIC)를 할당하게 된다. 각 NIC는 400Gbps 대역폭을 수용할 수 있어야 한다. GPU 한개에 1대의 400Gbps급 스위치를 연결하게 된다. 400Gbps가 제공되는 고사양의 스위치를 근간으로 2티어에서 3티어 구조의 '리프스파인(Leaf-spine)' 아키텍처를 구성하므로 대형 GPU 노드 클러스터의 경우 최소 수십대의 400Gbps급 스위치가 기본 제공돼야 한다. 엔비디아의 멀티 GPU 클러스터 상품인 '슈퍼팟(SuperPOD)'의 경우 32대의 DGX H100 노드를 최대 256개의 GPU 클러스터링으로 연결하며, 이론적으로 최대 57.8 TBps의 데이터 연산 성능을 제공하게 돼 있다. 따라서 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요해진다. LLM의 경우 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. ■ 왜 인피니밴드보다 이더넷인가 AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩(Off-Loading)기술인 RDMA(Remote Direct Memory Access)는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA(Direct Memory Access)'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 인피니밴드나 RDMA오버컨버지드이더넷(RoCE)를 통해 활용가능하다. 수백개 GPU가 병렬처리를 통해 수백, 수천 시간을 학습하고 빠르게 서비스를 제공하려면 네트워크의 안정성도 중요하다. 잠깐의 방해도 재연산을 하게 만들 수 있다. 과거 네트워킹 기술의 성능과 안정성 면에서 인피니밴드가 이더넷보다 앞선 것으로 여겨져왔다. 인피니밴드가 이더넷의 대역폭을 월등히 앞섰기 때문에 HPC 분야에서 주료 인피니밴드를 활용했었다. 엔비디아 DGX 서버도 이더넷보다 인피니밴드를 장려한다. 안정성의 측면에서 인피니밴드는 패킷 무손실을 전제하지만, 이더넷은 어느정도의 패킷손실을 전제로 한다. LLM 인프라가 HPC 기술을 바탕에 두기 때문에 GPU 클러스터의 네트워킹은 인피니밴드를 주로 쓴다. 만약 앞서 계산했듯 기존 비즈니스 워크로드 대비 3~4배 많은 네트워킹 인프라 물량을 인피니밴드로 구성하면 비용 부담이 적지 않다. 특히 인피니밴드 기술은 제조사 간 경쟁이 사라진 독점 기술이다. 과거 인피니밴드 솔루션을 개발하고 공급해오던 기업들이 하나둘 대형 업체에 흡수되거나 사라졌는데, 마지막 독립 업체로 남아 있던 멜라녹스도 엔비디아에 인수됐다. 지금은 엔비디아가 인피니밴드 기술을 독점 공급하는 상황이다. 공개 표준 기술이 아니므로 인피니밴드 핵심 기술은 비공개다. 발전 방향이나 정도가 엔비디아 결정에 100% 달려있다. 비용 구조도 엔비디아 종속적이다. 심지어 인피니밴드 스위치 공급 부족 현상이 GPU 공급부족보다 더 심각하다는 말까지 나온다. 비용, 기술 모두 특정업체 종속적인 상황에서 인피니밴드는 외부의 여러 워크로드를 LLM에 연동하기 힘들게 하는 장애물이 된다. 인피니밴드를 다룰 줄 아는 전문가는 매우 희귀하며, 기술적 어려운 정도도 매우 높다. AI 인프라에서 인피니밴드가 당연시 된 건 이더넷 기술에 대한 오해 때문이기도 하다. 얼마전까지 인피니밴드는 속도 면에서 이더넷을 앞섰으며, 400Gbps란 대역폭은 인피니밴드의 전유물처럼 여겨졌었다. 하지만, GPU 제조사인 엔비디아도 네트워킹 영역의 무게중심을 인피니밴드에서 이더넷으로 이동하고 있을 정도다. 대부분의 기존 AI 네트워크 인프라는 인피니밴드라는 프로토콜과 특정 업체가 시장을 독점했지만, 이젠 표준 기반 기술을 통해 비용 이슈 제거 및 편리한 운영 관리가 가능한 표준 기반의 RDMA 방식인 RoCE가 인피니밴드 기술을 대체할 것으로 기대된다. 근래 들어 이더넷 진영은 400G, 800G 제품을 선보이면서 인피니밴드와 동등한 성능을 제공하게 됐다. 지금은 인피니밴드나 이더넷이나 현존하는 NIC과 스위치 포트에서 낼 수 있는 최대한의 대역폭이 400Gbps로 똑같다. 이젠 인피니밴드와 이더넷 모두에서 어느정도 동급 성능을 기대할 수 있을 정도로 이더넷 기술의 진화는 뚜렷해졌고 엔비디아의 GPU 성능 테스트 도구인 NCCL을 이용해 인피니밴드와 RoCE를 비교 테스트 결과를 보더라도 대역폭과 지연시간이 동등하거나 약간의 차이만 보일정도로 AI 인프라 영역에서의 이더넷 기술의 상당한 신뢰성을 제공할 수 있는 프로토콜로 발전하고 있다. RoCEv2(버전2)는 인피니밴드의 헤더와 RDMA 기술을 그대로 탑재했으며, TCP 제거, UDP 활용 등을 통해 이더넷 스위치의 지연시간을 개선하고 있다. 안정성 면에서도 PFC, ECN 등 이더넷의 표준 기술로 패킷 손실을 최대한 상쇄할 수 있다. 무엇보다 이더넷은 표준 기술이고 치열한 경쟁을 보이는 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 기술 로드맵상으로도 인피니밴드와 이더넷은 800Gbp란 같은 방향을 가리키고 있는데, 오히려 이더넷의 대역폭 증가가 인비니밴드를 앞선 상황이다. 인피니밴드의 800G 이후 계획은 시점을 확정하지 않은 반면, 이더넷의 800G는 이미 상용화됐다. 2025년이면 1.6Tbps 기반 패브릭 기술 제품도 출시될 것으로 예상된다. 이같은 흐름속에 시스코는 LLM 인프라용 제품으로 넥서스 시리즈 스위치를 제공하고 있다. 네트워킹 프로비저닝과 모니터링에 쓰이는 오케스트레이션 툴 '넥서스 대시보드'는 대규모 AI 인프라의 빠른 구축과 관리를 위해 턴키 기반 자동화와 로스리스 안정성을 보장하는 가시성을 제공한다. 또한 지연시간에 민감한 AI 트래픽의 가시성을 제공하는 분석 도구와 솔루션도 이용가능하다. 시스코는 특히 전용 SoC 칩으로 넥서스 스위치를 구동해 인피니밴드 장비보다 더 적은 전력으로 고성능 AI 인프라를 구동할 수 있다고 강조한다. AI 인프라에서 서서히 독점의 시대가 저물고 있다. 개방형 표준 제품과 기술이 갈수록 높아지는 AI 인프라 투자 및 운영 비용을 절감하고 기업 경쟁력을 높이는 열쇠가 될 것이다.

2024.01.30 16:07김우용

주니퍼네트웍스, AI 네이티브 네트워킹 플랫폼 발표

주니퍼 네트웍스는 AI 네이티브 네트워킹 플랫폼을 30일 발표했다. 7년간 축적된 인사이트 및 데이터 과학 발전을 바탕으로 훈련된 주니퍼의 AI 네이티브 네트워킹 플랫폼은 기본적으로 모든 기기, 사용자, 애플리케이션, 자산에 대해 매번 안정적이고, 측정 가능하며, 안전한 연결을 보장하도록 설계됐다. 주니퍼 AI 네이티브 네트워킹 플랫폼은 캠퍼스, 브랜치, 데이터센터 네트워킹 솔루션 모두를 공통 AI 엔진과 마비스 가상 네트워크 어시스턴트(VNA)로 통합한다. 이를 통해 심층적 인사이트, 자동화된 문제 해결, 엔드투엔드 AI옵스를 구현한다. IT 팀은 기본적인 네트워크 연결 유지 관리에서 탈피해 학생, 교직원, 환자, 게스트, 고객, 직원에게 안전한 고품질 경험을 제공하는 데 주력할 수 있다. 주니퍼 AI 네이티브 네트워킹 플랫폼은 간단하면서 안정적인 데이 0/1/2+ 운영을 제공한다. 기존 솔루션 대비 운영비용 최대 85% 절감, 사용자 지원 요청 최대 90% 감소, IT 현장 방문 횟수 85% 감소, 네트워크 사고 해결 시간 최대 50% 단축 등의 효과를 기대할 수 있다.. 주니퍼는 새로운 AI 네이티브 네트워킹 플랫폼과 더불어 몇 가지 신제품을 출시한다. 신제품들은 AI를 활용해 더욱 예측 가능하고, 안정적이며, 측정 가능한 IT 운영을 지원할 뿐만 아니라, AI 학습 및 추론을 위해 전문 설계된 하이 퍼포먼스 데이터센터 네트워크를 간소화하여 경험 최우선 네트워킹을 지원하게 된다. 새로운 AI 네이티브 네트워킹 플랫폼에는 마비스 최신 기능 두 가지가 포함된다. 미스트AI를 기반으로 하는 AI 네이티브 VNA인 마비스는 선제적 권고 조치와 셀프 드라이빙 운영, 대화형 인터페이스를 제공한다. 마비스 미니는 AI 네이티브 네트워킹 디지털 트윈 기능이다. 미스트 AI를 사용해 사용자 연결을 사전에 시뮬레이션함으로써 사용자가 없는 상태에서도 네트워크 구성을 즉시 검증하고 문제를 발견, 탐지한다. 미니는 최종 사용자, 클라이언트, 디바이스, 앱 등의 트래픽을 시뮬레이션해 비지도학습 기반으로 네트워크 구성을 학습하고, 네트워크 문제를 선제적으로 파악한다. 미니의 데이터는 지속적으로 미스트 AI 엔진에 전달돼 최적의 AIOps 대응을 위한 추가적인 인사이트 소스를 제공한다. 미니는 항상 켜져 있으며, 트리거 이벤트 또는 네트워크 사용이 적은 시간대에 자동 배포가 가능하기 때문에 별도의 수동 구성이 필요치 않다. 또한 마비스 미니는 기존 디지털 트윈 솔루션이나 신세틱 테스트와 달리 네트워크에 직접 통합되므로 외부 센서, 클라이언트, 애플리케이션을 통한 수동 모니터링 및 분석이 필요 없다. 데이터센터를 위한 마비스 VNA는 데이터센터용 AI 네이티브 VNA다. 모든 제조사 하드웨어에 대해 데이터센터 수명 주기 전반에 걸쳐 최고의 인사이트를 제공한다. 어떤 벤더의 하드웨어이든 관계없이 데이터센터 케이블링, 구성, 연결과 관련된 문제 발생 시 주니퍼 앱스트라에서 선제 권고 조치와 함께 마비스 액션 UI에 표시된다. 또한 마비스 대화형 인터페이스는 IT 팀이 생성형AI를 활용해 데이터센터 제품 설명서와 지식 기반에 직접 쿼리하고, 간단하고 효율적으로 인사이트를 얻을 수 있도록 해준다. 데이터센터 액션은 유선 액세스, 무선 액세스, 보안 SD-WAN에 대한 유사한 마비스 액션과 함께 단일 UI에 표시된다. 또한 동일한 마비스 CI가 모든 주니퍼 제품에서 지식 기반 쿼리를 생성하는 데 사용된다. 역대 최초로 주니퍼 고객은 모든 엔터프라이즈 도메인 전반의 엔드-투-엔드 가시성과 보장을 위한 단일 VNA를 확보하게 됐다. 주니퍼는 AI 데이터센터 솔루션을 확장하고 있다. AI 데이터센터 솔루션은 고성능 AI 학습 및 추론 클러스터를 배포하는 가장 빠르고 유연하며, 제한된 IT 리소스로 가장 단순하게 운영할 수 있는 방법이다. 주니퍼 AI 데이터센터 솔루션은 주니퍼 앱스트라로 운영되는 QFX 스위치와 PTX 라우터를 기반으로 한 스파인 리프 데이터센터 아키텍처로 구성된다. 주니퍼 앱스트라는 데이터센터 패브릭 관리, 자동화, 보장을 위한 멀티벤더 솔루션이다. 이 솔루션은 실리콘의 다양성, 멀티벤더 스위치 관리, 개방형 표준 기반 이더넷 패브릭 지원을 통해 벤더 종속을 방지하고 고객에게 유연성을 제공한다. 주니퍼 앱스트라는 이더넷을 통한 AI/ML 트래픽의 더욱 빠르고 효율적인 처리를 제공하도록 확장됐다. 여기에 혼잡 관리, 로드 밸런싱, 흐름 제어를 포함한다. 신제품 최신 익스프레스 5실리콘 기반 PTX 라우터 및 라인 카드는 고성능과 에너지 효율적인 지속가능성 보장을 기반으로 고밀도 800GE 용량에 필요한 대규모 확장을 지원한다. 신제품 QFX 스위치는 이전 세대 대비 2배의 용량을 제공하고, 800GE를 위한 최첨단 브로드컴 토마호크 5를 탑재했다. 새로운 PTX 플랫폼과 QFX 플랫폼 신제품 모두 고밀도 800GE 포트를 지원하며, 전력 효율성이 우수하고 확장가능한 AI 데이터센터 네트워킹을 위해 RDMA오버이더넷(RoCE v2)를 비롯한 필수 AI 인프라 프로토콜을 지원한다. 주니퍼 AI 네이티브 네트워킹 플랫폼은 성능과 보안을 유지하면서 지속가능성 요건을 초과 충족한다. AI 네이티브 네트워킹 플랫폼의 AIOps는 신속한 원격 문제 해결을 통해 특정 사례에서 사이트 간 이동을 85%까지 감소시킨다. 전력 효율이 뛰어난 하드웨어는 에너지 소비를 최소화하며 모듈형으로 설계되어 수리가 간편하고 제품 수명이 연장된다. 라미 라힘 주니퍼 네트웍스 최고경영자(CEO)는 "AI는 인터넷의 등장 이후 가장 큰 기술 변곡점이며, AI가 네트워킹에 미치는 지속적인 영향은 아무리 강조해도 지나치지 않는다”며 “주니퍼는 시장 판도를 변화시킨 AI옵스가 수천 개의 글로벌 기업에게 엄청난 시간과 비용을 절약하는 효과를 가져다주는 동시에 최종 사용자에게 탁월한 경험을 제공하는 방법을 직접 확인했다”고 밝혔다. 그는 “AI 네이티브 네트워킹 플랫폼은 주니퍼와 우리 업계를 위한 명확하고, 새로운 방향을 제시한다”며 “AI옵스를 최종 사용자에서 애플리케이션까지, 그리고 그 사이의 모든 네트워크 도메인으로 확장함으로써 네트워크 중단, 문제 발생 이슈 제시 및 애플리케이션 다운타임 문제를 해결하기 위한 큰 진전을 만들어내고 있다"고 덧붙였다.

2024.01.30 10:54김우용

에퀴닉스, 가상 라우팅 서비스 출시

에퀴닉스는 가상 라우팅 서비스인 '에퀴닉스 패브릭 클라우드 라우터'를 출시했다고 18일 밝혔다. 해당 서비스는 기업이 멀티클라우드 및 온프레미스 환경에서 애플리케이션 및 데이터를 쉽게 연결할 수 있도록 지원한다. 쉬운 구성으로 1분 이내 구축이 가능한 엔터프라이즈급 서비스다. 고객이 마주하고 있는 복잡한 클라우드 및 하이브리드 클라우드 네트워킹을 간소화해 문제를 편리하게 해결할 수 있도록 지원한다. 고객은 에퀴닉스가 제공하는 안전한 프라이빗 연결성을 바탕으로 다른 어떤 서비스보다 더 많은 위치에서 퍼블릭 클라우드 간 애플리케이션을 연결할 수 있다. 고객은 에퀴닉스 패브릭이 활성화된 전 세계 58개 시장에 에퀴닉스 패브릭 클라우드 라우터를 구축할 수 있다. 낮은 지연시간을 바탕으로 주요 클라우드 제공업체인 아마존웹서비스(AWS), 구글 클라우드 플랫폼(GCP), 마이크로소프트 애저, 오라클 클라우드 인프라(OCI)를 비롯한 모든 주요 클라우드 제공업체와 아카마이, 서비스나우, 줌 등 수백 가지의 다른 서비스 제공업체와 연결할 수 있다. 에퀴닉스 패브릭 클라우드 라우터는 실시간 온디맨드 방식으로 활용할 수 있어 물리적인 라우터 설치나 가상 라우터 라이선싱 등으로 발생하는 복잡한 비용을 절감할 수 있다. 이를 통해, 고객은 애플리케이션 성능을 향상하고 클라우드 비용을 절감하며 시장에 더 빨리 진입할 수 있다. 에퀴닉스의 클라우드 중립적인 서비스로 벤더 종속 현상을 피하고 네트워킹 제약을 제거해 특정 워크로드에 대한 적절한 클라우드 환경을 구성하고 공급자를 선정함으로써 보다 빠르게 멀티클라우드 도입이 가능하다. 플랫폼 에퀴닉스의 주요 구성 요소인 에퀴닉스 패브릭 클라우드 라우터는 고객의 요구사항을 충족할 수 있는 멀티클라우드 성능, 프라이빗 연결성, 엔터프라이즈급 성능, 비용 절감 등 네 가지 방법을 제공한다: 아룬 데브 에퀴닉스 디지털 상호연결 부문 부사장은 “멀티클라우드 네트워킹을 구축하는 것은 어려우나, 에퀴닉스 패브릭 클라우드 라우터를 출시함으로써 전 세계 모든 기업이 다른 클라우드를 45초만에 연결할 수 있도록 지원한다”며 “이것이 바로 멀티클라우드 네트워킹 분야를 선도하는 에퀴닉스가 제공할 수 있는 기술”이라고 강조했다. 그는 “지난 25년 이상에 걸쳐 클라우드 및 네트워크 중립성에 대해 노력해 온 에퀴닉스는 클라우드 온램프에 대한 선도적인 접근법과 가장 다양한 클라우드 공급자 및 서비스 파트너 선택지를 결합함으로써 현재 기업이 필요로 하는 온디맨드 디지털 인프라를 독보적으로 제공할 수 있다”고 덧붙였다.

2024.01.18 11:53김우용

HPE 아루바 "새해는 독립형 방화벽 종말”

HPE 아루바 네트워킹은 테크 및 비즈니스 리더들이 2024년 주목해야 할 네트워킹 트렌드 전망을 18일 발표했다. 데이비드 휴즈 HPE 아루바 네트워킹 최고 제품 및 기술 책임자는 올해 다가올 네트워킹 산업에 인사이트로 ▲독립형 방화벽의 종말 ▲제로 트러스트 원칙을 통한 보안 네트워크 부서의 일치된 목표 조정 ▲엔드 유저 경험 평가는 운영 우수성을 높이기 위한 필수 요소 ▲급증하는 6GHz 와이파이 도입과 와이파이7 ▲IT 관리자를 지원하는 AI 등 5가지 흐름을 전망했다. ■ 독립형 방화벽의 종말 하이브리드 IT 환경의 증가와 IoT 기기 사용이 광범위하게 늘어나면서 네트워크의 경계가 돌이킬 수 없을 정도로 무너졌고, 독립형 방화벽도 함께 사라지고 있다. 더 이상 방화벽만으로는 외부 환경으로부터 내부를 안전하게 보호하기는 어렵다. 보안을 위해 기업 내부에 더 많은 방화벽을 배포하는 것은 오히려 복잡성을 키우고, 에러발생의 가능성을 높이며 빠르게 진행시켜야 할 비즈니스의 속도를 늦추는 결과를 낳게 된다. 결과적으로 차세대 방화벽 어플라이언스는 결국 방화벽 어플라이언스의 마지막 세대가 되고 있다. 보안 서비스 엣지(SSE)가 클라우드로 제공되는 보안 웹 게이트웨이, 클라우드 접근 보안 중개 서비스, 제로 트러스트 네트워크 액세스 등으로 방화벽과 프록시를 대체하고 있다. SSE는 사용자가 어디서든 애플리케이션에 접근할 수 있도록 하면서도 보안을 관리할 수 있는 효과적인 방안을 제공하고 있다. 동시에, IoT 보안을 위해서는 네트워크의 엣지단에서 바로 온프레미스 형식의 세그멘테이션이 필요하며, 이를 위해 방화벽 관련 서비스들이 액세스 포인트, 스위치, SD-WAN 게이트웨이에 직접 설치되고 있다. 또한, 데이터 센터에서도 L4-7 보안 기능을 갖춘 랙 상단형 스위치를 도입하면 기존 차세대 방화벽보다 훨씬 더 비용 효율적으로 내부를 오가는 이스트-웨스트 세그멘테이션을 제공할 수 있다. 이처럼 새로운 클라우드 기반 기능이나 내장된 기능들이 보안 연결을 관리하는 더 간단한 방법을 제공함에 따라 향후 몇 년 동안 차세대 방화벽 시장은 하락세를 걷게 될 것으로 보인다. ■ 제로 트러스트 원칙을 통한 보안 네트워크 부서의 일치된 목표 조정 대부분의 기업 및 기관에는 네트워킹과 보안을 각각 관리하는 별도의 부서가 있는데, 이들의 목표는 여러 면에서 서로 상충될 수 있다. 2024년, 선도적인 기업들은 제로 트러스트 원칙을 적용하여 이 두 부서 간의 목표를 조정함으로써 더 나은 최종 사용자 경험과 비즈니스 성과를 창출할 수 있을 것이다. 일반 기업에서 네트워킹 부서의 목표는 사람과 서비스를 안정적이고 예측 가능한 성능으로 연결하는 것이다. 또한, 사람들이 어디든 쉽게 연결될 수 있도록 하고 시스템 중단, 레이턴시, 또는 속도 저하를 초래하는 일을 방지할 수 있도록 한다. 반면, 보안 부서는 위험을 최소화하고 규정을 준수하는 임무를 맡고 있다. 이 두 목표는 종종 상충될 수 있어 사용자 경험이 저하될 수 있다. 보안을 지나치게 강화하면 사용자가 필요한 앱과 데이터에 액세스하는 것이 느려지거나 불가능해 비즈니스 속도가 느려질 수 있다, 반면, 네트워킹 부서가 보안을 소홀히 하거나 보안 조치를 우회하여 속도를 빠르게 한다면 보안 침입 위험이 높아지고 랜섬웨어 피해를 초래할 수 있다. 이에 따라 향후 선두 기업들은 네트워크를 단순히 모든 것을 연결하는 장치가 아니라 보안 정책을 시행하는 수단으로 활용하는 제로 트러스트 아키텍처를 채택할 것이다. 애플리케이션에 액세스하는 사용자의 경우 보안 정책은 클라우드에서 시행될 수 있지만, 더 많은 트래픽을 처리해야 하는 IoT 장치 및 관련 서비스의 경우에는 액세스 포인트, 스위치 및 라우터와 같은 액세스 장치에서 이 정책을 자동으로 구현하는 것이 더 효율적이다. 따라서 적절한 수준으로 서로 공유된 가시성, 자동화, 정책 및 시행에 대한 명확한 설명을 통해 네트워킹 부서와 보안 부서의 목표를 일치시켜 더 나은 경험을 제공할 수 있다. ■ 엔드 유저 경험 평가는 운영 우수성을 높이기 위한 필수 요소 IT 기업들은 사내 직원들과 고객의 기대에 부응하기 위해, 사용자 경험 평가를 바탕으로 하여 서비스 수준 목표(SLO) 및 서비스 수준 계약(SLA) 중심 시스템으로 전환해야 한다. 사용자는 무엇이 구체적으로 잘못되었는지 신경 쓰지 않고, 단지 사용하는 애플리케이션이 제대로 작동하는지 여부에만 집중한다. 만약 사용자가 문제점을 처음으로 발견했는데, IT팀이 기기는 정상적으로 작동하고 있다고 반박하는 보고서를 IT팀에게 받게 되면 사용자의 만족도는 급격히 떨어진다. 이 문제를 해결하기 위해 기업들은 엔드 유저의 실제 경험을 평가하고 합성 프로브를 만들어 사용자가 없을 때에도 인프라 준비 상태를 보장하는 디지털 경험 관리(DEM) 도구를 널리 배포할 것이다. 예를 들어 기업에서는 특히 와이파이 성능을 모니터링하는 경우 엔드포인트 에이전트(예: SSE 에이전트)와 전용 하드웨어 센서에서 수집한 측정값을 합산할 것이다. 이상적인 환경에서는 이러한 측정 결과가 자동화된 AIOps로 유입되면 AI옵스가 이를 학습하고, 모범 사례를 실행함으로써 문제를 신속하게 판단해 자동으로 해결하게 될 것이다. ■ 급증하는 6GHz 와이파이 도입과 와이파이7 6GHz 스펙트럼 내 와이파이 구축을 지연시키던 장벽은 대부분의 지역에서 사라질 것이며 6GHz의 도입이 급증하기 시작할 것이다. 몇 년 전 Wi-Fi 6E 표준은 Wi-Fi 용량을 두 배 이상 늘려 더 많은 사용자와 더 빠른 속도를 제공하는 6GHz 대역을 지원하기 시작했다. 일부 세그멘트에서는 6GHz가 빠르게 도입됐지만 다른 부문에서는 여전히 도입을 신중하게 고려하고 있다. 하지만, 올해 마지막 걸림돌들이 해결되면서 6GHz가 더욱 광범위하게 도입될 것으로 보인다. 먼저, 6GHz 대역의 실외 사용은 정부 당국의 승인을 받아야 한다. 미국과 같은 일부 국가는 Wi-Fi 스펙트럼을 신속하게 개방했지만, 다른 국가에서는 개방 속도가 더뎠다. 다행히 이 부분이 많이 개선돼 2024년에는 더 많은 기업이 세계 대부분의 지역에서 6GHz 스펙트럼에 접근할 수 있게 될 것이다. 둘째, 일부 기업에서는 와이파이7을 두고 와이파이 6E 도입을 주저했다. 그러나 이제 와이파이 7이 승인돼 와이파이 6E와 와이파이 7이 상호 운용 가능해졌다. 따라서 6E 기기와 액세스 포인트가 대량으로 사용됨에 따라 6GHz Wi-Fi를 본격적으로 배포할 수 있게 되었다. 마지막으로 와이파이의 도입은 액세스 포인트와 클라이언트의 기기 모두에 대한 지원 여부에 따라 결정된다. 최근 와이파이 6E를 지원하는 수많은 새로운 기기와 6E 액세스 포인트가 주류를 이루고 있다. 게다가 더 많은 와이파이 7 장치가 출시될 예정이며, 이러한 장치는 6GHz 대역을 활용하여 와이파이 6E 또는 와이파이 7 액세스 포인트를 통해 더 나은 사용자 경험을 제공할 수 있다. 이러한 상황 덕분에 2024년에는 6GHz 스펙트럼이 크게 활용될 것이며 이를 통해 더욱 빠른 데이터 전송과 향상된 사용자 경험을 제공할 수 있게 될 것이다. ■ IT 관리자를 지원하는 AI 요즘 AI 때문에 일자리를 잃는 것이 아니라, AI를 효과적으로 사용하는 사람에게 일자리를 잃을 것이라는 말이 있다. 이는 특히 IT 관리자에게 현실로 다가오고 있다. 새로운 기술을 구현하고 고정된 인력이나 심지어 줄어든 인력으로 사이버 보안을 유지해야 한다는 부담이 더욱 커지고 있는 가운데, 이는 각 관리자가 더 많은 것을 처리해야 한다는 것을 의미한다. 다행히 AI와 자동화 기술은 빠르게 발전해 개별 기기를 관리하고 구성하는 일에서 벗어나 IT 자산 전반의 정책을 정의하고 해당 정책을 자동으로 일관되게 구현하는 작업으로 패러다임을 전환하고 있다. AI는 또한 엄청난 양의 데이터를 샅샅이 검색해 이상 현상을 식별하고, 해결방안을 제안하고 구현할 수도 있다. 이제 AI는 데이터 세트만큼 우수하며, 많은 이들이 더 크고 고품질의 데이터 세트가 핵심이라는 점을 모두 잘 이해하고 있다. 주요 공급 기업들은 이제 수백만 개의 관리 장치와 수억 개의 엔드포인트가 포함된 데이터 레이크에서 AI 기반의 통찰력을 이끌어낼 것이다. 마지막으로 대규모 언어 모델(LLM)은 기존 자연어 인터페이스를 강화하고 관리자가 더욱 편리하게 필요한 정보를 얻을 수 있는 방법을 제공한다. 결국, 기업은 관리자들이 경쟁력을 유지하는 데 필요한 AI 역량을 IT 부서에 충분히 제공하고 있는지 확인해야 할 것이다.

2024.01.18 11:47김우용

KT, 차세대 SDN 컨트롤러 개발…네트워크 안정성 강화

KT가 네트워크 안정성을 강화하고자 차세대 소프트웨어 정의 네트워킹(SDN) 컨트롤러를 자체 개발하고 핵심 인터넷 네트워크(백본망)에 적용했다고 16일 밝혔다. 차세대 SDN 컨트롤러는 KT 인터넷 네트워크 주요 장비에 대한 제어를 자동화하는 솔루션이다. SDN은 소프트웨어 기반으로 다양한 제조사 장비를 중앙에서 통합 제어, 관리하는 중앙집중형 네트워크 자동화 기술이다. 이 솔루션에는 모든 제어 명령어를 자동화하고 실행되기 전 유효성을 검증해 오류를 사전에 방지하고, 필요한 경우 원클릭으로 복구하는 기능이 탑재됐다. 이 기능을 활용하면 사람 개입을 최소화해 휴먼 에러를 막을 수 있고, 보다 쉽고 안정적으로 네트워크를 운영할 수 있다. 솔루션은 현재 네트워크 장비 브랜드와 관계없이 모든 기기를 제어하기 위한 표준(NETCONF/YANG)을 전부 지원한다. 네트워크 분야 직원은 차세대 SDN 컨트롤러로 업무를 자동화하기 위해 템플릿(명령어 세트)을 생성하고, 간단하게 워크플로우(명령어 실행 순서를 설정)를 정의하면 된다. KT는 “차세대 SDN 컨트롤러 개발을 통해 네트워크 운영 자동화를 위한 기반 기술을 확보했다”며 “자율적 동작이 가능한 네트워크를 구현하기 위해 상황을 인지, 분석, 판단하는 인공지능(AI) 핵심기술을 개발해 복잡한 상황도 미리 대응할 수 있게 발전시킬 계획”이라고 설명했다. 이종식 KT 네트워크연구소장은 “차세대 SDN 컨트롤러로 인터넷 백본망 모든 운영을 자동화해 네트워크 안정성이 한층 더 강화될 것으로 확신한다”며 “향후 완전 자율 네트워크 운영 체계로의 전환을 앞당기는 차세대 네트워크 기술 개발을 선도해 나갈 것”이라고 말했다.

2024.01.16 09:37김성현

HPE, 주니퍼네트웍스 140억달러에 인수

휴렛팩커드엔터프라이즈(HPE)가 주니퍼네트웍스를 인수한다. 거래 규모가 140억달러에 달한다. HPE는 주니퍼네트웍스를 인수한다고 9일(현지시간) 발표했다. HPE는 주니퍼네트웍스 주식을 주당 40달러에 전액 현금으로 매입한다. 거래되는 주식의 가치는 총 140억달러 수준이다. HPE는 주니퍼와 결합으로 고수익 네트워킹 비즈니스를 강화해 지속가능하고 수익성 있는 성장 전략을 가속할 것이라고 설명했다. 주니퍼 인수로 HPE 네트워킹 사업은 두배로 성장할 것으로 예측됐다. HPE는 주니퍼 인수합병 후 네트워킹 사업 부문의 매출 비중이 2023 회계연도 기준 전체 매출의 16% 수준에서 31%로 증가할 것으로 전망했다. 전체 영업이익의 56%를 기여할 것이라고도 덧붙였다. 주니퍼는 라우터, 스위치, 무선랜, 네트워킹 관리, 보안 등의 솔루션을 보유했다. 주니퍼는 최근 몇년 사이 인공지능(AI) 기술을 결합한 네트워킹 관리 및 가시성 솔루션에 집중투자해왔다. 주니퍼는 미스트 AI 및 클라우드 플랫폼을 포함한 클라우드 제공 네트워킹 솔루션, 소프트웨어, 서비스 제품군을 강조한다. 조직이 디지털 및 AI 전략의 기반인 미션 크리티컬 클라우드 인프라에 안전하고 효율적으로 액세스할 수 있도록 지원한다고 설명한다. HPE 아루바 네트워킹과 HPE AI 상호 연결 패브릭과 주니퍼의 네트워킹 솔루션이 결합될 것으로 예상된다. 엔터프라이즈 및 데이터센터 네트워킹 분야에서 주로 활동해온 HPE는 주니퍼 인수로 통신사 기간망 인프라 분야로도 진입하게 됐다. 화웨이가 통신사 인프라 시장에서 강세를 보이며 라우터, 스위치 사업에 타격을 받았지만 한국을 포함한 세계 각국에 여전히 상당한 규모의 고객을 보유했다. 주니퍼는 1996년 창업했으며 시스코와 함께 이더넷 인프라 폭증기의 혜택을 톡톡히 누렸다. 2000년대 후반들어 창업주들의 익시트 시기에 진입하면서 꾸준히 M&A 시장 매물로 거론됐다. 20여년 간 주요 IT인프라 솔루션 제공업체가 주니퍼 인수 후보로 거론됐었다. 주니퍼가 HPE로 인수됨에 따라 시스코를 제외한 전통적인 이더넷 솔루션 기업 상당수가 사라지게 됐다. 기업의 IT 인프라 다수가 퍼블릭 클라우드로 옮겨갔지만, 여전히 서버, 스토리지와 함께 네트워킹 솔루션은 기업 자체 데이터센터 인프라의 핵심으로 자리하고 있다. 서버나 스토리지에 비해 전체 데이터센터 컴퓨팅 예산의 10% 미만 수준만 차지하고 있지만 향후 AI 인프라에서 막대한 지출 비중을 차지할 것으로 전망된다. 낮은 대기시간과 높은 대역폭이 고속 AI 연산에서 더욱 중요해졌기 때문이다. HPE는 이미 아루바네트웍스 인수를 통해 큰 성공을 경험했다. HPE는 2015년 아루바를 인수했고, 지난 2023 회계연도에서 아루바는 HPE 영업이익의 39.3%를 차지했다. 네트워킹 솔루션은 상대적으로 작은 매출 규모에 비해 높은 수익성을 갖는데, HPE는 그 혜택을 톡톡히 봤다. 이더넷 네트워킹 솔루션이 AI와 고성능컴퓨팅(HPC)에서 필수요소란 점도 HPE의 주니퍼 인수 이유 중 하나로 보인다. 인수합병 완료 후 주니퍼의 CEO인 라미 라힘은 HPE 네트워킹 사업을 총괄하며 HPE 안토니오 네리 CEO에게 보고하게 될 예정이다. 안토니오 네리 HPE CEO는 "주니퍼 인수는 업계의 중요한 변곡점을 나타내며 네트워킹 시장의 역량을 변화시키고 고객과 파트너에게 가장 까다로운 요구사항을 충족하는 새로운 대안을 제공할 것"이라며 "거시적 AI 추세를 가속하는 와중에 HPE의 입지를 강화하고 전체 시장을 확대하며 AI 기반 세계와 클라우드 기반 세계를 연결하는 동시에 주주를 위한 상당한 가치를 창출함으로써 고객을 위한 추가혁신을 촉진할 것"이라고 밝혔다. 라미 라힘 주니퍼 CEO는 "혁신적이고 안전한 AI 기반 솔루션에 대한 우리의 다년간의 집중은 뛰어난 성과를 이끌어냈다"며 "뛰어난 사용자 경험과 단순한 운영을 성공적으로 제공하며, HPE에 합류함으로써 여정의 다음 단계를 가속할 것"이라고 강조했다. 주니퍼의 주주는 주당 40달러를 받게 되며, 이는 언론발표 전 마지막 거래일인 8일 주가에 약 32% 프리미엄을 붙인 액수다. M&A 발표 후 뉴욕증권거래소에서 주니퍼 주가는 21% 이상 급등해 36.81달러를 기록했다. 주주 승인과 규제기관 승인을 거쳐 올해말이나 내년초 인수합병이 완료될 것으로 예상된다.

2024.01.10 11:00김우용

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 낸드 계열사 지분 中에 전량매각…고부가 메모리 집중

[지디 코믹스] 판교 대기업 다니는 김부장 딸 결혼식

아우디, F1 첫 진출 앞두고 '레이싱 머신' 디자인 콘셉트 공개

이재명, 재계 총수와 주말 회동…팩트시트 후속 논의

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.