• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (67건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

시스코-엔비디아, 'AI 네트워킹' 동맹 체결

시스코와 엔비디아가 인공지능(AI) 네트워킹 인프라 동맹을 체결했다. 시스코는 지난주 암스테르담에서 개최한 '시스코 라이브'에서 엔비디아와 AI 인프라 솔루션 파트너십을 발표했다. 이 파트너십에 따르면, 시스코는 엔비디아 GPU 클러스터에 특수목적 이더넷 네트워킹 기반 솔루션을 제공한다. 엔비디아의 GPU 클러스터를 이더넷 인프라로 확장할 수 있는 솔루션이다. 엔비디아의 텐서코어 GPU는 시스코 UCS-X 시리즈, UCS-X 시리즈 다이렉트 등 시스코 UCS M7 세대 랙 및 블레이드 서버에서 사용가능하다. 각종 AI 관련 프레임워크와 사전훈련 모델, 개발 도구 등을 포함하는 엔비디아 AI 엔터프라이즈를 시스코를 통해 사용할 수 있다. 시스코는 엔비디아와 참조 아키텍처를 공동 검증하고 고객에게 제공한다. 생성 AI 추론을 위한 플렉스포드, 플래시스택용 시스코검증설계(CVD, Cisco Validated Design)를 시작으로 여러 검증 아키텍처가 출시될 예정이다. 시스코는 넥서스 대시보드, 시스코 인터사이트 등을 사용해 엔비디아 GPU 클러스터 운영을 간소화한다. 시스코 사우전드아이즈와 시스코 가시성 플랫폼이 AI 인프라 모니터링을 제공한다. AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. LLM 환경은 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요하다. 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적이다. 현재 엔비디아 GPU 클러스터링의 네트워킹 인프라는 인피니밴드 중심이다. 델오로그룹 분석에 의하면, 전세계 엔비디아 기반 AI 인프라의 90%는 엔비디아 멜라녹스의 인피니밴드를 사용중인 것으로 추정된다. 인피니밴드가 이더넷을 압도하며 AI 인프라에 활용된 건 고대역폭과 안정성 때문이다. 하지만 기술의 발전으로 인피니밴드로만 구현가능했던 부하분산, 안정성, 고대역폭, 저지연시간 등의 요건이 이더넷에서도 충족가능해졌다. AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩 기술인 RDMA는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 시스코의 경우 실리콘원 G200 스위치 ASIC을 통해 고급 혼잡 관리, 패킷 스프레이 기술, 링크 장애 조치 등 AI 환경에 유용한 여러 기능을 제공한다. 이 ASIC의 경우 전력 효율도 우월해 인피니밴드 대비 운영비용을 더 절감할 수 있다. 인피니밴드보다 이더넷을 AI 인프라에 활용할 경우 운영 인력 확보도 더 용이해진다. 인피니밴드와 달리 이더넷은 표준 기술이고 경쟁 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 척 로빈스 시스코 회장 겸 최고경영자는 “AI는 우리가 일하고 생활하는 방식을 근본적으로 변화시키고 있으며, 이러한 규모의 변화로 인해 기업은 인프라를 재고하고 재구축해야 한다는 것을 역사를 통해 알 수 있다”며 "엔비디아와 훌륭한 파트너십을 강화하면 기업은 AI 솔루션을 대규모로 구축, 배포, 관리 및 보호하는 데 필요한 기술과 전문 지식을 갖추게 될 것”이라고 밝혔다. 젠슨 황 엔비디아 CEO는 "모든 기업이 생성 AI를 통해 비즈니스를 혁신하기 위해 경쟁하고 있다"며 “시스코와 긴밀히 협력해 기업이 평생 가장 강력한 기술인 AI의 혜택을 받는 데 필요한 인프라를 그 어느 때보다 쉽게 확보할 수 있도록 만들고 있다”고 강조했다.

2024.02.13 11:56김우용

젠슨 황 엔비디아 "세계 각국, AI 인프라 독자 구축해야"

젠슨 황 엔비디아 CEO가 세계 각국이 독자적인 AI(인공지능) 인프라를 구축해야 함을 강조했다고 로이터통신 등이 12일 보도했다. 이날 두바이에서 열린 '세계정부정상회의(WGS) 2024'에 참석한 황 CEO는 "AI의 경제적 잠재력을 활용하면서 자국의 문화를 보호하려면 모든 국가가 자체 AI 인프라를 보유해야 한다"며 "다른 국가가 그런 일을 하도록 허용해서는 안 된다"고 말했다. 그는 이어 "가능한 한 빨리 AI 산업의 주도권을 잡고, 업계를 활성화하고, 인프라를 구축하는 것은 전적으로 각국 정부에 달렸다"고 덧붙였다. AI 산업의 위험성에 대해서는 "과도한 두려움"이라는 입장을 밝혔다. 황 CEO는 "자동차, 항공 등 다른 신기술 및 산업도 성공적으로 규제된 바 있다"며 "AI에 대한 공포를 부추기면서 아무 것도 하지 않도록 장려하는 사람들은 실수를 하고 있다고 생각한다"고 강조했다. 현재 엔비디아는 AI 구현의 핵심으로 꼽히는 고성능 서버용 GPU(그래픽처리장치) 분야에서 압도적인 시장 점유율을 차지하고 있다. 덕분에 최근 엔비디아의 시가총액은 1조8천200억 달러까지 상승하면서 지난 2002년 이후 처음으로 아마존을 앞지르기도 했다.

2024.02.13 08:49장경윤

김주선 SK하이닉스 사장 "AI 인프라로 첨단 메모리 'No.1' 공략"

"AI 중심의 시장 환경에서는 관성을 벗어난 혁신을 추구해야 한다. 앞으로 AI 인프라 조직이 SK하이닉스가 세계 1위 AI 메모리 공급사로 성장하는 데 있어 든든한 버팀목 역할을 할 수 있게 최선을 다하겠다." 7일 SK하이닉스는 공식 뉴스룸을 통해 'AI 인프라'를 담당하는 김주선 사장과의 인터뷰를 게재했다. 33년간의 현장 경험을 바탕으로 올해 사장으로 승진한 김주선 사장은 SK하이닉스의 신설 조직인 'AI 인프라'의 수장을 맡고 있다. AI 인프라 산하의 GSM(글로벌세일즈&마케팅) 담당도 겸하고 있다. AI 인프라는 AI 기반의 산업 및 서비스를 구축, 테스트, 학습, 배치하기 위해 필요한 하드웨어와 소프트웨어 전반 요소를 뜻한다. SK하이닉스는 AI 인프라 시장의 리더십을 확대하고자 올해 해당 조직을 구성했다. 산하로는 글로벌 사업을 담당하는 GSM, HBM(고대역폭메모리) 사업 중심의 HBM비즈니스, HBM 이후의 미래 제품·시장을 탐색하는 MSR(메모리시스템리서치) 조직이 있다. 이를 기반으로 AI 인프라는 고객별 요구에 맞춰 차별화한 스페셜티(Specialty) 제품을 적기에 공급하고, 거대언어모델(LLM)을 분석해 최적의 메모리를 개발하며, 커스텀 HBM의 콘셉트를 구체화해 차세대 메모리 솔루션을 제안하는 등의 업무를 추진한다. 김주선 사장은 "AI 중심으로 시장이 급격히 변하는 환경에서 기존처럼 일하면 아무것도 이룰 수 없다"며 "관성을 벗어난 혁신을 바탕으로 효율적으로 업무 구조를 재구성하고, 고객의 니즈와 페인 포인트(Pain Point)를 명확히 파악한다면 AI 시장을 우리에게 더 유리한 방향으로 끌고 갈 수 있다"고 밝혔다. 이와 관련해 김주선 사장은 지난 수 년간 GSM 조직을 이끌며 다양한 성과를 거뒀다. 시장 예측 툴 MMI(Memory Market Index)를 개발하고, HBM 수요에 기민하게 대응해 AI 메모리 시장에서 SK하이닉스의 입지를 확고하게 다진 점이 대표적인 사례로 꼽힌다. 김주선 사장은 "MMI 툴을 통해 6개월 이상 앞선 정보를 확보할 수 있었고, HBM 수요에도 적기에 대응할 수 있었다"며 "“AI 시장에서 영향력 있는 기업들과 우호적인 관계를 형성해 놓은 것도 HBM 시장 점유율 1위를 확보할 수 있었던 주요 원인"이라고 설명했다. SK하이닉스의 AI 리더십을 굳히기 위한 강한 의지도 드러냈다. 김주선 사장은 "앞으로도 'AI 메모리는 SK하이닉스'라는 명제에 누구도 의문을 품지 않도록 소통과 파트너십을 강화해 제품의 가치를 극대화하겠다"며 "아울러 SK하이닉스가 글로벌 No.1 AI 메모리 프로바이더로 성장하는 데 있어 든든한 버팀목 역할을 하는 조직을 만들겠다"고 강조했다.

2024.02.07 10:18장경윤

AI 네트워킹, 인피니밴드에서 이더넷으로 대세 바뀐다

챗GPT 등장 후 생성형 인공지능(AI) 기반 서비스가 모든 산업군에 변화를 만들고 있다. AI 기술은 모든 산업의 새로운 먹거리로 인식되는 상황이다. 대기업, 인터넷서비스기업, 클라우드 기업 등은 AI 시장을 선점하려 대대적인 물량 투자와 함께 기업 인프라를 개혁하고 있다. 오늘날 AI 기술은 챗GPT 이전과 이후로 나뉜다고 할 정도다. 챗GPT를 뒷받침하는 트랜스포머 아키텍처는 인간과 소통하듯 '자연스러운' 대규모언어모델(LLM)을 만들어냈다. 그리고 이 '자연스러움'을 더욱더 인간처럼 구현하려면 방대한 규모의 고성능 GPU 클러스터 인프라가 필수적이다. AI 인프라의 근간인 GPU, 서버, 스토리지, 네트워크 등은 수많은 제품을 요구하는 고비용 서비스다. LLM의 경우 GPU 갯수를 늘릴수록 학습 시간을 획기적으로 늘릴 수 있는 구조다. 예를 들어 2년 전 나온 GPT-3.5의 경우 1만개의 GPU로 서비스된다. GPT-3.5를 GPU 한개로 학습시킨다면 약 355년이 필요하다. AI 인프라 기술 그 자체는 전과 크게 달라지지 않았다. AI 인프라가 작은 연산 자원을 대규모로 한대 묶어 성능을 획기적으로 높이는 고성능컴퓨팅(HPC) 기술을 근간으로 한다. HPC 기술은 처음에 CPU를 중심으로 발전하다 21세기 들어 GPU 클러스터로 발전했다. 현재 LLM 학습과 추론을 위한 GPU 시장은 엔비디아 독주 체제다. 엔비디아 텐서코어 H100이나 A100 GPU는 칩셋 하나당 5천만원 내외의 단가로 거래되고, 그마저도 공급부족으로 품귀현상을 보인다. 주문한다고 해도 구하기 쉽지 않고, 가격도 고공행진중이다. 오픈AI의 GPT, 구글 제미나이, 메타 라마 등 유명 LLM의 발전과 출시는 GPU의 빅테크 쏠림과 공급부족 현상을 한층 부추기고, 일반 수요자를 더 안달나게 만든다. 이런 독점 체제를 깨기 위해 AMD, 인텔 등이 경쟁 제품을 속속 출시중이다. ■ AI 인프라에서 네트워킹이 왜 중요한가 AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적인 것이다. 고성능 AI 인프라 수용을 위한 네트워킹은 전통적인 워크로드 수용을 위한 인프라보다 거대할 수밖에 없는 구조다. 노드 내 GPU 간 연산 능력은 4개의 GPU를 내부 버스를 통해 P2P로 연결하는 NV링크 또는 서버 내 8개의 GPU를 연결하기 위해 NV스위치를 통해 극대화 가능하다. 여러 GPU 노드를 클러스트링하고 각 GPU 노드들의 통신 간 병목현상을 최소화하려면 GPU 당 한개의 고성능의 네트워크인터페이스카드(NIC)를 할당하게 된다. 각 NIC는 400Gbps 대역폭을 수용할 수 있어야 한다. GPU 한개에 1대의 400Gbps급 스위치를 연결하게 된다. 400Gbps가 제공되는 고사양의 스위치를 근간으로 2티어에서 3티어 구조의 '리프스파인(Leaf-spine)' 아키텍처를 구성하므로 대형 GPU 노드 클러스터의 경우 최소 수십대의 400Gbps급 스위치가 기본 제공돼야 한다. 엔비디아의 멀티 GPU 클러스터 상품인 '슈퍼팟(SuperPOD)'의 경우 32대의 DGX H100 노드를 최대 256개의 GPU 클러스터링으로 연결하며, 이론적으로 최대 57.8 TBps의 데이터 연산 성능을 제공하게 돼 있다. 따라서 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요해진다. LLM의 경우 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. ■ 왜 인피니밴드보다 이더넷인가 AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩(Off-Loading)기술인 RDMA(Remote Direct Memory Access)는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA(Direct Memory Access)'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 인피니밴드나 RDMA오버컨버지드이더넷(RoCE)를 통해 활용가능하다. 수백개 GPU가 병렬처리를 통해 수백, 수천 시간을 학습하고 빠르게 서비스를 제공하려면 네트워크의 안정성도 중요하다. 잠깐의 방해도 재연산을 하게 만들 수 있다. 과거 네트워킹 기술의 성능과 안정성 면에서 인피니밴드가 이더넷보다 앞선 것으로 여겨져왔다. 인피니밴드가 이더넷의 대역폭을 월등히 앞섰기 때문에 HPC 분야에서 주료 인피니밴드를 활용했었다. 엔비디아 DGX 서버도 이더넷보다 인피니밴드를 장려한다. 안정성의 측면에서 인피니밴드는 패킷 무손실을 전제하지만, 이더넷은 어느정도의 패킷손실을 전제로 한다. LLM 인프라가 HPC 기술을 바탕에 두기 때문에 GPU 클러스터의 네트워킹은 인피니밴드를 주로 쓴다. 만약 앞서 계산했듯 기존 비즈니스 워크로드 대비 3~4배 많은 네트워킹 인프라 물량을 인피니밴드로 구성하면 비용 부담이 적지 않다. 특히 인피니밴드 기술은 제조사 간 경쟁이 사라진 독점 기술이다. 과거 인피니밴드 솔루션을 개발하고 공급해오던 기업들이 하나둘 대형 업체에 흡수되거나 사라졌는데, 마지막 독립 업체로 남아 있던 멜라녹스도 엔비디아에 인수됐다. 지금은 엔비디아가 인피니밴드 기술을 독점 공급하는 상황이다. 공개 표준 기술이 아니므로 인피니밴드 핵심 기술은 비공개다. 발전 방향이나 정도가 엔비디아 결정에 100% 달려있다. 비용 구조도 엔비디아 종속적이다. 심지어 인피니밴드 스위치 공급 부족 현상이 GPU 공급부족보다 더 심각하다는 말까지 나온다. 비용, 기술 모두 특정업체 종속적인 상황에서 인피니밴드는 외부의 여러 워크로드를 LLM에 연동하기 힘들게 하는 장애물이 된다. 인피니밴드를 다룰 줄 아는 전문가는 매우 희귀하며, 기술적 어려운 정도도 매우 높다. AI 인프라에서 인피니밴드가 당연시 된 건 이더넷 기술에 대한 오해 때문이기도 하다. 얼마전까지 인피니밴드는 속도 면에서 이더넷을 앞섰으며, 400Gbps란 대역폭은 인피니밴드의 전유물처럼 여겨졌었다. 하지만, GPU 제조사인 엔비디아도 네트워킹 영역의 무게중심을 인피니밴드에서 이더넷으로 이동하고 있을 정도다. 대부분의 기존 AI 네트워크 인프라는 인피니밴드라는 프로토콜과 특정 업체가 시장을 독점했지만, 이젠 표준 기반 기술을 통해 비용 이슈 제거 및 편리한 운영 관리가 가능한 표준 기반의 RDMA 방식인 RoCE가 인피니밴드 기술을 대체할 것으로 기대된다. 근래 들어 이더넷 진영은 400G, 800G 제품을 선보이면서 인피니밴드와 동등한 성능을 제공하게 됐다. 지금은 인피니밴드나 이더넷이나 현존하는 NIC과 스위치 포트에서 낼 수 있는 최대한의 대역폭이 400Gbps로 똑같다. 이젠 인피니밴드와 이더넷 모두에서 어느정도 동급 성능을 기대할 수 있을 정도로 이더넷 기술의 진화는 뚜렷해졌고 엔비디아의 GPU 성능 테스트 도구인 NCCL을 이용해 인피니밴드와 RoCE를 비교 테스트 결과를 보더라도 대역폭과 지연시간이 동등하거나 약간의 차이만 보일정도로 AI 인프라 영역에서의 이더넷 기술의 상당한 신뢰성을 제공할 수 있는 프로토콜로 발전하고 있다. RoCEv2(버전2)는 인피니밴드의 헤더와 RDMA 기술을 그대로 탑재했으며, TCP 제거, UDP 활용 등을 통해 이더넷 스위치의 지연시간을 개선하고 있다. 안정성 면에서도 PFC, ECN 등 이더넷의 표준 기술로 패킷 손실을 최대한 상쇄할 수 있다. 무엇보다 이더넷은 표준 기술이고 치열한 경쟁을 보이는 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 기술 로드맵상으로도 인피니밴드와 이더넷은 800Gbp란 같은 방향을 가리키고 있는데, 오히려 이더넷의 대역폭 증가가 인비니밴드를 앞선 상황이다. 인피니밴드의 800G 이후 계획은 시점을 확정하지 않은 반면, 이더넷의 800G는 이미 상용화됐다. 2025년이면 1.6Tbps 기반 패브릭 기술 제품도 출시될 것으로 예상된다. 이같은 흐름속에 시스코는 LLM 인프라용 제품으로 넥서스 시리즈 스위치를 제공하고 있다. 네트워킹 프로비저닝과 모니터링에 쓰이는 오케스트레이션 툴 '넥서스 대시보드'는 대규모 AI 인프라의 빠른 구축과 관리를 위해 턴키 기반 자동화와 로스리스 안정성을 보장하는 가시성을 제공한다. 또한 지연시간에 민감한 AI 트래픽의 가시성을 제공하는 분석 도구와 솔루션도 이용가능하다. 시스코는 특히 전용 SoC 칩으로 넥서스 스위치를 구동해 인피니밴드 장비보다 더 적은 전력으로 고성능 AI 인프라를 구동할 수 있다고 강조한다. AI 인프라에서 서서히 독점의 시대가 저물고 있다. 개방형 표준 제품과 기술이 갈수록 높아지는 AI 인프라 투자 및 운영 비용을 절감하고 기업 경쟁력을 높이는 열쇠가 될 것이다.

2024.01.30 16:07김우용

김성하 한국오라클 신임사장 "OCI는 빠르고, 안전하며, 싸다"

“전세계 1만개 도시에서 모빌리티와 배달서비스를 운영하는 우버는 클라우드 전환을 처음 고려할 때 오라클을 후보로 고려하지도 않았다. 오라클은 나중에야 초청받아 경쟁에 참여했고, 우버는 최종적으로 거의 대부분 인프라를 오라클 클라우드로 이전하기로 했다. 우버 CEO가 그 이유를 세가지라고 했다. 오라클 클라우드가 빠르고, 안전하며, 싸다는 것이다. 이처럼 많은 전문가들이 클라우드 선택 기로에 선 기업에게 반드시 오라클을 그 후보자로 설정해야 한다고 평가한다.” 김성하 한국오라클 신임 사장은 25일 서울 그랜드인터컨티넨탈호텔파르나스에서 열린 '오라클 클라우드 서밋 2024' 환영사에서 이같이 밝혔다. 그는 이달초 한국오라클의 신임 사장으로 선임됐다. IBM, SAP, 태블로 등을 거치며 29년 간 IT 경력을 쌓아온 김 신임 사장은 오라클의 클라우드 서비스 경쟁력을 우버 CEO의 평가를 빌려 강조하고 AI 시대에도 엔터프라이즈 기업의 요구에 맞는 인프라를 제공하겠다고 했다. 김 사장은 “작년 가트너 매직쿼드런트 전략적 클라우드 플랫폼 서비스 보고서에서 오라클이 마침내 리더로 선정됐다”며 “이제 클라우드 서비스 프로바이더로서 톱4로 당당히 들어간 것”이라고 말했다. 그는 “오라클은 태생부터 B2B의 피를 갖고 있고, 기업의 미션크리티컬 업무를 클라우드로 옮기려면 새로운 분산형 클라우드 형태여야 한다고 강조한다”며 “규제, 보안, 성능, 가격 등에서 설계 단계부터 고객의 요구에 맞춰 전달돼야 한다는 게 오라클 분산형 클라우드”라고 덧붙였다. 오라클은 퍼블릭 클라우드 서비스인 '오라클클라우드인프라스트럭처(OCI)'를 기본으로 삼고, 프라이빗 클라우드와 하이브리드 클라우드, 멀티 클라우드, 엣지 등에 맞는 다양한 딜리버리 모델을 제공한다. OCI와 완전히 동일한 구성과 서비스로 고객사 데이터센터에 설치하는 '클라우드앳커스터머', '전용 리전' 등을 선택할 수 있고, 특정 산업분야에 특화된 파트너가 OCI와 동일한 구성을 구매해 고객에게 직접 서비스하는 '오라클 알로이'도 있다. 멀티클라우드로는 아예 마이크로소프트와 협약을 맺고 각사의 클라우드 데이터센터를 연동하는 인터커넥트 서비스를 제공하고 있으며, 오라클 데이터베이스와 엑사데이터를 마이크로소프트 애저 데이터센터 내부에 직접 설치하기도 했다. 김 사장은 “미국 국방부 JWCC, 독일 도이치뱅크, 일본 토요타, 닛산, 마즈다, 스바루, 노무라리서치인스티튜트, 말레이시아 페트로나스, 우버 등이 오라클 클라우드를 운영하고 있다”며 “AI의 혈액인 데이터, 강력한 생성형 AI, 안전하고 빠르게 운영가능한 클라우드 등 오라클은 AI를 혁신 도구로 사용할 수 있는 세 요소를 삼위일체로 해 여러분의 비즈니스 혁신을 돕는다”고 강조했다. 김 사장에 이어 알리스테어 그린 오라클 JAPAC 클라우드엔지니어링 수석 부사장이 기조연설을 진행했다. 알리스테어 그린 부사장은 “OCI는 전세계 웹 기반 화상회의 트래픽의 50%를 소화하고 있으며, 하루에 30페타바이트의 미디어를 소화하고 있다”며 “아태지역 10대 은행 중 다섯 곳이 OCI 고객이고, 20대 자동차 제조사 중 9곳이 차량설계에 OCI를 사용한다”고 말했다. 그는 “오라클의 OCI는 클라우드 네이티브 앱뿐 아니라 기존의 전통적 앱도 클라우드로 리프트앤시프트 방식으로 옮겨 50% 이상의 비용 절감 효과를 낸다”며 “필요한 방식으로 어디서나 OCI 역량을 확보할 수 있으며, 전세계 어디서든 똑같이 저렴한 가격 구조로 운영된다”고 덧붙였다. 그는 정식 출시된 OCI 생성형 AI 서비스를 소개하면서 '엔터프라이즈급 생성형 AI 서비스'라고 표현했다. 그는 “엔비디아 GPU와 RDMA 네트워킹 기반의 생성 AI용 클러스터 인프라, AI와 머신러닝을 내장한 데이터 플랫폼과 다양한 퓨전 애플리케이션, 고도의 자동화와 편리함을 제공하는 개발자 플랫폼 등 전체 계층에서 AI를 활용하고 제공한다”고 강조했다.

2024.01.25 16:37김우용

효성인포 "생성 AI 최적화된 통합 인프라와 서비스 제공"

효성인포메이션시스템(대표 양정규)은 24일 기자간담회를 열고 올해 디지털전환(DX) 선두 기업으로서 AI 시장 공략을 강화한다고 밝혔다. 효성인포메이션시스템은 데이터 인프라, HPC/GPU, 클라우드 등 DX 비즈니스를 강화하고, 미래 혁신 설계를 위한 스토리지 전략을 확대하는 등 전사적으로 데이터 기반 AI 혁신 위한 시너지를 강화했다. 효성인포메이션시스템은 지난해 AI 확산에 따라 GPU 서버 및 AI 스토리지 사업을 강화하고 대형 언어 모델(LLM) 프로젝트를 다수 진행하는 등 차별화된 솔루션과 기술력을 제공하며 AI 비즈니스를 크게 성장시켰다. 클라우드 사업도 국내 주요 공공 및 금융 분야 고객을 확장시키고 SDDC 기반의 데이터센터 구현과 클라우드 기반 재해복구(DR) 분야에서 우위를 점하며 성장세를 이어가고 있다. AI 시대를 맞아 기업 IT 인프라는 크게 변화하고 있다. AI가 문제해결 능력을 가지고 스스로 데이터를 생성하는 일반인공지능(AGI) 및 생성형 AI 기술이 고도화 되면서, 기존 하드웨어와 차별화된 고성능 연산 환경과 데이터 처리가 AI 서비스를 위해 필수가 되고 있다. 이에 맞춰 효성인포메이션시스템은 AI 연산 환경부터 고성능 데이터 처리, AI솔루션까지 고객의 AI 전환을 위한 핵심 경쟁력을 제공한다. 효성인포메이션시스템은 고성능 AI 연산 환경을 위해 슈퍼마이크로와 협업하여 GPU 서버를 시장에 공급하고, 초고성능 병렬파일 스토리지 HCSF를 통해 GPU 성능을 뒷받침하는 고성능 데이터 처리를 지원한다. AI/ML옵스 솔루션, GPU DB, 인메모리 DB, 고속 네트워크 등 최적의 AI 인프라를 위한 국내외 다양한 파트너사 연계 및 확장 제안을 통해 고객에게 AI 인프라 구현을 위한 최적의 솔루션을 제시할 전략이다. 서비스 중심으로 클라우드가 진화함에 따라 효성인포메이션시스템은 고객 환경에 최적화된 솔루션을 제공하는 한편 사전 컨설팅 및 고객 체험 프로그램을 강화한다. SDDC와 재해복구(DR)까지 더해진 완벽한 데이터센터 현대화 전략을 제시하고, 클라우드 관리 플랫폼 'UCP CMP'로 차별화된 서비스를 제공한다. SDDC 전환을 장기적인 관점으로 안정적으로 구현하기 위해 5단계로 구성된 사전 컨설팅 프로그램을 제공하며 차별화된 클라우드 컨설팅, 기술력을 바탕으로 고객사를 확장시킬 계획이다. 효성인포메이션시스템은 올해 새로운 스토리지 전략을 통해 고객들의 데이터 혁신을 지원한다. 데이터 스토리지에 대한 새로운 접근 방식인 'VSP ONE' 전략을 통해 전체 데이터 플랫폼과 데이터 관리 소프트웨어의 통합을 추진할 계획이다. VSP ONE을 통해 고객은 온프레미스, 클라우드, 엣지 등 어디서나 애플리케이션을 실행, 관리, 활용할 수 있다. 각기 다른 데이터 저장 플랫폼을 하나의 관리 소프트웨어로 통합 관리하고, 하나의 컨트롤 플레인, 하나의 데이터 패브릭에 통합함으로써, 사용자가 인프라에 대한 고민을 최소화하고 비즈니스에만 집중하며 업무 효율성을 확대시키는 미래지향적인 아키텍처를 제시한다. 구독형 스토리지 서비스HIS STaaS(Storage as a Service) 사업을 본격화하며 기업의 IT 운영, 비즈니스 효율을 높이고 인프라 현대화를 추진할 수 있도록 적극적인 영업활동을 펼칠 계획이다. 'HIS STaaS'는 비즈니스에 필요한 만큼만 스토리지를 사용하면서 과금하는 방식으로, 검증된 스토리지인 'VSP'를 기반으로 완벽한 가용성과 성능을 지원하고, 오브젝트 스토리지 HCP와 파일스토리지 HNAS도 활용 가능하다. 효성인포메이션시스템 양정규 대표이사는 “효성인포메이션시스템은 IT 변화의 중심에서 다양한 고객 성공 사례와 혁신적 솔루션을 바탕으로 DX 전문기업으로 포지셔닝을 강화해 왔다”며 “생성형 AI 시장 흐름에 맞춰 전사적 역량을 집중하고, 파트너와 협업해 데이터 기반 AI 혁신을 위한 시너지 강화에 총력을 기울일 것”이라고 밝혔다.

2024.01.24 14:11김우용

HPE, 주니퍼네트웍스 140억달러에 인수

휴렛팩커드엔터프라이즈(HPE)가 주니퍼네트웍스를 인수한다. 거래 규모가 140억달러에 달한다. HPE는 주니퍼네트웍스를 인수한다고 9일(현지시간) 발표했다. HPE는 주니퍼네트웍스 주식을 주당 40달러에 전액 현금으로 매입한다. 거래되는 주식의 가치는 총 140억달러 수준이다. HPE는 주니퍼와 결합으로 고수익 네트워킹 비즈니스를 강화해 지속가능하고 수익성 있는 성장 전략을 가속할 것이라고 설명했다. 주니퍼 인수로 HPE 네트워킹 사업은 두배로 성장할 것으로 예측됐다. HPE는 주니퍼 인수합병 후 네트워킹 사업 부문의 매출 비중이 2023 회계연도 기준 전체 매출의 16% 수준에서 31%로 증가할 것으로 전망했다. 전체 영업이익의 56%를 기여할 것이라고도 덧붙였다. 주니퍼는 라우터, 스위치, 무선랜, 네트워킹 관리, 보안 등의 솔루션을 보유했다. 주니퍼는 최근 몇년 사이 인공지능(AI) 기술을 결합한 네트워킹 관리 및 가시성 솔루션에 집중투자해왔다. 주니퍼는 미스트 AI 및 클라우드 플랫폼을 포함한 클라우드 제공 네트워킹 솔루션, 소프트웨어, 서비스 제품군을 강조한다. 조직이 디지털 및 AI 전략의 기반인 미션 크리티컬 클라우드 인프라에 안전하고 효율적으로 액세스할 수 있도록 지원한다고 설명한다. HPE 아루바 네트워킹과 HPE AI 상호 연결 패브릭과 주니퍼의 네트워킹 솔루션이 결합될 것으로 예상된다. 엔터프라이즈 및 데이터센터 네트워킹 분야에서 주로 활동해온 HPE는 주니퍼 인수로 통신사 기간망 인프라 분야로도 진입하게 됐다. 화웨이가 통신사 인프라 시장에서 강세를 보이며 라우터, 스위치 사업에 타격을 받았지만 한국을 포함한 세계 각국에 여전히 상당한 규모의 고객을 보유했다. 주니퍼는 1996년 창업했으며 시스코와 함께 이더넷 인프라 폭증기의 혜택을 톡톡히 누렸다. 2000년대 후반들어 창업주들의 익시트 시기에 진입하면서 꾸준히 M&A 시장 매물로 거론됐다. 20여년 간 주요 IT인프라 솔루션 제공업체가 주니퍼 인수 후보로 거론됐었다. 주니퍼가 HPE로 인수됨에 따라 시스코를 제외한 전통적인 이더넷 솔루션 기업 상당수가 사라지게 됐다. 기업의 IT 인프라 다수가 퍼블릭 클라우드로 옮겨갔지만, 여전히 서버, 스토리지와 함께 네트워킹 솔루션은 기업 자체 데이터센터 인프라의 핵심으로 자리하고 있다. 서버나 스토리지에 비해 전체 데이터센터 컴퓨팅 예산의 10% 미만 수준만 차지하고 있지만 향후 AI 인프라에서 막대한 지출 비중을 차지할 것으로 전망된다. 낮은 대기시간과 높은 대역폭이 고속 AI 연산에서 더욱 중요해졌기 때문이다. HPE는 이미 아루바네트웍스 인수를 통해 큰 성공을 경험했다. HPE는 2015년 아루바를 인수했고, 지난 2023 회계연도에서 아루바는 HPE 영업이익의 39.3%를 차지했다. 네트워킹 솔루션은 상대적으로 작은 매출 규모에 비해 높은 수익성을 갖는데, HPE는 그 혜택을 톡톡히 봤다. 이더넷 네트워킹 솔루션이 AI와 고성능컴퓨팅(HPC)에서 필수요소란 점도 HPE의 주니퍼 인수 이유 중 하나로 보인다. 인수합병 완료 후 주니퍼의 CEO인 라미 라힘은 HPE 네트워킹 사업을 총괄하며 HPE 안토니오 네리 CEO에게 보고하게 될 예정이다. 안토니오 네리 HPE CEO는 "주니퍼 인수는 업계의 중요한 변곡점을 나타내며 네트워킹 시장의 역량을 변화시키고 고객과 파트너에게 가장 까다로운 요구사항을 충족하는 새로운 대안을 제공할 것"이라며 "거시적 AI 추세를 가속하는 와중에 HPE의 입지를 강화하고 전체 시장을 확대하며 AI 기반 세계와 클라우드 기반 세계를 연결하는 동시에 주주를 위한 상당한 가치를 창출함으로써 고객을 위한 추가혁신을 촉진할 것"이라고 밝혔다. 라미 라힘 주니퍼 CEO는 "혁신적이고 안전한 AI 기반 솔루션에 대한 우리의 다년간의 집중은 뛰어난 성과를 이끌어냈다"며 "뛰어난 사용자 경험과 단순한 운영을 성공적으로 제공하며, HPE에 합류함으로써 여정의 다음 단계를 가속할 것"이라고 강조했다. 주니퍼의 주주는 주당 40달러를 받게 되며, 이는 언론발표 전 마지막 거래일인 8일 주가에 약 32% 프리미엄을 붙인 액수다. M&A 발표 후 뉴욕증권거래소에서 주니퍼 주가는 21% 이상 급등해 36.81달러를 기록했다. 주주 승인과 규제기관 승인을 거쳐 올해말이나 내년초 인수합병이 완료될 것으로 예상된다.

2024.01.10 11:00김우용

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현