• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU 클라우드'통합검색 결과 입니다. (15건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

정부 "다음주 GPU 1만장 확보 사업 공모…복수 CSP 선정 가능성"

정부가 인공지능(AI) 인프라 필수 요소인 그래픽처리장치(GPU) 확보를 위해 민관 협력을 본격화한다. 국내 클라우드 기업을 선정해 데이터센터에 GPU 1만 장을 설치·운영하게 하고, 이를 산학연이 활용하는 방식으로 추진할 방침이다. 과학기술정보통신부는 16일 서울 LW컨벤션센터에서 '최첨단 GPU 확보추진방안' 브리핑을 열고 연내 GPU 확보 청사진을 제시했다. 과기정통부는 정보통신산업진흥원(NIPA) 주관으로 연내 1만장 규모의 GPU 확보 사업을 추진한다. 국내 클라우드 서비스 제공업체(CSP) 간 경쟁을 통해 대상 기업을 선정할 방침이다. 선정된 CSP는 기존 데이터센터 인프라를 활용해 전력, 냉각, 네트워크 등 정비를 마친 뒤 순차적으로 GPU를 구축하고 실서비스로 전환한다. 사업 기간은 5년이다. 앞서 정부는 GPU 확보를 위해 1조4천600억원 추경 예산을 편성했다. 구매 대상은 엔비디아의 H200, B200, 블랙웰 등 고성능 GPU다. 확보된 GPU는 NIPA가 소유하되 국가 컴퓨팅AI센터(SPC)가 사용권을 갖는다. 공모 신청은 다음 주부터다. NIPA가 7월까지 CSP 심사·선정을 진행한다. 심사는 서면평가와 발표, 현장실사를 포함한 절차로 진행된다. 이후 올해 10월까지 GPU 전량을 확보해 선정 CSP에 공급한다. 과기정통부 장기철 인터넷진흥과 과장은 평가 기준이 효율성과 신속성이라고 밝혔다. 정부 재정 투입 대비 얼마나 높은 성능·효율을 확보할 수 있는지, 데이터센터에 GPU를 얼마나 빨리 구축할 수 있는지, GPU 서비스를 신속히 구동할수 있는지가 핵심이라는 설명이다. 정부는 이번 사업에서 복수 CSP가 선정될 수 있다고 밝혔다. 다만 단독으로 가격, 상면, 구축 속도, 활용 계획 등에서 타사 대비 경쟁력 뚜렷한 기업이 있으면 단일 선정될 가능성도 있다. 장기철 과장은 "평가 기준은 기존 SPC 참여 여부, 비용 대비 효율성, 인프라 구축 역량 등"이라고 설명했다. 그러면서 "GPU의 자사 활용 비중 하한선은 명시하지 않기로 했다"며 "다만 공공성과 산업계 파급력 중심으로 평가 기준이 마련될 것"이라고 덧붙였다. 이어 그는 "구체적 평가 항목과 선정 기준 등이 구체적으로 정해지지 않았다"며 "이달 중 공모 신청 브리핑을 추가로 열겠다"고 말했다. 과기정통부 엄열 정보통신정책관은 "이번 사업은 민관이 함께 AI 패권 경쟁에 대응하는 중요한 계기가 될 것"이라며 "국가 전체 경쟁력 강화에 기여하는 방향으로 사업을 추진하겠다"고 밝혔다.

2025.05.16 13:21김미정

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미

KT클라우드, 구독형 GPU에 엔비디아 'H200' 적용…고성능 AI 인프라로 고객 확보 가속

KT클라우드가 엔비디아의 최신 그래픽처리장치(GPU)를 인공지능(AI) 인프라에 적용하며 GPU 서비스를 한층 강화한다. AI 학습과 추론 워크로드 최적화를 앞세워 공공기관·스타트업 고객 확보에 나서기 위함이다. KT클라우드는 자사의 AI 훈련 서비스에 엔비디아 'H200'을 도입해 AI 인프라 성능을 개선한다고 24일 밝혔다. 기존 'H100' 기반의 AI 훈련 서비스에 최신 GPU를 추가해 연산 처리 성능과 전력 효율을 향상시키는 것이 이 프로젝트의 핵심이다. KT클라우드는 사용량 기반의 '서비스로의 GPU(GPUaaS)'를 제공하며 AI 학습과 추론 영역에 최적화된 인프라를 구축해왔다. 특히 AI 훈련 서비스는 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 통해 대량의 연산 작업을 효율적으로 처리할 수 있도록 설계됐다. GPU 노드 클러스터링은 여러 GPU 서버를 하나의 클러스터로 묶어 연산 성능을 극대화하는 기술로, 대규모 AI 학습에서 병렬 연산을 최적화하는 데 핵심적인 역할을 한다. 또 동적할당 제어 기능은 사용자의 작업량에 맞춰 자원을 실시간으로 배분하고 불필요한 자원 낭비를 줄여 최적의 GPU 성능을 유지한다. 이번 'H200' 도입은 이러한 기능을 보다 강화해 고성능 AI 학습 환경을 지원할 것으로 기대된다. 'H200'은 엔비디아 '호퍼(Hopper)' 아키텍처 기반의 최신 GPU로, 이전 모델인 'H100' 대비 연산 처리 능력과 전력 효율성이 개선됐다. 특히 메모리 대역폭이 확대돼 대규모 AI 모델 학습과 추론 성능을 극대화할 수 있는 것이 특징이다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. 공공 분야 대응도 강화한다. 회사는 올해 하반기 공공기관을 대상으로 AI 추론 전용 상품의 클라우드 서비스 보안 인증(CSAP) 절차를 진행할 계획으로 이로써 공공기관에서도 안전하게 AI 추론 서비스를 이용할 수 있도록 지원할 예정이다. 공용준 KT클라우드 클라우드본부장은 "이번 엔비디아 'H200' 도입으로 글로벌 수준의 AI 인프라를 확보하게 됐다"며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 말했다.

2025.02.24 11:21조이환

'AI 3대 강국' 목표 세운 韓, 대규모 투자 시동…조준희 "산업용 LLM에 주목해야"

최근 우리나라 정부가 인공지능(AI) 분야를 국가 전략 기술로 지정하고 집중 지원에 나선 가운데 국내 기업들이 산업용 거대언어모델(LLM) 개발에 적극 나서야 한다는 주장이 나왔다. 23일 업계에 따르면 조준희 한국소프트웨어협회장은 최근 자신의 소셜미디어(SNS) 페이스북 계정을 통해 "AI는 국가적으로 전략물자 수준 이상으로 생각해야 되고, 일종의 '핵무기'와 같다고 봐야 된다"며 "앞으로는 우리를 보호하는 무기로서의 AI를 가질 것이냐, AI 핵우산에 기댈 것이냐의 선택일 것"이라고 강조했다. 그러면서 "산업 보국을 위해서는 기업 수와 고용이 동반해서 늘어야 되는데 그런 면에서 우리가 소홀히 보고 있는 산업용 LLM 시장에 큰 기대감을 가지고 있다"며 "특히 제조 강국으로서의 산업 특화 LLM 개발 부분은 수출 측면에서도 선전 할 수 있다고 생각한다"고 덧붙였다. 조 회장이 이처럼 주장하고 나선 것은 최근 우리나라에서 AI 산업 발전을 위해 정부와 기업이 다각도로 방안을 모색하고 있는 상황에서 방향성을 제시하기 위한 것으로 분석된다. 앞서 정부는 지난 20일 제3차 국가AI위원회 회의를 진행해 '국가대표 정예팀'을 선발하는 한편, 빠른 시간 안에 세계 최고 수준의 LLM을 개발할 수 있도록 데이터와 그래픽처리장치(GPU) 등을 전폭 지원하겠다는 계획을 내놓은 바 있다. 특히 AI 컴퓨팅 인프라 확충을 위해 단기적으로는 내년 상반기까지 1만8천 장 규모의 첨단 GPU를 확충하기로 했다. 1만 장은 국가AI컴퓨팅센터를 중심으로 올해 안에 마련하고 나머지 8천여 장은 슈퍼컴퓨터 6호기 구축을 통해 확보한다. 장기적으로 2030년까지 국가AI컴퓨팅센터 내 국산 AI 반도체 비중을 50%로 끌어올려 저전력·고성능의 국산 AI 반도체 경쟁력을 높인다는 계획이다. 초기에는 엔비디아 등의 GPU를 쓰되 국산 AI 반도체의 성능을 검증해 점차 비율을 늘린다는 방침이다. 범용인공지능(AGI) 구현에 필요한 핵심 원천기술 확보도 추진하고 있다. 약 1조원을 투입할 계획으로, 현재 예비타당성 조사가 진행 중이다. 이에 대해 조 회장은 "국가 AI 역랑 강화 방안들은 어려운 환경에서 시기 적절하고 정교하게 잘 만들어졌다"며 "실행에 만전을 기하면 승산이 있다고 본다"고 말했다. 정부가 이처럼 나선 것은 AI 주도권을 둘러싼 글로벌 시장 경쟁이 갈수록 격화되고 있어서다. 미국은 지난 달 오픈AI, 오라클을 중심으로 AI 데이터센터에 약 730조원을 투자하는 '스타게이트 프로젝트'를 발표했다. 이에 질세라 유럽연합(EU)은 'AI기가팩토리 프로젝트'를 포함해 300조원가량을 투자키로 했다. 프랑스도 AI데이터센터에 약 163조원을 투자할 것이란 계획을 최근 공개했다. 하지만 우리나라는 미국, 중국에 이어 'AI 3대 강국'을 목표로 하고 있지만 '쩐의 전쟁'에선 다소 밀리는 모양새다. 한국은 일단 글로벌 AI 생태계에서 싱가포르·영국·프랑스와 함께 3위권으로 평가 되고 있지만, 고성능 AI 모델을 개발하기에는 국내 인프라가 부족하다는 지적을 받고 있다. 실제 지난해 기준 우리나라가 보유한 엔비디아의 AI 반도체 'H100'은 약 2천 개로, 미국 빅테크 메타의 15만 개, 마이크로소프트(MS)의 15만 개에 비해 상당히 낮은 수치다. 기술격차도 갈수록 커지고 있다. 미국과는 지난해 3월 기준 1.3년에 달했고 유럽과는 1년, 중국과는 0.9년의 차이가 났다. AI 고급 인재의 해외 이탈도 많아지면서 기술 개발에도 상당히 어려움을 겪고 있다. 이에 카카오는 자체 LLM 개발 중심 전략에서 선회해 오픈AI와 손을 잡았다. LLM 개발에 수천억원이 든다는 점에서 부담이 컸기 때문이다. 하지만 업계에선 카카오의 이 같은 전략에 대해 상당한 아쉬움을 드러냈다. 카카오가 파운데이션 AI 모델 개발에 소요되는 대규모 투자 비용을 절감하는 효과가 있겠지만, 자체적인 AI 역량 확보가 어려워져 향후 해외 진출에 어려움을 겪을 수도 있다고 판단해서다. 조 회장은 "국내 국민 메신저를 운영하는 대기업의 미국 LLM기업과의 제휴는 AI가 국가 기간산업이라는 철학이 부재한 보여주기식의 쉬운 접근"이라며 "(이 같은 전략은) 성공하기 어려울 것"이라고 주장했다. 이어 "AI는 LLM, GPU, 고대역폭메모리(HBM), 프로세싱-인-메모리(PIM), 클라우드, 양자 등 대규모 융합 산업으로, 어느 하나도 포기할 수 없는 주요 테크산업인 만큼 협업과 종합적인 접근이 중요하다"며 "올해 (우리나라가 AI기본법과 관련해) 세부 규정과 시행령을 더 정교하게 만들어서 미국 빅테크 기업을 적절히 견제하고 국내 산업을 증진시킬 수 있도록 (모두의) 균형있는 노력이 필요할 것"이라고 덧붙였다.

2025.02.23 15:37장유미

엘리스클라우드, 오픈소스 AI 생태계 최적화 솔루션 선보여

엘리스그룹(대표 김재원)의 AI 특화 클라우드 '엘리스클라우드'가 오픈소스를 포함한 다양한 범용 AI 모델을 클라우드 환경에서 안전하고 편리하게 사용할 수 있는 솔루션을 20일 공개했다. 엘리스클라우드는 기존 머신러닝(ML) API 기능을 업그레이드해 오픈소스 AI 모델을 맞춤형 AI 인프라에서 활용할 수 있는 'ML API 라이브러리' 기능을 선보였다. 이번 업그레이드의 특징은, 별도의 설치, 설정 없이 다양한 오픈소스 AI 모델도 편리하게 쓸 수 있는 최적화된 GPU·NPU 환경을 제공하는 것이다. API 기반 솔루션이 제공되는 일반 상용 AI 모델과 달리 오픈소스 AI 모델은 사용하는 모델에 따라 환경을 설정해야 하고, 원하는 특정 작업에 맞추는 파인 튜닝과정이 필요하다. 이런 어려움을 해소하기 위해 엘리스클라우드는 GPU·NPU 환경을 각 오픈소스 모델에 최적화하고, 최적화된 API를 제공한다. 딥시크의 R1, 메타의 라마 등 오픈소스를 포함한 다양한 AI 모델에 따라 맞춤형으로 구성한 고성능 AI 인프라 환경에서 AI 챗봇 등을 개발하고 관리, 배포까지 간편히 할 수 있다. 엘리스클라우드가 협약을 맺은 퓨리오사AI, 리벨리온의 최신 NPU를 활용한 고성능 컴퓨팅 서비스도 제공한다. 엣지데이터센터인 엘리스 AI PMDC(Portable Modular Data Center, 이동형 모듈러 데이터 센터) 기반의 프라이빗 클라우드 환경에서 실행돼 민감한 데이터의 외부 유출도 방지한다. 엘리스 AI PMDC는 모듈 단위로 구성이 가능해 물리적 격리가 가능하고, AI 수요 변화에 민첩하게 대응하는 것은 물론 전력효율지수(PUE)를 1.27까지 낮춰 뛰어난 에너지 효율도 갖췄다. 엘리스클라우드는 연내 운영을 목표로 1기당 1MW급 AI PMDC를 설계 및 구축하고 있다. 고밀도 전력과 발열을 안정적으로 관리하기 위해 공간 최적화 설계와 직접액체냉각(DLC) 기술을 도입, 업계 최고 수준인 랙 당 160kW전력으로 엔비디아 B100을 비롯한 최신 고성능 GPU를 지원하도록 설계된다. 김재원 엘리스그룹 대표는 "현재 고성능 GPU H100 5천장까지 수용할 수 있는 AI PMDC 설계·구축했고, 이는 국내 클라우드 기업 중 최대 규모일 것으로 예상한다"며 "엘리스클라우드 사업 본격화를 위해 GPU 확보에 더불어 R&D를 통한 기술 혁신과 투자에 집중하겠다"고 밝혔다.

2025.02.20 11:21백봉삼

하정우 센터장 "정부 GPU 확보 계획 긍정적…관건은 배분 방식"

"한국에서도 '딥시크-R1'가 나올 수 있습니다. 국내 기업은 이미 우수한 인공지능(AI) 기술을 갖췄기 때문입니다. 이미 딥시크-R1 개발 소스 80%도 공개된 상태입니다. 정부도 연내 그래픽처리장치(GPU) 1만5천장 확보를 약속했습니다. 앞으로 이 자원을 어떻게 배분할지가 관건일 것입니다." 네이버클라우드 하정우 AI혁신센터장은 국회의원회관에서 열린 '2025 디지털 정책포럼: AI 3대 강국 도약을 위한 혁신 생태계 조성 방안' 패널 토론에서 이같이 6일 밝혔다. 그동안 국내 기업이 AI 기술 축적을 이뤘다면 앞으로 정부가 GPU 등 인프라를 효율적으로 분배해야 한국형 딥시크-R1 탄생을 이끌 수 있다는 설명이다. 앞서 정부는 글로벌 인공지능(AI) 개발 트렌드에 맞춰 연내 GPU 1만5천 개를 확보하겠다고 발표했다. 애초 국가AI위원회 출범 당시 2030년까지 GPU 3만 장을 도입할 예정이었지만 최근 중국 딥시크가 AI 생태계에 돌풍을 일으켜 계획을 앞당겼다. 하정우 센터장은 "AI 혁신 핵심은 인프라의 규모 확장에 있다"며 "정부가 GPU를 확보한 후 이를 어떻게 잘 배분할지가 관건"이라고 강조했다. 하 센터장은 GPU를 무조건적으로 모든 기업에게 동일하게 나눠주는 것보다 사용 목적, 기술력 등을 고려해 효율적으로 공급하는 것이 바람직하다고 주장했다. 예를 들어 GPU 2만장을 2만개 기업에게 한 장씩 나눠주는 방식으로는 혁신을 만들 수 없다는 전망이다. 하 센터장은 GPU 배분 방식을 제안했다. 우선 GPU 절반은 네트워크로 연결된 기업·연구기관에 일정 기간 집중 활용되는 식이다. 이를 통해 AI 기술에 필요한 기초 연구들이 활발히 진행될 수 있다는 이유에서다. 나머지 GPU는 AI 스타트업과 학계에 지원하는 방식이다. 기업과 학계가 오픈소스 모델 기반으로 모델의 추가 학습과 파인튜닝을 할 수 있게 돕기 위해서다. 그는 GPU의 안전성도 보장돼야 한다고 강조했다. 사용자들이 쉽고 편리하게 GPU 같은 고성능 인프라를 활용할 수 있는 환경이 조성돼야 국내 AI 생태계 경쟁력을 강화할 수 있다는 이유에서다. 하 센터장은 "GPU는 고장이 잦은 장비"라며 "국가 AI 데이터 센터 같은 대규모 인프라가 구축될 경우 이를 안정적으로 운영할 수 있는 관리 체계가 반드시 마련돼야 한다"고 주장했다. 하 센터장은 AI 인재 양성을 위한 인건비 지원 방안도 제안했다. 기업과 학계, 정부가 협력하는 인재 육성 체계를 구축해야 한다고 말했다. 그는 "기업과 학교가 인건비를 50%씩 분담하고, 정부가 매칭 펀딩을 통해 추가 지원하면 AI 과학자들이 공공 분야에 기여할 수 있는 기반이 마련될 것"이라고 설명했다. 이어 "인건비 외에도 AI 연구자들에게 충분한 컴퓨팅 자원을 지원하는 것이 중요하다"며 "GPU를 적극 지원하면 연구자들의 동기부여와 연구 성과를 동시에 끌어올릴 수 있을 것"이라고 강조했다.

2025.02.06 17:54김미정

김재원 대표 "엘리스그룹, 에듀테크 기업에서 AI 기업으로"

AI 에듀테크 기업으로 잘 알려진 엘리스그룹(대표 김재원)은 인프라·데이터·플랫폼·콘텐츠 등 AI에 필요한 모든 것을 통합 제공하는 'AI 솔루션 기업'으로 자리매김하고 있다. 김재원 엘리스그룹 대표는 본격적인 AI 시대를 맞아 새해 이런 변화에 더욱 속도를 낸다는 계획이다. 엘리스그룹에 따르면, 회사는 AI 교육이 필요한 기업 또는 기관이 몰입도 높은 비대면(가상화) 실습 환경 아래에서 교육생들의 학습 관리를 편리하게 할 수 있는 '엘리스LXP' 플랫폼을 서비스 중이다. 이 플랫폼을 통해 ▲초중고 공교육 ▲취준생 및 재직자 직무교육 ▲산업 맞춤형 디지털 전환 교육 등 다양한 교육 콘텐츠가 제공된다. SK·LG·현대차 등 국내 대기업뿐만 아니라, 서울대·카이스트 등 대학과 정부·공공기관 총 5천300여 곳에서 맞춤형 디지털 전환 교육을 하고 있다. 관리자는 엘리스LXP에서 학습 데이터를 분석하고 시각화한 AI 대시보드를 통해 교육생들을 보다 효율적으로 관리함으로써 이수율을 높일 수 있다. 나아가 거대언어모델(LLM) 기반으로 만들어진 AI 챗봇(AI 헬피)을 통해 학습자들의 질문에 대한 맞춤형 답변도 빠르게 할 수 있다. 아울러 '엘리스테스트'는 개발자 채용 평가부터 재직자 역량 평가, 대규모 경진대회 등 온라인 테스트 환경을 지원한다. 부정행위 방지 기능과 다양한 테스트 콘텐츠, 체계적 온보딩 시스템과 안정적 서버환경 등은 엘리스테스트의 강점이다. 이동형 모듈러 데이터센터 구축...강력한 AI 인프라 제공 엘리스그룹은 다양한 환경의 AI 연구·개발·배포를 위한 안정적인 GPU를 제공하는 '엘리스클라우드' 사업도 키워나가고 있다. 엔비디아의 A100·H100 등 강력한 GPU 서버 스펙을 바탕으로 AI 데이터센터를 구축한 상태다. 회사는 지난해 델 테크놀로지스로부터 엔비디아 H100 텐서코어 GPU를 탑재한 델 파워엣지 서버와 네트워킹 스위치를 도입해 데이터센터 인프라를 업그레이드한 바 있다. 특히 엘리스그룹은 델 테크놀로지스와의 협력을 통해 엘리스클라우드에 모듈 단위로 탄력적인 인프라 확장이 가능한 이동형 모듈러 데이터센터(PMDC) 방식을 적용했다. 엘리스그룹 전력 밀도는 랙당 20~40kW로, 국내 데이터센터 평균(3.3kW)보다 효율성이 높다. 아울러 회사는 GPU·NPU를 효율적으로 이용할 수 있는 동적 할당 기술을 적용해 사용자가 필요로 하는 만큼 실시간으로 컴퓨팅 자원을 할당받을 수 있게 했다. 이를 통해 비용을 낮추면서도 AI·디지털 전환 관련 교육 과정을 원활히 받을 수 있는 환경을 갖추게 됐다. 최근에는 AI 반도체 스타트업 리벨리온과 상호 협력 업무협약을 맺고, 리벨리온 NPU 기반 클라우드 플랫폼 구축을 위한 기술 협력을 진행한 뒤 이를 바탕으로 글로벌 데이터센터 진출에도 힘을 모으기로 했다. 엘리스클라우드 PUE(전력 효율 지수)는 1.27이며, 지난해 8월 정보보안에 대한 글로벌 인증(ISO 27001·27701)을 획득하기도 했다. "엘리스그룹은 AI 기업" 2015년 회사를 창업한 김재원 대표는 엘리스그룹을 'AI 기업'으로 정의했다. 재직자 대상으로 디지털 전환과 AI 교육을 통해 업무 효율성을 높여주고, 취준생들에게는 대학과 산업 간의 격차를 줄여주는 부트캠프를 통해 이들이 AI에 대한 이해도와 전문성을 갖추도록 돕기 때문이다. 특히 엘리스클라우드를 통해 AI 연구팀이나 전문가들이 안정적인 클라우드 및 컴퓨팅 환경에서 AI 모델링 프로젝트를 수행하도록 지원해서다. 재작년과 작년에는 각각 국방부 대규모 AI 해커톤과 한국천문연구원의 태양 흑점 이미지 분석 AI 해커톤에 고성능 GPU 환경을 제공했다. “엘리스클라우드는 AI 전문 인프라입니다. 기존 AI 해커톤의 경우 예산 안에서 진행이 불가능했는데, 저희는 참가자들에게 고성능 환경을 제공하고 적게는 3분의 1, 많게는 10분의 1 예산 안에서 고성능 클라우드 환경을 제공해드리고 있습니다. AI 클라우드 인프라를 구성함에 있어 기존 데이터센터는 고전력이 아니다 보니 어렵고, 그렇다고 고가의 GPU 서버 인프라를 구성하기도 쉽지 않았는데 엘리스클라우드는 PMDC를 통해 비용 단가를 낮추면서도 안정성은 높였습니다. 쓰는 만큼 시간당 과금되기 때문에 효율적 이용도 가능합니다.” 기업 또는 기관들은 업무 생산성 향상을 위해 디지털 전환이 필요할 때 엘리스그룹의 다양한 플랫폼과 콘텐츠, 인프라 등을 취사선택해 사용하면 된다. AI 기업으로서 안정적인 서버가 필요하다면 엘리스클라우드를, AI 등 디지털 전환 교육이 필요하다면 엘리스LXP 플랫폼을 통해 대상에 맞는 엘리스의 콘텐츠를 제공하면 되는 식이다. “모든 정부 기관과 기업들의 AI 디지털 전환이 필요한 때라고 생각합니다. 그렇지 않으면 강대국들에 의해 도태될 수밖에 없겠죠. 저마다 속도는 다를 수 있겠지만, 결국 AI는 전기처럼 쓰게 될 테니, 이런 방향에 필요한 교육과 인프라를 제공하려 합니다.” "클라우드 인프라·기술력에 계속 투자할 것" 엘리스그룹의 올해 목표는 엘리스클라우드를 통한 더 큰 성장이다. 지난해 실적은 전년보다 성장하긴 했지만 기대만큼 크진 않았다고 김 대표는 말했다. AI 도입이 빠르게 확산되는 것은 맞지만, 아직은 기대만큼 그 속도가 빠르지 않은 것 같다고. 그는 AI의 더 빠른 도입을 위해서는 시간과 기술적 요인들이 더 필요하다고 말했다. 김 대표는 앞으로도 클라우드 인프라와 기술력에 계속 투자한다는 방침이다. 또 사내에 AI 전문 연구원들이 다수 있어 경쟁사 대비 AI 교육에 있어서는 훨씬 전문성이 있다고 자부했다. 나아가 AI 밸류 체인이 완성된 만큼, 올해는 클라우드 인프라와 기술력 투자에 집중한다는 방침이다. “약 3년 전 엔비디아 A100을 구매해서 계속 연구하다 2023년부터 내부에서 활용할 수 있게 개발했습니다. 그 후 AI 교육, 해커톤 등에서 활용할 수 있도록 했고, 지난해부터 기능을 강화하면서 외부 세일즈를 진행해 작년 처음으로 클라우드 매출이 발생했습니다. 강의, 콘텐츠 제작, 플랫폼 기능 확대에 이어 AI 인프라 세일즈까지 AI 밸류 체인 전주기를 완성했습니다. 이를 강화하는 것이 올해 목표이고요. 저희는 AI를 통해 실제 매출을 내고, 이를 클라우드 인프라와 기술력에 재투자하고 있습니다.” 김 대표는 앞으로 AI가 사람들의 업무와 실생활에 녹아들며 계속 발전할 것으로 내다봤다. 반면, 글로벌 시장에서는 엄청나게 빠른 속도로 발전하고 활용하는 이런 기술들이 국내 정치적·사회적 이슈들에 뒤처지는 것에는 아쉬움을 표했다. “더 이상 휴대폰 없이 일한다는 건 불가능하듯, AI 없이 일을 하면 비효율이 분명 발생할 겁니다. 앞으로 AI의 실생활 활용에 대한 부분이 강조될 텐데, 이를 지탱할 인프라에 대한 강화도 필요하죠. 어마어마한 속도로 발전될 AI를 활용하게 될 글로벌 경쟁에서 뒤처지지 않게 우리도 정진해야 한다고 생각합니다.”

2025.01.16 14:30백봉삼

SKT, 'AI 클라우드 매니저' 출시..."GPU 효율 극대화"

SK텔레콤은 인공지능(AI) 인프라 자원을 최적화하고 AI 개발 환경을 통합 관리할 수 있는 AI 기반 기업간거래(B2B) 솔루션 '엔터프라이즈 AI 클라우드 매니저'를 출시했다고 8일 밝혔다. AI 클라우드 매니저는 SK텔레콤이 보유한 대규모 그래픽처리장치(GPU) 자원에 대한 관리 및 운영 노하우를 상용화한 제품이다. GPU 자원을 효율적으로 활용할 수 있는 AI 잡 스케줄러 기반의 GPU 클러스터 특화 솔루션이다. 기업 고객이 보유한 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축할 수 있다. 대규모 데이터 학습에 GPU 자원이 많이 소모돼 이 같은 AI 자원 최적화는 AI 클라우드 솔루션에 꼭 필요한 기능이다. AI 클라우드 매니저를 활용하면 AI 개발의 모든 과정을 체계적으로 관리할 수 있다. AI 서비스 개발은 ▲데이터 전처리 및 저장·관리 ▲모델 개발·학습 ▲모델 배포 ▲모델 추론 등 많은 단계를 거친다. 'AI 클라우드 매니저'는 각 개발 과정에서 고객이 활용하기 쉬운 기능을 제공하고, 모든 과정이 유기적으로 연계될 수 있도록 하는 '기계학습 운영(MLOps)' 환경을 제공한다. AI 모델 학습 과정에서는 대규모 데이터를 다수의 컴퓨터에 분산 처리하는 대규모 병렬 학습 환경을 제공해 학습 속도를 높인다. 아울러 AI 클라우드 매니저는 개발자들이 손쉽게 AI 서비스를 개발할 수 있는 다양한 편의 기능도 탑재했다. 특정 소프트웨어를 설치할 필요 없이 '웹 브라우저(웹 UI)' 기반으로 사용할 수 있고, 다수의 개발자가 동시에 같은 AI 개발 프로젝트에 접근할 수 있는 등 협업 환경도 마련했다. 모델 추론 과정에서는 프로젝트나 비용에 최적화된 GPU 종류와 추론 엔진 조합을 고객이 선택할 수 있도록 제공한다. 최고 성능, 최저 비용, 최소 GPU 사용 등 다양한 조합이 지원된다. 또 검색 증강 생성(RAG) 기술을 도입해 과거 자료를 최신 정보처럼 인식해 제공하는 '환각현상(할루시네이션)'을 최소화한다. SK텔레콤은 지난달 하나금융티아이와 협업해 대규모 GPU 클러스터를 구축했다. 이번 프로젝트에서 하나금융티아이는 AI 클라우드 매니저를 활용해 하나금융그룹이 AI 기술 수요에 안정적이고 유연하게 대응할 수 있는 환경을 구축했다. 효율적인 GPU 자원 운영, 학습 및 작업시간 단축 등이 가능해졌다.

2024.10.08 10:19최지연

[현장] 여·야도 AI로 뭉쳤다…하정우 과실연 대표 "韓 특색 담은 AI 국가 프로젝트 만들자"

"대한민국이 인공지능(AI) 주권을 유지하고 글로벌 AI 3대 강국으로 도약하려면 거대 AI 이니셔티브가 필수적입니다. 국가가 나서 데이터와 그래픽처리장치(GPU)를 산업계에 대규모로 공급하고, 꾸준한 인재 육성을 통해 한국이 세계 시장으로 나가도록 지원해야 합니다." 하정우 바른 과학기술사회 실현을 위한 국민연합(과실연) 공동대표 겸 AI 미래포럼 공동의장은 21일 오전 국회에서 열린 '제2차 한국 미래 신기술 발전을 위한 AI·모빌리티 신기술 전략 조찬 포럼'에서 이같이 강조했다. 이날 하 대표는 '코리아 글로벌 AI 원팀(Korea Global AI One-Team)' 이니셔티브를 처음 제안했다. 이 계획은 국가 주도의 산·학·연 대규모 AI 프로젝트로, 정부가 지휘하고 기업들이 실행해 '원팀(One-Team)'이라는 가칭이 붙었다. 이 계획의 핵심은 정부가 나서 데이터와 GPU를 확보하는 것이다. 우선 대규모 GPU 센터를 구축해 최소 1만 장의 GPU를 확보한 후 이를 학계·스타트업과 국내 AI 대기업에 절반씩 제공하는 것이 골자다. 또 가격이 비싸 확보가 다소 제한되는 논문 데이터를 정부가 구매하고 국내 기업이 해외에서 사업을 할 수 있도록 외국어 데이터도 획득해야 한다는 내용이 포함됐다. 하 대표는 'AI 원팀'을 고안한 목적이 한국의 AI 3대 강국 도약에 있음을 강조했다. 현재 미국과 중국이 각각 AI 1위·2위 강대국 자리를 공고히 한 가운데 전 세계 선진국들이 3위 자리를 차지하기 위해 각축전을 벌이고 있기 때문이다. 특히 캐나다는 지난 4월 총 2조4천억원 규모의 AI 지원 정책을 발표한 바 있다. 학계와 스타트업의 스케일업만을 위해 컴퓨팅 인프라에 2조원이 투자됐다. 이외에도 중소기업 생산성 향상과 AI 안전을 위해 각각 1천억원, 500억원씩 자금을 투입했다. 프랑스의 사례는 더 고무적이다. 지난해까지만 해도 AI 중진국으로 평가받던 프랑스는 마크롱 대통령의 전폭적인 지원을 통해 불과 1년 만에 자국 AI 기업을 육성하는데 성공했기 때문이다. 하 대표는 "우리는 이들보다 자체 역량에선 뛰어난 골든타임 상황에 있다"며 "이에 따라 누구보다 빠르게 계획을 추진할 필요가 있다"고 강조했다. 이렇게 해야만 미국·중국에 대한 과도한 AI 의존을 피할 수 있고 오히려 이들이 의존할 수 있는 대체 불가능한 AI 역량을 개발할 수 있다는 설명이다. 이를 통해 한국이 AI 주권을 획득하고 다른 나라에도 '소버린 AI' 영향력을 선한 방식으로 행사할 수 있다. 하 대표는 이런 주장에 대한 근거도 제시했다. 그는 "실제 AI 초강대국들이 소버린 AI를 강조하면서 중동·남미·동남아 등의 AI 시장에 뛰어듬에도 정작 이 지역에서 선호되지 않는 분위기"라며 "빅테크가 학습된 모델만 제공하고 기술은 제휴하지 않았기 때문"이라고 지적했다. 하 대표는 "한국은 이들 지역에서 공동 투자, 공동 운영, 기술 이전을 통해 함께 성장할 가능성이 있다"며 "AI 기술이 빠르게 발전하기 때문에 반년 전 개발한 기술을 제휴해도 이들이 산업 전 분야에 활용할 수 있도록 적극 지원할 수 있다"고 주장했다. 또 하 대표는 'AI 원팀'의 성공에 있어 인재가 매우 중요하다는 점을 강조했다. 데이터와 GPU 이슈는 투자를 통해 단기적으로 해결할 수 있지만, AI 개발 인력 양성은 긴 시간이 필요하며 유지하기도 힘들어서다. 하 대표는 이날 국내 최상위권 인력 대다수가 해외 빅테크를 택하는 경우가 잦다는 것도 아쉬운 점으로 지목했다. 그는 "최상위 AI 인재들은 장기적 커리어와 성장 가능성을 보고 일하는 경우가 많다"며 "정부가 AI 전문대학원 등 사업을 지난 2019년부터 추진해 인재 양성에 효과를 봤지만 그만큼이나 이들이 여기 남도록 하는 것도 중요하다"고 강조했다. 하 대표는 그러면서 프랑스의 사례를 들었다. 프랑스 AI 연구자들이 구글 등 미국 빅테크에서 근무하다가 모국으로 돌아가 미스트랄AI 등에 몸담기 시작한 경우가 늘어났기 때문이다. 하 대표는 "그동안 프랑스 정부는 자국 인재가 모국으로 돌아오도록 노력했다"며 "한국 정부도 이를 배워야 한다"고 주장했다. 'AI 원팀' 계획은 이날 처음으로 공식 발표됐다. 이번 행사는 더불어민주당 정동영 의원과 국민의힘 최형두 의원이 AI 발전을 위해 합심해 개최했다. 이날 행사에는 과학기술정보통신부 김남철 과장, 카이스트 김경수 부총장, 삼성전자 이준행 머신러닝 마스터 등 업계 관계자가 참석했다. 하 대표는 "네이버 AI 센터장이 아닌 대한민국 국민으로서 국내 AI 발전 방안을 공유하러 왔다"며 "연구자로서 한국 미래 경쟁력에 대해 늘 고민해왔던 결과"라고 강조했다.

2024.08.21 14:24조이환

[유미's 픽] '마하'로 의기투합 한 네이버-삼성…양산 시점은 언제?

네이버와 삼성전자가 함께 개발하고 있는 인공지능(AI) 반도체 '마하'의 주도권을 두고 양사간 갈등이 표면화되면서 업계가 우려하고 있다. 국내 대표 기업들이 의기투합해 엔비디아를 따라잡겠다며 AI 반도체를 개발하기 시작했지만 약 1년 8개월여만에 불협화음을 낸 것을 두고 안타까워하는 분위기다. 2일 업계에 따르면 '마하' 프로젝트를 주도하고 있는 이동수 네이버클라우드 이사는 자신의 소셜미디어(SNS)를 통해 여러 차례 삼성전자를 겨냥해 볼멘 소리를 냈다. 삼성전자의 독단적인 행동에 단단히 뿔이 난 것이다. 이 이사는 지난 1일 한 매체에서 삼성전자와 네이버가 '마하-1' 개발까지만 함께하고 더 이상 협업에 나서지 않을 것이란 내용이 보도된 직후 자신의 페이스북에 해당 기사가 너무 잘못된 내용들이 많다는 점을 지적했다. 또 그는 "무엇이 오보인지에 대해서는 네이버가 아닌 삼성에 물어봐야 할 것 같다"고 강조했다. 그러면서 3시간 30여분이 지난 이후에는 "네이버클라우드의 단합된 힘으로 반도체 사업을 시작한다"며 "자세한 내용은 차차 공개하겠다"고 말해 눈길을 끌었다. 이 이사는 올 초에도 상당히 격분한 듯한 어조로 SNS에 글을 올렸다. 당시 그는 "(마하를) 먼저 만들자고 (삼성전자에) 제안한 것도, 이렇게 만들어보자고 기획한 것도 네이버"라며 "(그런데) 네이버 이름도 빠지고 어떻게 이해해야 할지 모르겠다"고 밝혔다. 이 이사는 이 글이 주목 받자 곧바로 내렸지만 업계에선 네이버클라우드와 삼성전자의 갈등이 표면화됐다는 데 큰 의미를 뒀다. 이 사건의 발단은 지난 3월 말 열린 삼성전자 주주총회였다. 이 자리에서 경계현 삼성전자 미래사업기획단장(당시 DS부문장)이 '마하2' 개발에 대한 계획을 공개한 것이 갈등의 씨앗이 됐다. 경 사장은 "메모리 등 기존 사업만으로는 장기적으로 반도체 1등을 유지할 수 없다"며 "추론 전용인 '마하-1'에 대한 고객들의 관심 또한 증가하고 있고, 연말 정도면 '마하-1'을 만들어 내년 초쯤 우리 칩으로 구성된 시스템을 볼 수 있을 것"이라고 말했다. 그러면서 "일부 고객은 1T 파라미터 이상의 큰 애플리케이션에 '마하'를 쓰고 싶어 한다"며 "생각보다 더 빠르게 '마하-2' 개발을 준비해야겠다"고 덧붙였다. 이 발언 후 네이버클라우드 내부에선 삼성전자에 대한 불만이 고조됐다. 실제 네이버클라우드가 먼저 제안해 삼성전자가 받아들이면서 '마하' 프로젝트가 성사됐지만, 마치 삼성전자가 주도하는 것처럼 분위기를 이끌어 갔기 때문이다. 특히 '마하-1' 연구개발과 설계에 참여한 엔지니어 40여 명 중 상당수는 네이버클라우드 소속인데 삼성전자가 마치 자사 직원인 것처럼 업무를 지시하기도 했다는 말들도 무성했다. 삼성전자는 그간 "서로 잘 협력하고 있다"는 식으로 분위기를 무마하려 했지만, 네이버 측의 불만은 고조돼 갔다. 처음부터 '마하' 프로젝트 기획부터 칩 개발 핵심 아이디어까지 자신들이 도맡았지만, 그 공을 삼성전자가 가로챈 느낌이 많이 들었기 때문이다. 삼성 사장단의 교체로 반도체 수장을 전영현 신임 DS 부문장이 맡게 되면서도 분위기가 오묘하게 흘러갔다. '마하-2' 발언으로 관계에 균열이 생긴 탓에 수장 교체 직후 양사 고위 임원들의 만남도 빠르게 이뤄지지 않았다. '마하'는 HBM(고대역폭 메모리)이 필요 없는 AI 추론에 특화된 반도체로, 이를 만들기 위해 양사는 지난 2022년 12월 협력 사실을 발표한 바 있다. 업계 관계자는 "삼성전자의 제조업 마인드와 네이버의 서비스업 마인드가 충돌하면서 네이버 측이 삼성전자의 태도에 대해 당황해 하는 분위기가 역력했다"며 "삼성전자가 네이버를 제외하고 자신들이 '마하-2'를 다 하는 것처럼 얘기를 한 것이 네이버 측의 심기를 상당히 건드렸다"고 말했다. 그러면서 "네이버는 거대언어모델(LLM)을 기반으로 서비스를 하는 조직이라면, 삼성전자는 그런 경험이 없다는 점에서 양사가 협업하기는 쉽지 않았을 것"이라며 "삼성전자가 자체적으로 잘 만든다고 해도 성능을 잘 검증 받을 수 있어야 하는데 네이버를 배제하면 무슨 의미가 있을까 싶다"고 덧붙였다. 삼성전자의 이 같은 태도에 '마하-1' 양산 시기도 당초 공언했던 것보다 늦어질 수 있다는 관측도 나왔다. 삼성전자는 '마하-1'을 네이버에 공급해 연내 안전성 테스트를 진행한 후 내년 초께 출시할 것이라고 계획을 밝혔으나, 네이버 내부에선 내후년께 출시될 것으로 봤다. 네이버클라우드 관계자는 "지금 계획상으로는 내년 1분기쯤 (자사 데이터센터에서) 테스트를 할 것으로 보인다"며 "반도체 설계부터 생산까지 쉬운 일은 아닌 만큼 내년이나 후년 정도에 양산할 것으로 예상된다"고 말했다. 삼성전자는 네이버 측과의 불화설을 일단 부인했다. 또 '마하-1'을 기점으로 AI 반도체 시장에서 입지를 다져야 하는 삼성전자 입장에선 현재의 분위기를 다소 불편하게 여기는 것으로 알려졌다. 그러면서도 삼성전자는 파트너사 물색과 함께 내부적으로 '마하' 시리즈 개발을 담당하는 시스템LSI 사업부 내에 AI SOC팀에 힘을 실어주는 것으로 알려졌다. 엔비디아 그래픽처리장치(GPU)를 대체할 수 있는 저렴하면서도 AI 컴퓨팅에 특화한 AI 가속기를 하루 속히 개발하기 위해서다. 삼성전자 관계자는 "네이버뿐 아니라 다양한 파트너를 찾고 있는 과정"이라며 "네이버와의 관계를 마침표를 찍는다는 일부 주장은 사실이 아니다"고 강조했다. 업계에선 '마하'가 아직 첫 제품도 나오지 않은 상황에서 양사간 갈등이 점차 표면화되는 것에 대해 안타까워했다. 엔비디아뿐 아니라 구글, 마이크로소프트 등 글로벌 빅테크들이 자체 AI 반도체를 개발하겠다며 속도전을 벌이고 있는 상황에서 두 회사가 주도권 싸움만 벌이는 것으로 비춰지는 것도 아쉬운 점으로 지목됐다. 다만 양사의 균열은 인텔에게 좋은 기회가 됐다. 인텔은 지난해 11월 팻 겔싱어 최고경영자(CEO)가 방한해 네이버 측에 직접 AI 반도체 협업을 제안한 후 협력을 강화하고 있다. 네이버클라우드는 자사 LLM '하이퍼클로바 X'를 기반으로 생성형 AI 서비스를 구축 중으로, 엔비디아 AI 생태계 대신 인텔 AI 칩 '가우디'를 활용해 가속기를 최적화하는 소프트웨어 생태계를 조성하고 있다. 이를 위해 네이버클라우드는 국내 AI 스타트업 스퀴즈비츠와 함께 '가우디2' 인프라에서 훈련과 추론을 할 수 있는 기초 코드를 함께 만든다. 국내 대학 등 연구진은 이 코드를 기반으로 소프트웨어를 개발해 오픈소스 생태계에 공개한다. 이처럼 가우디 생태계 참여자를 늘려 엔비디아의 독점적인 생태계 구조를 깨겠다는 것이 이들의 포부다. 이동수 네이버클라우드 이사는 "현재 거의 모든 서비스에 AI 기술을 접목하고 있고, 좋은 AI 반도체 확보는 서비스 경쟁력 확보에 직결된다"며 "많은 반도체를 평가하고 분석하는 과정에서 인텔 '가우디2' 가속기의 하드웨어 특징과 성능 면에서 좋은 결과를 얻었다"고 평가했다. 하정우 네이버클라우드 AI이노베이션센터장은 "연말에 출시될 '가우디3'에 협업 실험 결과와 노하우, 소스코드 등을 모두 녹여낼 계획"이라며 "이렇게 경쟁력 있는 대안을 확보하게 되면 더 많은 데이터를 중심으로 '하이퍼클로바 X'를 고도화하는 게 가능해지고, 더 저렴한 가격으로 더 많은 사람들에게 서비스를 제공할 수 있게 될 것"이라고 말했다.

2024.08.02 15:21장유미

[유미's 픽] "블랙웰부터 수랭식 도입해라"…엔비디아 경고에 韓 데이터센터 '이것' 관심

"차기 그래픽처리장치(GPU)인 '블랙웰'부터는 데이터센터에 수랭식(흐르는 물)을 도입하기 바랍니다." 전 세계 인공지능(AI) 칩 시장을 장악한 엔비디아가 최근 데이터센터를 운영하는 업체들을 향해 이처럼 경고하고 나섰다. AI 열풍으로 고성능 GPU 도입이 늘어나면서 현재 공랭식 위주로 운영되는 데이터센터에서 열 관리가 감당되지 않는다고 판단돼서다. 9일 업계에 따르면 국내서 자체 데이터센터를 보유하고 있는 삼성SDS, LG CNS 등 일부업체들은 최근 수랭식보다 한 단계 더 발전한 '액침냉각' 시스템 도입을 잇따라 추진 중인 것으로 파악됐다. 온도가 일정 수준 이상 올라가면 화재 위험이 커지는 데다 서버를 식히는 냉각장치에 들어가는 전기 소비량이 갈수록 늘어나는 만큼, 에너지 낭비를 줄이기 위해 국내 기업들도 대안 찾기에 적극 나선 분위기다. 액침냉각 시스템은 특수 액체인 냉각유에 데이터 서버 등을 담가 열을 식히는 열관리 기술로, 기존의 공기 냉각 방식에 비해 훨씬 높은 냉각 성능을 제공한다. 또 기존에 일부 부품에만 냉각 시스템을 적용했던 것에서 한 걸음 나아간 기술이란 평가도 받는다. 기존에 많이 쓰이던 수랭식, 공랭식 시스템은 기계를 차가운 물이나 공기를 활용해 식히는 간접적인 냉각 방식이다. 반면 액침냉각은 액체 상태의 냉각유가 기계를 휘감아 온도를 내리는 더 직접적인 냉각 시스템으로 분류된다. 수랭식 시스템은 차가운 공기 활용해 열을 식히는 공랭식보다 약 20% 적은 에너지를 사용하는 것으로 알려졌다. 액침냉각은 공랭식보다 전력효율을 약 30% 이상 개선할 수 있는 것으로 전해졌다. 이에 업계에선 액침냉각이 데이터센터의 전력 사용량을 절감하고 향후 운용 비용을 낮출 뿐 아니라 공간 활용도를 높이는 데 더 기여한다는 점에서 크게 주목하고 있다. 업계 관계자는 "현재 많이 쓰이는 공기 냉각 방식은 전력 사용 효율성이 액침냉각 기술보다 낮은데다 소음도 높다"며 "초기 비용과 운영 비용을 고려해야 하지만, 전력 비용 절감과 높은 냉각 성능을 고려하면 장기적인 비용 절감 효과를 기대할 수 있다"고 설명했다. 국내에서 액침냉각에 가장 큰 관심을 보이고 있는 곳은 SK텔레콤이다. 지난해 11월 인천사옥에 AI 서비스를 위한 전용 데이터센터를 구축하며 액침냉각 기술을 이곳에 올 하반기 중 본격 도입하겠다는 계획을 밝힌 바 있다. 이를 위해 SK텔레콤은 업계 최초로 실제 IDC 환경에서 액침냉각 기술 효과를 입증했다. SK엔무브, 미국 GRC와 손잡고 지난해 6월부터 약 4개월간 테스트를 진행한 결과, 기존 공랭식 대비 냉방 전력의 93%, 서버 전력에서 10% 이상 절감돼 총 전력 37%를 줄일 수 있었던 것으로 분석됐다. 삼성SDS는 지난 2022년 12월 가동을 시작한 동탄 데이터센터에 수랭식 시스템과 함께 액침냉각 시스템 적용을 위한 관련 인프라도 갖춰놓은 상태다. 다만 국내 기업들이 비용 부담과 함께 액침냉각에 대한 신뢰가 적어 적극 활용에 나서지 않아 시설을 비워 놓은 채 운영되고 있다. LG CNS는 오는 2028년께 부산 데이터센터에 액침냉각 방식을 적용하기 위해 연구 중이다. 현재 이곳에는 '빌트업 항온 항습 시스템'이 적용돼 있는데, 이 시스템은 차가온 공기를 순환시켜 열을 식히는 기존의 항온항습기보다 한층 진화된 방식으로 평가된다. 이를 통해 LG CNS는 연간 냉방 전력 35%를 이미 절감하고 있다. 다만 다른 대기업 SI 업체들과 달리 SK C&C는 판교, 대덕 등에서 데이터센터를 운영 중이지만 액침냉각 방식은 따로 검토하고 있지 않은 것으로 파악됐다. 비용 부담이 큰 만큼 고객사들이 원하면 도입을 고려하겠다는 입장이다. KT클라우드, NHN클라우드, 카카오엔터프라이즈 등 국내 클라우드 서비스 제공 사업자(CSP)들도 데이터센터에 아직은 액침냉각 도입에 미온적이다. 네이버클라우드만 춘천, 세종에 위치한 데이터센터에 액침냉각 도입을 검토 중이나, 구체적인 일정은 아직 미정이다. 대신 KT와 NHN, 카카오 등은 국내에 아직 적극 도입되지 않은 수랭식에 많은 관심을 보이고 있다. KT는 내년에 오픈하는 가산 데이터센터에, 카카오는 향후 건립될 제2데이터센터에 수랭식을 처음 도입할 계획이다. NHN은 현재 판교 데이터센터와 광주 국가 AI 데이터센터 모두 공랭식을 도입했으나, 액침 및 수랭식 시스템 등 다양한 냉각 방식에 대한 기술 검토를 이어나가고 있다. 다만 KT는 액침냉각 시스템 전문기업 이머젼4와 데이터센터 액침 냉각 시스템 적용을 위한 MOU(업무협약)을 체결했다. 업계 관계자는 "최근 구글, 마이크로소프트(MS), 메타 등 글로벌 빅테크 기업들은 자체 데이터센터를 설립할 때 공랭식 대신 수랭식 시스템을 중심으로 적용하는 추세"라며 "AI 기능이 고도화되면서 고성능 GPU를 써야 하는 경우가 점차 많아지고 있는 만큼, 데이터센터 냉각 시스템 구축에 대한 기업들의 고민도 늘어날 것"이라고 밝혔다. 그러면서도 "아직까지 국내에선 수랭식을 도입한 기업들도 많지 않은 상황에서 액침냉각의 안전성에 대한 불신이 여전하다"며 "국내에서 액침냉각이 널리 쓰이는 데까진 상당한 시일이 걸릴 것으로 보인다"고 덧붙였다.

2024.07.09 10:23장유미

한국IDC "올해 국내 서버 시장 GPU 공급확대로 성장 전환"

한국IDC는 최근 발간한 '국내 엔터프라이즈 인프라스트럭처 서버 컴핏 보고서'에서 국내 서버 시장이 향후 5년간 연평균 성장률(CAGR) 9.9%를 기록하며 2028년 4조7천246억원의 매출 규모를 형성할 것이라고 30일 밝혔다. 국내 서버 시장은 주요 GPU 제조사의 공급이 회복되며 2024년부터 성장세로 전환할 것으로 분석됐다. IDC 보고서에 따르면 작년 국내 서버 시장 매출 규모는 전년 대비 5.1% 감소한 2조9천521억원으로 나타났다. 신규 데이터센터 증가에도 불구하고 서버 증설 물량이 기대에 미치지 못한 점이 시장 감소의 주요 원인으로 꼽힌다. 2022년말부터 생성형AI 시장의 가파른 성장으로 인해 기업 IT예산이 GPU 서버에 집중되며 기존 데이터센터 랙서버 물량의 감소, GPU 서버 공급 지연 문제 등의 요인이 시장 하락에 영향을 미친 것으로 분석됐다. 국내 서버 시장은 그간 기업의 디지털화를 지원하는 클라우드가 성장의 동력이었으나 재작년부터 생성형 AI 시장이 급격히 성장하며 시장 판도가 바뀌었다. 작년 정부의 공공 클라우드 전환 사업 예산 삭감으로 투자 방향을 잃은 국내 클라우드 사업자들이 생성형AI를 위한 GPU 서버 확보에 IT투자를 집중하는 추세다. 특히 생성형AI를 구축하기 위해서 많은 데이터의 트레이닝을 위한 8GPU 서버가 선호되며8GPU 서버 공급이 가능한 서버 벤더가 국내 서버 시장을 주도했다. 향후 제조, 통신, 공공, 금융 등 다양한 산업의 GPU서버 도입도 증가하면서 생성형AI 시장의 저변이 확대될 것으로 예상된다. 엔비디아가 서버 GPU를 단독으로 공급하면서 수요가 몰리는 경향이 있었으나, AMD도 서버 GPU를 출시하며 향후 인퍼런싱 단계에서 GPU외에 다른 가속기 수요도 증가할 전망이다. 아직 생성형AI의 초기 단계로 트레이닝을 위한 8GPU 서버의 수요가 빠르게 증가하고 있지만 본격적으로 생성형AI가 상용화되는 시점에서는 인퍼런싱에 대한 수요도 증가하면서 8GPU 서버와 단일 GPU 벤더로 집중되는 현상은 해소될 것으로 예상된다. IDC는 서버를 크게 x86 프로세서를 사용하는 x86서버와 그 외 비x86 서버로 구분하고 있다. 대부분의 플랫폼이 x86 서버 기반으로 전환되면서 국내에서 대략적으로 90% 이상이 x86 서버로 공급되고 있으나 일부 공공 및 금융권에서는 여전히 미션크리티컬 서버로 비x86 서버 기반의 유닉스 시스템이 운영되고 있다. 저전력으로 운영되는 ARM 서버도 글로벌 클라우드 서비스 사업자 중심으로 빠르게 성장하는 추세다. 이런 기조를 바탕으로 국내 비x86 서버 시장의 향후 연평균 성장률은 5.9%를 기록하며 2028년에는 3천866억원의 매출 규모를 형성할 전망이다. 국내 x86 서버 시장 역시 기업의 AI 및 클라우드 등 디지털 전환을 주도하면서 향후 5년간 연평균 성장률은 10.3%로 증가하여 2028년에는 4조3천379억원의 매출 규모를 기록할 것으로 예상된다. 한국IDC에서 엔터프라이즈 인프라 시장 리서치를 담당하고 있는 김민철 수석연구원은 “서버 시장의 경우 아직 생성형AI의 초기 단계지만 GPU 서버에 대한 투자 과열과 늘어나는 GPU는 소비 전력 증가 및 발열 상승으로 이어지고 있다"며 "이는 데이터센터의 운영 비용 증가로 이어져 앞으로 수도권의 추가적인 데이터센터 구축은 점차 힘들어질 것”이라고 설명했다. 그는 "현재 생성형AI는 대부분 LLM 기반으로 운영되고 있으나, 향후에는 이미지, 사운드, 비디오 등 다양한 고용량 데이터가 증가하며 AI기술을 위한 GPU 서버 공급이 더욱 증가할 것"이라고 전망했다.

2024.04.30 09:46김우용

지코어 "삶을 바꾸는 생성 AI의 위치는 엣지"

“인공지능(AI)이 인류의 미래를 바꿀 것이라 전망되지만, AI가 어떻게 산업에 연결돼 서비스로 다가오고 경제 생활을 만들어낼 지 알 수 없다. 가시적인 변화는 AI가 생산성으로 이어져야 가능할 것이다. 일반인공지능(AGI)도 중요한 문제고 인류의 미래를 바꾸겠지만, 기업의 먹거리와 인류의 삶을 바꾸는 AI는 결국 엣지에서 있을 것이다.” 지코어코리아 김진용 팀장은 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024' 기조연설에서 이같이 밝혔다. 김진용 팀장은 "생성형 AI는 2년도 안 돼 부풀려진 기대치의 정점을 찍었고, 곧 환멸의 골짜기에 도달할 것으로 보인다”며 “생성형 AI 기업의 운영 비용은 월 100만달러에 달하는 큰 부담을 주고 실질적인 이익을 벌어들이지 못하는 상황이기 때문”이라고 설명했다. 김 팀장은 “현 시점에서 필요한 것은 기존 자산을 잘 조합하고 새로운 아이디어를 고안해내서 새로운 혁신을 이루는 것”이라며 “AI 학습과 추론, 모델을 묶어서 사용자 가까이 있는 디바이스와 안전한 통신으로 연결되는 모든 세트를 갖춰야 한다”고 강조했다. 지코어는 160개 이상의 국가와 지역에 PoP를 운영하고 있다. 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업이라고 스스로를 강조한다. 특히 생성형 AI 학습과 추론에 필요한 전용 인프라를 클라우드 서비스로 제공하고 있다. 최근 지코어코리아는 한국 데이터센터를 개소했다. 품귀현상을 보이는 엔비디아 H100 텐서코어 GPU 서버를 설치했다.지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 김진용 팀장은 “생성형 AI의 아키텍처는 기존 엔터프라이즈용 애플리케이션과 달리 서비스 부분에서 많은 자원이 필요하다”며 “지코어는 훈련용과 추론용 인프라로 GPU 자원을 제공하며, 더 특별한 수요에 대응하는 IPU도 제공한다”고 말했다. 지코어의 또 다른 강점은 네트워킹 인프라다. 콘텐츠딜리버리네트워크(CDN)에서 시작한 회사란 장점을 살려 초저지연시간을 보장하는 고속 네트워크를 생성 AI에 제공할 수 있다. 지코어의 클라우드 컴퓨팅은 '서버리스 컴퓨팅'에 기반한다. 거대언어모델(LLM)을 사용할 때 자원 할당을 별도로 하지 않아도 되며, 실제로 모델을 작동시키는 양만큼만 비용을 내면 된다. 그는 “AI는 지연시간에 민감한 서비스기에 지코어는 글로벌 평균 26밀리초의 지연시간을 유지하며, 한국의 경우 한자릿수 밀리초의 지연시간으로 이용할 수 있다”며 “다양한 LLM을 기업이 모두 미리 깔아놓을 수 없으므로 정말 필요할 때 자원과 모델을 곧바로 활용할 수 있도록 서버리스 컴퓨팅으로 제공하고 있다”고 설명했다. 지코어는 중앙의 인프라와 네트워킹에 더해 엣지 단계에서 AI 모델 추론을 수행할 수 있는 환경도 제공한다. '인퍼런스앳더엣지'란 서비스는 160여개 지코어 POP의 캐싱서버에 암페어 알트라맥스와 엔비디아 L40S 칩을 두고 고객의 AI 서비스를 구동할 수 있게 한다. 필요한 LLM도 캐싱해 빠르게 제공할 수 있으며, 유사한 추론을 반복적으로 하게 되는 상황을 감안해 모델응답을 캐시할 수 있다. 김 팀장은 “사용자가 지코어 기잔의 AI 서비스에 접속하면 인퍼런스앳더엣지의 AI 칩으로 다양한 모델을 끌어와 서비스를 돌릴 수 있다”며 “지리적 혹은 정치적 이유에 따른 규제 차이에 맞게 답변과 모델에 차이를 둬야 할 때도 맞춤형으로 대응가능하다”고 말했다. 그는 여기에 '5G 보안 네트워크' 기반으로 생성 AI와 사용자 디바이스를 연결할 수 있다고 했다. 사용자, 기업 등의 데이터가 외부에 유출되지 않도록 제로트러스트 네트워크를 통해 정보를 주고 받을 수 있다. 그는 “어떤 IoT 디바이스든 데이터를 실제 AI 서비스 장소까지 안전하게 전달하는 센서 데이터 보안 확보가 가능하다” 그는 “지코어의 서비스를 통해 '모든 것의 인터넷(IoT)'에서 '모든 것의 AI(AioT)'라 할 수 있게 된다”며 “지코어는 앞으로 AI 시장이 우리 현실 속에 들어온 엣지 디바이스에서 일어날 것으로 생각하며 이를 실현하기 위해 어느 기업보다 먼저 아키텍처를 고안해 선보이고 실제로 잘 움직이도록 잘 조율해 서비스에 녹여왔다”고 강조했다.

2024.04.17 11:53김우용

오라클, 엔비디아와 '소버린 AI' 제공 협력 발표

오라클은 엔비디아와 협력 관계를 확장해, 전 세계 고객들을 대상으로 소버린 AI 솔루션을 제공하기 위한 계획을 20일 발표했다. 이 협력을 통해 오라클의 분산형 클라우드와 AI 인프라스트럭처, 생성형 AI 서비스는 엔비디아의 가속 컴퓨팅 및 생성형 AI 소프트웨어와 결합해 각국 정부 및 기업의 AI 팩토리 배포를 지원한다. 양사의 AI 팩토리는 광범위한 운영 통제 기능을 통해 클라우드 서비스를 국가 또는 기업 조직의 안전한 자체 지역 내 로컬 환경에서 운영하고, 이를 통해 경제 성장을 촉진하고 다각화하기 위한 주권 목표를 지원한다. OCI 전용 리전과 오라클 알로이, 오라클 EU 소버린 클라우드, 오라클 정부 클라우드 등에 배포 가능한 오라클의 기업용 AI 서비스는 엔비디아의 풀스택 AI 플랫폼과 결합돼 데이터의 운영과 위치 및 보안에 대한 제어력을 강화하여 고객의 디지털 주권을 지원하는 최첨단 AI 솔루션을 제공한다. 현재 세계 각국은 자국의 문화적, 경제적 목표를 달성하기 위해 AI 인프라 투자를 늘려 나가고 있다. 기업 고객들은 26개국에 위치한 66개의 오라클 클라우드 리전을 통해 인프라 및 애플리케이션 전반에 걸쳐 100여 개 클라우드 및 AI 서비스에 접근할 수 있고, 이를 통해 IT 마이그레이션, 현대화 및 혁신을 추진할 수 있다. 양사의 통합 오퍼링은 유연한 운영 통제 기능을 바탕으로 퍼블릭 클라우드를 통하거나 특정한 위치의 고객사 데이터센터에 직접 배포 가능하다. 오라클은 고객이 원하는 모든 장소에서 로컬 방식으로 AI 서비스 및 자사의 완전한 클라우드 서비스를 제공할 수 있는 유일한 하이퍼스케일러다. OCI는 배포 유형과 관계없이 동일한 서비스 및 가격 정책을 일관되게 제공하여 클라우드 서비스 이용을 보다 간단하게 계획하고 이전 및 관리할 수 있도록 한다. 오라클의 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼 등 다양한 엔비디아 스택을 활용하고 있다. 엔비디아 텐서RT, 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버 등 엔비디아 추론 소프트웨어를 기반으로 구축되어 최근 발표된 엔비디아 NIM 추론 마이크로서비스도 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 포함된다. 스위스 뱅킹 소프트웨어 제공업체인 아발록은 자체 데이터센터에서 완전한 OCI 퍼블릭 클라우드 리전을 운용하기 위해 OCI 전용 리전을 도입했다. 아발록의 마틴 부치 최고 기술 책임자는 "OCI 전용 리전은 최신 클라우드 인프라에 대한 액세스를 제공하면서도 데이터 보존을 최대한 제어하려는 아발록의 노력과 부합한다"며 "이는 우리가 은행과 자산 관리사의 디지털 혁신을 지속적으로 추진하는 데 큰 도움이 된다”고 설명했다. 뉴질랜드의 선도적인 정보 관리 서비스 제공업체인 팀 아이엠은 뉴질랜드 최초로 현지 기업이 소유 및 운영하는 하이퍼스케일 클라우드인 팀 클라우드를 구축하기 위해 오라클 알로이를 도입했다. 팀 아이엠의 이언 로저스 CEO는 "클라우드의 성능은 십분 활용하면서도 뉴질랜드 국경 내에서 데이터 무결성을 유지할 수 있는 독자적인 하이퍼스케일 클라우드 솔루션에 대한 뉴질랜드 기업들의 수요가 갈수록 증가하고 있다"며 "팀 아이엠은 오라클 알로이와 더불어, 엔비디아 AI 플랫폼을 자사 클라우드 서비스에 통합할 수 있는 가능성을 통해 공공 분야 및 민간 기업, 뉴질랜드 원주민 단체들이 디지털 환경의 복잡성을 해소하고 디지털 혁신 과정을 최적화하는 과정에 기여할 수 있는 클라우드 서비스 제공업체로 자리 매김했다"고 밝혔다. 오라클은 엔비디아 GTC에서 발표된 최신 엔비디아 그레이스 블랙웰 컴퓨팅 플랫폼을 자사의 OCI 슈퍼클러스터 및 OCI 컴퓨트 서비스 전반에 도입함으로써 지속적으로 증가하는 고객의 AI 모델에 대한 요구사항에 대응해 나갈 계획이다. OCI 슈퍼클러스터는 새로운 OCI 컴퓨트 베어 메탈 인스턴스와 초저지연 RDMA 네트워킹, 고성능 스토리지를 통해 훨씬 더 빠른 속도를 제공할 전망이다. OCI 컴퓨트에는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩과 엔비디아 블랙웰 B200 텐서 코어 GPU가 모두 탑재된다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩은 컴퓨팅의 새로운 시대를 선도할 획기적 성능을 제공한다. 전 세대 GPU 대비 최대 30배 빠른 실시간 대규모 언어 모델(LLM) 추론, 25배 낮은 TCO, 25배 적은 에너지 소모량 등을 자랑하는 GB200은 AI 학습, 데이터 처리, 엔지니어링 설계 및 시뮬레이션 등의 작업 성능을 대폭 강화해 준다. 엔비디아 블랙웰 B200 텐서 코어 GPU는 가장 높은 성능이 요구되는 AI, 데이터 분석, 고성능 컴퓨팅(HPC) 워크로드를 처리하기 위해 설계됐다. 또한 검색 증강 생성(RAG) 추론 배포를 위한 엔비디아 네모 리트리버를 비롯한 엔비디아 NIM 및 쿠다-X 마이크로서비스는 OCI 고객이 자체 데이터를 사용해 생성형 AI 코파일럿 및 기타 생산성 도구에 더 많은 인사이트를 제공하는 동시에, 해당 도구들의 정확성을 향상시키는 작업에도 도움이 될 것으로 보인다. 점점 더 복잡해지는 AI 모델에 대한 고객의 수요 증가에 부응하기 위해 오라클과 엔비디아는 OCI 상에서 구동되는 엔비디아 DGX 클라우드 서비스에 엔비디아 그레이스 블랙웰 슈퍼칩을 추가할 예정이다. 고객들은 LLM의 매개변수가 조 단위에 달하게 된 현 시점에 보다 에너지 효율적인 학습 및 추론을 지원하기 위해 양사가 함께 설계한 슈퍼컴퓨팅 서비스인 엔비디아 DGX 클라우드를 통해 새로운 GB200 NVL72 기반 인스턴스에 액세스 할 수 있다. DGX 클라우드 클러스터의 전체 구성에는 2만개 이상의 GB200 가속기와 엔비디아 CX8 인피니밴드 네트워킹이 포함돼 더욱 탁월한 확장성 및 성능을 갖춘 클라우드 인프라를 제공할 예정이다. 해당 클러스터는 5세대 NV링크가 탑재된 72개의 블랙웰 GPU NVL 72와 36개 그레이스 CPU로 구성된다. 사프라 카츠 오라클 CEO는 "AI가 전 세계의 비즈니스, 산업 및 정책을 재편함에 따라, 국가와 기업 조직은 가장 중요한 데이터를 안전하게 보호하기 위해 디지털 주권을 강화해야 한다"며 "오라클은 엔비디아와의 지속적인 협력 관계와 클라우드 리전을 로컬 차원에서 신속히 배포할 수 있는 독보적인 역량을 통해 전 세계에서 보안에 대한 타협과 우려 없이 AI를 활용할 수 있도록 보장할 것"이라고 밝혔다. 젠슨 황 엔비디아 설립자 겸 CEO는 "생성형 AI가 혁신을 주도하는 시대에 데이터 주권은 문화적, 경제적 필수 요소"라며 "엔비디아의 가속 컴퓨팅 및 생성형 AI 서비스와 결합된 오라클의 통합 클라우드 애플리케이션 및 인프라 서비스는 각 국가 및 지역이 데이터 주권을 바탕으로 스스로 미래를 직접 설계할 수 있는 유연성과 보안을 제공한다."라고 강조했다. 오라클과 엔비디아가 공동 제공하는 소버린 AI 솔루션은 발표와 함께 바로 사용 가능하다.

2024.03.20 10:45김우용

효성인포 "생성 AI 최적화된 통합 인프라와 서비스 제공"

효성인포메이션시스템(대표 양정규)은 24일 기자간담회를 열고 올해 디지털전환(DX) 선두 기업으로서 AI 시장 공략을 강화한다고 밝혔다. 효성인포메이션시스템은 데이터 인프라, HPC/GPU, 클라우드 등 DX 비즈니스를 강화하고, 미래 혁신 설계를 위한 스토리지 전략을 확대하는 등 전사적으로 데이터 기반 AI 혁신 위한 시너지를 강화했다. 효성인포메이션시스템은 지난해 AI 확산에 따라 GPU 서버 및 AI 스토리지 사업을 강화하고 대형 언어 모델(LLM) 프로젝트를 다수 진행하는 등 차별화된 솔루션과 기술력을 제공하며 AI 비즈니스를 크게 성장시켰다. 클라우드 사업도 국내 주요 공공 및 금융 분야 고객을 확장시키고 SDDC 기반의 데이터센터 구현과 클라우드 기반 재해복구(DR) 분야에서 우위를 점하며 성장세를 이어가고 있다. AI 시대를 맞아 기업 IT 인프라는 크게 변화하고 있다. AI가 문제해결 능력을 가지고 스스로 데이터를 생성하는 일반인공지능(AGI) 및 생성형 AI 기술이 고도화 되면서, 기존 하드웨어와 차별화된 고성능 연산 환경과 데이터 처리가 AI 서비스를 위해 필수가 되고 있다. 이에 맞춰 효성인포메이션시스템은 AI 연산 환경부터 고성능 데이터 처리, AI솔루션까지 고객의 AI 전환을 위한 핵심 경쟁력을 제공한다. 효성인포메이션시스템은 고성능 AI 연산 환경을 위해 슈퍼마이크로와 협업하여 GPU 서버를 시장에 공급하고, 초고성능 병렬파일 스토리지 HCSF를 통해 GPU 성능을 뒷받침하는 고성능 데이터 처리를 지원한다. AI/ML옵스 솔루션, GPU DB, 인메모리 DB, 고속 네트워크 등 최적의 AI 인프라를 위한 국내외 다양한 파트너사 연계 및 확장 제안을 통해 고객에게 AI 인프라 구현을 위한 최적의 솔루션을 제시할 전략이다. 서비스 중심으로 클라우드가 진화함에 따라 효성인포메이션시스템은 고객 환경에 최적화된 솔루션을 제공하는 한편 사전 컨설팅 및 고객 체험 프로그램을 강화한다. SDDC와 재해복구(DR)까지 더해진 완벽한 데이터센터 현대화 전략을 제시하고, 클라우드 관리 플랫폼 'UCP CMP'로 차별화된 서비스를 제공한다. SDDC 전환을 장기적인 관점으로 안정적으로 구현하기 위해 5단계로 구성된 사전 컨설팅 프로그램을 제공하며 차별화된 클라우드 컨설팅, 기술력을 바탕으로 고객사를 확장시킬 계획이다. 효성인포메이션시스템은 올해 새로운 스토리지 전략을 통해 고객들의 데이터 혁신을 지원한다. 데이터 스토리지에 대한 새로운 접근 방식인 'VSP ONE' 전략을 통해 전체 데이터 플랫폼과 데이터 관리 소프트웨어의 통합을 추진할 계획이다. VSP ONE을 통해 고객은 온프레미스, 클라우드, 엣지 등 어디서나 애플리케이션을 실행, 관리, 활용할 수 있다. 각기 다른 데이터 저장 플랫폼을 하나의 관리 소프트웨어로 통합 관리하고, 하나의 컨트롤 플레인, 하나의 데이터 패브릭에 통합함으로써, 사용자가 인프라에 대한 고민을 최소화하고 비즈니스에만 집중하며 업무 효율성을 확대시키는 미래지향적인 아키텍처를 제시한다. 구독형 스토리지 서비스HIS STaaS(Storage as a Service) 사업을 본격화하며 기업의 IT 운영, 비즈니스 효율을 높이고 인프라 현대화를 추진할 수 있도록 적극적인 영업활동을 펼칠 계획이다. 'HIS STaaS'는 비즈니스에 필요한 만큼만 스토리지를 사용하면서 과금하는 방식으로, 검증된 스토리지인 'VSP'를 기반으로 완벽한 가용성과 성능을 지원하고, 오브젝트 스토리지 HCP와 파일스토리지 HNAS도 활용 가능하다. 효성인포메이션시스템 양정규 대표이사는 “효성인포메이션시스템은 IT 변화의 중심에서 다양한 고객 성공 사례와 혁신적 솔루션을 바탕으로 DX 전문기업으로 포지셔닝을 강화해 왔다”며 “생성형 AI 시장 흐름에 맞춰 전사적 역량을 집중하고, 파트너와 협업해 데이터 기반 AI 혁신을 위한 시너지 강화에 총력을 기울일 것”이라고 밝혔다.

2024.01.24 14:11김우용

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

게임, '중독·규제' 프레임 탈피 절실…"질병코드 등재 막아야"

"최대 600만원 할인해도 안 팔려"…현대차, 전기차 생산 또 멈춘다

SK하이닉스 부스 찾은 젠슨 황 "GO SK! 넘버원" 찬사 연발

유심 부족 사태, e심은 왜 제 역할 못했나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현