• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아 H100'통합검색 결과 입니다. (17건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'화웨이 직격탄'에 엔비디아 주가 폭락…이유는?

중국 화웨이가 고성능 인공지능(AI) 칩을 개발 중이라는 소식에 엔비디아 주가가 크게 하락했다고 야후 파이낸스가 28일(현지시간) 보도했다. 이날 뉴욕증시에서 엔비디아 주가는 2.05% 하락한 108.73달러를 기록했다. 월스트리트저널은 27일 화웨이가 자체 AI 고성능 칩을 개발 중이라고 소식통을 인용해 보도했다. 보도에 따르면, 화웨이가 개발 중인 AI 칩은 엔비디아 주력인 'H100' 칩보다 더 강력한 성능을 갖출 것으로 기대하고 있다. 엔비디아 최신 칩인 블랙웰의 이전 버전인 H100 칩은 강력한 미국의 제재로 중국 수출은 금지된 상태다. 화웨이가 개발 중인 '어센드 910D'는 910B·910C 칩의 후속 모델로 아직 초기 개발 단계인 것으로 알려졌다. 화웨이가 국유 통신사와 틱톡 모회사 바이트댄스와 같은 AI 개발사를 포함한 고객에 80만 개 이상의 어센드 910B·910C 칩을 출하할 전망이다. 최근 엔비디아는 증권거래위원회(SEC) 제출 보고서를 통해 미국 상무부가 자사 H20 칩의 중국 수출을 제한했다고 밝혔다. 미국 정부는 지난 수년 동안 중국에 대한 첨단 반도체 수출을 제한해 왔다. 고성능 AI 칩인 H100 칩의 경우 2022년 출시 전부터 중국 수출이 금지된 상태다. 엔비디아는 미국 규제를 피하기 위해 성능이 낮은 사양인 H20을 중국용으로 만들어 판매해왔지만 이번에 이 칩도 제한한 것이다. 이러한 규제 변화로 엔비디아는 약 55억 달러(약 7조9천억 원)의 손실이 발생할 것으로 예상한다고 밝혔다. 이에 JP모건 분석가들은 해당 조치로 올해 엔비디아 매출이 최대 160억 달러(약 23조 320억원) 감소할 것으로 전망했다. 엔비디아의 중국 매출은 전체 매출의 약 13%를 차지하고 있다. 하지만, DA 데이비슨 분석가는 중국이 밀수를 통해 엔비디아 칩을 대량으로 사들이고 있어 실제 비중은 이보다 더 높을 것이라고 전망했다. 엔비디아 주가는 올해 들어 19% 가량 폭락한 상태다. 이는 거대 기술 기업의 AI 지출과 도널드 트럼프 대통령의 무역 전쟁 여파로 어려움을 겪었기 때문이다. 이번 달 초 미국 정부는 중국에서 엔비디아의 AI 칩 사용과 관련해 엔비디아를 조사 중이라고 밝혔다. 한편, 젠슨 황 엔비디아 최고경영자(CEO)는 중국을 방문하여 무역 관계자들을 만났다. 엔비디아는 동시에 중국 내 제조 기반 확장을 모색하고 있으며, 미국 AI 공급망 구축에도 5천억 달러를 투자할 계획이다.

2025.04.29 10:29이정현

美 의회 "엔비디아 GPU 중국 유출 여부 조사 착수"

미국 의회는 17일(현지시간) 중국 수출이 제한된 고성능 엔비디아 GPU가 우회 공급됐다는 의혹에 대해 공식 조사에 착수한다고 밝혔다. 17일 미국 하원 중국공산당특별위원회는 중국 AI 기업 딥시크(DeepSeek)가 수출 통제 대상인 엔비디아 GPU 약 6만 개로 거대언어모델(LLM)을 훈련했다는 정보를 바탕으로 엔비디아에 관련 기록 제출을 요구했다고 밝혔다. 지난 1월 딥시크 R1 공개시 엔비디아는 "딥시크가 활용한 GPU는 미국 수출 규정을 준수했다"고 밝혔다. 그러나 위원회는 "딥시크가 H100, A100 등 고성능 GPU를 싱가포르 등 제3국에서 우회 확보했을 가능성이 있다"고 지적했다. 위원회는 2020년 이후 중국이나 아세안 국가에서 499대 이상의 AI GPU를 구매한 모든 고객 목록과 최종 사용자, 거래 날짜, 최종 목적지 등 상세 정보 제출을 요구하고 있다. 싱가포르 이외에 말레이시아로 GPU 수출이 3.6배 이상 늘어나면서 중국으로의 우회 수출지로 말레이시아가 활용되고 있다는 의혹도 제기되고 있다. 엔비디아는 "미국 정부의 수출 규제를 준수하고 있으며 싱가포르 매출 증가는 단순히 결제가 일어난 장소이며 관련 제품은 미국과 대만 등 다른 지역으로 배송되고 중국에 공급되지 않았다"고 반론했다.

2025.04.18 09:37권봉석

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미

KT클라우드, 구독형 GPU에 엔비디아 'H200' 적용…고성능 AI 인프라로 고객 확보 가속

KT클라우드가 엔비디아의 최신 그래픽처리장치(GPU)를 인공지능(AI) 인프라에 적용하며 GPU 서비스를 한층 강화한다. AI 학습과 추론 워크로드 최적화를 앞세워 공공기관·스타트업 고객 확보에 나서기 위함이다. KT클라우드는 자사의 AI 훈련 서비스에 엔비디아 'H200'을 도입해 AI 인프라 성능을 개선한다고 24일 밝혔다. 기존 'H100' 기반의 AI 훈련 서비스에 최신 GPU를 추가해 연산 처리 성능과 전력 효율을 향상시키는 것이 이 프로젝트의 핵심이다. KT클라우드는 사용량 기반의 '서비스로의 GPU(GPUaaS)'를 제공하며 AI 학습과 추론 영역에 최적화된 인프라를 구축해왔다. 특히 AI 훈련 서비스는 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 통해 대량의 연산 작업을 효율적으로 처리할 수 있도록 설계됐다. GPU 노드 클러스터링은 여러 GPU 서버를 하나의 클러스터로 묶어 연산 성능을 극대화하는 기술로, 대규모 AI 학습에서 병렬 연산을 최적화하는 데 핵심적인 역할을 한다. 또 동적할당 제어 기능은 사용자의 작업량에 맞춰 자원을 실시간으로 배분하고 불필요한 자원 낭비를 줄여 최적의 GPU 성능을 유지한다. 이번 'H200' 도입은 이러한 기능을 보다 강화해 고성능 AI 학습 환경을 지원할 것으로 기대된다. 'H200'은 엔비디아 '호퍼(Hopper)' 아키텍처 기반의 최신 GPU로, 이전 모델인 'H100' 대비 연산 처리 능력과 전력 효율성이 개선됐다. 특히 메모리 대역폭이 확대돼 대규모 AI 모델 학습과 추론 성능을 극대화할 수 있는 것이 특징이다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. 공공 분야 대응도 강화한다. 회사는 올해 하반기 공공기관을 대상으로 AI 추론 전용 상품의 클라우드 서비스 보안 인증(CSAP) 절차를 진행할 계획으로 이로써 공공기관에서도 안전하게 AI 추론 서비스를 이용할 수 있도록 지원할 예정이다. 공용준 KT클라우드 클라우드본부장은 "이번 엔비디아 'H200' 도입으로 글로벌 수준의 AI 인프라를 확보하게 됐다"며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 말했다.

2025.02.24 11:21조이환

'AI 3대 강국' 목표 세운 韓, 대규모 투자 시동…조준희 "산업용 LLM에 주목해야"

최근 우리나라 정부가 인공지능(AI) 분야를 국가 전략 기술로 지정하고 집중 지원에 나선 가운데 국내 기업들이 산업용 거대언어모델(LLM) 개발에 적극 나서야 한다는 주장이 나왔다. 23일 업계에 따르면 조준희 한국소프트웨어협회장은 최근 자신의 소셜미디어(SNS) 페이스북 계정을 통해 "AI는 국가적으로 전략물자 수준 이상으로 생각해야 되고, 일종의 '핵무기'와 같다고 봐야 된다"며 "앞으로는 우리를 보호하는 무기로서의 AI를 가질 것이냐, AI 핵우산에 기댈 것이냐의 선택일 것"이라고 강조했다. 그러면서 "산업 보국을 위해서는 기업 수와 고용이 동반해서 늘어야 되는데 그런 면에서 우리가 소홀히 보고 있는 산업용 LLM 시장에 큰 기대감을 가지고 있다"며 "특히 제조 강국으로서의 산업 특화 LLM 개발 부분은 수출 측면에서도 선전 할 수 있다고 생각한다"고 덧붙였다. 조 회장이 이처럼 주장하고 나선 것은 최근 우리나라에서 AI 산업 발전을 위해 정부와 기업이 다각도로 방안을 모색하고 있는 상황에서 방향성을 제시하기 위한 것으로 분석된다. 앞서 정부는 지난 20일 제3차 국가AI위원회 회의를 진행해 '국가대표 정예팀'을 선발하는 한편, 빠른 시간 안에 세계 최고 수준의 LLM을 개발할 수 있도록 데이터와 그래픽처리장치(GPU) 등을 전폭 지원하겠다는 계획을 내놓은 바 있다. 특히 AI 컴퓨팅 인프라 확충을 위해 단기적으로는 내년 상반기까지 1만8천 장 규모의 첨단 GPU를 확충하기로 했다. 1만 장은 국가AI컴퓨팅센터를 중심으로 올해 안에 마련하고 나머지 8천여 장은 슈퍼컴퓨터 6호기 구축을 통해 확보한다. 장기적으로 2030년까지 국가AI컴퓨팅센터 내 국산 AI 반도체 비중을 50%로 끌어올려 저전력·고성능의 국산 AI 반도체 경쟁력을 높인다는 계획이다. 초기에는 엔비디아 등의 GPU를 쓰되 국산 AI 반도체의 성능을 검증해 점차 비율을 늘린다는 방침이다. 범용인공지능(AGI) 구현에 필요한 핵심 원천기술 확보도 추진하고 있다. 약 1조원을 투입할 계획으로, 현재 예비타당성 조사가 진행 중이다. 이에 대해 조 회장은 "국가 AI 역랑 강화 방안들은 어려운 환경에서 시기 적절하고 정교하게 잘 만들어졌다"며 "실행에 만전을 기하면 승산이 있다고 본다"고 말했다. 정부가 이처럼 나선 것은 AI 주도권을 둘러싼 글로벌 시장 경쟁이 갈수록 격화되고 있어서다. 미국은 지난 달 오픈AI, 오라클을 중심으로 AI 데이터센터에 약 730조원을 투자하는 '스타게이트 프로젝트'를 발표했다. 이에 질세라 유럽연합(EU)은 'AI기가팩토리 프로젝트'를 포함해 300조원가량을 투자키로 했다. 프랑스도 AI데이터센터에 약 163조원을 투자할 것이란 계획을 최근 공개했다. 하지만 우리나라는 미국, 중국에 이어 'AI 3대 강국'을 목표로 하고 있지만 '쩐의 전쟁'에선 다소 밀리는 모양새다. 한국은 일단 글로벌 AI 생태계에서 싱가포르·영국·프랑스와 함께 3위권으로 평가 되고 있지만, 고성능 AI 모델을 개발하기에는 국내 인프라가 부족하다는 지적을 받고 있다. 실제 지난해 기준 우리나라가 보유한 엔비디아의 AI 반도체 'H100'은 약 2천 개로, 미국 빅테크 메타의 15만 개, 마이크로소프트(MS)의 15만 개에 비해 상당히 낮은 수치다. 기술격차도 갈수록 커지고 있다. 미국과는 지난해 3월 기준 1.3년에 달했고 유럽과는 1년, 중국과는 0.9년의 차이가 났다. AI 고급 인재의 해외 이탈도 많아지면서 기술 개발에도 상당히 어려움을 겪고 있다. 이에 카카오는 자체 LLM 개발 중심 전략에서 선회해 오픈AI와 손을 잡았다. LLM 개발에 수천억원이 든다는 점에서 부담이 컸기 때문이다. 하지만 업계에선 카카오의 이 같은 전략에 대해 상당한 아쉬움을 드러냈다. 카카오가 파운데이션 AI 모델 개발에 소요되는 대규모 투자 비용을 절감하는 효과가 있겠지만, 자체적인 AI 역량 확보가 어려워져 향후 해외 진출에 어려움을 겪을 수도 있다고 판단해서다. 조 회장은 "국내 국민 메신저를 운영하는 대기업의 미국 LLM기업과의 제휴는 AI가 국가 기간산업이라는 철학이 부재한 보여주기식의 쉬운 접근"이라며 "(이 같은 전략은) 성공하기 어려울 것"이라고 주장했다. 이어 "AI는 LLM, GPU, 고대역폭메모리(HBM), 프로세싱-인-메모리(PIM), 클라우드, 양자 등 대규모 융합 산업으로, 어느 하나도 포기할 수 없는 주요 테크산업인 만큼 협업과 종합적인 접근이 중요하다"며 "올해 (우리나라가 AI기본법과 관련해) 세부 규정과 시행령을 더 정교하게 만들어서 미국 빅테크 기업을 적절히 견제하고 국내 산업을 증진시킬 수 있도록 (모두의) 균형있는 노력이 필요할 것"이라고 덧붙였다.

2025.02.23 15:37장유미

[현장] "GPU 병목 넘는다"…구글 클라우드 '트릴리움' TPU로 AI 혁신 본격화

"그래픽 처리 장치(GPU)는 그래픽 연산에 특화돼 있지만 텐서 처리 장치(TPU)는 처음부터 인공지능(AI)용으로 설계됐습니다. 거대 언어 모델(LLM) 시대에 필요한 초거대 연산을 효율적으로 처리하는데 있어 우리가 개발한 '트릴리움' TPU는 좋은 답이 될 것입니다." 모한 피치카 구글 클라우드 프로덕트 매니저는 16일 회사가 개최한 '렛츠 토크 AI : 구글 클라우드 트릴리움 교육 세션'에서 이같이 말했다. 이날 온라인으로 진행된 행사에서 피치카 PM은 구글 클라우드가 새롭게 선보인 6세대 텐서 TPU '트릴리움'과 AI 하이퍼컴퓨팅 전략을 설명했다. 피치카 PM에 따르면 GPU가 본래 컴퓨터 그래픽의 병렬 처리를 위해 개발된 것과 달리 TPU는 뉴럴 네트워크 연산에 특화해 처음부터 AI를 염두에 두고 탄생한 장치다. 구글 역시 이러한 트렌드를 감안해 지난 2015년 경부터 TPU를 개발해 왔다. 트릴리움 TPU는 단순히 '칩' 하나만 개선한 것이 아니다. LLM을 학습하려면 네트워킹, 스토리지, 소프트웨어 스택까지 모두 일관성 있게 최적화돼야 하는 것은 필수다. 이에 구글 클라우드 역시 '트릴리움'이 이 모든 구성 요소를 하나의 거대한 슈퍼컴퓨터처럼 움직이도록 설계했다는 것이 피치카 PM의 설명이다. 실제로 구글 클라우드는 저전력 액체 냉각 기술, 3세대 스파스코어(SparseCore), 확장된 고대역폭 메모리(HBM) 등 다양한 요소를 결합해 '트릴리움'의 전력 효율과 확장성을 함께 끌어올렸다. 피치카 PM은 "GPU만 쓰는 환경에서는 분산 처리가 복잡해질 수 있지만 트릴리움 TPU는 칩 수천 개를 유기적으로 연결해 병목 현상을 최소화한다"며 "이런 통합 아키텍처야말로 거대 언어 모델 시대에 꼭 필요한 핵심"이라고 말했다. 행사에서 반복적으로 언급된 또다른 키워드는 'AI 하이퍼컴퓨터'였다. '트릴리움'을 통해 구글이 네트워크, 스토리지, 오픈소스 소프트웨어, 유연한 소비 모델을 통합함으로써 거대 언어 모델을 빠르고 안정적으로 서빙할 수 있는 '슈퍼컴퓨팅 환경'을 구현했다는 것이다. 피치카 PM은 "구글은 이미 검색, 포토, 지도 등 주요 서비스에 TPU를 대규모로 적용해 왔다"며 "이를 통해 얻은 노하우가 글로벌 고객들에게도 곧바로 제공된다"고 밝혔다. 구체적인 활용 사례도 공개됐다. 현재 카카오는 통합 AI 브랜드 '카나나(Kanana)'를 개발하던 중 GPU 자원의 한계를 느껴 트릴리움 TPU를 도입한 바 있다. 이에 따라 70B 파라미터를 지닌 대형 한국어·영어 모델을 빠르게 학습시킬 수 있었다. 글로벌 유즈 케이스 역시 상당하다. 글로벌 제약회사인 바이엘은 신약 개발에, 딥 지노믹스는 RNA 치료제 연구에 '트릴리움'을 적용해 대규모 AI 모델을 효율적으로 구동하고 있다. 피치카 PM은 "노벨상 수상 연구로 주목받은 알파폴드(AlphaFold) 2나 구글의 최신 모델 제미나이(Gemini) 2.0 역시 '트릴리움' TPU를 가속기로 썼다"며 "초거대 모델 시대에 TPU가 점점 더 중요한 위치를 차지할 것"이라고 내다봤다. TPU는 성공적인 AI 연산 뿐만 아니라 지속 가능성 측면에서도 주목할만한 대안이다. 구글에 따르면 지난해 12월 출시된 '트릴리움' 6세대는 이전 세대 대비 전력 효율을 67%까지 끌어올려 에너지 소비를 줄이고 액체 냉각 기술 같은 친환경 기술을 통해 탄소발자국을 최소화한다. 피치카 PM은 "우리는 친환경적인 AI 인프라를 구축하기 위해 TPU 설계와 운영에서 지속 가능성을 핵심 목표로 삼았다"며 "이러한 기술적 혁신은 에너지 효율성 개선과 환경 보호를 동시에 달성하려는 구글의 장기적인 전략에 부합한다"고 덧붙였다. 구글 클라우드는 경쟁사와의 비교에도 자신감을 보였다. '트릴리움'과 엔비디아 'H100' GPU의 차이에 대한 기자의 질문에 피치카 PM은 "칩과 소프트웨어 스택이 서로 달라 단순 비교는 어렵다"면서도 "'트릴리움'은 뉴럴 네트워크 연산에 특화된 구조로 동일 코어 대비 '행렬 곱셈(Matrix multiplication)' 등 AI 핵심 작업에서 높은 효율을 보인다"고 설명했다. 다만 "아키텍처가 다른 칩들을 성능 점수만으로 비교할 수는 없기 때문에 심층적인 분석이 필요하다"고 당부했다. 지난해 12월 정식 출시 이후 전 세계 고객사들은 이미 '트릴리움' TPU를 이용해 대규모 AI 모델을 구동하고 있다. 구글은 이러한 기술을 기반으로 보다 다양한 유즈 케이스를 확보해 글로벌 시장에서 영향력을 확대할 계획이다. 피치카 PM은 "GPU가 이끌던 AI 시대를 이제 TPU가 한 단계 더 진화시키고 있다"며 "'트릴리움'은 고밀도 모델과 초거대 연산에 최적화된 전용 솔루션으로, 누구든 이 'AI 하이퍼컴퓨터' 인프라를 활용해 글로벌 경쟁력을 확보할 수 있을 것"이라고 강조했다.

2025.01.16 12:00조이환

SKT, 가산 AI데이터센터 오픈...엔비디아 H100기반 클라우드 출시

SK텔레콤은 지난 12월30일 가산 AI 데이터센터(AIDC)를 오픈하고, 시범 운영을 마친 뒤 AI 클라우드 서비스인 'SKT GPUaaS'를 출시했다고 13일 밝혔다. SK텔레콤은 지난 SK AI 서밋 2024에서 AI 인프라 슈퍼 하이웨이 구축 전략을 발표한 뒤 연말 조직 개편에서 AIDC 사업부를 별도 조직으로 신설하며 'AI 인프라' 사업 본격화에 속도를 내고 있다. 새롭게 오픈한 가산 AIDC는 랙당 전력밀도가 국내 최고 수준인 44kW로 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달하는 등 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. 엔비디아 H100 기반 'SKT GPUaaS' 출시… 람다와 1년 준비 'SKT GPUaaS'는 미국 람다와 지난 약 1년간 함께 준비한 구독형 AI 클라우드이다. 이를 위해 가산 AIDC에 람다의 한국 리전을 유치했다. 아시아태평양 지역에 처음으로 생기는 람다의 리전이다. SK텔레콤은 지난해 2월 AIDC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 2012년 AI 엔지니어들이 설립한 람다는 글로벌 빅테크 기업들을 대상으로 AI 클라우드 서비스를 제공하는 GPUaaS 기업으로, SK텔레콤은 람다와의 협력을 통해 GPU의 안정적 확보를 기반으로 AI 클라우드 시장 공략에 본격 나설 계획이다 SK텔레콤이 출시한 GPUaaS는 엔비디아 GPU H100을 기반으로 한다. 서비스 구독을 원하는 기업 고객은 AI 서비스 규모나 목적에 따라 GPU 수량과 기간을 선택하고 단독 서버, 방화벽, 전용회선 등 맞춤형 패키지를 구성할 수 있다. 고객사는 독자적인 GPU를 사용해 안정적 AI 학습과 추론을 시행할 수 있다. 방화벽과 전용 회선을 활용할 경우 보안성 역시 크게 강화할 수 있다. 또한 고객의 AI 작업량이 급격히 늘어나더라도 단독 서버에 GPU를 손쉽게 추가할 수 있어 추가 시설 투자에 대한 부담을 크게 덜 수 있다. 또한 GPUaaS는 퍼블릭 클라우드와 상호 연동이 가능하다. 기업 고객이 기존에 사용하던 클라우드를 그대로 활용하면서 SK텔레콤의 GPU 컴퓨팅 파워를 이용할 수 있는 것이다. GPUaaS와 SK텔레콤의 'AI 클라우드 매니저'를 함께 활용하면 GPU 자원을 보다 효율적으로 관리할 수 있다. 'AI 클라우드 매니저'는 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축하도록 지원하는 솔루션이다. GPUaaS 가격은 약정 기간, GPU 개수, 선불형의 과금 형태에 따라 탄력적으로 책정했다. 예컨대 고객이 24개월 동안 32개의 GPU를 원할 경우 이에 맞는 가격을 설정하는 방식이다. 1개월, 2개월 등 단기 서비스 이용도 가능하다. SK텔레콤은 GPUaaS 출시를 기념해 특별 프로모션도 진행한다. 2월 말까지 약 2개월 간 구독 가격의 20% 할인한다. GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅 등의 이벤트도 시행할 예정이다. 1분기 중 H200 도입 SK텔레콤은 GPUaaS 정식 출시 전부터 100개가 넘는 기업들이 구체적인 내용 문의를 받았다. 특히 대기업, 중소기업뿐만 아니라 AI를 연구하는 각종 대학과 연구 기관에서도 큰 관심을 보였다. 기업들은 GPUaaS를 이용하고 싶은 이유에 대해 ▲고성능 GPU 활용 따른 AI 모델 학습 기간 단축 ▲GPU를 합리적인 가격에 짧은 기간도 이용 가능 ▲서버 구매와 데이터센터 운영 고민 없이 GPU 자원 바로 사용 등으로 꼽았다. 이와 함께 SK텔레콤은 1분기 중 최신 GPU인 H200도 도입할 예정이다. 국내 최초로 H200을 도입해 국내 기업들이 보다 빠르게 AI 기술과 서비스를 개발할 수 있는 환경을 조성하고, GPUaaS 고객 확대에도 박차를 가할 계획이다. 김명국 SK텔레콤 GPUaaS사업본부장은 “GPUaaS 출시는 AI 데이터센터 사업이 고객에게 다가가는 첫번째 사례로 SK텔레콤이 AI 인프라 핵심 사업자로 자리매김하는데 의미가 크다”며, “국가 AI 경쟁력을 높이는 GPU 팜으로 구축하겠다"고 말했다.

2025.01.13 09:16박수형

기부도 AI에...디알젬, H100 서버급 구입비 3억원 KAIST 기부

(주)디알젬(대표 박정병)이 KAIST에 발전기금 3억 원을 기부했다. 기부금 쓰임새는 AI 분야에 맞춰졌다. KAIST는 8일 오전11시 KAIST 서울 도곡캠퍼스에서 기부에 대한 감사패 전달식을 개최한다. 이 자리에는디알젬 측에서 박정병 대표, 전진환 상무 KAIST 측에서 이광형 총장, 예종철, 심현정, 최윤재 등 김재철 AI 대학원 교수진이 참석한다. KAIST는 이 기부금을 김재철 AI 대학원이 H100과 동일한 급의 고성능 GPU 서버를 구매하는 데에 사용할 예정이다. H100은 엔비디아(NVIDIA)가 개발한 최신 GPU 시스템이다. 이를 이용해 '인공지능 헬스케어 분야 생성형 모델 개발'을 위한 다양한 연구 활동에 활용한다는 복안이다. ㈜디알젬은 병원에서 진단과 치료에 활용되는 엑스레이 영상 장비를 연구·제조·판매 기업이다. 지난 2003년 설립됐다. 이광형 총장은 “의료 AI 연구를 위한 고성능 서버 장비와 연구 활동에 집중 투자, 새로운 연구 성과를 창출하는 데 최선을 다하겠다”고 말했다. 박정병 대표는 “김재철 AI 대학원 연구진들의 연구 열정에 감동했다"며 "이번 기부를 통해 의료 AI 분야 연구에 더 큰 발전과 성과가 있기를 기대한다"고 전했다.

2024.11.08 09:54박희범

델·슈퍼 마이크로, 일론 머스크 'xAI' 덕에 '방긋'…이유는?

일론 머스크 테슬라 최고경영자(CEO)의 AI 스타트업 xAI가 추진 중인 슈퍼컴퓨터 구축에 필요한 엔비디아 그래픽처리장치(GPU) 서버 공급을 델 테크놀로지스와 슈퍼 마이크로 컴퓨터(SMC)가 맡기로 하면서 주가가 큰 폭으로 상승했다. 21일 블룸버그통신에 따르면 델 테크놀로지스 주가는 지난 20일(현지시간) 뉴욕 거래에서 장 초반에 8.3%까지 상승한 150.63달러를 기록했다. 슈퍼 마이크로 컴퓨터 주가도 10%가량 급등해 995.45달러로 올랐다. 엔비디아는 2.5 % 상승한 138.94 달러를 기록했다. 다만 엔비디아는 차익 실현 매물에 하락 전환했다. 종가 기준 엔비디아의 시총은 3조2천170억 달러(약 4천478조원)로, MS(3조3천13억달러·약 4천595조원)에 시총 1위 자리를 내줬다. 델 테크놀로지스와 슈퍼 마이크로 컴퓨터도 장 후반에 소폭 반락했다. 델 테크놀로지스와 슈퍼 마이크로 컴퓨터의 주가 상승 움직임은 xAI에 대한 소식과 연관이 깊다. 머스크는 지난 19일 자신의 X(옛 트위터)를 통해 "델이 xAI가 구축하는 슈퍼컴퓨터에 들어가는 서버랙의 절반을 조립하고 있다"고 밝혔다. 나머지 절반을 맡을 파트너를 묻는 질문에는 "SMC"라고 답했다. 마이클 델 델 테크놀로지스 CEO도 자신의 X에 사진을 공개하며 "일론 머스크의 스타트업 xAI를 위해 '델 AI 공장'을 엔비디아와 함께 구축하고 있다"며 "우리는 xAI를 위해 '그록'을 강화할 것"이라고 말했다. 엔비디아 기반 델 AI팩토리는 서버·스토리지·네트워킹·데이터보호 등 델 AI포트폴리오에 엔비디아의 GPU와 소프트웨어 플랫폼을 통합한 것이다. 델 테크놀로지스 측은 "xAI는 델의 'XE 9680' 서버를 사용할 것"이라며 "그래픽 처리 클러스터의 크기 덕분에 AI 모델을 더 빠르게 훈련 할 수 있다"고 설명했다. 지난달 디인포메이션 보도에 따르면 머스크 CEO는 xAI 투자자 대상 프레젠테이션에서 xAI의 생성형AI 챗봇 '그록'의 차세대 버전 학습·운용에 AI칩 10만 개가 필요하며, 이를 슈퍼컴퓨터로 통합 구축해 내년 가을까지 가동할 수 있도록 하겠다고 발표했다. 머스크는 xAI의 새로운 슈퍼컴퓨터를 테슬라 공장처럼 '기가팩토리 오브 컴퓨트'라고 이름을 붙인 것으로 알려졌다. 엔비디아 H100 GPU로 이를 구성, 메타의 AI인프라 등 현존 최대 GPU 클러스터의 4배 이상 규모로 세운다는 계획이다. 블룸버그통신은 "머스크와 xAI가 해당 시설을 미국 테네시주 멤피스에 짓고자 지난 3월부터 테네시주 공무원들과 협력해왔다"며 "델과 슈퍼 마이크로 컴퓨터는 더 많은 데이터 처리 능력을 필요로 하는 AI 기업으로부터 더 많은 비즈니스를 수주하기 위해 서버 용량을 늘리고 있다"고 밝혔다. 또 수퍼 마이크로 컴퓨터는 이번 주 초에 AI 성장을 지원하기 위해 실리콘밸리에 3개의 새로운 시설을 추가할 계획이라고 발표했다. 델은 지난달 AI 작업을 처리할 수 있는 서버의 매출이 지난 분기에 전 분기 대비 두 배 이상 증가했고 주문 잔고도 급증했다고 밝힌 바 있다. 우진호 블룸버그 인텔리전스 애널리스트는 "델의 서버는 엘론 머스크의 AI 스타트업인 xAI를 위한 것으로, 서버 물량의 절반을 차지하고 나머지는 슈퍼 마이크로가 차지할 것으로 보인다"며 "10만 개의 엔비디아 H100 GPU가 필요한 그록3를 위한 구축일 경우 AI 서버 랙당 100만 달러의 가격을 가정할 때 xAI 서버 거래의 가치는 30억 달러에 달할 수 있다"고 분석했다.

2024.06.21 09:27장유미

인텔 "가우디3, 납기·비용·성능 모두 뛰어난 엔비디아 대체재"

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 AI 가속기 '가우디3'의 가격 대비 성능을 강조했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 전세계 10개 이상의 글로벌 공급업체가 올 3분기부터 가우디3 기반 솔루션을 공급 계획중이다. ■ "네이버도 가우디 선택했다...TCO·TTM에서 엔비디아 대비 우위" 이날 팻 겔싱어 인텔 CEO는 "현재 클라우드 이용 현황을 보면 전체 워크로드 중 60%가 클라우드에서 실행되며 생성된 데이터 중 80%가 여전히 활용되지 않는 상황"이라고 설명했다. 이어 "LLM(거대언어모델)에 기업이나 기관의 데이터를 더한 검색증강생성(RAG)은 잠자는 데이터를 활용할 수 있는 기회를 줄 것이다. 6월부터 내년 1분기에 걸쳐 출시될 제온6 프로세서와 가우디 가속기는 이를 바꿀 수 있다"고 설명했다. 현재 AI용 GPU 시장은 엔비디아가 독식하고 있다. 팻 겔싱어 CEO는 "기업들은 대안과 개방형 구조를 원한다. 또 제품/서비스 출시 시간(TTM)을 단축하고 총소유비용을 낮추길 희망하고 있다"고 지적했다. 이어 "한국 네이버클라우드가 가우디를 쓰고 있다. 또 오픈소스 리눅스 재단과 기업용 AI 플랫폼 구축에 협업하고 있으며 제온6와 가우디가 기업 AI 워크로드에 도움을 줄 것"이라고 강조했다. ■ "가우디3, 덜 쓰고 더 얻을 수 있는 '가성비' 가속기" 팻 겔싱어 CEO는 올 3분기부터 공급될 차세대 가속기 가우디3에 대해 "같은 규모 클러스터 구성시 엔비디아 H100에서 추론 성능은 2배이며 H200 GPU 대비 경쟁력을 갖고 있다"고 설명했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공할 예정이다. 팻 겔싱어 CEO는 "가우디3는 '덜 쓰고 더 얻을 수' 있는 AI 가속기"라며 가우디3의 개방성도 강조했다. 그는 "가우디3는 업계 표준 인터페이스인 이더넷으로 작동하며 파이토치 등 오픈소스 AI 프레임워크에 최적화됐고 수십만 개의 AI 모델을 지원한다"고 말했다. ■ 가우디3 솔루션 공급 업체 10개 이상으로 확대 가우디3는 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 인텔은 이날 가우디3 기반 AI 서버 공급업체로 델테크놀로지스, HPe, 레노버, 슈퍼마이크로에 더해 폭스콘, 기가바이트, 인벤텍, 콴타, 위스트론 등 총 10개 이상 글로벌 업체가 참여하고 있다고 밝혔다.

2024.06.04 19:01권봉석

"귀한 엔비디아 'H100' 우리도 쓴다"…kt클라우드, 'AI 트레인'으로 기업 고객 공략

kt클라우드가 엔비디아 GPU(Graphic Processing Unit, 그래픽처리장치)를 적용한 AI 학습 전용 인프라 서비스로 AI 클라우드 시장 공략에 속도를 낸다. kt클라우드는 초거대 AI 분야에서 단기간 집중적으로 대용량, 고사양의 GPU 공급이 필요한 학습 영역에 특화된 'AI 트레인(AI Train)'을 출시했다고 30일 밝혔다. 이번에 출시된 AI 트레인은 kt클라우드가 지난 2022년 선보인 HAC(Hyperscale AI Computing)과 동일하게 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 지원한다. AI트레인은 컨테이너 기반으로 여러 대의 GPU 노드(node)에 컨테이너 클러스터를 구성할 수 있고 손쉬운 접속, 네트워킹과 대규모 작업에 용이하다. 실제 GPU를 사용한 시간만 요금이 부과되고, GPU가 유휴 상태인 경우 컨테이너를 자동 반납하는 구조로 비용 효율성을 높였다. 특히 AI 트레인은 엔비디아 최신 인프라인 H100을 제공하고 A100, H100 등도 함께 사용할 수 있어 호환성과 범용성을 갖췄다. AI 트레인은 지난 2023년 진행된 NIPA 고성능 컴퓨팅 사업∙AI 바우처 사업 등 공공사업에 활용되며 사용 편의성을 검증받은 바 있다. 또 kt클라우드는 리벨리온과 협력해 공공 및 기업 고객 대상의 추론 전용 NPU(Neural Processing Unit, 신경망처리장치) 상품인 'AI 서브(SERV) NPU'를 오는 6월 선보일 예정이다. 기존 GPU 기반 추론용 인프라 대비 가성비를 개선하고, 자동화 유지보수 기능 및 스케일링을 가능하게 한 점이 특징이다. kt클라우드는 AI 서브 NPU를 통해 올해 진행 중인 AI 디지털교과서 사업, NIPA(정보통신산업진흥원) 주관의 고성능 컴퓨팅 사업, AI 바우처 사업 등에 적극 대응할 예정이다. 리벨리온이 올해 준비 중인 'ATOM 플러스(Plus)' 칩 출시에 맞춰 AI 서브 NPU 성능을 높여가며 라마(Llama)-3와 같은 sLLM(소형거대언어모델) 등 AI 연구를 위한 다양한 언어 모델을 지원할 계획이다. 앞서 kt클라우드는 작년 10월, 슬라이싱 기술을 활용한 엔비디아 기반 AI 추론 전용 서비스 'AI 서브'를 선보이며 고객 활용도를 높여왔다. 반려동물 AI 서비스 기업인 아지랑랑이랑 관계자는 "초기 GPU 투자 진행을 고민하다 kt클라우드의 AI 서브를 접하게 됐다"며 "자사의 연구 환경에 맞춰 활용하면서 기존 GPU 사용 장수를 줄이고, AI 연구 비용을 약 70% 이상 절감했다"며 높은 만족감을 드러냈다. kt클라우드 남충범 본부장은 "지속적으로 확대되고 있는 시장 내 인프라 수요에 적극 대응하고 차별화된 AI 인프라 서비스를 제공하고자 AI 트레인 서비스를 새롭게 선보였다"며 "다양한 파트너들과 협업을 이어가며 AI 클라우드 분야를 선도하고, 고객 사용성에 맞춘 AI 인프라 환경을 구현해 나갈 것"이라고 말했다.

2024.05.30 14:44장유미

엔비디아, 1분기 매출 262%·순이익 4.5배 '껑충'

엔비디아가 22일(미국 현지시간) 1분기(2~4월) 실적을 발표했다. 매출은 260억 4천만 달러(약 35조 6천억원)로 전년 동기 대비 262% 늘어났고 순이익은 주당 6.12달러(약 8천360원)로 전년 동기 대비 4.5배 늘어났다. 콜레트 크레스 엔비디아 CFO(최고재무책임자)는 "호퍼 GPU 출하량이 급격히 늘어났으며 메타는 라마3에 2만 4천개의 H100 GPU를 적용했다"며 "현재 엔비디아 데이터센터 수익의 40% 가량이 대형 클라우드 서비스 제공 업체에서 나온다"고 밝혔다. 데스크톱PC·노트북용 지포스 GPU를 공급하는 게이밍 부분 매출은 26억 5천만 달러(약 3조 6천217억원)로 전년 대비 18% 증가했다. 서버간 데이터 전송을 처리하는 인피니티밴드 제품 매출은 32억 달러(약 4조 3천753억원)로 전년 대비 3배 이상 늘었다. 각종 설계 분석 등에 쓰이는 쿼드로 등 워크스테이션 칩 매출은 4억 2천700만 달러(약 5천838억원), 자동차용 반도체 매출은 3억2천900만 달러(약 4천498억원)로 집계됐다. 컨퍼런스콜에서 젠슨 황 엔비디아 CEO는 "오는 4분기 차세대 GPU인 '블랙웰'을 주요 데이터센터에 공급할 것이며 이를 통한 매출 상승이 기대된다"고 설명했다. 최근 아마존은 연말에 출시될 엔비디아 GPU '블랙웰' 구매를 위해 현재 판매되고 있는 호퍼 시리즈의 구매를 중단한다고 밝힌 바 있다. 엔비디아는 올 2분기(5~7월) 매출을 280억 달러(약 38조 2620억원)로 예상했다. 또 오는 6월 8일 주식을 10대 1로 액면분할하는 한편 분기별 현금 배당금을 주당 4센트에서 10센트로 2배 이상 늘릴 것이라고 밝혔다.

2024.05.23 09:22권봉석

지코어코리아, 한국에 엔비디아 H100 기반 데이터센터 개소

글로벌 퍼블릭 클라우드, 엣지 컴퓨팅 및 엣지AI 전문기업 지코어는 4일 서울 더플라자호텔에서 기자간담회를 개최하고 엔비디아 H100 기반의 AI 퍼블릭 클라우드 서비스를 한국시장에 출시한다고 밝혔다. 오는 15일 한국에 개소하는 지코어 데이터센터는 AI 학습에서 현존하는 가장 효과적인 GPU로 인정받는 엔비디아 H100 서버 40대를 설치한다. GPU 기준으로 320개다. 그 동안 국내 AI 기업은 AI 모델을 개발하고 학습시키는데 있어 필수적인, 고성능 GPU 확보에 큰 어려움을 겪고 있었다. 이제 한국의 AI 전문기업은 더 이상 대규모의 GPU를 확보하기 위해 수십주를 기다리거나 타국에 위치한 자원을 활용하지 않고, 초고성능 AI 컴퓨팅 자원을 지코어의 엣지 클라우드를 통해 쉽게 활용할 수 있다. 지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 유니파이드패브릭매니저(UFM)으로 관리되는 논블로킹 클러스터는 핫 스페어와 콜드 스페어를 각각 구성해 서비스 품질도 GDPR의 기준을 충족한다. 각 서버당 2TB에 달하는 메모리와 112개에 달하는 CPU코어로 대용량 데이터 처리 및 고성능 컴퓨팅 작업 환경을 제공한다. 서버당 12KW에 달하는 전력량 충족, 빠른 네트워크, 안전한 센터 설계 등으로 최상의 서비스 구현이 가능하다. 지코어는 이 서비스를 준비하면서 NHN클라우드와 데이터센터 선정에서부터 한국고객의 수요를 반영한 서비스 구성에 이르기까지 긴밀히 협업했다. NHN클라우드는 한국 AI산업의 역량이 급부상함에 따라 국내 고객들이 원하는 특수한 요구사항을 잘 파악하고 있는 만큼 지코어 서비스를 현지화하고 고객 맞춤형으로 구성하는데 있어서 큰 역할을 했다. NHN클라우드는 지코어의 데이터센터 운영에도 지속적으로 참여할 예정이다. 정현용 지코어코리아 한국지사장은 “한국은 AI 반도체, 시스템, 서비스 등 AI 기술 전반에 걸쳐 세계적으로 엄청난 성장 잠재력을 지니고 있는 국가”라며 “이제 국내 초고속 통신망 내에 위치한 지코어의 데이터센터는 물론, 전세계와 초저지연 네트워크로 상호 연결돼 있는 지코어의 글로벌 엣지 네트워크를 접목해 한국기업들이 글로벌 AI시장에서 선도적인 위치를 선점해 나갈 수 있기를 기대한다”고 말했다. 그는 “국내 AI시장 및 고객에 대한 전문적 이해와 경험을 보유한 NHN클라우드와의 지속적이고 긴밀한 협업을 통해 공공기관은 물론 연구소, 금융 및 제조업계 등을 비롯해 다양한 영역에서 급속히 증가하고 있는 국내 AI 수요에 빠르고 신속하게 대응해 나갈 것”이라고 강조했다. 김동훈 NHN클라우드 대표는 “국내는 물론 글로벌 AI 인프라 시장의 패러다임이 급격히 변화하고 있는 만큼, NHN클라우드는 광주 국가 AI 데이터센터를 포함해 판교 데이터센터(NCC1) 등 자사 데이터센터에 1천 개 이상의 엔비디아 H100으로 구축하는 등 국내 최대 규모 GPU 클러스터를 구축해 나가고 있다”고 밝혔다. 그는 이어 “지코어는 전세계 160개 이상의 PoP를 기반으로 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업으로, 엔비디아의 최신 GPU인 H100을 발빠르게 한국에 도입함으로써 국내 AI 시장의 도약을 위한 새로운 국면을 맞게 한 일등공신”이라며 “NHN클라우드는 지코어와의 파트너십을 통해 국내 AI 인프라 시장의 경쟁력을 강화하고, 글로벌 진출 및 시장 변화에 적극적으로 대응해 나갈 것”이라고 덧붙였다. 이날 기자간담회에 자크 플리스 주한 룩셈부르크 초대 대사 내정자가 참석해 룩셈부르크 소재의 글로벌 IT 기업인 지코어가 한국 기업고객들에게 혁신적인 기술을 전하고 협력 기회를 확대할 수 있기를 기대한다며 축사를 전했다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전하고 신뢰할 수 있는 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다.

2024.04.04 13:45김우용

"국내 최대 AI인프라 구축한, NHN 클라우드 글로벌 간다"

김동훈 엔에이치엔(NHN) 클라우드 대표가 'NHN클라우드 2.0 전략'을 통해 국내 최대규모 인공지능(AI) 인프라를 확보하고 글로벌 기업으로 발돋움한다. 지난 21일 NHN클라우드는 광주광역시 김대중컨벤션센터에서 개최한 간담회를 통해 국가 AI 데이터센터와 함께 AI 중심 전략을 소개했다. █ 국가AI 데이터센터로 글로벌 수준 AI인프라 지원 국가AI 데이터센터는 NHN클라우드 2.0 전략의 핵심 인프라다. AI 연구개발에 특화됐으며 엔비디아의 AI전용 GPU H100을 기반으로 88.5페타플롭스(PF)의 컴퓨팅 연산능력과 저장 용량 107페타바이트(PB) 규모의 인프라를 갖췄다. GPU의 성능 극대화를 위해 전력 공급 최적화 기술을 적용해 서버랙 당 전력밀도를 15kw로 끌어올렸다. 이는 국내 데이터센터의 평균 전력밀도의 3배에 달하는 수치다. 높은 전력사용으로 인한 발열을 줄이기 위해 NHN클라우드에서 개발한 냉기 시스템을 적용했다. 외부의 자연 바람을 이용한 공냉식으로 열교환 과정에서 간섭을 최소화해 냉각에 쓰이는 에너지를 절감하기 위한 방안을 적용했다. 김동훈 대표는 “NHN클라우드는 판교 데이터센터(NCC1)를 10년 이상 운영하며 얻은 클라우드 서비스 전문 데이터센터 운영 경험을 녹여 고밀도전력, 효율적 소비 전력 설비를 구축했다”고 설명했다. “일반 기업이 H100 등 AI전용 하드웨어를 구하는 것이 거의 불가능에 가까운 상황에서 상대적으로 저렴하게 이용할 수 있다는 것부터 큰 메리트라고 할 수 있다”며 “기업의 서비스 특성이나 자금상황에 따라 유연하게 활용할 수 있도록 H100외에도 A100 등 추가적인 옵션도 함께 제공하고 있다”고 설명했다. 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 일환으로 광주 첨단3지구 AI중심산업융합집적단지에 지난해 10월 구축됐다. 11월부터 정식 운영을 시작해 현재 470여 곳의 기업, 기관이 데이터센터를 이용하고 있다. AI 산업융합 생태계 활성화를 위해 올해 말까지 스타트업 등 민간 기업을 대상으로 인프라 지원사업을 실시한다. 민간지원사업이 종료되는 2025년부터 본격적인 수익 사업도 이어질 예정이다. █ “AI전환(AX) 패러다임 이끄는 선두기업 될 것” NHN클라우드 2.0 전략은 공공, 금융, 제조, IT 등 다양한 산업 분야의 기업에 최적화된 AI 환경을 인프라부터 솔루션까지 통합제공해 AI전환(AX) 패러다임을 이끌겠다는 전략이다. 이를 위해 김동훈 대표는 국내 최대 수준의 '멀티 AI GPU 팜'을 구축하고 이를 중심으로 풀스택 AI 클라우드 서비스 제공사(CSP)'로 발전할 것이라고 계획을 설명했다. 현재 NHN클라우드는 국가AI데이터센터를 포함해 판교 데이터센터(NCC1) 등 데이터센터를 보유하고 있다. H100 GPU 1천 개 이상으로 이뤄진 엔비디아 기반 인프라는 77.3 PF에 달하며 그래프코어 기반 인프라는 11.2PF, 사피온은 11PF로 총 99.5PF에 달한다. 이와 함께 AI 플랫폼 'AI 이지메이커', 프라이빗클라우드 전용 솔루션 '프라이빗덱' 등 서비스 역량을 결합함으로써 고객이 쉽게 AI 서비스를 개발하고 상용화할 수 있도록 환경을 제공한다는 것이다. 김 대표는 NHN클라우드 외에도 솔트룩스 등 다양한 AI 기술 기업과 협력 관계를 맺어 AI 얼라이언스를 구축해 AI 생태계를 확장할 것이라고 장기적인 청사진을 소개했다. 이에 글로벌 파트너 지코어의 정현용 지사장이 참석해 “오픈스택 기술력 융합 협력에 이어 AI 인프라 사업에서도 긴밀하게 NHN클라우드와 협업할 것”이며 향후 AI생태계 구축을 위한 지속적인 파트너십을 약속했다. 김동훈 NHN클라우드 대표는 “생성형AI를 중심으로 확대되는 시장에서 다양한 AI서비스와 인프라를 제공해 선두권 사업자로 앞서 나가겠다는 것이 2.0 전략의 핵심”이라며 “우리는 개발부터 운영, 서비스 제공까지 모든 과정에서 앞선 역량과 인프라를 갖춘 만큼 앞으로 더욱 가시적인 성과를 낼 것”이라고 강조했다. 이어서 “지난해는 민간 사업은 목표치를 달성했지만, 공공 부문은 전체적으로 규모가 줄고 매출 반영이 1년뒤에 이뤄지면서 단기 순손실을 기록했다”며 “하지만 AI와 클라우드 관련 전체적인 기조가 긍정적이고, 글로벌진출까지 준비하고 있는 만큼 올해 매출 2천억 원, 2026년까지 8천 억 원을 달성하겠다는 목표는 그대로 유지할 것”이라고 포부를 밝혔다.

2024.03.25 09:19남혁우

두산, 엔비디아 차세대 AI반도체용 'CCL' 공급업체 단독 진입

두산이 최근 엔비디아 차세대 AI 반도체용 핵심 소재의 단일 공급업체로 진입한 것으로 파악됐다. 기존 공급망을 주도하던 대만 경쟁사를 밀어내고 이뤄낸 성과다. 14일 업계에 따르면 두산전자는 엔비디아의 최신형 AI 반도체인 'B100'용 CCL(동박적층판) 공급업체로 단독 진입했다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재 중 하나다. 수지, 유리섬유, 충진재, 기타 화학물질로 구성된 절연층에 동박을 적층해 만든다. 두산은 계열사인 두산전자를 통해 메모리, 전자기기, 통신 등 다양한 용도의 CCL을 생산하고 있다. 기술적 난이도가 높은 IC(직접회로) 패키징용 CCL도 개발해 왔다. 앞서 두산은 지난해 중반 엔비디아의 AI반도체 기판용 CCL 공급업체로 첫 진입한 바 있다. 해당 CCL은 엔비디아가 지난해 하반기 공개한 고성능 GPU(그래픽처리장치)인 H시리즈(H100, H200 등)용이다. 당시 엔비디아의 CCL 공급망을 주도하고 있던 대만 엘리트머티리얼즈(EMC)의 틈을 파고 든 성과다. 나아가 두산은 최근 엔비디아의 'B100'용 CCL 공급업체로도 진입했다. B100은 엔비디아가 올해 4분기 출시할 예정인 차세대 제품으로, 전작 H200 대비 성능을 2배가량 끌어 올린 것이 특징이다. 특히 업계는 두산이 B100용 CCL 공급업체로 단독 진입했다는 점에 주목한다. EMC는 현재까지 공급이 확정되지 않은 것으로 알려졌다. 엔비디아가 공급망 형성에서 품질을 최우선순위로 두고 있는 만큼, 두산의 CCL 기술력이 인정을 받았다는 평가가 나온다. 매출 면에서도 유의미한 성과가 나올 것으로 전망된다. 두산이 지난해 엔비디아 공급망에 진입하기는 했으나, 실제 공급 물량이 적어 매출은 수십억 원 규모에 그친 것으로 전해진다. 이번 단독 공급 체제를 유지할 경우, 매출은 크게 확대될 가능성이 높다. 두산은 이와 관련해 "고객사와 관련된 사안은 확인해줄 수 없다"고 밝혔다.

2024.03.14 11:37장경윤

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

메타 "연내 엔비디아 H100 35만 개 구입 예정"

메타가 인공일반지능(AGI) 연구를 위해 연내 엔비디아의 AI 반도체 H100을 35만 개 이상 구입한다. 마크 저커버그 메타 최고경영자(CEO)는 AGI 연구가 회사의 장기 비전라는 입장이다. 18일(현지시간) CNBC 보도에 따르면, 저커버그 메타 CEO는 자신의 인스타그램을 통해 “올해 말까지 회사의 컴퓨팅 인프라에 35만 개의 H100을 포함하는 게 목표”라며 “궁극적으로 H100을 포함해 60만 개 이상의 그래픽 카드(GPU)를 확보할 것”이라고 밝혔다. 엔비디아의 고성능 AI 칩 H100은 1대당 수천만원을 호가하는 가격에도 불구하고 AI 연산에 탁월한 성능을 보이며 지난해에만 150만 대가 팔린 인기 제품이다. H100는 최소 2만5천 달러(약 3천300만원) 수준에 거래되고 있다. 이베이에서는 1개당 4만 달러(약 5천360만원)를 호가하기도 한다. 만약 메타가 H100을 2만5천 달러 선에서 구매했을 경우, 예상되는 지출 비용은 약 90억 달러(약 12조원)로 추산된다. 한편 메타가 H100을 대량 구매하는 이유는 AGI 연구를 하고 있기 때문이다. AGI는 사람의 명령 없이도 스스로 학습과 훈련이 가능한 AI 기술로, 사람의 지능 수준을 뛰어넘어 자율적으로 판단할 수 있는 기계를 뜻한다. 저커버그 CEO는 “AGI 연구가 메타의 장기 비전”이라는 입장이다. 메타의 얀 르쿤 수석 과학자 역시 지난달 샌프란시스코에서 열린 미디어 행사에서 “AGI 연구를 감안하면 반도체를 더 많이 사야 한다”고 말했다.

2024.01.19 14:12조성진

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

에너지 안보가 곧 국가 경쟁력…전력 인프라 대전환 시급

"입는 로봇, 스마트폰처럼 쓰게 될 것…라인업 다각화 계획"

직장 내 사람·일·협업 고민, 'HR테크'로 풀었다

네이버·카카오 올해 특명 '체류시간' 더 늘려라

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현