• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'H200'통합검색 결과 입니다. (10건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

정부, 엔비디아 H200·B200 구입...10월부터 GPU 서비스

정부가 연내 엔비디아의 H200, B200 GPU 1만장을 도입해 국내 클라우드 기업이 AI 연구 개발에 쓰이도록 한다. GPU 구매 발주는 7월에 이뤄질 예정이다. 과학기술정보통신부는 14일 열린 경제관계장관회의에서 이같은 내용이 담긴 첨단 GPU 확보 추진 방안을 발표했다. 추경 예산으로 확보하게 되는 GPU 1만장은 H200 6천400장, B200 3천600장 규모로 수급 계획을 세웠으며 모델 비중은 상황에 따라 조정할 예정이다. GPU 구입에 8천600억원, 클러스터 통합 운영환경에 6천억원의 예산을 분배한다. 정부 예산으로 구입한 GPU를 운용할 클라우드 기업(CSP)에 대한 공모는 내주 예정됐으며 GPU 구매 절차는 7월에 진행, 이르면 오는 10월부터 신규 GPU 클러스터를 통한 국내 기업과 학계의 R&D를 진행키로 했다. 국가AI컴퓨팅센터 주체의 컨소시엄 형태 특수목적법인(SPC)에 참여하는 CSP 선정에는 별도 전문가 위원회가 맡는다. 선정 평가는 ▲재정 투입 대비 컴퓨팅 성능을 포함한 GPU 확보 구축 역량 ▲신속한 GPU 서비스 실행력 ▲GPU 자원 자체 활용 비중과 계획(CSP 운영비 성격 고려) 등을 중점에 뒀다. 선정된 CSP와 추후 권리 등에 관한 5년 단위 협약을 체결하게 된다. 협약에는 정보통신산업진흥원(NIPA)의 GPU 소유권 확보, SPC의 GPU 사용, CSP의 일부 GPU 자원 자체활용 허용 등의 내용이 포함된다. 정부는 특히 월드베스트LLM(WBL)에 선정된 기업에 GPU 자원 이용을 우선 제공한다는 방침이다. WBL은 국가대표 생성형AI 모델을 만들겠다는 취지로, 추경 예산을 통해 이뤄지는 프로젝트다. 과기정통부는 “SPC는 공공지분이 51%로 공공기관운영법에 따른 공공기관 지정 가능 요건에 해당한다”며 “내년 1월로 예상되는 공공기관운영위 심의에서 최종 결정될 사항이나 민간의 자율성을 최대한 보장하는 방향으로 부처 협의 중”이라고 밝혔다.

2025.05.14 11:35박수형

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미

KT클라우드, 구독형 GPU에 엔비디아 'H200' 적용…고성능 AI 인프라로 고객 확보 가속

KT클라우드가 엔비디아의 최신 그래픽처리장치(GPU)를 인공지능(AI) 인프라에 적용하며 GPU 서비스를 한층 강화한다. AI 학습과 추론 워크로드 최적화를 앞세워 공공기관·스타트업 고객 확보에 나서기 위함이다. KT클라우드는 자사의 AI 훈련 서비스에 엔비디아 'H200'을 도입해 AI 인프라 성능을 개선한다고 24일 밝혔다. 기존 'H100' 기반의 AI 훈련 서비스에 최신 GPU를 추가해 연산 처리 성능과 전력 효율을 향상시키는 것이 이 프로젝트의 핵심이다. KT클라우드는 사용량 기반의 '서비스로의 GPU(GPUaaS)'를 제공하며 AI 학습과 추론 영역에 최적화된 인프라를 구축해왔다. 특히 AI 훈련 서비스는 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 통해 대량의 연산 작업을 효율적으로 처리할 수 있도록 설계됐다. GPU 노드 클러스터링은 여러 GPU 서버를 하나의 클러스터로 묶어 연산 성능을 극대화하는 기술로, 대규모 AI 학습에서 병렬 연산을 최적화하는 데 핵심적인 역할을 한다. 또 동적할당 제어 기능은 사용자의 작업량에 맞춰 자원을 실시간으로 배분하고 불필요한 자원 낭비를 줄여 최적의 GPU 성능을 유지한다. 이번 'H200' 도입은 이러한 기능을 보다 강화해 고성능 AI 학습 환경을 지원할 것으로 기대된다. 'H200'은 엔비디아 '호퍼(Hopper)' 아키텍처 기반의 최신 GPU로, 이전 모델인 'H100' 대비 연산 처리 능력과 전력 효율성이 개선됐다. 특히 메모리 대역폭이 확대돼 대규모 AI 모델 학습과 추론 성능을 극대화할 수 있는 것이 특징이다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. 공공 분야 대응도 강화한다. 회사는 올해 하반기 공공기관을 대상으로 AI 추론 전용 상품의 클라우드 서비스 보안 인증(CSAP) 절차를 진행할 계획으로 이로써 공공기관에서도 안전하게 AI 추론 서비스를 이용할 수 있도록 지원할 예정이다. 공용준 KT클라우드 클라우드본부장은 "이번 엔비디아 'H200' 도입으로 글로벌 수준의 AI 인프라를 확보하게 됐다"며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 말했다.

2025.02.24 11:21조이환

SKT, 가산 AI데이터센터 오픈...엔비디아 H100기반 클라우드 출시

SK텔레콤은 지난 12월30일 가산 AI 데이터센터(AIDC)를 오픈하고, 시범 운영을 마친 뒤 AI 클라우드 서비스인 'SKT GPUaaS'를 출시했다고 13일 밝혔다. SK텔레콤은 지난 SK AI 서밋 2024에서 AI 인프라 슈퍼 하이웨이 구축 전략을 발표한 뒤 연말 조직 개편에서 AIDC 사업부를 별도 조직으로 신설하며 'AI 인프라' 사업 본격화에 속도를 내고 있다. 새롭게 오픈한 가산 AIDC는 랙당 전력밀도가 국내 최고 수준인 44kW로 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달하는 등 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. 엔비디아 H100 기반 'SKT GPUaaS' 출시… 람다와 1년 준비 'SKT GPUaaS'는 미국 람다와 지난 약 1년간 함께 준비한 구독형 AI 클라우드이다. 이를 위해 가산 AIDC에 람다의 한국 리전을 유치했다. 아시아태평양 지역에 처음으로 생기는 람다의 리전이다. SK텔레콤은 지난해 2월 AIDC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 2012년 AI 엔지니어들이 설립한 람다는 글로벌 빅테크 기업들을 대상으로 AI 클라우드 서비스를 제공하는 GPUaaS 기업으로, SK텔레콤은 람다와의 협력을 통해 GPU의 안정적 확보를 기반으로 AI 클라우드 시장 공략에 본격 나설 계획이다 SK텔레콤이 출시한 GPUaaS는 엔비디아 GPU H100을 기반으로 한다. 서비스 구독을 원하는 기업 고객은 AI 서비스 규모나 목적에 따라 GPU 수량과 기간을 선택하고 단독 서버, 방화벽, 전용회선 등 맞춤형 패키지를 구성할 수 있다. 고객사는 독자적인 GPU를 사용해 안정적 AI 학습과 추론을 시행할 수 있다. 방화벽과 전용 회선을 활용할 경우 보안성 역시 크게 강화할 수 있다. 또한 고객의 AI 작업량이 급격히 늘어나더라도 단독 서버에 GPU를 손쉽게 추가할 수 있어 추가 시설 투자에 대한 부담을 크게 덜 수 있다. 또한 GPUaaS는 퍼블릭 클라우드와 상호 연동이 가능하다. 기업 고객이 기존에 사용하던 클라우드를 그대로 활용하면서 SK텔레콤의 GPU 컴퓨팅 파워를 이용할 수 있는 것이다. GPUaaS와 SK텔레콤의 'AI 클라우드 매니저'를 함께 활용하면 GPU 자원을 보다 효율적으로 관리할 수 있다. 'AI 클라우드 매니저'는 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축하도록 지원하는 솔루션이다. GPUaaS 가격은 약정 기간, GPU 개수, 선불형의 과금 형태에 따라 탄력적으로 책정했다. 예컨대 고객이 24개월 동안 32개의 GPU를 원할 경우 이에 맞는 가격을 설정하는 방식이다. 1개월, 2개월 등 단기 서비스 이용도 가능하다. SK텔레콤은 GPUaaS 출시를 기념해 특별 프로모션도 진행한다. 2월 말까지 약 2개월 간 구독 가격의 20% 할인한다. GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅 등의 이벤트도 시행할 예정이다. 1분기 중 H200 도입 SK텔레콤은 GPUaaS 정식 출시 전부터 100개가 넘는 기업들이 구체적인 내용 문의를 받았다. 특히 대기업, 중소기업뿐만 아니라 AI를 연구하는 각종 대학과 연구 기관에서도 큰 관심을 보였다. 기업들은 GPUaaS를 이용하고 싶은 이유에 대해 ▲고성능 GPU 활용 따른 AI 모델 학습 기간 단축 ▲GPU를 합리적인 가격에 짧은 기간도 이용 가능 ▲서버 구매와 데이터센터 운영 고민 없이 GPU 자원 바로 사용 등으로 꼽았다. 이와 함께 SK텔레콤은 1분기 중 최신 GPU인 H200도 도입할 예정이다. 국내 최초로 H200을 도입해 국내 기업들이 보다 빠르게 AI 기술과 서비스를 개발할 수 있는 환경을 조성하고, GPUaaS 고객 확대에도 박차를 가할 계획이다. 김명국 SK텔레콤 GPUaaS사업본부장은 “GPUaaS 출시는 AI 데이터센터 사업이 고객에게 다가가는 첫번째 사례로 SK텔레콤이 AI 인프라 핵심 사업자로 자리매김하는데 의미가 크다”며, “국가 AI 경쟁력을 높이는 GPU 팜으로 구축하겠다"고 말했다.

2025.01.13 09:16박수형

엔비디아, SC24서 H200 NVL PCIe GPU 공개

엔비디아가 오는 22일까지 미국 애틀란타에서 개최되는 '슈퍼컴퓨팅 2024'(SC24) 컨퍼런스에서 호퍼 GPU 최신 제품인 H200 NVL PCIe GPU를 공개했다. H200 NVL PCIe GPU는 H200 GPU를 PCI 익스프레스 5.0 슬롯으로 서버에 장착할 수 있게 설계됐다. 저전력 공랭식 랙에 설치 가능하도록 구성됐고 탑재 메모리 용량은 141GB다. PCI 익스프레스 슬롯을 하나만 차지하는 단일 구성, NV링크를 이용해 2개/4개를 연결하는 구성이 가능하며 전세대 제품인 H100 NVL 대비 거대언어모델(LLM) 추론 성능은 최대 1.7배, HPC 응용프로그램 성능은 최대 1.3배 향상됐다. 엔비디아는 "최근 조사에 따르면 엔터프라이즈 랙의 약 70%가 소모 전력 20kW 이하이며 공랭식 설계를 적용해 PCI 익스프레스 방식 GPU가 필요하다. 기업은 기존 랙을 활용하고 필요에 맞는 적합한 GPU 수를 선택할 수 있다"고 밝혔다. H200 NVL은 각종 AI 관련 응용프로그램 개발을 위한 소프트웨어 도구와 함께 제공되며 프로덕션 AI의 개발과 배포를 위한 클라우드 네이티브 소프트웨어 플랫폼인 엔비디아 AI 엔터프라이즈 5년 구독도 함께 제공한다. H200 NVL은 오는 12월부터 델테크놀로지스, HPE, 레노버, 슈퍼마이크로 등 주요 서버 업체와 엔비디아 글로벌 시스템 파트너를 통해 제공 예정이다.

2024.11.19 10:54권봉석

SK하이닉스, TSMC 포럼서 HBM3E·엔비디아 H200 나란히 전시...동맹 강조

SK하이닉스가 25일(미국시간) 미국 캘리포니아주 산타클라라에서 개최된 TSMC OIP 에코시스템 포럼 2024(이하 OIP 포럼)에서 HBM3E와 엔비디아 H200 칩셋 보드를 함께 전시해 TSMC와 전략적 파트너십을 강조했다. 아울러 10나노급 6세대(1c) 공정 기반의 DDR5 RDIMM(이하 DDR5 RDIMM(1cnm))을 세계 최초로 공개해 주목을 받았다. OIP는 TSMC가 반도체 생태계 기업과 기술을 개발하고 협업하기 위해 운영 중인 개방형 혁신 플랫폼이다. 반도체 설계, 생산 등 다양한 기업이 이 플랫폼에 참여하고 있다. TSMC는 매년 하반기 OIP 구성원과 주요 고객사를 초청해 미국, 일본, 대만 등 세계 각국에서 OPI 행사를 개최한다. SK하이닉스는 올해 처음으로 이 행사에 참여했다. 'MEMORY, THE POWER OF AI'를 주제로 ▲글로벌 No.1 HBM ▲AI·데이터센터 솔루션 등 두 개 섹션을 꾸리고 HBM3E, DDR5 RDIMM(1cnm), DDR5 MCRDIMM 등 다양한 AI 메모리를 선보였다. 특히 글로벌 No.1 HBM 섹션에서는 'HBM3E'와 엔비디아 'H200'을 공동 전시하며 '고객사·파운드리·메모리' 기업의 기술 협력을 부각했다. 'HBM3E 12단'은 36GB(기가바이트) 용량과 초당 1.2TB(테라바이트) 속도를 자랑하는 AI 메모리다. 성능 검층을 마친 HBM3E 12단은 H200의 성능을 크게 향상시킬 것으로 기대된다. AI/데이터센터 솔루션 섹션에서는 'DDR5 RDIMM(1cnm)' 실물을 처음으로 공개해 많은 관심을 모았다. DDR5 RDIMM(1cnm)은 차세대 미세화 공정이 적용된 D램으로, 초당 8Gb(기가비트) 동작 속도를 낸다. 이전 세대 대비 11% 빨라진 속도와 9% 이상 개선된 전력 효율을 자랑하며, 데이터센터 적용 시 전력 비용을 최대 30%까지 절감할 수 있을 것으로 기대를 모은다. 이외에도 회사는 128GB 용량 및 초당 8.8Gb 속도의 'DDR5 MCRDIMM*'과 256GB 용량 및 초당 6.4Gb 속도의 'DDR5 3DS RDIMM' 등 고성능 서버용 모듈을 전시했다. 또, LPDDR5X 여러 개를 모듈화한 'LPCAMM2', 세계 최고속 모바일 D램 'LPDDR5T' 등 온디바이스 AI 분야에서 활약할 제품과 함께 차세대 그래픽 D램 'GDDR7'까지 선보였다. MCRDIMM은 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품이다. 이병도 SK하이닉스 TL(HBM PKG TE)은 'OIP 파트너 테크니컬 토크' 세션에서 "TSMC 베이스 다이(Base Die)를 활용해 HBM4의 성능과 효율을 높일 것"이라며 "어드밴스드 MR-MUF 또는 하이브리드 본딩 기반의 HBM4 16단 제품을 개발해 시장의 고집적(High Density) 요구를 충족할 계획"이라고 설명했다. 한편, SK하이닉스는 이번 행사를 'AI 시장에서의 기술 우위 및 파운드리와의 견고한 파트너십을 다시 한번 확인한 자리'라고 평가했다. 회사는 앞으로도 OIP 구성원과 꾸준히 협업하고 TSMC와의 협력을 지속해 전략적 관계를 강화해 나갈 방침이다.

2024.09.26 15:57이나리

엔비디아 "블랙웰 GPU 수율 개선 위해 마스크 변경"

엔비디아가 28일(현지시간) 2분기(5-7월, 회계연도 기준 2025년 2분기) 실적발표를 통해 올 연말 출시할 AI 가속용 GPU '블랙웰'(Blackwell) 생산 절차 중 일부를 개선했다고 밝혔다. 블랙웰은 엔비디아가 'GTC 2024'에서 공개한 차세대 AI 가속용 GPU로 오는 4분기부터 공급 예정이다. 대만 TSMC의 4나노급 공정(N4P)으로 만든 반도체 다이(Die) 두 개를 연결해 만든 칩이며 2천80억 개의 트랜지스터를 집적했다. 이달 초 미국 디인포메이션과 대만 공상시보는 소식통을 인용해 "블랙웰 출시 시기가 생산 과정 중 발견된 문제로 내년 1분기로 지연됐다"고 보도했다. 그러나 엔비디아는 "블랙웰 시제품이 여전히 공급되고 있으며 생산에 문제가 없다"는 입장을 고수했다. 이날 콜렛 크레스 엔비디아 CFO(최고재무책임자)는 "블랙웰 GPU 생산 수율 개선을 위해 마스크(Mask)를 변경했다"고 밝혔다. 마스크는 반도체 생산 공정에서 실리콘에 회로 패턴을 새기기 위해 쓰이는 유리판이며 한 번 만들어지면 수정이 불가능하다. 엔비디아가 '이미 설계를 마친(테이프아웃) 블랙웰 GPU에서 모종의 문제점을 발견해 이를 개선해야 했다'고 우회적으로 시인한 것이다. 엔비디아는 이날 블랙웰 GPU로 수행한 ML퍼프(MLPerf) 테스트 결과도 제출했다고 밝혔다. ML퍼프는 전세계 AI 관련 반도체·소프트웨어 기업과 학계 등이 참여하는 컨소시엄 'ML커먼스'(MLCommons)가 주관하는 머신러닝 성능 측정 지표다. 엔비디아 뿐만 아니라 인텔 등 주요 제조사가 CPU와 GPU 성능 측정 결과를 제출한다. 엔비디아는 "블랙웰 GPU는 ML퍼프의 '추론 v4.1'(Inference v4.1) 테스트에 포함된 메타 라마2 700억개 매개변수 벤치마크에서 H100 대비 4배 이상의 성능을 냈다"고 밝혔다. 엔비디아는 지난 해 11월 공개한 호퍼 기반 AI 가속기인 H200이 예정대로 출시돼 미국 클라우드 컴퓨팅 스타트업 코어위브(CoreWeave)에 공급됐다고 밝혔다. H200은 H100 GPU를 업그레이드한 제품이며 SK하이닉스가 공급한 HBM(고대역폭메모리)인 HBM3e 141GB를 탑재했다. H100 대비 메모리 용량은 1.8배, 대역폭은 1.4배 늘어났다. 엔비디아가 ML퍼프에 제출한 벤치마크 자료에 따르면, H200 GPU 8개로 구성한 클러스터는 모든 워크로드에서 H100 대비 최대 1.5배 이상 높은 성능을 낸다.

2024.08.29 08:46권봉석

인텔 "가우디3, 납기·비용·성능 모두 뛰어난 엔비디아 대체재"

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 AI 가속기 '가우디3'의 가격 대비 성능을 강조했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 전세계 10개 이상의 글로벌 공급업체가 올 3분기부터 가우디3 기반 솔루션을 공급 계획중이다. ■ "네이버도 가우디 선택했다...TCO·TTM에서 엔비디아 대비 우위" 이날 팻 겔싱어 인텔 CEO는 "현재 클라우드 이용 현황을 보면 전체 워크로드 중 60%가 클라우드에서 실행되며 생성된 데이터 중 80%가 여전히 활용되지 않는 상황"이라고 설명했다. 이어 "LLM(거대언어모델)에 기업이나 기관의 데이터를 더한 검색증강생성(RAG)은 잠자는 데이터를 활용할 수 있는 기회를 줄 것이다. 6월부터 내년 1분기에 걸쳐 출시될 제온6 프로세서와 가우디 가속기는 이를 바꿀 수 있다"고 설명했다. 현재 AI용 GPU 시장은 엔비디아가 독식하고 있다. 팻 겔싱어 CEO는 "기업들은 대안과 개방형 구조를 원한다. 또 제품/서비스 출시 시간(TTM)을 단축하고 총소유비용을 낮추길 희망하고 있다"고 지적했다. 이어 "한국 네이버클라우드가 가우디를 쓰고 있다. 또 오픈소스 리눅스 재단과 기업용 AI 플랫폼 구축에 협업하고 있으며 제온6와 가우디가 기업 AI 워크로드에 도움을 줄 것"이라고 강조했다. ■ "가우디3, 덜 쓰고 더 얻을 수 있는 '가성비' 가속기" 팻 겔싱어 CEO는 올 3분기부터 공급될 차세대 가속기 가우디3에 대해 "같은 규모 클러스터 구성시 엔비디아 H100에서 추론 성능은 2배이며 H200 GPU 대비 경쟁력을 갖고 있다"고 설명했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공할 예정이다. 팻 겔싱어 CEO는 "가우디3는 '덜 쓰고 더 얻을 수' 있는 AI 가속기"라며 가우디3의 개방성도 강조했다. 그는 "가우디3는 업계 표준 인터페이스인 이더넷으로 작동하며 파이토치 등 오픈소스 AI 프레임워크에 최적화됐고 수십만 개의 AI 모델을 지원한다"고 말했다. ■ 가우디3 솔루션 공급 업체 10개 이상으로 확대 가우디3는 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 인텔은 이날 가우디3 기반 AI 서버 공급업체로 델테크놀로지스, HPe, 레노버, 슈퍼마이크로에 더해 폭스콘, 기가바이트, 인벤텍, 콴타, 위스트론 등 총 10개 이상 글로벌 업체가 참여하고 있다고 밝혔다.

2024.06.04 19:01권봉석

두산, 엔비디아 차세대 AI반도체용 'CCL' 공급업체 단독 진입

두산이 최근 엔비디아 차세대 AI 반도체용 핵심 소재의 단일 공급업체로 진입한 것으로 파악됐다. 기존 공급망을 주도하던 대만 경쟁사를 밀어내고 이뤄낸 성과다. 14일 업계에 따르면 두산전자는 엔비디아의 최신형 AI 반도체인 'B100'용 CCL(동박적층판) 공급업체로 단독 진입했다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재 중 하나다. 수지, 유리섬유, 충진재, 기타 화학물질로 구성된 절연층에 동박을 적층해 만든다. 두산은 계열사인 두산전자를 통해 메모리, 전자기기, 통신 등 다양한 용도의 CCL을 생산하고 있다. 기술적 난이도가 높은 IC(직접회로) 패키징용 CCL도 개발해 왔다. 앞서 두산은 지난해 중반 엔비디아의 AI반도체 기판용 CCL 공급업체로 첫 진입한 바 있다. 해당 CCL은 엔비디아가 지난해 하반기 공개한 고성능 GPU(그래픽처리장치)인 H시리즈(H100, H200 등)용이다. 당시 엔비디아의 CCL 공급망을 주도하고 있던 대만 엘리트머티리얼즈(EMC)의 틈을 파고 든 성과다. 나아가 두산은 최근 엔비디아의 'B100'용 CCL 공급업체로도 진입했다. B100은 엔비디아가 올해 4분기 출시할 예정인 차세대 제품으로, 전작 H200 대비 성능을 2배가량 끌어 올린 것이 특징이다. 특히 업계는 두산이 B100용 CCL 공급업체로 단독 진입했다는 점에 주목한다. EMC는 현재까지 공급이 확정되지 않은 것으로 알려졌다. 엔비디아가 공급망 형성에서 품질을 최우선순위로 두고 있는 만큼, 두산의 CCL 기술력이 인정을 받았다는 평가가 나온다. 매출 면에서도 유의미한 성과가 나올 것으로 전망된다. 두산이 지난해 엔비디아 공급망에 진입하기는 했으나, 실제 공급 물량이 적어 매출은 수십억 원 규모에 그친 것으로 전해진다. 이번 단독 공급 체제를 유지할 경우, 매출은 크게 확대될 가능성이 높다. 두산은 이와 관련해 "고객사와 관련된 사안은 확인해줄 수 없다"고 밝혔다.

2024.03.14 11:37장경윤

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

"책 대신 '아이패드'로 수업을"…디지털이 바꾼 교실 풍경은

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

[ZD브리핑] 아시아 IT 박람회 컴퓨텍스 개최...21대 대선 후보 첫 토론회

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현