• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아 GPU'통합검색 결과 입니다. (162건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아, RTX 프로 5000 72GB 블랙웰 GPU 출시

엔비디아가 19일 데스크톱 PC용 RTX 프로 5000 72GB 블랙웰 GPU를 정식 출시했다. RTX 프로 5000 72GB 블랙웰은 기존 출시 제품(48GB) 대비 용량을 50% 늘린 72GB로 늘려 AI 개발자, 데이터 과학자, 크리에이티브 전문가의 대용량 메모리 기반 워크플로우 수행을 돕는다. 연산 성능은 최대 2,142 TOPS(1초당 1조 번 연산)이며 GDDR7 72GB 메모리에 더 큰 규모의 모델을 올려 훈련, 튜닝할 수 있다. 클라우드 대비 낮은 지연시간으로 외부 유출이 힘든 사내 자료나 민감한 데이터를 처리할 수 있다. 아놀드, 카오스 V-레이, 블렌더, D5 렌더, 레드시프트 등 공학/산업용/크리에이티브 응용프로그램에서 렌더링 시간을 최대 4.7배 단축한다. 엔비디아 RTX PRO 5000 72GB 블랙웰 GPU는 현재 잉그램 마이크로, 리드텍, 유니스플렌더, 엑스퓨전 등 파트너사를 통해 출시됐다. 글로벌 시스템 빌더를 통한 더 넓은 공급은 내년 초 시작될 예정이다.

2025.12.19 10:51권봉석

"엔비디아 종속 벗어나자"…구글-메타, TPU 활용 범위 확장

구글이 인공지능(AI) 인프라 시장을 장악한 엔비디아에 대응하기 위해 메타와 협력한다. 18일 로이터통신에 따르면 구글클라우드는 메타 손잡고 AI 개발 도구 '파이토치'를 텐서처리장치(TPU)에서 구동할 수 있는 기술 개발에 착수한 것으로 전해졌다. 그동안 엔비디아 인프라에 묶인 생태계를 개방형으로 전환해 구글클라우드 독자 칩인 TPU 활용도를 끌어올리기 위한 전략이다. 파이토치는 AI 모델 구축에 필수적인 프로그래밍 도구다. 전 세계 개발자들 사이에서 사실상 표준으로 자리 잡았으나 그간 엔비디아 인프라에서만 가장 높은 성능을 발휘해 왔다. 이로 인해 개발자들이 구글클라우드의 TPU를 사용하려면 새로운 도구 습득에 따른 비용과 시간을 감수해야 했고 이는 구글클라우드 칩 생태계 확장의 고질적인 걸림돌로 작용했다. 구글클라우드는 이런 기술적 장벽을 허물기 위해 내부 프로젝트인 '토치TPU'를 가동하고 파이토치와 인프라 연동성을 올리는 데 집중하고 있다. 프로젝트가 성과를 거두면 개발자들은 기존 SW 환경을 유지하면서 HW만 엔비디아에서 구글클라우드의 TPU로 손쉽게 교체할 수 있는 유연성을 확보하게 된다. 특히 이번 프로젝트에는 파이토치의 종가인 메타가 직접 참여해 구글클라우드와 공조 체계를 이룬 것으로 알려졌다. 양측은 최근 수십억 달러 규모의 TPU 공급 방안을 논의 중이며 메타는 이를 통해 초지능 AI 개발에 필요한 막대한 인프라 구축 비용을 절감할 수 있을 것으로 기대된다. 구글클라우드 대변인은 "개발자가 선택한 HW에 관계없이 필요한 유연성과 확장성을 제공하는 데 주력하고 있다"고 밝혔다.

2025.12.18 18:14김미정

오픈AI, 아마존 칩 도입 저울질…"구글 추격에 인프라 다변화"

오픈AI가 아마존의 인공지능(AI) 칩 '트레이니움' 도입을 검토하고 있는 것으로 확인됐다. 17일 블룸버그통신에 따르면 오픈AI는 아마존으로부터 최소 100억 달러(약 14조원) 규모 투자를 유치하고, 그 조건으로 아마존의 자체 AI 반도체인 트레이니움을 도입하는 초기 논의를 진행 중이다. 이번 거래가 성사될 경우 오픈AI의 기업가치는 5천억 달러(약 740조3천억원)를 웃돌 것으로 전망된다. 이는 최근 오픈AI가 직원 지분 매각을 통해 시장에서 평가받은 몸값과 유사한 수준이다. 오픈AI가 아마존 칩에 눈을 돌린 배경에는 경쟁사 구글의 성장세가 자리 잡고 있다. 최근 구글클라우드가 텐서처리장치(TPU)로 개발한 '제미나이3'가 오픈AI의 'GPT-5.1' 성능을 능가한다는 평가를 받아서다. 이에 위기감을 느낀 오픈AI 경영진이 내부적으로 '코드 레드'를 발령한 것으로 알려졌다. 업계에선 엔비디아 그래픽처리장치(GPU)에 의존해온 오픈AI는 인프라 다변화를 생존 전략으로 선택했다는 분위기다. 아마존은 트레이니움이 기존 칩 대비 학습과 추론 비용이 저렴하고 연산 효율이 높다는 점을 강조해 왔다. 이달 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '트레이니움3'를 공개했다. 트레이니움3는 전작 대비 전력 소비량을 40%가량 낮췄다. 엔비디아 GPU보다 AI 모델 훈련·운영 비용이 최대 절반 수준까지 줄어들 수 있다. 아마존웹서비스(AWS) 입장에서도 이번 협력은 절실한 상황이다. 임대형 컴퓨팅 파워 분야에서는 세계 최대 사업자지만, 정작 알짜배기인 AI 모델 개발 시장에서는 마이크로소프트와 구글에 밀리고 있어 차별화된 계기가 필요한 상황이다. 두 기업의 협상은 지난해 10월 오픈AI가 기업 구조 개편을 마친 직후 시작된 것으로 전해졌다. 당시 개편 과정에서 오픈AI의 최대 투자자인 마이크로소프트는 약 27%의 지분을 확보한 바 있다. 오픈AI와 아마존은 지난달 AWS가 7년간 380억 달러(약 56조2천600억원) 규모의 컴퓨팅 파워를 공급하는 계약을 맺은 바 있다. 당시 계약은 수십만 개의 엔비디아 칩 사용을 전제로 했다. 블룸버그통신은 "오픈AI가 GPU 공급 부족과 비용 문제를 해결하기 위해 아마존의 손을 잡으려 한다"며 "트레이니움 도입은 단순한 비용 절감을 넘어, 구글의 TPU 진영에 맞서기 위한 인프라 독립 선언과 같다"고 분석했다.

2025.12.17 13:57김미정

엔비디아 '네모트론 3' 공개..."개인 PC로 나만의 AI 비서 구축"

엔비디아가 자신만의 인공지능(AI) 비서를 구축할 수 있도록 오픈 모델과 최적화 도구를 공개했다. 엔비디아에 '네모트론 3' 오픈 모델 제품군을 공개하고 '언슬로스' 프레임워크를 통해 거대언어모델(LLM) 미세 조정을 가속화한다고 16일 밝혔다. 이를 통해 사용자는 엔비디아 RTX AI PC와 DGX 스파크 환경에서 학습, 업무, 창작 등 목적에 맞는 맞춤형 AI 어시스턴트를 구축할 수 있다. 이번 발표 핵심은 '미세 조정'의 대중화다. 소형언어모델(SLM)은 전문적인 작업에서 정확도가 떨어지는 한계가 있었으나 엔비디아는 이를 해결하기 위해 모델을 특정 작업에 맞춰 훈련시키는 미세 조정 기술에 주목했다. 함께 도입된 언슬로스는 세계적으로 널리 쓰이는 오픈소스 프레임워크로 엔비디아 그래픽처리장치(GPU) 메모리 사용을 최소화해 훈련 효율을 높인다. 이 도구는 허깅페이스 트랜스포머 라이브러리 성능을 최대 2.5배까지 향상시켜 연구자와 개발자가 복잡한 연산을 신속하게 처리하도록 돕는다. 엔비디아는 미세 조정의 기반이 될 '네모트론 3' 제품군도 선보였다. 이 중 '네모트론 3 나노'는 하이브리드 전문가 혼합(MoE) 아키텍처를 기반으로 설계돼 현재 출시된 라인업 중 가장 높은 컴퓨팅 효율을 기록했다. 이 모델은 추론에 필요한 토큰을 최대 60% 줄여 비용을 절감하면서도 100만 토큰의 컨텍스트 윈도우를 지원한다. 긴 시간 동안 진행되는 다단계 작업에서도 AI가 맥락을 잃지 않고 훨씬 많은 정보를 유지할 수 있다는 설명이다. 개발자는 목표에 따라 파라미터 효율적 미세 조정(LoRA), 완전 미세 조정, 강화 학습 등 다양한 방식을 선택할 수 있다. 특히 LoRA 방식은 모델의 일부만 업데이트해 저비용으로 도메인 지식을 추가하거나 코딩 정확도를 높이는 데 유용하다. 엔비디아는 이번 나노 모델 공개에 이어 내년 상반기에 멀티 에이전트용 '네모트론 3 슈퍼'와 복잡한 애플리케이션용 '네모트론 3 울트라'를 순차적으로 출시할 예정이다. 엔비디아는 "네모트론 3 제품군은 업계 선도적인 정확도와 효율성을 갖춘 오픈 모델로 에이전틱 AI 애플리케이션 구축에 이상적"이라며 "개방형 훈련 데이터세트와 최첨단 강화 학습 라이브러리를 통해 AI 생태계를 지속적으로 확장할 것"이라고 강조했다.

2025.12.16 10:41김미정

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호

'SPHBM4' 표준 제정 임박…삼성·SK AI 메모리 새 국면 예고

반도체 업계가 새로운 HBM(고대역폭메모리) 개발을 구상하고 있다. 해당 제품은 기존 HBM과 동일한 성능을 구현하면서도 설계 난이도 및 제조비용을 대폭 낮춘 것이 특징이다. 실제 상용화 추진 시 삼성전자·SK하이닉스 등 메모리 기업들은 물론, TSMC·엔비디아 등 관련 생태계에 있는 기업 전반이 상당한 영향을 받을 것으로 예상된다. 15일 업계에 따르면 JEDEC(국제반도체표준협의회)은 새로운 HBM 표준인 'SPHBM4(Standard Package HBM)' 개발의 마무리 단계에 접어들었다. I/O 수 줄여도 대역폭 그대로…SPHBM4 개념 등장 HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)를 뚫어 전기적으로 연결한 고성능 메모리다. 이 경우 대역폭을 기존 D램 대비 크게 향상시킬 수 있게 된다. 대역폭은 초당 얼마나 많은 데이터를 주고받을 수 있는 지를 나타내는 척도다. 데이터 전송 통로인 I/O(입출력단자) 핀 수를 늘리거나, I/O 핀 당 전송속도를 높이는 방법으로 향상시킬 수 있다. 일례로, 6세대 HBM인 HBM4은 데이터 전송 통로인 I/O 핀 수를 기존(1천24개) 대비 2배로(2천48개) 늘리면서 성능을 높였다. SPHBM4는 HBM4와 동일한 D램을 채용했다. 그러나 I/O 핀 수를 4:1 비율로 직렬화(Serialization)해, I/O 핀 수를 4분의 1로 줄이면서도 HBM4와 동일한 대역폭을 지원한다는 특징을 가진다. 직렬화란 여러 개의 I/O 핀에서 동시에 처리되던 데이터를 단일 I/O 핀에서 순차적으로 처리하는 방식을 뜻한다. 4:1 비율의 경우, 기존 4개 I/O 핀에서 처리되던 데이터 양을 1개 I/O 핀이 4번의 처리로 담당하게 된다. 결과적으로 SPHBM4가 잘 구동되기 위해서는 I/O 핀 당 전송속도를 4배 이상 안정적으로 구현하는 직렬화 인터커넥트 기술이 핵심이 될 것으로 관측된다. 직렬화 인터커넥트 기술로 HBM용 베이스(로직) 다이를 설계하는 미국 반도체 스타트업 엘리얀(eliyan)도 "몇 개월 내에 SPHBM4 표준이 발표되기를 기대하고 있다"며 SPHBM4에 대한 환영의 뜻을 밝혔다. 베이스 다이는 메모리의 컨트롤러 기능을 담당하는 다이다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해 데이터를 주고받을 수 있도록 만들어준다. SPHBM4가 도입되면 베이스 다이 역시 새로운 구조로 설계돼야 할 것으로 관측된다. SPHBM4 도입 시 제조 난이도·비용 감소 가능 I/O 핀 수가 512개로 줄어들게 되면, 전체 HBM 패키지에서 가장 큰 변화를 맞이하게 되는 부분은 인터포저다. 인터포저는 칩과 PCB(인쇄회로기판) 사이에 삽입하는 얇은 기판이다. AI 가속기 내부의 HBM과 로직 칩은 수많은 I/O 핀이 촘촘히 박혀 있어, PCB가 직접 대응하기가 힘들다. 이 때 미세한 배선층(RDL)을 가진 인터포저를 삽입하면 칩과 PCB의 연결을 수월하게 만들어 준다. 이렇게 HBM과 GPU를 인터포저로 연결하는 기술을 2.5D 패키징이라 부른다. 대만 주요 파운드리인 TSMC가 이 분야에서 독보적인 기술력을 확보하고 있으며, 자체적으로 'CoWoS(칩-온-웨이퍼-온-서브스트레이트)'라는 브랜드명을 붙이고 있다. 그간 TSMC는 실리콘 인터포저, 혹은 더 작은 크기의 실리콘 브릿지로 CoWoS 공정을 제조해 왔다. 실리콘 소재가 비싼 편에 속하지만, 배선 밀도를 높일 수 있어 고집적 회로 대응에 유리하기 때문이다. 반면 SPHBM4는 I/O 핀 수가 적어 기존만큼 고밀도 기판이 필요하지 않아, 유기(Organic) 인터포저만으로도 충분히 대응이 가능하다. 유기 인터포저는 실리콘 대비 배선 밀도가 낮지만, 가격이 저렴하기 때문에 패키지 제조 비용을 낮출 수 있다. 또한 유기 인터포저는 보다 유연한 설계가 가능해, HBM과 시스템반도체 간 채널 길이를 더 길게 만들 수 있다. 이를 통해 SPHBM을 더 많이 배치해, 결과적으로 총 메모리 용량을 늘릴 수 있다는 게 JEDEC의 설명이다. 이는 TSMC의 CoWoS 기술의 일종인 'CoWoS-R'의 HBM 도입을 가속화할 것으로 기대된다. CoWoS-R은 실리콘 인터포저 대신 유기 인터포저를 사용하는 개념이다. 실제 상용화 가능성은 아직 미지수 다만 SPHBM4가 실제 상용화될 지는 아직 미지수다. JEDEC은 "SPHBM4 표준은 개발 중이거나 개발 후 변경될 수 있으며, JEDEC 이사회에서 승인이 거부될 수도 있다"고 설명했다. 삼성전자, SK하이닉스 등 국내 반도체 업계에서도 SPHBM4에 대해 공식적으로 언급한 사례는 아직 없는 것으로 파악된다. 메모리 업계 한 고위 임원은 "SPHBM4 표준 제정은 HBM 기반의 AI 가속기 제조 비용을 줄이기 위한 여러 시도 중 하나로 보인다"며 "다만 현재 빅테크 기업들은 HBM의 속도 및 밀도를 동시에 강화하는 방향을 강하게 밀어부치고 있다"고 말했다.

2025.12.15 11:22장경윤

엔비디아 "데이터센터용 GPU 위치 등 추적 솔루션 개발 중"

엔비디아가 10일(현지시간) 데이터센터용 GPU의 상태와 작동 위치를 파악할 수 있는 소프트웨어 기반 모니터링 솔루션을 개발하고 있다고 밝혔다. 엔비디아는 공식 블로그에 올린 글에서 “AI 인프라의 규모와 복잡성이 커질수록 데이터센터 운영자는 성능, 온도, 전력 사용량 등 요소에 대한 지속적인 가시성이 필요하다”고 개발 배경을 설명했다. 엔비디아가 개발중인 솔루션은 데이터센터에 설치된 엔비디아 GPU를 모니터링할 수 있는 대시보드를 제공한다. 엔비디아 GPU를 도입한 고객사가 필요할 경우 자발적으로 설치하는 옵트인(opt-in) 방식이다. 엔비디아에 따르면 데이터센터 운영사는 전력 사용 급증을 추적해 에너지 예산을 준수하면서 와트당 성능을 극대화하고, GPU 활용률과 메모리 대역폭, 인터커넥트 상태를 플릿 전체에서 모니터링할 수 있다. 엔비디아는 제기될 수 있는 보안 우려에 대해 "이 서비스는 각 GPU 시스템이 외부 클라우드 서비스와 GPU 메트릭을 공유하는 방식으로 실시간 모니터링만 제공한다. 엔비디아 GPU에는 하드웨어 추적 기술이나 킬 스위치, 백도어가 없다"고 밝혔다. 엔비디아의 새 솔루션은 최근 강화되고 있는 미국의 AI 칩 수출 규제 논의와 맞물려 있다. 미국 정부는 중국을 비롯한 일부 국가에 대한 고성능 AI GPU 수출을 금지하고 있다. 의회 일각에서는 엔비디아 제품에 보다 강력한 추적·검증 기능을 탑재해야 한다는 요구가 제기되고 있다. 공화당 소속 톰 코튼 상원의원을 포함해 양당 의원들이 지지하는 '칩 보안법'(Chip Security Act)'은 첨단 AI 칩에 보안 및 위치 검증 기능을 의무화하는 내용을 담고 있다. 반면 중국 정부는 엔비디아 제품에 잠재적 모니터링 백도어와 보안 취약점이 존재한다는 점을 통보했으며, 국가안보 검토 이후 일부 고성능 칩, 특히 H200 제품의 도입을 제한하고 있다.

2025.12.14 09:29권봉석

엔비디아는 왜 액침냉각을 인증하지 않을까

데이터센터 전력 효율을 높이기 위한 냉각 기술 경쟁이 본격화되고 있지만, 업계에서는 한 가지 의문이 여전히 남아 있다. 엔비디아는 왜 액침냉각(Immersion Cooling)에 공식 인증을 부여하지 않는가이다. 현재 엔비디아는 고성능 GPU 서버에 적용할 수 있는 냉각 방식으로 D2C(Direct to Chip) 액체냉각만 공식 지원하고 있다. 반면, GPU 전체를 특수 절연액에 담가 열을 제거하는 액침냉각은 아직 인증 리스트에 포함되지 않았다. 이는 액침냉각 기술이 상용화 단계로 넘어가는 데 있어 가장 큰 문턱으로 꼽힌다. 업계 “엔비디아의 수익 구조가 걸림돌” 12일 업계에 따르면 엔비디아가 액침냉각에 공식 인증을 부여하지 않는 직접적인 이유로 수익 구조와 생태계 통제 문제가 거론된다. 단순한 기술 완성도의 문제가 아니라, 향후 데이터센터 시장에서의 주도권과 직결된 사안이라는 분석이다. 냉각 업계 한 관계자는 “엔비디아가 현재 인증하고 있는 D2C 방식 액체냉각은 랙 단위에서 적용되는 구조”라며 “GPU와 서버 판매 구조에는 큰 변화가 없다”고 설명했다. 반면 액침냉각은 서버 전체를 액체에 담그는 방식인 만큼, 냉각 솔루션이 서버 설계와 패키징의 중심으로 올라설 수밖에 없다는 점에서 차이가 크다. “액침은 서버까지 팔 수 있는 구조” 다른 전문가는 액침냉각과 기존 액체냉각의 가장 큰 차이를 '판매 단위'에서 찾았다. D2C 방식 액체냉각은 랙 단위 또는 인프라 확장 수준에서 적용되지만, 액침냉각은 서버 자체가 하나의 완성 제품이 된다는 것이다. 다른 냉각 업계 관계자는 “액침냉각이 본격화되면 냉각 업체는 단순 단품 공급사가 아니라 서버 랙 시스템 및 쿨링시스템을 결합한 통합 솔루션 공급자가 된다”며 “이는 GPU 중심으로 구축된 엔비디아의 기존 사업 구조와는 결이 다른 방향”이라고 설명했다. 즉, 액침냉각이 확산될 경우 냉각 기술을 보유한 업체가 서버 설계와 구성의 주도권을 쥘 수 있고, 이는 엔비디아가 주도해온 GPU-서버 생태계에 변화를 가져올 수 있다는 의미다. 엔비디아가 액침냉각 인증에 신중할 수 밖에 없는 이유다. 언젠가는 넘어야 할 선택지 다만 업계에서는 엔비디아가 액침냉각을 영구적으로 배제하기는 어려울 것으로 보고 있다. AI 학습과 추론 수요가 폭발적으로 증가하면서 GPU 집적도와 전력 밀도 역시 한계치에 다다르고 있기 때문이다. 냉각 업계 관계자는 “전력 밀도가 지금보다 더 올라가면 D2C 방식만으로는 대응이 어려운 시점이 올 수밖에 없다”며 “그때가 되면 엔비디아 역시 액침냉각을 하나의 선택지로 검토할 가능성이 크다”고 내다봤다.

2025.12.12 16:31전화평

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤

중국 AI 강자 딥시크, 엔비디아 블랙웰 밀반입 의혹

중국 인공지능(AI)업체 딥시크가 미국의 대중국 수출 제한을 피하기 위해 제3국을 통해 엔비디아 그래픽처리장치(GPU)를 반입했다는 의혹이 제기됐다. 11일 미국 디인포메이션은 복수 관계자를 인용해 딥시크가 엔비디아 '블랙웰' 아키텍처 기반 GPU 수천 개를 밀반입해 새 AI 모델을 개발 중이라고 단독 보도했다. 그동안 중국 내 여러 AI 기업이 엔비디아 칩 사용이 가능한 해외 지역에서 차세대 모델 실험을 이어온 것으로 알려졌다. 딥시크 역시 동남아 지역에 위치한 중국 외 자본의 데이터센터 기반으로 테스트 환경을 구축해 왔다. 보통 GPU나 서버가 제3국 데이터센터에 설치되면 엔비디아·델·슈퍼마이크로 등 장비 공급사 엔지니어들이 현장을 방문해 수출 통제 규정을 지켰는지 최종 점검한다. 내부 소식통들은 딥시크가 점검을 마친 뒤 서버를 부품 단위로 해체해 중국 본토로 반입해 사용했다고 주장했다. 앞서 도널드 트럼프 미국 대통령은 중국에 대해 구세대 '호퍼' 기반 H200 칩은 반출을 허용했지만, 최신 블랙웰과 차세대 루빈 아키텍처는 허용 대상에 포함되지 않는다고 밝힌 바 있다. 딥시크는 해당 논란에 대해 공식 입장을 내놓지 않고 있다. 엔비디아는 "장비를 설치한 뒤 다시 해체해 몰래 반출한다는 이른바 '유령 데이터센터' 사례는 접수한 바 없다"며 "제보가 들어오면 모두 확인한다"고 밝혔다. 이날 로이터는 "최근 엔비디아가 칩 위치를 추적할 수 있는 소프트웨어(SW) 기능을 새로 개발했다"며 "우회 반입 자체가 크게 제한될 수 있다"고 분석했다.

2025.12.11 10:06김미정

"엔비디아 GPU 있어도 전기세 걱정"…AI 인재 육성 막힌 대학 현실

"국내 대학이 엔비디아 그래픽처리장치(GPU)를 확보하기 시작했습니다. 그러나 사용량이 늘어날수록 매월 수십억원에 달하는 전기료 압박을 겪고 있습니다. 이를 해결할 수 있는 보호 장치가 절실합니다." 연세대 한순구 경제학과 교수는 9일 일 국회 본청에서 열린 과학기술정보방송통신위원회 공청회에서 AI 인재 양성 걸림돌에 대해 이같은 사례를 공유했다. 인재 배출을 위한 인프라 보급 정책이 새로운 문제를 낳고 있다는 설명이다. 한 교수는 GPU 전기값이 부담스럽다는 교내 공대 교수 목소리를 공유했다. 그는 "우리 학교는 매달 몇십억 씩 드는 전기값을 감당하기 어려운 상황으로 보인다"며 "정부가 엔비디아 GPU를 학교에 제공해도 전기세 때문에 마음 놓고 쓸 수 없는 것으로 알고 있다"고 말했다. 학교가 GPU 활용을 위한 내부 결재와 예산 압박으로 장비 사용에 부담을 느낀다는 설명이다. 정부가 AI 인재 양성을 위해 대학에 GPU를 제공하지만, 막상 대학은 전기료로 이를 제대로 돌리지 못하는 실정이다. 앞서 정부는 대학을 비롯한 연구소, 스타트업 등이 고성능 GPU를 활용할 수 있도록 'AI 컴퓨팅 자원 임차 지원' 제도를 운용하기 시작했다. 이 제도는 엔비디아 GPU를 정부가 대량 확보한 뒤 공공·산학연 기관에 클라우드 형태로 제공하는 식이다. 또 GPU 서버 단위·카드 단위 등으로 선택해 임차할 수 있다. 이날 국내 AI 인재 해외 유출은 여전하다는 목소리도 나왔다. 국내 AI 대학원에서도 박사급 인재가 배출되기 시작했지만, 유능한 인재는 해외 빅테크나 연구소로 떠난다는 지적이다. 최재식 김재철AI대학원 교수는 "앞으로 해외로 떠난 AI 인재를 국내로 귀환시키는 '순환형 인재 육성 모델'이 절실하다"고 주장했다. 한순구 교수도 "미국과 중국에 인재를 보내서 기술을 습득시킨 뒤 다시 한국으로 오게 만드는 모델도 만드는 게 좋을 것"이라고 강조했다. 더불어민주당 최형두 의원은 "현재 아시아 최고 수준의 이공계·자연계 졸업생을 한국으로 유치하는 제도를 만들고 있다"며 "이를 위해 영주권·국적 취득 절차 간소화와 장기 연구비자 확대 등을 추진하고 있다"고 설명했다. 이어 "이는 국내 대학·연구기관의 교수·연구인력 부족 문제를 완화하는 효과도 있을 것"이라고 기대했다.

2025.12.09 15:49김미정

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

트럼프-젠슨 황 회동...중국향 AI 칩 수출 재개 가닥

미국 대통령 도널드 트럼프가 세계 최대 AI 반도체 업체 엔비디아의 젠슨 황 CEO와 만나 첨단 AI 칩의 중국 수출 통제 문제를 논의했다고 로이터가 3일(현지시간) 보도했다. 트럼프 대통령은 황 CEO를 “똑똑한 사람”이라고 평가하며 “그는 내 입장을 잘 안다”고 말했다. 이번 논의는 미국 정부가 엔비디아 GPU 'H200'을 중국에 판매할지 검토 중인 가운데 이뤄졌다. H200은 엔비디아의 전세대 제품이다. 판매가 허용된다면 중국 시장 접근이 재개된다는 의미로, 반도체 업계와 글로벌 AI 생태계에 적지 않은 파장이 예상된다. 황 CEO는 같은 날 미국 의회를 찾아 “미국 내 주별(州)로 나뉜 규제가 AI 기술 발전을 느리게 한다”며 규제 완화를 촉구했다. 아울러 일부에서 나오는 반출 우려에 대해선, “AI 서버용 GPU는 무게·가격·전력 소비량이 매우 커, 대규모 밀수는 현실적으로 어렵다”고 반박했다. 엔비디아 측은 즉각적인 공식 입장을 내놓지 않았으며, 이번 회동을 계기로 미국 내 수출 통제 정책과 중국을 포함한 글로벌 시장 사이 줄다리기가 한층 격화될 전망이다.

2025.12.04 10:52전화평

[현장] 나연묵 교수 "쏟아지는 GPU 운영 인프라 부족…AI 데이터센터 필수"

"정부가 그래픽처리장치(GPU) 수십만 장을 기업·기관에 도입하고 있지만, 이를 제대로 운영할 수 있는 데이터센터 성능이 여전히 부족합니다. GPU 운영에 필수적인 전력·냉각·네트워크 등 기반 시설이 기존 데이터센터로 감당하기 어렵습니다. 인공지능 데이터센터(AIDC) 구축이 필수입니다." 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 25일 한국컴퓨팅산업협회가 코엑스에서 개최한 '2025 미래 IT 전략-AI데이터센터 컨퍼런스'에서 "정부가 데이터센터 인프라 준비 없이 GPU만 대량 도입하고 있다"며 AIDC 필요성을 재차 강조했다. 그는 기존 데이터센터 개념이 AIDC와 다르다고 설명했다. 기존 데이터센터는 웹서비스나 기업 시스템을 운영하는 데 최적화된 인프라다. 중앙처리장치(CPU) 중심의 일반 서버를 기준으로 설계됐다. 반면 AIDC는 대규모 AI 모델을 학습·추론하는 시설이다. 고성능 연산 장치인 GPU와 AI 칩을 대량으로 활용하는 것을 목표로 뒀다. 나 교수는 GPU 서버 운영의 핵심인 고속 연결망·고출력 전력·고밀도 냉각 세 요소가 기존 데이터센터에 부족하다고 짚었다. 기존 데이터센터는 3~5킬로와트(kW) 전력 공급을 기준으로 설계됐는데, 엔비디아 최신 GPU 서버는 장비 한 대만으로 14.3kW를 요구한다는 점을 대표적 사례로 들었다. 그는 "GPU 한 대가 표준 랙 3개 공간을 차지하는 비효율을 초래할 수 있다"고 지적했다. 네트워크 병목도 기존 데이터센터 주요 문제로 꼽혔다. 나 교수는 국내 데이터센터 네트워크가 랙스케일 서버 구성을 충분히 뒷받침할 수 없다고 평가했다. 그는 "AI 학습은 여러 GPU를 한꺼번에 묶어 하나의 시스템처럼 동작시키는 기술이 반드시 필요하다"며 "이를 위해서는 GPU 간 데이터를 빠르게 주고받는 연결망이 필수"라고 강조했다. 이어 "특히 '인피니밴드'와 '울트라 이더넷' 같은 기술이 GPU 클러스터 성능을 결정한다"고 덧붙였다. 데이터센터 스토리지 요건도 문제로 제기됐다. 그는 "AI 학습에서는 기존 데이터센터 대비 훨씬 더 큰 용량과 더 빠른 처리 속도가 필요하다"며 "지금의 스토리지 인프라로는 대응이 쉽지 않다"고 지적했다. 나 교수는 기존 데이터센터의 냉각 인프라가 한계에 다다랐다고 봤다. 그는 "GPU 서버가 소비한 전력은 그대로 열로 배출되는데, 이 열량이 기존 공랭식 시스템의 처리 한계를 넘고 있다"고 지적했다. 이어 "10kW 이상의 발열은 공랭식으로 감당하기 어려워 액침냉각이나 수냉식 같은 고성능 냉각 기술 도입이 불가피하다"며 "현재 정부와 민간에서는 임시 냉각 설비를 증설해 운영을 이어가고 있지만 이를 근본적 해결책으로 볼 수 없다"고 덧붙였다. 또 그는 "GPU 서버의 비중이 높고, 랙 전력 밀도 15~500kW를 감당하면서 수냉식으로 작동하는 AIDC를 더 늘려야 한다"고 강조했다.

2025.11.25 15:24김미정

美, 엔비디아 AI칩 中에 밀수출한 일당 기소

미국 연방 검찰이 엔디비아의 AI반도체를 중국으로 불법 수출한 혐의로 중국인 2명과 미국인 2명을 기소했다고 블룸버그통신이 21일 보도했다. 공개된 기소장에 따르면, 이들은 플로리다주에 가짜 부동산 사업체를 꾸려 수백 개의 엔비디아 반도체를 말레이시아를 거쳐 중국으로 최종 운송했다. 이 과정에서 미국 상무부에 수출 허가는 신청하지 않았다. 불법 수출된 것으로 알려진 엔비디아 칩은 'A100'이다. 현재 출시되고 있는 '블랙웰' 시리즈에 비하면 구형 제품에 속하나, AI 데이터센터에 충분히 활용될 수 있는 성능을 갖추고 있다. 또한 이들은 다음 세대의 칩인 H100, H200, 슈퍼컴퓨터 10대 등을 밀수하려 한 혐의도 받고 있다. 검찰은 이들 일당이 엔비디아 칩을 중국에 네 차례나 수출하려 한 것으로 보고 있다. 첫 번째와 두 번째 시도는 2024년 10월부터 올해 1월 사이에 일어나, A100 칩 400여개가 중국으로 수출됐다. 3~4번째 시도는 사법 당국의 조치로 무산됐다. 엔비디아 대변인은 이와 관련한 성명에서 "수출 시스템은 엄격하고 포괄적"이라며 "구형 제품의 소규모 판매조차도 2차 시장에서 엄격한 조사와 검토를 받는다"고 밝혔다. 앞서 미국은 지난 2022년부터 국가 안보를 이유로 첨단 AI 반도체가 중국으로 수출되는 것을 제한하는 법안을 시행 중이다. 이에 따라 엔비디아는 기존 대비 성능을 낮춘 제품 개발로 대안책을 마련해 왔으나, 이마저도 추가 규제로 활로가 막힌 상황이다. 그러나 엔비디아 칩을 중국으로 밀반출하려는 사례는 지속 적발되고 있다. 지난 8월에는 중국 국적자 2명이 캘리포니아주 엘몬테에 위치한 회사를 이용해 엔비디아의 AI칩을 불법 수출한 혐의로 기소된 바 있다.

2025.11.23 08:50장경윤

젠슨 황, 'AI 거품론' 부정..."엔비디아는 다르다"

젠슨 황 엔비디아 CEO가 19일(현지시간) 3분기 실적발표 이후 컨퍼런스콜에서 AI 시장 과열 논란을 정면으로 반박했다. 그는 이달 초부터 나오기 시작한 'AI 버블'을 둘러싼 시장 우려에 자사 기술력과 수요의 견고함을 강조했다. 젠슨 황 CEO는 "AI 버블에 대한 이야기가 많지만, 우리의 관점에서 보이는 것은 완전히 다르다. 엔비디아는 어느 가속기 제조사와 다르다. 훈련 전, 훈련 후, 추론 등 AI 모든 단계에서 경쟁력을 확보했다"고 밝혔다. 젠슨 황 CEO는 지난 10월 GTC 워싱턴 행사에서 올 초부터 내년 말까지 GPU 수주 잔고가 5천억 달러(734조 7천500억원)에 달한다고 밝히기도 했다. 이날 콜렛 크레스 엔비디아 CFO는 "이 수치는 현 세대 GPU인 블랙웰과 차세대 GPU인 루빈(Rubin)을 모두 포함한 것이다. 앤트로픽 등 신규 고객사가 추가되며 이 수치는 더 늘어날 것"이라고 설명했다. 엔비디아는 올 3분기 매출 중 중국 시장용으로 설계된 H20 GPU의 매출은 극히 미미했다고 밝힌 바 있다. 콜렛 크레스 CFO는 "3분기에는 지정학적 이슈와 현지 경쟁 심화로 중국 시장에서 대규모 발주는 없었다"고 설명했다. 이어 "4분기 전망에는 중국 시장의 데이터센터 관련 매출을 0(제로)으로 가정하고 있다. 더 경쟁력 있는 제품을 중국에 공급하지 못한 점은 아쉽지만, 미국 정부와 중국 정부 모두와 지속적으로 협력할 것"이라고 밝혔다. 젠슨 황 CEO는 생산·공급망 전략과 관련해 "엔비디아의 공급망은 사실상 전 세계 모든 기술 기업을 포함하고 있다. TSMC와 패키징 파트너들, 메모리 공급업체들, 그리고 모든 시스템 ODM이 우리와 함께 매우 잘 준비해 왔다"고 설명했다. 콜렛 크레스 CFO도 "글로벌 공급망에서 복원력을 강화하는 데 집중하고 있다. 지난 10월 미국(애리조나 주 TSMC 팹)에서 첫 블랙웰 웨이퍼가 생산됐고 향후 수 년간 폭스콘, 위스트론, 앰코와 함께 미국 내 생산을 확대할 것"이라고 밝혔다.

2025.11.20 08:33권봉석

스노우플레이크-엔비디아, ML 개발 가속 환경 구축

스노우플레이크가 엔비디아 손잡고 기업 머신러닝(ML) 개발 속도 높이기에 나섰다. 스노우플레이크는 인공지능(AI) 데이터 클라우드에 엔비디아의 오픈소스 라이브러리 '쿠다 엑스'를 탑재했다고 19일 밝혔다. 양사는 이번 협력으로 통해 모델 개발 전 과정의 효율을 끌어올리는 것을 공동 목표로 삼았다. 스노우플레이크는 쿠다 엑스의 데이터 사이언스 생태계에서 제공되는 '쿠엠엘'과 '쿠디에프'를 ML 엔진에 직접 통합한다. 이를 통해 파이썬 기반 주요 라이브러리 개발 시간을 대폭 줄였다. 데이터 사이언티스트는 인프라 조정 없이 기존 코드 그대로 그래픽처리장치(GPU) 성능을 활용할 수 있다. 엔비디아는 랜덤 포레스트에서 약 5배, 에이치디비스캔(HDBSCAN)에서 최대 200배까지 중앙처리장치(CPU) 대비 속도 향상을 확인했다. 이번 통합으로 기업은 이 성능을 스노우플레이크 환경 안에서 동일하게 사용할 수 있게 됐다. 엔비디아 고객도 쿠다 엑스 생태계 안에서 스노우플레이크 컨테이너 런타임을 활용해 대규모 ML 개발 환경을 신속히 구축할 수 있다. 이 환경은 복잡한 연산 작업을 몇 시간 단위에서 몇 분 단위로 단축하는 데 최적화됐다. 이번 통합은 대규모 테이블 데이터 처리나 대량 클러스터링 분석 같은 고난도 작업뿐 아니라 컴퓨터 유전체학처럼 고차원 시퀀스 분석이 필요한 분야에서도 GPU의 활용도를 극대화한다. 기업은 분석 시간을 줄이고 인사이트 도출에 더 많은 역량을 투입할 수 있다. 스노우플레이크는 이번 협력을 계기로 생성형 AI와 엔터프라이즈급 거대언어모델 개발까지 AI 라이프사이클 전 영역에서 GPU 최적화 도구를 확장할 계획이다. AI 데이터 클라우드 전략을 강화해 고객 기술 생태계를 더욱 넓히려는 전략이다. 크리스티안 클레이너만 스노우플레이크 제품 담당 수석부사장은 "우리는 기업이 쉽고 안전한 환경에서 데이터와 AI를 최대 성능으로 활용하는 것을 목표로 한다"며 "엔비디아와의 통합은 그 목표에 한 단계 가까워진 과정"이라고 밝혔다.

2025.11.19 14:10김미정

엔비디아 손잡은 메가존클라우드, AI 총판으로 IPO 기대감 '↑'

메가존클라우드가 엔비디아와 국내 AI 인프라 총판 계약을 체결했다. 상장(IPO)을 추진 중인 상황에서 AI 인프라 사업 역량을 강화하고 기업 가치와 성장 스토리를 보강할 수 있는 계기를 마련했다는 평가다. 메가존클라우드는 17일 엔비디아와 국내 AI 인프라 총판 계약을 체결했다고 밝혔다. 총판 계약의 범위는 데이터센터·기업·공공 등 기업간 거래(B2B) 영역의 AI 인프라를 중심으로 한다. 개인용 그래픽카드 등 B2C 리테일 시장은 포함되지 않는다. 관련 업계에서는 이번 총판 계약이 메가존클라우드를 AI 인프라 시대의 핵심 사업자로 부상시키는 동시에 IPO를 앞두고 수익 구조와 성장 스토리를 구체화하는 계기가 될 것으로 보고 있다. 엔비디아 손잡은 메가존클라우드, 플랫폼형 AI 총판으로 도약 메가존클라우드는 DGX·HGX GPU 서버와 인피니밴드 기반 고성능 네트워크 장비 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급하며 AI 인프라 공급과 생태계 확산에 본격 나선다. 이를 통해 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요를 겨냥한다는 계획이다. 특히 이번 계약을 단순 하드웨어 유통을 넘어 '플랫폼형 총판' 모델로 가져간다는 전략이다. 고객사의 AI 사업을 빠르게 추진할 수 있도록 AI 인프라 설계·구성 지원, AI 기술 검증(PoC)과 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계 등 전 과정을 패키지로 제공한다. 하드웨어 납품과 더불어 인프라 설계, 운영, 인력 역량 강화까지 하나의 서비스 체계로 묶어 제공하겠다는 구상이다. 이를 통해 메가존클라우드는 엔비디아라는 벤더와 국내외 파트너, 최종 고객을 하나의 플랫폼 위에서 기술적으로 오케스트레이션하는 허브 역할을 자처한다. GPU와 네트워크 장비와 함께 클라우드·보안·운영·애플리케이션을 얹어 수익성을 높이는 서비스·플랫폼 사업의 출발점으로 삼겠다는 것이다. 기업 내부에서도 총판 마진 자체보다 상위 레이어 비즈니스에서 나오는 장기 매출과 이익 기여에 더 큰 무게를 두고 있는 것으로 전해진다. 이미 메가존클라우드는 클라우드 매니지드 서비스(MSP)와 디지털 전환(DX) 사업을 통해 다수의 고객 인프라를 운영해 온 경험을 갖고 있다. 2천여명의 클라우드·AI 기술 전문가를 보유하고 있으며, 국내외 8천여곳의 고객사를 대상으로 클라우드 전환과 운영을 지원하고 있다. 이 밖에도 글로벌·국내 주요 클라우드 서비스 제공업체(CSP)와 전략적 협력 관계를 구축하고 1백50여곳의 ISV 파트너, 자체 개발한 클라우드·AI·보안 솔루션 포트폴리오도 확보한 상태다. 메가존클라우드는 이러한 기반 위에 엔비디아 총판 역량을 더해 GPU 인프라 조달부터 배치, 운영, 비용·성능 최적화, 상위 애플리케이션까지 원스톱으로 제공하는 AI 인프라 플랫폼 사업을 강화하겠다는 입장이다. 메가존클라우드, AI 인프라 총판으로 IPO 기대감 ↑ 관련 업계에서는 이번 계약이 상장을 준비 중인 메가존클라우드의 기업 가치 제고에도 우호적으로 작용할 것으로 분석 중이다. 글로벌 AI 인프라 시장에서 사실상 표준으로 자리 잡은 엔비디아와의 전략적 총판 계약은 메가존클라우드가 단순 클라우드 MSP를 넘어 AI 인프라 플랫폼 기업으로 포지셔닝을 강화하는 신호로 읽히기 때문이다. 회사가 그동안 쌓아 온 클라우드, 데이터, 보안 사업 위에, 엔비디아 GPU 총판이라는 상징성과 성장 동력을 추가해 IPO 스토리를 한층 풍부하게 만들 수 있다는 기대도 제기된다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 전개할 계획이다. 산업별 기술 세미나와 고객 대상 웨비나를 열고 개념검증(PoC) 지원 캠페인과 파트너 기술 교육 프로그램을 운영해 엔비디아 기반 AI 인프라 도입을 확대한다는 방침이다. 메가존클라우드는 기존 고객 기반과 글로벌 파트너 네트워크를 활용해 제조·금융·공공·게임·미디어 등 주요 산업에서 AI 인프라 레퍼런스를 빠르게 확보하고, 이를 다시 레퍼런스 패키지로 전환하는 선순환 구조를 만들겠다는 구상이다. 메가존클라우드 염동훈 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 돕겠다"고 말했다.

2025.11.17 17:05남혁우

메가존클라우드, 엔비디아 한국 총판 계약…AI 인프라 플랫폼 사업 본격화

메가존클라우드(대표 염동훈)가 엔비디아와 한국 총판 계약을 체결했다. 이를 바탕으로 하고 인공지능(AI) 인프라 설계부터 구축·운영, 교육까지 아우르는 '플랫폼형 총판' 모델로 국내 AI 인프라 시장 공략에 속도를 낼 계획이다. 메가존클라우드는 엔비디아와 한국 총판 계약을 체결했다고 14일 밝혔다. 양사는 13일 과천 메가존산학연센터에서 염동훈 메가존클라우드 대표와 제프 팬처 엔비디아 글로벌 총판 총괄, 정소영 엔비디아코리아 대표 등 주요 경영진이 참석한 가운데 총판 계약 체결식을 진행했다. 메가존클라우드는 이번 계약을 통해 엔비디아의 국내 공식 총판으로서 AI 인프라 공급과 AI 생태계 확산을 본격 추진할 계획이다. 이번 계약으로 메가존클라우드는 엔비디아의 DGX·HGX GPU 서버와 고성능 네트워크 장비인 인피니밴드(InfiniBand) 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급한다. 메가존클라우드는 이를 기반으로 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 비전 및 엣지 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요에 대응한다는 방침이다. 메가존클라우드는 단순 제품 유통을 넘어 고객의 AI 사업을 빠르게 추진할 수 있도록 지원하는 새로운 개념의 '플랫폼형 총판' 운영 모델을 도입한다. 이를 통해 AI 인프라 설계와 구성 단계부터 기술 검증(PoC), 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계까지 전 과정을 기술적으로 오케스트레이션하는 역할을 수행한다. 메가존클라우드는 벤더·파트너·고객을 효율적으로 연결해 복잡한 AI 인프라 도입 과정을 단순화하고, 파트너가 자체 서비스와 솔루션을 빠르게 시장에 선보일 수 있도록 돕겠다는 구상이다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 강화한다. 산업별 기술 세미나와 고객 대상 웨비나, PoC 지원 캠페인, 파트너 기술 교육 프로그램 등 다양한 활동을 통해 고객 접점을 넓히고, 파트너 생태계 육성에도 나설 계획이다. 특히 각 산업별 레퍼런스 구축과 사례 공유를 통해 국내 기업들의 AI 도입 장벽을 낮추고 활용 범위를 넓히는 데 집중한다는 전략이다. 염동훈 메가존클라우드 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 하겠다"고 말했다.

2025.11.14 10:39남혁우

  Prev 1 2 3 4 5 6 7 8 9 Next  

지금 뜨는 기사

이시각 헤드라인

"쿠팡 등 미국 상장사 건들지마"...美 트럼프 행정부, 韓 규제 발끈

"실제 명장 음식 95% 재현"…콘서트 같은 '컬리푸드페스타' 가보니

세계관 전시부터 오세득 셰프 햄버거까지...'하우스 오브 애슐리' 팝업 가보니

전동화 속도 줄고 SDV는 격차…딜레마 빠진 현대차

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.