• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (903건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"美 빅테크 이길 것"…바이트댄스, 내년 AI 인프라 투자 늘려

틱톡을 운영하는 바이트댄스가 미국 빅테크와 인공지능(AI) 기술 격차를 좁히기 위해 인프라 투자를 확대한다. 23일 파이낸셜타임스(FT)에 따르면 바이트댄스는 내년 AI 인프라 자본지출로 약 1천600억 위안(약 23조원)을 투입한다고 밝혔다. 이는 올해 인프라 투자액 1천500억 위안보다 늘어난 규모다. 이중 약 절반은 AI 모델과 애플리케이션 개발을 위한 첨단 반도체 확보에 쓰일 예정이다. 바이트댄스는 내년 AI 프로세서에만 850억 위안(약 17조9천억원)을 배정한 것으로 확인됐다. 이를 통해 격화하는 글로벌 AI 인프라 경쟁에서 우위를 점하기 우한 전략이다. 다만 미국 마이크로소프트와 알파벳, 아마존, 메타가 올해 합산 3천억 달러 이상을 AI 데이터센터에 투자한 것과 비교하면 규모 차는 여전히 크다. 그동안 중국 기업들은 미국의 수출 통제로 엔비디아 그래픽처리장치(GPU)에 접근하지 못하면서 상대적으로 적은 연산 자원으로 구동 가능한 효율 중심 모델 개발에 집중해 왔다. 바이트댄스뿐 아니라 알리바바도 이런 환경 속에서 자체 AI 전략을 추진해 왔다. 최근 도널드 트럼프 미국 대통령은 엔비디아가 중국 내 승인된 고객에게만 H200 판매를 허용했다. 실제 공급 여부는 미국 의회와 중국 당국 입장에 따라 달라질 전망이다. 판매가 허용될 경우 바이트댄스는 H200 2만 개를 시험 주문할 계획인 것으로 알려졌다. 개당 가격은 약 2만 달러 수준이다. 바이트댄스는 중국 외 지역에서도 AI 투자를 확대하고 있다. 해외 데이터센터를 임차해 엔비디아의 최첨단 하드웨어(HW)를 활용하려는 전략이다. 이는 자본지출이 아닌 운영비로 처리되고 있다. AI 모델 성능 면에서 바이트댄스의 오픈소스 '더우바오' 모델은 알리바바의 '첸원'이나 딥시크보다 낮은 평가를 받고 있다. 반면 소비자 대상 AI 서비스에서는 중국 내 가장 높은 이용률을 기록하고 있다. 중국 조사기관 퀘스트모바일에 따르면 더우바오 챗봇은 월간 활성 이용자 수와 다운로드 수에서 딥시크를 앞질렀다. 바이트댄스는 기업 시장에서도 볼케이노 엔진 클라우드 서비스를 앞세워 알리바바와 경쟁하고 있다. 골드만삭스는 바이트댄스의 AI 서비스가 중국에서 가장 많이 사용되는 AI 플랫폼으로 자리 잡았다고 분석했다. 지난해 10월 기준 바이트댄스의 일일 토큰 사용량은 30조 개를 넘어 같은 기간 구글의 43조 개에 근접했다. 한 바이트댄스 투자자는 "바이트댄스는 다른 중국 빅테크와 달리 비상장사라서 공격적인 투자와 장기 전략을 유연하게 추진할 수 있다"고 FT에 밝혔다.

2025.12.23 16:30김미정

美 정부, 엔비디아 AI 칩 중국 판매 재검토 착수

미국 정부가 엔비디아의 첨단 인공지능(AI) 칩을 중국에 판매할 수 있을지 여부를 공식 검토하기 시작했다. 로이터는 소식통을 인용해, 미 행정부가 관련 부처 간 검토 절차를 개시했다고 19일(현지시간) 보도했다. 이번 검토는 엔비디아의 AI 가속기 H200을 중국에 수출하는 방안을 둘러싼 것이다. H200은 최신 블랙웰(Blackwell) 아키텍처 이전 세대 제품이지만, 대규모 AI 모델 학습과 추론에 활용 가능한 고성능 칩으로 분류된다. 검토 절차는 미 상무부가 주도하며 국무부, 국방부, 에너지부 등이 참여한다. 각 부처는 관련 규정에 따라 30일 이내 의견을 제출해야 하며, 최종 결정 권한은 도널드 트럼프 미국 대통령에게 있다. 보도에 따르면 트럼프 대통령은 엔비디아의 AI 칩 중국 판매를 허용하는 방안을 검토하면서, 수출 승인 조건으로 최대 25%의 정부 수수료 부과 가능성도 함께 논의하고 있다. 이는 기존 바이든 행정부가 유지해 온 대중국 반도체 수출 규제 기조에서 방향 전환을 시사하는 대목이다. 미국은 2022년 이후 중국 기업이 첨단 AI 칩을 군사·감시 목적에 활용할 수 있다는 우려를 이유로, 엔비디아의 고성능 GPU 중국 판매를 단계적으로 제한해 왔다. 이로 인해 중국 기업들은 최신 AI 인프라 구축에 제약을 받아왔다. 정치권의 반발도 거세다. 일부 미 의회 인사들은 H200 수출이 중국의 AI·반도체 기술 격차를 빠르게 줄일 수 있다며, 국가 안보에 위협이 될 수 있다고 주장하고 있다. 반면 산업계에서는 중국 시장 접근이 엔비디아 실적과 미국 AI 산업 경쟁력 유지에 필요하다는 목소리도 나온다. 엔비디아 최고경영자(CEO) 젠슨 황은 앞서 한 인터뷰에서 "칩이 잘못된 곳에 사용되지 않도록 엄격한 통제를 유지하겠다"고 밝힌 바 있다. 이번 검토 결과에 따라, 미국의 대중국 AI 반도체 수출 정책과 글로벌 AI 칩 공급 질서에 중대한 변화가 나타날 가능성이 제기된다.

2025.12.21 09:39전화평

[SW키트] 구글, '파이토치·TPU' 길 연다…엔비디아 '쿠다' 장벽 깨지나

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 구글·메타가 인공지능(AI) 개발자 표준 도구인 '파이토치'를 구글클라우드의 텐서처리장치(TPU)에서도 원활히 구동할 수 있도록 만드는 전략을 추진하면서, 엔비디아의 그래픽처리장치(GPU)·쿠다(CUDA) 중심 구조가 흔들릴 수 있다는 전망이 나오고 있다. 18일 외신에 따르면 구글클라우드는 메타와 협력해 파이토치를 구글 TPU에서 실행할 수 있는 기술 개발에 착수한 것으로 전해졌다. 업계는 엔비디아 GPU 인프라에 묶여 있던 AI 개발 생태계를 보다 개방형으로 전환하고, 동시에 구글클라우드의 자체 칩 활용도를 높이기 위한 전략적 행보로 해석하고 있다. 파이토치는 AI 모델 개발과 학습에 사용되는 소프트웨어(SW) 도구다. 전 세계 AI 개발자들 사이에서 사실상 표준 도구로 자리 잡았으며, AI 연구와 서비스 개발 현장에서 가장 널리 활용되는 프레임워크로 평가받고 있다. 그동안 파이토치는 GPU 환경에서 최고 성능을 내도록 최적화됐다. 특히 GPU 연산 과정에서 엔비디아의 병렬 컴퓨팅 플랫폼인 '쿠다'를 거치는 구조가 고착되면서, 업계에서는 자연스럽게 '파이토치·엔비디아'라는 공식이 형성됐다. 개발자 입장에서도 파이토치와 쿠다를 함께 사용하는 것이 가장 쉽고 빠른 선택지였기 때문이다. 이 과정에서 엔비디아는 GPU 하드웨어(HW)와 쿠다 소프트웨어(SW)를 결합한 강력한 생태계를 구축할 수 있었다. 쿠다는 GPU의 성능을 AI 연산에 활용할 수 있도록 돕는 SW로, AI 모델과 GPU를 연결해주는 일종의 다리 역할을 한다. 개발자가 파이토치로 만든 AI 모델을 GPU에서 실행하려면 쿠다를 반드시 거쳐야 하는 구조라서다. GPU가 AI 연산 시장에서 사실상 독점적 지위를 차지해온 만큼, 쿠다 생태계 역시 강한 락인(lock-in) 효과를 만들어 왔다. 반면 구글의 TPU는 파이토치와의 연결성이 상대적으로 떨어졌다. 파이토치 사용자가 TPU를 이용하려면 별도의 개발 도구를 익히거나 추가 설정과 작업을 거쳐야 했고, 이는 TPU 선택의 진입 장벽으로 작용해 왔다. 이번 구글·메타 협력은 단순히 TPU 활용 범위 확장보다는 파이토치 사용자가 TPU를 보다 쉽게 선택할 수 있는 환경을 만드는 데 초점이 맞춰졌다. 파이토치가 TPU에서도 자연스럽게 작동할 경우, 개발자들은 특정 GPU 생태계에 얽매이지 않고 비용, 전력 효율, 칩 공급 상황 등에 따라 인프라를 선택할 수 있다. 이에 엔비디아의 쿠다 중심 락인 효과도 점차 약화될 수 있다는 관측이 나온다. 업계에서는 단기간 내 엔비디아의 AI 인프라 지배력이 흔들리기는 어렵다는 시각이 우세하다. 국내 한 개발자는 "쿠다 중심으로 축적된 개발자 경험과 SW 자산, 방대한 라이브러리 생태계는 여전히 강력하다"며 "실질적인 변화가 나타나기까지는 앞으로 5~6년 이상의 시간이 필요할 것"이라고 내다봤다.

2025.12.19 13:46김미정

엔비디아, RTX 프로 5000 72GB 블랙웰 GPU 출시

엔비디아가 19일 데스크톱 PC용 RTX 프로 5000 72GB 블랙웰 GPU를 정식 출시했다. RTX 프로 5000 72GB 블랙웰은 기존 출시 제품(48GB) 대비 용량을 50% 늘린 72GB로 늘려 AI 개발자, 데이터 과학자, 크리에이티브 전문가의 대용량 메모리 기반 워크플로우 수행을 돕는다. 연산 성능은 최대 2,142 TOPS(1초당 1조 번 연산)이며 GDDR7 72GB 메모리에 더 큰 규모의 모델을 올려 훈련, 튜닝할 수 있다. 클라우드 대비 낮은 지연시간으로 외부 유출이 힘든 사내 자료나 민감한 데이터를 처리할 수 있다. 아놀드, 카오스 V-레이, 블렌더, D5 렌더, 레드시프트 등 공학/산업용/크리에이티브 응용프로그램에서 렌더링 시간을 최대 4.7배 단축한다. 엔비디아 RTX PRO 5000 72GB 블랙웰 GPU는 현재 잉그램 마이크로, 리드텍, 유니스플렌더, 엑스퓨전 등 파트너사를 통해 출시됐다. 글로벌 시스템 빌더를 통한 더 넓은 공급은 내년 초 시작될 예정이다.

2025.12.19 10:51권봉석

"엔비디아 종속 벗어나자"…구글-메타, TPU 활용 범위 확장

구글이 인공지능(AI) 인프라 시장을 장악한 엔비디아에 대응하기 위해 메타와 협력한다. 18일 로이터통신에 따르면 구글클라우드는 메타 손잡고 AI 개발 도구 '파이토치'를 텐서처리장치(TPU)에서 구동할 수 있는 기술 개발에 착수한 것으로 전해졌다. 그동안 엔비디아 인프라에 묶인 생태계를 개방형으로 전환해 구글클라우드 독자 칩인 TPU 활용도를 끌어올리기 위한 전략이다. 파이토치는 AI 모델 구축에 필수적인 프로그래밍 도구다. 전 세계 개발자들 사이에서 사실상 표준으로 자리 잡았으나 그간 엔비디아 인프라에서만 가장 높은 성능을 발휘해 왔다. 이로 인해 개발자들이 구글클라우드의 TPU를 사용하려면 새로운 도구 습득에 따른 비용과 시간을 감수해야 했고 이는 구글클라우드 칩 생태계 확장의 고질적인 걸림돌로 작용했다. 구글클라우드는 이런 기술적 장벽을 허물기 위해 내부 프로젝트인 '토치TPU'를 가동하고 파이토치와 인프라 연동성을 올리는 데 집중하고 있다. 프로젝트가 성과를 거두면 개발자들은 기존 SW 환경을 유지하면서 HW만 엔비디아에서 구글클라우드의 TPU로 손쉽게 교체할 수 있는 유연성을 확보하게 된다. 특히 이번 프로젝트에는 파이토치의 종가인 메타가 직접 참여해 구글클라우드와 공조 체계를 이룬 것으로 알려졌다. 양측은 최근 수십억 달러 규모의 TPU 공급 방안을 논의 중이며 메타는 이를 통해 초지능 AI 개발에 필요한 막대한 인프라 구축 비용을 절감할 수 있을 것으로 기대된다. 구글클라우드 대변인은 "개발자가 선택한 HW에 관계없이 필요한 유연성과 확장성을 제공하는 데 주력하고 있다"고 밝혔다.

2025.12.18 18:14김미정

삼성전자, 엔비디아향 '소캠2' 공급 임박…샘플 평가·표준화 협력

삼성전자와 엔비디아가 AI 메모리 분야에서 긴밀한 협력을 더 강화하고 있다. LPDDR(저전력 D램) 기반 차세대 서버 메모리 모듈에 대한 평가를 진행 중인 것은 물론, 공식 표준화 작업도 함께 진행 중이다. 양사 간 협업은 내년 초부터 본격적인 시너지 효과를 발휘할 것으로 기대된다. 삼성전자는 18일 공식 뉴스룸을 통해 고객사에 SOCAMM(소캠; Small Outline Compression Attached Memory Module)2 샘플을 공급하고 있다고 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈로, 저전력 D램인 LPDDR을 4개씩 집적한다. 기존 모듈(RDIMM) 대비 데이터 전송 통로인 I/O(입출력단자) 수가 많아, 데이터 처리 성능의 척도인 대역폭이 높다는 장점이 있다. 소캠2는 2세대 소캠으로서, RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공한다. 또한 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장해야 했지만, 소캠2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있다. 삼성전자가 개발한 소캠2는 내년 초부터 본격 상용화될 전망이다. 현재 삼성전자는 1b(5세대 10나노급) D램을 기반으로 소캠2를 개발해, 주요 고객사인 엔비디아와 퀄(품질) 테스트를 거치고 있는 것으로 알려졌다. 삼성전자는 "서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다"며 "특히 엔비디아와의 기술 협업을 통해 소캠2를 엔비디아 가속 인프라에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다"고 밝혔다. 소캠2의 공식 표준화 작업도 마무리 단계에 접어들었다. 현재 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다. 디온 헤리스 엔비디아 HPC 및 AI 인프라 솔루션 총괄 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 피지컬 AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며 "삼성전자와의 지속적인 기술 협력을 통해 소캠2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

2025.12.18 11:04장경윤

엔비디아, 오픈 모델 '네모트론 3' 시리즈 공개…"추론 속도 4배↑"

엔비디아가 에이전틱 인공지능(AI) 애플리케이션 구축을 위한 오픈 모델 제품군을 공개했다. 엔비디아는 오픈 모델과 데이터, 라이브러리로 구성된 '네모트론 3' 시리즈를 17일 발표했다. 네모트론 3는 '하이브리드 잠재 전문가 혼합(MoE)' 아키텍처로 대규모 멀티 에이전트 시스템 신뢰성을 높였다. 개발자는 이를 통해 통신 과부하와 맥락 이탈, 높은 추론 비용 등 기존 협업형 AI 시스템이 겪던 기술적 난제를 해결할 수 있다. 이 시리즈는 나노, 슈퍼, 울트라로 구성됐다. 네모트론 3 나노는 300억 개의 파라미터를 갖춘 소형 모델이다. 전 세대 대비 4배 높은 처리량을 갖췄다. 소프트웨어 디버깅이나 콘텐츠 요약 같은 작업에 최적화됐다. 추론 토큰 생성량을 최대 60%까지 줄일 수 있다. 내년 상반기 출시 예정인 슈퍼와 울트라 모델은 각각 1천억 개, 5천억 개의 파라미터를 탑재했다. 해당 시리즈는 엔비디아 블랙웰 아키텍처 기반의 고효율 훈련 포맷으로 이뤄져 메모리 요구 사항을 줄이면서도 훈련 속도를 높일 수 있다. 엔비디아는 이번 제품군을 통해 각국 조직이 데이터와 규제, 가치에 부합하는 소버린 AI를 구축하도록 적극 지원한다고 밝혔다. 이미 서비스나우, 퍼플렉시티, 지멘스 등 글로벌 기업들이 네모트론 모델을 자사 워크플로에 통합해 제조, 보안, 미디어 등 다양한 산업 분야에서 활용 중이다. 이날 엔비디아는 전문화된 에이전트 구축을 돕기 위해 3조 개 토큰으로 구성된 훈련 데이터셋과 '네모 짐' 등 오픈소스 라이브러리도 공개했다. 모든 도구와 데이터셋은 깃허브와 허깅 페이스를 통해 즉시 이용 가능하다. 젠슨 황 엔비디아 최고경영자(CEO)는 "오픈 혁신은 AI 발전의 토대"라며 "네모트론을 통해 첨단 AI를 개방형 플랫폼으로 전환하고, 개발자들이 대규모 환경에서 에이전틱 시스템을 구축하는 데 필요한 투명성과 효율성을 제공하겠다"고 밝혔다.

2025.12.17 14:37김미정

오픈AI, 아마존 칩 도입 저울질…"구글 추격에 인프라 다변화"

오픈AI가 아마존의 인공지능(AI) 칩 '트레이니움' 도입을 검토하고 있는 것으로 확인됐다. 17일 블룸버그통신에 따르면 오픈AI는 아마존으로부터 최소 100억 달러(약 14조원) 규모 투자를 유치하고, 그 조건으로 아마존의 자체 AI 반도체인 트레이니움을 도입하는 초기 논의를 진행 중이다. 이번 거래가 성사될 경우 오픈AI의 기업가치는 5천억 달러(약 740조3천억원)를 웃돌 것으로 전망된다. 이는 최근 오픈AI가 직원 지분 매각을 통해 시장에서 평가받은 몸값과 유사한 수준이다. 오픈AI가 아마존 칩에 눈을 돌린 배경에는 경쟁사 구글의 성장세가 자리 잡고 있다. 최근 구글클라우드가 텐서처리장치(TPU)로 개발한 '제미나이3'가 오픈AI의 'GPT-5.1' 성능을 능가한다는 평가를 받아서다. 이에 위기감을 느낀 오픈AI 경영진이 내부적으로 '코드 레드'를 발령한 것으로 알려졌다. 업계에선 엔비디아 그래픽처리장치(GPU)에 의존해온 오픈AI는 인프라 다변화를 생존 전략으로 선택했다는 분위기다. 아마존은 트레이니움이 기존 칩 대비 학습과 추론 비용이 저렴하고 연산 효율이 높다는 점을 강조해 왔다. 이달 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '트레이니움3'를 공개했다. 트레이니움3는 전작 대비 전력 소비량을 40%가량 낮췄다. 엔비디아 GPU보다 AI 모델 훈련·운영 비용이 최대 절반 수준까지 줄어들 수 있다. 아마존웹서비스(AWS) 입장에서도 이번 협력은 절실한 상황이다. 임대형 컴퓨팅 파워 분야에서는 세계 최대 사업자지만, 정작 알짜배기인 AI 모델 개발 시장에서는 마이크로소프트와 구글에 밀리고 있어 차별화된 계기가 필요한 상황이다. 두 기업의 협상은 지난해 10월 오픈AI가 기업 구조 개편을 마친 직후 시작된 것으로 전해졌다. 당시 개편 과정에서 오픈AI의 최대 투자자인 마이크로소프트는 약 27%의 지분을 확보한 바 있다. 오픈AI와 아마존은 지난달 AWS가 7년간 380억 달러(약 56조2천600억원) 규모의 컴퓨팅 파워를 공급하는 계약을 맺은 바 있다. 당시 계약은 수십만 개의 엔비디아 칩 사용을 전제로 했다. 블룸버그통신은 "오픈AI가 GPU 공급 부족과 비용 문제를 해결하기 위해 아마존의 손을 잡으려 한다"며 "트레이니움 도입은 단순한 비용 절감을 넘어, 구글의 TPU 진영에 맞서기 위한 인프라 독립 선언과 같다"고 분석했다.

2025.12.17 13:57김미정

엔비디아, HPC·AI 오픈소스 생태계 확장…스케드엠디 인수

엔비디아가 고성능 컴퓨팅(HPC)과 인공지능(AI)을 아우르는 오픈소스 생태계를 넓히기 위해 기업을 인수했다. 엔비디아는 오픈소스 워크로드 관리 시스템 개발사 스케드엠디를 인수했다고 17일 공식 발표했다. 엔비디아는 가속 컴퓨팅 플랫폼과 스케드엠디의 기술력을 결합해 연구자와 개발자, 기업 전반의 AI 혁신 속도를 높이겠다는 구상이다. 스케드엠디가 개발한 '슬럼'은 확장성과 처리량, 복잡한 정책 관리 능력이 뛰어나 업계를 선도하는 작업 스케줄러로 평가받는다. 실제로 전 세계 상위 500대 슈퍼컴퓨터 중 상위 10개 시스템과 100위권 내 시스템의 절반 이상이 슬럼을 채택해 사용 중이다. 엔비디아는 인수 후에도 슬럼을 벤더 중립적인 오픈소스 소프트웨어(SW)로 유지하며 지속적인 개발을 지원할 방침이다. 이를 통해 엔비디아 하드웨어(HW)뿐만 아니라 이기종 클러스터에서도 효율적인 자원 관리가 가능하도록 돕는다. 특히 이번 협력은 생성형 AI 구축에 필요한 핵심 인프라를 최적화하는 데 중점을 둔다. 파운데이션 모델 개발자들은 최신 엔비디아 하드웨어에서 구동되는 슬럼을 활용해 대규모 모델 훈련과 추론에 따르는 복잡한 워크로드를 효과적으로 관리할 수 있게 된다. 이번 인수는 최근 엔비디아가 에이전틱 AI 개발을 위한 '네모트론 3' 오픈 모델 제품군을 공개한 데 이은 광폭 행보다. 엔비디아는 유럽과 한국 등 각국 조직이 자체 데이터 규정에 맞는 '소버린 AI'를 구축하도록 돕는 과정에서 슬럼의 기술력을 적극 활용할 것으로 보인다. 대니 오블 스케드엠디 최고경영자(CEO)는 "향후 슬럼을 강화해 차세대 요구를 충족시킬 것"이라며 "슬럼은 앞으로도 오픈소스로 유지될 것"이라고 밝혔다.

2025.12.17 12:57김미정

HP, 'ZGX 나노 G1n AI 스테이션' 국내 출시

HP코리아가 17일 개발자와 데이터 사이언티스트 등 AI 관련 직군 종사자를 위한 초소형 워크스테이션 'ZGX 나노 G1n AI 스테이션'을 국내 출시했다. ZGX 나노 G1n AI 스테이션은 기존 데스크톱·노트북 환경에서 부족했던 대형 모델 처리와 개발자 경험을 보완하고, 기업의 AI 워크플로우를 단계적으로 확장할 수 있는 기반을 제공한다. 엔비디아 블랙웰 아키텍처 기반 GPU 'GB10'과 Arm IP 기반 20코어 그레이스(Grace) CPU를 결합한 시스템반도체(SoC), 128GB LPDDR5X 통합메모리를 탑재해 클라우드 서버 없이 각종 AI 작업을 수행할 수 있다. AI 연산 성능은 최대 1천 TOPS(1초당 1조 번 연산)이며 FP4(부동소수점 4비트) 기준 1페타플롭스 가량이다. 최대 2천억 개 매개변수(패러미터)로 구성된 AI 모델을 구동 가능하며 시스템 두 대를 연결하면 최대 4천50억 개 매개변수로 처리 능력을 확장한다. 우분투 리눅스 기반 엔비디아 DGX OS로 구동되며 비주얼 스튜디오 코드, ML플로우, 올라마, 언솔로스 등 주요 개발도구를 통합한 ZGX 툴킷이 기본 탑재된다. 비주얼 스튜디오 코드 확장 프로그램을 이용하면 같은 네트워크에 있는 ZGX 나노 장치를 자동으로 검색·연결해 개발 준비 과정을 단순화한다. 저장공간은 1/4TB NVMe M.2 SSD 중 선택 가능하며 암호화를 지원한다. HP코리아 제품 웹사이트에서 구매 전 상담과 견적을 제공한다.

2025.12.17 10:50권봉석

리벨리온, 내년 IPO 청구 목표…美기업과 '리벨' PoC 진행

국내 AI 반도체 스타트업 리벨리온이 내년 기업공개(IPO) 예비심사 청구를 목표로 본격적인 상장 준비에 들어간다. 동시에 미국 주요 업체들과 2세대 AI 반도체를 대상으로 한 PoC(개념검증)를 진행 중이며, 글로벌 시장 진출을 위한 실증 단계에 돌입했다. 리벨리온은 16일 경기 성남시 정자동 본사에서 기자간담회를 열고 IPO 추진 일정과 글로벌 사업 현황을 공개했다. 회사는 삼성증권을 주관사로 선정해 상장 준비를 진행 중이며, 이미 2년 차 지정감사를 받고 있다고 밝혔다. 신성규 리벨리온 CFO(최고재무책임자)는 “지난 5년간 약 6천500억원의 투자를 유치했고, 최근 시리즈C를 통해 3천500억원을 추가로 조달했다”며 “대규모 자금 조달이 필수적인 사업 구조인 만큼 상장 시장을 통한 자금 확보를 계획하고 있다”고 설명했다. 상장 시점과 관련해서는 “내년이 매우 중요한 해가 될 것”이라며 “내년 예비심사 청구를 목표로 준비하고 있다”고 밝혔다. 리벨리온은 상장 시장으로는 한국을 우선 고려하고 있다. 박성현 리벨리온 대표는 “국내에서 성장해온 기업으로서 한국 시장을 먼저 선택하는 것이 순서”라면서도 “필요하다면 듀얼 상장 등 다양한 시나리오를 열어두고 있다”고 전했다. 글로벌 사업 측면에서는 미국 메이저 업체들과의 PoC 진행 상황이 핵심이다. 리벨리온은 현재 2세대 AI 반도체 리벨 쿼드(Rebel Quad)를 중심으로 미국 주요 기업들과 PoC를 진행 중이며, 결과에 따라 향후 대규모 상용 계약으로 이어질 가능성도 열려 있다는 입장이다. 박 대표는 “PoC는 고객사 입장에서 상당한 비용과 시간이 투입되는 과정”이라며 “알 만한 글로벌 업체들과 검증 단계에 있다”고 밝혔다. 이번 PoC의 중심에는 리벨리온의 2세대 칩 '리벨 쿼드(Rebel Quad)'가 있다. 리벨 쿼드는 HBM3(5세대 고대역폭 메모리)를 적용한 고성능 추론용 AI 반도체로, 칩렛 구조를 통해 다이를 4개 결합한 것이 특징이다. 회사는 현재 실리콘 샘플을 확보해 고객사 피드백을 받고 있으며, 글로벌 시장을 겨냥한 주력 제품으로 육성한다는 계획이다. 리벨리온은 1세대 칩 아톰(ATOM)이 이미 KT 클라우드 등에서 상용화된 것과 달리, 2세대 칩은 글로벌 하이엔드 추론 시장을 직접 겨냥하고 있다고 강조했다. 박 대표는 “1세대 칩이 비용 효율성과 실사용 중심이었다면, 2세대 칩은 성능과 확장성을 중시한 글로벌 전략 제품”이라며 “두 제품은 우열의 문제가 아니라 타깃 시장이 다르다”고 설명했다. 특히 리벨리온은 추론(Inference) 시장을 차세대 AI 반도체 경쟁의 핵심 무대로 보고 있다. 박 대표는 “현재 AI 인프라는 여전히 트레이닝 중심이지만, 추론 전용 반도체에 대한 수요가 본격적으로 열리는 시점이 다가오고 있다”며 “미국 메이저 업체들과의 PoC는 그 가능성을 검증하는 과정”이라고 강조했다. 한편 리벨리온은 내년 PoC 결과를 바탕으로 글로벌 레퍼런스를 확보하고, 이를 발판 삼아 본격적인 해외 매출 확대와 IPO 이후 성장 전략을 추진한다는 계획이다.

2025.12.16 15:38전화평

엔비디아 '네모트론 3' 공개..."개인 PC로 나만의 AI 비서 구축"

엔비디아가 자신만의 인공지능(AI) 비서를 구축할 수 있도록 오픈 모델과 최적화 도구를 공개했다. 엔비디아에 '네모트론 3' 오픈 모델 제품군을 공개하고 '언슬로스' 프레임워크를 통해 거대언어모델(LLM) 미세 조정을 가속화한다고 16일 밝혔다. 이를 통해 사용자는 엔비디아 RTX AI PC와 DGX 스파크 환경에서 학습, 업무, 창작 등 목적에 맞는 맞춤형 AI 어시스턴트를 구축할 수 있다. 이번 발표 핵심은 '미세 조정'의 대중화다. 소형언어모델(SLM)은 전문적인 작업에서 정확도가 떨어지는 한계가 있었으나 엔비디아는 이를 해결하기 위해 모델을 특정 작업에 맞춰 훈련시키는 미세 조정 기술에 주목했다. 함께 도입된 언슬로스는 세계적으로 널리 쓰이는 오픈소스 프레임워크로 엔비디아 그래픽처리장치(GPU) 메모리 사용을 최소화해 훈련 효율을 높인다. 이 도구는 허깅페이스 트랜스포머 라이브러리 성능을 최대 2.5배까지 향상시켜 연구자와 개발자가 복잡한 연산을 신속하게 처리하도록 돕는다. 엔비디아는 미세 조정의 기반이 될 '네모트론 3' 제품군도 선보였다. 이 중 '네모트론 3 나노'는 하이브리드 전문가 혼합(MoE) 아키텍처를 기반으로 설계돼 현재 출시된 라인업 중 가장 높은 컴퓨팅 효율을 기록했다. 이 모델은 추론에 필요한 토큰을 최대 60% 줄여 비용을 절감하면서도 100만 토큰의 컨텍스트 윈도우를 지원한다. 긴 시간 동안 진행되는 다단계 작업에서도 AI가 맥락을 잃지 않고 훨씬 많은 정보를 유지할 수 있다는 설명이다. 개발자는 목표에 따라 파라미터 효율적 미세 조정(LoRA), 완전 미세 조정, 강화 학습 등 다양한 방식을 선택할 수 있다. 특히 LoRA 방식은 모델의 일부만 업데이트해 저비용으로 도메인 지식을 추가하거나 코딩 정확도를 높이는 데 유용하다. 엔비디아는 이번 나노 모델 공개에 이어 내년 상반기에 멀티 에이전트용 '네모트론 3 슈퍼'와 복잡한 애플리케이션용 '네모트론 3 울트라'를 순차적으로 출시할 예정이다. 엔비디아는 "네모트론 3 제품군은 업계 선도적인 정확도와 효율성을 갖춘 오픈 모델로 에이전틱 AI 애플리케이션 구축에 이상적"이라며 "개방형 훈련 데이터세트와 최첨단 강화 학습 라이브러리를 통해 AI 생태계를 지속적으로 확장할 것"이라고 강조했다.

2025.12.16 10:41김미정

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호

'SPHBM4' 표준 제정 임박…삼성·SK AI 메모리 새 국면 예고

반도체 업계가 새로운 HBM(고대역폭메모리) 개발을 구상하고 있다. 해당 제품은 기존 HBM과 동일한 성능을 구현하면서도 설계 난이도 및 제조비용을 대폭 낮춘 것이 특징이다. 실제 상용화 추진 시 삼성전자·SK하이닉스 등 메모리 기업들은 물론, TSMC·엔비디아 등 관련 생태계에 있는 기업 전반이 상당한 영향을 받을 것으로 예상된다. 15일 업계에 따르면 JEDEC(국제반도체표준협의회)은 새로운 HBM 표준인 'SPHBM4(Standard Package HBM)' 개발의 마무리 단계에 접어들었다. I/O 수 줄여도 대역폭 그대로…SPHBM4 개념 등장 HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)를 뚫어 전기적으로 연결한 고성능 메모리다. 이 경우 대역폭을 기존 D램 대비 크게 향상시킬 수 있게 된다. 대역폭은 초당 얼마나 많은 데이터를 주고받을 수 있는 지를 나타내는 척도다. 데이터 전송 통로인 I/O(입출력단자) 핀 수를 늘리거나, I/O 핀 당 전송속도를 높이는 방법으로 향상시킬 수 있다. 일례로, 6세대 HBM인 HBM4은 데이터 전송 통로인 I/O 핀 수를 기존(1천24개) 대비 2배로(2천48개) 늘리면서 성능을 높였다. SPHBM4는 HBM4와 동일한 D램을 채용했다. 그러나 I/O 핀 수를 4:1 비율로 직렬화(Serialization)해, I/O 핀 수를 4분의 1로 줄이면서도 HBM4와 동일한 대역폭을 지원한다는 특징을 가진다. 직렬화란 여러 개의 I/O 핀에서 동시에 처리되던 데이터를 단일 I/O 핀에서 순차적으로 처리하는 방식을 뜻한다. 4:1 비율의 경우, 기존 4개 I/O 핀에서 처리되던 데이터 양을 1개 I/O 핀이 4번의 처리로 담당하게 된다. 결과적으로 SPHBM4가 잘 구동되기 위해서는 I/O 핀 당 전송속도를 4배 이상 안정적으로 구현하는 직렬화 인터커넥트 기술이 핵심이 될 것으로 관측된다. 직렬화 인터커넥트 기술로 HBM용 베이스(로직) 다이를 설계하는 미국 반도체 스타트업 엘리얀(eliyan)도 "몇 개월 내에 SPHBM4 표준이 발표되기를 기대하고 있다"며 SPHBM4에 대한 환영의 뜻을 밝혔다. 베이스 다이는 메모리의 컨트롤러 기능을 담당하는 다이다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해 데이터를 주고받을 수 있도록 만들어준다. SPHBM4가 도입되면 베이스 다이 역시 새로운 구조로 설계돼야 할 것으로 관측된다. SPHBM4 도입 시 제조 난이도·비용 감소 가능 I/O 핀 수가 512개로 줄어들게 되면, 전체 HBM 패키지에서 가장 큰 변화를 맞이하게 되는 부분은 인터포저다. 인터포저는 칩과 PCB(인쇄회로기판) 사이에 삽입하는 얇은 기판이다. AI 가속기 내부의 HBM과 로직 칩은 수많은 I/O 핀이 촘촘히 박혀 있어, PCB가 직접 대응하기가 힘들다. 이 때 미세한 배선층(RDL)을 가진 인터포저를 삽입하면 칩과 PCB의 연결을 수월하게 만들어 준다. 이렇게 HBM과 GPU를 인터포저로 연결하는 기술을 2.5D 패키징이라 부른다. 대만 주요 파운드리인 TSMC가 이 분야에서 독보적인 기술력을 확보하고 있으며, 자체적으로 'CoWoS(칩-온-웨이퍼-온-서브스트레이트)'라는 브랜드명을 붙이고 있다. 그간 TSMC는 실리콘 인터포저, 혹은 더 작은 크기의 실리콘 브릿지로 CoWoS 공정을 제조해 왔다. 실리콘 소재가 비싼 편에 속하지만, 배선 밀도를 높일 수 있어 고집적 회로 대응에 유리하기 때문이다. 반면 SPHBM4는 I/O 핀 수가 적어 기존만큼 고밀도 기판이 필요하지 않아, 유기(Organic) 인터포저만으로도 충분히 대응이 가능하다. 유기 인터포저는 실리콘 대비 배선 밀도가 낮지만, 가격이 저렴하기 때문에 패키지 제조 비용을 낮출 수 있다. 또한 유기 인터포저는 보다 유연한 설계가 가능해, HBM과 시스템반도체 간 채널 길이를 더 길게 만들 수 있다. 이를 통해 SPHBM을 더 많이 배치해, 결과적으로 총 메모리 용량을 늘릴 수 있다는 게 JEDEC의 설명이다. 이는 TSMC의 CoWoS 기술의 일종인 'CoWoS-R'의 HBM 도입을 가속화할 것으로 기대된다. CoWoS-R은 실리콘 인터포저 대신 유기 인터포저를 사용하는 개념이다. 실제 상용화 가능성은 아직 미지수 다만 SPHBM4가 실제 상용화될 지는 아직 미지수다. JEDEC은 "SPHBM4 표준은 개발 중이거나 개발 후 변경될 수 있으며, JEDEC 이사회에서 승인이 거부될 수도 있다"고 설명했다. 삼성전자, SK하이닉스 등 국내 반도체 업계에서도 SPHBM4에 대해 공식적으로 언급한 사례는 아직 없는 것으로 파악된다. 메모리 업계 한 고위 임원은 "SPHBM4 표준 제정은 HBM 기반의 AI 가속기 제조 비용을 줄이기 위한 여러 시도 중 하나로 보인다"며 "다만 현재 빅테크 기업들은 HBM의 속도 및 밀도를 동시에 강화하는 방향을 강하게 밀어부치고 있다"고 말했다.

2025.12.15 11:22장경윤

엔비디아 "데이터센터용 GPU 위치 등 추적 솔루션 개발 중"

엔비디아가 10일(현지시간) 데이터센터용 GPU의 상태와 작동 위치를 파악할 수 있는 소프트웨어 기반 모니터링 솔루션을 개발하고 있다고 밝혔다. 엔비디아는 공식 블로그에 올린 글에서 “AI 인프라의 규모와 복잡성이 커질수록 데이터센터 운영자는 성능, 온도, 전력 사용량 등 요소에 대한 지속적인 가시성이 필요하다”고 개발 배경을 설명했다. 엔비디아가 개발중인 솔루션은 데이터센터에 설치된 엔비디아 GPU를 모니터링할 수 있는 대시보드를 제공한다. 엔비디아 GPU를 도입한 고객사가 필요할 경우 자발적으로 설치하는 옵트인(opt-in) 방식이다. 엔비디아에 따르면 데이터센터 운영사는 전력 사용 급증을 추적해 에너지 예산을 준수하면서 와트당 성능을 극대화하고, GPU 활용률과 메모리 대역폭, 인터커넥트 상태를 플릿 전체에서 모니터링할 수 있다. 엔비디아는 제기될 수 있는 보안 우려에 대해 "이 서비스는 각 GPU 시스템이 외부 클라우드 서비스와 GPU 메트릭을 공유하는 방식으로 실시간 모니터링만 제공한다. 엔비디아 GPU에는 하드웨어 추적 기술이나 킬 스위치, 백도어가 없다"고 밝혔다. 엔비디아의 새 솔루션은 최근 강화되고 있는 미국의 AI 칩 수출 규제 논의와 맞물려 있다. 미국 정부는 중국을 비롯한 일부 국가에 대한 고성능 AI GPU 수출을 금지하고 있다. 의회 일각에서는 엔비디아 제품에 보다 강력한 추적·검증 기능을 탑재해야 한다는 요구가 제기되고 있다. 공화당 소속 톰 코튼 상원의원을 포함해 양당 의원들이 지지하는 '칩 보안법'(Chip Security Act)'은 첨단 AI 칩에 보안 및 위치 검증 기능을 의무화하는 내용을 담고 있다. 반면 중국 정부는 엔비디아 제품에 잠재적 모니터링 백도어와 보안 취약점이 존재한다는 점을 통보했으며, 국가안보 검토 이후 일부 고성능 칩, 특히 H200 제품의 도입을 제한하고 있다.

2025.12.14 09:29권봉석

두산, CCL용 설비투자 확대…AI칩 시장 공략 가속화

두산 전자BG가 CCL(동박적층판) 생산 능력을 빠르게 확대하고 있다. 최근 올해 설비 투자규모를 기존 계획 대비 늘린 것으로 나타났다. 전 세계 AI 반도체 개발 경쟁에 맞물려 빠르게 증가하는 고부가 CCL 수요에 대응하기 위한 전략으로 풀이된다. 14일 두산에 따르면 이 회사는 올해 CCL 관련 설비투자에 약 1천70억원을 투입할 예정이다. 당초 올해 예상 투자규모인 865억원 수준에서 23%가량 늘었다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재로, 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층해 만들어진다. 현재 반도체 패키징·전자기기·통신 등 다양한 산업에 쓰이고 있다. 최근 CCL은 AI 반도체 시장을 중심으로 수요가 급증하고 있다. 엔비디아·AMD 등 글로벌 팹리스는 물론, 구글·AWS·메타 등 CSP(클라우드서비스제공자) 기업들이 자체 AI 가속기 개발에 뛰어든 데 따른 효과다. AI 반도체가 방대한 양의 데이터를 처리해야 하는 만큼, CCL도 더 뛰어난 고주파·고속·저손실을 갖춘 제품이 필요하다. 덕분에 두산의 증평·김천 등 일부 CCL 생산라인은 현재 가동률 100%를 넘기는 등 공급 여력이 빠듯한 상황이다. 이에 두산은 CCL 생산능력을 오는 2027년 초까지 기존 대비 50% 확대하겠다는 계획을 세운 바 있다. 최근에는 투자 규모를 확대하고 있기도 하다. 회사 분기보고서에 따르면, 두산은 올해 CCL용 설비투자에 1천70억원을 투자할 계획이다. 올해 중반 제시했던 금액인 865억원 대비 200억원 가량이 늘었다. CCL 수요가 예상 대비 강력한 만큼 투자에 속도를 내려는 전략으로 풀이된다. 두산 전자BG는 지난 2023년부터 엔비디아에 납품을 시작해, 지난해 'B100' 등 주요 AI 반도체의 핵심 공급망으로 자리잡는 등의 성과를 거뒀다. 나아가 엔비디아가 내년 하반기 출시할 예정인 '루빈' 칩에서도 상당한 공급 점유율을 차지할 수 있을 것으로 관측된다. 특히 두산은 컴퓨팅 트레이용 CCL 부문을 주도하고 있어, 시장 지위가 더 공고한 것으로 평가 받는다. CCL은 적용 분야에 따라 컴퓨팅 트레이와 스위치 트레이로 나뉘며, 이 중 컴퓨팅 트레이용 CCL이 기술적으로 진입 장벽이 더 높은 것으로 알려져 있다. 고객사 확장도 기대 요소 중 하나다. 현재 두산은 엔비디아 외에도 아마존웹서비스(AWS), 구글과 CCL 공급을 논의 중이다. 내년부터 본격적인 공급이 예상된다. 양승수 메리츠증권 연구원은 최근 보고서를 통해 "기존 GPU 고객사가 아닌 신규 GPU 고객사향 공급이 본격화될 전망"이라며 "북미 CSP A사향 스위칭용 CCL 공급도 새롭게 개시됐고, G사향 ASIC용 CCL도 국내 기판 업체와 공동 퀄(품질 테스트)을 완료해 내년 상반기 본격 양산이 예상된다"고 밝혔다.

2025.12.14 09:03장경윤

엔비디아는 왜 액침냉각을 인증하지 않을까

데이터센터 전력 효율을 높이기 위한 냉각 기술 경쟁이 본격화되고 있지만, 업계에서는 한 가지 의문이 여전히 남아 있다. 엔비디아는 왜 액침냉각(Immersion Cooling)에 공식 인증을 부여하지 않는가이다. 현재 엔비디아는 고성능 GPU 서버에 적용할 수 있는 냉각 방식으로 D2C(Direct to Chip) 액체냉각만 공식 지원하고 있다. 반면, GPU 전체를 특수 절연액에 담가 열을 제거하는 액침냉각은 아직 인증 리스트에 포함되지 않았다. 이는 액침냉각 기술이 상용화 단계로 넘어가는 데 있어 가장 큰 문턱으로 꼽힌다. 업계 “엔비디아의 수익 구조가 걸림돌” 12일 업계에 따르면 엔비디아가 액침냉각에 공식 인증을 부여하지 않는 직접적인 이유로 수익 구조와 생태계 통제 문제가 거론된다. 단순한 기술 완성도의 문제가 아니라, 향후 데이터센터 시장에서의 주도권과 직결된 사안이라는 분석이다. 냉각 업계 한 관계자는 “엔비디아가 현재 인증하고 있는 D2C 방식 액체냉각은 랙 단위에서 적용되는 구조”라며 “GPU와 서버 판매 구조에는 큰 변화가 없다”고 설명했다. 반면 액침냉각은 서버 전체를 액체에 담그는 방식인 만큼, 냉각 솔루션이 서버 설계와 패키징의 중심으로 올라설 수밖에 없다는 점에서 차이가 크다. “액침은 서버까지 팔 수 있는 구조” 다른 전문가는 액침냉각과 기존 액체냉각의 가장 큰 차이를 '판매 단위'에서 찾았다. D2C 방식 액체냉각은 랙 단위 또는 인프라 확장 수준에서 적용되지만, 액침냉각은 서버 자체가 하나의 완성 제품이 된다는 것이다. 다른 냉각 업계 관계자는 “액침냉각이 본격화되면 냉각 업체는 단순 단품 공급사가 아니라 서버 랙 시스템 및 쿨링시스템을 결합한 통합 솔루션 공급자가 된다”며 “이는 GPU 중심으로 구축된 엔비디아의 기존 사업 구조와는 결이 다른 방향”이라고 설명했다. 즉, 액침냉각이 확산될 경우 냉각 기술을 보유한 업체가 서버 설계와 구성의 주도권을 쥘 수 있고, 이는 엔비디아가 주도해온 GPU-서버 생태계에 변화를 가져올 수 있다는 의미다. 엔비디아가 액침냉각 인증에 신중할 수 밖에 없는 이유다. 언젠가는 넘어야 할 선택지 다만 업계에서는 엔비디아가 액침냉각을 영구적으로 배제하기는 어려울 것으로 보고 있다. AI 학습과 추론 수요가 폭발적으로 증가하면서 GPU 집적도와 전력 밀도 역시 한계치에 다다르고 있기 때문이다. 냉각 업계 관계자는 “전력 밀도가 지금보다 더 올라가면 D2C 방식만으로는 대응이 어려운 시점이 올 수밖에 없다”며 “그때가 되면 엔비디아 역시 액침냉각을 하나의 선택지로 검토할 가능성이 크다”고 내다봤다.

2025.12.12 16:31전화평

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤

중국 AI 강자 딥시크, 엔비디아 블랙웰 밀반입 의혹

중국 인공지능(AI)업체 딥시크가 미국의 대중국 수출 제한을 피하기 위해 제3국을 통해 엔비디아 그래픽처리장치(GPU)를 반입했다는 의혹이 제기됐다. 11일 미국 디인포메이션은 복수 관계자를 인용해 딥시크가 엔비디아 '블랙웰' 아키텍처 기반 GPU 수천 개를 밀반입해 새 AI 모델을 개발 중이라고 단독 보도했다. 그동안 중국 내 여러 AI 기업이 엔비디아 칩 사용이 가능한 해외 지역에서 차세대 모델 실험을 이어온 것으로 알려졌다. 딥시크 역시 동남아 지역에 위치한 중국 외 자본의 데이터센터 기반으로 테스트 환경을 구축해 왔다. 보통 GPU나 서버가 제3국 데이터센터에 설치되면 엔비디아·델·슈퍼마이크로 등 장비 공급사 엔지니어들이 현장을 방문해 수출 통제 규정을 지켰는지 최종 점검한다. 내부 소식통들은 딥시크가 점검을 마친 뒤 서버를 부품 단위로 해체해 중국 본토로 반입해 사용했다고 주장했다. 앞서 도널드 트럼프 미국 대통령은 중국에 대해 구세대 '호퍼' 기반 H200 칩은 반출을 허용했지만, 최신 블랙웰과 차세대 루빈 아키텍처는 허용 대상에 포함되지 않는다고 밝힌 바 있다. 딥시크는 해당 논란에 대해 공식 입장을 내놓지 않고 있다. 엔비디아는 "장비를 설치한 뒤 다시 해체해 몰래 반출한다는 이른바 '유령 데이터센터' 사례는 접수한 바 없다"며 "제보가 들어오면 모두 확인한다"고 밝혔다. 이날 로이터는 "최근 엔비디아가 칩 위치를 추적할 수 있는 소프트웨어(SW) 기능을 새로 개발했다"며 "우회 반입 자체가 크게 제한될 수 있다"고 분석했다.

2025.12.11 10:06김미정

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

원화 스테이블코인 활용 논의...2026년 제도권 진입 주목

쿠팡, 고객정보 유출 용의자 특정…저장장치도 회수

첫 여성 사장·자율주행 재점검…위기를 기회로 만드는 '정의선號'

미디어·콘텐츠 누적된 위기...방송산업 구조개편 기로

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.