• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (897건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아, 오픈 모델 '네모트론 3' 시리즈 공개…"추론 속도 4배↑"

엔비디아가 에이전틱 인공지능(AI) 애플리케이션 구축을 위한 오픈 모델 제품군을 공개했다. 엔비디아는 오픈 모델과 데이터, 라이브러리로 구성된 '네모트론 3' 시리즈를 17일 발표했다. 네모트론 3는 '하이브리드 잠재 전문가 혼합(MoE)' 아키텍처로 대규모 멀티 에이전트 시스템 신뢰성을 높였다. 개발자는 이를 통해 통신 과부하와 맥락 이탈, 높은 추론 비용 등 기존 협업형 AI 시스템이 겪던 기술적 난제를 해결할 수 있다. 이 시리즈는 나노, 슈퍼, 울트라로 구성됐다. 네모트론 3 나노는 300억 개의 파라미터를 갖춘 소형 모델이다. 전 세대 대비 4배 높은 처리량을 갖췄다. 소프트웨어 디버깅이나 콘텐츠 요약 같은 작업에 최적화됐다. 추론 토큰 생성량을 최대 60%까지 줄일 수 있다. 내년 상반기 출시 예정인 슈퍼와 울트라 모델은 각각 1천억 개, 5천억 개의 파라미터를 탑재했다. 해당 시리즈는 엔비디아 블랙웰 아키텍처 기반의 고효율 훈련 포맷으로 이뤄져 메모리 요구 사항을 줄이면서도 훈련 속도를 높일 수 있다. 엔비디아는 이번 제품군을 통해 각국 조직이 데이터와 규제, 가치에 부합하는 소버린 AI를 구축하도록 적극 지원한다고 밝혔다. 이미 서비스나우, 퍼플렉시티, 지멘스 등 글로벌 기업들이 네모트론 모델을 자사 워크플로에 통합해 제조, 보안, 미디어 등 다양한 산업 분야에서 활용 중이다. 이날 엔비디아는 전문화된 에이전트 구축을 돕기 위해 3조 개 토큰으로 구성된 훈련 데이터셋과 '네모 짐' 등 오픈소스 라이브러리도 공개했다. 모든 도구와 데이터셋은 깃허브와 허깅 페이스를 통해 즉시 이용 가능하다. 젠슨 황 엔비디아 최고경영자(CEO)는 "오픈 혁신은 AI 발전의 토대"라며 "네모트론을 통해 첨단 AI를 개방형 플랫폼으로 전환하고, 개발자들이 대규모 환경에서 에이전틱 시스템을 구축하는 데 필요한 투명성과 효율성을 제공하겠다"고 밝혔다.

2025.12.17 14:37김미정

오픈AI, 아마존 칩 도입 저울질…"구글 추격에 인프라 다변화"

오픈AI가 아마존의 인공지능(AI) 칩 '트레이니움' 도입을 검토하고 있는 것으로 확인됐다. 17일 블룸버그통신에 따르면 오픈AI는 아마존으로부터 최소 100억 달러(약 14조원) 규모 투자를 유치하고, 그 조건으로 아마존의 자체 AI 반도체인 트레이니움을 도입하는 초기 논의를 진행 중이다. 이번 거래가 성사될 경우 오픈AI의 기업가치는 5천억 달러(약 740조3천억원)를 웃돌 것으로 전망된다. 이는 최근 오픈AI가 직원 지분 매각을 통해 시장에서 평가받은 몸값과 유사한 수준이다. 오픈AI가 아마존 칩에 눈을 돌린 배경에는 경쟁사 구글의 성장세가 자리 잡고 있다. 최근 구글클라우드가 텐서처리장치(TPU)로 개발한 '제미나이3'가 오픈AI의 'GPT-5.1' 성능을 능가한다는 평가를 받아서다. 이에 위기감을 느낀 오픈AI 경영진이 내부적으로 '코드 레드'를 발령한 것으로 알려졌다. 업계에선 엔비디아 그래픽처리장치(GPU)에 의존해온 오픈AI는 인프라 다변화를 생존 전략으로 선택했다는 분위기다. 아마존은 트레이니움이 기존 칩 대비 학습과 추론 비용이 저렴하고 연산 효율이 높다는 점을 강조해 왔다. 이달 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '트레이니움3'를 공개했다. 트레이니움3는 전작 대비 전력 소비량을 40%가량 낮췄다. 엔비디아 GPU보다 AI 모델 훈련·운영 비용이 최대 절반 수준까지 줄어들 수 있다. 아마존웹서비스(AWS) 입장에서도 이번 협력은 절실한 상황이다. 임대형 컴퓨팅 파워 분야에서는 세계 최대 사업자지만, 정작 알짜배기인 AI 모델 개발 시장에서는 마이크로소프트와 구글에 밀리고 있어 차별화된 계기가 필요한 상황이다. 두 기업의 협상은 지난해 10월 오픈AI가 기업 구조 개편을 마친 직후 시작된 것으로 전해졌다. 당시 개편 과정에서 오픈AI의 최대 투자자인 마이크로소프트는 약 27%의 지분을 확보한 바 있다. 오픈AI와 아마존은 지난달 AWS가 7년간 380억 달러(약 56조2천600억원) 규모의 컴퓨팅 파워를 공급하는 계약을 맺은 바 있다. 당시 계약은 수십만 개의 엔비디아 칩 사용을 전제로 했다. 블룸버그통신은 "오픈AI가 GPU 공급 부족과 비용 문제를 해결하기 위해 아마존의 손을 잡으려 한다"며 "트레이니움 도입은 단순한 비용 절감을 넘어, 구글의 TPU 진영에 맞서기 위한 인프라 독립 선언과 같다"고 분석했다.

2025.12.17 13:57김미정

엔비디아, HPC·AI 오픈소스 생태계 확장…스케드엠디 인수

엔비디아가 고성능 컴퓨팅(HPC)과 인공지능(AI)을 아우르는 오픈소스 생태계를 넓히기 위해 기업을 인수했다. 엔비디아는 오픈소스 워크로드 관리 시스템 개발사 스케드엠디를 인수했다고 17일 공식 발표했다. 엔비디아는 가속 컴퓨팅 플랫폼과 스케드엠디의 기술력을 결합해 연구자와 개발자, 기업 전반의 AI 혁신 속도를 높이겠다는 구상이다. 스케드엠디가 개발한 '슬럼'은 확장성과 처리량, 복잡한 정책 관리 능력이 뛰어나 업계를 선도하는 작업 스케줄러로 평가받는다. 실제로 전 세계 상위 500대 슈퍼컴퓨터 중 상위 10개 시스템과 100위권 내 시스템의 절반 이상이 슬럼을 채택해 사용 중이다. 엔비디아는 인수 후에도 슬럼을 벤더 중립적인 오픈소스 소프트웨어(SW)로 유지하며 지속적인 개발을 지원할 방침이다. 이를 통해 엔비디아 하드웨어(HW)뿐만 아니라 이기종 클러스터에서도 효율적인 자원 관리가 가능하도록 돕는다. 특히 이번 협력은 생성형 AI 구축에 필요한 핵심 인프라를 최적화하는 데 중점을 둔다. 파운데이션 모델 개발자들은 최신 엔비디아 하드웨어에서 구동되는 슬럼을 활용해 대규모 모델 훈련과 추론에 따르는 복잡한 워크로드를 효과적으로 관리할 수 있게 된다. 이번 인수는 최근 엔비디아가 에이전틱 AI 개발을 위한 '네모트론 3' 오픈 모델 제품군을 공개한 데 이은 광폭 행보다. 엔비디아는 유럽과 한국 등 각국 조직이 자체 데이터 규정에 맞는 '소버린 AI'를 구축하도록 돕는 과정에서 슬럼의 기술력을 적극 활용할 것으로 보인다. 대니 오블 스케드엠디 최고경영자(CEO)는 "향후 슬럼을 강화해 차세대 요구를 충족시킬 것"이라며 "슬럼은 앞으로도 오픈소스로 유지될 것"이라고 밝혔다.

2025.12.17 12:57김미정

HP, 'ZGX 나노 G1n AI 스테이션' 국내 출시

HP코리아가 17일 개발자와 데이터 사이언티스트 등 AI 관련 직군 종사자를 위한 초소형 워크스테이션 'ZGX 나노 G1n AI 스테이션'을 국내 출시했다. ZGX 나노 G1n AI 스테이션은 기존 데스크톱·노트북 환경에서 부족했던 대형 모델 처리와 개발자 경험을 보완하고, 기업의 AI 워크플로우를 단계적으로 확장할 수 있는 기반을 제공한다. 엔비디아 블랙웰 아키텍처 기반 GPU 'GB10'과 Arm IP 기반 20코어 그레이스(Grace) CPU를 결합한 시스템반도체(SoC), 128GB LPDDR5X 통합메모리를 탑재해 클라우드 서버 없이 각종 AI 작업을 수행할 수 있다. AI 연산 성능은 최대 1천 TOPS(1초당 1조 번 연산)이며 FP4(부동소수점 4비트) 기준 1페타플롭스 가량이다. 최대 2천억 개 매개변수(패러미터)로 구성된 AI 모델을 구동 가능하며 시스템 두 대를 연결하면 최대 4천50억 개 매개변수로 처리 능력을 확장한다. 우분투 리눅스 기반 엔비디아 DGX OS로 구동되며 비주얼 스튜디오 코드, ML플로우, 올라마, 언솔로스 등 주요 개발도구를 통합한 ZGX 툴킷이 기본 탑재된다. 비주얼 스튜디오 코드 확장 프로그램을 이용하면 같은 네트워크에 있는 ZGX 나노 장치를 자동으로 검색·연결해 개발 준비 과정을 단순화한다. 저장공간은 1/4TB NVMe M.2 SSD 중 선택 가능하며 암호화를 지원한다. HP코리아 제품 웹사이트에서 구매 전 상담과 견적을 제공한다.

2025.12.17 10:50권봉석

리벨리온, 내년 IPO 청구 목표…美기업과 '리벨' PoC 진행

국내 AI 반도체 스타트업 리벨리온이 내년 기업공개(IPO) 예비심사 청구를 목표로 본격적인 상장 준비에 들어간다. 동시에 미국 주요 업체들과 2세대 AI 반도체를 대상으로 한 PoC(개념검증)를 진행 중이며, 글로벌 시장 진출을 위한 실증 단계에 돌입했다. 리벨리온은 16일 경기 성남시 정자동 본사에서 기자간담회를 열고 IPO 추진 일정과 글로벌 사업 현황을 공개했다. 회사는 삼성증권을 주관사로 선정해 상장 준비를 진행 중이며, 이미 2년 차 지정감사를 받고 있다고 밝혔다. 신성규 리벨리온 CFO(최고재무책임자)는 “지난 5년간 약 6천500억원의 투자를 유치했고, 최근 시리즈C를 통해 3천500억원을 추가로 조달했다”며 “대규모 자금 조달이 필수적인 사업 구조인 만큼 상장 시장을 통한 자금 확보를 계획하고 있다”고 설명했다. 상장 시점과 관련해서는 “내년이 매우 중요한 해가 될 것”이라며 “내년 예비심사 청구를 목표로 준비하고 있다”고 밝혔다. 리벨리온은 상장 시장으로는 한국을 우선 고려하고 있다. 박성현 리벨리온 대표는 “국내에서 성장해온 기업으로서 한국 시장을 먼저 선택하는 것이 순서”라면서도 “필요하다면 듀얼 상장 등 다양한 시나리오를 열어두고 있다”고 전했다. 글로벌 사업 측면에서는 미국 메이저 업체들과의 PoC 진행 상황이 핵심이다. 리벨리온은 현재 2세대 AI 반도체 리벨 쿼드(Rebel Quad)를 중심으로 미국 주요 기업들과 PoC를 진행 중이며, 결과에 따라 향후 대규모 상용 계약으로 이어질 가능성도 열려 있다는 입장이다. 박 대표는 “PoC는 고객사 입장에서 상당한 비용과 시간이 투입되는 과정”이라며 “알 만한 글로벌 업체들과 검증 단계에 있다”고 밝혔다. 이번 PoC의 중심에는 리벨리온의 2세대 칩 '리벨 쿼드(Rebel Quad)'가 있다. 리벨 쿼드는 HBM3(5세대 고대역폭 메모리)를 적용한 고성능 추론용 AI 반도체로, 칩렛 구조를 통해 다이를 4개 결합한 것이 특징이다. 회사는 현재 실리콘 샘플을 확보해 고객사 피드백을 받고 있으며, 글로벌 시장을 겨냥한 주력 제품으로 육성한다는 계획이다. 리벨리온은 1세대 칩 아톰(ATOM)이 이미 KT 클라우드 등에서 상용화된 것과 달리, 2세대 칩은 글로벌 하이엔드 추론 시장을 직접 겨냥하고 있다고 강조했다. 박 대표는 “1세대 칩이 비용 효율성과 실사용 중심이었다면, 2세대 칩은 성능과 확장성을 중시한 글로벌 전략 제품”이라며 “두 제품은 우열의 문제가 아니라 타깃 시장이 다르다”고 설명했다. 특히 리벨리온은 추론(Inference) 시장을 차세대 AI 반도체 경쟁의 핵심 무대로 보고 있다. 박 대표는 “현재 AI 인프라는 여전히 트레이닝 중심이지만, 추론 전용 반도체에 대한 수요가 본격적으로 열리는 시점이 다가오고 있다”며 “미국 메이저 업체들과의 PoC는 그 가능성을 검증하는 과정”이라고 강조했다. 한편 리벨리온은 내년 PoC 결과를 바탕으로 글로벌 레퍼런스를 확보하고, 이를 발판 삼아 본격적인 해외 매출 확대와 IPO 이후 성장 전략을 추진한다는 계획이다.

2025.12.16 15:38전화평

엔비디아 '네모트론 3' 공개..."개인 PC로 나만의 AI 비서 구축"

엔비디아가 자신만의 인공지능(AI) 비서를 구축할 수 있도록 오픈 모델과 최적화 도구를 공개했다. 엔비디아에 '네모트론 3' 오픈 모델 제품군을 공개하고 '언슬로스' 프레임워크를 통해 거대언어모델(LLM) 미세 조정을 가속화한다고 16일 밝혔다. 이를 통해 사용자는 엔비디아 RTX AI PC와 DGX 스파크 환경에서 학습, 업무, 창작 등 목적에 맞는 맞춤형 AI 어시스턴트를 구축할 수 있다. 이번 발표 핵심은 '미세 조정'의 대중화다. 소형언어모델(SLM)은 전문적인 작업에서 정확도가 떨어지는 한계가 있었으나 엔비디아는 이를 해결하기 위해 모델을 특정 작업에 맞춰 훈련시키는 미세 조정 기술에 주목했다. 함께 도입된 언슬로스는 세계적으로 널리 쓰이는 오픈소스 프레임워크로 엔비디아 그래픽처리장치(GPU) 메모리 사용을 최소화해 훈련 효율을 높인다. 이 도구는 허깅페이스 트랜스포머 라이브러리 성능을 최대 2.5배까지 향상시켜 연구자와 개발자가 복잡한 연산을 신속하게 처리하도록 돕는다. 엔비디아는 미세 조정의 기반이 될 '네모트론 3' 제품군도 선보였다. 이 중 '네모트론 3 나노'는 하이브리드 전문가 혼합(MoE) 아키텍처를 기반으로 설계돼 현재 출시된 라인업 중 가장 높은 컴퓨팅 효율을 기록했다. 이 모델은 추론에 필요한 토큰을 최대 60% 줄여 비용을 절감하면서도 100만 토큰의 컨텍스트 윈도우를 지원한다. 긴 시간 동안 진행되는 다단계 작업에서도 AI가 맥락을 잃지 않고 훨씬 많은 정보를 유지할 수 있다는 설명이다. 개발자는 목표에 따라 파라미터 효율적 미세 조정(LoRA), 완전 미세 조정, 강화 학습 등 다양한 방식을 선택할 수 있다. 특히 LoRA 방식은 모델의 일부만 업데이트해 저비용으로 도메인 지식을 추가하거나 코딩 정확도를 높이는 데 유용하다. 엔비디아는 이번 나노 모델 공개에 이어 내년 상반기에 멀티 에이전트용 '네모트론 3 슈퍼'와 복잡한 애플리케이션용 '네모트론 3 울트라'를 순차적으로 출시할 예정이다. 엔비디아는 "네모트론 3 제품군은 업계 선도적인 정확도와 효율성을 갖춘 오픈 모델로 에이전틱 AI 애플리케이션 구축에 이상적"이라며 "개방형 훈련 데이터세트와 최첨단 강화 학습 라이브러리를 통해 AI 생태계를 지속적으로 확장할 것"이라고 강조했다.

2025.12.16 10:41김미정

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호

'SPHBM4' 표준 제정 임박…삼성·SK AI 메모리 새 국면 예고

반도체 업계가 새로운 HBM(고대역폭메모리) 개발을 구상하고 있다. 해당 제품은 기존 HBM과 동일한 성능을 구현하면서도 설계 난이도 및 제조비용을 대폭 낮춘 것이 특징이다. 실제 상용화 추진 시 삼성전자·SK하이닉스 등 메모리 기업들은 물론, TSMC·엔비디아 등 관련 생태계에 있는 기업 전반이 상당한 영향을 받을 것으로 예상된다. 15일 업계에 따르면 JEDEC(국제반도체표준협의회)은 새로운 HBM 표준인 'SPHBM4(Standard Package HBM)' 개발의 마무리 단계에 접어들었다. I/O 수 줄여도 대역폭 그대로…SPHBM4 개념 등장 HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)를 뚫어 전기적으로 연결한 고성능 메모리다. 이 경우 대역폭을 기존 D램 대비 크게 향상시킬 수 있게 된다. 대역폭은 초당 얼마나 많은 데이터를 주고받을 수 있는 지를 나타내는 척도다. 데이터 전송 통로인 I/O(입출력단자) 핀 수를 늘리거나, I/O 핀 당 전송속도를 높이는 방법으로 향상시킬 수 있다. 일례로, 6세대 HBM인 HBM4은 데이터 전송 통로인 I/O 핀 수를 기존(1천24개) 대비 2배로(2천48개) 늘리면서 성능을 높였다. SPHBM4는 HBM4와 동일한 D램을 채용했다. 그러나 I/O 핀 수를 4:1 비율로 직렬화(Serialization)해, I/O 핀 수를 4분의 1로 줄이면서도 HBM4와 동일한 대역폭을 지원한다는 특징을 가진다. 직렬화란 여러 개의 I/O 핀에서 동시에 처리되던 데이터를 단일 I/O 핀에서 순차적으로 처리하는 방식을 뜻한다. 4:1 비율의 경우, 기존 4개 I/O 핀에서 처리되던 데이터 양을 1개 I/O 핀이 4번의 처리로 담당하게 된다. 결과적으로 SPHBM4가 잘 구동되기 위해서는 I/O 핀 당 전송속도를 4배 이상 안정적으로 구현하는 직렬화 인터커넥트 기술이 핵심이 될 것으로 관측된다. 직렬화 인터커넥트 기술로 HBM용 베이스(로직) 다이를 설계하는 미국 반도체 스타트업 엘리얀(eliyan)도 "몇 개월 내에 SPHBM4 표준이 발표되기를 기대하고 있다"며 SPHBM4에 대한 환영의 뜻을 밝혔다. 베이스 다이는 메모리의 컨트롤러 기능을 담당하는 다이다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해 데이터를 주고받을 수 있도록 만들어준다. SPHBM4가 도입되면 베이스 다이 역시 새로운 구조로 설계돼야 할 것으로 관측된다. SPHBM4 도입 시 제조 난이도·비용 감소 가능 I/O 핀 수가 512개로 줄어들게 되면, 전체 HBM 패키지에서 가장 큰 변화를 맞이하게 되는 부분은 인터포저다. 인터포저는 칩과 PCB(인쇄회로기판) 사이에 삽입하는 얇은 기판이다. AI 가속기 내부의 HBM과 로직 칩은 수많은 I/O 핀이 촘촘히 박혀 있어, PCB가 직접 대응하기가 힘들다. 이 때 미세한 배선층(RDL)을 가진 인터포저를 삽입하면 칩과 PCB의 연결을 수월하게 만들어 준다. 이렇게 HBM과 GPU를 인터포저로 연결하는 기술을 2.5D 패키징이라 부른다. 대만 주요 파운드리인 TSMC가 이 분야에서 독보적인 기술력을 확보하고 있으며, 자체적으로 'CoWoS(칩-온-웨이퍼-온-서브스트레이트)'라는 브랜드명을 붙이고 있다. 그간 TSMC는 실리콘 인터포저, 혹은 더 작은 크기의 실리콘 브릿지로 CoWoS 공정을 제조해 왔다. 실리콘 소재가 비싼 편에 속하지만, 배선 밀도를 높일 수 있어 고집적 회로 대응에 유리하기 때문이다. 반면 SPHBM4는 I/O 핀 수가 적어 기존만큼 고밀도 기판이 필요하지 않아, 유기(Organic) 인터포저만으로도 충분히 대응이 가능하다. 유기 인터포저는 실리콘 대비 배선 밀도가 낮지만, 가격이 저렴하기 때문에 패키지 제조 비용을 낮출 수 있다. 또한 유기 인터포저는 보다 유연한 설계가 가능해, HBM과 시스템반도체 간 채널 길이를 더 길게 만들 수 있다. 이를 통해 SPHBM을 더 많이 배치해, 결과적으로 총 메모리 용량을 늘릴 수 있다는 게 JEDEC의 설명이다. 이는 TSMC의 CoWoS 기술의 일종인 'CoWoS-R'의 HBM 도입을 가속화할 것으로 기대된다. CoWoS-R은 실리콘 인터포저 대신 유기 인터포저를 사용하는 개념이다. 실제 상용화 가능성은 아직 미지수 다만 SPHBM4가 실제 상용화될 지는 아직 미지수다. JEDEC은 "SPHBM4 표준은 개발 중이거나 개발 후 변경될 수 있으며, JEDEC 이사회에서 승인이 거부될 수도 있다"고 설명했다. 삼성전자, SK하이닉스 등 국내 반도체 업계에서도 SPHBM4에 대해 공식적으로 언급한 사례는 아직 없는 것으로 파악된다. 메모리 업계 한 고위 임원은 "SPHBM4 표준 제정은 HBM 기반의 AI 가속기 제조 비용을 줄이기 위한 여러 시도 중 하나로 보인다"며 "다만 현재 빅테크 기업들은 HBM의 속도 및 밀도를 동시에 강화하는 방향을 강하게 밀어부치고 있다"고 말했다.

2025.12.15 11:22장경윤

엔비디아 "데이터센터용 GPU 위치 등 추적 솔루션 개발 중"

엔비디아가 10일(현지시간) 데이터센터용 GPU의 상태와 작동 위치를 파악할 수 있는 소프트웨어 기반 모니터링 솔루션을 개발하고 있다고 밝혔다. 엔비디아는 공식 블로그에 올린 글에서 “AI 인프라의 규모와 복잡성이 커질수록 데이터센터 운영자는 성능, 온도, 전력 사용량 등 요소에 대한 지속적인 가시성이 필요하다”고 개발 배경을 설명했다. 엔비디아가 개발중인 솔루션은 데이터센터에 설치된 엔비디아 GPU를 모니터링할 수 있는 대시보드를 제공한다. 엔비디아 GPU를 도입한 고객사가 필요할 경우 자발적으로 설치하는 옵트인(opt-in) 방식이다. 엔비디아에 따르면 데이터센터 운영사는 전력 사용 급증을 추적해 에너지 예산을 준수하면서 와트당 성능을 극대화하고, GPU 활용률과 메모리 대역폭, 인터커넥트 상태를 플릿 전체에서 모니터링할 수 있다. 엔비디아는 제기될 수 있는 보안 우려에 대해 "이 서비스는 각 GPU 시스템이 외부 클라우드 서비스와 GPU 메트릭을 공유하는 방식으로 실시간 모니터링만 제공한다. 엔비디아 GPU에는 하드웨어 추적 기술이나 킬 스위치, 백도어가 없다"고 밝혔다. 엔비디아의 새 솔루션은 최근 강화되고 있는 미국의 AI 칩 수출 규제 논의와 맞물려 있다. 미국 정부는 중국을 비롯한 일부 국가에 대한 고성능 AI GPU 수출을 금지하고 있다. 의회 일각에서는 엔비디아 제품에 보다 강력한 추적·검증 기능을 탑재해야 한다는 요구가 제기되고 있다. 공화당 소속 톰 코튼 상원의원을 포함해 양당 의원들이 지지하는 '칩 보안법'(Chip Security Act)'은 첨단 AI 칩에 보안 및 위치 검증 기능을 의무화하는 내용을 담고 있다. 반면 중국 정부는 엔비디아 제품에 잠재적 모니터링 백도어와 보안 취약점이 존재한다는 점을 통보했으며, 국가안보 검토 이후 일부 고성능 칩, 특히 H200 제품의 도입을 제한하고 있다.

2025.12.14 09:29권봉석

두산, CCL용 설비투자 확대…AI칩 시장 공략 가속화

두산 전자BG가 CCL(동박적층판) 생산 능력을 빠르게 확대하고 있다. 최근 올해 설비 투자규모를 기존 계획 대비 늘린 것으로 나타났다. 전 세계 AI 반도체 개발 경쟁에 맞물려 빠르게 증가하는 고부가 CCL 수요에 대응하기 위한 전략으로 풀이된다. 14일 두산에 따르면 이 회사는 올해 CCL 관련 설비투자에 약 1천70억원을 투입할 예정이다. 당초 올해 예상 투자규모인 865억원 수준에서 23%가량 늘었다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재로, 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층해 만들어진다. 현재 반도체 패키징·전자기기·통신 등 다양한 산업에 쓰이고 있다. 최근 CCL은 AI 반도체 시장을 중심으로 수요가 급증하고 있다. 엔비디아·AMD 등 글로벌 팹리스는 물론, 구글·AWS·메타 등 CSP(클라우드서비스제공자) 기업들이 자체 AI 가속기 개발에 뛰어든 데 따른 효과다. AI 반도체가 방대한 양의 데이터를 처리해야 하는 만큼, CCL도 더 뛰어난 고주파·고속·저손실을 갖춘 제품이 필요하다. 덕분에 두산의 증평·김천 등 일부 CCL 생산라인은 현재 가동률 100%를 넘기는 등 공급 여력이 빠듯한 상황이다. 이에 두산은 CCL 생산능력을 오는 2027년 초까지 기존 대비 50% 확대하겠다는 계획을 세운 바 있다. 최근에는 투자 규모를 확대하고 있기도 하다. 회사 분기보고서에 따르면, 두산은 올해 CCL용 설비투자에 1천70억원을 투자할 계획이다. 올해 중반 제시했던 금액인 865억원 대비 200억원 가량이 늘었다. CCL 수요가 예상 대비 강력한 만큼 투자에 속도를 내려는 전략으로 풀이된다. 두산 전자BG는 지난 2023년부터 엔비디아에 납품을 시작해, 지난해 'B100' 등 주요 AI 반도체의 핵심 공급망으로 자리잡는 등의 성과를 거뒀다. 나아가 엔비디아가 내년 하반기 출시할 예정인 '루빈' 칩에서도 상당한 공급 점유율을 차지할 수 있을 것으로 관측된다. 특히 두산은 컴퓨팅 트레이용 CCL 부문을 주도하고 있어, 시장 지위가 더 공고한 것으로 평가 받는다. CCL은 적용 분야에 따라 컴퓨팅 트레이와 스위치 트레이로 나뉘며, 이 중 컴퓨팅 트레이용 CCL이 기술적으로 진입 장벽이 더 높은 것으로 알려져 있다. 고객사 확장도 기대 요소 중 하나다. 현재 두산은 엔비디아 외에도 아마존웹서비스(AWS), 구글과 CCL 공급을 논의 중이다. 내년부터 본격적인 공급이 예상된다. 양승수 메리츠증권 연구원은 최근 보고서를 통해 "기존 GPU 고객사가 아닌 신규 GPU 고객사향 공급이 본격화될 전망"이라며 "북미 CSP A사향 스위칭용 CCL 공급도 새롭게 개시됐고, G사향 ASIC용 CCL도 국내 기판 업체와 공동 퀄(품질 테스트)을 완료해 내년 상반기 본격 양산이 예상된다"고 밝혔다.

2025.12.14 09:03장경윤

엔비디아는 왜 액침냉각을 인증하지 않을까

데이터센터 전력 효율을 높이기 위한 냉각 기술 경쟁이 본격화되고 있지만, 업계에서는 한 가지 의문이 여전히 남아 있다. 엔비디아는 왜 액침냉각(Immersion Cooling)에 공식 인증을 부여하지 않는가이다. 현재 엔비디아는 고성능 GPU 서버에 적용할 수 있는 냉각 방식으로 D2C(Direct to Chip) 액체냉각만 공식 지원하고 있다. 반면, GPU 전체를 특수 절연액에 담가 열을 제거하는 액침냉각은 아직 인증 리스트에 포함되지 않았다. 이는 액침냉각 기술이 상용화 단계로 넘어가는 데 있어 가장 큰 문턱으로 꼽힌다. 업계 “엔비디아의 수익 구조가 걸림돌” 12일 업계에 따르면 엔비디아가 액침냉각에 공식 인증을 부여하지 않는 직접적인 이유로 수익 구조와 생태계 통제 문제가 거론된다. 단순한 기술 완성도의 문제가 아니라, 향후 데이터센터 시장에서의 주도권과 직결된 사안이라는 분석이다. 냉각 업계 한 관계자는 “엔비디아가 현재 인증하고 있는 D2C 방식 액체냉각은 랙 단위에서 적용되는 구조”라며 “GPU와 서버 판매 구조에는 큰 변화가 없다”고 설명했다. 반면 액침냉각은 서버 전체를 액체에 담그는 방식인 만큼, 냉각 솔루션이 서버 설계와 패키징의 중심으로 올라설 수밖에 없다는 점에서 차이가 크다. “액침은 서버까지 팔 수 있는 구조” 다른 전문가는 액침냉각과 기존 액체냉각의 가장 큰 차이를 '판매 단위'에서 찾았다. D2C 방식 액체냉각은 랙 단위 또는 인프라 확장 수준에서 적용되지만, 액침냉각은 서버 자체가 하나의 완성 제품이 된다는 것이다. 다른 냉각 업계 관계자는 “액침냉각이 본격화되면 냉각 업체는 단순 단품 공급사가 아니라 서버 랙 시스템 및 쿨링시스템을 결합한 통합 솔루션 공급자가 된다”며 “이는 GPU 중심으로 구축된 엔비디아의 기존 사업 구조와는 결이 다른 방향”이라고 설명했다. 즉, 액침냉각이 확산될 경우 냉각 기술을 보유한 업체가 서버 설계와 구성의 주도권을 쥘 수 있고, 이는 엔비디아가 주도해온 GPU-서버 생태계에 변화를 가져올 수 있다는 의미다. 엔비디아가 액침냉각 인증에 신중할 수 밖에 없는 이유다. 언젠가는 넘어야 할 선택지 다만 업계에서는 엔비디아가 액침냉각을 영구적으로 배제하기는 어려울 것으로 보고 있다. AI 학습과 추론 수요가 폭발적으로 증가하면서 GPU 집적도와 전력 밀도 역시 한계치에 다다르고 있기 때문이다. 냉각 업계 관계자는 “전력 밀도가 지금보다 더 올라가면 D2C 방식만으로는 대응이 어려운 시점이 올 수밖에 없다”며 “그때가 되면 엔비디아 역시 액침냉각을 하나의 선택지로 검토할 가능성이 크다”고 내다봤다.

2025.12.12 16:31전화평

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤

중국 AI 강자 딥시크, 엔비디아 블랙웰 밀반입 의혹

중국 인공지능(AI)업체 딥시크가 미국의 대중국 수출 제한을 피하기 위해 제3국을 통해 엔비디아 그래픽처리장치(GPU)를 반입했다는 의혹이 제기됐다. 11일 미국 디인포메이션은 복수 관계자를 인용해 딥시크가 엔비디아 '블랙웰' 아키텍처 기반 GPU 수천 개를 밀반입해 새 AI 모델을 개발 중이라고 단독 보도했다. 그동안 중국 내 여러 AI 기업이 엔비디아 칩 사용이 가능한 해외 지역에서 차세대 모델 실험을 이어온 것으로 알려졌다. 딥시크 역시 동남아 지역에 위치한 중국 외 자본의 데이터센터 기반으로 테스트 환경을 구축해 왔다. 보통 GPU나 서버가 제3국 데이터센터에 설치되면 엔비디아·델·슈퍼마이크로 등 장비 공급사 엔지니어들이 현장을 방문해 수출 통제 규정을 지켰는지 최종 점검한다. 내부 소식통들은 딥시크가 점검을 마친 뒤 서버를 부품 단위로 해체해 중국 본토로 반입해 사용했다고 주장했다. 앞서 도널드 트럼프 미국 대통령은 중국에 대해 구세대 '호퍼' 기반 H200 칩은 반출을 허용했지만, 최신 블랙웰과 차세대 루빈 아키텍처는 허용 대상에 포함되지 않는다고 밝힌 바 있다. 딥시크는 해당 논란에 대해 공식 입장을 내놓지 않고 있다. 엔비디아는 "장비를 설치한 뒤 다시 해체해 몰래 반출한다는 이른바 '유령 데이터센터' 사례는 접수한 바 없다"며 "제보가 들어오면 모두 확인한다"고 밝혔다. 이날 로이터는 "최근 엔비디아가 칩 위치를 추적할 수 있는 소프트웨어(SW) 기능을 새로 개발했다"며 "우회 반입 자체가 크게 제한될 수 있다"고 분석했다.

2025.12.11 10:06김미정

"엔비디아 GPU 있어도 전기세 걱정"…AI 인재 육성 막힌 대학 현실

"국내 대학이 엔비디아 그래픽처리장치(GPU)를 확보하기 시작했습니다. 그러나 사용량이 늘어날수록 매월 수십억원에 달하는 전기료 압박을 겪고 있습니다. 이를 해결할 수 있는 보호 장치가 절실합니다." 연세대 한순구 경제학과 교수는 9일 일 국회 본청에서 열린 과학기술정보방송통신위원회 공청회에서 AI 인재 양성 걸림돌에 대해 이같은 사례를 공유했다. 인재 배출을 위한 인프라 보급 정책이 새로운 문제를 낳고 있다는 설명이다. 한 교수는 GPU 전기값이 부담스럽다는 교내 공대 교수 목소리를 공유했다. 그는 "우리 학교는 매달 몇십억 씩 드는 전기값을 감당하기 어려운 상황으로 보인다"며 "정부가 엔비디아 GPU를 학교에 제공해도 전기세 때문에 마음 놓고 쓸 수 없는 것으로 알고 있다"고 말했다. 학교가 GPU 활용을 위한 내부 결재와 예산 압박으로 장비 사용에 부담을 느낀다는 설명이다. 정부가 AI 인재 양성을 위해 대학에 GPU를 제공하지만, 막상 대학은 전기료로 이를 제대로 돌리지 못하는 실정이다. 앞서 정부는 대학을 비롯한 연구소, 스타트업 등이 고성능 GPU를 활용할 수 있도록 'AI 컴퓨팅 자원 임차 지원' 제도를 운용하기 시작했다. 이 제도는 엔비디아 GPU를 정부가 대량 확보한 뒤 공공·산학연 기관에 클라우드 형태로 제공하는 식이다. 또 GPU 서버 단위·카드 단위 등으로 선택해 임차할 수 있다. 이날 국내 AI 인재 해외 유출은 여전하다는 목소리도 나왔다. 국내 AI 대학원에서도 박사급 인재가 배출되기 시작했지만, 유능한 인재는 해외 빅테크나 연구소로 떠난다는 지적이다. 최재식 김재철AI대학원 교수는 "앞으로 해외로 떠난 AI 인재를 국내로 귀환시키는 '순환형 인재 육성 모델'이 절실하다"고 주장했다. 한순구 교수도 "미국과 중국에 인재를 보내서 기술을 습득시킨 뒤 다시 한국으로 오게 만드는 모델도 만드는 게 좋을 것"이라고 강조했다. 더불어민주당 최형두 의원은 "현재 아시아 최고 수준의 이공계·자연계 졸업생을 한국으로 유치하는 제도를 만들고 있다"며 "이를 위해 영주권·국적 취득 절차 간소화와 장기 연구비자 확대 등을 추진하고 있다"고 설명했다. 이어 "이는 국내 대학·연구기관의 교수·연구인력 부족 문제를 완화하는 효과도 있을 것"이라고 기대했다.

2025.12.09 15:49김미정

LG CNS 파트너 美 스킬드 AI, 7개월만에 기업가치 3배 올랐다…왜?

LG CNS와 지난 6월 전략적 협력 계약을 체결한 미국 인공지능(AI) 로봇 스타트업 스킬드 AI가 소프트뱅크그룹, 엔비디아로부터 또 다시 대규모 자금 수혈을 받을지 주목된다. 9일 테크크런치, 로이터통신 등 주요 외신에 따르면 소프트뱅크그룹, 엔비디아는 최근 스킬드AI에 10억 달러(약 1조4천억원) 이상을 투자하는 방안을 논의 중인 것으로 알려졌다. 이번 투자 성사 시 스킬드AI의 기업가치는 140억 달러로 평가된다.창립 3년차인 스킬드 AI는 컴퓨터 및 로봇 공학 분야 석학인 디팍 파탁, 아비나브 굽타 카네기멜론대 교수가 공동 창업한 AI 로봇 스타트업이다. 핵심 기술은 로봇의 두뇌 역할을 하는 로봇 파운데이션 모델(RFM)로 이미지, 텍스트, 음성, 영상 등 대량의 데이터를 학습해 로봇이 자율적으로 탐색하고 물체를 조작하고 주변 환경과의 상호 작용하는 작업을 가능케 한다. 또 휴머노이드 로봇뿐만 아니라 모든 형태의 로봇에 적용할 수 있는 범용성을 갖춘 것도 특징이다. 지난 7월에는 범용 로봇 모델 '스킬드 브레인'을 공개해 주목을 끌었다. 공개 영상에는 로봇이 접시를 집고 계단을 오르내리는 모습이 담겼다. 테크크런치는 "스킬드 AI는 막대한 자금을 조달하는 다른 스타트업들과 달리 자체 하드웨어를 개발하지 않는다"며 "대신 다양한 유형의 로봇과 사용 사례에 맞춰 커스터마이즈할 수 있도록 하는 모델을 개발하고 있다"고 설명했다. 이 같은 기술로 스킬드 AI는 지난 5월 소프트뱅크 주도로 엔비디아, 삼성전자, LG테크놀로지벤처스 등으로부터 5억 달러를 투자 받았다. 당시 기업가치는 47억 달러였으나, 이번 투자가 성사되면 불과 7개월 만에 기업가치가 3배 가까이 오르게 된다. 이곳은 LG CNS, 휴렛팩커드엔터프라이즈(HPE)와 전략적 파트너십을 맺고 생태계 확장에도 속도를 내고 있다. 특히 LG CNS는 스킬드 AI의 로봇 파운데이션 모델을 기반으로 산업용 AI 휴머노이드 로봇 설루션을 만들어 스마트 팩토리와 스마트 물류 등 다양한 산업 영역에서 AI 휴머노이드 로봇 통합 서비스를 제공할 계획이다. 스킬드 AI처럼 AI 로보틱스 분야 관련 기업에 대한 투자자 관심도 꾸준히 증가하고 있다. 다양한 로봇에 적용 가능한 '브레인'을 개발하는 피지컬 인텔리전스(Physical Intelligence)는 최근 캐피털G가 주도하는 6억 달러 규모 투자를 받아 56억 달러의 기업가치를 평가 받았다. 올해 9월에는 휴머노이드 로봇을 개발하는 피규어(Figure)도 390억 달러 기업가치를 평가 받으며 10억 달러 이상을 조달했다. 또 다른 휴머노이드 로봇 개발사 1X는 100억 달러 기업가치 기준으로 최대 10억 달러 투자 유치 협상을 진행 중인 것으로 알려졌다. 업계 관계자는 "AI와 로봇의 결합은 단순 기술 실험을 넘어 산업과 생활을 바꿀 수 있는 새로운 기술 트렌드가 될 것"이라며 "이 가능성 때문에 투자자들이 큰 돈을 베팅 중"이라고 말했다. 또 다른 관계자는 "생성형 AI가 디지털 영역을 혁신했다면, 피지컬 AI는 이제 실제 세계를 변화시키기 시작했다"며 "로봇이 스스로 인지하고 판단하며 환경에 적응하는 시대가 열리면서 투자자들이 '다음 성장 곡선'을 로보틱스에서 찾고 있는 듯 하다"고 밝혔다. 그러면서도 "상용화까지 여전히 해결해야 할 기술적·경제적 과제들이 남아 있다는 점은 고려해야 할 사항"이라며 "시장의 기대가 너무 앞서가고 있다는 우려도 있는 만큼, 냉정한 검증도 필요한 시기"라고 덧붙였다.

2025.12.09 10:20장유미

트럼프 "엔비디아 H200 中 수출 허용"…HBM 수요 촉진 기대

미국 정부가 엔비디아의 고성능 인공지능(AI) 반도체 'H(호퍼)200' 수출을 허가하기로 했다. 도널드 트럼프 미국 대통령은 8일(현지시간) SNS 트루스소셜을 통해 "미국 국가안보 유지 조건 하에, 엔비디아가 중국 및 다른 국가의 승인된 고객에 H200을 공급하는 것을 허용할 것이라고 시진핑 중국 국가주석에게 통보했다"며 "시 주석도 긍정적으로 반응했다"고 밝혔다. H200은 엔비디아가 지난해 본격 양산한 AI 반도체다. 최신 세대인 '블랙웰' 시리즈보다는 구형이지만, 매우 강력한 데이터 처리 성능을 자랑한다. 특히 일부 AI 기능이 엔비디아가 중국 시장을 겨냥해 만들었던 H20의 6배를 웃도는 것으로 알려져 있다. 엔비디아는 지난 2022년 미국의 규제로 AI 반도체를 중국에 수출할 수 없게 되자, AI반도체인 H100의 성능을 대폭 낮춰 H20을 개발한 바 있다. 트럼프 대통령의 결정으로, 엔비디아는 H200 판매액의 25%를 미국에 지급하는 조건으로 수출을 재개할 것으로 예상된다. 다만 블랙웰이나 엔비디아가 내년 출시할 '루빈' 칩 등은 이번 계약에 포함되지 않는다. 또한 트럼프 대통령은 “상무부가 세부 사항을 조율하고 있다"며 "AMD, 인텔 등 다른 미국 기업들에도 이러한 접근 방식이 적용될 것"이라고 밝혔다. 로이터통신은 이에 대해 "트럼프 대통령이 최신형 칩인 블랙웰 칩의 중국 수출을 허가하거나, 아예 칩 수출을 막는 방안 사이의 타엽한을 낸 것으로 보인다"고 논평했다. H200의 수출 재개는 삼성전자, SK하이닉스 등 국내 메모리 기업들의 HBM 수요를 촉진할 수 있을 것으로 관측된다. H200은 HBM3E 8단 제품을 탑재한다. 현재 HBM은 HBM3E 12단까지 상용화된 상태로, 내년부터는 HBM4 양산이 본격화된다.

2025.12.09 08:31장경윤

노타, 엔비디아 '커넥트' 공식 파트너 선정…NVA 글로벌 확장 가속

노타가 엔비디아의 글로벌 파트너 프로그램 '커넥트(Connect)'에 공식 선정되며 글로벌 시장 진출에 박차를 가한다. 노타(대표 채명수)는 엔비디아의 글로벌 독립 소프트웨어 공급업체(ISV) 파트너 프로그램 '커넥트' 공식 파트너로 선정됐다고 8일 밝혔다. 노타는 그동안 엔비디아 인셉션과 인셉션 프리미어, 메트로폴리스 파트너를 단계적으로 거치며 협력 범위를 넓혀왔다. 스타트업 지원 프로그램에서 출발한 파트너십이 실제 산업 적용과 공동 비즈니스 모델 개발 단계까지 이어지며 엔비디아 생태계 내 입지를 꾸준히 키워온 셈이다. 엔비디아 커넥트 프로그램은 소프트웨어 기업과 서비스 사업자를 대상으로 고급 개발 리소스, 기술 교육, 멘토링, 우대 가격 정책 등을 제공하는 ISV 대상 글로벌 파트너십 프로그램이다. 이를 통해 파트너사는 엔비디아의 최신 AI 프레임워크와 SDK에 대한 조기 접근권, 모델 최적화 워크숍과 기술 컨설팅, 공동 마케팅 및 세일즈 협력 등 지원을 받을 수 있다. 노타는 이번 커넥트 합류로 이러한 기술·사업 지원을 본격적으로 활용해 글로벌 시장 공략을 가속화할 계획이다. 노타는 비전언어모델 기반 실시간 영상 분석 솔루션 '노타 비전 에이전트(NVA)'를 앞세워 엔비디아 GPU 인프라와의 연계를 빠르게 확대해왔다. NVA는 영상 속 객체를 단순 인식하는 수준을 넘어, 객체 간 관계, 작업 절차 위반, 복합적인 위험 징후까지 실시간으로 파악하는 차세대 영상 관제 솔루션이다. 교통, 산업안전 등 다양한 환경에서 발생하는 대규모 CCTV 영상을 지능적으로 분석하고, 상황 맥락을 반영해 이벤트를 요약·리포트 형태로 제공하도록 설계됐다. 특히 NVA는 엔비디아의 센터형 GPU 서버와 엣지형 디바이스를 모두 지원하도록 설계돼, 데이터센터와 현장 엣지 단 모두에서 유연하게 운용할 수 있다는 점이 강점이다. 노타는 엔비디아의 영상 검색·요약 도구인 'VSS 블루프린트'를 활용해 CCTV 영상에서 발생하는 이상 상황을 실시간으로 탐지·요약하고, 관련 장면을 추려 제공함으로써 관제 인력의 대응 시간을 단축하고 있다고 설명했다. NVA가 지향하는 '시각 데이터에서 실행 가능한 인사이트로의 전환'이라는 목표와도 맞닿은 대목이다. NVA의 기술적 완성도는 외부 행사에서도 주목받고 있다. 최근 열린 '엔비디아 AI Day Seoul 2025'에서 엔비디아는 노타의 NVA를 실시간 영상 관제 분야 대표 성공 사례로 소개하며, 산업·공공 분야에서의 확장 가능성을 높게 평가한 것으로 전해졌다. 앞서 노타는 코오롱베니트와 협력해 코오롱인더스트리 공장에서 개념검증(PoC)를 완료하고 NVA 기반 패키지 제품을 선보이는 등 실제 산업 환경에서의 적용 사례도 축적해 왔다. 채명수 노타 대표는 "이번 '커넥트' 선정은 노타가 엔비디아 기술 스택을 기반으로 쌓아온 경쟁력을 공식적으로 인정받은 의미 있는 성과"라며 "엔비디아와의 긴밀한 협력을 바탕으로 NVA의 글로벌 확장을 가속화하고, 교통, 산업안전, 스마트시티 등 다양한 산업에서 활용 범위를 넓혀 나가겠다"고 말했다. 이어 "VLM 기반 실시간 영상 관제 기술은 안전과 효율을 동시에 높일 수 있는 핵심 인프라가 될 것"이라며 "국내를 넘어 글로벌 시장에서도 레퍼런스를 빠르게 확보하겠다"고 강조했다.

2025.12.08 15:46남혁우

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

SK하이닉스가 내년 HBM4(6세대 고대역폭메모리)의 본격적인 양산 시점을 놓고 조절에 나섰다. 당초 내년 2분기 말부터 HBM4의 생산량을 대폭 늘릴 예정이었지만, 최근 이를 일부 시점을 조정 중으로 파악됐다. 엔비디아의 AI칩 수요 및 차세대 제품 출시 전략에 맞춰 탄력 대응에 나선 것으로 풀이된다. 8일 지디넷코리아 취재에 따르면 SK하이닉스는 HBM4의 램프업(양산 본격화) 시점을 당초 계획 대비 한 두달 가량 늦췄다. HBM4는 내년 엔비디아가 출시하는 차세대 AI 가속기 '루빈(Rubin)'부터 채용되는 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개로 확대되며, HBM을 제어하는 로직 다이(베이스 다이)가 기존 D램 공정이 아닌 파운드리 공정에서 양산되는 점이 가장 큰 특징이다. 당초 SK하이닉스는 HBM4를 내년 2월경부터 양산하기 시작해, 2분기 말부터 HBM4 생산량을 대폭 확대할 계획이었다. 엔비디아가 HBM4 퀄(품질) 테스트를 공식적으로 마무리하는 시점에 맞춰 생산량을 빠르게 확대하려는 전략이다. 이를 위해 SK하이닉스는 대량의 샘플 시생산을 진행해 왔으며, 엔비디아의 요청에 따라 2만~3만개의 칩을 공급한 것으로 알려졌다. 그러나 최근 계획을 일부 수정했다. HBM4의 양산 시점을 내년 3~4월부터로 미루고, HBM4의 생산량을 대폭 확대하는 시점도 탄력 운영하기로 했다. HBM4 양산을 위한 소재·부품 수급도 기존 대비 속도를 늦추기로 한 것으로 파악됐다. 사안에 정통한 관계자는 "SK하이닉스가 내년 상반기부터 HBM4 생산량을 점진적으로 늘려, 2분기 말에는 HBM4 비중을 크게 확대할 계획이었다"며 "그러나 현재는 최소 내년 상반기까지 전체 HBM에서 HBM3E의 생산 비중을 가장 높게 유지하는 것으로 가닥을 잡았다"고 설명했다. 또 다른 관계자는 "SK하이닉스가 엔비디아와 내년 HBM 물량을 논의하면서 예상 대비 HBM3E 물량을 많이 늘린 것으로 안다"며 "엔비디아 루빈의 출시 일정이 지연될 가능성이 커졌고, HBM3E를 탑재하는 기존 블랙웰 칩의 수요가 견조한 것 등이 영향을 미쳤을 것"이라고 말했다. 현재 업계에서는 엔비디아 루빈 칩의 본격적인 양산 시점이 밀릴 수 있다는 우려가 팽배하다. 엔비디아가 루빈 칩의 성능 향상을 추진하면서 HBM4 등의 기술적 난이도가 높아졌고, 루빈 칩 제조에 필수적인 TSMC의 2.5D 패키징 기술 'CoWoS'가 계속해서 병목 현상을 겪고 있기 때문이다. 이에 대해 SK하이닉스 측은 "경영 전략과 관련해서는 구체적으로 확인해드릴 수 없으나, 시장 수요에 맞춰 유연하게 대응할 계획"이라고 밝혔다.

2025.12.08 10:03장경윤

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

쿠팡 개인정보 유출, 퇴사자 ‘인증키 탈취’가 원인…정부 "영업정지 검토"

이마트24, 점포 줄고 적자 커져 이중고...'반전 카드' 통할까

"딸기 폭탄 맞아?"…파리바게뜨 ‘베리밤’ 케이크 논란 왜

'알트코인 3대장' 약세…이더리움·솔라나·XRP, 일주일 새 두 자릿수 하락

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.