• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'루빈'통합검색 결과 입니다. (18건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아, Arm 주식 110만주 전량 매각... 지분 관계 청산

엔비디아가 영국 Arm 인수를 위해 2020년부터 매입한 주식 중 남아있던 110만 주를 모두 처분했다. 엔비디아는 2020년 9월 400억 달러(약 47조 5000억원)를 투입해 일본 소프트뱅크 그룹이 보유한 Arm을 인수하겠다고 밝힌 바 있다. 그러나 이 같은 시도는 영국 경쟁시장청, 미국 연방거래위원회(FTC) 등 각국 경쟁당국의 심사 단계에서 가로막혔다. 퀄컴과 구글, 마이크로소프트와 아마존, 삼성전자 등 Arm 설계자산을 라이선스해 반도체를 만드는 주요 기업들도 이를 반대했다. 엔비디아와 소프트뱅크 그룹은 2022년 2월 "양사의 선의에도 불구하고 각국 규제로 거래를 완수할 수 없는 중대한 제약사항이 발생했기 때문에 인수-양도 계약을 중단한다"고 밝혔다. 엔비디아는 Arm 대주주인 일본 소프트뱅크 그룹에 위약금으로 12억 5000만 달러(약 1조 4790억원)를 지급했다. 소프트뱅크는 2023년 미국 나스닥 시장에 Arm을 재상장해 투자금을 회수했다. 엔비디아는 16일(현지시간) 1억 4000만 달러(약 2031억 9600만원) 상당 Arm 주식 110만 주를 모두 처분하고 지분관계도 청산했다. 단 엔비디아와 Arm의 협력은 지속될 것으로 보인다. 엔비디아는 2022년 인수 시도 무산 이후에도 Arm과 20년 단위 장기 라이선스 계약을 새로 맺었다. 블랙웰 구동에 쓰이는 그레이스 CPU, 올 하반기 출시될 차세대 GPU 루빈에 쓰이는 베라 CPU 모두 Arm IP 기반이다. 반면 GPU 제어에는 오픈소스 반도체 IP인 리스크파이브(RISC-V)를 활용하는 것으로 알려져 있다.

2026.02.19 10:16권봉석 기자

엔비디아, 메타에 AI칩 수백만개 공급 예정…장기 파트너십 체결

엔비디아가 글로벌 주요 클라우드서비스제공자(CSP) 메타와 장기간·대규모 AI 반도체 공급에 대한 계약을 체결했다. 17일(현지시간) 엔비디아는 메타와 온프레미스, 클라우드 및 AI 인프라에 대한 다년간의 전략적 파트너십을 맺었다고 밝혔다. 이번 협력으로 엔비디아는 메타에 수백만 개의 '블랙웰' 및 '루빈' GPU를 공급할 예정이다. 해당 GPU는 AI 데이터센터에 필요한 초고성능 칩이다. 특히 루빈의 경우, 올해 본격적인 상용화가 예상된다. 또한 메타는 자사 데이터센터에 엔비디아의 그레이스 CPU를 단독으로 도입하기로 했다. 주요 CSP 기업 중 엔비디아의 그레이스 CPU만을 채용한 사례는 이번이 처음이다. 그간 메타는 Arm 기반의 CPU를 자사 AI칩의 보조 프로세서로 활용해 왔다. 이와 관련해 로이터통신은 "고객사향 매출을 공개한 적은 없지만, 메타는 엔비디아의 최근 분기 매출의 61%를 차지하는 4대 CSP 중 하나"라며 "엔비디아가 이번 계약을 강조한 것은 메타와의 대규모 사업 관계 유지와 CPU 시장에서의 입지 강화를 보여주기 위한 것"이라고 평가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "엔비디아는 CPU, GPU, 네트워킹 및 소프트웨어 전반에 걸친 심층적인 공동 설계로 메타가 차세대 AI 인프라를 구축하는 데 필요한 모든 플랫폼을 제공할 것"이라고 말했다. 마크 저커버크 메타 CEO는 "엔비디아와의 파트너십 확대로 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축하고, 전 세계 모든 사람에게 맞춤형 인공지능을 제공하게 돼 기쁘다"고 밝혔다.

2026.02.18 10:10장경윤 기자

엔비디아 "한국 반도체 업체와 피지컬 AI 협력 지속"

"한국은 삼성전자, SK하이닉스, 현대차그룹, LG전자 등 세계적 제조기업을 보유한 전략적 거점이다. 엔비디아가 추진하는 디지털 트윈과 피지컬 AI 기반 협력을 주도하는 전초기지 역햘을 수행하고 있다." 11일 서울 코엑스에서 열린 '세미콘 코리아 2026' 기조연설에서 정소영 엔비디아코리아 대표가 이렇게 설명했다. 이날 엔비디아는 반도체 설계부터 제조까지 산업 전반에 걸친 단계에서 생산성과 효율을 강화할 수 있는 AI 모델과 디지털 트윈 기술을 소개했다. 또 반도체 생태계를 넘어 산업 전반의 혁신 기업으로 역할을 확대해 나가겠다는 비전을 제시했다. 제품 대신 지능 생산하는 'AI 팩토리' 대두 이날 정소영 대표는 AI 시대 산업 패러다임의 전환이 'AI 팩토리'와 '피지컬 AI' 등 두 축을 중심으로 일어나고 있다고 설명했다. 정 대표는 "전통적인 공장은 사람과 자원을 투입해 제품을 생산한 반면 AI 시대의 공장은 데이터와 전기를 투입해 지능(인텔리전스)를 생산하는 공간"이라고 정의했다. 이어 "AI 팩토리에서 생성된 인텔리전스가 반도체·제조·자동차·통신 등 다양한 산업에 접목되며 실질적인 변화를 만들어내고 있다. 이미 글로벌 주요 산업 현장에서 AI 기반 혁신이 가속화되고 있다"고 덧붙였다. 그는 피지컬 AI에 대해 "이는 단순히 로봇을 움직이는 것이 아니라 현실 세계에 존재하는 다양한 물리적 개체(entity)에 지능을 결합해 우리 삶과 생산 현장 전반에 AI의 영향을 확장시키는 단계"라고 밝혔다. "엔비디아, AI 팩토리 구성 인프라 제공" 엔비디아는 2020년대 이후 AI 연산을 수행하는 GPU에 머무르던 것에서 벗어나 AI 처리 인프라를 제공하는 기업으로 포지션 변화를 시도하고 있다. 정소영 대표는 "AI 팩토리는 GPU를 시작으로 클라우드와 온프레미스 데이터센터, 그 위에서 구동되는 AI 모델과 고부가가치 소프트웨어·서비스로 구성된다. 엔비디아는 이런 가속 컴퓨팅 기반을 산업 전반에 제공하는 인프라 기업"이라고 말했다. 이어 "올 하반기 출시할 차세대 GPU 플랫폼 '베라 루빈'은 베라 CPU, 루빈 GPU와 네트워킹 칩, 스위치 등 6개 요소를 동시 개발하고 최적화하며 AI 플랫폼을 구현중"이라고 덧붙였다. "CPU 대신 GPU 활용해 소요시간 단축" 엔비디아는 CPU 대신 GPU를 활용하는 쿠다(CUDA)-X 라이브러리로 고성능·장시간 연산이 필요한 산업계 과제의 소요 시간 단축을 제공하고 있다. 2023년 엔비디아가 개발한 소프트웨어 라이브러리인 cu리소(cuLitho)는 반도체 식각 공정에 쓰이는 포토마스크 설계 시간을 크게 단축한다. 기존 CPU로 2주 이상 걸리던 연산 시간을 하루 내외로 줄였다. 정소영 대표는 "주요 반도체 소자를 시뮬레이션하는 TCAD, 리소그래피, 전자설계자동화(EDA) 등 반도체 전 분야에 AI 기반 모델이 적용된다. 삼성전자·SK하이닉스 등 국내 주요 업체도 설계 시간 단축, 시뮬레이션 고도화 등을 추진중"이라고 밝혔다. 시뮬레이션 플랫폼 '옴니버스', 반도체 생산 자동화 가속 엔비디아는 현실 세계 물리 법칙과 환경을 시뮬레이션 할 수 있는 플랫폼 '옴니버스'를 피지컬 AI 구현에 활용하고 있다. 자율주행차와 휴머노이드 로봇, 자율이동로봇(AMR) 등 다양한 장비 개발 소요 시간을 단축하고 정밀도를 높일 수 있다. 정소영 대표는 옴니버스 활용 사례로 "어플라이드 머티어리얼즈(AMAT)와는 디지털 트윈 기반 생산 공정 제어에 협력하고 있고 램리서치 및 LG디스플레이 등과도 협업을 확대하고 있다"고 설명했다. 정 대표는 "반도체 산업은 축적된 방대한 부품·공정 데이터를 보유하고 있어 AI 에이전트를 통한 자동화와 EDA 가속화에 유리하다. 실제로 아드반테스트와 AI 에이전트를 활용한 제품 테스트 자동화도 공동 개발 중"이라고 밝혔다.

2026.02.11 15:41권봉석 기자

[유미's 픽] 李 'AI 고속도로'가 바꾼 판…정부 GPU 지원, 스타트업 실험에 불 붙였다

'인공지능(AI) 고속도로' 구축을 위해 이재명 정부가 추진해온 고성능 그래픽처리장치(GPU) 지원 사업이 국내 AI 스타트업 생태계 조성에 실질적인 역할을 했다는 평가가 나오고 있다. 대규모 연산 자원이 필수적인 파운데이션 모델 개발과 차세대 AI 구조 연구에서 초기 자본이 부족한 스타트업들도 정부 덕에 기술 실험을 지속할 수 있는 토대가 마련됐다는 분석이다. 10일 업계에 따르면 트릴리온랩스는 지난해 9월부터 4개월여간 정부로부터 엔비디아 H200 GPU 80장 규모의 고성능 연산 자원을 지원받아 차세대 AI 구조 연구를 진행했다. 이를 통해 초거대 모델 학습뿐 아니라 기존 트랜스포머 구조의 연산 효율을 개선하기 위한 신규 아키텍처 실험과 대규모 검증을 병행할 수 있는 환경을 구축했다. 이 연산 인프라는 구체적인 기술 성과로도 이어졌다. 트릴리온랩스는 지원받은 GPU 자원을 활용해 지난 달 디퓨전 기반 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다. '트리다-7B'는 단어를 하나씩 순차적으로 생성하는 기존 방식에서 벗어나 문장 전체를 병렬로 생성하는 확산(diffusion) 기법을 언어 모델에 적용한 것이 특징이다. 또 이미지 생성에 주로 활용되던 디퓨전 기술을 언어 모델 구조에 이식함으로써 추론 속도와 연산 효율을 동시에 끌어올렸다. 이와 함께 지난해 10월에는 소규모 프록시 모델을 활용해 대형 언어모델의 성능을 사전에 예측하는 '알브릿지(rBridge)' 기법도 개발했다. 실제 대형 모델을 반복 실행하지 않고도 성능을 가늠할 수 있는 구조로, 연산 효율을 최대 700배 이상 개선하고 거대언어모델(LLM) 개발 비용을 대폭 절감할 수 있는 가능성을 제시했다. 대규모 모델 학습에 앞서 시행착오를 줄일 수 있다는 점에서 파운데이션 모델 개발 방식 자체를 바꿀 수 있는 접근으로 평가된다. 업계에선 이러한 성과가 단순한 개별 기술 개발을 넘어 AI 연구·개발의 비용과 시간, 자원 구조를 근본적으로 재설계했다는 점에 주목하고 있다. 대형 모델을 '더 많이 돌리는 방식'이 아니라 '덜 돌리고도 더 많이 검증하는 방식'으로 전환할 수 있는 가능성을 보여줬다는 점에서다. 이는 스타트업이 제한된 자원 환경에서도 고난도 연구를 지속할 수 있는 실질적인 해법으로 꼽힌다. 이 같은 결과 뒤에는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 지원 방식도 한 몫 했다는 평가다. 앞서 정부는 삼성SDS·KT클라우드·엘리스클라우드를 '고성능컴퓨팅 지원사업' 공급사로 선정한 후 지난해 9월부터 12월까지 국내 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등에 총 1천 장의 GPU를 지원했다. 당시 삼성SDS와 엘리스그룹은 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급했다. 당시 정부에선 그간 단순히 GPU를 일괄 배분하는 데 그치지 않고 연구 단계와 실험 난이도에 맞춰 자원 활용 계획을 조정하며 과제 수행 전반을 관리했다. 또 개발 과정에서 발생하는 변수에 따라 지원 방식을 유연하게 조정하고 현장의 피드백을 즉각 반영하는 방식으로 연구 완성도를 높였다. 이 과정에서 정부는 단순한 예산 집행 기관을 넘어 프로젝트의 '내비게이터' 역할을 수행하며 실질적인 성과를 견인했다는 평가를 받았다. 또 단순히 규모가 큰 기업이 아닌, 독보적인 기술력과 성장 잠재력을 보유한 스타트업을 정밀하게 선별해 과제 수행 기업으로 낙점하려는 노력이 참여 기업으로부터 큰 호응을 얻었다. 업계 관계자는 "정부가 행정적 관리에 그치지 않고 모델 출시 과정에서 발생하는 변수에 맞춰 지원 체계를 업데이트했다"며 "현장의 목소리를 즉각 반영해 모델의 완성도를 높이는 실질적인 가이드도 제공해줬다"고 말했다.이어 "무한정한 지원 대신, 한정된 예산 내에서 최선의 결과물을 낼 수 있도록 목표 난이도를 정교하게 조정해준 점도 인상 깊었다"며 "이를 통해 자원의 낭비를 막고 효율적인 사용 위에 최대의 성과를 이끌어냈다"고 덧붙였다. 트릴리온랩스 역시 정부 인프라 지원을 발판 삼아 국내에서 시도된 적 없는 기술 실험을 진행할 수 있었다고 평가했다. 독자적인 모델 구조와 학습 기법을 실제 대규모 환경에서 반복 검증하며 스타트업이 겪는 컴퓨팅 파워 한계를 일정 부분 극복할 수 있었다는 것이다. 신재민 트릴리온랩스 대표는 "정부의 GPU 지원 사업이 단순한 인프라 제공을 넘어 기술 기업의 도전 방식을 바꿨다"며 "자본력보다 기술적 실험과 구조 혁신에 집중할 수 있는 조건을 마련했다는 점에서 국내 AI 생태계에 미친 영향이 적지 않다"고 강조했다. 이 같은 분위기 속에 정부가 추가경정예산으로 확보한 고성능 GPU 자원으로 어떤 AI 연구 기관, 기업들이 수혜를 받을지 관심이 쏠린다. 정부는 총 1만3천136장 규모의 GPU를 최대 12개월까지 이용할 수 있도록 한 사업을 공고한 후 지난 달 28일 마감했다. 이번에는 학계·연구기관은 무상으로, 산업계는 자부담 방식으로 지원받는 구조다. 구축·운영은 민간 클라우드 3사가 맡는다. 네이버클라우드는 세종 데이터센터에 H200 2296장을 안착시켰고, 카카오는 안산 데이터센터에 B200 2040장을 클러스터 형태로 구축했다. NHN클라우드는 3월께 B200 6120장을 갖출 계획이다. 정부는 이 사업에 예산 1조4590억원을 투입했다. 이번 프로젝트는 과제별로 H200, B200 중 하나만 신청할 수 있다. 신청은 서버 묶음 기준으로 이뤄진다. H200은 최소 서버 2대(16장)에서 최대 서버 32대(256장)까지, B200은 최소 서버 2대(16장)에서 최대 서버 16대(128장)까지다. 조만간 선정될 수요 기업은 원격 접속 방식인 GPUaaS(GPU as a Service)로 고성능 컴퓨팅 자원을 손쉽게 이용할 수 있다. 정부가 고수한 '1사 1지원' 원칙을 사실상 폐기해 중복 신청 문턱이 낮아진 점도 눈에 띈다. 이 일로 동일 기업 내 복수 부서도 각각 GPU 자원을 확보할 수 있게 됐다. 다만 연구 인력의 독립성과 과제 주제는 차별돼야 한다. 여기에 정부는 지난해 확보한 1만3000장에 이어 올해는 B200 기준 1만5000장을 투입해 지원 범위를 넓힐 계획이다. 이를 구축하기 위해 총 2조831억원(출연금)이 투입될 이번 사업 공고는 이달 중 나올 예정으로, 과기정통부 단일 사업 기준 최대 규모 프로젝트로 평가된다. 또 단일 사업자가 전체 물량을 감당하기 어려운 만큼, 사업 구조 자체를 어떻게 설계할지가 관건이 될 전망이다. 과기정통부 관계자는 "주요 클라우드 서비스 제공업체(CSP)들과 면담한 결과 데이터센터 상면(물리적 수용 공간) 확보는 어느 정도 가능한 수준으로 파악됐다"며 "최신 GPU를 확보하는 것이 유리한 만큼 엔비디아 차세대 AI 칩 '베라루빈'을 업체들이 제안할 경우 가점을 줄 지에 대한 방안에 대해선 고민 중"이라고 밝혔다. 업계에선 정부의 고성능 연산 인프라 지원이 일회성 사업에 그치지 않고 파운데이션 모델·신규 아키텍처·산업 특화 AI로 이어지는 연속적인 연구 생태계로 정착할 수 있을지가 향후 사업 성공 여부의 관건이 될 것이라고 전망했다. 업계 관계자는 "특히 연산 자원 접근성이 기술 경쟁력으로 직결되는 AI 산업 특성을 감안할 때 정부의 GPU 지원 정책이 국내 스타트업들의 글로벌 도전 여력을 좌우하는 핵심 변수로 작용할 것으로 예상된다"며 "단기 성과보다 중장기 연구 축적이 가능한 구조로 설계될 경우 정부 지원이 국내 AI 산업의 체질을 바꾸는 계기가 될 수 있다"고 말했다.

2026.02.10 11:43장유미 기자

AI에 밀린 지포스..."엔비디아, RTX 50 GPU 추가 출시 보류"

엔비디아가 올해 성능을 강화한 '지포스 RTX 50 시리즈' GPU 신제품을 출시하지 않을 것이라는 전망이 나왔다. 미국 IT매체 디인포메이션이 5일(현지시간) 엔비디아 내 복수 관계자를 인용해 이같이 보도했다. 엔비디아는 일반 소비자용 GPU 출시 이후 일정 시간이 지나면 작동 클록을 높이고 메모리 탑재량을 늘린 '슈퍼' 시리즈를 추가 출시했다. 이는 제품 수명을 연장하고 최대 경쟁사인 AMD 대응력을 유지하기 위한 수단이다. 그러나 엔비디아는 올 초 CES 2026에서 PC용 그래픽카드 새 제품이나 파생 제품을 공개하지 않았다. 디인포메이션은 "RTX 50 파생 제품의 설계는 이미 끝났지만 메모리 반도체 수급난과 공급 부족 때문에 출시가 보류됐다"고 설명했다. 디인포메이션은 또 관계자를 인용해 "엔비디아는 새 GPU 아키텍처 '루빈(Rubin)'을 적용한 RTX 50 시리즈 후속 제품을 2027년 말 대량 생산하려던 계획도 연기했다"고 주장했다. 작년 1월에 출시된 블랙웰 아키텍처 기반 지포스 RTX 50 시리즈가 내년까지 최대 3년간 유지될 것이라는 의미다. 2년 간격으로 지포스 새 GPU를 투입하던 과거 행보와 달리 이례적이다. 엔비디아가 GPU 생산에서 일반 소비자용 지포스 GPU 대신 블랙웰/루빈 등 AI 관련 GPU 가속기를 우선하는 데는 구조적인 이유가 있다. 현재 엔비디아의 매출 중 절대 다수는 데이터센터 부문에서 나온다. 엔비디아의 최근 실적발표(2025년 11월 3분기)에 따르면 전체 매출 570억 600만 달러(약 83조 7988억원) 중 데이터센터 부문 매출은 512억 달러(약 75조 2640억원)로 89%에 달한다. 반면 지포스 RTX 시리즈 등 게이밍 부문 매출은 42억 6500만 달러(약 6조 2696억원)로 전체 매출의 7.3% 수준까지 하락했다. 또 최대 경쟁사인 AMD가 중저가 GPU에 집중하고 있고 고성능 제품에서는 경쟁 제품이 사실상 없다. 엔비디아는 디인포메이션에 "지포스 RTX GPU 수요가 높고 메모리 공급에는 제약이 있지만 모든 지포스 제품군을 계속해서 공급 중이며 메모리를 최대한 확보하기 위해 공급사와 긴밀히 협력하고 있다"고 밝혔다.

2026.02.06 08:47권봉석 기자

류제명 차관 "엔비디아, 내년 양산 GPU 한국에 우선 공급"

류제명 과학기술정보통신부 제2차관이 12일 “엔비디아에서 (블랙웰 아키텍처 기반 AI 서버용) GB300을 한국에 조기에 공급하고, 2027년 양산 계획인 베라루빈을 한국에 우선 공급을 추진한다”고 밝혔다. 류 차관은 미국 라스베이거스에서 열린 CES 출장을 마치고 한국에 돌아와 이날 자신의 페이스북 계정에 “하정우 청와대 AI미래기획수석 의견대로 제가 베라루빈은 한국에 제일 먼저 공급해 주면 좋겠다고 했는데 (엔비디아에서) 그렇게 하겠다고 답했다”며 이같이 적었다. 이어, “최신 GPU를 가장 먼저 써볼 수 있다는 것도 AI 모델 경쟁에 매우 중요한 역할을 하는 상황이라 큰 의미가 있는 일”이라고 평가했다. 류 차관은 또 “국내 엔비디아 연구소 설립 문제도 젠슨황 CEO가 직접 챙기고 있다고 학인했다”며 “스탠포드대 교수이자 세계적인 AI 석학인 최예진 교수가 엔비디아 연구팀에 합류해 핵심적인 역할을 하고 있다. 조만간 가시적 일정이 구체화 될 것”이라고 했다. 그러면서 “피지컬AI가 급진전되고 있는 상황에서 이를 주도하는 엔비디아가 국내에 관련 연구소를 세우기로 한 것은 엔비디아가 피지컬AI 시대에 한국을 얼마나 중요하게 생각하는지 보여주는 일”이라고 강조했다. CES를 둘러본 결과 주요 특징으로는 AI의 전면화, AI 생태계 자체의 고도화를 키워드로 꼽았다. 류 차관은 “CES에서 가장 많이 들은 단어가 피지컬AI”라며 “피지컬AI 파운데이션 모델 경쟁, 관련 반도체 경쟁, 그리고 자율주행차와 휴머노이드 등 피지컬AI를 둘러싼 기술개발이 급진전되고 있다”고 진단했다. 아울러 “엔비디아다 자율주행차용 AI 모델인 알파마요를 개발하고 벤츠와 협력해 1분기에 세계 최초로 추론형 AV를 미국시장에 내놓기로 하는 등 피지컬AI 풀스택을 완성했다고 하고, 모바일 시대를 주도한 퀄컴이 자율주행차와 휴머노이드 피지컬AI 반도체에 사활을 걸고 투자를 하는 것도 인상적이었다”고 덧붙였다. 아마존 자율주행차 죽스(ZOOX)와 구글 웨이모 탑승 경험을 이야기하면서 “현대차가 국내 규제 때문에 미국서 시험 운행을 하고 있다는 이야기에 안타까움과 한국이 자율주행차 시대에 낙오하거나 도태까지 되겠다는 절박한 생각이 들었다”고 전했다.

2026.01.12 23:27박수형 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

슈퍼마이크로, 엔비디아 '베라 루빈' 지원 발표…수냉식 AI 인프라 공개

슈퍼마이크로가 CES 2026에서 공개된 차세대 엔비디아 베라 루빈과 플랫폼 지원을 위한 수냉식 인공지능(AI) 인프라 구축을 공식 발표했다. 슈퍼마이크로는 엔비디아와 협력해 베라 루빈 NVL72 및 HGX 루빈 NVL8 플랫폼을 지원하는 수냉식 AI 인프라 솔루션을 신속히 제공하기 위해 제조 역량과 냉각 기술을 확대한다고 8일 밝혔다. 이번 협력을 통해 슈퍼마이크로는 엔비디아 베라 루빈 NVL72 슈퍼클러스터와 HGX 루빈 NVL8 솔루션을 신속히 공급한다는 목표다. 랙 스케일 설계와 모듈형 데이터센터 빌딩 블록 솔루션(DCBBS)을 기반으로 다양한 구성 옵션과 신속한 구축을 지원해 대규모 AI 인프라 도입 기간을 단축할 계획이다. 엔비디아 베라 루빈 NVL72 슈퍼클러스터는 엔비디아 루빈 그래픽처리장치(GPU) 72개와 엔비디아 베라 중앙처리장치(CPU) 36개를 하나의 랙 스케일 솔루션으로 통합한 플래그십 AI 인프라다. 엔비디아 NV링크 6 기반 고속 인터커넥트와 커넥트X-9 슈퍼 NIC, 블루필드-4 DPU를 통해 GPU 및 CPU 간 고속 통신을 지원하며 인피니밴드와 이더넷 기반 네트워크로 대규모 클러스터 확장이 가능하다. 슈퍼마이크로가 공개한 2U 수냉식 엔비디아 HGX 루빈 NVL8 솔루션은 8-GPU 기반 고밀도 시스템으로 AI와 고성능컴퓨팅(HPC) 워크로드에 최적화됐다. 고속 NV링크와 HBM4 메모리 대역폭을 제공하며 차세대 인텔 제온 및 AMD 에픽 프로세서를 지원하는 x86 기반 구성 옵션을 갖췄다. 직접 수냉식(DLC) 기술도 적용돼 집적도와 에너지 효율도 높였다. 이와 함께 슈퍼마이크로는 엔비디아 스펙트럼-X 이더넷 포토닉스 네트워킹과 블루필드-4 DPU를 지원하는 서버·스토리지 솔루션을 통해 네트워크 및 데이터 처리 성능을 강화했다. 확장된 제조 시설과 엔드투엔드 수냉식 기술 스택을 바탕으로 하이퍼스케일러와 엔터프라이즈 고객의 대규모 AI 인프라 구축 수요에 대응할 방침이다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "확장된 제조 역량과 수냉식 기술을 바탕으로 하이퍼스케일러와 엔터프라이즈 고객이 베라 루빈 및 플랫폼 기반 AI 인프라를 대규모로 신속하고 효율적으로 구축할 수 있도록 지원할 것"이라고 밝혔다.

2026.01.08 17:09한정호 기자

맷 가먼 AWS CEO "엔비디아 '루빈' GPU 결합 기대"…협력 의사 공식화

글로벌 클라우드 시장 핵심 플레이어인 아마존웹서비스(AWS)가 엔비디아의 차세대 그래픽처리장치(GPU) 아키텍처 '루빈'을 중심으로 한 협력 의지를 드러냈다. 맷 가먼 AWS 최고경영자(CEO)는 6일 링크드인을 통해 "엔비디아가 발표한 루빈 플랫폼을 고객들에게 제공할 수 있기를 기대한다"고 밝혔다. 이어 "루빈은 우리의 규모·보안·AI 서비스와 결합돼 고객들이 가장 까다로운 AI 워크로드를 더 빠르고 비용 효율적으로 구축·학습·배포할 수 있도록 도울 것"이라고 강조했다. 가먼 CEO의 발언은 엔비디아가 미국 라스베이거스에서 열린 CES 2026에서 루빈을 공식 공개한 직후 나왔다. 젠슨 황 엔비디아 CEO는 기조연설을 통해 루빈이 기존 '블랙웰'을 잇는 차세대 AI 컴퓨팅 플랫폼이며 이미 본격적인 양산 단계에 돌입했다고 발표했다. 황 CEO에 따르면 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 대규모 AI 학습과 추론 과정에서 병목으로 작용해온 데이터 이동 문제를 해소하고 전체 시스템 효율을 극대화하는 데 초점을 맞췄다. 특히 루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 적응형 압축 기술을 적용해 추론 성능을 크게 끌어올렸다. 엔비디아는 루빈이 블랙웰 대비 동일 모델 기준 토큰당 비용을 10분의 1 수준으로 낮추고 학습에 필요한 GPU 수를 25%까지 줄일 수 있다고 설명했다. 또 루빈 아키텍처가 AI가 단순 응답을 넘어 추론 중심으로 진화하는 시장 환경에 대응하기 위한 핵심 플랫폼이라고 강조했다. 내부 테스트 기준으로 루빈은 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배까지 향상됐으며 전력 효율 역시 크게 개선됐다. AWS는 이러한 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 보다 효율적인 AI 학습·추론 환경을 제공한다는 계획이다. 엔비디아와 15년 이상 이어온 협력 관계를 바탕으로 AWS의 글로벌 인프라와 AI 서비스 역량을 결합해 고객 선택권과 유연성을 확대한다는 구상이다. 엔비디아는 루빈을 주요 클라우드 사업자와 AI 기업들에 올해 연말부터 공급할 예정이다. AWS를 비롯해 구글 클라우드·마이크로소프트·오라클은 물론 오픈AI·앤트로픽·xAI 등 주요 AI 기업과 연구기관이 루빈을 도입할 전망이다. 가먼 CEO는 "우리와 엔비디아의 오랜 협력을 바탕으로 고객들이 차세대 AI 혁신을 빠르게 실현할 수 있도록 지원할 것"이라고 밝혔다.

2026.01.06 16:16한정호 기자

엔비디아, 차세대 AI GPU '루빈' 공개

[라스베이거스(미국)=권봉석] 엔비디아가 5일(이하 현지시간) 라스베이거스 퐁텐블로 시어터에서 진행한 기조연설에서 데이터센터용 차세대 AI GPU 플랫폼 '루빈'(Rubin)을 공개했다. 엔비디아는 2024년 컴퓨텍스 기조연설에서 블랙웰을 시작으로 매년 새 GPU를 출시하겠다고 밝힌 바 있다. 지난 해 블랙웰을 강화한 '블랙웰 울트라'에 이어 올해는 CPU와 GPU를 새로 설계한 '루빈'이 투입된다. 루빈은 단일 GPU를 넘어 CPU, 네트워크, 보안, 스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처로, 대규모 학습과 추론 비용을 획기적으로 낮추는 데 초점을 맞췄다. 루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 적응형 압축을 적용해 추론에서 50페타플롭스(NVFP4) 연산 성능을 제공한다. GPU 간 연결에는 6세대 NV링크를 적용해 GPU당 3.6TB/s, NVL72 랙 기준 260TB/s 대역폭을 구현했다. CPU는 Arm IP 기반 새 제품인 '베라'이며 에이전틱 AI 추론을 겨냥했다. 최대 88개 코어로 구성된 CPU가 루빈 GPU와 직접 연결돼 전력 효율과 데이터 이동 성능을 동시에 확보했다. 엔비디아는 루빈 플랫폼을 구성하는 베라(Vera) CPU와 루빈 GPU, GPU 사이에서 데이터를 주고 받는 NV링크 6 스위치, 데이터 전송에 관여하는 블루필드4 DPU 등을 통합설계했다. 이를 이용해 루빈이 블랙웰 대비 1/10 수준의 토큰 비용으로 대규모 '혼합 전문가'(MoE) 모델 추론을 수행할 수 있으며 동일한 모델 학습에 필요한 GPU 수를 25% 수준으로 줄일 수 있다는 것이 엔비디아 설명이다. 엔비디아는 루빈이 올 하반기부터 주요 클라우드와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. AWS, 구글 클라우드, 마이크로소프트, OCI를 비롯해 다수의 AI 연구소와 기업들이 루빈을 도입 예정이다.

2026.01.06 08:01권봉석 기자

슈퍼마이크로, 엔비디아 '베라 루빈' 플랫폼 도입…정부용 AI 인프라 강화

슈퍼마이크로가 엔비디아와의 협력을 강화해 정부 기관의 까다로운 요구사항을 충족하도록 최적화된 첨단 인공지능(AI) 인프라 솔루션을 선보인다. 슈퍼마이크로는 내년 출시 예정인 엔비디아 베라 루빈 NVL144 및 NVL144 CPX 플랫폼 기반 솔루션을 출시할 계획이라고 4일 밝혔다. 해당 플랫폼은 이전 세대 블랙웰 울트라 대비 3배 이상 향상된 AI 어텐션 가속 성능을 제공해 복잡한 AI 학습·추론 워크로드를 효율적으로 처리할 수 있도록 지원한다. 슈퍼마이크로는 엔비디아 HGX B300·B200, GB300·GB200, RTX PRO 6000 블랙웰 서버 에디션그래픽처리장치(GPU)를 기반으로 최신 제품군을 확장 중이다. 이 솔루션들은 ▲사이버 보안 및 리스크 탐지 ▲엔지니어링·설계 ▲헬스케어·생명과학 ▲데이터 분석·융합 플랫폼 ▲모델링·시뮬레이션 ▲보안 가상 인프라 등 주요 연방 정부 워크로드를 위한 연산 성능·효율성·확장성을 제공한다. 슈퍼마이크로는 미국 내 제조 역량을 기반으로 모든 정부용 시스템을 캘리포니아 새너제이에 위치한 글로벌 본사에서 개발·구축·검증한다. 이를 통해 무역협정법과 미국산우선구매법(BAA)을 모두 준수하며 공급망 보안을 강화하고 연방 정부의 신뢰성과 품질 요건을 충족한다는 방침이다. 슈퍼마이크로는 엔비디아 베라 루빈 NVL144 및 NVL144 CPX 플랫폼 기반 솔루션과 함께 자사 제품 중 가장 컴팩트한 2OU 엔비디아 HGX B300 8-GPU 솔루션도 공개했다. 해당 솔루션은 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 기반의 OCP랙 스케일 아키텍처로, 하나의 랙당 최대 144개의 GPU를 지원한다. 이를 통해 정부의 데이터센터 내 대규모 AI 및 고성능 컴퓨터(HPC) 구축에 필요한 성능과 확장성을 제공한다. 또 슈퍼마이크로는 정부용 엔비디아 AI 팩토리 표준 설계를 지원하기 위해 AI 솔루션 제품군을 확장하고 있다. 이 표준 설계는 온프레미스와 하이브리드 클라우드 환경에서 다중 AI 워크로드를 구축·관리할 수 있도록 지원하는 엔드투엔드 풀스택 아키텍처로, 정부 기관의 보안성·신뢰성·확장성 표준을 충족하도록 설계됐다. 새롭게 확장된 제품군에는 엔비디아 GB300 기반 슈퍼 AI 스테이션과 새로운 랙 스케일 엔비디아 GB200 NVL4 HPC 솔루션이 포함된다. 찰스 리앙 슈퍼마이크로 사장 겸 최고경영자(CEO)는 "엔비디아와의 긴밀한 협력과 미국 내 제조 역량을 기반으로 미국 연방 정부가 신뢰할 수 있는 AI 구축 파트너로 자리매김하고 있다"며 "실리콘밸리의 중심지인 캘리포니아 새너제이에 본사와 제조시설, R&D 센터를 모두 두고 있어 연방 정부 고객을 위한 선도적 솔루션을 신속히 개발·구축·검증·제조할 수 있는 독보적 역량을 갖췄다"고 강조했다. 이어 "엔비디아와의 오랜 협력 관계를 바탕으로 미국 AI 인프라 개발의 선구자로서의 입지를 더욱 공고히 할 것"이라고 덧붙였다.

2025.11.04 15:29한정호 기자

젠슨 황의 조언 "AI 인프라 조성? AI 공장부터 먼저 지어라"

[경주=권봉석 기자] "한국은 피지컬 AI와 로보틱스를 결합해 세계 제조업 혁신을 주도할 잠재력을 가진 나라다. 성공적인 AI 팩토리 구축이 향후 생태계 성장을 좌우할 것이다." 31일 저녁 경주예술의전당 원화홀에서 국내외 기자단을 마주한 젠슨 황 엔비디아 CEO가 여러 번 강조한 메시지다. 젠슨 황 CEO는 이날 오후 경북 경주 예술의전당에서 진행 중인 '아시아태평양경제협력체(APEC) 최고경영자(CEO) 서밋' 마지막 순서인 특별 연설에서 엔비디아가 주도하는 GPU 기반 가속컴퓨팅의 혁신과 AI 산업의 잠재력을 설명했다. "AI 생태계 조성, 인프라 먼저 만들어라" 조언 젠슨 황 CEO는 '국내 AI 생태계 조성을 위해 가장 필요한 것이 무엇인가'라는 질문에 "인프라가 중요하다. GPU를 이용해 AI 구성 요소인 '토큰'을 생산하는 AI 팩토리 없이는 AI를 만들 수 없다"고 단언했다. 이어 "한국 정부와 기업이 도입하기로 한 GPU 26만 장은 스타트업·대학·연구기관이 함께 성장할 토대가 될 것이다. 또 AI는 작동하는 지역을 가리지 않으며 한국은 아시아의 AI 허브로 도약할 기회를 갖고 있다"고 설명했다. 그는 "피지컬 AI는 한국 뿐만 아니라 세계적인 문제인 노동력 부족 문제를 AI와 로봇으로 해결할 수 있으며 한국이 조선·자동차·반도체 등 물리 기반 산업을 보유한 만큼 피지컬 AI를 통해 급속히 성장할 수 있다"고 내다봤다. "차세대 GPU 순항중... 韓 메모리 기술 세계 최고" 엔비디아는 내년 하반기 출시를 목표로 차세대 GPU '루빈'(Rubin)을 개발중이다. 젠슨 황 CEO는 "현재 루빈 GPU 개발은 순조롭게 진행중이며 내년 하반기 출시 일정에도 변함이 없다"고 밝혔다. 고대역폭메모리(HBM) 공급사인 삼성전자와 SK하이닉스에 대해 그는 "두 회사는 집중(SK하이닉스)와 다양성(삼성전자) 등 서로 다른 강점을 지닌 회사다. 두 회사의 HBM4 시제품 모두 정상 작동중이며 앞으로도 꾸준히 협력할 것"이라고 평가했다. 이어 "한국의 메모리 기술은 세계 최고 수준이다. 여러분들은 자부심을 가져도 좋다. 양사 모두 엔비디아 성장을 지탱하는 핵심 축"이라고 극찬했다. "화웨이, 다양한 기술 강점 지녀... 과소평가 금물" 중국 화웨이는 스마트폰용 시스템반도체(SoC) 자체 설계와 생산에서 쌓은 노하우를 바탕으로 최근 AI 가속기 등 반도체로 역량을 확장하고 있다. 젠슨 황 CEO는 이런 화웨이의 행보에 "엔비디아는 세계 최고 AI 인프라 회사로 리더십을 유지하고 있지만, 화웨이를 과소평가하는 것은 어리석은 일"이라고 경계했다. 이어 "화웨이는 5G와 스마트폰, 네트워킹 등 다양한 기술에 강점을 지녔다. 이런 기업과 경쟁을 벌이는 것은 전체 업계와 산업 발전을 촉진할 것"이라고 설명했다. 한편 그는 중국 시장에서 엔비디아 영향력이 축소되는 상황에 아쉬움을 드러냈다. "중국은 크고 중요한 시장이며 개발자들이 많다. 또 엔비디아는 미국 회사이며 미국 AI 기술이 널리 보급되기를 바란다." "AI 경쟁력 우위 확보 위해 모든 요소 1년에 한 번씩 갈아 엎는다" 젠슨 황 CEO는 엔비디아가 경쟁자를 압도할 수 있는 이유로 CPU와 GPU, 네트워킹 칩과 소프트웨어를 통합 개발하는 '극한의 동시 디자인'(Extreme Co-Design)을 들었다. 그는 "AI는 단일 칩이 아니라 시스템의 문제이며, 이를 위해 매년 CPU와 GPU, 네트워킹 칩, 스위치 등 총 6개 칩을 새로 설계하며 아키텍처·시스템·소프트웨어를 동시에 설계한다. 어렵고 힘든 일이지만 다른 회사는 불가능하다"고 강조했다. 약 한 시간 동안 국내외 취재진의 질문에 답한 젠슨 황 CEO는 "컴퓨팅이 60년 만에 완전히 재설계되고 있다. 이제 시작된 AI 산업의 기회는 상상 이상이며 삼성전자와 SK하이닉스 두 파트너와 새로운 시대를 함께 열 것"이라고 말했다.

2025.10.31 21:23권봉석 기자

SK, HBM4 동작속도 10Gbps 이상 구현...마이크론 발등에 불?

SK하이닉스가 12일 내년 시장이 본격 개화되는 HBM4(6세대 고대역폭메모리) 개발을 완료하고 세계 첫 양산 체제를 구축했다고 발표하면서 기술 경쟁력을 한껏 뽐내고 있다. 경쟁사 대비 빠른 속도로, 동작속도 역시 업계 표준을 웃도는 10Gbps 이상을 구현한 것도 SK하이닉스의 시장 지배력 지속을 위한 긍정 신호로 평가되는 대목이다. 또한 주요 고객사인 엔비디아가 최근 HBM4에 필요한 동작속도 요구치를 올린 데 따른 대응으로 풀이된다. 반면 주요 경쟁사인 미국 마이크론은 위기를 맞았다는 평가다. HBM의 동작속도를 높이기 위해서는 '베이스 다이'의 성능이 중요한데, 마이크론의 경우 SK하이닉스, 삼성전자 대비 공정의 기술적 수준이 낮기 때문이다. 이에 업계는 마이크론이 오는 23일(현지시간) 진행하는 회계연도 4분기(6~8월) 실적발표에서 어떠한 대응책을 제시할 지 주목하고 있다. HBM4 동작속도 10Gbps 이상 구현…개발 속도 올려 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 크게 끌어올린 메모리다. HBM4는 6세대 제품으로, 엔비디아가 내년 출시할 최신 AI 가속기인 '루빈' 칩에 채택될 예정이다. SK하이닉스의 이번 HBM4 개발 완료 발표는 업계의 예상을 앞서는 수준이다. 당초 엔비디아 측이 메모리사와 논의한 공식적인 퀄(품질) 테스트 시점은 내년 초쯤이다. 이에 따라 각 메모리 기업들은 올 3분기 엔비디아에 샘플을 대량으로 공급하며 개발 일정을 소화해 왔다. 다만 SK하이닉스는 이와 별개로 최근까지 HBM4에 대한 내부 인증을 마무리 수순까지 끌어올렸다. 이를 기반으로 개발 완료 일정을 최대한 앞당긴 것으로 풀이된다. HBM4에 구현한 동작속도도 눈에 띈다. SK하이닉스는 HBM4에 10Gbps(초당 10기가비트) 이상의 동작속도를 구현했는데, JEDEC(국제반도체표준화기구)의 표준 동작 속도인 8Gbps를 크게 뛰어 넘은 성과다. SK하이닉스가 동작속도를 강조한 이유는 바로 엔비디아에 있다. HBM4는 엔비디아가 내년 출시할 AI 가속기 '루빈(Rubin)' 칩에 채택될 예정이다. 당초 엔비디아는 HBM4에 8~9Gbps 수준의 동작속도를 요구했으나, 최근에는 기준을 10Gbps 이상으로 높인 것으로 알려졌다. 베이스 다이서 '열위' 평가 받는 마이크론…실적 발표서 대응 주목 HBM의 동작 속도 향상을 위해서는 HBM의 베이스(로직) 다이 성능이 중요하다는 게 업계 전문가들의 시각이다. 로직 다이는 HBM을 적층한 코어 다이의 메모리 컨트롤러 기능을 담당하는 칩으로, HBM과 GPU 등의 시스템반도체를 PHY(물리계층)으로 연결한다. SK하이닉스는 이전까지 HBM의 로직 다이를 D램 공정에서 제조해 왔다. 그러나 HBM4부터는 대만 주요 파운드리인 TSMC의 12나노미터(nm) 공정에 로직다이 양산을 맡겼다. 삼성전자도 자사 파운드리 사업부의 4나노 공정을 활용해, 성능 우위를 꾀하고 있다. 반면 마이크론은 HBM4에서도 D램 공정에서 로직 다이를 자체 제작하는 방안을 고수하기로 했다. 때문에 업계에서는 마이크론이 삼성전자·SK하이닉스 대비 엔비디아의 HBM4 동작속도 요구치에 부합하기 힘들 것이라는 전망이 우세해지고 있다. 이 경우 마이크론은 엔비디아의 하이엔드 제품향 HBM4 공급에 제한이 생길 수밖에 없다. 마이크론의 공식 대응이 주목되는 이유다. 마이크론은 삼성전자, SK하이닉스 등 국내 메모리 기업보다 한 달 앞서 분기 실적 발표를 진행한다. 마이크론의 회계연도 4분기 실적발표는 오는 23일로 예정돼 있다.

2025.09.12 13:29장경윤 기자

"1억 달러 넣으면 50억 달러 번다"…엔비디아, AI 추론 수익 모델 제시

엔비디아가 인공지능(AI) 추론 시장의 판도를 바꿀 특수 목적 그래픽처리장치(GPU)를 앞세워 '긴 컨텍스트' 시대의 기술 패권 장악에 나섰다. 엔비디아는 9일(현지시간) 회사 공식 블로그를 통해 새로운 루빈 아키텍처 기반의 '루빈 씨피엑스(CPX)' GPU와 이를 탑재한 '베라 루빈 엔브이엘144 씨피엑스(NVL144 CPX)' 랙 시스템을 공개했다. 이번에 공개된 '루빈 CPX'는 AI 추론의 두 단계 중 컴퓨팅 성능이 많이 필요한 '컨텍스트 단계'를 가속화하는 데 초점을 맞춘다. 기존 인프라가 방대한 데이터를 처리하며 겪던 병목 현상을 해결하는 것이 핵심이다. 이 GPU는 ▲30페타플롭스의 NVFP4 연산 성능 ▲128기가바이트(GB) GDDR7 메모리 ▲하드웨어 비디오 인코딩·디코딩 기능을 갖췄다. 기존 모델 대비 어텐션 가속 성능은 3배 향상됐다. 함께 선보인 '베라 루빈 NVL144 CPX' 랙은 단일 시스템에 '루빈 CPX' GPU 144개, 루빈 GPU 144개, 베라 중앙처리장치(CPU) 36개를 통합했다. 이를 통해 8엑사플롭스의 연산 성능과 100테라바이트(TB)의 고속 메모리를 제공한다. 메모리 대역폭은 초당 1.7페타바이트(PB/s)에 달한다. 이러한 구조는 추론 과정을 컴퓨팅 집약적인 컨텍스트 단계와 메모리 대역폭이 중요한 생성 단계로 분리해 처리하는 '분리형 추론' 아키텍처에 기반한다. 각 단계에 최적화된 하드웨어를 할당해 전체 효율을 극대화한다. 엔비디아는 이 플랫폼이 대규모 배포 시 30배에서 50배의 투자수익률(ROI)을 달성할 수 있다고 설명했다. 1억 달러(한화 약 1천388억원)의 자본 지출이 최대 50억 달러(한화 약 6조9천400억원)의 매출로 이어질 수 있다는 분석이다. 엔비디아 측은 "루빈 CPX GPU와 베라 루빈 NVL144 CPX 랙은 확장 가능한 다차원적 성능과 아키텍처 혁신을 통해 새로운 표준을 제시한다"며 "생성형 AI 애플리케이션의 새로운 가능성을 열 것"이라고 밝혔다.

2025.09.11 15:30조이환 기자

엔비디아, 루빈 울트라·파인만 AI칩 공개…"차세대 HBM 탑재"

엔비디아가 인공지능(AI) 반도체 산업의 주도권을 유지하기 위한 차세대 GPU를 추가로 공개했다. 오는 2027년 HBM4E(7세대 고대역폭메모리)를 탑재한 '루빈 울트라'를, 2028년에는 이를 뛰어넘을 '파인만(Feynman)' GPU를 출시할 예정이다. 파인만에 대한 구체적인 정보는 아직 공개되지 않았지만, '차세대 HBM(Next HBM)'을 비롯해 다양한 혁신 기술이 적용될 것으로 전망된다. 18일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 미국 실리콘밸리 새너제이 컨벤션 센터에서 열린 연례행사인 'GTC 2025' 무대에 올라 AI 데이터센터용 GPU 로드맵을 발표했다. 이날 발표에 따르면, 엔비디아는 최신형 AI 가속기인 '블랙웰' 시리즈의 최고성능 제품인 '블랙웰 울트라'를 올해 하반기 출시한다. 해당 칩은 12단 HBM3E(5세대 HBM)를 탑재했으며, AI 성능을 이전 세대 대비 1.5배 높인 것이 특징이다. 이어 엔비디아는 HBM4를 탑재한 '루빈' 시리즈를 내년 하반기 출시한다. 루빈부터는 기존 '그레이스' CPU가 아닌 '베라' CPU가 채용된다. 루빈의 최고성능 제품인 루빈 울트라는 내후년인 2027년 하반기께 출시가 목표다. 루빈 울트라에는 HBM4E가 채용돼, 메모리 성능이 블랙웰 울트라 대비 8배나 늘어난다. 그동안 드러나지 않았던 차차세대 AI 가속기에 대한 정보도 공개됐다. 엔비디아는 루빈 이후의 제품명을 파인만으로 확정했다. 미국의 저명한 이론 물리학자인 리처드 파인만에서 이름을 따왔다. 엔비디아는 파인만에 대해 차세대 HBM(Next HBM)을 탑재한다고 기술했다. 다만 구체적인 세대명은 공개하지 않았다. 파인만은 오는 2028년 출시될 예정이다.

2025.03.19 08:43장경윤 기자

엔비디아 'GTC 2025' 개막...젠슨 황 입 주목

엔비디아가 생성형 인공지능(AI)과 고성능 컴퓨팅 미래 비전을 제시한다. 엔비디아는 17일부터 21일(현지시간)까지 미국 캘리포니아 산호세에서 'GPU 테크놀로지 컨퍼런스(GTC) 2025'를 개최해 AI 시대 필요한 차세대 그래픽처리장치(GPU)를 비롯한 AI 칩, 소프트웨어(SW) 플랫폼을 발표한다. 이번 행사는 세션 약 1천개, 연사 2천명, 전시 400개로 구성됐다. 젠슨 황 엔비디아 최고경영자(CEO)는 18일 오전 10시 SAP 센터에서 기조연설을 진행한다. 매년 글로벌 기술 업계는 황 CEO 발표 내용에 주목했다. 엔비디아는 이번 황 CEO 연설이 AI와 고성능 컴퓨팅 기술에 초점을 맞출 예정이라고 밝혔다. 로보틱스, 소버린 AI, AI 에이전트, 자동차 분야 관련 발표도 진행된다. 다수 외신은 이번 행사에서 블랙웰 칩 라인업 업그레이드 버전이 공개될 가능성이 크다고 봤다. 앞서 황 CEO는 최근 실적 발표에서 차세대 블랙웰 B300 시리즈 '블랙웰 울트라'가 올해 하반기 출시될 예정이라고 밝힌 바 있다. 블랙웰 울트라는 기존보다 더 높은 컴퓨팅 성능을 제공하며, 288GB 메모리를 탑재했다. 메모리 집약적인 AI 모델을 실행하고 학습하는 데 적합할 것이라는 평가를 받고 있다. 차세대 GPU 시리즈인 '루빈'도 이번 GTC에서 언급될 것이란 분석도 이어지고 있다. 루빈은 2026년 출시 예정이다. 테크크런치는 "이번 행사에 루빈 이후 제품에 대한 내용도 일부 공개될 전망"이라며 "루빈 울트라 GPU 혹은 루빈 다음 세대의 GPU 아키텍처일 수도 있다"고 봤다. 엔비디아는 '퀀덤 데이'를 통해 양자 컴퓨팅 전략도 제시한다. 양자 컴퓨팅 분야 주요 인사들과 양자 애플리케이션 개발을 위한 로드맵을 논의할 예정이다. 외신은 엔비디아가 올해 행사 성과가 비즈니스에 영향 미칠 것이라고 봤다. 초기 블랙웰 GPU 과열 문제와 미국 수출 통제로 인한 관세 우려가 엔비디아 주가 하락으로 이어진 바 있다. 여기에 중국 AI 스타트업 딥시크가 딥시크-R1 모델을 출시하면서 투자자들은 고성능 GPU 수요에 대한 우려를 표하고 있다. 이 외에도 엔비디아는 이번 GTC에서 글로벌 기업과 연구 기관, 정부와 맺은 전략적 협업 사례와 성과도 소개한다고 밝혔다. 개발자와 기술 전문가를 위한 교육 세션을 전년보다 확대했다. 또 데이터 보안 등 AI 윤리적 측면을 다룬 토론회도 진행될 예정이다. 엔비디아는 "이번 GTC는 AI와 가속 컴퓨팅 미래를 결정짓는 중요한 자리가 될 것"이라며 "기술 혁신을 선도하고 글로벌 산업의 발전을 이끄는 계기가 될 것"이라고 공식 홈페이지를 통해 밝혔다.

2025.03.16 09:21김미정 기자

'32억 화소' 세계 최대 디지털 카메라, 가동 준비 마쳤다

칠레 안데스 산맥에 있는 대형 망원경 '베라 C 루빈 천문대'의 세계 최대 디지털 카메라가 첫 번째 이미지 테스트에 성공해 가동 준비를 마쳤다고 우주과학매체 스페이스닷컴이 14일(현지시간) 보도했다. 미국 국립과학재단(NFS)과 에너지국이 건설한 8.4m 크기의 망원경 '베라 C 루빈 천문대'는 최근 엔지니어링 카메라로 초기 이미지를 촬영하는 등 중요한 테스트를 성공적으로 마쳤다. 올해 말 천문대에 최종 카메라가 설치되면 더 깨끗하고 선명한 사진을 촬영할 수 있게 된다. 빅터 크래벤담 루빈 천문대 프로젝트 관리자는 최근 미국 천문학회(AAS) 회의에 참석해 "단순 성공이 아니라 엄청난 성공"이라고 밝혔다. 지난 10년 간의 긴 개발 과정과 작년 10월부터 시작된 약 7주 간의 진동 테스트를 마친 후 루빈 천문대의 첫 번째 이미지 테스트가 성공했다. 이 테스트에는 시운전 카메라의 줄임말 '컴캠'(ComCam, Commissioning Camera의 약자)이라는 엔지니어링 카메라로 첫 번째 사진을 촬영하는 것이 포함됐다. 루빈 천문대가 촬영한 첫 번째 엔지니어링 이미지는 9개의 CCD 카메라 센서를 사용해 보름달 면적의 약 2배에 달하는 1억 4천400만 화소의 하늘을 포착한 9개 패널 정사각형 이미지다. 루빈 천문대 웹 사이트에서 해당 이미지의 확대 버전을 살펴볼 수 있다. 엔지니어링 카메라는 테스트 기간 동안 총 1만6천장의 이미지를 촬영했다. 베라 C 루빈 천문대는 우주의 깊은 곳을 들여다보고 초고화질 타임랩스 기록을 만들도록 개발됐다. 천문대에는 최종적으로 'LSST'(Legacy Survey of Space and Time)이라고 불리는 카메라가 탑재되는 데 이 카메라는 컴캠보다 시야가 21배 넓고 최대 32억 화소 해상도를 제공하는 렌즈가 지원된다. 이는 "세계에서 가장 큰 디지털 카메라"라고 불리고 있다. 이 카메라는 소형 자동차 크기에 무게는 약 3톤, 렌즈 너비만 1.5m에 달한다. 최대 32억 화소 렌즈를 갖춰 약 24km 떨어진 곳의 골프공을 찾아낼 수 있을 만큼 강력한 것으로 알려져 있다. 최종적으로 LSST 카메라가 천문대에 설치되면 보름달 크기의 약 45배에 달하는 면적을 촬영할 수 있게 된다. 5억 7천100만 달러가 투입된 베라 C. 루빈 천문대는 우주가 보이지 않는 암흑 물질로 구성되어 있다고 밝힌 유명한 천문학자 베라 루빈의 이름을 따서 명명됐다. 빅터 크래벤담은 최종 LSST 카메라를 탑재한 첫 번째 사진은 올해 7월까지 공개될 수 있다고 밝혔다.

2025.01.15 14:20이정현 컬럼니스트

SK하이닉스, 엔비디아에 'HBM4' 조기 공급...6월 샘플·10월 양산할 듯

SK하이닉스가 이르면 올해 6월 엔비디아에 HBM4(6세대 고대역폭메모리) 샘플을 출하할 계획인 것으로 파악됐다. 이르면 3분기말께부터 제품 공급이 시작될 것으로 관측된다. 당초 하반기 공급에서 일정을 다소 앞당긴 것으로, SK하이닉스는 차세대 HBM 시장을 선점하기 위해 양산화 준비를 서두르고 있다. 15일 업계에 따르면 SK하이닉스는 오는 6월 HBM4의 첫 커스터머 샘플(CS)을 고객사에 조기 공급하는 것을 목표로 세웠다. HBM4는 HBM은 여러 개의 D램을 수직으로 적층한 차세대 메모리다. 현재 5세대 제품인 HBM3E까지 상용화에 이르렀다. HBM4는 이르면 내년 하반기 양산이 시작될 것으로 전망된다. HBM4는 데이터 전송 통로인 I/O(입출력 단자) 수를 이전 세대 대비 2배 많은 2048개로 집적해 성능을 극대화했다. 엔비디아의 경우 당초 2026년 차세대 고성능 GPU '루빈(Rubin)' 시리즈에 12단 적층 HBM4를 탑재하기로 했었으나, 계획을 앞당겨 올 하반기 출시를 목표로 하고 있다. 이에 따라 SK하이닉스도 HBM4 개발에 속도를 내고 있다. 회사는 엔비디아향 HBM4 공급을 위한 전담 개발팀을 꾸리고, 지난해 4분기 HBM4 테이프아웃을 완료했다. 테이프아웃이란 연구소 수준에서 진행되던 반도체 설계를 완료하고, 도면을 제조 공정에 보내는 과정이다. 이후 SK하이닉스는 HBM4의 샘플을 고객사에 보내는 일정도 당초 올 하반기에서 6월로 앞당겼다. 해당 샘플은 고객사에 제품을 양산 공급하기 전 인증을 거치기 위한 커스터머 샘플로 알려졌다. HBM4 양산화를 위한 마지막 단계에 돌입한다는 점에서 의미가 있다. 사안에 정통한 관계자는 "엔비디아도 올해 하반기로 시험 양산을 당길만큼 루빈에 대한 초기 출시 의지가 생각보다 강한 것으로 보인다"며 "이에 맞춰 SK하이닉스 등 메모리 기업도 샘플의 조기 공급을 추진하고 있다. 이르면 3분기 말께는 제품 공급이 가능할 것"이라고 설명했다. HBM4는 주요 메모리 기업들의 차세대 고부가 메모리 시장의 격전지가 될 전망이다. 삼성전자는 HBM4에 탑재되는 D램에 1c(6세대 10나노급 D램)을 탑재할 계획이다. 경쟁사인 SK하이닉스와 마이크론이 1b D램을 기반으로 하는 것과 달리, 한 세대 앞선 D램으로 성능에서 차별점을 두겠다는 전략으로 풀이된다. 마이크론 역시 최근 진행한 회계연도 2025년 1분기(2024년 9~11월) 실적발표에서 "오는 2026년 HBM4의 본격적인 양산 확대를 진행할 계획"이라고 밝힌 바 있다.

2025.01.15 13:29장경윤 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

피지컬 AI 로봇, 산업 현장으로…현대차그룹 125조원 투자한다

[ZD 브리핑] 미국 관세 불확실성 지속...갤럭시S26 시리즈 공개

'AI 추론칩' 강자 리벨리온, 글로벌 실전 테스트 돌입

[단독] AI 사업 대가 기준 '1.5배' 오른다…"최종 논의 중"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.