• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'베라'통합검색 결과 입니다. (26건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] "GPU만 사오면 끝?"…정부, 1.5만장 구축 사업서 '설계 능력' 보는 까닭

정부의 대규모 그래픽처리장치(GPU) 인프라 사업 경쟁이 장비 확보에서 운용 능력 중심으로 재편되고 있다. 최신 GPU 도입 여부보다 이를 얼마나 효율적으로 설계·운영할 수 있는지가 올해 사업 선정의 핵심 변수로 떠오른 가운데, 정부가 국내 기업들의 인프라 경쟁력을 끌어올리기 위해 본격 나선 모양새다. 30일 업계에 따르면 과학기술정보통신부는 다음달 13일까지 GPU 1만5000장을 구축하기 위한 사업자 공모에 나선다. 총 2조800억원을 투입해 GPU 서버와 부대 장비를 구매한 후 산·학·연에 공급할 예정으로, 최신 GPU를 신속히 확보하고 이를 대규모로 묶어(클러스터링) 구축·운용할 수 있는 민간 기업을 선정한다는 방침이다. 앞서 정부는 지난해 추가경정예산 1조4000억원을 투입해 확보한 엔비디아 B200 등 첨단 GPU 1만3000장을 NHN클라우드, 네이버클라우드, 카카오엔터프라이즈 등을 통해 구축했다. 또 이 물량을 최근 산·학·연에 3000장, 국가 프로젝트에 4000장, 독자 AI 파운데이션 모델에 3000장씩 배분했다. 또 지난 25일부터 산학연을 대상으로 2000장에 대한 추가 공모에도 들어갔다. 올해 5월 중 선정될 사업자는 연내 GPU 1만5000장 구축 및 서비스를 개시해 2031년 12월 31일까지 운영하게 된다. 이 물량 역시 산·학·연 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 이병묵 NIPA AI인프라확충팀장은 "올해 블랙웰급 이상의 최신 GPU 1만5000장 확보를 목표로 한다"며 "고성능 GPU를 대규모로 공급할 수 있는 사업자가 높은 평가를 받을 것"이라고 말했다. 정부는 이번 사업을 통해 참여 기업들의 기술 경쟁력을 끌어올린다는 목표다. 그간 GPU 물량 싸움 중심으로 인프라 구축 사업을 펼친 결과 수행 과정에서 한계가 곳곳에서 드러났던 탓이다. 특히 지난해 처음 GPU 구축 사업에 나서면서 일부 기업들이 H100, B200급을 확보해두고도 소프트웨어, 구성 문제로 실제 성능 효율이 낮은 사례가 발생하자 정부가 이에 대해 문제의식을 크게 느낀 것으로 알려졌다. 대규모 GPU 클러스터는 데이터 흐름과 메모리 구조, 네트워크 구성에 따라 전체 성능이 좌우되는 만큼 단일 장비 성능만으로는 효율을 담보하기 어렵다.또 B200 도입에 따라 수냉식 등 최신 냉각 기술을 적용해야 함에도 불구하고 하중 보강 공사, 구조 변경 등이 빠르게 뒷받침 되지 못해 구축 일정이 지연되는 사례도 벌어지자 정부가 난감해 한 것으로 전해졌다. 업계 관계자는 "정부가 GPU 1만3000장 구축 사업을 진행하면서 GPU만 사오면 끝나면 사업이 아니란 점을 뼈저리게 느낀 듯 하다"며 "지난해엔 얼마나 GPU를 많이 확보하고 싸게 제안했는지를 중점적으로 들여다 본 탓에 정작 운용능력이 뒷받침되지 않아 정부도 속앓이를 많이 한 것으로 안다"고 지적했다. 이에 정부는 올해 사업 평가 기준을 대폭 수정했다. 단순한 장비 확보 능력보다 실제 운영 효율을 검증할 수 있는 요소들을 대거 평가 체계에 포함한 것이다. 실제 이번 사업의 주요 평가 항목 및 배점을 살펴보면 절반인 50점이 사업 준비도 및 경쟁력에 배정됐다. 이 중 인프라 준비도(18점)와 구축 계획의 구체성(32점)은 핵심 평가 항목으로 제시됐다. 특히 데이터센터 상면 확보 여부를 비롯해 전력·냉각 설비, 네트워크 구성, 자원 관리 체계 등 물리적·논리적 인프라를 종합적으로 검증하겠다는 방침을 내세웠다. 이는 단순 가격 경쟁이나 물량 확보보다 실제 대규모 GPU 클러스터를 구축해 안정적으로 운영할 수 있는 역량을 우선 보겠다는 의미다. 특히 32점이 배정된 구축계획 우수성은 정부가 이번 사업을 사실상 '설계 능력 평가'로 보고 있음을 보여준다. 어떤 GPU를 얼마나 들여오겠다는 수준을 넘어 이를 어떤 구조로 묶고 어떤 일정으로 구축하며 실제 서비스 단계까지 어떻게 연결할 것인지를 구체적으로 입증해야 높은 점수를 받을 수 있는 구조란 점에서다. 업계 관계자는 "GPU 활용 효율을 입증할 수 있는 성능 지표 제시가 요구되면서 사업자들의 부담이 한층 커진 상황"이라며 "실제 연산 효율을 얼마나 끌어올릴 수 있는지에 대한 구체적인 방법론과 결과를 함께 제시해야 하기 때문"이라고 말했다. 업계에선 이를 두고 정부가 사업 방향을 '물량 경쟁'에서 '효율 경쟁'으로 전환한 것으로 보고 있다. 동일한 GPU 환경에서도 메모리 활용 방식, 데이터 전송 구조, 추론 엔진 설계에 따라 처리 성능과 비용 효율이 크게 달라지기 때문이다. 이 과정에서 메모리 처리 구조와 데이터 흐름 최적화 등 소프트웨어 역량이 핵심 변수로 부상하고 있다. GPU 연산 성능이 높아도 메모리 대역폭이나 데이터 처리 구조가 이를 뒷받침하지 못할 경우 전체 성능이 제한되는 구조적 한계 때문이다. 이에 일부 기업들은 이러한 병목 현상을 해소하기 위해 추론 엔진 최적화, 모델 경량화, 데이터 처리 구조 개선 등 다양한 기술 경쟁을 벌이고 있다. 같은 GPU를 사용하더라도 운영 방식에 따라 처리 가능한 작업량이 크게 달라져서다. 업계 관계자는 "정부가 차세대 GPU인 '베라루빈' 제안 시 평가에 우대 조건으로 반영할 수 있도록 한 것도 이러한 흐름과 맞닿아 있다"며 "단순 도입 여부보다 고성능 장비를 안정적으로 운용할 수 있는 인프라 설계 능력을 함께 보겠다는 의미"라고 해석했다. 다만 베라루빈과 같은 차세대 GPU는 수냉 기반 구조 등으로 인해 기존 대비 장비 무게와 전력 요구 수준이 크게 높아지는 만큼, 일각에선 이를 수용할 수 있는 데이터센터 인프라 확보 여부가 새로운 변수가 될 것으로 봤다. 실제 올해 사업에서는 데이터센터 하중 구조를 사전에 점검해 제출하도록 하는 요건이 추가된 것으로 알려졌다. 지난해 일부 사업자가 수냉식 장비 도입 과정에서 구조 보강 문제로 일정 지연을 겪은 경험이 반영된 결과다. 업계 관계자는 "작년에는 장비 확보와 단가 경쟁이 중심이었다면, 올해는 성능 효율과 운영 구조까지 함께 검증하는 방향으로 완전히 바뀌었다"며 "실제 서비스를 돌릴 수 있는 수준의 설계 역량을 갖추지 않으면 사업 참여 자체가 쉽지 않은 구조"라고 밝혔다. 전문가들은 이번 사업이 국내 AI 인프라 경쟁 방식 자체를 바꾸는 계기가 될 것으로 보고 있다. 단순한 하드웨어 투자에서 벗어나 소프트웨어와 운영 기술까지 포함한 종합 경쟁력 확보가 요구되고 있기 때문이다. 또 다른 관계자는 "이제는 GPU를 얼마나 확보했는지가 아니라 같은 자원으로 얼마나 높은 효율을 내느냐가 경쟁력의 핵심"이라며 "이번 사업은 국내 기업들이 글로벌 수준의 인프라 운용 역량을 갖추도록 유도하는 전환점이 될 것"이라고 말했다.

2026.03.30 16:27장유미 기자

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

[AI 고속도로] '베라루빈' 도입·연내 구축 가능할까…정부 GPU 확충 쟁점은

정부가 '인공지능(AI) 고속도로' 구현을 위한 2조원 규모 최신 그래픽처리장치(GPU) 확충 사업에 착수한다. 엔비디아가 공개한 차세대 GPU '베라루빈' 도입 가능성까지 포함되면서 사업 방향과 세부 기준에 대한 업계 관심이 높아지고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 개최했다. 이날 현장에선 사업 구조와 평가 기준, 데이터센터 요건 등을 설명하고 현장 질의응답을 진행했다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 밝혔다. 이날 설명회에는 지난해 사업에 선정된 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)와 엘리스그룹이 자리했다. 또 삼성SDS·LG CNS 등 SI 기업과 메가존클라우드·디딤365, 레드햇·클러쉬, 델·HPE·IBM·넷앱·슈퍼마이크로 등 인프라 기업, 엔비디아·AMD·인텔, MS·구글 클라우드, SK텔레콤·쿠팡 등 60여개 기업 200여 명이 참석했다. 현장 질의응답에선 차세대 GPU 도입 기준을 비롯해 데이터센터 구축 방식, 글로벌 공급망 위협과 환율 변동에 따른 비용 부담, 연내 구축 일정 등 주요 쟁점을 중심으로 사업 참여를 검토하는 기업들의 질의가 이어졌다. 특히 베라루빈 도입 여부와 구축 일정 간 균형, 국내 인프라 중심 운영 원칙 등이 핵심 관심사로 부각됐다. 최신 GPU 중심 평가…베라루빈 도입 기준·일정 변수는 -사업 요건의 비용 대비 높은 GPU 성능은 어떤 기준으로 평가되나. "경제성 항목은 단순히 장비 수량을 많이 확보하는 개념이 아니라, 최신 GPU 기준으로 성능 대비 얼마나 효율적으로 제안하느냐를 보는 것이다. 동일한 예산 안에서 최신 아키텍처 GPU를 얼마나 확보할 수 있는지가 핵심이다. 구형 GPU를 대량으로 제안하는 방식보다는 최신 GPU 중심으로 실제 AI 학습과 추론에 적합한 성능을 확보했는지가 평가 포인트가 된다. 성능 대비 비용, 그 성능이 실제 AI 활용에 얼마나 적합한지를 종합적으로 볼 것이다." -베라루빈 제안 시 클러스터 구축 기준은 어떻게 적용되나. "베라루빈은 아직 구체적인 구성 방식이나 클러스터 단위가 완전히 정형화되지 않은 차세대 GPU다. 기존 블랙웰 계열과 동일한 기준을 그대로 적용하기는 어려울 수 있다. 이 부분은 칩 제조사와 공급망을 통해 확인해야 하는 영역이다. 제안 단계에선 가능한 범위에서 구성 계획을 제시하되, 세부 기준은 제조사 스펙과 실제 공급 조건을 반영해 판단하게 된다. 중요한 것은 차세대 GPU 도입 의지와 실현 가능성이다." -특정 제조사의 GPU만을 고려해 평가가 이뤄지는지. "이번 사업은 특정 칩 제조사를 배제하거나 제한하려는 것이 아니라, 국가 차원에서 AI 인프라를 가장 빠르게 확보하는 것이 목적이다. 현재 시장에서 대규모 AI 모델 학습과 서비스에 가장 널리 활용되는 최신 GPU를 중심으로 판단하게 된다. 다양한 선택지가 있을 수 있지만 실제 활용성과 안정성, 공급 가능성을 종합적으로 고려할 수밖에 없다." -베라 루빈 출시 일정과 연내 구축 목표가 충돌할 경우 기준은. "기본적으로 이번 사업은 연내 구축과 서비스 개시가 중요한 목표다. 다만 차세대 GPU 도입은 평가에서 우대 요소로 반영된다. 베라 루빈의 경우 일반적인 글로벌 공급 일정과 달리 국내 도입 시점이 앞당겨질 가능성도 있다. 관계 부처와 제조사 간 협의를 통해 국내 물량 확보를 추진해 왔다. 결국 일정과 최신성 두 요소를 함께 고려하되, 현실적인 공급 상황을 반영해 판단할 것이다." -GPU 납기 지연 등 변수 발생 시 일정 조정이 가능한가. "사업자가 최종 선정된 이후 협약 단계에서 시장 상황을 반영해 일부 조정은 가능하다. 기본 원칙은 유지하되, 실제 납기나 공급 이슈가 불가피하게 발생하는 경우까지 일률적으로 적용하기는 어렵다. 협약 과정에서 합리적으로 논의할 수 있는 여지는 있다." "국내 데이터센터 집적이 원칙"…냉각 인프라도 예산에 포함 -복수 데이터센터를 활용한 구축·운용이 가능한가. "데이터센터를 여러 개 제안하는 것은 가능하다. 다만 사업에서 요구하는 최소 클러스터 단위는 반드시 동일 공간 또는 동일 층에 물리적으로 집적돼야 한다. 대규모 AI 연산을 위해서는 GPU 간 통신 지연을 최소화하는 구조가 필요하기 때문이다. 따라서 분산 배치는 가능하지만, 핵심 클러스터는 집적형으로 구성해야 한다." -동일 제조사 내 서로 다른 GPU 모델을 혼합해 제안할 수 있나. "가능은 하지만 단순 혼합이 아니라, 각각의 GPU 구성에 대한 명확한 목적과 타당성을 제시해야 한다. 어떤 워크로드에 어떤 GPU를 쓰는지, 클러스터 단위 기준을 어떻게 충족하는지를 설명해야 한다. 단순히 여러 모델을 섞는 방식은 설득력이 떨어질 수 있다." -해외 데이터 연동이나 네트워크 활용은 원천 불가능한가. "사업의 기본 원칙은 국내 데이터센터에서 GPU를 직접 운영·통제하는 것이다. 국가 AI 인프라라는 특성상 데이터 주권과 보안이 중요하다. 다만 실제 운영 과정에서 필요한 세부 사항은 추가 논의를 통해 정리할 수 있다." -수냉 배관 등 데이터센터 공사 비용도 사업 지원비에 포함되나. "GPU 서버가 최고 성능을 낼 수 있도록 필요한 환경이라면 통합 구축 범위에 포함해 제안할 수 있다. 단순히 장비만 도입하는 것이 아니라 실제 운영 가능한 인프라를 구축하는 것이 목적이다. 전력·냉각·네트워크까지 포함한 전체 시스템 관점에서 제안하는 것이 중요하다." -콜드플레이트 등 냉각 구성 요소는 어떻게 반영해야 하나. "세부적인 하드웨어 구성은 서버 벤더와 칩 제조사 기준을 따르는 것이 바람직하다. GPU 성능을 충분히 발휘할 수 있는 구성이라면 관련 부대장비까지 포함해 제안하면 된다. 단순 장비 나열이 아니라 완성된 인프라로서 제안해야 한다." 환율 변수에도 제안가 기준…"사업 종료 후 관리는 정부가" -환율 변동에 따른 가격 차이는 추후 어떻게 반영되나. "기본적으로는 제안 시점에서 확보한 가격을 기준으로 본다. 공모 사업 특성상 사후 정산 구조이기 때문에 가격 변동이 발생하더라도 그 기준을 중심으로 관리하게 된다." -환율 급등 등 외부 변수 발생 시 대응은. "원칙은 제안 가격 기준이다. 다만 전쟁이나 글로벌 공급망 충격과 같은 불가피한 상황이 발생할 경우에는 협약 단계에서 논의가 필요할 수 있다. 모든 변수를 사전에 규정하기는 어렵지만 현실적인 범위에서 대응할 예정이다." -정부 활용분과 기업 자체 활용분은 어떤 기준으로 산정되나. "정부 활용분에 대해 요구되는 최소 클러스터 규모를 먼저 충족해야 하고 그 이후 남는 자원을 자체 활용분으로 설정하는 구조다. GPU 종류나 성능이 서로 다른 경우에는 단순 장수 기준만으로 판단하지 않고 도입 비용과 활용 목적까지 함께 고려해 전체 구성의 타당성을 평가한다. 단순 비율이 아니라 정부 활용 목적에 부합하는지와 자원 배분의 합리성을 종합적으로 볼 것이다." -정부 활용분 GPU에 대한 수요는 보장되나. "수요 모집과 배분은 정부가 담당한다. 사업자는 인프라를 제공하고 운영을 지원하는 역할을 수행하게 된다. 수요 확보 부담을 사업자에게 전가하는 구조는 아니다." -사업 종료 후 GPU 자산은 어떻게 되나. "GPU와 부대장비는 NIPA 자산으로 관리된다. 이후 처리 방식은 관련 규정과 절차에 따라 결정된다. 매각이나 이전 등 다양한 방안을 검토할 예정이다."

2026.03.20 17:58한정호 기자

[AI 고속도로] '베라루빈' 확보 속도전…'AI G3' 노린 정부, 주도권 경쟁 본격화

정부가 엔비디아의 차세대 그래픽처리장치(GPU) '베라루빈' 확보에 공을 들이고 있다. 생성형 인공지능(AI) 경쟁이 단기간 내 판가름 날 수 있다는 판단 아래 최신 GPU를 조기에 도입해 기술 격차를 좁히겠다는 전략으로, 'AI 3강(G3)'에 안착할 수 있는 기반 마련에 본격 나선 분위기다.과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이 사업의 핵심은 블랙웰급을 넘어서는 차세대 GPU 도입 여부다. 정부는 공모 요건에서 특정 제품을 명시하지는 않았지만, 설명회 과정에서 베라루빈과 같은 차세대 하이엔드 GPU를 제안할 경우 평가에서 긍정적으로 반영할 수 있다는 입장을 내놨다. 베라루빈은 엔비디아가 차세대 아키텍처로 준비 중인 GPU로, 기존 제품 대비 연산 성능과 에너지 효율이 크게 향상될 것으로 기대된다. 다만 아직 상용화 초기 단계에 있어 글로벌 빅테크 기업을 중심으로 공급이 이뤄질 가능성이 높은 제품이다. 업계 관계자는 "정부가 이번에 베라루빈 도입 가능성을 열어둔 점이 눈에 띈다"며 "AI 인프라 경쟁에서 뒤처지지 않겠다는 의지가 반영된 조치로 보인다"고 말했다. 이날 설명회에서는 차세대 GPU 확보 시점과 관련해 일반적인 출시 일정보다 국내 도입을 앞당기기 위한 협의가 진행되고 있다는 점도 언급됐다. 글로벌 공급 구조상 후순위로 밀릴 가능성을 고려해 초기 물량 확보를 선제적으로 추진하려는 전략으로 해석된다. 정부가 이처럼 차세대 GPU 확보에 적극 나선 것은 AI 경쟁 구도가 급변했다는 점이 반영된 것으로 풀이된다. 생성형 AI 확산 이후 모델 개발과 서비스 적용까지 걸리는 시간이 크게 단축되면서, 컴퓨팅 인프라 확보 시점 자체가 경쟁력을 좌우하는 요소로 떠올랐기 때문이다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 몇 개월 내로 개발과 적용이 이뤄지고 있다"며 "올 하반기나 내년 상반기면 경쟁 구도가 결정될 수 있다"고 강조했다. 이 같은 상황에서 차세대 GPU 확보 여부는 이번 사업의 핵심 변수로 꼽힌다. 최신 GPU 기반 대규모 클러스터를 구축할 경우 국내 기업과 연구기관이 고성능 AI 모델을 개발·학습할 수 있는 환경이 마련된다. 반면 차세대 GPU 도입이 지연될 경우 인프라 수준 격차가 기술 경쟁력 차이로 이어질 수 있다는 우려도 제기된다. 정부는 이번 사업을 통해 단순히 GPU를 도입하는 데 그치지 않고, 이를 기반으로 한 AI 생태계 확장을 함께 추진한다는 계획이다. 확보된 GPU 자원은 산업계·학계·연구계에 배분돼 AI 모델 개발과 서비스 고도화에 활용된다. 특히 대규모 클러스터를 통한 학습 환경을 제공함으로써 국내에서도 초거대 AI 개발이 가능한 기반을 마련하겠다는 구상이다. 업계에선 베라루빈 도입 여부가 이번 사업의 방향성을 가늠할 핵심 변수로 보고 있다. 차세대 GPU 확보 속도가 기술 경쟁력과 직결되는 만큼, 도입 시점과 규모에 따라 사업 성격이 달라질 수 있다는 분석이다. 업계 관계자는 "베라루빈은 단순히 성능이 좋은 GPU라기보다 '최신 기술을 얼마나 빠르게 가져올 수 있느냐'를 보여주는 상징적인 장비"라며 "정부가 이 부분을 강조하는 것은 글로벌 AI 경쟁에서 뒤처지지 않겠다는 메시지로 읽힌다"고 말했다. 정부 역시 차세대 GPU 도입과 관련해 일정 수준의 유연성을 두고 대응할 방침이다. 공급 상황과 시장 변수에 따라 도입 시점과 물량이 달라질 수 있는 만큼, 향후 협상 과정에서 세부 조건을 조정하겠다는 입장이다. NIPA 관계자는 "차세대 GPU는 출시 시점과 공급 상황이 유동적인 만큼, 선정 이후 협상을 통해 구축 시기와 방식 등을 현실적으로 조율할 계획"이라며 "국내 AI 경쟁력 확보를 위해 필요한 자원은 최대한 빠르게 확보하겠다"고 밝혔다.

2026.03.20 17:39장유미 기자

[AI 고속도로] 고성능 GPU 확보 나선 정부, 2조 규모 인프라 사업에 기업 관심 ↑

정부가 약 2조800억원 규모의 '인공지능(AI) 컴퓨팅 인프라 구축 사업'을 추진하며 첨단 그래픽처리장치(GPU) 확보에 속도를 내고 있다. 생성형 AI 경쟁이 짧은 기간 내 판가름 날 수 있다는 판단에 따라 최신 GPU를 조기에 대규모로 확보해 'AI 고속도로'를 구축하겠다는 구상이지만, 사업 구조와 요구 조건 측면에서 기업들의 부담이 적지 않을 것이란 관측도 나오고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이후 사업 협약 종료 시점인 2031년 12월 31일까지 산업계·학계·연구계 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 사업은 민간 클라우드 사업자(CSP)를 선정해 국내 데이터센터에 GPU 클러스터를 구축·운영하도록 하는 방식으로 추진된다. 정부는 GPU 서버와 스토리지, 네트워크, 냉각장치 등 장비 구매 비용만 지원하고, 운영 비용은 사업자가 부담하도록 했다. 대신 일부 GPU 자원은 자체 활용을 허용해 수익을 확보할 수 있도록 했다. 이번 사업의 핵심은 '최신성'과 '대규모 클러스터'다. 정부는 최소 256노드, 2048장 이상의 GPU를 단일 클러스터로 구성하는 방안을 기본으로 제시하며 블랙웰급 이상 최신 GPU 도입을 사실상 전제로 삼았다. 차세대 GPU인 베라루빈 계열도 제안 가능 대상으로 열어두면서 최신 기술 도입을 적극 유도하는 모습이다. 특히 베라루빈 도입을 둘러싼 논의는 이번 사업의 방향성을 보여주는 대목으로 꼽힌다. 당초 사업 요건에 베라루빈을 명시적으로 포함하는 방안까지 검토됐던 것으로 전해졌으나, 최종 공모에선 강제 조건으로 포함시키지 않았다. 업계에선 정부가 엔비디아와의 협의를 통해 국내 물량 확보 가능성을 타진하면서도, 아직 레퍼런스가 부족한 점을 감안해 기업 자율 제안으로 방향을 조정한 것으로 보고 있다. 그러나 실제 도입 규모는 제한적일 것이라는 전망이 우세하다. 차세대 GPU 특성상 공급 물량이 충분하지 않고, 성능 검증 사례도 부족해 기업들이 대규모로 제안하기에는 부담이 크다는 이유에서다. 업계에선 일부 상징적 물량 수준에서 제안이 이뤄질 가능성에 무게를 두고 있다. 평가 기준을 보면 정부가 무엇을 우선순위로 두고 있는지도 드러난다. 총 100점 가운데 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도 18점, 구축계획 우수성 32점이 핵심이다. 데이터센터 상면 확보를 비롯해 전력·냉각 설비, 네트워크 구성, 보안·안정성 체계 등이 주요 평가 항목에 포함됐다. 이는 대규모 GPU를 실제로 안정적으로 운영할 수 있는 인프라 역량을 가장 중요한 기준으로 삼겠다는 의미다. GPU 물량보다 성능을 중시하는 평가 방식도 특징이다. 동일 예산 기준에서 구형 GPU를 대량 확보하는 방식보다 최신 GPU 기반 고성능 클러스터를 구축하는 제안이 더 유리한 구조다. 서비스 개시 시점이 빠를수록 가점을 부여하는 항목도 포함돼 조기 구축과 실제 활용 가능성 역시 핵심 평가 요소로 설정됐다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 개발에서 서비스까지 걸리는 시간이 크게 단축된 상황"이라며 "최신 GPU를 신속하게 확보해 국내에 공급하는 것이 경쟁력 확보의 핵심"이라고 강조했다. 업계에선 이번 사업을 두고 참여 문턱이 높은 것 같다는 평가를 내놨다. 대규모 GPU 클러스터를 구축하려면 충분한 데이터센터 상면과 전력, 고성능 냉각 인프라가 필수적인데 이를 단기간 내 확보할 수 있는 기업이 제한적이기 때문이다. 수도권 중심 데이터센터 전력 수급 문제도 부담 요인으로 지목된다. 운영비 부담도 주요 변수다. 정부 지원은 장비 구매에 한정되고 실제 운영비는 사업자가 부담해야 하기 때문이다. 자체 활용 GPU로 수익을 확보할 수는 있지만, 정부 활용 자원 비중이 높을수록 평가에서 유리한 구조여서 사업성과 점수 간 균형을 맞추기 쉽지 않다는 지적이 나온다. 가격과 환율 리스크도 기업들이 부담으로 꼽는 대목이다. GPU 조달 비용은 대부분 달러 기반으로 형성되는데, 사업 구조상 비용 절감분은 정산 대상인 반면 가격 상승에 따른 리스크는 일정 부분 사업자가 떠안아야 한다. 차세대 GPU의 경우 납기와 가격 변동성이 커 불확실성이 더 크다.여기에 올해부터 서비스 수준 협약(SLA) 요건이 새롭게 포함되면서 운영 부담은 더 커질 전망이다. 장애 대응, 성능 유지, 기술 지원 체계를 구체적으로 제시해야 하는 만큼, 단일 CSP가 이를 모두 감당하기는 쉽지 않다는 평가다. 이에 따라 CSP가 운영·관리 전문기업(MSP)과 협력하는 컨소시엄 형태가 늘어날 것이라는 관측이 나온다.업계 관계자는 "단순히 GPU를 구축하는 수준이 아니라 24시간 대응 체계와 서비스 품질까지 함께 요구되면서 사업 난도가 크게 올라갔다"며 "운영과 기술지원 역량을 동시에 갖춘 구조를 만들어야 하는 부담이 커진 상황"이라고 말했다.이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 맡는다. 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 여부와 확보 계획, 데이터의 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등도 주요 평가 항목에 포함됐다. 특히 AI 워크로드를 이해하는 전문 인력과 24시간 대응이 가능한 기술지원 체계를 반드시 제시해야 한다는 점도 이번에 강조됐다. 단순 인프라 운영을 넘어 AI 모델 개발과 서비스까지 지원할 수 있는 수준의 역량이 요구된다는 점에서 기업 부담이 추가로 커졌다는 평가가 나온다.설계 부담도 적지 않을 것으로 보인다. 특히 차세대 GPU인 베라루빈을 적용할 경우 클러스터 구성 단위와 성능 기준이 명확히 정해져 있지 않아 기업이 직접 제조사와 협의를 통해 구성 방안을 검토해야 하는 상황이다. GPU 종류별로 클러스터 구조와 성능 산정 방식이 달라질 수 있는 만큼, 제안 단계에서부터 기술적 검증과 설계 부담이 기업에 상당 부분 전가됐다는 평가가 나온다. 이번 설명회에는 네이버클라우드, KT클라우드, NHN클라우드, 카카오엔터프라이즈, SK텔레콤, 삼성SDS 등 주요 클라우드 사업자를 비롯해 메가존클라우드, LG CNS 등 클라우드 서비스 운영 관리 기업(MSP)과 델, 시스코, HPE, 엔비디아 등 글로벌 장비·반도체 기업까지 대거 참석했다. 이 같은 구조를 감안하면 실제 경쟁은 일부 대형 사업자 중심으로 형성될 가능성이 크다. 업계에선 네이버클라우드와 KT클라우드를 유력 후보로 거론하는 가운데 삼성SDS와 SK텔레콤 등도 경쟁군으로 함께 언급했다. NHN클라우드 등은 컨소시엄 형태로 참여할 가능성이 제기된다. 아마존웹서비스(AWS), 마이크로소프트 애저, 구글 클라우드 등 해외 CSP 역시 참여는 가능하지만 국내 데이터센터 기반과 직접 운영·통제 요구 등을 고려할 때 진입 장벽은 여전히 높다는 평가다. 업계 관계자는 "베라루빈 같은 차세대 GPU는 상징적으로 일부 들어갈 수는 있겠지만, 실제 사업은 전력과 냉각, 운영 역량 확보가 더 큰 변수"라며 "SLA까지 포함되면서 기업 부담이 상당히 커진 구조"라고 말했다. NIPA 관계자는 "시장 상황과 공급 여건이 쉽지 않다는 점을 충분히 인지하고 있다"며 "선정 이후 협상 과정에서 일정과 세부 조건은 현실적으로 조정해 나가고, 민간과 협력해 AI 인프라를 빠르게 구축하겠다"고 밝혔다.

2026.03.20 17:02장유미 기자

글로벌 서버 시장, 엔비디아 '베라 루빈' 중심 재편…통합 인프라에 방점

엔비디아의 차세대 인공지능(AI) 슈퍼컴퓨팅 아키텍처 '베라 루빈'이 공개되면서 글로벌 서버·인프라 시장이 빠르게 재편되고 있다. 델 테크놀로지스, 슈퍼마이크로, HPE 등 주요 기업들이 일제히 해당 플랫폼을 중심으로 제품과 전략을 내놓으며 AI 인프라 경쟁이 차세대 아키텍처 선점 국면으로 본격 진입하는 양상이다. 19일 엔비디아는 미국 새너제이에서 열린 'GTC 2026'에서 차세대 AI 컴퓨팅 플랫폼 베라 루빈을 중심으로 한 인프라 전략을 공개하고 주요 파트너사들과의 협력 확대를 발표했다. 가장 공격적으로 움직인 곳은 델 테크놀로지스다. 델은 '엔비디아 기반 델 AI 팩토리'를 전면 고도화하며 베라 루빈 기반 서버를 핵심 축으로 내세웠다. 대표적으로 '파워엣지 XE9812'는 베라 루빈 NVL72 플랫폼을 기반으로 설계된 수랭식 서버로, 대규모 AI 학습과 추론을 동시에 지원하는 차세대 주력 제품으로 꼽힌다. 델은 단순 서버 공급을 넘어 데이터 플랫폼, 네트워크, 서비스까지 통합한 엔드투엔드 구조를 통해 AI를 파일럿에서 실제 운영 단계로 확장하는 데 초점을 맞췄다. 델 AI 팩토리는 전 세계 4000여 기업에서 활용되며 최대 2.6배 수준의 투자수익률(ROI)을 기록한 것으로 나타났다. 마이클 델 델 테크놀로지스 회장은 "이제 기업들은 AI 도입 여부가 아니라 데이터를 어떻게 AI에 적합하게 만들고 이를 운영 환경에서 어떻게 확장하며 ROI를 어떻게 입증할지를 고민하고 있다"며 "엔비디아 기반 델 AI 팩토리는 이러한 과제에 대한 검증된 해답을 제공한다"고 강조했다. 슈퍼마이크로는 인프라 구조 측면에서 베라 루빈 활용을 전면에 내세웠다. 회사는 데이터센터 빌딩 블록 솔루션(DCBBS)에 베라 루빈 NVL72와 HGX 루빈 NVL8, 베라 CPU를 통합한 차세대 플랫폼을 공개했다. 이 플랫폼은 단일 랙 기준 최대 3.6엑사플롭스의 추론 성능과 75테라바이트 메모리, 초당 1.6페타바이트에 달하는 대역폭을 제공하는 것이 특징이다. 기존 대비 와트당 성능을 최대 10배까지 끌어올리고 토큰 처리 비용은 10분의 1 수준으로 낮추는 것이 목표다. 슈퍼마이크로는 수냉식 기반 랙 스케일 설계를 통해 전력·냉각·네트워크를 통합한 'AI 팩토리형 데이터센터'를 구현하는 데 집중하고 있다. 이는 대규모 추론과 장문 컨텍스트 처리, 에이전틱 AI 워크로드 증가에 대응하기 위한 전략이다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이제 모든 조직이 AI 팩토리를 필요로 하는 시대에 들어섰다"며 "추론 중심 워크로드가 데이터센터 설계 기준 자체를 바꾸고 있다"고 말했다. HPE는 운영 가능한 AI에 방점을 찍었다. 베라 루빈 기반 시스템을 포함한 'HPE 기반 엔비디아 AI 컴퓨팅' 포트폴리오를 확대하며 보안과 확장성을 동시에 확보한 프로덕션 환경 구축에 나서고 있다. 특히 'HPE 프라이빗 클라우드 AI'를 중심으로 최대 128개 그래픽처리장치(GPU)까지 확장 가능한 환경과 에어갭 구조를 제공해 금융·공공 등 규제 산업에서도 활용 가능한 AI 인프라를 구현했다. 또 엔비디아 인증 스토리지를 기반으로 데이터 파이프라인 병목 문제 해결에도 나섰다. 안토니오 네리 HPE CEO는 "AI 경쟁의 핵심은 속도와 규모, 신뢰"라며 "엔비디아와 함께 턴키 방식 AI 인프라를 제공해 기업이 AI를 실제 비즈니스 가치로 전환할 수 있도록 지원하고 있다"고 밝혔다. 이번 GTC 2026의 핵심은 베라 루빈을 중심으로 한 AI 인프라 재편이다. 기존 GPU 중심 경쟁을 넘어 CPU·네트워크·스토리지·소프트웨어까지 통합된 AI 팩토리 구조가 새로운 표준으로 자리 잡고 있다는 평가가 나온다. 델은 엔드투엔드 플랫폼으로, 슈퍼마이크로는 고집적 인프라 설계로, HPE는 운영·보안 중심 전략으로 각각 차별화를 꾀하고 있다. AI 경쟁이 모델 성능에서 인프라 효율과 운영 역량으로 이동하는 가운데, 베라 루빈이 블랙웰의 뒤를 이어 향후 글로벌 AI 데이터센터 차세대 표준으로 자리 잡을 전망이다. 젠슨 황 엔비디아 CEO는 "모든 기업과 국가가 AI를 구축하는 시대에 접어들었다"며 "우리는 통합 데이터 플랫폼과 확장 가능한 인프라, 구축 전문성을 결합할 것"이라고 밝혔다.

2026.03.19 17:20한정호 기자

엔비디아 "베라 CPU, 88코어 단일 제품만 공급"

엔비디아가 올 하반기부터 공급할 자체 개발 CPU '베라(Vera)'를 단 한 종류만 공급할 것이라고 밝혔다. 18일(현지시간) 젠슨 황 엔비디아 CEO가 GTC 2026 행사 중 진행된 브리핑에서 이렇게 설명했다. 베라 CPU는 엔비디아가 현재 블랙웰 GPU와 함께 공급하는 '그레이스(Grace)' CPU 후속 제품이다. Arm IP(지적재산권) 기반으로 자체 개발한 올림푸스 코어 88개를 탑재했다. 엔비디아는 그레이스 CPU를 블랙웰 GPU 제어 등에 활용하고 따로 판매하지 않았다. 그러나 올해부터는 베라 CPU를 별도로 분리해 공급할 예정이다. 18일(현지시간) 미국 톰스하드웨어에 따르면, 젠슨 황 엔비디아 CEO는 "베라 CPU는 단 한 종류(88코어)만 만들 것"이라고 설명했다. 인텔이나 AMD 등 기존 x86 프로세서 경쟁사 등과 달리 제품 라인업을 세분화하지 않겠다는 것이다. 젠슨 황 CEO는 "현재 데이터센터 수요가 소수의 하이퍼스케일러에 집중돼 있으며, 이들이 요구하는 것은 가장 빠른 컴퓨터"라고 밝혔다. 이어 "같은 제품을 대규모 생산하는 것이 제조와 검증, 그리고 소프트웨어 최적화 측면에서 훨씬 유리하며 단일 제품으로도 수십억 달러의 매출을 올릴 수 있다"고 덧붙였다. 엔비디아는 베라 CPU를 단일 칩뿐 아니라 256개 CPU를 묶은 액체 냉각 랙 시스템 형태로도 제공할 계획이다. 이 시스템은 2만2000개 이상의 CPU 환경을 동시에 실행할 수 있어 대규모 AI 서비스 운영에 적합하다.

2026.03.19 08:56권봉석 기자

우주 데이터센터, 엔비디아도 뛰어든다

엔비디아가 우주 환경에서 AI 연산을 수행하겠다는 비전을 제시했다. 궤도 데이터센터(ODC)란 개념을 내놓으면서 위성에 데이터센터를 올리겠다는 구상인데 우주 공간에서 차폐 등의 제약을 타개할 방안은 내놓지 않고 컴퓨팅이 구현할 수 있다는 점만 강조했다. 16일(현지시간) 엔비디아 뉴스룸에 따르면 엔비디아는 GTC에서 스페이스-1 베라루빈 모듈, IGX토르, 젯슨 오린 플랫폼을 통해 우주 공간에서도 데이터센터급 AI 연산을 구현할 수 있다고 밝혔다. 위성에 실어야 하는 데이터센터의 크기와 무게, 전력 제약이 큰 환경에서도 AI 추론과 영상 분석, 센서 데이터 처리를 수행할 수 있도록 설계됐다는 설명이다. 스페이스-1 베라루빈 모듈은 향후 출시 예정이며 나머지는 현재 상용화된 솔루션이다. 엔비디아는 “베라루민 모듈에 탑재된 루빈 GPU는 H100 대비 최대 25배 높은 AI 연산 성능을 제공해 지리공간 정보 분석과 자율 우주 운영을 지원한다”며 “IGX토르와 젯슨 오린 플랫폼은 저전력 고성능 AI 추론 기능을 제공해 우주에서 엣지 컴퓨팅을 구현할 수 있다”고 설명했다. 이어, “지상에서는 RTX PRO 6000 블랙웰 서버 에디션 GPU로 대규모 위성 이미지 데이터를 분석할 수 있고 기존 CPU 기반 시스템보다 최대 100배 빠른 처리 성능을 게공한다”고 덧붙였다. 엔비디아의 우주 데이터센터 협력 파트너로 케플러커뮤니케이션, 플래닛, 소피아스페이스, 스타클라우드 등이 꼽혔다. 그간 우주 데이터센터는 지상의 제한된 전력 문제로 떠오른 개념인데, 엔비디아는 데이터센터 위치를 지표면에서 우주로 옮기는 것 외에 우주에서 발생하는 데이터를 처리한다는 데 초점을 둔 점이 눈길을 끄는 부부분이다. 젠슨 황 엔비디아 CEO는 “AI는 데이터가 생성되는 곳에서 직접 처리돼야 하고 이는 위성과 우주선을 실시간 의사결정이 가능한 자율 시스템으로 바꿀 것”이라고 말했다.

2026.03.17 10:34박수형 기자

삼성전자, 엔비디아 '4나노' 새 추론 칩 만든다

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자 파운드리와의 협력을 공식적으로 언급했다. 엔비디아의 최신형 AI 가속기 '베라 루빈' 기반 시스템과 결합되는 그록(Groq)의 언어처리장치(LPU)를 삼성 파운드리에서 양산하는 구조다. 젠슨 황 CEO는 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 AI 칩 생산 파트너를 소개하는 과정에서 "삼성전자가 그록3 LPU 칩을 제조하고 있다"고 밝혔다. 그록은 엔비디아가 지난해 말 약 29조원을 들여 우회 인수한 팹리스 스타트업이다. 거대언어모델(LLM)의 추론 작업 속도를 높이는 LPU를 전문으로 개발해 왔다. 그록3 LPU는 이 기업의 최신 칩으로, 4나노미터(nm) 공정 기반으로 알려졌다. 젠슨 황 CEO는 "삼성이 우리를 위해 그록3 LPU 칩을 제조하고 있다. 지금 가능한 한 최대한 빠르게 생산을 늘리고 있다"며 "삼성에게 정말 감사드린다"고 강조했다. 그록3 LPU는 현재 양산 단계에 들어갔다. 젠슨 황 CEO가 예상한 출하 시점은 오는 3분기다. 이번 발언은 삼성 파운드리가 엔비디아의 차세대 AI 칩 생산에 참여하고 있음을 공개적으로 언급한 것으로, AI 반도체 공급망에서 양사의 협력이 긴밀하게 이어지고 있음을 보여주는 대목으로 평가된다. 또한 삼성전자는 지난 2월 엔비디아향 HBM4(6세대 고대역폭메모리) 양산 출하를 공식 발표한 바 있다. 이를 통해 삼성전자는 엔비디아 AI 생태계 확장을 위한 메모리·파운드리 공급사로서 협력 영역을 더 확장할 수 있게 됐다.

2026.03.17 09:34장경윤 기자

마이크론, 엔비디아 '베라 루빈'향 HBM4 공급 공식화…"1분기 대량 양산"

미국 메모리 기업 마이크론이 최근 불거진 고대역폭메모리(HBM) 성능 논란에 대해 정면 반박했다. 엔비디아의 최신 AI 가속기향으로 개발한 자사 HBM4(6세대 HBM)가 대량 양산(High-Volume Production) 체제에 돌입했음을 공식적으로 밝혔다. 마이크론은 엔비디아 '베라 루빈(Vera Rubin)'향으로 36GB 12단 HBM4의 양산을 올 1분기 시작했다고 16일(현지시간) 밝혔다. 마이크론은 "HBM4를 통해 11Gb/s 이상의 핀 속도를 달성해 2.8TB/s 이상의 대역폭을 제공한다"며 "이는 HBM3E 대비 2.3배의 대역폭과 20% 이상의 전력 효율성 향상을 의미한다"고 설명했다. 또한 마이크론은 HBM4 16단 샘플을 고객사에 출하했다. 16단 HBM은 내부의 각 D램을 더 밀도있게 적층해야 하기 때문에, 고도의 패키징 기술이 요구된다. 수밋 사다나 마이크론 수석 부사장은 "엔비디아와의 긴밀한 협력을 통해 컴퓨팅과 메모리가 처음부터 함께 확장될 수 있도록 설계하고 있다"며 "이러한 혁신의 핵심에는 AI의 엔진인 마이크론의 HBM4가 있고, 이는 전례 없는 대역폭과 용량, 전력 효율성을 제공한다"고 밝혔다. 그는 이어 "HBM4와 업계 최초의 SOCAMM2 및 Gen6 SSD가 대량 생산에 돌입하면서, 마이크론의 메모리와 스토리지는 차세대 AI의 잠재력을 최대한 발휘할 수 있는 핵심 기반을 형성한다"고 강조했다. 마이크론의 이번 발표는 최근 불거진 HBM4 성능 논란을 불식시키기 위한 것으로 풀이된다. 앞서 반도체 업계는 마이크론의 엔비디아향 HBM4 상용화 일정이 다소 지연될 것이라는 의견을 제기해 왔다. 엔비디아가 HBM4에 필요한 성능 기준을 강화하면서, 국내 기업 대비 뒤쳐진 공정을 채택한 마이크론이 기술적으로 한계에 부딪혔다는 시각에서다. 마이크론은 HBM4에 HBM3E와 마찬가지로 1b(5세대 10나노급) D램을 코어 다이로 활용한다. 컨트롤러 역할의 베이스 다이도 기존과 마찬가지로 D램 공정에서 양산한다. 현재 삼성전자는 자사 파운드리 4나노미터(nm) 공정을, SK하이닉스가 TSMC 12나노 공정을 활용하고 있다. 한편 마이크론의 SOCAMM2는 엔비디아 베라 루빈 NVL72 시스템 및 독립형 엔비디아 베라 CPU 플랫폼 용으로 설계됐다. CPU 당 최대 2TB의 메모리와 1.2TB/s의 대역폭을 지원한다.

2026.03.17 09:01장경윤 기자

엔비디아, 우주용 AI 플랫폼 '스페이스1' 구상 공개

엔비디아가 16일(현지시간) GPU 기반 AI 컴퓨팅 플랫폼 '베라 루빈'을 우주에서 구동하기 위한 '스페이스1' 구상을 공개했다. 이날 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 공개된 스페이스1은 베라 루빈을 기반으로 위성이나 우주 인프라에서 직접 AI 연산을 수행할 수 있도록 설계됐다. 젠슨 황 엔비디아 CEO는 "스페이스1은 AI 연산을 지구 밖으로 확장해 우주에서도 AI 모델을 실행하고 데이터를 처리할 수 있는 새로운 컴퓨팅 환경"이라고 밝혔다. 현재 많은 위성 시스템은 수집한 데이터를 지상으로 전송한 뒤 분석을 수행한다. 그러나 우주에서 직접 AI 연산을 수행하면 데이터 처리 속도를 크게 높이고 통신 비용을 줄일 수 있다. 이러한 방식은 지구 관측, 우주 탐사, 통신 네트워크 운영 등 다양한 분야에서 활용될 수 있다. 엔비디아는 차세대 데이터센터 플랫폼인 베라 루빈 기반으로 우주에서도 작동할 수 있는 AI 컴퓨팅 기술을 연구하고 있다. 특히 AI가 위성 이미지 분석, 우주 탐사 데이터 처리, 자율 위성 운영 등에 활용될 수 있는 만큼 우주 컴퓨팅 시장 역시 새로운 성장 영역이 될 것으로 전망된다. 젠슨 황 CEO는 "우주 공간에서는 대기를 이용한 전도·대류가 없어 냉각이 어렵고 복사 방식으로 열을 방출해야 한다"고 설명했다. 엔비디아는 이런 과제를 해결하기 위해 액시옴 스페이스, 플래닛랩스, 케플러 커뮤니케이션 등 여러 우주 관련 기업과 협력할 예정이다. 스페이스1 베라 루빈 모듈 출시일은 미정이다.

2026.03.17 07:15권봉석 기자

엔비디아, Arm 기반 에이전틱 AI 특화 '베라' CPU 출시

엔비디아가 16일 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 Arm IP(지적재산권) 기반으로 자체 개발한 '베라(Vera)' CPU를 정식 출시했다. 엔비디아는 전 세대인 '그레이스(Grace)' CPU는 자체 설계했지만 블랙웰 GPU 제어 등에 활용하고 따로 판매하지 않았다. 그러나 올해부터는 베라 CPU를 별도로 분리해 공급할 예정이다. 베라 CPU는 Arm 기반 아키텍처 위에 엔비디아가 설계한 올림푸스 코어 88개를 탑재했다. GPU와 NV링크 인터페이스로 연결되며 AI 모델 실행과 데이터 이동을 효율적으로 처리하도록 설계됐다. 데이터 전송 대역폭은 최대 1.8TB/s 수준이다. 젠슨 황 엔비디아 CEO는 "베라 CPU는 AI 데이터센터에 특화된 맞춤형 CPU로 기존 서버용 CPU 대비 성능은 50% 향상됐고 전력 효율은 두 배로 높아졌다"고 설명했다. 알리바바와 코어위브, 메타와 오라클 클라우드 등 클라우드 서비스 제공사(CSP), 델테크놀로지스와 HPE, 레노버, 슈퍼마이크로 등 서버 제조사들이 베라 CPU 도입을 위해 엔비디아와 협업하고 있다. 엔비디아는 베라 CPU를 단일 칩뿐 아니라 256개 CPU를 묶은 액체 냉각 랙 시스템 형태로도 제공할 계획이다. 이 시스템은 2만2000개 이상의 CPU 환경을 동시에 실행할 수 있어 대규모 AI 서비스 운영에 적합하다. 젠슨 황 CEO는 "베라 CPU와 루빈 GPU 등 차세대 AI 인프라 플랫폼 관련 매출은 2025년부터 2027년까지 최소 1조 달러(약 1491조 5000억원)에 달할 것"이라고 전망했다.

2026.03.17 06:51권봉석 기자

엔비디아 "피지컬AI가 성장 주도…훈련→추론으로"

"AI가 생성 AI와 디지털 에이전트를 넘어 현실 세계에서 작동하는 단계로 진화하고 있다. 로봇과 자율주행으로 대표되는 '피지컬 AI'가 AI 산업의 다음 성장 축이 될 것이다." 16일(현지시간) 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 젠슨 황 엔비디아 CEO가 이렇게 강조했다. 엔비디아는 이날 기조연설에서 AI 컴퓨팅 인프라 전략, 차세대 데이터센터 플랫폼 '베라 루빈', 기업용 에이전틱 AI 솔루션, 로봇과 자율주행까지 이어지는 장기 로드맵을 제시했다. "AI 산업, 모델 훈련에서 추론 중심으로 이동" 이날 젠슨 황 CEO는 AI 산업 핵심이 모델 훈련 중심에서 추론 중심으로 이동하고 있다고 강조했다. 생성 AI와 에이전틱 AI가 실제 서비스에 사용되기 시작하면서 AI가 지속적으로 판단하고 행동해야 하기 때문에 컴퓨팅 수요가 급격히 늘어나고 있다는 것이다. 젠슨 황 CEO는 "이런 추세에 따라 연산 요구량은 과거와 비교할 수 없을 정도로 증가하고 있다"며 "AI는 이제 단순한 모델이 아니라 지속적으로 작동하는 시스템이 되고 있다"고 설명했다. 최대 144개 GPU 연결 '루빈 울트라' 플랫폼 공개 엔비디아는 CES 2026 기조연설에서 올 하반기부터 투입될 데이터센터용 차세대 AI GPU '베라 루빈'을 공개한 바 있다. 베라 루빈은 Arm 기반 CPU '베라'와 차세대 GPU '루빈'을 결합해 대규모 AI 모델 학습과 추론을 동시에 처리할 수 있도록 설계됐다. 젠슨 황 CEO는 이날 최대 144개의 루빈 GPU를 연결한 루빈 울트라도 새로 공개했다. 내년에는 새 CPU인 '로자(Rosa)', 새 GPU 아키텍처 '파인만'을 결합한 차세대 플랫폼이 등장 예정이다. 젠슨 황 CEO는 "AI 산업은 수년 단위로 인프라 투자가 이루어지기 때문에 장기적인 플랫폼 로드맵이 중요하다"며 "매년 새로운 아키텍처를 시장에 투입할 예정"이라고 말했다. 베라 루빈에 그록 LPU 통합... 올 3분기 출시 이날 엔비디아는 베라 루빈 플랫폼에 작년 12월 인수한 추론 특화 칩 스타트업 '그록(Groq)'을 통합할 계획도 발표했다. 그록은 AI 모델의 추론이나 실행을 위해 설계된 '언어처리장치(LPU)'로 거대언어모델(LLM) 처리 가속 기술을 개발하는 회사다. 베라 루빈 플랫폼에 추가되는 그록 LPX는 256개 LPU를 모은 랙 단위 AI 추론 시스템이며 추론시 지연 시간을 낮춘다. 젠슨 황 CEO는 "그록3 칩은 삼성전자가 생산하고 있으며 이를 활용한 LPX 시스템은 올 3분기부터 시장에 출시 예정"이라고 설명했다. 보안 강화한 에이전틱 AI '니모클로' 공개 오픈소스 기반 에이전틱 AI 모델인 '오픈클로'는 강력한 자동화 기능을 갖췄지만 기업 환경에서는 예측 불가능한 행동과 데이터 유출이 문제로 지적됐다. 엔비디아는 이날 기업 환경에서 오픈클로를 활용할 수 있는 '니모클로(NemoClaw)'를 공개했다. 정책 기반 보안과 프라이버시 제어 기능을 추가하는 한편 AI 에이전트가 외부 시스템과 상호작용할 때 데이터 처리 방식과 권한을 통제할 수 있다. 젠슨 황 CEO는 "에이전틱 AI는 단순한 챗봇을 벗어나 기업 업무를 수행할 것이며 이런 에이전트를 배치하려면 보안, 정책 관리, 데이터 접근 제어 등이 필요하다. 니모클로는 이런 역할을 담당할 것"이라고 말했다. 자율주행 파트너사에 현대차그룹 합류 엔비디아는 메르세데스 벤츠와 토요타, GM 등 글로벌 완성차 업체와 함께 자율주행 플랫폼을 구축하고 이를 실제 상용차에 투입하고 있다. 이날 젠슨 황 CEO는 "BYD와 현대차그룹, 닛산과 지리 등이 자율주행 파트너로 새롭게 합류했으며 기존 파트너사를 합하면 연간 생산 규모는 1천800만 대가 될 것"이라고 밝혔다. 현대차그룹은 올 초 신임 AVP본부장 겸 포티투닷(42dot) 대표이사로 박민우 전 엔비디아 부사장을 선임하는 등 독자 자율주행 체계 구축 대신 엔비디아와 협업을 예고한 바 있다. 젠슨 황 CEO는 이어 "전세계에 네트워크를 갖춘 우버와 함께 자율주행 로보택시 네트워크 구축도 추진할 것"이라고 설명했다. 기조연설 말미에 겨울왕국 '올라프' 로봇 등장 기조연설 말미에는 월트디즈니 내 연구조직인 '디즈니 리서치'가 엔비디아와 협업해 개발한 로봇인 '올라프(Olaf)'가 등장했다. 올라프는 겨울왕국 시리즈에 등장하는 캐릭터이며 이를 로봇으로 구현하기 위해 실제 세계를 시뮬레이션하는 옴니버스 기술과 피지컬 AI, 로봇 기술이 적용됐다. 올라프는 엔비디아의 피지컬 AI 기술과 로봇 응용 가능성을 보여주는 역할을 했다. 무대 위에 올라 관객을 향해 인사하고 젠슨 황 CEO와 자연스런 대화를 나누기도 했다. 젠슨 황 CEO는 "AI는 이제 소프트웨어를 넘어 현실 세계로 확장되고 있다"며 “로봇과 자율 시스템이 새로운 AI 산업을 만들어 갈 것”이라고 말했다.

2026.03.17 06:34권봉석 기자

엔비디아 "AI 인프라 투자, 일시적 사이클 아니다"

엔비디아가 25일(현지시간) 2026 회계연도 4분기(11~1월) 실적발표 이후 진행된 컨퍼런스 콜에서 인공지능(AI) 인프라 투자가 단기 사이클이 아니라 구조적인 성장 국면에 진입했다고 설명했다. 젠슨 황 엔비디아 CEO는 "에이전틱 AI의 전환점이 이미 찾아왔고 기업 전반에서 이를 처리하기 위한 연산 수요가 급증하고 있다. 토큰을 생성하려면 연산 능력이 요구되며 토큰 없이는 매출이 없다. '연산 능력이 곧 매출'인 시대"라고 설명했다. 그는 또 "주요 클라우드 고객들의 현금흐름 역시 AI 수요 확대에 따라 성장할 것이다. 이제 데이터센터는 AI 공장이며, 기업들은 매출을 창출하기 위해 연산 능력 증대에 투자할 수밖에 없다"고 강조했다. 베라 CPU, 데이터 후처리 등 작업에 큰 역할 할 것 엔비디아는 올 초 CES 2026에서 베라(Vera) CPU와 루빈(Rubin) GPU를 공개하고 올 하반기부터 본격 공급에 들어간다고 밝힌 바 있다. 젠슨 황 CEO는 "베라 CPU는 데이터 중심 AI 워크로드에 최적화됐다. 데이터 전처리부터 학습 이후 단계까지 CPU 활용이 늘고 있으며, 베라는 이러한 후처리와 데이터 작업에 매우 중요한 역할을 할 것"이라고 설명했다. 콜렛 크레스 엔비디아 최고재무책임자(CFO)는 "루빈 아키텍처는 전력 효율과 성능 개선 측면에서 기존 세대를 크게 뛰어넘는 것이 목표이며 성능 대비 전력과 가격 경쟁력을 지속적으로 개선해 장기적으로 높은 수익성을 유지할 것"이라고 설명했다. "공급망 전반 협력으로 생산 능력 확보에 집중" 글로벌 빅테크의 AI 인프라 투자로 지난 해 말부터 D램과 낸드 플래시메모리 등 메모리 반도체 수급난이 계속되고 있다. 특히 AI 서버 확산 과정에서 고대역폭 메모리(HBM) 등 핵심 부품의 공급이 제한적이라는 점은 업계 공통 과제로 지적되고 있다. 이날 컨퍼런스 콜에서도 공급망과 수급 문제가 주요 문제로 지적됐다. 이에 대해 콜렛 크레스 CFO는 "현재 공급망 전반에 대한 투자와 협력을 통해 필요한 생산 능력을 확보하는 데 집중하고 있다"고 설명했다. H200 수출 승인에도 실제 실적은 '제로' 도널드 트럼프 2기 행정부는 올 초 블랙웰 아키텍처 기반 H200 GPU의 중국 수출을 비 군사적 목적으로, 미국 내 고객사에 판매하는 물량 중 50%만 허용하기로 했다. 그러나 현재는 중국 정부가 H200 GPU 수입을 제한하고 있는 상황이다. 콜렛 크레스 CFO는 "미국 정부의 H200 수출 승인은 있었지만 아직 매출은 발생하지 않은 상황이다. 중국 내 수입이 언제 허용될지는 현재로서는 알 수 없다"고 설명했다. 이어 "최근 중국 내 경쟁사가 기업공개(IPO)로 자본력을 강화하고 기술적인 진전을 이루고 있다. 미국이 AI 분야에서 리더십을 유지하려면 중국을 포함한 전 세계 모든 개발자와 기업을 플랫폼 생태계 안으로 포용해야 한다"고 밝혔다.

2026.02.26 10:24권봉석 기자

엔비디아, 작년 4분기 영업익 61.2조…또 사상 최대

엔비디아가 25일(현지시간) 2025년 4분기(11~1월, 회계연도 기준 2026년 4분기) 실적과 매출을 발표했다. 매출은 자체 전망치를 5% 이상 넘어섰고 영업이익도 전년 동기 대비 두 배 이상 늘어났다. 엔비디아 4분기 매출은 681억 2700만 달러(약 97조 1800억원)로 전년 동기(393억 달러, 약 56조 1000억원) 대비 73% 이상 늘어났다. 또 작년 11월 회사 자체 전망치인 650억 달러(약 92조8000억 원)를 크게 넘어섰다. 영업이익은 429억 달러(약 61조 2000억원)로 전년 동기(220억 달러, 약 31조4000억원) 대비 두 배 가까이 증가했다. 젠슨 황 최고경영자(CEO)는 "컴퓨팅 수요가 기하급수적으로 증가하고 있으며, 에이전틱 AI 전환의 변곡점이 왔다"고 설명했다. 이어 "그레이스 블랙웰은 현재 추론 시장에서 토큰당 비용을 한 자릿수 수준으로 낮추며 주도적 위치를 확보했고, 베라 루빈 아키텍처는 이러한 리더십을 더욱 확대할 것"이라고 밝혔다. 인공지능(AI) 칩과 관련 부품을 포함하는 데이터센터 부문 매출은 623억 달러(약 88조 9000억원)로 전년 동기 대비 75%, 전 분기 대비 22% 증가했다. 전체 매출의 약 91%를 데이터센터 부문이 차지했다. 데스크톱과 노트북용 지포스 GPU 등을 공급하는 게이밍 부문 매출은 37억 달러(약 5조 3000억원)로 전년 동기 대비 47% 늘었다. 이 부문은 과거 핵심 사업이었지만 서버와 데이터센터 중심으로 사업 구조가 재편되면서 상대적 비중이 축소됐다. 워크스테이션과 쿼드로 등 전문가용 GPU를 공급하는 프로페셔널 비주얼라이제이션 부문 매출은 13억 달러(약 1조 8500억원)로 전년 동기 대비 2.5배 가까이 증가했다. 엔비디아는 "4분기 중 출시한 전문가용 그래픽카드 'RTX 프로 5000 72GB 블랙웰'과 GB10 기반 DGX 스파크의 출시 국가 확대, 성능 업데이트가 영향을 미쳤다"고 설명했다. 오토모티브(자동차) 및 로보틱스 부문 매출은 6억 달러(약 8600억원)로 전년 대비 6% 증가했다. 엔비디아는 4분기 말 기준 자사주 매입 승인 한도 가운데 585억 달러(약 83조 5000억 원)가 남아 있으며, 오는 4월 1일 주당 1센트 배당을 지급할 예정이라고 밝혔다. 배당락은 3월 11일이다. 엔비디아는 올해 1분기(2~4월) 매출을 780억 달러(약 111조 3000억원) 수준으로 전망했다. 다만 이는 중국 시장 매출을 전혀 반영하지 않은 수치다. 실적 발표 이후 주가는 시간 외 거래에서 종가(195.56달러) 대비 1% 내외로 등락을 이어가고 있다.

2026.02.26 08:48권봉석 기자

엔비디아, Arm 주식 110만주 전량 매각... 지분 관계 청산

엔비디아가 영국 Arm 인수를 위해 2020년부터 매입한 주식 중 남아있던 110만 주를 모두 처분했다. 엔비디아는 2020년 9월 400억 달러(약 47조 5000억원)를 투입해 일본 소프트뱅크 그룹이 보유한 Arm을 인수하겠다고 밝힌 바 있다. 그러나 이 같은 시도는 영국 경쟁시장청, 미국 연방거래위원회(FTC) 등 각국 경쟁당국의 심사 단계에서 가로막혔다. 퀄컴과 구글, 마이크로소프트와 아마존, 삼성전자 등 Arm 설계자산을 라이선스해 반도체를 만드는 주요 기업들도 이를 반대했다. 엔비디아와 소프트뱅크 그룹은 2022년 2월 "양사의 선의에도 불구하고 각국 규제로 거래를 완수할 수 없는 중대한 제약사항이 발생했기 때문에 인수-양도 계약을 중단한다"고 밝혔다. 엔비디아는 Arm 대주주인 일본 소프트뱅크 그룹에 위약금으로 12억 5000만 달러(약 1조 4790억원)를 지급했다. 소프트뱅크는 2023년 미국 나스닥 시장에 Arm을 재상장해 투자금을 회수했다. 엔비디아는 16일(현지시간) 1억 4000만 달러(약 2031억 9600만원) 상당 Arm 주식 110만 주를 모두 처분하고 지분관계도 청산했다. 단 엔비디아와 Arm의 협력은 지속될 것으로 보인다. 엔비디아는 2022년 인수 시도 무산 이후에도 Arm과 20년 단위 장기 라이선스 계약을 새로 맺었다. 블랙웰 구동에 쓰이는 그레이스 CPU, 올 하반기 출시될 차세대 GPU 루빈에 쓰이는 베라 CPU 모두 Arm IP 기반이다. 반면 GPU 제어에는 오픈소스 반도체 IP인 리스크파이브(RISC-V)를 활용하는 것으로 알려져 있다.

2026.02.19 10:16권봉석 기자

[유미's 픽] 李 'AI 고속도로'가 바꾼 판…정부 GPU 지원, 스타트업 실험에 불 붙였다

'인공지능(AI) 고속도로' 구축을 위해 이재명 정부가 추진해온 고성능 그래픽처리장치(GPU) 지원 사업이 국내 AI 스타트업 생태계 조성에 실질적인 역할을 했다는 평가가 나오고 있다. 대규모 연산 자원이 필수적인 파운데이션 모델 개발과 차세대 AI 구조 연구에서 초기 자본이 부족한 스타트업들도 정부 덕에 기술 실험을 지속할 수 있는 토대가 마련됐다는 분석이다. 10일 업계에 따르면 트릴리온랩스는 지난해 9월부터 4개월여간 정부로부터 엔비디아 H200 GPU 80장 규모의 고성능 연산 자원을 지원받아 차세대 AI 구조 연구를 진행했다. 이를 통해 초거대 모델 학습뿐 아니라 기존 트랜스포머 구조의 연산 효율을 개선하기 위한 신규 아키텍처 실험과 대규모 검증을 병행할 수 있는 환경을 구축했다. 이 연산 인프라는 구체적인 기술 성과로도 이어졌다. 트릴리온랩스는 지원받은 GPU 자원을 활용해 지난 달 디퓨전 기반 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다. '트리다-7B'는 단어를 하나씩 순차적으로 생성하는 기존 방식에서 벗어나 문장 전체를 병렬로 생성하는 확산(diffusion) 기법을 언어 모델에 적용한 것이 특징이다. 또 이미지 생성에 주로 활용되던 디퓨전 기술을 언어 모델 구조에 이식함으로써 추론 속도와 연산 효율을 동시에 끌어올렸다. 이와 함께 지난해 10월에는 소규모 프록시 모델을 활용해 대형 언어모델의 성능을 사전에 예측하는 '알브릿지(rBridge)' 기법도 개발했다. 실제 대형 모델을 반복 실행하지 않고도 성능을 가늠할 수 있는 구조로, 연산 효율을 최대 700배 이상 개선하고 거대언어모델(LLM) 개발 비용을 대폭 절감할 수 있는 가능성을 제시했다. 대규모 모델 학습에 앞서 시행착오를 줄일 수 있다는 점에서 파운데이션 모델 개발 방식 자체를 바꿀 수 있는 접근으로 평가된다. 업계에선 이러한 성과가 단순한 개별 기술 개발을 넘어 AI 연구·개발의 비용과 시간, 자원 구조를 근본적으로 재설계했다는 점에 주목하고 있다. 대형 모델을 '더 많이 돌리는 방식'이 아니라 '덜 돌리고도 더 많이 검증하는 방식'으로 전환할 수 있는 가능성을 보여줬다는 점에서다. 이는 스타트업이 제한된 자원 환경에서도 고난도 연구를 지속할 수 있는 실질적인 해법으로 꼽힌다. 이 같은 결과 뒤에는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 지원 방식도 한 몫 했다는 평가다. 앞서 정부는 삼성SDS·KT클라우드·엘리스클라우드를 '고성능컴퓨팅 지원사업' 공급사로 선정한 후 지난해 9월부터 12월까지 국내 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등에 총 1천 장의 GPU를 지원했다. 당시 삼성SDS와 엘리스그룹은 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급했다. 당시 정부에선 그간 단순히 GPU를 일괄 배분하는 데 그치지 않고 연구 단계와 실험 난이도에 맞춰 자원 활용 계획을 조정하며 과제 수행 전반을 관리했다. 또 개발 과정에서 발생하는 변수에 따라 지원 방식을 유연하게 조정하고 현장의 피드백을 즉각 반영하는 방식으로 연구 완성도를 높였다. 이 과정에서 정부는 단순한 예산 집행 기관을 넘어 프로젝트의 '내비게이터' 역할을 수행하며 실질적인 성과를 견인했다는 평가를 받았다. 또 단순히 규모가 큰 기업이 아닌, 독보적인 기술력과 성장 잠재력을 보유한 스타트업을 정밀하게 선별해 과제 수행 기업으로 낙점하려는 노력이 참여 기업으로부터 큰 호응을 얻었다. 업계 관계자는 "정부가 행정적 관리에 그치지 않고 모델 출시 과정에서 발생하는 변수에 맞춰 지원 체계를 업데이트했다"며 "현장의 목소리를 즉각 반영해 모델의 완성도를 높이는 실질적인 가이드도 제공해줬다"고 말했다.이어 "무한정한 지원 대신, 한정된 예산 내에서 최선의 결과물을 낼 수 있도록 목표 난이도를 정교하게 조정해준 점도 인상 깊었다"며 "이를 통해 자원의 낭비를 막고 효율적인 사용 위에 최대의 성과를 이끌어냈다"고 덧붙였다. 트릴리온랩스 역시 정부 인프라 지원을 발판 삼아 국내에서 시도된 적 없는 기술 실험을 진행할 수 있었다고 평가했다. 독자적인 모델 구조와 학습 기법을 실제 대규모 환경에서 반복 검증하며 스타트업이 겪는 컴퓨팅 파워 한계를 일정 부분 극복할 수 있었다는 것이다. 신재민 트릴리온랩스 대표는 "정부의 GPU 지원 사업이 단순한 인프라 제공을 넘어 기술 기업의 도전 방식을 바꿨다"며 "자본력보다 기술적 실험과 구조 혁신에 집중할 수 있는 조건을 마련했다는 점에서 국내 AI 생태계에 미친 영향이 적지 않다"고 강조했다. 이 같은 분위기 속에 정부가 추가경정예산으로 확보한 고성능 GPU 자원으로 어떤 AI 연구 기관, 기업들이 수혜를 받을지 관심이 쏠린다. 정부는 총 1만3천136장 규모의 GPU를 최대 12개월까지 이용할 수 있도록 한 사업을 공고한 후 지난 달 28일 마감했다. 이번에는 학계·연구기관은 무상으로, 산업계는 자부담 방식으로 지원받는 구조다. 구축·운영은 민간 클라우드 3사가 맡는다. 네이버클라우드는 세종 데이터센터에 H200 2296장을 안착시켰고, 카카오는 안산 데이터센터에 B200 2040장을 클러스터 형태로 구축했다. NHN클라우드는 3월께 B200 6120장을 갖출 계획이다. 정부는 이 사업에 예산 1조4590억원을 투입했다. 이번 프로젝트는 과제별로 H200, B200 중 하나만 신청할 수 있다. 신청은 서버 묶음 기준으로 이뤄진다. H200은 최소 서버 2대(16장)에서 최대 서버 32대(256장)까지, B200은 최소 서버 2대(16장)에서 최대 서버 16대(128장)까지다. 조만간 선정될 수요 기업은 원격 접속 방식인 GPUaaS(GPU as a Service)로 고성능 컴퓨팅 자원을 손쉽게 이용할 수 있다. 정부가 고수한 '1사 1지원' 원칙을 사실상 폐기해 중복 신청 문턱이 낮아진 점도 눈에 띈다. 이 일로 동일 기업 내 복수 부서도 각각 GPU 자원을 확보할 수 있게 됐다. 다만 연구 인력의 독립성과 과제 주제는 차별돼야 한다. 여기에 정부는 지난해 확보한 1만3000장에 이어 올해는 B200 기준 1만5000장을 투입해 지원 범위를 넓힐 계획이다. 이를 구축하기 위해 총 2조831억원(출연금)이 투입될 이번 사업 공고는 이달 중 나올 예정으로, 과기정통부 단일 사업 기준 최대 규모 프로젝트로 평가된다. 또 단일 사업자가 전체 물량을 감당하기 어려운 만큼, 사업 구조 자체를 어떻게 설계할지가 관건이 될 전망이다. 과기정통부 관계자는 "주요 클라우드 서비스 제공업체(CSP)들과 면담한 결과 데이터센터 상면(물리적 수용 공간) 확보는 어느 정도 가능한 수준으로 파악됐다"며 "최신 GPU를 확보하는 것이 유리한 만큼 엔비디아 차세대 AI 칩 '베라루빈'을 업체들이 제안할 경우 가점을 줄 지에 대한 방안에 대해선 고민 중"이라고 밝혔다. 업계에선 정부의 고성능 연산 인프라 지원이 일회성 사업에 그치지 않고 파운데이션 모델·신규 아키텍처·산업 특화 AI로 이어지는 연속적인 연구 생태계로 정착할 수 있을지가 향후 사업 성공 여부의 관건이 될 것이라고 전망했다. 업계 관계자는 "특히 연산 자원 접근성이 기술 경쟁력으로 직결되는 AI 산업 특성을 감안할 때 정부의 GPU 지원 정책이 국내 스타트업들의 글로벌 도전 여력을 좌우하는 핵심 변수로 작용할 것으로 예상된다"며 "단기 성과보다 중장기 연구 축적이 가능한 구조로 설계될 경우 정부 지원이 국내 AI 산업의 체질을 바꾸는 계기가 될 수 있다"고 말했다.

2026.02.10 11:43장유미 기자

AI에 밀린 지포스..."엔비디아, RTX 50 GPU 추가 출시 보류"

엔비디아가 올해 성능을 강화한 '지포스 RTX 50 시리즈' GPU 신제품을 출시하지 않을 것이라는 전망이 나왔다. 미국 IT매체 디인포메이션이 5일(현지시간) 엔비디아 내 복수 관계자를 인용해 이같이 보도했다. 엔비디아는 일반 소비자용 GPU 출시 이후 일정 시간이 지나면 작동 클록을 높이고 메모리 탑재량을 늘린 '슈퍼' 시리즈를 추가 출시했다. 이는 제품 수명을 연장하고 최대 경쟁사인 AMD 대응력을 유지하기 위한 수단이다. 그러나 엔비디아는 올 초 CES 2026에서 PC용 그래픽카드 새 제품이나 파생 제품을 공개하지 않았다. 디인포메이션은 "RTX 50 파생 제품의 설계는 이미 끝났지만 메모리 반도체 수급난과 공급 부족 때문에 출시가 보류됐다"고 설명했다. 디인포메이션은 또 관계자를 인용해 "엔비디아는 새 GPU 아키텍처 '루빈(Rubin)'을 적용한 RTX 50 시리즈 후속 제품을 2027년 말 대량 생산하려던 계획도 연기했다"고 주장했다. 작년 1월에 출시된 블랙웰 아키텍처 기반 지포스 RTX 50 시리즈가 내년까지 최대 3년간 유지될 것이라는 의미다. 2년 간격으로 지포스 새 GPU를 투입하던 과거 행보와 달리 이례적이다. 엔비디아가 GPU 생산에서 일반 소비자용 지포스 GPU 대신 블랙웰/루빈 등 AI 관련 GPU 가속기를 우선하는 데는 구조적인 이유가 있다. 현재 엔비디아의 매출 중 절대 다수는 데이터센터 부문에서 나온다. 엔비디아의 최근 실적발표(2025년 11월 3분기)에 따르면 전체 매출 570억 600만 달러(약 83조 7988억원) 중 데이터센터 부문 매출은 512억 달러(약 75조 2640억원)로 89%에 달한다. 반면 지포스 RTX 시리즈 등 게이밍 부문 매출은 42억 6500만 달러(약 6조 2696억원)로 전체 매출의 7.3% 수준까지 하락했다. 또 최대 경쟁사인 AMD가 중저가 GPU에 집중하고 있고 고성능 제품에서는 경쟁 제품이 사실상 없다. 엔비디아는 디인포메이션에 "지포스 RTX GPU 수요가 높고 메모리 공급에는 제약이 있지만 모든 지포스 제품군을 계속해서 공급 중이며 메모리를 최대한 확보하기 위해 공급사와 긴밀히 협력하고 있다"고 밝혔다.

2026.02.06 08:47권봉석 기자

류제명 차관 "엔비디아, 내년 양산 GPU 한국에 우선 공급"

류제명 과학기술정보통신부 제2차관이 12일 “엔비디아에서 (블랙웰 아키텍처 기반 AI 서버용) GB300을 한국에 조기에 공급하고, 2027년 양산 계획인 베라루빈을 한국에 우선 공급을 추진한다”고 밝혔다. 류 차관은 미국 라스베이거스에서 열린 CES 출장을 마치고 한국에 돌아와 이날 자신의 페이스북 계정에 “하정우 청와대 AI미래기획수석 의견대로 제가 베라루빈은 한국에 제일 먼저 공급해 주면 좋겠다고 했는데 (엔비디아에서) 그렇게 하겠다고 답했다”며 이같이 적었다. 이어, “최신 GPU를 가장 먼저 써볼 수 있다는 것도 AI 모델 경쟁에 매우 중요한 역할을 하는 상황이라 큰 의미가 있는 일”이라고 평가했다. 류 차관은 또 “국내 엔비디아 연구소 설립 문제도 젠슨황 CEO가 직접 챙기고 있다고 학인했다”며 “스탠포드대 교수이자 세계적인 AI 석학인 최예진 교수가 엔비디아 연구팀에 합류해 핵심적인 역할을 하고 있다. 조만간 가시적 일정이 구체화 될 것”이라고 했다. 그러면서 “피지컬AI가 급진전되고 있는 상황에서 이를 주도하는 엔비디아가 국내에 관련 연구소를 세우기로 한 것은 엔비디아가 피지컬AI 시대에 한국을 얼마나 중요하게 생각하는지 보여주는 일”이라고 강조했다. CES를 둘러본 결과 주요 특징으로는 AI의 전면화, AI 생태계 자체의 고도화를 키워드로 꼽았다. 류 차관은 “CES에서 가장 많이 들은 단어가 피지컬AI”라며 “피지컬AI 파운데이션 모델 경쟁, 관련 반도체 경쟁, 그리고 자율주행차와 휴머노이드 등 피지컬AI를 둘러싼 기술개발이 급진전되고 있다”고 진단했다. 아울러 “엔비디아다 자율주행차용 AI 모델인 알파마요를 개발하고 벤츠와 협력해 1분기에 세계 최초로 추론형 AV를 미국시장에 내놓기로 하는 등 피지컬AI 풀스택을 완성했다고 하고, 모바일 시대를 주도한 퀄컴이 자율주행차와 휴머노이드 피지컬AI 반도체에 사활을 걸고 투자를 하는 것도 인상적이었다”고 덧붙였다. 아마존 자율주행차 죽스(ZOOX)와 구글 웨이모 탑승 경험을 이야기하면서 “현대차가 국내 규제 때문에 미국서 시험 운행을 하고 있다는 이야기에 안타까움과 한국이 자율주행차 시대에 낙오하거나 도태까지 되겠다는 절박한 생각이 들었다”고 전했다.

2026.01.12 23:27박수형 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

AI 3강의 꿈, '보안 사상누각' 위에 세울 순 없다

[국방 AX 거점 ①] 'AI 전장' 현실화…국방, AX 전환 속도 붙는다

신세계 이마트, 오픈AI 손 덥석...신의 한 수일까

[단독] 네이버클라우드 핵심 AI 인력 떠난다…이동수 전무, 5월 창업 '기대'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.