• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아 GPU'통합검색 결과 입니다. (139건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] "GPU 넘는다"…삼성·LG·롯데·포스코 가세로 국산 NPU 확산 본격화

국산 신경망처리장치(NPU)를 중심으로 한 국내 인공지능(AI) 산업 재편이 본격화되고 있다. 정부가 50조원 규모의 'K-엔비디아' 육성 프로젝트를 추진하며 정책 드라이브를 강화하는 가운데 민간 기업들도 공공·제조·클라우드·서비스 등 각 영역에서 NPU 도입과 사업화를 서두르는 모습이다. 3일 업계에 따르면 최근 국내 주요 IT·산업 기업들은 그래픽처리장치(GPU) 중심 AI 인프라에서 벗어나 NPU를 기반으로 한 구조 전환을 추진하며 비용 효율과 전력 절감, 데이터 주권 확보를 동시에 노리고 있다. 기술 검증 단계를 넘어 실제 서비스와 인프라로 확산되고 있는 상황을 고려한 것으로, AI 서비스 확산에 따라 추론 수요가 급증하면서 전력 소비와 운영 비용 부담이 커진 점도 한 몫 했다. 정부도 이 같은 변화에 맞춰 정책 지원을 강화하고 있다. 실제 과학기술정보통신부와 금융위원회는 지난달 민관 합동 간담회를 통해 AI 반도체 시장이 범용 GPU 중심에서 저전력·고효율 중심 구조로 전환되고 있다고 진단하고 국산 NPU 산업 육성에 정책 역량을 집중하겠다고 밝혔다. 국민성장펀드를 통해 향후 5년간 50조원을 투입하는 'K-엔비디아' 프로젝트도 추진 중이다. 이에 따라 클라우드 인프라 영역에서도 국산 NPU 적용이 구체화되고 있다. 삼성SDS가 국산 NPU 기반 '서비스형 NPU(NPUaaS)'를 오는 7월 출시하는 것이 대표적 사례다. 삼성SDS는 기존 '서비스형 GPU(GPUaaS)' 중심 구조에서 벗어나 NPU를 포함한 하이브리드 인프라를 구축함으로써 기업들이 AI 워크로드 특성에 따라 연산 자원을 선택할 수 있도록 하겠다는 전략을 내세웠다. 클라우드에서 구독형으로 NPU를 제공함으로써 초기 투자 부담을 낮추고 도입 장벽을 줄인 점도 특징이다. NPU 도입은 공공과 산업 현장을 중심으로도 확대되는 흐름을 보이고 있다. 비용과 전력 효율이 중요한 공공 인프라를 중심으로 적용 검토가 이뤄지면서 초기 수요도 형성되는 분위기다. 특히 공공 및 유통 인프라 분야에서는 비용 경쟁력 확보를 중심으로 NPU 도입이 이뤄지고 있다. 롯데이노베이트는 딥엑스와 협력해 지능형 CCTV와 ITS에 NPU를 적용하며 GPU 대비 총소유비용(TCO) 절감을 추진 중이다. 업계에선 정책 인센티브가 구체화되기 전부터 국산 반도체 적용을 검토하는 등 선제 대응 성격이 강한 사례라고 봤다. 제조 분야에서는 포스코DX가 모빌린트 NPU를 산업용 제어 시스템에 탑재해 설비 단계에서 실시간 AI 분석과 제어가 가능한 구조를 구축하고 있다. 이는 클라우드 중심 AI에서 벗어나 현장 중심의 엣지 AI로 전환하는 흐름을 반영한 것으로, 보안성과 즉시성을 동시에 확보하려는 전략으로 풀이된다. 클라우드와 플랫폼 영역에서도 대응이 이어지고 있다. LG CNS는 NPU 기반 AI 인프라 구축을 확대하고 있으며, LG유플러스는 NPU와 대규모 언어모델(LLM), 인프라를 결합한 'AI 어플라이언스'를 통해 공공·금융 등 폐쇄망 시장을 겨냥하고 있다. 클라우드 의존 없이 자체 환경에서 AI를 구동할 수 있도록 한 점이 특징이다. AI 모델 영역에서는 LG AI연구원과 업스테이지가 중심 역할을 하고 있다. LG AI연구원은 '엑사원(EXAONE)'을 기반으로 국산 NPU와의 최적화를 추진하며 추론 중심 AI 환경에 대응하고 있으며, 업스테이지 역시 퓨리오사AI와 협력해 NPU 기반 생성형 AI 서비스 상용화를 추진 중이다. 이는 모델 단계에서도 GPU 의존도를 낮추려는 시도로 해석된다. 기업용 소프트웨어 분야에서도 변화가 나타나고 있다. 더존비즈온은 퓨리오사AI와 협력해 전사적자원관리(ERP) 등 핵심 업무 시스템에 NPU 기반 AI를 적용하며 공공·금융 시장 확대를 추진하고 있다. 기존 분석 중심 AI에서 벗어나 실제 업무 프로세스에 AI를 접목하려는 움직임이다. 유통 및 시스템통합(SI) 영역에서는 코오롱베니트가 리벨리온과 협력해 NPU 기반 'AI 엑셀러레이션 서비스'를 추진하며 기업 고객 접점을 확대하고 있다. 반도체 기술을 실제 비즈니스 환경에 적용하는 역할로, 시장 확산을 위한 유통 채널로 기능하고 있다. 클라우드 사업자들의 선행 움직임도 영향을 미쳤다. 네이버클라우드는 'AI반도체 팜' 사업을 통해 국산 NPU의 성능과 안정성을 산업 현장에서 검증하며 상용화 기반을 마련했다. 이후 기업들의 사업화 움직임도 이어지고 있다. 업계에선 현재 국산 NPU 사업을 두고 기술 검증 단계를 넘어 상용화 초기 단계로 보고 있다. 동시에 벤더 간 경쟁도 본격화되면서 기업들은 국산 NPU 도입을 전제로 협력 구조도 구축하는 모습이다. 업계 관계자는 "지금은 NPU 도입 여부를 논의하는 단계가 아니라 어떤 기술을 선택할지 경쟁이 시작된 단계"라며 "정부 정책과 민간 인프라가 맞물리면서 AI 반도체 생태계가 빠르게 확산될 것으로 기대된다"고 말했다.

2026.04.03 08:48장유미 기자

[유미's 픽] "GPU만 사오면 끝?"…정부, 1.5만장 구축 사업서 '설계 능력' 보는 까닭

정부의 대규모 그래픽처리장치(GPU) 인프라 사업 경쟁이 장비 확보에서 운용 능력 중심으로 재편되고 있다. 최신 GPU 도입 여부보다 이를 얼마나 효율적으로 설계·운영할 수 있는지가 올해 사업 선정의 핵심 변수로 떠오른 가운데, 정부가 국내 기업들의 인프라 경쟁력을 끌어올리기 위해 본격 나선 모양새다. 30일 업계에 따르면 과학기술정보통신부는 다음달 13일까지 GPU 1만5000장을 구축하기 위한 사업자 공모에 나선다. 총 2조800억원을 투입해 GPU 서버와 부대 장비를 구매한 후 산·학·연에 공급할 예정으로, 최신 GPU를 신속히 확보하고 이를 대규모로 묶어(클러스터링) 구축·운용할 수 있는 민간 기업을 선정한다는 방침이다. 앞서 정부는 지난해 추가경정예산 1조4000억원을 투입해 확보한 엔비디아 B200 등 첨단 GPU 1만3000장을 NHN클라우드, 네이버클라우드, 카카오엔터프라이즈 등을 통해 구축했다. 또 이 물량을 최근 산·학·연에 3000장, 국가 프로젝트에 4000장, 독자 AI 파운데이션 모델에 3000장씩 배분했다. 또 지난 25일부터 산학연을 대상으로 2000장에 대한 추가 공모에도 들어갔다. 올해 5월 중 선정될 사업자는 연내 GPU 1만5000장 구축 및 서비스를 개시해 2031년 12월 31일까지 운영하게 된다. 이 물량 역시 산·학·연 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 이병묵 NIPA AI인프라확충팀장은 "올해 블랙웰급 이상의 최신 GPU 1만5000장 확보를 목표로 한다"며 "고성능 GPU를 대규모로 공급할 수 있는 사업자가 높은 평가를 받을 것"이라고 말했다. 정부는 이번 사업을 통해 참여 기업들의 기술 경쟁력을 끌어올린다는 목표다. 그간 GPU 물량 싸움 중심으로 인프라 구축 사업을 펼친 결과 수행 과정에서 한계가 곳곳에서 드러났던 탓이다. 특히 지난해 처음 GPU 구축 사업에 나서면서 일부 기업들이 H100, B200급을 확보해두고도 소프트웨어, 구성 문제로 실제 성능 효율이 낮은 사례가 발생하자 정부가 이에 대해 문제의식을 크게 느낀 것으로 알려졌다. 대규모 GPU 클러스터는 데이터 흐름과 메모리 구조, 네트워크 구성에 따라 전체 성능이 좌우되는 만큼 단일 장비 성능만으로는 효율을 담보하기 어렵다.또 B200 도입에 따라 수냉식 등 최신 냉각 기술을 적용해야 함에도 불구하고 하중 보강 공사, 구조 변경 등이 빠르게 뒷받침 되지 못해 구축 일정이 지연되는 사례도 벌어지자 정부가 난감해 한 것으로 전해졌다. 업계 관계자는 "정부가 GPU 1만3000장 구축 사업을 진행하면서 GPU만 사오면 끝나면 사업이 아니란 점을 뼈저리게 느낀 듯 하다"며 "지난해엔 얼마나 GPU를 많이 확보하고 싸게 제안했는지를 중점적으로 들여다 본 탓에 정작 운용능력이 뒷받침되지 않아 정부도 속앓이를 많이 한 것으로 안다"고 지적했다. 이에 정부는 올해 사업 평가 기준을 대폭 수정했다. 단순한 장비 확보 능력보다 실제 운영 효율을 검증할 수 있는 요소들을 대거 평가 체계에 포함한 것이다. 실제 이번 사업의 주요 평가 항목 및 배점을 살펴보면 절반인 50점이 사업 준비도 및 경쟁력에 배정됐다. 이 중 인프라 준비도(18점)와 구축 계획의 구체성(32점)은 핵심 평가 항목으로 제시됐다. 특히 데이터센터 상면 확보 여부를 비롯해 전력·냉각 설비, 네트워크 구성, 자원 관리 체계 등 물리적·논리적 인프라를 종합적으로 검증하겠다는 방침을 내세웠다. 이는 단순 가격 경쟁이나 물량 확보보다 실제 대규모 GPU 클러스터를 구축해 안정적으로 운영할 수 있는 역량을 우선 보겠다는 의미다. 특히 32점이 배정된 구축계획 우수성은 정부가 이번 사업을 사실상 '설계 능력 평가'로 보고 있음을 보여준다. 어떤 GPU를 얼마나 들여오겠다는 수준을 넘어 이를 어떤 구조로 묶고 어떤 일정으로 구축하며 실제 서비스 단계까지 어떻게 연결할 것인지를 구체적으로 입증해야 높은 점수를 받을 수 있는 구조란 점에서다. 업계 관계자는 "GPU 활용 효율을 입증할 수 있는 성능 지표 제시가 요구되면서 사업자들의 부담이 한층 커진 상황"이라며 "실제 연산 효율을 얼마나 끌어올릴 수 있는지에 대한 구체적인 방법론과 결과를 함께 제시해야 하기 때문"이라고 말했다. 업계에선 이를 두고 정부가 사업 방향을 '물량 경쟁'에서 '효율 경쟁'으로 전환한 것으로 보고 있다. 동일한 GPU 환경에서도 메모리 활용 방식, 데이터 전송 구조, 추론 엔진 설계에 따라 처리 성능과 비용 효율이 크게 달라지기 때문이다. 이 과정에서 메모리 처리 구조와 데이터 흐름 최적화 등 소프트웨어 역량이 핵심 변수로 부상하고 있다. GPU 연산 성능이 높아도 메모리 대역폭이나 데이터 처리 구조가 이를 뒷받침하지 못할 경우 전체 성능이 제한되는 구조적 한계 때문이다. 이에 일부 기업들은 이러한 병목 현상을 해소하기 위해 추론 엔진 최적화, 모델 경량화, 데이터 처리 구조 개선 등 다양한 기술 경쟁을 벌이고 있다. 같은 GPU를 사용하더라도 운영 방식에 따라 처리 가능한 작업량이 크게 달라져서다. 업계 관계자는 "정부가 차세대 GPU인 '베라루빈' 제안 시 평가에 우대 조건으로 반영할 수 있도록 한 것도 이러한 흐름과 맞닿아 있다"며 "단순 도입 여부보다 고성능 장비를 안정적으로 운용할 수 있는 인프라 설계 능력을 함께 보겠다는 의미"라고 해석했다. 다만 베라루빈과 같은 차세대 GPU는 수냉 기반 구조 등으로 인해 기존 대비 장비 무게와 전력 요구 수준이 크게 높아지는 만큼, 일각에선 이를 수용할 수 있는 데이터센터 인프라 확보 여부가 새로운 변수가 될 것으로 봤다. 실제 올해 사업에서는 데이터센터 하중 구조를 사전에 점검해 제출하도록 하는 요건이 추가된 것으로 알려졌다. 지난해 일부 사업자가 수냉식 장비 도입 과정에서 구조 보강 문제로 일정 지연을 겪은 경험이 반영된 결과다. 업계 관계자는 "작년에는 장비 확보와 단가 경쟁이 중심이었다면, 올해는 성능 효율과 운영 구조까지 함께 검증하는 방향으로 완전히 바뀌었다"며 "실제 서비스를 돌릴 수 있는 수준의 설계 역량을 갖추지 않으면 사업 참여 자체가 쉽지 않은 구조"라고 밝혔다. 전문가들은 이번 사업이 국내 AI 인프라 경쟁 방식 자체를 바꾸는 계기가 될 것으로 보고 있다. 단순한 하드웨어 투자에서 벗어나 소프트웨어와 운영 기술까지 포함한 종합 경쟁력 확보가 요구되고 있기 때문이다. 또 다른 관계자는 "이제는 GPU를 얼마나 확보했는지가 아니라 같은 자원으로 얼마나 높은 효율을 내느냐가 경쟁력의 핵심"이라며 "이번 사업은 국내 기업들이 글로벌 수준의 인프라 운용 역량을 갖추도록 유도하는 전환점이 될 것"이라고 말했다.

2026.03.30 16:27장유미 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

삼성SDS, 국내 최초 B300 GPU 서비스 출시…기업 AI 추론 시장 공략

삼성SDS가 국내 최초로 엔비디아 B300 GPU 기반 클라우드 서비스를 선보이며 기업 AI 추론 시장 공략에 나섰다. 삼성SDS는 클라우드 '삼성 클라우드 플랫폼(SCP)'을 통해 엔비디아 최신 GPU 'B300' 기반 GPU 구독형 서비스(GPUaaS)를 출시했다고 밝혔다. 이번 서비스는 AI 도입이 개발 단계를 넘어 실제 서비스 운영 단계로 확대되는 흐름에 맞춰 고성능 연산 수요를 대응하기 위해 마련됐다. B300 GPU는 고대역폭메모리(HBM3E)를 12단으로 구성해 GPU당 288GB 메모리와 초당 8TB 대역폭을 제공한다. 이는 기존 H100 대비 메모리 용량은 약 3배 이상, 대역폭은 2배 이상 향상된 수준이다. 특히 대규모 언어 모델 실행 과정에서 발생하는 데이터 전송 지연 문제를 줄이며, 연산 대비 메모리 속 이로 인해 AI 에이전트, 이미지 생성, 영상 처리, 코드 생성 등 고성능 연산이 필요한 서비스에서 응답 속도를 낮출 수 있다. 기업은 더 큰 규모의 AI 모델을 안정적으로 운영할 수 있고, 실시간 처리 요구가 높은 업무에도 적용 범위를 확대할 수 있다. 서비스는 구독형 구조로 제공된다. 기업은 필요한 만큼 GPU를 사용하고 비용을 지불하는 방식이다. 초기 인프라 투자 부담을 줄이고 자원 활용 효율을 높일 수 있다. GPU 수급이 어려운 상황에서도 최신 아키텍처를 즉시 활용할 수 있다는 점도 특징이다. 여기에 삼성SDS의 보안 기술이 결합돼 민감한 데이터도 안정적으로 처리할 수 있다. 삼성SDS는 GPUaaS 생태계를 지속적으로 확장해 왔다. 2021년 A100, 2023년 H100에 이어 이번 B300까지 선제적으로 도입하며 클라우드 기반 AI 인프라 경쟁력을 강화해 왔다. 이를 통해 기업 고객이 AI 인프라를 직접 구축하지 않고도 고성능 환경을 활용할 수 있도록 지원하고 있다. 향후 서비스도 확대한다. 삼성SDS는 별도 인프라 비용 없이 사용량 기반으로 과금하는 '서버리스 추론 서비스'와 자동 분산 학습 기능을 제공하는 'AI 학습 서비스'를 2026년 3분기 내 출시할 계획이다. 이호준 삼성SDS 클라우드서비스사업부장 부사장은 "자원 최적화와 에너지 절감 기술을 기반으로 GPU 활용 효율을 높여 왔다"며 "국내 최초 B300 GPU 서비스를 통해 기업의 AI 전환을 적극 지원하겠다"고 밝혔다. 한편 삼성SDS는 공공 클라우드 사업에서도 입지를 확대하고 있다. 대구 데이터센터에 H100 기반 GPU 서비스를 구축했으며, 범정부 초거대 AI 인프라와 지능형 업무 시스템 구축 사업에도 참여하고 있다. 과학기술정보통신부 고성능 컴퓨팅 지원 사업을 통해 중소기업, 스타트업, 연구기관, 대학 등 약 60여 곳에 GPU 자원을 제공하며 AI 생태계 확산에도 기여하고 있다.

2026.03.23 11:53남혁우 기자

[AI 고속도로] '베라루빈' 확보 속도전…'AI G3' 노린 정부, 주도권 경쟁 본격화

정부가 엔비디아의 차세대 그래픽처리장치(GPU) '베라루빈' 확보에 공을 들이고 있다. 생성형 인공지능(AI) 경쟁이 단기간 내 판가름 날 수 있다는 판단 아래 최신 GPU를 조기에 도입해 기술 격차를 좁히겠다는 전략으로, 'AI 3강(G3)'에 안착할 수 있는 기반 마련에 본격 나선 분위기다.과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이 사업의 핵심은 블랙웰급을 넘어서는 차세대 GPU 도입 여부다. 정부는 공모 요건에서 특정 제품을 명시하지는 않았지만, 설명회 과정에서 베라루빈과 같은 차세대 하이엔드 GPU를 제안할 경우 평가에서 긍정적으로 반영할 수 있다는 입장을 내놨다. 베라루빈은 엔비디아가 차세대 아키텍처로 준비 중인 GPU로, 기존 제품 대비 연산 성능과 에너지 효율이 크게 향상될 것으로 기대된다. 다만 아직 상용화 초기 단계에 있어 글로벌 빅테크 기업을 중심으로 공급이 이뤄질 가능성이 높은 제품이다. 업계 관계자는 "정부가 이번에 베라루빈 도입 가능성을 열어둔 점이 눈에 띈다"며 "AI 인프라 경쟁에서 뒤처지지 않겠다는 의지가 반영된 조치로 보인다"고 말했다. 이날 설명회에서는 차세대 GPU 확보 시점과 관련해 일반적인 출시 일정보다 국내 도입을 앞당기기 위한 협의가 진행되고 있다는 점도 언급됐다. 글로벌 공급 구조상 후순위로 밀릴 가능성을 고려해 초기 물량 확보를 선제적으로 추진하려는 전략으로 해석된다. 정부가 이처럼 차세대 GPU 확보에 적극 나선 것은 AI 경쟁 구도가 급변했다는 점이 반영된 것으로 풀이된다. 생성형 AI 확산 이후 모델 개발과 서비스 적용까지 걸리는 시간이 크게 단축되면서, 컴퓨팅 인프라 확보 시점 자체가 경쟁력을 좌우하는 요소로 떠올랐기 때문이다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 몇 개월 내로 개발과 적용이 이뤄지고 있다"며 "올 하반기나 내년 상반기면 경쟁 구도가 결정될 수 있다"고 강조했다. 이 같은 상황에서 차세대 GPU 확보 여부는 이번 사업의 핵심 변수로 꼽힌다. 최신 GPU 기반 대규모 클러스터를 구축할 경우 국내 기업과 연구기관이 고성능 AI 모델을 개발·학습할 수 있는 환경이 마련된다. 반면 차세대 GPU 도입이 지연될 경우 인프라 수준 격차가 기술 경쟁력 차이로 이어질 수 있다는 우려도 제기된다. 정부는 이번 사업을 통해 단순히 GPU를 도입하는 데 그치지 않고, 이를 기반으로 한 AI 생태계 확장을 함께 추진한다는 계획이다. 확보된 GPU 자원은 산업계·학계·연구계에 배분돼 AI 모델 개발과 서비스 고도화에 활용된다. 특히 대규모 클러스터를 통한 학습 환경을 제공함으로써 국내에서도 초거대 AI 개발이 가능한 기반을 마련하겠다는 구상이다. 업계에선 베라루빈 도입 여부가 이번 사업의 방향성을 가늠할 핵심 변수로 보고 있다. 차세대 GPU 확보 속도가 기술 경쟁력과 직결되는 만큼, 도입 시점과 규모에 따라 사업 성격이 달라질 수 있다는 분석이다. 업계 관계자는 "베라루빈은 단순히 성능이 좋은 GPU라기보다 '최신 기술을 얼마나 빠르게 가져올 수 있느냐'를 보여주는 상징적인 장비"라며 "정부가 이 부분을 강조하는 것은 글로벌 AI 경쟁에서 뒤처지지 않겠다는 메시지로 읽힌다"고 말했다. 정부 역시 차세대 GPU 도입과 관련해 일정 수준의 유연성을 두고 대응할 방침이다. 공급 상황과 시장 변수에 따라 도입 시점과 물량이 달라질 수 있는 만큼, 향후 협상 과정에서 세부 조건을 조정하겠다는 입장이다. NIPA 관계자는 "차세대 GPU는 출시 시점과 공급 상황이 유동적인 만큼, 선정 이후 협상을 통해 구축 시기와 방식 등을 현실적으로 조율할 계획"이라며 "국내 AI 경쟁력 확보를 위해 필요한 자원은 최대한 빠르게 확보하겠다"고 밝혔다.

2026.03.20 17:39장유미 기자

[AI 고속도로] 고성능 GPU 확보 나선 정부, 2조 규모 인프라 사업에 기업 관심 ↑

정부가 약 2조800억원 규모의 '인공지능(AI) 컴퓨팅 인프라 구축 사업'을 추진하며 첨단 그래픽처리장치(GPU) 확보에 속도를 내고 있다. 생성형 AI 경쟁이 짧은 기간 내 판가름 날 수 있다는 판단에 따라 최신 GPU를 조기에 대규모로 확보해 'AI 고속도로'를 구축하겠다는 구상이지만, 사업 구조와 요구 조건 측면에서 기업들의 부담이 적지 않을 것이란 관측도 나오고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이후 사업 협약 종료 시점인 2031년 12월 31일까지 산업계·학계·연구계 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 사업은 민간 클라우드 사업자(CSP)를 선정해 국내 데이터센터에 GPU 클러스터를 구축·운영하도록 하는 방식으로 추진된다. 정부는 GPU 서버와 스토리지, 네트워크, 냉각장치 등 장비 구매 비용만 지원하고, 운영 비용은 사업자가 부담하도록 했다. 대신 일부 GPU 자원은 자체 활용을 허용해 수익을 확보할 수 있도록 했다. 이번 사업의 핵심은 '최신성'과 '대규모 클러스터'다. 정부는 최소 256노드, 2048장 이상의 GPU를 단일 클러스터로 구성하는 방안을 기본으로 제시하며 블랙웰급 이상 최신 GPU 도입을 사실상 전제로 삼았다. 차세대 GPU인 베라루빈 계열도 제안 가능 대상으로 열어두면서 최신 기술 도입을 적극 유도하는 모습이다. 특히 베라루빈 도입을 둘러싼 논의는 이번 사업의 방향성을 보여주는 대목으로 꼽힌다. 당초 사업 요건에 베라루빈을 명시적으로 포함하는 방안까지 검토됐던 것으로 전해졌으나, 최종 공모에선 강제 조건으로 포함시키지 않았다. 업계에선 정부가 엔비디아와의 협의를 통해 국내 물량 확보 가능성을 타진하면서도, 아직 레퍼런스가 부족한 점을 감안해 기업 자율 제안으로 방향을 조정한 것으로 보고 있다. 그러나 실제 도입 규모는 제한적일 것이라는 전망이 우세하다. 차세대 GPU 특성상 공급 물량이 충분하지 않고, 성능 검증 사례도 부족해 기업들이 대규모로 제안하기에는 부담이 크다는 이유에서다. 업계에선 일부 상징적 물량 수준에서 제안이 이뤄질 가능성에 무게를 두고 있다. 평가 기준을 보면 정부가 무엇을 우선순위로 두고 있는지도 드러난다. 총 100점 가운데 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도 18점, 구축계획 우수성 32점이 핵심이다. 데이터센터 상면 확보를 비롯해 전력·냉각 설비, 네트워크 구성, 보안·안정성 체계 등이 주요 평가 항목에 포함됐다. 이는 대규모 GPU를 실제로 안정적으로 운영할 수 있는 인프라 역량을 가장 중요한 기준으로 삼겠다는 의미다. GPU 물량보다 성능을 중시하는 평가 방식도 특징이다. 동일 예산 기준에서 구형 GPU를 대량 확보하는 방식보다 최신 GPU 기반 고성능 클러스터를 구축하는 제안이 더 유리한 구조다. 서비스 개시 시점이 빠를수록 가점을 부여하는 항목도 포함돼 조기 구축과 실제 활용 가능성 역시 핵심 평가 요소로 설정됐다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 개발에서 서비스까지 걸리는 시간이 크게 단축된 상황"이라며 "최신 GPU를 신속하게 확보해 국내에 공급하는 것이 경쟁력 확보의 핵심"이라고 강조했다. 업계에선 이번 사업을 두고 참여 문턱이 높은 것 같다는 평가를 내놨다. 대규모 GPU 클러스터를 구축하려면 충분한 데이터센터 상면과 전력, 고성능 냉각 인프라가 필수적인데 이를 단기간 내 확보할 수 있는 기업이 제한적이기 때문이다. 수도권 중심 데이터센터 전력 수급 문제도 부담 요인으로 지목된다. 운영비 부담도 주요 변수다. 정부 지원은 장비 구매에 한정되고 실제 운영비는 사업자가 부담해야 하기 때문이다. 자체 활용 GPU로 수익을 확보할 수는 있지만, 정부 활용 자원 비중이 높을수록 평가에서 유리한 구조여서 사업성과 점수 간 균형을 맞추기 쉽지 않다는 지적이 나온다. 가격과 환율 리스크도 기업들이 부담으로 꼽는 대목이다. GPU 조달 비용은 대부분 달러 기반으로 형성되는데, 사업 구조상 비용 절감분은 정산 대상인 반면 가격 상승에 따른 리스크는 일정 부분 사업자가 떠안아야 한다. 차세대 GPU의 경우 납기와 가격 변동성이 커 불확실성이 더 크다.여기에 올해부터 서비스 수준 협약(SLA) 요건이 새롭게 포함되면서 운영 부담은 더 커질 전망이다. 장애 대응, 성능 유지, 기술 지원 체계를 구체적으로 제시해야 하는 만큼, 단일 CSP가 이를 모두 감당하기는 쉽지 않다는 평가다. 이에 따라 CSP가 운영·관리 전문기업(MSP)과 협력하는 컨소시엄 형태가 늘어날 것이라는 관측이 나온다.업계 관계자는 "단순히 GPU를 구축하는 수준이 아니라 24시간 대응 체계와 서비스 품질까지 함께 요구되면서 사업 난도가 크게 올라갔다"며 "운영과 기술지원 역량을 동시에 갖춘 구조를 만들어야 하는 부담이 커진 상황"이라고 말했다.이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 맡는다. 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 여부와 확보 계획, 데이터의 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등도 주요 평가 항목에 포함됐다. 특히 AI 워크로드를 이해하는 전문 인력과 24시간 대응이 가능한 기술지원 체계를 반드시 제시해야 한다는 점도 이번에 강조됐다. 단순 인프라 운영을 넘어 AI 모델 개발과 서비스까지 지원할 수 있는 수준의 역량이 요구된다는 점에서 기업 부담이 추가로 커졌다는 평가가 나온다.설계 부담도 적지 않을 것으로 보인다. 특히 차세대 GPU인 베라루빈을 적용할 경우 클러스터 구성 단위와 성능 기준이 명확히 정해져 있지 않아 기업이 직접 제조사와 협의를 통해 구성 방안을 검토해야 하는 상황이다. GPU 종류별로 클러스터 구조와 성능 산정 방식이 달라질 수 있는 만큼, 제안 단계에서부터 기술적 검증과 설계 부담이 기업에 상당 부분 전가됐다는 평가가 나온다. 이번 설명회에는 네이버클라우드, KT클라우드, NHN클라우드, 카카오엔터프라이즈, SK텔레콤, 삼성SDS 등 주요 클라우드 사업자를 비롯해 메가존클라우드, LG CNS 등 클라우드 서비스 운영 관리 기업(MSP)과 델, 시스코, HPE, 엔비디아 등 글로벌 장비·반도체 기업까지 대거 참석했다. 이 같은 구조를 감안하면 실제 경쟁은 일부 대형 사업자 중심으로 형성될 가능성이 크다. 업계에선 네이버클라우드와 KT클라우드를 유력 후보로 거론하는 가운데 삼성SDS와 SK텔레콤 등도 경쟁군으로 함께 언급했다. NHN클라우드 등은 컨소시엄 형태로 참여할 가능성이 제기된다. 아마존웹서비스(AWS), 마이크로소프트 애저, 구글 클라우드 등 해외 CSP 역시 참여는 가능하지만 국내 데이터센터 기반과 직접 운영·통제 요구 등을 고려할 때 진입 장벽은 여전히 높다는 평가다. 업계 관계자는 "베라루빈 같은 차세대 GPU는 상징적으로 일부 들어갈 수는 있겠지만, 실제 사업은 전력과 냉각, 운영 역량 확보가 더 큰 변수"라며 "SLA까지 포함되면서 기업 부담이 상당히 커진 구조"라고 말했다. NIPA 관계자는 "시장 상황과 공급 여건이 쉽지 않다는 점을 충분히 인지하고 있다"며 "선정 이후 협상 과정에서 일정과 세부 조건은 현실적으로 조정해 나가고, 민간과 협력해 AI 인프라를 빠르게 구축하겠다"고 밝혔다.

2026.03.20 17:02장유미 기자

[AI 고속도로] 정부, 2조원 규모 GPU 확보 첫발…'베라루빈'까지 품는다

정부가 '인공지능(AI) 고속도로' 구축을 위한 그래픽처리장치(GPU) 확보에 속도를 내며 차세대 엔비디아 아키텍처 '베라루빈'까지 포함한 대규모 컴퓨팅 인프라 확충에 나섰다. 약 2조원 규모 예산을 투입해 첨단 GPU를 민관 협력 방식으로 조기 확보하고 국내 AI 산업 경쟁력을 끌어올린다는 목표다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 진행했다. 이날 현장에는 지난해 1차년도 사업에 참여했던 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)를 비롯해 서비스형 GPU(GPUaaS) 사업을 하는 엘리스그룹이 참석했다. 이 외에도 ▲시스템 통합(SI) 기업 삼성SDS·LG CNS·아이티센씨티에스·에스넷시스템 ▲매니지드 서비스 기업(MSP) 메가존클라우드·디딤365 ▲AI 플랫폼 기업 레드햇·클러쉬 ▲서버·스토리지 기업 델 테크놀로지스·HS효성인포메이션시스템·시스코·넷앱·슈퍼마이크로·HPE·IBM ▲칩 벤더인 엔비디아·AMD·인텔이 자리했다. 여기에 마이크로소프트(MS)·구글 클라우드 등 글로벌 CSP와 SK텔레콤, 쿠팡까지 가세하면서 총 60여개 기업, 200여 명이 이번 설명회를 찾았다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 말했다. 이번 사업은 약 2조 805억원 규모 예산이 GPU 서버와 랙·냉각장치·스토리지·네트워크 등 부대장비 구매 비용에 집중 투입된다. 올해 첨단 GPU 구축을 완료하고 연내 서비스 개시를 목표로 한다. 이후 2031년까지 약 68개월간 운영·지원이 이어진다. 사업 추진 방향은 단순한 물량 확대가 아닌 ▲비용 대비 높은 성능 ▲대규모 클러스터링 ▲직접 클러스터링을 통한 기술력 확보 ▲최신 GPU 우선 도입 ▲연내 서비스 개시 등이 핵심이다. 특히 올해 공모에선 차세대 GPU 도입 여부가 주요한 평가 요소로 떠올랐다. 블랙웰급 이상의 최신 GPU를 기본으로 제안하되, 최근 공개된 차세대 하이엔드 GPU인 베라루빈을 제안할 경우 평가에서 우대한다는 설명이다. 이 사업을 통해 확보되는 GPU는 동일 데이터센터, 동일 공간 또는 동일 층에 물리적으로 집적해 클러스터를 구성해야 하는 것이 요건이다. 참여 기업의 전력·냉각·항온항습·초저지연 네트워크 등 인프라 설계 역량도 평가에 반영된다. 최소 256노드(GPU 2048개) 규모 이상의 클러스터 구성이 기본 기준으로 제시됐다. 이번 사업은 국내 기업 중심의 AI 인프라 역량 강화에도 초점이 맞춰졌다. 이 팀장은 "국내 CSP들이 직접 클러스터링과 운영을 수행하면서 기술력을 축적할 수 있도록 하는 것이 중요한 목적"이라며 "우리 기업들의 인프라 구축·운영 역량을 키우는 방향으로 설계됐다"고 강조했다. 사업 참여는 단독뿐 아니라 컨소시엄 형태도 가능하다. 다만 모든 참여 기업이 GPUaaS 운영 실적 등 신청 요건을 충족해야 하며 사전검토와 발표평가, 데이터센터 현장실사를 거쳐 최종 사업자가 선정된다. 복수 사업자 선정도 가능해 CSP·MSP·SI·통신 기업 간 치열한 연합 경쟁이 예상된다. 평가 기준도 구체적으로 제시됐다. 총 100점 만점 기준에서 사업 준비도 및 경쟁력이 50점으로 가장 큰 비중을 차지하며 이 가운데 구축계획 우수성이 32점, 인프라 준비도가 18점으로 구성된다. 여기에 AI 생태계 발전 노력 26점, 사업 이해도 및 추진역량 12점, 운영 역량 및 사업관리 12점이 반영된다. 이 팀장은 "정부 활용 GPU 비중이 높고 산학연 지원 계획이 구체적일수록 높은 평가를 받을 것"이라며 "국내 데이터센터에서 GPU 자원을 직접 운영·통제하는 구조 역시 중요한 평가 요소"라고 밝혔다. 특히 GPU 자원 중 일부는 사업자가 자체 활용할 수 있도록 허용되지만, 해당 비중과 활용 계획 역시 평가에 반영된다. 정부는 국가 AI 프로젝트와 산학연, 스타트업 지원을 우선 고려한다는 방침이다. 이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 담당하게 된다. 동시에 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 현황과 확보 계획, 데이터 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등이 주요 평가 대상에 포함된다. 특히 AI 워크로드를 이해하는 전문 인력과 안정적인 기술지원 체계를 반드시 제시해야 한다는 점도 강조됐다. 단순 인프라 운영을 넘어 실질적인 AI 모델 개발과 서비스까지 지원할 수 있는 수준이 요구된다. 정부는 이번 사업을 통해 확보한 GPU를 국가 AI 프로젝트와 연구개발, 산업 현장에 폭넓게 공급하며 국내 AI 생태계 전반의 경쟁력을 끌어올린다는 계획이다. 원상호 NIPA AI인프라본부장은 "민간과 협력해 국내 AI 산업 생태계가 체감할 수 있는 첨단 활용 기반을 마련하는 것이 중요하다"며 "글로벌 AI 경쟁 기반을 넓히고 우리 산업의 경쟁력을 한 단계 끌어올리는 계기가 될 것"이라고 강조했다.

2026.03.20 16:55한정호 기자

첨단 엔비디아 칩, 중국으로 샜다…슈퍼마이크로 간부 3명 기소

미국 인공지능(AI) 서버 기업 슈퍼마이크로의 간부들이 엔비디아 AI 칩을 중국으로 밀반출한 혐의로 기소됐다. 수십억 달러 규모의 불법 수출 정황이 드러나며 글로벌 반도체·공급망 업계 전반에 파장이 확산되는 모습이다. 19일(현지시간) CNBC에 따르면 미국 뉴욕 남부지방검찰청은 엔비디아 AI 칩이 탑재된 서버를 중국으로 불법 반출한 혐의로 슈퍼마이크로컴퓨터 관계자 3명을 기소했다. 기소된 인물은 공동 창업자인 왈리 라우를 포함해 영업 관리자와 외부 계약자 등으로, 이들은 미국 수출통제법을 위반해 엔비디아 그래픽처리장치(GPU)가 포함된 서버를 중국으로 우회 반출한 혐의를 받고 있다. 미국 검찰에 따르면 이들은 동남아시아 소재 회사를 중간 거래자로 내세워 허위 서류를 작성하고 물류 과정을 조작하는 방식으로 실제 최종 목적지가 중국임을 숨겼다. 또 가짜 서버를 준비해 내부 컴플라이언스 검증을 통과시키는 등 조직적으로 규제를 회피한 것으로 조사됐다. 이 과정에서 2024년 이후 약 25억 달러(약 3조 7245억원) 규모의 서버 판매가 이뤄졌으며 일부 물량은 엔비디아 최신 AI 칩이 탑재된 제품으로 파악됐다. 미국 정부는 중국 AI 기업들의 성장 속에서 첨단 반도체 유출을 국가안보 문제로 보고 강력히 규제하고 있다. 엔비디아 칩 역시 중국 수출 시 별도 허가가 필요한 핵심 품목으로 분류된다. 이번 사건은 엔비디아와 슈퍼마이크로 간 긴밀한 협력 관계에도 영향을 미칠 가능성이 제기된다. 양사는 AI 서버 시장에서 밀접한 공급망을 구축해왔다. 같은 대만계 미국인으로서 젠슨 황 엔비디아 최고경영자(CEO)와 찰스 리앙 슈퍼마이크로 CEO 간 개인적 친분도 두터운 것으로 알려졌다. 사건 여파는 즉각 주가에도 반영됐다. 슈퍼마이크로 주가는 해당 사실이 공개된 직후 시간외 거래에서 약 12% 급락했으며 일부 거래에서는 12.48% 하락한 26.95달러를 기록했다. CNBC는 미·중 기술 패권 경쟁이 심화되고 있어 이번 AI 칩 불법 유출 문제가 더욱 엄격히 다뤄질 것이라고 보도했다. 슈퍼마이크로 측은 "해당 직원들을 직무에서 배제하고 계약을 해지했다"며 "회사 정책과 수출 규정을 위반한 개인적 일탈"이라고 선을 그었다.

2026.03.20 09:52한정호 기자

"중국은 자율주행 왜 잘할까"…8개 부처 공무원들 출장간 이유

"자율주행을 모델을 개발할수록 '중국은 어떻게 이렇게 빨리 했지'라는 의문이 스스로를 괴롭힌다. 최고 수준의 엔지니어링이 필요한 분야인 만큼 단일 기업이나 기관의 역량만으로 쉽지 않아 산·학·연이 참여하는 오픈(개방형) 협력이 결국 답이다." 최준원 서울대 전기정보공학부 교수는 19일 국회의원회관에서 열린 국회 모빌리티포럼 제1차 세미나에서 '오픈 협력 생태계를 통한 국내 엔드투엔드(E2E) 자율주행 기술 개발 전략'을 주제로 강연에 나서 이같이 말했다. 최 교수는 최근 3년간 자율주행 기술이 빠르게 발전한 배경으로 인공지능(AI)을 꼽으며, 엣지 케이스(예측이 어려운 위험 상황)에 대응하는 능력을 키우는 것이 핵심이라고 강조했다. 그는 "챗GPT의 위력이 데이터 학습을 통해 확인 됐듯이 자율주행도 대규모 데이터를 구축해 AI가 학습한다면 엣지케이스 대응 능력이 좋아질 수 있다"며 "테슬라가 이미 입증했고, 중국 자율주행 기업들도 빠른 속도로 따라가고 있다"고 말했다. 이어 "우리는 테슬라나 웨이모처럼 대용량 데이터가 있지 않고, 대규모 투자도 쉽지 않은 상황인 만큼 산학연 협력이 필요하다"며 "엔비디아 같은 해외 기업과의 협력도 중요하지만 자율주행을 국내 기술력으로 개발했으면 하는 개인적인 바람도 있다"고 덧붙였다. 정부 역시 중국 자율주행 기술 굴기에 대한 경각심을 갖고 대응책 마련에 고심 중이다. 이날 발제 발표 후 이어진 토론회에서 임채현 국토교통부 자율주행정책과 사무관은 "이 자리에 원래 국장님과 과장님이 오시기로 했는데, 지금 다 중국에 출장을 가셨다"며 "산업통상부, 과기정통부, 재정경제부, 기획예산처 등 8개 부처 관계자들로 구성된 범정부 정책 연구단을 중국에 파견했다"고 말했다. 이어 "2박 3일 동안 중국의 기술을 살피고 국내 자율 주행 정책 방향 수립에 참고하려고 한다"며 덧붙였다. 범부처 차원에서 자율주행 산업 경쟁력 강화를 위해 선도국에 연구단을 파견한 것은 처음이다. 임 사무관은 "자율주행 기술 격차를 좁히기 위해 실증 도시에서 200대 차량을 24시간 운영해 데이터를 최대한 확보하고, 엣지케이스와 같은 질 높은 데이터를 얻기 위한 고난도 실증을 위해 보험상품까지 붙였다"며 "GPU 물량을 올해 200장 쓰기로 했고, 국가 프로젝트 물량 중 자율주행 부문에서 추가로 1000~2000장을 확보하는 것을 목표로 한다"고 말했다. 그는 "국토부가 원래 기술개발을 해오던 부처가 아니라 엔드 유저로서 개발된 기술을 가지고 서비스에 접목하던 부처다보니 당장 상용화하기 어려운 기술들이 많았다"며 "현재 과기부와 산업부와 같이 연구개발(R&D)을 진행하는 방향으로 정책을 수립하고 있으며, 규제 적용이 모호한 부분들은 선 적용 후 규제하는 방식으로 적극적으로 기술 개발을 지원해 나갈 계획"이라고 강조했다. 이어 "국회와도 계속 논의해 자율 주행 기술을 3년 안에 세계 3대 강국으로 도약할 수 있도록 힘쓰겠다"고 덧붙였다. 안재훈 산업통상부 자동차과 미래모빌리티팀장은 "AI 시대에 대응하기 위해서는 자동차 산업이 근본적으로 바뀌어야 된다"며 "우리나라가 주도권을 갖고 산업을 발전시켜 나가기 위해서는 압도적인 기술력이 굉장히 중요하다"고 강조했다. 이어 "개방형 협력은 이미 AI 미래차 얼라이언스 출범을 통해 진행하고 있으며, 작년 9월 AI 알고리즘과 차량용 운영체제(OS) 같은 핵심 기술 개발을 위한 R&D도 시작을 했다"며 "2030년까지 미래차 전문 기업 200개를 육성하는 목표를 갖고 금융과 R&D 패키지를 지원하려는 계획도 갖고 있다"고 말했다. GPU와 데이터 수집에 많은 비용이 들어가는 만큼 소규모 AI 데이터센터를 자율주행 기업들이 공동으로 활용하자는 아이디어도 나왔다. 곽수진 자동차연구원 본부장은 "중소·중견 기업의 경우 갖고 있는 GPU들 100% 활용하지 못하고 있기 때문에 소규모 데이터센터를 지역 단위로 둬서 전기료 등 부대 비용은 정부가 지원해주고 각 기업들이 투자한 비용에 비례해 GPU를 활용할 수 있도록 하고, 남는 시간에는 학교 등에서 사용할 수 있도록 혜택을 주는 등 자원을 효율적으로 활용할 수 있는 방법에 대한 고민도 필요하다"고 제언했다.

2026.03.19 19:01류은주 기자

KISTI-엔비디아, 과학 AI 파운데이션 모델 공동개발 나선다

한국과학기술정보연구원(KISTI)이 엔비디아와 현재 설치 중인 슈퍼컴 6호기 GPU로 과학 AI파운데이션 모델을 개발하기로 했다. 슈퍼컴 6호기는 오는 7월 말 개통을 목표로 시스템 등 설치에 박차를 가하고 있다. 미국 산호세에서 열린 엔비디아(NVIDIA) 글로벌 인공지능(AI) 콘퍼런스 'GTC 2026'에 참석 중인 이식 KISTI 원장은 엔비디아 및 휴렛팩커드 엔터프라이즈(HPE)와 각각 업무협약을 체결하고 고성능컴퓨팅(HPC)과 AI 분야 협력을 본격 추진하기로 했다고 19일 밝혔다. KISTI는 18일(현지 시각) 미국 산호세에서 엔비디아와 업무협약을 체결했다. 강지훈 슈퍼컴퓨팅응용지원센터장은 전화통화에서 "지난해 10월 경주 APEC 정상회의 CEO 써밋에서 발표된 KISTI-엔비디아 간 전문센터(CoE) 협력 계획을 구체화하고, 슈퍼컴 6호기를 중심으로 한 과학 AI 연구와 GPU 가속 컴퓨팅 협력을 본격화할 것"이라고 말했다. 협약에 따라 양측은 슈퍼컴 6호기 GPU 환경을 활용해 대규모 과학 AI 모델과 도메인 특화 파운데이션 모델 개발을 공동 추진할 계획이다. 특히 바이오, 소재·화학, 지구과학, 반도체 등 전략 연구 분야에서 AI 기반 연구를 확대한다. 슈퍼컴 6호기와 양자컴퓨터 '템포(Tempo)'를 연계한 양자-HPC 하이브리드 컴퓨팅 환경을 통해 양자컴퓨팅 연구에도 매진할 계획이다. 이와함께 기존 슈퍼컴퓨터 주요 응용 소프트웨어를 GPU 환경에 최적화해 성능 향상을 검증하고, GPU 가속 기술을 활용한 계산과학 연구 협력도 추진한다. 이에 앞서 17일에는 HPE와 업무협약을 체결했다. KISTI는 HPE와 슈퍼컴 6호기 기반 AI·HPC 연구 협력을 위해 전략적 기술 협력체계를 구축할 계획이다. CoE 프로그램을 중심으로 슈퍼컴퓨팅 인프라 활용을 극대화하고 과학 난제 해결을 위한 통합 연구 환경을 고도화할 계획이다. 이식 원장은 "슈퍼컴 6호기는 대한민국 디지털 연구 인프라의 핵심 자산”이라며 “엔비디아와 HPE와의 협력을 통해 AI와 HPC 기술을 결합한 차세대 연구 환경을 구축하고, 국가 전략 연구 분야의 경쟁력을 높여 나갈 것"이라고 말했다.

2026.03.19 17:35박희범 기자

엔비디아, 오라클과 AI 데이터 '속도 혁신'…벡터 검색 기술 공개

엔비디아가 오라클과 협력해 기업 데이터 처리와 벡터 검색 성능을 대폭 끌어올리는 기술을 공개하며 인공지능(AI) 데이터 인프라 시장 공략에 속도를 낸다. 그래픽처리장치(GPU) 기반 가속 기술을 통해 방대한 비정형 데이터 처리 속도를 획기적으로 개선하고 실제 산업 현장 적용을 확대한다는 목표다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026'에서 오라클과 협력 중인 GPU 가속 벡터 인덱스 구축 기술을 19일 발표했다. 이번 협력은 오라클의 '프라이빗 AI 서비스 컨테이너'와 'AI 데이터베이스 26ai'에 엔비디아 GPU 및 오픈소스 라이브러리 'cuVS'를 결합한 것이 핵심이다. 기존 중앙처리장치(CPU) 기반으로 처리되던 벡터 검색과 인덱스 생성 작업을 GPU로 오프로드해 처리 속도를 크게 높이는 방식이다. 기업들은 멀티모달·비정형 데이터가 급증하면서 대규모 데이터셋을 빠르게 검색하고 활용하는 데 어려움을 겪어왔다. 특히 벡터 인덱스 구축 과정은 시간이 오래 걸려 AI 서비스 확장에 걸림돌로 작용해왔다. 엔비디아와 오라클은 이번 기술을 통해 인덱스 생성 시간을 대폭 단축하고 AI 활용 효율을 높일 수 있도록 지원할 방침이다. 실제 적용 사례도 공개됐다. 엔비디아에 따르면 AI 헬스케어 기업 소피아는 약 3테라바이트(TB) 규모, 5억 개 이상의 벡터로 구성된 의료 데이터셋을 활용 중이다. 기존에는 인덱스 구축에 며칠이 소요됐지만, GPU 가속 기반 환경을 통해 해당 작업을 획기적으로 단축했다. 또 다른 헬스테크 기업 바이오피는 엔비디아 GPU가 탑재된 오라클 클라우드 인프라스트럭처(OCI)를 활용해 감염 질환 분석과 치료법 추천을 수행하고 있다. AI 기반 벡터 검색과 데이터베이스를 결합해 지연 시간을 줄이고 비용 효율적인 데이터 처리 환경을 구축했다. 엔비디아는 GPU 기반 벡터 검색 기술이 의료·바이오 분야뿐 아니라 다양한 산업에서 AI 분석 정확도와 처리 속도를 동시에 높이는 핵심 인프라라고 강조했다. 특히 실시간 데이터 처리와 대규모 AI 학습·추론 환경에서 중요성이 더욱 커지고 있다는 설명이다. 엔비디아는 "GPU 가속 벡터 인덱스 기술을 통해 기업들이 방대한 비정형 데이터를 보다 빠르고 효율적으로 활용할 수 있도록 지원하고 있다"며 "오라클과의 협력을 바탕으로 실제 산업 현장에서 AI 데이터 처리 성능과 확장성을 지속적으로 강화해 나갈 것"이라고 밝혔다.

2026.03.19 14:10한정호 기자

엔비디아 '깐부' AWS, AI 경쟁력 강화…클라우드 주도권 굳히기 박차

엔비디아가 아마존웹서비스(AWS)와 협력을 확대하며 클라우드 기반 AI 인프라 주도권 굳히기에 나섰다. 그래픽처리장치(GPU) 중심의 기존 우위를 바탕으로 데이터 처리와 AI 모델까지 영역을 넓히며 경쟁사들과의 격차 확대에 나선 모양새다.엔비디아는 17일(현지시간) 미국 새너제이에서 열린 'GTC 2026'에서 AWS와의 협력을 통해 GPU 가속 솔루션을 확대한다고 밝혔다. 양사는 AWS 환경에서 엔비디아 기반 데이터 처리 기능을 확장하고 네모트론(Nemotron) 오픈 모델 제품군 지원을 추가할 계획이다. 이번 협력은 단순 인프라 제공을 넘어 풀스택 AI 생태계 구축으로 이어진다는 점에서 주목된다. 엔비디아와 AWS는 2010년부터 협업을 이어오며 GPU 인프라, 소프트웨어, 서비스 전반을 통합한 솔루션을 제공해왔고 이를 통해 기업의 AI 구축 및 배포 시간을 단축해왔다. 특히 이번 발표에서 주목되는 부분은 최신 GPU의 클라우드 도입이다. 엔비디아의 'RTX 프로 4500 블랙웰 서버 에디션' GPU는 아마존 EC2 인스턴스를 통해 AWS에 처음 도입될 예정이다. AWS는 해당 GPU를 지원하는 최초의 클라우드 사업자로, 이를 통해 고객은 온프레미스 수준의 블랙웰 성능을 클라우드에서도 활용할 수 있게 된다. 해당 인스턴스는 AWS 니트로 시스템 기반으로 설계돼 보안성과 안정성을 강화했으며 아마존 EMR과 결합 시 대규모 데이터 처리 워크로드에 최적화된 성능을 제공한다. 이는 데이터 분석 및 AI 학습 환경에서 클라우드 활용도를 한층 끌어올릴 것으로 전망된다. AI 모델 측면에서도 협력 범위가 확대됐다. 엔비디아의 '네모트론 나노 3' 모델은 세일즈포스의 AI 플랫폼 '에이전트포스'에 아마존 베드록을 통해 제공된다. 해당 모델은 높은 처리량이 요구되는 B2C 애플리케이션 환경에서도 활용 가능하며 세일즈포스 벤치마크 기준 요약 및 생성 작업에서 높은 비용 효율성을 보인 것으로 평가된다. 또 AWS는 아마존 베드록에서 네모트론 모델을 위한 강화 학습 기반 파인튜닝(RFT) 기능을 지원할 예정이다. 이를 통해 개발자는 특정 산업에 맞춰 모델의 추론 방식과 응답 구조를 정밀하게 조정할 수 있다. 이는 법률, 헬스케어, 금융 등 고도화된 전문 영역에서 AI 활용도를 높이는 핵심 기능으로 꼽힌다. AWS 역시 이번 협력을 통해 AI 인프라 경쟁력 강화에 나선 것으로 해석된다. 기업들이 엔비디아 '쿠다(CUDA)' 생태계를 중심으로 AI를 개발하는 상황에서 최신 GPU를 선제 확보해 고객 이탈을 막고, 아마존 EMR과 베드록 등 자사 서비스와 결합해 AI 워크로드를 플랫폼 내부에 묶어두려는 전략이다. 업계에선 AWS가 자체 AI 칩과 엔비디아 GPU를 병행하는 '투트랙 전략'을 통해 성능과 비용 경쟁력을 동시에 확보하려는 행보로 보고 있다. 업계 관계자는 "AWS는 단순히 GPU를 도입하는 수준을 넘어 AI 인프라 전반을 자사 플랫폼 중심으로 재편하려는 듯 하다"며 "이번 일을 기점으로 향후 생성형 AI 서비스 경쟁에서 클라우드 사업자의 영향력이 더 커질 가능성이 있다"고 말했다.

2026.03.18 12:15장유미 기자

엔비디아, GTC 2026서 AI 준비형 워크스테이션 생태계 확장

엔비디아는 미국 캘리포니아 주 새너제이에서 진행중인 'GTC 2026' 컨퍼런스 중 주요 PC 제조사가 인텔 제온 600 프로세서와 RTX 프로 블랙웰 GPU를 탑재한 AI 준비형 워크스테이션 제품군을 공개했다고 밝혔다. 인텔 제온 600 프로세서(그래나이트래피즈-WS)는 2024년 8월 말 공개된 전세대 제품인 제온W 3500 프로세서 대비 최대 코어 수를 30% 가량 높이고 극자외선(EUV) 기반 인텔 3(Intel 3) 공정을 활용해 전력 효율성을 개선했다. 각종 AI GPU 가속기나 추론 모듈, SSD 등 고성능 입출력을 위해 PCI 익스프레스 5.0 레인(통로) 최대 128개를 지원한다. 메모리는 DDR5-6400MHz를 최대 8채널로 구성 가능하다. 최신 드라이버를 탑재한 RTX 프로 블랙웰 GPU는 엔비디아 네모트론 오픈 모델과 주요 커뮤니티 모델을 도입 즉시 실행 가능하다. 개발자와 팀이 AI 워크로드를 워크스테이션에서 즉시 실험하고 배포할 수 있도록 한다. 올라마, SG랭, LM스튜디오 등 주요 소프트웨어 제공 업체도 RTX 프로에 최적화된 모델과 도구를 제공한다. 오픈소스 기반 에이전틱 AI 모델인 오픈클로의 보안을 강화한 네모클로 구동도 가능하다. 행사 기간 중 레노버 씽크스테이션 P5 2세대, 델테크놀로지스 델 프로 프리시전 9 T2, T4, T6 등이 공개됐다. HP는 향후 출시될 엔비디아 GPU를 지원할 수 있도록 Z 워크스테이션을 미래 대비 사양으로 설계할 예정이다.

2026.03.18 09:39권봉석 기자

엔비디아 "H200 GPU 中 수출 재개, 미·중 양국 승인 확보"

엔비디아가 중국 시장 수출을 위해 별도 설계한 'H200' GPU의 수출을 재개할 예정이라고 미국 CNBC가 17일(이하 현지시간) 보도했다. 엔비디아의 중국 내 사업은 미국 정부 수출 규제로 많은 제약을 받고 있다. 지난 해 4월 도널드 트럼프 2기 행정부 출범 이후 고성능 GPU 수출 관련 별도 허가를 요구하면서 엔비디아는 큰 타격을 입었다. 이후 엔비디아는 연산 성능과 메모리 대역폭을 낮추는 등 미국 정부 수출 규제에 부합하는 H200을 별도 개발했다. 미국 정부가 수출을 허용했지만 반대로 중국 정부가 수입 허가를 내주지 않는 등 교착상태에 있었다. CNBC에 따르면, 젠슨 황 엔비디아 CEO는 17일 미국 캘리포니아 주 새너제이에서 진행중인 'GTC 2026' 컨퍼런스 중 기자들과 만나 "이미 중국의 구매 주문을 접수했고 생산 재개를 위해 공급망을 재가동중"이라고 밝혔다. 그는 이어 "이는 몇 주 전과는 다른 상황이며, 현재 미국과 중국 모두에게 (수입·수출) 승인을 받은 상태"라고 설명했다. 지난 2월 실적 발표 당시 콜렛 크레스 엔비디아 CFO는 "H200 소량 수출이 승인됐지만 매출로 이어지지 않았다"고 밝힌 바 있다. 승인 지연은 양국의 안보 심사와 규제 절차가 복합적으로 작용한 결과로 보인다. 과거 중국은 엔비디아 데이터센터 매출의 20% 이상을 차지하던 핵심 시장이었지만, 규제 이후 사실상 공급이 중단된 상태다. 엔비디아의 빈 자리를 화웨이 등 중국 기업들이 채우고 있다. 한편 엔비디아는 중국 매출이 사실상 없는 상황에서도 강력한 성장세를 유지하고 있다. 최근 분기 매출은 전년 대비 73% 증가했으며, 11분기 연속 55% 이상의 성장률을 기록했다.

2026.03.18 09:25권봉석 기자

[유미's 픽] GPU 공급 속도전 나선 정부…AI 인프라 확충 '완성도' 높였다

정부가 추진하는 그래픽처리장치(GPU) 인프라 확충 정책이 단순한 계획 단계를 넘어 실제 시장 수요를 기반으로 빠르게 확대되는 흐름을 보이고 있다. 초기 시범 성격의 지원에서 시작해 수요 확인, 1차 공급, 추가 공급으로 이어지면서 국내 AI 연산 인프라 정책이 단계적으로 진화하는 모습이다. 과학기술정보통신부는 지난 16일부터 국내 산·학·연의 인공지능(AI) 연구개발(R&D)를 지원하기 위해 ▲민간 GPU 임차 사업의 공급 클라우드 기업(CSP) 공모 ▲정부 GPU 2000여 장에 대한 산업계 사용자 모집 공모에 들어갔다. 이번 사업은 민간 GPU를 활용한 임차 방식과 정부가 확보한 GPU를 직접 배분하는 방식이 병행되는 구조란 점에서 주목 받고 있다. GPU 임차사업은 고성능컴퓨팅(HPC) 지원사업과 AI연구용컴퓨팅지원프로젝트 사업으로 나뉘며 국내에서 GPU 서비스를 제공할 수 있는 CSP를 대상으로 공급 사업자를 선정한다. HPC 지원사업은 산업계를 대상으로 1060장 이상의 GPU를 공급하는 사업이다. 중소기업과 스타트업이 GPU를 장 단위로 유연하게 사용할 수 있도록 하는 것이 핵심이다. 반면 AI 연구용 컴퓨팅 지원 사업은 학계와 연구기관을 대상으로 960장 이상의 GPU를 제공해 대규모 AI 연구 환경을 지원하는 데 초점이 맞춰져 있다. 정부는 이와 별도로 기존에 확보한 GPU를 활용한 추가 공급도 동시에 추진한다. 지난해 추가경정예산으로 확보한 GPU 가운데 이미 4000장을 배분한 데 이어 추가로 활용 가능한 2000여 장을 산업계에 배분하는 '첨단 GPU 활용 지원 사업' 2차 공모도 병행한다. 해당 물량은 단기 수요 중심으로 4개월 이내 활용을 전제로 공급된다. 이번 조치는 국가 AI 경쟁력을 결정짓는 전략 자산인 GPU 자원을 안정적으로 공급하기 위한 핵심 국정과제인 'AI 고속도로 구축'의 일환으로 추진된다. 정부는 장기적인 인프라 구축과 동시에 단기 수요를 해소하는 공급 정책을 병행하는 '속도 중심 전략'을 택했다. 실제 시장 수요는 이미 여러 차례 확인됐다. 정식 공모 이전 진행된 첨단 GPU 활용 지원 사업 베타테스트에서만 수요가 몰리며 현장 체감도가 빠르게 올라갔다. 업계에 따르면 해당 사업에는 4만 장이 넘는 GPU 사용 신청이 접수되며 공급 계획의 약 4배 수준 수요가 몰린 것으로 알려졌다. 이 같은 수요는 1차 공급 결과에서도 드러났다. 과기정통부가 3월 초 산·학·연에 GPU 4224장을 공급했지만 전체 신청 물량은 1만3712장에 달했다. 공급 대비 수요가 3배를 넘어서며 상당한 미충족 수요가 발생한 셈이다. 과기정통부 관계자는 "산업계에서만 4천 장이 넘는 GPU 신청이 들어왔지만 실제 공급은 약 1천200장 수준이었다"며 "3천 장 이상 수요가 충족되지 못했던 만큼 추가 공급 필요성이 명확히 확인됐다"고 말했다. 정부는 이에 따라 민간 자원을 적극 활용하는 방향으로 정책을 확장했다. 특히 GPU 구성에서도 목적별 차별화를 뒀다. 과기정통부 관계자는 "산업계 등에 배분되는 정부 GPU는 기본적으로 엔비디아 블랙웰(B200) 시리즈가 중심"이라며 "추가 확보 물량에 따라 다른 모델이 포함될 수 있다"고 설명했다. 반면 민간 임차 GPU는 다양한 수요를 반영한 구조다. 여기엔 고성능 대형 모델 학습부터 비용 부담이 큰 스타트업의 실험용 수요까지 포괄하기 위해 여러 세대 GPU를 혼합하는 방식이 적용됐다. 이를 통해 성능과 비용 효율을 동시에 고려한 공급 체계를 구축한다는 방침이다. 과기정통부 관계자는 "민간 임차 GPU는 H100이나 H200을 중심으로 확보하고 일부 수요를 고려해 A100 같은 이전 세대 GPU도 포함된다"며 "이용 비용 부담을 낮추기 위한 선택"이라고 설명했다. 공급 구조에서도 변화가 감지됐다. 정부는 GPU 공급 사업자 선정에서 국내외 구분을 두지 않기로 했다. 이는 국내 인프라만으로는 급증하는 수요를 감당하기 어렵다는 판단이 반영된 조치다. 동시에 글로벌 클라우드까지 포함한 경쟁 구조를 통해 공급 역량을 끌어올리겠다는 의도로도 풀이된다. 과기정통부 관계자는 "국내에서 GPU 서비스를 제공할 수 있는 사업자라면 해외 CSP도 참여 제한은 없다"며 "실제로 AI 연구용 컴퓨팅 사업은 지난해 AWS가 수행한 사례도 있다"고 말했다. 그러면서도 "다만 연구 데이터와 서비스 환경을 고려해 보안 관련 평가는 함께 진행하고 있다"고 덧붙였다. 업계에선 이번 공모안이 단순 자원 공급을 넘어 사업 구조 자체가 고도화됐다는 점에도 주목했다. 대형 AI 모델 수요 증가에 맞춰 GPU 요건이 강화되고 운영 수준까지 평가하는 방향으로 정책이 변화하고 있다는 분석이다. 업계 관계자는 "H100·H200 중심의 대규모 GPU 확보 요건이 제시되면서 전년 대비 요구 수준이 크게 높아졌다"며 "단순 인프라 제공이 아니라 SLA(서비스 수준 협약, Service Level Agreement) 기반 운영과 관리 역량까지 요구되는 구조로 바뀌면서 CSP 간 경쟁 강도와 부담이 모두 커지고 있다"고 지적했다. 일각에선 인프라 비용 측면의 부담도 지적했다. 대형 AI 모델을 지원할 경우 GPU뿐 아니라 네트워크와 스토리지 비용까지 함께 증가할 수밖에 없다고 봐서다. 또 다른 관계자는 "대규모 AI 모델 학습에서는 데이터 통신량이 크게 늘어나기 때문에 네트워크와 스토리지 부담이 상당한 수준이 될 수 있다"며 "GPU 지원 정책이지만 실제로는 전체 인프라 비용 구조를 함께 고려해야 한다"고 밝혔다. 이번 정책은 단순한 GPU 지원을 넘어 'AI 연산 자원을 얼마나 빠르게 공급하느냐'에 초점이 맞춰져 있다는 의견도 나왔다. 수요가 이미 공급을 크게 앞지른 상황에서 정책 효과는 실제 현장에서의 인프라 운영 부담과 비용 구조에 따라 좌우될 것이라고도 관측했다. 업계 관계자는 "정부의 GPU 인프라 구축 사업이 계획에 머무르지 않고 실제 사업으로 속도감 있게 진행되고 있다는 점은 긍정적"이라면서도 "다만 GPU 조달 비용과 인프라 운영 부담이 커지고 있는 만큼 공급사 입장에서는 비용과 리스크 관리가 중요한 변수로 작용할 것"이라고 말했다.

2026.03.17 16:22장유미 기자

"美 상무부, AI 칩 수출 강화안 폐기...새 규제 검토 지속"

미국 정부가 엔비디아와 AMD 등 자국에 본사를 둔 AI 기업들이 설계한 반도체를 수출할 경우 통제 절차를 강화하려던 계획에서 한 발 물러섰다. 로이터통신이 14일(현지시간) 미국 내 소식통을 인용해 이렇게 보도했다. 이달 초 액시오스 등 현지 언론에 따르면, 미국 정부는 자국 기업이 설계한 고성능 AI 반도체 해외 판매를 강화하는 새로운 규제 체계를 검토하고 있었다. 해외 기업이나 국가가 AI 반도체를 대량 구매할 경우 미국 정부 허가에 더해 미국 기업·정부 기관과 협력 등을 요구하는 추가 조건도 검토된 것으로 전해졌다. 미국 정부는 2022년 첨단 반도체와 AI 가속기 기술이 중국의 군사·첨단 산업 발전에 활용될 수 있다는 이유로 고성능 반도체와 관련 장비 수출을 제한했다. 이후 규제 범위는 점차 확대됐고 특정 국가가 아닌 AI 컴퓨팅 인프라 규모를 기준으로 통제하는 방안까지 검토된 것이다. 로이터통신에 따르면 미국 상무부는 이달 초부터 거론되던 AI 반도체 수출 강화안을 철회했다. 공식 법안이나 시행령 등으로 채택되기 전 단계인 초안을 내부 검토 과정에서 폐기했다. 다만 AI 칩 수출 통제 자체를 완화하는 것은 아니며, 새로운 규제 체계는 여전히 논의 중인 것으로 알려졌다. 로이터통신은 "AI 관련 반도체를 전략 기술로 간주하는 미국 정부의 입장에는 여전히 변함이 없으며, 앞으로는 대형 AI 컴퓨팅 인프라와 칩 공급을 연계한 새로운 통제 체계를 마련할 가능성이 있다"고 전했다.

2026.03.15 09:00권봉석 기자

엔비디아가 찜한 투게더 AI, 기업가치 1년 새 2.5배 껑충…10억 달러 투자 추진

인공지능(AI) 클라우드 스타트업 투게더 AI(Together AI)가 약 75억 달러(약 10조원) 기업가치를 기준으로 신규 투자 유치를 추진하고 있는 것으로 전해졌다. 6일 디인포메이션에 따르면 투게더 AI는 약 10억 달러 규모의 신규 투자 라운드를 논의 중이다. 투자 유치가 성사될 경우 기업가치는 약 75억 달러 수준으로 평가될 전망이다. 투게더 AI는 엔비디아 그래픽처리장치(GPU) 기반 AI 클라우드 인프라를 제공하는 스타트업으로, 기업과 개발자들이 대규모 AI 모델을 학습하거나 추론 작업을 수행할 수 있는 컴퓨팅 환경을 제공한다. 특히 메타의 라마 등 오픈소스 대형언어모델(LLM)을 운영할 수 있는 플랫폼을 지원하는 것이 특징이다. AI 산업이 급성장하면서 대규모 GPU 컴퓨팅 인프라에 대한 수요도 빠르게 늘어나고 있다. 이에 따라 투게더 AI를 비롯해 코어위브, 람다 등 AI 전용 클라우드 인프라 기업들이 빠르게 성장하는 추세다. 투게더 AI의 기업가치는 최근 몇 년 사이 급격히 상승했다. 이 회사는 2024년 약 12억 달러 수준에서 평가됐으나 이후 투자 유치 과정에서 30억 달러 이상으로 올라섰다. 이번 투자 논의에서는 75억 달러까지 확대될 가능성이 제기되고 있다. 업계에선 투게더 AI를 단순한 GPU 인프라 제공 기업이 아니라 AI 추론 소프트웨어와 클라우드 인프라를 결합한 사업 모델을 구축한 기업으로 평가하고 있다. 특히 엔비디아가 투자한 AI 인프라 스타트업이라는 점도 시장에서 긍정적인 요인으로 작용하고 있다는 분석이다. 일각에선 이번 투자 라운드가 기업가치를 크게 끌어올리는 후기 단계 투자라는 점에서 향후 기업공개(IPO)로 이어질 가능성에도 주목하고 있다. 또 이번 투자 유치가 성사될 경우 투게더 AI가 향후 상장을 준비하는 과정에서 중요한 전환점이 될 수 있다는 관측도 나온다. AI 인프라 시장이 빠르게 확대되면서 투게더 AI 같은 관련 기업들의 가치도 상승하는 분위기다. 특히 생성형 AI 확산으로 고성능 GPU 수요가 급증하면서 AI 인프라 기업들의 역할도 더욱 커질 것으로 예상된다. 업계 관계자는 "AI 모델 개발 경쟁이 치열해지면서 이를 뒷받침하는 GPU 기반 클라우드 인프라에 대한 수요도 급증하고 있다"며 "AI 인프라 기업들이 향후 AI 생태계에서 핵심 역할을 맡게 될 것"이라고 전망했다.

2026.03.06 15:43장유미 기자

"美 정부, AI 반도체 수출 통제 강화 검토"

미국 정부가 인공지능(AI) 반도체 수출 통제 강화를 검토중이다. 대규모 데이터센터 구축에 필수적인 GPU 공급을 통제헤 글로벌 AI 인프라 구축을 통제하겠다는 의도가 있다. 5일(현지시간) 로이터통신과 액시오스 등 현지 언론에 따르면, 미국 정부는 미국 기업이 설계한 고성능 AI 반도체 해외 판매를 강화하는 새로운 규제 체계를 검토하고 있다. 보도에 따르면 미국 정부는 해외 기업이나 국가가 AI 반도체를 대량 구매할 경우 정부 허가를 요구할 예정이다. 특히 일정 규모 이상 GPU를 구매할 경우 미국 정부와 협력 등 추가 조건을 요구하는 방안도 거론된다. 새로운 규제 대상에는 AI 처리를 위한 GPU 시장을 양분하고 있는 엔비디아와 AMD가 포함될 가능성이 크다. 미국 정부는 현재 중국 등 일부 국가에만 AI 반도체 수출을 제한했다. 그러나 새 규제는 이런 통제를 전 세계로 확대하려는 의도를 담고 있다. AI 데이터센터를 구축하려는 기업이나 국가가 미국 정부의 관계에 따라 GPU 확보에 실패할 가능성도 생긴다. 액시오스는 "새 규제는 현제 미국 정부 내부 검토 단계이며 구체적인 시행 시기나 최종 규정은 확정되지 않았다"고 설명했다.

2026.03.06 09:48권봉석 기자

에이수스코리아, AW2026에 엣지 AI 솔루션 출품

에이수스코리아 인프라 솔루션 사업 그룹은 국내 공식 공급사인 피앤티링크와 '2026 스마트공장·자동화산업전(AW2026)'에 엣지 AI 솔루션과 미니 PC를 출품한다고 밝혔다. AW2026은 AI·휴머노이드 기반 자율제조(AX) 산업을 주제로 4일부터 6일까지 서울 삼성동 코엑스에서 진행되며 24개국 500개 기업이 총 2300부스 규모로 참여한다. 에이수스코리아는 행사 기간 중 엔비디아 젯슨 T5000 기반 초소형 엣지 AI 컴퓨터 'PE3000N', 2U 폼팩터에 인텔 코어 울트라 200S 프로세서와 최대 600W GPU를 통합한 랙 단위 AI GPU 시스템 'RUC-1000G'를 전시한다. PE3000N은 컴퓨팅 성능을 전 세대 대비 최대 7.5배, 전력 효율성을 3.5배 높인 엔비디아 젯슨 T5000으로 2070 FP4 TFLOPS 연산 성능을 구현했다. 생성형 VLM/LLM 모델, 실시간 지능형 비디오 분석, 완전 자율 제어 애플리케이션을 엣지에서 실행한다. RUC-1000G는 PCI 익스프레스 5.0 인터페이스로 연결된 GPU로 데이터 전송/처리 속도를 높이는 한편 메인 시스템과 GPU 섀시를 분리하여 관리하는 냉각 시스템을 적용했다. 인텔 코어 울트라 X9 프로세서를 통합한 미니 PC인 NUC 16 프로, 4K AI 이미지 처리가 가능한 MDS M700 등 미니 PC를 포함해 산업용 마더보드, NUC 미니 PC 시리즈 등 산업 환경에 최적화된 하드웨어도 함께 전시된다. 에이수스코리아는 기간 중 참관객 대상으로 각종 행사와 경품을 제공 예정이다.

2026.03.04 12:10권봉석 기자

글로벌 AI 투자 몰리는 '네오클라우드'…한국 스타트업도 도전장

생성형 인공지능(AI) 확산과 함께 그래픽처리장치(GPU)를 중심으로 한 '네오클라우드'가 글로벌 인프라 시장의 새로운 축으로 부상하고 있다. 미국과 유럽에서 수십조원대 투자가 이어지는 가운데, 국내 스타트업들도 AI 전용 인프라 시장을 정조준하며 본격적인 경쟁에 뛰어드는 모습이다. 1일 업계에 따르면 네오클라우드는 기존 범용 클라우드와 달리 AI 학습·추론에 최적화된 고성능 GPU 자원을 서비스형(GPUaaS)으로 제공하는 사업 모델을 뜻한다. AI 모델 크기와 연산량이 급증하면서 하이퍼스케일러만으로는 수요를 감당하기 어려워지자 GPU 중심 인프라를 특화해 제공하는 사업자들이 빠르게 성장 중이다. 글로벌 시장에선 코어위브·람다랩스·네비우스 등이 대표적이다. 이들 기업은 엔비디아 GPU를 대규모로 확보해 AI 기업에 맞춤형 연산 자원을 제공하며 몸집을 키우고 있다. 특히 북미 기준 엔비디아 H100 GPU 임대 비용이 하이퍼스케일러 대비 3분의 1 수준에 불과하다는 조사 결과도 나오며 가격 경쟁력도 부각되고 있다. 금융권 자금도 네오클라우드로 몰리고 있다. 미국 주요 금융사는 네오클라우드 기업이 보유한 GPU를 담보로 대규모 대출을 실행하며 인프라 확장을 지원하고 있다. 시장조사기관 ABI리서치는 GPUaaS 기반 네오클라우드 시장이 2030년 약 90조원 규모로 성장할 것으로 내다봤다 . 이같은 흐름 속에 국내 스타트업들도 AI 전용 인프라 사업자로 정체성을 재정립하며 시장 공략에 속도를 내고 있다. 대표 사례가 베슬AI다. 이 회사는 자사 플랫폼 '베슬 클라우드'를 기반으로 AI 워크로드 운영에 특화된 네오클라우드 사업자로 입지를 강화하고 있다 . 베슬AI는 최근 GPU 클라우드 서비스를 공식 출시하고 연내 H200·B200·B300 등 최신 GPU 1만 장 규모 인프라를 구축하겠다는 계획을 밝혔다. 이미 미국·이스라엘·핀란드 등 6개 지역 데이터센터와 계약을 체결했으며 100여 개 기업과 연구기관이 서비스를 이용 중이다. 글로벌 대학과 연구기관 도입도 확대되며 지난해 매출은 전년 대비 3.4배 성장했다. 에너지 효율 측면에서도 차별화를 시도하고 있다. 베슬AI는 미국 데이터센터 기업과 협력해 전력망 상황에 따라 AI 워크로드를 자동 조정하는 그리드 인지형 머신러닝 운영관리(MLOps) 솔루션을 공동 개발 중이다. GPU 확보 경쟁을 넘어 운영 효율까지 아우르는 네오클라우드 전략이다. 몬드리안에이아이 역시 네오클라우드를 차세대 성장 축으로 내세웠다. 이 회사는 지난해부터 네오클라우드 사업 출사표를 던지며 최근 엔비디아 B300 GPU 클러스터 구축에 나섰다. 네오클라우드를 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스로 정의하고 매니지드 서비스 역량까지 결합하겠다는 전략이다 . 특히 델 테크놀로지스 인프라와 자체 ML옵스 플랫폼 '예니퍼', AI 실행환경 패키지 '몬스택'을 결합한 어플라이언스 '몬박스'를 교육·연구 현장에서 빠르게 확산하고 있다. 서울과학기술대학교와 성균관대학교 등에서 도입 사례가 이어지며 복잡한 설정 없이 즉시 AI 연구가 가능한 환경을 제공하고 있다는 평가다. 몬드리안에이아이는 최근 150억원 규모 시리즈B 투자 유치에 나서며 GPU 인프라 확충과 글로벌 진출을 병행하겠다는 계획도 밝혔다. 단순 GPU 임대를 넘어 인프라·플랫폼·서비스를 아우르는 네오클라우드 그룹으로 도약하겠다는 구상이다 . 업계에선 네오클라우드가 하이퍼스케일러의 대체재라기보다 AI 특화 워크로드를 분리·보완하는 공존형 인프라로 자리 잡을 가능성에 무게를 둔다. 다만 GPU 확보 비용, 전력비 상승, 엔비디아 의존도 등은 장기 리스크로 꼽힌다. 그럼에도 AI 모델 고도화와 산업 전반의 AI 전환(AX)이 가속화되는 한 GPU 중심 인프라 수요는 지속 확대될 것이란 전망이 우세하다. 글로벌 자본이 몰리는 네오클라우드 시장에서 한국 스타트업들이 기술·운영 역량을 바탕으로 의미 있는 경쟁력을 확보할 수 있을지 주목된다. 박현규 몬드리안에이아이 부사장은 "네오클라우드는 단순히 GPU를 임대하는 사업이 아니라 AI 연구와 서비스가 바로 작동할 수 있는 환경을 패키지로 제공하는 모델"이라며 "국내 기업과 연구기관이 인프라 부담 없이 AI 혁신에 집중할 수 있도록 네오클라우드 역량을 지속적으로 고도화하겠다"고 밝혔다.

2026.03.01 08:47한정호 기자

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

아르테미스 2호 국내 위성, 교신은 끝내 안돼…"추락 가능성"

"잠이 안 온다"…주주들 고성 이어진 한화솔루션 유증 설명회

[영상] "2~3년 내 AI 빅뱅 온다"…지금 우리가 대비해야 할 것은

"충전 없이 50년"…꿈의 배터리 개발, 어디까지 왔나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.