• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'B200'통합검색 결과 입니다. (6건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] 李 'AI 고속도로'가 바꾼 판…정부 GPU 지원, 스타트업 실험에 불 붙였다

'인공지능(AI) 고속도로' 구축을 위해 이재명 정부가 추진해온 고성능 그래픽처리장치(GPU) 지원 사업이 국내 AI 스타트업 생태계 조성에 실질적인 역할을 했다는 평가가 나오고 있다. 대규모 연산 자원이 필수적인 파운데이션 모델 개발과 차세대 AI 구조 연구에서 초기 자본이 부족한 스타트업들도 정부 덕에 기술 실험을 지속할 수 있는 토대가 마련됐다는 분석이다. 10일 업계에 따르면 트릴리온랩스는 지난해 9월부터 4개월여간 정부로부터 엔비디아 H200 GPU 80장 규모의 고성능 연산 자원을 지원받아 차세대 AI 구조 연구를 진행했다. 이를 통해 초거대 모델 학습뿐 아니라 기존 트랜스포머 구조의 연산 효율을 개선하기 위한 신규 아키텍처 실험과 대규모 검증을 병행할 수 있는 환경을 구축했다. 이 연산 인프라는 구체적인 기술 성과로도 이어졌다. 트릴리온랩스는 지원받은 GPU 자원을 활용해 지난 달 디퓨전 기반 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다. '트리다-7B'는 단어를 하나씩 순차적으로 생성하는 기존 방식에서 벗어나 문장 전체를 병렬로 생성하는 확산(diffusion) 기법을 언어 모델에 적용한 것이 특징이다. 또 이미지 생성에 주로 활용되던 디퓨전 기술을 언어 모델 구조에 이식함으로써 추론 속도와 연산 효율을 동시에 끌어올렸다. 이와 함께 지난해 10월에는 소규모 프록시 모델을 활용해 대형 언어모델의 성능을 사전에 예측하는 '알브릿지(rBridge)' 기법도 개발했다. 실제 대형 모델을 반복 실행하지 않고도 성능을 가늠할 수 있는 구조로, 연산 효율을 최대 700배 이상 개선하고 거대언어모델(LLM) 개발 비용을 대폭 절감할 수 있는 가능성을 제시했다. 대규모 모델 학습에 앞서 시행착오를 줄일 수 있다는 점에서 파운데이션 모델 개발 방식 자체를 바꿀 수 있는 접근으로 평가된다. 업계에선 이러한 성과가 단순한 개별 기술 개발을 넘어 AI 연구·개발의 비용과 시간, 자원 구조를 근본적으로 재설계했다는 점에 주목하고 있다. 대형 모델을 '더 많이 돌리는 방식'이 아니라 '덜 돌리고도 더 많이 검증하는 방식'으로 전환할 수 있는 가능성을 보여줬다는 점에서다. 이는 스타트업이 제한된 자원 환경에서도 고난도 연구를 지속할 수 있는 실질적인 해법으로 꼽힌다. 이 같은 결과 뒤에는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 지원 방식도 한 몫 했다는 평가다. 앞서 정부는 삼성SDS·KT클라우드·엘리스클라우드를 '고성능컴퓨팅 지원사업' 공급사로 선정한 후 지난해 9월부터 12월까지 국내 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등에 총 1천 장의 GPU를 지원했다. 당시 삼성SDS와 엘리스그룹은 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급했다. 당시 정부에선 그간 단순히 GPU를 일괄 배분하는 데 그치지 않고 연구 단계와 실험 난이도에 맞춰 자원 활용 계획을 조정하며 과제 수행 전반을 관리했다. 또 개발 과정에서 발생하는 변수에 따라 지원 방식을 유연하게 조정하고 현장의 피드백을 즉각 반영하는 방식으로 연구 완성도를 높였다. 이 과정에서 정부는 단순한 예산 집행 기관을 넘어 프로젝트의 '내비게이터' 역할을 수행하며 실질적인 성과를 견인했다는 평가를 받았다. 또 단순히 규모가 큰 기업이 아닌, 독보적인 기술력과 성장 잠재력을 보유한 스타트업을 정밀하게 선별해 과제 수행 기업으로 낙점하려는 노력이 참여 기업으로부터 큰 호응을 얻었다. 업계 관계자는 "정부가 행정적 관리에 그치지 않고 모델 출시 과정에서 발생하는 변수에 맞춰 지원 체계를 업데이트했다"며 "현장의 목소리를 즉각 반영해 모델의 완성도를 높이는 실질적인 가이드도 제공해줬다"고 말했다.이어 "무한정한 지원 대신, 한정된 예산 내에서 최선의 결과물을 낼 수 있도록 목표 난이도를 정교하게 조정해준 점도 인상 깊었다"며 "이를 통해 자원의 낭비를 막고 효율적인 사용 위에 최대의 성과를 이끌어냈다"고 덧붙였다. 트릴리온랩스 역시 정부 인프라 지원을 발판 삼아 국내에서 시도된 적 없는 기술 실험을 진행할 수 있었다고 평가했다. 독자적인 모델 구조와 학습 기법을 실제 대규모 환경에서 반복 검증하며 스타트업이 겪는 컴퓨팅 파워 한계를 일정 부분 극복할 수 있었다는 것이다. 신재민 트릴리온랩스 대표는 "정부의 GPU 지원 사업이 단순한 인프라 제공을 넘어 기술 기업의 도전 방식을 바꿨다"며 "자본력보다 기술적 실험과 구조 혁신에 집중할 수 있는 조건을 마련했다는 점에서 국내 AI 생태계에 미친 영향이 적지 않다"고 강조했다. 이 같은 분위기 속에 정부가 추가경정예산으로 확보한 고성능 GPU 자원으로 어떤 AI 연구 기관, 기업들이 수혜를 받을지 관심이 쏠린다. 정부는 총 1만3천136장 규모의 GPU를 최대 12개월까지 이용할 수 있도록 한 사업을 공고한 후 지난 달 28일 마감했다. 이번에는 학계·연구기관은 무상으로, 산업계는 자부담 방식으로 지원받는 구조다. 구축·운영은 민간 클라우드 3사가 맡는다. 네이버클라우드는 세종 데이터센터에 H200 2296장을 안착시켰고, 카카오는 안산 데이터센터에 B200 2040장을 클러스터 형태로 구축했다. NHN클라우드는 3월께 B200 6120장을 갖출 계획이다. 정부는 이 사업에 예산 1조4590억원을 투입했다. 이번 프로젝트는 과제별로 H200, B200 중 하나만 신청할 수 있다. 신청은 서버 묶음 기준으로 이뤄진다. H200은 최소 서버 2대(16장)에서 최대 서버 32대(256장)까지, B200은 최소 서버 2대(16장)에서 최대 서버 16대(128장)까지다. 조만간 선정될 수요 기업은 원격 접속 방식인 GPUaaS(GPU as a Service)로 고성능 컴퓨팅 자원을 손쉽게 이용할 수 있다. 정부가 고수한 '1사 1지원' 원칙을 사실상 폐기해 중복 신청 문턱이 낮아진 점도 눈에 띈다. 이 일로 동일 기업 내 복수 부서도 각각 GPU 자원을 확보할 수 있게 됐다. 다만 연구 인력의 독립성과 과제 주제는 차별돼야 한다. 여기에 정부는 지난해 확보한 1만3000장에 이어 올해는 B200 기준 1만5000장을 투입해 지원 범위를 넓힐 계획이다. 이를 구축하기 위해 총 2조831억원(출연금)이 투입될 이번 사업 공고는 이달 중 나올 예정으로, 과기정통부 단일 사업 기준 최대 규모 프로젝트로 평가된다. 또 단일 사업자가 전체 물량을 감당하기 어려운 만큼, 사업 구조 자체를 어떻게 설계할지가 관건이 될 전망이다. 과기정통부 관계자는 "주요 클라우드 서비스 제공업체(CSP)들과 면담한 결과 데이터센터 상면(물리적 수용 공간) 확보는 어느 정도 가능한 수준으로 파악됐다"며 "최신 GPU를 확보하는 것이 유리한 만큼 엔비디아 차세대 AI 칩 '베라루빈'을 업체들이 제안할 경우 가점을 줄 지에 대한 방안에 대해선 고민 중"이라고 밝혔다. 업계에선 정부의 고성능 연산 인프라 지원이 일회성 사업에 그치지 않고 파운데이션 모델·신규 아키텍처·산업 특화 AI로 이어지는 연속적인 연구 생태계로 정착할 수 있을지가 향후 사업 성공 여부의 관건이 될 것이라고 전망했다. 업계 관계자는 "특히 연산 자원 접근성이 기술 경쟁력으로 직결되는 AI 산업 특성을 감안할 때 정부의 GPU 지원 정책이 국내 스타트업들의 글로벌 도전 여력을 좌우하는 핵심 변수로 작용할 것으로 예상된다"며 "단기 성과보다 중장기 연구 축적이 가능한 구조로 설계될 경우 정부 지원이 국내 AI 산업의 체질을 바꾸는 계기가 될 수 있다"고 말했다.

2026.02.10 11:43장유미 기자

팀네이버, 엔비디아 B200 4천장 클러스터 구축…AI 개발 속도 12배↑

팀네이버가 인공지능(AI) 기술을 서비스와 산업 전반에 유연하게 적용하기 위한 글로벌 수준 컴퓨팅 파워를 확보했다. 팀네이버는 차세대 엔비디아 그래픽처리장치(GPU) B200 4천 장 규모를 기반으로 국내 최대 규모 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다. 팀네이버는 단순 장비 도입을 넘어 대규모 GPU 자원을 하나로 연결해 최적의 성능을 끌어내는 클러스터링 분야에 중점을 뒀다. 지난 2019년 엔비디아 슈퍼컴퓨팅 인프라인 '슈퍼팟'을 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계·운영한 실증 경험을 축적해왔다. 이번에 구축된 B200 4K 클러스터에는 이러한 경험을 바탕으로 한 냉각·전력·네트워크 최적화 기술이 집약됐다. 대규모 병렬 연산과 고속 통신을 전제로 설계된 이번 클러스터는 글로벌 톱500 상위권 슈퍼컴퓨터들과 비교 가능한 수준의 컴퓨팅 규모를 갖춘 것으로 평가된다. 이같은 인프라 성능은 AI 모델 개발 속도로 직결된다. 회사 측은 내부 시뮬레이션 결과, 720억 개(72B) 파라미터 규모 모델 학습 시 기존 A100 기반 주력 인프라로 약 18개월이 소요되던 학습 기간을 이번 B200 4K 클러스터에서는 약 1.5개월 수준으로 단축할 수 있는 효과를 확인했다. 해당 수치는 내부 시뮬레이션 결과로, 실제 학습 과제와 설정에 따라 소요 기간은 달라질 수 있다는 설명이다. 학습 효율이 12배 이상 향상됨에 따라 팀네이버는 더 많은 실험과 반복 학습을 통해 모델 완성도를 높이고 변화하는 기술 환경에 보다 기민하게 대응할 수 있는 개발·운영 체계를 갖추게 됐다고 설명했다. 대규모 학습을 빠르게 반복할 수 있는 인프라가 확보되면서 AI 모델 개발 전반의 속도와 유연성이 한층 강화됐다는 평가다. 팀네이버는 이러한 인프라를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에도 속도를 낼 계획이다. 텍스트를 넘어 이미지·비디오·음성을 동시에 처리하는 옴니 모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고 이를 다양한 서비스와 산업 현장에 단계적으로 적용한다는 구상이다. 최수연 네이버 대표는 "이번 AI 인프라 구축은 단순한 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보했다는 데 의미가 있다"며 "빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 보다 유연하게 적용해 실질적인 가치를 만들어 나갈 것"이라고 말했다.

2026.01.08 16:59한정호 기자

[유미's 픽] 젠슨 황 만난 최수연, 엔비디아 최신 GPU 확보 속도낼까

최수연 네이버 대표가 한미정상회담 경제사절단 일원으로 참가해 젠슨 황 엔비디아 최고경영자(CEO)를 만난 가운데 국내에서 가장 먼저 최신 그래픽처리장치(GPU)인 B300을 끌어 들여 AI 인프라 경쟁력을 높일지 주목된다. 26일 업계에 따르면 최 대표는 지난 25일(현지시간) 미국 워싱턴DC 윌러드 호텔에서 열린 한미 비즈니스 라운드 테이블에 참석해 황 CEO와 대화를 나눴다. 양측의 대외 공식 회동은 지난 5월 대만에서 만난지 3개월 만이다. 앞서 최 대표는 지난해 6월 말에도 이해진 네이버 이사회 의장과 함께 미국 캘리포니아주 산타클라라 엔비디아 본사에서 황 CEO와 만난 적 있다. 이는 엔비디아의 제안으로 성사된 만남으로, 당시 김유원 네이버클라우드 대표도 함께 만나 '소버린 AI' 모델 구축 방안에 대해 논의했다. 소버린 AI는 데이터센터를 특정 국가 안에 짓고 그 국가의 자체 인프라와 데이터로 구축하는 AI 모델을 뜻한다. 업계에선 AI 반도체 인프라를 공급할 새 시장으로 소버린 AI를 주목하고 있던 엔비디아가 수년 전부터 'AI 주권'을 강조하며 이 시장을 공략해온 네이버와 협업 관계를 더 강화하기 위한 의도라고 분석했다. 황 CEO는 그간 소버린 AI를 여러 차례 강조하며 업체들과의 생태계 조성에 적극 앞장서 왔다. 특히 지난 해 2월 두바이에서 열린 세계정부정상회의(WGS)에선 "데이터와 AI에 대한 국가 소유권을 강조한 소버린 AI가 전 세계 지도자들에게는 엄청난 기회"라며 "모든 국가는 자체적인 AI를 구축·소유할 필요가 있다"고 강조해 눈길을 끌었다. 네이버도 빅테크에 종속되지 않은 소버린 AI를 글로벌 진출 전략으로 내세워 다양한 성과를 거둬왔다. 지난해 3월에는 사우디 아람코와 파트너십을 체결해 중동 지역에 최적화된 소버린 클라우드 및 수퍼앱 구축, 아랍어 중심 소버린 AI 개발에 협력하기로 했다. 올해 5월에는 태국 AI·클라우드 플랫폼 기업 '시암 AI 클라우드'와 태국어 기반 거대언어모델(LLM), 관광 특화 AI 에이전트 공동 개발을 위한 협약을 맺기도 했다. 국내에서도 네이버는 정부의 굵직한 사업에 참여해 AI 인프라 역량을 인정 받고 있다. 네이버클라우드는 최근 정부의 ▲GPU 임차 사업 ▲GPU 확보 사업 모두 사업자로 선정된 상태로, GPU 임차 사업을 통해 엔비디아 H100 GPU 1천24장을 정부에 제공할 예정이다. 또 1조4천600억원 규모 GPU 확보 사업 이행을 위해 함께 사업자로 선정된 NHN클라우드, 카카오엔터프라이즈 등과 함께 실무 협의를 진행하고 있다. 최 대표는 올해 2분기 실적발표 컨퍼런스콜에서 "AI 모델과 클라우드 서비스 역량까지 풀스택으로 확보한 국내 유일 사업자인 만큼 향후 성장률이 높아질 것"이라며 "그동안 자체 기술로 준비해 온 인프라와 AI 생태계가 이제는 글로벌 기회로 확장되고 있다"고 강조했다. 여기에 조만간 정부가 '국가AI컴퓨팅센터 구축 사업'의 공모 조건을 완화해 3차 공모에 나설 예정으로, 네이버클라우드의 참여가 기대되고 있는 상황이다. 국가AI컴퓨팅센터 구축 사업은 정부가 국내 AI 경쟁력 강화를 위해 추진하는 대형 인프라 프로젝트로, 대학·연구소·스타트업 등 국내 AI 생태계 전반에 고성능 컴퓨팅 자원을 안정적으로 제공하기 위해 비수도권에 1엑사플롭스(EF)급 초대형 GPU 인프라를 구축하는 것이 핵심이다. 2030년까지 총 사업 규모는 최대 2조5천억원에 달한다. 이 같은 상황에서 최 대표와 황 CEO의 만남이 네이버클라우드뿐 아니라 향후 우리나라 정부 GPU 관련 사업에서도 유리하게 작용할 지 주목된다. 특히 엔비디아가 현재 주력 AI 칩인 블랙웰(B200)의 개량형 '블랙웰 울트라(B300)' 출시를 올해 3분기로 예고한 가운데 이를 국내에 빠르게 도입할 가교 역할을 할 수 있을지도 기대된다. 현재 국내 기업이나 정부에선 B300 도입 계획을 세우지 못했으나, 영국 네비우스 그룹, 구글 클라우드, 에퀴닉스 등 해외 기업들은 잇따라 관련 계획을 내놓고 있다. 이날 현장에서 양측이 어떤 대화를 나눴는지 공개되지 않았지만, 업계에선 이들이 향후 협력 방안과 AI 시장 동향을 간략히 주고 받았을 것으로 예상됐다. 업계 관계자는 "엔비디아는 GPU에 특화된 개발 플랫폼 '쿠다'를 앞세워 AI 반도체 시장의 압도적인 '원톱'으로 자리 잡은 기업"이라며 "엔비디아가 먼저 네이버에 미팅을 제안하고 만남을 종종 갖는 것은 엔비디아로부터 독립하기 위한 빅테크들의 자체칩 개발, 협업 등 '반(反) 엔비디아' 동맹 움직임 속 우군을 확보하려는 차원"이라고 해석했다. 그러면서 "앞으로는 GPU를 누가 더 빨리, 더 많이, 더 안정적으로 확보하느냐에 따라 국가와 기업의 미래가 결정될 수도 있다"며 "네이버로선 엔비디아와의 협력 강화를 통해 최신 GPU를 빠르게 확보함으로써 자체 클라우드 경쟁력뿐 아니라 국가 AI 인프라 확충에도 많은 기여를 할 수 있을 것으로 보여 앞으로의 역할이 더욱 기대된다"고 덧붙였다.

2025.08.26 18:13장유미 기자

SKT, 블랙웰 1024장 단일 클러스터 구성 GPUaaS 출시

SK텔레콤이 엔비디아 최신 B200 GPU 기반의 소버린 GPUaaS를 출시했다고 5일 밝혔다. 신규 GPUaaS는 1천 장이 넘는 엔비디아의 최신 AI칩인 '블랙웰 B200'을 단일 클러스터로 구성해 제공하는 국내 최대 규모이자 최고 성능이다. 지난 12월 출시한 H100 기반 GPUaaS보다 한층 발전된 형태로, 향후 국내 AI 산업의 인프라 확충에 크게 기여할 전망이다. SK텔레콤은 가산 AI 데이터센터 내에 H100에 이은 최신 B200 GPU 클러스터 조성을 통해 국내 GPU 부족 문제를 해소함과 동시에 AI DC 시장을 선도해 나갈 계획이다. 클러스터 구축은 SK텔레콤의 AI DC 경쟁력과 글로벌 AI 대표 주자들과의 긴밀한 협력 속에 이뤄졌으며, SK텔레콤 AI 피라미드 전략의 자강과 협력을 보여준 대표적 사례다. 클러스터 명은 '해인(海印, Haein)'으로, 팔만대장경이 보관된 '해인사'에서 모티브를 가져왔다. B200 클러스터가 디지털 팔만대장경을 품은 K-소버린 AI인프라가 되겠다는 의미를 담고 있다. 특히 SK텔레콤의 이번 해인 클러스터의 GPUaaS는 과학기술정보통신부의 'AI-컴퓨팅 자원 활용 기반 강화(GPU 임차 지원) 사업'에 선정되며 글로벌 경쟁력을 갖춘 국가 AI 파운데이션 모델 개발에 적극적으로 활용될 예정이다. GPU 임차 지원 사업은 국내 AI 산업의 글로벌 경쟁력 확보와 국가 AI 생태계의 고도화를 위해 마련되었으며, SK텔레콤은 이번 사업을 통해 가산 AI DC를 국내 AI 산업 발전의 중추적 기반 인프라로 발전시켜 나갈 계획이다. SK텔레콤은 GPUaaS 출시를 위해 美 AI DC 통합 솔루션 대표 회사인 펭귄솔루션스와 전략적 협력을 추진해 왔다. 펭귄 솔루션스는 엔비디아 인증 10대 구축 파트너로서 25년 이상 HPC 솔루션 설계, 제공 및 관리에 주력하며 글로벌 시장에서 입지를 다져온 기업이다. SK텔레콤은 지난해 7월 펭귄 솔루션스와 자사 AI 투자 중 최대 규모인 2억 달러 규모의 투자 계획을 체결하고, 시너지 TF를 구성해 구체적인 상호 협력 방안을 논의하는 등 차별화된 GPUaaS 서비스를 준비해 왔다. 또한 전략적 파트너사인 글로벌 AI 서버 제조사 슈퍼마이크로와의 협력을 통해 단기간 내 GPU 서버를 빠르게 수급해 적기 제공했다. SK텔레콤의 독자적 기술력도 다각도로 활용된다. 자체 가상화 솔루션인 '페타서스(Petasus) AI 클라우드'를 활용, GPU 클러스터를 고객 수요에 맞춰 즉시 분할하고 재구성해 가동률을 극대화했다. 또 대규모 모델 개발 노하우가 축적된 AIOps인 'AI Cloud Manager'를 함께 제공한다. SK텔레콤의 B200 기반 GPUaaS 출시는 지난해 12월 글로벌 AI 클라우드 전문기업 람다(Lambda)의 한국 리전 개소에 이은 또 하나의 실질적 성과로, SK텔레콤의 글로벌 AI DC 사업 경쟁력을 다시 한번 입증하게 되었다. SK텔레콤은 앞으로도 GPUaaS 사업을 지속적으로 확장, 국내 AI 사업이 세계 무대에서 경쟁력을 갖출 수 있도록 인프라 차원의 적극적 지원을 강화할 계획이다. 김명국 SK텔레콤 GPUaaS사업본부장은 “최신 GPU인 B200을 활용해 국내 최대 규모로 준비한 SK텔레콤 해인 클러스터의 GPUaaS는 고객 및 국가의 AI 경쟁력을 높이는 계기가 될 것”이라며 “AI 인프라 사업자로서 국가 AI 고속도로 구축에 힘을 쏟겠다”고 말했다.

2025.08.05 09:10박수형 기자

'GPU 1.3만장 확보' 1차 사업자, 네이버·NHN·카카오 선정

정부가 1조4천600억원 규모의 추경 예산을 투입한 '첨단 GPU 확보 사업' 1차 참여 사업자로 네이버클라우드·NHN클라우드·카카오 등 3곳을 선정했다. 과학기술정보통신부는 이들 사업자와 협력해 총 1만3천136장의 최신형 GPU를 확보해 국내 인공지능(AI) 생태계의 기반을 강화하고 연말부터 산학연 등을 대상으로 GPU 자원을 순차 지원하겠다고 28일 밝혔다. 정부는 지난 5월 첨단 GPU 확보 사업 추경 예산을 편성한 데 이어 ▲참여사 공모(5.23~6.23) ▲제안서 평가 ▲데이터센터 현장 실사 ▲사업비 심의·조정 등의 절차를 진행해 왔다. 이후 최대한 많은 GPU 자원 제공과 이용자 측면에서 경험·역량을 갖춘 안정적 서비스 제공을 고려해 네이버클라우드·NHN클라우드·카카오를 최종 사업자로 선정했다. 민관 협력을 통해 확보할 GPU는 총 1.3만장 규모로, 구체적으로는 NVIDIA B200 1만80장과 H200 3천56장 규모다. 이 중 일부는 참여 사업자들의 자체 활용도 지원하며 정부가 활용할 GPU는 총 1만장을 상회하는 B200 8천160장과 H200 2천296장 규모다. 특히 정부가 활용할 GPU는 1개의 B200 510노드(4천80장)와 2개의 B200 255노드(2천40장), 1개의 H200 255노드(2천40장) 등으로 클러스터링 함으로써 대규모 클러스터링 기반의 AI 워크로드에 대응 가능할 것으로 전망된다. 참여 사업자별로 확보·구축할 GPU를 살펴보면 먼저 네이버클라우드는 총 3천56장의 H200을 확보·구축한다. 현재 시장의 주력 기종인 H200으로 구성함으로써 전체 GPU 서비스를 연내 안정적으로 제공할 계획이다. 네이버클라우드의 확보·구축분 중 정부가 활용할 GPU는 H200 2천296장으로, 255노드(2천40장)와 32노드(256장)으로 클러스터링돼 활용될 계획이다. 해당 전체 GPU 자원은 연내부터 산학연 등에 지원·배분할 방침이다. 다음으로 NHN클라우드는 총 7천656장의 B200을 확보·구축한다. 전체를 B200으로 구성해 수냉식으로 가동할 계획으로, 최신 GPU 클러스터를 친환경·고효율·고성능 방식으로 운용할 예정이다. NHN클라우드의 확보·구축분 중 정부가 활용할 GPU는 B200 6천120장으로, B200 510노드(4천80장)와 B200 255노드(2천40장)으로 클러스터링돼 활용될 계획이며 일부는 연내 베타서비스를 추진할 방침이다. 마지막으로 카카오는 총 2천424장의 B200을 확보·구축한다. 전체를 B200으로 구성하고 보다 효율적인 인프라를 구동하는 데에 중점을 뒀다. 카카오의 확보·구축분 중 정부가 활용할 GPU는 B200 2천40장으로, B200 255노드(2천40장)로 클러스터링돼 활용될 계획이며 이 역시 일부는 연내 베타서비스를 추진할 방침이다. 과기정통부에 따르면 모든 참여사들은 국내 소버린 AI 생태계 확장에 적극적인 의지를 밝히고 정부의 GPU 활용 물량 극대화에 적극 동참했다. 아울러 GPU 자체 활용분을 이용해 자체 AI 개발·고도화, 산학연 GPU 저렴 공급 등을 추진하고 일부 참여사는 국내 AI 인프라 투자를 강화하는 등 국내 AI 생태계에 다각도로 기여할 계획이다. 또 가칭 'GPU 통합 지원 플랫폼' 구축에 협력키로 합의해 향후 필요한 산학연 관계자 등이 온라인으로 자유롭게 GPU 자원을 신청하고 평가 등을 거쳐 GPU 자원을 지원·배분 받을 수 있는 기반을 마련할 계획이다. 향후 정부는 일련의 절차를 거쳐 이르면 다음 달 초부터 사업자 협약과 GPU 구매 발주 등을 속도감 있게 추진할 예정이며 국가 프로젝트와 필요한 산학연 등에 GPU 지원을 순차 개시할 예정이다. 이를 통해 ▲국내 AI 연구·서비스 개발 역량 강화 ▲AI 스타트업·중소기업, 대학 등의 AI 컴퓨팅 인프라 접근성 증진 ▲대규모 AI 모델 개발 가속화 등에 적극 기여할 방침이다. 배경훈 과기정통부 장관은 "이번 첨단 GPU 확보는 국내에 부족한 AI 컴퓨팅 인프라의 마중물이자 국내 AI 생태계 전반의 혁신을 가속화하는 새 정부 소버린 AI 생태계 확장과 AI 고속도로 구축의 출발점"이라며 "이를 기점으로 더욱 강력한 AI 컴퓨팅 인프라 확충과 대한민국의 AI 강국 도약에 정책적 총력을 다하겠다"고 강조했다.

2025.07.28 18:50한정호 기자

정부, 엔비디아 H200·B200 구입...10월부터 GPU 서비스

정부가 연내 엔비디아의 H200, B200 GPU 1만장을 도입해 국내 클라우드 기업이 AI 연구 개발에 쓰이도록 한다. GPU 구매 발주는 7월에 이뤄질 예정이다. 과학기술정보통신부는 14일 열린 경제관계장관회의에서 이같은 내용이 담긴 첨단 GPU 확보 추진 방안을 발표했다. 추경 예산으로 확보하게 되는 GPU 1만장은 H200 6천400장, B200 3천600장 규모로 수급 계획을 세웠으며 모델 비중은 상황에 따라 조정할 예정이다. GPU 구입에 8천600억원, 클러스터 통합 운영환경에 6천억원의 예산을 분배한다. 정부 예산으로 구입한 GPU를 운용할 클라우드 기업(CSP)에 대한 공모는 내주 예정됐으며 GPU 구매 절차는 7월에 진행, 이르면 오는 10월부터 신규 GPU 클러스터를 통한 국내 기업과 학계의 R&D를 진행키로 했다. 국가AI컴퓨팅센터 주체의 컨소시엄 형태 특수목적법인(SPC)에 참여하는 CSP 선정에는 별도 전문가 위원회가 맡는다. 선정 평가는 ▲재정 투입 대비 컴퓨팅 성능을 포함한 GPU 확보 구축 역량 ▲신속한 GPU 서비스 실행력 ▲GPU 자원 자체 활용 비중과 계획(CSP 운영비 성격 고려) 등을 중점에 뒀다. 선정된 CSP와 추후 권리 등에 관한 5년 단위 협약을 체결하게 된다. 협약에는 정보통신산업진흥원(NIPA)의 GPU 소유권 확보, SPC의 GPU 사용, CSP의 일부 GPU 자원 자체활용 허용 등의 내용이 포함된다. 정부는 특히 월드베스트LLM(WBL)에 선정된 기업에 GPU 자원 이용을 우선 제공한다는 방침이다. WBL은 국가대표 생성형AI 모델을 만들겠다는 취지로, 추경 예산을 통해 이뤄지는 프로젝트다. 과기정통부는 “SPC는 공공지분이 51%로 공공기관운영법에 따른 공공기관 지정 가능 요건에 해당한다”며 “내년 1월로 예상되는 공공기관운영위 심의에서 최종 결정될 사항이나 민간의 자율성을 최대한 보장하는 방향으로 부처 협의 중”이라고 밝혔다.

2025.05.14 11:35박수형 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

"부르기 전 AI 비서가 먼저 돕는다"…삼성 '갤럭시S26' 전격 공개

최진일 이마트24, ‘체류형 점포’ 승부수...만년 4위 꼬리표 뗄까

민희진 "나와 뉴진스 있어야할 곳은 무대...모든 분쟁 끝내자"

자사주 소각 의무화 동시에 육천피…주주 웃고 재계는 속앓이

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.