• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'H200'통합검색 결과 입니다. (11건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] 李 'AI 고속도로'가 바꾼 판…정부 GPU 지원, 스타트업 실험에 불 붙였다

'인공지능(AI) 고속도로' 구축을 위해 이재명 정부가 추진해온 고성능 그래픽처리장치(GPU) 지원 사업이 국내 AI 스타트업 생태계 조성에 실질적인 역할을 했다는 평가가 나오고 있다. 대규모 연산 자원이 필수적인 파운데이션 모델 개발과 차세대 AI 구조 연구에서 초기 자본이 부족한 스타트업들도 정부 덕에 기술 실험을 지속할 수 있는 토대가 마련됐다는 분석이다. 10일 업계에 따르면 트릴리온랩스는 지난해 9월부터 4개월여간 정부로부터 엔비디아 H200 GPU 80장 규모의 고성능 연산 자원을 지원받아 차세대 AI 구조 연구를 진행했다. 이를 통해 초거대 모델 학습뿐 아니라 기존 트랜스포머 구조의 연산 효율을 개선하기 위한 신규 아키텍처 실험과 대규모 검증을 병행할 수 있는 환경을 구축했다. 이 연산 인프라는 구체적인 기술 성과로도 이어졌다. 트릴리온랩스는 지원받은 GPU 자원을 활용해 지난 달 디퓨전 기반 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다. '트리다-7B'는 단어를 하나씩 순차적으로 생성하는 기존 방식에서 벗어나 문장 전체를 병렬로 생성하는 확산(diffusion) 기법을 언어 모델에 적용한 것이 특징이다. 또 이미지 생성에 주로 활용되던 디퓨전 기술을 언어 모델 구조에 이식함으로써 추론 속도와 연산 효율을 동시에 끌어올렸다. 이와 함께 지난해 10월에는 소규모 프록시 모델을 활용해 대형 언어모델의 성능을 사전에 예측하는 '알브릿지(rBridge)' 기법도 개발했다. 실제 대형 모델을 반복 실행하지 않고도 성능을 가늠할 수 있는 구조로, 연산 효율을 최대 700배 이상 개선하고 거대언어모델(LLM) 개발 비용을 대폭 절감할 수 있는 가능성을 제시했다. 대규모 모델 학습에 앞서 시행착오를 줄일 수 있다는 점에서 파운데이션 모델 개발 방식 자체를 바꿀 수 있는 접근으로 평가된다. 업계에선 이러한 성과가 단순한 개별 기술 개발을 넘어 AI 연구·개발의 비용과 시간, 자원 구조를 근본적으로 재설계했다는 점에 주목하고 있다. 대형 모델을 '더 많이 돌리는 방식'이 아니라 '덜 돌리고도 더 많이 검증하는 방식'으로 전환할 수 있는 가능성을 보여줬다는 점에서다. 이는 스타트업이 제한된 자원 환경에서도 고난도 연구를 지속할 수 있는 실질적인 해법으로 꼽힌다. 이 같은 결과 뒤에는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 지원 방식도 한 몫 했다는 평가다. 앞서 정부는 삼성SDS·KT클라우드·엘리스클라우드를 '고성능컴퓨팅 지원사업' 공급사로 선정한 후 지난해 9월부터 12월까지 국내 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등에 총 1천 장의 GPU를 지원했다. 당시 삼성SDS와 엘리스그룹은 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급했다. 당시 정부에선 그간 단순히 GPU를 일괄 배분하는 데 그치지 않고 연구 단계와 실험 난이도에 맞춰 자원 활용 계획을 조정하며 과제 수행 전반을 관리했다. 또 개발 과정에서 발생하는 변수에 따라 지원 방식을 유연하게 조정하고 현장의 피드백을 즉각 반영하는 방식으로 연구 완성도를 높였다. 이 과정에서 정부는 단순한 예산 집행 기관을 넘어 프로젝트의 '내비게이터' 역할을 수행하며 실질적인 성과를 견인했다는 평가를 받았다. 또 단순히 규모가 큰 기업이 아닌, 독보적인 기술력과 성장 잠재력을 보유한 스타트업을 정밀하게 선별해 과제 수행 기업으로 낙점하려는 노력이 참여 기업으로부터 큰 호응을 얻었다. 업계 관계자는 "정부가 행정적 관리에 그치지 않고 모델 출시 과정에서 발생하는 변수에 맞춰 지원 체계를 업데이트했다"며 "현장의 목소리를 즉각 반영해 모델의 완성도를 높이는 실질적인 가이드도 제공해줬다"고 말했다.이어 "무한정한 지원 대신, 한정된 예산 내에서 최선의 결과물을 낼 수 있도록 목표 난이도를 정교하게 조정해준 점도 인상 깊었다"며 "이를 통해 자원의 낭비를 막고 효율적인 사용 위에 최대의 성과를 이끌어냈다"고 덧붙였다. 트릴리온랩스 역시 정부 인프라 지원을 발판 삼아 국내에서 시도된 적 없는 기술 실험을 진행할 수 있었다고 평가했다. 독자적인 모델 구조와 학습 기법을 실제 대규모 환경에서 반복 검증하며 스타트업이 겪는 컴퓨팅 파워 한계를 일정 부분 극복할 수 있었다는 것이다. 신재민 트릴리온랩스 대표는 "정부의 GPU 지원 사업이 단순한 인프라 제공을 넘어 기술 기업의 도전 방식을 바꿨다"며 "자본력보다 기술적 실험과 구조 혁신에 집중할 수 있는 조건을 마련했다는 점에서 국내 AI 생태계에 미친 영향이 적지 않다"고 강조했다. 이 같은 분위기 속에 정부가 추가경정예산으로 확보한 고성능 GPU 자원으로 어떤 AI 연구 기관, 기업들이 수혜를 받을지 관심이 쏠린다. 정부는 총 1만3천136장 규모의 GPU를 최대 12개월까지 이용할 수 있도록 한 사업을 공고한 후 지난 달 28일 마감했다. 이번에는 학계·연구기관은 무상으로, 산업계는 자부담 방식으로 지원받는 구조다. 구축·운영은 민간 클라우드 3사가 맡는다. 네이버클라우드는 세종 데이터센터에 H200 2296장을 안착시켰고, 카카오는 안산 데이터센터에 B200 2040장을 클러스터 형태로 구축했다. NHN클라우드는 3월께 B200 6120장을 갖출 계획이다. 정부는 이 사업에 예산 1조4590억원을 투입했다. 이번 프로젝트는 과제별로 H200, B200 중 하나만 신청할 수 있다. 신청은 서버 묶음 기준으로 이뤄진다. H200은 최소 서버 2대(16장)에서 최대 서버 32대(256장)까지, B200은 최소 서버 2대(16장)에서 최대 서버 16대(128장)까지다. 조만간 선정될 수요 기업은 원격 접속 방식인 GPUaaS(GPU as a Service)로 고성능 컴퓨팅 자원을 손쉽게 이용할 수 있다. 정부가 고수한 '1사 1지원' 원칙을 사실상 폐기해 중복 신청 문턱이 낮아진 점도 눈에 띈다. 이 일로 동일 기업 내 복수 부서도 각각 GPU 자원을 확보할 수 있게 됐다. 다만 연구 인력의 독립성과 과제 주제는 차별돼야 한다. 여기에 정부는 지난해 확보한 1만3000장에 이어 올해는 B200 기준 1만5000장을 투입해 지원 범위를 넓힐 계획이다. 이를 구축하기 위해 총 2조831억원(출연금)이 투입될 이번 사업 공고는 이달 중 나올 예정으로, 과기정통부 단일 사업 기준 최대 규모 프로젝트로 평가된다. 또 단일 사업자가 전체 물량을 감당하기 어려운 만큼, 사업 구조 자체를 어떻게 설계할지가 관건이 될 전망이다. 과기정통부 관계자는 "주요 클라우드 서비스 제공업체(CSP)들과 면담한 결과 데이터센터 상면(물리적 수용 공간) 확보는 어느 정도 가능한 수준으로 파악됐다"며 "최신 GPU를 확보하는 것이 유리한 만큼 엔비디아 차세대 AI 칩 '베라루빈'을 업체들이 제안할 경우 가점을 줄 지에 대한 방안에 대해선 고민 중"이라고 밝혔다. 업계에선 정부의 고성능 연산 인프라 지원이 일회성 사업에 그치지 않고 파운데이션 모델·신규 아키텍처·산업 특화 AI로 이어지는 연속적인 연구 생태계로 정착할 수 있을지가 향후 사업 성공 여부의 관건이 될 것이라고 전망했다. 업계 관계자는 "특히 연산 자원 접근성이 기술 경쟁력으로 직결되는 AI 산업 특성을 감안할 때 정부의 GPU 지원 정책이 국내 스타트업들의 글로벌 도전 여력을 좌우하는 핵심 변수로 작용할 것으로 예상된다"며 "단기 성과보다 중장기 연구 축적이 가능한 구조로 설계될 경우 정부 지원이 국내 AI 산업의 체질을 바꾸는 계기가 될 수 있다"고 말했다.

2026.02.10 11:43장유미 기자

中, 엔비디아 H200 수입 준비…자국 AI칩 동시 활용

중국 정부가 알리바바를 비롯한 자국 주요 IT기업들에 엔비디아의 첨단 인공지능(AI) 반도체인 'H200' 주문을 준비하라고 통보했다고 블룸버그통신이 23일(현지시간) 보도했다. 보도에 따르면 중국 정부는 최근 알리바바, 텐센트, 바이트댄스 등에 H200 칩 구매를 구체적으로 진행할 수 있는 자격을 부여했다. 이로써 해당 기업들은 필요한 칩 물량 등에 대한 사항을 논의할 수 있게 됐다. H200 수입을 위한 조건도 붙었다. 블룸버그는 익명의 소식통을 인용해 "중국 정부가 수입 승인 조건으로 일정 물량의 자국산 칩을 함께 구매하도록 독려할 방침"이라며 "정확한 수량은 아직 정해지지 않았다"고 밝혔다. 도널드 트럼프 미국 대통령은 지난해 말 중국향 수출이 금지돼 왔던 H200의 수출 재개를 허용하겠다고 밝힌 바 있다. H200은 엔비디아의 최신 AI가속기인 '블랙웰' 시리즈에 비해서는 한 세대 뒤쳐지지만, 중국 기업들의 AI 인프라 투자에 있어 매우 높은 가치를 가지고 있다. 미국이 H200의 수출을 허용한 데에는 중국 내 AI 반도체 자립화 시도를 억제하려는 의도가 깔려있는 것으로 풀이된다. 화웨이, 캠브리콘 등 중국 기업들은 엔비디아가 규제를 받는 사이 자체 AI반도체 개발을 가속화해 왔다. 중국 역시 미국의 H200 수출 재개에 기민하게 대응하려는 것으로 보인다. H200 수급으로 자국 IT 기업들의 AI 인프라 투자를 원활하게 하는 것과 동시에, 자국 AI 칩을 일정량 도입하게 해 기술 자립화 시도 역시 멈추지 않겠다는 전략이다.

2026.01.24 13:11장경윤 기자

美 정부, 엔비디아 H200 中 수출 허용...군사 목적 외 가능

미국 정부가 인공지능(AI) 반도체인 엔비디아 H200 칩의 중국 수출을 공식 허용하는 새 규칙을 발표했다. 이는 트럼프 행정부가 국가 안보 조건 하에서 중국향 첨단 AI 칩 거래를 재개하기 위한 조치다. 블룸버그는 엔비디아 H200 칩이 미 상무부의 승인과 제3자 시험을 거쳐 중국 내 '승인된 고객'에게 수출할 것이라고 13일(현지시간) 보도했다. 다만 수출 물량은 미국 내 고객에게 판매되는 전체의 50% 이하로 제한된다. 승인 조건에는 해당 칩이 군사 목적이 아닌 용도로만 사용될 것이라는 확인 절차도 포함된다. 이번 조치는 트럼프 대통령이 이전에 발표한 25% 관세 부과 정책과 연계돼 있다. 트럼프 대통령은 미국 정부가 대중국 엔비디아 AI 칩 전체 판매 금액 중 25%를 받는 조건으로 수출 규제 완화를 추진해 왔다. 과거 바이든 행정부는 고성능 AI 칩의 중국 수출을 엄격히 금지했지만, 새 규칙은 이 같은 접근을 전환한 것이다. 다만 블랙웰 기반의 최신 세대 제품과 그 이후 제품은 여전히 중국 수출이 금지돼 있고, H200처럼 다소 이전 세대에 해당하는 칩만 제한적으로 풀리는 형태다. 중국 시장에서도 반응이 엇갈린다. 일부 외신 보도에 따르면 중국 정부는 아직 공식적인 수입 승인을 내리지 않았으며, 군 및 국가기관에 대한 사용 제한을 검토하는 등 신중한 입장을 유지하고 있다. 시장에서는 이 조치가 글로벌 AI 칩 공급망에 중요한 변곡점이 될 수 있다는 분석이 나온다. 수출이 제한돼 있는 동안 중국 기업들은 자체 대안이나 다른 경로를 찾으며 대응해 왔다. 하지만 제한적이나마 첨단 AI 칩이 수입될 경우 중국 내 AI 연구·클라우드 인프라 확장에 영향을 미칠 가능성이 점쳐진다. 엔비디아 측은 이번 규정에 대해 즉각적인 공식 입장을 내놓지 않았다. 중국 기업들의 수입 허가 여부와 실제 주문 규모가 어떻게 나타날지, 그리고 이를 둘러싼 안보 논쟁과 규제 집행이 어떤 영향을 미칠지 향후 정책·시장 움직임을 지켜볼 필요가 있다.

2026.01.14 10:07전화평 기자

AWS, AI GPU 일부 요금 15% 인상…기업 비용 부담 우려

아마존웹서비스(AWS)가 인공지능(AI) 모델 학습에 쓰이는 일부 그래픽처리장치(GPU) 인스턴스 요금을 인상했다. H200 등 고성능 예약형 상품에 한정된 인상이지만 대규모 AI 모델을 운용할 경우 비용 부담우려가 제기된다. 6일 업계에 따르면 AWS는 지난 주 머신러닝(ML) 워크로드를 위한 'EC2 용량 블록' 가격을 약 15% 상향 조정했다. 인상은 엔비디아 최신 칩셋 H200을 탑재한 고성능 인스턴스에 집중됐다. 구체적으로 P5e.48엑스라지(p5e.48xlarge) 인스턴스는 시간당 34.61달러에서 39.80달러로 p5en.48엑스라지(p5en.48xlarge)는 36.18달러에서 41.61달러로 각각 올랐다. 특히 사용량이 많은 미국 서부 리전은 같은 인스턴스임에도 시간당 43.26달러였던 요금이 49.75달러로 뛰었다. 반면 서울이 포함된 아시아 태평양과 유럽 지역 해당 상품 가격은 변동 없이 유지된 것으로 확인됐다. 아마존 측은 "EC2 용량 블록 가격은 지역별 수급 상황에 따라 변동된다"며 이번 인상이 미국 내의 높은 수요와 공급 부족을 반영한 것임을 시사했다. 이번에 가격이 오른 '용량 블록'은 기업이 특정 기간 GPU를 예약해 사용하는 고성능 서비스다. 국내는 이번 인상에서 제외되어 안도하는 분위기다. 다만 통상적으로 미국 리전의 가격 정책 변화가 시차를 두고 글로벌 전역으로 확산되는 경우가 많아 안심하기 어렵다는 입장이다. 아마존 측은 이번 조정에 대해 "EC2 용량 블록 가격은 수급 상황에 따라 변동된다"며 "이번 인상은 이번 분기에 예상되는 공급과 수요 패턴을 반영한 것"이라고 설명했다. 이번에 가격이 오른 '용량 블록'은 기업이 특정 시점에 필요한 GPU 용량을 미리 확보해두는 서비스다. 수백만 달러 규모 AI 학습 프로젝트를 중단 없이 수행해야 하는 엔터프라이즈 기업들이 주 고객층이다. 일반적인 온디맨드 요금이나 장기 약정 할인이 아닌, 단기 집중형 고성능 자원에 인상이 적용됨에 따라 셈법이 복잡해졌다. 특히 AWS와 대규모 할인 계약(EDP)을 맺은 기업들도 타격이 불가피하다. 통상적인 할인 계약은 공개 가격을 기준으로 할인율이 적용되는데, 기준 가격 자체가 오르면서 기업이 실제 부담해야 할 총액도 늘어나기 때문이다. 업계에서는 이번 인상이 단순한 가격 조정을 넘어 클라우드 시장 흐름이 바뀌는 신호탄이 될 수 있다고 우려한다. 그동안 클라우드 업계는 기술 발전과 규모 경제를 통해 지속적으로 가격을 낮추는 경향을 보여왔으나 전 세계적인 AI 반도체 공급 부족 현상이 지속되면서 '비용 상승' 압박이 커지고 있다는 분석이다. 덕빌 그룹 코리 퀸 클라우드 경제 분석가는 "이 건은 AWS가 지난 20년간 고객에게 심어준 '가격은 오직 내려간다'는 믿음이 깨졌다는 것"이라며 "이번 인상은 단순한 변칙이 아니라 클라우드 비용이 상승하는 뉴 노멀의 시작일 가능성이 높다"고 경고했다.

2026.01.07 09:25남혁우 기자

엔비디아 "데이터센터용 GPU 위치 등 추적 솔루션 개발 중"

엔비디아가 10일(현지시간) 데이터센터용 GPU의 상태와 작동 위치를 파악할 수 있는 소프트웨어 기반 모니터링 솔루션을 개발하고 있다고 밝혔다. 엔비디아는 공식 블로그에 올린 글에서 “AI 인프라의 규모와 복잡성이 커질수록 데이터센터 운영자는 성능, 온도, 전력 사용량 등 요소에 대한 지속적인 가시성이 필요하다”고 개발 배경을 설명했다. 엔비디아가 개발중인 솔루션은 데이터센터에 설치된 엔비디아 GPU를 모니터링할 수 있는 대시보드를 제공한다. 엔비디아 GPU를 도입한 고객사가 필요할 경우 자발적으로 설치하는 옵트인(opt-in) 방식이다. 엔비디아에 따르면 데이터센터 운영사는 전력 사용 급증을 추적해 에너지 예산을 준수하면서 와트당 성능을 극대화하고, GPU 활용률과 메모리 대역폭, 인터커넥트 상태를 플릿 전체에서 모니터링할 수 있다. 엔비디아는 제기될 수 있는 보안 우려에 대해 "이 서비스는 각 GPU 시스템이 외부 클라우드 서비스와 GPU 메트릭을 공유하는 방식으로 실시간 모니터링만 제공한다. 엔비디아 GPU에는 하드웨어 추적 기술이나 킬 스위치, 백도어가 없다"고 밝혔다. 엔비디아의 새 솔루션은 최근 강화되고 있는 미국의 AI 칩 수출 규제 논의와 맞물려 있다. 미국 정부는 중국을 비롯한 일부 국가에 대한 고성능 AI GPU 수출을 금지하고 있다. 의회 일각에서는 엔비디아 제품에 보다 강력한 추적·검증 기능을 탑재해야 한다는 요구가 제기되고 있다. 공화당 소속 톰 코튼 상원의원을 포함해 양당 의원들이 지지하는 '칩 보안법'(Chip Security Act)'은 첨단 AI 칩에 보안 및 위치 검증 기능을 의무화하는 내용을 담고 있다. 반면 중국 정부는 엔비디아 제품에 잠재적 모니터링 백도어와 보안 취약점이 존재한다는 점을 통보했으며, 국가안보 검토 이후 일부 고성능 칩, 특히 H200 제품의 도입을 제한하고 있다.

2025.12.14 09:29권봉석 기자

트럼프 "엔비디아 H200 中 수출 허용"…HBM 수요 촉진 기대

미국 정부가 엔비디아의 고성능 인공지능(AI) 반도체 'H(호퍼)200' 수출을 허가하기로 했다. 도널드 트럼프 미국 대통령은 8일(현지시간) SNS 트루스소셜을 통해 "미국 국가안보 유지 조건 하에, 엔비디아가 중국 및 다른 국가의 승인된 고객에 H200을 공급하는 것을 허용할 것이라고 시진핑 중국 국가주석에게 통보했다"며 "시 주석도 긍정적으로 반응했다"고 밝혔다. H200은 엔비디아가 지난해 본격 양산한 AI 반도체다. 최신 세대인 '블랙웰' 시리즈보다는 구형이지만, 매우 강력한 데이터 처리 성능을 자랑한다. 특히 일부 AI 기능이 엔비디아가 중국 시장을 겨냥해 만들었던 H20의 6배를 웃도는 것으로 알려져 있다. 엔비디아는 지난 2022년 미국의 규제로 AI 반도체를 중국에 수출할 수 없게 되자, AI반도체인 H100의 성능을 대폭 낮춰 H20을 개발한 바 있다. 트럼프 대통령의 결정으로, 엔비디아는 H200 판매액의 25%를 미국에 지급하는 조건으로 수출을 재개할 것으로 예상된다. 다만 블랙웰이나 엔비디아가 내년 출시할 '루빈' 칩 등은 이번 계약에 포함되지 않는다. 또한 트럼프 대통령은 “상무부가 세부 사항을 조율하고 있다"며 "AMD, 인텔 등 다른 미국 기업들에도 이러한 접근 방식이 적용될 것"이라고 밝혔다. 로이터통신은 이에 대해 "트럼프 대통령이 최신형 칩인 블랙웰 칩의 중국 수출을 허가하거나, 아예 칩 수출을 막는 방안 사이의 타엽한을 낸 것으로 보인다"고 논평했다. H200의 수출 재개는 삼성전자, SK하이닉스 등 국내 메모리 기업들의 HBM 수요를 촉진할 수 있을 것으로 관측된다. H200은 HBM3E 8단 제품을 탑재한다. 현재 HBM은 HBM3E 12단까지 상용화된 상태로, 내년부터는 HBM4 양산이 본격화된다.

2025.12.09 08:31장경윤 기자

'GPU 1.3만장 확보' 1차 사업자, 네이버·NHN·카카오 선정

정부가 1조4천600억원 규모의 추경 예산을 투입한 '첨단 GPU 확보 사업' 1차 참여 사업자로 네이버클라우드·NHN클라우드·카카오 등 3곳을 선정했다. 과학기술정보통신부는 이들 사업자와 협력해 총 1만3천136장의 최신형 GPU를 확보해 국내 인공지능(AI) 생태계의 기반을 강화하고 연말부터 산학연 등을 대상으로 GPU 자원을 순차 지원하겠다고 28일 밝혔다. 정부는 지난 5월 첨단 GPU 확보 사업 추경 예산을 편성한 데 이어 ▲참여사 공모(5.23~6.23) ▲제안서 평가 ▲데이터센터 현장 실사 ▲사업비 심의·조정 등의 절차를 진행해 왔다. 이후 최대한 많은 GPU 자원 제공과 이용자 측면에서 경험·역량을 갖춘 안정적 서비스 제공을 고려해 네이버클라우드·NHN클라우드·카카오를 최종 사업자로 선정했다. 민관 협력을 통해 확보할 GPU는 총 1.3만장 규모로, 구체적으로는 NVIDIA B200 1만80장과 H200 3천56장 규모다. 이 중 일부는 참여 사업자들의 자체 활용도 지원하며 정부가 활용할 GPU는 총 1만장을 상회하는 B200 8천160장과 H200 2천296장 규모다. 특히 정부가 활용할 GPU는 1개의 B200 510노드(4천80장)와 2개의 B200 255노드(2천40장), 1개의 H200 255노드(2천40장) 등으로 클러스터링 함으로써 대규모 클러스터링 기반의 AI 워크로드에 대응 가능할 것으로 전망된다. 참여 사업자별로 확보·구축할 GPU를 살펴보면 먼저 네이버클라우드는 총 3천56장의 H200을 확보·구축한다. 현재 시장의 주력 기종인 H200으로 구성함으로써 전체 GPU 서비스를 연내 안정적으로 제공할 계획이다. 네이버클라우드의 확보·구축분 중 정부가 활용할 GPU는 H200 2천296장으로, 255노드(2천40장)와 32노드(256장)으로 클러스터링돼 활용될 계획이다. 해당 전체 GPU 자원은 연내부터 산학연 등에 지원·배분할 방침이다. 다음으로 NHN클라우드는 총 7천656장의 B200을 확보·구축한다. 전체를 B200으로 구성해 수냉식으로 가동할 계획으로, 최신 GPU 클러스터를 친환경·고효율·고성능 방식으로 운용할 예정이다. NHN클라우드의 확보·구축분 중 정부가 활용할 GPU는 B200 6천120장으로, B200 510노드(4천80장)와 B200 255노드(2천40장)으로 클러스터링돼 활용될 계획이며 일부는 연내 베타서비스를 추진할 방침이다. 마지막으로 카카오는 총 2천424장의 B200을 확보·구축한다. 전체를 B200으로 구성하고 보다 효율적인 인프라를 구동하는 데에 중점을 뒀다. 카카오의 확보·구축분 중 정부가 활용할 GPU는 B200 2천40장으로, B200 255노드(2천40장)로 클러스터링돼 활용될 계획이며 이 역시 일부는 연내 베타서비스를 추진할 방침이다. 과기정통부에 따르면 모든 참여사들은 국내 소버린 AI 생태계 확장에 적극적인 의지를 밝히고 정부의 GPU 활용 물량 극대화에 적극 동참했다. 아울러 GPU 자체 활용분을 이용해 자체 AI 개발·고도화, 산학연 GPU 저렴 공급 등을 추진하고 일부 참여사는 국내 AI 인프라 투자를 강화하는 등 국내 AI 생태계에 다각도로 기여할 계획이다. 또 가칭 'GPU 통합 지원 플랫폼' 구축에 협력키로 합의해 향후 필요한 산학연 관계자 등이 온라인으로 자유롭게 GPU 자원을 신청하고 평가 등을 거쳐 GPU 자원을 지원·배분 받을 수 있는 기반을 마련할 계획이다. 향후 정부는 일련의 절차를 거쳐 이르면 다음 달 초부터 사업자 협약과 GPU 구매 발주 등을 속도감 있게 추진할 예정이며 국가 프로젝트와 필요한 산학연 등에 GPU 지원을 순차 개시할 예정이다. 이를 통해 ▲국내 AI 연구·서비스 개발 역량 강화 ▲AI 스타트업·중소기업, 대학 등의 AI 컴퓨팅 인프라 접근성 증진 ▲대규모 AI 모델 개발 가속화 등에 적극 기여할 방침이다. 배경훈 과기정통부 장관은 "이번 첨단 GPU 확보는 국내에 부족한 AI 컴퓨팅 인프라의 마중물이자 국내 AI 생태계 전반의 혁신을 가속화하는 새 정부 소버린 AI 생태계 확장과 AI 고속도로 구축의 출발점"이라며 "이를 기점으로 더욱 강력한 AI 컴퓨팅 인프라 확충과 대한민국의 AI 강국 도약에 정책적 총력을 다하겠다"고 강조했다.

2025.07.28 18:50한정호 기자

정부, 엔비디아 H200·B200 구입...10월부터 GPU 서비스

정부가 연내 엔비디아의 H200, B200 GPU 1만장을 도입해 국내 클라우드 기업이 AI 연구 개발에 쓰이도록 한다. GPU 구매 발주는 7월에 이뤄질 예정이다. 과학기술정보통신부는 14일 열린 경제관계장관회의에서 이같은 내용이 담긴 첨단 GPU 확보 추진 방안을 발표했다. 추경 예산으로 확보하게 되는 GPU 1만장은 H200 6천400장, B200 3천600장 규모로 수급 계획을 세웠으며 모델 비중은 상황에 따라 조정할 예정이다. GPU 구입에 8천600억원, 클러스터 통합 운영환경에 6천억원의 예산을 분배한다. 정부 예산으로 구입한 GPU를 운용할 클라우드 기업(CSP)에 대한 공모는 내주 예정됐으며 GPU 구매 절차는 7월에 진행, 이르면 오는 10월부터 신규 GPU 클러스터를 통한 국내 기업과 학계의 R&D를 진행키로 했다. 국가AI컴퓨팅센터 주체의 컨소시엄 형태 특수목적법인(SPC)에 참여하는 CSP 선정에는 별도 전문가 위원회가 맡는다. 선정 평가는 ▲재정 투입 대비 컴퓨팅 성능을 포함한 GPU 확보 구축 역량 ▲신속한 GPU 서비스 실행력 ▲GPU 자원 자체 활용 비중과 계획(CSP 운영비 성격 고려) 등을 중점에 뒀다. 선정된 CSP와 추후 권리 등에 관한 5년 단위 협약을 체결하게 된다. 협약에는 정보통신산업진흥원(NIPA)의 GPU 소유권 확보, SPC의 GPU 사용, CSP의 일부 GPU 자원 자체활용 허용 등의 내용이 포함된다. 정부는 특히 월드베스트LLM(WBL)에 선정된 기업에 GPU 자원 이용을 우선 제공한다는 방침이다. WBL은 국가대표 생성형AI 모델을 만들겠다는 취지로, 추경 예산을 통해 이뤄지는 프로젝트다. 과기정통부는 “SPC는 공공지분이 51%로 공공기관운영법에 따른 공공기관 지정 가능 요건에 해당한다”며 “내년 1월로 예상되는 공공기관운영위 심의에서 최종 결정될 사항이나 민간의 자율성을 최대한 보장하는 방향으로 부처 협의 중”이라고 밝혔다.

2025.05.14 11:35박수형 기자

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미 기자

KT클라우드, 구독형 GPU에 엔비디아 'H200' 적용…고성능 AI 인프라로 고객 확보 가속

KT클라우드가 엔비디아의 최신 그래픽처리장치(GPU)를 인공지능(AI) 인프라에 적용하며 GPU 서비스를 한층 강화한다. AI 학습과 추론 워크로드 최적화를 앞세워 공공기관·스타트업 고객 확보에 나서기 위함이다. KT클라우드는 자사의 AI 훈련 서비스에 엔비디아 'H200'을 도입해 AI 인프라 성능을 개선한다고 24일 밝혔다. 기존 'H100' 기반의 AI 훈련 서비스에 최신 GPU를 추가해 연산 처리 성능과 전력 효율을 향상시키는 것이 이 프로젝트의 핵심이다. KT클라우드는 사용량 기반의 '서비스로의 GPU(GPUaaS)'를 제공하며 AI 학습과 추론 영역에 최적화된 인프라를 구축해왔다. 특히 AI 훈련 서비스는 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 통해 대량의 연산 작업을 효율적으로 처리할 수 있도록 설계됐다. GPU 노드 클러스터링은 여러 GPU 서버를 하나의 클러스터로 묶어 연산 성능을 극대화하는 기술로, 대규모 AI 학습에서 병렬 연산을 최적화하는 데 핵심적인 역할을 한다. 또 동적할당 제어 기능은 사용자의 작업량에 맞춰 자원을 실시간으로 배분하고 불필요한 자원 낭비를 줄여 최적의 GPU 성능을 유지한다. 이번 'H200' 도입은 이러한 기능을 보다 강화해 고성능 AI 학습 환경을 지원할 것으로 기대된다. 'H200'은 엔비디아 '호퍼(Hopper)' 아키텍처 기반의 최신 GPU로, 이전 모델인 'H100' 대비 연산 처리 능력과 전력 효율성이 개선됐다. 특히 메모리 대역폭이 확대돼 대규모 AI 모델 학습과 추론 성능을 극대화할 수 있는 것이 특징이다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. 공공 분야 대응도 강화한다. 회사는 올해 하반기 공공기관을 대상으로 AI 추론 전용 상품의 클라우드 서비스 보안 인증(CSAP) 절차를 진행할 계획으로 이로써 공공기관에서도 안전하게 AI 추론 서비스를 이용할 수 있도록 지원할 예정이다. 공용준 KT클라우드 클라우드본부장은 "이번 엔비디아 'H200' 도입으로 글로벌 수준의 AI 인프라를 확보하게 됐다"며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 말했다.

2025.02.24 11:21조이환 기자

SKT, 가산 AI데이터센터 오픈...엔비디아 H100기반 클라우드 출시

SK텔레콤은 지난 12월30일 가산 AI 데이터센터(AIDC)를 오픈하고, 시범 운영을 마친 뒤 AI 클라우드 서비스인 'SKT GPUaaS'를 출시했다고 13일 밝혔다. SK텔레콤은 지난 SK AI 서밋 2024에서 AI 인프라 슈퍼 하이웨이 구축 전략을 발표한 뒤 연말 조직 개편에서 AIDC 사업부를 별도 조직으로 신설하며 'AI 인프라' 사업 본격화에 속도를 내고 있다. 새롭게 오픈한 가산 AIDC는 랙당 전력밀도가 국내 최고 수준인 44kW로 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달하는 등 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. 엔비디아 H100 기반 'SKT GPUaaS' 출시… 람다와 1년 준비 'SKT GPUaaS'는 미국 람다와 지난 약 1년간 함께 준비한 구독형 AI 클라우드이다. 이를 위해 가산 AIDC에 람다의 한국 리전을 유치했다. 아시아태평양 지역에 처음으로 생기는 람다의 리전이다. SK텔레콤은 지난해 2월 AIDC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 2012년 AI 엔지니어들이 설립한 람다는 글로벌 빅테크 기업들을 대상으로 AI 클라우드 서비스를 제공하는 GPUaaS 기업으로, SK텔레콤은 람다와의 협력을 통해 GPU의 안정적 확보를 기반으로 AI 클라우드 시장 공략에 본격 나설 계획이다 SK텔레콤이 출시한 GPUaaS는 엔비디아 GPU H100을 기반으로 한다. 서비스 구독을 원하는 기업 고객은 AI 서비스 규모나 목적에 따라 GPU 수량과 기간을 선택하고 단독 서버, 방화벽, 전용회선 등 맞춤형 패키지를 구성할 수 있다. 고객사는 독자적인 GPU를 사용해 안정적 AI 학습과 추론을 시행할 수 있다. 방화벽과 전용 회선을 활용할 경우 보안성 역시 크게 강화할 수 있다. 또한 고객의 AI 작업량이 급격히 늘어나더라도 단독 서버에 GPU를 손쉽게 추가할 수 있어 추가 시설 투자에 대한 부담을 크게 덜 수 있다. 또한 GPUaaS는 퍼블릭 클라우드와 상호 연동이 가능하다. 기업 고객이 기존에 사용하던 클라우드를 그대로 활용하면서 SK텔레콤의 GPU 컴퓨팅 파워를 이용할 수 있는 것이다. GPUaaS와 SK텔레콤의 'AI 클라우드 매니저'를 함께 활용하면 GPU 자원을 보다 효율적으로 관리할 수 있다. 'AI 클라우드 매니저'는 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축하도록 지원하는 솔루션이다. GPUaaS 가격은 약정 기간, GPU 개수, 선불형의 과금 형태에 따라 탄력적으로 책정했다. 예컨대 고객이 24개월 동안 32개의 GPU를 원할 경우 이에 맞는 가격을 설정하는 방식이다. 1개월, 2개월 등 단기 서비스 이용도 가능하다. SK텔레콤은 GPUaaS 출시를 기념해 특별 프로모션도 진행한다. 2월 말까지 약 2개월 간 구독 가격의 20% 할인한다. GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅 등의 이벤트도 시행할 예정이다. 1분기 중 H200 도입 SK텔레콤은 GPUaaS 정식 출시 전부터 100개가 넘는 기업들이 구체적인 내용 문의를 받았다. 특히 대기업, 중소기업뿐만 아니라 AI를 연구하는 각종 대학과 연구 기관에서도 큰 관심을 보였다. 기업들은 GPUaaS를 이용하고 싶은 이유에 대해 ▲고성능 GPU 활용 따른 AI 모델 학습 기간 단축 ▲GPU를 합리적인 가격에 짧은 기간도 이용 가능 ▲서버 구매와 데이터센터 운영 고민 없이 GPU 자원 바로 사용 등으로 꼽았다. 이와 함께 SK텔레콤은 1분기 중 최신 GPU인 H200도 도입할 예정이다. 국내 최초로 H200을 도입해 국내 기업들이 보다 빠르게 AI 기술과 서비스를 개발할 수 있는 환경을 조성하고, GPUaaS 고객 확대에도 박차를 가할 계획이다. 김명국 SK텔레콤 GPUaaS사업본부장은 “GPUaaS 출시는 AI 데이터센터 사업이 고객에게 다가가는 첫번째 사례로 SK텔레콤이 AI 인프라 핵심 사업자로 자리매김하는데 의미가 크다”며, “국가 AI 경쟁력을 높이는 GPU 팜으로 구축하겠다"고 말했다.

2025.01.13 09:16박수형 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

[AI칩 전국시대 ①]韓 AI반도체 현주소: '엔비디아 대항마'를 넘어 실전으로

[타보고서] 650마력·제로이백 10.9초…'제네시스 GV60 마그마'

[AI는 지금] 로펌 판 바꾸는 AI…리걸테크 200조 시장 열린다

비트코인, 6만7000달러대까지 후퇴…"위험 증폭 가짜 자산"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.