• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI GPU'통합검색 결과 입니다. (296건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[인터뷰] 김동훈 "NHN클라우드, 일본 매출 올해 2배…내년 흑자전환 자신"

[도쿄(일본)=장유미 기자] 김동훈 NHN클라우드 대표가 일본 인공지능 전환(AX) 수요 급증을 발판으로 올해 현지 매출을 두 배 이상 끌어올리고, 내년에는 전사 차원에서 흑자전환까지 달성하겠다는 청사진을 제시했다. 그래픽처리장치(GPU) 기반 인공지능(AI) 인프라 사업의 계약 단위가 급격히 커지면서 일본 사업이 초기 투자 구간을 지나 본격적인 회수 국면에 진입했다는 판단에서다. 김 대표는 지난 8일 일본 도쿄에서 개막한 '재팬 IT 위크 스프링 2026' 현장에서 지디넷코리아와 만나 "일본 사업은 올해 전년 대비 두 배 이상 성장하는 흐름으로 보고 있다"며 "현재 수요 속도와 수익 구조를 감안하면 내년에는 전사 흑자전환도 충분히 가능할 듯 하다"고 말했다. 김 대표의 이 같은 자신감은 일본 시장에서 확인한 GPU 인프라 수요 확대와 실제 계열 내부거래 실적 개선 흐름이 맞물린 결과다. NHN클라우드 일본법인 매출은 지난해 4억9480만원으로 전년 2억6739만원 대비 85% 증가했다. 반면 재작년 반영됐던 2억3819만원 규모 기타비용은 지난해 사라졌고, 지급수수료 2044만원만 신규 반영되며 비용 구조가 크게 개선됐다. 이에 따라 일본 법인 거래의 순기여도는 지난 2024년 2920만원 수준에서 작년 4억7436만원으로 급증했다. 업계에선 일본 사업이 리전 구축과 현지 셋업 중심의 선투자 구간을 지나 본격적인 수익화 단계로 넘어가고 있다는 신호로 해석했다. 김 대표는 올해 실적 개선의 핵심으로 GPU 사업의 수익 구조 변화를 꼽았다. 기존 범용 서버 중심 클라우드 사업에서는 고객당 계약 규모가 수십만~수백만원 수준에 머물렀지만, 생성형 AI 확산 이후 GPU 클러스터 단위 계약은 수천만원에서 수억원대로 확대됐기 때문이다. 그는 "예전에는 서버 한 대 기준으로 책정되던 예산이 이제는 GPU 8장만 묶어도 수천만원 단위로 올라간다"며 "사업 구조상 숫자 앞에 '0'이 한두 개 더 붙는 시장으로 바뀌었다"고 밝혔다. 이어 "GPU는 장비를 확보하는 즉시 수요가 붙는 구조"라며 "얼마나 빠르게 장비를 들여와 고객 워크로드로 채우느냐에 따라 매출과 이익률이 바로 달라진다"고 덧붙였다. 이에 NHN클라우드는 글로벌 GPU 수급난에 대비해 반도체·서버 공급사와 직거래 채널을 넓히고 있다. 김 대표는 전력 확보와 공급 리드타임을 감안하면 지금부터 내년 물량을 준비해야 한다고 강조했다.NHN클라우드는 국내 정부 GPU 구축 사업과 대형 게임사 프로젝트 경험을 바탕으로 일본에서 서비스형 GPU(GPUaaS)와 클라우드 관리 서비스(MSP) 역량도 전면에 내세우고 있다. 이번 재팬 IT 위크에서도 GPU 클러스터 운영, 장애 대응, 자원 최적화, 멀티·하이브리드 환경 관리 기술을 집중 소개하며 일본 기업들의 문의가 이어진 것으로 전해졌다. 이 과정에서 이노그리드와의 협업도 핵심 축으로 부상하고 있다. NHN클라우드는 GPU 인프라 위에 이노그리드의 클라우드 관리 플랫폼을 결합해 멀티·하이브리드 AI 운영 모델을 공동 제시했다. 또 일각에서 제기되는 이노그리드 피인수 가능성에 대해 김 대표는 직접적인 언급을 아끼면서도 전략적 시너지의 중요성을 강조했다. 그는 "지분이나 인수 여부보다 중요한 것은 얼마나 빠르게 인프라를 구축하고 단기간에 가동률을 채우느냐"라며 "프라이빗 클라우드와 GPU 운영 자동화, 보안 레이어까지 연결되는 전략적 협업 구조를 계속 확대하는 것이 더 중요하다"고 말했다. 이를 위해 김 대표는 향후 다른 기업에 대한 인수합병(M&A) 가능성도 열어뒀다. 프라이빗 클라우드 기술 인력과 운영 자동화, 보안 역량을 확보할 수 있는 기업들을 지속적으로 검토하고 있는 상태로, 특히 일본 시장에선 현지 고객 기반을 확보한 MSP·호스팅 사업자와의 협업 또는 투자 가능성도 살펴보고 있다. 그는 "일본은 지역별로 고객 네트워크를 가진 로컬 사업자의 영향력이 크다"며 "기술 요건과 운영 체계를 충분히 맞출 수 있는 시점이 오면 더 적극적인 전략을 검토할 수 있다"고 설명했다. 일본 사업 전략의 방향도 보다 구체화했다. NHN클라우드는 현재 도쿄 리전, 엔화 기반 과금 체계, 일본 개인정보 규제 대응 인증, 현지 클라우드 운영 경험을 바탕으로 단순 인프라 공급을 넘어 AI 인프라 구축부터 운영까지 책임지는 파트너 이미지를 강화하고 있다. 특히 일본 개인정보 보호 규제를 충족하는 인증을 확보해 현지 기업의 민감 데이터를 다룰 수 있는 사실상 유일한 한국 클라우드서비스제공업체(CSP)라는 점에서 차별점도 갖췄다. 이를 통해 NHN클라우드는 노동력 부족에 따른 AX 수요 확대가 빨라지는 만큼 한국 기업의 일본 진출을 지원하는 교두보 역할도 병행한다는 구상이다. 김 대표는 "일본 시장은 고객 수요가 빠르게 커지는 만큼 선제적인 GPU 확보와 안정적인 운영 역량이 실적을 좌우한다"며 "올해는 매출 성장세를 확실히 만들고 내년에는 수익성까지 본궤도에 올려놓을 것"이라고 강조했다.

2026.04.09 12:00장유미 기자

[현장] 아태 AI 거점 된 한국…시스코-엔비디아, 인프라 판 키운다

시스코가 아시아·태평양 지역 가운데 한국을 핵심 거점으로 삼고 인공지능(AI) 인프라 고도화와 글로벌 생태계 협력을 강화하겠다는 비전을 제시했다. 벤 도슨 시스코 아시아태평양·일본·중국(APJC) 총괄 사장은 8일 서울 코엑스에서 개최한 '시스코 커넥트 2026 코리아'에서 "AI는 개인과 기업, 경제와 사회 전반을 바꾸는 가장 큰 전환이며 그 변화는 한국에서 가장 빠르게 일어나고 있다"고 강조했다. 그는 한국을 AI 혁신의 핵심 국가로 꼽았다. 반도체·제조·바이오 등 다양한 산업에서 AI가 실제 물리적 세계와 결합하며 글로벌 수준의 혁신을 만들어낼 수 있다는 평가다. 특히 고도화된 제조 기반과 ICT 인프라, 빠른 기술 수용 속도를 바탕으로 AI 산업 전반에서 경쟁력을 빠르게 끌어올리고 있다는 점에 주목했다. 도슨 사장은 "한국은 AI로 가치를 창출하며 세계에 가능성을 보여주고 있다"며 "AI가 실제 산업과 결합해 성과로 이어지는 대표적인 시장"이라고 말했다. AI 도입이 빠르게 확산되면서 이를 뒷받침할 인프라 전환 필요성도 함께 커지고 있다. 시스코는 이런 변화에 대응해 AI 시대 핵심 인프라 전략을 재정립하고 있다. 노후화된 기존 네트워크를 단순히 업그레이드하는 수준을 넘어 AI 워크로드에 최적화된 구조로 전환하는 것이 핵심이다. 특히 네트워크와 보안을 분리하지 않고 하나의 구조로 통합하는 접근을 강조했다. AI 시대에는 데이터 흐름과 공격 표면이 동시에 확대되는 만큼, 보안을 네트워크 중심에 내재화해야 한다는 설명이다. 벤 도슨 사장은 "보안은 별도의 기능이 아니라 네트워크 자체에 녹아 있어야 한다"며 "AI 시대 인프라 핵심은 안전한 네트워크"라고 강조했다. 시스코는 AI 전환(AX)을 위한 준비가 전 세계적으로 아직 충분하지 않다고도 진단했다. 자체 조사 결과, 전체 기업 중 약 30%만이 AI를 본격적으로 활용 가능한 상태로 나타났다. 기술뿐 아니라 거버넌스·보안·인력 등 전반적인 준비가 필요하다는 설명이다. 이에 시스코는 AI 데이터센터, 네트워크, 보안, 협업 등 핵심 영역을 통합한 'AI 레디 인프라' 구축을 지원하고 있다. 파트너 생태계를 강화하는 '시스코 360' 프로그램도 도입해 고객 맞춤형 기술 지원을 확대할 계획이다. 이날 행사에선 시스코의 핵심 파트너인 엔비디아와의 협력 전략도 주목받았다. 특히 AI 데이터센터와 컴퓨팅 인프라 수요가 급증하면서, 그래픽처리장치(GPU) 기반 인프라와 네트워크 기술의 결합이 중요해지고 있다는 점이 강조됐다. 발표를 맡은 정소영 엔비디아 코리아 대표는 AI 인프라가 'AI 팩토리' 개념으로 진화하고 있다고 설명했다. 그는 "AI 팩토리는 전기와 데이터를 입력받아 지능을 생산하는 구조로, 향후 모든 산업의 핵심 인프라가 될 것"이라고 말했다. 특히 한국 시장에서 정부의 소버린 AI 정책 확대에 따라 GPU 및 AI 인프라 수요가 빠르게 증가하고 있다고 짚었다. 이에 맞춰 엔비디아는 차세대 AI 슈퍼컴퓨팅 플랫폼 '베라 루빈'을 연내 공급할 방침이다. 정 대표는 "베라 루빈은 CPU와 GPU, 네트워크가 결합된 새로운 AI 슈퍼컴퓨팅 플랫폼으로 학습과 추론 모두에서 성능을 크게 향상시킨다"며 "한국 정부와 기업들의 AI 투자 확대에 맞춰 공급을 준비하고 있다"고 밝혔다. 엔비디아는 향후 로드맵도 공개했다. 베라 루빈 이후 '루빈 울트라', 차세대 아키텍처 '로사 파인만'까지 이어지는 AI 인프라 혁신을 지속할 계획이다. 또 시스코와의 협력을 통해 GPU 컴퓨팅과 네트워크 기술을 결합한 엔터프라이즈 AI 인프라 구축에도 속도를 낸다. 양사는 AI 팩토리 구현을 위한 핵심 파트너로서 협력 범위를 확대하고 있다. 정 대표는 "앞으로도 시스코와 협력을 지속하며 한국 시장에서 AI 인프라 혁신을 함께 만들어가겠다"고 강조했다.

2026.04.08 13:17한정호 기자

NHN클라우드, GPU로 호남 공략…중소벤처 AI 도입·사업화 가속

NHN클라우드가 호남 지역 손잡고 인공지능(AI) 생태계 구축에 나섰다. NHN클라우드는 중소벤처기업진흥공단, 인공지능산학연협회와 3자 간 업무협약을 체결했다고 7일 밝혔다. 협약은 호남 지역 AI 중소벤처기업 성장 지원과 제조 현장 AX 확산을 목표로 뒀다. 이번 협약은 정책과 인프라 교육을 결합한 통합 지원 모델 구축에 초점 맞춰졌다. 정부의 5극3특 전략과 광주 전남 행정통합 기조에 맞춰 지역 AI 산업 생태계를 조성하려는 움직임이다. 중소벤처기업진흥공단은 정책자금 투융자와 수출 지원 창업 지원을 통해 AI 도입 기업의 사업화를 지원한다. 기업 성장 단계별 맞춤 프로그램과 컨설팅으로 경쟁력 강화도 뒷받침한다. AI산학연협회는 지원 대상 기업을 발굴하고 기관 간 연계를 담당한다. 산업 현장 수요를 전달하고 정책과 인프라가 효과적으로 적용될 수 있도록 조율하는 역할을 맡는다. NHN클라우드는 클라우드 크레딧과 보안 기술 개발 지원을 제공한다. 그래픽처리장치(GPU) 기반 AI 인프라를 통해 기업이 초기 투자 부담 없이 AI 개발과 서비스를 수행할 수 있도록 돕는다. 조한교 중소벤처기업진흥공단 인력성장이사는 "이번 협약을 통해 AI 기술 도입을 고민하는 중소벤처기업이 자금 교육 인프라를 동시에 지원받을 수 있는 기반이 마련됐다"며 "앞으로도 AI 도입 기업 현장의 애로를 해소하고 중소벤처기업이 성장해 나갈 수 있도록 적극 지원하겠다"고 밝혔다.

2026.04.07 16:58김미정 기자

"GPU 대체할까"…와이즈넛, NPU 기반 AI 어플라이언스 공개

와이즈넛이 국산 인공지능(AI) 반도체 기반 시스템으로 공공·기업 고객 확장에 나섰다. 와이즈넛은 지난 2일 서울 강남구에서 열린 퓨리오사AI '레니게이드 2026 서밋'에 참가해 국산 신경처리장치(NPU) 기반 AI 어플라이언스를 시연했다. 이번 장비는 퓨리오사AI의 2세대 NPU '레니게이드' 기반으로 개발됐으며 현장에서 실제 구동 형태로 공개됐다. 해당 장비는 그래픽처리(RAG) 기반 AI 에이전트 '와이즈 아이랙'과 도메인 특화 거대언어모델(LLM) '와이즈 엘로아'를 통합한 일체형 구조다. 별도 서버 구축이나 모델 설치 없이 전원과 네트워크 연결 후 초기 설정만으로 AI 업무를 바로 수행할 수 있는 점이 핵심이다. 와이즈넛은 해당 장비 특장점으로 공공기관을 겨냥한 폐쇄망 온프레미스 설계를 꼽았다. 데이터가 외부 클라우드로 이동하지 않고 내부에서 처리돼 보안 우려를 낮춘 구조라서다. 하드웨어 측면에서는 전력 효율성이 핵심인 것으로 알려졌다. 레니게이드 NPU는 칩당 180W 수준으로 기존 GPU 대비 낮은 전력 소비를 구현해 비용과 운영 부담을 줄일 수 있는 구조다. 두 기업은 지난해 6월 협력 후 단계적으로 기술 통합을 진행해 왔다. 이번 시연은 양산 단계 NPU에서 실제 AI 에이전트 워크로드를 구동했다는 점에서 상용화 가능성을 입증한 사례로 평가된다. 행사는 퓨리오사AI NPU 생태계 확산과 고객 도입 성과를 공유하기 위해 마련됐다. 퓨리오사AI는 올해 초 레니게이드 1차 양산 물량 4000장을 확보하며 본격적인 시장 공급에 돌입한 상태다. 강용성 와이즈넛 대표는 "26년간 축적한 언어처리 기술력과 AI 에이전트 역량을 퓨리오사AI의 고성능 국산 NPU 위에서 완제품으로 구현했다는 점에서 뜻깊다"고 강조했다.

2026.04.07 14:20김미정 기자

정부, 지방 AX 현장 검증 나서…기업, GPU 부족·인재난 호소

정부가 지방 인공지능 전환(AX) 실행력을 점검하기 위해 현장 행보에 나섰다. 임문영 국가인공지능전략위원회 상근부위원장과 지역특별위원회는 지난 6일 대구와 울산을 방문해 '대한민국 인공지능 행동계획' 이행 상황과 지역 AX 산업·AI 컴퓨팅 인프라 구축 현황을 점검했다고 밝혔다. 이번 일정은 기존 지역 태스크포스(TF)를 특별위원회로 격상한 이후 첫 공식 활동이다. 이번 점검은 '5극 3특 기반 AX 혁신벨트 구축' 전략의 실행 상황을 확인하는 데 초점 맞췄다. 광주와 대구, 전북, 경남 등 권역별 혁신 거점 조성 추진 여부와 현장 수요를 동시에 점검하는 식이다. 대구에서는 수성알파시티 중심으로 AX 연구개발 허브 구축 계획이 집중 점검됐다. 해당 사업은 2026년부터 5년간 총 5510억원을 투입해 AI 로봇 반도체 융합 기반 연구개발과 산업 실증 거점을 조성하는 것이 핵심이다. 현장 간담회에서는 기업들의 구조적 어려움이 드러났다. 초기 투자 부담과 성과 불확실성, 그래픽처리장치(GPU) 등 연산 자원 부족, 데이터 활용 제약, 인재 부족이 지역 AX 확산 주요 장애 요인으로 지목됐다. 로봇 산업 현장에서는 실증과 사업화 간 괴리도 확인됐다. 안전 규제와 인증 부담으로 테스트 결과가 실제 생산 라인 적용으로 이어지기 어렵다는 문제가 제기됐다. 울산에서는 AI 고속도로 핵심 인프라인 데이터센터 구축 상황이 점검됐다. 해당 프로젝트는 SK와 아마존웹서비스(AWS)가 협력해 약 7조원 규모로 추진 중이다. 약 6만장 규모 GPU를 수용하는 하이퍼스케일 인프라 구축이 목표다. 현장에서는 전력 수급과 인허가 문제가 핵심 변수로 떠올랐다. 대규모 전력 수요에 따른 공급 안정성과 계통 연계 과정의 제도적 부담이 데이터센터 구축 속도를 좌우하는 요인으로 지목됐다. 임문영 부위원장은 "AX 확산 핵심 장애요인은 기술이 아닌 수익성을 확신하지 못하는 도입 리스크"라며 "AI 경쟁력은 결국 연산자원을 안정적으로 공급할 수 있는 컴퓨팅 인프라라는 '엔진'과 기업과 연구자가 협력할 수 있는 '공통의 운동장' 구축에 달렸다"고 말했다.

2026.04.07 09:06김미정 기자

[종합] 한국 클라우드, AI 타고 몸집 키웠다…이제 승부는 GPU·공공

한국 클라우드 산업이 인공지능(AI) 수요 확대와 공공·기업 디지털 전환 흐름을 타고 외형 성장과 수익성 개선을 동시에 이어간 것으로 나타났다. 주요 클라우드 서비스 제공업체(CSP)들은 데이터센터·그래픽처리장치(GPU) 인프라 투자와 공공 시장 공략을 병행하며 시장 주도권 경쟁을 본격화하는 모습이다. 6일 금융감독원 전자공시시스템에 따르면 네이버클라우드는 2025년 매출 1조 5544억원, 영업이익 1592억원을 기록하며 전년 대비 각각 11.1%, 48.3% 성장했다. AI 수요 확대에 대응해 데이터센터 코로케이션을 확대하고 정부 GPU 구축 사업 대응을 위한 인프라 확보에 나서는 등 공격적인 투자 전략이 실적 개선으로 이어졌다는 분석이다. 특히 네이버클라우드는 최근 LG CNS의 데이터센터 추가 임차와 자체 데이터센터 증축을 병행하며 상면 확보에 속도를 내고 있다. 정부가 추진하는 대규모 GPU 구축 사업 참여를 염두에 두고 복수 데이터센터 기반 분산형 인프라 전략을 강화하는 동시에, 협업 플랫폼 '네이버웍스'를 앞세워 공공 AI 행정 시장에도 적극 진입하는 양상이다. KT클라우드는 지난해 매출 9975억원, 영업이익 663억원으로 각각 27.4%, 25.7% 증가하며 1조원 매출에 근접했다. 공공·기업 시장에서 안정적인 수주 기반을 확보한 가운데, 데이터센터와 AI 인프라 투자 확대가 성장세를 견인한 것으로 풀이된다. 특히 삼성SDS, NHN클라우드와 함께 국가정보자원관리원 대구센터 민관협력형 클라우드(PPP) 사업에 참여해 정부 핵심 시스템 수용 인프라를 구축하며 공공 시장 영향력을 확대했다. 아울러 최근 대표 자리에 김봉균 KT 엔터프라이즈 부문장을 내정하며 사업 전략 재정비에도 나섰다. 기존 기술 중심 성장에 더해 KT 엔터프라이즈 조직과의 연계를 강화한 B2B 통합 사업 구조로 전환을 모색 중이며 액체 냉각 기반 AI 데이터센터 구축 등 인프라 고도화도 병행할 전망이다. NHN클라우드는 매출 2천157억원으로 전년 대비 약 9.8% 성장했지만 영업손실 197억원을 기록하며 적자 구조를 이어갔다. 다만 영업손실은 전년 284억원에서 약 30.5% 줄어들며 손실 폭을 축소했다. NHN클라우드는 국산 기술 기반 AI 인프라 생태계 구축과 일본 등 글로벌 시장 공략을 병행 중이다. 국정자원 PPP 사업에도 참여해 다양한 공공 클라우드 인프라 구축과 행정안전부 클라우드 네이티브 전환 사업 등을 수행해왔다. 최근엔 티맥스티베로와 협력해 GPU 인프라와 데이터베이스 관리 시스템(DBMS)을 결합한 국산 AI 인프라 생태계 구축에도 속도를 내고 있다. 일본 시장에선 서비스형 GPU(GPUaaS)를 앞세워 현지 AI 전환(AX) 수요 공략에 집중하는 등 해외 확장을 통해 수익성 개선 돌파구를 마련하려는 전략이다. 카카오엔터프라이즈는 매출 1697억원으로 전년 대비 약 25.9% 증가했으나 영업손실 343억원을 기록했다. 다만 영업손실은 전년 672억원에서 약 49.0% 줄어들며 절반 수준으로 개선했다. 회사는 카카오클라우드의 '하이브리드 GPUaaS' 전략을 통해 AI 인프라 비용 구조 개선과 수익성 확보를 동시에 추진 중이다. 카카오엔터프라이즈는 특히 AI 추론 중심 시장 변화에 대응해 온프레미스 GPU와 클라우드 연계를 결합한 구조를 강화하고 있다. 단일 콘솔 기반 통합 운영과 비용 효율화 전략을 통해 금융·공공 등 규제 산업으로의 확장도 동시에 노리는 모습이다. 가비아는 매출 3356억원, 영업이익 404억원으로 각각 18.9%, 15.3% 증가하며 안정적인 성장세를 이어갔다. 클라우드·데이터센터·보안 등 전 사업 부문에서 고른 성장이 나타났으며 AI 연산 환경에 대응하기 위한 데이터센터 및 GPU 인프라 강화에도 나서고 있다. 가비아는 과천 데이터센터를 중심으로 고전력 GPU 인프라를 확보하며 AI 대응 역량을 키우고 있다. 자체 클라우드뿐 아니라 아마존웹서비스(AWS)의 관리 서비스(MSP) 사업도 병행하며 하이브리드·멀티클라우드 전략을 확대해왔다. 여기에 서비스형 데스크톱(DaaS)과 그룹웨어 '하이웍스' 중심의 서비스형 소프트웨어(SaaS)까지 아우르는 통합 서비스 모델로 사업 영역을 넓히고 있다. 업계에선 GPU 확보 경쟁과 데이터센터 인프라 확대가 향후 경쟁력을 가름할 핵심 변수로 꼽힌다. 지난해에 이어 정부가 올해도 추진 중인 GPU 1만 5000장 구축 사업을 계기로 CSP 간 인프라 경쟁이 본격화됐다. 지난해 사업엔 네이버클라우드·NHN클라우드·카카오 등이 참여한 가운데, 올해 사업에는 어떤 CSP가 참여해 주도권을 확보할지에도 관심이 쏠리고 있다. 여기에 공공 클라우드 시장 확대도 중요한 성장 동력으로 평가된다. 정부는 2030년까지 행정·공공 정보시스템을 클라우드로 전면 전환하는 정책을 추진하겠다고 밝힌 바 있다. 현재 약 42.4% 수준인 전환율을 단계적으로 끌어올릴 계획이다. 민감·공개 데이터의 민간 클라우드 활용을 확대하는 하이브리드 구조 전환도 병행된다. 국가AI전략위원회 역시 지난해 국가정보자원관리원 화재 이후 후속 발전 방안으로 약 1만 5000개 정부 시스템의 재해복구(DR) 체계를 재설계하고 민간 클라우드 활용을 확대하는 방향을 제시했다. 이에 기존 제한적이던 공공 시장이 점차 개방되면서 CSP들의 사업 기회가 확대될 전망이다. 다만 정책 실행력 확보를 위한 과제도 적지 않다. 공공 클라우드 전환 예산이 AI 관련 예산 대비 상대적으로 부족한 가운데 부처 간 협력과 보안 인증 체계 정비, 기관별 비용 부담 문제 등이 변수로 지목된다. 특히 클라우드보안인증(CSAP), 국가망보안체계(N2SF) 등 복잡한 제도 구조가 사업 추진 속도를 좌우할 핵심 요인이다. 업계는 공공 클라우드 전환 정책과 AI 인프라 투자 확대가 맞물리며 국내 클라우드 시장이 중장기적으로 빠르게 성장할 것으로 보고 있다. 단순 인프라 이전을 넘어 AI 기반 서비스 구조까지 함께 설계하는 방향으로 정책이 구체화돼야 한다는 지적도 나온다. 클라우드 업계 관계자는 "AI 확산과 공공 클라우드 전환이 동시에 진행되면서 국내 CSP들에게는 큰 기회가 열리고 있다"며 "다만 인프라 투자 부담과 제도 불확실성이 여전히 존재하는 만큼 정부 정책과 민간 투자 간 균형이 중요해질 것"이라고 말했다.

2026.04.06 14:19한정호 기자

[유미's 픽] "GPU 넘는다"…삼성·LG·롯데·포스코 가세로 국산 NPU 확산 본격화

국산 신경망처리장치(NPU)를 중심으로 한 국내 인공지능(AI) 산업 재편이 본격화되고 있다. 정부가 50조원 규모의 'K-엔비디아' 육성 프로젝트를 추진하며 정책 드라이브를 강화하는 가운데 민간 기업들도 공공·제조·클라우드·서비스 등 각 영역에서 NPU 도입과 사업화를 서두르는 모습이다. 3일 업계에 따르면 최근 국내 주요 IT·산업 기업들은 그래픽처리장치(GPU) 중심 AI 인프라에서 벗어나 NPU를 기반으로 한 구조 전환을 추진하며 비용 효율과 전력 절감, 데이터 주권 확보를 동시에 노리고 있다. 기술 검증 단계를 넘어 실제 서비스와 인프라로 확산되고 있는 상황을 고려한 것으로, AI 서비스 확산에 따라 추론 수요가 급증하면서 전력 소비와 운영 비용 부담이 커진 점도 한 몫 했다. 정부도 이 같은 변화에 맞춰 정책 지원을 강화하고 있다. 실제 과학기술정보통신부와 금융위원회는 지난달 민관 합동 간담회를 통해 AI 반도체 시장이 범용 GPU 중심에서 저전력·고효율 중심 구조로 전환되고 있다고 진단하고 국산 NPU 산업 육성에 정책 역량을 집중하겠다고 밝혔다. 국민성장펀드를 통해 향후 5년간 50조원을 투입하는 'K-엔비디아' 프로젝트도 추진 중이다. 이에 따라 클라우드 인프라 영역에서도 국산 NPU 적용이 구체화되고 있다. 삼성SDS가 국산 NPU 기반 '서비스형 NPU(NPUaaS)'를 오는 7월 출시하는 것이 대표적 사례다. 삼성SDS는 기존 '서비스형 GPU(GPUaaS)' 중심 구조에서 벗어나 NPU를 포함한 하이브리드 인프라를 구축함으로써 기업들이 AI 워크로드 특성에 따라 연산 자원을 선택할 수 있도록 하겠다는 전략을 내세웠다. 클라우드에서 구독형으로 NPU를 제공함으로써 초기 투자 부담을 낮추고 도입 장벽을 줄인 점도 특징이다. NPU 도입은 공공과 산업 현장을 중심으로도 확대되는 흐름을 보이고 있다. 비용과 전력 효율이 중요한 공공 인프라를 중심으로 적용 검토가 이뤄지면서 초기 수요도 형성되는 분위기다. 특히 공공 및 유통 인프라 분야에서는 비용 경쟁력 확보를 중심으로 NPU 도입이 이뤄지고 있다. 롯데이노베이트는 딥엑스와 협력해 지능형 CCTV와 ITS에 NPU를 적용하며 GPU 대비 총소유비용(TCO) 절감을 추진 중이다. 업계에선 정책 인센티브가 구체화되기 전부터 국산 반도체 적용을 검토하는 등 선제 대응 성격이 강한 사례라고 봤다. 제조 분야에서는 포스코DX가 모빌린트 NPU를 산업용 제어 시스템에 탑재해 설비 단계에서 실시간 AI 분석과 제어가 가능한 구조를 구축하고 있다. 이는 클라우드 중심 AI에서 벗어나 현장 중심의 엣지 AI로 전환하는 흐름을 반영한 것으로, 보안성과 즉시성을 동시에 확보하려는 전략으로 풀이된다. 클라우드와 플랫폼 영역에서도 대응이 이어지고 있다. LG CNS는 NPU 기반 AI 인프라 구축을 확대하고 있으며, LG유플러스는 NPU와 대규모 언어모델(LLM), 인프라를 결합한 'AI 어플라이언스'를 통해 공공·금융 등 폐쇄망 시장을 겨냥하고 있다. 클라우드 의존 없이 자체 환경에서 AI를 구동할 수 있도록 한 점이 특징이다. AI 모델 영역에서는 LG AI연구원과 업스테이지가 중심 역할을 하고 있다. LG AI연구원은 '엑사원(EXAONE)'을 기반으로 국산 NPU와의 최적화를 추진하며 추론 중심 AI 환경에 대응하고 있으며, 업스테이지 역시 퓨리오사AI와 협력해 NPU 기반 생성형 AI 서비스 상용화를 추진 중이다. 이는 모델 단계에서도 GPU 의존도를 낮추려는 시도로 해석된다. 기업용 소프트웨어 분야에서도 변화가 나타나고 있다. 더존비즈온은 퓨리오사AI와 협력해 전사적자원관리(ERP) 등 핵심 업무 시스템에 NPU 기반 AI를 적용하며 공공·금융 시장 확대를 추진하고 있다. 기존 분석 중심 AI에서 벗어나 실제 업무 프로세스에 AI를 접목하려는 움직임이다. 유통 및 시스템통합(SI) 영역에서는 코오롱베니트가 리벨리온과 협력해 NPU 기반 'AI 엑셀러레이션 서비스'를 추진하며 기업 고객 접점을 확대하고 있다. 반도체 기술을 실제 비즈니스 환경에 적용하는 역할로, 시장 확산을 위한 유통 채널로 기능하고 있다. 클라우드 사업자들의 선행 움직임도 영향을 미쳤다. 네이버클라우드는 'AI반도체 팜' 사업을 통해 국산 NPU의 성능과 안정성을 산업 현장에서 검증하며 상용화 기반을 마련했다. 이후 기업들의 사업화 움직임도 이어지고 있다. 업계에선 현재 국산 NPU 사업을 두고 기술 검증 단계를 넘어 상용화 초기 단계로 보고 있다. 동시에 벤더 간 경쟁도 본격화되면서 기업들은 국산 NPU 도입을 전제로 협력 구조도 구축하는 모습이다. 업계 관계자는 "지금은 NPU 도입 여부를 논의하는 단계가 아니라 어떤 기술을 선택할지 경쟁이 시작된 단계"라며 "정부 정책과 민간 인프라가 맞물리면서 AI 반도체 생태계가 빠르게 확산될 것으로 기대된다"고 말했다.

2026.04.03 08:48장유미 기자

프렌들리AI·삼성SDS, B300 GPU로 프론티어 AI 추론 문턱 낮춘다

프렌들리AI가 삼성SDS와 손잡고 기업들의 추론 인프라 구축 부담을 낮춘 프론티어 인공지능(AI) 모델 서빙 서비스를 본격 가동한다. 프렌들리AI는 삼성SDS와 협력해 삼성 클라우드 플랫폼(SCP)의 엔비디아 B300 그래픽처리장치(GPU) 기반 프론티어 AI 모델 추론 인프라를 운영한다고 2일 밝혔다. 이번 협력은 단순한 인프라 연동을 넘어 프렌들리AI의 고성능 추론 최적화 서비스와 SCP의 확장형 B300 GPU 서비스형인프라(IaaS)를 결합한 구조다. 최근 GLM-5, 딥시크 v3.2 등 초대형 프론티어 모델이 잇따라 등장하면서 기업들의 추론 인프라 수요도 급격히 커지고 있다. 양사는 글로벌 스타트업과 엔터프라이즈 기업을 주요 타깃으로, 복잡한 커스텀 스택 구축 없이 최신 모델을 즉시 프로덕션에 투입할 수 있는 환경을 제공한다는 목표다. 주요 특징은 네 가지다. 우선 GLM-5, 미니맥스 M2.5, 딥시크 v3.2 등 차세대 모델을 출시와 동시에 지원하는 '데이-0' 체계를 갖춰 별도의 커스텀 추론 스택 없이 즉시 도입이 가능하다. 프렌들리AI의 자체 추론 엔진과 SCP의 B300 GPU를 결합한 초고속·저지연 환경도 운영될 예정이다. 또 토큰 기반 과금 구조로 사용량에 따른 유연한 비용 모델을 제공하며 고속 추론과 대규모 확장성을 동시에 지원한다. SCP의 고가용성 B300 IaaS와 프렌들리AI 추론 플랫폼을 통합 운영해 글로벌 저지연 서비스와 엔터프라이즈급 안정성도 확보한다. 전병곤 프렌들리AI 대표는 "삼성 SCP와 협력해 전 세계 기업들에게 고성능·고효율 AI 추론을 제공하게 돼 기쁘다"며 "고객들은 최신 프론티어 모델을 안정적으로 활용하고 에이전틱 AI 기반의 새로운 비즈니스 기회를 모색할 수 있을 것"이라고 피력했다.

2026.04.02 14:45이나연 기자

엘리스그룹-아리스타, 차세대 AI 네트워크 기술 협력한다

엘리스그룹(대표 김재원)은 아리스타네트웍스 코리아와 손잡고 '이더넷 기반의 대규모 GPU 클러스터링' 구현에 나선다. 엘리스그룹은 지난 1일, 엘리스그룹 본사에서 아리스타네트웍스 코리아와 '차세대 AI 네트워크 기술 협력'을 위한 업무협약(MOU)를 체결했다. 이번 협약은 그간 고가의 전용 통신망에 의존했던 대규모 AI 인프라를 범용 네트워크 표준인 이더넷 기반으로 전환함으로써, AI 데이터센터의 경제성을 극대화하고 국내 AI 산업의 진입 장벽을 낮추기 위해 추진됐다. 최근 AI 모델의 급격한 발전으로 수천 개의 GPU를 하나로 연결하는 네트워크 기술이 AI 데이터센터의 경쟁력을 결정짓는 핵심 요소로 부상했다. 그동안 AI 네트워크 시장에서는 고가의 전용 통신망 '인피니밴드'를 주로 사용했으나, 최근 글로벌 기업을 중심으로 범용성이 높고 비용 효율적인 이더넷 기반의 네트워크로 전환하는 추세다. 양사는 이번 협약으로 'RoCE(RDMA over Converged Ethernet)v2' 기술 기반의 AI 네트워크 구축에 집중한다. RoCEv2는 기존 범용 이더넷 망에서 데이터 전송 속도를 극대화하고 병목 현상을 없애 대규모 AI 연산을 원활하게 돕는 차세대 핵심 기술이다. AI 네트워크 기술의 상용화를 위한 다양한 공동 프로젝트도 추진한다. 엘리스그룹은 AI 특화 클라우드인 엘리스클라우드와 AI PMDC(이동식 모듈형 데이터센터) 내에 RoCEv2 기반 고성능 네트워크 환경을 선도적으로 도입한다. 아리스타네트웍스 코리아는 글로벌 AI 네트워크 분야에서 검증된 기술력을 통해 고성능 네트워크 설계 및 기술 지원을 담당할 예정이다. 박정국 엘리스그룹 최고개발책임자는 “AI 인프라 경쟁력의 핵심은 수만 개의 GPU가 얼마나 효율적으로 데이터를 주고 받느냐에 달려 있다”며 “아리스타와 협업을 통해 경제적이고 효율적인 AI 인프라 표준을 제시하고, 국내외 기업들이 더 쉽고 빠르게 AI 전환을 이룰 수 있도록 앞장서겠다”고 말했다. 김세진 아리스타네트웍스 코리아 지사장은 “엘리스그룹과의 협력은 RoCEv2 기반 AI 데이터센터 네트워크의 혁신을 실현할 수 있는 중요한 기회”라면서 “앞으로도 한국 시장에서의 기술 협력을 지속적으로 확대해 나가겠다”고 밝혔다.

2026.04.02 10:43백봉삼 기자

정부, 국가 AI 프로젝트에 GPU 3000장 투입…52개 과제 선정

정부가 범부처 인공지능(AI) 프로젝트에 그래픽처리장치(GPU) 3천장을 공급한다. 과학기술정보통신부는 1일 제6회 과학기술관계장관회의를 서면 개최해 '범국가적 AI 혁신을 위한 국가 AI 프로젝트 선정안'을 심의 의결했다. 총 28개 부처에서 121개 과제가 접수됐고 평가를 거쳐 25개 부처 52개 과제가 최종 선정됐다. 이번 프로젝트는 정부가 확보한 그래픽처리장치(GPU) 자원을 각 부처 사업과 연계해 지원하는 구조다. 정부는 확보한 GPU 1만장 중 약 3000장을 이번 프로젝트에 배분한다. 선정 기준은 국가 전략적 중요성과 기술·사회적 파급 효과, 정부 주도 필요성이다. 정부는 전문가 평가와 심사위원회를 거쳐 우선순위를 정했으며 과제별 인터뷰를 통해 GPU 배분 규모를 조정했다고 발표했다. 주요 과제로는 소프트웨어 정의 차량(SDV) 전환 기반 AI 미래차 자율주행 모델 고도화, 산업 특화 파운데이션 모델 개발, AI 스타트업 기술 상용화, 한국형 기상 기후 AI 모델, AI 기본의료, AI 융합콘텐츠, 북극항로 예측 기술 등이다. 정부는 과제 착수 시점에 맞춰 이달부터 GPU를 순차 배분할 계획이다. 사용이 늦어지는 자원은 별도 포털을 통해 산학연 단기 수요에 재배분해 활용도를 높인다. GPU 사용 현황을 매월 점검해 이용률이 낮거나 목적 외 사용이 발생하면 회수 후 재배분할 방침이다. 이를 통해 자원 관리 효율성을 높이겠다는 의도다. 배경훈 부총리 겸 과학기술정보통신부 장관은 "정부 마중물 투자를 바탕으로 구축하는 AI 고속도로의 토대 위에서 각 부처가 주도하는 범국가적 AI 혁신이 생길 것"이라며 "민관 AI 수요를 지속적으로 파악해 정부 GPU 자원이 적재적소에 배분될 수 있도록 총력을 다하겠다"고 밝혔다.

2026.04.01 23:37김미정 기자

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

국방부가 생성형 인공지능(AI) 기반 국방 데이터 인프라 구축을 위한 첫 단계 사업에 착수했다. 대규모 그래픽처리장치(GPU) 서버를 중심으로 한 인프라를 구축해 국방 AI 서비스 운영 기반을 마련하고 향후 국방 통합 AI 데이터센터 구축을 위한 실증 데이터를 확보한다는 구상이다. 30일 조달청 나라장터에 따르면 국방부 산하 국방통합데이터센터(DIDC)는 최근 '2026년 국방통합AI데이터센터 실증 목적 GPU 서버 구축사업' 입찰을 공고했다. 이번 사업은 국방 AI 데이터센터 구축을 위한 초기 실증 사업으로, GPU 자원 확보와 함께 AI 인프라 운영·관리 체계를 구축하는 것이 핵심이다. 사업 예산은 약 216억원 규모로 책정됐으며 계약 후 210일 이내 수행될 예정이다. 특히 일반경쟁입찰 계약방식으로 평가 비중은 기술 90%, 가격 10%로 구성됐다. 이번 사업은 지난해 구축된 국방 생성형 AI '국방 생성형 AI(GeDAI, Generative Defense AI)' 서비스의 안정적 운영을 지원하기 위한 후속 인프라 확장 성격을 띤다. 국방부는 GeDAI를 실증 수단으로 활용해 GPU 수요와 국방 데이터 활용 요구사항을 도출하고 향후 데이터센터 구축 시 기준으로 활용할 계획이다. 사업 범위는 단순 장비 도입을 넘어선다. 우선 대규모 AI 추론 서비스를 위한 GPU 서버와 클라우드 관리 서버, 고속 네트워크 및 스토리지 등 핵심 인프라가 구축된다. 이와 함께 GPU 가상화 기반 서비스형 플랫폼(PaaS), 백업 시스템, 관제 및 보안 솔루션도 포함된다. 특히 GPU 서버는 엔비디아 B300 기반 고성능 장비로 구성되며 서버 간 최대 800기가비피에스(Gbps)급 네트워크를 통해 대규모 AI 추론 환경을 구현하는 것이 목표다. 이를 바탕으로 국방 데이터 기반 AI 모델 학습과 추론을 동시에 지원하는 고성능 인프라가 마련될 전망이다. 사업은 착수 이후 ▲환경 조사 및 요구사항 분석 ▲아키텍처 상세 설계 ▲장비 설치 및 시험평가 ▲보안 측정 및 검수 ▲안정화 단계로 진행된다. 이후 무상 하자보수 및 운영 안정화까지 포함된 전체 구축 사이클이 약 7개월 내 완료될 예정이다. 국방부는 이번 사업을 통해 GPU 자원을 확대하고 각 군과 수요기관에 AI 서비스를 제공할 수 있는 기반을 마련한다는 방침이다. 또 민·군 협력 기반 AI 연구개발 환경을 조성하고 향후 전군 단위 AI 서비스 확산을 위한 인프라 표준 확보에도 활용된다. 이번 사업은 향후 추진될 국방 통합 AI 데이터센터 구축의 전초 단계로 평가된다. 앞서 정부는 2030년까지 최대 5만 개 GPU를 투입하는 대규모 국방 AI 인프라 구축 계획을 밝힌 바 있다. 이번 실증 사업이 핵심 기반이 될 것이라는 예상이 나온다. 국방부 측은 사업 제안요청서를 통해 "AI 과학기술 강군 육성을 위해 기존 국방 생성형 AI 서비스를 안정적으로 운영·관리할 수 있도록 정보시스템을 증설한다"며 "GPU 기반 인프라 구축을 통해 효율적이고 안정적인 AI 서비스 제공 환경을 마련할 것"이라고 밝혔다.

2026.03.30 17:44한정호 기자

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

베슬AI, 엔비디아 GB200·B300 확보…듀얼 네오클라우드 운영

베슬AI가 초거대 모델 학습과 추론을 동시에 지원하는 최신 엔비디아 그래픽처리장치(GPU) 라인업을 구축해 국내 인공지능(AI) 인프라 시장에서 입지를 강화한다. 베슬AI는 엔비디아 'GB200'과 'B300'을 확보하고 이를 기반으로 클라우드 서비스형 GPU(GPUaaS) 사업을 확대한다고 27일 밝혔다. 베슬AI에 따르면 회사는 국내에서 GB200과 B300을 동시에 제공하는 유일한 네오클라우드 사업자로, 차별화된 AI 인프라 경쟁력을 확보했다. 이번 GPU 확보를 통해 기업 고객은 AI 워크로드 특성에 맞춰 GPU를 선택할 수 있게 됐다. B300은 대규모 AI 모델 추론에, GB200은 초거대 모델 학습에 적합해 다양한 AI 개발 환경을 지원한다. 서비스 접근성도 강화했다. 베슬AI는 A100과 H100 등 주요 GPU와 스토리지, AI 개발 플랫폼을 별도 협의 없이 즉시 사용할 수 있는 셀프서비스 방식으로 제공한다. 기업과 개발자가 별도 계약이나 승인 절차 없이 필요한 시점에 바로 GPU를 활용할 수 있도록 지원한다. 비용 효율성도 강점으로 내세웠다. 분 단위 과금 체계와 '스마트 퍼징' 기능을 통해 유휴 자원 낭비를 최소화하고 AI 인프라 총소유비용(TCO)을 절감할 수 있도록 했다. 직관적인 요금 구조와 유연한 크레딧 관리 방식도 도입해 GPUaaS 도입 장벽을 낮췄다는 설명이다. 베슬AI는 자사 GPU 클라우드 플랫폼 '베슬 클라우드'를 통해 GPU 자원을 제공 중이며 현재 일부 물량을 기반으로 기업들의 인바운드 문의가 이어지고 있다. 향후 글로벌 클라우드 파트너십을 기반으로 공급 규모를 확대하고 다양한 지역으로 서비스를 확장할 계획이다. 안재만 베슬AI 대표는 "A100부터 B300까지 국내에서 가장 폭넓은 GPU 라인업을 갖춘 네오클라우드 사업자로서 국내 기업들의 AI 인프라 경쟁력을 높이는 데 기여하겠다"고 말했다.

2026.03.27 17:35한정호 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

파인튜닝 한계 넘는다…크래프톤, 자체 AI 모델 개발 착수

크래프톤이 인공지능(AI) 모델을 처음부터 직접 만들겠다고 공식화했다. 지난 17일(현지시간) 미국 새너제이에서 열린 엔비디아 'GTC 2026'에서 이강욱 크래프톤 최고인공지능책임자(CAIO)는 이 같이 밝혔다. 지난해 10월 'AI 퍼스트' 전략을 선언한 회사는 1000억원 규모의 그래픽처리장치(GPU) 클러스터 구축 계획을 발표한 바 있다. 이번 행보는 그 연장선으로, 단순 인프라 확장을 넘어 AI 기술 스택을 완전히 내재화하겠다는 의지로 풀이된다. "필요한 AI 모델은 직접 개발한다" 크래프톤이 자체 모델 개발로 선회하게 된 배경에는 기존 방식에 대한 우려가 존재한다. 현재 개발 중인 '펍지 엘라이(AI 기반 게임 캐릭터)'는 3개의 AI 모델을 요구한다. 다만 다중 모델 구조는 기술 복잡도를 높일 뿐만 아니라, 응답 속도 지연을 유발해 게임 서비스 품질을 떨어뜨리는 원인이 된다. 이강욱 CAIO 역시 이 문제를 해결하기 위해 최적의 모델을 탐색해 왔으나, 결국 기존 모델의 한계를 극복하기 위해 자체 개발로 방향을 굳힌 것으로 보인다. 당시 매일경제 보도에 따르면, 이 CAIO는 "모델간 연결되는 과정에서 지연되는 것을 원치 않는다"며 "이를 위한 단일 모델은 프롬 스크래치로 개발할 예정"이라고 전했다. 이어 "해당 모델은 조만간 공개할 계획"이라고 덧붙였다. 프롬 스크래치는 데이터 수집, 구조 설계, 학습 등 개발 과정을 직접 수행하는 방식이다. 기성복을 수선해 입는 '파인튜닝'과 달리, 특정 체형에 딱 맞춘 '맞춤 정장'을 제작하는 것과 같다. 특히 필요한 기능만으로 설계된 만큼, 게임 서비스에 최적화된 높은 효율성과 빠른 응답 속도를 구현 가능하다. 이와 함께 이 CAIO는 지난해 선보인 인생 시뮬레이션 게임 '인조이'에 새로운 AI 요소가 추가될 것이라고 예고했다. '인프라·데이터·인력' AI 모델 개발에 자신있는 이유 크래프톤이 프롬 스크래치 방식을 선택한 데에는 그만한 기술력과 배경이 뒷받침한다. 단순 선언에 그치지 않고 결과물을 예고할 수 있는 핵심 근거는 인프라·데이터·전문 인력의 결합에서 나온다. 우선 크래프톤은 NHN클라우드를 통해 1000억원 규모의 GPU 클러스터를 구축 중이다. 이는 오는 7월부터 본격적으로 가동될 예정이며, 모델 학습과 추론 등에 필요한 연산을 담당한다. 장기간 쌓아온 '게임 특화 데이터' 또한 차별점으로 작용한다. 현재도 대표작인 '펍지: 배틀그라운드'를 통해 매 순간 변화하는 전장 상황과 이용자 데이터 등을 확보하는 중이다. 여기에 이 CAIO를 필두로 넷마블, 롯데온 등에서 영입한 업계 전문가들로 구성된 'AI 편대'가 실질적인 기술 실행력을 완성한다. 이들은 전사적 AI 전환 및 고도화에 집중할 방침이다. 크래프톤은 단순한 기술 도입을 넘어 AI 역량을 체계적으로 내재화하는 모습이다. 새로운 AI 콘텐츠인 '펍지 앨라이'를 선보인 데 이어, 자체 모델 개발까지 나서며 'AI 퍼스트' 비전에 걸맞은 행보를 이어가고 있다. 이러한 시도들이 게임 업계에 어떤 파장을 일으키고 새로운 표준을 제시할지 업계의 이목이 쏠리고 있다.

2026.03.22 09:12진성우 기자

[AI 고속도로] '베라루빈' 도입·연내 구축 가능할까…정부 GPU 확충 쟁점은

정부가 '인공지능(AI) 고속도로' 구현을 위한 2조원 규모 최신 그래픽처리장치(GPU) 확충 사업에 착수한다. 엔비디아가 공개한 차세대 GPU '베라루빈' 도입 가능성까지 포함되면서 사업 방향과 세부 기준에 대한 업계 관심이 높아지고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 개최했다. 이날 현장에선 사업 구조와 평가 기준, 데이터센터 요건 등을 설명하고 현장 질의응답을 진행했다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 밝혔다. 이날 설명회에는 지난해 사업에 선정된 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)와 엘리스그룹이 자리했다. 또 삼성SDS·LG CNS 등 SI 기업과 메가존클라우드·디딤365, 레드햇·클러쉬, 델·HPE·IBM·넷앱·슈퍼마이크로 등 인프라 기업, 엔비디아·AMD·인텔, MS·구글 클라우드, SK텔레콤·쿠팡 등 60여개 기업 200여 명이 참석했다. 현장 질의응답에선 차세대 GPU 도입 기준을 비롯해 데이터센터 구축 방식, 글로벌 공급망 위협과 환율 변동에 따른 비용 부담, 연내 구축 일정 등 주요 쟁점을 중심으로 사업 참여를 검토하는 기업들의 질의가 이어졌다. 특히 베라루빈 도입 여부와 구축 일정 간 균형, 국내 인프라 중심 운영 원칙 등이 핵심 관심사로 부각됐다. 최신 GPU 중심 평가…베라루빈 도입 기준·일정 변수는 -사업 요건의 비용 대비 높은 GPU 성능은 어떤 기준으로 평가되나. "경제성 항목은 단순히 장비 수량을 많이 확보하는 개념이 아니라, 최신 GPU 기준으로 성능 대비 얼마나 효율적으로 제안하느냐를 보는 것이다. 동일한 예산 안에서 최신 아키텍처 GPU를 얼마나 확보할 수 있는지가 핵심이다. 구형 GPU를 대량으로 제안하는 방식보다는 최신 GPU 중심으로 실제 AI 학습과 추론에 적합한 성능을 확보했는지가 평가 포인트가 된다. 성능 대비 비용, 그 성능이 실제 AI 활용에 얼마나 적합한지를 종합적으로 볼 것이다." -베라루빈 제안 시 클러스터 구축 기준은 어떻게 적용되나. "베라루빈은 아직 구체적인 구성 방식이나 클러스터 단위가 완전히 정형화되지 않은 차세대 GPU다. 기존 블랙웰 계열과 동일한 기준을 그대로 적용하기는 어려울 수 있다. 이 부분은 칩 제조사와 공급망을 통해 확인해야 하는 영역이다. 제안 단계에선 가능한 범위에서 구성 계획을 제시하되, 세부 기준은 제조사 스펙과 실제 공급 조건을 반영해 판단하게 된다. 중요한 것은 차세대 GPU 도입 의지와 실현 가능성이다." -특정 제조사의 GPU만을 고려해 평가가 이뤄지는지. "이번 사업은 특정 칩 제조사를 배제하거나 제한하려는 것이 아니라, 국가 차원에서 AI 인프라를 가장 빠르게 확보하는 것이 목적이다. 현재 시장에서 대규모 AI 모델 학습과 서비스에 가장 널리 활용되는 최신 GPU를 중심으로 판단하게 된다. 다양한 선택지가 있을 수 있지만 실제 활용성과 안정성, 공급 가능성을 종합적으로 고려할 수밖에 없다." -베라 루빈 출시 일정과 연내 구축 목표가 충돌할 경우 기준은. "기본적으로 이번 사업은 연내 구축과 서비스 개시가 중요한 목표다. 다만 차세대 GPU 도입은 평가에서 우대 요소로 반영된다. 베라 루빈의 경우 일반적인 글로벌 공급 일정과 달리 국내 도입 시점이 앞당겨질 가능성도 있다. 관계 부처와 제조사 간 협의를 통해 국내 물량 확보를 추진해 왔다. 결국 일정과 최신성 두 요소를 함께 고려하되, 현실적인 공급 상황을 반영해 판단할 것이다." -GPU 납기 지연 등 변수 발생 시 일정 조정이 가능한가. "사업자가 최종 선정된 이후 협약 단계에서 시장 상황을 반영해 일부 조정은 가능하다. 기본 원칙은 유지하되, 실제 납기나 공급 이슈가 불가피하게 발생하는 경우까지 일률적으로 적용하기는 어렵다. 협약 과정에서 합리적으로 논의할 수 있는 여지는 있다." "국내 데이터센터 집적이 원칙"…냉각 인프라도 예산에 포함 -복수 데이터센터를 활용한 구축·운용이 가능한가. "데이터센터를 여러 개 제안하는 것은 가능하다. 다만 사업에서 요구하는 최소 클러스터 단위는 반드시 동일 공간 또는 동일 층에 물리적으로 집적돼야 한다. 대규모 AI 연산을 위해서는 GPU 간 통신 지연을 최소화하는 구조가 필요하기 때문이다. 따라서 분산 배치는 가능하지만, 핵심 클러스터는 집적형으로 구성해야 한다." -동일 제조사 내 서로 다른 GPU 모델을 혼합해 제안할 수 있나. "가능은 하지만 단순 혼합이 아니라, 각각의 GPU 구성에 대한 명확한 목적과 타당성을 제시해야 한다. 어떤 워크로드에 어떤 GPU를 쓰는지, 클러스터 단위 기준을 어떻게 충족하는지를 설명해야 한다. 단순히 여러 모델을 섞는 방식은 설득력이 떨어질 수 있다." -해외 데이터 연동이나 네트워크 활용은 원천 불가능한가. "사업의 기본 원칙은 국내 데이터센터에서 GPU를 직접 운영·통제하는 것이다. 국가 AI 인프라라는 특성상 데이터 주권과 보안이 중요하다. 다만 실제 운영 과정에서 필요한 세부 사항은 추가 논의를 통해 정리할 수 있다." -수냉 배관 등 데이터센터 공사 비용도 사업 지원비에 포함되나. "GPU 서버가 최고 성능을 낼 수 있도록 필요한 환경이라면 통합 구축 범위에 포함해 제안할 수 있다. 단순히 장비만 도입하는 것이 아니라 실제 운영 가능한 인프라를 구축하는 것이 목적이다. 전력·냉각·네트워크까지 포함한 전체 시스템 관점에서 제안하는 것이 중요하다." -콜드플레이트 등 냉각 구성 요소는 어떻게 반영해야 하나. "세부적인 하드웨어 구성은 서버 벤더와 칩 제조사 기준을 따르는 것이 바람직하다. GPU 성능을 충분히 발휘할 수 있는 구성이라면 관련 부대장비까지 포함해 제안하면 된다. 단순 장비 나열이 아니라 완성된 인프라로서 제안해야 한다." 환율 변수에도 제안가 기준…"사업 종료 후 관리는 정부가" -환율 변동에 따른 가격 차이는 추후 어떻게 반영되나. "기본적으로는 제안 시점에서 확보한 가격을 기준으로 본다. 공모 사업 특성상 사후 정산 구조이기 때문에 가격 변동이 발생하더라도 그 기준을 중심으로 관리하게 된다." -환율 급등 등 외부 변수 발생 시 대응은. "원칙은 제안 가격 기준이다. 다만 전쟁이나 글로벌 공급망 충격과 같은 불가피한 상황이 발생할 경우에는 협약 단계에서 논의가 필요할 수 있다. 모든 변수를 사전에 규정하기는 어렵지만 현실적인 범위에서 대응할 예정이다." -정부 활용분과 기업 자체 활용분은 어떤 기준으로 산정되나. "정부 활용분에 대해 요구되는 최소 클러스터 규모를 먼저 충족해야 하고 그 이후 남는 자원을 자체 활용분으로 설정하는 구조다. GPU 종류나 성능이 서로 다른 경우에는 단순 장수 기준만으로 판단하지 않고 도입 비용과 활용 목적까지 함께 고려해 전체 구성의 타당성을 평가한다. 단순 비율이 아니라 정부 활용 목적에 부합하는지와 자원 배분의 합리성을 종합적으로 볼 것이다." -정부 활용분 GPU에 대한 수요는 보장되나. "수요 모집과 배분은 정부가 담당한다. 사업자는 인프라를 제공하고 운영을 지원하는 역할을 수행하게 된다. 수요 확보 부담을 사업자에게 전가하는 구조는 아니다." -사업 종료 후 GPU 자산은 어떻게 되나. "GPU와 부대장비는 NIPA 자산으로 관리된다. 이후 처리 방식은 관련 규정과 절차에 따라 결정된다. 매각이나 이전 등 다양한 방안을 검토할 예정이다."

2026.03.20 17:58한정호 기자

[AI 고속도로] '베라루빈' 확보 속도전…'AI G3' 노린 정부, 주도권 경쟁 본격화

정부가 엔비디아의 차세대 그래픽처리장치(GPU) '베라루빈' 확보에 공을 들이고 있다. 생성형 인공지능(AI) 경쟁이 단기간 내 판가름 날 수 있다는 판단 아래 최신 GPU를 조기에 도입해 기술 격차를 좁히겠다는 전략으로, 'AI 3강(G3)'에 안착할 수 있는 기반 마련에 본격 나선 분위기다.과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이 사업의 핵심은 블랙웰급을 넘어서는 차세대 GPU 도입 여부다. 정부는 공모 요건에서 특정 제품을 명시하지는 않았지만, 설명회 과정에서 베라루빈과 같은 차세대 하이엔드 GPU를 제안할 경우 평가에서 긍정적으로 반영할 수 있다는 입장을 내놨다. 베라루빈은 엔비디아가 차세대 아키텍처로 준비 중인 GPU로, 기존 제품 대비 연산 성능과 에너지 효율이 크게 향상될 것으로 기대된다. 다만 아직 상용화 초기 단계에 있어 글로벌 빅테크 기업을 중심으로 공급이 이뤄질 가능성이 높은 제품이다. 업계 관계자는 "정부가 이번에 베라루빈 도입 가능성을 열어둔 점이 눈에 띈다"며 "AI 인프라 경쟁에서 뒤처지지 않겠다는 의지가 반영된 조치로 보인다"고 말했다. 이날 설명회에서는 차세대 GPU 확보 시점과 관련해 일반적인 출시 일정보다 국내 도입을 앞당기기 위한 협의가 진행되고 있다는 점도 언급됐다. 글로벌 공급 구조상 후순위로 밀릴 가능성을 고려해 초기 물량 확보를 선제적으로 추진하려는 전략으로 해석된다. 정부가 이처럼 차세대 GPU 확보에 적극 나선 것은 AI 경쟁 구도가 급변했다는 점이 반영된 것으로 풀이된다. 생성형 AI 확산 이후 모델 개발과 서비스 적용까지 걸리는 시간이 크게 단축되면서, 컴퓨팅 인프라 확보 시점 자체가 경쟁력을 좌우하는 요소로 떠올랐기 때문이다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 몇 개월 내로 개발과 적용이 이뤄지고 있다"며 "올 하반기나 내년 상반기면 경쟁 구도가 결정될 수 있다"고 강조했다. 이 같은 상황에서 차세대 GPU 확보 여부는 이번 사업의 핵심 변수로 꼽힌다. 최신 GPU 기반 대규모 클러스터를 구축할 경우 국내 기업과 연구기관이 고성능 AI 모델을 개발·학습할 수 있는 환경이 마련된다. 반면 차세대 GPU 도입이 지연될 경우 인프라 수준 격차가 기술 경쟁력 차이로 이어질 수 있다는 우려도 제기된다. 정부는 이번 사업을 통해 단순히 GPU를 도입하는 데 그치지 않고, 이를 기반으로 한 AI 생태계 확장을 함께 추진한다는 계획이다. 확보된 GPU 자원은 산업계·학계·연구계에 배분돼 AI 모델 개발과 서비스 고도화에 활용된다. 특히 대규모 클러스터를 통한 학습 환경을 제공함으로써 국내에서도 초거대 AI 개발이 가능한 기반을 마련하겠다는 구상이다. 업계에선 베라루빈 도입 여부가 이번 사업의 방향성을 가늠할 핵심 변수로 보고 있다. 차세대 GPU 확보 속도가 기술 경쟁력과 직결되는 만큼, 도입 시점과 규모에 따라 사업 성격이 달라질 수 있다는 분석이다. 업계 관계자는 "베라루빈은 단순히 성능이 좋은 GPU라기보다 '최신 기술을 얼마나 빠르게 가져올 수 있느냐'를 보여주는 상징적인 장비"라며 "정부가 이 부분을 강조하는 것은 글로벌 AI 경쟁에서 뒤처지지 않겠다는 메시지로 읽힌다"고 말했다. 정부 역시 차세대 GPU 도입과 관련해 일정 수준의 유연성을 두고 대응할 방침이다. 공급 상황과 시장 변수에 따라 도입 시점과 물량이 달라질 수 있는 만큼, 향후 협상 과정에서 세부 조건을 조정하겠다는 입장이다. NIPA 관계자는 "차세대 GPU는 출시 시점과 공급 상황이 유동적인 만큼, 선정 이후 협상을 통해 구축 시기와 방식 등을 현실적으로 조율할 계획"이라며 "국내 AI 경쟁력 확보를 위해 필요한 자원은 최대한 빠르게 확보하겠다"고 밝혔다.

2026.03.20 17:39장유미 기자

[AI 고속도로] 고성능 GPU 확보 나선 정부, 2조 규모 인프라 사업에 기업 관심 ↑

정부가 약 2조800억원 규모의 '인공지능(AI) 컴퓨팅 인프라 구축 사업'을 추진하며 첨단 그래픽처리장치(GPU) 확보에 속도를 내고 있다. 생성형 AI 경쟁이 짧은 기간 내 판가름 날 수 있다는 판단에 따라 최신 GPU를 조기에 대규모로 확보해 'AI 고속도로'를 구축하겠다는 구상이지만, 사업 구조와 요구 조건 측면에서 기업들의 부담이 적지 않을 것이란 관측도 나오고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이후 사업 협약 종료 시점인 2031년 12월 31일까지 산업계·학계·연구계 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 사업은 민간 클라우드 사업자(CSP)를 선정해 국내 데이터센터에 GPU 클러스터를 구축·운영하도록 하는 방식으로 추진된다. 정부는 GPU 서버와 스토리지, 네트워크, 냉각장치 등 장비 구매 비용만 지원하고, 운영 비용은 사업자가 부담하도록 했다. 대신 일부 GPU 자원은 자체 활용을 허용해 수익을 확보할 수 있도록 했다. 이번 사업의 핵심은 '최신성'과 '대규모 클러스터'다. 정부는 최소 256노드, 2048장 이상의 GPU를 단일 클러스터로 구성하는 방안을 기본으로 제시하며 블랙웰급 이상 최신 GPU 도입을 사실상 전제로 삼았다. 차세대 GPU인 베라루빈 계열도 제안 가능 대상으로 열어두면서 최신 기술 도입을 적극 유도하는 모습이다. 특히 베라루빈 도입을 둘러싼 논의는 이번 사업의 방향성을 보여주는 대목으로 꼽힌다. 당초 사업 요건에 베라루빈을 명시적으로 포함하는 방안까지 검토됐던 것으로 전해졌으나, 최종 공모에선 강제 조건으로 포함시키지 않았다. 업계에선 정부가 엔비디아와의 협의를 통해 국내 물량 확보 가능성을 타진하면서도, 아직 레퍼런스가 부족한 점을 감안해 기업 자율 제안으로 방향을 조정한 것으로 보고 있다. 그러나 실제 도입 규모는 제한적일 것이라는 전망이 우세하다. 차세대 GPU 특성상 공급 물량이 충분하지 않고, 성능 검증 사례도 부족해 기업들이 대규모로 제안하기에는 부담이 크다는 이유에서다. 업계에선 일부 상징적 물량 수준에서 제안이 이뤄질 가능성에 무게를 두고 있다. 평가 기준을 보면 정부가 무엇을 우선순위로 두고 있는지도 드러난다. 총 100점 가운데 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도 18점, 구축계획 우수성 32점이 핵심이다. 데이터센터 상면 확보를 비롯해 전력·냉각 설비, 네트워크 구성, 보안·안정성 체계 등이 주요 평가 항목에 포함됐다. 이는 대규모 GPU를 실제로 안정적으로 운영할 수 있는 인프라 역량을 가장 중요한 기준으로 삼겠다는 의미다. GPU 물량보다 성능을 중시하는 평가 방식도 특징이다. 동일 예산 기준에서 구형 GPU를 대량 확보하는 방식보다 최신 GPU 기반 고성능 클러스터를 구축하는 제안이 더 유리한 구조다. 서비스 개시 시점이 빠를수록 가점을 부여하는 항목도 포함돼 조기 구축과 실제 활용 가능성 역시 핵심 평가 요소로 설정됐다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 개발에서 서비스까지 걸리는 시간이 크게 단축된 상황"이라며 "최신 GPU를 신속하게 확보해 국내에 공급하는 것이 경쟁력 확보의 핵심"이라고 강조했다. 업계에선 이번 사업을 두고 참여 문턱이 높은 것 같다는 평가를 내놨다. 대규모 GPU 클러스터를 구축하려면 충분한 데이터센터 상면과 전력, 고성능 냉각 인프라가 필수적인데 이를 단기간 내 확보할 수 있는 기업이 제한적이기 때문이다. 수도권 중심 데이터센터 전력 수급 문제도 부담 요인으로 지목된다. 운영비 부담도 주요 변수다. 정부 지원은 장비 구매에 한정되고 실제 운영비는 사업자가 부담해야 하기 때문이다. 자체 활용 GPU로 수익을 확보할 수는 있지만, 정부 활용 자원 비중이 높을수록 평가에서 유리한 구조여서 사업성과 점수 간 균형을 맞추기 쉽지 않다는 지적이 나온다. 가격과 환율 리스크도 기업들이 부담으로 꼽는 대목이다. GPU 조달 비용은 대부분 달러 기반으로 형성되는데, 사업 구조상 비용 절감분은 정산 대상인 반면 가격 상승에 따른 리스크는 일정 부분 사업자가 떠안아야 한다. 차세대 GPU의 경우 납기와 가격 변동성이 커 불확실성이 더 크다.여기에 올해부터 서비스 수준 협약(SLA) 요건이 새롭게 포함되면서 운영 부담은 더 커질 전망이다. 장애 대응, 성능 유지, 기술 지원 체계를 구체적으로 제시해야 하는 만큼, 단일 CSP가 이를 모두 감당하기는 쉽지 않다는 평가다. 이에 따라 CSP가 운영·관리 전문기업(MSP)과 협력하는 컨소시엄 형태가 늘어날 것이라는 관측이 나온다.업계 관계자는 "단순히 GPU를 구축하는 수준이 아니라 24시간 대응 체계와 서비스 품질까지 함께 요구되면서 사업 난도가 크게 올라갔다"며 "운영과 기술지원 역량을 동시에 갖춘 구조를 만들어야 하는 부담이 커진 상황"이라고 말했다.이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 맡는다. 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 여부와 확보 계획, 데이터의 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등도 주요 평가 항목에 포함됐다. 특히 AI 워크로드를 이해하는 전문 인력과 24시간 대응이 가능한 기술지원 체계를 반드시 제시해야 한다는 점도 이번에 강조됐다. 단순 인프라 운영을 넘어 AI 모델 개발과 서비스까지 지원할 수 있는 수준의 역량이 요구된다는 점에서 기업 부담이 추가로 커졌다는 평가가 나온다.설계 부담도 적지 않을 것으로 보인다. 특히 차세대 GPU인 베라루빈을 적용할 경우 클러스터 구성 단위와 성능 기준이 명확히 정해져 있지 않아 기업이 직접 제조사와 협의를 통해 구성 방안을 검토해야 하는 상황이다. GPU 종류별로 클러스터 구조와 성능 산정 방식이 달라질 수 있는 만큼, 제안 단계에서부터 기술적 검증과 설계 부담이 기업에 상당 부분 전가됐다는 평가가 나온다. 이번 설명회에는 네이버클라우드, KT클라우드, NHN클라우드, 카카오엔터프라이즈, SK텔레콤, 삼성SDS 등 주요 클라우드 사업자를 비롯해 메가존클라우드, LG CNS 등 클라우드 서비스 운영 관리 기업(MSP)과 델, 시스코, HPE, 엔비디아 등 글로벌 장비·반도체 기업까지 대거 참석했다. 이 같은 구조를 감안하면 실제 경쟁은 일부 대형 사업자 중심으로 형성될 가능성이 크다. 업계에선 네이버클라우드와 KT클라우드를 유력 후보로 거론하는 가운데 삼성SDS와 SK텔레콤 등도 경쟁군으로 함께 언급했다. NHN클라우드 등은 컨소시엄 형태로 참여할 가능성이 제기된다. 아마존웹서비스(AWS), 마이크로소프트 애저, 구글 클라우드 등 해외 CSP 역시 참여는 가능하지만 국내 데이터센터 기반과 직접 운영·통제 요구 등을 고려할 때 진입 장벽은 여전히 높다는 평가다. 업계 관계자는 "베라루빈 같은 차세대 GPU는 상징적으로 일부 들어갈 수는 있겠지만, 실제 사업은 전력과 냉각, 운영 역량 확보가 더 큰 변수"라며 "SLA까지 포함되면서 기업 부담이 상당히 커진 구조"라고 말했다. NIPA 관계자는 "시장 상황과 공급 여건이 쉽지 않다는 점을 충분히 인지하고 있다"며 "선정 이후 협상 과정에서 일정과 세부 조건은 현실적으로 조정해 나가고, 민간과 협력해 AI 인프라를 빠르게 구축하겠다"고 밝혔다.

2026.03.20 17:02장유미 기자

[AI 고속도로] 정부, 2조원 규모 GPU 확보 첫발…'베라루빈'까지 품는다

정부가 '인공지능(AI) 고속도로' 구축을 위한 그래픽처리장치(GPU) 확보에 속도를 내며 차세대 엔비디아 아키텍처 '베라루빈'까지 포함한 대규모 컴퓨팅 인프라 확충에 나섰다. 약 2조원 규모 예산을 투입해 첨단 GPU를 민관 협력 방식으로 조기 확보하고 국내 AI 산업 경쟁력을 끌어올린다는 목표다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 진행했다. 이날 현장에는 지난해 1차년도 사업에 참여했던 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)를 비롯해 서비스형 GPU(GPUaaS) 사업을 하는 엘리스그룹이 참석했다. 이 외에도 ▲시스템 통합(SI) 기업 삼성SDS·LG CNS·아이티센씨티에스·에스넷시스템 ▲매니지드 서비스 기업(MSP) 메가존클라우드·디딤365 ▲AI 플랫폼 기업 레드햇·클러쉬 ▲서버·스토리지 기업 델 테크놀로지스·HS효성인포메이션시스템·시스코·넷앱·슈퍼마이크로·HPE·IBM ▲칩 벤더인 엔비디아·AMD·인텔이 자리했다. 여기에 마이크로소프트(MS)·구글 클라우드 등 글로벌 CSP와 SK텔레콤, 쿠팡까지 가세하면서 총 60여개 기업, 200여 명이 이번 설명회를 찾았다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 말했다. 이번 사업은 약 2조 805억원 규모 예산이 GPU 서버와 랙·냉각장치·스토리지·네트워크 등 부대장비 구매 비용에 집중 투입된다. 올해 첨단 GPU 구축을 완료하고 연내 서비스 개시를 목표로 한다. 이후 2031년까지 약 68개월간 운영·지원이 이어진다. 사업 추진 방향은 단순한 물량 확대가 아닌 ▲비용 대비 높은 성능 ▲대규모 클러스터링 ▲직접 클러스터링을 통한 기술력 확보 ▲최신 GPU 우선 도입 ▲연내 서비스 개시 등이 핵심이다. 특히 올해 공모에선 차세대 GPU 도입 여부가 주요한 평가 요소로 떠올랐다. 블랙웰급 이상의 최신 GPU를 기본으로 제안하되, 최근 공개된 차세대 하이엔드 GPU인 베라루빈을 제안할 경우 평가에서 우대한다는 설명이다. 이 사업을 통해 확보되는 GPU는 동일 데이터센터, 동일 공간 또는 동일 층에 물리적으로 집적해 클러스터를 구성해야 하는 것이 요건이다. 참여 기업의 전력·냉각·항온항습·초저지연 네트워크 등 인프라 설계 역량도 평가에 반영된다. 최소 256노드(GPU 2048개) 규모 이상의 클러스터 구성이 기본 기준으로 제시됐다. 이번 사업은 국내 기업 중심의 AI 인프라 역량 강화에도 초점이 맞춰졌다. 이 팀장은 "국내 CSP들이 직접 클러스터링과 운영을 수행하면서 기술력을 축적할 수 있도록 하는 것이 중요한 목적"이라며 "우리 기업들의 인프라 구축·운영 역량을 키우는 방향으로 설계됐다"고 강조했다. 사업 참여는 단독뿐 아니라 컨소시엄 형태도 가능하다. 다만 모든 참여 기업이 GPUaaS 운영 실적 등 신청 요건을 충족해야 하며 사전검토와 발표평가, 데이터센터 현장실사를 거쳐 최종 사업자가 선정된다. 복수 사업자 선정도 가능해 CSP·MSP·SI·통신 기업 간 치열한 연합 경쟁이 예상된다. 평가 기준도 구체적으로 제시됐다. 총 100점 만점 기준에서 사업 준비도 및 경쟁력이 50점으로 가장 큰 비중을 차지하며 이 가운데 구축계획 우수성이 32점, 인프라 준비도가 18점으로 구성된다. 여기에 AI 생태계 발전 노력 26점, 사업 이해도 및 추진역량 12점, 운영 역량 및 사업관리 12점이 반영된다. 이 팀장은 "정부 활용 GPU 비중이 높고 산학연 지원 계획이 구체적일수록 높은 평가를 받을 것"이라며 "국내 데이터센터에서 GPU 자원을 직접 운영·통제하는 구조 역시 중요한 평가 요소"라고 밝혔다. 특히 GPU 자원 중 일부는 사업자가 자체 활용할 수 있도록 허용되지만, 해당 비중과 활용 계획 역시 평가에 반영된다. 정부는 국가 AI 프로젝트와 산학연, 스타트업 지원을 우선 고려한다는 방침이다. 이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 담당하게 된다. 동시에 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 현황과 확보 계획, 데이터 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등이 주요 평가 대상에 포함된다. 특히 AI 워크로드를 이해하는 전문 인력과 안정적인 기술지원 체계를 반드시 제시해야 한다는 점도 강조됐다. 단순 인프라 운영을 넘어 실질적인 AI 모델 개발과 서비스까지 지원할 수 있는 수준이 요구된다. 정부는 이번 사업을 통해 확보한 GPU를 국가 AI 프로젝트와 연구개발, 산업 현장에 폭넓게 공급하며 국내 AI 생태계 전반의 경쟁력을 끌어올린다는 계획이다. 원상호 NIPA AI인프라본부장은 "민간과 협력해 국내 AI 산업 생태계가 체감할 수 있는 첨단 활용 기반을 마련하는 것이 중요하다"며 "글로벌 AI 경쟁 기반을 넓히고 우리 산업의 경쟁력을 한 단계 끌어올리는 계기가 될 것"이라고 강조했다.

2026.03.20 16:55한정호 기자

한미마이크로닉스, AI 환경 겨냥 PC·서버 솔루션 공개

한미마이크로닉스가 20일 오전 서울 여의도 콘래드호텔에서 '2026 신제품 발표회'를 열고 올해 시장에 투입할 고용량 전원공급장치 등 신제품을 공개했다. GPU 중심 컴퓨팅 환경이 빠르게 확산되는 가운데, 안정적인 전력 공급과 효율적인 열 관리 기술이 시장 경쟁력의 핵심 요소로 부상하고 있다. 이날 한미마이크로닉스는 전원, 쿨링, 케이스를 아우르는 AI 대응 하드웨어 생태계 구축을 위한 각종 전략 제품과 기술을 소개했다. 한미마이크로닉스는 "AI와 데이터센터 수요 확대에 따라 안정적인 전원공급과 냉각 기술의 중요성이 더욱 커지고 있다"며 "차세대 컴퓨팅 환경의 표준을 지속적으로 제시해 나갈 것"이라고 밝혔다. PC GPU 안정적인 작동 돕는 'GPU-AI' 기술 공개 이날 한미마이크로닉스가 공개한 'GPU-AI' 기술은 콘텐츠 제작과 게이밍 PC, AI 워크스테이션의 GPU를 안정적으로 구동할 수 있도록 돕는다. GPU-AI 기술은 GPU 고성능 작동으로 전압이 출렁이는 현상을 최소화했다. 한미마이크로닉스 기존 제품에 투입되던 GPU-VR 기술이 전압 강하 현상을 감지하는 데 걸리던 시간을 단축한다. 한미마이크로닉스 관계자는 "GPU-AI 기술을 통해 고가 GPU 수명 단축이나 연산 속도 하락, 프레임 드롭, 렌더링 오류 등을 최소화할 수 있다"고 설명했다. 이어 "GPU-AI 기술은 출시를 앞둔 전원공급장치 신제품 '아스트로 P2 GPU-AI'에 최초 적용 예정"이라고 설명했다. 그레이트월과 협력해 국내 서버·인프라 시장 공략 한미마이크로닉스는 올해부터 글로벌 전원 솔루션 기업인 그레이트월과 협력해 최대 3600W급 CRPS 전원과 함께 AI 인프라용 초고출력 전원 시스템을 국내 도입·판매 예정이다. 달트리 린 그레이트월 국제사업부 총괄은 "38년 이상 전원공급장치 설계·제조 경험을 살려 서버용 CRPS 전원(550W~3600W)과 33kW급 GB300 1U 파워 셸프 등 제품을 한국 시장에 공급할 예정"이라고 밝혔다. 이어 "한미마이크로닉스와 협력해 국내 B2B 생태계 진입과 함께 AI·데이터센터 성장에 맞춰 국내 산업의 디지털 전환을 지원하겠다"고 설명했다. 냉각 효율 강화한 PC 케이스 신제품 공개 PC 케이스 분야에서도 AI 및 고성능 GPU 환경에 최적화된 신제품이 대거 공개됐다. '릿지(RIDGE)' 케이스는 대면적 메쉬 구조와 슬림 베젤 디자인을 결합해 공기 흐름과 디자인을 동시에 강화했고 최대 12~13개의 팬 구성이 가능해 고성능 하드웨어의 안정적인 냉각을 지원한다. 빅타워 케이스 '위즈맥스 ML-420 뷰 에어로'는 하단에서 그래픽카드로 직접 공기를 공급하는 에어 덕트 설계를 적용해 GPU 냉각 효율을 높였다. 자체 개발 일체형 PC '위즈맥스 올인원'도 공개 한미마이크로닉스는 이날 자체 개발중인 일체형 PC '위즈맥스 올인원 32인치'도 공개했다. 기존 일체형 PC의 한계로 지적되는 냉각 성능과 업그레이드 불가능 등을 개선하기 위해 메인보드를 포함한 핵심 부품을 일반 데스크톱 규격으로 탑재한다. 최대 3팬급 하이엔드 그래픽카드 장착이 가능하며, 32인치 QHD(2K)·180Hz·HDR 디스플레이를 적용해 게이밍 환경에 최적화했다. 여기에 AI 카메라와 스피커를 기본 탑재해 화상회의 및 스트리밍 등 멀티미디어 활용성도 강화했다. 한미마이크로닉스 관계자는 "위즈맥스 올인원 32인치는 고성능 게이밍 PC 시장을 겨냥한 제품으로 공급가는 최소 300만원 이상으로 책정될 것"이라고 설명했다. 이어 "제품 개발은 거의 완료된 상황이지만 최근 D램과 SSD 등 메모리 반도체 시장 상황을 고려해 출시 시기를 조율중"이라고 밝혔다.

2026.03.20 15:50권봉석 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[유미's 픽] AI가 들러리인가…하정우·임문영 두 축 선거판으로

오락가락 트럼프, 호르무즈 '프로젝트 프리덤' 일시 중단

기계체조하는 아틀라스 첫 공개..."사람보다 유연해"

'어닝쇼크' 쿠팡, 회복 자신..."물류·공급망 투자 지속"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.