• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (322건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

다양한 GPU 한 곳에서 비교…디딤365, AI 인프라 허브 '디딤GPU' 출시

디딤365가 다양한 그래픽처리장치(GPU) 자원을 통합 관리하는 플랫폼을 앞세워 인공지능(AI) 인프라 구축·운영 시장 공략에 나선다. 단순 GPU 인프라 공급을 넘어 설계·최적화·운영까지 지원하는 매니지드 서비스(MSP) 역량을 기반으로 기업 AI 전환(AX)을 지원한다는 목표다. 디딤365는 최적화된 AI 인프라 수립과 효율적인 리소스 관리를 지원하는 '디딤GPU 통합 허브 서비스'를 공식 출시했다고 9일 밝혔다. 최근 생성형 AI 경쟁이 본격화되면서 고성능 GPU 자원 확보는 기업의 핵심 경쟁력으로 부상하고 있다. 그러나 기업들은 서비스형 GPU(GPUaaS) 공급사마다 다른 기술 규격과 과금 체계를 개별적으로 비교해야 하는 부담을 겪고 있으며 이 과정에서 인프라 파편화와 운영 복잡성이 AI 도입의 장애 요인으로 지적돼 왔다. 디딤365가 이번에 선보인 디딤GPU는 국내외 GPUaaS 리소스를 통합한 멀티 GPU 허브 서비스다. 기업이 단일 창구에서 KT클라우드·네이버클라우드플랫폼·NHN클라우드·아마존웹서비스(AWS) 등 다양한 인프라의 성능·비용을 비교하고 바로 도입할 수 있도록 돕는다. 서비스는 엔비디아 B200·H200·H100 등 최신 하이엔드 GPU 라인업을 확보해 초거대 AI 모델 구축을 추진하는 기업 수요를 겨냥했다. 동시에 데이터 분석, 딥러닝 학습과 추론, 영상 처리, 3D 렌더링 등 고부하 워크로드에 최적화된 범용 GPU 환경도 제공한다. 기업별 비즈니스 목적에 맞춘 인프라 설계와 탄력적인 운영 환경을 지원한다는 목표다. 디딤365는 단순 자원 중개를 넘어 고객 비즈니스 모델에 맞춘 하드웨어(HW) 제안과 운영을 포함한 AX 전문 매니지드 서비스도 전면에 내세웠다. 20년 이상 축적된 MSP 경험을 바탕으로 ▲AI 워크로드 맞춤형 아키텍처 설계 ▲성능 테스트(BMT) 지원 ▲GPU 최적화 컨설팅 및 운영 지원 등을 통합 제공한다. 또 디딤GPU 이용 고객에게는 멀티·하이브리드 클라우드 환경에서도 일관된 운영체계를 유지할 수 있는 통합 대시보드가 제공된다. 분산된 GPU 자원의 실시간 가동률과 비용을 단일 인터페이스에서 관리할 수 있으며 인프라 관리 부담을 줄이고 AI 모델 개발과 고도화에 집중할 수 있도록 한다. 주요 공략층은 거대언어모델(LLM) 개발·파인튜닝을 수행하는 AI·머신러닝 기업, 복잡한 수치 계산과 시뮬레이션을 수행하는 연구기관, 고성능 3D 렌더링과 영상 편집 인프라가 필요한 콘텐츠 제작사, 대규모 데이터 분석 기업 등이다. 디딤365는 이번 서비스 출시를 계기로 GPU 기반 AI 인프라 시장 공략을 강화하고 중장기 성장 전략도 본격화한다는 방침이다. 회사는 디딤GPU 사업을 통해 매출 성장 동력을 확보하고 2027년 기업공개(IPO)를 목표로 사업 확대에 속도를 낼 계획이다. 이를 위해 최근 기업부설연구소를 부문급 조직으로 격상하는 등 AX 기술 내재화와 연구개발(R&D) 역량 강화 중심의 조직 개편도 단행했다. 장민호 디딤365 대표는 "디딤GPU는 단순한 GPU 자원 공급을 넘어 기업의 복잡한 인프라 현안을 관통하는 지능형 컨트롤 타워 역할을 수행할 것"이라며 "디지털서비스 전문계약제도 최대 계약을 달성한 국내 1위 클라우드 MSP로서 축적한 압도적 노하우를 GPU 시장에 이식하겠다"고 밝혔다. 이어 "고객사가 가장 신속하고 효율적으로 AX 비전을 실현할 수 있도록 차별화된 AX 전문 매니지드 서비스 역량을 결집하겠다"고 강조했다.

2026.03.09 18:12한정호 기자

[알파고 10년 ③] AI 3강 노리는 한국…인프라·인재가 '승부처'

지난 2016년 3월, 이세돌 9단과 인공지능 알파고의 대국은 한국 사회에 인공지능(AI) 시대의 도래를 강렬하게 각인시킨 사건이었다. 인간의 창의성과 직관의 영역으로 여겨졌던 바둑에서 AI가 승리하는 장면은 기술 발전이 산업과 사회 전반을 어떻게 변화시킬 수 있는지를 상징적으로 보여줬다.알파고 대국 이후 10년이 흐른 지금, AI는 단순한 기술을 넘어 국가 경쟁력의 핵심 축으로 자리 잡았다. 생성형 AI 확산과 함께 미국과 중국을 중심으로 글로벌 AI 패권 경쟁이 본격화됐고, 컴퓨팅 인프라와 데이터, 반도체, 인재를 둘러싼 경쟁 역시 한층 치열해지고 있다. 한국 역시 'AI 3대 강국' 도약을 목표로 정책과 산업 전략을 정비하며 새로운 도전에 나선 상황이다.지디넷코리아는 이번 3편의 기획 기사를 통해 '알파고 쇼크' 이후 10년간 한국 AI 산업이 걸어온 흐름을 되짚어보고, 글로벌 AI 경쟁 구도 속에서 한국이 마주한 기회와 과제를 살펴본다.첫 번째 기사에서는 알파고 이후 국내 AI 산업이 겪었던 시행착오와 구조적 한계를 돌아보고, 두 번째 기사에서는 정부가 추진 중인 AI 정책과 국가 전략을 짚는다. 세 번째 기사에서는 미·중을 중심으로 전개되는 글로벌 AI 패권 경쟁 속에서 한국의 경쟁력과 향후 과제를 분석한다. [편집자 주] 바둑판 위에서 시작된 AI 기술 경쟁은 10년이 지난 지금 국가 경쟁력의 핵심 축으로 확대됐다. 생성형 AI 확산 이후 AI 경쟁은 국가 전략 차원으로 격상됐고 미국과 중국을 중심으로 패권 경쟁이 본격화되고 있다. 한국 역시 'AI 3대 강국' 도약을 목표로 인프라와 기술, 인재 확보에 속도를 내며 새로운 10년을 준비하고 있다. 정부는 AI 경쟁력을 국가 핵심 성장 동력으로 규정하고 범정부 차원의 정책을 추진하고 있다. 최근 국가AI전략위원회는 '대한민국 AI 행동계획'을 확정하며 향후 3년간 추진할 AI 정책 로드맵을 제시했다. 이 계획은 총 99개 실행 과제를 담고 있으며 AI 컴퓨팅 인프라 확충, 데이터 생태계 구축, 핵심 인재 확보 등을 중심으로 국가 AI 경쟁력을 강화하는 데 초점을 맞췄다. 정부는 이러한 정책을 통해 한국을 글로벌 AI 3대 강국으로 도약시키겠다는 목표다. AI 경쟁에서 중요한 요소로는 컴퓨팅 인프라가 꼽힌다. 초거대 AI 모델을 개발하고 서비스하기 위해선 대규모 GPU와 데이터센터, 고속 네트워크 등 막대한 연산 환경이 필요하기 때문이다. 정부는 이러한 인프라 확보를 위해 '국가AI컴퓨팅센터' 구축과 GPU 확충 사업 등을 지난해부터 추진하며 국가 차원의 AI 연산 자원을 확대 중이다. 대한민국 AI 행동계획에서도 GPU와 국산 신경망처리장치(NPU) 등 핵심 AI 컴퓨팅 자원을 국가 전략 인프라로 규정하고 대규모 확보 계획을 제시했다. 정부는 2030년까지 최소 5만 장 이상의 GPU를 단계적으로 확보하고 국산 NPU 도입도 확대해 AI 컴퓨팅 인프라의 자립도를 높이겠다는 목표를 세웠다. 특히 국산 AI 반도체 생태계 활성화를 목표로 관련 연구개발(R&D)과 실증 사업을 추진 중이다. 동시에 공공과 민간이 협력해 국내 클라우드 기반 AI 인프라를 구축하는 'K-클라우드 프로젝트'도 진행되고 있다. 국산 AI 반도체와 국내 클라우드 인프라를 결합해 AI 서비스 환경을 구축하고 데이터 주권과 기술 자립을 강화한다는 목표다. 국가 AI 모델 경쟁력 확보를 위한 프로젝트도 추진 중이다. 과학기술정보통신부는 '독자 AI 파운데이션 모델 프로젝트'를 통해 글로벌 수준의 초거대 AI 모델을 확보하는 사업을 진행하고 있다. LG AI연구원, SK텔레콤, 업스테이지, 모티프테크놀로지스 등 국내 기업과 연구기관이 컨소시엄을 이뤄 글로벌 선도 모델에 필적할 독자 아키텍처 기반 AI 모델을 개발하고 있으며 단계 평가를 거쳐 최종 정예팀 2곳을 선발할 예정이다. 글로벌 시장에선 이미 빅테크를 중심으로 AI 패권 경쟁이 치열하게 전개되고 있다. 미국은 오픈AI·구글·메타·앤트로픽 등이 초거대 모델과 AI 인프라 생태계를 주도하고 있으며 중국 역시 바이두·알리바바·딥시크 등 기업을 중심으로 AI 모델 개발과 산업 적용을 빠르게 확대 중이다. 현재 AI 경쟁은 텍스트 중심의 거대언어모델(LLM) 기술 개발을 넘어 산업 전반으로 확산되고 있다. 생성형 AI 이후 차세대 경쟁 무대로 주목받는 분야는 '피지컬 AI'다. 피지컬 AI는 로봇과 자율주행, 산업 자동화 등 현실 세계에서 AI가 직접 행동하는 기술이다. 글로벌 기술 패권 경쟁 역시 텍스트와 이미지 생성 중심에서 물리 환경을 인식하고 행동하는 AI로 빠르게 이동하고 있다. 미국과 중국은 이미 피지컬 AI를 국가 전략 차원에서 추진 중이다. 미국은 빅테크 중심의 소프트웨어(SW)와 플랫폼 결합 전략을 기반으로 로봇 행동 모델과 시뮬레이션 기술을 발전시키고 있으며 중국은 제조 기반을 활용해 로봇과 자율 시스템을 산업 현장에 빠르게 적용하는 전략을 펼치고 있다. 한국 역시 이 분야에서 새로운 기회를 모색하고 있다. 정부는 대한민국 AI 행동계획에서 피지컬 AI와 휴머노이드 로봇을 차세대 전략 기술로 지정했다. 월드모델과 로봇 파운데이션 모델 등 핵심 기술 확보를 추진할 방침이다. 한국이 강점을 지닌 제조와 모빌리티 산업 기반을 활용해 산업 현장에서 축적되는 데이터를 기반으로 피지컬 AI 경쟁력을 확보한다는 전략이다. AI 경쟁의 또 다른 핵심은 인재다. 정부는 AI 인재 확보를 위해 교육과 연구, 산업 전반에서 다양한 정책을 추진하고 있다. 대표적으로 올해 AI 대학원 지원사업과 AI 중심대학 사업을 통해 석·박사급 AI 연구 인력 양성에 나섰다. 산업 현장의 AI 활용 역량을 높이기 위한 K-디지털 트레이닝(KDT) 등 인력 양성 프로그램도 확대한다. 또 초·중·고 교육 과정에서도 AI 교육을 강화하고 대학과 연구기관을 중심으로 글로벌 수준의 연구 인재를 확보하는 정책을 추진한다. 해외 인재 유치를 위한 제도 개선과 연구 환경 지원도 병행해 AI 인재 경쟁력을 높이겠다는 계획이다. 최근 국내 AI 산업 생태계는 빠르게 성장하고 있다. 과학기술정보통신부와 소프트웨어정책연구소가 실시하는 '인공지능산업 실태조사'에 따르면 국내 AI 관련 기업 수는 2020년 933개에서 2024년 2517개로 약 2.7배 증가했다. 같은 기간 AI 산업 종사자 수도 20만여 명에서 50만 명 이상으로 늘어났으며 AI 관련 매출 역시 크게 확대된 것으로 나타났다. 다만 글로벌 경쟁 속에서 한국이 넘어야 할 과제도 적지 않다. 미국과 중국은 초거대 AI 모델과 컴퓨팅 인프라에 막대한 투자를 이어가며 AI 패권 경쟁을 주도하고 있다. 이같은 상황에서 한국이 기술 격차를 좁히기 위해선 지속적인 투자와 정책 실행력이 필요하다는 지적이 나온다. 업계에선 AI 경쟁의 승부처가 인프라와 인재 확보에 달려 있다고 강조한다. 알파고 대국이 AI 가능성을 보여준 사건이었다면, 앞으로의 10년은 국가 경쟁력으로서 AI 성패가 판가름 나는 시기가 될 전망이다. 컴퓨팅 인프라와 반도체, 데이터, 인재를 둘러싼 경쟁이 본격화되는 가운데 한국이 AI 3대 강국으로 도약할 수 있을지 주목된다. 임문영 국가AI전략위원회 부위원장은 지난달 25일 위원회 제2차 전체회의에서 "정부와 민간이 똘똘 뭉쳐 하나의 목표를 만들어간다면 분명한 성과를 보여줄 수 있을 것"이라며 "이제는 계획을 넘어 행동으로 옮겨야 할 시점"이라고 강조했다. 배경훈 부총리는 "정부 출범 이후 AI전략위를 중심으로 민관이 함께 총력을 다한 결과 우리나라도 AI 3강의 토대를 만들었다"며 "이젠 국민이 체감할 수 있는 과제를 구체화하고 속도감 있게 이행해야하는 시기인 만큼 모든 부처가 본격적인 성과 창출을 위해 협력할 것"이라고 밝혔다.

2026.03.09 17:20한정호 기자

엔비디아가 찜한 투게더 AI, 기업가치 1년 새 2.5배 껑충…10억 달러 투자 추진

인공지능(AI) 클라우드 스타트업 투게더 AI(Together AI)가 약 75억 달러(약 10조원) 기업가치를 기준으로 신규 투자 유치를 추진하고 있는 것으로 전해졌다. 6일 디인포메이션에 따르면 투게더 AI는 약 10억 달러 규모의 신규 투자 라운드를 논의 중이다. 투자 유치가 성사될 경우 기업가치는 약 75억 달러 수준으로 평가될 전망이다. 투게더 AI는 엔비디아 그래픽처리장치(GPU) 기반 AI 클라우드 인프라를 제공하는 스타트업으로, 기업과 개발자들이 대규모 AI 모델을 학습하거나 추론 작업을 수행할 수 있는 컴퓨팅 환경을 제공한다. 특히 메타의 라마 등 오픈소스 대형언어모델(LLM)을 운영할 수 있는 플랫폼을 지원하는 것이 특징이다. AI 산업이 급성장하면서 대규모 GPU 컴퓨팅 인프라에 대한 수요도 빠르게 늘어나고 있다. 이에 따라 투게더 AI를 비롯해 코어위브, 람다 등 AI 전용 클라우드 인프라 기업들이 빠르게 성장하는 추세다. 투게더 AI의 기업가치는 최근 몇 년 사이 급격히 상승했다. 이 회사는 2024년 약 12억 달러 수준에서 평가됐으나 이후 투자 유치 과정에서 30억 달러 이상으로 올라섰다. 이번 투자 논의에서는 75억 달러까지 확대될 가능성이 제기되고 있다. 업계에선 투게더 AI를 단순한 GPU 인프라 제공 기업이 아니라 AI 추론 소프트웨어와 클라우드 인프라를 결합한 사업 모델을 구축한 기업으로 평가하고 있다. 특히 엔비디아가 투자한 AI 인프라 스타트업이라는 점도 시장에서 긍정적인 요인으로 작용하고 있다는 분석이다. 일각에선 이번 투자 라운드가 기업가치를 크게 끌어올리는 후기 단계 투자라는 점에서 향후 기업공개(IPO)로 이어질 가능성에도 주목하고 있다. 또 이번 투자 유치가 성사될 경우 투게더 AI가 향후 상장을 준비하는 과정에서 중요한 전환점이 될 수 있다는 관측도 나온다. AI 인프라 시장이 빠르게 확대되면서 투게더 AI 같은 관련 기업들의 가치도 상승하는 분위기다. 특히 생성형 AI 확산으로 고성능 GPU 수요가 급증하면서 AI 인프라 기업들의 역할도 더욱 커질 것으로 예상된다. 업계 관계자는 "AI 모델 개발 경쟁이 치열해지면서 이를 뒷받침하는 GPU 기반 클라우드 인프라에 대한 수요도 급증하고 있다"며 "AI 인프라 기업들이 향후 AI 생태계에서 핵심 역할을 맡게 될 것"이라고 전망했다.

2026.03.06 15:43장유미 기자

유럽·중동·아프리카까지…래블업, 글로벌 AI 인프라 입지 '확대'

래블업이 이달 초 싱가포르와 스페인 바르셀로나에서 해외 기업과의 협업 소식을 연이어 전하며 전 세계 인공지능(AI) 인프라 시장 영향력을 넓히고 있다. 작년 미국 산호세 법인 설립 이후 아시아·북미에 이어 유럽·중동·아프리카(EMEA)에 이르는 '백엔드닷에이아이(Backend.AI)' 유통망을 완성한 모습이다. 6일 정보기술(IT) 업계에 따르면 래블업은 지난 2일(현지시간) 싱가포르에서 열린 '한·싱 인공지능(AI) 커넥트 서밋'과 스페인 바르셀로나에서 열린 'MWC26'에서 각각 전략적 업무협약(MOU) 및 파트너십을 맺었다. 래블업은 이재명 대통령의 싱가포르 국빈 방문 중 열린 '한·싱 AI 커넥트 서밋'에 정부 측 초청으로 참석했다. 이날 행사를 계기로 한·싱 AI얼라이언스' 구축과 함께 양국 기업·기관 간 AI 분야 공동연구와 산업협력을 위한 총 7건의 MOU도 체결됐다. 한국 참여사 중 AI 인프라 기업으로 분류되는 곳은 래블업이 유일하다. 우선 래블업은 싱가포르의 IT 솔루션 전문 기업인 PTC 시스템과 AI 및 고성능 컴퓨팅(HPC) 인프라 분야의 전략적 협력을 약속했다. 양사는 ▲그래픽처리장치(GPU) 오케스트레이션 및 플랫폼 솔루션 배포 ▲공공 및 기업용 AI 프로젝트 기술검증(PoC) 및 전면 상용화 ▲AI 인재 개발 및 생태계 구축 등에서 협력할 계획이다. 래블업은 싱가포르의 노벨 엔지니어링(Knovel Engineering)과도 손을 잡았다. 노벨 엔지니어링은 응용 AI 시스템 설계와 프로덕션 배포 분야에서 검증된 역량을 보유한 기업이다. 래블업은 Backend.AI가 가진 자원 관리 기술과 노벨 엔지니어링의 시스템 설계 노하우를 결합해 양국 기업들의 대규모 AI 도입을 지원할 예정이다. AI 모델이 실험 단계에서 생산 단계로 전환될 때 발생하는 운영상의 마찰을 줄이고 안정성을 강화하는 것이 양사 협력 골자다. 신정규 래블업 대표는 싱가포르 기업 협력 성과에 대해 "아시아에서 가장 역동적인 두 혁신 생태계를 연결하는 차세대 AI 인프라를 발전시키게 돼 기쁘다"고 말했다. 유럽 시장 공략도 본격화된다. 래블업은 같은 날 MWC26 현장에서 영국 HPC 전문 기업 보스턴 리미티드(Boston Limited)와 EMEA 지역 유통 및 판매를 위한 전략적 파트너십을 체결했다. 보스턴 리미티드는 30년 이상의 업력을 바탕으로 유럽 전역의 연구기관과 공공 부문에 맞춤형 고성능 컴퓨팅 솔루션을 공급해 온 글로벌 기업이다. 이번 협약에 따라 보스턴 리미티드는 EMEA 지역에서 Backend.AI 클라우드 서비스(SaaS)와 온프레미스 소프트웨어 라이선스를 판매하며 현지 고객을 위한 설치·구성·자문 등 전문 서비스를 제공한다. 래블업이 개발한 Backend.AI는 엔비디아(NVIDIA), AMD, 인텔(Intel) 및 국산 신경망처리장치(NPU) 등 서로 다른 종류의 AI 반도체를 단일 플랫폼에서 통합 관리하는 소프트웨어 정의 AI 인프라 플랫폼이다. 컨테이너 수준의 GPU 분할 가상화 기술과 자체 개발한 소코반(Sokovan) 오케스트레이터를 통해 엔터프라이즈 환경에서의 AI 도입 비용과 운영 복잡성을 낮췄다. 지금까지 전 세계 110여 개 지역에서 1만 6000대 이상의 GPU를 관리하고 있다. 신 대표는 "그동안 우리는 기업용 AI의 핵심 과제인 대규모 GPU 자원을 안전하고 효율적으로 조율하는 기술력에 집중해 왔다"며 "아시아를 넘어 유럽·중동·아프리카 시장에서도 엣지부터 데이터센터, 하이브리드 클라우드까지 아우르는 인프라를 제공해 전 세계 기업들이 'AI 준비' 단계를 넘어 '실제 배포 및 성과 창출'로 나아가는 간극을 메울 글로벌 파트너가 되겠다"고 강조했다.

2026.03.06 15:03이나연 기자

"美 정부, AI 반도체 수출 통제 강화 검토"

미국 정부가 인공지능(AI) 반도체 수출 통제 강화를 검토중이다. 대규모 데이터센터 구축에 필수적인 GPU 공급을 통제헤 글로벌 AI 인프라 구축을 통제하겠다는 의도가 있다. 5일(현지시간) 로이터통신과 액시오스 등 현지 언론에 따르면, 미국 정부는 미국 기업이 설계한 고성능 AI 반도체 해외 판매를 강화하는 새로운 규제 체계를 검토하고 있다. 보도에 따르면 미국 정부는 해외 기업이나 국가가 AI 반도체를 대량 구매할 경우 정부 허가를 요구할 예정이다. 특히 일정 규모 이상 GPU를 구매할 경우 미국 정부와 협력 등 추가 조건을 요구하는 방안도 거론된다. 새로운 규제 대상에는 AI 처리를 위한 GPU 시장을 양분하고 있는 엔비디아와 AMD가 포함될 가능성이 크다. 미국 정부는 현재 중국 등 일부 국가에만 AI 반도체 수출을 제한했다. 그러나 새 규제는 이런 통제를 전 세계로 확대하려는 의도를 담고 있다. AI 데이터센터를 구축하려는 기업이나 국가가 미국 정부의 관계에 따라 GPU 확보에 실패할 가능성도 생긴다. 액시오스는 "새 규제는 현제 미국 정부 내부 검토 단계이며 구체적인 시행 시기나 최종 규정은 확정되지 않았다"고 설명했다.

2026.03.06 09:48권봉석 기자

중동 전쟁에 LNG 운임 상승…AI 데이터센터 업계 '전력비 변수' 주시

중동 전쟁 여파로 액화천연가스(LNG) 운임이 상승하면서 전력비 부담 가능성이 제기되는 가운데, 전력 소비가 큰 인공지능(AI) 데이터센터 업계가 상황을 예의주시하고 있다. 당장 운영 차질은 없지만 전력 가격 변동이 장기화될 경우 데이터센터 운영 비용에 영향을 줄 수 있다는 관측이 나온다. 5일 업계에 따르면 최근 중동 정세 불안으로 LNG 운임이 상승하면서 전력 시장에도 변수로 작용할 가능성이 제기되고 있다. AI 데이터센터는 일반 서버보다 훨씬 많은 전력을 소비하는 구조로 전력 가격 변동에 민감하기 때문이다. 실제 세계 최대 LNG 거점 중 하나인 카타르 라스라판 가동 중단 여파로 LNG선 단기 운임은 약 20% 상승한 것으로 알려졌다. 가스 도입 가격이 오르면 국내 전력 도매가격(SMP) 상승으로 이어질 수 있어 전기요금 인상 압박 요인이 될 수 있다는 분석이다. 여기에 중동 전쟁으로 주요 에너지 운송로인 호르무즈 해협을 둘러싼 긴장까지 높아지면서 LNG 운송 비용 변동성도 확대되는 분위기다. 업계에선 이러한 에너지 가격 상승 압력이 장기화될 경우 전력 소비가 많은 AI 데이터센터 운영 비용에도 영향을 줄 수 있다고 보고 있다. AI 데이터센터는 대규모 그래픽처리장치(GPU)와 고성능 서버를 운영해야 하는 만큼 일반 데이터센터보다 전력 소비가 많은 구조다. 다만 현재까지 국내 데이터센터 운영에는 직접적인 영향이 나타나지 않은 상황이다. 주요 통신사와 클라우드 기업들은 서비스 가용성에는 문제가 없으며 상황을 주시하고 있다는 입장이다. 최근 중동 지역에선 클라우드 인프라가 실제 군사 충돌의 영향을 받을 수 있다는 사례도 나오고 있다. 아마존웹서비스(AWS)의 중동 데이터센터가 드론 공격을 받아 일부 서비스 장애가 발생하면서 지정학적 리스크가 디지털 인프라로 확산될 수 있다는 우려가 제기되고 있다. 이에 국내 클라우드 기업들도 중동 사업 리스크 점검에 나선 모습이다. 중동은 최근 AI 인프라와 초대형 데이터센터 투자가 집중되는 지역으로, 지정학적 긴장이 장기화될 경우 일부 IT 인프라 프로젝트 일정에도 변수로 작용할 수 있다는 분석이 나온다. 대표적으로 중동 시장 공략에 나서고 있는 네이버클라우드는 현재 중동 프로젝트 운영에 차질이 없다는 입장이다. 네이버는 사우디아라비아를 중심으로 디지털 트윈과 AI·클라우드 사업을 추진하며 중동을 글로벌 전략 거점 중 하나로 육성 중이다. 회사 측은 중동 지역에 자체 데이터센터 시설을 직접 운영하고 있지는 않으며 현지에는 사무공간 중심 거점만 두고 있어 전쟁의 직접적 영향은 받지 않고 있다. 사우디 아람코 디지털과 협력 중인 메가존클라우드 역시 사업 운영에는 큰 영향이 없다는 입장이다. 앞서 메가존클라우드는 현지 클라우드 및 디지털 전환 사업을 추진하는 등 중동 시장 진출을 확대해 왔다. 현재까지 국내 클라우드 기업들의 데이터센터 운영 및 해외 거점에 대한 직접적인 영향은 확인되지 않고 있다. 다만 에너지 가격 상승이 장기화될 경우 데이터센터 산업 전반의 비용 구조에 영향을 줄 가능성은 배제할 수 없다는 시각도 나온다. 공공과 민간 모두에서 고성능 GPU 중심의 AI 인프라 수요가 빠르게 늘면서 전력 비용이 데이터센터 운영의 핵심 변수로 떠오르고 있어서다. 데이터센터 업계 관계자는 "현재까지 국내 AI 데이터센터 운영에 직접적인 영향은 없지만 LNG 가격 상승이 장기화될 경우 전기요금 상승으로 이어질 가능성이 있는 만큼 상황을 예의주시하고 있다"고 말했다.

2026.03.05 17:41한정호 기자

LG CNS, 그룹 기술 결집한 소형 데이터센터 'AI 박스' 공개…글로벌 공략

LG CNS가 LG그룹 계열사와 기술력을 결집한 컨테이너형 인공지능(AI) 데이터센터 'AI 박스'를 선보이며 글로벌 AI 인프라 시장 공략에 나선다. LG CNS는 컨테이너 하나에 그래픽처리장치(GPU) 576장을 수용할 수 있는 AI 박스를 출시했다고 5일 밝혔다. AI 박스는 별도의 건물을 신축하지 않고 컨테이너형 모듈을 연결하는 방식으로 구축되는 소형 AI 데이터센터다. 전통적인 데이터센터 구축에 약 2년이 걸리는 것과 달리 약 6개월 만에 구축이 가능해 AI 인프라 수요에 빠르게 대응할 수 있다는 점이 특징이다. 모듈형 구조를 적용해 확장성도 확보했다. 단일 컨테이너 단위로 운영할 수 있을 뿐 아니라 수십 개의 컨테이너를 단계적으로 결합해 하이퍼스케일급 AI 데이터센터로 확장할 수 있다. 고객은 초기 투자 부담을 줄이면서도 필요에 따라 인프라 규모를 유연하게 확대할 수 있다는 설명이다. AI 박스는 LG CNS의 데이터센터 설계·구축·운영(DBO) 역량과 LG 계열사의 기술력을 결합한 '원(One) LG' 기반 AI 데이터센터 모델이다. LG CNS는 약 40년간 축적한 데이터센터 설계·구축·운영 경험을 바탕으로 AI 플랫폼과 전력·냉각 인프라, IT 장비를 통합 설계했다. 특히 LG전자의 냉각수 분배 장치(CDU)와 항온항습기, 냉동기 등 냉각 설비와 LG에너지솔루션의 UPS용 배터리를 패키지 형태로 적용해 고전력·고밀도 AI 환경에 최적화된 전력·냉각 인프라를 구현했다. AI 박스는 전력 인프라를 담당하는 무정전전원장치(UPS)·변압기·수배전반 등 전기실과 IT 장비 운영 공간인 전산실로 구성된다. 외부에는 발전기와 배터리실, 냉동기를 갖춰 안정적인 전력 공급과 효율적인 열 관리를 지원한다. AI 박스 1개당 서버 전력은 1.2메가와트(MW) 규모로 최대 576장의 GPU를 수용할 수 있다. AI 데이터센터 수요가 빠르게 증가하는 상황에서 AI 박스는 구축 기간과 인프라 확보 문제를 해결할 수 있는 대안으로 주목받고 있다. 기존 대형 데이터센터는 부지 확보와 인허가, 전력·냉각 설계 등에 시간이 오래 걸려 급증하는 AI 인프라 수요에 신속히 대응하기 어려웠다는 한계가 있었다. LG CNS는 첫 번째 AI 박스를 부산 글로벌 클라우드 데이터센터 부지에 구축할 계획이다. 향후 약 2만 7179㎡(약 8221평) 부지에 약 50개의 AI 박스를 집적한 대규모 'AI 박스 캠퍼스'를 조성해 국내 AI 인프라 수요에 대응할 방침이다. 시장조사업체 포춘 비즈니스 인사이트에 따르면 글로벌 AI 데이터센터 시장 규모는 2030년까지 약 700조원 규모로 성장할 전망이다. LG CNS는 AI 박스를 통해 설계·구축·운영을 아우르는 데이터센터 DBO 역량을 강화하고 AI 인프라 패키지 사업자로 도약한다는 목표다. 조헌혁 LG CNS 데이터센터사업담당 상무는 "AI 서버부터 전력·냉각·운영까지 통합 제공하는 AI 박스는 데이터센터 사업의 새로운 패러다임을 이끌어 갈 것"이라며 "국내 시장의 성공 사례를 바탕으로 동남아시아, 북미 등 글로벌 시장으로 사업을 확대해 나가겠다"고 말했다.

2026.03.05 10:00한정호 기자

에이수스코리아, AW2026에 엣지 AI 솔루션 출품

에이수스코리아 인프라 솔루션 사업 그룹은 국내 공식 공급사인 피앤티링크와 '2026 스마트공장·자동화산업전(AW2026)'에 엣지 AI 솔루션과 미니 PC를 출품한다고 밝혔다. AW2026은 AI·휴머노이드 기반 자율제조(AX) 산업을 주제로 4일부터 6일까지 서울 삼성동 코엑스에서 진행되며 24개국 500개 기업이 총 2300부스 규모로 참여한다. 에이수스코리아는 행사 기간 중 엔비디아 젯슨 T5000 기반 초소형 엣지 AI 컴퓨터 'PE3000N', 2U 폼팩터에 인텔 코어 울트라 200S 프로세서와 최대 600W GPU를 통합한 랙 단위 AI GPU 시스템 'RUC-1000G'를 전시한다. PE3000N은 컴퓨팅 성능을 전 세대 대비 최대 7.5배, 전력 효율성을 3.5배 높인 엔비디아 젯슨 T5000으로 2070 FP4 TFLOPS 연산 성능을 구현했다. 생성형 VLM/LLM 모델, 실시간 지능형 비디오 분석, 완전 자율 제어 애플리케이션을 엣지에서 실행한다. RUC-1000G는 PCI 익스프레스 5.0 인터페이스로 연결된 GPU로 데이터 전송/처리 속도를 높이는 한편 메인 시스템과 GPU 섀시를 분리하여 관리하는 냉각 시스템을 적용했다. 인텔 코어 울트라 X9 프로세서를 통합한 미니 PC인 NUC 16 프로, 4K AI 이미지 처리가 가능한 MDS M700 등 미니 PC를 포함해 산업용 마더보드, NUC 미니 PC 시리즈 등 산업 환경에 최적화된 하드웨어도 함께 전시된다. 에이수스코리아는 기간 중 참관객 대상으로 각종 행사와 경품을 제공 예정이다.

2026.03.04 12:10권봉석 기자

AMD, 통신 산업 AI 가속 위한 '오픈텔코 AI' 참가

AMD가 2일(현지시간) 스페인 바르셀로나에서 열리는 MWC26 기간에 발맞춰 통신사들의 AI 전환 가속을 위한 '오픈텔코 AI' 이니셔티브에 참여한다고 밝혔다. 오픈텔코 AI는 세계이동통신사업자연합회(GSMA)가 주도하는 글로벌 협력 플랫폼이며 AMD를 포함해 미국 AT&T 등 통신사, AI 클라우드 업체 텐서웨이브 등이 참여한다. GSMA는 통신 특화 AI 연구, 데이터셋, 벤치마크, 도구를 공유하는 포털을 운영하며 이를 통해 AI 모델이 통신 네트워크의 실제 과제를 해결할 수 있도록 협업 기반을 제시한다. 또 거대언어모델(LLM)이 통신사 특화 쿼리 처리 정확도, 통신 분야 지식 처리 능력 등을 평가하는 오픈텔코 LLM 벤치마크를 통해 망 운영자와 개발자들이 모델 성능을 비교·검증할 수 있게 한다. AMD는 인스팅트 GPU와 개방형 AI 프레임워크인 ROCm을 제공해 오픈텔코 AI 모델을 훈련하고 이를 기반으로 통신 네트워크에 특화된 AI 솔루션을 구현하도록 돕는다. AMD는 AI 모델을 상용 서비스로 전환하기 위한 AMD 엔터프라이즈 AI 스위트도 제공한다. 쿠버네티스 기반의 컨테이너 환경에서 모델 서빙, 거버넌스, DevOps/MLOps 통합, 보안과 워크플로우를 통합 지원한다. AMD는 최근 vRAN 등 엣지 환경에 최적화된 에픽 8005 프로세서도 공개했다. 이 프로세서는 소켓당 최대 84개 코어에 달하는 높은 연산 밀도와 전력 효율로 통신 핵심 워크로드를 지원하며, 넓은 온도 범위에서 안정적으로 작동한다. GSMA 보고서에 따르면 생성 AI가 실제 네트워크에 적용된 사례는 16%에 불과했다. AMD는 "통신사가 단순한 AI 실험 단계에서 벗어나 실서비스 운영 환경에 AI를 배포하기 위해서는 단일 모델이나 하드웨어가 아니라, 개방형 생태계, 검증된 소프트웨어 스택, 현장 배치를 고려한 컴퓨팅 인프라 전반이 균형을 이루는 전략이 필요하다"고 밝혔다.

2026.03.02 16:15권봉석 기자

글로벌 AI 투자 몰리는 '네오클라우드'…한국 스타트업도 도전장

생성형 인공지능(AI) 확산과 함께 그래픽처리장치(GPU)를 중심으로 한 '네오클라우드'가 글로벌 인프라 시장의 새로운 축으로 부상하고 있다. 미국과 유럽에서 수십조원대 투자가 이어지는 가운데, 국내 스타트업들도 AI 전용 인프라 시장을 정조준하며 본격적인 경쟁에 뛰어드는 모습이다. 1일 업계에 따르면 네오클라우드는 기존 범용 클라우드와 달리 AI 학습·추론에 최적화된 고성능 GPU 자원을 서비스형(GPUaaS)으로 제공하는 사업 모델을 뜻한다. AI 모델 크기와 연산량이 급증하면서 하이퍼스케일러만으로는 수요를 감당하기 어려워지자 GPU 중심 인프라를 특화해 제공하는 사업자들이 빠르게 성장 중이다. 글로벌 시장에선 코어위브·람다랩스·네비우스 등이 대표적이다. 이들 기업은 엔비디아 GPU를 대규모로 확보해 AI 기업에 맞춤형 연산 자원을 제공하며 몸집을 키우고 있다. 특히 북미 기준 엔비디아 H100 GPU 임대 비용이 하이퍼스케일러 대비 3분의 1 수준에 불과하다는 조사 결과도 나오며 가격 경쟁력도 부각되고 있다. 금융권 자금도 네오클라우드로 몰리고 있다. 미국 주요 금융사는 네오클라우드 기업이 보유한 GPU를 담보로 대규모 대출을 실행하며 인프라 확장을 지원하고 있다. 시장조사기관 ABI리서치는 GPUaaS 기반 네오클라우드 시장이 2030년 약 90조원 규모로 성장할 것으로 내다봤다 . 이같은 흐름 속에 국내 스타트업들도 AI 전용 인프라 사업자로 정체성을 재정립하며 시장 공략에 속도를 내고 있다. 대표 사례가 베슬AI다. 이 회사는 자사 플랫폼 '베슬 클라우드'를 기반으로 AI 워크로드 운영에 특화된 네오클라우드 사업자로 입지를 강화하고 있다 . 베슬AI는 최근 GPU 클라우드 서비스를 공식 출시하고 연내 H200·B200·B300 등 최신 GPU 1만 장 규모 인프라를 구축하겠다는 계획을 밝혔다. 이미 미국·이스라엘·핀란드 등 6개 지역 데이터센터와 계약을 체결했으며 100여 개 기업과 연구기관이 서비스를 이용 중이다. 글로벌 대학과 연구기관 도입도 확대되며 지난해 매출은 전년 대비 3.4배 성장했다. 에너지 효율 측면에서도 차별화를 시도하고 있다. 베슬AI는 미국 데이터센터 기업과 협력해 전력망 상황에 따라 AI 워크로드를 자동 조정하는 그리드 인지형 머신러닝 운영관리(MLOps) 솔루션을 공동 개발 중이다. GPU 확보 경쟁을 넘어 운영 효율까지 아우르는 네오클라우드 전략이다. 몬드리안에이아이 역시 네오클라우드를 차세대 성장 축으로 내세웠다. 이 회사는 지난해부터 네오클라우드 사업 출사표를 던지며 최근 엔비디아 B300 GPU 클러스터 구축에 나섰다. 네오클라우드를 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스로 정의하고 매니지드 서비스 역량까지 결합하겠다는 전략이다 . 특히 델 테크놀로지스 인프라와 자체 ML옵스 플랫폼 '예니퍼', AI 실행환경 패키지 '몬스택'을 결합한 어플라이언스 '몬박스'를 교육·연구 현장에서 빠르게 확산하고 있다. 서울과학기술대학교와 성균관대학교 등에서 도입 사례가 이어지며 복잡한 설정 없이 즉시 AI 연구가 가능한 환경을 제공하고 있다는 평가다. 몬드리안에이아이는 최근 150억원 규모 시리즈B 투자 유치에 나서며 GPU 인프라 확충과 글로벌 진출을 병행하겠다는 계획도 밝혔다. 단순 GPU 임대를 넘어 인프라·플랫폼·서비스를 아우르는 네오클라우드 그룹으로 도약하겠다는 구상이다 . 업계에선 네오클라우드가 하이퍼스케일러의 대체재라기보다 AI 특화 워크로드를 분리·보완하는 공존형 인프라로 자리 잡을 가능성에 무게를 둔다. 다만 GPU 확보 비용, 전력비 상승, 엔비디아 의존도 등은 장기 리스크로 꼽힌다. 그럼에도 AI 모델 고도화와 산업 전반의 AI 전환(AX)이 가속화되는 한 GPU 중심 인프라 수요는 지속 확대될 것이란 전망이 우세하다. 글로벌 자본이 몰리는 네오클라우드 시장에서 한국 스타트업들이 기술·운영 역량을 바탕으로 의미 있는 경쟁력을 확보할 수 있을지 주목된다. 박현규 몬드리안에이아이 부사장은 "네오클라우드는 단순히 GPU를 임대하는 사업이 아니라 AI 연구와 서비스가 바로 작동할 수 있는 환경을 패키지로 제공하는 모델"이라며 "국내 기업과 연구기관이 인프라 부담 없이 AI 혁신에 집중할 수 있도록 네오클라우드 역량을 지속적으로 고도화하겠다"고 밝혔다.

2026.03.01 08:47한정호 기자

정부 GPU 지원에 업계 '호응'…배경훈 "더 많은 기업에 지원 확대"

정부가 국가 인공지능(AI) 경쟁력 강화를 위해 추진 중인 '첨단 그래픽처리장치(GPU) 활용 지원 사업'이 현장에서 가시적인 반응을 얻고 있다. 정식 공모에 앞선 사전 베타테스트만으로도 스타트업이 엔비디아 최신 블랙웰(B200) GPU를 활용해 대규모 모델 학습을 경험하는 등 고성능 연산 자원 접근성 확대가 본격화되는 모습이다. 배경훈 부총리 겸 과학기술정보통신부 장관은 지난 25일 페이스북을 통해 "정부 GPU 지원 서비스에 선정돼 블랙웰 32장을 쓰게 됐습니다. 비록 14일이지만 감개무량합니다. 저희 같은 스타트업에 큰 도움이 됩니다"라는 한 스타트업 대표의 메시지를 전하며, 더 많은 기업이 고성능 GPU를 활용할 수 있도록 지원을 확대하겠다는 의지를 밝혔다. 이는 첨단 GPU 활용 지원 사업의 사전 베타테스트로, 현재 정식 공모를 진행 중이며 곧 결과 발표를 앞두고 있다. 배 부총리는 "GPU가 있는 것과 없는 것은 한번이라도 더 좋은 아이디어를 실험해 볼 수 있느냐 없느냐의 차이"라며 현장 체감도를 강조했다. 과기정통부와 정보통신산업진흥원(NIPA)이 주관하는 사업으로, 정부가 엔비디아 H100과 B200 등 최신 고성능 GPU를 대규모로 확보해 국내 스타트업과 연구기관에 지원하는 것이 핵심이다. 정책적으로는 'AI 고속도로' 구축의 핵심 사업으로 평가된다. 이번 사전 베타테스트에서는 블랙웰 GPU를 단기간 집중 지원하는 방식이 적용됐다. 스타트업이 자체적으로 확보하기 어려운 고가·고성능 자원을 단기간이라도 병렬 클러스터 환경에서 운용해보며 대규모언어모델(LLM) 학습과 스케일링을 직접 검증할 수 있도록 했다. 이같은 정부 지원에 대한 현장 수요도 폭발적이다. 업계에 따르면 해당 사업에 공공·민간을 합쳐 4만 장이 넘는 GPU 사용 신청이 접수돼 올해 공급 예정 물량의 4배를 웃도는 것으로 알려졌다. 정부는 올해 공공 6000장, 민간·산학연 4000장 등 총 1만 장의 GPU 서비스를 제공할 계획이다. GPU는 지난해 정부가 추경 예산을 통해 확보한 물량을 기반으로 하며 네이버·카카오·NHN 등 클라우드 사업자의 국내 데이터센터 인프라를 활용해 서비스형 방식으로 제공된다. 기업과 기관이 별도 장비 구매 없이 고성능 연산 환경을 활용할 수 있도록 지원한다. 정부는 추가 인프라 확충에도 속도를 내고 있다. 올해 2조 1000억원을 투입해 GPU 1만 5000장을 추가 확보할 계획으로, 향후 국가 AI 경쟁력 강화를 위한 중장기 기반을 갖춘다는 목표다. '첨단 AI반도체 서버확충 및 통합운영환경 구축'이라는 공고로 다음 달 초 사업이 공개될 예정이다. 배 부총리는 "AI는 말로 강해지지 않고 실제로 학습이 돌아갈 때 만들어진다"며 "본 공모 지원도 차질 없이 추진하고 더 많은 팀이 도전할 수 있도록 정부도 계속 함께 뛰겠다"고 강조했다.

2026.02.27 17:42한정호 기자

[현장] 시스코 "AI 운영, 모델부터 네트워크·데이터까지 전 구간 검토해야"

"인공지능(AI)는 그래픽처리장치(GPU), 네트워크, 스토리지, 데이터, 에이전트까지 전 계층이 동시에 얽혀 있는 복합 시스템입니다. 어느 한 지점만 봐서는 장애 원인, 성능 병목, 비용 문제도 정확히 알 수 없습니다. 그래서 AI 운영은 전 구간을 통합해 들여다보는 옵저버빌리티가 필수입니다." 인필교 시스코 상무는 26일 서울 마곡 LG사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 'AI를 위한 옵저버빌리티 전략'을 주제로 발표에 나섰다. 그는 "AI는 모델만의 문제가 아니라 인프라 전반의 문제"라며 모든 인프라를 통합적으로 들여다보는 가시성이 필요하다고 강조했다. 인 상무는 먼저 AI 인프라의 복잡성을 짚었다. GPU 서버 도입이 급증했지만, 실제 운영 단계에서는 GPU 사용률, 병목 구간, 네트워크 지연, 스토리지 성능, 전력과 냉각까지 모두 영향을 미친다고 설명했다. 그는 "GPU가 정상이라고 해서 AI 서비스가 정상은 아니다"라며 "CPU, 메모리, GPU 간 연결, 클러스터 네트워크, 데이터 공급 체계까지 함께 봐야 한다"고 말했다. 이어 '옵저버빌리티 포 AI(Observability for AI)' 개념을 소개했다. 이는 기존 포인트 모니터링을 넘어 인프라 메트릭, 로그, 트레이스, 이벤트 데이터를 통합 수집해 전체 흐름을 한 번에 파악해야 한다는 개념이다. 또 오픈텔레메트리 기반 데이터 수집과 '피델리티 데이터(fidelity data)' 확보의 중요성도 이날 강조했다. 인 상무는 "AI 환경은 일반 IT 시스템보다 훨씬 많은 데이터를 실시간으로 생성한다"며 "데이터가 빠짐없이 수집돼야 정확한 분석과 원인 규명이 가능하다"고 말했다. AI 모델 관측 영역에 대해서도 언급했다. 그는 "이제는 모델과 에이전트 자체도 모니터링 대상"이라며 "환각 문제, 프롬프트별 응답 품질, 토큰 사용량과 비용까지 분석해야 한다"고 설명했다. 이어 "모든 프롬프트와 응답을 데이터로 확보해야 환각 여부와 품질을 판단할 수 있다"며 "운영 품질과 비용 최적화를 동시에 달성해야 한다"고 덧붙였다. 운영 과정에서 발생하는 장애를 방지하기 위한 에이전틱 AI도 소개했다. 인 상무는 기존에는 운영자가 AI에 질문해 원인을 찾는 방식이었다면, 앞으로는 AI 에이전트가 스스로 데이터를 수집하고, 문제를 감지하며 원인을 분석한 뒤 필요 시 자동 복구까지 수행하는 구조로 진화한다고 설명했다. 다만 모든 조치를 자동화하는 것은 아니라고 선을 그었다. 코드 수정이 필요한 사안 등은 사람의 승인과 판단을 거치도록 설계했다고 덧붙였다. 또 서비스형 소프트웨어(SaaS) 기반 제공을 기본으로 하되, 보안 요구가 높은 기업을 위해 온프레미스 환경도 지원할 계획이라고 밝혔다. 인 상무는 "엔터프라이즈 AI 운영에는 더 완벽한 가시성과 더 빠르고 정확한 문제 감지가 필요하다"며 "AI 기반 지능형 원인 분석을 통해 복잡해진 AI 인프라 운영을 더 간편하게 만들겠다"고 말했다.

2026.02.26 17:38남혁우 기자

게이밍 GPU 교체주기 장기화...AI 기능으로 '공백 메우기'

글로벌 빅테크 기업의 대규모 AI 인프라 투자 경쟁 속에서 데이터센터용 GPU 수요가 급증하면서, 게이머나 일반 소비자용 GPU의 신제품 투입 우선순위가 내려가고 있다. 엔비디아는 현행 블랙웰과 차기 제품인 루빈에 GPU 신제품 개발과 생산 역량을 집중하는 한편 일반 소비자용 신제품 투입 시기를 미루고 있다. 올해에서 내년까지 새 GPU 투입이 미뤄질 것이라는 전망도 나온 바 있다. 엔비디아는 AI 기반 소프트웨어 기술을 활용한 업스케일링·프레임 생성 등으로 신제품 공백을 메우고 있다. 올 초 CES에서 DLSS 4.5를 공개한 데 이어 올해 중 업데이트를 통해 이를 강화할 예정이다. 2024년 이후 데스크톱 PC용 GPU 신제품 출시가 없는 인텔 역시 AI 기반 프레임 생성 기능을 현행 최신 제품 뿐만 아니라 2022년 출시된 전 세대 GPU까지 확장했다. 그래픽카드 시장의 경쟁 축도 AI 알고리듬 경쟁으로 향하고 있다. 엔비디아, 게이밍 GPU 신제품 투입 연기 엔비디아는 일반 소비자용 GPU 출시 이후 일정 시간이 지나면 작동 클록을 높이고 메모리 탑재량을 늘린 '슈퍼' 시리즈를 추가 출시했다. 이는 제품 수명을 연장하고 최대 경쟁사인 AMD 대응력을 유지하기 위한 수단이다. 올 초 CES를 앞두고도 파생 제품 출시가 예상됐지만 이는 실현되지 않았다. 글로벌 빅테크가 AI 인프라 투자에 경쟁적으로 나서면서 일반 소비자용 GPU 추가 출시는 우선 순위에서 밀린 것으로 판단된다. 이달 초 미국 IT 매체 디인포메이션은 익명을 요구한 관계자를 인용해 "RTX 50 파생 제품의 설계는 이미 끝났지만 메모리 반도체 수급난과 공급 부족 때문에 출시가 보류됐다"고 설명했다. DLSS, AI 기반 프레임 생성으로 성능 강화 엔비디아가 CES에서 새 GPU 대신 내세운 기술은 AI를 활용해 게임 프레임 수를 향상시킬 수 있는 기능인 DLSS(딥러닝 슈퍼샘플링) 4.5다. DLSS는 AI를 이용해 저해상도 게임 화면을 고해상도로 처리한다. 그래픽칩셋 부하는 줄이고 화질 저하는 최소화하며 초당 프레임 수는 높일 수 있다. RTX 5090 등 최상위 GPU가 아니어도 충분히 높은 프레임을 뽑아낼 수 있다. DLSS 4.5는 지포스 RTX 40/50 시리즈 GPU에서 작동한다. 지난 해 초 CES 2025에서 공개된 DLSS 4를 보완했고 2세대 트랜스포머 모델을 이용해 화질 저하 현상을 개선했다. 인텔, 2022년 출시 GPU까지 XeSS 확장 인텔 역시 아크 A/B시리즈용 GPU의 AI 연산 기능을 활용한 XeSS(Xe 슈퍼샘플링) 기능을 구현한 상태다. 코어 울트라 시리즈3(팬서레이크)에 탑재된 아크 B390 GPU에는 기준 프레임 두 개로 최대 세 개 중간 프레임을 AI로 생성하는 XeSS-MFG(다프레임 생성) 기능이 추가됐다. 지난 13일 업데이트된 아크 GPU 드라이버는 XeSS-MFG 기능을 2022년 출시된 데스크톱 PC용 그래픽카드인 아크 A770, 코어 울트라 시리즈1(메테오레이크)/시리즈2(루나레이크)에 탑재된 아크 GPU까지 확장했다. 이를 이용하면 아크 A770 등 구형 그래픽카드에서도 초당 프레임을 최대 네 배까지 끌어올릴 수 있다. 그래픽카드 교체주기 연장... AI 기반 부가기능으로 보완 디인포메이션 등에 따르면 엔비디아는 새 GPU 아키텍처 '루빈(Rubin)'을 적용한 RTX 50 시리즈 후속 제품을 2027년 말 대량 생산하려던 계획도 연기한 것으로 추정된다. 올해 뿐만 아니라 내년까지 새 PC용 GPU가 등장하지 않을 수 있다는 의미다. HBM뿐 아니라 고성능 GDDR 메모리 확보도 점점 어려워지면서 소비자용 GPU 생산 일정이 영향을 받고 있다는 분석도 나온다. 일반 소비자용 그래픽카드 교체 주기가 길어지고 AI 기반 성능 개선 기술 의존도가 높아질 전망이다. 엔비디아는 지난 해 출시한 RTX 50 시리즈 GPU의 성능 향상을 위한 DLSS 4.5 추가 업데이트도 준비중이다. AI 생성 프레임을 6배로 늘리는 한편 모니터 최대 화면주사율에 맞춰 화질과 프레임의 균형을 자동으로 조절하는 기능이 포함될 예정이다.

2026.02.25 16:31권봉석 기자

베슬AI, GPU 클라우드 서비스 출시…연내 1만장 규모 인프라 구축

베슬AI가 올해 1만 장 규모 최신 그래픽처리장치(GPU) 인프라를 구축해 클라우드 사업 확대에 나선다. 베슬AI는 GPU 자원을 효율적으로 운영하는 서비스 '베슬 클라우드'를 공식 출시했다고 24일 밝혔다. 베슬 클라우드는 분산된 GPU 자원을 활용해 인공지능(AI) 개발 환경의 비용과 운영 부담을 줄이는 데 초점을 맞춘 클라우드 서비스다. 회사 측에 따르면 업계 최소 수준인 분 단위의 과금 체계를 적용했으며 작업을 중단해도 데이터와 환경을 유지하는 '스마트 퍼징' 기능을 통해 유휴 자원 비용을 최소화한다. 장애 발생 시 자동 복구 기능과 다중 클러스터 기능도 지원해 안정적인 운영 환경을 제공한다. 글로벌 보안 통제 기준인 'SOC 2 타입 2' 인증을 획득해 기업 환경에 필요한 신뢰성과 안정성도 확보했다. 이번 출시는 베슬AI가 추진하는 글로벌 인프라 공급망 네오클라우드 전략의 본격적인 실행 단계에 해당한다. 회사는 이스라엘·미국·핀란드·한국을 포함한 6개 지역 데이터센터와 계약을 체결했으며 연내 신규 데이터센터 구축을 포함해 H200·B200·B300 등 GPU 1만 장 규모의 인프라를 단계적으로 확충할 계획이다. 이를 통해 증가하는 고성능 연산 수요에 대응한다는 방침이다. 현재 베슬 클라우드는 미국 피지컬 AI 스타트업부터 국내 대형 금융지주에 이르기까지 100여 개 기업 및 연구기관에서 이용되고 있다. 특히 로보틱스·미세 조정·자율주행 등 고성능 연산이 요구되는 딥테크 분야와 금융권에서 실제 상용 환경에 활용되며 안정성을 검증받고 있다. 베슬 클라우드는 지난 1월 한 달 만에 지난해 베슬AI 전체 연간 매출의 50% 이상을 기록했다. 이는 고성능 연산 자원 운영에 대한 시장 수요가 빠르게 확대되고 있음을 보여주는 지표다. 안재만 베슬AI 대표는 "AI 인프라 경쟁은 단순히 GPU 수량 확보를 넘어 전 세계에 분산된 자원을 얼마나 효율적으로 연결하고 운영하느냐가 핵심"이라며 "확충 중인 GPU 인프라와 이미 확인된 성장 흐름을 기반으로 올해 전년 대비 10배 이상의 매출 성장을 달성하고 네오클라우드 생태계를 글로벌 수준으로 확장해 나가겠다"고 말했다.

2026.02.24 14:13한정호 기자

[AI는 지금] 5000억 달러 '스타게이트' 제동…오픈AI 전략 차질에 반도체도 영향 받나

오픈AI와 소프트뱅크, 오라클이 추진해온 미국 초대형 인공지능(AI) 데이터센터 프로젝트 '스타게이트'가 1년 넘게 본격 가동되지 못한 것으로 알려졌다. 5000억 달러(약 720조원) 규모로 발표되며 글로벌 AI 인프라 경쟁의 상징으로 주목받았지만, 파트너십 구조를 둘러싼 이견과 자금 조달 문제 등이 겹치며 사실상 전략 수정 국면에 들어갔다는 평가가 나온다. 미국 IT 전문매체 디인포메이션은 23일(현지시간) 복수 소식통을 인용해 오픈AI·소프트뱅크·오라클이 프로젝트 발표 직후부터 역할 분담과 지배구조를 두고 의견 차이를 보여왔고, 이로 인해 사업이 실질적 진전을 이루지 못하고 있다고 보도했다. 스타게이트는 초기 1000억 달러를 투입해 10GW(기가와트) 규모의 AI 전용 컴퓨팅 인프라를 구축하는 것을 1단계 목표로 제시했다. 그러나 현재까지 핵심 인력 충원은 물론 오픈AI 주도의 데이터센터 개발도 착수 단계에 이르지 못한 것으로 전해졌다. 업계에선 초대형 인프라 사업 특성상 자산 소유권과 운영 통제권, 수익 배분 구조가 명확히 정리되지 않으면 금융 조달과 건설 일정이 동시에 지연될 수밖에 없다고 보고 있다. 특히 데이터센터 자산을 누가 보유할 것인지, 기술 통제권을 어디까지 인정할 것인지를 두고 3사 간 견해차가 컸던 것으로 알려졌다. 오픈AI는 한때 직접 데이터센터 구축을 추진했지만, 금융권이 상환 능력에 의문을 제기하면서 자금 조달이 보류된 것으로 전해졌다. AI 인프라는 선투자 규모가 막대하고 회수 기간이 긴데, 그래픽처리장치(GPU) 등 고가 연산 장비의 감가상각 부담과 기술 진화 속도까지 고려하면 금융기관 입장에서는 위험도가 높은 사업으로 분류된다. 결국 오픈AI는 3자 공동 추진 대신 소프트뱅크·오라클과 각각 개별 계약을 맺는 방식으로 방향을 틀었다. 오라클과는 미국 내 여러 지역에서 4.5GW 규모 데이터센터를 개발하고, 텍사스 밀럼 카운티 1GW 프로젝트는 소프트뱅크와 협력하는 구조다. 데이터센터 자산은 파트너가 보유하고, 오픈AI는 설계와 지식재산권(IP) 통제에 집중한다는 방침이다. 프로젝트 지연은 재무 부담으로도 이어졌다. 2030년까지의 컴퓨팅 비용 전망치는 기존 4500억 달러에서 6650억 달러로 상향 조정된 것으로 전해졌다. 한때 1조4000억 달러에 달했던 투자 계획도 최근에는 6000억 달러 수준으로 축소된 것으로 알려졌다. 공격적 확장에서 재무 안정성 중심 전략으로 기조가 이동하고 있는 것이다. 스타게이트 난항은 반도체 업계에도 영향을 미칠 수 있을 것으로 보인다. 초대형 AI 데이터센터 프로젝트는 대규모 GPU 발주와 이에 연동된 고대역폭메모리(HBM) 수요를 수반하기 때문이다. 프로젝트가 지연될 경우 관련 장비와 부품의 발주 일정 역시 조정될 가능성이 있다. 다만 업계에선 이를 AI 수요 위축으로 단정하기는 이르다는 분위기다. 스타게이트와 같은 초대형 단일 프로젝트가 지연될 경우 GPU 및 HBM 수요의 '총량'이 줄어들기보다는 대규모 발주의 집행 시점이 뒤로 밀리면서 시장 체감 성장 속도가 완만해질 가능성이 크다고 봤다. AI 인프라 투자가 중장기적으로 이어지는 흐름은 유지되더라도 데이터센터 건설 일정이 늦춰지면 반도체 업계의 실적 반영 시점 역시 후행할 수 있다는 의미다. 업계 관계자는 "스타게이트 사례는 AI 산업이 기술 경쟁을 넘어 자본 조달과 거버넌스 안정성이라는 현실적 과제에 직면했음을 보여주는 것"이라며 "인프라 확장의 방향성은 유지되지만, 속도와 방식은 조정되는 국면에 접어든 것으로 보인다"고 평가했다.

2026.02.24 10:41장유미 기자

클라우다이크 '브이픽', 엔비디아 AI스타트업 지원 프로그램 선정

클라우드 및 인공지능(AI) 솔루션 전문 기업 클라우다이크(대표 이선웅)는 AI 영상 분석 및 숏폼 제작 서비스 '브이픽(VPick)'이 엔비디아 스타트업 육성 프로그램인 '엔비디아 인셉션(NVIDIA Inception)'에 선정됐다고 23일 밝혔다. '엔비디아 인셉션'은 AI, 데이터 사이언스 등 혁신 기술을 보유한 전 세계 스타트업을 발굴, 지원하는 프로그램이다. 선정된 기업은 엔비디아 최신 GPU 기술 지원을 비롯한 클라우드 크레딧, 기술 교육 및 투자자 연결 등 기업 성장을 위한 다양한 혜택이 주어진다. 이선웅 대표는 이번 선정에 대해 "클라우다이크가 최근 출시한 브이픽의 AI 기술력을 인정받은 결과"라고 자평했다. 브이픽은 기업이 보유한 방대한 영상 데이터를 AI가 자동으로 분석, 마케팅에 즉시 활용 가능한 '숏폼(Short-form)' 영상으로 재가공해 주는 B2B SaaS(서비스형 소프트웨어)다. 브이픽은 단순히 영상을 이해하는 것을 넘어, 사용자가 클릭 몇 번으로 ▲자연어 명령을 통한 영상 검색 ▲AI를 통한 자동 숏폼 생성 ▲자동 자막 생성 등 고난도 영상 편집 작업을 수행할 수 있다. 이는 네이버클라우드 미디어 인텔리전스, 구글 제미나이(Gemini) 등 미디어 및 거대언어모델(LLM)을 결합한 '하이브리드 AI 아키텍처'를 적용했기 때문이다. 클라우다이크는 이번 엔비디아 인셉션 선정을 계기로 브이픽의 AI 기술 역량 고도화를 추진한다. 엔비디아의 고성능 GPU 인프라를 활용해 영상 처리 속도를 획기적으로 단축하고 서비스 운영 원가 절감 등을 통해 보다 합리적인 고객 서비스를 제공할 계획이다. 이선웅 대표는 “브이픽이 단순한 편집 도구를 넘어, GPU 가속 기술이 내재된 고도화된 AI 솔루션이라는 점을 글로벌 시장에 입증한 것"이라며 "향후 엔비디아 기술 지원을 바탕으로 영상 콘텐츠 제작 비효율 개선을 추진하며, 글로벌 AI 시장 진출에 박차를 가할 것"이라고 밝혔다.

2026.02.23 13:49박희범 기자

정부, 고성능 GPU 1만5천장 확충한다…다음주 사업 공고 전망

정부가 올해 1만 5000장 규모의 고성능 그래픽처리장치(GPU)를 추가 확보하는 대형 사업을 다음주 공개할 전망이다. 지난해 1만 3000여 장 도입에 이어 2년 연속 대규모 확충에 나서며 국가 인공지능(AI) 인프라를 강화하는 모습이다. 20일 업계에 따르면 과학기술정보통신부는 '첨단 AI반도체 서버확충 및 통합운영환경 구축' 사업 공고를 이르면 다음주 말께 게시할 예정이다. 공고 시점은 내부 검토 상황에 따라 다소 유동적이지만 최대한 이른 시일 내 공개할 것으로 전해졌다. 이번 사업은 1만 5000장 이상 규모의 GPU를 확보·구축하는 내용으로 설계되고 있다. 총 지원 예산은 약 2조원 규모로 편성됐다. 확보된 자원은 민간 클라우드 서비스 제공업체(CSP)가 구축·운영하는 서비스형 GPU(GPUaaS) 방식으로 제공될 예정이다. 정부의 GPU 확충 정책은 지난해 추경을 통해 1만 3000여 장을 확보하는 등 단계적으로 추진돼 왔다. 이후 엔비디아와의 협력 발표를 계기로 중장기 공급 로드맵이 보다 구체화되면서 확충 속도에 힘이 실린 것으로 평가된다. 당시 정부는 2030년까지 총 26만 장 규모 GPU를 국내에 도입하는 계획을 제시했고 이 가운데 정부 몫은 5만 2000장 수준으로 제시됐다. 올해 추가 확보 사업도 이러한 중장기 로드맵을 이행하는 과정의 연장선이다. 정부는 지난해 약 1만 3000장의 GPU를 확보하고 네이버클라우드·NHN클라우드·카카오를 1차 사업자로 선정한 바 있다. 당시 확보 물량은 엔비디아 B200 1만 80장, H200 3056장으로 구성됐으며 이 중 1만장 이상이 정부 활용분으로 산학연 등에 순차 지원하도록 이뤄졌다. 특히 1차 사업에서는 GPU 통합지원 플랫폼 구축을 통해 산학연과 스타트업이 온라인으로 GPU 자원을 신청·배정받는 구조도 마련됐다. 정부와 운용 사업자들은 실무협의체를 구성해 확보·구축·운용 계획과 배분 일정 등을 점검해왔다. 이를 토대로 최근 정부가 진행하는 GPU 보급 사업에 초거대 AI 모델 개발을 추진하는 스타트업과 대학·연구기관의 관심이 집중되며 신청 수요가 빠르게 늘어난 것으로 전해졌다. 올해 사업은 이같은 기반에 GPU 물량을 더 확대하는 방식이다. 과기정통부 산하 정보통신산업진흥원(NIPA)은 지난달 통합 사업설명회를 통해 올해 GPU 1만 5000장 확보를 목표로 제시하며 국가AI컴퓨팅센터 설립과 병행 추진하겠다는 계획을 밝힌 바 있다. 이번 사업은 지난해 참여했던 네이버클라우드·카카오·NHN클라우드를 비롯해 KT클라우드 등 주요 CSP들의 참여 여부가 관심사로 떠오르고 있다. 이미 GPUaaS 운영 경험과 데이터센터 인프라를 갖춰 공공사업을 진행 중인 만큼 다시 한번 GPU 추가 확보에 나설 가능성이 거론된다. 사업 공고에 따라 단일 사업자, 복수 사업자, 컨소시엄 형태 등 다양한 방식이 검토될 수 있다는 관측도 나온다. 이번에 확보될 GPU는 산학연 연구 수요와 국가 전략 AI 프로젝트 등에 투입될 전망이다. 정부는 지난해 확보 물량을 통해 초대형 클러스터 기반 AI 워크로드 지원 체계를 마련했으며 올해 추가 물량을 통해 지원 범위와 규모를 더욱 확대한다는 구상이다. 사업 일정은 공고 이후 사업자 선정, 협약 체결, GPU 발주 및 구축 순으로 진행될 예정이다. 이와 함께 정부는 삼성SDS 컨소시엄이 수주한 국가AI컴퓨팅센터 구축도 병행하고 있다. 현재 금융 심사가 진행 중이며 관련 절차가 마무리되는 대로 인프라 확충 작업이 이어질 전망이다. 정부는 민간과 협력하는 GPUaaS 모델을 통해 단기 수요에 대응하고 중장기적으로는 국가 차원의 컴퓨팅 인프라를 체계화한다는 방침이다. 과기정통부 관계자는 "최대한 빨리 공고를 내기 위해 준비 중이며 내부 검토를 거쳐 다음주 말쯤 공개될 것으로 예상한다"고 밝혔다. 업계 관계자는 "지난해 사업을 통해 GPUaaS 운영 모델이 어느 정도 안착한 만큼, 올해 추가 물량까지 더해지면 국가에서 추진하는 다양한 AI 개발 프로젝트를 수준 높게 지원할 수 있을 것"이라고 말했다.

2026.02.20 14:52한정호 기자

KOSA "GPU 26만장 확보는 시작…활용 경쟁으로 전환해야"

정부가 대규모 그래픽처리장치(GPU) 확보를 앞둔 가운데 한국인공지능·소프트웨어산업협회(KOSA)가 공공부문이 첫 고객으로 나서 수요를 창출하고 하드웨어(HW) 중심 정책을 소프트웨어(SW)·데이터 중심으로 전환해야 한다고 제언했다. 확보 경쟁을 넘어 실제 활용 경쟁으로 정책의 무게중심을 옮기지 못할 경우 막대한 예산이 투입된 GPU가 유휴 자산으로 전락할 수 있다고 경고했다. KOSA는 19일 발간한 '공공부문 GPU 활용 전략 보고서'를 통해 "GPU 26만 장 확보는 끝이 아닌 시작이며 진정한 승부는 누가 어떻게 쓰는가에 달려 있다"며 "인프라 보유 경쟁에서 벗어나 산업 현장의 활용 경쟁으로 정책 패러다임을 전환해야 한다"고 밝혔다. KOSA 산하 AI정책협력위원회가 발간한 이번 보고서는 2030년까지 정부가 확보하게 될 GPU 물량을 효율적으로 활용하기 위한 구체적 실행 방안을 담았다. 보고서는 GPU 수명이 3~5년에 불과하다는 점을 짚으며 인프라 규모에 비해 산업계의 실질적 활용 수요가 부족한 상황에서 도입 초기 가동률을 끌어올리지 못하면 전략 자산이 고철로 전락할 위험이 있다고 경고했다. 보고서는 이를 위해 4대 핵심 전략을 제시했다. 먼저 정부가 첫 번째 고객으로 나서 초기 시장을 여는 역할을 해야 한다고 강조했다. 행정·국방 등 공공부문에 국산 AI 도입을 촉진해 시장 불확실성을 제거하고 AI 도입률이 낮은 중소 제조기업을 대상으로 진단부터 기술검증(PoC), 구축까지 전 과정을 지원하는 원스톱 패키지 신설이 필요하다는 주장이다. 또 HW 구매에 편중된 예산 구조를 SW와 데이터 가치 중심으로 개편해야 한다고 제안했다. 정부 지원 사업에 수시 신청 트랙을 도입하고 성과가 검증된 기업에는 최대 3년(2+1년)까지 지원을 연장하는 다년도 체계를 마련해 기업이 비즈니스 기회를 적기에 활용할 수 있도록 해야 한다는 설명이다. 아울러 인프라 효율성을 높이기 위해 학습과 추론을 전략적으로 분리해야 한다고 제시했다. 고난도 모델 개발과 관련 연구개발(R&D)에는 엔비디아 GPU를 집중 투입하되, 대국민 서비스 등 추론 단계에서는 국산 신경망처리장치(NPU) 사용을 원칙으로 해 국산 칩의 초기 레퍼런스를 확보하고 생태계를 키워야 한다는 제언이다. 마지막으로 실전형 AI 엔지니어링 인재와 슈퍼컴퓨팅 아키텍트 육성을 강조했다. 산업 현장의 도메인 지식을 갖춘 인력을 대상으로 한 재교육과 함께 대규모 GPU 클러스터를 설계·운영할 수 있는 고성능컴퓨팅(HPC) 전문 인력을 국가 차원에서 체계적으로 양성해야 한다고 제안했다. 임우형 AI정책협력위원회 위원장(LG AI연구원 공동원장)은 "GPU 확보가 가시화된 지금이 AI 3대 강국 도약을 실현할 수 있는 골든타임"이라며 "공공부문이 선제적으로 마중물 역할을 하고 민간이 창의적인 엔지니어링으로 화답하는 민·관 원팀 플레이가 어느 때보다 절실하다"고 밝혔다. 조준희 KOSA 회장은 "우리나라가 보유한 세계 최고 수준의 제조 데이터를 무기로 풀스택 AI 패키지를 구축해 글로벌 수출 경쟁력을 확보해야 한다"며 "정부 예산이 GPU 구매라는 HW에만 머물지 않고 AI 공정대가 지급과 같이 SW 가치가 제대로 인정받는 건강한 생태계 조성으로 이어지도록 협회가 앞장서겠다"고 밝혔다.

2026.02.19 10:11한정호 기자

韓 AI반도체, '엔비디아 대항마' 넘어 실전으로

AI 시대의 개막과 함께 반도체 산업의 패러다임이 급변하고 있다. 인공지능 구현에 필수적인 고성능 반도체의 수요가 폭증함에 따라, 엔비디아의 GPU(그래픽처리장치)를 중심으로 한 글로벌 AI 생태계는 그 어느 때보다 공고한 성벽을 쌓아 올렸다. 그러나 최근 AI 시장의 무게추가 모델 학습에서 '추론(Inference)'으로 이동하며 GPU 중심의 시장 구조에 변화의 조짐이 나타나고 있다. 학습에서 추론으로, NPU 시장의 활성화 생성형 AI의 확산은 데이터센터부터 엣지, 온디바이스 전반에 걸쳐 막대한 연산 수요를 창출하고 있다. 초기 시장이 대규모 언어 모델을 학습시키기 위한 GPU 중심이었다면, 이제는 학습된 모델을 실무 서비스에 적용하는 추론 단계가 핵심 경쟁력으로 부상했다. 이 과정에서 AI 연산에 특화된 NPU(신경망처리장치) 시장이 본격적으로 활성화되고 있다. NPU는 범용성을 갖춘 GPU와 달리 AI 알고리즘 처리에 최적화돼 있어, 전력 효율성과 비용 측면에서 압도적인 강점을 가진다. 글로벌 테크 기업들이 효율적인 AI 인프라 구축을 위해 NPU로 눈을 돌리면서, NPU는 GPU의 대안을 넘어 차세대 반도체의 주역으로 자리매김하고 있다. 2026년, 대한민국 AI 반도체 '원년'의 선포 이러한 시장 변곡점에서 국내 AI 반도체 기업들은 글로벌 시장의 주도권을 잡기 위해 총력전을 펼치고 있다. 특히 2026년은 국내 주요 AI 반도체 스타트업들의 기술력이 담긴 칩들이 일제히 시장에 출시되는 시점으로, '한국 AI 반도체의 원년'이라 부르기에 부족함이 없다. 리벨리온, 퓨리오사AI, 딥엑스, 모빌린트 등 국내 기업들은 각기 다른 전략과 포지셔닝을 통해 글로벌 경쟁력 확보에 매진하고 있다. 이들은 단순한 기술 개발을 넘어 시제품(PoC) 단계를 통과하고 실제 양산 및 상용화 단계로 진입하며 실질적인 성과를 증명해야 하는 중요한 기로에 서 있는 셈이다. 생존 전략을 위한 SWOT 분석 [K-AI칩이 온다] 연재 기획은 국내 주요 AI 반도체 및 인프라 기업 7곳을 대상으로 이들의 기술력과 시장 생존 전략을 집중 조명한다. 각 기업의 주력 시장과 포지셔닝, 성능 및 전력 효율성, 그리고 소프트웨어(SW) 경쟁력을 다각도로 분석할 예정이다. 급변하는 글로벌 공급망 리스크와 양산 과제 속에서 국내 기업들이 가진 강점(Strength), 약점(Weakness), 기회(Opportunity), 위협(Threat) 요인을 면밀히 분석함으로써 대한민국 AI 반도체 산업의 현주소와 미래 가능성을 제시하고자 한다.

2026.02.18 16:00전화평 기자

엔비디아, 메타에 AI칩 수백만개 공급 예정…장기 파트너십 체결

엔비디아가 글로벌 주요 클라우드서비스제공자(CSP) 메타와 장기간·대규모 AI 반도체 공급에 대한 계약을 체결했다. 17일(현지시간) 엔비디아는 메타와 온프레미스, 클라우드 및 AI 인프라에 대한 다년간의 전략적 파트너십을 맺었다고 밝혔다. 이번 협력으로 엔비디아는 메타에 수백만 개의 '블랙웰' 및 '루빈' GPU를 공급할 예정이다. 해당 GPU는 AI 데이터센터에 필요한 초고성능 칩이다. 특히 루빈의 경우, 올해 본격적인 상용화가 예상된다. 또한 메타는 자사 데이터센터에 엔비디아의 그레이스 CPU를 단독으로 도입하기로 했다. 주요 CSP 기업 중 엔비디아의 그레이스 CPU만을 채용한 사례는 이번이 처음이다. 그간 메타는 Arm 기반의 CPU를 자사 AI칩의 보조 프로세서로 활용해 왔다. 이와 관련해 로이터통신은 "고객사향 매출을 공개한 적은 없지만, 메타는 엔비디아의 최근 분기 매출의 61%를 차지하는 4대 CSP 중 하나"라며 "엔비디아가 이번 계약을 강조한 것은 메타와의 대규모 사업 관계 유지와 CPU 시장에서의 입지 강화를 보여주기 위한 것"이라고 평가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "엔비디아는 CPU, GPU, 네트워킹 및 소프트웨어 전반에 걸친 심층적인 공동 설계로 메타가 차세대 AI 인프라를 구축하는 데 필요한 모든 플랫폼을 제공할 것"이라고 말했다. 마크 저커버크 메타 CEO는 "엔비디아와의 파트너십 확대로 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축하고, 전 세계 모든 사람에게 맞춤형 인공지능을 제공하게 돼 기쁘다"고 밝혔다.

2026.02.18 10:10장경윤 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 1c D램 'LPDDR6' 개발…하반기 공급 시작

"자율주행 로봇 플랫폼 확장…휴머노이드까지 얹는다"

‘단종 앓이’가 쏘아올린 천만관객…‘왕사남’ 흥행비결 세 가지

코스피 5%·코스닥 4% 반등…코스피 매수 사이드카 발동

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.