• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
인공지능
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'DGX-A100 GPU'통합검색 결과 입니다. (312건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

정부 GPU 지원에 업계 '호응'…배경훈 "더 많은 기업에 지원 확대"

정부가 국가 인공지능(AI) 경쟁력 강화를 위해 추진 중인 '첨단 그래픽처리장치(GPU) 활용 지원 사업'이 현장에서 가시적인 반응을 얻고 있다. 정식 공모에 앞선 사전 베타테스트만으로도 스타트업이 엔비디아 최신 블랙웰(B200) GPU를 활용해 대규모 모델 학습을 경험하는 등 고성능 연산 자원 접근성 확대가 본격화되는 모습이다. 배경훈 부총리 겸 과학기술정보통신부 장관은 지난 25일 페이스북을 통해 "정부 GPU 지원 서비스에 선정돼 블랙웰 32장을 쓰게 됐습니다. 비록 14일이지만 감개무량합니다. 저희 같은 스타트업에 큰 도움이 됩니다"라는 한 스타트업 대표의 메시지를 전하며, 더 많은 기업이 고성능 GPU를 활용할 수 있도록 지원을 확대하겠다는 의지를 밝혔다. 이는 첨단 GPU 활용 지원 사업의 사전 베타테스트로, 현재 정식 공모를 진행 중이며 곧 결과 발표를 앞두고 있다. 배 부총리는 "GPU가 있는 것과 없는 것은 한번이라도 더 좋은 아이디어를 실험해 볼 수 있느냐 없느냐의 차이"라며 현장 체감도를 강조했다. 과기정통부와 정보통신산업진흥원(NIPA)이 주관하는 사업으로, 정부가 엔비디아 H100과 B200 등 최신 고성능 GPU를 대규모로 확보해 국내 스타트업과 연구기관에 지원하는 것이 핵심이다. 정책적으로는 'AI 고속도로' 구축의 핵심 사업으로 평가된다. 이번 사전 베타테스트에서는 블랙웰 GPU를 단기간 집중 지원하는 방식이 적용됐다. 스타트업이 자체적으로 확보하기 어려운 고가·고성능 자원을 단기간이라도 병렬 클러스터 환경에서 운용해보며 대규모언어모델(LLM) 학습과 스케일링을 직접 검증할 수 있도록 했다. 이같은 정부 지원에 대한 현장 수요도 폭발적이다. 업계에 따르면 해당 사업에 공공·민간을 합쳐 4만 장이 넘는 GPU 사용 신청이 접수돼 올해 공급 예정 물량의 4배를 웃도는 것으로 알려졌다. 정부는 올해 공공 6000장, 민간·산학연 4000장 등 총 1만 장의 GPU 서비스를 제공할 계획이다. GPU는 지난해 정부가 추경 예산을 통해 확보한 물량을 기반으로 하며 네이버·카카오·NHN 등 클라우드 사업자의 국내 데이터센터 인프라를 활용해 서비스형 방식으로 제공된다. 기업과 기관이 별도 장비 구매 없이 고성능 연산 환경을 활용할 수 있도록 지원한다. 정부는 추가 인프라 확충에도 속도를 내고 있다. 올해 2조 1000억원을 투입해 GPU 1만 5000장을 추가 확보할 계획으로, 향후 국가 AI 경쟁력 강화를 위한 중장기 기반을 갖춘다는 목표다. '첨단 AI반도체 서버확충 및 통합운영환경 구축'이라는 공고로 다음 달 초 사업이 공개될 예정이다. 배 부총리는 "AI는 말로 강해지지 않고 실제로 학습이 돌아갈 때 만들어진다"며 "본 공모 지원도 차질 없이 추진하고 더 많은 팀이 도전할 수 있도록 정부도 계속 함께 뛰겠다"고 강조했다.

2026.02.27 17:42한정호 기자

[현장] 시스코 "AI 운영, 모델부터 네트워크·데이터까지 전 구간 검토해야"

"인공지능(AI)는 그래픽처리장치(GPU), 네트워크, 스토리지, 데이터, 에이전트까지 전 계층이 동시에 얽혀 있는 복합 시스템입니다. 어느 한 지점만 봐서는 장애 원인, 성능 병목, 비용 문제도 정확히 알 수 없습니다. 그래서 AI 운영은 전 구간을 통합해 들여다보는 옵저버빌리티가 필수입니다." 인필교 시스코 상무는 26일 서울 마곡 LG사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 'AI를 위한 옵저버빌리티 전략'을 주제로 발표에 나섰다. 그는 "AI는 모델만의 문제가 아니라 인프라 전반의 문제"라며 모든 인프라를 통합적으로 들여다보는 가시성이 필요하다고 강조했다. 인 상무는 먼저 AI 인프라의 복잡성을 짚었다. GPU 서버 도입이 급증했지만, 실제 운영 단계에서는 GPU 사용률, 병목 구간, 네트워크 지연, 스토리지 성능, 전력과 냉각까지 모두 영향을 미친다고 설명했다. 그는 "GPU가 정상이라고 해서 AI 서비스가 정상은 아니다"라며 "CPU, 메모리, GPU 간 연결, 클러스터 네트워크, 데이터 공급 체계까지 함께 봐야 한다"고 말했다. 이어 '옵저버빌리티 포 AI(Observability for AI)' 개념을 소개했다. 이는 기존 포인트 모니터링을 넘어 인프라 메트릭, 로그, 트레이스, 이벤트 데이터를 통합 수집해 전체 흐름을 한 번에 파악해야 한다는 개념이다. 또 오픈텔레메트리 기반 데이터 수집과 '피델리티 데이터(fidelity data)' 확보의 중요성도 이날 강조했다. 인 상무는 "AI 환경은 일반 IT 시스템보다 훨씬 많은 데이터를 실시간으로 생성한다"며 "데이터가 빠짐없이 수집돼야 정확한 분석과 원인 규명이 가능하다"고 말했다. AI 모델 관측 영역에 대해서도 언급했다. 그는 "이제는 모델과 에이전트 자체도 모니터링 대상"이라며 "환각 문제, 프롬프트별 응답 품질, 토큰 사용량과 비용까지 분석해야 한다"고 설명했다. 이어 "모든 프롬프트와 응답을 데이터로 확보해야 환각 여부와 품질을 판단할 수 있다"며 "운영 품질과 비용 최적화를 동시에 달성해야 한다"고 덧붙였다. 운영 과정에서 발생하는 장애를 방지하기 위한 에이전틱 AI도 소개했다. 인 상무는 기존에는 운영자가 AI에 질문해 원인을 찾는 방식이었다면, 앞으로는 AI 에이전트가 스스로 데이터를 수집하고, 문제를 감지하며 원인을 분석한 뒤 필요 시 자동 복구까지 수행하는 구조로 진화한다고 설명했다. 다만 모든 조치를 자동화하는 것은 아니라고 선을 그었다. 코드 수정이 필요한 사안 등은 사람의 승인과 판단을 거치도록 설계했다고 덧붙였다. 또 서비스형 소프트웨어(SaaS) 기반 제공을 기본으로 하되, 보안 요구가 높은 기업을 위해 온프레미스 환경도 지원할 계획이라고 밝혔다. 인 상무는 "엔터프라이즈 AI 운영에는 더 완벽한 가시성과 더 빠르고 정확한 문제 감지가 필요하다"며 "AI 기반 지능형 원인 분석을 통해 복잡해진 AI 인프라 운영을 더 간편하게 만들겠다"고 말했다.

2026.02.26 17:38남혁우 기자

게이밍 GPU 교체주기 장기화...AI 기능으로 '공백 메우기'

글로벌 빅테크 기업의 대규모 AI 인프라 투자 경쟁 속에서 데이터센터용 GPU 수요가 급증하면서, 게이머나 일반 소비자용 GPU의 신제품 투입 우선순위가 내려가고 있다. 엔비디아는 현행 블랙웰과 차기 제품인 루빈에 GPU 신제품 개발과 생산 역량을 집중하는 한편 일반 소비자용 신제품 투입 시기를 미루고 있다. 올해에서 내년까지 새 GPU 투입이 미뤄질 것이라는 전망도 나온 바 있다. 엔비디아는 AI 기반 소프트웨어 기술을 활용한 업스케일링·프레임 생성 등으로 신제품 공백을 메우고 있다. 올 초 CES에서 DLSS 4.5를 공개한 데 이어 올해 중 업데이트를 통해 이를 강화할 예정이다. 2024년 이후 데스크톱 PC용 GPU 신제품 출시가 없는 인텔 역시 AI 기반 프레임 생성 기능을 현행 최신 제품 뿐만 아니라 2022년 출시된 전 세대 GPU까지 확장했다. 그래픽카드 시장의 경쟁 축도 AI 알고리듬 경쟁으로 향하고 있다. 엔비디아, 게이밍 GPU 신제품 투입 연기 엔비디아는 일반 소비자용 GPU 출시 이후 일정 시간이 지나면 작동 클록을 높이고 메모리 탑재량을 늘린 '슈퍼' 시리즈를 추가 출시했다. 이는 제품 수명을 연장하고 최대 경쟁사인 AMD 대응력을 유지하기 위한 수단이다. 올 초 CES를 앞두고도 파생 제품 출시가 예상됐지만 이는 실현되지 않았다. 글로벌 빅테크가 AI 인프라 투자에 경쟁적으로 나서면서 일반 소비자용 GPU 추가 출시는 우선 순위에서 밀린 것으로 판단된다. 이달 초 미국 IT 매체 디인포메이션은 익명을 요구한 관계자를 인용해 "RTX 50 파생 제품의 설계는 이미 끝났지만 메모리 반도체 수급난과 공급 부족 때문에 출시가 보류됐다"고 설명했다. DLSS, AI 기반 프레임 생성으로 성능 강화 엔비디아가 CES에서 새 GPU 대신 내세운 기술은 AI를 활용해 게임 프레임 수를 향상시킬 수 있는 기능인 DLSS(딥러닝 슈퍼샘플링) 4.5다. DLSS는 AI를 이용해 저해상도 게임 화면을 고해상도로 처리한다. 그래픽칩셋 부하는 줄이고 화질 저하는 최소화하며 초당 프레임 수는 높일 수 있다. RTX 5090 등 최상위 GPU가 아니어도 충분히 높은 프레임을 뽑아낼 수 있다. DLSS 4.5는 지포스 RTX 40/50 시리즈 GPU에서 작동한다. 지난 해 초 CES 2025에서 공개된 DLSS 4를 보완했고 2세대 트랜스포머 모델을 이용해 화질 저하 현상을 개선했다. 인텔, 2022년 출시 GPU까지 XeSS 확장 인텔 역시 아크 A/B시리즈용 GPU의 AI 연산 기능을 활용한 XeSS(Xe 슈퍼샘플링) 기능을 구현한 상태다. 코어 울트라 시리즈3(팬서레이크)에 탑재된 아크 B390 GPU에는 기준 프레임 두 개로 최대 세 개 중간 프레임을 AI로 생성하는 XeSS-MFG(다프레임 생성) 기능이 추가됐다. 지난 13일 업데이트된 아크 GPU 드라이버는 XeSS-MFG 기능을 2022년 출시된 데스크톱 PC용 그래픽카드인 아크 A770, 코어 울트라 시리즈1(메테오레이크)/시리즈2(루나레이크)에 탑재된 아크 GPU까지 확장했다. 이를 이용하면 아크 A770 등 구형 그래픽카드에서도 초당 프레임을 최대 네 배까지 끌어올릴 수 있다. 그래픽카드 교체주기 연장... AI 기반 부가기능으로 보완 디인포메이션 등에 따르면 엔비디아는 새 GPU 아키텍처 '루빈(Rubin)'을 적용한 RTX 50 시리즈 후속 제품을 2027년 말 대량 생산하려던 계획도 연기한 것으로 추정된다. 올해 뿐만 아니라 내년까지 새 PC용 GPU가 등장하지 않을 수 있다는 의미다. HBM뿐 아니라 고성능 GDDR 메모리 확보도 점점 어려워지면서 소비자용 GPU 생산 일정이 영향을 받고 있다는 분석도 나온다. 일반 소비자용 그래픽카드 교체 주기가 길어지고 AI 기반 성능 개선 기술 의존도가 높아질 전망이다. 엔비디아는 지난 해 출시한 RTX 50 시리즈 GPU의 성능 향상을 위한 DLSS 4.5 추가 업데이트도 준비중이다. AI 생성 프레임을 6배로 늘리는 한편 모니터 최대 화면주사율에 맞춰 화질과 프레임의 균형을 자동으로 조절하는 기능이 포함될 예정이다.

2026.02.25 16:31권봉석 기자

베슬AI, GPU 클라우드 서비스 출시…연내 1만장 규모 인프라 구축

베슬AI가 올해 1만 장 규모 최신 그래픽처리장치(GPU) 인프라를 구축해 클라우드 사업 확대에 나선다. 베슬AI는 GPU 자원을 효율적으로 운영하는 서비스 '베슬 클라우드'를 공식 출시했다고 24일 밝혔다. 베슬 클라우드는 분산된 GPU 자원을 활용해 인공지능(AI) 개발 환경의 비용과 운영 부담을 줄이는 데 초점을 맞춘 클라우드 서비스다. 회사 측에 따르면 업계 최소 수준인 분 단위의 과금 체계를 적용했으며 작업을 중단해도 데이터와 환경을 유지하는 '스마트 퍼징' 기능을 통해 유휴 자원 비용을 최소화한다. 장애 발생 시 자동 복구 기능과 다중 클러스터 기능도 지원해 안정적인 운영 환경을 제공한다. 글로벌 보안 통제 기준인 'SOC 2 타입 2' 인증을 획득해 기업 환경에 필요한 신뢰성과 안정성도 확보했다. 이번 출시는 베슬AI가 추진하는 글로벌 인프라 공급망 네오클라우드 전략의 본격적인 실행 단계에 해당한다. 회사는 이스라엘·미국·핀란드·한국을 포함한 6개 지역 데이터센터와 계약을 체결했으며 연내 신규 데이터센터 구축을 포함해 H200·B200·B300 등 GPU 1만 장 규모의 인프라를 단계적으로 확충할 계획이다. 이를 통해 증가하는 고성능 연산 수요에 대응한다는 방침이다. 현재 베슬 클라우드는 미국 피지컬 AI 스타트업부터 국내 대형 금융지주에 이르기까지 100여 개 기업 및 연구기관에서 이용되고 있다. 특히 로보틱스·미세 조정·자율주행 등 고성능 연산이 요구되는 딥테크 분야와 금융권에서 실제 상용 환경에 활용되며 안정성을 검증받고 있다. 베슬 클라우드는 지난 1월 한 달 만에 지난해 베슬AI 전체 연간 매출의 50% 이상을 기록했다. 이는 고성능 연산 자원 운영에 대한 시장 수요가 빠르게 확대되고 있음을 보여주는 지표다. 안재만 베슬AI 대표는 "AI 인프라 경쟁은 단순히 GPU 수량 확보를 넘어 전 세계에 분산된 자원을 얼마나 효율적으로 연결하고 운영하느냐가 핵심"이라며 "확충 중인 GPU 인프라와 이미 확인된 성장 흐름을 기반으로 올해 전년 대비 10배 이상의 매출 성장을 달성하고 네오클라우드 생태계를 글로벌 수준으로 확장해 나가겠다"고 말했다.

2026.02.24 14:13한정호 기자

[AI는 지금] 5000억 달러 '스타게이트' 제동…오픈AI 전략 차질에 반도체도 영향 받나

오픈AI와 소프트뱅크, 오라클이 추진해온 미국 초대형 인공지능(AI) 데이터센터 프로젝트 '스타게이트'가 1년 넘게 본격 가동되지 못한 것으로 알려졌다. 5000억 달러(약 720조원) 규모로 발표되며 글로벌 AI 인프라 경쟁의 상징으로 주목받았지만, 파트너십 구조를 둘러싼 이견과 자금 조달 문제 등이 겹치며 사실상 전략 수정 국면에 들어갔다는 평가가 나온다. 미국 IT 전문매체 디인포메이션은 23일(현지시간) 복수 소식통을 인용해 오픈AI·소프트뱅크·오라클이 프로젝트 발표 직후부터 역할 분담과 지배구조를 두고 의견 차이를 보여왔고, 이로 인해 사업이 실질적 진전을 이루지 못하고 있다고 보도했다. 스타게이트는 초기 1000억 달러를 투입해 10GW(기가와트) 규모의 AI 전용 컴퓨팅 인프라를 구축하는 것을 1단계 목표로 제시했다. 그러나 현재까지 핵심 인력 충원은 물론 오픈AI 주도의 데이터센터 개발도 착수 단계에 이르지 못한 것으로 전해졌다. 업계에선 초대형 인프라 사업 특성상 자산 소유권과 운영 통제권, 수익 배분 구조가 명확히 정리되지 않으면 금융 조달과 건설 일정이 동시에 지연될 수밖에 없다고 보고 있다. 특히 데이터센터 자산을 누가 보유할 것인지, 기술 통제권을 어디까지 인정할 것인지를 두고 3사 간 견해차가 컸던 것으로 알려졌다. 오픈AI는 한때 직접 데이터센터 구축을 추진했지만, 금융권이 상환 능력에 의문을 제기하면서 자금 조달이 보류된 것으로 전해졌다. AI 인프라는 선투자 규모가 막대하고 회수 기간이 긴데, 그래픽처리장치(GPU) 등 고가 연산 장비의 감가상각 부담과 기술 진화 속도까지 고려하면 금융기관 입장에서는 위험도가 높은 사업으로 분류된다. 결국 오픈AI는 3자 공동 추진 대신 소프트뱅크·오라클과 각각 개별 계약을 맺는 방식으로 방향을 틀었다. 오라클과는 미국 내 여러 지역에서 4.5GW 규모 데이터센터를 개발하고, 텍사스 밀럼 카운티 1GW 프로젝트는 소프트뱅크와 협력하는 구조다. 데이터센터 자산은 파트너가 보유하고, 오픈AI는 설계와 지식재산권(IP) 통제에 집중한다는 방침이다. 프로젝트 지연은 재무 부담으로도 이어졌다. 2030년까지의 컴퓨팅 비용 전망치는 기존 4500억 달러에서 6650억 달러로 상향 조정된 것으로 전해졌다. 한때 1조4000억 달러에 달했던 투자 계획도 최근에는 6000억 달러 수준으로 축소된 것으로 알려졌다. 공격적 확장에서 재무 안정성 중심 전략으로 기조가 이동하고 있는 것이다. 스타게이트 난항은 반도체 업계에도 영향을 미칠 수 있을 것으로 보인다. 초대형 AI 데이터센터 프로젝트는 대규모 GPU 발주와 이에 연동된 고대역폭메모리(HBM) 수요를 수반하기 때문이다. 프로젝트가 지연될 경우 관련 장비와 부품의 발주 일정 역시 조정될 가능성이 있다. 다만 업계에선 이를 AI 수요 위축으로 단정하기는 이르다는 분위기다. 스타게이트와 같은 초대형 단일 프로젝트가 지연될 경우 GPU 및 HBM 수요의 '총량'이 줄어들기보다는 대규모 발주의 집행 시점이 뒤로 밀리면서 시장 체감 성장 속도가 완만해질 가능성이 크다고 봤다. AI 인프라 투자가 중장기적으로 이어지는 흐름은 유지되더라도 데이터센터 건설 일정이 늦춰지면 반도체 업계의 실적 반영 시점 역시 후행할 수 있다는 의미다. 업계 관계자는 "스타게이트 사례는 AI 산업이 기술 경쟁을 넘어 자본 조달과 거버넌스 안정성이라는 현실적 과제에 직면했음을 보여주는 것"이라며 "인프라 확장의 방향성은 유지되지만, 속도와 방식은 조정되는 국면에 접어든 것으로 보인다"고 평가했다.

2026.02.24 10:41장유미 기자

클라우다이크 '브이픽', 엔비디아 AI스타트업 지원 프로그램 선정

클라우드 및 인공지능(AI) 솔루션 전문 기업 클라우다이크(대표 이선웅)는 AI 영상 분석 및 숏폼 제작 서비스 '브이픽(VPick)'이 엔비디아 스타트업 육성 프로그램인 '엔비디아 인셉션(NVIDIA Inception)'에 선정됐다고 23일 밝혔다. '엔비디아 인셉션'은 AI, 데이터 사이언스 등 혁신 기술을 보유한 전 세계 스타트업을 발굴, 지원하는 프로그램이다. 선정된 기업은 엔비디아 최신 GPU 기술 지원을 비롯한 클라우드 크레딧, 기술 교육 및 투자자 연결 등 기업 성장을 위한 다양한 혜택이 주어진다. 이선웅 대표는 이번 선정에 대해 "클라우다이크가 최근 출시한 브이픽의 AI 기술력을 인정받은 결과"라고 자평했다. 브이픽은 기업이 보유한 방대한 영상 데이터를 AI가 자동으로 분석, 마케팅에 즉시 활용 가능한 '숏폼(Short-form)' 영상으로 재가공해 주는 B2B SaaS(서비스형 소프트웨어)다. 브이픽은 단순히 영상을 이해하는 것을 넘어, 사용자가 클릭 몇 번으로 ▲자연어 명령을 통한 영상 검색 ▲AI를 통한 자동 숏폼 생성 ▲자동 자막 생성 등 고난도 영상 편집 작업을 수행할 수 있다. 이는 네이버클라우드 미디어 인텔리전스, 구글 제미나이(Gemini) 등 미디어 및 거대언어모델(LLM)을 결합한 '하이브리드 AI 아키텍처'를 적용했기 때문이다. 클라우다이크는 이번 엔비디아 인셉션 선정을 계기로 브이픽의 AI 기술 역량 고도화를 추진한다. 엔비디아의 고성능 GPU 인프라를 활용해 영상 처리 속도를 획기적으로 단축하고 서비스 운영 원가 절감 등을 통해 보다 합리적인 고객 서비스를 제공할 계획이다. 이선웅 대표는 “브이픽이 단순한 편집 도구를 넘어, GPU 가속 기술이 내재된 고도화된 AI 솔루션이라는 점을 글로벌 시장에 입증한 것"이라며 "향후 엔비디아 기술 지원을 바탕으로 영상 콘텐츠 제작 비효율 개선을 추진하며, 글로벌 AI 시장 진출에 박차를 가할 것"이라고 밝혔다.

2026.02.23 13:49박희범 기자

정부, 고성능 GPU 1만5천장 확충한다…다음주 사업 공고 전망

정부가 올해 1만 5000장 규모의 고성능 그래픽처리장치(GPU)를 추가 확보하는 대형 사업을 다음주 공개할 전망이다. 지난해 1만 3000여 장 도입에 이어 2년 연속 대규모 확충에 나서며 국가 인공지능(AI) 인프라를 강화하는 모습이다. 20일 업계에 따르면 과학기술정보통신부는 '첨단 AI반도체 서버확충 및 통합운영환경 구축' 사업 공고를 이르면 다음주 말께 게시할 예정이다. 공고 시점은 내부 검토 상황에 따라 다소 유동적이지만 최대한 이른 시일 내 공개할 것으로 전해졌다. 이번 사업은 1만 5000장 이상 규모의 GPU를 확보·구축하는 내용으로 설계되고 있다. 총 지원 예산은 약 2조원 규모로 편성됐다. 확보된 자원은 민간 클라우드 서비스 제공업체(CSP)가 구축·운영하는 서비스형 GPU(GPUaaS) 방식으로 제공될 예정이다. 정부의 GPU 확충 정책은 지난해 추경을 통해 1만 3000여 장을 확보하는 등 단계적으로 추진돼 왔다. 이후 엔비디아와의 협력 발표를 계기로 중장기 공급 로드맵이 보다 구체화되면서 확충 속도에 힘이 실린 것으로 평가된다. 당시 정부는 2030년까지 총 26만 장 규모 GPU를 국내에 도입하는 계획을 제시했고 이 가운데 정부 몫은 5만 2000장 수준으로 제시됐다. 올해 추가 확보 사업도 이러한 중장기 로드맵을 이행하는 과정의 연장선이다. 정부는 지난해 약 1만 3000장의 GPU를 확보하고 네이버클라우드·NHN클라우드·카카오를 1차 사업자로 선정한 바 있다. 당시 확보 물량은 엔비디아 B200 1만 80장, H200 3056장으로 구성됐으며 이 중 1만장 이상이 정부 활용분으로 산학연 등에 순차 지원하도록 이뤄졌다. 특히 1차 사업에서는 GPU 통합지원 플랫폼 구축을 통해 산학연과 스타트업이 온라인으로 GPU 자원을 신청·배정받는 구조도 마련됐다. 정부와 운용 사업자들은 실무협의체를 구성해 확보·구축·운용 계획과 배분 일정 등을 점검해왔다. 이를 토대로 최근 정부가 진행하는 GPU 보급 사업에 초거대 AI 모델 개발을 추진하는 스타트업과 대학·연구기관의 관심이 집중되며 신청 수요가 빠르게 늘어난 것으로 전해졌다. 올해 사업은 이같은 기반에 GPU 물량을 더 확대하는 방식이다. 과기정통부 산하 정보통신산업진흥원(NIPA)은 지난달 통합 사업설명회를 통해 올해 GPU 1만 5000장 확보를 목표로 제시하며 국가AI컴퓨팅센터 설립과 병행 추진하겠다는 계획을 밝힌 바 있다. 이번 사업은 지난해 참여했던 네이버클라우드·카카오·NHN클라우드를 비롯해 KT클라우드 등 주요 CSP들의 참여 여부가 관심사로 떠오르고 있다. 이미 GPUaaS 운영 경험과 데이터센터 인프라를 갖춰 공공사업을 진행 중인 만큼 다시 한번 GPU 추가 확보에 나설 가능성이 거론된다. 사업 공고에 따라 단일 사업자, 복수 사업자, 컨소시엄 형태 등 다양한 방식이 검토될 수 있다는 관측도 나온다. 이번에 확보될 GPU는 산학연 연구 수요와 국가 전략 AI 프로젝트 등에 투입될 전망이다. 정부는 지난해 확보 물량을 통해 초대형 클러스터 기반 AI 워크로드 지원 체계를 마련했으며 올해 추가 물량을 통해 지원 범위와 규모를 더욱 확대한다는 구상이다. 사업 일정은 공고 이후 사업자 선정, 협약 체결, GPU 발주 및 구축 순으로 진행될 예정이다. 이와 함께 정부는 삼성SDS 컨소시엄이 수주한 국가AI컴퓨팅센터 구축도 병행하고 있다. 현재 금융 심사가 진행 중이며 관련 절차가 마무리되는 대로 인프라 확충 작업이 이어질 전망이다. 정부는 민간과 협력하는 GPUaaS 모델을 통해 단기 수요에 대응하고 중장기적으로는 국가 차원의 컴퓨팅 인프라를 체계화한다는 방침이다. 과기정통부 관계자는 "최대한 빨리 공고를 내기 위해 준비 중이며 내부 검토를 거쳐 다음주 말쯤 공개될 것으로 예상한다"고 밝혔다. 업계 관계자는 "지난해 사업을 통해 GPUaaS 운영 모델이 어느 정도 안착한 만큼, 올해 추가 물량까지 더해지면 국가에서 추진하는 다양한 AI 개발 프로젝트를 수준 높게 지원할 수 있을 것"이라고 말했다.

2026.02.20 14:52한정호 기자

KOSA "GPU 26만장 확보는 시작…활용 경쟁으로 전환해야"

정부가 대규모 그래픽처리장치(GPU) 확보를 앞둔 가운데 한국인공지능·소프트웨어산업협회(KOSA)가 공공부문이 첫 고객으로 나서 수요를 창출하고 하드웨어(HW) 중심 정책을 소프트웨어(SW)·데이터 중심으로 전환해야 한다고 제언했다. 확보 경쟁을 넘어 실제 활용 경쟁으로 정책의 무게중심을 옮기지 못할 경우 막대한 예산이 투입된 GPU가 유휴 자산으로 전락할 수 있다고 경고했다. KOSA는 19일 발간한 '공공부문 GPU 활용 전략 보고서'를 통해 "GPU 26만 장 확보는 끝이 아닌 시작이며 진정한 승부는 누가 어떻게 쓰는가에 달려 있다"며 "인프라 보유 경쟁에서 벗어나 산업 현장의 활용 경쟁으로 정책 패러다임을 전환해야 한다"고 밝혔다. KOSA 산하 AI정책협력위원회가 발간한 이번 보고서는 2030년까지 정부가 확보하게 될 GPU 물량을 효율적으로 활용하기 위한 구체적 실행 방안을 담았다. 보고서는 GPU 수명이 3~5년에 불과하다는 점을 짚으며 인프라 규모에 비해 산업계의 실질적 활용 수요가 부족한 상황에서 도입 초기 가동률을 끌어올리지 못하면 전략 자산이 고철로 전락할 위험이 있다고 경고했다. 보고서는 이를 위해 4대 핵심 전략을 제시했다. 먼저 정부가 첫 번째 고객으로 나서 초기 시장을 여는 역할을 해야 한다고 강조했다. 행정·국방 등 공공부문에 국산 AI 도입을 촉진해 시장 불확실성을 제거하고 AI 도입률이 낮은 중소 제조기업을 대상으로 진단부터 기술검증(PoC), 구축까지 전 과정을 지원하는 원스톱 패키지 신설이 필요하다는 주장이다. 또 HW 구매에 편중된 예산 구조를 SW와 데이터 가치 중심으로 개편해야 한다고 제안했다. 정부 지원 사업에 수시 신청 트랙을 도입하고 성과가 검증된 기업에는 최대 3년(2+1년)까지 지원을 연장하는 다년도 체계를 마련해 기업이 비즈니스 기회를 적기에 활용할 수 있도록 해야 한다는 설명이다. 아울러 인프라 효율성을 높이기 위해 학습과 추론을 전략적으로 분리해야 한다고 제시했다. 고난도 모델 개발과 관련 연구개발(R&D)에는 엔비디아 GPU를 집중 투입하되, 대국민 서비스 등 추론 단계에서는 국산 신경망처리장치(NPU) 사용을 원칙으로 해 국산 칩의 초기 레퍼런스를 확보하고 생태계를 키워야 한다는 제언이다. 마지막으로 실전형 AI 엔지니어링 인재와 슈퍼컴퓨팅 아키텍트 육성을 강조했다. 산업 현장의 도메인 지식을 갖춘 인력을 대상으로 한 재교육과 함께 대규모 GPU 클러스터를 설계·운영할 수 있는 고성능컴퓨팅(HPC) 전문 인력을 국가 차원에서 체계적으로 양성해야 한다고 제안했다. 임우형 AI정책협력위원회 위원장(LG AI연구원 공동원장)은 "GPU 확보가 가시화된 지금이 AI 3대 강국 도약을 실현할 수 있는 골든타임"이라며 "공공부문이 선제적으로 마중물 역할을 하고 민간이 창의적인 엔지니어링으로 화답하는 민·관 원팀 플레이가 어느 때보다 절실하다"고 밝혔다. 조준희 KOSA 회장은 "우리나라가 보유한 세계 최고 수준의 제조 데이터를 무기로 풀스택 AI 패키지를 구축해 글로벌 수출 경쟁력을 확보해야 한다"며 "정부 예산이 GPU 구매라는 HW에만 머물지 않고 AI 공정대가 지급과 같이 SW 가치가 제대로 인정받는 건강한 생태계 조성으로 이어지도록 협회가 앞장서겠다"고 밝혔다.

2026.02.19 10:11한정호 기자

韓 AI반도체, '엔비디아 대항마' 넘어 실전으로

AI 시대의 개막과 함께 반도체 산업의 패러다임이 급변하고 있다. 인공지능 구현에 필수적인 고성능 반도체의 수요가 폭증함에 따라, 엔비디아의 GPU(그래픽처리장치)를 중심으로 한 글로벌 AI 생태계는 그 어느 때보다 공고한 성벽을 쌓아 올렸다. 그러나 최근 AI 시장의 무게추가 모델 학습에서 '추론(Inference)'으로 이동하며 GPU 중심의 시장 구조에 변화의 조짐이 나타나고 있다. 학습에서 추론으로, NPU 시장의 활성화 생성형 AI의 확산은 데이터센터부터 엣지, 온디바이스 전반에 걸쳐 막대한 연산 수요를 창출하고 있다. 초기 시장이 대규모 언어 모델을 학습시키기 위한 GPU 중심이었다면, 이제는 학습된 모델을 실무 서비스에 적용하는 추론 단계가 핵심 경쟁력으로 부상했다. 이 과정에서 AI 연산에 특화된 NPU(신경망처리장치) 시장이 본격적으로 활성화되고 있다. NPU는 범용성을 갖춘 GPU와 달리 AI 알고리즘 처리에 최적화돼 있어, 전력 효율성과 비용 측면에서 압도적인 강점을 가진다. 글로벌 테크 기업들이 효율적인 AI 인프라 구축을 위해 NPU로 눈을 돌리면서, NPU는 GPU의 대안을 넘어 차세대 반도체의 주역으로 자리매김하고 있다. 2026년, 대한민국 AI 반도체 '원년'의 선포 이러한 시장 변곡점에서 국내 AI 반도체 기업들은 글로벌 시장의 주도권을 잡기 위해 총력전을 펼치고 있다. 특히 2026년은 국내 주요 AI 반도체 스타트업들의 기술력이 담긴 칩들이 일제히 시장에 출시되는 시점으로, '한국 AI 반도체의 원년'이라 부르기에 부족함이 없다. 리벨리온, 퓨리오사AI, 딥엑스, 모빌린트 등 국내 기업들은 각기 다른 전략과 포지셔닝을 통해 글로벌 경쟁력 확보에 매진하고 있다. 이들은 단순한 기술 개발을 넘어 시제품(PoC) 단계를 통과하고 실제 양산 및 상용화 단계로 진입하며 실질적인 성과를 증명해야 하는 중요한 기로에 서 있는 셈이다. 생존 전략을 위한 SWOT 분석 [K-AI칩이 온다] 연재 기획은 국내 주요 AI 반도체 및 인프라 기업 7곳을 대상으로 이들의 기술력과 시장 생존 전략을 집중 조명한다. 각 기업의 주력 시장과 포지셔닝, 성능 및 전력 효율성, 그리고 소프트웨어(SW) 경쟁력을 다각도로 분석할 예정이다. 급변하는 글로벌 공급망 리스크와 양산 과제 속에서 국내 기업들이 가진 강점(Strength), 약점(Weakness), 기회(Opportunity), 위협(Threat) 요인을 면밀히 분석함으로써 대한민국 AI 반도체 산업의 현주소와 미래 가능성을 제시하고자 한다.

2026.02.18 16:00전화평 기자

엔비디아, 메타에 AI칩 수백만개 공급 예정…장기 파트너십 체결

엔비디아가 글로벌 주요 클라우드서비스제공자(CSP) 메타와 장기간·대규모 AI 반도체 공급에 대한 계약을 체결했다. 17일(현지시간) 엔비디아는 메타와 온프레미스, 클라우드 및 AI 인프라에 대한 다년간의 전략적 파트너십을 맺었다고 밝혔다. 이번 협력으로 엔비디아는 메타에 수백만 개의 '블랙웰' 및 '루빈' GPU를 공급할 예정이다. 해당 GPU는 AI 데이터센터에 필요한 초고성능 칩이다. 특히 루빈의 경우, 올해 본격적인 상용화가 예상된다. 또한 메타는 자사 데이터센터에 엔비디아의 그레이스 CPU를 단독으로 도입하기로 했다. 주요 CSP 기업 중 엔비디아의 그레이스 CPU만을 채용한 사례는 이번이 처음이다. 그간 메타는 Arm 기반의 CPU를 자사 AI칩의 보조 프로세서로 활용해 왔다. 이와 관련해 로이터통신은 "고객사향 매출을 공개한 적은 없지만, 메타는 엔비디아의 최근 분기 매출의 61%를 차지하는 4대 CSP 중 하나"라며 "엔비디아가 이번 계약을 강조한 것은 메타와의 대규모 사업 관계 유지와 CPU 시장에서의 입지 강화를 보여주기 위한 것"이라고 평가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "엔비디아는 CPU, GPU, 네트워킹 및 소프트웨어 전반에 걸친 심층적인 공동 설계로 메타가 차세대 AI 인프라를 구축하는 데 필요한 모든 플랫폼을 제공할 것"이라고 말했다. 마크 저커버크 메타 CEO는 "엔비디아와의 파트너십 확대로 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축하고, 전 세계 모든 사람에게 맞춤형 인공지능을 제공하게 돼 기쁘다"고 밝혔다.

2026.02.18 10:10장경윤 기자

경남형 피지컬 AI 시동…엔비디아 B200 품은 제조AI센터 발주

제조 공정 데이터와 실물 설비를 연결하는 피지컬 인공지능(AI)이 차세대 국가 경쟁력으로 부상하는 가운데, 경상남도가 제조업 중심 산업 구조에 특화된 인프라 구축에 나섰다. 고성능 그래픽처리장치(GPU)를 기반으로 한 제조AI 데이터센터를 조성해 도내 중소 제조기업의 AI 전환(AX)을 지원하겠다는 구상이다. 14일 조달청 나라장터에 따르면 경남테크노파크는 경남 제조AI 데이터센터 구축 사업을 발주했다. 총 사업비는 약 56억원 규모로 책정됐다. 사업기간은 계약 체결일로부터 60일로, 비교적 단기간 내 구축을 완료한다는 계획이다. 이번 사업은 지역 주도형 AI 대전환 사업의 일환으로, 공용 GPU 자원을 집적한 데이터센터를 통해 제조 현장에 특화된 AI 학습·추론 환경을 마련하는 것이 핵심이다. 경남 지역 산업 특성과 여건에 맞는 맞춤형 AI센터를 구축하고 공용 GPU 서버 및 엣지컴퓨팅 기반 인프라를 도입해 제조 현장 중심의 AI 서비스를 구현할 전망이다. 특히 고성능 GPU 서버를 중심으로 한 AI 인프라 확충을 통해 도내 중소 제조기업의 AI 활용도를 높이고 서비스 신뢰성을 제고할 계획이다. 사업 범위는 제조AI 및 중소 제조기업 AI 대전환(AX)을 위한 인프라 도입과 데이터센터 구축 전반을 포함한다. 고성능 GPU 서버와 고용량 스토리지 도입, AI 운영 솔루션 구축, 전산실 기반 환경 조성 등이 주요 과업이다. 아울러 기존에 도입된 GPU 서버와 스토리지 등 관련 인프라를 신규 센터로 이전·재배치해 통합 운영 환경을 마련한다. GPU 서버는 10U 랙형 서버 5대로 구성되며 엔비디아 B200 HGX SXM 기반 GPU를 서버당 8개 이상 탑재하도록 요구됐다. 이는 대규모 모델 학습과 분산 연산을 고려한 구성으로, 제조 공정 데이터 분석과 AI 모델 고도화에 대응하기 위한 설계로 풀이된다. 소프트웨어 측면에선 GPU 자원 풀링과 컨테이너 기반 학습·추론 환경을 위한 AI 운영 솔루션이 도입된다. GPU 가상화와 분할 기능을 활용해 단일 대형 모델뿐 아니라 소규모 추론부터 다중 노드 분산 학습까지 폭넓은 워크로드를 소화하기 위한 구조다. 해당 데이터센터는 경남 창원시 의창구 기업연구관 3층에 조성된다. 제안요청서에는 전산실 배치, 이중마루 및 냉복도 컨테인먼트 구성 등 물리적 인프라 요건도 세부적으로 명시됐다. 사업은 계약 이후 세부 수행 계획 수립과 현황 조사, 기반 인프라 구축, 장비 납품·설치, 정보시스템 이전, 통합 시험운영을 거쳐 완료보고 및 검사·검수 단계로 이어진다. 시험운영과 이중화 테스트를 통해 요구 성능 충족 여부를 검증하며 문제 발생 시 교체·증설·보완을 요구할 수 있도록 했다. 특히 기술능력평가 90점, 가격평가 10점 비중으로 종합평가를 실시한다. 기술평가에서는 장비·운용환경 구축, 기반인프라 계획, 정보시스템 이전 방안, 시험 및 안정화, 유지관리 정책 등을 중점적으로 본다. 단순 장비 납품을 넘어 프로젝트 관리 역량과 보안·품질 관리 체계까지 종합 평가 대상이다. 장애 발생 시 4시간 이내 조치 착수, 8시간 이내 복구 등 구체적 대응 기준도 제시돼 운영 안정성을 확보하도록 했다. 업계에선 이번 사업에 GPU 서버·AI 인프라 구축 경험을 보유한 시스템통합(SI) 기업과 데이터센터 전문 업체, 클라우드·AI 플랫폼 기업 등이 관심을 보일 것으로 보고 있다. 특히 엔비디아 B200 HGX 기반 사양이 명시된 만큼 관련 공급 레퍼런스를 확보한 기업 중심의 경쟁이 예상된다. 제조 데이터 특화 AI 운영 역량과 전산실 기반 인프라 구축 경험이 기술평가에서 핵심 변수가 될 것이라는 분석도 나온다. 이번 경남 제조AI데이터센터 구축은 단순한 GPU 집적 사업을 넘어 제조 현장의 설비·공정 데이터와 AI를 연결하는 경남형 피지컬 AI 인프라의 출발점으로 평가된다. 지역 제조기업이 자체적으로 고가의 GPU 자원을 확보하기 어려운 상황에서 공용 데이터센터를 통해 연산·저장·운영 환경을 통합 제공함으로써 AX를 가속화하겠다는 전략이다. 경남테크노파크 측은 "고성능 GPU 기반 제조AI데이터센터를 구축해 도내 중소 제조기업의 AI 대전환을 지원할 계획"이라며 "연산·운용·저장 자원을 통합한 데이터 기반 환경을 조성해 경남 주력산업의 AX를 촉진하겠다"고 밝혔다.

2026.02.14 09:23한정호 기자

[종합] 한국 클라우드, AI 인프라·공공사업이 판 키웠다…2025년 나란히 실적 반등

국내 클라우드 산업이 인공지능(AI) 인프라 수요 확대를 발판으로 또 한 번의 분기 성장세를 기록했다. 네이버·KT·NHN 등 주요 클라우드 서비스 제공사(CSP)들은 그래픽처리장치(GPU) 기반 AI 인프라와 공공 클라우드 전환 수요를 양축으로 외형 확대와 수익성 개선을 동시에 모색한 것으로 나타났다. 12일 네이버·KT·NHN이 공시한 2025년 4분기 실적에 따르면 각 기업은 AI 인프라 고도화와 공공·산업별 디지털 전환 수요를 기반으로 엔터프라이즈·기술·클라우드 부문 매출을 끌어올렸다. GPU 확보 경쟁과 데이터센터 투자 확대가 실적에 본격 반영되며 그룹 내 존재감을 키웠고 단순 인프라 공급을 넘어 AI 중심 플랫폼 사업자로의 전환이 본격화됐다는 평가가 나온다. 먼저 네이버는 2025년 4분기 엔터프라이즈 부문에서 1718억원의 매출을 기록했다. 전년 동기 대비 3.2% 감소했지만, 전년도에 반영된 일회성 요인을 제외하면 16.6% 성장한 수치다. 직전 분기 대비로는 14.5% 증가하며 회복세를 보였고 연간 기준으로는 5878억원을 기록하며 전년 대비 4.3% 성장했다. 이번 실적은 서비스형 GPU(GPUaaS) 매출 반영과 사우디아라비아 슈퍼앱 구축, 디지털 트윈 등 글로벌 프로젝트 확대에 힘입은 결과다. 네이버는 AI·클라우드 사업을 이끄는 네이버클라우드를 주축으로 금융·공공·의료 등 고보안 영역 중심의 소버린 AI 전략을 강화 중이며 서울대학교병원·한국은행과의 협업을 통해 산업별 특화 AI 모델 구축을 확대하고 있다. 다만 네이버클라우드는 최근 과학기술정보통신부가 추진한 독자 AI 파운데이션 모델 프로젝트 1차 평가에서 다음 단계 진출에 실패하며 우려가 제기돼왔다. 이에 대해 최수연 네이버 대표는 지난 6일 실적발표 컨퍼런스콜에서 "정부 측 결과를 존중하나 이것이 네이버의 기술 경쟁력 부족을 의미하는 것은 아니다"라며 "B2B 매출에 큰 영향은 없을 것이며 연구개발(R&D)을 통해 기술 리더십을 공고히 하겠다"고 밝혔다. KT클라우드는 2025년 연간 매출 9975억원으로 전년 대비 27.4% 성장하며 1조원에 근접한 실적을 기록했다. 4분기 매출은 2779억원이다. 공공 AI 클라우드 수요 확대와 글로벌 고객 데이터센터 이용률 증가가 동시에 작용한 결과라는 게 회사 측 설명이다. KT클라우드는 지난해 11월 국내 최초로 액체 냉각 기술을 적용한 가산 AI 데이터센터를 개소하며 고성능 AI 연산 수요에 대응하고 있다. 앞서 2030년까지 320메가와트(MW) 규모 AI 데이터센터 전력 인프라를 확보한다는 중장기 로드맵도 제시한 바 있다. 이같은 GPU 기반 인프라 확장에 더해 국내외 소프트웨어(SW) 기업과 협력하는 AI 파운드리 전략을 바탕으로 인프라·플랫폼·파트너 생태계를 아우르는 구조를 구축한다는 전략이다. 장민 KT 최고재무책임자(CFO)는 "KT클라우드는 글로벌 고객의 데이터센터 이용률 증가와 공공 AI 클라우드 수요 확대에 힘입어 의미 있는 성과를 거뒀다"며 "이러한 성장 흐름은 올해도 이어질 것"이라고 말했다. 다음으로 NHN클라우드는 2025년 4분기 사상 첫 분기 흑자를 달성했다. NHN 기술 부문은 4분기 1391억원의 매출을 기록했으며 이 가운데 NHN클라우드는 전년 동기 대비 30.7%, 전 분기 대비 37.6% 증가하며 영업이익 기준 첫 흑자를 냈다. 연간 기술 부문 매출은 4609억원으로 전년 대비 11.3% 성장했다. NHN클라우드는 광주 국가AI데이터센터에서 GPU 서비스를 국내 기업과 공공기관, 대학 등에 제공하며 AI 수요 확대에 대응해왔다. 또 정부 'GPU 확보·구축·운용지원 사업'에서 다음 달 가동을 목표로 엔비디아 B200 7천656장을 서울 양평 리전에 구축 중이다. 4000장 이상 GPU를 단일 클러스터로 구성하고 수냉식 냉각 시스템 도입으로 대규모 AI 인프라 운영 역량을 강화했다. 민간 부문에서도 성과가 이어졌다. NHN클라우드는 최근 크래프톤의 초거대 GPU 클러스터 사업자로 선정되며 대형 민간 레퍼런스를 확보했다. 지난해 국가정보자원관리원 대전센터 화재 이후 공공 재해복구(DR) 수요 확대와 민간 GPU 매출 증가가 동시에 반영되며 수익 구조 개선에 속도가 붙었다는 분석이다. 정우진 NHN 대표는 "국정자원 대구센터를 통해 주요 공공기관의 클라우드 전환을 완료했고 지난해 화재로 영향을 받았던 주요 정보 시스템도 성공적으로 복구했다"며 "올해도 NHN클라우드는 GPU를 기반으로 확대되는 시장 기회를 선점해 더 높은 수준의 성장 국면에 진입할 것"이라고 강조했다. 아울러 또다른 국내 주요 CSP인 카카오엔터프라이즈는 아직 명확한 실적이 공개되진 않았으나, 업계에선 이원주 대표 선임 이후 비용 효율화를 단행한 만큼 적자 폭을 상당 부분 줄였을 것이라는 예상이 나온다. 클라우드 중심 조직 재편과 비핵심 사업 정리를 통해 체질 개선에 나선 영향이 지난해 실적에 반영됐을 것이라는 관측이다. 카카오엔터프라이즈 역시 다른 CSP와 마찬가지로 GPU 서비스를 강화하고 있다. 지난해 하이브리드 GPUaaS를 공개하며 온프레미스와 클라우드를 결합한 AI 인프라 전략을 제시했다. GPU 인프라 비용 절감과 유연성 확보를 동시에 내세우며 AI 스타트업 및 엔터프라이즈 시장을 겨냥 중이다. 한편 지난해 국정자원 대전센터 화재 이후 공공 디지털 인프라의 안정성과 재해 대응 체계에 대한 경각심이 높아지면서 정부의 민간 클라우드 도입 논의도 활성화되고 있다. 주요 정보시스템의 이중화와 DR 체계 고도화가 정책 과제로 부상하면서 공공기관의 클라우드 전환 및 민관 협력형 인프라 구축 사업이 본격화될 것이라는 전망이 나온다. 이에 공공 레퍼런스와 데이터센터 운영 역량을 확보한 국내 CSP들에게는 중장기적 사업 기회가 확대될 수 있다는 분석이다. 다만 지난해 하반기부터 공공 클라우드 보안인증(CSAP) 재편 논의가 업계 변수로 떠올랐다. CSAP와 국정원 보안 절차 간 조정 가능성이 거론되면서 공공 클라우드 시장의 제도 환경 변화가 기로에 선 상황이다. 이에 국내 CSP들은 변화에 대비하며 공공 레퍼런스 확보와 기술 내재화 전략을 동시에 강화하는 분위기다. 클라우드 업계 관계자는 "GPU 확보와 데이터센터 효율화, 공공 AI 전환 수요가 동시에 확대되며 국내 CSP 간 경쟁이 치열해지고 있다"며 "올해는 외형 성장뿐 아니라 AI 인프라 내재화와 수익성 구조 개선이 경쟁을 가르는 분기점이 될 것"이라고 전망했다.

2026.02.12 15:21한정호 기자

NHN클라우드, 2025년 4분기 첫 흑자…GPU·공공 전환 수혜

NHN클라우드가 그래픽처리장치(GPU) 기반 인공지능(AI) 인프라 사업 확대와 공공 클라우드 전환 수요 증가에 힘입어 2025년 4분기 사상 첫 분기 흑자를 달성했다. 국가정보자원관리원(국정자원) 화재 이후 재해복구(DR) 수요가 본격화되고 정부 GPU 구축 사업이 가시화되면서 외형 성장과 수익성 개선을 동시에 이뤄냈다는 평가다. NHN은 12일 진행한 2025년 4분기 실적발표 컨퍼런스콜을 통해 기술 부문이 전년 동기 대비 17.4%, 전 분기 대비 24.5% 증가한 1391억원의 매출을 기록했다고 발표했다. 이 가운데 NHN클라우드는 4분기 매출이 전년 동기 대비 30.7%, 전 분기 대비 37.6% 증가하며 영업이익 기준 최초 분기 흑자를 달성했다고 밝혔다. 연결 기준 기술 부문 연간 매출은 4609억원으로 전년 대비 11.3% 성장했다. 4분기에는 GPU 서비스 매출 증가와 공공 클라우드 전환 사업 확대가 본격 반영됐다. 특히 NHN클라우드는 광주 국가AI데이터센터에서 GPU 서비스를 국내 기업과 공공기관, 대학 등에 제공하며 AI 수요 확대에 대응했다. 동시에 행정안전부 '모바일전자정부시스템' 등 주요 공공 시스템의 클라우드 전환 및 복구 사업을 수행하며 공공 레퍼런스를 강화했다. 정우진 NHN 대표는 "국정자원 대구센터를 통해 주요 공공기관의 클라우드 전환을 완료했고 지난해 화재로 영향을 받았던 주요 정보 시스템도 성공적으로 복구했다"고 밝혔다. 국가정보자원관리원 화재 이후 DR 수요가 확대되며 공공 클라우드 전환 사업이 실적에 본격 반영됐다는 분석이다. AI 인프라 분야에서도 대형 프로젝트 성과가 이어졌다. NHN클라우드는 정부 'GPU 확보·구축·운용지원 사업'에서 엔비디아 B200 7656장을 서울 양평 리전에 구축 중이며 다음 달 본격 가동을 앞두고 있다. NHN클라우드는 이 사업의 최다 구축 기업으로, 4000장 이상 GPU를 단일 클러스터로 구성하고 수냉식 냉각 시스템을 도입해 국내 최고 수준 운영 역량 입증에 나섰다. 이같은 기술력을 기반으로 최근에는 크래프톤의 초거대 GPU 클러스터 사업자로도 선정됐다. 민간향 AI GPU 매출 확대와 함께 통합 메시지 플랫폼 '노티피케이션' 사용량 증가도 4분기 실적 개선에 힘을 보탰다. NHN은 올해도 GPU 기반 AI 인프라 수요 확대와 DR 사업에서의 지속 수혜를 전망하고 있다. 안현식 NHN 최고재무책임자(CFO)는 "올해 GPU 사업에서 괄목할 만한 성장이 예상되고 DR 사업 수요도 이어질 것"이라며 "올해 클라우드 부문에서 영업이익을 확실히 달성해 흑자 전환될 구조를 만들겠다"고 말했다. 정우진 NHN 대표는 "올해도 NHN 클라우드는 GPU 기반으로 확대되는 시장 기회를 선점해 더 높은 수준의 성장 국면에 진입할 것"이라고 밝혔다.

2026.02.12 10:46한정호 기자

카카오, 구글과 협력…차세대 AI 경험 선보인다

카카오가 차세대 인공지능(AI) 경험을 제공하고자 구글과 손 잡는다. 정신아 카카오 대표는 12일 지난해 4분기 실적 발표 컨퍼런스 콜에서 "올해부터 자사가 더 집중하고자 하는 디바이스 측면에서 차세대 AI 경험을 선보이기 위해 글로벌 협업을 본격적으로 시작하기로 합의했다"고 말했다. 이번 파트너십의 출발점으로 카카오는 자사 온디바이스 AI 서비스를 고도화하기 위해 구글 안드로이드와 협업을 시작한다. 안드로이드 개발팀과 직접 협업한다. 여기에 카카오는 AI 인프라에 대한 재무적 부담이 점진적으로 증가하고 있다는 점을 고려해 그래픽처리장치(GPU)에서 나아가 다양한 칩 라인업을 모델과 서비스별로 최적화해 배치함으로써 자본 효율적인 방식으로 AI 인프라를 강화하는 방안을 고민한다. 또 카카오는 구글클라우드와의 유의미한 규모의 중앙처리장치(CPU) 클라우드 운영에 대한 논의도 진행 중이다. 카카오는 향후 출시될 구글 AI 글래스에서의 협업에도 착수한다. 정 대표는 "앞으로 다양한 AI 폼팩터 환경에서 카카오 서비스가 더해질 때 이용자 경험이 어떻게 달라질 수 있을지에 대한 가설을 세우고 이를 바탕으로 하나씩 실험하며 새로운 AI 사용 경험을 만들어 가고자 한다"고 덧붙였다.

2026.02.12 09:32박서린 기자

삼성전자, AI 메모리 혁신 'PIM' 상용화 박차… "LPDDR6 표준 논의 중"

삼성전자가 AI 시대의 고질적인 문제인 '메모리 벽'을 허물기 위해 PIM(Process In Memory) 기술 상용화 로드맵을 구체화했다. 특히 온디바이스 AI 시장을 겨냥해 LPDDR6 기반의 PIM 표준 논의에 착수하며 차세대 시장 선점에 나선다. 손교민 삼성전자 마스터는 11일 삼성동 코엑스에서 열린 '세미콘 코리아 2026' 기조연설에서 "현재 AI 성능은 메모리 대역폭의 부족으로 인해 GPU의 성능을 100% 발휘하지 못하고 있다"며 PIM 기술의 필요성을 강조했다. PIM은 메모리 내부 뱅크(Bank) 레벨에 연산 유닛(ALU)을 배치하는 기술이다. 기존 방식이 데이터를 CPU나 GPU로 옮겨 연산했다면, PIM은 메모리 안에서 직접 연산을 수행한다. 이를 통해 대역폭에서 크게 이득을 얻으면서도, 전력 효율성 또한 크게 상승한다는 게 손 마스터의 설명이다. HBM에서 LPDDR로, 상용화 무게중심 이동 삼성전자는 그간 HBM-PIM 등을 통해 기술 검증(PoC)을 마쳤으며, 이제는 실제 양산이 가능한 커머셜 제품 단계로 진입하고 있다. 그 중심에는 스마트폰 및 온디바이스 AI 기기에 최적화된 LPDDR 시리즈가 있다. 손 마스터는 "LPDDR은 DDR 대비 스피드가 빠르게 발전하고 있으며, 온디바이스 AI에 가장 적합한 용처를 가지고 있다"며 상용화 로드맵을 공개했다. 발표에 따르면 삼성전자는 LPDDR5X에 PIM을 적용할 계획이다. LPDDR5X PIM은 현재 주요 고객사들과 협력해 개발 중이며, 올해 하반기 샘플링이 가능할 전망이다. 아울러 차세대 규격인 LPDDR6에 PIM을 적용하기 위한 스펙 논의가 현재 활발히 진행 중이다. "시스템 생태계와 협력해 '메모리 그 이상' 추구" PIM의 성공적인 안착을 위해서는 소프트웨어 및 시스템 생태계의 변화가 필수적이다. 손 마스터는 "PIM은 NPU나 GPU를 대체하는 것이 아니라, 이들과 협력해 시스템 전체의 성능을 높이는 솔루션"이라며 "과거에는 소프트웨어 지원 문제로 PIM이 어렵다는 인식이 있었으나, 현재는 많은 기업이 이를 도입하려는 의지를 가지고 있다"고 말했다. 삼성전자는 향후 하이브리드 본딩 등 고도의 패키징 기술을 결합하여, PIM이 AI 연산의 필수 요소로 자리 잡도록 개발을 지속할 계획이다.

2026.02.11 17:08전화평 기자

엔비디아 "한국 반도체 업체와 피지컬 AI 협력 지속"

"한국은 삼성전자, SK하이닉스, 현대차그룹, LG전자 등 세계적 제조기업을 보유한 전략적 거점이다. 엔비디아가 추진하는 디지털 트윈과 피지컬 AI 기반 협력을 주도하는 전초기지 역햘을 수행하고 있다." 11일 서울 코엑스에서 열린 '세미콘 코리아 2026' 기조연설에서 정소영 엔비디아코리아 대표가 이렇게 설명했다. 이날 엔비디아는 반도체 설계부터 제조까지 산업 전반에 걸친 단계에서 생산성과 효율을 강화할 수 있는 AI 모델과 디지털 트윈 기술을 소개했다. 또 반도체 생태계를 넘어 산업 전반의 혁신 기업으로 역할을 확대해 나가겠다는 비전을 제시했다. 제품 대신 지능 생산하는 'AI 팩토리' 대두 이날 정소영 대표는 AI 시대 산업 패러다임의 전환이 'AI 팩토리'와 '피지컬 AI' 등 두 축을 중심으로 일어나고 있다고 설명했다. 정 대표는 "전통적인 공장은 사람과 자원을 투입해 제품을 생산한 반면 AI 시대의 공장은 데이터와 전기를 투입해 지능(인텔리전스)를 생산하는 공간"이라고 정의했다. 이어 "AI 팩토리에서 생성된 인텔리전스가 반도체·제조·자동차·통신 등 다양한 산업에 접목되며 실질적인 변화를 만들어내고 있다. 이미 글로벌 주요 산업 현장에서 AI 기반 혁신이 가속화되고 있다"고 덧붙였다. 그는 피지컬 AI에 대해 "이는 단순히 로봇을 움직이는 것이 아니라 현실 세계에 존재하는 다양한 물리적 개체(entity)에 지능을 결합해 우리 삶과 생산 현장 전반에 AI의 영향을 확장시키는 단계"라고 밝혔다. "엔비디아, AI 팩토리 구성 인프라 제공" 엔비디아는 2020년대 이후 AI 연산을 수행하는 GPU에 머무르던 것에서 벗어나 AI 처리 인프라를 제공하는 기업으로 포지션 변화를 시도하고 있다. 정소영 대표는 "AI 팩토리는 GPU를 시작으로 클라우드와 온프레미스 데이터센터, 그 위에서 구동되는 AI 모델과 고부가가치 소프트웨어·서비스로 구성된다. 엔비디아는 이런 가속 컴퓨팅 기반을 산업 전반에 제공하는 인프라 기업"이라고 말했다. 이어 "올 하반기 출시할 차세대 GPU 플랫폼 '베라 루빈'은 베라 CPU, 루빈 GPU와 네트워킹 칩, 스위치 등 6개 요소를 동시 개발하고 최적화하며 AI 플랫폼을 구현중"이라고 덧붙였다. "CPU 대신 GPU 활용해 소요시간 단축" 엔비디아는 CPU 대신 GPU를 활용하는 쿠다(CUDA)-X 라이브러리로 고성능·장시간 연산이 필요한 산업계 과제의 소요 시간 단축을 제공하고 있다. 2023년 엔비디아가 개발한 소프트웨어 라이브러리인 cu리소(cuLitho)는 반도체 식각 공정에 쓰이는 포토마스크 설계 시간을 크게 단축한다. 기존 CPU로 2주 이상 걸리던 연산 시간을 하루 내외로 줄였다. 정소영 대표는 "주요 반도체 소자를 시뮬레이션하는 TCAD, 리소그래피, 전자설계자동화(EDA) 등 반도체 전 분야에 AI 기반 모델이 적용된다. 삼성전자·SK하이닉스 등 국내 주요 업체도 설계 시간 단축, 시뮬레이션 고도화 등을 추진중"이라고 밝혔다. 시뮬레이션 플랫폼 '옴니버스', 반도체 생산 자동화 가속 엔비디아는 현실 세계 물리 법칙과 환경을 시뮬레이션 할 수 있는 플랫폼 '옴니버스'를 피지컬 AI 구현에 활용하고 있다. 자율주행차와 휴머노이드 로봇, 자율이동로봇(AMR) 등 다양한 장비 개발 소요 시간을 단축하고 정밀도를 높일 수 있다. 정소영 대표는 옴니버스 활용 사례로 "어플라이드 머티어리얼즈(AMAT)와는 디지털 트윈 기반 생산 공정 제어에 협력하고 있고 램리서치 및 LG디스플레이 등과도 협업을 확대하고 있다"고 설명했다. 정 대표는 "반도체 산업은 축적된 방대한 부품·공정 데이터를 보유하고 있어 AI 에이전트를 통한 자동화와 EDA 가속화에 유리하다. 실제로 아드반테스트와 AI 에이전트를 활용한 제품 테스트 자동화도 공동 개발 중"이라고 밝혔다.

2026.02.11 15:41권봉석 기자

송재혁 삼성전자 CTO "커스텀 HBM으로 AI 메모리 벽 깬다"

삼성전자가 메모리와 파운드리, 패키징 역량을 총집결한 '커스텀 HBM(고대역폭메모리)을 앞세워 AI 반도체의 고질적 난제인 '메모리 벽' 돌파에 나선다. 메모리 칩 내부에 직접 연산 기능을 넣는 파격적인 설계와 최첨단 로직 공정을 결합해, 단순한 부품 공급자를 넘어 AI 아키텍처의 설계자로서 주도권을 잡겠다는 전략이다. 송재혁 삼성전자 CTO(사장)는 11일 서울 코엑스에서 열린 '세미콘 코리아 2026' 기조연설에서 '비욘드(Beyond) ZFLOPS: AI 시스템의 미래 아키텍팅'을 주제로 삼성의 차세대 반도체 로드맵을 발표했다. 송 사장은 "현재 GPU(그래픽처리장치) 성능은 비약적으로 성장하고 있지만, 메모리 대역폭의 증가 속도는 이를 따라가지 못해 AI 시스템 발전의 허들이 되고 있다"고 진단했다. 이러한 불균형을 해결할 삼성전자의 핵심 병기는 '커스텀 HBM'이다. 기존 HBM이 데이터를 전달하는 통로 역할에 충실했다면, 삼성의 커스텀 HBM은 메모리 하단부인 '베이스 다이' 내부에 '컴퓨트 코어'를 이식하는 '컴퓨트 인 베이스 다이' 아키텍처를 채택했다. 이 기술을 적용하면 GPU와 메모리 사이의 불필요한 데이터 이동이 최소화되어 연산 효율이 극대화된다. 삼성전자에 따르면 커스텀 HBM 기반 시스템은 기존 GPU 구조 대비 전력 대비 성능이 약 2.8배 향상되는 것으로 확인됐다. "메모리+파운드리" 원팀 시너지… "삼성만이 가능한 영역" 송 사장은 삼성 커스텀 HBM의 경쟁력을 뒷받침하는 핵심 동력으로 삼성전자의 '토탈 솔루션' 역량을 강조했다. 회사는 최첨단 D램, 초미세 로직 공정 파운드리(반도체 위탁생산), 어드밴스드 패키징 기술을 전 세계에서 유일하게 보유했다. 이러한 강점을 살려 시장 리더십을 차지하겠다는 계획이다. 송 사장은 "단일 기업 내에서 메모리와 로직의 시너지를 극대화함으로써 AI 시장이 요구하는 폭발적인 기능을 가장 효율적으로 지원할 것"이라고 자신했다. HBM4 넘어 'zHBM'으로…3D 메모리 시대 예고 삼성전자는 이날 기조연설에서 HBM4(6세대) 이후의 미래형 아키텍처인 'zHBM'의 세부 사양도 처음으로 공개했다. zHBM은 기존 평면적인 배치를 넘어 완전한 3D 적층 구조를 지향한다. 제품의 명칭이 zHBM인 것도, HBM을 패키징할 때 z축(수직)으로 쌓았기 때문이다. zHBM은 멀티 웨이퍼 투 웨이퍼 본딩 기술을 통해 수만 개의 I/O(입출력 단자)를 확보하며, 이를 통해 차세대 HBM 대비 대역폭은 4배 이상 높이고 전력 소비는 75% 절감하는 혁신적인 성능을 목표로 하고 있다. 또한 소자 레벨에서 혁신도 가속화한다. 삼성은 차세대 트랜지스터 구조인 CFET 연구 결과를 공유하며, 기존 구조 대비 채널 반응 속도가 20% 이상 빨라졌음을 확인했다고 밝혔다. 아울러 저전력 구현을 위한 산화물 반도체 채널 적용 등 미세 공정의 한계를 넘기 위한 기술 개발도 순항 중임을 시사했다. 송 사장은 "가상 세계를 넘어 현실을 인식하고 행동하는 '피지컬 AI(Physical AI)' 시대가 머지않았다"며 "삼성 반도체는 최적화된 시너지 솔루션을 통해 인류의 진화에 기여할 준비가 되어 있다"고 말했다.

2026.02.11 15:07전화평 기자

[유미's 픽] 李 'AI 고속도로'가 바꾼 판…정부 GPU 지원, 스타트업 실험에 불 붙였다

'인공지능(AI) 고속도로' 구축을 위해 이재명 정부가 추진해온 고성능 그래픽처리장치(GPU) 지원 사업이 국내 AI 스타트업 생태계 조성에 실질적인 역할을 했다는 평가가 나오고 있다. 대규모 연산 자원이 필수적인 파운데이션 모델 개발과 차세대 AI 구조 연구에서 초기 자본이 부족한 스타트업들도 정부 덕에 기술 실험을 지속할 수 있는 토대가 마련됐다는 분석이다. 10일 업계에 따르면 트릴리온랩스는 지난해 9월부터 4개월여간 정부로부터 엔비디아 H200 GPU 80장 규모의 고성능 연산 자원을 지원받아 차세대 AI 구조 연구를 진행했다. 이를 통해 초거대 모델 학습뿐 아니라 기존 트랜스포머 구조의 연산 효율을 개선하기 위한 신규 아키텍처 실험과 대규모 검증을 병행할 수 있는 환경을 구축했다. 이 연산 인프라는 구체적인 기술 성과로도 이어졌다. 트릴리온랩스는 지원받은 GPU 자원을 활용해 지난 달 디퓨전 기반 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다. '트리다-7B'는 단어를 하나씩 순차적으로 생성하는 기존 방식에서 벗어나 문장 전체를 병렬로 생성하는 확산(diffusion) 기법을 언어 모델에 적용한 것이 특징이다. 또 이미지 생성에 주로 활용되던 디퓨전 기술을 언어 모델 구조에 이식함으로써 추론 속도와 연산 효율을 동시에 끌어올렸다. 이와 함께 지난해 10월에는 소규모 프록시 모델을 활용해 대형 언어모델의 성능을 사전에 예측하는 '알브릿지(rBridge)' 기법도 개발했다. 실제 대형 모델을 반복 실행하지 않고도 성능을 가늠할 수 있는 구조로, 연산 효율을 최대 700배 이상 개선하고 거대언어모델(LLM) 개발 비용을 대폭 절감할 수 있는 가능성을 제시했다. 대규모 모델 학습에 앞서 시행착오를 줄일 수 있다는 점에서 파운데이션 모델 개발 방식 자체를 바꿀 수 있는 접근으로 평가된다. 업계에선 이러한 성과가 단순한 개별 기술 개발을 넘어 AI 연구·개발의 비용과 시간, 자원 구조를 근본적으로 재설계했다는 점에 주목하고 있다. 대형 모델을 '더 많이 돌리는 방식'이 아니라 '덜 돌리고도 더 많이 검증하는 방식'으로 전환할 수 있는 가능성을 보여줬다는 점에서다. 이는 스타트업이 제한된 자원 환경에서도 고난도 연구를 지속할 수 있는 실질적인 해법으로 꼽힌다. 이 같은 결과 뒤에는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 지원 방식도 한 몫 했다는 평가다. 앞서 정부는 삼성SDS·KT클라우드·엘리스클라우드를 '고성능컴퓨팅 지원사업' 공급사로 선정한 후 지난해 9월부터 12월까지 국내 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등에 총 1천 장의 GPU를 지원했다. 당시 삼성SDS와 엘리스그룹은 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급했다. 당시 정부에선 그간 단순히 GPU를 일괄 배분하는 데 그치지 않고 연구 단계와 실험 난이도에 맞춰 자원 활용 계획을 조정하며 과제 수행 전반을 관리했다. 또 개발 과정에서 발생하는 변수에 따라 지원 방식을 유연하게 조정하고 현장의 피드백을 즉각 반영하는 방식으로 연구 완성도를 높였다. 이 과정에서 정부는 단순한 예산 집행 기관을 넘어 프로젝트의 '내비게이터' 역할을 수행하며 실질적인 성과를 견인했다는 평가를 받았다. 또 단순히 규모가 큰 기업이 아닌, 독보적인 기술력과 성장 잠재력을 보유한 스타트업을 정밀하게 선별해 과제 수행 기업으로 낙점하려는 노력이 참여 기업으로부터 큰 호응을 얻었다. 업계 관계자는 "정부가 행정적 관리에 그치지 않고 모델 출시 과정에서 발생하는 변수에 맞춰 지원 체계를 업데이트했다"며 "현장의 목소리를 즉각 반영해 모델의 완성도를 높이는 실질적인 가이드도 제공해줬다"고 말했다.이어 "무한정한 지원 대신, 한정된 예산 내에서 최선의 결과물을 낼 수 있도록 목표 난이도를 정교하게 조정해준 점도 인상 깊었다"며 "이를 통해 자원의 낭비를 막고 효율적인 사용 위에 최대의 성과를 이끌어냈다"고 덧붙였다. 트릴리온랩스 역시 정부 인프라 지원을 발판 삼아 국내에서 시도된 적 없는 기술 실험을 진행할 수 있었다고 평가했다. 독자적인 모델 구조와 학습 기법을 실제 대규모 환경에서 반복 검증하며 스타트업이 겪는 컴퓨팅 파워 한계를 일정 부분 극복할 수 있었다는 것이다. 신재민 트릴리온랩스 대표는 "정부의 GPU 지원 사업이 단순한 인프라 제공을 넘어 기술 기업의 도전 방식을 바꿨다"며 "자본력보다 기술적 실험과 구조 혁신에 집중할 수 있는 조건을 마련했다는 점에서 국내 AI 생태계에 미친 영향이 적지 않다"고 강조했다. 이 같은 분위기 속에 정부가 추가경정예산으로 확보한 고성능 GPU 자원으로 어떤 AI 연구 기관, 기업들이 수혜를 받을지 관심이 쏠린다. 정부는 총 1만3천136장 규모의 GPU를 최대 12개월까지 이용할 수 있도록 한 사업을 공고한 후 지난 달 28일 마감했다. 이번에는 학계·연구기관은 무상으로, 산업계는 자부담 방식으로 지원받는 구조다. 구축·운영은 민간 클라우드 3사가 맡는다. 네이버클라우드는 세종 데이터센터에 H200 2296장을 안착시켰고, 카카오는 안산 데이터센터에 B200 2040장을 클러스터 형태로 구축했다. NHN클라우드는 3월께 B200 6120장을 갖출 계획이다. 정부는 이 사업에 예산 1조4590억원을 투입했다. 이번 프로젝트는 과제별로 H200, B200 중 하나만 신청할 수 있다. 신청은 서버 묶음 기준으로 이뤄진다. H200은 최소 서버 2대(16장)에서 최대 서버 32대(256장)까지, B200은 최소 서버 2대(16장)에서 최대 서버 16대(128장)까지다. 조만간 선정될 수요 기업은 원격 접속 방식인 GPUaaS(GPU as a Service)로 고성능 컴퓨팅 자원을 손쉽게 이용할 수 있다. 정부가 고수한 '1사 1지원' 원칙을 사실상 폐기해 중복 신청 문턱이 낮아진 점도 눈에 띈다. 이 일로 동일 기업 내 복수 부서도 각각 GPU 자원을 확보할 수 있게 됐다. 다만 연구 인력의 독립성과 과제 주제는 차별돼야 한다. 여기에 정부는 지난해 확보한 1만3000장에 이어 올해는 B200 기준 1만5000장을 투입해 지원 범위를 넓힐 계획이다. 이를 구축하기 위해 총 2조831억원(출연금)이 투입될 이번 사업 공고는 이달 중 나올 예정으로, 과기정통부 단일 사업 기준 최대 규모 프로젝트로 평가된다. 또 단일 사업자가 전체 물량을 감당하기 어려운 만큼, 사업 구조 자체를 어떻게 설계할지가 관건이 될 전망이다. 과기정통부 관계자는 "주요 클라우드 서비스 제공업체(CSP)들과 면담한 결과 데이터센터 상면(물리적 수용 공간) 확보는 어느 정도 가능한 수준으로 파악됐다"며 "최신 GPU를 확보하는 것이 유리한 만큼 엔비디아 차세대 AI 칩 '베라루빈'을 업체들이 제안할 경우 가점을 줄 지에 대한 방안에 대해선 고민 중"이라고 밝혔다. 업계에선 정부의 고성능 연산 인프라 지원이 일회성 사업에 그치지 않고 파운데이션 모델·신규 아키텍처·산업 특화 AI로 이어지는 연속적인 연구 생태계로 정착할 수 있을지가 향후 사업 성공 여부의 관건이 될 것이라고 전망했다. 업계 관계자는 "특히 연산 자원 접근성이 기술 경쟁력으로 직결되는 AI 산업 특성을 감안할 때 정부의 GPU 지원 정책이 국내 스타트업들의 글로벌 도전 여력을 좌우하는 핵심 변수로 작용할 것으로 예상된다"며 "단기 성과보다 중장기 연구 축적이 가능한 구조로 설계될 경우 정부 지원이 국내 AI 산업의 체질을 바꾸는 계기가 될 수 있다"고 말했다.

2026.02.10 11:43장유미 기자

AMD, 작년 4분기 사상 최대 실적에도 주가 17% 급락

AMD가 지난해 4분기 매출과 영업이익에서 분기 기준 사상 최고치를 기록했지만, 향후 실적 전망에 대한 실망감이 부각되며 주가가 17% 가량 하락했다. AMD는 지난해 4분기 매출 103억 달러(약 14조 9144억원), 영업이익 15억 달러(약 2조 1720억원)를 기록했다고 밝혔다. 이는 분기 기준 사상 최대 실적이다. 그러나 AMD가 제시한 올해 1분기 실적 전망이 시장 기대를 충분히 충족시키지 못하면서 주가는 급락했다. AMD는 올해 1분기 매출을 약 98억 달러(약 14조 1904억원)로 제시했다. 이는 시장 예상치였던 94억 달러를 웃도는 수준이지만, 일부 투자자들이 기대했던 100억 달러 돌파에는 미치지 못했다. 이 여파로 AMD 주가는 3일(현지시간) 종가 기준 242.11달러(약 35만 3천원)에서 17.3% 하락한 200.21달러(약 29만 2700원)까지 떨어졌다. 사상 최대 실적에도 불구하고 향후 성장 속도에 대한 기대가 낮아진 점이 투자심리를 위축시킨 것으로 풀이된다. 미국 CNBC는 4일(현지시간) "AI 관련 GPU와 서버 수요가 강하게 이어지고 있는 만큼, 시장에서는 AMD가 보다 공격적인 실적 가이던스를 제시할 것으로 기대하고 있었다"고 분석했다. 이에 대해 리사 수 AMD CEO는 4일 CNBC와의 인터뷰에서 AI 시장에 대한 중장기 성장 자신감을 재차 강조했다. 그는 "AI는 전혀 예상하지 못했던 영역까지 빠르게 확산되고 있으며, 이에 따른 수요는 지속적으로 증가할 것"이라고 말했다. 리사 수 CEO는 특히 데이터센터 사업의 성장세를 강조했다. 그는 "AMD의 데이터센터 부문은 지난해 4분기에서 올해 1분기에 걸쳐 꾸준히 성장하고 있다"며 "AI 처리량 요구가 급증하면서 서버용 에픽(EPYC) 프로세서에 대한 수요도 매우 강하다"고 설명했다. AMD는 올 하반기를 기점으로 AI 인프라 사업에서 또 한 번의 전환점을 맞을 것으로 보고 있다. 리사 수 CEO는 "서버 CPU, GPU, 고속 네트워킹을 하나의 랙 단위로 통합한 '헬리오스 AI 랙'을 출하하면서 의미 있는 변곡점이 나타날 것"이라고 밝혔다. 헬리오스 AI 랙은 OCP DC-MHS, UA 링크, 울트라 이더넷 컨소시엄(Ultra Ethernet Consortium) 등 개방형 표준을 기반으로 설계된 서버 시스템이다. 이는 특정 기업 중심의 폐쇄형 생태계와 차별화되는 전략으로 평가된다. 앞서 리사 수 CEO는 올해 1월 열린 CES 2026 기조연설에서 헬리오스 AI 랙 실물을 공개한 바 있다. 그는 당시 "랙 구성 요소인 트레이 한 개당 차세대 AI GPU 가속기 '인스팅트 MI455X' GPU 4개와 '베니스' 프로세서 4개, HBM4 메모리 432GB가 탑재될 것"이라고 설명했다.

2026.02.05 10:54권봉석 기자

엔비디아 GPU 의존 넘을까…정부에 발 맞춘 LG CNS, 국산 AI 반도체로 공공 AX 공략

LG CNS가 인공지능(AI) 반도체 기업 퓨리오사AI와 손잡고 신경망처리장치(NPU) 기반 AI 서비스를 개발해 공공 AX 시장 공략에 나선다. 정부가 국산 AI 반도체 육성을 핵심 과제로 내세운 가운데 대기업과 국내 AI 반도체 스타트업 간 협력이 본격화하는 모습이다.LG CNS는 서울 마곡 LG사이언스파크 본사에서 퓨리오사AI와 'AI 인프라 사업 협력 확대'를 위한 업무협약(MOU)을 체결했다고 5일 밝혔다. 협약식에는 LG CNS AI클라우드사업부 김태훈 부사장과 퓨리오사AI 백준호 대표 등 주요 경영진이 참석했다. 퓨리오사AI는 AI 연산에 특화된 반도체인 NPU를 설계·개발하는 AI 반도체 스타트업이다. 퓨리오사AI의 2세대 NPU 'RNGD(레니게이드)'는 대규모 AI 서비스에 필요한 고성능 요건을 충족하고, 그래픽처리장치(GPU) 대비 전력 소모와 운영 비용을 크게 줄일 수 있다. 퓨리오사AI는 지난 1월 TSMC로부터 RNGD 4000장을 인도받으며 양산에 성공, 글로벌 시장 공략 및 보급에 박차를 가하고 있다. 이번 협력을 통해 양사는 LG AI연구원 컨소시엄으로 참여 중인 '독자 AI 파운데이션 모델' 프로젝트 내 협력을 강화한다. LG CNS는 퓨리오사AI의 RNGD를 적용한 K-엑사원(EXAONE)을 기반으로 AI 서비스의 성능을 최적화하고, 상용화해 시너지를 극대화하는 역할을 맡는다. 퓨리오사AI는 안정적인 RNGD 공급과 함께 NPU 관련 기술 지원을 담당한다.이번 협력은 국산 AI 반도체가 실제 AI 서비스 환경에서 상용화 가능성을 검증하는 사례라는 점에서 업계의 관심을 받고 있다. 그동안 국내 AI 반도체는 기술력 대비 상용 레퍼런스 부족이 한계로 지적돼 왔는데, 이번 협력을 계기로 대기업 AI 서비스 인프라에 토종 NPU가 적용되는 실증 사례가 추가됐다는 평가다. 업계에선 이번 협력이 토종 AI 반도체가 엔비디아 중심의 GPU 생태계에 도전할 수 있는 가능성을 보여주는 사례이자, 국내 AI 반도체 기업들이 본격적으로 공급망에 참여할 수 있는 신호탄이라는 분석도 나온다. GPU 중심 인프라 구조에서 벗어나려는 시도라는 점도 이번 협력의 의미로 꼽힌다. 퓨리오사AI의 NPU는 GPU 대비 전력 효율과 추론 성능 측면에서 경쟁력을 갖췄다는 평가를 받아왔다. 이번 프로젝트를 통해 단순한 하드웨어 대체를 넘어 AI 서비스 특성에 맞춰 GPU와 NPU를 병행·최적화하는 인프라 구조의 가능성을 검증한다는 점에서 AI 인프라 생태계 확장으로 이어질 수 있다는 해석도 나온다. LG CNS 역시 협력 배경으로 GPU 중심 생태계에 대한 종속성을 줄이고, 국내 AI 기술과 인프라 경쟁력을 강화하려는 전략을 강조하고 있다. 특히 공공 AX 시장의 경우 비용 효율성과 안정성이 중요한 만큼, NPU 기반 인프라가 현실적인 대안이 될 수 있다는 판단이다. 퓨리오사AI 입장에서도 이번 협력은 성장의 중요한 분기점으로 평가된다. 국내 대기업의 AI 서비스 인프라에 자사 NPU가 채택되면서 기술력뿐 아니라 상용성과 안정성을 동시에 입증할 수 있는 레퍼런스를 확보하게 됐기 때문이다. 회사는 이를 바탕으로 글로벌 시장에서도 고객 확보에 나선다는 전략이다. 업계 관계자는 "LG CNS와의 협력이 특정 기업의 성과를 넘어 국내 팹리스 기업들이 AI 반도체 분야에서 자체 제품을 실제 서비스에 적용하는 사례를 늘리는 계기가 될 수 있을 것"이라며 "정부가 국산 AI 반도체 육성을 핵심 과제로 제시한 상황에서 민간 차원의 실질적인 상용화 사례가 등장하고 있다는 점에서 의미가 있다"고 분석했다. 양사는 이번 협력을 계기로 토종 AI 모델과 서비스, 인프라, AI반도체로 구성된 '소버린 AI 생태계'를 더욱 강화하고 공공 AX 시장에 최적화된 서비스를 제공한다는 전략이다. 공공 부문 특성상 보안성과 비용 효율, 안정성이 중요한 만큼, GPU 중심 인프라의 대안으로 NPU 기반 AI 인프라를 제시하겠다는 구상이다. 협력의 첫 단계로 LG CNS는 자체 개발한 기업용 에이전틱AI 플랫폼 '에이전틱웍스(AgenticWorks)' 구동 인프라에 퓨리오사AI NPU를 적용해 기술 검증을 진행한다. 에이전틱AI는 스스로 목표를 설정하고 복잡한 업무를 수행하는 만큼, 이를 뒷받침할 고성능·고효율 인프라가 필수적이다. LG CNS는 NPU 기반 인프라를 통해 에이전틱AI 서비스의 전력 효율과 운영 효율을 동시에 높일 계획이다. 양사는 NPU 기반 GPUaaS(GPU as a Service) 성능 최적화 기술도 실증한다. GPUaaS는 GPU를 가상화해서 제공하는 방식으로, 사용자는 실제 하드웨어를 구매하지 않고도 고성능 연산 환경을 활용할 수 있어 AI 시대의 핵심 모델로 각광받고 있다. 양사는 AI 학습과 AI 서비스 운영, 추론 등 모든 단계에 NPU를 적용해 전력 효율과 비용 경쟁력을 높일 수 있는 인프라 최적화에 나선다. 김태훈 LG CNS AI클라우드사업부 부사장은 "퓨리오사AI와의 협력을 통해 고객들이 에이전틱AI를 보다 효율적으로 사용할 수 있도록 NPU 기반 AI 인프라 기술력과 전문인력을 확보할 것"이라며 "LG AI연구원과 협력해 국가대표AI 모델 고도화를 지원하고 국내 AI 산업 발전에 기여할 것"이라고 밝혔다.

2026.02.05 10:05장유미 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

구글에 내준 '내비게이션' 지도, 1대 5000 지도와 뭐가 다를까

[단독] 주병기 공정위장 "과자 등 가공식품 가격도 내려야"

[사스포칼립스 위기 ㊦] AI 재편기, 한국 소프트웨어 과제는 '구조 전환'

삼성 HBM4 자신감의 근원 '1c D램'…다음 목표는 수율 개선

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.