• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (371건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[인터뷰] 김현창 네트러닝 센터장 "NHN클라우드와 AI 교육 고도화…日 AX 수요 선점"

[도쿄(일본)=장유미 기자] 일본 최대급 온라인 교육·연수 기업 네트러닝이 NHN클라우드와의 협업을 계기로 인공지능(AI) 기반 교육 플랫폼 고도화와 일본 시장 확장에 속도를 내고 있다. 단순 e러닝 콘텐츠 공급을 넘어 데이터 기반 인재 전략 플랫폼으로 진화하면서 일본 기업들의 DX(디지털 전환)·AX(AI 전환) 수요를 선점하겠다는 전략이다. 김현창 네트러닝 넥스트ED AI 센터장은 8일 일본 도쿄 빅사이트에서 개최된 '재팬 IT 위크'에 참석해 "NHN클라우드와의 협력을 통해 자사 '멀티버스' 플랫폼의 클라우드 전환과 AI 추천·콘텐츠 자동 생성 기능 강화를 병행하고 있다"며 "아직 NHN클라우드로의 완전한 통합은 진행 중이지만, 향후 인프라 유연성과 확장성 측면에서 구조적 변화가 본격화될 것으로 보고 있다"고 강조했다. 네트러닝은 일본 내 기업 연수와 직무 교육 분야에서 최대급 사업자로 꼽히는 e러닝 전문 기업이다. 대규모 기업 고객을 확보하고 있으며 최근에는 단순 온라인 교육을 넘어 AI 기반 학습 추천, 학습 데이터 분석, 인재 전략 플랫폼으로 사업 영역을 빠르게 넓히고 있다.또 이 회사는 이미 AI 기반 코스 추천 시스템과 코스·테스트 자동 생성 서비스를 상용화했으며 기업 고객을 위한 AI 튜터 출시도 앞두고 있다. 이를 통해 교육 기획 시간을 대폭 줄이고 필요한 과정을 빠르게 설계할 수 있어 기업 고객의 업무 효율성을 높였다는 평가를 받고 있다. 김 센터장은 "기존의 키워드 중심 검색에서 벗어나 이제는 자연어 기반으로 개인의 관심사를 이해하고 콘텐츠를 추천하고 있다"며 "현장과 가까운 실무자나 전문가들이 직접 이러닝 콘텐츠를 생성하고 제공할 수 있는 구조로 바뀌고 있다"고 설명했다. 이 같은 AI 고도화의 기반에는 방대한 교육 데이터가 있다. 올해 3월 기준 누적 학습자 수는 약 1억1700만 명, 이용 기업은 7500여 개에 달한다. 다만 장기간 축적된 데이터의 형식이 일관되지 않아 누락·오류 데이터를 검토하고 AI 학습에 적합한 형태로 재구성하는 작업이 핵심 과제로 꼽힌다. 이에 맞춰 네트러닝은 오픈 배지(Open Badge), 케이스(CASE), CLR 등 국제 표준을 기반으로 메타데이터를 재정비하며 고품질 교육 데이터 플랫폼 구축에 힘을 쏟고 있다. 김 센터장은 "다양한 출처의 데이터를 유기적으로 연결하고 국제 표준 기반으로 메타데이터를 재구성하고 있다"며 "향후 AI 기반 추천과 학습 분석, 자동화된 학습 경로 설계까지 가능한 플랫폼으로 발전시킬 계획"이라고 밝혔다. 이 같은 상황에서 네트러닝이 일본 현지 사업자 대신 NHN클라우드를 선택한 이유로는 비용 경쟁력이 꼽힌다. 글로벌 클라우드 서비스 대비 약 30% 수준의 비용 절감 효과와 환율 리스크 완화가 장기 운영 측면에서 유리하다고 판단했기 때문이다. 이는 일본 기업들이 비용 효율성과 안정적인 운영을 동시에 중시하는 시장 특성이 반영된 선택으로 풀이된다. 김 센터장은 "NHN클라우드를 선택한 가장 큰 이유는 가격 경쟁력"이라며 "엔화 약세가 이어지는 상황에서 환율 변동에 따른 비용 리스크를 상대적으로 덜 받을 수 있다는 점도 중요한 장점"이라고 말했다. 일본 IT 교육 시장의 변화도 한 몫 했다. 코로나19 이후 급성장한 온라인 교육 시장은 이제 단순 콘텐츠 판매 단계를 넘어 기업 인재 전략과 직결되는 플랫폼 경쟁으로 재편되고 있다. 특히 일본은 한국과 달리 개인 역량 강화보다 전사 단위 DX·AX 교육 수요가 크고, HR 부서가 교육 구매를 주도하는 구조가 강하다. 이에 따라 교육 서비스 역시 기술 습득을 넘어 조직 운영 방식과 의사결정 구조를 바꾸는 방향으로 진화하고 있다.김 센터장은 "한국이 개발자 중심의 기술 교육 시장이라면 일본은 전사 단위의 조직 변화 중심 교육 시장이 훨씬 활성화돼 있다"며 "앞으로는 AI를 활용해 조직의 일하는 방식 자체를 혁신하는 수요가 더욱 확대될 것"이라고 내다봤다.

2026.04.08 13:30장유미 기자

[현장] 아태 AI 거점 된 한국…시스코-엔비디아, 인프라 판 키운다

시스코가 아시아·태평양 지역 가운데 한국을 핵심 거점으로 삼고 인공지능(AI) 인프라 고도화와 글로벌 생태계 협력을 강화하겠다는 비전을 제시했다. 벤 도슨 시스코 아시아태평양·일본·중국(APJC) 총괄 사장은 8일 서울 코엑스에서 개최한 '시스코 커넥트 2026 코리아'에서 "AI는 개인과 기업, 경제와 사회 전반을 바꾸는 가장 큰 전환이며 그 변화는 한국에서 가장 빠르게 일어나고 있다"고 강조했다. 그는 한국을 AI 혁신의 핵심 국가로 꼽았다. 반도체·제조·바이오 등 다양한 산업에서 AI가 실제 물리적 세계와 결합하며 글로벌 수준의 혁신을 만들어낼 수 있다는 평가다. 특히 고도화된 제조 기반과 ICT 인프라, 빠른 기술 수용 속도를 바탕으로 AI 산업 전반에서 경쟁력을 빠르게 끌어올리고 있다는 점에 주목했다. 도슨 사장은 "한국은 AI로 가치를 창출하며 세계에 가능성을 보여주고 있다"며 "AI가 실제 산업과 결합해 성과로 이어지는 대표적인 시장"이라고 말했다. AI 도입이 빠르게 확산되면서 이를 뒷받침할 인프라 전환 필요성도 함께 커지고 있다. 시스코는 이런 변화에 대응해 AI 시대 핵심 인프라 전략을 재정립하고 있다. 노후화된 기존 네트워크를 단순히 업그레이드하는 수준을 넘어 AI 워크로드에 최적화된 구조로 전환하는 것이 핵심이다. 특히 네트워크와 보안을 분리하지 않고 하나의 구조로 통합하는 접근을 강조했다. AI 시대에는 데이터 흐름과 공격 표면이 동시에 확대되는 만큼, 보안을 네트워크 중심에 내재화해야 한다는 설명이다. 벤 도슨 사장은 "보안은 별도의 기능이 아니라 네트워크 자체에 녹아 있어야 한다"며 "AI 시대 인프라 핵심은 안전한 네트워크"라고 강조했다. 시스코는 AI 전환(AX)을 위한 준비가 전 세계적으로 아직 충분하지 않다고도 진단했다. 자체 조사 결과, 전체 기업 중 약 30%만이 AI를 본격적으로 활용 가능한 상태로 나타났다. 기술뿐 아니라 거버넌스·보안·인력 등 전반적인 준비가 필요하다는 설명이다. 이에 시스코는 AI 데이터센터, 네트워크, 보안, 협업 등 핵심 영역을 통합한 'AI 레디 인프라' 구축을 지원하고 있다. 파트너 생태계를 강화하는 '시스코 360' 프로그램도 도입해 고객 맞춤형 기술 지원을 확대할 계획이다. 이날 행사에선 시스코의 핵심 파트너인 엔비디아와의 협력 전략도 주목받았다. 특히 AI 데이터센터와 컴퓨팅 인프라 수요가 급증하면서, 그래픽처리장치(GPU) 기반 인프라와 네트워크 기술의 결합이 중요해지고 있다는 점이 강조됐다. 발표를 맡은 정소영 엔비디아 코리아 대표는 AI 인프라가 'AI 팩토리' 개념으로 진화하고 있다고 설명했다. 그는 "AI 팩토리는 전기와 데이터를 입력받아 지능을 생산하는 구조로, 향후 모든 산업의 핵심 인프라가 될 것"이라고 말했다. 특히 한국 시장에서 정부의 소버린 AI 정책 확대에 따라 GPU 및 AI 인프라 수요가 빠르게 증가하고 있다고 짚었다. 이에 맞춰 엔비디아는 차세대 AI 슈퍼컴퓨팅 플랫폼 '베라 루빈'을 연내 공급할 방침이다. 정 대표는 "베라 루빈은 CPU와 GPU, 네트워크가 결합된 새로운 AI 슈퍼컴퓨팅 플랫폼으로 학습과 추론 모두에서 성능을 크게 향상시킨다"며 "한국 정부와 기업들의 AI 투자 확대에 맞춰 공급을 준비하고 있다"고 밝혔다. 엔비디아는 향후 로드맵도 공개했다. 베라 루빈 이후 '루빈 울트라', 차세대 아키텍처 '로사 파인만'까지 이어지는 AI 인프라 혁신을 지속할 계획이다. 또 시스코와의 협력을 통해 GPU 컴퓨팅과 네트워크 기술을 결합한 엔터프라이즈 AI 인프라 구축에도 속도를 낸다. 양사는 AI 팩토리 구현을 위한 핵심 파트너로서 협력 범위를 확대하고 있다. 정 대표는 "앞으로도 시스코와 협력을 지속하며 한국 시장에서 AI 인프라 혁신을 함께 만들어가겠다"고 강조했다.

2026.04.08 13:17한정호 기자

NHN클라우드, GPU로 호남 공략…중소벤처 AI 도입·사업화 가속

NHN클라우드가 호남 지역 손잡고 인공지능(AI) 생태계 구축에 나섰다. NHN클라우드는 중소벤처기업진흥공단, 인공지능산학연협회와 3자 간 업무협약을 체결했다고 7일 밝혔다. 협약은 호남 지역 AI 중소벤처기업 성장 지원과 제조 현장 AX 확산을 목표로 뒀다. 이번 협약은 정책과 인프라 교육을 결합한 통합 지원 모델 구축에 초점 맞춰졌다. 정부의 5극3특 전략과 광주 전남 행정통합 기조에 맞춰 지역 AI 산업 생태계를 조성하려는 움직임이다. 중소벤처기업진흥공단은 정책자금 투융자와 수출 지원 창업 지원을 통해 AI 도입 기업의 사업화를 지원한다. 기업 성장 단계별 맞춤 프로그램과 컨설팅으로 경쟁력 강화도 뒷받침한다. AI산학연협회는 지원 대상 기업을 발굴하고 기관 간 연계를 담당한다. 산업 현장 수요를 전달하고 정책과 인프라가 효과적으로 적용될 수 있도록 조율하는 역할을 맡는다. NHN클라우드는 클라우드 크레딧과 보안 기술 개발 지원을 제공한다. 그래픽처리장치(GPU) 기반 AI 인프라를 통해 기업이 초기 투자 부담 없이 AI 개발과 서비스를 수행할 수 있도록 돕는다. 조한교 중소벤처기업진흥공단 인력성장이사는 "이번 협약을 통해 AI 기술 도입을 고민하는 중소벤처기업이 자금 교육 인프라를 동시에 지원받을 수 있는 기반이 마련됐다"며 "앞으로도 AI 도입 기업 현장의 애로를 해소하고 중소벤처기업이 성장해 나갈 수 있도록 적극 지원하겠다"고 밝혔다.

2026.04.07 16:58김미정 기자

"GPU 대체할까"…와이즈넛, NPU 기반 AI 어플라이언스 공개

와이즈넛이 국산 인공지능(AI) 반도체 기반 시스템으로 공공·기업 고객 확장에 나섰다. 와이즈넛은 지난 2일 서울 강남구에서 열린 퓨리오사AI '레니게이드 2026 서밋'에 참가해 국산 신경처리장치(NPU) 기반 AI 어플라이언스를 시연했다. 이번 장비는 퓨리오사AI의 2세대 NPU '레니게이드' 기반으로 개발됐으며 현장에서 실제 구동 형태로 공개됐다. 해당 장비는 그래픽처리(RAG) 기반 AI 에이전트 '와이즈 아이랙'과 도메인 특화 거대언어모델(LLM) '와이즈 엘로아'를 통합한 일체형 구조다. 별도 서버 구축이나 모델 설치 없이 전원과 네트워크 연결 후 초기 설정만으로 AI 업무를 바로 수행할 수 있는 점이 핵심이다. 와이즈넛은 해당 장비 특장점으로 공공기관을 겨냥한 폐쇄망 온프레미스 설계를 꼽았다. 데이터가 외부 클라우드로 이동하지 않고 내부에서 처리돼 보안 우려를 낮춘 구조라서다. 하드웨어 측면에서는 전력 효율성이 핵심인 것으로 알려졌다. 레니게이드 NPU는 칩당 180W 수준으로 기존 GPU 대비 낮은 전력 소비를 구현해 비용과 운영 부담을 줄일 수 있는 구조다. 두 기업은 지난해 6월 협력 후 단계적으로 기술 통합을 진행해 왔다. 이번 시연은 양산 단계 NPU에서 실제 AI 에이전트 워크로드를 구동했다는 점에서 상용화 가능성을 입증한 사례로 평가된다. 행사는 퓨리오사AI NPU 생태계 확산과 고객 도입 성과를 공유하기 위해 마련됐다. 퓨리오사AI는 올해 초 레니게이드 1차 양산 물량 4000장을 확보하며 본격적인 시장 공급에 돌입한 상태다. 강용성 와이즈넛 대표는 "26년간 축적한 언어처리 기술력과 AI 에이전트 역량을 퓨리오사AI의 고성능 국산 NPU 위에서 완제품으로 구현했다는 점에서 뜻깊다"고 강조했다.

2026.04.07 14:20김미정 기자

정부, 지방 AX 현장 검증 나서…기업, GPU 부족·인재난 호소

정부가 지방 인공지능 전환(AX) 실행력을 점검하기 위해 현장 행보에 나섰다. 임문영 국가인공지능전략위원회 상근부위원장과 지역특별위원회는 지난 6일 대구와 울산을 방문해 '대한민국 인공지능 행동계획' 이행 상황과 지역 AX 산업·AI 컴퓨팅 인프라 구축 현황을 점검했다고 밝혔다. 이번 일정은 기존 지역 태스크포스(TF)를 특별위원회로 격상한 이후 첫 공식 활동이다. 이번 점검은 '5극 3특 기반 AX 혁신벨트 구축' 전략의 실행 상황을 확인하는 데 초점 맞췄다. 광주와 대구, 전북, 경남 등 권역별 혁신 거점 조성 추진 여부와 현장 수요를 동시에 점검하는 식이다. 대구에서는 수성알파시티 중심으로 AX 연구개발 허브 구축 계획이 집중 점검됐다. 해당 사업은 2026년부터 5년간 총 5510억원을 투입해 AI 로봇 반도체 융합 기반 연구개발과 산업 실증 거점을 조성하는 것이 핵심이다. 현장 간담회에서는 기업들의 구조적 어려움이 드러났다. 초기 투자 부담과 성과 불확실성, 그래픽처리장치(GPU) 등 연산 자원 부족, 데이터 활용 제약, 인재 부족이 지역 AX 확산 주요 장애 요인으로 지목됐다. 로봇 산업 현장에서는 실증과 사업화 간 괴리도 확인됐다. 안전 규제와 인증 부담으로 테스트 결과가 실제 생산 라인 적용으로 이어지기 어렵다는 문제가 제기됐다. 울산에서는 AI 고속도로 핵심 인프라인 데이터센터 구축 상황이 점검됐다. 해당 프로젝트는 SK와 아마존웹서비스(AWS)가 협력해 약 7조원 규모로 추진 중이다. 약 6만장 규모 GPU를 수용하는 하이퍼스케일 인프라 구축이 목표다. 현장에서는 전력 수급과 인허가 문제가 핵심 변수로 떠올랐다. 대규모 전력 수요에 따른 공급 안정성과 계통 연계 과정의 제도적 부담이 데이터센터 구축 속도를 좌우하는 요인으로 지목됐다. 임문영 부위원장은 "AX 확산 핵심 장애요인은 기술이 아닌 수익성을 확신하지 못하는 도입 리스크"라며 "AI 경쟁력은 결국 연산자원을 안정적으로 공급할 수 있는 컴퓨팅 인프라라는 '엔진'과 기업과 연구자가 협력할 수 있는 '공통의 운동장' 구축에 달렸다"고 말했다.

2026.04.07 09:06김미정 기자

[종합] 한국 클라우드, AI 타고 몸집 키웠다…이제 승부는 GPU·공공

한국 클라우드 산업이 인공지능(AI) 수요 확대와 공공·기업 디지털 전환 흐름을 타고 외형 성장과 수익성 개선을 동시에 이어간 것으로 나타났다. 주요 클라우드 서비스 제공업체(CSP)들은 데이터센터·그래픽처리장치(GPU) 인프라 투자와 공공 시장 공략을 병행하며 시장 주도권 경쟁을 본격화하는 모습이다. 6일 금융감독원 전자공시시스템에 따르면 네이버클라우드는 2025년 매출 1조 5544억원, 영업이익 1592억원을 기록하며 전년 대비 각각 11.1%, 48.3% 성장했다. AI 수요 확대에 대응해 데이터센터 코로케이션을 확대하고 정부 GPU 구축 사업 대응을 위한 인프라 확보에 나서는 등 공격적인 투자 전략이 실적 개선으로 이어졌다는 분석이다. 특히 네이버클라우드는 최근 LG CNS의 데이터센터 추가 임차와 자체 데이터센터 증축을 병행하며 상면 확보에 속도를 내고 있다. 정부가 추진하는 대규모 GPU 구축 사업 참여를 염두에 두고 복수 데이터센터 기반 분산형 인프라 전략을 강화하는 동시에, 협업 플랫폼 '네이버웍스'를 앞세워 공공 AI 행정 시장에도 적극 진입하는 양상이다. KT클라우드는 지난해 매출 9975억원, 영업이익 663억원으로 각각 27.4%, 25.7% 증가하며 1조원 매출에 근접했다. 공공·기업 시장에서 안정적인 수주 기반을 확보한 가운데, 데이터센터와 AI 인프라 투자 확대가 성장세를 견인한 것으로 풀이된다. 특히 삼성SDS, NHN클라우드와 함께 국가정보자원관리원 대구센터 민관협력형 클라우드(PPP) 사업에 참여해 정부 핵심 시스템 수용 인프라를 구축하며 공공 시장 영향력을 확대했다. 아울러 최근 대표 자리에 김봉균 KT 엔터프라이즈 부문장을 내정하며 사업 전략 재정비에도 나섰다. 기존 기술 중심 성장에 더해 KT 엔터프라이즈 조직과의 연계를 강화한 B2B 통합 사업 구조로 전환을 모색 중이며 액체 냉각 기반 AI 데이터센터 구축 등 인프라 고도화도 병행할 전망이다. NHN클라우드는 매출 2천157억원으로 전년 대비 약 9.8% 성장했지만 영업손실 197억원을 기록하며 적자 구조를 이어갔다. 다만 영업손실은 전년 284억원에서 약 30.5% 줄어들며 손실 폭을 축소했다. NHN클라우드는 국산 기술 기반 AI 인프라 생태계 구축과 일본 등 글로벌 시장 공략을 병행 중이다. 국정자원 PPP 사업에도 참여해 다양한 공공 클라우드 인프라 구축과 행정안전부 클라우드 네이티브 전환 사업 등을 수행해왔다. 최근엔 티맥스티베로와 협력해 GPU 인프라와 데이터베이스 관리 시스템(DBMS)을 결합한 국산 AI 인프라 생태계 구축에도 속도를 내고 있다. 일본 시장에선 서비스형 GPU(GPUaaS)를 앞세워 현지 AI 전환(AX) 수요 공략에 집중하는 등 해외 확장을 통해 수익성 개선 돌파구를 마련하려는 전략이다. 카카오엔터프라이즈는 매출 1697억원으로 전년 대비 약 25.9% 증가했으나 영업손실 343억원을 기록했다. 다만 영업손실은 전년 672억원에서 약 49.0% 줄어들며 절반 수준으로 개선했다. 회사는 카카오클라우드의 '하이브리드 GPUaaS' 전략을 통해 AI 인프라 비용 구조 개선과 수익성 확보를 동시에 추진 중이다. 카카오엔터프라이즈는 특히 AI 추론 중심 시장 변화에 대응해 온프레미스 GPU와 클라우드 연계를 결합한 구조를 강화하고 있다. 단일 콘솔 기반 통합 운영과 비용 효율화 전략을 통해 금융·공공 등 규제 산업으로의 확장도 동시에 노리는 모습이다. 가비아는 매출 3356억원, 영업이익 404억원으로 각각 18.9%, 15.3% 증가하며 안정적인 성장세를 이어갔다. 클라우드·데이터센터·보안 등 전 사업 부문에서 고른 성장이 나타났으며 AI 연산 환경에 대응하기 위한 데이터센터 및 GPU 인프라 강화에도 나서고 있다. 가비아는 과천 데이터센터를 중심으로 고전력 GPU 인프라를 확보하며 AI 대응 역량을 키우고 있다. 자체 클라우드뿐 아니라 아마존웹서비스(AWS)의 관리 서비스(MSP) 사업도 병행하며 하이브리드·멀티클라우드 전략을 확대해왔다. 여기에 서비스형 데스크톱(DaaS)과 그룹웨어 '하이웍스' 중심의 서비스형 소프트웨어(SaaS)까지 아우르는 통합 서비스 모델로 사업 영역을 넓히고 있다. 업계에선 GPU 확보 경쟁과 데이터센터 인프라 확대가 향후 경쟁력을 가름할 핵심 변수로 꼽힌다. 지난해에 이어 정부가 올해도 추진 중인 GPU 1만 5000장 구축 사업을 계기로 CSP 간 인프라 경쟁이 본격화됐다. 지난해 사업엔 네이버클라우드·NHN클라우드·카카오 등이 참여한 가운데, 올해 사업에는 어떤 CSP가 참여해 주도권을 확보할지에도 관심이 쏠리고 있다. 여기에 공공 클라우드 시장 확대도 중요한 성장 동력으로 평가된다. 정부는 2030년까지 행정·공공 정보시스템을 클라우드로 전면 전환하는 정책을 추진하겠다고 밝힌 바 있다. 현재 약 42.4% 수준인 전환율을 단계적으로 끌어올릴 계획이다. 민감·공개 데이터의 민간 클라우드 활용을 확대하는 하이브리드 구조 전환도 병행된다. 국가AI전략위원회 역시 지난해 국가정보자원관리원 화재 이후 후속 발전 방안으로 약 1만 5000개 정부 시스템의 재해복구(DR) 체계를 재설계하고 민간 클라우드 활용을 확대하는 방향을 제시했다. 이에 기존 제한적이던 공공 시장이 점차 개방되면서 CSP들의 사업 기회가 확대될 전망이다. 다만 정책 실행력 확보를 위한 과제도 적지 않다. 공공 클라우드 전환 예산이 AI 관련 예산 대비 상대적으로 부족한 가운데 부처 간 협력과 보안 인증 체계 정비, 기관별 비용 부담 문제 등이 변수로 지목된다. 특히 클라우드보안인증(CSAP), 국가망보안체계(N2SF) 등 복잡한 제도 구조가 사업 추진 속도를 좌우할 핵심 요인이다. 업계는 공공 클라우드 전환 정책과 AI 인프라 투자 확대가 맞물리며 국내 클라우드 시장이 중장기적으로 빠르게 성장할 것으로 보고 있다. 단순 인프라 이전을 넘어 AI 기반 서비스 구조까지 함께 설계하는 방향으로 정책이 구체화돼야 한다는 지적도 나온다. 클라우드 업계 관계자는 "AI 확산과 공공 클라우드 전환이 동시에 진행되면서 국내 CSP들에게는 큰 기회가 열리고 있다"며 "다만 인프라 투자 부담과 제도 불확실성이 여전히 존재하는 만큼 정부 정책과 민간 투자 간 균형이 중요해질 것"이라고 말했다.

2026.04.06 14:19한정호 기자

[유미's 픽] "GPU 넘는다"…삼성·LG·롯데·포스코 가세로 국산 NPU 확산 본격화

국산 신경망처리장치(NPU)를 중심으로 한 국내 인공지능(AI) 산업 재편이 본격화되고 있다. 정부가 50조원 규모의 'K-엔비디아' 육성 프로젝트를 추진하며 정책 드라이브를 강화하는 가운데 민간 기업들도 공공·제조·클라우드·서비스 등 각 영역에서 NPU 도입과 사업화를 서두르는 모습이다. 3일 업계에 따르면 최근 국내 주요 IT·산업 기업들은 그래픽처리장치(GPU) 중심 AI 인프라에서 벗어나 NPU를 기반으로 한 구조 전환을 추진하며 비용 효율과 전력 절감, 데이터 주권 확보를 동시에 노리고 있다. 기술 검증 단계를 넘어 실제 서비스와 인프라로 확산되고 있는 상황을 고려한 것으로, AI 서비스 확산에 따라 추론 수요가 급증하면서 전력 소비와 운영 비용 부담이 커진 점도 한 몫 했다. 정부도 이 같은 변화에 맞춰 정책 지원을 강화하고 있다. 실제 과학기술정보통신부와 금융위원회는 지난달 민관 합동 간담회를 통해 AI 반도체 시장이 범용 GPU 중심에서 저전력·고효율 중심 구조로 전환되고 있다고 진단하고 국산 NPU 산업 육성에 정책 역량을 집중하겠다고 밝혔다. 국민성장펀드를 통해 향후 5년간 50조원을 투입하는 'K-엔비디아' 프로젝트도 추진 중이다. 이에 따라 클라우드 인프라 영역에서도 국산 NPU 적용이 구체화되고 있다. 삼성SDS가 국산 NPU 기반 '서비스형 NPU(NPUaaS)'를 오는 7월 출시하는 것이 대표적 사례다. 삼성SDS는 기존 '서비스형 GPU(GPUaaS)' 중심 구조에서 벗어나 NPU를 포함한 하이브리드 인프라를 구축함으로써 기업들이 AI 워크로드 특성에 따라 연산 자원을 선택할 수 있도록 하겠다는 전략을 내세웠다. 클라우드에서 구독형으로 NPU를 제공함으로써 초기 투자 부담을 낮추고 도입 장벽을 줄인 점도 특징이다. NPU 도입은 공공과 산업 현장을 중심으로도 확대되는 흐름을 보이고 있다. 비용과 전력 효율이 중요한 공공 인프라를 중심으로 적용 검토가 이뤄지면서 초기 수요도 형성되는 분위기다. 특히 공공 및 유통 인프라 분야에서는 비용 경쟁력 확보를 중심으로 NPU 도입이 이뤄지고 있다. 롯데이노베이트는 딥엑스와 협력해 지능형 CCTV와 ITS에 NPU를 적용하며 GPU 대비 총소유비용(TCO) 절감을 추진 중이다. 업계에선 정책 인센티브가 구체화되기 전부터 국산 반도체 적용을 검토하는 등 선제 대응 성격이 강한 사례라고 봤다. 제조 분야에서는 포스코DX가 모빌린트 NPU를 산업용 제어 시스템에 탑재해 설비 단계에서 실시간 AI 분석과 제어가 가능한 구조를 구축하고 있다. 이는 클라우드 중심 AI에서 벗어나 현장 중심의 엣지 AI로 전환하는 흐름을 반영한 것으로, 보안성과 즉시성을 동시에 확보하려는 전략으로 풀이된다. 클라우드와 플랫폼 영역에서도 대응이 이어지고 있다. LG CNS는 NPU 기반 AI 인프라 구축을 확대하고 있으며, LG유플러스는 NPU와 대규모 언어모델(LLM), 인프라를 결합한 'AI 어플라이언스'를 통해 공공·금융 등 폐쇄망 시장을 겨냥하고 있다. 클라우드 의존 없이 자체 환경에서 AI를 구동할 수 있도록 한 점이 특징이다. AI 모델 영역에서는 LG AI연구원과 업스테이지가 중심 역할을 하고 있다. LG AI연구원은 '엑사원(EXAONE)'을 기반으로 국산 NPU와의 최적화를 추진하며 추론 중심 AI 환경에 대응하고 있으며, 업스테이지 역시 퓨리오사AI와 협력해 NPU 기반 생성형 AI 서비스 상용화를 추진 중이다. 이는 모델 단계에서도 GPU 의존도를 낮추려는 시도로 해석된다. 기업용 소프트웨어 분야에서도 변화가 나타나고 있다. 더존비즈온은 퓨리오사AI와 협력해 전사적자원관리(ERP) 등 핵심 업무 시스템에 NPU 기반 AI를 적용하며 공공·금융 시장 확대를 추진하고 있다. 기존 분석 중심 AI에서 벗어나 실제 업무 프로세스에 AI를 접목하려는 움직임이다. 유통 및 시스템통합(SI) 영역에서는 코오롱베니트가 리벨리온과 협력해 NPU 기반 'AI 엑셀러레이션 서비스'를 추진하며 기업 고객 접점을 확대하고 있다. 반도체 기술을 실제 비즈니스 환경에 적용하는 역할로, 시장 확산을 위한 유통 채널로 기능하고 있다. 클라우드 사업자들의 선행 움직임도 영향을 미쳤다. 네이버클라우드는 'AI반도체 팜' 사업을 통해 국산 NPU의 성능과 안정성을 산업 현장에서 검증하며 상용화 기반을 마련했다. 이후 기업들의 사업화 움직임도 이어지고 있다. 업계에선 현재 국산 NPU 사업을 두고 기술 검증 단계를 넘어 상용화 초기 단계로 보고 있다. 동시에 벤더 간 경쟁도 본격화되면서 기업들은 국산 NPU 도입을 전제로 협력 구조도 구축하는 모습이다. 업계 관계자는 "지금은 NPU 도입 여부를 논의하는 단계가 아니라 어떤 기술을 선택할지 경쟁이 시작된 단계"라며 "정부 정책과 민간 인프라가 맞물리면서 AI 반도체 생태계가 빠르게 확산될 것으로 기대된다"고 말했다.

2026.04.03 08:48장유미 기자

프렌들리AI·삼성SDS, B300 GPU로 프론티어 AI 추론 문턱 낮춘다

프렌들리AI가 삼성SDS와 손잡고 기업들의 추론 인프라 구축 부담을 낮춘 프론티어 인공지능(AI) 모델 서빙 서비스를 본격 가동한다. 프렌들리AI는 삼성SDS와 협력해 삼성 클라우드 플랫폼(SCP)의 엔비디아 B300 그래픽처리장치(GPU) 기반 프론티어 AI 모델 추론 인프라를 운영한다고 2일 밝혔다. 이번 협력은 단순한 인프라 연동을 넘어 프렌들리AI의 고성능 추론 최적화 서비스와 SCP의 확장형 B300 GPU 서비스형인프라(IaaS)를 결합한 구조다. 최근 GLM-5, 딥시크 v3.2 등 초대형 프론티어 모델이 잇따라 등장하면서 기업들의 추론 인프라 수요도 급격히 커지고 있다. 양사는 글로벌 스타트업과 엔터프라이즈 기업을 주요 타깃으로, 복잡한 커스텀 스택 구축 없이 최신 모델을 즉시 프로덕션에 투입할 수 있는 환경을 제공한다는 목표다. 주요 특징은 네 가지다. 우선 GLM-5, 미니맥스 M2.5, 딥시크 v3.2 등 차세대 모델을 출시와 동시에 지원하는 '데이-0' 체계를 갖춰 별도의 커스텀 추론 스택 없이 즉시 도입이 가능하다. 프렌들리AI의 자체 추론 엔진과 SCP의 B300 GPU를 결합한 초고속·저지연 환경도 운영될 예정이다. 또 토큰 기반 과금 구조로 사용량에 따른 유연한 비용 모델을 제공하며 고속 추론과 대규모 확장성을 동시에 지원한다. SCP의 고가용성 B300 IaaS와 프렌들리AI 추론 플랫폼을 통합 운영해 글로벌 저지연 서비스와 엔터프라이즈급 안정성도 확보한다. 전병곤 프렌들리AI 대표는 "삼성 SCP와 협력해 전 세계 기업들에게 고성능·고효율 AI 추론을 제공하게 돼 기쁘다"며 "고객들은 최신 프론티어 모델을 안정적으로 활용하고 에이전틱 AI 기반의 새로운 비즈니스 기회를 모색할 수 있을 것"이라고 피력했다.

2026.04.02 14:45이나연 기자

"TCO 낮추고 국산 반도체 얹는다"…롯데이노베이트, NPU로 공공시장 승부수

롯데이노베이트가 인공지능(AI) 반도체 기업 딥엑스와 손잡고 온디바이스 AI 시장 공략에 본격 나선다. 단순 기술 협력을 넘어 공공 인프라 중심의 비전 AI 시장에서 비용 구조 혁신과 국산 반도체 생태계 구축을 동시에 겨냥한 전략적 행보로 풀이된다. 롯데이노베이트는 지난 1일 딥엑스와 '그래픽처리장치(GPU) 대체 가능한 신경망처리장치(NPU) 적용 및 실증을 통한 상호 기술 개선'을 골자로 한 양산 협력 개발 업무협약(MOU)을 체결했다고 2일 밝혔다. 양사는 국산 AI 반도체 기반 기술 협력과 현장 실증을 통해 올해 하반기 양산화를 목표로 하고 있으며 지능형 CCTV 실시간 AI 추론을 위한 전용 NPU 적용에도 나선다. 이번 협력의 핵심은 GPU 중심 구조에서 벗어나 초저전력 NPU 기반으로 전환하는 데 있다. 지능형 CCTV와 ITS(지능형 교통 시스템) 등 공공 인프라 사업은 대규모 설치와 24시간 운영 특성상 전력 비용과 유지비 부담이 크다. 이에 따라 단순 장비 가격을 넘어 전력·운영 비용까지 포함한 총소유비용(TCO) 절감이 사업 경쟁력의 핵심 변수로 작용해왔다. NPU는 이러한 구조적 한계를 보완할 수 있는 대안으로 주목된다. 저전력 설계를 기반으로 장시간 구동 환경에 적합하고, 엣지 단에서 실시간 추론이 가능해 네트워크 비용까지 줄일 수 있기 때문이다. 결과적으로 GPU 대비 가격 경쟁력뿐 아니라 운영 효율성 측면에서도 공공 사업에 적합한 기술로 평가된다. 이번 일은 공공시장 진입 전략 측면에서도 의미가 크다. 롯데이노베이트는 이미 침입·배회·쓰러짐·방화·마케팅 등 5개 항목에 대해 KISA 지능형 CCTV 성능 인증을 확보한 상태다. 여기에 국산 NPU를 결합할 경우 정부의 K-반도체 활성화 정책과 맞물리며 공공 조달 시장에서 경쟁 우위를 확보할 수 있다. 특히 이번 협력은 기술 검증 단계를 넘어 양산 전환을 공식화했다는 점에서 주목된다. 양사는 2023년부터 교통 및 CCTV 분야에서 기술검증(PoC)을 진행해왔으며 이번 MOU는 이를 기반으로 실제 제품화 단계에 진입했음을 의미한다. 롯데그룹 계열사를 활용한 실증 환경도 중요한 경쟁력이다. 유통·물류·인프라 등 다양한 현장을 보유한 그룹 구조는 대규모 엣지 AI 적용 테스트베드로 기능할 수 있다. 이는 외부 시장 확대 이전에 안정적인 레퍼런스를 확보할 수 있는 기반으로 작용한다. 딥엑스 역시 실제 산업 환경에서 자사 NPU 성능을 검증할 수 있는 기회를 확보하게 된다. 산업적으로는 이번 협력이 단순 하드웨어 전환을 넘어 AI 처리 구조의 변화를 의미한다는 점에서 주목할 필요가 있다. 클라우드 중심 영상 분석에서 벗어나 데이터 발생 지점에서 실시간 처리하는 온디바이스 AI로의 전환이 가속화되는 흐름과 맞닿아 있기 때문이다. 이는 개인정보 보호 요구 강화와 네트워크 비용 절감이라는 공공 인프라 시장의 요구와도 맞물린다. 이에 이번 협력은 '저원가 구조'와 '국산 반도체', '인증 기반 시장 진입'이라는 세 축을 결합해 공공 비전 AI 시장에서 표준 선점에 나선 전략으로 해석된다. 롯데이노베이트 관계자는 "이번 협력을 계기로 ITS, 공공 인프라, 스마트 리테일 등 다양한 비전 AI 응용 분야에서 실제 산업 적용 사례를 확보하고, 향후 롯데그룹 내 유통·물류·인프라 등 다양한 사업 영역으로 온디바이스 AI 기반 비전 AI 시스템 적용을 단계적으로 확대해 나갈 예정"이라며 "NPU 기반 엣지 AI 생태계를 강화하고 다양한 산업 현장에 최적화된 AI 서비스 확산에 박차를 가할 계획"이라고 말했다.

2026.04.02 10:44장유미 기자

엘리스그룹-아리스타, 차세대 AI 네트워크 기술 협력한다

엘리스그룹(대표 김재원)은 아리스타네트웍스 코리아와 손잡고 '이더넷 기반의 대규모 GPU 클러스터링' 구현에 나선다. 엘리스그룹은 지난 1일, 엘리스그룹 본사에서 아리스타네트웍스 코리아와 '차세대 AI 네트워크 기술 협력'을 위한 업무협약(MOU)를 체결했다. 이번 협약은 그간 고가의 전용 통신망에 의존했던 대규모 AI 인프라를 범용 네트워크 표준인 이더넷 기반으로 전환함으로써, AI 데이터센터의 경제성을 극대화하고 국내 AI 산업의 진입 장벽을 낮추기 위해 추진됐다. 최근 AI 모델의 급격한 발전으로 수천 개의 GPU를 하나로 연결하는 네트워크 기술이 AI 데이터센터의 경쟁력을 결정짓는 핵심 요소로 부상했다. 그동안 AI 네트워크 시장에서는 고가의 전용 통신망 '인피니밴드'를 주로 사용했으나, 최근 글로벌 기업을 중심으로 범용성이 높고 비용 효율적인 이더넷 기반의 네트워크로 전환하는 추세다. 양사는 이번 협약으로 'RoCE(RDMA over Converged Ethernet)v2' 기술 기반의 AI 네트워크 구축에 집중한다. RoCEv2는 기존 범용 이더넷 망에서 데이터 전송 속도를 극대화하고 병목 현상을 없애 대규모 AI 연산을 원활하게 돕는 차세대 핵심 기술이다. AI 네트워크 기술의 상용화를 위한 다양한 공동 프로젝트도 추진한다. 엘리스그룹은 AI 특화 클라우드인 엘리스클라우드와 AI PMDC(이동식 모듈형 데이터센터) 내에 RoCEv2 기반 고성능 네트워크 환경을 선도적으로 도입한다. 아리스타네트웍스 코리아는 글로벌 AI 네트워크 분야에서 검증된 기술력을 통해 고성능 네트워크 설계 및 기술 지원을 담당할 예정이다. 박정국 엘리스그룹 최고개발책임자는 “AI 인프라 경쟁력의 핵심은 수만 개의 GPU가 얼마나 효율적으로 데이터를 주고 받느냐에 달려 있다”며 “아리스타와 협업을 통해 경제적이고 효율적인 AI 인프라 표준을 제시하고, 국내외 기업들이 더 쉽고 빠르게 AI 전환을 이룰 수 있도록 앞장서겠다”고 말했다. 김세진 아리스타네트웍스 코리아 지사장은 “엘리스그룹과의 협력은 RoCEv2 기반 AI 데이터센터 네트워크의 혁신을 실현할 수 있는 중요한 기회”라면서 “앞으로도 한국 시장에서의 기술 협력을 지속적으로 확대해 나가겠다”고 밝혔다.

2026.04.02 10:43백봉삼 기자

[유미's 픽] '상면 부족' 네이버, LG CNS 데이터센터도 빌렸다…정부 GPU 사업 겨냥?

네이버클라우드가 LG CNS 데이터센터를 추가로 임차하며 인공지능(AI) 인프라 확장에 속도를 내고 있다. 정부가 추진 중인 '그래픽처리장치(GPU) 1만5000장 구축 사업'을 앞두고 대규모 자원 수용 능력을 확보하기 위해 선제적으로 나선 모습이다. 2일 업계에 따르면 네이버클라우드는 최근 LG CNS와 삼송 데이터센터 코로케이션 계약을 체결했다. 계약 기간은 2035년까지로, 장기 인프라 확보 차원의 전략적 투자로 평가된다.이로써 LG CNS와 네이버클라우드는 데이터센터 코로케이션 사업에서 두 번째 대형 계약을 체결하게 됐다. 앞서 양사는 지난해 죽전 데이터센터 코로케이션 계약을 맺은 바 있다. 죽전 데이터센터 계약은 2025년 6월부터 2033년 5월까지 이행될 예정으로, 공시 기준을 고려할 때 약 1500억원 안팎 규모로 추정된다. 코로케이션은 데이터센터 내 서버 설치 공간과 전력·냉각 인프라를 함께 제공받는 방식이다. AI 서비스 확산으로 GPU 수요가 급증하면서 자체 데이터센터만으로는 대응이 어려워진 사업자들이 코로케이션으로 외부 상면 확보에 적극 나서는 추세다. 네이버클라우드의 이번 계약은 단순한 인프라 확장을 넘어 정부 사업 대응과 맞물린 움직임으로 해석된다. 과학기술정보통신부는 현재 GPU 1만5000장을 구축하는 대규모 사업을 추진 중으로, 참여 기업에는 대량 GPU를 단기간 내 구축·운용할 수 있는 역량이 요구된다. 이 사업은 총 2조800억원 규모로, GPU 서버와 네트워크, 스토리지, 냉각 설비 등을 포함한 대규모 클러스터 구축을 목표로 한다. 민간 클라우드 사업자(CSP)가 국내 데이터센터에 인프라를 구축·운영하는 방식으로 진행되며 장비 구매 비용은 정부가 지원하고 실제 운영 비용은 사업자가 부담하는 구조다. 특히 올해부터는 서비스 수준 협약(SLA) 요건이 포함되면서 24시간 장애 대응과 성능 유지, 기술 지원 체계까지 요구되고 있다. 물리적 인프라뿐 아니라 실제 서비스 운영 역량까지 종합적으로 검증하는 구조로, 사업 난도가 크게 높아졌다는 평가다. 평가 기준에서도 이러한 방향성이 반영됐다. 전체 점수의 절반인 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도(18점)와 구축 계획의 구체성(32점)이 핵심 항목으로 제시됐다. 단순히 GPU를 얼마나 확보했는지가 아니라 이를 어떤 구조로 구축하고 실제 서비스까지 연결할 수 있는지를 입증해야 높은 점수를 받을 수 있는 구조다. 이에 대규모 GPU를 수용할 수 있는 데이터센터 상면과 전력, 냉각 인프라 확보 여부가 사업 참여의 핵심 조건으로 떠오르고 있다. GPU 확보 능력보다 이를 안정적으로 운영할 수 있는 인프라와 설계 역량이 경쟁력을 좌우하는 방향으로 재편되고 있다는 분석이다. 네이버클라우드 역시 기존 데이터센터 가동률이 높은 수준에 이른 상태다. 주요 거점이 사실상 풀가동 상태에 가까운 가운데 신규 프로젝트 대응을 위해 추가 상면 확보가 불가피해진 것으로 알려졌다. 실제 내부적으로도 상면 부족 문제가 핵심 과제로 지목되고 있다. 이에 복수 데이터센터를 활용한 확장 전략이 불가피한 상황이다. 네이버클라우드 관계자는 "상면이 부족한 건 사실로, 서비스용과 사업용을 포함해 전체적으로 계속 사용해야 하는 상황"이라며 "LG CNS 삼송 데이터센터와 자체 데이터센터인 '각 세종' 증축 등을 포함해 여러 거점을 활용하게 될 가능성이 있다"고 말했다. 이어 "죽전 데이터센터도 거의 풀가동 상태인 것으로 알고 있다"며 "추가 임차나 증축 일정에 따라 향후 인프라 운영 방향이 결정될 것"이라고 덧붙였다. 이처럼 네이버클라우드는 LG CNS 등 외부 데이터센터 임차와 자체 시설 증축을 병행하며 인프라 확장에 나선 것으로 보인다. 단일 거점이 아닌 복수 데이터센터를 활용하는 분산형 구조를 통해 대규모 GPU 클러스터 구축 기반을 선제적으로 마련하려는 전략이다. 이 같은 구조는 대규모 GPU 자원을 안정적으로 운영해야 하는 사업 특성상 유리하게 작용할 수 있다. 복수 데이터센터를 기반으로 자원을 분산·운용할 경우 장애 대응과 자원 활용 효율 측면에서 경쟁력을 확보할 수 있기 때문이다. 업계 관계자는 "대규모 GPU 클러스터는 네트워크 지연과 자원 병목을 고려할 때 단일 센터에 집중하기보다 분산 구조로 설계하는 것이 유리하다"며 "복수 데이터센터를 기반으로 자원을 나누면 장애 대응뿐 아니라 자원 활용 효율 측면에서도 안정성을 확보할 수 있다"고 분석했다. 더불어 이번 사업에서 차세대 GPU '베라루빈' 도입이 본격화되면서 데이터센터 인프라 부담도 한층 커진 상태다. '베라루빈'은 수냉 기반 구조로 전환되면서 장비 무게와 전력 요구 수준이 크게 높아진 것으로 알려졌다. 이에 따라 데이터센터 하중과 냉각 설계 부담이 동시에 증가해 인프라 확보 역량이 사업 경쟁력을 좌우하는 핵심 변수로 부상하고 있다. 이를 고려하면 네이버클라우드는 인프라 측면에서 일정 수준 대응 기반을 마련한 것으로 평가된다. 다만 상면 여유가 충분하다고 보긴 어려운 만큼 실제 사업 참여 여부와 규모는 향후 인프라 확보 속도에 따라 달라질 가능성도 있다. 업계 관계자는 "대규모 GPU 클러스터는 장비보다 이를 수용하는 데이터센터 설계가 성능을 좌우한다"며 "전력·냉각·네트워크 조건이 동시에 충족되지 않으면 구축 자체가 어려워 상면과 인프라 확보가 사실상 진입 장벽으로 작용하고 있다"고 말했다.

2026.04.02 10:22장유미 기자

정부, 국가 AI 프로젝트에 GPU 3000장 투입…52개 과제 선정

정부가 범부처 인공지능(AI) 프로젝트에 그래픽처리장치(GPU) 3천장을 공급한다. 과학기술정보통신부는 1일 제6회 과학기술관계장관회의를 서면 개최해 '범국가적 AI 혁신을 위한 국가 AI 프로젝트 선정안'을 심의 의결했다. 총 28개 부처에서 121개 과제가 접수됐고 평가를 거쳐 25개 부처 52개 과제가 최종 선정됐다. 이번 프로젝트는 정부가 확보한 그래픽처리장치(GPU) 자원을 각 부처 사업과 연계해 지원하는 구조다. 정부는 확보한 GPU 1만장 중 약 3000장을 이번 프로젝트에 배분한다. 선정 기준은 국가 전략적 중요성과 기술·사회적 파급 효과, 정부 주도 필요성이다. 정부는 전문가 평가와 심사위원회를 거쳐 우선순위를 정했으며 과제별 인터뷰를 통해 GPU 배분 규모를 조정했다고 발표했다. 주요 과제로는 소프트웨어 정의 차량(SDV) 전환 기반 AI 미래차 자율주행 모델 고도화, 산업 특화 파운데이션 모델 개발, AI 스타트업 기술 상용화, 한국형 기상 기후 AI 모델, AI 기본의료, AI 융합콘텐츠, 북극항로 예측 기술 등이다. 정부는 과제 착수 시점에 맞춰 이달부터 GPU를 순차 배분할 계획이다. 사용이 늦어지는 자원은 별도 포털을 통해 산학연 단기 수요에 재배분해 활용도를 높인다. GPU 사용 현황을 매월 점검해 이용률이 낮거나 목적 외 사용이 발생하면 회수 후 재배분할 방침이다. 이를 통해 자원 관리 효율성을 높이겠다는 의도다. 배경훈 부총리 겸 과학기술정보통신부 장관은 "정부 마중물 투자를 바탕으로 구축하는 AI 고속도로의 토대 위에서 각 부처가 주도하는 범국가적 AI 혁신이 생길 것"이라며 "민관 AI 수요를 지속적으로 파악해 정부 GPU 자원이 적재적소에 배분될 수 있도록 총력을 다하겠다"고 밝혔다.

2026.04.01 23:37김미정 기자

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

국방부가 생성형 인공지능(AI) 기반 국방 데이터 인프라 구축을 위한 첫 단계 사업에 착수했다. 대규모 그래픽처리장치(GPU) 서버를 중심으로 한 인프라를 구축해 국방 AI 서비스 운영 기반을 마련하고 향후 국방 통합 AI 데이터센터 구축을 위한 실증 데이터를 확보한다는 구상이다. 30일 조달청 나라장터에 따르면 국방부 산하 국방통합데이터센터(DIDC)는 최근 '2026년 국방통합AI데이터센터 실증 목적 GPU 서버 구축사업' 입찰을 공고했다. 이번 사업은 국방 AI 데이터센터 구축을 위한 초기 실증 사업으로, GPU 자원 확보와 함께 AI 인프라 운영·관리 체계를 구축하는 것이 핵심이다. 사업 예산은 약 216억원 규모로 책정됐으며 계약 후 210일 이내 수행될 예정이다. 특히 일반경쟁입찰 계약방식으로 평가 비중은 기술 90%, 가격 10%로 구성됐다. 이번 사업은 지난해 구축된 국방 생성형 AI '국방 생성형 AI(GeDAI, Generative Defense AI)' 서비스의 안정적 운영을 지원하기 위한 후속 인프라 확장 성격을 띤다. 국방부는 GeDAI를 실증 수단으로 활용해 GPU 수요와 국방 데이터 활용 요구사항을 도출하고 향후 데이터센터 구축 시 기준으로 활용할 계획이다. 사업 범위는 단순 장비 도입을 넘어선다. 우선 대규모 AI 추론 서비스를 위한 GPU 서버와 클라우드 관리 서버, 고속 네트워크 및 스토리지 등 핵심 인프라가 구축된다. 이와 함께 GPU 가상화 기반 서비스형 플랫폼(PaaS), 백업 시스템, 관제 및 보안 솔루션도 포함된다. 특히 GPU 서버는 엔비디아 B300 기반 고성능 장비로 구성되며 서버 간 최대 800기가비피에스(Gbps)급 네트워크를 통해 대규모 AI 추론 환경을 구현하는 것이 목표다. 이를 바탕으로 국방 데이터 기반 AI 모델 학습과 추론을 동시에 지원하는 고성능 인프라가 마련될 전망이다. 사업은 착수 이후 ▲환경 조사 및 요구사항 분석 ▲아키텍처 상세 설계 ▲장비 설치 및 시험평가 ▲보안 측정 및 검수 ▲안정화 단계로 진행된다. 이후 무상 하자보수 및 운영 안정화까지 포함된 전체 구축 사이클이 약 7개월 내 완료될 예정이다. 국방부는 이번 사업을 통해 GPU 자원을 확대하고 각 군과 수요기관에 AI 서비스를 제공할 수 있는 기반을 마련한다는 방침이다. 또 민·군 협력 기반 AI 연구개발 환경을 조성하고 향후 전군 단위 AI 서비스 확산을 위한 인프라 표준 확보에도 활용된다. 이번 사업은 향후 추진될 국방 통합 AI 데이터센터 구축의 전초 단계로 평가된다. 앞서 정부는 2030년까지 최대 5만 개 GPU를 투입하는 대규모 국방 AI 인프라 구축 계획을 밝힌 바 있다. 이번 실증 사업이 핵심 기반이 될 것이라는 예상이 나온다. 국방부 측은 사업 제안요청서를 통해 "AI 과학기술 강군 육성을 위해 기존 국방 생성형 AI 서비스를 안정적으로 운영·관리할 수 있도록 정보시스템을 증설한다"며 "GPU 기반 인프라 구축을 통해 효율적이고 안정적인 AI 서비스 제공 환경을 마련할 것"이라고 밝혔다.

2026.03.30 17:44한정호 기자

[유미's 픽] "GPU만 사오면 끝?"…정부, 1.5만장 구축 사업서 '설계 능력' 보는 까닭

정부의 대규모 그래픽처리장치(GPU) 인프라 사업 경쟁이 장비 확보에서 운용 능력 중심으로 재편되고 있다. 최신 GPU 도입 여부보다 이를 얼마나 효율적으로 설계·운영할 수 있는지가 올해 사업 선정의 핵심 변수로 떠오른 가운데, 정부가 국내 기업들의 인프라 경쟁력을 끌어올리기 위해 본격 나선 모양새다. 30일 업계에 따르면 과학기술정보통신부는 다음달 13일까지 GPU 1만5000장을 구축하기 위한 사업자 공모에 나선다. 총 2조800억원을 투입해 GPU 서버와 부대 장비를 구매한 후 산·학·연에 공급할 예정으로, 최신 GPU를 신속히 확보하고 이를 대규모로 묶어(클러스터링) 구축·운용할 수 있는 민간 기업을 선정한다는 방침이다. 앞서 정부는 지난해 추가경정예산 1조4000억원을 투입해 확보한 엔비디아 B200 등 첨단 GPU 1만3000장을 NHN클라우드, 네이버클라우드, 카카오엔터프라이즈 등을 통해 구축했다. 또 이 물량을 최근 산·학·연에 3000장, 국가 프로젝트에 4000장, 독자 AI 파운데이션 모델에 3000장씩 배분했다. 또 지난 25일부터 산학연을 대상으로 2000장에 대한 추가 공모에도 들어갔다. 올해 5월 중 선정될 사업자는 연내 GPU 1만5000장 구축 및 서비스를 개시해 2031년 12월 31일까지 운영하게 된다. 이 물량 역시 산·학·연 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 이병묵 NIPA AI인프라확충팀장은 "올해 블랙웰급 이상의 최신 GPU 1만5000장 확보를 목표로 한다"며 "고성능 GPU를 대규모로 공급할 수 있는 사업자가 높은 평가를 받을 것"이라고 말했다. 정부는 이번 사업을 통해 참여 기업들의 기술 경쟁력을 끌어올린다는 목표다. 그간 GPU 물량 싸움 중심으로 인프라 구축 사업을 펼친 결과 수행 과정에서 한계가 곳곳에서 드러났던 탓이다. 특히 지난해 처음 GPU 구축 사업에 나서면서 일부 기업들이 H100, B200급을 확보해두고도 소프트웨어, 구성 문제로 실제 성능 효율이 낮은 사례가 발생하자 정부가 이에 대해 문제의식을 크게 느낀 것으로 알려졌다. 대규모 GPU 클러스터는 데이터 흐름과 메모리 구조, 네트워크 구성에 따라 전체 성능이 좌우되는 만큼 단일 장비 성능만으로는 효율을 담보하기 어렵다.또 B200 도입에 따라 수냉식 등 최신 냉각 기술을 적용해야 함에도 불구하고 하중 보강 공사, 구조 변경 등이 빠르게 뒷받침 되지 못해 구축 일정이 지연되는 사례도 벌어지자 정부가 난감해 한 것으로 전해졌다. 업계 관계자는 "정부가 GPU 1만3000장 구축 사업을 진행하면서 GPU만 사오면 끝나면 사업이 아니란 점을 뼈저리게 느낀 듯 하다"며 "지난해엔 얼마나 GPU를 많이 확보하고 싸게 제안했는지를 중점적으로 들여다 본 탓에 정작 운용능력이 뒷받침되지 않아 정부도 속앓이를 많이 한 것으로 안다"고 지적했다. 이에 정부는 올해 사업 평가 기준을 대폭 수정했다. 단순한 장비 확보 능력보다 실제 운영 효율을 검증할 수 있는 요소들을 대거 평가 체계에 포함한 것이다. 실제 이번 사업의 주요 평가 항목 및 배점을 살펴보면 절반인 50점이 사업 준비도 및 경쟁력에 배정됐다. 이 중 인프라 준비도(18점)와 구축 계획의 구체성(32점)은 핵심 평가 항목으로 제시됐다. 특히 데이터센터 상면 확보 여부를 비롯해 전력·냉각 설비, 네트워크 구성, 자원 관리 체계 등 물리적·논리적 인프라를 종합적으로 검증하겠다는 방침을 내세웠다. 이는 단순 가격 경쟁이나 물량 확보보다 실제 대규모 GPU 클러스터를 구축해 안정적으로 운영할 수 있는 역량을 우선 보겠다는 의미다. 특히 32점이 배정된 구축계획 우수성은 정부가 이번 사업을 사실상 '설계 능력 평가'로 보고 있음을 보여준다. 어떤 GPU를 얼마나 들여오겠다는 수준을 넘어 이를 어떤 구조로 묶고 어떤 일정으로 구축하며 실제 서비스 단계까지 어떻게 연결할 것인지를 구체적으로 입증해야 높은 점수를 받을 수 있는 구조란 점에서다. 업계 관계자는 "GPU 활용 효율을 입증할 수 있는 성능 지표 제시가 요구되면서 사업자들의 부담이 한층 커진 상황"이라며 "실제 연산 효율을 얼마나 끌어올릴 수 있는지에 대한 구체적인 방법론과 결과를 함께 제시해야 하기 때문"이라고 말했다. 업계에선 이를 두고 정부가 사업 방향을 '물량 경쟁'에서 '효율 경쟁'으로 전환한 것으로 보고 있다. 동일한 GPU 환경에서도 메모리 활용 방식, 데이터 전송 구조, 추론 엔진 설계에 따라 처리 성능과 비용 효율이 크게 달라지기 때문이다. 이 과정에서 메모리 처리 구조와 데이터 흐름 최적화 등 소프트웨어 역량이 핵심 변수로 부상하고 있다. GPU 연산 성능이 높아도 메모리 대역폭이나 데이터 처리 구조가 이를 뒷받침하지 못할 경우 전체 성능이 제한되는 구조적 한계 때문이다. 이에 일부 기업들은 이러한 병목 현상을 해소하기 위해 추론 엔진 최적화, 모델 경량화, 데이터 처리 구조 개선 등 다양한 기술 경쟁을 벌이고 있다. 같은 GPU를 사용하더라도 운영 방식에 따라 처리 가능한 작업량이 크게 달라져서다. 업계 관계자는 "정부가 차세대 GPU인 '베라루빈' 제안 시 평가에 우대 조건으로 반영할 수 있도록 한 것도 이러한 흐름과 맞닿아 있다"며 "단순 도입 여부보다 고성능 장비를 안정적으로 운용할 수 있는 인프라 설계 능력을 함께 보겠다는 의미"라고 해석했다. 다만 베라루빈과 같은 차세대 GPU는 수냉 기반 구조 등으로 인해 기존 대비 장비 무게와 전력 요구 수준이 크게 높아지는 만큼, 일각에선 이를 수용할 수 있는 데이터센터 인프라 확보 여부가 새로운 변수가 될 것으로 봤다. 실제 올해 사업에서는 데이터센터 하중 구조를 사전에 점검해 제출하도록 하는 요건이 추가된 것으로 알려졌다. 지난해 일부 사업자가 수냉식 장비 도입 과정에서 구조 보강 문제로 일정 지연을 겪은 경험이 반영된 결과다. 업계 관계자는 "작년에는 장비 확보와 단가 경쟁이 중심이었다면, 올해는 성능 효율과 운영 구조까지 함께 검증하는 방향으로 완전히 바뀌었다"며 "실제 서비스를 돌릴 수 있는 수준의 설계 역량을 갖추지 않으면 사업 참여 자체가 쉽지 않은 구조"라고 밝혔다. 전문가들은 이번 사업이 국내 AI 인프라 경쟁 방식 자체를 바꾸는 계기가 될 것으로 보고 있다. 단순한 하드웨어 투자에서 벗어나 소프트웨어와 운영 기술까지 포함한 종합 경쟁력 확보가 요구되고 있기 때문이다. 또 다른 관계자는 "이제는 GPU를 얼마나 확보했는지가 아니라 같은 자원으로 얼마나 높은 효율을 내느냐가 경쟁력의 핵심"이라며 "이번 사업은 국내 기업들이 글로벌 수준의 인프라 운용 역량을 갖추도록 유도하는 전환점이 될 것"이라고 말했다.

2026.03.30 16:27장유미 기자

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

베슬AI, 엔비디아 GB200·B300 확보…듀얼 네오클라우드 운영

베슬AI가 초거대 모델 학습과 추론을 동시에 지원하는 최신 엔비디아 그래픽처리장치(GPU) 라인업을 구축해 국내 인공지능(AI) 인프라 시장에서 입지를 강화한다. 베슬AI는 엔비디아 'GB200'과 'B300'을 확보하고 이를 기반으로 클라우드 서비스형 GPU(GPUaaS) 사업을 확대한다고 27일 밝혔다. 베슬AI에 따르면 회사는 국내에서 GB200과 B300을 동시에 제공하는 유일한 네오클라우드 사업자로, 차별화된 AI 인프라 경쟁력을 확보했다. 이번 GPU 확보를 통해 기업 고객은 AI 워크로드 특성에 맞춰 GPU를 선택할 수 있게 됐다. B300은 대규모 AI 모델 추론에, GB200은 초거대 모델 학습에 적합해 다양한 AI 개발 환경을 지원한다. 서비스 접근성도 강화했다. 베슬AI는 A100과 H100 등 주요 GPU와 스토리지, AI 개발 플랫폼을 별도 협의 없이 즉시 사용할 수 있는 셀프서비스 방식으로 제공한다. 기업과 개발자가 별도 계약이나 승인 절차 없이 필요한 시점에 바로 GPU를 활용할 수 있도록 지원한다. 비용 효율성도 강점으로 내세웠다. 분 단위 과금 체계와 '스마트 퍼징' 기능을 통해 유휴 자원 낭비를 최소화하고 AI 인프라 총소유비용(TCO)을 절감할 수 있도록 했다. 직관적인 요금 구조와 유연한 크레딧 관리 방식도 도입해 GPUaaS 도입 장벽을 낮췄다는 설명이다. 베슬AI는 자사 GPU 클라우드 플랫폼 '베슬 클라우드'를 통해 GPU 자원을 제공 중이며 현재 일부 물량을 기반으로 기업들의 인바운드 문의가 이어지고 있다. 향후 글로벌 클라우드 파트너십을 기반으로 공급 규모를 확대하고 다양한 지역으로 서비스를 확장할 계획이다. 안재만 베슬AI 대표는 "A100부터 B300까지 국내에서 가장 폭넓은 GPU 라인업을 갖춘 네오클라우드 사업자로서 국내 기업들의 AI 인프라 경쟁력을 높이는 데 기여하겠다"고 말했다.

2026.03.27 17:35한정호 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

삼성SDS, 국내 최초 B300 GPU 서비스 출시…기업 AI 추론 시장 공략

삼성SDS가 국내 최초로 엔비디아 B300 GPU 기반 클라우드 서비스를 선보이며 기업 AI 추론 시장 공략에 나섰다. 삼성SDS는 클라우드 '삼성 클라우드 플랫폼(SCP)'을 통해 엔비디아 최신 GPU 'B300' 기반 GPU 구독형 서비스(GPUaaS)를 출시했다고 밝혔다. 이번 서비스는 AI 도입이 개발 단계를 넘어 실제 서비스 운영 단계로 확대되는 흐름에 맞춰 고성능 연산 수요를 대응하기 위해 마련됐다. B300 GPU는 고대역폭메모리(HBM3E)를 12단으로 구성해 GPU당 288GB 메모리와 초당 8TB 대역폭을 제공한다. 이는 기존 H100 대비 메모리 용량은 약 3배 이상, 대역폭은 2배 이상 향상된 수준이다. 특히 대규모 언어 모델 실행 과정에서 발생하는 데이터 전송 지연 문제를 줄이며, 연산 대비 메모리 속 이로 인해 AI 에이전트, 이미지 생성, 영상 처리, 코드 생성 등 고성능 연산이 필요한 서비스에서 응답 속도를 낮출 수 있다. 기업은 더 큰 규모의 AI 모델을 안정적으로 운영할 수 있고, 실시간 처리 요구가 높은 업무에도 적용 범위를 확대할 수 있다. 서비스는 구독형 구조로 제공된다. 기업은 필요한 만큼 GPU를 사용하고 비용을 지불하는 방식이다. 초기 인프라 투자 부담을 줄이고 자원 활용 효율을 높일 수 있다. GPU 수급이 어려운 상황에서도 최신 아키텍처를 즉시 활용할 수 있다는 점도 특징이다. 여기에 삼성SDS의 보안 기술이 결합돼 민감한 데이터도 안정적으로 처리할 수 있다. 삼성SDS는 GPUaaS 생태계를 지속적으로 확장해 왔다. 2021년 A100, 2023년 H100에 이어 이번 B300까지 선제적으로 도입하며 클라우드 기반 AI 인프라 경쟁력을 강화해 왔다. 이를 통해 기업 고객이 AI 인프라를 직접 구축하지 않고도 고성능 환경을 활용할 수 있도록 지원하고 있다. 향후 서비스도 확대한다. 삼성SDS는 별도 인프라 비용 없이 사용량 기반으로 과금하는 '서버리스 추론 서비스'와 자동 분산 학습 기능을 제공하는 'AI 학습 서비스'를 2026년 3분기 내 출시할 계획이다. 이호준 삼성SDS 클라우드서비스사업부장 부사장은 "자원 최적화와 에너지 절감 기술을 기반으로 GPU 활용 효율을 높여 왔다"며 "국내 최초 B300 GPU 서비스를 통해 기업의 AI 전환을 적극 지원하겠다"고 밝혔다. 한편 삼성SDS는 공공 클라우드 사업에서도 입지를 확대하고 있다. 대구 데이터센터에 H100 기반 GPU 서비스를 구축했으며, 범정부 초거대 AI 인프라와 지능형 업무 시스템 구축 사업에도 참여하고 있다. 과학기술정보통신부 고성능 컴퓨팅 지원 사업을 통해 중소기업, 스타트업, 연구기관, 대학 등 약 60여 곳에 GPU 자원을 제공하며 AI 생태계 확산에도 기여하고 있다.

2026.03.23 11:53남혁우 기자

파인튜닝 한계 넘는다…크래프톤, 자체 AI 모델 개발 착수

크래프톤이 인공지능(AI) 모델을 처음부터 직접 만들겠다고 공식화했다. 지난 17일(현지시간) 미국 새너제이에서 열린 엔비디아 'GTC 2026'에서 이강욱 크래프톤 최고인공지능책임자(CAIO)는 이 같이 밝혔다. 지난해 10월 'AI 퍼스트' 전략을 선언한 회사는 1000억원 규모의 그래픽처리장치(GPU) 클러스터 구축 계획을 발표한 바 있다. 이번 행보는 그 연장선으로, 단순 인프라 확장을 넘어 AI 기술 스택을 완전히 내재화하겠다는 의지로 풀이된다. "필요한 AI 모델은 직접 개발한다" 크래프톤이 자체 모델 개발로 선회하게 된 배경에는 기존 방식에 대한 우려가 존재한다. 현재 개발 중인 '펍지 엘라이(AI 기반 게임 캐릭터)'는 3개의 AI 모델을 요구한다. 다만 다중 모델 구조는 기술 복잡도를 높일 뿐만 아니라, 응답 속도 지연을 유발해 게임 서비스 품질을 떨어뜨리는 원인이 된다. 이강욱 CAIO 역시 이 문제를 해결하기 위해 최적의 모델을 탐색해 왔으나, 결국 기존 모델의 한계를 극복하기 위해 자체 개발로 방향을 굳힌 것으로 보인다. 당시 매일경제 보도에 따르면, 이 CAIO는 "모델간 연결되는 과정에서 지연되는 것을 원치 않는다"며 "이를 위한 단일 모델은 프롬 스크래치로 개발할 예정"이라고 전했다. 이어 "해당 모델은 조만간 공개할 계획"이라고 덧붙였다. 프롬 스크래치는 데이터 수집, 구조 설계, 학습 등 개발 과정을 직접 수행하는 방식이다. 기성복을 수선해 입는 '파인튜닝'과 달리, 특정 체형에 딱 맞춘 '맞춤 정장'을 제작하는 것과 같다. 특히 필요한 기능만으로 설계된 만큼, 게임 서비스에 최적화된 높은 효율성과 빠른 응답 속도를 구현 가능하다. 이와 함께 이 CAIO는 지난해 선보인 인생 시뮬레이션 게임 '인조이'에 새로운 AI 요소가 추가될 것이라고 예고했다. '인프라·데이터·인력' AI 모델 개발에 자신있는 이유 크래프톤이 프롬 스크래치 방식을 선택한 데에는 그만한 기술력과 배경이 뒷받침한다. 단순 선언에 그치지 않고 결과물을 예고할 수 있는 핵심 근거는 인프라·데이터·전문 인력의 결합에서 나온다. 우선 크래프톤은 NHN클라우드를 통해 1000억원 규모의 GPU 클러스터를 구축 중이다. 이는 오는 7월부터 본격적으로 가동될 예정이며, 모델 학습과 추론 등에 필요한 연산을 담당한다. 장기간 쌓아온 '게임 특화 데이터' 또한 차별점으로 작용한다. 현재도 대표작인 '펍지: 배틀그라운드'를 통해 매 순간 변화하는 전장 상황과 이용자 데이터 등을 확보하는 중이다. 여기에 이 CAIO를 필두로 넷마블, 롯데온 등에서 영입한 업계 전문가들로 구성된 'AI 편대'가 실질적인 기술 실행력을 완성한다. 이들은 전사적 AI 전환 및 고도화에 집중할 방침이다. 크래프톤은 단순한 기술 도입을 넘어 AI 역량을 체계적으로 내재화하는 모습이다. 새로운 AI 콘텐츠인 '펍지 앨라이'를 선보인 데 이어, 자체 모델 개발까지 나서며 'AI 퍼스트' 비전에 걸맞은 행보를 이어가고 있다. 이러한 시도들이 게임 업계에 어떤 파장을 일으키고 새로운 표준을 제시할지 업계의 이목이 쏠리고 있다.

2026.03.22 09:12진성우 기자

[AI 고속도로] '베라루빈' 도입·연내 구축 가능할까…정부 GPU 확충 쟁점은

정부가 '인공지능(AI) 고속도로' 구현을 위한 2조원 규모 최신 그래픽처리장치(GPU) 확충 사업에 착수한다. 엔비디아가 공개한 차세대 GPU '베라루빈' 도입 가능성까지 포함되면서 사업 방향과 세부 기준에 대한 업계 관심이 높아지고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 개최했다. 이날 현장에선 사업 구조와 평가 기준, 데이터센터 요건 등을 설명하고 현장 질의응답을 진행했다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 밝혔다. 이날 설명회에는 지난해 사업에 선정된 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)와 엘리스그룹이 자리했다. 또 삼성SDS·LG CNS 등 SI 기업과 메가존클라우드·디딤365, 레드햇·클러쉬, 델·HPE·IBM·넷앱·슈퍼마이크로 등 인프라 기업, 엔비디아·AMD·인텔, MS·구글 클라우드, SK텔레콤·쿠팡 등 60여개 기업 200여 명이 참석했다. 현장 질의응답에선 차세대 GPU 도입 기준을 비롯해 데이터센터 구축 방식, 글로벌 공급망 위협과 환율 변동에 따른 비용 부담, 연내 구축 일정 등 주요 쟁점을 중심으로 사업 참여를 검토하는 기업들의 질의가 이어졌다. 특히 베라루빈 도입 여부와 구축 일정 간 균형, 국내 인프라 중심 운영 원칙 등이 핵심 관심사로 부각됐다. 최신 GPU 중심 평가…베라루빈 도입 기준·일정 변수는 -사업 요건의 비용 대비 높은 GPU 성능은 어떤 기준으로 평가되나. "경제성 항목은 단순히 장비 수량을 많이 확보하는 개념이 아니라, 최신 GPU 기준으로 성능 대비 얼마나 효율적으로 제안하느냐를 보는 것이다. 동일한 예산 안에서 최신 아키텍처 GPU를 얼마나 확보할 수 있는지가 핵심이다. 구형 GPU를 대량으로 제안하는 방식보다는 최신 GPU 중심으로 실제 AI 학습과 추론에 적합한 성능을 확보했는지가 평가 포인트가 된다. 성능 대비 비용, 그 성능이 실제 AI 활용에 얼마나 적합한지를 종합적으로 볼 것이다." -베라루빈 제안 시 클러스터 구축 기준은 어떻게 적용되나. "베라루빈은 아직 구체적인 구성 방식이나 클러스터 단위가 완전히 정형화되지 않은 차세대 GPU다. 기존 블랙웰 계열과 동일한 기준을 그대로 적용하기는 어려울 수 있다. 이 부분은 칩 제조사와 공급망을 통해 확인해야 하는 영역이다. 제안 단계에선 가능한 범위에서 구성 계획을 제시하되, 세부 기준은 제조사 스펙과 실제 공급 조건을 반영해 판단하게 된다. 중요한 것은 차세대 GPU 도입 의지와 실현 가능성이다." -특정 제조사의 GPU만을 고려해 평가가 이뤄지는지. "이번 사업은 특정 칩 제조사를 배제하거나 제한하려는 것이 아니라, 국가 차원에서 AI 인프라를 가장 빠르게 확보하는 것이 목적이다. 현재 시장에서 대규모 AI 모델 학습과 서비스에 가장 널리 활용되는 최신 GPU를 중심으로 판단하게 된다. 다양한 선택지가 있을 수 있지만 실제 활용성과 안정성, 공급 가능성을 종합적으로 고려할 수밖에 없다." -베라 루빈 출시 일정과 연내 구축 목표가 충돌할 경우 기준은. "기본적으로 이번 사업은 연내 구축과 서비스 개시가 중요한 목표다. 다만 차세대 GPU 도입은 평가에서 우대 요소로 반영된다. 베라 루빈의 경우 일반적인 글로벌 공급 일정과 달리 국내 도입 시점이 앞당겨질 가능성도 있다. 관계 부처와 제조사 간 협의를 통해 국내 물량 확보를 추진해 왔다. 결국 일정과 최신성 두 요소를 함께 고려하되, 현실적인 공급 상황을 반영해 판단할 것이다." -GPU 납기 지연 등 변수 발생 시 일정 조정이 가능한가. "사업자가 최종 선정된 이후 협약 단계에서 시장 상황을 반영해 일부 조정은 가능하다. 기본 원칙은 유지하되, 실제 납기나 공급 이슈가 불가피하게 발생하는 경우까지 일률적으로 적용하기는 어렵다. 협약 과정에서 합리적으로 논의할 수 있는 여지는 있다." "국내 데이터센터 집적이 원칙"…냉각 인프라도 예산에 포함 -복수 데이터센터를 활용한 구축·운용이 가능한가. "데이터센터를 여러 개 제안하는 것은 가능하다. 다만 사업에서 요구하는 최소 클러스터 단위는 반드시 동일 공간 또는 동일 층에 물리적으로 집적돼야 한다. 대규모 AI 연산을 위해서는 GPU 간 통신 지연을 최소화하는 구조가 필요하기 때문이다. 따라서 분산 배치는 가능하지만, 핵심 클러스터는 집적형으로 구성해야 한다." -동일 제조사 내 서로 다른 GPU 모델을 혼합해 제안할 수 있나. "가능은 하지만 단순 혼합이 아니라, 각각의 GPU 구성에 대한 명확한 목적과 타당성을 제시해야 한다. 어떤 워크로드에 어떤 GPU를 쓰는지, 클러스터 단위 기준을 어떻게 충족하는지를 설명해야 한다. 단순히 여러 모델을 섞는 방식은 설득력이 떨어질 수 있다." -해외 데이터 연동이나 네트워크 활용은 원천 불가능한가. "사업의 기본 원칙은 국내 데이터센터에서 GPU를 직접 운영·통제하는 것이다. 국가 AI 인프라라는 특성상 데이터 주권과 보안이 중요하다. 다만 실제 운영 과정에서 필요한 세부 사항은 추가 논의를 통해 정리할 수 있다." -수냉 배관 등 데이터센터 공사 비용도 사업 지원비에 포함되나. "GPU 서버가 최고 성능을 낼 수 있도록 필요한 환경이라면 통합 구축 범위에 포함해 제안할 수 있다. 단순히 장비만 도입하는 것이 아니라 실제 운영 가능한 인프라를 구축하는 것이 목적이다. 전력·냉각·네트워크까지 포함한 전체 시스템 관점에서 제안하는 것이 중요하다." -콜드플레이트 등 냉각 구성 요소는 어떻게 반영해야 하나. "세부적인 하드웨어 구성은 서버 벤더와 칩 제조사 기준을 따르는 것이 바람직하다. GPU 성능을 충분히 발휘할 수 있는 구성이라면 관련 부대장비까지 포함해 제안하면 된다. 단순 장비 나열이 아니라 완성된 인프라로서 제안해야 한다." 환율 변수에도 제안가 기준…"사업 종료 후 관리는 정부가" -환율 변동에 따른 가격 차이는 추후 어떻게 반영되나. "기본적으로는 제안 시점에서 확보한 가격을 기준으로 본다. 공모 사업 특성상 사후 정산 구조이기 때문에 가격 변동이 발생하더라도 그 기준을 중심으로 관리하게 된다." -환율 급등 등 외부 변수 발생 시 대응은. "원칙은 제안 가격 기준이다. 다만 전쟁이나 글로벌 공급망 충격과 같은 불가피한 상황이 발생할 경우에는 협약 단계에서 논의가 필요할 수 있다. 모든 변수를 사전에 규정하기는 어렵지만 현실적인 범위에서 대응할 예정이다." -정부 활용분과 기업 자체 활용분은 어떤 기준으로 산정되나. "정부 활용분에 대해 요구되는 최소 클러스터 규모를 먼저 충족해야 하고 그 이후 남는 자원을 자체 활용분으로 설정하는 구조다. GPU 종류나 성능이 서로 다른 경우에는 단순 장수 기준만으로 판단하지 않고 도입 비용과 활용 목적까지 함께 고려해 전체 구성의 타당성을 평가한다. 단순 비율이 아니라 정부 활용 목적에 부합하는지와 자원 배분의 합리성을 종합적으로 볼 것이다." -정부 활용분 GPU에 대한 수요는 보장되나. "수요 모집과 배분은 정부가 담당한다. 사업자는 인프라를 제공하고 운영을 지원하는 역할을 수행하게 된다. 수요 확보 부담을 사업자에게 전가하는 구조는 아니다." -사업 종료 후 GPU 자산은 어떻게 되나. "GPU와 부대장비는 NIPA 자산으로 관리된다. 이후 처리 방식은 관련 규정과 절차에 따라 결정된다. 매각이나 이전 등 다양한 방안을 검토할 예정이다."

2026.03.20 17:58한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

앤트로픽 '클로드' 서버 장애 지속…국내 AI 서비스 영향

[국방 AX 거점④] "AI 인프라·인재 10년 키워…판교, 육군 전초기지로"

[르포] 한일 정상회담 후 달라진 日…현지 최대 IT 행사서 'K-AI'에 관심 폭발

[단독] 코인원, ‘특금법 위반’ 영업 일부정지 3개월 제재 가닥

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.