• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (331건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

B200 73일 돌려보니…래블업, 독자 AI 인프라 구축 경험 공개

래블업이 엔비디아 B200 그래픽처리장치(GPU) 504대 규모 클러스터를 73일간 운영한 소버린(주권) 인공지능(AI) 학습 인프라 경험을 공개한다. 래블업은 신정규 대표가 오는 16~19일(현지시간) 미국 산호세에서 열리는 엔비디아 GTC 2026에서 1000억 파라미터급 모델을 처음부터 학습시킨 과정과 내결함성 스케줄링 전략을 발표한다고 13일 밝혔다. 래블업은 과학기술정보통신부·정보통신산업진흥원(NIPA) 주관 '독자 AI 파운데이션 모델 개발' 사업에서 업스테이지 정예팀의 인프라 파트너로 참여 중이다. 래블업은 업스테이지의 '솔라 오픈 100B' 학습을 지원하는 과정에서 GPU 오류·NCCL(GPU 간 집합 통신 라이브러리) 타임아웃 등 대규모 분산 학습에서 반복적으로 발생하는 장애를 자동 감지하고 복구하는 구조를 구축했다. 기존 대비 평균 장애 복구 시간을 47% 줄였으며 프로세스 재시작까지 3초 이내로 단축했다. NFS 드라이버 설정 오류 하나가 성능을 10분의 1로 떨어뜨린 사례를 추적·해결한 과정도 공유한다. MXFP8(8비트 부동소수점) 정밀도에서의 학습 안정성 확보와 RoCE·인피니밴드 환경에서의 NCCL 튜닝 등 블랙웰 세대에 맞춘 최적화 기법도 다룬다. 전시장 243번 부스에선 기술 시연도 진행한다. 관람객이 네트워크 케이블을 직접 뽑아 장애 상황을 만들면 추론 요청이 다른 경로로 자동 전환되는 '백엔드AI(Backend.AI)' 컨티뉴엄의 내결함성을 실시간으로 확인할 수 있다. 클라우드 접속이 끊겨도 로컬 자원으로 즉시 전환해 응용 프로그램 인터페이스(API) 호출을 유지하는 방식이다. 래블업은 엔비디아 DGX 스파크에서 구동되는 '백엔드AI:GO(Backend.AI:GO)'도 선보이며 128GB 통합 메모리를 갖춘 AI 전용 장비에서 로컬 AI 환경을 제공한다. 신 대표는 "504대의 B200을 73일간 운영하면서 대규모 분산 학습이 실전에서 어떻게 무너지고 어떻게 다시 세우는지를 체계화했다"며 "국가와 산업이 독자적으로 AI를 운용할 수 있는 소버린 AI 인프라 구축의 비전을 제시하겠다"고 말했다.

2026.03.13 15:33이나연 기자

[현장] "AI 학습 환경 천차만별…공동 교육 인프라 필요"

"인공지능(AI) 교육에도 장비 경쟁이 생겼습니다. AI 서비스 사용료와 장비 확보 여부에 따라 학습 경험 자체가 천차만별입니다. 현재 학생 간 해당 격차는 더 벌어지고 있습니다." 박성준 숙명여대 소프트웨어(SW)중심대학사업단 특임교수는 과학기술정보통신부가 13일 서울 국가과학기술자문회의 대회의실에서 개최한 '에이전틱 AI 시대 SW 산업 및 인재양성 대응방안 간담회'에서 이같이 지적했다. 이날 간담회에 류제명 과기정통부 제2차관을 비롯한 이도규 과기정통부 정보통신정책실장, 신준우 정보통신기획평가원 전략기획본부 본부장 등 IT 주요 부처와 국내 AI 산학연 관계자들이 참석했다. 박 특임교수는 현재 학생 간 AI 학습 환경 격차가 커지고 있다는 점을 지적했다. AI 서비스 사용료와 장비 확보 여부에 따라 학습 경험 자체가 달라질 수 있다는 설명이다. 그는 "개발자들은 매달 수십만원에서 많게는 100만원 이상을 AI 서비스 이용에 지출한다"며 "학생들은 이런 비용을 감당하기 어렵다"고 말했다. 이어 "학생들이 유튜브와 소셜네트워킹서비스(SNS)를 통해 AI 개발 사례를 접하고 있지만 실현하기 어렵다"며 "실제로 동일한 환경을 갖추기 어렵기 때문"이라고 설명했다. 그러면서 "일부 AI 에이전트나 개발 환경은 추가 장비가 필요하다"며 "이런 접근성 차이가 학습 경험 격차로 이어질 수 있다"고 설명했다. 이날 백은옥 한양대 컴퓨터SW학부 교수는 AI 시대에 컴퓨터공학과 커리큘럼 방향이 바뀌어야 한다고 주장했다. AI로 누구나 SW를 쉽게 만들 수 있는 시점에서 컴퓨터공학과 역할을 재정의해야 한다는 설명이다. 백 교수는 "대학은 운영체제(OS)를 비롯한 컴파일러, 아키텍처 등 컴퓨터 작동 원리를 가르치는 핵심 기술 교육에 더 집중해야 한다"고 강조했다. 이어 "학생은 기초 기술 이해를 갖춰야 AI로 생성된 코드나 시스템 구조를 제대로 분석하고 검증할 수 있을 것"이라고 말했다. 백 교수는 대학 간 교육 역할을 나누는 방안도 검토할 필요가 있다는 점을 제안했다. 일부 대학은 핵심 SW 연구 중심으로 운영하고, 다른 대학은 응용 SW 교육 중심으로 운영하는 방식도 하나의 대안이 될 수 있다는 설명이다. 임치현 울산과학기술원(UNIST) AI대학원 산업공학과 부교수는 그래픽처리장치(GPU)와 데이터 접근 환경 부족을 가장 큰 문제로 꼽았다. 그는 "대학별로 인프라를 구축하는 것보다 공동 GPU 클러스터 등 통합 활용 체계가 필요하다"고 대안을 제시했다. "바이브 코딩이 개발자 역할 바꿔…경력 중심 채용" AI 기술 확산으로 개발자 역량과 채용 방식에 변화가 생긴 것으로 나타났다. 신정규 래블업 대표는 개발자 역량이 코드 작성에서 시스템 설계와 검증 중심으로 이동하고 있다고 봤다. 그는 "기업 역시 단순 코드 작성 능력보다 요구 사항 정의와 시스템 구조 이해 능력을 더 중요하게 본다"고 말했다. 오승욱 슈어소프트 대표도 개발자의 코드 검증 역량을 개발자 핵심 역량으로 봤다. 그는 "현재 코드 자동 생성 비율이 전체 코드 약 30% 수준까지 올라갔지만, 생산성 증가는 약 10% 수준에 그쳤다"며 "코드 검증 비용은 오히려 두 배 가까이 늘었다"고 사례를 공유했다. 왕지영 카카오엔터프라이즈 사업기획팀 매니저는 사내 개발자 업무 범위가 줄어들고 있다고 분석했다. 그는 "AI를 통한 개발 생산성 증가가 이어지고 있다"며 "데이터 사이언티스트 등 다른 직무 인력 역시 AI 도구를 활용해 최소 기능 제품(MVP) 제작, 개념검증(PoC)를 진행하는 사례가 늘고 있다"고 설명했다. 조준희 한국인공지능·소프트웨어산업협회(KOSA) 회장은 SW 산업이 원하는 인재 유형도 바뀌고 있다고 봤다. 그는 전통적인 패키지 SW 개발 인력보다 AI 에이전트 서비스, AI 인프라 SW, 반도체 인터페이스 등 새로운 기술 영역을 이해하는 인재 수요가 커질 가능성이 높다고 전망했다. 조 회장은 이런 변화 원인을 SW 산업 구조 재편으로 꼽았다. 그는 "그동안 SW 기업이 패키지 제품을 만들어 공급하는 구조였다"며 "현재 기업들이 AI를 활용해 필요한 기능을 직접 개발하는 수요 중심 구조로 이동하고 있기 때문"이라고 말했다. 류제명 과기정통부 제2차관은 "현재 AI 쓰나미는 소수 전문가가 방향을 제시한다고 해서 해결될 수 있는 문제가 아니다"며 "SW 산업계 관계자를 비롯한 학계 등 모든 구성원이 머리 맞대고 논의해야 하는 이슈"라고 말했다. "이어 상황 대처를 위해 보다 광범위한 논의가 지속적으로 필요할 것"이라고 덧붙였다.

2026.03.13 13:36김미정 기자

남부발전, 퓨리오사AI와 국산 AI 반도체 생태계 조성 협력

남부발전이 인공지능(AI) 대전환 가속화 흐름에 발맞춰 국산 반도체 기술을 활용한 에너지 생태계 육성에 나선다. 한국남부발전(대표 김준동)은 퓨리오사AI와 '에너지 효율 중심의 국산 AI 인프라 생태계 구축'을 위한 업무협약(MOU)을 체결했다고 밝혔다. 이번 협약은 기존 외산 고가 그래픽처리장치(GPU) 의존도를 낮추고, 전력 효율이 뛰어난 국산 신경망처리장치(NPU) 기반 AI 인프라를 구축하기 위해 마련됐다. 이를 통해 남부발전은 발전설비 운영 비용을 절감하고, 퓨리오사AI는 국산 AI 반도체의 실제 산업 현장 적용 사례를 확보해 기술 자립도를 높인다는 방침이다. 두 회사는 국산 기술 기반 저전력·고성능 AI 인프라 구축을 목표로 ▲NPU 기반 AI 서버 도입·실증 ▲국산 AI 인프라 최적화를 위한 시스템 성능 개선 ▲GPU와 NPU 간 분산 처리를 위한 하이브리드 운영 방안 모색 ▲최신 AI 기술 관련 교류 및 공동 연구 등을 추진할 예정이다. 특히 이번 협력에는 퓨리오사AI의 2세대 NPU인 '레니게이드(RNGD)'가 활용된다. 이 모델은 높은 전력 효율성이 검증된 만큼, 남부발전은 이를 통해 핵심 AI 기술의 성능을 검증하고 대상 시스템을 단계적으로 확대해 차세대 AI 반도체 기술력 선점의 전초기지 역할을 수행할 예정이다. 김준동 남부발전 사장은 “이번 협약은 국산 기술로 안정적이고 효율적인 AI 기반 환경을 조성하는 의미 있는 첫걸음”이라며 “국산 AI 반도체 기술이 실제 산업 현장의 실효성을 입증하고, 향후 다른 공공기관과 산업계로 확산되는 계기가 되길 바란다”고 밝혔다.

2026.03.13 02:00주문정 기자

2조원 규모 국가 GPU 확충 닻 올렸다…'AI 고속도로' 시동

정부가 2조원대 예산을 투입해 첨단 그래픽처리장치(GPU) 확충에 나선다. 지난해 1만 3000여 장 확보에 이어 올해는 공모 단계부터 대규모·최신 GPU 클러스터와 연내 서비스 개시를 전면에 내세우며 산학연과 국가 인공지능(AI) 프로젝트를 뒷받침할 'AI 고속도로' 구축을 본격화한다. 과학기술정보통신부는 12일 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모를 이날부터 다음 달 13일까지 진행한다고 발표했다. 국내 AI 생태계 활성화와 AI 3대 강국 도약의 핵심 인프라인 AI 고속도로 구축을 본격 추진한다는 목표다. 이번 사업은 약 2조 805억원을 투입해 첨단 GPU와 통합 운영환경을 민관 협력 방식으로 신속히 확보하는 것이 핵심이다. 협약 기간은 올해 협약 체결 시점부터 2031년 12월 31일까지 약 68개월이다. 올해는 구축과 서비스 개시, 2027년부터 2031년까지는 운영 단계로 이어진다. 정부는 이번 사업 예산을 GPU 서버와 랙, 냉각장치, 스토리지, 네트워크 케이블·스위치, 소프트웨어(SW) 라이선스, 기술지원 패키지 등 구매 비용에 집중 투입할 계획이다. 공고에 따르면 정부는 단순히 GPU 수량을 늘리는 것을 넘어 ▲비용 대비 높은 성능 ▲대규모 클러스터링 ▲직접 클러스터링을 통한 기술력 확보 ▲최신 기종 우선 도입 ▲연내 서비스 개시 등을 중점 추진 방향으로 제시했다. 특히 정부 활용분 가운데 최소 1개 이상 클러스터를 256서버(GPU 2048개) 이상 규모로 구성하는 제안이 우대되며 최신 GPU는 엔비디아 블랙웰급 이상을 기본으로 보고 차세대 베라루빈 제안 시에도 우대한다는 기준을 내세웠다. 사업 참여 대상은 국내에서 클라우드 기반 서비스형 GPU(GPUaaS) 제공·운영이 가능한 사업자다. 단독 또는 컨소시엄 형태 모두 가능하지만 최근 3년 이내 관련 매출과 운영 실적을 사업계획서에 포함해야 한다. 참여 기업은 국내 데이터센터에 상면을 확보하고 같은 공간 또는 같은 층에서 GPU 서버를 물리적으로 집적해야 한다. 대규모 클러스터를 구성할 수 있는 전력·냉각·항온항습·네트워크 인프라 계획도 제출 요건이다. 이는 정부가 단순 조달보다 실제 대형 AI 학습과 추론을 감당할 수 있는 고성능 집적 인프라 구축 역량을 전면 평가하겠다는 것으로 풀이된다. 정부는 공고에 관한 사업설명회를 오는 20일 서울 포스코타워 역삼에서 개최한다. 다음 달까지 공모 접수를 거쳐 오는 4~5월 평가위원회 선정평가와 데이터센터 현장실사를 진행하고 5월 사업수행기관을 확정할 예정이다. 이후 12월까지 협약 체결과 정부출연금 교부, GPU 발주·구축·테스트·연내 서비스 개시가 이어지며 중간보고는 9월, 결과보고와 평가는 내년 1월, 정산은 내년 2월로 예정됐다. 올해 사업은 지난해 GPU 확보 사업의 연장선으로 진행된다. 정부는 지난해 추가경정예산 약 1조 4000억원을 투입해 1만 3000여 장 규모 GPU 확보를 추진했다. 이 사업에는 네이버클라우드·NHN클라우드·카카오가 최종 선정됐다. 이후 정부와 기업이 실무협의체를 구성해 확보·구축·운용 계획과 GPU 통합지원 플랫폼 구축, 산학연 지원 일정 등을 논의해왔다. 민관 협력으로 이달 초부터는 지난해 확보된 정부 GPU가 본격적으로 산학연에 공급되기 시작했다. 이번 공모는 이미 가동을 시작한 1차 공급 체계에 추가 물량과 더 큰 클러스터를 얹는 2단계 확장 사업으로 평가된다. AI 고속도로 구축 속도를 높이고자 정부는 올해 공고에 지난해보다 한층 구체적인 운영 조건도 담았다. 제안사는 전체 GPU 자원 중 자체 활용 허용 자원 비중을 스스로 제안할 수 있지만, 정부 활용 자원 비중이 높을수록 평가에서 우대받는다. 동시에 독자 AI 파운데이션 모델 등 국가 AI 프로젝트와 국내 산학연 대상 지원 계획, 국내 직접 운영·통제 체계, GPU 자원 관리 시스템, 통합 SW 플랫폼, 모니터링과 기술지원 체계 등이 핵심으로 제시됐다. 업계에선 단순 GPU 확보를 넘어 공급·운영·지원이 결합된 상시 GPU 서비스 체계를 만들겠다는 의지로 보고 있다. 정부 주도 대형 AI 인프라 사업인 만큼 어떤 사업자가 이번 공모에 뛰어들지도 주목된다. 지난해 사업에 참여했던 네이버클라우드·NHN클라우드·카카오는 물론, 대형 데이터센터·클라우드 인프라를 보유한 KT클라우드와 같은 주요 클라우드 서비스 기업(CSP)과 GPU 운용 역량을 키우고 있는 통신사업자 등이 경쟁 구도를 형성할 가능성이 거론된다. 공모상 정부가 복수 사업자 선정도 가능하게 열어둔 만큼, 대규모 단일 클러스터 구축 역량과 운영 경험, 보안 인증, 직접 운영 체계 등을 얼마나 설득력 있게 제시하느냐가 관전 포인트다. 특히 정부가 국가 AI 경쟁력 뒷받침을 중점으로 국내 AI 생태계를 실질적으로 지원할 수 있는 운영·지원 능력이 최종 승부를 가를 전망이다. 실제 공고에 기재된 평가 항목엔 총 100점 만점 중 구축계획 우수성이 32점으로 가장 크고 뒤를 이어 AI 생태계 발전 노력이 26점으로 높은 배정이 산정됐다. 이번 사업으로 확보되는 GPU는 대규모 학습과 추론 자원이 필요한 국가 AI 프로젝트, 산학연 연구개발, 스타트업 AI 서비스 고도화 등에 폭넓게 쓰일 전망이다. 정부가 지난해 확보 물량 공급을 시작한 데 이어 올해 추가 공모에 착수하면서 국내 AI 인프라는 초기 확보에서 확장·고도화 단계로 넘어가고 있다. 클라우드 업계 관계자는 "지난해 사업을 통해 국가 AI 생태계를 지원할 GPUaaS 운영 기반이 마련됐다"며 "올해는 규모가 더 커진 만큼 기존 참여 기업을 비롯한 주요 클라우드 사업자들이 참여 여부를 검토하며 경쟁 구도가 형성될 것으로 보인다"고 밝혔다. 배경훈 부총리 겸 과기정통부 장관은 "작년 추경을 통해 확보한 정부 GPU는 현장의 뜨거운 반응과 함께 이달 초부터 본격적으로 산학연에 공급되고 있다"며 "첨단 GPU를 추가로 확보해 더 많은 기업과 연구자들이 좋은 아이디어를 AI로 구현해 볼 수 있도록 지원하고 더 많은 팀이 도전할 수 있도록 정부가 함께 뛰겠다"고 강조했다.

2026.03.12 18:31한정호 기자

NHN클라우드, 日 최대 IT쇼서 AI 인프라 승부수…GPU 앞세워 시장 공략

NHN클라우드가 일본 최대 IT 전시회에 참가해 인공지능(AI) 인프라 서비스를 앞세워 현지 시장 공략에 속도를 낸다. 최근 일본에서 인공지능 전환(AX)과 클라우드 인프라 수요가 빠르게 늘고 있는 만큼, 현지 사업 기반을 강화해 새로운 성장 기회를 확보하겠다는 전략이다. NHN클라우드는 오는 4월 8일부터 10일까지 일본 도쿄 빅사이트에서 열리는 '재팬 IT 위크(Japan IT Week Spring) 2026'에 참가한다고 12일 밝혔다. 재팬 IT 위크는 일본을 대표하는 IT 산업 전시회로, AI·클라우드·소프트웨어 등 최신 기술과 솔루션을 선보이고 기업 간 협력 기회를 모색하는 글로벌 ICT 행사다. NHN클라우드는 이번 행사에서 GPU 기반 AI 인프라 서비스(GPUaaS)를 중심으로 산업별 맞춤형 클라우드 솔루션과 AI 기술을 소개한다. 특히 그래픽처리장치(GPU) 클러스터 운영, 성능 모니터링, 장애 대응, 리소스 최적화 등을 포함한 AI 풀 라이프사이클 관리 체계를 통해 안정적인 AI 인프라 운영 서비스를 제공하고 있다는 점을 강조할 계획이다. 또 최근 생성형 AI 도입이 확대되면서 일본 기업들 사이에서도 고성능 GPU 인프라와 안정적인 AI 운영 환경 확보에 대한 수요가 커진 만큼, NHN클라우드는 관련 인프라 운영 경험을 앞세워 시장을 공략할 계획이다. NHN클라우드가 이처럼 나선 것은 일본이 해외 사업에서 핵심 시장이기 때문이다. 지난 2019년부터 일본에서 데이터센터를 직접 운영하며 현지 규제와 보안 요건을 충족하는 클라우드 인프라를 제공하고 있는 상태로, 교육, 게임, 콘텐츠 등 다양한 산업 분야에서 클라우드 환경 구축 경험을 축적하며 현지 사업 기반도 꾸준히 확대해 왔다. 특히 한국과 일본 양국에서 한국어와 일본어 기술 지원 체계를 동시에 운영하고 있고, 일본 엔화 기반 요금 체계를 적용해 환율 변동에 따른 비용 부담을 줄일 수 있다는 점도 NHN클라우드만의 경쟁력으로 꼽힌다. NHN클라우드는 이번 전시를 통해 일본 기업과 파트너를 대상으로 실제 비즈니스 적용 사례를 공유하고 협력 기회를 확대할 계획이다. 또 일본 현지 법인인 NHN클라우드 재팬을 중심으로 축적한 사업 운영 경험을 바탕으로 일본 진출을 준비하는 국내 기업과의 협력 모델도 제시한다는 방침이다. 이 같은 행보는 최근 일본에서 확대되고 있는 AI 전환 흐름과도 맞물린다. 일본에서는 디지털 전환(DX)을 넘어 인공지능 전환(AX)에 대한 관심이 높아지고 있다. 올해 1월 한일 정상회담을 계기로 양국 간 AI 협력 논의가 확대되면서 일본 기업들의 AI 인프라와 클라우드 서비스 도입 수요도 점차 커지는 분위기다. NHN클라우드는 이번 전시 참가를 통해 일본 시장에서 요구되는 산업별 클라우드 수요를 직접 확인하고, 현지 기술 트렌드와 디지털 전환 흐름에 대한 인사이트도 확보한다는 계획이다. NHN클라우드 관계자는 "일본 시장의 다양한 기업 및 파트너와 직접 소통할 수 있는 자리에서 GPUaaS를 비롯한 우리의 기술 경쟁력을 소개하고 협력 기회를 발굴하기 위해 이번 행사에 참여했다"며 "일본을 전략 지역으로 삼아 현지 기업에 수준 높은 클라우드 인프라를 제공하고 일본 시장에 진출하는 한국 기업의 안정적인 정착을 지원하는 역할도 지속해 나갈 계획"이라고 말했다.

2026.03.12 17:40장유미 기자

과기정통부, 2조 투입해 'AI 고속도로' 깐다…AI G3 행보 박차

대한민국이 '인공지능(AI) 3대 강국'으로 도약하기 위한 핵심 인프라인 'AI 고속도로 구축' 사업이 본격적인 닻을 올렸다. 과학기술정보통신부는 국내 AI 생태계 활성화를 이끌 첨단 그래픽처리장치(GPU)를 확보하고 구축·운영할 민간 클라우드 서비스 제공사(CSP)를 공모한다고 13일 밝혔다. AI 시대 두뇌로 불리는 GPU는 방대한 데이터를 실시간으로 학습하고 추론하는 데 필수적인 연산 자원이다. 최근 초거대 AI 모델의 고도화로 GPU는 단순 하드웨어를 넘어 국가의 기술 주권을 결정짓는 핵심 전략 자산으로 부상했다. 하지만 천문학적인 도입 비용으로 인해 민간 기업이 자체적으로 대규모 투자를 단행하기에는 부담이 컸던 것이 사실이다. 이에 정부는 과감한 마중물 투자를 단행한다. 지난해 추가경정예산 1.4조 원을 투입해 첨단 GPU 1.3만 장을 확보한 데 이어, 올해는 2.08조 원 규모의 대규모 투자를 통해 민간의 AI 도전 문턱을 획기적으로 낮출 계획이다. 이번 공모는 국내에서 클라우드 기반 GPU 서비스 제공 및 운영이 가능한 사업자를 대상으로 4월 13일 오후 3시까지 진행된다. 참여를 희망하는 기업은 데이터센터 상면 확보는 물론, 구체적인 GPU 조달·구축 계획과 향후 서비스 운영 방안을 제시해야 한다. 특히 과기정통부는 차세대 GPU 출시 및 메모리 가격 상승 등 불확실한 시장 상황 속에서도 최신 고성능 인프라를 안정적으로 제공할 수 있는 역량 있는 사업자를 선정할 방침이다. 평가 항목에는 ▲투입 예산 대비 높은 성능 목표 ▲대규모 클러스터링 구축 ▲최신 기종 GPU(블랙웰급 이상, 베라루빈 등 제안 시 우대) 공급 계획 ▲정부 활용 자원 비중 ▲보안성 및 안정성 등이 포함된다. 정부는 이번 사업을 통해 확보한 첨단 GPU 자원을 국내 산·학·연 AI 개발자 및 연구진에게 안정적으로 공급해 혁신적인 AI 연구개발을 지원할 계획이다. 공모 관련 세부 사항을 안내하는 사업설명회는 오는 3월 20일 오후 2시 포스코타워 역삼(4층 이벤트홀)에서 열린다. 배경훈 과기정통부 장관은 “작년 추경을 통해 확보한 정부 GPU는 현장의 뜨거운 반응과 함께 3월 초부터 본격적으로 산·학·연에 공급되고 있다”며, “첨단 GPU를 추가로 확보해 더 많은 기업과 연구자들이 좋은 아이디어를 AI로 구현해 볼 수 있도록 지원하고, 더 많은 팀이 도전할 수 있도록 정부가 함께 뛰겠다”고 강조했다.

2026.03.12 17:34남혁우 기자

[AI 리더스] 오픈소스컨설팅 "AI 시대 인프라·협업 모두 아우른다…글로벌 파트너 도전"

"인공지능(AI) 시대에도 기업이 새로운 기술을 유연하게 받아들이고 활용할 수 있도록 돕는 것이 우리의 역할입니다. 오픈소스 기반 기술과 자체 제품 경쟁력을 바탕으로 글로벌 시장에서도 성장하는 회사가 되겠습니다." 장용훈 오픈소스컨설팅 대표는 12일 서울 강남구 본사에서 지디넷코리아와 만나 AI 시대 기업 IT 환경 변화와 회사의 전략 방향에 대해 이같이 말했다. 그는 "AI 기술은 빠르게 발전하고 있지만 기업의 기존 인프라와 조직 문화는 그 속도를 따라가기 쉽지 않다"며 "새로운 기술을 실제 기업 환경에서 활용할 수 있도록 연결하는 데 앞장설 것"이라고 강조했다. 오픈소스컨설팅은 오픈소스 기반 클라우드 인프라와 협업 플랫폼 사업을 중심으로 성장해온 기업이다. 최근에는 AI 인프라와 워크 매니지먼트 플랫폼을 결합해 기업 디지털 전환(DX)을 지원하는 전략을 강화하고 있다. 회사는 올해 글로벌(Global)·AI·프로덕트(Product)·파트너(Partner)를 축으로 한 'GAPP' 전략을 중심으로 사업 구조를 양적 성장에서 질적 성장 중심으로 전환한다는 목표다. "기존 IT 인프라와 AI 사이 간극 메운다" 장 대표는 AI 시장을 바라보는 관점에서 과도한 기대와 현실 사이의 간극을 언급했다. 그는 AI가 기업 환경을 빠르게 변화시키고 있지만 실제 기업 시스템 전체를 단기간에 대체하기는 어렵다고 설명했다. 장 대표는 "AI가 빠르게 발전하는 것은 사실이지만 기업 내부에는 아직도 유닉스나 기존 가상화 환경을 사용하는 시스템이 많다"며 "이런 환경에서 AI를 제대로 활용하려면 인프라와 업무 시스템을 함께 변화시키는 과정이 필요하다"고 말했다. 장 대표는 협업 플랫폼과 클라우드 인프라의 중요성이 더 커질 것으로 봤다. AI 도입 자체보다 이를 활용할 수 있는 환경 구축이 더 중요해질 것이라는 판단이다. AI가 기존 시스템을 완전히 대체하기보다는 데이터를 분석하고 의사결정을 돕는 방식으로 기업 업무를 강화할 가능성이 높다는 것이다. 이에 대해 한진규 오픈소스컨설팅 사장은 "전사적자원관리(ERP)나 워크 플랫폼 같은 기업 시스템은 이미 복잡도가 매우 높아 AI가 단순히 대체하기 어렵다"며 "대신 AI는 데이터를 빠르게 분석해 경영진과 조직이 더 많은 인사이트를 얻도록 돕는 방향으로 활용될 것"이라고 밝혔다. AI 확산은 기업 협업 환경에도 변화를 가져올 것으로 내다봤다. 다양한 서비스형 소프트웨어(SaaS) 협업 도구와 내부 시스템을 AI로 연결해 업무 효율을 높이는 방향으로 발전할 것이라는 전망이다. 한 사장은 "우리가 파트너십을 맺고 있는 아틀라시안·먼데이닷컴 같은 SaaS 협업툴과 기업 내부 시스템을 AI로 연결해 어디서든 필요한 정보를 얻을 수 있는 환경이 중요해질 것"이라며 "우리는 이런 플랫폼 통합 역할에 집중하고 있다"고 설명했다. 장 대표 역시 AI가 협업을 대체하기보다는 새로운 협업 방식의 파트너가 될 것이라고 봤다. 그는 "AI는 직원을 완전히 대체하기보다는 함께 일하는 새로운 협업 파트너가 될 가능성이 크다"며 "이 과정에서 협업 플랫폼과 데이터 기반 업무 환경의 중요성이 더욱 커질 것"이라고 강조했다. 클라우드·GPU 인프라 전략 강화…"AI 활용 가능한 환경이 핵심" 최근 AI 확산과 함께 기업 인프라 전략도 빠르게 변화하고 있다. 특히 그래픽처리장치(GPU) 인프라와 클라우드 환경을 어떻게 구축하고 운영하느냐가 중요한 과제로 떠오르고 있다. 오픈소스컨설팅은 프라이빗 클라우드 플랫폼 '플레이스 클라우드'를 중심으로 이같은 시장 변화에 대응 중이다. 이 플랫폼은 가상머신·컨테이너·GPU 등 다양한 인프라 자원을 통합 관리할 수 있는 오픈소스 기반 프라이빗 클라우드 환경을 지원한다. 기업들이 브로드컴의 VM웨어 인수 이후 비용 증가 등의 영향으로 기존 가상화 환경을 대체하려는 움직임을 보이는 동시에, 생성형 AI 확산으로 GPU 기반 인프라 수요도 빠르게 증가하고 있다. 오픈소스컨설팅은 플레이스 클라우드를 앞세워 이 시장 공략에 박차를 가하고 있다. 글로벌 커뮤니티를 통해 지속적으로 업데이트되는 오픈소스 기술들을 패키징하기에 AI 시대에 맞는 유연한 하이브리드 인프라 구축을 지원하는 것이 강점이다. 특히 인프라 비용 부담과 기술 지원이 우려되는 '벤더 종속' 문제를 해소하는 데 앞장선다는 방침이다. 한 사장은 "현재 AI 시장에선 VM웨어 솔루션과 퍼블릭 클라우드를 사용할 경우 비용과 데이터 관리 측면에서 부담이 커질 수 있다"며 "기업의 중요한 내부 데이터나 핵심 시스템은 프라이빗 클라우드에서 운영하려는 수요가 늘고 있다"고 설명했다. 이 흐름에 맞춰 GPU 자원을 효율적으로 운영할 수 있는 인프라 기술도 강화하고 있다. 오픈소스컨설팅은 GPU 자원을 세분화해 할당하고 자동으로 관리할 수 있는 AI 인프라 구축 경험을 공공·민간 시장에서 확보했다. 최근엔 스트라토와 협력해 클라우드 통합 운영관리 플랫폼을 결합한 서비스형 GPU(GPUaaS) 기반 글로벌 AI 인프라 사업에도 나섰다. 기업이 AI 데이터센터와 GPU 클러스터를 보다 효율적으로 운영할 수 있도록 지원한다는 계획이다. 장 대표는 "GPU를 확보하는 것만으로 AI 도입·확산이 실현되는 것은 아니다"라며 "기업이 실제로 AI를 활용할 수 있도록 인프라와 운영관리 환경을 함께 구축하는 것이 더 중요하다"고 밝혔다. "유럽 거점으로 글로벌 공략…파트너 생태계 확대" 오픈소스컨설팅은 올해를 글로벌 사업 확장의 전환점으로 설정했다. 이미 유럽 지역에 영업 거점을 마련하고 글로벌 시장 공략을 본격화하고 있다. 현재 회사는 네덜란드 암스테르담과 스페인 바르셀로나에 인력을 배치해 유럽 시장을 중심으로 활동 중이다. 이 거점을 통해 장기적으로 미국 시장까지 사업 영역을 확대할 계획이다. 한 사장은 "한국 기업이 해외 시장을 직접 개척하는 것은 쉽지 않지만 유럽을 거점으로 글로벌 판매 체계를 구축하고 있다"며 "국내 영업 조직과 해외 영업 조직이 협력해 시장을 확대 중"이라고 설명했다. 아틀라시안 생태계에서의 파트너십도 대표적인 글로벌 시장 확장 전략이다. 오픈소스컨설팅은 최근 글로벌 소프트웨어 기업 앱파이어로부터 아시아태평양(APAC) 최우수 파트너로 선정되며 기술력을 인정받았다고 밝혔다. 회사는 자체 개발한 아틀라시안 마켓플레이스 앱 '플렉서블' 라인업을 토대로 글로벌 고객도 확보에 속도를 내고 있다. 회사에 따르면 현재 전 세계 수백 개 기업이 해당 솔루션을 사용 중이다. 장 대표는 향후 자체 클라우드·SaaS 솔루션 중심의 사업 구조로 전환하겠다는 목표도 내세웠다. 그는 "아직은 파트너 솔루션 매출 비중이 크지만 앞으로 3년 안에 자체 제품 매출 비중을 60% 이상으로 높이는 것이 목표"라고 말했다. 끝으로 그는 "AI 기술 경쟁은 결국 기업이 얼마나 빠르게 기술을 활용할 수 있느냐의 문제"라며 "오픈소스 기반 기술과 자체 제품 경쟁력을 바탕으로 기업의 AI 전환을 돕는 글로벌 기술 파트너로 성장하겠다"고 강조했다.

2026.03.12 14:26한정호 기자

[현장] 레드햇 "AI 운영 핵심은 추론 인프라…오픈소스 플랫폼 지원 확대"

레드햇이 기업의 인공지능(AI) 도입 확대에 맞춰 AI 추론 인프라와 하이브리드 클라우드 기반 플랫폼 지원을 강화한다. 그래픽처리장치(GPU) 활용 효율과 AI 운영 거버넌스를 동시에 확보하는 플랫폼 전략을 앞세워 AI 서비스 구축과 운영을 지원한다는 목표다. 최원영 한국레드햇 전무는 11일 양재 엘타워에서 열린 '레드햇 테크데이'에서 "기업이 AI 서비스를 운영하려면 추론 아키텍처와 GPU 활용 전략을 포함한 통합 플랫폼 접근이 필요하다"며 "오픈소스 기반 플랫폼 '레드햇 AI'를 통해 AI 도입·운영을 지속 지원할 것"이라고 강조했다. 이날 행사는 AI-레디 하이브리드 클라우드 플랫폼 구축 전략을 주제로 기업 AI 환경 구축을 위한 인프라와 플랫폼 전략을 공유하는 자리로 마련됐다. 행사에는 300여 명의 고객과 파트너가 참석했다. 최 전무에 따르면 최근 생성형 AI와 멀티 에이전트 기반 서비스가 확산되면서 AI 모델의 실제 서비스 단계인 추론 영역의 중요성이 커지고 있다. AI 에이전트는 단순 질의응답을 넘어 계획 수립, 도구 호출, 결과 검증 등 여러 단계를 거치기에 연산량과 토큰 사용량이 크게 증가하는 추세다. 그는 "AI 에이전트 기반 서비스는 단순한 거대언어모델(LLM) 응답보다 훨씬 많은 추론 연산이 필요하다"며 "이 과정에서 GPU 자원을 얼마나 효율적으로 활용하느냐가 기업 AI 운영의 핵심 과제가 되고 있다"고 설명했다. 레드햇은 이를 지원하고자 '오픈시프트'를 중심으로 한 레드햇 AI 플랫폼 전략을 추진 중이다. 해당 플랫폼은 다양한 오픈소스 기반 AI 도구를 통합해 기업 환경에서 안정적으로 운영할 수 있도록 지원한다. 레드햇 AI 플랫폼은 ▲AI 엔터프라이즈 ▲오픈시프트 AI ▲엔터프라이즈 리눅스 AI ▲AI 인퍼런스 서버 등으로 구성된다. 특히 가상 거대언어모델(vLLM) 기반 AI 인퍼런스 서버를 통해 다양한 GPU와 가속기 환경에서 대규모 AI 모델을 효율적으로 운영할 수 있도록 지원한다. 또 GPU 자원을 여러 사용자와 서비스가 유연하게 공유할 수 있는 서비스형 GPU(GPUaaS) 구조도 제공한다. 기업이 보유한 GPU 자원을 보다 효율적으로 활용하고 AI 인프라 비용 부담을 줄인다는 목표다. 레드햇은 최근 글로벌 오픈소스 커뮤니티와 함께 엔비디아와 AMD GPU, 구글 텐서처리장치(TPU), 나아가 국내 AI 반도체 기업 리벨리온의 신경망처리장치(NPU) 등 다양한 AI 가속기에 대한 최적화도 진행 중이다. AI 플랫폼 생태계 확대도 박차를 가한다. 레드햇은 엔비디아와 협력해 DGX 시스템에 AI 플랫폼을 통합하는 '레드햇 AI 팩토리 위드 엔비디아' 협력 모델을 지난달 발표했다. 현재 엔비디아 블랙웰 플랫폼과 통합됐으며 향후 차세대 루빈 플랫폼과의 연계도 추진할 계획이다. 이날 행사에선 한전KDN이 레드햇 오픈시프트 기반 클라우드 네이티브 환경을 통해 전력 제어 시스템을 현대화하는 프로젝트 사례도 소개됐다. 한전KDN은 현재 10년 규모의 변전소 원격 감시·제어 시스템(SCADA) 개발 프로젝트를 진행 중이다. 기존 시스템 중심 구조에서 벗어나 유연성과 확장성을 갖춘 클라우드 플랫폼 기반으로 전환하는 것이 목적이다. 배선준 한전KDN 차장은 "전력 제어 시스템은 수많은 변전소에서 데이터를 수집하고 실시간으로 제어해야 하기에 안정성과 운영 효율성이 무엇보다 중요하다"며 "레드햇 오픈시프트 플랫폼을 통해 개발 자동화와 지속적 통합·배포(CI/CD) 체계를 구축하고 클라우드 네이티브 전환을 추진 중"이라고 밝혔다. 이어 "컨테이너 기반 환경으로 장애 발생 시 영향 범위를 격리하고 신속하게 대응할 수 있는 구조를 구축해 한국전력 제어 시스템을 고도화할 것"이라고 덧붙였다. 레드햇은 오픈소스 기반 플랫폼이 기업의 기존 IT 인프라와 AI 워크로드를 통합 운영하는 데 적합하다고 강조했다. 특히 하이브리드 클라우드 환경에서 애플리케이션과 AI 서비스를 단일 플랫폼 레드햇 AI에서 관리할 수 있다는 점을 주요 강점으로 내세웠다. 최 전무는 "AI도 기존 IT 환경과 마찬가지로 보안과 거버넌스를 함께 고려해야 한다"며 "기업이 기존 IT 운영 플랫폼 위에서 AI를 통합적으로 관리할 수 있도록 지원할 것"이라고 말했다.

2026.03.11 15:46한정호 기자

정부 GPU 1만5천장 확보 사업 시동 건다

정부가 추진하는 대규모 그래픽처리장치(GPU) 확보 사업 공고가 이번 주 내 발표된다. 올해 약 1만 5000장 규모의 고성능 GPU를 추가 도입하는 사업으로, 공고 시점이 확정될 경우 국가 인공지능(AI) 인프라 확충 사업이 본격적으로 속도를 낼 전망이다. 10일 과학기술정보통신부에 따르면 '첨단 AI반도체 서버 확충 및 통합운영환경 구축' 사업 공고가 이번 주 중 발표될 예정이다. 내부 검토 절차가 마무리 단계에 들어가면서 이르면 12일 또는 13일께 공고가 게시될 가능성이 높은 것으로 전해졌다. 이번 사업은 정부가 약 1만 5000장 이상의 GPU를 확보해 국내 AI 연구와 산업에 공급하는 것이 목표다. 총 사업 규모는 약 2조원 수준으로, 민간 클라우드 사업자가 GPU 인프라를 구축·운영하고 이를 서비스형 GPU(GPUaaS) 형태로 제공하는 방식이다. 정부의 GPU 확충 정책은 지난해부터 단계적으로 추진되고 있다. 지난해에는 추가경정예산을 통해 약 1만 3000여 장의 GPU 확보 사업이 진행됐으며 이를 기반으로 산·학·연 연구기관과 스타트업에 컴퓨팅 자원을 지원하는 체계가 마련됐다. 당시 사업에는 네이버클라우드·NHN클라우드·카카오 등이 참여해 GPU 인프라를 구축했다. 확보된 자원은 초거대 AI 모델 개발, 연구 프로젝트, 스타트업 기술 개발 등에 활용되며 국내 AI 개발 생태계의 핵심 인프라 역할을 해왔다. 특히 정부는 GPU 통합 지원 플랫폼을 구축해 산·학·연이 온라인으로 GPU 자원을 신청하고 배정받을 수 있도록 하는 체계를 운영하고 있다. AI 모델 학습 수요가 급격히 늘어나면서 관련 자원 신청 역시 빠르게 증가한 것으로 알려졌다. 이번 사업은 이러한 기반 위에 GPU 공급 규모를 추가 확대하는 것이 목적이다. 정부는 국가 AI 전략 추진 과정에서 대규모 컴퓨팅 자원의 중요성이 커지고 있다고 판단하고 인프라 확보 속도를 높이고 있다. 업계에선 지난해 사업 경험을 바탕으로 주요 클라우드 사업자들의 참여 여부에도 관심이 쏠리고 있다. 기존 사업에 참여했던 네이버클라우드·NHN클라우드·카카오뿐 아니라 KT클라우드 등 다른 클라우드 사업자 및 통신사의 참여 가능성도 거론된다. 사업 공고 이후에는 사업자 선정, 협약 체결, GPU 발주·구축 등의 절차가 순차적으로 진행될 예정이다. 정부는 이를 통해 산·학·연 연구와 국가 전략 AI 프로젝트를 지원할 컴퓨팅 인프라를 한층 확대할 계획이다. 과기정통부 관계자는 "내부 검토 과정에서 일정이 다소 늦어졌지만, 이번 주에는 사업이 공고될 예정이며 현재로선 12일이나 13일쯤 발표될 것으로 예상한다"고 밝혔다.

2026.03.10 11:16한정호 기자

다양한 GPU 한 곳에서 비교…디딤365, AI 인프라 허브 '디딤GPU' 출시

디딤365가 다양한 그래픽처리장치(GPU) 자원을 통합 관리하는 플랫폼을 앞세워 인공지능(AI) 인프라 구축·운영 시장 공략에 나선다. 단순 GPU 인프라 공급을 넘어 설계·최적화·운영까지 지원하는 매니지드 서비스(MSP) 역량을 기반으로 기업 AI 전환(AX)을 지원한다는 목표다. 디딤365는 최적화된 AI 인프라 수립과 효율적인 리소스 관리를 지원하는 '디딤GPU 통합 허브 서비스'를 공식 출시했다고 9일 밝혔다. 최근 생성형 AI 경쟁이 본격화되면서 고성능 GPU 자원 확보는 기업의 핵심 경쟁력으로 부상하고 있다. 그러나 기업들은 서비스형 GPU(GPUaaS) 공급사마다 다른 기술 규격과 과금 체계를 개별적으로 비교해야 하는 부담을 겪고 있으며 이 과정에서 인프라 파편화와 운영 복잡성이 AI 도입의 장애 요인으로 지적돼 왔다. 디딤365가 이번에 선보인 디딤GPU는 국내외 GPUaaS 리소스를 통합한 멀티 GPU 허브 서비스다. 기업이 단일 창구에서 KT클라우드·네이버클라우드플랫폼·NHN클라우드·아마존웹서비스(AWS) 등 다양한 인프라의 성능·비용을 비교하고 바로 도입할 수 있도록 돕는다. 서비스는 엔비디아 B200·H200·H100 등 최신 하이엔드 GPU 라인업을 확보해 초거대 AI 모델 구축을 추진하는 기업 수요를 겨냥했다. 동시에 데이터 분석, 딥러닝 학습과 추론, 영상 처리, 3D 렌더링 등 고부하 워크로드에 최적화된 범용 GPU 환경도 제공한다. 기업별 비즈니스 목적에 맞춘 인프라 설계와 탄력적인 운영 환경을 지원한다는 목표다. 디딤365는 단순 자원 중개를 넘어 고객 비즈니스 모델에 맞춘 하드웨어(HW) 제안과 운영을 포함한 AX 전문 매니지드 서비스도 전면에 내세웠다. 20년 이상 축적된 MSP 경험을 바탕으로 ▲AI 워크로드 맞춤형 아키텍처 설계 ▲성능 테스트(BMT) 지원 ▲GPU 최적화 컨설팅 및 운영 지원 등을 통합 제공한다. 또 디딤GPU 이용 고객에게는 멀티·하이브리드 클라우드 환경에서도 일관된 운영체계를 유지할 수 있는 통합 대시보드가 제공된다. 분산된 GPU 자원의 실시간 가동률과 비용을 단일 인터페이스에서 관리할 수 있으며 인프라 관리 부담을 줄이고 AI 모델 개발과 고도화에 집중할 수 있도록 한다. 주요 공략층은 거대언어모델(LLM) 개발·파인튜닝을 수행하는 AI·머신러닝 기업, 복잡한 수치 계산과 시뮬레이션을 수행하는 연구기관, 고성능 3D 렌더링과 영상 편집 인프라가 필요한 콘텐츠 제작사, 대규모 데이터 분석 기업 등이다. 디딤365는 이번 서비스 출시를 계기로 GPU 기반 AI 인프라 시장 공략을 강화하고 중장기 성장 전략도 본격화한다는 방침이다. 회사는 디딤GPU 사업을 통해 매출 성장 동력을 확보하고 2027년 기업공개(IPO)를 목표로 사업 확대에 속도를 낼 계획이다. 이를 위해 최근 기업부설연구소를 부문급 조직으로 격상하는 등 AX 기술 내재화와 연구개발(R&D) 역량 강화 중심의 조직 개편도 단행했다. 장민호 디딤365 대표는 "디딤GPU는 단순한 GPU 자원 공급을 넘어 기업의 복잡한 인프라 현안을 관통하는 지능형 컨트롤 타워 역할을 수행할 것"이라며 "디지털서비스 전문계약제도 최대 계약을 달성한 국내 1위 클라우드 MSP로서 축적한 압도적 노하우를 GPU 시장에 이식하겠다"고 밝혔다. 이어 "고객사가 가장 신속하고 효율적으로 AX 비전을 실현할 수 있도록 차별화된 AX 전문 매니지드 서비스 역량을 결집하겠다"고 강조했다.

2026.03.09 18:12한정호 기자

[알파고 10년 ③] AI 3강 노리는 한국…인프라·인재가 '승부처'

지난 2016년 3월, 이세돌 9단과 인공지능 알파고의 대국은 한국 사회에 인공지능(AI) 시대의 도래를 강렬하게 각인시킨 사건이었다. 인간의 창의성과 직관의 영역으로 여겨졌던 바둑에서 AI가 승리하는 장면은 기술 발전이 산업과 사회 전반을 어떻게 변화시킬 수 있는지를 상징적으로 보여줬다.알파고 대국 이후 10년이 흐른 지금, AI는 단순한 기술을 넘어 국가 경쟁력의 핵심 축으로 자리 잡았다. 생성형 AI 확산과 함께 미국과 중국을 중심으로 글로벌 AI 패권 경쟁이 본격화됐고, 컴퓨팅 인프라와 데이터, 반도체, 인재를 둘러싼 경쟁 역시 한층 치열해지고 있다. 한국 역시 'AI 3대 강국' 도약을 목표로 정책과 산업 전략을 정비하며 새로운 도전에 나선 상황이다.지디넷코리아는 이번 3편의 기획 기사를 통해 '알파고 쇼크' 이후 10년간 한국 AI 산업이 걸어온 흐름을 되짚어보고, 글로벌 AI 경쟁 구도 속에서 한국이 마주한 기회와 과제를 살펴본다.첫 번째 기사에서는 알파고 이후 국내 AI 산업이 겪었던 시행착오와 구조적 한계를 돌아보고, 두 번째 기사에서는 정부가 추진 중인 AI 정책과 국가 전략을 짚는다. 세 번째 기사에서는 미·중을 중심으로 전개되는 글로벌 AI 패권 경쟁 속에서 한국의 경쟁력과 향후 과제를 분석한다. [편집자 주] 바둑판 위에서 시작된 AI 기술 경쟁은 10년이 지난 지금 국가 경쟁력의 핵심 축으로 확대됐다. 생성형 AI 확산 이후 AI 경쟁은 국가 전략 차원으로 격상됐고 미국과 중국을 중심으로 패권 경쟁이 본격화되고 있다. 한국 역시 'AI 3대 강국' 도약을 목표로 인프라와 기술, 인재 확보에 속도를 내며 새로운 10년을 준비하고 있다. 정부는 AI 경쟁력을 국가 핵심 성장 동력으로 규정하고 범정부 차원의 정책을 추진하고 있다. 최근 국가AI전략위원회는 '대한민국 AI 행동계획'을 확정하며 향후 3년간 추진할 AI 정책 로드맵을 제시했다. 이 계획은 총 99개 실행 과제를 담고 있으며 AI 컴퓨팅 인프라 확충, 데이터 생태계 구축, 핵심 인재 확보 등을 중심으로 국가 AI 경쟁력을 강화하는 데 초점을 맞췄다. 정부는 이러한 정책을 통해 한국을 글로벌 AI 3대 강국으로 도약시키겠다는 목표다. AI 경쟁에서 중요한 요소로는 컴퓨팅 인프라가 꼽힌다. 초거대 AI 모델을 개발하고 서비스하기 위해선 대규모 GPU와 데이터센터, 고속 네트워크 등 막대한 연산 환경이 필요하기 때문이다. 정부는 이러한 인프라 확보를 위해 '국가AI컴퓨팅센터' 구축과 GPU 확충 사업 등을 지난해부터 추진하며 국가 차원의 AI 연산 자원을 확대 중이다. 대한민국 AI 행동계획에서도 GPU와 국산 신경망처리장치(NPU) 등 핵심 AI 컴퓨팅 자원을 국가 전략 인프라로 규정하고 대규모 확보 계획을 제시했다. 정부는 2030년까지 최소 5만 장 이상의 GPU를 단계적으로 확보하고 국산 NPU 도입도 확대해 AI 컴퓨팅 인프라의 자립도를 높이겠다는 목표를 세웠다. 특히 국산 AI 반도체 생태계 활성화를 목표로 관련 연구개발(R&D)과 실증 사업을 추진 중이다. 동시에 공공과 민간이 협력해 국내 클라우드 기반 AI 인프라를 구축하는 'K-클라우드 프로젝트'도 진행되고 있다. 국산 AI 반도체와 국내 클라우드 인프라를 결합해 AI 서비스 환경을 구축하고 데이터 주권과 기술 자립을 강화한다는 목표다. 국가 AI 모델 경쟁력 확보를 위한 프로젝트도 추진 중이다. 과학기술정보통신부는 '독자 AI 파운데이션 모델 프로젝트'를 통해 글로벌 수준의 초거대 AI 모델을 확보하는 사업을 진행하고 있다. LG AI연구원, SK텔레콤, 업스테이지, 모티프테크놀로지스 등 국내 기업과 연구기관이 컨소시엄을 이뤄 글로벌 선도 모델에 필적할 독자 아키텍처 기반 AI 모델을 개발하고 있으며 단계 평가를 거쳐 최종 정예팀 2곳을 선발할 예정이다. 글로벌 시장에선 이미 빅테크를 중심으로 AI 패권 경쟁이 치열하게 전개되고 있다. 미국은 오픈AI·구글·메타·앤트로픽 등이 초거대 모델과 AI 인프라 생태계를 주도하고 있으며 중국 역시 바이두·알리바바·딥시크 등 기업을 중심으로 AI 모델 개발과 산업 적용을 빠르게 확대 중이다. 현재 AI 경쟁은 텍스트 중심의 거대언어모델(LLM) 기술 개발을 넘어 산업 전반으로 확산되고 있다. 생성형 AI 이후 차세대 경쟁 무대로 주목받는 분야는 '피지컬 AI'다. 피지컬 AI는 로봇과 자율주행, 산업 자동화 등 현실 세계에서 AI가 직접 행동하는 기술이다. 글로벌 기술 패권 경쟁 역시 텍스트와 이미지 생성 중심에서 물리 환경을 인식하고 행동하는 AI로 빠르게 이동하고 있다. 미국과 중국은 이미 피지컬 AI를 국가 전략 차원에서 추진 중이다. 미국은 빅테크 중심의 소프트웨어(SW)와 플랫폼 결합 전략을 기반으로 로봇 행동 모델과 시뮬레이션 기술을 발전시키고 있으며 중국은 제조 기반을 활용해 로봇과 자율 시스템을 산업 현장에 빠르게 적용하는 전략을 펼치고 있다. 한국 역시 이 분야에서 새로운 기회를 모색하고 있다. 정부는 대한민국 AI 행동계획에서 피지컬 AI와 휴머노이드 로봇을 차세대 전략 기술로 지정했다. 월드모델과 로봇 파운데이션 모델 등 핵심 기술 확보를 추진할 방침이다. 한국이 강점을 지닌 제조와 모빌리티 산업 기반을 활용해 산업 현장에서 축적되는 데이터를 기반으로 피지컬 AI 경쟁력을 확보한다는 전략이다. AI 경쟁의 또 다른 핵심은 인재다. 정부는 AI 인재 확보를 위해 교육과 연구, 산업 전반에서 다양한 정책을 추진하고 있다. 대표적으로 올해 AI 대학원 지원사업과 AI 중심대학 사업을 통해 석·박사급 AI 연구 인력 양성에 나섰다. 산업 현장의 AI 활용 역량을 높이기 위한 K-디지털 트레이닝(KDT) 등 인력 양성 프로그램도 확대한다. 또 초·중·고 교육 과정에서도 AI 교육을 강화하고 대학과 연구기관을 중심으로 글로벌 수준의 연구 인재를 확보하는 정책을 추진한다. 해외 인재 유치를 위한 제도 개선과 연구 환경 지원도 병행해 AI 인재 경쟁력을 높이겠다는 계획이다. 최근 국내 AI 산업 생태계는 빠르게 성장하고 있다. 과학기술정보통신부와 소프트웨어정책연구소가 실시하는 '인공지능산업 실태조사'에 따르면 국내 AI 관련 기업 수는 2020년 933개에서 2024년 2517개로 약 2.7배 증가했다. 같은 기간 AI 산업 종사자 수도 20만여 명에서 50만 명 이상으로 늘어났으며 AI 관련 매출 역시 크게 확대된 것으로 나타났다. 다만 글로벌 경쟁 속에서 한국이 넘어야 할 과제도 적지 않다. 미국과 중국은 초거대 AI 모델과 컴퓨팅 인프라에 막대한 투자를 이어가며 AI 패권 경쟁을 주도하고 있다. 이같은 상황에서 한국이 기술 격차를 좁히기 위해선 지속적인 투자와 정책 실행력이 필요하다는 지적이 나온다. 업계에선 AI 경쟁의 승부처가 인프라와 인재 확보에 달려 있다고 강조한다. 알파고 대국이 AI 가능성을 보여준 사건이었다면, 앞으로의 10년은 국가 경쟁력으로서 AI 성패가 판가름 나는 시기가 될 전망이다. 컴퓨팅 인프라와 반도체, 데이터, 인재를 둘러싼 경쟁이 본격화되는 가운데 한국이 AI 3대 강국으로 도약할 수 있을지 주목된다. 임문영 국가AI전략위원회 부위원장은 지난달 25일 위원회 제2차 전체회의에서 "정부와 민간이 똘똘 뭉쳐 하나의 목표를 만들어간다면 분명한 성과를 보여줄 수 있을 것"이라며 "이제는 계획을 넘어 행동으로 옮겨야 할 시점"이라고 강조했다. 배경훈 부총리는 "정부 출범 이후 AI전략위를 중심으로 민관이 함께 총력을 다한 결과 우리나라도 AI 3강의 토대를 만들었다"며 "이젠 국민이 체감할 수 있는 과제를 구체화하고 속도감 있게 이행해야하는 시기인 만큼 모든 부처가 본격적인 성과 창출을 위해 협력할 것"이라고 밝혔다.

2026.03.09 17:20한정호 기자

엔비디아가 찜한 투게더 AI, 기업가치 1년 새 2.5배 껑충…10억 달러 투자 추진

인공지능(AI) 클라우드 스타트업 투게더 AI(Together AI)가 약 75억 달러(약 10조원) 기업가치를 기준으로 신규 투자 유치를 추진하고 있는 것으로 전해졌다. 6일 디인포메이션에 따르면 투게더 AI는 약 10억 달러 규모의 신규 투자 라운드를 논의 중이다. 투자 유치가 성사될 경우 기업가치는 약 75억 달러 수준으로 평가될 전망이다. 투게더 AI는 엔비디아 그래픽처리장치(GPU) 기반 AI 클라우드 인프라를 제공하는 스타트업으로, 기업과 개발자들이 대규모 AI 모델을 학습하거나 추론 작업을 수행할 수 있는 컴퓨팅 환경을 제공한다. 특히 메타의 라마 등 오픈소스 대형언어모델(LLM)을 운영할 수 있는 플랫폼을 지원하는 것이 특징이다. AI 산업이 급성장하면서 대규모 GPU 컴퓨팅 인프라에 대한 수요도 빠르게 늘어나고 있다. 이에 따라 투게더 AI를 비롯해 코어위브, 람다 등 AI 전용 클라우드 인프라 기업들이 빠르게 성장하는 추세다. 투게더 AI의 기업가치는 최근 몇 년 사이 급격히 상승했다. 이 회사는 2024년 약 12억 달러 수준에서 평가됐으나 이후 투자 유치 과정에서 30억 달러 이상으로 올라섰다. 이번 투자 논의에서는 75억 달러까지 확대될 가능성이 제기되고 있다. 업계에선 투게더 AI를 단순한 GPU 인프라 제공 기업이 아니라 AI 추론 소프트웨어와 클라우드 인프라를 결합한 사업 모델을 구축한 기업으로 평가하고 있다. 특히 엔비디아가 투자한 AI 인프라 스타트업이라는 점도 시장에서 긍정적인 요인으로 작용하고 있다는 분석이다. 일각에선 이번 투자 라운드가 기업가치를 크게 끌어올리는 후기 단계 투자라는 점에서 향후 기업공개(IPO)로 이어질 가능성에도 주목하고 있다. 또 이번 투자 유치가 성사될 경우 투게더 AI가 향후 상장을 준비하는 과정에서 중요한 전환점이 될 수 있다는 관측도 나온다. AI 인프라 시장이 빠르게 확대되면서 투게더 AI 같은 관련 기업들의 가치도 상승하는 분위기다. 특히 생성형 AI 확산으로 고성능 GPU 수요가 급증하면서 AI 인프라 기업들의 역할도 더욱 커질 것으로 예상된다. 업계 관계자는 "AI 모델 개발 경쟁이 치열해지면서 이를 뒷받침하는 GPU 기반 클라우드 인프라에 대한 수요도 급증하고 있다"며 "AI 인프라 기업들이 향후 AI 생태계에서 핵심 역할을 맡게 될 것"이라고 전망했다.

2026.03.06 15:43장유미 기자

유럽·중동·아프리카까지…래블업, 글로벌 AI 인프라 입지 '확대'

래블업이 이달 초 싱가포르와 스페인 바르셀로나에서 해외 기업과의 협업 소식을 연이어 전하며 전 세계 인공지능(AI) 인프라 시장 영향력을 넓히고 있다. 작년 미국 산호세 법인 설립 이후 아시아·북미에 이어 유럽·중동·아프리카(EMEA)에 이르는 '백엔드닷에이아이(Backend.AI)' 유통망을 완성한 모습이다. 6일 정보기술(IT) 업계에 따르면 래블업은 지난 2일(현지시간) 싱가포르에서 열린 '한·싱 인공지능(AI) 커넥트 서밋'과 스페인 바르셀로나에서 열린 'MWC26'에서 각각 전략적 업무협약(MOU) 및 파트너십을 맺었다. 래블업은 이재명 대통령의 싱가포르 국빈 방문 중 열린 '한·싱 AI 커넥트 서밋'에 정부 측 초청으로 참석했다. 이날 행사를 계기로 한·싱 AI얼라이언스' 구축과 함께 양국 기업·기관 간 AI 분야 공동연구와 산업협력을 위한 총 7건의 MOU도 체결됐다. 한국 참여사 중 AI 인프라 기업으로 분류되는 곳은 래블업이 유일하다. 우선 래블업은 싱가포르의 IT 솔루션 전문 기업인 PTC 시스템과 AI 및 고성능 컴퓨팅(HPC) 인프라 분야의 전략적 협력을 약속했다. 양사는 ▲그래픽처리장치(GPU) 오케스트레이션 및 플랫폼 솔루션 배포 ▲공공 및 기업용 AI 프로젝트 기술검증(PoC) 및 전면 상용화 ▲AI 인재 개발 및 생태계 구축 등에서 협력할 계획이다. 래블업은 싱가포르의 노벨 엔지니어링(Knovel Engineering)과도 손을 잡았다. 노벨 엔지니어링은 응용 AI 시스템 설계와 프로덕션 배포 분야에서 검증된 역량을 보유한 기업이다. 래블업은 Backend.AI가 가진 자원 관리 기술과 노벨 엔지니어링의 시스템 설계 노하우를 결합해 양국 기업들의 대규모 AI 도입을 지원할 예정이다. AI 모델이 실험 단계에서 생산 단계로 전환될 때 발생하는 운영상의 마찰을 줄이고 안정성을 강화하는 것이 양사 협력 골자다. 신정규 래블업 대표는 싱가포르 기업 협력 성과에 대해 "아시아에서 가장 역동적인 두 혁신 생태계를 연결하는 차세대 AI 인프라를 발전시키게 돼 기쁘다"고 말했다. 유럽 시장 공략도 본격화된다. 래블업은 같은 날 MWC26 현장에서 영국 HPC 전문 기업 보스턴 리미티드(Boston Limited)와 EMEA 지역 유통 및 판매를 위한 전략적 파트너십을 체결했다. 보스턴 리미티드는 30년 이상의 업력을 바탕으로 유럽 전역의 연구기관과 공공 부문에 맞춤형 고성능 컴퓨팅 솔루션을 공급해 온 글로벌 기업이다. 이번 협약에 따라 보스턴 리미티드는 EMEA 지역에서 Backend.AI 클라우드 서비스(SaaS)와 온프레미스 소프트웨어 라이선스를 판매하며 현지 고객을 위한 설치·구성·자문 등 전문 서비스를 제공한다. 래블업이 개발한 Backend.AI는 엔비디아(NVIDIA), AMD, 인텔(Intel) 및 국산 신경망처리장치(NPU) 등 서로 다른 종류의 AI 반도체를 단일 플랫폼에서 통합 관리하는 소프트웨어 정의 AI 인프라 플랫폼이다. 컨테이너 수준의 GPU 분할 가상화 기술과 자체 개발한 소코반(Sokovan) 오케스트레이터를 통해 엔터프라이즈 환경에서의 AI 도입 비용과 운영 복잡성을 낮췄다. 지금까지 전 세계 110여 개 지역에서 1만 6000대 이상의 GPU를 관리하고 있다. 신 대표는 "그동안 우리는 기업용 AI의 핵심 과제인 대규모 GPU 자원을 안전하고 효율적으로 조율하는 기술력에 집중해 왔다"며 "아시아를 넘어 유럽·중동·아프리카 시장에서도 엣지부터 데이터센터, 하이브리드 클라우드까지 아우르는 인프라를 제공해 전 세계 기업들이 'AI 준비' 단계를 넘어 '실제 배포 및 성과 창출'로 나아가는 간극을 메울 글로벌 파트너가 되겠다"고 강조했다.

2026.03.06 15:03이나연 기자

"美 정부, AI 반도체 수출 통제 강화 검토"

미국 정부가 인공지능(AI) 반도체 수출 통제 강화를 검토중이다. 대규모 데이터센터 구축에 필수적인 GPU 공급을 통제헤 글로벌 AI 인프라 구축을 통제하겠다는 의도가 있다. 5일(현지시간) 로이터통신과 액시오스 등 현지 언론에 따르면, 미국 정부는 미국 기업이 설계한 고성능 AI 반도체 해외 판매를 강화하는 새로운 규제 체계를 검토하고 있다. 보도에 따르면 미국 정부는 해외 기업이나 국가가 AI 반도체를 대량 구매할 경우 정부 허가를 요구할 예정이다. 특히 일정 규모 이상 GPU를 구매할 경우 미국 정부와 협력 등 추가 조건을 요구하는 방안도 거론된다. 새로운 규제 대상에는 AI 처리를 위한 GPU 시장을 양분하고 있는 엔비디아와 AMD가 포함될 가능성이 크다. 미국 정부는 현재 중국 등 일부 국가에만 AI 반도체 수출을 제한했다. 그러나 새 규제는 이런 통제를 전 세계로 확대하려는 의도를 담고 있다. AI 데이터센터를 구축하려는 기업이나 국가가 미국 정부의 관계에 따라 GPU 확보에 실패할 가능성도 생긴다. 액시오스는 "새 규제는 현제 미국 정부 내부 검토 단계이며 구체적인 시행 시기나 최종 규정은 확정되지 않았다"고 설명했다.

2026.03.06 09:48권봉석 기자

중동 전쟁에 LNG 운임 상승…AI 데이터센터 업계 '전력비 변수' 주시

중동 전쟁 여파로 액화천연가스(LNG) 운임이 상승하면서 전력비 부담 가능성이 제기되는 가운데, 전력 소비가 큰 인공지능(AI) 데이터센터 업계가 상황을 예의주시하고 있다. 당장 운영 차질은 없지만 전력 가격 변동이 장기화될 경우 데이터센터 운영 비용에 영향을 줄 수 있다는 관측이 나온다. 5일 업계에 따르면 최근 중동 정세 불안으로 LNG 운임이 상승하면서 전력 시장에도 변수로 작용할 가능성이 제기되고 있다. AI 데이터센터는 일반 서버보다 훨씬 많은 전력을 소비하는 구조로 전력 가격 변동에 민감하기 때문이다. 실제 세계 최대 LNG 거점 중 하나인 카타르 라스라판 가동 중단 여파로 LNG선 단기 운임은 약 20% 상승한 것으로 알려졌다. 가스 도입 가격이 오르면 국내 전력 도매가격(SMP) 상승으로 이어질 수 있어 전기요금 인상 압박 요인이 될 수 있다는 분석이다. 여기에 중동 전쟁으로 주요 에너지 운송로인 호르무즈 해협을 둘러싼 긴장까지 높아지면서 LNG 운송 비용 변동성도 확대되는 분위기다. 업계에선 이러한 에너지 가격 상승 압력이 장기화될 경우 전력 소비가 많은 AI 데이터센터 운영 비용에도 영향을 줄 수 있다고 보고 있다. AI 데이터센터는 대규모 그래픽처리장치(GPU)와 고성능 서버를 운영해야 하는 만큼 일반 데이터센터보다 전력 소비가 많은 구조다. 다만 현재까지 국내 데이터센터 운영에는 직접적인 영향이 나타나지 않은 상황이다. 주요 통신사와 클라우드 기업들은 서비스 가용성에는 문제가 없으며 상황을 주시하고 있다는 입장이다. 최근 중동 지역에선 클라우드 인프라가 실제 군사 충돌의 영향을 받을 수 있다는 사례도 나오고 있다. 아마존웹서비스(AWS)의 중동 데이터센터가 드론 공격을 받아 일부 서비스 장애가 발생하면서 지정학적 리스크가 디지털 인프라로 확산될 수 있다는 우려가 제기되고 있다. 이에 국내 클라우드 기업들도 중동 사업 리스크 점검에 나선 모습이다. 중동은 최근 AI 인프라와 초대형 데이터센터 투자가 집중되는 지역으로, 지정학적 긴장이 장기화될 경우 일부 IT 인프라 프로젝트 일정에도 변수로 작용할 수 있다는 분석이 나온다. 대표적으로 중동 시장 공략에 나서고 있는 네이버클라우드는 현재 중동 프로젝트 운영에 차질이 없다는 입장이다. 네이버는 사우디아라비아를 중심으로 디지털 트윈과 AI·클라우드 사업을 추진하며 중동을 글로벌 전략 거점 중 하나로 육성 중이다. 회사 측은 중동 지역에 자체 데이터센터 시설을 직접 운영하고 있지는 않으며 현지에는 사무공간 중심 거점만 두고 있어 전쟁의 직접적 영향은 받지 않고 있다. 사우디 아람코 디지털과 협력 중인 메가존클라우드 역시 사업 운영에는 큰 영향이 없다는 입장이다. 앞서 메가존클라우드는 현지 클라우드 및 디지털 전환 사업을 추진하는 등 중동 시장 진출을 확대해 왔다. 현재까지 국내 클라우드 기업들의 데이터센터 운영 및 해외 거점에 대한 직접적인 영향은 확인되지 않고 있다. 다만 에너지 가격 상승이 장기화될 경우 데이터센터 산업 전반의 비용 구조에 영향을 줄 가능성은 배제할 수 없다는 시각도 나온다. 공공과 민간 모두에서 고성능 GPU 중심의 AI 인프라 수요가 빠르게 늘면서 전력 비용이 데이터센터 운영의 핵심 변수로 떠오르고 있어서다. 데이터센터 업계 관계자는 "현재까지 국내 AI 데이터센터 운영에 직접적인 영향은 없지만 LNG 가격 상승이 장기화될 경우 전기요금 상승으로 이어질 가능성이 있는 만큼 상황을 예의주시하고 있다"고 말했다.

2026.03.05 17:41한정호 기자

LG CNS, 그룹 기술 결집한 소형 데이터센터 'AI 박스' 공개…글로벌 공략

LG CNS가 LG그룹 계열사와 기술력을 결집한 컨테이너형 인공지능(AI) 데이터센터 'AI 박스'를 선보이며 글로벌 AI 인프라 시장 공략에 나선다. LG CNS는 컨테이너 하나에 그래픽처리장치(GPU) 576장을 수용할 수 있는 AI 박스를 출시했다고 5일 밝혔다. AI 박스는 별도의 건물을 신축하지 않고 컨테이너형 모듈을 연결하는 방식으로 구축되는 소형 AI 데이터센터다. 전통적인 데이터센터 구축에 약 2년이 걸리는 것과 달리 약 6개월 만에 구축이 가능해 AI 인프라 수요에 빠르게 대응할 수 있다는 점이 특징이다. 모듈형 구조를 적용해 확장성도 확보했다. 단일 컨테이너 단위로 운영할 수 있을 뿐 아니라 수십 개의 컨테이너를 단계적으로 결합해 하이퍼스케일급 AI 데이터센터로 확장할 수 있다. 고객은 초기 투자 부담을 줄이면서도 필요에 따라 인프라 규모를 유연하게 확대할 수 있다는 설명이다. AI 박스는 LG CNS의 데이터센터 설계·구축·운영(DBO) 역량과 LG 계열사의 기술력을 결합한 '원(One) LG' 기반 AI 데이터센터 모델이다. LG CNS는 약 40년간 축적한 데이터센터 설계·구축·운영 경험을 바탕으로 AI 플랫폼과 전력·냉각 인프라, IT 장비를 통합 설계했다. 특히 LG전자의 냉각수 분배 장치(CDU)와 항온항습기, 냉동기 등 냉각 설비와 LG에너지솔루션의 UPS용 배터리를 패키지 형태로 적용해 고전력·고밀도 AI 환경에 최적화된 전력·냉각 인프라를 구현했다. AI 박스는 전력 인프라를 담당하는 무정전전원장치(UPS)·변압기·수배전반 등 전기실과 IT 장비 운영 공간인 전산실로 구성된다. 외부에는 발전기와 배터리실, 냉동기를 갖춰 안정적인 전력 공급과 효율적인 열 관리를 지원한다. AI 박스 1개당 서버 전력은 1.2메가와트(MW) 규모로 최대 576장의 GPU를 수용할 수 있다. AI 데이터센터 수요가 빠르게 증가하는 상황에서 AI 박스는 구축 기간과 인프라 확보 문제를 해결할 수 있는 대안으로 주목받고 있다. 기존 대형 데이터센터는 부지 확보와 인허가, 전력·냉각 설계 등에 시간이 오래 걸려 급증하는 AI 인프라 수요에 신속히 대응하기 어려웠다는 한계가 있었다. LG CNS는 첫 번째 AI 박스를 부산 글로벌 클라우드 데이터센터 부지에 구축할 계획이다. 향후 약 2만 7179㎡(약 8221평) 부지에 약 50개의 AI 박스를 집적한 대규모 'AI 박스 캠퍼스'를 조성해 국내 AI 인프라 수요에 대응할 방침이다. 시장조사업체 포춘 비즈니스 인사이트에 따르면 글로벌 AI 데이터센터 시장 규모는 2030년까지 약 700조원 규모로 성장할 전망이다. LG CNS는 AI 박스를 통해 설계·구축·운영을 아우르는 데이터센터 DBO 역량을 강화하고 AI 인프라 패키지 사업자로 도약한다는 목표다. 조헌혁 LG CNS 데이터센터사업담당 상무는 "AI 서버부터 전력·냉각·운영까지 통합 제공하는 AI 박스는 데이터센터 사업의 새로운 패러다임을 이끌어 갈 것"이라며 "국내 시장의 성공 사례를 바탕으로 동남아시아, 북미 등 글로벌 시장으로 사업을 확대해 나가겠다"고 말했다.

2026.03.05 10:00한정호 기자

에이수스코리아, AW2026에 엣지 AI 솔루션 출품

에이수스코리아 인프라 솔루션 사업 그룹은 국내 공식 공급사인 피앤티링크와 '2026 스마트공장·자동화산업전(AW2026)'에 엣지 AI 솔루션과 미니 PC를 출품한다고 밝혔다. AW2026은 AI·휴머노이드 기반 자율제조(AX) 산업을 주제로 4일부터 6일까지 서울 삼성동 코엑스에서 진행되며 24개국 500개 기업이 총 2300부스 규모로 참여한다. 에이수스코리아는 행사 기간 중 엔비디아 젯슨 T5000 기반 초소형 엣지 AI 컴퓨터 'PE3000N', 2U 폼팩터에 인텔 코어 울트라 200S 프로세서와 최대 600W GPU를 통합한 랙 단위 AI GPU 시스템 'RUC-1000G'를 전시한다. PE3000N은 컴퓨팅 성능을 전 세대 대비 최대 7.5배, 전력 효율성을 3.5배 높인 엔비디아 젯슨 T5000으로 2070 FP4 TFLOPS 연산 성능을 구현했다. 생성형 VLM/LLM 모델, 실시간 지능형 비디오 분석, 완전 자율 제어 애플리케이션을 엣지에서 실행한다. RUC-1000G는 PCI 익스프레스 5.0 인터페이스로 연결된 GPU로 데이터 전송/처리 속도를 높이는 한편 메인 시스템과 GPU 섀시를 분리하여 관리하는 냉각 시스템을 적용했다. 인텔 코어 울트라 X9 프로세서를 통합한 미니 PC인 NUC 16 프로, 4K AI 이미지 처리가 가능한 MDS M700 등 미니 PC를 포함해 산업용 마더보드, NUC 미니 PC 시리즈 등 산업 환경에 최적화된 하드웨어도 함께 전시된다. 에이수스코리아는 기간 중 참관객 대상으로 각종 행사와 경품을 제공 예정이다.

2026.03.04 12:10권봉석 기자

AMD, 통신 산업 AI 가속 위한 '오픈텔코 AI' 참가

AMD가 2일(현지시간) 스페인 바르셀로나에서 열리는 MWC26 기간에 발맞춰 통신사들의 AI 전환 가속을 위한 '오픈텔코 AI' 이니셔티브에 참여한다고 밝혔다. 오픈텔코 AI는 세계이동통신사업자연합회(GSMA)가 주도하는 글로벌 협력 플랫폼이며 AMD를 포함해 미국 AT&T 등 통신사, AI 클라우드 업체 텐서웨이브 등이 참여한다. GSMA는 통신 특화 AI 연구, 데이터셋, 벤치마크, 도구를 공유하는 포털을 운영하며 이를 통해 AI 모델이 통신 네트워크의 실제 과제를 해결할 수 있도록 협업 기반을 제시한다. 또 거대언어모델(LLM)이 통신사 특화 쿼리 처리 정확도, 통신 분야 지식 처리 능력 등을 평가하는 오픈텔코 LLM 벤치마크를 통해 망 운영자와 개발자들이 모델 성능을 비교·검증할 수 있게 한다. AMD는 인스팅트 GPU와 개방형 AI 프레임워크인 ROCm을 제공해 오픈텔코 AI 모델을 훈련하고 이를 기반으로 통신 네트워크에 특화된 AI 솔루션을 구현하도록 돕는다. AMD는 AI 모델을 상용 서비스로 전환하기 위한 AMD 엔터프라이즈 AI 스위트도 제공한다. 쿠버네티스 기반의 컨테이너 환경에서 모델 서빙, 거버넌스, DevOps/MLOps 통합, 보안과 워크플로우를 통합 지원한다. AMD는 최근 vRAN 등 엣지 환경에 최적화된 에픽 8005 프로세서도 공개했다. 이 프로세서는 소켓당 최대 84개 코어에 달하는 높은 연산 밀도와 전력 효율로 통신 핵심 워크로드를 지원하며, 넓은 온도 범위에서 안정적으로 작동한다. GSMA 보고서에 따르면 생성 AI가 실제 네트워크에 적용된 사례는 16%에 불과했다. AMD는 "통신사가 단순한 AI 실험 단계에서 벗어나 실서비스 운영 환경에 AI를 배포하기 위해서는 단일 모델이나 하드웨어가 아니라, 개방형 생태계, 검증된 소프트웨어 스택, 현장 배치를 고려한 컴퓨팅 인프라 전반이 균형을 이루는 전략이 필요하다"고 밝혔다.

2026.03.02 16:15권봉석 기자

글로벌 AI 투자 몰리는 '네오클라우드'…한국 스타트업도 도전장

생성형 인공지능(AI) 확산과 함께 그래픽처리장치(GPU)를 중심으로 한 '네오클라우드'가 글로벌 인프라 시장의 새로운 축으로 부상하고 있다. 미국과 유럽에서 수십조원대 투자가 이어지는 가운데, 국내 스타트업들도 AI 전용 인프라 시장을 정조준하며 본격적인 경쟁에 뛰어드는 모습이다. 1일 업계에 따르면 네오클라우드는 기존 범용 클라우드와 달리 AI 학습·추론에 최적화된 고성능 GPU 자원을 서비스형(GPUaaS)으로 제공하는 사업 모델을 뜻한다. AI 모델 크기와 연산량이 급증하면서 하이퍼스케일러만으로는 수요를 감당하기 어려워지자 GPU 중심 인프라를 특화해 제공하는 사업자들이 빠르게 성장 중이다. 글로벌 시장에선 코어위브·람다랩스·네비우스 등이 대표적이다. 이들 기업은 엔비디아 GPU를 대규모로 확보해 AI 기업에 맞춤형 연산 자원을 제공하며 몸집을 키우고 있다. 특히 북미 기준 엔비디아 H100 GPU 임대 비용이 하이퍼스케일러 대비 3분의 1 수준에 불과하다는 조사 결과도 나오며 가격 경쟁력도 부각되고 있다. 금융권 자금도 네오클라우드로 몰리고 있다. 미국 주요 금융사는 네오클라우드 기업이 보유한 GPU를 담보로 대규모 대출을 실행하며 인프라 확장을 지원하고 있다. 시장조사기관 ABI리서치는 GPUaaS 기반 네오클라우드 시장이 2030년 약 90조원 규모로 성장할 것으로 내다봤다 . 이같은 흐름 속에 국내 스타트업들도 AI 전용 인프라 사업자로 정체성을 재정립하며 시장 공략에 속도를 내고 있다. 대표 사례가 베슬AI다. 이 회사는 자사 플랫폼 '베슬 클라우드'를 기반으로 AI 워크로드 운영에 특화된 네오클라우드 사업자로 입지를 강화하고 있다 . 베슬AI는 최근 GPU 클라우드 서비스를 공식 출시하고 연내 H200·B200·B300 등 최신 GPU 1만 장 규모 인프라를 구축하겠다는 계획을 밝혔다. 이미 미국·이스라엘·핀란드 등 6개 지역 데이터센터와 계약을 체결했으며 100여 개 기업과 연구기관이 서비스를 이용 중이다. 글로벌 대학과 연구기관 도입도 확대되며 지난해 매출은 전년 대비 3.4배 성장했다. 에너지 효율 측면에서도 차별화를 시도하고 있다. 베슬AI는 미국 데이터센터 기업과 협력해 전력망 상황에 따라 AI 워크로드를 자동 조정하는 그리드 인지형 머신러닝 운영관리(MLOps) 솔루션을 공동 개발 중이다. GPU 확보 경쟁을 넘어 운영 효율까지 아우르는 네오클라우드 전략이다. 몬드리안에이아이 역시 네오클라우드를 차세대 성장 축으로 내세웠다. 이 회사는 지난해부터 네오클라우드 사업 출사표를 던지며 최근 엔비디아 B300 GPU 클러스터 구축에 나섰다. 네오클라우드를 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스로 정의하고 매니지드 서비스 역량까지 결합하겠다는 전략이다 . 특히 델 테크놀로지스 인프라와 자체 ML옵스 플랫폼 '예니퍼', AI 실행환경 패키지 '몬스택'을 결합한 어플라이언스 '몬박스'를 교육·연구 현장에서 빠르게 확산하고 있다. 서울과학기술대학교와 성균관대학교 등에서 도입 사례가 이어지며 복잡한 설정 없이 즉시 AI 연구가 가능한 환경을 제공하고 있다는 평가다. 몬드리안에이아이는 최근 150억원 규모 시리즈B 투자 유치에 나서며 GPU 인프라 확충과 글로벌 진출을 병행하겠다는 계획도 밝혔다. 단순 GPU 임대를 넘어 인프라·플랫폼·서비스를 아우르는 네오클라우드 그룹으로 도약하겠다는 구상이다 . 업계에선 네오클라우드가 하이퍼스케일러의 대체재라기보다 AI 특화 워크로드를 분리·보완하는 공존형 인프라로 자리 잡을 가능성에 무게를 둔다. 다만 GPU 확보 비용, 전력비 상승, 엔비디아 의존도 등은 장기 리스크로 꼽힌다. 그럼에도 AI 모델 고도화와 산업 전반의 AI 전환(AX)이 가속화되는 한 GPU 중심 인프라 수요는 지속 확대될 것이란 전망이 우세하다. 글로벌 자본이 몰리는 네오클라우드 시장에서 한국 스타트업들이 기술·운영 역량을 바탕으로 의미 있는 경쟁력을 확보할 수 있을지 주목된다. 박현규 몬드리안에이아이 부사장은 "네오클라우드는 단순히 GPU를 임대하는 사업이 아니라 AI 연구와 서비스가 바로 작동할 수 있는 환경을 패키지로 제공하는 모델"이라며 "국내 기업과 연구기관이 인프라 부담 없이 AI 혁신에 집중할 수 있도록 네오클라우드 역량을 지속적으로 고도화하겠다"고 밝혔다.

2026.03.01 08:47한정호 기자

정부 GPU 지원에 업계 '호응'…배경훈 "더 많은 기업에 지원 확대"

정부가 국가 인공지능(AI) 경쟁력 강화를 위해 추진 중인 '첨단 그래픽처리장치(GPU) 활용 지원 사업'이 현장에서 가시적인 반응을 얻고 있다. 정식 공모에 앞선 사전 베타테스트만으로도 스타트업이 엔비디아 최신 블랙웰(B200) GPU를 활용해 대규모 모델 학습을 경험하는 등 고성능 연산 자원 접근성 확대가 본격화되는 모습이다. 배경훈 부총리 겸 과학기술정보통신부 장관은 지난 25일 페이스북을 통해 "정부 GPU 지원 서비스에 선정돼 블랙웰 32장을 쓰게 됐습니다. 비록 14일이지만 감개무량합니다. 저희 같은 스타트업에 큰 도움이 됩니다"라는 한 스타트업 대표의 메시지를 전하며, 더 많은 기업이 고성능 GPU를 활용할 수 있도록 지원을 확대하겠다는 의지를 밝혔다. 이는 첨단 GPU 활용 지원 사업의 사전 베타테스트로, 현재 정식 공모를 진행 중이며 곧 결과 발표를 앞두고 있다. 배 부총리는 "GPU가 있는 것과 없는 것은 한번이라도 더 좋은 아이디어를 실험해 볼 수 있느냐 없느냐의 차이"라며 현장 체감도를 강조했다. 과기정통부와 정보통신산업진흥원(NIPA)이 주관하는 사업으로, 정부가 엔비디아 H100과 B200 등 최신 고성능 GPU를 대규모로 확보해 국내 스타트업과 연구기관에 지원하는 것이 핵심이다. 정책적으로는 'AI 고속도로' 구축의 핵심 사업으로 평가된다. 이번 사전 베타테스트에서는 블랙웰 GPU를 단기간 집중 지원하는 방식이 적용됐다. 스타트업이 자체적으로 확보하기 어려운 고가·고성능 자원을 단기간이라도 병렬 클러스터 환경에서 운용해보며 대규모언어모델(LLM) 학습과 스케일링을 직접 검증할 수 있도록 했다. 이같은 정부 지원에 대한 현장 수요도 폭발적이다. 업계에 따르면 해당 사업에 공공·민간을 합쳐 4만 장이 넘는 GPU 사용 신청이 접수돼 올해 공급 예정 물량의 4배를 웃도는 것으로 알려졌다. 정부는 올해 공공 6000장, 민간·산학연 4000장 등 총 1만 장의 GPU 서비스를 제공할 계획이다. GPU는 지난해 정부가 추경 예산을 통해 확보한 물량을 기반으로 하며 네이버·카카오·NHN 등 클라우드 사업자의 국내 데이터센터 인프라를 활용해 서비스형 방식으로 제공된다. 기업과 기관이 별도 장비 구매 없이 고성능 연산 환경을 활용할 수 있도록 지원한다. 정부는 추가 인프라 확충에도 속도를 내고 있다. 올해 2조 1000억원을 투입해 GPU 1만 5000장을 추가 확보할 계획으로, 향후 국가 AI 경쟁력 강화를 위한 중장기 기반을 갖춘다는 목표다. '첨단 AI반도체 서버확충 및 통합운영환경 구축'이라는 공고로 다음 달 초 사업이 공개될 예정이다. 배 부총리는 "AI는 말로 강해지지 않고 실제로 학습이 돌아갈 때 만들어진다"며 "본 공모 지원도 차질 없이 추진하고 더 많은 팀이 도전할 수 있도록 정부도 계속 함께 뛰겠다"고 강조했다.

2026.02.27 17:42한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

업황은 냉랭 현장은 북적…7.7만명 몰린 인터배터리 이모저모

헤드폰·뷰티기기까지…화이트데이 '핑크 디바이스' 주목

펄어비스 '붉은사막' 출시 D-7...글로벌 시장 정조준

[단독] 오픈AI CFO, 비공개 방한…SK네트웍스·업스테이지 수장 한 자리서 만난 이유는

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.