• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI GPU'통합검색 결과 입니다. (296건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'국가AI컴퓨팅센터' 구축 재도전…정부, GPU 5만장 확보 나선다

국가 차원의 인공지능(AI) 전략 컨트롤타워인 국가AI전략위원회가 공식 출범하면서 정부가 'AI 고속도로' 구축을 위한 '국가AI컴퓨팅센터' 추진 방안을 발표했다. 앞선 두 차례 공모가 유찰되며 표류했던 사업이 민간 참여 확대와 조건 완화를 통해 재추진되면서 업계 관심이 다시 집중될 전망이다. 과학기술정보통신부는 8일 서울스퀘어에서 열린 국가AI전략위원회 출범식 및 제1차 전체회의에서 '국가 AI컴퓨팅센터 추진 방안'을 공개하며 국가AI컴퓨팅센터 구축을 위한 사업 공모에 착수한다고 발표했다. 정부는 이번 사업을 통해 2028년까지 첨단 그래픽처리장치(GPU) 1만5천 장 이상을 확보하고 민관 협력으로 2030년까지 총 5만 장 이상을 마련할 계획이다. 이 AI컴퓨팅 인프라를 기반으로 AI 모델 개발과 서비스 제공을 뒷받침한다는 목표다. 앞서 올 상반기 진행된 1·2차 공모는 ▲민관합작 특수목적법인(SPC) 설립 시 공공지분 51% 고정 ▲센터 청산 시 기업의 정부 지분 매수청구권(바이백) ▲2030년까지 국산 AI 반도체 50% 이상 도입 의무 등 민간에 불리한 조건이 걸림돌이 되며 모두 유찰됐다. 이에 정부는 이번 추진 방안에서 민간 지분을 70% 이상으로 확대하고 공공지분은 30% 미만으로 낮춰 경영 자율성을 보장했다. 또 매수청구권은 삭제하고 국산 AI 반도체 도입 의무도 없애 민간이 자율적으로 지원 방안을 제시하도록 했다. 대신 국책은행은 원금 우선 회수가 가능한 우선주 형태로 참여해 초기 투자 위험을 분담하기로 했다. 정부는 이번 방안에 정책적 지원책도 대거 담았다. 우선 정부 재정사업 추진 시 GPU 자원이 필요한 경우 국가AI컴퓨팅 센터 활용을 우선 검토하도록 해 초기 수요를 확보할 방침이다. 또 통합투자세액공제 비율을 기존 1~10%에서 최대 25%까지 확대하고 전력계통영향평가를 신속 처리해 기업의 인프라 구축 부담을 줄이기로 했다. 아울러 친환경·무탄소 에너지 사용 시 평가에서 가점을 부여하는 등 지속가능성도 강조했다. 센터 구축 방식과 입지는 민간이 제안하도록 하되 지역 균형발전을 위해 비수도권으로 제한된다. 서비스와 요금도 민간 주도로 운영하지만, 대학·연구소·스타트업 등 산학연 지원 방안을 반드시 포함해야 하며 2027년 이전 조기 개시 시 가점을 부여한다. 특히 국산 AI 반도체 활성화와 글로벌 기업 협력은 필수 과제로, 민간이 가능한 최적의 방안을 제시해야 하고 이는 평가에 반영된다. 정부는 별도로 올해 2천528억원 규모의 국산 AI 반도체 연구개발(R&D)과 실증·사업화 예산을 투입해 초기 시장 활성화를 지원한다. 이번 사업자 선정은 1단계 기술·정책 평가와 2단계 금융 심사를 거쳐 진행된다. 컨소시엄에는 반드시 데이터센터와 AI 컴퓨팅 서비스 기업이 포함돼야 하며 복수 클라우드·통신사 컨소시엄이 우대된다. 사업 공모는 8일부터 다음 달 21일까지 진행되며 참여계획서는 다음 달 20~21일 접수한다. 과기정통부는 12월까지 평가와 금융 심사를 마치고 내년 상반기 SPC 설립과 2028년까지 센터 개소를 목표로 하고 있다. 배경훈 과기정통부 장관은 "첨단 GPU 5만 장을 조속히 확보해 AI 생태계 활성화를 위한 기폭제로 활용하고자 한다"며 "향후 국가AI컴퓨팅센터가 AI 모델·서비스, 첨단 AI 반도체 등 AI 생태계 성장의 플랫폼이자 AI 고속도로의 핵심 거점으로서 AI 3대 강국 도약을 뒷받침할 것으로 기대한다"고 밝혔다.

2025.09.08 15:26한정호 기자

오픈AI, '엔비디아 그늘' 벗어날까…브로드컴 손잡고 AI 반도체 '독립 선언'

오픈AI가 엔비디아 의존도 탈피를 목표로 자체 인공지능(AI) 칩 생태계 구축에 전격 나섰다. 7일 파이낸셜타임스(FT) 등 외신에 따르면 오픈AI는 미국 반도체 기업 브로드컴과 손잡고 내년부터 자체 설계한 AI 칩을 출하한다. 이번 협력을 통해 혹 탄 브로드컴 최고경영자(CEO)가 언급했던 100억 달러(한화 약 13조7천억원) 규모의 '미스터리 고객'이 오픈AI였음이 확인됐다. 이 소식에 브로드컴 주가는 9.4% 급등해 시가총액 1조6천억 달러(한화 약 2천200조원)를 돌파했다. 오픈AI의 행보는 구글, 아마존, 메타 등 빅테크 경쟁사들의 전략을 뒤따르는 것이다. 이들 역시 AI 모델 훈련과 서비스 운영을 위해 맞춤형 반도체 개발에 막대한 투자를 이어오고 있다. 이는 현재 AI 칩 시장을 장악한 엔비디아의 독주 체제에 균열을 일으킬 중대 변수로 꼽힌다. HSBC 등 시장 분석가들은 내년년부터 브로드컴의 맞춤형 칩 사업 성장률이 엔비디아를 넘어설 수 있다고 전망했다. 오픈AI는 개발 중인 차세대 모델 'GPT-5' 등 기하급수적으로 늘어나는 연산 수요를 감당하기 위해 컴퓨팅 파워 확보에 사활을 걸어왔다. 샘 알트먼 CEO는 향후 5개월 내 컴퓨팅 설비를 두 배로 늘리겠다고 공언한 바 있다. 오픈AI는 생산된 칩을 외부에 판매하지 않고 내부 서비스 운영에만 투입할 계획이다. 혹 탄 브로드컴 CEO는 "(오픈AI와의 계약이) 즉각적이고 상당히 큰 수요를 가져왔다"며 "내년부터 해당 고객을 위한 칩을 매우 강력하게 출하할 것"이라고 밝혔다.

2025.09.07 06:00조이환 기자

정부, 'AI 특화 파운데이션 모델' 개발 본격화…다음달까지 공모

정부가 기존 '독자 인공지능(AI) 파운데이션 모델 프로젝트'와 병행해 국가 강점 분야를 겨냥한 '특화 파운데이션 모델' 개발이라는 투트랙 전략으로 글로벌 시장 선점에 나선다. 과학기술정보통신부(과기정통부)는 정보통신산업진흥원(NIPA)과 함께 'AI 특화 파운데이션 모델 프로젝트'에 참여할 팀을 공모한다고 5일 밝혔다. 접수는 다음달 13일까지 진행해 평가를 통해 총 2개 팀을 선정한다. 선정된 팀에는 최신 그래픽처리장치(GPU)인 엔비디아 'B200'을 팀당 256장(32노드)씩 총 512장 규모로 지원한다. 지원 기간은 오는 11월부터 내년 9월까지다. 1단계에 5개월 간 지원한 후 단계평가를 거쳐 2단계 지원 여부를 결정한다. 이번 사업은 범용 모델을 개발하는 '독자 AI 파운데이션 모델 프로젝트'와는 별개로 추진된다. 특정 전문 분야에서 우리나라가 가진 강점을 AI 기술과 결합해 독자적인 특화 모델과 서비스를 확보하는 것이 목표다. 특히 이번 프로젝트는 개발된 모델을 오픈소스로 공개해 국내 AI 생태계 전반의 기술력을 끌어올리는 것을 지향한다. 정부는 모델의 오픈소스 공개 수준에 따라 참여 기업의 사업비 부담을 다르게 적용해 적극적인 개방을 유도할 방침이다. 이 프로젝트에는 국내 AI 기업과 대학 연구기관 등이 단독 또는 컨소시엄을 구성해 참여할 수 있으며 참여팀이 적용 분야와 개발 방법론 등을 주도적으로 제시해야 한다. 대학은 반드시 주관이나 참여기관으로 참여해야 하고 대기업은 주관사가 아닌 참여사로만 함께할 수 있다. 해외 기업 역시 모델 개발이 아닌 글로벌 서비스 개발에 한해서만 참여가 가능하다. 평가는 ▲기술력 및 개발경험 ▲개발 목표 ▲시장성 및 파급효과 등 세 가지 기준을 중심으로 이뤄진다. 평가위원회는 참여팀이 제시한 목표 달성 여부와 성과의 혁신성을 5개월 단위로 점검해 후속 지원을 결정할 방침이다. 프로젝트에 사용될 GPU는 엘리스그룹이 공급한다. 수냉식 냉각 기술이 적용된 이동식 모듈형 데이터센터를 통해 제공돼 에너지 효율을 높이고 안정적인 운영을 지원한다. 최종 평가에서 우수한 성과를 낸 과제는 정부가 구매한 GPU를 추가로 지원받아 후속 모델 개발을 이어갈 수 있다. 과기정통부는 오는 15일 서울 엘타워에서 사업설명회를 열어 구체적인 내용을 안내할 계획이다. 배경훈 과학기술정보통신부 장관은 "'독자 AI 파운데이션 모델' 프로젝트와 병행해 글로벌 시장에서 경쟁력을 갖춘 특화 파운데이션 모델 확보하는 것은 국가 AI 생태계 확장 측면에서 굉장히 중요하다"며 "이번 프로젝트를 통해 AI 기술역량과 노하우가 교류되는 산·학·연 협력체계가 한층 강화돼 국내 생태계가 활성화되길 기대한다"고 밝혔다.

2025.09.05 16:01조이환 기자

스마일서브, 엔비디아·AMD 아우른 '올라마' 기반 GPU 클라우드 출시

스마일서브가 인공지능(AI) 서비스 개발 기업을 겨냥해 '올라마(Ollama)' 프레임워크 기반의 솔루션을 새롭게 선보인다. 스마일서브는 대규모 언어 모델(LLM) 구축에 최적화된 그래픽처리장치(GPU) 클라우드 및 서버 호스팅 상품을 출시했다고 1일 밝혔다. 이번 상품은 올라마 프레임워크 기반으로 AMD와 엔비디아 GPU를 혼합해 다양한 선택지를 제공하는 것이 특징이다. 올라마는 GPU·신경망처리장치(NPU) 호환성이 넓어 가성비 높은 LLM 모델 구축 환경을 원하는 개발자와 서비스 기업 사이에서 각광받고 있다. 올해 초 저가형 게임용 GPU에서도 LLM 서비스 운용이 가능하다는 점이 알려지면서 엔비디아 주가에 일시적 영향을 줄 정도로 주목을 받은 바 있다. 스마일서브는 AMD 라이젠 CPU 내장 GPU, 라데온 RX 9600 XT, W6800 프로 GPU 등을 자사 '클라우드브이' 서버 호스팅 서비스에 적용했다. 기존 엔비디아 중급 GPU 라인업은 올라마 전용 구성으로 리뉴얼해 새롭게 선보일 계획이다. 스마일서브는 데이터센터에서 활용도가 낮았던 내장 GPU도 올라마를 통해 LLM 서비스에 적용할 수 있게 됐으며 이를 활용해 8GB VRAM 환경을 지원하는 신규 서버 호스팅 상품을 출시했다. 스마일서브 이유미 대리는 "8GB VRAM 환경에서도 젬마 3 4B 모델을 포함한 중소형 LLM 모델 설치가 가능하다"며 "내장 GPU만으로 업무 자동화나 간단한 챗봇 운영이 가능해졌다"고 말했다. 이어 "DDR5 기반 라이젠 PC와 노트북 내장 GPU에서도 설치가 가능해 저비용 개발 환경을 원하는 이용자라면 자사 블로그 가이드를 참고해 직접 구현할 수 있다"고 덧붙였다. 새롭게 추가된 라데온 GPU도 눈에 띈다. 지난 6월 출시된 RX 9060 XT는 가성비 최강으로 평가받는 제품으로, 16GB VRAM을 탑재해 젬마 3 12B 등 중대형 모델도 안정적으로 지원한다. 함께 출시된 라데온 프로 W6800은 32GB VRAM을 갖춰 젬마 3 27B 같은 초대형 모델도 무리 없이 운영할 수 있다. 스마일서브는 이 GPU 기반으로 자사 챗봇을 개발 중이며 응답 정확도를 90% 수준까지 끌어올린 상태다. 정식 서비스는 이달 중 출시될 예정이다. 엔비디아 중급 GPU 라인업도 올라마 특화 GPU 클라우드 서비스 '아이윈브이'에서 새롭게 전면 배치된다. 이 라인업은 최소 16GB VRAM부터 최대 96GB까지 지원하는 다양한 GPU로 구성됐다. 특히 GDDR7 VRAM을 탑재한 제품군을 중심으로 LLM 운영에서 발생할 수 있는 메모리 부족 문제를 해결하는 데 초점을 맞췄다. 스마일서브는 장기 이용자 대상 1년 약정 시 정가 대비 50% 할인 혜택을 제공하는 프로모션도 준비 중이다. 스마일서브 관계자는 "GPU 호스팅 상품은 GPU 가격뿐 아니라 서버·전력·공간·회선 등 다양한 요소가 단가에 영향을 주기에 가격을 낮추기 쉽지 않지만, 신규 론칭 단계에서 최대한 비용을 억제하고 가성비를 확보했다"고 밝혔다.

2025.09.01 17:55한정호 기자

정부, '특화 AI' 사업자 선정 9월 초 '윤곽'…GPU 지원 2차 기회 열린다

정부가 추진하는 '특화 인공지능(AI)' 모델 육성 사업이 이달 초 본격적인 사업자 선정 절차에 돌입할 전망이다. '독자 AI 파운데이션 모델' 프로젝트에 이은 후속 지원책으로, AI 기술 경쟁의 핵심 자원인 그래픽처리장치(GPU)를 확보할 '제2의 기회'가 열리면서 업계의 이목이 쏠린다. 1일 업계에 따르면 과학기술정보통신부는 이달 초 '(가칭)인공지능 특화모델 프로젝트' 참여팀 공모를 시작할 예정이다. 당초 지난달 말 공고가 예상됐으나 정부의 내부 조율을 거쳐 9월 초로 구체화돼 가는 것으로 전해졌다. 이번 사업은 범용 거대언어모델(LLM)과 달리 특정 산업 분야에 최적화된 AI를 육성하는 데 초점을 맞춘다. 의료, 제조 등 전문 분야에서 즉각적인 성과를 낼 수 있는 특화 모델을 확보해 글로벌 시장을 선점한다는 복안이다. 이를 위해 정부는 엘리스그룹으로부터 추가 확보한 엔비디아의 최신 GPU 'B200' 512장을 지원한다. 앞서 '독자 AI 파운데이션 모델' 프로젝트 사업자로 최종 선정된 ▲네이버클라우드 ▲업스테이지 ▲SK텔레콤 ▲NC AI ▲LG AI연구원 등 5개 팀 외 기업들에게는 기술 개발에 필수적인 컴퓨팅 자원을 확보할 절호의 기회다. 이 때문에 이번 공모는 '독자 AI' 사업에 선정되지 못했거나 막대한 GPU 자원 확보에 어려움을 겪던 AI 기업들의 지원책으로 여겨지며 높은 관심을 받아왔다. 과기정통부 관계자는 이와 관련해 "현재 부처 내에서 공개 시점을 내부 조율하고 있다"며 "9월 초반 정도에는 정해질 듯하다"고 말했다.

2025.09.01 10:32조이환 기자

서버용 AI칩, 향후 5년간 성장세 견조…"370兆 규모 성장"

글로벌 빅테크의 AI 인프라 투자가 지속됨에 따라, 관련 시스템반도체 시장도 향후 5년간 견조한 성장세를 기록할 전망이다. 30일 시장조사업체 옴디아에 따르면 AI 데이터센터용 프로세서 시장은 오는 2030년 2천860억 달러(한화 약 370조원)에 도달할 것으로 분석된다. 현재 AI용 시스템반도체 시장은 미국 엔비디아가 주도하고 있다. 이 회사는 오랜 시간 쌓아올린 GPU 기술력을 토대로, AI 데이터센터에 최적화된 고성능 AI 가속기를 개발하고 있다. 엔비디아의 주요 경쟁사인 AMD 역시 AI 가속기 시장 확대에 열을 올리고 있다. 아울러 글로벌 CSP(클라우드서비스제공자) 기업들은 AI 데이터센터를 위한 자체 주문형반도체(ASIC) 개발에 뛰어들고 있다. 구글의 TPU(텐서처리장치) '아이언우드', AWS(아마존웹서비스)의 '트레이니엄', 화웨이 '어센드(Ascend)' 등이 대표적인 사례다. 이에 따라 GPU 및 AI 가속기 시장 규모는 지난해 1천230억 달러에서 올해 2천70억 달러로 약 67% 성장할 전망이다. 나아가 오는 2030년에는 2천860억 달러에 도달할 것으로 예상된다. 카운터포인트리서치는 "데이터 센터향 투자에서 AI 인프라 지출이 차지하는 비중은 내년 정점을 찍고 이후 점차 완화될 것"이라며 "주된 성장 요인은 AI 애플리케이션 확산과 추론 모델에 대한 수요 증가 등"이라고 설명했다. 젠슨 황 엔비디아 CEO 역시 최근 진행된 실적발표에서 "AI 가속기에 대한 CSP 기업들의 단기, 중기 수요는 모두 강력하다"며 "2030년까지 3조~4조 달러 규모의 AI 인프라 투자가 진행될 전망"이라고 밝힌 바 있다.

2025.08.30 14:02장경윤 기자

[현장] 'AI 고속도로' 시동…정부, GPU 3.5~3.7만장 조기 확보 선언

과학기술정보통신부가 인공지능(AI) 경쟁력을 좌우할 첨단 그래픽처리장치(GPU) 확보를 오는 2030년 목표보다 앞당겨 추진한다. AI 골든타임 얼마 안 남은 가운데 정부가 마중물 역할을 맡아 민간이 재투자와 생태계 활성화에 나서야 한다는 점을 강조하며 경고했다. 과기정통부는 29일 카카오 데이터센터 안산에서 정보통신산업진흥원(NIPA), 카카오, NHN클라우드, 네이버클라우드와 함께 'AI 고속도로 협약식 및 간담회'를 열고 GPU 인프라 확대와 데이터센터 규제 개선 방안을 논의했다. 현장에서는 정부와 3개 클라우드사 간 GPU 공급이 이날부터 본격 시작됐다는 점이 확인됐다. 배 장관은 올해 1만3천장, 내년 1만5천장 GPU를 확보하고 슈퍼컴퓨터 도입분까지 합쳐 총 3만5천~3만7천장을 마련하겠다고 말했다. 당초 매년 5천장씩 균등 확보하던 계획을 대폭 앞당긴 셈이다. 그는 미·중 경쟁 구도 속에서 2~3년 내 승부를 봐야 한다는 인식을 밝히며 올해와 내년에 대규모로 확보해 기업과 학계가 조기에 연구개발과 서비스를 만들어낼 수 있도록 하겠다고 했다. 이번 협약식은 단순한 선언을 넘어 GPU 조기 공급의 출발점이라는 의미도 크다. 정부는 클라우드 3사에 1만3천장을 배분하기 시작해 오는 12월에는 중소기업·스타트업을 대상으로도 지원을 연다. 배 장관은 규제 개선의 필요성도 언급했다. 그는 현재 건축법·소방법 등 파편화된 규제로 데이터센터가 종합시설임에도 불구하고 불명확한 부분이 많다며 이를 묶어 해결할 수 있는 특별법 제정을 준비 중이라고 말했다. 특구 지정에 대해서는 지역 안배와 거점 배치로 접근하겠다는 방안이다. 지역별 AX 프로젝트, SPC 사업과 연계해 클러스터형 허브를 구축하는 방안을 고려하고 있는 것이다. 토론회에서 업계는 GPU 사업의 수익성 문제를 제기했다. 업계는 초기 정부 지원이 상수는 아니라는 점을 지적했고 3년 내 자체 경쟁력을 갖추지 못하면 시장 전체가 흔들릴 수 있다며 클라우드사들이 AI 인프라 기반 수익 모델을 마련해야 한다는 의견을 제시했다. 네이버클라우드 김유원 대표는 정부의 GPU 투자가 기업 투자를 자극해 성공적으로 작동했다며 장기적으로는 AI가 산업 전반에 부가가치를 만들어야 진정한 생태계가 형성될 것이라고 평가했다. 김동훈 NHN클라우드 대표는 정부가 인프라 기회를 많이 열어준 것은 감사하다면서도 클라우드 사업자들도 자체 기술 혁신 속도를 높이지 않으면 글로벌 경쟁에서 밀릴 수 있다고 지적했다. 카카오 김세웅 부사장은 GPU 클러스터링 경험을 공유했다. 그는 2천장 이상을 묶어 효율 75~80%까지 끌어올렸고 R&D를 통해 5%만 개선해도 수백장 효과를 낼 수 있다는 점을 강조했다. 배 장관은 "정부가 마중물 역할에 그치지 않고 AI 전환의 토대를 마련하겠다"며 "민간이 수익성과 지속 가능성을 고민해 함께 생태계를 완성해달라"고 당부했다. 이어 "정부와 민간이 함께 한국 AI 시장 생태계를 만들어야 하며 시간이 많지 않은 만큼 반드시 조기 경쟁력을 확보해야 한다"고 강조했다.

2025.08.29 17:23조이환 기자

[현장] 배경훈 장관 "GPU 5만장 확보 서두른다…AI 인프라 시장, 정부가 마중물"

배경훈 과학기술정보통신부 장관이 인공지능(AI) 연구와 산업 혁신을 뒷받침할 컴퓨팅 자원을 대규모로 확충하겠다는 의지를 밝혔다. 오는 2030년까지 추진하던 그래픽처리장치(GPU) 확보 계획을 앞당겨 정부가 마중물 역할을 하고 민간은 재투자와 생태계 활성화에 나서 달라는 당부다. 과학기술정보통신부는 29일 카카오 안산 데이터센터에서 'AI 고속도로 현장 간담회'를 개최했다. 배 장관은 이날 모두발언에서 올해 GPU 1만3천장, 내년 1만5천장 확보를 시작으로 오는 2030년까지 총 5만장을 마련할 계획이라고 밝혔다. 간담회에는 카카오·NHN·네이버클라우드 등 주요 클라우드 기업과 정보통신산업진흥원(NIPA) 관계자들이 참석했다. 배 장관은 GPU 수급난으로 학계와 기업이 어려움을 겪는 현실을 언급하며 정부가 먼저 연구개발과 서비스 혁신을 위한 기반을 마련하겠다고 했다. 그는 "학계가 마음껏 GPU를 쓰고 기업이 저렴한 비용으로 인프라를 활용할 수 있어야 한다"며 "결국 시장이 형성돼야 기업의 재투자가 이어질 수 있다"고 강조했다. 그는 또 미국산 GPU 의존도가 높지만 국내 신경망처리장치(NPU) 성능과 가격 경쟁력이 빠르게 개선되고 있다며 클라우드 사업자들에게 국내 칩 도입을 적극 검토해달라고 요청했다. 이를 통해 국산 반도체의 시장 기회를 확대하고 AI 인프라 자립 기반을 강화하겠다는 구상이다. 이번 간담회는 정부가 'AI 고속도로' 조기 구축 의지를 확인하고 내년도 GPU 확보 이행 상황과 지속가능한 데이터센터(AIDC) 모델을 점검하기 위해 마련됐다. 배 장관은 "정부가 먼저 마중물이 돼 연구개발과 서비스 환경을 마련하겠다"며 "민간이 재투자와 시장 생태계 활성화에 적극 나서 달라"고 당부했다.

2025.08.29 16:55조이환 기자

글로벌 AI 추론 시장 급성장…한국 NPU 기업, 기회 잡을까

AI 추론 시장이 확대됨에 따라 글로벌 빅테크들은 GPU(그래픽처리장치) 의존도를 줄이고 있다. 가격이 비싸고, 발열량이 높은 GPU를 대신할 차세대 제품을 찾는 것이다. 대안으로 떠오르고 있는 칩이 AI 추론에 특화된 NPU(신경망처리장치)다. AI 연산에 특화된 구조가 낮은 전력으로도 높은 효율을 구사할 수 있게 만들어졌다. 대표적인 글로벌 기업이 미국 쌈바노바(SambaNova)와 그로크(Groq)다. 이들 기업은 이미 독자 생태계를 앞세워 시장 내 입지를 쌓아가고 있다. 이 같은 상황에 국내 업체인 리벨리온과 퓨리오사AI가 본격적으로 도전장을 내밀며 글로벌 NPU 기술 경쟁이 가속화되는 양상이다. AI 추론 시장 성장세...NPU 시장 전망 긍정적 28일 업계에 따르면 글로벌 AI 추론 시장은 가파르게 성장할 전망이다. 시장조사업체 마케츠앤마케츠는 추론 시장이 올해 약 106억달러(약 14조7천976억원)를 기록한 뒤, 오는 2030년 약 255억달러(약 35조5천980억원)까지 성장할 것으로 내다봤다. 연평균 약 19%에 달하는 성장률이다. 이에 따라 추론형 NPU 시장도 동반 성장할 것으로 점쳐진다. 다양한 AI 애플리케이션이 더 많은 추론 처리량, 낮은 지연, 높은 에너지 효율을 요구하며, 이를 가장 잘 대응할 수 있는 것이 추론형 NPU이기 때문이다. 삼일PwC경영연구원은 보고서를 통해 “AI에 사용되는 반도체 중 CPU, GPU 시장은 이미 기술 성숙 단계 진입했으며, 최적화된 저전력·고효율 ASIC(주문형반도체) 중심의 추론형 AI 반도체(NPU) 시장이 성장 중”이라고 분석했다. 美 쌈바노바·그로크, 자체 시장 구축 중 특히 NPU 시장에서 두각을 드러내는 업체는 쌈바노바와 그로크다. 양사 모두 미국의 스타트업이다. 먼저 쌈바노바는 데이터플로우 아키텍처 기반의 NPU와 자체 소프트웨어를 통합 제공하며 초대형 언어모델(LLM) 훈련과 추론을 아우른다. 고객에게 하드웨어뿐 아니라 모델·플랫폼까지 묶어 공급하는 방식으로 미국 정부, 금융기관 등 대형 고객을 확보했다. 업계 안팎에서는 자체적인 생태계를 구축했다는 점을 특징으로 지목한다. 그로크는 추론에 극단적으로 특화된 칩을 양산한다. 자체 칩과 소프트웨어를 통해 수백만 토큰 단위의 실시간 추론 속도를 구현하며, 클라우드 기반 'LLM 서빙 서비스'를 사업 모델로 삼았다. 대규모 데이터센터에서 고속 검색·RAG(검색증강생성) 서비스에 적합하다는 평가다. 하드웨어 판매보다 클라우드 추론 서비스로 수익을 내고 있다. 韓 AI반도체 도약 조건은 효율성·맞춤형 시장 공략...리벨리온, 리벨쿼드 공개 업계 안팎에서는 국내 AI 반도체 기업들이 글로벌 경쟁에서 승부를 내려면 두 가지 전략에 집중해야 한다고 보고 있다. 첫째, 전력 효율성에서 확실한 우위를 확보해야 한다는 점이다. 데이터센터의 전력 소비와 운영비용이 AI 확산의 최대 걸림돌로 떠오르는 상황에서, 효율이 곧 경쟁력으로 직결된다는 주장이다. 둘째, 맞춤형 시장 공략이다. 엔비디아처럼 범용 GPU로 모든 영역을 장악하기는 현실적으로 어렵다. 대신 통신사, 공공기관, 금융, 국방 등 특정 산업에 특화된 '맞춤형 추론형 NPU'로 영역을 넓히는 것이 현실적인 전략이다. 실제로 국내 AI반도체 스타트업인 리벨리온과 퓨리오사AI 모두 저전력·고효율 NPU를 앞세워 데이터센터·통신사·공공기관 등 특화 수요처를 공략하고 있다. 이런 가운데 리벨리온은 현지시간 27일 미국 핫칩스에서 차세대 NPU 리벨 쿼드(Rebel-Quad)를 공개했다. 이 칩은 삼성전자 4nm(나노미터, 10억분의 1m) 공정을 통해 양산되며, 엔비디아 블랙웰 수준의 성능을 자랑한다. 그러면서도 에너지 부담은 획기적으로 줄여준다. 박성현 리벨리온 대표는 “AI 산업은 GPU라는 단일 AI 하드웨어만으로는 감당하기 어려울 정도로 빠르게 커졌다”며, “리벨쿼드는 B200급 플래그십 GPU에 버금가는 성능을 유지하면서도 에너지 부담을 획기적으로 줄일 수 있는 지속가능한 AI시대의 대안으로, 리벨리온은 향후 초거대 AI 모델을 누구나 더 쉽고 효율적으로 활용할 수 있는 시대를 열어갈 것”이라고 말했다.

2025.08.28 09:14전화평 기자

1조4천억 GPU 확보사업 본격화…정부-클라우드 3사, 실무협의체 가동

과학기술정보통신부가 1조4천600억원 규모 '그래픽처리장치(GPU) 확보 사업'의 차질 없는 이행을 위해 정보통신산업진흥원(NIPA)·NHN클라우드·카카오·네이버클라우드와 실무협의체를 발족했다. 실무협의체는 21일 양재 엘타워에서 1차 회의를 개최했다. 이번 회의에는 과기정통부 인공지능(AI)기반정책관, NIPA AI인프라본부장, NHN클라우드·카카오·네이버클라우드의 사업 총괄책임자 등이 참석했다. 이들은 ▲사업자별 GPU 확보·구축·운용 계획 ▲애로사항 ▲국내 AI 생태계에 GPU 배분·지원을 위한 가칭 'GPU 통합지원 플랫폼' 구축 계획 등을 폭넓게 논의했다. 또 밀도 있는 점검을 위해 실무협의체를 수시 개최하기로 뜻을 모았다. 특히 1차 회의에서는 사업자별 GPU 확보·구축과 관련해 미국 관세 등의 영향은 크지 않은 상황으로 확인됐으며 향후에도 대내외 리스크 요인 등을 지속 점검·관리해 나가기로 합의했다. 아울러 ▲오는 10월까지 GPU 통합지원 플랫폼 구축 추진 ▲11월까지 국내 산학연 등을 대상으로 1차 GPU 지원 신청 접수 및 전문가 평가 진행 ▲12월부터 GPU 순차 지원 등을 위해 더욱 긴밀히 협력해 나가기로 했다. 과기정통부 김경만 인공지능기반정책관은 "이번 실무협의체는 대한민국 AI 생태계 성장과 이에 필요한 AI컴퓨팅 인프라 지원을 위한 첫걸음"이라며 "앞으로도 실무협의체를 수시 가동해 사업 진행 상황 등을 점검함으로써 차질 없는 국내 AI컴퓨팅 인프라 구축·지원에 최선을 다하겠다"고 밝혔다.

2025.08.21 10:00한정호 기자

정부, AI 연구에 GPU 1천장 푼다…삼성SDS·KT클라우드·엘리스 선정

삼성SDS·KT클라우드·엘리스클라우드가 정부 추경 예산으로 추진되는 '고성능컴퓨팅 지원사업' 공급사로 선정돼 국내 인공지능(AI) 연구 조직에 총 1천장의 그래픽처리장치(GPU)를 지원한다. 18일 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 올해 말까지 AI 연구·개발 연산 인프라를 확대하기 위해 '2025년 추경 고성능컴퓨팅 지원사업'을 추진한다. 사업 공급사로는 삼성SDS·KT클라우드·엘리스클라우드 등 3개사를 선정했다. 기존 사업은 사용자당 H100 GPU 2장 수준을 제공하던 방식과 달리, 올해는 과제 단위로 수백 장 규모 GPU를 묶어 지원하는 것이 특징이다. 이번 사업은 글로벌 초거대 AI 경쟁 속에서 연산 인프라 부족이 국내 연구·개발의 발목을 잡고 있다는 문제의식에서 출발했다. 세계 주요 국가들은 이미 대규모 GPU 자원을 기반으로 초거대 모델을 개발 중이지만, 국내는 민간·공공 연구조직 모두 자원 확보가 어렵다는 지적이 꾸준히 제기돼 왔다. 이에 정부는 민간 클라우드 기업을 통해 연구자들에게 안정적이고 대규모의 GPU 환경을 산학연에 제공하며 국내 AI 산업 경쟁력 강화에 나선다는 목표다. 삼성SDS와 엘리스클라우드는 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급하는 것으로 알려졌다. 지원 대상은 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등으로, GPU 1~4장을 선택할 수 있는 1트랙 사용자와 GPU 8장 이상을 서버 단위로 지원받는 2트랙 사용자로 나뉜다. 엘리스클라우드는 한국정보통신기술협회(TTA)가 추진하는 'AI 챔피언' 대회 참가 연구팀 100곳에 GPU 400장을 공급해 인재 발굴과 연구 지원을 병행할 예정이다. 공급사 선정은 사업계획서 평가, 현장 실사 및 기술 시연, GPU 단가 가격 협상 등 다단계 절차를 거쳐 이뤄졌다. 기술평가 80%와 가격평가 20%를 합산해 총점 70점 이상을 받은 기업을 최종 선정했으며 GPU 보유 현황, 자원 제공 능력, 보안성 등이 주요 평가 항목으로 작용했다. 선정된 공급사들은 다음 달부터 GPU를 본격 제공한다. 사용자는 협약 체결 후 자원 사용계획과 연구성과를 보고해야 하며 ▲공급사는 장애 대응 ▲기술 지원 ▲사용 현황 모니터링 ▲교육 지원 등을 포함한 종합 관리 의무를 지게 된다. 또 협약 종료 후에도 최소 15일간 백업 기간을 제공해야 한다. NIPA는 공모안내서를 통해 "글로벌 경쟁에서 초거대 AI 모델을 개발하기 위해서는 고성능 연산 인프라 확보가 필수지만 국내는 자원 부족으로 연구·개발에 제약이 있었다"며 "민간 클라우드 기업과 협력해 연구자들에게 안정적인 GPU 자원을 공급하는 것이 목표"라고 설명했다.

2025.08.18 14:40한정호 기자

메가존클라우드, AI 챔피언 대회 인프라 사업 수주…정부 AI 인재 육성 사업 주도

메가존클라우드가 '2025년 AI 챔피언 대회'에서 컴퓨팅 자원을 지원할 전망이다. 이를 통해 인공지능(AI) 분야 차세대 인재를 육성하고 연구 성과 창출을 지원하는 정부 주도의 신사업에 참여함으로써 기술력은 물론 사회적 기여 측면에서도 영향력을 확대한다는 계획이다. 14일 나라장터에 따르면 메가존클라우드는 기술평가 점수 83.385점, 가격점수 10점으로 종합점수 93.385점을 받아 해당 사업의 우선협상대상자로 선정됐다. AI 챔피언 대회는 국내 AI 기술 발전과 인재 발굴을 목적으로 기획된 대규모 챌린지형 연구개발(R&D) 프로젝트다. 대학, 연구기관, 기업 등이 자유롭게 구성한 연구팀이 참가하며 1차 서류 심사에서 최대 100개 팀을 선발한 뒤 중간 심사와 본선 대회를 거쳐 최종 우수팀을 선정한다. 우선협상이 마무리될 경우, 메가존클라우드는 대회 참가 연구팀에 고성능 GPU 자원과 함께 오픈AI, 제미나이(Gemini), 클로드(Claude) 등 다양한 생성형 AI API를 제공하게 된다. 특히 엔비디아 H100급 이상 GPU를 포함한 인프라 기반에서 참가팀의 실험과 모델 학습이 원활히 진행될 수 있도록 실시간 자원 할당과 지원 체계를 구축할 예정이다. 또한 대회 운영기관과 협력해 중간 심사 기간에는 최소 170장의 GPU를 동시 제공할 수 있는 인프라 환경도 마련 대규모 병렬 학습 수요에 안정적으로 대응한다는 방침이다. 이번 사업은 정부가 미래 AI 인재 양성을 위해 중점적으로 추진하는 공공 R&D 신사업이라는 점에서 산업계와 학계의 주목을 받고 있다. 단순한 인프라 제공을 넘어 정부·민간·학계가 함께 AI 생태계를 설계하는 실험 무대이자 테스트베드로서 의미가 크다는 평가다. 한국정보통신기술협회는 대회 종료 후 우수 연구팀을 대상으로 후속 연구 지원을 이어가며 대회 전 과정을 방송 콘텐츠로 제작·방영해 대국민 AI 인식 제고와 산업 저변 확대도 함께 추진할 계획이다. 메가존클라우드 역시 이번 수주를 계기로 공공 부문 AI 인프라 운영 경험을 기반으로 교육, 의료, 제조 등 다양한 산업 분야로 생성형 AI 인프라 서비스를 확장할 방침이다. 메가존클라우드 관계자는 "연구팀별 크레딧 이용 현황을 한눈에 볼 수 있는 대시보드를 제공해 자원 낭비 없이 효율적으로 활용할 수 있도록 지원하고 기술지원 포털을 통해 인프라 관련 문의나 장애 발생 시에도 빠르게 대응할 것"이라고 밝혔다.

2025.08.14 16:57남혁우 기자

GPU 기반 추론 워크스테이션 '배틀매트릭스' 힘 주는 인텔

엔비디아·AMD GPU 대비 가격 대비 성능을 극대화한 인텔 AI GPU 워크스테이션 '프로젝트 배틀매트릭스'(Project Battlematrix)가 최근 리눅스용 소프트웨어 정식 버전(1.0)을 공개하고 지속적인 업데이트를 예고했다. 프로젝트 배틀매트릭스는 최대 1만 달러(약 1천383만원) 가격에 1천500억 개 매개변수로 구성된 거대언어모델(LLM)을 처리할 수 있는 AI 추론 특화 워크스테이션이다. 비용 대비 효율을 중시하는 중/소규모 기업과 개발자 대상으로 클라우드 의존도가 높은 현 AI 워크로드 운영 방식을 온프레미스 중심으로 일부 전환할 수 있는 가능성을 제공한다는 점에서 의미가 크다. 5월 아크 프로 GPU 기반 '배틀매트릭스' 공개 프로젝트 배틀매트릭스는 인텔이 지난 5월 워크스테이션 GPU인 아크 프로 B시리즈와 함께 공개한 AI 워크스테이션 플랫폼이다. Xe2 코어 20개와 24GB 메모리를 탑재한 아크 프로 B60 GPU 최대 8개를 결합해 INT8(정수, 8비트) 기준 1,576 TOPS(1초당 1조 번 연산)급 연산 성능을 구현했다. GPU가 활용하는 메모리 용량은 192GB로 1천500억 개 매개변수로 구성된 거대언어모델(LLM)을 구동할 수 있다. 운영체제 구동에는 워크스테이션급 제온 프로세서를 활용하고 운영체제는 리눅스를 활용하다. 가격대는 5천 달러(약 691만원)에서 1만 달러(약 1천383만원)로 AI 추론 인프라에 대한 진입 장벽을 낮추는 것을 목표로 한다. LLM 스케일러 1.0 공개... 추론 속도 최대 4배 향상 인텔은 배틀매트릭스용 소프트웨어 구축에 CPU와 GPU, NPU와 가속기 등 연산 자원을 모두 활용하는 원API(OneAPI)를 활용하고 이를 지속적으로 개선하고 있다. 이달 초순 공개된 LLM 스케일러 1.0 버전은 초기 버전 대비 LLM 처리 속도 향상에 중점을 뒀다. 매개변수 320억 개 규모 모델 기준 처리 속도는 1.8배, 700억 개급 모델 처리 성능은 4.2배 높아졌다. 레이어별 온라인 양자화를 통해 GPU 메모리 요구량을 줄였고, vLLM 기반 파이프라인 병렬 처리를 실험적으로 도입해 대규모 모델 추론의 병목을 완화했다. 임베딩·재순위 모델 지원, 멀티모달 입력 처리 강화, 최대 길이 자동 감지, 데이터 병렬 처리 최적화 기능도 새롭게 추가됐다. 원격 관리가 필요한 기업 환경에서 GPU 전력 관리와 펌웨어 업데이트, 메모리 대역폭 모니터링 등 기능을 갖춘 XPU 매니저를 추가했다. GPU 1개를 여러 가상화 인스턴스가 활용할 수 있는 SR-IOV 기능도 추가했다. 중소기업·개인 개발자 위한 온프레미스 추론 인프라 제공 현재 GPU 시장은 엔비디아와 AMD가 성능 중심의 서버 시장을 양분하다시피 하는 상황이다. 반면 인텔이 하바나랩스 인수 후 출시하고 있는 AI 가속기인 가우디3는 제한적인 시장 점유율을 확보하고 있다. 배틀매트릭스는 정체된 서버 시장 대신 합리적인 가격·멀티 GPU 확장성·관리 편의성을 무기로 중소기업과 개인 개발자층을 직접 공략하기 위한 제품이다. 향후 로드맵도 공격적이다. 인텔은 이달 LLM 스케일러 공개에 이어 오는 SR-IOV 고도화, VDI 지원, 관리 소프트웨어 배포 기능 등 모든 기능을 구현한 완전판을 공개 예정이다.

2025.08.14 15:36권봉석 기자

[종합] AI·인프라 성과 가시화…韓 클라우드, 2분기 '쾌속 성장'

국내 클라우드 3사가 올해 2분기 나란히 실적 상승세를 이어갔다. 네이버·KT·NHN 모두 공공사업과 인공지능(AI) 수요 확대, 그래픽처리장치(GPU) 인프라 확보 등 전략 투자가 본격 성과로 이어지며 클라우드 부문에서 두 자릿수 안팎의 성장을 기록했다. 12일 업계에 따르면 국내 클라우드 서비스 제공업체(CSP)들은 글로벌 사업 확장과 공공 AI·클라우드 전환 사업 수주를 바탕으로 2분기 호실적을 거뒀다. 네이버는 2분기 엔터프라이즈 부문에서 전년 동기 대비 5.8% 증가한 1천317억원의 매출을 기록했다. 공공 부문 AI 사업 수주와 기업 협업툴 '라인웍스' 유료 고객 증가가 성장세를 이끌었다. 특히 정부가 추진하는 '독자 AI 파운데이션 모델(국가대표 AI)' 개발 사업에 정예팀으로 참여해 '옴니 파운데이션 모델' 개발을 시작했고 GPU 확보 사업에서 엔비디아 H200 GPU 3천여 장을 확보하며 AI 인프라 역량을 강화했다. 최수연 네이버 대표는 2분기 실적발표 컨퍼런스콜에서 "AI 모델과 클라우드 서비스 역량까지 풀스택으로 확보한 국내 유일 사업자인 만큼 향후 성장률이 높아질 것"이라며 "그동안 자체 기술로 준비해 온 인프라와 AI 생태계가 이제는 글로벌 기회로 확장되고 있다"고 강조했다. KT클라우드는 2분기 매출이 전년 동기 대비 23.0% 증가한 2천215억원을 기록했다. 글로벌 고객 대상 데이터센터 코로케이션 수요 급증과 설계·구축·운영(DBO) 사업 수주 확대가 핵심 성장 요인으로 작용했다. 여기에 더해 공공 부문에서는 국가정보원 '상등급' 보안 검증을 통과해 행정안전부 긴급신고공동관리센터와 서울시 소방재난본부의 클라우드 네이티브 전환 사업을 수주하는 등 공공시장 내 입지를 넓혔다. 아울러 민간 부문에서는 업스테이지·폴라리스오피스·디노티시아 등 AI 전문 기업과 협력하며 'AI 파운드리' 사업을 본격화하고 있다. 한편 KT그룹 차원에서는 글로벌 협력에 속도를 낼 방침이다. 올 하반기 마이크로소프트(MS)와 기밀컴퓨팅(ACC) 기반 '시큐어 퍼블릭 클라우드(SPC)' 및 한국형 챗GPT 서비스 출시를 준비 중이며 팔란티어 솔루션 독점 공급 계약 등을 통해 금융·공공 등 핵심 산업군을 공략할 계획이다. NHN은 클라우드 사업를 포함한 기술 부문에서 전년 대비 6.6% 증가한 1천45억원의 매출을 올렸다. NHN클라우드는 2분기 정부 'GPU 확보·구축·운용지원 사업'에서 단일 기업 기준 최다 물량인 엔비디아 B200 GPU 7천여 장을 확보했고 이 중 4천여 장을 국내 최초로 단일 수냉식 클러스터로 구축할 계획이다. 공공 클라우드 전환 사업에서도 올해 진행된 7개 기관 중 5곳의 인프라 공급사로 선정돼 보안성과 안정성을 기반으로 입지를 확대했다. 이와 함께 하반기 광주AI데이터센터를 활용한 지역 인프라 기반 컴퓨팅 지원사업과 경기교육 디지털 AI 플랫폼 사업에도 참여하며 B2G 영역을 지속 확장한다는 전략이다. 정우진 NHN 대표는 "AI GPU 운영 역량을 인정받으며 정부 사업에서 두각을 드러내고 있다"며 "다양한 정부 AI 사업과 공공 클라우드 전환 성과를 이어가겠다"고 밝혔다. 이들 기업이 1분기에 이어 2분기에도 호실적을 거뒀음에도 향후 위협 요소가 남아 있다. 최근 지속되는 미국 정부의 클라우드 개방 압박에 따라 아마존웹서비스(AWS)·MS·구글클라우드 등 주요 외산 클라우드 기업들이 국내 주요 공공 영역에 장차 진입할 가능성이 커지고 있어서다. 지금까지 공공 클라우드 수요를 안정적인 성장 기반으로 삼아 온 국내 사업자들에게는 가격 경쟁, 기술 서비스 범위, 글로벌 레퍼런스 등에서 직격탄이 될 수 있는 변수다. 업계에서는 당장의 큰 변화는 체감되지 않더라도 AI·보안·데이터 주권 등 차별화된 역량을 강화해 올 하반기와 내년 시장 점유율 방어에 나서야 할 것으로 보고 있다. 업계 관계자는 "국내 클라우드 기업들은 AI·GPU 등 고부가가치 영역으로 사업을 빠르게 확장 중"이라며 "향후 추진될 정부 AI·클라우드 사업의 발주 규모와 속도가 하반기 실적의 성패를 좌우할 것"이라고 전망했다.

2025.08.12 14:18한정호 기자

NHN 기술 부문, 2분기 매출 6.6%↑…공공 클라우드·GPU 효과

NHN클라우드가 2분기에도 정부의 대규모 그래픽처리장치(GPU) 인프라 구축과 공공 클라우드 전환 사업에서 잇따라 성과를 올리며 기술 부문 성장을 이어갔다. 12일 NHN은 2025년 2분기 실적 발표 컨퍼런스콜을 통해 기술 부문에서 전년 동기 대비 6.6% 증가한 1천45억원의 매출을 기록했다고 발표했다. 다만 1분기 일회성 매출의 역기저 효과로 전 분기 대비로는 1.1% 감소했다. NHN클라우드는 2분기 정부가 추진한 'GPU 확보·구축·운용지원 사업'에서 최다 구축 사업자로 선정돼 엔비디아 B200 GPU 7천 장 이상을 확보·구축할 계획이다. 이 가운데 4천 장 이상은 국내 최초로 단일 클러스터로 구성해 수냉식 방식으로 운용하며 대규모 인공지능(AI) 인프라 구축 기술력을 입증한다는 전략이다. 또 광주 국가AI데이터센터를 활용하는 정보통신산업진흥원(NIPA) 주관 '지역 인프라 기반 컴퓨팅 지원사업'에도 선정됐다. 또 경기교육 디지털 AI 플랫폼 사업에도 참여해 공공 AI 인프라 영역을 확장하고 있다. 공공 클라우드 부문에서는 올해 진행되는 클라우드 네이티브 전환 사업 7개 기관 중 5곳의 인프라를 공급하는 성과를 거뒀다. 정우진 NHN 대표는 "AI GPU 운영 역량을 인정받으며 정부 사업에서 두각을 드러내고 있다"며 "다양한 정부 AI 사업과 공공 클라우드 전환 성과를 이어가겠다"고 말했다.

2025.08.12 10:58한정호 기자

정부 AI 컴퓨팅 지원 확대…GPU 임차 공급사 추가 모집 '착수'

정부가 그래픽처리장치(GPU) 임차 지원사업 예산 절감분을 활용해 공급사 1곳을 추가 모집한다. 가격 협상 과정에서 단가를 낮춘 덕에 당초 계획보다 많은 기업에 자원을 지원할 수 있게 돼 더 많은 인공지능(AI) 사업 기회가 마련됐다. 11일 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 'AI컴퓨팅 자원 활용 기반 강화(GPU 임차 지원)' 사업 공급사 추가 모집 공고를 게재했다. 이번에 공급하는 GPU 규모는 엔비디아 H100·H200 기준 200~600장 또는 A100 기준 800~2천400장 수준이며 사업 기간은 오는 10월 1일부터 내년 6월 30일까지로 최대 9개월 단기 지원 형태다. 이번 추가 모집은 1천576억원 규모 추경으로 추진된 '독자 AI 파운데이션 모델' 정예팀 GPU 지원 사업의 연장선에 있다. 정부는 애초 공급사 2곳을 선정할 계획이었지만 단가 인하로 예산 범위 안에서 최대 3곳까지 확대한 것으로 알려졌다. 이 과정에서 SK텔레콤·네이버클라우드·엘리스그룹이 공급사로 선정됐으며 이 중 SK텔레콤과 네이버클라우드는 독자 AI 파운데이션 모델 사업 정예팀에도 선정돼 자체 GPU를 조달·운영할 수 있어 정부 지원 대상에서 제외됐다. 이에 따라 남은 GPU 물량과 예산이 이번 추가 공모로 전환됐다. 공급사 신청 자격은 ▲AI 가속화기 자원 운영·관리 역량 보유 ▲클라우드 기반 고성능 컴퓨팅 자원 제공 가능 ▲GPU 전체 수량을 단일 데이터센터에서 제공할 수 있는 국내 기업 등이다. 이에 참여 예상 기업으로는 클라우드 기반 서비스형 GPU(GPUaaS) 운용 역량을 갖춘 KT클라우드·NHN클라우드·카카오엔터프라이즈 등 국내 주요 클라우드 서비스 제공업체(CSP)가 거론된다. 선정된 공급사는 지정된 사용자에게 GPU를 고정할당 방식으로 24시간 제공하고 장애 발생 시 즉시 복구해야 한다. 리눅스·윈도우 등 운영체제와 AI 개발 프레임워크 설치 지원, 사용자 기술지원, 사용량 모니터링 기능 제공도 의무 요소다. 사업 공고 기간은 다음 달 8일까지이며 전산 접수는 이달 28일부터 시작된다. 절차는 ▲사업계획서 사전검토 ▲발표평가 ▲현장실사·기술시연 ▲가격협상을 거쳐 다음 달 말 협약 체결 후 10월 초부터 자원 배분·활용이 시작된다. 업계에서는 이번 추가 공모가 AI 스타트업과 연구기관뿐 아니라 기존 GPU 인프라 공급업체에도 새로운 기회를 제공할 것으로 보고 있다. 특히 제조·의료·금융·물류 등 GPU 활용 수요가 늘고 있는 버티컬 산업 전반에서 고성능 연산 자원을 안정적으로 확보할 수 있는 기회로 작용할 전망이다. 정부 지원 자원을 활용한 실증·서비스 개발이 가속화되면 국내 AI 생태계 전반의 진입장벽이 낮아지고 대규모 AI 모델 학습 경쟁에서도 기술 격차를 줄이는 데 기여할 수 있다는 평가다. 업계 관계자는 "정부가 GPU 단가를 낮추고 공급 범위를 넓히는 것은 산업 전반에 긍정적인 신호"라며 "이번 기회를 잘 활용하면 신생 AI 기업이나 비AI 분야 기업도 대규모 연산 인프라를 체험하고 서비스로 확장할 수 있는 발판을 마련할 수 있을 것"이라고 말했다.

2025.08.11 17:54한정호 기자

[인터뷰] 오픈소스컨설팅 "AI 시대 최적의 인프라는 오픈소스…종속 없는 혁신 가속"

"기업들이 VM웨어 대체를 고민하는 건 이제 선택이 아니라 생존 문제입니다. 특히 인공지능(AI) 시대에는 유연성과 비용 효율성을 동시에 잡을 수 있는 오픈소스 인프라 전략이 필수입니다." 오픈소스컨설팅 김봉수 이사는 최근 서울 강남구 본사에서 지디넷코리아와 만나 "브로드컴의 인수 이후 라이선스 체계 변화와 가격 인상으로 인해 VM웨어 이용 기업들의 부담이 급격히 커졌다"며 "대규모 인프라 환경일수록 오픈소스가 더 큰 투자 대비 효과(ROI)를 제공할 수 있다"고 강조했다. VM웨어 비용 최대 10배 폭등…기업들, 오픈소스로 갈아탄다 김 이사에 따르면 국내 기업들이 VM웨어 대체를 추진하는 가장 큰 이유는 비용 폭등이다. 브로드컴 인수 이후 VM웨어는 코어 기반 라이선스 체계로 전환되며 기존 대비 3~5배, 많게는 10배 이상 비용이 상승했다. 여기에 사용하지 않는 패키지까지 구매해야 하는 구조가 더해져 불필요한 지출이 발생한다. 김 이사는 "이번 기회에 KVM 같은 범용 가상화 기술로 전환하려는 움직임이 많아졌다"며 "오픈소스 구축·운영 역량을 갖춘 업체와 협력하면 컨설팅과 일부 유지보수만으로도 상당한 비용 절감이 가능하다"고 말했다. 오픈소스컨설팅은 VM웨어 전환 시장의 변화를 직접적으로 체감하고 있다. 이요한 매니저는 "예전에는 VM웨어가 가격을 할인해 주는 조건으로 기존 계약을 유지하는 경우가 많았는데 최근에는 기술검증(PoC) 이후 실제 타사 솔루션 이전을 결정하는 기업이 급격히 늘고 있다"고 설명했다. VM웨어에서 다른 플랫폼으로 이전하는 과정에서 안정성은 매우 중요한 변수다. 이에 오픈소스컨설팅은 오픈소스 기반 QEMU 툴을 기본 적용하고 서비스 중단이 허용되지 않는 핵심 시스템에는 '제트컨버터'와 같은 글로벌 전문 솔루션 활용을 병행 중이다. 이는 단순 이전이 아닌 고객의 서비스 연속성과 데이터 무결성을 함께 확보하는 방식이다. "벤더 락인 없다"…오픈소스컨설팅, VM웨어 대안 시장서 입지 확장 오픈소스컨설팅은 오픈소스 기반 클라우드·컨테이너·데브옵스 환경을 패키징해 제공 중으로, VM웨어 대체 시장에서 빠르게 입지를 넓히고 있다. 핵심 제품군은 '플레이스 클라우드' 시리즈로, 각 분야별 최적화된 솔루션을 갖추고 있다. 먼저 '플레이스 오픈스택'은 오픈인프라 재단의 표준 패키지를 기반으로 한 프라이빗 서비스형 인프라(IaaS) 솔루션으로, 네트워크·컴퓨팅·로드밸런싱 등 안정성이 입증된 컴포넌트를 제공한다. 두 번째 주요 솔루션은 '플레이스 큐브'로, 쿠버네티스를 중심으로 한 서비스형 플랫폼(PaaS) 패키지다. 이는 애플리케이션 배포와 확장을 간소화하고 멀티 클러스터 운영을 지원한다. 마지막으로 '플레이스 데브옵스'는 CI/CD 파이프라인과 개발·운영 자동화 환경을 제공하며 필요 시 독립 패키지로도 도입을 지원하고 있다. 이들 솔루션은 모두 공통 모듈을 통해 모니터링과 로그 수집 기능을 통합 제공한다. 가상 머신(VM)과 컨테이너 환경을 단일 대시보드에서 관리할 수 있어 운영 효율성을 높이고 장애 대응 속도를 단축한다. 특히 오픈소스컨설팅은 클라우드 관리 플랫폼(CMP)을 쓰지 않는 전략을 택했다. 경쟁사 상당수가 자체 CMP를 통해 고객 환경을 묶어두는 것과 달리 '호라이즌'과 '스카이라인' 같은 표준 오픈소스 관리 도구를 활용한다는 방침이다. 덕분에 버전 업그레이드 시 API 재개발 부담이 없고 락인 없이 최신 기능을 신속히 적용할 수 있다. 김 이사는 "우리는 고객이 원하면 네트워크 L2 구성 같은 특수 요구사항도 자유롭게 구현할 수 있다"며 "이것이 오픈소스가 주는 진짜 유연성"이라고 강조했다. "최적의 AI 인프라는 오픈소스"…오픈소스컨설팅의 승부수 AI 시대를 맞아 오픈소스컨설팅은 GPU 자원 활용 최적화 기술도 강화하고 있다. GPU 패스스루, SR-IOV, 멀티 인스턴스 GPU(MIG)와 같은 기능을 지원해 VM이 GPU에 직접 접근하도록 구성하고 물리 GPU를 다수의 가상 인스턴스로 나눠 다양한 규모의 워크로드를 동시에 처리할 수 있게 하는 기술이다. 여기에 스마트NIC과 RDMA 등 네트워크 가속 기술을 결합하면 GPU 클러스터를 하나의 대규모 연산 자원처럼 운영할 수도 있다. 김 이사는 "퍼블릭 클라우드는 데이터가 쌓일수록 비용이 눈덩이처럼 불어나지만, 오픈소스 기반의 프라이빗 클라우드는 초기 투자 이후 운영비를 안정적으로 관리할 수 있다"며 "AI 서비스처럼 상시 연산 자원이 필요한 환경에서는 오픈소스 기반 프라이빗 클라우드의 장점이 확실하다"고 설명했다. 이러한 기술력은 다양한 현장에 적용됐다. 오픈소스컨설팅은 기상청의 방대한 기상 데이터 분석·예측을 지원하기 위해 오픈스택 기반의 대규모 GPU 팜을 구축했다. VM·쿠버네티스·베어메탈 서버를 혼합 구성해 다양한 시뮬레이션과 실시간 데이터 분석을 지원하며 예보관들이 직접 GPU 자원을 활용할 수 있도록 했다. 대한상공회의소에는 클라우드 네이티브 기반 하이퍼컨버지드 인프라(HCI) '하베스터'를 도입해 VM 장애 시 쿠버네티스 셀프힐링 기능으로 자동 복구가 가능하게 했다. 기존 VM웨어 중심 운영에서 전환하는 과정에서 적응이 필요했지만 교육과 매뉴얼 지원을 통해 빠르게 안착했다. 또 한 국내 대기업에는 고비용 가상 데스크톱 인프라(VDI) 환경을 오픈소스 기반으로 전환했다. 오픈스택 VM 환경에 아바존 DCV 솔루션을 적용해 인증·보안·세션 관리를 표준화했고 GPU 패스스루와 MIG를 병행해 부서별 연산 수요에 맞춘 자원 배분을 구현했다. GPU·쿠버네티스·오픈스택 '삼각편대'…인프라 전환 확산 박차 금융권에서도 변화가 일고 있다. 오픈소스컨설팅은 다수 금융기관에 쿠버네티스 기반 인프라를 도입해 VM웨어 의존도를 낮추고 있다. 이 매니저는 "금융감독원의 규제 완화로 금융권의 오픈소스 도입 장벽이 크게 낮아졌다"며 "PoC에서 실서비스로 전환되는 속도가 예전보다 훨씬 빠르다"고 말했다. 이같은 레퍼런스와 오픈소스 기술력을 바탕으로 오픈소스컨설팅은 올 하반기 GPU 팜 구축과 AI 인프라 최적화 사업에 역량을 집중할 계획이다. 김 이사는 "최근 발주되는 제안요청서(RFP) 상당수에 AI 키워드가 포함되고 있는 만큼 GPU 자원 구성, 확장성, 비용 효율성 모두를 갖춘 오픈소스 인프라로 대응하겠다"며 "새로운 오픈소스 기술을 지속적으로 테스트·검증해 고객이 안정적으로 AI 환경을 운영할 수 있도록 지원하겠다"고 밝혔다.

2025.08.11 13:18한정호 기자

네이버 엔터프라이즈 부문, 공공 AI·라인웍스 성장에 실적 '방긋'…매출 5.8%↑

네이버가 올해 2분기 공공 부문 인공지능(AI) 사업 수주와 서비스형 소프트웨어(SaaS) 기반 협업 솔루션 '라인웍스'의 성장세에 힘입어 엔터프라이즈 사업에서 견조한 실적을 거뒀다. 특히 자체 초거대언어모델(LLM)과 AI 데이터센터, 서비스형 GPU(GPUaaS) 등 풀스택 기술력을 기반으로 국내외 소버린 AI 시장에서의 존재감을 강화하며 중장기 성장 가능성을 높이고 있다. 8일 네이버는 2025년 2분기 실적 발표 컨퍼런스콜을 통해 엔터프라이즈 부문에서 전년 동기 대비 5.8% 성장한 1천317억원의 매출을 기록했다고 발표했다. 전 분기 대비로는 1.9% 감소했지만 공공 부문 AI 매출 확대와 라인웍스 유료 고객 증가라는 긍정적 흐름이 이어지며 안정적인 성장세를 입증했다. 네이버는 2분기 한국수력원자력을 포함한 공공기관과의 AI 협업으로 신규 매출을 확보했다. 기업 협업툴 라인웍스는 5분기 연속 유료 ID 수가 10% 이상 증가하며 SaaS 기반 B2B 사업의 확장을 이끌고 있다. 최수연 네이버 대표는 "라인웍스는 다양한 서비스를 출시하며 고객의 호평을 받고 있다"며 "비즈니스 채팅 시장의 AI 에이전트 영역을 선점할 수 있도록 지속적으로 SaaS 제품을 고도화할 것"이라고 밝혔다. 네이버 엔터프라이즈 사업의 핵심 경쟁력은 자체 개발한 AI 풀스택 기술에 있다. LLM '하이퍼클로바X'를 비롯해 데이터센터, GPU 인프라, 클라우드 플랫폼, SaaS 솔루션까지 AI 서비스 구현에 필요한 전 영역을 자체 기술로 아우르고 있는 국내 유일의 기업이라는 게 네이버 측 설명이다. 이를 기반으로 네이버는 아시아·중동·아프리카 등 글로벌 시장에서 소버린 AI 전략을 본격화하고 있다. 태국에서는 국가용 LLM 구축 사업을 추진 중이며 모로코에서는 유럽향 GPU 기반 AI 데이터센터 설립을 협력 중이다. 사우디아라비아에서는 디지털 트윈과 로보틱스 기반의 사업, 일본에서는 지방자치단체 이즈모시에 '클로바 케어콜'을 공급하며 B2G 시장 확장을 가속하고 있다. 최 대표는 "우리는 AI를 활용해 B2C·B2B·B2G를 모두 아우르는 플랫폼 전략을 추진하고 있으며 이러한 접근은 글로벌 사업에서도 의미 있는 레퍼런스를 확보할 수 있게 해준다"며 "앞으로도 글로벌 고객과 함께하는 다양한 협업 기회를 만들어 나가겠다"고 말했다. 국내에서는 정부가 주도하는 초거대 AI 생태계 조성 사업에 전략적으로 참여하고 있다. 네이버클라우드는 최근 과학기술정보통신부의 '독자 AI 파운데이션 모델' 개발 사업에 정예 5개 팀 중 하나로 선정돼 텍스트·음성·이미지·영상 등 이종 데이터를 통합 처리할 수 있는 '옴니 파운데이션 모델' 개발에 착수했다. 또 네이버클라우드는 정부의 GPU 확보 사업에서 엔비디아 H200 GPU 총 3천56장을 확보하며 초대형 AI 인프라 사업자로서 입지를 다졌다. 이에 더해 GPU 임차 사업에도 참여하는 등 국가 주도 AI 사업 전반에서 활동을 이어갈 계획이다. 다만 클라우드 부문의 성장률이 다소 완만하게 나타난 데 대해 최 대표는 "국내 클라우드 도입률과 AI 전환 속도에 따라 성장 탄력이 결정될 것"이라며 "AI 모델과 서비스 역량까지 풀스택으로 확보한 국내 유일 사업자인 만큼 향후 성장률이 높아질 것"이라고 설명했다. 이어 "그동안 자체 기술로 준비해 온 인프라와 AI 생태계가 이제는 글로벌 기회로 확장되고 있다"며 "앞으로도 중장기 성장을 위한 새로운 사업 레퍼런스를 지속 발굴하며 글로벌 AI 시장에서 입지를 다져나가겠다"고 강조했다.

2025.08.08 12:26한정호 기자

실적 발표 앞둔 네이버·KT·NHN…클라우드 성장 기대감 '고조'

국내 클라우드 3사가 올해 2분기에도 두 자릿수 이상의 고성장을 이어갈 전망이다. 클라우드 인프라에 대한 수요가 공공과 금융, 인공지능(AI) 등 다양한 산업 전반으로 확산되고 정부 주도 GPU 인프라 확보 사업까지 본격화되면서 각 사의 전략 투자와 사업 확장이 실적에 고스란히 반영된 분위기다. 7일 업계에 따르면 네이버·KT·NHN의 실적 발표가 임박한 가운데 각 그룹의 클라우드 서비스 부문이 모두 지난 1분기 두 자릿수 매출 성장률을 기록한 데 이어 2분기에도 이같은 성장 흐름을 지속할 것으로 관측된다. 특히 네이버와 KT는 역대 최대 분기 매출과 영업이익을 각각 경신할 가능성이 높고 NHN 역시 공공사업 수주와 GPU 인프라 확보로 기술 경쟁력을 한층 끌어올렸다는 평가다. 먼저 네이버클라우드는 엔터프라이즈 부문에서 지난 1분기 1천342억원의 매출을 기록하며 전년 동기 대비 14.7% 성장했다. 증권 업계에 따르면 2분기 그룹 전체 실적은 매출 2조9천48억원, 영업이익 5천278억원으로 예상되며 클라우드 부문 역시 공공·금융 영역에서의 AI 확산과 함께 안정적인 성장세를 이어갈 것으로 보인다. 특히 네이버클라우드가 정부에서 추진하는 '독자 AI 파운데이션 모델' 개발 사업의 정예 개발팀으로 선정돼 초거대 AI 모델 원천기술 확보에 나선 점과 GPU 확보 사업을 통해 엔비디아 H200 GPU 3천 장을 확보한 점 등이 주목된다. 또 올해 한국은행과의 하이퍼클로바X 기반 계약, 부산시와의 공공 AI 협력 등을 통해 '소버린 AI' 전략 실현에 박차를 가하고 있다. KT클라우드는 AI 수요에 대응해 그룹 실적을 견인하는 주요 사업군으로 부상 중이다. 1분기 2천491억원의 매출을 기록하며 전년 대비 42.2% 성장했고 2분기에도 자사 데이터센터 가동률 90%를 넘기며 실적 개선 흐름을 이어갈 전망이다. B2B 중심의 클라우드 수요 확대, 글로벌 고객사 대상 데이터센터 운영 수익 증가, 고부가가치 GPU 클라우드 수요 증가 등이 복합 작용할 것이라는 게 증권 업계의 관측이다. 특히 KT클라우드는 최근 국정원 '상 등급' 보안 검증을 통과하면서 민감정보를 다루는 공공 시스템에 대한 진출 기반도 확보했다. 여기에 경북 예천에 AI 클라우드 데이터센터를 준공하고, 오픈스택·쿠버네티스를 기반으로 한 멀티클라우드 서비스를 본격화하는 등 인프라 확장에 박차를 가하고 있다. 증권가에서는 KT의 2분기 연결 매출이 7조2천506억원, 영업이익은 9천48억원에 이를 것으로 전망하고 있으며 KT클라우드를 포함한 기술 부문 역시 견조한 성장세를 이어갈 것으로 전망 중이다. NHN클라우드는 2분기 공공 수주와 GPU 인프라 확보에서 뚜렷한 존재감을 보였다. 지난 1분기 클라우드와 서비스형 소프트웨어(SaaS) 등 기술 부문 매출은 전년 대비 11.0% 증가한 1천56억원이었다. 2분기에는 정부의 GPU 확보 사업에서 단일 기업 기준 최다인 7천656장을 수주하며 눈길을 끌었다. 특히 이 중 4천 장을 단일 수냉식 클러스터로 구성해 운영할 계획으로, 이는 NHN의 기술적 안정성과 효율성을 부각시키는 대목이다. 또 클라우드 네이티브 전환 사업에서도 올해 7개 기관 중 5곳의 인프라 공급사로 선정되며 보안성과 신뢰성을 앞세워 공공 클라우드 시장에서 입지를 강화했다. 업계 관계자는 "국내 클라우드 3사는 단순한 인프라 제공을 넘어 AI·데이터·GPU·보안 등 고부가가치 분야로 빠르게 사업 포트폴리오를 확대하고 있다"며 "정부의 AI 인프라 투자가 본격화되고 공공·금융권 수요도 증가하는 흐름인 만큼 하반기에도 각 사의 전략 실행력에 따라 성과 차별화가 이뤄질 것"이라고 설명했다.

2025.08.07 10:40한정호 기자

"AI 인프라도 맞춤형 시대"…KQC, 고객이 진짜 원하는 것 전달

"인공지능(AI)의 시대는 이미 왔습니다. 하지만 이 시대에 필요한 연산 환경을 제대로 갖춘 기업은 많지 않습니다. 고객이 진짜 원하는 게 무엇인지 알고 있는 저희가 각 기업에 최적화된 인프라를 제공해 AI의 발전을 지원하겠습니다." 5일 한국퀀텀컴퓨팅(KQC)의 김창회 전무는 인공지능(AI) 시대의 컴퓨팅 인프라 요구에 대응하기 위해 자체 구축한 'AI 특화 GPU 팜'을 소개하며, 다양한 고객층을 위한 고성능·전용형 연산 환경과 미래 양자컴퓨팅 연계를 아우르는 전략을 밝혔다. 생성형 AI 시대, 기업에 최적화된 '고성능 GPU 팜' KQC는 최근 급속히 성장하고 있는 생성형 AI, 초거대 언어모델(LLM), AI 코파일럿, 멀티모달 AI 등 차세대 인공지능 응용 분야의 수요에 대응해, 국내 기업과 기관들이 클라우드를 통해 유연하게 고성능 컴퓨팅 자원을 활용할 수 있도록 'AI 특화 GPU 팜'을 구축했다. 인천 부평에 위치한 디지털엣지 데이터센터에 마련된 GPU 팜은 엔비디아의 H200 SXM 타입 GPU를 기반으로 구성됐다. H200 SXM은 기존 PCIe 방식 대비 10~20% 이상 향상된 연산 성능을 제공하며, 고발열 환경에서도 안정적인 처리를 보장하는 것이 강점이다. 여기에 인피니밴드 400Gbps의 초고속 네트워크와 전면 플래시 디스크 기반 스토리지를 결합해, GPU부터 네트워크, 저장장치까지 병목 없는 일관된 고성능 환경을 구현했다. 특히 메모리 사용량이 큰 최신 AI 워크로드의 특성을 고려해 최첨단 인프라를 구성하고, 탄력적인 서비스 모델을 결합함으로써 고비용 장비에 대한 직접 투자 없이도 누구나 고성능 AI 연산 환경에 접근할 수 있도록 했다. 김창회 전무는 "우리는 단순히 GPU만 제공하는 회사가 아니라 AI 시대 고객이 진짜 필요로 하는 것을 알고 있고 그에 맞춰 최적의 연산 환경을 제공한다"라며 "연구자나 스타트업이 수많은 실험을 반복하려면 결국 '속도'가 생명인 만큼 이에 최적화된 인프라 환경을 구축했다"라고 강조했다. AI 기업 맞춤형 전용 인프라 전략 AI 산업이 고도화될수록 기업이 독자적으로 필요한 인프라를 모두 확보해 경쟁력을 갖추기란 점점 더 어려워지고 있다. 이에 한국퀀텀컴퓨팅(KQC)은 GPU, 네트워크, 스토리지, 소프트웨어 환경까지 종합적으로 설계된 '하나의 플랫폼'을 통해, 고객에게 최적의 연산 기반을 제공하는 것을 목표로 한다. 김창회 전무는 "AI 연산은 GPU만으로는 부족하며, 네트워크와 스토리지까지 동일한 수준으로 구성돼야 병목 없이 안정적인 처리가 가능하다"라며 "우리는 그 밸런스를 매우 정교하게 구현했다"고 강점을 내세웠다. 이러한 이유로 KQC의 GPU 팜은 공유형이 아닌 '전용형(Dedicated)'으로 운영된다. 기본 제공 단위는 8GPU 묶음이며 고객별로 고정된 자원을 독립적으로 할당받을 수 있다. 덕분에 다른 사용자와의 자원 충돌이나 성능 저하 없이 안정적인 연산 환경을 유지 가능하다. 과금 체계 또한 월 단위로 설계돼, 예산 계획이 중요한 기업이나 연구기관 입장에서 예측 가능한 방식으로 서비스를 활용할 수 있도록 했다. 김 전무는 "AI를 활용하는 기업이라면 클라우드에서 GPU 성능이 떨어지는 경험을 해봤을 것"이라며 "대부분 다른 사용자와 인프라를 공유하기 때문으로 우리는 그런 일이 없도록 고객마다 고정된 리소스를 보장한다"라고 설명했다. 이어 "어떤 기업은 GPU를 대량으로 필요로 하고 다른 기업은 네트워크 속도가 중요하다"며 "고객마다 요구가 다르기 때문에 우리는 파트너사들과 협력해 다양한 선택지를 제공하는 '카탈로그 기반 서비스'를 준비하고 있다"라고 덧붙였다. 이처럼 유연한 구조를 기반으로 KQC는 AI 스타트업부터 대기업 연구개발(R&D) 조직까지 폭넓은 고객층을 아우르고 있다. 스타트업의 경우 빠른 테스트와 반복 실험이 가능하도록 초기에는 쿠폰 등의 형태로 부담 없는 체험 기회를 제공한다. 대기업에는 전용 자원 기반의 보안성과 확장성이 높은 인프라를 통해, 대규모 모델 학습과 데이터 처리 수요에 효과적으로 대응하고 있다. 그는 "특히 스타트업에게 가장 필요한 건 빠른 테스트 환경인 만큼 초반에는 부담 없이 사용해볼 수 있도록 쿠폰 형태의 체험 환경을 제공하려 한다"며 "이를 통해 우리의 인프라가 얼마나 빠르고 안정적인지 직접 경험할 수 있게 할 계획"이라고 설명했다. 이어 "우리는 단순히 자원을 임대하는 회사가 아니다"라며 "고객이 해결하고자 하는 문제에 함께 접근하고, 그에 맞는 기술 파트너가 되는 것이 목표"라고 포부를 밝혔다. 이러한 전략 실행력을 확보하기 위해, KQC는 아이티센그룹과 전략적 파트너십을 체결하고 국내 AI 및 양자컴퓨팅 인프라 시장의 공동 생태계 구축에 나섰다. 아이티센그룹의 클라우드 전문 계열사 '아이티센클로잇'이 KQC의 GPU 팜 운영을 총괄하며 클라우드 관리 서비스(MSP) 역량을 바탕으로 서비스형 GPU(GPUaaS) 사업을 전국적으로 확산하는 역할을 맡고 있다. IT 솔루션 자회사 '씨플랫폼'도 참여해 파트너 네트워크와의 협력을 통해 서비스 보급 확대에 기여하고 있다. KQC는 공공, 교육, 국가 연구소 등 다양한 고객군을 위한 맞춤형 패키지와 기술 지원 체계도 마련했다. 전국 어디서나 동일한 품질의 GPUaaS를 제공할 수 있도록 설계돼 있으며, 대규모 프로젝트나 기관별 특수 요구에도 신속하게 대응할 수 있는 확장성도 갖췄다. 또한 최신 AI 소프트웨어 환경도 함께 제공한다. KQC는 엔비디아 AI 엔터프라이즈 스택을 기본으로 탑재하고 있으며, 자동화된 인프라 관리 도구와 실시간 모니터링 시스템을 통해 운영의 안정성과 효율성을 극대화하고 있다. AI 기반으로 확장하는 양자컴퓨팅 생태계 준비 KQC는 GPU 팜 인프라를 기반으로 인공지능(AI)을 넘어 양자컴퓨팅 시장까지 준비할 계획이다. 양자컴퓨팅은 아직 초기 단계의 기술이지만 AI와 결합할 경우 그 잠재력이 더욱 크게 확대될 수 있기 때문이다. 김창회 전무는 "양자는 지금 당장 대중적이지 않지만 AI를 활용한 시뮬레이션, 최적화, 약물 설계 같은 분야에서는 이미 상당한 잠재 수요가 존재한다"라며 "이미 AI 스타트업들이 양자 기술을 간접적으로 경험할 수 있도록 돕는 구조를 마련하고 있다"라고 설명했다. KQC는 양자컴퓨팅과 AI를 연계한 하이브리드 컴퓨팅 모델 개발에 착수했으며 양자컴퓨팅 시뮬레이션 환경은 물론, 양자컴퓨팅 소프트웨어 개발을 위한 교육 서비스도 함께 제공할 예정이다. 김 전무는 "수년 내 양자컴퓨팅 인프라가 상용화된다면, 국내에서도 이를 활용해 소프트웨어를 만들 수 있는 기업과 인력이 반드시 존재해야 한다"라며 "저희는 그 토양을 만드는 것을 목표로 생태계를 단계적으로 구축해 나가고자 한다"라고 밝혔다.

2025.08.05 15:52남혁우 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[유미's 픽] AI가 들러리인가…하정우·임문영 두 축 선거판으로

오락가락 트럼프, 호르무즈 '프로젝트 프리덤' 일시 중단

기계체조하는 아틀라스 첫 공개..."사람보다 유연해"

'어닝쇼크' 쿠팡, 회복 자신..."물류·공급망 투자 지속"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.