• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
APEC2025
국감2025
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (308건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI, '엔비디아 그늘' 벗어날까…브로드컴 손잡고 AI 반도체 '독립 선언'

오픈AI가 엔비디아 의존도 탈피를 목표로 자체 인공지능(AI) 칩 생태계 구축에 전격 나섰다. 7일 파이낸셜타임스(FT) 등 외신에 따르면 오픈AI는 미국 반도체 기업 브로드컴과 손잡고 내년부터 자체 설계한 AI 칩을 출하한다. 이번 협력을 통해 혹 탄 브로드컴 최고경영자(CEO)가 언급했던 100억 달러(한화 약 13조7천억원) 규모의 '미스터리 고객'이 오픈AI였음이 확인됐다. 이 소식에 브로드컴 주가는 9.4% 급등해 시가총액 1조6천억 달러(한화 약 2천200조원)를 돌파했다. 오픈AI의 행보는 구글, 아마존, 메타 등 빅테크 경쟁사들의 전략을 뒤따르는 것이다. 이들 역시 AI 모델 훈련과 서비스 운영을 위해 맞춤형 반도체 개발에 막대한 투자를 이어오고 있다. 이는 현재 AI 칩 시장을 장악한 엔비디아의 독주 체제에 균열을 일으킬 중대 변수로 꼽힌다. HSBC 등 시장 분석가들은 내년년부터 브로드컴의 맞춤형 칩 사업 성장률이 엔비디아를 넘어설 수 있다고 전망했다. 오픈AI는 개발 중인 차세대 모델 'GPT-5' 등 기하급수적으로 늘어나는 연산 수요를 감당하기 위해 컴퓨팅 파워 확보에 사활을 걸어왔다. 샘 알트먼 CEO는 향후 5개월 내 컴퓨팅 설비를 두 배로 늘리겠다고 공언한 바 있다. 오픈AI는 생산된 칩을 외부에 판매하지 않고 내부 서비스 운영에만 투입할 계획이다. 혹 탄 브로드컴 CEO는 "(오픈AI와의 계약이) 즉각적이고 상당히 큰 수요를 가져왔다"며 "내년부터 해당 고객을 위한 칩을 매우 강력하게 출하할 것"이라고 밝혔다.

2025.09.07 06:00조이환

정부, 'AI 특화 파운데이션 모델' 개발 본격화…다음달까지 공모

정부가 기존 '독자 인공지능(AI) 파운데이션 모델 프로젝트'와 병행해 국가 강점 분야를 겨냥한 '특화 파운데이션 모델' 개발이라는 투트랙 전략으로 글로벌 시장 선점에 나선다. 과학기술정보통신부(과기정통부)는 정보통신산업진흥원(NIPA)과 함께 'AI 특화 파운데이션 모델 프로젝트'에 참여할 팀을 공모한다고 5일 밝혔다. 접수는 다음달 13일까지 진행해 평가를 통해 총 2개 팀을 선정한다. 선정된 팀에는 최신 그래픽처리장치(GPU)인 엔비디아 'B200'을 팀당 256장(32노드)씩 총 512장 규모로 지원한다. 지원 기간은 오는 11월부터 내년 9월까지다. 1단계에 5개월 간 지원한 후 단계평가를 거쳐 2단계 지원 여부를 결정한다. 이번 사업은 범용 모델을 개발하는 '독자 AI 파운데이션 모델 프로젝트'와는 별개로 추진된다. 특정 전문 분야에서 우리나라가 가진 강점을 AI 기술과 결합해 독자적인 특화 모델과 서비스를 확보하는 것이 목표다. 특히 이번 프로젝트는 개발된 모델을 오픈소스로 공개해 국내 AI 생태계 전반의 기술력을 끌어올리는 것을 지향한다. 정부는 모델의 오픈소스 공개 수준에 따라 참여 기업의 사업비 부담을 다르게 적용해 적극적인 개방을 유도할 방침이다. 이 프로젝트에는 국내 AI 기업과 대학 연구기관 등이 단독 또는 컨소시엄을 구성해 참여할 수 있으며 참여팀이 적용 분야와 개발 방법론 등을 주도적으로 제시해야 한다. 대학은 반드시 주관이나 참여기관으로 참여해야 하고 대기업은 주관사가 아닌 참여사로만 함께할 수 있다. 해외 기업 역시 모델 개발이 아닌 글로벌 서비스 개발에 한해서만 참여가 가능하다. 평가는 ▲기술력 및 개발경험 ▲개발 목표 ▲시장성 및 파급효과 등 세 가지 기준을 중심으로 이뤄진다. 평가위원회는 참여팀이 제시한 목표 달성 여부와 성과의 혁신성을 5개월 단위로 점검해 후속 지원을 결정할 방침이다. 프로젝트에 사용될 GPU는 엘리스그룹이 공급한다. 수냉식 냉각 기술이 적용된 이동식 모듈형 데이터센터를 통해 제공돼 에너지 효율을 높이고 안정적인 운영을 지원한다. 최종 평가에서 우수한 성과를 낸 과제는 정부가 구매한 GPU를 추가로 지원받아 후속 모델 개발을 이어갈 수 있다. 과기정통부는 오는 15일 서울 엘타워에서 사업설명회를 열어 구체적인 내용을 안내할 계획이다. 배경훈 과학기술정보통신부 장관은 "'독자 AI 파운데이션 모델' 프로젝트와 병행해 글로벌 시장에서 경쟁력을 갖춘 특화 파운데이션 모델 확보하는 것은 국가 AI 생태계 확장 측면에서 굉장히 중요하다"며 "이번 프로젝트를 통해 AI 기술역량과 노하우가 교류되는 산·학·연 협력체계가 한층 강화돼 국내 생태계가 활성화되길 기대한다"고 밝혔다.

2025.09.05 16:01조이환

스마일서브, 엔비디아·AMD 아우른 '올라마' 기반 GPU 클라우드 출시

스마일서브가 인공지능(AI) 서비스 개발 기업을 겨냥해 '올라마(Ollama)' 프레임워크 기반의 솔루션을 새롭게 선보인다. 스마일서브는 대규모 언어 모델(LLM) 구축에 최적화된 그래픽처리장치(GPU) 클라우드 및 서버 호스팅 상품을 출시했다고 1일 밝혔다. 이번 상품은 올라마 프레임워크 기반으로 AMD와 엔비디아 GPU를 혼합해 다양한 선택지를 제공하는 것이 특징이다. 올라마는 GPU·신경망처리장치(NPU) 호환성이 넓어 가성비 높은 LLM 모델 구축 환경을 원하는 개발자와 서비스 기업 사이에서 각광받고 있다. 올해 초 저가형 게임용 GPU에서도 LLM 서비스 운용이 가능하다는 점이 알려지면서 엔비디아 주가에 일시적 영향을 줄 정도로 주목을 받은 바 있다. 스마일서브는 AMD 라이젠 CPU 내장 GPU, 라데온 RX 9600 XT, W6800 프로 GPU 등을 자사 '클라우드브이' 서버 호스팅 서비스에 적용했다. 기존 엔비디아 중급 GPU 라인업은 올라마 전용 구성으로 리뉴얼해 새롭게 선보일 계획이다. 스마일서브는 데이터센터에서 활용도가 낮았던 내장 GPU도 올라마를 통해 LLM 서비스에 적용할 수 있게 됐으며 이를 활용해 8GB VRAM 환경을 지원하는 신규 서버 호스팅 상품을 출시했다. 스마일서브 이유미 대리는 "8GB VRAM 환경에서도 젬마 3 4B 모델을 포함한 중소형 LLM 모델 설치가 가능하다"며 "내장 GPU만으로 업무 자동화나 간단한 챗봇 운영이 가능해졌다"고 말했다. 이어 "DDR5 기반 라이젠 PC와 노트북 내장 GPU에서도 설치가 가능해 저비용 개발 환경을 원하는 이용자라면 자사 블로그 가이드를 참고해 직접 구현할 수 있다"고 덧붙였다. 새롭게 추가된 라데온 GPU도 눈에 띈다. 지난 6월 출시된 RX 9060 XT는 가성비 최강으로 평가받는 제품으로, 16GB VRAM을 탑재해 젬마 3 12B 등 중대형 모델도 안정적으로 지원한다. 함께 출시된 라데온 프로 W6800은 32GB VRAM을 갖춰 젬마 3 27B 같은 초대형 모델도 무리 없이 운영할 수 있다. 스마일서브는 이 GPU 기반으로 자사 챗봇을 개발 중이며 응답 정확도를 90% 수준까지 끌어올린 상태다. 정식 서비스는 이달 중 출시될 예정이다. 엔비디아 중급 GPU 라인업도 올라마 특화 GPU 클라우드 서비스 '아이윈브이'에서 새롭게 전면 배치된다. 이 라인업은 최소 16GB VRAM부터 최대 96GB까지 지원하는 다양한 GPU로 구성됐다. 특히 GDDR7 VRAM을 탑재한 제품군을 중심으로 LLM 운영에서 발생할 수 있는 메모리 부족 문제를 해결하는 데 초점을 맞췄다. 스마일서브는 장기 이용자 대상 1년 약정 시 정가 대비 50% 할인 혜택을 제공하는 프로모션도 준비 중이다. 스마일서브 관계자는 "GPU 호스팅 상품은 GPU 가격뿐 아니라 서버·전력·공간·회선 등 다양한 요소가 단가에 영향을 주기에 가격을 낮추기 쉽지 않지만, 신규 론칭 단계에서 최대한 비용을 억제하고 가성비를 확보했다"고 밝혔다.

2025.09.01 17:55한정호

정부, '특화 AI' 사업자 선정 9월 초 '윤곽'…GPU 지원 2차 기회 열린다

정부가 추진하는 '특화 인공지능(AI)' 모델 육성 사업이 이달 초 본격적인 사업자 선정 절차에 돌입할 전망이다. '독자 AI 파운데이션 모델' 프로젝트에 이은 후속 지원책으로, AI 기술 경쟁의 핵심 자원인 그래픽처리장치(GPU)를 확보할 '제2의 기회'가 열리면서 업계의 이목이 쏠린다. 1일 업계에 따르면 과학기술정보통신부는 이달 초 '(가칭)인공지능 특화모델 프로젝트' 참여팀 공모를 시작할 예정이다. 당초 지난달 말 공고가 예상됐으나 정부의 내부 조율을 거쳐 9월 초로 구체화돼 가는 것으로 전해졌다. 이번 사업은 범용 거대언어모델(LLM)과 달리 특정 산업 분야에 최적화된 AI를 육성하는 데 초점을 맞춘다. 의료, 제조 등 전문 분야에서 즉각적인 성과를 낼 수 있는 특화 모델을 확보해 글로벌 시장을 선점한다는 복안이다. 이를 위해 정부는 엘리스그룹으로부터 추가 확보한 엔비디아의 최신 GPU 'B200' 512장을 지원한다. 앞서 '독자 AI 파운데이션 모델' 프로젝트 사업자로 최종 선정된 ▲네이버클라우드 ▲업스테이지 ▲SK텔레콤 ▲NC AI ▲LG AI연구원 등 5개 팀 외 기업들에게는 기술 개발에 필수적인 컴퓨팅 자원을 확보할 절호의 기회다. 이 때문에 이번 공모는 '독자 AI' 사업에 선정되지 못했거나 막대한 GPU 자원 확보에 어려움을 겪던 AI 기업들의 지원책으로 여겨지며 높은 관심을 받아왔다. 과기정통부 관계자는 이와 관련해 "현재 부처 내에서 공개 시점을 내부 조율하고 있다"며 "9월 초반 정도에는 정해질 듯하다"고 말했다.

2025.09.01 10:32조이환

서버용 AI칩, 향후 5년간 성장세 견조…"370兆 규모 성장"

글로벌 빅테크의 AI 인프라 투자가 지속됨에 따라, 관련 시스템반도체 시장도 향후 5년간 견조한 성장세를 기록할 전망이다. 30일 시장조사업체 옴디아에 따르면 AI 데이터센터용 프로세서 시장은 오는 2030년 2천860억 달러(한화 약 370조원)에 도달할 것으로 분석된다. 현재 AI용 시스템반도체 시장은 미국 엔비디아가 주도하고 있다. 이 회사는 오랜 시간 쌓아올린 GPU 기술력을 토대로, AI 데이터센터에 최적화된 고성능 AI 가속기를 개발하고 있다. 엔비디아의 주요 경쟁사인 AMD 역시 AI 가속기 시장 확대에 열을 올리고 있다. 아울러 글로벌 CSP(클라우드서비스제공자) 기업들은 AI 데이터센터를 위한 자체 주문형반도체(ASIC) 개발에 뛰어들고 있다. 구글의 TPU(텐서처리장치) '아이언우드', AWS(아마존웹서비스)의 '트레이니엄', 화웨이 '어센드(Ascend)' 등이 대표적인 사례다. 이에 따라 GPU 및 AI 가속기 시장 규모는 지난해 1천230억 달러에서 올해 2천70억 달러로 약 67% 성장할 전망이다. 나아가 오는 2030년에는 2천860억 달러에 도달할 것으로 예상된다. 카운터포인트리서치는 "데이터 센터향 투자에서 AI 인프라 지출이 차지하는 비중은 내년 정점을 찍고 이후 점차 완화될 것"이라며 "주된 성장 요인은 AI 애플리케이션 확산과 추론 모델에 대한 수요 증가 등"이라고 설명했다. 젠슨 황 엔비디아 CEO 역시 최근 진행된 실적발표에서 "AI 가속기에 대한 CSP 기업들의 단기, 중기 수요는 모두 강력하다"며 "2030년까지 3조~4조 달러 규모의 AI 인프라 투자가 진행될 전망"이라고 밝힌 바 있다.

2025.08.30 14:02장경윤

[현장] 'AI 고속도로' 시동…정부, GPU 3.5~3.7만장 조기 확보 선언

과학기술정보통신부가 인공지능(AI) 경쟁력을 좌우할 첨단 그래픽처리장치(GPU) 확보를 오는 2030년 목표보다 앞당겨 추진한다. AI 골든타임 얼마 안 남은 가운데 정부가 마중물 역할을 맡아 민간이 재투자와 생태계 활성화에 나서야 한다는 점을 강조하며 경고했다. 과기정통부는 29일 카카오 데이터센터 안산에서 정보통신산업진흥원(NIPA), 카카오, NHN클라우드, 네이버클라우드와 함께 'AI 고속도로 협약식 및 간담회'를 열고 GPU 인프라 확대와 데이터센터 규제 개선 방안을 논의했다. 현장에서는 정부와 3개 클라우드사 간 GPU 공급이 이날부터 본격 시작됐다는 점이 확인됐다. 배 장관은 올해 1만3천장, 내년 1만5천장 GPU를 확보하고 슈퍼컴퓨터 도입분까지 합쳐 총 3만5천~3만7천장을 마련하겠다고 말했다. 당초 매년 5천장씩 균등 확보하던 계획을 대폭 앞당긴 셈이다. 그는 미·중 경쟁 구도 속에서 2~3년 내 승부를 봐야 한다는 인식을 밝히며 올해와 내년에 대규모로 확보해 기업과 학계가 조기에 연구개발과 서비스를 만들어낼 수 있도록 하겠다고 했다. 이번 협약식은 단순한 선언을 넘어 GPU 조기 공급의 출발점이라는 의미도 크다. 정부는 클라우드 3사에 1만3천장을 배분하기 시작해 오는 12월에는 중소기업·스타트업을 대상으로도 지원을 연다. 배 장관은 규제 개선의 필요성도 언급했다. 그는 현재 건축법·소방법 등 파편화된 규제로 데이터센터가 종합시설임에도 불구하고 불명확한 부분이 많다며 이를 묶어 해결할 수 있는 특별법 제정을 준비 중이라고 말했다. 특구 지정에 대해서는 지역 안배와 거점 배치로 접근하겠다는 방안이다. 지역별 AX 프로젝트, SPC 사업과 연계해 클러스터형 허브를 구축하는 방안을 고려하고 있는 것이다. 토론회에서 업계는 GPU 사업의 수익성 문제를 제기했다. 업계는 초기 정부 지원이 상수는 아니라는 점을 지적했고 3년 내 자체 경쟁력을 갖추지 못하면 시장 전체가 흔들릴 수 있다며 클라우드사들이 AI 인프라 기반 수익 모델을 마련해야 한다는 의견을 제시했다. 네이버클라우드 김유원 대표는 정부의 GPU 투자가 기업 투자를 자극해 성공적으로 작동했다며 장기적으로는 AI가 산업 전반에 부가가치를 만들어야 진정한 생태계가 형성될 것이라고 평가했다. 김동훈 NHN클라우드 대표는 정부가 인프라 기회를 많이 열어준 것은 감사하다면서도 클라우드 사업자들도 자체 기술 혁신 속도를 높이지 않으면 글로벌 경쟁에서 밀릴 수 있다고 지적했다. 카카오 김세웅 부사장은 GPU 클러스터링 경험을 공유했다. 그는 2천장 이상을 묶어 효율 75~80%까지 끌어올렸고 R&D를 통해 5%만 개선해도 수백장 효과를 낼 수 있다는 점을 강조했다. 배 장관은 "정부가 마중물 역할에 그치지 않고 AI 전환의 토대를 마련하겠다"며 "민간이 수익성과 지속 가능성을 고민해 함께 생태계를 완성해달라"고 당부했다. 이어 "정부와 민간이 함께 한국 AI 시장 생태계를 만들어야 하며 시간이 많지 않은 만큼 반드시 조기 경쟁력을 확보해야 한다"고 강조했다.

2025.08.29 17:23조이환

[현장] 배경훈 장관 "GPU 5만장 확보 서두른다…AI 인프라 시장, 정부가 마중물"

배경훈 과학기술정보통신부 장관이 인공지능(AI) 연구와 산업 혁신을 뒷받침할 컴퓨팅 자원을 대규모로 확충하겠다는 의지를 밝혔다. 오는 2030년까지 추진하던 그래픽처리장치(GPU) 확보 계획을 앞당겨 정부가 마중물 역할을 하고 민간은 재투자와 생태계 활성화에 나서 달라는 당부다. 과학기술정보통신부는 29일 카카오 안산 데이터센터에서 'AI 고속도로 현장 간담회'를 개최했다. 배 장관은 이날 모두발언에서 올해 GPU 1만3천장, 내년 1만5천장 확보를 시작으로 오는 2030년까지 총 5만장을 마련할 계획이라고 밝혔다. 간담회에는 카카오·NHN·네이버클라우드 등 주요 클라우드 기업과 정보통신산업진흥원(NIPA) 관계자들이 참석했다. 배 장관은 GPU 수급난으로 학계와 기업이 어려움을 겪는 현실을 언급하며 정부가 먼저 연구개발과 서비스 혁신을 위한 기반을 마련하겠다고 했다. 그는 "학계가 마음껏 GPU를 쓰고 기업이 저렴한 비용으로 인프라를 활용할 수 있어야 한다"며 "결국 시장이 형성돼야 기업의 재투자가 이어질 수 있다"고 강조했다. 그는 또 미국산 GPU 의존도가 높지만 국내 신경망처리장치(NPU) 성능과 가격 경쟁력이 빠르게 개선되고 있다며 클라우드 사업자들에게 국내 칩 도입을 적극 검토해달라고 요청했다. 이를 통해 국산 반도체의 시장 기회를 확대하고 AI 인프라 자립 기반을 강화하겠다는 구상이다. 이번 간담회는 정부가 'AI 고속도로' 조기 구축 의지를 확인하고 내년도 GPU 확보 이행 상황과 지속가능한 데이터센터(AIDC) 모델을 점검하기 위해 마련됐다. 배 장관은 "정부가 먼저 마중물이 돼 연구개발과 서비스 환경을 마련하겠다"며 "민간이 재투자와 시장 생태계 활성화에 적극 나서 달라"고 당부했다.

2025.08.29 16:55조이환

글로벌 AI 추론 시장 급성장…한국 NPU 기업, 기회 잡을까

AI 추론 시장이 확대됨에 따라 글로벌 빅테크들은 GPU(그래픽처리장치) 의존도를 줄이고 있다. 가격이 비싸고, 발열량이 높은 GPU를 대신할 차세대 제품을 찾는 것이다. 대안으로 떠오르고 있는 칩이 AI 추론에 특화된 NPU(신경망처리장치)다. AI 연산에 특화된 구조가 낮은 전력으로도 높은 효율을 구사할 수 있게 만들어졌다. 대표적인 글로벌 기업이 미국 쌈바노바(SambaNova)와 그로크(Groq)다. 이들 기업은 이미 독자 생태계를 앞세워 시장 내 입지를 쌓아가고 있다. 이 같은 상황에 국내 업체인 리벨리온과 퓨리오사AI가 본격적으로 도전장을 내밀며 글로벌 NPU 기술 경쟁이 가속화되는 양상이다. AI 추론 시장 성장세...NPU 시장 전망 긍정적 28일 업계에 따르면 글로벌 AI 추론 시장은 가파르게 성장할 전망이다. 시장조사업체 마케츠앤마케츠는 추론 시장이 올해 약 106억달러(약 14조7천976억원)를 기록한 뒤, 오는 2030년 약 255억달러(약 35조5천980억원)까지 성장할 것으로 내다봤다. 연평균 약 19%에 달하는 성장률이다. 이에 따라 추론형 NPU 시장도 동반 성장할 것으로 점쳐진다. 다양한 AI 애플리케이션이 더 많은 추론 처리량, 낮은 지연, 높은 에너지 효율을 요구하며, 이를 가장 잘 대응할 수 있는 것이 추론형 NPU이기 때문이다. 삼일PwC경영연구원은 보고서를 통해 “AI에 사용되는 반도체 중 CPU, GPU 시장은 이미 기술 성숙 단계 진입했으며, 최적화된 저전력·고효율 ASIC(주문형반도체) 중심의 추론형 AI 반도체(NPU) 시장이 성장 중”이라고 분석했다. 美 쌈바노바·그로크, 자체 시장 구축 중 특히 NPU 시장에서 두각을 드러내는 업체는 쌈바노바와 그로크다. 양사 모두 미국의 스타트업이다. 먼저 쌈바노바는 데이터플로우 아키텍처 기반의 NPU와 자체 소프트웨어를 통합 제공하며 초대형 언어모델(LLM) 훈련과 추론을 아우른다. 고객에게 하드웨어뿐 아니라 모델·플랫폼까지 묶어 공급하는 방식으로 미국 정부, 금융기관 등 대형 고객을 확보했다. 업계 안팎에서는 자체적인 생태계를 구축했다는 점을 특징으로 지목한다. 그로크는 추론에 극단적으로 특화된 칩을 양산한다. 자체 칩과 소프트웨어를 통해 수백만 토큰 단위의 실시간 추론 속도를 구현하며, 클라우드 기반 'LLM 서빙 서비스'를 사업 모델로 삼았다. 대규모 데이터센터에서 고속 검색·RAG(검색증강생성) 서비스에 적합하다는 평가다. 하드웨어 판매보다 클라우드 추론 서비스로 수익을 내고 있다. 韓 AI반도체 도약 조건은 효율성·맞춤형 시장 공략...리벨리온, 리벨쿼드 공개 업계 안팎에서는 국내 AI 반도체 기업들이 글로벌 경쟁에서 승부를 내려면 두 가지 전략에 집중해야 한다고 보고 있다. 첫째, 전력 효율성에서 확실한 우위를 확보해야 한다는 점이다. 데이터센터의 전력 소비와 운영비용이 AI 확산의 최대 걸림돌로 떠오르는 상황에서, 효율이 곧 경쟁력으로 직결된다는 주장이다. 둘째, 맞춤형 시장 공략이다. 엔비디아처럼 범용 GPU로 모든 영역을 장악하기는 현실적으로 어렵다. 대신 통신사, 공공기관, 금융, 국방 등 특정 산업에 특화된 '맞춤형 추론형 NPU'로 영역을 넓히는 것이 현실적인 전략이다. 실제로 국내 AI반도체 스타트업인 리벨리온과 퓨리오사AI 모두 저전력·고효율 NPU를 앞세워 데이터센터·통신사·공공기관 등 특화 수요처를 공략하고 있다. 이런 가운데 리벨리온은 현지시간 27일 미국 핫칩스에서 차세대 NPU 리벨 쿼드(Rebel-Quad)를 공개했다. 이 칩은 삼성전자 4nm(나노미터, 10억분의 1m) 공정을 통해 양산되며, 엔비디아 블랙웰 수준의 성능을 자랑한다. 그러면서도 에너지 부담은 획기적으로 줄여준다. 박성현 리벨리온 대표는 “AI 산업은 GPU라는 단일 AI 하드웨어만으로는 감당하기 어려울 정도로 빠르게 커졌다”며, “리벨쿼드는 B200급 플래그십 GPU에 버금가는 성능을 유지하면서도 에너지 부담을 획기적으로 줄일 수 있는 지속가능한 AI시대의 대안으로, 리벨리온은 향후 초거대 AI 모델을 누구나 더 쉽고 효율적으로 활용할 수 있는 시대를 열어갈 것”이라고 말했다.

2025.08.28 09:14전화평

[유미's 픽] 젠슨 황 만난 최수연, 엔비디아 최신 GPU 확보 속도낼까

최수연 네이버 대표가 한미정상회담 경제사절단 일원으로 참가해 젠슨 황 엔비디아 최고경영자(CEO)를 만난 가운데 국내에서 가장 먼저 최신 그래픽처리장치(GPU)인 B300을 끌어 들여 AI 인프라 경쟁력을 높일지 주목된다. 26일 업계에 따르면 최 대표는 지난 25일(현지시간) 미국 워싱턴DC 윌러드 호텔에서 열린 한미 비즈니스 라운드 테이블에 참석해 황 CEO와 대화를 나눴다. 양측의 대외 공식 회동은 지난 5월 대만에서 만난지 3개월 만이다. 앞서 최 대표는 지난해 6월 말에도 이해진 네이버 이사회 의장과 함께 미국 캘리포니아주 산타클라라 엔비디아 본사에서 황 CEO와 만난 적 있다. 이는 엔비디아의 제안으로 성사된 만남으로, 당시 김유원 네이버클라우드 대표도 함께 만나 '소버린 AI' 모델 구축 방안에 대해 논의했다. 소버린 AI는 데이터센터를 특정 국가 안에 짓고 그 국가의 자체 인프라와 데이터로 구축하는 AI 모델을 뜻한다. 업계에선 AI 반도체 인프라를 공급할 새 시장으로 소버린 AI를 주목하고 있던 엔비디아가 수년 전부터 'AI 주권'을 강조하며 이 시장을 공략해온 네이버와 협업 관계를 더 강화하기 위한 의도라고 분석했다. 황 CEO는 그간 소버린 AI를 여러 차례 강조하며 업체들과의 생태계 조성에 적극 앞장서 왔다. 특히 지난 해 2월 두바이에서 열린 세계정부정상회의(WGS)에선 "데이터와 AI에 대한 국가 소유권을 강조한 소버린 AI가 전 세계 지도자들에게는 엄청난 기회"라며 "모든 국가는 자체적인 AI를 구축·소유할 필요가 있다"고 강조해 눈길을 끌었다. 네이버도 빅테크에 종속되지 않은 소버린 AI를 글로벌 진출 전략으로 내세워 다양한 성과를 거둬왔다. 지난해 3월에는 사우디 아람코와 파트너십을 체결해 중동 지역에 최적화된 소버린 클라우드 및 수퍼앱 구축, 아랍어 중심 소버린 AI 개발에 협력하기로 했다. 올해 5월에는 태국 AI·클라우드 플랫폼 기업 '시암 AI 클라우드'와 태국어 기반 거대언어모델(LLM), 관광 특화 AI 에이전트 공동 개발을 위한 협약을 맺기도 했다. 국내에서도 네이버는 정부의 굵직한 사업에 참여해 AI 인프라 역량을 인정 받고 있다. 네이버클라우드는 최근 정부의 ▲GPU 임차 사업 ▲GPU 확보 사업 모두 사업자로 선정된 상태로, GPU 임차 사업을 통해 엔비디아 H100 GPU 1천24장을 정부에 제공할 예정이다. 또 1조4천600억원 규모 GPU 확보 사업 이행을 위해 함께 사업자로 선정된 NHN클라우드, 카카오엔터프라이즈 등과 함께 실무 협의를 진행하고 있다. 최 대표는 올해 2분기 실적발표 컨퍼런스콜에서 "AI 모델과 클라우드 서비스 역량까지 풀스택으로 확보한 국내 유일 사업자인 만큼 향후 성장률이 높아질 것"이라며 "그동안 자체 기술로 준비해 온 인프라와 AI 생태계가 이제는 글로벌 기회로 확장되고 있다"고 강조했다. 여기에 조만간 정부가 '국가AI컴퓨팅센터 구축 사업'의 공모 조건을 완화해 3차 공모에 나설 예정으로, 네이버클라우드의 참여가 기대되고 있는 상황이다. 국가AI컴퓨팅센터 구축 사업은 정부가 국내 AI 경쟁력 강화를 위해 추진하는 대형 인프라 프로젝트로, 대학·연구소·스타트업 등 국내 AI 생태계 전반에 고성능 컴퓨팅 자원을 안정적으로 제공하기 위해 비수도권에 1엑사플롭스(EF)급 초대형 GPU 인프라를 구축하는 것이 핵심이다. 2030년까지 총 사업 규모는 최대 2조5천억원에 달한다. 이 같은 상황에서 최 대표와 황 CEO의 만남이 네이버클라우드뿐 아니라 향후 우리나라 정부 GPU 관련 사업에서도 유리하게 작용할 지 주목된다. 특히 엔비디아가 현재 주력 AI 칩인 블랙웰(B200)의 개량형 '블랙웰 울트라(B300)' 출시를 올해 3분기로 예고한 가운데 이를 국내에 빠르게 도입할 가교 역할을 할 수 있을지도 기대된다. 현재 국내 기업이나 정부에선 B300 도입 계획을 세우지 못했으나, 영국 네비우스 그룹, 구글 클라우드, 에퀴닉스 등 해외 기업들은 잇따라 관련 계획을 내놓고 있다. 이날 현장에서 양측이 어떤 대화를 나눴는지 공개되지 않았지만, 업계에선 이들이 향후 협력 방안과 AI 시장 동향을 간략히 주고 받았을 것으로 예상됐다. 업계 관계자는 "엔비디아는 GPU에 특화된 개발 플랫폼 '쿠다'를 앞세워 AI 반도체 시장의 압도적인 '원톱'으로 자리 잡은 기업"이라며 "엔비디아가 먼저 네이버에 미팅을 제안하고 만남을 종종 갖는 것은 엔비디아로부터 독립하기 위한 빅테크들의 자체칩 개발, 협업 등 '반(反) 엔비디아' 동맹 움직임 속 우군을 확보하려는 차원"이라고 해석했다. 그러면서 "앞으로는 GPU를 누가 더 빨리, 더 많이, 더 안정적으로 확보하느냐에 따라 국가와 기업의 미래가 결정될 수도 있다"며 "네이버로선 엔비디아와의 협력 강화를 통해 최신 GPU를 빠르게 확보함으로써 자체 클라우드 경쟁력뿐 아니라 국가 AI 인프라 확충에도 많은 기여를 할 수 있을 것으로 보여 앞으로의 역할이 더욱 기대된다"고 덧붙였다.

2025.08.26 18:13장유미

SSD-프로세서 직결 난항…HBF가 돌파구 될까

“SSD(솔리드스테이트드라이브)를 프로세서에 직접 연결하는 기술은 오랜 시간 꾸준히 연구됐습니다. 그러나 실제 적용에는 다소 난항을 겪는 상황입니다.” 26일 한 반도체 업계 관계자는 현재 SSD 연결 기술에 대해 이 같이 평했다. CPU, GPU 등 프로세서와 SSD를 직접 연결하기 어렵다는 것이다. 이 같은 상황이 발생한 가장 큰 이유는 메모리와 스토리지의 역할 차이에서 기인한다. CPU 등 프로세서는 연산을 하기 위해 매우 빠른 데이터 접근이 필요하다. 그래서 접근 속도가 빠른 D램과 직접 연결돼 동작한다. 반면 SSD는 저장장치라서 접근 속도가 D램 대비 다소 느리다. CPU가 SSD를 주 메모리처럼 쓰면 연산 속도가 크게 떨어질 수 밖에 없다. 그럼에도 불구하고 SSD와 프로세서를 직접 연결하려는 이유는 데이터 이동 비용을 절감하기 위해서다. 현재 반도체 구조에서 프로세서가 SSD 데이터를 사용하려면 SSD-낸드플래시 컨트롤러-D램-프로세서 단계를 거쳐야 한다. 반도체가 데이터 이동에서 발열이 발생한다는 점을 고려하면, 에너지 낭비가 심한 셈이다. 대규모 데이터센터에서는 비용 문제와도 직결된다. 이에 글로벌 반도체 기업들은 프로세서와 SSD를 직접 연결하기 위한 연구를 진행 중이다. 대표적인 기업이 엔비디아다. 엔비디아는 IBM, 여러 대학들과 손을 잡고 GPU를 위한 대용량 가속기 메모리 기술 BaM(Big Accelerator Memory)을 개발하기도 했다. BaM은 차세대 전송 프로토콜 NVMe(비휘발성 기억장치 익스프레스)를 통해 SSD와 GPU를 직접 연결하는 기술이다. HBF, SSD 연결 판도 바꿀 게임체인저될까 업계에서는 HBF(High Bandwidth Flash)가 SSD와 프로세서간 연결을 바꿀 게임체인저로 보고 있다. HBF는 D램과 유사한 방식으로 프로세서에 더 가까이 배치된 플래시 메모리다. HBM(고대역폭메모리)이 D램을 적층한 제품이라면, HBF는 플래시를 쌓아 올린 메모리다. 두 제품 모두 메모리 적층을 통해 대역폭을 대폭 넓혔다는 공통점을 갖고 있다. HBF가 HBM처럼 정보 처리를 빠른 속도로 할 수 있는 것이다. SSD와 프로세서 연결간 문제로 지적되던 속도 문제를 해결한 셈이다. 다만, 아직 넘어야할 장애물이 존재한다. HBF를 구현하기 위한 일종의 인프라 구축이 어렵다는 의견이다. HBF를 오가는 블록 스토리지(일종의 데이터 묶음)의 단위가 크기 때문이다. 정명수 카이스트 교수는 “블록 스토리지가 커서 I/O 그래뉴얼리티(한 번의 입출력으로 접근하거나 전송할 수 있는 데이터 블록의 최소 단위)가 기존과 다르다”며 “큰 정보량을 한 번에 움직일 수 있을만한 소프트웨어 등 인프라가 필요하다”고 말했다.

2025.08.26 16:25전화평

"남부 이어 서부도 맡았다"…코난테크, 국내 발전사 생성형 AI 구축 앞장

코난테크놀로지가 국내 발전사 생성형 인공지능(AI) 구축에 나선다. 코난테크놀로지는 지난 18일 한국서부발전의 '생성형 AI 플랫폼 구축 용역' 사업자로 선정됐다고 26일 밝혔다. 사업은 착수일로부터 1년간 진행되며 사업비는 총 37억원 규모다. 서부발전은 업무 자동화와 디지털 혁신을 선도하기 위해 AI 인프라와 현장 밀착형 플랫폼 구축 사업을 본격 추진한다. 이를 위해 생성형 AI 플랫폼 도입에 필요한 전 과정을 통합 발주했다. 또 전 직원이 활용할 수 있는 고성능 생성형 AI 플랫폼과 검색증강생성(RAG) 연동 어시스턴스를 제공할 계획이다. 나아가 서부발전 정보시스템과 연계해 업무 자동화를 지원하는 AI 에이전트를 개발·적용할 예정으로, 이는 발전사 최초의 시도다. 또 모바일 오피스 영역까지 AI 적용 범위를 확대해 조직 전반의 생산성과 효율성을 높여 나갈 방침이다. 코난테크놀로지는 이번 사업에서 H200 그래픽처리장치(GPU) 등 고성능 그래픽카드와 80테라바이트(TB) 전용 스토리지, AI 전용 네트워크 등 첨단 인프라를 구축한다. 더불어 한국어 특화 거대언어모델(LLM)과 자체 미세조정된 경량화거대언어모델(sLLM)을 도입해 내부 데이터와 연동되는 하이브리드 생성형 AI 환경을 제공할 예정이다. 서부발전은 전사 차원의 생성형 AI 플랫폼 도입을 통해 직원들의 AI 활용 역량을 강화하고 조직 전반의 업무 효을 제고를 기대하고 있다. 서부발전 관계자는 "AI는 현재 공공기관에 던져진 가장 중요한 화두"라며 "이번 사업을 계기로 AI 기반 업무 혁신을 본격화 해 나가겠다"고 밝혔다. 코난테크놀로지는 지난해 6월 한국남부발전 '생성형 AI 구축 및 학습용역' 사업에 이어 서부발전 LLM 구축까지 연속 수주함으로써 발전사 대상 생성형 AI 사업에서 확고한 주도권을 확보하게 됐다. 김영섬 코난테크놀로지 대표는 "연이은 수주는 곧 당사 기술에 보내주신 신뢰라 여긴다"며 "발전 분야에서의 AI 수준이 곧 국가 에너지 경쟁력과 직결되는 만큼 사명감을 갖고 임하겠다"고 말했다.

2025.08.26 09:23장유미

1조4천억 GPU 확보사업 본격화…정부-클라우드 3사, 실무협의체 가동

과학기술정보통신부가 1조4천600억원 규모 '그래픽처리장치(GPU) 확보 사업'의 차질 없는 이행을 위해 정보통신산업진흥원(NIPA)·NHN클라우드·카카오·네이버클라우드와 실무협의체를 발족했다. 실무협의체는 21일 양재 엘타워에서 1차 회의를 개최했다. 이번 회의에는 과기정통부 인공지능(AI)기반정책관, NIPA AI인프라본부장, NHN클라우드·카카오·네이버클라우드의 사업 총괄책임자 등이 참석했다. 이들은 ▲사업자별 GPU 확보·구축·운용 계획 ▲애로사항 ▲국내 AI 생태계에 GPU 배분·지원을 위한 가칭 'GPU 통합지원 플랫폼' 구축 계획 등을 폭넓게 논의했다. 또 밀도 있는 점검을 위해 실무협의체를 수시 개최하기로 뜻을 모았다. 특히 1차 회의에서는 사업자별 GPU 확보·구축과 관련해 미국 관세 등의 영향은 크지 않은 상황으로 확인됐으며 향후에도 대내외 리스크 요인 등을 지속 점검·관리해 나가기로 합의했다. 아울러 ▲오는 10월까지 GPU 통합지원 플랫폼 구축 추진 ▲11월까지 국내 산학연 등을 대상으로 1차 GPU 지원 신청 접수 및 전문가 평가 진행 ▲12월부터 GPU 순차 지원 등을 위해 더욱 긴밀히 협력해 나가기로 했다. 과기정통부 김경만 인공지능기반정책관은 "이번 실무협의체는 대한민국 AI 생태계 성장과 이에 필요한 AI컴퓨팅 인프라 지원을 위한 첫걸음"이라며 "앞으로도 실무협의체를 수시 가동해 사업 진행 상황 등을 점검함으로써 차질 없는 국내 AI컴퓨팅 인프라 구축·지원에 최선을 다하겠다"고 밝혔다.

2025.08.21 10:00한정호

정부, AI 연구에 GPU 1천장 푼다…삼성SDS·KT클라우드·엘리스 선정

삼성SDS·KT클라우드·엘리스클라우드가 정부 추경 예산으로 추진되는 '고성능컴퓨팅 지원사업' 공급사로 선정돼 국내 인공지능(AI) 연구 조직에 총 1천장의 그래픽처리장치(GPU)를 지원한다. 18일 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 올해 말까지 AI 연구·개발 연산 인프라를 확대하기 위해 '2025년 추경 고성능컴퓨팅 지원사업'을 추진한다. 사업 공급사로는 삼성SDS·KT클라우드·엘리스클라우드 등 3개사를 선정했다. 기존 사업은 사용자당 H100 GPU 2장 수준을 제공하던 방식과 달리, 올해는 과제 단위로 수백 장 규모 GPU를 묶어 지원하는 것이 특징이다. 이번 사업은 글로벌 초거대 AI 경쟁 속에서 연산 인프라 부족이 국내 연구·개발의 발목을 잡고 있다는 문제의식에서 출발했다. 세계 주요 국가들은 이미 대규모 GPU 자원을 기반으로 초거대 모델을 개발 중이지만, 국내는 민간·공공 연구조직 모두 자원 확보가 어렵다는 지적이 꾸준히 제기돼 왔다. 이에 정부는 민간 클라우드 기업을 통해 연구자들에게 안정적이고 대규모의 GPU 환경을 산학연에 제공하며 국내 AI 산업 경쟁력 강화에 나선다는 목표다. 삼성SDS와 엘리스클라우드는 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급하는 것으로 알려졌다. 지원 대상은 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등으로, GPU 1~4장을 선택할 수 있는 1트랙 사용자와 GPU 8장 이상을 서버 단위로 지원받는 2트랙 사용자로 나뉜다. 엘리스클라우드는 한국정보통신기술협회(TTA)가 추진하는 'AI 챔피언' 대회 참가 연구팀 100곳에 GPU 400장을 공급해 인재 발굴과 연구 지원을 병행할 예정이다. 공급사 선정은 사업계획서 평가, 현장 실사 및 기술 시연, GPU 단가 가격 협상 등 다단계 절차를 거쳐 이뤄졌다. 기술평가 80%와 가격평가 20%를 합산해 총점 70점 이상을 받은 기업을 최종 선정했으며 GPU 보유 현황, 자원 제공 능력, 보안성 등이 주요 평가 항목으로 작용했다. 선정된 공급사들은 다음 달부터 GPU를 본격 제공한다. 사용자는 협약 체결 후 자원 사용계획과 연구성과를 보고해야 하며 ▲공급사는 장애 대응 ▲기술 지원 ▲사용 현황 모니터링 ▲교육 지원 등을 포함한 종합 관리 의무를 지게 된다. 또 협약 종료 후에도 최소 15일간 백업 기간을 제공해야 한다. NIPA는 공모안내서를 통해 "글로벌 경쟁에서 초거대 AI 모델을 개발하기 위해서는 고성능 연산 인프라 확보가 필수지만 국내는 자원 부족으로 연구·개발에 제약이 있었다"며 "민간 클라우드 기업과 협력해 연구자들에게 안정적인 GPU 자원을 공급하는 것이 목표"라고 설명했다.

2025.08.18 14:40한정호

메가존클라우드, AI 챔피언 대회 인프라 사업 수주…정부 AI 인재 육성 사업 주도

메가존클라우드가 '2025년 AI 챔피언 대회'에서 컴퓨팅 자원을 지원할 전망이다. 이를 통해 인공지능(AI) 분야 차세대 인재를 육성하고 연구 성과 창출을 지원하는 정부 주도의 신사업에 참여함으로써 기술력은 물론 사회적 기여 측면에서도 영향력을 확대한다는 계획이다. 14일 나라장터에 따르면 메가존클라우드는 기술평가 점수 83.385점, 가격점수 10점으로 종합점수 93.385점을 받아 해당 사업의 우선협상대상자로 선정됐다. AI 챔피언 대회는 국내 AI 기술 발전과 인재 발굴을 목적으로 기획된 대규모 챌린지형 연구개발(R&D) 프로젝트다. 대학, 연구기관, 기업 등이 자유롭게 구성한 연구팀이 참가하며 1차 서류 심사에서 최대 100개 팀을 선발한 뒤 중간 심사와 본선 대회를 거쳐 최종 우수팀을 선정한다. 우선협상이 마무리될 경우, 메가존클라우드는 대회 참가 연구팀에 고성능 GPU 자원과 함께 오픈AI, 제미나이(Gemini), 클로드(Claude) 등 다양한 생성형 AI API를 제공하게 된다. 특히 엔비디아 H100급 이상 GPU를 포함한 인프라 기반에서 참가팀의 실험과 모델 학습이 원활히 진행될 수 있도록 실시간 자원 할당과 지원 체계를 구축할 예정이다. 또한 대회 운영기관과 협력해 중간 심사 기간에는 최소 170장의 GPU를 동시 제공할 수 있는 인프라 환경도 마련 대규모 병렬 학습 수요에 안정적으로 대응한다는 방침이다. 이번 사업은 정부가 미래 AI 인재 양성을 위해 중점적으로 추진하는 공공 R&D 신사업이라는 점에서 산업계와 학계의 주목을 받고 있다. 단순한 인프라 제공을 넘어 정부·민간·학계가 함께 AI 생태계를 설계하는 실험 무대이자 테스트베드로서 의미가 크다는 평가다. 한국정보통신기술협회는 대회 종료 후 우수 연구팀을 대상으로 후속 연구 지원을 이어가며 대회 전 과정을 방송 콘텐츠로 제작·방영해 대국민 AI 인식 제고와 산업 저변 확대도 함께 추진할 계획이다. 메가존클라우드 역시 이번 수주를 계기로 공공 부문 AI 인프라 운영 경험을 기반으로 교육, 의료, 제조 등 다양한 산업 분야로 생성형 AI 인프라 서비스를 확장할 방침이다. 메가존클라우드 관계자는 "연구팀별 크레딧 이용 현황을 한눈에 볼 수 있는 대시보드를 제공해 자원 낭비 없이 효율적으로 활용할 수 있도록 지원하고 기술지원 포털을 통해 인프라 관련 문의나 장애 발생 시에도 빠르게 대응할 것"이라고 밝혔다.

2025.08.14 16:57남혁우

GPU 기반 추론 워크스테이션 '배틀매트릭스' 힘 주는 인텔

엔비디아·AMD GPU 대비 가격 대비 성능을 극대화한 인텔 AI GPU 워크스테이션 '프로젝트 배틀매트릭스'(Project Battlematrix)가 최근 리눅스용 소프트웨어 정식 버전(1.0)을 공개하고 지속적인 업데이트를 예고했다. 프로젝트 배틀매트릭스는 최대 1만 달러(약 1천383만원) 가격에 1천500억 개 매개변수로 구성된 거대언어모델(LLM)을 처리할 수 있는 AI 추론 특화 워크스테이션이다. 비용 대비 효율을 중시하는 중/소규모 기업과 개발자 대상으로 클라우드 의존도가 높은 현 AI 워크로드 운영 방식을 온프레미스 중심으로 일부 전환할 수 있는 가능성을 제공한다는 점에서 의미가 크다. 5월 아크 프로 GPU 기반 '배틀매트릭스' 공개 프로젝트 배틀매트릭스는 인텔이 지난 5월 워크스테이션 GPU인 아크 프로 B시리즈와 함께 공개한 AI 워크스테이션 플랫폼이다. Xe2 코어 20개와 24GB 메모리를 탑재한 아크 프로 B60 GPU 최대 8개를 결합해 INT8(정수, 8비트) 기준 1,576 TOPS(1초당 1조 번 연산)급 연산 성능을 구현했다. GPU가 활용하는 메모리 용량은 192GB로 1천500억 개 매개변수로 구성된 거대언어모델(LLM)을 구동할 수 있다. 운영체제 구동에는 워크스테이션급 제온 프로세서를 활용하고 운영체제는 리눅스를 활용하다. 가격대는 5천 달러(약 691만원)에서 1만 달러(약 1천383만원)로 AI 추론 인프라에 대한 진입 장벽을 낮추는 것을 목표로 한다. LLM 스케일러 1.0 공개... 추론 속도 최대 4배 향상 인텔은 배틀매트릭스용 소프트웨어 구축에 CPU와 GPU, NPU와 가속기 등 연산 자원을 모두 활용하는 원API(OneAPI)를 활용하고 이를 지속적으로 개선하고 있다. 이달 초순 공개된 LLM 스케일러 1.0 버전은 초기 버전 대비 LLM 처리 속도 향상에 중점을 뒀다. 매개변수 320억 개 규모 모델 기준 처리 속도는 1.8배, 700억 개급 모델 처리 성능은 4.2배 높아졌다. 레이어별 온라인 양자화를 통해 GPU 메모리 요구량을 줄였고, vLLM 기반 파이프라인 병렬 처리를 실험적으로 도입해 대규모 모델 추론의 병목을 완화했다. 임베딩·재순위 모델 지원, 멀티모달 입력 처리 강화, 최대 길이 자동 감지, 데이터 병렬 처리 최적화 기능도 새롭게 추가됐다. 원격 관리가 필요한 기업 환경에서 GPU 전력 관리와 펌웨어 업데이트, 메모리 대역폭 모니터링 등 기능을 갖춘 XPU 매니저를 추가했다. GPU 1개를 여러 가상화 인스턴스가 활용할 수 있는 SR-IOV 기능도 추가했다. 중소기업·개인 개발자 위한 온프레미스 추론 인프라 제공 현재 GPU 시장은 엔비디아와 AMD가 성능 중심의 서버 시장을 양분하다시피 하는 상황이다. 반면 인텔이 하바나랩스 인수 후 출시하고 있는 AI 가속기인 가우디3는 제한적인 시장 점유율을 확보하고 있다. 배틀매트릭스는 정체된 서버 시장 대신 합리적인 가격·멀티 GPU 확장성·관리 편의성을 무기로 중소기업과 개인 개발자층을 직접 공략하기 위한 제품이다. 향후 로드맵도 공격적이다. 인텔은 이달 LLM 스케일러 공개에 이어 오는 SR-IOV 고도화, VDI 지원, 관리 소프트웨어 배포 기능 등 모든 기능을 구현한 완전판을 공개 예정이다.

2025.08.14 15:36권봉석

[종합] AI·인프라 성과 가시화…韓 클라우드, 2분기 '쾌속 성장'

국내 클라우드 3사가 올해 2분기 나란히 실적 상승세를 이어갔다. 네이버·KT·NHN 모두 공공사업과 인공지능(AI) 수요 확대, 그래픽처리장치(GPU) 인프라 확보 등 전략 투자가 본격 성과로 이어지며 클라우드 부문에서 두 자릿수 안팎의 성장을 기록했다. 12일 업계에 따르면 국내 클라우드 서비스 제공업체(CSP)들은 글로벌 사업 확장과 공공 AI·클라우드 전환 사업 수주를 바탕으로 2분기 호실적을 거뒀다. 네이버는 2분기 엔터프라이즈 부문에서 전년 동기 대비 5.8% 증가한 1천317억원의 매출을 기록했다. 공공 부문 AI 사업 수주와 기업 협업툴 '라인웍스' 유료 고객 증가가 성장세를 이끌었다. 특히 정부가 추진하는 '독자 AI 파운데이션 모델(국가대표 AI)' 개발 사업에 정예팀으로 참여해 '옴니 파운데이션 모델' 개발을 시작했고 GPU 확보 사업에서 엔비디아 H200 GPU 3천여 장을 확보하며 AI 인프라 역량을 강화했다. 최수연 네이버 대표는 2분기 실적발표 컨퍼런스콜에서 "AI 모델과 클라우드 서비스 역량까지 풀스택으로 확보한 국내 유일 사업자인 만큼 향후 성장률이 높아질 것"이라며 "그동안 자체 기술로 준비해 온 인프라와 AI 생태계가 이제는 글로벌 기회로 확장되고 있다"고 강조했다. KT클라우드는 2분기 매출이 전년 동기 대비 23.0% 증가한 2천215억원을 기록했다. 글로벌 고객 대상 데이터센터 코로케이션 수요 급증과 설계·구축·운영(DBO) 사업 수주 확대가 핵심 성장 요인으로 작용했다. 여기에 더해 공공 부문에서는 국가정보원 '상등급' 보안 검증을 통과해 행정안전부 긴급신고공동관리센터와 서울시 소방재난본부의 클라우드 네이티브 전환 사업을 수주하는 등 공공시장 내 입지를 넓혔다. 아울러 민간 부문에서는 업스테이지·폴라리스오피스·디노티시아 등 AI 전문 기업과 협력하며 'AI 파운드리' 사업을 본격화하고 있다. 한편 KT그룹 차원에서는 글로벌 협력에 속도를 낼 방침이다. 올 하반기 마이크로소프트(MS)와 기밀컴퓨팅(ACC) 기반 '시큐어 퍼블릭 클라우드(SPC)' 및 한국형 챗GPT 서비스 출시를 준비 중이며 팔란티어 솔루션 독점 공급 계약 등을 통해 금융·공공 등 핵심 산업군을 공략할 계획이다. NHN은 클라우드 사업를 포함한 기술 부문에서 전년 대비 6.6% 증가한 1천45억원의 매출을 올렸다. NHN클라우드는 2분기 정부 'GPU 확보·구축·운용지원 사업'에서 단일 기업 기준 최다 물량인 엔비디아 B200 GPU 7천여 장을 확보했고 이 중 4천여 장을 국내 최초로 단일 수냉식 클러스터로 구축할 계획이다. 공공 클라우드 전환 사업에서도 올해 진행된 7개 기관 중 5곳의 인프라 공급사로 선정돼 보안성과 안정성을 기반으로 입지를 확대했다. 이와 함께 하반기 광주AI데이터센터를 활용한 지역 인프라 기반 컴퓨팅 지원사업과 경기교육 디지털 AI 플랫폼 사업에도 참여하며 B2G 영역을 지속 확장한다는 전략이다. 정우진 NHN 대표는 "AI GPU 운영 역량을 인정받으며 정부 사업에서 두각을 드러내고 있다"며 "다양한 정부 AI 사업과 공공 클라우드 전환 성과를 이어가겠다"고 밝혔다. 이들 기업이 1분기에 이어 2분기에도 호실적을 거뒀음에도 향후 위협 요소가 남아 있다. 최근 지속되는 미국 정부의 클라우드 개방 압박에 따라 아마존웹서비스(AWS)·MS·구글클라우드 등 주요 외산 클라우드 기업들이 국내 주요 공공 영역에 장차 진입할 가능성이 커지고 있어서다. 지금까지 공공 클라우드 수요를 안정적인 성장 기반으로 삼아 온 국내 사업자들에게는 가격 경쟁, 기술 서비스 범위, 글로벌 레퍼런스 등에서 직격탄이 될 수 있는 변수다. 업계에서는 당장의 큰 변화는 체감되지 않더라도 AI·보안·데이터 주권 등 차별화된 역량을 강화해 올 하반기와 내년 시장 점유율 방어에 나서야 할 것으로 보고 있다. 업계 관계자는 "국내 클라우드 기업들은 AI·GPU 등 고부가가치 영역으로 사업을 빠르게 확장 중"이라며 "향후 추진될 정부 AI·클라우드 사업의 발주 규모와 속도가 하반기 실적의 성패를 좌우할 것"이라고 전망했다.

2025.08.12 14:18한정호

NHN 기술 부문, 2분기 매출 6.6%↑…공공 클라우드·GPU 효과

NHN클라우드가 2분기에도 정부의 대규모 그래픽처리장치(GPU) 인프라 구축과 공공 클라우드 전환 사업에서 잇따라 성과를 올리며 기술 부문 성장을 이어갔다. 12일 NHN은 2025년 2분기 실적 발표 컨퍼런스콜을 통해 기술 부문에서 전년 동기 대비 6.6% 증가한 1천45억원의 매출을 기록했다고 발표했다. 다만 1분기 일회성 매출의 역기저 효과로 전 분기 대비로는 1.1% 감소했다. NHN클라우드는 2분기 정부가 추진한 'GPU 확보·구축·운용지원 사업'에서 최다 구축 사업자로 선정돼 엔비디아 B200 GPU 7천 장 이상을 확보·구축할 계획이다. 이 가운데 4천 장 이상은 국내 최초로 단일 클러스터로 구성해 수냉식 방식으로 운용하며 대규모 인공지능(AI) 인프라 구축 기술력을 입증한다는 전략이다. 또 광주 국가AI데이터센터를 활용하는 정보통신산업진흥원(NIPA) 주관 '지역 인프라 기반 컴퓨팅 지원사업'에도 선정됐다. 또 경기교육 디지털 AI 플랫폼 사업에도 참여해 공공 AI 인프라 영역을 확장하고 있다. 공공 클라우드 부문에서는 올해 진행되는 클라우드 네이티브 전환 사업 7개 기관 중 5곳의 인프라를 공급하는 성과를 거뒀다. 정우진 NHN 대표는 "AI GPU 운영 역량을 인정받으며 정부 사업에서 두각을 드러내고 있다"며 "다양한 정부 AI 사업과 공공 클라우드 전환 성과를 이어가겠다"고 말했다.

2025.08.12 10:58한정호

UNIST, AI 모델 실행 코드 찾는 '오토튜닝' 속도 2~2.5배 ↑

딥러닝 AI 모델을 실행 가능한 프로그램 형태로 바꾸는 데 걸리는 시간을 절반 이상 줄이는 기술이 개발됐다. UNIST는 컴퓨터공학과 이슬기 교수팀이 오토튜닝 과정을 최대 2~2.5배 빠르게 할 수 있는 기법을 개발했다고 12일 밝혔다. 연구결과는 이달 초 미국 보스톤에서 열린 컴퓨터 시스템 분야 국제 학회인 OSDI(Operating systems Design and Implementation)에 공개됐다. 총 338편의 논문이 제출돼 이 중 48편만이 채택됐다. OSDI는 SOSP(Symposium on Operating systems Principles)와 함께 컴퓨터 시스템 분야 양대 학회로 꼽힌다. 구글 '텐서플로'와 같은 AI 기술도 이 학회에서 공개된 바 있다. OSDI에 한국인 주저자 연구가 채택돼 공개된 사례는 올해 UNIST와 함께 채택된 서울대학교 이재욱 교수팀 연구결과를 지난 20여 년간 단 12건 뿐이다. AI 모델이 실제 작동하려면 사람이 짠 고수준의 프로그램인 AI 모델을 컴퓨터 연산장치가 이해할 수 있는 형태로 다시 바꾸는 '컴파일' 과정이 필요하다. 예를 들어 '고양이 사진을 구분해줘'라는 명령도 수천 줄에 이르는 복잡한 계산 코드로 바꿔야 연산장치인 GPU나 CPU가 실제로 실행할 수 있다. 오토튜닝은 이 과정에서 가능한 수십만 개의 코드 조합 중 연상 장치에서 가장 빠르고 효율적인 구성을 자동으로 찾아주는 기술이다. 하지만 경우에 따라 튜닝 시간이 수십 분에서 수 시간까지 걸릴 정도로 연산 부담이 크고, 전력 소모도 많다는 것이 문제였다. 연구팀은 딥러닝 모델 안에 반복되는 계산 구조가 많다는 점에 주목해 유사한 연산자끼리 정보를 공유하는 방식으로 탐색 범위를 줄였다. 코드 조합을 일일이 새로 찾는 대신 기존 결과를 재활용해 오토튜닝 속도를 높인 것. 실제 이 방식을 기존 오토튜닝 프레임워크(Ansor)에 적용한 결과, 동일한 성능의 실행 코드를 생성하는 데 걸리는 시간이 CPU 기준 평균 2.5배, GPU 기준 평균 2배 단축됐다. 이슬기 컴퓨터공학과 교수는 “컴파일 시간을 줄이면서도 GPU나 CPU를 직접 실험에 쓰는 횟수가 줄어 제한된 연산 자원을 효율적으로 쓸 수 있을 뿐만 아니라 전력 소모도 줄일 수 있다”고 말했다. 이번 연구는 UNIST 정이수 연구원이 제1저자로 참여했다. 연구 수행은 과학기술정보통신부 정보통신기획평가원의 지원을 받아 이뤄졌다.

2025.08.12 08:00박희범

트럼프 "엔비디아 中 수출 수익 20% 요구했다 15%로 합의"

도널드 트럼프 미국 대통령이 엔비디아의 중국 시장용 GPU 'H20' 수출 승인 과정에서 처음에는 수익의 20%를 미국 정부에 내라고 요구했던 것으로 드러났다. 트럼프 행정부 2기는 올해 4월 중순, 중국 시장 전용으로 개발된 엔비디아 구형 GPU인 H20의 수출을 불허했다. 그러나 7월 14일 조건부로 수출 제한을 해제했다. 영국 파이낸셜타임즈(FT)는 11일(현지시간) 엔비디아와 AMD가 미국 정부의 수출 규제를 푸는 조건으로 중국 판매 수익의 15%를 미국 정부에 내는 데 합의했다고 보도하기도 했다. 11일(미국 현지시간) 백악관 기자회견에서 트럼프 대통령은 "젠슨과 직접 거래를 했다"며 협상 과정을 공개했다. 그는 "화웨이가 유사한 성능의 칩을 보유하고 있어 H20은 실질적으로 구형 기술"이라며 수출 허용 배경을 설명했다. 트럼프 대통령은 "처음에는 수익의 20%를 요구했지만, 젠슨 황 CEO가 '15%는 어떠냐'고 제안했고 최종적으로 합의했다"고 말했다. 실제로 젠슨 황 CEO는 지난 6일 애플의 미국 내 1천억 달러(약 140조원) 투자 발표 행사 당시 예고 없이 백악관을 찾기도 했다. 트럼프 대통령은 또 엔비디아의 최신 블랙웰(Blackwell) 아키텍처 기반 GPU를 “다른 나라는 향후 5년간 가질 수 없는 최첨단 칩”이라고 평가했다. 이어 "미국 전투기를 외국에 수출할 때 최대 성능의 20%를 제한하듯이 중국 수출용 블랙웰 GPU는 성능을 30~50% 제한한 버전이 될 것"이라고 밝혔다.

2025.08.12 07:46권봉석

정부 AI 컴퓨팅 지원 확대…GPU 임차 공급사 추가 모집 '착수'

정부가 그래픽처리장치(GPU) 임차 지원사업 예산 절감분을 활용해 공급사 1곳을 추가 모집한다. 가격 협상 과정에서 단가를 낮춘 덕에 당초 계획보다 많은 기업에 자원을 지원할 수 있게 돼 더 많은 인공지능(AI) 사업 기회가 마련됐다. 11일 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 'AI컴퓨팅 자원 활용 기반 강화(GPU 임차 지원)' 사업 공급사 추가 모집 공고를 게재했다. 이번에 공급하는 GPU 규모는 엔비디아 H100·H200 기준 200~600장 또는 A100 기준 800~2천400장 수준이며 사업 기간은 오는 10월 1일부터 내년 6월 30일까지로 최대 9개월 단기 지원 형태다. 이번 추가 모집은 1천576억원 규모 추경으로 추진된 '독자 AI 파운데이션 모델' 정예팀 GPU 지원 사업의 연장선에 있다. 정부는 애초 공급사 2곳을 선정할 계획이었지만 단가 인하로 예산 범위 안에서 최대 3곳까지 확대한 것으로 알려졌다. 이 과정에서 SK텔레콤·네이버클라우드·엘리스그룹이 공급사로 선정됐으며 이 중 SK텔레콤과 네이버클라우드는 독자 AI 파운데이션 모델 사업 정예팀에도 선정돼 자체 GPU를 조달·운영할 수 있어 정부 지원 대상에서 제외됐다. 이에 따라 남은 GPU 물량과 예산이 이번 추가 공모로 전환됐다. 공급사 신청 자격은 ▲AI 가속화기 자원 운영·관리 역량 보유 ▲클라우드 기반 고성능 컴퓨팅 자원 제공 가능 ▲GPU 전체 수량을 단일 데이터센터에서 제공할 수 있는 국내 기업 등이다. 이에 참여 예상 기업으로는 클라우드 기반 서비스형 GPU(GPUaaS) 운용 역량을 갖춘 KT클라우드·NHN클라우드·카카오엔터프라이즈 등 국내 주요 클라우드 서비스 제공업체(CSP)가 거론된다. 선정된 공급사는 지정된 사용자에게 GPU를 고정할당 방식으로 24시간 제공하고 장애 발생 시 즉시 복구해야 한다. 리눅스·윈도우 등 운영체제와 AI 개발 프레임워크 설치 지원, 사용자 기술지원, 사용량 모니터링 기능 제공도 의무 요소다. 사업 공고 기간은 다음 달 8일까지이며 전산 접수는 이달 28일부터 시작된다. 절차는 ▲사업계획서 사전검토 ▲발표평가 ▲현장실사·기술시연 ▲가격협상을 거쳐 다음 달 말 협약 체결 후 10월 초부터 자원 배분·활용이 시작된다. 업계에서는 이번 추가 공모가 AI 스타트업과 연구기관뿐 아니라 기존 GPU 인프라 공급업체에도 새로운 기회를 제공할 것으로 보고 있다. 특히 제조·의료·금융·물류 등 GPU 활용 수요가 늘고 있는 버티컬 산업 전반에서 고성능 연산 자원을 안정적으로 확보할 수 있는 기회로 작용할 전망이다. 정부 지원 자원을 활용한 실증·서비스 개발이 가속화되면 국내 AI 생태계 전반의 진입장벽이 낮아지고 대규모 AI 모델 학습 경쟁에서도 기술 격차를 줄이는 데 기여할 수 있다는 평가다. 업계 관계자는 "정부가 GPU 단가를 낮추고 공급 범위를 넓히는 것은 산업 전반에 긍정적인 신호"라며 "이번 기회를 잘 활용하면 신생 AI 기업이나 비AI 분야 기업도 대규모 연산 인프라를 체험하고 서비스로 확장할 수 있는 발판을 마련할 수 있을 것"이라고 말했다.

2025.08.11 17:54한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

APEC 정상회의 오늘 개막…'경주 선언' 채택될까

최재원 SK수석부회장 "AI 시대 핵심 연료는 천연가스·LNG"

"왜 자체 AI 만드냐고요?"…어도비, '선택과 집중' AI 전략 공개

"케데헌 한복·오징어게임 팽이치기 체험하러 오세요"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.