• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'DGX-A100 GPU'통합검색 결과 입니다. (393건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

몬드리안에이아이, LG AI 교육에 인프라 공급…GPU 클라우드 시장 입지 강화

몬드리안에이아이가 LG AI연구원 교육 조직에 프라이빗 인공지능(AI) 클라우드 플랫폼을 공급하며 엔터프라이즈 AI 인프라 시장 공략에 속도를 낸다. 고성능 그래픽처리장치(GPU) 자원 운영과 맞춤형 지원 체계를 앞세워 AI 교육·연구 환경 최적화에 나섰다는 평가다. 몬드리안에이아이는 LG AI연구원 산하 교육 프로그램 'LG AI 아카데미'에 최적화된 프라이빗 AI 클라우드 플랫폼을 구축하고 서비스를 제공 중이라고 24일 밝혔다. 이번 프로젝트는 LG그룹 내 AI 전문 인재 양성을 위한 교육 환경 구축을 목적으로 추진됐다. 교육생들이 대규모 연산 자원을 안정적으로 활용할 수 있도록 인프라 효율성과 운영 편의성을 동시에 확보하는 것이 핵심 과제였다. 몬드리안에이아이는 자사 AI 클라우드 솔루션 '런유어 클라우드'를 기반으로 맞춤형 인프라를 구축했다. 고성능 GPU 자원을 중단 없이 사용할 수 있도록 안정성을 확보하는 동시에 교육 과정별로 상이한 요구사항을 유연하게 반영할 수 있도록 설계했다. 특히 하이브리드 기술 지원 체계를 도입해 차별화된 운영 방식을 구현했다. 단순 기술 지원을 넘어 교육 단계에 따라 맞춤형 심화 지원을 제공하며 집중형 지원과 티켓형 지원을 병행해 운영 효율성과 서비스 품질을 동시에 높였다. 운영 편의성도 강화했다. LG AI연구원 전용 엔터프라이즈 포털을 구축해 관리자가 직접 교육생에게 자원을 할당하고 GPU·CPU·메모리·네트워크 트래픽 사용량을 실시간으로 모니터링할 수 있도록 했다. 이를 통해 관리 효율성을 높이는 동시에 비용 절감 효과도 기대할 수 있다는 설명이다. 회사 측에 따르면 이번 사업은 대형 클라우드 사업자들이 참여한 경쟁 속에서 수주한 성과다. 몬드리안에이아이는 AI 특화 클라우드 기술력과 신속한 데모 시연, 보안 규정 준수 이력 등을 기반으로 경쟁력을 입증했다고 밝혔다. 이번 사례를 통해 AI 인프라 구축 역량을 검증받으며 주요 레퍼런스를 확보한 것으로 평가된다. 회사는 이번 프로젝트를 발판으로 AI 인프라 사업 확장에 박차를 가한다. 향후 멀티 벤더 자원 운영 역량을 고도화하고 GPU 클라우드를 넘어 AI 에이전트, API 라우터 등 고급 기능을 접목해 엔터프라이즈 AI 시장에서 입지를 강화할 계획이다. 고영민 몬드리안에이아이 총괄매니저는 "국가대표 AI '엑사원'을 만드는 LG AI연구원을 고객사로 확보한 것은 우리 기술적 완성도와 운영 노하우를 입증하는 중요한 이정표"라며 "이번 성공 사례를 발판 삼아 AI 전환을 검토 중인 기업·연구소·교육기관 등을 대상으로 맞춤형 인프라 사업을 적극 확장해 나갈 것"이라고 말했다.

2026.04.24 13:29한정호 기자

인텔 "데이터센터 내 CPU 비율, GPU 추월 가능"

인텔이 23일(현지시각) 올 1분기 실적발표 이후 진행된 컨퍼런스 콜에서 "에이전틱 AI 수요 등으로 CPU 수요가 크게 늘어나고 있으며 향후 데이터센터 내 CPU 비율이 GPU를 넘어설 수 있다"고 전망했다. 이날 인텔이 내놓은 1분기 실적에 따르면 서버용 제온6 프로세서를 공급하는 데이터센터 및 AI(DCAI) 그룹 매출은 전년 동기 대비 22% 성장한 51억 달러(약 7조 5480억원) 매출을 기록했다. 립부 탄 인텔 CEO는 "AI 처리가 추론으로 이동하는 상황에서 작업 조율과 제어, 다양한 에이전트와 데이터 관리 측면에서 CPU가 더 효율적"이라고 설명했다. 이어 "과거 CPU:GPU 비율은 1:8이었지만 현재는 1:4까지 왔다. 앞으로는 CPU:GPU 비율이 1:1로 동등해지거나 CPU 비중이 더 커질 수 있다"고 강조했다. "공급량 부족으로 기회 놓쳐... 수율 개선 위해 노력" 단 서버용 주력 제품을 생산하는 인텔 3 공정의 공급 부족은 작년 4분기에 이어 1분기에도 영향을 미쳤다. 데이비드 진스너 CFO 역시 "1분기 충족하지 못한 수요에 대해 구체적인 숫자를 밝힐 수 없지만 'b(10억 달러)'로 시작하는 의미 있는 수준"이라며 이를 간접적으로 시인했다. 이어 "인텔 7, 인텔 3, 인텔 18A 등 세 개 공정의 웨이퍼 투입량을 늘리고 있다. 립부 탄 CEO가 수율과 처리량 확보를 위해 인텔 파운드리 담당자들을 독려했고 1분기 의미있는 성과를 얻었다"고 설명했다. 코어 울트라 시리즈3(팬서레이크), 제온6+(클리어워터 포레스트) 등을 생산하는 인텔 18A 공정 수율에 대해서는 "구체적인 수치를 공개할 수 없지만 올 연말 달성했던 목표를 연 중반까지 달성할 수 있을 것"이라고 설명했다. "패키징·ASIC 사업에서 수십억 달러 매출 예상" 립부 탄 CEO는 인텔 파운드리 사업의 한 분야인 맞춤형반도체(ASIC)과 관련해 "인텔은 CPU와 패키징, 첨단 공정을 모두 갖추고 있어 고객사 요구에 최적화된 실리콘을 생산할 수 있는 특별한 위치에 있다"고 설명했다. 데이비드 진스너 CFO는 "작년 9월 케이던스 출신 스리니바산 아이옌가 수석부사장과 립부 탄 CEO가 ASIC 사업을 시작했고 연간 10억 달러(약 1조 4820억원) 규모 매출이 예상된다"고 설명했다. 각종 패키징 관련 사업에 대해 "당초 수억 달러 규모 수요를 예측했지만 현재는 수십억 달러 규모 매출이 예상된다"며 "수주 잔고량(백로그)가 이미 증가한 상태이며 이를 처리하기 위해 말레이시아(페낭) 내 시설 확장에 나선 상태"라고 밝혔다. "테라팹, 반도체 수요 충족 위한 공동 프로젝트" 인텔 1분기 실적 발표 전날인 22일(현지시간) 일론 머스크 테슬라 CEO는 1분기 실적발표에서 "반도체 생산시설 신규 건립을 위한 테라팹 프로젝트에 인텔 14A(1.4나노급) 공정을 활용할 것"이라고 밝힌 바 있다. 립부 탄 CEO는 "일론 머스크와 나는 글로벌 반도체 공급망이 AI 수요의 급격한 증가를 따라가지 못한다는 문제 인식을 공유한다"며 "공정과 제조에서 혁신적인 방법을 함께 연구하는 매우 폭넓은 관계"라고 설명했다. 다만 테라팹 운영 방식이 인텔이 주도하는 방식인지, 혹은 공정 기술을 라이선스하는 방식인지를 묻는 질문에는 구체적인 답변을 피했다. 그는 "향후 테라팹 관련 내용을 진행하며 추후 구체적인 내용을 공개할 예정이며 기다려 달라"고 답했다. "올해 수율 등 개선해 시장 수요 충족에 주력" 립부 탄 CEO는 x86 기반 프로세서 제조사인 AMD와 서버 시장에서 경쟁에 대해 "현재 로드맵을 계속 조정하고 있다. 현행 제온6 프로세서의 차세대 제품인 '코랄래피즈'에는 하이퍼스레딩(SMT) 기술을 투입해 경쟁력을 확보할 것"이라고 설명했다. Arm에 대해서는 "Arm은 IP 라이선스 모델을 효과적으로 운용해 왔고 아마존과 구글이 Arm 기반 네오버스 CSS로 자체 CPU를 만드는 것은 새로운 일이 아니다"라고 평가했다. 그는 컨퍼런스 콜 말미에 "작년에는 인텔이 생존하기 위해 노력했다면 지금은 얼마나 빨리 공급량을 늘리느냐가 더 큰 문제"라며 "2026년은 실행의 해로 수율, 생산성, 사이클 타임을 개선해 수요를 따라잡겠다"고 강조했다.

2026.04.24 09:32권봉석 기자

[리뷰] Arm PC 완성형에 근접한 스냅드래곤 X2 엘리트 익스트림

퀄컴이 Arm 기반 윈도 AI PC를 위해 개발한 스냅드래곤 X2 엘리트·엘리트 익스트림 시스템반도체(SoC) 탑재 PC가 이달 중순부터 국내외 시장에 공급되기 시작했다. 스냅드래곤 X2 시리즈 중 최상위 제품인 스냅드래곤 X2 엘리트 익스트림은 자체 개발한 Arm 호환 3세대 오라이언 CPU와 아드레노 X2 GPU, 80 TOPS(1초당 1조 번 연산)급 헥사곤 NPU를 조합해 AI 성능을 강화했다. 여기에 LPDDR5X-9523 메모리 48GB를 프로세서와 통합해 초당 200GB 이상 메모리 대역폭과 지연시간 단축, 전력 소모 절감을 노렸다. 23일 현재 국내 시장에는 스냅드래곤 X2 엘리트를 탑재한 에이수스 젠북 A14, 스냅드래곤 X2 엘리트 익스트림을 탑재한 젠북 A16이 출시됐다. 이중 젠북 A16 모델(UX3607OA-SQ012W)로 스냅드래곤 X2 엘리트 익스트림의 실제 성능을 확인해 봤다. 1.2kg 무게에 16인치 OLED 탑재 '젠북 A16' 평가를 위해 대여한 제품은 18코어 CPU(4.7GHz/5.0GHz)와 LPDDR5X-9523 48GB 메모리, PCI 익스프레스 4.0 1TB SSD와 2880×1800 화소, 120Hz OLED 디스플레이를 탑재했다. 배터리 용량은 70Whr이다. 입출력 단자는 HDMI 2.1 영상출력과 USB-C 2개, USB-A 1개와 이어폰/마이크용 3.5mm 단자, SDXC 메모리카드 리더로 구성됐다. 무선 연결은 와이파이7(802.11be)과 블루투스 6.0을 지원한다. 본체 재질은 에이수스가 개발한 고내구성 합금인 세랄루미늄을 적용했다. 무게는 1.20kg, 두께는 13.8~16.5mm로 휴대성을 강화했다. OLED 번인을 방지하는 'OLED 케어' 기술이 적용됐다. 정가는 359만 9000원으로 책정됐다. 전 세대比 CPU 기본 성능 20% 향상 UL 프로시온(Procyon) 내 오피스 벤치마크는 실제로 마이크로소프트 오피스로 각종 문서를 제작하는 과정을 거치며 반응 속도와 성능을 측정하고 이를 바탕으로 점수를 매긴다. 스냅드래곤 X2 엘리트 익스트림의 CPU는 전 세대 제품인 스냅드래곤 X 엘리트 대비 최대 20% 성능이 향상됐다. 배터리 작동 시 성능도 전 세대 최대 성능에 근접한다. 어도비 프리미어 프로와 라이트룸 클래식 등 호환성 개선으로 UL 프로시온의 3대 벤치마크를 모두 수행 가능했다. 배터리로 작동할 때 성능은 어댑터 최고 성능 작동시 대비 25% 가량 줄어드는 수준이다. 웹브라우저 내에서 그래프 작성, 문서 작성, AI 추론을 실행하는 웹엑스퍼트4(WebXPRT 4) 테스트 점수는 385점으로 전 세대 대비 25% 가량 향상됐다. 배터리 작동시 성능 하락 폭이 큰 데 제조사인 에이수스의 전력 관리 정책(제조사 설정)에 따른 영향으로 추정된다. GPU 성능과 게임 호환성 동시 개선 퀄컴은 작년 11월 스냅드래곤 X2 엘리트 익스트림 내장 아드레노 X2 GPU를 가리켜 "퀄컴이 지금까지 만든 GPU 중 가장 크고 빠른 제품"이라고 설명했다. 성능이 전 세대 대비 평균 2.3배 이상 향상됐다는 것이 퀄컴 설명이다. 그래픽 성능 측정 프로그램인 3D마크에 내장된 시나리오 '타임스파이(Timespy)'는 윈도 운영체제의 다이렉트X 12 얼티밋 기반 게임 구동 성능을 측정한다. 점수는 전 세대 대비 2배 이상 향상됐고 경쟁사인 인텔 코어 울트라 200V 내장 '아크 140V'와 동등한 수준이다. GPU 성능 향상은 실제 게임에서도 크게 드러난다. 게임 5종 대상으로 1920×1200 화소, 그래픽 수준 '높음'에서 실행한 벤치마크에서는 초당 최저 프레임이 50프레임을 넘겼다. 전 세대(서피스 프로 11)에서 1920×1080 해상도, 화면 해상도 '높음' 실행시 초당 30프레임 미만에 머물렀던 것을 감안하면 2배 가까운 성능 향상 효과로 볼 수 있다. 세로 해상도가 다소 늘어났음에도 성능 향상 폭은 큰 편이다. 게임 호환성 면에서도 진전이 있다. 에픽게임스와 협업해 안티치트 프로그램 호환성을 확보한 결과로 '포트나이트'가 오류 없이 실행됐다. 최근 출시된 '몬길: STAR DIVE'는 초기 실행시 비정상 종료만 피하면 이후 문제 없이 구동됐다. INT8 AI 처리 성능 평균 두 배 향상 스냅드래곤 X2는 플러스/엘리트/엘리트 익스트림 모두 전 세대(45 TOPS) 대비 1.6배 가량 연산 성능을 높인 80 TOPS급 헥사곤 NPU를 내장한다. UL 프로시온의 컴퓨터 비전 AI 벤치마크와 긱벤치 AI를 이용해 세대 간 AI 연산 성능 향상 폭을 비교했다. 영상 처리 관련 알고리듬 6개 수행 성능을 측정하는 UL 프로시온 컴퓨터비전 실행 후 각 연산당 평균 처리시간이 전 세대 대비 50% 이상 단축됐다. 로컬 LLM 구동, 영상 업스케일링, 실시간 번역 등에서 체감 성능 향상이 기대된다. 영상과 문자 관련 알고리듬 10개 수행 성능을 측정하는 긱벤치 AI를 실행해 보면 단정도(FP32)의 성능 향상 폭은 평균 13% 가량이다. 그러나 양자화를 거쳐 INT8로 실행한 결과를 보면 초당 연산 수가 최소 두 배, 최대 네 배 가량 향상된다. 헥사곤 NPU가 INT8 연산에 최적화된 것이 원인이다. LM 스튜디오에서는 48GB 가량 넉넉한 메모리를 활용해 최근 공개된 구글 젬마4(gemma-4-26b-a4b, 17GB) 등 대용량 LLM 모델도 구동할 수 있다. 단 CPU에 연산이 집중되고 최신 NPU 미지원으로 실제 활용 속도에는 제약이 있다. 애니싱LLM으로는 퀄컴이 제공하는 일부 최적화 모델을 쓸 수 있고 NPU까지 활용해 원활하게 실행된다. 다만 매개 변수가 40억 개 수준으로 적고 모델 훈련에 쓰인 데이터도 2~3년 전 시점에 멈춰 있다. 유튜브 연속 재생시 최대 17시간 구동 젠북 A16은 70Whr 대용량 배터리를 내장했다. 에이수스에 따르면 오프라인 동영상은 최대 21시간, 웹브라우징은 최대 12시간 사용이 가능하다. 작동 성능 '균형', 화면 밝기 40% 상태로 설정 후 실제 작동 시간을 측정했다. 워드, 엑셀, 파워포인트, 엣지를 일정 간격으로 계속 자동 실행하는 '오피스 테스트'에서는 15시간 41분을 버틴다. 구글 크롬으로 유튜브 1080p 영상을 전체화면 연속 재생시 17시간 26분, PC 내 저장된 단일 동영상을 계속 재생하는 테스트에서는 19시간 33분을 기록했다. 하루 8시간 노트북을 쓸 경우 별도 충전 없이 이틀 가량은 버틸 것으로 보인다. 기본 제공되는 130W(20V×6.5A) 어댑터로 충전시 30분만에 50%, 1시간만에 80%를 채운다. 완전 충전까지는 1시간 40분이 걸렸다. 시중에서 흔히 구할 수 있는 65W급 GaN 충전기 등도 활용할 수 있지만 충전 시간은 더 길어질 수 있다. 메모리 직접 탑재로 높아진 가격이 걸림돌 스냅드래곤 X2 엘리트 익스트림은 CPU와 NPU, GPU 등 SoC를 구성하는 모든 요소를 균형있게 개선했다. 특히 게임과 콘텐츠 제작 성능의 걸림돌이 됐던 GPU 성능과 게임 호환성이 눈에 띄게 개선됐다. 퀄컴이 최소 분기별 한 번 이상 아드레노 GPU 업데이트를 약속했기 때문에 이는 앞으로 시간이 지날 수록 더 나아질 것이다. 전 세대 제품이 Arm 기반 윈도 AI PC의 새로운 가능성을 보여줬다면 2세대부터는 본격적으로 x86 프로세서의 대안이 될 수 있는 수준까지 성장했다. 다만 높은 성능 달성을 위해 선택한 고성능 LPDDR5X-9523 메모리, 그리고 이를 SoC에 직접 통합하는 방식 탓에 이를 탑재한 제품 가격도 크게 올랐다. 특히 메모리 반도체 수급난이 심한 현재는 최소 300만원 이상을 감수해야 한다. GPU에도 작지만 중요한 보완이 필요하다. 아드레노 GPU에는 DLSS, XeSS, FSR 등 경쟁사가 제공하는 AI 기반 업스케일링 및 프레임 생성 기술이 없다. 이러한 기술을 활용하면 한정된 SoC 환경에서도 GPU 면적을 크게 늘리지 않고 게임 성능을 끌어올릴 수 있다. 또 이러한 AI 연산 자원은 게임 뿐만 아니라 다양한 AI 응용프로그램 가속에도 활용될 수 있다. ※ 테스트 시스템 제원 운영체제 : 윈도11 홈 26H1 (10.0.28000.1836, VBS 활성화) 테스트 조건 : 배터리 작동시 성능/냉각팬 '균형', 어댑터 작동시 성능 '최상'/냉각팬 '고성능'. 긱벤치 AI 1.7.0 구동시 모드는 퀄컴 최적화 'QNN'. UL 프로시온 컴퓨터비전 벤치마크시 모드는 '퀄컴 SNPE'. 각 테스트 별 3회 시행 후 평균값 활용.

2026.04.23 09:53권봉석 기자

인텔 "아크 프로 B70·B65, 추론 특화 GPU 시장 현실적 선택지"

"아크 프로 B70은 클라우드에 의존하지 않는 온프레미스(On-Premise) AI를 구축할 수 있는 성능과 32GB 대용량 메모리를 갖췄습니다. AI가 실험 단계를 넘어 실무로 확산되는 현 시점에서 현실적인 선택지입니다." 21일 서울 여의도 인텔코리아에서 만난 주민규 인텔코리아 한국 채널영업본부장(전무)가 이렇게 강조했다. 인텔은 지난 3월 말 AI 추론 수요를 겨냥한 워크스테이션용 GPU '아크 프로 B70/B65'를 출시했다. GDDR6 32GB 메모리를 탑재해 중소규모 기업과 개발자가 대형 언어모델(LLM)을 로컬 환경에서 직접 구동할 수 있게 한 것이 핵심이다. "32GB 메모리로 클라우드 없이 대용량 LLM 구동" 아크 프로 B70은 Xe2 코어 32개와 32GB 메모리 기반으로 대용량 AI 모델을 분할 없이 구동할 수 있다는 점이 차별화 포인트다. 연산 성능은 최대 367 INT8 TOPS(초당 1조 회 연산) 수준이다. 현재 시중에서 32GB 메모리를 탑재한 엔비디아 지포스 RTX 5090이 500만원을 웃도는 반면, 아크 프로 B70은 949달러(약 140만원) 수준이다. 200억 개 이상 매개변수를 가진 모델도 로컬 GPU에서 직접 실행할 수 있다. 메모리 용량과 비용 효율을 중시하는 환경을 겨냥했다. 주민규 본부장은 "보안 규제로 클라우드 활용이 제한된 기업이나 기관에서 관심이 높다"며 "비용 부담을 낮추려는 중소규모 조직에도 현실적인 대안이 될 수 있다"고 말했다. "추론 특화 GPU 시장 선점 노린다" 주 본부장은 아크 프로 B70/B65를 소비자용이 아닌 '추론 특화 GPU'로 규정했다. 그는 "현재 AI 시장은 학습보다 실제 서비스 운영 단계의 추론 수요가 더 빠르게 증가하고 있다"며 "다수 기업이 참여하는 성장 초기 시장이라고 판단했다"고 설명했다. 이어 "기업들이 AI를 실험 단계에서 실제 적용 단계로 전환하면서, 추론을 효율적으로 처리할 수 있는 인프라에 대한 관심이 높아지고 있다"며 "이 수요를 겨냥해 선제적으로 제품을 출시했다"고 덧붙였다. "AI 도입 초기 설치 장벽 낮추는 SW도 준비" 온프레미스 AI 확산의 걸림돌로는 초기 구축 난이도가 꼽힌다. 현재는 비개발자가 로컬 환경에서 AI를 실행하기까지 복잡한 설치 과정을 거쳐야 한다. 에이전틱 AI 소프트웨어 '오픈클로'도 윈도 환경에서 최소 5단계를 거쳐야 구동된다. 주 본부장은 "AI 활용의 확산은 초기 진입 장벽을 얼마나 낮추느냐에 달려 있다"고 말했다. 인텔은 이를 해결하기 위해 소프트웨어 협력사와 함께 클릭 한 번으로 AI 실행 환경을 구성할 수 있는 설치 도구를 준비 중이다. 해당 소프트웨어는 근시일 내 배포될 예정이다. "안정적 드라이버 지원으로 제품 수명·활용 범위 확장" 인텔은 아크 GPU 출시 이후 드라이버 지원을 지속적으로 강화해왔다. 게임 출시와 동시에 대응하는 '데이제로' 드라이버를 제공하고, 월 2~3회 업데이트를 유지하고 있다. 최근 펄어비스 신작 게임 '붉은사막'이 아크 GPU에서 실행되지 않는 문제가 발생하자 약 10일 만에 수정 드라이버를 배포하기도 했다. 신규 장비 도입 후 장기간 운영되는 기업 환경에서는 드라이버 업데이트의 중요성이 더 크다. AI 모델과 소프트웨어 지원을 통해 활용 범위를 지속적으로 확장할 수 있기 때문이다. 주 본부장은 "제품 수명주기 동안 일관된 드라이버 지원은 필수"라며 "시장 점유율과 무관하게 지원을 지속하는 것이 인텔의 방향"이라고 강조했다. "방향성 다른 소비자·기업 만족 위해 노력" 인텔은 2022년 이후 아크 GPU 라인업을 확대해왔다. 데스크톱용 A770·A750을 시작으로 B580/B570을 출시했고, 워크스테이션용으로는 A60, B60/B50, B70/B65까지 제품군을 확장했다. 주 본부장은 "인텔은 일반 소비자 시장과 전문가용 시장 모두 중요하게 보고 있다. 일반 소비자용 시장은 경쟁이 치열하지만 전체적인 시장 규모는 기업용 시장이 크다. 어느 시장에 더 중점을 둔다고 말하기는 어렵다"고 말했다. 그는 "다만 일반 소비자가 원하는 게임 성능과 기업·개발자가 요구하는 추론 성능은 기술적으로 차이가 있다"며 "두 시장을 동시에 만족시키는 것이 인텔의 목표"라고 덧붙였다.

2026.04.22 08:49권봉석 기자

[카드뉴스] AI 비서 시대, 컴퓨터 두뇌가 모자라요

안녕하세요, AMEET 기자입니다. 요즘 AI 비서들이 숙제도 대신하고 일정도 알아서 척척 짜주는 시대가 됐는데요, 이 똑똑한 친구들을 돌리려면 컴퓨터 두뇌, 즉 CPU가 필요하다는 거 알고 계셨나요? 그런데 지금 전 세계 데이터센터들이 CPU 부족으로 비상이 걸렸어요. 고성능 CPU를 주문하면 무려 6개월에서 1년 가까이 기다려야 하는 상황이라니, 마치 인기 많은 맛집에서 예약을 기다리는 것 같죠? 여기서 주목할 건 바로 우리나라 반도체 기업들의 기회예요. 삼성전자 같은 한국 기업들은 메모리와 CPU를 함께 만들 수 있는데, 이게 레고 블록을 조립하듯 고객 맞춤형으로 솔루션을 제공할 수 있다는 뜻이에요. 단순히 부품만 파는 게 아니라 맞춤형 통합 솔루션으로 승부를 걸 수 있는 거죠. 다만 2027년부터는 큰 기업들이 자체 칩을 만들기 시작하면서 상황이 바뀔 수 있어서, 그 전에 빠르게 체제 전환을 마쳐야 한다고 하네요. AI 시대, 한국 반도체가 단순 공급자가 아닌 똑똑한 파트너로 자리잡을 수 있을지 앞으로가 더욱 기대되네요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/c9da405a.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.04.22 08:20AMEET

중기부, '초격차 스타트업'에 GPU 200장 공급

중소벤처기업부(중기부)는 첨단 GPU(Graphics Processing Unit, 그래픽처리장치) 264장을 중소기업 제조현장과 창업기업 혁신에 지원한다고 21일 밝혔다. 이번 GPU는 제6회 과학기술관계장관회의(서면개최, 심의기간 3.30.~3.31.)를 통해 심의·의결한 '국가 AI 프로젝트'에 따라 확보한 것이다. 앞서 과학기술정보통신부는 지난 4월 1일 2025년 추경을 통해 정부가 확보한 GPU 1만장 중 3000여장을 부처별 사업에 연계 지원하는 '국가 AI 프로젝트'에 공급하기로 했으며, 범부처 수요 조사와 심사를 거쳐 GPU 배분 계획을 확정한 바 있다. '국가 AI 프로젝트'에 중기부는 ①중소제조 특화 멀티 AI 에이전트(Multi AI Agent) 개발(R&D) 사업(이하 'AI 에이전트') ② 신 AI 스타트업(창업기업) 전략 기술 상용화 및 인공지능 전환(AX) 가속 프로젝트(초격차 스타트업(창업기업) 등 2개 과제를 신청, 모두 선정됐다. 이에 따라 'AI 에이전트' 과제 64장, '초격차 스타트업(창업기업)' 과제 200장으로 총 264장의 GPU(B200)를 확보했다. 특히 '초격차 창업기업' 과제는 '국가 AI 프로젝트'의 GPU 기반 혁신 AI 창업기업의 성장 촉진을 위한 주요 과제로 선정됐다. 이번 국가 프로젝트로 배분된 GPU 자원은 전량 중소·벤처기업과 창업기업에 지원될 예정이며, AI 인프라 부족으로 어려움을 겪는 기업의 기술 개발과 사업화에 활용된다. 중기부가 시행 예정인 2개 과제는 공모 및 선정평가(4~5월)를 거쳐 올해 6월부터 지원하며, 과제에 선정된 기업들은 민간 데이터센터(NHN클라우드)와 연계, 센터가 보유한 GPU를 원격으로 이용하는 서비스(클라우드 방식)를 연말까지 무상으로 지원받을 수 있다. 세부 추진내용은 다음과 같다. 첫째, 'AI Agent' 과제는 기술기업-제조기업 컨소시엄을 대상으로, 중소제조 현장의 공정·품질 최적화를 위한 기술개발부터 현장적용까지 전주기를 지원한다. 해당 과제를 통해 기술기업-제조기업 컨소시엄은 제조 공정에 대한 AI 학습, 데이터 확보 및 기술 실증화를 포함한 AI Agent 기술개발에 GPU를 활용할 수 있으며, 이를 통해 중소제조 현장의 인공지능 전환(AX) 촉진과 지속 가능한 제조혁신 생태계 조성 효과가 기대된다. 둘째, 200장을 배정받은 '초격차 스타트업(창업기업)' 과제는 창업기업을 대상으로 ➊대학·출연연의 전문역량과 창업기업의 기술을 합친 '전략 AI' 개발에 85장 ➋기업 간 협업을 통해 특정 산업 분야에 특화된 맞춤형 AI 솔루션 개발에 85장을 지원한다. 특히 '초격차 스타트업(창업기업)' 과제 중 ➌'모두의 창업'에 30장을 지원해 AI 기술 기반 창업을 희망하는 예비 창업가에게 큰 장벽이었던 GPU 확보 문제를 해소하는 한편 AI 보육기관·선배 멘토 지원부터 투자유치까지 원스톱으로 지원을 받아 성장 기반이 확보될 것으로 기대된다. 박용순 중기부 중소기업정책실장은 “이번 국가 AI 프로젝트 참여를 통해 확보한 GPU는 제조현장의 인공지능 전환과 AI 기반 사업모델을 추진하는 창업기업에게 실질적인 도움이 될 것”이라며 “중기부는 제조현장과 창업 생태계 전반에 AI 활용을 확산해 기업의 성장 기반을 강화해 나겠다”고 밝혔다.

2026.04.21 15:01방은주 기자

데이터센터의 '조용한 반란', 주인공은 다시 CPU로

안녕하세요 AMEET 기자입니다. 불과 1~2년 전만 해도 AI라고 하면 모두가 엔비디아의 GPU만 떠올렸죠. 하지만 2026년 현재, 시장의 공기는 묘하게 바뀌고 있습니다. AI 비서라 불리는 '에이전트'가 우리 일상에 깊숙이 들어오면서, 정작 GPU에 명령을 내리고 전체 시스템을 조율할 '두뇌'인 중앙처리장치(CPU)가 부족해지고 있기 때문입니다. 오늘은 이 뜨거운 열기 뒤에 숨겨진 전문가들의 치열한 논쟁과 한국 반도체 산업이 마주한 숙제를 짚어보려 합니다. 똑똑해진 AI 비서가 불러온 '두뇌'의 귀환 지금 데이터센터 현장에서는 이례적인 일이 벌어지고 있습니다. 보통 AI 연산을 위해 GPU를 4대나 8대 정도 설치할 때 CPU는 딱 1대만 들어가는 구조거든요. 그런데 최근 AI 비서 기술이 발전하면서 이 1대의 CPU가 처리해야 할 일이 감당 못 할 정도로 늘어났습니다. AI가 단순히 질문에 답하는 수준을 넘어 스스로 계획을 세우고 실행하는 '에이전트' 역할을 수행하게 되면서, 똑똑한 CPU에 대한 수요가 폭발한 것이죠. 상황이 이렇다 보니 최신 CPU는 구하고 싶어도 못 구하는 귀한 몸이 됐습니다. 가격은 자고 일어나면 오르고, 반도체 기업들은 물량을 대느라 비상이 걸렸죠. 특히 우리 한국 기업들에게는 아주 반가운 소식도 있습니다. 내년인 2026년부터 양산될 예정인 차세대 고성능 메모리 'HBM4'가 이 CPU들과 찰떡궁합을 보여줄 것으로 기대되기 때문입니다. 메모리만 잘 만들던 삼성전자 같은 기업들이 이제는 CPU와 메모리를 하나로 묶는 통합 패키징 기술을 앞세워 판 자체를 흔들 수 있는 기회가 온 셈입니다. AI 전문가들이 진단한 시장의 충돌과 논점의 이동 이 현상을 두고 AI 전문가들 사이에서는 꽤나 격렬한 대화가 오갔습니다. 처음에는 단순히 "CPU가 부족하니 계속 잘 팔릴 것"이라는 낙관론이 지배적이었지만, 논의가 깊어질수록 흥미로운 반전들이 튀어나왔습니다. 첫 번째 논쟁 : 이 폭등은 언제까지 계속될까? 많은 전문가가 2026년까지는 CPU 수요가 꺾이지 않을 것이라고 봅니다. 하지만 한쪽에서는 강력한 경고를 던지기도 했습니다. 반도체 산업은 항상 '부족하다가도 한순간에 넘쳐나는' 고질적인 주기가 있는데, 지금의 가격 폭등이 2027년쯤이면 공급 과잉으로 변해 거품이 빠질 수 있다는 것이죠. 수요가 영원할 것처럼 보이지만, 결국 공장이 늘어나면 가격은 떨어질 수밖에 없다는 시장의 냉정한 논리입니다. 두 번째 논쟁 : AI가 스스로 다이어트를 한다면? 가장 날카로운 대립이 있었던 지점은 'AI 기술의 효율화'였습니다. 지금은 하드웨어 성능으로 밀어붙이는 시대지만, 앞으로 소프트웨어 기술이 좋아져서 AI가 훨씬 적은 힘으로도 똑같이 똑똑하게 작동하게 된다면 어떻게 될까요? 그렇게 되면 굳이 비싸고 전기를 많이 먹는 고성능 CPU를 고집할 이유가 사라집니다. 전문가들은 이 '기술적 효율화'가 하드웨어 수요를 갉아먹을 변수가 될 것인지, 아니면 오히려 더 많은 사람이 AI를 쓰게 만들어 전체 시장을 키울 것인지를 두고 팽팽하게 맞섰습니다. 세 번째 논쟁 : 빅테크의 '자급자족'이라는 거대한 파도 토론의 끝자락에서 전문가들이 가장 우려한 대목은 구글이나 아마존 같은 거대 IT 기업들의 움직임이었습니다. 이들은 더 이상 남이 만든 CPU를 비싸게 사서 쓰고 싶어 하지 않습니다. 이미 자신들의 데이터센터에 딱 맞는 '전용 칩'을 직접 만들기 시작했거든요. 이렇게 빅테크 기업들이 스스로 칩을 조달하기 시작하면, 범용 CPU 시장은 큰 타격을 입을 수밖에 없습니다. 이는 우리 반도체 기업들이 단순한 부품 공급자를 넘어, 각 기업에 맞춤형 솔루션을 제공하는 파트너로 진화해야만 살아남을 수 있다는 절박한 결론으로 이어졌습니다. 여러 의견이 엇갈렸지만, 전문가들이 공통으로 고개를 끄덕인 지점도 있었습니다. 적어도 2026년까지는 CPU와 메모리가 함께 부족한 현상이 지속될 것이며, 한국 기업들이 가진 '이종 집적(서로 다른 반도체를 하나로 합치는 기술)' 역량이 세계 시장에서 아주 강력한 무기가 될 것이라는 점입니다. 또한, AI 데이터센터가 먹어 치우는 전력 문제를 해결하지 못하면 아무리 좋은 반도체도 무용지물이 될 것이라는 경고에도 모두가 동의했습니다. 반면, 2027년 이후에도 제품 가격이 계속 오를 수 있을지, 그리고 빅테크 기업들의 자체 칩 개발이 얼마나 빨리 시장을 잠식할지에 대해서는 끝내 합의점을 찾지 못했습니다. 이는 결국 기술의 발전 속도와 시장의 논리가 어디서 균형을 잡느냐에 따라 결정될 문제입니다. AI가 세상을 바꾸고 반도체 지형도를 뒤흔들고 있는 것은 분명해 보입니다. 하지만 이 거대한 흐름 속에서 어떤 기술을 선택하고, 얼마만큼의 위험을 감수할지를 결정하는 것은 결국 숫자가 아닌 인간의 몫입니다. CPU 품귀라는 현상 너머에 있는 기술의 본질을 꿰뚫어 보는 안목이 그 어느 때보다 필요한 시점입니다. 지금까지 AMEET 기자였습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/c9da405a.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.04.21 11:10AMEET

AI 뜨니, 게이밍 GPU 소외…엔비디아 '지포스 홀대' 논란

인공지능(AI) 수요 급증으로 인한 메모리 부족 사태 속에서 엔비디아가 게이밍 GPU보다 인공지능(AI) 칩에 집중하면서 게이머들의 불만이 커지고 있다는 지적이 나왔다. 엔비디아가 최근 블랙웰, 루빈 등 데이터센터용 AI 칩셋 생산을 우선 추진하면서 소비자용 지포스 GPU가 상대적으로 소외되고 있다고 미국 경제매체 CNBC가 19일(현지시간) 보도했다. 엔비디아는 2000년대 초 GPU를 대중화하며 게임 산업 핵심 기업으로 자리 잡았다. 특히 1999년 '지포스 256' 출시 당시 위기 상황에 놓였던 회사는 게이머들의 적극적인 구매에 힘입어 반등에 성공했다. 하지만 지금은 상황이 크게 달라졌다. AI 시장이 폭발적으로 성장하면서 엔비디아의 매출 대부분이 데이터센터용 AI 칩에서 발생하고 있다. 번스타인 리서치의 스테이시 라스곤은 “게임 부문은 더 이상 회사의 핵심 성장 동력이 아니다”라고 평가했다. AI 칩 생산 확대는 메모리 수급에도 영향을 미치고 있다. 제한된 메모리 자원을 두고 우선순위를 정하는 과정에서 엔비디아는 수익성이 높은 AI GPU에 집중하고 있으며, 이로 인해 게이밍 GPU 생산은 상대적으로 줄어들고 있다는 분석이다. 실제로 업계에서는 최신 게이밍 GPU 생산량이 최대 40%까지 감소할 수 있다는 전망도 나오고 있다. 제품 출시 일정에도 변화가 감지된다. 분석가들은 올해가 엔비디아가 30년 만에 처음으로 차세대 지포스 GPU를 출시하지 않는 해가 될 가능성이 높다고 보고 있다. 현재 판매 중인 '지포스 RTX 50 시리즈'는 지난해 1월 공개됐지만, 올해 주요 행사에서는 후속 제품이 발표되지 않았다. 가격 구조 역시 이러한 전략 변화를 뒷받침한다. 업계에 따르면 블랙웰 GPU는 개당 최대 4만 달러(약 5900만 원), 베라 루빈 시스템은 최대 400만 달러(약 59억 원)에 이를 것으로 추정된다. 반면 지포스 RTX 50 시리즈는 299달러에서 1999달러 수준으로, 수익성 측면에서 큰 차이를 보인다. 한편, 최근 공개된 차세대 그래픽 기술 'DLSS 5'를 둘러싼 논란도 이어지고 있다. 젠슨 황 CEO는 지난 3월 연례 개발자 행사에서 해당 기술을 소개했지만, 일부 게이머들은 AI 기반 렌더링이 원작의 예술적 의도를 훼손할 수 있다고 비판하고 있다. 특히 시연 과정에서 게임 캐릭터 표현이 과도하게 보정된 것처럼 보인다는 지적이 제기되며 논쟁이 확산되고 있다. 엔비디아는 이에 대해 “게이머는 여전히 중요한 고객”이라며, 게임 기술 개발과 제품 출시를 지속하고 있다고 밝혔다.

2026.04.20 16:39이정현 미디어연구소

중부권 최대 민간 GPU센터 추진…"슈마컴 루빈급 32만장 공급 약속"

블랙웰 급 6만2,500장 이상을 수용할 중부권 최대 GPU 데이터 센터가 들어설 전망이다. 건물과 송전 및 냉각시설, GPU 랙 등을 설치할 시설비만 2조 2,500억원 규모다. 한남대학교는 16일 대전 본교에서 케빈 창 슈퍼마이크로컴퓨터 부사장과 정시우 BKB에너지 대표, 성제현 KT수도권강북법인고객본부장를 비롯한 황정아·장철민 의원 등 내외빈 150여 명이 참석한 가운데 'AX클러스터 & 고성능 GPU 거점센터' 기공식을 개최했다. 이 프로젝트에서 GPU 조달은 엔비디아 GPU 공급업체인 슈퍼마이크로컴퓨터가 맡기로 했다. 사업 주체는 슈퍼마이크로컴퓨터와 BKB에너지, KT, 터보스케일 등이다. 이들이 GPU 공급과 냉각시스템 등 시설 설치 일체를 맡는다. 이들 간에는 GPU가 필요할 땐 언제든 공급하기로 하는 협약(NDA, 비밀보호협정)도 체결했다는 것이 한남대 측 설명이다. 이준원 한남대학교 인공지능전략위원회 부위원장(자유전공학부 교수)은 "GPU를 총 32만장 정도 가져올 수 있는데, 당장은 블랙웰급으로 6만 2,500장부터 들여올 계획이다. 향후엔 최상급인 베라루빈 이상으로 언제든 원할 때 들여올 수 있는 계약을 체결했다"고 말했다. 이 부위원장은 "GPU와 관련해서 정부나 지자체 지원없이 순수 민간 자본으로 구축한다"며 "해외에서는 미국과 캐나다, 프랑스 자본이 투입되고, 국내에서는 메리츠화재, 우리투자증권, BKB에너지 자금이 유입될 것"이라고 말했다. 이 부위원장은 또 "GPU 80%정도는 수냉식으로 열관리할 계획"이라며 "물 공급 부분은 수자원공사에서 책임지기로 했고, 전기 공급은 한전측과 기술평가를 실시한 결과 우선 40MW부터 공급하기로 했다"고 말했다. 향후엔 ESS(에너지저장시스템)를 활용한 추가 전력 100MW 정도를 확보할 계획이다. 한남대는 우선 올해내 건물 설계를 모두 마친뒤 내년부터 본격 건립 작업에 들어갈 계획이다.

2026.04.16 15:25박희범 기자

이노그리드, 256억 규모 국책과제 4건 '싹쓸이'…국산 인프라 표준화 앞장

이노그리드가 차세대 그래픽처리장치(GPU) 공유 기술 개발 주도권을 확보하며 AI 클라우드 풀스택 기업으로의 도약에 속도를 낸다. 이노그리드는 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 'AI 클라우드 경쟁력 강화 기술개발 사업'의 주관기업으로 선정됐다고 16일 밝혔다. 이번 과제 선정은 이노그리드가 올해 전사적으로 추진 중인 'XPU에서 AI 플랫폼으로(From XPU to AI Platform)'라는 기술 로드맵 비전의 결정체로 평가된다. 이노그리드는 이번 주관 과제를 포함해 올해에만 총 정부지원금 256억원 규모의 국책연구개발과제 4건을 연쇄 수주하는 쾌거를 이뤘다. 주관 1건과 공동 3건으로 구성된 이번 수주 릴레이를 통해 이노그리드는 하드웨어인 GPU 자원 레벨부터 상위 단계인 멀티 클라우드 및 GPU 서비스(GPUaaS)까지 전 영역을 아우르는 탄탄한 기술 포트폴리오를 완성하게 됐다. 이 같은 풀스택 역량은 최근 AI 업계의 최대 난제인 GPU 부족과 비용 상승 문제를 해결하는 핵심 열쇠가 될 전망이다. 이노그리드는 이번 과제를 통해 가상머신(VM)과 컨테이너가 혼재된 복잡한 환경에서도 GPU 자원을 자유롭게 분할하고 재구성하는 기술 개발에 집중한다. 특히 여러 작업이 동시에 돌아갈 때 발생하는 성능 간섭을 최소화함으로써 차세대 AI 인프라의 운영 표준을 새롭게 정립한다는 구상이다. 사업의 성공적인 수행을 위해 이노그리드는 한국전자기술연구원(KETI), 베스핀글로벌, 고려대학교 등과 산·학·연 컨소시엄을 꾸려 2028년 12월까지 연구를 진두지휘한다. 핵심 기술은 'GRIM-GPU' 프로젝트를 통해 오픈소스로 공개되어 특정 외산 벤더에 종속되지 않는 독립적인 국산 AI 생태계 조성을 견인할 계획이다. 개발된 기술은 2029년부터 AI 데이터센터와 고성능 컴퓨팅(HPC) 시장에 본격 적용된다. 업계에선 이노그리드가 대규모 국책과제를 통해 확보한 기술력이 향후 글로벌 클라우드 서비스 제공사(CSP)들이 주도하는 AI 인프라 시장에서 국산 솔루션의 기술적 자립도를 높이는 데 기여할 것으로 전망하고 있다. 김명진 이노그리드 대표는 "이번 과제 선정은 우리가 쌓아온 가상화 기술력을 국가 핵심 AI 인프라 영역으로 확장하는 중요한 이정표가 될 것"이라며 "특정 벤더에 종속되지 않는 국산 GPU 공유 기술을 성공적으로 완수해 대한민국 AI 생태계의 자생적 경쟁력을 강화하는 데 앞장서겠다"고 말했다.

2026.04.16 10:57장유미 기자

[AI는 지금] 젠슨 황, AI 다음 패권 '양자' 낙점…오픈 모델로 QPU 표준 선점 본격화

엔비디아가 양자 컴퓨팅의 실용화를 앞당길 세계 최초의 오픈 인공지능(AI) 모델 '엔비디아 아이징(NVIDIA Ising)'을 전격 발표하며 양자 생태계 주도권 선점에 나섰다. AI를 양자 컴퓨터의 제어 계층으로 활용해 그간 하드웨어 제약으로 꼽혔던 양자 오류 문제를 소프트웨어로 정면 돌파하겠다는 전략이다. 16일 엔비디아에 따르면 아이징은 양자 프로세서의 보정(Calibration)과 오류 정정(Decoding)에 최적화된 모델군으로 구성됐다. 특히 AI 기반의 디코딩 모델은 기존 업계 표준 대비 속도는 2.5배 빠르고 정확도는 3배나 높다. 이는 취약한 큐비트 상태를 실시간으로 관리해 양자 컴퓨터를 실제 산업 현장에서 쓸 수 있는 '신뢰할 수 있는 컴퓨터'로 전환하는 핵심 기술이다. 핵심 모델인 '아이징 캘리브레이션'은 비전 언어 모델(VLM)을 활용해 며칠씩 걸리던 보정 작업을 단 몇 시간으로 단축한다. '아이징 디코딩'은 3D 합성곱 신경망(CNN)을 통해 양자 오류를 실시간으로 잡아낸다. 이는 하드웨어의 물리적 한계를 소프트웨어 지능으로 극복하겠다는 젠슨 황 최고경영자(CEO)의 의지가 투영된 결과물이다. 이번 발표는 엔비디아가 기존 GPU 중심 AI 인프라 주도권을 차세대 양자 데이터센터로 확장하려는 전략적 포석으로 읽힌다. 양자 상용화의 최대 병목으로 꼽히는 오류 정정과 보정 자동화 영역을 선점함으로써, 향후 QPU가 데이터센터의 새로운 연산 축으로 편입될 때 소프트웨어 런타임과 양자연산장치(QPU)-그래픽처리장치(GPU) 인터커넥트 표준까지 선점하려는 움직임으로 해석된다. 국내외 AI 인프라 시장에도 거센 파장이 예상된다. 엔비디아는 자사의 '쿠다-Q(CUDA-Q)' 플랫폼과 'NVQ링크(NVQLink)' 하드웨어를 아이징 모델과 통합해 GPU와 QPU가 공존하는 하이브리드 컴퓨팅 표준을 제시했다. 이는 향후 클라우드서비스제공업체(CSP)들이 양자 가속 서비스를 설계할 때 엔비디아의 쿠다-Q·NVQ링크 중심 스택을 사실상의 표준 레이어로 채택할 가능성을 높일 것으로 보인다. 결과적으로는 엔비디아의 플랫폼 영향력을 크게 확대할 수 있다는 분석도 나온다. 이미 아톰 컴퓨팅, 아이온큐(IonQ) 등 글로벌 양자 기업은 물론 연세대학교 등 국내외 주요 학계에선 아이징에 대한 검증·적용이 진행되고 있다. 엔비디아는 NIM 마이크로서비스와 쿡북(Cookbook)을 함께 제공해 개발자들이 특정 하드웨어 아키텍처에 맞춰 모델을 즉각 파인튜닝할 수 있도록 지원하며 양자 개발 스택 영향력을 높이고 있다. 황 CEO는 "AI는 양자 컴퓨팅을 실용화하기 위해 필수적"이라며 "아이징을 통해 AI는 제어 계층으로서 양자 기계의 운영체제 역할을 수행하고, 취약한 큐비트를 신뢰할 수 있는 양자-GPU 시스템으로 전환할 것"이라고 강조했다. 업계 관계자는 "이번 발표는 엔비디아가 단순한 가속기 제조사를 넘어 양자-클래식 하이브리드 컴퓨팅의 런타임 표준을 장악하겠다는 선언"이라며 "특히 복잡도가 높은 양자 오류 정정 코드를 고성능 GPU 기반의 신경망으로 해결하려는 시도는 향후 퀀텀 데이터센터 설계의 필수적인 레퍼런스가 될 가능성이 높다"고 분석했다.

2026.04.16 10:34장유미 기자

국민성장펀드, 네이버 AI 인프라에 4천억 저리대출…"소버린 AI 육성"

인공지능(AI) 주권 경쟁이 본격화되는 가운데 국민성장펀드가 네이버 AI 데이터센터와 그래픽처리장치(GPU) 인프라 확충에 대규모 자금을 투입한다. 국가 AI 경쟁력 강화와 생태계 육성을 지원한다는 목표다. 금융위원회는 지난 15일 국민성장펀드 기금운용심의회를 열고 네이버 AI 데이터센터 증설 및 GPU 서버 도입 사업에 총 4000억원 규모 저리대출을 지원하는 안건을 의결했다. 이번 사업은 세종시에 위치한 네이버 데이터센터 '각 세종'을 중심으로 AI 인프라를 확충하는 프로젝트다. 총 사업비는 9221억원 규모로, 네이버가 5221억원을 자체 조달하고 나머지 4000억원은 첨단전략산업기금과 산업은행이 3%대 저리로 지원한다. 핵심은 GPU 기반 AI 인프라 확보다. 데이터센터와 GPU는 AI 연산 처리의 기반이 되는 핵심 설비로, 대형언어모델(LLM) 개발과 서비스 구현에 필수적인 요소로 평가된다. 특히 생성형 AI 확산으로 연산 수요가 급증하면서 자체 인프라 확보 여부가 기업 경쟁력을 좌우하는 요소로 부상하고 있다. 네이버는 이번 인프라 확충을 통해 자체 AI 모델 '하이퍼클로바X'를 안정적으로 운영하고 성능을 고도화할 계획이다. 하이퍼클로바X는 뉴스·쇼핑·지도·블로그 등에서 축적한 대규모 한국어 데이터를 기반으로 개발된 모델로, 한국어 이해도와 문화적 맥락 반영 측면에서 강점을 갖고 있다. 특히 네이버는 데이터센터, 클라우드, AI 모델, 서비스까지 모두 자체 기술로 연결하는 'AI 풀스택' 역량을 보유한 기업이다. 이를 기반으로 검색·커머스·콘텐츠 등 플랫폼 전반에 AI를 적용해 사용자 맞춤형 서비스를 확대할 방침이다. 이번 투자 결정은 글로벌 빅테크 중심의 AI 생태계에서 벗어나 소버린 AI를 확보하기 위한 전략적 조치로 풀이된다. 현재 생성형 AI 시장은 미국 기업 중심으로 재편된 상황에서 국내 기업이 독자적인 데이터와 인프라를 기반으로 경쟁력을 확보하는 것이 중요해졌다는 판단이다. 금융위는 "국내 AI 산업이 글로벌 빅테크에 대한 의존도를 낮추고 자체적인 AI 주권을 확보할 수 있도록 국내 기업의 대규모 AI 데이터센터 구축 사업에 자금 지원을 결정했다"며 "우리나라의 독자적인 소버린 AI 생태계를 육성하는 데 기여할 것"이라고 밝혔다.

2026.04.16 09:29한정호 기자

문서 시장에 확산된 '터보퀀트'…사이냅소프트, AI 서비스 비용 낮췄다

사이냅소프트가 최근 인공지능(AI) 시장에서 큰 주목을 받은 경량화 기술 '터보퀀트'를 적용해 문서 AI 경쟁력을 강화한다. 대형언어모델(LLM)과 시각언어모델(VLM) 운영 시 발생하는 메모리 병목 문제를 해결하며 기업 AI 도입 비용을 낮춘다는 목표다. 사이냅소프트는 구글 리서치가 공개한 최신 벡터 양자화 알고리즘 터보퀀트를 자사 AI 솔루션 '사이냅 OCR IX'에 적용했다고 15일 밝혔다. 터보퀀트는 AI 모델이 긴 문서를 처리할 때 발생하는 메모리 사용량을 줄이기 위한 기술로, 최근 생성형 AI 확산과 함께 인프라 효율을 높이는 핵심 기술로 주목받고 있다. 특히 LLM·VLM이 사용하는 'KV 캐시'를 압축해 동일한 그래픽처리장치(GPU) 환경에서도 더 많은 데이터를 빠르게 처리할 수 있도록 지원하는 것이 특징이다. 사이냅 OCR IX는 VLM과 AI 에이전트 기술을 결합한 에이전틱 광학문자인식(OCR) 솔루션으로, 비정형 문서의 맥락을 이해하고 필요한 데이터를 자동 추출한다. 기존에는 긴 문서를 처리할수록 메모리 사용량이 급증해 고가의 GPU 인프라가 필요했지만, 터보퀀트 적용으로 이러한 한계를 개선했다는 설명이다. 회사 측에 따르면 이번 기술 적용을 통해 동일한 GPU 환경에서도 더 긴 컨텍스트와 대용량 배치를 병목 없이 처리할 수 있게 됐다. 이에 고성능 GPU 서버 구축 부담을 줄이고 총소유비용(TCO)도 낮출 수 있다. 사이냅소프트는 GPU 인프라 도입이 어려운 기업을 위해 중앙처리장치(CPU) 기반 환경도 함께 지원한다. 자체 모델에 대한 정밀 프로파일링을 통해 연산 효율을 높였으며 품질 손실을 1% 이하로 억제하면서도 CPU 서버만으로 분당 약 100건 수준의 추론 처리가 가능하도록 성능을 확보했다. 기존 서버 인프라를 활용해야 하는 기업이나 GPU 도입이 어려운 환경에서도 AI OCR 적용을 가능케 한다는 방침이다. 사이냅소프트는 이같은 기술 적용이 금융·공공 등 온프레미스 환경에서 AI 도입을 확대하는 계기가 될 것으로 보고 있다. 높은 보안 요구와 인프라 제약으로 AI 도입이 쉽지 않았던 산업에서도 비용 효율성과 성능을 동시에 확보할 수 있다는 점에서다. 전경헌 사이냅소프트 대표는 "단순히 자체 기술력에만 머물지 않고 글로벌 빅테크의 최신 연구 성과인 터보퀀트를 기민하게 상용화해 기존 VLM의 한계를 극복했다"고 말했다. 이어 "CPU 버전까지 아우르는 유연한 인프라를 지원해 기업들이 도입 비용 걱정 없이 에이전틱 OCR 환경을 구축하고 실질적인 업무 자동화를 이룰 수 있도록 적극 지원하겠다"고 덧붙였다.

2026.04.15 17:14한정호 기자

나무기술, 240억원 GPU 기술개발 참여…AI 인프라 경쟁력 강화

나무기술이 인공지능(AI) 인프라 핵심 기술인 그래픽처리장치(GPU) 운영 분야에서 효율적인 기술 경쟁력 확보에 나섰다. 나무기술은 한국전자기술연구원(KETI)이 주관하는 GPU 오케스트레이션 기술개발 과제에 공동연구기관으로 선정됐다고 15일 밝혔다. 이번 과제는 이달부터 추진되는 총 240억원 규모 사업으로, AI 워크로드 특성에 맞춰 GPU 클러스터 자원을 효율적으로 운영·관리하는 기술 확보를 목표로 한다. 나무기술은 세부 연구개발에 참여해 GPU 자원 운영 기술 개발을 맡는다. 특히 다양한 AI 작업이 동시에 구동되는 다중 워크로드 환경에서 자원 활용도를 높이고 운영 복잡도를 줄이는 데 초점을 맞췄다. 워크로드 특성 기반 자원 배분과 클러스터 운영 효율 개선 기술을 통해 GPU 자원을 보다 안정적이고 유연하게 활용할 수 있는 기반을 마련한다는 계획이다. 최근 생성형 AI와 AI 에이전트 확산으로 GPU 인프라 수요가 빠르게 증가하면서, 단순한 자원 확보를 넘어 운영 효율성과 비용 최적화를 동시에 달성하는 기술의 중요성이 커지고 있다. 나무기술은 이번 과제를 통해 AI 인프라 운영 기술을 고도화하고 공공과 민간 전반에서 GPU 자원 활용 효율을 높이는 데 기여한다는 방침이다. 회사는 그간 클라우드 및 인프라 운영 기술을 기반으로 가상화와 멀티클라우드 환경에서 자원 관리와 자동화 역량을 축적해왔다. 이를 GPU 중심 AI 인프라 영역으로 확장 적용할 계획이다. 또 향후 하이브리드 클라우드 플랫폼 '칵테일 클라우드'와 멀티클라우드 관리 플랫폼 '스페로' 등 기존 솔루션과 연계해 통합 AI 인프라 운영 역량도 강화한다는 목표다. 나무기술 관계자는 "이번 과제는 다양한 AI 워크로드 환경에서 GPU 자원을 효율적으로 운영할 수 있는 기반 기술을 확보하는 것"이라며 "그동안 축적해온 클라우드 및 인프라 운영 경험을 바탕으로 과제를 수행해 관련 기술을 고도화하고 AI 인프라 운영 영역에서 경쟁력을 지속 확대해 나가겠다"고 밝혔다.

2026.04.15 17:06한정호 기자

'2조원 GPU 사업 도전장' 엘리스, 올해 IPO 정조준

토종 기술로 차세대 인공지능(AI) 이동형 모듈형 데이터센터(PMDC) 구축 계획을 본격화한 엘리스그룹이 자금 조달을 위해 올해 기업공개(IPO)를 추진한다. 김재원 엘리스그룹 대표는 15일 열린 기자간담회에서 “고객이 늘어난 만큼 대규모 자본 지출에 대해서는 당연히 상장이든 비상장이든 지금 자금 조달이 필요한 것은 맞다”며 “현재로서는 상장 시장에서 자금을 조달하자는 목표를 갖고 준비해 나가고 있다”고 밝혔다. 이어 “연내에 (PMDC를) 구축해야 되기 때문에 해당 기간 안에 자금 조달을 해야 하는 상황”이라고 덧붙였다. 엘리스그룹은 AI 기반 교육 실습 플랫폼을 시작으로 AI 클라우드 인프라까지 영역을 확장하면서 AI 전 영역을 직접 구현 가능한 풀스택 기업이다. 기존에 국내에 없던 AI PMDC라는 방식으로 AI 전용 데이터센터를 구축했으며 AI 가상화 솔루션인 ECI를 자체 개발하기도 했다. 최근에는 정부가 2조원 규모로 추진하는 첨단 그래픽처리장치(GPU) 확보·구축·운용지원 사업 공모에 도전장을 내기도 했다. 엘리스그룹의 지난해 매출은 400억원 수준으로 추산되며 교육 매출은 여기서 30~40%가량을 차지한다. 회사 측은 올해 클라우드 매출이 교육 매출을 넘어섰을 것으로 보고 있다. 김 대표는 “지난해부터 급속도로 클라우드 매출이 올라왔는데, 올해는 클라우드 매출이 폭발적으로 늘어나면서 (교육 매출을) 상회하는 상황이 됐다”고 설명했다. 이날 엘리스그룹은 토종 기술로 완성한 'K-PMDC'를 중심으로 차세대 AI 클라우드 인프라 시장 공략에 나선다고 발표했다. 쉽게 말하면, 소버린 AI에 맞는 소버린(독자적인 AI 파운데이션 모델 개발을 지원해 데이터 주권을 확보하고 기술 자립을 이루는 것) 인프라를 구축한다는 것이 골자다. 이를 위해 엘리스그룹은 AI 인프라 국산화를 핵심 전략으로 삼고 차세대 AI PMDC 구축에 시동을 건다. 차세대 GPU 아키텍처를 반영한 AI 데이터센터를 통해 고성능 컴퓨팅 환경에 최적화된 인프라를 구현하고 급증하는 AI 수요에 대응할 수 있는 기반을 마련한다는 계획이다. 회사는 랙당 230kW 수준의 전력을 요구하는 차세대 그래픽처리장치(GPU) '베라 루빈 NVL72'을 지원하는 PMDC 개발을 완료하며 인프라 설계 역량을 확보했다. 이와 함께 엘리스그룹은 AI 인프라 활용도를 극대화할 수 있도록 국내 클라우드 서비스 제공자(CSP) 최초로 'GPU 스팟 요금제'를 도입했다. 해당 요금제는 유휴 GPU 자원을 활용해 온디맨드 대비 최대 50% 수준의 비용으로 제공하며, B200, H100, A100 등 주요 GPU 전 라인업을 지원한다. 이외에도 엘리스그룹의 회사 기반이었던 교육 영역에서 고도화를 꾀한다. 기업과 학교에서 맞춤형으로 활용하는 생성형 AI 솔루션 'AI헬피챗'에도 헬피 비전을 통합해 문서 이해도를 높여 정확한 리포트 생성을 가능하게 한다. 이외에도 AI 기반 이용자경험(UX) 라이팅 툴 등 기업맞춤형 도구를 통합하고 자체 ML 응용 프로그램 인터페이스(API) 구동 초거대언어모델(LLM)로 개인 및 기밀 정보 유출 위험을 낮춘다. 엔터프라이즈 리더 및 실무자 대상 AI 전환(AX) 교육도 진화시킬 방침이다.

2026.04.15 16:18박서린 기자

엔비디아 Arm PC 칩 'N1' 실물 포착...시장 진입 임박

엔비디아가 올해 Arm 기반 윈도 PC 시장에 진입할 가능성이 한층 더 커졌다. 2024년 하반기부터 대만 팹리스 미디어텍과 개발을 시작한 윈도 PC용 Arm 시스템반도체(SoC), N1 탑재 개발용 보드 실물 사진이 최근 중국 공급망을 통해 노출됐다. N1/N1X는 엔비디아 개인용 AI 워크스테이션 'DGX 스파크'에 적용된 GB10에서 작동 클록이나 메모리 대역폭, 코어 수 등을 노트북 환경에 맞게 조절한 제품으로 추정된다. 고성능 블랙웰 GPU 코어를 이용해 기존 Arm 윈도 노트북의 한계로 지적돼 온 고사양 게임 등에서도 활용 가능성이 커진다. 작년에는 지포스 GPU와 Arm CPU를 조합한 PC용 N1X 칩의 벤치마크 결과가 노출된 바 있다. 또 올 초에는 레노버의 고객지원 기술문서에 엔비디아 칩 내장 게임 PC로 예상되는 미출시 제품 모델명이 노출되기도 했다. Arm CPU·블랙웰 GPU로 게임·콘텐츠 제작 성능 강화 엔비디아가 대만 팹리스 미디어텍과 협력해 윈도 PC용 Arm 칩을 개발중이라는 루머는 2024년 하반기부터 지속적으로 흘러나왔다. 엔비디아가 개발중인 칩은 ▲ 고성능 Arm 코어텍스(Cortex)-X925 CPU 코어 10개, 저전력·고효율 코어텍스-A725 코어 10개와 블랙웰 GPU를 결합한 'N1X' ▲ 코어 수를 줄이고 GPU 성능도 낮춘 'N1' 등 두 개다. 작년 7월에는 N1X 칩 성능을 Arm용 윈도11에서 실행한 결과가 공개되기도 했다. CPU 성능은 인텔 14세대 코어 프로세서와, 내장 GPU 성능은 인텔 코어 울트라 시리즈3의 Xe3와 비슷할 것으로 예상된다. 젠슨 황, 작년 9월 'N1' 관련 내용 처음 언급 엔비디아는 작년 9월 인텔과 차세대 AI 인프라 및 개인용 컴퓨팅 제품 공동 개발 발표 자리에서 N1 칩 관련 내용을 처음 언급했다. 당시 젠슨 황 엔비디아 CEO는 "N1이라는 Arm 기반 제품이 있으며 이 칩이 DGX 스파크는 물론 유사한 제품에 탑재될 것이다. 인텔과 협업이 이들 로드맵에 영향을 미치지 않을 것"이라고 설명했다. 대만 디지타임스 역시 지난 1월 "엔비디아 N1X 칩 기반 노트북이 이르면 올 1분기 시장에 출시되고 2분기부터 본격적으로 시장에 공급될 것"이라고 보도했다. 그러나 3월 중순 진행된 GTC 2026에서도 N1/N1X 관련 내용은 공개되지 않았다. 中 중고거래 플랫폼에 N1 개발 보드 등장 최근 중국 알리바바가 운영하는 개인간 중고거래 플랫폼 '구피시(闲鱼)'에는 엔비디아 N1 칩을 내장한 것으로 추정되는 개발 보드가 매물로 올라왔다. N1 칩을 포함한 PC용 메인보드 실물이 공개된 것은 이번이 처음이다. 사진에 등장한 메인보드는 N1 칩으로 추정되는 실리콘 다이(Die) 주변에 SK하이닉스가 생산한 LPDDR5X 메모리 모듈 8개를 배치했다. 개발 보드 왼쪽에는 냉각팬과 방열판을 배치할 수 있는 빈 공간도 보인다. 이 제품 출품자가 매긴 가격은 9999위안(약 216만원)이다. 그러나 판매 글과 제품은 등록 3일만에 내려갔다. 실제 작동하는 제품인지, 혹은 어느 회사 제품에 탑재될 예정인지도 불분명하다. 6월 '컴퓨텍스 타이베이' 기간 중 출시 가능성 ↑ 엔비디아는 '컴퓨텍스 타이베이 2026'이 열리는 6월 1일부터 4일까지 개발자 대상 행사 'GTC 2026'을 진행한다. 이 기간을 전후해 진행되는 기조연설에서 N1/N1X를 공개할 가능성이 크다. 레노버와 델테크놀로지스 등 PC 제조사도 관련 제품 출시를 준비중이다. CPU 전력 효율과 GPU 성능을 강화한 인텔 코어 울트라 시리즈3, Arm 호환 오라이언 CPU를 내장한 퀄컴 스냅드래곤 X2 등과 CPU 성능, GPU 성능 면에서 경쟁이 예상된다. 특히 레노버는 지난 1월 게이밍 노트북 '리전'에 탑재되는 소프트웨어인 '리전 스페이스' 관련 기술지원 문서에 'Legion 7 15N1X11'이라는 미출시 제품 명칭을 표기했다. 이는 '15인치 디스플레이와 엔비디아 N1X를 탑재한 리전 7 노트북'으로 해석될 수 있다.

2026.04.15 15:22권봉석 기자

엘리스 "차세대 AI 클라우드 인프라 시장 공략…K-PMDC 추진"

인공지능(AI) 풀스택 기업 엘리스그룹이 토종 기술로 완성한 'K-PMDC'를 기반으로 차세대 AI 클라우드 인프라 시장에 진출한다. AI PMDC 구축을 통해 차세대 GPU 아키텍처를 반영한 AI 데이터센터로 고성능 컴퓨팅 환경에 걸맞은 인프라를 설립하고, AI 수요에 대응할 수 있는 토대를 만든다. 엘리스그룹은 15일 서울 강남에서 기자간담회 '엘리스 임팩트(IMPACT) 2026: AI풀스택 가능성의 확장'을 열고, AI 인프라부터 AI 교육까지 전 영역을 아우르는 'AI 풀스택 전략'을 공개했다. 엘리스그룹은 국산 기술로 완성한 'K-PMDC'를 중심으로 차세대 AI 클라우드 인프라 시장 공략에 나설 계획이다. 엘리스그룹은 AI 기반 교육 실습 플랫폼을 시작으로 AI 클라우드 인프라까지 영역을 확장하며 AI 전 영역을 직접 구현하고 운영할 수 있는 풀스택 기업으로 진화해왔다. 기존에 국내에 없던 AI PMDC라는 방식으로 AI 전용 데이터센터를 구축한 데 이어 AI 클라우드 가상화 솔루션 ECI를 자체 개발해 대규모 그래픽처리장치(GPU) 자원을 효율적으로 운영·활용할 수 있는 구조를 구축했다. 엘리스그룹은 AI 인프라 국산화를 핵심 전략으로 삼고, 차세대 AI PMDC 구축을 본격 추진한다. 차세대 GPU 아키텍처를 반영한 AI 데이터센터를 통해 고성능 컴퓨팅 환경에 최적화된 인프라를 구현하고, 급증하는 AI 수요에 대응할 수 있는 기반을 마련한다는 방침이다. 랙당 230kW 수준의 전력을 요구하는 차세대 GPU '베라 루빈 NVL72'을 지원하는 PMDC 개발을 완료하며, 고전력 환경에서도 안정적으로 운영할 수 있는 인프라 설계 역량을 확보했다. 현재 엘리스그룹이 제공하는 AI 모듈형 데이터센터는 기존 약 2년 이상 소요되던 데이터센터를 약 3개월 내 구축할 수 있어, 빠른 구축과 유연한 확장이 가능하다. 아울러, 엘리스그룹은 AI 인프라 활용도를 극대화할 수 있도록 국내 클라우드 서비스 제공자(CSP) 최초로 'GPU 스팟 요금제'를 도입했다. GPU 스팟 요금제는 유휴 GPU 자원을 활용함으로써 온디맨드 대비 최대 50% 수준의 비용으로 제공하는 것이 특징이다. 이를 통해 수요 기업은 동일한 GPU 자원을 효율적인 비용으로 활용할 수 있다. 해당 요금제는 B200, H100, A100 등 주요 GPU 전 라인업을 지원한다. 이번 요금제 출시로 엘리스그룹은 기존의 장기 약정형, 온디맨드와 함께 스팟까지 포함한 3종 과금 모델을 모두 갖춘 국내 유일의 CSP가 됐다. 엘리스그룹은 'AI 풀스택 가능성의 확장'이라는 방향성 아래 AI 클라우드 인프라뿐 아니라 AI 솔루션과 교육 영역에서도 AI 전환(AX)을 가속화하고 있다. 엘리스그룹의 AI 문서 분석 솔루션 '헬피 비전(Helpy Vision)' 라인업은 기업별로 상이한 복잡한 문서 구조를 학습해 비정형 데이터를 정형화하는 기술을 제공하며, 이를 통해 AI 에이전트가 활용 가능한 데이터 기반을 구축한다. 복잡한 표 구조 인식(TSR) 분야에서 최고 성능을 유지하고 있다. 또한, 기업과 학교에서 맞춤형으로 활용하는 생성형 AI 솔루션 'AI헬피챗'에도 헬피 비전을 통합해 문서 이해도를 높여 한층 정확한 리포트 생성을 가능하게 할 계획이다. 이밖에도 현장에 사용 가능한 AI 기반 이용자경험(UX) 라이팅(Writing) 툴 등 기업맞춤형 도구를 통합하고, AI헬피챗에 엘리스가 자체 보유한 ML API 구동 초거대언어모델(LLM)으로 개인·기밀 정보 유출 위험을 제거할 예정이다. 주요 대기업 및 학교의 AX 교육을 이끌어 온 경험 기반으로 엔터프라이즈 리더 및 실무자 대상 AX 교육도 고도화한다. AI 시대에 맞춰 실제 업무 프로세스 혁신과 업무 전환을 목표로 생성형 AI부터 에이전트 워크플로 구축까지 전 영역을 포함할 계획이다. 또한, 전사 교육, AX 컨설팅, PoC 구축, 대규모 프로젝트 수행까지 기업의 AI 전환을 위한 전 과정을 풀스택으로 지원한다. 김재원 엘리스그룹 대표는 “AI 인프라 경쟁력은 GPU 개수가 아니라, 이를 얼마나 잘 활용하느냐에 달려있다”며 “국산 기술로 완성한 차세대 AI 인프라를 통해 국내 AI 생태계의 자립도를 높이고, 기업들이 비용 장벽 없이 AI 혁신을 이룰 수 있는 토대를 만들겠다”고 말했다.

2026.04.15 10:45박서린 기자

엔비디아, PC 제조사 인수설 부인..."사실 아니다"

엔비디아가 PC·서버 제조사 중 한 곳을 인수할 수 있다는 전망이 나왔지만 회사 측이 이를 즉각 부인했다. 미국 반도체·IT매체 세미어큐레이트는 13일(현지시각) "엔비디아가 PC·서버 관련 회사 중 한 곳을 사려고 한다"고 보도했다. 이 매체는 "엔비디아는 컴퓨터 발명 이래 유례없을 정도로 PC 및 서버 시장의 판도를 완전히 뒤바꿀 대규모 인수를 추진 중이다. 2024년 말부터 이 사안을 추적해 왔고 거래가 성립되거나 무산될 시기가 다가오고 있다"고 밝혔다. 업계 관계자들은 기사에서 언급된 업체를 델테크놀로지스나 HP로 추정했다. 그러나 엔비디아는 "해당 보도는 사실이 아니다. 엔비디아는 PC 제조사 인수를 위한 논의에 참여한 적이 없다"고 부인했다. 엔비디아는 최근 1년간 상당한 금액의 투자를 지속해 왔다. 작년 9월 인텔에 50억 달러(약 6조 9430억원)를 투자한 데 이어 AI 추론 전문 스타트업 '그록'과 200억 달러(약 30조 1300억원) 규모 라이선스 계약을 체결했다. 반도체 EDA 업체인 시높시스에는 20억 달러(2조 9470억원)를, NV링크 퓨전 기술 개발 파트너사인 마벨에도 20억 달러를 투자했다. 그러나 PC 제조사 전체를 인수하는 것은 부분적인 투자와 완전히 다른 이야기다. 중립적인 위치에서 여러 PC 제조사에 GPU를 공급하는 엔비디아의 포지션이 흔들리며 미국 연방거래위원회(FTC)를 시작으로 각국 경쟁당국의 심사를 거쳐야 한다. 엔비디아는 2020년 9월 400억 달러(약 47조 5000억원)를 투입해 일본 소프트뱅크 그룹이 보유한 Arm 인수를 시도했지만 영국 경쟁시장청, 미국 연방거래위원회(FTC) 등 각국 경쟁당국의 심사 단계에서 가로막혔다. 퀄컴과 구글, 마이크로소프트와 아마존, 삼성전자 등 Arm 설계자산을 라이선스해 반도체를 만드는 주요 기업들도 이를 반대했다. 결국 엔비디아와 소프트뱅크 그룹은 2022년 2월 인수-양도 계약을 중단해야 했다.

2026.04.15 08:28권봉석 기자

전라남도, 카카오엔터프라이즈 덕에 AX '탄력'…첨단 GPU 선점

카카오엔터프라이즈가 전라남도 지역 인공지능 전환(AX) 사업을 위해 첨단 그래픽처리장치(GPU)를 확보하며 공공·지역 기반 AI 인프라 구축에 속도를 낸다. 글로벌 공급난 속에서도 물량을 적기에 확보하며 사업 안정성을 확보했다는 평가다. 카카오엔터프라이즈는 중소벤처기업부와 전라남도가 추진하는 '지역 주도형 AI 대전환 사업'과 관련해 엔비디아의 최신 GPU 'B200(블랙웰)' 40장을 확보하고 구축을 진행 중이라고 14일 밝혔다. 지역 주도형 AI 대전환 사업은 AI 활용도가 낮은 지역 중소기업의 디지털 전환을 촉진하기 위해 산업 특성에 맞춘 맞춤형 AI 도입을 지원하는 프로그램이다. 전라남도는 화학·철강·세라믹 등 소재·부품·장비 산업과 제약·식품 등 바이오 산업, 신재생에너지 분야 기업을 중심으로 AI 도입을 확대할 계획이다. 최근 AI 반도체 수요 급증과 공급망 불안으로 GPU 확보가 어려운 상황에서 카카오엔터프라이즈는 글로벌 파트너십과 자체 구매 조달 역량을 기반으로 계획된 물량을 일정에 맞춰 확보했다고 밝혔다. GPU 수급 지연 시 사업 전반이 늦어질 수 있는 상황에서 이번 확보는 지역 기업의 AI 도입 시기를 앞당기는 계기가 될 전망이다. 카카오엔터프라이즈는 확보한 GPU를 기반으로 ▲고성능 AI 인프라 운영 ▲AI 오픈 플랫폼 설계 및 구축 ▲마이크로그리드 AI 솔루션 도입 및 실증 ▲AI 활용 인프라 관제 시스템 구축 등을 단계적으로 추진할 계획이다. 이를 통해 전라남도 내 중소기업이 실제 AI를 활용할 수 있는 환경을 조성하고 산업 경쟁력 강화로 이어지도록 지원한다는 방침이다. 이재한 카카오엔터프라이즈 사업부문장은 "GPU 대란 속에서도 계획된 물량을 적기에 조달한 것은 우리의 구매 조달 경쟁력을 증명하는 사례"라며 "확보된 첨단 GPU를 기반으로 전라남도 내 중소기업이 글로벌 수준의 AI 경쟁력을 갖출 수 있도록 사업 수행에 만전을 기할 것"이라고 말했다.

2026.04.14 16:04한정호 기자

[종합] 네이버·삼성 등 5개사, 2조원 정부 GPU 확충 도전장…AWS·MSP 불참 가닥

정부가 추진하는 2조원대 그래픽처리장치(GPU) 구축 사업에 네이버클라우드와 삼성SDS가 참여한 것으로 확인됐다. 양사는 대규모 데이터센터 상면과 전력, 운영 역량을 앞세워 사업 수주전에 뛰어든 반면, 클라우드 관리 서비스 기업(MSP)들은 이번 공모에 대부분 참여하지 않은 것으로 파악됐다. 13일 업계에 따르면 과학기술정보통신부의 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모가 이날 마감된 가운데, 네이버클라우드와 삼성SDS를 비롯한 5개 사가 제안서를 제출했다. 이번 사업은 총 2조 805억원을 투입해 최신 GPU와 관련 부대장비를 국내 데이터센터에 구축하고 연내 서비스 개시까지 추진하는 대형 프로젝트다. 정부는 단순한 GPU 수량 확보를 넘어 대규모 클러스터링, 직접 구축·운용 역량, 최신 장비 도입, 연내 서비스 개시 등을 핵심 평가 요소로 제시했다. 특히 동일 데이터센터 내 집적 구축과 전력·냉각·네트워크 설계 역량까지 요구하면서 사업 난도가 크게 높아졌다는 평가다. 업계에선 이번 사업이 사실상 인프라와 운영 역량을 동시에 갖춘 소수 사업자 중심의 경쟁으로 좁혀졌다고 보고 있다. 클라우드 업계 관계자는 "올해 사업은 GPU를 사오는 것만으로 끝나는 구조가 아니라 상면·전력·냉각·하중·운영 체계까지 모두 입증해야 한다"며 "대규모 인프라를 이미 확보했거나 빠르게 확충할 수 있는 사업자에게 유리한 구도"라고 설명했다. 이런 점에서 네이버클라우드는 이번 사업의 유력 후보로 꼽혀 왔다. 최근 LG CNS와 삼송 데이터센터 코로케이션 계약을 체결하며 상면 확충에 나선 데다, 복수 데이터센터를 활용한 확장 전략을 추진하고 있어서다. 회사는 자체 데이터센터 증축과 외부 상면 확보를 병행하며 대규모 GPU 클러스터 수용 기반을 선제적으로 마련해 왔다. 이미 작년도 사업에도 선정돼 GPU 클러스터를 운영해온 노하우가 있어 올해 사업에서도 유리하게 적용할 전망이다. 이번 사업은 지난해 GPU 확보 사업의 연장선에 있다. 정부는 지난해 약 1조 4000억원을 투입해 GPU 1만 3000여 장 확보를 추진했고 네이버클라우드와 NHN클라우드, 카카오가 최종 선정된 바 있다. 이번 공모는 기존 확보 물량에 추가 확장과 고도화를 더하는 2단계 사업이다. 올해 새롭게 참여한 삼성SDS도 핵심 사업자로 거론된다. 삼성 클라우드 플랫폼(SCP)을 기반으로 공공부문 AI 인프라 사업을 확대 중이고 '국가AI컴퓨팅센터' 구축 사업에서도 컨소시엄 주관기관으로 참여하며 인프라 구축 역량을 입증한 바 있다. 특히 동탄 데이터센터를 비롯한 국내 다양한 AI 인프라 전력·운영 체계를 동시에 확보하고 있다는 점에서 경쟁력이 높다는 평가다. 국가AI컴퓨팅센터 컨소시엄에 네이버클라우드도 참여한 것을 감안하면 양사가 국가 AI 인프라 시장에서 핵심 축으로 자리 잡았다는 분석도 나온다. 반면 지난해 정부 GPU 확보 사업에 참여했던 NHN클라우드는 이번 공모에 참여하지 않은 것으로 전해졌다. NHN클라우드 관계자는 "여러 상황을 종합 검토한 결과, 이번 사업에는 참여하지 않는 방향으로 결정했다"며 "지난해 수주해 현재 진행 중인 정부 1차 GPU 구축·운용 사업의 완성도를 높이고 실질적인 성과를 확보하는데 역량을 집중할 계획"이라고 밝혔다. 카카오 역시 이번 사업 참여 여부를 공식적으로 밝히지 않았으나, 업계에선 적극적인 움직임은 없는 것으로 보고 있다. GPU 운영 역량을 보유한 KT클라우드와 엘리스그룹는 신청 여부를 밝히지 않았다. 올해 공모에선 국내 주 사업장 요건이 완화되면서 외국계 클라우드 서비스 제공사(CSP)의 참여 문턱도 낮아졌다. 이에 지난해 공공부문 클라우드 보안인증(CSAP) 하등급을 취득한 아마존웹서비스(AWS) 등도 후보군으로 거론됐지만 실제 신청 여부는 확인되지 않았다. 아울러 최근 AI 인프라를 확장 중인 SK텔레콤은 추가 상면 확보가 어려워 이번 사업에 참여하지 않은 것으로 파악됐다. 현재 업계에 따르면 네이버클라우드와 삼성SDS의 참여는 확실한 상황이다. KT클라우드, 엘리스그룹은 참여가 유력한 것으로 전해졌다. 또 지난해 사업에서 선정되지 못했던 쿠팡이 재도전한 것으로 추정된다. 특히 눈에 띄는 대목은 MSP 기업들의 부재다. 메가존클라우드·베스핀글로벌·디딤 등 주요 MSP들은 이번 공모에 참여하지 않은 것으로 파악됐다. 정부는 지난해 GPU 공급 사업을 운영하면서 단순 인프라 구축보다 서비스 운영 안정성과 이용자 지원 체계, 서비스 수준 협약(SLA)의 중요성이 커졌다고 판단하고 MSP의 컨소시엄 참여를 기대해 왔다. MSP는 클라우드 운영과 관리 경험을 바탕으로 AI 워크로드 지원과 기술지원 체계를 보완할 수 있는 역할로 평가됐기 때문이다. 하지만 실제 공모에선 MSP 참여가 이뤄지지 않은 것으로 나타났다. MSP가 컨소시엄으로 참여하더라도 실질적으로는 인프라 구축이나 운영을 보조하는 용역 성격에 머물 가능성이 크다는 점이 부담으로 작용했다는 지적이다. GPU 자산을 직접 확보·운용하지 않는 구조에선 수익 배분 구조가 제한적일 수밖에 없다는 설명이다. MSP 업계 관계자는 "정부가 SLA 강화를 위해 작년과 달리 컨소시엄 구성과 MSP의 참여를 기대했지만, 실제로는 GPU를 직접 구축·운용하는 것이 사업 핵심이라 MSP가 수익을 낼 구조가 아니다"라며 "결국 지난해에 이어 올해도 CSP 중심으로 재편된 사업"이라고 말했다. 이번 사업의 또 다른 변수는 엔비디아 GPU 수급 일정과 비용이다. 고환율과 글로벌 공급망 불안으로 GPU와 메모리 가격이 상승하면서 당초 목표 물량 확보가 쉽지 않을 수 있다는 우려가 나온다. 실제 업계에선 환율 상승 영향으로 정부가 확보 가능한 GPU 수량이 줄어들 가능성도 거론되고 있다. 앞서 정부는 엔비디아 블랙웰급 이상 최신 GPU 도입을 기본으로 보고 사업 참여 기업이 차세대 베라 루빈 클러스터 구축 제안 시 우대한다는 방침을 제시한 바 있다. 다만 연내 공급 일정과 물량 확보 가능성은 여전히 변수로 꼽힌다. 이와 관련해 정소영 엔비디아코리아 대표는 지난 8일 '시스코 커넥트 2026 코리아' 행사에서 "한국 정부와 기업들의 AI 투자 확대에 맞춰 연내 공급을 준비하고 있다"고 밝힌 바 있다. 향후 일정도 빠듯하다. 정부는 서면·발표 평가를 포함한 선정평가와 함께 데이터센터 현장실사를 병행한 뒤, 다음 달 중 수행기관을 확정해 통보할 예정이다. 이후 협약 체결과 정부출연금 교부 절차를 거쳐 GPU 발주와 데이터센터 구축, 장비 설치 및 성능 검증을 순차적으로 진행한다. 중간 점검은 9월께 이뤄지며 최종적으로는 12월까지 구축과 테스트를 마치고 연내 서비스 개시를 목표로 하고 있다. 이번 사업으로 확보된 GPU 자원은 국가 AI 프로젝트를 비롯해 산학연 연구개발, 스타트업 및 기업 AI 서비스 고도화 등에 폭넓게 활용될 예정이다. 정부는 이를 통해 대규모 AI 학습·추론 환경을 조기에 구축하고 국내 AI 생태계 전반의 성장 기반을 마련한다는 목표다. 업계 관계자는 "사업 규모와 정부 요구 조건을 감안하면 지난해와 마찬가지로 단일 사업자보다는 복수 사업자가 선정될 가능성이 크다"며 "각 사업자가 역할을 나눠 대규모 클러스터를 구축하는 방식이 될 것으로 보인다"고 말했다.

2026.04.13 17:01한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[현장] 中 자율주행 살피러 온 박민우 현대차 사장 "최종 목표는 내재화"

'갤S26' 오래 쓸수록 안다…스냅드래곤 8 엘리트 5세대의 진가

상사 눈치 보지 않고 직장서 힐링...엔피 마인드케어 '무아홈' 해보니

"공개 미룬 앤트로픽 '미토스', 위험성 과장됐다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.