• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아 GPU'통합검색 결과 입니다. (115건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'SPHBM4' 표준 제정 임박…삼성·SK AI 메모리 새 국면 예고

반도체 업계가 새로운 HBM(고대역폭메모리) 개발을 구상하고 있다. 해당 제품은 기존 HBM과 동일한 성능을 구현하면서도 설계 난이도 및 제조비용을 대폭 낮춘 것이 특징이다. 실제 상용화 추진 시 삼성전자·SK하이닉스 등 메모리 기업들은 물론, TSMC·엔비디아 등 관련 생태계에 있는 기업 전반이 상당한 영향을 받을 것으로 예상된다. 15일 업계에 따르면 JEDEC(국제반도체표준협의회)은 새로운 HBM 표준인 'SPHBM4(Standard Package HBM)' 개발의 마무리 단계에 접어들었다. I/O 수 줄여도 대역폭 그대로…SPHBM4 개념 등장 HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)를 뚫어 전기적으로 연결한 고성능 메모리다. 이 경우 대역폭을 기존 D램 대비 크게 향상시킬 수 있게 된다. 대역폭은 초당 얼마나 많은 데이터를 주고받을 수 있는 지를 나타내는 척도다. 데이터 전송 통로인 I/O(입출력단자) 핀 수를 늘리거나, I/O 핀 당 전송속도를 높이는 방법으로 향상시킬 수 있다. 일례로, 6세대 HBM인 HBM4은 데이터 전송 통로인 I/O 핀 수를 기존(1천24개) 대비 2배로(2천48개) 늘리면서 성능을 높였다. SPHBM4는 HBM4와 동일한 D램을 채용했다. 그러나 I/O 핀 수를 4:1 비율로 직렬화(Serialization)해, I/O 핀 수를 4분의 1로 줄이면서도 HBM4와 동일한 대역폭을 지원한다는 특징을 가진다. 직렬화란 여러 개의 I/O 핀에서 동시에 처리되던 데이터를 단일 I/O 핀에서 순차적으로 처리하는 방식을 뜻한다. 4:1 비율의 경우, 기존 4개 I/O 핀에서 처리되던 데이터 양을 1개 I/O 핀이 4번의 처리로 담당하게 된다. 결과적으로 SPHBM4가 잘 구동되기 위해서는 I/O 핀 당 전송속도를 4배 이상 안정적으로 구현하는 직렬화 인터커넥트 기술이 핵심이 될 것으로 관측된다. 직렬화 인터커넥트 기술로 HBM용 베이스(로직) 다이를 설계하는 미국 반도체 스타트업 엘리얀(eliyan)도 "몇 개월 내에 SPHBM4 표준이 발표되기를 기대하고 있다"며 SPHBM4에 대한 환영의 뜻을 밝혔다. 베이스 다이는 메모리의 컨트롤러 기능을 담당하는 다이다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해 데이터를 주고받을 수 있도록 만들어준다. SPHBM4가 도입되면 베이스 다이 역시 새로운 구조로 설계돼야 할 것으로 관측된다. SPHBM4 도입 시 제조 난이도·비용 감소 가능 I/O 핀 수가 512개로 줄어들게 되면, 전체 HBM 패키지에서 가장 큰 변화를 맞이하게 되는 부분은 인터포저다. 인터포저는 칩과 PCB(인쇄회로기판) 사이에 삽입하는 얇은 기판이다. AI 가속기 내부의 HBM과 로직 칩은 수많은 I/O 핀이 촘촘히 박혀 있어, PCB가 직접 대응하기가 힘들다. 이 때 미세한 배선층(RDL)을 가진 인터포저를 삽입하면 칩과 PCB의 연결을 수월하게 만들어 준다. 이렇게 HBM과 GPU를 인터포저로 연결하는 기술을 2.5D 패키징이라 부른다. 대만 주요 파운드리인 TSMC가 이 분야에서 독보적인 기술력을 확보하고 있으며, 자체적으로 'CoWoS(칩-온-웨이퍼-온-서브스트레이트)'라는 브랜드명을 붙이고 있다. 그간 TSMC는 실리콘 인터포저, 혹은 더 작은 크기의 실리콘 브릿지로 CoWoS 공정을 제조해 왔다. 실리콘 소재가 비싼 편에 속하지만, 배선 밀도를 높일 수 있어 고집적 회로 대응에 유리하기 때문이다. 반면 SPHBM4는 I/O 핀 수가 적어 기존만큼 고밀도 기판이 필요하지 않아, 유기(Organic) 인터포저만으로도 충분히 대응이 가능하다. 유기 인터포저는 실리콘 대비 배선 밀도가 낮지만, 가격이 저렴하기 때문에 패키지 제조 비용을 낮출 수 있다. 또한 유기 인터포저는 보다 유연한 설계가 가능해, HBM과 시스템반도체 간 채널 길이를 더 길게 만들 수 있다. 이를 통해 SPHBM을 더 많이 배치해, 결과적으로 총 메모리 용량을 늘릴 수 있다는 게 JEDEC의 설명이다. 이는 TSMC의 CoWoS 기술의 일종인 'CoWoS-R'의 HBM 도입을 가속화할 것으로 기대된다. CoWoS-R은 실리콘 인터포저 대신 유기 인터포저를 사용하는 개념이다. 실제 상용화 가능성은 아직 미지수 다만 SPHBM4가 실제 상용화될 지는 아직 미지수다. JEDEC은 "SPHBM4 표준은 개발 중이거나 개발 후 변경될 수 있으며, JEDEC 이사회에서 승인이 거부될 수도 있다"고 설명했다. 삼성전자, SK하이닉스 등 국내 반도체 업계에서도 SPHBM4에 대해 공식적으로 언급한 사례는 아직 없는 것으로 파악된다. 메모리 업계 한 고위 임원은 "SPHBM4 표준 제정은 HBM 기반의 AI 가속기 제조 비용을 줄이기 위한 여러 시도 중 하나로 보인다"며 "다만 현재 빅테크 기업들은 HBM의 속도 및 밀도를 동시에 강화하는 방향을 강하게 밀어부치고 있다"고 말했다.

2025.12.15 11:22장경윤 기자

엔비디아 "데이터센터용 GPU 위치 등 추적 솔루션 개발 중"

엔비디아가 10일(현지시간) 데이터센터용 GPU의 상태와 작동 위치를 파악할 수 있는 소프트웨어 기반 모니터링 솔루션을 개발하고 있다고 밝혔다. 엔비디아는 공식 블로그에 올린 글에서 “AI 인프라의 규모와 복잡성이 커질수록 데이터센터 운영자는 성능, 온도, 전력 사용량 등 요소에 대한 지속적인 가시성이 필요하다”고 개발 배경을 설명했다. 엔비디아가 개발중인 솔루션은 데이터센터에 설치된 엔비디아 GPU를 모니터링할 수 있는 대시보드를 제공한다. 엔비디아 GPU를 도입한 고객사가 필요할 경우 자발적으로 설치하는 옵트인(opt-in) 방식이다. 엔비디아에 따르면 데이터센터 운영사는 전력 사용 급증을 추적해 에너지 예산을 준수하면서 와트당 성능을 극대화하고, GPU 활용률과 메모리 대역폭, 인터커넥트 상태를 플릿 전체에서 모니터링할 수 있다. 엔비디아는 제기될 수 있는 보안 우려에 대해 "이 서비스는 각 GPU 시스템이 외부 클라우드 서비스와 GPU 메트릭을 공유하는 방식으로 실시간 모니터링만 제공한다. 엔비디아 GPU에는 하드웨어 추적 기술이나 킬 스위치, 백도어가 없다"고 밝혔다. 엔비디아의 새 솔루션은 최근 강화되고 있는 미국의 AI 칩 수출 규제 논의와 맞물려 있다. 미국 정부는 중국을 비롯한 일부 국가에 대한 고성능 AI GPU 수출을 금지하고 있다. 의회 일각에서는 엔비디아 제품에 보다 강력한 추적·검증 기능을 탑재해야 한다는 요구가 제기되고 있다. 공화당 소속 톰 코튼 상원의원을 포함해 양당 의원들이 지지하는 '칩 보안법'(Chip Security Act)'은 첨단 AI 칩에 보안 및 위치 검증 기능을 의무화하는 내용을 담고 있다. 반면 중국 정부는 엔비디아 제품에 잠재적 모니터링 백도어와 보안 취약점이 존재한다는 점을 통보했으며, 국가안보 검토 이후 일부 고성능 칩, 특히 H200 제품의 도입을 제한하고 있다.

2025.12.14 09:29권봉석 기자

엔비디아는 왜 액침냉각을 인증하지 않을까

데이터센터 전력 효율을 높이기 위한 냉각 기술 경쟁이 본격화되고 있지만, 업계에서는 한 가지 의문이 여전히 남아 있다. 엔비디아는 왜 액침냉각(Immersion Cooling)에 공식 인증을 부여하지 않는가이다. 현재 엔비디아는 고성능 GPU 서버에 적용할 수 있는 냉각 방식으로 D2C(Direct to Chip) 액체냉각만 공식 지원하고 있다. 반면, GPU 전체를 특수 절연액에 담가 열을 제거하는 액침냉각은 아직 인증 리스트에 포함되지 않았다. 이는 액침냉각 기술이 상용화 단계로 넘어가는 데 있어 가장 큰 문턱으로 꼽힌다. 업계 “엔비디아의 수익 구조가 걸림돌” 12일 업계에 따르면 엔비디아가 액침냉각에 공식 인증을 부여하지 않는 직접적인 이유로 수익 구조와 생태계 통제 문제가 거론된다. 단순한 기술 완성도의 문제가 아니라, 향후 데이터센터 시장에서의 주도권과 직결된 사안이라는 분석이다. 냉각 업계 한 관계자는 “엔비디아가 현재 인증하고 있는 D2C 방식 액체냉각은 랙 단위에서 적용되는 구조”라며 “GPU와 서버 판매 구조에는 큰 변화가 없다”고 설명했다. 반면 액침냉각은 서버 전체를 액체에 담그는 방식인 만큼, 냉각 솔루션이 서버 설계와 패키징의 중심으로 올라설 수밖에 없다는 점에서 차이가 크다. “액침은 서버까지 팔 수 있는 구조” 다른 전문가는 액침냉각과 기존 액체냉각의 가장 큰 차이를 '판매 단위'에서 찾았다. D2C 방식 액체냉각은 랙 단위 또는 인프라 확장 수준에서 적용되지만, 액침냉각은 서버 자체가 하나의 완성 제품이 된다는 것이다. 다른 냉각 업계 관계자는 “액침냉각이 본격화되면 냉각 업체는 단순 단품 공급사가 아니라 서버 랙 시스템 및 쿨링시스템을 결합한 통합 솔루션 공급자가 된다”며 “이는 GPU 중심으로 구축된 엔비디아의 기존 사업 구조와는 결이 다른 방향”이라고 설명했다. 즉, 액침냉각이 확산될 경우 냉각 기술을 보유한 업체가 서버 설계와 구성의 주도권을 쥘 수 있고, 이는 엔비디아가 주도해온 GPU-서버 생태계에 변화를 가져올 수 있다는 의미다. 엔비디아가 액침냉각 인증에 신중할 수 밖에 없는 이유다. 언젠가는 넘어야 할 선택지 다만 업계에서는 엔비디아가 액침냉각을 영구적으로 배제하기는 어려울 것으로 보고 있다. AI 학습과 추론 수요가 폭발적으로 증가하면서 GPU 집적도와 전력 밀도 역시 한계치에 다다르고 있기 때문이다. 냉각 업계 관계자는 “전력 밀도가 지금보다 더 올라가면 D2C 방식만으로는 대응이 어려운 시점이 올 수밖에 없다”며 “그때가 되면 엔비디아 역시 액침냉각을 하나의 선택지로 검토할 가능성이 크다”고 내다봤다.

2025.12.12 16:31전화평 기자

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호 기자

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤 기자

중국 AI 강자 딥시크, 엔비디아 블랙웰 밀반입 의혹

중국 인공지능(AI)업체 딥시크가 미국의 대중국 수출 제한을 피하기 위해 제3국을 통해 엔비디아 그래픽처리장치(GPU)를 반입했다는 의혹이 제기됐다. 11일 미국 디인포메이션은 복수 관계자를 인용해 딥시크가 엔비디아 '블랙웰' 아키텍처 기반 GPU 수천 개를 밀반입해 새 AI 모델을 개발 중이라고 단독 보도했다. 그동안 중국 내 여러 AI 기업이 엔비디아 칩 사용이 가능한 해외 지역에서 차세대 모델 실험을 이어온 것으로 알려졌다. 딥시크 역시 동남아 지역에 위치한 중국 외 자본의 데이터센터 기반으로 테스트 환경을 구축해 왔다. 보통 GPU나 서버가 제3국 데이터센터에 설치되면 엔비디아·델·슈퍼마이크로 등 장비 공급사 엔지니어들이 현장을 방문해 수출 통제 규정을 지켰는지 최종 점검한다. 내부 소식통들은 딥시크가 점검을 마친 뒤 서버를 부품 단위로 해체해 중국 본토로 반입해 사용했다고 주장했다. 앞서 도널드 트럼프 미국 대통령은 중국에 대해 구세대 '호퍼' 기반 H200 칩은 반출을 허용했지만, 최신 블랙웰과 차세대 루빈 아키텍처는 허용 대상에 포함되지 않는다고 밝힌 바 있다. 딥시크는 해당 논란에 대해 공식 입장을 내놓지 않고 있다. 엔비디아는 "장비를 설치한 뒤 다시 해체해 몰래 반출한다는 이른바 '유령 데이터센터' 사례는 접수한 바 없다"며 "제보가 들어오면 모두 확인한다"고 밝혔다. 이날 로이터는 "최근 엔비디아가 칩 위치를 추적할 수 있는 소프트웨어(SW) 기능을 새로 개발했다"며 "우회 반입 자체가 크게 제한될 수 있다"고 분석했다.

2025.12.11 10:06김미정 기자

"엔비디아 GPU 있어도 전기세 걱정"…AI 인재 육성 막힌 대학 현실

"국내 대학이 엔비디아 그래픽처리장치(GPU)를 확보하기 시작했습니다. 그러나 사용량이 늘어날수록 매월 수십억원에 달하는 전기료 압박을 겪고 있습니다. 이를 해결할 수 있는 보호 장치가 절실합니다." 연세대 한순구 경제학과 교수는 9일 일 국회 본청에서 열린 과학기술정보방송통신위원회 공청회에서 AI 인재 양성 걸림돌에 대해 이같은 사례를 공유했다. 인재 배출을 위한 인프라 보급 정책이 새로운 문제를 낳고 있다는 설명이다. 한 교수는 GPU 전기값이 부담스럽다는 교내 공대 교수 목소리를 공유했다. 그는 "우리 학교는 매달 몇십억 씩 드는 전기값을 감당하기 어려운 상황으로 보인다"며 "정부가 엔비디아 GPU를 학교에 제공해도 전기세 때문에 마음 놓고 쓸 수 없는 것으로 알고 있다"고 말했다. 학교가 GPU 활용을 위한 내부 결재와 예산 압박으로 장비 사용에 부담을 느낀다는 설명이다. 정부가 AI 인재 양성을 위해 대학에 GPU를 제공하지만, 막상 대학은 전기료로 이를 제대로 돌리지 못하는 실정이다. 앞서 정부는 대학을 비롯한 연구소, 스타트업 등이 고성능 GPU를 활용할 수 있도록 'AI 컴퓨팅 자원 임차 지원' 제도를 운용하기 시작했다. 이 제도는 엔비디아 GPU를 정부가 대량 확보한 뒤 공공·산학연 기관에 클라우드 형태로 제공하는 식이다. 또 GPU 서버 단위·카드 단위 등으로 선택해 임차할 수 있다. 이날 국내 AI 인재 해외 유출은 여전하다는 목소리도 나왔다. 국내 AI 대학원에서도 박사급 인재가 배출되기 시작했지만, 유능한 인재는 해외 빅테크나 연구소로 떠난다는 지적이다. 최재식 김재철AI대학원 교수는 "앞으로 해외로 떠난 AI 인재를 국내로 귀환시키는 '순환형 인재 육성 모델'이 절실하다"고 주장했다. 한순구 교수도 "미국과 중국에 인재를 보내서 기술을 습득시킨 뒤 다시 한국으로 오게 만드는 모델도 만드는 게 좋을 것"이라고 강조했다. 더불어민주당 최형두 의원은 "현재 아시아 최고 수준의 이공계·자연계 졸업생을 한국으로 유치하는 제도를 만들고 있다"며 "이를 위해 영주권·국적 취득 절차 간소화와 장기 연구비자 확대 등을 추진하고 있다"고 설명했다. 이어 "이는 국내 대학·연구기관의 교수·연구인력 부족 문제를 완화하는 효과도 있을 것"이라고 기대했다.

2025.12.09 15:49김미정 기자

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정 기자

트럼프-젠슨 황 회동...중국향 AI 칩 수출 재개 가닥

미국 대통령 도널드 트럼프가 세계 최대 AI 반도체 업체 엔비디아의 젠슨 황 CEO와 만나 첨단 AI 칩의 중국 수출 통제 문제를 논의했다고 로이터가 3일(현지시간) 보도했다. 트럼프 대통령은 황 CEO를 “똑똑한 사람”이라고 평가하며 “그는 내 입장을 잘 안다”고 말했다. 이번 논의는 미국 정부가 엔비디아 GPU 'H200'을 중국에 판매할지 검토 중인 가운데 이뤄졌다. H200은 엔비디아의 전세대 제품이다. 판매가 허용된다면 중국 시장 접근이 재개된다는 의미로, 반도체 업계와 글로벌 AI 생태계에 적지 않은 파장이 예상된다. 황 CEO는 같은 날 미국 의회를 찾아 “미국 내 주별(州)로 나뉜 규제가 AI 기술 발전을 느리게 한다”며 규제 완화를 촉구했다. 아울러 일부에서 나오는 반출 우려에 대해선, “AI 서버용 GPU는 무게·가격·전력 소비량이 매우 커, 대규모 밀수는 현실적으로 어렵다”고 반박했다. 엔비디아 측은 즉각적인 공식 입장을 내놓지 않았으며, 이번 회동을 계기로 미국 내 수출 통제 정책과 중국을 포함한 글로벌 시장 사이 줄다리기가 한층 격화될 전망이다.

2025.12.04 10:52전화평 기자

[현장] 나연묵 교수 "쏟아지는 GPU 운영 인프라 부족…AI 데이터센터 필수"

"정부가 그래픽처리장치(GPU) 수십만 장을 기업·기관에 도입하고 있지만, 이를 제대로 운영할 수 있는 데이터센터 성능이 여전히 부족합니다. GPU 운영에 필수적인 전력·냉각·네트워크 등 기반 시설이 기존 데이터센터로 감당하기 어렵습니다. 인공지능 데이터센터(AIDC) 구축이 필수입니다." 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 25일 한국컴퓨팅산업협회가 코엑스에서 개최한 '2025 미래 IT 전략-AI데이터센터 컨퍼런스'에서 "정부가 데이터센터 인프라 준비 없이 GPU만 대량 도입하고 있다"며 AIDC 필요성을 재차 강조했다. 그는 기존 데이터센터 개념이 AIDC와 다르다고 설명했다. 기존 데이터센터는 웹서비스나 기업 시스템을 운영하는 데 최적화된 인프라다. 중앙처리장치(CPU) 중심의 일반 서버를 기준으로 설계됐다. 반면 AIDC는 대규모 AI 모델을 학습·추론하는 시설이다. 고성능 연산 장치인 GPU와 AI 칩을 대량으로 활용하는 것을 목표로 뒀다. 나 교수는 GPU 서버 운영의 핵심인 고속 연결망·고출력 전력·고밀도 냉각 세 요소가 기존 데이터센터에 부족하다고 짚었다. 기존 데이터센터는 3~5킬로와트(kW) 전력 공급을 기준으로 설계됐는데, 엔비디아 최신 GPU 서버는 장비 한 대만으로 14.3kW를 요구한다는 점을 대표적 사례로 들었다. 그는 "GPU 한 대가 표준 랙 3개 공간을 차지하는 비효율을 초래할 수 있다"고 지적했다. 네트워크 병목도 기존 데이터센터 주요 문제로 꼽혔다. 나 교수는 국내 데이터센터 네트워크가 랙스케일 서버 구성을 충분히 뒷받침할 수 없다고 평가했다. 그는 "AI 학습은 여러 GPU를 한꺼번에 묶어 하나의 시스템처럼 동작시키는 기술이 반드시 필요하다"며 "이를 위해서는 GPU 간 데이터를 빠르게 주고받는 연결망이 필수"라고 강조했다. 이어 "특히 '인피니밴드'와 '울트라 이더넷' 같은 기술이 GPU 클러스터 성능을 결정한다"고 덧붙였다. 데이터센터 스토리지 요건도 문제로 제기됐다. 그는 "AI 학습에서는 기존 데이터센터 대비 훨씬 더 큰 용량과 더 빠른 처리 속도가 필요하다"며 "지금의 스토리지 인프라로는 대응이 쉽지 않다"고 지적했다. 나 교수는 기존 데이터센터의 냉각 인프라가 한계에 다다랐다고 봤다. 그는 "GPU 서버가 소비한 전력은 그대로 열로 배출되는데, 이 열량이 기존 공랭식 시스템의 처리 한계를 넘고 있다"고 지적했다. 이어 "10kW 이상의 발열은 공랭식으로 감당하기 어려워 액침냉각이나 수냉식 같은 고성능 냉각 기술 도입이 불가피하다"며 "현재 정부와 민간에서는 임시 냉각 설비를 증설해 운영을 이어가고 있지만 이를 근본적 해결책으로 볼 수 없다"고 덧붙였다. 또 그는 "GPU 서버의 비중이 높고, 랙 전력 밀도 15~500kW를 감당하면서 수냉식으로 작동하는 AIDC를 더 늘려야 한다"고 강조했다.

2025.11.25 15:24김미정 기자

美, 엔비디아 AI칩 中에 밀수출한 일당 기소

미국 연방 검찰이 엔디비아의 AI반도체를 중국으로 불법 수출한 혐의로 중국인 2명과 미국인 2명을 기소했다고 블룸버그통신이 21일 보도했다. 공개된 기소장에 따르면, 이들은 플로리다주에 가짜 부동산 사업체를 꾸려 수백 개의 엔비디아 반도체를 말레이시아를 거쳐 중국으로 최종 운송했다. 이 과정에서 미국 상무부에 수출 허가는 신청하지 않았다. 불법 수출된 것으로 알려진 엔비디아 칩은 'A100'이다. 현재 출시되고 있는 '블랙웰' 시리즈에 비하면 구형 제품에 속하나, AI 데이터센터에 충분히 활용될 수 있는 성능을 갖추고 있다. 또한 이들은 다음 세대의 칩인 H100, H200, 슈퍼컴퓨터 10대 등을 밀수하려 한 혐의도 받고 있다. 검찰은 이들 일당이 엔비디아 칩을 중국에 네 차례나 수출하려 한 것으로 보고 있다. 첫 번째와 두 번째 시도는 2024년 10월부터 올해 1월 사이에 일어나, A100 칩 400여개가 중국으로 수출됐다. 3~4번째 시도는 사법 당국의 조치로 무산됐다. 엔비디아 대변인은 이와 관련한 성명에서 "수출 시스템은 엄격하고 포괄적"이라며 "구형 제품의 소규모 판매조차도 2차 시장에서 엄격한 조사와 검토를 받는다"고 밝혔다. 앞서 미국은 지난 2022년부터 국가 안보를 이유로 첨단 AI 반도체가 중국으로 수출되는 것을 제한하는 법안을 시행 중이다. 이에 따라 엔비디아는 기존 대비 성능을 낮춘 제품 개발로 대안책을 마련해 왔으나, 이마저도 추가 규제로 활로가 막힌 상황이다. 그러나 엔비디아 칩을 중국으로 밀반출하려는 사례는 지속 적발되고 있다. 지난 8월에는 중국 국적자 2명이 캘리포니아주 엘몬테에 위치한 회사를 이용해 엔비디아의 AI칩을 불법 수출한 혐의로 기소된 바 있다.

2025.11.23 08:50장경윤 기자

젠슨 황, 'AI 거품론' 부정..."엔비디아는 다르다"

젠슨 황 엔비디아 CEO가 19일(현지시간) 3분기 실적발표 이후 컨퍼런스콜에서 AI 시장 과열 논란을 정면으로 반박했다. 그는 이달 초부터 나오기 시작한 'AI 버블'을 둘러싼 시장 우려에 자사 기술력과 수요의 견고함을 강조했다. 젠슨 황 CEO는 "AI 버블에 대한 이야기가 많지만, 우리의 관점에서 보이는 것은 완전히 다르다. 엔비디아는 어느 가속기 제조사와 다르다. 훈련 전, 훈련 후, 추론 등 AI 모든 단계에서 경쟁력을 확보했다"고 밝혔다. 젠슨 황 CEO는 지난 10월 GTC 워싱턴 행사에서 올 초부터 내년 말까지 GPU 수주 잔고가 5천억 달러(734조 7천500억원)에 달한다고 밝히기도 했다. 이날 콜렛 크레스 엔비디아 CFO는 "이 수치는 현 세대 GPU인 블랙웰과 차세대 GPU인 루빈(Rubin)을 모두 포함한 것이다. 앤트로픽 등 신규 고객사가 추가되며 이 수치는 더 늘어날 것"이라고 설명했다. 엔비디아는 올 3분기 매출 중 중국 시장용으로 설계된 H20 GPU의 매출은 극히 미미했다고 밝힌 바 있다. 콜렛 크레스 CFO는 "3분기에는 지정학적 이슈와 현지 경쟁 심화로 중국 시장에서 대규모 발주는 없었다"고 설명했다. 이어 "4분기 전망에는 중국 시장의 데이터센터 관련 매출을 0(제로)으로 가정하고 있다. 더 경쟁력 있는 제품을 중국에 공급하지 못한 점은 아쉽지만, 미국 정부와 중국 정부 모두와 지속적으로 협력할 것"이라고 밝혔다. 젠슨 황 CEO는 생산·공급망 전략과 관련해 "엔비디아의 공급망은 사실상 전 세계 모든 기술 기업을 포함하고 있다. TSMC와 패키징 파트너들, 메모리 공급업체들, 그리고 모든 시스템 ODM이 우리와 함께 매우 잘 준비해 왔다"고 설명했다. 콜렛 크레스 CFO도 "글로벌 공급망에서 복원력을 강화하는 데 집중하고 있다. 지난 10월 미국(애리조나 주 TSMC 팹)에서 첫 블랙웰 웨이퍼가 생산됐고 향후 수 년간 폭스콘, 위스트론, 앰코와 함께 미국 내 생산을 확대할 것"이라고 밝혔다.

2025.11.20 08:33권봉석 기자

스노우플레이크-엔비디아, ML 개발 가속 환경 구축

스노우플레이크가 엔비디아 손잡고 기업 머신러닝(ML) 개발 속도 높이기에 나섰다. 스노우플레이크는 인공지능(AI) 데이터 클라우드에 엔비디아의 오픈소스 라이브러리 '쿠다 엑스'를 탑재했다고 19일 밝혔다. 양사는 이번 협력으로 통해 모델 개발 전 과정의 효율을 끌어올리는 것을 공동 목표로 삼았다. 스노우플레이크는 쿠다 엑스의 데이터 사이언스 생태계에서 제공되는 '쿠엠엘'과 '쿠디에프'를 ML 엔진에 직접 통합한다. 이를 통해 파이썬 기반 주요 라이브러리 개발 시간을 대폭 줄였다. 데이터 사이언티스트는 인프라 조정 없이 기존 코드 그대로 그래픽처리장치(GPU) 성능을 활용할 수 있다. 엔비디아는 랜덤 포레스트에서 약 5배, 에이치디비스캔(HDBSCAN)에서 최대 200배까지 중앙처리장치(CPU) 대비 속도 향상을 확인했다. 이번 통합으로 기업은 이 성능을 스노우플레이크 환경 안에서 동일하게 사용할 수 있게 됐다. 엔비디아 고객도 쿠다 엑스 생태계 안에서 스노우플레이크 컨테이너 런타임을 활용해 대규모 ML 개발 환경을 신속히 구축할 수 있다. 이 환경은 복잡한 연산 작업을 몇 시간 단위에서 몇 분 단위로 단축하는 데 최적화됐다. 이번 통합은 대규모 테이블 데이터 처리나 대량 클러스터링 분석 같은 고난도 작업뿐 아니라 컴퓨터 유전체학처럼 고차원 시퀀스 분석이 필요한 분야에서도 GPU의 활용도를 극대화한다. 기업은 분석 시간을 줄이고 인사이트 도출에 더 많은 역량을 투입할 수 있다. 스노우플레이크는 이번 협력을 계기로 생성형 AI와 엔터프라이즈급 거대언어모델 개발까지 AI 라이프사이클 전 영역에서 GPU 최적화 도구를 확장할 계획이다. AI 데이터 클라우드 전략을 강화해 고객 기술 생태계를 더욱 넓히려는 전략이다. 크리스티안 클레이너만 스노우플레이크 제품 담당 수석부사장은 "우리는 기업이 쉽고 안전한 환경에서 데이터와 AI를 최대 성능으로 활용하는 것을 목표로 한다"며 "엔비디아와의 통합은 그 목표에 한 단계 가까워진 과정"이라고 밝혔다.

2025.11.19 14:10김미정 기자

엔비디아 손잡은 메가존클라우드, AI 총판으로 IPO 기대감 '↑'

메가존클라우드가 엔비디아와 국내 AI 인프라 총판 계약을 체결했다. 상장(IPO)을 추진 중인 상황에서 AI 인프라 사업 역량을 강화하고 기업 가치와 성장 스토리를 보강할 수 있는 계기를 마련했다는 평가다. 메가존클라우드는 17일 엔비디아와 국내 AI 인프라 총판 계약을 체결했다고 밝혔다. 총판 계약의 범위는 데이터센터·기업·공공 등 기업간 거래(B2B) 영역의 AI 인프라를 중심으로 한다. 개인용 그래픽카드 등 B2C 리테일 시장은 포함되지 않는다. 관련 업계에서는 이번 총판 계약이 메가존클라우드를 AI 인프라 시대의 핵심 사업자로 부상시키는 동시에 IPO를 앞두고 수익 구조와 성장 스토리를 구체화하는 계기가 될 것으로 보고 있다. 엔비디아 손잡은 메가존클라우드, 플랫폼형 AI 총판으로 도약 메가존클라우드는 DGX·HGX GPU 서버와 인피니밴드 기반 고성능 네트워크 장비 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급하며 AI 인프라 공급과 생태계 확산에 본격 나선다. 이를 통해 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요를 겨냥한다는 계획이다. 특히 이번 계약을 단순 하드웨어 유통을 넘어 '플랫폼형 총판' 모델로 가져간다는 전략이다. 고객사의 AI 사업을 빠르게 추진할 수 있도록 AI 인프라 설계·구성 지원, AI 기술 검증(PoC)과 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계 등 전 과정을 패키지로 제공한다. 하드웨어 납품과 더불어 인프라 설계, 운영, 인력 역량 강화까지 하나의 서비스 체계로 묶어 제공하겠다는 구상이다. 이를 통해 메가존클라우드는 엔비디아라는 벤더와 국내외 파트너, 최종 고객을 하나의 플랫폼 위에서 기술적으로 오케스트레이션하는 허브 역할을 자처한다. GPU와 네트워크 장비와 함께 클라우드·보안·운영·애플리케이션을 얹어 수익성을 높이는 서비스·플랫폼 사업의 출발점으로 삼겠다는 것이다. 기업 내부에서도 총판 마진 자체보다 상위 레이어 비즈니스에서 나오는 장기 매출과 이익 기여에 더 큰 무게를 두고 있는 것으로 전해진다. 이미 메가존클라우드는 클라우드 매니지드 서비스(MSP)와 디지털 전환(DX) 사업을 통해 다수의 고객 인프라를 운영해 온 경험을 갖고 있다. 2천여명의 클라우드·AI 기술 전문가를 보유하고 있으며, 국내외 8천여곳의 고객사를 대상으로 클라우드 전환과 운영을 지원하고 있다. 이 밖에도 글로벌·국내 주요 클라우드 서비스 제공업체(CSP)와 전략적 협력 관계를 구축하고 1백50여곳의 ISV 파트너, 자체 개발한 클라우드·AI·보안 솔루션 포트폴리오도 확보한 상태다. 메가존클라우드는 이러한 기반 위에 엔비디아 총판 역량을 더해 GPU 인프라 조달부터 배치, 운영, 비용·성능 최적화, 상위 애플리케이션까지 원스톱으로 제공하는 AI 인프라 플랫폼 사업을 강화하겠다는 입장이다. 메가존클라우드, AI 인프라 총판으로 IPO 기대감 ↑ 관련 업계에서는 이번 계약이 상장을 준비 중인 메가존클라우드의 기업 가치 제고에도 우호적으로 작용할 것으로 분석 중이다. 글로벌 AI 인프라 시장에서 사실상 표준으로 자리 잡은 엔비디아와의 전략적 총판 계약은 메가존클라우드가 단순 클라우드 MSP를 넘어 AI 인프라 플랫폼 기업으로 포지셔닝을 강화하는 신호로 읽히기 때문이다. 회사가 그동안 쌓아 온 클라우드, 데이터, 보안 사업 위에, 엔비디아 GPU 총판이라는 상징성과 성장 동력을 추가해 IPO 스토리를 한층 풍부하게 만들 수 있다는 기대도 제기된다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 전개할 계획이다. 산업별 기술 세미나와 고객 대상 웨비나를 열고 개념검증(PoC) 지원 캠페인과 파트너 기술 교육 프로그램을 운영해 엔비디아 기반 AI 인프라 도입을 확대한다는 방침이다. 메가존클라우드는 기존 고객 기반과 글로벌 파트너 네트워크를 활용해 제조·금융·공공·게임·미디어 등 주요 산업에서 AI 인프라 레퍼런스를 빠르게 확보하고, 이를 다시 레퍼런스 패키지로 전환하는 선순환 구조를 만들겠다는 구상이다. 메가존클라우드 염동훈 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 돕겠다"고 말했다.

2025.11.17 17:05남혁우 기자

메가존클라우드, 엔비디아 한국 총판 계약…AI 인프라 플랫폼 사업 본격화

메가존클라우드(대표 염동훈)가 엔비디아와 한국 총판 계약을 체결했다. 이를 바탕으로 하고 인공지능(AI) 인프라 설계부터 구축·운영, 교육까지 아우르는 '플랫폼형 총판' 모델로 국내 AI 인프라 시장 공략에 속도를 낼 계획이다. 메가존클라우드는 엔비디아와 한국 총판 계약을 체결했다고 14일 밝혔다. 양사는 13일 과천 메가존산학연센터에서 염동훈 메가존클라우드 대표와 제프 팬처 엔비디아 글로벌 총판 총괄, 정소영 엔비디아코리아 대표 등 주요 경영진이 참석한 가운데 총판 계약 체결식을 진행했다. 메가존클라우드는 이번 계약을 통해 엔비디아의 국내 공식 총판으로서 AI 인프라 공급과 AI 생태계 확산을 본격 추진할 계획이다. 이번 계약으로 메가존클라우드는 엔비디아의 DGX·HGX GPU 서버와 고성능 네트워크 장비인 인피니밴드(InfiniBand) 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급한다. 메가존클라우드는 이를 기반으로 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 비전 및 엣지 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요에 대응한다는 방침이다. 메가존클라우드는 단순 제품 유통을 넘어 고객의 AI 사업을 빠르게 추진할 수 있도록 지원하는 새로운 개념의 '플랫폼형 총판' 운영 모델을 도입한다. 이를 통해 AI 인프라 설계와 구성 단계부터 기술 검증(PoC), 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계까지 전 과정을 기술적으로 오케스트레이션하는 역할을 수행한다. 메가존클라우드는 벤더·파트너·고객을 효율적으로 연결해 복잡한 AI 인프라 도입 과정을 단순화하고, 파트너가 자체 서비스와 솔루션을 빠르게 시장에 선보일 수 있도록 돕겠다는 구상이다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 강화한다. 산업별 기술 세미나와 고객 대상 웨비나, PoC 지원 캠페인, 파트너 기술 교육 프로그램 등 다양한 활동을 통해 고객 접점을 넓히고, 파트너 생태계 육성에도 나설 계획이다. 특히 각 산업별 레퍼런스 구축과 사례 공유를 통해 국내 기업들의 AI 도입 장벽을 낮추고 활용 범위를 넓히는 데 집중한다는 전략이다. 염동훈 메가존클라우드 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 하겠다"고 말했다.

2025.11.14 10:39남혁우 기자

AI 데이터센터 '액침냉각' 급부상…美 GRC "한국이 핵심 허브될 것"

AI 시대 도래와 함께 데이터센터가 뜨거워지고 있다. AI의 두뇌 역할을 하는 GPU가 고성능 연산을 지속하는 순간 엄청난 열이 발생하기 때문이다. 이에 반도체, 데이터센터 업계에서는 냉각 기술 혁신을 모색하고 있다. 전통적인 공랭식(공기 냉각) 방식에서 벗어나, 수랭식(액체 냉각) 방식에서 해답을 발견한 것이다. 특히 업계에서는 서버를 액체에 담가 냉각하는 '액침냉각'에 주목하고 있다. 커지는 액침냉각 시장...엔비디아 인증 지연, “일시적 제약일 뿐” 피터 풀린(Peter Poulin) GRC 회장은 최근 지디넷코리아와 인터뷰에서 냉각 시장이 3년 내에 크게 성장할 것으로 내다봤다. 그는 “AI 서버 확산 속도에 맞춰 냉각 시장은 향후 2~3년 내 50~100% 성장할 것”이라고 말했다. 현재 글로벌 액침냉각 시장은 빠르게 커지고 있다. 공기로 발열을 제어하는 '공랭식' 기술이 한계에 다다랐기 때문이다. 다만 GPU 제조사인 엔비디아가 해당 기술을 공식 인증하지 않은 점이 시장 걸림돌로 꼽힌다. 이에 대해 풀린 회장은 “엔비디아의 전체 보증 미지원은 현재로선 성장의 제약 요인이지만 일시적인 현상”이라고 평했다. 그러면서 “엔비디아가 제공한 테스트 프로토콜을 기반으로, 일부 OEM 서버 업체는 이미 엔비디아 GPU 서버에 대한 전체 보증을 제공하기 시작했다”며 “3자 서비스업체들도 보증 프로그램을 운영 중”이라고 설명했다. 또한 “엔비디아만이 성장 동력은 아니며, AI 추론과 엣지 컴퓨팅 등 다양한 분야에서 액침냉각 수요가 폭발적으로 증가 중”이라고 덧붙였다. 최근 일각에서 제기되는 'AI 데이터센터 투자 거품론'에 대해서도 선을 그었다. 풀린 회장은 “인터넷 버블과 같은 붕괴 가능성을 걱정하는 목소리가 있지만, 향후 5년간 거품 위험은 낮다. 다만 전력 공급 인프라가 무한정 확장될 수 없기 때문에, 전력망이 성장 속도를 조절하는 역할을 하게 될 것”이라고 내다봤다. GRC “서버에 해를 끼치지 않는다” GRC는 지난 2009년 미국에서 설립된 액침냉각 전문 기업이다. 액침냉각을 전문으로 하는 회사로서는 가장 오래됐다. 액침냉각 관련해 총 19개 특허를 보유하고 있으며, 8개 특허가 인증을 받고 있다. 액침냉각과 관련해 특허수가 가장 많다. 현재 글로벌 서버업체인 델(Dell), HP 등과 협업하고 있으며, 국내에서는 SK엔무브, 현대오일뱅크 등과 협력 중이다. 아울러 액침냉각 기술뿐 아니라 '서버에 해를 끼치지 않는다'는 철학으로도 유명하다. 회사는 전 세계 약 24개 냉각유체 제조사와 협력, 재료 호환성과 성능을 검증하는 ElectroSafe 인증 프로그램을 운영 중이다. 풀린 회장은 “의사들이 히포크라테스 선서를 하듯, 우리는 서버의 안전을 최우선으로 한다”며 “이 철학이 GRC의 경쟁력의 핵심”이라고 강조했다. 한국, '글로벌 액침냉각 허브'로 부상 GRC는 최근 한국 시장에서 빠르게 영향력을 넓히고 있다. 한국이 액침냉각 시장 중심으로 떠오를 가능성이 있기 때문이다. 풀린 회장은 “특히 한국은 기술력과 에너지 효율성 면에서 글로벌 허브가 될 잠재력이 크다”고 봤다. 대표적인 예시가 LG전자, SK엔무브와의 삼각 협력이다. 이들 3개사는 ▲LG전자의 칠러, 냉각수 분배 장치(CDU), 정밀한 냉각 제어를 위해 열 부하를 균일하게 분산시키는 팬 월 유닛(FWU) 등 냉각 솔루션 ▲SK엔무브의 액침냉각 플루이드 ▲GRC의 액침냉각 탱크를 통합해 액침냉각 솔루션 기술 실증(PoC)을 진행한다. 또한 현대오일뱅크와 S-Oil도 GRC의 'ElectroSafe Fluid 파트너 프로그램'에 참여하면서 협력 범위가 확장되고 있다. 그는 “한국은 높은 인화점 기준 등 까다로운 규제가 있지만, 이러한 환경이 오히려 고성능·고안전 냉각유체 개발의 촉매가 되고 있다”고 말했다. “AI 냉각의 판도, 공기에서 액체로 이동 중” 풀린 회장은 인터뷰를 마무리하며 “AI 시대의 냉각은 공기가 아닌 액체가 주도하는 시대로 전환되고 있다”고 말했다. 그는 “한국을 포함한 글로벌 시장에서 파트너십을 확장하며, AI 인프라의 에너지 효율 혁신을 선도하겠다”는 포부를 밝혔다.

2025.11.10 16:55전화평 기자

[유미's 픽] 정부 고성능컴퓨팅 지원사업, GPU 활용 어려움에 추가 모집 나서

정부 추경 예산으로 추진된 '고성능컴퓨팅 지원사업'이 사업 초기부터 일부 조정 과정을 겪고 있다. 인공지능(AI) 기술 개발을 위한 그래픽처리장치(GPU) 자원 확보에 나섰지만, 일부 기관에서는 운영 인력과 기술적 여건이 충분하지 않아 참여를 재검토하는 사례가 나타나고 있다. 7일 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 지난 4일 '2025년 추경 고성능컴퓨팅 지원사업'의 추가 사용자 모집 공고를 게시했다. 당초 선정된 일부 사업자가 GPU 활용에 어려움을 호소하며 참여를 포기함에 따라, 남은 자원을 효율적으로 배분하기 위한 조치라는 설명이다. NIPA 관계자는 "사용자들을 최종 선정했지만, 갑자기 포기한 곳들이 생겨 추가 모집 공고를 부랴부랴 내게 됐다"며 "사용자들이 (GPU) 자원이 필요하다고 신청해놓고, 막상 지원하려고 하니 '지금 단계에선 필요 없다'고 답변한 곳들이 있었다"고 말했다. 이어 "자원 할당한 후 안내 메일 보낼 때까지도 아무런 말이 없다가 갑자기 포기하는 사례가 발생해 우리 측에서도 당황스러운 상태"라며 "사용자가 없는데 (그냥 두고) 어떻게 할 수 없어서 모집 공고를 다시 내게 됐다"고 덧붙였다. 이번 일로 남게된 H100 물량은 310장 내외다. 사업 기간은 내년 1월부터 6월 30일까지로 ▲H100 1~4장을 선택할 수 있는 1트랙 사용자와 ▲GPU 8장 이상을 서버 단위로 지원받는 2트랙 사용자를 선별한다. 일단 신청은 H100을 기준으로 신청하지만, H100 1장당 A100 4장 또는 H200 1장당으로 향후 환산해 배정된다. 당초 정부는 올해 말까지 AI 연구·개발 연산 인프라를 확대하기 위해 정부 추경 예산을 바탕으로 이 사업을 추진해왔다. 사업 공급사로는 삼성SDS·KT클라우드·엘리스클라우드 등 3개사를 이미 선정한 상태였다. 삼성SDS와 엘리스클라우드는 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급키로 했다. 이전까지는 사용자당 H100 GPU 2장 수준을 제공하던 방식이었으나, 올해는 과제 단위로 수백 장 규모 GPU를 묶어 지원한다는 점에서 업계의 많은 관심을 받았다. 그간 글로벌 초거대 AI 경쟁 속에서 연산 인프라 부족이 국내 연구·개발의 발목을 잡고 있다는 지적이 일자 정부가 전폭적으로 지원에 나섰기 때문이다. 업계 관계자는 "세계 주요 국가들은 이미 대규모 GPU 자원을 기반으로 초거대 모델을 개발 중이지만, 국내는 민간·공공 연구조직 모두 자원 확보가 어렵다는 지적이 꾸준히 제기돼 왔다"며 "이 탓에 정부가 국내 AI 산업 경쟁력을 강화시키고자, 민간 클라우드 기업을 통해 연구자들에게 안정적이고 대규모의 GPU 환경을 산학연에 제공하고자 한 것"이라고 설명했다. 하지만 이번에 GPU 지원 포기자들이 속출하면서 정부의 노력은 헛수고가 됐다. 또 심사 과정에서 제대로 된 사업자들을 걸러내지 못했다는 점에서 비판의 목소리도 나온다. 더불어 정작 현장의 기술적 준비 수준이 매우 낮은 상황에서 고성능 GPU를 쓰는 것이 의미가 없다는 사실이 고스란히 드러났다는 분석도 있다. 업계 관계자는 "국내 AI 연구·산업의 격차가 이번에 여실히 드러난 것"이라며 "일부 선도 기관이나 기업은 H100급 GPU를 필요로 하지만, 다수는 아직 모델 최적화나 대규모 학습 수준에 도달하지 못한 상태로 볼 수 있다"고 말했다. 이어 "인프라보다 인력·소프트웨어 생태계·데이터 파이프라인이 병목이라는 현실이 드러난 듯 해 안타깝다"며 "최신 GPU 확보에만 혈안돼 정부가 현실을 제대로 보고 있지 못한 사례로 보여진다"고 덧붙였다. 이 같은 상황에서 현재 정부가 AI 인프라 투자를 위해 관련 예산을 크게 늘리고 최첨단 GPU 확보에 사활을 걸고 있다는 점도 우려되는 부분이다. 이재명 정부는 'AI 3대 강국(AI G3)'을 목표로 AI 관련 내년 예산안 규모를 올해보다 80% 가까이 늘린 10조1천398억원으로 책정했다. 앞서 두 차례 단행된 추가경정예산(추경)을 포함해 올해 AI 예산은 5조6천567억원이다. 이 대통령은 지난 4일 국회에서 열린 시정연설을 통해 "농경 사회에서 산업 사회로, 산업 사회에서 정보 사회로 전환해 왔던 것처럼 AI 사회로의 전환은 필연"이라며 "'AI 3대 강국' 도약을 위한 대전환에 10조1천억원을 편성했다"고 재차 강조했다. 이 중 내년 AI 예산에서 첨단 GPU 확보 예산으로 2조1천87억원을 배정했다는 점에서 우려된다. 이 대통령은 GPU 1만5천 장을 추가 구매해 정부 목표인 3만5천 장을 조기 확보할 것이라고 공언한 상태다. 여기에 정부는 엔비디아에서 GPU 26만 장을 한국에 공급키로 했다는 점에서도 기대감을 키우고 있다. 젠슨 황 엔비디아 최고경영자(CEO)는 지난 달 말 '아시아태평양경제협력체(APEC) 정상회의 및 CEO 서밋'을 계기로 방한 해 한국 정부 및 기업에 26만 장을 공급하겠다고 밝힌 바 있다. 정부가 확보한 GPU는 5만 장이다. 업계 관계자는 "다른 클라우드 업체들도 H100 등 고성능 GPU를 확보해 기업, 연구기관 등에 제공하고 있지만, 실제 가동률은 절반도 못미치는 수준"이라며 "정부가 GPU만 바라보느라 인재 확보나 양질의 데이터 제공, 사용자 관점에 입각한 AI 규제 마련 등에는 상대적으로 정책이 부실하다"고 꼬집었다. 이어 "질 좋은 하드웨어는 갖다 놨지만, 현재 상태로는 공장에다 사람 없이 장비만 사다 놓고 내버려 두는 꼴"이라며 "기술력, 인재 없이 첨단 GPU만 우리나라가 구입한다고 경쟁적으로 나서는 것은 결국 GPU 공급사인 엔비디아에게만 좋은 것"이라고 덧붙였다.

2025.11.07 16:22장유미 기자

엔씨-엔비디아 GPU '맞손', 지스타 2025 시연 최적화

엔씨소프트(공동대표 김택진·박병무, 이하 엔씨)는 엔비디아와 '지스타 2025'를 통해 GPU(그래픽처리장치) 협력을 강화한다고 7일 밝혔다. 엔씨는 오는 13일 개막하는 지스타 2025 엔씨소프트 부스의 모든 시연 PC에 엔비디아의 '지포스 RTX 5080'를 탑재한다. 엔씨는 엔비디아가 전량 지원한 매니아용 고성능 GPU를 통해 최상의 시연 환경을 제공한다는 계획이다. 엔씨 부스를 방문한 이용자는 '지포스 RTX 5080' GPU가 탑재된 시연 PC에서 '아이온2'와 '신더시티'를 플레이할 수 있다. 엔씨와 엔비디아는 올해 8월 독일에서 열린 '게임스컴 2025', 10월 서울에서 진행한 '지포스 게이머 페스티벌'에 이어 '지스타 2025'까지 긴밀한 협력을 이어가고 있다. 엔씨는 지난 달 30일 서울에서 개최한 '지포스 게이머 페스티벌'에 참여해 신작 '아이온2'와 '신더시티'의 최신 빌드와 신규 트레일러를 공개했다. 게임 시연에 참여하려는 이용자들이 3시간 이상 대기하는 등 뜨거운 관심을 받았다. 내년 출시를 목표로 개발 중인 '신더시티'는 엔비디아의 클라우드 게임 서비스 '지포스 나우'에도 출시할 예정이다.

2025.11.07 09:25정진성 기자

美 하원 중국특별위 "엔비디아, 화웨이 자회사와 캠퍼스 공유"

미국 하원 중국특별위원회가 6일(이하 미국 현지시간) 공식 X 계정에서 "엔비디아가 중국 화웨이와 사무 공간을 공유하고 있다"며 우려를 제기했다. 엔비디아는 5일 "중국은 AI 경쟁에서 미국과 격차가 크지 않으며 미국이 경쟁에서 앞서나가고 개발자를 확보하는 것이 중요하다"는 젠슨 황 엔비디아 CEO의 발언을 공식 X에 공개한 바 있다. 그러자 중국특별위원회는 "9월 중순 우리 위원회는 엔비디아가 화웨이 자회사인 '퓨처웨이'(Futurewei)와 캠퍼스를 공유하고 있다는 사실을 밝힌 바 있다"며 "중국이 AI 경쟁에서 '나노초' 뒤처져 있을 수 있지만, 수년간 엔비디아 뒷마당에 있었다"고 반박했다. 중국특별위원회는 9월 중순 "퓨처웨이는 미국 제재 대상 기업인 화웨이와 거리를 두고 있지만 여전히 긴밀한 관계를 유지하고 있다. 모회사인 화웨이와 중국 정부에 글로벌 기술 표준 분야에서 우위를 제공하고 있다"고 주장했다. 위원회는 또 "퓨처웨이 직원들이 가짜 미국 회사 이름으로 등록해 회의에 잠입한 뒤, 보고서를 작성해 중국의 제품 개발팀, 전략팀, 경영진에게 전달했다"고 지적하기도 했다. 위원회는 엔비디아가 미국과 중국 양측의 AI 수요를 모두 활용해 시가총액 5조 달러가 넘는 규모로 성장했다고 보고 있다. 반면 젠슨 황 CEO는 지난 주 APEC CEO 서밋 기간 중 기자간담회에서 "미국의 AI 기술을 중국 뿐만 아니라 전 세계가 활용할 수 있도록 해야 한다"고 주장했다. 엔비디아는 중국특별위원회의 X 게시물 관련 별도 입장을 내놓지 않았다.

2025.11.07 08:57권봉석 기자

'검색 기업'→'에이전트 플랫폼'...네이버, AI로 정체성 바꾼다

네이버가 내년부터 순차적으로 선보일 인공지능(AI) 에이전트를 통해 기업 정체성을 전면 개편한다. '검색 중심 플랫폼'에서 벗어나 사용자의 의도를 이해하고 직접 행동을 수행하는 'AI 에이전트 플랫폼'으로 진화하겠다는 구상이다. 김범준 네이버 최고운영책임자(COO)는 6일 서울 코엑스에서 개최된 팀네이버 통합 컨퍼런스 '단25'에서 “그동안은 검색 서비스가 가장 대표적인 네이버의 정체성이었다”며 “'원하는 것을 찾아드릴게요'라고 하는 사업자에서 앞으로는 고객이 원하는 것을 수행해 줄 수 있는 에이전트 서비스로서 자사의 정체성을 바꾸겠다”고 언급했다. 이어 “내년 여름정도에는 AI 탭이 출시되면 사용자가 정말로 원하는 것을 제안하는 통합 에이전트의 모습을 보여드릴 수 있을 것”이라고 덧붙였다. 또 그는 네이버의 모든 서비스가 하나의 서비스처럼 유기적으로 연결되는 '심리스한 경험'을 자사 AI 에이전트의 장점으로 꼽았다. 김 COO는 “가게 점원들처럼 적재적소에 나를 도와줄 수 있는 경험이야말로 정말로 부드러운 에이전트 경험이 아닐까 생각한다”며 “온 서비스 AI를 통해 좋은 사용 경험을 제공하면 시간이 지난 후 진짜 훌륭한 에이전트의 표준으로 자리매김할 것”이라고 내다봤다. AI탭서 통합 에이전트 경험 제공…비즈니스 솔루션도 공개 이같은 네이버의 전략은 내년부터 차례로 공개될 AI 에이전트를 바탕으로 실현된다. 이날 네이버는 내년 1분기 AI 쇼핑 서비스 '네이버플러스 스토어'에 쇼핑 에이전트 출시 계획을 알렸다. 이후 2분기에는 통합검색이 AI 에이전트를 기반으로 진화한 'AI탭'을 선보일 예정이다. 이를 위해 네이버는 서비스 전반 데이터와 기술 인프라를 하나로 통합한 '에이전트 N'을 새롭게 구축했다. '에이전트 N'은 온서비스 AI를 통해 축적된 버티컬 AI 역량을 고도화해 사용자의 맥락을 이해하고 다음 행동을 예측 및 제안하며 실행까지 이어지는 구조로 만들어졌다. 네이버는 내년부터 비즈니스 통합 에이전트 '에이전트 N 포 비즈니스'도 공개할 예정이다. 이 서비스는 쇼핑, 광고, 플레이스 등 모든 사업자들을 위한 AI 솔루션으로, 그동안 분산돼 있던 사업자 솔루션과 데이터를 하나의 비즈니스 허브로 통합해 사업자가 AI를 기반으로 비즈니스 환경을 분석하고 상황을 진단, 개선하는데 도움을 준다는 것이 회사 측 설명이다. 피지컬 AI 위해 GPU만 1조원 넘게 투자…미니노이드는 이달 말 사옥 도입 현장에서 네이버는 AI 적용의 다음 단계인 '피지컬 AI' 투자 계획도 구체화했다. 피지컬 AI를 구현하기 위해 국내 최대이자 최고 수준의 인프라를 목표로 AI 생태계 경쟁력을 위한 데이터센터와 컴퓨팅 투자를 적극적으로 확대한다. 내년까지 1조원 이상의 GPU 투자를 진행할 방침이며 네이버 사옥 1784와 각 세종 데이터센터를 연결하는 피지컬 AI의 테스트베드가 본격적으로 운영된다. 네이버클라우드는 이같은 기술과 인프라를 기반으로 산업 특화 AI 생태계를 확장해나간다. 조선, 에너지, 바이오 등 주요 산업 기업과 협력해 AI 기반 공정 운영, 설비 관리, 품질 예측 등 제조 전 과정에서의 AI 활용을 지원한다. 또 산업 현장에 최적화된 기술이 빠르게 자리잡을 수 있도록 뒷받침한다. 피지컬 AI의 하드웨어 부분 중 하나인 로봇 가운데, 매사추세츠공과대학과 네이버가 협력해서 개발하고 있는 소형 휴머노이드 로봇 '미니노이드'도 영상을 통해 모습을 드러냈다. '미니노이드'는 최수연 네이버 대표의 기조연설 중 제시된 영상에서 모습이 잠시 비췄다. 김유원 네이버클라우드 대표는 이달 말부터 '미니노이드'가 제2사옥 네이버1784에서 나타날 것을 예고하기도 했다. 김 대표는 “이달 말쯤 1m 정도 되는 휴머노이드 로봇이 사옥에서 고된 노동에 시달리고 있는 모습을 아마 볼 수 있을 것”이라고 밝혔다. 해당 로봇은 네이버의 로봇 클라우드 '아크'와 웹 기반 로봇 운영체제(OS) '아크 마인드'를 통해 구동된다. 로봇 OS 및 제어 플랫폼은 네이버가 최고 수준의 역량을 가지고 신성장동력을 확보할 수 있을 것이라고 자신하는 분야이기도 하다.

2025.11.06 15:44박서린 기자

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

삼성·SK·마이크론, 엔비디아향 HBM4 퀄 2분기 완료

X에서 가상자산·주식 거래 가능해진다

'디지털 트러스트' 글로벌 빅테크 뭉쳤다...한화 참여

배경훈 부총리, 과기정통부 첫째 성과로 "무너진 R&D 복원"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.