• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (380건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

중국 AI 강자 딥시크, 엔비디아 블랙웰 밀반입 의혹

중국 인공지능(AI)업체 딥시크가 미국의 대중국 수출 제한을 피하기 위해 제3국을 통해 엔비디아 그래픽처리장치(GPU)를 반입했다는 의혹이 제기됐다. 11일 미국 디인포메이션은 복수 관계자를 인용해 딥시크가 엔비디아 '블랙웰' 아키텍처 기반 GPU 수천 개를 밀반입해 새 AI 모델을 개발 중이라고 단독 보도했다. 그동안 중국 내 여러 AI 기업이 엔비디아 칩 사용이 가능한 해외 지역에서 차세대 모델 실험을 이어온 것으로 알려졌다. 딥시크 역시 동남아 지역에 위치한 중국 외 자본의 데이터센터 기반으로 테스트 환경을 구축해 왔다. 보통 GPU나 서버가 제3국 데이터센터에 설치되면 엔비디아·델·슈퍼마이크로 등 장비 공급사 엔지니어들이 현장을 방문해 수출 통제 규정을 지켰는지 최종 점검한다. 내부 소식통들은 딥시크가 점검을 마친 뒤 서버를 부품 단위로 해체해 중국 본토로 반입해 사용했다고 주장했다. 앞서 도널드 트럼프 미국 대통령은 중국에 대해 구세대 '호퍼' 기반 H200 칩은 반출을 허용했지만, 최신 블랙웰과 차세대 루빈 아키텍처는 허용 대상에 포함되지 않는다고 밝힌 바 있다. 딥시크는 해당 논란에 대해 공식 입장을 내놓지 않고 있다. 엔비디아는 "장비를 설치한 뒤 다시 해체해 몰래 반출한다는 이른바 '유령 데이터센터' 사례는 접수한 바 없다"며 "제보가 들어오면 모두 확인한다"고 밝혔다. 이날 로이터는 "최근 엔비디아가 칩 위치를 추적할 수 있는 소프트웨어(SW) 기능을 새로 개발했다"며 "우회 반입 자체가 크게 제한될 수 있다"고 분석했다.

2025.12.11 10:06김미정

"엔비디아 GPU 있어도 전기세 걱정"…AI 인재 육성 막힌 대학 현실

"국내 대학이 엔비디아 그래픽처리장치(GPU)를 확보하기 시작했습니다. 그러나 사용량이 늘어날수록 매월 수십억원에 달하는 전기료 압박을 겪고 있습니다. 이를 해결할 수 있는 보호 장치가 절실합니다." 연세대 한순구 경제학과 교수는 9일 일 국회 본청에서 열린 과학기술정보방송통신위원회 공청회에서 AI 인재 양성 걸림돌에 대해 이같은 사례를 공유했다. 인재 배출을 위한 인프라 보급 정책이 새로운 문제를 낳고 있다는 설명이다. 한 교수는 GPU 전기값이 부담스럽다는 교내 공대 교수 목소리를 공유했다. 그는 "우리 학교는 매달 몇십억 씩 드는 전기값을 감당하기 어려운 상황으로 보인다"며 "정부가 엔비디아 GPU를 학교에 제공해도 전기세 때문에 마음 놓고 쓸 수 없는 것으로 알고 있다"고 말했다. 학교가 GPU 활용을 위한 내부 결재와 예산 압박으로 장비 사용에 부담을 느낀다는 설명이다. 정부가 AI 인재 양성을 위해 대학에 GPU를 제공하지만, 막상 대학은 전기료로 이를 제대로 돌리지 못하는 실정이다. 앞서 정부는 대학을 비롯한 연구소, 스타트업 등이 고성능 GPU를 활용할 수 있도록 'AI 컴퓨팅 자원 임차 지원' 제도를 운용하기 시작했다. 이 제도는 엔비디아 GPU를 정부가 대량 확보한 뒤 공공·산학연 기관에 클라우드 형태로 제공하는 식이다. 또 GPU 서버 단위·카드 단위 등으로 선택해 임차할 수 있다. 이날 국내 AI 인재 해외 유출은 여전하다는 목소리도 나왔다. 국내 AI 대학원에서도 박사급 인재가 배출되기 시작했지만, 유능한 인재는 해외 빅테크나 연구소로 떠난다는 지적이다. 최재식 김재철AI대학원 교수는 "앞으로 해외로 떠난 AI 인재를 국내로 귀환시키는 '순환형 인재 육성 모델'이 절실하다"고 주장했다. 한순구 교수도 "미국과 중국에 인재를 보내서 기술을 습득시킨 뒤 다시 한국으로 오게 만드는 모델도 만드는 게 좋을 것"이라고 강조했다. 더불어민주당 최형두 의원은 "현재 아시아 최고 수준의 이공계·자연계 졸업생을 한국으로 유치하는 제도를 만들고 있다"며 "이를 위해 영주권·국적 취득 절차 간소화와 장기 연구비자 확대 등을 추진하고 있다"고 설명했다. 이어 "이는 국내 대학·연구기관의 교수·연구인력 부족 문제를 완화하는 효과도 있을 것"이라고 기대했다.

2025.12.09 15:49김미정

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평

딥엑스, 30W로 수백 채널 영상 AI 구현 전용 칩셋 출시

초저전력 온디바이스 AI 반도체 기업 딥엑스는 수백 채널 규모의 영상 AI 분석을 단 30W 수준에서 처리하는 비디오 인텔리전스 전용 칩셋 'DX-H1 V-NPU'를 공식 출시했다고 8일 밝혔다. 이번 제품은 그동안 GPU 서버와 별도 코덱 장비에 나뉘어 있던 영상 입력·압축·AI 추론 과정을 하나의 카드로 통합했다. 대규모 영상 AI 인프라의 전력, 비용, 복잡도를 동시에 줄이는 것을 목표로 한다. DX-H1 V-NPU는 멀티 채널 디코딩·인코딩·트랜스코딩 엔진과 전용 NPU 아키텍처를 한 칩 안에 집적한 올인원 비디오 인텔리전스 솔루션이다. 기존에는 다수의 카메라 스트림을 처리하기 위해 GPU 서버 여러 대와 별도의 하드웨어 코덱 장비를 병렬로 구성해야 했지만, DX-H1 V-NPU는 한 장의 카드에서 영상 스트림 입력부터 전처리, AI 추론, 재인코딩까지를 연속적인 파이프라인으로 처리하도록 설계됐다. 그 결과 동일한 채널 수 기준으로 GPU 대비 약 80%의 하드웨어 비용과 약 85%의 전력 비용을 절감하면서도 24시간 실시간 추론 성능을 유지할 수 있다는 것이 회사 측 설명이다. 이는 데이터센터의 전력난, ESG 요구, GPU 수급 불확실성이 커지는 상황에서, 도시·산업 현장의 영상 AI 수요를 지속 가능하게 뒷받침할 수 있는 구조적 대안이라는 점에서 의미가 크다. 딥엑스는 DX-H1 V-NPU가 비디오 인텔리전스 인프라의 기본 설계 철학 자체를 바꾸는 제품이라고 보고 있다. GPU는 범용 연산 능력이 강점이지만, 다채널 영상 입출력과 실시간 스트리밍에 최적화된 구조는 아니다. 반면 DX-H1 V-NPU는 영상 스트림이 분 단위가 아니라 초 단위로 쏟아지는 환경에서, 각 채널을 끊김 없이 받아들이고 AI 모델 추론을 통과시킨 뒤 다시 압축해 내보내는 작업에 맞춰 메모리 계층 구조와 연산 스케줄링을 최적화했다. 딥엑스는 “대규모 영상 AI가 더 이상 범용 GPU의 여분 리소스를 빌려 쓰는 영역이 아니라, 전용 칩셋 위에서 돌아가는 '하나의 산업'으로 자리 잡게 될 것”이라고 전망했다. 한편 딥엑스는 내년 1월 6일부터 9일까지 미국 라스베이거스에서 열리는 'CES 2026'에서 DX-H1 V-NPU를 전 세계 최초로 공식 공개하고, CTA가 새로 신설한 'CES 파운드리(Foundry)' 세션을 주최해 글로벌 파트너들과 함께 피지컬 AI 시대의 산업 비전과 기술 로드맵을 제시할 예정이다.

2025.12.08 09:33전화평

퀄컴, 아태 AI 스타트업 육성 시동…15개팀 성과 서울서 공개

퀄컴이 아시아·태평양(APAC) 지역 온디바이스 AI 생태계 확장을 위한 '퀄컴 AI 혁신 프로그램(QAIPI) 2025 APAC 데모데이' 행사를 5일 오후 서울 용산구 퀄컴코리아 사옥에서 진행했다. QAIPI는 퀄컴이 올해 APAC 대상으로 처음 진행한 프로그램이다. 한국과 일본, 싱가포르 등 3개 나라에서 총 15개 스타트업을 선정해 6개월 동안 퀄컴의 엣지 AI 플랫폼 기반 기술 멘토링 등을 제공했다. 또 올해 데모데이 행사 개최지를 서울로 선택했다. 5일 오전 퀄컴코리아에서 국내 기자단과 만난 이비 타이 퀄컴 타이완 사업개발 디렉터는 "한국은 세계 최고 수준 ICT 인프라와 스타트업 생태계, 기업·투자자 네트워크로 적합한 시장"이라고 설명했다. "선정 스타트업에 퀄컴 기술과 글로벌 진출 지원" 퀄컴은 올해 APAC 지역에서 '퀄컴 AI 혁신 프로그램 2025'를 시작하고 한국·일본·싱가포르에서 총 15개 유망 스타트업을 선정했다. 선정 팀들은 디바이스·제품 키트 지원, 5천 달러(약 736만원) 상당 특허 출원 인센티브도 지원받았다. 이비 타이 디렉터는 "선정된 스타트업의 요구사항을 파악해 모바일과 AI PC, IoT 등 다양한 퀄컴 엣지 AI 플랫폼을 활용한 솔루션 개발을 지원했다. 또 글로벌 시장 진출을 위한 디자인·지식재산권(IP) 교육, 특허 전략 컨설팅, 비즈니스 워크숍도 제공했다"고 설명했다. 이어 "오늘 오후 진행될 데모데이 행사에서는 한국을 포함해 총 15개 스타트업이 헬스케어, 로보틱스, 스마트시티, 산업용 AI 등 다양한 분야의 엣지 AI 솔루션을 발표하고 라이브 데모를 선보이며, 지난 6개월간의 협력 성과를 공유한다"고 덧붙였다. 반야에이아이 "퀄컴, 한국 특화 AI 모델 구현 적극 지원" QAPI에 선정된 국내 스타트업 중 한 곳인 '반야에이아이'는 올해 3월 설립됐다. 이 회사 김 안토니오 최고기술책임자(CTO)는 "어려움을 겪는 사회적 약자를 위해 '지혜'를 빌려주는 AI 기술을 개발하고 있다"고 설명했다. 이어 "온디바이스 AI는 개인 프라이버시나 민감 정보를 외부로 공개하지 않아도 챗GPT 수준의 사려 깊은 인공지능을 만들 수 있다. 오픈소스 기반으로 자체 개발한 AI 모델을 튜닝하고 훈련해 사용하고 있다"고 설명했다. 퀄컴은 반야에이아이와 협업 과정에서 스냅드래곤 X 엘리트 탑재 기기를 제공했다. 김 안토니오 CTO는 "내장 아드레노 GPU 성능이 강화돼 온디바이스 AI를 원활히 실행할 수 있다"고 평가했다. 반야에이아이는 한국어 기반 모델을 퀄컴 실리콘에 최적화하는 과정에서 퀄컴의 기술 지원을 받았다. 김 안토니오 CTO는 "2주에 한 번씩 퀄컴 기술진과 미팅을 하며 어려운 부분에 대해 도움을 받고, 매번 많은 자료를 제공받는 등 긴밀히 협업했다"고 설명했다. "아두이노 인수로 스타트업 지원 가속... 유니콘 탄생 희망" 이비 타이 퀄컴 타이완 사업개발 디렉터는 "올해 APAC 전역에서 수준 높은 지원자들이 몰렸다. 이 중 ▲AI 혁신성 ▲산업적·사회적 영향 ▲퀄컴 기술과의 시너지 ▲플랫폼 적합성을 따져 스타트업을 선정했다"고 설명했다. 이어 "특허 출원 인센티브 과정에서 모든 지적재산권은 해당 스타트업에 귀속되며 퀄컴은 관여하지 않는다. 또 기술적으로 뛰어난 곳은 내부 사업부나 고객사와 연결해 상용화 기회를 제공하는 등 장기 성장도 돕는다"고 말했다. 최근 인수한 아두이노 관련해 그는 "스타트업이 퀄컴 플랫폼 위에서 더 빠르게 AI 응용프로그램을 구현할 수 있도록 생태계를 강화하는 효과가 있다"고 설명했다. 이비 타이 디렉터는 "한국·일본·싱가포르 등 주요 국가 스타트업이 시장을 탐색하고 글로벌로 나아갈 수 있도록 지원하겠다는 입장을 밝히며, 향후 유니콘 기업이 탄생하는 데 기여할 수 있다면 큰 의미가 있을 것"이라고 덧붙였다.

2025.12.07 09:31권봉석

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

구글 TPU 파트너 플루이드스택, 기업가치 10조원 '눈앞'…대형 데이터센터 투자 시동

글로벌 인공지능(AI) 인프라 시장에서 신흥 강자로 떠오른 플루이드스택이 대규모 자금 조달에 나서며 기업가치가 70억 달러(약 10조원)에 이를 것이라는 전망이 나왔다. 구글 텐서처리장치(TPU) 생태계를 뒷받침하며 존재감을 키운 가운데, 대규모 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축을 본격화하면서 업계의 시선이 집중되고 있다. 5일 디인포메이션 등 외신에 따르면 플루이드스택은 약 7억 달러(약 1조원) 규모의 신규 투자 유치를 추진 중이며 투자 라운드가 성사될 경우 기업가치는 70억 달러(약 10조원) 수준까지 상승할 것으로 관측된다. 이번 투자 라운드는 전 오픈AI 연구원이 설립한 시추에이셔널 어웨어니스가 주도하며 알파벳(구글)과 골드만삭스가 참여 논의를 진행 중인 것으로 알려졌다. 플루이드스택은 최근 구글의 TPU를 대규모로 임대·호스팅하며 주목받고 있다. 특히 '제미나이 3' 학습에 활용된 TPU 인프라를 공급한 핵심 파트너로 알려지면서 글로벌 AI 인프라 생태계에서 빠르게 입지를 넓히는 중이다. 그동안 엔비디아 그래픽처리장치(GPU) 임대 중심이었던 사업 구조도 TPU 중심으로 전환을 가속하고 있다. 회사는 지금까지 주식 기반 조달보다는 차입금에 의존해 서버 구축 비용을 조달해왔고 올해 초에는 엔비디아 등 AI 칩을 담보로 100억 달러(약 14조원) 이상의 신용 승인도 확보한 것으로 전해졌다. 올해에만 구글과 두 건의 데이터센터 개발 계약을 체결한 것도 주목된다. 플루이드스택은 테라울프·사이퍼 마이닝과 함께 데이터센터 프로젝트를 진행 중이다. 해당 계약에서 구글은 플루이드스택이 자금을 갚지 못하는 상황이 오면 대신 빚을 갚아주기로 한 '보증인' 역할까지 맡아 지원했다. 이는 AI 인프라 수요 급증 속에서 기술 기업과 금융기관이 새로운 방식으로 데이터센터 투자를 확대하는 흐름과 맞물려 있다. 플루이드스택은 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 발표했다. 내년 가동을 목표로 하는 이 프로젝트는 프랑스 정부가 AI 경쟁력 확보를 위해 추진하는 대규모 전략의 핵심으로 평가된다. 회사는 현재 메타·하니웰 등과의 파트너십도 강화하며 글로벌 AI 기업들과 협력을 확대하고 있다.

2025.12.05 14:43한정호

나인랩스, 시리즈 A 30억원 규모 투자 유치

데이터센터 및 AI 서버용 열관리 전문기업 나인랩스는 4일 대형 증권사와 벤처캐피털을 통해 30억원 규모 시리즈 A 투자를 유치했다고 밝혔다. 나인랩스는 카본 3D 프린터 시스템과 시제품 제작 사업을 중심으로 한 정밀공정 전문 기업이다. 최근에는 설계·가공 역량을 바탕으로 데이터센터와 고성능 서버용 반도체 직접냉각(D2C) 방식 액체냉각 솔루션으로 포트폴리오를 확장했다. 나인랩스 D2C 액체냉각 솔루션은 고성능 작동시 높은 열을 내는 CPU·GPU 표면에 냉각부를 직접 접촉시켜 구동된다. 기존 공랭식 간접냉각 대비 열전달 효율이 높고 소비 에너지를 줄이는 효과가 있으며 고집적·고전력 서버 환경에서 안정적으로 발열을 관리해 AI·고성능 컴퓨팅(HPC) 서버 인프라 핵심 기술로 꼽힌다. 주요 시장조사업체에 따르면 글로벌 액체냉각 시장은 AI 서버 전환 가속화에 따라 향후 5년간 연평균 25% 이상 성장할 것으로 기대된다. 주요 클라우드 및 통신사들도 D2C 등 액체냉각 기술 도입을 활발하게 검토중이다. 나인랩스는 이번에 유치한 30억원을 이용해 콜드플레이트, 소형 매니폴드, UQD 등 D2C 액체냉각 솔루션 핵심 부품의 설계 고도화와 양산 체계 구축에 나설 예정이다. 또 국내외 데이터센터/서버 사업자와 기술검증 협력 프로젝트도 확대한다. 박성호 나인랩스 대표이사는 "이번 30억원 규모 시리즈 A 투자 유치는 나인랩스의 기술 완성도와 글로벌 시장 성장 가능성을 동시에 인정받은 의미있는 이정표로 향후 고효율·친환경 액체냉각 솔루션을 통해 글로벌 데이터센터 및 AI 인프리 시장에서 새로운 표준을 만들어가겠다"고 밝혔다.

2025.12.04 15:02권봉석

트럼프-젠슨 황 회동...중국향 AI 칩 수출 재개 가닥

미국 대통령 도널드 트럼프가 세계 최대 AI 반도체 업체 엔비디아의 젠슨 황 CEO와 만나 첨단 AI 칩의 중국 수출 통제 문제를 논의했다고 로이터가 3일(현지시간) 보도했다. 트럼프 대통령은 황 CEO를 “똑똑한 사람”이라고 평가하며 “그는 내 입장을 잘 안다”고 말했다. 이번 논의는 미국 정부가 엔비디아 GPU 'H200'을 중국에 판매할지 검토 중인 가운데 이뤄졌다. H200은 엔비디아의 전세대 제품이다. 판매가 허용된다면 중국 시장 접근이 재개된다는 의미로, 반도체 업계와 글로벌 AI 생태계에 적지 않은 파장이 예상된다. 황 CEO는 같은 날 미국 의회를 찾아 “미국 내 주별(州)로 나뉜 규제가 AI 기술 발전을 느리게 한다”며 규제 완화를 촉구했다. 아울러 일부에서 나오는 반출 우려에 대해선, “AI 서버용 GPU는 무게·가격·전력 소비량이 매우 커, 대규모 밀수는 현실적으로 어렵다”고 반박했다. 엔비디아 측은 즉각적인 공식 입장을 내놓지 않았으며, 이번 회동을 계기로 미국 내 수출 통제 정책과 중국을 포함한 글로벌 시장 사이 줄다리기가 한층 격화될 전망이다.

2025.12.04 10:52전화평

KT, 충북청주강소특구에 GPU 구독서비스 제공

KT가 충북대 산학협력단 강소특구 지원센터에 고성능 GPU 구독형 서비스 'K GPUaaS'를 제공한다고 4일 밝혔다. K GPUaaS는 KT가 확보한 엔비디아의 GPU 'H100'을 월 구독 형태로 이용할 수 있는 서비스로 지난 9월 출시됐다. 초기 인프라 구축 비용이나 유지보수 부담을 줄여 AI 개발 속도와 경쟁력을 효율적으로 향상시킬 수 있다. 충북청주강소특구는 충북대학교가 운영하는 기술 핵심 연구기관으로 스마트 IT부품과 시스템이 중점 특화 사업이다. KT는 이곳에 K GPUaaS를 적용해 AI 개발과 학습에 최적화된 고성능 GPU 기반의 컴퓨팅 환경을 제공하고 있다. GPU 활용을 위한 전문 컨설팅을 비롯해 오픈 이노베이션 프로그램 등 AI 개발과 사업화 전반에 필요한 자원도 함께 지원한다. KT는 이번 사례를 시작으로 국내의 다양한 기업과 기관으로 K GPUaaS의 활용 범위를 넓힐 계획이다. AI 딥러닝 모델 학습과 추론, 데이터 분석 등 고성능 연산이 필요했던 기업·기관의 GPU 접근성을 높일 것으로 기대하고 있다. 한편 K GPUaaS는 초고속 네트워크 기술인 '인피니밴드(InfiniBand)'를 바탕으로 GPU 서버 간 지연 없는 통신을 제공해 대규모 분산 학습 환경을 구현한다. 또 GPU 가상화 분할 기술로 하나의 GPU를 여러 단위로 나누어 작업량에 따라 자원을 배분, 조정할 수 있도록 해 GPU 활용 효율을 높였다. 모든 GPU 인프라와 데이터, 네트워크는 국내에서 관리되어 고객의 데이터가 해외로 유출될 우려는 낮췄다. 유서봉 KT 엔터프라이즈부문 AX사업본부장은 “K GPUaaS가 첫 레퍼런스를 확보해 구독형 GPU 시장 확대를 위한 기반을 마련했다”며 “앞으로 더 많은 고객이 비용에 대한 부담 없이 고성능 GPU와 분산 학습에 최적화된 환경을 이용할 수 있도록 지원해 국내 AI 개발 생태계의 활성화에 기여하겠다”고 말했다.

2025.12.04 09:10박수형

"GPU부터 LLM까지 한 번에"…메이머스트·H2O.ai, 국내 풀스택 AI 공략 박차

메이머스트가 글로벌 인공지능(AI) 플랫폼 기업 H2O.ai와 손잡고 한국 엔터프라이즈 시장 공략에 박차를 가한다. 메이머스트가 보유한 온프레미스 인프라 역량에 H2O.ai의 AI 플랫폼을 더해 현장에 맞는 풀스택 AI를 구현하겠다는 계획이다. 이를 통해 기업들의 AI 도입 장벽을 낮추고, 적용 범위를 전 산업으로 넓혀가겠다는 포부다. 박상현 메이머스트 대표와 H2O.ai 제이미 림 아시아태평양(APJ) 파트너십 리드는 1일 경기 하남시 메이머스트 사무실에서 한국 시장 진출 전략을 공개했다. 메이머스트는 온프레미스 기반 AI 인프라와 클라우드, 보안, 네트워크, 가상 데스크톱(VDI)까지 아우르는 기술 기업이다. GPU 서버와 스토리지, 네트워크, HCI를 설계·구축하고 자체 개발한 기계학습운영(MLOps), 그래픽처리장치(GPU) 자원 관리 솔루션으로 AI 인프라 운영을 자동화·최적화하는 데 강점을 가진다. 전체 인력의 상당수가 엔지니어로 구성된 기술 중심 조직이라는 점도 특징이다. 이 같은 인프라, 플랫폼 역량을 바탕으로 국내 엔터프라이즈의 디지털 전환과 AI 도입을 지원해 왔다. H2O.ai는 미국에 본사를 둔 글로벌 AI 플랫폼 기업이다. 예측형 AI와 생성형 AI를 모두 지원하는 엔터프라이즈 AI 플랫폼을 제공하며 하나의 대규모언어모델(LLM)이나 특정 클라우드에 종속되지 않는 구조를 지향한다. 은행, 통신, 헬스케어 등 규제가 강한 산업에서 수많은 예측형 AI 레퍼런스를 확보했고, 이를 기반으로 생성형 AI 애플리케이션 빌더, MLOps 기능을 통합한 플랫폼으로 진화했다. 온프레미스, 프라이빗 클라우드, 망분리 환경에서도 구축이 가능한 소위 소버린 AI 역량을 갖춘 점이 글로벌에서 높은 평가를 받고 있다. 두 회사가 파트너십을 맺게 된 배경에는 각자의 강점과 한국 시장의 특성이 맞물려 있다. 메이머스트 입장에서는 GPU 인프라와 MLOps, 보안·네트워크까지는 자체 포트폴리오를 보유하고 있다. 다만 그 위에서 실제 비즈니스 가치를 만드는 예측형·생성형 AI 소프트웨어 계층은 프로젝트마다 다른 솔루션을 얹는 방식에 의존해 왔다. 풀스택을 표방하면서도 최상단 플랫폼이 고정되지 않아, 장기적인 서비스·유지보수 구조를 설계하는 데 한계가 있었다는 설명이다 H2O.ai는 바로 이 상단을 채워주는 단일 플랫폼이자, 다양한 LLM과 산업별 유스케이스를 담은 AI 엔진 역할을 하게 된다. 박상현 대표는 "그동안 메이머스트는 풀스택을 표방해 왔지만 정작 최상단 플랫폼이 고정돼 있지 않다 보니 장기적인 서비스나 유지보수 구조를 설계하는 데 한계가 있었다"며 "H2O.ai가 바로 이 상단을 채워주는 단일 플랫폼이자, 다양한 LLM과 산업별 유스케이스를 담은 AI 엔진 역할을 하게 될 것"이라고 강조했다. H2O.ai 입장에서는 데이터 주권과 망분리 요구가 강한 한국 시장을 본격적으로 공략하기 위해, 온프레미스 인프라와 AI 팩토리 구축 경험을 가진 로컬 파트너가 필요했다. H2O.ai의 예측형·생성형 AI 플랫폼과 메이머스트의 온프레미스 인프라·MLOps가 결합하면, 클라우드부터 폐쇄망까지 아우르는 엔드투엔드 AI 레퍼런스를 만들 수 있다는 판단이 맞아 떨어졌다는 것이다. 제이미 림 리드는 "메이머스트가 GPU 클러스터와 스토리지, 네트워크, 보안을 모두 아우르는 아키텍처 역량을 갖추고 있다"며 "더불어 실제 엔터프라이즈 프로젝트에서 보여준 실행 속도와 조직 문화가 인상적이었다 "고 말했다. 두 회사가 내세운 키워드는 'AI 풀스택'이다. 메이머스트가 제공하는 하드웨어 인프라에 예측형과 생성형 AI를 모두 지원하는 H2O.ai 플랫폼을 결합해 인프라부터 모델 개발·검증·운영까지를 하나의 패키지로 제공하는 구조로 제공한다는 방침이다. 고객사 입장에서는 인프라 벤더, 소프트웨어 벤더, 운영 파트너를 따로 관리할 필요 없이, 하나의 풀스택 파트너를 통해 AI 도입을 추진할 수 있게 되는 셈이다. AI 풀스택을 완성한 양사는 우선 국내에서 가시적인 성공 사례를 만드는 데 집중할 계획이다. 우선 규제가 강한 산업을 중심으로 1~2건의 대표 레퍼런스를 확보한 뒤, 이를 다른 산업과 파트너 생태계로 확산하는 전략이다. 이를 위해 메이머스트는 멀티노드 GPU 환경과 스토리지, 네트워크, 보안 솔루션을 한곳에 모은 데모센터를 'AI 팩토리 쇼룸'으로 고도화하고 있다. 여기에 H2O.ai 플랫폼을 얹어 고객이 실제 업무 데이터를 활용해 예측형·생성형 AI 모델을 시험해 보고, 인프라 구성과 성능을 동시에 검증할 수 있는 환경을 제공할 계획이다. 사업 목표도 풀스택 관점에서 재정비했다. 박 대표는 "단순 하드웨어 납품에 머무르지 않고, AI 플랫폼과 컨설팅·운영 서비스를 묶은 비즈니스 모델로 전환할 것"이라며 "소프트웨어, 서비스 매출 비중을 단계적으로 확대한다는 구상을 내놨다. H2O.ai 역시 한국을 아시아태평양 지역의 핵심 레퍼런스 허브로 삼고, 국내에서 검증한 AI 팩토리 아키텍처와 운영 경험을 인근 국가로 수출하는 방안을 함께 모색하고 있다. 올해 말 예정이었던 상장(IPO) 계획은 내부 논의 끝에 일정을 뒤로 미루기로 했다. AI 온프레미스 인프라, 클라우드, 보안, 플랫폼을 동시에 영위하는 유사 상장사가 국내에 거의 없어 적절한 비교 기업을 찾기 어렵고, 시장이 제시한 기업가치 수준도 회사가 보는 성장 잠재력에 비해 낮게 형성됐다는 판단에서다. 박상현 대표는 "IPO를 창업자의 엑시트 수단이 아니라 성장 자본을 조달하는 과정으로 본다"며 "AI 풀스택 전략과 H2O.ai와의 파트너십 성과를 실적과 수익성으로 입증한 뒤, 기업가치가 충분히 인정받을 수 있는 시점에 상장을 추진하겠다"고 입장을 밝혔다.

2025.12.01 11:34남혁우

GPU 26만장 활용 방안 논의...과기정통부 워킹그룹 발족

류제명 과학기술정보통신부 차관은 27일 삼성전자, 현대자동차, SK텔레콤, 네이버 측 사장급 관계자들과 GPU 워킹그룹을 발족했다. 이를 통해 대한민국의 AI 강국 도약을 위한 GPU 26만장 전략적 확보와 활용 계획을 심층 논의하기 시작햇다. 과기정통부는 지난 APEC 등을 계기로 정부와 민간이 첨단 GPU 26만장 확보를 추진키로 한 데 이어, 이날 GPU 워킹그룹 발족을 통해 국가적 관점에서 실질적 이행 계획과 구체적인 향후 대응 전략 등 워킹 플랜을 논의하는 장을 마련했다. 워킹그룹 참석자들은 정부와 민간의 GPU 확보 활용 전략을 공유하고, 국내 AI 생태계 활성화를 위한 상호 협력 방안과 글로벌 AI 경쟁력 강화를 위한 중장기 대응 전략도 의견을 나눴다. 류제명 과기정통부 차관은 “이번 GPU 워킹그룹 발족은 APEC 계기로 한 대통령님의 엔비디아 젠슨황 대표, 주요 AI기업 접견 후속조치”라며 “AI 시대의 핵심 인프라인 첨단 GPU 대규모 확보와 전략적 활용 등을 통해 구체적 성과 창출을 지향하는 본격 협력 단계로의 발전을 의미한다”고 말했다.

2025.11.27 19:19박수형

엔비디아 독주에 제동…메타, TPU 도입에 'K-AI칩' 시장 열린다

글로벌 AI 반도체 시장의 힘의 추가 움직이고 있다. 메타가 구글의 TPU(텐서프로세서유닛) 도입을 본격화하며 엔비디아를 중심의 GPU(그래픽처리장치) 생태계가 흔들리기 시작한 것이다. AI 학습부터 추론까지 전 과정을 GPU로만 해결하던 기존 산업 구조가, 다양한 형태의 AI 가속기(ASIC·TPU·NPU)로 분화하는 흐름으로 전환하면서 국내 AI 반도체 업체에도 새로운 기회가 열릴 것으로 관측된다. 27일 업계에 따르면 메타는 최근 자체 AI 인프라에 구글의 새로운 TPU를 대규모로 도입하는 방안을 검토 중이다. 이미 구글 클라우드를 통한 TPU 사용 협력에도 나선 것으로 전해진다. AI 인프라 투자액이 수십조 원에 달하는 메타가 GPU 외 대안을 공식 채택하는 첫 글로벌 빅테크가 된 셈이다. 메타의 선택은 단순한 장비 교체가 아니라, AI 인프라가 더 이상 GPU 한 종류로 감당할 수 없는 단계에 접어들었다는 신호로 읽힌다. 전력·비용·수급 문제를 해결하기 위해 기업들이 맞춤형 반도체(ASIC), TPU, 자체 AI 칩으로 눈을 돌리기 시작한 것이다. 국내 AI 반도체 업계 관계자는 “데이터센터에서 TPU가 활용되기 시작됐다는 건 추론 분야에서 엔비디아 GPU의 대안이 관심 수준을 넘어서 실제 수요 기반의 시장으로 자리 잡고 있다는 의미로 해석된다”고 말했다. GPU가 놓친 틈새, 한국 업체들이 파고드는 시장 이 같은 글로벌 흐름은 국내 AI 반도체 업계에는 수년 만의 기회로 평가된다. 엔비디아 GPU 중심 구조가 흔들리면서 AI 가속기 시장이 다원화되는 구간이 열렸고, 이는 곧 국산 AI 칩이 진입할 수 있는 틈새가 커진다는 의미이기 때문이다. 국내 AI 반도체 기업 중에서는 리벨리온과 퓨리오사AI가 직접적인 수혜를 받을 것으로 전망된다. 양사는 '서버용 AI 추론'에 특화된 NPU(신경망처리장치)를 개발하는 회사다. 두 회사 모두 GPU 대비 높은 전력 효율과 비용 절감을 강점으로 내세우며, 데이터센터와 클라우드 환경에서 빠르게 늘어나는 AI 추론 부담을 줄이는 데 초점을 맞추고 있다. 양사 외에도 하이퍼엑셀이 GPU 없이 LLM 추론 인프라를 구축할 수 있는 추론 서버 풀스택 전략을 통해 업계 안팎에서 주목받고 있다. 업계에서는 TPU 채택을 시작으로 국내 추론용 칩 시장도 활성화될 것으로 내다보고 있다. AI 반도체 업계 관계자는 “이런 시장의 변화는 ASIC 업체들이 준비 중인 추론 특화 칩에 대한 논의로 자연스럽게 이어질 것”이라며 “장기적인 부분에서 의미있는 신호로 보인다”고 설명했다. K-AI칩 활성화...한국 생태계 전반에 호재 이 같은 시장 변화는 칩 개발사에 그치지 않고, 국내 반도체 생태계 전반으로 확산될 수 있다. 국내 AI 칩 생산의 상당 부분을 맡고 있는 삼성전자 파운드리(반도체 위탁생산)는 칩 수요가 늘어날수록 선단공정·2.5D 패키징 등 부가 공정 수요까지 함께 확대될 것으로 예상된다. 아울러 글로벌 HBM 시장을 주도하는 SK하이닉스도 직접적 수혜가 기대된다. 대부분의 AI 가속기가 HBM을 기본 메모리로 채택하면서, GPU 외 대안 가속기 시장이 커질수록 HBM의 전략적 중요성은 더욱 커지는 것이다. 여기에 AI 칩 설계 수요가 증가하면 가온칩스·퀄리타스반도체 등 국내 디자인하우스와 IP 기업의 일감도 자연스럽게 늘어날 것으로 보인다. ASIC 개발 프로젝트가 늘어날수록 설계·IP·검증 생태계가 함께 성장하는 구조이기 때문이다. 반도체 업계 관계자는 "GPU를 대체하는 시장 흐름은 한국 반도체 업계에는 긍정적인 신호가 될 수 있다"고 말했다.

2025.11.27 15:20전화평

"기존 시설은 제외?"…데이터센터 특별법에 업계 '우려'

정부가 추진 중인 데이터센터 특별법이 신규 시설 중심으로 이뤄질 가능성이 높아지면서 기존 센터 지원은 사실상 제외될 것이라는 우려가 나왔다. 26일 IT 업계에 따르면 그동안 데이터센터가 겪어온 환경 규제와 민원 문제 완화를 위해 해당 특별법이 논의되고 있지만, 실제 법안 구조는 신규 인공지능(AI) 데이터센터에 초점이 맞춰진 것으로 나타났다. 데이터센터 특별법 논의는 지난해 9월 더불어민주당 한민수 의원이 대표 발의한 법안에서 시작됐다. 이 법안은 신설 AI 데이터센터에 필요한 기준과 지원 체계를 구축하겠다는 취지로 발의돼 현재 국회 상임위에서 심사 중이다. 유사한 내용을 담은 더불어민주당 정동영 의원 법안도 같은 시기 발의되면서 두 안건은 병합 논의가 이뤄지고 있다. 다만 두 법안 모두 아직 본회의 문턱을 넘지 못해 제도화 단계까지는 시간이 더 필요하다. 전문가들은 기존 데이터센터가 이런 논의에서 제외되는 이유가 단순히 법안 구조 때문만은 아니라고 지적했다. 김영환 한국전자기술연구원(KETI) 단장은 "기존 데이터센터는 이미 소음과 환경 규제, 전력 인입 제한, 지역 민원 등 여러 문제를 안고 있다"며 "특별법이 시행돼도 체감 변화가 크지 않을 것"이라고 설명했다. 그는 "설비와 입지, 전력 구조가 모두 오래돼 지원 요건을 충족하는 것도 쉽지 않다"고 말했다. 그렇다고 기존 센터를 AI 데이터센터로 전환하는 작업도 사실상 불가능하다는 의견도 나왔다. 기존 센터가 중앙처리장치(CPU) 사용을 전제로 설계돼 랙당 전력밀도와 발열량이 크게 증가하는 AI 서버를 감당하기 어려워서다. 김성윤 테라텍 연구소장은 "GPU 기반 서버에 필요한 고밀도 전력 공급과 액체냉각 시스템을 갖추려면 배전과 냉각 설비를 사실상 처음부터 다시 설치해야 한다"고 설명했다. 김 연구소장은 입지 문제도 걸림돌이라고 지적했다. 그는 "현재 기존 센터는 대부분 도심에 자리하고 있어 전력 인입 확대가 쉽지 않다"며 "소음과 발열로 인한 지역 민원 부담도 여전하다"고 지적했다. 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 "건물 구조나 층고 하중 자체가 고성능 AI 장비를 수용하기엔 한계가 있다"고 말했다. 이어 "기존 센터가 사실상 제외된 정책이 현장에서 혼란을 키울 수 있다"며 "별도 지원 기준이나 전환 프로그램을 마련해야 한다"고 강조했다.

2025.11.26 10:27김미정

[현장] 나연묵 교수 "쏟아지는 GPU 운영 인프라 부족…AI 데이터센터 필수"

"정부가 그래픽처리장치(GPU) 수십만 장을 기업·기관에 도입하고 있지만, 이를 제대로 운영할 수 있는 데이터센터 성능이 여전히 부족합니다. GPU 운영에 필수적인 전력·냉각·네트워크 등 기반 시설이 기존 데이터센터로 감당하기 어렵습니다. 인공지능 데이터센터(AIDC) 구축이 필수입니다." 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 25일 한국컴퓨팅산업협회가 코엑스에서 개최한 '2025 미래 IT 전략-AI데이터센터 컨퍼런스'에서 "정부가 데이터센터 인프라 준비 없이 GPU만 대량 도입하고 있다"며 AIDC 필요성을 재차 강조했다. 그는 기존 데이터센터 개념이 AIDC와 다르다고 설명했다. 기존 데이터센터는 웹서비스나 기업 시스템을 운영하는 데 최적화된 인프라다. 중앙처리장치(CPU) 중심의 일반 서버를 기준으로 설계됐다. 반면 AIDC는 대규모 AI 모델을 학습·추론하는 시설이다. 고성능 연산 장치인 GPU와 AI 칩을 대량으로 활용하는 것을 목표로 뒀다. 나 교수는 GPU 서버 운영의 핵심인 고속 연결망·고출력 전력·고밀도 냉각 세 요소가 기존 데이터센터에 부족하다고 짚었다. 기존 데이터센터는 3~5킬로와트(kW) 전력 공급을 기준으로 설계됐는데, 엔비디아 최신 GPU 서버는 장비 한 대만으로 14.3kW를 요구한다는 점을 대표적 사례로 들었다. 그는 "GPU 한 대가 표준 랙 3개 공간을 차지하는 비효율을 초래할 수 있다"고 지적했다. 네트워크 병목도 기존 데이터센터 주요 문제로 꼽혔다. 나 교수는 국내 데이터센터 네트워크가 랙스케일 서버 구성을 충분히 뒷받침할 수 없다고 평가했다. 그는 "AI 학습은 여러 GPU를 한꺼번에 묶어 하나의 시스템처럼 동작시키는 기술이 반드시 필요하다"며 "이를 위해서는 GPU 간 데이터를 빠르게 주고받는 연결망이 필수"라고 강조했다. 이어 "특히 '인피니밴드'와 '울트라 이더넷' 같은 기술이 GPU 클러스터 성능을 결정한다"고 덧붙였다. 데이터센터 스토리지 요건도 문제로 제기됐다. 그는 "AI 학습에서는 기존 데이터센터 대비 훨씬 더 큰 용량과 더 빠른 처리 속도가 필요하다"며 "지금의 스토리지 인프라로는 대응이 쉽지 않다"고 지적했다. 나 교수는 기존 데이터센터의 냉각 인프라가 한계에 다다랐다고 봤다. 그는 "GPU 서버가 소비한 전력은 그대로 열로 배출되는데, 이 열량이 기존 공랭식 시스템의 처리 한계를 넘고 있다"고 지적했다. 이어 "10kW 이상의 발열은 공랭식으로 감당하기 어려워 액침냉각이나 수냉식 같은 고성능 냉각 기술 도입이 불가피하다"며 "현재 정부와 민간에서는 임시 냉각 설비를 증설해 운영을 이어가고 있지만 이를 근본적 해결책으로 볼 수 없다"고 덧붙였다. 또 그는 "GPU 서버의 비중이 높고, 랙 전력 밀도 15~500kW를 감당하면서 수냉식으로 작동하는 AIDC를 더 늘려야 한다"고 강조했다.

2025.11.25 15:24김미정

최형두 의원 "무늬만 AI 아닌 진짜 AI에 예산 집중해야"

국민의힘 최형두 국회 과학기술정보방송통신위원회 간사가 내년 예산 심사와 관련해 핵심 요소에 집중한 인공지능(AI) 예산 편성을 촉구했다. 25일 국민의힘 원내대책회의에서 발언에 나선 최형두 간사는 "AI 대세론 속에서 모든 부처가 AI 예산을 이야기하고 있지만 지난 정부 시절 'AI 인재 양성'을 외치며 수천억원에서 수조원의 예산을 퍼붓고도 남은 실적이 없다"고 지적했다. 이어 "내년 예산은 100조원 국채를 발행해 만든 예산"이라며 "미래 세대가 갚아야 할 빚이며 일본의 국채 금리 급등 사례에서 보듯 소상공인과 서민, 기업에는 곧바로 금리·물가·환율 부담으로 돌아올 것"이라고 덧붙였다. 그는 진짜 AI와 무늬만 AI를 구별해 투자를 집중해야 한다며 '진짜 AI'를 떠받치는 세 가지 핵심 포인트로 컴퓨팅 인프라, 고순도 데이터, 핵심 인재를 제시했다. 또 그래픽처리장치(GPU)와 국산 추론용 저전력 AI 반도체인 신경망처리장치(NPU)로 구성된 컴퓨팅 인프라, 최고 수준의 AI 모델을 학습시킬 수 있는 양질의 데이터, 이를 설계·운영할 인재가 갖춰져야 한다는 설명이다. 최 간사는 "진짜 AI 예산은 이 세 가지 기준에 맞아야 한다"며 관련 예산이 선언적 사업이 아니라 구체적인 성과를 낼 수 있는 구조로 설계돼야 한다고 강조했다. 그는 최근 엔비디아 젠슨 황 CEO가 한국에 약속한 블랙웰급 GPU 물량도 언급했다. 그는 "엔비디아가 26만 장, 총 3기가와트(GW) 규모에 약 12조원에 달하는 첨단 GPU 공급을 약속했지만 최태원 SK그룹 회장이 밝힌 현재 한국의 AI 수요는 10~20메가와트(MW) 수준"이라며 "갑자기 공급이 수요의 100배를 넘어서게 된 것"이라고 말했다. 최신 GPU의 수명이 3~5년으로 쓰지 않으면 감가상각이 빠르게 진행된다는 점을 짚으며 "3년이 지나면 성능이 절반으로 떨어지고 5년 후면 구형이 된다. 초고가 GPU들이 전략자산이 될지 고철덩어리가 될지는 확보 후 3년 안에 결정된다"고 경고했다. 더불어 오픈AI, 메타, 구글 사례를 들어 데이터의 중요성을 거듭 부각했다. 오픈AI가 챗GPT 1억 사용자 돌파 이후 GPU를 대량 확보했고 메타는 30억 명에 달하는 이용자, 구글은 검색과 유튜브 수십억명 이용자 데이터를 바탕으로 GPU 투자를 확대했다는 것이다. 최 간사는 "모두 막대한 데이터가 뒷받침됐다"며 "우리 글로벌 기업들이 5만 장씩 구매할 GPU들은 제조업에 AI 날개를 달아줄 '피지컬 AI'에 활용될 것"이라고 말했다. 그러면서 "국가 예산으로 구매하는 5만 장에 대해서는 진정한 수요, 즉 고순도 데이터를 만드는 데 진짜 AI 예산이 투입돼야 한다"고 강조했다. 지난 정부부터 추진된 K-클라우드 사업도 언급했다. 그는 "과학기술정보통신부는 K-클라우드 사업을 통해 세계에서 가장 앞선 의료·보건·교육 분야 데이터를 활용해 AI 3대 강국의 초석을 쌓고자 했다"고 상기시키며 "전국 초·중·고에 AI 튜터를 배치해 학생별 맞춤 학습을 지원하려 했지만, AI 디지털교과서 도입 무산으로 모멘텀을 놓친 만큼 이제 다시 재고해야 한다"고 했다. 언론 콘텐츠의 AI 전환을 위한 '미디어 클라우드' 예산 구상도 함께 제시했다. 최 간사는 "우리나라 신문·방송 등 언론이 가진 거대한 콘텐츠를 AI로 전환하는 미디어 클라우드 예산도 국민의힘이 제안했다"며 국내 미디어 산업이 AI 시대에 뒤처지지 않도록 공공·민간이 함께 데이터 기반을 마련해야 한다고 주장했다. 더불어 "대한민국의 진정한 AI 3대 강국(AIG3) 목표를 위해 국민의힘은 예산 심사에 마지막까지 최선을 다하겠다"고 말하며 발언을 마무리했다.

2025.11.25 15:22남혁우

美, 엔비디아 AI칩 中에 밀수출한 일당 기소

미국 연방 검찰이 엔디비아의 AI반도체를 중국으로 불법 수출한 혐의로 중국인 2명과 미국인 2명을 기소했다고 블룸버그통신이 21일 보도했다. 공개된 기소장에 따르면, 이들은 플로리다주에 가짜 부동산 사업체를 꾸려 수백 개의 엔비디아 반도체를 말레이시아를 거쳐 중국으로 최종 운송했다. 이 과정에서 미국 상무부에 수출 허가는 신청하지 않았다. 불법 수출된 것으로 알려진 엔비디아 칩은 'A100'이다. 현재 출시되고 있는 '블랙웰' 시리즈에 비하면 구형 제품에 속하나, AI 데이터센터에 충분히 활용될 수 있는 성능을 갖추고 있다. 또한 이들은 다음 세대의 칩인 H100, H200, 슈퍼컴퓨터 10대 등을 밀수하려 한 혐의도 받고 있다. 검찰은 이들 일당이 엔비디아 칩을 중국에 네 차례나 수출하려 한 것으로 보고 있다. 첫 번째와 두 번째 시도는 2024년 10월부터 올해 1월 사이에 일어나, A100 칩 400여개가 중국으로 수출됐다. 3~4번째 시도는 사법 당국의 조치로 무산됐다. 엔비디아 대변인은 이와 관련한 성명에서 "수출 시스템은 엄격하고 포괄적"이라며 "구형 제품의 소규모 판매조차도 2차 시장에서 엄격한 조사와 검토를 받는다"고 밝혔다. 앞서 미국은 지난 2022년부터 국가 안보를 이유로 첨단 AI 반도체가 중국으로 수출되는 것을 제한하는 법안을 시행 중이다. 이에 따라 엔비디아는 기존 대비 성능을 낮춘 제품 개발로 대안책을 마련해 왔으나, 이마저도 추가 규제로 활로가 막힌 상황이다. 그러나 엔비디아 칩을 중국으로 밀반출하려는 사례는 지속 적발되고 있다. 지난 8월에는 중국 국적자 2명이 캘리포니아주 엘몬테에 위치한 회사를 이용해 엔비디아의 AI칩을 불법 수출한 혐의로 기소된 바 있다.

2025.11.23 08:50장경윤

와탭랩스 "향후 10년 AI 네이티브 옵저버빌리티 시대 주도한다"

"인공지능(AI) 인프라 시대에는 그래픽처리장치(GPU)와 클라우드 네이티브 환경을 아우르는 통합 옵저버빌리티가 기업 경쟁력을 좌우할 것입니다" 이동인 와탭랩스 대표는 지난 20일 웨스틴 서울 파르나스 호텔에서 열린 '와탭 옵저브 서밋 2025' 기자간담회에서 AI 시대 옵저버빌리티의 역할에 대해 이같이 강조했다. 이날 와탭랩스는 GPU·쿠버네티스·온프레미스·서비스형 소프트웨어(SaaS) 환경을 통합하는 차세대 옵저버빌리티 전략을 공유했다. 최근 AI 인프라 확장에 따라 관측·분석해야 할 IT 지표가 기하급수적으로 늘어나는 상황에서 이를 실시간 통합해 해석할 수 있는 와탭랩스 플랫폼의 수요가 늘고 있다. 이에 대해 와탭랩스 김성조 최고기술책임자(CTO)는 "향후 데이터센터는 GPU 기반 AI 인프라 중심으로 빠르게 재편될 것"이라며 "데이터 규모와 시스템 복잡도가 폭발적으로 증가하는 만큼, 효율적으로 AI를 활용하기 위해서는 통합 옵저버빌리티 전략의 중요성이 더 커질 수밖에 없다"고 말했다. 이런 흐름에 맞춰 와탭랩스는 GPU 전력 단계부터 서버·컨테이너·쿠버네티스까지 전 계층을 연동해 분석하는 기존에 존재하지 않던 형태를 개발 과정에 반영했다. 상당한 기술적 어려움을 극복한 와탭랩스는 올해 GPU 모니터링 솔루션을 공식 출시해 다수 기업과 기술검증(PoC)을 진행하며 국내 최다 수준의 GPU 모니터링 경험을 확보했다고 강조했다. 이 대표는 "국내 기업들이 GPU 인프라 운영 규모를 크게 공개하지 않는 상황에서도 문의가 꾸준히 증가하고 있다"며 "내년에는 GPU 모니터링 사업이 올해의 4배 수준인 매출 20% 기여도까지 확대될 수 있을 것"이라고 전망했다. 쿠버네티스 모니터링 경쟁력에 대한 강점도 소개했다. 실시간성을 기반으로 한 초 단위 분석, 직관적 UI, SaaS·온프레미스 동시 제공 구조가 글로벌 모니터링 솔루션과 차별화되는 핵심 요소라는 설명이다. 해외 제품들이 분 단위로 데이터를 집계하는 것에 비해 와탭랩스 플랫폼은 전 계층을 초 단위로 수집해 즉시 분석할 수 있어 실시간 대응에 최적화돼 있다는 것이다. 글로벌 확장 로드맵도 공유했다. 이 대표는 "일본·동남아 시장에서 빠르게 성장하고 있으며 특히 동남아에서는 전년 대비 2배 이상의 매출을 기대하고 있다"며 "아시아 기업은 온프레미스 기반 풀스택 옵저버빌리티 수요가 여전히 높아 우리 플랫폼의 구조적 강점이 크게 작용하고 있다"고 밝혔다. 이어 "내년에는 미국 진출도 본격 추진할 계획"이라고 덧붙였다. 이번 서밋에서 와탭랩스는 데이터 레이크 기반의 AI 레디 옵저버빌리티 플랫폼 '옵스레이크'를 중심으로 GPU 모니터링 고도화, AI 기반 운영 자동화, 오픈 메트릭 통합 등 기술 로드맵도 발표했다. 행사에는 아마존웹서비스(AWS)를 비롯한 주요 파트너사·고객사가 참여해 GPU·AI·테크·비즈니스 분야의 실제 활용 사례도 공유했다. 와탭랩스는 올해 가트너 '인프라 모니터링 도구 마켓 가이드'에서 국내 기업 중 유일하게 대표 기업으로 선정되는 등 기술력을 입증했다. 1천200여 고객사 기반의 글로벌 사업 확장도 지속 추진한다는 목표다. 이 대표는 "AI가 개발과 운영 방식을 근본적으로 재정의하고 있는 지금, 옵저버빌리티는 AI의 속도를 따라가기 위한 기업의 엔진이자 중심축이 되고 있다"며 "앞으로의 10년은 우리가 주도하는 AI 네이티브 옵저버빌리티 시대로 만들겠다"고 강조했다.

2025.11.21 09:01한정호

슈퍼마이크로, 'AMD MI355X' 탑재 공냉식 서버 출시…AI 포트폴리오 확대

슈퍼마이크로가 AMD의 그래픽처리장치(GPU)를 탑재한 차세대 서버 제품군을 선보이며 인공지능(AI) 워크로드 성능 강화 포트폴리오를 확대한다. 슈퍼마이크로는 'AMD 인스팅트 MI355X' GPU 탑재 10U 공냉식 서버를 출시했다고 20일 밝혔다. 이번 솔루션은 AMD 인스팅트 MI355X GPU의 고성능을 공냉식 냉각 환경에서 구현하려는 기업을 위해 설계됐으며 우수한 성능·확장성·전력 효율성을 제공한다. 슈퍼마이크로 빅 말얄라 테크놀로지·AI부문 수석부사장은 "우리의 데이터센터 빌딩 블록 솔루션(DCBBS)은 검증된 서비스를 시장에 공급하는 과정에서 AMD 솔루션과 같은 최첨단 기술을 신속하게 통합할 수 있도록 한다"고 강조했다. 이어 "새로운 AMD 인스팅트 MI355X GPU 공냉식 솔루션 추가로 우리 AI 제품군을 확장·강화하며 고객들의 차세대 데이터센터 구축에 다양한 선택지를 제공할 수 있게 됐다"고 덧붙였다. 슈퍼마이크로는 이번 10U 공냉식 서버 출시를 통해 수냉식 및 공냉식 기반 고성능 제품군을 확장했다. 해당 솔루션은 업계 표준 OCP 가속기 모듈(OAM)을 활용해 GPU당 288GB의 HBM3e 메모리와 8TB/s 대역폭을 제공한다. 또 TDP가 1천 와트(W)에서 1천400W로 증가함에 따라 기존 8U MI350X 공냉식 시스템 대비 최대 두 자릿수의 성능 향상이 이뤄져 데이터를 빠르게 처리할 수 있다. 이번 제품군 확장으로 슈퍼마이크로 고객은 공냉식과 수냉식 인프라 모두에서 랙당 성능을 효율적으로 확장할 수 있다는 설명이다. 특히 이번 GPU 솔루션은 클라우드 서비스 제공 업체와 엔터프라이즈 환경 전반에서 대규모 AI 및 추론 워크로드에 최대 성능을 제공하도록 설계됐다. AMD 트래비스 카 데이터센터 GPU 사업부문 비즈니스 개발 담당 부사장은 "슈퍼마이크로와 협력해 공냉식 AMD 인스팅트 MI355X GPU를 시장에 선보여 고객들은 기존 인프라에서도 고급 AI 성능을 보다 쉽게 도입할 수 있게 됐다"며 "양사는 성능과 효율성 분야의 선두주자로서 전 세계 데이터센터의 혁신을 가속화하는 차세대 AI 및 고성능컴퓨팅(HPC) 솔루션을 제공하고 있다"고 말했다.

2025.11.20 17:19한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

'피지컬 AI' 원년…휴머노이드, 새해엔 현장서 뛴다

코너 몰린 쿠팡...과징금이냐 영업정지냐

AI에 진심인 韓, '피지컬 AI'로 글로벌 주도권 잡을까

AI 쫓던 통신, 해킹에 진땀...네트워크 본질로 집중

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.