• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'DGX-A100 GPU'통합검색 결과 입니다. (354건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

구글 TPU 파트너 플루이드스택, 기업가치 10조원 '눈앞'…대형 데이터센터 투자 시동

글로벌 인공지능(AI) 인프라 시장에서 신흥 강자로 떠오른 플루이드스택이 대규모 자금 조달에 나서며 기업가치가 70억 달러(약 10조원)에 이를 것이라는 전망이 나왔다. 구글 텐서처리장치(TPU) 생태계를 뒷받침하며 존재감을 키운 가운데, 대규모 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축을 본격화하면서 업계의 시선이 집중되고 있다. 5일 디인포메이션 등 외신에 따르면 플루이드스택은 약 7억 달러(약 1조원) 규모의 신규 투자 유치를 추진 중이며 투자 라운드가 성사될 경우 기업가치는 70억 달러(약 10조원) 수준까지 상승할 것으로 관측된다. 이번 투자 라운드는 전 오픈AI 연구원이 설립한 시추에이셔널 어웨어니스가 주도하며 알파벳(구글)과 골드만삭스가 참여 논의를 진행 중인 것으로 알려졌다. 플루이드스택은 최근 구글의 TPU를 대규모로 임대·호스팅하며 주목받고 있다. 특히 '제미나이 3' 학습에 활용된 TPU 인프라를 공급한 핵심 파트너로 알려지면서 글로벌 AI 인프라 생태계에서 빠르게 입지를 넓히는 중이다. 그동안 엔비디아 그래픽처리장치(GPU) 임대 중심이었던 사업 구조도 TPU 중심으로 전환을 가속하고 있다. 회사는 지금까지 주식 기반 조달보다는 차입금에 의존해 서버 구축 비용을 조달해왔고 올해 초에는 엔비디아 등 AI 칩을 담보로 100억 달러(약 14조원) 이상의 신용 승인도 확보한 것으로 전해졌다. 올해에만 구글과 두 건의 데이터센터 개발 계약을 체결한 것도 주목된다. 플루이드스택은 테라울프·사이퍼 마이닝과 함께 데이터센터 프로젝트를 진행 중이다. 해당 계약에서 구글은 플루이드스택이 자금을 갚지 못하는 상황이 오면 대신 빚을 갚아주기로 한 '보증인' 역할까지 맡아 지원했다. 이는 AI 인프라 수요 급증 속에서 기술 기업과 금융기관이 새로운 방식으로 데이터센터 투자를 확대하는 흐름과 맞물려 있다. 플루이드스택은 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 발표했다. 내년 가동을 목표로 하는 이 프로젝트는 프랑스 정부가 AI 경쟁력 확보를 위해 추진하는 대규모 전략의 핵심으로 평가된다. 회사는 현재 메타·하니웰 등과의 파트너십도 강화하며 글로벌 AI 기업들과 협력을 확대하고 있다.

2025.12.05 14:43한정호

나인랩스, 시리즈 A 30억원 규모 투자 유치

데이터센터 및 AI 서버용 열관리 전문기업 나인랩스는 4일 대형 증권사와 벤처캐피털을 통해 30억원 규모 시리즈 A 투자를 유치했다고 밝혔다. 나인랩스는 카본 3D 프린터 시스템과 시제품 제작 사업을 중심으로 한 정밀공정 전문 기업이다. 최근에는 설계·가공 역량을 바탕으로 데이터센터와 고성능 서버용 반도체 직접냉각(D2C) 방식 액체냉각 솔루션으로 포트폴리오를 확장했다. 나인랩스 D2C 액체냉각 솔루션은 고성능 작동시 높은 열을 내는 CPU·GPU 표면에 냉각부를 직접 접촉시켜 구동된다. 기존 공랭식 간접냉각 대비 열전달 효율이 높고 소비 에너지를 줄이는 효과가 있으며 고집적·고전력 서버 환경에서 안정적으로 발열을 관리해 AI·고성능 컴퓨팅(HPC) 서버 인프라 핵심 기술로 꼽힌다. 주요 시장조사업체에 따르면 글로벌 액체냉각 시장은 AI 서버 전환 가속화에 따라 향후 5년간 연평균 25% 이상 성장할 것으로 기대된다. 주요 클라우드 및 통신사들도 D2C 등 액체냉각 기술 도입을 활발하게 검토중이다. 나인랩스는 이번에 유치한 30억원을 이용해 콜드플레이트, 소형 매니폴드, UQD 등 D2C 액체냉각 솔루션 핵심 부품의 설계 고도화와 양산 체계 구축에 나설 예정이다. 또 국내외 데이터센터/서버 사업자와 기술검증 협력 프로젝트도 확대한다. 박성호 나인랩스 대표이사는 "이번 30억원 규모 시리즈 A 투자 유치는 나인랩스의 기술 완성도와 글로벌 시장 성장 가능성을 동시에 인정받은 의미있는 이정표로 향후 고효율·친환경 액체냉각 솔루션을 통해 글로벌 데이터센터 및 AI 인프리 시장에서 새로운 표준을 만들어가겠다"고 밝혔다.

2025.12.04 15:02권봉석

트럼프-젠슨 황 회동...중국향 AI 칩 수출 재개 가닥

미국 대통령 도널드 트럼프가 세계 최대 AI 반도체 업체 엔비디아의 젠슨 황 CEO와 만나 첨단 AI 칩의 중국 수출 통제 문제를 논의했다고 로이터가 3일(현지시간) 보도했다. 트럼프 대통령은 황 CEO를 “똑똑한 사람”이라고 평가하며 “그는 내 입장을 잘 안다”고 말했다. 이번 논의는 미국 정부가 엔비디아 GPU 'H200'을 중국에 판매할지 검토 중인 가운데 이뤄졌다. H200은 엔비디아의 전세대 제품이다. 판매가 허용된다면 중국 시장 접근이 재개된다는 의미로, 반도체 업계와 글로벌 AI 생태계에 적지 않은 파장이 예상된다. 황 CEO는 같은 날 미국 의회를 찾아 “미국 내 주별(州)로 나뉜 규제가 AI 기술 발전을 느리게 한다”며 규제 완화를 촉구했다. 아울러 일부에서 나오는 반출 우려에 대해선, “AI 서버용 GPU는 무게·가격·전력 소비량이 매우 커, 대규모 밀수는 현실적으로 어렵다”고 반박했다. 엔비디아 측은 즉각적인 공식 입장을 내놓지 않았으며, 이번 회동을 계기로 미국 내 수출 통제 정책과 중국을 포함한 글로벌 시장 사이 줄다리기가 한층 격화될 전망이다.

2025.12.04 10:52전화평

KT, 충북청주강소특구에 GPU 구독서비스 제공

KT가 충북대 산학협력단 강소특구 지원센터에 고성능 GPU 구독형 서비스 'K GPUaaS'를 제공한다고 4일 밝혔다. K GPUaaS는 KT가 확보한 엔비디아의 GPU 'H100'을 월 구독 형태로 이용할 수 있는 서비스로 지난 9월 출시됐다. 초기 인프라 구축 비용이나 유지보수 부담을 줄여 AI 개발 속도와 경쟁력을 효율적으로 향상시킬 수 있다. 충북청주강소특구는 충북대학교가 운영하는 기술 핵심 연구기관으로 스마트 IT부품과 시스템이 중점 특화 사업이다. KT는 이곳에 K GPUaaS를 적용해 AI 개발과 학습에 최적화된 고성능 GPU 기반의 컴퓨팅 환경을 제공하고 있다. GPU 활용을 위한 전문 컨설팅을 비롯해 오픈 이노베이션 프로그램 등 AI 개발과 사업화 전반에 필요한 자원도 함께 지원한다. KT는 이번 사례를 시작으로 국내의 다양한 기업과 기관으로 K GPUaaS의 활용 범위를 넓힐 계획이다. AI 딥러닝 모델 학습과 추론, 데이터 분석 등 고성능 연산이 필요했던 기업·기관의 GPU 접근성을 높일 것으로 기대하고 있다. 한편 K GPUaaS는 초고속 네트워크 기술인 '인피니밴드(InfiniBand)'를 바탕으로 GPU 서버 간 지연 없는 통신을 제공해 대규모 분산 학습 환경을 구현한다. 또 GPU 가상화 분할 기술로 하나의 GPU를 여러 단위로 나누어 작업량에 따라 자원을 배분, 조정할 수 있도록 해 GPU 활용 효율을 높였다. 모든 GPU 인프라와 데이터, 네트워크는 국내에서 관리되어 고객의 데이터가 해외로 유출될 우려는 낮췄다. 유서봉 KT 엔터프라이즈부문 AX사업본부장은 “K GPUaaS가 첫 레퍼런스를 확보해 구독형 GPU 시장 확대를 위한 기반을 마련했다”며 “앞으로 더 많은 고객이 비용에 대한 부담 없이 고성능 GPU와 분산 학습에 최적화된 환경을 이용할 수 있도록 지원해 국내 AI 개발 생태계의 활성화에 기여하겠다”고 말했다.

2025.12.04 09:10박수형

"GPU부터 LLM까지 한 번에"…메이머스트·H2O.ai, 국내 풀스택 AI 공략 박차

메이머스트가 글로벌 인공지능(AI) 플랫폼 기업 H2O.ai와 손잡고 한국 엔터프라이즈 시장 공략에 박차를 가한다. 메이머스트가 보유한 온프레미스 인프라 역량에 H2O.ai의 AI 플랫폼을 더해 현장에 맞는 풀스택 AI를 구현하겠다는 계획이다. 이를 통해 기업들의 AI 도입 장벽을 낮추고, 적용 범위를 전 산업으로 넓혀가겠다는 포부다. 박상현 메이머스트 대표와 H2O.ai 제이미 림 아시아태평양(APJ) 파트너십 리드는 1일 경기 하남시 메이머스트 사무실에서 한국 시장 진출 전략을 공개했다. 메이머스트는 온프레미스 기반 AI 인프라와 클라우드, 보안, 네트워크, 가상 데스크톱(VDI)까지 아우르는 기술 기업이다. GPU 서버와 스토리지, 네트워크, HCI를 설계·구축하고 자체 개발한 기계학습운영(MLOps), 그래픽처리장치(GPU) 자원 관리 솔루션으로 AI 인프라 운영을 자동화·최적화하는 데 강점을 가진다. 전체 인력의 상당수가 엔지니어로 구성된 기술 중심 조직이라는 점도 특징이다. 이 같은 인프라, 플랫폼 역량을 바탕으로 국내 엔터프라이즈의 디지털 전환과 AI 도입을 지원해 왔다. H2O.ai는 미국에 본사를 둔 글로벌 AI 플랫폼 기업이다. 예측형 AI와 생성형 AI를 모두 지원하는 엔터프라이즈 AI 플랫폼을 제공하며 하나의 대규모언어모델(LLM)이나 특정 클라우드에 종속되지 않는 구조를 지향한다. 은행, 통신, 헬스케어 등 규제가 강한 산업에서 수많은 예측형 AI 레퍼런스를 확보했고, 이를 기반으로 생성형 AI 애플리케이션 빌더, MLOps 기능을 통합한 플랫폼으로 진화했다. 온프레미스, 프라이빗 클라우드, 망분리 환경에서도 구축이 가능한 소위 소버린 AI 역량을 갖춘 점이 글로벌에서 높은 평가를 받고 있다. 두 회사가 파트너십을 맺게 된 배경에는 각자의 강점과 한국 시장의 특성이 맞물려 있다. 메이머스트 입장에서는 GPU 인프라와 MLOps, 보안·네트워크까지는 자체 포트폴리오를 보유하고 있다. 다만 그 위에서 실제 비즈니스 가치를 만드는 예측형·생성형 AI 소프트웨어 계층은 프로젝트마다 다른 솔루션을 얹는 방식에 의존해 왔다. 풀스택을 표방하면서도 최상단 플랫폼이 고정되지 않아, 장기적인 서비스·유지보수 구조를 설계하는 데 한계가 있었다는 설명이다 H2O.ai는 바로 이 상단을 채워주는 단일 플랫폼이자, 다양한 LLM과 산업별 유스케이스를 담은 AI 엔진 역할을 하게 된다. 박상현 대표는 "그동안 메이머스트는 풀스택을 표방해 왔지만 정작 최상단 플랫폼이 고정돼 있지 않다 보니 장기적인 서비스나 유지보수 구조를 설계하는 데 한계가 있었다"며 "H2O.ai가 바로 이 상단을 채워주는 단일 플랫폼이자, 다양한 LLM과 산업별 유스케이스를 담은 AI 엔진 역할을 하게 될 것"이라고 강조했다. H2O.ai 입장에서는 데이터 주권과 망분리 요구가 강한 한국 시장을 본격적으로 공략하기 위해, 온프레미스 인프라와 AI 팩토리 구축 경험을 가진 로컬 파트너가 필요했다. H2O.ai의 예측형·생성형 AI 플랫폼과 메이머스트의 온프레미스 인프라·MLOps가 결합하면, 클라우드부터 폐쇄망까지 아우르는 엔드투엔드 AI 레퍼런스를 만들 수 있다는 판단이 맞아 떨어졌다는 것이다. 제이미 림 리드는 "메이머스트가 GPU 클러스터와 스토리지, 네트워크, 보안을 모두 아우르는 아키텍처 역량을 갖추고 있다"며 "더불어 실제 엔터프라이즈 프로젝트에서 보여준 실행 속도와 조직 문화가 인상적이었다 "고 말했다. 두 회사가 내세운 키워드는 'AI 풀스택'이다. 메이머스트가 제공하는 하드웨어 인프라에 예측형과 생성형 AI를 모두 지원하는 H2O.ai 플랫폼을 결합해 인프라부터 모델 개발·검증·운영까지를 하나의 패키지로 제공하는 구조로 제공한다는 방침이다. 고객사 입장에서는 인프라 벤더, 소프트웨어 벤더, 운영 파트너를 따로 관리할 필요 없이, 하나의 풀스택 파트너를 통해 AI 도입을 추진할 수 있게 되는 셈이다. AI 풀스택을 완성한 양사는 우선 국내에서 가시적인 성공 사례를 만드는 데 집중할 계획이다. 우선 규제가 강한 산업을 중심으로 1~2건의 대표 레퍼런스를 확보한 뒤, 이를 다른 산업과 파트너 생태계로 확산하는 전략이다. 이를 위해 메이머스트는 멀티노드 GPU 환경과 스토리지, 네트워크, 보안 솔루션을 한곳에 모은 데모센터를 'AI 팩토리 쇼룸'으로 고도화하고 있다. 여기에 H2O.ai 플랫폼을 얹어 고객이 실제 업무 데이터를 활용해 예측형·생성형 AI 모델을 시험해 보고, 인프라 구성과 성능을 동시에 검증할 수 있는 환경을 제공할 계획이다. 사업 목표도 풀스택 관점에서 재정비했다. 박 대표는 "단순 하드웨어 납품에 머무르지 않고, AI 플랫폼과 컨설팅·운영 서비스를 묶은 비즈니스 모델로 전환할 것"이라며 "소프트웨어, 서비스 매출 비중을 단계적으로 확대한다는 구상을 내놨다. H2O.ai 역시 한국을 아시아태평양 지역의 핵심 레퍼런스 허브로 삼고, 국내에서 검증한 AI 팩토리 아키텍처와 운영 경험을 인근 국가로 수출하는 방안을 함께 모색하고 있다. 올해 말 예정이었던 상장(IPO) 계획은 내부 논의 끝에 일정을 뒤로 미루기로 했다. AI 온프레미스 인프라, 클라우드, 보안, 플랫폼을 동시에 영위하는 유사 상장사가 국내에 거의 없어 적절한 비교 기업을 찾기 어렵고, 시장이 제시한 기업가치 수준도 회사가 보는 성장 잠재력에 비해 낮게 형성됐다는 판단에서다. 박상현 대표는 "IPO를 창업자의 엑시트 수단이 아니라 성장 자본을 조달하는 과정으로 본다"며 "AI 풀스택 전략과 H2O.ai와의 파트너십 성과를 실적과 수익성으로 입증한 뒤, 기업가치가 충분히 인정받을 수 있는 시점에 상장을 추진하겠다"고 입장을 밝혔다.

2025.12.01 11:34남혁우

GPU 26만장 활용 방안 논의...과기정통부 워킹그룹 발족

류제명 과학기술정보통신부 차관은 27일 삼성전자, 현대자동차, SK텔레콤, 네이버 측 사장급 관계자들과 GPU 워킹그룹을 발족했다. 이를 통해 대한민국의 AI 강국 도약을 위한 GPU 26만장 전략적 확보와 활용 계획을 심층 논의하기 시작햇다. 과기정통부는 지난 APEC 등을 계기로 정부와 민간이 첨단 GPU 26만장 확보를 추진키로 한 데 이어, 이날 GPU 워킹그룹 발족을 통해 국가적 관점에서 실질적 이행 계획과 구체적인 향후 대응 전략 등 워킹 플랜을 논의하는 장을 마련했다. 워킹그룹 참석자들은 정부와 민간의 GPU 확보 활용 전략을 공유하고, 국내 AI 생태계 활성화를 위한 상호 협력 방안과 글로벌 AI 경쟁력 강화를 위한 중장기 대응 전략도 의견을 나눴다. 류제명 과기정통부 차관은 “이번 GPU 워킹그룹 발족은 APEC 계기로 한 대통령님의 엔비디아 젠슨황 대표, 주요 AI기업 접견 후속조치”라며 “AI 시대의 핵심 인프라인 첨단 GPU 대규모 확보와 전략적 활용 등을 통해 구체적 성과 창출을 지향하는 본격 협력 단계로의 발전을 의미한다”고 말했다.

2025.11.27 19:19박수형

엔비디아 독주에 제동…메타, TPU 도입에 'K-AI칩' 시장 열린다

글로벌 AI 반도체 시장의 힘의 추가 움직이고 있다. 메타가 구글의 TPU(텐서프로세서유닛) 도입을 본격화하며 엔비디아를 중심의 GPU(그래픽처리장치) 생태계가 흔들리기 시작한 것이다. AI 학습부터 추론까지 전 과정을 GPU로만 해결하던 기존 산업 구조가, 다양한 형태의 AI 가속기(ASIC·TPU·NPU)로 분화하는 흐름으로 전환하면서 국내 AI 반도체 업체에도 새로운 기회가 열릴 것으로 관측된다. 27일 업계에 따르면 메타는 최근 자체 AI 인프라에 구글의 새로운 TPU를 대규모로 도입하는 방안을 검토 중이다. 이미 구글 클라우드를 통한 TPU 사용 협력에도 나선 것으로 전해진다. AI 인프라 투자액이 수십조 원에 달하는 메타가 GPU 외 대안을 공식 채택하는 첫 글로벌 빅테크가 된 셈이다. 메타의 선택은 단순한 장비 교체가 아니라, AI 인프라가 더 이상 GPU 한 종류로 감당할 수 없는 단계에 접어들었다는 신호로 읽힌다. 전력·비용·수급 문제를 해결하기 위해 기업들이 맞춤형 반도체(ASIC), TPU, 자체 AI 칩으로 눈을 돌리기 시작한 것이다. 국내 AI 반도체 업계 관계자는 “데이터센터에서 TPU가 활용되기 시작됐다는 건 추론 분야에서 엔비디아 GPU의 대안이 관심 수준을 넘어서 실제 수요 기반의 시장으로 자리 잡고 있다는 의미로 해석된다”고 말했다. GPU가 놓친 틈새, 한국 업체들이 파고드는 시장 이 같은 글로벌 흐름은 국내 AI 반도체 업계에는 수년 만의 기회로 평가된다. 엔비디아 GPU 중심 구조가 흔들리면서 AI 가속기 시장이 다원화되는 구간이 열렸고, 이는 곧 국산 AI 칩이 진입할 수 있는 틈새가 커진다는 의미이기 때문이다. 국내 AI 반도체 기업 중에서는 리벨리온과 퓨리오사AI가 직접적인 수혜를 받을 것으로 전망된다. 양사는 '서버용 AI 추론'에 특화된 NPU(신경망처리장치)를 개발하는 회사다. 두 회사 모두 GPU 대비 높은 전력 효율과 비용 절감을 강점으로 내세우며, 데이터센터와 클라우드 환경에서 빠르게 늘어나는 AI 추론 부담을 줄이는 데 초점을 맞추고 있다. 양사 외에도 하이퍼엑셀이 GPU 없이 LLM 추론 인프라를 구축할 수 있는 추론 서버 풀스택 전략을 통해 업계 안팎에서 주목받고 있다. 업계에서는 TPU 채택을 시작으로 국내 추론용 칩 시장도 활성화될 것으로 내다보고 있다. AI 반도체 업계 관계자는 “이런 시장의 변화는 ASIC 업체들이 준비 중인 추론 특화 칩에 대한 논의로 자연스럽게 이어질 것”이라며 “장기적인 부분에서 의미있는 신호로 보인다”고 설명했다. K-AI칩 활성화...한국 생태계 전반에 호재 이 같은 시장 변화는 칩 개발사에 그치지 않고, 국내 반도체 생태계 전반으로 확산될 수 있다. 국내 AI 칩 생산의 상당 부분을 맡고 있는 삼성전자 파운드리(반도체 위탁생산)는 칩 수요가 늘어날수록 선단공정·2.5D 패키징 등 부가 공정 수요까지 함께 확대될 것으로 예상된다. 아울러 글로벌 HBM 시장을 주도하는 SK하이닉스도 직접적 수혜가 기대된다. 대부분의 AI 가속기가 HBM을 기본 메모리로 채택하면서, GPU 외 대안 가속기 시장이 커질수록 HBM의 전략적 중요성은 더욱 커지는 것이다. 여기에 AI 칩 설계 수요가 증가하면 가온칩스·퀄리타스반도체 등 국내 디자인하우스와 IP 기업의 일감도 자연스럽게 늘어날 것으로 보인다. ASIC 개발 프로젝트가 늘어날수록 설계·IP·검증 생태계가 함께 성장하는 구조이기 때문이다. 반도체 업계 관계자는 "GPU를 대체하는 시장 흐름은 한국 반도체 업계에는 긍정적인 신호가 될 수 있다"고 말했다.

2025.11.27 15:20전화평

"기존 시설은 제외?"…데이터센터 특별법에 업계 '우려'

정부가 추진 중인 데이터센터 특별법이 신규 시설 중심으로 이뤄질 가능성이 높아지면서 기존 센터 지원은 사실상 제외될 것이라는 우려가 나왔다. 26일 IT 업계에 따르면 그동안 데이터센터가 겪어온 환경 규제와 민원 문제 완화를 위해 해당 특별법이 논의되고 있지만, 실제 법안 구조는 신규 인공지능(AI) 데이터센터에 초점이 맞춰진 것으로 나타났다. 데이터센터 특별법 논의는 지난해 9월 더불어민주당 한민수 의원이 대표 발의한 법안에서 시작됐다. 이 법안은 신설 AI 데이터센터에 필요한 기준과 지원 체계를 구축하겠다는 취지로 발의돼 현재 국회 상임위에서 심사 중이다. 유사한 내용을 담은 더불어민주당 정동영 의원 법안도 같은 시기 발의되면서 두 안건은 병합 논의가 이뤄지고 있다. 다만 두 법안 모두 아직 본회의 문턱을 넘지 못해 제도화 단계까지는 시간이 더 필요하다. 전문가들은 기존 데이터센터가 이런 논의에서 제외되는 이유가 단순히 법안 구조 때문만은 아니라고 지적했다. 김영환 한국전자기술연구원(KETI) 단장은 "기존 데이터센터는 이미 소음과 환경 규제, 전력 인입 제한, 지역 민원 등 여러 문제를 안고 있다"며 "특별법이 시행돼도 체감 변화가 크지 않을 것"이라고 설명했다. 그는 "설비와 입지, 전력 구조가 모두 오래돼 지원 요건을 충족하는 것도 쉽지 않다"고 말했다. 그렇다고 기존 센터를 AI 데이터센터로 전환하는 작업도 사실상 불가능하다는 의견도 나왔다. 기존 센터가 중앙처리장치(CPU) 사용을 전제로 설계돼 랙당 전력밀도와 발열량이 크게 증가하는 AI 서버를 감당하기 어려워서다. 김성윤 테라텍 연구소장은 "GPU 기반 서버에 필요한 고밀도 전력 공급과 액체냉각 시스템을 갖추려면 배전과 냉각 설비를 사실상 처음부터 다시 설치해야 한다"고 설명했다. 김 연구소장은 입지 문제도 걸림돌이라고 지적했다. 그는 "현재 기존 센터는 대부분 도심에 자리하고 있어 전력 인입 확대가 쉽지 않다"며 "소음과 발열로 인한 지역 민원 부담도 여전하다"고 지적했다. 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 "건물 구조나 층고 하중 자체가 고성능 AI 장비를 수용하기엔 한계가 있다"고 말했다. 이어 "기존 센터가 사실상 제외된 정책이 현장에서 혼란을 키울 수 있다"며 "별도 지원 기준이나 전환 프로그램을 마련해야 한다"고 강조했다.

2025.11.26 10:27김미정

[현장] 나연묵 교수 "쏟아지는 GPU 운영 인프라 부족…AI 데이터센터 필수"

"정부가 그래픽처리장치(GPU) 수십만 장을 기업·기관에 도입하고 있지만, 이를 제대로 운영할 수 있는 데이터센터 성능이 여전히 부족합니다. GPU 운영에 필수적인 전력·냉각·네트워크 등 기반 시설이 기존 데이터센터로 감당하기 어렵습니다. 인공지능 데이터센터(AIDC) 구축이 필수입니다." 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 25일 한국컴퓨팅산업협회가 코엑스에서 개최한 '2025 미래 IT 전략-AI데이터센터 컨퍼런스'에서 "정부가 데이터센터 인프라 준비 없이 GPU만 대량 도입하고 있다"며 AIDC 필요성을 재차 강조했다. 그는 기존 데이터센터 개념이 AIDC와 다르다고 설명했다. 기존 데이터센터는 웹서비스나 기업 시스템을 운영하는 데 최적화된 인프라다. 중앙처리장치(CPU) 중심의 일반 서버를 기준으로 설계됐다. 반면 AIDC는 대규모 AI 모델을 학습·추론하는 시설이다. 고성능 연산 장치인 GPU와 AI 칩을 대량으로 활용하는 것을 목표로 뒀다. 나 교수는 GPU 서버 운영의 핵심인 고속 연결망·고출력 전력·고밀도 냉각 세 요소가 기존 데이터센터에 부족하다고 짚었다. 기존 데이터센터는 3~5킬로와트(kW) 전력 공급을 기준으로 설계됐는데, 엔비디아 최신 GPU 서버는 장비 한 대만으로 14.3kW를 요구한다는 점을 대표적 사례로 들었다. 그는 "GPU 한 대가 표준 랙 3개 공간을 차지하는 비효율을 초래할 수 있다"고 지적했다. 네트워크 병목도 기존 데이터센터 주요 문제로 꼽혔다. 나 교수는 국내 데이터센터 네트워크가 랙스케일 서버 구성을 충분히 뒷받침할 수 없다고 평가했다. 그는 "AI 학습은 여러 GPU를 한꺼번에 묶어 하나의 시스템처럼 동작시키는 기술이 반드시 필요하다"며 "이를 위해서는 GPU 간 데이터를 빠르게 주고받는 연결망이 필수"라고 강조했다. 이어 "특히 '인피니밴드'와 '울트라 이더넷' 같은 기술이 GPU 클러스터 성능을 결정한다"고 덧붙였다. 데이터센터 스토리지 요건도 문제로 제기됐다. 그는 "AI 학습에서는 기존 데이터센터 대비 훨씬 더 큰 용량과 더 빠른 처리 속도가 필요하다"며 "지금의 스토리지 인프라로는 대응이 쉽지 않다"고 지적했다. 나 교수는 기존 데이터센터의 냉각 인프라가 한계에 다다랐다고 봤다. 그는 "GPU 서버가 소비한 전력은 그대로 열로 배출되는데, 이 열량이 기존 공랭식 시스템의 처리 한계를 넘고 있다"고 지적했다. 이어 "10kW 이상의 발열은 공랭식으로 감당하기 어려워 액침냉각이나 수냉식 같은 고성능 냉각 기술 도입이 불가피하다"며 "현재 정부와 민간에서는 임시 냉각 설비를 증설해 운영을 이어가고 있지만 이를 근본적 해결책으로 볼 수 없다"고 덧붙였다. 또 그는 "GPU 서버의 비중이 높고, 랙 전력 밀도 15~500kW를 감당하면서 수냉식으로 작동하는 AIDC를 더 늘려야 한다"고 강조했다.

2025.11.25 15:24김미정

최형두 의원 "무늬만 AI 아닌 진짜 AI에 예산 집중해야"

국민의힘 최형두 국회 과학기술정보방송통신위원회 간사가 내년 예산 심사와 관련해 핵심 요소에 집중한 인공지능(AI) 예산 편성을 촉구했다. 25일 국민의힘 원내대책회의에서 발언에 나선 최형두 간사는 "AI 대세론 속에서 모든 부처가 AI 예산을 이야기하고 있지만 지난 정부 시절 'AI 인재 양성'을 외치며 수천억원에서 수조원의 예산을 퍼붓고도 남은 실적이 없다"고 지적했다. 이어 "내년 예산은 100조원 국채를 발행해 만든 예산"이라며 "미래 세대가 갚아야 할 빚이며 일본의 국채 금리 급등 사례에서 보듯 소상공인과 서민, 기업에는 곧바로 금리·물가·환율 부담으로 돌아올 것"이라고 덧붙였다. 그는 진짜 AI와 무늬만 AI를 구별해 투자를 집중해야 한다며 '진짜 AI'를 떠받치는 세 가지 핵심 포인트로 컴퓨팅 인프라, 고순도 데이터, 핵심 인재를 제시했다. 또 그래픽처리장치(GPU)와 국산 추론용 저전력 AI 반도체인 신경망처리장치(NPU)로 구성된 컴퓨팅 인프라, 최고 수준의 AI 모델을 학습시킬 수 있는 양질의 데이터, 이를 설계·운영할 인재가 갖춰져야 한다는 설명이다. 최 간사는 "진짜 AI 예산은 이 세 가지 기준에 맞아야 한다"며 관련 예산이 선언적 사업이 아니라 구체적인 성과를 낼 수 있는 구조로 설계돼야 한다고 강조했다. 그는 최근 엔비디아 젠슨 황 CEO가 한국에 약속한 블랙웰급 GPU 물량도 언급했다. 그는 "엔비디아가 26만 장, 총 3기가와트(GW) 규모에 약 12조원에 달하는 첨단 GPU 공급을 약속했지만 최태원 SK그룹 회장이 밝힌 현재 한국의 AI 수요는 10~20메가와트(MW) 수준"이라며 "갑자기 공급이 수요의 100배를 넘어서게 된 것"이라고 말했다. 최신 GPU의 수명이 3~5년으로 쓰지 않으면 감가상각이 빠르게 진행된다는 점을 짚으며 "3년이 지나면 성능이 절반으로 떨어지고 5년 후면 구형이 된다. 초고가 GPU들이 전략자산이 될지 고철덩어리가 될지는 확보 후 3년 안에 결정된다"고 경고했다. 더불어 오픈AI, 메타, 구글 사례를 들어 데이터의 중요성을 거듭 부각했다. 오픈AI가 챗GPT 1억 사용자 돌파 이후 GPU를 대량 확보했고 메타는 30억 명에 달하는 이용자, 구글은 검색과 유튜브 수십억명 이용자 데이터를 바탕으로 GPU 투자를 확대했다는 것이다. 최 간사는 "모두 막대한 데이터가 뒷받침됐다"며 "우리 글로벌 기업들이 5만 장씩 구매할 GPU들은 제조업에 AI 날개를 달아줄 '피지컬 AI'에 활용될 것"이라고 말했다. 그러면서 "국가 예산으로 구매하는 5만 장에 대해서는 진정한 수요, 즉 고순도 데이터를 만드는 데 진짜 AI 예산이 투입돼야 한다"고 강조했다. 지난 정부부터 추진된 K-클라우드 사업도 언급했다. 그는 "과학기술정보통신부는 K-클라우드 사업을 통해 세계에서 가장 앞선 의료·보건·교육 분야 데이터를 활용해 AI 3대 강국의 초석을 쌓고자 했다"고 상기시키며 "전국 초·중·고에 AI 튜터를 배치해 학생별 맞춤 학습을 지원하려 했지만, AI 디지털교과서 도입 무산으로 모멘텀을 놓친 만큼 이제 다시 재고해야 한다"고 했다. 언론 콘텐츠의 AI 전환을 위한 '미디어 클라우드' 예산 구상도 함께 제시했다. 최 간사는 "우리나라 신문·방송 등 언론이 가진 거대한 콘텐츠를 AI로 전환하는 미디어 클라우드 예산도 국민의힘이 제안했다"며 국내 미디어 산업이 AI 시대에 뒤처지지 않도록 공공·민간이 함께 데이터 기반을 마련해야 한다고 주장했다. 더불어 "대한민국의 진정한 AI 3대 강국(AIG3) 목표를 위해 국민의힘은 예산 심사에 마지막까지 최선을 다하겠다"고 말하며 발언을 마무리했다.

2025.11.25 15:22남혁우

美, 엔비디아 AI칩 中에 밀수출한 일당 기소

미국 연방 검찰이 엔디비아의 AI반도체를 중국으로 불법 수출한 혐의로 중국인 2명과 미국인 2명을 기소했다고 블룸버그통신이 21일 보도했다. 공개된 기소장에 따르면, 이들은 플로리다주에 가짜 부동산 사업체를 꾸려 수백 개의 엔비디아 반도체를 말레이시아를 거쳐 중국으로 최종 운송했다. 이 과정에서 미국 상무부에 수출 허가는 신청하지 않았다. 불법 수출된 것으로 알려진 엔비디아 칩은 'A100'이다. 현재 출시되고 있는 '블랙웰' 시리즈에 비하면 구형 제품에 속하나, AI 데이터센터에 충분히 활용될 수 있는 성능을 갖추고 있다. 또한 이들은 다음 세대의 칩인 H100, H200, 슈퍼컴퓨터 10대 등을 밀수하려 한 혐의도 받고 있다. 검찰은 이들 일당이 엔비디아 칩을 중국에 네 차례나 수출하려 한 것으로 보고 있다. 첫 번째와 두 번째 시도는 2024년 10월부터 올해 1월 사이에 일어나, A100 칩 400여개가 중국으로 수출됐다. 3~4번째 시도는 사법 당국의 조치로 무산됐다. 엔비디아 대변인은 이와 관련한 성명에서 "수출 시스템은 엄격하고 포괄적"이라며 "구형 제품의 소규모 판매조차도 2차 시장에서 엄격한 조사와 검토를 받는다"고 밝혔다. 앞서 미국은 지난 2022년부터 국가 안보를 이유로 첨단 AI 반도체가 중국으로 수출되는 것을 제한하는 법안을 시행 중이다. 이에 따라 엔비디아는 기존 대비 성능을 낮춘 제품 개발로 대안책을 마련해 왔으나, 이마저도 추가 규제로 활로가 막힌 상황이다. 그러나 엔비디아 칩을 중국으로 밀반출하려는 사례는 지속 적발되고 있다. 지난 8월에는 중국 국적자 2명이 캘리포니아주 엘몬테에 위치한 회사를 이용해 엔비디아의 AI칩을 불법 수출한 혐의로 기소된 바 있다.

2025.11.23 08:50장경윤

와탭랩스 "향후 10년 AI 네이티브 옵저버빌리티 시대 주도한다"

"인공지능(AI) 인프라 시대에는 그래픽처리장치(GPU)와 클라우드 네이티브 환경을 아우르는 통합 옵저버빌리티가 기업 경쟁력을 좌우할 것입니다" 이동인 와탭랩스 대표는 지난 20일 웨스틴 서울 파르나스 호텔에서 열린 '와탭 옵저브 서밋 2025' 기자간담회에서 AI 시대 옵저버빌리티의 역할에 대해 이같이 강조했다. 이날 와탭랩스는 GPU·쿠버네티스·온프레미스·서비스형 소프트웨어(SaaS) 환경을 통합하는 차세대 옵저버빌리티 전략을 공유했다. 최근 AI 인프라 확장에 따라 관측·분석해야 할 IT 지표가 기하급수적으로 늘어나는 상황에서 이를 실시간 통합해 해석할 수 있는 와탭랩스 플랫폼의 수요가 늘고 있다. 이에 대해 와탭랩스 김성조 최고기술책임자(CTO)는 "향후 데이터센터는 GPU 기반 AI 인프라 중심으로 빠르게 재편될 것"이라며 "데이터 규모와 시스템 복잡도가 폭발적으로 증가하는 만큼, 효율적으로 AI를 활용하기 위해서는 통합 옵저버빌리티 전략의 중요성이 더 커질 수밖에 없다"고 말했다. 이런 흐름에 맞춰 와탭랩스는 GPU 전력 단계부터 서버·컨테이너·쿠버네티스까지 전 계층을 연동해 분석하는 기존에 존재하지 않던 형태를 개발 과정에 반영했다. 상당한 기술적 어려움을 극복한 와탭랩스는 올해 GPU 모니터링 솔루션을 공식 출시해 다수 기업과 기술검증(PoC)을 진행하며 국내 최다 수준의 GPU 모니터링 경험을 확보했다고 강조했다. 이 대표는 "국내 기업들이 GPU 인프라 운영 규모를 크게 공개하지 않는 상황에서도 문의가 꾸준히 증가하고 있다"며 "내년에는 GPU 모니터링 사업이 올해의 4배 수준인 매출 20% 기여도까지 확대될 수 있을 것"이라고 전망했다. 쿠버네티스 모니터링 경쟁력에 대한 강점도 소개했다. 실시간성을 기반으로 한 초 단위 분석, 직관적 UI, SaaS·온프레미스 동시 제공 구조가 글로벌 모니터링 솔루션과 차별화되는 핵심 요소라는 설명이다. 해외 제품들이 분 단위로 데이터를 집계하는 것에 비해 와탭랩스 플랫폼은 전 계층을 초 단위로 수집해 즉시 분석할 수 있어 실시간 대응에 최적화돼 있다는 것이다. 글로벌 확장 로드맵도 공유했다. 이 대표는 "일본·동남아 시장에서 빠르게 성장하고 있으며 특히 동남아에서는 전년 대비 2배 이상의 매출을 기대하고 있다"며 "아시아 기업은 온프레미스 기반 풀스택 옵저버빌리티 수요가 여전히 높아 우리 플랫폼의 구조적 강점이 크게 작용하고 있다"고 밝혔다. 이어 "내년에는 미국 진출도 본격 추진할 계획"이라고 덧붙였다. 이번 서밋에서 와탭랩스는 데이터 레이크 기반의 AI 레디 옵저버빌리티 플랫폼 '옵스레이크'를 중심으로 GPU 모니터링 고도화, AI 기반 운영 자동화, 오픈 메트릭 통합 등 기술 로드맵도 발표했다. 행사에는 아마존웹서비스(AWS)를 비롯한 주요 파트너사·고객사가 참여해 GPU·AI·테크·비즈니스 분야의 실제 활용 사례도 공유했다. 와탭랩스는 올해 가트너 '인프라 모니터링 도구 마켓 가이드'에서 국내 기업 중 유일하게 대표 기업으로 선정되는 등 기술력을 입증했다. 1천200여 고객사 기반의 글로벌 사업 확장도 지속 추진한다는 목표다. 이 대표는 "AI가 개발과 운영 방식을 근본적으로 재정의하고 있는 지금, 옵저버빌리티는 AI의 속도를 따라가기 위한 기업의 엔진이자 중심축이 되고 있다"며 "앞으로의 10년은 우리가 주도하는 AI 네이티브 옵저버빌리티 시대로 만들겠다"고 강조했다.

2025.11.21 09:01한정호

슈퍼마이크로, 'AMD MI355X' 탑재 공냉식 서버 출시…AI 포트폴리오 확대

슈퍼마이크로가 AMD의 그래픽처리장치(GPU)를 탑재한 차세대 서버 제품군을 선보이며 인공지능(AI) 워크로드 성능 강화 포트폴리오를 확대한다. 슈퍼마이크로는 'AMD 인스팅트 MI355X' GPU 탑재 10U 공냉식 서버를 출시했다고 20일 밝혔다. 이번 솔루션은 AMD 인스팅트 MI355X GPU의 고성능을 공냉식 냉각 환경에서 구현하려는 기업을 위해 설계됐으며 우수한 성능·확장성·전력 효율성을 제공한다. 슈퍼마이크로 빅 말얄라 테크놀로지·AI부문 수석부사장은 "우리의 데이터센터 빌딩 블록 솔루션(DCBBS)은 검증된 서비스를 시장에 공급하는 과정에서 AMD 솔루션과 같은 최첨단 기술을 신속하게 통합할 수 있도록 한다"고 강조했다. 이어 "새로운 AMD 인스팅트 MI355X GPU 공냉식 솔루션 추가로 우리 AI 제품군을 확장·강화하며 고객들의 차세대 데이터센터 구축에 다양한 선택지를 제공할 수 있게 됐다"고 덧붙였다. 슈퍼마이크로는 이번 10U 공냉식 서버 출시를 통해 수냉식 및 공냉식 기반 고성능 제품군을 확장했다. 해당 솔루션은 업계 표준 OCP 가속기 모듈(OAM)을 활용해 GPU당 288GB의 HBM3e 메모리와 8TB/s 대역폭을 제공한다. 또 TDP가 1천 와트(W)에서 1천400W로 증가함에 따라 기존 8U MI350X 공냉식 시스템 대비 최대 두 자릿수의 성능 향상이 이뤄져 데이터를 빠르게 처리할 수 있다. 이번 제품군 확장으로 슈퍼마이크로 고객은 공냉식과 수냉식 인프라 모두에서 랙당 성능을 효율적으로 확장할 수 있다는 설명이다. 특히 이번 GPU 솔루션은 클라우드 서비스 제공 업체와 엔터프라이즈 환경 전반에서 대규모 AI 및 추론 워크로드에 최대 성능을 제공하도록 설계됐다. AMD 트래비스 카 데이터센터 GPU 사업부문 비즈니스 개발 담당 부사장은 "슈퍼마이크로와 협력해 공냉식 AMD 인스팅트 MI355X GPU를 시장에 선보여 고객들은 기존 인프라에서도 고급 AI 성능을 보다 쉽게 도입할 수 있게 됐다"며 "양사는 성능과 효율성 분야의 선두주자로서 전 세계 데이터센터의 혁신을 가속화하는 차세대 AI 및 고성능컴퓨팅(HPC) 솔루션을 제공하고 있다"고 말했다.

2025.11.20 17:19한정호

젠슨 황, 'AI 거품론' 부정..."엔비디아는 다르다"

젠슨 황 엔비디아 CEO가 19일(현지시간) 3분기 실적발표 이후 컨퍼런스콜에서 AI 시장 과열 논란을 정면으로 반박했다. 그는 이달 초부터 나오기 시작한 'AI 버블'을 둘러싼 시장 우려에 자사 기술력과 수요의 견고함을 강조했다. 젠슨 황 CEO는 "AI 버블에 대한 이야기가 많지만, 우리의 관점에서 보이는 것은 완전히 다르다. 엔비디아는 어느 가속기 제조사와 다르다. 훈련 전, 훈련 후, 추론 등 AI 모든 단계에서 경쟁력을 확보했다"고 밝혔다. 젠슨 황 CEO는 지난 10월 GTC 워싱턴 행사에서 올 초부터 내년 말까지 GPU 수주 잔고가 5천억 달러(734조 7천500억원)에 달한다고 밝히기도 했다. 이날 콜렛 크레스 엔비디아 CFO는 "이 수치는 현 세대 GPU인 블랙웰과 차세대 GPU인 루빈(Rubin)을 모두 포함한 것이다. 앤트로픽 등 신규 고객사가 추가되며 이 수치는 더 늘어날 것"이라고 설명했다. 엔비디아는 올 3분기 매출 중 중국 시장용으로 설계된 H20 GPU의 매출은 극히 미미했다고 밝힌 바 있다. 콜렛 크레스 CFO는 "3분기에는 지정학적 이슈와 현지 경쟁 심화로 중국 시장에서 대규모 발주는 없었다"고 설명했다. 이어 "4분기 전망에는 중국 시장의 데이터센터 관련 매출을 0(제로)으로 가정하고 있다. 더 경쟁력 있는 제품을 중국에 공급하지 못한 점은 아쉽지만, 미국 정부와 중국 정부 모두와 지속적으로 협력할 것"이라고 밝혔다. 젠슨 황 CEO는 생산·공급망 전략과 관련해 "엔비디아의 공급망은 사실상 전 세계 모든 기술 기업을 포함하고 있다. TSMC와 패키징 파트너들, 메모리 공급업체들, 그리고 모든 시스템 ODM이 우리와 함께 매우 잘 준비해 왔다"고 설명했다. 콜렛 크레스 CFO도 "글로벌 공급망에서 복원력을 강화하는 데 집중하고 있다. 지난 10월 미국(애리조나 주 TSMC 팹)에서 첫 블랙웰 웨이퍼가 생산됐고 향후 수 년간 폭스콘, 위스트론, 앰코와 함께 미국 내 생산을 확대할 것"이라고 밝혔다.

2025.11.20 08:33권봉석

퀄컴 "아드레노 X2, 가장 크고 빠른 고효율 GPU"

[샌디에이고(미국)=권봉석 기자] 퀄컴이 지난 해 출시한 윈도 PC용 시스템반도체(SoC)인 스냅드래곤 X 엘리트는 아드레노 X1 GPU를 내장했다. 아드레노 X1은 2022년 공개된 스냅드래곤8 2세대 내장 GPU와 비슷한 수준으로 성능 면에서 제약이 있었다. 반면 내년 상반기 중 출시될 스냅드래곤 X2 엘리트 익스트림은 성능을 크게 강화한 아드레노 X2 GPU를 내장했다. 전세대 대비 평균 2.3배 이상 성능 향상, 전력 소모 25% 절감을 내세웠다. 11일(이하 현지시간) 오전 미국 캘리포니아 주 샌디에이고 내 '스냅드래곤 X 엘리트 딥다이브' 행사장에서 에릭 데머스 퀄컴 엔지니어링 수석부사장은 "아드레노 X2는 퀄컴이 지금까지 만든 GPU 중 가장 크고 빠른 제품"이라고 강조했다. 아드레노 X2 GPU, 2022년부터 개발 시작 아드레노 GPU는 퀄컴이 2009년 1월 AMD의 모바일용 GPU IP(지적재산권)를 인수한 이후 개발하기 시작한 GPU다. 에릭 데머스 부사장은 2011년 경 퀄컴에 합류해 3세대 아드레노 GPU부터 개발에 관여했다. 에릭 데머스 부사장은 "아드레노 X2는 세대별 구분으로 8세대에 해당하는 제품이며 2022년 경부터 설계를 시작했다. 아드레노 X1 대비 높은 성능을 내기 위해 GPU 규모를 33% 늘리는 한편 작동 클록을 스마트폰용 GPU 대비 크게 끌어올렸다"고 밝혔다. 이어 "단순히 작동 속도만 끌어올리면 전력 소모가 커질 수 있다. 그러나 스냅드래곤 X2의 타겟 플랫폼은 얇고 가벼운 노트북이며 전력 상승을 억제해야 했다. 아키텍처 전반에 걸쳐 효율을 개선하는 작업을 병행했고 이 부분에서도 좋은 성과를 거뒀다"고 설명했다. 아드레노 X2 GPU는 8세대 제품에 해당하며 내부적으로 X2-90, X2-85 등 두 가지로 나뉜다. 기능이나 성능 등 아키텍처는 동일하지만 연산 성능이나 유닛 수 등에 차이가 있다. 슬라이스 단위 최적화로 개발 효율 향상 GPU 개발 회사는 프론트엔드, 지오메트리 처리, 고정 함수, 셰이더 등 그래픽 처리를 담당하는 GPU 전 과정과 주요 기능을 일정 단위로 분할해 구분한다. 아드레노 X2 GPU는 여기에 '슬라이스'(Slice, 조각)라는 이름을 붙였다. 슬라이스를 늘려서 배치할 수록 GPU 성능은 늘어나게 돼 있다. 최상위 GPU인 X2-90은 슬라이스 4개를 조합해 구성된다. 에릭 데머스 부사장은 "이 방식은 설계 자원을 절약하는 동시에 단일 슬라이스를 정말 잘 만들 수 있게 집중할 수 있다는 장점이 있다"고 설명했다. 하드웨어 가속 레이트레이싱 유닛 탑재 각 슬라이스에는 128KB 캐시 메모리와 함께 별도로 쓸 수 있는 21MB 용량 고성능 메모리를 내장했다. 슬라이스끼리 공유하는 L2 캐시 2MB를 더해 메모리에 접근하는 시간을 단축하고 전력 소모를 절감했다. 물체 표면에서 광원을 반사하거나 흡수하는 효과를 처리하는 레이트레이싱도 강화됐다. 에릭 데머스 부사장은 "아드레노 X1은 명령어 확장으로 이를 처리했지만 아드레노 X2는 하드웨어 가속이 가능한 레이트레이싱 유닛을 슬라이스당 4개씩 추가 배치했다"고 설명했다. 아드레노 X2는 SoC 내장 GPU로 별도 그래픽 메모리를 활용하지 않는다. 외부 메모리는 LPDDR5x-9600까지 지원하며 대역폭은 초당 최대 228GB까지 향상됐다. 전세대 대비 게임 프레임 최대 2.3배 향상 퀄컴은 자체 수행 벤치마크를 토대로 아드레노 X2 GPU의 게임 성능(초당 평균 프레임)이 아드레노 X1 대비 최대 2.3배 향상됐다고 설명했다. '토탈워: 워해머'에서는 최대 69프레임, 워썬더에서는 최대 194 프레임을 기록했다. 에릭 데머스 부사장은 "인텔 Xe2 GPU(코어 울트라9 288V) 대비 최대 50%, AMD 라이젠 AI 9 HX 370 내장 라데온 GPU 대비 최대 29% 더 높은 프레임을 낸다"고 설명했다. 이어 "전력 효율 면에서도 큰 개선이 있다. 3D마크 타임스파이 기반으로 측정 결과 아드레노 X1 대비 같은 전력에서 70% 성능 향상이 있었고, 같은 성능을 내는 데 필요한 전력도 40% 절감됐다"고 설명했다. "주요 게임사와 협업해 안티치트 솔루션 Arm 호환성 향상" 아드레노 X2는 게임 이외에도 GPU를 활용한 각종 연산 가속 기능을 지원한다. 마이크로소프트 윈도의 AI 연산을 위한 다이렉트ML, 코파일럿 런타임 기반 머신러닝 연산 가속이 가능하다. 퀄컴은 아드레노 X1 내장 GPU 드라이버 업데이트를 분기별 최소 한 번 이상 제공해 왔다. 에릭 데머스 부사장은 "스냅드래곤 X2 엘리트 익스트림의 GPU 드라이버 업데이트 주기를 월간으로 단축하는 것이 목표"라고 설명했다. 이어 "게임별 프로파일과 GPU 제어, 스팀 라이브러리의 게임을 자동 인식해 옵션을 조절하는 스냅드래곤 컨트롤 패널도 곧 제공할 예정"이라고 덧붙였다. 스냅드래곤 X2 엘리트 출시를 앞두고 게임 호환성도 강화된다. 에릭 데머스 부사장은"안티치트 업체들과 긴밀히 협력해 Arm 지원을 확대하고 있으며 스냅드래곤 X2 엘리트 출시 시점인 내년 1분기 시점에 실행률을 90% 이상으로 높이는 것이 목표"라고 밝혔다.

2025.11.19 23:10권봉석

스노우플레이크-엔비디아, ML 개발 가속 환경 구축

스노우플레이크가 엔비디아 손잡고 기업 머신러닝(ML) 개발 속도 높이기에 나섰다. 스노우플레이크는 인공지능(AI) 데이터 클라우드에 엔비디아의 오픈소스 라이브러리 '쿠다 엑스'를 탑재했다고 19일 밝혔다. 양사는 이번 협력으로 통해 모델 개발 전 과정의 효율을 끌어올리는 것을 공동 목표로 삼았다. 스노우플레이크는 쿠다 엑스의 데이터 사이언스 생태계에서 제공되는 '쿠엠엘'과 '쿠디에프'를 ML 엔진에 직접 통합한다. 이를 통해 파이썬 기반 주요 라이브러리 개발 시간을 대폭 줄였다. 데이터 사이언티스트는 인프라 조정 없이 기존 코드 그대로 그래픽처리장치(GPU) 성능을 활용할 수 있다. 엔비디아는 랜덤 포레스트에서 약 5배, 에이치디비스캔(HDBSCAN)에서 최대 200배까지 중앙처리장치(CPU) 대비 속도 향상을 확인했다. 이번 통합으로 기업은 이 성능을 스노우플레이크 환경 안에서 동일하게 사용할 수 있게 됐다. 엔비디아 고객도 쿠다 엑스 생태계 안에서 스노우플레이크 컨테이너 런타임을 활용해 대규모 ML 개발 환경을 신속히 구축할 수 있다. 이 환경은 복잡한 연산 작업을 몇 시간 단위에서 몇 분 단위로 단축하는 데 최적화됐다. 이번 통합은 대규모 테이블 데이터 처리나 대량 클러스터링 분석 같은 고난도 작업뿐 아니라 컴퓨터 유전체학처럼 고차원 시퀀스 분석이 필요한 분야에서도 GPU의 활용도를 극대화한다. 기업은 분석 시간을 줄이고 인사이트 도출에 더 많은 역량을 투입할 수 있다. 스노우플레이크는 이번 협력을 계기로 생성형 AI와 엔터프라이즈급 거대언어모델 개발까지 AI 라이프사이클 전 영역에서 GPU 최적화 도구를 확장할 계획이다. AI 데이터 클라우드 전략을 강화해 고객 기술 생태계를 더욱 넓히려는 전략이다. 크리스티안 클레이너만 스노우플레이크 제품 담당 수석부사장은 "우리는 기업이 쉽고 안전한 환경에서 데이터와 AI를 최대 성능으로 활용하는 것을 목표로 한다"며 "엔비디아와의 통합은 그 목표에 한 단계 가까워진 과정"이라고 밝혔다.

2025.11.19 14:10김미정

엔비디아 손잡은 메가존클라우드, AI 총판으로 IPO 기대감 '↑'

메가존클라우드가 엔비디아와 국내 AI 인프라 총판 계약을 체결했다. 상장(IPO)을 추진 중인 상황에서 AI 인프라 사업 역량을 강화하고 기업 가치와 성장 스토리를 보강할 수 있는 계기를 마련했다는 평가다. 메가존클라우드는 17일 엔비디아와 국내 AI 인프라 총판 계약을 체결했다고 밝혔다. 총판 계약의 범위는 데이터센터·기업·공공 등 기업간 거래(B2B) 영역의 AI 인프라를 중심으로 한다. 개인용 그래픽카드 등 B2C 리테일 시장은 포함되지 않는다. 관련 업계에서는 이번 총판 계약이 메가존클라우드를 AI 인프라 시대의 핵심 사업자로 부상시키는 동시에 IPO를 앞두고 수익 구조와 성장 스토리를 구체화하는 계기가 될 것으로 보고 있다. 엔비디아 손잡은 메가존클라우드, 플랫폼형 AI 총판으로 도약 메가존클라우드는 DGX·HGX GPU 서버와 인피니밴드 기반 고성능 네트워크 장비 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급하며 AI 인프라 공급과 생태계 확산에 본격 나선다. 이를 통해 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요를 겨냥한다는 계획이다. 특히 이번 계약을 단순 하드웨어 유통을 넘어 '플랫폼형 총판' 모델로 가져간다는 전략이다. 고객사의 AI 사업을 빠르게 추진할 수 있도록 AI 인프라 설계·구성 지원, AI 기술 검증(PoC)과 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계 등 전 과정을 패키지로 제공한다. 하드웨어 납품과 더불어 인프라 설계, 운영, 인력 역량 강화까지 하나의 서비스 체계로 묶어 제공하겠다는 구상이다. 이를 통해 메가존클라우드는 엔비디아라는 벤더와 국내외 파트너, 최종 고객을 하나의 플랫폼 위에서 기술적으로 오케스트레이션하는 허브 역할을 자처한다. GPU와 네트워크 장비와 함께 클라우드·보안·운영·애플리케이션을 얹어 수익성을 높이는 서비스·플랫폼 사업의 출발점으로 삼겠다는 것이다. 기업 내부에서도 총판 마진 자체보다 상위 레이어 비즈니스에서 나오는 장기 매출과 이익 기여에 더 큰 무게를 두고 있는 것으로 전해진다. 이미 메가존클라우드는 클라우드 매니지드 서비스(MSP)와 디지털 전환(DX) 사업을 통해 다수의 고객 인프라를 운영해 온 경험을 갖고 있다. 2천여명의 클라우드·AI 기술 전문가를 보유하고 있으며, 국내외 8천여곳의 고객사를 대상으로 클라우드 전환과 운영을 지원하고 있다. 이 밖에도 글로벌·국내 주요 클라우드 서비스 제공업체(CSP)와 전략적 협력 관계를 구축하고 1백50여곳의 ISV 파트너, 자체 개발한 클라우드·AI·보안 솔루션 포트폴리오도 확보한 상태다. 메가존클라우드는 이러한 기반 위에 엔비디아 총판 역량을 더해 GPU 인프라 조달부터 배치, 운영, 비용·성능 최적화, 상위 애플리케이션까지 원스톱으로 제공하는 AI 인프라 플랫폼 사업을 강화하겠다는 입장이다. 메가존클라우드, AI 인프라 총판으로 IPO 기대감 ↑ 관련 업계에서는 이번 계약이 상장을 준비 중인 메가존클라우드의 기업 가치 제고에도 우호적으로 작용할 것으로 분석 중이다. 글로벌 AI 인프라 시장에서 사실상 표준으로 자리 잡은 엔비디아와의 전략적 총판 계약은 메가존클라우드가 단순 클라우드 MSP를 넘어 AI 인프라 플랫폼 기업으로 포지셔닝을 강화하는 신호로 읽히기 때문이다. 회사가 그동안 쌓아 온 클라우드, 데이터, 보안 사업 위에, 엔비디아 GPU 총판이라는 상징성과 성장 동력을 추가해 IPO 스토리를 한층 풍부하게 만들 수 있다는 기대도 제기된다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 전개할 계획이다. 산업별 기술 세미나와 고객 대상 웨비나를 열고 개념검증(PoC) 지원 캠페인과 파트너 기술 교육 프로그램을 운영해 엔비디아 기반 AI 인프라 도입을 확대한다는 방침이다. 메가존클라우드는 기존 고객 기반과 글로벌 파트너 네트워크를 활용해 제조·금융·공공·게임·미디어 등 주요 산업에서 AI 인프라 레퍼런스를 빠르게 확보하고, 이를 다시 레퍼런스 패키지로 전환하는 선순환 구조를 만들겠다는 구상이다. 메가존클라우드 염동훈 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 돕겠다"고 말했다.

2025.11.17 17:05남혁우

메가존클라우드, 엔비디아 한국 총판 계약…AI 인프라 플랫폼 사업 본격화

메가존클라우드(대표 염동훈)가 엔비디아와 한국 총판 계약을 체결했다. 이를 바탕으로 하고 인공지능(AI) 인프라 설계부터 구축·운영, 교육까지 아우르는 '플랫폼형 총판' 모델로 국내 AI 인프라 시장 공략에 속도를 낼 계획이다. 메가존클라우드는 엔비디아와 한국 총판 계약을 체결했다고 14일 밝혔다. 양사는 13일 과천 메가존산학연센터에서 염동훈 메가존클라우드 대표와 제프 팬처 엔비디아 글로벌 총판 총괄, 정소영 엔비디아코리아 대표 등 주요 경영진이 참석한 가운데 총판 계약 체결식을 진행했다. 메가존클라우드는 이번 계약을 통해 엔비디아의 국내 공식 총판으로서 AI 인프라 공급과 AI 생태계 확산을 본격 추진할 계획이다. 이번 계약으로 메가존클라우드는 엔비디아의 DGX·HGX GPU 서버와 고성능 네트워크 장비인 인피니밴드(InfiniBand) 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급한다. 메가존클라우드는 이를 기반으로 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 비전 및 엣지 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요에 대응한다는 방침이다. 메가존클라우드는 단순 제품 유통을 넘어 고객의 AI 사업을 빠르게 추진할 수 있도록 지원하는 새로운 개념의 '플랫폼형 총판' 운영 모델을 도입한다. 이를 통해 AI 인프라 설계와 구성 단계부터 기술 검증(PoC), 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계까지 전 과정을 기술적으로 오케스트레이션하는 역할을 수행한다. 메가존클라우드는 벤더·파트너·고객을 효율적으로 연결해 복잡한 AI 인프라 도입 과정을 단순화하고, 파트너가 자체 서비스와 솔루션을 빠르게 시장에 선보일 수 있도록 돕겠다는 구상이다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 강화한다. 산업별 기술 세미나와 고객 대상 웨비나, PoC 지원 캠페인, 파트너 기술 교육 프로그램 등 다양한 활동을 통해 고객 접점을 넓히고, 파트너 생태계 육성에도 나설 계획이다. 특히 각 산업별 레퍼런스 구축과 사례 공유를 통해 국내 기업들의 AI 도입 장벽을 낮추고 활용 범위를 넓히는 데 집중한다는 전략이다. 염동훈 메가존클라우드 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 하겠다"고 말했다.

2025.11.14 10:39남혁우

"삼성전자·SK하이닉스·샌디스크, HBF 준비…2030년 뜰 것"

"올해 말부터 본격 상용화 되기 시작한 6세대 12단 고대역폭메모리(HBM) 4 이후 오는 2030년께면 고대역폭낸드플래시메모리(HBF)가 전면에 대두될 것입니다. 우리나라를 포함해 샌디스크 등 글로벌 메모리 3사가 이미 HBF 준비에 착수했습니다." 'HBM 아버지' 김정호 KAIST 전기및전자공학부 교수가 최근 'HBF 시대'를 예측하고 나서 주목받고 있다. 김 교수는 HBM의 기본 개념과 구조를 창안한 인공지능(AI) 반도체 분야 세계적인 석학이다. 김 교수는 HBM의 기본 개념과 구조를 창안했다. 2년마다 HBM의 집적도가 2배가 될 것이라는 예측으로 화제를 모았다. 2000년 초부터 HBM의 도래를 예견하고, SK하이닉스와 협업연구를 시작했다. 이는 지난 2013년 SK하이닉스가 세계 최초로 HBM을 상용화하는데 주도적, 결정적인 역할을 했다. 지난 아시아태평양경제협력체(APEC) 회의 때 한국을 찾은 젠슨 황 엔비디아 CEO의 '깐부치킨' 협력과 관련해 김 교수는 이렇게 해석했다. "GPU 26만 장을 한국에 공급하는 약속도 삼성전자와 SK하이닉스로부터 6세대 HBM인 HBM4를 안정적으로 공급받기 위한 공급망 확보 전략의 일환으로 보여집니다. 선제적인 투자가 이루어지면, 우리나라는 HBM에 이어 HBF에서도 차세대 반도체 메모리 시장의 주도권을 잡을 수 있을 것 같습니다." 김 교수는 평소 AI시대 핵심 반도체는 GPU보다 HBM이 더 중요해질 것이라는 주장을 펴왔다. 삼성전자와 SK하이닉스 등 우리나라 반도체 산업의 성장을 견인해온 김 교수를 만나 최근 만나 HBM의 미래와 한국의 나아갈 방향 등에 대해 들어봤다. "10년 내 AI학습량 현재보다 1천배 가량 늘어… HBM 수요도 비례해 증가" - HBM과 AI의 시장 판도 변화에 대해 예측해 달라. "AI는 알파고 같은 판별형 AI를 지나 생성형 AI로 진화하며, 그림도 그리고, 영화도 만들어 낸다. 이 다음 단계가 에이전틱 AI고, 그 다음은 피지컬 AI다. 그런데 여기서 재미있는 현상 하나를 봐야 한다. 기능이 많아질수록 AI가 학습해야 하는 데이터량이 어마어마하게 증가한다. 아마도 10년 내 AI 학습 데이터량이 지금보다 1천 배 가량은 늘 것으로 본다. 이는 HBM 수요도 같이 1천 배 증가한다는 의미다. 얼마전 젠슨 황 CEO가 우리나라에 공급을 약속한 GPU 26만 장이면, HBM 208만 개가 여기에 들어간다. 미국은 현재 GPU 1천 만대를 보고 투자 중이다. 냉각 및 전력시설, 부지 등등을 합쳐 투입될 예산을 대략 1천조 원 정도로 예상한다. 그런데 그것이 2천만~3천만 대를 넘어 1억 대 까지도 갈 것 같다. 1억 대면, 1경 원 정도의 예산이 들어간다는 의미다. "쩐의 전쟁"이 라고 불리는 이유다." - 젠슨 황 CEO가 SK하이닉스는 물론, 삼성전자 측과도 만나는 이유를 어떻게 해석하나. "GPU 1장에 HBM이 8개 필요하다. HBM이 GPU가격을 좌우하는 기본 요소가 됐다. SK 하이닉스 한 곳만으로는 HBM 수요를 다 채울 수 없다. 삼성전자로부터 공급을 받아도 앞으로 10배, 100배, 1천배 가는 수요를 감당할 수 없다. GPU 경쟁사와의 마케팅적 관계도 있을 것이다. 이런 요인들이 젠슨 황 CEO가 국내 여러 벤더와 접촉하는 이유로 볼 수 있다." - HBF 시대가 올 것이라는 근거는 무엇인가. "AI서비스와 모델을 공부하다보니, 데이터 용량이 커질 수 밖에 없겠다는 생각을 자연스레 하게 됐다. 현재 HBM을 10층이나 16층까지 쌓고 있는데, 물리적 한계도 있고 더 이상 메모리를 늘리기도 어렵다. D램으로는 안된다는 말이다. 이에 대한 대안이 D램 용량의 10배가 더 큰 낸드 플래시 메모리다. 그래서 낸드 플래시 메모리를 쌓자는 것이다. 학계에서는 우리 연구실(테라랩)이 주로 연구한다. 업계에서는 샌디스크와 SK하이닉스, 삼성전자가 HBF 개발에 뛰어들었다. 생태계 축으로 보면, SK하이닉스-샌디스크 얼라이언스 축이 있고, 삼성전자 독자 생태계가 존재한다. 이 분야 숙제는 낸드 플래시 메모리 용량을 1천 배까지 어떻게 늘리느냐다." - HBM과 HBF를 정확히, 어떻게 활용하자는 것인가. 아이디어는 어떻게 얻게 됐나. "내가 제시한 아키텍처는 GPU 옆에 HBM과 HBF가 함께 있는 구조다. 인코딩이라는 전반기 작업은 HBM이 하고, 디코딩이라는 후반기 작업은 HBF가 수행하는 식이다. 우리 연구실은 HBM을 연구하는데, AI를 알아야 HBM 설계가 가능하다. 알파고 때부터 우리 연구실 학생 절반은 AI를 연구했다. 이들은 HBM 설계를 AI로 한다. 그러다보니, 자연스레 메모리가 모자랄 것이라는 생각에 이르렀다. 샌디스크나 SK하이닉스, 삼성전자 등은 AI 고객들이 메모리 확장 요구를 했을 것으로 본다." "2030년 중반 넘으면 GPU보다 메모리 매출 더 높을 것" - HBF의 미래에 대해 예측해달라. 로드맵도 있나. "지난 6월 HBM 로드맵을 공개했는데, 이 내용은 링크드인이나 전 세계 반도체 시장에 널리 퍼져 있다. HBF 로드맵은 내년 초 발표하려 한다. 요즘 HBM 생산이 증가하면서 D램과 낸드 플래시 메모리 물량이 모자란다. 그래서 AI 시대 컴퓨팅 중심은 메모리라고 본다. '메모리 중심 컴퓨팅' 시대로 가고 있다. 오는 2030년대 중반이 넘어가면 GPU 매출액보다 메모리 매출액이 더 높을 것이다. 샌디스크나 삼성전자, SK하이닉스 등이 HDF와 관련 1차적으로 2027년 시장 진입을 목표로 하는 것으로 안다. 2028년이면 제품을 볼 수 있을 것이다. 또한 HBM과 HBF가 결합한 제품은 2030년 초반께 출시될 것으로 예측한다." - 삼성과 다양한 협력을 해오셨는데. KAIST-삼성 산학협력센터장도 맡고 계신 것으로 안다. "삼성전자와는 지난 2010년부터 15년 째 산학협력센터를 통해 공동 연구를 수행 중이다. 80여 명의 교수 연구진이 참여 중이다. 삼성전자 반도체에 필요한 기초연구나 인력양성 등 다양한 일을 한다. HBF 관련해서도 삼성전자와 SK하이닉스 모두 협력하고 있다." "국회 설득 너무 어려워…매년 100억원이면 차세대 메모리 기반 확보 가능" - 정부 정책에 대해 한마디 해달라. "정부 역할은 인력양성이나 기초기술 지원이다. 학교는 펀딩이 어렵다. 그래서 정부와 국회에 전국의 대학교 3곳에 HBM/HBF 기초연구센터를 세우자고 제안했다. 1년에 100명씩 석, 박사 학생을 뽑아 교육하면 10년 뒤 1천 명이 배출된다. 그러면 우리는 진짜 HBM/HBF 강국이 될 것이다. 사업 제안도 했는데, 국회 예산 평가에서 떨어진 것으로 안다. 이제 더 이상 국회에 이런 얘기를 안 한다. 국회의원을 상대로 HBM을 이해시키는 것이 너무 어렵다. 기업과 협력하면 되긴 하지만, 산업을 일으키기 위해서는 혼자 힘으로는 어렵다. 한국연구재단이 HBM/HBF 기초연구센터를 3개(설계, 재료장비, 공정) 만들어, 각 센터당 매년 30억 씩 100억 원 정도를 지원했으면 한다." - 강의도 하시지만, 꿈이 있는지. "몇가지 있다. 하나는 AI컴퓨터 아키텍처 혁신이다. 미국 스탠퍼드 대학인 버클리 대학 교수진이 그걸 했다. 거기서 CGPU가 나오고 핸드폰이 나왔다. AI는 '메모리 중심 컴퓨팅' 시대로 간다고 본다. 컴퓨터 구조 자체를 우리나라가 정의해보자는 것이다. HBM/HBF로 해보는 것이 꿈이다. 반도체와 컴퓨터 아키텍처, 나아가 AI알고리즘, AI 데이터센터까지 전체를 꿰뚫는 미래 비전을 제시하고, 그것을 기업과 학생들을 통해 실현하는 것이 꿈이다." - 덧붙일 말은. "최근 HBM4가 나오면서 HBM이 메모리가 아니라, 시스템 반도체가 되고 있다. 여기에 GPU 기능까지 들어가기 시작했다. 미래 HBM/HBF는 더 이상 메모리가 아니라 시스템 반도체다. 나아가 수요자 요구가 제각각이어서 이를 AI파운더리 사업, AI솔루션 사업이라고 얘기한다. 이는 고객 니즈에 맞춰야 한다는 것을 의미한다. 쉽게 얘기하면, 서로가 '깐부치킨'을 더 많이 먹어야 한다는 얘기다. 기술 마케팅을 하려면, 파운드리 업체하고 일해야하고 나아가 메모리나 패키징회사, 그 다음에 AI 회사들과 같이 일을 해야 하는 것이다. 엔비디아나 AMD, 삼성전자, SK하이닉스, 샌디스크 등이 오픈AI 같은 AI 기업과 맞물려 있다. 그래서 이제는 기업의 기술 개발 방식, 마케팅 방식, 문화 방식이 전부 시스템 반도체 쪽으로 넘어와야 한다. 결국 HBM과 HBF에 엄청난 투자가 이루어져야 한다."

2025.11.12 11:03박희범

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

넷플릭스, '워너브라더스' 106조원에 품는다

게임 축제 'AGF 2025', 뜨거운 열기…일산 킨텍스 '인산인해'

"손님보다 직원이 더 많아"…폐점 앞둔 홈플러스 가양점 가보니

李대통령 "한일 AI 협력 중요"...손정의 "ASI 시대 준비해야"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.