• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
국감2025
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'DGX-A100 GPU'통합검색 결과 입니다. (301건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평

인핸스, 정부 GPU 지원사업 선정…LAM 기술 고도화 '박차'

인핸스가 정부 지원 사업에 선정돼 거대행동모델(LAM) 기술 고도화를 통한 국가 인공지능(AI) 혁신에 나선다. 인핸스는 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'AI컴퓨팅자원 활용기반 강화(GPU 확보·구축·운용지원)사업'에 선정됐다고 23일 밝혔다. 이 사업은 기업의 AI컴퓨팅 인프라 확충 및 AI 기술 고도화를 위해 그래픽처리장치(GPU) 자원을 지원하는 사업이다. 인핸스는 이번 사업을 통해 향후 9개월 동안 고성능 GPU를 지원받는다. 이를 기반으로 텍스트와 HTML 혼합 데이터, 반복 작업 태스크 데이터셋을 학습시켜 자사 행동형 AI 모델 'ACT-1'을 고도화할 계획이다. ACT-1은 버튼 클릭·메뉴 선택·필드 입력 등 웹 인터페이스 전반을 자동으로 제어할 수 있는 LAM 기반 솔루션이다. 크롤링과 웹 테스트는 물론 커머스 운영 자동화에 최적화된 기능을 제공한다. 인핸스에 따르면 ACT-1은 최근 글로벌 웹 AI 에이전트 벤치마크 '온라인-마인드2웹 리더보드'에서 구글·오픈AI·앤트로픽의 AI 모델과 함께 최상위권을 달성하며 글로벌 빅테크 기업들과 어깨를 나란히 했다. 인핸스는 지난 5월 팔란티어의 '스타트업 펠로우십'에도 선정되는 등 글로벌 AI 시장에서 기술력을 입증하고 있다. 이승현 인핸스 대표는 "이번 GPU 사업 선정은 국가 차원에서 우리의 웹 AI 에이전트 기술 역량을 입증했다는 점에서 의미가 크다"며 "첨단 AI 기술과 이번에 확보한 GPU 자원을 바탕으로 글로벌 AI 시장에서 경쟁력을 더욱 강화해 나갈 것"이라고 말했다.

2025.10.23 16:51한정호

Arm "루멕스 CSS, AI 처리 속도 최대 5배 강화"

영국 반도체 설계 전문기업 Arm은 지난 9월 프리미엄 스마트폰과 PC를 겨냥한 반도체 IP인 루멕스(Lumex) 컴퓨트 서브시스템(CSS)를 공개했다. CPU와 GPU, 이를 지원하는 소프트웨어와 개발자 도구를 통합해 주요 파운드리의 2, 3나노급 공정에서 고성능 시스템반도체(SoC) 개발을 돕는다. 21일 오후 국내 기자단과 만난 제임스 맥니븐 Arm 클라이언트 사업부 부사장은 "루멕스 CSS는 프리미엄 스마트폰에서 중간급 기기까지 AI 연산 성능을 손쉽게 강화할 수 있다"고 설명했다. 이어 "차세대 AI 응용프로그램 구동시 최고의 배터리 효율, 게임 등에서 최고의 시각적 경험을 위해 설계됐다. 루멕스 CSS를 활용하는 파트너사들이 CPU와 GPU를 요구사항에 맞게 자유롭게 조합할 수 있어 유연성이 극대화됐다"고 설명했다. C1 CPU IP, AI 처리 위한 SME2 명령어 내장 Arm은 고성능 처리가 필요한 CPU IP(지적재산권)로 코어텍스-X(Cortex-X)를, 중간/저전력 처리가 필요한 CPU IP로 코어텍스-A(Cortex-A)를 공급해 왔다. 루멕스 CSS에 포함된 CPU IP는 C1 클러스터로 기존 코어텍스-X, A를 대체한다. 성능과 배터리 지속시간, 효율과 예산 등에 따라 총 4개 코어를 용도에 맞게 선택할 수 있다. 제임스 맥니븐 부사장은 "C1 울트라 코어는 최고 성능을 내는 플래그십 CPU 코어로 전년 대비 성능을 25% 향상시켰다. C1 프리미엄은 울트라급 성능을 유지하면서 칩 면적을 35% 줄여 서브플래그십 기기에 적합하다. C1 프로와 나노는 전력 효율 중심의 설계로, 중보급형 제품군에 적합할 것"이라고 밝혔다. C1 CPU 코어에는 AI 연산에 주로 쓰이는 행렬 곱셈 등 연산을 처리하기 위한 SME2 명령어가 내장된다. 이를 이용해 음성인식, 번역, 생성 AI 등 각종 AI 처리 속도를 전세대 대비 5배 향상시켰다. 제임스 맥니븐 부사장은 "C1 CPU 코어를 묶은 클러스터는 SME2 명령어를 활용해 2-3GHz로 작동시 2-6 TOPS(1초당 1조번 연산)를 처리 가능하며 작동 속도 향상시 더 높아질 수 있다"고 설명했다. 더 큰 코어 크기로 전력을 더 많이 쓰는 인텔·AMD 등 x86 기반 프로세서의 CPU 코어는 통상 8-10 TOPS 정도의 성능을 낸다. 루멕스 CSS가 스마트폰 등 저전력 기기를 위한 반도체 IP인 것을 감안하면 전력 효율 면에서는 분명 우위에 있다. 말리 G1 울트라 GPU, 레이트레이싱 성능 2배 향상 루멕스 CSS에 포함된 새 GPU IP인 말리 G1 울트라는 그래픽과 AI 추론 성능이 각각 20% 향상, 프레임당 소비 전력은 9% 절감, 레이트레이싱(RT) 성능은 두 배 향상됐다. 빛과 사물 사이에 비치는 그림자, 반사광 등을 보다 현실에 가깝게 표현하는 레이트레이싱 기능은 과거 PC용 고성능 GPU에서만 가능한 기술로 간주됐다. 그러나 2022년부터 삼성전자(엑시노스 2200)와 퀄컴(스냅드래곤8 2세대) 등이 모바일 기기용 SoC에 레이트레이싱을 투입한 이후 모바일 기기의 GPU 성능을 파악하는 지표 중 하나로 레이트레이싱 성능이 자리잡았다. 이날 제임스 맥니븐 부사장도 말리 G1 울트라의 레이트레이싱 성능 향상을 특히 강조했다. 그는 "RTUv2 아키텍처는 단일 광선 추적 방식을 채택해 보다 현실감 있는 조명을 구현하며, 코어당 전용 RT 하드웨어를 탑재해 효율성과 성능을 모두 높였다"고 밝혔다. "내년 GPU 활용 AI 연산 가속 예정" 루멕스 CSS는 최근 공개된 타사 모바일 SoC와 달리 NPU(신경망처리장치)는 포함하지 않았다. 제임스 맥니븐 부사장은 "CPU에서 AI 연산을 처리하는 것이 오히려 더 지연 시간이 낮고 개발자들도 SME2 명령어를 보다 널리 활용할 수 있다"고 설명했다. 그러나 주요 반도체 제조사들은 상시 저전력 연산과 전처리 등에 강력한 성능을 내는 NPU와 함께 GPU도 동시에 강화하고 있다. 수 억개 매개변수(패러미터)로 구성된 거대언어모델(LLM) 등 처리에는 GPU의 성능이 더 필요하다. 제임스 맥니븐 부사장 역시 "말리 G1 울트라에 포함된 레이트레이싱 유닛은 불칸(Vulkan) API를 활용한 그래픽 처리에 최적화됐고 일부 API를 이용하면 이를 연산에도 활용할 수 있다"고 설명했다. 그는 이어 "GPU에 신경망(뉴럴) 관련 처리를 더해 AI 연산 성능을 강화하겠다는 취지를 지난 8월에 이미 밝힌 바 있다. 현재는 상세한 내용을 공개할 수 없지만 AI 처리 성능 처리 면에서 비약적인 발전이 있을 것"이라고 설명했다.

2025.10.22 15:35권봉석

GPU 의존 낮추는 中…알리바바, AI 추론 효율 높인 독자 기술 공개

알리바바클라우드가 인공지능(AI) 모델 서비스에 필요한 엔비디아 그래픽처리장치(GPU) 사용량을 최대 82% 절감할 수 있는 새로운 컴퓨팅 풀링 시스템을 선보였다. 19일 사우스차이나모닝포스트(SCMP)에 따르면 알리바바클라우드는 '아이게온(Aegaeon)'이라 불리는 시스템을 세 달 넘게 자사 마켓플레이스에서 베타 테스트했다. 그 결과, 수십 개 AI 모델을 서비스하는 데 필요한 엔비디아 H20 GPU 수가 1천192개에서 213개로 줄어드는 효과를 보였다고 밝혔다. 이 연구 결과는 최근 서울에서 열린 '제31회 운영체제 원칙 심포지엄(SOSP)'에서 발표됐다. 알리바바클라우드와 베이징대 공동 연구팀은 "아이게온은 현재 시장에서 대형언어모델(LLM) 동시 처리 과정에 따른 과도한 비용 문제를 처음 구체적으로 보여준 사례"라고 강조했다. 아이게온은 GPU가 여러 모델을 동시에 처리할 수 있도록 '토큰 단위 오토스케일링'을 적용한 점이 특징이다. 이를 통해 GPU는 하나의 모델 출력을 생성하는 도중에도 다른 모델로 전환할 수 있으며 모델 간 전환 시 발생하는 지연시간을 기존 대비 97% 줄였다. 결과적으로 한 개 GPU가 최대 7개의 모델을 동시에 지원할 수 있게 됐다. 이 시스템은 현재 알리바바의 기업용 모델 마켓플레이스인 '바이롄'에 적용돼 있으며 회사의 자체 개발 모델 '큐원' 서비스에도 활용되고 있다. H20은 미국의 수출 통제 조치 이후 엔비디아가 중국용 맞춤형 제품으로 개발한 GPU다. 최근 중국 규제 당국의 백도어 의혹 조사 대상에 올라, 중국 내에서는 화웨이·캄브리콘 등 주요 반도체 기업들이 자체 GPU 개발을 가속화하고 있다. 알리바바클라우드 측은 "아이게온은 LLM의 동시 추론 효율을 혁신적으로 끌어올린 시스템"이라며 "AI 컴퓨팅 자원 활용의 새로운 기준을 제시했다"고 말했다.

2025.10.19 12:22한정호

엔비디아 "블랙웰 GPU 미국서 생산 개시"

엔비디아가 블랙웰 GPU를 미국 애리조나 주 피닉스에 있는 TSMC 시설에서도 생산하겠다고 밝혔다. 도널드 트럼프 2기 행정부의 상호관세와 미국 내 반도체 생태계 육성 관련 압박에 대응할 카드를 얻은 것이다. 17일(미국 현지시간) 엔비디아와 TSMC에 따르면, 양사는 미국 애리조나 주 피닉스에 위치한 TSMC 반도체 생산시설(팹)에서 블랙웰 GPU 생산 개시 기념식을 진행했다. 젠슨 황 엔비디아 CEO는 “미국에서 가장 중요한 칩이 미국 땅에서, TSMC의 가장 진보된 팹에서 제조된 것은 역사상 처음 있는 일”이라며 “이는 제조업 부활, 일자리 창출과 세계에서 가장 중요한 반도체 산업을 미국에 가져오기 위한 비전”이라고 평가했다. 레이 창 TSMC 애리조나 법인 CEO는 “애리조나 진출 후 단기간에 미국산 엔비디아 블랙웰 GPU를 생산한 것은 TSMC의 역량을 증명하는 동시에 엔비디아와 현지 협력사, 인력들의 헌신의 성과”라고 밝혔다. 엔비디아가 블랙웰 GPU 생산에 이용하는 TSMC 공정은 5나노급 'N5'를 개선한 'N4P'다. 엔비디아는 공식 블로그에서 “TSMC 애리조나 팹은 향후 4나노 이하 첨단 공정에서 고성능 반도체를 생산할 예정”이라고 설명했다. 엔비디아 경쟁사인 AMD도 TSMC 애리조나 팹 활용을 검토 중이다. AMD는 지난 4월 이 시설에서 서버용 5세대 에픽 프로세서 반도체 구현과 검증을 마쳤다고 밝히기도 했다. 다만 미국에 본사를 둔 주요 반도체 기업이 TSMC 애리조나 팹에서 모든 물량을 생산하기는 어려울 것으로 보인다. 미국 내 제조비용이 대만을 비롯한 아시아 지역 대비 높고, 반도체 설계·패키징 생태계가 상대적으로 덜 성숙하다는 한계가 존재하기 때문이다.

2025.10.19 03:17권봉석

애플 M5 칩, AI 처리 중심 NPU→GPU로 이동

애플이 아이폰과 아이패드, 맥 컴퓨터의 AI 연산 처리 중심 장치를 신경망처리장치(NPU)에서 GPU로 전환했다. 16일 공개한 아이패드 프로·맥용 SoC(시스템반도체) M5 칩의 GPU 안에 '신경망 가속기'를 내장한다고 밝힌 것이다. 애플 실리콘 M 시리즈는 응용프로그램 처리 등 일반적인 연산에는 CPU를, 그래픽 처리와 일부 병렬 연산에는 GPU를 활용했다. NPU '뉴럴 엔진'은 특정 AI 연산을 실행하는 방식으로 독립적으로 작동했다. 이로 인해 애플의 AI 연산은 높은 효율을 유지했지만, GPU를 통한 AI 연산 확장성은 상대적으로 제한적이었다. 그러나 AI 모델의 용량이 커지고 복잡해지면서 NPU로만 이를 처리하는 방식은 한계에 부딪혔다. GPU는 더 높은 메모리 대역폭과 병렬 연산 유연성을 제공하기 때문에, 복합 AI 워크로드에 더 적합하다. 애플이 GPU에 AI 가속 엔진을 통합한 것은 지금까지 유지해 온 구조를 벗어나 AI 연산 중심 장치를 GPU로 옮기겠다는 의도로 읽힌다. 애플, 2017년부터 A시리즈 칩에 NPU 탑재 애플은 2017년 아이폰8·X에 탑재한 SoC 'A11 바이오닉'에 처음으로 NPU인 뉴럴엔진을 통합했다. 이는 스마트폰 분야 경쟁사인 삼성전자나 퀄컴 대비 수 년을 앞선 시도였다. 애플은 이후 출시한 아이폰용 A시리즈 SoC는 물론 이 구조를 계승해 자체 설계한 PC용 SoC인 애플 실리콘 M시리즈에도 꾸준히 뉴럴엔진을 탑재했다. 뉴럴엔진은 주로 사진·음성·자연어 처리 등 다양한 기능을 처리했다. 지난 해 공개된 애플 실리콘 M4에 탑재된 뉴럴엔진은 INT8(정수, 8비트) 기준 38 TOPS 수준의 연산 성능을 갖췄다. 애플, M5 칩 GPU 구조 개선 애플이 16일 아이패드 프로와 맥북프로 신제품에 탑재한 애플 실리콘 'M5'는 최대 10코어 CPU, 10코어 GPU와 16코어 NPU '뉴럴 엔진'으로 구성됐다. 특기할 점은 GPU 내부에 AI 연산을 가속할 수 있는 '신경망 가속기'를 통합했다는 것이다. 이는 AI 연산을 전용 NPU에만 전담시키던 기존과 달리 대부분의 AI 연산을 GPU로 우선 처리하겠다는 의도로 해석된다. 애플은 이런 구조 변경을 통해 "AI 작업 처리시 M4 대비 최대 4배 성능이 향상됐다"고 설명했다. 기준이 되는 AI 연산의 정밀도(FP16, INT8, FP8)나 벤치마크 방식은 공개되지 않았지만, CPU와 뉴럴 엔진 관련 언급은 나오지 않았다. GPU를 AI 처리의 중심에 둔 것이다. 인텔·AMD, AI 연산에 GPU 우선 활용 AI PC 시장이 본격화되면서, 인텔·퀄컴 등 주요 반도체 업체들도 GPU 기반 AI 연산을 강화하는 전략을 앞다퉈 내세우고 있다. 인텔이 올 연말부터 공급할 코어 울트라 시리즈3(팬서레이크)는 GPU의 AI 연산 성능을 전작(코어 울트라 200V) 대비 두 배 가까운 120 TOPS로 끌어올린 반면 NPU 연산 성능은 소폭 상승한 50 TOPS 수준에 머물렀다. AMD가 공급하는 라이젠 AI 300 시리즈 역시 내장 라데온 GPU의 AI 처리 성능을 강화했다. 새로운 RDNA 3.5 아키텍처는 FP16·INT8 연산을 지원하며, NPU와 GPU가 AI 연산을 병행하는 구조를 구현했다. NPU TOPS보다 시스템 전체 연산 성능 중요도 상승 그동안 AI 연산 성능의 기준은 NPU의 초당 연산 횟수(TOPS)로 나타났다. 그러나 GPU를 활용한 추론이 AI 연산이 주류로 부상하면서 NPU에만 의존할 수 없게 됐다. NPU 뿐만 아니라 GPU, CPU를 모두 조화롭게 활용해야 하는 상황인 것이다. 애플이 AI 연산 처리에 GPU를 앞세운 것은 이런 변화를 반영한 것이다. AI 연산은 더 이상 NPU라는 전용 블록의 역할이 아니라, SoC 전반이 수행해야 하는 가장 중요한 작업이 됐다.

2025.10.16 17:43권봉석

인텔, 추론 특화 GPU '크레센트 아일랜드' 공개

인텔이 14일(미국 현지시간) '2025 OCP 글로벌 서밋' 행사에서 새 아키텍처를 적용한 데이터센터용 추론 특화 GPU '크레센트 아일랜드'(Crescent Island)를 공개하고 내년 하반기부터 시제품 공급에 나서겠다고 밝혔다. 인텔은 AI 모델 훈련에 내년 출시를 목표로 현재 개발중인 GPU '재규어 쇼어'를, 훈련을 마친 AI 모델 구동에 크레센트 아일랜드를 투입하는 투트랙 전략을 선택했다. 크레센트 아일랜드는 고성능 서버 등에서 이미 훈련을 마친 AI 모델을 구동하려는 수요에 초점을 맞췄다. 새로운 아키텍처 'Xe3P' 기반으로 고대역폭메모리(HBM) 대비 생산 원가를 낮출 수 있는 LPDDR5X 메모리 160GB와 함께 구성된다. 크레센트 아일랜드 탑재 GPU 시제품을 주요 고객사에 내년 하반기 중 공급 예정이다. 인텔 CTO, 9월 말 "추론 특화 새 GPU 개발중" 인텔은 9월 말 미국 애리조나 주에서 진행한 기술 행사 '인텔 테크투어 US'에서 신규 GPU 출시 가능성을 내비쳤다. 당시 사친 카티 인텔 최고 기술 및 AI 책임자(CTO)는 "관련 업계는 그간 GPU를 활용한 모델 학습과 훈련에 수천 억 달러를 투자했지만 그 결실이 필요한 상황이다. 우리 일상을 바꾸는 것은 AI 훈련이 아니라 추론과 에이전틱 AI"라고 언급했다. 이어 ”현재 메모리 대역폭과 탑재 용량을 늘린 추론 특화 GPU를 개발중이며 토큰 기반 워크로드와 엔터프라이즈급 추론 성능을 낼 것"이라고 설명한 바 있다. 아크 GPU 세 번째 아키텍처 'Xe3P' 적용 인텔이 이날 공개한 크레센트 아일랜드 GPU는 새로운 GPU 아키텍처 'Xe3P' 기반이다. 세대 구분으로는 3세대 '셀레스티얼'에 속한다. 인텔은 2021년 GPU 브랜드 '아크'(Arc)와 함께 각 아키텍처 별로 '배틀메이지', '셀레스티얼', '드루이드' 등 각 아키텍처 별 코드명도 함께 공개했다. 2022년 출시한 노트북용 아크 A350M, 데스크톱용 아크 A750/A770은 '알케미스트'에 속한다. 작년 말 출시된 아크 B570/B580과 올 연말부터 주요 PC 제조사에 공급될 코어 울트라 시리즈3(팬서레이크) 내장 'Xe3' GPU는 두 번째 아키텍처 '배틀메이지'에 기반했다. 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우는 '인텔 테크투어 US' 행사에서 "Xe3P는 내년에 출시될 GPU로 인텔 그래픽 IP에서 상당한 진전을 보일 것"이라고 설명했다. 비용 대비 우위 LPDDR5X 메모리 채택 인텔은 크레센트 아일랜드가 전력 소모와 비용 효율에 최적화된 공랭식 기업용 서버를 위해 설계됐다고 밝혔다. 거대언어모델(LLM)의 정밀도를 결정하는 요소 중 하나로 매개변수(패러미터) 수를 들 수 있다. 매개변수가 클 수록 보다 좋은 결과를 얻을 수 있지만 용량도 그만큼 커진다. 크레센트 아일랜드는 작업공간으로 고대역폭메모리(HBM) 대신 LPDDR5X 메모리 160GB를 탑재한다. 또 추론에 특화된 다양한 자료형 지원을 내세웠다. 코어 울트라 시리즈3의 Xe3 GPU는 INT2(정수 2비트), INT4, INT8, FP16(부동소수점 16비트), BF16, TF32에 더해 연산 속도가 더 빠르고 배터리 소모가 적은 FP8(부동소수점 8비트) 양자화도 지원한다. 크레센트 아일랜드 역시 Xe3 GPU에 이어 폭 넓은 자료형을 지원할 것으로 예상된다. 내년 하반기 중 시제품 공급 전망 인텔은 크레센트 아일랜드 구동을 위한 소프트웨어 초기 최적화에는 아크 프로 B시리즈 GPU를 활용한다고 밝혔다. 아크 프로 B시리즈는 지난 5월 컴퓨텍스 타이베이 2025 기간 중 공개한 제품으로 Xe2 코어를 20개 내장한 '아크 프로 B60', 16개 내장한 '아크 프로 B50' 등 2종으로 구성됐다. 인텔은 크레센트 아일랜드 탑재 GPU 시제품을 주요 고객사에 내년 하반기 중 공급 예정이다. 서버용 GPU '재규어 쇼어'도 현재 개발중 인텔은 현재 AI 연산을 가속할 수 있는 GPU 시장에서 엔비디아나 AMD 대비 열세에 있다. 2019년 인수한 이스라엘 스타트업 '하바나랩스' 기술력을 기반으로 가우디 시리즈를 출시하고 있다. 지난 해 가격 대비 성능을 내세운 '가우디3'를 출시했지만 최대 5억 달러 규모 매출을 예상했던 인텔의 예상에는 미치지 못했다. 2022년 5월 처음 개발 계획을 밝혔던 '팰콘 쇼어'는 CPU와 GPU, 메모리를 자유롭게 조합할 수 있는 제품에서 GPU만 모은 제품으로 퇴보했다. 올 2월에는 팰콘 쇼어 출시를 백지화하고 내부 테스트용으로만 활용할 것이라고 밝히기도 했다. 내년 출시할 서버용 GPU '재규어 쇼어' 역시 아직까지 시제품이나 구체적인 제원을 공개하지 못했다. 다만 사친 카티 CTO는 "쇼어(Shore) GPU에 대해 매년 예측 가능한 개발 사이클을 이어갈 것"이라고 설명했다.

2025.10.15 08:51권봉석

"GPU 만으론 한계...AI 데이터센터 상면 확보해야"

정부의 대규모 GPU 확보 계획이 나왔으나 데이터센터 상면이 부족할 수 있다는 지적이 제기됐다. 국회 과학기술정보방송통신위원회 소속 김우영 의원(더불어민주당)은 “GPU 만으로는 AI 경쟁력이 완성되지 않는다”며 GPU+ 데이터센터 인프라 패키지로 정책 지원을 촉구했다. 김우영 의원실에 따르면 당장 배치할 수 있는 GPU 1만3천장 가운데 1만장을 NHN, 카카오, 네이버 등 주요 클라우드사업자(CSP) 데이터센터에 순차 배치 예정이고 약 3천장은 운영비와 제반비용 등을 고려해 기업이 자체 활용할 예정이다. 다만, 수도권 집중 배치 경향과 GPU 클러스터 특성을 고려하면 향후 추가 물량은 전력, 냉각, 상면 확충 없이는 효율적 수용이 어렵다는 지적이 나온다. 의원실이 분석한 자료에 따르면 내년 목표인 약 2만장의 GPU 를 데이터센터에 설치하기 위해서는 최소 30~40MW, 2030년 목표인 5만장에는 112MW 이상의 전력이 필요하다. 최신 AI 가속기인 NVIDIA H200, B200급 GPU는 서버당 10kW 이상을 요구하며, 20~40kW 급 전력과 고효율 냉각 시스템이 필수적이다. 반면 현재 수도권 데이터센터의 대부분은 저밀도 공랭식 구조로 설계되어 20~40kW급 고밀도 전력, 고효율 냉각을 요구하는 최신 AI 서버에 적합한 'AI-Ready 상면'을 즉시 확보하기 어렵다. 이미 수도권 데이터센터의 공실률은 7% 미만으로 포화 상태이며 고밀도 전력과 고효율 냉각을 지원하는 AI-Ready 상면은 전체의 5% 미만으로 추정된다. 이에 정부는 대전 KISTI 슈퍼컴센터에 9천장 규모 GPU 설치를 추진 중이며, 비수도권 지역을 대상으로 한 국가AI컴퓨팅센터 공모도 진행 중이다. 김 의원은 “정부가 당장 연내에 확보할 1 만여 장의 GPU 는 물론 앞으로 들여올 4만장의 GPU를 '어디에, 어떻게 설치할지'에 대한 구체적인 계획과 인프라를 함께 마련해야 한다 “ 고 강조했다. 이어, “정부도 상면과 전력 문제를 인식하고 패키지 조달과 민관합작(SPC), 세액공제 , 성장펀드 등 정부가 제시한 제도적 지원을 속도감 있게 실행하고 AI-Ready 상면 표준 확보를 위한 정책적 노력을 다해야 한다”고 덧붙였다. 이와 함께 AI데이터센터진흥특별법 논의에 정부가 적극 참여하며, 단기적으로는 국내외 전문 기업들이 운영하는 고밀도 코로케이션 상면 활용 등을 통해 GPU 를 배치하는 전략도 제시됐다. 김 의원은 “AI 진짜 인프라는 반도체만이 아니라 전력, 냉각, 네트워크, 그리고 AI-Ready 상면까지 포함된다”며 “GPU 구축에 필요한 기반을 튼튼히 다져야 향후 정부의 대규모 마중물과 민간의 투자가 투입될 AI 인프라 투자가 더욱 큰 성과로 이어질 수 있다”고 말했다.

2025.10.13 08:50박수형

AI 확산에 '네오클라우드' 부상…GPU 인프라 지형 변화

생성형 인공지능(AI) 확산으로 그래픽처리장치(GPU) 연산 수요가 급증하면서 AI 전용 클라우드 서비스를 내세운 '네오클라우드' 기업들이 주목받고 있다. 기존 클라우드보다 빠른 GPU 공급과 합리적인 가격을 앞세워 AI 기업들의 선택지를 넓히고 있다는 평가다. 12일 업계에 따르면 코어위브·람다랩스·크루소·네비우스 등이 대표적인 네오클라우드 기업으로 각광받고 있다. 이들은 엔비디아 GPU를 기반으로 기업 고객에게 맞춤형 연산 자원을 제공 중이다. 네오클라우드는 AI 모델 학습과 추론을 위한 고성능 GPU를 서비스형(GPUaaS)으로 제공하는 사업자들을 일컫는다. 최근 AI 시장 성장세에 따라 GPU 수급이 어려워지자 일부 기업들은 기존 대형 클라우드 대신 네오클라우드를 이용해 연산 자원을 확보하고 있다. 웹호스팅 리뷰 업체 호스팅어드바이스 의료·금융·자동차 등 산업 분야를 대상으로 실시한 설문조사에 따르면, 응답 기업 10곳 중 9곳이 네오클라우드를 사용 중이거나 도입을 검토 중인 것으로 나타났다. 특히 코어위브는 네오클라우드 시장의 대표 주자로 꼽힌다. 엔비디아의 투자를 받으며 성장한 이 회사는 오픈AI·마이크로소프트(MS)·메타 등과 대형 계약을 체결했고 최근에는 약 12조원 규모로 비트코인 채굴 기업 코어사이언티픽을 인수해 데이터센터 전력 인프라를 확보했다. 가격 경쟁력도 눈길을 끈다. 업타임인스티튜트 조사에 따르면 북미 기준 엔비디아 H100 GPU를 빌릴 때 네오클라우드의 평균 비용은 약 34달러로, 아마존웹서비스(AWS)·MS·구글 등 하이퍼스케일러의 3분의 1 수준이다. AI 전용 인프라에 집중해 불필요한 구성 요소를 줄인 덕분이다. 최근에는 금융권 자금도 몰리고 있다. 블랙스톤·칼라일 등 미국 주요 금융사는 코어위브와 람다, 크루소 등 네오클라우드 기업이 보유한 GPU를 담보로 약 16조 원 규모 대출을 실행했다. 이들 기업은 확보한 자금으로 GPU와 데이터센터를 추가 매입하며 인프라를 확장하고 있다. 엔비디아 역시 네오클라우드와의 협력을 강화하고 있다. 빅테크 기업들의 자체 칩 개발 가능성을 염두에 두고 GPU 판매처를 다변화하기 위한 전략으로, 코어위브·네비우스·크루소 등 AI 전용 클라우드 기업에 투자와 기술 지원을 확대하고 있다. 업계는 네오클라우드를 하이퍼스케일러의 경쟁자이자 보완자로 보고 있다. MS와 구글은 일부 AI 연산을 네오클라우드에서 처리하고 있으며 수요 급증에 대응하기 위한 협력 구조를 형성 중이다. 시장조사기관 ABI리서치는 이같은 네오클라우드와 GPUaaS 시장 규모가 2030년까지 약 90조원에 이를 것으로 전망했다. 보고서는 "AI 인프라 구축 수요가 늘면서 네오클라우드가 하이퍼스케일러와 함께 시장의 한 축으로 자리 잡을 가능성이 높다"고 분석했다. 전문가들은 네오클라우드의 확산이 일시적 현상이라기보다 GPU 인프라 구조 변화의 일부라고 평가한다. 다만 일부 기업의 부채 의존도나 GPU 공급 편중 문제는 향후 리스크 요인으로 꼽힌다. 업계 관계자는 "AI 모델 학습과 서비스 고도화가 이어지는 한 GPU 수요는 지속적으로 늘어날 것"이라며 "네오클라우드는 특정 영역에서 중요한 역할을 맡겠지만, 장기적으로는 비용 안정성과 지속 가능성이 관건이 될 것"이라고 말했다.

2025.10.12 13:24한정호

美, UAE에 엔비디아 반도체 수출 승인…양국 AI 협력 가속화

엔비디아가 아랍에미리트(UAE)로 고성능 GPU를 수출할 수 있게 됐다. 미국·아랍에미리트간 AI 인프라 구축을 위한 동맹 관계가 강화된 데 따른 수혜로 풀이된다. 블룸버그통신은 미국 상무부가 지난 5월 타결된 미국·아랍에미리트 양자 AI 협정에 따라 엔비디아에 AI 반도체 수출 허가증을 발급했다고 9일(현지시간) 보도했다. 블룸버그는 사안에 정통한 소식통을 인용해 "당국은 고객사 명시를 거부했으나, 승인된 수출 건은 오라클을 포함한 미국 기업의 아랍에미리트 현지 투자 프로젝트를 위한 것"이라며 "G42와 같은 아랍에미리트 기업들에 대한 허가는 발급되지 않았다"고 설명했다. 이번 조치는 도날드 트럼프 미국 대통령 취임 이후 걸프 지역에 엔비디아 AI 반도체 판매 허가를 허가한 첫 사례다. 앞서 미국은 지난 5월 아랍에미리트와 수도 아부다비에 5GW(기가와트)급 데이터센터 건설을 위한 협약을 체결한 바 있다. 해당 프로젝트는 오픈AI를 비롯해 오라클, 시스코, 소프트뱅크, G42 등 주요 빅테크 기업들이 함께 참여한다. 아랍에미리트 역시 향후 10년간 미국에 1조4천억 달러에 달하는 거금을 투자하겠다는 계획을 세우는 등, 미국과의 AI 인프라 투자 협력을 강화하고 있다. 한편 엔디비아의 아랍에미리트향 GPU 수출 허가증이 발급되는 시기는 아직 불분명한 것으로 알려졌다. 블룸버그는 "허가 시기는 아랍에미리트의 구체적인 투자 계획이 어떻게 전개되는 지에 따라 달라질 것"이라고 밝혔다.

2025.10.10 14:46장경윤

팬서레이크 Xe3 GPU, 게임 성능 가속 'XeSS-MFG' 기술 투입

[애리조나(미국)=권봉석 기자] 29일 오후(이하 미국 현지시간) 미국 애리조나 주 '인텔 테크투어 US' 행사장. 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우가 10월 말 출시를 앞둔 일인칭시점슈팅(FPS) 게임인 '페인킬러 리바이벌' 시연을 시작했다. "이것은 게임 개발사인 안샤 스튜디오와 협력해 처음 공개하는 시연이다. 팬서레이크로 구동되고 있으며 동기화 기능(V싱크)을 끈 1920×1080 해상도에서 초당 220프레임을 소화한다. 오늘 공개할 신기술을 활용해 이런 성능을 구현했다." 이날 톰 피터슨 펠로우는 팬서레이크 내장 GPU 'Xe3'에서 구동되는 AI 기반 프레임 생성 기술 'XeSS-MFG'와 지능형 전력 제어 시스템 등을 현지에 참여한 기자단에 공개했다. Xe3, 전세대 대비 프레임 생성 지연시간 단축 팬서레이크 내장 GPU인 Xe3는 코어 울트라 200V(루나레이크) 내장 'Xe2' GPU 대비 L1 캐시 33% 확대, L2 캐시 16MB 증설 등으로 클록당 명령어 처리(IPC) 성능을 크게 높였다(관련기사 참조). 톰 피터슨 펠로우는 "그래픽 고정함수 유닛 강화와 벡터 엔진 스레드 확장, 개선된 레이 트레이싱 유닛 덕분에 마이크로 벤치마크에서 최대 50% 이상 성능 향상을 달성했다"고 설명했다. 한 프레임을 구성하는 데 필요한 시간은 전 세대(45ms) 절반 수준인 22ms까지 줄어들었다. 렌더 프리패스 단계에서 2.93ms, L2 캐시 확대로 0.39ms, 레지스터 활용 최적화로 1.63ms를 아껴 같은 시간에 더 많은 프레임을 처리하게 됐다. 게임 체감 성능 최대 네 배 강화 'XeSS-MFG' 공개 2020년 이후 출시된 최신 GPU는 상대적으로 처리 시간이 더 짧은 저해상도 화면을 먼저 그린 다음 AI로 해상도를 높이며 초당 프레임 수를 크게 높인다. 인텔은 이 기술에 XeSS(Xe 슈퍼샘플링)라는 이름을 붙였다. 톰 피터슨 펠로우는 "예전에는 모든 프레임을 GPU가 일일이 그려야 했지만 이제는 AI가 저해상도 이미지를 업스케일(SR)하고, AI 프레임 생성(FG)으로 초당 프레임을 높인다"고 설명했다. 팬서레이크 내장 Xe3는 한 단계 나아가 신기능인 XeSS-MFG(다프레임 생성) 기능을 지원한다. 톰 피터슨 펠로우는 "기준 프레임 두 개로 최대 세 개 중간 프레임을 AI로 생성하며 체감상 최대 4배 성능 향상 효과가 있다"고 밝혔다. "게임 로딩 시간 단축·끊김 현상 완화 기술 제공" 게임을 처음 실행할 때 로딩 단계에서 그래픽 데이터를 재구성하는 과정을 겪는다. 데스크톱 PC 대비 성능이 제한된 노트북에서는 실제 게임 실행까지 많은 시간이 걸린다. 톰 피터슨 펠로우는 "인텔이 클라우드를 활용해 필요한 데이터를 미리 구성한 다음 게임을 처음 실행하면 이 데이터를 다운로드해 지연 시간을 줄이는 '사전 컴파일 셰이더'를 제공할 것"이라고 밝혔다. 이어 "CPU와 GPU 부하를 실시간으로 감지해 필요할 경우 GPU에 더 많은 전력을 공급하는 기술인 '인텔리전트 바이어스 컨트롤' v3를 이용해 화면 끊김 현상을 최소화할 예정"이라고 설명했다.

2025.10.09 23:37권봉석

인텔 "팬서레이크 내장 GPU, AI 성능 2배↑"

[애리조나(미국)=권봉석 기자] 인텔은 2011년 '빌트인 비주얼'을 내세우며 프로세서 안에 내장 그래픽칩셋을 탑재하기 시작했다. 이후 2018년부터 자체 개발한 Xe GPU 아키텍처를 이용해 내장 그래픽칩셋과 그래픽카드 등을 시장에 공급하고 있다. 지난 해 코어 울트라 200V(루나레이크)에 탑재된 Xe2 코어 기반 GPU는 기본 성능 강화로 1080p 해상도 게임 성능을 강화했다. 코어 울트라 200V의 AI 연산 성능은 GPU 67 TOPS(1초당 1조 번 연산), 신경망처리장치(NPU)는 48 TOPS에 달한다. 인텔 차세대 모바일(노트북)용 프로세서 '팬서레이크'는 GPU AI 연산 성능을 두 배 가까운 120 TOPS, NPU 연산 성능은 소폭 상승한 50 TOPS로 높였다. 여기에 CPU(10 TOPS)를 더하면 최대 연산 성능은 180 TOPS까지 향상된다. 29일 오전(이하 현지시간) 미국 애리조나 주 '인텔 테크투어 US' 행사장에서 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우는 "GPU와 NPU 강화는 AI와 에이전틱 워크로드(작업)가 등장하며 변화하는 PC 요구사항을 충족하기 위한 것"이라고 설명했다. Xe3 코어 4개/6개 묶음으로 이원화... 최대 12코어 구성 가능 팬서레이크에 탑재될 내장 GPU는 Xe3 코어 기반이며 코드명 '배틀메이지', '아크 B시리즈'라는 이름으로 출시된다. 코어 울트라 200V에 탑재된 GPU는 Xe2 코어 4개와 레이트레이싱 유닛 4개를 한데 묶은 '렌더 슬라이스(조각)' 2개를 이용해 총 8코어로 구성됐다. 팬서레이크의 렌더 슬라이스는 ▲ Xe3 코어·레이트레이싱 유닛 4개 구성 ▲ Xe3 코어·레이트레이싱 유닛 6개 구성 등 총 두 개로 구성된다. 전자는 8코어 CPU(4P+4E)/16코어 CPU(4P+8E/LP 4E)와 결합되며 4코어 렌더 슬라이스 하나만 이용한다. 후자는 16코어 CPU(4P+8E/LP 4E)와 짝을 이루며 6코어 렌더 슬라이스 2개를 활용해 12코어 GPU를 만든다. Xe3, 처리 가능 데이터에 FP8 추가 Xe3 코어는 512비트 벡터 엔진 8개, AI 연산에 필요한 XMX(Xe 행렬 확장) 엔진 8개로 전세대 Xe3 코어와 차이가 없다. 그러나 데이터를 임시 저장하는 캐시를 33% 늘려 지연 시간과 성능을 향상시켰다. XMX 엔진은 INT2(정수 2비트), INT4, INT8, FP16(부동소수점 16비트), BF16, TF32 등 자료형을 처리할 수 있다. 여기에 정밀도에는 큰 차이가 없지만 연산 속도가 더 빠르고 배터리 소모가 적은 FP8(부동소수점 8비트) 양자화를 더했다. AI 연산 성능은 INT8 자료형 기준 최대 120 TOPS다. 전 세대인 코어 울트라 200V 프로세서 성능을 GPU 하나만으로 감당하게 됐다. 전세대 대비 GPU 성능 최대 50% 향상 인텔은 Xe2/Xe3 대상으로 실시한 자체 벤치마크 결과를 토대로 Xe3 GPU의 성능이 전 세대 대비 평균 50% 향상됐고 깊이 쓰기(Depth write) 벤치마크에서는 7배 이상 성능이 높아졌다고 설명했다. 톰 피터슨 펠로우는 "Xe3 GPU의 최대 성능은 루나레이크 대비 50% 높아졌고 애로우레이크H 대비 같은 전력에서 40% 더 높은 성능을 낸다"며 "게임용 고성능 노트북뿐만 아니라 휴대성을 강조한 소형·경량 노트북에서도 GPU 경쟁력을 확보했다"고 설명했다. 인텔은 마이크로소프트와 협력해 윈도 운영체제 그래픽 라이브러리인 다이렉트X 12에 Xe3 GPU의 XMX 연산 능력을 활용하는 '협동 벡터'(Cooperative Vectors)도 도입했다. 행사에서는 이를 활용해 2D 이미지로 3차원 입체를 만드는 'NeRF' 기술도 시연했다. NPU 5는 성능보다 작동 효율 향상에 방점 NPU는 소음 감소나 배경 흐림 등 최대한 전력을 적게 소모하며 상시 구동돼야 하는 작업에 최적화됐다. 팬서레이크에 탑재된 NPU 5도 전 세대 'NPU 4' 대비 연산 효율을 높이는 한편 인텔 18A 공정 적용으로 작동 효율을 높였다. NPU 4는 AI 처리에서 주로 쓰이는 MAC(Multiply–accumulate, 곱셈 가산) 연산과 DSP 처리를 수행하는 뉴럴 컴퓨트 엔진을 6개 탑재해 48 TOPS급 성능을 구현했다. 반면 NPU 5는 뉴럴 컴퓨트 엔진 수를 줄이는 대신 MAC를 처리하는 'MAC 어레이' 크기를 2배로 늘렸다. 톰 피터슨 펠로우는 "NPU 5는 FP16 대비 에너지 소모를 50% 줄이면서 유사한 품질을 얻을 수 있는 FP8(부동소수점 8비트)를 지원해 스테이블 디퓨전 등 생성 AI 작업에 필요한 전력량을 108J(줄)에서 30% 낮은 70J(줄)까지 끌어내렸다"고 설명했다. Xe3 4코어 GPU는 인텔 3 공정서 생산 예정 인텔은 노트북용 프로세서에 탑재되는 대부분의 내장·외장 GPU를 대부분 인텔 파운드리가 아닌 대만 TSMC에서 생산했다. 그러나 팬서레이크부터는 GPU 타일 중 Xe3 4코어 내장 제품을 극자외선(EUV) 기반 자체 공정인 인텔 3(Intel 3)에서 생산 예정이다. 팬서레이크는 레이트레이싱과 그래픽 연산에 필요한 각종 요소를 떼어내 GPU 타일로 분리했다. CPU는 그대로 두고 GPU를 더 강력한 제품으로 교체하는 것도 얼마든지 가능하다. 인텔은 이를 위해 더 강력한 GPU인 'Xe3P'도 준비중이다. 톰 피터슨 펠로우는 "CPU(경량 AI 모델), NPU(저전력 상시구동 윈도11 코파일럿+), GPU(대형언어모델 / 생성 AI) 등 3개 요소를 균형있게 강화해 AI 처리를 최적화하는 것이 인텔 목표"라고 강조했다.

2025.10.09 22:45권봉석

젠슨 황 "오픈AI-AMD 협력은 독창적이고 영리한 전략"

젠슨 황 엔비디아 CEO가 최근 오픈AI와 AMD가 체결한 대규모 파트너십에 대해 "기발하지만 놀라운 결정"이라고 평가했다. 오픈AI는 지난 6일(이하 현지시간) AMD와 향후 다년간 수 조원 규모의 GPU 공급 계약을 체결하는 한편 도입 성과에 따라 AMD 보통주 최대 1억 6천만 주를 매입할 수 있는 권리(워런트)를 확보했다. 양사의 계약은 AI 반도체 시장에서 엔비디아의 절대적인 우위를 위협하는 시도로 평가된다. AMD는 그동안 엔비디아에 뒤처진 AI 칩 경쟁에서 반전을 노려왔으며, 주요 클라우드 사업자들도 자체 칩 개발로 경쟁 구도를 강화하고 있다. 젠슨 황 CEO는 8일 CNBC 인터뷰에서 "AMD의 차세대 제품은 아직 완성되기 이전의 제품이지만 이런 상황에서 회사 지분의 10%를 내줬다는 것이 놀랍다"며 "양사의 발상은 독창적이고 한편으로 영리하다"고 평가했다. 젠슨 황 CEO는 인터뷰에서 "오픈AI 관련 투자에서 남는 유일한 아쉬움은 더 많은 금액을 투자하지 못했던 것"이라고 말했다. 젠슨 황 CEO는 이어 지난 9월 말 오픈AI에 향후 10년간 최대 1천억 달러(약 137조원)를 투자하기로 한 계약을 예로 들며 "엔비디아의 투자는 오픈AI에 직접 판매할 수 있는 완전히 다른 방식"이라고 설명했다. 오픈AI는 엔비디아 GPU를 활용한 전력소모 10GW(기가와트) 규모 시스템을 구축할 예정이다. 젠슨 황 CEO는 "이는 최대 500만개의 GPU를 활용하는 수준이며 오픈AI가 GPU 구매를 위한 자금을 유상증자나 융자로 조달할 것"이라고 말했다. 한편 그는 이날 일론 머스크의 인공지능 스타트업 xAI의 자금 조달에도 엔비디아가 참여해 20억 달러(약 2조 8천434억원)를 투자할 것이라고 확인했다. 젠슨 황 CEO는 "이번 기회를 매우 기대하고 있으며 일론 머스크의 사업에는 대부분 동참하고 싶다"고 밝혔다.

2025.10.09 09:44권봉석

AI 칩 '큰손' 떠오른 오픈AI...삼성·SK HBM 확장 기회 열려

인공지능(AI) 반도체 선두 주자인 엔비디아가 주도하는 HBM(고대역폭 메모리) 공급망에 균열이 발생하고 있다. 글로벌 빅테크들이 자체 AI 반도체 개발에 주력하는 가운데 챗GPT 개발사인 오픈AI도 최근 삼성전자·SK하이닉스와 중장기적 협력을 발표했다. 이에 따라 이들 메모리 기업의 HBM 시장 확장은 물론 가격 협상력도 동시에 높아질 것으로 기대된다. 9일 업계에 따르면 삼성전자, SK하이닉스 등 주요 메모리 기업들은 중장기적으로 HBM 고객사 다변화를 추진할 계획이다. HBM 시장은 AI 반도체 최대 기업인 엔비디아가 핵심 고객사로 자리해 왔다. 그러나 엔비디아 칩의 독과점 및 높은 구매비용으로 인해 전 세계 빅테크 기업들은 최근 자체 AI ASIC(주문형반도체) 개발을 적극 추진하고 있는 추세다. 구글과 메타, 아마존웹서비스(AWS), 화웨이 등이 대표적인 사례다. 시장조사업체 욜디벨롭먼트의 최근 분석에 따르면 AI ASIC 시장은 지난해 90억 달러에서 오는 2030년 850억 달러로 연평균 45%의 성장률을 보일 것으로 전망된다. 욜디벨롭먼트는 "현재 AI칩 시장은 GPU가 주도하고 있지만, AI AISC이 전략적 대안으로 부상하고 있다"며 "AI칩 업계 중 가장 빠르게 성장하는 분야가 될 것"이라고 설명했다. 오픈AI도 최근 대형 HBM 고객사로 부상하고 있다. 오픈AI는 최첨단 파운드리인 3나노미터(nm) 공정 기반의 자체 AI 반도체 개발을 추진 중인 것으로 알려졌다. 칩 설계는 브로드컴과 양산은 TSMC와 협력하는 구조다. 이와 관련 샘 알트만 오픈AI 대표는 지난 1일 이재용 삼성전자 회장, 최태원 SK 회장 등과 잇따라 만나 메모리(HBM) 공급과 관련한 LOI(의향서)를 체결한 바 있다. 샘 알트만 오픈AI 대표는 양사와의 만남에서 웨이퍼 기준 최대 월 90만장에 달하는 고성능 D램 공급량을 요구한 것으로 알려졌다. 업계가 추산하는 삼성전자·SK하이닉스의 D램 생산능력 합계가 월 120만장 수준이라는 점을 고려하면 막대한 규모다. 고성능 D램에는 HBM과 첨단 공정 기반의 서버용 D램, 저전력 D램(LPDDR), HBM 등이 포함될 것으로 관측된다. 빅테크 기업들의 이 같은 탈(脫) 엔비디아 전략은 삼성전자, SK하이닉스 등 메모리 기업들에게는 기회로 작용할 전망이다. HBM 시장 자체가 커질 뿐만 아니라, 고객사 다변화를 통해 가격 협상력에서 유리한 위치를 점할 수 있기 때문이다. 반도체 업계 관계자는 "오픈AI가 삼성전자, SK하이닉스와 중장기적인 협력을 논의한 만큼 HBM4E 시장부터는 시장 구도에 변화가 예상된다"며 "엔비디아도 구매 비중이 축소되면서 이전만큼 HBM에 대한 단가 인하 압박을 요구하지는 못하게 될 것"이라고 설명했다.

2025.10.09 09:17장경윤

오픈AI, AMD GPU 대규모 도입키로...엔비디아 독주 저지

오픈AI가 AMD과 수조원 규모의 GPU 공급 계약을 체결했다. AMD 지분 10% 매입 옵션이 포함된 초대형 계약으로, AMD 주가는 약 24% 뛰어올랐다. 필라델피아 반도체지수 역시 3% 넘게 급등했다. 6일(현지시간) 오픈AI는 수년에 걸쳐 AMD의 인스팅트(Instinct) MI450 GPU를 총 6기가와트(GW) 규모로 도입한다고 밝혔다. Instinct MI450은 차세대 AMD GPU 제품으로 내년 하반기부터 오픈AI에 공급이 시작될 예정이다. 사실상 엔비디아가 AI GPU 시장에서 독주하고 있는 가운데, AMD가 오픈AI와 협력을 통해 새로운 경쟁 구도를 갖춘 점이 눈길을 끄는 부분이다. 특히 오픈AI가 AI 컴퓨팅 인프라 확장에 나서면서 프로세서 공급망 다변화에 나선 결정이란 점이 주목할 점이다. 오픈AI는 성과에 따라 AMD 보통주 최대 1억6천만 주를 단계적으로 매입하는 권리를 갖게 되며, 이는 AMD 총 지분의 약 10% 수준으로 예상된다. AMD의 리사 수 CEO는 “이번 파트저십은 AMD와 오픈AI의 강점을 결합해 세계에서 가장 야심 찬 AI 구축을 가능하게 하고 AI 생태계를 발전시키는 진정한 윈윈 협력”이라고 말했다. 샘 알트먼 오픈AI 공동 창립자 겸 CEO “협약은 AI의 잠재력을 실현하기 위해 필요한 컴퓨팅 역량을 확보하는 중대한 단계”라며 “AMD의 고성능 칩 기술은 우리가 AI 발전 속도를 높이고 더 많은 사람에게 첨단 AI의 혜택을 빠르게 제공할 수 있도록 도와줄 것”이라고 밝혔다.

2025.10.07 08:38박수형

래블업, GPU 효율 4배 높인 '백엔드 AI'로 AI 대중화에 앞장

“래블업(Lablup)은 AI의 민주화가 목표입니다.” 래블업 관계자는 1일 서울 삼성동 코엑스에서 열린 과학기술정보통신부 공식 AI 주간 'AI페스타 2025'에서 “AI 개발을 힘들어하는 분들이 좀 더 편한 환경에서 누구나 AI를 쓰실 수 있도록 AI의 장벽을 낮출 것”이라며 이같이 밝혔다. 래블업은 랩(Lab)과 업그레이드(Upgrade)의 합성어로, 연구와 업그레이드를 잇는다는 뜻을 담았다. 회사가 지난 2015년 창업 이후 집중해 온 지점은 'AI 접근성'이다. 10년이 지난 오늘날, 오늘날 단순한 툴 제공을 넘어 GPU, NPU 등 대규모 자원을 효율적으로 활용 할 수 있는 백엔드 AI 오케스트레이션 플랫폼으로 입지를 넓혀가고 있다. “백엔드 닷 AI, 엔비디아 대비 GPU 자원 래블업의 핵심 플랫폼은 '백엔드 닷 AI(Backend.AI)'다. 연구자와 기업이 복잡한 설정 없이도 대규모 GPU 자원을 쉽게 띄워 학습과 추론을 실행할 수 있도록 지원한다. 특히 자체 개발한 '슈퍼바이저' 오케스트레이터를 통해 쿠버네티스 대비 오버헤드를 1/4 수준으로 줄였다. “AI 개발 돕는다”...온프레미스 환경에 적합 래블업은 AI 개발 중 반복되는 불편을 줄이기 위한 기능도 제공한다. 먼저 빨리(PALI)는 모델 이름만 입력하면 GPU에 자동 배포돼 즉시 API 엔드포인트(URL)를 제공한다. 연구자나 개발자가 별도의 서버 세팅 없이 오픈AI API처럼 바로 활용할 수 있는 구조다. 패스트트랙(FastTrack)의 경우 데이터 전처리→학습→평가 과정을 드래그앤드롭 방식으로 자동 실행한다. 사용자는 학습 코드 작성에만 집중하고, 반복되는 환경 설정은 플랫폼이 대신 처리한다. 래블업의 플랫폼은 온프레미스 환경에 적합하다. 금융사, 정부기관, 대기업처럼 민감한 데이터를 외부로 유출할 수 없는 기관들이 주요 고객층이다. 실제로 금융사와 통신사 일부가 래블업의 기술을 채용해 AI를 운영하고 있다. 회사는 엔비디아 GPU뿐 아니라 국산 NPU 등 다양한 칩도 지원한다. 래블업 관계자는 “새로운 칩이 나오면 직접 테스트해 지원을 늘려가고 있다”며 “국산 반도체 기업들과의 협업을 적극 추진하고 있다”고 말했다.

2025.10.01 17:06전화평

엘리스그룹, 기업 전용 B2B AI 솔루션 'AI FESTA 2025'서 전시

AI 교육 솔루션 기업 엘리스그룹(대표 김재원)이 10월 2일까지 서울 삼성동 코엑스A홀에서 개최되는 국내 최대 인공지능 전시회 'AI 페스타 2025'에 참가한다. 과학기술정보통신부가 주최하는 AI 페스타 2025에는 글로벌 빅테크를 비롯해 국내 대표 AI 기업 203개가 참여해 부스를 꾸리고, AI 산업 생태계 비전과 협력을 제시한다. 엘리스그룹은 이번 전시회에서 AI 클라우드 인프라부터 AI 교육까지 아우르는 엘리스그룹의 기업 전용 B2B AI 솔루션 전반을 소개한다. 엘리스그룹 부스에서는 올 하반기 새롭게 선보인 엘리스클라우드의 AI 전용 서비스형 인프라(IaaS) 'ECI' 체험을 운영할 예정이다. ECI는 고성능 GPU 인프라 자원을 효율적으로 분배하고, 스케줄링 할 수 있는 가상머신(VM) 기반 플랫폼이다. 또 기업∙기관 고객을 위한 생성형 AI 솔루션 'AI헬피챗' 현장 체험 이벤트도 진행된다. AI헬피챗은 최신 생성형 AI 모델은 물론, PPT 제작과 이미지 생성, 딥 리서치까지 다양한 AI 기능을 하나의 플랫폼에서 사용할 수 있다. 체험이 진행되는 ECI와 AI헬피챗을 비롯해 엘리스그룹의 모든 B2B AI 솔루션은 클라우드 서비스 보안인증인 CSAP IaaS과 정보보안 국제인증인 ISO27701∙27001을 획득한 엘리스클라우드 위에서 작동해 안전한 보안 환경을 갖췄다. 민감 정보를 다루는 학교, 기업, 공공기관 어디에서나 보안에 대한 우려 없이 사용할 수 있다. 김재원 엘리스그룹 대표는 “1만여 개 이상의 AI 교육 고객과 4천 곳 이상의 AI 클라우드 고객의 목소리를 들었을 때, 많은 고객 기관들이 AI 전환에 우려하는 것은 내부 민감 데이터의 보안이었다”며 “안전한 AI 클라우드 인프라 환경을 구축하고, AI 인프라 자원부터 AI 교육까지 유기적으로 연계해 제공하는 엔드 투 엔드 AI 솔루션으로 기업과 기관이 체감할 수 있는 안전한 AX를 선보이겠다”고 말했다.

2025.10.01 09:17백봉삼

점점 뜨거워지는 AI 데이터센터, 액침 냉각으로 식힌다

인공지능(AI)의 발전 속도는 눈부시다. 대규모 언어 모델(LLM)과 생성형 AI는 산업 전반의 판도를 바꾸며 새로운 기회를 열어주고 있다. 그러나 그 혁신의 뒤편에는 '발열'이라는 물리적 한계가 도사리고 있다. AI의 두뇌 역할을 하는 GPU, CPU 등 반도체가 고성능 연산을 지속하는 순간, 엄청난 열이 발생하기 때문이다. 이 열을 제어하지 못하면 속도를 높이기는커녕 성능 저하와 장비 손상으로 이어진다. 액침냉각, 공랭식 한계 뛰어넘다 최동훈 GRC 이사는 이 같은 문제의 해답으로 '액침냉각'을 지목한다. 공기로 발열을 제어하는 '공랭식' 기술이 한계에 다다랐기 때문이다. 최 이사는 “냉각 시스템은 오작동률이 낮은 게 중요한데, 공랭식은 그런 부분에서 좀 약하다”며 “서버가 공기 안에서 돌면 먼지 등 이물질이 쌓일 수 밖에 없기 때문이다. 공기가 없는 곳이 가장 좋다”고 말했다. 아울러 “서버의 발열이 심해지며 공랭식을 계속 활용하기 힘들어졌다”며 “액체를 사용하는 수랭식이 더 적합하고, 특정 반도체만을 식히는 게 아니라 보드까지 전부 액체에 담구는 액침냉각이 발열을 제어하는 데 가장 효과적이다”라고 설명했다. 액침냉각은 발열이 심한 서버를 비전도성 액체에 직접 담가 냉각하는 방식이다. 기존 공랭식보다 훨씬 높은 열 전달 효율을 제공한다. 에너지 소비를 획기적으로 줄일 수 있어, AI 인프라를 구축하는 오늘날 관심이 집중되는 기술이다. 전력 효율 급상승...”3~5년 이내 상용화될 것” 자원 낭비도 훨씬 줄어든다. 공랭식은 데이터센터 내 온도를 낮춰 서버를 차갑게 식히는 방식이다. 이 때 칠러의 온도를 낮추기 위해 상당량의 물이 필요하다. 물이 열 교환기를 거쳐 데이터센터 내부에 찬 바람을 불어넣는 원리다. 액침냉각은 서버를 직접 액체에 담구는 만큼 이 과정이 필요하지 않다. 물이 낭비되지 않으며, 별도의 냉각 과정이 필요없어 에너지 효율이 훨씬 높다. 최 이사는 “기존 공랭식은 데이터센터 쿨링에 전체 전력 중 30~40%를 사용했다”며 “액침냉각이 적용될 경우 이게 3%까지 줄어든다. 남은 전력을 서버로 돌릴 수 있어 파워 역시 올릴 수 있다”고 설명했다. 실제 지표로도 액침냉각의 효율성을 확인할 수 있다. 데이터센터의 효율은 PUE(전력효율지수)를 통해 확인 가능하다. PUE는 데이터센터 전체 전력 소비량 중 IT 장비 전력 소비량을 측정해 계산하는 지표다. 1.0에 가까울수록 효율성이 높다. 일반적인 공랭식 데이터센터의 PUE는 1.5~2.0 수준이다. 이 때 데이터센터 전체 전력 중 약 40%가 냉각 장치에 사용된다. 반면, 액침냉각은 1.03에 불과하다. 최 이사는 “싱가포르에서는 데이터센터 PUE가 1.2 미만으로 설계를 해야만 한다는 제한을 두고 있다”며 “자원에 한계가 있기 때문에, 앞으로는 공랭식만으로 서버를 구축하는 건 어려울 것”이라고 내다봤다. 이에 글로벌 업체들은 액침냉각 방식을 수용한 데이터센터를 구축하고 있다. 현재 시장 주류 방식인 공랭식, 액체냉각과 더불어 액침냉각 인프라까지 한번에 탑재한 데이터센터를 짓는 것이다. 그는 “최근에 관계사들을 만나보면 기술 전반을 활용할 수 있는 데이터센터 구축으로 방향을 잡고 있다”고 말했다. 그러면서 “3~5년 이내로 액침냉각이 상용화될 것”이라고 내다봤다. 액침냉각 스페셜리스트 GRC GRC는 지난 2009년 미국에서 설립된 액침냉각 전문 기업이다. 액침냉각을 전문으로 하는 회사로서는 가장 오래됐다. 액침냉각 관련해 총 19개 특허를 보유하고 있으며, 8개 특허가 인증을 받고 있다. 해당 기술과 관련해 특허수가 가장 많다. 현재 글로벌 서버업체인 델(Dell), HP 등과 협업하고 있으며, 국내에서는 SK엔무브, 현대오일뱅크 등과 협력 중이다.

2025.09.30 13:11전화평

퀄컴 차세대 AI PC 프로세서, 컴퓨팅·AI 성능서 경쟁사 '압도'

퀄컴이 올해 공개한 차세대 AI 프로세서의 성능을 자신했다. 실제 벤치마크 테스트 결과, CPU·GPU·NPU 등 모든 분야에서 이전 세대 대비 및 경쟁사 대비 뛰어난 성능을 구현한 것으로 나타났다. 퀄컴은 지난 23~25일(현지시간) 미국 하와이에서 개최된 '스냅드래곤 서밋' 행사를 통해 차세대 AI PC용 프로세서인 '스냅드래곤 X2 엘리트'의 성능을 공개했다. 스냅드래곤 X2 엘리트는 성능에 따라 일반 모델과 익스트림 모델로 나뉜다. 두 모델 모두 첨단 파운드리 공정인 3나노미터(nm)를 기반으로 하며, 내년 상반기부터 상용화가 시작될 예정이다. 초고성능의 익스트림 모델의 경우 18코어(12 프라임 코어+6 퍼포먼스 코어)를 갖췄으며, 3세대 퀄컴 오라이온 CPU를 탑재했다. 해당 CPU는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 성능을 제공한다. GPU는 이전 세대 대비 2.3배 높아진 와트 당 성능 및 전력 효율을, NPU는 80 TOPS의 AI 처리 성능을 지원한다. 퀄컴은 올해 서밋에서 해당 칩셋에 대한 벤치마크 결과를 공개했다. 설명에 따르면, 이번 스냅드래곤 X2 엘리트 익스트림의 벤치마크 성능은 주요 경쟁사의 칩셋을 크게 웃도는 수준이다. CPU 긱벤치(Geekbench) 6.5버전 테스트 점수는 멀티코어 기준 2만3천491점으로 인텔 코어 울트라 9 285H(1만7천680점), 애플 M4(1만5천146점)를 모두 앞선다. GPU 벤치마크(UL3DMark Solar Bay)도 90.06점으로 50~60점대인 인텔, 애플, AMD 칩셋 대비 크게 높은 것으로 나타났다. NPU 벤치마크(긱벤치 AI 1.5 버전) 역시 8만8천615점으로 애플 M4(5만2천193점), 인텔 코어 울트라 9 288V(4만8천566점) 등을 능가했다. 퀄컴 관계자는 "해당 칩에 탑재된 퀄컴 오라이온 CPU는 동급 최고 성능의 CPU로, 경쟁사 대비 싱글코어에서는 최대 41%, 멀티코어에서는 최대 2배 더 빠르다"며 "GPU와 NPU도 경쟁사 대비 우월한 성능을 보여준다"고 설명했다. 실제로 기자가 위 벤치마크 항목에 대해 실제 테스트를 진행해 본 결과, CPU 벤치마크는 싱글코어 4천83점, 멀티코어 2만3천349점으로 나타났다. 퀄컴이 제시한 기준치인 싱글코어 4천50~4천89점, 멀티코어 2만2천835~2만3천768점에 부합한다. GPU 벤치마크도 89.68FPS로 기준치(84.37~90.47)에 부합했으며, NPU는 긱벤치 AI 1.5 버전에서 8만9천157점으로 기준치(8만4천58~8만8천919)를 초과하기도 했다.

2025.09.29 22:00장경윤

에이수스코리아, 국내 4대 도시서 AI 솔루션 세미나 진행

에이수스코리아는 대전과 광주, 부산, 대구 등 전국 4대 도시에서 인텔·씨게이트와 AI 컴퓨팅 솔루션 세미나를 진행했다고 밝혔다. 에이수스는 GPU 공급사인 엔비디아와 함께 강력한 GPU 컴퓨팅 기술력을 바탕으로 최근 국내 서버 시장에 적극적으로 접근하고 있다. 에이수스는 세미나에서 서버, 사물인터넷(IoT) 엣지 클라이언트, 미니 PC 등 인텔과 엔비디아 솔루션 기반 다양한 제품을 소개하고 솔루션 구축 방향에 대한 정보를 공유했다. 소개된 주요 제품은 엔비디아 HGX B200/B300 기반 AI 워크스테이션과 서버, 개인 개발자와 AI 전문가를 위해 설계된 엔비디아 GB10 기반 워크스테이션 '어센트 GX10' 등이다. 파트너사인 인텔코리아는 서버용 제온6 프로세서의 AI 처리 성능과 기능, AI 가속기 가우디3를 소개했다. 씨게이트는 AI 워크로드 처리 전/후 과정에서 생성되는 대용량 데이터 저장에 적합한 고용량 30TB 하드디스크 드라이브와 엔비디아 GPU 기반 에이수스 서버와 연계되는 통합 스토리지 서버와 소프트웨어 솔루션을 공개했다. 강인석 에이수스코리아 지사장은 "에이수스는 엔터프라이즈 서버를 비롯해 IoT, 미니 PC, 산업용 메인보드 등 폭넓은 라인업을 보유하고 있으며, 엔비디아, 인텔, 씨게이트와의 협업을 통해 구성된 완성도 높은 솔루션을 갖췄다"고 밝혔다. 이어 "이번에 전국 4대 도시에서 진행한 세미나는 지역별 특성을 공유하고, 최신 정보를 전달하는 대화의 장으로 큰 의미가 있으며 앞으로도 시장의 다양한 요구사항에 적극 대응하기 위해 정기적인 소통의 장을 마련할 것"이라고 덧붙였다.

2025.09.26 11:36권봉석

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, HBM4용 테스트 장비 공급망 '윤곽'…연내 발주 시작

오픈AI 짝꿍 오라클, '스타게이트' 위해 역대급 자금 조달…5.4조 투입

美 판매 신기록에도…관세 다 맞은 현대차·기아, 3Q 전망 '흐림'

넥슨 마비노기 모바일, '대한민국 게임대상' 정조준

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.