• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'CPU GPU'통합검색 결과 입니다. (11건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평

나인랩스, 시리즈 A 30억원 규모 투자 유치

데이터센터 및 AI 서버용 열관리 전문기업 나인랩스는 4일 대형 증권사와 벤처캐피털을 통해 30억원 규모 시리즈 A 투자를 유치했다고 밝혔다. 나인랩스는 카본 3D 프린터 시스템과 시제품 제작 사업을 중심으로 한 정밀공정 전문 기업이다. 최근에는 설계·가공 역량을 바탕으로 데이터센터와 고성능 서버용 반도체 직접냉각(D2C) 방식 액체냉각 솔루션으로 포트폴리오를 확장했다. 나인랩스 D2C 액체냉각 솔루션은 고성능 작동시 높은 열을 내는 CPU·GPU 표면에 냉각부를 직접 접촉시켜 구동된다. 기존 공랭식 간접냉각 대비 열전달 효율이 높고 소비 에너지를 줄이는 효과가 있으며 고집적·고전력 서버 환경에서 안정적으로 발열을 관리해 AI·고성능 컴퓨팅(HPC) 서버 인프라 핵심 기술로 꼽힌다. 주요 시장조사업체에 따르면 글로벌 액체냉각 시장은 AI 서버 전환 가속화에 따라 향후 5년간 연평균 25% 이상 성장할 것으로 기대된다. 주요 클라우드 및 통신사들도 D2C 등 액체냉각 기술 도입을 활발하게 검토중이다. 나인랩스는 이번에 유치한 30억원을 이용해 콜드플레이트, 소형 매니폴드, UQD 등 D2C 액체냉각 솔루션 핵심 부품의 설계 고도화와 양산 체계 구축에 나설 예정이다. 또 국내외 데이터센터/서버 사업자와 기술검증 협력 프로젝트도 확대한다. 박성호 나인랩스 대표이사는 "이번 30억원 규모 시리즈 A 투자 유치는 나인랩스의 기술 완성도와 글로벌 시장 성장 가능성을 동시에 인정받은 의미있는 이정표로 향후 고효율·친환경 액체냉각 솔루션을 통해 글로벌 데이터센터 및 AI 인프리 시장에서 새로운 표준을 만들어가겠다"고 밝혔다.

2025.12.04 15:02권봉석

"기존 시설은 제외?"…데이터센터 특별법에 업계 '우려'

정부가 추진 중인 데이터센터 특별법이 신규 시설 중심으로 이뤄질 가능성이 높아지면서 기존 센터 지원은 사실상 제외될 것이라는 우려가 나왔다. 26일 IT 업계에 따르면 그동안 데이터센터가 겪어온 환경 규제와 민원 문제 완화를 위해 해당 특별법이 논의되고 있지만, 실제 법안 구조는 신규 인공지능(AI) 데이터센터에 초점이 맞춰진 것으로 나타났다. 데이터센터 특별법 논의는 지난해 9월 더불어민주당 한민수 의원이 대표 발의한 법안에서 시작됐다. 이 법안은 신설 AI 데이터센터에 필요한 기준과 지원 체계를 구축하겠다는 취지로 발의돼 현재 국회 상임위에서 심사 중이다. 유사한 내용을 담은 더불어민주당 정동영 의원 법안도 같은 시기 발의되면서 두 안건은 병합 논의가 이뤄지고 있다. 다만 두 법안 모두 아직 본회의 문턱을 넘지 못해 제도화 단계까지는 시간이 더 필요하다. 전문가들은 기존 데이터센터가 이런 논의에서 제외되는 이유가 단순히 법안 구조 때문만은 아니라고 지적했다. 김영환 한국전자기술연구원(KETI) 단장은 "기존 데이터센터는 이미 소음과 환경 규제, 전력 인입 제한, 지역 민원 등 여러 문제를 안고 있다"며 "특별법이 시행돼도 체감 변화가 크지 않을 것"이라고 설명했다. 그는 "설비와 입지, 전력 구조가 모두 오래돼 지원 요건을 충족하는 것도 쉽지 않다"고 말했다. 그렇다고 기존 센터를 AI 데이터센터로 전환하는 작업도 사실상 불가능하다는 의견도 나왔다. 기존 센터가 중앙처리장치(CPU) 사용을 전제로 설계돼 랙당 전력밀도와 발열량이 크게 증가하는 AI 서버를 감당하기 어려워서다. 김성윤 테라텍 연구소장은 "GPU 기반 서버에 필요한 고밀도 전력 공급과 액체냉각 시스템을 갖추려면 배전과 냉각 설비를 사실상 처음부터 다시 설치해야 한다"고 설명했다. 김 연구소장은 입지 문제도 걸림돌이라고 지적했다. 그는 "현재 기존 센터는 대부분 도심에 자리하고 있어 전력 인입 확대가 쉽지 않다"며 "소음과 발열로 인한 지역 민원 부담도 여전하다"고 지적했다. 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 "건물 구조나 층고 하중 자체가 고성능 AI 장비를 수용하기엔 한계가 있다"고 말했다. 이어 "기존 센터가 사실상 제외된 정책이 현장에서 혼란을 키울 수 있다"며 "별도 지원 기준이나 전환 프로그램을 마련해야 한다"고 강조했다.

2025.11.26 10:27김미정

AI 데이터센터 CPU-메모리-GPU "光연결 시대 3년내 가능"

국내 연구진이 인공지능(AI) 데이터센터에서 메모리와 가속기 등 핵심 자원을 '빛'으로 자유롭게 연결·분리할 수 있는 기술을 세계 처음 개발하고, 검증하는데 성공했다. 상용화는 3년 내 가능할 것으로 예상했다. 한국전자통신연구원(ETRI)은 광스위치 기반 '데이터센터 자원연결(Optical Disaggregation, OD)'기술을 개발했다고 11일 밝혔다. 이준기 광네트워크연구실장은 "POC(개념검증)를 거쳐 상용화 가능성을 타진하는 검증에 나설 계획"이라며 "특허를 활용한 기술이전이나 허여 등으로 3년 내 상용화가 이루어질 것으로 본다"고 전망했다. 기존 데이터센터는 하나의 서버 안에 CPU, 메모리, 스토리지, 가속기(GPU) 등이 고정적으로 묶여 있는 서버 중심 구조다. 이로 인해 각 서버가 보유한 한정된 자원만 활용 가능하다. 다른 서버는 CPU만 사용하는 등 자원 활용 편차가 커 전체 효율성이 떨어진다. 대부분의 데이터센터는 또 전기 신호 기반 스위치를 사용하기 때문에 데이터 전송 과정에서 수 차례 신호 변환을 하기 때문에 데이터 전송 지연(딜레이)도 발생한다. 이 같은 문제를 연구진은 빛으로 해결했다. 서버 내부 메모리나 가속기가 부족할 경우, 광스위치를 이용해 다른 서버의 자원을 빛의 신호로 즉시 연결하는 OD기술을 개발했다. 이준기 실장은 "AI 학습이나 대규모 데이터 분석처럼 고성능 연산이 필요한 작업에서도 자원을 '필요한 순간, 필요한 만큼' 빠르고 유연하게 연결·분리할 수 있게 됐다"며 "원격 메모리 접속 표준(CXL, Compute Express Link)을 광스위치로 연결한 세계 최초 사례"라고 말했다. 연구진은 또 ETRI가 자체 개발한 CPU 어댑터, 메모리 블레이드, 가속기 블레이드, OD 매니저를 결합한 검증시스템을 구축해 실증에도 성공했다. 실증 결과 프로그램이 추가 자원을 요청하면 광 경로를 자동으로 설정해 필요한 메모리와 가속기를 실시간으로 할당하고, 서비스가 안정적으로 수행되는 것을 확인했다. ETRI는 이번 기술에 적용된 CXL 관련 원천특허를 확보하고, 국내외 특허 47건을 출원했다. 이준기 광네트워크연구실장은 "메모리와 가속기를 효율적으로 공유․활용해 데이터센터 자원 부족 문제를 해소하고, 지속 가능한 미래형 데이터센터로의 전환을 앞당길 중요한 계기가 될 것"으로 전망했다. 연구는 과학기술정보통신부 '광 클라우드 네트워킹 핵심기술 개발'사업의 일환으로 수행됐다.

2025.11.11 13:53박희범

Arm "루멕스 CSS, AI 처리 속도 최대 5배 강화"

영국 반도체 설계 전문기업 Arm은 지난 9월 프리미엄 스마트폰과 PC를 겨냥한 반도체 IP인 루멕스(Lumex) 컴퓨트 서브시스템(CSS)를 공개했다. CPU와 GPU, 이를 지원하는 소프트웨어와 개발자 도구를 통합해 주요 파운드리의 2, 3나노급 공정에서 고성능 시스템반도체(SoC) 개발을 돕는다. 21일 오후 국내 기자단과 만난 제임스 맥니븐 Arm 클라이언트 사업부 부사장은 "루멕스 CSS는 프리미엄 스마트폰에서 중간급 기기까지 AI 연산 성능을 손쉽게 강화할 수 있다"고 설명했다. 이어 "차세대 AI 응용프로그램 구동시 최고의 배터리 효율, 게임 등에서 최고의 시각적 경험을 위해 설계됐다. 루멕스 CSS를 활용하는 파트너사들이 CPU와 GPU를 요구사항에 맞게 자유롭게 조합할 수 있어 유연성이 극대화됐다"고 설명했다. C1 CPU IP, AI 처리 위한 SME2 명령어 내장 Arm은 고성능 처리가 필요한 CPU IP(지적재산권)로 코어텍스-X(Cortex-X)를, 중간/저전력 처리가 필요한 CPU IP로 코어텍스-A(Cortex-A)를 공급해 왔다. 루멕스 CSS에 포함된 CPU IP는 C1 클러스터로 기존 코어텍스-X, A를 대체한다. 성능과 배터리 지속시간, 효율과 예산 등에 따라 총 4개 코어를 용도에 맞게 선택할 수 있다. 제임스 맥니븐 부사장은 "C1 울트라 코어는 최고 성능을 내는 플래그십 CPU 코어로 전년 대비 성능을 25% 향상시켰다. C1 프리미엄은 울트라급 성능을 유지하면서 칩 면적을 35% 줄여 서브플래그십 기기에 적합하다. C1 프로와 나노는 전력 효율 중심의 설계로, 중보급형 제품군에 적합할 것"이라고 밝혔다. C1 CPU 코어에는 AI 연산에 주로 쓰이는 행렬 곱셈 등 연산을 처리하기 위한 SME2 명령어가 내장된다. 이를 이용해 음성인식, 번역, 생성 AI 등 각종 AI 처리 속도를 전세대 대비 5배 향상시켰다. 제임스 맥니븐 부사장은 "C1 CPU 코어를 묶은 클러스터는 SME2 명령어를 활용해 2-3GHz로 작동시 2-6 TOPS(1초당 1조번 연산)를 처리 가능하며 작동 속도 향상시 더 높아질 수 있다"고 설명했다. 더 큰 코어 크기로 전력을 더 많이 쓰는 인텔·AMD 등 x86 기반 프로세서의 CPU 코어는 통상 8-10 TOPS 정도의 성능을 낸다. 루멕스 CSS가 스마트폰 등 저전력 기기를 위한 반도체 IP인 것을 감안하면 전력 효율 면에서는 분명 우위에 있다. 말리 G1 울트라 GPU, 레이트레이싱 성능 2배 향상 루멕스 CSS에 포함된 새 GPU IP인 말리 G1 울트라는 그래픽과 AI 추론 성능이 각각 20% 향상, 프레임당 소비 전력은 9% 절감, 레이트레이싱(RT) 성능은 두 배 향상됐다. 빛과 사물 사이에 비치는 그림자, 반사광 등을 보다 현실에 가깝게 표현하는 레이트레이싱 기능은 과거 PC용 고성능 GPU에서만 가능한 기술로 간주됐다. 그러나 2022년부터 삼성전자(엑시노스 2200)와 퀄컴(스냅드래곤8 2세대) 등이 모바일 기기용 SoC에 레이트레이싱을 투입한 이후 모바일 기기의 GPU 성능을 파악하는 지표 중 하나로 레이트레이싱 성능이 자리잡았다. 이날 제임스 맥니븐 부사장도 말리 G1 울트라의 레이트레이싱 성능 향상을 특히 강조했다. 그는 "RTUv2 아키텍처는 단일 광선 추적 방식을 채택해 보다 현실감 있는 조명을 구현하며, 코어당 전용 RT 하드웨어를 탑재해 효율성과 성능을 모두 높였다"고 밝혔다. "내년 GPU 활용 AI 연산 가속 예정" 루멕스 CSS는 최근 공개된 타사 모바일 SoC와 달리 NPU(신경망처리장치)는 포함하지 않았다. 제임스 맥니븐 부사장은 "CPU에서 AI 연산을 처리하는 것이 오히려 더 지연 시간이 낮고 개발자들도 SME2 명령어를 보다 널리 활용할 수 있다"고 설명했다. 그러나 주요 반도체 제조사들은 상시 저전력 연산과 전처리 등에 강력한 성능을 내는 NPU와 함께 GPU도 동시에 강화하고 있다. 수 억개 매개변수(패러미터)로 구성된 거대언어모델(LLM) 등 처리에는 GPU의 성능이 더 필요하다. 제임스 맥니븐 부사장 역시 "말리 G1 울트라에 포함된 레이트레이싱 유닛은 불칸(Vulkan) API를 활용한 그래픽 처리에 최적화됐고 일부 API를 이용하면 이를 연산에도 활용할 수 있다"고 설명했다. 그는 이어 "GPU에 신경망(뉴럴) 관련 처리를 더해 AI 연산 성능을 강화하겠다는 취지를 지난 8월에 이미 밝힌 바 있다. 현재는 상세한 내용을 공개할 수 없지만 AI 처리 성능 처리 면에서 비약적인 발전이 있을 것"이라고 설명했다.

2025.10.22 15:35권봉석

점점 뜨거워지는 AI 데이터센터, 액침 냉각으로 식힌다

인공지능(AI)의 발전 속도는 눈부시다. 대규모 언어 모델(LLM)과 생성형 AI는 산업 전반의 판도를 바꾸며 새로운 기회를 열어주고 있다. 그러나 그 혁신의 뒤편에는 '발열'이라는 물리적 한계가 도사리고 있다. AI의 두뇌 역할을 하는 GPU, CPU 등 반도체가 고성능 연산을 지속하는 순간, 엄청난 열이 발생하기 때문이다. 이 열을 제어하지 못하면 속도를 높이기는커녕 성능 저하와 장비 손상으로 이어진다. 액침냉각, 공랭식 한계 뛰어넘다 최동훈 GRC 이사는 이 같은 문제의 해답으로 '액침냉각'을 지목한다. 공기로 발열을 제어하는 '공랭식' 기술이 한계에 다다랐기 때문이다. 최 이사는 “냉각 시스템은 오작동률이 낮은 게 중요한데, 공랭식은 그런 부분에서 좀 약하다”며 “서버가 공기 안에서 돌면 먼지 등 이물질이 쌓일 수 밖에 없기 때문이다. 공기가 없는 곳이 가장 좋다”고 말했다. 아울러 “서버의 발열이 심해지며 공랭식을 계속 활용하기 힘들어졌다”며 “액체를 사용하는 수랭식이 더 적합하고, 특정 반도체만을 식히는 게 아니라 보드까지 전부 액체에 담구는 액침냉각이 발열을 제어하는 데 가장 효과적이다”라고 설명했다. 액침냉각은 발열이 심한 서버를 비전도성 액체에 직접 담가 냉각하는 방식이다. 기존 공랭식보다 훨씬 높은 열 전달 효율을 제공한다. 에너지 소비를 획기적으로 줄일 수 있어, AI 인프라를 구축하는 오늘날 관심이 집중되는 기술이다. 전력 효율 급상승...”3~5년 이내 상용화될 것” 자원 낭비도 훨씬 줄어든다. 공랭식은 데이터센터 내 온도를 낮춰 서버를 차갑게 식히는 방식이다. 이 때 칠러의 온도를 낮추기 위해 상당량의 물이 필요하다. 물이 열 교환기를 거쳐 데이터센터 내부에 찬 바람을 불어넣는 원리다. 액침냉각은 서버를 직접 액체에 담구는 만큼 이 과정이 필요하지 않다. 물이 낭비되지 않으며, 별도의 냉각 과정이 필요없어 에너지 효율이 훨씬 높다. 최 이사는 “기존 공랭식은 데이터센터 쿨링에 전체 전력 중 30~40%를 사용했다”며 “액침냉각이 적용될 경우 이게 3%까지 줄어든다. 남은 전력을 서버로 돌릴 수 있어 파워 역시 올릴 수 있다”고 설명했다. 실제 지표로도 액침냉각의 효율성을 확인할 수 있다. 데이터센터의 효율은 PUE(전력효율지수)를 통해 확인 가능하다. PUE는 데이터센터 전체 전력 소비량 중 IT 장비 전력 소비량을 측정해 계산하는 지표다. 1.0에 가까울수록 효율성이 높다. 일반적인 공랭식 데이터센터의 PUE는 1.5~2.0 수준이다. 이 때 데이터센터 전체 전력 중 약 40%가 냉각 장치에 사용된다. 반면, 액침냉각은 1.03에 불과하다. 최 이사는 “싱가포르에서는 데이터센터 PUE가 1.2 미만으로 설계를 해야만 한다는 제한을 두고 있다”며 “자원에 한계가 있기 때문에, 앞으로는 공랭식만으로 서버를 구축하는 건 어려울 것”이라고 내다봤다. 이에 글로벌 업체들은 액침냉각 방식을 수용한 데이터센터를 구축하고 있다. 현재 시장 주류 방식인 공랭식, 액체냉각과 더불어 액침냉각 인프라까지 한번에 탑재한 데이터센터를 짓는 것이다. 그는 “최근에 관계사들을 만나보면 기술 전반을 활용할 수 있는 데이터센터 구축으로 방향을 잡고 있다”고 말했다. 그러면서 “3~5년 이내로 액침냉각이 상용화될 것”이라고 내다봤다. 액침냉각 스페셜리스트 GRC GRC는 지난 2009년 미국에서 설립된 액침냉각 전문 기업이다. 액침냉각을 전문으로 하는 회사로서는 가장 오래됐다. 액침냉각 관련해 총 19개 특허를 보유하고 있으며, 8개 특허가 인증을 받고 있다. 해당 기술과 관련해 특허수가 가장 많다. 현재 글로벌 서버업체인 델(Dell), HP 등과 협업하고 있으며, 국내에서는 SK엔무브, 현대오일뱅크 등과 협력 중이다.

2025.09.30 13:11전화평

퀄컴 차세대 AI PC 프로세서, 컴퓨팅·AI 성능서 경쟁사 '압도'

퀄컴이 올해 공개한 차세대 AI 프로세서의 성능을 자신했다. 실제 벤치마크 테스트 결과, CPU·GPU·NPU 등 모든 분야에서 이전 세대 대비 및 경쟁사 대비 뛰어난 성능을 구현한 것으로 나타났다. 퀄컴은 지난 23~25일(현지시간) 미국 하와이에서 개최된 '스냅드래곤 서밋' 행사를 통해 차세대 AI PC용 프로세서인 '스냅드래곤 X2 엘리트'의 성능을 공개했다. 스냅드래곤 X2 엘리트는 성능에 따라 일반 모델과 익스트림 모델로 나뉜다. 두 모델 모두 첨단 파운드리 공정인 3나노미터(nm)를 기반으로 하며, 내년 상반기부터 상용화가 시작될 예정이다. 초고성능의 익스트림 모델의 경우 18코어(12 프라임 코어+6 퍼포먼스 코어)를 갖췄으며, 3세대 퀄컴 오라이온 CPU를 탑재했다. 해당 CPU는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 성능을 제공한다. GPU는 이전 세대 대비 2.3배 높아진 와트 당 성능 및 전력 효율을, NPU는 80 TOPS의 AI 처리 성능을 지원한다. 퀄컴은 올해 서밋에서 해당 칩셋에 대한 벤치마크 결과를 공개했다. 설명에 따르면, 이번 스냅드래곤 X2 엘리트 익스트림의 벤치마크 성능은 주요 경쟁사의 칩셋을 크게 웃도는 수준이다. CPU 긱벤치(Geekbench) 6.5버전 테스트 점수는 멀티코어 기준 2만3천491점으로 인텔 코어 울트라 9 285H(1만7천680점), 애플 M4(1만5천146점)를 모두 앞선다. GPU 벤치마크(UL3DMark Solar Bay)도 90.06점으로 50~60점대인 인텔, 애플, AMD 칩셋 대비 크게 높은 것으로 나타났다. NPU 벤치마크(긱벤치 AI 1.5 버전) 역시 8만8천615점으로 애플 M4(5만2천193점), 인텔 코어 울트라 9 288V(4만8천566점) 등을 능가했다. 퀄컴 관계자는 "해당 칩에 탑재된 퀄컴 오라이온 CPU는 동급 최고 성능의 CPU로, 경쟁사 대비 싱글코어에서는 최대 41%, 멀티코어에서는 최대 2배 더 빠르다"며 "GPU와 NPU도 경쟁사 대비 우월한 성능을 보여준다"고 설명했다. 실제로 기자가 위 벤치마크 항목에 대해 실제 테스트를 진행해 본 결과, CPU 벤치마크는 싱글코어 4천83점, 멀티코어 2만3천349점으로 나타났다. 퀄컴이 제시한 기준치인 싱글코어 4천50~4천89점, 멀티코어 2만2천835~2만3천768점에 부합한다. GPU 벤치마크도 89.68FPS로 기준치(84.37~90.47)에 부합했으며, NPU는 긱벤치 AI 1.5 버전에서 8만9천157점으로 기준치(8만4천58~8만8천919)를 초과하기도 했다.

2025.09.29 22:00장경윤

퀄컴, '동급 최고 성능' CPU로 PC용 프로세서 시장 뚫는다

퀄컴이 24일(한국시간 25일) 미국 하와이에서 열린 '스냅드래곤 서밋'에서 모바일 컴퓨팅용 SoC(시스템온칩)인 '스냅드래곤 X2 엘리트 익스트림'과 '스냅드래곤 X2 엘리트'를 공개했다. 이번 신규 프로세서는 지난 2023년 공개된 컴퓨트 플랫폼 '스냅드래곤 X 엘리트'의 후속작이다. 내년 상반기에 출시되는 프리미엄 노트북, 태블릿 PC 등에서 탑재될 것으로 알려졌다. 공정은 3나노 공정을 채택했다. 울트라 프리미엄 PC를 위해 설계된 스냅드래곤 X2 엘리트 익스트림은 퀄컴이 자체 설계한 3세대 오라이온 CPU를 탑재했다. 코어 수는 이전 세대(최대 12개) 대비 크게 늘어난 최대 18개다. 해당 CPU는 윈도우에서 가장 빠르고 전력 효율이 뛰어난 성능을 제공하며, 이는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 수준이다. 또한 새로운 퀄컴 아드레노 GPU 아키텍처는 이전 세대 대비 2.3배 높아진 와트당 성능 및 전력 효율을 지원한다. 퀄컴 헥사곤 NPU는 세계에서 가장 빠른 노트북용 NPU인 80 TOPS의 AI 처리 성능을 지원해, 코파일럿 플러스(Copilot+) PC에서 여러 AI 작업을 동시에 처리하는 강력한 경험을 구현한다. 스냅드래곤 X2 엘리트는 프리미엄 PC에서 생산성, 창의성, 엔터테인먼트등 고사양 작업 전반에 걸쳐 강력하고 효율적인 멀티태스킹을 구현한다. 스냅드래곤 X2 엘리트는 ISO 전력 조건에서 최대 31% 더 빠른 속도를 구현하며, 이전 세대 대비 전력 소모를 최대 43% 줄였다. 또한 80 TOPS NPU로 코파일럿+ 및 동시 AI 경험을 처리하도록 설계됐다. 사용자는 이러한 기능을 충전기 없이도 얇고 가벼운 디자인에서 활용할 수 있다. 케다르 콘답(Kedar Kondap), 퀄컴 수석 부사장 겸 컴퓨팅 및 게이밍 부문 본부장은 “스냅드래곤 X2 엘리트는 PC 산업에서의 퀄컴의 리더십을 강화하며, 사용자들이 당연히 누려야 할 경험을 구현하는 성능, AI 처리, 배터리 수명에서 획기적인 도약을 보여준다”며 “퀄컴은 기술 혁신의 한계를 끊임없이 뛰어넘고, 새로운 업계 표준을 제시하는 획기적인 제품을 선보여 PC의 가능성을 재정의해 나가고 있다”고 말했다.

2025.09.25 05:30장경윤

SSD-프로세서 직결 난항…HBF가 돌파구 될까

“SSD(솔리드스테이트드라이브)를 프로세서에 직접 연결하는 기술은 오랜 시간 꾸준히 연구됐습니다. 그러나 실제 적용에는 다소 난항을 겪는 상황입니다.” 26일 한 반도체 업계 관계자는 현재 SSD 연결 기술에 대해 이 같이 평했다. CPU, GPU 등 프로세서와 SSD를 직접 연결하기 어렵다는 것이다. 이 같은 상황이 발생한 가장 큰 이유는 메모리와 스토리지의 역할 차이에서 기인한다. CPU 등 프로세서는 연산을 하기 위해 매우 빠른 데이터 접근이 필요하다. 그래서 접근 속도가 빠른 D램과 직접 연결돼 동작한다. 반면 SSD는 저장장치라서 접근 속도가 D램 대비 다소 느리다. CPU가 SSD를 주 메모리처럼 쓰면 연산 속도가 크게 떨어질 수 밖에 없다. 그럼에도 불구하고 SSD와 프로세서를 직접 연결하려는 이유는 데이터 이동 비용을 절감하기 위해서다. 현재 반도체 구조에서 프로세서가 SSD 데이터를 사용하려면 SSD-낸드플래시 컨트롤러-D램-프로세서 단계를 거쳐야 한다. 반도체가 데이터 이동에서 발열이 발생한다는 점을 고려하면, 에너지 낭비가 심한 셈이다. 대규모 데이터센터에서는 비용 문제와도 직결된다. 이에 글로벌 반도체 기업들은 프로세서와 SSD를 직접 연결하기 위한 연구를 진행 중이다. 대표적인 기업이 엔비디아다. 엔비디아는 IBM, 여러 대학들과 손을 잡고 GPU를 위한 대용량 가속기 메모리 기술 BaM(Big Accelerator Memory)을 개발하기도 했다. BaM은 차세대 전송 프로토콜 NVMe(비휘발성 기억장치 익스프레스)를 통해 SSD와 GPU를 직접 연결하는 기술이다. HBF, SSD 연결 판도 바꿀 게임체인저될까 업계에서는 HBF(High Bandwidth Flash)가 SSD와 프로세서간 연결을 바꿀 게임체인저로 보고 있다. HBF는 D램과 유사한 방식으로 프로세서에 더 가까이 배치된 플래시 메모리다. HBM(고대역폭메모리)이 D램을 적층한 제품이라면, HBF는 플래시를 쌓아 올린 메모리다. 두 제품 모두 메모리 적층을 통해 대역폭을 대폭 넓혔다는 공통점을 갖고 있다. HBF가 HBM처럼 정보 처리를 빠른 속도로 할 수 있는 것이다. SSD와 프로세서 연결간 문제로 지적되던 속도 문제를 해결한 셈이다. 다만, 아직 넘어야할 장애물이 존재한다. HBF를 구현하기 위한 일종의 인프라 구축이 어렵다는 의견이다. HBF를 오가는 블록 스토리지(일종의 데이터 묶음)의 단위가 크기 때문이다. 정명수 카이스트 교수는 “블록 스토리지가 커서 I/O 그래뉴얼리티(한 번의 입출력으로 접근하거나 전송할 수 있는 데이터 블록의 최소 단위)가 기존과 다르다”며 “큰 정보량을 한 번에 움직일 수 있을만한 소프트웨어 등 인프라가 필요하다”고 말했다.

2025.08.26 16:25전화평

UNIST, AI 모델 실행 코드 찾는 '오토튜닝' 속도 2~2.5배 ↑

딥러닝 AI 모델을 실행 가능한 프로그램 형태로 바꾸는 데 걸리는 시간을 절반 이상 줄이는 기술이 개발됐다. UNIST는 컴퓨터공학과 이슬기 교수팀이 오토튜닝 과정을 최대 2~2.5배 빠르게 할 수 있는 기법을 개발했다고 12일 밝혔다. 연구결과는 이달 초 미국 보스톤에서 열린 컴퓨터 시스템 분야 국제 학회인 OSDI(Operating systems Design and Implementation)에 공개됐다. 총 338편의 논문이 제출돼 이 중 48편만이 채택됐다. OSDI는 SOSP(Symposium on Operating systems Principles)와 함께 컴퓨터 시스템 분야 양대 학회로 꼽힌다. 구글 '텐서플로'와 같은 AI 기술도 이 학회에서 공개된 바 있다. OSDI에 한국인 주저자 연구가 채택돼 공개된 사례는 올해 UNIST와 함께 채택된 서울대학교 이재욱 교수팀 연구결과를 지난 20여 년간 단 12건 뿐이다. AI 모델이 실제 작동하려면 사람이 짠 고수준의 프로그램인 AI 모델을 컴퓨터 연산장치가 이해할 수 있는 형태로 다시 바꾸는 '컴파일' 과정이 필요하다. 예를 들어 '고양이 사진을 구분해줘'라는 명령도 수천 줄에 이르는 복잡한 계산 코드로 바꿔야 연산장치인 GPU나 CPU가 실제로 실행할 수 있다. 오토튜닝은 이 과정에서 가능한 수십만 개의 코드 조합 중 연상 장치에서 가장 빠르고 효율적인 구성을 자동으로 찾아주는 기술이다. 하지만 경우에 따라 튜닝 시간이 수십 분에서 수 시간까지 걸릴 정도로 연산 부담이 크고, 전력 소모도 많다는 것이 문제였다. 연구팀은 딥러닝 모델 안에 반복되는 계산 구조가 많다는 점에 주목해 유사한 연산자끼리 정보를 공유하는 방식으로 탐색 범위를 줄였다. 코드 조합을 일일이 새로 찾는 대신 기존 결과를 재활용해 오토튜닝 속도를 높인 것. 실제 이 방식을 기존 오토튜닝 프레임워크(Ansor)에 적용한 결과, 동일한 성능의 실행 코드를 생성하는 데 걸리는 시간이 CPU 기준 평균 2.5배, GPU 기준 평균 2배 단축됐다. 이슬기 컴퓨터공학과 교수는 “컴파일 시간을 줄이면서도 GPU나 CPU를 직접 실험에 쓰는 횟수가 줄어 제한된 연산 자원을 효율적으로 쓸 수 있을 뿐만 아니라 전력 소모도 줄일 수 있다”고 말했다. 이번 연구는 UNIST 정이수 연구원이 제1저자로 참여했다. 연구 수행은 과학기술정보통신부 정보통신기획평가원의 지원을 받아 이뤄졌다.

2025.08.12 08:00박희범

오라클·AMD, AI·에이전틱 워크로드 지원 협력

오라클이 AMD 손잡고 대규모 인공지능(AI) 훈련·추론을 위한 고성능 클러스터를 구축한다. 오라클은 최대 13만1천73개 MI355X 그래픽처리장치(GPU)를 탑재한 제타스케일 AI 클러스터로 최신 생성형 AI·거대언어모델(LLM) 추론을 지원하기 위해 AMD와 협력한다고 23일 밝혔다. 이번 협력으로 AMD는 '오라클 클라우드 인프라스트럭처(OCI)'에 AMD 인스팅트 MI355X GPU를 공급한다. OCI는 고처리량과 초저지연 원격 직접 메모리 액세스(RDMA) 기반 클러스터 네트워크 아키텍처 바탕으로 높은 성능과 확장성을 제공한다는 평가를 받고 있다. MI355X는 이전 세대 대비 최대 2.8배 향상된 처리량을 제공하며, 288기가바이트(GB)의 고대역폭 메모리 3(HBM3)와 최대 8테라바이트(TB)의 메모리 대역폭으로 복잡한 모델의 훈련과 추론을 가속화한다. 새로운 4비트 부동 소수점 연산(FP4)도 지원해 비용 효율적인 고속 추론을 지원한다. 해당 GPU는 고밀도 수냉식 설계를 적용해 랙당 64개의 GPU, 125킬로와트(KW) 전력 소비로 AI 워크로드 처리 성능도 높였다. 더 빠른 첫 토큰 생성 시간과 높은 초당 토큰 처리량을 지원하며, 운영 환경 수준의 안정적인 AI 훈련·추론 인프라를 제공한다. 고객은 최대 3TB의 메모리를 탑재할 수 있는 AMD 튜린 고주파 중앙처리장치(CPU) 기반의 강력한 헤드 노드를 활용해 GPU 성능을 극대화할 수 있다. 오픈소스 소프트웨어 스택인 'ROCm'은 코드 마이그레이션 유연성을 높이고 공급업체 종속성을 줄인다. 네트워크 측면에서는 AMD 폴라라 NIC를 통한 고급 RoCE 기능과 울트라 이더넷 컨소시엄(UEC) 기반 개방형 산업 표준 지원으로 프로그래밍 가능한 혼잡 제어와 고성능 저지연 통신을 구현한다. 오라클 마헤쉬 티아가라얀 OCI 총괄 부사장은 "OCI의 성능과 유연성, 보안, 네트워크 역량에 AMD 인스팅트 GPU가 더해져 AI와 에이전틱 애플리케이션에 최적의 인프라를 제공하게 될 것"이라고 말했다. AMD 포레스트 노로드 데이터센터 부사장도 "고객에게 더 많은 선택지를 제공하며 새로운 추론과 훈련 사용 사례를 지원할 것"이라고 강조했다.

2025.06.23 15:20김미정

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

눈앞으로 다가온 '피지컬 AI'…CES 2026이 증명했다

[ZD브리핑] 국가대표 AI 1차 탈락팀 발표 예정...새해 행사·정책 일정 잇따라

인텔, 아크 B390 성능 공개 "노트북용 별도 GPU 필요없다"

[르포] 폭설에 얼어붙는 도시…전기차 보기 힘든 홋카이도 가다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.