• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'CPU'통합검색 결과 입니다. (43건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평

나인랩스, 시리즈 A 30억원 규모 투자 유치

데이터센터 및 AI 서버용 열관리 전문기업 나인랩스는 4일 대형 증권사와 벤처캐피털을 통해 30억원 규모 시리즈 A 투자를 유치했다고 밝혔다. 나인랩스는 카본 3D 프린터 시스템과 시제품 제작 사업을 중심으로 한 정밀공정 전문 기업이다. 최근에는 설계·가공 역량을 바탕으로 데이터센터와 고성능 서버용 반도체 직접냉각(D2C) 방식 액체냉각 솔루션으로 포트폴리오를 확장했다. 나인랩스 D2C 액체냉각 솔루션은 고성능 작동시 높은 열을 내는 CPU·GPU 표면에 냉각부를 직접 접촉시켜 구동된다. 기존 공랭식 간접냉각 대비 열전달 효율이 높고 소비 에너지를 줄이는 효과가 있으며 고집적·고전력 서버 환경에서 안정적으로 발열을 관리해 AI·고성능 컴퓨팅(HPC) 서버 인프라 핵심 기술로 꼽힌다. 주요 시장조사업체에 따르면 글로벌 액체냉각 시장은 AI 서버 전환 가속화에 따라 향후 5년간 연평균 25% 이상 성장할 것으로 기대된다. 주요 클라우드 및 통신사들도 D2C 등 액체냉각 기술 도입을 활발하게 검토중이다. 나인랩스는 이번에 유치한 30억원을 이용해 콜드플레이트, 소형 매니폴드, UQD 등 D2C 액체냉각 솔루션 핵심 부품의 설계 고도화와 양산 체계 구축에 나설 예정이다. 또 국내외 데이터센터/서버 사업자와 기술검증 협력 프로젝트도 확대한다. 박성호 나인랩스 대표이사는 "이번 30억원 규모 시리즈 A 투자 유치는 나인랩스의 기술 완성도와 글로벌 시장 성장 가능성을 동시에 인정받은 의미있는 이정표로 향후 고효율·친환경 액체냉각 솔루션을 통해 글로벌 데이터센터 및 AI 인프리 시장에서 새로운 표준을 만들어가겠다"고 밝혔다.

2025.12.04 15:02권봉석

"기존 시설은 제외?"…데이터센터 특별법에 업계 '우려'

정부가 추진 중인 데이터센터 특별법이 신규 시설 중심으로 이뤄질 가능성이 높아지면서 기존 센터 지원은 사실상 제외될 것이라는 우려가 나왔다. 26일 IT 업계에 따르면 그동안 데이터센터가 겪어온 환경 규제와 민원 문제 완화를 위해 해당 특별법이 논의되고 있지만, 실제 법안 구조는 신규 인공지능(AI) 데이터센터에 초점이 맞춰진 것으로 나타났다. 데이터센터 특별법 논의는 지난해 9월 더불어민주당 한민수 의원이 대표 발의한 법안에서 시작됐다. 이 법안은 신설 AI 데이터센터에 필요한 기준과 지원 체계를 구축하겠다는 취지로 발의돼 현재 국회 상임위에서 심사 중이다. 유사한 내용을 담은 더불어민주당 정동영 의원 법안도 같은 시기 발의되면서 두 안건은 병합 논의가 이뤄지고 있다. 다만 두 법안 모두 아직 본회의 문턱을 넘지 못해 제도화 단계까지는 시간이 더 필요하다. 전문가들은 기존 데이터센터가 이런 논의에서 제외되는 이유가 단순히 법안 구조 때문만은 아니라고 지적했다. 김영환 한국전자기술연구원(KETI) 단장은 "기존 데이터센터는 이미 소음과 환경 규제, 전력 인입 제한, 지역 민원 등 여러 문제를 안고 있다"며 "특별법이 시행돼도 체감 변화가 크지 않을 것"이라고 설명했다. 그는 "설비와 입지, 전력 구조가 모두 오래돼 지원 요건을 충족하는 것도 쉽지 않다"고 말했다. 그렇다고 기존 센터를 AI 데이터센터로 전환하는 작업도 사실상 불가능하다는 의견도 나왔다. 기존 센터가 중앙처리장치(CPU) 사용을 전제로 설계돼 랙당 전력밀도와 발열량이 크게 증가하는 AI 서버를 감당하기 어려워서다. 김성윤 테라텍 연구소장은 "GPU 기반 서버에 필요한 고밀도 전력 공급과 액체냉각 시스템을 갖추려면 배전과 냉각 설비를 사실상 처음부터 다시 설치해야 한다"고 설명했다. 김 연구소장은 입지 문제도 걸림돌이라고 지적했다. 그는 "현재 기존 센터는 대부분 도심에 자리하고 있어 전력 인입 확대가 쉽지 않다"며 "소음과 발열로 인한 지역 민원 부담도 여전하다"고 지적했다. 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 "건물 구조나 층고 하중 자체가 고성능 AI 장비를 수용하기엔 한계가 있다"고 말했다. 이어 "기존 센터가 사실상 제외된 정책이 현장에서 혼란을 키울 수 있다"며 "별도 지원 기준이나 전환 프로그램을 마련해야 한다"고 강조했다.

2025.11.26 10:27김미정

AI 데이터센터 CPU-메모리-GPU "光연결 시대 3년내 가능"

국내 연구진이 인공지능(AI) 데이터센터에서 메모리와 가속기 등 핵심 자원을 '빛'으로 자유롭게 연결·분리할 수 있는 기술을 세계 처음 개발하고, 검증하는데 성공했다. 상용화는 3년 내 가능할 것으로 예상했다. 한국전자통신연구원(ETRI)은 광스위치 기반 '데이터센터 자원연결(Optical Disaggregation, OD)'기술을 개발했다고 11일 밝혔다. 이준기 광네트워크연구실장은 "POC(개념검증)를 거쳐 상용화 가능성을 타진하는 검증에 나설 계획"이라며 "특허를 활용한 기술이전이나 허여 등으로 3년 내 상용화가 이루어질 것으로 본다"고 전망했다. 기존 데이터센터는 하나의 서버 안에 CPU, 메모리, 스토리지, 가속기(GPU) 등이 고정적으로 묶여 있는 서버 중심 구조다. 이로 인해 각 서버가 보유한 한정된 자원만 활용 가능하다. 다른 서버는 CPU만 사용하는 등 자원 활용 편차가 커 전체 효율성이 떨어진다. 대부분의 데이터센터는 또 전기 신호 기반 스위치를 사용하기 때문에 데이터 전송 과정에서 수 차례 신호 변환을 하기 때문에 데이터 전송 지연(딜레이)도 발생한다. 이 같은 문제를 연구진은 빛으로 해결했다. 서버 내부 메모리나 가속기가 부족할 경우, 광스위치를 이용해 다른 서버의 자원을 빛의 신호로 즉시 연결하는 OD기술을 개발했다. 이준기 실장은 "AI 학습이나 대규모 데이터 분석처럼 고성능 연산이 필요한 작업에서도 자원을 '필요한 순간, 필요한 만큼' 빠르고 유연하게 연결·분리할 수 있게 됐다"며 "원격 메모리 접속 표준(CXL, Compute Express Link)을 광스위치로 연결한 세계 최초 사례"라고 말했다. 연구진은 또 ETRI가 자체 개발한 CPU 어댑터, 메모리 블레이드, 가속기 블레이드, OD 매니저를 결합한 검증시스템을 구축해 실증에도 성공했다. 실증 결과 프로그램이 추가 자원을 요청하면 광 경로를 자동으로 설정해 필요한 메모리와 가속기를 실시간으로 할당하고, 서비스가 안정적으로 수행되는 것을 확인했다. ETRI는 이번 기술에 적용된 CXL 관련 원천특허를 확보하고, 국내외 특허 47건을 출원했다. 이준기 광네트워크연구실장은 "메모리와 가속기를 효율적으로 공유․활용해 데이터센터 자원 부족 문제를 해소하고, 지속 가능한 미래형 데이터센터로의 전환을 앞당길 중요한 계기가 될 것"으로 전망했다. 연구는 과학기술정보통신부 '광 클라우드 네트워킹 핵심기술 개발'사업의 일환으로 수행됐다.

2025.11.11 13:53박희범

퀄컴, 독자 CPU·NPU로 AI 추론 인프라 도전장...인텔과 맞붙나

퀄컴이 27일(미국 현지시간) AI 시스템반도체(SoC) 2종을 공개하며 내년 데이터센터 시장 재진입을 선언했다. 엔비디아나 AMD처럼 대규모 AI 모델을 훈련시키기 위한 칩이 아니라, 기존 모델 활용을 위한 저전력·고효율 추론용 반도체에 초점을 맞췄다. GPU 중심의 AI 훈련 수요보다 실제 비즈니스 적용 단계에서 요구되는 추론 연산 효율을 극대화해 대안을 제시하겠다는 것이다. 이런 접근 방식으로 AI PC 분야는 물론 최근 AI 추론 시장 확장에 나선 인텔과 경쟁 심화를 피할 수 없게 됐다. GPU 기반 모델 훈련 시장에서는 엔비디아가 압도적인 우위를 점하고 있는 만큼, 퀄컴과 인텔 모두 저전력·고효율을 내세운 '추론 최적화' 반도체 시장을 차세대 성장 영역으로 지목하고 있다. 퀄컴, 누비아 인수 2년만에 새 CPU '오라이온' 투입 퀄컴이 2021년 인수한 반도체 스타트업 누비아(Nubia)는 본래 Arm IP(지적재산권)를 활용해 데이터센터용 고성능 CPU '피닉스(Phoenix)'를 개발하던 회사였다. 퀄컴은 누비아 인수 이후 해당 기술을 흡수해 자사 CPU 설계 역량을 강화했고, 2022년 10월 '스냅드래곤 서밋'에서 누비아 기술을 바탕으로 한 새 CPU '오라이온(Oryon)' 개발을 공식화했다. 당시 누비아 출신으로 퀄컴에 합류한 제러드 윌리엄스 수석부사장은 "오라이온 CPU는 기존 크라이오(Kryo) CPU IP를 대체하며, 모바일부터 XR, 컴퓨트까지 다양한 플랫폼으로 확장될 것"이라고 설명했다. 퀄컴, 5월 데이터센터 진출 공식화 오라이온 CPU는 이후 PC용 '스냅드래곤 X'(2023), 스마트폰용 '스냅드래곤8 엘리트'(2024), 자동차용 '스냅드래곤 라이드 엘리트'(2024) 등 퀄컴 고성능 SoC에 순차적으로 투입됐다. 퀄컴은 지난해 말 20년 이상 서버용 프로세서를 설계한 인텔 출신 사일레시 코타팔리를 영입하고 데이터센터용 CPU 개발을 총괄하는 수석부사장으로 임명했다. 올해 5월 '컴퓨텍스 타이베이 2025' 기조연설에서는 오라이온 CPU를 서버 시장으로 확대할 계획을 공식화했다. 업계 관계자들은 당시 퀄컴이 이동통신 기지국의 데이터 처리용 서버·어플라이언스 분야를 우선 공략할 것으로 전망했다. 퀄컴, 예상 깨고 AI 추론 시장 먼저 겨냥 퀄컴이 27일 공개한 AI200/250 SoC는 오라이온 CPU와 헥사곤 NPU를 결합해 철저히 추론(인퍼런스)에 최적화된 제품이다. 새 AI 모델을 훈련하기보다 이미 완성된 모델을 저전력·비용 효율적으로 실행하려는 기업 수요를 겨냥했다. AI200은 LPDDR5 메모리를 채택해 비용 효율을 강조했으며, 최대 768GB LPDDR 메모리를 지원해 대규모 AI 추론 환경에서 유연성과 확장성을 높였다. AI200 기반 랙의 전력 소모는 약 160킬로와트(kW) 수준이다. AI250은 메모리 인접 연산 구조를 통해 지연시간을 줄이고, 대역폭을 10배 이상 향상시킬 계획이다. 퀄컴은 AI200을 2026년, AI250을 2027년 출시할 예정으로 예측 가능한 로드맵도 제시했다. 최초 고객사로 사우디 AI 스타트업 '휴메인' 나서 AI200 SoC 최초 고객사로 사우디아라비아 무함마드 빈 살만 왕세자가 설립한 AI 스타트업 '휴메인'(Humain)이 참여했다. 휴메인은 이미 퀄컴 스냅드래곤 X 엘리트를 기반으로 AI PC를 개발 중이며, 퀄컴과의 협력을 지속 강화하고 있다. 휴메인은 '미래 투자 이니셔티브(FII)' 제9차 포럼을 앞둔 28일(사우디 현지시간) 퀄컴 AI200·AI250 기반 200메가와트(MW)급 랙 솔루션을 도입, 사우디 및 글로벌 시장에 공급할 계획을 밝혔다. 휴메인은 자체 개발한 아랍어 기반 멀티모달 LLM 구현에도 퀄컴 인프라를 적극 활용할 방침이다. 인텔과 AI PC 이어 추론 시장서도 충돌 불가피 AI 관련 후발 주자로 볼 수 있는 퀄컴이 추론 시장 진출을 선언하며 비슷한 입지에 있는 인텔과 충돌이 불가피해졌다. 인텔은 엔비디아나 AMD에 비해 GPU 포트폴리오가 약하다는 평가를 받지만, 제온6 프로세서·코어 울트라·가우디3 AI 가속기를 결합한 추론 플랫폼으로 대응 중이다. 내년에는 저비용 추론용 GPU '크레센트 아일랜드' 출시도 예고돼 있다. 현재 퀄컴은 인텔과 함께 AI PC용 프로세서 시장에서도 경쟁 중이다. 인텔의 차세대 코어 울트라 시리즈 3(팬서레이크) 탑재 PC는 내년 1월 말부터, 퀄컴 스냅드래곤 X2 엘리트 탑재 PC는 내년 6월 전후 출시 전망이다.

2025.10.28 16:07권봉석

Arm "루멕스 CSS, AI 처리 속도 최대 5배 강화"

영국 반도체 설계 전문기업 Arm은 지난 9월 프리미엄 스마트폰과 PC를 겨냥한 반도체 IP인 루멕스(Lumex) 컴퓨트 서브시스템(CSS)를 공개했다. CPU와 GPU, 이를 지원하는 소프트웨어와 개발자 도구를 통합해 주요 파운드리의 2, 3나노급 공정에서 고성능 시스템반도체(SoC) 개발을 돕는다. 21일 오후 국내 기자단과 만난 제임스 맥니븐 Arm 클라이언트 사업부 부사장은 "루멕스 CSS는 프리미엄 스마트폰에서 중간급 기기까지 AI 연산 성능을 손쉽게 강화할 수 있다"고 설명했다. 이어 "차세대 AI 응용프로그램 구동시 최고의 배터리 효율, 게임 등에서 최고의 시각적 경험을 위해 설계됐다. 루멕스 CSS를 활용하는 파트너사들이 CPU와 GPU를 요구사항에 맞게 자유롭게 조합할 수 있어 유연성이 극대화됐다"고 설명했다. C1 CPU IP, AI 처리 위한 SME2 명령어 내장 Arm은 고성능 처리가 필요한 CPU IP(지적재산권)로 코어텍스-X(Cortex-X)를, 중간/저전력 처리가 필요한 CPU IP로 코어텍스-A(Cortex-A)를 공급해 왔다. 루멕스 CSS에 포함된 CPU IP는 C1 클러스터로 기존 코어텍스-X, A를 대체한다. 성능과 배터리 지속시간, 효율과 예산 등에 따라 총 4개 코어를 용도에 맞게 선택할 수 있다. 제임스 맥니븐 부사장은 "C1 울트라 코어는 최고 성능을 내는 플래그십 CPU 코어로 전년 대비 성능을 25% 향상시켰다. C1 프리미엄은 울트라급 성능을 유지하면서 칩 면적을 35% 줄여 서브플래그십 기기에 적합하다. C1 프로와 나노는 전력 효율 중심의 설계로, 중보급형 제품군에 적합할 것"이라고 밝혔다. C1 CPU 코어에는 AI 연산에 주로 쓰이는 행렬 곱셈 등 연산을 처리하기 위한 SME2 명령어가 내장된다. 이를 이용해 음성인식, 번역, 생성 AI 등 각종 AI 처리 속도를 전세대 대비 5배 향상시켰다. 제임스 맥니븐 부사장은 "C1 CPU 코어를 묶은 클러스터는 SME2 명령어를 활용해 2-3GHz로 작동시 2-6 TOPS(1초당 1조번 연산)를 처리 가능하며 작동 속도 향상시 더 높아질 수 있다"고 설명했다. 더 큰 코어 크기로 전력을 더 많이 쓰는 인텔·AMD 등 x86 기반 프로세서의 CPU 코어는 통상 8-10 TOPS 정도의 성능을 낸다. 루멕스 CSS가 스마트폰 등 저전력 기기를 위한 반도체 IP인 것을 감안하면 전력 효율 면에서는 분명 우위에 있다. 말리 G1 울트라 GPU, 레이트레이싱 성능 2배 향상 루멕스 CSS에 포함된 새 GPU IP인 말리 G1 울트라는 그래픽과 AI 추론 성능이 각각 20% 향상, 프레임당 소비 전력은 9% 절감, 레이트레이싱(RT) 성능은 두 배 향상됐다. 빛과 사물 사이에 비치는 그림자, 반사광 등을 보다 현실에 가깝게 표현하는 레이트레이싱 기능은 과거 PC용 고성능 GPU에서만 가능한 기술로 간주됐다. 그러나 2022년부터 삼성전자(엑시노스 2200)와 퀄컴(스냅드래곤8 2세대) 등이 모바일 기기용 SoC에 레이트레이싱을 투입한 이후 모바일 기기의 GPU 성능을 파악하는 지표 중 하나로 레이트레이싱 성능이 자리잡았다. 이날 제임스 맥니븐 부사장도 말리 G1 울트라의 레이트레이싱 성능 향상을 특히 강조했다. 그는 "RTUv2 아키텍처는 단일 광선 추적 방식을 채택해 보다 현실감 있는 조명을 구현하며, 코어당 전용 RT 하드웨어를 탑재해 효율성과 성능을 모두 높였다"고 밝혔다. "내년 GPU 활용 AI 연산 가속 예정" 루멕스 CSS는 최근 공개된 타사 모바일 SoC와 달리 NPU(신경망처리장치)는 포함하지 않았다. 제임스 맥니븐 부사장은 "CPU에서 AI 연산을 처리하는 것이 오히려 더 지연 시간이 낮고 개발자들도 SME2 명령어를 보다 널리 활용할 수 있다"고 설명했다. 그러나 주요 반도체 제조사들은 상시 저전력 연산과 전처리 등에 강력한 성능을 내는 NPU와 함께 GPU도 동시에 강화하고 있다. 수 억개 매개변수(패러미터)로 구성된 거대언어모델(LLM) 등 처리에는 GPU의 성능이 더 필요하다. 제임스 맥니븐 부사장 역시 "말리 G1 울트라에 포함된 레이트레이싱 유닛은 불칸(Vulkan) API를 활용한 그래픽 처리에 최적화됐고 일부 API를 이용하면 이를 연산에도 활용할 수 있다"고 설명했다. 그는 이어 "GPU에 신경망(뉴럴) 관련 처리를 더해 AI 연산 성능을 강화하겠다는 취지를 지난 8월에 이미 밝힌 바 있다. 현재는 상세한 내용을 공개할 수 없지만 AI 처리 성능 처리 면에서 비약적인 발전이 있을 것"이라고 설명했다.

2025.10.22 15:35권봉석

점점 뜨거워지는 AI 데이터센터, 액침 냉각으로 식힌다

인공지능(AI)의 발전 속도는 눈부시다. 대규모 언어 모델(LLM)과 생성형 AI는 산업 전반의 판도를 바꾸며 새로운 기회를 열어주고 있다. 그러나 그 혁신의 뒤편에는 '발열'이라는 물리적 한계가 도사리고 있다. AI의 두뇌 역할을 하는 GPU, CPU 등 반도체가 고성능 연산을 지속하는 순간, 엄청난 열이 발생하기 때문이다. 이 열을 제어하지 못하면 속도를 높이기는커녕 성능 저하와 장비 손상으로 이어진다. 액침냉각, 공랭식 한계 뛰어넘다 최동훈 GRC 이사는 이 같은 문제의 해답으로 '액침냉각'을 지목한다. 공기로 발열을 제어하는 '공랭식' 기술이 한계에 다다랐기 때문이다. 최 이사는 “냉각 시스템은 오작동률이 낮은 게 중요한데, 공랭식은 그런 부분에서 좀 약하다”며 “서버가 공기 안에서 돌면 먼지 등 이물질이 쌓일 수 밖에 없기 때문이다. 공기가 없는 곳이 가장 좋다”고 말했다. 아울러 “서버의 발열이 심해지며 공랭식을 계속 활용하기 힘들어졌다”며 “액체를 사용하는 수랭식이 더 적합하고, 특정 반도체만을 식히는 게 아니라 보드까지 전부 액체에 담구는 액침냉각이 발열을 제어하는 데 가장 효과적이다”라고 설명했다. 액침냉각은 발열이 심한 서버를 비전도성 액체에 직접 담가 냉각하는 방식이다. 기존 공랭식보다 훨씬 높은 열 전달 효율을 제공한다. 에너지 소비를 획기적으로 줄일 수 있어, AI 인프라를 구축하는 오늘날 관심이 집중되는 기술이다. 전력 효율 급상승...”3~5년 이내 상용화될 것” 자원 낭비도 훨씬 줄어든다. 공랭식은 데이터센터 내 온도를 낮춰 서버를 차갑게 식히는 방식이다. 이 때 칠러의 온도를 낮추기 위해 상당량의 물이 필요하다. 물이 열 교환기를 거쳐 데이터센터 내부에 찬 바람을 불어넣는 원리다. 액침냉각은 서버를 직접 액체에 담구는 만큼 이 과정이 필요하지 않다. 물이 낭비되지 않으며, 별도의 냉각 과정이 필요없어 에너지 효율이 훨씬 높다. 최 이사는 “기존 공랭식은 데이터센터 쿨링에 전체 전력 중 30~40%를 사용했다”며 “액침냉각이 적용될 경우 이게 3%까지 줄어든다. 남은 전력을 서버로 돌릴 수 있어 파워 역시 올릴 수 있다”고 설명했다. 실제 지표로도 액침냉각의 효율성을 확인할 수 있다. 데이터센터의 효율은 PUE(전력효율지수)를 통해 확인 가능하다. PUE는 데이터센터 전체 전력 소비량 중 IT 장비 전력 소비량을 측정해 계산하는 지표다. 1.0에 가까울수록 효율성이 높다. 일반적인 공랭식 데이터센터의 PUE는 1.5~2.0 수준이다. 이 때 데이터센터 전체 전력 중 약 40%가 냉각 장치에 사용된다. 반면, 액침냉각은 1.03에 불과하다. 최 이사는 “싱가포르에서는 데이터센터 PUE가 1.2 미만으로 설계를 해야만 한다는 제한을 두고 있다”며 “자원에 한계가 있기 때문에, 앞으로는 공랭식만으로 서버를 구축하는 건 어려울 것”이라고 내다봤다. 이에 글로벌 업체들은 액침냉각 방식을 수용한 데이터센터를 구축하고 있다. 현재 시장 주류 방식인 공랭식, 액체냉각과 더불어 액침냉각 인프라까지 한번에 탑재한 데이터센터를 짓는 것이다. 그는 “최근에 관계사들을 만나보면 기술 전반을 활용할 수 있는 데이터센터 구축으로 방향을 잡고 있다”고 말했다. 그러면서 “3~5년 이내로 액침냉각이 상용화될 것”이라고 내다봤다. 액침냉각 스페셜리스트 GRC GRC는 지난 2009년 미국에서 설립된 액침냉각 전문 기업이다. 액침냉각을 전문으로 하는 회사로서는 가장 오래됐다. 액침냉각 관련해 총 19개 특허를 보유하고 있으며, 8개 특허가 인증을 받고 있다. 해당 기술과 관련해 특허수가 가장 많다. 현재 글로벌 서버업체인 델(Dell), HP 등과 협업하고 있으며, 국내에서는 SK엔무브, 현대오일뱅크 등과 협력 중이다.

2025.09.30 13:11전화평

퀄컴 차세대 AI PC 프로세서, 컴퓨팅·AI 성능서 경쟁사 '압도'

퀄컴이 올해 공개한 차세대 AI 프로세서의 성능을 자신했다. 실제 벤치마크 테스트 결과, CPU·GPU·NPU 등 모든 분야에서 이전 세대 대비 및 경쟁사 대비 뛰어난 성능을 구현한 것으로 나타났다. 퀄컴은 지난 23~25일(현지시간) 미국 하와이에서 개최된 '스냅드래곤 서밋' 행사를 통해 차세대 AI PC용 프로세서인 '스냅드래곤 X2 엘리트'의 성능을 공개했다. 스냅드래곤 X2 엘리트는 성능에 따라 일반 모델과 익스트림 모델로 나뉜다. 두 모델 모두 첨단 파운드리 공정인 3나노미터(nm)를 기반으로 하며, 내년 상반기부터 상용화가 시작될 예정이다. 초고성능의 익스트림 모델의 경우 18코어(12 프라임 코어+6 퍼포먼스 코어)를 갖췄으며, 3세대 퀄컴 오라이온 CPU를 탑재했다. 해당 CPU는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 성능을 제공한다. GPU는 이전 세대 대비 2.3배 높아진 와트 당 성능 및 전력 효율을, NPU는 80 TOPS의 AI 처리 성능을 지원한다. 퀄컴은 올해 서밋에서 해당 칩셋에 대한 벤치마크 결과를 공개했다. 설명에 따르면, 이번 스냅드래곤 X2 엘리트 익스트림의 벤치마크 성능은 주요 경쟁사의 칩셋을 크게 웃도는 수준이다. CPU 긱벤치(Geekbench) 6.5버전 테스트 점수는 멀티코어 기준 2만3천491점으로 인텔 코어 울트라 9 285H(1만7천680점), 애플 M4(1만5천146점)를 모두 앞선다. GPU 벤치마크(UL3DMark Solar Bay)도 90.06점으로 50~60점대인 인텔, 애플, AMD 칩셋 대비 크게 높은 것으로 나타났다. NPU 벤치마크(긱벤치 AI 1.5 버전) 역시 8만8천615점으로 애플 M4(5만2천193점), 인텔 코어 울트라 9 288V(4만8천566점) 등을 능가했다. 퀄컴 관계자는 "해당 칩에 탑재된 퀄컴 오라이온 CPU는 동급 최고 성능의 CPU로, 경쟁사 대비 싱글코어에서는 최대 41%, 멀티코어에서는 최대 2배 더 빠르다"며 "GPU와 NPU도 경쟁사 대비 우월한 성능을 보여준다"고 설명했다. 실제로 기자가 위 벤치마크 항목에 대해 실제 테스트를 진행해 본 결과, CPU 벤치마크는 싱글코어 4천83점, 멀티코어 2만3천349점으로 나타났다. 퀄컴이 제시한 기준치인 싱글코어 4천50~4천89점, 멀티코어 2만2천835~2만3천768점에 부합한다. GPU 벤치마크도 89.68FPS로 기준치(84.37~90.47)에 부합했으며, NPU는 긱벤치 AI 1.5 버전에서 8만9천157점으로 기준치(8만4천58~8만8천919)를 초과하기도 했다.

2025.09.29 22:00장경윤

퀄컴 "삼성 갤럭시S26도 개발 협력…전용 칩 적용 가능성 있어"

[하와이(미국)=장경윤 기자] "퀄컴과 삼성전자 모바일의 관계는 환상적이다. 내년 출시될 갤럭시S26 스마트폰을 함께 개발해 왔고, 전용 스냅드래곤 칩의 탑재 가능성이 확실히 있다. 삼성 파운드리와도 매우 협력적인 관계를 유지하고 있다" 알렉스 카투지안 퀄컴 수석부사장 겸 모바일·컴퓨트·XR (MCX) 본부장은 24일(현지시간) 미국 하와이에서 기자들과 만나 회사의 사업 전략에 대해 이같이 밝혔다. 삼성전자 모바일·파운드리와 '전방위 협력' 공고 퀄컴은 올해 스냅드래곤 서밋에서 차세대 모바일 AP(애플리케이션 프로세서)인 '스냅드래곤 8 엘리트 5세대'를 공개했다. 해당 칩셋은 삼성전자가 내년 출시하는 '갤럭시S26' 시리즈를 비롯해, 전 세계 주요 안드로이드 스마트폰에 탑재될 예정이다. 특히 퀄컴은 삼성전자의 니즈에 따라 갤럭시 전용 칩을 공급하고 있다. 내년 출시되는 갤럭시S26에서도 동일한 협력 구조가 기대된다. 알렉스 카투지안 수석부사장은 "갤럭시S26 시리즈에 전용 스냅드래곤 칩을 적용하는 것은 확실히 가능성이 있다"며 "구체적으로 언급할 수는 없지만 삼성전자와 퀄컴은 약 2년 전부터 내년 출시되는 갤럭시S에 탑재되는 제품에서 IP(설계자산) 부분을 함께 작업했고, 기기 성능을 더 강력하게 만들었다"고 말했다. 나아가 삼성전자와 퀄컴은 차세대 통신 기술인 6G 분야에서도 협력할 예정이다. 퀄컴이 예상하는 6G 지원 디바이스의 상용화 시기는 빠르면 2028년으로, 알렉스 카투지안 부사장은 "삼성전자를 비롯한 여러 회사들과 파트너십을 맺고 2029년에 사용할 수 있는 스마트폰을 어떻게 만들지 고민할 것"이라고 설명했다. 이번 스냅드래곤 신제품은 TSMC의 3나노미터(nm) 공정을 채택했다. 다만 퀄컴은 파운드리 공급망을 다변화하는 전략을 고수하는 기업으로, 삼성전자 파운드리 역시 지속적으로 채용을 검토 중이다. 알렉스 카투지안 수석부사장은 "퀄컴은 팹리스 기업으로서 언제든 파운드리 공급망을 전환할 능력이 있고, 삼성 파운드리와도 항상 매우 협력적인 관계를 유지해 왔다"며 "디지털뿐만이 아니라 아날로그, 혼성 회로(IC) 등 다른 영역에서도 필요할 때 어떤 파운드리든 활용할 수 있다"고 말했다. 그는 이어 "삼성전자와 퀄컴은 고객사이자 경쟁자, 공급자인 매우 독특한 관계"라며 "다만 삼성전자 모바일과의 관계는 환상적으로, 더 나은 제품과 사용자 경험을 위해 서로를 밀어주며 기술을 발전시키는 훌륭한 관계"라고 덧붙였다. "프리미엄 사용자 경험이 중요"…모바일·PC 시장 확대 자신 차세대 칩셋을 통한 모바일 및 PC 시장 확대도 자신했다. 알렉스 카투지안 수석부사장은 스냅드래곤 8 엘리트 5세대에 대해 "삼성전자 엑시노스나 미디어텍 제품과 비교해 퀄컴이 빛나는 점은 프리미엄 사용자의 경험"이라며 "퀄컴은 벤치마크가 아닌 실제 사용 환경에서 기기가 어떻게 작동하는 지를 더 중요하게 생각하고, 구글과 같은 파트너사들이 우리를 선호하는 이유"고 말했다. 스냅드래곤 X2 엘리트 제품군은 AI PC 시장을 목표로 개발된 2세대 PC용 프로세서다. 초고성능의 '스냅드래곤 X2 엘리트 익스트림'과 한 단계 아래 급의 성능인 '스냅드래곤 X2 엘리트'로 나뉜다. 알렉스 카투지안 수석부사장은 "1세대 제품은 출시 18개월만에 주요 프리미엄 PC 시장서 점유율을 9~10% 수준으로 확보하는 진전을 이뤘고, 2개의 2세대 제품으로 시장을 확장하고자 한다"며 "강력한 CPU 및 NPU 성능을 기반으로 향후 4~5년간 계속해서 성장할 것"이라고 강조했다.

2025.09.25 11:05장경윤

모바일·PC 공략할 퀄컴의 핵심 무기, 3세대 '오라이온' CPU

[하와이(미국)=장경윤 기자] 퀄컴이 자체 개발한 오라이온(Oryon) CPU로 모바일·PC 시장을 공략한다. 올해 공개한 차세대 제품군에 모두 3세대 오라이온 CPU를 탑재해, 이전 세대 대비 성능을 크게 끌어올린 것으로 나타났다. 알렉스 카투지안 퀄컴 수석부사장은 24일(한국시간 25일) 미국 하와이에서 열린 '스냅드래곤 서밋'에서 "더 빠르고 효율적인 프로세싱 수요를 이끄는 핵심은 바로 CPU"라며 "스마트폰과 PC 플랫폼 모두를 위한 3세대 퀄컴 오라이온 CPU를 소개하고자 한다"고 밝혔다. 이날 퀄컴이 공개한 제품은 모바일과 AI PC 크게 두 분야다. 모바일에서는 '스냅드래곤 8 엘리트 5세대'를 선보였다. 해당 칩은 3나노미터(nm) 공정 기반의 차세대 모바일 AP(애플리케이션 프로세서)로, 삼성전자 등 주요 고객사가 내년 출시하는 플래그십 스마트폰에 탑재될 예정이다. AI PC에서는 지난 2023년 공개된 컴퓨트 플랫폼 '스냅드래곤 X 엘리트'의 후속작인 '스냅드래곤 X2 엘리트 익스트림'과 '스냅드래곤 X2 엘리트'가 공개됐다. 해당 시리즈는 최대 18코어를 탑재했으며, 모바일 AP와 마찬가지로 3나노 공정을 채택했다. 이들 제품군은 모두 퀄컴이 자체 제작한 오라이온 CPU 3세대 제품을 통해 성능을 크게 끌어올렸다. 주요 벤치마크 테스트인 긱벤치 6.5 버전 테스트 결과, 3세대 오라이온 CPU는 1세대 대비 싱글코어에서 39% 향상된 성능을 기록했다. 동시에 전력 소모량은 43% 줄였다. 알렉스 카투지안 수석부사장은 "3세대 CPU는 특히 AI를 위해 최적화된 칩"이라며 "해당 칩은 모든 작업에서 강력한 성능을 제공하고, 긴 배터리 수명을 유지하며 AI 기능을 함께 제공한다"고 강조했다. CPU와 함께 동작하는 GPU와 NPU도 중요한 요소다. 스냅드래곤 8 엘리트 5세대의 경우, 아드레노 GPU 아키텍처는 그래픽 집약적 게임 성능을 23% 개선한다. 또한 퀄컴 헥사곤 NPU는 37% 더 빨라진 성능을 지원한다. 알렉스 카투지안 수석부사장은 "갤럭시S25는 온디바이스 AI를 위한 헥사곤 NPU를 탑재했다"며 "3세대 오라이온 CPU, 헥사곤 NPU, 아드레노 GPU 등이 함꼐 작동해 오늘날 스마트폰에서의 가능성을 열어주고 있다"고 말했다.

2025.09.25 08:21장경윤

퀄컴, '동급 최고 성능' CPU로 PC용 프로세서 시장 뚫는다

퀄컴이 24일(한국시간 25일) 미국 하와이에서 열린 '스냅드래곤 서밋'에서 모바일 컴퓨팅용 SoC(시스템온칩)인 '스냅드래곤 X2 엘리트 익스트림'과 '스냅드래곤 X2 엘리트'를 공개했다. 이번 신규 프로세서는 지난 2023년 공개된 컴퓨트 플랫폼 '스냅드래곤 X 엘리트'의 후속작이다. 내년 상반기에 출시되는 프리미엄 노트북, 태블릿 PC 등에서 탑재될 것으로 알려졌다. 공정은 3나노 공정을 채택했다. 울트라 프리미엄 PC를 위해 설계된 스냅드래곤 X2 엘리트 익스트림은 퀄컴이 자체 설계한 3세대 오라이온 CPU를 탑재했다. 코어 수는 이전 세대(최대 12개) 대비 크게 늘어난 최대 18개다. 해당 CPU는 윈도우에서 가장 빠르고 전력 효율이 뛰어난 성능을 제공하며, 이는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 수준이다. 또한 새로운 퀄컴 아드레노 GPU 아키텍처는 이전 세대 대비 2.3배 높아진 와트당 성능 및 전력 효율을 지원한다. 퀄컴 헥사곤 NPU는 세계에서 가장 빠른 노트북용 NPU인 80 TOPS의 AI 처리 성능을 지원해, 코파일럿 플러스(Copilot+) PC에서 여러 AI 작업을 동시에 처리하는 강력한 경험을 구현한다. 스냅드래곤 X2 엘리트는 프리미엄 PC에서 생산성, 창의성, 엔터테인먼트등 고사양 작업 전반에 걸쳐 강력하고 효율적인 멀티태스킹을 구현한다. 스냅드래곤 X2 엘리트는 ISO 전력 조건에서 최대 31% 더 빠른 속도를 구현하며, 이전 세대 대비 전력 소모를 최대 43% 줄였다. 또한 80 TOPS NPU로 코파일럿+ 및 동시 AI 경험을 처리하도록 설계됐다. 사용자는 이러한 기능을 충전기 없이도 얇고 가벼운 디자인에서 활용할 수 있다. 케다르 콘답(Kedar Kondap), 퀄컴 수석 부사장 겸 컴퓨팅 및 게이밍 부문 본부장은 “스냅드래곤 X2 엘리트는 PC 산업에서의 퀄컴의 리더십을 강화하며, 사용자들이 당연히 누려야 할 경험을 구현하는 성능, AI 처리, 배터리 수명에서 획기적인 도약을 보여준다”며 “퀄컴은 기술 혁신의 한계를 끊임없이 뛰어넘고, 새로운 업계 표준을 제시하는 획기적인 제품을 선보여 PC의 가능성을 재정의해 나가고 있다”고 말했다.

2025.09.25 05:30장경윤

SSD-프로세서 직결 난항…HBF가 돌파구 될까

“SSD(솔리드스테이트드라이브)를 프로세서에 직접 연결하는 기술은 오랜 시간 꾸준히 연구됐습니다. 그러나 실제 적용에는 다소 난항을 겪는 상황입니다.” 26일 한 반도체 업계 관계자는 현재 SSD 연결 기술에 대해 이 같이 평했다. CPU, GPU 등 프로세서와 SSD를 직접 연결하기 어렵다는 것이다. 이 같은 상황이 발생한 가장 큰 이유는 메모리와 스토리지의 역할 차이에서 기인한다. CPU 등 프로세서는 연산을 하기 위해 매우 빠른 데이터 접근이 필요하다. 그래서 접근 속도가 빠른 D램과 직접 연결돼 동작한다. 반면 SSD는 저장장치라서 접근 속도가 D램 대비 다소 느리다. CPU가 SSD를 주 메모리처럼 쓰면 연산 속도가 크게 떨어질 수 밖에 없다. 그럼에도 불구하고 SSD와 프로세서를 직접 연결하려는 이유는 데이터 이동 비용을 절감하기 위해서다. 현재 반도체 구조에서 프로세서가 SSD 데이터를 사용하려면 SSD-낸드플래시 컨트롤러-D램-프로세서 단계를 거쳐야 한다. 반도체가 데이터 이동에서 발열이 발생한다는 점을 고려하면, 에너지 낭비가 심한 셈이다. 대규모 데이터센터에서는 비용 문제와도 직결된다. 이에 글로벌 반도체 기업들은 프로세서와 SSD를 직접 연결하기 위한 연구를 진행 중이다. 대표적인 기업이 엔비디아다. 엔비디아는 IBM, 여러 대학들과 손을 잡고 GPU를 위한 대용량 가속기 메모리 기술 BaM(Big Accelerator Memory)을 개발하기도 했다. BaM은 차세대 전송 프로토콜 NVMe(비휘발성 기억장치 익스프레스)를 통해 SSD와 GPU를 직접 연결하는 기술이다. HBF, SSD 연결 판도 바꿀 게임체인저될까 업계에서는 HBF(High Bandwidth Flash)가 SSD와 프로세서간 연결을 바꿀 게임체인저로 보고 있다. HBF는 D램과 유사한 방식으로 프로세서에 더 가까이 배치된 플래시 메모리다. HBM(고대역폭메모리)이 D램을 적층한 제품이라면, HBF는 플래시를 쌓아 올린 메모리다. 두 제품 모두 메모리 적층을 통해 대역폭을 대폭 넓혔다는 공통점을 갖고 있다. HBF가 HBM처럼 정보 처리를 빠른 속도로 할 수 있는 것이다. SSD와 프로세서 연결간 문제로 지적되던 속도 문제를 해결한 셈이다. 다만, 아직 넘어야할 장애물이 존재한다. HBF를 구현하기 위한 일종의 인프라 구축이 어렵다는 의견이다. HBF를 오가는 블록 스토리지(일종의 데이터 묶음)의 단위가 크기 때문이다. 정명수 카이스트 교수는 “블록 스토리지가 커서 I/O 그래뉴얼리티(한 번의 입출력으로 접근하거나 전송할 수 있는 데이터 블록의 최소 단위)가 기존과 다르다”며 “큰 정보량을 한 번에 움직일 수 있을만한 소프트웨어 등 인프라가 필요하다”고 말했다.

2025.08.26 16:25전화평

UNIST, AI 모델 실행 코드 찾는 '오토튜닝' 속도 2~2.5배 ↑

딥러닝 AI 모델을 실행 가능한 프로그램 형태로 바꾸는 데 걸리는 시간을 절반 이상 줄이는 기술이 개발됐다. UNIST는 컴퓨터공학과 이슬기 교수팀이 오토튜닝 과정을 최대 2~2.5배 빠르게 할 수 있는 기법을 개발했다고 12일 밝혔다. 연구결과는 이달 초 미국 보스톤에서 열린 컴퓨터 시스템 분야 국제 학회인 OSDI(Operating systems Design and Implementation)에 공개됐다. 총 338편의 논문이 제출돼 이 중 48편만이 채택됐다. OSDI는 SOSP(Symposium on Operating systems Principles)와 함께 컴퓨터 시스템 분야 양대 학회로 꼽힌다. 구글 '텐서플로'와 같은 AI 기술도 이 학회에서 공개된 바 있다. OSDI에 한국인 주저자 연구가 채택돼 공개된 사례는 올해 UNIST와 함께 채택된 서울대학교 이재욱 교수팀 연구결과를 지난 20여 년간 단 12건 뿐이다. AI 모델이 실제 작동하려면 사람이 짠 고수준의 프로그램인 AI 모델을 컴퓨터 연산장치가 이해할 수 있는 형태로 다시 바꾸는 '컴파일' 과정이 필요하다. 예를 들어 '고양이 사진을 구분해줘'라는 명령도 수천 줄에 이르는 복잡한 계산 코드로 바꿔야 연산장치인 GPU나 CPU가 실제로 실행할 수 있다. 오토튜닝은 이 과정에서 가능한 수십만 개의 코드 조합 중 연상 장치에서 가장 빠르고 효율적인 구성을 자동으로 찾아주는 기술이다. 하지만 경우에 따라 튜닝 시간이 수십 분에서 수 시간까지 걸릴 정도로 연산 부담이 크고, 전력 소모도 많다는 것이 문제였다. 연구팀은 딥러닝 모델 안에 반복되는 계산 구조가 많다는 점에 주목해 유사한 연산자끼리 정보를 공유하는 방식으로 탐색 범위를 줄였다. 코드 조합을 일일이 새로 찾는 대신 기존 결과를 재활용해 오토튜닝 속도를 높인 것. 실제 이 방식을 기존 오토튜닝 프레임워크(Ansor)에 적용한 결과, 동일한 성능의 실행 코드를 생성하는 데 걸리는 시간이 CPU 기준 평균 2.5배, GPU 기준 평균 2배 단축됐다. 이슬기 컴퓨터공학과 교수는 “컴파일 시간을 줄이면서도 GPU나 CPU를 직접 실험에 쓰는 횟수가 줄어 제한된 연산 자원을 효율적으로 쓸 수 있을 뿐만 아니라 전력 소모도 줄일 수 있다”고 말했다. 이번 연구는 UNIST 정이수 연구원이 제1저자로 참여했다. 연구 수행은 과학기술정보통신부 정보통신기획평가원의 지원을 받아 이뤄졌다.

2025.08.12 08:00박희범

오라클·AMD, AI·에이전틱 워크로드 지원 협력

오라클이 AMD 손잡고 대규모 인공지능(AI) 훈련·추론을 위한 고성능 클러스터를 구축한다. 오라클은 최대 13만1천73개 MI355X 그래픽처리장치(GPU)를 탑재한 제타스케일 AI 클러스터로 최신 생성형 AI·거대언어모델(LLM) 추론을 지원하기 위해 AMD와 협력한다고 23일 밝혔다. 이번 협력으로 AMD는 '오라클 클라우드 인프라스트럭처(OCI)'에 AMD 인스팅트 MI355X GPU를 공급한다. OCI는 고처리량과 초저지연 원격 직접 메모리 액세스(RDMA) 기반 클러스터 네트워크 아키텍처 바탕으로 높은 성능과 확장성을 제공한다는 평가를 받고 있다. MI355X는 이전 세대 대비 최대 2.8배 향상된 처리량을 제공하며, 288기가바이트(GB)의 고대역폭 메모리 3(HBM3)와 최대 8테라바이트(TB)의 메모리 대역폭으로 복잡한 모델의 훈련과 추론을 가속화한다. 새로운 4비트 부동 소수점 연산(FP4)도 지원해 비용 효율적인 고속 추론을 지원한다. 해당 GPU는 고밀도 수냉식 설계를 적용해 랙당 64개의 GPU, 125킬로와트(KW) 전력 소비로 AI 워크로드 처리 성능도 높였다. 더 빠른 첫 토큰 생성 시간과 높은 초당 토큰 처리량을 지원하며, 운영 환경 수준의 안정적인 AI 훈련·추론 인프라를 제공한다. 고객은 최대 3TB의 메모리를 탑재할 수 있는 AMD 튜린 고주파 중앙처리장치(CPU) 기반의 강력한 헤드 노드를 활용해 GPU 성능을 극대화할 수 있다. 오픈소스 소프트웨어 스택인 'ROCm'은 코드 마이그레이션 유연성을 높이고 공급업체 종속성을 줄인다. 네트워크 측면에서는 AMD 폴라라 NIC를 통한 고급 RoCE 기능과 울트라 이더넷 컨소시엄(UEC) 기반 개방형 산업 표준 지원으로 프로그래밍 가능한 혼잡 제어와 고성능 저지연 통신을 구현한다. 오라클 마헤쉬 티아가라얀 OCI 총괄 부사장은 "OCI의 성능과 유연성, 보안, 네트워크 역량에 AMD 인스팅트 GPU가 더해져 AI와 에이전틱 애플리케이션에 최적의 인프라를 제공하게 될 것"이라고 말했다. AMD 포레스트 노로드 데이터센터 부사장도 "고객에게 더 많은 선택지를 제공하며 새로운 추론과 훈련 사용 사례를 지원할 것"이라고 강조했다.

2025.06.23 15:20김미정

퀄컴, 英 '알파웨이브 세미' 24억 달러에 인수…AI 데이터센터 공략 강화

퀄컴이 고속 데이터 연결 솔루션 기업 알파웨이브 세미(Alphawave Semi)를 인수하기로 했다. 스마트폰·PC에 이어 데이터센터로 사업 영역을 확장하기 위한 투자다. 퀄컴은 영국 런던에 상장된 반도체 기업 알파웨이브 세미를 24억 달러(한화 약 3조2천억원)에 인수하기로 했다고 9일 밝혔다. 퀄컴은 "이번 인수는 데이터센터 확장을 가속화하고 핵심 자산을 확보하는 것을 목표로 한다"며 "퀄컴의 오라이온 CPU(중앙처리장치)와 헥사곤 NPU(신경망처리장치) 프로세서는 점차 확대되는 고성능·저전력 컴퓨팅 수요를 충족할 수 있는 유리한 위치에 있다"고 설명했다. 지난 2017년 설립된 알파웨이브 세미는 고속 연결 및 컴퓨팅 기술 분야에 주력해 온 반도체 설계 기업이다. 빠르고 안정적인 데이터 전송을 위한 IP(설계자산), 맞춤형 실리콘, 칩렛(여러 개의 단일 칩을 하나로 집적하는 기술) 플랫폼 등을 제공하고 있다. 크리스티아노 아몬 퀄컴 최고경영자(CEO)는 "알파웨이브 세미는 전력 효율적인 CPU 및 NPU 코어를 보완하는 선도적인 고속 유선 연결 및 컴퓨팅 기술을 개발했다"며 "이번 인수의 목표는 데이터센터 인프라를 포함한 다양한 고성장 분야에서 차세대 커넥티드 컴퓨팅 성능을 구현하는 것"이라고 밝혔다. 한편 이번 인수는 내년 1분기 내 완료될 것으로 예상된다.

2025.06.10 08:51장경윤

"AI 수요 감당할 기업은 29%에 불과…인프라 등 전략 잘 짜야"

"전 세계 비즈니스 리더의 82%가 AI를 사용하지만, 종합적인 전략을 갖춘 곳은 39%에 불과합니다. 관련된 전력 인프라와 인재 역시 준비가 부족한 상황이죠. 전체 조직의 29%만이 증가하는 AI 수요를 감당할 시스템을 보유하고 있습니다." 정춘상 Arm코리아 이사는 22일 경기 성남시 소재 본사에서 기자들과 만나 글로벌 AI 산업 현황 및 전략에 대해 이같이 밝혔다. Arm은 최근 글로벌 AI 산업의 현황을 분석한 'AI 준비도 지수 보고서'를 발간했다. 미국·유럽·중국·일본 등 8개국 665명의 기업 의사결정권자를 대상으로 올해 1~2월까지 설문을 진행했다. 보고서에 따르면, 전 세계 기업의 82%가 이미 일상적인 운영에 AI 애플리케이션을 도입하고 있다. 또한 10곳 중 8개 기업이 AI 전용 예산을 편성하고 있으며, 특히 미국 기업 중 57%는 IT 예산의 10% 이상을 AI에 투자하고 있는 것으로 나타났다. 다만 강력한 AI 도입 의지에도 구체적인 전략 수립 상황은 아직 부족하다는 게 Arm의 분석이다. 정성훈 Arm코리아 FAE 디렉터는 "AI의 광범위한 도입과 경영진의 적극적인 의지에도 불구하고, 명확하고 종합적인 AI 전략을 보유한 조직은 전체의 39%에 불과하다"며 "기업들은 인프라 준비도, 인재 확보, 데이터 품질이라는 세 가지 핵심 영역에서 뚜렷한 준비 부족을 드러내고 있다"고 설명했다. 인프라 면에서는 전체 조직의 29%만이 증가하는 AI 수요를 감당할 시스템 또는 저장 자원을 보유하고 있다. AI 워크로드의 에너지 요구를 처리할 전용 전력 인프라를 갖춘 기업은 23%로 더 적은 상황이다. 인재 격차가 벌어질 것이라는 우려도 나온다. 전체 비즈니스 리더의 34%는 AI 전문성 측면에서의 인력이 현저히 부족하거나 부족하다고 보고 있으며, 49%는 숙련된 인재 부족을 AI 도입의 가장 큰 장애 요인으로 지목했다. 정춘상 이사는 "AI 도입은 앞으로도 모든 산업에서 지속적으로 가속화될 전망으로, 인프라·인재·데이터·보안 격차 해소가 핵심 과제"라며 "포괄적인 전략 수립을 통해 오늘날의 격차를 해소하는 것이 AI 중심의 성공을 위한 미래 기반이 될 것"이라고 말했다. 한편 Arm은 AI 컴퓨팅의 미래를 위한 주요 기술로 엣지 AI용 'Armv9' 아키텍처 플랫폼, 코어텍스-M 프로세서의 머신러닝 성능을 향상시키는 '헬륨(Helium)', 서버용 아키텍처인 'Neoverse(네오버스)' 등을 보유하고 있다. 최근까지 집계된 Arm 아키텍처 기반 칩의 출하량은 3천100억만개로, 관련 생태계에 합류한 소프트웨어 개발자 수도 2천200만명에 달한다.

2025.05.23 10:17장경윤

"이젠 CPU로도 AI 돌린다"…마이크로소프트, 초경량 AI 모델 '비트넷' 공개

마이크로소프트(MS)가 소형 중앙처리장치(CPU)로 구동되는 고효율 인공지능(AI) 모델을 공개해 주목받고 있다. 17일 테크크런치에 따르면 MS 연구원들은 경량형 AI 모델 '비트넷 b1.58 2B4T'를 개발했다. 비트넷은 AI 구동에 필요한 대용량 그래픽처리장치(GPU) 자원이 아닌 소형 CPU에서 실행할 수 있도록 설계된 압축 모델이다. 애플의 M2와 같은 상용 CPU에서 작동 가능한 것으로 알려졌다. 비트넷은 기존의 거대 AI 모델 대비 메모리 연산 효율을 높인 것이 특징이다. 모델의 내부 구조를 정의하는 값인 가중치를 -1, 0, 1의 세 가지 값으로 양자화하는 방식을 도입해 컴퓨터가 처리할 수 있는 비트 수를 줄여 연산 속도를 높였다. MS 연구진은 "비트넷이 20억 개의 매개변수를 지닌 기존의 AI 모델들보다 성능이 우수하다"고 주장했다. 앞서 MS는 비트넷에 대해 초등학교 수준의 수학 문제를 푸는 'GSM8K'와 물리적 상식 추론 능력을 테스트하는 'PIQA' 등의 자체 벤치마크 테스트를 수행했다. MS는 "자체 테스트에서 비트넷이 메타의 '라마3.2 1B'와 구글의 '젬마3 1B', 알리바바의 '큐원2.5 1.5B'를 능가했다"며 "비트넷은 같은 크기의 다른 모델보다 훨씬 빠르고 메모리 사용량은 더 적다"고 밝혔다. 다만 이같은 성능을 구현하기 위해선 MS의 프레임워크인 '비트넷.CPP'를 활용해야 하는 것으로 전해졌다. 해당 프레임워크는 현재 특정 하드웨어서만 작동 가능한 상황이다. 또 CPU상에서의 실행에 집중돼 있어 AI 인프라 부문에서 가장 큰 비중을 차지하는 GPU에 대해서는 지원하지 않고 있다. 테크크런치는 "비트넷은 컴퓨팅 자원이 제한된 기기에서 유용할 수 있다"며 "하지만 호환성 문제가 앞으로도 가장 큰 걸림돌"이라고 설명했다.

2025.04.17 15:21한정호

인텔, 새 CEO에 '반도체 베테랑' 립부 탄

인텔이 시스템반도체 업계 베테랑인 립부탄(Lip-Bu Tan) 전 케이던스 최고경영자(CEO)를 새로운 리더로 발탁했다. 지난해 말 팻 겔싱어 전 CEO가 사임한 지 약 3개월 만이다. 이로써 인텔은 그간 부진했던 파운드리 사업의 경쟁력 회복에 속도를 낼 것으로 전망된다. 12일 인텔은 립부탄 전 케이던스 CEO를 오는 18일 회사의 신임 CEO로 선임한다고 밝혔다. 탄 CEO는 전 세계 주요 전자설계자동화(EDA) 기업 케이던스에서 근무하며 파운드리 및 시스템반도체와 관련한 많은 경험을 쌓은 인물이다. EDA는 반도체 회로를 설계하고 검증하기 위한 소프트웨어로, 반도체 제조의 필수 요소다. 그는 지난 2022년 인텔 이사회에 합류했으며, 지난해 초에는 인텔 파운드리 사업 자문 위원회 의장으로 추대되기도 했다. 그러나 탄 CEO는 지난해 8월 인텔 이사회를 떠난 바 있다. 당시 파운드리 사업과 인원 감축 등을 추진하던 팻 겔싱어 전임 CEO와 마찰이 있었던 것으로 알려졌다. 프랭크 예리 인텔 이사회 의장은 "탄 CEO는 기술 및 제품에 대한 전문성을 갖추고, 파운드리 생태계 전반에 걸쳐 긴밀한 관계를 쌓아 온 뛰어난 리더"라며 "앞으로의 중요한 성장 기회를 활용하고, 턴어라운드를 가속화하기 위해 노력하는 동안 탄 CEO를 영입하게 돼 기쁘다"고 강조했다. 탄 CEO는 "인텔의 CEO로 합류하게 돼 영광"이라며 "인텔은 강력하고 차별화된 컴퓨팅 플랫폼과 기술 로드맵으로 갈수록 더 강력해지는 제조 기반을 보유하고 있다"고 밝혔다. 또한 탄 CEO는 회사 운영 전략이 바뀔 수 있음을 시사했다. 그는 "고객에게 더 나은 서비스를 제공하고, 주주 가치를 창출하는 방식으로 비즈니스를 재구성할 수 있는 중요한 기회를 보고 있다"고 말했다.

2025.03.13 08:46장경윤

새 엣지 AI 시대 연다...Arm, 초고효율 CPU·플랫폼 공개

Arm이 이전 세대 대비 성능과 전력 효율성을 극대화한 신규 엣지 AI용 칩과 플랫폼을 선보인다. AWS(아마존웹서비스)·지멘스·르네사스 등 다양한 기업들이 주목하는 기술로, 이르면 내년 실제 상용화가 이뤄질 것으로 전망된다. 황선욱 Arm코리아 사장은 27일 서울 중구 더플라자 호텔에서 열린 'Arm 2025 엣지 AI 플랫폼 발표 기자 간담회'에서 신규 AI 엣지 플랫폼에 대해 이같이 밝혔다. 이날 Arm은 10억개 이상의 파라미터로 구성된 AI 모델을 온디바이스에서 실행할 수 있는 Arm Cortex-A320 CPU와, 엣지 AI용 가속기인 'Arm Ethos-U85' NPU를 탑재한 'Armv9 엣지 AI 플랫폼'을 발표했다. Cortex-A320은 Arm CPU 제품군 중에서도 전력효율성을 가장 강조한 모델이다. 이전 제품인 Cortex-A35 대비 머신러닝 성능을 10배 높였다. 또한 스칼라(scalar; CPU의 연산 수행 방식) 성능이 30% 향상됐다. 또한 고급 보안 기능을 신규 추가했다. Arm은 Cortex-A320과 트랜스포머 네트워크에 대한 운영자 지원 기능을 갖춘 Ethos-U85 NPU를 결합해, IoT에 최적화된 세계 최초의 Armv9 엣지 AI 플랫폼을 공개했다. 'Cortex-M85' 기반의 이전 플랫폼 대비 머신러닝 성능이 8배 향상된 것이 가장 큰 특징이다. 또한 이전 세대 대비 최대 메모리 지원량을 늘려, 고성능 LPDDR(저전력 D램)을 보다 유연하게 활용할 수 있을 것으로 기대된다. 황 사장은 "엣지 AI 모델이 복잡해지면서 더 높은 성능과 전력효율성을 갖춘 플랫폼에 대한 수요가 커지고 있다"며 "이에 다양한 엣지 AI 분야의 OEM, 반도체 기업들이 Cortex-A320으로 사업을 전개하려고 하고 있다"고 밝혔다. 실제로 이번 Arm의 신규 엣지 AI 플랫폼에 AWS, 지멘스, 르네사스, 어드밴텍, 유로테크 등이 관심을 가지고 있는 것으로 알려졌다. 실제 상용화 사례는 이르면 내년 확인할 수 있을 전망이다. 정성훈 Arm코리아 FAE 디렉터는 "고객사의 자세한 일정을 논할 수는 없으나, 오는 2026년 고객사가 Cortex-A320를 기반으로 한 칩을 출시할 것으로 예상된다"고 밝혔다.

2025.02.27 14:26장경윤

마우저, 파나소닉 와이파이 6 듀얼 무선 모듈 공급

마우저일렉트로닉스는 파나소닉 인더스트리얼 디바이스의 최신 PAN9019 및 PAN9019A 시리즈 와이파이 6 듀얼 밴드(2.4GHz/5GHz) 및 블루투스 5.4 모듈을 공급한다고 29일 밝혔다. PAN9019 시리즈는 고속 데이터 전송 및 에너지 효율성을 필요로 하는 산업용 IoT(IIoT), 게이트웨이 및 스마트 홈 애플리케이션에 탁월한 연결성을 제공하는 최첨단 와이파이 및 블루투스 모듈이다. 마우저에서 구매할 수 있는 PAN9019 및 PAN9019A 모듈은 강력한 듀얼 코어 CPU와 광범위한 보안 기능을 갖추고 있으며, 802.11 a/b/g/n/ac/ax 표준 기반의 2.4GHz 및 5GHz 주파수와 블루투스 BDR/EDR/LE를 지원한다. PAN9019A 모델은 추가로 지그비 및 산업, 과학, 의료(ISM) 대역을 위한 802.15.4 주파수도 지원한다. 또한 이 모듈은 새로운 TWT(target wake time) 전력 관리 기능을 통합하고 있어 첨단 산업용 장치의 개발을 간소화 및 가속화하는 것은 물론, 제품 출시 일정을 앞당길 수 있도록 해준다. 파나소닉 PAN9019 시리즈 모듈의 고속 데이터 인터페이스는 차세대 제품에서 요구하는 속도, 신뢰성 및 품질 요건에 부합하는 성능을 제공한다. 또한, 이 모듈은 CE RED, ISED, FCC, UKCA, RCM, MIC 등 다양한 인증을 획득함으로써 품질과 신뢰성을 보장한다. 이와 함께 마우저는 파나소닉 PAN9019 및 PAN9019A 평가 키트도 공급한다. 이 평가 키트에는 PAN9019 또는 PAN9019A 모듈이 각각 사전 탑재되어 있으며, 필요한 지원 회로와 소형의 M.2 보드도 포함돼 있다. 이 평가 키트는 M.2 Key E 소켓이 있는 호스트 프로세서 평가 보드와 함께 사용할 수 있도록 설계됐다. 권장 평가 플랫폼은 두 개의 Arm Cortex-A55 및 Cortex-M33 코어와 i.MX 93 애플리케이션 프로세서 기반의 강력한 툴을 제공하는 NXP®의 MCIMX93-EVK i.MX 93 평가 키트다. 이 플랫폼은 2GB의 LPDDR4 RAM과 16GB의 eMMC, 2개의 기가비트 이더넷 포트 및 2개의 USB 2.0 포트를 탑재하고 있으며, PAN9019 및 PAN9019A 모듈 동작에 매우 중요한 SDIO 3.0 기능도 지원한다.

2024.11.29 13:14장경윤

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

'안전 자율주행' 외치다 흘린 3년…현대차 자율주행 언제 가시화?

"전남-성남, 바이오헬스 산업 협력합시다"

박나래, ‘주사이모’ 해명에 역풍...의료계 "명백한 불법" 지적↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.