• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'cpu'통합검색 결과 입니다. (32건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

퀄컴 차세대 AI PC 프로세서, 컴퓨팅·AI 성능서 경쟁사 '압도'

퀄컴이 올해 공개한 차세대 AI 프로세서의 성능을 자신했다. 실제 벤치마크 테스트 결과, CPU·GPU·NPU 등 모든 분야에서 이전 세대 대비 및 경쟁사 대비 뛰어난 성능을 구현한 것으로 나타났다. 퀄컴은 지난 23~25일(현지시간) 미국 하와이에서 개최된 '스냅드래곤 서밋' 행사를 통해 차세대 AI PC용 프로세서인 '스냅드래곤 X2 엘리트'의 성능을 공개했다. 스냅드래곤 X2 엘리트는 성능에 따라 일반 모델과 익스트림 모델로 나뉜다. 두 모델 모두 첨단 파운드리 공정인 3나노미터(nm)를 기반으로 하며, 내년 상반기부터 상용화가 시작될 예정이다. 초고성능의 익스트림 모델의 경우 18코어(12 프라임 코어+6 퍼포먼스 코어)를 갖췄으며, 3세대 퀄컴 오라이온 CPU를 탑재했다. 해당 CPU는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 성능을 제공한다. GPU는 이전 세대 대비 2.3배 높아진 와트 당 성능 및 전력 효율을, NPU는 80 TOPS의 AI 처리 성능을 지원한다. 퀄컴은 올해 서밋에서 해당 칩셋에 대한 벤치마크 결과를 공개했다. 설명에 따르면, 이번 스냅드래곤 X2 엘리트 익스트림의 벤치마크 성능은 주요 경쟁사의 칩셋을 크게 웃도는 수준이다. CPU 긱벤치(Geekbench) 6.5버전 테스트 점수는 멀티코어 기준 2만3천491점으로 인텔 코어 울트라 9 285H(1만7천680점), 애플 M4(1만5천146점)를 모두 앞선다. GPU 벤치마크(UL3DMark Solar Bay)도 90.06점으로 50~60점대인 인텔, 애플, AMD 칩셋 대비 크게 높은 것으로 나타났다. NPU 벤치마크(긱벤치 AI 1.5 버전) 역시 8만8천615점으로 애플 M4(5만2천193점), 인텔 코어 울트라 9 288V(4만8천566점) 등을 능가했다. 퀄컴 관계자는 "해당 칩에 탑재된 퀄컴 오라이온 CPU는 동급 최고 성능의 CPU로, 경쟁사 대비 싱글코어에서는 최대 41%, 멀티코어에서는 최대 2배 더 빠르다"며 "GPU와 NPU도 경쟁사 대비 우월한 성능을 보여준다"고 설명했다. 실제로 기자가 위 벤치마크 항목에 대해 실제 테스트를 진행해 본 결과, CPU 벤치마크는 싱글코어 4천83점, 멀티코어 2만3천349점으로 나타났다. 퀄컴이 제시한 기준치인 싱글코어 4천50~4천89점, 멀티코어 2만2천835~2만3천768점에 부합한다. GPU 벤치마크도 89.68FPS로 기준치(84.37~90.47)에 부합했으며, NPU는 긱벤치 AI 1.5 버전에서 8만9천157점으로 기준치(8만4천58~8만8천919)를 초과하기도 했다.

2025.09.29 22:00장경윤 기자

퀄컴 "삼성 갤럭시S26도 개발 협력…전용 칩 적용 가능성 있어"

[하와이(미국)=장경윤 기자] "퀄컴과 삼성전자 모바일의 관계는 환상적이다. 내년 출시될 갤럭시S26 스마트폰을 함께 개발해 왔고, 전용 스냅드래곤 칩의 탑재 가능성이 확실히 있다. 삼성 파운드리와도 매우 협력적인 관계를 유지하고 있다" 알렉스 카투지안 퀄컴 수석부사장 겸 모바일·컴퓨트·XR (MCX) 본부장은 24일(현지시간) 미국 하와이에서 기자들과 만나 회사의 사업 전략에 대해 이같이 밝혔다. 삼성전자 모바일·파운드리와 '전방위 협력' 공고 퀄컴은 올해 스냅드래곤 서밋에서 차세대 모바일 AP(애플리케이션 프로세서)인 '스냅드래곤 8 엘리트 5세대'를 공개했다. 해당 칩셋은 삼성전자가 내년 출시하는 '갤럭시S26' 시리즈를 비롯해, 전 세계 주요 안드로이드 스마트폰에 탑재될 예정이다. 특히 퀄컴은 삼성전자의 니즈에 따라 갤럭시 전용 칩을 공급하고 있다. 내년 출시되는 갤럭시S26에서도 동일한 협력 구조가 기대된다. 알렉스 카투지안 수석부사장은 "갤럭시S26 시리즈에 전용 스냅드래곤 칩을 적용하는 것은 확실히 가능성이 있다"며 "구체적으로 언급할 수는 없지만 삼성전자와 퀄컴은 약 2년 전부터 내년 출시되는 갤럭시S에 탑재되는 제품에서 IP(설계자산) 부분을 함께 작업했고, 기기 성능을 더 강력하게 만들었다"고 말했다. 나아가 삼성전자와 퀄컴은 차세대 통신 기술인 6G 분야에서도 협력할 예정이다. 퀄컴이 예상하는 6G 지원 디바이스의 상용화 시기는 빠르면 2028년으로, 알렉스 카투지안 부사장은 "삼성전자를 비롯한 여러 회사들과 파트너십을 맺고 2029년에 사용할 수 있는 스마트폰을 어떻게 만들지 고민할 것"이라고 설명했다. 이번 스냅드래곤 신제품은 TSMC의 3나노미터(nm) 공정을 채택했다. 다만 퀄컴은 파운드리 공급망을 다변화하는 전략을 고수하는 기업으로, 삼성전자 파운드리 역시 지속적으로 채용을 검토 중이다. 알렉스 카투지안 수석부사장은 "퀄컴은 팹리스 기업으로서 언제든 파운드리 공급망을 전환할 능력이 있고, 삼성 파운드리와도 항상 매우 협력적인 관계를 유지해 왔다"며 "디지털뿐만이 아니라 아날로그, 혼성 회로(IC) 등 다른 영역에서도 필요할 때 어떤 파운드리든 활용할 수 있다"고 말했다. 그는 이어 "삼성전자와 퀄컴은 고객사이자 경쟁자, 공급자인 매우 독특한 관계"라며 "다만 삼성전자 모바일과의 관계는 환상적으로, 더 나은 제품과 사용자 경험을 위해 서로를 밀어주며 기술을 발전시키는 훌륭한 관계"라고 덧붙였다. "프리미엄 사용자 경험이 중요"…모바일·PC 시장 확대 자신 차세대 칩셋을 통한 모바일 및 PC 시장 확대도 자신했다. 알렉스 카투지안 수석부사장은 스냅드래곤 8 엘리트 5세대에 대해 "삼성전자 엑시노스나 미디어텍 제품과 비교해 퀄컴이 빛나는 점은 프리미엄 사용자의 경험"이라며 "퀄컴은 벤치마크가 아닌 실제 사용 환경에서 기기가 어떻게 작동하는 지를 더 중요하게 생각하고, 구글과 같은 파트너사들이 우리를 선호하는 이유"고 말했다. 스냅드래곤 X2 엘리트 제품군은 AI PC 시장을 목표로 개발된 2세대 PC용 프로세서다. 초고성능의 '스냅드래곤 X2 엘리트 익스트림'과 한 단계 아래 급의 성능인 '스냅드래곤 X2 엘리트'로 나뉜다. 알렉스 카투지안 수석부사장은 "1세대 제품은 출시 18개월만에 주요 프리미엄 PC 시장서 점유율을 9~10% 수준으로 확보하는 진전을 이뤘고, 2개의 2세대 제품으로 시장을 확장하고자 한다"며 "강력한 CPU 및 NPU 성능을 기반으로 향후 4~5년간 계속해서 성장할 것"이라고 강조했다.

2025.09.25 11:05장경윤 기자

모바일·PC 공략할 퀄컴의 핵심 무기, 3세대 '오라이온' CPU

[하와이(미국)=장경윤 기자] 퀄컴이 자체 개발한 오라이온(Oryon) CPU로 모바일·PC 시장을 공략한다. 올해 공개한 차세대 제품군에 모두 3세대 오라이온 CPU를 탑재해, 이전 세대 대비 성능을 크게 끌어올린 것으로 나타났다. 알렉스 카투지안 퀄컴 수석부사장은 24일(한국시간 25일) 미국 하와이에서 열린 '스냅드래곤 서밋'에서 "더 빠르고 효율적인 프로세싱 수요를 이끄는 핵심은 바로 CPU"라며 "스마트폰과 PC 플랫폼 모두를 위한 3세대 퀄컴 오라이온 CPU를 소개하고자 한다"고 밝혔다. 이날 퀄컴이 공개한 제품은 모바일과 AI PC 크게 두 분야다. 모바일에서는 '스냅드래곤 8 엘리트 5세대'를 선보였다. 해당 칩은 3나노미터(nm) 공정 기반의 차세대 모바일 AP(애플리케이션 프로세서)로, 삼성전자 등 주요 고객사가 내년 출시하는 플래그십 스마트폰에 탑재될 예정이다. AI PC에서는 지난 2023년 공개된 컴퓨트 플랫폼 '스냅드래곤 X 엘리트'의 후속작인 '스냅드래곤 X2 엘리트 익스트림'과 '스냅드래곤 X2 엘리트'가 공개됐다. 해당 시리즈는 최대 18코어를 탑재했으며, 모바일 AP와 마찬가지로 3나노 공정을 채택했다. 이들 제품군은 모두 퀄컴이 자체 제작한 오라이온 CPU 3세대 제품을 통해 성능을 크게 끌어올렸다. 주요 벤치마크 테스트인 긱벤치 6.5 버전 테스트 결과, 3세대 오라이온 CPU는 1세대 대비 싱글코어에서 39% 향상된 성능을 기록했다. 동시에 전력 소모량은 43% 줄였다. 알렉스 카투지안 수석부사장은 "3세대 CPU는 특히 AI를 위해 최적화된 칩"이라며 "해당 칩은 모든 작업에서 강력한 성능을 제공하고, 긴 배터리 수명을 유지하며 AI 기능을 함께 제공한다"고 강조했다. CPU와 함께 동작하는 GPU와 NPU도 중요한 요소다. 스냅드래곤 8 엘리트 5세대의 경우, 아드레노 GPU 아키텍처는 그래픽 집약적 게임 성능을 23% 개선한다. 또한 퀄컴 헥사곤 NPU는 37% 더 빨라진 성능을 지원한다. 알렉스 카투지안 수석부사장은 "갤럭시S25는 온디바이스 AI를 위한 헥사곤 NPU를 탑재했다"며 "3세대 오라이온 CPU, 헥사곤 NPU, 아드레노 GPU 등이 함꼐 작동해 오늘날 스마트폰에서의 가능성을 열어주고 있다"고 말했다.

2025.09.25 08:21장경윤 기자

퀄컴, '동급 최고 성능' CPU로 PC용 프로세서 시장 뚫는다

퀄컴이 24일(한국시간 25일) 미국 하와이에서 열린 '스냅드래곤 서밋'에서 모바일 컴퓨팅용 SoC(시스템온칩)인 '스냅드래곤 X2 엘리트 익스트림'과 '스냅드래곤 X2 엘리트'를 공개했다. 이번 신규 프로세서는 지난 2023년 공개된 컴퓨트 플랫폼 '스냅드래곤 X 엘리트'의 후속작이다. 내년 상반기에 출시되는 프리미엄 노트북, 태블릿 PC 등에서 탑재될 것으로 알려졌다. 공정은 3나노 공정을 채택했다. 울트라 프리미엄 PC를 위해 설계된 스냅드래곤 X2 엘리트 익스트림은 퀄컴이 자체 설계한 3세대 오라이온 CPU를 탑재했다. 코어 수는 이전 세대(최대 12개) 대비 크게 늘어난 최대 18개다. 해당 CPU는 윈도우에서 가장 빠르고 전력 효율이 뛰어난 성능을 제공하며, 이는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 수준이다. 또한 새로운 퀄컴 아드레노 GPU 아키텍처는 이전 세대 대비 2.3배 높아진 와트당 성능 및 전력 효율을 지원한다. 퀄컴 헥사곤 NPU는 세계에서 가장 빠른 노트북용 NPU인 80 TOPS의 AI 처리 성능을 지원해, 코파일럿 플러스(Copilot+) PC에서 여러 AI 작업을 동시에 처리하는 강력한 경험을 구현한다. 스냅드래곤 X2 엘리트는 프리미엄 PC에서 생산성, 창의성, 엔터테인먼트등 고사양 작업 전반에 걸쳐 강력하고 효율적인 멀티태스킹을 구현한다. 스냅드래곤 X2 엘리트는 ISO 전력 조건에서 최대 31% 더 빠른 속도를 구현하며, 이전 세대 대비 전력 소모를 최대 43% 줄였다. 또한 80 TOPS NPU로 코파일럿+ 및 동시 AI 경험을 처리하도록 설계됐다. 사용자는 이러한 기능을 충전기 없이도 얇고 가벼운 디자인에서 활용할 수 있다. 케다르 콘답(Kedar Kondap), 퀄컴 수석 부사장 겸 컴퓨팅 및 게이밍 부문 본부장은 “스냅드래곤 X2 엘리트는 PC 산업에서의 퀄컴의 리더십을 강화하며, 사용자들이 당연히 누려야 할 경험을 구현하는 성능, AI 처리, 배터리 수명에서 획기적인 도약을 보여준다”며 “퀄컴은 기술 혁신의 한계를 끊임없이 뛰어넘고, 새로운 업계 표준을 제시하는 획기적인 제품을 선보여 PC의 가능성을 재정의해 나가고 있다”고 말했다.

2025.09.25 05:30장경윤 기자

SSD-프로세서 직결 난항…HBF가 돌파구 될까

“SSD(솔리드스테이트드라이브)를 프로세서에 직접 연결하는 기술은 오랜 시간 꾸준히 연구됐습니다. 그러나 실제 적용에는 다소 난항을 겪는 상황입니다.” 26일 한 반도체 업계 관계자는 현재 SSD 연결 기술에 대해 이 같이 평했다. CPU, GPU 등 프로세서와 SSD를 직접 연결하기 어렵다는 것이다. 이 같은 상황이 발생한 가장 큰 이유는 메모리와 스토리지의 역할 차이에서 기인한다. CPU 등 프로세서는 연산을 하기 위해 매우 빠른 데이터 접근이 필요하다. 그래서 접근 속도가 빠른 D램과 직접 연결돼 동작한다. 반면 SSD는 저장장치라서 접근 속도가 D램 대비 다소 느리다. CPU가 SSD를 주 메모리처럼 쓰면 연산 속도가 크게 떨어질 수 밖에 없다. 그럼에도 불구하고 SSD와 프로세서를 직접 연결하려는 이유는 데이터 이동 비용을 절감하기 위해서다. 현재 반도체 구조에서 프로세서가 SSD 데이터를 사용하려면 SSD-낸드플래시 컨트롤러-D램-프로세서 단계를 거쳐야 한다. 반도체가 데이터 이동에서 발열이 발생한다는 점을 고려하면, 에너지 낭비가 심한 셈이다. 대규모 데이터센터에서는 비용 문제와도 직결된다. 이에 글로벌 반도체 기업들은 프로세서와 SSD를 직접 연결하기 위한 연구를 진행 중이다. 대표적인 기업이 엔비디아다. 엔비디아는 IBM, 여러 대학들과 손을 잡고 GPU를 위한 대용량 가속기 메모리 기술 BaM(Big Accelerator Memory)을 개발하기도 했다. BaM은 차세대 전송 프로토콜 NVMe(비휘발성 기억장치 익스프레스)를 통해 SSD와 GPU를 직접 연결하는 기술이다. HBF, SSD 연결 판도 바꿀 게임체인저될까 업계에서는 HBF(High Bandwidth Flash)가 SSD와 프로세서간 연결을 바꿀 게임체인저로 보고 있다. HBF는 D램과 유사한 방식으로 프로세서에 더 가까이 배치된 플래시 메모리다. HBM(고대역폭메모리)이 D램을 적층한 제품이라면, HBF는 플래시를 쌓아 올린 메모리다. 두 제품 모두 메모리 적층을 통해 대역폭을 대폭 넓혔다는 공통점을 갖고 있다. HBF가 HBM처럼 정보 처리를 빠른 속도로 할 수 있는 것이다. SSD와 프로세서 연결간 문제로 지적되던 속도 문제를 해결한 셈이다. 다만, 아직 넘어야할 장애물이 존재한다. HBF를 구현하기 위한 일종의 인프라 구축이 어렵다는 의견이다. HBF를 오가는 블록 스토리지(일종의 데이터 묶음)의 단위가 크기 때문이다. 정명수 카이스트 교수는 “블록 스토리지가 커서 I/O 그래뉴얼리티(한 번의 입출력으로 접근하거나 전송할 수 있는 데이터 블록의 최소 단위)가 기존과 다르다”며 “큰 정보량을 한 번에 움직일 수 있을만한 소프트웨어 등 인프라가 필요하다”고 말했다.

2025.08.26 16:25전화평 기자

UNIST, AI 모델 실행 코드 찾는 '오토튜닝' 속도 2~2.5배 ↑

딥러닝 AI 모델을 실행 가능한 프로그램 형태로 바꾸는 데 걸리는 시간을 절반 이상 줄이는 기술이 개발됐다. UNIST는 컴퓨터공학과 이슬기 교수팀이 오토튜닝 과정을 최대 2~2.5배 빠르게 할 수 있는 기법을 개발했다고 12일 밝혔다. 연구결과는 이달 초 미국 보스톤에서 열린 컴퓨터 시스템 분야 국제 학회인 OSDI(Operating systems Design and Implementation)에 공개됐다. 총 338편의 논문이 제출돼 이 중 48편만이 채택됐다. OSDI는 SOSP(Symposium on Operating systems Principles)와 함께 컴퓨터 시스템 분야 양대 학회로 꼽힌다. 구글 '텐서플로'와 같은 AI 기술도 이 학회에서 공개된 바 있다. OSDI에 한국인 주저자 연구가 채택돼 공개된 사례는 올해 UNIST와 함께 채택된 서울대학교 이재욱 교수팀 연구결과를 지난 20여 년간 단 12건 뿐이다. AI 모델이 실제 작동하려면 사람이 짠 고수준의 프로그램인 AI 모델을 컴퓨터 연산장치가 이해할 수 있는 형태로 다시 바꾸는 '컴파일' 과정이 필요하다. 예를 들어 '고양이 사진을 구분해줘'라는 명령도 수천 줄에 이르는 복잡한 계산 코드로 바꿔야 연산장치인 GPU나 CPU가 실제로 실행할 수 있다. 오토튜닝은 이 과정에서 가능한 수십만 개의 코드 조합 중 연상 장치에서 가장 빠르고 효율적인 구성을 자동으로 찾아주는 기술이다. 하지만 경우에 따라 튜닝 시간이 수십 분에서 수 시간까지 걸릴 정도로 연산 부담이 크고, 전력 소모도 많다는 것이 문제였다. 연구팀은 딥러닝 모델 안에 반복되는 계산 구조가 많다는 점에 주목해 유사한 연산자끼리 정보를 공유하는 방식으로 탐색 범위를 줄였다. 코드 조합을 일일이 새로 찾는 대신 기존 결과를 재활용해 오토튜닝 속도를 높인 것. 실제 이 방식을 기존 오토튜닝 프레임워크(Ansor)에 적용한 결과, 동일한 성능의 실행 코드를 생성하는 데 걸리는 시간이 CPU 기준 평균 2.5배, GPU 기준 평균 2배 단축됐다. 이슬기 컴퓨터공학과 교수는 “컴파일 시간을 줄이면서도 GPU나 CPU를 직접 실험에 쓰는 횟수가 줄어 제한된 연산 자원을 효율적으로 쓸 수 있을 뿐만 아니라 전력 소모도 줄일 수 있다”고 말했다. 이번 연구는 UNIST 정이수 연구원이 제1저자로 참여했다. 연구 수행은 과학기술정보통신부 정보통신기획평가원의 지원을 받아 이뤄졌다.

2025.08.12 08:00박희범 기자

오라클·AMD, AI·에이전틱 워크로드 지원 협력

오라클이 AMD 손잡고 대규모 인공지능(AI) 훈련·추론을 위한 고성능 클러스터를 구축한다. 오라클은 최대 13만1천73개 MI355X 그래픽처리장치(GPU)를 탑재한 제타스케일 AI 클러스터로 최신 생성형 AI·거대언어모델(LLM) 추론을 지원하기 위해 AMD와 협력한다고 23일 밝혔다. 이번 협력으로 AMD는 '오라클 클라우드 인프라스트럭처(OCI)'에 AMD 인스팅트 MI355X GPU를 공급한다. OCI는 고처리량과 초저지연 원격 직접 메모리 액세스(RDMA) 기반 클러스터 네트워크 아키텍처 바탕으로 높은 성능과 확장성을 제공한다는 평가를 받고 있다. MI355X는 이전 세대 대비 최대 2.8배 향상된 처리량을 제공하며, 288기가바이트(GB)의 고대역폭 메모리 3(HBM3)와 최대 8테라바이트(TB)의 메모리 대역폭으로 복잡한 모델의 훈련과 추론을 가속화한다. 새로운 4비트 부동 소수점 연산(FP4)도 지원해 비용 효율적인 고속 추론을 지원한다. 해당 GPU는 고밀도 수냉식 설계를 적용해 랙당 64개의 GPU, 125킬로와트(KW) 전력 소비로 AI 워크로드 처리 성능도 높였다. 더 빠른 첫 토큰 생성 시간과 높은 초당 토큰 처리량을 지원하며, 운영 환경 수준의 안정적인 AI 훈련·추론 인프라를 제공한다. 고객은 최대 3TB의 메모리를 탑재할 수 있는 AMD 튜린 고주파 중앙처리장치(CPU) 기반의 강력한 헤드 노드를 활용해 GPU 성능을 극대화할 수 있다. 오픈소스 소프트웨어 스택인 'ROCm'은 코드 마이그레이션 유연성을 높이고 공급업체 종속성을 줄인다. 네트워크 측면에서는 AMD 폴라라 NIC를 통한 고급 RoCE 기능과 울트라 이더넷 컨소시엄(UEC) 기반 개방형 산업 표준 지원으로 프로그래밍 가능한 혼잡 제어와 고성능 저지연 통신을 구현한다. 오라클 마헤쉬 티아가라얀 OCI 총괄 부사장은 "OCI의 성능과 유연성, 보안, 네트워크 역량에 AMD 인스팅트 GPU가 더해져 AI와 에이전틱 애플리케이션에 최적의 인프라를 제공하게 될 것"이라고 말했다. AMD 포레스트 노로드 데이터센터 부사장도 "고객에게 더 많은 선택지를 제공하며 새로운 추론과 훈련 사용 사례를 지원할 것"이라고 강조했다.

2025.06.23 15:20김미정 기자

퀄컴, 英 '알파웨이브 세미' 24억 달러에 인수…AI 데이터센터 공략 강화

퀄컴이 고속 데이터 연결 솔루션 기업 알파웨이브 세미(Alphawave Semi)를 인수하기로 했다. 스마트폰·PC에 이어 데이터센터로 사업 영역을 확장하기 위한 투자다. 퀄컴은 영국 런던에 상장된 반도체 기업 알파웨이브 세미를 24억 달러(한화 약 3조2천억원)에 인수하기로 했다고 9일 밝혔다. 퀄컴은 "이번 인수는 데이터센터 확장을 가속화하고 핵심 자산을 확보하는 것을 목표로 한다"며 "퀄컴의 오라이온 CPU(중앙처리장치)와 헥사곤 NPU(신경망처리장치) 프로세서는 점차 확대되는 고성능·저전력 컴퓨팅 수요를 충족할 수 있는 유리한 위치에 있다"고 설명했다. 지난 2017년 설립된 알파웨이브 세미는 고속 연결 및 컴퓨팅 기술 분야에 주력해 온 반도체 설계 기업이다. 빠르고 안정적인 데이터 전송을 위한 IP(설계자산), 맞춤형 실리콘, 칩렛(여러 개의 단일 칩을 하나로 집적하는 기술) 플랫폼 등을 제공하고 있다. 크리스티아노 아몬 퀄컴 최고경영자(CEO)는 "알파웨이브 세미는 전력 효율적인 CPU 및 NPU 코어를 보완하는 선도적인 고속 유선 연결 및 컴퓨팅 기술을 개발했다"며 "이번 인수의 목표는 데이터센터 인프라를 포함한 다양한 고성장 분야에서 차세대 커넥티드 컴퓨팅 성능을 구현하는 것"이라고 밝혔다. 한편 이번 인수는 내년 1분기 내 완료될 것으로 예상된다.

2025.06.10 08:51장경윤 기자

"AI 수요 감당할 기업은 29%에 불과…인프라 등 전략 잘 짜야"

"전 세계 비즈니스 리더의 82%가 AI를 사용하지만, 종합적인 전략을 갖춘 곳은 39%에 불과합니다. 관련된 전력 인프라와 인재 역시 준비가 부족한 상황이죠. 전체 조직의 29%만이 증가하는 AI 수요를 감당할 시스템을 보유하고 있습니다." 정춘상 Arm코리아 이사는 22일 경기 성남시 소재 본사에서 기자들과 만나 글로벌 AI 산업 현황 및 전략에 대해 이같이 밝혔다. Arm은 최근 글로벌 AI 산업의 현황을 분석한 'AI 준비도 지수 보고서'를 발간했다. 미국·유럽·중국·일본 등 8개국 665명의 기업 의사결정권자를 대상으로 올해 1~2월까지 설문을 진행했다. 보고서에 따르면, 전 세계 기업의 82%가 이미 일상적인 운영에 AI 애플리케이션을 도입하고 있다. 또한 10곳 중 8개 기업이 AI 전용 예산을 편성하고 있으며, 특히 미국 기업 중 57%는 IT 예산의 10% 이상을 AI에 투자하고 있는 것으로 나타났다. 다만 강력한 AI 도입 의지에도 구체적인 전략 수립 상황은 아직 부족하다는 게 Arm의 분석이다. 정성훈 Arm코리아 FAE 디렉터는 "AI의 광범위한 도입과 경영진의 적극적인 의지에도 불구하고, 명확하고 종합적인 AI 전략을 보유한 조직은 전체의 39%에 불과하다"며 "기업들은 인프라 준비도, 인재 확보, 데이터 품질이라는 세 가지 핵심 영역에서 뚜렷한 준비 부족을 드러내고 있다"고 설명했다. 인프라 면에서는 전체 조직의 29%만이 증가하는 AI 수요를 감당할 시스템 또는 저장 자원을 보유하고 있다. AI 워크로드의 에너지 요구를 처리할 전용 전력 인프라를 갖춘 기업은 23%로 더 적은 상황이다. 인재 격차가 벌어질 것이라는 우려도 나온다. 전체 비즈니스 리더의 34%는 AI 전문성 측면에서의 인력이 현저히 부족하거나 부족하다고 보고 있으며, 49%는 숙련된 인재 부족을 AI 도입의 가장 큰 장애 요인으로 지목했다. 정춘상 이사는 "AI 도입은 앞으로도 모든 산업에서 지속적으로 가속화될 전망으로, 인프라·인재·데이터·보안 격차 해소가 핵심 과제"라며 "포괄적인 전략 수립을 통해 오늘날의 격차를 해소하는 것이 AI 중심의 성공을 위한 미래 기반이 될 것"이라고 말했다. 한편 Arm은 AI 컴퓨팅의 미래를 위한 주요 기술로 엣지 AI용 'Armv9' 아키텍처 플랫폼, 코어텍스-M 프로세서의 머신러닝 성능을 향상시키는 '헬륨(Helium)', 서버용 아키텍처인 'Neoverse(네오버스)' 등을 보유하고 있다. 최근까지 집계된 Arm 아키텍처 기반 칩의 출하량은 3천100억만개로, 관련 생태계에 합류한 소프트웨어 개발자 수도 2천200만명에 달한다.

2025.05.23 10:17장경윤 기자

"이젠 CPU로도 AI 돌린다"…마이크로소프트, 초경량 AI 모델 '비트넷' 공개

마이크로소프트(MS)가 소형 중앙처리장치(CPU)로 구동되는 고효율 인공지능(AI) 모델을 공개해 주목받고 있다. 17일 테크크런치에 따르면 MS 연구원들은 경량형 AI 모델 '비트넷 b1.58 2B4T'를 개발했다. 비트넷은 AI 구동에 필요한 대용량 그래픽처리장치(GPU) 자원이 아닌 소형 CPU에서 실행할 수 있도록 설계된 압축 모델이다. 애플의 M2와 같은 상용 CPU에서 작동 가능한 것으로 알려졌다. 비트넷은 기존의 거대 AI 모델 대비 메모리 연산 효율을 높인 것이 특징이다. 모델의 내부 구조를 정의하는 값인 가중치를 -1, 0, 1의 세 가지 값으로 양자화하는 방식을 도입해 컴퓨터가 처리할 수 있는 비트 수를 줄여 연산 속도를 높였다. MS 연구진은 "비트넷이 20억 개의 매개변수를 지닌 기존의 AI 모델들보다 성능이 우수하다"고 주장했다. 앞서 MS는 비트넷에 대해 초등학교 수준의 수학 문제를 푸는 'GSM8K'와 물리적 상식 추론 능력을 테스트하는 'PIQA' 등의 자체 벤치마크 테스트를 수행했다. MS는 "자체 테스트에서 비트넷이 메타의 '라마3.2 1B'와 구글의 '젬마3 1B', 알리바바의 '큐원2.5 1.5B'를 능가했다"며 "비트넷은 같은 크기의 다른 모델보다 훨씬 빠르고 메모리 사용량은 더 적다"고 밝혔다. 다만 이같은 성능을 구현하기 위해선 MS의 프레임워크인 '비트넷.CPP'를 활용해야 하는 것으로 전해졌다. 해당 프레임워크는 현재 특정 하드웨어서만 작동 가능한 상황이다. 또 CPU상에서의 실행에 집중돼 있어 AI 인프라 부문에서 가장 큰 비중을 차지하는 GPU에 대해서는 지원하지 않고 있다. 테크크런치는 "비트넷은 컴퓨팅 자원이 제한된 기기에서 유용할 수 있다"며 "하지만 호환성 문제가 앞으로도 가장 큰 걸림돌"이라고 설명했다.

2025.04.17 15:21한정호 기자

인텔, 새 CEO에 '반도체 베테랑' 립부 탄

인텔이 시스템반도체 업계 베테랑인 립부탄(Lip-Bu Tan) 전 케이던스 최고경영자(CEO)를 새로운 리더로 발탁했다. 지난해 말 팻 겔싱어 전 CEO가 사임한 지 약 3개월 만이다. 이로써 인텔은 그간 부진했던 파운드리 사업의 경쟁력 회복에 속도를 낼 것으로 전망된다. 12일 인텔은 립부탄 전 케이던스 CEO를 오는 18일 회사의 신임 CEO로 선임한다고 밝혔다. 탄 CEO는 전 세계 주요 전자설계자동화(EDA) 기업 케이던스에서 근무하며 파운드리 및 시스템반도체와 관련한 많은 경험을 쌓은 인물이다. EDA는 반도체 회로를 설계하고 검증하기 위한 소프트웨어로, 반도체 제조의 필수 요소다. 그는 지난 2022년 인텔 이사회에 합류했으며, 지난해 초에는 인텔 파운드리 사업 자문 위원회 의장으로 추대되기도 했다. 그러나 탄 CEO는 지난해 8월 인텔 이사회를 떠난 바 있다. 당시 파운드리 사업과 인원 감축 등을 추진하던 팻 겔싱어 전임 CEO와 마찰이 있었던 것으로 알려졌다. 프랭크 예리 인텔 이사회 의장은 "탄 CEO는 기술 및 제품에 대한 전문성을 갖추고, 파운드리 생태계 전반에 걸쳐 긴밀한 관계를 쌓아 온 뛰어난 리더"라며 "앞으로의 중요한 성장 기회를 활용하고, 턴어라운드를 가속화하기 위해 노력하는 동안 탄 CEO를 영입하게 돼 기쁘다"고 강조했다. 탄 CEO는 "인텔의 CEO로 합류하게 돼 영광"이라며 "인텔은 강력하고 차별화된 컴퓨팅 플랫폼과 기술 로드맵으로 갈수록 더 강력해지는 제조 기반을 보유하고 있다"고 밝혔다. 또한 탄 CEO는 회사 운영 전략이 바뀔 수 있음을 시사했다. 그는 "고객에게 더 나은 서비스를 제공하고, 주주 가치를 창출하는 방식으로 비즈니스를 재구성할 수 있는 중요한 기회를 보고 있다"고 말했다.

2025.03.13 08:46장경윤 기자

새 엣지 AI 시대 연다...Arm, 초고효율 CPU·플랫폼 공개

Arm이 이전 세대 대비 성능과 전력 효율성을 극대화한 신규 엣지 AI용 칩과 플랫폼을 선보인다. AWS(아마존웹서비스)·지멘스·르네사스 등 다양한 기업들이 주목하는 기술로, 이르면 내년 실제 상용화가 이뤄질 것으로 전망된다. 황선욱 Arm코리아 사장은 27일 서울 중구 더플라자 호텔에서 열린 'Arm 2025 엣지 AI 플랫폼 발표 기자 간담회'에서 신규 AI 엣지 플랫폼에 대해 이같이 밝혔다. 이날 Arm은 10억개 이상의 파라미터로 구성된 AI 모델을 온디바이스에서 실행할 수 있는 Arm Cortex-A320 CPU와, 엣지 AI용 가속기인 'Arm Ethos-U85' NPU를 탑재한 'Armv9 엣지 AI 플랫폼'을 발표했다. Cortex-A320은 Arm CPU 제품군 중에서도 전력효율성을 가장 강조한 모델이다. 이전 제품인 Cortex-A35 대비 머신러닝 성능을 10배 높였다. 또한 스칼라(scalar; CPU의 연산 수행 방식) 성능이 30% 향상됐다. 또한 고급 보안 기능을 신규 추가했다. Arm은 Cortex-A320과 트랜스포머 네트워크에 대한 운영자 지원 기능을 갖춘 Ethos-U85 NPU를 결합해, IoT에 최적화된 세계 최초의 Armv9 엣지 AI 플랫폼을 공개했다. 'Cortex-M85' 기반의 이전 플랫폼 대비 머신러닝 성능이 8배 향상된 것이 가장 큰 특징이다. 또한 이전 세대 대비 최대 메모리 지원량을 늘려, 고성능 LPDDR(저전력 D램)을 보다 유연하게 활용할 수 있을 것으로 기대된다. 황 사장은 "엣지 AI 모델이 복잡해지면서 더 높은 성능과 전력효율성을 갖춘 플랫폼에 대한 수요가 커지고 있다"며 "이에 다양한 엣지 AI 분야의 OEM, 반도체 기업들이 Cortex-A320으로 사업을 전개하려고 하고 있다"고 밝혔다. 실제로 이번 Arm의 신규 엣지 AI 플랫폼에 AWS, 지멘스, 르네사스, 어드밴텍, 유로테크 등이 관심을 가지고 있는 것으로 알려졌다. 실제 상용화 사례는 이르면 내년 확인할 수 있을 전망이다. 정성훈 Arm코리아 FAE 디렉터는 "고객사의 자세한 일정을 논할 수는 없으나, 오는 2026년 고객사가 Cortex-A320를 기반으로 한 칩을 출시할 것으로 예상된다"고 밝혔다.

2025.02.27 14:26장경윤 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

미·이란 종전협상 결렬...밴스 "핵 포기 확약 못받아"

LGU+, 내일부터 유심 업데이트-무료 교체

'미토스'에 미 백안관도 "사이버보안 비상"

하나만 잘해선 안 된다…AI 열풍에 ‘하이브리드’ 인재 각광

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.