• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'CPU'통합검색 결과 입니다. (29건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

에이디테크놀로지, 2029년 매출 1.1조원 정조준…"마벨·브로드컴 모델로 진화"

"수동적으로 고객 설계를 기다리던 과거의 디자인 서비스(DSP)에서 벗어나, 마벨이나 브로드컴처럼 특정 애플리케이션에 맞는 독자 IP와 아키텍처를 시장에 먼저 제안하고 기술을 리딩하는 기업으로 거듭나겠습니다." 박준규 에이디테크놀로지 대표는 7일 성남 판교 기회발전소에서 열린 기자간담회에서 회사의 미래 비전에 대해 이같이 밝혔다. 단순 반도체 설계 지원을 넘어 커스텀 CPU(중앙처리장치)를 기반으로 한 시스템 설계역량을 앞세워 시장을 선도하는 기업 형태로 사업구조를 바꾸겠다는 계획이다. 오는 2029년 매출 목표는 1조1000억원이다. 지난해 매출(1645억원)의 6.7배다. 비즈니스 모델 전환 적중… 지난해 흑자 전환 달성 에이디테크놀로지는 고부가가치 및 양산 과제 중심으로 사업구조를 재편하며 지난해 흑자 전환했다. 지난해 영업이익은 28억5000만원이다. 매출은 1645억원으로 전년비 54.4% 성장했다. 당기순이익은 34억3000만원을 달성하며 2년 연속 적자에서 벗어났다. 매출총이익률(GPM)은 전년비 8.2%포인트(p) 상승했다. 이는 기술 진입장벽이 높은 선단공정 중심 수주와 함께, 초기 기획부터 최종 양산까지 전 과정을 아우르는 턴키(Turn-key) 솔루션 비중을 확대한 결과다. 개발로만 끝나는 단발성 과제를 지양하고 장기 수익 창출이 가능한 턴키 프로젝트 비중을 끌어올린 점이 이익 창출 기반이 됐다. 회사는 이미 확보한 수주를 바탕으로 올해 3000억원, 2027년 4000억원 등 연 매출을 기록할 것으로 전망했다. 2나노 차세대 플랫폼 'ADP 620', 미국 '케니'와 선행 협력 매출 1조원 고지를 밟기 위한 핵심 무기는 삼성전자 2nm(나노미터, 10억분의 1m) 선단 공정 기반의 차세대 커스텀 CPU 플랫폼 'ADP 620'이다. 이 플랫폼은 엔비디아 등이 장악한 거대 클라우드 시장 대신, 전력 효율과 맞춤형 설계가 필수인 엣지 인프라와 소버린 AI 시장을 정조준한다. ADP 620은 ARM의 '네오버스(Neoverse) V3' 아키텍처를 탑재한다. 2.5D 패키징 기술을 활용해 AI 가속기 등을 칩렛 형태로 결합할 수 있는 구조다. 회사는 이전 세대 플랫폼을 통해 쌓은 860건 설계 경험과 170건 이상 선단공정 협력 레퍼런스를 바탕으로 독보적 플랫폼을 구축했다. 플랫폼 양산을 위한 첫 대형 프로젝트 파트너로 북미 AI 통신망 특화 팹리스 케니가 낙점됐다. 에이디테크놀로지의 커스텀 CPU와 케니의 네트워크 제어 유닛, AI 가속기를 하나의 칩렛으로 통합해 기지국 트래픽 관리와 AI 연산을 동시 처리하는 설계다. 이를 통해 에너지 효율을 기존 대비 15배가량 높일 수 있으며, 내년 2분기 테이프아웃(설계완료)을 목표로 속도를 내고 있다. 당초 ADP 620 파트너로 언급됐던 리벨리온의 NPU 우선 적용은 다소 밀렸다. 리벨리온이 기존에 개발한 가속기 칩 양산과 상장 준비 등 당면 과제에 역량을 집중하고 있기 때문이다. 대신 에이디테크놀로지는 리벨리온과 현재 세대 이후 대규모 모델을 다루는 다음 세대 가속기 적용을 놓고 기술을 검토하고 있다. 박 대표는 "작년 2025년은 그간 치열하게 다진 기술적 기틀이 대형 프로젝트 성과로 연결되며 설계 전문성을 입증한 변곡점이었다"며 "단순 디자인 설계를 넘어 최적 아키텍처를 선제 제안하는 주도적 파트너로서, 글로벌 시장 내 대체 불가능한 설계 자산으로 독보적 위상을 선점하겠다"고 강조했다.

2026.04.07 15:25전화평 기자

Arm, AGI CPU 시연 "저전력·고성능으로 효율 극대화"

[샌프란시스코(미국)=권봉석 기자] Arm은 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 데이터센터용 IP(지적재산권) '네오버스'를 활용한 자체 개발 제품 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스 v3'를 활용해 설계된 첫 완제품이다. AGI CPU는 68개 코어로 구성된 다이 2개를 연결해 최대 136개 코어로 작동하며 코어당 2MB 용량 L2 캐시를 더했다. 공랭식 36kW(킬로와트)급 랙에는 최대 8160개 코어 구성이 가능하며 수랭식 200kW급 랙에는 최대 4만 5696 코어 탑재가 가능하다. 오후에 아태지역 기자단 대상으로 진행된 시연에서는 AGI CPU를 AI 워크로드 전반을 조율하는 장치로 활용하고 NPU·GPU 등 가속기와 결합하는 하이브리드 AI 아키텍처를 제시했다. 이날 Arm 관계자는 영상 변환과 추론을 동시에 수행하는 시나리오를 전제로 "기존 x86 프로세서는 최대 성능으로 작동시 성능 저하가 발생해 영상 처리시 버퍼링이 발생한다. 반면 Arm AGI CPU는 초당 30프레임으로 영상을 변환해 버퍼링 없는 영상 처리를 수행할 수 있다."고 설명했다. 이어 "기존 CPU는 전력 소모가 커서 냉각을 위해 2U 단위 큰 부피를 차지하며 한 랙에 넣을 수 있는 서버 수도 제한된다. 반면 AGI CPU는 1U 서버에서도 공랭이 가능하기 때문에 더 작은 폼팩터로 더 많은 서버를 랙에 배치할 수 있다"고 설명했다. SAP AI 모델 기반 시연에서는 CPU의 역할 변화가 구체적으로 제시됐다. 시연을 진행한 Arm 관계자는 "라우터, 링커, 검증기, 스코어러 등 다수의 에이전트가 협업해 리스크를 평가하는 작업은 기존에 많은 시간이 걸렸지만 AGI CPU는 이를 수 시간으로 단축할 수 있다"고 밝혔다. 고객 서비스 자동화 시연은 이메일을 자동으로 분류하고 고객에게 직접 전화를 거는 8개 에이전틱 AI가 동시 실행되는 환경을 보여줬다. 대부분의 에이전트는 AGI CPU에서 실행되며 복잡한 추론은 국내 AI 스타트업인 리벨리온 NPU 가속기를 활용했다. Arm 관계자는 "AGI CPU를 기반으로 필요할 경우 외부 가속기를 유연하게 통합 가능하며 이를 활용해 각종 이메일을 기존 대비 두 배 이상의 속도로 처리할 수 있다"고 설명했다. Arm은 기존 x86 서버 기반으로 작성된 코드를 Arm 기반으로 변환하기 위한 도구도 함께 시연했다. AI 에이전트가 기존 코드와 컨테이너를 분석해 자동으로 수정하는 한편 성능이 저하되는 병목구간에서 Arm AI 가속 명령어인 SVE를 적용해 추가 최적화를 지원한다. 전자설계자동화(EDA) 워크로드 시연에서는 실제 반도체 설계 환경 활용 사례를 보였다. AGI CPU에 내장된 최대 136개 코어를 활용해 더 많은 작업을 짧은 시간에 소화해 개발 단계를 단축할 수 있다. Arm 관계자는 "기존에는 지멘스나 시높시스 솔루션을 클라우드에서 활용해야 했지만 AGI CPU를 활용하면 시뮬레이션과 전력 분석 등 메모리 집약적 작업을 온프레미스 환경에서수행할 수 있다"고 밝혔다.

2026.03.25 16:18권봉석 기자

르네 하스 Arm CEO "IP·CSS에 새 선택지인 AGI CPU 추가"

[샌프란시스코(미국)=권봉석 기자] "CPU와 AI는 어디에나 존재하며, Arm은 이를 위한 선택권과 기술 기반을 제공한다. 오늘 공개한 Arm AGI CPU는 AI 시대 데이터센터 혁신의 중심이 될 것이다." 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사장에서 각국 기자단과 마주한 르네 하스 Arm CEO가 강조한 메시지다. 이날 Arm은 코드명 '피닉스(Phoenix)'로 개발해 오던 CPU 완제품 'AGI CPU'를 공개하는 한편, 반도체 지적재산권(IP)만 공급하던 과거 비즈니스 모델에서 서버용 프로세서 완제품까지 공급하는 모델로 전환을 선언했다. "AGI CPU, 고객사 요청으로 개발 시작" 르네 하스 CEO는 이날 고객사 요청으로 AGI CPU 개발을 시작했다고 설명하고 "2년 전부터 시작한 시스템반도체 프레임워크인 '컴퓨트서브시스템(CSS)'을 이용해 복잡한 반도체를 빠른 시간 안에 개발할 수 있었다"고 말했다. 이어 "AGI CPU라는 이름도 'AI 에브리웨어'와 'CPU의 필수성'을 결합한 전략적 의미를 담고 있다. 기술 트렌드와 시장 요구사항을 동시에 반영했다"고 덧붙였다. 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 AGI CPU 개발 의미에 대해 "Arm의 강점은 고객 맞춤형 포트폴리오 제공으로 소프트웨어 생태계를 강화하고 시장 기회를 확대하는 것"이라고 설명했다. "네오버스 기반 S/W, AGI CPU와 호환성 확보" AGI CPU는 GPU와 각종 가속기를 CPU로 연결하는 인터페이스에 PCI 익스프레스 6.0을 활용했다. 모하메드 아와드 수석부사장은 "이는 현 세대 표준에서 최적의 선택이었다. 엔비디아 규격인 NV링크도 CSS 기반으로 적용 가능하며 향후 지원을 검토중"이라고 설명했다. CPU 코어 한 개를 두 개처럼 활용하는 동시멀티스레딩(SMT) 기술을 쓰지 않은 이유에 대해 "에이전틱 AI는 메모리와 입출력 대역폭 최적화가 중요하며 SMT는 오히려 성능을 하락시킬 수 있다"고 설명했다. 그는 "클라우드 환경에서 네오버스 기반으로 개발된 소프트웨어는 별도 작업 없이 AGI CPU에서 활용 가능하다"며, AGI CPU와 기존 네오버스 아키텍처 호환성이 개발자와 소프트웨어 생태계에 높은 호환성과 유연성을 제공한다고 설명했다. "AGI CPU, 기존 제품과 직접 경쟁하지 않을 것" 구글 클라우드, 아마존웹서비스, 마이크로소프트는 네오버스 CSS를 활용해 각자 자사 프로세서를 만들고 있다. 모하메드 아와드 수석부사장은 "데이터센터 시장은 크고 맞춤형 제품에 대한 수요가 크다. Arm AGI CPU는 기존 제품과 직접 경쟁하지 않는다"고 설명했다. 그는 저전력·고효율 E(에피션트)코어를 최대 288개 넣은 인텔 제온6+(클리어워터포레스트) 등 기존 x86 서버용 프로세서 대비 AGI CPU가 우위에 있다고 주장했다. "경쟁사 제품은 CPU 코어 수 향상에 집중했지만 AGI CPU는 메모리 대역폭과 전체 시스템 아키텍처 최적화를 중심으로 설계됐다." "고객사에 다양한 선택지 제공해 시장 확장할 것" 르네 하스 CEO는 "AGI CPU를 포함해 엣지부터 클라우드까지 아우르는 Arm의 포지션을 기반으로 2030년까지 최대 1조 달러(약 1497조원) 규모 시장 기회가 있을 것"이라고 설명했다. 이어 "고객사가 필요에 따라 IP, CSS, AGI CPU를 자유롭게 선택할 수 있으며 단일 고객에 국한되지 않고 다양한 맞춤형 제품으로 시장을 확장할 계획"이라고 덧붙였다.

2026.03.25 10:29권봉석 기자

SK텔레콤 "Arm AGI CPU 활용 AI 데이터센터 사업 확장"

[샌프란시스코(미국)=권봉석 기자] SK텔레콤이 24일(현지시간) Arm AGI CPU와 리벨리온 AI 가속기를 활용해 AI 데이터센터 인프라 사업을 확장하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 기조연설에서 에이전틱 AI 추론 처리에 특화된 CPU 완제품 첫 제품인 'AGI CPU'를 공개했다. 정석근 SK텔레콤 최고기술책임자(CTO)는 이날 영상메시지에서 "SK텔레콤은 Arm AGI CPU와 리벨리온 AI 가속기 칩을 포함한 대규모 풀스택 AI 추론 데이터센터 인프라로 사업을 확장할 것"이라고 설명했다. 이어 "자체 개발한 소버린 AI 'A.X' 파운데이션 모델과 추론 최적화 AI 서버를 결합함으로써, 이를 글로벌 시장에 제공하기 위한 준비를 완료함과 동시에 AI 데이터센터(AIDC) 경쟁력을 한층 강화하고 있다"고 덧붙였다. 이날 현장에서 만난 리벨리온 관계자는 "에이전틱 AI는 CPU 효율이 매우 중요하며 NPU 가속기를 단순히 결합하는 것이 아니라 시스템 차원 통합의 필요성이 크다"고 설명했다. 이어 "올 하반기부터 리벨리온 NPU와 Arm AGI CPU를 결합한 솔루션을 바탕으로 SK텔레콤과 벤치마킹을 진행할 예정이며 구체적인 일정은 Arm AGI CPU 기반 서버 공급업체와 논의중"이라고 덧붙였다. 이 관계자는 "에이전틱 AI로 인해 추론 시장 확장이 예상되며 리벨리온은 Arm 글로벌 파트너사로 Arm의 네트워크를 활용해 SK텔레콤을 시작으로 추후 다른 고객사까지 솔루션 보급 확대를 계획중"이라고 밝혔다.

2026.03.25 09:40권봉석 기자

삼성전자·SK하이닉스 "Arm과 함께 AGI CPU 생태계 구축"

[샌프란시스코(미국)=권봉석 기자] 삼성전자와 SK하이닉스 등 국내 메모리 반도체 선두기업이 24일(현지시간) Arm과 협력해 AI 생태계 확대를 지원하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 완제품 CPU 첫 제품인 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스'를 활용해 설계된 첫 완제품 CPU다. 메모리는 DDR5-8800까지 지원하며 메모리 대역폭은 코어당 최대 6GB/s로 지연시간을 최소화했다. 이날 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 "AGI CPU는 주요 메모리 제조사와 협업 없이 구현이 불가능했다"고 설명했다. 전영현 삼성전자 DS부문장(부회장)은 영상 메시지에서 "AI 워크로드가 증가함에 따라, 성능 향상은 로직, 메모리, 첨단 패키징 기술 전반에 걸친 긴밀한 공동 최적화에 더욱 크게 좌우된다"고 밝혔다. 이어 "Arm AGI CPU와 같은 목적에 맞게 설계된 AI 컴퓨팅 플랫폼은 실리콘 설계, 메모리 통합, 첨단 공정 기술을 활용한 제조 혁신 전반에서 보다 긴밀한 협력을 가능하게 한다. 이는 AI 에코시스템에 있어 중요한 이정표가 될 것"이라고 덧붙였다. 곽노정 SK하이닉스 사장은 "AI 데이터센터가 발전함에 따라, AI 워크로드에 최적화된 플랫폼에는 최신 애플리케이션에 필요한 용량과 대역폭을 제공하는 첨단 메모리 기술이 필수적"이라고 밝혔다. 이어 "Arm AGI CPU를 통한 목적에 맞게 설계된 AI 컴퓨팅의 도입은 에코시스템에 있어 중요한 이정표가 될 것이다. 앞으로도 차세대 AI 인프라 발전을 위한 Arm과 파트너십이 지속되길 기대한다"고 말했다.

2026.03.25 09:03권봉석 기자

Arm "에이전틱 AI 시대, CPU 중요성 더 커진다"

[샌프란시스코(미국)=권봉석 기자] "현재 AI 인프라 관련 관심사가 GPU에 집중됐다. CPU가 상대적으로 주목을 덜 받고 있지만 CPU와 GPU는 상호 보완 관계에 있다. AI의 발전과 에이전틱 AI 등장으로 앞으로 CPU의 역할은 줄어드는 것이 아니라 오히려 더 커질 것이다." 24일(현지시간) 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 르네 하스 Arm CEO가 이렇게 강조했다. Arm은 이날 행사에서 코드명 '피닉스(Phoenix)'로 개발해 오던 CPU 완제품 'AGI CPU'를 공개하는 한편, 반도체 지적재산권(IP)만 공급하던 과거 비즈니스 모델에서 서버용 프로세서 완제품까지 공급하는 모델로 전환을 선언했다. 르네 하스 Arm CEO는 "AI가 고도화될수록 연산 자체보다 이를 조직하고 처리하는 과정이 더 중요해진다”며, GPU 중심으로 인식되던 AI 컴퓨팅 구조에서 CPU의 역할이 다시 부각되고 있다고 덧붙였다. "소프트뱅크 Arm 인수 이후 포트폴리오 확장" 르네 하스 Arm CEO는 "지금까지 출하된 Arm 기반 반도체는 3500억 개 이상이며 이는 지금까지 지구에 존재했던 전체 인구의 약 세 배에 달하는 수준이다. 또 전세계 가구당 평균 약 160개의 Arm 반도체가 쓰이고 있다"고 설명했다. 르네 하스 CEO는 Arm이 극적인 변화를 겪게 된 시점을 일본 소프트뱅크 피인수 시점인 2016년으로 짚었다. "인수 이후 플랫폼을 각 산업별(버티컬)로 확장했고 스마트폰을 벗어나 클라우드, 사물인터넷(IoT)로 확장했다." 이어 이런 Arm의 성장 기반으로 '생태계'를 강조했다. 그는 "30년 이상 축적된 저전력 설계 기술과 글로벌 파트너십이 오늘날 Arm의 경쟁력을 만든 핵심"이라고 말했다. "에이전트 부하 감당 위한 CPU 역할 더 커질 것" 르네 하스 CEO는 "업계 일각에서는 CPU의 시대가 지났고 AI는 GPU 등을 활용한 '가속 컴퓨팅'으로만 처리된다는 시각이 확산됐지만 이는 지나친 단순화다. AI 등장 이전 클라우드 환경이 CPU 중심으로 움직였던 것처럼, CPU의 역할은 더 커졌다"고 지적했다. 이어 "오늘날 사용자가 PC나 스마트폰에서 프롬프트를 입력하면, 가속기가 토큰을 생성하더라도 이를 요청·분배·조율하고 결과를 다시 사용자에게 전달하는 과정은 CPU가 담당한다"고 덧붙였다. 르네 하스 CEO는 "에이전트는 인간보다 빠르게, 그리고 24시간 지속적으로 요청을 생성하며 데이터센터에 부하를 가한다"며 CPU의 역할이 더 커질 것으로 전망했다. "AGI CPU, 기존 CPU 한계 극복 위한 새로운 제품" 이날 Arm은 주요 클라우드서비스공급자(CSP) 등에 공급하던 데이터센터용 CPU IP인 '네오버스'를 기반으로 한 'AGI CPU'도 공개했다(관련기사 참조). 르네 하스 CEO는 "Arm 자체 전망에 따르면 앞으로 1GW 데이터센터 당 최대 1200만 개의 CPU가 필요하다. 이처럼 CPU 수요는 커지는 반면 가용 전력과 공간이 제약된 데이터센터에서 이를 확대하기는 쉽지 않다"고 설명했다. 이어 "AGI CPU는 지금까지 등장한 서버용 CPU가 안고 있는 한계를 극복하기 위해 처음부터 새롭게 설계된 제품"이라고 설명했다. 메타·오픈AI, AGI CPU 고객사로 참여 메타는 Arm AGI CPU 최초 고객사이자 공동 개발 파트너다. 오픈AI는 AGI CPU 초기 도입 고객사로 참여했다. 이날 산토시 자나단 메타 인프라 책임자는 "급증하는 AI 수요와 데이터센터 확장 과정에서 전력·효율·성능을 동시에 해결할 필요성이 커졌으며, 이를 위해 Arm과 긴밀히 협력해 새로운 CPU 설계에 직접 관여했다"고 설명했다. 케빈 웨일 오픈AI 최고제품책임자는 "오픈AI는 AI 모델 고도화와 서비스 확장 과정에서 만성적인 컴퓨팅 부족 문제를 겪고 있으며, 특히 제한된 전력 환경에서 더 많은 연산을 수행해야 하는 과제에 직면해 있다"고 설명했다. "데이터센터 부문, 향후 149조 규모 시장 열 것" 르네 하스 CEO는 기조연설 말미에 AGI CPU를 통한 시장 확대 가능성과 매출 성장에 대한 구체적인 전망도 제시했다. 그는 "현재 Arm의 AI 데이터센터 관련 사업이 약 300억 달러(약 44조 9100억원) 규모이며 AGI CPU를 통해 향후 약 1000억 달러(149조 7000억원) 수준의 시장 기회가 열릴 것"이라고 전망했다. 이어 "엣지부터 클라우드까지 아우르는 Arm의 포지션을 기반으로 2030년까지 최대 1조 달러(약 1497조원) 규모 시장으로 확장 가능하다"고 강조했다.

2026.03.25 08:43권봉석 기자

Arm, 서버용 CPU 공급 나선다...에이전틱 AI 겨냥 'AGI CPU' 공개

[샌프란시스코(미국)=권봉석 기자] 영국 반도체 지적재산권(IP) 기업 Arm이 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 에이전틱 AI에 최적화된 CPU 완제품인 'Arm AGI CPU'를 공개했다. 이날 기조연설에서 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 "에이전틱 AI가 등장하면서 다양한 에이전트와 데이터를 주고 받고 서버 내 작업을 조율하는 CPU의 역할이 커지고 있다"고 설명했다. 이어 "AGI CPU는 성능과 확장성, 효율성 등 3개 요소를 염두에 두고 처음부터 에이전틱 AI를 위해 설계됐다"고 덧붙였다. TSMC 3나노 기반 최대 136개 Arm 코어 탑재 AGI CPU는 Arm이 팹리스와 클라우드서비스공급자(CSP), 하이퍼스케일러에 공급하는 CPU IP인 네오버스 v3 기반으로 설계됐다. 68개 코어로 구성된 다이 2개를 연결해 최대 136개 코어로 작동하며 코어당 2MB 용량 L2 캐시를 더했다. 메모리는 DDR5-8800까지 지원하며 메모리 대역폭은 코어당 최대 6GB/s로 지연시간을 최소화했다. 또 각종 가속기와 GPU 사이에 최대 성능을 낼 수 있도록 최신 규격인 PCI 익스프레스 6.0 레인(lane, 데이터 전송 통로)을 96개 내장했다. CPU 다이 생산에는 대만 TSMC 3나노급 공정을 이용한다. 이날 현장에서 만난 Arm 관계자는 "TSMC 3나노급 중 어떤 공정을 이용하는지는 구체적으로 밝힐 수 없다"고 답했다. 공랭식 36kW(킬로와트)급 랙에는 최대 8160개 코어 구성이 가능하며 수랭식 200kW급 랙에는 최대 4만 5696 코어 탑재가 가능하다. "AGI CPU, 지속 성능과 효율에서 x86 대비 우위" 이날 Arm은 인텔과 AMD 등 기존 x86 기반 서버용 프로세서 대비 AGI CPU가 대역폭과 전력 소모 등에서 더 많은 이점을 가지고 있다고 강조했다. 모하메드 아와드 Arm 수석부사장은 "기존 x86 프로세서는 작동 클록을 올리는 방식으로 성능을 강화했지만 전력 소모도 증가한다. 또 한 코어를 두 개처럼 쓰는 SMT 기술을 활용해도 메모리 대역폭 등 병목현상으로 실제 성능 향상은 크지 않다"고 지적했다. 이어 자체 예측 결과를 바탕으로 "AGI CPU는 장시간 지속 성능과 전력 효율, 랙당 지속 성능 등 3개 지표에서 x86 프로세서 대비 1.7배 이상 우위에 있는 킬러 제품"이라고 자평했다. 레노버, 슈퍼마이크로 등 주요 서버 제조사는 Arm AGI CPU 기반 서버를 시장에 공급 예정이다. 또 메타와 오픈AI 등 클라우드 관련 업체도 AGI CPU를 자사 AI 인프라에 도입하겠다고 밝혔다. 국내에서는 SK텔레콤과 리벨리온이 AGI CPU를 도입할 예정이다. 르네 하스 Arm CEO는 "오늘 공개한 AGI CPU를 시작으로 내년에는 차세대 제품인 'AGI CPU 2', 또 이 프로세서의 기반이 되는 네오버스 CSS V4 등 후속 제품을 지속적으로 투입할 예정"이라고 밝혔다.

2026.03.25 06:57권봉석 기자

엔비디아, 메타에 AI칩 수백만개 공급 예정…장기 파트너십 체결

엔비디아가 글로벌 주요 클라우드서비스제공자(CSP) 메타와 장기간·대규모 AI 반도체 공급에 대한 계약을 체결했다. 17일(현지시간) 엔비디아는 메타와 온프레미스, 클라우드 및 AI 인프라에 대한 다년간의 전략적 파트너십을 맺었다고 밝혔다. 이번 협력으로 엔비디아는 메타에 수백만 개의 '블랙웰' 및 '루빈' GPU를 공급할 예정이다. 해당 GPU는 AI 데이터센터에 필요한 초고성능 칩이다. 특히 루빈의 경우, 올해 본격적인 상용화가 예상된다. 또한 메타는 자사 데이터센터에 엔비디아의 그레이스 CPU를 단독으로 도입하기로 했다. 주요 CSP 기업 중 엔비디아의 그레이스 CPU만을 채용한 사례는 이번이 처음이다. 그간 메타는 Arm 기반의 CPU를 자사 AI칩의 보조 프로세서로 활용해 왔다. 이와 관련해 로이터통신은 "고객사향 매출을 공개한 적은 없지만, 메타는 엔비디아의 최근 분기 매출의 61%를 차지하는 4대 CSP 중 하나"라며 "엔비디아가 이번 계약을 강조한 것은 메타와의 대규모 사업 관계 유지와 CPU 시장에서의 입지 강화를 보여주기 위한 것"이라고 평가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "엔비디아는 CPU, GPU, 네트워킹 및 소프트웨어 전반에 걸친 심층적인 공동 설계로 메타가 차세대 AI 인프라를 구축하는 데 필요한 모든 플랫폼을 제공할 것"이라고 말했다. 마크 저커버크 메타 CEO는 "엔비디아와의 파트너십 확대로 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축하고, 전 세계 모든 사람에게 맞춤형 인공지능을 제공하게 돼 기쁘다"고 밝혔다.

2026.02.18 10:10장경윤 기자

카카오, 구글과 협력…차세대 AI 경험 선보인다

카카오가 차세대 인공지능(AI) 경험을 제공하고자 구글과 손 잡는다. 정신아 카카오 대표는 12일 지난해 4분기 실적 발표 컨퍼런스 콜에서 "올해부터 자사가 더 집중하고자 하는 디바이스 측면에서 차세대 AI 경험을 선보이기 위해 글로벌 협업을 본격적으로 시작하기로 합의했다"고 말했다. 이번 파트너십의 출발점으로 카카오는 자사 온디바이스 AI 서비스를 고도화하기 위해 구글 안드로이드와 협업을 시작한다. 안드로이드 개발팀과 직접 협업한다. 여기에 카카오는 AI 인프라에 대한 재무적 부담이 점진적으로 증가하고 있다는 점을 고려해 그래픽처리장치(GPU)에서 나아가 다양한 칩 라인업을 모델과 서비스별로 최적화해 배치함으로써 자본 효율적인 방식으로 AI 인프라를 강화하는 방안을 고민한다. 또 카카오는 구글클라우드와의 유의미한 규모의 중앙처리장치(CPU) 클라우드 운영에 대한 논의도 진행 중이다. 카카오는 향후 출시될 구글 AI 글래스에서의 협업에도 착수한다. 정 대표는 "앞으로 다양한 AI 폼팩터 환경에서 카카오 서비스가 더해질 때 이용자 경험이 어떻게 달라질 수 있을지에 대한 가설을 세우고 이를 바탕으로 하나씩 실험하며 새로운 AI 사용 경험을 만들어 가고자 한다"고 덧붙였다.

2026.02.12 09:32박서린 기자

양자 보안 시대, NPU가 핵심 인프라로 떠오르는 이유

양자컴퓨터 시대를 대비한 양자내성암호(PQC) 전환이 본격화되면서, NPU(신경망처리장치)가 차세대 보안 인프라의 핵심 요소로 부상하고 있다. NPU가 PQC 연산을 직접 수행하는 것은 아니지만, PQC 도입으로 증가하는 시스템 부담을 흡수하는 역할을 맡으면서 존재감이 커지고 있다는 평가다. PQC는 기존 암호 체계를 대체하는 차세대 보안 기술로, 양자컴퓨터 환경에서도 안전성을 유지하는 것을 목표로 한다. 그러나 PQC는 대규모 행렬·다항식 연산을 요구해 연산량과 전력 소모가 크게 늘어나게 된다. 이로 인해 인증, 통신, 업데이트 과정에서 CPU 부담이 증가한다. 특히 엣지 디바이스 환경에서는 성능 저하와 지연이 문제로 지적된다. PQC 도입이 만든 시스템 부담 30일 반도체 업계에서는 PQC로의 전환을 단순한 암호 알고리즘 교체가 아니라 시스템 설계 전반의 문제로 보고 있다. 연산량 증가로 인한 CPU 병목을 어떻게 완화하느냐가 PQC 도입의 현실성을 좌우한다는 분석이다. PQC를 위한 암호 연산 자체는 여전히 CPU와 HSM(하드웨어 보안 모듈), TPM(하드웨어 기반 보안 칩) 등 보안 영역에서 수행된다. 신뢰 경계와 보안 요구사항 때문이다. NPU가 PQC 연산을 직접 처리하는 구조는 아닌 셈이다. 문제는 PQC 도입으로 인해 CPU에 연산이 집중된다는 점이다. 이를 그대로 둘 경우 시스템 전체의 효율과 안정성이 급격히 떨어질 수 있다. 이 때문에 업계에서는 PQC 전환 과정에서 연산 부하를 분산할 수 있는 구조가 필요하다는 지적이 나온다. NPU, 연산을 대신하지 않고 부담을 나눈다 이 과정에서 NPU의 역할이 부각되고 있다. NPU는 AI 추론을 위해 설계된 가속기로, 저지연과 전력 효율이라는 구조적 강점을 갖는다. 김현호 AMD 재팬 연구원은 “NPU의 가치는 단순한 성능 수치보다 저지연과 전력 효율에 있다”며 “PQC처럼 시스템 전반의 연산 부담을 키우는 기술이 도입될수록 이런 특성이 더욱 중요해진다”고 설명했다. NPU는 AI·데이터 처리 등 기존 CPU 워크로드 일부를 오프로딩함으로써 CPU가 암호 연산에 집중할 수 있는 여유를 만든다. 오프로딩은 CPU 부담을 다른 가속기로 분산하는 구조를 의미한다. 김 연구원은 “NPU가 PQC 연산을 직접 수행하는 것은 아니지만, 그 과정에서 발생하는 유사한 연산 부담을 분산시켜 시스템 차원에서 PQC를 가능하게 한다”고 말했다. 업계에서는 PQC 연산과 NPU 연산이 구조적으로 유사한 점이 많지만 완전히 동일하지는 않다고 보고 있다. 이로 인해 NPU의 역할이 단순화돼 전달되는 경우도 있었지만, 시스템 관점에서 보면 PQC 전환 흐름 속에서 NPU가 자연스럽게 핵심 인프라로 자리 잡고 있다는 분석이 나오는 이유다. 다만 국내 업계에서는 보다 신중한 시각도 제기된다. NPU가 PQC 구현의 중심으로 보기에는 다소 이르다는 의견이다. 오히려 PQC 병목 해결의 현실적인 방법으로 NTT(Number Theoretic Transform) 최적화를 제시했다. 국내 팹리스 ICTK 관계자는 “PQC 성능의 핵심 병목은 여전히 다항식 연산, 특히 NTT 최적화에 있다”며 “현재로서는 CPU와 전용 암호 가속기를 중심으로 성능을 끌어올리는 접근이 가장 현실적”이라고 말했다. 이어 “NPU는 시스템 부하 완화 측면에서 의미가 있지만, PQC 구현의 중심 축으로 보기는 이르다”고 덧붙였다.

2025.12.31 09:09전화평 기자

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평 기자

나인랩스, 시리즈 A 30억원 규모 투자 유치

데이터센터 및 AI 서버용 열관리 전문기업 나인랩스는 4일 대형 증권사와 벤처캐피털을 통해 30억원 규모 시리즈 A 투자를 유치했다고 밝혔다. 나인랩스는 카본 3D 프린터 시스템과 시제품 제작 사업을 중심으로 한 정밀공정 전문 기업이다. 최근에는 설계·가공 역량을 바탕으로 데이터센터와 고성능 서버용 반도체 직접냉각(D2C) 방식 액체냉각 솔루션으로 포트폴리오를 확장했다. 나인랩스 D2C 액체냉각 솔루션은 고성능 작동시 높은 열을 내는 CPU·GPU 표면에 냉각부를 직접 접촉시켜 구동된다. 기존 공랭식 간접냉각 대비 열전달 효율이 높고 소비 에너지를 줄이는 효과가 있으며 고집적·고전력 서버 환경에서 안정적으로 발열을 관리해 AI·고성능 컴퓨팅(HPC) 서버 인프라 핵심 기술로 꼽힌다. 주요 시장조사업체에 따르면 글로벌 액체냉각 시장은 AI 서버 전환 가속화에 따라 향후 5년간 연평균 25% 이상 성장할 것으로 기대된다. 주요 클라우드 및 통신사들도 D2C 등 액체냉각 기술 도입을 활발하게 검토중이다. 나인랩스는 이번에 유치한 30억원을 이용해 콜드플레이트, 소형 매니폴드, UQD 등 D2C 액체냉각 솔루션 핵심 부품의 설계 고도화와 양산 체계 구축에 나설 예정이다. 또 국내외 데이터센터/서버 사업자와 기술검증 협력 프로젝트도 확대한다. 박성호 나인랩스 대표이사는 "이번 30억원 규모 시리즈 A 투자 유치는 나인랩스의 기술 완성도와 글로벌 시장 성장 가능성을 동시에 인정받은 의미있는 이정표로 향후 고효율·친환경 액체냉각 솔루션을 통해 글로벌 데이터센터 및 AI 인프리 시장에서 새로운 표준을 만들어가겠다"고 밝혔다.

2025.12.04 15:02권봉석 기자

"기존 시설은 제외?"…데이터센터 특별법에 업계 '우려'

정부가 추진 중인 데이터센터 특별법이 신규 시설 중심으로 이뤄질 가능성이 높아지면서 기존 센터 지원은 사실상 제외될 것이라는 우려가 나왔다. 26일 IT 업계에 따르면 그동안 데이터센터가 겪어온 환경 규제와 민원 문제 완화를 위해 해당 특별법이 논의되고 있지만, 실제 법안 구조는 신규 인공지능(AI) 데이터센터에 초점이 맞춰진 것으로 나타났다. 데이터센터 특별법 논의는 지난해 9월 더불어민주당 한민수 의원이 대표 발의한 법안에서 시작됐다. 이 법안은 신설 AI 데이터센터에 필요한 기준과 지원 체계를 구축하겠다는 취지로 발의돼 현재 국회 상임위에서 심사 중이다. 유사한 내용을 담은 더불어민주당 정동영 의원 법안도 같은 시기 발의되면서 두 안건은 병합 논의가 이뤄지고 있다. 다만 두 법안 모두 아직 본회의 문턱을 넘지 못해 제도화 단계까지는 시간이 더 필요하다. 전문가들은 기존 데이터센터가 이런 논의에서 제외되는 이유가 단순히 법안 구조 때문만은 아니라고 지적했다. 김영환 한국전자기술연구원(KETI) 단장은 "기존 데이터센터는 이미 소음과 환경 규제, 전력 인입 제한, 지역 민원 등 여러 문제를 안고 있다"며 "특별법이 시행돼도 체감 변화가 크지 않을 것"이라고 설명했다. 그는 "설비와 입지, 전력 구조가 모두 오래돼 지원 요건을 충족하는 것도 쉽지 않다"고 말했다. 그렇다고 기존 센터를 AI 데이터센터로 전환하는 작업도 사실상 불가능하다는 의견도 나왔다. 기존 센터가 중앙처리장치(CPU) 사용을 전제로 설계돼 랙당 전력밀도와 발열량이 크게 증가하는 AI 서버를 감당하기 어려워서다. 김성윤 테라텍 연구소장은 "GPU 기반 서버에 필요한 고밀도 전력 공급과 액체냉각 시스템을 갖추려면 배전과 냉각 설비를 사실상 처음부터 다시 설치해야 한다"고 설명했다. 김 연구소장은 입지 문제도 걸림돌이라고 지적했다. 그는 "현재 기존 센터는 대부분 도심에 자리하고 있어 전력 인입 확대가 쉽지 않다"며 "소음과 발열로 인한 지역 민원 부담도 여전하다"고 지적했다. 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 "건물 구조나 층고 하중 자체가 고성능 AI 장비를 수용하기엔 한계가 있다"고 말했다. 이어 "기존 센터가 사실상 제외된 정책이 현장에서 혼란을 키울 수 있다"며 "별도 지원 기준이나 전환 프로그램을 마련해야 한다"고 강조했다.

2025.11.26 10:27김미정 기자

AI 데이터센터 CPU-메모리-GPU "光연결 시대 3년내 가능"

국내 연구진이 인공지능(AI) 데이터센터에서 메모리와 가속기 등 핵심 자원을 '빛'으로 자유롭게 연결·분리할 수 있는 기술을 세계 처음 개발하고, 검증하는데 성공했다. 상용화는 3년 내 가능할 것으로 예상했다. 한국전자통신연구원(ETRI)은 광스위치 기반 '데이터센터 자원연결(Optical Disaggregation, OD)'기술을 개발했다고 11일 밝혔다. 이준기 광네트워크연구실장은 "POC(개념검증)를 거쳐 상용화 가능성을 타진하는 검증에 나설 계획"이라며 "특허를 활용한 기술이전이나 허여 등으로 3년 내 상용화가 이루어질 것으로 본다"고 전망했다. 기존 데이터센터는 하나의 서버 안에 CPU, 메모리, 스토리지, 가속기(GPU) 등이 고정적으로 묶여 있는 서버 중심 구조다. 이로 인해 각 서버가 보유한 한정된 자원만 활용 가능하다. 다른 서버는 CPU만 사용하는 등 자원 활용 편차가 커 전체 효율성이 떨어진다. 대부분의 데이터센터는 또 전기 신호 기반 스위치를 사용하기 때문에 데이터 전송 과정에서 수 차례 신호 변환을 하기 때문에 데이터 전송 지연(딜레이)도 발생한다. 이 같은 문제를 연구진은 빛으로 해결했다. 서버 내부 메모리나 가속기가 부족할 경우, 광스위치를 이용해 다른 서버의 자원을 빛의 신호로 즉시 연결하는 OD기술을 개발했다. 이준기 실장은 "AI 학습이나 대규모 데이터 분석처럼 고성능 연산이 필요한 작업에서도 자원을 '필요한 순간, 필요한 만큼' 빠르고 유연하게 연결·분리할 수 있게 됐다"며 "원격 메모리 접속 표준(CXL, Compute Express Link)을 광스위치로 연결한 세계 최초 사례"라고 말했다. 연구진은 또 ETRI가 자체 개발한 CPU 어댑터, 메모리 블레이드, 가속기 블레이드, OD 매니저를 결합한 검증시스템을 구축해 실증에도 성공했다. 실증 결과 프로그램이 추가 자원을 요청하면 광 경로를 자동으로 설정해 필요한 메모리와 가속기를 실시간으로 할당하고, 서비스가 안정적으로 수행되는 것을 확인했다. ETRI는 이번 기술에 적용된 CXL 관련 원천특허를 확보하고, 국내외 특허 47건을 출원했다. 이준기 광네트워크연구실장은 "메모리와 가속기를 효율적으로 공유․활용해 데이터센터 자원 부족 문제를 해소하고, 지속 가능한 미래형 데이터센터로의 전환을 앞당길 중요한 계기가 될 것"으로 전망했다. 연구는 과학기술정보통신부 '광 클라우드 네트워킹 핵심기술 개발'사업의 일환으로 수행됐다.

2025.11.11 13:53박희범 기자

퀄컴, 독자 CPU·NPU로 AI 추론 인프라 도전장...인텔과 맞붙나

퀄컴이 27일(미국 현지시간) AI 시스템반도체(SoC) 2종을 공개하며 내년 데이터센터 시장 재진입을 선언했다. 엔비디아나 AMD처럼 대규모 AI 모델을 훈련시키기 위한 칩이 아니라, 기존 모델 활용을 위한 저전력·고효율 추론용 반도체에 초점을 맞췄다. GPU 중심의 AI 훈련 수요보다 실제 비즈니스 적용 단계에서 요구되는 추론 연산 효율을 극대화해 대안을 제시하겠다는 것이다. 이런 접근 방식으로 AI PC 분야는 물론 최근 AI 추론 시장 확장에 나선 인텔과 경쟁 심화를 피할 수 없게 됐다. GPU 기반 모델 훈련 시장에서는 엔비디아가 압도적인 우위를 점하고 있는 만큼, 퀄컴과 인텔 모두 저전력·고효율을 내세운 '추론 최적화' 반도체 시장을 차세대 성장 영역으로 지목하고 있다. 퀄컴, 누비아 인수 2년만에 새 CPU '오라이온' 투입 퀄컴이 2021년 인수한 반도체 스타트업 누비아(Nubia)는 본래 Arm IP(지적재산권)를 활용해 데이터센터용 고성능 CPU '피닉스(Phoenix)'를 개발하던 회사였다. 퀄컴은 누비아 인수 이후 해당 기술을 흡수해 자사 CPU 설계 역량을 강화했고, 2022년 10월 '스냅드래곤 서밋'에서 누비아 기술을 바탕으로 한 새 CPU '오라이온(Oryon)' 개발을 공식화했다. 당시 누비아 출신으로 퀄컴에 합류한 제러드 윌리엄스 수석부사장은 "오라이온 CPU는 기존 크라이오(Kryo) CPU IP를 대체하며, 모바일부터 XR, 컴퓨트까지 다양한 플랫폼으로 확장될 것"이라고 설명했다. 퀄컴, 5월 데이터센터 진출 공식화 오라이온 CPU는 이후 PC용 '스냅드래곤 X'(2023), 스마트폰용 '스냅드래곤8 엘리트'(2024), 자동차용 '스냅드래곤 라이드 엘리트'(2024) 등 퀄컴 고성능 SoC에 순차적으로 투입됐다. 퀄컴은 지난해 말 20년 이상 서버용 프로세서를 설계한 인텔 출신 사일레시 코타팔리를 영입하고 데이터센터용 CPU 개발을 총괄하는 수석부사장으로 임명했다. 올해 5월 '컴퓨텍스 타이베이 2025' 기조연설에서는 오라이온 CPU를 서버 시장으로 확대할 계획을 공식화했다. 업계 관계자들은 당시 퀄컴이 이동통신 기지국의 데이터 처리용 서버·어플라이언스 분야를 우선 공략할 것으로 전망했다. 퀄컴, 예상 깨고 AI 추론 시장 먼저 겨냥 퀄컴이 27일 공개한 AI200/250 SoC는 오라이온 CPU와 헥사곤 NPU를 결합해 철저히 추론(인퍼런스)에 최적화된 제품이다. 새 AI 모델을 훈련하기보다 이미 완성된 모델을 저전력·비용 효율적으로 실행하려는 기업 수요를 겨냥했다. AI200은 LPDDR5 메모리를 채택해 비용 효율을 강조했으며, 최대 768GB LPDDR 메모리를 지원해 대규모 AI 추론 환경에서 유연성과 확장성을 높였다. AI200 기반 랙의 전력 소모는 약 160킬로와트(kW) 수준이다. AI250은 메모리 인접 연산 구조를 통해 지연시간을 줄이고, 대역폭을 10배 이상 향상시킬 계획이다. 퀄컴은 AI200을 2026년, AI250을 2027년 출시할 예정으로 예측 가능한 로드맵도 제시했다. 최초 고객사로 사우디 AI 스타트업 '휴메인' 나서 AI200 SoC 최초 고객사로 사우디아라비아 무함마드 빈 살만 왕세자가 설립한 AI 스타트업 '휴메인'(Humain)이 참여했다. 휴메인은 이미 퀄컴 스냅드래곤 X 엘리트를 기반으로 AI PC를 개발 중이며, 퀄컴과의 협력을 지속 강화하고 있다. 휴메인은 '미래 투자 이니셔티브(FII)' 제9차 포럼을 앞둔 28일(사우디 현지시간) 퀄컴 AI200·AI250 기반 200메가와트(MW)급 랙 솔루션을 도입, 사우디 및 글로벌 시장에 공급할 계획을 밝혔다. 휴메인은 자체 개발한 아랍어 기반 멀티모달 LLM 구현에도 퀄컴 인프라를 적극 활용할 방침이다. 인텔과 AI PC 이어 추론 시장서도 충돌 불가피 AI 관련 후발 주자로 볼 수 있는 퀄컴이 추론 시장 진출을 선언하며 비슷한 입지에 있는 인텔과 충돌이 불가피해졌다. 인텔은 엔비디아나 AMD에 비해 GPU 포트폴리오가 약하다는 평가를 받지만, 제온6 프로세서·코어 울트라·가우디3 AI 가속기를 결합한 추론 플랫폼으로 대응 중이다. 내년에는 저비용 추론용 GPU '크레센트 아일랜드' 출시도 예고돼 있다. 현재 퀄컴은 인텔과 함께 AI PC용 프로세서 시장에서도 경쟁 중이다. 인텔의 차세대 코어 울트라 시리즈 3(팬서레이크) 탑재 PC는 내년 1월 말부터, 퀄컴 스냅드래곤 X2 엘리트 탑재 PC는 내년 6월 전후 출시 전망이다.

2025.10.28 16:07권봉석 기자

Arm "루멕스 CSS, AI 처리 속도 최대 5배 강화"

영국 반도체 설계 전문기업 Arm은 지난 9월 프리미엄 스마트폰과 PC를 겨냥한 반도체 IP인 루멕스(Lumex) 컴퓨트 서브시스템(CSS)를 공개했다. CPU와 GPU, 이를 지원하는 소프트웨어와 개발자 도구를 통합해 주요 파운드리의 2, 3나노급 공정에서 고성능 시스템반도체(SoC) 개발을 돕는다. 21일 오후 국내 기자단과 만난 제임스 맥니븐 Arm 클라이언트 사업부 부사장은 "루멕스 CSS는 프리미엄 스마트폰에서 중간급 기기까지 AI 연산 성능을 손쉽게 강화할 수 있다"고 설명했다. 이어 "차세대 AI 응용프로그램 구동시 최고의 배터리 효율, 게임 등에서 최고의 시각적 경험을 위해 설계됐다. 루멕스 CSS를 활용하는 파트너사들이 CPU와 GPU를 요구사항에 맞게 자유롭게 조합할 수 있어 유연성이 극대화됐다"고 설명했다. C1 CPU IP, AI 처리 위한 SME2 명령어 내장 Arm은 고성능 처리가 필요한 CPU IP(지적재산권)로 코어텍스-X(Cortex-X)를, 중간/저전력 처리가 필요한 CPU IP로 코어텍스-A(Cortex-A)를 공급해 왔다. 루멕스 CSS에 포함된 CPU IP는 C1 클러스터로 기존 코어텍스-X, A를 대체한다. 성능과 배터리 지속시간, 효율과 예산 등에 따라 총 4개 코어를 용도에 맞게 선택할 수 있다. 제임스 맥니븐 부사장은 "C1 울트라 코어는 최고 성능을 내는 플래그십 CPU 코어로 전년 대비 성능을 25% 향상시켰다. C1 프리미엄은 울트라급 성능을 유지하면서 칩 면적을 35% 줄여 서브플래그십 기기에 적합하다. C1 프로와 나노는 전력 효율 중심의 설계로, 중보급형 제품군에 적합할 것"이라고 밝혔다. C1 CPU 코어에는 AI 연산에 주로 쓰이는 행렬 곱셈 등 연산을 처리하기 위한 SME2 명령어가 내장된다. 이를 이용해 음성인식, 번역, 생성 AI 등 각종 AI 처리 속도를 전세대 대비 5배 향상시켰다. 제임스 맥니븐 부사장은 "C1 CPU 코어를 묶은 클러스터는 SME2 명령어를 활용해 2-3GHz로 작동시 2-6 TOPS(1초당 1조번 연산)를 처리 가능하며 작동 속도 향상시 더 높아질 수 있다"고 설명했다. 더 큰 코어 크기로 전력을 더 많이 쓰는 인텔·AMD 등 x86 기반 프로세서의 CPU 코어는 통상 8-10 TOPS 정도의 성능을 낸다. 루멕스 CSS가 스마트폰 등 저전력 기기를 위한 반도체 IP인 것을 감안하면 전력 효율 면에서는 분명 우위에 있다. 말리 G1 울트라 GPU, 레이트레이싱 성능 2배 향상 루멕스 CSS에 포함된 새 GPU IP인 말리 G1 울트라는 그래픽과 AI 추론 성능이 각각 20% 향상, 프레임당 소비 전력은 9% 절감, 레이트레이싱(RT) 성능은 두 배 향상됐다. 빛과 사물 사이에 비치는 그림자, 반사광 등을 보다 현실에 가깝게 표현하는 레이트레이싱 기능은 과거 PC용 고성능 GPU에서만 가능한 기술로 간주됐다. 그러나 2022년부터 삼성전자(엑시노스 2200)와 퀄컴(스냅드래곤8 2세대) 등이 모바일 기기용 SoC에 레이트레이싱을 투입한 이후 모바일 기기의 GPU 성능을 파악하는 지표 중 하나로 레이트레이싱 성능이 자리잡았다. 이날 제임스 맥니븐 부사장도 말리 G1 울트라의 레이트레이싱 성능 향상을 특히 강조했다. 그는 "RTUv2 아키텍처는 단일 광선 추적 방식을 채택해 보다 현실감 있는 조명을 구현하며, 코어당 전용 RT 하드웨어를 탑재해 효율성과 성능을 모두 높였다"고 밝혔다. "내년 GPU 활용 AI 연산 가속 예정" 루멕스 CSS는 최근 공개된 타사 모바일 SoC와 달리 NPU(신경망처리장치)는 포함하지 않았다. 제임스 맥니븐 부사장은 "CPU에서 AI 연산을 처리하는 것이 오히려 더 지연 시간이 낮고 개발자들도 SME2 명령어를 보다 널리 활용할 수 있다"고 설명했다. 그러나 주요 반도체 제조사들은 상시 저전력 연산과 전처리 등에 강력한 성능을 내는 NPU와 함께 GPU도 동시에 강화하고 있다. 수 억개 매개변수(패러미터)로 구성된 거대언어모델(LLM) 등 처리에는 GPU의 성능이 더 필요하다. 제임스 맥니븐 부사장 역시 "말리 G1 울트라에 포함된 레이트레이싱 유닛은 불칸(Vulkan) API를 활용한 그래픽 처리에 최적화됐고 일부 API를 이용하면 이를 연산에도 활용할 수 있다"고 설명했다. 그는 이어 "GPU에 신경망(뉴럴) 관련 처리를 더해 AI 연산 성능을 강화하겠다는 취지를 지난 8월에 이미 밝힌 바 있다. 현재는 상세한 내용을 공개할 수 없지만 AI 처리 성능 처리 면에서 비약적인 발전이 있을 것"이라고 설명했다.

2025.10.22 15:35권봉석 기자

점점 뜨거워지는 AI 데이터센터, 액침 냉각으로 식힌다

인공지능(AI)의 발전 속도는 눈부시다. 대규모 언어 모델(LLM)과 생성형 AI는 산업 전반의 판도를 바꾸며 새로운 기회를 열어주고 있다. 그러나 그 혁신의 뒤편에는 '발열'이라는 물리적 한계가 도사리고 있다. AI의 두뇌 역할을 하는 GPU, CPU 등 반도체가 고성능 연산을 지속하는 순간, 엄청난 열이 발생하기 때문이다. 이 열을 제어하지 못하면 속도를 높이기는커녕 성능 저하와 장비 손상으로 이어진다. 액침냉각, 공랭식 한계 뛰어넘다 최동훈 GRC 이사는 이 같은 문제의 해답으로 '액침냉각'을 지목한다. 공기로 발열을 제어하는 '공랭식' 기술이 한계에 다다랐기 때문이다. 최 이사는 “냉각 시스템은 오작동률이 낮은 게 중요한데, 공랭식은 그런 부분에서 좀 약하다”며 “서버가 공기 안에서 돌면 먼지 등 이물질이 쌓일 수 밖에 없기 때문이다. 공기가 없는 곳이 가장 좋다”고 말했다. 아울러 “서버의 발열이 심해지며 공랭식을 계속 활용하기 힘들어졌다”며 “액체를 사용하는 수랭식이 더 적합하고, 특정 반도체만을 식히는 게 아니라 보드까지 전부 액체에 담구는 액침냉각이 발열을 제어하는 데 가장 효과적이다”라고 설명했다. 액침냉각은 발열이 심한 서버를 비전도성 액체에 직접 담가 냉각하는 방식이다. 기존 공랭식보다 훨씬 높은 열 전달 효율을 제공한다. 에너지 소비를 획기적으로 줄일 수 있어, AI 인프라를 구축하는 오늘날 관심이 집중되는 기술이다. 전력 효율 급상승...”3~5년 이내 상용화될 것” 자원 낭비도 훨씬 줄어든다. 공랭식은 데이터센터 내 온도를 낮춰 서버를 차갑게 식히는 방식이다. 이 때 칠러의 온도를 낮추기 위해 상당량의 물이 필요하다. 물이 열 교환기를 거쳐 데이터센터 내부에 찬 바람을 불어넣는 원리다. 액침냉각은 서버를 직접 액체에 담구는 만큼 이 과정이 필요하지 않다. 물이 낭비되지 않으며, 별도의 냉각 과정이 필요없어 에너지 효율이 훨씬 높다. 최 이사는 “기존 공랭식은 데이터센터 쿨링에 전체 전력 중 30~40%를 사용했다”며 “액침냉각이 적용될 경우 이게 3%까지 줄어든다. 남은 전력을 서버로 돌릴 수 있어 파워 역시 올릴 수 있다”고 설명했다. 실제 지표로도 액침냉각의 효율성을 확인할 수 있다. 데이터센터의 효율은 PUE(전력효율지수)를 통해 확인 가능하다. PUE는 데이터센터 전체 전력 소비량 중 IT 장비 전력 소비량을 측정해 계산하는 지표다. 1.0에 가까울수록 효율성이 높다. 일반적인 공랭식 데이터센터의 PUE는 1.5~2.0 수준이다. 이 때 데이터센터 전체 전력 중 약 40%가 냉각 장치에 사용된다. 반면, 액침냉각은 1.03에 불과하다. 최 이사는 “싱가포르에서는 데이터센터 PUE가 1.2 미만으로 설계를 해야만 한다는 제한을 두고 있다”며 “자원에 한계가 있기 때문에, 앞으로는 공랭식만으로 서버를 구축하는 건 어려울 것”이라고 내다봤다. 이에 글로벌 업체들은 액침냉각 방식을 수용한 데이터센터를 구축하고 있다. 현재 시장 주류 방식인 공랭식, 액체냉각과 더불어 액침냉각 인프라까지 한번에 탑재한 데이터센터를 짓는 것이다. 그는 “최근에 관계사들을 만나보면 기술 전반을 활용할 수 있는 데이터센터 구축으로 방향을 잡고 있다”고 말했다. 그러면서 “3~5년 이내로 액침냉각이 상용화될 것”이라고 내다봤다. 액침냉각 스페셜리스트 GRC GRC는 지난 2009년 미국에서 설립된 액침냉각 전문 기업이다. 액침냉각을 전문으로 하는 회사로서는 가장 오래됐다. 액침냉각 관련해 총 19개 특허를 보유하고 있으며, 8개 특허가 인증을 받고 있다. 해당 기술과 관련해 특허수가 가장 많다. 현재 글로벌 서버업체인 델(Dell), HP 등과 협업하고 있으며, 국내에서는 SK엔무브, 현대오일뱅크 등과 협력 중이다.

2025.09.30 13:11전화평 기자

퀄컴 차세대 AI PC 프로세서, 컴퓨팅·AI 성능서 경쟁사 '압도'

퀄컴이 올해 공개한 차세대 AI 프로세서의 성능을 자신했다. 실제 벤치마크 테스트 결과, CPU·GPU·NPU 등 모든 분야에서 이전 세대 대비 및 경쟁사 대비 뛰어난 성능을 구현한 것으로 나타났다. 퀄컴은 지난 23~25일(현지시간) 미국 하와이에서 개최된 '스냅드래곤 서밋' 행사를 통해 차세대 AI PC용 프로세서인 '스냅드래곤 X2 엘리트'의 성능을 공개했다. 스냅드래곤 X2 엘리트는 성능에 따라 일반 모델과 익스트림 모델로 나뉜다. 두 모델 모두 첨단 파운드리 공정인 3나노미터(nm)를 기반으로 하며, 내년 상반기부터 상용화가 시작될 예정이다. 초고성능의 익스트림 모델의 경우 18코어(12 프라임 코어+6 퍼포먼스 코어)를 갖췄으며, 3세대 퀄컴 오라이온 CPU를 탑재했다. 해당 CPU는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 성능을 제공한다. GPU는 이전 세대 대비 2.3배 높아진 와트 당 성능 및 전력 효율을, NPU는 80 TOPS의 AI 처리 성능을 지원한다. 퀄컴은 올해 서밋에서 해당 칩셋에 대한 벤치마크 결과를 공개했다. 설명에 따르면, 이번 스냅드래곤 X2 엘리트 익스트림의 벤치마크 성능은 주요 경쟁사의 칩셋을 크게 웃도는 수준이다. CPU 긱벤치(Geekbench) 6.5버전 테스트 점수는 멀티코어 기준 2만3천491점으로 인텔 코어 울트라 9 285H(1만7천680점), 애플 M4(1만5천146점)를 모두 앞선다. GPU 벤치마크(UL3DMark Solar Bay)도 90.06점으로 50~60점대인 인텔, 애플, AMD 칩셋 대비 크게 높은 것으로 나타났다. NPU 벤치마크(긱벤치 AI 1.5 버전) 역시 8만8천615점으로 애플 M4(5만2천193점), 인텔 코어 울트라 9 288V(4만8천566점) 등을 능가했다. 퀄컴 관계자는 "해당 칩에 탑재된 퀄컴 오라이온 CPU는 동급 최고 성능의 CPU로, 경쟁사 대비 싱글코어에서는 최대 41%, 멀티코어에서는 최대 2배 더 빠르다"며 "GPU와 NPU도 경쟁사 대비 우월한 성능을 보여준다"고 설명했다. 실제로 기자가 위 벤치마크 항목에 대해 실제 테스트를 진행해 본 결과, CPU 벤치마크는 싱글코어 4천83점, 멀티코어 2만3천349점으로 나타났다. 퀄컴이 제시한 기준치인 싱글코어 4천50~4천89점, 멀티코어 2만2천835~2만3천768점에 부합한다. GPU 벤치마크도 89.68FPS로 기준치(84.37~90.47)에 부합했으며, NPU는 긱벤치 AI 1.5 버전에서 8만9천157점으로 기준치(8만4천58~8만8천919)를 초과하기도 했다.

2025.09.29 22:00장경윤 기자

퀄컴 "삼성 갤럭시S26도 개발 협력…전용 칩 적용 가능성 있어"

[하와이(미국)=장경윤 기자] "퀄컴과 삼성전자 모바일의 관계는 환상적이다. 내년 출시될 갤럭시S26 스마트폰을 함께 개발해 왔고, 전용 스냅드래곤 칩의 탑재 가능성이 확실히 있다. 삼성 파운드리와도 매우 협력적인 관계를 유지하고 있다" 알렉스 카투지안 퀄컴 수석부사장 겸 모바일·컴퓨트·XR (MCX) 본부장은 24일(현지시간) 미국 하와이에서 기자들과 만나 회사의 사업 전략에 대해 이같이 밝혔다. 삼성전자 모바일·파운드리와 '전방위 협력' 공고 퀄컴은 올해 스냅드래곤 서밋에서 차세대 모바일 AP(애플리케이션 프로세서)인 '스냅드래곤 8 엘리트 5세대'를 공개했다. 해당 칩셋은 삼성전자가 내년 출시하는 '갤럭시S26' 시리즈를 비롯해, 전 세계 주요 안드로이드 스마트폰에 탑재될 예정이다. 특히 퀄컴은 삼성전자의 니즈에 따라 갤럭시 전용 칩을 공급하고 있다. 내년 출시되는 갤럭시S26에서도 동일한 협력 구조가 기대된다. 알렉스 카투지안 수석부사장은 "갤럭시S26 시리즈에 전용 스냅드래곤 칩을 적용하는 것은 확실히 가능성이 있다"며 "구체적으로 언급할 수는 없지만 삼성전자와 퀄컴은 약 2년 전부터 내년 출시되는 갤럭시S에 탑재되는 제품에서 IP(설계자산) 부분을 함께 작업했고, 기기 성능을 더 강력하게 만들었다"고 말했다. 나아가 삼성전자와 퀄컴은 차세대 통신 기술인 6G 분야에서도 협력할 예정이다. 퀄컴이 예상하는 6G 지원 디바이스의 상용화 시기는 빠르면 2028년으로, 알렉스 카투지안 부사장은 "삼성전자를 비롯한 여러 회사들과 파트너십을 맺고 2029년에 사용할 수 있는 스마트폰을 어떻게 만들지 고민할 것"이라고 설명했다. 이번 스냅드래곤 신제품은 TSMC의 3나노미터(nm) 공정을 채택했다. 다만 퀄컴은 파운드리 공급망을 다변화하는 전략을 고수하는 기업으로, 삼성전자 파운드리 역시 지속적으로 채용을 검토 중이다. 알렉스 카투지안 수석부사장은 "퀄컴은 팹리스 기업으로서 언제든 파운드리 공급망을 전환할 능력이 있고, 삼성 파운드리와도 항상 매우 협력적인 관계를 유지해 왔다"며 "디지털뿐만이 아니라 아날로그, 혼성 회로(IC) 등 다른 영역에서도 필요할 때 어떤 파운드리든 활용할 수 있다"고 말했다. 그는 이어 "삼성전자와 퀄컴은 고객사이자 경쟁자, 공급자인 매우 독특한 관계"라며 "다만 삼성전자 모바일과의 관계는 환상적으로, 더 나은 제품과 사용자 경험을 위해 서로를 밀어주며 기술을 발전시키는 훌륭한 관계"라고 덧붙였다. "프리미엄 사용자 경험이 중요"…모바일·PC 시장 확대 자신 차세대 칩셋을 통한 모바일 및 PC 시장 확대도 자신했다. 알렉스 카투지안 수석부사장은 스냅드래곤 8 엘리트 5세대에 대해 "삼성전자 엑시노스나 미디어텍 제품과 비교해 퀄컴이 빛나는 점은 프리미엄 사용자의 경험"이라며 "퀄컴은 벤치마크가 아닌 실제 사용 환경에서 기기가 어떻게 작동하는 지를 더 중요하게 생각하고, 구글과 같은 파트너사들이 우리를 선호하는 이유"고 말했다. 스냅드래곤 X2 엘리트 제품군은 AI PC 시장을 목표로 개발된 2세대 PC용 프로세서다. 초고성능의 '스냅드래곤 X2 엘리트 익스트림'과 한 단계 아래 급의 성능인 '스냅드래곤 X2 엘리트'로 나뉜다. 알렉스 카투지안 수석부사장은 "1세대 제품은 출시 18개월만에 주요 프리미엄 PC 시장서 점유율을 9~10% 수준으로 확보하는 진전을 이뤘고, 2개의 2세대 제품으로 시장을 확장하고자 한다"며 "강력한 CPU 및 NPU 성능을 기반으로 향후 4~5년간 계속해서 성장할 것"이라고 강조했다.

2025.09.25 11:05장경윤 기자

모바일·PC 공략할 퀄컴의 핵심 무기, 3세대 '오라이온' CPU

[하와이(미국)=장경윤 기자] 퀄컴이 자체 개발한 오라이온(Oryon) CPU로 모바일·PC 시장을 공략한다. 올해 공개한 차세대 제품군에 모두 3세대 오라이온 CPU를 탑재해, 이전 세대 대비 성능을 크게 끌어올린 것으로 나타났다. 알렉스 카투지안 퀄컴 수석부사장은 24일(한국시간 25일) 미국 하와이에서 열린 '스냅드래곤 서밋'에서 "더 빠르고 효율적인 프로세싱 수요를 이끄는 핵심은 바로 CPU"라며 "스마트폰과 PC 플랫폼 모두를 위한 3세대 퀄컴 오라이온 CPU를 소개하고자 한다"고 밝혔다. 이날 퀄컴이 공개한 제품은 모바일과 AI PC 크게 두 분야다. 모바일에서는 '스냅드래곤 8 엘리트 5세대'를 선보였다. 해당 칩은 3나노미터(nm) 공정 기반의 차세대 모바일 AP(애플리케이션 프로세서)로, 삼성전자 등 주요 고객사가 내년 출시하는 플래그십 스마트폰에 탑재될 예정이다. AI PC에서는 지난 2023년 공개된 컴퓨트 플랫폼 '스냅드래곤 X 엘리트'의 후속작인 '스냅드래곤 X2 엘리트 익스트림'과 '스냅드래곤 X2 엘리트'가 공개됐다. 해당 시리즈는 최대 18코어를 탑재했으며, 모바일 AP와 마찬가지로 3나노 공정을 채택했다. 이들 제품군은 모두 퀄컴이 자체 제작한 오라이온 CPU 3세대 제품을 통해 성능을 크게 끌어올렸다. 주요 벤치마크 테스트인 긱벤치 6.5 버전 테스트 결과, 3세대 오라이온 CPU는 1세대 대비 싱글코어에서 39% 향상된 성능을 기록했다. 동시에 전력 소모량은 43% 줄였다. 알렉스 카투지안 수석부사장은 "3세대 CPU는 특히 AI를 위해 최적화된 칩"이라며 "해당 칩은 모든 작업에서 강력한 성능을 제공하고, 긴 배터리 수명을 유지하며 AI 기능을 함께 제공한다"고 강조했다. CPU와 함께 동작하는 GPU와 NPU도 중요한 요소다. 스냅드래곤 8 엘리트 5세대의 경우, 아드레노 GPU 아키텍처는 그래픽 집약적 게임 성능을 23% 개선한다. 또한 퀄컴 헥사곤 NPU는 37% 더 빨라진 성능을 지원한다. 알렉스 카투지안 수석부사장은 "갤럭시S25는 온디바이스 AI를 위한 헥사곤 NPU를 탑재했다"며 "3세대 오라이온 CPU, 헥사곤 NPU, 아드레노 GPU 등이 함꼐 작동해 오늘날 스마트폰에서의 가능성을 열어주고 있다"고 말했다.

2025.09.25 08:21장경윤 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

역대 최대 실적 경신한 삼성전자, 메모리 영업익만 50조원 돌파

"맛집앱보다 낫네"…100만 고지 눈앞 ‘거지맵’ 뭐길래

"AI 활용 순식간에 공격코드 작성...27초면 끝"

B2B·구독이 효자…LG전자, 1분기 영업익 33% '껑충'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.