• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'NPU'통합검색 결과 입니다. (108건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AMD "AI PC, CPU·GPU·NPU 모두 활용 필요"

"마이크로소프트는 2024년 이후 신경망처리장치(NPU)를 활용한 스튜디오 효과, 이미지 편집, 카메라 영상 처리 등을 꾸준히 투입하고 있다. 40 TOPS(1초당 1조번 연산) 이상의 NPU가 없다면 이런 기능 활용은 불가능하다." 11일 오전 서울 삼성동에서 진행된 'AI PC 부트 캠프' 행사에서 김홍필 AMD 시니어 솔루션 아키텍트(이사)가 이렇게 설명했다. NPU는 AI 추론 연산에 특화된 프로세서로, GPU보다 전력 소모가 낮고 INT8 등 저정밀 연산에 효율적이다. AMD는 이날 AI PC용으로 설계된 라이젠 AI 300/400 시리즈 프로세서와 NPU의 활용 상황, GPU 대비 NPU가 가진 전력소모 등 이점과 향후 전망 등을 소개했다. 이날 김홍필 이사는 "시장조사업체 IDC 통계에 따르면 올해를 기점으로 전체 PC 출하량 중 NPU 탑재 제품 비율이 크게 늘어나고 있다. 특히 소형·경량 노트북에는 앞으로 NPU가 반드시 탑재되는 방향으로 갈 것"이라고 설명했다. AMD, 2024년부터 NPU 통합 개시 AMD가 2024년 10월부터 공급중인 노트북용 프로세서인 라이젠 AI 프로 300은 젠5(Zen 5) 기반 CPU, RDNA 3.5 기반 GPU와 XDNA 2 NPU(신경망처리장치)를 결합했다. AMD가 공급하는 프로세서 중 NPU를 통합한 첫 제품이다. 김홍필 이사는 "AI 초창기부터 현재까지 많은 AI 모델이 주로 GPU를 활용한다. GPU는 주로 FP32(부동소수점 32비트) 등 연산에 최적화된 반면, NPU는 INT8(정수 8비트) 처리에 최적화됐다. 특히 추론에서는 속도나 메모리 용량에 유리하다"고 설명했다. 올해부터 공급되는 라이젠 AI 400 시리즈는 전작 대비 작동 클록과 메모리 작동 속도 향상으로 CPU와 GPU, NPU 성능을 모두 강화했다. NPU 성능은 전작(50 TOPS) 대비 20% 향상된 60 TOPS까지 올라갔다. "코파일럿+ 시작으로 NPU 활용 S/W 증가 추세" 마이크로소프트 윈도11 코파일럿+ 기능은 2024년 6월 출시된 퀄컴 스냅드래곤 X 엘리트를 시작으로 같은 해 11월부터 인텔·AMD 등 x86 계열 프로세서까지 확장됐다. 주변 대화나 소리를 실시간으로 감지해 자막으로 띄우는 '라이브 캡션', PC 작동 내역을 실시간으로 추적했다 필요한 시점으로 돌아가 확인하는 '리콜' 등이 지원된다. 코파일럿+ 기능 이외에도 마이크로소프트 오피스, 어도비·블랙매직·사이버링크 등 콘텐츠 제작용 솔루션, 피싱이나 악성 코드를 실시간으로 감지하는 보안 솔루션까지 NPU 활용이 확장되는 상황이다. 김홍필 이사는 "현재는 각종 콘텐츠 제작에 AI가 가장 많이 쓰이지만 앞으로는 CPU와 GPU, NPU 3개를 모두 활용해 효율적으로 로컬 AI를 구동하는 것이 중요하다. AMD는 여러 회사와 함께 더 많은 활용 사례를 만들기 위해 노력하고 있다"고 설명했다. NPU 구동해 LLM 실행시 토큰 속도 향상 이날 AMD는 라이젠 AI 7 350 프로세서와 24GB 메모리를 탑재한 HP 엘리트북6 G1a를 이용해 NPU 활용시 전력 소모와 처리 시간을 비교했다. 첫 번째 시연에서는 클라우드 없이 PC에서 직접 거대언어모델(LLM)을 구동하는 오픈소스 소프트웨어 '레모네이드'를 활용했다. AMD CPU와 NPU에 최적화된 딥시크 R1 80억 매개변수 모델을 이용해 첫 토큰(단어) 소요 시간과 초당 토큰 출력 시간을 확인했다. CPU만 구동할 때 첫 토큰 출력까지 1.4초, 초당 토큰은 3.8토큰인 반면 NPU만 활용할 때는 첫 토큰 출력에 2.27초, 초당 토큰은 6.7토큰으로 향상됐다. 프로세서 전력 소모도 CPU만 활용시는 33.20W, NPU 활용시는 절반 가량인 16.59W로 전력 소모 면에서도 일정 부분 이점이 있었다. "NPU 최적화 일부 모델은 GPU 대비 더 빨라" 두 번째 시연은 사진과 영상 콘텐츠를 생성하는 AI 모델을 구동할 수 있는 '어뮤즈'를 활용했다. 스테이블 디퓨전 3.0을 AMD 실리콘에 최적화한 모델로 2048×2048 화소 이미지 생성시 소요 시간을 비교했다. '상자 안의 고양이(A cat in a box)'를 프롬프트로 주고 실행할 때 NPU를 활용하면 총 소요 시간은 127.5초 걸렸다. 반면 GPU만 활용시 소요시간은 296.8초로 2.5배 더 길어졌다. 프로세서 작동 온도에도 일부 차이가 있다. NPU 활용시 온도는 50도로 측정됐지만 GPU만 활용하면 전체 온도는 60도까지 상승한다. 또 과열을 막기 위해 일시적으로 성능을 끌어내리는 스로틀링이 작동해 오히려 더 처리 시간이 길어졌다. 김홍필 이사는 "NPU와 GPU의 연산 정밀도에는 차이가 있고 정밀도를 내릴 수록 처리 시간은 줄어든다. 아직 NPU에 특화된 모델이 드물지만 메모리 용량이나 성능에 일정한 제약이 있는 상황에서 NPU가 더 효율적인 선택지를 줄 수 있다는 의미"라고 설명했다. "NPU 수치보다는 AI 모델 최적화 여부가 관건" 현재 인텔, AMD, 퀄컴 등 주요 AI PC용 프로세서 제조사는 NPU 성능을 차별화 포인트 중 하나로 내세운다. 45 TOPS(퀄컴 헥사곤)로 시작해 50 TOPS(인텔 NPU5), 60 TOPS(AMD) 등 수치상으로는 계속 향상되고 있다. 김홍필 이사는 "실리콘 제조사가 이야기하는 TOPS는 행렬로 구성된 숫자를 서로 곱한 다음 더하는 MAC(곱셈 가산) 수치를 기준으로 한 것이다. 이를 측정하는 벤치마크 도구들이 있지만 정확한 값을 드러낸다고 볼 수 없다"고 설명했다. 이어 "마이크로소프트가 코파일럿+ 기준으로 제시한 40 TOPS는 하한선이다. TOPS 수치가 일종의 마케팅 수단이 됐지만 결국 전반적으로 NPU가 여러 AI 모델에 얼마나 최적화되고 많이 활용되느냐가 더 중요한 사안"이라고 덧붙였다.

2026.03.11 15:49권봉석 기자

TI, MCU 제품군 확장…"모든 기기에 엣지 AI 구현 지원"

텍사스인스트루먼트(TI)가 엣지 인공지능(AI) 기능을 갖춘 두 개의 새로운 마이크로컨트롤러(MCU) 제품군을 11일 공개했다. 새롭게 공개한 MSPM0G5187 및 AM13Ex MCU 제품군은 TI가 전체 임베디드 프로세싱 포트폴리오 전반에 엣지 AI를 구현하겠다는 전략을 뒷받침하는 제품이다. 두 제품군 모두 TI 타이니엔진(TinyEngine) 신경망처리장치(NPU)를 통합했다. 타이니엔진 NPU는 딥러닝 추론 작업을 최적화하도록 설계한 MCU 전용 하드웨어 가속기다. 엣지 환경에서 처리 지연을 줄이고 에너지 효율을 높인다. TI의 임베디드 프로세싱 포트폴리오는 CC스튜디오(CCStudio) 통합개발환경(IDE)을 포함한 포괄적 개발 생태계를 기반으로 한다. 엔지니어들은 IDE가 제공하는 생성형 AI 기능을 활용해 간단한 자연어 입력만으로 코드 개발, 시스템 구성, 디버깅을 빠르게 수행할 수 있다. 이는 TI 데이터와 결합된 업계 표준 에이전트 및 모델로 구현된다. TI는 웨어러블 헬스 모니터, 가정용 회로 차단기의 실시간 모니터링, 휴머노이드 로봇의 피지컬 AI 등 다양한 전자 디바이스에서 엣지 AI 도입을 가속하고 있다. 아미카이 론 TI 임베디드 프로세싱 및 DLP 부문 수석부사장은 "TI는 약 50년 전 디지털 신호 프로세서를 발명하며 오늘날 엣지 AI 처리 기반을 마련했다"며 "범용 MCU와 고성능 실시간 MCU를 포함한 전체 MCU 포트폴리오에 타이니엔진 NPU를 통합함으로써 차세대 혁신을 이끌고 있다"고 말했다. 밥 오도넬 테크날리시스 리서치 사장 겸 수석 연구원은 "현재 업계 관심은 대형 시스템온칩(SoC0을 위한 AI 가속과 NPU에 집중되고 있지만, 실제로 더 흥미롭고 파급력 있는 일부 AI 애플리케이션은 MCU 같은 소형 칩에서도 구현될 수 있다"며 "엣지 기반 AI 가속 애플리케이션은 소비자 전자제품을 더욱 지능적으로 만들고 산업용 디바이스의 효율성을 높일 수 있다"고 말했다.

2026.03.11 14:34장경윤 기자

퀄컴, 드래곤윙 기반 플랫폼 '아두이노 벤투노 Q' 출시

퀄컴 자회사 아두이노는 독일 뉘른베르크에서 10일부터 12일까지 3일간 열리는 '임베디드 월드 2026'을 앞두고 신규 플랫폼 '아두이노 벤투노 Q'를 출시했다. 아두이노 벤투노 Q는 Arm 코어텍스 8코어 CPU와 아드레노 GPU, 40 TOPS(1초당 1조번 연산)급 헥사곤 텐서 NPU와 퀄컴 스펙트라 692 영상처리장치(ISP)로 구성된 드래곤윙 IQ8(IQ-8275)로 구동된다. 여기에 각종 모터 등을 제어하는 STM32H5F5 소형제어장치(MCU)를 병렬 구조로 구성했다. 메모리는 16GB, 저장공간은 eMMC 64GB이며 PCI 익스프레스 4.0 기반 NVMe SSD를 연결할 수 있는 M.2 커넥터도 보드상에 기본 장착했다. 2.5G 이더넷과 와이파이6, 블루투스 5.3을 기본 지원하며 PWN, GPIO, CAN-FD 등 산업용 입출력 규격을 갖췄다. 헥사곤 텐서 NPU와 대용량 메모리, 저장공간을 활용해 거대언어모델(LLM) 기반 생성 AI를 로컬에서 실행 가능하다. 카메라를 최대 3대까지 연결해 비전 기반 로봇, 위험 행동 감지 등 구현에 활용할 수 있다. 기본 운영체제는 우분투·데비안 리눅스이며 STM32H5F5 MCU는 별도 운영체제로 구동해 시간 정확도가 요구되는 작업에서 정확성을 높였다. PC에 연결하거나 독립 실행이 가능하며 우노 실드, 아두이노 모듈리노 노드, 라즈베리 파이 햇츠 등 인터페이스를 바로 지원한다. 올 2분기부터 아두이노 스토어와 디지키, 마우저 등 공식 리셀러를 통해 공급 예정이며 가격은 미정.

2026.03.10 09:10권봉석 기자

AMD, CPU 강화한 라이젠 임베디드 SoC로 엣지 AI 공략 확대

AMD가 실시간 대응이 필요한 로봇과 스마트 공장, 의료기기 등 임베디드 AI 시장 공략을 강화한다. 올해 CES 2026에서 공개한 '라이젠 AI 임베디드 P100' 프로세서의 CPU 코어 수를 기존 최대 6개에서 12개까지 늘린 신규 모델을 추가하며 라인업을 늘렸다. 이는 실시간 처리가 요구되는 산업용 AI 환경에서 지연 시간을 줄이며 병렬 처리 능력을 강화하기 위한 행보로 해석된다. CPU 코어 증가에 따라 P100 시리즈 프로세서의 AI 연산 능력도 높아졌다. CPU·GPU·NPU를 통합한 플랫폼 AI 연산 성능도 최대 80 TOPS 수준까지 향상됐다. 엣지 AI 환경 고려한 P100 시리즈 1월 공개 AMD가 1월 공개한 라이젠 AI 임베디드 P100 시리즈는 젠5(Zen 5) 기반 CPU와 RDNA 3.5 아키텍처 기반 GPU, XDNA 2 NPU 등 AI 연산에 필요한 3대 처리장치를 통합했다. CPU는 x86 아키텍처 기반 운영체제와 응용프로그램 실행을, GPU는 카메라와 센서로 입력된 영상을 이용한 각종 사물 인식과 AI 모델 실행을 담당한다. 반면 NPU는 센서 등 데이터 처리를 위한 상시구동 AI 모델을 CPU나 GPU 대신 실행해 부담을 줄인다. CPU나 GPU로 처리해야 할 데이터를 전처리하는 단계에도 활용된다. AMD는 P100 시리즈 공개 당시 "3개 요소를 통합한 이기종 컴퓨팅 구조를 통해 실시간 제어와 영상 분석, AI 추론 등 다양한 워크로드를 칩 하나에서 처리할 수 있다"고 설명했다. CPU 코어 8/12 탑재 제품군 추가 투입 AMD는 9일(현지시간) P100 시리즈의 라인업을 한 단계 확장했다. CPU 최대 코어 수를 6개에서 두 배인 12코어로 늘린 제품을 추가 투입했다. CPU AI 연산 성능을 6 TOPS(1초당 1조 번 연산)로 높였고 GPU 24 TOPS, NPU 50 TOPS를 포함한 플랫폼 전체 AI 연산 성능은 최대 80 TOPS까지 향상됐다. AMD 관계자는 사전 브리핑에서 "CPU 코어가 늘어나도 전체 다이와 기판을 합친 패키지 크기는 기존 제품과 같다"고 밝혔다. 기존 P100 기반 기기를 생산하던 임베디드 업체 등이 폼팩터나 기판을 유지하며 용도 별로 성능을 달리할 수 있다는 의미다. 다양한 작업 동시 수행 위해 CPU 강화 P100 시리즈의 CPU 코어 수 확대는 산업용 기기에 필요한 연산 성능 수준이 최근 2~3년간 급격히 높아진 것과도 관련이 있다. 예를 들어 스마트 공장 환경에서는 산업용 PC가 공정 제어와 머신비전 분석, 사용자 인터페이스 처리, 데이터 분석을 동시에 수행한다. 로봇 시스템 역시 센서 데이터 처리와 경로 계획, AI 기반 물체 인식 등 다양한 작업을 동시에 처리해야 한다. AMD는 CPU와 GPU, NPU 중 CPU 코어 확대를 통해 시스템 전체의 병렬 처리 성능을 높이는 방향을 선택했다. CPU 코어 수가 증가하면 이러한 워크로드를 여러 코어에 분산해 실행할 수 있어 지연 시간을 줄이고 실시간 처리 성능을 높일 수 있다. 공장 자동화·의료 영상 분석 등 활용 전망 CPU 코어를 강화한 P100 시리즈는 엣지 AI 연산 능력을 기반으로 다양한 산업 분야에서 활용될 것으로 예상된다. AMD가 예측한 대표적인 적용 분야로는 공장 자동화 환경의 머신비전 검사 시스템과 산업용 PC, 자율 이동 로봇과 물류 로봇, 의료 영상 분석 장비 등이 있다. 이들 시스템은 다수의 센서와 카메라 데이터를 실시간으로 처리해야 하기 때문에 CPU와 GPU, NPU가 통합된 구조가 유리하다. 특히 의료 장비의 경우 초음파나 내시경 영상 분석과 AI 기반 진단 보조 기능을 동시에 수행할 수 있어 엣지 기반 의료 AI 구현에도 활용할 수 있다. 산업용 기기 수명 고려해 최대 10년간 공급 P100 시리즈는 x86 명령어체계의 가장 큰 강점인 호환성과 가상화를 활용해 윈도와 우분투 리눅스, RTOS 등 여러 운영체제를 동시에 구동할 수 있다. 예를 들어 공장 자동화나 의료 기기용 사용자 인터페이스는 윈도 환경에서, 실시간 제어는 RTOS 환경에서 동시에 분리 실행하는 방식이다. 공급 주기는 산업용 기기의 장기 운영을 고려해 최종 공급 후 최대 10년간이며 영하 40도에서 영상 105도까지 넓은 범위 안에서 작동하도록 설계됐다. AMD는 현재 4/6코어 기반 P100 프로세서 시제품을 고객사에 공급중이며 오는 2분기부터 대량 생산 예정이다. 이번에 공개된 8/12코어 제품도 시제품 공급중이며 올 하반기 생산을 목표로 하고 있다.

2026.03.10 06:00권봉석 기자

자율주행·휴머노이드 확산…K-팹리스 성장 기회 잡았다

인공지능(AI) 산업의 패러다임 전환으로 팹리스 업계가 새로운 성장 기회를 잡고 있다. 전세계 주요 기업들이 자율주행·휴머노이드 개발에 박차를 가하면서, 기존 GPU 대비 고효율·저전력 특성을 갖춘 엣지 AI 반도체가 주목받고 있어서다. 이에 국내 팹리스 기업들도 각 산업에 특화된 칩 개발로 글로벌 시장을 적극 공략하고 있다. 4일 경기 성남 가천대학교 비전타워 컨벤션홀에서는 'CES 2026 팹리스 서밋 코리아'가 개최됐다. 피지컬 AI 산업 급성장…고효율·저전력 AI반도체 각광 이번 행사는 지난 1월 미국 라스베이거스에서 열린 세계 최대 ICT 전시회 CES 2026과 연계해, AI 반도체의 글로벌 전략을 논의하기 위해 마련됐다. 윤원중 가천대 부총장, 김용석 가천대 반도체교육원장, 최우혁 산업통상자원부 부첨단 산업정책관, 김경호 한국팹리스산업협회 회장 등 주요 인사들이 참석했다. 정지훈 DGIST 교수는 "AI 산업 비중이 기존 학습에서 추론으로 급격하게 넘어가면서, 고성능 GPU와 더불어 추론 속도 및 전력 효율성을 극대화한 전용 AI 반도체가 각광받고 있다"며 "거대 데이터센터와 달리 필요한 반도체 성능이 다변화 돼 있기 때문에, 무수히 많은 팹리스 회사들이 성공하게 될 것"이라고 말했다. 특히 올해 CES 2026의 화두였던 휴머노이드 로봇, 자율주행 등 피지컬 AI 관련 산업의 성장세가 주목된다. 피지컬 AI는 엣지 단에서 AI 모델의 추론을 실제 물리적인 동작으로 수행하는 기술이다. 정 교수는 "이번 CES 2026에 참석한 엔비디아 등 주요 기업의 리더들의 핵심 메시지는 '피지컬 AI는 한 회사가 할 수 없는 규모'라는 것"이라며 "이에 따라 AI 반도체 뿐만 아니라 센싱·제어·구동 등 산업 전반이 성장할 것이고, 상당한 제조업 기반을 가진 한국이 강점을 지닐 것"이라고 강조했다. 주영섭 서울대 공학전문대학원 특임교수는 "휴머노이드 로봇 대전 속에서 한국은 미국의 기술·성능 중심, 중국의 가격 중심 전략을 타파할 전략이 필요하다"며 "때문에 한국은 휴머노이드 로봇의 핵심인 온디바이스 AI 반도체를 매우 중요한 프로젝트로 인식해야할 것"이라고 제언했다. 국내 팹리스 업계, 피지컬 AI 시장 적극 공략 이에 국내 AI 반도체 관련 팹리스 기업들은 피지컬 AI에서 성장 기회를 모색하고 있다. 넥스트칩·텔레칩스 등 기존 팹리스 기업들은 물론, 딥엑스·보스반도체·모빌린트·디노티시아 등 스타트업이 대표적인 사례다. 자율주행용 반도체 전문기업 보스반도체의 박재홍 대표는 "자동차 AI 시장 선점의 관건은 AI 반도체로, 자율주행과 인포테인먼트 등 여러 분야에서 차량용 AI 반도체 산업의 급격한 성장이 예상된다"며 "특히 인포테인먼트의 경우 LLM, VLM 기반의 AI 어플리케이션을 도입하려는 움직임들이 많다"고 설명했다. 로봇 역시 차량용 AI 반도체 성장을 촉진할 가능성이 크다. 자율주행에 쓰이는 센서, AI 엔진 등이 로봇에도 상당량 활용되기 때문이다. 박 대표는 "일례로 테슬라는 자사 자율주행 솔루션인 FSD를 옵티머스 로봇에 그대로 사용하고 있다"며 "자율주행에서 촉진된 엣지 컴퓨팅과 온디바이스 기술이 로봇으로 옮겨 가, 실제 업무 환경의 투입을 가속화하고 있다"고 말했다. 엣지 AI용 NPU를 개발하는 딥엑스의 송준호 연구소장은 "기존 데이터센터용 디바이스는 지연속도, 비용, 에너지 효율 등에서 피지컬 AI의 요구사항을 만족시키지 못하고 있다"며 "이에 딥엑스는 범용 GPU 대비 대비 전력효율성 및 비용이 높은 AI 반도체 'DX-M2'를 개발 중"이라고 밝혔다. 해당 칩은 삼성전자 파운드리의 최선단 공정인 2나노미터(nm)를 기반으로 제조된다. 본격적인 상용화 목표 시점은 2027년이다.

2026.03.04 15:28장경윤 기자

퀄컴, 웨어러블용 스냅드래곤 웨어 엘리트 플랫폼 공개

퀄컴이 2일(미국 현지시간) 웨어러블과 소형 엣지 기기를 위한 저전력 시스템반도체(SoC) 플랫폼 '스냅드래곤 웨어 엘리트'를 공개했다. 스냅드래곤 웨어 엘리트는 대만 TSMC 3나노급 공정에서 생산되며 고성능(2.1GHz) 코어 1개, 저전력·고효율(1.95GHz) 코어 4개로 구성된 Arm 기반 빅리틀 구조 CPU와 헥사곤 NPU, 아드레노 GPU와 와이파이/블루투스/5G 등 통신 기능을 통합했다. 작년 8월 출시된 스냅드래곤 W5+ 대비 싱글 코어 CPU 성능은 최대 5배, GPU 성능은 최대 7배 향상돼 앱 실행과 멀티태스킹, 렌더링 성능을 개선했다. 내장된 헥사곤 NPU를 활용해 엣지에서 최대 20억 개 매개변수 AI 모델을 구동 가능하며 이를 활용해 상황 인지 기반 추천, 자연어 음성처리, 라이프 로깅, AI 에이전트 등 기능을 실행한다. 전력 소모를 최적화해 충전 빈도를 줄이는 한편 전 세대 대비 실사용 시간을 30% 연장했다. 기기 내장 배터리를 9V로 충전하는 급속 충전 기능을 사용하면 기기 내장 300~600mAh 배터리를 약 10분 만에 50% 용량까지 충전이 가능하다. 5G 레드캡, 초저전력 와이파이, 블루투스 6.0과 초광대역 무선기술(UWB), GPS·글로나스 등 위성항법시스템(GNSS), 위성통신을 위한 비지상 네트워크(NB-NTN) 등 6가지 통신 수단을 결합했다. 이를 통해 기기 페어링과 단독 실행, 산간 지역이나 사막 등에서 위성을 통한 SOS 메시지 송수신이 가능하다. 알렉스 카투지안 퀄컴 총괄 부사장 겸 모바일·컴퓨트·XR그룹 본부장은 "스냅드래곤 웨어 엘리트는 통합 NPU 아키텍처와 첨단 센서 처리 기능을 기반으로 강력한 엣지 AI를 구동하며 이를 통해 개인화된 AI 경험을 구현한다"고 밝혔다. 스냅드래곤 웨어 엘리트는 워치·핀·펜던트 등 다양한 폼팩터 구동을 염두에 두고 설계됐다. 이를 탑재한 기기는 삼성전자, 모토로라, 구글 등 주요 제조사를 통해 몇 달 안에 출시 예정이다.

2026.03.03 00:39권봉석 기자

소테리아, 대표이사 지분 무상출연으로 550억원 주식보상

인터베스트, 하나벤처스, SBVA(구 소프트뱅크벤처스) 등 국내 대형 VC가 주목한 국내 팹리스(반도체 설계) 유망기업 소테리아(SOTERIA)가 파격적인 임직원 보상 정책을 내놓으며 인재 확보 경쟁에 불을 지폈다. 24일 소테리아에 따르면 이 회사는 도약과 우수 인재 확보를 위해 550억원 상당의 대표이사 주식을 회사에 무상 출연하기로 최종 결정했다. 보상 대상은 재직 중인 전 임직원이다. 성과에 따라 최소 1억 원 상당의 주식이 배정되며, 핵심 인재에게는 상한 없는 보상이 적용될 예정이다. 특히 이번 보상은 회사 가치 상승에 따라 주식 가치도 함께 커질 수 있다는 점에서, 단순 현금 보상을 넘어선 장기 인센티브로 주목받고 있다. 앞서 소테리아는 산은캐피탈, 인터베스트, 하나벤처스, SBVA 등으로부터 시리즈 투자를 유치하며 업계의 관심을 받아왔다. 투자사들은 소테리아가 ▲고성능 연산 ▲AI 가속 솔루션 ▲설계 및 자체검증 플랫폼을 아우르는 통합 솔루션 역량을 갖췄다는 점에 주목한 것으로 전해졌다. 하드웨어와 소프트웨어를 함께 내재화한 구조를 통해 기존 팹리스와 차별화된 성장 가능성을 보여줬다는 분석이다. 이번 보상안은 소테리아가 원하는 인재상을 분명히 드러낸다. 단순 실행자가 아니라, 문제를 정의하고 해결 구조를 설계하는 '아키텍트(Architect)'급 인재를 확보하겠다는 것이다. 이는 외부 투자금을 기술 고도화(R&D)와 인프라 확장에 집중하고, 인재 보상은 창업자 본인이 감수하겠다는 의지의 표현으로 해석된다. 업계에서는 이를 투자사와의 신뢰를 강화하는 동시에, 경영진의 성장 자신감을 드러낸 상징적 결정으로 보고 있다. 이번 보상안은 인적 역량 의존도가 절대적인 팹리스 산업 특성상, 핵심 인재 보상 강화와 톱티어 신규 인재 영입을 동시에 겨냥한 전략적 승부수라는 평가다. 소테리아는 "우리가 찾는 인재는 정해진 답을 수행하는 사람이 아니라, 길을 만들어가는 개척자"라며 "회사의 주인으로 의사결정에 참여하고, 성과를 지분으로 공유하는 실리콘밸리식 파트너십 문화를 정착시키겠다"고 밝혔다. 소테리아의 기술력은 삼성전자 파운드리 4나노(nm) 공정을 통해 입증됐다는 평가다. 핵심 제품인 HPC용 AI 가속기(NPU) '아르테미스(Artemis)'와 '아폴론(Apollon)'는 통상 4나노 공정에서 활용되는 0.75V 수준보다 크게 낮은 0.3V 초저전압 구동을 구현했다. 소테리아는 이를 위해 ARM, 시놉시스 등 외부 벤더의 상용 라이브러리 의존보다는, 0.3V 구동에 최적화한 라이브러리를 독자 개발해 적용했다. 전력 효율 극대화를 위해 설계 단계부터 자체 최적화를 밀어붙인 셈이다. 업계에서는 이 같은 초저전력 칩이 액침냉각 기반 데이터센터 시장과 높은 시너지를 낼 것으로 보고 있다. 생성형 AI 확산으로 데이터센터 전력 부담이 급증하는 가운데, 냉각 효율을 높이는 액침냉각 시스템과 초저전력 칩이 결합하면 전체 에너지 효율을 크게 높일 수 있다는 게 업계 시각이다. 또한 AI 대규모 언어모델(LLM)의 추론 효율을 획기적으로 개선한 AI 가속 솔루션 'ARES(AI Revolutionary Ecosystem for Sustainability)'가 글로벌 시장에 공식 공개됐다. 소테리아는 '24년 4분기부터 GPU 기반 AI 시장의 핵심 문제점인 LLM 대형화, 높은 GPU 비용, 메모리 부족, 데이터 병목 현상을 집중 분석하고, 이에 대응하기 위해 Decode 연산과 KV 캐시 오프로딩을 중심으로 한 하드웨어·소프트웨어 융합 기술을 개발했다. 여기에 자체 개발한 EDA(반도체 설계 자동화) 플랫폼 'DEF 지니(DEF Genie)'까지 더해지면서, 소테리아는 칩 설계부터 검증 최적화까지 아우르는 통합 체계를 갖췄다. 회사 측은 자사 칩 구조에 맞춘 DEF 지니를 통해 설계 및 검증 속도를 앞당기고 제품 완성도를 높이고 있다고 설명했다.

2026.02.27 17:24장경윤 기자

시스원, 퓨리오사AI와 공공 총판 계약…2세대 NPU '레니게이드' 공급 본격화

시스원이 퓨리오사AI와 공공부문 총판 계약을 맺고 2세대 신경망처리장치(NPU) '레니게이드(RNGD)' 기반 인공지능(AI) 인프라 시장 공략에 나섰다. 시스원은 서울 강서구 마곡동 본사에서 퓨리오사AI와 공공부문 총판 계약을 체결하고 협정식을 진행했다고 27일 밝혔다. 이번 계약으로 시스원은 퓨리오사AI의 공공시장 진출을 이끄는 첫 총판 파트너가 됐다. 양사는 이번 협약을 계기로 공공기관을 대상으로 한 AI 추론 인프라 공급을 본격화한다. 시스원은 퓨리오사AI의 2세대 NPU 레니게이드' 카드와 'NXT 레니게이드' 서버 제품군을 공공기관에 공급할 계획이다. AI 추론 서버 도입을 준비 중인 중앙부처와 공공기관, 공기업 등을 주요 타깃으로 삼는다. 퓨리오사AI는 대규모 AI 추론 환경에 최적화한 독자 아키텍처 '텐서 축약 프로세서(TCP)'를 기반으로 칩과 소프트웨어 스택을 고도화해 왔다. 2025년 7월에는 LG AI연구원과 레니게이드 실증을 진행해 대규모 언어모델 '엑사원(EXAONE)' 적용을 확정했다. 이를 통해 GPU 대안 추론 솔루션으로서의 경쟁력을 입증했다는 설명이다. 시스원은 1982년 설립 이후 44년간 공공기관을 대상으로 시스템 통합(SI), IT 인프라 운영, 클라우드, 보안 서비스를 제공해 왔다. 약 3백50명의 전문 인력을 기반으로 시스템 구축부터 운영, 컨설팅까지 수행하는 중견 IT 기업이다. 인천국제공항 출입국 심사 자동화 시스템 '이 게이트(e-Gate)' 구축 등 국가 기반 보안 프로젝트 경험도 보유하고 있다. 양사는 앞으로 공동 사업 기회 발굴, 기술 세미나 개최, 레퍼런스 확보 등 다방면 협력을 추진한다. 공공부문 인공지능 전환(AX)을 지원하는 핵심 인프라 공급망을 함께 구축한다는 방침이다. 김영주 시스원 대표는 "이번 총판 계약은 공공부문에서 요구하는 인공지능 전환의 핵심 인프라를 제공하기 위한 협력"이라며 "퓨리오사AI와 함께 국내 AI 반도체 생태계를 활성화하고 성공적인 AX를 이끌겠다"고 말했다. 백준호 퓨리오사AI 대표는 "시스원의 공공시장 전문성과 사업 수행 역량은 자사 기술 확산에 중요한 역할을 할 것"이라며 "긴밀한 협력을 통해 제품이 업계 표준으로 자리 잡도록 노력하겠다"고 밝혔다.

2026.02.27 16:50남혁우 기자

칩스앤미디어, 차세대 맞춤형 NPU 'WAVE-N' 생태계 본격 확대

멀티미디어 IP 전문기업 칩스앤미디어는 차세대 맞춤형 NPU(신경망처리장치) 아키텍처인 'WAVE-N' 생태계를 전략적으로 확대한다고 25일 밝혔다. WAVE-N은 AI 기반 영상·이미지 처리에 특화된 차세대 NPU 기술로, 다양한 AI 네트워크에 최적화된 성능과 높은 전력 효율을 동시에 구현하는 것이 특징이다. 칩스앤미디어는 이를 중심으로 글로벌 AI 이미징 기업들과 협력해 생태계를 강화하고 있다. 이번 생태계 확장의 핵심은 ▲AI 이미징 네트워크 선도 기업들과의 전략적 파트너십 구축 ▲실리콘 검증을 마친 WAVE-N IP와 고성능 AI 네트워크의 통합 ▲고객이 즉시 활용 가능한 검증된 이미징 솔루션 제공 ▲이미징·비전 기술 분야의 경쟁력 강화다. 칩스앤미디어는 WAVE-N 출시 이후 면적과 전력 효율성에 중점을 두고 하드웨어 성능을 지속적으로 검증해왔다. 그 결과, 초해상도 기술(SESR)과 객체 탐지 기술(YOLO 시리즈) 등 주요 AI 이미징 응용 분야에서 경쟁사 대비 최대 6~10배 빠른 성능을 확보했다고 설명했다. 또한 글로벌 AI 소프트웨어 기업들과 공동 벤치마킹을 진행한 결과, 동일한 하드웨어 자원(면적·전력) 기준에서 더 높은 성능을 구현하거나, 동일 성능을 더 적은 자원으로 달성하는 것으로 나타났다. 이는 점점 더 복잡해지고 다양해지는 최신 AI 모델 환경에서 매우 중요한 경쟁 요소로 평가된다. 이 같은 기술적 성과를 바탕으로 WAVE-N 생태계에는 아시아, 북미, 유럽의 주요 기업들이 참여하고 있으며, 현재 제품 상용화를 목표로 협력을 강화하고 있다. WAVE-N 생태계 1세대는 올해 2분기 내 구축 완료를 목표로 하고 있다. 칩스앤미디어는 향후 다양한 이미징 솔루션을 하나로 아우르는 'AI All-in-One' 연합 체계를 통해 전 세계 고객에게 유연하고 사용하기 쉬운 AI 이미징 플랫폼을 제공한다는 계획이다.

2026.02.25 09:38장경윤 기자

더존비즈온-퓨리오사AI, 국산 NPU로 공공·금융 AI 판 키운다

정부가 국산 인공지능(AI) 반도체 확산 정책을 본격화하는 가운데 더존비즈온이 국내 대표 신경망처리장치(NPU) 기업 퓨리오사AI와 손잡고 국내 공공·금융 시장 확산과 글로벌 사업 확대에 박차를 가한다. 더존비즈온은 서울 중구 더존을지타워에서 퓨리오사AI와 NPU 기반 AI 솔루션 글로벌 사업화를 위한 업무협약(MOU)을 체결했다고 19일 밝혔다. NPU는 생성형 AI 개발 등에 활용되는 AI 반도체로, 그래픽처리장치(GPU)보다 전력 소모량이 적고 AI 추론·연산에 특장점을 갖고 있다. 퓨리오사AI는 AI 반도체 설계기업으로 2017년 설립 이후 1세대 컴퓨터 비전용 NPU 상용화에 이어 최근 2세대 칩 '레니게이드(RNGD)' 양산을 시작했다. 이번 협약은 양사가 공동 수행한 '2025년 AI 반도체 해외실증 사업'을 비롯해 그동안 상호 축적된 성공적인 협업 성과를 토대로 마련됐다. 레니게이드를 기반으로 한 AI 솔루션의 국내·해외 사업화를 목표로 상호 기술 협력을 비롯해 공동 레퍼런스 창출 등 다각적인 협력 활동을 전개할 방침이다. 특히 정부가 최근 공공부문을 중심으로 국산 NPU 적용 확대를 추진하는 상황에서 이번 협력이 관련 시장 확대 흐름과 맞물릴지 주목된다. 양사는 퓨리오사AI NPU 환경에서 더존비즈온의 '원 AI'를 구동·적용하는 데 주력한다. 레니게이드 기반 인프라를 활용해 공공·금융 등 보안과 안정성이 중요한 프라이빗 환경을 대상으로 AI 서비스 지원 및 전력 효율과 운영 효율까지 고려한 인프라 검증·구성에 나선다. 시장 적용 가능성과 기술적 신뢰도 역시 단계적으로 확보한다는 목표다. 실제 현장의 서비스 운영 환경을 기준으로 국산 NPU 기반 AI 서비스 성능, 전력 소모 대비 처리량 측면의 객관적 검증을 추진하고 신뢰할 수 있는 제삼자 검증 체계를 통해 결과를 확인·축적할 예정이다. 이를 통해 양사는 국산 NPU에 접목된 AI 서비스의 운영 효율성과 비용 경쟁력을 입증할 계획이다. 향후 국내외 시장에서의 사업화와 시장 확대를 위한 기술적 기반도 공동으로 마련한다는 방침이다. 더존비즈온은 이번 협력으로 고가의 외산 GPU 의존도를 낮추고 국산 AI 반도체를 활용한 독자적인 AI 인프라 선택지를 확보하게 됐다. 퓨리오사AI 역시 더존비즈온의 기업 고객을 대상으로 공급처 확대에 나서고 기업 핵심 업무 영역에서의 적용 사례와 피드백을 추후 시장 개척에 활용할 계획이다. 다만 더존비즈온이 퓨리오사AI의 NPU를 얼마나 도입할지에 대해선 아직 구체적으로 공개되지 않았다. 단계적 검증과 사업화 추진 상황에 따라 적용 범위를 확대해 나갈 것으로 풀이된다. 더존비즈온 관계자는 "이번 협약은 국산 AI 기술의 자립과 글로벌 경쟁력 강화를 위한 중요한 전환점이 될 것"이라며 "우리 AI 솔루션 역량과 퓨리오사AI의 반도체 기술력을 결합해 효율적이고 신뢰도 높은 글로벌 AI 비즈니스 모델을 만들어 갈 것"이라고 말했다.

2026.02.19 16:02한정호 기자

韓 AI반도체, '엔비디아 대항마' 넘어 실전으로

AI 시대의 개막과 함께 반도체 산업의 패러다임이 급변하고 있다. 인공지능 구현에 필수적인 고성능 반도체의 수요가 폭증함에 따라, 엔비디아의 GPU(그래픽처리장치)를 중심으로 한 글로벌 AI 생태계는 그 어느 때보다 공고한 성벽을 쌓아 올렸다. 그러나 최근 AI 시장의 무게추가 모델 학습에서 '추론(Inference)'으로 이동하며 GPU 중심의 시장 구조에 변화의 조짐이 나타나고 있다. 학습에서 추론으로, NPU 시장의 활성화 생성형 AI의 확산은 데이터센터부터 엣지, 온디바이스 전반에 걸쳐 막대한 연산 수요를 창출하고 있다. 초기 시장이 대규모 언어 모델을 학습시키기 위한 GPU 중심이었다면, 이제는 학습된 모델을 실무 서비스에 적용하는 추론 단계가 핵심 경쟁력으로 부상했다. 이 과정에서 AI 연산에 특화된 NPU(신경망처리장치) 시장이 본격적으로 활성화되고 있다. NPU는 범용성을 갖춘 GPU와 달리 AI 알고리즘 처리에 최적화돼 있어, 전력 효율성과 비용 측면에서 압도적인 강점을 가진다. 글로벌 테크 기업들이 효율적인 AI 인프라 구축을 위해 NPU로 눈을 돌리면서, NPU는 GPU의 대안을 넘어 차세대 반도체의 주역으로 자리매김하고 있다. 2026년, 대한민국 AI 반도체 '원년'의 선포 이러한 시장 변곡점에서 국내 AI 반도체 기업들은 글로벌 시장의 주도권을 잡기 위해 총력전을 펼치고 있다. 특히 2026년은 국내 주요 AI 반도체 스타트업들의 기술력이 담긴 칩들이 일제히 시장에 출시되는 시점으로, '한국 AI 반도체의 원년'이라 부르기에 부족함이 없다. 리벨리온, 퓨리오사AI, 딥엑스, 모빌린트 등 국내 기업들은 각기 다른 전략과 포지셔닝을 통해 글로벌 경쟁력 확보에 매진하고 있다. 이들은 단순한 기술 개발을 넘어 시제품(PoC) 단계를 통과하고 실제 양산 및 상용화 단계로 진입하며 실질적인 성과를 증명해야 하는 중요한 기로에 서 있는 셈이다. 생존 전략을 위한 SWOT 분석 [K-AI칩이 온다] 연재 기획은 국내 주요 AI 반도체 및 인프라 기업 7곳을 대상으로 이들의 기술력과 시장 생존 전략을 집중 조명한다. 각 기업의 주력 시장과 포지셔닝, 성능 및 전력 효율성, 그리고 소프트웨어(SW) 경쟁력을 다각도로 분석할 예정이다. 급변하는 글로벌 공급망 리스크와 양산 과제 속에서 국내 기업들이 가진 강점(Strength), 약점(Weakness), 기회(Opportunity), 위협(Threat) 요인을 면밀히 분석함으로써 대한민국 AI 반도체 산업의 현주소와 미래 가능성을 제시하고자 한다.

2026.02.18 16:00전화평 기자

Arm, 플렉서블 액세스 프로그램 연간 비용 인하

Arm이 반도체 설계 업체를 지원하는 '플렉시블 액세스' 프로그램의 진입 장벽을 낮추고 신경망처리장치(NPU) 등 새로운 IP를 추가했다고 9일 밝혔다. 플렉시블 액세스 프로그램은 반도체 설계 관련 업체를 대상으로 연간 일정 비용 지불시 Arm IP를 활용한 반도체를 무제한 양산(테이프아웃)할 수 있는 프로그램으로 2019년부터 시작됐다. 현재까지 100개 이상의 기업이 플렉시블 액세스 프로그램을 활용해 400개 이상 반도체를 출시했다. 국내 시장에서는 약 80개 기업이 프로그램에 참여해 엣지 AI 등 분야 솔루션을 개발중이다. Arm은 플렉시블 액세스 프로그램 연간 비용을 종전 20만 달러(약 2억 9200만원)의 절반 이하인 8만 5000달러(약 1억 2400만원)로 낮추고 탐색 단계부터 양산까지 전 과정을 지원한다. 2020년 시작된 '플렉시블 액세스 포 스타트업' 프로그램은 자본금이 500만 달러(약 61억원) 이하인 반도체 스타트업 대상으로 Arm IP와 리소스 접근권을 제공한다. 라이선스 비용은 실제 상용화 제품에 적용된 기술에만 청구된다. Arm은 해당 프로그램의 지원 범위도 확대한다. 투자 유치 한도액을 기존 2천만 달러(약 292억 6000만원)에서 2.5배인 5천만 달러(약 731억 5000만원)로, 연간 매출 기준을 100만 달러(약 14억 6300만원)에서 500만 달러(약 73억 1500만원)로 높였다. 플렉시블 액세스 프로그램으로 활용할 수 있는 신규 IP에는 트랜스포머 기반 모델을 지원하는 NPU인 에토스-U85, 코어텍스-M85 CPU와 에토스-U85 NPU, 말리-C55 ISP로 구성된 실시간 AI 솔루션인 코어스톤-320 기반 솔루션 등이 추가됐다. 닐 패리스 Arm 커머셜 인에이블먼트 디렉터는 "스타트업과 기존 설계팀 모두에게 재정적 부담 없이 탐색하고 테스트하며 설계를 고도화할 수 있는 환경은 필수"라고 밝혔다. 이어 "Arm 플렉서블 액세스는 접근성을 간소화하고, 기술 및 플랫폼 선택지를 확대하며, 에코시스템을 강화함으로써 차세대 실리콘 혁신 기업들이 아이디어 단계에서 실제 구현까지 보다 스마트하고 빠르게, 그리고 대규모로 진행할 수 있도록 지원한다"고 덧붙였다.

2026.02.09 09:41권봉석 기자

엔비디아 GPU 의존 넘을까…정부에 발 맞춘 LG CNS, 국산 AI 반도체로 공공 AX 공략

LG CNS가 인공지능(AI) 반도체 기업 퓨리오사AI와 손잡고 신경망처리장치(NPU) 기반 AI 서비스를 개발해 공공 AX 시장 공략에 나선다. 정부가 국산 AI 반도체 육성을 핵심 과제로 내세운 가운데 대기업과 국내 AI 반도체 스타트업 간 협력이 본격화하는 모습이다.LG CNS는 서울 마곡 LG사이언스파크 본사에서 퓨리오사AI와 'AI 인프라 사업 협력 확대'를 위한 업무협약(MOU)을 체결했다고 5일 밝혔다. 협약식에는 LG CNS AI클라우드사업부 김태훈 부사장과 퓨리오사AI 백준호 대표 등 주요 경영진이 참석했다. 퓨리오사AI는 AI 연산에 특화된 반도체인 NPU를 설계·개발하는 AI 반도체 스타트업이다. 퓨리오사AI의 2세대 NPU 'RNGD(레니게이드)'는 대규모 AI 서비스에 필요한 고성능 요건을 충족하고, 그래픽처리장치(GPU) 대비 전력 소모와 운영 비용을 크게 줄일 수 있다. 퓨리오사AI는 지난 1월 TSMC로부터 RNGD 4000장을 인도받으며 양산에 성공, 글로벌 시장 공략 및 보급에 박차를 가하고 있다. 이번 협력을 통해 양사는 LG AI연구원 컨소시엄으로 참여 중인 '독자 AI 파운데이션 모델' 프로젝트 내 협력을 강화한다. LG CNS는 퓨리오사AI의 RNGD를 적용한 K-엑사원(EXAONE)을 기반으로 AI 서비스의 성능을 최적화하고, 상용화해 시너지를 극대화하는 역할을 맡는다. 퓨리오사AI는 안정적인 RNGD 공급과 함께 NPU 관련 기술 지원을 담당한다.이번 협력은 국산 AI 반도체가 실제 AI 서비스 환경에서 상용화 가능성을 검증하는 사례라는 점에서 업계의 관심을 받고 있다. 그동안 국내 AI 반도체는 기술력 대비 상용 레퍼런스 부족이 한계로 지적돼 왔는데, 이번 협력을 계기로 대기업 AI 서비스 인프라에 토종 NPU가 적용되는 실증 사례가 추가됐다는 평가다. 업계에선 이번 협력이 토종 AI 반도체가 엔비디아 중심의 GPU 생태계에 도전할 수 있는 가능성을 보여주는 사례이자, 국내 AI 반도체 기업들이 본격적으로 공급망에 참여할 수 있는 신호탄이라는 분석도 나온다. GPU 중심 인프라 구조에서 벗어나려는 시도라는 점도 이번 협력의 의미로 꼽힌다. 퓨리오사AI의 NPU는 GPU 대비 전력 효율과 추론 성능 측면에서 경쟁력을 갖췄다는 평가를 받아왔다. 이번 프로젝트를 통해 단순한 하드웨어 대체를 넘어 AI 서비스 특성에 맞춰 GPU와 NPU를 병행·최적화하는 인프라 구조의 가능성을 검증한다는 점에서 AI 인프라 생태계 확장으로 이어질 수 있다는 해석도 나온다. LG CNS 역시 협력 배경으로 GPU 중심 생태계에 대한 종속성을 줄이고, 국내 AI 기술과 인프라 경쟁력을 강화하려는 전략을 강조하고 있다. 특히 공공 AX 시장의 경우 비용 효율성과 안정성이 중요한 만큼, NPU 기반 인프라가 현실적인 대안이 될 수 있다는 판단이다. 퓨리오사AI 입장에서도 이번 협력은 성장의 중요한 분기점으로 평가된다. 국내 대기업의 AI 서비스 인프라에 자사 NPU가 채택되면서 기술력뿐 아니라 상용성과 안정성을 동시에 입증할 수 있는 레퍼런스를 확보하게 됐기 때문이다. 회사는 이를 바탕으로 글로벌 시장에서도 고객 확보에 나선다는 전략이다. 업계 관계자는 "LG CNS와의 협력이 특정 기업의 성과를 넘어 국내 팹리스 기업들이 AI 반도체 분야에서 자체 제품을 실제 서비스에 적용하는 사례를 늘리는 계기가 될 수 있을 것"이라며 "정부가 국산 AI 반도체 육성을 핵심 과제로 제시한 상황에서 민간 차원의 실질적인 상용화 사례가 등장하고 있다는 점에서 의미가 있다"고 분석했다. 양사는 이번 협력을 계기로 토종 AI 모델과 서비스, 인프라, AI반도체로 구성된 '소버린 AI 생태계'를 더욱 강화하고 공공 AX 시장에 최적화된 서비스를 제공한다는 전략이다. 공공 부문 특성상 보안성과 비용 효율, 안정성이 중요한 만큼, GPU 중심 인프라의 대안으로 NPU 기반 AI 인프라를 제시하겠다는 구상이다. 협력의 첫 단계로 LG CNS는 자체 개발한 기업용 에이전틱AI 플랫폼 '에이전틱웍스(AgenticWorks)' 구동 인프라에 퓨리오사AI NPU를 적용해 기술 검증을 진행한다. 에이전틱AI는 스스로 목표를 설정하고 복잡한 업무를 수행하는 만큼, 이를 뒷받침할 고성능·고효율 인프라가 필수적이다. LG CNS는 NPU 기반 인프라를 통해 에이전틱AI 서비스의 전력 효율과 운영 효율을 동시에 높일 계획이다. 양사는 NPU 기반 GPUaaS(GPU as a Service) 성능 최적화 기술도 실증한다. GPUaaS는 GPU를 가상화해서 제공하는 방식으로, 사용자는 실제 하드웨어를 구매하지 않고도 고성능 연산 환경을 활용할 수 있어 AI 시대의 핵심 모델로 각광받고 있다. 양사는 AI 학습과 AI 서비스 운영, 추론 등 모든 단계에 NPU를 적용해 전력 효율과 비용 경쟁력을 높일 수 있는 인프라 최적화에 나선다. 김태훈 LG CNS AI클라우드사업부 부사장은 "퓨리오사AI와의 협력을 통해 고객들이 에이전틱AI를 보다 효율적으로 사용할 수 있도록 NPU 기반 AI 인프라 기술력과 전문인력을 확보할 것"이라며 "LG AI연구원과 협력해 국가대표AI 모델 고도화를 지원하고 국내 AI 산업 발전에 기여할 것"이라고 밝혔다.

2026.02.05 10:05장유미 기자

"우린 GPU에만 의존하지 않아"…AI 가속기 선택 SW로 효율·전력·비용 잡아

GPU와 NPU(AI 계산에 특화된 반도체), PIM(메모리 안에서 AI 연산을 처리하는 차세대 반도체) 등 다양한 AI 가속기를 선택적으로 사용, 효율과 전력·비용 세마리 토끼를 한 방에 잡을 수 있는 차세대 AI 인프라 소프트웨어가 개발됐다. KAIST는 이 기술 개발에 박종세 전산학부 교수와 권영진· 허재혁 교수가 참여하고, 쿤레 올루코툰(Kunle Olukotun) 미국 AI 반도체 시스템 스타트업 삼바노바(SambaNova) 공동창업자이자 스탠포드대학 교수가 자문을 수행했다고 1일 밝혔다. 이 기술은 최근 카카오가 주최한 '4대 과학기술원×카카오 AI 육성 프로젝트'에서 애니브릿지 AI 팀으로 참가, 대상을 수상하고 상금 2,000만원과 3,500만원 어치 카카오클라우드 크레딧을 받았다. 연구팀은 초대형언어모델(LLM) 서비스가 대부분 고가 GPU 인프라에 의존, 서비스 규모가 확대될수록 운영 비용과 전력 소모가 급격히 증가하는 구조적 한계가 있다는 점에 주목했다. 특히, 이 문제의 근본 원인이 특정 하드웨어 성능이 아니라, GPU나 NPU, PIM 등 다양한 AI 가속기를 효율적으로 연결·운용할 수 있는 시스템 소프트웨어 계층 부재에 있다고 봤다. 연구팀은 이에 가속기 종류와 관계없이 동일한 인터페이스와 런타임 환경에서 LLM을 서비스할 수 있는 통합 소프트웨어 스택을 개발한 것. 특히 GPU 중심으로 고착화된 기존 LLM 서빙 구조의 한계를 지적하고, 여러 종류의 AI 가속기를 하나의 시스템에서 함께 활용할 수 있는 '멀티 가속기 LLM 서빙 런타임 소프트웨어'를 핵심 기술로 제시했다. 이 기술은 특정 벤더나 하드웨어에 종속되지 않으면서도, 작업 특성에 따라 가장 적합한 AI 가속기를 선택·조합할 수 있는 유연한 AI 인프라 구조 구현이 가능하다. 이는 LLM 서비스 비용과 전력 소모를 줄이고, 확장성을 크게 높일 수 있는 장점이 있다. 박종세 교수는 "AI 시스템과 컴퓨터 아키텍처 분야에서 축적한 연구 성과를 바탕으로 산업 현장에서 활용 가능한 기술 개발을 통해 글로벌 시장으로 진출할 계획"이라고 말했다.

2026.02.01 01:16박희범 기자

인텔, 코어 울트라 시리즈3 본격 시동 "AI PC의 완성형"

"인텔 코어 울트라 시리즈3는 향상된 전력 효율과 그래픽 성능, x86의 호환성을 갖춘 AI PC의 완성형이다. 인텔은 이를 바탕으로 한국 파트너들과 협력하여 AI PC 생태계를 한 단계 더 높은 차원으로 도약시킬 것으로 기대한다" 28일 오전 서울 삼성동 웨스틴 파르나스에서 진행된 '2026 AI PC 쇼케이스 서울'에서 조쉬 뉴먼 인텔 컨수머 PC 부문 총괄이 이렇게 설명했다. 인텔은 1.8나노급 '인텔 18A' 공정에서 생산된 차세대 AI PC용 프로세서, 코어 울트라 시리즈3(팬서레이크)를 올 초 CES 2026에서 정식 출시했다. 주요 제조사도 27일을 기점으로 PC 신제품 출하에 나섰다. "코어 울트라 시리즈3, 모든 면에서 진보한 제품" 코어 울트라 시리즈3는 인텔 18A 공정의 양대 요소인 게이트올어라운드(GAA) 리본펫 트랜지스터와 반도체 후면 전력 전달 기술 '파워비아'를 적용한 첫 상용 제품이다(기술적 세부 내용은 관련기사 참조). 조쉬 뉴먼 총괄은 "코어 울트라 시리즈3는 코어 울트라 200V(루나레이크)의 전력효율성, 코어 울트라 200H(애로우레이크)의 고성능을 결합하는 것을 목표로 CPU, GPU, NPU 등 모든 면에서 진보를 달성한 제품"이라고 설명했다. 이어 "전력 효율성 향상으로 배터리 지속시간을 시간 단위에서 일 단위로 확장하는 한편 Xe3 12코어로 구성된 새 내장 GPU '아크 B390'은 초박형 노트북에서 그동안 불가능했던 게임 성능을 구현했다"고 강조했다. 삼성전자·LG전자, 27일 PC 신제품 국내 출시 삼성전자와 LG전자는 지난 27일 각각 '갤럭시북6 프로/울트라', 'LG 그램 프로 AI' 등 코어 울트라 시리즈3 탑재 신제품을 국내 출시했다. 이민철 삼성전자 MX사업부 갤럭시 에코비즈팀장(부사장)은 "갤럭시북6는 50년 이상 축적한 제조 경험과 갤럭시 생태계를 기반으로 성능과 배터리 지속시간, 안정성 등 PC 기본 요소 재정의에 집중한 완전히 새로운 제품"이라고 설명했다. 이어 "인텔의 PC 원격 관리기술 'v프로', 삼성전자의 보안 기술 '녹스'(KNOX)를 적용한 기업용 파생모델 '갤럭시북6 엔터프라이즈 에디션'도 5월경 추가 출시 예정"이라고 덧붙였다. 장진혁 LG전자 전무는 "LG 그램 프로 AI는 경량 합금 '에어로미늄' 소재를 기반으로 코어 울트라 시리즈3의 GPU·NPU를 활용해 클라우드 AI, 마이크로소프트 코파일럿+, LG가 자체 개발한 엑사원 3.5 기반 '그램 AI' 등 폭넓은 AI 기능을 제공한다"고 설명했다. 산업용 엣지 솔루션으로 포트폴리오 확장 인텔은 지난 해 9월 '인텔 테크투어 US' 행사 당시 코어 울트라 시리즈3에 적용된 모든 IP를 그대로 품은 산업용 엣지 솔루션도 동시에 시장에 공급할 것이라고 밝힌 바 있다. 이날 조쉬 뉴먼 총괄 역시 이를 재확인하고 "엣지용 코어 울트라 시리즈3는 극저온/고온 환경에서 정상 작동, 24시간 주 7일 구동되는 안정성과 긴 수명주기를 바탕으로 스마트시티, 헬스케어, 자동화 시스템의 엣지 AI 구현을 도울 것"이라고 설명했다. 인텔과 협력해온 LG이노텍, 삼성메디슨 등 국내 파트너사도 "AI 사물인식을 통한 결함 검출과 제조 현장 자동화, 의료 AI를 활용한 초음파 영상 진단 개선 등에 코어 울트라 시리즈3를 활용할 것"이라고 밝혔다. 인텔 "다양한 가격대 제품 출시 위해 노력" 립부 탄 인텔 CEO는 지난 주 실적발표 이후 컨퍼런스 콜에서 "웨이퍼 제약으로 PC용 프로세서 우선순위가 밀렸으며 고가 제품 위주로 공급한다"고 설명한 바 있다. 일부 업체도 Xe3 12코어 GPU를 내장한 고성능 제품을 우선 출시했다. 문제는 메모리 반도체 수급난이 가시화되며 올해 PC 신제품 가격이 크게 상승했다는 점이다. 가격 부담이 적은 제품을 찾는 소비자가 제품 구매를 꺼릴 것이라는 전망이 나오고 있다. 이날 현장에서 만난 한 외국계 제조사 국내법인 관계자는 "예정대로라면 이달 말 공급돼야 할 신제품이 다음 달 초 국내 들어오는 등 수급 관련 일부 차질이 있다"고 설명했다. 조쉬 뉴먼 총괄은 "다양한 가격대 제품군 출시를 위해 여러 제조사와 함께 시장 수요에 보다 정밀히 대응 예정"이라고 설명했다. 배태원 인텔코리아 대표이사 역시 "2분기부터는 공급 상황이 나아질 것"이라고 설명했다.

2026.01.28 17:10권봉석 기자

퓨리오사AI, 2세대 칩 '레니게이드' 양산 개시

AI 반도체 기업 퓨리오사AI가 2세대 칩 RNGD(레니게이드) 1차 양산물량 4천장을 인도받기 시작했다고 28일 밝혔다. RNGD는 파운드리(반도체 위탁생산) 협력사인 대만 TSMC가 제조를 완료한 뒤, 아수스(ASUS)의 카드 제조 공정을 거쳐 출고된다. 회사는 올해 약 2만장 수준의 양산을 계획 중이다. RNGD는 앞서 2024년 하반기 미국 스탠퍼드대학교 세계 반도체 기업 연례 학술행사 '핫 칩스 2024'에서 공개된 바 있으며, 이후 엄밀한 제품화 과정을 거쳤다. 이번 양산은 세계적으로도 HBM을 탑재한 고성능 NPU(신경망처리장치)가 개발을 넘어 양산 단계까지 이른 드문 경우라 글로벌 반도체 업계의 관심을 모으고 있다. RNGD는 두 가지 형태로 제공된다. 'RNGD PCIe 카드'는 180W TDP의 저전력 설계를 적용해 기존 서버에 바로 장착 가능한(drop-in) AI 가속기로 제공된다. 'NXT RNGD 서버'는 RNGD 카드 8장을 탑재한 4U 랙마운트 서버로, 시스템 전체 소비 전력은 3kW에 불과하다. 표준 랙 환경에 최대 5대까지 장착 가능하며, 랙당 최대 20 PFLOPS(INT8)의 AI 추론 성능을 제공한다. 퓨리오사AI는 양산 물량 인도를 계기로 엔터프라이즈 시장 공략에 본격 나선다는 구상이다. 실제로 이미 이달 초 국내 대기업 계열사 한 곳에서 RNGD 구매를 발주하는 등 글로벌 엔터프라이즈 단에서 RNGD 검증을 마치고 정식 채택하는 사례가 늘어나고 있다. 퓨리오사AI는 그동안 하드웨어 안정화와 소프트웨어 스택 고도화를 진행해 왔으며, 이를 토대로 작년 하반기 LG 엑사원(EXAONE) 도입 확정과 오픈AI와의 GPT-OSS 모델 공개 시연 등 실사용 기반의 성과를 축적해 왔다. TSMC, SK하이닉스 등 글로벌 파트너들과의 협력 체계를 바탕으로 안정적인 양산·공급 라인망도 구축했다. RNGD는 인프라 총소유비용(TCO)를 절감할 것으로 기대된다. 이 칩은 기존 인프라 변경 없이 바로 쓸 수 있다. 현재 데이터센터 냉각 방식의 주류를 이루는 공냉식을 기반으로 동작하기 때문이다. 아울러 RNGD는 AI 추론에 최적화된 TCP 아키텍처를 기반으로, 표준 환경에서 GPU 기반 시스템 대비 2.5배 높은 '랙당 연산 밀도'를 제공한다. 이는 동일한 공간과 전력 조건에서 더 많은 AI 추론 워크로드를 처리할 수 있음을 의미한다. 백준호 퓨리오사AI 대표는 “RNGD 양산은 글로벌 AI 3강·반도체 2강 도약을 위한 진일보”라며 “박차를 가해 글로벌 시장 매출 확대를 이루어내겠다”고 말했다.

2026.01.28 09:56전화평 기자

메가존클라우드, 하나은행과 디지털 혁신 금융 서비스 발굴 '맞손'

메가존클라우드가 하나은행과 인공지능(AI)·클라우드·데이터 사이언스 등 디지털 신기술을 접목한 혁신 금융 서비스 공동 발굴에 나선다. 메가존클라우드는 지난 23일 서울 중구 하나은행 을지로 본점에서 하나은행과 AI 클라우드 시장 내 상호 협업과 금융 서비스 지원을 위한 전략적 업무협약(MOU)을 체결했다고 26일 밝혔다. 이날 체결식에는 이주완 메가존클라우드 이사회 의장과 이호성 하나은행장이 참석했다. 이번 협약을 통해 양측은 정부의 글로벌 AI 3강 비전에 따른 AI 데이터센터 구축을 위해 메가존클라우드가 도입 예정인 대규모 그래픽처리장치(GPU)·신경망처리장치(NPU) 서버 수입과 관련한 하나은행의 수출입 금융 지원을 추진한다. 아울러 금융 서비스, 클라우드, AI 등 양사가 보유한 기술과 서비스를 활용한 융복합 비즈니스 모델 발굴 등에 지속 협력할 방침이다. 특히 하나은행은 GPU·NPU 서버 수입과 관련한 금융 지원과 별도로 직·간접 지분 투자도 추진할 계획이다. 이를 통해 메가존클라우드는 아시아 최대 클라우드 관리 서비스 기업(MSP) 입지와 기술 경쟁력을 강화한다는 목표다. 또 GPU 수급에 어려움을 겪고 있는 국내 빅테크·반도체 기업의 성장 촉진도 도모할 방침이다. 메가존클라우드 황인철 최고매출책임자(CRO)는 "우리 강점인 멀티·하이브리드 클라우드 운영 역량과 AI 특화 플랫폼을 하나은행의 금융 데이터들과 겹합해 AI 금융 특화 솔루션을 만들고 금융 특화 AI 데이터센터 활성화를 가속화할 예정"이라고 밝혔다.

2026.01.26 16:14한정호 기자

홈가전도 온디바이스 AI 경쟁 붙불었다

AI 기술이 가전의 핵심 경쟁 요소로 떠오르면서 가전 업계의 경쟁 축도 빠르게 이동하고 있다. 클라우드 중심이던 AI 전략이 '온디바이스 AI'로 옮겨가며, 반도체 경쟁력이 성능을 좌우하는 핵심 변수로 부상하고 있다. 실제로 삼성전자와 LG전자는 냉장고·세탁기·에어컨 등 주요 생활가전에 AI 칩과 알고리즘을 직접 탑재하는 전략을 전면에 내세우고 있다. 사용자의 패턴을 기기 내부에서 학습·분석해, 서버 연결 없이도 AI 기능을 구현하겠다는 구상이다. 온디바이스 AI 경쟁의 핵심은 반도체 19일 전자 반도체 업계에 따르면 온디바이스 AI 확산과 함께 가전업계에서 새롭게 부각되는 요소는 반도체 경쟁력이다. 특히 AI 연산을 전담하는 NPU(신경망처리장치)의 중요성이 커지고 있다. 기존 가전용 반도체가 제어·전력 효율에 초점이 맞춰져 있었다면, 온디바이스 AI 시대에는 이미지·음성 인식, 사용자 행동 예측 등 AI 연산을 얼마나 빠르고 효율적으로 처리하느냐가 관건이 된다. 클라우드 연결 없이 AI 기능을 구현하려면, 기기 내부에 고성능·저전력 AI 반도체가 필수적이기 때문이다. '클라우드 없는 AI'가 만드는 차이 온디바이스 AI의 가장 큰 장점은 즉각성과 보안이다. 기존 AI 가전은 사용자의 데이터를 외부 서버로 보내 분석한 뒤 결과를 다시 받아오는 구조였다. 이 과정에서 지연이 발생하고, 개인정보 유출 우려도 꾸준히 제기돼 왔다. 반면 온디바이스 AI는 데이터 처리를 기기 내부에서 수행한다. 예를 들어 세탁기는 사용자의 세탁 패턴과 옷감 종류를 스스로 학습해 코스를 추천하고, 에어컨은 실내 환경과 사용 습관을 기반으로 냉방 방식을 조정한다. 네트워크 연결이 불안정해도 기본적인 AI 기능을 유지할 수 있다는 점도 강점이다. 다만 온디바이스 AI가 소비자에게 얼마나 명확한 차별점으로 다가오느냐는 별개의 문제다. 현재 AI 가전의 많은 기능이 자동화·추천에 집중돼 있어, 사용자가 “AI 때문에 달라졌다”고 느끼기엔 체감도가 높지 않다는 지적도 나온다. AI 기능이 늘어날수록 기기 가격 상승, 고장 우려, 사용 복잡성에 대한 부담도 함께 커진다. 결국 온디바이스 AI가 시장에 안착하려면, NPU 등 반도체 발전이 실제 사용 편의성과 비용 구조 개선으로 이어져야 한다는 분석이다. 반도체 업계 관계자는 “온디바이스 AI는 세트 업체를 반도체·플랫폼 기업과 더 가깝게 만든다”며 “가전 뿐만 아니라 완성품 업체와 NPU 기업 간 협력이 본격화될 것”이라고 전망했다. 자체 개발 삼성전자 vs 스타트업과 협력하는 LG전자 이에 삼성전자와 LG전자는 가전용 반도체 경쟁력을 강화하고 있다. 먼저 삼성전자는 온디바이스 AI 확산에 맞춰 자체 반도체 역량을 적극 활용하는 전략을 취하고 있다. 모바일 AP(어플리케이션 프로셋)와 시스템반도체 설계 경험을 바탕으로, 가전 제품에서도 AI 연산을 기기 내부에서 처리할 수 있도록 반도체와 소프트웨어 최적화에 힘을 싣고 있다. 업계에 따르면 삼성전자는 클라우드 의존도를 낮추고 응답 속도와 전력 효율을 개선하는 방향으로 AI 가전 기능을 고도화하고 있다. 중장기적으로는 가전용 AI 반도체 설계 역량을 더욱 강화할 가능성도 거론된다. LG전자는 국내 AI 반도체 스타트업과의 협력을 통해 온디바이스 AI 경쟁력을 강화하고 있다. 대표적인 사례가 모빌린트, 하이퍼엑셀등 AI 반도체 기업과의 협업이다. 모빌린트는 엣지 AI 환경에 특화된 NPU를 개발하는 스타트업으로, 저전력·고효율 AI 연산에 강점을 갖고 있다. 하이퍼엑셀 역시 AI 추론 가속 기술을 앞세워 데이터센터뿐 아니라 엣지 디바이스 영역으로 적용 범위를 넓히고 있다. LG전자는 이들 기업과의 협력을 통해 가전 환경에 적합한 AI 반도체와 소프트웨어 스택을 검증하고, 향후 온디바이스 AI 적용 가능성을 모색하고 있는 것으로 알려졌다. 대형 가전부터 로봇, 스마트홈 기기까지 적용 범위를 넓힐 수 있는 셈이다. 김주영 하이퍼엑셀 대표는 LG전자와 협력에 대해 "고객과 단순히 칩을 사고 파는 관계가 아니라, 설계 단계부터 함께 제품을 만드는 전략"이라고 설명했다.

2026.01.19 14:38전화평 기자

LG이노텍, 아틀라스 탑재 '비전 센서' 내년 하반기 양산 목표

국내 부품 기업 LG이노텍이 보스턴다이내믹스의 휴머노이드 로봇 '아틀라스'에 탑재될 비전 센서를 양산할 가능성이 높을 것으로 전망된다. 다만 핵심 부품인 신경망처리장치(NPU)와 관련해서는 협력사 선정에 어려움을 겪고 있는 것으로 전해진다. 공급을 요청한 반도체 기업이 초기 물량이 제한적하다는 이유로 참여에 신중한 태도를 보이고 있어서다. 13일 반도체 업계에 따르면 국내 전자부품 업체인 LG이노텍은 2028년 도입 예정인 아틀라스용 '비전 센싱 시스템'의 유력한 양산 업체로 꼽힌다. 아틀라스는 현대차그룹의 자회사인 보스턴다이내믹스의 휴머노이드 로봇이다. 56개의 관절을 활용해 360도로 움직일 뿐만 아니라, 50kg에 달하는 물건도 들어올릴 수 있다. 이 로봇은 최근 미국 라스베이거스에서 개최된 CES 2026에서 '최고의 로봇상'을 수상한 바 있다. 비전 센싱 시스템은 RGB(빨강, 초록, 파랑) 카메라뿐 아니라 3D 센싱 모듈 등 다양한 센싱 부품을 하나의 모듈에 집약한 제품이다. 라이다(LiDAR), 레이더(Radar) 등도 내장된 종합 센서다. 이로 인해 로봇은 시야 확보에 제약이 있는 야간이나 악천후에도 각 부품이 상호작용하며 정보를 종합해, 주변 환경을 정확하게 인식할 수 있다. 현대차그룹은 오는 2028년까지 연간 3만대 규모의 휴머노이드 등 로봇 제품군의 양산 체계를 구축할 계획이다. 아틀라스를 미국 조지아주 '메타플랜트 아메리카(HMGMA)' 공장에 투입해 부품 분류 공정부터 적용하는 것이다. 2030년부터는 조립 공정으로 확대할 예정이다. 익명을 요청한 반도체 업계 관계자는 "2028년에 아틀라스가 현장에 투입돼야 하는 만큼, 로봇의 부품인 센서는 2027년 하반기까지는 양산돼야만 한다"고 밝혔다. NPU 업체 선정 난항..."물량 많지 않아" 센서에 적용될 NPU(신경망처리장치) 기업 선정에는 난항을 겪고 있다. 아틀라스를 연간 3만대 규모로 양산할 계획이지만, AI 반도체 업체 입장에서 많지 않은 물량이라는 의견이다. AI 반도체 업계 관계자는 "초기 양산 물량은 수만대 수준으로 예상되는데, AI 반도체 관점에서는 최소 수십만대 이상은 돼야 의미 있는 규모"라고 말했다. 그러면서도 "휴머노이드 로봇과 피지컬 AI 시장 자체가 중장기적으로 커질 수밖에 없다는 점에서 기술 검증 차원의 전략적 의미는 크다"고 말했다. 기술적 검증과 협의 과정도 아직 진행 중인 것으로 전해진다. 현재 LG이노텍은 센서 하드웨어 사양뿐 아니라, 실제 로봇 구동 환경에서의 소프트웨어 흐름과 연산 구조까지 함께 검토하고 있는 단계다. 이 관계자는 "비전 센서는 단순히 칩 성능만으로 결정할 수 있는 문제가 아니라, 로봇 소프트웨어 스택 전반과 어떻게 연동되는지가 중요하다"며 "하드웨어 요구사항은 비교적 명확하지만, 실제 로봇에서 어떤 연산이 어디서 처리되는지에 따라 NPU 설계 방향도 달라질 수 있다"고 설명했다. 이에 따라 LG이노텍과 보스턴다이내믹스, AI 반도체 업체 간의 3자 협의가 진행될 것으로 보인다. AI 반도체 업계 관계자는 "로봇 운영 소프트웨어를 가장 잘 아는 주체의 설명이 있어야 센서와 SoC 전체 구조를 놓고 구체적인 판단이 가능하다"며 "이 같은 이유로 기술 미팅이 추가로 이뤄질 가능성이 있다"고 말했다. 한편 이에 관해 LG이노텍 관계자는 "고객사 관련 내용은 확인해줄 수 없다"고 말했다.

2026.01.13 16:13전화평 기자

[기자수첩] 새해 시험대에 오른 국내 AI 반도체

2026년 새해 신경망처리장치(NPU) 시장이 본격적으로 열리고 있다. 그리고 이 변화의 중심에는 국내 인공지능(AI) 반도체 업체들이 서 있다. AI 산업의 무게 중심이 학습에서 추론으로 이동하면서, 그동안 기술력은 갖췄지만 시장의 문턱 앞에 서 있던 국내 AI 반도체 기업들에게 처음으로 현실적인 무대가 펼쳐지고 있다. 생성형 AI는 더 이상 연구실 안의 기술이 아니다. 산업 현장과 서비스, 디바이스 전반으로 빠르게 확산되면서 AI의 가치는 '얼마나 큰 모델을 학습했는가'보다 '얼마나 빠르고 효율적으로 판단할 수 있는가'로 옮겨가고 있다. 실시간 응답성, 전력 효율, 비용 구조는 이제 선택이 아닌 필수 조건이다. 이 변화는 자연스럽게 추론에 최적화된 NPU를 AI 반도체 경쟁의 중심으로 끌어올리고 있다. 기존 GPU 중심 구조는 여전히 강력하지만, 추론 환경에서는 전력 소모와 운영 비용이라는 현실적인 한계를 드러내고 있다. 특히 AI가 데이터센터를 넘어 엣지와 온디바이스, 산업 인프라로 확산될수록 이러한 부담은 더 크게 체감된다. 특정 연산에 최적화된 구조를 갖춘 NPU가 주목받는 이유다. 그리고 이 영역은 글로벌 빅테크보다 국내 AI 반도체 업체들이 상대적으로 경쟁력을 발휘할 수 있는 시장으로 평가받는다. 이 지점에서 국내 팹리스 생태계의 현실을 보여주는 사례를 하나 짚어볼 필요가 있다. 비록 NPU 기업은 아니지만, 파두는 국내 팹리스 가운데 드물게 글로벌 고객과의 협력을 통해 실질적인 성과를 만들어낸 기업이다. 샌디스크 등과의 협업을 통해 저장장치(SSD) 컨트롤러 시장에서 매출과 레퍼런스를 확보하며, 국내 팹리스도 글로벌 시장에서 통할 수 있다는 가능성을 가장 먼저 입증해왔다. 그러나 파두가 최근 상장 당시 자본시장법 위반혐의로 검찰에 불구속기소 되면서 국내 팹리스 산업이 안고 있는 구조적 취약성 역시 함께 드러났다. 기술력과 사업 성과를 쌓아가고 있던 기업조차 시장 신뢰와 제도적 리스크 앞에서는 쉽게 흔들릴 수 있다는 점이다. 이는 특정 기업의 문제라기보다, 이제 막 추론 시장이라는 기회를 맞이한 국내 AI 반도체 업계 전반에 던지는 경고에 가깝다. 이 같은 맥락에서 추론용 NPU를 개발하는 국내 AI 반도체 업체들 역시 같은 시험대에 서 있다고 볼 수 있다. 기술만으로는 충분하지 않고, 시장과 자본, 제도가 함께 뒷받침돼야 하는 것이다. 지금 필요한 것은 이미 달리고 있는 말의 속도를 줄이는 일이 아니라, 박차를 가할 수 있도록 힘을 실어주는 환경이다. 국내 AI 반도체 기업들은 그동안 추론용 NPU를 핵심 사업 전략으로 내세워왔다. 전력 효율과 성능 대비 비용, 특정 워크로드 최적화 등에서 차별화를 시도해왔지만, 시장 자체가 충분히 열리지 않아 성과를 가시화하기 어려웠다. 2026년을 기점으로 추론 수요가 빠르게 늘어나면서 이제는 기술적 설득이 아니라 실제 적용 사례와 지속 가능한 사업 구조가 경쟁력을 가르는 단계로 접어들고 있다. 정책과 산업 환경도 국내 업체들에게 유리하게 움직이고 있다. GPU 의존도를 낮추고 AI 인프라의 선택지를 넓히려는 흐름 속에서, 국산 NPU를 활용한 실증과 도입 논의가 이어지고 있기 때문이다. 이는 기술 자립을 넘어, 국내 AI 반도체가 글로벌 시장에서 신뢰할 수 있는 선택지가 될 수 있는지를 가늠하는 시험대다. 그리고 그 시험은 이미 시작됐다. 결국 관건은 하나다. 국내 AI 반도체 업체들이 추론 시장에서 '가능성 있는 대안'이 아니라 '검증된 경쟁자'로 자리 잡을 수 있느냐다. 자율주행, 로봇, 헬스케어, 스마트 디바이스처럼 늑장이 허용되지 않는 영역에서 NPU의 존재감이 커질수록, 그 답은 더욱 분명해질 것이다. 새해엔 가능성을 말하는 해가 아니다. 국내 AI 반도체 업체들이 추론 시장에서 실제 성과로 평가받는 해다. 달리는 말이 멈추지 않도록, 지금은 채찍을 들 때가 아니라 힘을 실어줘야 할 때다. 무대는 이미 열렸다.

2026.01.08 14:51전화평 기자

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

다이가 다르다...삼성·SK, 차세대 HBM '두뇌' 로직다이서 엇갈린 전략

넷플릭스 BTS 광화문 공연 생중계 '명과 암'

[현장] 둘다 보급형인데…아이폰17e보다 '맥북 네오'에 쏠린 눈

[종합] 공공시스템 2030년까지 클라우드 전면 전환…변수는 예산·부처 협력

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.