• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'NPU'통합검색 결과 입니다. (97건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

Arm, 플렉서블 액세스 프로그램 연간 비용 인하

Arm이 반도체 설계 업체를 지원하는 '플렉시블 액세스' 프로그램의 진입 장벽을 낮추고 신경망처리장치(NPU) 등 새로운 IP를 추가했다고 9일 밝혔다. 플렉시블 액세스 프로그램은 반도체 설계 관련 업체를 대상으로 연간 일정 비용 지불시 Arm IP를 활용한 반도체를 무제한 양산(테이프아웃)할 수 있는 프로그램으로 2019년부터 시작됐다. 현재까지 100개 이상의 기업이 플렉시블 액세스 프로그램을 활용해 400개 이상 반도체를 출시했다. 국내 시장에서는 약 80개 기업이 프로그램에 참여해 엣지 AI 등 분야 솔루션을 개발중이다. Arm은 플렉시블 액세스 프로그램 연간 비용을 종전 20만 달러(약 2억 9200만원)의 절반 이하인 8만 5000달러(약 1억 2400만원)로 낮추고 탐색 단계부터 양산까지 전 과정을 지원한다. 2020년 시작된 '플렉시블 액세스 포 스타트업' 프로그램은 자본금이 500만 달러(약 61억원) 이하인 반도체 스타트업 대상으로 Arm IP와 리소스 접근권을 제공한다. 라이선스 비용은 실제 상용화 제품에 적용된 기술에만 청구된다. Arm은 해당 프로그램의 지원 범위도 확대한다. 투자 유치 한도액을 기존 2천만 달러(약 292억 6000만원)에서 2.5배인 5천만 달러(약 731억 5000만원)로, 연간 매출 기준을 100만 달러(약 14억 6300만원)에서 500만 달러(약 73억 1500만원)로 높였다. 플렉시블 액세스 프로그램으로 활용할 수 있는 신규 IP에는 트랜스포머 기반 모델을 지원하는 NPU인 에토스-U85, 코어텍스-M85 CPU와 에토스-U85 NPU, 말리-C55 ISP로 구성된 실시간 AI 솔루션인 코어스톤-320 기반 솔루션 등이 추가됐다. 닐 패리스 Arm 커머셜 인에이블먼트 디렉터는 "스타트업과 기존 설계팀 모두에게 재정적 부담 없이 탐색하고 테스트하며 설계를 고도화할 수 있는 환경은 필수"라고 밝혔다. 이어 "Arm 플렉서블 액세스는 접근성을 간소화하고, 기술 및 플랫폼 선택지를 확대하며, 에코시스템을 강화함으로써 차세대 실리콘 혁신 기업들이 아이디어 단계에서 실제 구현까지 보다 스마트하고 빠르게, 그리고 대규모로 진행할 수 있도록 지원한다"고 덧붙였다.

2026.02.09 09:41권봉석 기자

엔비디아 GPU 의존 넘을까…정부에 발 맞춘 LG CNS, 국산 AI 반도체로 공공 AX 공략

LG CNS가 인공지능(AI) 반도체 기업 퓨리오사AI와 손잡고 신경망처리장치(NPU) 기반 AI 서비스를 개발해 공공 AX 시장 공략에 나선다. 정부가 국산 AI 반도체 육성을 핵심 과제로 내세운 가운데 대기업과 국내 AI 반도체 스타트업 간 협력이 본격화하는 모습이다.LG CNS는 서울 마곡 LG사이언스파크 본사에서 퓨리오사AI와 'AI 인프라 사업 협력 확대'를 위한 업무협약(MOU)을 체결했다고 5일 밝혔다. 협약식에는 LG CNS AI클라우드사업부 김태훈 부사장과 퓨리오사AI 백준호 대표 등 주요 경영진이 참석했다. 퓨리오사AI는 AI 연산에 특화된 반도체인 NPU를 설계·개발하는 AI 반도체 스타트업이다. 퓨리오사AI의 2세대 NPU 'RNGD(레니게이드)'는 대규모 AI 서비스에 필요한 고성능 요건을 충족하고, 그래픽처리장치(GPU) 대비 전력 소모와 운영 비용을 크게 줄일 수 있다. 퓨리오사AI는 지난 1월 TSMC로부터 RNGD 4000장을 인도받으며 양산에 성공, 글로벌 시장 공략 및 보급에 박차를 가하고 있다. 이번 협력을 통해 양사는 LG AI연구원 컨소시엄으로 참여 중인 '독자 AI 파운데이션 모델' 프로젝트 내 협력을 강화한다. LG CNS는 퓨리오사AI의 RNGD를 적용한 K-엑사원(EXAONE)을 기반으로 AI 서비스의 성능을 최적화하고, 상용화해 시너지를 극대화하는 역할을 맡는다. 퓨리오사AI는 안정적인 RNGD 공급과 함께 NPU 관련 기술 지원을 담당한다.이번 협력은 국산 AI 반도체가 실제 AI 서비스 환경에서 상용화 가능성을 검증하는 사례라는 점에서 업계의 관심을 받고 있다. 그동안 국내 AI 반도체는 기술력 대비 상용 레퍼런스 부족이 한계로 지적돼 왔는데, 이번 협력을 계기로 대기업 AI 서비스 인프라에 토종 NPU가 적용되는 실증 사례가 추가됐다는 평가다. 업계에선 이번 협력이 토종 AI 반도체가 엔비디아 중심의 GPU 생태계에 도전할 수 있는 가능성을 보여주는 사례이자, 국내 AI 반도체 기업들이 본격적으로 공급망에 참여할 수 있는 신호탄이라는 분석도 나온다. GPU 중심 인프라 구조에서 벗어나려는 시도라는 점도 이번 협력의 의미로 꼽힌다. 퓨리오사AI의 NPU는 GPU 대비 전력 효율과 추론 성능 측면에서 경쟁력을 갖췄다는 평가를 받아왔다. 이번 프로젝트를 통해 단순한 하드웨어 대체를 넘어 AI 서비스 특성에 맞춰 GPU와 NPU를 병행·최적화하는 인프라 구조의 가능성을 검증한다는 점에서 AI 인프라 생태계 확장으로 이어질 수 있다는 해석도 나온다. LG CNS 역시 협력 배경으로 GPU 중심 생태계에 대한 종속성을 줄이고, 국내 AI 기술과 인프라 경쟁력을 강화하려는 전략을 강조하고 있다. 특히 공공 AX 시장의 경우 비용 효율성과 안정성이 중요한 만큼, NPU 기반 인프라가 현실적인 대안이 될 수 있다는 판단이다. 퓨리오사AI 입장에서도 이번 협력은 성장의 중요한 분기점으로 평가된다. 국내 대기업의 AI 서비스 인프라에 자사 NPU가 채택되면서 기술력뿐 아니라 상용성과 안정성을 동시에 입증할 수 있는 레퍼런스를 확보하게 됐기 때문이다. 회사는 이를 바탕으로 글로벌 시장에서도 고객 확보에 나선다는 전략이다. 업계 관계자는 "LG CNS와의 협력이 특정 기업의 성과를 넘어 국내 팹리스 기업들이 AI 반도체 분야에서 자체 제품을 실제 서비스에 적용하는 사례를 늘리는 계기가 될 수 있을 것"이라며 "정부가 국산 AI 반도체 육성을 핵심 과제로 제시한 상황에서 민간 차원의 실질적인 상용화 사례가 등장하고 있다는 점에서 의미가 있다"고 분석했다. 양사는 이번 협력을 계기로 토종 AI 모델과 서비스, 인프라, AI반도체로 구성된 '소버린 AI 생태계'를 더욱 강화하고 공공 AX 시장에 최적화된 서비스를 제공한다는 전략이다. 공공 부문 특성상 보안성과 비용 효율, 안정성이 중요한 만큼, GPU 중심 인프라의 대안으로 NPU 기반 AI 인프라를 제시하겠다는 구상이다. 협력의 첫 단계로 LG CNS는 자체 개발한 기업용 에이전틱AI 플랫폼 '에이전틱웍스(AgenticWorks)' 구동 인프라에 퓨리오사AI NPU를 적용해 기술 검증을 진행한다. 에이전틱AI는 스스로 목표를 설정하고 복잡한 업무를 수행하는 만큼, 이를 뒷받침할 고성능·고효율 인프라가 필수적이다. LG CNS는 NPU 기반 인프라를 통해 에이전틱AI 서비스의 전력 효율과 운영 효율을 동시에 높일 계획이다. 양사는 NPU 기반 GPUaaS(GPU as a Service) 성능 최적화 기술도 실증한다. GPUaaS는 GPU를 가상화해서 제공하는 방식으로, 사용자는 실제 하드웨어를 구매하지 않고도 고성능 연산 환경을 활용할 수 있어 AI 시대의 핵심 모델로 각광받고 있다. 양사는 AI 학습과 AI 서비스 운영, 추론 등 모든 단계에 NPU를 적용해 전력 효율과 비용 경쟁력을 높일 수 있는 인프라 최적화에 나선다. 김태훈 LG CNS AI클라우드사업부 부사장은 "퓨리오사AI와의 협력을 통해 고객들이 에이전틱AI를 보다 효율적으로 사용할 수 있도록 NPU 기반 AI 인프라 기술력과 전문인력을 확보할 것"이라며 "LG AI연구원과 협력해 국가대표AI 모델 고도화를 지원하고 국내 AI 산업 발전에 기여할 것"이라고 밝혔다.

2026.02.05 10:05장유미 기자

"우린 GPU에만 의존하지 않아"…AI 가속기 선택 SW로 효율·전력·비용 잡아

GPU와 NPU(AI 계산에 특화된 반도체), PIM(메모리 안에서 AI 연산을 처리하는 차세대 반도체) 등 다양한 AI 가속기를 선택적으로 사용, 효율과 전력·비용 세마리 토끼를 한 방에 잡을 수 있는 차세대 AI 인프라 소프트웨어가 개발됐다. KAIST는 이 기술 개발에 박종세 전산학부 교수와 권영진· 허재혁 교수가 참여하고, 쿤레 올루코툰(Kunle Olukotun) 미국 AI 반도체 시스템 스타트업 삼바노바(SambaNova) 공동창업자이자 스탠포드대학 교수가 자문을 수행했다고 1일 밝혔다. 이 기술은 최근 카카오가 주최한 '4대 과학기술원×카카오 AI 육성 프로젝트'에서 애니브릿지 AI 팀으로 참가, 대상을 수상하고 상금 2,000만원과 3,500만원 어치 카카오클라우드 크레딧을 받았다. 연구팀은 초대형언어모델(LLM) 서비스가 대부분 고가 GPU 인프라에 의존, 서비스 규모가 확대될수록 운영 비용과 전력 소모가 급격히 증가하는 구조적 한계가 있다는 점에 주목했다. 특히, 이 문제의 근본 원인이 특정 하드웨어 성능이 아니라, GPU나 NPU, PIM 등 다양한 AI 가속기를 효율적으로 연결·운용할 수 있는 시스템 소프트웨어 계층 부재에 있다고 봤다. 연구팀은 이에 가속기 종류와 관계없이 동일한 인터페이스와 런타임 환경에서 LLM을 서비스할 수 있는 통합 소프트웨어 스택을 개발한 것. 특히 GPU 중심으로 고착화된 기존 LLM 서빙 구조의 한계를 지적하고, 여러 종류의 AI 가속기를 하나의 시스템에서 함께 활용할 수 있는 '멀티 가속기 LLM 서빙 런타임 소프트웨어'를 핵심 기술로 제시했다. 이 기술은 특정 벤더나 하드웨어에 종속되지 않으면서도, 작업 특성에 따라 가장 적합한 AI 가속기를 선택·조합할 수 있는 유연한 AI 인프라 구조 구현이 가능하다. 이는 LLM 서비스 비용과 전력 소모를 줄이고, 확장성을 크게 높일 수 있는 장점이 있다. 박종세 교수는 "AI 시스템과 컴퓨터 아키텍처 분야에서 축적한 연구 성과를 바탕으로 산업 현장에서 활용 가능한 기술 개발을 통해 글로벌 시장으로 진출할 계획"이라고 말했다.

2026.02.01 01:16박희범 기자

인텔, 코어 울트라 시리즈3 본격 시동 "AI PC의 완성형"

"인텔 코어 울트라 시리즈3는 향상된 전력 효율과 그래픽 성능, x86의 호환성을 갖춘 AI PC의 완성형이다. 인텔은 이를 바탕으로 한국 파트너들과 협력하여 AI PC 생태계를 한 단계 더 높은 차원으로 도약시킬 것으로 기대한다" 28일 오전 서울 삼성동 웨스틴 파르나스에서 진행된 '2026 AI PC 쇼케이스 서울'에서 조쉬 뉴먼 인텔 컨수머 PC 부문 총괄이 이렇게 설명했다. 인텔은 1.8나노급 '인텔 18A' 공정에서 생산된 차세대 AI PC용 프로세서, 코어 울트라 시리즈3(팬서레이크)를 올 초 CES 2026에서 정식 출시했다. 주요 제조사도 27일을 기점으로 PC 신제품 출하에 나섰다. "코어 울트라 시리즈3, 모든 면에서 진보한 제품" 코어 울트라 시리즈3는 인텔 18A 공정의 양대 요소인 게이트올어라운드(GAA) 리본펫 트랜지스터와 반도체 후면 전력 전달 기술 '파워비아'를 적용한 첫 상용 제품이다(기술적 세부 내용은 관련기사 참조). 조쉬 뉴먼 총괄은 "코어 울트라 시리즈3는 코어 울트라 200V(루나레이크)의 전력효율성, 코어 울트라 200H(애로우레이크)의 고성능을 결합하는 것을 목표로 CPU, GPU, NPU 등 모든 면에서 진보를 달성한 제품"이라고 설명했다. 이어 "전력 효율성 향상으로 배터리 지속시간을 시간 단위에서 일 단위로 확장하는 한편 Xe3 12코어로 구성된 새 내장 GPU '아크 B390'은 초박형 노트북에서 그동안 불가능했던 게임 성능을 구현했다"고 강조했다. 삼성전자·LG전자, 27일 PC 신제품 국내 출시 삼성전자와 LG전자는 지난 27일 각각 '갤럭시북6 프로/울트라', 'LG 그램 프로 AI' 등 코어 울트라 시리즈3 탑재 신제품을 국내 출시했다. 이민철 삼성전자 MX사업부 갤럭시 에코비즈팀장(부사장)은 "갤럭시북6는 50년 이상 축적한 제조 경험과 갤럭시 생태계를 기반으로 성능과 배터리 지속시간, 안정성 등 PC 기본 요소 재정의에 집중한 완전히 새로운 제품"이라고 설명했다. 이어 "인텔의 PC 원격 관리기술 'v프로', 삼성전자의 보안 기술 '녹스'(KNOX)를 적용한 기업용 파생모델 '갤럭시북6 엔터프라이즈 에디션'도 5월경 추가 출시 예정"이라고 덧붙였다. 장진혁 LG전자 전무는 "LG 그램 프로 AI는 경량 합금 '에어로미늄' 소재를 기반으로 코어 울트라 시리즈3의 GPU·NPU를 활용해 클라우드 AI, 마이크로소프트 코파일럿+, LG가 자체 개발한 엑사원 3.5 기반 '그램 AI' 등 폭넓은 AI 기능을 제공한다"고 설명했다. 산업용 엣지 솔루션으로 포트폴리오 확장 인텔은 지난 해 9월 '인텔 테크투어 US' 행사 당시 코어 울트라 시리즈3에 적용된 모든 IP를 그대로 품은 산업용 엣지 솔루션도 동시에 시장에 공급할 것이라고 밝힌 바 있다. 이날 조쉬 뉴먼 총괄 역시 이를 재확인하고 "엣지용 코어 울트라 시리즈3는 극저온/고온 환경에서 정상 작동, 24시간 주 7일 구동되는 안정성과 긴 수명주기를 바탕으로 스마트시티, 헬스케어, 자동화 시스템의 엣지 AI 구현을 도울 것"이라고 설명했다. 인텔과 협력해온 LG이노텍, 삼성메디슨 등 국내 파트너사도 "AI 사물인식을 통한 결함 검출과 제조 현장 자동화, 의료 AI를 활용한 초음파 영상 진단 개선 등에 코어 울트라 시리즈3를 활용할 것"이라고 밝혔다. 인텔 "다양한 가격대 제품 출시 위해 노력" 립부 탄 인텔 CEO는 지난 주 실적발표 이후 컨퍼런스 콜에서 "웨이퍼 제약으로 PC용 프로세서 우선순위가 밀렸으며 고가 제품 위주로 공급한다"고 설명한 바 있다. 일부 업체도 Xe3 12코어 GPU를 내장한 고성능 제품을 우선 출시했다. 문제는 메모리 반도체 수급난이 가시화되며 올해 PC 신제품 가격이 크게 상승했다는 점이다. 가격 부담이 적은 제품을 찾는 소비자가 제품 구매를 꺼릴 것이라는 전망이 나오고 있다. 이날 현장에서 만난 한 외국계 제조사 국내법인 관계자는 "예정대로라면 이달 말 공급돼야 할 신제품이 다음 달 초 국내 들어오는 등 수급 관련 일부 차질이 있다"고 설명했다. 조쉬 뉴먼 총괄은 "다양한 가격대 제품군 출시를 위해 여러 제조사와 함께 시장 수요에 보다 정밀히 대응 예정"이라고 설명했다. 배태원 인텔코리아 대표이사 역시 "2분기부터는 공급 상황이 나아질 것"이라고 설명했다.

2026.01.28 17:10권봉석 기자

퓨리오사AI, 2세대 칩 '레니게이드' 양산 개시

AI 반도체 기업 퓨리오사AI가 2세대 칩 RNGD(레니게이드) 1차 양산물량 4천장을 인도받기 시작했다고 28일 밝혔다. RNGD는 파운드리(반도체 위탁생산) 협력사인 대만 TSMC가 제조를 완료한 뒤, 아수스(ASUS)의 카드 제조 공정을 거쳐 출고된다. 회사는 올해 약 2만장 수준의 양산을 계획 중이다. RNGD는 앞서 2024년 하반기 미국 스탠퍼드대학교 세계 반도체 기업 연례 학술행사 '핫 칩스 2024'에서 공개된 바 있으며, 이후 엄밀한 제품화 과정을 거쳤다. 이번 양산은 세계적으로도 HBM을 탑재한 고성능 NPU(신경망처리장치)가 개발을 넘어 양산 단계까지 이른 드문 경우라 글로벌 반도체 업계의 관심을 모으고 있다. RNGD는 두 가지 형태로 제공된다. 'RNGD PCIe 카드'는 180W TDP의 저전력 설계를 적용해 기존 서버에 바로 장착 가능한(drop-in) AI 가속기로 제공된다. 'NXT RNGD 서버'는 RNGD 카드 8장을 탑재한 4U 랙마운트 서버로, 시스템 전체 소비 전력은 3kW에 불과하다. 표준 랙 환경에 최대 5대까지 장착 가능하며, 랙당 최대 20 PFLOPS(INT8)의 AI 추론 성능을 제공한다. 퓨리오사AI는 양산 물량 인도를 계기로 엔터프라이즈 시장 공략에 본격 나선다는 구상이다. 실제로 이미 이달 초 국내 대기업 계열사 한 곳에서 RNGD 구매를 발주하는 등 글로벌 엔터프라이즈 단에서 RNGD 검증을 마치고 정식 채택하는 사례가 늘어나고 있다. 퓨리오사AI는 그동안 하드웨어 안정화와 소프트웨어 스택 고도화를 진행해 왔으며, 이를 토대로 작년 하반기 LG 엑사원(EXAONE) 도입 확정과 오픈AI와의 GPT-OSS 모델 공개 시연 등 실사용 기반의 성과를 축적해 왔다. TSMC, SK하이닉스 등 글로벌 파트너들과의 협력 체계를 바탕으로 안정적인 양산·공급 라인망도 구축했다. RNGD는 인프라 총소유비용(TCO)를 절감할 것으로 기대된다. 이 칩은 기존 인프라 변경 없이 바로 쓸 수 있다. 현재 데이터센터 냉각 방식의 주류를 이루는 공냉식을 기반으로 동작하기 때문이다. 아울러 RNGD는 AI 추론에 최적화된 TCP 아키텍처를 기반으로, 표준 환경에서 GPU 기반 시스템 대비 2.5배 높은 '랙당 연산 밀도'를 제공한다. 이는 동일한 공간과 전력 조건에서 더 많은 AI 추론 워크로드를 처리할 수 있음을 의미한다. 백준호 퓨리오사AI 대표는 “RNGD 양산은 글로벌 AI 3강·반도체 2강 도약을 위한 진일보”라며 “박차를 가해 글로벌 시장 매출 확대를 이루어내겠다”고 말했다.

2026.01.28 09:56전화평 기자

메가존클라우드, 하나은행과 디지털 혁신 금융 서비스 발굴 '맞손'

메가존클라우드가 하나은행과 인공지능(AI)·클라우드·데이터 사이언스 등 디지털 신기술을 접목한 혁신 금융 서비스 공동 발굴에 나선다. 메가존클라우드는 지난 23일 서울 중구 하나은행 을지로 본점에서 하나은행과 AI 클라우드 시장 내 상호 협업과 금융 서비스 지원을 위한 전략적 업무협약(MOU)을 체결했다고 26일 밝혔다. 이날 체결식에는 이주완 메가존클라우드 이사회 의장과 이호성 하나은행장이 참석했다. 이번 협약을 통해 양측은 정부의 글로벌 AI 3강 비전에 따른 AI 데이터센터 구축을 위해 메가존클라우드가 도입 예정인 대규모 그래픽처리장치(GPU)·신경망처리장치(NPU) 서버 수입과 관련한 하나은행의 수출입 금융 지원을 추진한다. 아울러 금융 서비스, 클라우드, AI 등 양사가 보유한 기술과 서비스를 활용한 융복합 비즈니스 모델 발굴 등에 지속 협력할 방침이다. 특히 하나은행은 GPU·NPU 서버 수입과 관련한 금융 지원과 별도로 직·간접 지분 투자도 추진할 계획이다. 이를 통해 메가존클라우드는 아시아 최대 클라우드 관리 서비스 기업(MSP) 입지와 기술 경쟁력을 강화한다는 목표다. 또 GPU 수급에 어려움을 겪고 있는 국내 빅테크·반도체 기업의 성장 촉진도 도모할 방침이다. 메가존클라우드 황인철 최고매출책임자(CRO)는 "우리 강점인 멀티·하이브리드 클라우드 운영 역량과 AI 특화 플랫폼을 하나은행의 금융 데이터들과 겹합해 AI 금융 특화 솔루션을 만들고 금융 특화 AI 데이터센터 활성화를 가속화할 예정"이라고 밝혔다.

2026.01.26 16:14한정호 기자

홈가전도 온디바이스 AI 경쟁 붙불었다

AI 기술이 가전의 핵심 경쟁 요소로 떠오르면서 가전 업계의 경쟁 축도 빠르게 이동하고 있다. 클라우드 중심이던 AI 전략이 '온디바이스 AI'로 옮겨가며, 반도체 경쟁력이 성능을 좌우하는 핵심 변수로 부상하고 있다. 실제로 삼성전자와 LG전자는 냉장고·세탁기·에어컨 등 주요 생활가전에 AI 칩과 알고리즘을 직접 탑재하는 전략을 전면에 내세우고 있다. 사용자의 패턴을 기기 내부에서 학습·분석해, 서버 연결 없이도 AI 기능을 구현하겠다는 구상이다. 온디바이스 AI 경쟁의 핵심은 반도체 19일 전자 반도체 업계에 따르면 온디바이스 AI 확산과 함께 가전업계에서 새롭게 부각되는 요소는 반도체 경쟁력이다. 특히 AI 연산을 전담하는 NPU(신경망처리장치)의 중요성이 커지고 있다. 기존 가전용 반도체가 제어·전력 효율에 초점이 맞춰져 있었다면, 온디바이스 AI 시대에는 이미지·음성 인식, 사용자 행동 예측 등 AI 연산을 얼마나 빠르고 효율적으로 처리하느냐가 관건이 된다. 클라우드 연결 없이 AI 기능을 구현하려면, 기기 내부에 고성능·저전력 AI 반도체가 필수적이기 때문이다. '클라우드 없는 AI'가 만드는 차이 온디바이스 AI의 가장 큰 장점은 즉각성과 보안이다. 기존 AI 가전은 사용자의 데이터를 외부 서버로 보내 분석한 뒤 결과를 다시 받아오는 구조였다. 이 과정에서 지연이 발생하고, 개인정보 유출 우려도 꾸준히 제기돼 왔다. 반면 온디바이스 AI는 데이터 처리를 기기 내부에서 수행한다. 예를 들어 세탁기는 사용자의 세탁 패턴과 옷감 종류를 스스로 학습해 코스를 추천하고, 에어컨은 실내 환경과 사용 습관을 기반으로 냉방 방식을 조정한다. 네트워크 연결이 불안정해도 기본적인 AI 기능을 유지할 수 있다는 점도 강점이다. 다만 온디바이스 AI가 소비자에게 얼마나 명확한 차별점으로 다가오느냐는 별개의 문제다. 현재 AI 가전의 많은 기능이 자동화·추천에 집중돼 있어, 사용자가 “AI 때문에 달라졌다”고 느끼기엔 체감도가 높지 않다는 지적도 나온다. AI 기능이 늘어날수록 기기 가격 상승, 고장 우려, 사용 복잡성에 대한 부담도 함께 커진다. 결국 온디바이스 AI가 시장에 안착하려면, NPU 등 반도체 발전이 실제 사용 편의성과 비용 구조 개선으로 이어져야 한다는 분석이다. 반도체 업계 관계자는 “온디바이스 AI는 세트 업체를 반도체·플랫폼 기업과 더 가깝게 만든다”며 “가전 뿐만 아니라 완성품 업체와 NPU 기업 간 협력이 본격화될 것”이라고 전망했다. 자체 개발 삼성전자 vs 스타트업과 협력하는 LG전자 이에 삼성전자와 LG전자는 가전용 반도체 경쟁력을 강화하고 있다. 먼저 삼성전자는 온디바이스 AI 확산에 맞춰 자체 반도체 역량을 적극 활용하는 전략을 취하고 있다. 모바일 AP(어플리케이션 프로셋)와 시스템반도체 설계 경험을 바탕으로, 가전 제품에서도 AI 연산을 기기 내부에서 처리할 수 있도록 반도체와 소프트웨어 최적화에 힘을 싣고 있다. 업계에 따르면 삼성전자는 클라우드 의존도를 낮추고 응답 속도와 전력 효율을 개선하는 방향으로 AI 가전 기능을 고도화하고 있다. 중장기적으로는 가전용 AI 반도체 설계 역량을 더욱 강화할 가능성도 거론된다. LG전자는 국내 AI 반도체 스타트업과의 협력을 통해 온디바이스 AI 경쟁력을 강화하고 있다. 대표적인 사례가 모빌린트, 하이퍼엑셀등 AI 반도체 기업과의 협업이다. 모빌린트는 엣지 AI 환경에 특화된 NPU를 개발하는 스타트업으로, 저전력·고효율 AI 연산에 강점을 갖고 있다. 하이퍼엑셀 역시 AI 추론 가속 기술을 앞세워 데이터센터뿐 아니라 엣지 디바이스 영역으로 적용 범위를 넓히고 있다. LG전자는 이들 기업과의 협력을 통해 가전 환경에 적합한 AI 반도체와 소프트웨어 스택을 검증하고, 향후 온디바이스 AI 적용 가능성을 모색하고 있는 것으로 알려졌다. 대형 가전부터 로봇, 스마트홈 기기까지 적용 범위를 넓힐 수 있는 셈이다. 김주영 하이퍼엑셀 대표는 LG전자와 협력에 대해 "고객과 단순히 칩을 사고 파는 관계가 아니라, 설계 단계부터 함께 제품을 만드는 전략"이라고 설명했다.

2026.01.19 14:38전화평 기자

LG이노텍, 아틀라스 탑재 '비전 센서' 내년 하반기 양산 목표

국내 부품 기업 LG이노텍이 보스턴다이내믹스의 휴머노이드 로봇 '아틀라스'에 탑재될 비전 센서를 양산할 가능성이 높을 것으로 전망된다. 다만 핵심 부품인 신경망처리장치(NPU)와 관련해서는 협력사 선정에 어려움을 겪고 있는 것으로 전해진다. 공급을 요청한 반도체 기업이 초기 물량이 제한적하다는 이유로 참여에 신중한 태도를 보이고 있어서다. 13일 반도체 업계에 따르면 국내 전자부품 업체인 LG이노텍은 2028년 도입 예정인 아틀라스용 '비전 센싱 시스템'의 유력한 양산 업체로 꼽힌다. 아틀라스는 현대차그룹의 자회사인 보스턴다이내믹스의 휴머노이드 로봇이다. 56개의 관절을 활용해 360도로 움직일 뿐만 아니라, 50kg에 달하는 물건도 들어올릴 수 있다. 이 로봇은 최근 미국 라스베이거스에서 개최된 CES 2026에서 '최고의 로봇상'을 수상한 바 있다. 비전 센싱 시스템은 RGB(빨강, 초록, 파랑) 카메라뿐 아니라 3D 센싱 모듈 등 다양한 센싱 부품을 하나의 모듈에 집약한 제품이다. 라이다(LiDAR), 레이더(Radar) 등도 내장된 종합 센서다. 이로 인해 로봇은 시야 확보에 제약이 있는 야간이나 악천후에도 각 부품이 상호작용하며 정보를 종합해, 주변 환경을 정확하게 인식할 수 있다. 현대차그룹은 오는 2028년까지 연간 3만대 규모의 휴머노이드 등 로봇 제품군의 양산 체계를 구축할 계획이다. 아틀라스를 미국 조지아주 '메타플랜트 아메리카(HMGMA)' 공장에 투입해 부품 분류 공정부터 적용하는 것이다. 2030년부터는 조립 공정으로 확대할 예정이다. 익명을 요청한 반도체 업계 관계자는 "2028년에 아틀라스가 현장에 투입돼야 하는 만큼, 로봇의 부품인 센서는 2027년 하반기까지는 양산돼야만 한다"고 밝혔다. NPU 업체 선정 난항..."물량 많지 않아" 센서에 적용될 NPU(신경망처리장치) 기업 선정에는 난항을 겪고 있다. 아틀라스를 연간 3만대 규모로 양산할 계획이지만, AI 반도체 업체 입장에서 많지 않은 물량이라는 의견이다. AI 반도체 업계 관계자는 "초기 양산 물량은 수만대 수준으로 예상되는데, AI 반도체 관점에서는 최소 수십만대 이상은 돼야 의미 있는 규모"라고 말했다. 그러면서도 "휴머노이드 로봇과 피지컬 AI 시장 자체가 중장기적으로 커질 수밖에 없다는 점에서 기술 검증 차원의 전략적 의미는 크다"고 말했다. 기술적 검증과 협의 과정도 아직 진행 중인 것으로 전해진다. 현재 LG이노텍은 센서 하드웨어 사양뿐 아니라, 실제 로봇 구동 환경에서의 소프트웨어 흐름과 연산 구조까지 함께 검토하고 있는 단계다. 이 관계자는 "비전 센서는 단순히 칩 성능만으로 결정할 수 있는 문제가 아니라, 로봇 소프트웨어 스택 전반과 어떻게 연동되는지가 중요하다"며 "하드웨어 요구사항은 비교적 명확하지만, 실제 로봇에서 어떤 연산이 어디서 처리되는지에 따라 NPU 설계 방향도 달라질 수 있다"고 설명했다. 이에 따라 LG이노텍과 보스턴다이내믹스, AI 반도체 업체 간의 3자 협의가 진행될 것으로 보인다. AI 반도체 업계 관계자는 "로봇 운영 소프트웨어를 가장 잘 아는 주체의 설명이 있어야 센서와 SoC 전체 구조를 놓고 구체적인 판단이 가능하다"며 "이 같은 이유로 기술 미팅이 추가로 이뤄질 가능성이 있다"고 말했다. 한편 이에 관해 LG이노텍 관계자는 "고객사 관련 내용은 확인해줄 수 없다"고 말했다.

2026.01.13 16:13전화평 기자

[기자수첩] 새해 시험대에 오른 국내 AI 반도체

2026년 새해 신경망처리장치(NPU) 시장이 본격적으로 열리고 있다. 그리고 이 변화의 중심에는 국내 인공지능(AI) 반도체 업체들이 서 있다. AI 산업의 무게 중심이 학습에서 추론으로 이동하면서, 그동안 기술력은 갖췄지만 시장의 문턱 앞에 서 있던 국내 AI 반도체 기업들에게 처음으로 현실적인 무대가 펼쳐지고 있다. 생성형 AI는 더 이상 연구실 안의 기술이 아니다. 산업 현장과 서비스, 디바이스 전반으로 빠르게 확산되면서 AI의 가치는 '얼마나 큰 모델을 학습했는가'보다 '얼마나 빠르고 효율적으로 판단할 수 있는가'로 옮겨가고 있다. 실시간 응답성, 전력 효율, 비용 구조는 이제 선택이 아닌 필수 조건이다. 이 변화는 자연스럽게 추론에 최적화된 NPU를 AI 반도체 경쟁의 중심으로 끌어올리고 있다. 기존 GPU 중심 구조는 여전히 강력하지만, 추론 환경에서는 전력 소모와 운영 비용이라는 현실적인 한계를 드러내고 있다. 특히 AI가 데이터센터를 넘어 엣지와 온디바이스, 산업 인프라로 확산될수록 이러한 부담은 더 크게 체감된다. 특정 연산에 최적화된 구조를 갖춘 NPU가 주목받는 이유다. 그리고 이 영역은 글로벌 빅테크보다 국내 AI 반도체 업체들이 상대적으로 경쟁력을 발휘할 수 있는 시장으로 평가받는다. 이 지점에서 국내 팹리스 생태계의 현실을 보여주는 사례를 하나 짚어볼 필요가 있다. 비록 NPU 기업은 아니지만, 파두는 국내 팹리스 가운데 드물게 글로벌 고객과의 협력을 통해 실질적인 성과를 만들어낸 기업이다. 샌디스크 등과의 협업을 통해 저장장치(SSD) 컨트롤러 시장에서 매출과 레퍼런스를 확보하며, 국내 팹리스도 글로벌 시장에서 통할 수 있다는 가능성을 가장 먼저 입증해왔다. 그러나 파두가 최근 상장 당시 자본시장법 위반혐의로 검찰에 불구속기소 되면서 국내 팹리스 산업이 안고 있는 구조적 취약성 역시 함께 드러났다. 기술력과 사업 성과를 쌓아가고 있던 기업조차 시장 신뢰와 제도적 리스크 앞에서는 쉽게 흔들릴 수 있다는 점이다. 이는 특정 기업의 문제라기보다, 이제 막 추론 시장이라는 기회를 맞이한 국내 AI 반도체 업계 전반에 던지는 경고에 가깝다. 이 같은 맥락에서 추론용 NPU를 개발하는 국내 AI 반도체 업체들 역시 같은 시험대에 서 있다고 볼 수 있다. 기술만으로는 충분하지 않고, 시장과 자본, 제도가 함께 뒷받침돼야 하는 것이다. 지금 필요한 것은 이미 달리고 있는 말의 속도를 줄이는 일이 아니라, 박차를 가할 수 있도록 힘을 실어주는 환경이다. 국내 AI 반도체 기업들은 그동안 추론용 NPU를 핵심 사업 전략으로 내세워왔다. 전력 효율과 성능 대비 비용, 특정 워크로드 최적화 등에서 차별화를 시도해왔지만, 시장 자체가 충분히 열리지 않아 성과를 가시화하기 어려웠다. 2026년을 기점으로 추론 수요가 빠르게 늘어나면서 이제는 기술적 설득이 아니라 실제 적용 사례와 지속 가능한 사업 구조가 경쟁력을 가르는 단계로 접어들고 있다. 정책과 산업 환경도 국내 업체들에게 유리하게 움직이고 있다. GPU 의존도를 낮추고 AI 인프라의 선택지를 넓히려는 흐름 속에서, 국산 NPU를 활용한 실증과 도입 논의가 이어지고 있기 때문이다. 이는 기술 자립을 넘어, 국내 AI 반도체가 글로벌 시장에서 신뢰할 수 있는 선택지가 될 수 있는지를 가늠하는 시험대다. 그리고 그 시험은 이미 시작됐다. 결국 관건은 하나다. 국내 AI 반도체 업체들이 추론 시장에서 '가능성 있는 대안'이 아니라 '검증된 경쟁자'로 자리 잡을 수 있느냐다. 자율주행, 로봇, 헬스케어, 스마트 디바이스처럼 늑장이 허용되지 않는 영역에서 NPU의 존재감이 커질수록, 그 답은 더욱 분명해질 것이다. 새해엔 가능성을 말하는 해가 아니다. 국내 AI 반도체 업체들이 추론 시장에서 실제 성과로 평가받는 해다. 달리는 말이 멈추지 않도록, 지금은 채찍을 들 때가 아니라 힘을 실어줘야 할 때다. 무대는 이미 열렸다.

2026.01.08 14:51전화평 기자

AMD, AI PC 겨냥 '라이젠 AI 400' 프로세서 공개

[라스베이거스(미국)=권봉석 기자] AMD가 5일(현지시간) AI PC와 워크스테이션, 게이밍 PC를 위한 새 프로세서를 공개하고 이달부터 공급에 들어간다고 밝혔다. AMD는 사전 브리핑에서 "AI 도입 확산에 따라 신경망처리장치(NPU) 내장 프로세서 기반 AI PC 수요도 확대되고 있으며 올해는 작년 대비 2.5배 많은 250개 이상의 AI PC 플랫폼이 등장할 것"이라고 설명했다. 이어 "라이젠 AI 프로세서는 문서 작성 시간을 종전 대비 절반으로 줄이는 한편 30초만에 새로운 이미지를 생성하고 코딩 시간을 1/5로 단축하는 등 소비자들에게 매일 새로운 경험을 제공하고 생산성을 높일 것"이라고 강조했다. 라이젠 AI 400, 60 TOPS급 NPU 내장 AMD가 이날 공개한 라이젠 AI 400 프로세서(고르곤 포인트)는 지난 해 출시된 라이젠 AI 300 프로세서 대비 CPU와 GPU, NPU 성능을 모두 강화했다. CPU는 젠5(Zen 5) 아키텍처 기반으로 최대 12코어, 24스레드로 구성되며 최대 작동 클록은 5.2GHz까지 높아졌다. 통합형 GPU인 라데온 그래픽스는 최대 16코어(CU) 구성으로 최대 작동 클록은 3.1GHz다. 내장 NPU는 XDNA 2 아키텍처 기반이며 최대 연산 성능은 60 TOPS(1초당 1조 번 연산)로 마이크로소프트 윈도11 코파일럿+ 기준을 충족한다. 메모리 작동 속도는 8533MHz까지 끌어올려 그래픽과 AI 처리 성능을 높였다. AMD는 자체 성능 측정 결과를 토대로 "최상위 제품인 라이젠 AI 9 HX 470 프로세서는 인텔 코어 울트라 288V(루나레이크) 대비 다중작업 성능은 1.3배, 콘텐츠 제작 성능은 1.7배, NPU 성능은 1.25배 높다"고 설명했다. 라이젠 AI 400 프로세서는 코어 수와 작동 클록, 캐시 메모리와 GPU/NPU 성능을 달리해 시장에 총 7종이 공급된다. 노트북과 데스크톱 PC 등 기존 전통적인 형태에 더해 키보드 일체형 초경량 PC에도 탑재된다. 고성능 노트북용 '라이젠 AI 맥스+' Soc 2종 추가 출시 AMD는 이날 콘텐츠 제작자와 AI 개발자, 게이머를 겨냥한 고성능 노트북 프로세서 '라이젠 AI 맥스+' 제품군도 확장하겠다고 밝혔다. AMD는 "라이젠 AI 맥스+는 콘텐츠 제작, 유명 게임 구동은 물론 128GB CPU·GPU 통합 메모리로 거대언어모델(LLM)을 처리할 수 있다. 엔비디아 개인용 AI 워크스테이션 'DGX 스파크' 대비 가격 대비 성능과 윈도 호환성에서도 우위에 있다"고 밝혔다. AMD는 올 1분기에 기존 출시 제품 대비 코어 수와 작동 클록, GPU 성능 등을 소폭 조정한 라이젠 AI 맥스+ 392(12코어/5.0GHz), 라이젠 AI 맥스+ 388(8코어/5.0GHz) 등 프로세서 2종을 추가 출시 예정이다. NPU 성능은 두 제품 모두 40 TOPS로 같다. 3D V캐시 탑재 '라이젠 7 9850X3D' 시장에 공급 AMD는 지난 해 게임 성능을 높일 수 있는 3D V캐시를 내장한 라이젠 9 9950X3D 프로세서 등을 시장에 출시했다. 경쟁 제품인 인텔 코어 울트라 200S 프로세서 대비 우위를 차지했고 이런 기조는 올 상반기까지 이어질 예정이다. AMD는 올 1분기에 최대 작동 클록을 더 높인 파생 제품인 라이젠 7 9850X3D를 시장에 추가 투입한다. 2024년 11월 출시된 전작(라이젠 7 9800X3D) 대비 최대 작동 클록을 400MHz 높인 5.6GHz까지 끌어올렸다. AMD는 주요 게임 35종을 1080p 해상도에서 구동한 자체 벤치마크 결과를 바탕으로 "라이젠 7 9850X3D 프로세서는 인텔 코어 울트라9 285K 프로세서 대비 평균 27% 더 나은 성능을 낸다"고 설명했다. AI 프레임워크 'ROCm 7.2' 이달 중 배포 ROCm은 AMD 인스팅트와 라데온 GPU, 라이젠 CPU를 활용해 AI 관련 처리를 수행할 수 있는 오픈소스 기반 프레임워크다. 2022년 2월 첫 버전인 ROCm 5가 출시됐고 작년 9월 출시된 ROCm 7에는 성능 향상과 인스팅트 MI350 등 새 하드웨어 지원을 추가했다. ROCm 7은 2023년 12월 공개된 ROCm 6 대비 추론 성능을 크게 강화했다. 메타 라마 3.1 700B 모델 연산 성능은 3.8배, 딥시크 R1은 3.4배 향상됐다. 또 단일 노드부터 멀티 노드·클러스터까지 분산 추론과 학습이 가능하도록 확장했다. AMD가 올 1월 중 배포할 새 버전인 ROCm 7.2는 라이젠 AI 400 시리즈 등 새 하드웨어 지원을 추가한다. 또 스테이블 디퓨전 기반 이미지 생성 도구인 '컴피UI'(Comfy UI)를 통합 지원 예정이다.

2026.01.06 12:30권봉석 기자

퀄컴, 보급형 AI PC용 '스냅드래곤 X2 플러스' SoC 공개

[라스베이거스(미국)=권봉석 기자] 퀄컴이 5일(이하 현지시각) 오전 네바다 주 라스베이거스 윈 호텔에서 보급형 AI PC용 새 시스템반도체(SoC)인 '스냅드래곤 X2 플러스'를 공개했다. 케다르 콘답 퀄컴 수석부사장 겸 컴퓨트·게이밍 본부장은 "퀄컴은 1년 반 전인 2024년 6월 스냅드래곤 X 엘리트를 출시하며 CPU와 GPU 성능, 신경망처리장치(NPU) 성능 향상으로 윈도 PC의 기준을 바꿨다"고 평가했다. 이어 "오늘 공개하는 스냅드래곤 X2 플러스는 전 세대 대비 35% 향상된 1코어 CPU 성능, 17% 향상된 다중작업 성능과 30% 향상된 GPU, 80 TOPS(1초당 1조 번 연산)급 NPU로 더 많은 PC에 프리미엄급 기능과 AI 경험을 제공할 것"이라고 설명했다. 스냅드래곤 X2 플러스는 퀄컴이 2024년 IFA에서 공개한 스냅드래곤 X 플러스 후속 제품이다. 대만 TSMC 3나노급(N3P) 공정에서 생산되며 퀄컴이 자체 개발한 Arm 호환 오라이언(Oryon) 3세대 CPU와 아드레노 GPU, 헥사곤 NPU로 구성됐다. 8코어, 10코어 등 CPU 수에 따라 총 4개로 구성됐던 전작과 달리 이번에는 10코어 모델(X2P-64-100), 6코어 모델(X2P-42-100) 등 2개로 라인업을 단순화했다. 단 NPU 성능은 상위 제품인 스냅드래곤 X2 엘리트/엘리트 익스트림과 같은 수준인 80 TOPS다. 케다르 콘답 본부장은 "스냅드래곤 X2 플러스는 인텔 코어 울트라 200V(루나레이크), AMD 라이젠 AI 300 등 x86 기반 경쟁사 프로세서 대비 더 적은 전력으로 높은 성능을 내도록 설계됐다"고 강조했다. 제임스 하웰 마이크로소프트 마케팅 부사장은 "기밀 정보나 사생활 유출 없이 항상 실행되는 AI를 실행하기 위해서는 항상 강력한 성능의 NPU가 상시 구동돼야 하며 퀄컴 스냅드래곤 X2는 이런 기준을 만족한다"고 설명했다. 스냅드래곤 X2 플러스를 탑재한 AI PC는 국내외 제조사를 통해 올 상반기 출시 예정이다. 제품 별 구체적인 출시 일정과 가격대는 미정.

2026.01.06 05:18권봉석 기자

인텔, 데스크톱 CPU 리프레시 예고… DDR5 속도↑·NPU는 동결

인텔이 새해 벽두부터 열리는 세계 최대 규모 IT·가전제품 전시회 'CES 2026'에서 노트북용 프로세서 '코어 울트라 시리즈3'(팬서레이크)와 함께 데스크톱 PC용 새 프로세서 3종도 동시에 공개 예정이다. 인텔이 공개를 앞둔 새 프로세서 3종은 고효율 E(에피션트) 코어 갯수를 늘리고 작동 클록 향상, 메모리 작동 클록 향상으로 소폭 성능 향상을 노렸다. 신경망처리장치(NPU)는 작년과 같은 수준으로 유지 예정이다. 인텔은 새해 하반기에 데스크톱 PC와 노트북 적용을 목표로 신규 개발중인 '노바레이크'(Nova Lake)가 출시될 때까지 이들 프로세서 3종으로 시간을 벌겠다는 전략이다. 그러나 메인보드 호환성과 DDR5 메모리 가격 급등으로 원하는 결과를 얻기 어렵다는 평가다. 2024년 10월 코어 울트라 200S 출시 인텔은 2024년 10월 전 세계 시장에 데스크톱 PC용 코어 울트라 200S(애로우레이크) 프로세서를 출시했다. 그러나 게임 성능이 젠5 아키텍처 기반 AMD 라이젠 9000 시리즈에 밀렸다는 평가를 받았다. 인텔은 코어 울트라 200S 출시 이후 메인보드 펌웨어 업데이트, 윈도11 스케줄러 개선, 메모리 오버클록 기능 추가 등 여러가지 방안을 동원했지만 시장 인식을 바꾸는 데까지는 성공하지 못했다. 국내 조립 PC 시장에서도 AMD 라이젠 9000 시리즈 프로세서 우위 상태가 1년 가까이 지속되고 있다. 30일 커넥트웨이브 가격비교서비스 다나와에 따르면 12월 말 현재 국내 조립 PC 시장에서 AMD 프로세서 점유율은 64%, 인텔 점유율은 36% 수준이다. 인텔, 다음 주 CES서 새 프로세서 3종 공개 전망 30일 PC 메인보드 제조사 국내 법인 관계자들에 따르면, 인텔은 다음 주로 다가온 CES 2026 행사 기간 중 코어 울트라 200S 프로세서의 성능을 소폭 높인 새 프로세서 3종을 출시할 예정이다. 최상위 제품인 코어 울트라9 290K(가칭)는 고성능 P(퍼포먼스) 코어 8개, 저전력·고효율 E(에피션트) 코어 16개를 그대로 유지하면서 최대 작동 클록을 100MHz 높인 5.8GHz까지 끌어올렸다. 코어 울트라7 270K(가칭), 코어 울트라5 250K(가칭)도 전작인 코어 울트라7 245K(P8+E12), 코어 울트라5 245K(P6+E8) 대비 E코어를 4개씩 늘려 다중작업 효율을 높일 예정이다. 메모리 속도는 향상... NPU는 현행 수준 유지 메모리 속도 향상은 프로세서 다음으로 체감 성능에 큰 영향을 미친다. 새 프로세서 3종은 DDR5 메모리 최대 작동 클록을 6400MHz에서 7200MHz까지 높일 예정이다. 단 이를 활용하려면 오버클록이 가능한 고성능 메모리가 필요하다. 단 NPU는 코어 울트라 200S에 내장된 것과 같은 NPU 3를 그대로 유지할 것으로 보인다. NPU 3는 2023년 코어 울트라 시리즈1(메테오레이크)에 처음 내장됐고 성능은 11.5 TOPS(1초당 1조 번 연산) 수준이다. 익명을 희망한 한 프로세서 유통사 관계자는 "데스크톱 PC는 노트북과 달리 그래픽카드 추가 장착·교체로 얼마든지 AI 연산 성능을 강화할 수 있기 때문"이라고 추측했다. DDR5 메모리 가격 상승·업그레이드 제한이 걸림돌 새해 초 공개될 새 프로세서 3종의 소켓 규격은 LGA 1851로 지난 해 출시된 코어 울트라 200S와 같다. 주요 메인보드 제조사도 이미 출시된 800 칩셋 메인보드 대상 펌웨어 업데이트를 준비중이다. 단 성능을 소폭 높인 '리프레시' 제품을 투입하겠다는 인텔의 시도는 시장 점유율이나 판매 면에서 큰 성과를 거두지 못할 가능성이 크다. 국내 대형 온라인 PC 업체 관계자들은 "새 프로세서 3종은 코어 울트라 200S와 마찬가지로 메인보드 교체가 필요하지만 더 이상 새 프로세서로 업그레이드가 불가능하다. 또 DDR5 메모리 값이 가파르게 오르고 있어 신규 수요를 이끌어 내기는 어렵다"고 평가했다.

2026.01.02 07:18권봉석 기자

양자 보안 시대, NPU가 핵심 인프라로 떠오르는 이유

양자컴퓨터 시대를 대비한 양자내성암호(PQC) 전환이 본격화되면서, NPU(신경망처리장치)가 차세대 보안 인프라의 핵심 요소로 부상하고 있다. NPU가 PQC 연산을 직접 수행하는 것은 아니지만, PQC 도입으로 증가하는 시스템 부담을 흡수하는 역할을 맡으면서 존재감이 커지고 있다는 평가다. PQC는 기존 암호 체계를 대체하는 차세대 보안 기술로, 양자컴퓨터 환경에서도 안전성을 유지하는 것을 목표로 한다. 그러나 PQC는 대규모 행렬·다항식 연산을 요구해 연산량과 전력 소모가 크게 늘어나게 된다. 이로 인해 인증, 통신, 업데이트 과정에서 CPU 부담이 증가한다. 특히 엣지 디바이스 환경에서는 성능 저하와 지연이 문제로 지적된다. PQC 도입이 만든 시스템 부담 30일 반도체 업계에서는 PQC로의 전환을 단순한 암호 알고리즘 교체가 아니라 시스템 설계 전반의 문제로 보고 있다. 연산량 증가로 인한 CPU 병목을 어떻게 완화하느냐가 PQC 도입의 현실성을 좌우한다는 분석이다. PQC를 위한 암호 연산 자체는 여전히 CPU와 HSM(하드웨어 보안 모듈), TPM(하드웨어 기반 보안 칩) 등 보안 영역에서 수행된다. 신뢰 경계와 보안 요구사항 때문이다. NPU가 PQC 연산을 직접 처리하는 구조는 아닌 셈이다. 문제는 PQC 도입으로 인해 CPU에 연산이 집중된다는 점이다. 이를 그대로 둘 경우 시스템 전체의 효율과 안정성이 급격히 떨어질 수 있다. 이 때문에 업계에서는 PQC 전환 과정에서 연산 부하를 분산할 수 있는 구조가 필요하다는 지적이 나온다. NPU, 연산을 대신하지 않고 부담을 나눈다 이 과정에서 NPU의 역할이 부각되고 있다. NPU는 AI 추론을 위해 설계된 가속기로, 저지연과 전력 효율이라는 구조적 강점을 갖는다. 김현호 AMD 재팬 연구원은 “NPU의 가치는 단순한 성능 수치보다 저지연과 전력 효율에 있다”며 “PQC처럼 시스템 전반의 연산 부담을 키우는 기술이 도입될수록 이런 특성이 더욱 중요해진다”고 설명했다. NPU는 AI·데이터 처리 등 기존 CPU 워크로드 일부를 오프로딩함으로써 CPU가 암호 연산에 집중할 수 있는 여유를 만든다. 오프로딩은 CPU 부담을 다른 가속기로 분산하는 구조를 의미한다. 김 연구원은 “NPU가 PQC 연산을 직접 수행하는 것은 아니지만, 그 과정에서 발생하는 유사한 연산 부담을 분산시켜 시스템 차원에서 PQC를 가능하게 한다”고 말했다. 업계에서는 PQC 연산과 NPU 연산이 구조적으로 유사한 점이 많지만 완전히 동일하지는 않다고 보고 있다. 이로 인해 NPU의 역할이 단순화돼 전달되는 경우도 있었지만, 시스템 관점에서 보면 PQC 전환 흐름 속에서 NPU가 자연스럽게 핵심 인프라로 자리 잡고 있다는 분석이 나오는 이유다. 다만 국내 업계에서는 보다 신중한 시각도 제기된다. NPU가 PQC 구현의 중심으로 보기에는 다소 이르다는 의견이다. 오히려 PQC 병목 해결의 현실적인 방법으로 NTT(Number Theoretic Transform) 최적화를 제시했다. 국내 팹리스 ICTK 관계자는 “PQC 성능의 핵심 병목은 여전히 다항식 연산, 특히 NTT 최적화에 있다”며 “현재로서는 CPU와 전용 암호 가속기를 중심으로 성능을 끌어올리는 접근이 가장 현실적”이라고 말했다. 이어 “NPU는 시스템 부하 완화 측면에서 의미가 있지만, PQC 구현의 중심 축으로 보기는 이르다”고 덧붙였다.

2025.12.31 09:09전화평 기자

딥엑스, CES 2026서 '피지컬AI 인프라 기업' 비전 제시

저전력·고성능 AI 반도체 기업 딥엑스는 내달 미국 라스베이거스에서 열리는 'CES 2026'에 참가해 피지컬 AI 시장을 주도할 AI 인프라 기업으로서의 새로운 청사진을 공개한다고 30일 밝혔다. 딥엑스는 이번 CES 2026을 통해 대한민국이 메모리 반도체 강국을 넘어 시스템 및 AI 반도체 분야에서도 글로벌 리더십을 확보할 수 있음을 증명하고, 피지컬 AI 시대의 필수 인프라 기업으로 도약하겠다는 비전을 제시한다. 현재 대한민국이 'AI 3대 강국'을 목표로 산업 전환을 가속화하는 가운데, 딥엑스는 독보적인 기술력과 실질적인 성과를 바탕으로 국가 경쟁력을 높이는 핵심적인 역할을 수행하고 있다. 과거 CPU 시대에 저전력 기술로 시장을 재편한 Arm처럼, 딥엑스는 로봇·모빌리티·스마트시티 등 피지컬 AI 분야에서 에너지 효율과 실시간성을 갖춘 초저전력·고성능 AI 반도체로 새로운 글로벌 표준을 만들어가고 있다. 이러한 딥엑스의 행보는 대한민국 AI 반도체 산업이 기술적 주도권과 신뢰를 확보하는 중요한 이정표가 될 전망이다. 이번 CES에서 가장 주목해야 할 점은 딥엑스의 제품이 시장에서 실질적인 혁신을 증명했다는 것이다. 딥엑스는 자체적으로 혁신상 2관왕(컴퓨팅 하드웨어/임베디드 기술)을 달성했을 뿐만 아니라, 미국 파트너사 식스팹(Sixfab)이 딥엑스의 1세대 칩 'DX-M1'을 탑재한 'ALPON X5'로 CES 최고 영예인 최고 혁신상(Best of Innovation)을 수상하는 쾌거를 이뤘다. 이는 딥엑스의 솔루션이 단순한 부품 공급을 넘어, 글로벌 파트너사의 제품을 세계 최고 수준으로 끌어올리는 '핵심 동력'이자 '게임 체인저'임을 입증한 결정적 사건으로 평가 받는다. 딥엑스는 라스베이거스 컨벤션센터(LVCC) 노스홀(North Hall) AI·로보틱스 구역에 독립 부스를 마련하고, 양산 단계의 제품이 적용된 로봇, 드론, 공장 자동화, 리테일 등 다양한 산업 현장 솔루션을 실시간으로 시연한다. 관람객들은 이를 통해 피지컬 AI가 개념 단계를 넘어 이미 상용화 단계에 진입했음을 확인할 수 있다. 특히 2나노 공정 기반의 차세대 AI 반도체 'DX-M2'의 개발 현황과 핵심 성능 목표도 처음으로 공개한다. DX-M2는 데이터센터 중심 AI가 직면한 전력 소모와 확장성 한계를 근본적으로 해결하기 위해 설계된 차세대 피지컬 AI 시대를 위한 인프라 칩이다. 또한 바이두의 패들패들(PaddlePaddle), 미국 울트라라이틱스(Ultralytics)의 YOLO 생태계와 함께하는 '오픈소스 피지컬 AI 얼라이언스' 협력 내용도 소개하며, 하드웨어와 소프트웨어를 아우르는 글로벌 전략을 선보인다.

2025.12.30 10:43장경윤 기자

AI반도체 육성에 머리 맞댄 민·관…"내년 R&D 정책 수립에 반영"

산업통상부(이하 산업부)는 18일 오후 한국반도체산업협회에서 반도체 학계·연구계 전문가 30여명과 AI반도체 정책·기술동향을 함께 논의하기 위해 'AI반도체 M.AX 얼라이언스 워크숍'을 개최했다. 이날 워크숍에는 AI반도체 M.AX 얼라이언스 위원장을 맡고 있는 김용석 가천대 교수를 비롯해, 산업통상부 반도체과장, 한국산업기술기푁평가원, 한국전자기술연구원 등이 참석했다. 내년 AI반도체 R&D 신규 기획방향 발표, 최근 AI반도체 정책·기술동향 논의, 정책제언 및 토론 등이 핵심 안건으로 올랐다. 워크숍은 AI반도체 신규 R&D 기획 방향 및 정책 세부이행 논의(1부)와 AI반도체 최신 기술 발표 세미나(2부)로 나누어 진행됐다. 산업부는 첨단제품에 탑재될 국산 AI반도체 개발사업(K-온디바이스 AI반도체) 등 2026년 AI반도체 신규 R&D 기획방향을 설명했다. 이어 지난 10일 발표한 'AI 시대, 반도체 산업 전략'과 금일 관계부처 합동으로 발표한 'AI반도체 산업 도약 전략'을 공유했고, 참석자들은 AI반도체 산업 도약을 위한 기술 리더십 확보 및 생태계 구축 방안 등에 대한 정책 제언 및 심도 있는 토론을 진행했다. 학·연에서는 ▲NPU 디자인 분야 알고리즘 특화 가속 ▲피지컬 AI를 위한 온디바이스 AI ▲온디바이스 AI 학습 프로세서 ▲자율주행차용 칩렛 기반 AI반도체 설계 등 반도체 최신기술 동향을 공유했다. 산업부 관계자는 “이번 워크숍에서 논의된 전문가들의 의견을 2026년 R&D 기획과 정책 수립에 적극 반영하고, 앞으로도 AI반도체 M.AX 얼라이언스를 통해 K-반도체 기술 리더십 확보 방안에 대해 산·학·연 관계 전문가들과 지속적으로 소통해 나가겠다”고 밝혔다.

2025.12.18 11:00장경윤 기자

에이수스, 연남동에 'ROG 와이파이7 게이밍존' 오픈

에이수스코리아가 12일부터 14일까지 3일간 서울 연남동 레조네 홍대에서 와이파이7(802.11be)을 테마로 한 체험공간 'ROG 와이파이7 게이밍존'을 운영한다. 가장 널리 쓰이는 주파수 대역인 2.4/5GHz에서 7.2Gbps 대역폭을 확보한 고성능 공유기 'ROG 스트릭스 GS-BE7200X', 신경망처리장치(NPU)를 내장한 고성능 공유기 'ROG 랩처 GT-BE19000AI' 등 고성능 제품을 중심으로 전시했다. 12일 오후 현장에서 만난 에이수스코리아 관계자는 "이번 체험존을 통해 차세대 무선 기술의 성능 차이를 실사용 환경에서 직접 확인할 수 있도록 했다. 고성능 게이밍 환경에서 와이파이7이 제공하는 저지연성을 체험할 수 있다"고 설명했다. 고성능 유무선공유기/노트북 등 배치 행사장은 1/2층과 별관으로 구성됐다. 1층에는 와이파이7과 10G 이더넷의 특징을 전시물과 게임으로 체험할 수 있는 전시공간을 배치했다. 2층에는 와이파이7을 지원하는 'ROG 스트릭스 스카 16', 'ROG 제피러스 G14/16' 등 고성능 게임용 노트북 체험 코너를 운영한다. 메시 와이파이 기술을 활용해 행사장 전체에 빠짐없이 와이파이 신호를 제공한다. ROG 랩처 GT-BE19000AI는 6GHz 11.52Gbps, 5GHz 5.764Gbps, 2.4GHz 1.376Gbps 등 통합 대역폭 19Gbps를 지원하는 고성능 제품이다. 유무선공유기 작동을 제어하는 2.6GHz 쿼드코어 CPU 기반 '라우터 코어' 외에 7.9TOPS(1초당 1조 번 연산)급 NPU를 내장한 'AI 코어'를 별도 탑재했다. AI 코어는 NPU를 활용해 와이파이 신호 최적화, 콘텐츠 필터링, 기기 자동감지, QoS 등을 수행한다. 가상화 플랫폼 '도커'(Docker)를 지원해 게임 서버 등도 구동할 수 있다. 고성능 신제품 2종, 아태지역 중 한국서 최초 발매 ROG 스트릭스 GS-BE7200X는 범용성이 높은 2.4GHz, 5GHz를 지원하는 와이파이7 유무선공유기로 2.4GHz 1.376Gbps, 5GHz 5.764Gbps 등 7.2Gbps 대역폭을 지원한다. 1.8GHz 트리플(3) 코어 프로세서와 DDR4 1GB 메모리를 내장했다. 외부 인터넷 접속은 10Gbps, 데스크톱 PC는 2.5Gbps 접속이 가능하며 기타 콘솔 게임기 등은 1Gbps로 연결된다. 게임 트래픽 최적화 기능, AI를 이용한 유해 사이트 접속 차단 기능 등을 내장했다. 에이수스코리아 관계자는 "ROG 랩처 GT-BE19000AI, ROG 스트릭스 GS-BE7200X 두 제품 모두 아태지역에서는 가장 빨리 공개되는 제품이다. ROG 랩처 GT-BE19000AI 가격은 119만원으로 책정됐고 오는 15일부터 국내 출시 예정"이라고 설명했다. 별관에는 최근 출시된 휴대형 게임PC인 ROG X박스 엘라이, 보컬로이드 캐릭터 '하츠네 미쿠' 테마로 구성된 고성능 게임PC를 자유롭게 체험할 수 있도록 했다. 에이수스 "현재 와이파이7 제품만 국내 시장 공급중" 에이수스코리아 관계자는 "올해를 기점으로 와이파이7 기본 탑재 노트북과 스마트폰 등 기기가 늘어나고 있으며 이런 상황에 맞춰 현재는 와이파이7 관련 제품만 시장에 공급하고 있다"고 설명했다. 이어 "아직 국내 시장에서 와이파이6(802.11ax) 기반 기기 점유율이 절반이 넘는 상황이다. 저지연성, 광대역폭 등 와이파이7의 특성을 알리기 위해 체험공간을 마련했다"고 설명했다.

2025.12.12 16:49권봉석 기자

레드햇-리벨리온, NPU 기반 '오픈시프트 AI' 출시…추론 환경 개선

레드햇이 리벨리온 손잡고 신경처리장치(NPU) 기반 플랫폼을 개발해 인공지능(AI) 추론 환경을 개선했다. 레드햇은 리벨리온과 '리벨리온 NPU 기반 레드햇 오픈시프트 AI'를 발표했다고 11일 밝혔다. 이 플랫폼은 레드햇 오픈시프트 AI, 리벨리온의 NPU, 가상거대언어모델(vLLM) 엔진을 결합해 엔터프라이즈급 풀스택 AI 추론 환경을 제공한다. 리벨리온 NPU는 AI 추론에 특화된 아키텍처다. 그래픽처리장치(GPU) 대비 에너지 효율을 높여 데이터센터 구축·운영 비용을 줄인다. 또 자체 소프트웨어(SW) 스택과 오픈소스 프레임워크 지원을 통해 GPU와 유사한 개발 환경을 제공한다. 새 솔루션은 하드웨어(HW)부터 모델 서빙까지 전 영역을 아우르는 풀스택 구조를 제공한다. 리벨리온 SW 스택은 레드햇 오픈시프트 AI에서 네이티브 실행돼 배포 속도를 높인다. 레드햇 오픈시프트 인증을 받은 NPU 오퍼레이터는 온프레미스·멀티클라우드 환경에서 모두 작동한다. 해당 플랫폼은 랙 스케일 NPU와 vLLM 기반으로 고처리량, 저지연, 전력 효율성을 제공한다. 이를 통해 고객은 LLM 등 다양한 추론 워크로드를 안정적으로 운영할 수 있다. 데이터 온프레미스 유지와 규제 준수 측면에서도 강화된 보안 환경을 제공한다. 코어에서 엣지까지 선형 확장을 지원해 배포 유연성도 확보했다. 브라이언 스티븐스 레드햇 AI 부문 수석부사장 겸 최고기술책임자(CTO)는 "우리 솔루션을 리벨리온의 NPU와 통합해 엔터프라이즈에 검증된 풀스택 대안을 제공할 것"이라며 "고객은 실제 운영 환경의 AI에 필수인 효율성과 저지연성, 수평 확장성을 갖추고 AI 추론 워크로드를 배포할 수 있다"고 밝혔다. 박성현 리벨리온 대표는 "이번 협력으로 기업들이 보다 효율적이고 안전하게 AI 서비스를 확장할 수 있도록 지원할 것"이라며 "GPU 중심 환경을 넘어 NPU 기반 추론 인프라의 새로운 대안을 제시하는 첫 사례가 될 것"이라고 밝혔다.

2025.12.11 11:48김미정 기자

리벨리온, 자사 NPU 기반 레드햇 오픈시프트 AI 공개

AI 반도체 스타트업 리벨리온은 글로벌 오픈소스 솔루션 선도기업 레드햇과 함께 '리벨리온 NPU 기반 레드햇 오픈시프트 AI'를 공개한다고 11일 밝혔다. 이 솔루션은 '레드햇 오픈시프트 AI'와 리벨리온의 NPU(신경망처리장치), 고효율 추론 엔진인 vLLM을 결합해 검증된 풀스택 엔터프라이즈 AI 플랫폼을 제공한다. 레드햇 오픈시프트 AI는 기업이 AI 모델의 라이프사이클을 규모에 맞게 관리할 수 있도록 지원하는 쿠버네티스 기반의 엔터프라이즈 AI/ML 플랫폼이다. '리벨리온 NPU 기반 레드햇 오픈시프트 AI'는 AI 추론 최적화를 위해 핵심 요소를 통합해, 하드웨어(NPU)는 물론 모델 서빙(vLLM)까지 추론에 필요한 모든 영역을 아우르는 검증된 풀스택 AI 추론 플랫폼이다. AI 도입이 확대되면서 기업은 인프라 비용, 배포 복잡성, 보안 등 다양한 과제를 동시에 해결해야 한다. 특히, AI 추론은 학습된 모델이 실제 환경에서 응답을 생성하는 단계로 사용 빈도가 가장 높고 비용·성능에 직접적인 영향을 미친다. 따라서, 기존 GPU 중심의 인프라만으로는 대규모 운영이 요구하는 효율성을 충족하기 어렵다. 이번 솔루션은 이러한 현실적 요구를 반영해 다양한 환경에서 안정적이고 효율적인 추론 인프라를 구축할 수 있는 대안이 될 전망이다. 이번에 출시된 플랫폼은 고객의 AI추론 최적화를 위한 핵심 요소를 통합했다. 먼저, 리벨리온의 NPU는 AI 추론에 최적화된 아키텍처로 설계되어 기존 GPU 대비 최대 3.2배 더 높은 에너지 효율성을 제공하며, 서버·랙 단위에서 데이터센터의 구축 및 운영 비용을 효과적으로 낮춰준다. 또한 풀스택 소프트웨어와 주요 오픈소스 AI 프레임워크 지원을 통해 GPU와 동일한 수준의 편리한 개발 환경을 제공한다. 이를 바탕으로 '리벨리온 NPU 기반 레드햇 오픈시프트 AI'는 하드웨어부터 모델 서빙까지 모든 영역을 아우르는 검증된 풀스택 AI 추론 플랫폼을 제공한다. 리벨리온의 소프트웨어 스택은 '레드햇 오픈시프트 AI'에서 최적화되어 실행되며 오버헤드(불필요한 작업)를 줄이고 배포를 가속화한다. 또한 레드햇 오픈시프트의 인증을 취득한 레벨리온 NPU 오퍼레이터는 온프레미스 및 멀티클라우드 환경에서 보다 원활한 통합과 신뢰할 수 있는 지원을 제공하여 기업의 데이터 주권 확보와 규제 준수를 지원한다. 해당 플랫폼은 주요 기능으로 ▲확장 가능한 엔터프라이즈급 AI 지원(vLLM 통합으로 고처리량·저지연·고효율 추론 운영) ▲보안 강화 및 규제 준수(온프레미스 기반 데이터 보호 및 요건 대응) ▲운영 단순화(NPU를 GPU처럼 쉽게 운영할 수 있는 통합 관리 환경) ▲유연한 확장성(코어부터 엣지까지 선형 확장이 가능한 인프라)을 제공한다. 양사는 코오롱베니트와 공동으로 세미나를 열어 솔루션을 소개하고, 기업의 생성형 AI 도입 과정에서 마주하는 주요 과제를 논의할 예정이다. 이후 참여 기업 대상 컨설팅과 실증을 통해 효율적인 AI 인프라 구축을 지원하고 시장 확장을 본격화할 계획이다. 박성현 리벨리온 대표는 “AI서빙과 추론이 본격화되며 기업들은 성능과 비용, 데이터 주권을 모두 만족시키는 실용적인 인프라를 필요로 하고 있다”며 “기업들이 보다 효율적이고 안전하게 AI서비스를 확장할 수 있도록 지원하는 한편, GPU 중심의 환경을 넘어 NPU 기반 추론 인프라의 새로운 대안을 제시하는 첫 사례가 될 것”이라고 말했다. 브라이언 스티븐스 레드햇 AI 부문 수석부사장 겸 CTO는 “레드햇은 레드햇 오픈시프트 AI의 개방적이고 확장 가능한 역량을 리벨리온의 효율적인 NPU와 통합함으로써, 엔터프라이즈에 검증된 풀스택 대안을 제공한다”며 “이를 통해 고객은 실제 운영 환경의 AI에 필수인 효율성과 저지연성, 수평 확장성을 갖추고 AI 추론 워크로드를 배포할 수 있다”라고 전했다.

2025.12.11 10:26전화평 기자

퀄컴, 아태 AI 스타트업 육성 시동…15개팀 성과 서울서 공개

퀄컴이 아시아·태평양(APAC) 지역 온디바이스 AI 생태계 확장을 위한 '퀄컴 AI 혁신 프로그램(QAIPI) 2025 APAC 데모데이' 행사를 5일 오후 서울 용산구 퀄컴코리아 사옥에서 진행했다. QAIPI는 퀄컴이 올해 APAC 대상으로 처음 진행한 프로그램이다. 한국과 일본, 싱가포르 등 3개 나라에서 총 15개 스타트업을 선정해 6개월 동안 퀄컴의 엣지 AI 플랫폼 기반 기술 멘토링 등을 제공했다. 또 올해 데모데이 행사 개최지를 서울로 선택했다. 5일 오전 퀄컴코리아에서 국내 기자단과 만난 이비 타이 퀄컴 타이완 사업개발 디렉터는 "한국은 세계 최고 수준 ICT 인프라와 스타트업 생태계, 기업·투자자 네트워크로 적합한 시장"이라고 설명했다. "선정 스타트업에 퀄컴 기술과 글로벌 진출 지원" 퀄컴은 올해 APAC 지역에서 '퀄컴 AI 혁신 프로그램 2025'를 시작하고 한국·일본·싱가포르에서 총 15개 유망 스타트업을 선정했다. 선정 팀들은 디바이스·제품 키트 지원, 5천 달러(약 736만원) 상당 특허 출원 인센티브도 지원받았다. 이비 타이 디렉터는 "선정된 스타트업의 요구사항을 파악해 모바일과 AI PC, IoT 등 다양한 퀄컴 엣지 AI 플랫폼을 활용한 솔루션 개발을 지원했다. 또 글로벌 시장 진출을 위한 디자인·지식재산권(IP) 교육, 특허 전략 컨설팅, 비즈니스 워크숍도 제공했다"고 설명했다. 이어 "오늘 오후 진행될 데모데이 행사에서는 한국을 포함해 총 15개 스타트업이 헬스케어, 로보틱스, 스마트시티, 산업용 AI 등 다양한 분야의 엣지 AI 솔루션을 발표하고 라이브 데모를 선보이며, 지난 6개월간의 협력 성과를 공유한다"고 덧붙였다. 반야에이아이 "퀄컴, 한국 특화 AI 모델 구현 적극 지원" QAPI에 선정된 국내 스타트업 중 한 곳인 '반야에이아이'는 올해 3월 설립됐다. 이 회사 김 안토니오 최고기술책임자(CTO)는 "어려움을 겪는 사회적 약자를 위해 '지혜'를 빌려주는 AI 기술을 개발하고 있다"고 설명했다. 이어 "온디바이스 AI는 개인 프라이버시나 민감 정보를 외부로 공개하지 않아도 챗GPT 수준의 사려 깊은 인공지능을 만들 수 있다. 오픈소스 기반으로 자체 개발한 AI 모델을 튜닝하고 훈련해 사용하고 있다"고 설명했다. 퀄컴은 반야에이아이와 협업 과정에서 스냅드래곤 X 엘리트 탑재 기기를 제공했다. 김 안토니오 CTO는 "내장 아드레노 GPU 성능이 강화돼 온디바이스 AI를 원활히 실행할 수 있다"고 평가했다. 반야에이아이는 한국어 기반 모델을 퀄컴 실리콘에 최적화하는 과정에서 퀄컴의 기술 지원을 받았다. 김 안토니오 CTO는 "2주에 한 번씩 퀄컴 기술진과 미팅을 하며 어려운 부분에 대해 도움을 받고, 매번 많은 자료를 제공받는 등 긴밀히 협업했다"고 설명했다. "아두이노 인수로 스타트업 지원 가속... 유니콘 탄생 희망" 이비 타이 퀄컴 타이완 사업개발 디렉터는 "올해 APAC 전역에서 수준 높은 지원자들이 몰렸다. 이 중 ▲AI 혁신성 ▲산업적·사회적 영향 ▲퀄컴 기술과의 시너지 ▲플랫폼 적합성을 따져 스타트업을 선정했다"고 설명했다. 이어 "특허 출원 인센티브 과정에서 모든 지적재산권은 해당 스타트업에 귀속되며 퀄컴은 관여하지 않는다. 또 기술적으로 뛰어난 곳은 내부 사업부나 고객사와 연결해 상용화 기회를 제공하는 등 장기 성장도 돕는다"고 말했다. 최근 인수한 아두이노 관련해 그는 "스타트업이 퀄컴 플랫폼 위에서 더 빠르게 AI 응용프로그램을 구현할 수 있도록 생태계를 강화하는 효과가 있다"고 설명했다. 이비 타이 디렉터는 "한국·일본·싱가포르 등 주요 국가 스타트업이 시장을 탐색하고 글로벌로 나아갈 수 있도록 지원하겠다는 입장을 밝히며, 향후 유니콘 기업이 탄생하는 데 기여할 수 있다면 큰 의미가 있을 것"이라고 덧붙였다.

2025.12.07 09:31권봉석 기자

제논, 한국중부발전·리벨리온과 발전소 특화 AI 업무 서비스 개발 협력

제논이 국산 신경망처리장치(NPU) 기반 인공지능(AI) 업무 서비스 개발에 나선다. 제논은 한국중부발전, 리벨리온과 발전소 업무 특화 AI 서비스 개발을 위한 3자 업무협약(MOU)을 체결했다고 2일 밝혔다. 이번 협약은 국산 NPU를 기반으로 한 실무형 AI 서비스를 공동 개발하기 위해 추진됐다. 특히 국산 기술을 중심으로 AI 인프라와 응용 서비스를 개발해 발전소 업무 환경에 맞춘 고성능 AI를 실증할 계획이다. 이를 통해 공공과 민간 협력 기반의 AI 상생 및 자립 생태계를 조성한다는 목표다. 협약에 따라 3자는 리벨리온의 고성능 NPU 하드웨어를 기반으로 한국중부발전의 업무 환경에 특화된 AI 서비스인 '하이코미' AI 서비스를 공동 개발한다. 이 과정에서 제논은 대규모언어모델(LLM) 추론 엔진을 리벨리온의 NPU에 최적화한다. 이를 바탕으로 발전소 현장에 최적화된 고성능의 하이코미 AI 응용 서비스 개발 및 다양한 신규 서비스의 창출을 지원한다. 하이코미는 지난해 12월 발전사 최초로 도입된 한국중부발전의 생성형 AI 서비스로, 제논이 1차 사업에 이어 현재 2차 사업까지 수행 중이다. 공동 개발 프로젝트는 이달부터 단계적으로 추진된다. 우선 기존 그래픽처리장치(GPU) 환경에 설치된 하이코미 서비스에 더해 리벨리온의 '아톰-맥스' NPU가 탑재된 AI 서버에도 제논의 생성형 AI 플랫폼 '제노스'를 적용하고 하이코미 AI 서비스가 안정적으로 운용될 수 있는 기반 환경을 조성한다. 이후 NPU 기반의 제노스 플랫폼상에서 실시간 데이터 분석·예측과 AI 추론을 포함한 자동화 시스템을 개발할 예정이다. 고석태 제논 대표는 "AI 솔루션 기업과 AI 반도체 스타트업, 공공기관이 힘을 모아 국산 기술 기반의 AI 생태계를 구축하는 모범 사례를 만들게 돼 매우 뜻깊다"며 "이번 협력을 통해 확보된 기술적 기반 위에서 하이코미 서비스가 실제 업무 현장과 보다 긴밀하게 연계되는 형태까지 고도화될 수 있도록 우리의 기술 역량을 다해 각 기관과 긴밀히 협력해 나가겠다"고 말했다.

2025.12.02 17:52한정호 기자

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

[빗썸 사태①] 전문가가 본 문제점 "허술한 관리·통제 체계 시스템"

"휴머노이드 승부수는 관절"…에스피지, 차세대 구동부로 정면 돌파

빗썸 사태 AI 토론, 몰트북과는 어떻게 달랐나

[빗썸 사태②] 거래소 장부거래 뭐가 문제인가

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.