• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'NPU'통합검색 결과 입니다. (116건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

Arm, AGI CPU 시연 "저전력·고성능으로 효율 극대화"

[샌프란시스코(미국)=권봉석 기자] Arm은 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 데이터센터용 IP(지적재산권) '네오버스'를 활용한 자체 개발 제품 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스 v3'를 활용해 설계된 첫 완제품이다. AGI CPU는 68개 코어로 구성된 다이 2개를 연결해 최대 136개 코어로 작동하며 코어당 2MB 용량 L2 캐시를 더했다. 공랭식 36kW(킬로와트)급 랙에는 최대 8160개 코어 구성이 가능하며 수랭식 200kW급 랙에는 최대 4만 5696 코어 탑재가 가능하다. 오후에 아태지역 기자단 대상으로 진행된 시연에서는 AGI CPU를 AI 워크로드 전반을 조율하는 장치로 활용하고 NPU·GPU 등 가속기와 결합하는 하이브리드 AI 아키텍처를 제시했다. 이날 Arm 관계자는 영상 변환과 추론을 동시에 수행하는 시나리오를 전제로 "기존 x86 프로세서는 최대 성능으로 작동시 성능 저하가 발생해 영상 처리시 버퍼링이 발생한다. 반면 Arm AGI CPU는 초당 30프레임으로 영상을 변환해 버퍼링 없는 영상 처리를 수행할 수 있다."고 설명했다. 이어 "기존 CPU는 전력 소모가 커서 냉각을 위해 2U 단위 큰 부피를 차지하며 한 랙에 넣을 수 있는 서버 수도 제한된다. 반면 AGI CPU는 1U 서버에서도 공랭이 가능하기 때문에 더 작은 폼팩터로 더 많은 서버를 랙에 배치할 수 있다"고 설명했다. SAP AI 모델 기반 시연에서는 CPU의 역할 변화가 구체적으로 제시됐다. 시연을 진행한 Arm 관계자는 "라우터, 링커, 검증기, 스코어러 등 다수의 에이전트가 협업해 리스크를 평가하는 작업은 기존에 많은 시간이 걸렸지만 AGI CPU는 이를 수 시간으로 단축할 수 있다"고 밝혔다. 고객 서비스 자동화 시연은 이메일을 자동으로 분류하고 고객에게 직접 전화를 거는 8개 에이전틱 AI가 동시 실행되는 환경을 보여줬다. 대부분의 에이전트는 AGI CPU에서 실행되며 복잡한 추론은 국내 AI 스타트업인 리벨리온 NPU 가속기를 활용했다. Arm 관계자는 "AGI CPU를 기반으로 필요할 경우 외부 가속기를 유연하게 통합 가능하며 이를 활용해 각종 이메일을 기존 대비 두 배 이상의 속도로 처리할 수 있다"고 설명했다. Arm은 기존 x86 서버 기반으로 작성된 코드를 Arm 기반으로 변환하기 위한 도구도 함께 시연했다. AI 에이전트가 기존 코드와 컨테이너를 분석해 자동으로 수정하는 한편 성능이 저하되는 병목구간에서 Arm AI 가속 명령어인 SVE를 적용해 추가 최적화를 지원한다. 전자설계자동화(EDA) 워크로드 시연에서는 실제 반도체 설계 환경 활용 사례를 보였다. AGI CPU에 내장된 최대 136개 코어를 활용해 더 많은 작업을 짧은 시간에 소화해 개발 단계를 단축할 수 있다. Arm 관계자는 "기존에는 지멘스나 시높시스 솔루션을 클라우드에서 활용해야 했지만 AGI CPU를 활용하면 시뮬레이션과 전력 분석 등 메모리 집약적 작업을 온프레미스 환경에서수행할 수 있다"고 밝혔다.

2026.03.25 16:18권봉석 기자

모빌린트, 스피어에이엑스와 엣지 AI 기반 영상 분석 협력

AI 반도체 기업 모빌린트가 AI 영상 분석 솔루션 기업 스피어에이엑스(SPHERE AX)와 AI 기반 안전·보안 및 스마트 인프라 사업 협력을 위한 전략적 업무협약(MOU)을 체결했다고 24일 밝혔다. 양사는 이번 협약을 통해 각 사가 보유한 기술력과 인프라를 결합해 엣지 AI 기반 영상 분석 솔루션을 공동 개발하고, 산업 현장의 안전 관리와 스마트 인프라 구축을 위한 사업 협력을 추진할 예정이다. 주요 협력 내용은 ▲엣지 AI 기반 지능형 영상 분석 솔루션 공동 개발 ▲산업 안전 및 보안 분야 사업 기회 공동 발굴 ▲기술 검토 및 실증(PoC) 수행 ▲공동 마케팅 및 생태계 연계 협력 등이다. 모빌린트는 자사의 고성능 NPU(신경망처리장치)를 기반으로 엣지 환경에서 고효율 AI 연산이 가능한 하드웨어 플랫폼을 제공하고, 스피어에이엑스는 AI 영상 분석 알고리즘 기술을 접목해 지능형 영상 분석 솔루션을 구현할 예정이다. 이를 통해 제조 현장, 건설 현장, 공공시설 등 다양한 산업 환경에서 실시간 안전 모니터링과 지능형 보안 시스템 구축을 추진한다는 계획이다. 특히 양사는 엣지 AI 기반 영상 분석 기술을 활용해 산업 안전 관리 및 스마트 인프라 분야에서 새로운 사업 기회를 공동 발굴하고, 실제 운영 환경에서의 성능 검증(PoC)을 통해 상용화를 추진할 예정이다. 신동주 모빌린트 대표는 “스피어에이엑스의 AI 영상 분석 기술과 모빌린트의 고성능 NPU 기술이 결합되면 산업 현장에서 요구되는 실시간 AI 분석과 안정적인 시스템 구축이 가능해질 것”이라며 “양사의 협력을 통해 지능형 안전 관리 및 스마트 인프라 분야에서 새로운 AI 솔루션 모델을 만들어 나가겠다”고 말했다. 박윤하 스피어에이엑스 대표는 “스피어에이엑스가 보유한 영상 기반 AI 추론 기술과 모빌린트의 NPU 기반 엣지 AI 하드웨어플랫폼이 결합되면 향후 피지컬 AI 분야에서 큰 시너지를 창출할 수 있을 것으로 기대한다”며 “특히 모빌리티, 드론, 로봇 등 다양한 산업 영역에서 영상 기반 AI 인지 및 판단 기술이 중요한 역할을 하게 될 것으로 보고 있으며, 양사의 기술 협력을 통해 이러한 분야에서 새로운 AI 응용 시장을 개척하고 글로벌 시장을 선도해 나가겠다”고 밝혔다.

2026.03.24 14:59전화평 기자

AI 추론칩 꺼낸 엔비디아...韓 NPU, 위기인가 기회인가

인공지능(AI) 가속기 시장의 절대 강자인 엔비디아(NVIDA)가 연례 개발자 컨퍼런스 행사인 'GTC 2026'에서 추론 전용 가속기 LPU '그록3(Groq 3)'를 전격 공개하며 AI 반도체 시장의 판도 변화를 예고했다. 학습용 칩 시장의 절대 강자가 추론 시장 진입을 본격 선언한 것이다. 이에 그동안 경쟁이 덜한 추론 시장을 공략해온 리벨리온, 퓨리오사AI 등 국내 NPU(신경망처리장치) 기업들은 글로벌 리더와의 정면 승부라는 중대한 분수령을 맞이하게 됐다. 19일 반도체 업계에 따르면 엔비디아의 이번 행보는 국내 AI 반도체 기업들에 도전과 기회가 공존하는 중대한 시험대가 될 전망이다. 엔비디아가 추론 전용 가속기 라인업을 강화한 것은 추론 시장에서 가능성을 봤다는 의미와 함께, 국내 업체들이 공략해온 영역이 잠식될 수 있기 때문이다. 엔비디아의 '추론 칩' 양산 선언… 국내 업계엔 직접적 위협 가장 큰 위기는 시장 리더인 엔비디아가 본격적으로 추론용 칩 시장에 진입했다는 사실 자체다. 그간 국내 NPU 기업들은 엔비디아가 거대 AI 모델의 '학습' 시장에 주력하는 동안, 상대적으로 소홀했던 '추론' 영역을 틈새시장으로 보고 차별화를 꾀해왔으나 이제는 그마저 위협받게 됐다. 특히 엔비디아가 학습용 GPU의 약점으로 지목되던 전력 효율과 지연 시간까지 개선한 추론 전용 칩을 내놓으면서, 국내 업체들이 공들여온 '고효율 추론'이라는 방어벽이 흔들릴 수 있다는 우려가 나온다. 특히 국내 기업들이 공을 들여온 중동 시장의 판도 변화가 우려된다. 지난해 11월 미국 정부가 엔비디아 칩의 중동 수출을 허가하면서 리벨리온과 퓨리오사AI 등 국내 기업들이 선점하려던 신시장에 거대 공룡이 직접 진입하게 됐다. 신동주 모빌린트 대표는 “엔비디아가 추론 쪽에 본격적으로 뛰어들면서 올해부터 데이터센터 시장은 상당한 '레드오션'이 될 것”이라며 “결국 글로벌 빅테크들과 기술 및 영업 모든 면에서 직접 경쟁해야 하는 가혹한 상황”이라고 진단했다. “시장의 실재성 증명했다”... 역발상의 기회 반면 업계 일각에서는 엔비디아의 행보가 오히려 국내 NPU 기업들에 기회가 될 수 있다는 분석도 나온다. 시장 리더가 막대한 자금을 투입해 추론 전용 가속기를 내놓은 것은, 추론 시장의 폭발적인 성장 가능성을 전 세계에 공식적으로 확인해준 신호기 때문이다. AI 반도체 업계 관계자는 “엔비디아가 그록을 3배가 넘는 웃돈을 주고 인수한 것은 그만큼 추론 시장의 기회가 크다는 것을 방증한다”며 “이는 국내 업체들이 오랜 기간 준비해온 독자 아키텍처의 방향성이 틀리지 않았음을 증명하는 지표”라고 평가했다. 그러면서 “그록은 기존에도 경쟁 관계에 있던 반도체 업체인 만큼, 이번 발표가 새로운 위협이라기보다 기존 경쟁 구도의 연장선에 가깝다”고 분석했다. 김종기 세미파이브 전무는 “그간 추론 시장이 올 것이라는 말에 시장은 반신반의해왔으나, 엔비디아조차 트레이닝은 GPU로 하되 추론은 에이직이 필요하다고 선언하며 시장의 실재성이 완전히 입증됐다”며 “이러한 패러다임 전환은 기술력을 갖춘 국내 업체들에게는 오히려 플러스 요인이 될 것”이라고 내다봤다. '테스트베드' 부족이 최대 걸림돌… 포트폴리오 부재 우려 현 상황에서 국내 업계가 직면한 가장 심각한 문제점은 개별 기업의 기술력이 아닌 '테스트베드'의 부재다. 엔비디아의 그록3는 막강한 브랜드 파워와 기존 생태계를 바탕으로 실전 레퍼런스를 빠르게 확보하고 있는 반면, 국내 업체들은 제품을 대규모 환경에서 검증해볼 기회가 극히 제한적이다. 글로벌 대기업들은 특정 칩을 도입할 때 이미 시장에서 검증된 제품을 선호한다. 리스크를 짊어지지 않으려는 것이다. 국내 NPU 기업들이 아무리 뛰어난 효율성을 수치로 제시하더라도, 실제 서비스 환경에서 운영된 데이터가 부족해 글로벌 수주 경쟁에서 신뢰를 얻기 힘든 실정이다. 김 전무는 “국내 업체들도 특색 있는 기술력을 갖추고 있지만, 엔비디아나 그록에 비해 테스트베드가 부족한 것이 현실적인 불리함”이라며 “단순히 정부 권고로 쓰는 단계를 넘어 자발적인 수요가 발생할 수 있도록 검증 인프라를 대폭 확충해야 한다”고 강조했다. 다른 AI 반도체 관계자는 "(엔비디아는) 아마존, 마이크로소프트 등 하이퍼스케일러들에 대한 경험을 갖고 있는 점도 국내 업체들과 격차를 벌린다"며 "국내에서 레퍼런스를 쌓고, 해외에서 판매한다는 국내 AI반도체 업체들의 전략이 시장에서 통하려면 국가 전체가 AI 원팀이 돼야만 할 것"이라고 말했다.

2026.03.19 16:13전화평 기자

국방 AI 경쟁력, 반도체 주권에 달렸다…국산 NPU·생태계 구축 시급

국방 AI 반도체 경쟁력 확보를 위해 소버린 반도체 구축과 공급망 안정화가 핵심 과제로 제시됐다. 한국국방연구원(KIDA) 국방인공지능정책연구실과 과실연 AI미래포럼은 2026년 3월 18일 서울 강남구 모두의연구소 강남캠퍼스에서 산·학·연·군 관계자들이 참석한 가운데 '제26-3차 국방 인공지능 혁신 네트워크' 포럼을 공동 개최했다. '국방 AI 반도체'를 주제로 열린 이번 세미나에서는 무기체계 고도화와 국방 데이터센터 구축에 필수적인 AI 반도체 기술 동향을 점검하고, 군의 AI 도입 전략과 국내 반도체 생태계 협력 방안이 집중 논의됐다. 발제자로 나선 백준호 퓨리오사AI 대표는 '국방 AI 반도체: 현재와 미래'를 주제로 발표했다. 그는 "국방 AI의 핵심은 무기체계에 들어가는 엣지 디바이스뿐 아니라, 강력한 모델을 학습하고 전체 상황을 통제하는 데이터센터 인프라에 있다"고 강조했다. 이어 "AI 사용 확대로 추론 수요가 학습을 넘어서는 구조로 바뀌고 있다"고 진단했다. 국방 AI 역시 개별 무기체계보다 데이터센터 중심 구조가 중요하며, 이를 위한 인프라 투자가 필수라는 설명이다. 발제 이후에는 심승배 KIDA 책임연구위원의 사회로 패널 토의가 이어졌다. 토론에는 이형진 방위사업청 서기관, 신성규 리벨리온 부사장, 서영우 한화에어로스페이스 전무, 신동주 모빌린트 대표, 이승영 LIG넥스원 CTO, 이진원 하이퍼엑셀 CTO, 김중훈 네이버클라우드 리더가 참여했다. 이형진 방위사업청 서기관은 국방 반도체 정책 추진 상황을 소개하며 "2025년부터 국방 반도체 R&D를 본격 시작했고 전담 조직을 신설해 AI와 반도체를 통합적으로 추진하고 있다"고 밝혔다. 이어 "향후 예산 확대를 통해 AI 반도체 과제를 늘리고 관계 부처 협력을 통해 대형 과제도 추진할 계획"이라며 "수출 통제 환경을 고려하면 자체 반도체 확보는 필수"라고 강조했다. 신성규 리벨리온 부사장은 국방 AI 반도체의 핵심 과제로 공급망과 규제를 지목했다. 그는 "저지연 성능은 기본 전제"라며 "실제 사업에서는 전략물자 규제와 수출 통제 대응이 더 큰 장벽이 될 수 있다"고 말했다. 이어 "국내에서 설계, 제조, 패키징까지 이어지는 반도체 생태계를 구축하는 것이 공급망 관점에서 중요하다"고 밝혔다. 서영우 한화에어로스페이스 전무는 국산화 필요성을 강조했다. 그는 "국방은 국가 생존과 직결된 영역으로 외산 반도체와 AI에 의존하는 것은 리스크"라며 "국산 반도체와 국산 AI 모델을 함께 활용하는 구조가 필요하다"고 말했다. 이어 "민간 기업만으로는 한계가 있는 만큼 정부 차원의 적극적인 투자와 지원이 필요하다"고 덧붙였다. 신동주 모빌린트 대표는 엣지 AI 환경에서의 반도체 중요성을 강조했다. 그는 "드론과 로봇 등 차세대 무기체계에서는 온디바이스 AI 반도체가 핵심 역할을 한다"며 "국내 기술력은 이미 글로벌 수준에 올라와 있다"고 평가했다. 이어 "향후 2~3년이 산업 경쟁력을 좌우할 골든타임으로, 이 기간 내 협력을 통해 실질적인 성과를 만들어야 한다"고 말했다. 이승영 LIG넥스원 CTO는 실무 도입 관점에서의 과제를 짚었다. 그는 "무기체계는 높은 신뢰성과 검증이 요구된다"며 "NPU가 바뀌어도 기존 알고리즘이 동일하게 동작할 수 있는 소프트웨어 표준이 필요하다"고 설명했다. 이어 "시험·검증 인프라와 공통 소프트웨어 스택이 구축돼야 산업 확산이 가능하다"고 강조했다. 이진원 하이퍼엑셀 CTO는 AI 반도체의 방향성을 특화로 제시했다. 그는 "범용 칩보다는 사용 시나리오에 맞춘 특화 반도체가 중요해지고 있다"며 "국방도 요구사항을 명확히 제시하면 최적화된 칩을 빠르게 개발할 수 있다"고 밝혔다. 이어 "사용자 피드백 기반 생태계가 기술 발전을 가속화할 것"이라고 덧붙였다. 김중훈 네이버클라우드 리더는 실제 서비스 관점에서 접근해야 한다고 강조했다. 그는 "AI 반도체 평가는 결국 사용자 시나리오가 기준"이라며 "지연시간, 처리량, 동시 접속자 수 등 실제 운영 환경을 고려해야 한다"고 설명했다. 이어 "데이터센터와 엣지 사이 중간 영역까지 고려한 아키텍처 설계도 필요하다"고 말했다.

2026.03.18 13:06남혁우 기자

K-엔비디아 육성에 50조 투자...배경훈 "GPU 독점 깬다"

정부가 엔비디아 중심의 글로벌 AI 반도체 독점 구조를 타파하기 위해 향후 5년간 총 50조원 규모의 금융 지원에 나선다. 국내 토종 AI 반도체 5개사를 대상으로 대규모 정책 자금을 투입, '장기 인내 자금'을 통해 글로벌 시장 안착을 전폭 지원한다는 전략이다. 과학기술정보통신부와 금융위원회는 17일 오후 서울 프레스센터에서 '국민성장펀드 K-엔비디아 프로젝트 민관 합동 간담회'를 열고 이 같은 내용의 AI 반도체 산업 도약 지원 방안을 발표했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 이날 인사말에서 “현재 글로벌 AI 시장은 엔비디아의 GPU가 사실상 독점하고 있지만, 고비용과 막대한 전력 소모라는 치명적인 한계에 직면해 있다”고 진단하며, “우리가 가진 저전력·고효율 NPU 기술에 금융권의 전폭적인 지원이 더해진다면 충분히 글로벌 시장의 판도를 바꿀 수 있다”고 강조했다. 이어 “이번 프로젝트는 단순한 자금 공급을 넘어 금융과 산업이 원팀으로 움직이는 메가 프로젝트의 시작”이라며 “국내 AI 반도체 기업들이 엔비디아를 넘어선 'K-엔비디아'로 거듭날 수 있도록 정부가 든든한 버팀목이 되겠다”고 덧붙였다. 국내 NPU 5개사 대표 한자리… 'K-엔비디아' 주역으로 육성 이날 행사에는 국내 AI 반도체 시장을 이끄는 주요 팹리스 기업인 리벨리온, 퓨리오사AI, 딥엑스, 하이퍼엑셀, 모빌린트 등 5개사 대표 및 관계자들이 참석해 정부의 지원 방안을 경청하고 현장의 애로사항을 전달했다. 정부는 이들 5개사를 필두로 한 국내 팹리스 생태계가 글로벌 수준의 유니콘으로 성장할 수 있도록 맞춤형 금융 솔루션을 제공할 계획이다. 특히 기술 발전 속도가 빠른 AI 산업 특성을 고려해, 단순 대출 위주의 지원에서 벗어나 지분 투자와 정책 펀드를 결합한 다각도 지원책을 마련한다. 올해 10조원 집중 투입… '장기 인내 자금'으로 팹리스 뒷받침 금융위원회는 올 한 해에만 약 10조원 규모를 AI와 반도체 분야에 집중 투자하고, 향후 5년간 총 50조원 규모의 대규모 장기 투자를 추진할 계획이다. 특히 초기 개발 비용이 높고 운영 과정에서 전력 비용 부담이 큰 AI 산업의 특성을 반영해, 기업들이 흑자 전환까지 버틸 수 있는 '장기 인내 자금' 공급에 주력한다. 이억원 금융위원장은 “AI 산업은 반도체부터 서버, 클라우드 구축까지 전 주기에 걸친 대규모 투자가 필수적”이라며 “기술력이 있는 기업이 자금난으로 고사하지 않도록 기업의 성장 단계에 맞는 자금을 맞춤형으로 공급하겠다”고 말했다. AI 3대 강국 도약을 위해서는 1차 메가프로젝트에 포함된 'K-엔비디아 육성', '국가 AI컴퓨팅센터'뿐 아니라 '피지컬 AI 생태계 구축', '공공·산업 AI전환(AX) 가속' 등을 적극 지원하는 한편 후속 메가 프로젝트를 지속적으로 발굴해나가야 한다고도 밝혔다. 박태완 정보통신산업정책관은 "AI 반도체 시장의 패러다임이 범용성에서 효율성으로 옮겨가고 있다"며 "국내 기술 혁신이 성과로 연결되려면 대규모 자본 투입이 필수적이며 이를 위해 국민성장펀드와의 연계를 통한 집중 투자가 뒷받침돼야 한다"고 말했다. 정부는 이날 도출된 제안들을 향후 펀드 운용 계획에 적극 반영하고, 상반기 중 7대 메가 프로젝트에 대한 승인 절차를 마무리할 예정이다.

2026.03.17 16:50전화평 기자

세미파이브, 180억원 규모 4나노 NPU 수주

인공지능(AI) 맞춤형 반도체(ASIC) 기업 세미파이브가 AI 반도체 개발 프로젝트를 잇따라 수주했다. 세미파이브는 4nm(나노미터, 10억분의 1m) AI 신경망처리장치(NPU)를 개발하는 약 180억원 규모 턴키 설계 계약을 체결했다고 13일 밝혔다. 세미파이브는 이전부터 4나노에서 레퍼런스를 쌓아왔다. ▲엑시나의 CXL 기반 4나노 개발 사업 ▲하이퍼엑셀의 LPU 4나노 개발 사업 등에 이은 연속 수주다. 이번에 수주한 사업은 네트워크 연결없이 기기 자체에서 AI 연산을 수행하는 '온프레미스' 환경에 최적화된 차세대 AI NPU 상용화를 목표로 한다. 해당 제품은 고해상도 비전 AI와 거대언어모델(LLM) 추론 등 대규모 데이터의 실시간 처리가 필수적인 환경에 맞춰 설계되며, 차세대 메모리 인터페이스를 선제 적용해 데이터 병목 현상을 구조적으로 개선하는 것이 핵심이라고 회사 측은 설명했다. 이를 통해 반도체 핵심 지표인 PPA(전력·성능·면적) 효율을 극대화함으로써, 고성능과 저전력을 동시에 구현한 AI 가속기를 선보일 전망이다.' 조명현 세미파이브 대표는 “이번 수주는 세미파이브가 축적해 온 압도적인 기술 레퍼런스와 맞춤형 반도체 설계 역량이 시장에서 가장 강력한 경쟁 우위에 있음을 다시 한번 증명한 사례”라며, “혁신적인 AI 아키텍처를 가진 고객사들과의 협력을 통해 고성능 AI 반도체 개발 분야에서 시너지를 극대화하고, AI ASIC 전문 기업으로서 맞춤형 반도체 시장의 주도권을 확실히 선점해 나가겠다”고 강조했다.

2026.03.15 09:06전화평 기자

남부발전, 퓨리오사AI와 국산 AI 반도체 생태계 조성 협력

남부발전이 인공지능(AI) 대전환 가속화 흐름에 발맞춰 국산 반도체 기술을 활용한 에너지 생태계 육성에 나선다. 한국남부발전(대표 김준동)은 퓨리오사AI와 '에너지 효율 중심의 국산 AI 인프라 생태계 구축'을 위한 업무협약(MOU)을 체결했다고 밝혔다. 이번 협약은 기존 외산 고가 그래픽처리장치(GPU) 의존도를 낮추고, 전력 효율이 뛰어난 국산 신경망처리장치(NPU) 기반 AI 인프라를 구축하기 위해 마련됐다. 이를 통해 남부발전은 발전설비 운영 비용을 절감하고, 퓨리오사AI는 국산 AI 반도체의 실제 산업 현장 적용 사례를 확보해 기술 자립도를 높인다는 방침이다. 두 회사는 국산 기술 기반 저전력·고성능 AI 인프라 구축을 목표로 ▲NPU 기반 AI 서버 도입·실증 ▲국산 AI 인프라 최적화를 위한 시스템 성능 개선 ▲GPU와 NPU 간 분산 처리를 위한 하이브리드 운영 방안 모색 ▲최신 AI 기술 관련 교류 및 공동 연구 등을 추진할 예정이다. 특히 이번 협력에는 퓨리오사AI의 2세대 NPU인 '레니게이드(RNGD)'가 활용된다. 이 모델은 높은 전력 효율성이 검증된 만큼, 남부발전은 이를 통해 핵심 AI 기술의 성능을 검증하고 대상 시스템을 단계적으로 확대해 차세대 AI 반도체 기술력 선점의 전초기지 역할을 수행할 예정이다. 김준동 남부발전 사장은 “이번 협약은 국산 기술로 안정적이고 효율적인 AI 기반 환경을 조성하는 의미 있는 첫걸음”이라며 “국산 AI 반도체 기술이 실제 산업 현장의 실효성을 입증하고, 향후 다른 공공기관과 산업계로 확산되는 계기가 되길 바란다”고 밝혔다.

2026.03.13 02:00주문정 기자

베슬AI-리벨리온, 국산 NPU 클라우드 기술력 입증한다…피지컬 AI 공략

베슬AI가 국산 인공지능(AI) 반도체와 소프트웨어(SW) 플랫폼을 결합한 'K-AI 풀스택' 기반 인프라를 구축해 공공·지자체 피지컬 AI 시장과 글로벌 실증 확대에 나선다. 베슬AI는 리벨리온과 국산 신경망처리장치(NPU) 기반 클라우드 인프라 구축을 위한 업무협약(MOU)을 체결했다고 12일 밝혔다. 이번 협약은 양사의 인적·물적 자원과 기술 정보를 교류해 국산 NPU 하드웨어(HW)와 AI SW 플랫폼을 결합한 경쟁력 있는 AI 인프라 모델을 구축하기 위해 추진됐다. 양사는 로보틱스와 스마트 제조 등 실제 물리적 환경에서 대규모 연산이 필요한 피지컬 AI 수요에 공동 대응할 계획이다. 주요 협력 분야는 ▲국산 NPU와 베슬 SW를 결합한 패키지 솔루션 공동 기획·개발 및 고도화 ▲상호 기술 통합 검토 및 성능검증(PoC)을 위한 테스트 환경 협력 ▲국내 공공·지자체 및 해외 시장 대상 공동 사업 기회 발굴 등이다. 양사는 국내 시장에서 전북 등 지역 거점을 중심으로 추진되는 피지컬 AI 클러스터 조성 사업과 지자체 AI 전환(AX) 프로젝트 기회를 선제적으로 확보하는 데 집중할 방침이다. 이를 통해 기존 외산 솔루션 중심의 인프라 환경을 국산 AI 기술 스택으로 전환하고 공공 시장에서의 도입 효과를 검증해 나갈 계획이다. 글로벌 시장 공략도 병행한다. 양사는 중동과 동남아시아 지역을 중심으로 국산 NPU 기반 인프라 PoC 기회를 공동 발굴해 현지 산업 현장에 적용 가능한 피지컬 AI 인프라 구축 사례를 확보한다는 목표다. 외산 반도체 의존도를 낮추고 가격 대비 성능이 높은 K-AI 풀스택의 글로벌 경쟁력을 입증한다는 전략이다. 이번 협력에서 베슬AI는 국산 NPU 기반 인프라 위에서 AI 모델이 안정적으로 실행·운영될 수 있도록 오케스트레이션 플랫폼을 제공한다. NPU 특성에 맞는 워크로드 배치와 실행 구조를 설계해 연산 효율과 운영 안정성을 확보한다. 또 국산 거대언어모델(LLM)이 산업 현장에 적용될 수 있도록 LLM 운영관리(LLMOps) 체계를 구축할 예정이다. 리벨리온은 데이터센터와 클라우드 환경에 최적화된 국산 NPU와 전용 SW 스택(SDK)을 공급한다. 양사는 대규모 다중 사용자 환경에서의 인프라 안정성과 성능을 검증하고 NPU 전용 인프라 아키텍처를 공동 설계해 국내 NPU 데이터센터 구축을 위한 기술 검증을 진행한다. 안재만 베슬AI 대표는 "이번 협약은 단순한 기술 교류를 넘어 지역 클러스터와 글로벌 시장에서 실제 작동하는 AI 인프라 사례를 확보하기 위한 기반을 마련하는 것"이라며 "이번 협업을 계기로 국산 NPU 기반 인프라 적용 범위를 확장하며 피지컬 AI 시장 대응 역량을 강화할 예정"이라고 말했다. 박성현 리벨리온 대표는 "비용 효율성이 핵심인 AI 인프라 시장에서 이번 협력은 NPU 기반의 대규모 클라우드를 구축하는 독보적인 사례가 될 것"이라며 "NPU HW부터 클라우드 인프라까지 K-AI 풀스택을 국산 기술로 완성하는 이번 시도를 통해 소버린 AI의 실질적인 경쟁력을 증명하겠다"고 밝혔다.

2026.03.12 15:22한정호 기자

AMD "AI PC, CPU·GPU·NPU 모두 활용 필요"

"마이크로소프트는 2024년 이후 신경망처리장치(NPU)를 활용한 스튜디오 효과, 이미지 편집, 카메라 영상 처리 등을 꾸준히 투입하고 있다. 40 TOPS(1초당 1조번 연산) 이상의 NPU가 없다면 이런 기능 활용은 불가능하다." 11일 오전 서울 삼성동에서 진행된 'AI PC 부트 캠프' 행사에서 김홍필 AMD 시니어 솔루션 아키텍트(이사)가 이렇게 설명했다. NPU는 AI 추론 연산에 특화된 프로세서로, GPU보다 전력 소모가 낮고 INT8 등 저정밀 연산에 효율적이다. AMD는 이날 AI PC용으로 설계된 라이젠 AI 300/400 시리즈 프로세서와 NPU의 활용 상황, GPU 대비 NPU가 가진 전력소모 등 이점과 향후 전망 등을 소개했다. 이날 김홍필 이사는 "시장조사업체 IDC 통계에 따르면 올해를 기점으로 전체 PC 출하량 중 NPU 탑재 제품 비율이 크게 늘어나고 있다. 특히 소형·경량 노트북에는 앞으로 NPU가 반드시 탑재되는 방향으로 갈 것"이라고 설명했다. AMD, 2024년부터 NPU 강화 나서 AMD가 2024년 10월부터 공급중인 노트북용 프로세서인 라이젠 AI 프로 300은 젠5(Zen 5) 기반 CPU, RDNA 3.5 기반 GPU와 XDNA 2 NPU(신경망처리장치)를 결합했다. 김홍필 이사는 "AI 초창기부터 현재까지 많은 AI 모델이 주로 GPU를 활용한다. GPU는 주로 FP32(부동소수점 32비트) 등 연산에 최적화된 반면, NPU는 INT8(정수 8비트) 처리에 최적화됐다. 특히 추론에서는 속도나 메모리 용량에 유리하다"고 설명했다. 올해부터 공급되는 라이젠 AI 400 시리즈는 전작 대비 작동 클록과 메모리 작동 속도 향상으로 CPU와 GPU, NPU 성능을 모두 강화했다. NPU 성능은 전작(50 TOPS) 대비 20% 향상된 60 TOPS까지 올라갔다. "코파일럿+ 시작으로 NPU 활용 S/W 증가 추세" 마이크로소프트 윈도11 코파일럿+ 기능은 2024년 6월 출시된 퀄컴 스냅드래곤 X 엘리트를 시작으로 같은 해 11월부터 인텔·AMD 등 x86 계열 프로세서까지 확장됐다. 주변 대화나 소리를 실시간으로 감지해 자막으로 띄우는 '라이브 캡션', PC 작동 내역을 실시간으로 추적했다 필요한 시점으로 돌아가 확인하는 '리콜' 등이 지원된다. 코파일럿+ 기능 이외에도 마이크로소프트 오피스, 어도비·블랙매직·사이버링크 등 콘텐츠 제작용 솔루션, 피싱이나 악성 코드를 실시간으로 감지하는 보안 솔루션까지 NPU 활용이 확장되는 상황이다. 김홍필 이사는 "현재는 각종 콘텐츠 제작에 AI가 가장 많이 쓰이지만 앞으로는 CPU와 GPU, NPU 3개를 모두 활용해 효율적으로 로컬 AI를 구동하는 것이 중요하다. AMD는 여러 회사와 함께 더 많은 활용 사례를 만들기 위해 노력하고 있다"고 설명했다. NPU 구동해 LLM 실행시 토큰 속도 향상 이날 AMD는 라이젠 AI 7 350 프로세서와 24GB 메모리를 탑재한 HP 엘리트북6 G1a를 이용해 NPU 활용시 전력 소모와 처리 시간을 비교했다. 첫 번째 시연에서는 클라우드 없이 PC에서 직접 거대언어모델(LLM)을 구동하는 오픈소스 소프트웨어 '레모네이드'를 활용했다. AMD CPU와 NPU에 최적화된 딥시크 R1 80억 매개변수 모델을 이용해 첫 토큰(단어) 소요 시간과 초당 토큰 출력 시간을 확인했다. CPU만 구동할 때 첫 토큰 출력까지 1.4초, 초당 토큰은 3.8토큰인 반면 NPU만 활용할 때는 첫 토큰 출력에 2.27초, 초당 토큰은 6.7토큰으로 향상됐다. 프로세서 전력 소모도 CPU만 활용시는 33.20W, NPU 활용시는 절반 가량인 16.59W로 전력 소모 면에서도 일정 부분 이점이 있었다. "NPU 최적화 일부 모델은 GPU 대비 더 빨라" 두 번째 시연은 사진과 영상 콘텐츠를 생성하는 AI 모델을 구동할 수 있는 '어뮤즈'를 활용했다. 스테이블 디퓨전 3.0을 AMD 실리콘에 최적화한 모델로 2048×2048 화소 이미지 생성시 소요 시간을 비교했다. '상자 안의 고양이(A cat in a box)'를 프롬프트로 주고 실행할 때 NPU를 활용하면 총 소요 시간은 127.5초 걸렸다. 반면 GPU만 활용시 소요시간은 296.8초로 2.5배 더 길어졌다. 프로세서 작동 온도에도 일부 차이가 있다. NPU 활용시 온도는 50도로 측정됐지만 GPU만 활용하면 전체 온도는 60도까지 상승한다. 또 과열을 막기 위해 일시적으로 성능을 끌어내리는 스로틀링이 작동해 오히려 더 처리 시간이 길어졌다. 김홍필 이사는 "NPU와 GPU의 연산 정밀도에는 차이가 있고 정밀도를 내릴 수록 처리 시간은 줄어든다. 아직 NPU에 특화된 모델이 드물지만 메모리 용량이나 성능에 일정한 제약이 있는 상황에서 NPU가 더 효율적인 선택지를 줄 수 있다는 의미"라고 설명했다. "NPU 수치보다는 AI 모델 최적화 여부가 관건" 현재 인텔, AMD, 퀄컴 등 주요 AI PC용 프로세서 제조사는 NPU 성능을 차별화 포인트 중 하나로 내세운다. 45 TOPS(퀄컴 헥사곤)로 시작해 50 TOPS(인텔 NPU5), 60 TOPS(AMD) 등 수치상으로는 계속 향상되고 있다. 김홍필 이사는 "실리콘 제조사가 이야기하는 TOPS는 행렬로 구성된 숫자를 서로 곱한 다음 더하는 MAC(곱셈 가산) 수치를 기준으로 한 것이다. 이를 측정하는 벤치마크 도구들이 있지만 정확한 값을 드러낸다고 볼 수 없다"고 설명했다. 이어 "마이크로소프트가 코파일럿+ 기준으로 제시한 40 TOPS는 하한선이다. TOPS 수치가 일종의 마케팅 수단이 됐지만 결국 전반적으로 NPU가 여러 AI 모델에 얼마나 최적화되고 많이 활용되느냐가 더 중요한 사안"이라고 덧붙였다.

2026.03.11 15:49권봉석 기자

TI, MCU 제품군 확장…"모든 기기에 엣지 AI 구현 지원"

텍사스인스트루먼트(TI)가 엣지 인공지능(AI) 기능을 갖춘 두 개의 새로운 마이크로컨트롤러(MCU) 제품군을 11일 공개했다. 새롭게 공개한 MSPM0G5187 및 AM13Ex MCU 제품군은 TI가 전체 임베디드 프로세싱 포트폴리오 전반에 엣지 AI를 구현하겠다는 전략을 뒷받침하는 제품이다. 두 제품군 모두 TI 타이니엔진(TinyEngine) 신경망처리장치(NPU)를 통합했다. 타이니엔진 NPU는 딥러닝 추론 작업을 최적화하도록 설계한 MCU 전용 하드웨어 가속기다. 엣지 환경에서 처리 지연을 줄이고 에너지 효율을 높인다. TI의 임베디드 프로세싱 포트폴리오는 CC스튜디오(CCStudio) 통합개발환경(IDE)을 포함한 포괄적 개발 생태계를 기반으로 한다. 엔지니어들은 IDE가 제공하는 생성형 AI 기능을 활용해 간단한 자연어 입력만으로 코드 개발, 시스템 구성, 디버깅을 빠르게 수행할 수 있다. 이는 TI 데이터와 결합된 업계 표준 에이전트 및 모델로 구현된다. TI는 웨어러블 헬스 모니터, 가정용 회로 차단기의 실시간 모니터링, 휴머노이드 로봇의 피지컬 AI 등 다양한 전자 디바이스에서 엣지 AI 도입을 가속하고 있다. 아미카이 론 TI 임베디드 프로세싱 및 DLP 부문 수석부사장은 "TI는 약 50년 전 디지털 신호 프로세서를 발명하며 오늘날 엣지 AI 처리 기반을 마련했다"며 "범용 MCU와 고성능 실시간 MCU를 포함한 전체 MCU 포트폴리오에 타이니엔진 NPU를 통합함으로써 차세대 혁신을 이끌고 있다"고 말했다. 밥 오도넬 테크날리시스 리서치 사장 겸 수석 연구원은 "현재 업계 관심은 대형 시스템온칩(SoC0을 위한 AI 가속과 NPU에 집중되고 있지만, 실제로 더 흥미롭고 파급력 있는 일부 AI 애플리케이션은 MCU 같은 소형 칩에서도 구현될 수 있다"며 "엣지 기반 AI 가속 애플리케이션은 소비자 전자제품을 더욱 지능적으로 만들고 산업용 디바이스의 효율성을 높일 수 있다"고 말했다.

2026.03.11 14:34장경윤 기자

퀄컴, 드래곤윙 기반 플랫폼 '아두이노 벤투노 Q' 출시

퀄컴 자회사 아두이노는 독일 뉘른베르크에서 10일부터 12일까지 3일간 열리는 '임베디드 월드 2026'을 앞두고 신규 플랫폼 '아두이노 벤투노 Q'를 출시했다. 아두이노 벤투노 Q는 Arm 코어텍스 8코어 CPU와 아드레노 GPU, 40 TOPS(1초당 1조번 연산)급 헥사곤 텐서 NPU와 퀄컴 스펙트라 692 영상처리장치(ISP)로 구성된 드래곤윙 IQ8(IQ-8275)로 구동된다. 여기에 각종 모터 등을 제어하는 STM32H5F5 소형제어장치(MCU)를 병렬 구조로 구성했다. 메모리는 16GB, 저장공간은 eMMC 64GB이며 PCI 익스프레스 4.0 기반 NVMe SSD를 연결할 수 있는 M.2 커넥터도 보드상에 기본 장착했다. 2.5G 이더넷과 와이파이6, 블루투스 5.3을 기본 지원하며 PWN, GPIO, CAN-FD 등 산업용 입출력 규격을 갖췄다. 헥사곤 텐서 NPU와 대용량 메모리, 저장공간을 활용해 거대언어모델(LLM) 기반 생성 AI를 로컬에서 실행 가능하다. 카메라를 최대 3대까지 연결해 비전 기반 로봇, 위험 행동 감지 등 구현에 활용할 수 있다. 기본 운영체제는 우분투·데비안 리눅스이며 STM32H5F5 MCU는 별도 운영체제로 구동해 시간 정확도가 요구되는 작업에서 정확성을 높였다. PC에 연결하거나 독립 실행이 가능하며 우노 실드, 아두이노 모듈리노 노드, 라즈베리 파이 햇츠 등 인터페이스를 바로 지원한다. 올 2분기부터 아두이노 스토어와 디지키, 마우저 등 공식 리셀러를 통해 공급 예정이며 가격은 미정.

2026.03.10 09:10권봉석 기자

AMD, CPU 강화한 라이젠 임베디드 SoC로 엣지 AI 공략 확대

AMD가 실시간 대응이 필요한 로봇과 스마트 공장, 의료기기 등 임베디드 AI 시장 공략을 강화한다. 올해 CES 2026에서 공개한 '라이젠 AI 임베디드 P100' 프로세서의 CPU 코어 수를 기존 최대 6개에서 12개까지 늘린 신규 모델을 추가하며 라인업을 늘렸다. 이는 실시간 처리가 요구되는 산업용 AI 환경에서 지연 시간을 줄이며 병렬 처리 능력을 강화하기 위한 행보로 해석된다. CPU 코어 증가에 따라 P100 시리즈 프로세서의 AI 연산 능력도 높아졌다. CPU·GPU·NPU를 통합한 플랫폼 AI 연산 성능도 최대 80 TOPS 수준까지 향상됐다. 엣지 AI 환경 고려한 P100 시리즈 1월 공개 AMD가 1월 공개한 라이젠 AI 임베디드 P100 시리즈는 젠5(Zen 5) 기반 CPU와 RDNA 3.5 아키텍처 기반 GPU, XDNA 2 NPU 등 AI 연산에 필요한 3대 처리장치를 통합했다. CPU는 x86 아키텍처 기반 운영체제와 응용프로그램 실행을, GPU는 카메라와 센서로 입력된 영상을 이용한 각종 사물 인식과 AI 모델 실행을 담당한다. 반면 NPU는 센서 등 데이터 처리를 위한 상시구동 AI 모델을 CPU나 GPU 대신 실행해 부담을 줄인다. CPU나 GPU로 처리해야 할 데이터를 전처리하는 단계에도 활용된다. AMD는 P100 시리즈 공개 당시 "3개 요소를 통합한 이기종 컴퓨팅 구조를 통해 실시간 제어와 영상 분석, AI 추론 등 다양한 워크로드를 칩 하나에서 처리할 수 있다"고 설명했다. CPU 코어 8/12 탑재 제품군 추가 투입 AMD는 9일(현지시간) P100 시리즈의 라인업을 한 단계 확장했다. CPU 최대 코어 수를 6개에서 두 배인 12코어로 늘린 제품을 추가 투입했다. CPU AI 연산 성능을 6 TOPS(1초당 1조 번 연산)로 높였고 GPU 24 TOPS, NPU 50 TOPS를 포함한 플랫폼 전체 AI 연산 성능은 최대 80 TOPS까지 향상됐다. AMD 관계자는 사전 브리핑에서 "CPU 코어가 늘어나도 전체 다이와 기판을 합친 패키지 크기는 기존 제품과 같다"고 밝혔다. 기존 P100 기반 기기를 생산하던 임베디드 업체 등이 폼팩터나 기판을 유지하며 용도 별로 성능을 달리할 수 있다는 의미다. 다양한 작업 동시 수행 위해 CPU 강화 P100 시리즈의 CPU 코어 수 확대는 산업용 기기에 필요한 연산 성능 수준이 최근 2~3년간 급격히 높아진 것과도 관련이 있다. 예를 들어 스마트 공장 환경에서는 산업용 PC가 공정 제어와 머신비전 분석, 사용자 인터페이스 처리, 데이터 분석을 동시에 수행한다. 로봇 시스템 역시 센서 데이터 처리와 경로 계획, AI 기반 물체 인식 등 다양한 작업을 동시에 처리해야 한다. AMD는 CPU와 GPU, NPU 중 CPU 코어 확대를 통해 시스템 전체의 병렬 처리 성능을 높이는 방향을 선택했다. CPU 코어 수가 증가하면 이러한 워크로드를 여러 코어에 분산해 실행할 수 있어 지연 시간을 줄이고 실시간 처리 성능을 높일 수 있다. 공장 자동화·의료 영상 분석 등 활용 전망 CPU 코어를 강화한 P100 시리즈는 엣지 AI 연산 능력을 기반으로 다양한 산업 분야에서 활용될 것으로 예상된다. AMD가 예측한 대표적인 적용 분야로는 공장 자동화 환경의 머신비전 검사 시스템과 산업용 PC, 자율 이동 로봇과 물류 로봇, 의료 영상 분석 장비 등이 있다. 이들 시스템은 다수의 센서와 카메라 데이터를 실시간으로 처리해야 하기 때문에 CPU와 GPU, NPU가 통합된 구조가 유리하다. 특히 의료 장비의 경우 초음파나 내시경 영상 분석과 AI 기반 진단 보조 기능을 동시에 수행할 수 있어 엣지 기반 의료 AI 구현에도 활용할 수 있다. 산업용 기기 수명 고려해 최대 10년간 공급 P100 시리즈는 x86 명령어체계의 가장 큰 강점인 호환성과 가상화를 활용해 윈도와 우분투 리눅스, RTOS 등 여러 운영체제를 동시에 구동할 수 있다. 예를 들어 공장 자동화나 의료 기기용 사용자 인터페이스는 윈도 환경에서, 실시간 제어는 RTOS 환경에서 동시에 분리 실행하는 방식이다. 공급 주기는 산업용 기기의 장기 운영을 고려해 최종 공급 후 최대 10년간이며 영하 40도에서 영상 105도까지 넓은 범위 안에서 작동하도록 설계됐다. AMD는 현재 4/6코어 기반 P100 프로세서 시제품을 고객사에 공급중이며 오는 2분기부터 대량 생산 예정이다. 이번에 공개된 8/12코어 제품도 시제품 공급중이며 올 하반기 생산을 목표로 하고 있다.

2026.03.10 06:00권봉석 기자

자율주행·휴머노이드 확산…K-팹리스 성장 기회 잡았다

인공지능(AI) 산업의 패러다임 전환으로 팹리스 업계가 새로운 성장 기회를 잡고 있다. 전세계 주요 기업들이 자율주행·휴머노이드 개발에 박차를 가하면서, 기존 GPU 대비 고효율·저전력 특성을 갖춘 엣지 AI 반도체가 주목받고 있어서다. 이에 국내 팹리스 기업들도 각 산업에 특화된 칩 개발로 글로벌 시장을 적극 공략하고 있다. 4일 경기 성남 가천대학교 비전타워 컨벤션홀에서는 'CES 2026 팹리스 서밋 코리아'가 개최됐다. 피지컬 AI 산업 급성장…고효율·저전력 AI반도체 각광 이번 행사는 지난 1월 미국 라스베이거스에서 열린 세계 최대 ICT 전시회 CES 2026과 연계해, AI 반도체의 글로벌 전략을 논의하기 위해 마련됐다. 윤원중 가천대 부총장, 김용석 가천대 반도체교육원장, 최우혁 산업통상자원부 부첨단 산업정책관, 김경호 한국팹리스산업협회 회장 등 주요 인사들이 참석했다. 정지훈 DGIST 교수는 "AI 산업 비중이 기존 학습에서 추론으로 급격하게 넘어가면서, 고성능 GPU와 더불어 추론 속도 및 전력 효율성을 극대화한 전용 AI 반도체가 각광받고 있다"며 "거대 데이터센터와 달리 필요한 반도체 성능이 다변화 돼 있기 때문에, 무수히 많은 팹리스 회사들이 성공하게 될 것"이라고 말했다. 특히 올해 CES 2026의 화두였던 휴머노이드 로봇, 자율주행 등 피지컬 AI 관련 산업의 성장세가 주목된다. 피지컬 AI는 엣지 단에서 AI 모델의 추론을 실제 물리적인 동작으로 수행하는 기술이다. 정 교수는 "이번 CES 2026에 참석한 엔비디아 등 주요 기업의 리더들의 핵심 메시지는 '피지컬 AI는 한 회사가 할 수 없는 규모'라는 것"이라며 "이에 따라 AI 반도체 뿐만 아니라 센싱·제어·구동 등 산업 전반이 성장할 것이고, 상당한 제조업 기반을 가진 한국이 강점을 지닐 것"이라고 강조했다. 주영섭 서울대 공학전문대학원 특임교수는 "휴머노이드 로봇 대전 속에서 한국은 미국의 기술·성능 중심, 중국의 가격 중심 전략을 타파할 전략이 필요하다"며 "때문에 한국은 휴머노이드 로봇의 핵심인 온디바이스 AI 반도체를 매우 중요한 프로젝트로 인식해야할 것"이라고 제언했다. 국내 팹리스 업계, 피지컬 AI 시장 적극 공략 이에 국내 AI 반도체 관련 팹리스 기업들은 피지컬 AI에서 성장 기회를 모색하고 있다. 넥스트칩·텔레칩스 등 기존 팹리스 기업들은 물론, 딥엑스·보스반도체·모빌린트·디노티시아 등 스타트업이 대표적인 사례다. 자율주행용 반도체 전문기업 보스반도체의 박재홍 대표는 "자동차 AI 시장 선점의 관건은 AI 반도체로, 자율주행과 인포테인먼트 등 여러 분야에서 차량용 AI 반도체 산업의 급격한 성장이 예상된다"며 "특히 인포테인먼트의 경우 LLM, VLM 기반의 AI 어플리케이션을 도입하려는 움직임들이 많다"고 설명했다. 로봇 역시 차량용 AI 반도체 성장을 촉진할 가능성이 크다. 자율주행에 쓰이는 센서, AI 엔진 등이 로봇에도 상당량 활용되기 때문이다. 박 대표는 "일례로 테슬라는 자사 자율주행 솔루션인 FSD를 옵티머스 로봇에 그대로 사용하고 있다"며 "자율주행에서 촉진된 엣지 컴퓨팅과 온디바이스 기술이 로봇으로 옮겨 가, 실제 업무 환경의 투입을 가속화하고 있다"고 말했다. 엣지 AI용 NPU를 개발하는 딥엑스의 송준호 연구소장은 "기존 데이터센터용 디바이스는 지연속도, 비용, 에너지 효율 등에서 피지컬 AI의 요구사항을 만족시키지 못하고 있다"며 "이에 딥엑스는 범용 GPU 대비 대비 전력효율성 및 비용이 높은 AI 반도체 'DX-M2'를 개발 중"이라고 밝혔다. 해당 칩은 삼성전자 파운드리의 최선단 공정인 2나노미터(nm)를 기반으로 제조된다. 본격적인 상용화 목표 시점은 2027년이다.

2026.03.04 15:28장경윤 기자

퀄컴, 웨어러블용 스냅드래곤 웨어 엘리트 플랫폼 공개

퀄컴이 2일(미국 현지시간) 웨어러블과 소형 엣지 기기를 위한 저전력 시스템반도체(SoC) 플랫폼 '스냅드래곤 웨어 엘리트'를 공개했다. 스냅드래곤 웨어 엘리트는 대만 TSMC 3나노급 공정에서 생산되며 고성능(2.1GHz) 코어 1개, 저전력·고효율(1.95GHz) 코어 4개로 구성된 Arm 기반 빅리틀 구조 CPU와 헥사곤 NPU, 아드레노 GPU와 와이파이/블루투스/5G 등 통신 기능을 통합했다. 작년 8월 출시된 스냅드래곤 W5+ 대비 싱글 코어 CPU 성능은 최대 5배, GPU 성능은 최대 7배 향상돼 앱 실행과 멀티태스킹, 렌더링 성능을 개선했다. 내장된 헥사곤 NPU를 활용해 엣지에서 최대 20억 개 매개변수 AI 모델을 구동 가능하며 이를 활용해 상황 인지 기반 추천, 자연어 음성처리, 라이프 로깅, AI 에이전트 등 기능을 실행한다. 전력 소모를 최적화해 충전 빈도를 줄이는 한편 전 세대 대비 실사용 시간을 30% 연장했다. 기기 내장 배터리를 9V로 충전하는 급속 충전 기능을 사용하면 기기 내장 300~600mAh 배터리를 약 10분 만에 50% 용량까지 충전이 가능하다. 5G 레드캡, 초저전력 와이파이, 블루투스 6.0과 초광대역 무선기술(UWB), GPS·글로나스 등 위성항법시스템(GNSS), 위성통신을 위한 비지상 네트워크(NB-NTN) 등 6가지 통신 수단을 결합했다. 이를 통해 기기 페어링과 단독 실행, 산간 지역이나 사막 등에서 위성을 통한 SOS 메시지 송수신이 가능하다. 알렉스 카투지안 퀄컴 총괄 부사장 겸 모바일·컴퓨트·XR그룹 본부장은 "스냅드래곤 웨어 엘리트는 통합 NPU 아키텍처와 첨단 센서 처리 기능을 기반으로 강력한 엣지 AI를 구동하며 이를 통해 개인화된 AI 경험을 구현한다"고 밝혔다. 스냅드래곤 웨어 엘리트는 워치·핀·펜던트 등 다양한 폼팩터 구동을 염두에 두고 설계됐다. 이를 탑재한 기기는 삼성전자, 모토로라, 구글 등 주요 제조사를 통해 몇 달 안에 출시 예정이다.

2026.03.03 00:39권봉석 기자

소테리아, 대표이사 지분 무상출연으로 550억원 주식보상

인터베스트, 하나벤처스, SBVA(구 소프트뱅크벤처스) 등 국내 대형 VC가 주목한 국내 팹리스(반도체 설계) 유망기업 소테리아(SOTERIA)가 파격적인 임직원 보상 정책을 내놓으며 인재 확보 경쟁에 불을 지폈다. 24일 소테리아에 따르면 이 회사는 도약과 우수 인재 확보를 위해 550억원 상당의 대표이사 주식을 회사에 무상 출연하기로 최종 결정했다. 보상 대상은 재직 중인 전 임직원이다. 성과에 따라 최소 1억 원 상당의 주식이 배정되며, 핵심 인재에게는 상한 없는 보상이 적용될 예정이다. 특히 이번 보상은 회사 가치 상승에 따라 주식 가치도 함께 커질 수 있다는 점에서, 단순 현금 보상을 넘어선 장기 인센티브로 주목받고 있다. 앞서 소테리아는 산은캐피탈, 인터베스트, 하나벤처스, SBVA 등으로부터 시리즈 투자를 유치하며 업계의 관심을 받아왔다. 투자사들은 소테리아가 ▲고성능 연산 ▲AI 가속 솔루션 ▲설계 및 자체검증 플랫폼을 아우르는 통합 솔루션 역량을 갖췄다는 점에 주목한 것으로 전해졌다. 하드웨어와 소프트웨어를 함께 내재화한 구조를 통해 기존 팹리스와 차별화된 성장 가능성을 보여줬다는 분석이다. 이번 보상안은 소테리아가 원하는 인재상을 분명히 드러낸다. 단순 실행자가 아니라, 문제를 정의하고 해결 구조를 설계하는 '아키텍트(Architect)'급 인재를 확보하겠다는 것이다. 이는 외부 투자금을 기술 고도화(R&D)와 인프라 확장에 집중하고, 인재 보상은 창업자 본인이 감수하겠다는 의지의 표현으로 해석된다. 업계에서는 이를 투자사와의 신뢰를 강화하는 동시에, 경영진의 성장 자신감을 드러낸 상징적 결정으로 보고 있다. 이번 보상안은 인적 역량 의존도가 절대적인 팹리스 산업 특성상, 핵심 인재 보상 강화와 톱티어 신규 인재 영입을 동시에 겨냥한 전략적 승부수라는 평가다. 소테리아는 "우리가 찾는 인재는 정해진 답을 수행하는 사람이 아니라, 길을 만들어가는 개척자"라며 "회사의 주인으로 의사결정에 참여하고, 성과를 지분으로 공유하는 실리콘밸리식 파트너십 문화를 정착시키겠다"고 밝혔다. 소테리아의 기술력은 삼성전자 파운드리 4나노(nm) 공정을 통해 입증됐다는 평가다. 핵심 제품인 HPC용 AI 가속기(NPU) '아르테미스(Artemis)'와 '아폴론(Apollon)'는 통상 4나노 공정에서 활용되는 0.75V 수준보다 크게 낮은 0.3V 초저전압 구동을 구현했다. 소테리아는 이를 위해 ARM, 시놉시스 등 외부 벤더의 상용 라이브러리 의존보다는, 0.3V 구동에 최적화한 라이브러리를 독자 개발해 적용했다. 전력 효율 극대화를 위해 설계 단계부터 자체 최적화를 밀어붙인 셈이다. 업계에서는 이 같은 초저전력 칩이 액침냉각 기반 데이터센터 시장과 높은 시너지를 낼 것으로 보고 있다. 생성형 AI 확산으로 데이터센터 전력 부담이 급증하는 가운데, 냉각 효율을 높이는 액침냉각 시스템과 초저전력 칩이 결합하면 전체 에너지 효율을 크게 높일 수 있다는 게 업계 시각이다. 또한 AI 대규모 언어모델(LLM)의 추론 효율을 획기적으로 개선한 AI 가속 솔루션 'ARES(AI Revolutionary Ecosystem for Sustainability)'가 글로벌 시장에 공식 공개됐다. 소테리아는 '24년 4분기부터 GPU 기반 AI 시장의 핵심 문제점인 LLM 대형화, 높은 GPU 비용, 메모리 부족, 데이터 병목 현상을 집중 분석하고, 이에 대응하기 위해 Decode 연산과 KV 캐시 오프로딩을 중심으로 한 하드웨어·소프트웨어 융합 기술을 개발했다. 여기에 자체 개발한 EDA(반도체 설계 자동화) 플랫폼 'DEF 지니(DEF Genie)'까지 더해지면서, 소테리아는 칩 설계부터 검증 최적화까지 아우르는 통합 체계를 갖췄다. 회사 측은 자사 칩 구조에 맞춘 DEF 지니를 통해 설계 및 검증 속도를 앞당기고 제품 완성도를 높이고 있다고 설명했다.

2026.02.27 17:24장경윤 기자

시스원, 퓨리오사AI와 공공 총판 계약…2세대 NPU '레니게이드' 공급 본격화

시스원이 퓨리오사AI와 공공부문 총판 계약을 맺고 2세대 신경망처리장치(NPU) '레니게이드(RNGD)' 기반 인공지능(AI) 인프라 시장 공략에 나섰다. 시스원은 서울 강서구 마곡동 본사에서 퓨리오사AI와 공공부문 총판 계약을 체결하고 협정식을 진행했다고 27일 밝혔다. 이번 계약으로 시스원은 퓨리오사AI의 공공시장 진출을 이끄는 첫 총판 파트너가 됐다. 양사는 이번 협약을 계기로 공공기관을 대상으로 한 AI 추론 인프라 공급을 본격화한다. 시스원은 퓨리오사AI의 2세대 NPU 레니게이드' 카드와 'NXT 레니게이드' 서버 제품군을 공공기관에 공급할 계획이다. AI 추론 서버 도입을 준비 중인 중앙부처와 공공기관, 공기업 등을 주요 타깃으로 삼는다. 퓨리오사AI는 대규모 AI 추론 환경에 최적화한 독자 아키텍처 '텐서 축약 프로세서(TCP)'를 기반으로 칩과 소프트웨어 스택을 고도화해 왔다. 2025년 7월에는 LG AI연구원과 레니게이드 실증을 진행해 대규모 언어모델 '엑사원(EXAONE)' 적용을 확정했다. 이를 통해 GPU 대안 추론 솔루션으로서의 경쟁력을 입증했다는 설명이다. 시스원은 1982년 설립 이후 44년간 공공기관을 대상으로 시스템 통합(SI), IT 인프라 운영, 클라우드, 보안 서비스를 제공해 왔다. 약 3백50명의 전문 인력을 기반으로 시스템 구축부터 운영, 컨설팅까지 수행하는 중견 IT 기업이다. 인천국제공항 출입국 심사 자동화 시스템 '이 게이트(e-Gate)' 구축 등 국가 기반 보안 프로젝트 경험도 보유하고 있다. 양사는 앞으로 공동 사업 기회 발굴, 기술 세미나 개최, 레퍼런스 확보 등 다방면 협력을 추진한다. 공공부문 인공지능 전환(AX)을 지원하는 핵심 인프라 공급망을 함께 구축한다는 방침이다. 김영주 시스원 대표는 "이번 총판 계약은 공공부문에서 요구하는 인공지능 전환의 핵심 인프라를 제공하기 위한 협력"이라며 "퓨리오사AI와 함께 국내 AI 반도체 생태계를 활성화하고 성공적인 AX를 이끌겠다"고 말했다. 백준호 퓨리오사AI 대표는 "시스원의 공공시장 전문성과 사업 수행 역량은 자사 기술 확산에 중요한 역할을 할 것"이라며 "긴밀한 협력을 통해 제품이 업계 표준으로 자리 잡도록 노력하겠다"고 밝혔다.

2026.02.27 16:50남혁우 기자

칩스앤미디어, 차세대 맞춤형 NPU 'WAVE-N' 생태계 본격 확대

멀티미디어 IP 전문기업 칩스앤미디어는 차세대 맞춤형 NPU(신경망처리장치) 아키텍처인 'WAVE-N' 생태계를 전략적으로 확대한다고 25일 밝혔다. WAVE-N은 AI 기반 영상·이미지 처리에 특화된 차세대 NPU 기술로, 다양한 AI 네트워크에 최적화된 성능과 높은 전력 효율을 동시에 구현하는 것이 특징이다. 칩스앤미디어는 이를 중심으로 글로벌 AI 이미징 기업들과 협력해 생태계를 강화하고 있다. 이번 생태계 확장의 핵심은 ▲AI 이미징 네트워크 선도 기업들과의 전략적 파트너십 구축 ▲실리콘 검증을 마친 WAVE-N IP와 고성능 AI 네트워크의 통합 ▲고객이 즉시 활용 가능한 검증된 이미징 솔루션 제공 ▲이미징·비전 기술 분야의 경쟁력 강화다. 칩스앤미디어는 WAVE-N 출시 이후 면적과 전력 효율성에 중점을 두고 하드웨어 성능을 지속적으로 검증해왔다. 그 결과, 초해상도 기술(SESR)과 객체 탐지 기술(YOLO 시리즈) 등 주요 AI 이미징 응용 분야에서 경쟁사 대비 최대 6~10배 빠른 성능을 확보했다고 설명했다. 또한 글로벌 AI 소프트웨어 기업들과 공동 벤치마킹을 진행한 결과, 동일한 하드웨어 자원(면적·전력) 기준에서 더 높은 성능을 구현하거나, 동일 성능을 더 적은 자원으로 달성하는 것으로 나타났다. 이는 점점 더 복잡해지고 다양해지는 최신 AI 모델 환경에서 매우 중요한 경쟁 요소로 평가된다. 이 같은 기술적 성과를 바탕으로 WAVE-N 생태계에는 아시아, 북미, 유럽의 주요 기업들이 참여하고 있으며, 현재 제품 상용화를 목표로 협력을 강화하고 있다. WAVE-N 생태계 1세대는 올해 2분기 내 구축 완료를 목표로 하고 있다. 칩스앤미디어는 향후 다양한 이미징 솔루션을 하나로 아우르는 'AI All-in-One' 연합 체계를 통해 전 세계 고객에게 유연하고 사용하기 쉬운 AI 이미징 플랫폼을 제공한다는 계획이다.

2026.02.25 09:38장경윤 기자

더존비즈온-퓨리오사AI, 국산 NPU로 공공·금융 AI 판 키운다

정부가 국산 인공지능(AI) 반도체 확산 정책을 본격화하는 가운데 더존비즈온이 국내 대표 신경망처리장치(NPU) 기업 퓨리오사AI와 손잡고 국내 공공·금융 시장 확산과 글로벌 사업 확대에 박차를 가한다. 더존비즈온은 서울 중구 더존을지타워에서 퓨리오사AI와 NPU 기반 AI 솔루션 글로벌 사업화를 위한 업무협약(MOU)을 체결했다고 19일 밝혔다. NPU는 생성형 AI 개발 등에 활용되는 AI 반도체로, 그래픽처리장치(GPU)보다 전력 소모량이 적고 AI 추론·연산에 특장점을 갖고 있다. 퓨리오사AI는 AI 반도체 설계기업으로 2017년 설립 이후 1세대 컴퓨터 비전용 NPU 상용화에 이어 최근 2세대 칩 '레니게이드(RNGD)' 양산을 시작했다. 이번 협약은 양사가 공동 수행한 '2025년 AI 반도체 해외실증 사업'을 비롯해 그동안 상호 축적된 성공적인 협업 성과를 토대로 마련됐다. 레니게이드를 기반으로 한 AI 솔루션의 국내·해외 사업화를 목표로 상호 기술 협력을 비롯해 공동 레퍼런스 창출 등 다각적인 협력 활동을 전개할 방침이다. 특히 정부가 최근 공공부문을 중심으로 국산 NPU 적용 확대를 추진하는 상황에서 이번 협력이 관련 시장 확대 흐름과 맞물릴지 주목된다. 양사는 퓨리오사AI NPU 환경에서 더존비즈온의 '원 AI'를 구동·적용하는 데 주력한다. 레니게이드 기반 인프라를 활용해 공공·금융 등 보안과 안정성이 중요한 프라이빗 환경을 대상으로 AI 서비스 지원 및 전력 효율과 운영 효율까지 고려한 인프라 검증·구성에 나선다. 시장 적용 가능성과 기술적 신뢰도 역시 단계적으로 확보한다는 목표다. 실제 현장의 서비스 운영 환경을 기준으로 국산 NPU 기반 AI 서비스 성능, 전력 소모 대비 처리량 측면의 객관적 검증을 추진하고 신뢰할 수 있는 제삼자 검증 체계를 통해 결과를 확인·축적할 예정이다. 이를 통해 양사는 국산 NPU에 접목된 AI 서비스의 운영 효율성과 비용 경쟁력을 입증할 계획이다. 향후 국내외 시장에서의 사업화와 시장 확대를 위한 기술적 기반도 공동으로 마련한다는 방침이다. 더존비즈온은 이번 협력으로 고가의 외산 GPU 의존도를 낮추고 국산 AI 반도체를 활용한 독자적인 AI 인프라 선택지를 확보하게 됐다. 퓨리오사AI 역시 더존비즈온의 기업 고객을 대상으로 공급처 확대에 나서고 기업 핵심 업무 영역에서의 적용 사례와 피드백을 추후 시장 개척에 활용할 계획이다. 다만 더존비즈온이 퓨리오사AI의 NPU를 얼마나 도입할지에 대해선 아직 구체적으로 공개되지 않았다. 단계적 검증과 사업화 추진 상황에 따라 적용 범위를 확대해 나갈 것으로 풀이된다. 더존비즈온 관계자는 "이번 협약은 국산 AI 기술의 자립과 글로벌 경쟁력 강화를 위한 중요한 전환점이 될 것"이라며 "우리 AI 솔루션 역량과 퓨리오사AI의 반도체 기술력을 결합해 효율적이고 신뢰도 높은 글로벌 AI 비즈니스 모델을 만들어 갈 것"이라고 말했다.

2026.02.19 16:02한정호 기자

韓 AI반도체, '엔비디아 대항마' 넘어 실전으로

AI 시대의 개막과 함께 반도체 산업의 패러다임이 급변하고 있다. 인공지능 구현에 필수적인 고성능 반도체의 수요가 폭증함에 따라, 엔비디아의 GPU(그래픽처리장치)를 중심으로 한 글로벌 AI 생태계는 그 어느 때보다 공고한 성벽을 쌓아 올렸다. 그러나 최근 AI 시장의 무게추가 모델 학습에서 '추론(Inference)'으로 이동하며 GPU 중심의 시장 구조에 변화의 조짐이 나타나고 있다. 학습에서 추론으로, NPU 시장의 활성화 생성형 AI의 확산은 데이터센터부터 엣지, 온디바이스 전반에 걸쳐 막대한 연산 수요를 창출하고 있다. 초기 시장이 대규모 언어 모델을 학습시키기 위한 GPU 중심이었다면, 이제는 학습된 모델을 실무 서비스에 적용하는 추론 단계가 핵심 경쟁력으로 부상했다. 이 과정에서 AI 연산에 특화된 NPU(신경망처리장치) 시장이 본격적으로 활성화되고 있다. NPU는 범용성을 갖춘 GPU와 달리 AI 알고리즘 처리에 최적화돼 있어, 전력 효율성과 비용 측면에서 압도적인 강점을 가진다. 글로벌 테크 기업들이 효율적인 AI 인프라 구축을 위해 NPU로 눈을 돌리면서, NPU는 GPU의 대안을 넘어 차세대 반도체의 주역으로 자리매김하고 있다. 2026년, 대한민국 AI 반도체 '원년'의 선포 이러한 시장 변곡점에서 국내 AI 반도체 기업들은 글로벌 시장의 주도권을 잡기 위해 총력전을 펼치고 있다. 특히 2026년은 국내 주요 AI 반도체 스타트업들의 기술력이 담긴 칩들이 일제히 시장에 출시되는 시점으로, '한국 AI 반도체의 원년'이라 부르기에 부족함이 없다. 리벨리온, 퓨리오사AI, 딥엑스, 모빌린트 등 국내 기업들은 각기 다른 전략과 포지셔닝을 통해 글로벌 경쟁력 확보에 매진하고 있다. 이들은 단순한 기술 개발을 넘어 시제품(PoC) 단계를 통과하고 실제 양산 및 상용화 단계로 진입하며 실질적인 성과를 증명해야 하는 중요한 기로에 서 있는 셈이다. 생존 전략을 위한 SWOT 분석 [K-AI칩이 온다] 연재 기획은 국내 주요 AI 반도체 및 인프라 기업 7곳을 대상으로 이들의 기술력과 시장 생존 전략을 집중 조명한다. 각 기업의 주력 시장과 포지셔닝, 성능 및 전력 효율성, 그리고 소프트웨어(SW) 경쟁력을 다각도로 분석할 예정이다. 급변하는 글로벌 공급망 리스크와 양산 과제 속에서 국내 기업들이 가진 강점(Strength), 약점(Weakness), 기회(Opportunity), 위협(Threat) 요인을 면밀히 분석함으로써 대한민국 AI 반도체 산업의 현주소와 미래 가능성을 제시하고자 한다.

2026.02.18 16:00전화평 기자

Arm, 플렉서블 액세스 프로그램 연간 비용 인하

Arm이 반도체 설계 업체를 지원하는 '플렉시블 액세스' 프로그램의 진입 장벽을 낮추고 신경망처리장치(NPU) 등 새로운 IP를 추가했다고 9일 밝혔다. 플렉시블 액세스 프로그램은 반도체 설계 관련 업체를 대상으로 연간 일정 비용 지불시 Arm IP를 활용한 반도체를 무제한 양산(테이프아웃)할 수 있는 프로그램으로 2019년부터 시작됐다. 현재까지 100개 이상의 기업이 플렉시블 액세스 프로그램을 활용해 400개 이상 반도체를 출시했다. 국내 시장에서는 약 80개 기업이 프로그램에 참여해 엣지 AI 등 분야 솔루션을 개발중이다. Arm은 플렉시블 액세스 프로그램 연간 비용을 종전 20만 달러(약 2억 9200만원)의 절반 이하인 8만 5000달러(약 1억 2400만원)로 낮추고 탐색 단계부터 양산까지 전 과정을 지원한다. 2020년 시작된 '플렉시블 액세스 포 스타트업' 프로그램은 자본금이 500만 달러(약 61억원) 이하인 반도체 스타트업 대상으로 Arm IP와 리소스 접근권을 제공한다. 라이선스 비용은 실제 상용화 제품에 적용된 기술에만 청구된다. Arm은 해당 프로그램의 지원 범위도 확대한다. 투자 유치 한도액을 기존 2천만 달러(약 292억 6000만원)에서 2.5배인 5천만 달러(약 731억 5000만원)로, 연간 매출 기준을 100만 달러(약 14억 6300만원)에서 500만 달러(약 73억 1500만원)로 높였다. 플렉시블 액세스 프로그램으로 활용할 수 있는 신규 IP에는 트랜스포머 기반 모델을 지원하는 NPU인 에토스-U85, 코어텍스-M85 CPU와 에토스-U85 NPU, 말리-C55 ISP로 구성된 실시간 AI 솔루션인 코어스톤-320 기반 솔루션 등이 추가됐다. 닐 패리스 Arm 커머셜 인에이블먼트 디렉터는 "스타트업과 기존 설계팀 모두에게 재정적 부담 없이 탐색하고 테스트하며 설계를 고도화할 수 있는 환경은 필수"라고 밝혔다. 이어 "Arm 플렉서블 액세스는 접근성을 간소화하고, 기술 및 플랫폼 선택지를 확대하며, 에코시스템을 강화함으로써 차세대 실리콘 혁신 기업들이 아이디어 단계에서 실제 구현까지 보다 스마트하고 빠르게, 그리고 대규모로 진행할 수 있도록 지원한다"고 덧붙였다.

2026.02.09 09:41권봉석 기자

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

네이버·카카오의 요즘 인재상…"AI 활용 넘어 소통·사고력"

"AI 스타트업 성패는 '인프라'…글로벌 확장 기회 좌우"

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.