• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LPU'통합검색 결과 입니다. (12건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성전기, '그록3 LPU'용 FC-BGA 공급

삼성전기가 '그록(Groq)3 언어처리장치(LPU)'용 반도체 패키지기판의 주력 공급망 지위를 확보했다. 그록3 LPU는 엔비디아의 최첨단 인공지능(AI) 반도체 '베라 루빈(Vera Rubin)' 성능을 높일 추론 가속기 칩이다. AI 산업에서 추론 중요성이 커지는 만큼, 삼성전기도 엔비디아 AI 반도체 생태계 내 영역을 확장할 것으로 기대된다. 8일 지디넷코리아 취재에 따르면 삼성전기는 최근 그록3 LPU용 플립칩-볼그레이드어레이(FC-BGA) 양산 준비에 돌입했다. 삼성전기는 그록3 LPU용 FC-BGA의 '퍼스트 벤더(공급량 1위 업체)' 지위를 확보했고, 올 2분기부터 본격 양산할 것으로 관측된다. 그록3 LPU는 4나노 공정 기반의 AI 추론 가속기 칩이다. 삼성전자 파운드리에서 양산한다. 삼성 파운드리가 그록3 LPU에 할당한 웨이퍼 투입량은 월 1만장 수준으로 추산된다. FC-BGA는 반도체 칩과 기판을 '플립칩 범프(칩을 뒤집는 방식)'로 연결하는 패키지기판이다. 기존 와이어 본딩 대비 전기적·열적 특성이 높다. 초도 물량은 적지만, 삼성전기는 이번 FC-BGA 공급으로 엔비디아 AI 반도체 생태계 내 영역을 확장할 수 있다. 앞서 삼성전기는 올해 초 'NV스위치' 칩용 FC-BGA 공급을 확정하며 엔비디아 공급망에 진입한 바 있다. NV스위치는 서버 내 복수 그래픽처리장치(GPU)를 연결하는 데 쓰인다. 그록 LPU 역시 엔비디아 AI 반도체 플랫폼에 채택된 만큼, 향후 출하량 확대가 기대된다. 이와 관련, 젠슨 황 엔비디아 최고경영자(CEO)는 지난달 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 첨단 AI 반도체 플랫폼 변화를 발표했다. 엔비디아가 올해 하반기 출시하는 베라 루빈 플랫폼은 당초 '루빈' GPU와 '베라' 중앙처리장치(CPU)를 비롯해 '블루필드-4' 데이터처리장치(DPU), 스위치 등 6개의 칩으로 구성됐다. 그러나 젠슨 황 CEO는 베라 루빈 플랫폼에 그록 3 LPU을 추가해, 총 7개의 칩 구조로 변화시켰다. 256개의 그록 3 LPU를 탑재한 추론 전용 랙 '그록 3 LPX'를 엔비디아 베라 루빈 NV72 랙에 통합하는 방식이다. NV72는 72개의 루빈 GPU와 36개의 베라 CPU로 구성된다. 그록 3 LPU는 D램 대비 용량이 작지만 데이터 전송속도가 빠른 S램을 탑재했다. 덕분에 LLM의 추론 단계에서 기존 단일 GPU 시스템에서 발생하던 지연(레이턴시) 현상을 크게 줄일 수 있다. LPX가 결합된 베라 루빈의 경우, 1조 매개변수 모델에서 메가와트당 최대 35배 더 높은 처리량을 제공할 수 있다고 엔비디아는 설명한다. 이에 엔비디아는 지난해 말 약 29조원을 들여 그록을 우회 인수하는 등 적극적인 협력 체계를 구축하고 있다. 반도체 업계 한 관계자는 "엔비디아가 각 영역에 특화된 칩으로 전체 AI 플랫폼을 구상하는 전략을 강화하고 있다"며 "그록 LPU 채택량도 더 늘어날 것으로 전망되고, 협력사들도 수혜를 입을 것"이라고 설명했다.

2026.04.08 10:35장경윤 기자

하이퍼엑셀, '생성형 AI 전용 LPU' 승부수… 2세대 팹리스의 역습

국내 AI 반도체 생태계가 1세대 기업들의 칩 양산 경쟁을 넘어 특정 목적에 최적화된 2세대 기업들의 등장으로 진화하고 있다. 그 중심에 선 하이퍼엑셀은 리벨리온, 퓨리오사AI 등 선배 격인 기업들과 출발선부터 궤를 달리한다. 1세대 기업들이 비전 기술에서 시작해 LLM(거대언어모델)으로 영역을 확장해온 것과 달리, 하이퍼엑셀은 설립 초기부터 오직 '생성형 AI'만을 타깃으로 삼았다. 'LLM 하나만큼은 세계 최고 기술로 돌리는 칩을 만든다'는 이들의 전략은 엔비디아의 독주 속에 실질적인 대안을 찾는 글로벌 수요 기업들의 시선을 사로 잡고 있다. [강점: Strength] LPDDR 기반의 압도적 효율…'토큰 생성 지연' 최소화 하이퍼엑셀의 가장 강력한 무기는 스스로 명명한 LPU(Large language model Processing Unit) 아키텍처다. 기존 NPU 칩이 다양한 AI 모델을 두루 섭렵하려다 설계가 복잡해진 것과 달리, 하이퍼엑셀은 트랜스포머 기반의 LLM 추론에만 모든 자원을 집중했다. 하이퍼엑셀과 협력 중인 정무경 디노티시아 대표는 “하이퍼엑셀의 LPU는 사실상 '트랜스포머 액셀러레이터'라고 정의할 수 있다”며 “아직 제품이 정식 출시 전이라 시장의 전체적인 평가를 논하기엔 이르지만, 기술적 지향점만큼은 매우 명확하고 유망하다”고 평했다. 특히 하이퍼엑셀은 고가의 HBM(고대역폭 메모리) 대신 저전력·고효율 메모리인 LPDDR을 활용해 전력 효율과 비용 문제를 동시에 해결했다. LLM 추론의 최대 난제인 메모리 병목 현상을 하드웨어 차원에서 최적화된 스케줄링 기술로 극복한 것이다. 이러한 설계적 묘수는 실제 성능으로 이어진다. 하이퍼엑셀의 LPU는 실시간 AI 서비스의 핵심 지표인 토큰 생성 지연 시간을 최소화하는 데 성공했다. 이는 사용자의 질문에 즉각적으로 반응해야 하는 챗봇이나 실시간 대화형 AI 서비스에서 엔비디아 GPU 대비 경제성과 성능 우위를 점할 수 있는 근거가 된다. [약점: Weakness] 트랜스포머 이후 범용성 리스크와 SW 생태계 한계 반면, 특정 목적에 극도로 최적화된 설계는 양날의 검이 될 수 있다. 현재 AI 시장을 지배하는 것은 트랜스포머 아키텍처지만, 미래에는 이와 전혀 다른 구조의 새로운 AI 모델이 대두될 경우 하이퍼엑셀의 하드웨어 범용성이 심각하게 제약될 수 있다는 우려가 나온다. 'LPU'라는 정체성 자체가 트랜스포머 이후의 변화에 유연하게 대응하기 어려울 수 있다는 점은 투자자와 고객사들이 신중하게 살피는 대목이다. 소프트웨어 스택의 성숙도 역시 극복해야 할 산이다. 1세대 기업들에 비해 상대적으로 짧은 업력으로 인해, 엔비디아의 '쿠다(CUDA)'와 경쟁할 만한 소프트웨어 생태계를 단기간에 구축하는 것은 물리적으로 한계가 있다는 지적이 적지 않다. 개발자들이 하이퍼엑셀의 칩을 엔비디아만큼 편하게 쓸 수 있는 환경을 조성하기까지는 상당한 시간과 자본의 투입이 필수적이다. 하이퍼엑셀 관계자는 “AI 인프라 시장은 안정성과 검증된 레퍼런스를 중시하는 만큼 신규 AI칩 기업에게는 초기 고객 확보가 중요한 단계”라며 “이를 위해 글로벌 CSP 및 데이터센터 고객과 PoC 및 협력을 확대하며 실제 서비스 환경에서 성능 및 비용 효율을 검증하고 있다”고 말했다. [기회: Opportunity] 추론 중심 시장 재편과 50조 규모 'K-엔비디아' 수혜 시장 환경은 하이퍼엑셀에게 호의적이다. AI 산업의 무게추가 '학습'에서 '추론'으로 이동하면서 고효율 가속기 수요가 폭발하고 있기 때문이다. 특히 하이퍼엑셀은 서버를 넘어 엣지(Edge) 시장까지 조준하고 있는 걸로 전해진다. AI 반도체 업계 관계자는 “현재는 LLM 모델이 너무 커서 데이터센터 위주로 돌아가지만, 향후 워크로드의 5~10% 정도는 반드시 엣지로 내려올 수 밖에 없다”며 “LLM 모델을 가속할 수 있는 엣지 반도체 시장은 반드시 열릴 것이며, 하이퍼엑셀의 다변화 어프로치는 매우 유효한 전략”이라고 분석했다. 최근 발표된 정부의 'K-엔비디아 프로젝트' 역시 천군만마다. 향후 5년간 50조원이 투입되는 AI 반도체 산업 육성을 위한 정책 자금은 하이퍼엑셀과 같은 2세대 기업들이 대규모 양산 체계를 갖추는 데 결정적인 역할을 할 것으로 보인다. [위협: Threat] 엔비디아의 추론 시장 진출 선언 가장 실질적인 위협은 글로벌 AI 반도체 최강자인 엔비디아가 본격적으로 추론 시장에 진출한 점이다. 엔비디아는 최근 진행된 연례 개발자 컨퍼런스 'GTC 2026'에서 추론용 가속기 '그록3(Groq)'를 소개했다. 이 그록3는 LPU(Language Processing Unit)라는 명칭을 사용한다. 다만 두 칩은 추론 시장을 공략하고 있지만, 지향점은 다소 상이하다. 그록3는 실시간성과 초저지연을 바탕으로 한 '초고속 서비스'에 집중한다. 반면 하이퍼엑셀의 LPU는 LPDDR을 활용해 저전력 환경에 최적화되어 있다. 그록이 극강의 속도를 지향한다면, 하이퍼엑셀은 상대적으로 단가가 낮고 저전력이면서도 많은 메모리 용량이 필요한 환경에 적합한 구조를 취하고 있다.

2026.03.22 17:38전화평 기자

AI 추론칩 꺼낸 엔비디아...韓 NPU, 위기인가 기회인가

인공지능(AI) 가속기 시장의 절대 강자인 엔비디아(NVIDA)가 연례 개발자 컨퍼런스 행사인 'GTC 2026'에서 추론 전용 가속기 LPU '그록3(Groq 3)'를 전격 공개하며 AI 반도체 시장의 판도 변화를 예고했다. 학습용 칩 시장의 절대 강자가 추론 시장 진입을 본격 선언한 것이다. 이에 그동안 경쟁이 덜한 추론 시장을 공략해온 리벨리온, 퓨리오사AI 등 국내 NPU(신경망처리장치) 기업들은 글로벌 리더와의 정면 승부라는 중대한 분수령을 맞이하게 됐다. 19일 반도체 업계에 따르면 엔비디아의 이번 행보는 국내 AI 반도체 기업들에 도전과 기회가 공존하는 중대한 시험대가 될 전망이다. 엔비디아가 추론 전용 가속기 라인업을 강화한 것은 추론 시장에서 가능성을 봤다는 의미와 함께, 국내 업체들이 공략해온 영역이 잠식될 수 있기 때문이다. 엔비디아의 '추론 칩' 양산 선언… 국내 업계엔 직접적 위협 가장 큰 위기는 시장 리더인 엔비디아가 본격적으로 추론용 칩 시장에 진입했다는 사실 자체다. 그간 국내 NPU 기업들은 엔비디아가 거대 AI 모델의 '학습' 시장에 주력하는 동안, 상대적으로 소홀했던 '추론' 영역을 틈새시장으로 보고 차별화를 꾀해왔으나 이제는 그마저 위협받게 됐다. 특히 엔비디아가 학습용 GPU의 약점으로 지목되던 전력 효율과 지연 시간까지 개선한 추론 전용 칩을 내놓으면서, 국내 업체들이 공들여온 '고효율 추론'이라는 방어벽이 흔들릴 수 있다는 우려가 나온다. 특히 국내 기업들이 공을 들여온 중동 시장의 판도 변화가 우려된다. 지난해 11월 미국 정부가 엔비디아 칩의 중동 수출을 허가하면서 리벨리온과 퓨리오사AI 등 국내 기업들이 선점하려던 신시장에 거대 공룡이 직접 진입하게 됐다. 신동주 모빌린트 대표는 “엔비디아가 추론 쪽에 본격적으로 뛰어들면서 올해부터 데이터센터 시장은 상당한 '레드오션'이 될 것”이라며 “결국 글로벌 빅테크들과 기술 및 영업 모든 면에서 직접 경쟁해야 하는 가혹한 상황”이라고 진단했다. “시장의 실재성 증명했다”... 역발상의 기회 반면 업계 일각에서는 엔비디아의 행보가 오히려 국내 NPU 기업들에 기회가 될 수 있다는 분석도 나온다. 시장 리더가 막대한 자금을 투입해 추론 전용 가속기를 내놓은 것은, 추론 시장의 폭발적인 성장 가능성을 전 세계에 공식적으로 확인해준 신호기 때문이다. AI 반도체 업계 관계자는 “엔비디아가 그록을 3배가 넘는 웃돈을 주고 인수한 것은 그만큼 추론 시장의 기회가 크다는 것을 방증한다”며 “이는 국내 업체들이 오랜 기간 준비해온 독자 아키텍처의 방향성이 틀리지 않았음을 증명하는 지표”라고 평가했다. 그러면서 “그록은 기존에도 경쟁 관계에 있던 반도체 업체인 만큼, 이번 발표가 새로운 위협이라기보다 기존 경쟁 구도의 연장선에 가깝다”고 분석했다. 김종기 세미파이브 전무는 “그간 추론 시장이 올 것이라는 말에 시장은 반신반의해왔으나, 엔비디아조차 트레이닝은 GPU로 하되 추론은 에이직이 필요하다고 선언하며 시장의 실재성이 완전히 입증됐다”며 “이러한 패러다임 전환은 기술력을 갖춘 국내 업체들에게는 오히려 플러스 요인이 될 것”이라고 내다봤다. '테스트베드' 부족이 최대 걸림돌… 포트폴리오 부재 우려 현 상황에서 국내 업계가 직면한 가장 심각한 문제점은 개별 기업의 기술력이 아닌 '테스트베드'의 부재다. 엔비디아의 그록3는 막강한 브랜드 파워와 기존 생태계를 바탕으로 실전 레퍼런스를 빠르게 확보하고 있는 반면, 국내 업체들은 제품을 대규모 환경에서 검증해볼 기회가 극히 제한적이다. 글로벌 대기업들은 특정 칩을 도입할 때 이미 시장에서 검증된 제품을 선호한다. 리스크를 짊어지지 않으려는 것이다. 국내 NPU 기업들이 아무리 뛰어난 효율성을 수치로 제시하더라도, 실제 서비스 환경에서 운영된 데이터가 부족해 글로벌 수주 경쟁에서 신뢰를 얻기 힘든 실정이다. 김 전무는 “국내 업체들도 특색 있는 기술력을 갖추고 있지만, 엔비디아나 그록에 비해 테스트베드가 부족한 것이 현실적인 불리함”이라며 “단순히 정부 권고로 쓰는 단계를 넘어 자발적인 수요가 발생할 수 있도록 검증 인프라를 대폭 확충해야 한다”고 강조했다. 다른 AI 반도체 관계자는 "(엔비디아는) 아마존, 마이크로소프트 등 하이퍼스케일러들에 대한 경험을 갖고 있는 점도 국내 업체들과 격차를 벌린다"며 "국내에서 레퍼런스를 쌓고, 해외에서 판매한다는 국내 AI반도체 업체들의 전략이 시장에서 통하려면 국가 전체가 AI 원팀이 돼야만 할 것"이라고 말했다.

2026.03.19 16:13전화평 기자

"어메이징 HBM4"…젠슨 황, 삼성전자 부스 방문

16일(현지시간) 엔비디아 젠슨 황 CEO는 'GTC 2026'에서 삼성전자 부스에 방문해 기념사진을 촬영했다. 이날 현장에는 황상준 삼성전자 메모리개발담당 부사장, 한진만 파운드리 사업부장 사장도 함께 자리했다. 삼성전자 주요 임원진들은 HBM4 코어다이 웨이퍼와 그록(Groq) LPU 파운드리 4나노 웨이퍼를 손에 들었다. 각 웨이퍼에는'어메이징(AMAZING) HBM4'와 '그록 슈퍼 패스트(Groq Super FAST)'라는 젠슨 황 CEO의 친필 서명이 적혀있다. 앞서 젠슨 황 CEO는 GTC 2026 기조연설을 통해 엔비디아의 최신형 AI 가속기 '베라 루빈' 시스템에 그록 LPU 칩을 결합한다고 밝혔다. 해당 칩은 삼성전자 파운드리가 양산을 담당한다. 또한 삼성전자는 엔비디아 베라 루빈향으로 HBM4을 양산 공급할 계획이다. 이번 공급으로 삼성전자는 엔비디아와 메모리, 파운드리에 이르는 폭넓은 AI 생태계 협력을 구축할 것으로 기대된다.

2026.03.17 11:26장경윤 기자

삼성전자, 엔비디아 '4나노' 새 추론 칩 만든다

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자 파운드리와의 협력을 공식적으로 언급했다. 엔비디아의 최신형 AI 가속기 '베라 루빈' 기반 시스템과 결합되는 그록(Groq)의 언어처리장치(LPU)를 삼성 파운드리에서 양산하는 구조다. 젠슨 황 CEO는 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 AI 칩 생산 파트너를 소개하는 과정에서 "삼성전자가 그록3 LPU 칩을 제조하고 있다"고 밝혔다. 그록은 엔비디아가 지난해 말 약 29조원을 들여 우회 인수한 팹리스 스타트업이다. 거대언어모델(LLM)의 추론 작업 속도를 높이는 LPU를 전문으로 개발해 왔다. 그록3 LPU는 이 기업의 최신 칩으로, 4나노미터(nm) 공정 기반으로 알려졌다. 젠슨 황 CEO는 "삼성이 우리를 위해 그록3 LPU 칩을 제조하고 있다. 지금 가능한 한 최대한 빠르게 생산을 늘리고 있다"며 "삼성에게 정말 감사드린다"고 강조했다. 그록3 LPU는 현재 양산 단계에 들어갔다. 젠슨 황 CEO가 예상한 출하 시점은 오는 3분기다. 이번 발언은 삼성 파운드리가 엔비디아의 차세대 AI 칩 생산에 참여하고 있음을 공개적으로 언급한 것으로, AI 반도체 공급망에서 양사의 협력이 긴밀하게 이어지고 있음을 보여주는 대목으로 평가된다. 또한 삼성전자는 지난 2월 엔비디아향 HBM4(6세대 고대역폭메모리) 양산 출하를 공식 발표한 바 있다. 이를 통해 삼성전자는 엔비디아 AI 생태계 확장을 위한 메모리·파운드리 공급사로서 협력 영역을 더 확장할 수 있게 됐다.

2026.03.17 09:34장경윤 기자

자율주행·휴머노이드 확산…K-팹리스 성장 기회 잡았다

인공지능(AI) 산업의 패러다임 전환으로 팹리스 업계가 새로운 성장 기회를 잡고 있다. 전세계 주요 기업들이 자율주행·휴머노이드 개발에 박차를 가하면서, 기존 GPU 대비 고효율·저전력 특성을 갖춘 엣지 AI 반도체가 주목받고 있어서다. 이에 국내 팹리스 기업들도 각 산업에 특화된 칩 개발로 글로벌 시장을 적극 공략하고 있다. 4일 경기 성남 가천대학교 비전타워 컨벤션홀에서는 'CES 2026 팹리스 서밋 코리아'가 개최됐다. 피지컬 AI 산업 급성장…고효율·저전력 AI반도체 각광 이번 행사는 지난 1월 미국 라스베이거스에서 열린 세계 최대 ICT 전시회 CES 2026과 연계해, AI 반도체의 글로벌 전략을 논의하기 위해 마련됐다. 윤원중 가천대 부총장, 김용석 가천대 반도체교육원장, 최우혁 산업통상자원부 부첨단 산업정책관, 김경호 한국팹리스산업협회 회장 등 주요 인사들이 참석했다. 정지훈 DGIST 교수는 "AI 산업 비중이 기존 학습에서 추론으로 급격하게 넘어가면서, 고성능 GPU와 더불어 추론 속도 및 전력 효율성을 극대화한 전용 AI 반도체가 각광받고 있다"며 "거대 데이터센터와 달리 필요한 반도체 성능이 다변화 돼 있기 때문에, 무수히 많은 팹리스 회사들이 성공하게 될 것"이라고 말했다. 특히 올해 CES 2026의 화두였던 휴머노이드 로봇, 자율주행 등 피지컬 AI 관련 산업의 성장세가 주목된다. 피지컬 AI는 엣지 단에서 AI 모델의 추론을 실제 물리적인 동작으로 수행하는 기술이다. 정 교수는 "이번 CES 2026에 참석한 엔비디아 등 주요 기업의 리더들의 핵심 메시지는 '피지컬 AI는 한 회사가 할 수 없는 규모'라는 것"이라며 "이에 따라 AI 반도체 뿐만 아니라 센싱·제어·구동 등 산업 전반이 성장할 것이고, 상당한 제조업 기반을 가진 한국이 강점을 지닐 것"이라고 강조했다. 주영섭 서울대 공학전문대학원 특임교수는 "휴머노이드 로봇 대전 속에서 한국은 미국의 기술·성능 중심, 중국의 가격 중심 전략을 타파할 전략이 필요하다"며 "때문에 한국은 휴머노이드 로봇의 핵심인 온디바이스 AI 반도체를 매우 중요한 프로젝트로 인식해야할 것"이라고 제언했다. 국내 팹리스 업계, 피지컬 AI 시장 적극 공략 이에 국내 AI 반도체 관련 팹리스 기업들은 피지컬 AI에서 성장 기회를 모색하고 있다. 넥스트칩·텔레칩스 등 기존 팹리스 기업들은 물론, 딥엑스·보스반도체·모빌린트·디노티시아 등 스타트업이 대표적인 사례다. 자율주행용 반도체 전문기업 보스반도체의 박재홍 대표는 "자동차 AI 시장 선점의 관건은 AI 반도체로, 자율주행과 인포테인먼트 등 여러 분야에서 차량용 AI 반도체 산업의 급격한 성장이 예상된다"며 "특히 인포테인먼트의 경우 LLM, VLM 기반의 AI 어플리케이션을 도입하려는 움직임들이 많다"고 설명했다. 로봇 역시 차량용 AI 반도체 성장을 촉진할 가능성이 크다. 자율주행에 쓰이는 센서, AI 엔진 등이 로봇에도 상당량 활용되기 때문이다. 박 대표는 "일례로 테슬라는 자사 자율주행 솔루션인 FSD를 옵티머스 로봇에 그대로 사용하고 있다"며 "자율주행에서 촉진된 엣지 컴퓨팅과 온디바이스 기술이 로봇으로 옮겨 가, 실제 업무 환경의 투입을 가속화하고 있다"고 말했다. 엣지 AI용 NPU를 개발하는 딥엑스의 송준호 연구소장은 "기존 데이터센터용 디바이스는 지연속도, 비용, 에너지 효율 등에서 피지컬 AI의 요구사항을 만족시키지 못하고 있다"며 "이에 딥엑스는 범용 GPU 대비 대비 전력효율성 및 비용이 높은 AI 반도체 'DX-M2'를 개발 중"이라고 밝혔다. 해당 칩은 삼성전자 파운드리의 최선단 공정인 2나노미터(nm)를 기반으로 제조된다. 본격적인 상용화 목표 시점은 2027년이다.

2026.03.04 15:28장경윤 기자

"고비용 AI 인프라는 지속 가능하지 않아"…하이퍼엑셀의 LPU 전략

생성형 AI 확산과 함께 데이터센터 전력 소모 문제가 산업 전반의 핵심 과제로 떠오르고 있다. LLM(대규모언어모델)을 돌리기 위한 연산 수요가 급증하면서, 데이터센터 유지에 랙당 수백 킬로와트(kW) 전력을 요구하는 구조로 빠르게 전환하고 있는 것이다. 그러나 전력 공급과 냉각, 인프라 구축 비용이 한계에 다다르면서 AI 인프라가 이 같은 전력 소모 구조를 계속 감당할 수 있을지에 대한 회의론도 확산되고 있다. 이 같은 상황에서 LLM 추론에 특화된 저전력·고효율 AI 반도체를 앞세운 하이퍼엑셀이 대안으로 주목받고 있다. 하이퍼엑셀은 GPU(그래픽처리장치) 중심의 기존 AI 인프라를 전면 대체하기보다는, 전력 효율과 비용 효율을 극대화한 새로운 가속기로 전체 시스템 차원의 총소유비용(TCO)을 낮추는 전략을 제시한다. 하이퍼엑셀은 LLM 추론에 특화된 AI 반도체 기업이다. 학습이 아닌, 이미 만들어진 모델을 실제 서비스 환경에서 효율적으로 구동하는 데 초점을 맞췄다. 챗GPT, 제미나이 등 생성형 AI 서비스의 핵심 연산 구간을 담당하는 영역이다. 김주영 하이퍼엑셀 대표는 "LLM 서비스의 병목은 더 이상 모델이 아니라, 이를 얼마나 효율적으로 돌릴 수 있느냐에 있다"며 "하이퍼엑셀은 LLM 추론에 맞게 처음부터 다시 설계한 칩을 만든다"고 설명했다. GPU와 다른 접근…저전력 강점 LPU의 차별성 하이퍼엑셀은 LPU(LLM Processing Unit)를 앞세워 시장 공략에 나선다. LPU는 LLM 추론에 특화된 AI 가속 칩으로, 학습과 추론을 모두 수행하는 범용 GPU와 달리 이미 학습된 모델을 서비스하는 데 필요한 연산만을 위해 설계된 전용 칩이다. 수천~수만 개의 작은 코어를 활용하는 GPU와 달리, LPU는 수십 개의 대형·특화 코어로 구성됐다. GPU가 절대적인 성능과 생태계 측면에서는 강점을 갖지만, 실제 LLM 추론 환경에서는 코어와 메모리 대역폭 활용률이 낮다는 한계가 있다. 하이퍼엑셀 LPU는 어텐션·피드포워드·노멀라이제이션 등 추론 연산을 코어 하나가 처음부터 끝까지 처리하는 구조로, 불필요한 데이터 이동을 줄여 같은 전력과 비용에서 더 많은 토큰을 처리할 수 있도록 최적화됐다. 김 대표는 "LPU는 GPU를 대체하기 위한 칩이 아니라, 추론 서비스에 가장 잘 맞는 역할을 수행하는 칩"이라며 "AI 서비스가 커질수록 전용 추론 가속기의 중요성은 더욱 커질 것"이라고 말했다. HBM 대신 LPDDR…비용·전력 효율을 겨냥한 전략 하이퍼엑셀의 또 다른 차별화 포인트는 HBM 대신 LPDDR 메모리를 채택한 전략이다. 업계에서는 LLM에는 초고속 HBM이 필수라는 인식이 강하지만, 하이퍼엑셀은 이와 다른 길을 택한 셈이다. LPDDR은 HBM 대비 속도는 느리지만 가격과 전력 소모가 크게 낮다. 하이퍼엑셀은 높은 유틸리제이션과 대규모 배칭(Batching) 기술을 통해 메모리 속도 한계를 보완했다. 한 번 모델을 읽어 여러 사용자를 동시에 처리하는 구조로, 토큰당 비용을 획기적으로 낮추는 방식이다. 김 대표는 "HBM을 쓰는 순간 모든 것이 고성능·고비용 구조로 간다"며 "우리는 충분한 성능을 유지하면서도 가격과 전력을 낮추는 쪽을 선택했다"고 말했다. LG전자와 온디바이스 LLM 협력…IP 확장성도 주목 하이퍼엑셀은 최근 LG전자와 온디바이스 LLM 가속기 협력으로도 주목받고 있다. 데이터센터용 칩뿐 아니라, 가전과 로봇 등 온디바이스 환경에서도 LLM을 효율적으로 구동할 수 있는 반도체를 공동 개발 중이다. 하이퍼엑셀의 LPU 아키텍처는 코어 크기와 전력, 성능을 요구사항에 따라 조정할 수 있도록 설계돼 IP 형태로도 확장 가능하다. 다만 회사의 주력 모델은 여전히 완성 칩을 중심으로 한 반도체 사업이다. 김 대표는 "고객과 단순히 칩을 사고 파는 관계가 아니라, 설계 단계부터 함께 제품을 만드는 전략"이라며 "데이터센터는 네이버클라우드, 온디바이스는 LG전자와 협업하고 있다"고 설명했다. "토큰 경제성을 높이는 칩"…하이퍼엑셀의 비전 하이퍼엑셀이 내세우는 비전은 명확하다. '토큰 경제성'을 극대화하는 AI 반도체를 만드는 것이다. 달러당 얼마나 많은 토큰을 생성할 수 있느냐를 기준으로, LLM 서비스의 비용 구조를 근본적으로 바꾸겠다는 목표다. 김 대표는 최근 기가와트(GW)급 데이터센터 논의를 언급하며 “AI 가속기가 지금처럼 랙당 수백 킬로와트의 전력을 요구하는 구조는 지속 가능하지 않다”고 지적했다. 그러면서 “결국 AI 인프라가 지속 가능해지려면, 가속기 자체가 더 에너지 효율적으로 바뀌어야 한다”며 “하이퍼엑셀의 칩은 그 방향을 겨냥하고 있다”고 말했다. 한편 김주영 대표는 한국공학한림원이 선정한 한국을 이끌어갈 젊은 과학자 29명에 선정된 바 있다.

2025.12.23 15:50전화평 기자

하이퍼엑셀-망고부스트, 차세대 AI 인프라 고도화 MOU

AI반도체 스타트업 하이퍼엑셀(HyperAccel)은 망고부스트(MangoBoost)와 차세대 AI 인프라 고도화를 위한 기술 및·사업 협력을 목적으로 업무협약(MOU)을 체결했다고 23일 밝혔다. 이번 협약은 AI 워크로드 증가로 복잡해지는 데이터센터 환경에 대응하기 위한 것으로, 양사는 지속가능한 데이터센터 구현과 AI 인프라 성능 및 운영 효율 개선을 공동 목표로 설정하고 기술 교류와 공동 검증을 중심으로 단계적인 협력 체계를 구축할 계획이다. 하이퍼엑셀은 LLM(거대언어모델) 추론에 특화된 고효율 AI 반도체 LPU(LLM Processing Unit)와 소프트웨어 스택을 기반으로 차세대 AI 가속 인프라를 개발하고 있으며, 망고부스트는 DPU 기반 네트워크 및 시스템 최적화 기술을 통해 AI 인프라의 효율을 높이는 솔루션을 보유하고 있다. 양사의 기술 역량을 결합해 AI 인프라 전반에서 실질적인 운영 개선 효과를 제공하는 것을 목표로 한다. 하이퍼엑셀 김주영 대표이사는 “AI 인프라의 확산과 함께 데이터센터의 성능, 효율, 지속가능성은 더 이상 선택이 아닌 필수 과제가 됐다”며 “망고부스트와의 협력을 통해 AI 반도체부터 데이터센터 운영까지 아우르는 실질적인 기술·사업 성과를 만들어갈 것”이라고 밝혔다. 망고부스트 김장우 대표이사는 “이번 협약은 AI에 최적화된 차세대 데이터센터 인프라를 구현하기 위한 중요한 출발점”이라며 “양사의 기술 역량을 결합해 고객에게 더 높은 성능과 효율, 그리고 지속가능한 데이터센터 환경을 제공하겠다”고 말했다. 양사는 향후 국내외 AI 및 데이터센터 시장을 대상으로 협력을 단계적으로 확대할 계획이다.

2025.12.23 14:09전화평 기자

김주영 하이퍼엑셀 대표, 팹리스산업 유공자 '중기부 장관상' 수상

AI 반도체 스타트업 하이퍼엑셀은 김주영 대표이사가 지난달 26일 열린 '2025 K-팹리스 테크포럼 & 제3회 팹리스인의 날'에서 팹리스 산업 유공자 부문 '중소벤처기업부 장관상'을 수상했다고 2일 밝혔다. 이번 포상은 팹리스 산업 생태계 혁신과 기술 자립에 기여한 기업과 인물을 선정하는 최고 권위의 정부 포상이다. 김 대표는 창업 이후 세계 최초 LLM 추론 특화 반도체 'LPU(LLM Processing Unit)'를 독자 개발하고 상용화를 성공적으로 이끌며, 국내 팹리스 기술 경쟁력 강화와 AI 반도체 기술 자립에 기여한 공로를 인정받아 중소벤처기업부 장관상을 수상했다. 특히 LPU 기반의 고성능·저전력 반도체 구축으로 해외 GPU 중심 인프라 의존도를 낮추고, 국산 AI 인프라 구축과 디지털 전환 생태계 조성에 초석을 마련한 점이 이번 수상의 핵심 근거가 됐다. 대규모 언어모델(LLM) 추론에 최적화된 LPU 아키텍처는 높은 에너지 효율성과 가격 경쟁력을 갖춘 차세대 반도체 기술로 주목받고 있다. 또한 하이퍼엑셀은 전문 연구·엔지니어링 인력을 적극 채용·육성하며 반도체 및 AI 산업의 인재 생태계 강화에 기여하고 있다. AI 반도체, 시스템 설계, 소프트웨어·플랫폼 등 전 영역의 전문 인력을 확보함으로써 국내 반도체 산업의 지속적 성장 기반을 마련하고 있다. 하이퍼엑셀은 이번 수상을 계기로 차세대 LPU 기술을 중심으로 국산 AI 반도체 및 AI 인프라 생태계 확장에 속도를 높이며, 대한민국 AI 기술 경쟁력 강화와 지속 가능한 혁신을 선도해 나갈 계획이다. 김주영 대표는 “국산 LPU 반도체 기술의 잠재력과 산업적 가치를 국가적으로 인정받은 뜻깊은 상”이라며 “한국 팹리스 산업이 글로벌 경쟁력을 갖출 수 있도록 연구개발과 상용화에 더욱 박차를 가하겠다”고 말했다.

2025.12.02 09:48전화평 기자

하이퍼엑셀, 신용보증기금 '제14기 혁신아이콘' 선정

AI 반도체 스타트업 하이퍼엑셀은 신용보증기금이 선정한 '제14기 혁신아이콘'에 이름을 올렸다고 10일 밝혔다. 신용보증기금의 혁신아이콘 프로그램은 글로벌 혁신기업으로 성장 가능성이 높은 혁신 스타트업의 스케일업을 돕는 프로그램으로, 성장 유망한 혁신 기업을 발굴해 지원한다. 이번 제14기에는 143개 기업이 지원해 약 29:1의 높은 경쟁률을 기록했으며, 하이퍼엑셀은 반도체 분야 대표 기업으로 선정됐다. 하이퍼엑셀은 3년간 최대 200억원 신용보증, 최저보증료율 적용, 협약은행 추가 보증료 지원과 함께 해외 진출, 컨설팅, 홍보 등 다양한 혜택을 받게 된다. 하이퍼엑셀은 대규모 언어모델(LLM) 추론에 최적화된 고성능·저전력 AI 반도체(LPU) 기술력을 기반으로, 생성형 AI 서비스에 필요한 실시간 응답성과 비용 효율성을 동시에 실현한 점을 높이 평가받았다. 또한 데이터센터, 온프레미스 서버, 엣지 디바이스 등 다양한 환경에서 적용 가능한 확장성과 범용성을 입증하며, AI 반도체 분야의 차세대 혁신 기업으로서 성장 잠재력을 인정받았다. 특히 하이퍼엑셀은 LPU 기술을 기반으로 글로벌 생성형 AI 시장을 겨냥한 제품 포트폴리오를 확대하고 있으며, 2026년 이후 본격적인 칩 양산과 함께 해외 데이터센터 및 클라우드 기업과의 협업을 통해 글로벌 시장 공략을 가속화할 계획이다. 김주영 하이퍼엑셀 대표는 “혁신아이콘 선정을 통해 하이퍼엑셀의 기술 경쟁력과 성장 잠재력을 공식적으로 인정받게 되어 의미가 크다”며, “앞으로도 LPU 기반의 기술 혁신과 제품 고도화를 지속해 글로벌 AI 반도체 시장에서 새로운 표준을 만들어가겠다”고 말했다.

2025.11.10 16:55전화평 기자

기원테크·하이퍼엑셀·정원엔시스, 차세대 AI 생태계 구축 힘 모은다

국제표준 이메일 보안 전문기업 기원테크(대표 김동철)가 생성 AI 가속 반도체 전문기업 하이퍼엑셀, IT 시스템 통합 전문기업 정원엔시스와 차세대 AI 생태계 구축을 위한 3자 전략적 업무협약(MOU)을 체결했다고 19일 밝혔다. 이번 협약의 핵심은 기원테크의 생성형 AI 기반 민원 분석 솔루션 '민원e'를 중심으로, 하이퍼엑셀의 거대언어모델(LLM) 특화 반도체 LPU를 적용해 GPU+LPU 하이브리드 시스템을 구축하는 것이다. 여기에 정원엔시스의 공공부문 총판 역량을 더해 대규모 음성 및 텍스트 데이터를 안정적으로 처리할 수 있는 차세대 AI 인프라를 완성하고, 공공 민원처리 시장에서 기술 혁신과 공급망 확산을 동시에 추진한다. 하이퍼엑셀은 2023년 설립된 생성 AI 가속 반도체 및 서버 솔루션 전문기업이다. 이 회사는 LLM 추론에 특화된 반도체 LPU(LLM Processing Unit)를 개발하고 있다. LPU는 GPU 대비 10배 이상 높은 가격 대비 성능과 5배 수준의 전력 효율성 향상을 목표로 하는 차세대 AI 반도체다. 정원엔시스는 1978년부터 IT사업을 시작한 기업으로, 시스템 인프라 구축부터 통합, 마이그레이션까지 IT 컨설팅 능력과 기술 지원 노하우를 보유한 IT 전문기업이다. 한국휴렛팩커드의 총판으로서 서버, 스토리지 등 하드웨어와 솔루션을 납품하며, 최근 238억원 규모의 국가AI사업용 인프라장비 공급계약에 참여하는 성과를 거뒀다. 3사 협력을 통해 구축되는 GPU+LPU 하이브리드 시스템은 기존 GPU만으로는 한계가 있던 대규모 음성 상담 데이터와 텍스트 데이터의 동시 고속 처리를 가능하게 한다. 하이퍼엑셀의 LPU가 LLM 추론 작업을 담당하고, GPU가 음성인식과 자연어처리를 처리함으로써 전체 시스템의 처리 성능을 획기적으로 향상시키면서도 전력 효율성과 비용 효율성을 동시에 확보할 수 있게 됐다. 기원테크는 이번 협력을 통해 소프트웨어 전문성을 기반으로 하드웨어-소프트웨어 통합 최적화 솔루션 제공까지 영역을 확장하게 됐다. 하이퍼엑셀의 LPU 기반 플랫폼에서 '민원e'가 최적화되어 구동됨으로써 기존 대비 처리 속도는 30~50% 향상되고, 운영 비용도 크게 절감될 수 있을 것으로 기대된다. 김주영 하이퍼엑셀 대표는 "LPU는 LLM 워크로드에 최적화된 차세대 AI 반도체로, 민원e와 같은 실제 공공 서비스에 적용돼 그 가치를 입증할 수 있게 돼 매우 기쁘다"며 "이번 협력을 통해 국산 AI 반도체 기술의 우수성을 실증하고, 공공 분야 AI 전환의 새로운 표준을 제시하겠다"라고 말했다. 한덕희 정원엔시스 대표는 "설립 이후 축적한 IT 인프라 구축 노하우와 최근의 성과를 바탕으로 혁신적인 AI 솔루션의 안정적 운영 기반을 제공하게 돼 자랑스럽다"며 "국내 기술 기반의 완전 자립형 AI 인프라 구축을 통해 공공 디지털 혁신을 선도하겠다"고 밝혔다. 김동철 기원테크 대표는 "이번 3자 협력은 국제표준 기반 기술력과 국산 AI 반도체의 만남으로 진정한 의미의 기술 자립을 실현하는 계기"라며서 "민원e가 공공 서비스 혁신의 새로운 표준이 되도록 최선을 다하겠다"고 했다.

2025.09.19 17:05백봉삼 기자

하이퍼엑셀, 국산 AI 반도체 기반 K-클라우드 기술개발 국책과제 수주

LLM 특화 AI 반도체 스타트업 하이퍼엑셀은 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 450억원 규모의 'AI반도체를 활용한 K-클라우드 기술개발사업' 국책과제를 수주했다고 8일 밝혔다. 이번 과제는 국산 AI 반도체 기반 데이터센터 학습 및 추론 시스템 통합 및 검증을 목표로 하며 2030년 12월까지 진행될 예정이다. 하이퍼엑셀이 주관하는 이번 과제에는 리벨리온, 파네시아, 망고부스트, 래블업, 스퀴즈비츠 등 국내 유명 AI 반도체 및 AI 솔루션 기업들과 한국과학기술원(KAIST), 서울대학교 등 국내 유수 대학이 참여하여 최고의 전문성과 기술력을 보유한 AI 인프라 '드림팀'으로 인정받았다. 특히, 국내 최대 데이터센터 운영사이자 AI 반도체 수요처인 네이버클라우드가 직접 과제에 참여하여 기술 개발 이후 사업화 성공 가능성까지 확보했다. 특히, 국내 최대 데이터센터 운영사인 네이버클라우드가 직접 해당 기술의 실증에 적극 참여함으로써 국내 NPU 기술 산업 생태계 확산에 기여한다고 밝혔다. 이동수 네이버클라우드 전무는 “국내 소버린AI 생태계 구축에 있어서 금번 과제가 갖는 의미에 공감하고, 네이버클라우드가 가진 AI 밸류체인 전 영역에 걸친 경험과 역량을 바탕으로 금번 과제의 성공에 적극적으로 기여하고자 참여를 결정했다”고 말했다. 하이퍼엑셀은 이번 과제를 통해 대한민국의 독자적인 AI 반도체 기술 역량을 확보하고, 국산 AI 반도체 기반의 데이터센터 인프라를 구축하여 외산 AI 반도체의 의존성을 줄이고 글로벌 시장에서 경쟁력을 강화할 계획이다. 특히 추론에 최적화한 저전력 고효율 AI 반도체인 LPU(LLM Processing Unit)를 삼성전자 4나노미터 공정을 통해 개발 중이며, 데이터센터의 성능 향상 및 비용 절감 등 운영 효율성을 극대화하는 것을 목표로 하고 있다. 김주영 하이퍼엑셀 대표는 "이번 과제를 통해 국내 최고의 AI 반도체 및 AI 기업들과 함께 시너지를 낼 수 있게 되어 매우 기쁘다"며 "연구개발부터 사업화까지 참여기관들과 협업을 통해 국내 기술 역량을 총결집하여 글로벌 시장에서도 K-클라우드의 경쟁력을 인정받고 현재 정부 주도로 추진 중인 국가 AI컴퓨팅센터 구축에도 기여할 수 있을 것”이라고 말했다.

2025.05.09 14:35장경윤 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

앤트로픽 '클로드' 서버 장애 지속…국내 AI 서비스 영향

[국방 AX 거점④] "AI 인프라·인재 10년 키워…판교, 육군 전초기지로"

[르포] 한일 정상회담 후 달라진 日…현지 최대 IT 행사서 'K-AI'에 관심 폭발

[단독] 코인원, ‘특금법 위반’ 영업 일부정지 3개월 제재 가닥

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.