• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 반도체'통합검색 결과 입니다. (550건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

딥엑스, 양산 7개월 만에 8개국·27건 구매 주문 확보

초저전력 피지컬 AI 반도체 기업 딥엑스가 첫 양산 제품 출시 7개월 만에 8개국에서 27건의 구매주문(PO)을 확보했다고 29일 밝혔다. 딥엑스는 지난해 8월 양산을 시작했으며 지난해 5개월 동안 확보된 PO는 2건이었다. 이후 3개월이 채 되지 않아 25건의 추가 주문이 발생하며 주문 증가 속도가 빠르게 증가했다. 확보된 주문은 로보틱스, 스마트팩토리, AI 엣지 서버, 산업용 AI, 지능형 영상보안, AI IT 서비스, 스마트시티 등 7개 주요 피지컬 AI 응용 분야에 걸쳐 발생했다. 딥엑스의 AI 반도체는 현재 미국, 유럽, 중국, 일본, 싱가포르 등 8개 국가의 다양한 피지컬 AI 응용 시장에 공급되고 있다. 빠른 글로벌 양산 확산의 배경에는 사전 글로벌 대규모 PoC(개념검증) 전략이 있다. 반도체 산업에서는 고객사들이 일반적으로 PoC를 시작한 이후 실제 고객사의 응용 제품 양산까지 9~18개월의 시간이 필요하다. 딥엑스는 양산 이전 약 1년여 동안 전 세계 350개 글로벌 고객사와 PoC 및 기술 협업을 진행하며 고객 파이프라인을 구축한 바 있다. 딥엑스 측은 "이러한 전략을 통해 양산 이후 다수 고객이 빠르게 실제 구매 주문으로 전환되는 효과가 나타나고 있다"고 설명했다. 딥엑스는 국내외 대기업과 협력하며 AI반도체 적용을 확대하고 있다. 현대자동차 로보틱스 그룹에서는 딥엑스 AI 반도체가 차세대 서비스 로봇 플랫폼에 적용되며 올해 하반기 양산을 앞두고 있다. 또한 중국 AI 기업 바이두와 공장 자동화 및 산업 AI 분야에서 협력한다. 김녹원 딥엑스 대표는 “딥엑스는 로보틱스 중심의 자율 이동체와 무인 생산 및 AI 제조 중심의 스마트 팩토리라는 두 축의 피지컬 AI 분야에서 글로벌 선도 AI 반도체 기업이 되고자 한다"며 "이를 통해 한국이 제조된 제품을 수출하는 나라에서 무인화된 공장을 수출하는 국가가 되는 데 기여하게 될 것”이라고 말했다.

2026.03.29 14:42전화평 기자

美, 반도체 공급망 위한 '팍스 실리카' 펀드 출범…3700억원 투입

미국 국무부가 자국 내 반도체 공급망 강화를 위한 '팍스 실리카(Pax silica)' 펀드를 출범한다고 26일(현지시간) 발표했다. 미국은 해당 펀드에 2억 5000만 달러(약 3700억원) 대외 원조 자금을 배정할 예정이다. 국무부는 "팍스 실리카는 공급망의 모든 단계에 걸쳐 전략 파트너십과 협력적 조치를 제공한다"며 "이 기금이 평균 1조 달러 이상 자산을 보유한 대규모 국부펀드와 민간 자본을 유치할 것으로 기대한다"고 밝혔다. 앞서 도널드 트럼프 미 행정부는 지난해 12월 반도체 제조용 핵심광물의 공급망 안정화를 위해 팍스 실리카라는 안보 협력체를 출범시킨 바 있다. 초기 한국과 일본, 싱가포르, 영국, 인도, 호주 등 8개국이 연합체에 합류했다. 가입국은 추가되고 있다. 팍스 실리카 참여국은 핵심광물과 반도체 설계·제조·패키징 등에서 공급망 취약성을 공동 점검하고, 이를 해결하기 위한 프로젝트를 추진할 계획이다. 이는 반도체·인공지능(AI) 등 첨단 산업 굴기에 적극 나서는 중국을 견제하기 위한 목적이라는 분석이 나온다. 현재 중국은 반도체 등 다양한 첨단 산업의 핵심 소재인 희토류 공급을 90%가량 장악하고 있다. 제이컵 헬버그 미 국무부 경제성장·에너지·환경 담당 차관은 "팍스 실리카 연합체의 투자 규모는 1조 달러 이상이 될 것"이라며 "일본 소프트뱅크, 싱가포르 테마섹 등이 창립 멤버가 될 것"이라고 말하기도 했다.

2026.03.28 08:00장경윤 기자

칩 보안법, 美하원 외교위 통과...엔비디아·AMD에 '밀수방지' 의무화

미국 하원 외교위원회가 엔비디아, AMD 등 자국 반도체 기업을 대상으로 인공지능(AI) 핵심 기술의 중국 밀수출을 막기 위한 감시 의무를 강화하는 법안을 통과시켰다. 최근 슈퍼마이크로 공동 창업자가 엔비디아 반도체를 중국으로 가공 수출한 혐의로 기소된 사건이 법안 처리에 결정적 도화선이 됐다. 블룸버그 통신은 미 하원 외교위가 '칩 보안법'을 찬성 42표, 반대 0표라는 압도적 표차로 가결해 본회의로 송부했다고 27일(현지시간) 보도했다. 법안 핵심은 엔비디아, AMD 등 AI 반도체 기업들이 자사 제품이 중국으로 유입되지 않도록 검증 체계를 강화하고, 이를 상무부에 보고하도록 의무화하는 것이다. 상무부 장관은 법 시행 후 1년 내에 미승인 칩 이동이나 최종사용자 변경에 대한 보고 규칙을 확정해야 한다. 이번 조치는 도널드 트럼프 행정부가 미국 기술의 글로벌 판매 확대를 위해 일부 규제 완화를 검토하는 상황에서 나와 주목된다. 법안을 주도한 빌 하이징아 의원은 "업계 일각에서 밀수 사실을 인지하지 못했다고 주장하지만, 여전히 해결되지 않은 전용 문제가 있다"며 입법 취지를 설명했다. 다만, 기업들 부담을 고려해 위치 추적 기술이나 원격 작동 중지 기능 탑재를 강제하지는 않는 '가벼운 규제' 방식을 택했다. 기존 보안 비즈니스 관행을 칩 보안 메커니즘으로 인정하는 등 유연성을 뒀다. 상무부 장관은 미국 경쟁력을 해칠 우려가 있을 경우 범정부 협의를 거쳐 규정 일부를 면제할 수 있는 권한도 갖는다. 정치권 압박은 거세지고 있다. 지난주 슈퍼마이크로의 공동 창업자인 월리 리아우가 구속 기소된 직후, 엘리자베스 워런 상원의원 등은 상무부에 중국 및 동남아시아로 향하는 모든 엔비디아 AI 칩과 서버의 수출 라이선스를 일시 중단하고 전면 재검토할 것을 촉구하는 서한을 보내기도 했다. 엔비디아는 이번 사안과 관련해 "수출 규제가 확대됨에 따라 규정 준수 프로그램을 위해 고객 및 정부와 긴밀히 협력하고 있다"는 입장을 밝혔다. 법안이 본회의를 통과해 최종 시행될 경우, AI 가속기 공급망 전반에 걸친 미 당국 감시망은 더욱 촘촘해질 전망이다.

2026.03.28 08:00전화평 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

곽노정 SK하이닉스 "순현금 100조 확보해 장기적 전략 투자 집행"

SK하이닉스가 고대역폭메모리(HBM) 등 AI 메모리 수요에 적기 대응하기 위한 준비에 나선다. 중장기적으로 안정적인 투자를 집행하기 위해 순현금 100조원 이상을 확보하는 것이 목표다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 기존 메모리 수요는 IT 업황에 따라 하락과 상승을 반복하는 '사이클' 현상을 반복해왔다. 그러나 전세계 AI 기업들의 공격적인 인프라 투자에 따라, 고성능 AI 메모리 수요가 구조적인 공급 부족 현상에 직면할 수 있다는 시각이 제기되고 있다. 이에 SK하이닉스도 업황에 따라 설비투자 규모를 축소 및 확대하는 것이 아닌, 중장기적으로 안정적인 투자를 집행할 수 있는 재무건전성 확보에 나선다. 곽 사장은 "고객사 수요에 맞춰 안정적으로 투자를 집행할 수 있는 재무 건전성을 확보하는 것이 반드시 필요하다"며 "이에 회사는 순현금 100조원 이상을 확보하고자 한다. 이를 통해 어떠한 환경에서도 장기적이고 전략적으로 필요한 투자를 집행할 것"고 밝혔다. 이와 관련, SK하이닉스는 최첨단 메모리 생산능력 확대를 위한 투자를 적극 진행하고 있다. 올해 청주 M15X 팹 구축을 완료해 설비를 도입할 계획이며, 용인 대규모 반도체 클러스터 구축도 적극 추진 중이다.

2026.03.25 11:24장경윤 기자

SK하이닉스, 美 ADR 상장 추진…"연내 완료 목표"

SK하이닉스가 올해 미국 증시 상장을 위한 본격적인 준비에 돌입했다. SK하이닉스는 25일 공시에서 미국 증권거래소위원회(SEC)에 미국 주식예탁증서에 관한 상장 공모 관련 등록신청서를 비공개로 제출했다고 밝혔다. SK하이닉스는 "2026년 연내 상장을 목표로 추진하고 있으나, 현재 상장 공모의 규모, 방식, 일정 등 세부사항은 확정되지 않았다"고 밝혔다. 또 "최종 상장 여부는 SEC의 등록신청서 검토, 시장 상황, 수요예측 및 기타 제반 여건 등을 종합 고려하여 결정될 예정"이라며 "향후 구체적인 사항이 확정되는 시점 또는 6개월 이내에 재공시하겠다"고 밝혔다. ADR은 외국 기업이 미국 증시에서 자사 주식을 거래할 수 있도록 발행하는 증권이다. 글로벌 투자자 접근성을 확대하는 수단으로 활용되며, 국내 기업들의 기업가치 제고에도 유리하다는 평가를 받는다.

2026.03.25 08:26장경윤 기자

모빌린트, 스피어에이엑스와 엣지 AI 기반 영상 분석 협력

AI 반도체 기업 모빌린트가 AI 영상 분석 솔루션 기업 스피어에이엑스(SPHERE AX)와 AI 기반 안전·보안 및 스마트 인프라 사업 협력을 위한 전략적 업무협약(MOU)을 체결했다고 24일 밝혔다. 양사는 이번 협약을 통해 각 사가 보유한 기술력과 인프라를 결합해 엣지 AI 기반 영상 분석 솔루션을 공동 개발하고, 산업 현장의 안전 관리와 스마트 인프라 구축을 위한 사업 협력을 추진할 예정이다. 주요 협력 내용은 ▲엣지 AI 기반 지능형 영상 분석 솔루션 공동 개발 ▲산업 안전 및 보안 분야 사업 기회 공동 발굴 ▲기술 검토 및 실증(PoC) 수행 ▲공동 마케팅 및 생태계 연계 협력 등이다. 모빌린트는 자사의 고성능 NPU(신경망처리장치)를 기반으로 엣지 환경에서 고효율 AI 연산이 가능한 하드웨어 플랫폼을 제공하고, 스피어에이엑스는 AI 영상 분석 알고리즘 기술을 접목해 지능형 영상 분석 솔루션을 구현할 예정이다. 이를 통해 제조 현장, 건설 현장, 공공시설 등 다양한 산업 환경에서 실시간 안전 모니터링과 지능형 보안 시스템 구축을 추진한다는 계획이다. 특히 양사는 엣지 AI 기반 영상 분석 기술을 활용해 산업 안전 관리 및 스마트 인프라 분야에서 새로운 사업 기회를 공동 발굴하고, 실제 운영 환경에서의 성능 검증(PoC)을 통해 상용화를 추진할 예정이다. 신동주 모빌린트 대표는 “스피어에이엑스의 AI 영상 분석 기술과 모빌린트의 고성능 NPU 기술이 결합되면 산업 현장에서 요구되는 실시간 AI 분석과 안정적인 시스템 구축이 가능해질 것”이라며 “양사의 협력을 통해 지능형 안전 관리 및 스마트 인프라 분야에서 새로운 AI 솔루션 모델을 만들어 나가겠다”고 말했다. 박윤하 스피어에이엑스 대표는 “스피어에이엑스가 보유한 영상 기반 AI 추론 기술과 모빌린트의 NPU 기반 엣지 AI 하드웨어플랫폼이 결합되면 향후 피지컬 AI 분야에서 큰 시너지를 창출할 수 있을 것으로 기대한다”며 “특히 모빌리티, 드론, 로봇 등 다양한 산업 영역에서 영상 기반 AI 인지 및 판단 기술이 중요한 역할을 하게 될 것으로 보고 있으며, 양사의 기술 협력을 통해 이러한 분야에서 새로운 AI 응용 시장을 개척하고 글로벌 시장을 선도해 나가겠다”고 밝혔다.

2026.03.24 14:59전화평 기자

엔비디아 올라탄 두산, 올해 CCL 투자 2배 이상 확대

두산이 반도체기판 핵심 소재인 동박적층판(CCL) 관련 투자 규모를 전년 대비 2.7배 이상 확대한다. 전례 없는 AI 반도체 호황으로 고성능 CCL이 각광받는 가운데, 엔비디아 등 핵심 고객사 수요에 선제 대응하기 위한 전략으로 풀이된다. 24일 두산 사업보고서에 따르면 이 회사는 CCL 설비투자에 올해 약 2444억원을 투자할 계획이다. 앞서 두산 전자BG(비즈니스그룹)는 지난해 CCL 설비투자에 총 896억원을 집행한 바 있다. 전년 투자 규모(386억원) 대비 132% 증가한 수준이다. 올해에는 예상 투자 규모를 2444억원으로 대폭 확대했다. 전년 대비 172%가량 늘었다. 내후년 예상 투자 규모도 2870억원에 달한다. 계획이 실현되는 경우, CCL 분야에 2년간 5000억원이 넘는 설비투자가 집행될 예정이다. 배경은 CCL 시장의 호황에 있다. CCL이 포함된 두산 전자BG 매출은 지난해 1조 8751억원으로 전년 대비 87% 증가했다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재 중 하나로, 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층해 만든다. 최근 CCL은 AI 반도체를 중심으로 수요가 급증하고 있다. 엔비디아·AMD 등 글로벌 팹리스는 물론, 전세계 CSP(클라우드서비스제공자) 기업들이 자체 AI 가속기 개발에 뛰어들면서 시장 규모가 커지고 있기 때문이다. AI 반도체가 고도화될수록 CCL도 더 뛰어난 고주파·고속·저손실을 갖춘 제품이 필요하다. 두산은 엔비디아의 최신형 AI 가속기 '베라 루빈(Vera Rubin)' 공급망에 주요 CCL 벤더로 진입한 것으로 알려졌다. 아마존·구글 등 고객사 외연도 점차 확장되는 추세다. 덕분에 두산의 국내 증평·김천 CCL 생산라인은 현재 가동률이 100%를 넘어가는 '풀가동' 체제를 유지하고 있다. 두산 관계자는 "이번 CCL 설비투자 계획은 국내외 공장 증설, 설비교체, 유지보수, R&D 등 관련 투자가 반영된 것"이라며 "특히 국내외 사업장 전반에서 투자를 계획 중으로, 사업 환경을 보면서 집행할 예정"이라고 설명했다.

2026.03.24 11:10장경윤 기자

파네시아, 카이스트와 AX 혁신 MOU 체결

반도체 설계전문 기업인 파네시아는 링크반도체 기술을 기반으로 인공지능 전환(AX) 혁신을 실현하기 위해 한국과학기술원(KAIST)과 업무협약(MOU)을 23일 체결했다고 밝혔다. 이번 업무 협약은 산업 AX 혁신을 목적으로 기획된 '4대 과학기술원 AX 전략' 사업의 일환이다. 해당 사업에는 4대 과기원(KAIST·GIST·DGIST·UNIST) 및 유수 기업 15개사가 참여한다. 15개사는 반도체, AI교육, 조선해양·소재, 에너지 등 다양한 분야에서 참여한다. 반도체 부문에서는 파네시아와 리벨리온이 이름을 올렸다. 이날 진행된 단체 협약 체결식에는 4대 과기원 총장 및 협력기업 주요 인사가 자리했으며, 배경훈 과학기술부총리 겸 과학기술정보통신부 장관이 참석해 축사를 전했다. 최근 주목받고 있는 'AI 에이전트'는 목표만 주어지면 계획 수립부터 실행까지 자율적으로 처리하는 대규모 AI 모델 기반의 서비스로, AX의 핵심 기술로 꼽힌다. 이러한 대규모 AI 서비스를 구동하려면 다수의 AI 가속기(GPU·NPU 등)와 CPU, 메모리 등 다양한 장치들이 종합적으로 동작해야 한다. 이 때 장치 간 통신이 대량으로 발생하기 때문에, 각 장치의 성능 못지않게 이들을 원활하게 연결·통합하는 '링크' 기술 또한 효율적인 AX 실현을 위한 핵심 요소로 작용한다. 이번 업무협약을 체결한 파네시아는 '링크' 기술을 개발하는 국내 팹리스 스타트업이다. 컴퓨트익스프레스링크(CXL)·UA링크(UALink) 등 다양한 링크 표준을 지원하는 '링크반도체' 기술을 반도체 설계자산(IP)부터 하드웨어 엔진, 스위치 칩에 이르기까지 순수 국산 기술로 전 범위에 걸쳐 확보하고 있다. 파네시아는 이러한 링크반도체를 활용해 AI 에이전트 등 AX 핵심 기술을 가속하는 솔루션 또한 개발/제공하고 있다. 파네시아 관계자는 "파네시아의 링크반도체 기술이 AI 에이전트 서비스 등 효율적인 AX 실현에 실질적으로 기여할 수 있을 것으로 기대한다"며 "이번 협업을 통해 파네시아의 링크반도체 기술과 KAIST의 AI 기반 반도체 설계 기술 간 교류를 바탕으로 양측의 상호 발전을 도모해 나가고자 한다"고 말했다.

2026.03.23 14:15전화평 기자

한화비전, 암바렐라와 AI 영상보안 기술 개발 협력

한화비전은 글로벌 인공지능(AI) 반도체 기업 암바렐라(Ambarella)와 차세대 영상보안 신기술을 함께 개발한다고 23일 밝혔다. 양사는 이번 전략 파트너십 체결을 시작으로 지속적인 협업으로 AI 기술 경쟁력을 강화할 계획이다. 한화비전과 암바렐라는 지난 20일 서울 중구 더 플라자에서 '기술 협력을 위한 전략 파트너십'을 체결했다. 행사에는 김동선 한화비전 미래비전총괄 부사장과 페르미 왕 암바렐라 대표 등 주요 경영진이 참석했다. 협약에 따라 양사는 차세대 시스템온칩(SoC)을 비롯해 AI 영상보안 기술 개발을 위해 협력한다. 한화비전의 영상처리 기술과 암바렐라의 AI 역량이 결합되면 지금보다 한 단계 높은 AI 영상보안 솔루션을 선보일 수 있다. 지난 2004년 설립된 암바렐라는 보안 카메라와 자율주행차, 로봇, 드론 등에 쓰이는 AI 처리 프로세서를 개발하는 미국 반도체 기업이다. 핵심 아키텍처(설계구조)인 'CV플로'(CVflow)는 AI 영상 분석에서 높은 평가를 받는다. 한화비전은 전략 파트너십을 통해 AI 기술 적용 범위를 영상보안 이외 분야까지 확장해 글로벌 시장에서 입지를 공고히 할 계획이다. 파트너십 체결을 주도한 김동선 부사장은 "AI 반도체 시장에서 성과를 내고 있는 암바렐라와 파트너십을 맺어 기쁘다"며 "지속적 기술 혁신으로 글로벌 시장을 함께 선도하겠다"고 말했다. 왕 대표는 "시스템과 알고리즘에 대한 높은 이해와 전문성을 바탕으로 시장을 이끄는 한화와 협업해 영광"이라며 "파트너십 체결은 향후 암바렐라 성장에 큰 영향을 미칠 것"이라고 밝혔다. 양사 협업은 최근 신설 지주 설립과 인적 분할을 추진 중인 한화그룹 테크 솔루션과 라이프 솔루션 부문 간 시너지 창출에도 영향을 끼칠 수 있다. 한화비전을 비롯한 테크 부문은 라이프 부문 현장에 ▲위생·안전 관리 ▲고객 패턴 분석 등에 AI 영상 분석 기술을 활용하는 방안을 추진 중이다. 부문 간 시너지를 통해 발굴한 신기술은 라이프 부문에 우선 적용하고, 새 비즈니스 모델로 발전시켜 시장에 선보일 계획이다. 한화비전은 "암바렐라와 지속적 협업으로 비전 기술 역량이 고도화 될 것으로 기대되는 만큼, 향후 테크와 라이프 솔루션 간 시너지 창출과 신사업 개발 속도도 보다 빨라질 것"이라고 예상했다. 한화비전은 "양사 협업은 AI를 비롯한 각종 기술 혁신으로 이어질 것"이라며 "앞으로도 다양한 글로벌 기업과 협업해 시장 경쟁력을 높이겠다"고 말했다.

2026.03.23 11:39장경윤 기자

하이퍼엑셀, '생성형 AI 전용 LPU' 승부수… 2세대 팹리스의 역습

국내 AI 반도체 생태계가 1세대 기업들의 칩 양산 경쟁을 넘어 특정 목적에 최적화된 2세대 기업들의 등장으로 진화하고 있다. 그 중심에 선 하이퍼엑셀은 리벨리온, 퓨리오사AI 등 선배 격인 기업들과 출발선부터 궤를 달리한다. 1세대 기업들이 비전 기술에서 시작해 LLM(거대언어모델)으로 영역을 확장해온 것과 달리, 하이퍼엑셀은 설립 초기부터 오직 '생성형 AI'만을 타깃으로 삼았다. 'LLM 하나만큼은 세계 최고 기술로 돌리는 칩을 만든다'는 이들의 전략은 엔비디아의 독주 속에 실질적인 대안을 찾는 글로벌 수요 기업들의 시선을 사로 잡고 있다. [강점: Strength] LPDDR 기반의 압도적 효율…'토큰 생성 지연' 최소화 하이퍼엑셀의 가장 강력한 무기는 스스로 명명한 LPU(Large language model Processing Unit) 아키텍처다. 기존 NPU 칩이 다양한 AI 모델을 두루 섭렵하려다 설계가 복잡해진 것과 달리, 하이퍼엑셀은 트랜스포머 기반의 LLM 추론에만 모든 자원을 집중했다. 하이퍼엑셀과 협력 중인 정무경 디노티시아 대표는 “하이퍼엑셀의 LPU는 사실상 '트랜스포머 액셀러레이터'라고 정의할 수 있다”며 “아직 제품이 정식 출시 전이라 시장의 전체적인 평가를 논하기엔 이르지만, 기술적 지향점만큼은 매우 명확하고 유망하다”고 평했다. 특히 하이퍼엑셀은 고가의 HBM(고대역폭 메모리) 대신 저전력·고효율 메모리인 LPDDR을 활용해 전력 효율과 비용 문제를 동시에 해결했다. LLM 추론의 최대 난제인 메모리 병목 현상을 하드웨어 차원에서 최적화된 스케줄링 기술로 극복한 것이다. 이러한 설계적 묘수는 실제 성능으로 이어진다. 하이퍼엑셀의 LPU는 실시간 AI 서비스의 핵심 지표인 토큰 생성 지연 시간을 최소화하는 데 성공했다. 이는 사용자의 질문에 즉각적으로 반응해야 하는 챗봇이나 실시간 대화형 AI 서비스에서 엔비디아 GPU 대비 경제성과 성능 우위를 점할 수 있는 근거가 된다. [약점: Weakness] 트랜스포머 이후 범용성 리스크와 SW 생태계 한계 반면, 특정 목적에 극도로 최적화된 설계는 양날의 검이 될 수 있다. 현재 AI 시장을 지배하는 것은 트랜스포머 아키텍처지만, 미래에는 이와 전혀 다른 구조의 새로운 AI 모델이 대두될 경우 하이퍼엑셀의 하드웨어 범용성이 심각하게 제약될 수 있다는 우려가 나온다. 'LPU'라는 정체성 자체가 트랜스포머 이후의 변화에 유연하게 대응하기 어려울 수 있다는 점은 투자자와 고객사들이 신중하게 살피는 대목이다. 소프트웨어 스택의 성숙도 역시 극복해야 할 산이다. 1세대 기업들에 비해 상대적으로 짧은 업력으로 인해, 엔비디아의 '쿠다(CUDA)'와 경쟁할 만한 소프트웨어 생태계를 단기간에 구축하는 것은 물리적으로 한계가 있다는 지적이 적지 않다. 개발자들이 하이퍼엑셀의 칩을 엔비디아만큼 편하게 쓸 수 있는 환경을 조성하기까지는 상당한 시간과 자본의 투입이 필수적이다. 하이퍼엑셀 관계자는 “AI 인프라 시장은 안정성과 검증된 레퍼런스를 중시하는 만큼 신규 AI칩 기업에게는 초기 고객 확보가 중요한 단계”라며 “이를 위해 글로벌 CSP 및 데이터센터 고객과 PoC 및 협력을 확대하며 실제 서비스 환경에서 성능 및 비용 효율을 검증하고 있다”고 말했다. [기회: Opportunity] 추론 중심 시장 재편과 50조 규모 'K-엔비디아' 수혜 시장 환경은 하이퍼엑셀에게 호의적이다. AI 산업의 무게추가 '학습'에서 '추론'으로 이동하면서 고효율 가속기 수요가 폭발하고 있기 때문이다. 특히 하이퍼엑셀은 서버를 넘어 엣지(Edge) 시장까지 조준하고 있는 걸로 전해진다. AI 반도체 업계 관계자는 “현재는 LLM 모델이 너무 커서 데이터센터 위주로 돌아가지만, 향후 워크로드의 5~10% 정도는 반드시 엣지로 내려올 수 밖에 없다”며 “LLM 모델을 가속할 수 있는 엣지 반도체 시장은 반드시 열릴 것이며, 하이퍼엑셀의 다변화 어프로치는 매우 유효한 전략”이라고 분석했다. 최근 발표된 정부의 'K-엔비디아 프로젝트' 역시 천군만마다. 향후 5년간 50조원이 투입되는 AI 반도체 산업 육성을 위한 정책 자금은 하이퍼엑셀과 같은 2세대 기업들이 대규모 양산 체계를 갖추는 데 결정적인 역할을 할 것으로 보인다. [위협: Threat] 엔비디아의 추론 시장 진출 선언 가장 실질적인 위협은 글로벌 AI 반도체 최강자인 엔비디아가 본격적으로 추론 시장에 진출한 점이다. 엔비디아는 최근 진행된 연례 개발자 컨퍼런스 'GTC 2026'에서 추론용 가속기 '그록3(Groq)'를 소개했다. 이 그록3는 LPU(Language Processing Unit)라는 명칭을 사용한다. 다만 두 칩은 추론 시장을 공략하고 있지만, 지향점은 다소 상이하다. 그록3는 실시간성과 초저지연을 바탕으로 한 '초고속 서비스'에 집중한다. 반면 하이퍼엑셀의 LPU는 LPDDR을 활용해 저전력 환경에 최적화되어 있다. 그록이 극강의 속도를 지향한다면, 하이퍼엑셀은 상대적으로 단가가 낮고 저전력이면서도 많은 메모리 용량이 필요한 환경에 적합한 구조를 취하고 있다.

2026.03.22 17:38전화평 기자

미 의회, 엔비디아 그록 인수 제동…반독재·독과점 조사 착수

미국 엔비디아가 AI 추론 전문 스타트업 '그록'과 체결한 200억달러(약 30조1300억 원) 규모의 라이선스 계약을 두고 미 의회가 반독점법 위반 여부에 대한 정밀 조사에 착수했다. 형식상 기술 사용 계약이지만, 실질적으로는 규제 당국의 감시를 피하기 위한 '편법 인수'라는 의혹이 핵심이다. 블룸버그 통신은 엘리자베스 워런 상원 의원과 리처드 블루먼솔 상원 의원이 현지시간 19일 엔비디아의 젠슨 황 CEO에게 이번 거래의 세부 내역 공개를 요구하는 서한을 발송했다고 20일 보도했다. 두 의원은 서한에서 "이번 거래가 반독점 규제 당국의 심사를 피하기 위해 의도적으로 설계된 것으로 보인다"며 강한 우려를 표명했다. 특히 "이러한 방식의 인수는 시장 경쟁을 억제하고 엔비디아의 독점적 지위를 더욱 공고히 해, 미국의 기술 리더십을 저해할 수 있다"고 지적했다. 지난 2025년 말 체결된 이번 계약에 따르면, 엔비디아는 그록의 IP(설계자산)에 대한 비독점 라이선스를 확보하는 동시에 조나단 로스 CEO를 포함한 그록의 핵심 엔지니어 대다수를 영입했다. 그록이라는 법인은 여전히 별개로 존재하지만, 핵심 인력과 기술이 엔비디아로 흡수됐다는 점에서 사실상의 인수합병(M&A)과 다를 바 없다는 것이 의회의 판단이다. 최근 아마존, 마이크로소프트, 구글 등 빅테크 기업들은 스타트업을 직접 인수하는 대신 기술 라이선스 계약과 인력 채용 형식을 빌려 규제 당국의 심사를 우회하는 전략을 취하고 있다. 미 연방거래위원회(FTC) 역시 지난 1월 이러한 형태의 '우회 인수'에 대해 엄격한 조사 방침을 밝힌 바 있다. 엔비디아는 현재 AI 모델 학습용 GPU 시장을 장악하고 있으며, 이번 계약을 통해 상대적으로 경쟁이 치열한 '추론' 시장에서도 지배력을 확대하려 하고 있다. 이번 주 열린 연례 컨퍼런스에서 젠슨 황 CEO는 그록의 기술을 새로운 AI 컴퓨팅 플랫폼에 통합하겠다고 공식 발표하기도 했다. 엔비디아 측은 "그록을 인수한 것이 아니며, 그록은 여전히 독립적인 사업체로 존재한다"며 "고객에게 세계 최고의 가속 컴퓨팅 기술을 제공하기 위해 라이선스를 구매하고 인재를 영입한 것뿐"이라고 해명했다.

2026.03.21 05:45전화평 기자

퀄컴·삼성, 깊어지는 협력…모바일·컴퓨팅 이어 '로보틱스'로 확장

퀄컴이 삼성전자와 '에이전틱 인공지능(AI)' 시장을 공략한다. 최신 칩셋을 삼성전자 플래그십 스마트폰·모바일 PC 등에 공급한 데 이어, 로보틱스 분야로 협력을 확장하려 논의 중인 것으로 알려졌다. 퀄컴은 20일 JW 메리어트 서울에서 '스냅드래곤 엘리트 데이 기자 간담회'를 열고 사업 전략과 삼성전자와의 파트너십을 밝혔다. "스냅드래곤, 에이전틱 AI 시대 프로세서로 발돋음" 퀄컴이 바라보는 IT 시장 핵심 트렌드는 AI다. AI가 사용자 업무를 스스로 지원하는 에이전틱 AI 기능이 도입되면서, 스마트폰·모바일 PC용 애플리케이션프로세서(AP)에 요구되는 성능도 급격하게 높아지고 있다. 퀄컴은 지난해 하반기 최신형 모바일 AP '스냅드래곤 8 엘리트 5세대'와 모바일 PC용 AP '스냅드래곤 X2 엘리트 익스트림' 등을 출시했다. 스냅드래곤 8 엘리트 5세대는 대만 파운드리 TSMC의 3나노 공정을 채택한 AP다. 전작 대비 성능이 20% 향상된 3세대 퀄컴 오라이온(Oryon) 중앙처리장치(CPU)를 탑재했다. 그래픽처리장치(GPU)·신경망처리장치(NPU) 성능도 각각 23%, 37%가량 향상됐다. 스냅드래곤 X2 엘리트도 3나노 공정을 기반으로, 이전 세대(최대 12개) 대비 크게 늘어난 최대 18개의 코어(12 프라임 코어+6 퍼포먼스 코어)를 갖췄다. CPU와 GPU 성능이 크게 개선됐고, 현존하는 노트북 시장에서 가장 빠른 NPU를 탑재했다. 돈 맥과이어 퀄컴 총괄 부사장 겸 최고마케팅책임자(CMO)는 "스냅드래곤은 에이전틱 AI 시대 프로세서로 자리잡고 있다"며 "스냅드래곤은 전세계 35억개 이상 디바이스를 구동하고 있고, 단순 사양이 아닌 경험 중심 설계로 안드로이드 진영에서 가장 선호되는 브랜드가 됐다"고 말했다. 삼성전자와 긴밀한 협력…모바일·컴퓨팅 넘어 '로보틱스'로 확장 퀄컴은 핵심 고객 삼성전자와의 협력 확대에 전력을 기울일 것으로 예상된다. 퀄컴 스냅드래곤 칩셋은 삼성전자 갤럭시S 시리즈 등 플래그십폰과 모바일 PC, 가전제품 등 폭넓게 채택되고 있다. 크리스 패트릭 퀄컴 수석 부사장 겸 모바일 핸드셋 부문 본부장은 "하나의 플랫폼 개발에는 약 3년이 걸리는데, 퀄컴과 삼성은 하나의 팀처럼 제품을 설계한다"며 "지금부터 3년 뒤의 제품을 함께 고민한다"고 밝혔다. 이어 "이것이 협력의 깊이"라며 "서로 기술 로드맵을 공유하고 신뢰를 기반으로 협력한다"고 강조했다. 양사 협력은 AI의 유망한 신규 적용처인 로보틱스 산업으로 확장될 전망이다. 퀄컴은 최근 첨단 로봇 분야 진출을 발표하고, 맞춤형 프로세서 '드래곤윙 IQ 10' 시리즈 및 'IQX' 산업용 PC 제품을 출시했다. 삼성전자는 자회사 레인보우로보틱스를 통해 AI 휴머노이드 로봇 시장 진출을 꾀하고 있다. 김상표 퀄컴코리아 사장은 "퀄컴 드래곤윙 플랫폼은 고성능·저전력 특성을 앞세워 사물인터넷(IoT)과 로보틱스 분야에서 적극 프로모션하는 단계"라며 "삼성전자뿐만 아니라 국내 다양한 업체와 얘기하고 있고, 2029년까지 명확한 목표를 세우고 모든 역량을 다해 사업을 확장할 계획"이라고 설명했다. 삼성전자 파운드리 활용에 대해서는 '멀티 파운드리 전략'이라는 원론적 입장을 고수했다. 현재 퀄컴은 최신형 칩셋을 주로 대만 파운드리 TSMC에서 양산한다. 다만 최근 TSMC의 공급난이 심해지고 있고, 2나노 등 최첨단 공정 웨이퍼 가격 급등으로 삼성전자 파운드리가 대안으로 떠올랐다. 크리스 패트릭 부사장은 "현재 삼성 파운드리 협력에 대해 구체적으로 발표할 내용은 없다"면서도 "퀄컴과 삼성은 수십 년 동안 매우 강력한 파트너였고, 양사 협력과 혁신은 더 깊어질 것"이라고 밝혔다.

2026.03.20 13:03장경윤 기자

'K-온디바이스' 다크호스 모빌린트...자본·마케팅 장벽 넘을까

국내 팹리스 업계에서 모빌린트는 '조용한 강자'로 통한다. 리벨리온, 퓨리오사AI, 딥엑스 등 동시대에 등장한 경쟁사들이 언론의 스포트라이트와 대규모 투자 유치로 시장의 시선을 사로잡을 때, 모빌린트는 묵묵히 하드웨어의 실체와 소프트웨어 스택을 쌓는 데 집중해왔다. 그 결과 입소문보다는 실물 칩의 성능으로 수요 기업들의 선택을 받기 시작했다. 온디바이스 AI 시장 개화와 정부 지원이라는 순풍을 탄 모빌린트가 과연 '저평가 우량주'의 꼬리표를 떼고 메이저 플레이어로 안착할 수 있을지 주목된다. [강점: Strength] 엣지에 최적화된 범용성… 'K-온디바이스'의 실질적 주역 모빌린트의 가장 큰 경쟁력은 '실체가 있는 기술력'에서 나온다. 뜬구름 잡는 식의 로드맵이 아니라, 이미 지난해 하반기부터 양산에 돌입한 고성능 NPU(신경망처리장치) '에리스(ARIES)'를 통해 하드웨어의 실질적인 구동 능력을 입증했다. 이러한 기술력은 대외적으로도 인정받았다. 모빌린트는 세계 최대 IT·가전 전시회인 CES에서 혁신상을 수상하며 글로벌 수준의 설계 역량을 객관적으로 증명했다. 이는 단순히 국내 시장용 기술에 머물지 않고 글로벌 표준에 부합하는 기술 경쟁력을 갖췄음을 의미한다. 특히 모빌린트 칩의 최대 장점은 높은 범용성이다. 특정 AI 모델에 종속되지 않고 다양한 신경망 모델을 엣지 환경에서 안정적으로 작동시키는 설계 역량을 갖췄다. 이러한 범용성은 하드웨어와 소프트웨어의 긴밀한 정합성에서 기인하며, 이는 실제 제품을 도입해야 하는 수요 기업들에게 강력한 소구점으로 작용하고 있다. 기술적 완성도는 정부가 추진하는 'K-온디바이스 AI 반도체 기술 개발' 과제에서 빛을 발하고 있다. LG전자, 두산로보틱스 등 국내 수요 기업들이 모빌린트의 기술력에 집중적인 관심을 보이며 협력 파트너로 점찍은 것이 대표적인 사례다. 반도체 업계 관계자는 "실질적인 하드웨어와 즉시 현장 투입이 가능한 소프트웨어를 동시에 원하는 대기업들에게 모빌린트는 현실적인 대안"고 평했다. [약점: Weakness] 자본력 확충·낮은 인지도는 극복 과제 기술력에 비해 대외적인 시장 인지도가 낮다는 점은 뼈아픈 대목이다. 리벨리온이나 퓨리오사AI, 딥엑스 등과 업력이 비슷함에도 불구하고 모빌린트의 브랜드 파워는 상대적으로 약하다는 평가다. 이는 엔지니어 중심의 조직 문화로 인해 영업과 마케팅을 적극적으로 펼치지 않았던 결과로 풀이된다. 자본력 역시 경쟁사 대비 열세다. 수천억원 단위의 기업 가치를 인정받으며 막대한 실탄을 확보한 타사들과 달리, 모빌린트는 상대적으로 낮은 밸류에이션에 머물러 있다. 반도체 설계는 천문학적인 자금이 투입되는 장기전이며, 특히 대규모 양산을 위해서는 안정적인 재무 구조가 필수적이다. 금융권 일각에서 모빌린트의 자본 안정성에 대해 우려 섞인 시선을 보내는 이유이기도 하다. 윤상현 모빌린트 CSO(이사)는 “그동안 홍보보다는 기술 개발과 양산 준비라는 '실체'를 만드는 데만 매진하다 보니 대외적인 인지도가 상대적으로 낮았던 것이 사실”이라며 "금융권이나 투자자들로부터 자본 안정성에 대한 의구심을 받기도 하는데, 현재 진행 중인 추가 펀딩 등을 통해 기업 가치를 제대로 인정받고 자본력을 확충하는 과정 중에 있다"고 강조했다. [기회: Opportunity] 온디바이스 AI 시대 도래와 정부의 육성 정책 시장 환경은 모빌린트에게 더할 나위 없이 우호적이다. 개인정보 보호와 응답 속도 등의 이유로 기기 자체에서 추론을 수행하는 온디바이스 AI 수요가 전 산업 분야로 확산되고 있기 때문이다. 범용성이 강점인 모빌린트의 NPU는 스마트 가전부터 산업용 로봇까지 적용 범위가 넓어 먹거리가 풍부하다. 정부의 강력한 산업 육성 의지도 든든한 버팀목이다. 정부는 모빌린트를 포함한 주요 AI 반도체 기업들을 집중 지원 대상으로 선정하고, 'K-클라우드' 프로젝트와 온디바이스 AI 과제를 통해 대규모 자금을 투입하고 있다. 특히 투자 책임 면제 등 파격적인 금융 지원책이 예고되어 있어, 그동안 모빌린트의 발목을 잡았던 자본력 확충의 기회가 열리고 있다. [위협: Threat] 파트너십 부재...독자 생존 위험성 가장 실질적인 위협은 국내외 생태계 안에서 이른바 짝궁이 없다는 점이다. 경쟁사들은 이미 강력한 전략적 파트너십을 통해 시장 지배력을 공고히 하고 있다. 리벨리온은 SKT·KT와, 퓨리오사AI는 LG AI연구원과 딥엑스는 현대차·LG유플러스와 손잡으며 안정적인 수요처와 잠재적 지원을 확보했다. 반면 모빌린트는 LG전자나 두산로보틱스 등 다수의 대기업이 관심을 보이고는 있지만, 이들이 모빌린트의 칩만을 독점적으로 사용하는 배타적 동반자 관계라고 보기는 어렵다. 확실한 파트너 없이 개별 수주 경쟁에만 의존할 경우, 거대 자본과 유통망을 앞세운 국내외 경쟁사들의 공세에 언제든 밀려날 수 있다는 불안감이 존재한다. 모빌린트만의 운명 공동체를 확보하는 것이 무엇보다 시급한 과제인 셈이다.

2026.03.20 10:31전화평 기자

리사 수 AMD CEO, 이틀간 한국4 AI 생태계 전방위 행보

미국 AI 반도체 기업 AMD의 수장인 리사 수 최고경영자(CEO)가 18일부터 오늘(19일)까지 2일간 국내 고객사와 협력사, 스타트업과 정부 등 다양한 이해관계 당사자와 만남을 가지고 오후 전용기편으로 한국을 떠났다. 리사 수 CEO의 이번 방한은 1박 2일이라는 짧은 기간에도 불구하고 국내 주요 기업과 정부, 스타트업을 모두 아우르며 촘촘하게 진행됐다. 2014년 취임 이후 12년만인 첫 공식 일정에서 네이버(플랫폼), 삼성전자(반도체), 업스테이지(스타트업), 정부(정책)로 이어지는 한국 AI 산업 생태계 가치사슬 전 분야와 협력을 모색했다. 18일 네이버·삼성전자 만나... 승지원 만찬도 리사 수 CEO는 공식 일정 전날인 17일 심야 국내 도착했다. 일정 첫 날인 18일 오전에는 경기 성남시 판교에 위치한 네이버 1784 사옥에서 최수연 네이버 대표와 만나 AI 협력 방안을 논의했다. 양사는 데이터센터와 AI 인프라, GPU 활용 확대 등 다양한 협력 가능성을 검토했으며, 향후 기술 협력 관계를 강화하기로 했다. 이는 AMD가 AI 칩 공급을 넘어 클라우드·서비스 영역까지 영향력을 넓히려는 전략으로 해석된다. 이후 오후에는 삼성전자 평택캠퍼스를 방문해 반도체 생산라인을 살펴보고 경영진과 협력 확대 방안을 논의했다. 이날 AMD는 올 하반기부터 공급할 인스팅트 MI455X GPU 가속기에 HBM4를 우선 공급할 업체로 삼성전자를 지정했다. 저녁에는 서울 한남동 승지원에서 이재용 삼성전자 회장을 비롯한 삼성전자 경영진과 만찬 회동을 진행했다. 이 자리에서 AI 반도체와 메모리 협력 확대 등을 논의한 것으로 보인다. 19일 업스테이지·삼성전자·정부 관계자 회동 리사 수 CEO는 당초 19일 일정을 외부 고객사나 협력사 회동 없이 국내 임직원 격려 등으로 보낼 예정이었다. 그러나 방한 사실이 보도된 지난 주 주말부터 추가 일정 조율 등으로 상황이 시시각각 바뀌었다는 전언이다. 리사 수 CEO는 이날 이른 아침 숙소인 서울 광화문 포시즌즈호텔에서 국내 AI 스타트업 업스테이지의 김성훈 대표와 만나 AMD GPU 기반 AI 모델 개발과 관련 협력을 추진하기로 했다. 오전 9시경에는 삼성전자 서초사옥에서 노태문 삼성전자 DX부문장을 만났다. 뉴스1에 따르면 삼성전자와 AMD는 AMD 차세대 프로세서와 삼성전자의 갤럭시 모바일·노트북 라인업 간의 최적화, 온디바이스 AI 기술 협력 등을 논의했다. 이후 오전 11시경 대통령 직속 국가인공지능전략위원회에서 민관 협력과 AI 생태계 구축에 협력하기로 했다. 이 자리에서는 개방형 AI 생태계 조성과 글로벌 경쟁력 확보를 위한 협력 필요성이 강조됐다. 리사 수 CEO는 공식 일정을 마치고 12시 30분부터 약 한 시간동안 국내 임직원 격려 행사를 진행했다. 이후 미국으로 돌아가는 편에 탑승했다. 플랫폼·반도체·AI 모델·정책 등 아우르는 행보 리사 수 CEO는 이틀간 이어진 일정동안 네이버와 업스테이지를 통해 GPU 수요처를 넓히는 동시에, 삼성전자와의 협력을 통해 HBM 중심의 핵심 공급망을 강화하는 '투트랙 전략'을 구체화했다. 또 업스테이지 등 스타트업, 국가인공지능전략위원회 등 정부 기관과 만나 개방형 AI 생태계 구축 방안도 논의했다. 플랫폼·반도체·AI 모델·정책을 아우르는 행보는 엔비디아에 편중된 국내 AI 생태계 안에 AMD GPU와 소프트웨어 등 솔루션을 제시해 경쟁 구도를 흔들기 위한 구조적 접근이라는 점에서 의미가 크다.

2026.03.19 17:56권봉석 기자

삼성전자, 올해 시설·R&D 투자에 110조원 이상 투입..."AI 주도권 확보"

삼성전자가 올해 시설 및 연구개발(R&D)에 110조원 이상의 대규모 자금을 투자한다. 전년 대비 20조원 가량 증가한 규모로 AI 반도체 시대의 주도권 확보에 적극적으로 나서고 있다. 19일 삼성전자는 기업가치제고계획(밸류업) 공시를 통해 올해 사업 계획을 공개했다. 삼성전자는 "메모리, 파운드리, 선단 패키징을 모두 갖춘 '원-스톱 솔루션'이 가능한 세계 유일의 반도체 회사로서 AI 반도체 시대에 주도권을 확보하겠다"는 목표를 세웠다. 세부적으로 고대역폭메모리(HBM) 등 고부가 메모리 시장에서 업계 내 확고한 위상을 확보하고, 지속적으로 초격차를 유지할 계획이다. 또한 AI 및 첨단로봇 등 미래형 사업 구조로 사업을 재편해 중장기 성장 모멘텀을 확보하고자 하고 있다. 이를 위한 계획으로, 삼성전자는 올해 총 110조원 이상의 시설 및 R&D 투자를 집행한다. 전년 대비 20% 이상 증가한 규모다. 앞서 삼성전자는 지난해 시설 및 R&D 투자에 90조4000억원(시설투자 52조7000억원, R&D 37조7000억원)을 투자한 바 있다. 또한 첨단로봇, 메드테크, 전장, HVAC 등 미래 성장 분야에서 의미있는 규모의 M&A를 추진한다. 한편 올해 주주환원 정책에 대해서는 "3년간 총 잉여현금흐름의 50% 중에서 2024~2025년 주주환원 및 2026년 정규배당(9조8000억원) 이후에도 잔여재원 발생시 추가로 환원하겠다"는 계획을 세웠다.

2026.03.19 17:26장경윤 기자

AI 추론칩 꺼낸 엔비디아...韓 NPU, 위기인가 기회인가

인공지능(AI) 가속기 시장의 절대 강자인 엔비디아(NVIDA)가 연례 개발자 컨퍼런스 행사인 'GTC 2026'에서 추론 전용 가속기 LPU '그록3(Groq 3)'를 전격 공개하며 AI 반도체 시장의 판도 변화를 예고했다. 학습용 칩 시장의 절대 강자가 추론 시장 진입을 본격 선언한 것이다. 이에 그동안 경쟁이 덜한 추론 시장을 공략해온 리벨리온, 퓨리오사AI 등 국내 NPU(신경망처리장치) 기업들은 글로벌 리더와의 정면 승부라는 중대한 분수령을 맞이하게 됐다. 19일 반도체 업계에 따르면 엔비디아의 이번 행보는 국내 AI 반도체 기업들에 도전과 기회가 공존하는 중대한 시험대가 될 전망이다. 엔비디아가 추론 전용 가속기 라인업을 강화한 것은 추론 시장에서 가능성을 봤다는 의미와 함께, 국내 업체들이 공략해온 영역이 잠식될 수 있기 때문이다. 엔비디아의 '추론 칩' 양산 선언… 국내 업계엔 직접적 위협 가장 큰 위기는 시장 리더인 엔비디아가 본격적으로 추론용 칩 시장에 진입했다는 사실 자체다. 그간 국내 NPU 기업들은 엔비디아가 거대 AI 모델의 '학습' 시장에 주력하는 동안, 상대적으로 소홀했던 '추론' 영역을 틈새시장으로 보고 차별화를 꾀해왔으나 이제는 그마저 위협받게 됐다. 특히 엔비디아가 학습용 GPU의 약점으로 지목되던 전력 효율과 지연 시간까지 개선한 추론 전용 칩을 내놓으면서, 국내 업체들이 공들여온 '고효율 추론'이라는 방어벽이 흔들릴 수 있다는 우려가 나온다. 특히 국내 기업들이 공을 들여온 중동 시장의 판도 변화가 우려된다. 지난해 11월 미국 정부가 엔비디아 칩의 중동 수출을 허가하면서 리벨리온과 퓨리오사AI 등 국내 기업들이 선점하려던 신시장에 거대 공룡이 직접 진입하게 됐다. 신동주 모빌린트 대표는 “엔비디아가 추론 쪽에 본격적으로 뛰어들면서 올해부터 데이터센터 시장은 상당한 '레드오션'이 될 것”이라며 “결국 글로벌 빅테크들과 기술 및 영업 모든 면에서 직접 경쟁해야 하는 가혹한 상황”이라고 진단했다. “시장의 실재성 증명했다”... 역발상의 기회 반면 업계 일각에서는 엔비디아의 행보가 오히려 국내 NPU 기업들에 기회가 될 수 있다는 분석도 나온다. 시장 리더가 막대한 자금을 투입해 추론 전용 가속기를 내놓은 것은, 추론 시장의 폭발적인 성장 가능성을 전 세계에 공식적으로 확인해준 신호기 때문이다. AI 반도체 업계 관계자는 “엔비디아가 그록을 3배가 넘는 웃돈을 주고 인수한 것은 그만큼 추론 시장의 기회가 크다는 것을 방증한다”며 “이는 국내 업체들이 오랜 기간 준비해온 독자 아키텍처의 방향성이 틀리지 않았음을 증명하는 지표”라고 평가했다. 그러면서 “그록은 기존에도 경쟁 관계에 있던 반도체 업체인 만큼, 이번 발표가 새로운 위협이라기보다 기존 경쟁 구도의 연장선에 가깝다”고 분석했다. 김종기 세미파이브 전무는 “그간 추론 시장이 올 것이라는 말에 시장은 반신반의해왔으나, 엔비디아조차 트레이닝은 GPU로 하되 추론은 에이직이 필요하다고 선언하며 시장의 실재성이 완전히 입증됐다”며 “이러한 패러다임 전환은 기술력을 갖춘 국내 업체들에게는 오히려 플러스 요인이 될 것”이라고 내다봤다. '테스트베드' 부족이 최대 걸림돌… 포트폴리오 부재 우려 현 상황에서 국내 업계가 직면한 가장 심각한 문제점은 개별 기업의 기술력이 아닌 '테스트베드'의 부재다. 엔비디아의 그록3는 막강한 브랜드 파워와 기존 생태계를 바탕으로 실전 레퍼런스를 빠르게 확보하고 있는 반면, 국내 업체들은 제품을 대규모 환경에서 검증해볼 기회가 극히 제한적이다. 글로벌 대기업들은 특정 칩을 도입할 때 이미 시장에서 검증된 제품을 선호한다. 리스크를 짊어지지 않으려는 것이다. 국내 NPU 기업들이 아무리 뛰어난 효율성을 수치로 제시하더라도, 실제 서비스 환경에서 운영된 데이터가 부족해 글로벌 수주 경쟁에서 신뢰를 얻기 힘든 실정이다. 김 전무는 “국내 업체들도 특색 있는 기술력을 갖추고 있지만, 엔비디아나 그록에 비해 테스트베드가 부족한 것이 현실적인 불리함”이라며 “단순히 정부 권고로 쓰는 단계를 넘어 자발적인 수요가 발생할 수 있도록 검증 인프라를 대폭 확충해야 한다”고 강조했다. 다른 AI 반도체 관계자는 "(엔비디아는) 아마존, 마이크로소프트 등 하이퍼스케일러들에 대한 경험을 갖고 있는 점도 국내 업체들과 격차를 벌린다"며 "국내에서 레퍼런스를 쌓고, 해외에서 판매한다는 국내 AI반도체 업체들의 전략이 시장에서 통하려면 국가 전체가 AI 원팀이 돼야만 할 것"이라고 말했다.

2026.03.19 16:13전화평 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

나프타 쇼크에 포장재 비상…파우치 배터리는 괜찮나

쿠팡 사태로 '예스24' 랜섬웨어 뒷전...조사만 9개월째

동남아 최초 '이곳' 16세 미만 아동 SNS 규제한다

[ZD브리핑] KT 주총, 박윤영 대표 선임안 논의…현대車 북미라인업 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.