• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 반도체'통합검색 결과 입니다. (596건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

모빌린트, 포스코DX와 산업 AI 시장 공략 변격화

AI 반도체 기업 모빌린트가 포스코DX와 함께 AI 반도체 기반 산업 AI 시장 공략을 위한 전략적 업무협약(MOU)을 체결했다고 2일 밝혔다. 이번 협약은 양사가 보유한 AI 반도체 기술과 산업 현장 운영 역량을 결합해 제조·로봇·물류·안전 분야 전반에서 실제 적용 가능한 AI 솔루션을 공동 개발하고, 이를 상용화까지 빠르게 연결하기 위한 전략적 협력이다. 특히 이번 협력은 단순한 기술 협력을 넘어, 포스코DX가 포스코기술투자와 함께 출자한 기업형 벤처캐피탈(CVC)을 통해 모빌린트에 약 30억원 규모의 전략적 투자를 단행한 이후 본격화된 것이다. 양사는 ▲AI 하드웨어 시스템 공동 개발 ▲현장 적용을 위한 PoC 및 기술 검증 ▲신규 협력 과제 발굴 및 사업화 ▲실무 협의체 기반 협력 체계 구축 등을 중심으로 협력을 추진한다. 포스코DX는 AI 추론 코드, 개발 환경, 데이터셋 등 핵심 자산과 산업 자동화 플랫폼을 기반으로 현장 적용을 지원하고, 모빌린트는 고성능·저전력 NPU 기반으로 AI 알고리즘 최적화 및 온디바이스 AI 시스템 구현을 담당한다. 이를 통해 기존 GPU 중심의 AI 인프라를 NPU 기반으로 전환함으로써 인프라 비용 절감과 전력 효율 개선을 동시에 추진하고, 데이터센터를 거치지 않는 엣지 AI 구조를 적용해 산업 현장에서 요구되는 보안성과 실시간성을 확보할 계획이다. 모빌린트는 국내에서 유일하게 엣지 환경에서 LLM(대규모 언어모델) 구동이 가능한 고성능 NPU 기술력을 바탕으로, 산업 현장에서 요구되는 실시간 AI 처리 역량을 구현하고 있다. 특히 센서·설비 등에서 발생하는 방대한 데이터를 현장에서 직접 분석·판단·제어할 수 있어, 데이터센터 의존도를 낮추고 제조 현장의 지능화를 실질적으로 가속화할 수 있는 것이 강점이다. 이번 협력을 통해 모빌린트는 자사의 NPU 기반 온디바이스 AI 기술을 포스코DX의 산업 AI 환경에 최적화하고, PoC를 통해 기술 완성도를 빠르게 검증해 실제 사업화로 연결할 계획이다. 이를 통해 생산성과 운영 효율을 동시에 향상시키는 산업 AI 레퍼런스를 확보한다는 전략이다. 포스코DX는 엣지 AI 기술을 확대 적용해 기존 GPU 기반 AI 시스템을 NPU 중심으로 전환하고, 철강 및 이차전지소재 생산 현장은 물론 물류 등 다양한 산업 영역으로 적용 범위를 넓혀 나갈 예정이다. 모빌린트 관계자는 “포스코DX의 전략적 투자와 협력을 통해 자사의 AI 반도체 기술을 제조 및 산업 현장에 본격적으로 적용할 수 있는 기반을 마련하게 됐다”며 “AI 인프라를 혁신하고, 엣지 환경에서 실행 가능한 AI를 통해 산업 전반의 지능화를 가속화하는 성과를 만들어 나가겠다”고 말했다. 포스코DX 관계자는 “이번 협력으로 인텔리전트 팩토리 구현에 필수적인 LLM 기반의 엣지 AI 기술을 확보할 수 있게 됐다”며 “단순 NPU 공급 관계가 아닌 국내 스타트업과의 성공적인 협업·상생 사례로 발전시켜, 포스코그룹이 제조 AI의 패러다임 전환을 리딩하는 기업으로 자리매김할 수 있도록 하겠다”고 강조했다.

2026.04.02 10:00전화평 기자

모빌린트, 700억원 규모 시리즈 C 투자 유치 완료

국내 AI 반도체 스타트업 모빌린트가 700억원 규모의 시리즈 C 투자 유치를 마무리했다고 1일 밝혔다. 이번 투자에는 프랙시스캐피탈파트너스, 포스코기술투자, 컴퍼니케이파트너스 등 주요 투자자가 참여했다. 이번 투자는 고성능 대비 압도적인 전력 효율을 구현한 NPU 설계 기술과 산업 현장에서 빠르게 검증되고 있는 사업화 성과를 동시에 인정받은 결과다. 특히 데이터센터 의존도를 낮추고 엣지 환경에서 AI를 직접 실행하는 온디바이스 구조에 대한 수요가 확대되면서, 고성능·저전력 기반 AI 반도체 기술력과 실제 적용 가능성이 투자 판단의 핵심 요인으로 작용한 것으로 분석된다. 관련 시장이 빠르게 성장하는 가운데, 모빌린트의 기술 경쟁력 역시 주목받고 있다. 모빌린트는 국내에서 유일하게 엣지 환경에서 LLM(대규모 언어모델) 구동이 가능한 고성능 NPU 기술을 보유하고 있다. 이를 통해 산업 현장에서 요구되는 실시간 AI 처리 역량을 구현하고, 센서·설비 등에서 발생하는 방대한 데이터를 현장에서 즉각 분석·판단·제어할 수 있어 제조 현장의 지능화를 가속화할 수 있다는 평가다. 현재 모빌린트는 자체 설계한 AI 가속기 칩 'ARIES(에리스)'와 AI SoC 'REGULUS(레귤러스)'를 기반으로 엣지 AI 시장을 공략하고 있다. 또한 MLX-A1(Edge AI Box) 등 하드웨어와 소프트웨어를 통합한 풀스택 AI 솔루션을 통해, 제조·리테일·보안 등 다양한 산업에서 별도의 복잡한 구축 과정 없이 즉시 적용 가능한 AI 인프라를 제공하고 있다는 점이 강점이다. 최근에는 글로벌 IT 제조 기업 인탑스와 협력해 AI 반도체 기반 솔루션의 공동 개발 및 양산을 추진하고 있으며, 이를 실제 제조 공정에 적용하는 스마트팩토리 프로젝트도 본격화했다. 일부 프로젝트는 이미 양산 및 사업화 단계에 진입하며, 산업 현장에서의 적용 성과를 구체화하고 있다. 모빌린트는 이번 투자금을 바탕으로 ▲차세대 NPU 아키텍처 고도화 ▲양산 및 공급 체계 확대 ▲글로벌 시장 진출 가속 ▲자사 NPU 중심 생태계 확장에 집중할 계획이다. 이를 통해 AI 반도체 설계부터 소프트웨어, 솔루션까지 아우르는 풀스택 경쟁력을 강화하고 글로벌 시장 내 입지를 빠르게 확대한다는 전략이다.

2026.04.01 17:23전화평 기자

삼성·SK 반도체 슈퍼사이클인데…소재·부품 업계 '시름', 왜?

글로벌 반도체 빅2인 삼성전자, SK하이닉스가 전례 없는 메모리 슈퍼사이클 효과로 올해 역대 최대 수익성을 거둘 것으로 전망되고 있지만 이들과 협력 관계인 국내 소재·부품 협력사들의 시름은 오히려 깊어지고 있어 주목된다. 삼성전자와 SK하이닉스가 연말연초 성과급 잔치를 벌였지만 이들 기업이 반도체 호황에도 웃지 못하는 가장 큰 원인은 최근 진행된 공급 협상에서 지난해에 이어 올해에도 단가가 인하됐기 때문이다. 동시에 중동 전쟁 등 거시경제 불확실성이 높아지고 환율이 상승하는 등 제조 비용에 대한 부담도 커지고 있다. 소재·부품 업계는 국내 반도체 공급망의 '뿌리' 역할을 담당한다. 단기적으로는 개별 기업들의 실적 악화에 그치겠으나, 중장기적으로 국내 소재·부품 업계의 경쟁력 약화로까지 이어질 수 있다는 우려의 목소리가 나온다. 1일 업계에 따르면 삼성전자, SK하이닉스는 올 1분기까지 주요 반도체 소재·부품 기업과의 단가 협상을 완료했다. 통상 삼성전자, SK하이닉스는 연말연시께 소재·부품 기업들과 당해년도 제품 공급에 대한 단가 협상을 진행한다. 각 기업별로 차이는 있지만, 삼성전자·SK하이닉스가 주력으로 양산하는 메모리반도체용 소재·부품은 올해 전반적으로 단가가 인하됐다. 복수의 업계 관계자에 따르면 하락폭은 한 자릿수 수준이다. 지디넷코리아 취재에 따르면 전공정과 후공정 분야 모두 단가 인하가 결정된 기업이 있는 것으로 파악된다. 앞서 삼성전자, SK하이닉스는 지난해 초에도 복수의 협력사와 소재·부품 단가를 10% 이상 인하하기로 한 바 있다. 이를 고려하면 소재·부품 단가 인하폭은 다소 축소됐다는 평가다. 그러나 지난해와 올해 국내 반도체 업계의 환경은 크게 변화했다. 전세계 IT 기업들이 공격적인 AI 인프라 투자를 진행하면서, 메모리반도체 가격은 지난해 상반기부터 고부가 및 범용 제품을 가리지 않고 크게 상승했다. 이에 삼성전자(43조6000억원), SK하이닉스(47조2063억원)는 나란히 지난해 역대 최대 실적을 기록했다. 올해 역시 양사 영업이익이 도합 400조원에 달할 수 있다는 전망이 제기될 정도로 업황이 초호황이다. 반면 소재·부품 단가는 오히려 인하되면서, 국내 기업들은 반도체 슈퍼사이클 속에서도 낙수 효과를 제대로 누리기 힘들어졌다. 설상가상으로 대외적 불확실성은 높아졌다. 지속적인 환율 상승과 더불어, 최근 불거진 이란 전쟁의 여파로 금·은·구리·알루미늄·쿼츠 등 핵심 원자재 가격이 전반적으로 급등했기 때문이다. 물류비 역시 크게 오르고 있다. 익명을 요청한 국내 한 반도체 소재·부품 업계 임원은 "올해 단가 인하율이 전년 대비 줄어들기는 했으나, 최근 물가 및 원자재 비용의 상승 현상을 반영하면 국내 소재·부품의 실질적인 이익은 감소하는 것과 다름없다"며 "제도적으로 완충 장치가 필요한 상황"이라고 어려움을 토로했다. 매년 비용 효율화를 실현해야 하는 삼성전자, SK하이닉스 구매 부서 입장에서는 단가 인하가 핵심 과업에 속한다. 그러나 소재·부품의 수익성 하락 압박이 커질 경우, 중견 협력사들의 연구개발(R&D)에 투입되는 비용이 줄어드는 등 중장기적으로 국내 반도체 생태계가 약화될 가능성도 거론된다. 또 다른 업계 임원은 "원가 압박을 탈피하기 위해서는 결국 제품 개발이나 설비 투자에 필요한 재원을 줄이는 방향으로 나아가게 될 것"이라며 "중국 기업들의 추격이 거센 가운데, 국내 소재·부품 기업들이 경쟁력을 유지하기 위해서는 수요기업과 공급기업 간 균형 잡인 이익 분배가 실현돼야 한다"고 강조했다.

2026.04.01 14:46장경윤 기자

中 비런테크, AI 수요 폭발로 연매출 3배 '껑충'

중국 AI 반도체 설계 기업 상하이 비런 테크놀로지가 자국 내 폭발적인 AI 칩 수요에 힘입어 연간 매출이 3배 이상 급증했다. 블룸버그통신은 비런테크가 공시를 통해 이 같은 실적을 발표하며 중국 토종 AI 반도체 생태계의 가파른 성장세를 입증했다고 현지시간 30일 보도했다. 공시에 따르면 비런테크의 지난해 연매출은 10억3000만 위안(약 1억5000만 달러)으로, 전년도 3억3700만 위안에서 수직 상승했다. 다만, 특정 투자자에게 부여된 상환권 관련 일회성 금융 비용이 반영되면서 순손실은 전년 15억 위안에서 165억 위안(약 24억 달러)으로 크게 늘었다. 비런테크는 지난 1월 홍콩 증시 기업공개(IPO)를 통해 7억1700만 달러의 막대한 자금을 조달하며 화려하게 데뷔했다. 상장 이후 주가는 45%나 상승했다. 이는 미국 정부의 수출 통제로 엔비디아 등 글로벌 경쟁사들이 중국 시장에서 입지가 좁아진 가운데, 중국 정부가 자국 기업 육성에 전폭적으로 나선 결과로 풀이된다. 미래 시장 선점을 위한 기술 투자도 대폭 확대했다. 비런테크의 연구개발(R&D) 지출은 전년 대비 79% 증가한 15억 위안을 기록했다. 비런테크는 "올해 안으로 차세대 AI 칩인 'BR20X'의 상용화 출시에 나설 것"이라며 "AI 컴퓨팅 시장의 역사적 기회를 확실히 잡겠다"고 강조했다.

2026.03.31 15:38전화평 기자

리벨리온, 6400억 투자 유치...기업가치 3.4조

국내 AI 반도체 스타트업 리벨리온이 국민성장펀드 1호로 선정되면서 6400억원 규모의 프리IPO 라운드 투자를 유치했다고 31일 밝혔다. 이번 투자로 리벨리온은 3조4000억원의 기업가치를 달성했다. 이번 프리IPO 라운드는 정부 주도의 정책자금과 미래에셋그룹이 리드한 민간 자본이 결집된 '민관 합동 투자'의 결과다. 정책자금의 경우 국민성장펀드에서 2500억원, 산업은행이 500억원을 각각 투자해 총 3000억원의 재원을 조성했다. 특히 미래에셋그룹은 그룹 차원에서 앵커 투자자로 나서며, 3000억원의 투자를 리드했다. 이러한 시장의 신뢰를 바탕으로 기존 투자자들도 신주인수권을 행사하며 총 6400억원 규모로 이번 투자가 마무리될 예정이다. 이번 투자는 정부가 대한민국 AI 3대 강국 달성을 목표로 추진 중인 '국민성장펀드 1차 메가프로젝트'의 핵심 과제인 'K-엔비디아 육성 프로젝트'의 실질적인 첫 행보다. 정부는 AI 반도체 분야에 필요한 다양한 투자와 지원을 바탕으로 기존 GPU의 전력·비용 한계를 극복할 국산 NPU 생태계를 구축할 계획이다. 그 일환으로 5년간 150조원 규모의 국민성장펀드 중 15조원을 혁신 기업에 대한 지분 투자 방식으로 집행, 리벨리온이 그 첫 사례로 이름을 올리며 국산 NPU 생태계 전반을 견인할 대표주자로 나서게 됐다. 회사는 이번 자금 조달을 바탕으로 인재 채용에 박차를 가할 계획이다. 현재 리벨리온은 300여명의 인력 규모를 갖추고 있다. 박성현 리벨리온 대표는 “지난 5년간 국내 반도체 생태계와 정부의 전폭적인 지지가 있었기에 리벨리온이 여기까지 성장할 수 있었다"며 "AI 추론 시장이 개화하는 '골든타임'을 놓치지 않기 위해 국가와 민간의 모험자본이 적시에 힘을 모아주신 것은 대한민국 반도체 생태계의 역사에 있어 상징적인, 매우 가슴 뛰는 순간”이라고 말했다. 그러면서 “이제는 경쟁력 있는 인재들과 함께 지금보다 2배 이상으로 팀을 키워 한층 더 높은 수준의 인재밀도를 갖추고, 글로벌 AI 인프라 시장의 중심에서 한국 AI 및 반도체 생태계와 함께 그 경쟁력을 직접 증명해보일 것”이라고 강조했다.

2026.03.31 09:25전화평 기자

리벨리온, 차세대 AI칩 '리벨 100'으로 명칭 변경...왜?

국내 대표 AI 반도체 스타트업 리벨리온이 자사의 차세대 신경망처리장치(NPU) 명칭을 기존 '리벨 쿼드(REBEL-Quad)'에서 '리벨 100(REBEL 100)'으로 공식 변경하기로 했다. 칩 이름 하나로 전체 제품 라인업을 부르던 기존 방식에서 벗어나, 고객 편의성을 극대화하기 위한 직관적인 네이밍 개편이다. 30일 반도체 업계에 따르면 리벨리온은 올해 하반기 양산을 시작하는 차세대 칩을 '리벨 100'으로 명칭을 바꿨다. 이러한 명칭 개편의 배경에는 1세대 칩인 '아톰(ATOM)' 출시 당시의 경험이 있다. 전세대 칩인 아톰은 개별 칩과 카드, 서버 등 여러 제품을 하나의 이름으로 묶어 불렀다. 그러다 보니 고객 입장에서 헷갈린다는 피드백이 이어진 것이다. 이에 따라 칩 자체는 '리벨 100'으로 부르며, 이를 탑재한 카드는 '리벨 카드', 서버는 '리벨 서버'로 직관적인 세분화를 단행했다. 신제품 실물이 본격적으로 고객에게 가기 전에 선제적으로 이름 체계를 확립하려는 목적으로 풀이된다. 리벨리온 관계자는 이에 대해 “명칭을 변경하는 것은 맞다”며 “31일 홈페이지에 새로운 명칭이 업데이트될 예정”이라고 말했다. 엔비디아 'H200' 넘었다…실전 연산 성능 우위·3GB 더 큰 메모리 확보 새로운 이름을 단 '리벨 100'은 최근 내부 벤치마크 테스트 결과, 시장의 기준점인 엔비디아의 최신 AI 칩 'H200'과 대등하거나 이를 소폭 상회하는 성능을 기록했다. 세부 성능 비교 지표를 살펴보면 그 차이가 더욱 명확히 드러난다. 세계 최고 권위 반도체 설계 학회인 ISSCC 2026 발표 자료에 따르면 리벨 100의 FP16(16비트 부동소수점) 연산 성능은 1 페타플롭스(PFLOPS)로 H200(0.99 PFLOPS)과 대등한 수준을 기록했다. 나아가 최근 리벨리온 내부에서 대형언어모델(LLM)을 구동해 진행한 실제 추론 벤치마크 테스트에서는 리벨 100이 H200을 핵심 연산 속도 면에서 앞섰다. H200과 같은 속도를 낼 때 전력 효율이 최대 1.7배 더 높았다. 특히 눈에 띄는 것은 메모리 사양이다. 두 칩의 메모리 대역폭은 동일하지만, 가용 메모리 용량에서 리벨 100은 144GB를 확보해 엔비디아 H200(141GB)보다 3GB 더 높은 수치를 보였다. 업계에 따르면 엔비디아 H200은 144GB의 용량 중 3GB를 에러 정정 코드(ECC) 등 보조 오버헤드 영역으로 할당한다. 실제 가용 용량은 141GB인 셈이다. 반면 리벨 100은 144GB를 온전히 사용자에게 제공한다. 독자적인 칩렛(Chiplet) 아키텍처가 이를 가능하게 한 것으로 보인다. 리벨 100은 삼성전자 4나노 파운드리 공정으로 양산되며, 차세대 메모리인 HBM3E를 탑재했다. 세계 최초로 UCIe 다이-투-다이(Die-to-Die) 인터페이스를 적용해 4개의 칩렛을 하나의 칩처럼 구동시키는 아키텍처를 구현해 냈다. 이를 통해 설계 전력(TDP)을 최대 600W로 억제, 동일한 성능을 내는 엔비디아 H200(700W) 대비 전력 소모를 약 15% 이상 줄이는 전력 효율을 달성했다. 리벨리온은 이러한 하드웨어 경쟁력을 바탕으로 올해 시장 안착에 속도를 낼 계획이다. 현재 리벨리온은 xAI, 오픈AI 등 글로벌 빅테크 기업들과 협력을 진행하고 있다.

2026.03.30 16:00전화평 기자

딥엑스, 양산 7개월 만에 8개국·27건 구매 주문 확보

초저전력 피지컬 AI 반도체 기업 딥엑스가 첫 양산 제품 출시 7개월 만에 8개국에서 27건의 구매주문(PO)을 확보했다고 29일 밝혔다. 딥엑스는 지난해 8월 양산을 시작했으며 지난해 5개월 동안 확보된 PO는 2건이었다. 이후 3개월이 채 되지 않아 25건의 추가 주문이 발생하며 주문 증가 속도가 빠르게 증가했다. 확보된 주문은 로보틱스, 스마트팩토리, AI 엣지 서버, 산업용 AI, 지능형 영상보안, AI IT 서비스, 스마트시티 등 7개 주요 피지컬 AI 응용 분야에 걸쳐 발생했다. 딥엑스의 AI 반도체는 현재 미국, 유럽, 중국, 일본, 싱가포르 등 8개 국가의 다양한 피지컬 AI 응용 시장에 공급되고 있다. 빠른 글로벌 양산 확산의 배경에는 사전 글로벌 대규모 PoC(개념검증) 전략이 있다. 반도체 산업에서는 고객사들이 일반적으로 PoC를 시작한 이후 실제 고객사의 응용 제품 양산까지 9~18개월의 시간이 필요하다. 딥엑스는 양산 이전 약 1년여 동안 전 세계 350개 글로벌 고객사와 PoC 및 기술 협업을 진행하며 고객 파이프라인을 구축한 바 있다. 딥엑스 측은 "이러한 전략을 통해 양산 이후 다수 고객이 빠르게 실제 구매 주문으로 전환되는 효과가 나타나고 있다"고 설명했다. 딥엑스는 국내외 대기업과 협력하며 AI반도체 적용을 확대하고 있다. 현대자동차 로보틱스 그룹에서는 딥엑스 AI 반도체가 차세대 서비스 로봇 플랫폼에 적용되며 올해 하반기 양산을 앞두고 있다. 또한 중국 AI 기업 바이두와 공장 자동화 및 산업 AI 분야에서 협력한다. 김녹원 딥엑스 대표는 “딥엑스는 로보틱스 중심의 자율 이동체와 무인 생산 및 AI 제조 중심의 스마트 팩토리라는 두 축의 피지컬 AI 분야에서 글로벌 선도 AI 반도체 기업이 되고자 한다"며 "이를 통해 한국이 제조된 제품을 수출하는 나라에서 무인화된 공장을 수출하는 국가가 되는 데 기여하게 될 것”이라고 말했다.

2026.03.29 14:42전화평 기자

美, 반도체 공급망 위한 '팍스 실리카' 펀드 출범…3700억원 투입

미국 국무부가 자국 내 반도체 공급망 강화를 위한 '팍스 실리카(Pax silica)' 펀드를 출범한다고 26일(현지시간) 발표했다. 미국은 해당 펀드에 2억 5000만 달러(약 3700억원) 대외 원조 자금을 배정할 예정이다. 국무부는 "팍스 실리카는 공급망의 모든 단계에 걸쳐 전략 파트너십과 협력적 조치를 제공한다"며 "이 기금이 평균 1조 달러 이상 자산을 보유한 대규모 국부펀드와 민간 자본을 유치할 것으로 기대한다"고 밝혔다. 앞서 도널드 트럼프 미 행정부는 지난해 12월 반도체 제조용 핵심광물의 공급망 안정화를 위해 팍스 실리카라는 안보 협력체를 출범시킨 바 있다. 초기 한국과 일본, 싱가포르, 영국, 인도, 호주 등 8개국이 연합체에 합류했다. 가입국은 추가되고 있다. 팍스 실리카 참여국은 핵심광물과 반도체 설계·제조·패키징 등에서 공급망 취약성을 공동 점검하고, 이를 해결하기 위한 프로젝트를 추진할 계획이다. 이는 반도체·인공지능(AI) 등 첨단 산업 굴기에 적극 나서는 중국을 견제하기 위한 목적이라는 분석이 나온다. 현재 중국은 반도체 등 다양한 첨단 산업의 핵심 소재인 희토류 공급을 90%가량 장악하고 있다. 제이컵 헬버그 미 국무부 경제성장·에너지·환경 담당 차관은 "팍스 실리카 연합체의 투자 규모는 1조 달러 이상이 될 것"이라며 "일본 소프트뱅크, 싱가포르 테마섹 등이 창립 멤버가 될 것"이라고 말하기도 했다.

2026.03.28 08:00장경윤 기자

칩 보안법, 美하원 외교위 통과...엔비디아·AMD에 '밀수방지' 의무화

미국 하원 외교위원회가 엔비디아, AMD 등 자국 반도체 기업을 대상으로 인공지능(AI) 핵심 기술의 중국 밀수출을 막기 위한 감시 의무를 강화하는 법안을 통과시켰다. 최근 슈퍼마이크로 공동 창업자가 엔비디아 반도체를 중국으로 가공 수출한 혐의로 기소된 사건이 법안 처리에 결정적 도화선이 됐다. 블룸버그 통신은 미 하원 외교위가 '칩 보안법'을 찬성 42표, 반대 0표라는 압도적 표차로 가결해 본회의로 송부했다고 27일(현지시간) 보도했다. 법안 핵심은 엔비디아, AMD 등 AI 반도체 기업들이 자사 제품이 중국으로 유입되지 않도록 검증 체계를 강화하고, 이를 상무부에 보고하도록 의무화하는 것이다. 상무부 장관은 법 시행 후 1년 내에 미승인 칩 이동이나 최종사용자 변경에 대한 보고 규칙을 확정해야 한다. 이번 조치는 도널드 트럼프 행정부가 미국 기술의 글로벌 판매 확대를 위해 일부 규제 완화를 검토하는 상황에서 나와 주목된다. 법안을 주도한 빌 하이징아 의원은 "업계 일각에서 밀수 사실을 인지하지 못했다고 주장하지만, 여전히 해결되지 않은 전용 문제가 있다"며 입법 취지를 설명했다. 다만, 기업들 부담을 고려해 위치 추적 기술이나 원격 작동 중지 기능 탑재를 강제하지는 않는 '가벼운 규제' 방식을 택했다. 기존 보안 비즈니스 관행을 칩 보안 메커니즘으로 인정하는 등 유연성을 뒀다. 상무부 장관은 미국 경쟁력을 해칠 우려가 있을 경우 범정부 협의를 거쳐 규정 일부를 면제할 수 있는 권한도 갖는다. 정치권 압박은 거세지고 있다. 지난주 슈퍼마이크로의 공동 창업자인 월리 리아우가 구속 기소된 직후, 엘리자베스 워런 상원의원 등은 상무부에 중국 및 동남아시아로 향하는 모든 엔비디아 AI 칩과 서버의 수출 라이선스를 일시 중단하고 전면 재검토할 것을 촉구하는 서한을 보내기도 했다. 엔비디아는 이번 사안과 관련해 "수출 규제가 확대됨에 따라 규정 준수 프로그램을 위해 고객 및 정부와 긴밀히 협력하고 있다"는 입장을 밝혔다. 법안이 본회의를 통과해 최종 시행될 경우, AI 가속기 공급망 전반에 걸친 미 당국 감시망은 더욱 촘촘해질 전망이다.

2026.03.28 08:00전화평 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

곽노정 SK하이닉스 "순현금 100조 확보해 장기적 전략 투자 집행"

SK하이닉스가 고대역폭메모리(HBM) 등 AI 메모리 수요에 적기 대응하기 위한 준비에 나선다. 중장기적으로 안정적인 투자를 집행하기 위해 순현금 100조원 이상을 확보하는 것이 목표다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 기존 메모리 수요는 IT 업황에 따라 하락과 상승을 반복하는 '사이클' 현상을 반복해왔다. 그러나 전세계 AI 기업들의 공격적인 인프라 투자에 따라, 고성능 AI 메모리 수요가 구조적인 공급 부족 현상에 직면할 수 있다는 시각이 제기되고 있다. 이에 SK하이닉스도 업황에 따라 설비투자 규모를 축소 및 확대하는 것이 아닌, 중장기적으로 안정적인 투자를 집행할 수 있는 재무건전성 확보에 나선다. 곽 사장은 "고객사 수요에 맞춰 안정적으로 투자를 집행할 수 있는 재무 건전성을 확보하는 것이 반드시 필요하다"며 "이에 회사는 순현금 100조원 이상을 확보하고자 한다. 이를 통해 어떠한 환경에서도 장기적이고 전략적으로 필요한 투자를 집행할 것"고 밝혔다. 이와 관련, SK하이닉스는 최첨단 메모리 생산능력 확대를 위한 투자를 적극 진행하고 있다. 올해 청주 M15X 팹 구축을 완료해 설비를 도입할 계획이며, 용인 대규모 반도체 클러스터 구축도 적극 추진 중이다.

2026.03.25 11:24장경윤 기자

SK하이닉스, 美 ADR 상장 추진…"연내 완료 목표"

SK하이닉스가 올해 미국 증시 상장을 위한 본격적인 준비에 돌입했다. SK하이닉스는 25일 공시에서 미국 증권거래소위원회(SEC)에 미국 주식예탁증서에 관한 상장 공모 관련 등록신청서를 비공개로 제출했다고 밝혔다. SK하이닉스는 "2026년 연내 상장을 목표로 추진하고 있으나, 현재 상장 공모의 규모, 방식, 일정 등 세부사항은 확정되지 않았다"고 밝혔다. 또 "최종 상장 여부는 SEC의 등록신청서 검토, 시장 상황, 수요예측 및 기타 제반 여건 등을 종합 고려하여 결정될 예정"이라며 "향후 구체적인 사항이 확정되는 시점 또는 6개월 이내에 재공시하겠다"고 밝혔다. ADR은 외국 기업이 미국 증시에서 자사 주식을 거래할 수 있도록 발행하는 증권이다. 글로벌 투자자 접근성을 확대하는 수단으로 활용되며, 국내 기업들의 기업가치 제고에도 유리하다는 평가를 받는다.

2026.03.25 08:26장경윤 기자

모빌린트, 스피어에이엑스와 엣지 AI 기반 영상 분석 협력

AI 반도체 기업 모빌린트가 AI 영상 분석 솔루션 기업 스피어에이엑스(SPHERE AX)와 AI 기반 안전·보안 및 스마트 인프라 사업 협력을 위한 전략적 업무협약(MOU)을 체결했다고 24일 밝혔다. 양사는 이번 협약을 통해 각 사가 보유한 기술력과 인프라를 결합해 엣지 AI 기반 영상 분석 솔루션을 공동 개발하고, 산업 현장의 안전 관리와 스마트 인프라 구축을 위한 사업 협력을 추진할 예정이다. 주요 협력 내용은 ▲엣지 AI 기반 지능형 영상 분석 솔루션 공동 개발 ▲산업 안전 및 보안 분야 사업 기회 공동 발굴 ▲기술 검토 및 실증(PoC) 수행 ▲공동 마케팅 및 생태계 연계 협력 등이다. 모빌린트는 자사의 고성능 NPU(신경망처리장치)를 기반으로 엣지 환경에서 고효율 AI 연산이 가능한 하드웨어 플랫폼을 제공하고, 스피어에이엑스는 AI 영상 분석 알고리즘 기술을 접목해 지능형 영상 분석 솔루션을 구현할 예정이다. 이를 통해 제조 현장, 건설 현장, 공공시설 등 다양한 산업 환경에서 실시간 안전 모니터링과 지능형 보안 시스템 구축을 추진한다는 계획이다. 특히 양사는 엣지 AI 기반 영상 분석 기술을 활용해 산업 안전 관리 및 스마트 인프라 분야에서 새로운 사업 기회를 공동 발굴하고, 실제 운영 환경에서의 성능 검증(PoC)을 통해 상용화를 추진할 예정이다. 신동주 모빌린트 대표는 “스피어에이엑스의 AI 영상 분석 기술과 모빌린트의 고성능 NPU 기술이 결합되면 산업 현장에서 요구되는 실시간 AI 분석과 안정적인 시스템 구축이 가능해질 것”이라며 “양사의 협력을 통해 지능형 안전 관리 및 스마트 인프라 분야에서 새로운 AI 솔루션 모델을 만들어 나가겠다”고 말했다. 박윤하 스피어에이엑스 대표는 “스피어에이엑스가 보유한 영상 기반 AI 추론 기술과 모빌린트의 NPU 기반 엣지 AI 하드웨어플랫폼이 결합되면 향후 피지컬 AI 분야에서 큰 시너지를 창출할 수 있을 것으로 기대한다”며 “특히 모빌리티, 드론, 로봇 등 다양한 산업 영역에서 영상 기반 AI 인지 및 판단 기술이 중요한 역할을 하게 될 것으로 보고 있으며, 양사의 기술 협력을 통해 이러한 분야에서 새로운 AI 응용 시장을 개척하고 글로벌 시장을 선도해 나가겠다”고 밝혔다.

2026.03.24 14:59전화평 기자

엔비디아 올라탄 두산, 올해 CCL 투자 2배 이상 확대

두산이 반도체기판 핵심 소재인 동박적층판(CCL) 관련 투자 규모를 전년 대비 2.7배 이상 확대한다. 전례 없는 AI 반도체 호황으로 고성능 CCL이 각광받는 가운데, 엔비디아 등 핵심 고객사 수요에 선제 대응하기 위한 전략으로 풀이된다. 24일 두산 사업보고서에 따르면 이 회사는 CCL 설비투자에 올해 약 2444억원을 투자할 계획이다. 앞서 두산 전자BG(비즈니스그룹)는 지난해 CCL 설비투자에 총 896억원을 집행한 바 있다. 전년 투자 규모(386억원) 대비 132% 증가한 수준이다. 올해에는 예상 투자 규모를 2444억원으로 대폭 확대했다. 전년 대비 172%가량 늘었다. 내후년 예상 투자 규모도 2870억원에 달한다. 계획이 실현되는 경우, CCL 분야에 2년간 5000억원이 넘는 설비투자가 집행될 예정이다. 배경은 CCL 시장의 호황에 있다. CCL이 포함된 두산 전자BG 매출은 지난해 1조 8751억원으로 전년 대비 87% 증가했다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재 중 하나로, 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층해 만든다. 최근 CCL은 AI 반도체를 중심으로 수요가 급증하고 있다. 엔비디아·AMD 등 글로벌 팹리스는 물론, 전세계 CSP(클라우드서비스제공자) 기업들이 자체 AI 가속기 개발에 뛰어들면서 시장 규모가 커지고 있기 때문이다. AI 반도체가 고도화될수록 CCL도 더 뛰어난 고주파·고속·저손실을 갖춘 제품이 필요하다. 두산은 엔비디아의 최신형 AI 가속기 '베라 루빈(Vera Rubin)' 공급망에 주요 CCL 벤더로 진입한 것으로 알려졌다. 아마존·구글 등 고객사 외연도 점차 확장되는 추세다. 덕분에 두산의 국내 증평·김천 CCL 생산라인은 현재 가동률이 100%를 넘어가는 '풀가동' 체제를 유지하고 있다. 두산 관계자는 "이번 CCL 설비투자 계획은 국내외 공장 증설, 설비교체, 유지보수, R&D 등 관련 투자가 반영된 것"이라며 "특히 국내외 사업장 전반에서 투자를 계획 중으로, 사업 환경을 보면서 집행할 예정"이라고 설명했다.

2026.03.24 11:10장경윤 기자

파네시아, 카이스트와 AX 혁신 MOU 체결

반도체 설계전문 기업인 파네시아는 링크반도체 기술을 기반으로 인공지능 전환(AX) 혁신을 실현하기 위해 한국과학기술원(KAIST)과 업무협약(MOU)을 23일 체결했다고 밝혔다. 이번 업무 협약은 산업 AX 혁신을 목적으로 기획된 '4대 과학기술원 AX 전략' 사업의 일환이다. 해당 사업에는 4대 과기원(KAIST·GIST·DGIST·UNIST) 및 유수 기업 15개사가 참여한다. 15개사는 반도체, AI교육, 조선해양·소재, 에너지 등 다양한 분야에서 참여한다. 반도체 부문에서는 파네시아와 리벨리온이 이름을 올렸다. 이날 진행된 단체 협약 체결식에는 4대 과기원 총장 및 협력기업 주요 인사가 자리했으며, 배경훈 과학기술부총리 겸 과학기술정보통신부 장관이 참석해 축사를 전했다. 최근 주목받고 있는 'AI 에이전트'는 목표만 주어지면 계획 수립부터 실행까지 자율적으로 처리하는 대규모 AI 모델 기반의 서비스로, AX의 핵심 기술로 꼽힌다. 이러한 대규모 AI 서비스를 구동하려면 다수의 AI 가속기(GPU·NPU 등)와 CPU, 메모리 등 다양한 장치들이 종합적으로 동작해야 한다. 이 때 장치 간 통신이 대량으로 발생하기 때문에, 각 장치의 성능 못지않게 이들을 원활하게 연결·통합하는 '링크' 기술 또한 효율적인 AX 실현을 위한 핵심 요소로 작용한다. 이번 업무협약을 체결한 파네시아는 '링크' 기술을 개발하는 국내 팹리스 스타트업이다. 컴퓨트익스프레스링크(CXL)·UA링크(UALink) 등 다양한 링크 표준을 지원하는 '링크반도체' 기술을 반도체 설계자산(IP)부터 하드웨어 엔진, 스위치 칩에 이르기까지 순수 국산 기술로 전 범위에 걸쳐 확보하고 있다. 파네시아는 이러한 링크반도체를 활용해 AI 에이전트 등 AX 핵심 기술을 가속하는 솔루션 또한 개발/제공하고 있다. 파네시아 관계자는 "파네시아의 링크반도체 기술이 AI 에이전트 서비스 등 효율적인 AX 실현에 실질적으로 기여할 수 있을 것으로 기대한다"며 "이번 협업을 통해 파네시아의 링크반도체 기술과 KAIST의 AI 기반 반도체 설계 기술 간 교류를 바탕으로 양측의 상호 발전을 도모해 나가고자 한다"고 말했다.

2026.03.23 14:15전화평 기자

한화비전, 암바렐라와 AI 영상보안 기술 개발 협력

한화비전은 글로벌 인공지능(AI) 반도체 기업 암바렐라(Ambarella)와 차세대 영상보안 신기술을 함께 개발한다고 23일 밝혔다. 양사는 이번 전략 파트너십 체결을 시작으로 지속적인 협업으로 AI 기술 경쟁력을 강화할 계획이다. 한화비전과 암바렐라는 지난 20일 서울 중구 더 플라자에서 '기술 협력을 위한 전략 파트너십'을 체결했다. 행사에는 김동선 한화비전 미래비전총괄 부사장과 페르미 왕 암바렐라 대표 등 주요 경영진이 참석했다. 협약에 따라 양사는 차세대 시스템온칩(SoC)을 비롯해 AI 영상보안 기술 개발을 위해 협력한다. 한화비전의 영상처리 기술과 암바렐라의 AI 역량이 결합되면 지금보다 한 단계 높은 AI 영상보안 솔루션을 선보일 수 있다. 지난 2004년 설립된 암바렐라는 보안 카메라와 자율주행차, 로봇, 드론 등에 쓰이는 AI 처리 프로세서를 개발하는 미국 반도체 기업이다. 핵심 아키텍처(설계구조)인 'CV플로'(CVflow)는 AI 영상 분석에서 높은 평가를 받는다. 한화비전은 전략 파트너십을 통해 AI 기술 적용 범위를 영상보안 이외 분야까지 확장해 글로벌 시장에서 입지를 공고히 할 계획이다. 파트너십 체결을 주도한 김동선 부사장은 "AI 반도체 시장에서 성과를 내고 있는 암바렐라와 파트너십을 맺어 기쁘다"며 "지속적 기술 혁신으로 글로벌 시장을 함께 선도하겠다"고 말했다. 왕 대표는 "시스템과 알고리즘에 대한 높은 이해와 전문성을 바탕으로 시장을 이끄는 한화와 협업해 영광"이라며 "파트너십 체결은 향후 암바렐라 성장에 큰 영향을 미칠 것"이라고 밝혔다. 양사 협업은 최근 신설 지주 설립과 인적 분할을 추진 중인 한화그룹 테크 솔루션과 라이프 솔루션 부문 간 시너지 창출에도 영향을 끼칠 수 있다. 한화비전을 비롯한 테크 부문은 라이프 부문 현장에 ▲위생·안전 관리 ▲고객 패턴 분석 등에 AI 영상 분석 기술을 활용하는 방안을 추진 중이다. 부문 간 시너지를 통해 발굴한 신기술은 라이프 부문에 우선 적용하고, 새 비즈니스 모델로 발전시켜 시장에 선보일 계획이다. 한화비전은 "암바렐라와 지속적 협업으로 비전 기술 역량이 고도화 될 것으로 기대되는 만큼, 향후 테크와 라이프 솔루션 간 시너지 창출과 신사업 개발 속도도 보다 빨라질 것"이라고 예상했다. 한화비전은 "양사 협업은 AI를 비롯한 각종 기술 혁신으로 이어질 것"이라며 "앞으로도 다양한 글로벌 기업과 협업해 시장 경쟁력을 높이겠다"고 말했다.

2026.03.23 11:39장경윤 기자

하이퍼엑셀, '생성형 AI 전용 LPU' 승부수… 2세대 팹리스의 역습

국내 AI 반도체 생태계가 1세대 기업들의 칩 양산 경쟁을 넘어 특정 목적에 최적화된 2세대 기업들의 등장으로 진화하고 있다. 그 중심에 선 하이퍼엑셀은 리벨리온, 퓨리오사AI 등 선배 격인 기업들과 출발선부터 궤를 달리한다. 1세대 기업들이 비전 기술에서 시작해 LLM(거대언어모델)으로 영역을 확장해온 것과 달리, 하이퍼엑셀은 설립 초기부터 오직 '생성형 AI'만을 타깃으로 삼았다. 'LLM 하나만큼은 세계 최고 기술로 돌리는 칩을 만든다'는 이들의 전략은 엔비디아의 독주 속에 실질적인 대안을 찾는 글로벌 수요 기업들의 시선을 사로 잡고 있다. [강점: Strength] LPDDR 기반의 압도적 효율…'토큰 생성 지연' 최소화 하이퍼엑셀의 가장 강력한 무기는 스스로 명명한 LPU(Large language model Processing Unit) 아키텍처다. 기존 NPU 칩이 다양한 AI 모델을 두루 섭렵하려다 설계가 복잡해진 것과 달리, 하이퍼엑셀은 트랜스포머 기반의 LLM 추론에만 모든 자원을 집중했다. 하이퍼엑셀과 협력 중인 정무경 디노티시아 대표는 “하이퍼엑셀의 LPU는 사실상 '트랜스포머 액셀러레이터'라고 정의할 수 있다”며 “아직 제품이 정식 출시 전이라 시장의 전체적인 평가를 논하기엔 이르지만, 기술적 지향점만큼은 매우 명확하고 유망하다”고 평했다. 특히 하이퍼엑셀은 고가의 HBM(고대역폭 메모리) 대신 저전력·고효율 메모리인 LPDDR을 활용해 전력 효율과 비용 문제를 동시에 해결했다. LLM 추론의 최대 난제인 메모리 병목 현상을 하드웨어 차원에서 최적화된 스케줄링 기술로 극복한 것이다. 이러한 설계적 묘수는 실제 성능으로 이어진다. 하이퍼엑셀의 LPU는 실시간 AI 서비스의 핵심 지표인 토큰 생성 지연 시간을 최소화하는 데 성공했다. 이는 사용자의 질문에 즉각적으로 반응해야 하는 챗봇이나 실시간 대화형 AI 서비스에서 엔비디아 GPU 대비 경제성과 성능 우위를 점할 수 있는 근거가 된다. [약점: Weakness] 트랜스포머 이후 범용성 리스크와 SW 생태계 한계 반면, 특정 목적에 극도로 최적화된 설계는 양날의 검이 될 수 있다. 현재 AI 시장을 지배하는 것은 트랜스포머 아키텍처지만, 미래에는 이와 전혀 다른 구조의 새로운 AI 모델이 대두될 경우 하이퍼엑셀의 하드웨어 범용성이 심각하게 제약될 수 있다는 우려가 나온다. 'LPU'라는 정체성 자체가 트랜스포머 이후의 변화에 유연하게 대응하기 어려울 수 있다는 점은 투자자와 고객사들이 신중하게 살피는 대목이다. 소프트웨어 스택의 성숙도 역시 극복해야 할 산이다. 1세대 기업들에 비해 상대적으로 짧은 업력으로 인해, 엔비디아의 '쿠다(CUDA)'와 경쟁할 만한 소프트웨어 생태계를 단기간에 구축하는 것은 물리적으로 한계가 있다는 지적이 적지 않다. 개발자들이 하이퍼엑셀의 칩을 엔비디아만큼 편하게 쓸 수 있는 환경을 조성하기까지는 상당한 시간과 자본의 투입이 필수적이다. 하이퍼엑셀 관계자는 “AI 인프라 시장은 안정성과 검증된 레퍼런스를 중시하는 만큼 신규 AI칩 기업에게는 초기 고객 확보가 중요한 단계”라며 “이를 위해 글로벌 CSP 및 데이터센터 고객과 PoC 및 협력을 확대하며 실제 서비스 환경에서 성능 및 비용 효율을 검증하고 있다”고 말했다. [기회: Opportunity] 추론 중심 시장 재편과 50조 규모 'K-엔비디아' 수혜 시장 환경은 하이퍼엑셀에게 호의적이다. AI 산업의 무게추가 '학습'에서 '추론'으로 이동하면서 고효율 가속기 수요가 폭발하고 있기 때문이다. 특히 하이퍼엑셀은 서버를 넘어 엣지(Edge) 시장까지 조준하고 있는 걸로 전해진다. AI 반도체 업계 관계자는 “현재는 LLM 모델이 너무 커서 데이터센터 위주로 돌아가지만, 향후 워크로드의 5~10% 정도는 반드시 엣지로 내려올 수 밖에 없다”며 “LLM 모델을 가속할 수 있는 엣지 반도체 시장은 반드시 열릴 것이며, 하이퍼엑셀의 다변화 어프로치는 매우 유효한 전략”이라고 분석했다. 최근 발표된 정부의 'K-엔비디아 프로젝트' 역시 천군만마다. 향후 5년간 50조원이 투입되는 AI 반도체 산업 육성을 위한 정책 자금은 하이퍼엑셀과 같은 2세대 기업들이 대규모 양산 체계를 갖추는 데 결정적인 역할을 할 것으로 보인다. [위협: Threat] 엔비디아의 추론 시장 진출 선언 가장 실질적인 위협은 글로벌 AI 반도체 최강자인 엔비디아가 본격적으로 추론 시장에 진출한 점이다. 엔비디아는 최근 진행된 연례 개발자 컨퍼런스 'GTC 2026'에서 추론용 가속기 '그록3(Groq)'를 소개했다. 이 그록3는 LPU(Language Processing Unit)라는 명칭을 사용한다. 다만 두 칩은 추론 시장을 공략하고 있지만, 지향점은 다소 상이하다. 그록3는 실시간성과 초저지연을 바탕으로 한 '초고속 서비스'에 집중한다. 반면 하이퍼엑셀의 LPU는 LPDDR을 활용해 저전력 환경에 최적화되어 있다. 그록이 극강의 속도를 지향한다면, 하이퍼엑셀은 상대적으로 단가가 낮고 저전력이면서도 많은 메모리 용량이 필요한 환경에 적합한 구조를 취하고 있다.

2026.03.22 17:38전화평 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

싸기만 한 차는 옛말…AI·로봇 앞세운 中 전기차의 질주

로마인 미라에서 '일리아스' 나왔다…어떻게 이런 일이

한정판 에디션에 '오픈런' 행렬…'붕괴: 스타레일' 환락 팝업스토어 성황

"공개 미룬 앤트로픽 '미토스', 위험성 과장됐다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.