• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'메모리'통합검색 결과 입니다. (377건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

퓨리오사AI "올해 2세대 NPU 2만장 양산 목표...제품 공급 시작"

국내 AI 반도체 스타트업 퓨리오사AI가 2세대 AI칩 '레니게이드(RNGD)'의 상용화 성과를 알리며 본격적인 신경망처리장치(NPU) 생태계 확장에 나섰다. 퓨리오사AI는 2일 서울 강남구 에스제이쿤스트할레에서 '레니게이드 2026 서밋'을 개최했다. 이날 행사에는 레니게이드를 직접 도입하는 주요 AI 모델 기업, 통신사, 클라우드 사업자 등 200여명의 관계자가 참석해 AI 반도체 도입 현황과 확산 방안을 공유했다. "올해 2만장 규모 양산"…HBM 탑재 NPU로 글로벌 시장 정조준 퓨리오사AI는 앞선 지난 1월 1차 양산 물량 4000장을 인도받으며 레니게이드의 양산을 개시했다. 고대역폭메모리(HBM)를 탑재한 NPU가 개발을 넘어 양산 단계까지 이른 것은 세계적으로도 드문 사례다. 특히 백준호 대표는 올해 공격적인 공급 계획을 밝혔다. 백 대표는 "올해 레니게이드 카드를 약 2만장 규모로 양산할 수 있도록 모든 준비를 마쳤으며, 현재 양산이 순조롭게 진행 중"이라며 "이미 다양한 고객사들에게 제품 공급을 시작했다"고 강조했다. 2세대 레니게이드는 극강의 전력 효율을 꾀한 추론용 칩이다. 칩당 열 설계 전력(TDP)을 180W 이하로 획기적으로 낮추면서도 고성능을 달성했다. 부동소수점 연산 기준으로 초당 512테라플롭스(TFLOPS), 정수형(INT4) 기준 1페타플롭스(PFLOPS)의 성능을 제공하며, 4세대 HBM3를 탑재해 메모리 병목 현상을 해소했다. 퓨리오사AI가 공개한 최신 벤치마킹 결과에 따르면 레니게이드는 엔비디아 RTX PRO 6000과 비교해 동일한 전력으로 최대 7.4배 규모의 사용자를 처리할 수 있다. 이를 통해 기존 GPU 대비 인프라 총소유비용(TCO)을 약 40% 절감할 수 있다는 것이 회사 측의 설명이다. "실전 투입 채비 마쳤다"…주요 파트너사 협력 릴레이 이날 행사의 가장 큰 화두는 레니게이드를 실제 인프라와 서비스에 도입하는 주요 파트너사들의 생생한 현장 목소리였다. 파트너사들은 단순한 개념 검증을 넘어 구체적인 상용화 계획을 잇달아 발표했다. 먼저 LG AI연구원은 2022년부터 퓨리오사AI와 교감하며 자사의 LLM(거대언어모델) '엑사원(EXAONE)'을 레니게이드 환경에서 구동하는 작업을 진행해 왔다. 임우형 LG AI연구원 원장은 "단순 모델 서빙을 넘어 다양한 서비스 시나리오에 대해 벤치마크 테스트를 진행했고, 퓨리오사AI의 신속한 소프트웨어 개선 등 우수한 엔지니어링 역량을 확인했다"고 평가했다. LG유플러스는 엑사원 모델과 레니게이드를 결합해 보안과 제어가 가능한 '소버린 AI' 어플라이언스 솔루션을 구축 중이다. 이상엽 LG유플러스 CTO는 "향후 보이스 기반 AI 서비스가 상용화되면 텍스트 대비 토큰 비용이 30배 이상 급증할 수 있다"며 "이를 해결하기 위해 엣지 및 온디바이스가 결합된 하이브리드 AI 인프라 구축에 레니게이드가 효과적"이라고 말했다. 삼성SDS는 올해 7월 삼성 클라우드 플랫폼(SCP)을 통해 국내 CSP(클라우드 서비스 제공사업자) 최초로 NPU 기반 구독형 서비스인 'NPUaaS'를 론칭할 계획이다. 이주평 삼성SDS 상무는 "고객이 1장, 2장, 4장, 8장 단위로 필요한 만큼 구독해 사용할 수 있도록 클라우드 가상화 통합 작업을 성공적으로 진행해 왔다"고 밝혔다. 업스테이지는 약 200만명의 사용자를 보유한 챗봇 서비스와 주력 LLM인 '솔라(Solar)'를 서빙하는 과정에서 발생하는 막대한 GPU 운용 비용 문제를 해결하고자 퓨리오사AI와 손을 잡았다. 김성훈 업스테이지 대표는 "척박한 서비스 생존 경쟁 속에서 경제적인 추론 칩이 절실했다"며 "퓨리오사AI의 지원으로 실질적인 상용 테스트를 속도감 있게 진행하고 있다"고 말했다. 메가존클라우드는 퓨리오사AI 등과 컨소시엄을 구성해 사우디아라비아 아람코 등 중동 진출을 위한 개념검증(PoC)을 주도하고 있다. 이주완 메가존클라우드 회장은 "경남, 전북, 구미 등 주요 지방 산단에 엣지 클라우드 인프라를 구축해 중소·중견 제조사들의 AI 도입을 직접적으로 지원할 것"이라며 "향후 3년 내 500억원, 5년 내 3000억원 규모의 퓨리오사AI 칩 공급을 추진하겠다"는 구체적인 목표도 제시했다. PC용 경량화 모델부터 3세대 칩까지…차세대 로드맵 가속 퓨리오사AI는 시장의 빠른 변화에 대응하기 위해 레니게이드 라인업을 다각화하는 구체적인 로드맵도 제시했다. 백 대표는 단기적으로 "레니게이드의 메모리를 기존 HBM3에서 차세대 메모리로 업그레이드하고, 현재 출시된 서버 어플라이언스 제품군 역시 지속해서 고도화해 신제품을 선보일 것"이라고 말했다. 또한 제품군의 외연 확장도 예고했다. PC나 워크스테이션 환경에 맞춰 칩을 경량화한 '레니게이드 S'의 모든 준비를 마쳐 올해 말에서 내년 초 사이 출시할 예정이다. 나아가 2028년에는 레니게이의 핵심 엔진 아키텍처를 기반으로 메모리와 연산 규모 등 이른바 '배기량'을 대폭 확대한 3세대 AI 칩을 선보이며 글로벌 경쟁력을 이어갈 계획이다. 백 대표는 "오늘 행사는 레니게이드 기반 NPU 생태계 확산을 이끌어갈 국내외 주요 파트너사들과 함께 하는 뜻깊은 자리"라며 "레니게이드 기반의 생태계 확산을 통해 글로벌 AI 인프라 시장에서 한국 반도체의 저력을 직접 증명하겠다"고 포부를 밝혔다.

2026.04.02 16:08전화평 기자

"메모리 쇼크 직격탄"…라즈베리 파이, 주요 제품 가격 줄줄이 인상

전 세계 메모리 가격 상승 여파로 초소형 컴퓨터 '라즈베리 파이' 주요 제품군의 가격이 인상됐다고 더버지 등 외신이 1일(현지시간) 보도했다. 보도에 따르면, 라즈베리 파이 5 16GB의 가격은 100달러(약 15만원) 인상된다. 전체 제품군의 가격 인상 폭은 11.25달러에서 최대 150달러(약 1만7000원~23만원)에 이르는 것으로 전해졌다. 이번 조치는 지속적인 램 부족 사태에 따른 것으로, 라즈베리 파이는 지난해 12월과 올해 2월에 이어 세 번째로 약 10여 개 제품의 가격을 올렸다. 특히 메모리 가격 급등의 영향으로 4GB 이상 램을 탑재한 모델들이 가장 큰 영향을 받은 것으로 분석된다. 한편 회사는 가격 인상 부담을 완화하기 위한 대안도 제시했다. 3GB 램을 탑재한 새로운 라즈베리 파이 4를 83.75달러(약 12만 원)에 출시해 소비자 선택지를 넓혔다. 에벤 업튼 최고경영자(CEO)는 공식 블로그를 통해 “이번 가격 인상은 영구적인 조치가 아니다”라며 “현재는 어려운 상황이지만 향후 시장이 안정되면 가격을 다시 낮출 것”이라고 밝혔다. 이어 “그 전까지는 가격 인상의 영향을 최소화하기 위해 가능한 모든 노력을 이어갈 것”이라고 덧붙였다.

2026.04.02 15:55이정현 미디어연구소

메모리 가격 급등…보안업계 수익성 '빨간불'

메모리 가격 급등세와 중동 상황으로 환율이 급등하면서 보안업계 수익성에 적신호가 켜졌다. 특히 네트워크 보안 기업들의 부담이 큰데, 제품을 팔면 사실상 손해라는 지적도 나왔다. 한국정보보호산업협회(KISIA)는 대응책 마련에 나섰다. 1일 최영철 SGA솔루션즈 대표는 "메모리 가격 및 환율 급등세로 전반적인 하드웨어 가격이 급상승해 보안 기업들의 부담이 커졌다"며 "특히 방화벽, IPS(침입방지시스템) 등 네트워크 보안 제품들은 소프트웨어와 하드웨어가 결합된 '어플라이언스 장비' 형태로 공급되는데, 이런 네트워크 보안 기업들의 부담이 크게 가중되고 있다"고 밝혔다. 어플라이언스 장비를 공공에 공급하려면 조달청에 등록을 해야 하고 단가가 정해진다. 예컨대 1000만 원이라고 하면, 이 1000만 원 안에는 하드웨어 원가도 포함돼 있고, 방화벽이나 IPS 등 소프트웨어 가격도 함께 포함돼 있다. 최 대표는 "이 중 소프트웨어 마진이 보안 기업의 마진이다. 다만 보안 기업들이 하드웨어를 직접 제작해 공급하지 않기 때문에 비용을 지불하고 하드웨어를 구입하는데 하드웨어 가격이 급등하면 보안 기업의 마진이 그만큼 줄어든다"고 설명했다. 실제로 메모리 가격은 D램익스체인지 등에 따르면 2월 기준 보안 장치에 들어가는 더블데이터레이트(DDR)4 8Gb 가격은 13달러로, 전년 동기 대비 10배 이상 급등했다. 인공지능(AI) 수요가 크게 늘어난 영향이다. 또 보안 제품을 구성하는 하드웨어 원재료는 수입하는 경우가 많은데, 원·달러 환율의 급등세도 부담을 키우는 요인으로 작용한다. 1일 기준 서울외환시장에서 원·달러 환율은 종전 기대감에 30원 내렸음에도 1501.3원을 기록하며 1500원대를 유지하고 있다. 최 대표는 "최근 보안업계에서 하드웨어 가격이 3~4배 급등했다는 얘기가 심심치 않게 들린다"며 "조달청에 고정된 가격을 등록해 놓은 상태에서 이처럼 하드웨어 가격이 급등해버리면 원가 폭이 그만큼 커져 사실상 팔아도 수익이 안 나고 오히려 손해를 볼 수 있는 상황"이라고 진단했다. 그는 "민간 기업에 공급하는 경우에도 고객사에 가격 인상을 요구할 수는 있지만, 이 과정도 쉽지 않다"면서 "소프트웨어 보안 기업이라고 하더라도 소프트웨어를 매니징하는 서버가 반드시 들어가는데 이 경우 영향권에 들어간다. 메모리 가격 급등에 따른 부담이 보안업계 전반에 확산하고 있다"고 밝혔다. 최 대표는 "단기간 가격이 오른 것이라면 감당할 수 있는 수준이지만, 이같은 급등세가 올해 혹은 내년까지 지속될 거라는 전망이 나오고 있는 상황에서 보안 기업들의 부담이 만만치 않다"며 "원가 부담에 따라 조달청에 가격을 올려잡는 것 역시 원가분석을 명확히 해야 하고, 원가에 대한 정보 자체가 기업마다 기밀에 해달할 수 있기 때문에 논의가 지체되고 있다"고 설명했다. 실제 IPS, 차세대 방화벽 제품을 주력으로 공급하고 있는 윈스테크넷은 리스크가 가시화되고 있다는 입장이다. 윈스테크넷 관계자는 "메모리 가격이 상승하다 보니 원가 리스크가 발생하고 있다"며 "아직까지 매출에 직접적으로 반영되고 있지 않는 상황이지만, 가격 상승세에 대한 영업 전략을 세우기 위한 논의에 착수했다"고 말했다. KISIA는 협회 차원에서 보안 기업들의 부담을 낮추기 위한 논의에 착수했다. 최 대표는 "보안 기업들의 부담이 과중되고 있으니, 조정을 위한 논의가 필요하고, 협회 차원에서 준비 단계에 있다"며 "우선 협의체를 구성해서 대응에 나설 계획"이라고 밝혔다.

2026.04.01 22:40김기찬 기자

삼성·SK 반도체 슈퍼사이클인데…소재·부품 업계 '시름', 왜?

글로벌 반도체 빅2인 삼성전자, SK하이닉스가 전례 없는 메모리 슈퍼사이클 효과로 올해 역대 최대 수익성을 거둘 것으로 전망되고 있지만 이들과 협력 관계인 국내 소재·부품 협력사들의 시름은 오히려 깊어지고 있어 주목된다. 삼성전자와 SK하이닉스가 연말연초 성과급 잔치를 벌였지만 이들 기업이 반도체 호황에도 웃지 못하는 가장 큰 원인은 최근 진행된 공급 협상에서 지난해에 이어 올해에도 단가가 인하됐기 때문이다. 동시에 중동 전쟁 등 거시경제 불확실성이 높아지고 환율이 상승하는 등 제조 비용에 대한 부담도 커지고 있다. 소재·부품 업계는 국내 반도체 공급망의 '뿌리' 역할을 담당한다. 단기적으로는 개별 기업들의 실적 악화에 그치겠으나, 중장기적으로 국내 소재·부품 업계의 경쟁력 약화로까지 이어질 수 있다는 우려의 목소리가 나온다. 1일 업계에 따르면 삼성전자, SK하이닉스는 올 1분기까지 주요 반도체 소재·부품 기업과의 단가 협상을 완료했다. 통상 삼성전자, SK하이닉스는 연말연시께 소재·부품 기업들과 당해년도 제품 공급에 대한 단가 협상을 진행한다. 각 기업별로 차이는 있지만, 삼성전자·SK하이닉스가 주력으로 양산하는 메모리반도체용 소재·부품은 올해 전반적으로 단가가 인하됐다. 복수의 업계 관계자에 따르면 하락폭은 한 자릿수 수준이다. 지디넷코리아 취재에 따르면 전공정과 후공정 분야 모두 단가 인하가 결정된 기업이 있는 것으로 파악된다. 앞서 삼성전자, SK하이닉스는 지난해 초에도 복수의 협력사와 소재·부품 단가를 10% 이상 인하하기로 한 바 있다. 이를 고려하면 소재·부품 단가 인하폭은 다소 축소됐다는 평가다. 그러나 지난해와 올해 국내 반도체 업계의 환경은 크게 변화했다. 전세계 IT 기업들이 공격적인 AI 인프라 투자를 진행하면서, 메모리반도체 가격은 지난해 상반기부터 고부가 및 범용 제품을 가리지 않고 크게 상승했다. 이에 삼성전자(43조6000억원), SK하이닉스(47조2063억원)는 나란히 지난해 역대 최대 실적을 기록했다. 올해 역시 양사 영업이익이 도합 400조원에 달할 수 있다는 전망이 제기될 정도로 업황이 초호황이다. 반면 소재·부품 단가는 오히려 인하되면서, 국내 기업들은 반도체 슈퍼사이클 속에서도 낙수 효과를 제대로 누리기 힘들어졌다. 설상가상으로 대외적 불확실성은 높아졌다. 지속적인 환율 상승과 더불어, 최근 불거진 이란 전쟁의 여파로 금·은·구리·알루미늄·쿼츠 등 핵심 원자재 가격이 전반적으로 급등했기 때문이다. 물류비 역시 크게 오르고 있다. 익명을 요청한 국내 한 반도체 소재·부품 업계 임원은 "올해 단가 인하율이 전년 대비 줄어들기는 했으나, 최근 물가 및 원자재 비용의 상승 현상을 반영하면 국내 소재·부품의 실질적인 이익은 감소하는 것과 다름없다"며 "제도적으로 완충 장치가 필요한 상황"이라고 어려움을 토로했다. 매년 비용 효율화를 실현해야 하는 삼성전자, SK하이닉스 구매 부서 입장에서는 단가 인하가 핵심 과업에 속한다. 그러나 소재·부품의 수익성 하락 압박이 커질 경우, 중견 협력사들의 연구개발(R&D)에 투입되는 비용이 줄어드는 등 중장기적으로 국내 반도체 생태계가 약화될 가능성도 거론된다. 또 다른 업계 임원은 "원가 압박을 탈피하기 위해서는 결국 제품 개발이나 설비 투자에 필요한 재원을 줄이는 방향으로 나아가게 될 것"이라며 "중국 기업들의 추격이 거센 가운데, 국내 소재·부품 기업들이 경쟁력을 유지하기 위해서는 수요기업과 공급기업 간 균형 잡인 이익 분배가 실현돼야 한다"고 강조했다.

2026.04.01 14:46장경윤 기자

소니, 日 시장서 CF익스프레스·SD 카드 수주 중단

일본 소니가 CF익스프레스 카드와 SD 메모리카드 등 낸드 플래시메모리 기반 저장매체 수주를 중단한다고 27일 밝혔다. 소니는 27일 공지사항에서 "CF익스프레스 카드, SD 메모리카드는 세계적인 메모리 반도체 부족 영향으로 수요에 대한 공급이 불가능한 상황이 당분간 이어질 것으로 예상된다"고 설명했다. 이어 "오는 3월 27일 이후 별도 계약한 점포에서 들어온 주문과 소니스토어를 통한 일반 소비자의 주문 접수를 일시 중단한다"고 밝혔다. 주문 정지 대상이 된 제품은 1.9TB/960GB/480GB/240GB 용량 CF익스프레스 타입A, 480GB/240GB 용량 CF익스프레스 타입B 메모리카드 등이다. CF익스프레스 카드는 4K 등 고해상도·고용량 영상 기록이 가능해 영상 제작자의 수요가 많은 제품이다. 미러리스 카메라 등에 주로 쓰이는 SDXC/SDHC 메모리카드도 512GB/256GB/128GB/64GB 등 거의 모든 용량 제품의 수주가 중단됐다. 소니는 "수주 재개 시점은 공급 상황을 따라 판단한 뒤 별도 제품정보 페이지에서 안내할 예정"이라고 설명했다. 이 조치가 일본 시장에만 적용되는지, 혹은 국내 포함 모든 국가에 적용될 지는 미지수다. 지난 2월 낸드 플래시메모리용 컨트롤러를 공급하는 대만 팹리스, 파이슨의 푸아케인셍 CEO는 "낸드 플래시메모리 공급 부족으로 올해 일반 소비자용 제품 제조사가 타격을 받을 것"이라고 전망하기도 했다. 주요 메모리카드 제조사 중 낸드 플래시메모리 공급 문제를 들어 제품 수주를 중단한 회사는 소니가 처음이다. 공급 상황이 악화된다면 향후 다른 회사도 비슷한 조치를 취할 가능성이 제기된다.

2026.03.29 09:31권봉석 기자

터보퀀트, AI 메모리 문제 해결할까

최근 공개된 터보퀀트가 인공지능(AI) 메모리 문제를 해결할 지에 관심이 쏠렸다. KAIST는 전기및전자공학부 한인수 교수가 참여한 구글 리서치, 딥마인드, 뉴욕대 공동 연구팀이 인공지능(AI) 모델의 고질적인 한계로 꼽혀온 메모리 과부하 문제를 해결할 차세대 양자화 알고리즘 '터보퀀트(TurboQuant)'를 공개했다고 27일 밝혔다. AI 모델은 입력 데이터를 벡터 형태로 바꾼 뒤, 벡터 간 유사도를 계산해 작동한다. 이 과정에서 고정밀 데이터를 사용하기 때문에 막대한 메모리 자원이 필요한 점이 주요 한계로 지적돼 왔다. 터보퀀트는 이러한 고정밀 데이터를 더 적은 비트로 압축해 표현하는 '양자화' 기술을 활용한다. 소수점 데이터를 정수로 근사하는 방식으로, 핵심 정보는 유지하면서도 저장 용량과 연산 부담을 크게 줄이는 기술이다. 이번 연구에서 터보퀀트는 AI 모델 내부 정보를 효율적으로 압축해 정확도 저하를 거의 없이 최대 6배까지 메모리를 절감했다. 특히 AI 추론 과정에서 가장 큰 장애물로 꼽히는 메모리 병목 문제를 효과적으로 해소한 점이 핵심 성과다. 터보퀀트의 핵심은 두 단계로 나누어진 양자화 구조다. 먼저 1단계에서는 입력 데이터를 무작위로 회전(Random Rotation)시킨 뒤 각 요소를 개별적으로 양자화한다. 이 과정은 데이터 내 극단값(outlier)을 줄여 압축 효율을 높이는 역할을 한다. 해당 방식은 한인수 교수가 참여한 기존 연구 '폴라퀀트(PolarQuant)'에서도 활용된 바 있다. 이어 2단계에서는 1단계에서 발생한 오차를 다시 한 번 양자화한다. 이때 적용되는 QJL(Quantized Johnson-Lindenstrauss) 기법은 데이터를 {-1, 1} 값만으로 표현하는 초경량(1비트) 방식으로, 정보 손실을 최소화하면서도 연산 효율을 극대화할 수 있다. 이러한 기술적 발전은 반도체 메모리 시장에도 중장기적인 활력을 불어넣을 것으로 기대된다. 한인수 교수는 “AI 모델의 성능이 커질수록 메모리 사용량이 급격히 증가하는 것이 가장 큰 한계로 지적되어 왔다”며, “이번 연구는 이러한 병목을 효과적으로 줄이면서도 정확도를 유지할 수 있는 새로운 방향을 제시했다”고 설명했다. 한 교수는 또 “앞으로 대규모 AI 모델을 보다 효율적으로 운영할 수 있는 핵심 기반 기술로 활용될 것으로 기대한다”고 덧붙였다.

2026.03.27 17:20박희범 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

삼성전자, SK하이닉스의 고대역폭메모리(HBM) 출하량이 올해에도 큰 폭의 성장을 이어갈 전망이다. 삼성전자의 경우 엔비디아와 브로드컴, AMD 등 고객사 수요로 출하량이 100억Gb(기가비트)를 넘길 것으로 관측된다. SK하이닉스는 최근 엔비디아향 HBM4에서 성능 논란을 겪었지만, 적정한 성능 선에서 제품을 공급하는 데 무리가 없을 것이라는 평가가 중론이다. 결과적으로 양사 모두 연초 설정했던 HBM 출하량 계획에서 큰 변동은 없을 것으로 보인다. 27일 업계에 따르면 삼성전자, SK하이닉스의 올해 HBM 출하량은 용량 기준 도합 300억Gb에 달할 전망이다. 삼성전자, HBM 출하량 100Gb 돌파 전망…HBM4 성과 두각 삼성전자는 올해 HBM 생산량을 지난해 대비 3배 이상 확대하겠다는 목표를 세우고 있다. 황상준 삼성전자 메모리개발담당 부사장은 지난 16일(현지시간) 미국에서 열린 'GTC 2026'에서 "HBM 생산을 빠르게 확대하고 있다. 올해는 지난해 대비 3배 이상 수준으로 늘릴 계획"이라고 밝힌 바 있다. 삼성전자의 지난해 총 HBM 출하량은 40억Gb 내외로 추산된다. 이를 고려하면 올해 출하량 목표치는 110억Gb 내외에 달할 전망이다. 실제로 삼성전자는 지난해 말께 올해 HBM 사업 전략을 구상하는 단계에서 이 같은 성장세를 자신한 것으로 전해진다. 당시 차세대 제품인 HBM4가 엔비디아로부터 긍정적인 피드백을 받았고, AMD와 브로드컴 등 타 고객사와의 공급 협의도 사실상 마무리 단계에 접어들어서다. 브로드컴은 구글, 오픈AI 등 빅테크의 AI 반도체를 위탁 생산하고 있다. 특히 엔비디아는 삼성전자 HBM4의 가장 큰 고객사가 될 전망이다. 삼성전자는 HBM의 코어 다이로 1c(6세대 10나노급) D램을, 컨트롤러 역할의 베이스 다이는 자사 파운드리 4나노미터(nm) 공정을 채택했다. 두 다이 모두 경쟁사 대비 공정이 고도화됐다. 이를 토대로 삼성전자는 엔비디아가 높인 HBM4 성능 기준을 가장 먼저 충족했다는 평가를 받았다. 당초 국제반도체표준화기구(JEDEC)가 정한 HBM4의 성능은 8Gbps급이었으나, 엔비디아는 이를 11.7Gbps 수준까지 요구했다. HBM3E 제품에서는 브로드컴이 가장 큰 고객사로 꼽힌다. 구글은 자체 제작한 AI 반도체 TPU(텐서처리장치)에 HBM을 탑재하고 있으며, 올해는 HBM3E 기반의 v7p 버전의 물량을 크게 확대할 것으로 알려졌다. 반대로 삼성전자의 HBM 출하량이 더 늘어날 가능성은 높지 않다는 평가다. 올해 말까지 삼성전자가 확보 가능한 1c D램의 생산능력은 월 13만장 수준이다. 이 중 대부분이 HBM에 할당된 상태로, 추가적인 생산능력 확보가 어려운 상황인 것으로 관측된다. SK하이닉스, 성능 논란 속에서도 당초 출하량 계획 변동 無 SK하이닉스의 올해 HBM 출하량은 전년(120억Gb 수준) 대비 60%가량 증가한 200억Gb 내외에 달할 전망이다. 이 중 3분의 2가량이 엔비디아에 할당된 것으로 파악된다. 상반기에는 HBM3E를 주력으로 공급하고, 하반기부터 HBM4 공급량이 확대될 예정이다. 최근 SK하이닉스는 엔비디아향 HBM4 공급에 차질이 생길 수 있다는 우려에 휩싸인 바 있다. 엔비디아가 상향 조정한 HBM4 성능을 만족시키기 어렵다는 이유에서다. SK하이닉스의 HBM4는 코어다이로 1b(5세대 10나노급) D램을, 베이스다이로 TSMC의 12나노 공정을 채택했다. 삼성전자 대비 레거시(성숙) 공정에 해당한다. 실제로 SK하이닉스의 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 난항을 겪었다. 코어 다이 최상부층까지 전력이 제대로 도달되지 않는 문제가 가장 큰 요인으로 지목된다. 이에 SK하이닉스는 일부 회로를 수정하는 방안으로 개선 작업을 진행해 왔다. 다만 SK하이닉스가 당초 계획한 엔비디아향 HBM 공급량에 변동이 생길 가능성은 극히 적은 것으로 관측된다. 엔비디아가 HBM4의 성능을 최대 11.7Gbps까지 요구하기는 했으나, 10Gbps 등 하위 성능의 제품도 동시에 수급하기 때문이다. 최상위 제품만 도입하는 경우 최첨단 최신 AI 칩인 '베라 루빈'을 충분히 양산하지 못할 수 있어, 이 같은 전략을 짠 것으로 풀이된다. 곽노정 SK하이닉스 사장도 최근 열린 SK하이닉스 정기 주주총회 현장에서 "고객사와의 협의로 약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다"고 밝힌 바 있다. 반도체 업계 관계자는 "HBM4가 상용화 시점에 접어들면서 다양한 성능, 고객사 관련 이슈들이 떠오르고 있으나, 삼성전자와 SK하이닉스 모두 당초 계획했던 HBM 출하량 변동에서 큰 조정은 없는 상황"이라며 "HBM 총 공급능력이 수요를 크게 밑도는 수준이라, 결국 양사 제품이 무난하게 잘 팔릴 것이라는 게 중론"이라고 설명했다.

2026.03.27 11:07장경윤 기자

[안광섭의 AI 진테제] 메모리 주식 흔든 구글 '터보퀀트'

지난 수요일 미국 증시에서 흥미로운 장면이 연출됐다. 나스닥 100이 상승하는 와중에 메모리 반도체 주식만 역행했다. 샌디스크 -5.7%, 웨스턴 디지털 -4.7%, 씨게이트 -4%, 마이크론 -3%. 방아쇠를 당긴 건 구글 리서치가 공개한 터보퀀트(TurboQuant)라는 압축 알고리즘이다. 'AI가 메모리를 덜 쓰게 해주는 기술'이라는 헤드라인만 보면 메모리 업체들에게 악재처럼 보인다. 그런데 이 기술이 실제로 줄이는 것은 GPU 위의 임시 기억 공간이지, 서버에 꽂히는 HBM(High Bandwidth Memory)이나 DRAM 모듈이 아니다. 시장이 읽은 신호와 기술이 말하는 신호 사이에 간극이 있고, 그 간극 너머에는 AI 하드웨어 전체에 걸친 더 큰 질문이 놓여 있다. 터보퀀트가 실제로 하는 일 AI가 대화를 이어갈 때, 앞에서 한 말을 기억하려면 KV 캐시(Key-Value Cache)라는 임시 메모리에 정보를 저장해야 한다. 대화가 길어질수록 이 메모리는 기하급수적으로 늘어나고, AI 서비스 비용을 끌어올리는 주범 중 하나다. '터보퀀트'는 이 임시 기억을 최대한 작게 압축하면서도 내용을 거의 그대로 유지하는 알고리즘이다. 추가 학습이나 파인튜닝(fine-tuning, 특정 분야 추가 학습)이 필요 없다. 핵심은 2단계 구조다. 1단계인 폴라퀀트(PolarQuant)는 데이터에 무작위 회전을 적용해 값들의 분포를 균일하게 만든다. 크기가 제각각인 짐을 한번 뒤섞어 비슷한 규격으로 정리하는 것과 비슷하다. 이렇게 하면 동일한 상자에 효율적으로 담을 수 있다. 2단계인 QJL(양자화된 존슨-린덴스트라우스)은 1차 압축 이후 남은 잔여 오차를 단 1비트로 한 번 더 보정한다. 논문에 따르면, 이 2단계 접근법 덕분에 3.5비트에서 원래 모델과 사실상 동일한 품질을 유지하고, 10만 4천 토큰 길이의 테스트에서도 100% 정확도를 보였다. 압축률은 4.5배 이상이다. 다만 짚어야 할 대목이 있다. 구글 블로그에서 강조한 '최대 8배 속도 향상'은 어텐션 로짓 연산이라는 특정 단계에서의 수치다. 전체 추론 처리량의 8배가 아니다. '6배 메모리 축소'도 블로그와 논문 사이에 미세한 차이가 있다. 논문은 좀 더 보수적으로 '4.5배 이상'이라고 표현한다. 수치가 발표 채널에 따라 다르게 포장되는 것은 기술 뉴스를 읽을 때 늘 주의해야 할 부분이다. 시장의 논리, 그리고 그 한계 시장의 추론은 단순했다. AI가 메모리를 6분의 1만 써도 된다면 메모리 수요가 줄어드는 것 아닌가? 올해 메모리 주식들이 워낙 많이 올랐기 때문에 차익 실현의 구실이 필요했던 측면도 있다. 그러나 한 발짝 뒤로 물러서면, KV 캐시와 HBM은 같은 '메모리'라는 단어를 쓰지만 작동하는 층위가 다르다는 점이 보인다. KV 캐시는 LLM(대규모 언어 모델)이 대화 중 이전 계산을 저장하는 GPU 위의 임시 공간이다. 반면 HBM 수요는 모델의 훈련과 추론 전체에 걸친 대역폭 병목에서 발생한다. 트렌드포스(TrendForce)에 따르면 2026년 HBM 수요는 전년 대비 70% 이상 증가할 전망이고, 뱅크오브아메리카(BofA)는 올해 HBM 시장 규모를 약 546억 달러(전년 대비 58% 성장)로 추정한다. SK하이닉스, 삼성, 마이크론 모두 2026년 HBM 물량은 사실상 완판 상태라고 밝히고 있다. 비유하자면 이렇다. '터보퀀트'는 사무실 책상 위의 메모 정리법을 개선한 것이고, HBM 수요는 건물 자체에 더 많은 사무실이 필요한 것이다. 메모 정리가 잘 된다고 건물 수요가 줄지는 않는다. 오히려 한 사무실에서 더 많은 일을 처리할 수 있으니 건물을 더 짓고 싶어질 수도 있다. 건설에서 최적화로, 국면 전환 신호 필자가 '터보퀀트' 자체보다 더 흥미롭게 보는 것은 이 뉴스에 시장이 반응한 방식이다. 메모리 주식만의 이야기가 아니기 때문이다. 좀 더 넓게 보면 지금 AI 하드웨어 스택 전체가 같은 질문을 받고 있다. 엔비디아는 2026 회계연도에 매출 2159억 달러, 순이익률 약 56%라는 전례 없는 실적을 기록했지만, 주가는 지난해 10월 고점 대비 약 15% 낮은 수준에서 움직이고 있다. 마이크론도 이틀 전 역대 최고 분기 실적(매출 238억6000만 달러, 매출총이익률 74.4%)을 발표했지만, 시장의 관심은 "250억 달러 이상의 설비투자를 감당할 수 있느냐"에 쏠렸다. GPU도 빠지고, DRAM도 빠지고, NAND 스토리지도 빠지고 있다. 시장이 묻고 있는 진짜 질문은 "이 속도의 인프라 투자가 지속 가능한가?"다. 마이크로소프트, 메타, 알파벳, 아마존 4사의 2026년 설비투자 가이던스 합산이 약 6500억 달러에 달한다. 인류 역사에서 단일 목적에 투입된 민간 자본 중 가장 큰 규모에 속한다. GTM(Go-To-Market) 전략 관점에서 보면, 모든 기술 인프라 사이클에는 '건설 국면'과 '최적화 국면'이 있다. 건설 국면에서는 "일단 깔아라"가 전략이다. 최적화 국면에서는 "깔아놓은 것의 효율을 어떻게 극대화할 것인가"가 전략이 된다. 터보퀀트, 엔비디아가 같은 'ICLR 2026(International Conference on Learning Representations, 4월 23일 ~ 4월 27일)'에서 발표할 KVTC(KV Cache Transform Coding, 최대 20배 압축), 하이퍼스케일러들의 자체 칩 개발, 이 모든 움직임은 최적화 국면의 신호다. 그렇다고 이것이 약세 신호인가. 필자는 아니라고 본다. 최적화 국면은 성장의 끝이 아니라 성장이 성숙해지는 과정이다. 다만 시장이 가격에 반영하는 방식이 달라질 뿐이다. 건설 국면에서는 "다 사라"였다면, 최적화 국면에서는 누가 이 효율화의 수혜자이고 누가 비용을 부담하는가를 가려야 한다. 핵심은 시간 축 구분 '터보퀀트' 같은 소프트웨어 최적화가 하드웨어 수요 증가 속도에 영향을 줄 수 있는 것은 2027년 이후의 이야기다. 2026년의 메모리 공급 부족은 물리적인 팹 건설과 수율의 문제이고, 알고리즘으로 해결되는 영역이 아니다. 시장이 이 두 가지 시간 축을 혼동할 때, 그것이 곧 기회이기도 하고 리스크이기도 하다. 터보퀀트 원본 논문(https://arxiv.org/abs/2504.19874)은 2025년 4월 28일에 공개됐다. 약 1년 전 제안된 기술이 학회 발표를 앞두고 재조명되면서 시장을 흔든 것이다. 기술 자체는 새롭지 않았지만, 시장이 읽는 타이밍은 달랐다. 정리하면 이렇다. 터보퀀트는 AI 추론 효율을 한 단계 끌어올리는 의미 있는 기술이다. 그러나 메모리 주식이 빠진 이유는 이 기술 하나가 아니라, AI 하드웨어 스택 전반에 걸친 '건설에서 최적화로'의 국면 전환 신호를 시장이 읽기 시작했기 때문이다. 기술 층위를 이해하고 시간 축을 구분할 수 있다면, 변동성 속에서 더 나은 판단을 내릴 수 있다. 지금 필요한 것은 공포도 낙관도 아닌, 어떤 메모리가 줄고 어떤 메모리가 느는지를 가려내는 눈이다. ■ 필자 안광섭은... 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA 기술경영전문대 석사과정을 졸업했다. 저술한 책으로 '생각을 맡기는 사람들: 호모 브레인리스'가 있다.

2026.03.26 19:20안광섭 컬럼니스트

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

곽노정 SK하이닉스 "순현금 100조 확보해 장기적 전략 투자 집행"

SK하이닉스가 고대역폭메모리(HBM) 등 AI 메모리 수요에 적기 대응하기 위한 준비에 나선다. 중장기적으로 안정적인 투자를 집행하기 위해 순현금 100조원 이상을 확보하는 것이 목표다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 기존 메모리 수요는 IT 업황에 따라 하락과 상승을 반복하는 '사이클' 현상을 반복해왔다. 그러나 전세계 AI 기업들의 공격적인 인프라 투자에 따라, 고성능 AI 메모리 수요가 구조적인 공급 부족 현상에 직면할 수 있다는 시각이 제기되고 있다. 이에 SK하이닉스도 업황에 따라 설비투자 규모를 축소 및 확대하는 것이 아닌, 중장기적으로 안정적인 투자를 집행할 수 있는 재무건전성 확보에 나선다. 곽 사장은 "고객사 수요에 맞춰 안정적으로 투자를 집행할 수 있는 재무 건전성을 확보하는 것이 반드시 필요하다"며 "이에 회사는 순현금 100조원 이상을 확보하고자 한다. 이를 통해 어떠한 환경에서도 장기적이고 전략적으로 필요한 투자를 집행할 것"고 밝혔다. 이와 관련, SK하이닉스는 최첨단 메모리 생산능력 확대를 위한 투자를 적극 진행하고 있다. 올해 청주 M15X 팹 구축을 완료해 설비를 도입할 계획이며, 용인 대규모 반도체 클러스터 구축도 적극 추진 중이다.

2026.03.25 11:24장경윤 기자

삼성전자·SK하이닉스 "Arm과 함께 AGI CPU 생태계 구축"

[샌프란시스코(미국)=권봉석 기자] 삼성전자와 SK하이닉스 등 국내 메모리 반도체 선두기업이 24일(현지시간) Arm과 협력해 AI 생태계 확대를 지원하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 완제품 CPU 첫 제품인 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스'를 활용해 설계된 첫 완제품 CPU다. 메모리는 DDR5-8800까지 지원하며 메모리 대역폭은 코어당 최대 6GB/s로 지연시간을 최소화했다. 이날 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 "AGI CPU는 주요 메모리 제조사와 협업 없이 구현이 불가능했다"고 설명했다. 전영현 삼성전자 DS부문장(부회장)은 영상 메시지에서 "AI 워크로드가 증가함에 따라, 성능 향상은 로직, 메모리, 첨단 패키징 기술 전반에 걸친 긴밀한 공동 최적화에 더욱 크게 좌우된다"고 밝혔다. 이어 "Arm AGI CPU와 같은 목적에 맞게 설계된 AI 컴퓨팅 플랫폼은 실리콘 설계, 메모리 통합, 첨단 공정 기술을 활용한 제조 혁신 전반에서 보다 긴밀한 협력을 가능하게 한다. 이는 AI 에코시스템에 있어 중요한 이정표가 될 것"이라고 덧붙였다. 곽노정 SK하이닉스 사장은 "AI 데이터센터가 발전함에 따라, AI 워크로드에 최적화된 플랫폼에는 최신 애플리케이션에 필요한 용량과 대역폭을 제공하는 첨단 메모리 기술이 필수적"이라고 밝혔다. 이어 "Arm AGI CPU를 통한 목적에 맞게 설계된 AI 컴퓨팅의 도입은 에코시스템에 있어 중요한 이정표가 될 것이다. 앞으로도 차세대 AI 인프라 발전을 위한 Arm과 파트너십이 지속되길 기대한다"고 말했다.

2026.03.25 09:03권봉석 기자

삼성전자 노사 교섭 재개…총파업 위기 해결 실마리 찾나

최근 깊어진 삼성전자 노사갈등이 잠시 소강 상태에 접어들 전망이다. 삼성전자노동조합 공동투쟁본부(이하 노조)는 사측과 교섭을 재개하기로 결정했다고 24일 밝혔다. 노사는 25일 실무교섭, 26~27일 집중교섭을 진행할 예정이다. 노조는 "오늘(24일) 오후 2시 노사 미팅을 했고, 사측은 OPI 제도 성과급 투명화 및 상한 폐지를 포함해 논의하자는 입장을 밝혔다"며 "교섭은 교섭대로, 투쟁은 투쟁대로 공동투쟁본부는 두 방향 모두 최선을 다하겠다"고 설명했다. OPI는 삼성전자의 대표적 성과급 제도다. 회사 실적이 목표를 초과할 경우 초과 이익의 20% 범위에서 연봉의 최대 50%까지 지급한다. 그간 노조는 OPI 폐지를 주요 요구사항으로 제시해왔으나, 사측은 이를 받아들이지 않았다. 이에 노조는 임금교섭 쟁의행위 찬반투표로 쟁의권을 확보했다. 다음달 23일 집회를 거쳐 5월 총파업에 돌입할 계획이다. 업계는 노조 파업이 현실화하면 삼성전자의 메모리 사업에 차질이 생길 것으로 우려해 왔다. 24시간 설비 가동과 유지보수가 필요한 메모리 산업 특성 상, 엔지니어가 장기간 부재할 경우 가동이 중단되는 사태가 발생할 수 있다.

2026.03.24 17:01장경윤 기자

삼성전자, 올해 시설·R&D 투자에 110조원 이상 투입..."AI 주도권 확보"

삼성전자가 올해 시설 및 연구개발(R&D)에 110조원 이상의 대규모 자금을 투자한다. 전년 대비 20조원 가량 증가한 규모로 AI 반도체 시대의 주도권 확보에 적극적으로 나서고 있다. 19일 삼성전자는 기업가치제고계획(밸류업) 공시를 통해 올해 사업 계획을 공개했다. 삼성전자는 "메모리, 파운드리, 선단 패키징을 모두 갖춘 '원-스톱 솔루션'이 가능한 세계 유일의 반도체 회사로서 AI 반도체 시대에 주도권을 확보하겠다"는 목표를 세웠다. 세부적으로 고대역폭메모리(HBM) 등 고부가 메모리 시장에서 업계 내 확고한 위상을 확보하고, 지속적으로 초격차를 유지할 계획이다. 또한 AI 및 첨단로봇 등 미래형 사업 구조로 사업을 재편해 중장기 성장 모멘텀을 확보하고자 하고 있다. 이를 위한 계획으로, 삼성전자는 올해 총 110조원 이상의 시설 및 R&D 투자를 집행한다. 전년 대비 20% 이상 증가한 규모다. 앞서 삼성전자는 지난해 시설 및 R&D 투자에 90조4000억원(시설투자 52조7000억원, R&D 37조7000억원)을 투자한 바 있다. 또한 첨단로봇, 메드테크, 전장, HVAC 등 미래 성장 분야에서 의미있는 규모의 M&A를 추진한다. 한편 올해 주주환원 정책에 대해서는 "3년간 총 잉여현금흐름의 50% 중에서 2024~2025년 주주환원 및 2026년 정규배당(9조8000억원) 이후에도 잔여재원 발생시 추가로 환원하겠다"는 계획을 세웠다.

2026.03.19 17:26장경윤 기자

美 마이크론, 첫 5년 공급계약 따냈다…삼성·SK도 계약 준비

세계 3위 메모리 반도체 기업인 미국 마이크론이 창사 이후 처음으로 주요 고객사와 5년에 달하는 장기 공급 계약을 체결한 것으로 나타났다. 그간 메모리 산업은 분기, 혹은 최대 1년 수준의 공급계약 체결이 일반적이다. 그러나 전세계 AI 인프라 투자로 메모리 공급난이 극심해지면서, 수년 간의 물량 및 가격을 보장받으려는 고객사 수요가 늘어나고 있다. 삼성전자, SK하이닉스 등 국내 메모리 업계도 글로벌 빅테크 기업들과 이미 3~5년 간의 장기 공급 계약을 추진 중인 것으로 파악된다. 마이크론, AI 수요로 D램·낸드 모두 '어닝 서프라이즈' 마이크론은 18일(현지시간) 회계연도 2026년 2분기(2월 종료) 매출액 238억6000만 달러, 영업이익 164억4000만 달러를 기록했다고 밝혔다. 이는 사상 최대 분기 매출이며 전년동기 대비 196.3%, 전분기 대비 74.9% 증가한 수치이다. 영업이익은 각각 719.9%, 156.3% 급증했다. 증권가 컨센서스(매출 197억 달러, 영업이익 121억 달러) 또한 크게 상회했다. 마이크론은 주요 사업군인 D램과 낸드에서 모두 견조한 성장을 거뒀다. 해당 기간 D램과 낸드의 평균판매가격(ASP)은 전분기 대비 각각 60% 중반, 70% 후반대로 증가했다. 다음 분기 전망치도 긍정적이다. 회사가 제시한 매출 가이던스는 중간값 기준 335억 달러로, 컨센서스인 236억6000만 달러를 앞섰다. 이번 호실적은 AI 인프라 투자 확장으로 서버용 D램, eSSD(기업용 SSD) 등 고부가 메모리 수요가 폭증한 데 따른 효과로 풀이된다. 반면 메모리 제조업체의 생산능력 확대는 제한적인 상황으로, 극심한 공급난을 부추기고 있다. 메모리 산업지형 변화…삼성·SK도 3~5년간 장기공급 계약 추진 이에 마이크론은 메모리 사업에서 중요한 변곡점을 맞았다. 단기적인 수요·공급 구조에서 벗어나, 고객사와의 연간 단위의 장기 계약에 따른 주문 생산 방식으로 나아가고 있다. 마이크론은 "당사는 처음으로 5년짜리 전략적 고객 계약(SCA) 체결을 완료했다"며 "이는 기존 장기계약과 달리 수년간의 구체적인 약정을 포함해 사업 가시성과 안정성을 높이는 구조"라고 강조했다. 삼성전자·SK하이닉스 등 국내 메모리 업계도 이미 비슷한 동향을 보이고 있다. 전영현 삼성전자 부회장은 18일 정기 주주총회 현장에서 "고객사들과의 공급 계약을 분기, 연 단위가 아닌 3~5년간의 다년 공급 계약으로 전환하는 것을 추진하고 있다"고 밝힌 바 있다. SK하이닉스 역시 수년 간의 장기 공급을 논의 중인 것으로 알려졌다. 사안에 정통한 관계자는 "SK하이닉스가 글로벌 빅테크 기업들과 최소 3년 단위의 D램 공급 계약을 논의하고 있는 것으로 안다"며 "체결 시 공급 규모나 구체적인 계약 조건 등이 나오게 될 것"이라고 설명했다.

2026.03.19 09:03장경윤 기자

삼성전자 노조 총파업 가시화…화성·평택 등 반도체 생산 차질 우려

삼성전자 노조가 압도적인 찬성률로 쟁의권(파업권)을 확보하면서, 오는 5월 총파업이 가시화됐다. 실제 파업 시 삼성전자의 주력 사업인 메모리는 물론, 파운드리 부문도 생산 차질이 불가피할 것으로 전망된다. 18일 업계에 따르면 삼성전자노동조합 공동투쟁본부(이하 노조)의 2026년 임금교섭 쟁의행위 찬반투표는 찬성률 93.1%로 가결됐다. 노조, 쟁의행위 투표 압도적 찬성률…5월 총파업 예고 앞서 노조는 초과이익성과급(OPI) 상한제(초과 이익의 20% 범위에서 연봉의 최대 50%) 폐지 등을 위해 지난 9일부터 이날까지 쟁의행위 찬반투표를 실시한 바 있다. 소속된 3개 노조 재적 조합원은 약 9만명으로, 이 중 6만6019명이 투표에 참여(참여율 73.5%)했다. 이 중 6만1456명이 찬성했다. 노조는 "이번 찬반투표의 압도적 결과를 조합원의 엄중한 명령으로 받아들인다"며 "이는 삼성전자 노동자 절대다수가 현 사측 제시안이 '인재제일' 경영원칙에 부합하지 않음을 분명히 선언한 것이며, 요구 관철을 위해 행동에 나서라는 경영진을 향한 강력한 경고"라고 밝혔다. 이에 따라 노조는 오는 4월 23일 집회를 거쳐 5월 총파업에 돌입한다는 계획이다. 내일(19일) 이와 관련한 제1호 지침이 선포될 예정이다. 파업 장기화 시 메모리·파운드리 전 분야서 생산 차질 불가피 업계는 파업이 현실화될 경우 삼성전자 반도체 사업에 미칠 악영향을 우려하고 있다. 현재 삼성전자는 엔비디아향 고대역폭메모리(HBM) 공급 본격화와 더불어 AI 투자 활황에 따른 고부가 D램, 낸드 생산 비중을 적극 확대하고 있다. 또한 파운드리 사업부는 국내외 고객사 확보에 따라 4나노 이상 공정을 중심으로 가동률 회복세를 기록하고 있다. 엔비디아도 어제 'GTC 2026' 행사에서 차세대 AI 가속기인 '베라 루빈'과 결합하는 그록의 언어처리장치(LPU) '그록3 LPU'를 삼성 파운드리에서 양산하겠다고 밝힌 바 있다. 이러한 상황에서 삼성전자의 주요 공장 가동에 차질이 생길 경우, 메모리 및 파운드리 사업 모두 적잖은 타격을 받을 수 밖에 없다. 특히 평택은 삼성전자의 최선단 공정이 집중돼있어, 파급력이 더 크다는 분석이다. 노조 관계자는 "노조의 투쟁 지침은 전 사업장에서 파업을 진행하는 것이고, 그 중에서도 집회 등의 활동을 평택 사업장에서 진행할 계획"이라며 "예컨데 평택 사업장은 직원 수가 1만4000명인데, 조합원 수가 1만1000명 이상이기 때문에 생산 차질이 불가피할 것"이라고 말했다. 반도체 업계 관계자는 "기본적으로 공장 가동이 멈추지는 않겠지만, 파업이 장기화되면 설비 에러나 유지보수 관리가 어려워 설비가 하나씩 멈추게 되는 상황이 발생할 수 있다"며 "노사 갈등이 얼마나 빨리 해결되는지가 관건"이라고 설명했다. 다만 삼성전자 안팎의 이야기를 종합하면, 당장의 노사 갈등 해결은 쉽지 않은 상황이다. 사안에 정통한 관계자는 "삼성전자 경영진 측에서는 성과급 한도 폐지 시 향후 중장기적으로 소요될 비용이 너무 크다고 판단하고 있다"며 "경쟁사가 올해에도 매우 막대한 규모의 성과급 지급이 사실상 확실시된 만큼, 노조와 사측 모두 합의점을 찾기가 쉽지 않아 보인다"고 밝혔다.

2026.03.18 16:46장경윤 기자

SK하이닉스, 2030년 '자율형 팹' 구축 추진…"AI로 제조 혁신"

SK하이닉스가 AI 메모리 수요에 적기 대응하기 위해 자율형 팹 구축을 추진한다. 해당 팹은 고도의 AI 기술을 기반으로 공장이 스스로 학습 및 의사 결정을 수행해 설계부터 양산까지의 전환 속도를 크게 줄이는 것이 목표다. 도승용 SK하이닉스 부사장(DT 부문장)은 17일(현지시간) 오전 미국 새너제이에서 열린 엔비디아 'GTC 2026'에서 이같이 밝혔다. 이날 '빌딩 더 퓨처 오브 매뉴팩처링(Building the Future of Manufacturing)'을 주제로 패널 토론에 참여한 도 부사장은 "AI 수요 급증에 대응하는 과정에서 생산능력 확대와 제조 혁신이라는 이중 과제에 직면해 있다"고 설명했다. 반도체 수요는 빠르게 증가하지만, 제조는 같은 속도로 확장되기 어려운 구조적 한계 때문이다. 동시에 제조 환경도 빠르게 복잡해지고 있다. 고대역폭메모리(HBM) 등 고부가가치·맞춤형 제품 비중이 확대되며 팹 운영 난이도가 상승했고, 품질·비용·속도 간 균형을 맞추는 의사결정은 더 어려워졌다. SK하이닉스는 이를 해결하기 위해 2030년을 목표로 '자율형 팹'(Autonomous FAB) 구축을 추진 중이다. 공장이 스스로 학습하고 의사결정을 수행해, 설계부터 양산까지의 전환 속도를 획기적으로 단축하는 것이 주 골자다. SK하이닉스의 자율형 팹은 오퍼레이셔널(Operational) AI·피지컬(Physical) AI·디지털 트윈(Digital Twin) 세 축으로 구성된다. 오퍼레이셔널 AI는 공장의 '두뇌'로, 엔지니어의 판단과 노하우를 데이터 기반으로 구현해 의사결정에 활용한다. 이를 통해 설비 유지보수, 결함 분석 등에서 처리 시간을 50% 이상 단축했다는 게 도 부사장의 설명이다. 피지컬 AI는 공장의 '실행 체계'로, 기존 자동화를 고도화하고 사람 의존 영역까지 확대하는 개념이다. 도 부사장은 "반도체 웨이퍼 이송 장치(OHT) 등 이송 시스템을 AI와 연계해 지능화하고, 비전 기반 로봇과 자율주행 물류로봇(AMR)을 활용해 물류 효율과 안전성을 높이며 부품 재고를 약 30% 절감하는 효과를 기대한다"고 밝혔다. 디지털 트윈은 시뮬레이션 환경으로, 엔비디아 옴니버스(NVIDIA Omniverse) 기반으로 실제 팹을 가상 공간에 구현한다. 이를 통해 생산 흐름, 자재 이동, 레이아웃 등을 사전 검증하고, 생산 중단 없이 시뮬레이션·AI 학습·운영 최적화를 수행하고 있다. SK하이닉스는 "세 축을 유기적으로 결합해 보다 빠르고 유연한 차세대 제조 체계를 구축할 계획"이라고 밝혔다.

2026.03.18 14:57장경윤 기자

SK하이닉스, 작년 설비투자 30조…메모리 호황에 '사상 최대'

SK하이닉스가 지난해 설비투자(CAPEX)에 30조원 이상을 투입했다. 역대 최대 수준으로, 고대역폭메모리(HBM) 등 인공지능(AI) 메모리 생산능력 확대에 집중한 데 따른 효과로 풀이된다. 17일 SK하이닉스는 2025년도 사업보고서에서 지난해 설비투자에 30조1730억원을 투입했다고 밝혔다. 이는 전년비 68% 증가한 규모다. 앞서 SK하이닉스는 2024년 17조9560억원 규모 투자를 집행한 바 있다. SK하이닉스의 투자 규모 확대는 청주 M15X, P&T(패키징&테스트) 팹 등 신규 팹 추가와 최선단 메모리 생산능력 확대를 위한 전환투자를 활발히 진행한 결과로 풀이된다. 현재 반도체 산업은 전세계 IT 기업의 공격적인 AI 인프라 투자로 전례없는 호황을 맞았다. AI 가속기에 필요한 HBM을 비롯해, 서버용 D램과 eSSD(기업용 SSD) 수요가 크게 증가했다. 범용 메모리 재고 수준도 덩달아 낮아졌다. SK하이닉스는 반도체 호황 지속에 따라 올해도 설비투자 규모를 크게 확대할 계획이다. M15X와 P&T팹의 설비 도입 외에도, SK하이닉스는 용인 1기 팹 건설과 미국 인디애나주 신규 팹 설립 등 국내외 투자 프로젝트를 추진 중이다. 앞서 SK하이닉스는 지난 1월 2025년 4분기 실적발표 컨퍼런스콜에서 "올해 투자 규모는 전년비 상당 수준 증가를 예상한다"며 "다만 설비투자 원칙(투자 규모가 연 매출액 대비 최대 30% 중반 수준을 넘지 않는 것)을 지속 준수하겠다"고 밝힌 바 있다.

2026.03.17 17:14장경윤 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 삼성전자 잠정실적 발표...기아 CEO 인베스터 데이 개최

7년전 개발된 '완벽진공' 시스템…"외산장악 반도체 공정 효자될까"

넥슨 '바람의나라', 30년 장기 흥행 비결은?

쇠고기 넘어 GPU·클라우드까지…美, 韓 첨단 디지털 산업 '통상 전선' 확대

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.