• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 메모리'통합검색 결과 입니다. (222건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성·SK, LPDDR 추가 성장동력 확보…테슬라 AI칩 양산 수혜

테슬라의 자체 인공지능(AI) 반도체 양산 확대로 삼성전자·SK하이닉스의 저전력 D램(LPDDR) 수요가 촉진될 전망이다. 테슬라가 구상 중인 차세대 AI칩은 최신 LPDDR 표준인 'LPDDR6'를 탑재할 것으로 알려졌다. 17일 업계에 따르면 테슬라는 자체 AI 반도체에 삼성전자, SK하이닉스 등 국내 주요 메모리 기업의 최첨단 LPDDR을 채용할 전망이다. 테슬라는 자율주행 및 휴머노이드 로봇 기술을 고도화하기 위해 AI 반도체를 자체 개발해 왔다. 현재 2나노미터(nm) 공정 기반 'AI5'까지 테이프 아웃(Tape-out)에 성공한 상태다. 테이프 아웃은 칩 설계를 완료하고 파운드리 양산 공정에 이관하는 단계를 뜻한다. 차세대 제품 개발도 진행되고 있다. 테슬라는 지난해 하반기 'AI6' 양산을 위해 삼성전자와 22조7600억원 규모 위탁생산 계약을 체결했다. 지난 16일에는 AI6 개선 버전인 AI6.5 양산 계획을 처음 공개했다. AI6.5는 TSMC 2나노 공정을 기반으로 한다. 이로써 테슬라는 AI5와 AI6 시리즈 모두 삼성전자·TSMC를 파운드리로 활용하는 이원화 전략을 취하게 됐다. 향후 칩 생산량 증가를 고려한 결정으로 풀이된다. 당시 일론 머스크 CEO는 "AI6는 미국 텍사스의 삼성전자 2나노 팹을 사용하고, AI6.5는 애리조나의 TSMC 2나노 팹을 사용해 성능을 더욱 향상시킬 것"이라고 밝힌 바 있다. 테슬라의 AI 반도체 양산 확대는 삼성전자, SK하이닉스의 메모리 사업에도 긍정적이다. AI5 및 AI6 시리즈가 최첨단 LPDDR 제품을 탑재하기 때문이다. 세부적으로, AI5용 LPDDR은 SK하이닉스가 주력 벤더 지위에 오른 것으로 파악된다. 테슬라가 최근 공개한 AI5 샘플 역시 SK하이닉스의 LPPDR 제품을 탑재하고 있다. AI6부터는 삼성전자 역시 본격적인 LPDDR 공급망에 합류할 것으로 전망된다. 반도체 업계 관계자는 "AI5는 초기 TSMC가 양산을 수주한 제품으로, SK하이닉스의 LPDDR5X를 채용한 것으로 안다. AI6부터는 삼성전자도 파운드리 및 메모리를 턴키로 공급할 수 있을 것"이라며 "테슬라의 AI칩 라인업 확대는 양사 메모리 사업에 수혜로 작용한다"고 말했다. 특히 AI6 및 AI6.5는 LPDDR6를 탑재할 예정이다. LPDDR6는 8세대 LPDDR로, 지난해 7월 표준이 제정됐다. 메모리의 성능을 좌우하는 대역폭은 10.6~14.4Gbps로 이전 세대인 LPDDR5X(8.5~10.7Gbps) 대비 약 1.5배 가량 향상됐다. LPDDR6의 본격적인 상용화 시점은 이르면 올 하반기다. 이에 고성능컴퓨팅(HPC) 반도체를 설계하는 팹리스 기업들은 이미 LPDDR5X 및 LPDDR6의 설계자산(IP)을 병행 탑재하는 방안을 적극 논의 중인 것으로 알려졌다.

2026.04.17 10:20장경윤 기자

문서 시장에 확산된 '터보퀀트'…사이냅소프트, AI 서비스 비용 낮췄다

사이냅소프트가 최근 인공지능(AI) 시장에서 큰 주목을 받은 경량화 기술 '터보퀀트'를 적용해 문서 AI 경쟁력을 강화한다. 대형언어모델(LLM)과 시각언어모델(VLM) 운영 시 발생하는 메모리 병목 문제를 해결하며 기업 AI 도입 비용을 낮춘다는 목표다. 사이냅소프트는 구글 리서치가 공개한 최신 벡터 양자화 알고리즘 터보퀀트를 자사 AI 솔루션 '사이냅 OCR IX'에 적용했다고 15일 밝혔다. 터보퀀트는 AI 모델이 긴 문서를 처리할 때 발생하는 메모리 사용량을 줄이기 위한 기술로, 최근 생성형 AI 확산과 함께 인프라 효율을 높이는 핵심 기술로 주목받고 있다. 특히 LLM·VLM이 사용하는 'KV 캐시'를 압축해 동일한 그래픽처리장치(GPU) 환경에서도 더 많은 데이터를 빠르게 처리할 수 있도록 지원하는 것이 특징이다. 사이냅 OCR IX는 VLM과 AI 에이전트 기술을 결합한 에이전틱 광학문자인식(OCR) 솔루션으로, 비정형 문서의 맥락을 이해하고 필요한 데이터를 자동 추출한다. 기존에는 긴 문서를 처리할수록 메모리 사용량이 급증해 고가의 GPU 인프라가 필요했지만, 터보퀀트 적용으로 이러한 한계를 개선했다는 설명이다. 회사 측에 따르면 이번 기술 적용을 통해 동일한 GPU 환경에서도 더 긴 컨텍스트와 대용량 배치를 병목 없이 처리할 수 있게 됐다. 이에 고성능 GPU 서버 구축 부담을 줄이고 총소유비용(TCO)도 낮출 수 있다. 사이냅소프트는 GPU 인프라 도입이 어려운 기업을 위해 중앙처리장치(CPU) 기반 환경도 함께 지원한다. 자체 모델에 대한 정밀 프로파일링을 통해 연산 효율을 높였으며 품질 손실을 1% 이하로 억제하면서도 CPU 서버만으로 분당 약 100건 수준의 추론 처리가 가능하도록 성능을 확보했다. 기존 서버 인프라를 활용해야 하는 기업이나 GPU 도입이 어려운 환경에서도 AI OCR 적용을 가능케 한다는 방침이다. 사이냅소프트는 이같은 기술 적용이 금융·공공 등 온프레미스 환경에서 AI 도입을 확대하는 계기가 될 것으로 보고 있다. 높은 보안 요구와 인프라 제약으로 AI 도입이 쉽지 않았던 산업에서도 비용 효율성과 성능을 동시에 확보할 수 있다는 점에서다. 전경헌 사이냅소프트 대표는 "단순히 자체 기술력에만 머물지 않고 글로벌 빅테크의 최신 연구 성과인 터보퀀트를 기민하게 상용화해 기존 VLM의 한계를 극복했다"고 말했다. 이어 "CPU 버전까지 아우르는 유연한 인프라를 지원해 기업들이 도입 비용 걱정 없이 에이전틱 OCR 환경을 구축하고 실질적인 업무 자동화를 이룰 수 있도록 적극 지원하겠다"고 덧붙였다.

2026.04.15 17:14한정호 기자

SK하이닉스, 올해 HBM4 물량 하향 조정...HBM3E 등 확대

SK하이닉스가 올해 엔비디아향 6세대 고대역폭메모리(HBM) 출하량을 당초 계획 대비 20~30% 가량 줄이는 방안을 추진 중인 것으로 파악됐다. 엔비디아가 차세대 AI 가속기 '베라 루빈(Vera Rubin)' 양산 확대에 어려움을 겪으면서 발생한 영향으로 풀이된다. 다만 줄어드는 SK하이닉스의 HBM4 물량은 이전 세대인 HBM3E와 서버용 D램 등으로 수요가 대체될 전망이다. 각 제품별로 마진율이 상이한 만큼, 올해 사업 실적에 미칠 영향은 더 지켜봐야 한다는게 업계의 전언이다. 14일 지디넷코리아 취재에 따르면 SK하이닉스는 올해 할당했던 엔비디아향 HBM4 출하량 중 일부를 HBM3E 및 서버용 D램 물량으로 변경할 계획이다. HBM4는 올해 본격적으로 상용화되는 최신 HBM이다. 글로벌 빅테크인 엔비디아가 올 하반기 출시를 목표로 하고 있는 AI 반도체 '베라 루빈'에 첫 탑재된다. 이에 삼성전자, SK하이닉스, 마이크론 등 주요 메모리 기업들이 모두 엔비디아향 HBM4 공급에 총력을 기울이고 있다. 다만 업계는 올해 루빈 시리즈의 출하량이 당초 계획보다 줄어들 것으로 보고 있다. 루빈 플랫폼을 구성하는 여러 구성 요소의 최적화가 아직 완벽히 이뤄지지 않았다는 분석에서다. 대표적으로, 엔비디아는 HBM4의 데이터 처리 성능을 업계 표준에서 크게 높인 11Gbps대로 요구한 바 있다. 시장조사업체 트렌드포스는 최근 발간한 보고서에서 "HBM4 검증에 필요한 시간 외에도 네트워크 인터커넥트 전환과 전력 소비량 증가, 더 고도화된 액체 냉각 솔루션 최적화 등 여러 과제가 남아있다"며 "결과적으로 엔비디아의 고성능 GPU 출하량에서 루빈 시리즈가 차지하는 비중은 기존 29%에서 22%로 감소할 것으로 예상된다"고 밝혔다. 반면 엔비디아가 현재 가장 주력으로 양산 중인 '블랙웰(Blackwell)' 시리즈의 출하량 비중은 기존 61%에서 71%로 크게 늘어날 전망이다. 블랙웰은 HBM3E를 탑재한다. 이에 국내 메모리 업계도 HBM 사업 전략을 수정 중인 것으로 파악됐다. 특히 SK하이닉스의 사업 변동성이 가장 큰 폭으로 나타나고 있다. SK하이닉스가 HBM 시장의 지배적 사업자로서 엔비디아향 HBM4 및 HBM3E에서 가장 많은 출하량 비중을 차지하고 있기 때문이다. 사안에 정통한 관계자는 "올해 출하되는 루빈 시리즈 자체의 양이 줄어들면서 SK하이닉스의 HBM4 출하량 계획도 수정이 불가피한 상황"이라며 "대신 해당 물량이 HBM3E나 다른 서버용 LPDDR(저전력 D램) 쪽으로 이관되기 때문에, 메모리 수요 총량이 줄어드는 것은 아니다"고 설명했다. 당초 SK하이닉스는 올해 엔비디아향으로 60억Gb(기가비트) 수준의 HBM4 출하를 계획했었다. 현재 논의되고 있는 물량은 이보다 20~30% 적은 수준이다. 감소되는 물량의 일부가 블랙웰 시리즈용으로 전환됨에 따라, HBM3E 물량도 당초 전망치인 80억Gb를 상회할 것으로 관측된다. 또 다른 관계자는 "SK하이닉스가 내부적으로 HBM4의 물량 일부를 HBM3E 및 서버용 LPDDR로 전환하는 방안을 논의 중"이라며 "실제로 HBM4 양산을 위한 소재·부품 발주량도 당초 예상보다 더디게 증가하고 있다"고 말했다.

2026.04.14 14:23장경윤 기자

삼성전자, ASMPT와 HBM TC본더 평가...공급망 다변화 지속

삼성전자가 고대역폭메모리(HBM)의 핵심인 열압착(TC) 본딩 장비 공급망 다변화를 지속 추진하고 있다. 최근 해외 반도체 장비기업 ASMPT와 HBM용 TC 본더에 대한 데모 테스트를 마무리하고, 다음 협력 단계를 추진하기로 한 것으로 파악됐다. 13일 업계에 따르면 삼성전자는 싱가포르에 본사를 둔 ASMPT와 HBM용 TC본더에 대해 JEP(Joint evaluation Project 공동평가프로젝트)를 진행할 계획이다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, 실리콘관통전극(TSV)을 뚫어 연결한 메모리다. 삼성전자의 경우 각 D램 사이에 비전도성 접착 필름(NCF)를 넣고, 열압착을 가해 붙이는 공정을 채택하고 있다. 이 접합 과정에서 쓰이는 장비가 TC본더다. 삼성전자의 HBM용 TC본더는 자회사인 세메스가 주력으로 공급해 왔다. 그러나 지난해부터는 국내외 후공정 장비업체들을 추가로 공급망에 편입하는 조치를 추진해 왔다. 이 중 ASMPT는 삼성전자와 올 1분기까지 HBM용 TC본더에 대한 초기 테스트를 진행해 왔다. 해당 테스트는 연구소 단계에서 데모 장비를 시연해보는 수준이다. 나아가 양사는 최근 TC본더에 대한 JEP를 추진하기로 합의한 것으로 파악된다. JEP는 이미 개발된 장비를 고객사의 양산 라인에 설치해, 장비의 성능 및 신뢰성 등을 검증하는 프로젝트다. 장비의 실제 적용 가능성을 평가하는 단계로 볼 수 있다. 반도체 업계 관계자는 "삼성전자가 HBM용 TC본더 공급망 다변화를 지속적으로 검토해 왔다"며 "ASMPT와의 JEP도 이러한 전략의 일환으로, 양사 간 테스트가 점차 진전을 보이고 있다는 움직임"이라고 설명했다. 물론 삼성전자가 ASMPT의 HBM용 TC본더를 실제 양산 공정에 도입할 지는 아직 확신할 수 없다. 양산 공정에서 장비 성능이 만족스럽지 못하거나, 가격 협상이 잘 이뤄지지 않는 등 상용화까지 많은 변수가 남아있기 때문이다. 삼성전자의 하이브리드 본딩 장비 도입 시점도 TC본더 공급망 다변화에 많은 영향을 끼칠 것으로 보인다. 하이브리드 본딩은 기존 D램과 D램 사이의 마이크로 범프를 쓰지 않고, 칩을 직접 연결하는 기술이다. TC본딩 대비 칩 성능 강화에 유리해 차세대 HBM용 본딩 공정으로 주목받고 있다. 다만 하이브리드 본딩은 기술적 난이도가 높아, HBM용 본딩 분야에서 아직 상용화된 전례가 없다. 또한 국제반도체표준화기구(JEDEC)에서 차세대 HBM의 두께 기준을 완화하는 방안을 추진 중이다. 두께가 더 두꺼워지면 기존 TC본딩 기술을 유지하는 데 용이하다. 또 다른 업계 관계자는 "아직 하이브리드 본딩 기술이 완성되지 않았고, 실제 도입 시에도 일부 층에만 적용하는 등 제한된 방안이 논의되고 있어 TC본딩 기술이 예상 대비 더 성장할 가능성이 있다"며 "이러한 상황에서 삼성전자도 TC본더 공급망 다변화에 더 큰 수요를 느끼게 될 것"이라고 말했다.

2026.04.13 14:32장경윤 기자

"D램 가격 상승률, 1분기 70%→2분기 30~50%로 둔화 전망"

전세계 D램 가격 상승률이 1분기 70% 이상에서 2분기 30~50%로 둔화할 것이란 전망이 나왔다. 올해 연간으로 D램 공급부족이 이어지겠지만, 수요가 둔화하는 응용처가 나타날 수 있기 때문이다. 시장조사업체 시그마인텔은 최근 "2분기에도 D램 가격은 계속 오르겠지만 제품별 인상폭이 다를 것"이라며 "DDR4 가격 인상폭은 크게 줄어들 것이고, DDR5와 LPDDR5X는 상승 여력이 남아 있다"고 평가했다. 이어 "전세계 D램 평균가격 인상률은 1분기 70% 이상에서 2분기 30~50% 수준으로 둔화할 것"이라고 예상했다. 올해 하반기 D램 가격 인상률은 5~20% 수준으로 더 줄어들고, 연말에는 높은 가격에서 안정될 것이라고 전망됐다. 시그마인텔이 제시한 근거는 ▲D램 업체 생산능력 할당 안정 ▲인공지능(AI) 서버와 클라우드서비스업체(CSP)의 긴급비축 수요 단계적 해소 ▲패닉 바잉(Panic buying) 완화 등이다. 시그마인텔은 "가전·IT 제품 수요 둔화로 D램 공급부족이 어느 정도 완화될 것"이라고 덧붙였다. 시그마인텔은 DDR과 고대역폭메모리(HBM) 생산능력 할당과 수요 변화 등에 기초했을 때, 전세계 D램 수급 비율은 2025년 8% 공급과잉에서 2026년 12% 공급부족으로 전환할 것이라고 전망했다. 2025년 하반기부터 AI가 주도한 D램 슈퍼사이클은 올해도 이어질 가능성이 크다. 올해 AI 서버용 D램 수요는 전년비 105% 성장이 예상됐다. 같은 기간 기존 서버용 D램 수요 성장률 기대치는 3%에 그친다. 올해 가전·IT 제품용 D램 수요는 전년비 감소가 예상됐다. 전체 D램 비트 소비량 내 비중은 2025년 54%에서 2026년 42%로 하락할 것으로 전망됐다. D램 수요 감소는 보급형 PC, 저가 스마트폰, 사물인터넷(IoT) 기기 등에서 두드러질 수 있다. 시그마인텔은 전세계 D램 웨이퍼 생산능력 중 HBM 비중이 올해 20%를 넘어설 것이라고 전망했다. HBM은 AI 서버 그래픽처리장치(GPU) 전용 메모리다. 올해 HBM의 비트 수요는 전년비 110% 성장이 예상됐다. 올해 HBM4 양산 등에 따른 HBM의 D램 웨이퍼 생산능력 점유 확대는 DDR 제품에 할당할 생산능력을 압박할 수 있다. 올해 1분기 말 기준 서버 D램 고정거래가격은 2025년 2분기 대비 3~4배 올랐다. 같은 기간 DDR4는 4배, DDR5는 3.5배 상승했다. 이에 비해 가전·IT 제품용 D램 가격은 늦게 올랐다. 가전·IT 제품은 2025년 4분기부터 D램 공급이 부족했다. 1분기 말 기준 가전·IT 부문 DDR 고정거래가격은 2025년 2분기 대비 2~2.5배 높다. 시그마인텔은 가전·IT 업체가 더 이상 모든 시장과 제품 라인업을 공략할 수 없고, 전략적으로 선택해야 할 것이라고 평가했다. 메모리 등 부품 가격 인상은 완제품 가격 상승으로 이어졌다. 최종제품 가격 인상은 특히 저가품 수요를 억제해 전체 가전·IT 제품 수요가 감소할 수 있다.

2026.04.12 18:53이기종 기자

삼성전자 모바일, 2분기가 '진짜 고비'…적자 전환 우려도

삼성전자 모바일경험(MX) 사업부가 지난 1분기 예상을 웃도는 수익성을 거뒀다. 신제품의 가격 인상과 더불어, 기존 보유한 메모리 반도체 재고 활용으로 원가 상승을 최대한 억제한 데 따른 효과로 풀이된다. 그러나 메모리 반도체 가격은 올 2분기에도 큰 폭의 상승세를 이어가고 있어, 스마트폰 업계의 부담을 키우고 있다. 이에 업계에서는 삼성전자 MX사업부가 곧바로 적자전환할 수 있다는 우려도 제기된다. 9일 업계에 따르면 2분기 삼성전자 MX 사업부의 수익성은 전분기 대비 큰 폭의 감소세가 예상된다. 앞서 삼성전자는 지난 7일 발표한 잠정실적을 통해 매출액 133조원, 영업이익 57조2000억원을 거뒀다고 밝힌 바 있다. 이 중 MX사업부의 영업이익은 3~4조원 수준으로 관측된다. 당초 2조원대로 예상되던 업계 전망을 크게 웃도는 수준이다. 이번 호실적은 복합적인 요인이 작용한 결과다. 당초 업계는 MX사업부가 스마트폰에 탑재되는 저전력 D램(LPDDR) 가격의 상승, 전쟁에 따른 IT 시장의 불확실성 확대 등의 영향을 크게 받을 것으로 분석해 왔다. 이에 삼성전자는 올 1분기 출시한 최신형 플래그십 스마트폰 '갤럭시S 26'의 가격 인상을 단행하면서 수익성 방어에 나섰다. 또한 기존 보유한 메모리 재고를 최대한 활용해, 원가 상승을 최대한 억제한 것으로 알려졌다. 다만 2분기에는 메모리 가격 상승 여파를 피하기 힘들다는 의견이 지배적이다. LPDDR 가격이 매 분기마다 큰 폭으로 상승하고 있고, 기존 보유한 재고 활용 전략도 지속하기 어렵기 때문이다. 최악의 경우 MX사업부가 해당 분기 곧바로 적자에 전환할 수 있다는 우려도 제기된다. IT업계 관계자는 "MX사업부의 1분기 수익성이 예상보다 너무 높아, 2분기에는 기저효과가 크게 나타날 것"이라며 "2분기까지 지속되는 D램 가격의 상승세를 반영하면 이번 분기 적자전환의 가능성을 배제할 수 없다"고 설명했다. D램 시장은 전세계 IT 기업들의 공격적인 AI 인프라 투자 확대로 극심한 공급난을 겪어 왔다. 동시에 메모리 공급사들은 마진이 높은 서버용 D램, 고대역폭메모리(HBM) 양산 비중을 높이고 있다. 글로벌 빅테크인 엔비디아 주도로 서버용 LPDDR 수요도 늘어났다. 이로 인해 스마트폰 등 IT 시장용 LPDDR의 수급 불균형은 심화되는 추세다. 일례로 주요 스마트폰 제조사인 애플은 1분기 삼성전자, SK하이닉스로부터 공급받는 LPDDR 가격을 전분기 대비 2배 가량 인상한 바 있다. 올 2분기에도 최소 전분기 대비 50% 상승의 추가적인 가격 인상이 논의된 것으로 파악된다. 삼성전자 MX사업부도 이와 유사한 수준의 메모리 가격 인상을 받아들여야 하는 상황이다. 디바이스솔루션(DS)사업부를 통해 D램을 내부 수급할 수 있는 유리한 구조를 갖추고 있으나, 시황을 크게 벗어나기는 어렵다는 평가다. DS사업부가 MX사업부에 D램을 지나치게 저렴하게 주는 경우 특혜 논란이 있을 수 있어서다.

2026.04.09 13:56장경윤 기자

오픈엣지, LPDDR6 기반 인터페이스 IP 라이선스 계약 수주

오픈엣지테크놀로지는 LPDDR6 및 LPDDR5X 메모리 표준을 동시 지원하는 인터페이스 IP(반도체 설계자산) 라이선스 계약을 수주했다고 9일 밝혔다. 이번 수주는 회사가 해당 IP 개발에 착수한 이후 첫 성과로, 차세대 메모리 인터페이스 시장 진입을 알리는 신호탄으로 평가된다. 특히 해당 기술은 국내 기업으로는 최초 사례이며 글로벌에서도 소수 기업만이 상용화에 성공한 고난도 기술 분야라는 점에서 의미가 크다. LPDDR6는 지난해 7월 JEDEC(국제 반도체 표준화 기구)에서 제정된 최신 규격으로, 최대 14.4Gbps 속도를 지원하는 차세대 저전력 메모리 표준이다. 이는 현재 상용화된 LPDDR 계열 중 가장 진보된 사양으로, AI 및 고성능 컴퓨팅 환경에서 요구되는 초고속 데이터 처리 수요를 충족할 수 있는 핵심 기술로 주목받고 있다. 최근 AI 반도체를 포함한 시스템반도체의 고성능화가 가속화되면서 외부 DRAM으로부터 데이터를 충분히 공급받지 못해 발생하는 '데이터 병목 현상'이 주요 과제로 부상하고 있다. 이에 따라 팹리스 기업들은 기존 LPDDR5X를 넘어 LPDDR6 기반 메모리를 활용한 차세대 칩 설계를 적극적으로 추진하고 있으며, 특히 온디바이스 AI 및 엣지 컴퓨팅 확산과 맞물려 고대역폭 메모리 인터페이스에 대한 수요가 빠르게 증가하는 추세다. 오픈엣지는 이러한 시장 변화에 대응해 LPDDR6·5X를 지원하는 고성능 메모리 서브시스템 IP를 선제적으로 개발해왔으며, 이번 수주를 통해 기술 경쟁력과 시장성을 동시에 입증했다. 특히 경쟁사 대비 더 작은 면적과 더 높은 데이터 처리 속도를 구현함으로써, 고객사의 칩 설계 효율성과 전력 효율을 동시에 개선할 수 있는 점이 강점으로 꼽힌다. 오픈엣지 이성현 대표는 “이번 LPDDR6·5X IP 첫 수주는 당사의 차세대 메모리 인터페이스 기술력이 시장에서 본격적으로 인정받기 시작했다는 점에서 의미가 크다”며 “향후 해당 IP의 추가적인 라이선스 수주 확대가 기대되는 가운데, 경쟁사 대비 더 작은 면적과 더 높은 속도를 구현한 차별화된 제품 경쟁력을 바탕으로 글로벌 고객사를 지속 확보해 나갈 것”이라고 밝혔다. 오픈엣지테크놀로지는 시스템반도체 설계에 필수적인 메모리 서브시스템 및 인터커넥트 IP와 더불어 온디바이스 AI용 NPU를 포함한 제품 포트폴리오를 지속 강화해 글로벌 팹리스 및 반도체 기업의 차세대 AI 반도체 개발을 지원하는 핵심 파트너로서 입지를 확대해 나갈 계획이다.

2026.04.09 09:55장경윤 기자

메모리 가격, 2분기도 상승세…삼성전자 '최대 실적' 이어진다

삼성전자가 올 1분기 사상 최대 매출과 영업이익을 거뒀다. 인공지능(AI) 산업 주도로 메모리 수요가 급증하면서, D램·낸드 가격이 전 분기 대비 80~90% 수준까지 상승한 것으로 관측된다. 2분기 전망 역시 밝다. 1분기 메모리 가격 상승폭이 예상을 웃돌았지만, 2분기에도 견조한 추가 상승세가 이어질 가능성이 크기 때문이다. 삼성전자는 경쟁사 대비 가장 많은 생산능력을 보유하고 있어, 메모리 가격 상승에 따른 수익성 증대 효과를 가장 크게 볼 수 있다. 7일 삼성전자는 2026년 1분기 잠정실적 발표에서 연결기준 매출 133조원, 영업이익 57조2000억원을 기록했다고 밝혔다. 분기 기준 사상 최대 실적이다. 매출은 전년 동기 대비 68.06%, 전 분기 대비 41.73% 증가했다. 영업이익은 전년 동기 대비 755.01%, 전 분기 대비 185% 증가했다. 증권가 컨센서스(매출 118조3000억원, 영업이익 38조4977억원)도 크게 상회하며 어닝 서프라이즈를 기록했다. 이번 호실적은 전례 없는 메모리 슈퍼사이클 효과로 풀이된다. 현재 전세계 주요 IT 기업들이 AI 인프라 구축을 위해 공격적으로 투자하면서, 서버용 고부가 D램·낸드 수요가 크게 증가했다. 반면 공급업체들의 생산량 증가는 제한돼, 평균판매가격(ASP) 상승을 부추겼다. 범용 D램·낸드도 덩달아 공급난이 심화됐다. 이에 따라 1분기 D램의 ASP는 전 분기 대비 90%가량 상승한 것으로 추산된다. 낸드 역시 비슷한 수준의 가격 상승세가 실현됐을 가능성이 크다. 김선우 메리츠증권 연구원은 "삼성전자의 D램과 낸드 공히 90% 이상 판가 상승율을 기록했을 것으로 추정한다"며 "선두업체로서 경험에 기반한 적극적이고 과감한 가격 정책과 유리한 가격구조 설정이 전략적으로 작동했을 것"이라고 설명했다. 향후 전망도 밝다. 1분기 D램·낸드 ASP가 예상보다 크게 증가하기는 했으나, 2분기에도 가격 상승세가 견조할 것이라는 시각이 우세하기 때문이다. 삼성전자는 주요 메모리 기업 중 가장 많은 D램·낸드 생산능력을 보유하고 있다. 덕분에 범용 메모리 가격 상승에 따른 수혜를 가장 크게 입을 수 있다. 업계에선 삼성전자가 2분기에도 D램과 낸드 모두 전 분기 대비 최소 30% 수준의 ASP 상승률을 기록할 것이란 전망이 나온다. 반도체 업계 관계자는 "범용 메모리 생산능력이 가장 큰 삼성전자가 메모리 슈퍼사이클의 최대 수혜자가 될 것"이라며 "글로벌 빅테크들과 장기공급계약(LTA)도 활발히 진행되고 있어, 메모리 수요가 지속될 것이라는 전망에 힘을 보탠다"고 말했다.

2026.04.07 12:19장경윤 기자

역대 최대 실적 경신한 삼성전자, 메모리 영업익만 50조원 돌파

삼성전자가 올 1분기 매출과 영업이익 모두 사상 최대 실적을 경신했다. AI 산업 주도로 D램·낸드 가격이 크게 상승하고, 새로 출시한 '갤럭시S26' 시리즈가 흥행에 성공한 덕분으로 풀이된다. 환율 역시 긍정적인 영향을 미쳤다. 7일 삼성전자는 2026년 1분기 잠정 실적 발표를 통해 연결기준 매출 133조원, 영업이익 57조2000억원을 기록했다고 밝혔다. 매출은 전년동기 대비 68.06%, 전분기 대비 41.73% 증가했다. 영업이익은 전년동기 대비 755.01%, 전분기 대비 185% 증가했다. 또한 증권가 컨센서스(매출 118조원, 영업이익 38조4977억원)을 크게 상회하면서, 어닝 서프라이즈를 기록했다. 이번 역대급 실적의 핵심 배경은 메모리 슈퍼사이클에 있다는 평가다. 전세계 주요 IT 기업들이 공격적인 AI 인프라 투자 확대에 나서면서, 서버용 고부가 D램·낸드의 수요가 크게 증가했다. 반면 공급업체들의 생산량 증가는 제한돼, 평균판매가격(ASP)의 상승을 부추겼다. 범용 D램·낸드도 덩달아 공급난이 심화됐다. 특히 D램의 가격 상승세가 강했다. 현재 업계가 추산하는 D램의 전분기 대비 ASP 증가율은 90%에 달한다. 낸드 역시 D램에 준하는 수준의 가격 상승세를 기록한 것으로 알려졌다. 이에 따라 삼성전자의 D램·낸드를 합산한 삼성전자의 메모리 분야 영업이익은 53조~54조원에 달할 전망이다. 제품별로는 D램이 40조원대, 낸드가 10조원대의 영업이익을 기록했을 것으로 관측된다. 디바이스솔루션(DS) 전체 영업이익은 비메모리(파운드리, 시스템LSI)의 적자 영향으로 이보다는 소폭 낮은 52조~53조원으로 추산된다. 모바일경험(MX) 사업부도 이번 분기 업계 예상을 뛰어넘는 수익성을 거뒀을 가능성이 유력하다. 올 1분기 출시한 최신형 플래그십 스마트폰 갤럭시S26 시리즈가 높은 판매량을 기록하면서, 해당 기간 4조원에 육박하는 영업이익을 기록한 것으로 관측된다.

2026.04.07 08:58장경윤 기자

삼성전자, P4 최종 라인까지 설비 발주…HBM 양산 속도 '고삐'

삼성전자 제4 평택캠퍼스(P4)향 설비투자가 마무리 단계에 접어들었다. 총 4개 구역(페이즈·ph) 중 아직 투자가 집행되지 않았던 2개 구역에 대해 지난달 제조설비를 발주한 것으로 파악됐다. 해당 라인은 삼성전자의 최첨단 D램 공정인 1c(6세대 10나노급) D램 양산을 전담한다. 1c D램은 삼성전자 HBM4(6세대 고대역폭메모리)의 코어 다이로서, 엔비디아 등 글로벌 빅테크향 사업의 핵심 요소로 주목받고 있다. 6일 지디넷코리아 취재에 따르면 삼성전자는 최근 P4 내 ph2·ph4 2개 동에 대한 전공정 설비를 일괄 발주했다. P4는 삼성전자의 첨단 반도체 팹이다. 당초 D램과 낸드, 파운드리를 모두 양산하는 종합 팹으로 설계됐으나, 시황 등의 이유로 대부분의 생산능력이 D램에 할당됐다. 그 중에서도 가장 최첨단 공정 기반의 1c(6세대 10나노급) D램을 양산한다. P4는 총 4개의 ph로 나뉜다. 구축 순서는 1-3-4-2다. 가장 먼저 구축된 ph1은 이미 모든 투자가 완료됐다. ph3도 지난해 하반기부터 투자가 진행돼, 현재 대부분의 설비 셋업이 마무리된 상황이다. 올해에는 남은 ph4·ph2에 전공정(반도체 웨이퍼에 회로를 새기기 위한 공정) 설비투자가 활발히 진행될 예정이다. 복수의 장비업계 관계자에 따르면, 삼성전자는 지난달 말 ph4·ph2용 전공정 설비에 대한 구매주문(PO)서를 발행했다. 이에 따라 ph4에는 오는 5~6월부터 전공정 설비가 도입될 계획이다. ph2에는 11월께 설비 도입이 예정돼 있다. ph2에 설비 도입을 위한 클린룸 구축 작업도 올 1분기 이미 시작됐다. 클린룸은 반도체 제조 환경의 오염도 등 제반 요소를 제어하는 인프라 시설이다. 전공정 설비를 투입하기 전에 필수적으로 설치해야 한다. 이번 PO 발주로 삼성전자 P4의 구축 일정이 명확해졌다. 삼성전자는 전세계 AI 인프라 투자로 촉발된 반도체 슈퍼사이클에 적기 대응하기 위해, 최근 신규 및 전환 설비투자에 속도를 내고 있다. 실제로 P4 ph2용 전공정 설비는 당초 연말 발주, 실제 도입은 내년에 이뤄질 것으로 관측돼 왔다. 이를 고려하면 실제 도입 일정이 2개월 가량 빨라진 셈이다. 특히 1c D램은 회사의 고부가 메모리 사업의 핵심 축을 맡고 있다. 삼성전자는 올해 양산을 본격화한 HBM4에 경쟁사 대비 한 세대 앞선 1c D램을 채택했다. 덕분에 삼성전자는 핵심 고객사인 엔비디아향 HBM4에서 가장 높은 성능을 달성했다는 평가를 받고 있다. 올해 삼성전자 1c D램의 생산능력은 P4 ph3 구축분까지 반영될 전망이다. 수치로는 월 13만~14만장 수준이다. ph2에 전공정 설비 셋업이 완료되는 시점은 내년 1분기께다. 내년 진행될 P3와 화성 17라인 내 1c D램 전환 투자까지 합산하면, 생산능력은 지속적으로 늘어날 것으로 전망된다. 반도체 업계 관계자는 "삼성전자가 최근 협력사에 ph2용까지 설비를 미리 발주할 만큼 설비투자에 적극적인 의지를 보이고 있다"며 "고부가 D램이 AI 산업에서 각광받고 있고, 최근 발생한 전쟁에 따른 불확실성을 피하기 위해 미리 투자를 준비하는 분위기"라고 설명했다.

2026.04.06 11:21장경윤 기자

퓨리오사AI "올해 2세대 NPU 2만장 양산 목표...제품 공급 시작"

국내 AI 반도체 스타트업 퓨리오사AI가 2세대 AI칩 '레니게이드(RNGD)'의 상용화 성과를 알리며 본격적인 신경망처리장치(NPU) 생태계 확장에 나섰다. 퓨리오사AI는 2일 서울 강남구 에스제이쿤스트할레에서 '레니게이드 2026 서밋'을 개최했다. 이날 행사에는 레니게이드를 직접 도입하는 주요 AI 모델 기업, 통신사, 클라우드 사업자 등 200여명의 관계자가 참석해 AI 반도체 도입 현황과 확산 방안을 공유했다. "올해 2만장 규모 양산"…HBM 탑재 NPU로 글로벌 시장 정조준 퓨리오사AI는 앞선 지난 1월 1차 양산 물량 4000장을 인도받으며 레니게이드의 양산을 개시했다. 고대역폭메모리(HBM)를 탑재한 NPU가 개발을 넘어 양산 단계까지 이른 것은 세계적으로도 드문 사례다. 특히 백준호 대표는 올해 공격적인 공급 계획을 밝혔다. 백 대표는 "올해 레니게이드 카드를 약 2만장 규모로 양산할 수 있도록 모든 준비를 마쳤으며, 현재 양산이 순조롭게 진행 중"이라며 "이미 다양한 고객사들에게 제품 공급을 시작했다"고 강조했다. 2세대 레니게이드는 극강의 전력 효율을 꾀한 추론용 칩이다. 칩당 열 설계 전력(TDP)을 180W 이하로 획기적으로 낮추면서도 고성능을 달성했다. 부동소수점 연산 기준으로 초당 512테라플롭스(TFLOPS), 정수형(INT4) 기준 1페타플롭스(PFLOPS)의 성능을 제공하며, 4세대 HBM3를 탑재해 메모리 병목 현상을 해소했다. 퓨리오사AI가 공개한 최신 벤치마킹 결과에 따르면 레니게이드는 엔비디아 RTX PRO 6000과 비교해 동일한 전력으로 최대 7.4배 규모의 사용자를 처리할 수 있다. 이를 통해 기존 GPU 대비 인프라 총소유비용(TCO)을 약 40% 절감할 수 있다는 것이 회사 측의 설명이다. "실전 투입 채비 마쳤다"…주요 파트너사 협력 릴레이 이날 행사의 가장 큰 화두는 레니게이드를 실제 인프라와 서비스에 도입하는 주요 파트너사들의 생생한 현장 목소리였다. 파트너사들은 단순한 개념 검증을 넘어 구체적인 상용화 계획을 잇달아 발표했다. 먼저 LG AI연구원은 2022년부터 퓨리오사AI와 교감하며 자사의 LLM(거대언어모델) '엑사원(EXAONE)'을 레니게이드 환경에서 구동하는 작업을 진행해 왔다. 임우형 LG AI연구원 원장은 "단순 모델 서빙을 넘어 다양한 서비스 시나리오에 대해 벤치마크 테스트를 진행했고, 퓨리오사AI의 신속한 소프트웨어 개선 등 우수한 엔지니어링 역량을 확인했다"고 평가했다. LG유플러스는 엑사원 모델과 레니게이드를 결합해 보안과 제어가 가능한 '소버린 AI' 어플라이언스 솔루션을 구축 중이다. 이상엽 LG유플러스 CTO는 "향후 보이스 기반 AI 서비스가 상용화되면 텍스트 대비 토큰 비용이 30배 이상 급증할 수 있다"며 "이를 해결하기 위해 엣지 및 온디바이스가 결합된 하이브리드 AI 인프라 구축에 레니게이드가 효과적"이라고 말했다. 삼성SDS는 올해 7월 삼성 클라우드 플랫폼(SCP)을 통해 국내 CSP(클라우드 서비스 제공사업자) 최초로 NPU 기반 구독형 서비스인 'NPUaaS'를 론칭할 계획이다. 이주평 삼성SDS 상무는 "고객이 1장, 2장, 4장, 8장 단위로 필요한 만큼 구독해 사용할 수 있도록 클라우드 가상화 통합 작업을 성공적으로 진행해 왔다"고 밝혔다. 업스테이지는 약 200만명의 사용자를 보유한 챗봇 서비스와 주력 LLM인 '솔라(Solar)'를 서빙하는 과정에서 발생하는 막대한 GPU 운용 비용 문제를 해결하고자 퓨리오사AI와 손을 잡았다. 김성훈 업스테이지 대표는 "척박한 서비스 생존 경쟁 속에서 경제적인 추론 칩이 절실했다"며 "퓨리오사AI의 지원으로 실질적인 상용 테스트를 속도감 있게 진행하고 있다"고 말했다. 메가존클라우드는 퓨리오사AI 등과 컨소시엄을 구성해 사우디아라비아 아람코 등 중동 진출을 위한 개념검증(PoC)을 주도하고 있다. 이주완 메가존클라우드 회장은 "경남, 전북, 구미 등 주요 지방 산단에 엣지 클라우드 인프라를 구축해 중소·중견 제조사들의 AI 도입을 직접적으로 지원할 것"이라며 "향후 3년 내 500억원, 5년 내 3000억원 규모의 퓨리오사AI 칩 공급을 추진하겠다"는 구체적인 목표도 제시했다. PC용 경량화 모델부터 3세대 칩까지…차세대 로드맵 가속 퓨리오사AI는 시장의 빠른 변화에 대응하기 위해 레니게이드 라인업을 다각화하는 구체적인 로드맵도 제시했다. 백 대표는 단기적으로 "레니게이드의 메모리를 기존 HBM3에서 차세대 메모리로 업그레이드하고, 현재 출시된 서버 어플라이언스 제품군 역시 지속해서 고도화해 신제품을 선보일 것"이라고 말했다. 또한 제품군의 외연 확장도 예고했다. PC나 워크스테이션 환경에 맞춰 칩을 경량화한 '레니게이드 S'의 모든 준비를 마쳐 올해 말에서 내년 초 사이 출시할 예정이다. 나아가 2028년에는 레니게이의 핵심 엔진 아키텍처를 기반으로 메모리와 연산 규모 등 이른바 '배기량'을 대폭 확대한 3세대 AI 칩을 선보이며 글로벌 경쟁력을 이어갈 계획이다. 백 대표는 "오늘 행사는 레니게이드 기반 NPU 생태계 확산을 이끌어갈 국내외 주요 파트너사들과 함께 하는 뜻깊은 자리"라며 "레니게이드 기반의 생태계 확산을 통해 글로벌 AI 인프라 시장에서 한국 반도체의 저력을 직접 증명하겠다"고 포부를 밝혔다.

2026.04.02 16:08전화평 기자

삼성·SK 반도체 슈퍼사이클인데…소재·부품 업계 '시름', 왜?

글로벌 반도체 빅2인 삼성전자, SK하이닉스가 전례 없는 메모리 슈퍼사이클 효과로 올해 역대 최대 수익성을 거둘 것으로 전망되고 있지만 이들과 협력 관계인 국내 소재·부품 협력사들의 시름은 오히려 깊어지고 있어 주목된다. 삼성전자와 SK하이닉스가 연말연초 성과급 잔치를 벌였지만 이들 기업이 반도체 호황에도 웃지 못하는 가장 큰 원인은 최근 진행된 공급 협상에서 지난해에 이어 올해에도 단가가 인하됐기 때문이다. 동시에 중동 전쟁 등 거시경제 불확실성이 높아지고 환율이 상승하는 등 제조 비용에 대한 부담도 커지고 있다. 소재·부품 업계는 국내 반도체 공급망의 '뿌리' 역할을 담당한다. 단기적으로는 개별 기업들의 실적 악화에 그치겠으나, 중장기적으로 국내 소재·부품 업계의 경쟁력 약화로까지 이어질 수 있다는 우려의 목소리가 나온다. 1일 업계에 따르면 삼성전자, SK하이닉스는 올 1분기까지 주요 반도체 소재·부품 기업과의 단가 협상을 완료했다. 통상 삼성전자, SK하이닉스는 연말연시께 소재·부품 기업들과 당해년도 제품 공급에 대한 단가 협상을 진행한다. 각 기업별로 차이는 있지만, 삼성전자·SK하이닉스가 주력으로 양산하는 메모리반도체용 소재·부품은 올해 전반적으로 단가가 인하됐다. 복수의 업계 관계자에 따르면 하락폭은 한 자릿수 수준이다. 지디넷코리아 취재에 따르면 전공정과 후공정 분야 모두 단가 인하가 결정된 기업이 있는 것으로 파악된다. 앞서 삼성전자, SK하이닉스는 지난해 초에도 복수의 협력사와 소재·부품 단가를 10% 이상 인하하기로 한 바 있다. 이를 고려하면 소재·부품 단가 인하폭은 다소 축소됐다는 평가다. 그러나 지난해와 올해 국내 반도체 업계의 환경은 크게 변화했다. 전세계 IT 기업들이 공격적인 AI 인프라 투자를 진행하면서, 메모리반도체 가격은 지난해 상반기부터 고부가 및 범용 제품을 가리지 않고 크게 상승했다. 이에 삼성전자(43조6000억원), SK하이닉스(47조2063억원)는 나란히 지난해 역대 최대 실적을 기록했다. 올해 역시 양사 영업이익이 도합 400조원에 달할 수 있다는 전망이 제기될 정도로 업황이 초호황이다. 반면 소재·부품 단가는 오히려 인하되면서, 국내 기업들은 반도체 슈퍼사이클 속에서도 낙수 효과를 제대로 누리기 힘들어졌다. 설상가상으로 대외적 불확실성은 높아졌다. 지속적인 환율 상승과 더불어, 최근 불거진 이란 전쟁의 여파로 금·은·구리·알루미늄·쿼츠 등 핵심 원자재 가격이 전반적으로 급등했기 때문이다. 물류비 역시 크게 오르고 있다. 익명을 요청한 국내 한 반도체 소재·부품 업계 임원은 "올해 단가 인하율이 전년 대비 줄어들기는 했으나, 최근 물가 및 원자재 비용의 상승 현상을 반영하면 국내 소재·부품의 실질적인 이익은 감소하는 것과 다름없다"며 "제도적으로 완충 장치가 필요한 상황"이라고 어려움을 토로했다. 매년 비용 효율화를 실현해야 하는 삼성전자, SK하이닉스 구매 부서 입장에서는 단가 인하가 핵심 과업에 속한다. 그러나 소재·부품의 수익성 하락 압박이 커질 경우, 중견 협력사들의 연구개발(R&D)에 투입되는 비용이 줄어드는 등 중장기적으로 국내 반도체 생태계가 약화될 가능성도 거론된다. 또 다른 업계 임원은 "원가 압박을 탈피하기 위해서는 결국 제품 개발이나 설비 투자에 필요한 재원을 줄이는 방향으로 나아가게 될 것"이라며 "중국 기업들의 추격이 거센 가운데, 국내 소재·부품 기업들이 경쟁력을 유지하기 위해서는 수요기업과 공급기업 간 균형 잡인 이익 분배가 실현돼야 한다"고 강조했다.

2026.04.01 14:46장경윤 기자

터보퀀트, AI 메모리 문제 해결할까

최근 공개된 터보퀀트가 인공지능(AI) 메모리 문제를 해결할 지에 관심이 쏠렸다. KAIST는 전기및전자공학부 한인수 교수가 참여한 구글 리서치, 딥마인드, 뉴욕대 공동 연구팀이 인공지능(AI) 모델의 고질적인 한계로 꼽혀온 메모리 과부하 문제를 해결할 차세대 양자화 알고리즘 '터보퀀트(TurboQuant)'를 공개했다고 27일 밝혔다. AI 모델은 입력 데이터를 벡터 형태로 바꾼 뒤, 벡터 간 유사도를 계산해 작동한다. 이 과정에서 고정밀 데이터를 사용하기 때문에 막대한 메모리 자원이 필요한 점이 주요 한계로 지적돼 왔다. 터보퀀트는 이러한 고정밀 데이터를 더 적은 비트로 압축해 표현하는 '양자화' 기술을 활용한다. 소수점 데이터를 정수로 근사하는 방식으로, 핵심 정보는 유지하면서도 저장 용량과 연산 부담을 크게 줄이는 기술이다. 이번 연구에서 터보퀀트는 AI 모델 내부 정보를 효율적으로 압축해 정확도 저하를 거의 없이 최대 6배까지 메모리를 절감했다. 특히 AI 추론 과정에서 가장 큰 장애물로 꼽히는 메모리 병목 문제를 효과적으로 해소한 점이 핵심 성과다. 터보퀀트의 핵심은 두 단계로 나누어진 양자화 구조다. 먼저 1단계에서는 입력 데이터를 무작위로 회전(Random Rotation)시킨 뒤 각 요소를 개별적으로 양자화한다. 이 과정은 데이터 내 극단값(outlier)을 줄여 압축 효율을 높이는 역할을 한다. 해당 방식은 한인수 교수가 참여한 기존 연구 '폴라퀀트(PolarQuant)'에서도 활용된 바 있다. 이어 2단계에서는 1단계에서 발생한 오차를 다시 한 번 양자화한다. 이때 적용되는 QJL(Quantized Johnson-Lindenstrauss) 기법은 데이터를 {-1, 1} 값만으로 표현하는 초경량(1비트) 방식으로, 정보 손실을 최소화하면서도 연산 효율을 극대화할 수 있다. 이러한 기술적 발전은 반도체 메모리 시장에도 중장기적인 활력을 불어넣을 것으로 기대된다. 한인수 교수는 “AI 모델의 성능이 커질수록 메모리 사용량이 급격히 증가하는 것이 가장 큰 한계로 지적되어 왔다”며, “이번 연구는 이러한 병목을 효과적으로 줄이면서도 정확도를 유지할 수 있는 새로운 방향을 제시했다”고 설명했다. 한 교수는 또 “앞으로 대규모 AI 모델을 보다 효율적으로 운영할 수 있는 핵심 기반 기술로 활용될 것으로 기대한다”고 덧붙였다.

2026.03.27 17:20박희범 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

삼성전자, SK하이닉스의 고대역폭메모리(HBM) 출하량이 올해에도 큰 폭의 성장을 이어갈 전망이다. 삼성전자의 경우 엔비디아와 브로드컴, AMD 등 고객사 수요로 출하량이 100억Gb(기가비트)를 넘길 것으로 관측된다. SK하이닉스는 최근 엔비디아향 HBM4에서 성능 논란을 겪었지만, 적정한 성능 선에서 제품을 공급하는 데 무리가 없을 것이라는 평가가 중론이다. 결과적으로 양사 모두 연초 설정했던 HBM 출하량 계획에서 큰 변동은 없을 것으로 보인다. 27일 업계에 따르면 삼성전자, SK하이닉스의 올해 HBM 출하량은 용량 기준 도합 300억Gb에 달할 전망이다. 삼성전자, HBM 출하량 100Gb 돌파 전망…HBM4 성과 두각 삼성전자는 올해 HBM 생산량을 지난해 대비 3배 이상 확대하겠다는 목표를 세우고 있다. 황상준 삼성전자 메모리개발담당 부사장은 지난 16일(현지시간) 미국에서 열린 'GTC 2026'에서 "HBM 생산을 빠르게 확대하고 있다. 올해는 지난해 대비 3배 이상 수준으로 늘릴 계획"이라고 밝힌 바 있다. 삼성전자의 지난해 총 HBM 출하량은 40억Gb 내외로 추산된다. 이를 고려하면 올해 출하량 목표치는 110억Gb 내외에 달할 전망이다. 실제로 삼성전자는 지난해 말께 올해 HBM 사업 전략을 구상하는 단계에서 이 같은 성장세를 자신한 것으로 전해진다. 당시 차세대 제품인 HBM4가 엔비디아로부터 긍정적인 피드백을 받았고, AMD와 브로드컴 등 타 고객사와의 공급 협의도 사실상 마무리 단계에 접어들어서다. 브로드컴은 구글, 오픈AI 등 빅테크의 AI 반도체를 위탁 생산하고 있다. 특히 엔비디아는 삼성전자 HBM4의 가장 큰 고객사가 될 전망이다. 삼성전자는 HBM의 코어 다이로 1c(6세대 10나노급) D램을, 컨트롤러 역할의 베이스 다이는 자사 파운드리 4나노미터(nm) 공정을 채택했다. 두 다이 모두 경쟁사 대비 공정이 고도화됐다. 이를 토대로 삼성전자는 엔비디아가 높인 HBM4 성능 기준을 가장 먼저 충족했다는 평가를 받았다. 당초 국제반도체표준화기구(JEDEC)가 정한 HBM4의 성능은 8Gbps급이었으나, 엔비디아는 이를 11.7Gbps 수준까지 요구했다. HBM3E 제품에서는 브로드컴이 가장 큰 고객사로 꼽힌다. 구글은 자체 제작한 AI 반도체 TPU(텐서처리장치)에 HBM을 탑재하고 있으며, 올해는 HBM3E 기반의 v7p 버전의 물량을 크게 확대할 것으로 알려졌다. 반대로 삼성전자의 HBM 출하량이 더 늘어날 가능성은 높지 않다는 평가다. 올해 말까지 삼성전자가 확보 가능한 1c D램의 생산능력은 월 13만장 수준이다. 이 중 대부분이 HBM에 할당된 상태로, 추가적인 생산능력 확보가 어려운 상황인 것으로 관측된다. SK하이닉스, 성능 논란 속에서도 당초 출하량 계획 변동 無 SK하이닉스의 올해 HBM 출하량은 전년(120억Gb 수준) 대비 60%가량 증가한 200억Gb 내외에 달할 전망이다. 이 중 3분의 2가량이 엔비디아에 할당된 것으로 파악된다. 상반기에는 HBM3E를 주력으로 공급하고, 하반기부터 HBM4 공급량이 확대될 예정이다. 최근 SK하이닉스는 엔비디아향 HBM4 공급에 차질이 생길 수 있다는 우려에 휩싸인 바 있다. 엔비디아가 상향 조정한 HBM4 성능을 만족시키기 어렵다는 이유에서다. SK하이닉스의 HBM4는 코어다이로 1b(5세대 10나노급) D램을, 베이스다이로 TSMC의 12나노 공정을 채택했다. 삼성전자 대비 레거시(성숙) 공정에 해당한다. 실제로 SK하이닉스의 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 난항을 겪었다. 코어 다이 최상부층까지 전력이 제대로 도달되지 않는 문제가 가장 큰 요인으로 지목된다. 이에 SK하이닉스는 일부 회로를 수정하는 방안으로 개선 작업을 진행해 왔다. 다만 SK하이닉스가 당초 계획한 엔비디아향 HBM 공급량에 변동이 생길 가능성은 극히 적은 것으로 관측된다. 엔비디아가 HBM4의 성능을 최대 11.7Gbps까지 요구하기는 했으나, 10Gbps 등 하위 성능의 제품도 동시에 수급하기 때문이다. 최상위 제품만 도입하는 경우 최첨단 최신 AI 칩인 '베라 루빈'을 충분히 양산하지 못할 수 있어, 이 같은 전략을 짠 것으로 풀이된다. 곽노정 SK하이닉스 사장도 최근 열린 SK하이닉스 정기 주주총회 현장에서 "고객사와의 협의로 약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다"고 밝힌 바 있다. 반도체 업계 관계자는 "HBM4가 상용화 시점에 접어들면서 다양한 성능, 고객사 관련 이슈들이 떠오르고 있으나, 삼성전자와 SK하이닉스 모두 당초 계획했던 HBM 출하량 변동에서 큰 조정은 없는 상황"이라며 "HBM 총 공급능력이 수요를 크게 밑도는 수준이라, 결국 양사 제품이 무난하게 잘 팔릴 것이라는 게 중론"이라고 설명했다.

2026.03.27 11:07장경윤 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

곽노정 SK하이닉스 "순현금 100조 확보해 장기적 전략 투자 집행"

SK하이닉스가 고대역폭메모리(HBM) 등 AI 메모리 수요에 적기 대응하기 위한 준비에 나선다. 중장기적으로 안정적인 투자를 집행하기 위해 순현금 100조원 이상을 확보하는 것이 목표다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 기존 메모리 수요는 IT 업황에 따라 하락과 상승을 반복하는 '사이클' 현상을 반복해왔다. 그러나 전세계 AI 기업들의 공격적인 인프라 투자에 따라, 고성능 AI 메모리 수요가 구조적인 공급 부족 현상에 직면할 수 있다는 시각이 제기되고 있다. 이에 SK하이닉스도 업황에 따라 설비투자 규모를 축소 및 확대하는 것이 아닌, 중장기적으로 안정적인 투자를 집행할 수 있는 재무건전성 확보에 나선다. 곽 사장은 "고객사 수요에 맞춰 안정적으로 투자를 집행할 수 있는 재무 건전성을 확보하는 것이 반드시 필요하다"며 "이에 회사는 순현금 100조원 이상을 확보하고자 한다. 이를 통해 어떠한 환경에서도 장기적이고 전략적으로 필요한 투자를 집행할 것"고 밝혔다. 이와 관련, SK하이닉스는 최첨단 메모리 생산능력 확대를 위한 투자를 적극 진행하고 있다. 올해 청주 M15X 팹 구축을 완료해 설비를 도입할 계획이며, 용인 대규모 반도체 클러스터 구축도 적극 추진 중이다.

2026.03.25 11:24장경윤 기자

삼성전자 노사 교섭 재개…총파업 위기 해결 실마리 찾나

최근 깊어진 삼성전자 노사갈등이 잠시 소강 상태에 접어들 전망이다. 삼성전자노동조합 공동투쟁본부(이하 노조)는 사측과 교섭을 재개하기로 결정했다고 24일 밝혔다. 노사는 25일 실무교섭, 26~27일 집중교섭을 진행할 예정이다. 노조는 "오늘(24일) 오후 2시 노사 미팅을 했고, 사측은 OPI 제도 성과급 투명화 및 상한 폐지를 포함해 논의하자는 입장을 밝혔다"며 "교섭은 교섭대로, 투쟁은 투쟁대로 공동투쟁본부는 두 방향 모두 최선을 다하겠다"고 설명했다. OPI는 삼성전자의 대표적 성과급 제도다. 회사 실적이 목표를 초과할 경우 초과 이익의 20% 범위에서 연봉의 최대 50%까지 지급한다. 그간 노조는 OPI 폐지를 주요 요구사항으로 제시해왔으나, 사측은 이를 받아들이지 않았다. 이에 노조는 임금교섭 쟁의행위 찬반투표로 쟁의권을 확보했다. 다음달 23일 집회를 거쳐 5월 총파업에 돌입할 계획이다. 업계는 노조 파업이 현실화하면 삼성전자의 메모리 사업에 차질이 생길 것으로 우려해 왔다. 24시간 설비 가동과 유지보수가 필요한 메모리 산업 특성 상, 엔지니어가 장기간 부재할 경우 가동이 중단되는 사태가 발생할 수 있다.

2026.03.24 17:01장경윤 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

수천억 적자의 역설… '회계 착시' 걷어낸 K-팹리스 진짜 체력

신세계가 열흘만에 오픈AI 협업 계획 뒤집은 이유

'오딘' 이어 '제우스'까지…하반기 MMORPG 경쟁 재점화

1만1000mAh 대용량 배터리폰 나오나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.