• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
국감2025
인공지능
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 메모리'통합검색 결과 입니다. (299건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SK하이닉스 "이제 메모리는 조합의 시대…커스텀 HBM·HBF에 기회"

"인공지능(AI) 시대에 메모리는 기존 천편일률적인 구조를 벗어나, 각 기능에 맞춘 메모리를 최적의 방식으로 조합하는 것이 중요해지고 있다. 이 과정에서 커스텀 고대역폭메모리(HBM), 컴퓨트익스프레스링크(CXL), 고대역폭플래시(HBF) 등이 기회를 맞게 될 것이다." 박경 SK하이닉스 담당은 4일 오전 서울 코엑스에서 열린 'SK AI 서밋 2025'에서 회사의 메모리 사업 전략에 대해 이같이 밝혔다. 메모리, 향후 기능별로 분업화…최적의 조합 만들어야 이날 'AI 서비스 인프라의 진화와 메모리의 역할'을 주제로 발표를 진행한 박 담당은 AI 인프라 투자 확대에 따른 메모리 시장의 높은 성장세를 강조했다. 발표된 자료에 따르면, 글로벌 AI 데이터센터 시장 규모는 올해 2천560억 달러에서 2030년 8천230억 달러로 연평균 26% 증가할 것으로 예상된다. 이에 따라 D램은 서버 및 HBM(고대역폭메모리)를 중심으로, 낸드는 eSSD(기업용 SSD)를 중심으로 수요가 크게 늘어날 전망이다. 또한 AI 경쟁의 축이 기존의 학습에서 추론으로 이동하면서, 요구되는 메모리의 양도 급격히 증가하는 추세다. 추론 과정에서 KV(키-값) 캐시가 매 요청마다 생성되고 누적되면서, 메모리 용량과 대역폭을 상당 부분 소모하기 때문이다. KV 캐시는 키-값 구조로 데이터를 저장하는 캐시 시스템이다. 이전 연산 결과를 재활용해 추론 속도를 높이는 데 활용된다. 박 담당은 "AI 추론에서는 주어진 문장에 포함된 토큰 수와 사용자의 수에 따라 KV 캐시가 급증하는 것이 변수"라며 "이 KV 캐시로 촉발되는 메모리 요구량을 어떻게 잘 대응하느냐가 추론 시대에서 가장 중요한 화두가 될 것"이라고 설명했다. 때문에 SK하이닉스는 전체 시스템 내에서 가용되는 메모리의 성능 및 용량, 구성 방식이 AI 추론의 효율을 결정짓는 요소가 될 것으로 보고 있다. 특히 기존에는 메모리가 일반화된 계측 구조를 갖췄다면, 향후에는 기능별로 분업화된 메모리를 최적화된 구조로 조합하는 것이 핵심이 될 것으로 내다봤다. '풀 스택 AI 메모리' 전략…커스텀 HBM·HBF 등 두각 대표적인 사례가 엔비디아의 칩이다. 엔비디아는 루빈(Rubin) GPU에는 HBM4를, 베라(Vera) CPU에는 LPDDR5X(저전력 D램)를, 루빈 CPX(AI 추론에서 문맥 처리에 특화된 전용 가속기)에는 GDDR7(그래픽 D램)을 채용해 하나의 시스템을 구성하고 있다. 박 담당은 "예전에는 x86 CPU에 D램과 낸드를 붙이는 천편일률적인 메모리 구조가 지배적이었으나, 이제는 기능별로 메모리를 배치해야 하는 조합의 시대로 바뀌고 있다"며 "이 상황에서 메모리 공급사는 단순히 메모리 용량을 더 많이 제공하는 것이 아닌, 고객사 칩 성능에 따라 가장 효율적인 메모리 조합을 제시할 수 있어야 한다"고 강조했다. 이에 SK하이닉스는 '풀 스택 AI 메모리 크리에이터'라는 개념으로 AI 메모리 제품군을 적극 확장하고 있다. HBM4E부터 커스텀 HBM 공급을 준비 중이며, 기존 D램을 고객사 요구에 맞춰 더 세분화된 제품으로 개발하고 있다. 낸드 역시 초고성능과 대역폭, 초고용량 등 세 가지 방향에 맞춰 맞춤형 제품을 개발 중이다. 샌디스크와 협업해 개발 중인 HBF가 대표적인 사례다. HBF는 D램을 수직으로 여러 개 적층하는 HBM(고대역폭메모리)와 유사하게, 낸드를 여러 층 적층해 메모리 대역폭을 끌어올린 차세대 메모리다.

2025.11.04 13:27장경윤

커스텀 'AI 메모리' 강자 노리는 SK하이닉스, 엔비디아·TSMC와 협력 강화

SK하이닉스가 폭발적인 AI 수요에 대응하기 위한 새로운 D램·낸드 개발에 총력을 기울이고 있다. HBM(고대역폭메모리) 분야에서도 고객사 요구에 최적화된 커스텀 HBM을 개발에 힘을 쏟겠다는 전략이다. 이를 위해 SK하이닉스는 주요 파트너사와의 협력을 한층 더 강화할 계획이다. 엔비디아와 AI 제조 혁신을 추진하고 있으며, TSMC와는 차세대 HBM 베이스 다이(Base Die) 분야에서 협업하고 있다. 샌디스크와도 HBF(고대역폭플래시) 시장 개화를 위한 국제 표준화를 추진 중이다. 곽노정 SK하이닉스 대표이사 사장은 3일 서울 코엑스에서 열린 'SK AI 서밋 2025' 기조연설에서 회사의 향후 사업 전략에 대해 이같이 밝혔다. 곽 사장은 "AI 시대에서 메모리의 중요성이 더 커지고 있는 만큼, SK하이닉스는 단순한 메모리 공급사가 아닌 '풀스택 AI 메모리 크리에이터'를 지향하고자 한다"며 "이를 위해 새로운 메모리 솔루션을 개발할 것"이라고 밝혔다. SK하이닉스가 제시한 새로운 메모리 솔루션으로는 커스텀 HBM(고대역폭메모리), AI-D(AI D램), AI-N(AI 낸드) 등이 있다. 커스텀 HBM은 기존 시스템반도체에 있던 기능 일부를 HBM 베이스 다이로 옮겨, 고객사 요구에 최적화된 데이터 처리 성능을 구현한다. AI-D의 경우, 최적화 관점에서 총소유비용 절감과 운영 효율화를 지원하는 저전력 고성능 D램인 'AI-D O(Optimization)'을 개발하고 있다. 두 번째로 초고용량 메모리 및 자유자재로 메모리 할당이 가능한 'AI-D B(Breakthrough)' 설루션을 준비 중이며, 마지막으로 응용분야 확장 관점에서 로보틱스, 모빌리티, 산업 자동화 같은 분야로 용처를 확장한 'AI-D E(Expansion)'을 준비하고 있다. AI-N은 초고성능을 강조한 'AI-N P(Performance)', HBM 용량 증가의 한계를 보완할 수 있는 방안으로 적층을 통해 대역폭을 확대한 'AI-N B(Bandwidth)', 초고용량을 구현해 가격 경쟁력을 강화한 'AI-N D(Density)'라는 세 가지 방향의 차세대 스토리지 설루션을 준비하고 있다. 또한 SK하이닉스는 차세대 메모리 개발을 가속화하고자 업계 최고 파트너들과의 기술발전 협업을 더욱 강화해 나갈 계획이다. 대표적으로 SK하이닉스는 엔비디아와 HBM 협력뿐 아니라 옴니버스(Omniverse), 디지털 트윈(Digital Twin)을 활용해 AI 제조 혁신을 추진하고 있으며, 오픈AI와 고성능 메모리 공급을 위한 장기 협력을 진행 중이다. TSMC와도 차세대 HBM 베이스 다이 등에 대해 밀접하게 협업하고 있다. 더불어 샌디스크와는 HBF(고대역폭플래시)의 국제 표준화를 위해 협력하고 있으며, 실제 데이터센터 환경에 차세대 AI 메모리와 스토리지 제품을 최적화하기 위해 네이버클라우드와 협력도 진행하고 있다. 곽 사장은 "AI 시대의 경쟁은 혼자만의 역량이 아닌 고객과 파트너들과의 협업을 통해 더 큰 시너지를 만들어내고 더 나은 제품을 만들어 나가는 업체가 결국 성공할 것"이라며 "언제나 파트너들과 함께 협력하고 도전해서 미래를 개척하도록 하겠다"고 밝혔다.

2025.11.03 12:50장경윤

"메모리, 공급 자체가 병목화"…최태원 회장, '통 큰' 투자 결의

SK그룹이 폭발적인 AI 수요 성장세에 대응하기 위해 적극적인 설비투자·기술개발을 진행한다. HBM(고대역폭메모리) 양산을 담당할 신규 'M15X' 팹에 장비 반입을 시작한 가운데, 오는 2027년에는 용인 클러스터를 오픈해 생산능력을 지속 확충할 계획이다. 최태원 SK그룹 회장은 3일 'SK AI 서밋 2025' 기조연설에서 "용인 클러스터는 완성 시 M15X 팹 24개가 동시에 들어서는 것과 같은 규모"라며 "상당히 많은 설비투자액을 요구하지만 공급부족 현상을 최대한 막아보려고 한다"고 밝혔다. AI 수요 폭발적…"메모리, 성능 아닌 공급 자체가 병목화" 이날 'AI의 지금과 다음(AI Now & Next)'을 주제로 발표를 진행한 최 회장은 "AI 데이터센터 투자 규모는 2020년 2천300억 달러에서 올해 6천억 달러로 매년 24% 증가해 왔다"며 "앞으로는 빅테크 및 신규 기업들의 투자로 인해 AI 인프라 투자가 이전보다 더 폭발적으로 성장할 확률이 존재한다"고 강조했다. AI 수요 성장세에 대한 근거는 매우 다양하다. 최 회장은 ▲AI 추론의 본격화 ▲B2B 영역의 본격적인 AI 도입 ▲에이전트 AI의 등장 ▲소버린 AI 경쟁 등이다. 그러나 컴퓨팅 파워 공급은 AI 수요의 성장세를 따라가지 못하고 있다. 특히 AI 구현에 필수적인 GPU 등 시스템반도체, HBM(고대역폭메모리)와 같은 서버용 메모리도 병목현상을 겪고 있다. 최 회장은 "예전에는 GPU 하나에 HBM 하나를 연결했으나, 지금은 HBM 연결이 12개 이상까지 늘어나는 등 메모리 칩의 공급량을 전례 없이 빠른 속도로 소진시키고 있다"며 "이 여파가 기존 범용 메모리에도 영향을 주면서, 이제는 성능이 아닌 공급 자체가 병목화되고 있다"고 설명했다. 그는 이어 "요즘 너무 많은 기업으로부터 메모리 칩 공급 요청을 받고 있어 당사가 어떻게 소화하냐가 하나의 걱정"이라며 "공급 문제를 해결하지 못하면 고객사가 사업 자체를 못 하는 상황에 접어들 수 있어 책임감을 가지고 있다"고 덧붙였다. 설비투자에 주력…"용인 클러스터, M15X 팹 24개와 맞먹는 규모" 이에 고객사들은 안정적인 메모리 수급 전략에 총력을 기울이고 있다. 챗GPT의 창시자인 오픈AI가 지난달 초 SK하이닉스·삼성전자와 전방위적 협력을 체결하며 월 90만장 수준의 HBM 공급을 요구한 것이 대표적인 사례다. 해당 수준은 현재 기준 전 세계 HBM 생산량 총합의 2배 규모에 해당한다. 최 회장은 "샘 올트먼 오픈AI CEO도 미래 AI 주도권을 확보하려면 HBM 병목현상이 가장 핵심 요소임을 잘 알고 있다"며 "이 문제를 해결하려면 설비투자(CAPEX)와 기술 관점에서 접근해야 한다"고 설명했다. 설비투자의 경우, SK하이닉스는 최근 청주에 HBM 양산을 주력으로 담당할 'M15X' 팹의 설비반입을 시작했다. 이 공장은 내년부터 본격 가동될 예정이다. 또한 오는 2027년에는 용인 클러스터 팹을 오픈할 계획이다. 용인 클러스터는 총 4개 팹으로 구성되며, 각 팹이 6개의 M15X 팹을 합친 것과 같은 대규모로 조성된다. 최 회장은 "용인 클러스터가 다 완성되면 24개의 청주 M15X 팹이 동시에 들어가는 것과 같은 생산능력을 확보하게 된다"며 "계속 장비를 도입해 수요에 대비할 수 있도록 하고 있고, 상당히 많은 투자를 요하지만 최소한 공급 부족 현상을 막을 수 있도록 하겠다"고 말했다. 기술 측면에서는 초고용량 메모리 칩을 개발하거나, 상대적으로 저렴하면서도 데이터 저장력이 뛰어난 낸드의 개념을 도입하는 방식 등을 추진하고 있다. 최 회장은 "젠슨 황 엔비디아 CEO조차도 이제는 저에게 더 이상 개발 속도에 대해 이야기하지 않는다"며 "SK하이닉스의 기술력이 이미 업계에서 어느 정도 증명이 됐다고 생각한다"고 밝혔다.

2025.11.03 12:49장경윤

삼성전자, 엔비디아와 HBM 동맹 강화…세계 최대 반도체 AI 팩토리로 제조 혁신 가속

삼성전자가 엔비디아와 손잡고 차세대 반도체 제조 혁신의 핵심으로 떠오른 '반도체 AI 팩토리' 구축에 적극 나선다. 특히 HBM4 등 초고성능 메모리 공급을 확대하며 AI 생태계 전반에서 협력 강화를 예고했다. 엔비디아와 전략 협력… AI 팩토리로 제조 혁신 가속 삼성전자는 31일 엔비디아와의 전략적 협력을 통해 AI 기술을 기반으로 한 '반도체 AI 팩토리' 구축 계획을 발표했다. 이 공장은 반도체 설계·공정·운영·장비·품질관리 등 모든 제조 단계에 AI를 적용, 데이터를 실시간으로 분석·예측·제어하는 지능형 생산 체계를 구현한다. 삼성전자는 향후 수년간 5만 개 이상의 엔비디아 GPU를 도입해 AI 팩토리 인프라를 확충하고, 엔비디아의 옴니버스기반 시뮬레이션 환경을 활용해 디지털 트윈 공정 혁신을 추진할 계획이다. 이를 통해 차세대 반도체 개발 및 양산 주기를 단축하고 제조 효율성과 품질 경쟁력을 강화하겠다는 전략이다. HBM4로 AI 시대 메모리 경쟁력 확대 삼성전자는 AI 팩토리 구축과 함께 엔비디아에 ▲HBM3E ▲HBM4 ▲GDDR7 ▲SOCAMM2 등 차세대 메모리 제품군과 파운드리 서비스를 공급할 예정이다. 특히 HBM4의 경우, 10나노급 6세대(1c) D램 기반에 4nm(나노미터, 10억분의 1m) 로직 공정을 적용해 업계 표준(8Gbps)을 뛰어넘는 11Gbps 이상의 성능을 구현했다. 삼성전자는 “HBM4는 초고대역폭과 저전력 특성을 바탕으로 AI 학습 및 추론 속도를 획기적으로 향상시켜 엔비디아 AI 플랫폼의 성능을 높일 것”이라고 밝혔다. 현재 삼성전자는 엔비디아, AMD 등 글로벌 고객사에 HBM3E를 공급 중이며, HBM4 샘플 출하도 마무리하고 양산 준비에 들어갔다. 25년 협력의 결실… AI 반도체 동맹으로 진화 삼성전자와 엔비디아의 협력은 1990년대 말 그래픽 D램 공급으로 시작돼 25년 이상 이어져 왔다. 이번 AI 팩토리 프로젝트는 양사의 기술 협력이 'AI 반도체 동맹'으로 진화한 상징적 사례로 평가된다. 삼성전자는 이미 일부 공정에서 엔비디아의 쿠리소(cuLitho), 쿠다-X(CUDA-X) 기술을 도입해 미세공정 회로 왜곡을 실시간으로 예측·보정하는 시스템을 구축했다. 이를 통해 시뮬레이션 속도를 20배 높이고, 설계 정확도와 개발 속도를 동시에 향상시킬 계획이다. AI 생태계 전반으로 확장… 휴머노이드·AI-RAN 협력도 삼성전자는 반도체 제조를 넘어 AI 모델, 휴머노이드 로봇, AI-RAN(지능형 기지국) 등 다양한 분야로 협력을 확장하고 있다. 자체 AI 모델은 엔비디아 GPU 기반 메가트론 프레임워크로 구축돼 실시간 번역·다국어 대화·요약 등에서 높은 성능을 보이고 있다. 또한, 엔비디아의 젯슨 토르(Jetson Thor) 플랫폼을 활용한 로봇 제어 기술, RTX PRO 6000 블랙웰 서버 에디션기반 로보틱스 고도화 등에서도 협력을 이어가고 있다.

2025.10.31 15:03전화평

"AI가 살렸다" 삼성전자, 반도체·모바일서 동반 성장 견인

삼성전자가 AI(인공지능) 수요 급증 효과를 톡톡히 누리며 3분기 실적 반등에 성공했다. 메모리·파운드리 등 반도체 부문이 일제히 회복세를 보였고, 모바일 사업도 플래그십 판매 호조로 견조한 실적을 유지했다. 삼성전자는 30일 올해 3분기 확정 및 세부 실적을 공개했다. 영업이익은 12조2천억원으로 전년 동기 대비 32.48% 증가했다. 6분기 만에 두 자릿수 영업이익을 회복했다. 매출은 전년과 비교해 8.8% 상승한 86조1천억원을 기록했다. 분기 기준 최대 매출 실적이다. 반도체 “AI 수요 폭발”…HBM·2나노가 실적 견인 메모리 사업은 AI 데이터센터 확산에 따른 HBM3E·DDR5·서버 SSD 판매 확대 덕분에 분기 기준 역대 최대 매출을 올렸다. 특히 서버향 수요가 공급량을 크게 웃도는 상황에서 가격 상승이 이어지며 이익이 급증했다. 파운드리(반도체 위탁생산)는 2nm(나노미터, 10억분의 1m) 공정 중심의 선단 공정 확대와 가동률 개선, 원가 절감 효과로 적자 폭이 크게 축소됐다. 삼성전자는 “3분기 선단 공정 수주가 역대 최대를 기록했다”며 “4분기부터 2나노 1세대 양산이 본격화될 것”이라고 밝혔다. 또한 미국 텍사스 테일러 신규 팹을 2026년부터 본격 가동해 북미 AI 고객 수요에 대응할 계획이다. MX·가전, 프리미엄 제품으로 수익성 유지…스마트폰 6천100만대 출하 모바일 사업을 담당하는 MX 부문은 폴더블폰 갤럭시 Z 폴드7과 플립7, 플래그십 S25 시리즈 판매 호조로 견조한 실적을 기록했다. 3분기 스마트폰 출하량은 6천100만대, 태블릿은 700만대였다. 스마트폰 ASP(평균판매단가)는 304달러(약 43만2천원)로 직전 분기 대비 약 13% 상승했다. 삼성전자는 4분기에도 플래그십과 에코시스템 제품 중심의 판매 확대를 통해 전년 대비 연간 매출 성장과 수익성 유지를 목표로 한다. 회사는 "메모리 등 부품 가격 상승이 예상돼 원가 부담이 가중될 것으로 전망된다"며 "플래그십 중심 판매와 전사적 프로세스 효율화를 통해 수익성을 유지하겠다"고 설명했다. 가전(VD) 부문은 QLED·OLED TV 등 프리미엄 제품 비중 확대와 마이크로 RGB 등 신제품 효과로 매출 성장세를 이어갔다. “AI 투자 지속, 2026년 탄력적 설비투자 확대” 삼성전자 박순철 CFO는 “3분기 실적 반등으로 시장과 주주 기대에 일부 부응했다”며 “AI 중심 산업 성장세를 기회로 삼아 실적 개선을 이어가겠다”고 밝혔다. 4분기에도 AI 반도체 수요가 강세를 유지할 것으로 보이며, 이에 따라 메모리·시스템 반도체 투자를 전략적으로 확대할 계획이다. 연간 설비투자액은 47조4천억원 규모로 집계된다. 부문별로는 DS부문(반도체)이 40조9천억원, SDC(삼성디스플레이)가 3조3천억원 수준이다. 2026년에는 AI 수요 확대에 맞춰 투자 규모를 탄력적으로 확대할 방침이다. 삼성전자는 “AI 중심 산업 구조 변화가 실적 개선의 핵심 동력”이라며 “AI 반도체·모바일·가전 등 전 사업군에서 시너지를 극대화하겠다”고 밝혔다.

2025.10.30 13:56전화평

삼성전자 "내년 HBM 고객사 수요 이미 확보…증산도 검토 중"

삼성전자가 HBM(고대역폭메모리) 사업 확대에 대한 강한 의지를 내비쳤다. 내년 HBM의 출하량을 올해 대비 대폭 확대할 계획으로, 해당 계획분에 대한 고객사 수요를 이미 확보한 상태다. 또한 고객사의 추가 수요를 고려해, HBM 증산 가능성을 내부적으로 검토하고 있는 것으로 알려졌다. 삼성전자는 30일 2025년 3분기 실적발표 컨퍼런스콜을 통해 HBM 사업 현황 및 내년 계획에 대해 밝혔다. 이날 회사는 엔비디아향 HBM3E 퀄 테스트 완료 여부와 관련해 "고객사에 대한 정보는 언급할 수 없다"면서도 "HBM 수요가 공급보다 빠른 속도로 늘어나고 있고, 당사 또한 모든 고객사를 대상으로 HBM3E 양산 판매를 확대해나가고 있다"고 답했다. 이에 삼성전자의 3분기 HBM 판매량은 전분기 대비 80% 중반 수준으로 확대됐다. 이 중 상당한 비중이 HBM3E로 전환됐다는 게 삼성전자의 설명이다. HBM4의 경우 모든 고객사에 샘플을 출하한 상태다. 특히 최근 일부 고객사는 HBM4의 데이터 처리 성능을 더 높일 것을 요구했는데, 삼성전자는 이에 대해 "HBM4 개발 단계서부터 이러한 니즈를 반영해 제품을 개발했고, 현재 고객들에게 전달된 샘플도 11Gbps 이상의 성능을 저전력으로 충분히 만족시킬 수 있다"고 강조했다. 이에 삼성전자는 내년 HBM4에 탑재되는 1c(6세대 10나노급) D램의 생산능력을 적극 확대할 계획이다. 삼성전자는 "내년 HBM 생산 계획은 올해 대비 대폭 확대 수립했으나, 해당 계획분에 대한 고객 수요를 이미 확보했다"며 "추가적인 수요가 접수되고 있어 HBM 증산 가능성에 대해 내부 검토 중"이라고 밝혔다.

2025.10.30 11:15장경윤

SK하이닉스, 3개 분기 연속 D램 매출액 1위…HBM 효과

SK하이닉스가 3개 분기 연속 전체 D램 시장에서 매출액 1위를 차지한 것으로 나타났다. 시장조사업체 카운터포인트리서치에 따르면 2025년 3분기 SK하이닉스의 D램 매출액은 137억 달러(한화 약 19조6천억원)로 3개 분기 연속 1위를 기록했다. SK하이닉스는 이번 분기 삼성전자에 메모리 시장 1위를 내줬지만, D램 시장에서는 HBM과 함께 범용 D램에서도 좋은 성적을 보이며 3분기 연속 1위를 지킬 수 있었다. 다만 삼성전자와의 격차는 1% 수준으로 축소됐다. HBM 부문에서는 58%의 시장 점유율로 독보적 1위를 달리고 있으며, HBM4 또한 어려움 없이 고객사의 요구사항에 맞춰 납품할 수 있을 것으로 예상된다. SK하이닉스는 이날 3분기 실적발표 컨퍼런스콜을 통해 "HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다"며 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획"이라고 밝힌 바 있다. 범용 D램의 경우 수요 확대로 인한 가격 상승으로 특히 더 좋은 성적을 낼 수 있었던 것으로 분석된다. 최정구 카운터포인트 책임 연구원은 “SK하이닉스는 AI 메모리 수요 급증에 따라 4분기에도 좋은 성적이 기대된다"며 "HBM4 개발에서도 고객사의 변화하는 요구사항에 잘 부응하고 있으며 수율 측면에서도 선두적 위치에 있다"고 설명했다.

2025.10.29 14:57장경윤

11.3조원 쏜 SK하이닉스, 내년도 HBM·D램·낸드 모두 '훈풍'

올 3분기 사상 최대 분기 실적을 거둔 SK하이닉스가 내년에도 성장세를 자신했다. 메모리 산업이 AI 주도로 구조적인 '슈퍼사이클'을 맞이했고, 핵심 사업인 HBM(고대역폭메모리)도 주요 고객사와 내년 공급 협의를 성공적으로 마쳤기 때문이다. 이에 SK하이닉스는 내년 설비투자 규모를 올해 대비 확대하고, HBM과 범용 D램, 낸드 모두 차세대 제품의 생산능력 비중 확대를 추진하는 등 수요 확대에 대응하기 위한 준비에 나섰다. 29일 SK하이닉스는 3분기 실적발표를 통해 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 밝혔다. 창사 이래 최대 실적…'메모리 슈퍼사이클' 이어진다 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. 또한 분기 기준 역대 최대 실적으로, 영업이익이 창사 이래 최초로 10조원을 넘어섰다. 호실적의 주요 배경에는 AI 중심의 메모리 슈퍼사이클 효과가 있다. AI 인프라 투자에 따른 데이터센터 및 일반 서버 수요가 확대되면서, D램과 낸드 모두 수요가 빠르게 증가하는 추세다. 특히 주요 메모리 공급사들이 HBM(고대역폭메모리) 양산에 생산능력을 상당 부분 할당하면서, 범용 D램의 수급이 타이트해졌다는 분석이다. SK하이닉스는 "HBM뿐 아니라 일반 D램·낸드 생산능력도 사실상 완판 상태”라며 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 밝혔다. 메모리 사업에도 근본적인 변화가 감지된다. AI가 단순히 새로운 응용처의 창출을 넘어, 기존 제품군에도 AI 기능 추가로 수요 구조 전체를 바꾸고 있다는 설명이다. SK하이닉스는 "이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습에서 추론으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 말했다. 이에 따라 SK하이닉스는 내년 서버 세트 출하량을 전년 대비 10% 후반 증가로 예상하고 있다. 전체 D램 빗그로스(출하량 증가율)은 내년 20% 이상, 낸드 빗그로스는 10% 후반으로 매우 높은 수준을 제시했다. HBM, 내후년까지 공급 부족 전망 SK하이닉스는 이번 실적발표 컨퍼런스콜을 통해 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 내년 엔비디아향 HBM 공급 계획도 순조롭게 진행될 것으로 전망된다. SK하이닉스는 "내년도 HBM 공급 계약을 최종 확정지었고, 가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"며 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"고 밝혔다. HBM4(6세대 HBM)는 올 4분기부터 출하를 시작해, 내년 본격적인 판매 확대에 나설 계획이다. HBM4는 엔비디아가 내년 출시할 차세대 AI 가속기 '루빈'에 탑재될 예정으로, 이전 세대 대비 I/O(입출력단자) 수가 2배로 확장되는 등 성능이 대폭 향상됐다. 또한 엔비디아의 요구로 최대 동작 속도도 이전 대비 빨라진 것으로 알려졌다. SK하이닉스는 "당사는 HBM 1위 기술력으로 고객사 요구 스펙에 충족하며 대응 중"이라며 "업계에서 가장 빠르게 고객 요구에 맞춘 샘플을 제공했고, 대량 공급도 시작할 준비가 돼 있다"고 강조했다. 설비투자·차세대 메모리로 미래 수요 적극 대응 SK하이닉스는 메모리 슈퍼사이클에 대응하기 위해 내년 설비투자 규모를 올해 대비 확대할 계획이다. 최근 장비 반입을 시작한 청주 신규 팹 'M15X'의 경우, 내년부터 HBM 생산량 확대에 기여할 수 있도록 투자를 준비 중이다. 또한 올해부터 건설이 본격화된 용인 1기팹, 미국 인디애나주에 계획 중인 첨단 패키징 팹 등으로 최첨단 인프라 구축에 대한 투자가 지속될 것으로 예상된다. 범용 D램과 낸드는 신규 팹 투자 대신 선단 공정으로의 전환 투자에 집중한다. 1c(6세대 10나노급) D램은 지난해 개발 완료 후 올해 양산을 시작할 예정으로, 내년 본격적인 램프업이 진행된다. SK하이닉스는 "내년 말에는 국내 범용 D램 양산의 절반 이상을 1c D램으로 계획하고 있다"며 "최고의 성능과 원가 경쟁력을 확보한 1c 기반 LPDDR(저전력 D램), GDDR(그래픽 D램) 라인업을 구축하고 적시에 공급해 수익성을 확보할 것"이라고 밝혔다. 낸드도 기존 176단 제품에서 238단, 321단 등으로 선단 공정의 비중을 꾸준히 확대하고 있다. 특히 내년에는 321단 제품에 대해 기존 TLC(트리플레벨셀)를 넘어 QLC(쿼드러플레벨셀)로 라인업을 확장할 계획이다. 내년 말에는 회사 낸드 출하량의 절반 이상을 321단에 할당하는 것이 목표다.

2025.10.29 11:41장경윤

AI 슈퍼사이클 왔다!...SK하이닉스 "D램·낸드까지 솔드아웃"

SK하이닉스가 D램과 낸드플래시 등 범용 메모리까지 사실상 '솔드아웃' 상태에 돌입했다. AI(인공지능) 확산에 따른 데이터센터와 일반 서버 수요 폭증이 기존 메모리 시장 전반으로 확산되면서, 메모리 반도체 업계가 2017~2018년식 단기 호황이 아닌 구조적 슈퍼사이클에 들어섰다는 평가다. SK하이닉스는 29일 열린 2025년 3분기 실적발표 컨퍼런스 콜에서 “HBM(고대역폭 메모리)뿐 아니라 일반 D램·낸드 캐파(CAPA, 생산능력)도 사실상 완판 상태”라고 밝혔다. 그러면서 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 덧붙였다. "AI가 수요 구조 재편"...공급 제약이 슈퍼사이클 장기화로 이어져 SK하이닉스는 올해 메모리 시장이 예상보다 빠른 회복세를 보인 이유로 AI 패러다임 전환이 기존 응용처 전반의 수요 구조를 재편한 점을 꼽았다. 회사는 “AI는 새로운 응용처를 창출하는 데 그치지 않고, 기존 제품군에도 AI 기능이 더해지며 수요 구조 전체를 바꾸고 있다”는 설명했다. 이어 “이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습(Training)에서 추론(Inference)으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 전했다. 이에 따라 “내년 서버 세트 출하량이 전년 대비 10% 후반 증가할 것으로 예상된다”며 “서버향 수요가 범용 D램 시장을 지속적으로 견인할 것”이라고 덧붙였다. SK하이닉스는 HBM 생산 확대가 오히려 전체 메모리 공급을 제한하는 구조적 요인으로 작용하고 있다고 분석했다. 회사는 “HBM 생산을 늘리기 위해 클린룸 공간을 확충하더라도 전체 생산량 증가는 제한적일 수밖에 없다”며 “이러한 구조적 제약이 D램 산업의 공급 증가를 억제해 장기 호황의 기반이 되고 있다”고 설명했다. “선주문·장기계약 확산으로 산업 패러다임도 변화” 이에 HBM을 비롯한 일부 사업은 산업 형태가 전환되는 추세다. D램, 낸드플래시 등 기존 범용 메모리는 반도체 제조사가 시장 수요를 예측해 제품을 먼저 생산하고 재고를 확보한 뒤 판매하는 방식이었다. '선제작 후판매' 방식인 셈이다. 그러나 AI 시대의 본격화로 맞춤형 메모리 시장이 열리기 시작하며 파운드리(반도체 위탁생산)와 같은 '선주문 후판매' 방식으로 형태가 전환되기 시작했다. SK하이닉스는 “고객들의 강한 수요 의지로 인해 초기 계약 시점부터 연간 단위 장기계약으로 가시성을 확보하고 있으며, 이로 인해 산업의 예측 가능성과 사업 안정성이 모두 높아지고 있다”고 했다. 또한 “HBM4E부터는 고객의 GPU·ASIC(맞춤형 반도체) 설계 초기 단계부터 공동개발하는 커스텀 HBM 구조가 본격화될 것”이라며 “특정 고객과의 전략적·장기 거래로 이어져 수익성과 안정성이 동시에 강화될 것”이라고 밝혔다.

2025.10.29 10:29전화평

HBM '수익 방어' 성공한 SK하이닉스 "내년도 공급 타이트"

SK하이닉스가 주요 고객사들과 내년 HBM(고대역폭메모리) 공급 협의를 완료한 가운데, 가격 역시 현재의 수익성을 유지 가능한 수준으로 형성했다고 밝혔다. SK하이닉스는 29일 2025년도 3분기 실적발표 컨퍼런스콜을 통해 내년 및 내후년 HBM 사업 전략을 발표했다. 그간 SK하이닉스는 엔비디아 등 주요 고객사와 내년 HBM 공급 계획에 대해 협의해 왔다. 특히 내년 본격적으로 상용화되는 HBM4(6세대 HBM)의 가격이 향후 수익 전망의 주요 변수였다. SK하이닉스는 이전 세대 대비 2배 확장된 I/O(입출력단자) 수, 주요 부품의 외주 생산 등으로 HBM4 제조 비용 상승에 대한 압박을 받아 왔다. 이에 대해 SK하이닉스는 "이제는 고객들과 중점적으로 논의했던 부분에 대해 협의가 완료되면서 내년도 HBM 공급 계약을 최종 확정지었다"며 "가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"고 밝혔다. 또한 AI 시장이 빠르게 성장하고 있는 만큼, HBM 공급이 단기간 내에 수요를 따라잡기는 힘들다고 내다봤다. 이에 따라 HBM 성장률은 일반 D램 대비 높을 것으로 예상된다. SK하이닉스는 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"며 "고객 니즈에 맞는 제품을 적기에 공급할 수 있도록 할 것"이라고 밝혔다.

2025.10.29 09:56장경윤

SK하이닉스, 엔비디아 등과 내년 HBM 공급 협의 '완료'

SK하이닉스가 엔비디아 등 주요 고객사와의 내년 HBM(고대역폭메모리) 공급 협의를 마무리했다. 이에 따라 차세대 HBM의 양산 및 설비투자에 속도를 낼 수 있을 것으로 관측된다. SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 29일 밝혔다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. SK하이닉스는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 SK하이닉스는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자, 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, SK하이닉스는 "시황에 맞는 최적화된 투자 전략을 유지할 것"이라고 밝혔다.

2025.10.29 08:39장경윤

SK하이닉스, 창사 첫 '10조 클럽'...사상 최대 실적

SK하이닉스가 AI향 고부가 메모리 판매 확대로 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 돌파했다. SK하이닉스는 올해 3분기 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 29일 밝혔다. 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. D램과 낸드 가격 상승이 본격화되고, AI 서버용 고성능 제품 출하량이 증가하며 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 넘어섰다. SK하이닉스는 “고객들의 AI 인프라 투자 확대로 메모리 전반의 수요가 급증했다”며 “HBM3E 12단과 서버향 DDR5 등 고부가가치 제품군 판매 확대로 지난 분기에 기록한 역대 최고 실적을 다시 한 번 넘어섰다”고 밝혔다. 회사는 이어 “특히 AI 서버향 수요가 늘며 128GB 이상 고용량 DDR5 출하량은 전 분기 대비 2배 이상으로 증가했고, 낸드에서도 가격 프리미엄이 있는 AI 서버향 기업용 SSD(eSSD) 비중이 확대됐다”고 강조했다. 이 같은 호실적을 바탕으로 3분기 말 현금성 자산은 전 분기 대비 10조9천억원 늘어난 27조9천억원에 달했다. 반면 차입금은 24조1천억원에 그쳐 회사는 3조8천억원의 순현금 체제로 전환하는 데 성공했다. 회사는 AI 시장이 추론 중심으로 빠르게 전환되면서 AI 서버의 연산 부담을 일반 서버 등 다양한 인프라로 분산하려는 움직임이 나타나고 있어, 고성능 DDR5와 eSSD 등 메모리 전반으로 수요가 확장될 것으로 내다봤다. 여기에 최근 주요 AI 기업들이 전략적 파트너십을 잇달아 체결하며 AI 데이터센터 확장 계획을 발표하고 있는 점도 긍정적이다. 이는 HBM뿐만 아니라 일반 서버용 메모리를 포함한 다양한 제품군에 걸쳐 고른 수요 성장을 견인할 것으로 예상된다. 이에 SK하이닉스는 안정적으로 양산 중인 최선단 10나노급 6세대(1c) 공정으로의 전환을 가속해 서버, 모바일, 그래픽 등 '풀 라인 업(Full-line up)' D램 제품군을 갖추고, 공급을 확대해 고객 수요에 대응한다는 전략이다. 낸드에서는 세계 최고층 321단 기반 TLC, QLC 제품의 공급을 늘려 고객 요구에 신속히 대응할 계획이다. 한편 SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. 회사는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 회사는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, 회사는 시황에 맞는 최적화된 투자 전략을 유지할 것이라고 밝혔다. 김우현 SK하이닉스 부사장(CFO)은 “AI 기술 혁신으로 메모리 시장이 새로운 패러다임으로 전환하며 전 제품 영역으로 수요가 확산되기 시작했다”며 “앞으로도 시장을 선도하는 제품과 차별화된 기술 경쟁력을 바탕으로 고객 수요에 대응하며 AI 메모리 리더십을 공고히 지켜가겠다”고 말했다.

2025.10.29 08:39장경윤

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤

SK하이닉스, AI 낸드 제품군 확장…성능·대역폭·용량 다 잡는다

SK하이닉스는 지난 13~16일(현지시간) 미국 캘리포니아주 새너제이(San Jose)에서 진행된 '2025 OCP(오픈 컴퓨트 프로젝트) 글로벌 서밋' 행사에 참가해 차세대 낸드 스토리지 제품 전략을 발표했다고 27일 밝혔다. SK하이닉스는 "AI 추론 시장이 급성장하면서 많은 데이터를 신속하고 효율적으로 처리할 수 있는 낸드 스토리지 제품 수요가 크게 확대되고 있다"며 "이에 당사는 'AIN(에이아이엔, AI-NAND) 패밀리' 라인업을 구축해 AI 시대에 최적화된 솔루션 제품으로 고객들의 수요를 충족시키겠다"고 말했다. SK하이닉스는 행사 둘째 날 진행된 이그제큐티브 세션에 김천성 부사장(eSSD Product Development 담당)이 발표자로 나서 AIN 패밀리를 소개했다. AIN 패밀리는 성능, 대역폭, 용량 세 가지 측면에서 각각 최적화된 낸드 솔루션 제품들로, 데이터 처리 속도 향상과 저장 용량 극대화를 구현한 제품군이다. AIN P(Performance)는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 이를 위해 회사는 낸드와 컨트롤러를 새로운 구조로 설계 중이며, 2026년말 샘플 출시 계획이다. 이와 달리 AIN D(Density)는 저전력, 저비용으로 대용량 데이터를 저장하는데 초점을 맞춘 고용량 솔루션으로 AI 데이터 보관에 적합하다. 기존 QLC(쿼드레벨셀) 기반 TB(테라바이트)급 SSD보다 용량을 최대 PB(페타바이트)급으로 높이고, SSD의 속도와 HDD의 경제성을 동시에 구현한 중간 계층 스토리지를 목표로 하고 있다. 마지막으로 AIN B(Bandwidth)는 낸드를 적층해 대역폭을 확대한 솔루션이다. 이는 'HBFTM'로 불리는 기술을 적용한 회사의 제품명이다. HBF은 디램을 적층해 만든 HBM과 유사하게 낸드 플래시를 적층해서 만든 제품을 뜻한다. 글로벌 최고 수준의 HBM 개발, 생산 역량을 보유한 SK하이닉스는 AI 추론 확대, LLM* 대형화에 따른 메모리 용량 부족 문제를 해결하기 위해 일찍부터 AIN B 연구에 착수했다. 대용량, 저비용의 낸드에 HBM 적층 구조를 결합한 것이 핵심이다. 회사는 AIN B를 HBM과 함께 배치해 용량 문제를 보완하는 구조 등 다양한 활용 방안을 검토하고 있다. SK하이닉스는 AIN B 생태계 확대를 위해 지난 8월 HBF 표준화 양해각서(MOU)를 체결한 미국 샌디스크와 함께 14일 저녁 OCP 행사장 인근 과학 기술 센터(The Tech Interactive)에서 글로벌 빅테크 관계자들을 초청해 'HBF 나이트(Night)'를 열었다. 국내외 교수진이 참가해 패널 토의로 진행된 이날 행사에는 수십여 명의 업계 주요 아키텍트(시스템 설계 전문가)와 기술진들이 참석했다. 이 곳에서 회사는 낸드 스토리지 제품 혁신을 가속화하기 위한 업계 차원의 협력을 제안했다. 안현 SK하이닉스 개발총괄 사장(CDO)은 “이번 OCP 글로벌 서밋과 HBF 나이트를 통해 AI 중심으로 급변하는 시장 환경에서 '글로벌 AI 메모리 솔루션 프로바이더'로 성장한 SK하이닉스의 현재와 미래를 선보일 수 있었다”며 “차세대 낸드 스토리지에서도 고객과 다양한 파트너와 협력해 AI 메모리 시장의 핵심 플레이어로 올라설 수 있도록 할 것”이라고 말했다.

2025.10.27 08:59장경윤

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평

"中 시장 점유율 0%"…엔비디아 규제에 메모리 업계도 한숨

엔비디아의 중국 내 AI 반도체 시장 입지가 휘청이고 있다. 미중간 AI 반도체 패권 경쟁이 심화되면서 현지 칩 판매가 사실상 불가능해졌기 때문이다. 엔비디아에 제품을 공급하는 메모리 업계에도 부정적인 영향이 미치고 있다. 19일 업계에 따르면 AI 반도체를 둘러싼 미중갈등의 여파로 HBM(고대역폭메모리) 등 엔비디아향 메모리 수요가 일시 감소할 수 있다는 우려가 제기된다. 앞서 젠슨 황 엔디비아 최고경영자(CEO)는 지난 6일 뉴욕에서 열린 시타델 증권 행사에서 "미국의 반도체 수출 규제에 따라 중국 본토 기업에 첨단 제품을 판매할 수 없게 되면서, 중국 내 첨단 반도체 시장 점유율이 95%에서 0%로 떨어졌다"고 밝혔다. 그는 이어 "현재 우리는 중국에서 완전히 철수했다"며 "정책 변화에 대한 희망을 갖고 설명 및 정보 제공을 지속할 수 있기를 바란다"고 덧붙였다. 엔비디아는 지난 2022년부터 A100, H100 등 고성능 AI 반도체의 중국 수출에 대한 규제를 받아 왔다. 중국 시장을 겨냥해 성능을 낮춘 'H20' 등의 반도체도 지난 7월 미국 정부로부터 수출 승인을 받아냈지만, 반대로 중국 인터넷 규제 당국은 보안 우려를 근거로 현지 기업들에 엔비디아 칩을 사용하지 말라고 권고하는 등 맞불을 놓고 있다. 이에 젠슨 황 CEO는 "미국의 제재는 중국의 AI 반도체 자립화 속도를 오히려 부추기는 것"이라며 반대 입장을 견지해 왔다. 엔비디아의 중국향 AI 반도체 수출 규제는 국내 메모리 업계에도 부정적인 여파를 미친다. 특히 SK하이닉스는 엔비디아의 중국향 AI 반도체에 주력으로 HBM(고대역폭메모리)을 공급하고 있어, 영향이 더 크다. 반도체 업계 관계자는 "최근 SK하이닉스의 HBM3E 8단 제품용 소재·부품 발주가 예상보다 빠르게 둔화된 것으로 파악된다"며 "향후 정책 변화에 따라 내용이 달라질 순 있지만, 지금 당장은 업계 우려가 커지는 상황"이라고 설명했다.

2025.10.19 03:11장경윤

삼성전자, SK하이닉스 제치고 메모리 시장 1위 탈환

삼성전자가 올 3분기 메모리 사업에서 호실적을 기록하며 시장점유율 1위 자리를 되찾은 것으로 나타났다. 14일 시장조사업체 카운터포인트리서치에 따르면 3분기 메모리 시장에서 삼성전자는 194억 달러(한화 약 27조7천억원)의 매출을 기록해 시장 점유율 1위를 기록했다. SK하이닉스는 175억 달러로 2위를 차지했다. 삼성전자 메모리 매출은 전분기 대비 25% 상승하며 그동안의 부진을 만회했다. 앞서 삼성전자는 1분기 D램 시장에서, 2분기에는 메모리 시장 전체에서 SK하이닉스에 밀려 2위를 기록한 바 있다. 다만 3분기에는 범용 D램과 낸드 부문의 선전으로 다시 시장 점유율 1위에 올라서게 됐다. 스마트폰 분야에서는 갤럭시Z폴드7·Z플립7 시리즈 출시로 인한 폴더블 스마트폰 비중 확대가 큰 역할을 했다. 카운터포인트리서치의 월간 스마트폰 판매량 트래커에 따르면, 삼성의 스마트폰 전체 판매량도 3분기 첫 두 달 동안 전년대비 증가하는 등 좋은 성적을 내고 있다. 최정구 카운터포인트리서치 책임 연구원은 “삼성전자는 메모리 분야에서 상반기 HBM 부진 등으로 어려움을 겪었으나 품질 회복을 위한 강도 높은 노력의 효과로 반격에 성공하며 이번 분기 1위를 탈환했다"며 "아쉽게도 D램 시장은 근소한 차이로 1위를 탈환하지 못했으나, 내년 HBM3E의 선전과 HBM4의 확판을 기대하고 있다“고 말했다.

2025.10.14 15:30장경윤

AI 칩 '큰손' 떠오른 오픈AI...삼성·SK HBM 확장 기회 열려

인공지능(AI) 반도체 선두 주자인 엔비디아가 주도하는 HBM(고대역폭 메모리) 공급망에 균열이 발생하고 있다. 글로벌 빅테크들이 자체 AI 반도체 개발에 주력하는 가운데 챗GPT 개발사인 오픈AI도 최근 삼성전자·SK하이닉스와 중장기적 협력을 발표했다. 이에 따라 이들 메모리 기업의 HBM 시장 확장은 물론 가격 협상력도 동시에 높아질 것으로 기대된다. 9일 업계에 따르면 삼성전자, SK하이닉스 등 주요 메모리 기업들은 중장기적으로 HBM 고객사 다변화를 추진할 계획이다. HBM 시장은 AI 반도체 최대 기업인 엔비디아가 핵심 고객사로 자리해 왔다. 그러나 엔비디아 칩의 독과점 및 높은 구매비용으로 인해 전 세계 빅테크 기업들은 최근 자체 AI ASIC(주문형반도체) 개발을 적극 추진하고 있는 추세다. 구글과 메타, 아마존웹서비스(AWS), 화웨이 등이 대표적인 사례다. 시장조사업체 욜디벨롭먼트의 최근 분석에 따르면 AI ASIC 시장은 지난해 90억 달러에서 오는 2030년 850억 달러로 연평균 45%의 성장률을 보일 것으로 전망된다. 욜디벨롭먼트는 "현재 AI칩 시장은 GPU가 주도하고 있지만, AI AISC이 전략적 대안으로 부상하고 있다"며 "AI칩 업계 중 가장 빠르게 성장하는 분야가 될 것"이라고 설명했다. 오픈AI도 최근 대형 HBM 고객사로 부상하고 있다. 오픈AI는 최첨단 파운드리인 3나노미터(nm) 공정 기반의 자체 AI 반도체 개발을 추진 중인 것으로 알려졌다. 칩 설계는 브로드컴과 양산은 TSMC와 협력하는 구조다. 이와 관련 샘 알트만 오픈AI 대표는 지난 1일 이재용 삼성전자 회장, 최태원 SK 회장 등과 잇따라 만나 메모리(HBM) 공급과 관련한 LOI(의향서)를 체결한 바 있다. 샘 알트만 오픈AI 대표는 양사와의 만남에서 웨이퍼 기준 최대 월 90만장에 달하는 고성능 D램 공급량을 요구한 것으로 알려졌다. 업계가 추산하는 삼성전자·SK하이닉스의 D램 생산능력 합계가 월 120만장 수준이라는 점을 고려하면 막대한 규모다. 고성능 D램에는 HBM과 첨단 공정 기반의 서버용 D램, 저전력 D램(LPDDR), HBM 등이 포함될 것으로 관측된다. 빅테크 기업들의 이 같은 탈(脫) 엔비디아 전략은 삼성전자, SK하이닉스 등 메모리 기업들에게는 기회로 작용할 전망이다. HBM 시장 자체가 커질 뿐만 아니라, 고객사 다변화를 통해 가격 협상력에서 유리한 위치를 점할 수 있기 때문이다. 반도체 업계 관계자는 "오픈AI가 삼성전자, SK하이닉스와 중장기적인 협력을 논의한 만큼 HBM4E 시장부터는 시장 구도에 변화가 예상된다"며 "엔비디아도 구매 비중이 축소되면서 이전만큼 HBM에 대한 단가 인하 압박을 요구하지는 못하게 될 것"이라고 설명했다.

2025.10.09 09:17장경윤

"최대 월 120만장인데"...오픈AI, 삼성·SK에 HBM용 D램 90만장 요청

글로벌 빅테크 기업 오픈AI가 삼성전자·SK하이닉스와 핵심 AI 인프라 구축을 위한 전방위적 협력 체계를 구축했다. 오픈AI의 핵심 프로젝트인 '스타게이트'에 고성능 메모리를 공급하는 것이 주 골자로, D램 및 HBM(고대역폭메모리) 수요를 강하게 촉진할 것으로 기대된다. 1일 샘 알트만 오픈AI 대표는 이재용 삼성전자 회장, 최태원 SK 회장 등과 만나 메모리 공급과 관련한 LOI(의향서)를 체결했다. 삼성·SK에 손 내민 오픈AI…K-메모리 성장동력 '기대감' 오픈AI는 미국 클라우드 기업 오라클, 일본 투자 회사 소프트뱅크와 함께 초거대 데이터센터를 건설하는 스타게이트 프로젝트를 추진하고 있다. 오는 2029년까지 약 5천억 달러(한화 약 700조원)의 거금이 투입될 예정이다. 데이터센터 구축에는 방대한 양의 데이터 처리를 위한 고성능·고효율 메모리가 필수적으로 탑재된다. 기업용 낸드인 eSSD는 물론, 서버용 D램과 HBM(고대역폭메모리) 등 제품 전반이 필요하다. 특히 HBM의 경우, 기존 D램 대비 메모리를 전송하는 통로인 대역폭이 높아 고부가 제품으로 각광받고 있다. 이에 따라 삼성전자, SK하이닉스 등 국내 주요 메모리 기업들은 중장기적 매출 성장을 위한 추가 동력을 확보하게 됐다. 삼성전자는 "회사는 스타게이트 프로젝트를 진행하고 있는 오픈AI가 고성능·저전력 메모리를 원활하게 공급받을 수 있도록 지원할 계획"이라며 "오픈AI가 메모리 솔루션 수급에 어려움을 겪지 않도록 지원할 방침"이라고 밝혔다. SK하이닉스는 "스타게이트 프로젝트에서 HBM 반도체 공급 파트너로 참여한다"며 "이번 메모리 공급 의향서 체결은 올해 상반기 기준 D램 글로벌 매출 1위인 SK하이닉스의 AI 전용 메모리반도체 기술력과 공급 역량을 인정받은 결과"라고 설명했다. D램 최대 월 90만장 요구…삼성·SK 총 생산능력 120만에 필적 업계의 이목을 끈 또 하나의 대목은 오픈AI가 요구한 D램 물량이다. 샘 알트만 오픈AI 대표는 양사와의 만남에서 월 90만장에 이르는 D램 공급량을 요구한 것으로 알려졌다. 삼성·SK 역시 각사 보도자료에 해당 물량을 명시했다. 현재 삼성전자의 전체 D램 생산능력(CAPA; 캐파)은 월 60만~65만장으로 추산된다. SK하이닉스는 월 50만장 수준이다. 이를 고려하면 오픈AI는 양사의 도합 D램 생산능력에 필적하는 수준의 물량을 요청한 셈이다. 반도체 업계 관계자는 "오픈AI가 자체 AI 가속기 등을 개발하면서 국내 메모리사에 HBM 샘플을 요청하는 등 메모리 수급에 지대한 관심을 가지고 있는 것으로 안다"며 "당장 오픈AI가 요구한 메모리 물량은 양사의 총 생산능력과 맞먹어 현실과는 괴리가 있다"며 "중장기적 관점에서 AI 인프라 구축에 상당한 메모리가 필요하다는 관점으로 보는 것이 더 적절할 것"이라고 말했다.

2025.10.01 18:47장경윤

삼성, 오픈AI와 'AI 인프라' 구축…메모리·데이터센터 전방위 협력

삼성은 오픈AI와 삼성전자 서초사옥에서 글로벌 AI 핵심 인프라 구축을 위해 상호 협력하는 LOI(Letter of Intent, 의향서) 체결식을 거행했다고 1일 밝혔다. 오픈AI와 LOI를 체결한 삼성 관계사는 삼성전자, 삼성SDS, 삼성물산, 삼성중공업 등 4개사다. 삼성은 오픈AI의 전략적 파트너사로서 반도체, 데이터센터, 클라우드, 해양 기술 등 각사의 핵심 역량을 결집시켜 전방위적인 협력 체계를 구축할 예정이다. LOI 체결식에는 ▲전영현 삼성전자 부회장 ▲최성안 삼성중공업 부회장 ▲오세철 삼성물산 사장 ▲이준희 삼성SDS 사장이 참석했다. 오픈AI 고성능 D램 '월 90만장' 필요…삼성 반도체 역량 총동원 삼성전자는 스타게이트 프로젝트를 진행하고 있는 오픈AI가 고성능· 저전력 메모리를 원활하게 공급받을 수 있도록 지원할 계획이다. 스타게이트 프로젝트는 오픈AI가 글로벌 기술·투자 기업들과 함께 슈퍼컴퓨터와 데이터센터를 건설하는 대규모 프로젝트다. 삼성전자는 오픈AI의 전략적 파트너로서 오픈AI가 메모리 솔루션 수급에 어려움을 겪지 않도록 지원할 방침이다. 오픈AI는 웨이퍼 기준 월 90만 장의 대량의 고성능 D램이 필요할 것으로 전망하고 있다. 삼성전자는 ▲메모리 반도체 ▲시스템반도체 ▲파운드리 사업 역량을 모두 보유하고 있는 종합반도체 회사로, AI 학습과 추론 전 과정에 필요한 다양한 제품 포트폴리오를 갖추고 있다. 또한 패키징 기술, 메모리·시스템반도체 융복합 기술 측면에도 오픈AI에 차별화된 솔루션을 제공할 수 있다. 삼성SDS는 오픈AI와 AI 데이터센터 공동 개발, 기업용 AI 서비스 제공에 대한 파트너십을 맺었다. 삼성SDS는 첨단 데이터센터 기술을 기반으로 오픈AI 스타게이트 AI 데이터센터의 ▲설계 ▲구축 ▲운영 분야에서 협력할 예정이다. LOI를 통해 삼성SDS는 오픈AI 모델을 사내 업무시스템에 도입하길 원하는 기업들을 대상으로 ▲컨설팅 ▲구축 ▲운영 사업을 진행할 수 있게 됐다. 또한 삼성SDS는 국내 최초로 OpenAI 기업용 서비스를 판매하고 기술지원할 수 있는 리셀러 파트너십을 체결해, 향후 국내 기업들이 오픈AI 챗GPT 엔터프라이즈 서비스를 사용할 수 있도록 지원할 예정이다. 차세대 플로팅 데이터센터 분야 개발 협력 삼성물산과 삼성중공업은 글로벌 AI 데이터센터의 진보와 발전을 위해 오픈AI와 협업하고, 특히 플로팅 데이터센터 공동 개발을 위해 협력할 예정이다. 플로팅 데이터센터는 해상에 설치하는 첨단 데이터센터로, 육지에 데이터센터를 설치할 때보다 공간 제약이 적고 열 냉각 비용을 절감할 수 있으며 탄소 배출량도 감소시킬 수 있는 장점이 있다. 다만 기술적 난도가 높아 몇몇 국가에서 상용화를 위한 연구 개발이 진행되고 있는 단계다. 삼성물산과 삼성중공업은 독자 기술을 바탕으로 ▲플로팅 데이터센터 ▲부유식 발전설비 ▲관제센터 개발을 추진할 예정이다. 삼성은 오픈AI와의 협력을 시작으로 한국이 글로벌 인공지능 분야에서 3대 강국으로 도약하는 데 핵심적인 역할을 수행할 계획이다. 삼성전자는 ▲메모리 기술력 ▲글로벌 반도체업계 1위 생산능력 ▲안정적인 글로벌 생산 거점을 기반으로 OpenAI와 같은 글로벌 AI 선도 기업과의 협력을 강화할 예정이다. 또한 미래 AI 경쟁력을 제고하기 위해 ▲대규모 R&D 투자 ▲선제적 국내외 시설 투자 ▲국내외 우수인재 육성과 유치를 지속할 방침이다. 삼성SDS, 삼성물산, 삼성중공업도 AI 사업 기회를 확대해 한국이 AI 분야에서 글로벌 인공지능 3대 강국으로 도약하는 데 기여할 계획이다. 한편, 삼성은 임직원들의 기술 개발 생산성을 높이고 혁신 속도에 박차를 가하기 위해 챗GPT 사내 확대 도입도 검토하고 있다.

2025.10.01 18:42장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

새로운 KT CEO 후보자 찾기 시작됐다

AI 팩토리가 미래 산업의 전력망...엔비디아 'NVL72'가 여는 지능 생산 시대

백종원 대표, 반년만에 방송 복귀…가맹점 정책 재정비도

트럼프, '엔비디아 첨단칩 봉쇄' 선언...韓 블랙웰 공급 어쩌나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.