• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 메모리'통합검색 결과 입니다. (328건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SK하이닉스, 창사 첫 '10조 클럽'...사상 최대 실적

SK하이닉스가 AI향 고부가 메모리 판매 확대로 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 돌파했다. SK하이닉스는 올해 3분기 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 29일 밝혔다. 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. D램과 낸드 가격 상승이 본격화되고, AI 서버용 고성능 제품 출하량이 증가하며 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 넘어섰다. SK하이닉스는 “고객들의 AI 인프라 투자 확대로 메모리 전반의 수요가 급증했다”며 “HBM3E 12단과 서버향 DDR5 등 고부가가치 제품군 판매 확대로 지난 분기에 기록한 역대 최고 실적을 다시 한 번 넘어섰다”고 밝혔다. 회사는 이어 “특히 AI 서버향 수요가 늘며 128GB 이상 고용량 DDR5 출하량은 전 분기 대비 2배 이상으로 증가했고, 낸드에서도 가격 프리미엄이 있는 AI 서버향 기업용 SSD(eSSD) 비중이 확대됐다”고 강조했다. 이 같은 호실적을 바탕으로 3분기 말 현금성 자산은 전 분기 대비 10조9천억원 늘어난 27조9천억원에 달했다. 반면 차입금은 24조1천억원에 그쳐 회사는 3조8천억원의 순현금 체제로 전환하는 데 성공했다. 회사는 AI 시장이 추론 중심으로 빠르게 전환되면서 AI 서버의 연산 부담을 일반 서버 등 다양한 인프라로 분산하려는 움직임이 나타나고 있어, 고성능 DDR5와 eSSD 등 메모리 전반으로 수요가 확장될 것으로 내다봤다. 여기에 최근 주요 AI 기업들이 전략적 파트너십을 잇달아 체결하며 AI 데이터센터 확장 계획을 발표하고 있는 점도 긍정적이다. 이는 HBM뿐만 아니라 일반 서버용 메모리를 포함한 다양한 제품군에 걸쳐 고른 수요 성장을 견인할 것으로 예상된다. 이에 SK하이닉스는 안정적으로 양산 중인 최선단 10나노급 6세대(1c) 공정으로의 전환을 가속해 서버, 모바일, 그래픽 등 '풀 라인 업(Full-line up)' D램 제품군을 갖추고, 공급을 확대해 고객 수요에 대응한다는 전략이다. 낸드에서는 세계 최고층 321단 기반 TLC, QLC 제품의 공급을 늘려 고객 요구에 신속히 대응할 계획이다. 한편 SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. 회사는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 회사는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, 회사는 시황에 맞는 최적화된 투자 전략을 유지할 것이라고 밝혔다. 김우현 SK하이닉스 부사장(CFO)은 “AI 기술 혁신으로 메모리 시장이 새로운 패러다임으로 전환하며 전 제품 영역으로 수요가 확산되기 시작했다”며 “앞으로도 시장을 선도하는 제품과 차별화된 기술 경쟁력을 바탕으로 고객 수요에 대응하며 AI 메모리 리더십을 공고히 지켜가겠다”고 말했다.

2025.10.29 08:39장경윤

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤

SK하이닉스, AI 낸드 제품군 확장…성능·대역폭·용량 다 잡는다

SK하이닉스는 지난 13~16일(현지시간) 미국 캘리포니아주 새너제이(San Jose)에서 진행된 '2025 OCP(오픈 컴퓨트 프로젝트) 글로벌 서밋' 행사에 참가해 차세대 낸드 스토리지 제품 전략을 발표했다고 27일 밝혔다. SK하이닉스는 "AI 추론 시장이 급성장하면서 많은 데이터를 신속하고 효율적으로 처리할 수 있는 낸드 스토리지 제품 수요가 크게 확대되고 있다"며 "이에 당사는 'AIN(에이아이엔, AI-NAND) 패밀리' 라인업을 구축해 AI 시대에 최적화된 솔루션 제품으로 고객들의 수요를 충족시키겠다"고 말했다. SK하이닉스는 행사 둘째 날 진행된 이그제큐티브 세션에 김천성 부사장(eSSD Product Development 담당)이 발표자로 나서 AIN 패밀리를 소개했다. AIN 패밀리는 성능, 대역폭, 용량 세 가지 측면에서 각각 최적화된 낸드 솔루션 제품들로, 데이터 처리 속도 향상과 저장 용량 극대화를 구현한 제품군이다. AIN P(Performance)는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 이를 위해 회사는 낸드와 컨트롤러를 새로운 구조로 설계 중이며, 2026년말 샘플 출시 계획이다. 이와 달리 AIN D(Density)는 저전력, 저비용으로 대용량 데이터를 저장하는데 초점을 맞춘 고용량 솔루션으로 AI 데이터 보관에 적합하다. 기존 QLC(쿼드레벨셀) 기반 TB(테라바이트)급 SSD보다 용량을 최대 PB(페타바이트)급으로 높이고, SSD의 속도와 HDD의 경제성을 동시에 구현한 중간 계층 스토리지를 목표로 하고 있다. 마지막으로 AIN B(Bandwidth)는 낸드를 적층해 대역폭을 확대한 솔루션이다. 이는 'HBFTM'로 불리는 기술을 적용한 회사의 제품명이다. HBF은 디램을 적층해 만든 HBM과 유사하게 낸드 플래시를 적층해서 만든 제품을 뜻한다. 글로벌 최고 수준의 HBM 개발, 생산 역량을 보유한 SK하이닉스는 AI 추론 확대, LLM* 대형화에 따른 메모리 용량 부족 문제를 해결하기 위해 일찍부터 AIN B 연구에 착수했다. 대용량, 저비용의 낸드에 HBM 적층 구조를 결합한 것이 핵심이다. 회사는 AIN B를 HBM과 함께 배치해 용량 문제를 보완하는 구조 등 다양한 활용 방안을 검토하고 있다. SK하이닉스는 AIN B 생태계 확대를 위해 지난 8월 HBF 표준화 양해각서(MOU)를 체결한 미국 샌디스크와 함께 14일 저녁 OCP 행사장 인근 과학 기술 센터(The Tech Interactive)에서 글로벌 빅테크 관계자들을 초청해 'HBF 나이트(Night)'를 열었다. 국내외 교수진이 참가해 패널 토의로 진행된 이날 행사에는 수십여 명의 업계 주요 아키텍트(시스템 설계 전문가)와 기술진들이 참석했다. 이 곳에서 회사는 낸드 스토리지 제품 혁신을 가속화하기 위한 업계 차원의 협력을 제안했다. 안현 SK하이닉스 개발총괄 사장(CDO)은 “이번 OCP 글로벌 서밋과 HBF 나이트를 통해 AI 중심으로 급변하는 시장 환경에서 '글로벌 AI 메모리 솔루션 프로바이더'로 성장한 SK하이닉스의 현재와 미래를 선보일 수 있었다”며 “차세대 낸드 스토리지에서도 고객과 다양한 파트너와 협력해 AI 메모리 시장의 핵심 플레이어로 올라설 수 있도록 할 것”이라고 말했다.

2025.10.27 08:59장경윤

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평

"中 시장 점유율 0%"…엔비디아 규제에 메모리 업계도 한숨

엔비디아의 중국 내 AI 반도체 시장 입지가 휘청이고 있다. 미중간 AI 반도체 패권 경쟁이 심화되면서 현지 칩 판매가 사실상 불가능해졌기 때문이다. 엔비디아에 제품을 공급하는 메모리 업계에도 부정적인 영향이 미치고 있다. 19일 업계에 따르면 AI 반도체를 둘러싼 미중갈등의 여파로 HBM(고대역폭메모리) 등 엔비디아향 메모리 수요가 일시 감소할 수 있다는 우려가 제기된다. 앞서 젠슨 황 엔디비아 최고경영자(CEO)는 지난 6일 뉴욕에서 열린 시타델 증권 행사에서 "미국의 반도체 수출 규제에 따라 중국 본토 기업에 첨단 제품을 판매할 수 없게 되면서, 중국 내 첨단 반도체 시장 점유율이 95%에서 0%로 떨어졌다"고 밝혔다. 그는 이어 "현재 우리는 중국에서 완전히 철수했다"며 "정책 변화에 대한 희망을 갖고 설명 및 정보 제공을 지속할 수 있기를 바란다"고 덧붙였다. 엔비디아는 지난 2022년부터 A100, H100 등 고성능 AI 반도체의 중국 수출에 대한 규제를 받아 왔다. 중국 시장을 겨냥해 성능을 낮춘 'H20' 등의 반도체도 지난 7월 미국 정부로부터 수출 승인을 받아냈지만, 반대로 중국 인터넷 규제 당국은 보안 우려를 근거로 현지 기업들에 엔비디아 칩을 사용하지 말라고 권고하는 등 맞불을 놓고 있다. 이에 젠슨 황 CEO는 "미국의 제재는 중국의 AI 반도체 자립화 속도를 오히려 부추기는 것"이라며 반대 입장을 견지해 왔다. 엔비디아의 중국향 AI 반도체 수출 규제는 국내 메모리 업계에도 부정적인 여파를 미친다. 특히 SK하이닉스는 엔비디아의 중국향 AI 반도체에 주력으로 HBM(고대역폭메모리)을 공급하고 있어, 영향이 더 크다. 반도체 업계 관계자는 "최근 SK하이닉스의 HBM3E 8단 제품용 소재·부품 발주가 예상보다 빠르게 둔화된 것으로 파악된다"며 "향후 정책 변화에 따라 내용이 달라질 순 있지만, 지금 당장은 업계 우려가 커지는 상황"이라고 설명했다.

2025.10.19 03:11장경윤

삼성전자, SK하이닉스 제치고 메모리 시장 1위 탈환

삼성전자가 올 3분기 메모리 사업에서 호실적을 기록하며 시장점유율 1위 자리를 되찾은 것으로 나타났다. 14일 시장조사업체 카운터포인트리서치에 따르면 3분기 메모리 시장에서 삼성전자는 194억 달러(한화 약 27조7천억원)의 매출을 기록해 시장 점유율 1위를 기록했다. SK하이닉스는 175억 달러로 2위를 차지했다. 삼성전자 메모리 매출은 전분기 대비 25% 상승하며 그동안의 부진을 만회했다. 앞서 삼성전자는 1분기 D램 시장에서, 2분기에는 메모리 시장 전체에서 SK하이닉스에 밀려 2위를 기록한 바 있다. 다만 3분기에는 범용 D램과 낸드 부문의 선전으로 다시 시장 점유율 1위에 올라서게 됐다. 스마트폰 분야에서는 갤럭시Z폴드7·Z플립7 시리즈 출시로 인한 폴더블 스마트폰 비중 확대가 큰 역할을 했다. 카운터포인트리서치의 월간 스마트폰 판매량 트래커에 따르면, 삼성의 스마트폰 전체 판매량도 3분기 첫 두 달 동안 전년대비 증가하는 등 좋은 성적을 내고 있다. 최정구 카운터포인트리서치 책임 연구원은 “삼성전자는 메모리 분야에서 상반기 HBM 부진 등으로 어려움을 겪었으나 품질 회복을 위한 강도 높은 노력의 효과로 반격에 성공하며 이번 분기 1위를 탈환했다"며 "아쉽게도 D램 시장은 근소한 차이로 1위를 탈환하지 못했으나, 내년 HBM3E의 선전과 HBM4의 확판을 기대하고 있다“고 말했다.

2025.10.14 15:30장경윤

AI 칩 '큰손' 떠오른 오픈AI...삼성·SK HBM 확장 기회 열려

인공지능(AI) 반도체 선두 주자인 엔비디아가 주도하는 HBM(고대역폭 메모리) 공급망에 균열이 발생하고 있다. 글로벌 빅테크들이 자체 AI 반도체 개발에 주력하는 가운데 챗GPT 개발사인 오픈AI도 최근 삼성전자·SK하이닉스와 중장기적 협력을 발표했다. 이에 따라 이들 메모리 기업의 HBM 시장 확장은 물론 가격 협상력도 동시에 높아질 것으로 기대된다. 9일 업계에 따르면 삼성전자, SK하이닉스 등 주요 메모리 기업들은 중장기적으로 HBM 고객사 다변화를 추진할 계획이다. HBM 시장은 AI 반도체 최대 기업인 엔비디아가 핵심 고객사로 자리해 왔다. 그러나 엔비디아 칩의 독과점 및 높은 구매비용으로 인해 전 세계 빅테크 기업들은 최근 자체 AI ASIC(주문형반도체) 개발을 적극 추진하고 있는 추세다. 구글과 메타, 아마존웹서비스(AWS), 화웨이 등이 대표적인 사례다. 시장조사업체 욜디벨롭먼트의 최근 분석에 따르면 AI ASIC 시장은 지난해 90억 달러에서 오는 2030년 850억 달러로 연평균 45%의 성장률을 보일 것으로 전망된다. 욜디벨롭먼트는 "현재 AI칩 시장은 GPU가 주도하고 있지만, AI AISC이 전략적 대안으로 부상하고 있다"며 "AI칩 업계 중 가장 빠르게 성장하는 분야가 될 것"이라고 설명했다. 오픈AI도 최근 대형 HBM 고객사로 부상하고 있다. 오픈AI는 최첨단 파운드리인 3나노미터(nm) 공정 기반의 자체 AI 반도체 개발을 추진 중인 것으로 알려졌다. 칩 설계는 브로드컴과 양산은 TSMC와 협력하는 구조다. 이와 관련 샘 알트만 오픈AI 대표는 지난 1일 이재용 삼성전자 회장, 최태원 SK 회장 등과 잇따라 만나 메모리(HBM) 공급과 관련한 LOI(의향서)를 체결한 바 있다. 샘 알트만 오픈AI 대표는 양사와의 만남에서 웨이퍼 기준 최대 월 90만장에 달하는 고성능 D램 공급량을 요구한 것으로 알려졌다. 업계가 추산하는 삼성전자·SK하이닉스의 D램 생산능력 합계가 월 120만장 수준이라는 점을 고려하면 막대한 규모다. 고성능 D램에는 HBM과 첨단 공정 기반의 서버용 D램, 저전력 D램(LPDDR), HBM 등이 포함될 것으로 관측된다. 빅테크 기업들의 이 같은 탈(脫) 엔비디아 전략은 삼성전자, SK하이닉스 등 메모리 기업들에게는 기회로 작용할 전망이다. HBM 시장 자체가 커질 뿐만 아니라, 고객사 다변화를 통해 가격 협상력에서 유리한 위치를 점할 수 있기 때문이다. 반도체 업계 관계자는 "오픈AI가 삼성전자, SK하이닉스와 중장기적인 협력을 논의한 만큼 HBM4E 시장부터는 시장 구도에 변화가 예상된다"며 "엔비디아도 구매 비중이 축소되면서 이전만큼 HBM에 대한 단가 인하 압박을 요구하지는 못하게 될 것"이라고 설명했다.

2025.10.09 09:17장경윤

"최대 월 120만장인데"...오픈AI, 삼성·SK에 HBM용 D램 90만장 요청

글로벌 빅테크 기업 오픈AI가 삼성전자·SK하이닉스와 핵심 AI 인프라 구축을 위한 전방위적 협력 체계를 구축했다. 오픈AI의 핵심 프로젝트인 '스타게이트'에 고성능 메모리를 공급하는 것이 주 골자로, D램 및 HBM(고대역폭메모리) 수요를 강하게 촉진할 것으로 기대된다. 1일 샘 알트만 오픈AI 대표는 이재용 삼성전자 회장, 최태원 SK 회장 등과 만나 메모리 공급과 관련한 LOI(의향서)를 체결했다. 삼성·SK에 손 내민 오픈AI…K-메모리 성장동력 '기대감' 오픈AI는 미국 클라우드 기업 오라클, 일본 투자 회사 소프트뱅크와 함께 초거대 데이터센터를 건설하는 스타게이트 프로젝트를 추진하고 있다. 오는 2029년까지 약 5천억 달러(한화 약 700조원)의 거금이 투입될 예정이다. 데이터센터 구축에는 방대한 양의 데이터 처리를 위한 고성능·고효율 메모리가 필수적으로 탑재된다. 기업용 낸드인 eSSD는 물론, 서버용 D램과 HBM(고대역폭메모리) 등 제품 전반이 필요하다. 특히 HBM의 경우, 기존 D램 대비 메모리를 전송하는 통로인 대역폭이 높아 고부가 제품으로 각광받고 있다. 이에 따라 삼성전자, SK하이닉스 등 국내 주요 메모리 기업들은 중장기적 매출 성장을 위한 추가 동력을 확보하게 됐다. 삼성전자는 "회사는 스타게이트 프로젝트를 진행하고 있는 오픈AI가 고성능·저전력 메모리를 원활하게 공급받을 수 있도록 지원할 계획"이라며 "오픈AI가 메모리 솔루션 수급에 어려움을 겪지 않도록 지원할 방침"이라고 밝혔다. SK하이닉스는 "스타게이트 프로젝트에서 HBM 반도체 공급 파트너로 참여한다"며 "이번 메모리 공급 의향서 체결은 올해 상반기 기준 D램 글로벌 매출 1위인 SK하이닉스의 AI 전용 메모리반도체 기술력과 공급 역량을 인정받은 결과"라고 설명했다. D램 최대 월 90만장 요구…삼성·SK 총 생산능력 120만에 필적 업계의 이목을 끈 또 하나의 대목은 오픈AI가 요구한 D램 물량이다. 샘 알트만 오픈AI 대표는 양사와의 만남에서 월 90만장에 이르는 D램 공급량을 요구한 것으로 알려졌다. 삼성·SK 역시 각사 보도자료에 해당 물량을 명시했다. 현재 삼성전자의 전체 D램 생산능력(CAPA; 캐파)은 월 60만~65만장으로 추산된다. SK하이닉스는 월 50만장 수준이다. 이를 고려하면 오픈AI는 양사의 도합 D램 생산능력에 필적하는 수준의 물량을 요청한 셈이다. 반도체 업계 관계자는 "오픈AI가 자체 AI 가속기 등을 개발하면서 국내 메모리사에 HBM 샘플을 요청하는 등 메모리 수급에 지대한 관심을 가지고 있는 것으로 안다"며 "당장 오픈AI가 요구한 메모리 물량은 양사의 총 생산능력과 맞먹어 현실과는 괴리가 있다"며 "중장기적 관점에서 AI 인프라 구축에 상당한 메모리가 필요하다는 관점으로 보는 것이 더 적절할 것"이라고 말했다.

2025.10.01 18:47장경윤

삼성, 오픈AI와 'AI 인프라' 구축…메모리·데이터센터 전방위 협력

삼성은 오픈AI와 삼성전자 서초사옥에서 글로벌 AI 핵심 인프라 구축을 위해 상호 협력하는 LOI(Letter of Intent, 의향서) 체결식을 거행했다고 1일 밝혔다. 오픈AI와 LOI를 체결한 삼성 관계사는 삼성전자, 삼성SDS, 삼성물산, 삼성중공업 등 4개사다. 삼성은 오픈AI의 전략적 파트너사로서 반도체, 데이터센터, 클라우드, 해양 기술 등 각사의 핵심 역량을 결집시켜 전방위적인 협력 체계를 구축할 예정이다. LOI 체결식에는 ▲전영현 삼성전자 부회장 ▲최성안 삼성중공업 부회장 ▲오세철 삼성물산 사장 ▲이준희 삼성SDS 사장이 참석했다. 오픈AI 고성능 D램 '월 90만장' 필요…삼성 반도체 역량 총동원 삼성전자는 스타게이트 프로젝트를 진행하고 있는 오픈AI가 고성능· 저전력 메모리를 원활하게 공급받을 수 있도록 지원할 계획이다. 스타게이트 프로젝트는 오픈AI가 글로벌 기술·투자 기업들과 함께 슈퍼컴퓨터와 데이터센터를 건설하는 대규모 프로젝트다. 삼성전자는 오픈AI의 전략적 파트너로서 오픈AI가 메모리 솔루션 수급에 어려움을 겪지 않도록 지원할 방침이다. 오픈AI는 웨이퍼 기준 월 90만 장의 대량의 고성능 D램이 필요할 것으로 전망하고 있다. 삼성전자는 ▲메모리 반도체 ▲시스템반도체 ▲파운드리 사업 역량을 모두 보유하고 있는 종합반도체 회사로, AI 학습과 추론 전 과정에 필요한 다양한 제품 포트폴리오를 갖추고 있다. 또한 패키징 기술, 메모리·시스템반도체 융복합 기술 측면에도 오픈AI에 차별화된 솔루션을 제공할 수 있다. 삼성SDS는 오픈AI와 AI 데이터센터 공동 개발, 기업용 AI 서비스 제공에 대한 파트너십을 맺었다. 삼성SDS는 첨단 데이터센터 기술을 기반으로 오픈AI 스타게이트 AI 데이터센터의 ▲설계 ▲구축 ▲운영 분야에서 협력할 예정이다. LOI를 통해 삼성SDS는 오픈AI 모델을 사내 업무시스템에 도입하길 원하는 기업들을 대상으로 ▲컨설팅 ▲구축 ▲운영 사업을 진행할 수 있게 됐다. 또한 삼성SDS는 국내 최초로 OpenAI 기업용 서비스를 판매하고 기술지원할 수 있는 리셀러 파트너십을 체결해, 향후 국내 기업들이 오픈AI 챗GPT 엔터프라이즈 서비스를 사용할 수 있도록 지원할 예정이다. 차세대 플로팅 데이터센터 분야 개발 협력 삼성물산과 삼성중공업은 글로벌 AI 데이터센터의 진보와 발전을 위해 오픈AI와 협업하고, 특히 플로팅 데이터센터 공동 개발을 위해 협력할 예정이다. 플로팅 데이터센터는 해상에 설치하는 첨단 데이터센터로, 육지에 데이터센터를 설치할 때보다 공간 제약이 적고 열 냉각 비용을 절감할 수 있으며 탄소 배출량도 감소시킬 수 있는 장점이 있다. 다만 기술적 난도가 높아 몇몇 국가에서 상용화를 위한 연구 개발이 진행되고 있는 단계다. 삼성물산과 삼성중공업은 독자 기술을 바탕으로 ▲플로팅 데이터센터 ▲부유식 발전설비 ▲관제센터 개발을 추진할 예정이다. 삼성은 오픈AI와의 협력을 시작으로 한국이 글로벌 인공지능 분야에서 3대 강국으로 도약하는 데 핵심적인 역할을 수행할 계획이다. 삼성전자는 ▲메모리 기술력 ▲글로벌 반도체업계 1위 생산능력 ▲안정적인 글로벌 생산 거점을 기반으로 OpenAI와 같은 글로벌 AI 선도 기업과의 협력을 강화할 예정이다. 또한 미래 AI 경쟁력을 제고하기 위해 ▲대규모 R&D 투자 ▲선제적 국내외 시설 투자 ▲국내외 우수인재 육성과 유치를 지속할 방침이다. 삼성SDS, 삼성물산, 삼성중공업도 AI 사업 기회를 확대해 한국이 AI 분야에서 글로벌 인공지능 3대 강국으로 도약하는 데 기여할 계획이다. 한편, 삼성은 임직원들의 기술 개발 생산성을 높이고 혁신 속도에 박차를 가하기 위해 챗GPT 사내 확대 도입도 검토하고 있다.

2025.10.01 18:42장경윤

"AI·자동차가 메모리 시장 성장 이끈다"

전통적인 PC·모바일 메모리 시장이 정체 국면에 머무는 반면, 데이터센터와 자동차용 메모리가 차세대 성장 동력으로 부상하고 있다. 22일 업계에 따르면 글로벌 D램 시장이 데이터센터와 자동차를 중심으로 성장할 전망이다. 시장조사업체 테크인사이츠는 글로벌 D램 수요가 지난 2023년 203Eb(엑사비트, 1Eb는 100만 테라비트)에서 2030년 722Eb까지 3.5배 이상 확대될 것으로 전망했다. 연평균성장률(CAGR)은 19.9%로 자동차와 데이터센터가 각각 27.6%, 26.6% 성장률 기록하며 전체 성장을 주도할 것으로 관측된다. 데이터센터 수요 급증...D램 시장 연평균 28.2% 성장 특히 데이터센터 수요는 AI 서버 확산에 힘입어 폭발적으로 증가할 전망이다. AI가 다양한 산업에 깊숙이 침투하면서, 이를 뒷받침할 고성능 AI 서버 시장이 가파른 성장세를 기록하고 있기 때문이다. 시장조사기관 글로벌 마켓인사이츠에 따르면 2024년 기준 1천280억달러(약 178조7천264억원)였던 전 세계 AI 서버 시장 규모는 올해 1천672억달러(약 233조5천억원)으로 급상승할 것으로 예상된다. 이후 2034년까지 연평균 28.2%의 성장세를 기록하며 1조5천600억달러(약 2천178조원)를 기록할 전망이다. 특히 주목할만한 점은 서버당 D램 탑재 용량이다. 테크인사이츠는 2024년에서 2030년까지 D램 탑재 용량이 평균 1TB(테라바이트)에서 2.5TB(테라바이트)로 2.5배 이상 확대되면서 전체 비트 수요를 끌어올릴 것으로 봤다. 이에 따라 데이터센터 DRAM 매출은 2024년 480억 달러에서 2030년 1천540억달러로 급증, 전체 D램 매출의 70%를 차지할 것으로 전망된다. 차량용 메모리, 전장·자율주행 타고 급상승 차량용 메모리 수요 역시 고도화된 전장 시스템과 자율주행 기술 확산으로 빠르게 확대되고 있다. 차량 한 대당 탑재되는 메모리 용량이 늘어나면서, 자동차는 데이터센터와 함께 향후 메모리 시장의 '쌍두마차'로 부상할 것으로 보인다. 시장조사기관들은 차량용 메모리 시장이 상승할 것으로 내다봤다. 리서치앤마케츠는 2025년부터 2033년까지 연평균 11.11% 성장할 것으로 관측했으며, 그로우스마케츠리포츠는 같은 기간 13.2% 성장세를 기록할 것으로 점쳤다. 데이터인텔로는 2024년부터 2032년까지 10.9% 성장할 것으로 예상했다. 리서치앤마케츠는 “자동차가 스마트 기술과 더욱 긴밀하게 연결됨에 따라 고용량 메모리 솔루션에 대한 수요가 증가하고 있다”며 “이는 시장 성장에 긍정적인 요인”이라고 분석했다. 그러면서 “배터리 관리 및 에너지 효율 향상을 위한 첨단 메모리 시스템이 필요한 전기차(EV) 및 하이브리드 자동차의 보급 확대 또한 시장 성장을 촉진하고 있다”고 덧붙였다. 모바일·PC, 전체 D램 평균 밑돌아...”2030년 전후가 분수령” 반면 모바일, PC는 낮은 성장률을 기록할 전망이다. 테크인사이츠는 모바일과 PC가 2023년부터 2030년까지 연평균 13%, 10.8%씩 성장세를 보일 것으로 봤다. 전체 D램 시장 연평균 성장률인 19.9%를 밑도는 규모다. 이는 시장이 성숙기에 접어들며 정체 양상을 보이고 있기 때문이다. 이는 신규 수요보다는 교체 수요에 의존하는 구조가 고착화되고 있음을 보여주는 셈이다. 업계 관계자는 “메모리 시장의 무게 중심이 PC와 모바일에서 데이터센터와 자동차로 이동하는 추세가 뚜렷하다”며 “AI와 자율주행이 본격화되는 2030년 전후가 메모리 산업의 분수령이 될 것”이라고 말했다.

2025.09.22 13:57전화평

탄력 받는 메모리 3강 '1c D램' 투자…AI·HBM 시장 겨냥

주요 메모리 기업들이 1c(6세대 10나노급) D램 투자에 속도를 낸다. 삼성전자는 올 상반기부터 이미 양산라인 구축을 시작했으며, SK하이닉스는 최근 전환투자를 위한 구체적인 방안을 논의 중인 것으로 파악됐다. 마이크론 역시 이달 일본 정부로부터 1c D램 신설에 대한 보조금을 지급받았다. 21일 업계에 따르면 주요 메모리 기업들은 1c D램 양산을 위한 신규 및 전환투자에 집중하고 있다. 1c D램은 주요 메모리 기업들이 올 하반기 양산을 목표로 둔 차세대 D램이다. 삼성전자의 경우 HBM4(6세대 고대역폭메모리)에 선제적으로 1c D램을 채용하기로 했다. SK하이닉스·마이크론은 서버 등 범용 D램에서부터 1c D램을 활용할 계획이다. 삼성전자는 1c D램 생산능력 확대에 가장 공격적으로 나서고 있다. 현재 평택 제4캠퍼스(P4)에서 신규 1c D램 양산라인을 구축하고 있으며, 화성 17라인에서도 1c D램에 대한 전환 투자를 추진 중이다. 연말까지 확보할 생산능력은 최대 월 6만장으로 추산된다. SK하이닉스는 지난 7월 2025년 2분기 실적발표에서 "1c D램의 전환투자는 올 하반기부터 시작돼 내년 본격적으로 진행될 것"이라며 "현재 경영 계획을 수립하고 있어 추후 구체적인 계획이 확정되면 공유할 것"이라고 밝힌 바 있다. 업계에 따르면 해당 전환투자는 이천 M14 팹에서 진행될 가능성이 유력하다. M14는 기존 일부 낸드 라인을 D램 양산으로 용도를 변경해 온 팹이다. 현재 SK하이닉스는 이곳의 구형 D램 설비를 들어내고 1c D램 라인을 도입하는 방안을 논의 중인 것으로 알려졌다. 반도체 업계 관계자는 "1c 공정은 서버용 고부가 D램은 물론, HBM4E(7세대 HBM)에도 활용될 수 있어 SK하이닉스가 주목하고 있는 분야"라며 "아직 설비투자가 확정된 것은 아니나 내년 전공정 분야에 활발한 투자가 집행될 것으로 보고 있다"고 설명했다. 마이크론 역시 1c D램 투자에 속도를 낼 것으로 관측된다. 일본 경제산업성(METI)는 이달 중순 마이크론이 히로시마 지역에 신설 중인 D램 공장에 최대 5천360억엔(한화 약 4조7천억원)의 보조금을 지원한다고 발표했다. 해당 공장은 마이크론의 1γ(감마) 공정 양산을 주력으로 양산할 계획이다. 가동 목표 시기는 오는 2027년이다. 1γ는 국내 반도체 업계에서는 1c D램에 대응하는 공정으로, 마이크론 역시 HBM4E에 해당 공정을 채용할 것으로 예상된다.

2025.09.21 09:40장경윤

"메모리 시장 내년까지 HBM 호황 후 3년 조정기 진입"

AI 메모리로 각광받는 HBM(고대역폭메모리) 수요 상승으로 메모리 업체들의 수익이 내년까지 급증한 이후 3년 간 조정기를 거칠 것이라는 분석이 나왔다. 다만, 2030년부터는 인공지능(AI)과 데이터센터를 중심으로 한 고성능 컴퓨팅 시장의 확산에 힘입어 또다시 가파른 성장세로 재진입할 것이라는 분석이 나온다. 글로벌 반도체 조사 전문기관 테크인사이츠는 18일 웨비나를 통해 HBM이 오는 2026년까지 메모리 가격과 수익성을 끌어올리는 핵심 동력이 될 전망이라고 밝혔다. 발표에 따르면 내년 글로벌 메모리 업계 매출은 1천700억달러(약 235조원)으로 예상된다. 지난해 글로벌 메모리 업계 매출인 980억달러(약 135조4천850억원)에서 2년 만에 70% 이상 성장하는 셈이다. 같은 기간 영업이익률도 34%에서 51%까지 치솟을 것으로 보인다. 다만 2027년 이후에는 HBM 공급 확대와 경쟁 심화로 가격이 하락하며 조정 국면에 들어설 것으로 관측된다. 2028년에는 가격이 25% 급락하면서 매출이 1천680억 달러로 줄고, 영업이익률도 37%까지 낮아질 것이라는 분석이다. 이후 2030년에는 시장 구조가 재편되며 가격과 수익성이 다시 회복세에 들어설 전망이다. 마이크 하워드 테크인사이츠 메모리 전문 연구원은 “2030년이 되면 메모리 산업은 2천200억달러(약 304조2천820억원)를 넘어설 것”이라고 내다봤다. HBM, 전체 D램 중 비중 15%까지 증가 전망 테크인사이츠는 전체 D램 중 HBM의 비중이 2030년 15%까지 확대될 것으로 봤다. 이는 지난해 전체 D램 중 HBM 비중이던 4%에서 4배 가까이 성장한 규모다. 이러한 변화는 주로 AI 가속 서버의 수요 폭증에 기인한다. AI 가속 서버가 전체 D램 비트 수요에서 차지하는 비중은 2024년 16%에서 2030년 36%로 두 배 이상 성장할 것으로 예측된다. AI 가속 서버 한 대당 필요한 메모리 용량 또한 2024년 2.0TB(테라바이트)에서 2030년에는 4.6TB까지 늘어날 것으로 전망되며, 이는 전통 서버(2030년 1.3TB) 대비 압도적인 수치로 HBM 수요를 강력하게 견인하고 있다. 이에 따라 예상되는 2030년 총 HBM 비트 출하량은 105Eb(엑사비트)다. 2024년 비트 출하량인 11Eb에서 연평균 57%씩 성장한 수치다. 메모리 업계는 HBM 중심의 시장 변화에 맞춰 생산 능력 확대를 서두르고 있다. 삼성전자와 SK하이닉스는 2024년부터 2027년까지 월 수십만 장 규모로 HBM 전용 웨이퍼 생산 능력을 확대할 계획이며, 마이크론 또한 HBM 생산에 박차를 가하고 있다. 특히 SK하이닉스는 높은 HBM 출하 비중을 바탕으로 2025년 2분기 기준 웨이퍼당 영업이익이 경쟁사 대비 4천달러 이상 높은 수준을 기록하는 등, HBM을 통한 수익성 우위를 확고히 하고 있다. DDR4 고정거래가, 2026년 DDR5 추월 전망 한편, 범용 메모리 시장에서는 이례적인 현상도 나타나고 있다. 현재 단종이 진행되고 있는 DDR4가 2026년에는 DDR5보다 더 비싸게 판매된다는 전망이다. 이는 특정 레거시 수요 때문으로, 가격 추월은 빠르면 1분기 중 이뤄질 것으로 관측된다.

2025.09.18 15:17전화평

삼성전자, 'V9 QLC 낸드' 사업 고전…최첨단 제품 상용화 지연

삼성전자가 9세대(V9) 낸드 고용량 제품 상용화에 난항을 겪고 있다. 당초 지난해 하반기 첫 양산을 발표했으나, 현재 성능 상의 문제로 설계 및 공정 단의 보완 작업이 진행되고 있는 것으로 파악됐다. AI 산업의 발달로 고용량 낸드에 대한 수요가 늘고 있는 만큼, 시장 대응에 발빠르게 나서야 한다는 지적이 제기된다. 16일 지디넷코리아 취재에 따르면 삼성전자는 V9 QLC 낸드에 대한 본격적인 상용화 시점을 최소 내년 상반기로 연기했다. V9 QLC 개선 필요…내년 안정화 및 설비투자 전망 삼성전자 V9 낸드는 280단대로, 지난해 4월 첫 양산이 개시됐다. 당시 제품은 TLC(트리플 레벨 셀) 구조를 기반으로 총 1Tb(테라비트) 용량을 구현해냈다. TLC는 메모리의 최소 저장 단위인 셀(Cell) 하나에 3비트를 저장할 수 있다는 뜻이다. 나아가 삼성전자는 지난해 9월 V9 QLC 낸드 양산 소식을 발표했다. QLC는 셀 하나에 4비트를 저장해, TLC 대비 고용량 저장장치 구현에 유리하다. 다만 삼성전자는 V9 QLC 낸드의 상용화에 어려움을 겪고 있는 것으로 파악됐다. 사안에 정통한 복수의 관계자에 따르면, 삼성전자 V9 QLC 낸드의 초기 제품은 설계 상의 문제로 성능이 저하되는 현상이 발생했다. 이에 삼성전자는 V9 QLC 낸드에 대한 설계 및 공정 단의 개선 작업을 진행 중이다. 업계에서는 이르면 내년 상반기께 개선 작업이 마무리될 것으로 보고 있다. V9 낸드의 생산능력 확대를 위한 설비투자도 비슷한 시점에 진행될 예정이다. 현재 삼성전자는 평택과 중국 시안 팹에서 내년 상반기 V9 낸드 전환투자를 진행하는 방안을 논의 중이다. 구체적인 투자 규모는 확정되지 않았으나, 평택과 시안이 이미 소규모로 V9 낸드 양산라인을 도입하고 있는 만큼 총 생산능력은 크게 늘어날 전망이다. 내년 QLC 낸드서 비중 '9%' 불과 전망…AI 시장 공략 시급 삼성전자의 V9 QLC 낸드는 회사의 고부가 메모리 사업에 큰 영향을 끼칠 수 있다는 점에서 업계의 주목받아 왔다. 현재 낸드 시장은 방대한 양의 데이터 처리를 요구하는 AI 산업의 발달로 고용량 제품에 대한 수요가 크게 증가하는 추세다. 그러나 삼성전자의 주력 QLC 낸드 제품은 V7에 머물러 있다. 다음 세대인 V8 낸드에서는 QLC 제품이 출시되지 않았다. 때문에 삼성전자는 전체 낸드 시장에서는 점유율 1위의 자리를 공고히 하고 있으나, QLC 낸드 시장에서는 비교적 열세에 놓인 형국이다. 트렌드포스와 모건스탠리 조사에 따르면, 내년 전체 QLC 낸드 출하량에서 삼성전자가 차지하는 비중은 9% 가량으로 예상된다. SK하이닉스(자회사 솔리다임 포함)는 36%, 키오시아 및 샌디스크는 29%, 마이크론은 17% 수준이다. 반도체 업계 관계자는 "글로벌 빅테크의 투자 및 기존 레거시(성숙) 낸드에 대한 교체 수요로 QLC 낸드의 중요성이 대두되는 시점"이라며 "삼성전자가 수혜를 보려면 최첨단 제품의 안정적인 양산 확대가 필요하다"고 말했다.

2025.09.16 14:45장경윤

낸드 후발주자 키오시아·샌디스크, 차세대 제품으로 AI 시장 노린다

AI산업의 발달로 고성능 낸드에 대한 수요가 크게 증가하고 있다. 이에 키오시아, 샌디스크 등 낸드 업계 후발주자들이 AI 데이터센터 시장을 겨냥한 혁신적인 제품 개발에 뛰어들고 있다. 14일 업계에 따르면 전 세계 주요 메모리 기업들은 AI 서버를 위한 차세대 낸드 제품 개발에 주력하고 있다. 일본 키오시아는 이달 초 도쿄에서 개최한 기술설명회에서 "엔비디아와 협력해 기존 대비 랜덤읽기 성능을 100배 향상시킨 SSD를 오는 2027년 상용화하겠다"고 밝혔다. SSD는 낸드를 기반으로 한 데이터 저장 장치다. 서버용 SSD의 경우, 여러 개로 분산된 파일의 데이터를 읽고 쓰기 때문에 랜덤 읽기 및 쓰기 성능이 중요하다. 키오시아가 제시한 차세대 SSD의 랜덤 읽기 성능은 1억 IOPS(초당 입/출력 작업 수)로, 현재의 100배 수준에 해당한다. 기존 SSD는 CPU와 데이터를 주고받는 구조로 돼 있다. GPU와는 간접적으로만 연결된다. 반면 키오시아는 SSD와 GPU를 직접 연결해, 데이터 교환 속도를 더 빠르게 만드는 방안을 고안해냈다. 이와 관련해 닛케이아시아는 "엔비디아가 2억 IOPS를 목표로 하고 있으며, 키오시아는 두 개의 SSD 유닛을 사용해 이를 달성할 계획"이라며 "차세대 SSD 인터페이스 표준인 PCIe 7.0도 지원할 것으로 예상된다"고 설명했다. 미국 주요 낸드업체 샌디스크는 고대역폭플래시(HBF) 기술에 주목하고 있다. HBF는 D램을 수직으로 여러 개 적층하는 HBM(고대역폭메모리)와 유사하게, 낸드를 여러 층 적층해 메모리 대역폭을 끌어올린 차세대 메모리다. 샌디스크는 내년 하반기 HBF 샘플을 출시하고 2027년 상용화를 추진할 계획이다. 1세대 HBF의 경우 낸드를 16층 쌓는 구조로, 스택 당 최대 512GB(기가바이트) 용량을 구현할 것으로 알려졌다. 샌디스크는 HBF 기술을 선도하기 위해 지난 7월 기술 자문 위원회를 출범시켰으며, 지난달에는 국내 SK하이닉스와 HBF 개발을 위한 MOU(업무협약)을 체결하기도 했다. 구체적인 HBF의 성능 및 시장성은 밝혀지지 않았으나, 업계는 차세대 낸드 제품으로서 HBF의 상용화 여부에 주목하고 있다.

2025.09.14 09:20장경윤

SK하이닉스, HBM4 개발 완료…'세계 최초' 양산 체제 구축

SK하이닉스가 초고성능 AI용 메모리 신제품인 HBM4(6세대 고대역폭메모리) 개발을 성공적으로 마무리하고, 양산 체제를 세계 최초로 구축했다고 12일 밝혔다. SK하이닉스는 “새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다”며 “이를 통해 당사의 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다”고 밝혔다. 개발을 이끈 조주환 SK하이닉스 부사장(HBM개발 담당)은 “HBM4 개발 완료는 업계에 새로운 이정표가 될 것”이라며 “고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입(Time to Market)을 실현할 것”이라고 밝혔다. AI 수요와 데이터 처리량이 폭발적으로 늘어나면서 더 빠른 시스템 속도를 구현하기 위한 고대역폭 메모리 수요가 최근 급증하고 있다. 여기에 막대한 전력을 소모하는 데이터센터 운영 부담까지 가중되면서 메모리의 전력 효율 확보가 고객들의 핵심 요구사항으로 부상했다. SK하이닉스는 향상된 대역폭과 전력 효율을 갖춘 HBM4가 이 같은 요구를 해결하는 최적의 솔루션(Solution)이 될 것으로 내다봤다. 새롭게 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2천48개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 끌어올렸다. 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현한 것이다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했다. 회사는 또 이 제품에 10Gbps(초당 10기가비트) 이상의 동작 속도를 구현해, HBM4의 JEDEC(국제반도체표준협의기구) 표준 동작 속도인 8Gbps를 크게 뛰어 넘었다. 회사는 HBM4 개발에 시장에서 안정성이 검증된 자사 고유의 어드밴스드(Advanced) MR-MUF 공정과 10나노급 5세대(1bnm) D램 기술을 적용해 양산 과정의 리스크도 최소화했다. MR-MUF는 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호재를 공간 사이에 주입하고, 굳히는 공정이다. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 방식 대비 공정이 효율적이고, 열 방출에도 효과적이라는 평가를 받고 있다. 김주선 SK하이닉스 AI 인프라(Infra) 사장(CMO)은 “이번에 세계 최초로 양산 체제 구축을 공식 발표한 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점으로, AI 시대 기술 난제를 해결할 핵심 제품”이라며 “당사는 AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급해 풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)로 성장해 나가겠다”고 말했다.

2025.09.12 08:51장경윤

AI 연산 폭증에 반도체 새 판 짠다…삼성 'DTCO', SK '풀스택 메모리'

인공지능(AI)의 폭발적 성장이 반도체 산업의 판도를 흔들고 있다. 데이터센터부터 모바일 기기까지 AI 연산 수요가 기하급수적으로 늘어나면서, 반도체 업계는 설계 최적화와 메모리 혁신을 해법으로 제시하고 있다. 11일 업계에 따르면 삼성전자와 SK하이닉스는 최근 서울 롯데호텔월드에서 개최된 '케이던스라이브 코리아 2025(CadenceLIVE Korea 2025)'에서 AI 시대 대응 방안을 제시했다. 삼성전자, AI 시대의 한계를 뛰어넘기 위한 기술 'DTCO' 먼저 백상훈 삼성전자 부사장은 DTCO(Design-Technology Co-Optimization)를 AI 시대의 한계를 뛰어넘기 위한 기술 대안으로 발표했다. DTCO는 반도체 설계와 공정 기술을 동시에 최적화해 PPA(전력·성능·면적), 생산 수율, 제조 비용 등 반도체 칩의 성능을 극대화하는 기술이다. 단순 설계 개선을 넘어 설계와 공정 기술을 하나의 유기체처럼 함께 최적화하는 게 필수다. 설계 과정에서 발생하는 문제점을 공정 단계에서 예측하고, 공정 기술 발전을 고려해 설계를 개선하는 상호 협력 과정이 중요하다. 발표에 따르면 DTCO의 핵심은 하이퍼셀(Hyper cell), 퓨전셀(Fusion cell) 등 차세대 셀 구조다. 하이퍼셀은 인접 채널을 병합해 고밀도 셀에서 발생하는 속도 저하 문제를 해결한다. 물리적으로는 면적 효율성을 유지하면서도 전류 구동 능력(Ion)을 개선할 수 있다. 퓨전셀은 서로 다른 특성을 가진 셀 구조를 통합(Fusion)해 상황에 따라 성능과 전력을 동시에 최적화하는 방식이다. 설계자가 공정 노드 내에서 고성능(HP)셀과 저전력(ULP)셀을 별도 선택할 필요 없이, 융합된 셀 라이브러리를 통해 균형 잡힌 설계가 가능해진다. 백 부사장은 “설계와 공정을 유기적으로 결합하는 DTCO 방식이 전력·성능·면적(PPA) 문제를 동시에 풀어낼 수 있는 해법”이라고 강조했다. 그러면서 "케이던스와의 협업을 통해 이 기술이 실제 제품에서 성과를 내고 있다"고 전했다. SK하이닉스, 풀스택 메모리로 AI 미래 설계 오늘날 AI 산업은 훈련 단계에서 추론 단계로 빠르게 이동하고 있다. 이에 따라 메모리는 단순한 저장 수단을 넘어, 고성능과 전력 효율을 동시에 만족시켜야 하는 핵심 인프라로 자리매김했다. SK하이닉스는 풀스택 메모리 포트폴리오로 이 같은 AI 환경 전반에 대응한다는 전략이다. 발표자로 나선 김천성 SK하이닉스 사장은 HBM(고대역폭메모리), D램, SSD까지 아우르는 풀스택 메모리 포트폴리오를 공개하며, AI 학습뿐 아니라 추론 환경에서도 효율적이고 확장성 높은 솔루션을 제공하겠다고 밝혔다. 그는 “AI 산업이 AI 학습에서 추론으로 빠르게 전환됨에 따라 메모리 기술의 진화가 필수적”이라고 전하며 “SK하이닉스의 스토리지 솔루션은 AI 추론 시나리오에서 데이터 집약적인 워크로드에 빠르고 안정적으로 액세스할 수 있도록 설계되어 있다”고 자신했다. 특히 HBM과 스토리지 SSD의 역할에 대해 강조했다. HBM이 전력 효율과 데이터 처리 속도라는 구조적 장점을 통해 고객 요구를 충족할 수 있다는 주장이다. 스토리지 SSD 등 스토리지 기술은 AI 추론 워크로드에서 요구되는 데이터 집약적인 연산 처리를 가능한 빠르고 안정적으로 지원하는 역할을 담당할 것으로 기대했다. 한편 행사에는 삼성전자 파운드리(위탁생산) 관계사인 가온칩스, 세미파이브, 코아시아 등 디자인하우스들도 참가했다. 이들 업체는 부스를 통해 고객과 만났다. 특히 코아시아의 경우 연사로 참가해 칩렛, SiP(시스템인패키지) 등에 대한 회사의 기술력을 소개했다.

2025.09.11 15:16전화평

삼성전자, HBM4 '1C D램' 생산 확대...P4 설비·전환투자 속도

삼성전자가 차세대 HBM(고대역폭메모리) 시장 선점을 위한 1c(6세대 10나노급) D램 생산능력 확보에 주력하고 있다. 내년 상반기 평택 제4캠퍼스(P4)에 1c D램용 설비투자를 마무리하는 것은 물론, P3 등 기존 공장에서도 전환투자를 계획 중인 것으로 파악됐다. 11일 업계에 따르면 삼성전자는 내년 초부터 P4 마지막 양산라인에 대한 투자를 집행할 예정이다. P4는 삼성전자의 첨단 반도체 팹으로, 총 4개의 페이즈(ph)로 나뉜다. 낸드와 D램 양산을 병용하는 하이브리드 라인 ph1과 D램 양산 라인인 ph3는 설비투자가 완료됐다. 현재 ph4에도 D램 설비투자가 한창 진행되고 있다. 해당 라인은 모두 1c(6세대 10나노급) D램을 주력으로 양산한다. 1c D램은 삼성전자가 올 하반기 양산을 목표로 한 가장 최신 세대의 D램이다. 특히 삼성전자는 내년 본격적인 상용화를 앞둔 HBM4에 1c D램을 채택할 계획으로, 선제적인 생산능력 확보에 열을 올리고 있다. 남은 ph2는 이르면 올 연말이나 내년 초부터 클린룸 구축이 시작될 예정이다. 클린룸은 제조 라인 내 오염도·습도 등을 조절하는 인프라 시설로, 양산 설비를 도입하기 바로 직전 도입된다. 용도는 아직 확정되지 않았으나, 업계는 ph2 역시 D램 양산라인으로 구축될 것으로 보고 있다. 반도체 업계 관계자는 "삼성전자가 HBM4 상용화를 대비해 1c D램의 생산능력 확대에 미리 나서고 있다"며 "낸드나 파운드리의 경우 생산능력을 확장할 만큼 확실한 수요가 없어, 투자 계획에서 밀리고 있는 것으로 안다"고 설명했다. 또한 삼성전자는 화성 17라인에도 1c D램에 대한 전환투자를 추진 중이다. 이를 고려한 삼성전자의 올해 1c D램 생산능력은 최대 월 6만장 수준에 도달할 것으로 관측된다. 나아가 내년 상반기에도 1c D램 생산능력은 지속 확대될 전망이다. P4의 마지막 양산라인에 대한 투자가 마무리되는 것은 물론, 기존 평택캠퍼스 내에서 1c D램에 대한 설비투자가 진행될 수 있기 때문이다. 반도체 업계 관계자는 "현재 삼성전자가 내년 P3 등에서 1c D램에 대한 전환투자를 진행하는 방안을 협력사들과 논의 중인 것으로 안다"며 "1c D램 및 HBM4의 수율 및 성능이 빠르게 안정화될수록 관련 설비투자에도 속도가 붙을 것"이라고 설명했다.

2025.09.11 14:18장경윤

SK하이닉스, 세계 첫 양산 차세대 모바일 낸드 'ZUFS 4.1' 공급 개시

SK하이닉스가 세계 최초로 양산한 모바일용 낸드 제품 'ZUFS 4.1'을 고객사에 공급한다고 11일 밝혔다. SK하이닉스는 "이번 제품이 글로벌 고객사의 최신 스마트폰에 탑재됨에 따라 글로벌 시장에서 당사 기술력의 우수성을 다시 한 번 입증할 수 있게 됐다"며 "스마트폰의 강력한 온디바이스 AI 구현 능력을 지원해 사용자들에게 혁신적인 경험을 선사하겠다"고 강조했다. SK하이닉스는 고객과의 긴밀한 협업을 통해 이 제품에 대한 인증 절차를 지난 6월 성공적으로 완료했다. 이를 바탕으로 7월부터 본격적인 양산에 착수해 공급을 시작했다. ZUFS(Zoned UFS)는 데이터를 용도와 특성에 따라 서로 다른 공간(Zone)에 저장하는 존 스토리지(Zoned Storage) 기술을 UFS에 적용한 확장 규격이다. UFS는 스마트폰과 태블릿 등 모바일 기기에 활용되는 고속 플래메 메모리 저장장치를 뜻한다. 이 제품을 스마트폰에 탑재하면 OS 작동 속도가 향상되고, 데이터 관리 효율성이 개선된다. 그 결과 장기 사용시 읽기 성능 저하 현상이 4배 이상 완화돼 앱 실행 시간을 기존 UFS 대비 45% 단축할 수 있다. 데이터 저장 방식도 UFS는 새로운 데이터를 기존 데이터 위에 덮어서 저장하는 반면, 이 제품은 순차적으로 기록하도록 설계되어 AI 앱 실행 시간을 47% 단축시켰다. 이러한 성능 특성은 이 제품이 온디바이스 AI와 대용량 데이터 처리가 핵심이 된 현재 모바일 환경에 최적화된 설루션으로 평가받는 배경이다. 아울러 회사는 이번 제품의 오류 처리 능력을 지난해 5월 개발한 4.0 버전 대비 대폭 강화했다. 오류를 더욱 정밀하게 감지한 뒤 중앙 제어 장치에 필요한 조치사항을 명확하게 전달함으로써, 시스템의 신뢰성과 복구 능력이 크게 향상될 것으로 기대된다. 김주선 SK하이닉스 AI 인프라(Infra) 사장(CMO)은 “이번에 성공적으로 공급을 시작한 ZUFS 4.1은 안드로이드 운영체제와 저장장치를 최적화 하기 위한 협업을 통해 개발 양산한 최초 사례로 활용 범위가 확대될 것”이라며 “앞으로도 고객이 요구하는 낸드 설루션을 적시에 공급하는 한편, 글로벌 기업들과 파트너십을 지속 강화해 AI 메모리 분야에서 차별화된 경쟁력을 구축해 나가겠다"고 말했다.

2025.09.11 09:01장경윤

SK하이닉스, 네이버클라우드와 CXL·PIM 등 'AI 메모리' 협력 추진

SK하이닉스가 AI 솔루션 제품 개발 역량 강화를 위해 네이버클라우드와 협력하기로 했다고 10일 밝혔다. AI 솔루션 제품은 인공지능 응용 환경에서 데이터센터 등에 사용되는 반도체 제품군을 뜻한다. 양사는 전날(9일) 열린 업무협약식에서 기술 협력을 위한 양해각서(MOU)를 체결했고, 회사는 네이버클라우드와 협업해 실제 AI 서비스 환경에서 차세대 AI 메모리, 스토리지 제품에 대한 성능 평가와 최적화를 추진한다. SK하이닉스는 ”글로벌 시장에서의 AI 솔루션 기술 리더십을 강화하기 위해 실제 데이터센터 운영 환경에서 검증된 제품 확보는 필수적”이라며 “네이버클라우드와의 개발 협력 파트너십을 통해 데이터센터에 최적화된 AI 솔루션 제품을 구현하고, 고객이 체감할 수 있는 혁신적 활용 사례를 지속 발굴해 나가겠다"고 강조했다. 최근 생성형 AI 서비스가 폭발적으로 확산되면서 AI 추론 과정에서 처리되는 토큰 사용량과 비용이 기하급수적으로 증가하고 있다. 이로 인해 메모리의 대역폭과 용량에 대한 요구는 물론, 데이터센터에 적용된 메모리 등 하드웨어와 소프트웨어 간 최적화가 AI 서비스의 경쟁력을 좌우하는 핵심 차별화 요소로 대두되고 있다. 이번 협력을 통해 SK하이닉스는 네이버클라우드의 대규모 데이터센터 인프라에서 CXL(컴퓨트 익스프레스 링크)과 PIM(프로세싱 인 메모리) 등 자사의 AI 특화 제품군을 다양한 워크로드 조건에서 실시간으로 검증하고 성능을 극대화할 방침이다. 네이버클라우드는 검증된 고성능 메모리, 스토리지 솔루션을 활용해 AI 서비스의 응답속도 향상, 운영비용 절감 등 실질적 성과를 도출하는 윈-윈(Win-Win) 협력을 추진해 나갈 계획이다. 김유원 네이버클라우드 대표이사 사장은 “AI 서비스 경쟁력은 소프트웨어를 넘어 데이터센터 인프라 전반의 최적화에서 결정된다”며 “글로벌 AI 메모리 대표 반도체 기업과의 협업을 통해 인프라부터 서비스까지 아우르는 경쟁력을 강화하고, 고객에게 보다 혁신적인 AI 경험을 제공하겠다”고 밝혔다. 안현 SK하이닉스 개발총괄 사장(CDO)은 "실제 상용 환경에서의 엄격한 검증을 거쳐, 글로벌 AI 생태계가 요구하는 최고 수준의 메모리 솔루션을 제공해 AI 메모리 선도 기업의 위상을 공고히 하겠다"며 "이번 협력을 시작으로 글로벌 CSP(Cloud Service Provider) 고객들과의 기술 파트너십도 적극 확대해 나갈 것"이라고 말했다.

2025.09.10 10:02장경윤

SK하이닉스, 하반기 HBM용 TC본더 추가 발주 '잠잠'...왜?

SK하이닉스의 하반기 HBM 설비투자가 좀처럼 속도를 내지 못하고 있다. 최근까지 핵심 후공정 장비인 TC(열압착) 본더에 대한 발주 논의가 매우 소극적으로 진행되고 있는 것으로 파악됐다. 업계에서는 SK하이닉스가 올해 60대 이상의 TC 본더를 설치할 것이라는 기대감도 있었으나, 최대 40여대 수준에 그칠 가능성이 높아졌다. 8일 업계에 따르면 SK하이닉스는 HBM용 TC 본더 투자를 계획 대비 다소 늦출 것으로 전망된다. HBM은 여러 개의 D램을 수직으로 적층해 데이터 처리 성능을 끌어올린 메모리다. 각 D램 사이에 미세한 범프(Bump)를 집어넣은 뒤, 열과 압착을 가해 연결하는 방식으로 제조되고 있다. 때문에 TC본더는 HBM 양산에 필수 장비로 꼽힌다. 현재 SK하이닉스는 주요 협력사인 한미반도체와 더불어 국내 한화세미텍, 싱가포르 ASMPT를 TC 본더 공급망으로 두고 있다. 지난 5월에는 한미반도체와 한화세미텍에 각각 TC 본더를 대량으로 발주한 바 있다. 이를 기반으로 한 SK하이닉스의 올 상반기 HBM용 TC 본더 총 주문량은 30대 이상으로 추산된다. 당초 업계는 SK하이닉스가 올 하반기에도 상당량의 TC 본더 발주를 진행할 것으로 예상해 왔다. SK하이닉스가 엔비디아용 HBM3E 공급을 본격화한 데 이어, 차세대 제품인 HBM4 상용화 준비에 매진하고 있어서다. 일각에서는 SK하이닉스의 올해 총 TC 본더 주문량이 60대를 넘어설 것이라는 기대감이 나오기도 했다. 다만 SK하이닉스는 올 3분기 말까지 TC 본더 투자 논의에 보수적인 입장을 취하고 있는 것으로 파악됐다. 4분기에 추가 발주가 진행될 수는 있으나, 올해 총 발주량은 40여대에 불과할 것이라는 게 업계 중론이다. 반도체 업계 관계자는 "SK하이닉스가 작년 하반기에만 50여대의 장비를 발주했었고, 올해도 최소 비슷한 수준의 발주를 예상해 왔다"며 "그러나 현재 추가 발주를 위한 움직임이 전혀 없는 상황으로, 사실상 하반기에 셋업(Set-up)되는 장비가 매우 적을 것으로 보고 있다"고 설명했다. 주요 배경은 투자 효율성에 있다는 분석이 나온다. 현재 SK하이닉스는 기술력 축적을 통한 수율 상승으로 장비 당 생산 가능한 HBM 수량을 증대시키고 있다. 또한 HBM3E에 활용하던 장비를 일부 개조해, HBM4에 대응하는 방안을 추진 중인 것으로 알려졌다. 이 경우 추가 설비투자 없이도 첨단 HBM 생산능력을 점진적으로 늘려나가는 것이 가능해진다. 내년 출하량을 확정하지 못한 것도 영향을 미쳤을 것으로 풀이된다. 현재 SK하이닉스는 주요 고객사인 엔비디아와 내년 HBM 연간 공급량에 대한 협의를 꾸준히 진행 중이다. 내년 사업에 대한 불확실성이 남아있는 상황에서 섣불리 투자를 진행하기란 어렵다. 또 다른 관계자는 "SK하이닉스가 당초 계획 대비 TC 본더 발주 시점을 뒤로 미루고 있는 것으로 안다"며 "본격적인 추가 투자가 빨라야 연말에 구체화될 것이기 때문에, 본격적인 TC 본더 셋업은 내년에 진행될 전망"이라고 설명했다.

2025.09.08 14:36장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

원화 스테이블코인 활용 논의...2026년 제도권 진입 주목

쿠팡, 고객정보 유출 용의자 특정…저장장치도 회수

첫 여성 사장·자율주행 재점검…위기를 기회로 만드는 '정의선號'

미디어·콘텐츠 누적된 위기...방송산업 구조개편 기로

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.