• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI 데이터센터'통합검색 결과 입니다. (101건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

美 마이크론, 첫 5년 공급계약 따냈다…삼성·SK도 계약 준비

세계 3위 메모리 반도체 기업인 미국 마이크론이 창사 이후 처음으로 주요 고객사와 5년에 달하는 장기 공급 계약을 체결한 것으로 나타났다. 그간 메모리 산업은 분기, 혹은 최대 1년 수준의 공급계약 체결이 일반적이다. 그러나 전세계 AI 인프라 투자로 메모리 공급난이 극심해지면서, 수년 간의 물량 및 가격을 보장받으려는 고객사 수요가 늘어나고 있다. 삼성전자, SK하이닉스 등 국내 메모리 업계도 글로벌 빅테크 기업들과 이미 3~5년 간의 장기 공급 계약을 추진 중인 것으로 파악된다. 마이크론, AI 수요로 D램·낸드 모두 '어닝 서프라이즈' 마이크론은 18일(현지시간) 회계연도 2026년 2분기(2월 종료) 매출액 238억6000만 달러, 영업이익 164억4000만 달러를 기록했다고 밝혔다. 이는 사상 최대 분기 매출이며 전년동기 대비 196.3%, 전분기 대비 74.9% 증가한 수치이다. 영업이익은 각각 719.9%, 156.3% 급증했다. 증권가 컨센서스(매출 197억 달러, 영업이익 121억 달러) 또한 크게 상회했다. 마이크론은 주요 사업군인 D램과 낸드에서 모두 견조한 성장을 거뒀다. 해당 기간 D램과 낸드의 평균판매가격(ASP)은 전분기 대비 각각 60% 중반, 70% 후반대로 증가했다. 다음 분기 전망치도 긍정적이다. 회사가 제시한 매출 가이던스는 중간값 기준 335억 달러로, 컨센서스인 236억6000만 달러를 앞섰다. 이번 호실적은 AI 인프라 투자 확장으로 서버용 D램, eSSD(기업용 SSD) 등 고부가 메모리 수요가 폭증한 데 따른 효과로 풀이된다. 반면 메모리 제조업체의 생산능력 확대는 제한적인 상황으로, 극심한 공급난을 부추기고 있다. 메모리 산업지형 변화…삼성·SK도 3~5년간 장기공급 계약 추진 이에 마이크론은 메모리 사업에서 중요한 변곡점을 맞았다. 단기적인 수요·공급 구조에서 벗어나, 고객사와의 연간 단위의 장기 계약에 따른 주문 생산 방식으로 나아가고 있다. 마이크론은 "당사는 처음으로 5년짜리 전략적 고객 계약(SCA) 체결을 완료했다"며 "이는 기존 장기계약과 달리 수년간의 구체적인 약정을 포함해 사업 가시성과 안정성을 높이는 구조"라고 강조했다. 삼성전자·SK하이닉스 등 국내 메모리 업계도 이미 비슷한 동향을 보이고 있다. 전영현 삼성전자 부회장은 18일 정기 주주총회 현장에서 "고객사들과의 공급 계약을 분기, 연 단위가 아닌 3~5년간의 다년 공급 계약으로 전환하는 것을 추진하고 있다"고 밝힌 바 있다. SK하이닉스 역시 수년 간의 장기 공급을 논의 중인 것으로 알려졌다. 사안에 정통한 관계자는 "SK하이닉스가 글로벌 빅테크 기업들과 최소 3년 단위의 D램 공급 계약을 논의하고 있는 것으로 안다"며 "체결 시 공급 규모나 구체적인 계약 조건 등이 나오게 될 것"이라고 설명했다.

2026.03.19 09:03장경윤 기자

다이가 다르다...삼성·SK, 차세대 HBM '두뇌' 로직다이서 엇갈린 전략

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) 삼성전자와 SK하이닉스가 차세대 고대역폭메모리(HBM)용 로직(베이스) 다이(Die) 공정을 고도화하는 가운데, 다소 상이한 입장 차이를 보이고 있다. 삼성전자는 성능을 최우선으로 초미세 공정을 적극 채용할 계획이다. SK하이닉스 역시 고객사 요구에 맞춰 공정 미세화를 추진하고 있지만 기본적으로 비용 효율화에 무게를 두는 전략을 구사하고 있다. 양 사의 전략적 기술 판단이 향후 어떤 시장 판도 변화나 결과를 초래할지 관심이 쏠린다. 11일 업계에 따르면 삼성전자와 SK하이닉스는 차세대 HBM용 로직 다이 공정 개발에서 다른 전략을 취하고 있다. ■ 삼성전자, 로직 다이 공정 고도화 '전념'…2나노까지 설계 로직 다이는 HBM의 컨트롤러 기능을 담당하는 칩이다. 여러 개의 D램을 수직으로 적층한 코어 다이 아래에 위치해 있다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해, 데이터를 고속으로 주고받을 수 있도록 만든다. HBM에서 로직 다이가 차지하는 중요도는 점차 높아지는 추세다. HBM 세대가 진화할수록 핀 당 처리 속도 향상, D램 적층 수 증가 등으로 로직 다이에 요구되는 성능도 올라가야 하기 때문이다. 이에 삼성전자·SK하이닉스는 HBM4부터 로직 다이를 기존 D램 공정에서 더 미세화된 파운드리 공정으로 옮겨 제조하고 있다. 로직 다이에서 선단 공정을 가장 적극적으로 채택하고 있는 기업은 삼성전자다. 앞서 삼성전자는 지난 2023년께 HBM4에 적용될 로직 다이 공정을 당초 8나노미터(nm)에서 4나노로 상향 조정한 바 있다. 나아가 삼성전자는 HBM4E부터 본격화될 커스텀 HBM 시대를 준비하기 위해, 로직 다이를 4나노에서 최대 2나노로 설계하고 있다. 2나노는 지난해 하반기부터 양산이 시작된 최첨단 파운드리 공정이다. 현재 시스템LSI사업부 내 커스텀SoC 팀에서 각 고객사에 최적화된 칩 개발을 진행 중인 것으로 파악됐다. 해당 사안에 정통한 관계자는 "HBM 고객사들은 차세대 제품에 더 낮은 전력과 더 높은 대역폭을 동시에 달성하기 원하는데, 삼성전자 내부에서는 이에 대한 근원적 해법을 로직 다이 공정 고도화로 보고 있다"며 "올해 해당 연구개발에 대한 구체적인 성과가 나올 것"이라고 강조했다. ■ SK하이닉스, 미세 공정 준비하면서도 '비용 최적화'에 무게 SK하이닉스는 대만 주요 파운드리 TSMC를 통해 로직 다이를 양산하고 있다. HBM4에는 12나노 공정을 적용했다. SK하이닉스 역시 HBM4E에서는 최대 3나노 공정을 적용할 계획이다. 당초에는 최대 4나노 공정을 채택할 계획이었지만, 고객사 요구 및 성능 향상 등을 이유로 최근 상향 조정한 것으로 알려졌다. 다만 고객사 요구가 크게 반영되지 않는 HBM4E 제품은 기존 HBM4와 마찬가지로 12나노 공정을 채택할 계획이다. 최근 HBM4에서 주요 경쟁사인 삼성전자 대비 로직 다이 성능이 뒤떨어진다는 지적이 제기돼 왔음에도 기존 공정을 고수하기로 했다. 업계는 SK하이닉스가 로직 다이의 무조건적인 성능 향상보다는 비용 최적화에 무게를 둔 것으로 해석하고 있다. 실제로 회사 안팎의 이야기를 종합하면, SK하이닉스는 HBM4E용 로직다이 공정 고도화에 다소 보수적인 입장을 취하고 있다. 그보다는 신규 패키징 공법 등 다른 분야에서 기술적 진보를 이뤄내겠다는 전략이다. 해당 사안에 정통한 관계자는 "SK하이닉스는 현재의 로직 다이 공정으로도 HBM4E 대응이 충분히 가능하다고 판단하고 있다. 성능에 심각한 문제가 있다고 인지했다면 공정에 변화를 줬을 것"이라며 "경쟁사와 달리 로직 다이 공정의 급격한 고도화가 효용이 떨어진다고 보고 있다"고 말했다.

2026.03.11 15:35장경윤 기자

브로드컴, AI칩 고성장 자신…삼성·SK 메모리 수요 견인

브로드컴이 주문형 인공지능(AI) 반도체 사업 성장세를 자신했다. 구글·오픈AI 등 글로벌 기업들의 자체 AI 가속기 출하량 확대에 따른 효과다. 오는 2027년에는 관련 매출이 연 1000억 달러(약 146조원)에 달할 것으로 내다봤다. 해당 칩에 고대역폭메모리(HBM) 등 고부가 메모리를 공급하는 삼성전자·SK하이닉스도 견조한 수요가 지속될 전망이다. 브로드컴은 4일(현지시간) 회계연도 2026년 1분기(2026년 2월 1일 마감) 매출액 193억 1100만 달러(약 28조원)를 기록했다고 밝혔다. 전년동기 대비 29%, 전분기 대비 7% 증가했다. 특히 AI 반도체 매출은 86억 달러로 전년동기 대비 106%, 전분기 대비 29% 증가했다. 전체 사업군 중 가장 가파른 성장세다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·앤트로픽 등 고객사의 AI 반도체를 위탁 개발하고 있다. 향후 전망도 긍정적이다. 브로드컴은 회계연도 2026년 2분기 AI 반도체 매출액 예상치를 107억 달러로 제시했다. 전년동기 대비 143%, 전분기 대비 27% 증가한 수준이다. 증권가 컨센서스(약 92억 달러) 역시 크게 웃돌았다. 성장세의 주요 배경은 글로벌 기업들의 적극적인 AI 인프라 투자다. 현재 브로드컴은 AI 반도체 사업에서 5개 고객사를 확보한 상황으로, 각 고객사들은 맞춤형 AI 가속기(XPU) 도입을 가속화하고 있다. 최근에는 6번째 고객사도 추가로 확보했다. 특히 브로드컴의 핵심 고객사인 구글의 텐서처리장치(TPU)가 강력한 수요를 보일 것으로 예상된다. TPU는 대규모 학습 및 추론 분야에서 범용 GPU 대비 높은 효율을 보인다. 현재 7세대 칩인 '아이언우드'까지 상용화가 이뤄졌다. 호크 탄 브로드컴 최고경영자(CEO)는 "구글은 물론 메타의 AI 가속기 출하량이 확대될 예정"이라며 "또다른 고객사들도 출하량이 호조세를 보여, 2027년에는 규모가 2배 이상 증가할 것으로 예상한다"고 밝혔다. 그는 이어 "여섯 번째 고객으로 오픈AI가 2027년에 1GW(기가와트) 이상의 컴퓨팅 용량을 갖춘 1세대 AI XPU를 대량으로 도입할 것으로 기대한다"며 "AI XPU 개발을 위한 협력은 다년간 지속될 것임을 강조하고 싶다"고 덧붙였다. 브로드컴의 AI 반도체 매출 확대는 삼성전자·SK하이닉스 등 국내 메모리 기업들의 실적과도 연계된다. 브로드컴이 설계하는 XPU에 HBM 등 고부가 메모리가 탑재되기 때문이다. 올해만 해도 삼성전자, SK하이닉스, 마이크론 3사의 HBM3E 물량 30%가 구글 TPU에 할당될 것으로 알려졌다. 오픈AI 역시 삼성전자, SK하이닉스 메모리 사업의 '큰손' 고객사로 떠오를 전망이다. 앞서 오픈AI는 지난해 하반기 삼성전자·SK하이닉스와 핵심 AI 인프라 구축을 위한 전방위적 협력 체계를 맺은 바 있다. 호크 탄 CEO는 "당사는 오는 2027년 XPU, 스위치 칩 등을 포함한 AI 반도체 매출액이 1000억 달러를 넘어설 것으로 예상하고 있다"며 "이를 달성하는 데 필요한 공급망도 확보했다"고 강조했다.

2026.03.05 17:24장경윤 기자

파네시아, SKT·오픈칩과 CXL 동맹…차세대 AI 데이터센터 공략

국내 인공지능(AI) 인프라 링크 솔루션 기업 파네시아가 세계 최대 이동통신 전시회 'MWC26' 현장에서 국내외 대형 파트너들과 손잡고 차세대 AI 데이터센터(DC) 시장 공략에 속도를 낸다. 파네시아는 현지시간 4일 SK텔레콤과 'CXL 기반 차세대 AI DC 아키텍처' 공동 개발을 위한 전략적 파트너십을 체결한 데 이어, 5일에는 유럽의 시스템 반도체 기업 오픈칩과 AI/HPC 인프라 기술 협력 MOU를 맺었다고 밝혔다. SKT와 '서버 틀' 깨는 CXL 기반 연결 구조 혁신 파네시아와 SK텔레콤은 대규모 AI 서비스 구동을 위한 천문학적인 그래픽처리장치(GPU) 도입 비용 문제를 해결하기 위해 '연결 구조의 혁신'에 주목했다. 양사는 단순한 장비 증설 대신 컴퓨트 익스프레스 링크(CXL) 기술을 활용해 기존 컴퓨팅 자원 효율을 극대화하는 방안을 제시한다. 기존 AI DC는 CPU·GPU·메모리가 서버 단위로 고정돼 있어 특정 자원이 남아도 다른 서버에서 쓸 수 없었다. 양사는 이를 해결하기 위해 자원을 종류별로 분리한 뒤, 랙 단위에서 CXL 패브릭 스위치로 연결해 하나의 통합 시스템처럼 운영하는 구조를 설계한다. 기존 이더넷 기반 네트워크 전송 과정에서 발생하는 데이터 복사와 지연 시간을 줄이기 위해 모든 자원에 '링크 컨트롤러'를 통합하는 방안도 추진한다. 링크 컨트롤러는 장치 간 효율적 데이터 전송을 돕는 전자부품으로, CPU∙GPU∙AI 가속기∙메모리에 통합되어 해당 장치가 CXL을 기반으로 통신할 수 있도록 지원한다. 이를 통해 복잡한 소프트웨어 개입 없이 메모리 접근 동작만으로 데이터를 고속 전송해 연산 효율을 높인다는 전략이다. 유럽 오픈칩과 'RISC-V 가속기' 생태계 확장 파네시아는 유럽 AI 가속기 설계 기업인 오픈칩과도 손을 잡았다. 오픈칩은 스페인 바르셀로나에 본사를 둔 기업으로, RISC-V 기반 가속기와 풀스택 소프트웨어 포트폴리오를 보유하고 있다. 양사는 AI/HPC 환경에서 요구되는 성능과 확장성을 확보하기 위해 링크 아키텍처 고도화 방안을 논의했다. 특히 오픈칩의 RISC-V 기반 가속기에 파네시아 첨단 링크 기술을 결합해, 데이터 이동의 고질적 병목 현상을 해결하고 유럽 내 디지털 주권 강화를 위한 고성능 인프라 구축에 협력할 계획이다. 정석근 SK텔레콤 AI CIC장은 “이번 협력은 데이터 흐름의 병목인 '메모리 월'을 완화해 AI DC의 성능과 경제성을 동시에 끌어올릴 것”이라고 평가했다. 세스크 구임 오픈칩 최고경영자(CEO)는 “파네시아와의 협력은 확장 가능하고 효율적인 AI 인프라 구축에 필수적인 절차”라고 강조했다. 정명수 파네시아 대표는 “차세대 AI 인프라는 개별 장비의 성능이 아니라 다양한 링크 반도체가 만들어내는 '구조'가 성패를 좌우한다”며 “SK텔레콤, 오픈칩 등 글로벌 파트너들과 함께 고효율 AI 데이터센터의 표준 모델을 제시하고 생태계를 지속 확장하겠다”고 밝혔다. 한편 파네시아와 SK텔레콤은 실제 AI 모델을 활용해 GPU·메모리 활용률 등을 검증한 뒤, 올 연말까지 차세대 AI 데이터센터 구조를 공개할 예정이다.

2026.03.05 15:54전화평 기자

SK하이닉스, HBM4 '성능 점프' 비책 짰다…新패키징 기술 도입 추진

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) SK하이닉스가 고대역폭메모리(HBM)용 패키징 기술 변혁을 꾀한다. 대대적인 공정 전환 없이 HBM의 안정성과 성능을 강화할 수 있는 기술을 고안해, 현재 검증을 진행 중인 것으로 파악됐다. 실제 상용화가 이뤄지는 경우, 엔비디아가 요구하는 HBM4(6세대)의 최고 성능 달성은 물론 차세대 제품에서의 성능 강화도 한층 수월해질 것으로 예상된다. 이에 해당 기술의 성패에 업계의 이목이 쏠린다. 3일 지디넷코리아 취재를 종합하면 SK하이닉스는 HBM 성능 강화를 위한 새로운 패키징 기술 적용을 추진하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, 실리콘관통전극(TSV)를 뚫어 연결한 메모리다. 각 D램은 미세한 돌기의 마이크로 범프를 접합해 붙인다. HBM4의 경우 12단 적층 제품부터 상용화된다. SK하이닉스는 현재 HBM4의 초도 양산을 시작했다. HBM4의 리드타임(제품 양산, 공급에 필요한 전체 시간)이 6개월 내외인 만큼, 엔비디아와의 공식적인 퀄(품질) 테스트 마무리에 앞서 선제적으로 제품을 양산하는 개념이다. HBM4 공급은 문제 없지만…최고 성능 구현 고심 그간 업계에서는 SK하이닉스 HBM4의 성능 및 안정성 저하를 우려해 왔다. 엔비디아가 HBM4의 최대 성능(핀 당 속도)을 당초 제품 표준인 8Gbps를 크게 상회하는 11.7Gbps까지 요구하면서, 개발 난이도가 급격히 상승한 탓이다. 실제로 SK하이닉스 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 어려움을 겪어, 올해 초까지 일부 회로의 개선 작업을 거쳐 왔다. 이에 따라 본격적인 램프업(대량 양산) 시점도 당초 업계 예상보다 일정이 늦춰진 상황이다. 다만 업계 이야기를 종합하면, SK하이닉스가 엔비디아향 HBM4 공급에 큰 차질을 겪을 가능성은 현재로선 매우 낮은 수준이다. 주요 배경은 공급망에 있다. 엔비디아가 HBM4에 높은 사양을 요구하고 있긴 하지만, 이를 고집하는 경우 올 하반기 최신형 AI 가속기 '루빈'을 충분히 공급하는 데 제약이 생길 수 있다. 현재 HBM4에서 가장 좋은 피드백을 받고 있는 삼성전자도 수율, 1c D램 투자 현황 등을 고려하면 당장 공급량을 확대하기 어렵다. 때문에 업계는 엔비디아가 초기 수급하는 HBM4의 성능 조건을 10Gbps대로 완화할 가능성이 유력하다고 보고 있다. 반도체 전문 분석기관 세미애널리시스는 최근 보고서를 통해 "엔비디아가 루빈 칩의 총 대역폭을 당초 22TB/s로 목표했으나, 메모리 공급사들은 엔비디아의 요구 사항을 충족하는 데 어려움을 겪고 있는 것으로 파악된다"며 "초기 출하량은 이보다 낮은 20TB/s(역산하면 HBM4 핀 당 속도가 10Gbps급)에 가까울 것으로 예상한다"고 밝혔다. 반도체 업계 관계자는 "HBM 공급망은 단순 속도가 아니라 수율·공급망 안정성 등 어려 요소가 고려돼야 하기 때문에, SK하이닉스가 가장 많은 물량을 공급할 것이라는 전망은 여전히 유효하다"며 "다만 최고 성능 도달을 위한 개선 작업도 지속적으로 병행하는 등 기술적으로 안주할 수 없는 상황"이라고 말했다. HBM 성능 한계 돌파할 '신무기' 준비…현재 검증 단계 이와 관련, 현재 SK하이닉스는 HBM4 및 차세대 제품에 적용하는 것을 목표로 새로운 패키징 공법 도입을 시도하고 있다. 업계가 지목하는 HBM4 성능 제약의 가장 큰 요인은 입출력단자(I/O) 수의 확장이다. I/O는 데이터 송수신 통로로, HBM4의 경우 이전 세대 대비 2배 증가한 2048개가 구현된다. 그런데 I/O 수가 2배로 늘면 밀집된 I/O끼리 간섭 현상이 발생할 수 있다. 또한 전압 문제로 하부층의 로직 다이(HBM 밑에서 컨트롤러 역할을 담당하는 칩)에서 가장 높은 상부층까지 전력이 충분히 전달되기가 어렵다. 특히 SK하이닉스는 주요 경쟁사인 삼성전자 대비 한 세대 이전의 1b(5세대 10나노급) D램을 채용한다. 로직 다이도 TSMC의 12나노미터(nm) 공정으로, 삼성전자(삼성 파운드리 4나노) 대비 집적도가 낮다. 때문에 기술적으로 I/O 수 증가에 따른 문제에 취약하다. 대대적 공정 전환 없이 HBM 성능·안정성 향상…상용화 여부 주목 이에 SK하이닉스는 새로운 패키징 공법으로 새로운 비책을 마련하고 있는 것으로 파악됐다. 핵심은 ▲코어 다이 두께 향상, 그리고 ▲D램 간 간격(Gap) 축소다. 우선 일부 상부층 D램의 두께를 이전보다 두껍게 만든다. 기존엔 HBM4의 패키징 규격(높이 775마이크로미터)을 맞추기 위해 D램의 뒷면을 얇게 갈아내는 씨닝 공정이 적용된다. 다만 D램이 너무 얇아지면 칩 성능이 저하되거나 외부 충격에 쉽게 손상을 받을 수 있다. 때문에 SK하이닉스는 D램의 두께 향상으로 HBM4의 안정성을 강화하려는 것으로 풀이된다. 또한 D램 간 간격을 더 줄여, 전체 패키징 두께가 늘어나지 않도록 하는 동시에 전력 효율성을 높였다. 각 D램의 거리가 가까워지면 데이터가 더 빠르게 도달하게 되고, D램 최상층으로 전력이 도달하는 데 필요한 전력이 줄어들게 된다. 관건은 구현 난이도다. D램 간 간격이 줄어들면 MUF(몰디드언더필) 소재를 틈에 안정적으로 주입하기 힘들어진다. MUF는 D램의 보호재·절연체 등의 역할을 담당하는 소재로, 고르게 도포되지 않고 공백(Void)가 생기면 칩의 불량을 야기할 수 있다. SK하이닉스는 이를 해결할 수 있는 새로운 패키징 기술을 고안해냈다. 구체적인 사안은 밝혀지지 않았으나, 대대적인 공정 및 설비 변화 없이 D램 간격을 안정적인 수율로 줄일 수 있는 것이 주 골자다. 최근 진행된 내부 테스트 결과 역시 긍정적인 것으로 알려졌다. 만약 SK하이닉스가 해당 기술을 빠르게 상용화하는 경우, HBM4 및 차세대 제품에서 D램 간격을 효과적으로 줄일 수 있을 것으로 예상된다. 반대로 해당 기술이 양산 적용에 난항을 겪을 가능성도 남아 있다. 사안에 정통한 관계자는 "SK하이닉스가 기존 HBM의 한계를 극복하기 위한 새로운 패키징 공법을 고안해, 현재 검증 작업을 활발히 거치고 있다"며 "대규모 설비투자 없이 HBM 성능을 개선할 수 있기 때문에 상용화 시에는 파급 효과가 적지 않을 것"이라고 설명했다.

2026.03.03 14:29장경윤 기자

SK하이닉스, 샌디스크와 'HBF' 글로벌 표준화 작업 본격 착수

SK하이닉스와 샌디스크(Sandisk)가 25일(현지시간) 미국 샌디스크 본사에서 'HBF 스펙(Spec.) 표준화 컨소시엄' 킥오프 행사를 열고, AI 추론 시대를 겨냥한 고대역폭플래시(HBF)의 글로벌 표준화 전략을 발표했다. SK하이닉스는 "샌디스크와 함께 HBF를 업계 표준으로 마련해 AI 생태계 전체가 함께 성장할 수 있는 기반을 구축하겠다"며 "오픈 컴퓨트 프로젝트(OCP) 산하에 핵심 과제 전담 워크스트림을 샌디스크와 함께 구성해 본격적인 표준화 작업에 착수한다"고 밝혔다. OCP는 세계 최대의 개방형 데이터센터 기술 협력체다. 워크스트림은 특정 기술 주제를 중심으로 운영되는 OCP 산하 협업 체계를 뜻한다. 최근 AI 산업은 거대언어모델(LLM)을 만드는 '학습(Training)' 단계에서, 실제 서비스를 제공하는 '추론(Inference)' 단계로 무게중심이 빠르게 이동하고 있다. AI 서비스를 동시에 사용하는 이용자가 급증하면서 빠르고 효율적인 메모리가 필수적이지만, 기존 메모리 구조만으로는 추론 단계에서 요구되는 대용량 데이터 처리와 전력 효율성을 동시에 충족하기 어렵다. 이러한 한계를 해결할 수 있는 대안으로 등장한 것이 HBF다. HBF는 초고속 메모리인 HBM과 대용량 저장장치인 SSD 사이에 위치하는 새로운 메모리 계층이다. HBM의 뛰어난 성능과 SSD의 대용량 특성 사이의 공백을 메우며, 추론 영역에서 요구되는 용량 확장과 전력 효율성을 동시에 확보한다. 기존 HBM이 최고 수준의 대역폭을 담당하는 가운데, HBF가 이를 보완하는 구조다. 특히 HBF는 AI 시스템의 확장성을 높이면서도 전체 운영 비용(TCO)을 줄일 수 있을 것으로 예상된다. 업계는 HBF를 포함한 복합 메모리 설루션에 대한 수요가 2030년 전후로 본격 확대될 것으로 보고 있다. AI 추론 시장에서는 단일 칩의 성능보다 CPU·GPU·메모리·스토리지를 아우르는 시스템 레벨 최적화가 경쟁력을 좌우한다. 이로 인해 HBM과 HBF를 모두 제공할 수 있는 종합 메모리 설루션 기업의 역할이 더욱 중요해지고 있다. SK하이닉스와 샌디스크는 HBM과 낸드 분야에서 쌓은 설계·패키징 기술과 대량 양산 경험을 바탕으로 HBF의 빠른 표준화, 제품화를 선제적으로 추진할 계획이다. 안현 SK하이닉스 개발총괄 사장(CDO)은 "AI 인프라의 핵심은 단일 기술의 성능 경쟁을 넘어, 생태계 전체를 최적화하는 것"이라며 "HBF 표준화를 통해 협력 체계를 구축하고, AI시대 고객·파트너를 위한 최적화된 메모리 아키텍처를 제시함으로써 새로운 가치를 창출하겠다"고 밝혔다.

2026.02.26 08:49장경윤 기자

삼성·SK·마이크론, 엔비디아향 HBM4 퀄 2분기 완료

삼성전자·SK하이닉스·마이크론 등 주요 메모리 기업들이 HBM4 상용화를 앞두고 있다. 3사 모두 올 2분기 엔비디아향 HBM4 최종 퀄테스트를 마무리할 것으로 전망된다. 특히 삼성전자는 가장 높은 제품 안정성으로 가장 빠른 성과를 나타낼 가능성이 높다고 평가 받고 있다. 올해 출하량 역시 전년 대비 가장 큰 폭의 성장이 기대된다. 시장조사업체 트렌드포스에 따르면 주요 메모리 기업들은 올해 HBM4 상용화와 함께 전체 HBM 시장 점유율에 변동을 보일 전망이다. 현재 삼성전자, SK하이닉스, 마이크론 등 메모리 3사는 가장 최신 세대인 HBM4(6세대 고대역폭메모리) 상용화 준비에 매진하고 있다. 해당 HBM은 엔비디아가 올해 하반기 출시하는 AI 가속기 '루빈' 칩에 탑재된다. 트렌드포스는 "메모리 기업들은 HBM4 검증의 최종 단계에 있고, 올해 2분기 검증 완료를 목표로 하고 있다"며 "삼성전자는 뛰어난 제품 안정성을 바탕으로 가장 먼저 인증을 획득할 것으로 예상된다. 나머지 기업들도 곧이어 인증을 획득해 엔비디아향 HBM4 공급망은 3개 기업이 생태계를 구축할 것"이라고 밝혔다. 이와 관련, 삼성전자는 지난 12일 메모리 기업 중 가장 먼저 HBM4 양산 출하를 발표한 바 있다. 세부적으로, 최종 검증을 완료하기 전 선제적으로 제품을 양산하는 '리스크 양산'에 해당한다. SK하이닉스 등도 이달 리스크 양산 제품을 엔비디아향으로 출하할 것으로 알려졌다. 업계는 삼성전자의 HBM4 제품이 11.7Gbps 이상의 높은 성능을 가장 안정적으로 구현한다고 평가하고 있다. 트렌드포스가 삼성전자의 인증 속도가 가장 빠를 것이라고 분석한 이유다. 다만 엔비디아는 루빈 칩을 적기 출시하기 위해 많은 양의 HBM4 물량이 필요한 상황이다. 때문에 엔비디아는 HBM4에 요구되는 성능 완화 등을 통해 3개 메모리 공급사 모두를 HBM4 공급망에 포함시킬 것으로 예상된다. 트렌드포스는 "단일 공급업체가 루빈향 HBM4 요구 사항을 완전히 충족할 수 없다는 점 등 전략적 필요성을 고려해, 엔비디아가 주요 메모리 공급사를 모두 HBM4 공급망에 포함시킬 것"이라며 "선두를 달리는 삼성전자는 2분기 검증 완료 후 단계적으로 양산에 들어갈 것으로 예상된다"고 말했다. 이에 따라 HBM4를 포함한 전체 HBM 시장에서 삼성전자의 점유율은 지난해 20%에서 올해 28%로 상승할 전망이다. 마이크론도 지난해 20%에서 올해 22%로 소폭 상세가 예상된다. 반면 SK하이닉스는 경쟁사 진입 확대로 HBM 시장 내 점유율이 지난해 59%에서 올해 50%로 감소할 것으로 관측된다.

2026.02.16 07:45장경윤 기자

美 출장길 오른 최태원 SK 회장…엔비디아 등 빅테크와 AI 회동

최태원 SK그룹 회장과 SK하이닉스 주요 경영진이 지난주 초 미국 출장길에 오른 것으로 파악돼 관심이 모아진다. 업계는 SK 핵심 경영진들이 현지에서 엔비디아를 비롯한 주요 빅테크 기업들과 인공지능(AI) 인프라 구축 및 메모리 분야에 대해 폭넓은 협력을 논의할 것 기대하고 있다. 9일 지디넷코리아 취재에 따르면 최태원 회장은 이달 초인 지난 3일 미국 현지 빅테크 기업과의 회동을 위해 미국으로 출국한 것으로 확인됐다. 이번 출장에는 SK하이닉스 주요 경영진도 동행한 것으로 전해진다. 최 회장은 이번 방미 일정을 최소 약 2주간 소화할 계획이다. 엔비디아, 메타 등 글로벌 빅테크 기업들과 순차적으로 회동을 진행하기 위해서다. 특히 AI 산업에서 긴밀한 협력 관계를 이어오고 있는 젠슨 황 엔비디아 최고경영자(CEO)와의 만남도 예정된 것으로 전해진다. 사안에 정통한 관계자는 “최태원 회장과 SK하이닉스 톱 레벨 인사들이 최근 미국에 함께 출장을 간 것으로 안다”며 “최 회장이 AI를 둘러싼 글로벌 생태계 강화에 매우 깊은 관심을 두고 있어, 2주가량 미국에 머무르며 다양한 파트너사들과 협력 방안을 논의할 것”이라고 말했다. 업계에서는 최 회장의 이번 출장이 최근 SK그룹이 현지에 설립을 추진 중인 'AI 컴퍼니(가칭)' 구상과 맞물려 있다는 관측을 내놓고 있다. 앞서 SK하이닉스는 지난달 28일 미국에 AI 투자를 총괄하고 협력을 도모하는 AI 솔루션 회사를 설립한다고 공식 발표한 바 있다. 이 회사는 현지 AI 기업들과 전략적 투자 및 협업을 추진하고, AI 데이터센터와 관련한 기술·사업 역량을 강화하는 것을 목표로 한다. 복수의 관계자에 따르면 AI 컴퍼니는 최 회장이 직접 전면에 나서 추진하는 프로젝트로, SK텔레콤을 중심으로 한 AI 기술·솔루션 역량과 SK하이닉스의 HBM 등 반도체·자금력을 결합하는 구조로 설계되고 있다. 아직 대표이사 선임 전 단계로 구체적인 사업 내용과 조직 구성은 현재 조율 중인 것으로 전해진다. 다만 AI 컴퍼니 관련 논의가 언론을 통해 먼저 알려지면서, SK하이닉스는 최근 사내 채널을 통해 “AI 컴퍼니는 AI 투자와 관련 솔루션 사업을 전담하는 미국 법인”이라는 점을 공식화했다. AI 컴퍼니 설립을 위해 투입될 자금 규모도 상당한 것으로 전해진다. SK그룹은 해당 법인에 총 100억 달러(약 14조6000억원) 수준의 출자를 검토 중인 것으로 알려졌다. 이를 통해 AI 스타트업 육성 및 투자, 기술 협업, 데이터센터 관련 솔루션 사업을 본격화한다는 구상이다. 특히 기존 SK하이닉스 자회사인 솔리다임을 적극 활용하는 방안이 추진되고 있다. 기존 솔리다임을 AI 컴퍼니 체제로 전환하고, AI 컴퍼니 산하 자회사로 재편하는 방식이다. 이를 통해 SK하이닉스가 보유한 낸드플래시, eSSD, 고대역폭메모리(HBM) 등 AI용 메모리 기술을 AI 솔루션 사업과 보다 긴밀하게 연계하겠다는 전략이다. SK그룹 내부 시너지 강화도 이번 AI 컴퍼니 구상의 핵심 축이다. SK하이닉스는 HBM, 기업용 SSD(eSSD) 등 AI 데이터센터에 필수적인 고부가 메모리 제품을 공급하고 있으며, 향후 빅테크 기업들과의 협업을 통해 차세대 AI 데이터센터용 제품 개발을 더욱 가속화할 수 있다. 업계 관계자는 “최태원 회장은 단순히 AI 인프라를 구축하는 사업이 아니라, AI 인프라의 구조 자체를 바꾸고 생태계를 주도하는 사업을 원하고 있다”며 “AI 컴퍼니는 SK하이닉스가 자금 출자를 담당하고, SK텔레콤이 AI 솔루션과 기술 개발을 주도하는 형태로 운영될 가능성이 크다”고 설명했다.

2026.02.09 10:19장경윤 기자

AI 인프라 투자 300조 더 는다…삼성·SK 메모리 슈퍼사이클 '청신호'

세계 4대 클라우드서비스제공자(CSP) 기업들이 올해 AI 인프라 투자에 6,600억 달러(한화 약 970조원)을 투자한다. 지난해 대비 2,000억 달러(약 293조원) 가까이 증가한 규모다. 최근 불거진 'AI 거품론' 속에서도 투자 공세를 이어가겠다는 기조로, 삼성전자·SK하이닉스 등 국내 메모리 기업들도 상당한 수혜를 입을 것으로 기대된다. 7일 업계에 따르면 글로벌 주요 CSP 기업들은 올해 AI 인프라 투자 규모를 당초 예상보다 크게 늘리고 있다. 최근 실적을 발표한 아마존은 올해 AI 인프라 투자 규모를 2,000억 달러(약 293조원)로 제시했다. 이는 증권가 전망치인 1446억 달러를 크게 웃도는 수치다. 지난해 총 투자규모인 1250억 달러와 비교해도 60%나 증가했다. 앤디 재시 아마존 CEO는 "기존 서비스에 대한 강력한 수요와 AI·반도체·로봇공학·저궤도 위성 등 중대한 기회를 고려한 것"이라며 "투자 자본에 대해 장기적으로 높은 수익률을 기대한다"고 설명했다. 메타는 올해 AI 관련 설비투자 규모가 최대 1,350억 달러에 이를 것이라고 밝혔다. 지난해 투자 규모인 772억 달러 대비 74%가량 늘었다. 구글은 최대 1850억 달러, 마이크로소프트는 1,400억 달러로 역시 전년 대비 규모가 크게 늘었다. 이들 4개 기업의 총 투자 규모는 6,600억 달러에 이른다. 4,000억 달러대인 지난해와 비교하면 2,000억 달러 가량 늘어난 수준이다. 최근 IT 업계는 막대한 투자 대비 불확실한 매출 성장으로 'AI 거품론'에 휩싸이고 있다. 여기에 AI 데이터센터에 필수적인 메모리 반도체 수급난이 심화되면서, 투자 비용 역시 급증하는 추세다. 그럼에도 CSP 기업들은 AI 인프라 투자를 오히려 가속화하고 있다. 이는 삼성전자, SK하이닉스 등 메모리 기업들의 강력한 매출 성장 전망치에 힘을 실어주는 기폭제가 될 전망이다. 삼성전자, SK하이닉스는 AI 가속기에 탑재되는 고대역폭메모리(HBM) 시장을 주도하고 있다. 또한 이들 기업이 생산하는 서버용 D램, 기업용 SSD(eSSD) 등은 AI 데이터센터 시장에서 수요가 매우 높다. 반도체 업계 관계자는 "최근 메모리 공급난이 극심함에도 불구하고, CSP 기업들은 이번 실적발표를 통해 투자비용에 대한 부담 대신 더 공격적인 기조를 나타냈다"며 "AI 고도화의 주역인 메모리반도체 기업들 입장에서는 매우 반가운 소식"이라고 밝혔다.

2026.02.08 08:58장경윤 기자

삼성·SK, 낸드 마진율 역대 최대치 찍는다…"10년 간 없던 일"

삼성전자·SK하이닉스가 올 상반기에도 공격적인 낸드 가격 인상에 나선다. 이에 양사의 낸드 마진율이 40~50%대를 기록할 가능성이 유력하다. 업계는 지난 2017년 메모리 슈퍼사이클 이후 근 10년만에 낸드 제품이 사상 최대의 수익성을 거둘 것으로 기대하고 있다. 4일 업계에 따르면 삼성전자·SK하이닉스의 올 상반기 낸드 마진율은 40~50%에 육박할 것으로 관측된다. 양사의 낸드 마진은 지난해 4분기 기준으로 20%대까지 상승한 것으로 추산된다. 세부적으로는 쿼드레벨셀(QLC) 비중이 더 높은 SK하이닉스가 삼성전자 대비 수익성이 더 높았다. QLC는 메모리의 최소 저장 단위인 셀(Cell) 하나에 4비트를 저장하는 기술로, 고용량 구현에 용이해 서버용 SSD에 활발히 채택되고 있다. 최근 전 세계 빅테크 기업들이 공격적인 AI 인프라 투자를 진행하면서, 서버용 SSD 수요는 빠르게 증가하고 있다. 특히 엔비디아가 QLC만이 아니라 트리플레벨셀(TLC; 셀 당 3비트 저장) 제품까지 적극 주문하는 추세다. 삼성전자, SK하이닉스는 올 상반기에도 고부가 제품을 중심으로 낸드 가격을 크게 올릴 계획이다. 시장조사업체 트렌드포스는 낸드의 평균판매가격(ASP)이 지난해 4분기 33~38% 증가하고, 올해 1분기에는 55~60%로 더 큰 폭의 상승세를 기록할 것으로 분석했다. 이에 삼성전자, SK하이닉스의 낸드 마진은 올 상반기 40~50%에 도달할 가능성이 유력하다. 업계에선 그간 발생했던 메모리 슈퍼사이클 중에서도 전례를 찾기 힘들 정도의 높은 수익성으로 보고 있다. 반도체 업계 관계자는 "낸드 마진율이 40~50%대에 달하는 건 지난 2017년, 메모리 슈퍼사이클과 3D 낸드가 본격적으로 성장하던 시기 이후 처음 있는 일"이라며 "30%대 마진율 달성도 매우 어려운데, 이렇게 단기간에 수익성이 높아지다니 매우 놀랍다"고 말했다. 또 다른 관계자는 "낸드 가격이 올 1분기와 2분기 계단식으로 상승할 것이라는 전망은 이미 확실시된 상황"이라며 "메모리 공급사가 낸드용 설비투자에 보수적으로 나섰던 게 극심한 공급난을 일으키고 있다"고 설명했다.

2026.02.04 09:29장경윤 기자

삼성·SK, 2분기 최첨단 낸드 전환투자 본격화

삼성전자, SK하이닉스의 최첨단 낸드 투자가 본격화된다. 그간 D램에 우선순위가 밀려 일정이 연기돼왔으나, 최근 구체적인 투자 계획이 잡히고 있는 것으로 파악됐다. AI 산업 주도로 수요가 급증하는 낸드 시장에 대응하기 위한 전략으로 풀이된다. 2일 업계에 따르면 삼성전자, SK하이닉스는 올 2분기 최첨단 낸드에 대한 전환투자를 진행할 계획이다. 삼성전자는 지난 2024년 9월 280단대의 V9(9세대) 낸드 양산을 시작한 바 있다. 다만 현재까지 생산능력은 매우 적은 수준으로, 도합 월 1만5천장 내외로 추산된다. 당시 삼성전자가 시장 수요 부족 등으로 평택캠퍼스에 초도양산 라인만을 도입했기 때문이다. 다만 올 2분기부터는 V9 낸드 생산능력 확대를 위한 투자가 진행될 예정이다. 거점은 중국 시안에 위치한 X2 라인이다. 현재 해당 라인에서는 6~7세대급 구형 낸드가 양산되고 있다. 인근 X1 라인의 경우 8세대 낸드로 전환이 대부분 마무리됐다. 논의되고 있는 전환투자 규모는 월 4~5만장 수준이다. 설비투자 시점을 고려하면, V9 낸드는 내년부터 램프업(Ramp-up; 양산 본격화) 단계에 접어들 것으로 예상된다. 반도체 업계 관계자는 "당초 삼성전자가 1분기에 시안 X2 라인에서 V9 낸드 전환을 진행하려고 했으나, 일정이 다소 밀려 2분기에 시작될 예정"이라며 "평택 제1캠퍼스(P1)에서도 V9 낸드 전환투자가 준비되고 있어, 제품 생산 비중이 내년 크게 늘어날 수 있다"고 말했다. SK하이닉스 역시 2분기 321단의 9세대 낸드 전환투자를 계획하고 있다. 올 2분기 청주 M15에서 월 3만장 내외의 V9 생산능력을 확보하는 것이 주 골자다. 현재 해당 낸드 생산능력이 월 2만장 수준임을 감안하면, 적지 않은 투자 규모다. 업계 관계자는 "삼성전자, SK하이닉스 모두 최첨단 낸드 수요 확대 전망에 대응하기 위해 전환투자를 계획 중"이라며 "그간 양사 설비투자 전략이 D램에만 집중돼 왔으나, 낸드 역시 빠르게 품귀현상이 나타나고 있는 상황"이라고 설명했다.

2026.02.02 15:42장경윤 기자

HBM 공급 프로세스 달라졌다…삼성·SK 모두 리스크 양산

고대역폭메모리(HBM) 상용화 프로세스가 변화하고 있다. 기존 반도체는 샘플을 통한 고객사와 퀄(품질) 테스트를 완료한 뒤, 공식적으로 양산에 들어서는 것이 일반적이었지만 HBM 공급 과정에서는 핵심 고객사 수요에 맞추기 위해 인증 완료 전 양산을 선제적으로 진행 중이다. 1일 업계에 따르면 삼성전자·SK하이닉스는 엔비디아향 HBM 수요에 대응하기 위해 테스트가 마무리되기 전부터 HBM4를 선제적으로 양산하고 있다. 리스크 안고 선제 양산…삼성·SK 모두 HBM4 상용화 자신감 먼저 실적을 발표한 SK하이닉스는 "HBM4는 지난해 9월 양산체제 구축 이후 고객이 요청한 물량을 현재 양산 중"이라고 밝혔다. SK하이닉스 안팎의 이야기를 종합하면, 해당 양산은 실무단에서 '리스크 양산'으로 분류된다. 리스크 양산이란 고객사 인증이 완료되기 전 제품 양산을 위해 웨이퍼를 선제적으로 투입하는 개념이다. 리스크 양산을 진행하는 이유는 리드타임(제품 공급에 필요한 총 시간)에 있다. 통상 HBM을 최종 제품으로 출하하기 위해 4개월가량 시간이 소요된다. 인증을 완료한 뒤 제품 양산에 돌입하면 내년 엔비디아의 AI가속기 출시 스케쥴에 맞춰 HBM을 적기 공급하기가 사실상 어렵다. 생산능력이 제한돼 있고, 초기 수율 저하 문제로 출하량을 단기간에 크게 늘릴 수도 없다. 리스크 양산은 수요가 불확실해지거나 제품에 심각한 오류가 발생하는 경우, 공급사가 재고를 떠안게 된다는 점에서 손실 위험이 존재한다. 그만큼 내부적으로 상용화에 대한 의지나 확신이 없으면 진행하기가 힘들다는 뜻이다. 삼성전자 역시 실적발표에서 "당사 HBM4는 성능에 대한 고객사 평가로 이미 정상적으로 제품을 양산 투입해 생산 중"이라며 "고객사 요청으로 2월부터 최상위 등급인 11.7Gbps 제품을 포함해 HBM4 물량의 양산 출하가 예정돼 있다"고 밝힌 바 있다. 이를 고려하면 삼성전자도 지난해 하반기부터 HBM4 리스크 양산에 돌입한 것으로 풀이된다. 이달 말 기준으로, 삼성전자·SK하이닉스 모두 엔비디아향 HBM4 테스트를 아직 진행 중에 있다. 엔비디아가 제시한 공식적인 퀄 테스트 종료 시점은 1분기 말이다. 삼성전자는 이전 제품인 HBM3E까지 엔비디아향 상용화에 어려움을 겪어 왔다. 다만 HBM4에서는 경쟁사 대비 한 세대 앞선 1c(6세대 10나노급) D램, 더 고도화된 베이스 다이(HBM)의 컨트롤러 역할을 담당하는 칩를 채용해 성능을 끌어올렸다. 이를 통해 삼성전자는 엔비디아가 요구하는 최대 11.7Gbps급 HBM4 상용화에 강한 자신감을 보이고 있다. 내부에서는 "곧 엔비디아와 테스트가 마무리될 예정"이라는 이야기도 나온다. 이번 양산 출하 발표 역시 이러한 분위기에 기인했다는 평가다. SK하이닉스는 공식적인 언급은 피하고 있으나, 최근까지 HBM4 샘플에 대한 개선작업을 진행한 것으로 파악된다. 가혹한 환경 조건에서 11.7Gbps급 성능 구현이 삼성전자 대비 힘들다는 의견도 제기되고 있다. 결함의 경중 정도나 핵심 원인에 대해서는 업계 내부에서도 의견이 엇갈린다. 다만 SK하이닉스가 본격적인 양산 램프업(본격화) 시점을 당초 대비 다소 미루고 있다는 점은 확실시되고 있다. HBM4 양산용 소재·부품 발주 스케줄이 이달까지 확정되지 않고 있어서다. 개별 공급 시기보다 공급망 전체 상황 봐야…"결국 윈-윈" 최근 삼성전자·SK하이닉스는 엔비디아향 HBM4 공급망을 두고 날선 신경전을 벌이고 있다. 두 회사 중 누가 먼저 HBM4에 대한 정식 PO(구매주문)을 발표할 지에 대한 시장의 관심도 또한 높다. 그러나 업계는 현재 공급되는 샘플에 심각한 불량이 발생하지 않는 한, 삼성과 SK 모두 엔비디아향 HBM4 공급을 순조롭게 진행할 수 있을 것으로 보고 있다. 이유는 공급과 수요 간 '균형'에 있다. 현재 엔비디아가 요구하는 HBM4 최고 전송속도 성능은 11.7Gbps다. 다만 삼성전자·SK하이닉스가 최고등급(Bin1) 제품만을 선별하는 경우, 수율 및 안정성 문제로 충분한 양을 공급하지 못할 가능성이 크다. HBM4는 전작인 HBM3E 대비 데이터를 주고 받는 입출력단자(I/O) 수가 2배로 늘어 수율 확보가 더 어렵다. 삼성전자·SK하이닉스 입장에서도 생산능력을 확대할 여력이 없다. 올해 HBM 공급은 공격적인 AI 인프라 투자로 전체 수요를 따라가지 못하고 있다. 특히 구글 등 클라우드서비스제공자(CSP) 기업들이 HBM 수급 비중을 크게 늘리면서, 전년에 비해 공급난은 훨씬 심각해진 상황이다. 때문에 업계는 엔비디아가 11.7Gbps 외에도 10.6Gbps 등 차상위 제품까지 함께 활용할 것으로 예상하고 있다. 실제로 삼성전자·SK하이닉스는 그간 엔비디아와 다양한 속도의 HBM4 샘플 테스트를 진행해온 것으로 알려졌다. 반도체 업계 관계자는 "현재 업계 전반에서 삼성전자의 HBM4 기술력을 SK하이닉스 대비 더 높게 평가하는 것은 사실이나, 전체 HBM 시장 관점에서는 두 기업 모두 무난하게 HBM 사업이 확대될 가능성이 유력하다"며 "HBM4 속도 외에도 제품 신뢰성, 공급망 안정성 등 고려해야할 요소가 많다"고 설명했다.

2026.02.01 10:05장경윤 기자

SK하이닉스 "HBM4 압도적 점유율·수율 목표"

SK하이닉스가 HBM(고대역폭메모리) 시장에서 주도권을 계속해 유지하겠다는 강한 의지를 드러냈다. 올해 본격 양산되는 HBM4(6세대 HBM)에서 압도적인 점유율과 높은 수율을 확보하는 것이 목표다. 29일 SK하이닉스는 2025년도 4분기 실적발표 컨퍼런스콜을 통해 "HBM4에서 일부 경쟁사 진입이 예상되나, 당사의 시장 리더십 및 주도적인 공급사 지위는 지속될 것"이라고 밝혔다. HBM4는 올해 본격적인 상용화를 앞둔 가장 최신 세대의 HBM이다. 글로벌 빅테크인 엔비디아의 최첨단 AI 가속기인 '루빈' 시리즈에 탑재된다. 앞서 SK하이닉스는 HBM4에 대해 "현재 양산 중"이라고 언급한 바 있다. SK하이닉스는 "당사는 HBM2E부터 고객들과 원팀으로 협업해 HBM 시장을 개척해 온 선두주자로, 양산 경험과 품질에 대한 고객사 신뢰는 단기간에 추월하기 어려울 것"이라며 "HBM4 역시 당사 제품에 대한 선호도와 기대 수준이 높아 고객사들이 최우선으로 요구하고 있다"고 설명했다. 이를 바탕으로 SK하이닉스는 HBM4 시장에서 압도적인 점유율 확보를 목표로 하고 있다. 수율 역시 이전 제품인 HBM3E 12단과 비슷한 수준까지 끌어올리는 것이 목표다. SK하이닉스는 "현재 생산을 극대화중임에도 고객 수요를 100% 충족하기 어려워, 일부 경쟁사의 진입이 예상된다"면서도 "성능과 양산성, 품질을 기반으로 한 시장 리더십 및 주도적인 공급사 지위는 지속될 것"이라고 강조했다.

2026.01.29 10:03장경윤 기자

"D램 재고, 올 하반기 더 낮아져"…메모리 공급난 심화된다

AI 산업 주도로 촉발된 '메모리 대란'이 올해에도 지속될 전망이다. 지난해 4분기 SK하이닉스의 D램 재고가 전분기 대비 감소한 데 이어, 올해 하반기로 갈수록 더 낮은 수준으로 하락할 것으로 예상된다. 낸드 역시 재고 수준이 빠르게 낮아지고 있다. SK하이닉스는 29일 2025년도 4분기 실적발표 컨퍼런스콜을 통해 올해 메모리반도체 수급 전망에 대해 밝혔다. SK하이닉스는 "AI 인프라 투자가 계속 확대되고 있으나 업계의 공급 능력은 이를 따라가지 못하고 있는 상황"이라며 "고객사 재고 수준도 전반적으로 감소한 것으로 파악하고 있다"고 설명했다. 특히 서버 고객사의 경우, 메모리 물량이 확보되면 곧바로 조립 공정으로 넘어가는 상황이 발생하고 있다. 재고를 축적할 만큼 충분한 물량 비축이 어렵기 때문이다. 이에 따라 서버 고객사의 구매 확대 움직임은 향후에도 지속될 전망이다. PC 및 모바일 고객사도 서버향 수요 강세의 영향을 직·간접적으로 받고 있어 수급에 어려움을 겪고 있다. 메모리 공급사의 재고 수준도 낮아지고 있다. SK하이닉스는 "지난해 4분기에도 D램 재고 수준은 전분기 대비 감소했다"며 "서버 D램 중심의 타이트한 재고 추세가 연중 지속돼, 재고 수준은 올 하반기로 갈수록 현재보다 점점 더 낮은 수준으로 하락할 것으로 예상한다"고 강조했다. 낸드 역시 데이터센터에 탑재되는 eSSD를 중심으로 전반적인 재고 감소세가 지속될 것으로 예상된다. SK하이닉스는 "당사의 낸드 재고 수준도 빠르게 낮아져서 작년 말 낸드 재고 수준도 D램과 거의 동일한 수준"이라고 밝혔다.

2026.01.29 09:59장경윤 기자

SK하이닉스, 美에 'AI 컴퍼니' 세운다…최태원 회장 '광폭 행보'

SK하이닉스가 AI 산업의 중심지인 미국에 AI 설루션 회사를 세운다. 현지 AI 혁신 기업들과의 협업을 확대하는 한편, 이를 통해 확보한 역량을 SK그룹 차원의 시너지로 연계하기 위한 전략이다. 특히 최태원 SK그룹 회장의 행보에 관심이 쏠린다. 최 회장은 이번 AI 설루션 회사 설립과 관련해 다음달 미국을 방문할 예정으로, SK하이닉스에 "의미 있는 협업 아이템을 발굴하라"는 지시를 사전에 내린 것으로 알려졌다. 최 회장은 새해 신년사에서도 "AI라는 거대한 변화의 바람을 타고 글로벌 시장의 거친 파도를 거침없이 헤쳐 나가자"고 강조했을 만큼 AI 산업의 중요성을 강조한 바 있다. 향후 AI 데이터센터를 둘러싼 생태계 전반에서 폭넓은 협력체계 구축이 기대된다. SK하이닉스는 미국에 AI 설루션 회사인 'AI 컴퍼니'(가칭, 이하 AI Co.) 설립을 추진한다고 28일 밝혔다. 회사는 "HBM 등으로 입증한 AI 메모리 기술 경쟁력을 바탕으로 단순 메모리 제조사를 넘어, AI 데이터센터 생태계의 핵심 파트너로 거듭나겠다"며 "AI 역량을 갖춘 기업에 대한 전략적 투자와 협업을 통해 SK하이닉스의 메모리 경쟁력을 강화하고, AI 데이터센터 전 분야의 설루션을 제공할 수 있는 회사로 AI Co.를 성장시켜 나가겠다”고 밝혔다. 최근 글로벌 빅테크들은 AI 산업 주도권 확보를 위해 투자, 사업구조 혁신 등을 이어가며 치열하게 경쟁하고 있다. 또한 메모리 성능을 AI 데이터 병목 해결의 주요 요인으로 주목하고 있어 AI 시스템 최적화를 위한 광범위한 협력이 요구되고 있다. AI 메모리 시장을 선도해온 SK하이닉스에게는 이러한 흐름이 AI 생태계의 핵심기업으로 도약할 수 있는 절호의 기회가 되고 있다. 회사는 이러한 흐름에 맞춰 AI Co.를 통해 AI 산업의 중심지인 미국에서 AI 혁신 기업들에 투자하고 이들 기업과의 협업을 확대하는 한편, 여기서 확보한 역량을 SK그룹 차원의 시너지로 연계하는 방안도 구상 중이다. 아울러 국내 AI와 반도체 산업의 경쟁력 강화에도 기여할 수 있을 것으로 회사는 내다봤다. 글로벌 기술 경쟁이 심화되는 가운데, AI Co.를 통해 구축할 글로벌 네트워크와 기술 협력 경험이 한국 산업의 글로벌 AI 시장 입지 확대에 큰 자산이 될 것으로 판단했기 때문이다. AI Co.는 미국 현지에서 고용량 eSSD를 통해 AI 데이터센터 분야 핵심 사업자로 자리잡은 솔리다임(Solidigm, 법인명: SK hynix NAND Product Solutions Corp.)을 개편해 설립된다. 솔리다임은 자회사를 세워 사업을 양도하고, 법인명과 사명은 향후 변경할 예정이다. 신설 자회사는 AI Co.의 기존 사명인 솔리다임(Solidigm Inc.)을 법인명으로 활용해 사업의 연속성을 이어간다. 회사는 100억 달러(한화 약 14조3천억원)를 AI Co.의 자금 요청(Capital Call)에 따라 출자할 예정이다. SK하이닉스는 "AI Co. 설립은 넥스트 AI 시대를 앞두고 AI 데이터센터 생태계에서 다양한 기회를 확보하기 위한 행보”라며 "미국내 AI 핵심 파트너들과 긴밀히 협력하며, 고객이 필요로 하는 가치를 한발 앞서 창출하겠다"고 말했다.

2026.01.28 18:21장경윤 기자

메모리 시장, 내년에도 좋다…연매출 '1천조원' 첫 돌파 전망

전례 없는 '슈퍼사이클'에 접어든 메모리반도체 시장이 내년에도 기세를 이어갈 전망이다. 내년 D램·낸드를 합한 시장 규모가 전년 대비 53% 증가해, 처음으로 1천조원을 돌파할 것이라는 분석이 제기됐다. 22일 트렌드포스에 따르면 메모리 시장 규모는 올해 5천516억 달러(한화 약 810조원)에서 내년 8천427억 달러(1천239조원)로 전년 대비 53% 성장할 전망이다. 가장 큰 요인은 지난해부터 본격화된 AI 산업의 급격한 발달이다. AI가 방대한 양의 데이터 처리를 요구하면서, 고대역폭·대용량·저지연 특성을 갖춘 고성능 D램에 대한 의존도가 높아졌다. 낸드 또한 고용량·고속 데이터 전송의 필수 요소로서 각광받는 추세다. 반면 메모리 제조업체들의 생산능력 확대는 수요를 따라가지 못하고 있어, 가격 상승을 유발하고 있다. 특히 D램은 지난해 기준 시장 규모가 1천657억 달러로 전년 대비 73% 증가했을 만큼 매우 강한 급등세를 보인 것으로 추산된다. 트렌드포스는 "역사적으로 D램의 분기별 가격 상승률은 최고 35% 정도였으나, 지난해 4분기에는 DDR5 수요 강세로 D램 가격이 53~58%나 급등했다"며 "이미 높은 가격에도 CSP(클라우드서비스제공자)들은 여전히 수요 강세를 보여 가격 상승을 더욱 부추기고 있다"고 설명했다. 이에 따라 D램 가격은 올 1분기에도 60% 이상 상승하고, 일부 품목은 2배 가까이 오를 것으로 예상된다. 트렌드포스는 이러한 가격 상승세가 향후 3분기 동안 지속되면서, 올해 D램 매출이 전년 동기 대비 144% 급증한 4천43억달러에 이를 것으로 분석했다. 낸드 역시 글로벌 빅테크인 엔비디아 주도로 고성능 제품 수요가 강하게 촉진될 전망이다. 생성형 AI가 장시간의 AI 추론을 요구하면서, 높은 IOPS(1초당 처리할 수 있는 입출력 횟수)를 지원하는 데이터센터용 eSSD 수요가 크게 늘어나고 있다. 트렌드포스는 올 1분기 낸드 가격이 전분기 대비 55~60% 상승하고, 연말까지 지속적인 상승세를 보일 것으로 내다봤다. 이에 따른 올해 낸드 연매출은 전년동기 대비 112% 증가한 1천473억 달러로 예상했다. 트렌드포스는 "메모리 시장 전반에서 공급 부족 현상이 완화될 기미를 보이지 않아 공급업체의 가격 결정력이 유지되고 있다"며 "AI 서버, 고성능 컴퓨팅 및 엔터프라이즈 스토리지에 대한 지속적인 수요에 힘입어 D램 및 낸드 계약 가격은 2027년까지 상승할 것으로 예상된다"고 밝혔다.

2026.01.22 17:40장경윤 기자

[단독] 최태원 SK 회장, 다음달 방미…하이닉스에 '협업' 주문

최태원 SK그룹 회장이 다음달 2월 중 미국을 방문한다. 작년 10월 중순께 AI 인프라 구축 프로젝트 '스타게이트(Stargate)'를 이끌고 있는 손정의 소프트뱅크 회장의 초청으로 미국을 방문한지 3개월여만이다. 최 회장은 미국 출장을 앞두고 SK하이닉스에 '의미 있는 협업 아이템을 발굴하라'는 지시를 내린 것으로 알려져 그 배경과 행보에도 관심이 쏠린다. 20일 복수의 관계자에 따르면 그룹 내에서 최 회장의 미국 방문 일정이 정해진 이후, 하이닉스를 중심으로 방미 관련 아젠다를 검토하는 작업이 진행되고 있다. 다만 현재까지 구체적으로 확정된 딜이나 협력 사안은 파악되지 않은 상황으로 전해진다. 업계 한 관계자는 "최 회장의 방미 자체는 이미 정해진 일정이지만, 이를 계기로 공개할 만한 '의미 있는 협업'을 만들라는 요구가 내부에 내려온 것으로 안다"고 말했다. 최 회장은 지난해 10월에도 미국을 찾아 '스타게이트' 프로젝트와 관련한 일정을 소화한 바 있다. 당시 미국 현지에서 글로벌 빅테크 기업들과 접촉하며 AI 인프라와 반도체, 데이터센터 생태계 전반을 둘러싼 협력 가능성을 점검한 것으로 전해졌다. 업계에서는 해당 방미 역시 단기 성과보다는 중장기 협력 구도를 염두에 둔 행보였다는 평가가 나왔다. 업계 안팎에서는 이번 최 회장의 방미 기간 중 글로벌 빅테크 기업들과의 미팅 가능성이 거론되고 있다. 아마존웹서비스(AWS), 마이크로소프트(MS) 등과의 만남이 이뤄질 수 있다는 관측이지만, 이 역시 구체적인 협업 발표로 이어질지는 아직 불투명하다. 또 다른 관계자는 “사전에 충분히 준비된 대형 딜이 있다기보다는, 협력 관계 점검과 시장 가능성 탐색 성격에 가까울 수 있다”고 봤다. 이번 방미에서 현지 AI 데이터센터 사업과 관련된 내용이 나올 지도 주목된다. SK그룹은 그룹 차원에서 글로벌 AI 데이터센터 시장에 큰 관심을 기울이고 있다. AI와 반도체, 클라우드 수요 확대와 맞물려 데이터센터 인프라 산업 전반이 그룹 차원의 주요 공략 대상으로 부상한 만큼, 관련 생태계와의 접점 확대나 협력 논의가 이뤄질 수 있다는 관측이다. 반도체 분야와 관련해 SK하이닉스는 고대역폭메모리(HBM)를 중심으로 AI 반도체 시장에서 존재감을 키우고 있지만, 일부 차세대 기술은 아직 개발 및 검증 단계에 있어 이번 방미에서 새로운 형태의 협력 구도가 제기될 수 있을지 관심사다. 업계 관계자는 “이번 미국 방문은 단기 성과를 내기보다는, 글로벌 파트너들과의 접점을 점검하고 중장기 협력 가능성을 모색하는 성격이 강할 것”이라며 “시장에 강한 메시지를 주는 발표보다는, 향후 행보를 위한 사전 정지 작업에 가깝게 볼 필요가 있다”고 말했다. 한편 SK그룹 관계자는 "사안에 관련해서 언급하기 어렵다"고 밝혔다.

2026.01.21 09:46전화평 기자

SK하이닉스, AI 추론 병목 줄이는 '커스텀 HBM' 정조준

SK하이닉스가 향후 다가올 커스텀 HBM(고대역폭메모리) 시대를 위한 무기로 '스트림DQ(StreamDQ)'를 꺼내 들었다. 기존 GPU가 담당해 추론 과정에서 병목 현상을 일으키던 작업을, HBM이 자체적으로 수행해 데이터 처리 성능을 끌어올리는 것이 골자다. GPU 업체 입장에서도 HBM으로 일부 기능을 이전할 수 있기 때문에 칩 설계를 보다 유연하게 할 수 있다는 이점이 있다. SK하이닉스는 해당 기술을 통해 엔비디아 등 주요 고객사와 협의를 진행할 것으로 관측된다. SK하이닉스는 지난 6일(현지시간) 미국 라스베이거스 베니션 호텔에서 'CES 2026' 프라이빗 전시관을 마련하고 커스텀 HBM 기술을 공개했다. 커스텀 HBM 시장 정조준…고객사에 '스트림DQ' 기술 제안 커스텀 HBM은 차세대 버전인 HBM4E(7세대 HBM)부터 본격적으로 적용될 것으로 전망되는 제품이다. 기존 HBM이 표준에 따라 제작됐다면, 커스텀 HBM은 고객사가 원하는 기능을 베이스 다이에 추가하는 것이 가장 큰 차별점이다. 베이스 다이는 HBM을 적층한 코어 다이의 메모리 컨트롤러 기능을 담당하는 칩으로, HBM과 GPU 등의 시스템반도체를 PHY(물리계층)로 연결한다. 기존에는 메모리 회사가 이를 제조했으나, 다양한 로직 기능이 추가되면서 HBM4부터는 주로 파운드리 공정을 통해 양산된다. SK하이닉스는 커스텀 HBM 상용화를 위해 고객사에 스트림DQ라는 기술을 제안하고 있다. 얼마전 막을 내린 CES 2026 전시관이 고객사 대상으로 운영된 만큼, 엔비디아 등 글로벌 빅테크에 적극적인 프로모션을 진행했을 것으로 예상된다. SK하이닉스 관계자는 "스트림DQ는 커스텀 HBM의 한 사례로서, SK하이닉스는 해당 기술을 논문으로도 냈다"며 "고객사가 커스텀 HBM 관련 기술을 우리에게 제안하기도 하지만, 반대로 SK하이닉스가 제시하기도 한다"고 설명했다. GPU 일부 기능 HBM으로 이전…빅테크 부담 덜어준다 스트림DQ 기술은 기존 GPU 내부의 컨트롤러 기능 일부를 HBM의 베이스 다이로 이전하는 것이 주 골자다. 이렇게 되면 GPU 제조사는 칩 내부 공간을 더 넓게 쓸 수 있어, 시스템반도체의 성능 및 효율성 향상을 도모할 수 있다. SK하이닉스 입장에서는 베이스 다이에 GPU 컨트롤러 등을 추가하더라도 큰 부담이 없다. 대만 주요 파운드리인 TSMC의 선단 공정을 적용하기 때문이다. 또한 SK하이닉스는 해당 베이스 다이에 UCIe 인터페이스를 적용해 칩의 집적도를 더 높였다. UCIe는 칩을 기능별 단위로 분할해 제조한 후, 서로 연결하는 최첨단 기술이다. HBM이 '역양자화' 대신 처리…LLM 처리 속도 7배 향상 가능 AI 가속기의 데이터 처리 성능 역시 획기적으로 높아진다. 대규모언어모델(LLM)은 메모리 사용량을 효율적으로 감축하기 위해 낮은 비트 정수로 데이터를 압축하는 '양자화(Quantization)' 과정을 거친다. 이후 실제 연산 과정에서는 데이터를 다시 압축 해제하는 '역양자화(Dequantization)'를 진행한다. 기존 역양자화 작업은 GPU가 담당했다. 그런데 GPU가 역양자화를 진행하면 전체 LLM 추론 시간의 최대 80%를 잡아먹는 메모리 병목 현상을 일으키는 문제가 발생해 왔다. 반면 스트림DQ는 양자화된 정보를 그대로 GPU에 보내는 것이 아니라, HBM 내부에서 데이터가 흘러가는 과정에서 역양자화를 곧바로(on-the-fly) 진행한다. 덕분에 GPU는 별도의 작업 없이 곧바로 연산 작업을 진행할 수 있게 된다. 이처럼 흘러가는(스트림) 데이터를 곧바로 역양자화(DQ)한다는 관점에서 스트림DQ라는 이름이 붙었다. 이를 통해 병목 현상이 발생했던 LLM 추론 처리 속도가 약 7배 이상으로 개선될 수 있다는 게 SK하이닉스의 설명이다. 전체 AI 가속기의 추론 속도 역시 크게 향상될 것으로 기대된다. SK하이닉스 관계자는 "방대한 양의 데이터를 처리하는 시스템반도체를 메모리 근처에 가져다 놓고 데이터 결과값만 받게 하면 시스템적으로 굉장히 효율적"이라며 "프로세싱 니어 메모리(PNM)의 개념으로 볼 수 있다"고 말했다.

2026.01.14 13:48장경윤 기자

AI, 서버용 SSD 시장도 바꾼다…'SLC' 존재감 부각

인공지능(AI) 산업이 데이터센터용 SSD 시장 판도를 바꿀 것으로 예상된다. 기존 데이터센터용 SSD는 고용량 구현에 초점을 맞춰 왔으나, 최근 주요 메모리 기업들은 데이터 처리 성능을 극대화하기 위한 SLC(싱글레벨셀) 기반의 차세대 SSD 개발에 집중하고 있다. 글로벌 빅테크인 엔비디아 역시 AI용 고성능 SLC SSD에 주목하고 있는 것으로 알려졌다. 26일 업계에 따르면 주요 메모리 기업들은 AI 데이터센터용 차세대 낸드로 SLC에 주목하고 있다. TLC·QLC가 주도 중인 서버용 SSD 시장 SLC는 데이터를 저장하는 최소 단위인 셀 하나에 1비트(Bit)를 저장하는 방식을 뜻한다. 2비트를 저장하면 MLC(멀티레벨셀), 3비트는 TLC(트리플레벨셀), 4비트는 QLC(쿼드레벨셀)로 불린다. 각 방식에 따라 SSD(낸드 기반 저장장치)의 주 적용처가 달라진다. 기존 데이터센터용 SSD 시장은 TLC, 혹은 QLC가 주류를 차지해 왔다. 각 셀에 더 많은 비트를 저장하므로, 단위면적 당 더 많은 데이터를 저장할 수 있기 때문이다. 특히 방대한 양의 데이터 처리가 필요한 AI 데이터센터에서는 수요가 더 늘어나는 추세다. SLC는 데이터 처리 속도가 빠르고 안정성이 높지만, 저장 용량이 적고 가격이 비싸 대규모 투자가 필요한 데이터센터 구축에는 적합하지 않다는 평가가 지배적이었다. AI가 바꾸는 패러다임…1억 IOPS SSD·HBF는 'SLC' 기반 그러나 최근 주요 메모리 기업들이 개발 중인 차세대 낸드에서는 SLC의 존재감이 커지고 있다. 대표적으로, SK하이닉스는 AI 데이터센터 시장을 겨냥해 AI-N P(성능)·AI-N B(대역폭)·AI-N D(용량) 등 세 가지 측면을 각각 강화한 'AIN 패밀리' 라인업을 개발 중이다. 이 중 AI-N P는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 1세대 제품의 IOPS(1초당 처리할 수 있는 입출력 횟수)는 2천500만으로, 현존하는 고성능 SSD(최대 300만 수준) 대비 8~10배에 달한다. 2027년 말 양산 준비 완료를 목표로 한 2세대 제품은 1억 IOPS를 지원할 전망이다. 이를 위해 SK하이닉스는 낸드와 컨트롤러를 새로운 구조로 설계하고 있으며, 핵심 고객사인 엔비디아와 협업해 내년 말 첫 샘플을 선보일 계획이다. 회사에 따르면, AI-N P는 SLC 낸드를 기반으로 개발되고 있다. AI-N P가 데이터 처리 성능을 극대화하는 제품인 만큼, 용량은 후순위로 미루려는 전략으로 풀이된다. 일본 키오시아도 올 3분기 개최한 기술설명회에서 "엔비디아와 협력해 1억 IOPS 성능의 차세대 SSD를 오는 2027년 상용화할 것"이라고 밝힌 바 있다. SK하이닉스와 동일한 개념의 제품인 만큼, 키오시아도 SLC 낸드를 기반으로 할 것으로 관측된다. 업계에서 HBF(고대역폭플래시)라 불리는 AI-N B 역시 SLC 낸드 기반으로 개발되고 있다. HBF는 D램을 적층해 만든 HBM과 유사하게 낸드를 적층해, 데이터를 송수신하는 대역폭을 크게 확장한 제품이다. 현재 SK하이닉스는 미국 샌디스크와 협력해 HBF에 대한 표준화 작업을 진행하고 있다. 오는 2027년 PoC(개념증명) 단계의 샘플이 개발돼 본격적인 평가를 거칠 것으로 예상된다. 엔비디아, GPU와 SSD 직접 연결 구상 AI 산업을 주도하고 있는 엔비디아도 SLC 낸드의 필요성에 공감하고 있다는 분석이다. 현재 엔비디아는 주요 메모리 기업들과 AI 낸드 협력망을 구축함과 동시에, 이를 활용하기 위한 소프트웨어 'SCADA(SCaled Accelerated Data Access)'를 개발하고 있다. SCADA는 AI 데이터 처리의 핵심 요소인 GPU가 CPU를 거치지 않고 스토리지(SSD)에 직접 접근해 데이터를 읽고 쓸 수 있도록 하는 기술이다. CPU가 SSD에서 데이터를 읽고 GPU로 전송하는 기존 구조 대비 데이터 처리 과정을 줄여, 학습 및 추론 속도와 효율성을 높일 수 있다. 엔비디아 SCADA 솔루션의 구현을 위해서는 SSD도 데이터 처리 속도를 크게 끌어올려야 한다. 현재 주요 메모리 공급사들이 1억 IOPS 이상의 차세대 SSD를 개발하는 이유도 여기에 있다. 반도체 업계 관계자는 "데이터센터용 SSD에서 아직 주류는 아니지만, 차세대 스토리지 솔루션에서는 SLC 기반의 AI용 SSD가 각광을 받을 가능성이 있다"며 "다만 실제 상용화 시기를 아직까지 예측하기는 힘든 상황"이라고 설명했다.

2025.12.26 10:49장경윤 기자

SK하이닉스 32Gb 서버용 D램, 업계 첫 인텔 호환성 검증

SK하이닉스가 업계 최초로 10나노급 5세대(1b) 32Gb 기반 고용량 서버용 D램 모듈 제품인 256GB DDR5 RDIMM을 인텔 '제온 6' 플랫폼에 적용하기 위한 '인텔 데이터센터 인증' 절차를 통과했다고 18일 밝혔다. RDIMM은 메모리 모듈 내에 메모리 컨트롤러와 D램 칩 사이에 주소, 명령 신호를 중계해주는 레지스터 또는 버퍼 칩을 추가한 서버·워크스테이션용 D램 모듈이다. 이번 인증 절차는 미국에 위치한 인텔의 첨단 연구시설인 어드밴스드 데이터센터 디벨롭먼트 랩에서 진행됐다. 이 곳에서 SK하이닉스는 수차례의 다면 평가를 거쳐 이번 제품이 제온 플랫폼과 결합했을 때 신뢰할 수 있는 성능과 호환성, 품질을 갖췄다는 결과를 얻었다. 회사는 이에 앞서 올해 1월, 10나노급 4세대(1a) 16Gb 기반 256GB 제품에 대한 인증도 받은 바 있다. SK하이닉스는 "서버용 CPU 시장을 선도하는 인텔의 최신 서버 플랫폼과의 호환성을 업계 최초로 검증 받으며 당사의 고용량 DDR5 모듈 기술력이 글로벌 최고 수준임을 입증했다"며 "이를 발판으로 글로벌 주요 데이터센터 사업자들과의 협력을 확대하고, 급증하는 서버 고객들의 수요에 적기 대응해 차세대 메모리 시장 리더십을 이어 가겠다"고 강조했다. 차세대 AI 인프라에서 메모리는 성능을 좌우하는 핵심 요소로 부상하고 있다. 최근 AI 추론 모델들이 단순 답변 생성을 넘어 복잡한 논리적 사고 과정을 수행하면서, 실시간으로 처리해야 하는 데이터량이 기하급수적으로 늘어나고 있기 때문이다. 방대한 데이터를 빠르고 안정적으로 처리하려면 고용량·고성능 메모리가 필수적이며, 이에 따른 시장 수요도 급증하고 있다. 회사는 이번 제품이 늘어나는 시장 수요에 부응하는 최적의 설루션이라고 강조했다. 회사 개발진은 "이번 제품을 탑재한 서버는 32Gb 128GB 제품을 채용했을 때 대비 16% 추론 성능이 향상된다"며 "32Gb D램 단품 칩을 활용한 설계로 전력 소모량도 기존 1a 기반 16Gb 256GB 제품보다 최대 약 18%까지 줄였다"고 설명했다. 이에 따라, 전성비를 중시하는 데이터센터 고객들의 높은 관심이 예상된다. 이상권 SK하이닉스 부사장(DRAM상품기획 담당)은 “서버용 DDR5 D램 시장에서 주도권을 확실히 하면서 고객 요구에 신속하게 대응할 수 있게 됐다”며 “풀 스택 AI 메모리 크리에이터로서 고성능·저전력·고용량 메모리 수요 확산에 적극 대응해 고객들의 만족을 이끌어 내겠다”고 말했다. 디미트리오스 지아카스 인텔 플랫폼 아키텍처 부사장은 "양사가 긴밀히 협력해 기술 완성도를 높인 결과 좋은 성과를 거뒀고, 메모리 기술 발전에도 기여하게 됐다"며 "고용량 모듈은 급증하는 AI 워크로드(Workload) 수요에 대응하며, 데이터센터 고객들이 원하는 성능과 효율성도 크게 향상시킬 것"이라고 말했다.

2025.12.18 09:39장경윤 기자

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

트럼프 "이란 공격 5일간 중단" 발언에…비트코인 7만 달러 회복

[써보고서] 코드 한 줄 몰라도 되네…문과 출신 기자의 바이브 코딩 도전기

[현장] LG CNS, 현신균 대표 연임…"M&A 폭넓게 검토"

고려아연-영풍·MBK, 주총 신경전…감사위원 1→2인 확대 부결

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.