• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 메모리'통합검색 결과 입니다. (328건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성 세계 최초 12나노급 GDDR7 대통령상…추론 AI 시장서 '각광'

삼성전자의 최첨단 GDDR7 D램이 국가 산업경쟁력 강화에 기여하는 미래전략 기술로 인정 받았다. 해당 D램은 업계 최초로 12나노미터(nm)급 미세 공정을 적용한 고성능·고용량 그래픽 D램으로, 엔비디아 등이 주목하는 추론 AI 시장에서 핵심 역할을 담당할 것으로 관측된다. 삼성전자는 3일 서울 코엑스에서 개최되는 '2025 코리아 테크 페스티벌'에서 12나노급 40Gbps 24Gb GDDR7 D램으로 2025 대한민국 기술대상 대통령상을 수상했다. GDDR은 그래픽 처리에 특화된 D램으로, 일반 D램 대비 대역폭이 높아 한 번에 더 많은 데이터를 전송할 수 있다. GDDR7은 현존하는 GDDR 중 가장 최신 세대에 해당한다. GDDR7은 AI 시장에서 핵심 메모리로 빠르게 자리매김하고 있다. 특히 AI 경쟁의 초점이 기존 학습에서 추론으로 넘어가면서 GDDR7의 가치는 더욱 부각되는 추세다. AI 학습이 더 높은 메모리 용량 및 대역폭을 요구하는 데 비해, AI 추론은 효율성을 더 중시하기 때문이다. GDDR7은 고대역폭메모리(HBM) 대비 비용 효율, 전력효율, 경량성에서 강점을 가지고 있다. AI 시장의 주요 플레이어들 역시 GDDR7을 주목하고 있다. 엔비디아는 지난 9월 공개한 추론 전용 GPU인 루빈 CPX(Rubin CPX)'에 128GB GDDR7을 탑재할 것이라고 밝혀, GDDR7의 시장 입지를 한층 강화할 전망이다. 이에 삼성전자도 엔비디아와의 협력을 통해 시장 주도권을 공고히 할 것으로 관측된다. 김동원 KB증권 연구원은 "최근 엔비디아가 삼성전자에 GDDR7 공급 확대를 대폭 요청해 평택 라인의 생산능력이 두 배 이상 확대될 것"이라며 "가격 프리미엄을 받고 있는 GDDR7이 향후 D램 사업의 수익성 개선을 견인할 것으로 전망한다"고 밝혔다. 한편 삼성전자는 올해 초부터 12나노급 GDDR7 D램 양산에 나섰다. 그래픽 D램 중 최초로 24Gb를 구현했으며, 최대 42.5Gbps 속도 및 총 1.92TB/s 대역폭을 지원한다. 또한 고열전도성 신소재 적용으로 패키지 열저항 특성을 이전 GDDR7 제품 대비 11% 개선하는 데 성공했다.

2025.12.03 11:07장경윤

AMAT, 최첨단 하이브리드 본딩 시스템 앞세워 로직·HBM 시장 공략

어플라이드머티어리얼즈(AMAT)가 최첨단 하이브리드 본딩 시스템으로 AI 반도체 시장 공략에 나섰다. 해당 시스템은 본딩 공정에 필요한 주요 공정을 단일로 통합해, 생산성 및 효율을 10배 이상 끌어 올린 것이 특징이다. 향후에는 HBM(고대역폭메모리) 분야에도 적용하는 것을 목표로 하고 있다. 어플라이드머티어리얼즈코리아는 26일 서울 인터컨티넨탈 파르나스에서 기자간담회를 열고 회사의 최첨단 하이브리드 본딩 시스템에 대해 이같이 밝혔다. 통합 시스템으로 본딩 시간 대폭 감소…로직 넘어 HBM 적용 목표 어플라이드는 이번 간담회를 통해 최첨단 전공정 및 후공정, 계측용 신규 장비를 발표했다. 3종 장비 모두 AI 산업을 위한 고성능 로직·메모리 반도체 제조 공정을 타겟으로 한다. 가장 먼저 소개된 '키넥스(Kinex)' 본딩 시스템은 업계 최초의 D2W(다이-투-웨이퍼) 하이브리드 본더 통합 시스템이다. 하이브리드 본딩은 기존 칩 연결에 필요한 미세한 범프(Bump)를 제거하고, 칩과 칩을 직접 접합해 패키징 성능 및 밀도를 높이는 기술이다. 현재 최첨단 파운드리 공정에 적용되고 있으며, 향후에는 HBM(고대역폭메모리)용 본딩 공정에서도 상용화될 것으로 기대된다. 어플라이드는 주요 반도체 후공정 장비기업 베시(Besi)와 협력해, 하이브리드 본딩 공정의 핵심 단계를 하나의 시스템으로 통합했다. 투입된 웨이퍼의 세정 및 표면 활성화, 칩 정렬, 어닐링 등을 거쳐 실제 하이브리드 본딩이 진행되는 전 과정을 수행한다. 허영 어플라이드 하이브리드 본딩 기술 디렉터는 "키넥스는 본딩에 필요한 6가지 공정을 단일 시스템에 통합해, 각 장비를 개별적으로 두는 구조 대비 생산성 및 효율성을 높일 수 있다"며 "키넥스 시스템을 통한 본딩 공정의 소요 시간은 1시간으로, 10시간 이상이 필요했던 기존 구조 대비 시간을 대폭 줄일 수 있다"고 설명했다. 현재 키넥스 시스템은 다수의 고객사에 도입되고 있다. 로직 분야에서는 양산 적용됐으며, 메모리 분야에서는 개발 단에서 장비가 운용되고 있는 것으로 관측된다. 최첨단 증착, 전자빔 계측 시스템도 개발 또한 어플라이드는 GAA(게이트-올-어라운드) 공정을 위한 '센투라 엑스테라(Centura Xtera)' 증착 시스템을 공개했다. GAA는 반도체를 구성하는 트랜지스터에서 전류가 흐르는 채널 4개면을 모두 감싸는 기술이다. 기존 3개면을 감싸는 핀펫(FinFET) 구조 대비 데이터 처리 속도, 전력 효율성 등을 높일 수 있다. 삼성전자 등 주요 파운드리 기업이 3나노미터(nm) 이하 공정부터 적용하기 시작했다. 해당 증착 시스템은 통합 선세정(Pre-clean) 및 식각 공정을 포함한 저용량 챔버 구조를 갖췄다. 덕분에 기존 증착 대비 가스 사용량을 50% 줄이면서도 공백(Void) 없이 GAA 트랜지스터를 형성한다. 함께 발표된 '프로비전(PROVision) 10'은 GAA 공정을 적용한 첨단 로직 칩은 물론, 차세대 D램과 3D 낸드 등에 적용할 수 있는 전자빔 계측 시스템이다. 업계 최초로 냉전계 방출(CFE) 기술을 적용해 기존 열전계 방출(TFE) 대비 나노미터(nm) 단의 이미지 해상도를 최대 50% 높인다. 이미징 속도도 최대 10배 빠르다. 엑스테라 및 프로비전 시스템은 최첨단 로직 및 메모리 고객사 채택되고 있다. 박광선 어플라이드 대표는 "AI 산업의 발달로 고성능 반도체에 대한 수요가 증가하면서, 최첨단 파운드리 및 패키징 기술들이 떠오르고 있다"며 "어플라이드는 관련 분야에서 강력한 솔루션을 제공하고 있어, 내년 뿐만이 아니라 향후에도 경쟁력을 발휘할 것"이라고 말했다.

2025.11.26 13:40장경윤

[현장] 국산 AI 반도체·클라우드 결합 '시동'…국가 인프라 강화 선언

국산 인공지능(AI) 반도체와 클라우드 산업의 융합이 궤도에 올랐다. 초거대 AI 시대를 맞아 국가 인프라의 근간이 되는 클라우드가 스마트화와 지능형 자원 운영이라는 새로운 전환점을 맞이하면서 국산 기술 중심의 풀스택 생태계 구축이 본격화되고 있다. 오픈K클라우드 커뮤니티는 25일 서울 강남 과학기술회관에서 '오픈K클라우드 데브데이 2025'를 열고 국산 AI 반도체와 클라우드 융합 전략을 공유했다. 오픈K클라우드 커뮤니티에는 한국전자통신연구원(ETRI), 한국전자기술연구원(KETI), 이노그리드, 오케스트로, 경희대학교, 연세대학교, 한국클라우드산업협회(KACI), 퓨리오사AI 등 산·학·연 주요 기관이 공동 참여한다. 이번 행사는 커뮤니티의 첫 공식 기술 교류 행사로, 국산 AI 반도체를 중심으로 한 클라우드·소프트웨어(SW) 전주기 기술을 한자리에서 조망하며 국가 AI 인프라 경쟁력 제고 방안을 논의했다. ETRI 최현화 박사는 "이제 AI 서비스의 경쟁력은 모델을 누가 더 잘 만드느냐보다 누가 더 나은 인프라로 지속적으로 운영하느냐가 핵심"이라고 강조하며 클라우드의 대전환기를 진단했다. 최 박사는 최근 글로벌 거대언어모델(LLM) 발전의 특징을 멀티모달 확장, 컨텍스트 윈도우의 급격한 증가, 툴 연동 기반 정확도 향상으로 정리했다. 특히 메타가 공개한 오픈소스 LLM '라마'의 컨텍스트 윈도우가 1천만 토큰 수준으로 확장된 점을 언급했다. 그는 이러한 추세 속에서 국내 클라우드 산업이 ▲AI 가속기 이질성의 심화 ▲메모리 병목 문제 ▲추론 비용의 급증 ▲에이전트 폭증에 따른 관리 복잡도 증가 등 여러 난제를 동시에 마주하고 있다고 짚었다. 가장 먼저 꼽힌 것은 AI 가속기의 이질성 문제다. 엔비디아 그래픽처리장치(GPU) 중심 생태계가 유지되고 있지만 국내외에서 신경망처리장치(NPU)·AI칩·메모리 내 연산(PIM) 등 다양한 가속기와 인터커넥트 기술이 빠르게 등장하면서 단일 아키텍처에 의존하는 방식은 지속 가능하지 않다는 지적이다. 이어 LLM 추론의 핵심 병목으로 작용하는 '메모리 월'도 문제로 제기됐다. GPU 성능이 가파르게 증가하는 동안 메모리 기술 향상 속도는 더디기 때문이다. 최 박사는 SK하이닉스의 'AiMX', CXL 기반 차세대 메모리 사례를 언급하며 "AI 추론은 본질적으로 메모리 중심 작업이기에 차세대 메모리가 성능의 핵심을 좌우하게 될 것"이라고 말했다. LLM 스케일링 문제 역시 중요한 도전 과제로 다뤄졌다. 사용자 요구는 계속 높아지지만 단일 모델의 크기 확장에는 한계가 있어 여러 전문가 모델을 조합하는 '전문가 혼합(MoE)' 방식이 중요한 돌파구가 될 것이라고 강조했다. AI 모델마다 강점이 다른 만큼 다중 LLM 기반 지능형 추론은 필연적인 흐름이라는 설명이다. 추론 비용 문제도 빠지지 않았다. 최 박사는 "엔비디아 B200 급 GPU의 전력 소비가 1킬로와트(kW)에 이르는데, 이러한 DGX 서버 100대를 하루 운영하면 테슬라 전기차로 지구를 일곱 바퀴 도는 전력량에 해당한다"고 설명했다. 그러면서 "전력·비용 최적화는 하드웨어(HW) 스펙뿐 아니라 스케줄링, 클러스터 재구성이 필수"라고 말했다. 또 LLM·에이전트·데이터소스가 동적으로 연결되는 시대가 되면서 모니터링 복잡성이 기하급수적으로 커지고 있다는 점도 지적했다. 기존에는 레이턴시와 처리량을 중심으로 모니터링했다면 이제는 LLM의 할루시네이션 여부, 에이전트 간 호출 관계, 로직 변경 이력까지 관측해야 안정적 운영이 가능하다는 것이다. 이 같은 문제를 해결하기 위해 ETRI는 과학기술정보통신부가 추진하는 'AI 반도체 클라우드 플랫폼 구축 및 최적화 기술 개발' 과제에 참여했다. 이를 통해 ▲이종 AI 반도체 관리 ▲클라우드 오케스트레이션 ▲자동 디바이스 감지 ▲협상 기반 스케줄링 ▲국산 NPU 특화 관측 기술을 포함한 오픈소스형 '오픈K클라우드 플랫폼'을 개발 중이다. ETRI는 5년간 진행되는 사업에서 2027년 파라미터 규모 640억 LLM, 2029년 3천200억 LLM 지원을 목표로 풀스택 AI 클라우드 생태계를 구축할 계획이다. 오픈K클라우드 커뮤니티에 참여하는 퓨리오사AI, 이노그리드, 오케스트로도 이날 국산 AI 반도체와 클라우드 융합 생태계 활성화를 위한 기술 전략을 발표했다. 퓨리오사AI 이병찬 수석은 엔비디아 의존을 극복하기 위해 전력·운영 효율성을 높인 '레니게이드' 칩과 SW 스택을 소개했다. 이노그리드 김바울 수석은 다양한 반도체가 혼재된 클라우드 구조를 성능·전력·비용 최적화로 통합한 옵저버빌리티의 전략을 공유했다. 오케스트로 박의규 소장은 자연어 요구 기반 코딩과 자동화된 테스트·배포를 지원하는 에이전트형 AI SW 개발환경(IDE) 트렌드와 국내 시장의 변화에 대해 발표했다. 최 박사는 "앞으로 오픈K클라우드 플랫폼을 통해 국산 AI 반도체가 국가 핵심 인프라에 적용될 수 있는 계기를 만들겠다"고 강조했다. 이어 "아직 확정은 아니지만 정부가 추진하는 '국가AI컴퓨팅센터' 사업에 우리 플랫폼을 탑재할 수 있는 계기를 만들 것"이라며 "국산 AI 반도체 실사용자의 요구사항을 반영해 레퍼런스를 쌓아가는 것이 목표"라고 덧붙였다.

2025.11.25 17:10한정호

삼성전자, 4분기 D램 평균판가 10% 후반 넘본다

삼성전자, SK하이닉스가 AI 산업 주도로 촉발된 D램 '슈퍼 사이클'의 수혜를 톡톡히 보고 있다. 고부가 및 레거시 D램에 대한 고객사 주문이 폭증하면서, 4분기 삼성전자의 D램 평균판매가격(ASP)이 전분기 대비 10% 후반까지, SK하이닉스는 한 자릿수 후반까지 상승할 것이라는 관측이 나온다. 21일 업계에 따르면 국내 주요 메모리 공급사의 올 4분기 D램 ASP는 당초 예상 대비 크게 증가할 전망이다. 최근 메모리 시장은 글로벌 빅테크의 공격적인 AI 인프라 확장에 따라 수요가 급증하고 있다. 특히 서버용 D램, HBM(고대역폭메모리) 등 고부가 제품의 주문이 활발했다. PC, 스마트폰 등에 탑재되는 범용 D램도 극심한 수급난에 시달리고 있다. 주요 메모리 공급사가 D램 생산능력의 대부분을 HBM에 할당하고, 신규 양산라인 구축 대신 전환투자 등에 집중한 결과다. 또한 메모리 공급사가 DDR4 등 구형(레거시) 제품의 비중을 크게 줄이면서, 해당 D램의 가격도 천정부지로 치솟고 있다. 이에 주요 IT 기업들은 더 많은 비용을 감수하고서라도 메모리 수급을 우선하는 전략을 펼치고 있다. 중국 샤오미·알리바바 등은 전분기 대비 50% 이상의 가격 상승을 받아들였으며, 레노버는 공급망 안정을 위해 내년도 메모리에 대한 장기 공급 계약을 체결했다고 밝혔다. 반도체 업계 관계자는 "4분기 가격 협상은 상당 부분 진행됐으나, 고객사 별로 계약 시점이 다르기 때문에 올 연말까지 삼성전자·SK하이닉스의 메모리 공급 계약이 지속 체결될 전망"이라며 "특히 삼성전자가 범용 D램에서 경쟁사 대비 더 공격적인 인상 전략을 펼치고 있는 것으로 안다"고 설명했다. 국내 메모리 업계의 올 4분기 D램 ASP 인상폭도 당초 예상 대비 증가할 가능성이 매우 높다. 앞서 삼성전자는 올 3분기 D램 ASP가 전분기 대비 10% 중반, SK하이닉스는 한 자릿수 중반 상승했다고 밝힌 바 있다. 올 4분기 삼성전자는 10% 후반대의 ASP 상승이 예상된다. 3분기 컨퍼런스콜이 진행된 지난달에는 증가폭이 10% 초중반 수준으로 추산됐으나, 최근 진행된 계약 등을 반영하면 인상폭 상향 조정이 불가피하다는 게 업계의 중론이다. SK하이닉스는 한 자릿수 후반대 증가가 예상된다. 범용 D램의 매출 비중이 상대적으로 적어 삼성전자 대비로는 상승세가 완만할 수밖에 없는 구조다. 업계 또 다른 관계자는 "아직 계약이 마무리되지 않았지만, 지금 분위기에선 양사의 D램 사업 수익성을 더 높게 조정해야 할 것"이라며 "내년 1분기에도 가격이 지속 인상될 것이기 때문에 양사가 얼마나 속도조절을 시행할 지가 관건"이라고 말했다.

2025.11.21 11:26장경윤

"삼성전자·SK하이닉스·샌디스크, HBF 준비…2030년 뜰 것"

"올해 말부터 본격 상용화 되기 시작한 6세대 12단 고대역폭메모리(HBM) 4 이후 오는 2030년께면 고대역폭낸드플래시메모리(HBF)가 전면에 대두될 것입니다. 우리나라를 포함해 샌디스크 등 글로벌 메모리 3사가 이미 HBF 준비에 착수했습니다." 'HBM 아버지' 김정호 KAIST 전기및전자공학부 교수가 최근 'HBF 시대'를 예측하고 나서 주목받고 있다. 김 교수는 HBM의 기본 개념과 구조를 창안한 인공지능(AI) 반도체 분야 세계적인 석학이다. 김 교수는 HBM의 기본 개념과 구조를 창안했다. 2년마다 HBM의 집적도가 2배가 될 것이라는 예측으로 화제를 모았다. 2000년 초부터 HBM의 도래를 예견하고, SK하이닉스와 협업연구를 시작했다. 이는 지난 2013년 SK하이닉스가 세계 최초로 HBM을 상용화하는데 주도적, 결정적인 역할을 했다. 지난 아시아태평양경제협력체(APEC) 회의 때 한국을 찾은 젠슨 황 엔비디아 CEO의 '깐부치킨' 협력과 관련해 김 교수는 이렇게 해석했다. "GPU 26만 장을 한국에 공급하는 약속도 삼성전자와 SK하이닉스로부터 6세대 HBM인 HBM4를 안정적으로 공급받기 위한 공급망 확보 전략의 일환으로 보여집니다. 선제적인 투자가 이루어지면, 우리나라는 HBM에 이어 HBF에서도 차세대 반도체 메모리 시장의 주도권을 잡을 수 있을 것 같습니다." 김 교수는 평소 AI시대 핵심 반도체는 GPU보다 HBM이 더 중요해질 것이라는 주장을 펴왔다. 삼성전자와 SK하이닉스 등 우리나라 반도체 산업의 성장을 견인해온 김 교수를 만나 최근 만나 HBM의 미래와 한국의 나아갈 방향 등에 대해 들어봤다. "10년 내 AI학습량 현재보다 1천배 가량 늘어… HBM 수요도 비례해 증가" - HBM과 AI의 시장 판도 변화에 대해 예측해 달라. "AI는 알파고 같은 판별형 AI를 지나 생성형 AI로 진화하며, 그림도 그리고, 영화도 만들어 낸다. 이 다음 단계가 에이전틱 AI고, 그 다음은 피지컬 AI다. 그런데 여기서 재미있는 현상 하나를 봐야 한다. 기능이 많아질수록 AI가 학습해야 하는 데이터량이 어마어마하게 증가한다. 아마도 10년 내 AI 학습 데이터량이 지금보다 1천 배 가량은 늘 것으로 본다. 이는 HBM 수요도 같이 1천 배 증가한다는 의미다. 얼마전 젠슨 황 CEO가 우리나라에 공급을 약속한 GPU 26만 장이면, HBM 208만 개가 여기에 들어간다. 미국은 현재 GPU 1천 만대를 보고 투자 중이다. 냉각 및 전력시설, 부지 등등을 합쳐 투입될 예산을 대략 1천조 원 정도로 예상한다. 그런데 그것이 2천만~3천만 대를 넘어 1억 대 까지도 갈 것 같다. 1억 대면, 1경 원 정도의 예산이 들어간다는 의미다. "쩐의 전쟁"이 라고 불리는 이유다." - 젠슨 황 CEO가 SK하이닉스는 물론, 삼성전자 측과도 만나는 이유를 어떻게 해석하나. "GPU 1장에 HBM이 8개 필요하다. HBM이 GPU가격을 좌우하는 기본 요소가 됐다. SK 하이닉스 한 곳만으로는 HBM 수요를 다 채울 수 없다. 삼성전자로부터 공급을 받아도 앞으로 10배, 100배, 1천배 가는 수요를 감당할 수 없다. GPU 경쟁사와의 마케팅적 관계도 있을 것이다. 이런 요인들이 젠슨 황 CEO가 국내 여러 벤더와 접촉하는 이유로 볼 수 있다." - HBF 시대가 올 것이라는 근거는 무엇인가. "AI서비스와 모델을 공부하다보니, 데이터 용량이 커질 수 밖에 없겠다는 생각을 자연스레 하게 됐다. 현재 HBM을 10층이나 16층까지 쌓고 있는데, 물리적 한계도 있고 더 이상 메모리를 늘리기도 어렵다. D램으로는 안된다는 말이다. 이에 대한 대안이 D램 용량의 10배가 더 큰 낸드 플래시 메모리다. 그래서 낸드 플래시 메모리를 쌓자는 것이다. 학계에서는 우리 연구실(테라랩)이 주로 연구한다. 업계에서는 샌디스크와 SK하이닉스, 삼성전자가 HBF 개발에 뛰어들었다. 생태계 축으로 보면, SK하이닉스-샌디스크 얼라이언스 축이 있고, 삼성전자 독자 생태계가 존재한다. 이 분야 숙제는 낸드 플래시 메모리 용량을 1천 배까지 어떻게 늘리느냐다." - HBM과 HBF를 정확히, 어떻게 활용하자는 것인가. 아이디어는 어떻게 얻게 됐나. "내가 제시한 아키텍처는 GPU 옆에 HBM과 HBF가 함께 있는 구조다. 인코딩이라는 전반기 작업은 HBM이 하고, 디코딩이라는 후반기 작업은 HBF가 수행하는 식이다. 우리 연구실은 HBM을 연구하는데, AI를 알아야 HBM 설계가 가능하다. 알파고 때부터 우리 연구실 학생 절반은 AI를 연구했다. 이들은 HBM 설계를 AI로 한다. 그러다보니, 자연스레 메모리가 모자랄 것이라는 생각에 이르렀다. 샌디스크나 SK하이닉스, 삼성전자 등은 AI 고객들이 메모리 확장 요구를 했을 것으로 본다." "2030년 중반 넘으면 GPU보다 메모리 매출 더 높을 것" - HBF의 미래에 대해 예측해달라. 로드맵도 있나. "지난 6월 HBM 로드맵을 공개했는데, 이 내용은 링크드인이나 전 세계 반도체 시장에 널리 퍼져 있다. HBF 로드맵은 내년 초 발표하려 한다. 요즘 HBM 생산이 증가하면서 D램과 낸드 플래시 메모리 물량이 모자란다. 그래서 AI 시대 컴퓨팅 중심은 메모리라고 본다. '메모리 중심 컴퓨팅' 시대로 가고 있다. 오는 2030년대 중반이 넘어가면 GPU 매출액보다 메모리 매출액이 더 높을 것이다. 샌디스크나 삼성전자, SK하이닉스 등이 HDF와 관련 1차적으로 2027년 시장 진입을 목표로 하는 것으로 안다. 2028년이면 제품을 볼 수 있을 것이다. 또한 HBM과 HBF가 결합한 제품은 2030년 초반께 출시될 것으로 예측한다." - 삼성과 다양한 협력을 해오셨는데. KAIST-삼성 산학협력센터장도 맡고 계신 것으로 안다. "삼성전자와는 지난 2010년부터 15년 째 산학협력센터를 통해 공동 연구를 수행 중이다. 80여 명의 교수 연구진이 참여 중이다. 삼성전자 반도체에 필요한 기초연구나 인력양성 등 다양한 일을 한다. HBF 관련해서도 삼성전자와 SK하이닉스 모두 협력하고 있다." "국회 설득 너무 어려워…매년 100억원이면 차세대 메모리 기반 확보 가능" - 정부 정책에 대해 한마디 해달라. "정부 역할은 인력양성이나 기초기술 지원이다. 학교는 펀딩이 어렵다. 그래서 정부와 국회에 전국의 대학교 3곳에 HBM/HBF 기초연구센터를 세우자고 제안했다. 1년에 100명씩 석, 박사 학생을 뽑아 교육하면 10년 뒤 1천 명이 배출된다. 그러면 우리는 진짜 HBM/HBF 강국이 될 것이다. 사업 제안도 했는데, 국회 예산 평가에서 떨어진 것으로 안다. 이제 더 이상 국회에 이런 얘기를 안 한다. 국회의원을 상대로 HBM을 이해시키는 것이 너무 어렵다. 기업과 협력하면 되긴 하지만, 산업을 일으키기 위해서는 혼자 힘으로는 어렵다. 한국연구재단이 HBM/HBF 기초연구센터를 3개(설계, 재료장비, 공정) 만들어, 각 센터당 매년 30억 씩 100억 원 정도를 지원했으면 한다." - 강의도 하시지만, 꿈이 있는지. "몇가지 있다. 하나는 AI컴퓨터 아키텍처 혁신이다. 미국 스탠퍼드 대학인 버클리 대학 교수진이 그걸 했다. 거기서 CGPU가 나오고 핸드폰이 나왔다. AI는 '메모리 중심 컴퓨팅' 시대로 간다고 본다. 컴퓨터 구조 자체를 우리나라가 정의해보자는 것이다. HBM/HBF로 해보는 것이 꿈이다. 반도체와 컴퓨터 아키텍처, 나아가 AI알고리즘, AI 데이터센터까지 전체를 꿰뚫는 미래 비전을 제시하고, 그것을 기업과 학생들을 통해 실현하는 것이 꿈이다." - 덧붙일 말은. "최근 HBM4가 나오면서 HBM이 메모리가 아니라, 시스템 반도체가 되고 있다. 여기에 GPU 기능까지 들어가기 시작했다. 미래 HBM/HBF는 더 이상 메모리가 아니라 시스템 반도체다. 나아가 수요자 요구가 제각각이어서 이를 AI파운더리 사업, AI솔루션 사업이라고 얘기한다. 이는 고객 니즈에 맞춰야 한다는 것을 의미한다. 쉽게 얘기하면, 서로가 '깐부치킨'을 더 많이 먹어야 한다는 얘기다. 기술 마케팅을 하려면, 파운드리 업체하고 일해야하고 나아가 메모리나 패키징회사, 그 다음에 AI 회사들과 같이 일을 해야 하는 것이다. 엔비디아나 AMD, 삼성전자, SK하이닉스, 샌디스크 등이 오픈AI 같은 AI 기업과 맞물려 있다. 그래서 이제는 기업의 기술 개발 방식, 마케팅 방식, 문화 방식이 전부 시스템 반도체 쪽으로 넘어와야 한다. 결국 HBM과 HBF에 엄청난 투자가 이루어져야 한다."

2025.11.12 11:03박희범

AI 추론 수요에 메모리 슈퍼사이클 기대감↑

"당사는 삼성전자와 SK하이닉스의 범용 D램 가격이 4분기 각각 22%, 20% 상승할 것으로 예상하고 있습니다." 미국 증권가 골드만삭스가 최근 밝힌 국내 메모리 양사의 4분기 실적 전망이다. 골드만삭스 내부 추정치를 뛰어넘는다는 예상이다. 지난 2018년을 넘어설 메모리 슈퍼사이클이 도래할 것이란 기대감이 커지는 이유다. 11일 반도체 및 증권가에 따르면 올 4분기 메모리 가격이 급등할 것으로 전망된다. 특히 고무적인 부분은 서버뿐 아니라 모바일, PC 등 모든 분야에서 메모리 가격 상승이 기대된다는 점이다. 메모리는 한동안 AI 인프라 확장으로 서버향 제품 판매량은 늘어난 반면, 모바일과 PC에 대한 수요는 감소했었다. 골드만삭스는 보고서를 통해 “서버 고객들이 2027년 물량까지 선계약을 추진하고 있으며, 이로 인해 PC·모바일용 메모리 공급이 제한되고 있다”며 “삼성전자와 SK하이닉스의 가격 협상력이 강화되고 있다”고 전했다. 트렌드포스도 이달 초 4분기 PC용 D램 가격 전망을 전 분기 대비 25~30% 상승할 것으로 내다봤다. 서버용 D램에 생산이 집중되면서 PC와 모바일용 공급이 빠듯해졌고, 전 제품군 가격이 상승세로 확산된다는 분석이다. 업계에서는 이번 메모리 호황의 핵심 원인을 AI 추론 수요 폭발로 보고 있다. AI 추론은 학습이 끝난 인공지능 모델이 실제 데이터를 입력받아 추론을 수행하는 단계로, 막대한 양의 메모리 대역폭과 실시간 데이터 접근 속도가 필요하다. 특히 생성형 AI 서비스 확산으로 클라우드 데이터센터의 추론 서버 수요가 폭발적으로 증가하면서, GPU뿐 아니라 메모리 전반의 사용량이 급격히 늘고 있다. 이로 인해 AI 인프라 확충이 곧 메모리 수요 급증으로 이어지는 구조가 형성된 것이다. 낸드플래시 컨트롤러를 개발하는 대만 파이슨 푸아 케인센 CEO는 최근 인터뷰에서 “이런 사이클은 평생 한 번 볼까 말까 하다”며 “AI 인퍼런스 수요가 메모리 시장을 근본적으로 바꾸고 있다”고 말했다. 국내 업계도 시장 상황을 유사하게 보고 있다. SK하이닉스는 최근 실적 발표에서 “AI 수요가 예상을 뛰어넘고 있으며, 슈퍼사이클이 장기화될 것”이라고 전망했다. 한편 시장조사업체 욜(Yole)은 올해 메모리 시장 규모가 1천700억달러(248조9천140억원)로 사상 최대치, 내년에는 2천억달러(292조8천800억원)에 이를 것으로 전망했다. 재고 역시 3.3주 수준으로 2018년 슈퍼사이클 저점과 유사하다.

2025.11.11 16:18전화평

AI 데이터센터 CPU-메모리-GPU "光연결 시대 3년내 가능"

국내 연구진이 인공지능(AI) 데이터센터에서 메모리와 가속기 등 핵심 자원을 '빛'으로 자유롭게 연결·분리할 수 있는 기술을 세계 처음 개발하고, 검증하는데 성공했다. 상용화는 3년 내 가능할 것으로 예상했다. 한국전자통신연구원(ETRI)은 광스위치 기반 '데이터센터 자원연결(Optical Disaggregation, OD)'기술을 개발했다고 11일 밝혔다. 이준기 광네트워크연구실장은 "POC(개념검증)를 거쳐 상용화 가능성을 타진하는 검증에 나설 계획"이라며 "특허를 활용한 기술이전이나 허여 등으로 3년 내 상용화가 이루어질 것으로 본다"고 전망했다. 기존 데이터센터는 하나의 서버 안에 CPU, 메모리, 스토리지, 가속기(GPU) 등이 고정적으로 묶여 있는 서버 중심 구조다. 이로 인해 각 서버가 보유한 한정된 자원만 활용 가능하다. 다른 서버는 CPU만 사용하는 등 자원 활용 편차가 커 전체 효율성이 떨어진다. 대부분의 데이터센터는 또 전기 신호 기반 스위치를 사용하기 때문에 데이터 전송 과정에서 수 차례 신호 변환을 하기 때문에 데이터 전송 지연(딜레이)도 발생한다. 이 같은 문제를 연구진은 빛으로 해결했다. 서버 내부 메모리나 가속기가 부족할 경우, 광스위치를 이용해 다른 서버의 자원을 빛의 신호로 즉시 연결하는 OD기술을 개발했다. 이준기 실장은 "AI 학습이나 대규모 데이터 분석처럼 고성능 연산이 필요한 작업에서도 자원을 '필요한 순간, 필요한 만큼' 빠르고 유연하게 연결·분리할 수 있게 됐다"며 "원격 메모리 접속 표준(CXL, Compute Express Link)을 광스위치로 연결한 세계 최초 사례"라고 말했다. 연구진은 또 ETRI가 자체 개발한 CPU 어댑터, 메모리 블레이드, 가속기 블레이드, OD 매니저를 결합한 검증시스템을 구축해 실증에도 성공했다. 실증 결과 프로그램이 추가 자원을 요청하면 광 경로를 자동으로 설정해 필요한 메모리와 가속기를 실시간으로 할당하고, 서비스가 안정적으로 수행되는 것을 확인했다. ETRI는 이번 기술에 적용된 CXL 관련 원천특허를 확보하고, 국내외 특허 47건을 출원했다. 이준기 광네트워크연구실장은 "메모리와 가속기를 효율적으로 공유․활용해 데이터센터 자원 부족 문제를 해소하고, 지속 가능한 미래형 데이터센터로의 전환을 앞당길 중요한 계기가 될 것"으로 전망했다. 연구는 과학기술정보통신부 '광 클라우드 네트워킹 핵심기술 개발'사업의 일환으로 수행됐다.

2025.11.11 13:53박희범

삼성·SK 메모리팹 가동률 상승...소재·부품 업계도 증산 본격화

최근 AI 산업 주도로 메모리 '슈퍼사이클'이 도래하면서 삼성전자·SK하이닉스 등이 웨이퍼 투입량을 적극 늘리고 있다. 이에 관련 소재·부품 공급망도 올 3분기부터 매출이 확대되는 효과를 거두고 있다. 10일 업계에 따르면 국내 반도체 소재·부품 기업들은 주요 고객사의 메모리 팹 가동률 상승에 따라 올 하반기 고부가 제품 공급을 늘리고 있다. 메모리 반도체 시장은 글로벌 빅테크의 공격적인 AI 인프라 투자 확대에 따라 서버용 제품을 중심으로 수요가 빠르게 증가하는 추세다. 이에 삼성전자, SK하이닉스 등도 올 3분기 D램 출하량을 확대했다. 해당 분기 삼성전자는 10% 중반의 빗그로스(메모리 용량 증가율)를, SK하이닉스는 한 자릿수 후반의 빗그로스를 기록했다. 삼성전자의 경우 올 3분기 8세대 낸드 팹 가동률도 전분기 대비 10% 이상 끌어올린 것으로 파악됐다. 이들 기업에 메모리 반도체용 소재·부품을 공급하는 협력사들도 올 3분기부터 제품 공급량을 늘리고 있다. 반도체 업계 관계자는 "메모리 공급사들이 고부가 D램 및 낸드용 웨이퍼 투입량을 늘리면서 관련 소재·부품 주문도 8~9월경부터 증가했다"며 "이미 가동률이 상당히 올라왔고, 전환 투자가 진행되는 부분이 있어 급격한 변화는 없겠으나 연말까지 점진적으로 공급량이 증가할 것"이라고 설명했다. 실제로 3분기 실적을 발표한 소재·부품 기업들은 대체적으로 매출 증가세를 기록하고 있다. 반도체 테스트 소켓 전문기업 아이에스시는 올 3분기 매출 645억원, 영업이익 174억원을 기록했다. 전년동기 대비 각각 24.9%, 27.0% 증가했다. 반도체 특수가스를 공급하는 원익머트리얼즈는 매출액 828억원, 영업이익 142억원을 기록했다. 전년동기 대비 매출은 4.4%, 영업이익은 17.7% 증가했다. 반도체 후공정용 세라믹 부품 전문기업 샘씨엔에스는 3분기 매출 208억원, 영업이익 54억원을 기록했다. 전년동기 대비 각각 32.3%, 75.7% 증가했다. 또 다른 관계자는 "AI 인프라 투자 확대로 소재·부품 업계도 고부가 제품의 비중을 확대할 기회가 다가왔다"며 "메모리 업황이 매우 긍정적인 만큼 내년 상반기에도 긍정적인 흐름이 지속될 것으로 기대한다"고 말했다.

2025.11.10 10:32장경윤

ISC, 3분기 영업익 174억원…전년比 26.1% 증가

반도체 테스트 플랫폼 기업 아이에스시(ISC)는 3분기 매출 645억원, 영업이익 174억원을 기록하며 창사 이래 최대 분기 실적을 달성했다고 5일 밝혔다. 글로벌 반도체 시장의 불확실성이 이어지는 가운데, AI 반도체 양산 테스트 소켓 수주 증가가 실적 성장을 견인했다. 아이에스시는 기존 테스트 소켓 중심 사업을 넘어, 장비·소켓을 아우르는 수직 통합형 테스트 플랫폼 기업으로의 전환을 추진하고 있다. 장비-소켓 간 통합 솔루션을 통해 고객 대응력을 강화하고, End-to-End 테스트 플랫폼 전략을 바탕으로 업계 내 리더십을 공고히 하고 있다. 이번 실적은 주력 사업인 장비 및 소켓 동시 출하가 본격화되며 모든 사업 영역에서 고른 성장을 보인 결과다. 소켓 부문 영업이익률은 33%, 장비·소재 부문 영업이익률은 15%으로 전분기대비 크게 증가했다. AI 반도체 테스트 소켓 수요가 증가하면서 매출과 영업이익 모두 전분기대비 유의미한 성장을 거뒀다. 또한 회사는 신사업인 장비소재사업부문에서 하이스피드 번인 테스터 및 모듈 테스터 출하와 자율주행 및 차량용, 휴머노이드 칩 테스트 솔루션, HBM용 D램세정케미컬 등 글로벌 고객사 공급망 확장 역시 실적 상승의 주요 동력이 됐다고 분석했다. 아이에스시 관계자는 “AI가속기와 하이엔드 메모리 등 고부가 테스트 시장 중심의 수익 구조가 본격화되면서 매출과 영업이익 모두 안정적인 성장 궤도에 올라섰다”며 “4분기에도 지속적인 성장을 통해 올해 최대 실적 달성을 목표로 글로벌 시장에서의 성장세를 이어가겠다”고 덧붙였다.

2025.11.05 10:13장경윤

SK하이닉스 "이제 메모리는 조합의 시대…커스텀 HBM·HBF에 기회"

"인공지능(AI) 시대에 메모리는 기존 천편일률적인 구조를 벗어나, 각 기능에 맞춘 메모리를 최적의 방식으로 조합하는 것이 중요해지고 있다. 이 과정에서 커스텀 고대역폭메모리(HBM), 컴퓨트익스프레스링크(CXL), 고대역폭플래시(HBF) 등이 기회를 맞게 될 것이다." 박경 SK하이닉스 담당은 4일 오전 서울 코엑스에서 열린 'SK AI 서밋 2025'에서 회사의 메모리 사업 전략에 대해 이같이 밝혔다. 메모리, 향후 기능별로 분업화…최적의 조합 만들어야 이날 'AI 서비스 인프라의 진화와 메모리의 역할'을 주제로 발표를 진행한 박 담당은 AI 인프라 투자 확대에 따른 메모리 시장의 높은 성장세를 강조했다. 발표된 자료에 따르면, 글로벌 AI 데이터센터 시장 규모는 올해 2천560억 달러에서 2030년 8천230억 달러로 연평균 26% 증가할 것으로 예상된다. 이에 따라 D램은 서버 및 HBM(고대역폭메모리)를 중심으로, 낸드는 eSSD(기업용 SSD)를 중심으로 수요가 크게 늘어날 전망이다. 또한 AI 경쟁의 축이 기존의 학습에서 추론으로 이동하면서, 요구되는 메모리의 양도 급격히 증가하는 추세다. 추론 과정에서 KV(키-값) 캐시가 매 요청마다 생성되고 누적되면서, 메모리 용량과 대역폭을 상당 부분 소모하기 때문이다. KV 캐시는 키-값 구조로 데이터를 저장하는 캐시 시스템이다. 이전 연산 결과를 재활용해 추론 속도를 높이는 데 활용된다. 박 담당은 "AI 추론에서는 주어진 문장에 포함된 토큰 수와 사용자의 수에 따라 KV 캐시가 급증하는 것이 변수"라며 "이 KV 캐시로 촉발되는 메모리 요구량을 어떻게 잘 대응하느냐가 추론 시대에서 가장 중요한 화두가 될 것"이라고 설명했다. 때문에 SK하이닉스는 전체 시스템 내에서 가용되는 메모리의 성능 및 용량, 구성 방식이 AI 추론의 효율을 결정짓는 요소가 될 것으로 보고 있다. 특히 기존에는 메모리가 일반화된 계측 구조를 갖췄다면, 향후에는 기능별로 분업화된 메모리를 최적화된 구조로 조합하는 것이 핵심이 될 것으로 내다봤다. '풀 스택 AI 메모리' 전략…커스텀 HBM·HBF 등 두각 대표적인 사례가 엔비디아의 칩이다. 엔비디아는 루빈(Rubin) GPU에는 HBM4를, 베라(Vera) CPU에는 LPDDR5X(저전력 D램)를, 루빈 CPX(AI 추론에서 문맥 처리에 특화된 전용 가속기)에는 GDDR7(그래픽 D램)을 채용해 하나의 시스템을 구성하고 있다. 박 담당은 "예전에는 x86 CPU에 D램과 낸드를 붙이는 천편일률적인 메모리 구조가 지배적이었으나, 이제는 기능별로 메모리를 배치해야 하는 조합의 시대로 바뀌고 있다"며 "이 상황에서 메모리 공급사는 단순히 메모리 용량을 더 많이 제공하는 것이 아닌, 고객사 칩 성능에 따라 가장 효율적인 메모리 조합을 제시할 수 있어야 한다"고 강조했다. 이에 SK하이닉스는 '풀 스택 AI 메모리 크리에이터'라는 개념으로 AI 메모리 제품군을 적극 확장하고 있다. HBM4E부터 커스텀 HBM 공급을 준비 중이며, 기존 D램을 고객사 요구에 맞춰 더 세분화된 제품으로 개발하고 있다. 낸드 역시 초고성능과 대역폭, 초고용량 등 세 가지 방향에 맞춰 맞춤형 제품을 개발 중이다. 샌디스크와 협업해 개발 중인 HBF가 대표적인 사례다. HBF는 D램을 수직으로 여러 개 적층하는 HBM(고대역폭메모리)와 유사하게, 낸드를 여러 층 적층해 메모리 대역폭을 끌어올린 차세대 메모리다.

2025.11.04 13:27장경윤

커스텀 'AI 메모리' 강자 노리는 SK하이닉스, 엔비디아·TSMC와 협력 강화

SK하이닉스가 폭발적인 AI 수요에 대응하기 위한 새로운 D램·낸드 개발에 총력을 기울이고 있다. HBM(고대역폭메모리) 분야에서도 고객사 요구에 최적화된 커스텀 HBM을 개발에 힘을 쏟겠다는 전략이다. 이를 위해 SK하이닉스는 주요 파트너사와의 협력을 한층 더 강화할 계획이다. 엔비디아와 AI 제조 혁신을 추진하고 있으며, TSMC와는 차세대 HBM 베이스 다이(Base Die) 분야에서 협업하고 있다. 샌디스크와도 HBF(고대역폭플래시) 시장 개화를 위한 국제 표준화를 추진 중이다. 곽노정 SK하이닉스 대표이사 사장은 3일 서울 코엑스에서 열린 'SK AI 서밋 2025' 기조연설에서 회사의 향후 사업 전략에 대해 이같이 밝혔다. 곽 사장은 "AI 시대에서 메모리의 중요성이 더 커지고 있는 만큼, SK하이닉스는 단순한 메모리 공급사가 아닌 '풀스택 AI 메모리 크리에이터'를 지향하고자 한다"며 "이를 위해 새로운 메모리 솔루션을 개발할 것"이라고 밝혔다. SK하이닉스가 제시한 새로운 메모리 솔루션으로는 커스텀 HBM(고대역폭메모리), AI-D(AI D램), AI-N(AI 낸드) 등이 있다. 커스텀 HBM은 기존 시스템반도체에 있던 기능 일부를 HBM 베이스 다이로 옮겨, 고객사 요구에 최적화된 데이터 처리 성능을 구현한다. AI-D의 경우, 최적화 관점에서 총소유비용 절감과 운영 효율화를 지원하는 저전력 고성능 D램인 'AI-D O(Optimization)'을 개발하고 있다. 두 번째로 초고용량 메모리 및 자유자재로 메모리 할당이 가능한 'AI-D B(Breakthrough)' 설루션을 준비 중이며, 마지막으로 응용분야 확장 관점에서 로보틱스, 모빌리티, 산업 자동화 같은 분야로 용처를 확장한 'AI-D E(Expansion)'을 준비하고 있다. AI-N은 초고성능을 강조한 'AI-N P(Performance)', HBM 용량 증가의 한계를 보완할 수 있는 방안으로 적층을 통해 대역폭을 확대한 'AI-N B(Bandwidth)', 초고용량을 구현해 가격 경쟁력을 강화한 'AI-N D(Density)'라는 세 가지 방향의 차세대 스토리지 설루션을 준비하고 있다. 또한 SK하이닉스는 차세대 메모리 개발을 가속화하고자 업계 최고 파트너들과의 기술발전 협업을 더욱 강화해 나갈 계획이다. 대표적으로 SK하이닉스는 엔비디아와 HBM 협력뿐 아니라 옴니버스(Omniverse), 디지털 트윈(Digital Twin)을 활용해 AI 제조 혁신을 추진하고 있으며, 오픈AI와 고성능 메모리 공급을 위한 장기 협력을 진행 중이다. TSMC와도 차세대 HBM 베이스 다이 등에 대해 밀접하게 협업하고 있다. 더불어 샌디스크와는 HBF(고대역폭플래시)의 국제 표준화를 위해 협력하고 있으며, 실제 데이터센터 환경에 차세대 AI 메모리와 스토리지 제품을 최적화하기 위해 네이버클라우드와 협력도 진행하고 있다. 곽 사장은 "AI 시대의 경쟁은 혼자만의 역량이 아닌 고객과 파트너들과의 협업을 통해 더 큰 시너지를 만들어내고 더 나은 제품을 만들어 나가는 업체가 결국 성공할 것"이라며 "언제나 파트너들과 함께 협력하고 도전해서 미래를 개척하도록 하겠다"고 밝혔다.

2025.11.03 12:50장경윤

"메모리, 공급 자체가 병목화"…최태원 회장, '통 큰' 투자 결의

SK그룹이 폭발적인 AI 수요 성장세에 대응하기 위해 적극적인 설비투자·기술개발을 진행한다. HBM(고대역폭메모리) 양산을 담당할 신규 'M15X' 팹에 장비 반입을 시작한 가운데, 오는 2027년에는 용인 클러스터를 오픈해 생산능력을 지속 확충할 계획이다. 최태원 SK그룹 회장은 3일 'SK AI 서밋 2025' 기조연설에서 "용인 클러스터는 완성 시 M15X 팹 24개가 동시에 들어서는 것과 같은 규모"라며 "상당히 많은 설비투자액을 요구하지만 공급부족 현상을 최대한 막아보려고 한다"고 밝혔다. AI 수요 폭발적…"메모리, 성능 아닌 공급 자체가 병목화" 이날 'AI의 지금과 다음(AI Now & Next)'을 주제로 발표를 진행한 최 회장은 "AI 데이터센터 투자 규모는 2020년 2천300억 달러에서 올해 6천억 달러로 매년 24% 증가해 왔다"며 "앞으로는 빅테크 및 신규 기업들의 투자로 인해 AI 인프라 투자가 이전보다 더 폭발적으로 성장할 확률이 존재한다"고 강조했다. AI 수요 성장세에 대한 근거는 매우 다양하다. 최 회장은 ▲AI 추론의 본격화 ▲B2B 영역의 본격적인 AI 도입 ▲에이전트 AI의 등장 ▲소버린 AI 경쟁 등이다. 그러나 컴퓨팅 파워 공급은 AI 수요의 성장세를 따라가지 못하고 있다. 특히 AI 구현에 필수적인 GPU 등 시스템반도체, HBM(고대역폭메모리)와 같은 서버용 메모리도 병목현상을 겪고 있다. 최 회장은 "예전에는 GPU 하나에 HBM 하나를 연결했으나, 지금은 HBM 연결이 12개 이상까지 늘어나는 등 메모리 칩의 공급량을 전례 없이 빠른 속도로 소진시키고 있다"며 "이 여파가 기존 범용 메모리에도 영향을 주면서, 이제는 성능이 아닌 공급 자체가 병목화되고 있다"고 설명했다. 그는 이어 "요즘 너무 많은 기업으로부터 메모리 칩 공급 요청을 받고 있어 당사가 어떻게 소화하냐가 하나의 걱정"이라며 "공급 문제를 해결하지 못하면 고객사가 사업 자체를 못 하는 상황에 접어들 수 있어 책임감을 가지고 있다"고 덧붙였다. 설비투자에 주력…"용인 클러스터, M15X 팹 24개와 맞먹는 규모" 이에 고객사들은 안정적인 메모리 수급 전략에 총력을 기울이고 있다. 챗GPT의 창시자인 오픈AI가 지난달 초 SK하이닉스·삼성전자와 전방위적 협력을 체결하며 월 90만장 수준의 HBM 공급을 요구한 것이 대표적인 사례다. 해당 수준은 현재 기준 전 세계 HBM 생산량 총합의 2배 규모에 해당한다. 최 회장은 "샘 올트먼 오픈AI CEO도 미래 AI 주도권을 확보하려면 HBM 병목현상이 가장 핵심 요소임을 잘 알고 있다"며 "이 문제를 해결하려면 설비투자(CAPEX)와 기술 관점에서 접근해야 한다"고 설명했다. 설비투자의 경우, SK하이닉스는 최근 청주에 HBM 양산을 주력으로 담당할 'M15X' 팹의 설비반입을 시작했다. 이 공장은 내년부터 본격 가동될 예정이다. 또한 오는 2027년에는 용인 클러스터 팹을 오픈할 계획이다. 용인 클러스터는 총 4개 팹으로 구성되며, 각 팹이 6개의 M15X 팹을 합친 것과 같은 대규모로 조성된다. 최 회장은 "용인 클러스터가 다 완성되면 24개의 청주 M15X 팹이 동시에 들어가는 것과 같은 생산능력을 확보하게 된다"며 "계속 장비를 도입해 수요에 대비할 수 있도록 하고 있고, 상당히 많은 투자를 요하지만 최소한 공급 부족 현상을 막을 수 있도록 하겠다"고 말했다. 기술 측면에서는 초고용량 메모리 칩을 개발하거나, 상대적으로 저렴하면서도 데이터 저장력이 뛰어난 낸드의 개념을 도입하는 방식 등을 추진하고 있다. 최 회장은 "젠슨 황 엔비디아 CEO조차도 이제는 저에게 더 이상 개발 속도에 대해 이야기하지 않는다"며 "SK하이닉스의 기술력이 이미 업계에서 어느 정도 증명이 됐다고 생각한다"고 밝혔다.

2025.11.03 12:49장경윤

삼성전자, 엔비디아와 HBM 동맹 강화…세계 최대 반도체 AI 팩토리로 제조 혁신 가속

삼성전자가 엔비디아와 손잡고 차세대 반도체 제조 혁신의 핵심으로 떠오른 '반도체 AI 팩토리' 구축에 적극 나선다. 특히 HBM4 등 초고성능 메모리 공급을 확대하며 AI 생태계 전반에서 협력 강화를 예고했다. 엔비디아와 전략 협력… AI 팩토리로 제조 혁신 가속 삼성전자는 31일 엔비디아와의 전략적 협력을 통해 AI 기술을 기반으로 한 '반도체 AI 팩토리' 구축 계획을 발표했다. 이 공장은 반도체 설계·공정·운영·장비·품질관리 등 모든 제조 단계에 AI를 적용, 데이터를 실시간으로 분석·예측·제어하는 지능형 생산 체계를 구현한다. 삼성전자는 향후 수년간 5만 개 이상의 엔비디아 GPU를 도입해 AI 팩토리 인프라를 확충하고, 엔비디아의 옴니버스기반 시뮬레이션 환경을 활용해 디지털 트윈 공정 혁신을 추진할 계획이다. 이를 통해 차세대 반도체 개발 및 양산 주기를 단축하고 제조 효율성과 품질 경쟁력을 강화하겠다는 전략이다. HBM4로 AI 시대 메모리 경쟁력 확대 삼성전자는 AI 팩토리 구축과 함께 엔비디아에 ▲HBM3E ▲HBM4 ▲GDDR7 ▲SOCAMM2 등 차세대 메모리 제품군과 파운드리 서비스를 공급할 예정이다. 특히 HBM4의 경우, 10나노급 6세대(1c) D램 기반에 4nm(나노미터, 10억분의 1m) 로직 공정을 적용해 업계 표준(8Gbps)을 뛰어넘는 11Gbps 이상의 성능을 구현했다. 삼성전자는 “HBM4는 초고대역폭과 저전력 특성을 바탕으로 AI 학습 및 추론 속도를 획기적으로 향상시켜 엔비디아 AI 플랫폼의 성능을 높일 것”이라고 밝혔다. 현재 삼성전자는 엔비디아, AMD 등 글로벌 고객사에 HBM3E를 공급 중이며, HBM4 샘플 출하도 마무리하고 양산 준비에 들어갔다. 25년 협력의 결실… AI 반도체 동맹으로 진화 삼성전자와 엔비디아의 협력은 1990년대 말 그래픽 D램 공급으로 시작돼 25년 이상 이어져 왔다. 이번 AI 팩토리 프로젝트는 양사의 기술 협력이 'AI 반도체 동맹'으로 진화한 상징적 사례로 평가된다. 삼성전자는 이미 일부 공정에서 엔비디아의 쿠리소(cuLitho), 쿠다-X(CUDA-X) 기술을 도입해 미세공정 회로 왜곡을 실시간으로 예측·보정하는 시스템을 구축했다. 이를 통해 시뮬레이션 속도를 20배 높이고, 설계 정확도와 개발 속도를 동시에 향상시킬 계획이다. AI 생태계 전반으로 확장… 휴머노이드·AI-RAN 협력도 삼성전자는 반도체 제조를 넘어 AI 모델, 휴머노이드 로봇, AI-RAN(지능형 기지국) 등 다양한 분야로 협력을 확장하고 있다. 자체 AI 모델은 엔비디아 GPU 기반 메가트론 프레임워크로 구축돼 실시간 번역·다국어 대화·요약 등에서 높은 성능을 보이고 있다. 또한, 엔비디아의 젯슨 토르(Jetson Thor) 플랫폼을 활용한 로봇 제어 기술, RTX PRO 6000 블랙웰 서버 에디션기반 로보틱스 고도화 등에서도 협력을 이어가고 있다.

2025.10.31 15:03전화평

"AI가 살렸다" 삼성전자, 반도체·모바일서 동반 성장 견인

삼성전자가 AI(인공지능) 수요 급증 효과를 톡톡히 누리며 3분기 실적 반등에 성공했다. 메모리·파운드리 등 반도체 부문이 일제히 회복세를 보였고, 모바일 사업도 플래그십 판매 호조로 견조한 실적을 유지했다. 삼성전자는 30일 올해 3분기 확정 및 세부 실적을 공개했다. 영업이익은 12조2천억원으로 전년 동기 대비 32.48% 증가했다. 6분기 만에 두 자릿수 영업이익을 회복했다. 매출은 전년과 비교해 8.8% 상승한 86조1천억원을 기록했다. 분기 기준 최대 매출 실적이다. 반도체 “AI 수요 폭발”…HBM·2나노가 실적 견인 메모리 사업은 AI 데이터센터 확산에 따른 HBM3E·DDR5·서버 SSD 판매 확대 덕분에 분기 기준 역대 최대 매출을 올렸다. 특히 서버향 수요가 공급량을 크게 웃도는 상황에서 가격 상승이 이어지며 이익이 급증했다. 파운드리(반도체 위탁생산)는 2nm(나노미터, 10억분의 1m) 공정 중심의 선단 공정 확대와 가동률 개선, 원가 절감 효과로 적자 폭이 크게 축소됐다. 삼성전자는 “3분기 선단 공정 수주가 역대 최대를 기록했다”며 “4분기부터 2나노 1세대 양산이 본격화될 것”이라고 밝혔다. 또한 미국 텍사스 테일러 신규 팹을 2026년부터 본격 가동해 북미 AI 고객 수요에 대응할 계획이다. MX·가전, 프리미엄 제품으로 수익성 유지…스마트폰 6천100만대 출하 모바일 사업을 담당하는 MX 부문은 폴더블폰 갤럭시 Z 폴드7과 플립7, 플래그십 S25 시리즈 판매 호조로 견조한 실적을 기록했다. 3분기 스마트폰 출하량은 6천100만대, 태블릿은 700만대였다. 스마트폰 ASP(평균판매단가)는 304달러(약 43만2천원)로 직전 분기 대비 약 13% 상승했다. 삼성전자는 4분기에도 플래그십과 에코시스템 제품 중심의 판매 확대를 통해 전년 대비 연간 매출 성장과 수익성 유지를 목표로 한다. 회사는 "메모리 등 부품 가격 상승이 예상돼 원가 부담이 가중될 것으로 전망된다"며 "플래그십 중심 판매와 전사적 프로세스 효율화를 통해 수익성을 유지하겠다"고 설명했다. 가전(VD) 부문은 QLED·OLED TV 등 프리미엄 제품 비중 확대와 마이크로 RGB 등 신제품 효과로 매출 성장세를 이어갔다. “AI 투자 지속, 2026년 탄력적 설비투자 확대” 삼성전자 박순철 CFO는 “3분기 실적 반등으로 시장과 주주 기대에 일부 부응했다”며 “AI 중심 산업 성장세를 기회로 삼아 실적 개선을 이어가겠다”고 밝혔다. 4분기에도 AI 반도체 수요가 강세를 유지할 것으로 보이며, 이에 따라 메모리·시스템 반도체 투자를 전략적으로 확대할 계획이다. 연간 설비투자액은 47조4천억원 규모로 집계된다. 부문별로는 DS부문(반도체)이 40조9천억원, SDC(삼성디스플레이)가 3조3천억원 수준이다. 2026년에는 AI 수요 확대에 맞춰 투자 규모를 탄력적으로 확대할 방침이다. 삼성전자는 “AI 중심 산업 구조 변화가 실적 개선의 핵심 동력”이라며 “AI 반도체·모바일·가전 등 전 사업군에서 시너지를 극대화하겠다”고 밝혔다.

2025.10.30 13:56전화평

삼성전자 "내년 HBM 고객사 수요 이미 확보…증산도 검토 중"

삼성전자가 HBM(고대역폭메모리) 사업 확대에 대한 강한 의지를 내비쳤다. 내년 HBM의 출하량을 올해 대비 대폭 확대할 계획으로, 해당 계획분에 대한 고객사 수요를 이미 확보한 상태다. 또한 고객사의 추가 수요를 고려해, HBM 증산 가능성을 내부적으로 검토하고 있는 것으로 알려졌다. 삼성전자는 30일 2025년 3분기 실적발표 컨퍼런스콜을 통해 HBM 사업 현황 및 내년 계획에 대해 밝혔다. 이날 회사는 엔비디아향 HBM3E 퀄 테스트 완료 여부와 관련해 "고객사에 대한 정보는 언급할 수 없다"면서도 "HBM 수요가 공급보다 빠른 속도로 늘어나고 있고, 당사 또한 모든 고객사를 대상으로 HBM3E 양산 판매를 확대해나가고 있다"고 답했다. 이에 삼성전자의 3분기 HBM 판매량은 전분기 대비 80% 중반 수준으로 확대됐다. 이 중 상당한 비중이 HBM3E로 전환됐다는 게 삼성전자의 설명이다. HBM4의 경우 모든 고객사에 샘플을 출하한 상태다. 특히 최근 일부 고객사는 HBM4의 데이터 처리 성능을 더 높일 것을 요구했는데, 삼성전자는 이에 대해 "HBM4 개발 단계서부터 이러한 니즈를 반영해 제품을 개발했고, 현재 고객들에게 전달된 샘플도 11Gbps 이상의 성능을 저전력으로 충분히 만족시킬 수 있다"고 강조했다. 이에 삼성전자는 내년 HBM4에 탑재되는 1c(6세대 10나노급) D램의 생산능력을 적극 확대할 계획이다. 삼성전자는 "내년 HBM 생산 계획은 올해 대비 대폭 확대 수립했으나, 해당 계획분에 대한 고객 수요를 이미 확보했다"며 "추가적인 수요가 접수되고 있어 HBM 증산 가능성에 대해 내부 검토 중"이라고 밝혔다.

2025.10.30 11:15장경윤

SK하이닉스, 3개 분기 연속 D램 매출액 1위…HBM 효과

SK하이닉스가 3개 분기 연속 전체 D램 시장에서 매출액 1위를 차지한 것으로 나타났다. 시장조사업체 카운터포인트리서치에 따르면 2025년 3분기 SK하이닉스의 D램 매출액은 137억 달러(한화 약 19조6천억원)로 3개 분기 연속 1위를 기록했다. SK하이닉스는 이번 분기 삼성전자에 메모리 시장 1위를 내줬지만, D램 시장에서는 HBM과 함께 범용 D램에서도 좋은 성적을 보이며 3분기 연속 1위를 지킬 수 있었다. 다만 삼성전자와의 격차는 1% 수준으로 축소됐다. HBM 부문에서는 58%의 시장 점유율로 독보적 1위를 달리고 있으며, HBM4 또한 어려움 없이 고객사의 요구사항에 맞춰 납품할 수 있을 것으로 예상된다. SK하이닉스는 이날 3분기 실적발표 컨퍼런스콜을 통해 "HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다"며 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획"이라고 밝힌 바 있다. 범용 D램의 경우 수요 확대로 인한 가격 상승으로 특히 더 좋은 성적을 낼 수 있었던 것으로 분석된다. 최정구 카운터포인트 책임 연구원은 “SK하이닉스는 AI 메모리 수요 급증에 따라 4분기에도 좋은 성적이 기대된다"며 "HBM4 개발에서도 고객사의 변화하는 요구사항에 잘 부응하고 있으며 수율 측면에서도 선두적 위치에 있다"고 설명했다.

2025.10.29 14:57장경윤

11.3조원 쏜 SK하이닉스, 내년도 HBM·D램·낸드 모두 '훈풍'

올 3분기 사상 최대 분기 실적을 거둔 SK하이닉스가 내년에도 성장세를 자신했다. 메모리 산업이 AI 주도로 구조적인 '슈퍼사이클'을 맞이했고, 핵심 사업인 HBM(고대역폭메모리)도 주요 고객사와 내년 공급 협의를 성공적으로 마쳤기 때문이다. 이에 SK하이닉스는 내년 설비투자 규모를 올해 대비 확대하고, HBM과 범용 D램, 낸드 모두 차세대 제품의 생산능력 비중 확대를 추진하는 등 수요 확대에 대응하기 위한 준비에 나섰다. 29일 SK하이닉스는 3분기 실적발표를 통해 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 밝혔다. 창사 이래 최대 실적…'메모리 슈퍼사이클' 이어진다 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. 또한 분기 기준 역대 최대 실적으로, 영업이익이 창사 이래 최초로 10조원을 넘어섰다. 호실적의 주요 배경에는 AI 중심의 메모리 슈퍼사이클 효과가 있다. AI 인프라 투자에 따른 데이터센터 및 일반 서버 수요가 확대되면서, D램과 낸드 모두 수요가 빠르게 증가하는 추세다. 특히 주요 메모리 공급사들이 HBM(고대역폭메모리) 양산에 생산능력을 상당 부분 할당하면서, 범용 D램의 수급이 타이트해졌다는 분석이다. SK하이닉스는 "HBM뿐 아니라 일반 D램·낸드 생산능력도 사실상 완판 상태”라며 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 밝혔다. 메모리 사업에도 근본적인 변화가 감지된다. AI가 단순히 새로운 응용처의 창출을 넘어, 기존 제품군에도 AI 기능 추가로 수요 구조 전체를 바꾸고 있다는 설명이다. SK하이닉스는 "이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습에서 추론으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 말했다. 이에 따라 SK하이닉스는 내년 서버 세트 출하량을 전년 대비 10% 후반 증가로 예상하고 있다. 전체 D램 빗그로스(출하량 증가율)은 내년 20% 이상, 낸드 빗그로스는 10% 후반으로 매우 높은 수준을 제시했다. HBM, 내후년까지 공급 부족 전망 SK하이닉스는 이번 실적발표 컨퍼런스콜을 통해 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 내년 엔비디아향 HBM 공급 계획도 순조롭게 진행될 것으로 전망된다. SK하이닉스는 "내년도 HBM 공급 계약을 최종 확정지었고, 가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"며 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"고 밝혔다. HBM4(6세대 HBM)는 올 4분기부터 출하를 시작해, 내년 본격적인 판매 확대에 나설 계획이다. HBM4는 엔비디아가 내년 출시할 차세대 AI 가속기 '루빈'에 탑재될 예정으로, 이전 세대 대비 I/O(입출력단자) 수가 2배로 확장되는 등 성능이 대폭 향상됐다. 또한 엔비디아의 요구로 최대 동작 속도도 이전 대비 빨라진 것으로 알려졌다. SK하이닉스는 "당사는 HBM 1위 기술력으로 고객사 요구 스펙에 충족하며 대응 중"이라며 "업계에서 가장 빠르게 고객 요구에 맞춘 샘플을 제공했고, 대량 공급도 시작할 준비가 돼 있다"고 강조했다. 설비투자·차세대 메모리로 미래 수요 적극 대응 SK하이닉스는 메모리 슈퍼사이클에 대응하기 위해 내년 설비투자 규모를 올해 대비 확대할 계획이다. 최근 장비 반입을 시작한 청주 신규 팹 'M15X'의 경우, 내년부터 HBM 생산량 확대에 기여할 수 있도록 투자를 준비 중이다. 또한 올해부터 건설이 본격화된 용인 1기팹, 미국 인디애나주에 계획 중인 첨단 패키징 팹 등으로 최첨단 인프라 구축에 대한 투자가 지속될 것으로 예상된다. 범용 D램과 낸드는 신규 팹 투자 대신 선단 공정으로의 전환 투자에 집중한다. 1c(6세대 10나노급) D램은 지난해 개발 완료 후 올해 양산을 시작할 예정으로, 내년 본격적인 램프업이 진행된다. SK하이닉스는 "내년 말에는 국내 범용 D램 양산의 절반 이상을 1c D램으로 계획하고 있다"며 "최고의 성능과 원가 경쟁력을 확보한 1c 기반 LPDDR(저전력 D램), GDDR(그래픽 D램) 라인업을 구축하고 적시에 공급해 수익성을 확보할 것"이라고 밝혔다. 낸드도 기존 176단 제품에서 238단, 321단 등으로 선단 공정의 비중을 꾸준히 확대하고 있다. 특히 내년에는 321단 제품에 대해 기존 TLC(트리플레벨셀)를 넘어 QLC(쿼드러플레벨셀)로 라인업을 확장할 계획이다. 내년 말에는 회사 낸드 출하량의 절반 이상을 321단에 할당하는 것이 목표다.

2025.10.29 11:41장경윤

AI 슈퍼사이클 왔다!...SK하이닉스 "D램·낸드까지 솔드아웃"

SK하이닉스가 D램과 낸드플래시 등 범용 메모리까지 사실상 '솔드아웃' 상태에 돌입했다. AI(인공지능) 확산에 따른 데이터센터와 일반 서버 수요 폭증이 기존 메모리 시장 전반으로 확산되면서, 메모리 반도체 업계가 2017~2018년식 단기 호황이 아닌 구조적 슈퍼사이클에 들어섰다는 평가다. SK하이닉스는 29일 열린 2025년 3분기 실적발표 컨퍼런스 콜에서 “HBM(고대역폭 메모리)뿐 아니라 일반 D램·낸드 캐파(CAPA, 생산능력)도 사실상 완판 상태”라고 밝혔다. 그러면서 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 덧붙였다. "AI가 수요 구조 재편"...공급 제약이 슈퍼사이클 장기화로 이어져 SK하이닉스는 올해 메모리 시장이 예상보다 빠른 회복세를 보인 이유로 AI 패러다임 전환이 기존 응용처 전반의 수요 구조를 재편한 점을 꼽았다. 회사는 “AI는 새로운 응용처를 창출하는 데 그치지 않고, 기존 제품군에도 AI 기능이 더해지며 수요 구조 전체를 바꾸고 있다”는 설명했다. 이어 “이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습(Training)에서 추론(Inference)으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 전했다. 이에 따라 “내년 서버 세트 출하량이 전년 대비 10% 후반 증가할 것으로 예상된다”며 “서버향 수요가 범용 D램 시장을 지속적으로 견인할 것”이라고 덧붙였다. SK하이닉스는 HBM 생산 확대가 오히려 전체 메모리 공급을 제한하는 구조적 요인으로 작용하고 있다고 분석했다. 회사는 “HBM 생산을 늘리기 위해 클린룸 공간을 확충하더라도 전체 생산량 증가는 제한적일 수밖에 없다”며 “이러한 구조적 제약이 D램 산업의 공급 증가를 억제해 장기 호황의 기반이 되고 있다”고 설명했다. “선주문·장기계약 확산으로 산업 패러다임도 변화” 이에 HBM을 비롯한 일부 사업은 산업 형태가 전환되는 추세다. D램, 낸드플래시 등 기존 범용 메모리는 반도체 제조사가 시장 수요를 예측해 제품을 먼저 생산하고 재고를 확보한 뒤 판매하는 방식이었다. '선제작 후판매' 방식인 셈이다. 그러나 AI 시대의 본격화로 맞춤형 메모리 시장이 열리기 시작하며 파운드리(반도체 위탁생산)와 같은 '선주문 후판매' 방식으로 형태가 전환되기 시작했다. SK하이닉스는 “고객들의 강한 수요 의지로 인해 초기 계약 시점부터 연간 단위 장기계약으로 가시성을 확보하고 있으며, 이로 인해 산업의 예측 가능성과 사업 안정성이 모두 높아지고 있다”고 했다. 또한 “HBM4E부터는 고객의 GPU·ASIC(맞춤형 반도체) 설계 초기 단계부터 공동개발하는 커스텀 HBM 구조가 본격화될 것”이라며 “특정 고객과의 전략적·장기 거래로 이어져 수익성과 안정성이 동시에 강화될 것”이라고 밝혔다.

2025.10.29 10:29전화평

HBM '수익 방어' 성공한 SK하이닉스 "내년도 공급 타이트"

SK하이닉스가 주요 고객사들과 내년 HBM(고대역폭메모리) 공급 협의를 완료한 가운데, 가격 역시 현재의 수익성을 유지 가능한 수준으로 형성했다고 밝혔다. SK하이닉스는 29일 2025년도 3분기 실적발표 컨퍼런스콜을 통해 내년 및 내후년 HBM 사업 전략을 발표했다. 그간 SK하이닉스는 엔비디아 등 주요 고객사와 내년 HBM 공급 계획에 대해 협의해 왔다. 특히 내년 본격적으로 상용화되는 HBM4(6세대 HBM)의 가격이 향후 수익 전망의 주요 변수였다. SK하이닉스는 이전 세대 대비 2배 확장된 I/O(입출력단자) 수, 주요 부품의 외주 생산 등으로 HBM4 제조 비용 상승에 대한 압박을 받아 왔다. 이에 대해 SK하이닉스는 "이제는 고객들과 중점적으로 논의했던 부분에 대해 협의가 완료되면서 내년도 HBM 공급 계약을 최종 확정지었다"며 "가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"고 밝혔다. 또한 AI 시장이 빠르게 성장하고 있는 만큼, HBM 공급이 단기간 내에 수요를 따라잡기는 힘들다고 내다봤다. 이에 따라 HBM 성장률은 일반 D램 대비 높을 것으로 예상된다. SK하이닉스는 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"며 "고객 니즈에 맞는 제품을 적기에 공급할 수 있도록 할 것"이라고 밝혔다.

2025.10.29 09:56장경윤

SK하이닉스, 엔비디아 등과 내년 HBM 공급 협의 '완료'

SK하이닉스가 엔비디아 등 주요 고객사와의 내년 HBM(고대역폭메모리) 공급 협의를 마무리했다. 이에 따라 차세대 HBM의 양산 및 설비투자에 속도를 낼 수 있을 것으로 관측된다. SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 29일 밝혔다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. SK하이닉스는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 SK하이닉스는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자, 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, SK하이닉스는 "시황에 맞는 최적화된 투자 전략을 유지할 것"이라고 밝혔다.

2025.10.29 08:39장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

원화 스테이블코인 활용 논의...2026년 제도권 진입 주목

쿠팡, 고객정보 유출 용의자 특정…저장장치도 회수

첫 여성 사장·자율주행 재점검…위기를 기회로 만드는 '정의선號'

미디어·콘텐츠 누적된 위기...방송산업 구조개편 기로

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.