• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'메모리 반도체'통합검색 결과 입니다. (204건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성·SK 반도체 슈퍼사이클인데…소재·부품 업계 '시름', 왜?

글로벌 반도체 빅2인 삼성전자, SK하이닉스가 전례 없는 메모리 슈퍼사이클 효과로 올해 역대 최대 수익성을 거둘 것으로 전망되고 있지만 이들과 협력 관계인 국내 소재·부품 협력사들의 시름은 오히려 깊어지고 있어 주목된다. 삼성전자와 SK하이닉스가 연말연초 성과급 잔치를 벌였지만 이들 기업이 반도체 호황에도 웃지 못하는 가장 큰 원인은 최근 진행된 공급 협상에서 지난해에 이어 올해에도 단가가 인하됐기 때문이다. 동시에 중동 전쟁 등 거시경제 불확실성이 높아지고 환율이 상승하는 등 제조 비용에 대한 부담도 커지고 있다. 소재·부품 업계는 국내 반도체 공급망의 '뿌리' 역할을 담당한다. 단기적으로는 개별 기업들의 실적 악화에 그치겠으나, 중장기적으로 국내 소재·부품 업계의 경쟁력 약화로까지 이어질 수 있다는 우려의 목소리가 나온다. 1일 업계에 따르면 삼성전자, SK하이닉스는 올 1분기까지 주요 반도체 소재·부품 기업과의 단가 협상을 완료했다. 통상 삼성전자, SK하이닉스는 연말연시께 소재·부품 기업들과 당해년도 제품 공급에 대한 단가 협상을 진행한다. 각 기업별로 차이는 있지만, 삼성전자·SK하이닉스가 주력으로 양산하는 메모리반도체용 소재·부품은 올해 전반적으로 단가가 인하됐다. 복수의 업계 관계자에 따르면 하락폭은 한 자릿수 수준이다. 지디넷코리아 취재에 따르면 전공정과 후공정 분야 모두 단가 인하가 결정된 기업이 있는 것으로 파악된다. 앞서 삼성전자, SK하이닉스는 지난해 초에도 복수의 협력사와 소재·부품 단가를 10% 이상 인하하기로 한 바 있다. 이를 고려하면 소재·부품 단가 인하폭은 다소 축소됐다는 평가다. 그러나 지난해와 올해 국내 반도체 업계의 환경은 크게 변화했다. 전세계 IT 기업들이 공격적인 AI 인프라 투자를 진행하면서, 메모리반도체 가격은 지난해 상반기부터 고부가 및 범용 제품을 가리지 않고 크게 상승했다. 이에 삼성전자(43조6000억원), SK하이닉스(47조2063억원)는 나란히 지난해 역대 최대 실적을 기록했다. 올해 역시 양사 영업이익이 도합 400조원에 달할 수 있다는 전망이 제기될 정도로 업황이 초호황이다. 반면 소재·부품 단가는 오히려 인하되면서, 국내 기업들은 반도체 슈퍼사이클 속에서도 낙수 효과를 제대로 누리기 힘들어졌다. 설상가상으로 대외적 불확실성은 높아졌다. 지속적인 환율 상승과 더불어, 최근 불거진 이란 전쟁의 여파로 금·은·구리·알루미늄·쿼츠 등 핵심 원자재 가격이 전반적으로 급등했기 때문이다. 물류비 역시 크게 오르고 있다. 익명을 요청한 국내 한 반도체 소재·부품 업계 임원은 "올해 단가 인하율이 전년 대비 줄어들기는 했으나, 최근 물가 및 원자재 비용의 상승 현상을 반영하면 국내 소재·부품의 실질적인 이익은 감소하는 것과 다름없다"며 "제도적으로 완충 장치가 필요한 상황"이라고 어려움을 토로했다. 매년 비용 효율화를 실현해야 하는 삼성전자, SK하이닉스 구매 부서 입장에서는 단가 인하가 핵심 과업에 속한다. 그러나 소재·부품의 수익성 하락 압박이 커질 경우, 중견 협력사들의 연구개발(R&D)에 투입되는 비용이 줄어드는 등 중장기적으로 국내 반도체 생태계가 약화될 가능성도 거론된다. 또 다른 업계 임원은 "원가 압박을 탈피하기 위해서는 결국 제품 개발이나 설비 투자에 필요한 재원을 줄이는 방향으로 나아가게 될 것"이라며 "중국 기업들의 추격이 거센 가운데, 국내 소재·부품 기업들이 경쟁력을 유지하기 위해서는 수요기업과 공급기업 간 균형 잡인 이익 분배가 실현돼야 한다"고 강조했다.

2026.04.01 14:46장경윤 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

곽노정 SK하이닉스 "순현금 100조 확보해 장기적 전략 투자 집행"

SK하이닉스가 고대역폭메모리(HBM) 등 AI 메모리 수요에 적기 대응하기 위한 준비에 나선다. 중장기적으로 안정적인 투자를 집행하기 위해 순현금 100조원 이상을 확보하는 것이 목표다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 기존 메모리 수요는 IT 업황에 따라 하락과 상승을 반복하는 '사이클' 현상을 반복해왔다. 그러나 전세계 AI 기업들의 공격적인 인프라 투자에 따라, 고성능 AI 메모리 수요가 구조적인 공급 부족 현상에 직면할 수 있다는 시각이 제기되고 있다. 이에 SK하이닉스도 업황에 따라 설비투자 규모를 축소 및 확대하는 것이 아닌, 중장기적으로 안정적인 투자를 집행할 수 있는 재무건전성 확보에 나선다. 곽 사장은 "고객사 수요에 맞춰 안정적으로 투자를 집행할 수 있는 재무 건전성을 확보하는 것이 반드시 필요하다"며 "이에 회사는 순현금 100조원 이상을 확보하고자 한다. 이를 통해 어떠한 환경에서도 장기적이고 전략적으로 필요한 투자를 집행할 것"고 밝혔다. 이와 관련, SK하이닉스는 최첨단 메모리 생산능력 확대를 위한 투자를 적극 진행하고 있다. 올해 청주 M15X 팹 구축을 완료해 설비를 도입할 계획이며, 용인 대규모 반도체 클러스터 구축도 적극 추진 중이다.

2026.03.25 11:24장경윤 기자

삼성전자, 올해 시설·R&D 투자에 110조원 이상 투입..."AI 주도권 확보"

삼성전자가 올해 시설 및 연구개발(R&D)에 110조원 이상의 대규모 자금을 투자한다. 전년 대비 20조원 가량 증가한 규모로 AI 반도체 시대의 주도권 확보에 적극적으로 나서고 있다. 19일 삼성전자는 기업가치제고계획(밸류업) 공시를 통해 올해 사업 계획을 공개했다. 삼성전자는 "메모리, 파운드리, 선단 패키징을 모두 갖춘 '원-스톱 솔루션'이 가능한 세계 유일의 반도체 회사로서 AI 반도체 시대에 주도권을 확보하겠다"는 목표를 세웠다. 세부적으로 고대역폭메모리(HBM) 등 고부가 메모리 시장에서 업계 내 확고한 위상을 확보하고, 지속적으로 초격차를 유지할 계획이다. 또한 AI 및 첨단로봇 등 미래형 사업 구조로 사업을 재편해 중장기 성장 모멘텀을 확보하고자 하고 있다. 이를 위한 계획으로, 삼성전자는 올해 총 110조원 이상의 시설 및 R&D 투자를 집행한다. 전년 대비 20% 이상 증가한 규모다. 앞서 삼성전자는 지난해 시설 및 R&D 투자에 90조4000억원(시설투자 52조7000억원, R&D 37조7000억원)을 투자한 바 있다. 또한 첨단로봇, 메드테크, 전장, HVAC 등 미래 성장 분야에서 의미있는 규모의 M&A를 추진한다. 한편 올해 주주환원 정책에 대해서는 "3년간 총 잉여현금흐름의 50% 중에서 2024~2025년 주주환원 및 2026년 정규배당(9조8000억원) 이후에도 잔여재원 발생시 추가로 환원하겠다"는 계획을 세웠다.

2026.03.19 17:26장경윤 기자

SK하이닉스, 작년 설비투자 30조…메모리 호황에 '사상 최대'

SK하이닉스가 지난해 설비투자(CAPEX)에 30조원 이상을 투입했다. 역대 최대 수준으로, 고대역폭메모리(HBM) 등 인공지능(AI) 메모리 생산능력 확대에 집중한 데 따른 효과로 풀이된다. 17일 SK하이닉스는 2025년도 사업보고서에서 지난해 설비투자에 30조1730억원을 투입했다고 밝혔다. 이는 전년비 68% 증가한 규모다. 앞서 SK하이닉스는 2024년 17조9560억원 규모 투자를 집행한 바 있다. SK하이닉스의 투자 규모 확대는 청주 M15X, P&T(패키징&테스트) 팹 등 신규 팹 추가와 최선단 메모리 생산능력 확대를 위한 전환투자를 활발히 진행한 결과로 풀이된다. 현재 반도체 산업은 전세계 IT 기업의 공격적인 AI 인프라 투자로 전례없는 호황을 맞았다. AI 가속기에 필요한 HBM을 비롯해, 서버용 D램과 eSSD(기업용 SSD) 수요가 크게 증가했다. 범용 메모리 재고 수준도 덩달아 낮아졌다. SK하이닉스는 반도체 호황 지속에 따라 올해도 설비투자 규모를 크게 확대할 계획이다. M15X와 P&T팹의 설비 도입 외에도, SK하이닉스는 용인 1기 팹 건설과 미국 인디애나주 신규 팹 설립 등 국내외 투자 프로젝트를 추진 중이다. 앞서 SK하이닉스는 지난 1월 2025년 4분기 실적발표 컨퍼런스콜에서 "올해 투자 규모는 전년비 상당 수준 증가를 예상한다"며 "다만 설비투자 원칙(투자 규모가 연 매출액 대비 최대 30% 중반 수준을 넘지 않는 것)을 지속 준수하겠다"고 밝힌 바 있다.

2026.03.17 17:14장경윤 기자

삼성전자, 엔비디아 '4나노' 새 추론 칩 만든다

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자 파운드리와의 협력을 공식적으로 언급했다. 엔비디아의 최신형 AI 가속기 '베라 루빈' 기반 시스템과 결합되는 그록(Grok)의 언어처리장치(LPU)를 삼성 파운드리에서 양산하는 구조다. 젠슨 황 CEO는 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 AI 칩 생산 파트너를 소개하는 과정에서 "삼성전자가 그록3 LPU 칩을 제조하고 있다"고 밝혔다. 그록은 엔비디아가 지난해 말 약 29조원을 들여 우회 인수한 팹리스 스타트업이다. 거대언어모델(LLM)의 추론 작업 속도를 높이는 LPU를 전문으로 개발해 왔다. 그록3 LPU는 이 기업의 최신 칩으로, 4나노미터(nm) 공정 기반으로 알려졌다. 젠슨 황 CEO는 "삼성이 우리를 위해 그록3 LPU 칩을 제조하고 있다. 지금 가능한 한 최대한 빠르게 생산을 늘리고 있다"며 "삼성에게 정말 감사드린다"고 강조했다. 그록3 LPU는 현재 양산 단계에 들어갔다. 젠슨 황 CEO가 예상한 출하 시점은 오는 3분기다. 이번 발언은 삼성 파운드리가 엔비디아의 차세대 AI 칩 생산에 참여하고 있음을 공개적으로 언급한 것으로, AI 반도체 공급망에서 양사의 협력이 긴밀하게 이어지고 있음을 보여주는 대목으로 평가된다. 또한 삼성전자는 지난 2월 엔비디아향 HBM4(6세대 고대역폭메모리) 양산 출하를 공식 발표한 바 있다. 이를 통해 삼성전자는 엔비디아 AI 생태계 확장을 위한 메모리·파운드리 공급사로서 협력 영역을 더 확장할 수 있게 됐다.

2026.03.17 09:34장경윤 기자

SK하이닉스, 엔비디아와 AI 메모리 협력…최태원·곽노정 출동

SK하이닉스가 고대역폭메모리(HBM)를 비롯한 인공지능(AI) 메모리 제품군을 엔비디아 연례 행사 'GTC(GPU Technology Conference) 2026'에서 공개한다. 최태원 SK 회장, 곽노정 SK하이닉스 최고경영자(CEO) 등이 직접 참석해, 글로벌 빅테크 기업들과 중장기 협력 방안을 논의할 계획이다. SK하이닉스는 16~19일(현지시간) 미국 캘리포니아주 새너제이에서 열리는 GTC 2026에 참가한다고 17일 밝혔다. SK하이닉스는 "AI 학습과 추론 분야에서 데이터 병목을 최소화하고 성능을 극대화할 수 있는 메모리 제품을 엔비디아 AI 인프라에 탑재했다"며 "이번 행사에서 엔비디아와 파트너십을 기반으로 AI 시대 핵심 인프라인 메모리 기술 경쟁력을 선보이겠다"고 말했다. SK하이닉스는 이번 행사에서 '스포트라이트 온 AI 메모리'(Spotlight on AI Memory)를 주제로 전시 공간을 구성해 AI 메모리 기술과 설루션을 소개한다. 전시관은 ▲엔비디아 협업 존 ▲제품 포트폴리오 존 ▲이벤트 존 등으로 구성된다. 관람객이 AI 메모리 기술을 직관적으로 이해하도록 체험형 콘텐츠 중심으로 운영한다. 전시장 입구에 위치한 '엔비디아 협업 존'은 SK하이닉스와 엔비디아의 협업 성과를 집약적으로 보여주는 핵심 공간이다. 회사는 이곳에서 HBM4와 HBM3E, SOCAMM2 등 SK하이닉스의 메모리 제품들이 엔비디아의 다양한 AI 플랫폼에 실제 적용된 사례를 중심으로, GPU 기반 AI 가속기에 탑재된 메모리 구성을 모형과 실물 형태로 구현한다. 엔비디와와 협업해 만든 액체 냉각식 eSSD를 비롯해 회사의 LPDDR5X가 탑재된 엔비디아의 AI 슈퍼컴퓨터 'DGX 스파크(Spark)'도 함께 전시한다. '제품 포트폴리오 존'에서는 AI 인프라 핵심인 HBM4와 HBM3E를 비롯해, 고용량 서버용 D램 모듈과 LPDDR6, GDDR7, eSSD, 자동차용 메모리 솔루션 등 AI 시대를 겨냥한 메모리 제품 라인업을 볼 수 있다. SK하이닉스는 GTC 2026 기간 동안 글로벌 AI 산업 현장 흐름에 맞는 협력 방향을 모색할 계획이다. 최태원 SK그룹 회장을 비롯해 곽노정 SK하이닉스 CEO 등 주요 경영진은 글로벌 빅테크 기업들과 만나 AI 기술 발전과 인프라 구조 변화에 대한 인사이트를 공유하고, 중장기 협력 방안을 논의할 예정이다. 기술 세션에서 AI 기반 제조업 발전 방향과 고성능 AI 구현을 위한 메모리 기술 역할을 설명할 계획이다. SK하이닉스는 "AI 기술이 발전할수록 메모리는 단순 부품을 넘어 AI 인프라 전반의 구조와 성능을 좌우하는 핵심 요소로 자리잡고 있다"며 "데이터센터부터 온디바이스에 이르기까지 AI 전 영역을 아우르는 메모리 기술 역량을 기반으로, 글로벌 파트너들과 함께 AI의 미래를 만들겠다"고 밝혔다.

2026.03.17 07:45장경윤 기자

"메모리 반도체, 가격 급등에도 수요 여전"

메모리 반도체 시장이 과거 사이클과 확연히 다른 '구조적 공급부족' 상태를 맞아 끝을 알 수 없는 가격 급등세가 이어지고 있다는 진단이 나왔다. 인공지능(AI) 인프라 투자라는 강력한 수요가 시장을 지배하면서, 가격 상승이 곧바로 수요 감소로 이어지지 않는 '비탄력적' 시장 상황이 연출되고 있다. 황민성 카운터포인트리서치 팀장은 12일 온라인 웨비나에서 "현재 메모리 시장은 과거 사이클과 달리 가격이 올라도 수요가 줄지 않는 상황"이라며 "공급부족 사태가 의미 있게 해소되는 시점은 빨라야 2027년 하반기가 될 것"이라고 전망했다. 이는 AI 데이터센터 구축을 위한 서버용 D램과 고대역폭메모리(HBM) 수요가 시장 전체를 압도하고 있기 때문이다. 일반 IT 기기 제조사는 극심한 원가 압박에 시달리고 있다. 스마트폰과 PC 등 완제품 제조사의 제조원가에서 메모리 비중이 절반에 육박할 정도로 커졌기 때문이다. 업계에서는 원가 부담이 결국 소비자 판매가 인상으로 이어질 수밖에 없는 구조적 한계에 봉착했다고 보고 있다. 시장 변화 속에서 삼성전자와 SK하이닉스의 경쟁 구도도 변화하고 있다. 과거에는 매출 규모를 중심으로 경쟁했지만 올해는 '이익률(마진) 경쟁'이 핵심 화두다. 현재 원가 경쟁력 면에서는 SK하이닉스가 다소 우위를 점한 것으로 평가받으며, 삼성전자가 이를 따라잡기 위해 총력을 다하는 형국이다. 또 다른 시장 변수는 중국 업체의 거센 추격이다. CXMT와 YMTC 등은 자국 정부 보조금을 바탕으로 레거시(구형) 제품부터 점유율을 확대하고 있다. 특히 글로벌 PC OEM들이 중국 업체 물량을 구매하기 시작하면서, 단순히 중국 시장을 넘어 글로벌 시장에서의 영향력을 키우고 있다는 분석이다. 황 팀장은 "중국의 공급 증가는 시장의 큰 부담 요소"라면서도 "중국 업체들이 AI용 첨단 메모리 시장까지 빠르게 진입하기에는 아직 기술격차가 있다"고 평가했다.

2026.03.12 16:06전화평 기자

"서버도 온디바이스도 해답은 LPDDR...전력 장벽 뚫는다"

"이제 저전력은 모바일만의 전유물이 아닙니다. 서버와 온디바이스 인공지능(AI), 어느 영역에서도 전력효율을 확보하지 못하면 생존할 수 없는 시대가 왔습니다. 그 중심에 저전력 D램(LPDDR)이 있습니다." 반도체 설계 자산(IP) 기업 오픈엣지테크놀로지(이하 오픈엣지) 이성현 대표는 최근 지디넷코리아 인터뷰에서 AI 시장 흐름이 '전력 효율'로 수렴한다고 진단했다. 과거 스마트폰 등 모바일 기기에 주로 쓰이던 LPDDR이 이제는 차세대 LPDDR6 표준 등장과 함께 데이터센터 서버와 로봇, 자동차 등 AI가 탑재되는 모든 곳의 핵심 메모리 표준으로 부상했다는 설명이다. 서버의 전력 병목 현상과 온디바이스의 배터리 및 발열 한계를 동시에 해결할 수 있는 유일한 열쇠가 바로 LPDDR이기 때문이다. 전력 병목에 갇힌 AI… 서버·엣지 가리지 않는 LPDDR 확산 최근 반도체 업계에서 눈에 띄는 변화는 LPDDR 메모리의 전방위 확산이다. 과거 스마트폰의 전유물이었던 LPDDR은 이제 데이터센터 서버와 온디바이스 AI 기기의 핵심 규격으로 자리 잡았다. 해법으로 등장한 것이 서버용 LPDDR 솔루션이다. 특히 최근 주목받는 쏘캠(SOCAMM) 같은 규격은 LPDDR의 저전력 특성을 서버 환경에 이식해 전력 소모는 낮추면서도 데이터 처리 대역폭은 극대화한다. 동시에 온디바이스 AI 시장 성장도 LPDDR 수요를 견인하고 있다. 이 대표는 "자율주행차, 로봇, 휴머노이드 등 물리적 제약이 큰 엣지 디바이스에서는 배터리 효율과 발열 관리가 제품 완성도를 결정한다"며 "트랜스포머 기반 대형 AI 모델을 기기 내부에서 구동하기 위해 LPDDR6 같은 고성능·저전력 IP 역할이 그 어느 때보다 중요해졌다"고 분석했다. "면적 50% 절감 혁신"… 9년 준비로 일군 메모리 시스템 통합 IP 오픈엣지는 창업 초기부터 LPDDR 시대 도래를 예견하고 꾸준히 준비해왔다. 메모리 컨트롤러와 물리 계층(PHY)을 아우르는 '메모리 시스템 IP'를 계속 연구한 것이 대표적이다. 현재 전세계에서 두 가지 핵심 IP를 통합 솔루션으로 제공하며 최적화할 수 있는 기업은 시높시스, 케이던스 등 글로벌 IP 거인을 포함해도 손에 꼽는다. 특히 오픈엣지 기술력은 PPA(전력·성능·면적) 측면에서 강점이 있다. 오픈엣지의 PHY IP는 동일 성능 대비 면적을 최대 50%까지 줄였다. 팹리스(반도체 설계전문) 입장에서는 생산 단가를 획기적으로 낮추면서도 고성능을 유지할 수 있는 최적 솔루션인 셈이다. 경쟁력은 글로벌 시장에서 실적으로 증명되고 있다. 전체 매출 70% 이상이 해외에서 나온다. 그 중에는 일본 르네사스, 미국 마이크론 등 글로벌 반도체 거인도 있다. 오픈엣지는 차세대 LPDDR6 표준 개발 단계부터 참여하며 기술 표준을 선도하는 전략을 취하고 있다. "구매 전 가상설계 환경 제공"… 팹리스 리스크 지우는 '칩 스케치' 전략 오픈엣지의 또 다른 성장축은 고객사 설계 문턱을 낮추는 플랫폼 전략이다. IP 산업의 특성상 단 한 번의 설계 오류는 칩 개발 실패와 막대한 손실로 이어진다. 진입장벽이 높은 이유다. 이를 방지하기 위해 구축한 플랫폼이 '오픈엣지스퀘어'다. 오픈엣지스퀘어는 일종의 디지털 영업 플랫폼이다. 일반적으로 팹리스가 새로운 IP를 검토하려면 내부 서버에 복잡한 EDA 환경을 구축하고 인력을 투입해야 한다. 오픈엣지스퀘어는 이를 클라우드로 옮겨왔다. 로그인만 하면 어디서든 오픈엣지의 최신 IP를 칩 설계안에 대입해 볼 수 있다. 이때 핵심 기능이 '칩 스케치'다. 칩 스케치는 사실상 시스템온칩 (SoC) 반도체 설계 및 성능 최적화 툴로, 명칭처럼 칩을 그리기 전에 밑그림을 그려보는 기능이다. EDA와 비슷하다. 팹리스로선 비싼 EDA 라이선스를 쓰기 전에 이 IP가 내 설계에 맞는지 확인해 볼 수 있다. 이 대표는 "고객사가 우리 IP를 도입했을 때 얻을 수 있는 이점을 데이터로 직접 확인하게 함으로써 설계 리스크를 낮춘다"며 "이는 단순한 IP 공급자를 넘어 고객의 제품 성공을 돕는 전략 파트너로서 위치를 공고히 하는 전략"이라고 설명했다. IP 업계, 요행은 없다 2026년은 오픈엣지에 수익성 개선 분수령이 될 전망이다. 지난해 미중 갈등과 업황 부진으로 지연됐던 글로벌 프로젝트가 본격화되고 있고, 국내에서도 'K-온디바이스 AI 반도체' 과제 등으로 새로운 수요가 창출되고 있다. 이 대표는 "지난 2년간 오픈엣지에 우호적이지 않은 시장 환경이었음에도 연구개발(R&D) 투자를 확대해, 기회가 왔을 때 대응할 수 있는 잠재력을 길렀다"고 밝혔다. 그러면서 "IP 업계에 갑작스러운 행운이나 신데렐라는 없다"며 "오직 검증된 트랙 레코드(실적)만 고객 신뢰를 얻는 유일한 길"이라고 강조했다.

2026.03.12 15:22전화평 기자

SK하이닉스, 1c D램 'LPDDR6' 개발…하반기 공급 시작

SK하이닉스가 10나노급 6세대(1c) 공정을 적용한 16Gb(기가비트) LPDDR6 D램을 개발하는 데 성공했다고 10일 밝혔다. LPDDR은 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성을 갖고 있다. 규격명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR6로 1-2-3-4-4X-5-5X-6 순으로 개발돼 왔다. 회사는 지난 1월 CES 전시에서 해당 제품을 공개한 이후 최근 세계 최초로 1c LPDDR6 제품 개발 인증을 완료했다. SK하이닉스는 “상반기 내 양산 준비를 마치고, 하반기부터 제품을 공급해 AI 구현에 최적화된 범용 메모리 제품 라인업을 구축해 나갈 것”이라고 강조했다. 1c LPDDR6는 온디바이스 AI가 탑재된 스마트폰이나 태블릿 같은 모바일 제품에 주로 활용된다. 온디바이스 AI 구현에 최적화하기 위해 기존 제품인 LPDDR5X 대비 데이터 처리 속도와 전력 효율을 개선했다. 이 제품의 데이터 처리 속도는 대역폭 확장을 통해 단위 시간당 전송 데이터량을 늘려 이전 세대 보다 33% 향상했다. 동작속도는 기본 10.7Gbps(초당 10.7기가비트) 이상이며, 이는 기존 제품 최대치를 상회한다. 전력은 서브 채널 구조와 DVFS 기술을 적용해 이전 세대 제품 대비 20% 이상 절감했다. DVFS는 칩의 동작 상황에 따라 전압(Voltage)과 주파수(Frequency)를 조절해 전력 소모와 성능을 최적화하는 전력 관리 기술이다. 서브 채널 구조는 필요한 데이터 경로만 선택적으로 동작하도록 하고, 모바일 환경에 따라 주파수와 전압을 조절하는 것이 DVFS 기술의 특징이다. 게임 구동과 같이 고사양이 요구되는 환경에서는 DVFS를 높여 최고 대역폭 동작을 만들어내고, 평상시에는 주파수와 전압을 낮춰 전력 소비를 줄이도록 설계했다. 이에 회사는 소비자들이 이전보다 길어진 배터리 사용 시간은 물론, 최적의 멀티태스킹을 경험하게 될 것으로 기대하며, 시장 수요에 따라 글로벌 모바일 고객사의 요구에 맞춰 준비할 계획이다. SK하이닉스는 “앞으로도 고객과 함께 AI 메모리 솔루션을 시장에 적시 공급해 온디바이스 AI 사용자들에게 차별화된 가치를 제공할 것“이라고 말했다.

2026.03.10 09:13장경윤 기자

브로드컴, AI칩 고성장 자신…삼성·SK 메모리 수요 견인

브로드컴이 주문형 인공지능(AI) 반도체 사업 성장세를 자신했다. 구글·오픈AI 등 글로벌 기업들의 자체 AI 가속기 출하량 확대에 따른 효과다. 오는 2027년에는 관련 매출이 연 1000억 달러(약 146조원)에 달할 것으로 내다봤다. 해당 칩에 고대역폭메모리(HBM) 등 고부가 메모리를 공급하는 삼성전자·SK하이닉스도 견조한 수요가 지속될 전망이다. 브로드컴은 4일(현지시간) 회계연도 2026년 1분기(2026년 2월 1일 마감) 매출액 193억 1100만 달러(약 28조원)를 기록했다고 밝혔다. 전년동기 대비 29%, 전분기 대비 7% 증가했다. 특히 AI 반도체 매출은 86억 달러로 전년동기 대비 106%, 전분기 대비 29% 증가했다. 전체 사업군 중 가장 가파른 성장세다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·앤트로픽 등 고객사의 AI 반도체를 위탁 개발하고 있다. 향후 전망도 긍정적이다. 브로드컴은 회계연도 2026년 2분기 AI 반도체 매출액 예상치를 107억 달러로 제시했다. 전년동기 대비 143%, 전분기 대비 27% 증가한 수준이다. 증권가 컨센서스(약 92억 달러) 역시 크게 웃돌았다. 성장세의 주요 배경은 글로벌 기업들의 적극적인 AI 인프라 투자다. 현재 브로드컴은 AI 반도체 사업에서 5개 고객사를 확보한 상황으로, 각 고객사들은 맞춤형 AI 가속기(XPU) 도입을 가속화하고 있다. 최근에는 6번째 고객사도 추가로 확보했다. 특히 브로드컴의 핵심 고객사인 구글의 텐서처리장치(TPU)가 강력한 수요를 보일 것으로 예상된다. TPU는 대규모 학습 및 추론 분야에서 범용 GPU 대비 높은 효율을 보인다. 현재 7세대 칩인 '아이언우드'까지 상용화가 이뤄졌다. 호크 탄 브로드컴 최고경영자(CEO)는 "구글은 물론 메타의 AI 가속기 출하량이 확대될 예정"이라며 "또다른 고객사들도 출하량이 호조세를 보여, 2027년에는 규모가 2배 이상 증가할 것으로 예상한다"고 밝혔다. 그는 이어 "여섯 번째 고객으로 오픈AI가 2027년에 1GW(기가와트) 이상의 컴퓨팅 용량을 갖춘 1세대 AI XPU를 대량으로 도입할 것으로 기대한다"며 "AI XPU 개발을 위한 협력은 다년간 지속될 것임을 강조하고 싶다"고 덧붙였다. 브로드컴의 AI 반도체 매출 확대는 삼성전자·SK하이닉스 등 국내 메모리 기업들의 실적과도 연계된다. 브로드컴이 설계하는 XPU에 HBM 등 고부가 메모리가 탑재되기 때문이다. 올해만 해도 삼성전자, SK하이닉스, 마이크론 3사의 HBM3E 물량 30%가 구글 TPU에 할당될 것으로 알려졌다. 오픈AI 역시 삼성전자, SK하이닉스 메모리 사업의 '큰손' 고객사로 떠오를 전망이다. 앞서 오픈AI는 지난해 하반기 삼성전자·SK하이닉스와 핵심 AI 인프라 구축을 위한 전방위적 협력 체계를 맺은 바 있다. 호크 탄 CEO는 "당사는 오는 2027년 XPU, 스위치 칩 등을 포함한 AI 반도체 매출액이 1000억 달러를 넘어설 것으로 예상하고 있다"며 "이를 달성하는 데 필요한 공급망도 확보했다"고 강조했다.

2026.03.05 17:24장경윤 기자

SK하이닉스, HBM4 '성능 점프' 비책 짰다…新패키징 기술 도입 추진

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) SK하이닉스가 고대역폭메모리(HBM)용 패키징 기술 변혁을 꾀한다. 대대적인 공정 전환 없이 HBM의 안정성과 성능을 강화할 수 있는 기술을 고안해, 현재 검증을 진행 중인 것으로 파악됐다. 실제 상용화가 이뤄지는 경우, 엔비디아가 요구하는 HBM4(6세대)의 최고 성능 달성은 물론 차세대 제품에서의 성능 강화도 한층 수월해질 것으로 예상된다. 이에 해당 기술의 성패에 업계의 이목이 쏠린다. 3일 지디넷코리아 취재를 종합하면 SK하이닉스는 HBM 성능 강화를 위한 새로운 패키징 기술 적용을 추진하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, 실리콘관통전극(TSV)를 뚫어 연결한 메모리다. 각 D램은 미세한 돌기의 마이크로 범프를 접합해 붙인다. HBM4의 경우 12단 적층 제품부터 상용화된다. SK하이닉스는 현재 HBM4의 초도 양산을 시작했다. HBM4의 리드타임(제품 양산, 공급에 필요한 전체 시간)이 6개월 내외인 만큼, 엔비디아와의 공식적인 퀄(품질) 테스트 마무리에 앞서 선제적으로 제품을 양산하는 개념이다. HBM4 공급은 문제 없지만…최고 성능 구현 고심 그간 업계에서는 SK하이닉스 HBM4의 성능 및 안정성 저하를 우려해 왔다. 엔비디아가 HBM4의 최대 성능(핀 당 속도)을 당초 제품 표준인 8Gbps를 크게 상회하는 11.7Gbps까지 요구하면서, 개발 난이도가 급격히 상승한 탓이다. 실제로 SK하이닉스 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 어려움을 겪어, 올해 초까지 일부 회로의 개선 작업을 거쳐 왔다. 이에 따라 본격적인 램프업(대량 양산) 시점도 당초 업계 예상보다 일정이 늦춰진 상황이다. 다만 업계 이야기를 종합하면, SK하이닉스가 엔비디아향 HBM4 공급에 큰 차질을 겪을 가능성은 현재로선 매우 낮은 수준이다. 주요 배경은 공급망에 있다. 엔비디아가 HBM4에 높은 사양을 요구하고 있긴 하지만, 이를 고집하는 경우 올 하반기 최신형 AI 가속기 '루빈'을 충분히 공급하는 데 제약이 생길 수 있다. 현재 HBM4에서 가장 좋은 피드백을 받고 있는 삼성전자도 수율, 1c D램 투자 현황 등을 고려하면 당장 공급량을 확대하기 어렵다. 때문에 업계는 엔비디아가 초기 수급하는 HBM4의 성능 조건을 10Gbps대로 완화할 가능성이 유력하다고 보고 있다. 반도체 전문 분석기관 세미애널리시스는 최근 보고서를 통해 "엔비디아가 루빈 칩의 총 대역폭을 당초 22TB/s로 목표했으나, 메모리 공급사들은 엔비디아의 요구 사항을 충족하는 데 어려움을 겪고 있는 것으로 파악된다"며 "초기 출하량은 이보다 낮은 20TB/s(역산하면 HBM4 핀 당 속도가 10Gbps급)에 가까울 것으로 예상한다"고 밝혔다. 반도체 업계 관계자는 "HBM 공급망은 단순 속도가 아니라 수율·공급망 안정성 등 어려 요소가 고려돼야 하기 때문에, SK하이닉스가 가장 많은 물량을 공급할 것이라는 전망은 여전히 유효하다"며 "다만 최고 성능 도달을 위한 개선 작업도 지속적으로 병행하는 등 기술적으로 안주할 수 없는 상황"이라고 말했다. HBM 성능 한계 돌파할 '신무기' 준비…현재 검증 단계 이와 관련, 현재 SK하이닉스는 HBM4 및 차세대 제품에 적용하는 것을 목표로 새로운 패키징 공법 도입을 시도하고 있다. 업계가 지목하는 HBM4 성능 제약의 가장 큰 요인은 입출력단자(I/O) 수의 확장이다. I/O는 데이터 송수신 통로로, HBM4의 경우 이전 세대 대비 2배 증가한 2048개가 구현된다. 그런데 I/O 수가 2배로 늘면 밀집된 I/O끼리 간섭 현상이 발생할 수 있다. 또한 전압 문제로 하부층의 로직 다이(HBM 밑에서 컨트롤러 역할을 담당하는 칩)에서 가장 높은 상부층까지 전력이 충분히 전달되기가 어렵다. 특히 SK하이닉스는 주요 경쟁사인 삼성전자 대비 한 세대 이전의 1b(5세대 10나노급) D램을 채용한다. 로직 다이도 TSMC의 12나노미터(nm) 공정으로, 삼성전자(삼성 파운드리 4나노) 대비 집적도가 낮다. 때문에 기술적으로 I/O 수 증가에 따른 문제에 취약하다. 대대적 공정 전환 없이 HBM 성능·안정성 향상…상용화 여부 주목 이에 SK하이닉스는 새로운 패키징 공법으로 새로운 비책을 마련하고 있는 것으로 파악됐다. 핵심은 ▲코어 다이 두께 향상, 그리고 ▲D램 간 간격(Gap) 축소다. 우선 일부 상부층 D램의 두께를 이전보다 두껍게 만든다. 기존엔 HBM4의 패키징 규격(높이 775마이크로미터)을 맞추기 위해 D램의 뒷면을 얇게 갈아내는 씨닝 공정이 적용된다. 다만 D램이 너무 얇아지면 칩 성능이 저하되거나 외부 충격에 쉽게 손상을 받을 수 있다. 때문에 SK하이닉스는 D램의 두께 향상으로 HBM4의 안정성을 강화하려는 것으로 풀이된다. 또한 D램 간 간격을 더 줄여, 전체 패키징 두께가 늘어나지 않도록 하는 동시에 전력 효율성을 높였다. 각 D램의 거리가 가까워지면 데이터가 더 빠르게 도달하게 되고, D램 최상층으로 전력이 도달하는 데 필요한 전력이 줄어들게 된다. 관건은 구현 난이도다. D램 간 간격이 줄어들면 MUF(몰디드언더필) 소재를 틈에 안정적으로 주입하기 힘들어진다. MUF는 D램의 보호재·절연체 등의 역할을 담당하는 소재로, 고르게 도포되지 않고 공백(Void)가 생기면 칩의 불량을 야기할 수 있다. SK하이닉스는 이를 해결할 수 있는 새로운 패키징 기술을 고안해냈다. 구체적인 사안은 밝혀지지 않았으나, 대대적인 공정 및 설비 변화 없이 D램 간격을 안정적인 수율로 줄일 수 있는 것이 주 골자다. 최근 진행된 내부 테스트 결과 역시 긍정적인 것으로 알려졌다. 만약 SK하이닉스가 해당 기술을 빠르게 상용화하는 경우, HBM4 및 차세대 제품에서 D램 간격을 효과적으로 줄일 수 있을 것으로 예상된다. 반대로 해당 기술이 양산 적용에 난항을 겪을 가능성도 남아 있다. 사안에 정통한 관계자는 "SK하이닉스가 기존 HBM의 한계를 극복하기 위한 새로운 패키징 공법을 고안해, 현재 검증 작업을 활발히 거치고 있다"며 "대규모 설비투자 없이 HBM 성능을 개선할 수 있기 때문에 상용화 시에는 파급 효과가 적지 않을 것"이라고 설명했다.

2026.03.03 14:29장경윤 기자

한미반도체, 마이크론 印 반도체 공장 오픈식 참석...핵심 협력사 지위 굳건

한미반도체는 지난달 28일 인도 구자라트주 사난드에서 개최된 마이크론 테크놀로지 인도 최초 반도체 공장 오픈식에 참석했다고 3일 밝혔다. 이번 마이크론 인도 공장 오픈식에는 나렌드라 모디 인도 총리가 참석해 기념사를 발표했으며, 인도 정부 관계자, 마이크론 산자이 메로트라 회장과 주요 임원진 등이 대거 참석했다. 한미반도체는 마이크론 인도 공장의 가장 중요한 장비 공급사로 초청받으며 핵심 협력사의 위상을 확립했다. 마이크론 인도 공장은 총 27억5000만 달러(약 4조원)가 투자된 첨단 패키징 공장이다. 인도 반도체 산업 육성을 위해 인도 정부가 50%, 구자라트주가 20%의 보조금을 각각 지원하며 국가 전략 프로젝트로 추진됐다. 50만 평방피트(약 1만4000평)에 달하는 세계 최대 규모의 단일층 클린룸을 갖추고 있으며, 이는 축구장 7개 규모에 달하는 면적이다. 앞으로 적층형 GDDR(그래픽 D램)과 기업용 eSSD(기업용 SSD) 등 고성능 AI 메모리의 테스트, 패키징 거점으로 운영될 계획이다. 현재 인도 구자라트에서 생산하고 있는 DDR5 D램은 마이크론 최첨단 D램 공정이 적용된 최신의 1감마 공정 제품으로 올해 수천만 개의 칩을 패키징·테스트를 시작하고 내년에는 수억 개로 생산량을 확대할 계획이라고 밝혔다. 이에 따라 AI 메모리 반도체칩을 적층 생산하는 TC본더와 같은 첨단 반도체 패키징 장비에 약 1조원에서 2조원이 투자될 예정이다. 인도 반도체 미션의 승인을 받은 첫 번째 프로젝트이자 인도 최초의 반도체 공장이라는 역사적 의미도 지닌다. 이는 인도가 글로벌 반도체 공급망에서 핵심 제조 거점으로 도약하는 중요한 이정표로 평가받는다. 인도 정부는 '세미콘 인디아' 정책을 통해 약 100억 달러(약 14조5000억원) 규모의 보조금을 가동하며 글로벌 반도체 제조 허브로 도약을 추진하고 있다. 신규 공장의 안정적 가동을 위해서는 첨단 정밀 본딩 기술과 신속한 기술 지원이 필수적이다. 한미반도체는 마이크론의 핵심 협력사로서 인도 현지에 엔지니어를 파견해 밀착형 기술을 지원하고, 교육 프로그램을 운영하는 등 장기적 협력을 이어나갈 방침이다. 지난해 한미반도체는 마이크론으로부터 '탑 서플라이어'상을 수상하며 최우수 협력사로 선정된 바 있다. 한미반도체 관계자는 “마이크론의 인도 공장 오픈식과 라운드 테이블 참석은 한미반도체가 글로벌 반도체 공급망의 핵심 협력사로서 위상을 다시 한번 인정받는 계기”라며 “인도 현지에 엔지니어를 파견하고 적극적인 기술을 지원으로 고객 만족을 위해 노력하겠다”고 밝혔다.

2026.03.03 08:51장경윤 기자

반도체 고공행진…2월 수출 '훨훨' 날았다

2월 수출이 역대급 반도체 호황에 힘입어 역대 2월 최고 실적을 기록했다. 산업통상자원부는 2월 수출이 지난해 같은 달보다 29% 증가한 674억5000만 달러, 수입은 7.5% 증가한 519억4000만 달러로 무역수지가 역대 최대인 155억1000만 달러를 기록했다고 1일 밝혔다. 2월 수출은 설 연휴로 인해 지난해 같은 달보다 조업일수가 3일 줄었음에도 역대 2월 중 최대 실적인 674억5000만 달러를 기록했다. 조업일수를 고려한 하루 평균 수출도 49.3% 증가한 35억5000만 달러로 사상 처음으로 30억 달러 이상 실적을 기록했다. 13개월 연속 흑자를 보인 무역수지는 월간으로는 역대 최대 흑자규모를 보였다. 2월에는 15대 주력 수출품목 가운데 반도체, 컴퓨터, 선박, 무선통신, 바이오 등 5개 품목 수출이 증가했다. 반도체 수출(251억6000만 달러, 160.8% 증가)은 AI 투자 확대로 인한 초과 수요와 이에 따른 메모리 가격 급등이 지속되며 월 기준 전기간 역대 최대 실적 기록과 3개월 연속 200억 달러 이상 수출을 이어갔다. 무선통신기기(14억7000만 달러, 12.7% 증가)는 신규 모델 출시 영향으로 휴대폰 완제품(5억3000만 달러, 131.6% 증가)을 중심으로 4개월 연속 플러스를, 컴퓨터(25억6천만 달러, 221.6% 증가)는 SSD 수출 호조가 지속되며 5개월 연속 플러스를 기록했다. 자동차(48억1000만 달러, 20.8% 감소)와 자동차부품(14억5000 달러, 22.4% 감소) 수출은 설 연휴가 지난해 1월에서 올해 2월로 이동하면서 조업일수가 3일 감소해 생산 물량이 줄어들며 감소를 기록했다. 석유제품 수출은 가동률 상승으로 수출 물량은 확대됐으나, 글로벌 저유가 지속에 따른 수출단가 하락으로 3.9% 감소한 37억3000만 달러를 기록했고, 바이오헬스(13억1000만 달러, 7.1% 증가)는 기존·신규 제품 매출이 안정적인 성장세를 보이며 4개월 연속 플러스가 지속됐다. 한편, 석유화학(33억3000만 달러, 15.4% 감소)과 철강(23억6000만 달러, 7.8% 감소) 수출은 글로벌 공급과잉에 따른 수출단가 하락 영향으로 감소했다. 일반기계 수출은 조업일수 감소와 주요국의 설비투자 부진 등으로 16.3% 감소한 32억6000만 달러를 기록했다. 2월에는 9대 주요 수출지역 가운데 미국·중국·아세안·EU·일본·중동·인도 등 7개 지역 수출이 증가했다. 미국 수출(128억5000만 달러, 29.9% 증가)은 반도체와 컴퓨터 수출이 세자릿수의 높은 증가율을 기록한 가운데, 바이오헬스·석유제품·이차전지 등 품목이 고른 증가세를 보이면서 역대 2월 중 최대 실적을 경신했다. 중국 수출은 설 연휴와 춘절 영향으로 조업일수가 감소하며 다수 품목이 부진했으나, 반도체·컴퓨터·석유제품 등 수출이 큰 폭으로 증가하면서 전체적으로 34.1% 증가한 127억5000만 달러를 기록했다. 아세안 수출(124억7000만 달러, 30.4% 증가)은 최대 품목인 반도체·디스플레이·선박 등 주요 품목이 높은 성장세를 보이면서 역대 2월 중 1위 실적을 기록했다. EU 수출(56억 달러, 10.3% 증가)도 반도체·바이오헬스·선박 등 주력 품목이 고르게 증가하며 호실적을 기록했다. 2월 수입은 7.5% 증가한 519.4억 달러로, 에너지 수입(92억9000만 달러, 1.4% 감소)은 감소했으나, 에너지 외 수입(426억4000만 달러)은 9.6% 증가했다. 에너지 수입은 유가하락으로 원유(54억3000만 달러, 11.4% 증가) 수입은 감소했으나, 가스(26억4000만 달러, 15.9% 증가)는 증가했으며, 비에너지는 반도체(67억6000만 달러, 19.1% 증가), 반도체장비(25억6000만 달러, 43.4% 증가), 전화기(10억3000만 달러, 80.2 증가) 등 품목의 수입이 증가했다. 2월 무역수지는 전년대비 115억5000만 달러 증가한 155억1000만 달러 흑자로 전기간 역대 최대치를 경신함과 동시에 2025년 2월부터 13개월 연속 흑자를 기록했다. 김정관 산업부 장관은 “2월 수출은 설 연휴에 따른 조업일수 감소에도 반도체·컴퓨터·선박 등 주력 품목이 전체 수출을 견인하며 9개월 연속 증가세를 이어갔다”고 평가했다. 김 장관은 이어 “최근 중동 지역 긴장 고조와 미국 관세정책 등으로 우리 수출을 둘러싼 대외 불확실성이 확대되고 있다”며 “중동발 지정학적 리스크에 따른 영향을 최소화하기 위해 수출입 동향을 면밀히 점검하고 필요한 지원 대책을 차질 없이 추진하는 한편, 한-미 관세 합의를 통해 확보한 이익의 균형과 대미 수출 여건이 훼손되지 않도록 미국과의 긴밀한 소통을 지속하고 대미투자특별법의 조속한 국회 통과에도 만전을 기하겠다”고 밝혔다.

2026.03.01 12:08주문정 기자

삼성 "지금 반도체 산업은 전쟁 상황...더 늦출 수 없어"

경기도가 K-반도체의 골든타임을 지키기 위한 대규모 클러스터 구축에 속도를 낸다. 반도체 기업들의 투자 지원을 위한 전담조직 가동, 인허가 단축 목표제 등을 추진할 계획이다. 삼성전자 역시 반도체 클러스터 구축을 가속화해야 한다는 점에 적극 공감하고 나섰다. 김용관 삼성전자 DS부문 경영전략담당 사장은 "지금 반도체 산업은 전쟁 상황이고, 시간이 제일 중요하다. 더 이상 늦출 수 없다"고 말했다. 김동연 경기지사는 27일 오전 단국대학교 용인 글로컬 산학협력관에서 'K-반도체 메가클러스터 상생 타운홀 미팅'을 개최했다. 행사에는 김동연 지사를 비롯해 반도체 기업 관계자, 지역 주민, 대학 관계자, 대학생, 시군 공무원 등 100여 명이 참석했다. 김용관 삼성전자 DS부문 경영전략담당 사장도 함꼐 자리했다. 김 지사는 “반도체 산단은 전기나 물, 교통 문제, 일하는 분들의 정주 여건 등에 대한 사전 준비가 필수적”이라며 “경기도는 선제적으로 하이닉스 전력 문제 해결을 위해 지방도 318호 지하로 전력망을 깔 계획으로, 국가산단 안에 있는 국지도 82호선에 대한 확충 계획도 중앙정부와 도가 입주할 삼성과 협의해서 좋은 방향을 찾도록 하겠다”고 말했다. 그는 이어 "전세계적인 반도체 산업 경쟁에서 우리가 고지를 선점할 수 있도록 모든 노력을 경주하겠다는 뜻에서 '반도체 올케어'라는 말을 썼다"며 "반도체메가클러스터는 조금도 흔들림 없이 추진한다는 것을 분명히 말씀드린다”고 덧붙였다. 이날 행사에서 기업 관계자들도 인허가 신속 처리와 기반시설 조기 구축을 요청했다. 삼성전자 DS부문 김용관 사장은 "지금 반도체는 여러 국가들이 정부에서부터 기업까지 전면에 나서고 있는 전쟁 상황으로, 저희도 전쟁을 하고 있다"며 "반도체 올케어를 위해 시간이 중요하다는 데 대해 깊이 공감한다"고 강조했다. 한편 경기도는 '반도체산업 경쟁력 강화 및 지원에 관한 특별법'(이하 반도체특별법) 제정을 앞둔 지난해 11월 '반도체특별법 대응 전담조직(TF)'을 가동해 특별법 제정 이후 달라질 정책 환경에 대응하기 위한 도 차원의 전략과 실행 과제를 논의해 왔다. 이후 지난달 29일 반도체특별법이 국회 본회의를 통과함에 따라 이를 '반도체 올케어(All-Care) 전담조직(TF)'으로 개편해 운영하기로 했다. 전담조직은 경제부지사를 단장으로 기획·기반조성·인력기술지원 등 3개 팀으로 구성돼 있으며, 차세대융합기술연구원 등 전문 자문기관과 연계해 현안을 전담 처리한다.

2026.02.27 17:23장경윤 기자

삼성 HBM4 자신감의 근원 '1c D램'…다음 목표는 수율 개선

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) 삼성전자가 AI 산업 인프라의 핵심 메모리인 6세대 HBM4(고대역폭메모리) 시장 경쟁에서 강한 자신감을 내보이고 있다. HBM의 핵심 기술요소에 경쟁사 대비 진일보된 공정을 사용하면서, 최대 고객사인 엔비디아(NVIDIA)가 요구하는 최고 성능을 가장 최적으로 달성했다는 평가가 나오고 있다. 특히 삼성전자는 코어 다이인 1c(6세대 10나노급) D램의 칩 사이즈를 키우는 결단을 내린 바 있다. 칩 사이즈가 커지면 D램 및 HBM4의 안정성을 동시에 높일 수 있다. 반면 이 같은 결정은 웨이퍼 당 생산 가능한 칩 수량을 줄어들기 때문에 수익성 측면에서는 불리하게 작용한다. 또한 1c D램의 수율이 아직 60% 내외인 만큼, 삼성전자가 최대한 빠르게 공정 고도화에 나서야 한다는 의견도 제기된다. 27일 업계에 따르면 삼성전자는 최근 엔비디아향 HBM4 선제 양산 출하와 더불어 1c D램 수율 고도화에 집중하고 있다. HBM4는 올해 본격적인 상용화가 예상되는 차세대 HBM이다. 엔비디아의 최신형 AI 가속기인 '루빈' 칩에 본격 채용되며, 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 증가한 2048개로 성능을 크게 높였다. 특히 엔비디아는 메모리 공급사에 HBM4에 요구되는 성능 기준을 꾸준히 높일 것을 요청해 왔다. 당초 국제반도체표준화기구(JEDEC)의 HBM4 성능 표준은 8Gbps 급이었으나, 최근 메모리 공급사는 이를 11.7Gbps까지 높여 엔비디아와 테스트를 진행한 바 있다. 삼성 HBM4 자신감의 근원 1c D램…"칩 사이즈 키워 안정화" 아직 정식 퀄테스트 일정이 최종적으로 완료된 것은 아니지만, 삼성전자는 내부적으로 HBM4 상용화에 강한 자신감을 보이고 있다. 지난 12일 HBM4 양산 출하식을 선제적으로 진행한 것이 대표적인 예시다. 당시 삼성전자는 "HBM4 개발 착수 단계부터 JEDEC 기준을 상회하는 성능 목표를 설정했다"며 "재설계 없이 양산 초기부터 안정적인 수율과 업계 최고 수준의 성능을 확보했다"고 강조했다. 이같은 자신감의 근간은 HBM4에 적용된 최선단 공정이다. 삼성전자는 HBM4 코어 다이에 경쟁사 대비 한 세대 앞선 1c D램을 채용했다. 또한 HBM의 컨트롤러 역할을 담당하는 베이스(로직) 다이를 자사 파운드리의 4나노미터(nm) 공정으로 양산했다. TSMC의 12나노 공정을 적용한 SK하이닉스 대비 상당히 미세화된 공정이다. 당초 업계는 삼성전자의 이같은 기술 승부수에 적잖은 우려를 나타냈다. HBM3E와 동일한 코어 다이(1b D램)를 HBM4에 탑재한 SK하이닉스·마이크론 대비, 수율 측면에서 안정성이 크게 떨어질 수 있어서다. 실제로 삼성전자는 1c D램 개발 초기 단계에서 수율 저조로 문제를 겪은 바 있다. 삼성전자의 돌파구는 1c D램의 '칩 사이즈 확대'였다. 삼성전자는 지난 2024년 말께 1c D램의 설계 일부를 수정하기로 결정했다. 핵심 회로의 선폭은 유지하되, 주변부 회로의 선폭 기준은 일부 완화해 양산 난이도를 낮춘 것이 주 골자다. 삼성전자 안팎의 이야기를 종합하면, 1c D램 사이즈 확대는 크게 두 가지 효과를 거뒀다. 먼저 1c D램의 수율 향상이다. 주변부 회로의 구현이 이전 대비 수월해지면서, 삼성전자의 1c D램 수율은 비교적 견조한 속도로 개선되고 있다. 업계가 추산하는 삼성전자의 HBM4용 1c D램 수율은 이달 기준 50~60%대다. 또한 칩 사이즈 확대로 HBM 제조에 필수적인 TSV(실리콘관통전극) 공정에서 안정성을 확보했다는 평가다. HBM4는 이전 대비 I/O 수가 늘어나면서 D램에 TSV 홀(구멍)을 더 많이 뚫어야 한다. 삼성전자 1c D램은 가용 면적이 넓어 TSV를 비교적 여유롭게 배치할 수 있는데, 이 경우 TSV 밀도를 완화해 열 관리와 신뢰성 확보에 용이하다. 반도체 업계 관계자는 "삼성전자가 HBM4의 적기 상용화를 위해 1c D램 칩 사이즈 확대 등 여러 안전 장치를 마련해 온 것으로 안다"며 "덕분에 내부적으로도, 고객사 기준으로도 HBM4에 대한 평가가 좋은 상황"이라고 설명했다. 수익성 측면은 다소 불리…수율 고도화 필요 다만 삼성전자 HBM4의 수익성이 경쟁사 대비 부족하다는 평가도 나온다. 통상 D램 공정이 고도화되면 칩 사이즈가 줄어들어, 동일한 웨이퍼에서 생산량이 더 많아진다. 그러나 삼성전자의 HBM4용 1c D램은 당초 계획 대비 칩 사이즈가 커져 수익성 측면에서 불리하다. 수율 역시 현재 기준으로는 HBM3E와 동일한 코어 다이를 활용하는 경쟁사 대비 낮을 수 밖에 없다. 여기에 각 D램을 쌓고 연결하는 패키징(TC-NCF; 열압착-비전도성 접착 필름)공정 적용 시 수율은 구조적으로 낮아지게 된다. 삼성전자가 HBM4에 적용한 4나노 공정의 가격도 TSMC 12나노 공정 대비 단가가 비싸다. 업계 관계자는 "삼성전자 HBM4에 적용된 코어 다이 및 베이스 다이의 원가 모두 경쟁사보다는 높기 때문에, 빠르게 수율을 높이는 것이 관건"이라고 말했다. 맥쿼리 증권도 최근 리포트를 통해 "삼성전자의 HBM 영업이익률은 낸드보다 낮은 50% 미만으로, 불리한 거래 조건과 낮은 생산 수율, 작은 생산규모로 인한 것"이라며 "추가적인 가격 인상과 수율, 규모 개선을 통해 HBM 마진을 높일 필요가 있다"고 평가했다.

2026.02.27 14:42장경윤 기자

SK하이닉스, 샌디스크와 'HBF' 글로벌 표준화 작업 본격 착수

SK하이닉스와 샌디스크(Sandisk)가 25일(현지시간) 미국 샌디스크 본사에서 'HBF 스펙(Spec.) 표준화 컨소시엄' 킥오프 행사를 열고, AI 추론 시대를 겨냥한 고대역폭플래시(HBF)의 글로벌 표준화 전략을 발표했다. SK하이닉스는 "샌디스크와 함께 HBF를 업계 표준으로 마련해 AI 생태계 전체가 함께 성장할 수 있는 기반을 구축하겠다"며 "오픈 컴퓨트 프로젝트(OCP) 산하에 핵심 과제 전담 워크스트림을 샌디스크와 함께 구성해 본격적인 표준화 작업에 착수한다"고 밝혔다. OCP는 세계 최대의 개방형 데이터센터 기술 협력체다. 워크스트림은 특정 기술 주제를 중심으로 운영되는 OCP 산하 협업 체계를 뜻한다. 최근 AI 산업은 거대언어모델(LLM)을 만드는 '학습(Training)' 단계에서, 실제 서비스를 제공하는 '추론(Inference)' 단계로 무게중심이 빠르게 이동하고 있다. AI 서비스를 동시에 사용하는 이용자가 급증하면서 빠르고 효율적인 메모리가 필수적이지만, 기존 메모리 구조만으로는 추론 단계에서 요구되는 대용량 데이터 처리와 전력 효율성을 동시에 충족하기 어렵다. 이러한 한계를 해결할 수 있는 대안으로 등장한 것이 HBF다. HBF는 초고속 메모리인 HBM과 대용량 저장장치인 SSD 사이에 위치하는 새로운 메모리 계층이다. HBM의 뛰어난 성능과 SSD의 대용량 특성 사이의 공백을 메우며, 추론 영역에서 요구되는 용량 확장과 전력 효율성을 동시에 확보한다. 기존 HBM이 최고 수준의 대역폭을 담당하는 가운데, HBF가 이를 보완하는 구조다. 특히 HBF는 AI 시스템의 확장성을 높이면서도 전체 운영 비용(TCO)을 줄일 수 있을 것으로 예상된다. 업계는 HBF를 포함한 복합 메모리 설루션에 대한 수요가 2030년 전후로 본격 확대될 것으로 보고 있다. AI 추론 시장에서는 단일 칩의 성능보다 CPU·GPU·메모리·스토리지를 아우르는 시스템 레벨 최적화가 경쟁력을 좌우한다. 이로 인해 HBM과 HBF를 모두 제공할 수 있는 종합 메모리 설루션 기업의 역할이 더욱 중요해지고 있다. SK하이닉스와 샌디스크는 HBM과 낸드 분야에서 쌓은 설계·패키징 기술과 대량 양산 경험을 바탕으로 HBF의 빠른 표준화, 제품화를 선제적으로 추진할 계획이다. 안현 SK하이닉스 개발총괄 사장(CDO)은 "AI 인프라의 핵심은 단일 기술의 성능 경쟁을 넘어, 생태계 전체를 최적화하는 것"이라며 "HBF 표준화를 통해 협력 체계를 구축하고, AI시대 고객·파트너를 위한 최적화된 메모리 아키텍처를 제시함으로써 새로운 가치를 창출하겠다"고 밝혔다.

2026.02.26 08:49장경윤 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 삼성전자 잠정실적 발표...기아 CEO 인베스터 데이 개최

7년전 개발된 '완벽진공' 시스템…"외산장악 반도체 공정 효자될까"

넥슨 '바람의나라', 30년 장기 흥행 비결은?

쇠고기 넘어 GPU·클라우드까지…美, 韓 첨단 디지털 산업 '통상 전선' 확대

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.