• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'메모'통합검색 결과 입니다. (380건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

삼성전자, SK하이닉스의 고대역폭메모리(HBM) 출하량이 올해에도 큰 폭의 성장을 이어갈 전망이다. 삼성전자의 경우 엔비디아와 브로드컴, AMD 등 고객사 수요로 출하량이 100억Gb(기가비트)를 넘길 것으로 관측된다. SK하이닉스는 최근 엔비디아향 HBM4에서 성능 논란을 겪었지만, 적정한 성능 선에서 제품을 공급하는 데 무리가 없을 것이라는 평가가 중론이다. 결과적으로 양사 모두 연초 설정했던 HBM 출하량 계획에서 큰 변동은 없을 것으로 보인다. 27일 업계에 따르면 삼성전자, SK하이닉스의 올해 HBM 출하량은 용량 기준 도합 300억Gb에 달할 전망이다. 삼성전자, HBM 출하량 100Gb 돌파 전망…HBM4 성과 두각 삼성전자는 올해 HBM 생산량을 지난해 대비 3배 이상 확대하겠다는 목표를 세우고 있다. 황상준 삼성전자 메모리개발담당 부사장은 지난 16일(현지시간) 미국에서 열린 'GTC 2026'에서 "HBM 생산을 빠르게 확대하고 있다. 올해는 지난해 대비 3배 이상 수준으로 늘릴 계획"이라고 밝힌 바 있다. 삼성전자의 지난해 총 HBM 출하량은 40억Gb 내외로 추산된다. 이를 고려하면 올해 출하량 목표치는 110억Gb 내외에 달할 전망이다. 실제로 삼성전자는 지난해 말께 올해 HBM 사업 전략을 구상하는 단계에서 이 같은 성장세를 자신한 것으로 전해진다. 당시 차세대 제품인 HBM4가 엔비디아로부터 긍정적인 피드백을 받았고, AMD와 브로드컴 등 타 고객사와의 공급 협의도 사실상 마무리 단계에 접어들어서다. 브로드컴은 구글, 오픈AI 등 빅테크의 AI 반도체를 위탁 생산하고 있다. 특히 엔비디아는 삼성전자 HBM4의 가장 큰 고객사가 될 전망이다. 삼성전자는 HBM의 코어 다이로 1c(6세대 10나노급) D램을, 컨트롤러 역할의 베이스 다이는 자사 파운드리 4나노미터(nm) 공정을 채택했다. 두 다이 모두 경쟁사 대비 공정이 고도화됐다. 이를 토대로 삼성전자는 엔비디아가 높인 HBM4 성능 기준을 가장 먼저 충족했다는 평가를 받았다. 당초 국제반도체표준화기구(JEDEC)가 정한 HBM4의 성능은 8Gbps급이었으나, 엔비디아는 이를 11.7Gbps 수준까지 요구했다. HBM3E 제품에서는 브로드컴이 가장 큰 고객사로 꼽힌다. 구글은 자체 제작한 AI 반도체 TPU(텐서처리장치)에 HBM을 탑재하고 있으며, 올해는 HBM3E 기반의 v7p 버전의 물량을 크게 확대할 것으로 알려졌다. 반대로 삼성전자의 HBM 출하량이 더 늘어날 가능성은 높지 않다는 평가다. 올해 말까지 삼성전자가 확보 가능한 1c D램의 생산능력은 월 13만장 수준이다. 이 중 대부분이 HBM에 할당된 상태로, 추가적인 생산능력 확보가 어려운 상황인 것으로 관측된다. SK하이닉스, 성능 논란 속에서도 당초 출하량 계획 변동 無 SK하이닉스의 올해 HBM 출하량은 전년(120억Gb 수준) 대비 60%가량 증가한 200억Gb 내외에 달할 전망이다. 이 중 3분의 2가량이 엔비디아에 할당된 것으로 파악된다. 상반기에는 HBM3E를 주력으로 공급하고, 하반기부터 HBM4 공급량이 확대될 예정이다. 최근 SK하이닉스는 엔비디아향 HBM4 공급에 차질이 생길 수 있다는 우려에 휩싸인 바 있다. 엔비디아가 상향 조정한 HBM4 성능을 만족시키기 어렵다는 이유에서다. SK하이닉스의 HBM4는 코어다이로 1b(5세대 10나노급) D램을, 베이스다이로 TSMC의 12나노 공정을 채택했다. 삼성전자 대비 레거시(성숙) 공정에 해당한다. 실제로 SK하이닉스의 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 난항을 겪었다. 코어 다이 최상부층까지 전력이 제대로 도달되지 않는 문제가 가장 큰 요인으로 지목된다. 이에 SK하이닉스는 일부 회로를 수정하는 방안으로 개선 작업을 진행해 왔다. 다만 SK하이닉스가 당초 계획한 엔비디아향 HBM 공급량에 변동이 생길 가능성은 극히 적은 것으로 관측된다. 엔비디아가 HBM4의 성능을 최대 11.7Gbps까지 요구하기는 했으나, 10Gbps 등 하위 성능의 제품도 동시에 수급하기 때문이다. 최상위 제품만 도입하는 경우 최첨단 최신 AI 칩인 '베라 루빈'을 충분히 양산하지 못할 수 있어, 이 같은 전략을 짠 것으로 풀이된다. 곽노정 SK하이닉스 사장도 최근 열린 SK하이닉스 정기 주주총회 현장에서 "고객사와의 협의로 약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다"고 밝힌 바 있다. 반도체 업계 관계자는 "HBM4가 상용화 시점에 접어들면서 다양한 성능, 고객사 관련 이슈들이 떠오르고 있으나, 삼성전자와 SK하이닉스 모두 당초 계획했던 HBM 출하량 변동에서 큰 조정은 없는 상황"이라며 "HBM 총 공급능력이 수요를 크게 밑도는 수준이라, 결국 양사 제품이 무난하게 잘 팔릴 것이라는 게 중론"이라고 설명했다.

2026.03.27 11:07장경윤 기자

[안광섭의 AI 진테제] 메모리 주식 흔든 구글 '터보퀀트'

지난 수요일 미국 증시에서 흥미로운 장면이 연출됐다. 나스닥 100이 상승하는 와중에 메모리 반도체 주식만 역행했다. 샌디스크 -5.7%, 웨스턴 디지털 -4.7%, 씨게이트 -4%, 마이크론 -3%. 방아쇠를 당긴 건 구글 리서치가 공개한 터보퀀트(TurboQuant)라는 압축 알고리즘이다. 'AI가 메모리를 덜 쓰게 해주는 기술'이라는 헤드라인만 보면 메모리 업체들에게 악재처럼 보인다. 그런데 이 기술이 실제로 줄이는 것은 GPU 위의 임시 기억 공간이지, 서버에 꽂히는 HBM(High Bandwidth Memory)이나 DRAM 모듈이 아니다. 시장이 읽은 신호와 기술이 말하는 신호 사이에 간극이 있고, 그 간극 너머에는 AI 하드웨어 전체에 걸친 더 큰 질문이 놓여 있다. 터보퀀트가 실제로 하는 일 AI가 대화를 이어갈 때, 앞에서 한 말을 기억하려면 KV 캐시(Key-Value Cache)라는 임시 메모리에 정보를 저장해야 한다. 대화가 길어질수록 이 메모리는 기하급수적으로 늘어나고, AI 서비스 비용을 끌어올리는 주범 중 하나다. '터보퀀트'는 이 임시 기억을 최대한 작게 압축하면서도 내용을 거의 그대로 유지하는 알고리즘이다. 추가 학습이나 파인튜닝(fine-tuning, 특정 분야 추가 학습)이 필요 없다. 핵심은 2단계 구조다. 1단계인 폴라퀀트(PolarQuant)는 데이터에 무작위 회전을 적용해 값들의 분포를 균일하게 만든다. 크기가 제각각인 짐을 한번 뒤섞어 비슷한 규격으로 정리하는 것과 비슷하다. 이렇게 하면 동일한 상자에 효율적으로 담을 수 있다. 2단계인 QJL(양자화된 존슨-린덴스트라우스)은 1차 압축 이후 남은 잔여 오차를 단 1비트로 한 번 더 보정한다. 논문에 따르면, 이 2단계 접근법 덕분에 3.5비트에서 원래 모델과 사실상 동일한 품질을 유지하고, 10만 4천 토큰 길이의 테스트에서도 100% 정확도를 보였다. 압축률은 4.5배 이상이다. 다만 짚어야 할 대목이 있다. 구글 블로그에서 강조한 '최대 8배 속도 향상'은 어텐션 로짓 연산이라는 특정 단계에서의 수치다. 전체 추론 처리량의 8배가 아니다. '6배 메모리 축소'도 블로그와 논문 사이에 미세한 차이가 있다. 논문은 좀 더 보수적으로 '4.5배 이상'이라고 표현한다. 수치가 발표 채널에 따라 다르게 포장되는 것은 기술 뉴스를 읽을 때 늘 주의해야 할 부분이다. 시장의 논리, 그리고 그 한계 시장의 추론은 단순했다. AI가 메모리를 6분의 1만 써도 된다면 메모리 수요가 줄어드는 것 아닌가? 올해 메모리 주식들이 워낙 많이 올랐기 때문에 차익 실현의 구실이 필요했던 측면도 있다. 그러나 한 발짝 뒤로 물러서면, KV 캐시와 HBM은 같은 '메모리'라는 단어를 쓰지만 작동하는 층위가 다르다는 점이 보인다. KV 캐시는 LLM(대규모 언어 모델)이 대화 중 이전 계산을 저장하는 GPU 위의 임시 공간이다. 반면 HBM 수요는 모델의 훈련과 추론 전체에 걸친 대역폭 병목에서 발생한다. 트렌드포스(TrendForce)에 따르면 2026년 HBM 수요는 전년 대비 70% 이상 증가할 전망이고, 뱅크오브아메리카(BofA)는 올해 HBM 시장 규모를 약 546억 달러(전년 대비 58% 성장)로 추정한다. SK하이닉스, 삼성, 마이크론 모두 2026년 HBM 물량은 사실상 완판 상태라고 밝히고 있다. 비유하자면 이렇다. '터보퀀트'는 사무실 책상 위의 메모 정리법을 개선한 것이고, HBM 수요는 건물 자체에 더 많은 사무실이 필요한 것이다. 메모 정리가 잘 된다고 건물 수요가 줄지는 않는다. 오히려 한 사무실에서 더 많은 일을 처리할 수 있으니 건물을 더 짓고 싶어질 수도 있다. 건설에서 최적화로, 국면 전환 신호 필자가 '터보퀀트' 자체보다 더 흥미롭게 보는 것은 이 뉴스에 시장이 반응한 방식이다. 메모리 주식만의 이야기가 아니기 때문이다. 좀 더 넓게 보면 지금 AI 하드웨어 스택 전체가 같은 질문을 받고 있다. 엔비디아는 2026 회계연도에 매출 2159억 달러, 순이익률 약 56%라는 전례 없는 실적을 기록했지만, 주가는 지난해 10월 고점 대비 약 15% 낮은 수준에서 움직이고 있다. 마이크론도 이틀 전 역대 최고 분기 실적(매출 238억6000만 달러, 매출총이익률 74.4%)을 발표했지만, 시장의 관심은 "250억 달러 이상의 설비투자를 감당할 수 있느냐"에 쏠렸다. GPU도 빠지고, DRAM도 빠지고, NAND 스토리지도 빠지고 있다. 시장이 묻고 있는 진짜 질문은 "이 속도의 인프라 투자가 지속 가능한가?"다. 마이크로소프트, 메타, 알파벳, 아마존 4사의 2026년 설비투자 가이던스 합산이 약 6500억 달러에 달한다. 인류 역사에서 단일 목적에 투입된 민간 자본 중 가장 큰 규모에 속한다. GTM(Go-To-Market) 전략 관점에서 보면, 모든 기술 인프라 사이클에는 '건설 국면'과 '최적화 국면'이 있다. 건설 국면에서는 "일단 깔아라"가 전략이다. 최적화 국면에서는 "깔아놓은 것의 효율을 어떻게 극대화할 것인가"가 전략이 된다. 터보퀀트, 엔비디아가 같은 'ICLR 2026(International Conference on Learning Representations, 4월 23일 ~ 4월 27일)'에서 발표할 KVTC(KV Cache Transform Coding, 최대 20배 압축), 하이퍼스케일러들의 자체 칩 개발, 이 모든 움직임은 최적화 국면의 신호다. 그렇다고 이것이 약세 신호인가. 필자는 아니라고 본다. 최적화 국면은 성장의 끝이 아니라 성장이 성숙해지는 과정이다. 다만 시장이 가격에 반영하는 방식이 달라질 뿐이다. 건설 국면에서는 "다 사라"였다면, 최적화 국면에서는 누가 이 효율화의 수혜자이고 누가 비용을 부담하는가를 가려야 한다. 핵심은 시간 축 구분 '터보퀀트' 같은 소프트웨어 최적화가 하드웨어 수요 증가 속도에 영향을 줄 수 있는 것은 2027년 이후의 이야기다. 2026년의 메모리 공급 부족은 물리적인 팹 건설과 수율의 문제이고, 알고리즘으로 해결되는 영역이 아니다. 시장이 이 두 가지 시간 축을 혼동할 때, 그것이 곧 기회이기도 하고 리스크이기도 하다. 터보퀀트 원본 논문(https://arxiv.org/abs/2504.19874)은 2025년 4월 28일에 공개됐다. 약 1년 전 제안된 기술이 학회 발표를 앞두고 재조명되면서 시장을 흔든 것이다. 기술 자체는 새롭지 않았지만, 시장이 읽는 타이밍은 달랐다. 정리하면 이렇다. 터보퀀트는 AI 추론 효율을 한 단계 끌어올리는 의미 있는 기술이다. 그러나 메모리 주식이 빠진 이유는 이 기술 하나가 아니라, AI 하드웨어 스택 전반에 걸친 '건설에서 최적화로'의 국면 전환 신호를 시장이 읽기 시작했기 때문이다. 기술 층위를 이해하고 시간 축을 구분할 수 있다면, 변동성 속에서 더 나은 판단을 내릴 수 있다. 지금 필요한 것은 공포도 낙관도 아닌, 어떤 메모리가 줄고 어떤 메모리가 느는지를 가려내는 눈이다. ■ 필자 안광섭은... 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA 기술경영전문대 석사과정을 졸업했다. 저술한 책으로 '생각을 맡기는 사람들: 호모 브레인리스'가 있다.

2026.03.26 19:20안광섭 컬럼니스트

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

곽노정 SK하이닉스 "순현금 100조 확보해 장기적 전략 투자 집행"

SK하이닉스가 고대역폭메모리(HBM) 등 AI 메모리 수요에 적기 대응하기 위한 준비에 나선다. 중장기적으로 안정적인 투자를 집행하기 위해 순현금 100조원 이상을 확보하는 것이 목표다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 기존 메모리 수요는 IT 업황에 따라 하락과 상승을 반복하는 '사이클' 현상을 반복해왔다. 그러나 전세계 AI 기업들의 공격적인 인프라 투자에 따라, 고성능 AI 메모리 수요가 구조적인 공급 부족 현상에 직면할 수 있다는 시각이 제기되고 있다. 이에 SK하이닉스도 업황에 따라 설비투자 규모를 축소 및 확대하는 것이 아닌, 중장기적으로 안정적인 투자를 집행할 수 있는 재무건전성 확보에 나선다. 곽 사장은 "고객사 수요에 맞춰 안정적으로 투자를 집행할 수 있는 재무 건전성을 확보하는 것이 반드시 필요하다"며 "이에 회사는 순현금 100조원 이상을 확보하고자 한다. 이를 통해 어떠한 환경에서도 장기적이고 전략적으로 필요한 투자를 집행할 것"고 밝혔다. 이와 관련, SK하이닉스는 최첨단 메모리 생산능력 확대를 위한 투자를 적극 진행하고 있다. 올해 청주 M15X 팹 구축을 완료해 설비를 도입할 계획이며, 용인 대규모 반도체 클러스터 구축도 적극 추진 중이다.

2026.03.25 11:24장경윤 기자

삼성전자·SK하이닉스 "Arm과 함께 AGI CPU 생태계 구축"

[샌프란시스코(미국)=권봉석 기자] 삼성전자와 SK하이닉스 등 국내 메모리 반도체 선두기업이 24일(현지시간) Arm과 협력해 AI 생태계 확대를 지원하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 완제품 CPU 첫 제품인 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스'를 활용해 설계된 첫 완제품 CPU다. 메모리는 DDR5-8800까지 지원하며 메모리 대역폭은 코어당 최대 6GB/s로 지연시간을 최소화했다. 이날 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 "AGI CPU는 주요 메모리 제조사와 협업 없이 구현이 불가능했다"고 설명했다. 전영현 삼성전자 DS부문장(부회장)은 영상 메시지에서 "AI 워크로드가 증가함에 따라, 성능 향상은 로직, 메모리, 첨단 패키징 기술 전반에 걸친 긴밀한 공동 최적화에 더욱 크게 좌우된다"고 밝혔다. 이어 "Arm AGI CPU와 같은 목적에 맞게 설계된 AI 컴퓨팅 플랫폼은 실리콘 설계, 메모리 통합, 첨단 공정 기술을 활용한 제조 혁신 전반에서 보다 긴밀한 협력을 가능하게 한다. 이는 AI 에코시스템에 있어 중요한 이정표가 될 것"이라고 덧붙였다. 곽노정 SK하이닉스 사장은 "AI 데이터센터가 발전함에 따라, AI 워크로드에 최적화된 플랫폼에는 최신 애플리케이션에 필요한 용량과 대역폭을 제공하는 첨단 메모리 기술이 필수적"이라고 밝혔다. 이어 "Arm AGI CPU를 통한 목적에 맞게 설계된 AI 컴퓨팅의 도입은 에코시스템에 있어 중요한 이정표가 될 것이다. 앞으로도 차세대 AI 인프라 발전을 위한 Arm과 파트너십이 지속되길 기대한다"고 말했다.

2026.03.25 09:03권봉석 기자

삼성전자 노사 교섭 재개…총파업 위기 해결 실마리 찾나

최근 깊어진 삼성전자 노사갈등이 잠시 소강 상태에 접어들 전망이다. 삼성전자노동조합 공동투쟁본부(이하 노조)는 사측과 교섭을 재개하기로 결정했다고 24일 밝혔다. 노사는 25일 실무교섭, 26~27일 집중교섭을 진행할 예정이다. 노조는 "오늘(24일) 오후 2시 노사 미팅을 했고, 사측은 OPI 제도 성과급 투명화 및 상한 폐지를 포함해 논의하자는 입장을 밝혔다"며 "교섭은 교섭대로, 투쟁은 투쟁대로 공동투쟁본부는 두 방향 모두 최선을 다하겠다"고 설명했다. OPI는 삼성전자의 대표적 성과급 제도다. 회사 실적이 목표를 초과할 경우 초과 이익의 20% 범위에서 연봉의 최대 50%까지 지급한다. 그간 노조는 OPI 폐지를 주요 요구사항으로 제시해왔으나, 사측은 이를 받아들이지 않았다. 이에 노조는 임금교섭 쟁의행위 찬반투표로 쟁의권을 확보했다. 다음달 23일 집회를 거쳐 5월 총파업에 돌입할 계획이다. 업계는 노조 파업이 현실화하면 삼성전자의 메모리 사업에 차질이 생길 것으로 우려해 왔다. 24시간 설비 가동과 유지보수가 필요한 메모리 산업 특성 상, 엔지니어가 장기간 부재할 경우 가동이 중단되는 사태가 발생할 수 있다.

2026.03.24 17:01장경윤 기자

삼성전자, 올해 시설·R&D 투자에 110조원 이상 투입..."AI 주도권 확보"

삼성전자가 올해 시설 및 연구개발(R&D)에 110조원 이상의 대규모 자금을 투자한다. 전년 대비 20조원 가량 증가한 규모로 AI 반도체 시대의 주도권 확보에 적극적으로 나서고 있다. 19일 삼성전자는 기업가치제고계획(밸류업) 공시를 통해 올해 사업 계획을 공개했다. 삼성전자는 "메모리, 파운드리, 선단 패키징을 모두 갖춘 '원-스톱 솔루션'이 가능한 세계 유일의 반도체 회사로서 AI 반도체 시대에 주도권을 확보하겠다"는 목표를 세웠다. 세부적으로 고대역폭메모리(HBM) 등 고부가 메모리 시장에서 업계 내 확고한 위상을 확보하고, 지속적으로 초격차를 유지할 계획이다. 또한 AI 및 첨단로봇 등 미래형 사업 구조로 사업을 재편해 중장기 성장 모멘텀을 확보하고자 하고 있다. 이를 위한 계획으로, 삼성전자는 올해 총 110조원 이상의 시설 및 R&D 투자를 집행한다. 전년 대비 20% 이상 증가한 규모다. 앞서 삼성전자는 지난해 시설 및 R&D 투자에 90조4000억원(시설투자 52조7000억원, R&D 37조7000억원)을 투자한 바 있다. 또한 첨단로봇, 메드테크, 전장, HVAC 등 미래 성장 분야에서 의미있는 규모의 M&A를 추진한다. 한편 올해 주주환원 정책에 대해서는 "3년간 총 잉여현금흐름의 50% 중에서 2024~2025년 주주환원 및 2026년 정규배당(9조8000억원) 이후에도 잔여재원 발생시 추가로 환원하겠다"는 계획을 세웠다.

2026.03.19 17:26장경윤 기자

美 마이크론, 첫 5년 공급계약 따냈다…삼성·SK도 계약 준비

세계 3위 메모리 반도체 기업인 미국 마이크론이 창사 이후 처음으로 주요 고객사와 5년에 달하는 장기 공급 계약을 체결한 것으로 나타났다. 그간 메모리 산업은 분기, 혹은 최대 1년 수준의 공급계약 체결이 일반적이다. 그러나 전세계 AI 인프라 투자로 메모리 공급난이 극심해지면서, 수년 간의 물량 및 가격을 보장받으려는 고객사 수요가 늘어나고 있다. 삼성전자, SK하이닉스 등 국내 메모리 업계도 글로벌 빅테크 기업들과 이미 3~5년 간의 장기 공급 계약을 추진 중인 것으로 파악된다. 마이크론, AI 수요로 D램·낸드 모두 '어닝 서프라이즈' 마이크론은 18일(현지시간) 회계연도 2026년 2분기(2월 종료) 매출액 238억6000만 달러, 영업이익 164억4000만 달러를 기록했다고 밝혔다. 이는 사상 최대 분기 매출이며 전년동기 대비 196.3%, 전분기 대비 74.9% 증가한 수치이다. 영업이익은 각각 719.9%, 156.3% 급증했다. 증권가 컨센서스(매출 197억 달러, 영업이익 121억 달러) 또한 크게 상회했다. 마이크론은 주요 사업군인 D램과 낸드에서 모두 견조한 성장을 거뒀다. 해당 기간 D램과 낸드의 평균판매가격(ASP)은 전분기 대비 각각 60% 중반, 70% 후반대로 증가했다. 다음 분기 전망치도 긍정적이다. 회사가 제시한 매출 가이던스는 중간값 기준 335억 달러로, 컨센서스인 236억6000만 달러를 앞섰다. 이번 호실적은 AI 인프라 투자 확장으로 서버용 D램, eSSD(기업용 SSD) 등 고부가 메모리 수요가 폭증한 데 따른 효과로 풀이된다. 반면 메모리 제조업체의 생산능력 확대는 제한적인 상황으로, 극심한 공급난을 부추기고 있다. 메모리 산업지형 변화…삼성·SK도 3~5년간 장기공급 계약 추진 이에 마이크론은 메모리 사업에서 중요한 변곡점을 맞았다. 단기적인 수요·공급 구조에서 벗어나, 고객사와의 연간 단위의 장기 계약에 따른 주문 생산 방식으로 나아가고 있다. 마이크론은 "당사는 처음으로 5년짜리 전략적 고객 계약(SCA) 체결을 완료했다"며 "이는 기존 장기계약과 달리 수년간의 구체적인 약정을 포함해 사업 가시성과 안정성을 높이는 구조"라고 강조했다. 삼성전자·SK하이닉스 등 국내 메모리 업계도 이미 비슷한 동향을 보이고 있다. 전영현 삼성전자 부회장은 18일 정기 주주총회 현장에서 "고객사들과의 공급 계약을 분기, 연 단위가 아닌 3~5년간의 다년 공급 계약으로 전환하는 것을 추진하고 있다"고 밝힌 바 있다. SK하이닉스 역시 수년 간의 장기 공급을 논의 중인 것으로 알려졌다. 사안에 정통한 관계자는 "SK하이닉스가 글로벌 빅테크 기업들과 최소 3년 단위의 D램 공급 계약을 논의하고 있는 것으로 안다"며 "체결 시 공급 규모나 구체적인 계약 조건 등이 나오게 될 것"이라고 설명했다.

2026.03.19 09:03장경윤 기자

삼성전자 노조 총파업 가시화…화성·평택 등 반도체 생산 차질 우려

삼성전자 노조가 압도적인 찬성률로 쟁의권(파업권)을 확보하면서, 오는 5월 총파업이 가시화됐다. 실제 파업 시 삼성전자의 주력 사업인 메모리는 물론, 파운드리 부문도 생산 차질이 불가피할 것으로 전망된다. 18일 업계에 따르면 삼성전자노동조합 공동투쟁본부(이하 노조)의 2026년 임금교섭 쟁의행위 찬반투표는 찬성률 93.1%로 가결됐다. 노조, 쟁의행위 투표 압도적 찬성률…5월 총파업 예고 앞서 노조는 초과이익성과급(OPI) 상한제(초과 이익의 20% 범위에서 연봉의 최대 50%) 폐지 등을 위해 지난 9일부터 이날까지 쟁의행위 찬반투표를 실시한 바 있다. 소속된 3개 노조 재적 조합원은 약 9만명으로, 이 중 6만6019명이 투표에 참여(참여율 73.5%)했다. 이 중 6만1456명이 찬성했다. 노조는 "이번 찬반투표의 압도적 결과를 조합원의 엄중한 명령으로 받아들인다"며 "이는 삼성전자 노동자 절대다수가 현 사측 제시안이 '인재제일' 경영원칙에 부합하지 않음을 분명히 선언한 것이며, 요구 관철을 위해 행동에 나서라는 경영진을 향한 강력한 경고"라고 밝혔다. 이에 따라 노조는 오는 4월 23일 집회를 거쳐 5월 총파업에 돌입한다는 계획이다. 내일(19일) 이와 관련한 제1호 지침이 선포될 예정이다. 파업 장기화 시 메모리·파운드리 전 분야서 생산 차질 불가피 업계는 파업이 현실화될 경우 삼성전자 반도체 사업에 미칠 악영향을 우려하고 있다. 현재 삼성전자는 엔비디아향 고대역폭메모리(HBM) 공급 본격화와 더불어 AI 투자 활황에 따른 고부가 D램, 낸드 생산 비중을 적극 확대하고 있다. 또한 파운드리 사업부는 국내외 고객사 확보에 따라 4나노 이상 공정을 중심으로 가동률 회복세를 기록하고 있다. 엔비디아도 어제 'GTC 2026' 행사에서 차세대 AI 가속기인 '베라 루빈'과 결합하는 그록의 언어처리장치(LPU) '그록3 LPU'를 삼성 파운드리에서 양산하겠다고 밝힌 바 있다. 이러한 상황에서 삼성전자의 주요 공장 가동에 차질이 생길 경우, 메모리 및 파운드리 사업 모두 적잖은 타격을 받을 수 밖에 없다. 특히 평택은 삼성전자의 최선단 공정이 집중돼있어, 파급력이 더 크다는 분석이다. 노조 관계자는 "노조의 투쟁 지침은 전 사업장에서 파업을 진행하는 것이고, 그 중에서도 집회 등의 활동을 평택 사업장에서 진행할 계획"이라며 "예컨데 평택 사업장은 직원 수가 1만4000명인데, 조합원 수가 1만1000명 이상이기 때문에 생산 차질이 불가피할 것"이라고 말했다. 반도체 업계 관계자는 "기본적으로 공장 가동이 멈추지는 않겠지만, 파업이 장기화되면 설비 에러나 유지보수 관리가 어려워 설비가 하나씩 멈추게 되는 상황이 발생할 수 있다"며 "노사 갈등이 얼마나 빨리 해결되는지가 관건"이라고 설명했다. 다만 삼성전자 안팎의 이야기를 종합하면, 당장의 노사 갈등 해결은 쉽지 않은 상황이다. 사안에 정통한 관계자는 "삼성전자 경영진 측에서는 성과급 한도 폐지 시 향후 중장기적으로 소요될 비용이 너무 크다고 판단하고 있다"며 "경쟁사가 올해에도 매우 막대한 규모의 성과급 지급이 사실상 확실시된 만큼, 노조와 사측 모두 합의점을 찾기가 쉽지 않아 보인다"고 밝혔다.

2026.03.18 16:46장경윤 기자

SK하이닉스, 2030년 '자율형 팹' 구축 추진…"AI로 제조 혁신"

SK하이닉스가 AI 메모리 수요에 적기 대응하기 위해 자율형 팹 구축을 추진한다. 해당 팹은 고도의 AI 기술을 기반으로 공장이 스스로 학습 및 의사 결정을 수행해 설계부터 양산까지의 전환 속도를 크게 줄이는 것이 목표다. 도승용 SK하이닉스 부사장(DT 부문장)은 17일(현지시간) 오전 미국 새너제이에서 열린 엔비디아 'GTC 2026'에서 이같이 밝혔다. 이날 '빌딩 더 퓨처 오브 매뉴팩처링(Building the Future of Manufacturing)'을 주제로 패널 토론에 참여한 도 부사장은 "AI 수요 급증에 대응하는 과정에서 생산능력 확대와 제조 혁신이라는 이중 과제에 직면해 있다"고 설명했다. 반도체 수요는 빠르게 증가하지만, 제조는 같은 속도로 확장되기 어려운 구조적 한계 때문이다. 동시에 제조 환경도 빠르게 복잡해지고 있다. 고대역폭메모리(HBM) 등 고부가가치·맞춤형 제품 비중이 확대되며 팹 운영 난이도가 상승했고, 품질·비용·속도 간 균형을 맞추는 의사결정은 더 어려워졌다. SK하이닉스는 이를 해결하기 위해 2030년을 목표로 '자율형 팹'(Autonomous FAB) 구축을 추진 중이다. 공장이 스스로 학습하고 의사결정을 수행해, 설계부터 양산까지의 전환 속도를 획기적으로 단축하는 것이 주 골자다. SK하이닉스의 자율형 팹은 오퍼레이셔널(Operational) AI·피지컬(Physical) AI·디지털 트윈(Digital Twin) 세 축으로 구성된다. 오퍼레이셔널 AI는 공장의 '두뇌'로, 엔지니어의 판단과 노하우를 데이터 기반으로 구현해 의사결정에 활용한다. 이를 통해 설비 유지보수, 결함 분석 등에서 처리 시간을 50% 이상 단축했다는 게 도 부사장의 설명이다. 피지컬 AI는 공장의 '실행 체계'로, 기존 자동화를 고도화하고 사람 의존 영역까지 확대하는 개념이다. 도 부사장은 "반도체 웨이퍼 이송 장치(OHT) 등 이송 시스템을 AI와 연계해 지능화하고, 비전 기반 로봇과 자율주행 물류로봇(AMR)을 활용해 물류 효율과 안전성을 높이며 부품 재고를 약 30% 절감하는 효과를 기대한다"고 밝혔다. 디지털 트윈은 시뮬레이션 환경으로, 엔비디아 옴니버스(NVIDIA Omniverse) 기반으로 실제 팹을 가상 공간에 구현한다. 이를 통해 생산 흐름, 자재 이동, 레이아웃 등을 사전 검증하고, 생산 중단 없이 시뮬레이션·AI 학습·운영 최적화를 수행하고 있다. SK하이닉스는 "세 축을 유기적으로 결합해 보다 빠르고 유연한 차세대 제조 체계를 구축할 계획"이라고 밝혔다.

2026.03.18 14:57장경윤 기자

SK하이닉스, 작년 설비투자 30조…메모리 호황에 '사상 최대'

SK하이닉스가 지난해 설비투자(CAPEX)에 30조원 이상을 투입했다. 역대 최대 수준으로, 고대역폭메모리(HBM) 등 인공지능(AI) 메모리 생산능력 확대에 집중한 데 따른 효과로 풀이된다. 17일 SK하이닉스는 2025년도 사업보고서에서 지난해 설비투자에 30조1730억원을 투입했다고 밝혔다. 이는 전년비 68% 증가한 규모다. 앞서 SK하이닉스는 2024년 17조9560억원 규모 투자를 집행한 바 있다. SK하이닉스의 투자 규모 확대는 청주 M15X, P&T(패키징&테스트) 팹 등 신규 팹 추가와 최선단 메모리 생산능력 확대를 위한 전환투자를 활발히 진행한 결과로 풀이된다. 현재 반도체 산업은 전세계 IT 기업의 공격적인 AI 인프라 투자로 전례없는 호황을 맞았다. AI 가속기에 필요한 HBM을 비롯해, 서버용 D램과 eSSD(기업용 SSD) 수요가 크게 증가했다. 범용 메모리 재고 수준도 덩달아 낮아졌다. SK하이닉스는 반도체 호황 지속에 따라 올해도 설비투자 규모를 크게 확대할 계획이다. M15X와 P&T팹의 설비 도입 외에도, SK하이닉스는 용인 1기 팹 건설과 미국 인디애나주 신규 팹 설립 등 국내외 투자 프로젝트를 추진 중이다. 앞서 SK하이닉스는 지난 1월 2025년 4분기 실적발표 컨퍼런스콜에서 "올해 투자 규모는 전년비 상당 수준 증가를 예상한다"며 "다만 설비투자 원칙(투자 규모가 연 매출액 대비 최대 30% 중반 수준을 넘지 않는 것)을 지속 준수하겠다"고 밝힌 바 있다.

2026.03.17 17:14장경윤 기자

삼성전자, 엔비디아 '4나노' 새 추론 칩 만든다

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자 파운드리와의 협력을 공식적으로 언급했다. 엔비디아의 최신형 AI 가속기 '베라 루빈' 기반 시스템과 결합되는 그록(Groq)의 언어처리장치(LPU)를 삼성 파운드리에서 양산하는 구조다. 젠슨 황 CEO는 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 AI 칩 생산 파트너를 소개하는 과정에서 "삼성전자가 그록3 LPU 칩을 제조하고 있다"고 밝혔다. 그록은 엔비디아가 지난해 말 약 29조원을 들여 우회 인수한 팹리스 스타트업이다. 거대언어모델(LLM)의 추론 작업 속도를 높이는 LPU를 전문으로 개발해 왔다. 그록3 LPU는 이 기업의 최신 칩으로, 4나노미터(nm) 공정 기반으로 알려졌다. 젠슨 황 CEO는 "삼성이 우리를 위해 그록3 LPU 칩을 제조하고 있다. 지금 가능한 한 최대한 빠르게 생산을 늘리고 있다"며 "삼성에게 정말 감사드린다"고 강조했다. 그록3 LPU는 현재 양산 단계에 들어갔다. 젠슨 황 CEO가 예상한 출하 시점은 오는 3분기다. 이번 발언은 삼성 파운드리가 엔비디아의 차세대 AI 칩 생산에 참여하고 있음을 공개적으로 언급한 것으로, AI 반도체 공급망에서 양사의 협력이 긴밀하게 이어지고 있음을 보여주는 대목으로 평가된다. 또한 삼성전자는 지난 2월 엔비디아향 HBM4(6세대 고대역폭메모리) 양산 출하를 공식 발표한 바 있다. 이를 통해 삼성전자는 엔비디아 AI 생태계 확장을 위한 메모리·파운드리 공급사로서 협력 영역을 더 확장할 수 있게 됐다.

2026.03.17 09:34장경윤 기자

SK하이닉스, 엔비디아와 AI 메모리 협력…최태원·곽노정 출동

SK하이닉스가 고대역폭메모리(HBM)를 비롯한 인공지능(AI) 메모리 제품군을 엔비디아 연례 행사 'GTC(GPU Technology Conference) 2026'에서 공개한다. 최태원 SK 회장, 곽노정 SK하이닉스 최고경영자(CEO) 등이 직접 참석해, 글로벌 빅테크 기업들과 중장기 협력 방안을 논의할 계획이다. SK하이닉스는 16~19일(현지시간) 미국 캘리포니아주 새너제이에서 열리는 GTC 2026에 참가한다고 17일 밝혔다. SK하이닉스는 "AI 학습과 추론 분야에서 데이터 병목을 최소화하고 성능을 극대화할 수 있는 메모리 제품을 엔비디아 AI 인프라에 탑재했다"며 "이번 행사에서 엔비디아와 파트너십을 기반으로 AI 시대 핵심 인프라인 메모리 기술 경쟁력을 선보이겠다"고 말했다. SK하이닉스는 이번 행사에서 '스포트라이트 온 AI 메모리'(Spotlight on AI Memory)를 주제로 전시 공간을 구성해 AI 메모리 기술과 설루션을 소개한다. 전시관은 ▲엔비디아 협업 존 ▲제품 포트폴리오 존 ▲이벤트 존 등으로 구성된다. 관람객이 AI 메모리 기술을 직관적으로 이해하도록 체험형 콘텐츠 중심으로 운영한다. 전시장 입구에 위치한 '엔비디아 협업 존'은 SK하이닉스와 엔비디아의 협업 성과를 집약적으로 보여주는 핵심 공간이다. 회사는 이곳에서 HBM4와 HBM3E, SOCAMM2 등 SK하이닉스의 메모리 제품들이 엔비디아의 다양한 AI 플랫폼에 실제 적용된 사례를 중심으로, GPU 기반 AI 가속기에 탑재된 메모리 구성을 모형과 실물 형태로 구현한다. 엔비디와와 협업해 만든 액체 냉각식 eSSD를 비롯해 회사의 LPDDR5X가 탑재된 엔비디아의 AI 슈퍼컴퓨터 'DGX 스파크(Spark)'도 함께 전시한다. '제품 포트폴리오 존'에서는 AI 인프라 핵심인 HBM4와 HBM3E를 비롯해, 고용량 서버용 D램 모듈과 LPDDR6, GDDR7, eSSD, 자동차용 메모리 솔루션 등 AI 시대를 겨냥한 메모리 제품 라인업을 볼 수 있다. SK하이닉스는 GTC 2026 기간 동안 글로벌 AI 산업 현장 흐름에 맞는 협력 방향을 모색할 계획이다. 최태원 SK그룹 회장을 비롯해 곽노정 SK하이닉스 CEO 등 주요 경영진은 글로벌 빅테크 기업들과 만나 AI 기술 발전과 인프라 구조 변화에 대한 인사이트를 공유하고, 중장기 협력 방안을 논의할 예정이다. 기술 세션에서 AI 기반 제조업 발전 방향과 고성능 AI 구현을 위한 메모리 기술 역할을 설명할 계획이다. SK하이닉스는 "AI 기술이 발전할수록 메모리는 단순 부품을 넘어 AI 인프라 전반의 구조와 성능을 좌우하는 핵심 요소로 자리잡고 있다"며 "데이터센터부터 온디바이스에 이르기까지 AI 전 영역을 아우르는 메모리 기술 역량을 기반으로, 글로벌 파트너들과 함께 AI의 미래를 만들겠다"고 밝혔다.

2026.03.17 07:45장경윤 기자

삼성전자, GTC서 'HBM4E' 최초 공개…엔비디아와 AI 동맹 강화

삼성전자가 핵심 고객사인 엔비디아와의 협력을 강화한다. 엔비디아 연례 행사에서 차세대 고대역폭메모리(HBM)인 HBM4E 실물을 첫 공개할 계획이다. 해당 칩은 핀당 속도 16Gbps·대역폭 4TB/s을 지원한다. 삼성전자는 3월 16일부터 19일까지(현지시간) 미국 새너제이에서 열리는 엔비디아 GTC에 참가한다고 16일 밝혔다. 삼성전자는 이번 전시에서 차세대 HBM4E(7세대 고대역폭메모리) 기술력과 베라 루빈(Vera Rubin) 플랫폼을 구현하는 메모리 토털 솔루션을 유일하게 공급할 수 있는 역량을 앞세운다. 먼저 삼성전자는 이번 전시에서 'HBM4 히어로 월(Hero Wall)'을 통해 HBM4부터 핵심 경쟁력으로 떠오른 메모리, 로직 설계, 파운드리, 첨단 패키징을 아우르는 종합반도체 기업(IDM)만의 강점을 부각했다. '엔비디아 갤러리(Nvidia Gallery)'를 통해서는 AI 플랫폼을 함께 완성해 나가는 양사의 전략적 파트너십을 강조했다. 이 외에도 삼성전자는 전시 공간을 AI 팩토리(AI 데이터센터), 로컬 AI(온-디바이스 AI), 피지컬 AI 세 개의 존으로 구성해 기술력을 공식적으로 인정받은 GDDR7, LPDDR6, PM9E1 등 차세대 삼성 메모리 아키텍처를 소개했다. 한편 행사 둘째 날인 3월 17일(현지시간)에는 엔비디아의 특별 초청으로 송용호 삼성전자 AI센터장이 발표에 나서 AI 인프라 혁신을 이끌 엔비디아 차세대 시스템의 중요성과 이를 지원하는 삼성의 메모리 토털 솔루션 비전을 제시한다. 이를 통해 양사의 협력이 단순한 기술 협력을 넘어 AI 인프라 전반으로 확대되고 있음을 보여줄 예정이다. 차세대 HBM4E 칩 및 코어 다이 웨이퍼 최초 공개 삼성전자는 이번 전시에서 'HBM4 히어로 월'을 마련해 삼성의 HBM 기술 리더십을 가장 먼저 조명할 수 있도록 전시 동선을 구성했다. 삼성전자는 HBM4 양산을 통해 축적한 1c D램 공정 기반의 기술 경쟁력과 삼성 파운드리 4나노 베이스 다이 설계 역량을 바탕으로 차세대 HBM4E 개발을 가속화하고 있으며, HBM4E 실물 칩과 코어 다이 웨이퍼를 최초로 공개했다. 삼성전자 HBM4E는 메모리, 자체 Foundry와 로직 설계 역량, 그리고 첨단 패키징 기술 등 부문 내 모든 역량을 결집한 최적화 협업을 통해 핀당 16Gbps 속도와 4.0TB/s 대역폭을 지원할 예정이다. 또한 삼성전자는 영상을 통해 TCB(열압착본딩) 대비 열 저항을 20% 이상 개선하고 16단 이상 고적층을 지원하는 HCB(하이브리드 본딩) 기술을 공개하며, 차세대 HBM을 위한 삼성전자의 패키징 기술 경쟁력을 강조했다. 하이브리드 본딩은 구리(Copper) 접합을 기반으로 칩을 직접 연결하는 차세대 패키징 기술로, 열 저항을 낮추고 고적층 HBM 구현에 유리하다. 한편 삼성전자는 베라 루빈 플랫폼에 탑재될 HBM4 칩과 파운드리 4나노 베이스 다이 웨이퍼를 전면에 배치해, 차세대 칩을 구현하는 삼성의 HBM 라인업을 한눈에 확인할 수 있도록 전시를 구성했다. 삼성전자는 종합반도체 기업(IDM)만의 토털 솔루션을 통해 개발 효율을 강화해 고성능 HBM 시대에서도 성능과 품질을 압도하는 기술 선순환 구조를 구축할 계획이다. 삼성전자 "베라 루빈 플랫폼용 모든 메모리 솔루션 공급" 특히 삼성전자는 이번 전시를 통해 전 세계에서 유일하게 엔비디아 Vera Rubin 플랫폼의 모든 메모리와 스토리지를 적기에 공급할 수 있는 메모리 토털 솔루션 역량을 부각했다. 삼성전자는 'Nvidia Gallery'를 별도로 구성해 ▲Rubin GPU용 HBM4 ▲Vera CPU용 SOCAMM2 ▲스토리지 PM1763을 Vera Rubin 플랫폼과 함께 전시해, 양사의 협력을 강조했다. 삼성전자 SOCAMM2는 LPDDR 기반 서버용 메모리 모듈로 품질 검증을 완료하고 업계 최초로 양산 출하를 시작했다. 삼성전자 PCIe Gen6 기반 서버용 SSD PM1763은 베라 루빈 플랫폼의 메인 스토리지로, 삼성전자는 부스 내에서 PM1763이 탑재된 서버를 통해 엔비디아 SCADA 워크로드를 직접 시연해 사양 소개를 넘어 업계 최고 수준의 성능을 현장에서 체감할 수 있도록 했다. SCADA는 GPU가 CPU 병목 현상을 우회해 스토리지 I/O를 직접 시작하고 제어할 수 있어 AI 워크로드 성능을 극대화할 수 있도록 설계된 기술이다. 뿐만 아니라 삼성전자는 추론 성능과 전력 효율 개선을 위해 베라 루빈 플랫폼에 새롭게 도입된 CMX(Context Memory eXtension) 플랫폼에 PCIe Gen5 기반 서버용 SSD PM1753을 공급할 계획이며, 부스 내 AI 팩토리 존에서 제품을 확인할 수 있다.

2026.03.17 05:30장경윤 기자

메모리 자성제어 '스핀'대신 '오비탈'로…"읽는속도 1만배 빨라져"

국내 연구진이 전자의 스핀 교환상호작용 대신, 오비탈(궤도)을 통해 자성을 자유자재로 조절할 수 있는 가능성을 제시했다. 이 같은 방법으로 메모리를 만들 경우 읽는 속도를 기존대비 1,000배에서 최대 1만배까지 끌어올릴 수 있다. KAIST는 이경진 물리학과 교수와 김경환 연세대학교 물리학과 교수 연구팀이 전자의 오비탈 원리로 차세대 자성소자 및 교자성 소자를 설계할 수 있는 새로운 이론 체계를 정립했다고 16일 밝혔다. 연구 결과는 국제 학술지 네이처 커뮤니케이션즈에 게재됐다. 오비탈 교환상호작용은 전자가 원자핵 주위를 돌며 형성하는 궤도(오비탈)가 서로 영향을 주고받아 자석 방향이나 성질을 조절하는 현상이다. 차세대 메모리 연구는 전자 '스핀'에 주로 집중해 왔다. 스핀은 전자가 마치 작은 팽이처럼 스스로 회전하며 만들어내는 성질로, 이 회전 방향을 이용해 정보를 저장하는 방식이다. 그러나 전자는 동시에 원자의 중심에 있는 원자핵 주위를 돌며 '오비탈'이라는 궤도 운동도 한다. 이준희 박사는 "전류가 흐를 때 발생하는 전자의 오비탈 에너지가 자성체 오비탈과 직접 상호작용하며 정보를 전달한다는 원리를 이론적으로 규명했다"며 "이를 통해 기존 스핀 방식보다 훨씬 효율적으로 자석의 성질을 바꿀 수 있음을 확인했다"고 말했다. 전류가 단순히 자석 방향만 바꾸는 것이 아니라, 자석이 특정 방향을 선호하는 성질이나 회전 특성 등 고유한 물성 자체를 조절할 수 있다는 점을 규명한 것. 특히 연구팀은 오비탈을 이용한 제어 효과가 기존 스핀 기반 방식보다 훨씬 강력할 수 있음을 확인됐다. 향후 반도체 소자에서 스핀 대신 오비탈이 핵심 역할을 하는 '오비탈 기반 전자소자' 시대의 가능성을 제시했다. 연구팀은 이론에 그치지 않고 실제 실험에서 이러한 효과를 측정할 수 있는 방법까지 함께 제시했다. 이준희 박사는 "최근 학계에서 큰 관심을 받고 있는 교자성 물질에서도 이 원리가 적용될 수 있다"며 "미래형 논리 소자와 메모리 소자 개발을 위한 강력한 이론적 토대가 마련될 것"으로 기대했다. 교자성은 원자 속 전자 스핀이 서로 다른 방향으로 규칙적으로 배열된 새로운 자성 물질이다. 겉으로는 자석처럼 보이지 않지만 전자 움직임에는 큰 영향을 준다. 이러한 특성 덕분에 전자 상태를 정밀하게 제어할 수 있어 메모리 제어와 고속·저전력 반도체 소자를 위한 소재로 주목받고 있다. 이근희 박사는 “이번 연구 결과는 전류로 자성을 제어할 때 반드시 '스핀'에만 의존할 필요가 없다는 사실을 보여준 사례”라며 “전자의 궤도 운동인 오비탈을 활용해 자성을 이해하고 제어하는 새로운 관점은 차세대 초고속·저전력 메모리 개발에 중요한 이정표가 될 것”이라고 말했다.

2026.03.16 15:16박희범 기자

IDC "올해 PC 출하량, 전년比 11.3% 감소 전망"

시장조사업체 IDC가 12일(현지시간) 메모리 공급 부족과 부품 가격 상승, 공급망 차질 등의 영향으로 올해 PC 출하량 전망치를 크게 낮췄다. IDC는 작년 11월 메모리 반도체 수급난이 시작되자 올해 PC 출하량을 2.4% 낮춰 잡았다. 그러나 IDC는 이날 작년 대비 하락폭을 11.3%까지 늘려 잡았다. IDC는 메모리 부족과 부품 가격 상승, 전반적인 공급 제약이 맞물리며 생산 차질이 내년까지 이어질 것으로 전망했다. 라이언 레이스 IDC 디바이스·컨슈머 부문 그룹 부사장은 "현재 여러 변수들이 계속 늘어나며 기업들의 의사결정은 물론 일부 분야에서는 생존 자체가 어려운 상황"이라고 설명했다. 다만 평균단가 상승 영향으로 올해 PC 시장 규모는 작년 대비 1.6% 늘어난 2740억 달러(약 408조 1230억원)까지 확대될 것으로 보인다. 지테시 우브라니 IDC 모바일 디바이스 트래커 담당 매니저는 "저가 PC와 태블릿 시대는 당분간 끝났다. 제품 가격은 2028년부터 조금씩 내릴 수 있지만 2025년 수준으로 돌아가기 어렵다"고 전망했다. IDC는 앞으로 PC 제조사가 공급망 안정성 강화, 핵심 부품 조달처 다변화와 함께 메모리나 SSD 용량 등 제품 제원을 낮추면서 비용을 낮추기 위해 노력할 것으로 전망했다.

2026.03.13 10:03권봉석 기자

"메모리 반도체, 가격 급등에도 수요 여전"

메모리 반도체 시장이 과거 사이클과 확연히 다른 '구조적 공급부족' 상태를 맞아 끝을 알 수 없는 가격 급등세가 이어지고 있다는 진단이 나왔다. 인공지능(AI) 인프라 투자라는 강력한 수요가 시장을 지배하면서, 가격 상승이 곧바로 수요 감소로 이어지지 않는 '비탄력적' 시장 상황이 연출되고 있다. 황민성 카운터포인트리서치 팀장은 12일 온라인 웨비나에서 "현재 메모리 시장은 과거 사이클과 달리 가격이 올라도 수요가 줄지 않는 상황"이라며 "공급부족 사태가 의미 있게 해소되는 시점은 빨라야 2027년 하반기가 될 것"이라고 전망했다. 이는 AI 데이터센터 구축을 위한 서버용 D램과 고대역폭메모리(HBM) 수요가 시장 전체를 압도하고 있기 때문이다. 일반 IT 기기 제조사는 극심한 원가 압박에 시달리고 있다. 스마트폰과 PC 등 완제품 제조사의 제조원가에서 메모리 비중이 절반에 육박할 정도로 커졌기 때문이다. 업계에서는 원가 부담이 결국 소비자 판매가 인상으로 이어질 수밖에 없는 구조적 한계에 봉착했다고 보고 있다. 시장 변화 속에서 삼성전자와 SK하이닉스의 경쟁 구도도 변화하고 있다. 과거에는 매출 규모를 중심으로 경쟁했지만 올해는 '이익률(마진) 경쟁'이 핵심 화두다. 현재 원가 경쟁력 면에서는 SK하이닉스가 다소 우위를 점한 것으로 평가받으며, 삼성전자가 이를 따라잡기 위해 총력을 다하는 형국이다. 또 다른 시장 변수는 중국 업체의 거센 추격이다. CXMT와 YMTC 등은 자국 정부 보조금을 바탕으로 레거시(구형) 제품부터 점유율을 확대하고 있다. 특히 글로벌 PC OEM들이 중국 업체 물량을 구매하기 시작하면서, 단순히 중국 시장을 넘어 글로벌 시장에서의 영향력을 키우고 있다는 분석이다. 황 팀장은 "중국의 공급 증가는 시장의 큰 부담 요소"라면서도 "중국 업체들이 AI용 첨단 메모리 시장까지 빠르게 진입하기에는 아직 기술격차가 있다"고 평가했다.

2026.03.12 16:06전화평 기자

"서버도 온디바이스도 해답은 LPDDR...전력 장벽 뚫는다"

"이제 저전력은 모바일만의 전유물이 아닙니다. 서버와 온디바이스 인공지능(AI), 어느 영역에서도 전력효율을 확보하지 못하면 생존할 수 없는 시대가 왔습니다. 그 중심에 저전력 D램(LPDDR)이 있습니다." 반도체 설계 자산(IP) 기업 오픈엣지테크놀로지(이하 오픈엣지) 이성현 대표는 최근 지디넷코리아 인터뷰에서 AI 시장 흐름이 '전력 효율'로 수렴한다고 진단했다. 과거 스마트폰 등 모바일 기기에 주로 쓰이던 LPDDR이 이제는 차세대 LPDDR6 표준 등장과 함께 데이터센터 서버와 로봇, 자동차 등 AI가 탑재되는 모든 곳의 핵심 메모리 표준으로 부상했다는 설명이다. 서버의 전력 병목 현상과 온디바이스의 배터리 및 발열 한계를 동시에 해결할 수 있는 유일한 열쇠가 바로 LPDDR이기 때문이다. 전력 병목에 갇힌 AI… 서버·엣지 가리지 않는 LPDDR 확산 최근 반도체 업계에서 눈에 띄는 변화는 LPDDR 메모리의 전방위 확산이다. 과거 스마트폰의 전유물이었던 LPDDR은 이제 데이터센터 서버와 온디바이스 AI 기기의 핵심 규격으로 자리 잡았다. 해법으로 등장한 것이 서버용 LPDDR 솔루션이다. 특히 최근 주목받는 쏘캠(SOCAMM) 같은 규격은 LPDDR의 저전력 특성을 서버 환경에 이식해 전력 소모는 낮추면서도 데이터 처리 대역폭은 극대화한다. 동시에 온디바이스 AI 시장 성장도 LPDDR 수요를 견인하고 있다. 이 대표는 "자율주행차, 로봇, 휴머노이드 등 물리적 제약이 큰 엣지 디바이스에서는 배터리 효율과 발열 관리가 제품 완성도를 결정한다"며 "트랜스포머 기반 대형 AI 모델을 기기 내부에서 구동하기 위해 LPDDR6 같은 고성능·저전력 IP 역할이 그 어느 때보다 중요해졌다"고 분석했다. "면적 50% 절감 혁신"… 9년 준비로 일군 메모리 시스템 통합 IP 오픈엣지는 창업 초기부터 LPDDR 시대 도래를 예견하고 꾸준히 준비해왔다. 메모리 컨트롤러와 물리 계층(PHY)을 아우르는 '메모리 시스템 IP'를 계속 연구한 것이 대표적이다. 현재 전세계에서 두 가지 핵심 IP를 통합 솔루션으로 제공하며 최적화할 수 있는 기업은 시높시스, 케이던스 등 글로벌 IP 거인을 포함해도 손에 꼽는다. 특히 오픈엣지 기술력은 PPA(전력·성능·면적) 측면에서 강점이 있다. 오픈엣지의 PHY IP는 동일 성능 대비 면적을 최대 50%까지 줄였다. 팹리스(반도체 설계전문) 입장에서는 생산 단가를 획기적으로 낮추면서도 고성능을 유지할 수 있는 최적 솔루션인 셈이다. 경쟁력은 글로벌 시장에서 실적으로 증명되고 있다. 전체 매출 70% 이상이 해외에서 나온다. 그 중에는 일본 르네사스, 미국 마이크론 등 글로벌 반도체 거인도 있다. 오픈엣지는 차세대 LPDDR6 표준 개발 단계부터 참여하며 기술 표준을 선도하는 전략을 취하고 있다. "구매 전 가상설계 환경 제공"… 팹리스 리스크 지우는 '칩 스케치' 전략 오픈엣지의 또 다른 성장축은 고객사 설계 문턱을 낮추는 플랫폼 전략이다. IP 산업의 특성상 단 한 번의 설계 오류는 칩 개발 실패와 막대한 손실로 이어진다. 진입장벽이 높은 이유다. 이를 방지하기 위해 구축한 플랫폼이 '오픈엣지스퀘어'다. 오픈엣지스퀘어는 일종의 디지털 영업 플랫폼이다. 일반적으로 팹리스가 새로운 IP를 검토하려면 내부 서버에 복잡한 EDA 환경을 구축하고 인력을 투입해야 한다. 오픈엣지스퀘어는 이를 클라우드로 옮겨왔다. 로그인만 하면 어디서든 오픈엣지의 최신 IP를 칩 설계안에 대입해 볼 수 있다. 이때 핵심 기능이 '칩 스케치'다. 칩 스케치는 사실상 시스템온칩 (SoC) 반도체 설계 및 성능 최적화 툴로, 명칭처럼 칩을 그리기 전에 밑그림을 그려보는 기능이다. EDA와 비슷하다. 팹리스로선 비싼 EDA 라이선스를 쓰기 전에 이 IP가 내 설계에 맞는지 확인해 볼 수 있다. 이 대표는 "고객사가 우리 IP를 도입했을 때 얻을 수 있는 이점을 데이터로 직접 확인하게 함으로써 설계 리스크를 낮춘다"며 "이는 단순한 IP 공급자를 넘어 고객의 제품 성공을 돕는 전략 파트너로서 위치를 공고히 하는 전략"이라고 설명했다. IP 업계, 요행은 없다 2026년은 오픈엣지에 수익성 개선 분수령이 될 전망이다. 지난해 미중 갈등과 업황 부진으로 지연됐던 글로벌 프로젝트가 본격화되고 있고, 국내에서도 'K-온디바이스 AI 반도체' 과제 등으로 새로운 수요가 창출되고 있다. 이 대표는 "지난 2년간 오픈엣지에 우호적이지 않은 시장 환경이었음에도 연구개발(R&D) 투자를 확대해, 기회가 왔을 때 대응할 수 있는 잠재력을 길렀다"고 밝혔다. 그러면서 "IP 업계에 갑작스러운 행운이나 신데렐라는 없다"며 "오직 검증된 트랙 레코드(실적)만 고객 신뢰를 얻는 유일한 길"이라고 강조했다.

2026.03.12 15:22전화평 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

수천억 적자의 역설… '회계 착시' 걷어낸 K-팹리스 진짜 체력

신세계가 열흘만에 오픈AI 협업 계획 뒤집은 이유

10분만에 매진된 핫플 '쿠팡 메가뷰티쇼' 가보니

R&D 지표 가른 양산성 확보…장부 엇갈린 K-AI 반도체

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.