• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'반도체'통합검색 결과 입니다. (1370건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

리벨리온, 차세대 AI칩 '리벨 100'으로 명칭 변경...왜?

국내 대표 AI 반도체 스타트업 리벨리온이 자사의 차세대 신경망처리장치(NPU) 명칭을 기존 '리벨 쿼드(REBEL-Quad)'에서 '리벨 100(REBEL 100)'으로 공식 변경하기로 했다. 칩 이름 하나로 전체 제품 라인업을 부르던 기존 방식에서 벗어나, 고객 편의성을 극대화하기 위한 직관적인 네이밍 개편이다. 30일 반도체 업계에 따르면 리벨리온은 올해 하반기 양산을 시작하는 차세대 칩을 '리벨 100'으로 명칭을 바꿨다. 이러한 명칭 개편의 배경에는 1세대 칩인 '아톰(ATOM)' 출시 당시의 경험이 있다. 전세대 칩인 아톰은 개별 칩과 카드, 서버 등 여러 제품을 하나의 이름으로 묶어 불렀다. 그러다 보니 고객 입장에서 헷갈린다는 피드백이 이어진 것이다. 이에 따라 칩 자체는 '리벨 100'으로 부르며, 이를 탑재한 카드는 '리벨 카드', 서버는 '리벨 서버'로 직관적인 세분화를 단행했다. 신제품 실물이 본격적으로 고객에게 가기 전에 선제적으로 이름 체계를 확립하려는 목적으로 풀이된다. 리벨리온 관계자는 이에 대해 “명칭을 변경하는 것은 맞다”며 “31일 홈페이지에 새로운 명칭이 업데이트될 예정”이라고 말했다. 엔비디아 'H200' 넘었다…실전 연산 성능 우위·3GB 더 큰 메모리 확보 새로운 이름을 단 '리벨 100'은 최근 내부 벤치마크 테스트 결과, 시장의 기준점인 엔비디아의 최신 AI 칩 'H200'과 대등하거나 이를 소폭 상회하는 성능을 기록했다. 세부 성능 비교 지표를 살펴보면 그 차이가 더욱 명확히 드러난다. 세계 최고 권위 반도체 설계 학회인 ISSCC 2026 발표 자료에 따르면 리벨 100의 FP16(16비트 부동소수점) 연산 성능은 1 페타플롭스(PFLOPS)로 H200(0.99 PFLOPS)과 대등한 수준을 기록했다. 나아가 최근 리벨리온 내부에서 대형언어모델(LLM)을 구동해 진행한 실제 추론 벤치마크 테스트에서는 리벨 100이 H200을 핵심 연산 속도 면에서 앞섰다. H200과 같은 속도를 낼 때 전력 효율이 최대 1.7배 더 높았다. 특히 눈에 띄는 것은 메모리 사양이다. 두 칩의 메모리 대역폭은 동일하지만, 가용 메모리 용량에서 리벨 100은 144GB를 확보해 엔비디아 H200(141GB)보다 3GB 더 높은 수치를 보였다. 업계에 따르면 엔비디아 H200은 144GB의 용량 중 3GB를 에러 정정 코드(ECC) 등 보조 오버헤드 영역으로 할당한다. 실제 가용 용량은 141GB인 셈이다. 반면 리벨 100은 144GB를 온전히 사용자에게 제공한다. 독자적인 칩렛(Chiplet) 아키텍처가 이를 가능하게 한 것으로 보인다. 리벨 100은 삼성전자 4나노 파운드리 공정으로 양산되며, 차세대 메모리인 HBM3E를 탑재했다. 세계 최초로 UCIe 다이-투-다이(Die-to-Die) 인터페이스를 적용해 4개의 칩렛을 하나의 칩처럼 구동시키는 아키텍처를 구현해 냈다. 이를 통해 설계 전력(TDP)을 최대 600W로 억제, 동일한 성능을 내는 엔비디아 H200(700W) 대비 전력 소모를 약 15% 이상 줄이는 전력 효율을 달성했다. 리벨리온은 이러한 하드웨어 경쟁력을 바탕으로 올해 시장 안착에 속도를 낼 계획이다. 현재 리벨리온은 xAI, 오픈AI 등 글로벌 빅테크 기업들과 협력을 진행하고 있다.

2026.03.30 16:00전화평 기자

딥엑스, 양산 7개월 만에 8개국·27건 구매 주문 확보

초저전력 피지컬 AI 반도체 기업 딥엑스가 첫 양산 제품 출시 7개월 만에 8개국에서 27건의 구매주문(PO)을 확보했다고 29일 밝혔다. 딥엑스는 지난해 8월 양산을 시작했으며 지난해 5개월 동안 확보된 PO는 2건이었다. 이후 3개월이 채 되지 않아 25건의 추가 주문이 발생하며 주문 증가 속도가 빠르게 증가했다. 확보된 주문은 로보틱스, 스마트팩토리, AI 엣지 서버, 산업용 AI, 지능형 영상보안, AI IT 서비스, 스마트시티 등 7개 주요 피지컬 AI 응용 분야에 걸쳐 발생했다. 딥엑스의 AI 반도체는 현재 미국, 유럽, 중국, 일본, 싱가포르 등 8개 국가의 다양한 피지컬 AI 응용 시장에 공급되고 있다. 빠른 글로벌 양산 확산의 배경에는 사전 글로벌 대규모 PoC(개념검증) 전략이 있다. 반도체 산업에서는 고객사들이 일반적으로 PoC를 시작한 이후 실제 고객사의 응용 제품 양산까지 9~18개월의 시간이 필요하다. 딥엑스는 양산 이전 약 1년여 동안 전 세계 350개 글로벌 고객사와 PoC 및 기술 협업을 진행하며 고객 파이프라인을 구축한 바 있다. 딥엑스 측은 "이러한 전략을 통해 양산 이후 다수 고객이 빠르게 실제 구매 주문으로 전환되는 효과가 나타나고 있다"고 설명했다. 딥엑스는 국내외 대기업과 협력하며 AI반도체 적용을 확대하고 있다. 현대자동차 로보틱스 그룹에서는 딥엑스 AI 반도체가 차세대 서비스 로봇 플랫폼에 적용되며 올해 하반기 양산을 앞두고 있다. 또한 중국 AI 기업 바이두와 공장 자동화 및 산업 AI 분야에서 협력한다. 김녹원 딥엑스 대표는 “딥엑스는 로보틱스 중심의 자율 이동체와 무인 생산 및 AI 제조 중심의 스마트 팩토리라는 두 축의 피지컬 AI 분야에서 글로벌 선도 AI 반도체 기업이 되고자 한다"며 "이를 통해 한국이 제조된 제품을 수출하는 나라에서 무인화된 공장을 수출하는 국가가 되는 데 기여하게 될 것”이라고 말했다.

2026.03.29 14:42전화평 기자

[카드뉴스] AI가 똑똑해지면 메모리가 필요없어질까

안녕하세요, AMEET 기자입니다. 구글이 최근 발표한 '터보퀀트'라는 기술이 반도체 시장에 작은 파장을 일으켰어요. 이 기술은 AI가 기억해야 할 데이터를 무려 6배나 압축할 수 있다고 하는데요, 마치 진공팩으로 옷을 꾹꾹 눌러 담는 것처럼 메모리 사용량을 대폭 줄일 수 있다는 거예요. 이 소식이 전해지자 SK하이닉스는 6.23%, 마이크론은 5.70%, 삼성전자는 4.71% 하락하는 등 메모리 반도체 기업들의 주가가 일제히 떨어졌답니다. 투자자들이 "이제 메모리를 덜 사게 되겠네?"라고 우려한 거죠. 하지만 전문가들은 정반대로 생각하고 있어요. 데이터를 압축하면 AI가 더 빨리 움직이게 되고, 빨라진 만큼 더 많은 데이터를 처리하게 된다는 논리예요. 마치 고속도로 차선을 늘리면 차가 더 많이 다니는 것과 같은 원리인데요. 실제로 메모리 회사들은 2026년 생산 물량이 이미 다 예약된 상태라고 해요. 게다가 앞으로는 빠른 메모리(HBM)와 저렴한 메모리(CXL)를 적재적소에 섞어 쓰는 방식이 대세가 될 거라고 하니, 메모리 수요는 오히려 다양해질 것 같아요. 결국 압축 기술은 메모리를 줄이는 게 아니라 더 효율적으로, 그리고 더 많이 쓰게 만드는 마법 같은 기술인 셈이에요. 기술이 발전할수록 메모리의 역할은 더 중요해질 거라는 게 전문가들의 공통된 의견이랍니다. 앞으로도 AMEET이 복잡한 기술 이야기를 쉽게 풀어드릴게요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.28 08:04AMEET

美, 반도체 공급망 위한 '팍스 실리카' 펀드 출범…3700억원 투입

미국 국무부가 자국 내 반도체 공급망 강화를 위한 '팍스 실리카(Pax silica)' 펀드를 출범한다고 26일(현지시간) 발표했다. 미국은 해당 펀드에 2억 5000만 달러(약 3700억원) 대외 원조 자금을 배정할 예정이다. 국무부는 "팍스 실리카는 공급망의 모든 단계에 걸쳐 전략 파트너십과 협력적 조치를 제공한다"며 "이 기금이 평균 1조 달러 이상 자산을 보유한 대규모 국부펀드와 민간 자본을 유치할 것으로 기대한다"고 밝혔다. 앞서 도널드 트럼프 미 행정부는 지난해 12월 반도체 제조용 핵심광물의 공급망 안정화를 위해 팍스 실리카라는 안보 협력체를 출범시킨 바 있다. 초기 한국과 일본, 싱가포르, 영국, 인도, 호주 등 8개국이 연합체에 합류했다. 가입국은 추가되고 있다. 팍스 실리카 참여국은 핵심광물과 반도체 설계·제조·패키징 등에서 공급망 취약성을 공동 점검하고, 이를 해결하기 위한 프로젝트를 추진할 계획이다. 이는 반도체·인공지능(AI) 등 첨단 산업 굴기에 적극 나서는 중국을 견제하기 위한 목적이라는 분석이 나온다. 현재 중국은 반도체 등 다양한 첨단 산업의 핵심 소재인 희토류 공급을 90%가량 장악하고 있다. 제이컵 헬버그 미 국무부 경제성장·에너지·환경 담당 차관은 "팍스 실리카 연합체의 투자 규모는 1조 달러 이상이 될 것"이라며 "일본 소프트뱅크, 싱가포르 테마섹 등이 창립 멤버가 될 것"이라고 말하기도 했다.

2026.03.28 08:00장경윤 기자

칩 보안법, 美하원 외교위 통과...엔비디아·AMD에 '밀수방지' 의무화

미국 하원 외교위원회가 엔비디아, AMD 등 자국 반도체 기업을 대상으로 인공지능(AI) 핵심 기술의 중국 밀수출을 막기 위한 감시 의무를 강화하는 법안을 통과시켰다. 최근 슈퍼마이크로 공동 창업자가 엔비디아 반도체를 중국으로 가공 수출한 혐의로 기소된 사건이 법안 처리에 결정적 도화선이 됐다. 블룸버그 통신은 미 하원 외교위가 '칩 보안법'을 찬성 42표, 반대 0표라는 압도적 표차로 가결해 본회의로 송부했다고 27일(현지시간) 보도했다. 법안 핵심은 엔비디아, AMD 등 AI 반도체 기업들이 자사 제품이 중국으로 유입되지 않도록 검증 체계를 강화하고, 이를 상무부에 보고하도록 의무화하는 것이다. 상무부 장관은 법 시행 후 1년 내에 미승인 칩 이동이나 최종사용자 변경에 대한 보고 규칙을 확정해야 한다. 이번 조치는 도널드 트럼프 행정부가 미국 기술의 글로벌 판매 확대를 위해 일부 규제 완화를 검토하는 상황에서 나와 주목된다. 법안을 주도한 빌 하이징아 의원은 "업계 일각에서 밀수 사실을 인지하지 못했다고 주장하지만, 여전히 해결되지 않은 전용 문제가 있다"며 입법 취지를 설명했다. 다만, 기업들 부담을 고려해 위치 추적 기술이나 원격 작동 중지 기능 탑재를 강제하지는 않는 '가벼운 규제' 방식을 택했다. 기존 보안 비즈니스 관행을 칩 보안 메커니즘으로 인정하는 등 유연성을 뒀다. 상무부 장관은 미국 경쟁력을 해칠 우려가 있을 경우 범정부 협의를 거쳐 규정 일부를 면제할 수 있는 권한도 갖는다. 정치권 압박은 거세지고 있다. 지난주 슈퍼마이크로의 공동 창업자인 월리 리아우가 구속 기소된 직후, 엘리자베스 워런 상원의원 등은 상무부에 중국 및 동남아시아로 향하는 모든 엔비디아 AI 칩과 서버의 수출 라이선스를 일시 중단하고 전면 재검토할 것을 촉구하는 서한을 보내기도 했다. 엔비디아는 이번 사안과 관련해 "수출 규제가 확대됨에 따라 규정 준수 프로그램을 위해 고객 및 정부와 긴밀히 협력하고 있다"는 입장을 밝혔다. 법안이 본회의를 통과해 최종 시행될 경우, AI 가속기 공급망 전반에 걸친 미 당국 감시망은 더욱 촘촘해질 전망이다.

2026.03.28 08:00전화평 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

OCI홀딩스, 조직개편·사장단 인사…"반도체 소재 기업으로 체질 개선"

OCI홀딩스가 내달 1일자로 조직개편과 사장단 인사를 실시한다고 27일 밝혔다. 이번 인사에선 김유신 OCI 최고경영자(CEO) 부회장이 OCI홀딩스 CEO 부회장을 겸직하게 됐다. 이수미 OCI홀딩스 대표도 OCI홀딩스 최고운영책임자(COO) 사장 겸 OCI 경영관리본부장 사장으로 승진했다. 김택중 전 OCI홀딩스 대표는 이사회 의장에 선임됐다. 이번 개편은 OCI 주식회사(사업회사)를 중심으로 단행됐다. 정밀소재사업본부, 기초소재사업본부 등 기존 2개의 사업부 체제에서 고객사 중심 판매 전담 조직을 독립부서로 재편해 반도체 슈퍼사이클에 밀착 대응하고, 이차전지 소재, 전도성 카본블랙과 같은 스페셜티 사업에 관한 업무 효율성, 수익을 극대화한다는 취지다. 이에 따라 고객솔루션사업팀을 신설하고 성과 중심의 인사 원칙에 따라 그룹 내부에서 검증된 전문 영업인력을 재배치함으로써 영업력, 수익성 강화에 나선다. 이를 위해 데이터 기반 객관성과 글로벌 시장 분석을 바탕으로 새로운 판매와 사업 기회를 지속적으로 모색해 회사의 이익과 성장을 이끌어 나갈 예정이다. OCI 중앙연구소도 고기능소재 연구실, 차세대소재 연구실, 반도체소재 연구실, 기반기술 연구실 그리고 R&D 인프라부를 새롭게 신설해 신규 반도체 소재, 카본 소재, 기반기술 개발 등 연구 특성이 반영된 연구실 조직으로 전면 재편한다. 신설된 고객솔루션사업팀은 OCI 중앙연구소가 추진 중인 신사업 발굴 및 R&D 역량 강화와 시너지를 극대화할 수 있도록 고객사와의 협업을 강화하고 경영진의 전략적 투자와 주요 의사결정에 필요한 인사이트를 제공하게 된다. 특히 1983년 설립된 OCI 중앙연구소는 지난 40여 년간 축적해온 R&D 데이터와 전략 노하우를 기반으로 급변하는 글로벌 시장 환경 속에서 스페셜티 중심의 미래 기술 확보와 고부가가치 제품 개발을 위한 그룹의 전초기지 역할을 수행할 예정이다. 이와 함께 OCI홀딩스는 사장단 인사를 실시하고 통합 컨트롤타워를 가동하고 첨단소재 기업으로의 전면적 체질개선에 속도를 낸다는 방침이다.

2026.03.27 12:02김윤희 기자

구글 터보퀀트가 쏘아 올린 공…메모리 반도체는 정말 위기일까

안녕하세요 AMEET 기자입니다. 최근 구글이 발표한 하나의 알고리즘 때문에 반도체 시장이 크게 술렁였습니다. 구글 리서치가 공개한 AI 메모리 압축 기술인 '터보퀀트(TurboQuant)'가 그 주인공이죠. AI 연산에 필요한 메모리 사용량을 무려 6분의 1로 줄이고 처리 속도는 8배나 높일 수 있다는 소식에 삼성전자와 SK하이닉스 주가가 하루 만에 4~6%가량 급락하는 등 시장은 즉각적인 반응을 보였습니다. 2026년 들어 가장 뜨거운 감자로 떠오른 이 기술이 정말 메모리 반도체의 수요를 갉아먹는 독이 될지, 아니면 시장의 판을 키우는 마중물이 될지 전문가들의 치열한 논점을 따라가 보았습니다. 기술적 혁신과 시장의 즉각적인 공포 터보퀀트의 핵심은 AI가 문맥을 기억하는 데 사용하는 데이터인 'KV 캐시'를 아주 효율적으로 압축하는 데 있습니다. 기존 기술들이 데이터를 압축할수록 정확도가 떨어지는 한계가 있었다면, 터보퀀트는 3비트 수준의 초고압축 상태에서도 성능 손실이 거의 없는 '무손실'에 가까운 성능을 보여준다는 점이 놀랍죠. 시장 분석가들은 이 기술이 상용화되면 빅테크 기업들이 지금처럼 많은 양의 고대역폭메모리(HBM)를 살 필요가 없어질 것이라는 우려를 쏟아냈습니다. 실제로 마이크론과 같은 글로벌 기업의 주가까지 동반 하락하며 이런 불안감은 현실이 되는 듯 보였습니다. 하지만 현장의 목소리는 조금 다릅니다. AI 기술 전문가들은 터보퀀트가 논문 수준의 성과를 넘어 실제 대규모 서비스에 적용되기까지는 여전히 넘어야 할 산이 많다고 지적합니다. 단순히 소프트웨어를 업데이트하는 수준이 아니라, AI 모델의 아키텍처 자체를 재설계하고 추론 엔진을 최적화하는 방대한 엔지니어링 작업이 수반되어야 하기 때문이죠. 즉, 당장 내일 아침부터 메모리 주문량이 줄어드는 일은 일어나기 어렵다는 논리입니다. AI 전문가들의 격렬한 논쟁 : 수요 절벽인가 패러다임의 전환인가 AI 전문가들 사이에서는 이 기술을 바라보는 관점이 극명하게 엇갈리고 있습니다. 한쪽에서는 터보퀀트가 결국 메모리의 '용량'에 대한 갈증을 해소해주면서 하드웨어 수요를 둔화시킬 것이라고 주장합니다. 메모리 사용량이 6분의 1로 줄어든다는 것은 동일한 인프라에서 6배 더 많은 작업을 처리할 수 있다는 뜻이니, 추가적인 증설 수요가 꺾일 수밖에 없다는 분석이죠. 그러나 반대하는 논리는 더욱 정교합니다. 전문가들은 병목 현상의 '이동'에 주목해야 한다고 강조합니다. 터보퀀트로 데이터 용량을 줄여 처리 속도를 8배 높이게 되면, 오히려 데이터를 더 빠르게 주고받아야 하는 '대역폭'의 중요성이 훨씬 커진다는 것이죠. 결국 용량은 줄어들지 몰라도 더 고성능의 HBM이나 차세대 연결 기술인 CXL(Compute Express Link)에 대한 요구는 오히려 가속화될 것이라는 논리입니다. 논점은 단순히 '얼마나 많이 저장하느냐'에서 '얼마나 빠르게 쏟아붓느냐'로 이동하고 있습니다. 합의된 사항도 존재합니다. 2026년 현재 HBM 공급 부족은 소프트웨어 기술 때문이 아니라 물리적인 공장 건설과 수율 문제라는 점입니다. 삼성전자와 SK하이닉스의 2026년 물량은 이미 완판된 상태이며, 알고리즘 하나가 이 거대한 물리적 흐름을 즉각적으로 돌려놓기는 어렵다는 데 의견이 모였습니다. 다만, 2027년 이후부터는 소프트웨어 최적화 속도가 하드웨어 수요 증가 속도에 유의미한 영향을 미칠 수 있다는 점에서는 비판적인 시각과 낙관적인 시각이 팽팽하게 맞서고 있습니다. 결국 다시 인간의 전략으로 돌아가는 판단의 영역 결국 이번 터보퀀트 논란은 우리에게 중요한 질문을 던집니다. 효율적인 소프트웨어가 등장하면 하드웨어 산업은 도태될까요? 과거의 역사를 보면 기술의 효율화는 비용 하락을 불러왔고, 이는 다시 폭발적인 수요 증가로 이어지는 경우가 많았습니다. AI 서비스 비용이 저렴해지면 더 많은 기업이 AI를 도입할 것이고, 이는 결국 더 많은 서버와 데이터센터, 그리고 더 진화된 형태의 메모리 솔루션을 요구하게 될 것입니다. 전문가들은 메모리 기업들이 이제 단순히 '더 큰 용량'을 만드는 것에 안주해서는 안 된다고 조언합니다. CXL 기반의 메모리 풀링 기술처럼 유휴 자원을 효율적으로 나누고 관리하는 복합적인 솔루션을 내놓아야 하는 숙제가 주어진 셈이죠. 구글의 터보퀀트가 던진 파장은 일시적인 주가 하락이라는 숫자에 머물지 않고, 반도체 산업이 가야 할 다음 단계가 무엇인지 치열하게 고민하게 만드는 계기가 되었습니다. 알고리즘은 세상을 더 효율적으로 만들지만, 그 효율성을 어떤 가치로 바꿀지는 여전히 우리의 전략적 선택에 달려 있습니다. 기술의 발전이 하드웨어를 대체할지, 아니면 새로운 날개를 달아줄지 지켜보는 것은 이제 이 산업을 이끌어가는 인간들의 몫으로 남았습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.27 10:14AMEET

"메모리 6분의 1로 줄인다"…구글 터보퀀트에 반도체주 휘청

구글이 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 해결할 수 있는 차세대 압축 기술을 공개하자, 메모리 반도체 관련 기업 주가가 일제히 하락했다. 블룸버그 통신은 26일(현지시간) 구글의 신기술 발표 이후 메모리 업종 전반에 투자 심리가 위축되며 주요 기업 주가가 약세를 보였다고 보도했다. 삼성전자와 SK하이닉스는 한국시간 26일 모두 하락 마감했으며, 미국 뉴욕 증시에서는 마이크론, 웨스턴디지털, 샌디스크가 7% 이상 급락했다. 최근 몇 달간 AI 인프라 투자 확대에 따른 메모리 칩 공급 부족으로 가격이 상승하면서 관련 기업 주가는 큰 폭의 상승세를 이어왔다. SK하이닉스와 삼성전자는 이달 25일까지 연초 대비 50% 이상 급등했고, 부진을 겪던 키옥시아 홀딩스 주가 역시 두 배 이상 상승했다. 이 같은 흐름 속에서 구글이 공개한 '터보퀀트(TurboQuant)' 기술이 변수로 떠올랐다. 해당 기술은 대규모 언어모델(LLM) 구동에 필요한 메모리 용량을 최소 6분의 1 수준으로 줄일 수 있는 것으로 알려졌다. 구글은 이를 통해 AI 학습 및 운영 비용 전반을 절감할 수 있다고 설명했다. 이에 따라 시장에서는 데이터센터를 운영하는 하이퍼스케일러의 메모리 수요가 감소할 수 있다는 우려가 제기됐다. 이는 장기적으로 스마트폰과 가전제품 등에 사용되는 메모리 가격 하락으로 이어질 가능성도 거론된다. 다만 전문가들은 단기 충격과 달리 중장기적으로는 수요 확대 가능성에 무게를 두고 있다. 숀 킴 모건스탠리 애널리스트는 “해당 기술은 업계의 핵심 병목을 해소하는 긍정적인 진전”이라며 “성능 저하 없이 메모리 요구량이 낮아질 경우, 쿼리 처리 비용이 크게 줄어 AI 서비스의 수익성이 개선될 것”이라고 분석했다. AI 업계에서는 비용이 낮아질수록 사용량이 증가하는 '제본스의 역설'을 근거로, 장기적으로 메모리 수요가 오히려 확대될 수 있다는 시각도 제기된다. JP모건 역시 투자자들의 단기 차익 실현 가능성은 인정하면서도, 당장 메모리 수요를 위협할 수준의 변화는 아니라는 입장을 밝혔다. 업계는 지난해 저가형 AI 모델 등장 당시에도 유사한 우려가 제기됐지만, 결국 수요 확대 논리가 우세했다고 평가하고 있다. 모건스탠리 측은 “터보퀀트는 하이퍼스케일러의 투자 효율성을 높이는 기술”이라며 “토큰당 비용이 낮아질수록 AI 서비스 채택이 늘어 장기적으로 메모리 제조업체에도 긍정적인 영향을 줄 수 있다”고 덧붙였다. 오르투스 어드바이저스의 앤드류 잭슨 애널리스트 역시 “현재와 같은 공급 제약 상황을 고려하면 이번 기술이 수요에 미치는 영향은 제한적일 것”이라고 평가했다.

2026.03.27 09:34이정현 미디어연구소

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

파두 "올해 반드시 흑자 전환…유상증자 계획 없어"

데이터센터용 반도체 설계 전문기업 파두가 올해 흑자 전환에 대한 강한 자신감을 내비치며, 시장 일각에서 제기된 유상증자 우려를 일축했다. 파두는 26일 오전 서울 강남구 호텔리베라 청담에서 제11기 정기주주총회를 열고 이 같은 내용을 골자로 한 올해 경영 목표와 중장기 사업 전략을 주주들에게 공유했다. "빅테크 파트너십 굳건…주력사업 유상증자 우려 없다" 회사 측은 긍정적인 실적 전망과 재무적 안정성의 핵심 배경으로 글로벌 주요 고객사와의 탄탄한 협력 관계를 꼽았다. 파두 경영진은 이날 주주총회 현장에서 "빅테크 등 주요 고객사와의 견고한 파트너십이 당사 기술 경쟁력과 시장 안착의 든든한 기반이 되고 있다"며 "이러한 핵심 파트너들과의 긴밀한 협력을 바탕으로 올해 흑자 전환을 반드시 이뤄낼 것"이라고 강조했다. 이어 경영진은 "현재 회사의 자금 흐름과 수주 상황을 고려할 때, 주력사업 부문에서 시장에서 우려하는 유상증자 계획은 없다"며 "신사업이 시작되면 내용에 따라 자금 조달이 필요할 수 있다"고 말했다. 신기술 투자는 '속도 조절'…사법리스크 소명·준법 강화 차세대 반도체 기술 개발과 관련 선제적인 대규모 투자보다는 철저히 '시장 상황'과 '수요 개화 시점'에 맞춘 현실적이고 탄력적인 속도 조절 전략을 내세웠다. 특히 CXL(컴퓨트익스프레스링크) 기술에 대해서는 관련 생태계 및 시장 상황을 면밀히 살피며 연구개발(R&D) 속도를 조절하고 있다. 현재 파두는 자회사 이음을 통해 CXL 솔루션을 개발하고 있다. HBF(고대역폭플래시) 등 기타 신기술 분야 역시 마찬가지다. 섣부른 과잉 투자로 재무적 부담을 키우기보다는, 시장이 확실히 열리고 고객사의 실질적인 수요가 가시화된다고 판단되는 시점에 맞춰 기민하게 움직이겠다는 '선택과 집중' 전략을 분명히 했다. 파두 경영진은 "기술적 우위를 점하기 위한 선행 연구는 지속하되, 대규모 자본이 투입되는 상용화 투자는 고객사의 확실한 요구가 있을 때 집행할 것"이라며 "재무 건전성을 훼손하지 않는 범위 내에서 신사업 타임라인을 유연하게 가져가며 투자 대비 효율을 극대화하겠다"고 설명했다. 상장 이후 불거진 사법 리스크와 관련해서는 신중하면서도 책임감 있는 입장을 견지했다. 회사 측은 "현재 관련 재판이 진행 중인 사안이기 때문에 구체적인 언급은 조심스럽다"면서도 "향후 진행되는 재판 과정을 통해 제기된 의혹들에 대해 성실하게 소명해 나갈 계획"이라고 밝혔다. 아울러 파두는 준법 경영을 한층 강화하고 내부 통제 시스템을 재정비하기 위한 일환으로 이번 주주총회를 통해 법률 전문가인 최희준 변호사를 사외이사 겸 감사위원으로 신규 선임했다. 판사 출신인 최 사외이사의 합류를 통해 이사회의 투명성을 높이고 시장의 신뢰를 회복하겠다는 강력한 의지로 풀이된다. 남이현 파두 대표는 "회사에 아낌없는 성원을 보내주시는 주주 및 고객사에 깊이 감사드린다"며 "모든 임직원이 한마음으로 노력해 기술혁신, 매출확대, 수익성 개선 등을 이뤄내 주주가치를 제고할 것"이라고 말했다.

2026.03.26 13:08전화평 기자

삼성, 차차세대 엑시노스 '뱅가드' 연내 설계 목표…2나노 고도화 지속

삼성전자가 차차세대 모바일 어플리케이션프로세서(AP)인 '엑시노스 2800(코드명 뱅가드)'의 설계를 연내 완료한다. 이전 세대와 마찬가지로 2나노 공정을 채택해 개발 및 수율 안정성을 담보할 수 있을 것으로 기대된다. 26일 업계에 따르면 삼성전자는 연내 테이프아웃(Tape-out; 설계 완료)을 목표로 차차세대 모바일 AP인 엑시노스 2800을 개발 중이다. 엑시노스 2800의 코드명은 '뱅가드(Vanguard)'다. 삼성전자 내부에서는 엑시노스의 코드명을 세대에 따라 알파벳 순으로, 또한 전 세계에 존재하는 산맥의 이름으로 붙인다. 예컨대 엑시노스 2500부터 2700까지의 코드명은 솔로몬(Solomon)-테티스(Thetis)-율리시스(Ulysses) 순이다. 현재 삼성전자 시스템LSI 사업부는 올해 연말 설계완료를 목표로 엑시노스 2800을 개발하고 있다. 테이프아웃은 칩 설계를 완료하고 도면을 제조(파운드리) 공정에 넘기는 과정을 뜻한다. 이후 샘플 제작 및 테스트를 거쳐야만 실제 칩 제작이 가능하다. 엑시노스 2800은 삼성전자의 최첨단 공정인 2나노미터(nm)로 양산된다. 그 중에서도 2세대 2나노(SF2P) 공정의 개선 버전인 'SF2P+'가 적용된 것으로 알려졌다. 당초 삼성전자는 2027년부터 1.4나노 공정(SF1.4) 양산에 나설 예정이었다. 그러나 급진적인 공정 개발보다는 수율 안정화 및 최적화에 초점을 맞추기로 하면서, 1.4나노 공정 양산 일정을 2년가량 미뤘다. 대신 올해 양산을 앞둔 SF2P의 개선 버전인 SF2P+을 추가하기로 했다. 우선 SF2P는 1세대 2나노(SF2) 대비 성능이 12% 향상됐다. 동시에 소비전력은 25%, 면적은 8% 줄었다. SF2P+는 여기에 광학 기술 최적화로 반도체 회로의 크기를 일정 비율로 축소하는 옵틱 슈링크(Optic Shrink) 기술을 적용한다. 전체적으로 칩 면적을 줄여 성능 및 전력효율성 향상에 유리할 것으로 관측된다. 2나노 공정 채택 지속에 따른 이점도 있다. 이전 세대와 동일하게 2나노를 기반으로 설계하기 때문에, 시스템LSI 사업부 입장에서는 설계 난이도를 낮출 수 있다. 파운드리 측면에서의 수율 안정화에도 유리하다. 실제로 삼성전자가 올해 양산을 목표로 한 엑시노스 2700(율리시스)도 설계가 비교적 순조롭게 진행됐던 것으로 전해진다. 반도체 업계 관계자는 "이전만큼 모바일 AP에서 매년 공정 미세화를 진행하는 것이 현실적으로 불가능하다는 게 삼성전자 시스템LSI 내부의 중론"이라며 "대안으로 DTCO(설계 기술 공동 최적화)에 주목하고 있다"고 설명했다. DTCO는 반도체 설계와 제조 공정 기술 간의 최적화를 뜻한다. 기술적 성숙도가 낮아 수율 향상에 불리한 최선단 공정에서 더 중요한 의미를 가진다.

2026.03.26 10:36장경윤 기자

한미반도체, 세미콘 차이나서 2.5D TC 본더 첫 전시

한미반도체는 25~27일 중국 상하이에서 개최되는 '2026 세미콘 차이나'에서 인공지능(AI) 반도체용 신규 장비 '2.5D 열압착(TC) 본더 40'과 '2.5D TC 본더 120' 2종과, 와이드 TC 본더를 처음 전시한다고 밝혔다. 이번에 전시하는 신규 장비는 실리콘 인터포저 위에 그래픽처리장치(GPU), 중앙처리장치(CPU), 고대역폭메모리(HBM) 등 여러 칩을 하나의 패키지로 통합하는 AI 첨단 패키징 장비다. 향후 크게 성장하는 고부가가치 AI 반도체 2.5D 패키징 시장에 본격 진출한다는 점에서 의미가 있다. 한미반도체 2.5D TC 본더 40은 40x40mm 크기 칩과 웨이퍼 본딩이 가능하다. 2.5D TC 본더 120은 웨이퍼나 기판(Substrates) 등 보다 넓은 크기 대형 인터포저 패키징을 지원한다. 최근 중국과 대만의 파운드리 업체가 장비를 요청했다. 해당 고객에 공급을 앞두고 있다. 한미반도체는 차세대 HBM 생산장비 와이드 TC 본더를 올해 하반기 출시할 계획이다. 이 장비는 차세대 HBM 생산장비로 HBM 다이 면적이 넓어지면서 TSV(실리콘관통전극) 수와 I/O(입출력 인터페이스) 수를 안정적으로 늘릴 수 있다. 또한 D램 다이와 인터포저를 연결하는 마이크로 범프(Micro Bump) 수도 증가해 메모리 용량과 대역폭을 확보할 수 있고, 이전 HBM 생산용 TC 본더 대비 전력 효율도 개선할 수 있다. HBM 고단화 흐름이 지속되는 가운데, 업계에서는 반도체 패키지 규격 완화 가능성이 주목받고 있다. 국제반도체표준협의기구(JEDEC)는 HBM 패키지 높이 기준을 기존 약 775마이크로미터(㎛)에서 900㎛ 수준으로 확대하는 방안을 검토 중인 것으로 알려졌다. 규격 변화는 하이브리드 본딩의 본격적인 양산 적용 시점을 5년 뒤로 미루는 요인으로 작용할 수 있다. 그 기간 HBM 시장에서 기존 TC 본더가 상당 기간 시장 주류를 유지할 것으로 업계는 보고 있다. 앞서 한미반도체는 2020년 HBM 생산용 하이브리드 본더를 출시했다. 향후 16단 이상 고적층 HBM 사양에 맞게 2029~2030년 양산 적용을 목표로 개발하고 있다. 곽동신 한미반도체 회장은 "글로벌 시장에서 AI 반도체 패키징 수요가 빠르게 확대되고 있다"며 "2분기부터 분기당 매출이 2500억원 이상으로 지속 상승할 것으로 예상하며, 올해 연간 매출은 지난해 대비 40% 이상 성장할 것으로 예상한다"고 밝혔다.

2026.03.25 17:08장경윤 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

곽노정 SK하이닉스 "순현금 100조 확보해 장기적 전략 투자 집행"

SK하이닉스가 고대역폭메모리(HBM) 등 AI 메모리 수요에 적기 대응하기 위한 준비에 나선다. 중장기적으로 안정적인 투자를 집행하기 위해 순현금 100조원 이상을 확보하는 것이 목표다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 기존 메모리 수요는 IT 업황에 따라 하락과 상승을 반복하는 '사이클' 현상을 반복해왔다. 그러나 전세계 AI 기업들의 공격적인 인프라 투자에 따라, 고성능 AI 메모리 수요가 구조적인 공급 부족 현상에 직면할 수 있다는 시각이 제기되고 있다. 이에 SK하이닉스도 업황에 따라 설비투자 규모를 축소 및 확대하는 것이 아닌, 중장기적으로 안정적인 투자를 집행할 수 있는 재무건전성 확보에 나선다. 곽 사장은 "고객사 수요에 맞춰 안정적으로 투자를 집행할 수 있는 재무 건전성을 확보하는 것이 반드시 필요하다"며 "이에 회사는 순현금 100조원 이상을 확보하고자 한다. 이를 통해 어떠한 환경에서도 장기적이고 전략적으로 필요한 투자를 집행할 것"고 밝혔다. 이와 관련, SK하이닉스는 최첨단 메모리 생산능력 확대를 위한 투자를 적극 진행하고 있다. 올해 청주 M15X 팹 구축을 완료해 설비를 도입할 계획이며, 용인 대규모 반도체 클러스터 구축도 적극 추진 중이다.

2026.03.25 11:24장경윤 기자

SK하이닉스, 美 ADR 상장 추진…"연내 완료 목표"

SK하이닉스가 올해 미국 증시 상장을 위한 본격적인 준비에 돌입했다. SK하이닉스는 25일 공시에서 미국 증권거래소위원회(SEC)에 미국 주식예탁증서에 관한 상장 공모 관련 등록신청서를 비공개로 제출했다고 밝혔다. SK하이닉스는 "2026년 연내 상장을 목표로 추진하고 있으나, 현재 상장 공모의 규모, 방식, 일정 등 세부사항은 확정되지 않았다"고 밝혔다. 또 "최종 상장 여부는 SEC의 등록신청서 검토, 시장 상황, 수요예측 및 기타 제반 여건 등을 종합 고려하여 결정될 예정"이라며 "향후 구체적인 사항이 확정되는 시점 또는 6개월 이내에 재공시하겠다"고 밝혔다. ADR은 외국 기업이 미국 증시에서 자사 주식을 거래할 수 있도록 발행하는 증권이다. 글로벌 투자자 접근성을 확대하는 수단으로 활용되며, 국내 기업들의 기업가치 제고에도 유리하다는 평가를 받는다.

2026.03.25 08:26장경윤 기자

SK하이닉스, EUV 장비에 12조원 투자…차세대 D램·HBM 양산 준비

SK하이닉스가 최첨단 반도체 제조를 위한 극자외선(EUV) 설비에 대규모로 투자한다. 차세대 D램과 고대역폭메모리(HBM) 양산을 위한 움직임으로, 현재 구축 중인 신규 팹에 장비가 순차 도입될 전망이다. SK하이닉스는 24일 유형자산취득결정 공시에서 11조 9496억원 규모 극자외선(EUV) 장비를 도입한다고 밝혔다. 투자 규모는 SK하이닉스 자산총액의 9.97%에 해당한다. 취득예정일자는 이달부터 내년 12월 31일까지다. SK하이닉스는 "취득가액은 EUV 스캐너 도입과 운영을 위한 신규 기계장치, 설치, 재고에 소요되는 총 예상금액"이라며 "취득물건은 총 2년에 걸쳐 취득할 예정으로, 개별 장비 취득 시마다 분할해 대금을 집행할 예정"이라고 밝혔다. EUV는 반도체 웨이퍼에 회로를 새기는 노광 공정에 쓰이는 광원이다. 기존 반도체 노광공정 소재인 ArF(불화아르곤) 대비 빛의 파장이 13분의 1 수준으로 짧아(13.5나노미터), 초미세 공정 구현에 용이하다. 현재 EUV 장비는 네덜란드 반도체 장비기업 ASML이 독점 생산하고 있다. 기술 난도가 매우 높아 장비도 비싸다. 최신 설비 가격은 3000억원 수준인 것으로 알려졌다. 이를 고려하면 SK하이닉스는 내년까지 EUV 설비를 최소 30대 이상 도입할 것으로 예상된다. 현재 SK하이닉스는 청주 M15X 팹을 건설하고, 올해부터 설비를 본격 도입하고 있다. 용인 반도체 클러스터의 첫 번째 팹은 내년 2월 클린룸 오픈 후 설비 반입이 목표다. EUV 공정의 핵심 적용처는 1c(6세대 10나노급) D램이다. 앞서 SK하이닉스는 1a(4세대 10나노급) D램의 1개 레이어에 EUV를 처음 적용한 바 있다. 이후 1b D램에서는 이를 4개까지 확대했으며, 1c D램에는 더 많은 EUV 레이어를 적용한다. 1c D램은 SK하이닉스의 차세대 모바일·서버용 D램은 물론, 인공지능(AI) 데이터센터의 핵심 요소인 고대역폭메모리(HBM)에도 적용된다. 내년 양산이 본격화될 HBM4E(7세대 HBM)부터 1c D램을 첫 채택할 계획이다.

2026.03.24 15:09장경윤 기자

모빌린트, 스피어에이엑스와 엣지 AI 기반 영상 분석 협력

AI 반도체 기업 모빌린트가 AI 영상 분석 솔루션 기업 스피어에이엑스(SPHERE AX)와 AI 기반 안전·보안 및 스마트 인프라 사업 협력을 위한 전략적 업무협약(MOU)을 체결했다고 24일 밝혔다. 양사는 이번 협약을 통해 각 사가 보유한 기술력과 인프라를 결합해 엣지 AI 기반 영상 분석 솔루션을 공동 개발하고, 산업 현장의 안전 관리와 스마트 인프라 구축을 위한 사업 협력을 추진할 예정이다. 주요 협력 내용은 ▲엣지 AI 기반 지능형 영상 분석 솔루션 공동 개발 ▲산업 안전 및 보안 분야 사업 기회 공동 발굴 ▲기술 검토 및 실증(PoC) 수행 ▲공동 마케팅 및 생태계 연계 협력 등이다. 모빌린트는 자사의 고성능 NPU(신경망처리장치)를 기반으로 엣지 환경에서 고효율 AI 연산이 가능한 하드웨어 플랫폼을 제공하고, 스피어에이엑스는 AI 영상 분석 알고리즘 기술을 접목해 지능형 영상 분석 솔루션을 구현할 예정이다. 이를 통해 제조 현장, 건설 현장, 공공시설 등 다양한 산업 환경에서 실시간 안전 모니터링과 지능형 보안 시스템 구축을 추진한다는 계획이다. 특히 양사는 엣지 AI 기반 영상 분석 기술을 활용해 산업 안전 관리 및 스마트 인프라 분야에서 새로운 사업 기회를 공동 발굴하고, 실제 운영 환경에서의 성능 검증(PoC)을 통해 상용화를 추진할 예정이다. 신동주 모빌린트 대표는 “스피어에이엑스의 AI 영상 분석 기술과 모빌린트의 고성능 NPU 기술이 결합되면 산업 현장에서 요구되는 실시간 AI 분석과 안정적인 시스템 구축이 가능해질 것”이라며 “양사의 협력을 통해 지능형 안전 관리 및 스마트 인프라 분야에서 새로운 AI 솔루션 모델을 만들어 나가겠다”고 말했다. 박윤하 스피어에이엑스 대표는 “스피어에이엑스가 보유한 영상 기반 AI 추론 기술과 모빌린트의 NPU 기반 엣지 AI 하드웨어플랫폼이 결합되면 향후 피지컬 AI 분야에서 큰 시너지를 창출할 수 있을 것으로 기대한다”며 “특히 모빌리티, 드론, 로봇 등 다양한 산업 영역에서 영상 기반 AI 인지 및 판단 기술이 중요한 역할을 하게 될 것으로 보고 있으며, 양사의 기술 협력을 통해 이러한 분야에서 새로운 AI 응용 시장을 개척하고 글로벌 시장을 선도해 나가겠다”고 밝혔다.

2026.03.24 14:59전화평 기자

한화비전 "올해 한화세미텍 매출 20% 성장 전망"

한화비전이 올해 자회사 한화세미텍 매출이 전년비 20% 이상 성장할 것이라고 전망했다. 한화세미텍은 전체 매출에서 비중은 작지만 고대역폭메모리(HBM)용 열압착(TC) 본더를 만들어 SK하이닉스에 납품 중이다. 한화비전은 24일 경기도 성남시에서 개최한 정기주주총회에서 "올해 한화세미텍 매출은 전년비 20% 이상 성장을 전망한다"며 "HBM 수요가 견조하기 때문에 TC 본더 같은 장비는 지난해에 이어 수주할 것으로 본다"고 밝혔다. 이어 "지난해보다 훨씬 더 좋은 성적을 낼 것으로 기대한다"고 덧붙였다. 한화비전은 '한화세미텍의 흑자전환 시점'을 묻는 질문에는 "구체적인 시점은 따로 공개하지 않는다"고 답했다. 지난해 한화비전의 전체 매출 1조 8000억원 중 한화세미텍이 만드는 산업용 장비 매출은 4600억원이었다. 이 부문 영업손실은 200억원이다. 올해 산업용 장비 매출이 지난해(4600억원)보다 20% 많으면 5500억원 내외다. 산업용 장비 매출에서도 TC 본더 비중은 아직 작다. 한화세미텍은 지난해부터 SK하이닉스에 TC 본더를 납품하며 한미반도체와 경쟁구도를 형성했다. 한화세미텍과 한미반도체는 서로를 상대로 특허침해소송도 제기했다. 김기철 한화비전 대표는 주총 인사말에서 "(지난해) 산업용 장비 부문은 HBM용 첨단 패키지 장비 시장에서 주목할 만한 성과를 거뒀다"며 "양산용 TC 본더를 글로벌 반도체 제조사에 공급하며 HBM 공급망에 성공적으로 진입했고 차별화 기술력을 인정받았다"고 밝혔다. 올해 전망에 대해 김기철 대표는 "TC 본더 시장에서 입지를 공고히 다지고, 글로벌 반도체 기업과 협업해 기술 경쟁력을 높이겠다"며 "이미 개발한 하이브리드 본더와 함께 플럭스리스 본더, 팬아웃패널레벨패키징 등 차세대 패키징 장비로 미래 시장을 선점하겠다"고 덧붙였다. 한화비전은 전공정 증착 장비 매출이 발생하려면 2~3년 필요하다고 답했다. 주총에서 한화비전은 "전공정 장비는 규모는 말하기 어렵지만 샘플 장비 매출은 발생했다"며 "파트너 업체와 협업 중이고 현재 로드맵에 따르면 당장 (양산) 매출이 발생하기보다는, 2~3년 정도 시간이 더 필요하다"고 설명했다. 시스템온칩(SoC)은 계속 자체 개발하겠다고 밝혔다. 한화비전은 "SoC는 현재 보유 중인 핵심 자산이고, 영업에서 가장 큰 무기여서 외주화하지 않고 인하우스에서 계속 개발할 생각"이라고 밝혔다. 한화비전의 지난해 실적은 매출 1조 8000억원, 영업이익 1600억원 등이다. 사업별 매출은 시큐리티 부문 1조 3400억원, 산업용 장비 부문 4600억원 등이다. 김기철 대표는 "시큐리티 부문은 인공지능(AI) 기반 영상보안 시스템 도입 확대와 글로벌 시장 다변화로 역대 최대 실적을 올렸다"고 설명했다.

2026.03.24 14:48이기종 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] "하루 1조씩 손해"…'성과급 5.4억' 제안 받은 삼성전자 노조, 파업 시계 '째깍'

좋은 소식 있다더니 또 막힌 호르무즈…미·이란 긴장 재고조

[SW키트] '무제한 AI 요금제' 저무나…쓴 만큼 돈 내는 시대 온다

7년차 공무원이 불 붙인 'AI 자가개발' 열풍…과기정통부도 'AI 어벤저스' 출격

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.