• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'반도체'통합검색 결과 입니다. (1395건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

정부, 정유사에 비축유 긴급대여…스와프 제도 시행

중동 정세 악화로 중동산 원유 도입에 차질이 빚어지고 있는 가운데, 정부가 31일 비축유를 긴급대여하는 방식의 '정부 비축유 스와프 제도'를 실시한다. 비축유 스와프 제도는 원유 수급이 급한 기업에 정부 비축유를 긴급 대여해주고 기업의 대체 도입 원유와 맞교환하는 방식으로 운영된다. 원요 맞교환 시기는 기업이 조달한 선박이 도착하는 시점이다. 비축유가 필요한 기업이 대체 물량 선적 서류를 제출하면 사업부와 석유공사는 서류 검증과 타당성을 검토한 후 석유공사 비축유를 공급하고 기업은 선박이 도착하는 시점에 원유를 상환하게 된다. 양기욱 산업통상부 산업자원안보실장은 “비축유 스와프 제도는 정유사의 대체 물량 확보를 촉진하고 일시적 도입 차질을 완화하기 위해 도입했다”며 “원유 수급의 최후 안전판이 정부 비축유 방출을 최대한 늦출 수 있다”고 설명했다. 양 실장은 “1개 정유사가 월 200만 배럴 규모 스와프 계약을 체결할 것”이라고 전했다. 비축유 스와프 제도는 4월과 5월 2달간 실시하고 이후 상황에 따라 산업부 장관 승인을 받아 1개월씩 연장한다. 비축유 스와프 제도 정산가격은 기본 대여료에 기업 대체 물량과 정부 비축유 간 가격차액을 더해 결정한다. 가격차액은 비축유 월평균 현물가격에서 대체 물량의 실제 구매가격을 뺀 금액이다. 정산시기는 월말 사후 정산방식으로 운영한다. 양 실장은 “11개 업종별 주요 기업 공급망을 중심으로 일일 수급 모니터링 중”이라며 “반도체·디스플레이·배터리·의약품·조선 관련 품목 가운데 헬륨(반도체·디스플레이)·브롬화수소(반도체)·황산(배터리)·에틸렌(조선) 등은 상반기까지 수급에 문제가 없을 것으로 파악하고 있다”고 밝혔다. 이어 “수액제 포장재는 3개월간 수급 차질이 없도록 조치했고 대체 공급방안도 추진 중이지만 플라스틱 등 자동차 생산부품·가전 내외장재 등은 전쟁 장기화시 수급 불확실성이 잠재해 있다”고 덧붙였다. 산업부는 전쟁 장기화에 대비해 석유화학제품 수급관리를 강화하고 있다. 생활필수품, 보건·의료 등 필수제품 원료인 석유화학제품 공급 차질 방지를 위한 매점매석 금지 등을 추진하고 '중동전쟁 공급망지원세터'를 중심으로 업종별 수급 애로를 접수·점검하고 보건의료·생활필수품·핵심사업 등 주요 품목 수급에 차질이 없도록 국민 생명·안전 분야에 최우선 배분할 계획이다.

2026.03.31 11:30주문정 기자

리벨리온, 6400억 투자 유치...기업가치 3.4조

국내 AI 반도체 스타트업 리벨리온이 국민성장펀드 1호로 선정되면서 6400억원 규모의 프리IPO 라운드 투자를 유치했다고 31일 밝혔다. 이번 투자로 리벨리온은 3조4000억원의 기업가치를 달성했다. 이번 프리IPO 라운드는 정부 주도의 정책자금과 미래에셋그룹이 리드한 민간 자본이 결집된 '민관 합동 투자'의 결과다. 정책자금의 경우 국민성장펀드에서 2500억원, 산업은행이 500억원을 각각 투자해 총 3000억원의 재원을 조성했다. 특히 미래에셋그룹은 그룹 차원에서 앵커 투자자로 나서며, 3000억원의 투자를 리드했다. 이러한 시장의 신뢰를 바탕으로 기존 투자자들도 신주인수권을 행사하며 총 6400억원 규모로 이번 투자가 마무리될 예정이다. 이번 투자는 정부가 대한민국 AI 3대 강국 달성을 목표로 추진 중인 '국민성장펀드 1차 메가프로젝트'의 핵심 과제인 'K-엔비디아 육성 프로젝트'의 실질적인 첫 행보다. 정부는 AI 반도체 분야에 필요한 다양한 투자와 지원을 바탕으로 기존 GPU의 전력·비용 한계를 극복할 국산 NPU 생태계를 구축할 계획이다. 그 일환으로 5년간 150조원 규모의 국민성장펀드 중 15조원을 혁신 기업에 대한 지분 투자 방식으로 집행, 리벨리온이 그 첫 사례로 이름을 올리며 국산 NPU 생태계 전반을 견인할 대표주자로 나서게 됐다. 회사는 이번 자금 조달을 바탕으로 인재 채용에 박차를 가할 계획이다. 현재 리벨리온은 300여명의 인력 규모를 갖추고 있다. 박성현 리벨리온 대표는 “지난 5년간 국내 반도체 생태계와 정부의 전폭적인 지지가 있었기에 리벨리온이 여기까지 성장할 수 있었다"며 "AI 추론 시장이 개화하는 '골든타임'을 놓치지 않기 위해 국가와 민간의 모험자본이 적시에 힘을 모아주신 것은 대한민국 반도체 생태계의 역사에 있어 상징적인, 매우 가슴 뛰는 순간”이라고 말했다. 그러면서 “이제는 경쟁력 있는 인재들과 함께 지금보다 2배 이상으로 팀을 키워 한층 더 높은 수준의 인재밀도를 갖추고, 글로벌 AI 인프라 시장의 중심에서 한국 AI 및 반도체 생태계와 함께 그 경쟁력을 직접 증명해보일 것”이라고 강조했다.

2026.03.31 09:25전화평 기자

"노트북, 신형보다 구형 살래요"…이커머스, 신학기 특수 '실종'

신학기 성수기에도 노트북 수요가 되레 꺾여 제조사와 이커머스 업계 모두 웃지 못하고 있다. 반도체 가격 급등으로 제품 가격이 크게 오르면서 소비가 위축된 영향이다. 여기에 중동발 지정학 리스크까지 겹치며 가격 부담은 당분간 이어질 것으로 전망된다. 31일 전자업계에 따르면 신학기 시즌임에도 불구하고 노트북 제조사와 이커머스 플랫폼 전반에서 수요 감소 흐름이 감지되고 있다. 최근 반도체 가격 상승이 직접적인 원인으로 지목된다. 일부 구간에서 범용 D램 가격이 급등하면서 이를 탑재한 노트북과 PC, 스마트폰 가격이 전반적으로 상승세를 보이고 있다. 시장조사업체 트렌드포스는 올해 1분기 범용 D램 계약 가격이 전 분기 대비 55~60% 상승할 것으로 전망했다. 업계 관계자는 “노트북을 포함해 모바일 시장 전반이 위축된 상황”이라며 “신제품 가격이 크게 오르면서 대학생 등 주요 수요층이 최신 모델 대신 가격 부담이 낮은 구형 모델을 선택하는 경향이 뚜렷해지고 있다”고 말했다. 노트북 가격 인상…칩플레이션 영향 한 번에 반영한 탓 플랫폼에서 노트북 등 디지털·가전을 취급하는 이커머스업계에서도 이러한 흐름이 관찰되고 있다. 이커머스 A사 관계자는 “자사뿐만 아니라 다른 플랫폼에서도 비율 차이는 있겠지만 전반적으로 (노트북 판매량이) 감소했을 것”이라고 설명했다. 노트북 최신 모델 대비 구형 모델에 대한 선호도가 올라간 것은 칩플레이션에 따른 가격 인상분을 올해 초 한 번에 반영하면서다. A사 관계자는 “노트북은 올해 초 칩플레이션으로 인해 한 번에 가격 인상이 이뤄졌다”며 “올해 신제품의 경우 전작 대비 판매가가 두 자릿수 이상 뛰었다. 특히 300만원 이상 하이엔드 모델은 가격이 상승했다”고 답했다. 또 다른 이커머스 B사 관계자는 “1, 2월은 나쁘지 않았는데 3월 노트북 판매량이 다소 주춤했다”면서 “아직 3월이 마무리되지 않아 추이를 지켜보고 있다”고 덧붙였다. 이란 전쟁 지속에…헬륨 등 공급 불안정도 가격 상승 요인으로 이란 전쟁이 계속되면서 가격 안정화에 대한 향후 전망도 불투명하다. 반도체 핵심 공정가스인 헬륨이 호르무즈 해협 봉쇄로 수급 차질이 예상된다는 점이 하나의 원인으로 꼽힌다. 전 세계 헬륨 공급의 약 30%를 담당하던 카타르의 액화천연가스(LNG) 생산 시설이 공격받으면서 한국을 포함한 주요국과 맺은 LNG 장기 공급계약에 '불가항력'을 선언한 것이다. 업계 관계자는 “칩플레이션도 그렇지만 이란 전쟁도 있기 때문에 기본적으로 물가가 다 올랐다”며 “반도체 가격도 지금보다 더 오를 것”이라고 우려했다. 이어 “(반도체 가격이 오르면) 당연히 세트 쪽은 (가격 인상이) 들어온다”며 “전쟁이 안 끝나면 IT업체들은 피해가 클 것”이라고 전망했다.

2026.03.31 09:10박서린 기자

ST마이크로, 가전·산업용 GaN 모터 제어 디자인 공개

ST마이크로일렉트로닉스(ST마이크로)가 가전제품과 산업용 드라이브를 위해 설계한 갈륨나이트라이드(GaN) 기반 모터 제어 레퍼런스 디자인 'EVSTDRVG611MC'를 30일 공개했다. ST마이크로는 "히트싱크 없이도 600W 이상 출력을 처리할 수 있다"며 "초소형 폼팩터와 낮은 제조비용을 보장한다"고 밝혔다. 레퍼런스 디자인은 턴키 보드 형태로 제공한다. 전원을 연결하면 성능을 바로 평가할 수 있다. ST마이크로의 GaN 드라이버 IC 'STDRIVEG611', GaN 전력 트랜지스터, 마이크로컨트롤러 'STM32G431' 등을 탑재했다. ST마이크로는 "BOM(부품목록)과 회로도는 물론, 2레이어 108×110mm 보드용 거버 파일도 다운로드할 수 있다"고 설명했다. ST마이크로는 "GaN HEMT(High Electron-Mobility Transistor)와 드라이버 IC는 혁신적 전력변환 기술로 이미 충전기, 어댑터, 서버 PSU 등 애플리케이션에서 기존 실리콘 기술로 달성하기 어려운 효율과 전력밀도를 구현하도록 지원한다"고 강조했다. 이어 "EVSTDRVG611MC 레퍼런스 디자인에 탑재한 STDRIVEG611 게이트 드라이버는 하드 스위칭에 최적화해 모터 제어에서 GaN 기술을 적용할 수 있다"며 "이러한 드라이버와 650V 75mΩ GaN 트랜지스터가 결합돼 가전제품 설계자는 업계 최고 에너지 등급과 더 작은 전자 모듈, 향상된 신뢰성을 달성할 수 있다"고 밝혔다. EVSTDRVG611MC는 DC 전원에 연결하면 히트싱크 없이도 600W 이상으로 동작한다. 히트싱크를 추가하면 최대 성능이 향상돼 가전뿐만 아니라 산업용 서보 드라이브와 기타 브러시리스 DC(BLDC) 모터 애플리케이션 등 전력 범위를 지원한다. STDRIVEG611 드라이버는 5×4mm 크기 소형 QFN 패키지로 구현했다. STM32 제품군 중 하나인 마이크로컨트롤러 STM32G431은 3션트(3-shunt) 센싱을 위한 3개의 아날로그 증폭기를 탑재했다. 마이크로컨트롤러에 내장한 암(Arm) 코텍스(Cortex)-M4 코어는 고속 회전 조건에서도 제어 알고리즘을 실행한다. ST마이크로는 "엔지니어는 ST 모터 컨트롤 워크벤치를 활용해 EVSTDRVG611MC 보드를 평가하고 애플리케이션을 개발할 수 있다"며 "이 워크벤치는 신규 프로젝트를 위한 모터 프로파일링 툴과 개발 지원을 위한 성능 모니터링 툴을 포함하고 있다"고 밝혔다. 이어 "자동 펌웨어 생성 기능을 제공해 제품 출시기간을 단축할 수 있다"며 "사용자는 홀 센서, 증분형 또는 절대형 인코더 등 피드백 옵션을 활용해 센서리스나 센서 기반 모드에 FOC(Field-Oriented Control)를 적용해 정밀한 모션 제어를 구현할 수 있다"고 덧붙였다.

2026.03.30 17:45이기종 기자

곽동신 한미반도체 회장, 30억원 규모 자사주 추가 취득

한미반도체는 곽동신 회장이 30억원 규모의 자사주를 추가 취득한다고 30일 밝혔다. 이로써 곽 회장은 2023년부터 총 565억원(69만3722주)의 자사주를 취득하게 된다. 취득 예정 시기는 4월 27일로, 장내에서 취득할 예정이다. 이번 취득이 완료되면 곽동신 회장의 지분율은 33.57%로 높아진다. 곽 회장은 2023년부터 본격적으로 사재로 자사주를 매입해오고 있다. 곽 회장은 “찰리 멍거가 강조한 '훌륭한 기업을 적절한 가격에 사서 오래 보유하라'는 원칙을 본인의 경영에 적용했다”며 “한미반도체는 오랜기간 독보적인 기술력을 축적하며 성장해 왔다. 경영자이자 1대 주주로서 회사의 본질적인 가치를 믿고 주주들과 함께 장기적인 성장의 결실을 나누고 싶다”고 말했다. 한편 한미반도체는 AI 반도체의 핵심 부품인 HBM(고대역폭메모리) 생산에 필수적인 TC 본더 장비 분야에서 테크인사이츠 기준 71.2% 점유율로 세계 1위를 차지하고 있다.

2026.03.30 16:04전화평 기자

리벨리온, 차세대 AI칩 '리벨 100'으로 명칭 변경...왜?

국내 대표 AI 반도체 스타트업 리벨리온이 자사의 차세대 신경망처리장치(NPU) 명칭을 기존 '리벨 쿼드(REBEL-Quad)'에서 '리벨 100(REBEL 100)'으로 공식 변경하기로 했다. 칩 이름 하나로 전체 제품 라인업을 부르던 기존 방식에서 벗어나, 고객 편의성을 극대화하기 위한 직관적인 네이밍 개편이다. 30일 반도체 업계에 따르면 리벨리온은 올해 하반기 양산을 시작하는 차세대 칩을 '리벨 100'으로 명칭을 바꿨다. 이러한 명칭 개편의 배경에는 1세대 칩인 '아톰(ATOM)' 출시 당시의 경험이 있다. 전세대 칩인 아톰은 개별 칩과 카드, 서버 등 여러 제품을 하나의 이름으로 묶어 불렀다. 그러다 보니 고객 입장에서 헷갈린다는 피드백이 이어진 것이다. 이에 따라 칩 자체는 '리벨 100'으로 부르며, 이를 탑재한 카드는 '리벨 카드', 서버는 '리벨 서버'로 직관적인 세분화를 단행했다. 신제품 실물이 본격적으로 고객에게 가기 전에 선제적으로 이름 체계를 확립하려는 목적으로 풀이된다. 리벨리온 관계자는 이에 대해 “명칭을 변경하는 것은 맞다”며 “31일 홈페이지에 새로운 명칭이 업데이트될 예정”이라고 말했다. 엔비디아 'H200' 넘었다…실전 연산 성능 우위·3GB 더 큰 메모리 확보 새로운 이름을 단 '리벨 100'은 최근 내부 벤치마크 테스트 결과, 시장의 기준점인 엔비디아의 최신 AI 칩 'H200'과 대등하거나 이를 소폭 상회하는 성능을 기록했다. 세부 성능 비교 지표를 살펴보면 그 차이가 더욱 명확히 드러난다. 세계 최고 권위 반도체 설계 학회인 ISSCC 2026 발표 자료에 따르면 리벨 100의 FP16(16비트 부동소수점) 연산 성능은 1 페타플롭스(PFLOPS)로 H200(0.99 PFLOPS)과 대등한 수준을 기록했다. 나아가 최근 리벨리온 내부에서 대형언어모델(LLM)을 구동해 진행한 실제 추론 벤치마크 테스트에서는 리벨 100이 H200을 핵심 연산 속도 면에서 앞섰다. H200과 같은 속도를 낼 때 전력 효율이 최대 1.7배 더 높았다. 특히 눈에 띄는 것은 메모리 사양이다. 두 칩의 메모리 대역폭은 동일하지만, 가용 메모리 용량에서 리벨 100은 144GB를 확보해 엔비디아 H200(141GB)보다 3GB 더 높은 수치를 보였다. 업계에 따르면 엔비디아 H200은 144GB의 용량 중 3GB를 에러 정정 코드(ECC) 등 보조 오버헤드 영역으로 할당한다. 실제 가용 용량은 141GB인 셈이다. 반면 리벨 100은 144GB를 온전히 사용자에게 제공한다. 독자적인 칩렛(Chiplet) 아키텍처가 이를 가능하게 한 것으로 보인다. 리벨 100은 삼성전자 4나노 파운드리 공정으로 양산되며, 차세대 메모리인 HBM3E를 탑재했다. 세계 최초로 UCIe 다이-투-다이(Die-to-Die) 인터페이스를 적용해 4개의 칩렛을 하나의 칩처럼 구동시키는 아키텍처를 구현해 냈다. 이를 통해 설계 전력(TDP)을 최대 600W로 억제, 동일한 성능을 내는 엔비디아 H200(700W) 대비 전력 소모를 약 15% 이상 줄이는 전력 효율을 달성했다. 리벨리온은 이러한 하드웨어 경쟁력을 바탕으로 올해 시장 안착에 속도를 낼 계획이다. 현재 리벨리온은 xAI, 오픈AI 등 글로벌 빅테크 기업들과 협력을 진행하고 있다.

2026.03.30 16:00전화평 기자

딥엑스, 양산 7개월 만에 8개국·27건 구매 주문 확보

초저전력 피지컬 AI 반도체 기업 딥엑스가 첫 양산 제품 출시 7개월 만에 8개국에서 27건의 구매주문(PO)을 확보했다고 29일 밝혔다. 딥엑스는 지난해 8월 양산을 시작했으며 지난해 5개월 동안 확보된 PO는 2건이었다. 이후 3개월이 채 되지 않아 25건의 추가 주문이 발생하며 주문 증가 속도가 빠르게 증가했다. 확보된 주문은 로보틱스, 스마트팩토리, AI 엣지 서버, 산업용 AI, 지능형 영상보안, AI IT 서비스, 스마트시티 등 7개 주요 피지컬 AI 응용 분야에 걸쳐 발생했다. 딥엑스의 AI 반도체는 현재 미국, 유럽, 중국, 일본, 싱가포르 등 8개 국가의 다양한 피지컬 AI 응용 시장에 공급되고 있다. 빠른 글로벌 양산 확산의 배경에는 사전 글로벌 대규모 PoC(개념검증) 전략이 있다. 반도체 산업에서는 고객사들이 일반적으로 PoC를 시작한 이후 실제 고객사의 응용 제품 양산까지 9~18개월의 시간이 필요하다. 딥엑스는 양산 이전 약 1년여 동안 전 세계 350개 글로벌 고객사와 PoC 및 기술 협업을 진행하며 고객 파이프라인을 구축한 바 있다. 딥엑스 측은 "이러한 전략을 통해 양산 이후 다수 고객이 빠르게 실제 구매 주문으로 전환되는 효과가 나타나고 있다"고 설명했다. 딥엑스는 국내외 대기업과 협력하며 AI반도체 적용을 확대하고 있다. 현대자동차 로보틱스 그룹에서는 딥엑스 AI 반도체가 차세대 서비스 로봇 플랫폼에 적용되며 올해 하반기 양산을 앞두고 있다. 또한 중국 AI 기업 바이두와 공장 자동화 및 산업 AI 분야에서 협력한다. 김녹원 딥엑스 대표는 “딥엑스는 로보틱스 중심의 자율 이동체와 무인 생산 및 AI 제조 중심의 스마트 팩토리라는 두 축의 피지컬 AI 분야에서 글로벌 선도 AI 반도체 기업이 되고자 한다"며 "이를 통해 한국이 제조된 제품을 수출하는 나라에서 무인화된 공장을 수출하는 국가가 되는 데 기여하게 될 것”이라고 말했다.

2026.03.29 14:42전화평 기자

[카드뉴스] AI가 똑똑해지면 메모리가 필요없어질까

안녕하세요, AMEET 기자입니다. 구글이 최근 발표한 '터보퀀트'라는 기술이 반도체 시장에 작은 파장을 일으켰어요. 이 기술은 AI가 기억해야 할 데이터를 무려 6배나 압축할 수 있다고 하는데요, 마치 진공팩으로 옷을 꾹꾹 눌러 담는 것처럼 메모리 사용량을 대폭 줄일 수 있다는 거예요. 이 소식이 전해지자 SK하이닉스는 6.23%, 마이크론은 5.70%, 삼성전자는 4.71% 하락하는 등 메모리 반도체 기업들의 주가가 일제히 떨어졌답니다. 투자자들이 "이제 메모리를 덜 사게 되겠네?"라고 우려한 거죠. 하지만 전문가들은 정반대로 생각하고 있어요. 데이터를 압축하면 AI가 더 빨리 움직이게 되고, 빨라진 만큼 더 많은 데이터를 처리하게 된다는 논리예요. 마치 고속도로 차선을 늘리면 차가 더 많이 다니는 것과 같은 원리인데요. 실제로 메모리 회사들은 2026년 생산 물량이 이미 다 예약된 상태라고 해요. 게다가 앞으로는 빠른 메모리(HBM)와 저렴한 메모리(CXL)를 적재적소에 섞어 쓰는 방식이 대세가 될 거라고 하니, 메모리 수요는 오히려 다양해질 것 같아요. 결국 압축 기술은 메모리를 줄이는 게 아니라 더 효율적으로, 그리고 더 많이 쓰게 만드는 마법 같은 기술인 셈이에요. 기술이 발전할수록 메모리의 역할은 더 중요해질 거라는 게 전문가들의 공통된 의견이랍니다. 앞으로도 AMEET이 복잡한 기술 이야기를 쉽게 풀어드릴게요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.28 08:04AMEET

美, 반도체 공급망 위한 '팍스 실리카' 펀드 출범…3700억원 투입

미국 국무부가 자국 내 반도체 공급망 강화를 위한 '팍스 실리카(Pax silica)' 펀드를 출범한다고 26일(현지시간) 발표했다. 미국은 해당 펀드에 2억 5000만 달러(약 3700억원) 대외 원조 자금을 배정할 예정이다. 국무부는 "팍스 실리카는 공급망의 모든 단계에 걸쳐 전략 파트너십과 협력적 조치를 제공한다"며 "이 기금이 평균 1조 달러 이상 자산을 보유한 대규모 국부펀드와 민간 자본을 유치할 것으로 기대한다"고 밝혔다. 앞서 도널드 트럼프 미 행정부는 지난해 12월 반도체 제조용 핵심광물의 공급망 안정화를 위해 팍스 실리카라는 안보 협력체를 출범시킨 바 있다. 초기 한국과 일본, 싱가포르, 영국, 인도, 호주 등 8개국이 연합체에 합류했다. 가입국은 추가되고 있다. 팍스 실리카 참여국은 핵심광물과 반도체 설계·제조·패키징 등에서 공급망 취약성을 공동 점검하고, 이를 해결하기 위한 프로젝트를 추진할 계획이다. 이는 반도체·인공지능(AI) 등 첨단 산업 굴기에 적극 나서는 중국을 견제하기 위한 목적이라는 분석이 나온다. 현재 중국은 반도체 등 다양한 첨단 산업의 핵심 소재인 희토류 공급을 90%가량 장악하고 있다. 제이컵 헬버그 미 국무부 경제성장·에너지·환경 담당 차관은 "팍스 실리카 연합체의 투자 규모는 1조 달러 이상이 될 것"이라며 "일본 소프트뱅크, 싱가포르 테마섹 등이 창립 멤버가 될 것"이라고 말하기도 했다.

2026.03.28 08:00장경윤 기자

칩 보안법, 美하원 외교위 통과...엔비디아·AMD에 '밀수방지' 의무화

미국 하원 외교위원회가 엔비디아, AMD 등 자국 반도체 기업을 대상으로 인공지능(AI) 핵심 기술의 중국 밀수출을 막기 위한 감시 의무를 강화하는 법안을 통과시켰다. 최근 슈퍼마이크로 공동 창업자가 엔비디아 반도체를 중국으로 가공 수출한 혐의로 기소된 사건이 법안 처리에 결정적 도화선이 됐다. 블룸버그 통신은 미 하원 외교위가 '칩 보안법'을 찬성 42표, 반대 0표라는 압도적 표차로 가결해 본회의로 송부했다고 27일(현지시간) 보도했다. 법안 핵심은 엔비디아, AMD 등 AI 반도체 기업들이 자사 제품이 중국으로 유입되지 않도록 검증 체계를 강화하고, 이를 상무부에 보고하도록 의무화하는 것이다. 상무부 장관은 법 시행 후 1년 내에 미승인 칩 이동이나 최종사용자 변경에 대한 보고 규칙을 확정해야 한다. 이번 조치는 도널드 트럼프 행정부가 미국 기술의 글로벌 판매 확대를 위해 일부 규제 완화를 검토하는 상황에서 나와 주목된다. 법안을 주도한 빌 하이징아 의원은 "업계 일각에서 밀수 사실을 인지하지 못했다고 주장하지만, 여전히 해결되지 않은 전용 문제가 있다"며 입법 취지를 설명했다. 다만, 기업들 부담을 고려해 위치 추적 기술이나 원격 작동 중지 기능 탑재를 강제하지는 않는 '가벼운 규제' 방식을 택했다. 기존 보안 비즈니스 관행을 칩 보안 메커니즘으로 인정하는 등 유연성을 뒀다. 상무부 장관은 미국 경쟁력을 해칠 우려가 있을 경우 범정부 협의를 거쳐 규정 일부를 면제할 수 있는 권한도 갖는다. 정치권 압박은 거세지고 있다. 지난주 슈퍼마이크로의 공동 창업자인 월리 리아우가 구속 기소된 직후, 엘리자베스 워런 상원의원 등은 상무부에 중국 및 동남아시아로 향하는 모든 엔비디아 AI 칩과 서버의 수출 라이선스를 일시 중단하고 전면 재검토할 것을 촉구하는 서한을 보내기도 했다. 엔비디아는 이번 사안과 관련해 "수출 규제가 확대됨에 따라 규정 준수 프로그램을 위해 고객 및 정부와 긴밀히 협력하고 있다"는 입장을 밝혔다. 법안이 본회의를 통과해 최종 시행될 경우, AI 가속기 공급망 전반에 걸친 미 당국 감시망은 더욱 촘촘해질 전망이다.

2026.03.28 08:00전화평 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

OCI홀딩스, 조직개편·사장단 인사…"반도체 소재 기업으로 체질 개선"

OCI홀딩스가 내달 1일자로 조직개편과 사장단 인사를 실시한다고 27일 밝혔다. 이번 인사에선 김유신 OCI 최고경영자(CEO) 부회장이 OCI홀딩스 CEO 부회장을 겸직하게 됐다. 이수미 OCI홀딩스 대표도 OCI홀딩스 최고운영책임자(COO) 사장 겸 OCI 경영관리본부장 사장으로 승진했다. 김택중 전 OCI홀딩스 대표는 이사회 의장에 선임됐다. 이번 개편은 OCI 주식회사(사업회사)를 중심으로 단행됐다. 정밀소재사업본부, 기초소재사업본부 등 기존 2개의 사업부 체제에서 고객사 중심 판매 전담 조직을 독립부서로 재편해 반도체 슈퍼사이클에 밀착 대응하고, 이차전지 소재, 전도성 카본블랙과 같은 스페셜티 사업에 관한 업무 효율성, 수익을 극대화한다는 취지다. 이에 따라 고객솔루션사업팀을 신설하고 성과 중심의 인사 원칙에 따라 그룹 내부에서 검증된 전문 영업인력을 재배치함으로써 영업력, 수익성 강화에 나선다. 이를 위해 데이터 기반 객관성과 글로벌 시장 분석을 바탕으로 새로운 판매와 사업 기회를 지속적으로 모색해 회사의 이익과 성장을 이끌어 나갈 예정이다. OCI 중앙연구소도 고기능소재 연구실, 차세대소재 연구실, 반도체소재 연구실, 기반기술 연구실 그리고 R&D 인프라부를 새롭게 신설해 신규 반도체 소재, 카본 소재, 기반기술 개발 등 연구 특성이 반영된 연구실 조직으로 전면 재편한다. 신설된 고객솔루션사업팀은 OCI 중앙연구소가 추진 중인 신사업 발굴 및 R&D 역량 강화와 시너지를 극대화할 수 있도록 고객사와의 협업을 강화하고 경영진의 전략적 투자와 주요 의사결정에 필요한 인사이트를 제공하게 된다. 특히 1983년 설립된 OCI 중앙연구소는 지난 40여 년간 축적해온 R&D 데이터와 전략 노하우를 기반으로 급변하는 글로벌 시장 환경 속에서 스페셜티 중심의 미래 기술 확보와 고부가가치 제품 개발을 위한 그룹의 전초기지 역할을 수행할 예정이다. 이와 함께 OCI홀딩스는 사장단 인사를 실시하고 통합 컨트롤타워를 가동하고 첨단소재 기업으로의 전면적 체질개선에 속도를 낸다는 방침이다.

2026.03.27 12:02김윤희 기자

구글 터보퀀트가 쏘아 올린 공…메모리 반도체는 정말 위기일까

안녕하세요 AMEET 기자입니다. 최근 구글이 발표한 하나의 알고리즘 때문에 반도체 시장이 크게 술렁였습니다. 구글 리서치가 공개한 AI 메모리 압축 기술인 '터보퀀트(TurboQuant)'가 그 주인공이죠. AI 연산에 필요한 메모리 사용량을 무려 6분의 1로 줄이고 처리 속도는 8배나 높일 수 있다는 소식에 삼성전자와 SK하이닉스 주가가 하루 만에 4~6%가량 급락하는 등 시장은 즉각적인 반응을 보였습니다. 2026년 들어 가장 뜨거운 감자로 떠오른 이 기술이 정말 메모리 반도체의 수요를 갉아먹는 독이 될지, 아니면 시장의 판을 키우는 마중물이 될지 전문가들의 치열한 논점을 따라가 보았습니다. 기술적 혁신과 시장의 즉각적인 공포 터보퀀트의 핵심은 AI가 문맥을 기억하는 데 사용하는 데이터인 'KV 캐시'를 아주 효율적으로 압축하는 데 있습니다. 기존 기술들이 데이터를 압축할수록 정확도가 떨어지는 한계가 있었다면, 터보퀀트는 3비트 수준의 초고압축 상태에서도 성능 손실이 거의 없는 '무손실'에 가까운 성능을 보여준다는 점이 놀랍죠. 시장 분석가들은 이 기술이 상용화되면 빅테크 기업들이 지금처럼 많은 양의 고대역폭메모리(HBM)를 살 필요가 없어질 것이라는 우려를 쏟아냈습니다. 실제로 마이크론과 같은 글로벌 기업의 주가까지 동반 하락하며 이런 불안감은 현실이 되는 듯 보였습니다. 하지만 현장의 목소리는 조금 다릅니다. AI 기술 전문가들은 터보퀀트가 논문 수준의 성과를 넘어 실제 대규모 서비스에 적용되기까지는 여전히 넘어야 할 산이 많다고 지적합니다. 단순히 소프트웨어를 업데이트하는 수준이 아니라, AI 모델의 아키텍처 자체를 재설계하고 추론 엔진을 최적화하는 방대한 엔지니어링 작업이 수반되어야 하기 때문이죠. 즉, 당장 내일 아침부터 메모리 주문량이 줄어드는 일은 일어나기 어렵다는 논리입니다. AI 전문가들의 격렬한 논쟁 : 수요 절벽인가 패러다임의 전환인가 AI 전문가들 사이에서는 이 기술을 바라보는 관점이 극명하게 엇갈리고 있습니다. 한쪽에서는 터보퀀트가 결국 메모리의 '용량'에 대한 갈증을 해소해주면서 하드웨어 수요를 둔화시킬 것이라고 주장합니다. 메모리 사용량이 6분의 1로 줄어든다는 것은 동일한 인프라에서 6배 더 많은 작업을 처리할 수 있다는 뜻이니, 추가적인 증설 수요가 꺾일 수밖에 없다는 분석이죠. 그러나 반대하는 논리는 더욱 정교합니다. 전문가들은 병목 현상의 '이동'에 주목해야 한다고 강조합니다. 터보퀀트로 데이터 용량을 줄여 처리 속도를 8배 높이게 되면, 오히려 데이터를 더 빠르게 주고받아야 하는 '대역폭'의 중요성이 훨씬 커진다는 것이죠. 결국 용량은 줄어들지 몰라도 더 고성능의 HBM이나 차세대 연결 기술인 CXL(Compute Express Link)에 대한 요구는 오히려 가속화될 것이라는 논리입니다. 논점은 단순히 '얼마나 많이 저장하느냐'에서 '얼마나 빠르게 쏟아붓느냐'로 이동하고 있습니다. 합의된 사항도 존재합니다. 2026년 현재 HBM 공급 부족은 소프트웨어 기술 때문이 아니라 물리적인 공장 건설과 수율 문제라는 점입니다. 삼성전자와 SK하이닉스의 2026년 물량은 이미 완판된 상태이며, 알고리즘 하나가 이 거대한 물리적 흐름을 즉각적으로 돌려놓기는 어렵다는 데 의견이 모였습니다. 다만, 2027년 이후부터는 소프트웨어 최적화 속도가 하드웨어 수요 증가 속도에 유의미한 영향을 미칠 수 있다는 점에서는 비판적인 시각과 낙관적인 시각이 팽팽하게 맞서고 있습니다. 결국 다시 인간의 전략으로 돌아가는 판단의 영역 결국 이번 터보퀀트 논란은 우리에게 중요한 질문을 던집니다. 효율적인 소프트웨어가 등장하면 하드웨어 산업은 도태될까요? 과거의 역사를 보면 기술의 효율화는 비용 하락을 불러왔고, 이는 다시 폭발적인 수요 증가로 이어지는 경우가 많았습니다. AI 서비스 비용이 저렴해지면 더 많은 기업이 AI를 도입할 것이고, 이는 결국 더 많은 서버와 데이터센터, 그리고 더 진화된 형태의 메모리 솔루션을 요구하게 될 것입니다. 전문가들은 메모리 기업들이 이제 단순히 '더 큰 용량'을 만드는 것에 안주해서는 안 된다고 조언합니다. CXL 기반의 메모리 풀링 기술처럼 유휴 자원을 효율적으로 나누고 관리하는 복합적인 솔루션을 내놓아야 하는 숙제가 주어진 셈이죠. 구글의 터보퀀트가 던진 파장은 일시적인 주가 하락이라는 숫자에 머물지 않고, 반도체 산업이 가야 할 다음 단계가 무엇인지 치열하게 고민하게 만드는 계기가 되었습니다. 알고리즘은 세상을 더 효율적으로 만들지만, 그 효율성을 어떤 가치로 바꿀지는 여전히 우리의 전략적 선택에 달려 있습니다. 기술의 발전이 하드웨어를 대체할지, 아니면 새로운 날개를 달아줄지 지켜보는 것은 이제 이 산업을 이끌어가는 인간들의 몫으로 남았습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.27 10:14AMEET

"메모리 6분의 1로 줄인다"…구글 터보퀀트에 반도체주 휘청

구글이 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 해결할 수 있는 차세대 압축 기술을 공개하자, 메모리 반도체 관련 기업 주가가 일제히 하락했다. 블룸버그 통신은 26일(현지시간) 구글의 신기술 발표 이후 메모리 업종 전반에 투자 심리가 위축되며 주요 기업 주가가 약세를 보였다고 보도했다. 삼성전자와 SK하이닉스는 한국시간 26일 모두 하락 마감했으며, 미국 뉴욕 증시에서는 마이크론, 웨스턴디지털, 샌디스크가 7% 이상 급락했다. 최근 몇 달간 AI 인프라 투자 확대에 따른 메모리 칩 공급 부족으로 가격이 상승하면서 관련 기업 주가는 큰 폭의 상승세를 이어왔다. SK하이닉스와 삼성전자는 이달 25일까지 연초 대비 50% 이상 급등했고, 부진을 겪던 키옥시아 홀딩스 주가 역시 두 배 이상 상승했다. 이 같은 흐름 속에서 구글이 공개한 '터보퀀트(TurboQuant)' 기술이 변수로 떠올랐다. 해당 기술은 대규모 언어모델(LLM) 구동에 필요한 메모리 용량을 최소 6분의 1 수준으로 줄일 수 있는 것으로 알려졌다. 구글은 이를 통해 AI 학습 및 운영 비용 전반을 절감할 수 있다고 설명했다. 이에 따라 시장에서는 데이터센터를 운영하는 하이퍼스케일러의 메모리 수요가 감소할 수 있다는 우려가 제기됐다. 이는 장기적으로 스마트폰과 가전제품 등에 사용되는 메모리 가격 하락으로 이어질 가능성도 거론된다. 다만 전문가들은 단기 충격과 달리 중장기적으로는 수요 확대 가능성에 무게를 두고 있다. 숀 킴 모건스탠리 애널리스트는 “해당 기술은 업계의 핵심 병목을 해소하는 긍정적인 진전”이라며 “성능 저하 없이 메모리 요구량이 낮아질 경우, 쿼리 처리 비용이 크게 줄어 AI 서비스의 수익성이 개선될 것”이라고 분석했다. AI 업계에서는 비용이 낮아질수록 사용량이 증가하는 '제본스의 역설'을 근거로, 장기적으로 메모리 수요가 오히려 확대될 수 있다는 시각도 제기된다. JP모건 역시 투자자들의 단기 차익 실현 가능성은 인정하면서도, 당장 메모리 수요를 위협할 수준의 변화는 아니라는 입장을 밝혔다. 업계는 지난해 저가형 AI 모델 등장 당시에도 유사한 우려가 제기됐지만, 결국 수요 확대 논리가 우세했다고 평가하고 있다. 모건스탠리 측은 “터보퀀트는 하이퍼스케일러의 투자 효율성을 높이는 기술”이라며 “토큰당 비용이 낮아질수록 AI 서비스 채택이 늘어 장기적으로 메모리 제조업체에도 긍정적인 영향을 줄 수 있다”고 덧붙였다. 오르투스 어드바이저스의 앤드류 잭슨 애널리스트 역시 “현재와 같은 공급 제약 상황을 고려하면 이번 기술이 수요에 미치는 영향은 제한적일 것”이라고 평가했다.

2026.03.27 09:34이정현 미디어연구소

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

파두 "올해 반드시 흑자 전환…유상증자 계획 없어"

데이터센터용 반도체 설계 전문기업 파두가 올해 흑자 전환에 대한 강한 자신감을 내비치며, 시장 일각에서 제기된 유상증자 우려를 일축했다. 파두는 26일 오전 서울 강남구 호텔리베라 청담에서 제11기 정기주주총회를 열고 이 같은 내용을 골자로 한 올해 경영 목표와 중장기 사업 전략을 주주들에게 공유했다. "빅테크 파트너십 굳건…주력사업 유상증자 우려 없다" 회사 측은 긍정적인 실적 전망과 재무적 안정성의 핵심 배경으로 글로벌 주요 고객사와의 탄탄한 협력 관계를 꼽았다. 파두 경영진은 이날 주주총회 현장에서 "빅테크 등 주요 고객사와의 견고한 파트너십이 당사 기술 경쟁력과 시장 안착의 든든한 기반이 되고 있다"며 "이러한 핵심 파트너들과의 긴밀한 협력을 바탕으로 올해 흑자 전환을 반드시 이뤄낼 것"이라고 강조했다. 이어 경영진은 "현재 회사의 자금 흐름과 수주 상황을 고려할 때, 주력사업 부문에서 시장에서 우려하는 유상증자 계획은 없다"며 "신사업이 시작되면 내용에 따라 자금 조달이 필요할 수 있다"고 말했다. 신기술 투자는 '속도 조절'…사법리스크 소명·준법 강화 차세대 반도체 기술 개발과 관련 선제적인 대규모 투자보다는 철저히 '시장 상황'과 '수요 개화 시점'에 맞춘 현실적이고 탄력적인 속도 조절 전략을 내세웠다. 특히 CXL(컴퓨트익스프레스링크) 기술에 대해서는 관련 생태계 및 시장 상황을 면밀히 살피며 연구개발(R&D) 속도를 조절하고 있다. 현재 파두는 자회사 이음을 통해 CXL 솔루션을 개발하고 있다. HBF(고대역폭플래시) 등 기타 신기술 분야 역시 마찬가지다. 섣부른 과잉 투자로 재무적 부담을 키우기보다는, 시장이 확실히 열리고 고객사의 실질적인 수요가 가시화된다고 판단되는 시점에 맞춰 기민하게 움직이겠다는 '선택과 집중' 전략을 분명히 했다. 파두 경영진은 "기술적 우위를 점하기 위한 선행 연구는 지속하되, 대규모 자본이 투입되는 상용화 투자는 고객사의 확실한 요구가 있을 때 집행할 것"이라며 "재무 건전성을 훼손하지 않는 범위 내에서 신사업 타임라인을 유연하게 가져가며 투자 대비 효율을 극대화하겠다"고 설명했다. 상장 이후 불거진 사법 리스크와 관련해서는 신중하면서도 책임감 있는 입장을 견지했다. 회사 측은 "현재 관련 재판이 진행 중인 사안이기 때문에 구체적인 언급은 조심스럽다"면서도 "향후 진행되는 재판 과정을 통해 제기된 의혹들에 대해 성실하게 소명해 나갈 계획"이라고 밝혔다. 아울러 파두는 준법 경영을 한층 강화하고 내부 통제 시스템을 재정비하기 위한 일환으로 이번 주주총회를 통해 법률 전문가인 최희준 변호사를 사외이사 겸 감사위원으로 신규 선임했다. 판사 출신인 최 사외이사의 합류를 통해 이사회의 투명성을 높이고 시장의 신뢰를 회복하겠다는 강력한 의지로 풀이된다. 남이현 파두 대표는 "회사에 아낌없는 성원을 보내주시는 주주 및 고객사에 깊이 감사드린다"며 "모든 임직원이 한마음으로 노력해 기술혁신, 매출확대, 수익성 개선 등을 이뤄내 주주가치를 제고할 것"이라고 말했다.

2026.03.26 13:08전화평 기자

삼성, 차차세대 엑시노스 '뱅가드' 연내 설계 목표…2나노 고도화 지속

삼성전자가 차차세대 모바일 어플리케이션프로세서(AP)인 '엑시노스 2800(코드명 뱅가드)'의 설계를 연내 완료한다. 이전 세대와 마찬가지로 2나노 공정을 채택해 개발 및 수율 안정성을 담보할 수 있을 것으로 기대된다. 26일 업계에 따르면 삼성전자는 연내 테이프아웃(Tape-out; 설계 완료)을 목표로 차차세대 모바일 AP인 엑시노스 2800을 개발 중이다. 엑시노스 2800의 코드명은 '뱅가드(Vanguard)'다. 삼성전자 내부에서는 엑시노스의 코드명을 세대에 따라 알파벳 순으로, 또한 전 세계에 존재하는 산맥의 이름으로 붙인다. 예컨대 엑시노스 2500부터 2700까지의 코드명은 솔로몬(Solomon)-테티스(Thetis)-율리시스(Ulysses) 순이다. 현재 삼성전자 시스템LSI 사업부는 올해 연말 설계완료를 목표로 엑시노스 2800을 개발하고 있다. 테이프아웃은 칩 설계를 완료하고 도면을 제조(파운드리) 공정에 넘기는 과정을 뜻한다. 이후 샘플 제작 및 테스트를 거쳐야만 실제 칩 제작이 가능하다. 엑시노스 2800은 삼성전자의 최첨단 공정인 2나노미터(nm)로 양산된다. 그 중에서도 2세대 2나노(SF2P) 공정의 개선 버전인 'SF2P+'가 적용된 것으로 알려졌다. 당초 삼성전자는 2027년부터 1.4나노 공정(SF1.4) 양산에 나설 예정이었다. 그러나 급진적인 공정 개발보다는 수율 안정화 및 최적화에 초점을 맞추기로 하면서, 1.4나노 공정 양산 일정을 2년가량 미뤘다. 대신 올해 양산을 앞둔 SF2P의 개선 버전인 SF2P+을 추가하기로 했다. 우선 SF2P는 1세대 2나노(SF2) 대비 성능이 12% 향상됐다. 동시에 소비전력은 25%, 면적은 8% 줄었다. SF2P+는 여기에 광학 기술 최적화로 반도체 회로의 크기를 일정 비율로 축소하는 옵틱 슈링크(Optic Shrink) 기술을 적용한다. 전체적으로 칩 면적을 줄여 성능 및 전력효율성 향상에 유리할 것으로 관측된다. 2나노 공정 채택 지속에 따른 이점도 있다. 이전 세대와 동일하게 2나노를 기반으로 설계하기 때문에, 시스템LSI 사업부 입장에서는 설계 난이도를 낮출 수 있다. 파운드리 측면에서의 수율 안정화에도 유리하다. 실제로 삼성전자가 올해 양산을 목표로 한 엑시노스 2700(율리시스)도 설계가 비교적 순조롭게 진행됐던 것으로 전해진다. 반도체 업계 관계자는 "이전만큼 모바일 AP에서 매년 공정 미세화를 진행하는 것이 현실적으로 불가능하다는 게 삼성전자 시스템LSI 내부의 중론"이라며 "대안으로 DTCO(설계 기술 공동 최적화)에 주목하고 있다"고 설명했다. DTCO는 반도체 설계와 제조 공정 기술 간의 최적화를 뜻한다. 기술적 성숙도가 낮아 수율 향상에 불리한 최선단 공정에서 더 중요한 의미를 가진다.

2026.03.26 10:36장경윤 기자

한미반도체, 세미콘 차이나서 2.5D TC 본더 첫 전시

한미반도체는 25~27일 중국 상하이에서 개최되는 '2026 세미콘 차이나'에서 인공지능(AI) 반도체용 신규 장비 '2.5D 열압착(TC) 본더 40'과 '2.5D TC 본더 120' 2종과, 와이드 TC 본더를 처음 전시한다고 밝혔다. 이번에 전시하는 신규 장비는 실리콘 인터포저 위에 그래픽처리장치(GPU), 중앙처리장치(CPU), 고대역폭메모리(HBM) 등 여러 칩을 하나의 패키지로 통합하는 AI 첨단 패키징 장비다. 향후 크게 성장하는 고부가가치 AI 반도체 2.5D 패키징 시장에 본격 진출한다는 점에서 의미가 있다. 한미반도체 2.5D TC 본더 40은 40x40mm 크기 칩과 웨이퍼 본딩이 가능하다. 2.5D TC 본더 120은 웨이퍼나 기판(Substrates) 등 보다 넓은 크기 대형 인터포저 패키징을 지원한다. 최근 중국과 대만의 파운드리 업체가 장비를 요청했다. 해당 고객에 공급을 앞두고 있다. 한미반도체는 차세대 HBM 생산장비 와이드 TC 본더를 올해 하반기 출시할 계획이다. 이 장비는 차세대 HBM 생산장비로 HBM 다이 면적이 넓어지면서 TSV(실리콘관통전극) 수와 I/O(입출력 인터페이스) 수를 안정적으로 늘릴 수 있다. 또한 D램 다이와 인터포저를 연결하는 마이크로 범프(Micro Bump) 수도 증가해 메모리 용량과 대역폭을 확보할 수 있고, 이전 HBM 생산용 TC 본더 대비 전력 효율도 개선할 수 있다. HBM 고단화 흐름이 지속되는 가운데, 업계에서는 반도체 패키지 규격 완화 가능성이 주목받고 있다. 국제반도체표준협의기구(JEDEC)는 HBM 패키지 높이 기준을 기존 약 775마이크로미터(㎛)에서 900㎛ 수준으로 확대하는 방안을 검토 중인 것으로 알려졌다. 규격 변화는 하이브리드 본딩의 본격적인 양산 적용 시점을 5년 뒤로 미루는 요인으로 작용할 수 있다. 그 기간 HBM 시장에서 기존 TC 본더가 상당 기간 시장 주류를 유지할 것으로 업계는 보고 있다. 앞서 한미반도체는 2020년 HBM 생산용 하이브리드 본더를 출시했다. 향후 16단 이상 고적층 HBM 사양에 맞게 2029~2030년 양산 적용을 목표로 개발하고 있다. 곽동신 한미반도체 회장은 "글로벌 시장에서 AI 반도체 패키징 수요가 빠르게 확대되고 있다"며 "2분기부터 분기당 매출이 2500억원 이상으로 지속 상승할 것으로 예상하며, 올해 연간 매출은 지난해 대비 40% 이상 성장할 것으로 예상한다"고 밝혔다.

2026.03.25 17:08장경윤 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

트럼프 "총격 용의자는 ‘아픈 사람’, 이란 전쟁과 무관”

[단독] KT, 새 CPO 영입...김창오 과기정통부 PM 스카우트

"겸손 배웠다"…中 부진 인정 현대차, 창업주 도전정신으로 재공략

김범석 동일인 지정 앞둔 쿠팡…뭐가 달라지나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.