• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'반도체'통합검색 결과 입니다. (1305건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

OCI홀딩스, 조직개편·사장단 인사…"반도체 소재 기업으로 체질 개선"

OCI홀딩스가 내달 1일자로 조직개편과 사장단 인사를 실시한다고 27일 밝혔다. 이번 인사에선 김유신 OCI 최고경영자(CEO) 부회장이 OCI홀딩스 CEO 부회장을 겸직하게 됐다. 이수미 OCI홀딩스 대표도 OCI홀딩스 최고운영책임자(COO) 사장 겸 OCI 경영관리본부장 사장으로 승진했다. 김택중 전 OCI홀딩스 대표는 이사회 의장에 선임됐다. 이번 개편은 OCI 주식회사(사업회사)를 중심으로 단행됐다. 정밀소재사업본부, 기초소재사업본부 등 기존 2개의 사업부 체제에서 고객사 중심 판매 전담 조직을 독립부서로 재편해 반도체 슈퍼사이클에 밀착 대응하고, 이차전지 소재, 전도성 카본블랙과 같은 스페셜티 사업에 관한 업무 효율성, 수익을 극대화한다는 취지다. 이에 따라 고객솔루션사업팀을 신설하고 성과 중심의 인사 원칙에 따라 그룹 내부에서 검증된 전문 영업인력을 재배치함으로써 영업력, 수익성 강화에 나선다. 이를 위해 데이터 기반 객관성과 글로벌 시장 분석을 바탕으로 새로운 판매와 사업 기회를 지속적으로 모색해 회사의 이익과 성장을 이끌어 나갈 예정이다. OCI 중앙연구소도 고기능소재 연구실, 차세대소재 연구실, 반도체소재 연구실, 기반기술 연구실 그리고 R&D 인프라부를 새롭게 신설해 신규 반도체 소재, 카본 소재, 기반기술 개발 등 연구 특성이 반영된 연구실 조직으로 전면 재편한다. 신설된 고객솔루션사업팀은 OCI 중앙연구소가 추진 중인 신사업 발굴 및 R&D 역량 강화와 시너지를 극대화할 수 있도록 고객사와의 협업을 강화하고 경영진의 전략적 투자와 주요 의사결정에 필요한 인사이트를 제공하게 된다. 특히 1983년 설립된 OCI 중앙연구소는 지난 40여 년간 축적해온 R&D 데이터와 전략 노하우를 기반으로 급변하는 글로벌 시장 환경 속에서 스페셜티 중심의 미래 기술 확보와 고부가가치 제품 개발을 위한 그룹의 전초기지 역할을 수행할 예정이다. 이와 함께 OCI홀딩스는 사장단 인사를 실시하고 통합 컨트롤타워를 가동하고 첨단소재 기업으로의 전면적 체질개선에 속도를 낸다는 방침이다.

2026.03.27 12:02김윤희 기자

구글 터보퀀트가 쏘아 올린 공…메모리 반도체는 정말 위기일까

안녕하세요 AMEET 기자입니다. 최근 구글이 발표한 하나의 알고리즘 때문에 반도체 시장이 크게 술렁였습니다. 구글 리서치가 공개한 AI 메모리 압축 기술인 '터보퀀트(TurboQuant)'가 그 주인공이죠. AI 연산에 필요한 메모리 사용량을 무려 6분의 1로 줄이고 처리 속도는 8배나 높일 수 있다는 소식에 삼성전자와 SK하이닉스 주가가 하루 만에 4~6%가량 급락하는 등 시장은 즉각적인 반응을 보였습니다. 2026년 들어 가장 뜨거운 감자로 떠오른 이 기술이 정말 메모리 반도체의 수요를 갉아먹는 독이 될지, 아니면 시장의 판을 키우는 마중물이 될지 전문가들의 치열한 논점을 따라가 보았습니다. 기술적 혁신과 시장의 즉각적인 공포 터보퀀트의 핵심은 AI가 문맥을 기억하는 데 사용하는 데이터인 'KV 캐시'를 아주 효율적으로 압축하는 데 있습니다. 기존 기술들이 데이터를 압축할수록 정확도가 떨어지는 한계가 있었다면, 터보퀀트는 3비트 수준의 초고압축 상태에서도 성능 손실이 거의 없는 '무손실'에 가까운 성능을 보여준다는 점이 놀랍죠. 시장 분석가들은 이 기술이 상용화되면 빅테크 기업들이 지금처럼 많은 양의 고대역폭메모리(HBM)를 살 필요가 없어질 것이라는 우려를 쏟아냈습니다. 실제로 마이크론과 같은 글로벌 기업의 주가까지 동반 하락하며 이런 불안감은 현실이 되는 듯 보였습니다. 하지만 현장의 목소리는 조금 다릅니다. AI 기술 전문가들은 터보퀀트가 논문 수준의 성과를 넘어 실제 대규모 서비스에 적용되기까지는 여전히 넘어야 할 산이 많다고 지적합니다. 단순히 소프트웨어를 업데이트하는 수준이 아니라, AI 모델의 아키텍처 자체를 재설계하고 추론 엔진을 최적화하는 방대한 엔지니어링 작업이 수반되어야 하기 때문이죠. 즉, 당장 내일 아침부터 메모리 주문량이 줄어드는 일은 일어나기 어렵다는 논리입니다. AI 전문가들의 격렬한 논쟁 : 수요 절벽인가 패러다임의 전환인가 AI 전문가들 사이에서는 이 기술을 바라보는 관점이 극명하게 엇갈리고 있습니다. 한쪽에서는 터보퀀트가 결국 메모리의 '용량'에 대한 갈증을 해소해주면서 하드웨어 수요를 둔화시킬 것이라고 주장합니다. 메모리 사용량이 6분의 1로 줄어든다는 것은 동일한 인프라에서 6배 더 많은 작업을 처리할 수 있다는 뜻이니, 추가적인 증설 수요가 꺾일 수밖에 없다는 분석이죠. 그러나 반대하는 논리는 더욱 정교합니다. 전문가들은 병목 현상의 '이동'에 주목해야 한다고 강조합니다. 터보퀀트로 데이터 용량을 줄여 처리 속도를 8배 높이게 되면, 오히려 데이터를 더 빠르게 주고받아야 하는 '대역폭'의 중요성이 훨씬 커진다는 것이죠. 결국 용량은 줄어들지 몰라도 더 고성능의 HBM이나 차세대 연결 기술인 CXL(Compute Express Link)에 대한 요구는 오히려 가속화될 것이라는 논리입니다. 논점은 단순히 '얼마나 많이 저장하느냐'에서 '얼마나 빠르게 쏟아붓느냐'로 이동하고 있습니다. 합의된 사항도 존재합니다. 2026년 현재 HBM 공급 부족은 소프트웨어 기술 때문이 아니라 물리적인 공장 건설과 수율 문제라는 점입니다. 삼성전자와 SK하이닉스의 2026년 물량은 이미 완판된 상태이며, 알고리즘 하나가 이 거대한 물리적 흐름을 즉각적으로 돌려놓기는 어렵다는 데 의견이 모였습니다. 다만, 2027년 이후부터는 소프트웨어 최적화 속도가 하드웨어 수요 증가 속도에 유의미한 영향을 미칠 수 있다는 점에서는 비판적인 시각과 낙관적인 시각이 팽팽하게 맞서고 있습니다. 결국 다시 인간의 전략으로 돌아가는 판단의 영역 결국 이번 터보퀀트 논란은 우리에게 중요한 질문을 던집니다. 효율적인 소프트웨어가 등장하면 하드웨어 산업은 도태될까요? 과거의 역사를 보면 기술의 효율화는 비용 하락을 불러왔고, 이는 다시 폭발적인 수요 증가로 이어지는 경우가 많았습니다. AI 서비스 비용이 저렴해지면 더 많은 기업이 AI를 도입할 것이고, 이는 결국 더 많은 서버와 데이터센터, 그리고 더 진화된 형태의 메모리 솔루션을 요구하게 될 것입니다. 전문가들은 메모리 기업들이 이제 단순히 '더 큰 용량'을 만드는 것에 안주해서는 안 된다고 조언합니다. CXL 기반의 메모리 풀링 기술처럼 유휴 자원을 효율적으로 나누고 관리하는 복합적인 솔루션을 내놓아야 하는 숙제가 주어진 셈이죠. 구글의 터보퀀트가 던진 파장은 일시적인 주가 하락이라는 숫자에 머물지 않고, 반도체 산업이 가야 할 다음 단계가 무엇인지 치열하게 고민하게 만드는 계기가 되었습니다. 알고리즘은 세상을 더 효율적으로 만들지만, 그 효율성을 어떤 가치로 바꿀지는 여전히 우리의 전략적 선택에 달려 있습니다. 기술의 발전이 하드웨어를 대체할지, 아니면 새로운 날개를 달아줄지 지켜보는 것은 이제 이 산업을 이끌어가는 인간들의 몫으로 남았습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.27 10:14AMEET

"메모리 6분의 1로 줄인다"…구글 터보퀀트에 반도체주 휘청

구글이 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 해결할 수 있는 차세대 압축 기술을 공개하자, 메모리 반도체 관련 기업 주가가 일제히 하락했다. 블룸버그 통신은 26일(현지시간) 구글의 신기술 발표 이후 메모리 업종 전반에 투자 심리가 위축되며 주요 기업 주가가 약세를 보였다고 보도했다. 삼성전자와 SK하이닉스는 한국시간 26일 모두 하락 마감했으며, 미국 뉴욕 증시에서는 마이크론, 웨스턴디지털, 샌디스크가 7% 이상 급락했다. 최근 몇 달간 AI 인프라 투자 확대에 따른 메모리 칩 공급 부족으로 가격이 상승하면서 관련 기업 주가는 큰 폭의 상승세를 이어왔다. SK하이닉스와 삼성전자는 이달 25일까지 연초 대비 50% 이상 급등했고, 부진을 겪던 키옥시아 홀딩스 주가 역시 두 배 이상 상승했다. 이 같은 흐름 속에서 구글이 공개한 '터보퀀트(TurboQuant)' 기술이 변수로 떠올랐다. 해당 기술은 대규모 언어모델(LLM) 구동에 필요한 메모리 용량을 최소 6분의 1 수준으로 줄일 수 있는 것으로 알려졌다. 구글은 이를 통해 AI 학습 및 운영 비용 전반을 절감할 수 있다고 설명했다. 이에 따라 시장에서는 데이터센터를 운영하는 하이퍼스케일러의 메모리 수요가 감소할 수 있다는 우려가 제기됐다. 이는 장기적으로 스마트폰과 가전제품 등에 사용되는 메모리 가격 하락으로 이어질 가능성도 거론된다. 다만 전문가들은 단기 충격과 달리 중장기적으로는 수요 확대 가능성에 무게를 두고 있다. 숀 킴 모건스탠리 애널리스트는 “해당 기술은 업계의 핵심 병목을 해소하는 긍정적인 진전”이라며 “성능 저하 없이 메모리 요구량이 낮아질 경우, 쿼리 처리 비용이 크게 줄어 AI 서비스의 수익성이 개선될 것”이라고 분석했다. AI 업계에서는 비용이 낮아질수록 사용량이 증가하는 '제본스의 역설'을 근거로, 장기적으로 메모리 수요가 오히려 확대될 수 있다는 시각도 제기된다. JP모건 역시 투자자들의 단기 차익 실현 가능성은 인정하면서도, 당장 메모리 수요를 위협할 수준의 변화는 아니라는 입장을 밝혔다. 업계는 지난해 저가형 AI 모델 등장 당시에도 유사한 우려가 제기됐지만, 결국 수요 확대 논리가 우세했다고 평가하고 있다. 모건스탠리 측은 “터보퀀트는 하이퍼스케일러의 투자 효율성을 높이는 기술”이라며 “토큰당 비용이 낮아질수록 AI 서비스 채택이 늘어 장기적으로 메모리 제조업체에도 긍정적인 영향을 줄 수 있다”고 덧붙였다. 오르투스 어드바이저스의 앤드류 잭슨 애널리스트 역시 “현재와 같은 공급 제약 상황을 고려하면 이번 기술이 수요에 미치는 영향은 제한적일 것”이라고 평가했다.

2026.03.27 09:34이정현 미디어연구소

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

파두 "올해 반드시 흑자 전환…유상증자 계획 없어"

데이터센터용 반도체 설계 전문기업 파두가 올해 흑자 전환에 대한 강한 자신감을 내비치며, 시장 일각에서 제기된 유상증자 우려를 일축했다. 파두는 26일 오전 서울 강남구 호텔리베라 청담에서 제11기 정기주주총회를 열고 이 같은 내용을 골자로 한 올해 경영 목표와 중장기 사업 전략을 주주들에게 공유했다. "빅테크 파트너십 굳건…주력사업 유상증자 우려 없다" 회사 측은 긍정적인 실적 전망과 재무적 안정성의 핵심 배경으로 글로벌 주요 고객사와의 탄탄한 협력 관계를 꼽았다. 파두 경영진은 이날 주주총회 현장에서 "빅테크 등 주요 고객사와의 견고한 파트너십이 당사 기술 경쟁력과 시장 안착의 든든한 기반이 되고 있다"며 "이러한 핵심 파트너들과의 긴밀한 협력을 바탕으로 올해 흑자 전환을 반드시 이뤄낼 것"이라고 강조했다. 이어 경영진은 "현재 회사의 자금 흐름과 수주 상황을 고려할 때, 주력사업 부문에서 시장에서 우려하는 유상증자 계획은 없다"며 "신사업이 시작되면 내용에 따라 자금 조달이 필요할 수 있다"고 말했다. 신기술 투자는 '속도 조절'…사법리스크 소명·준법 강화 차세대 반도체 기술 개발과 관련 선제적인 대규모 투자보다는 철저히 '시장 상황'과 '수요 개화 시점'에 맞춘 현실적이고 탄력적인 속도 조절 전략을 내세웠다. 특히 CXL(컴퓨트익스프레스링크) 기술에 대해서는 관련 생태계 및 시장 상황을 면밀히 살피며 연구개발(R&D) 속도를 조절하고 있다. 현재 파두는 자회사 이음을 통해 CXL 솔루션을 개발하고 있다. HBF(고대역폭플래시) 등 기타 신기술 분야 역시 마찬가지다. 섣부른 과잉 투자로 재무적 부담을 키우기보다는, 시장이 확실히 열리고 고객사의 실질적인 수요가 가시화된다고 판단되는 시점에 맞춰 기민하게 움직이겠다는 '선택과 집중' 전략을 분명히 했다. 파두 경영진은 "기술적 우위를 점하기 위한 선행 연구는 지속하되, 대규모 자본이 투입되는 상용화 투자는 고객사의 확실한 요구가 있을 때 집행할 것"이라며 "재무 건전성을 훼손하지 않는 범위 내에서 신사업 타임라인을 유연하게 가져가며 투자 대비 효율을 극대화하겠다"고 설명했다. 상장 이후 불거진 사법 리스크와 관련해서는 신중하면서도 책임감 있는 입장을 견지했다. 회사 측은 "현재 관련 재판이 진행 중인 사안이기 때문에 구체적인 언급은 조심스럽다"면서도 "향후 진행되는 재판 과정을 통해 제기된 의혹들에 대해 성실하게 소명해 나갈 계획"이라고 밝혔다. 아울러 파두는 준법 경영을 한층 강화하고 내부 통제 시스템을 재정비하기 위한 일환으로 이번 주주총회를 통해 법률 전문가인 최희준 변호사를 사외이사 겸 감사위원으로 신규 선임했다. 판사 출신인 최 사외이사의 합류를 통해 이사회의 투명성을 높이고 시장의 신뢰를 회복하겠다는 강력한 의지로 풀이된다. 남이현 파두 대표는 "회사에 아낌없는 성원을 보내주시는 주주 및 고객사에 깊이 감사드린다"며 "모든 임직원이 한마음으로 노력해 기술혁신, 매출확대, 수익성 개선 등을 이뤄내 주주가치를 제고할 것"이라고 말했다.

2026.03.26 13:08전화평 기자

삼성, 차차세대 엑시노스 '뱅가드' 연내 설계 목표…2나노 고도화 지속

삼성전자가 차차세대 모바일 어플리케이션프로세서(AP)인 '엑시노스 2800(코드명 뱅가드)'의 설계를 연내 완료한다. 이전 세대와 마찬가지로 2나노 공정을 채택해 개발 및 수율 안정성을 담보할 수 있을 것으로 기대된다. 26일 업계에 따르면 삼성전자는 연내 테이프아웃(Tape-out; 설계 완료)을 목표로 차차세대 모바일 AP인 엑시노스 2800을 개발 중이다. 엑시노스 2800의 코드명은 '뱅가드(Vanguard)'다. 삼성전자 내부에서는 엑시노스의 코드명을 세대에 따라 알파벳 순으로, 또한 전 세계에 존재하는 산맥의 이름으로 붙인다. 예컨대 엑시노스 2500부터 2700까지의 코드명은 솔로몬(Solomon)-테티스(Thetis)-율리시스(Ulysses) 순이다. 현재 삼성전자 시스템LSI 사업부는 올해 연말 설계완료를 목표로 엑시노스 2800을 개발하고 있다. 테이프아웃은 칩 설계를 완료하고 도면을 제조(파운드리) 공정에 넘기는 과정을 뜻한다. 이후 샘플 제작 및 테스트를 거쳐야만 실제 칩 제작이 가능하다. 엑시노스 2800은 삼성전자의 최첨단 공정인 2나노미터(nm)로 양산된다. 그 중에서도 2세대 2나노(SF2P) 공정의 개선 버전인 'SF2P+'가 적용된 것으로 알려졌다. 당초 삼성전자는 2027년부터 1.4나노 공정(SF1.4) 양산에 나설 예정이었다. 그러나 급진적인 공정 개발보다는 수율 안정화 및 최적화에 초점을 맞추기로 하면서, 1.4나노 공정 양산 일정을 2년가량 미뤘다. 대신 올해 양산을 앞둔 SF2P의 개선 버전인 SF2P+을 추가하기로 했다. 우선 SF2P는 1세대 2나노(SF2) 대비 성능이 12% 향상됐다. 동시에 소비전력은 25%, 면적은 8% 줄었다. SF2P+는 여기에 광학 기술 최적화로 반도체 회로의 크기를 일정 비율로 축소하는 옵틱 슈링크(Optic Shrink) 기술을 적용한다. 전체적으로 칩 면적을 줄여 성능 및 전력효율성 향상에 유리할 것으로 관측된다. 2나노 공정 채택 지속에 따른 이점도 있다. 이전 세대와 동일하게 2나노를 기반으로 설계하기 때문에, 시스템LSI 사업부 입장에서는 설계 난이도를 낮출 수 있다. 파운드리 측면에서의 수율 안정화에도 유리하다. 실제로 삼성전자가 올해 양산을 목표로 한 엑시노스 2700(율리시스)도 설계가 비교적 순조롭게 진행됐던 것으로 전해진다. 반도체 업계 관계자는 "이전만큼 모바일 AP에서 매년 공정 미세화를 진행하는 것이 현실적으로 불가능하다는 게 삼성전자 시스템LSI 내부의 중론"이라며 "대안으로 DTCO(설계 기술 공동 최적화)에 주목하고 있다"고 설명했다. DTCO는 반도체 설계와 제조 공정 기술 간의 최적화를 뜻한다. 기술적 성숙도가 낮아 수율 향상에 불리한 최선단 공정에서 더 중요한 의미를 가진다.

2026.03.26 10:36장경윤 기자

한미반도체, 세미콘 차이나서 2.5D TC 본더 첫 전시

한미반도체는 25~27일 중국 상하이에서 개최되는 '2026 세미콘 차이나'에서 인공지능(AI) 반도체용 신규 장비 '2.5D 열압착(TC) 본더 40'과 '2.5D TC 본더 120' 2종과, 와이드 TC 본더를 처음 전시한다고 밝혔다. 이번에 전시하는 신규 장비는 실리콘 인터포저 위에 그래픽처리장치(GPU), 중앙처리장치(CPU), 고대역폭메모리(HBM) 등 여러 칩을 하나의 패키지로 통합하는 AI 첨단 패키징 장비다. 향후 크게 성장하는 고부가가치 AI 반도체 2.5D 패키징 시장에 본격 진출한다는 점에서 의미가 있다. 한미반도체 2.5D TC 본더 40은 40x40mm 크기 칩과 웨이퍼 본딩이 가능하다. 2.5D TC 본더 120은 웨이퍼나 기판(Substrates) 등 보다 넓은 크기 대형 인터포저 패키징을 지원한다. 최근 중국과 대만의 파운드리 업체가 장비를 요청했다. 해당 고객에 공급을 앞두고 있다. 한미반도체는 차세대 HBM 생산장비 와이드 TC 본더를 올해 하반기 출시할 계획이다. 이 장비는 차세대 HBM 생산장비로 HBM 다이 면적이 넓어지면서 TSV(실리콘관통전극) 수와 I/O(입출력 인터페이스) 수를 안정적으로 늘릴 수 있다. 또한 D램 다이와 인터포저를 연결하는 마이크로 범프(Micro Bump) 수도 증가해 메모리 용량과 대역폭을 확보할 수 있고, 이전 HBM 생산용 TC 본더 대비 전력 효율도 개선할 수 있다. HBM 고단화 흐름이 지속되는 가운데, 업계에서는 반도체 패키지 규격 완화 가능성이 주목받고 있다. 국제반도체표준협의기구(JEDEC)는 HBM 패키지 높이 기준을 기존 약 775마이크로미터(㎛)에서 900㎛ 수준으로 확대하는 방안을 검토 중인 것으로 알려졌다. 규격 변화는 하이브리드 본딩의 본격적인 양산 적용 시점을 5년 뒤로 미루는 요인으로 작용할 수 있다. 그 기간 HBM 시장에서 기존 TC 본더가 상당 기간 시장 주류를 유지할 것으로 업계는 보고 있다. 앞서 한미반도체는 2020년 HBM 생산용 하이브리드 본더를 출시했다. 향후 16단 이상 고적층 HBM 사양에 맞게 2029~2030년 양산 적용을 목표로 개발하고 있다. 곽동신 한미반도체 회장은 "글로벌 시장에서 AI 반도체 패키징 수요가 빠르게 확대되고 있다"며 "2분기부터 분기당 매출이 2500억원 이상으로 지속 상승할 것으로 예상하며, 올해 연간 매출은 지난해 대비 40% 이상 성장할 것으로 예상한다"고 밝혔다.

2026.03.25 17:08장경윤 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

곽노정 SK하이닉스 "순현금 100조 확보해 장기적 전략 투자 집행"

SK하이닉스가 고대역폭메모리(HBM) 등 AI 메모리 수요에 적기 대응하기 위한 준비에 나선다. 중장기적으로 안정적인 투자를 집행하기 위해 순현금 100조원 이상을 확보하는 것이 목표다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 기존 메모리 수요는 IT 업황에 따라 하락과 상승을 반복하는 '사이클' 현상을 반복해왔다. 그러나 전세계 AI 기업들의 공격적인 인프라 투자에 따라, 고성능 AI 메모리 수요가 구조적인 공급 부족 현상에 직면할 수 있다는 시각이 제기되고 있다. 이에 SK하이닉스도 업황에 따라 설비투자 규모를 축소 및 확대하는 것이 아닌, 중장기적으로 안정적인 투자를 집행할 수 있는 재무건전성 확보에 나선다. 곽 사장은 "고객사 수요에 맞춰 안정적으로 투자를 집행할 수 있는 재무 건전성을 확보하는 것이 반드시 필요하다"며 "이에 회사는 순현금 100조원 이상을 확보하고자 한다. 이를 통해 어떠한 환경에서도 장기적이고 전략적으로 필요한 투자를 집행할 것"고 밝혔다. 이와 관련, SK하이닉스는 최첨단 메모리 생산능력 확대를 위한 투자를 적극 진행하고 있다. 올해 청주 M15X 팹 구축을 완료해 설비를 도입할 계획이며, 용인 대규모 반도체 클러스터 구축도 적극 추진 중이다.

2026.03.25 11:24장경윤 기자

SK하이닉스, 美 ADR 상장 추진…"연내 완료 목표"

SK하이닉스가 올해 미국 증시 상장을 위한 본격적인 준비에 돌입했다. SK하이닉스는 25일 공시에서 미국 증권거래소위원회(SEC)에 미국 주식예탁증서에 관한 상장 공모 관련 등록신청서를 비공개로 제출했다고 밝혔다. SK하이닉스는 "2026년 연내 상장을 목표로 추진하고 있으나, 현재 상장 공모의 규모, 방식, 일정 등 세부사항은 확정되지 않았다"고 밝혔다. 또 "최종 상장 여부는 SEC의 등록신청서 검토, 시장 상황, 수요예측 및 기타 제반 여건 등을 종합 고려하여 결정될 예정"이라며 "향후 구체적인 사항이 확정되는 시점 또는 6개월 이내에 재공시하겠다"고 밝혔다. ADR은 외국 기업이 미국 증시에서 자사 주식을 거래할 수 있도록 발행하는 증권이다. 글로벌 투자자 접근성을 확대하는 수단으로 활용되며, 국내 기업들의 기업가치 제고에도 유리하다는 평가를 받는다.

2026.03.25 08:26장경윤 기자

SK하이닉스, EUV 장비에 12조원 투자…차세대 D램·HBM 양산 준비

SK하이닉스가 최첨단 반도체 제조를 위한 극자외선(EUV) 설비에 대규모로 투자한다. 차세대 D램과 고대역폭메모리(HBM) 양산을 위한 움직임으로, 현재 구축 중인 신규 팹에 장비가 순차 도입될 전망이다. SK하이닉스는 24일 유형자산취득결정 공시에서 11조 9496억원 규모 극자외선(EUV) 장비를 도입한다고 밝혔다. 투자 규모는 SK하이닉스 자산총액의 9.97%에 해당한다. 취득예정일자는 이달부터 내년 12월 31일까지다. SK하이닉스는 "취득가액은 EUV 스캐너 도입과 운영을 위한 신규 기계장치, 설치, 재고에 소요되는 총 예상금액"이라며 "취득물건은 총 2년에 걸쳐 취득할 예정으로, 개별 장비 취득 시마다 분할해 대금을 집행할 예정"이라고 밝혔다. EUV는 반도체 웨이퍼에 회로를 새기는 노광 공정에 쓰이는 광원이다. 기존 반도체 노광공정 소재인 ArF(불화아르곤) 대비 빛의 파장이 13분의 1 수준으로 짧아(13.5나노미터), 초미세 공정 구현에 용이하다. 현재 EUV 장비는 네덜란드 반도체 장비기업 ASML이 독점 생산하고 있다. 기술 난도가 매우 높아 장비도 비싸다. 최신 설비 가격은 3000억원 수준인 것으로 알려졌다. 이를 고려하면 SK하이닉스는 내년까지 EUV 설비를 최소 30대 이상 도입할 것으로 예상된다. 현재 SK하이닉스는 청주 M15X 팹을 건설하고, 올해부터 설비를 본격 도입하고 있다. 용인 반도체 클러스터의 첫 번째 팹은 내년 2월 클린룸 오픈 후 설비 반입이 목표다. EUV 공정의 핵심 적용처는 1c(6세대 10나노급) D램이다. 앞서 SK하이닉스는 1a(4세대 10나노급) D램의 1개 레이어에 EUV를 처음 적용한 바 있다. 이후 1b D램에서는 이를 4개까지 확대했으며, 1c D램에는 더 많은 EUV 레이어를 적용한다. 1c D램은 SK하이닉스의 차세대 모바일·서버용 D램은 물론, 인공지능(AI) 데이터센터의 핵심 요소인 고대역폭메모리(HBM)에도 적용된다. 내년 양산이 본격화될 HBM4E(7세대 HBM)부터 1c D램을 첫 채택할 계획이다.

2026.03.24 15:09장경윤 기자

모빌린트, 스피어에이엑스와 엣지 AI 기반 영상 분석 협력

AI 반도체 기업 모빌린트가 AI 영상 분석 솔루션 기업 스피어에이엑스(SPHERE AX)와 AI 기반 안전·보안 및 스마트 인프라 사업 협력을 위한 전략적 업무협약(MOU)을 체결했다고 24일 밝혔다. 양사는 이번 협약을 통해 각 사가 보유한 기술력과 인프라를 결합해 엣지 AI 기반 영상 분석 솔루션을 공동 개발하고, 산업 현장의 안전 관리와 스마트 인프라 구축을 위한 사업 협력을 추진할 예정이다. 주요 협력 내용은 ▲엣지 AI 기반 지능형 영상 분석 솔루션 공동 개발 ▲산업 안전 및 보안 분야 사업 기회 공동 발굴 ▲기술 검토 및 실증(PoC) 수행 ▲공동 마케팅 및 생태계 연계 협력 등이다. 모빌린트는 자사의 고성능 NPU(신경망처리장치)를 기반으로 엣지 환경에서 고효율 AI 연산이 가능한 하드웨어 플랫폼을 제공하고, 스피어에이엑스는 AI 영상 분석 알고리즘 기술을 접목해 지능형 영상 분석 솔루션을 구현할 예정이다. 이를 통해 제조 현장, 건설 현장, 공공시설 등 다양한 산업 환경에서 실시간 안전 모니터링과 지능형 보안 시스템 구축을 추진한다는 계획이다. 특히 양사는 엣지 AI 기반 영상 분석 기술을 활용해 산업 안전 관리 및 스마트 인프라 분야에서 새로운 사업 기회를 공동 발굴하고, 실제 운영 환경에서의 성능 검증(PoC)을 통해 상용화를 추진할 예정이다. 신동주 모빌린트 대표는 “스피어에이엑스의 AI 영상 분석 기술과 모빌린트의 고성능 NPU 기술이 결합되면 산업 현장에서 요구되는 실시간 AI 분석과 안정적인 시스템 구축이 가능해질 것”이라며 “양사의 협력을 통해 지능형 안전 관리 및 스마트 인프라 분야에서 새로운 AI 솔루션 모델을 만들어 나가겠다”고 말했다. 박윤하 스피어에이엑스 대표는 “스피어에이엑스가 보유한 영상 기반 AI 추론 기술과 모빌린트의 NPU 기반 엣지 AI 하드웨어플랫폼이 결합되면 향후 피지컬 AI 분야에서 큰 시너지를 창출할 수 있을 것으로 기대한다”며 “특히 모빌리티, 드론, 로봇 등 다양한 산업 영역에서 영상 기반 AI 인지 및 판단 기술이 중요한 역할을 하게 될 것으로 보고 있으며, 양사의 기술 협력을 통해 이러한 분야에서 새로운 AI 응용 시장을 개척하고 글로벌 시장을 선도해 나가겠다”고 밝혔다.

2026.03.24 14:59전화평 기자

한화비전 "올해 한화세미텍 매출 20% 성장 전망"

한화비전이 올해 자회사 한화세미텍 매출이 전년비 20% 이상 성장할 것이라고 전망했다. 한화세미텍은 전체 매출에서 비중은 작지만 고대역폭메모리(HBM)용 열압착(TC) 본더를 만들어 SK하이닉스에 납품 중이다. 한화비전은 24일 경기도 성남시에서 개최한 정기주주총회에서 "올해 한화세미텍 매출은 전년비 20% 이상 성장을 전망한다"며 "HBM 수요가 견조하기 때문에 TC 본더 같은 장비는 지난해에 이어 수주할 것으로 본다"고 밝혔다. 이어 "지난해보다 훨씬 더 좋은 성적을 낼 것으로 기대한다"고 덧붙였다. 한화비전은 '한화세미텍의 흑자전환 시점'을 묻는 질문에는 "구체적인 시점은 따로 공개하지 않는다"고 답했다. 지난해 한화비전의 전체 매출 1조 8000억원 중 한화세미텍이 만드는 산업용 장비 매출은 4600억원이었다. 이 부문 영업손실은 200억원이다. 올해 산업용 장비 매출이 지난해(4600억원)보다 20% 많으면 5500억원 내외다. 산업용 장비 매출에서도 TC 본더 비중은 아직 작다. 한화세미텍은 지난해부터 SK하이닉스에 TC 본더를 납품하며 한미반도체와 경쟁구도를 형성했다. 한화세미텍과 한미반도체는 서로를 상대로 특허침해소송도 제기했다. 김기철 한화비전 대표는 주총 인사말에서 "(지난해) 산업용 장비 부문은 HBM용 첨단 패키지 장비 시장에서 주목할 만한 성과를 거뒀다"며 "양산용 TC 본더를 글로벌 반도체 제조사에 공급하며 HBM 공급망에 성공적으로 진입했고 차별화 기술력을 인정받았다"고 밝혔다. 올해 전망에 대해 김기철 대표는 "TC 본더 시장에서 입지를 공고히 다지고, 글로벌 반도체 기업과 협업해 기술 경쟁력을 높이겠다"며 "이미 개발한 하이브리드 본더와 함께 플럭스리스 본더, 팬아웃패널레벨패키징 등 차세대 패키징 장비로 미래 시장을 선점하겠다"고 덧붙였다. 한화비전은 전공정 증착 장비 매출이 발생하려면 2~3년 필요하다고 답했다. 주총에서 한화비전은 "전공정 장비는 규모는 말하기 어렵지만 샘플 장비 매출은 발생했다"며 "파트너 업체와 협업 중이고 현재 로드맵에 따르면 당장 (양산) 매출이 발생하기보다는, 2~3년 정도 시간이 더 필요하다"고 설명했다. 시스템온칩(SoC)은 계속 자체 개발하겠다고 밝혔다. 한화비전은 "SoC는 현재 보유 중인 핵심 자산이고, 영업에서 가장 큰 무기여서 외주화하지 않고 인하우스에서 계속 개발할 생각"이라고 밝혔다. 한화비전의 지난해 실적은 매출 1조 8000억원, 영업이익 1600억원 등이다. 사업별 매출은 시큐리티 부문 1조 3400억원, 산업용 장비 부문 4600억원 등이다. 김기철 대표는 "시큐리티 부문은 인공지능(AI) 기반 영상보안 시스템 도입 확대와 글로벌 시장 다변화로 역대 최대 실적을 올렸다"고 설명했다.

2026.03.24 14:48이기종 기자

엔비디아 올라탄 두산, 올해 CCL 투자 2배 이상 확대

두산이 반도체기판 핵심 소재인 동박적층판(CCL) 관련 투자 규모를 전년 대비 2.7배 이상 확대한다. 전례 없는 AI 반도체 호황으로 고성능 CCL이 각광받는 가운데, 엔비디아 등 핵심 고객사 수요에 선제 대응하기 위한 전략으로 풀이된다. 24일 두산 사업보고서에 따르면 이 회사는 CCL 설비투자에 올해 약 2444억원을 투자할 계획이다. 앞서 두산 전자BG(비즈니스그룹)는 지난해 CCL 설비투자에 총 896억원을 집행한 바 있다. 전년 투자 규모(386억원) 대비 132% 증가한 수준이다. 올해에는 예상 투자 규모를 2444억원으로 대폭 확대했다. 전년 대비 172%가량 늘었다. 내후년 예상 투자 규모도 2870억원에 달한다. 계획이 실현되는 경우, CCL 분야에 2년간 5000억원이 넘는 설비투자가 집행될 예정이다. 배경은 CCL 시장의 호황에 있다. CCL이 포함된 두산 전자BG 매출은 지난해 1조 8751억원으로 전년 대비 87% 증가했다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재 중 하나로, 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층해 만든다. 최근 CCL은 AI 반도체를 중심으로 수요가 급증하고 있다. 엔비디아·AMD 등 글로벌 팹리스는 물론, 전세계 CSP(클라우드서비스제공자) 기업들이 자체 AI 가속기 개발에 뛰어들면서 시장 규모가 커지고 있기 때문이다. AI 반도체가 고도화될수록 CCL도 더 뛰어난 고주파·고속·저손실을 갖춘 제품이 필요하다. 두산은 엔비디아의 최신형 AI 가속기 '베라 루빈(Vera Rubin)' 공급망에 주요 CCL 벤더로 진입한 것으로 알려졌다. 아마존·구글 등 고객사 외연도 점차 확장되는 추세다. 덕분에 두산의 국내 증평·김천 CCL 생산라인은 현재 가동률이 100%를 넘어가는 '풀가동' 체제를 유지하고 있다. 두산 관계자는 "이번 CCL 설비투자 계획은 국내외 공장 증설, 설비교체, 유지보수, R&D 등 관련 투자가 반영된 것"이라며 "특히 국내외 사업장 전반에서 투자를 계획 중으로, 사업 환경을 보면서 집행할 예정"이라고 설명했다.

2026.03.24 11:10장경윤 기자

파네시아, 카이스트와 AX 혁신 MOU 체결

반도체 설계전문 기업인 파네시아는 링크반도체 기술을 기반으로 인공지능 전환(AX) 혁신을 실현하기 위해 한국과학기술원(KAIST)과 업무협약(MOU)을 23일 체결했다고 밝혔다. 이번 업무 협약은 산업 AX 혁신을 목적으로 기획된 '4대 과학기술원 AX 전략' 사업의 일환이다. 해당 사업에는 4대 과기원(KAIST·GIST·DGIST·UNIST) 및 유수 기업 15개사가 참여한다. 15개사는 반도체, AI교육, 조선해양·소재, 에너지 등 다양한 분야에서 참여한다. 반도체 부문에서는 파네시아와 리벨리온이 이름을 올렸다. 이날 진행된 단체 협약 체결식에는 4대 과기원 총장 및 협력기업 주요 인사가 자리했으며, 배경훈 과학기술부총리 겸 과학기술정보통신부 장관이 참석해 축사를 전했다. 최근 주목받고 있는 'AI 에이전트'는 목표만 주어지면 계획 수립부터 실행까지 자율적으로 처리하는 대규모 AI 모델 기반의 서비스로, AX의 핵심 기술로 꼽힌다. 이러한 대규모 AI 서비스를 구동하려면 다수의 AI 가속기(GPU·NPU 등)와 CPU, 메모리 등 다양한 장치들이 종합적으로 동작해야 한다. 이 때 장치 간 통신이 대량으로 발생하기 때문에, 각 장치의 성능 못지않게 이들을 원활하게 연결·통합하는 '링크' 기술 또한 효율적인 AX 실현을 위한 핵심 요소로 작용한다. 이번 업무협약을 체결한 파네시아는 '링크' 기술을 개발하는 국내 팹리스 스타트업이다. 컴퓨트익스프레스링크(CXL)·UA링크(UALink) 등 다양한 링크 표준을 지원하는 '링크반도체' 기술을 반도체 설계자산(IP)부터 하드웨어 엔진, 스위치 칩에 이르기까지 순수 국산 기술로 전 범위에 걸쳐 확보하고 있다. 파네시아는 이러한 링크반도체를 활용해 AI 에이전트 등 AX 핵심 기술을 가속하는 솔루션 또한 개발/제공하고 있다. 파네시아 관계자는 "파네시아의 링크반도체 기술이 AI 에이전트 서비스 등 효율적인 AX 실현에 실질적으로 기여할 수 있을 것으로 기대한다"며 "이번 협업을 통해 파네시아의 링크반도체 기술과 KAIST의 AI 기반 반도체 설계 기술 간 교류를 바탕으로 양측의 상호 발전을 도모해 나가고자 한다"고 말했다.

2026.03.23 14:15전화평 기자

한화비전, 암바렐라와 AI 영상보안 기술 개발 협력

한화비전은 글로벌 인공지능(AI) 반도체 기업 암바렐라(Ambarella)와 차세대 영상보안 신기술을 함께 개발한다고 23일 밝혔다. 양사는 이번 전략 파트너십 체결을 시작으로 지속적인 협업으로 AI 기술 경쟁력을 강화할 계획이다. 한화비전과 암바렐라는 지난 20일 서울 중구 더 플라자에서 '기술 협력을 위한 전략 파트너십'을 체결했다. 행사에는 김동선 한화비전 미래비전총괄 부사장과 페르미 왕 암바렐라 대표 등 주요 경영진이 참석했다. 협약에 따라 양사는 차세대 시스템온칩(SoC)을 비롯해 AI 영상보안 기술 개발을 위해 협력한다. 한화비전의 영상처리 기술과 암바렐라의 AI 역량이 결합되면 지금보다 한 단계 높은 AI 영상보안 솔루션을 선보일 수 있다. 지난 2004년 설립된 암바렐라는 보안 카메라와 자율주행차, 로봇, 드론 등에 쓰이는 AI 처리 프로세서를 개발하는 미국 반도체 기업이다. 핵심 아키텍처(설계구조)인 'CV플로'(CVflow)는 AI 영상 분석에서 높은 평가를 받는다. 한화비전은 전략 파트너십을 통해 AI 기술 적용 범위를 영상보안 이외 분야까지 확장해 글로벌 시장에서 입지를 공고히 할 계획이다. 파트너십 체결을 주도한 김동선 부사장은 "AI 반도체 시장에서 성과를 내고 있는 암바렐라와 파트너십을 맺어 기쁘다"며 "지속적 기술 혁신으로 글로벌 시장을 함께 선도하겠다"고 말했다. 왕 대표는 "시스템과 알고리즘에 대한 높은 이해와 전문성을 바탕으로 시장을 이끄는 한화와 협업해 영광"이라며 "파트너십 체결은 향후 암바렐라 성장에 큰 영향을 미칠 것"이라고 밝혔다. 양사 협업은 최근 신설 지주 설립과 인적 분할을 추진 중인 한화그룹 테크 솔루션과 라이프 솔루션 부문 간 시너지 창출에도 영향을 끼칠 수 있다. 한화비전을 비롯한 테크 부문은 라이프 부문 현장에 ▲위생·안전 관리 ▲고객 패턴 분석 등에 AI 영상 분석 기술을 활용하는 방안을 추진 중이다. 부문 간 시너지를 통해 발굴한 신기술은 라이프 부문에 우선 적용하고, 새 비즈니스 모델로 발전시켜 시장에 선보일 계획이다. 한화비전은 "암바렐라와 지속적 협업으로 비전 기술 역량이 고도화 될 것으로 기대되는 만큼, 향후 테크와 라이프 솔루션 간 시너지 창출과 신사업 개발 속도도 보다 빨라질 것"이라고 예상했다. 한화비전은 "양사 협업은 AI를 비롯한 각종 기술 혁신으로 이어질 것"이라며 "앞으로도 다양한 글로벌 기업과 협업해 시장 경쟁력을 높이겠다"고 말했다.

2026.03.23 11:39장경윤 기자

램리서치코리아, '대·중소기업안전보건 상생협력사업' 모기업 선정

램리서치코리아는 고용노동부 및 한국산업안전보건공단이 주관하는 2026년 '대·중소기업 안전보건 상생협력사업' 모기업으로 선정됐다고 23일 밝혔다. 이번 사업을 통해 램리서치코리아는 안전하고 건강한 근무환경을 유지하는 동시에, 빠르게 변화하는 반도체 제조 산업 전반의 안전 수준 향상을 지원할 계획이다. 이번 사업은 100인 이상 규모의 모기업이 협력업체·지역 중소기업과 컨소시엄을 구성해 안전보건 수준 향상 활동을 추진할 경우, 정부가 기술·재정적 매칭 지원을 제공하는 제도다. 특히 대기업의 전문성과 역량을 국내 협력업체와 공유함으로써, 산업 전반에 지속 가능한 협력 모델 도입을 확대하는 데 목적이 있다. 램리서치는 환경·보건·안전(EHS) 정책을 기반으로 안전한 근무환경 조성과 환경 영향 최소화를 추진하고 있다. 이러한 글로벌 경험을 기반으로 올해 램리서치코리아는 반도체 제조 현장에서 장비 설치 및 유지보수 업무를 수행하는 유앤아이넷, 인스프로, 에이스트, 주식회사 지티, 비투비엔지니어링 등 5개 국내 협력업체와 컨소시엄을 구성하고, 국내 반도체 장비 서비스 산업과의 동반 성장을 본격화할 예정이다. 이번 상생사업을 통해 이들 협력업체들과 장비 반입·반출, 설치, 점검 과정에서 발생할 수 있는 유해·위험 요인을 사전에 점검하고 예방하는 효과를 거둘 수 있을 것으로 기대된다. 특히 이번 선정은 해당 분야에서 램리서치코리아가 이어온 활동과 성과를 바탕으로 이루어졌다는 점에서 의미가 크다. 램리서치코리아는 2025년 삼성전자가 주관한 안전보건 상생협력사업에서 '대표 우수 협력사'로 선정된 바 있으며, 이어 2026년 2월에는 고용노동부 장관으로부터 '우수기업 선정서'를 공동 수여받아 안전보건 관리 역량을 대외적으로 공인받았다. 이러한 성과를 바탕으로 램리서치코리아는 글로벌 기업으로서의 경험을 국내 협력사와 공유하고, 산업 경쟁력을 함께 끌어올리는 상생협력 모델로 확장해 나가는 계기를 마련했다. 지난해 축적된 성과와 운영 노하우는 2026년 램리서치코리아가 모기업으로서 해당 사업을 단독으로 이끌어 나가는 데 있어 핵심적인 토대가 되고 있다. 램리서치코리아와 협력업체들은 '대·중소기업 안전보건 상생협의체'를 구성해 위험성평가 실행력 강화, 현장 안전 점검, 아차사고 발굴 및 개선 등 실질적인 안전보건 활동을 단계적으로 추진해 나갈 예정이다. 해당 프로그램은 정부의 지원과 가이드라인에 따라 운영되며, 램리서치코리아는 참여 기업으로서 사업이 원활히 추진될 수 있도록 역할을 수행한다. 이를 통해 협력사 전반에 공통으로 적용 가능한 기준을 정착시키고, 안전을 중심으로 한 공동의 안전 문화를 확산해 나간다는 방침이다. 협력사 유앤아이넷 김성태 사장은 “현장 중심의 안전 역량을 실질적으로 끌어올리기 위해 이번 사업에 참여하게 됐다”며 “지난해 협력을 통해 검증된 램리서치코리아의 우수한 안전보건 프로그램은 리스크 관리 역량을 강화하고자 하는 중소기업들에게 유용한 레퍼런스가 될 것”이라고 밝혔다. 램리서치코리아 박준홍 한국 법인 총괄 대표이사는 “지난해 협력업체로서 쌓은 성공적인 경험을 바탕으로, 올해는 모기업으로서 상생의 가치를 실현하게 되어 매우 뜻깊다”며 “반도체 장비 설치와 유지보수는 고도의 전문성과 안전성이 동시에 요구되는 분야인 만큼, 램리서치의 축적된 안전 노하우를 국내 협력사와 적극 공유해 장기적으로는 국내 반도체 장비 서비스 산업 전반의 경쟁력을 높이는 안전보건 협력 생태계를 구축해 나갈 것”이라고 말했다.

2026.03.23 10:43장경윤 기자

양자컴퓨팅·암호통신 원천기술 실리콘 칩 기반 단일양자광원 개발

실리콘 칩 기반 고순도 단일양자광원이 개발됐다. 양자 분야 컴퓨팅이나 센서, 통신 등의 소자를 제작할 수 있는 원천 기술이어서 관심이다. UNIST는 남궁선·김제형 물리학과 교수 연구팀이 스타크 효과를 억제한 2차원 반도체 물질 기반 고순도 단일양자광원을 개발했다고 23일 밝혔다. 스타크 효과는 광원을 켜고 끄기 위해 전압을 가했을 때 방출되는 광자 에너지가 변하는 현상이다. 양자컴퓨팅이나 양자암호통신에서는 여러 광자가 서로 간섭하면서 정보를 처리하는데, 광자 에너지가 달라지면 간섭과 같은 양자현상이 제대로 일어나지 않는다. 특히 여러 광원이 집적돼 전압이 불안정한 칩 환경에서는 스타크 효과 같은 광자 에너지 변화가 일어난다. 일반적인 형광등에서 1초에 약 10¹⁸개 이상의 빛 입자(광자)가 쏟아져 나온다. 반면, 단일양자광원은 아주 짧은 순간(나노초)에 단 하나의 광자만을 방출한다. 이 단일 광자를 비트(bit)와 같은 정보 최소 단위로 활용, 양자컴퓨팅이나 양자암호통신에 쓸 수 있다. 연구팀은 실리콘 나노피라미드 배열을 기반으로 2차원(단층) 반도체 물질인 텅스텐 디셀레나이드(WSe₂)에서 단일 광자 방출기를 원하는 위치에 선택적으로 생성하고, 전기적으로 정밀 제어가 가능한 새로운 플랫폼을 개발했다. 실리콘을 식각해 만든 나노피라미드 구조(높이~200 nm, 폭~300 nm) 위에 얇은 절연층을 코팅하고, 그 위에 단층 WSe₂를 올려 소자를 제작했다. 나노피라미드의 뾰족한 끝이 WSe₂에 강한 국소 응력을 가해 그 자리에 단일 광자 방출기를 자동으로 만들어내는 원리다. 동시에 나노피라미드 자체를 전극으로 활용하고, 절연층을 양자 터널링 장벽으로 이용해 전압으로 단일 광자 방출을 켜고 끌 수 있도록 설계했다. 전압에 의해 전자가 절연층을 양자역학적으로 통과(터널링)하면서 WSe₂ 광자 방출을 제어하는 구조다. 연구팀은 인가 전압을 통해 WSe₂ 내부 광여기 전자가 절연층을 강제로 통과해(파울러-노르트하임 터널링) 빠져나가면서 단일 광자 방출이 꺼지는 원리로, 단순한 전압 조절만으로 단일 광자 방출기를 정밀하게 스위칭할 수 있음을 확인했다. 연구팀은 전압을 가해도 단일 광자의 파장이 거의 변하지 않는다는 점을 강조했다. 나노피라미드의 뾰족한 끝단과 WSe₂ 사이에 형성되는 미세한 에어갭(공기층)으로 인해, 단일 광자 방출기가 위치한 끝단에서의 전기장이 옆면보다 약 20배 낮게 형성돼 스타크 효과가 자연스럽게 억제된다. 이 덕분에 전압을 인가해도 광자 에너지 변화가 기존 연구 대비 현저히 작아, 파장 안정성을 유지하면서 밝기만을 독립적으로 조절할 수 있다. 연구팀은 또 h-BN(육방정계 질화붕소) 박막을 추가, 유전체 결함으로 인한 단일 광자가 꺼지는 문제를 해결했다. 이를 통해 94%의 단일 광자 순도 구현에도 성공했다. 이번 연구에는 사티아브라트 베헤라 연구원과 문종성 연구원이 제1저자로 참여했다. 공동 연구팀은 “전기 신호로 단일광자를 제어하면서도 광자 에너지를 안정적으로 유지하고, 순도까지 함께 개선한 구조를 제시한 것에 의미가 있다”며 “실리콘 반도체 공정과 호환돼 향후 칩 기반 양자 통신, 광자 양자 컴퓨팅, 양자 광학 센서 개발에 직접 활용될 수 있을 것”이라고 말했다. 연구결과는 국제 학술지 나노 레터스에 온라인으로 게재됐다.

2026.03.23 08:00박희범 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

네이버·카카오의 요즘 인재상…"AI 활용 넘어 소통·사고력"

"AI 스타트업 성패는 '인프라'…글로벌 확장 기회 좌우"

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.