• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'가속'통합검색 결과 입니다. (43건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

ST, AI 가속기 내장형 MCU 연말 양산…"韓·中·유럽서 공급 논의"

반도체 기업 ST마이크로일렉트로닉스가 AI 가속기를 내장한 차세대 마이크로컨트롤러(MCU)로 오토모티브 시장을 공략한다. 해당 칩은 국내는 물론 중국·유럽 등 주요 고객사에 샘플을 제공한 상황으로, 이르면 올해 연말 양산이 시작될 예정이다. ST는 24일 서울 중구 플라자호텔에서 기자간담회를 열고 회사의 최신 차량용 MCU인 '스텔라 P3E(Stellar P3E)'를 공개했다. 박준식 ST코리아 지사장은 "ST는 2030년까지 차량용 MCU 매출을 2024년 대비 2배로 확대하는 것이 목표"라며 "칩을 자체 제작할 수 있는 IDM 모델을 활용, 3년간 70개 이상의 신제품 출시 등으로 이를 달성하도록 할 것"이라고 강조했다. 대표적인 제품이 이번 ST의 신규 MCU 스텔라 P3E다. ST의 스텔라 P 시리즈는 엔진과 모터, 하이브리드 및 전기 파워트레인까지 전통적인 차량과 xEV 구동계를 모두 제어할 수 있도록 설계됐다. 컨버터, 인버터, DC-DC 등의 전동화 기능들을 통합하는 단일 컨트롤러 (X-in-1) 구현에 특화된 MCU다. 각 기능을 담당하는 MCU를 하나로 통합할 경우, 제어기 사이즈 축소 및 전력효율성 등을 크게 개선할 수 있다. 스텔라 P3E는 여기에 자동차 업계 최초로 NPU를 내장했다. 실시간 AI 효율성을 지원하는 ST의 '뉴럴-ART 가속기'가 통합돼, 기존 CPU 기반 처리 대비 방해물 감지 영역에서 AI 추론 성능이 최대 69배 빠르다는 게 ST의 설명이다. 또한 스텔라 P3E는 ST의 독자적인 비휘발성 메모리인 상변화 메모리(PCM) 기반 'xMemory'를 통합하고 있다. PCM은 기존 임베디드 플래시 메모리보다 두 배 높은 밀도를 제공하고, 소프트웨어 저장 공간을 확장할 수 있어 하드웨어를 재설계하지 않고도 새로운 기능을 도입하거나 업데이트를 수행한다. ST는 스텔라 P3E를 통해 향후 산업이 크게 확대될 것으로 전망되는 소프트웨어정의차량(SDV) 시장을 적극 공략할 계획이다. 임의택 ST코리아 MCU 마케팅 부장은 "차량용 제어기는 기존 개별로 작동하던 칩의 기능을 하나로 통합하는 방향으로 나아가고 있다"며 "제어기가 통합되는 상황에서도 실시간 처리가 매우 중요하기 때문에, NPU 내장형 MCU가 기존 아키텍처 대비 강점을 지닐 것"이라고 말했다. 스텔라 P3E는 올해 말 양산을 목표로 하고 있다. 이를 위해 현재 전세계 주요 OEM 및 티어1 고객사에 샘플을 제공한 상황으로, 이르면 오는 2028~2029년께 해당 칩이 탑재된 차량이 출시될 것으로 예상된다. 임 부장은 "현재 중국과 유럽 메이커를 중심으로 스텔라 P3E 도입을 논의 중으로, 특히 중국 시장이 빠를 것으로 보인다"며 "한국 고객사와도 논의를 진행 중"이라고 말했다.

2026.02.24 14:58장경윤 기자

엔비디아 "한국 반도체 업체와 피지컬 AI 협력 지속"

"한국은 삼성전자, SK하이닉스, 현대차그룹, LG전자 등 세계적 제조기업을 보유한 전략적 거점이다. 엔비디아가 추진하는 디지털 트윈과 피지컬 AI 기반 협력을 주도하는 전초기지 역햘을 수행하고 있다." 11일 서울 코엑스에서 열린 '세미콘 코리아 2026' 기조연설에서 정소영 엔비디아코리아 대표가 이렇게 설명했다. 이날 엔비디아는 반도체 설계부터 제조까지 산업 전반에 걸친 단계에서 생산성과 효율을 강화할 수 있는 AI 모델과 디지털 트윈 기술을 소개했다. 또 반도체 생태계를 넘어 산업 전반의 혁신 기업으로 역할을 확대해 나가겠다는 비전을 제시했다. 제품 대신 지능 생산하는 'AI 팩토리' 대두 이날 정소영 대표는 AI 시대 산업 패러다임의 전환이 'AI 팩토리'와 '피지컬 AI' 등 두 축을 중심으로 일어나고 있다고 설명했다. 정 대표는 "전통적인 공장은 사람과 자원을 투입해 제품을 생산한 반면 AI 시대의 공장은 데이터와 전기를 투입해 지능(인텔리전스)를 생산하는 공간"이라고 정의했다. 이어 "AI 팩토리에서 생성된 인텔리전스가 반도체·제조·자동차·통신 등 다양한 산업에 접목되며 실질적인 변화를 만들어내고 있다. 이미 글로벌 주요 산업 현장에서 AI 기반 혁신이 가속화되고 있다"고 덧붙였다. 그는 피지컬 AI에 대해 "이는 단순히 로봇을 움직이는 것이 아니라 현실 세계에 존재하는 다양한 물리적 개체(entity)에 지능을 결합해 우리 삶과 생산 현장 전반에 AI의 영향을 확장시키는 단계"라고 밝혔다. "엔비디아, AI 팩토리 구성 인프라 제공" 엔비디아는 2020년대 이후 AI 연산을 수행하는 GPU에 머무르던 것에서 벗어나 AI 처리 인프라를 제공하는 기업으로 포지션 변화를 시도하고 있다. 정소영 대표는 "AI 팩토리는 GPU를 시작으로 클라우드와 온프레미스 데이터센터, 그 위에서 구동되는 AI 모델과 고부가가치 소프트웨어·서비스로 구성된다. 엔비디아는 이런 가속 컴퓨팅 기반을 산업 전반에 제공하는 인프라 기업"이라고 말했다. 이어 "올 하반기 출시할 차세대 GPU 플랫폼 '베라 루빈'은 베라 CPU, 루빈 GPU와 네트워킹 칩, 스위치 등 6개 요소를 동시 개발하고 최적화하며 AI 플랫폼을 구현중"이라고 덧붙였다. "CPU 대신 GPU 활용해 소요시간 단축" 엔비디아는 CPU 대신 GPU를 활용하는 쿠다(CUDA)-X 라이브러리로 고성능·장시간 연산이 필요한 산업계 과제의 소요 시간 단축을 제공하고 있다. 2023년 엔비디아가 개발한 소프트웨어 라이브러리인 cu리소(cuLitho)는 반도체 식각 공정에 쓰이는 포토마스크 설계 시간을 크게 단축한다. 기존 CPU로 2주 이상 걸리던 연산 시간을 하루 내외로 줄였다. 정소영 대표는 "주요 반도체 소자를 시뮬레이션하는 TCAD, 리소그래피, 전자설계자동화(EDA) 등 반도체 전 분야에 AI 기반 모델이 적용된다. 삼성전자·SK하이닉스 등 국내 주요 업체도 설계 시간 단축, 시뮬레이션 고도화 등을 추진중"이라고 밝혔다. 시뮬레이션 플랫폼 '옴니버스', 반도체 생산 자동화 가속 엔비디아는 현실 세계 물리 법칙과 환경을 시뮬레이션 할 수 있는 플랫폼 '옴니버스'를 피지컬 AI 구현에 활용하고 있다. 자율주행차와 휴머노이드 로봇, 자율이동로봇(AMR) 등 다양한 장비 개발 소요 시간을 단축하고 정밀도를 높일 수 있다. 정소영 대표는 옴니버스 활용 사례로 "어플라이드 머티어리얼즈(AMAT)와는 디지털 트윈 기반 생산 공정 제어에 협력하고 있고 램리서치 및 LG디스플레이 등과도 협업을 확대하고 있다"고 설명했다. 정 대표는 "반도체 산업은 축적된 방대한 부품·공정 데이터를 보유하고 있어 AI 에이전트를 통한 자동화와 EDA 가속화에 유리하다. 실제로 아드반테스트와 AI 에이전트를 활용한 제품 테스트 자동화도 공동 개발 중"이라고 밝혔다.

2026.02.11 15:41권봉석 기자

엔비디아 RTX3090보다 2.1배 빠른 가속기술 개발…전력소비도 3.3배 줄여

엔비디아 RTX3090보다 2.1배 빠른 가속기술이 상용화 초기 수준으로 개발됐다. KAIST는 정명수 전기및전자공학부 교수 연구팀이 그래프 신경망 기반 인공지능(AI) 추론 속도를 획기적으로 높일 수 있는 AI 반도체 기술 '오토GNN'을 세계 최초로 개발했다고 5일 밝혔다. 오토 GNN은 엔비디아 고성능 그래픽카드인 'RTX 3090' 대비 속도는 2.1배, 일반 CPU와 비교했을 땐 무려 9배 빠르다. 에너지 소모는 3.3배 줄였다. RTX 3090은 4K·8K 게이밍과 8K 영상 편집, 대형 3D 렌더링, AI 연산 같은 '초고해상도·대용량 데이터' 작업에 주로 쓴다. 가격도 보통 수백만원 대다. 오토 GNN이 이를 대체할 수 있다는 것이 정명수 교수 설명이다. 정 교수는 "상용화로 바로 가기는 어렵지만, 상용화 초기 단계인 개념증명(POC)을 이번에 한 것"이라며 "상용화로 가기 위해선 삼성미래기술육성사업으로 예산을 지원한 기관 등과 협의를 거쳐야 한다"고 말했다. 이 연구에 정 교수가 창업한 파네시아 연구진이 주도적으로 참여해 사업화로 갈 공산이 클 것으로 전망됐다. 연구에는 파네시아 5명, KAIST 정명수 교수 연구실(카멜) 3명, 중국 베이징대학과 한양대학교, 미국 펜실베이니아 주립대에서 각각 1명씩 참여했다. 연구팀은 우선 GPU 서비스 지연이 일어나는 주된 원인이 AI 추론 이전 단계인 그래프 전처리 과정에 있음을 밝혀냈다. 이 과정은 전체 계산 시간의 70~90%를 차지하지만, 기존 GPU는 복잡한 관계 구조를 정리하는 연산에 한계가 있어 병목 현상이 상존했다. 이를 해결하기 위해 연구팀은 입력 데이터 구조에 따라 반도체 내부 회로를 실시간으로 바꾸는 FPGA(필드 프로그래머블 게이트 어레이) 기반의 적응형 AI 가속기 기술을 설계했다. 분석해야 할 데이터 연결 방식에 맞춰 반도체가 스스로 가장 효율적인 구조로 바뀌는 방식이다. 연구팀은 필요한 데이터만 골라내는 통합처리요소(UPE) 모듈과 이를 빠르게 정리·집계하는 단일 사이클 리듀서(SCR) 모듈을 반도체 안에 구현했다. 데이터 양이나 형태가 바뀌면 이에 맞춰 최적의 모듈 구성이 자동으로 적용돼, 어떤 상황에서도 안정적인 성능을 유지할 수 있도록 했다. 이 기술은 추천 시스템이나 금융 사기 탐지처럼 복잡한 관계 분석과 빠른 응답이 필요한 AI 서비스에 즉시 적용할 수 있다. 연구팀은 데이터 구조에 따라 스스로 최적화되는 AI 반도체 기술을 확보, 향후 대규모 데이터를 다루는 지능형 서비스 속도와 에너지 효율을 동시에 높일 수 있는 기반이 마련될 것으로 내다봤다. 정명수 교수는 “불규칙한 데이터 구조를 효과적으로 처리할 수 있는 유연한 하드웨어 시스템을 구현했다는 점에서 의미가 크다”며 “추천 시스템은 물론 금융·보안 등 실시간 분석이 필요한 다양한 AI 분야에 활용될 것”이라고 말했다. 연구는 지난 4일 호주 시드니에서 열린 컴퓨터 아키텍처 분야 국제학술대회인 제32회 'IEEE HPC국제 심포지엄'에서 발표됐다. 삼성미래기술육성사업이 지원했다.

2026.02.05 15:08박희범 기자

이산화바나듐 상전이 현상 첫 규명…"수십 년 논쟁 종지부"

물리학계가 수십 년간 이어오던 이산화바나듐 상전이 현상 순서 논쟁에 종지부를 찍었다. 이산화바나듐은 상온(68도) 근처에서 부도체 성질이 도체로 변하는 상전이 현상이 나타난다. 그런데 이 상전이가 결정구조부터 발생하는지, 아니면 전기적 변화 먼저 일어나는지가 수십 년째 논쟁거리였다. 이유는 절연체나 금속상태 변화가 피코~나노초 사이에 순간적으로 일어나기 때문에 그동안 이를 들여다볼 수 있는 방법이 없었다. 포항가속기연구소는 천세환 박사 연구팀(공동제1저자:박순희·박재구 박사)이 스마트 소재 이산화바나듐 박막에서 기존 상식을 뒤집는 숨겨진 광유도 초고속 상전이 경로가 존재함을 세계 최초로 규명했다고 4일 밝혔다. 상전이는 물질 상태나 성질이 외부 조건이 변함에 따라 갑자기 달라지는 현상을 말한다. 얼음이 물로, 물이 수증기로 바뀌는 현상도 모두 상전이다. 연구팀은 포항가속기연구소 X-선 자유전자레이저(PAL-XFEL)와 3세대 방사광가속기(PLS-II) 실험 장치를 이용, 빛으로 유도되는 구조적·전기적 상전이 현상을 정밀하게 관찰한 결과 인장 변형이 가해진 이산화바나듐 박막에서 두 상전이(구조적 변화와 전자적 변화)가 수백 펨토초 간격을 두고 잇따라 발생함을 밝혀냈다. 박재구 박사는 "확인결과 구조변화가 먼저 일어나고, 그 뒤를 따라 전자적 변화가 일어났다"며 "이를 과학적으로 규명한 것"이라고 설명했다. 박 박사는 "전자들의 거동만으로 물질의 전기적 성질이 전기가 통하지 않는 상태에서 전기가 흐르는 상태로 갑자기 바뀌는 양자 현상인 모트(Mott) 부도체–도체 전이에 의해 일어남을 밝혔다"며 "시료에 인장 변형을 가하는 방법으로 빛에 의해 유도되는 이같은 전기적 변화가 시작되는 시점을 조절할 수 있는 가능성도 함께 제시한 것"이라고 의미를 부여했다. 연구팀은 이산화바나듐뿐 아니라 이와 유사한 모트 부도체–도체 전이 양자 물질군에도 이 연구 결과 적용이 가능할 것으로 내다봤다. 특히, 이러한 물질들을 기반으로, 빛을 이용한 초고속 광유도 스마트 소재 제어 기술로의 활용도 기대했다. 연구결과는 물질 과학 분야 국제학술지 '어드밴스드 머티리얼즈'에 온라인으로 게재됐다.

2026.02.04 13:19박희범 기자

MS, 차세대 AI 추론칩 '마이아 200' 공개…"아마존보다 3배 빨라"

마이크로소프트가 자체 개발한 2세대 인공지능(AI) 가속기를 공개했다. 경쟁사 보다 높은 성능을 강조하며 AI 인프라 시장 리더십 강화에 나설 전망이다. 이번 신제품은 AI 추론(Inference) 효율성을 극대화하는 데 초점을 맞췄으며 오픈AI의 최신 모델인 'GPT-5.2'를 지원하는 핵심 동력이 될 것으로 주목받고 있다. 26일 마이크로소프트는 자사 블로그를 통해 TSMC의 3나노(nm) 공정을 기반으로 제작된 새로운 AI 칩 '마이아200(Maia 200)'을 발표했다. 마이아 200은 대규모언어모델(LLM) 구동의 핵심인 '토큰 생성' 비용을 절감하는 데 방점을 두고 설계됐다. TSMC의 3나노(nm) 공정을 적용해 칩 하나에 1천400억 개 이상의 트랜지스터를 집적해 연산 밀도를 극대화했다. 메모리 아키텍처 또한 대규모 모델 처리에 최적화됐다. 초당 7테라바이트(TB)의 데이터 전송 속도를 자랑하는 216GB 고대역폭메모리(HBM3e)를 탑재했으며 272MB의 온칩 SRAM을 더해 데이터 병목 현상을 최소화하고 처리 속도를 높였다. 연산 성능은 750와트(W) 전력 소모 범위 내에서 4비트(FP4) 정밀도 기준 10 페타플롭스(PFLOPS), 8비트(FP8) 기준 5 페타플롭스 이상의 성능을 발휘한다. 마이크로소프트 측은 마이아 200은 아마존웹서비스(AWS)의 '트레이니움(Trainium) 3세대' 대비 4비트 성능에서 3배 앞서며 구글의 '7세대 TPU'보다 뛰어난 8비트 연산 능력을 확보하며 추론 가속기 시장의 새로운 기준을 제시했다고 강조했다. 마이크로소프트 클라우드 및 AI 그룹의 스콧 거스리 수석 부사장은 "마이아 200은 하이퍼스케일러가 만든 칩 중 가장 강력한 성능을 자랑하는 퍼스트 파티 칩"이라며, "오늘날 가장 큰 모델을 쉽게 구동할 뿐만 아니라 미래의 더 거대한 모델까지 감당할 수 있는 여유 성능을 갖췄다"고 강조했다. 마이아 200은 출시 후 마이크로소프트의 거대 AI 생태계를 지탱하는 중추적인 역할을 맡게 된다. 오픈AI 최신 모델인 GPT-5.2를 포함한 다양한 모델을 서비스하는 데 투입되며 마이크로소프트 파운드리와 마이크로소프트 365 코파일럿의 가격 대비 성능 효율을 크게 개선할 예정이다. 또 마이크로소프트 초지능팀은 마이아 200을 활용해 차세대 자체 모델을 위한 합성 데이터 생성 및 강화 학습을 수행한다. 고품질의 도메인 특화 데이터를 더 빠르고 효율적으로 생성하여 AI 모델 훈련 파이프라인을 가속화하겠다는 전략이다. 시스템 수준에서의 혁신도 돋보인다. 마이아 200은 표준 이더넷 기반의 독자적인 2계층 스케일업 네트워크 설계를 도입했다. 칩당 2.8TB/s의 양방향 대역폭을 제공하며, 최대 6,144개의 가속기를 하나의 클러스터로 묶어 효율적인 대규모 추론 작업을 가능케 한다. 마이크로소프트는 개발자들을 위한 마이아 소프트웨어 개발 키트(SDK) 프리뷰도 함께 공개했다. 이 SDK는 파이토치(PyTorch) 통합, 트리톤(Triton) 컴파일러, Maia 전용 저수준 프로그래밍 언어 등을 포함하여 개발자가 하드웨어 성능을 최대로 끌어내면서도 이기종 하드웨어 간 모델 이식을 쉽게 할 수 있도록 돕는다. 마이아200은 미국 아이오와주 디모인 인근의 'US 센트럴' 데이터센터 리전에 이미 배치되었으며 이어 애리조나주 피닉스 인근의 'US 웨스트 3' 리전으로 확장될 예정이다. 이번 마이아200의 출시는 AI 인프라 시장에서 엔비디아 의존도를 낮추고 자체 칩 경쟁력을 통해 AI 서비스의 수익성을 극대화하려는 마이크로소프트의 강력한 의지가 반영된 것으로 풀이된다. 스콧 거스리 부사장은 "마이아 200은 칩 설계부터 데이터센터 배포까지 엔드-투-엔드(End-to-End) 검증을 통해 실리콘 출시 후 며칠 만에 실제 AI 모델을 구동하는 데 성공했다"며 "이는 타사 대비 절반 이하의 시간으로 단축된 획기적인 성과"라고 밝혔다.

2026.01.27 09:46남혁우 기자

삼성전기·LG이노텍, 패키지기판 호황에도 고민 깊어지는 이유

전자부품 업체인 삼성전기와 LG이노텍이 반도체 슈퍼사이클의 수혜로 패키지 기판 사업에서 호황을 맞고 있다. 양사 모두 올해 제조라인의 풀가동 체제를 예상할 정도로 수요를 매우 높게 바라보고 있다. 다만 반도체 패키지 기판의 핵심 소재인 CCL(동박적층판) 가격이 급등하고 있다는 점은 변수다. 최근에도 일본 주요 CCL 제조 기업이 오는 3월부터 CCL 가격을 30% 인상하겠다고 예고해 업계의 부담감을 키우고 있다. 22일 업계에 따르면 삼성전기, LG이노텍의 올해 반도체 패키지 기판 사업은 원재료 비용 상승에 따른 불확실성에 직면할 것으로 관측된다. 삼성전기·LG이노텍, 반도체 패키징 기판 '풀가동' 전망 양사는 최근 반도체 산업 전반에 도래한 슈퍼사이클에 따른 수혜를 입고 있다. 특히 삼성전기는 주로 AI 가속기에 탑재되는 FC-BGA(플립칩-볼그레이드어레이), LG이노텍은 모바일용 저전력 D램(LPPDR)에 탑재되는 FC-SCP(플립칩-칩스케일패키지) 분야에서 강세를 보인다. FC-BGA와 FC-CSP는 고성능 반도체에 쓰이는 패키지 기판이다. 기존 와이어 본딩 대신 미세한 범프(Bump)로 칩을 연결해, 전기적 성능 및 집적도를 향상시킨다. 이에 삼성전기, LG이노텍 모두 올해 반도체 패키지 기판 양산 라인이 '풀가동' 체제에 접어들 것으로 전망하고 있다. 최근에는 장덕현 삼성전기 대표, 문혁수 LG이노텍 대표가 직접 "생산능력 확장을 검토하고 있다"고 밝히기도 했다. 日 레조낙, 기판 핵심 소재 가격 30% 인상 발표…악영향 불가피 다만 반도체 패키지 기판의 필수 소재인 CCL 등 원자재 가격이 크게 오르고 있다는 점은 이들 기업에 비용 증가라는 고민거리로 작용할 전망이다. 삼성전기, LG이노텍의 기판 사업에서 CCL이 차지하는 원자재 매입 비중은 20%에 달한다. CCL은 반도체 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층한 소재다. 기판의 전기적 연결과 절연, 기계적 지지 역할을 담당한다. CCL은 구성 요소인 구리 및 유리섬유 등 원자재 비용 상승, 반도체 산업에서의 수요 증가 등으로 인해 가격이 크게 상승하고 있다. 지난해 연간 기준으로 10% 이상의 상승세를 나타냈다. 나아가 지난 16일에는 FC-BGA용 CCL 1위 공급업체인 일본 레조낙이 "오는 3월 1일부터 CCL 및 프리프레그(탄소섬유복합소재; CCL에 동박을 씌우기 전 상태)의 판매 가격을 약 30% 인상하겠다"고 밝혔다. 현재 삼성전기는 미쓰비시, 레조낙 등으로부터 CCL 및 프리프레그를 수급하고 있다. LG이노텍은 미쓰비시·쇼와덴코가 주요 수급처지만, 레조낙이 공식적으로 가격 인상을 발표한 만큼 이들 기업도 비슷한 움직임을 보일 가능성이 유력하다. 기판 업계 관계자는 "하이엔드급 패키지 기판의 경우 원자재 가격 상승분을 최종 고객사에 전가할 수 있으나, 나머지 일반 제품은 어려운 상황"이라며 "레조낙이 매우 이례적인 결정을 내린 만큼 삼성전기, LG이노텍 역시 사업 전략 구상에 고심을 겪고 있을 것"이라고 말했다.

2026.01.22 13:19장경윤 기자

"엔비디아 中 AI 가속기 시장 점유율, 66%→8% 떨어질 것"

중국 내 AI 가속기 시장에서 엔비디아 점유율이 8%대까지 떨어질 수 있다는 전망이 나왔다. 미국 정부의 첨단 반도체 수출 규제와 중국 업체들이 자체 설계한 추론 반도체 성장으로 엔비디아 의존도가 떨어질 수 있다는 것이다. 16일 닛케이 아시아는 글로벌 투자은행 번스타인 보고서를 인용해 "과거 중국 내 AI 가속기 시장에서 엔비디아 점유율은 66%였지만 앞으로 수년 내 8%까지 떨어질 수 있다"고 보도했다. 번스타인 보고서에 따르면 중국 내 반도체 제조사들은 AI 관련 GPU와 각종 가속기를 자체 개발하고 있으며 자국산 업체들의 점유율이 80%를 넘어설 수 있다. 실제로 현재 중국 내에서는 화웨이와 함께 무어스레드 등 두 업체가 두각을 나타내고 있다. 최근 중국 내 대표적 AI 스타트업으로 꼽히는 지푸AI는 화웨이 어센드 칩만 활용해 멀티모달 AI 모델을 훈련하는 데 성공하기도 했다. 미국 정부는 2020년 이후 중국 시장 대상으로 AI 가속과 머신러닝, 딥러닝용 GPU 수출 규제를 지속적으로 강화하고 있다. 2022년 10월 조 바이든 행정부는 엔비디아 A100, H100 등 GPU를 포함해 AMD 제품까지 수출 규제 대상에 포함시켰다. 당시 조 바이든 행정부는 연산 성능이나 대역폭 등 성능을 낮추는 선에서 수출을 허용했지만 지난 해 초 출범한 도널드 트럼프 2기 행정부는 이를 한층 강화했다. 지난 13일 미국 정부는 블랙웰 아키텍처 기반 H200 칩의 중국 수출을 비 군사적 목적으로, 미국 내 고객사에 판매하는 물량 중 50%만 허용하기로 했다. 하지만 이번에는 중국 정부가 H200 구매를 제한하고 있다. 미국의 수출 제한 조치는 중국 시장에서 엔비디아의 경쟁력을 약화시키고 있다. 젠슨 황 엔비디아 CEO는 여러 공개 석상에서 기회가 있을 때마다 이와 관련된 발언을 내놓고 있다. 젠슨 황 CEO는 작년 5월 컴퓨텍스 타이베이 2025 기간 중 기자간담회에서 "중국은 세계 AI 연구자의 50%가 모여 있고, 세계 2위 컴퓨터 시장이지만 이를 다루는 미국 정부의 정책은 잘못됐다"고 비판했다. 지난 해 10월 진행된 컨퍼런스에서는 한 발 더 나아가 "미국의 반도체 수출 규제에 따라 중국 본토 기업에 첨단 제품을 판매할 수 없게 되면서, 중국 내 첨단 반도체 시장 점유율이 95%에서 0%로 떨어졌다. 현재 중국 사업은 개점휴업 상태"고 밝히기도 했다.

2026.01.18 12:20권봉석 기자

Arm "엣지 AI, 사용자 만족도 좌우...웨어러블·IoT에도 필수"

[라스베이거스(미국)=권봉석 기자] "클라우드에만 의존하는 AI는 인터넷 연결 속도나 전파 감도에 많은 영향을 받는다. 사용자는 인터넷 연결이 문제인 상황에서도 AI 기능에 문제가 있다고 여길 수 있다. 지연 시간이나 비용 면에서도 효율적이지 않다." 7일(이하 현지시간) 오전, 라스베이거스 베니션 엑스포 내 미팅룸에서 기자단과 마주한 크리스 버기(Chris Bergey) Arm 엣지 AI 사업부문 총괄 수석부사장(EVP)은 '엣지 AI가 왜 필요한가'라는 질문에 이렇게 답했다. 크리스 버기 총괄 수석부사장은 이어 "Arm은 CPU 기반 AI 가속 명령어인 SME2, Armv9 명령어 체계, CPU·GPU·NPU 가속 등 다양한 기술을 통해 스마트폰뿐 아니라 웨어러블과 IoT 기기까지 엣지 AI를 지원하고 있다"고 설명했다. "엣지 AI, 클라우드 AI 회사들이 더 관심 많다" 크리스 버기 총괄 수석부사장은 이날 "엣지 AI를 일반 소비자보다 더 적극적으로 도입하고 싶어하는 것은 오히려 클라우드 기반 AI 회사들"이라고 설명했다. 비용, 성능, 사용자 경험 측면에서 엣지 AI가 주는 이점이 더 크기 때문이다. 그는 6일 레노버 테크월드 기조연설에서 Arm 고객사 수장인 크리스티아노 아몬 퀄컴 CEO의 발언도 인용했다. 당시 크리스티아노 아몬 퀄컴 CEO는 "엣지 데이터를 더 많이 가진 사람이 경쟁에서 이길 것"이라고 발언했다. 크리스 버기 총괄 수석부사장은 "나도 크리스티아노 아몬 CEO의 말에 동의한다. 결국 AI의 종착점은 엣지와 클라우드를 결합한 하이브리드 모델이 될 것이고, 클라우드 기반 기업일수록 오히려 엣지 AI에 관심이 많다"고 설명했다. "CPU 기반 AI 가속 명령어 'SME2', 실시간 처리에 강점" 크리스 버기 총괄 수석부사장은 "Arm은 CPU, GPU, 신경망처리장치(NPU)를 모두 활용해 엣지 AI 성능을 극대화하고 있다"고 강조했다. 이어 "CPU에서 실행되는 AI 가속 명령어 'SME2'는 성능 면에서는 NPU에 뒤질 수 있다. 그러나 지연 시간이 짧고 메모리 근접성이 뛰어나 실시간 처리에 강점을 지닌다. 또 큰 AI 워크로드는 NPU로 분산해 처리할 수 있다"고 설명했다. 또 "현재 퀄컴, 미디어텍 등 다양한 제조사가 SME를 지원하는 시스템반도체를 출시했고 앞으로 신제품은 물론 기존 제품에서도 소프트웨어 업데이트를 통해 SME 활용 사례가 늘어날 것"이라고 내다봤다. 그는 Arm이 GPU를 활용한 신경망 가속 기술 개발에도 분명한 계획을 가지고 있다고 말했다. "대부분의 응용프로그램이 AI 기능 구현에 CPU와 GPU만 활용하는 상황이다. GPU를 활용한 AI 가속 기능은 분명히 필요하며, 향후 GPU에 신경망 가속 기능을 통합해 모바일 환경에서도 데스크톱 수준의 AI 가속을 낮은 전력으로 구현할 계획이다." "AI 탑재 웨어러블 기기에도 하이브리드 AI는 필수" 크리스 버기 총괄 수석부사장은 이날 "애플워치 등장 이후 멈춰 있던 시장에 메타와 샤오미 등 다양한 회사가 확장현실(XR) 글래스와 신경 추적 손목밴드 등 다양한 AI 탑재 기기를 출시하며 활력을 불어넣고 있다"며 AI의 중요성을 역설했다. 그는 스마트 글래스를 예로 들며 "이런 웨어러블 기기에도 엣지 AI는 반드시 필요하다"고 설명했다. "스마트 글래스는 충분하지 않은 배터리와 부피·크기 제약 때문에 무작정 성능을 높이기 어렵다. 또 클라우드에만 의존하는 것은 지연시간 면에서 효율적이지 않다. 결국 스마트폰 등 기기와 역할을 분담하는 하이브리드 처리 모델이 필요하다." "Arm CSS, 최적 레시피 고객사에 제공하는 전략적 도구" Arm은 현재 CPU와 GPU, NPU 등 시스템반도체(SoC)의 여러 구성 요소를 한데 묶어 '컴퓨트 서브시스템'(CSS)이라는 형태로 고객사에 제공하고 있다. 크리스 버기 총괄 수석부사장은 "Arm CSS는 Arm이 제공할 수 있는 최고 성능의 CPU와 이를 통한 구현, 제품화 레시피를 제조사(OEM)와 개발자에게 제공하는 전략적 도구"라고 평가했다. 그는 "CSS를 공급받는 고객사는 필요에 따라 CSS 구성 요소 중 CPU나 GPU 등 필요한 요소만 최종 제품에 활용할 수 있다. 이를 통해 가능한 한 많은 회사가 엣지 AI를 구현할 수 있도록 돕고 있다"고 설명했다. "AI 경험, 소비자의 기대치 높이는 역할 할 것" 크리스 버기 총괄 수석부사장은 "AI는 스마트폰을 넘어 거의 모든 기기에 확산되고 있다. 삼성전자가 TV에 AI를 적용해 축구 경기 화질을 개선한 사례처럼 필요성이나 관심을 보이는 사례가 점차 늘어나고 있는 상황"이라고 설명했다. 그는 "터치스크린이 처음 등장했을 때 그랬던 것처럼 AI를 통한 경험은 앞으로 소비자가 기기에 기대하는 기준을 바꾸는 역할을 할 것"이라고 덧붙였다.

2026.01.09 14:00권봉석 기자

AMD, 올해 투입할 베니스·MI455X 실제 제품 첫 공개

[라스베이거스(미국)=권봉석 기자] AMD가 5일(이하 현지시간) 오후 라스베이거스 팔라조에서 진행한 CES 2026 기조연설 중 서버용 프로세서 '베니스', 인스팅트 MI455X GPU 가속기 등 데이터센터용 신제품 실물을 최초 공개했다. 이날 리사 수 AMD CEO가 공개한 서버용 에픽(EPYC) 프로세서 '베니스'는 젠6(Zen 6) 아키텍처 기반으로 설계된 고성능 CPU 코어를 최대 256개 탑재 예정이다. 이를 통해 전세대 대비 다중작업과 데이터센터 처리 역량이 향상될 예정이다. 리사 수 CEO가 함께 공개한 인스팅트 MI455X AI GPU 가속기는 연산에 특화된 AMD GPU 아키텍처인 CDNA 기반으로 설계됐다. 대규모 AI 모델 학습과 추론 작업을 처리하는 고대역폭 메모리 및 병렬 처리 성능을 MI355X 대비 최대 10배 강화했다. AMD는 지난 해 공개한 개방형 표준 기반 데이터센터급 AI 랙 시스템 '헬리오스 AI 랙' 실물을 기조연설 관람객에게 선보였다. 헬리오스 AI 랙은 서버 CPU, GPU 및 고속 네트워킹을 하나의 랙 단위로 묶은 형태이며 특정 제조사가 아닌 개방형으로 다양한 하드웨어 제조사, 소프트웨어 생태계와 상호운용성을 높인 것이 특징이다. 헬리오스 AI 랙에 탑재되는 트레이는 인스팅트 MI455X GPU 4개, 베니스 프로세서 4개와 HBM4 메모리 432GB로 구성되며 수랭식 냉각 시스템을 적용했다. 리사 수 AMD CEO는 "헬리오스 AI 랙에 젠6 기반 베니스 코어 최대 4천600개, HBM4 메모리 31TB, 1만 8천 코어 GPU 등을 집약해 올해 안에 출시할 것"이라고 밝혔다. 이날 리사 수 AMD CEO는 "2027년 출시 예정인 인스팅트 MI500는 CDNA 6 아키텍처와 HBM4E 메모리 기반으로 대만 TSMC 2나노급(N2) 공정에서 생산 에정이며 현재 순조롭게 개발이 진행중"이라고 설명했다. 이어 "인스팅트 MI500은 4년 전 대비 AI 성능을 최대 1천 배 높일 것"이라고 설명했다.

2026.01.06 17:40권봉석 기자

양자 보안 시대, NPU가 핵심 인프라로 떠오르는 이유

양자컴퓨터 시대를 대비한 양자내성암호(PQC) 전환이 본격화되면서, NPU(신경망처리장치)가 차세대 보안 인프라의 핵심 요소로 부상하고 있다. NPU가 PQC 연산을 직접 수행하는 것은 아니지만, PQC 도입으로 증가하는 시스템 부담을 흡수하는 역할을 맡으면서 존재감이 커지고 있다는 평가다. PQC는 기존 암호 체계를 대체하는 차세대 보안 기술로, 양자컴퓨터 환경에서도 안전성을 유지하는 것을 목표로 한다. 그러나 PQC는 대규모 행렬·다항식 연산을 요구해 연산량과 전력 소모가 크게 늘어나게 된다. 이로 인해 인증, 통신, 업데이트 과정에서 CPU 부담이 증가한다. 특히 엣지 디바이스 환경에서는 성능 저하와 지연이 문제로 지적된다. PQC 도입이 만든 시스템 부담 30일 반도체 업계에서는 PQC로의 전환을 단순한 암호 알고리즘 교체가 아니라 시스템 설계 전반의 문제로 보고 있다. 연산량 증가로 인한 CPU 병목을 어떻게 완화하느냐가 PQC 도입의 현실성을 좌우한다는 분석이다. PQC를 위한 암호 연산 자체는 여전히 CPU와 HSM(하드웨어 보안 모듈), TPM(하드웨어 기반 보안 칩) 등 보안 영역에서 수행된다. 신뢰 경계와 보안 요구사항 때문이다. NPU가 PQC 연산을 직접 처리하는 구조는 아닌 셈이다. 문제는 PQC 도입으로 인해 CPU에 연산이 집중된다는 점이다. 이를 그대로 둘 경우 시스템 전체의 효율과 안정성이 급격히 떨어질 수 있다. 이 때문에 업계에서는 PQC 전환 과정에서 연산 부하를 분산할 수 있는 구조가 필요하다는 지적이 나온다. NPU, 연산을 대신하지 않고 부담을 나눈다 이 과정에서 NPU의 역할이 부각되고 있다. NPU는 AI 추론을 위해 설계된 가속기로, 저지연과 전력 효율이라는 구조적 강점을 갖는다. 김현호 AMD 재팬 연구원은 “NPU의 가치는 단순한 성능 수치보다 저지연과 전력 효율에 있다”며 “PQC처럼 시스템 전반의 연산 부담을 키우는 기술이 도입될수록 이런 특성이 더욱 중요해진다”고 설명했다. NPU는 AI·데이터 처리 등 기존 CPU 워크로드 일부를 오프로딩함으로써 CPU가 암호 연산에 집중할 수 있는 여유를 만든다. 오프로딩은 CPU 부담을 다른 가속기로 분산하는 구조를 의미한다. 김 연구원은 “NPU가 PQC 연산을 직접 수행하는 것은 아니지만, 그 과정에서 발생하는 유사한 연산 부담을 분산시켜 시스템 차원에서 PQC를 가능하게 한다”고 말했다. 업계에서는 PQC 연산과 NPU 연산이 구조적으로 유사한 점이 많지만 완전히 동일하지는 않다고 보고 있다. 이로 인해 NPU의 역할이 단순화돼 전달되는 경우도 있었지만, 시스템 관점에서 보면 PQC 전환 흐름 속에서 NPU가 자연스럽게 핵심 인프라로 자리 잡고 있다는 분석이 나오는 이유다. 다만 국내 업계에서는 보다 신중한 시각도 제기된다. NPU가 PQC 구현의 중심으로 보기에는 다소 이르다는 의견이다. 오히려 PQC 병목 해결의 현실적인 방법으로 NTT(Number Theoretic Transform) 최적화를 제시했다. 국내 팹리스 ICTK 관계자는 “PQC 성능의 핵심 병목은 여전히 다항식 연산, 특히 NTT 최적화에 있다”며 “현재로서는 CPU와 전용 암호 가속기를 중심으로 성능을 끌어올리는 접근이 가장 현실적”이라고 말했다. 이어 “NPU는 시스템 부하 완화 측면에서 의미가 있지만, PQC 구현의 중심 축으로 보기는 이르다”고 덧붙였다.

2025.12.31 09:09전화평 기자

병 속에서 번개가 치네…입자 가속기 실험 '화제'

한 유튜버가 입자 가속기를 사용해 투명한 아크릴 원통 속에서 번개를 만드는 실험을 진행해 화제가 되고 있다고 과학매체 인터레스팅엔지니어링이 최근 보도했다. 이 야심찬 실험을 진행한 이는 일렉트론 임프레션스(Electron Impressions)라는 유튜버다. 그는 아크릴과 같은 절연체 재료에 고에너지 전자를 주입해 방전이 일어난 경로에 따라 발생하는 이온의 분포를 나타내는 '리히텐베르크(Lichtenberg)' 무늬를 만드는 것으로 유명한 유튜버다. 공개된 영상에서는 병 속에서 나무 모양의 화려한 무늬가 빛나는 모습을 볼 수 있다. 전자들은 재료 내부 깊숙이 침투해 전하를 축적시키고 이후 전하가 방출되면 재료 내부에서 균열이 발생하는데 이 과정에서 나무 모양의 독특한 패턴을 만든다. 언뜻 보면 번개가 병 속에 갇힌 것 같은 모양이다. 지금까지 일렉트론 임프레션스는 주로 평평한 판이나 원반 형태에서 실험했다. 하지만 이번에는 실험 과정을 완전한 원통형 형태로 확장시켰다. 원통 속에서 번개 만든 것은 이번이 처음 원통형 구조에서 균형 잡힌 무늬를 만드는 것이 어려운 이유는 전자가 고체 물질 내부로 침투하는 방식 때문이다. 평평한 아크릴 조각의 경우 전하를 비교적 쉽게 중심부에 집중시킬 수 있지만, 원통형 구조에서는 한 방향에서만 전자를 조사할 경우 무늬가 한쪽 면에만 형성돼 불균형한 결과가 나타난다. 입자 가속기 자체를 회전시킬 수 없었던 만큼, 제작자는 대신 아크릴 원통을 회전시키는 방식을 택했다. 이를 통해 전자들이 중심 축을 기준으로 모든 방향에서 재료 내부로 유입되며, 전하가 방사형으로 고르게 분포되도록 했다. 회전 속도 조절 역시 중요한 변수였다. 원통이 너무 느리게 회전하면 전하가 균일하게 축적되지 않았고, 반대로 너무 빠르게 회전하면 전자 노출량이 부족해졌다. 이에 따라 그는 분당 약 150회 회전 속도로 원통을 돌리며 1~2초의 짧은 노출 시간 동안 전자를 여러 차례 조사하는 방식을 선택했다. 극한 방사선 환경을 고려한 회전 장치 설계 입자 가속기 내부에서 사용할 회전 장치를 설계하는 것도 큰 과제였다. 가속기 내부의 방사선 강도는 최신 전자 장치를 손상시킬 만큼 강하기 때문이다. 제작자는 이를 해결하기 위해 회전 장치의 구조를 최대한 단순화하고, 방사선에 견딜 수 있는 부품으로 시스템을 구성했다. 구동 장치로는 12볼트 납축 배터리(lead-acid battery)로 작동하는 브러시드 DC 모터가 사용됐다. 납축 배터리는 고에너지 리튬 배터리에 비해 방사선 내성이 뛰어난 것이 장점이다. 또한 구조 부품 대부분은 고방사선 환경에서도 안정성이 검증된 검은색 PETG 플라스틱으로 3D 프린팅해 제작됐다. 충전에서 방전까지 실험에 사용된 투명 아크릴 원통은 직경 2인치 크기로, CAD 소프트웨어를 이용해 설계됐다. 실험 도중 파손에 대비해 동일한 원통 두 개를 제작했다. 이후 가속기 챔버에 장착한 뒤, 방사선 차폐 처리가 된 고프로 카메라로 전자가 아크릴에 충돌하며 발생하는 발광 현상을 촬영했다. 원통의 곡면을 통해 내부를 관찰하면 빛의 굴절로 인해 패턴이 실제보다 더 크고 극적으로 보인다. 완성된 작품은 전기 현상이 어떻게 강렬한 3차원 구조로 변모할 수 있는지를 보여주며, 어려운 위업을 뜻하는 '병 속의 번개(lightning in a bottle)'라는 관용 표현이 단순한 비유에 그치지 않음을 잘 보여준다고 해당 매체는 평가했다. ▶ 영상 링크 https://www.youtube.com/watch?v=8a3GfozsU0s

2025.12.27 16:20이정현 컬럼니스트

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤 기자

[르포] 체험형 안전운전 교육 산실 'TS 화성교통안전체험교육센터' 가보니

지난 4일 경기도 화성시 한국교통안전공단(TS) 화성교통안전체험교육센터. 교육용 차량인 아반떼에 탑승해 안전띠를 맨 후 사이드브레이크를 풀고 기어를 D레인지로 옮기면서 브레이크에서 발을 떼자 움직이기 시작했다. 차량 외부에서 무전기로 전하는 교수의 지시에 따라 가속페달을 힘껏 밟았다. 차량은 살짝 꿀렁하는 듯 했지만 강력하게 밟은 가속페달에 비해 속력이 올라가지 않았다. 기어를 D레인지에 두고 브레이크에서 발을 뗐을 때 정도의 속력이었다. 대신 가속페달을 밟는 동안 '삐~' 하는 소리가 계속 울렸다. 나중에 다른 차량을 지켜보니 '웅~' 하는 rpm 올라가는 소리와 동시에 꿀렁이다가 서서히 지나갔다. 페달오조작 방지장치를 장착한 효과였다. 페달오조작 방지장치는 정차 상태이거나 시속 15km 이내로 주행할 때 급가속 페달 작동을 제한하는 기능과 주행 중 4천500rpm 이상 가속을 제한하는 기능이 있다. 주정차할 때나 주행 중 무의식중에 브레이크 대신에 가속페달을 잘 못 밟더라도 급가속을 억제하기 때문에 교통사고를 예방할 수 있다. 시속 15km 이하로 후진할 때도 같은 효과가 있어서 자동차 급발진 사고로 착각할 수 있는 사고를 미연에 방지할 수 있다. 운전자 스마트폰과 연동해 급가속 시도 건수와 작동 위치·횟수 등을 수집하는 기능도 담겼다. 페달오조작 방지장치는 지난해 5월부터 10월까지 TS에서 사업용 차량 실증사업을 수행했고 지난 4월 규제샌드박스 실증특례를 받아 3차에 걸쳐 시범사업을 추진하고 있다. 1차 사업에서는 영동·서천·진안·영암·성주 등에서 65세 이상 고령운전자를 대상으로 141대를 장착했고, 2차에서는 고위험 운수회사 가운데 고령률이 40% 이상인 법인택시 374대에 설치했다. 3차에서는 서울 등 7개 특·광역시에 거주하는 65세 이상 고령운전자 대상 730대를 추가 도입할 계획이다. TS 측은 페달오조작 방지장치 설치 후 3개월 간 141명을 대상으로 분석한 결과, 페달오조작(급가속)이 71회 발생했고 원천 차단됐다고 설명했다. 이어 인공지능(AI) 기반 안전알림 시스템 체험을 하기 위해 버스에 탑승했다. 운전석 상단 모니터에는 졸음운전·흡연·휴대폰 사용 등 '운전자 위험행동' 6개 항목과 불법유턴·신호위반·중앙선침범 등 6개 법규위반 항목, 전방차량추돌·전방차량 출발 알림·보행자추돌·차선이탈·과속 등 첨단운전자보조시스템(ADAS) 10개 경보가 상황에 따라 실시간으로 떴다. 강한 햇빛에 운전자가 표정을 찡그리자 시스템에서 “졸음운전 하지 말라”는 멘트가 흘러나왔다. 또 정차한 차 앞으로 사람들이 지나가면 “보행자를 주의하라”는 메시지가 반복됐다. 탑승한 버스와 앞차 간격이 급격하게 줄어들자 급정거하면서 차량 안전거리를 유지하라는 경고가 나왔다. 우회전 사각지대의 위험성을 알리기 위해 버스가 우회전할 때 코너에 세워둔 어린아이 크기 더미 마네킹을 그대로 역과하는 광경도 연출했다. TS는 지난해 고위험 노선버스 회사 13곳, 500대에 이 장치를 장착해 모니터링을 진행했다. 사고율이 전년 보다 55.5% 감소했고 교통사고 건수, 중상·경상자 수 모두 두 자릿수 비율로 줄었다. 운전자 안전운전 점수도 50.9점에서 76.9점으로 상승했다. 문수정 TS 화성교통안전체험교육센터 교수는 “버스가 우회전할 때는 운전석에서 먼 쪽이라 거리감이 떨어지고 회전 반경도 크기 때문에 좌회전할 때 보다 사고가 훨씬 자주 일어난다”며 “결국 센서는 보조장치이고 운전자의 주의 깊은 운전이 가장 중요하다”고 설명했다. 마지막으로 차량에 올라 인지반응속도 테스트(PRT)를 진행했다. 돌발 상황에 브레이크를 밟기까지 걸리는 시간을 계측하는 방식이다. 정상적으로 주행하다가 차량 스피커로 돌발 상황이라는 메시지가 나오는 순간 브레이크를 밟아야 한다. 아무런 설명 없이 진행한 탓에 처음 돌발상황에서는 브레이크를 밟아야 하는지 질문하면서 밟다보니 1.2초의 반응 속도가 나왔다. 이후 몇 차례 이어진 상황에서도 동승자들의 안전을 위해 평소보다 브레이크를 느슨하게 밟아 0.9초대 반응속도를 기록했다. 운전자 평균은 1.1초 정도이고 연령대나 피로 상태·집중력 저하 등으로 시간은 달라질 수 있다는 교수의 설명이다. TS 화성교통안전체험교육센터는 2017년 3월 개소해 지난해까지 19만5천959명의 교육생을 배출했고 올해는 2만8천100면을 목표로 하고 있다. 화성교통안전체험교육센터는 수도권과 강원권·충청권 지역 버스·화물차·택시 등 사업용 운전자 등을 대상으로 ▲안전운전 교육과정 ▲에코드라이브 교육과정 ▲개인택시 면허 양수 교육과정 ▲버스운전자 양성교육과정 ▲체험형 버스 화물 자격 취득 과정 ▲전기차 등 산업 및 특수 맞춤형 교육과정으로 나눠 다양한 교육 프로그램을 실시하고 있다.TS 화성교통안전체험교육센터 안에는 국내 최대규모 자율차 테스트베드인 자율주행실험도시(K-City)가 자율차 기술개발을 지원하고 안전성 검증을 위한 실험 환경을 제공하고 있다. TS 자동차안전연구원 주행시험장을 활용해 215만㎡(65만평) 규모 자율차 맞춤형 환경을 구축했다. TS는 기술개발과 제도개선 로드맵에 따라 단계적으로 테스트베드 고도화를 추진하고 있다. 지난달 3단계 고도화 사업을 마물해 레벨4 자율차 출시와 대중교통 등 공공서비스 상용화를 위해 자율주행 안전성을 검증하고 위험 상황을 반복 재현해 평가할 수 있는 테스트베드를 구현했다. K-City는 지난 2019년 1월부터 2025년 11월까지 총 199개 기관이 7천71회, 총 4만612시간을 사용했다. 기업과 대학, 연구소가 각각 66%·27%·7%씩 사용했고 사용 목적은 인지·판단·제어로직 등 알고리즘 개발이 57%로 가장 많았다. V2V 통신검증·원격주행·OBU 테스트 등 통신분야가 10%, 레이터·라이다 선능 검증·AI카메라 등 부품 분야는 5%, 자체개발 자율주행 완성차 분야가 6%로 나타났다. K-City와 연계한 중소·새싹기업 창업·연구공간인 자율주행미래혁신센터에는 12개 기업이 입주해 자체플랫폼·부품·완성차·보안솔루션 등 다양한 기술을 개발하고 있다. 기상환경재현시설은 왕복 4차선 도로 위에 설치된 300m 길이 터널형 실험 공간으로 2022년 완공돼 인공강우설비·인공안개설비·제어시스템·실내위치추적시스템(IPS) 등을 운영 중이다. K-City는 기획재정부 K-테스트베드 사업과 연계해 신기술·시제품 성능확인서를 발급하고 리를 통해 조달청 기술마켓 등록과 혁신제품 등록을 위한 공공 판로 개척도 지원하고 있다. TS 관계자는 “국내 최고 수준의 전문 강사진과 체계적이고 과학적인 교육시스템, 현장감 높은 맞춤형 체험시설 등으로 국민 생활 속에 교통안전이 정착할 수 있도록 최상의 교통 환경을 만들어 교통사고 없는 안전한 대한민국을 만들어가겠다”고 밝혔다.

2025.12.08 15:19주문정 기자

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

SK하이닉스가 내년 HBM4(6세대 고대역폭메모리)의 본격적인 양산 시점을 놓고 조절에 나섰다. 당초 내년 2분기 말부터 HBM4의 생산량을 대폭 늘릴 예정이었지만, 최근 이를 일부 시점을 조정 중으로 파악됐다. 엔비디아의 AI칩 수요 및 차세대 제품 출시 전략에 맞춰 탄력 대응에 나선 것으로 풀이된다. 8일 지디넷코리아 취재에 따르면 SK하이닉스는 HBM4의 램프업(양산 본격화) 시점을 당초 계획 대비 한 두달 가량 늦췄다. HBM4는 내년 엔비디아가 출시하는 차세대 AI 가속기 '루빈(Rubin)'부터 채용되는 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개로 확대되며, HBM을 제어하는 로직 다이(베이스 다이)가 기존 D램 공정이 아닌 파운드리 공정에서 양산되는 점이 가장 큰 특징이다. 당초 SK하이닉스는 HBM4를 내년 2월경부터 양산하기 시작해, 2분기 말부터 HBM4 생산량을 대폭 확대할 계획이었다. 엔비디아가 HBM4 퀄(품질) 테스트를 공식적으로 마무리하는 시점에 맞춰 생산량을 빠르게 확대하려는 전략이다. 이를 위해 SK하이닉스는 대량의 샘플 시생산을 진행해 왔으며, 엔비디아의 요청에 따라 2만~3만개의 칩을 공급한 것으로 알려졌다. 그러나 최근 계획을 일부 수정했다. HBM4의 양산 시점을 내년 3~4월부터로 미루고, HBM4의 생산량을 대폭 확대하는 시점도 탄력 운영하기로 했다. HBM4 양산을 위한 소재·부품 수급도 기존 대비 속도를 늦추기로 한 것으로 파악됐다. 사안에 정통한 관계자는 "SK하이닉스가 내년 상반기부터 HBM4 생산량을 점진적으로 늘려, 2분기 말에는 HBM4 비중을 크게 확대할 계획이었다"며 "그러나 현재는 최소 내년 상반기까지 전체 HBM에서 HBM3E의 생산 비중을 가장 높게 유지하는 것으로 가닥을 잡았다"고 설명했다. 또 다른 관계자는 "SK하이닉스가 엔비디아와 내년 HBM 물량을 논의하면서 예상 대비 HBM3E 물량을 많이 늘린 것으로 안다"며 "엔비디아 루빈의 출시 일정이 지연될 가능성이 커졌고, HBM3E를 탑재하는 기존 블랙웰 칩의 수요가 견조한 것 등이 영향을 미쳤을 것"이라고 말했다. 현재 업계에서는 엔비디아 루빈 칩의 본격적인 양산 시점이 밀릴 수 있다는 우려가 팽배하다. 엔비디아가 루빈 칩의 성능 향상을 추진하면서 HBM4 등의 기술적 난이도가 높아졌고, 루빈 칩 제조에 필수적인 TSMC의 2.5D 패키징 기술 'CoWoS'가 계속해서 병목 현상을 겪고 있기 때문이다. 이에 대해 SK하이닉스 측은 "경영 전략과 관련해서는 구체적으로 확인해드릴 수 없으나, 시장 수요에 맞춰 유연하게 대응할 계획"이라고 밝혔다.

2025.12.08 10:03장경윤 기자

육상풍력, 2030년까지 6GW 보급…단가 1kWh 당 150원 이하로 낮춘다

정부가 2030년까지 육상풍력을 6GW보급하고 발전단가도 1kWh당 150원 이하 수준으로 낮춘다. 국내 생산 터빈도 300기 이상 공급하는 것을 목표로 지원한다. 기후에너지환경부는 지난 3일 김성환 장관 주재로 관계부처와 지자체·공공기관이 참여하는 '육상풍력 범정부 보급 가속 전담반(TF)' 첫 회의를 개최하고 이같은 내용을 포함한 '육상풍력 발전 활성화 전략'을 발표했다. 육상풍력은 국토의 약 70%가 산지로 이뤄진 우리의 지형 여건상 풍황이 좋은 고지대를 중심으로 확대 가능성이 높아 '탈탄소 녹색문명 대전환'을 견인할 수 있는 주요 재생에너지원이다. 국내 육상풍력 보급은 연간 0.1GW 내외로 누적 2GW 수준이며, 복잡한 인허가와 규제로 개발에 장기간 소요되는 것이 가장 큰 장애 요인으로 꼽힌다. 기후부는 이같은 인허가 병목을 해소하기 위해 국방부·산림청·기상청·강원도·경상북도·전라남도·한국에너지공단·한국전력·환경연구원과 함께 이번 전담반을 구성, 범정부적으로 역량을 결집해 육상풍력의 보급 확대 기반을 조성해 나가기로 했다. 첫 회의에서 관계 부처 합동으로 공개한 '육상풍력 발전 활성화 전략'은 보급·비용·산업 측면에서 ▲2030년까지 6GW 보급 ▲150원/kWh 이하 수준 발전단가 인하 ▲국내 생산 터빈 300기 이상 공급을 정책 목표로 제시했다 구체적으로는 ▲2030년 6GW 및 2035년 12GW 보급목표 제시 ▲공공주도 계획입지 제도 도입 ▲기상청 데이터를 활용한 풍황계측 절차 개편 등 규제·제도 합리화 ▲기후부·산림청 내 전담조직 구축 ▲신속 계통접속 ▲보증·융자 확대 ▲공공 경쟁입찰 신설 ▲주요 기자재 기술개발 및 투자 특전(인센티브) 제공 ▲이익공유형 바람소득 마을 확산 ▲이격거리 법제화 및 예외기준 명확화 등 10개의 세부과제를 담았다. 김성환 기후부 장관은 “육상풍력 확대는 에너지 대전환을 위한 핵심 과제로, 그 과정에서 우리의 산업·비용 경쟁력을 동시에 강화하는 것이 중요하다”며 “기후부를 비롯한 정부 부처, 지자체, 기관, 업계 모두 범정부 전담반(TF)이라는 한 팀으로서 모든 역량을 결집해 나가겠다”라고 밝혔다. 정부는 재생에너지의 획기적인 확대를 위해 육상풍력뿐 아니라 발전원별로 종합 대책을 준비 중이며, 연내 관계부처 합동으로 '해상풍력 기반시설(인프라) 확충 및 보급 계획'을 발표할 예정이다. 한편, 이원주 기후에너지환경부 에너지전환정책실장은 3일 오후 대구 군위군에 소재한 풍백풍력 준공식에 참석, 풍백 육상풍력 사업의 준공을 축하했다. 풍백 육상풍력은 전체 75MW 규모 발전사업으로, 발전공기업이 체결한 최초의 풍력 전력거래계약(PPA)이다. 정부는 앞으로도 보급 확대 및 수출기업의 '재생에너지 100% 사용(RE100)' 이행 지원을 위해 민간 전력거래계약 활성화에도 각고의 노력을 기울일 예정이다.

2025.12.04 09:16주문정 기자

소테리아, 차세대 EDA 툴 'DEF 지니' 첫 공개

반도체 팹리스 기업 소테리아는 지난 20일부터 21일까지 중국 청두에서 개최된 'ICCAD 차이나 2025(중국 집적회로 설계 컨퍼런스)'에 참가해 자사의 신규 EDA 툴인 'DEF 지니(Genie)'를 소개했다고 1일 밝혔다. ICCAD 차이나는 전 세계 반도체 설계 업계의 최신 기술 트렌드를 공유하는 대규모 국제 행사다. 이번 전시회에는 삼성, TSMC, 시놉시스(Synopsys), 앰코(Amkor) 등 글로벌 반도체 선도 기업들이 대거 참여해 AI, HPC(고성능 컴퓨팅), 차세대 칩 설계와 패키징 등 첨단 기술을 선보였다. 소테리아는 이번 행사에서 자체 개발한 EDA 툴 DEF 지니의 실제 데모와 기술 발표를 진행하며 참관객들의 이목을 집중시켰다. DEF 지니는 기존 커스텀 레이아웃 툴에서는 구현이 불가능했던 설계 넷리스트(Netlist) 정보의 직접 반영을 가능케 한 솔루션이다. 본래 DEF 지니는 초저전력 HPC 가속기 아폴론 칩의 PPA 달성을 위해 개발됐으나, EDA 툴 자체로도 상품 경쟁력이 있어 호평을 받았다. 특히 발표 세션에서는 커스텀 레이아웃 데이터를 SoC(시스템온칩) 레이아웃 데이터베이스로 실시간 전환하는 시연을 통해, 단절되어 있던 커스텀 디자인과 SoC 디자인 사이의 기술적 '가교' 역할을 완벽히 수행할 수 있음을 입증했다. 또한 국제 표준인 OA(Open Access) API 를 기반으로 개발되어 다양한 설계 환경에서의 호환성을 확보했다는 점도 현장 전문가들의 호평을 받았다. 소테리아는 AI·HPC ASIC 의 최고 수준 PPA 달성을 위해 필수적인 커스텀 레이아웃을 채택하며 발생하는 설계상의 난제를 자체 EDA 툴 개발을 통해 극복할 수 있는 기술 경쟁력을 입증했다. 이를 통해 단순한 칩 설계를 넘어, 설계 품질과 완성도를 획기적으로 향상시킬 수 있는 역량을 보유하고 있음을 확인시켰다. 김종만 소테리아 대표는 “전 세계 반도체 엔지니어들이 모인 자리에서 'DEF 지니'의 혁신성을 인정받게 되어 뜻깊다”며 “설계 생산성 향상과 검증 효율성 증대는 국경을 초월한 반도체 업계의 공통 과제인 만큼, 이번 런칭을 기점으로 글로벌 팹리스 및 디자인 하우스와의 협력을 본격적으로 확대해 나갈 것”이라고 밝혔다.

2025.12.02 09:07장경윤 기자

삼성전기, 내년 초 필리핀 팹 증설 추진…'MLCC' 호황 대응

삼성전기가 내년 초부터 AI 서버용 적층세라믹캐패시터(MLCC) 생산능력 확대를 추진한다. 최근 필리핀 법인의 증설을 위한 준비에 나선 것으로 파악됐다. 급증하는 AI 인프라 투자에 선제적으로 대응하려는 전략으로 풀이된다. 1일 업계에 따르면 삼성전기는 내년 1분기부터 필리핀 소재의 MLCC 양산라인을 증설할 계획이다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 IT제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. 현재 삼성전기의 MLCC는 주로 중국 톈진과 필리핀 라구나주 칼람바시 소재의 공장 2곳에서 양산되고 있다. 국내 수원 및 부산사업장은 R&D 및 원재료 제조에 집중하고 있다. 삼성전기는 이 중 필리핀 MLCC 공장의 증설을 지속 고려해 왔다. 올 4분기 설비투자를 위한 협력망을 구성하는 등 구체적인 준비에 나선 것으로 파악됐다. 이르면 올 1분기부터 실제 투자에 나설 전망이다. 구체적인 투자 규모는 밝혀지지 않았으나, 삼성전기의 연간 투자 규모를 고려하면 수천억원의 투자가 집행될 것으로 관측된다. 또한 이달 초에는 장덕현 삼성전기 사장이 부산사업장에서 페르디난드 마크로스 필리핀 대통령을 만나, 필리핀 경제특구청(PEZA) 및 MLCC 투자를 위한 협약을 체결한 바 있다. 전자부품 업계 관계자는 "삼성전기는 중국 톈진에서 전장용 MLCC를, 필리핀에서는 AI 서버용 MLCC를 주력으로 양산해 왔다"며 "필리핀 MLCC 공장 건설 계획이 조만간 구체화될 것으로 안다"고 설명했다. AI 서버용 MLCC는 최근 글로벌 빅테크 기업들의 공격적인 AI 인프라 투자 확대에 따라 수요가 빠르게 증가하는 추세다. AI 서버에는 일반 서버 대비 약 10배 이상의 MLCC가 탑재되며, 소형·고용량을 요구하기 때문에 부가가치가 높다. 이에 삼성전기도 MLCC 사업에서 호황을 맞고 있다. MLCC가 포함된 삼성전기의 컴포넌트 공장 가동률은 지난해 연 81% 수준에서 올해 3분기 기준 99%로 사실상 '풀가동' 체제에 접어들었다.

2025.12.01 10:34장경윤 기자

[현장] 이재욱 서울대 AI대학원장 "지금은 '스케일링 법칙' 시대…AI 인프라 경쟁 심화"

"지금 우리는 스케일링 법칙(Scaling Law) 시대에 살고 있습니다. 모든 나라, 기업이 경쟁적으로 인공지능(AI) 인프라에 엄청나게 집중을 하고 있는 것도 이 때문입니다." 이재욱 서울대학교 AI연구원장은 18일 오전 서울 서초구 양재 엘타워에서 진행된 '한국인공지능산업협회(AIIA) 정기 조찬포럼'에 참석해 'AI 컴퓨팅 기술 동향' 주제로 강연하며 이처럼 강조했다. 이 행사는 AIIA와 지능정보기술포럼(TTA ICT 표준화포럼 사업)이 공동 주최했다. 이 원장은 올해 서울대병원 헬스케어AI연구원장을 맡게 된 장병탁 원장의 뒤를 이어 서울대 AI연구원을 이끌게 된 인물로, 지난 2022년부터 1년간 구글 딥마인드 방문연구원으로 활동한 경험이 있다. 이 원장이 이날 강연에서 언급한 '스케일링 법칙'은 더 많은 컴퓨팅 파워와 그래픽처리장치(GPU), 방대한 데이터를 투입해야 모델의 정교함과 예측력이 비약적으로 개선된다는 것을 뜻한다. 그는 이 법칙과 관련해 지난 2018년 '트랜스포머'를 만든 구글 딥마인드 팀을 예시로 들었다. 당시 구글 딥마인드 팀은 언어 모델을 개발한 다음 위키디피아로 전부 학습을 시킨 후 (미국 대통령) '에이브러햄 링컨'으로 자료를 생성하는 실험을 했다. 33M 모델로 결과물을 도출했을 때는 이상한 토큰들이 많이 생성됐지만, 5B 모델로 크기를 확대했을 때는 비교적 정확한 결과물이 도출됐다. 5B 모델이란 학습 가능한 매개변수 50억 개를 갖고 있다는 의미이다. 이 원장은 "현재 패러다임은 '스케일링 법칙'에 기반하는 더 많은 계산과 데이터로 모델 성능을 향상시키는 것이 주류가 됐다"며 "오는 2030년까지는 '스케일링 법칙' 추세가 계속 갈 것으로 보이지만, 이후로는 어떻게 될 지 고민해봐야 할 것 같다"고 전망했다. 그는 '스케일링 법칙'을 이끄는 대표주자로 오픈AI를 예로 들었다. 실제 샘 알트먼 오픈AI 최고경영자(CEO)는 자신의 블로그에 '3가지 관찰'이라는 글을 게시하며 "AI 모델의 지능은 훈련과 실행에 사용한 자원만큼 발전한다"며 "현재까지 일정 금액을 지출하면 지속적이고 예측 가능한 성능 향상이 가능하다는 것이 입증됐고, 이런 스케일링 법칙이 여러 차원에서 매우 정확하게 작동한다"고 주장한 바 있다. 이 원장은 "올해 2월 만난 오픈AI 최고기술책임자(CTO)는 '스케일링 법칙'이 2029~2030년까지는 계속 이어지면서 (이를 바탕으로) 자신들의 모델 성능을 개선할 수 있을 것이라고 확신하는 모습을 보였다"며 "사티아 나델라 마이크로소프트 CEO도 이와 비슷한 얘기를 했다"고 말했다. 이 원장은 이처럼 '스케일링 법칙'이 대세로 자리 잡은 만큼 여러 나라와 기업들이 AI 시장 주도권을 잡기 위해 앞으로 더 치열하게 인프라 확보 경쟁을 벌일 것으로 예상했다. 실제 오픈AI와 엔비디아는 10기가와트(GW) 규모의 엔비디아 시스템 구축을 위한 전략적 파트너십을 발표해 주목 받은 바 있다. 그는 "기존의 데이터센터가 AI 데이터센터로 빠르게 전환되고 있는 상태"라며 "이제는 SaaS에 인텔리전스가 전부 탑재되고 있어 GPU를 쓸 수밖에 없는 상황"이라고 설명했다. 이어 "GPU는 기존 SaaS에 비해 엄청나게 많은 메모리와 스토리지를 요구하는데, 앞으로 이에 대한 수요는 더 폭발적으로 증가할 것으로 보인다"며 "이 탓에 각 국가별로도 이를 확보하기 위해 경쟁을 벌이고 있는 것"이라고 부연했다. 또 그는 "현재 AI 패권 경쟁을 위한 컴퓨팅 파워는 미국이 75%, 중국이 15%를 차지하고 있고 유럽, 노르웨이, 일본 등도 상위권에 속해 있다"며 "우리나라도 국부펀드 등을 통해 국가적으로 GPU를 도입해 존재감을 높인 노르웨이처럼 정부가 GPU 확보를 위해 나서고 있는 만큼 '기타'에 속하지 않고 곧 주류로 올라서지 않을까 기대하고 있다"고 강조했다. 이 원장은 이날 강연에서 AI 인프라 구축의 핵심으로 '메모리 반도체'에 대해서도 언급했다. 특히 삼성전자, SK하이닉스를 주축으로 우리나라가 시장 점유율 80% 가량을 차지하고 있는 고대역폭메모리(HBM)가 핵심이란 점도 강조했다. D램의 일종인 HBM은 GPU의 핵심 부품으로, SK하이닉스가 62%, 삼성전자가 17%의 점유율을 기록하며 시장을 이끌고 있다. 그는 "AI 인프라에서 메모리 반도체 역할이 사실 컴퓨팅보다 더 중요하다"며 "AI 메모리 월에서도 알 수 있듯, 지난 20년간 하드웨어 연산 능력은 대략 6만 배 늘었으나 메모리 반도체 대역폭은 고작 100배 정도에 불과했다"고 말했다. 이어 "연산량의 스케일링에 비하면 (메모리 반도체의 대역폭이) 훨씬 더 부족한 상황"이라며 "앞으로는 컴퓨테이션보다 메모리를 읽고 쓰는 속도가 전체 성능의 핵심이 될 것"이라고 덧붙였다. 그러면서 이 원장은 엔비디아 GPU를 AI 메모리 월의 예로 들었다. 실제 볼타 아키텍처 기반의 V100의 연산량 대 메모리 대역폭의 비율은 139였으나, 블랙웰 아키텍처 기반인 B200은 280으로 2배 이상 늘어난 것으로 나타났다. 그는 "이는 지금보다 훨씬 더 컴퓨테이션이 빠르게 증가하고 메모리는 천천히 증가하기 때문에 생기는 메모리 병목이 심화되고 있다는 의미"라며 "이에 대한 솔루션으로 HBM이 제시되고 있다"고 설명했다. 이어 "GPU의 구매원가에서 HBM이 차지하는 비율은 호퍼 아키텍처 기준으로 30% 정도인데, 블랙웰 아키텍처에선 2배 이상으로 높아진다"며 "GPU 밸류 측면에서 점차 HBM 비중이 높아지고 있다는 점에서 (HBM 시장을 주도하고 있는) SK하이닉스, 삼성전자보다 엔비디아가 돈을 더 많이 번다는 것은 안타깝다"고 덧붙였다. 또 그는 "캐퍼시티(Capacity, AI 역량) 측면에서도 트랜스포머라고 하는 모델들의 파라미터 크기는 2년간 400배 이상 증가했지만, 일반 GPU를 탑재한 메모리 용량은 2년간 2배 정도 늘어나는 데 그쳤다"며 "점차 (발전 속도) 격차가 커지고 있는 만큼, 메모리 반도체의 중요성은 앞으로 더 커질 것"이라고 강조했다. 이날 이 원장은 에이전트 AI의 등장으로 메모리에 대한 부담이 점차 더 커지고 있다는 점도 우려했다. 이에 대한 해결책으로는 AMD가 지난 6월 발표한 차세대 AI 가속기 '인스팅트(Instinct) MI400'을 언급했다. AMD는 MI400 시리즈가 전력 효율성과 비용 면에서 엔비디아를 압도한다고 주장하고 있는 상태로, 내년께 이를 본격 출시할 예정이다. 또 다른 해결책으로는 AMD '이기종 시스템 아키텍처(Heterogeneous system Architectures, HSA)'를 제시했다. 이는 CPU, GPU 등 서로 다른 종류의 프로세서가 하나의 통합된 시스템 안에서 협력해 더 효율적으로 작업을 수행하도록 설계된 컴퓨팅 아키텍처다. 이 원장은 "엔비디아도 (AMD 움직임에 맞서) 최근 루빈 CPX라는 저가형 GPU를 선보였다는 점이 흥미로운 부분"이라며 "이는 프리필(Prefill)과 디코드를 할 때 각각 다른 GPU를 쓰게 하는 방식으로 비용 부담을 낮춘 것"이라고 설명했다. 그러면서 "현재 AI 인프라 시장은 굉장히 흥미롭고 할 일도 많은 상태"라며 "우리나라가 경쟁력을 갖고 있는 부분이 많아 향후 수혜를 볼 가능성도 높다"고 전망했다.

2025.11.18 17:16장유미 기자

ISC, 3분기 영업익 174억원…전년比 26.1% 증가

반도체 테스트 플랫폼 기업 아이에스시(ISC)는 3분기 매출 645억원, 영업이익 174억원을 기록하며 창사 이래 최대 분기 실적을 달성했다고 5일 밝혔다. 글로벌 반도체 시장의 불확실성이 이어지는 가운데, AI 반도체 양산 테스트 소켓 수주 증가가 실적 성장을 견인했다. 아이에스시는 기존 테스트 소켓 중심 사업을 넘어, 장비·소켓을 아우르는 수직 통합형 테스트 플랫폼 기업으로의 전환을 추진하고 있다. 장비-소켓 간 통합 솔루션을 통해 고객 대응력을 강화하고, End-to-End 테스트 플랫폼 전략을 바탕으로 업계 내 리더십을 공고히 하고 있다. 이번 실적은 주력 사업인 장비 및 소켓 동시 출하가 본격화되며 모든 사업 영역에서 고른 성장을 보인 결과다. 소켓 부문 영업이익률은 33%, 장비·소재 부문 영업이익률은 15%으로 전분기대비 크게 증가했다. AI 반도체 테스트 소켓 수요가 증가하면서 매출과 영업이익 모두 전분기대비 유의미한 성장을 거뒀다. 또한 회사는 신사업인 장비소재사업부문에서 하이스피드 번인 테스터 및 모듈 테스터 출하와 자율주행 및 차량용, 휴머노이드 칩 테스트 솔루션, HBM용 D램세정케미컬 등 글로벌 고객사 공급망 확장 역시 실적 상승의 주요 동력이 됐다고 분석했다. 아이에스시 관계자는 “AI가속기와 하이엔드 메모리 등 고부가 테스트 시장 중심의 수익 구조가 본격화되면서 매출과 영업이익 모두 안정적인 성장 궤도에 올라섰다”며 “4분기에도 지속적인 성장을 통해 올해 최대 실적 달성을 목표로 글로벌 시장에서의 성장세를 이어가겠다”고 덧붙였다.

2025.11.05 10:13장경윤 기자

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평 기자

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

'새로운 10년' 출발점에 다시 선 갤럭시S26, AI 혁신 베일 벗는다

대형마트 규제 푼다고 이마트·롯데마트 '새벽배송' 가능할까

담합 의혹 속 설탕·밀가루 줄인하…밥상물가 내릴까

5000 돌파 코스피, 한 달 만에 '6000피' 시대 열었다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.