• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'반도체 인프라'통합검색 결과 입니다. (50건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 엔비디아, GPU 시장서 86% 독주 가능한 까닭은

인공지능(AI) 인프라 경쟁의 승패가 반도체 성능보다 이를 뒷받침하는 소프트웨어(SW) 생태계에서 갈리고 있는 것으로 나타났다. 엔비디아의 독주 역시 그래픽처리장치(GPU) 하드웨어 우위만이 아니라 20년 가까이 축적한 쿠다(CUDA) 중심 SW 스택이 만든 구조적 진입장벽의 결과라는 분석이 나왔다. 11일 소프트웨어정책연구소(SPRi)가 발간한 'AI 인프라 경쟁에서 소프트웨어의 구조적 역할' 보고서에 따르면 올해 전 세계 AI 지출은 2조5000억 달러에 이를 전망이다. 이 가운데 절반 이상은 서버·가속기·데이터센터 등 인프라에 집중될 것으로 예상된다. 특히 데이터센터 GPU 시장에서 엔비디아는 약 86%의 매출 점유율을 확보하며 압도적 우위를 유지하고 있다. 보고서는 이 같은 지배력이 단순한 칩 성능만으로 설명되지 않는다고 짚었다. 동일한 H100 GPU를 사용하더라도 컴파일러, 가속 라이브러리, 드라이버 최적화 수준에 따라 실제 처리량이 3배 이상 벌어질 수 있어서다. AI 인프라의 본질적 경쟁력은 '칩 위에서 얼마나 효율적으로 연산을 구현하느냐'에 달려 있다는 의미다. 연구진은 AI 인프라를 개발 프레임워크, 컴파일러, 가속 라이브러리, 드라이버·런타임, 하드웨어의 5계층으로 구분했다. ▲개발자가 AI 모델을 설계할 때 사용하는 '파이토치'나 '잭스(JAX)' 같은 개발 도구부터 ▲이를 각 반도체에 맞는 실행 코드로 바꿔주는 '엑스엘에이(XLA)', '티브이엠(TVM)', '텐서알티(TensorRT)' 기반 컴파일러 ▲연산 속도를 끌어올리는 '쿠디엔엔(cuDNN)', '큐블라스(cuBLAS)' 등 가속 소프트웨어 ▲최하단 드라이버에 이르기까지 전 계층이 특정 하드웨어에 맞춰 최적화되며 락인(lock-in) 구조를 형성한다고 분석했다. 특히 보고서는 ▲최적화 비대칭으로 특정 칩으로 수렴하는 '성능 종속' ▲소프트웨어 선택이 곧 하드웨어 경로를 결정하는 '설계 종속' ▲폐쇄형 드라이버 구조가 물리적 대체를 막는 '구조적 종속'의 세 가지 메커니즘을 제시했다. 이미 특정 라이브러리와 '쿠다' 경로에 맞춰 최적화된 대규모 AI 모델 코드를 다른 칩용으로 재작성·검증하는 데 막대한 인력과 시간이 들어 하드웨어 교체 자체가 사실상 시스템 재구축에 가깝다고 봤다. 또 이 세 요소가 중첩될수록 전환 비용은 기하급수적으로 커진다고 설명했다. 주요국 전략도 뚜렷하게 대비됐다. 미국에서 엔비디아는 '쿠다' 생태계를 통해 성능·구조적 종속을 동시에 구축했고, 구글은 TPU(텐서 처리장치·대규모 AI 학습에 특화한 자체 반도체), 엑스엘에이(XLA), 잭스를 수직 통합해 별도의 설계 종속 경로를 구축했다. 중국 화웨이 역시 자사 AI 칩 '어센드(Ascend)'와 전용 소프트웨어 플랫폼 '칸(CANN)', AI 개발 프레임워크 '마인드스포어(MindSpore)'를 하나로 묶은 체계를 통해 자국 내 유사 생태계를 내재화하고 있는 것으로 평가됐다. 국내 신경망처리장치(NPU) 업계에는 기회와 과제가 동시에 제시됐다. 보고서는 한국 NPU 생태계가 파이토치 네이티브 지원과 가상거대언어모델(vLLM) 연동을 통해 프레임워크 진입에는 성공했지만, 컴파일러·라이브러리 계층의 성능 격차와 운영 레퍼런스 부족이 시장 확산의 걸림돌이라고 진단했다. 국내 AI 반도체 기업들 역시 전용 컴파일러 고도화와 거대언어모델(LLM) 추론 소프트웨어 최적화에 역량을 집중하며 쿠다 의존도를 낮추는 데 공을 들이고 있다. 업계에선 단순 칩 가격 경쟁력보다 전력 효율, 소프트웨어 유지보수, 개발 인력 재교육 비용을 모두 합친 총소유비용(TCO) 관점에서 엔비디아 대비 우위를 입증해야 실제 클라우드 사업자와 대기업 도입으로 이어질 수 있다고 보고 있다. 보고서 역시 TCO 기반 평가체계 도입을 핵심 정책 과제로 제시했다. 이에 연구진은 칩 설계 중심 지원에서 벗어나 컴파일러·런타임·소프트웨어개발키트(SDK)를 포함한 풀스택 SW 육성으로 정책 패러다임을 전환해야 한다고 제언했다. 특히 쿠다 의존도를 낮추기 위한 오픈엑스엘에이(OpenXLA)·엠엘아이알(MLIR) 등 글로벌 오픈소스 표준 프로젝트 참여 확대와 공공 AI 데이터센터 기반 실증 환경 조성이 시급한 과제로 제시됐다. 최근 유엑스엘 재단(UXL Foundation)처럼 특정 가속기 벤더에 종속되지 않는 멀티벤더 표준 생태계가 확산하는 만큼, 국내 기업들도 글로벌 소프트웨어 표준 경쟁에 선제적으로 합류해야 한다고 분석했다. 보고서는 "K-NPU 확산의 병목은 칩 자체보다 소프트웨어 최적화와 운영 생태계 규모에 있다"며 "공공 AI 데이터센터를 활용한 대규모 실증과 글로벌 오픈소스 표준 참여를 통해 성능 격차와 레퍼런스 부족의 악순환을 끊어야 한다"고 말했다.

2026.04.11 13:11장유미 기자

리벨리온, Arm·SKT와 협력...추론 인프라 시장 겨냥

인공지능(AI) 반도체 스타트업 리벨리온이 Arm, SK텔레콤 등 글로벌 AI 기업과 협력해 추론 인프라 시장을 겨냥한다고 10일 밝혔다. 소버린 AI와 통신사 특화 데이터센터 수요에 대응한 추론 인프라 제공이 목표다. 3사는 Arm의 자체 설계 데이터센터용 중앙처리장치(CPU)인 'AGI CPU'와 리벨리온의 AI 반도체를 결합한 AI 서버를 공동 개발하고, 이를 SK텔레콤의 AI 데이터센터에서 검증할 계획이다. 리벨리온은 "AI 인프라 분야 전문 기업이 참여하는 이번 연합은 급성장하는 추론 시장 수요에 기민하게 대응하고, 고성능·저전력 기반 소버린 AI 인프라 표준 정립이 목표"라고 설명했다. 이어 "이를 통해 인프라 설계부터 실전 검증까지 전 밸류체인을 포괄하는 협력 체계를 구축할 계획"이라고 덧붙였다. 이를 위해 Arm 네오버스(Neoverse) CSS V3 기반의 'Arm AGI CPU'와 리벨리온의 '리벨카드'를 통합한다. 리벨카드는 기존 1세대 칩 ATOM을 비롯한 국내외 AI 반도체 다수가 RTX 등 워크스테이션급 칩과 비교돼 온 것과 달리, 한국 최초로 데이터센터 서버급 고성능 AI 반도체 리벨100을 탑재했다. 리벨리온과 Arm은 단순 하드웨어 결합을 넘어 펌웨어 등 소프트웨어 전반을 공동으로 개발하고, SK텔레콤 데이터센터에 도입하여 실제 운영환경에 배치해 데이터 처리 성능과 안정성을 검증한다. 특히, SK텔레콤이 개발한 독자 파운데이션 모델 A.X K1를 해당 서버로 운영하는 방안도 검토 중이다. Arm과 리벨리온은 지난 3월 'Arm 에브리웨어' 행사에서 각 사 칩을 결합해 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간 시연하며, 초기 검증 결과와 대규모 데이터센터 워크로드 적용 가능성을 확인했다. 기술 검증 후 3사는 더 넓은 범위의 상용화 기회를 발굴할 예정이다. 리벨리온은 글로벌 소버린 AI 데이터센터 최적화 솔루션을 공급하고, 아시아 지역을 중심으로 시장을 공략할 계획이다. 독자 AI 인프라 구축이 필요한 글로벌 통신사와 공공 산업군을 중심으로, 안정성이 검증된 맞춤형 특화 솔루션 공급에 주력할 예정이다. 오진욱 리벨리온 최고기술책임자(CTO)는 “리벨리온은 압도적 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당한다”며 “AI 특화 인프라 구축을 위해 각 분야 전문가가 원팀으로 뭉친 이번 협력은 업계에도 유의미한 선례가 될 것"이라고 기대했다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공해 AI 데이터센터 경쟁력을 강화하겠다”고 말했다. 에디 라미레즈 Arm 클라우드 AI 사업부 GTM 부사장은 “AI 인프라가 전 세계적으로 확산됨에 따라 가속기, 메모리, 네트워킹 전반 워크로드를 조율하는 CPU 역할이 중요해졌다”며 “Arm 네오버스 CSS V3를 기반으로 설계한 'Arm AGI CPU'는 대규모 AI 구축에 필수인 성능과 효율성을 갖췄다. 이를 바탕으로 리벨리온, SK텔레콤 등 주요 파트너와 협력해 소버린 AI 및 통신 시장을 위한 확장성 있는 인프라를 실현해 기쁘다”고 밝혔다.

2026.04.10 10:11전화평 기자

신성이엔지, 에어페어 2026서 FFU 기반 솔루션 공개

신성이엔지가 8일부터 10일까지 서울 코엑스에서 열리는 국제 공기산업 박람회 '에어페어(AIR FAIR) 2026'에서 반도체·디스플레이·이차전지 생산환경을 위한 클린룸 핵심 솔루션을 공개한다고 6일 밝혔다. 기후테크 기업으로서 브랜드 이미지 강화가 목표다. 에어페어는 사단법인 한국공기청정협회와 케이훼어스가 주최하는 박람회다. 국내 최대 기후테크 공기청정산업 전문 전시회다. 신성이엔지는 에어페어에서 비산 VOCs를 95% 이상 제거하는 V-마스터를 필두로, 케미컬 필터(C/F)를 장착한 ICF(Internal Chemical Filter FFU), 조명 일체화 형태의 ILF(Integrated Lighting FFU) 등 FFU(Fan Filter Unit) 기반 제품을 선보인다. 이번 전시 핵심은 부스 내 별도로 마련하는 '미립자 가시화 시연존'이다. 부유 중인 미세한 입자를 레이저를 통해 확인할 수 있고, 산업용 공기청정기인 EFU의 미립자 제거 성능을 볼 수 있다. 관람객은 부스 내 키오스크에서 신성이엔지의 주요 제품 라인업, 기본 소개와 적용 사례 등 정보를 볼 수 있다. 신성이엔지 관계자는 "반도체 클린룸을 넘어 바이오 클린룸, 드라이룸 등 클린환경 분야로 영역을 확장하며 기후테크 선도 기업 입지를 구축하고 있다"며 "기술력과 솔루션 경쟁력을 고객이 직접 확인할 수 있는 방식으로 증명하겠다"고 말했다.

2026.04.06 09:34장경윤 기자

딥엑스, 롯데이노베이트와 국산 AI 반도체 상용화 양산 협력

AI 반도체 기업 딥엑스가 롯데이노베이트와 AI 반도체 기반의 상용화 양산 협력을 본격화한다고 2일 밝혔다. 이번 협력은 양사가 공동 진행한 딥엑스 신경망처리장치(NPU) 솔루션의 현장 성능 검증(PoC)이 완료됨에 따라 결정됐다. 롯데이노베이트 관계자는 "딥엑스의 DX-M1 제품의 연산 성능이 높은 점과 발열 제어 부분에서 타 기술대비 발군의 성능을 보여주었다”고 말했다. 양사의 주요 상용화 협력 분야는 지능형 교통 인프라와 리테일 인프라 구축이다. 먼저 지능형 교통 인프라 확충을 위해 교통 밀집 구간에 딥엑스 NPU를 탑재한 AI 엣지 카메라를 도입한다. 클라우드 서버 연동 없이 현장에서 실시간 차량 인식과 이상 상황 탐지를 자체 수행해 통신 비용을 절감하는 차세대 지능형 교통시스템(ITS)을 실증할 예정이다. 대형 유통 매장에는 지능형 리테일 인프라 강화를 위한 초저전력 온디바이스 AI 기반 영상 분석 시스템을 구축한다. 수천 대 규모의 스마트 CCTV를 운용하는 환경에서 기존 GPU 대비 전력 소모를 낮추면서 고객 동선 분석, 안전 관제, 재고 모니터링을 효율적으로 처리한다는 목표다. 이번 협력을 위해 롯데이노베이트는 산업 데이터와 사업 현장을 실증 환경(Test-bed)으로 제공하며, 자체 개발한 AI 알고리즘을 딥엑스의 SDK인 'DXNN'에 최적화해 탑재하는 표준 개발 프로세스를 구축한다. 딥엑스는 저전력·저발열 하드웨어 최적화 기술과 전담 인력을 지원하며, 자체 공급망 관리(SCM)를 통해 반도체 물량을 우선 공급해 비즈니스 연속성을 담보한다. 양사는 교통 및 유통 분야 양산을 시작으로 향후 제조, 로봇, 스마트 팩토리, 안전 관제 등 롯데의 주요 산업 영역으로 엣지 AI 솔루션 적용을 확대할 계획이다. 김녹원 딥엑스 대표는 "이번 협력으로 딥엑스의 AI 반도체가 실제 도로와 매장이라는 산업 현장의 핵심 인프라로 작동하기 시작했다"고 말했다. 김영갑 롯데이노베이트 AX사업본부장은 "딥엑스의 고성능·저전력 NPU 역량을 결합해 롯데 전반의 산업 현장에 최적화된 온디바이스 AI 인프라를 구축하겠다"고 말했다.

2026.04.02 10:29전화평 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

모빌린트, 스피어에이엑스와 엣지 AI 기반 영상 분석 협력

AI 반도체 기업 모빌린트가 AI 영상 분석 솔루션 기업 스피어에이엑스(SPHERE AX)와 AI 기반 안전·보안 및 스마트 인프라 사업 협력을 위한 전략적 업무협약(MOU)을 체결했다고 24일 밝혔다. 양사는 이번 협약을 통해 각 사가 보유한 기술력과 인프라를 결합해 엣지 AI 기반 영상 분석 솔루션을 공동 개발하고, 산업 현장의 안전 관리와 스마트 인프라 구축을 위한 사업 협력을 추진할 예정이다. 주요 협력 내용은 ▲엣지 AI 기반 지능형 영상 분석 솔루션 공동 개발 ▲산업 안전 및 보안 분야 사업 기회 공동 발굴 ▲기술 검토 및 실증(PoC) 수행 ▲공동 마케팅 및 생태계 연계 협력 등이다. 모빌린트는 자사의 고성능 NPU(신경망처리장치)를 기반으로 엣지 환경에서 고효율 AI 연산이 가능한 하드웨어 플랫폼을 제공하고, 스피어에이엑스는 AI 영상 분석 알고리즘 기술을 접목해 지능형 영상 분석 솔루션을 구현할 예정이다. 이를 통해 제조 현장, 건설 현장, 공공시설 등 다양한 산업 환경에서 실시간 안전 모니터링과 지능형 보안 시스템 구축을 추진한다는 계획이다. 특히 양사는 엣지 AI 기반 영상 분석 기술을 활용해 산업 안전 관리 및 스마트 인프라 분야에서 새로운 사업 기회를 공동 발굴하고, 실제 운영 환경에서의 성능 검증(PoC)을 통해 상용화를 추진할 예정이다. 신동주 모빌린트 대표는 “스피어에이엑스의 AI 영상 분석 기술과 모빌린트의 고성능 NPU 기술이 결합되면 산업 현장에서 요구되는 실시간 AI 분석과 안정적인 시스템 구축이 가능해질 것”이라며 “양사의 협력을 통해 지능형 안전 관리 및 스마트 인프라 분야에서 새로운 AI 솔루션 모델을 만들어 나가겠다”고 말했다. 박윤하 스피어에이엑스 대표는 “스피어에이엑스가 보유한 영상 기반 AI 추론 기술과 모빌린트의 NPU 기반 엣지 AI 하드웨어플랫폼이 결합되면 향후 피지컬 AI 분야에서 큰 시너지를 창출할 수 있을 것으로 기대한다”며 “특히 모빌리티, 드론, 로봇 등 다양한 산업 영역에서 영상 기반 AI 인지 및 판단 기술이 중요한 역할을 하게 될 것으로 보고 있으며, 양사의 기술 협력을 통해 이러한 분야에서 새로운 AI 응용 시장을 개척하고 글로벌 시장을 선도해 나가겠다”고 밝혔다.

2026.03.24 14:59전화평 기자

남부발전, 퓨리오사AI와 국산 AI 반도체 생태계 조성 협력

남부발전이 인공지능(AI) 대전환 가속화 흐름에 발맞춰 국산 반도체 기술을 활용한 에너지 생태계 육성에 나선다. 한국남부발전(대표 김준동)은 퓨리오사AI와 '에너지 효율 중심의 국산 AI 인프라 생태계 구축'을 위한 업무협약(MOU)을 체결했다고 밝혔다. 이번 협약은 기존 외산 고가 그래픽처리장치(GPU) 의존도를 낮추고, 전력 효율이 뛰어난 국산 신경망처리장치(NPU) 기반 AI 인프라를 구축하기 위해 마련됐다. 이를 통해 남부발전은 발전설비 운영 비용을 절감하고, 퓨리오사AI는 국산 AI 반도체의 실제 산업 현장 적용 사례를 확보해 기술 자립도를 높인다는 방침이다. 두 회사는 국산 기술 기반 저전력·고성능 AI 인프라 구축을 목표로 ▲NPU 기반 AI 서버 도입·실증 ▲국산 AI 인프라 최적화를 위한 시스템 성능 개선 ▲GPU와 NPU 간 분산 처리를 위한 하이브리드 운영 방안 모색 ▲최신 AI 기술 관련 교류 및 공동 연구 등을 추진할 예정이다. 특히 이번 협력에는 퓨리오사AI의 2세대 NPU인 '레니게이드(RNGD)'가 활용된다. 이 모델은 높은 전력 효율성이 검증된 만큼, 남부발전은 이를 통해 핵심 AI 기술의 성능을 검증하고 대상 시스템을 단계적으로 확대해 차세대 AI 반도체 기술력 선점의 전초기지 역할을 수행할 예정이다. 김준동 남부발전 사장은 “이번 협약은 국산 기술로 안정적이고 효율적인 AI 기반 환경을 조성하는 의미 있는 첫걸음”이라며 “국산 AI 반도체 기술이 실제 산업 현장의 실효성을 입증하고, 향후 다른 공공기관과 산업계로 확산되는 계기가 되길 바란다”고 밝혔다.

2026.03.13 02:00주문정 기자

韓 AI반도체, '엔비디아 대항마' 넘어 실전으로

AI 시대의 개막과 함께 반도체 산업의 패러다임이 급변하고 있다. 인공지능 구현에 필수적인 고성능 반도체의 수요가 폭증함에 따라, 엔비디아의 GPU(그래픽처리장치)를 중심으로 한 글로벌 AI 생태계는 그 어느 때보다 공고한 성벽을 쌓아 올렸다. 그러나 최근 AI 시장의 무게추가 모델 학습에서 '추론(Inference)'으로 이동하며 GPU 중심의 시장 구조에 변화의 조짐이 나타나고 있다. 학습에서 추론으로, NPU 시장의 활성화 생성형 AI의 확산은 데이터센터부터 엣지, 온디바이스 전반에 걸쳐 막대한 연산 수요를 창출하고 있다. 초기 시장이 대규모 언어 모델을 학습시키기 위한 GPU 중심이었다면, 이제는 학습된 모델을 실무 서비스에 적용하는 추론 단계가 핵심 경쟁력으로 부상했다. 이 과정에서 AI 연산에 특화된 NPU(신경망처리장치) 시장이 본격적으로 활성화되고 있다. NPU는 범용성을 갖춘 GPU와 달리 AI 알고리즘 처리에 최적화돼 있어, 전력 효율성과 비용 측면에서 압도적인 강점을 가진다. 글로벌 테크 기업들이 효율적인 AI 인프라 구축을 위해 NPU로 눈을 돌리면서, NPU는 GPU의 대안을 넘어 차세대 반도체의 주역으로 자리매김하고 있다. 2026년, 대한민국 AI 반도체 '원년'의 선포 이러한 시장 변곡점에서 국내 AI 반도체 기업들은 글로벌 시장의 주도권을 잡기 위해 총력전을 펼치고 있다. 특히 2026년은 국내 주요 AI 반도체 스타트업들의 기술력이 담긴 칩들이 일제히 시장에 출시되는 시점으로, '한국 AI 반도체의 원년'이라 부르기에 부족함이 없다. 리벨리온, 퓨리오사AI, 딥엑스, 모빌린트 등 국내 기업들은 각기 다른 전략과 포지셔닝을 통해 글로벌 경쟁력 확보에 매진하고 있다. 이들은 단순한 기술 개발을 넘어 시제품(PoC) 단계를 통과하고 실제 양산 및 상용화 단계로 진입하며 실질적인 성과를 증명해야 하는 중요한 기로에 서 있는 셈이다. 생존 전략을 위한 SWOT 분석 [K-AI칩이 온다] 연재 기획은 국내 주요 AI 반도체 및 인프라 기업 7곳을 대상으로 이들의 기술력과 시장 생존 전략을 집중 조명한다. 각 기업의 주력 시장과 포지셔닝, 성능 및 전력 효율성, 그리고 소프트웨어(SW) 경쟁력을 다각도로 분석할 예정이다. 급변하는 글로벌 공급망 리스크와 양산 과제 속에서 국내 기업들이 가진 강점(Strength), 약점(Weakness), 기회(Opportunity), 위협(Threat) 요인을 면밀히 분석함으로써 대한민국 AI 반도체 산업의 현주소와 미래 가능성을 제시하고자 한다.

2026.02.18 16:00전화평 기자

신성이엔지, 올해 반도체 클린룸 사업 성장 기대 "수주 활발"

신성이엔지가 올해 핵심 사업인 클린룸 부문의 성장세를 자신했다. 국내 주요 반도체 고객사의 신규 및 전환 설비투자가 가속화됨에 따라, 수주 규모가 전년 대비 증가할 것으로 전망되기 때문이다. 6일 신성이엔지는 2025년 연간 실적발표회를 열고 사업 현황 및 올해 수주 전망에 대해 밝혔다. 신성이엔지의 지난해 연간 연결 기준 매출액은 5703억원, 영업이익 19억원으로 잠정 집계됐다. 전년 대비 매출은 2.1%, 영업이익은 62.4% 감소했다. 재생에너지 사업에서의 시장 수요 감소 및 가동률 저하에 따른 원가상승이 주된 영향을 미쳤다. 다만 지난 4분기에는 수익성이 큰 폭으로 개선됐다. 해당 분기 매출은 1554억원으로 전분기 대비 소폭 감소했으나, 영업이익은 35억원으로 전분기(2억5000만원) 대비 크게 증가했다. 신성이엔지는 "지난해 전방 산업 투자 둔화로 경영 환경 개선이 지연됐으나, 4분기 들어 수익성 중심의 사업 운영과 비용 효율화 성과가 집중 반영되며 실적 반등에 성공했다"고 설명했다. 올해 수주 규모도 작년 대비 증가할 것으로 내다봤다. 신성이엔지의 지난해 신규 수주 규모는 6500억원 수준이었다. 올해에는 7000억원 이상의 수주를 예상했다. 가장 유망한 산업은 반도체다. 현재 반도체 시장은 전세계 AI 인프라 투자에 따라 전례없는 호황을 맞이하고 있다. 이에 반도체 기업들은 고부가 제품 비중 확대를 위한 신규 팹 건설 및 전환 투자를 계획 중이다. 삼성전자의 경우 평택에서 P4 투자를 진행하고 있으며, 미국 테일러시에 신규 파운드리 팹을 구축하고 있다. SK하이닉스는 청주에 M15X 신규 팹과 패키징(P&T) 팹 등에 투자를 진행 중이다. 신성이엔지는 "올해는 대부분 국내 및 미국 반도체 프로젝트에 따른 수주가 많을 것"이라며 "이외에도 동남아 시장에서는 제약 및 데이터센터향 수주를 위해 노력 중"이라고 밝혔다. 한편 국내 제조사 우선 지원 정책과 글로벌 시장 환경 개선으로 올해부터 실적 회복이 기대된다. 회사는 태양광 발전 및 EPC 역량을 바탕으로 사업 정상화에 나선다는 방침이다. 신성이엔지는 "정부가 국내 재생에너지 전력원 확대를 위한 정책을 연이어 발표하고 있어, 당사 태양광 모듈 제품과 EPC 사업에 모두 긍정적인 환경이 조성되고 있다"며 "RE100 산단 데이터센터 적용, 태양광 발전 고출력 제품의 생산을 준비해 그간 부진했던 재생에너지 사업에서의 성과를 얻고자 한다"고 강조했다.

2026.02.06 15:35장경윤 기자

세미티에스, 코스닥 상장 예비심사 통과…스팩 소멸합병 상장 목전

반도체 AMHS(자동 물류 반송 시스템) 통합 솔루션 기업 세미티에스는 지난 5일 한국거래소로부터 상장 예비 심사 승인을 받았다고 6일 밝혔다. 세미티에스는 NH스팩 29호와 스팩 소멸방식을 통한 코스닥 상장을 준비 중이다. 지난 2014년 설립된 세미티에스는 첨단 반도체 제조 공정의 효율을 극대화하는 물류 자동화 시스템 전문 기업이다. 회사는 하드웨어와 소프트웨어를 아우르는 통합 솔루션을 통해 글로벌 반도체 인프라 혁신을 주도하고 있다. 이러한 경쟁력을 기반으로 회사는 설립 이래 10여년 간 무차입경영 및 실적 우상향을 지속하고 있다. 회사는 국내 기업 중 유일하게 기술 진입장벽이 높은 반도체 전(前)공정 클린 컨베이어 시스템 기술을 보유하고 있으며, 이를 바탕으로 공정별 유연한 경로 설계 및 업계 최고 수준의 반송 처리량을 구현했다. 또한 기존 장비의 구조 변경 없이 설치 가능한 비개조형 질소 퍼지 시스템인 'S-Plate'는 설치 시간을 타사 대비 약 75% 절감하고 고객사의 장비 보증 무효화 리스크를 해소하여 글로벌 시장에서 강력한 지배력을 확보하고 있다. 상장 후 세미티에스는 차세대 공중 이송 로봇(천장형 AMR) 개발 및 상용화에 박차를 가할 예정이다. 회사는 군집 제어 시스템 등 고도화된 소프트웨어 플랫폼을 기반으로 기존 OHT 시장을 대체하고, 반도체를 넘어 의료 및 일반 물류 산업까지 사업 영역을 확장해 나갈 방침이다. 민남홍 세미티에스 대표이사는 "이번 예비 심사 승인은 외산 장비가 주도하던 반도체 전공정 물류 시장에서 세미티에스의 글로벌 반도체 AMHS 통합 솔루션 경쟁력을 공식적으로 인정받은 결과"라며 "코스닥 시장에 성공적으로 안착하여 K-반도체 장비의 위상을 높이는 글로벌 유니콘 기업으로 성장할 것"이라고 포부를 밝혔다.

2026.02.06 09:20장경윤 기자

신성이엔지, 세미콘 코리아서 차세대 반도체 공기 제어 기술 제시

신성이엔지는 오는 11일부터 13일까지 서울 코엑스에서 열리는 세미콘 코리아 2026에서 차세대 반도체 공기 제어 솔루션을 선보인다고 2일 밝혔다. 이번 전시에서 신성이엔지는 실제 반도체 생산라인과 동일한 클린룸 구조를 전시장에 그대로 구현한다. 단순한 패널 설명을 넘어, 공기 흐름과 오염 제어 원리를 직관적으로 체감할 수 있도록 전시 공간을 설계했다. 특히 클린룸 내부 핵심 설비를 실제 현장과 동일한 동선과 배치로 구성하고, 미립화 가시화 시스템을 활용해 공기 흐름과 미세입자의 이동 경로를 실시간 시각화한다. 반도체 공정에서 미세입자 제어가 수율과 직결되는 과정을 한눈에 확인할 수 있다. 신성이엔지는 이번 전시를 통해 ▲고효율 공기 순환 설계 ▲파티클·오염원 제거 기술 ▲에너지 절감형 공조 솔루션 등 반도체 공정에 최적화된 공기 제어 기술 경쟁력을 집중 소개한다. 최근 초미세 공정 전환이 가속화되면서 공기 질 관리와 안정적인 클린룸 환경 구축의 중요성이 커지고 있어 관련 기술에 대한 업계 관심도 높을 것으로 예상된다. 회사 관계자는 "세미콘 코리아 2026은 글로벌 반도체 산업 관계자들이 한자리에 모이는 자리인 만큼, 신성이엔지의 기술력을 단순히 '보는 전시'가 아니라 직접 이해하고 체감하는 전시로 구성했다"며 "향후 첨단 반도체 공정에 요구되는 공기 제어 솔루션의 방향성을 제시하는 계기가 될 것"이라고 말했다. 한편 세미콘 코리아는 반도체 제조 장비·소재·부품·설계 기술 전반을 아우르는 국내 최대 규모의 반도체 전문 전시회로, 매년 국내외 주요 반도체 기업과 업계 전문가들이 대거 참가하고 있다.

2026.02.02 09:42장경윤 기자

中, 엔비디아 H200 수입 준비…자국 AI칩 동시 활용

중국 정부가 알리바바를 비롯한 자국 주요 IT기업들에 엔비디아의 첨단 인공지능(AI) 반도체인 'H200' 주문을 준비하라고 통보했다고 블룸버그통신이 23일(현지시간) 보도했다. 보도에 따르면 중국 정부는 최근 알리바바, 텐센트, 바이트댄스 등에 H200 칩 구매를 구체적으로 진행할 수 있는 자격을 부여했다. 이로써 해당 기업들은 필요한 칩 물량 등에 대한 사항을 논의할 수 있게 됐다. H200 수입을 위한 조건도 붙었다. 블룸버그는 익명의 소식통을 인용해 "중국 정부가 수입 승인 조건으로 일정 물량의 자국산 칩을 함께 구매하도록 독려할 방침"이라며 "정확한 수량은 아직 정해지지 않았다"고 밝혔다. 도널드 트럼프 미국 대통령은 지난해 말 중국향 수출이 금지돼 왔던 H200의 수출 재개를 허용하겠다고 밝힌 바 있다. H200은 엔비디아의 최신 AI가속기인 '블랙웰' 시리즈에 비해서는 한 세대 뒤쳐지지만, 중국 기업들의 AI 인프라 투자에 있어 매우 높은 가치를 가지고 있다. 미국이 H200의 수출을 허용한 데에는 중국 내 AI 반도체 자립화 시도를 억제하려는 의도가 깔려있는 것으로 풀이된다. 화웨이, 캠브리콘 등 중국 기업들은 엔비디아가 규제를 받는 사이 자체 AI반도체 개발을 가속화해 왔다. 중국 역시 미국의 H200 수출 재개에 기민하게 대응하려는 것으로 보인다. H200 수급으로 자국 IT 기업들의 AI 인프라 투자를 원활하게 하는 것과 동시에, 자국 AI 칩을 일정량 도입하게 해 기술 자립화 시도 역시 멈추지 않겠다는 전략이다.

2026.01.24 13:11장경윤 기자

오픈AI, 세레브라스와 14조원 규모 컴퓨팅 계약…"엔비디아 의존 낮춘다"

오픈AI가 차세대 인공지능(AI) 서비스 경쟁력 강화를 위해 대규모 컴퓨팅 인프라 확충에 나섰다. 반도체 스타트업 세레브라스와 수십억 달러 규모 장기 계약을 체결하며 AI 추론 속도와 서비스 확장성을 동시에 끌어올린다는 전략이다. 15일 블룸버그통신에 따르면 오픈AI는 세레브라스와 다년간 협력 계약을 체결하고 총 750메가와트(MW) 규모 컴퓨팅 파워를 공급받기로 했다. 해당 인프라는 단계적으로 구축되며 완공 목표 시점은 2028년이다. 계약 규모는 100억 달러(약 14조원)를 웃도는 것으로 알려졌다. 이번 계약은 오픈AI가 챗GPT 등 자사 AI 모델 응답 속도를 개선하려는 조치로 풀이된다. 양사는 공동 성명을 통해 세레브라스 인프라가 오픈AI 모델 실행 시 지연 시간을 줄이고 대규모 사용자 유입에 대비한 안정적인 서비스 운영을 가능하게 할 것이라고 밝혔다. 세레브라스는 초대형 단일 칩을 기반으로 한 독자적 반도체 아키텍처를 앞세워 엔비디아 중심 그래픽처리장치(GPU) 시장에 도전하고 있는 기업이다. 데이터센터 운영까지 직접 수행하며 AI 추론 분야 경쟁력을 강조해 왔다. 협약 배경에 대해 오픈AI는 'GPT-OSS-120B' 모델 테스트에서 세레브라스 시스템이 기존 하드웨어 대비 최대 15배 빠른 성능을 보였다고 설명했다. 오픈AI의 대규모 인프라 투자는 이번이 처음이 아니다. 엔비디아는 지난해 오픈AI에 최대 1천억 달러(약 146조원)를 투자해 10기가와트(GW)급 데이터센터 구축을 추진하겠다고 밝혔으며 AMD 역시 수년간 6GW 규모 GPU를 공급하기로 했다. 이와 별도로 오픈AI는 브로드컴과 자체 AI 칩 개발도 진행 중이다. 업계에서는 이번 계약을 오픈AI가 컴퓨팅 포트폴리오를 다각화하는 전략의 일환으로 보고 있다. 오픈AI는 특정 하드웨어에 대한 의존도를 낮추고 워크로드 특성에 맞는 최적의 시스템을 조합해 AI 서비스 확장성을 높인다는 목표다. 오픈AI 사친 카티 컴퓨팅 인프라 담당은 "세레브라스는 우리 플랫폼에 저지연 추론 솔루션을 더해 더 빠른 응답과 자연스러운 상호작용을 가능케 한다"며 "더 많은 사람에게 실시간 AI를 확장할 수 있는 기반을 제공할 것"이라고 밝혔다.

2026.01.15 11:29한정호 기자

신성이엔지, 자체 시공장비 'HPL'로 반도체 시장 공략…삼성·SK에 도입

클린룸 및 공조 솔루션 전문기업 신성이엔지는 자체 개발한 시공 혁신 장비 'HPL(High Performance Lift)'을 앞세워 글로벌 반도체 인프라 구축에 나서고 있다고 14일 밝혔다. 최근 HBM(고대역폭메모리)과 D램, 낸드플래시 전반의 수요가 급증하면서 삼성전자와 SK하이닉스 등 주요 고객사들이 팹 증설에 박차를 가하고 있다. 이 과정에서 신성이엔지의 HPL이 '공기 단축'과 '현장 안전'이라는 두 마리 토끼를 잡는 해법으로 평가받고 있다. 신성이엔지가 개발한 HPL은 기존 고소 작업 위주의 클린룸 시공을 지상 모듈화 방식으로 혁신한 장비다. 삼성전자 평택 캠퍼스와 SK하이닉스 청주 현장 등 국내 주요 반도체 거점에 총 35대가 도입돼 운용 중이다. HPL은 최대 8m 높이에서 9.5톤의 고중량 자재를 정밀하게 설치할 수 있으며, 다수 장비를 연동한 동시 시공이 가능하다. 이를 통해 클린룸 천장 설치 시 작업자의 위험 노출 빈도를 획기적으로 낮췄을 뿐 아니라, 인원 효율 25% 향상 및 공사 기간 20% 단축이라는 독보적인 성과를 기록하고 있다. 신성이엔지의 핵심 제조 거점인 증평사업장은 최근 반도체 초호황에 따른 주문 폭주로 풀가동 체제에 돌입했다. 클린룸의 핵심인 FFU(팬필터유닛) 생산 라인을 포함해 현장 맞춤형 장비 제작이 이어지고 있다. 특히 회사는 최근 발표된 SK하이닉스의 청주 추가 투자 및 향후 본격화될 용인 반도체 클러스터 등 대규모 프로젝트에 대비해 HPL 및 공조 장비 공급망을 더욱 강화하고 있다. 국내뿐 아니라 말레이시아 텍사스 인스트루먼트(TI) 팹을 성공적으로 완수하고, 현재 미국 삼성전자 테일러 팹 프로젝트에 전사적 역량을 집중하는 등 글로벌 시장에서의 보폭도 넓히고 있다. 신성이엔지는 HPL 외에도 자재 운반 자동화 솔루션인 SMR(스마트모바일로봇)과 SML(스마트모바일리프트)을 현장에 투입하고 있다. 이 장비들은 무거운 자재를 작업자 대신 운반해 근골격계 질환 및 안전사고 위험을 원천 차단한다. 단순한 시공 장비를 넘어 공정 간 데이터를 연계한 무인 이송 시스템으로 건설 현장의 '스마트 팩토리화'를 견인하고 있다. 이번 기술 개발 및 현장 적용을 주도한 전상훈 상무는 "반도체 팹 증설 속도가 곧 기업의 경쟁력이 되는 시대에, 안전을 담보하면서도 시공 효율을 극대화하는 엔지니어링 역량은 필수적"이라며 "국내외 대규모 프로젝트에서 검증된 HPL과 자동화 솔루션을 바탕으로, 글로벌 고객사가 가장 신뢰하는 반도체 인프라 파트너로서 입지를 공고히 하겠다"고 강조했다.

2026.01.14 09:45장경윤 기자

딥엑스, CES 2026서 '피지컬AI 인프라 기업' 비전 제시

저전력·고성능 AI 반도체 기업 딥엑스는 내달 미국 라스베이거스에서 열리는 'CES 2026'에 참가해 피지컬 AI 시장을 주도할 AI 인프라 기업으로서의 새로운 청사진을 공개한다고 30일 밝혔다. 딥엑스는 이번 CES 2026을 통해 대한민국이 메모리 반도체 강국을 넘어 시스템 및 AI 반도체 분야에서도 글로벌 리더십을 확보할 수 있음을 증명하고, 피지컬 AI 시대의 필수 인프라 기업으로 도약하겠다는 비전을 제시한다. 현재 대한민국이 'AI 3대 강국'을 목표로 산업 전환을 가속화하는 가운데, 딥엑스는 독보적인 기술력과 실질적인 성과를 바탕으로 국가 경쟁력을 높이는 핵심적인 역할을 수행하고 있다. 과거 CPU 시대에 저전력 기술로 시장을 재편한 Arm처럼, 딥엑스는 로봇·모빌리티·스마트시티 등 피지컬 AI 분야에서 에너지 효율과 실시간성을 갖춘 초저전력·고성능 AI 반도체로 새로운 글로벌 표준을 만들어가고 있다. 이러한 딥엑스의 행보는 대한민국 AI 반도체 산업이 기술적 주도권과 신뢰를 확보하는 중요한 이정표가 될 전망이다. 이번 CES에서 가장 주목해야 할 점은 딥엑스의 제품이 시장에서 실질적인 혁신을 증명했다는 것이다. 딥엑스는 자체적으로 혁신상 2관왕(컴퓨팅 하드웨어/임베디드 기술)을 달성했을 뿐만 아니라, 미국 파트너사 식스팹(Sixfab)이 딥엑스의 1세대 칩 'DX-M1'을 탑재한 'ALPON X5'로 CES 최고 영예인 최고 혁신상(Best of Innovation)을 수상하는 쾌거를 이뤘다. 이는 딥엑스의 솔루션이 단순한 부품 공급을 넘어, 글로벌 파트너사의 제품을 세계 최고 수준으로 끌어올리는 '핵심 동력'이자 '게임 체인저'임을 입증한 결정적 사건으로 평가 받는다. 딥엑스는 라스베이거스 컨벤션센터(LVCC) 노스홀(North Hall) AI·로보틱스 구역에 독립 부스를 마련하고, 양산 단계의 제품이 적용된 로봇, 드론, 공장 자동화, 리테일 등 다양한 산업 현장 솔루션을 실시간으로 시연한다. 관람객들은 이를 통해 피지컬 AI가 개념 단계를 넘어 이미 상용화 단계에 진입했음을 확인할 수 있다. 특히 2나노 공정 기반의 차세대 AI 반도체 'DX-M2'의 개발 현황과 핵심 성능 목표도 처음으로 공개한다. DX-M2는 데이터센터 중심 AI가 직면한 전력 소모와 확장성 한계를 근본적으로 해결하기 위해 설계된 차세대 피지컬 AI 시대를 위한 인프라 칩이다. 또한 바이두의 패들패들(PaddlePaddle), 미국 울트라라이틱스(Ultralytics)의 YOLO 생태계와 함께하는 '오픈소스 피지컬 AI 얼라이언스' 협력 내용도 소개하며, 하드웨어와 소프트웨어를 아우르는 글로벌 전략을 선보인다.

2025.12.30 10:43장경윤 기자

일본, 반도체·AI 지원 예산 4배 확대…기술 경쟁력 강화 박차

일본 정부가 차세대 기술 경쟁력 확보를 위해 반도체와 인공지능(AI) 산업 지원 예산을 대폭 늘리는 방안을 마련했다. 2026 회계연도 예산안에서 칩 및 AI 관련 지원을 기존보다 약 4배 규모로 확대하는 내용이 포함됐다. 블룸버그는 일본 내각이 총지출 약 122조3천억 엔(약 7천850억 달러) 규모의 2026 회계연도 예산안을 승인했다고 26일 보도했다. 그간 일본은 보통 추가경정예산 형태로 일시적인 지원을 해왔으나, 앞으로는 정규 예산에서 지속적이고 안정적인 투자가 이뤄질 전망이다. 산업통상자원부(METI)의 예산은 전년 대비 약 50% 증가한 3조7천억 엔가량으로 확대됐다. 이 중 상당 부분은 반도체 제조 역량 강화와 AI 연구 개발, 데이터 인프라 구축 등에 투입될 예정이다. 반도체 분야에서는 정부가 지원하는 국책 반도체 벤처 라피더스에 1천500억 엔이 추가로 책정되는 등 국내 제조 경쟁력 강화에 방점을 찍었다. AI 분야에서는 기초 AI 모델 개발, 데이터 인프라 강화, 로봇·물류 등 물리 AI(Physical AI) 기술 지원에 약 3천873억 엔이 배정됐다. 이번 예산 확대는 미국과 중국 간 기술 경쟁이 치열해지는 가운데 일본이 핵심 기술 주도권 확보를 위한 움직임을 강화하고 있다는 신호로 해석된다. 미·중 양대 기술 강국의 투자 확대 속에서 일본 정부는 국내 산업 생태계의 기술 주권 확보와 공급망 강화를 우선 과제로 삼고 있다. 예산안은 향후 국회 심의를 거쳐 최종 확정될 예정이며, 일본 정부는 이를 통해 반도체와 AI 기술 분야에서 장기적인 경쟁력을 확보할 계획이다.

2025.12.28 11:38전화평 기자

래블업 "인간 지능 대체 시도 활발…수직 통합·오픈 생태계 해법으로"

래블업이 인간의 지능을 대체하고자 하는 시도가 활발하게 일어나는 현 시점에 기술적 문제의 해결법으로 수직 통합과 대규모 오픈 생태계 진입을 제시했다. 김준기 래블업 최고기술책임자(CTO)는 11일 서울 중구 신라호텔에서 열린 'ACC 2025'에서 "AI 기술이 등장하면서 이전에는 슈퍼컴퓨터를 동원해야만 계산할 수 있었던 연산들이 적은 개수의 서버로 수행할 수 있게 되면서 AI 모델이 저정밀도 환경에서도 잘 작동한다는 깨달음을 얻게 됐다"며 "고도화된 AI 모델을 만들고 이를 통해 인간의 지능을 대체하는 시도들이 활발하게 일어나고 있는 게 현재 시점"이라고 말했다. 'ACC 2025'는 지디넷코리아가 주관·주최하고 과학기술정보통신부, 래블업, 네이버 등이 후원하는 컨퍼런스다. 이 자리에서 김 CTO는 "경제적인 동인에 따라 그래픽처리장치(GPU)의 아키텍처가 점점 빈틈없이 메워지기 시작했다"며 "이전에는 인간의 고유한 지적 활동으로 취급됐던 지능이 산업적 측면에서 재화나 물품으로 취급될 수 있다는 시각이 나왔다"고 설명했다. 또 그는 이 과정에서 고장 등의 현실적인 문제가 발생했으나, 래블업은 이같은 컴퓨팅 인프라를 관리하는 데 필요한 여러 기술적 어려움과 고민들을 숨겨주는 것을 목표로 하고 있다고 언급했다. 이를 위해 이 회사는 오픈소스 개발 단계에서 여러 엔터프라이즈 확장 기능을 붙이는 방식을 추구하고 있다. 또 간단한 PC 스케일부터 클라우드까지 가능한 일관된 경험을 제공하는 것을 목표로 개발을 이어가고 있는 상황이다. 김 CTO는 "다양한 층위에서 사실 공통된 원리들이 적용되는데 이를 시스템 디자인에 얼마나 잘 녹여낼 수 있느냐에 대한 고민을 많이 하고 있다"며 "보안에 대한 문제도 고민 중"이라고 말했다. 그는 기술적으로 아무리 복잡한 문제를 해결했어도 이를 실제 고객에게 공급하고 기술 지원을 할 것이냐는 어려운 문제라고 토로했다. 김 CTO는 "기술적 관점에서 가능한 수직 통합을 해 모든 요소를 우리 통제 하에 두겠다는 것이 하나의 방향"이라며 "요즘 고민하는 것은 어느 정도 안정성 등이 검증된 대규모 오픈 생태계인 '거인의 어깨'에 올라타는 전략"이라고 언급했다. 다만 래블업은 AI 시장이 이제 시작 단계에 있다고 보고 다양한 특화 환경에 맞는 AI 반도체 등장을 염두에 두고 특정 벤더에 종속되지 않는 형태의 디자인에 대한 개발을 내부적으로 이어오고 있다고 강조했다. 김 CTO는 "지능 인프라를 공급하는 회사로 다양한 기술적 문제를 해결해나가고 있다"며 "이런 부분이 여러분들의 의사결정과 연구개발에 도움이 됐으면 좋겠다"고 밝혔다.

2025.12.11 16:53박서린 기자

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평 기자

김주영 하이퍼엑셀 대표, 팹리스산업 유공자 '중기부 장관상' 수상

AI 반도체 스타트업 하이퍼엑셀은 김주영 대표이사가 지난달 26일 열린 '2025 K-팹리스 테크포럼 & 제3회 팹리스인의 날'에서 팹리스 산업 유공자 부문 '중소벤처기업부 장관상'을 수상했다고 2일 밝혔다. 이번 포상은 팹리스 산업 생태계 혁신과 기술 자립에 기여한 기업과 인물을 선정하는 최고 권위의 정부 포상이다. 김 대표는 창업 이후 세계 최초 LLM 추론 특화 반도체 'LPU(LLM Processing Unit)'를 독자 개발하고 상용화를 성공적으로 이끌며, 국내 팹리스 기술 경쟁력 강화와 AI 반도체 기술 자립에 기여한 공로를 인정받아 중소벤처기업부 장관상을 수상했다. 특히 LPU 기반의 고성능·저전력 반도체 구축으로 해외 GPU 중심 인프라 의존도를 낮추고, 국산 AI 인프라 구축과 디지털 전환 생태계 조성에 초석을 마련한 점이 이번 수상의 핵심 근거가 됐다. 대규모 언어모델(LLM) 추론에 최적화된 LPU 아키텍처는 높은 에너지 효율성과 가격 경쟁력을 갖춘 차세대 반도체 기술로 주목받고 있다. 또한 하이퍼엑셀은 전문 연구·엔지니어링 인력을 적극 채용·육성하며 반도체 및 AI 산업의 인재 생태계 강화에 기여하고 있다. AI 반도체, 시스템 설계, 소프트웨어·플랫폼 등 전 영역의 전문 인력을 확보함으로써 국내 반도체 산업의 지속적 성장 기반을 마련하고 있다. 하이퍼엑셀은 이번 수상을 계기로 차세대 LPU 기술을 중심으로 국산 AI 반도체 및 AI 인프라 생태계 확장에 속도를 높이며, 대한민국 AI 기술 경쟁력 강화와 지속 가능한 혁신을 선도해 나갈 계획이다. 김주영 대표는 “국산 LPU 반도체 기술의 잠재력과 산업적 가치를 국가적으로 인정받은 뜻깊은 상”이라며 “한국 팹리스 산업이 글로벌 경쟁력을 갖출 수 있도록 연구개발과 상용화에 더욱 박차를 가하겠다”고 말했다.

2025.12.02 09:48전화평 기자

[현장] 국산 AI 반도체·클라우드 결합 '시동'…국가 인프라 강화 선언

국산 인공지능(AI) 반도체와 클라우드 산업의 융합이 궤도에 올랐다. 초거대 AI 시대를 맞아 국가 인프라의 근간이 되는 클라우드가 스마트화와 지능형 자원 운영이라는 새로운 전환점을 맞이하면서 국산 기술 중심의 풀스택 생태계 구축이 본격화되고 있다. 오픈K클라우드 커뮤니티는 25일 서울 강남 과학기술회관에서 '오픈K클라우드 데브데이 2025'를 열고 국산 AI 반도체와 클라우드 융합 전략을 공유했다. 오픈K클라우드 커뮤니티에는 한국전자통신연구원(ETRI), 한국전자기술연구원(KETI), 이노그리드, 오케스트로, 경희대학교, 연세대학교, 한국클라우드산업협회(KACI), 퓨리오사AI 등 산·학·연 주요 기관이 공동 참여한다. 이번 행사는 커뮤니티의 첫 공식 기술 교류 행사로, 국산 AI 반도체를 중심으로 한 클라우드·소프트웨어(SW) 전주기 기술을 한자리에서 조망하며 국가 AI 인프라 경쟁력 제고 방안을 논의했다. ETRI 최현화 박사는 "이제 AI 서비스의 경쟁력은 모델을 누가 더 잘 만드느냐보다 누가 더 나은 인프라로 지속적으로 운영하느냐가 핵심"이라고 강조하며 클라우드의 대전환기를 진단했다. 최 박사는 최근 글로벌 거대언어모델(LLM) 발전의 특징을 멀티모달 확장, 컨텍스트 윈도우의 급격한 증가, 툴 연동 기반 정확도 향상으로 정리했다. 특히 메타가 공개한 오픈소스 LLM '라마'의 컨텍스트 윈도우가 1천만 토큰 수준으로 확장된 점을 언급했다. 그는 이러한 추세 속에서 국내 클라우드 산업이 ▲AI 가속기 이질성의 심화 ▲메모리 병목 문제 ▲추론 비용의 급증 ▲에이전트 폭증에 따른 관리 복잡도 증가 등 여러 난제를 동시에 마주하고 있다고 짚었다. 가장 먼저 꼽힌 것은 AI 가속기의 이질성 문제다. 엔비디아 그래픽처리장치(GPU) 중심 생태계가 유지되고 있지만 국내외에서 신경망처리장치(NPU)·AI칩·메모리 내 연산(PIM) 등 다양한 가속기와 인터커넥트 기술이 빠르게 등장하면서 단일 아키텍처에 의존하는 방식은 지속 가능하지 않다는 지적이다. 이어 LLM 추론의 핵심 병목으로 작용하는 '메모리 월'도 문제로 제기됐다. GPU 성능이 가파르게 증가하는 동안 메모리 기술 향상 속도는 더디기 때문이다. 최 박사는 SK하이닉스의 'AiMX', CXL 기반 차세대 메모리 사례를 언급하며 "AI 추론은 본질적으로 메모리 중심 작업이기에 차세대 메모리가 성능의 핵심을 좌우하게 될 것"이라고 말했다. LLM 스케일링 문제 역시 중요한 도전 과제로 다뤄졌다. 사용자 요구는 계속 높아지지만 단일 모델의 크기 확장에는 한계가 있어 여러 전문가 모델을 조합하는 '전문가 혼합(MoE)' 방식이 중요한 돌파구가 될 것이라고 강조했다. AI 모델마다 강점이 다른 만큼 다중 LLM 기반 지능형 추론은 필연적인 흐름이라는 설명이다. 추론 비용 문제도 빠지지 않았다. 최 박사는 "엔비디아 B200 급 GPU의 전력 소비가 1킬로와트(kW)에 이르는데, 이러한 DGX 서버 100대를 하루 운영하면 테슬라 전기차로 지구를 일곱 바퀴 도는 전력량에 해당한다"고 설명했다. 그러면서 "전력·비용 최적화는 하드웨어(HW) 스펙뿐 아니라 스케줄링, 클러스터 재구성이 필수"라고 말했다. 또 LLM·에이전트·데이터소스가 동적으로 연결되는 시대가 되면서 모니터링 복잡성이 기하급수적으로 커지고 있다는 점도 지적했다. 기존에는 레이턴시와 처리량을 중심으로 모니터링했다면 이제는 LLM의 할루시네이션 여부, 에이전트 간 호출 관계, 로직 변경 이력까지 관측해야 안정적 운영이 가능하다는 것이다. 이 같은 문제를 해결하기 위해 ETRI는 과학기술정보통신부가 추진하는 'AI 반도체 클라우드 플랫폼 구축 및 최적화 기술 개발' 과제에 참여했다. 이를 통해 ▲이종 AI 반도체 관리 ▲클라우드 오케스트레이션 ▲자동 디바이스 감지 ▲협상 기반 스케줄링 ▲국산 NPU 특화 관측 기술을 포함한 오픈소스형 '오픈K클라우드 플랫폼'을 개발 중이다. ETRI는 5년간 진행되는 사업에서 2027년 파라미터 규모 640억 LLM, 2029년 3천200억 LLM 지원을 목표로 풀스택 AI 클라우드 생태계를 구축할 계획이다. 오픈K클라우드 커뮤니티에 참여하는 퓨리오사AI, 이노그리드, 오케스트로도 이날 국산 AI 반도체와 클라우드 융합 생태계 활성화를 위한 기술 전략을 발표했다. 퓨리오사AI 이병찬 수석은 엔비디아 의존을 극복하기 위해 전력·운영 효율성을 높인 '레니게이드' 칩과 SW 스택을 소개했다. 이노그리드 김바울 수석은 다양한 반도체가 혼재된 클라우드 구조를 성능·전력·비용 최적화로 통합한 옵저버빌리티의 전략을 공유했다. 오케스트로 박의규 소장은 자연어 요구 기반 코딩과 자동화된 테스트·배포를 지원하는 에이전트형 AI SW 개발환경(IDE) 트렌드와 국내 시장의 변화에 대해 발표했다. 최 박사는 "앞으로 오픈K클라우드 플랫폼을 통해 국산 AI 반도체가 국가 핵심 인프라에 적용될 수 있는 계기를 만들겠다"고 강조했다. 이어 "아직 확정은 아니지만 정부가 추진하는 '국가AI컴퓨팅센터' 사업에 우리 플랫폼을 탑재할 수 있는 계기를 만들 것"이라며 "국산 AI 반도체 실사용자의 요구사항을 반영해 레퍼런스를 쌓아가는 것이 목표"라고 덧붙였다.

2025.11.25 17:10한정호 기자

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

수천억 적자의 역설… '회계 착시' 걷어낸 K-팹리스 진짜 체력

신세계가 열흘만에 오픈AI 협업 계획 뒤집은 이유

10분만에 매진된 핫플 '쿠팡 메가뷰티쇼' 가보니

R&D 지표 가른 양산성 확보…장부 엇갈린 K-AI 반도체

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.