• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'반도체 인프라'통합검색 결과 입니다. (43건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

韓 AI반도체, '엔비디아 대항마' 넘어 실전으로

AI 시대의 개막과 함께 반도체 산업의 패러다임이 급변하고 있다. 인공지능 구현에 필수적인 고성능 반도체의 수요가 폭증함에 따라, 엔비디아의 GPU(그래픽처리장치)를 중심으로 한 글로벌 AI 생태계는 그 어느 때보다 공고한 성벽을 쌓아 올렸다. 그러나 최근 AI 시장의 무게추가 모델 학습에서 '추론(Inference)'으로 이동하며 GPU 중심의 시장 구조에 변화의 조짐이 나타나고 있다. 학습에서 추론으로, NPU 시장의 활성화 생성형 AI의 확산은 데이터센터부터 엣지, 온디바이스 전반에 걸쳐 막대한 연산 수요를 창출하고 있다. 초기 시장이 대규모 언어 모델을 학습시키기 위한 GPU 중심이었다면, 이제는 학습된 모델을 실무 서비스에 적용하는 추론 단계가 핵심 경쟁력으로 부상했다. 이 과정에서 AI 연산에 특화된 NPU(신경망처리장치) 시장이 본격적으로 활성화되고 있다. NPU는 범용성을 갖춘 GPU와 달리 AI 알고리즘 처리에 최적화돼 있어, 전력 효율성과 비용 측면에서 압도적인 강점을 가진다. 글로벌 테크 기업들이 효율적인 AI 인프라 구축을 위해 NPU로 눈을 돌리면서, NPU는 GPU의 대안을 넘어 차세대 반도체의 주역으로 자리매김하고 있다. 2026년, 대한민국 AI 반도체 '원년'의 선포 이러한 시장 변곡점에서 국내 AI 반도체 기업들은 글로벌 시장의 주도권을 잡기 위해 총력전을 펼치고 있다. 특히 2026년은 국내 주요 AI 반도체 스타트업들의 기술력이 담긴 칩들이 일제히 시장에 출시되는 시점으로, '한국 AI 반도체의 원년'이라 부르기에 부족함이 없다. 리벨리온, 퓨리오사AI, 딥엑스, 모빌린트 등 국내 기업들은 각기 다른 전략과 포지셔닝을 통해 글로벌 경쟁력 확보에 매진하고 있다. 이들은 단순한 기술 개발을 넘어 시제품(PoC) 단계를 통과하고 실제 양산 및 상용화 단계로 진입하며 실질적인 성과를 증명해야 하는 중요한 기로에 서 있는 셈이다. 생존 전략을 위한 SWOT 분석 [K-AI칩이 온다] 연재 기획은 국내 주요 AI 반도체 및 인프라 기업 7곳을 대상으로 이들의 기술력과 시장 생존 전략을 집중 조명한다. 각 기업의 주력 시장과 포지셔닝, 성능 및 전력 효율성, 그리고 소프트웨어(SW) 경쟁력을 다각도로 분석할 예정이다. 급변하는 글로벌 공급망 리스크와 양산 과제 속에서 국내 기업들이 가진 강점(Strength), 약점(Weakness), 기회(Opportunity), 위협(Threat) 요인을 면밀히 분석함으로써 대한민국 AI 반도체 산업의 현주소와 미래 가능성을 제시하고자 한다.

2026.02.18 16:00전화평 기자

신성이엔지, 올해 반도체 클린룸 사업 성장 기대 "수주 활발"

신성이엔지가 올해 핵심 사업인 클린룸 부문의 성장세를 자신했다. 국내 주요 반도체 고객사의 신규 및 전환 설비투자가 가속화됨에 따라, 수주 규모가 전년 대비 증가할 것으로 전망되기 때문이다. 6일 신성이엔지는 2025년 연간 실적발표회를 열고 사업 현황 및 올해 수주 전망에 대해 밝혔다. 신성이엔지의 지난해 연간 연결 기준 매출액은 5703억원, 영업이익 19억원으로 잠정 집계됐다. 전년 대비 매출은 2.1%, 영업이익은 62.4% 감소했다. 재생에너지 사업에서의 시장 수요 감소 및 가동률 저하에 따른 원가상승이 주된 영향을 미쳤다. 다만 지난 4분기에는 수익성이 큰 폭으로 개선됐다. 해당 분기 매출은 1554억원으로 전분기 대비 소폭 감소했으나, 영업이익은 35억원으로 전분기(2억5000만원) 대비 크게 증가했다. 신성이엔지는 "지난해 전방 산업 투자 둔화로 경영 환경 개선이 지연됐으나, 4분기 들어 수익성 중심의 사업 운영과 비용 효율화 성과가 집중 반영되며 실적 반등에 성공했다"고 설명했다. 올해 수주 규모도 작년 대비 증가할 것으로 내다봤다. 신성이엔지의 지난해 신규 수주 규모는 6500억원 수준이었다. 올해에는 7000억원 이상의 수주를 예상했다. 가장 유망한 산업은 반도체다. 현재 반도체 시장은 전세계 AI 인프라 투자에 따라 전례없는 호황을 맞이하고 있다. 이에 반도체 기업들은 고부가 제품 비중 확대를 위한 신규 팹 건설 및 전환 투자를 계획 중이다. 삼성전자의 경우 평택에서 P4 투자를 진행하고 있으며, 미국 테일러시에 신규 파운드리 팹을 구축하고 있다. SK하이닉스는 청주에 M15X 신규 팹과 패키징(P&T) 팹 등에 투자를 진행 중이다. 신성이엔지는 "올해는 대부분 국내 및 미국 반도체 프로젝트에 따른 수주가 많을 것"이라며 "이외에도 동남아 시장에서는 제약 및 데이터센터향 수주를 위해 노력 중"이라고 밝혔다. 한편 국내 제조사 우선 지원 정책과 글로벌 시장 환경 개선으로 올해부터 실적 회복이 기대된다. 회사는 태양광 발전 및 EPC 역량을 바탕으로 사업 정상화에 나선다는 방침이다. 신성이엔지는 "정부가 국내 재생에너지 전력원 확대를 위한 정책을 연이어 발표하고 있어, 당사 태양광 모듈 제품과 EPC 사업에 모두 긍정적인 환경이 조성되고 있다"며 "RE100 산단 데이터센터 적용, 태양광 발전 고출력 제품의 생산을 준비해 그간 부진했던 재생에너지 사업에서의 성과를 얻고자 한다"고 강조했다.

2026.02.06 15:35장경윤 기자

세미티에스, 코스닥 상장 예비심사 통과…스팩 소멸합병 상장 목전

반도체 AMHS(자동 물류 반송 시스템) 통합 솔루션 기업 세미티에스는 지난 5일 한국거래소로부터 상장 예비 심사 승인을 받았다고 6일 밝혔다. 세미티에스는 NH스팩 29호와 스팩 소멸방식을 통한 코스닥 상장을 준비 중이다. 지난 2014년 설립된 세미티에스는 첨단 반도체 제조 공정의 효율을 극대화하는 물류 자동화 시스템 전문 기업이다. 회사는 하드웨어와 소프트웨어를 아우르는 통합 솔루션을 통해 글로벌 반도체 인프라 혁신을 주도하고 있다. 이러한 경쟁력을 기반으로 회사는 설립 이래 10여년 간 무차입경영 및 실적 우상향을 지속하고 있다. 회사는 국내 기업 중 유일하게 기술 진입장벽이 높은 반도체 전(前)공정 클린 컨베이어 시스템 기술을 보유하고 있으며, 이를 바탕으로 공정별 유연한 경로 설계 및 업계 최고 수준의 반송 처리량을 구현했다. 또한 기존 장비의 구조 변경 없이 설치 가능한 비개조형 질소 퍼지 시스템인 'S-Plate'는 설치 시간을 타사 대비 약 75% 절감하고 고객사의 장비 보증 무효화 리스크를 해소하여 글로벌 시장에서 강력한 지배력을 확보하고 있다. 상장 후 세미티에스는 차세대 공중 이송 로봇(천장형 AMR) 개발 및 상용화에 박차를 가할 예정이다. 회사는 군집 제어 시스템 등 고도화된 소프트웨어 플랫폼을 기반으로 기존 OHT 시장을 대체하고, 반도체를 넘어 의료 및 일반 물류 산업까지 사업 영역을 확장해 나갈 방침이다. 민남홍 세미티에스 대표이사는 "이번 예비 심사 승인은 외산 장비가 주도하던 반도체 전공정 물류 시장에서 세미티에스의 글로벌 반도체 AMHS 통합 솔루션 경쟁력을 공식적으로 인정받은 결과"라며 "코스닥 시장에 성공적으로 안착하여 K-반도체 장비의 위상을 높이는 글로벌 유니콘 기업으로 성장할 것"이라고 포부를 밝혔다.

2026.02.06 09:20장경윤 기자

신성이엔지, 세미콘 코리아서 차세대 반도체 공기 제어 기술 제시

신성이엔지는 오는 11일부터 13일까지 서울 코엑스에서 열리는 세미콘 코리아 2026에서 차세대 반도체 공기 제어 솔루션을 선보인다고 2일 밝혔다. 이번 전시에서 신성이엔지는 실제 반도체 생산라인과 동일한 클린룸 구조를 전시장에 그대로 구현한다. 단순한 패널 설명을 넘어, 공기 흐름과 오염 제어 원리를 직관적으로 체감할 수 있도록 전시 공간을 설계했다. 특히 클린룸 내부 핵심 설비를 실제 현장과 동일한 동선과 배치로 구성하고, 미립화 가시화 시스템을 활용해 공기 흐름과 미세입자의 이동 경로를 실시간 시각화한다. 반도체 공정에서 미세입자 제어가 수율과 직결되는 과정을 한눈에 확인할 수 있다. 신성이엔지는 이번 전시를 통해 ▲고효율 공기 순환 설계 ▲파티클·오염원 제거 기술 ▲에너지 절감형 공조 솔루션 등 반도체 공정에 최적화된 공기 제어 기술 경쟁력을 집중 소개한다. 최근 초미세 공정 전환이 가속화되면서 공기 질 관리와 안정적인 클린룸 환경 구축의 중요성이 커지고 있어 관련 기술에 대한 업계 관심도 높을 것으로 예상된다. 회사 관계자는 "세미콘 코리아 2026은 글로벌 반도체 산업 관계자들이 한자리에 모이는 자리인 만큼, 신성이엔지의 기술력을 단순히 '보는 전시'가 아니라 직접 이해하고 체감하는 전시로 구성했다"며 "향후 첨단 반도체 공정에 요구되는 공기 제어 솔루션의 방향성을 제시하는 계기가 될 것"이라고 말했다. 한편 세미콘 코리아는 반도체 제조 장비·소재·부품·설계 기술 전반을 아우르는 국내 최대 규모의 반도체 전문 전시회로, 매년 국내외 주요 반도체 기업과 업계 전문가들이 대거 참가하고 있다.

2026.02.02 09:42장경윤 기자

中, 엔비디아 H200 수입 준비…자국 AI칩 동시 활용

중국 정부가 알리바바를 비롯한 자국 주요 IT기업들에 엔비디아의 첨단 인공지능(AI) 반도체인 'H200' 주문을 준비하라고 통보했다고 블룸버그통신이 23일(현지시간) 보도했다. 보도에 따르면 중국 정부는 최근 알리바바, 텐센트, 바이트댄스 등에 H200 칩 구매를 구체적으로 진행할 수 있는 자격을 부여했다. 이로써 해당 기업들은 필요한 칩 물량 등에 대한 사항을 논의할 수 있게 됐다. H200 수입을 위한 조건도 붙었다. 블룸버그는 익명의 소식통을 인용해 "중국 정부가 수입 승인 조건으로 일정 물량의 자국산 칩을 함께 구매하도록 독려할 방침"이라며 "정확한 수량은 아직 정해지지 않았다"고 밝혔다. 도널드 트럼프 미국 대통령은 지난해 말 중국향 수출이 금지돼 왔던 H200의 수출 재개를 허용하겠다고 밝힌 바 있다. H200은 엔비디아의 최신 AI가속기인 '블랙웰' 시리즈에 비해서는 한 세대 뒤쳐지지만, 중국 기업들의 AI 인프라 투자에 있어 매우 높은 가치를 가지고 있다. 미국이 H200의 수출을 허용한 데에는 중국 내 AI 반도체 자립화 시도를 억제하려는 의도가 깔려있는 것으로 풀이된다. 화웨이, 캠브리콘 등 중국 기업들은 엔비디아가 규제를 받는 사이 자체 AI반도체 개발을 가속화해 왔다. 중국 역시 미국의 H200 수출 재개에 기민하게 대응하려는 것으로 보인다. H200 수급으로 자국 IT 기업들의 AI 인프라 투자를 원활하게 하는 것과 동시에, 자국 AI 칩을 일정량 도입하게 해 기술 자립화 시도 역시 멈추지 않겠다는 전략이다.

2026.01.24 13:11장경윤 기자

오픈AI, 세레브라스와 14조원 규모 컴퓨팅 계약…"엔비디아 의존 낮춘다"

오픈AI가 차세대 인공지능(AI) 서비스 경쟁력 강화를 위해 대규모 컴퓨팅 인프라 확충에 나섰다. 반도체 스타트업 세레브라스와 수십억 달러 규모 장기 계약을 체결하며 AI 추론 속도와 서비스 확장성을 동시에 끌어올린다는 전략이다. 15일 블룸버그통신에 따르면 오픈AI는 세레브라스와 다년간 협력 계약을 체결하고 총 750메가와트(MW) 규모 컴퓨팅 파워를 공급받기로 했다. 해당 인프라는 단계적으로 구축되며 완공 목표 시점은 2028년이다. 계약 규모는 100억 달러(약 14조원)를 웃도는 것으로 알려졌다. 이번 계약은 오픈AI가 챗GPT 등 자사 AI 모델 응답 속도를 개선하려는 조치로 풀이된다. 양사는 공동 성명을 통해 세레브라스 인프라가 오픈AI 모델 실행 시 지연 시간을 줄이고 대규모 사용자 유입에 대비한 안정적인 서비스 운영을 가능하게 할 것이라고 밝혔다. 세레브라스는 초대형 단일 칩을 기반으로 한 독자적 반도체 아키텍처를 앞세워 엔비디아 중심 그래픽처리장치(GPU) 시장에 도전하고 있는 기업이다. 데이터센터 운영까지 직접 수행하며 AI 추론 분야 경쟁력을 강조해 왔다. 협약 배경에 대해 오픈AI는 'GPT-OSS-120B' 모델 테스트에서 세레브라스 시스템이 기존 하드웨어 대비 최대 15배 빠른 성능을 보였다고 설명했다. 오픈AI의 대규모 인프라 투자는 이번이 처음이 아니다. 엔비디아는 지난해 오픈AI에 최대 1천억 달러(약 146조원)를 투자해 10기가와트(GW)급 데이터센터 구축을 추진하겠다고 밝혔으며 AMD 역시 수년간 6GW 규모 GPU를 공급하기로 했다. 이와 별도로 오픈AI는 브로드컴과 자체 AI 칩 개발도 진행 중이다. 업계에서는 이번 계약을 오픈AI가 컴퓨팅 포트폴리오를 다각화하는 전략의 일환으로 보고 있다. 오픈AI는 특정 하드웨어에 대한 의존도를 낮추고 워크로드 특성에 맞는 최적의 시스템을 조합해 AI 서비스 확장성을 높인다는 목표다. 오픈AI 사친 카티 컴퓨팅 인프라 담당은 "세레브라스는 우리 플랫폼에 저지연 추론 솔루션을 더해 더 빠른 응답과 자연스러운 상호작용을 가능케 한다"며 "더 많은 사람에게 실시간 AI를 확장할 수 있는 기반을 제공할 것"이라고 밝혔다.

2026.01.15 11:29한정호 기자

신성이엔지, 자체 시공장비 'HPL'로 반도체 시장 공략…삼성·SK에 도입

클린룸 및 공조 솔루션 전문기업 신성이엔지는 자체 개발한 시공 혁신 장비 'HPL(High Performance Lift)'을 앞세워 글로벌 반도체 인프라 구축에 나서고 있다고 14일 밝혔다. 최근 HBM(고대역폭메모리)과 D램, 낸드플래시 전반의 수요가 급증하면서 삼성전자와 SK하이닉스 등 주요 고객사들이 팹 증설에 박차를 가하고 있다. 이 과정에서 신성이엔지의 HPL이 '공기 단축'과 '현장 안전'이라는 두 마리 토끼를 잡는 해법으로 평가받고 있다. 신성이엔지가 개발한 HPL은 기존 고소 작업 위주의 클린룸 시공을 지상 모듈화 방식으로 혁신한 장비다. 삼성전자 평택 캠퍼스와 SK하이닉스 청주 현장 등 국내 주요 반도체 거점에 총 35대가 도입돼 운용 중이다. HPL은 최대 8m 높이에서 9.5톤의 고중량 자재를 정밀하게 설치할 수 있으며, 다수 장비를 연동한 동시 시공이 가능하다. 이를 통해 클린룸 천장 설치 시 작업자의 위험 노출 빈도를 획기적으로 낮췄을 뿐 아니라, 인원 효율 25% 향상 및 공사 기간 20% 단축이라는 독보적인 성과를 기록하고 있다. 신성이엔지의 핵심 제조 거점인 증평사업장은 최근 반도체 초호황에 따른 주문 폭주로 풀가동 체제에 돌입했다. 클린룸의 핵심인 FFU(팬필터유닛) 생산 라인을 포함해 현장 맞춤형 장비 제작이 이어지고 있다. 특히 회사는 최근 발표된 SK하이닉스의 청주 추가 투자 및 향후 본격화될 용인 반도체 클러스터 등 대규모 프로젝트에 대비해 HPL 및 공조 장비 공급망을 더욱 강화하고 있다. 국내뿐 아니라 말레이시아 텍사스 인스트루먼트(TI) 팹을 성공적으로 완수하고, 현재 미국 삼성전자 테일러 팹 프로젝트에 전사적 역량을 집중하는 등 글로벌 시장에서의 보폭도 넓히고 있다. 신성이엔지는 HPL 외에도 자재 운반 자동화 솔루션인 SMR(스마트모바일로봇)과 SML(스마트모바일리프트)을 현장에 투입하고 있다. 이 장비들은 무거운 자재를 작업자 대신 운반해 근골격계 질환 및 안전사고 위험을 원천 차단한다. 단순한 시공 장비를 넘어 공정 간 데이터를 연계한 무인 이송 시스템으로 건설 현장의 '스마트 팩토리화'를 견인하고 있다. 이번 기술 개발 및 현장 적용을 주도한 전상훈 상무는 "반도체 팹 증설 속도가 곧 기업의 경쟁력이 되는 시대에, 안전을 담보하면서도 시공 효율을 극대화하는 엔지니어링 역량은 필수적"이라며 "국내외 대규모 프로젝트에서 검증된 HPL과 자동화 솔루션을 바탕으로, 글로벌 고객사가 가장 신뢰하는 반도체 인프라 파트너로서 입지를 공고히 하겠다"고 강조했다.

2026.01.14 09:45장경윤 기자

딥엑스, CES 2026서 '피지컬AI 인프라 기업' 비전 제시

저전력·고성능 AI 반도체 기업 딥엑스는 내달 미국 라스베이거스에서 열리는 'CES 2026'에 참가해 피지컬 AI 시장을 주도할 AI 인프라 기업으로서의 새로운 청사진을 공개한다고 30일 밝혔다. 딥엑스는 이번 CES 2026을 통해 대한민국이 메모리 반도체 강국을 넘어 시스템 및 AI 반도체 분야에서도 글로벌 리더십을 확보할 수 있음을 증명하고, 피지컬 AI 시대의 필수 인프라 기업으로 도약하겠다는 비전을 제시한다. 현재 대한민국이 'AI 3대 강국'을 목표로 산업 전환을 가속화하는 가운데, 딥엑스는 독보적인 기술력과 실질적인 성과를 바탕으로 국가 경쟁력을 높이는 핵심적인 역할을 수행하고 있다. 과거 CPU 시대에 저전력 기술로 시장을 재편한 Arm처럼, 딥엑스는 로봇·모빌리티·스마트시티 등 피지컬 AI 분야에서 에너지 효율과 실시간성을 갖춘 초저전력·고성능 AI 반도체로 새로운 글로벌 표준을 만들어가고 있다. 이러한 딥엑스의 행보는 대한민국 AI 반도체 산업이 기술적 주도권과 신뢰를 확보하는 중요한 이정표가 될 전망이다. 이번 CES에서 가장 주목해야 할 점은 딥엑스의 제품이 시장에서 실질적인 혁신을 증명했다는 것이다. 딥엑스는 자체적으로 혁신상 2관왕(컴퓨팅 하드웨어/임베디드 기술)을 달성했을 뿐만 아니라, 미국 파트너사 식스팹(Sixfab)이 딥엑스의 1세대 칩 'DX-M1'을 탑재한 'ALPON X5'로 CES 최고 영예인 최고 혁신상(Best of Innovation)을 수상하는 쾌거를 이뤘다. 이는 딥엑스의 솔루션이 단순한 부품 공급을 넘어, 글로벌 파트너사의 제품을 세계 최고 수준으로 끌어올리는 '핵심 동력'이자 '게임 체인저'임을 입증한 결정적 사건으로 평가 받는다. 딥엑스는 라스베이거스 컨벤션센터(LVCC) 노스홀(North Hall) AI·로보틱스 구역에 독립 부스를 마련하고, 양산 단계의 제품이 적용된 로봇, 드론, 공장 자동화, 리테일 등 다양한 산업 현장 솔루션을 실시간으로 시연한다. 관람객들은 이를 통해 피지컬 AI가 개념 단계를 넘어 이미 상용화 단계에 진입했음을 확인할 수 있다. 특히 2나노 공정 기반의 차세대 AI 반도체 'DX-M2'의 개발 현황과 핵심 성능 목표도 처음으로 공개한다. DX-M2는 데이터센터 중심 AI가 직면한 전력 소모와 확장성 한계를 근본적으로 해결하기 위해 설계된 차세대 피지컬 AI 시대를 위한 인프라 칩이다. 또한 바이두의 패들패들(PaddlePaddle), 미국 울트라라이틱스(Ultralytics)의 YOLO 생태계와 함께하는 '오픈소스 피지컬 AI 얼라이언스' 협력 내용도 소개하며, 하드웨어와 소프트웨어를 아우르는 글로벌 전략을 선보인다.

2025.12.30 10:43장경윤 기자

일본, 반도체·AI 지원 예산 4배 확대…기술 경쟁력 강화 박차

일본 정부가 차세대 기술 경쟁력 확보를 위해 반도체와 인공지능(AI) 산업 지원 예산을 대폭 늘리는 방안을 마련했다. 2026 회계연도 예산안에서 칩 및 AI 관련 지원을 기존보다 약 4배 규모로 확대하는 내용이 포함됐다. 블룸버그는 일본 내각이 총지출 약 122조3천억 엔(약 7천850억 달러) 규모의 2026 회계연도 예산안을 승인했다고 26일 보도했다. 그간 일본은 보통 추가경정예산 형태로 일시적인 지원을 해왔으나, 앞으로는 정규 예산에서 지속적이고 안정적인 투자가 이뤄질 전망이다. 산업통상자원부(METI)의 예산은 전년 대비 약 50% 증가한 3조7천억 엔가량으로 확대됐다. 이 중 상당 부분은 반도체 제조 역량 강화와 AI 연구 개발, 데이터 인프라 구축 등에 투입될 예정이다. 반도체 분야에서는 정부가 지원하는 국책 반도체 벤처 라피더스에 1천500억 엔이 추가로 책정되는 등 국내 제조 경쟁력 강화에 방점을 찍었다. AI 분야에서는 기초 AI 모델 개발, 데이터 인프라 강화, 로봇·물류 등 물리 AI(Physical AI) 기술 지원에 약 3천873억 엔이 배정됐다. 이번 예산 확대는 미국과 중국 간 기술 경쟁이 치열해지는 가운데 일본이 핵심 기술 주도권 확보를 위한 움직임을 강화하고 있다는 신호로 해석된다. 미·중 양대 기술 강국의 투자 확대 속에서 일본 정부는 국내 산업 생태계의 기술 주권 확보와 공급망 강화를 우선 과제로 삼고 있다. 예산안은 향후 국회 심의를 거쳐 최종 확정될 예정이며, 일본 정부는 이를 통해 반도체와 AI 기술 분야에서 장기적인 경쟁력을 확보할 계획이다.

2025.12.28 11:38전화평 기자

래블업 "인간 지능 대체 시도 활발…수직 통합·오픈 생태계 해법으로"

래블업이 인간의 지능을 대체하고자 하는 시도가 활발하게 일어나는 현 시점에 기술적 문제의 해결법으로 수직 통합과 대규모 오픈 생태계 진입을 제시했다. 김준기 래블업 최고기술책임자(CTO)는 11일 서울 중구 신라호텔에서 열린 'ACC 2025'에서 "AI 기술이 등장하면서 이전에는 슈퍼컴퓨터를 동원해야만 계산할 수 있었던 연산들이 적은 개수의 서버로 수행할 수 있게 되면서 AI 모델이 저정밀도 환경에서도 잘 작동한다는 깨달음을 얻게 됐다"며 "고도화된 AI 모델을 만들고 이를 통해 인간의 지능을 대체하는 시도들이 활발하게 일어나고 있는 게 현재 시점"이라고 말했다. 'ACC 2025'는 지디넷코리아가 주관·주최하고 과학기술정보통신부, 래블업, 네이버 등이 후원하는 컨퍼런스다. 이 자리에서 김 CTO는 "경제적인 동인에 따라 그래픽처리장치(GPU)의 아키텍처가 점점 빈틈없이 메워지기 시작했다"며 "이전에는 인간의 고유한 지적 활동으로 취급됐던 지능이 산업적 측면에서 재화나 물품으로 취급될 수 있다는 시각이 나왔다"고 설명했다. 또 그는 이 과정에서 고장 등의 현실적인 문제가 발생했으나, 래블업은 이같은 컴퓨팅 인프라를 관리하는 데 필요한 여러 기술적 어려움과 고민들을 숨겨주는 것을 목표로 하고 있다고 언급했다. 이를 위해 이 회사는 오픈소스 개발 단계에서 여러 엔터프라이즈 확장 기능을 붙이는 방식을 추구하고 있다. 또 간단한 PC 스케일부터 클라우드까지 가능한 일관된 경험을 제공하는 것을 목표로 개발을 이어가고 있는 상황이다. 김 CTO는 "다양한 층위에서 사실 공통된 원리들이 적용되는데 이를 시스템 디자인에 얼마나 잘 녹여낼 수 있느냐에 대한 고민을 많이 하고 있다"며 "보안에 대한 문제도 고민 중"이라고 말했다. 그는 기술적으로 아무리 복잡한 문제를 해결했어도 이를 실제 고객에게 공급하고 기술 지원을 할 것이냐는 어려운 문제라고 토로했다. 김 CTO는 "기술적 관점에서 가능한 수직 통합을 해 모든 요소를 우리 통제 하에 두겠다는 것이 하나의 방향"이라며 "요즘 고민하는 것은 어느 정도 안정성 등이 검증된 대규모 오픈 생태계인 '거인의 어깨'에 올라타는 전략"이라고 언급했다. 다만 래블업은 AI 시장이 이제 시작 단계에 있다고 보고 다양한 특화 환경에 맞는 AI 반도체 등장을 염두에 두고 특정 벤더에 종속되지 않는 형태의 디자인에 대한 개발을 내부적으로 이어오고 있다고 강조했다. 김 CTO는 "지능 인프라를 공급하는 회사로 다양한 기술적 문제를 해결해나가고 있다"며 "이런 부분이 여러분들의 의사결정과 연구개발에 도움이 됐으면 좋겠다"고 밝혔다.

2025.12.11 16:53박서린 기자

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평 기자

김주영 하이퍼엑셀 대표, 팹리스산업 유공자 '중기부 장관상' 수상

AI 반도체 스타트업 하이퍼엑셀은 김주영 대표이사가 지난달 26일 열린 '2025 K-팹리스 테크포럼 & 제3회 팹리스인의 날'에서 팹리스 산업 유공자 부문 '중소벤처기업부 장관상'을 수상했다고 2일 밝혔다. 이번 포상은 팹리스 산업 생태계 혁신과 기술 자립에 기여한 기업과 인물을 선정하는 최고 권위의 정부 포상이다. 김 대표는 창업 이후 세계 최초 LLM 추론 특화 반도체 'LPU(LLM Processing Unit)'를 독자 개발하고 상용화를 성공적으로 이끌며, 국내 팹리스 기술 경쟁력 강화와 AI 반도체 기술 자립에 기여한 공로를 인정받아 중소벤처기업부 장관상을 수상했다. 특히 LPU 기반의 고성능·저전력 반도체 구축으로 해외 GPU 중심 인프라 의존도를 낮추고, 국산 AI 인프라 구축과 디지털 전환 생태계 조성에 초석을 마련한 점이 이번 수상의 핵심 근거가 됐다. 대규모 언어모델(LLM) 추론에 최적화된 LPU 아키텍처는 높은 에너지 효율성과 가격 경쟁력을 갖춘 차세대 반도체 기술로 주목받고 있다. 또한 하이퍼엑셀은 전문 연구·엔지니어링 인력을 적극 채용·육성하며 반도체 및 AI 산업의 인재 생태계 강화에 기여하고 있다. AI 반도체, 시스템 설계, 소프트웨어·플랫폼 등 전 영역의 전문 인력을 확보함으로써 국내 반도체 산업의 지속적 성장 기반을 마련하고 있다. 하이퍼엑셀은 이번 수상을 계기로 차세대 LPU 기술을 중심으로 국산 AI 반도체 및 AI 인프라 생태계 확장에 속도를 높이며, 대한민국 AI 기술 경쟁력 강화와 지속 가능한 혁신을 선도해 나갈 계획이다. 김주영 대표는 “국산 LPU 반도체 기술의 잠재력과 산업적 가치를 국가적으로 인정받은 뜻깊은 상”이라며 “한국 팹리스 산업이 글로벌 경쟁력을 갖출 수 있도록 연구개발과 상용화에 더욱 박차를 가하겠다”고 말했다.

2025.12.02 09:48전화평 기자

[현장] 국산 AI 반도체·클라우드 결합 '시동'…국가 인프라 강화 선언

국산 인공지능(AI) 반도체와 클라우드 산업의 융합이 궤도에 올랐다. 초거대 AI 시대를 맞아 국가 인프라의 근간이 되는 클라우드가 스마트화와 지능형 자원 운영이라는 새로운 전환점을 맞이하면서 국산 기술 중심의 풀스택 생태계 구축이 본격화되고 있다. 오픈K클라우드 커뮤니티는 25일 서울 강남 과학기술회관에서 '오픈K클라우드 데브데이 2025'를 열고 국산 AI 반도체와 클라우드 융합 전략을 공유했다. 오픈K클라우드 커뮤니티에는 한국전자통신연구원(ETRI), 한국전자기술연구원(KETI), 이노그리드, 오케스트로, 경희대학교, 연세대학교, 한국클라우드산업협회(KACI), 퓨리오사AI 등 산·학·연 주요 기관이 공동 참여한다. 이번 행사는 커뮤니티의 첫 공식 기술 교류 행사로, 국산 AI 반도체를 중심으로 한 클라우드·소프트웨어(SW) 전주기 기술을 한자리에서 조망하며 국가 AI 인프라 경쟁력 제고 방안을 논의했다. ETRI 최현화 박사는 "이제 AI 서비스의 경쟁력은 모델을 누가 더 잘 만드느냐보다 누가 더 나은 인프라로 지속적으로 운영하느냐가 핵심"이라고 강조하며 클라우드의 대전환기를 진단했다. 최 박사는 최근 글로벌 거대언어모델(LLM) 발전의 특징을 멀티모달 확장, 컨텍스트 윈도우의 급격한 증가, 툴 연동 기반 정확도 향상으로 정리했다. 특히 메타가 공개한 오픈소스 LLM '라마'의 컨텍스트 윈도우가 1천만 토큰 수준으로 확장된 점을 언급했다. 그는 이러한 추세 속에서 국내 클라우드 산업이 ▲AI 가속기 이질성의 심화 ▲메모리 병목 문제 ▲추론 비용의 급증 ▲에이전트 폭증에 따른 관리 복잡도 증가 등 여러 난제를 동시에 마주하고 있다고 짚었다. 가장 먼저 꼽힌 것은 AI 가속기의 이질성 문제다. 엔비디아 그래픽처리장치(GPU) 중심 생태계가 유지되고 있지만 국내외에서 신경망처리장치(NPU)·AI칩·메모리 내 연산(PIM) 등 다양한 가속기와 인터커넥트 기술이 빠르게 등장하면서 단일 아키텍처에 의존하는 방식은 지속 가능하지 않다는 지적이다. 이어 LLM 추론의 핵심 병목으로 작용하는 '메모리 월'도 문제로 제기됐다. GPU 성능이 가파르게 증가하는 동안 메모리 기술 향상 속도는 더디기 때문이다. 최 박사는 SK하이닉스의 'AiMX', CXL 기반 차세대 메모리 사례를 언급하며 "AI 추론은 본질적으로 메모리 중심 작업이기에 차세대 메모리가 성능의 핵심을 좌우하게 될 것"이라고 말했다. LLM 스케일링 문제 역시 중요한 도전 과제로 다뤄졌다. 사용자 요구는 계속 높아지지만 단일 모델의 크기 확장에는 한계가 있어 여러 전문가 모델을 조합하는 '전문가 혼합(MoE)' 방식이 중요한 돌파구가 될 것이라고 강조했다. AI 모델마다 강점이 다른 만큼 다중 LLM 기반 지능형 추론은 필연적인 흐름이라는 설명이다. 추론 비용 문제도 빠지지 않았다. 최 박사는 "엔비디아 B200 급 GPU의 전력 소비가 1킬로와트(kW)에 이르는데, 이러한 DGX 서버 100대를 하루 운영하면 테슬라 전기차로 지구를 일곱 바퀴 도는 전력량에 해당한다"고 설명했다. 그러면서 "전력·비용 최적화는 하드웨어(HW) 스펙뿐 아니라 스케줄링, 클러스터 재구성이 필수"라고 말했다. 또 LLM·에이전트·데이터소스가 동적으로 연결되는 시대가 되면서 모니터링 복잡성이 기하급수적으로 커지고 있다는 점도 지적했다. 기존에는 레이턴시와 처리량을 중심으로 모니터링했다면 이제는 LLM의 할루시네이션 여부, 에이전트 간 호출 관계, 로직 변경 이력까지 관측해야 안정적 운영이 가능하다는 것이다. 이 같은 문제를 해결하기 위해 ETRI는 과학기술정보통신부가 추진하는 'AI 반도체 클라우드 플랫폼 구축 및 최적화 기술 개발' 과제에 참여했다. 이를 통해 ▲이종 AI 반도체 관리 ▲클라우드 오케스트레이션 ▲자동 디바이스 감지 ▲협상 기반 스케줄링 ▲국산 NPU 특화 관측 기술을 포함한 오픈소스형 '오픈K클라우드 플랫폼'을 개발 중이다. ETRI는 5년간 진행되는 사업에서 2027년 파라미터 규모 640억 LLM, 2029년 3천200억 LLM 지원을 목표로 풀스택 AI 클라우드 생태계를 구축할 계획이다. 오픈K클라우드 커뮤니티에 참여하는 퓨리오사AI, 이노그리드, 오케스트로도 이날 국산 AI 반도체와 클라우드 융합 생태계 활성화를 위한 기술 전략을 발표했다. 퓨리오사AI 이병찬 수석은 엔비디아 의존을 극복하기 위해 전력·운영 효율성을 높인 '레니게이드' 칩과 SW 스택을 소개했다. 이노그리드 김바울 수석은 다양한 반도체가 혼재된 클라우드 구조를 성능·전력·비용 최적화로 통합한 옵저버빌리티의 전략을 공유했다. 오케스트로 박의규 소장은 자연어 요구 기반 코딩과 자동화된 테스트·배포를 지원하는 에이전트형 AI SW 개발환경(IDE) 트렌드와 국내 시장의 변화에 대해 발표했다. 최 박사는 "앞으로 오픈K클라우드 플랫폼을 통해 국산 AI 반도체가 국가 핵심 인프라에 적용될 수 있는 계기를 만들겠다"고 강조했다. 이어 "아직 확정은 아니지만 정부가 추진하는 '국가AI컴퓨팅센터' 사업에 우리 플랫폼을 탑재할 수 있는 계기를 만들 것"이라며 "국산 AI 반도체 실사용자의 요구사항을 반영해 레퍼런스를 쌓아가는 것이 목표"라고 덧붙였다.

2025.11.25 17:10한정호 기자

신성이엔지, ESG 평가 A등급 획득...지속가능경영 경쟁력 입증

신성이엔지는 국내 대표 ESG 평가기관인 서스틴베스트로부터 '2025년 하반기 ESG 평가' A등급을 획득했다고 24일 밝혔다. C등급을 중앙값으로 하는 평가 체계에서 업종 평균을 크게 상회했고, 외부 공시와 실제 이행 간의 일치도를 중시하는 ESG 평가에서 실질적 개선과 정량 지표 성과가 두드러진 기업으로 인정받았다. 환경(E) 부문에서는 주요 반도체 인프라 장비를 에너지 절감형으로 연구·개발·생산하며 산업 현장의 에너지 소모 저감에 기여한 점이 주목받았다. 용인스마트팩토리를 태양광 전력과 ESS(에너지저장장치) 기반으로 운영해 공장 가동 전력의 상당 부분을 친환경 에너지로 전환했다. 모든 회사 차량을 전기차로 전환해 Scope 1·2 탄소배출을 저감한 점도 높은 평가를 받았다. 사회(S) 부문에서는 안전품질환경체계 고도화, 온열질환 예방, 외국인 근로자 대상 다국어 안전보건교육 등 현장 중심 개선이 주목받았다. 지역 저소득층 대상 커피차 기부, 임직원 플로깅 활동 정례화 등 지역사회 공헌 확대도 인정받았다. 지배구조(G) 부문에서는 자발적 감사위원회 설치를 통한 내부 통제 강화와 기업지배구조보고서 준수율 제고로 투명경영 수준을 높였다. 영문 공시, 유튜브 실적발표, IR 페이지 Q&A 등 투자자 이해 증진을 위한 활동에도 노력하고 있다. 신성이엔지 관계자는 "ESG 경영은 리스크 관리에서 그치지 않고 이를 개선해 실질적인 사업 기여로 이어져야 한다"며 "앞으로도 체계를 단계적으로 수립·실행하며 평가 등급을 높이고, 모든 임직원이 ESG 경영에 참여할 수 있도록 노력하겠다"고 밝혔다. 한편 신성이엔지는 전체 1천299개 기업 중 387위, 업종 내 18위를 기록하며 환경·사회·지배구조 전 부문에서 업종 평균을 상회했다.

2025.11.24 09:43장경윤 기자

"AI의 심장은 데이터센터"…지능형 인프라가 여는 차세대 AI 시대

“오늘날 데이터센터는 단순한 인프라가 아니라 지능의 심장부로 진화하고 있습니다.” 이중연 KTNF 대표는 12일 서울 강남구 그랜드인터컨티넨탈 파르나스에서 열린 인공지능반도체조찬포럼에서 이같이 밝혔다. 그는 “AI가 폭발적으로 발전하면서 이제 데이터센터는 단순히 데이터를 저장하고 처리하는 공간이 아니라, 지능형 컴퓨팅의 중심으로 재정의되고 있다”고 강조했다. KTNF는 2002년에 설립된 서버 전문 개발 및 제조 기업이다. 자체 기술력으로 국산 서버를 직접 설계·제조한 뒤 공급한다. 이 대표는 AI 시대의 데이터센터가 직면한 가장 큰 도전으로 전력, 냉각, 자원 활용 효율을 꼽았다. GPT-4 학습에 수만 개의 CPU가 투입될 정도로 연산 수요가 급증하지만, 기존 인프라는 이를 감당하지 못한다는 것이다. 그는 “AI가 요구하는 연산 밀도와 속도를 지원하려면 기존 설계의 한계를 뛰어넘는 새로운 구조가 필요하다”고 말했다. 이 대표가 제시한 해법은 'AI 특화형 데이터센터 모델'이다. 이 모델은 CPU, GPU, MPU 등 다양한 가속기를 CXL(컴퓨트 익스프레스 링크) 기반으로 연결해 자원을 실시간 공유하고 자동으로 최적화할 수 있는 구조다. 이를 통해 대규모 모델 학습과 추론을 효율적으로 처리하면서도 전력 낭비를 최소화할 수 있다. 그는 “에너지 효율적이면서도 지능적으로 확산되는 차세대 AI 데이터센터를 통해 AI가 더 빠르고 더 안전하며 더 지속 가능하게 성장하는 세상을 만들어야 한다”고 전했다. 냉각 기술의 혁신도 AI 데이터센터 구성의 중요 요소로 꼽았다. 특히 DLC(직접 액체 냉각) 기술의 필요성을 강조했다. DLC는 서버나 GPU 같은 발열 부품 표면에 냉각수를 직접 순환시켜 냉각하는 방식이다. 공냉식 대비 열 제거 효율이 최대 10배 이상 높다. 이 대표는 “고밀도 AI 서버는 전력뿐 아니라 열이 성능의 한계를 결정짓는 요소가 됐다”며 “냉각 효율이 곧 연산 효율로 이어지는 시대에 전력과 냉각은 AI 인프라의 생명선”이라고 강조했다. 보안이 AI 데이터센터 구현의 문턱이 될 것으로 내다봤다. 그가 제시한 해법은 물리적 보안 체계다. 현재 시장에서는 반도체 미세 불균일성을 이용한 PUF(물리적 복제 방지 기능)기술과 QRNG(양자 난수 생성기), PQC(양자내성암호)를 AI 데이터센터를 위한 차세대 보안 요소로 보고 있다. 이 기술은 칩 자체가 고유한 '전기적 지문'을 갖도록 만들어 복제나 위·변조를 원천 차단한다. 이 대표는 “AI가 스스로 학습하고 판단하는 만큼, 그 기반이 되는 하드웨어의 신뢰성이 중요하다”고 말했다. 이 대표는 또 AI 인프라를 위해 시스템을 구축해야 한다고 전했다. 그는 “AI 인프라의 핵심은 이제 연산 속도나 저장 용량이 아니라, 얼마나 지능적으로 자원을 관리하고 얼마나 신뢰할 수 있는 시스템을 갖추느냐에 달려 있다”고 강조했다. 이어 “국산 AI 반도체와 지능형 인프라 기술을 융합해 한국형 데이터센터 모델을 발전시켜 나가겠다”며 “AI가 AI를 위한 인프라를 설계하는 시대를 준비하겠다”고 덧붙였다.

2025.11.12 13:40전화평 기자

SK하이닉스 "이제 메모리는 조합의 시대…커스텀 HBM·HBF에 기회"

"인공지능(AI) 시대에 메모리는 기존 천편일률적인 구조를 벗어나, 각 기능에 맞춘 메모리를 최적의 방식으로 조합하는 것이 중요해지고 있다. 이 과정에서 커스텀 고대역폭메모리(HBM), 컴퓨트익스프레스링크(CXL), 고대역폭플래시(HBF) 등이 기회를 맞게 될 것이다." 박경 SK하이닉스 담당은 4일 오전 서울 코엑스에서 열린 'SK AI 서밋 2025'에서 회사의 메모리 사업 전략에 대해 이같이 밝혔다. 메모리, 향후 기능별로 분업화…최적의 조합 만들어야 이날 'AI 서비스 인프라의 진화와 메모리의 역할'을 주제로 발표를 진행한 박 담당은 AI 인프라 투자 확대에 따른 메모리 시장의 높은 성장세를 강조했다. 발표된 자료에 따르면, 글로벌 AI 데이터센터 시장 규모는 올해 2천560억 달러에서 2030년 8천230억 달러로 연평균 26% 증가할 것으로 예상된다. 이에 따라 D램은 서버 및 HBM(고대역폭메모리)를 중심으로, 낸드는 eSSD(기업용 SSD)를 중심으로 수요가 크게 늘어날 전망이다. 또한 AI 경쟁의 축이 기존의 학습에서 추론으로 이동하면서, 요구되는 메모리의 양도 급격히 증가하는 추세다. 추론 과정에서 KV(키-값) 캐시가 매 요청마다 생성되고 누적되면서, 메모리 용량과 대역폭을 상당 부분 소모하기 때문이다. KV 캐시는 키-값 구조로 데이터를 저장하는 캐시 시스템이다. 이전 연산 결과를 재활용해 추론 속도를 높이는 데 활용된다. 박 담당은 "AI 추론에서는 주어진 문장에 포함된 토큰 수와 사용자의 수에 따라 KV 캐시가 급증하는 것이 변수"라며 "이 KV 캐시로 촉발되는 메모리 요구량을 어떻게 잘 대응하느냐가 추론 시대에서 가장 중요한 화두가 될 것"이라고 설명했다. 때문에 SK하이닉스는 전체 시스템 내에서 가용되는 메모리의 성능 및 용량, 구성 방식이 AI 추론의 효율을 결정짓는 요소가 될 것으로 보고 있다. 특히 기존에는 메모리가 일반화된 계측 구조를 갖췄다면, 향후에는 기능별로 분업화된 메모리를 최적화된 구조로 조합하는 것이 핵심이 될 것으로 내다봤다. '풀 스택 AI 메모리' 전략…커스텀 HBM·HBF 등 두각 대표적인 사례가 엔비디아의 칩이다. 엔비디아는 루빈(Rubin) GPU에는 HBM4를, 베라(Vera) CPU에는 LPDDR5X(저전력 D램)를, 루빈 CPX(AI 추론에서 문맥 처리에 특화된 전용 가속기)에는 GDDR7(그래픽 D램)을 채용해 하나의 시스템을 구성하고 있다. 박 담당은 "예전에는 x86 CPU에 D램과 낸드를 붙이는 천편일률적인 메모리 구조가 지배적이었으나, 이제는 기능별로 메모리를 배치해야 하는 조합의 시대로 바뀌고 있다"며 "이 상황에서 메모리 공급사는 단순히 메모리 용량을 더 많이 제공하는 것이 아닌, 고객사 칩 성능에 따라 가장 효율적인 메모리 조합을 제시할 수 있어야 한다"고 강조했다. 이에 SK하이닉스는 '풀 스택 AI 메모리 크리에이터'라는 개념으로 AI 메모리 제품군을 적극 확장하고 있다. HBM4E부터 커스텀 HBM 공급을 준비 중이며, 기존 D램을 고객사 요구에 맞춰 더 세분화된 제품으로 개발하고 있다. 낸드 역시 초고성능과 대역폭, 초고용량 등 세 가지 방향에 맞춰 맞춤형 제품을 개발 중이다. 샌디스크와 협업해 개발 중인 HBF가 대표적인 사례다. HBF는 D램을 수직으로 여러 개 적층하는 HBM(고대역폭메모리)와 유사하게, 낸드를 여러 층 적층해 메모리 대역폭을 끌어올린 차세대 메모리다.

2025.11.04 13:27장경윤 기자

"메모리, 공급 자체가 병목화"…최태원 회장, '통 큰' 투자 결의

SK그룹이 폭발적인 AI 수요 성장세에 대응하기 위해 적극적인 설비투자·기술개발을 진행한다. HBM(고대역폭메모리) 양산을 담당할 신규 'M15X' 팹에 장비 반입을 시작한 가운데, 오는 2027년에는 용인 클러스터를 오픈해 생산능력을 지속 확충할 계획이다. 최태원 SK그룹 회장은 3일 'SK AI 서밋 2025' 기조연설에서 "용인 클러스터는 완성 시 M15X 팹 24개가 동시에 들어서는 것과 같은 규모"라며 "상당히 많은 설비투자액을 요구하지만 공급부족 현상을 최대한 막아보려고 한다"고 밝혔다. AI 수요 폭발적…"메모리, 성능 아닌 공급 자체가 병목화" 이날 'AI의 지금과 다음(AI Now & Next)'을 주제로 발표를 진행한 최 회장은 "AI 데이터센터 투자 규모는 2020년 2천300억 달러에서 올해 6천억 달러로 매년 24% 증가해 왔다"며 "앞으로는 빅테크 및 신규 기업들의 투자로 인해 AI 인프라 투자가 이전보다 더 폭발적으로 성장할 확률이 존재한다"고 강조했다. AI 수요 성장세에 대한 근거는 매우 다양하다. 최 회장은 ▲AI 추론의 본격화 ▲B2B 영역의 본격적인 AI 도입 ▲에이전트 AI의 등장 ▲소버린 AI 경쟁 등이다. 그러나 컴퓨팅 파워 공급은 AI 수요의 성장세를 따라가지 못하고 있다. 특히 AI 구현에 필수적인 GPU 등 시스템반도체, HBM(고대역폭메모리)와 같은 서버용 메모리도 병목현상을 겪고 있다. 최 회장은 "예전에는 GPU 하나에 HBM 하나를 연결했으나, 지금은 HBM 연결이 12개 이상까지 늘어나는 등 메모리 칩의 공급량을 전례 없이 빠른 속도로 소진시키고 있다"며 "이 여파가 기존 범용 메모리에도 영향을 주면서, 이제는 성능이 아닌 공급 자체가 병목화되고 있다"고 설명했다. 그는 이어 "요즘 너무 많은 기업으로부터 메모리 칩 공급 요청을 받고 있어 당사가 어떻게 소화하냐가 하나의 걱정"이라며 "공급 문제를 해결하지 못하면 고객사가 사업 자체를 못 하는 상황에 접어들 수 있어 책임감을 가지고 있다"고 덧붙였다. 설비투자에 주력…"용인 클러스터, M15X 팹 24개와 맞먹는 규모" 이에 고객사들은 안정적인 메모리 수급 전략에 총력을 기울이고 있다. 챗GPT의 창시자인 오픈AI가 지난달 초 SK하이닉스·삼성전자와 전방위적 협력을 체결하며 월 90만장 수준의 HBM 공급을 요구한 것이 대표적인 사례다. 해당 수준은 현재 기준 전 세계 HBM 생산량 총합의 2배 규모에 해당한다. 최 회장은 "샘 올트먼 오픈AI CEO도 미래 AI 주도권을 확보하려면 HBM 병목현상이 가장 핵심 요소임을 잘 알고 있다"며 "이 문제를 해결하려면 설비투자(CAPEX)와 기술 관점에서 접근해야 한다"고 설명했다. 설비투자의 경우, SK하이닉스는 최근 청주에 HBM 양산을 주력으로 담당할 'M15X' 팹의 설비반입을 시작했다. 이 공장은 내년부터 본격 가동될 예정이다. 또한 오는 2027년에는 용인 클러스터 팹을 오픈할 계획이다. 용인 클러스터는 총 4개 팹으로 구성되며, 각 팹이 6개의 M15X 팹을 합친 것과 같은 대규모로 조성된다. 최 회장은 "용인 클러스터가 다 완성되면 24개의 청주 M15X 팹이 동시에 들어가는 것과 같은 생산능력을 확보하게 된다"며 "계속 장비를 도입해 수요에 대비할 수 있도록 하고 있고, 상당히 많은 투자를 요하지만 최소한 공급 부족 현상을 막을 수 있도록 하겠다"고 말했다. 기술 측면에서는 초고용량 메모리 칩을 개발하거나, 상대적으로 저렴하면서도 데이터 저장력이 뛰어난 낸드의 개념을 도입하는 방식 등을 추진하고 있다. 최 회장은 "젠슨 황 엔비디아 CEO조차도 이제는 저에게 더 이상 개발 속도에 대해 이야기하지 않는다"며 "SK하이닉스의 기술력이 이미 업계에서 어느 정도 증명이 됐다고 생각한다"고 밝혔다.

2025.11.03 12:49장경윤 기자

엔비디아와 손잡은 팀네이버…이해진 "AI·클라우드로 산업 도약 지원"

팀네이버는 산업 현장의 AI 전환을 지원하기 위해 주력 사업을 중심으로 AI 인프라를 구축하고 피지컬 AI 개발을 하고자 엔비디아와 함께 힘을 합친다. 이해진 네이버 이사회 의장은 31일 경북 경주 화백컨벤션센터(HICO)에서 열린 이재명 대통령과 젠슨 황 엔비디아 최고경영자(CEO)와의 접견에 함께 참석했다. 이 자리에서 이 의장은 모두발언을 통해 “자동차의 SDV 전환이 보여주듯이 AI가 실제 산업 현장과 시스템 속에서 작동하는 '피지컬 AI'의 시대가 열리고 있다”며 “네이버는 AI와 클라우드 기술로 기업이 데이터를 더 잘 활용하고, 산업이 한 단계 더 도약할 수 있도록 지원하겠다”고 말했다. 이번 협력은 AI 기술의 산업 현장 확장을 가속화하고, 제조 산업 전반의 디지털 전환을 구체화하는 계기가 될 전망이다. 이를 위해 네이버클라우드는 엔비디아와 업무협약(MOU)를 맺고 현실 공간과 디지털 공간을 유기적으로 연결하는 차세대 '피지컬 AI' 플랫폼을 공동 개발하고, 반도체·조선·에너지 등 국가 주력 산업을 중심으로 AI 인프라를 구축해 산업 현장의 AI 활용을 지원할 계획이다. 네이버클라우드는 이를 통해 ▲조선 ▲에너지 ▲바이오 등 주요 산업별 특화 AI 적용 모델을 발굴하고 확산을 주도해 산업 현장에 최적화된 AI 기술이 빠르게 자리 잡을 수 있도록 한다는 방침이다. 산업별 적용을 가능하게 하는 기술적 기반은 바로 '피지컬 AI 플랫폼'이다. 양사는 네이버클라우드의 디지털 트윈·로보틱스 등 차세대 기술 역량과 엔비디아의 '옴니버스', '아이작 심' 등 3D 시뮬레이션·로보틱스 플랫폼을 결합해 현실 산업 환경을 가상 공간에서 정밀하게 재현하고, AI가 ▲분석 ▲판단 ▲제어를 지원할 수 있는 구조로 피지컬 AI 플랫폼을 구현해 나갈 예정이다. 이번 협력은 네이버클라우드가 제시한 '소버린 AI 2.0' 비전을 실제로 구현하기 위한 첫 단계다. 기존 소버린 AI가 자국의 언어와 문화 중심의 AI 모델과 생태계를 구축해 기술 주권 확보에 초점을 맞췄다면, 소버린 AI 2.0은 이를 국가 핵심 산업과 일상 전반으로 확장해 국가 경쟁력을 높이는 방향으로 발전한 개념이다. 네이버클라우드는 이 비전을 구체화하기 위해 ▲하이퍼클로바 X 모델 오픈소스 공개 ▲국가 AI 프로젝트 연계 ▲AI 인재 양성 프로그램 운영 등을 추진하며, 산업·학계·연구기관 전반의 협력 생태계 조성에도 힘쓰고 있다. 김유원 네이버클라우드 대표는 “이번 협력은 AI 기술이 산업 현장의 생산성과 안전, 효율을 실질적으로 끌어올리는 '피지컬 AI 시대'의 출발점이 될 것”이라며 “하이퍼스케일 AI 인프라와 클라우드 운영 역량을 기반으로 디지털 트윈과 로보틱스 기술을 결합해 산업 현장의 경쟁력을 강화하고 국내 제조 산업의 AI 혁신을 함께 이끌어가는 신뢰받는 기술 파트너가 되겠다”고 강조했다.

2025.10.31 15:00박서린 기자

11.3조원 쏜 SK하이닉스, 내년도 HBM·D램·낸드 모두 '훈풍'

올 3분기 사상 최대 분기 실적을 거둔 SK하이닉스가 내년에도 성장세를 자신했다. 메모리 산업이 AI 주도로 구조적인 '슈퍼사이클'을 맞이했고, 핵심 사업인 HBM(고대역폭메모리)도 주요 고객사와 내년 공급 협의를 성공적으로 마쳤기 때문이다. 이에 SK하이닉스는 내년 설비투자 규모를 올해 대비 확대하고, HBM과 범용 D램, 낸드 모두 차세대 제품의 생산능력 비중 확대를 추진하는 등 수요 확대에 대응하기 위한 준비에 나섰다. 29일 SK하이닉스는 3분기 실적발표를 통해 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 밝혔다. 창사 이래 최대 실적…'메모리 슈퍼사이클' 이어진다 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. 또한 분기 기준 역대 최대 실적으로, 영업이익이 창사 이래 최초로 10조원을 넘어섰다. 호실적의 주요 배경에는 AI 중심의 메모리 슈퍼사이클 효과가 있다. AI 인프라 투자에 따른 데이터센터 및 일반 서버 수요가 확대되면서, D램과 낸드 모두 수요가 빠르게 증가하는 추세다. 특히 주요 메모리 공급사들이 HBM(고대역폭메모리) 양산에 생산능력을 상당 부분 할당하면서, 범용 D램의 수급이 타이트해졌다는 분석이다. SK하이닉스는 "HBM뿐 아니라 일반 D램·낸드 생산능력도 사실상 완판 상태”라며 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 밝혔다. 메모리 사업에도 근본적인 변화가 감지된다. AI가 단순히 새로운 응용처의 창출을 넘어, 기존 제품군에도 AI 기능 추가로 수요 구조 전체를 바꾸고 있다는 설명이다. SK하이닉스는 "이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습에서 추론으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 말했다. 이에 따라 SK하이닉스는 내년 서버 세트 출하량을 전년 대비 10% 후반 증가로 예상하고 있다. 전체 D램 빗그로스(출하량 증가율)은 내년 20% 이상, 낸드 빗그로스는 10% 후반으로 매우 높은 수준을 제시했다. HBM, 내후년까지 공급 부족 전망 SK하이닉스는 이번 실적발표 컨퍼런스콜을 통해 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 내년 엔비디아향 HBM 공급 계획도 순조롭게 진행될 것으로 전망된다. SK하이닉스는 "내년도 HBM 공급 계약을 최종 확정지었고, 가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"며 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"고 밝혔다. HBM4(6세대 HBM)는 올 4분기부터 출하를 시작해, 내년 본격적인 판매 확대에 나설 계획이다. HBM4는 엔비디아가 내년 출시할 차세대 AI 가속기 '루빈'에 탑재될 예정으로, 이전 세대 대비 I/O(입출력단자) 수가 2배로 확장되는 등 성능이 대폭 향상됐다. 또한 엔비디아의 요구로 최대 동작 속도도 이전 대비 빨라진 것으로 알려졌다. SK하이닉스는 "당사는 HBM 1위 기술력으로 고객사 요구 스펙에 충족하며 대응 중"이라며 "업계에서 가장 빠르게 고객 요구에 맞춘 샘플을 제공했고, 대량 공급도 시작할 준비가 돼 있다"고 강조했다. 설비투자·차세대 메모리로 미래 수요 적극 대응 SK하이닉스는 메모리 슈퍼사이클에 대응하기 위해 내년 설비투자 규모를 올해 대비 확대할 계획이다. 최근 장비 반입을 시작한 청주 신규 팹 'M15X'의 경우, 내년부터 HBM 생산량 확대에 기여할 수 있도록 투자를 준비 중이다. 또한 올해부터 건설이 본격화된 용인 1기팹, 미국 인디애나주에 계획 중인 첨단 패키징 팹 등으로 최첨단 인프라 구축에 대한 투자가 지속될 것으로 예상된다. 범용 D램과 낸드는 신규 팹 투자 대신 선단 공정으로의 전환 투자에 집중한다. 1c(6세대 10나노급) D램은 지난해 개발 완료 후 올해 양산을 시작할 예정으로, 내년 본격적인 램프업이 진행된다. SK하이닉스는 "내년 말에는 국내 범용 D램 양산의 절반 이상을 1c D램으로 계획하고 있다"며 "최고의 성능과 원가 경쟁력을 확보한 1c 기반 LPDDR(저전력 D램), GDDR(그래픽 D램) 라인업을 구축하고 적시에 공급해 수익성을 확보할 것"이라고 밝혔다. 낸드도 기존 176단 제품에서 238단, 321단 등으로 선단 공정의 비중을 꾸준히 확대하고 있다. 특히 내년에는 321단 제품에 대해 기존 TLC(트리플레벨셀)를 넘어 QLC(쿼드러플레벨셀)로 라인업을 확장할 계획이다. 내년 말에는 회사 낸드 출하량의 절반 이상을 321단에 할당하는 것이 목표다.

2025.10.29 11:41장경윤 기자

신성이엔지, 클린룸 사업 확장..."EDM, 韓메모리 고객사 평가 완료"

신성이엔지가 반도체 클린룸 사업 영역을 확장한다. 초소형 습도 제어 모듈·내장형 케미컬필터 등을 개발해 올해 국내 주요 반도체 고객사향 퀄(품질) 테스트를 마무리한 것으로 알려졌다. 국내외 반도체 인프라 투자가 활발히 진행되고 있는 만큼 매출 확대 효과가 기대된다. 이영일 신성이엔지 클린환경 사업부문 부사장은 지난 23일 서울 코엑스에서 열린 'SEDEX 2025(반도체대전)' 행사장에서 기자와 만나 회사의 향후 사업 전략에 대해 밝혔다. 신성이엔지는 반도체·디스플레이 제조 공정의 오염도 및 온도 등을 제어하는 클린룸을 주력 사업으로 영위하고 있다. 공기를 정화하는 FFU(팬필터유닛)와 장비에 부착하는 EFU(장비 팬필터유닛) 등이 대표적인 제품이다. 나아가 신성이엔지는 EDM(장비제습모듈)으로 클린룸 사업 확장에 나선다. EDM은 반도체 공정 상에서 EFEM(웨이퍼 이송 장비) 내부 및 상부에 부착돼, 웨이퍼 표면의 습도를 제어한다. 기존에는 공정 장비의 습도 제어를 위해 배관 등 여러 부품이 필요했으나, EDM은 소형 내장형 모듈로 사용성이 매우 편리하다는 장점이 있다. 신성이엔지는 3년 전부터 EDM 개발을 시작해, 올해 상반기 국내 주요 메모리 고객사향으로 양산 퀄 인증을 받았다. 국내외 복수의 주요 전공정 장비업체와도 공급 논의를 적극 진행 중이다. 이 부사장은 "반도체 공정의 미세화로 습도 제어에 대한 필요성이 높아지면서, 2년 전부터 관련 기술에 대한 고객사들의 문의가 많아졌다"며 "1세대 EDM은 이미 일부 제품이 고객사에 도입돼 있고, 2세대 제품도 내년 상반기를 목표로 개발하고 있다"고 설명했다. ICF(내장형 케미컬필터)도 최근 반도체 분야에서 괄목할 만한 성과를 거뒀다. ICF는 클린룸 상단에 위치한 FFU에 탑재돼, 각종 유해가스를 제거하는 케미컬필터다. 기존 FFU 상부에 위치해있던 방식 대비 약 300mm가량 두께를 줄일 수 있다. 덕분에 ICF를 활용하면 층고 간섭물에 대한 설치 유연성을 확보할 수 있고, 공기 흐름 개선으로 운전 에너지를 저감할 수 있게 된다. 이 부사장은 "ICF는 디스플레이 산업에 우선 적용돼, 주요 메모리 고객사향으로도 평가는 완료했다"며 "올해부터 반도체 산업으로도 양산 공급이 시작될 것"이라고 밝혔다. 클린룸 시장 전망에 대해서는 내년과 내후년까지 긍정적인 흐름이 이어질 것으로 내다봤다. 국내 주요 고객사들이 메모리 재고 감소로 신규 및 전환 투자를 진행하고 있고, 미국 등 해외 팹 건설 프로젝트도 진행되고 있기 때문이다. 이 부사장은 "반도체 산업에서 당분간 인프라 투자가 활발히 진행될 것으로 예상한다"며 "또한 클린룸 내 에너지 소모량 저감, 장비 내 AI 기술 적용으로 에너지 효율성을 높이는 기술 등을 고객사와 논의하고 있어, 중장기적으로 매출 증대 효과를 거둘 수 있을 것"이라고 강조했다.

2025.10.27 08:47장경윤 기자

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

코스피, 사상 첫 6000선 마감…시총 5000조원 돌파

최진일 이마트24, ‘체류형 점포’ 승부수...만년 4위 꼬리표 뗄까

민희진 "나와 뉴진스 있어야할 곳은 무대...모든 분쟁 끝내자"

자사주 소각 의무화 동시에 육천피…주주 웃고 재계는 속앓이

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.