• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'반도체 인프라'통합검색 결과 입니다. (36건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

딥엑스, CES 2026서 '피지컬AI 인프라 기업' 비전 제시

저전력·고성능 AI 반도체 기업 딥엑스는 내달 미국 라스베이거스에서 열리는 'CES 2026'에 참가해 피지컬 AI 시장을 주도할 AI 인프라 기업으로서의 새로운 청사진을 공개한다고 30일 밝혔다. 딥엑스는 이번 CES 2026을 통해 대한민국이 메모리 반도체 강국을 넘어 시스템 및 AI 반도체 분야에서도 글로벌 리더십을 확보할 수 있음을 증명하고, 피지컬 AI 시대의 필수 인프라 기업으로 도약하겠다는 비전을 제시한다. 현재 대한민국이 'AI 3대 강국'을 목표로 산업 전환을 가속화하는 가운데, 딥엑스는 독보적인 기술력과 실질적인 성과를 바탕으로 국가 경쟁력을 높이는 핵심적인 역할을 수행하고 있다. 과거 CPU 시대에 저전력 기술로 시장을 재편한 Arm처럼, 딥엑스는 로봇·모빌리티·스마트시티 등 피지컬 AI 분야에서 에너지 효율과 실시간성을 갖춘 초저전력·고성능 AI 반도체로 새로운 글로벌 표준을 만들어가고 있다. 이러한 딥엑스의 행보는 대한민국 AI 반도체 산업이 기술적 주도권과 신뢰를 확보하는 중요한 이정표가 될 전망이다. 이번 CES에서 가장 주목해야 할 점은 딥엑스의 제품이 시장에서 실질적인 혁신을 증명했다는 것이다. 딥엑스는 자체적으로 혁신상 2관왕(컴퓨팅 하드웨어/임베디드 기술)을 달성했을 뿐만 아니라, 미국 파트너사 식스팹(Sixfab)이 딥엑스의 1세대 칩 'DX-M1'을 탑재한 'ALPON X5'로 CES 최고 영예인 최고 혁신상(Best of Innovation)을 수상하는 쾌거를 이뤘다. 이는 딥엑스의 솔루션이 단순한 부품 공급을 넘어, 글로벌 파트너사의 제품을 세계 최고 수준으로 끌어올리는 '핵심 동력'이자 '게임 체인저'임을 입증한 결정적 사건으로 평가 받는다. 딥엑스는 라스베이거스 컨벤션센터(LVCC) 노스홀(North Hall) AI·로보틱스 구역에 독립 부스를 마련하고, 양산 단계의 제품이 적용된 로봇, 드론, 공장 자동화, 리테일 등 다양한 산업 현장 솔루션을 실시간으로 시연한다. 관람객들은 이를 통해 피지컬 AI가 개념 단계를 넘어 이미 상용화 단계에 진입했음을 확인할 수 있다. 특히 2나노 공정 기반의 차세대 AI 반도체 'DX-M2'의 개발 현황과 핵심 성능 목표도 처음으로 공개한다. DX-M2는 데이터센터 중심 AI가 직면한 전력 소모와 확장성 한계를 근본적으로 해결하기 위해 설계된 차세대 피지컬 AI 시대를 위한 인프라 칩이다. 또한 바이두의 패들패들(PaddlePaddle), 미국 울트라라이틱스(Ultralytics)의 YOLO 생태계와 함께하는 '오픈소스 피지컬 AI 얼라이언스' 협력 내용도 소개하며, 하드웨어와 소프트웨어를 아우르는 글로벌 전략을 선보인다.

2025.12.30 10:43장경윤

일본, 반도체·AI 지원 예산 4배 확대…기술 경쟁력 강화 박차

일본 정부가 차세대 기술 경쟁력 확보를 위해 반도체와 인공지능(AI) 산업 지원 예산을 대폭 늘리는 방안을 마련했다. 2026 회계연도 예산안에서 칩 및 AI 관련 지원을 기존보다 약 4배 규모로 확대하는 내용이 포함됐다. 블룸버그는 일본 내각이 총지출 약 122조3천억 엔(약 7천850억 달러) 규모의 2026 회계연도 예산안을 승인했다고 26일 보도했다. 그간 일본은 보통 추가경정예산 형태로 일시적인 지원을 해왔으나, 앞으로는 정규 예산에서 지속적이고 안정적인 투자가 이뤄질 전망이다. 산업통상자원부(METI)의 예산은 전년 대비 약 50% 증가한 3조7천억 엔가량으로 확대됐다. 이 중 상당 부분은 반도체 제조 역량 강화와 AI 연구 개발, 데이터 인프라 구축 등에 투입될 예정이다. 반도체 분야에서는 정부가 지원하는 국책 반도체 벤처 라피더스에 1천500억 엔이 추가로 책정되는 등 국내 제조 경쟁력 강화에 방점을 찍었다. AI 분야에서는 기초 AI 모델 개발, 데이터 인프라 강화, 로봇·물류 등 물리 AI(Physical AI) 기술 지원에 약 3천873억 엔이 배정됐다. 이번 예산 확대는 미국과 중국 간 기술 경쟁이 치열해지는 가운데 일본이 핵심 기술 주도권 확보를 위한 움직임을 강화하고 있다는 신호로 해석된다. 미·중 양대 기술 강국의 투자 확대 속에서 일본 정부는 국내 산업 생태계의 기술 주권 확보와 공급망 강화를 우선 과제로 삼고 있다. 예산안은 향후 국회 심의를 거쳐 최종 확정될 예정이며, 일본 정부는 이를 통해 반도체와 AI 기술 분야에서 장기적인 경쟁력을 확보할 계획이다.

2025.12.28 11:38전화평

래블업 "인간 지능 대체 시도 활발…수직 통합·오픈 생태계 해법으로"

래블업이 인간의 지능을 대체하고자 하는 시도가 활발하게 일어나는 현 시점에 기술적 문제의 해결법으로 수직 통합과 대규모 오픈 생태계 진입을 제시했다. 김준기 래블업 최고기술책임자(CTO)는 11일 서울 중구 신라호텔에서 열린 'ACC 2025'에서 "AI 기술이 등장하면서 이전에는 슈퍼컴퓨터를 동원해야만 계산할 수 있었던 연산들이 적은 개수의 서버로 수행할 수 있게 되면서 AI 모델이 저정밀도 환경에서도 잘 작동한다는 깨달음을 얻게 됐다"며 "고도화된 AI 모델을 만들고 이를 통해 인간의 지능을 대체하는 시도들이 활발하게 일어나고 있는 게 현재 시점"이라고 말했다. 'ACC 2025'는 지디넷코리아가 주관·주최하고 과학기술정보통신부, 래블업, 네이버 등이 후원하는 컨퍼런스다. 이 자리에서 김 CTO는 "경제적인 동인에 따라 그래픽처리장치(GPU)의 아키텍처가 점점 빈틈없이 메워지기 시작했다"며 "이전에는 인간의 고유한 지적 활동으로 취급됐던 지능이 산업적 측면에서 재화나 물품으로 취급될 수 있다는 시각이 나왔다"고 설명했다. 또 그는 이 과정에서 고장 등의 현실적인 문제가 발생했으나, 래블업은 이같은 컴퓨팅 인프라를 관리하는 데 필요한 여러 기술적 어려움과 고민들을 숨겨주는 것을 목표로 하고 있다고 언급했다. 이를 위해 이 회사는 오픈소스 개발 단계에서 여러 엔터프라이즈 확장 기능을 붙이는 방식을 추구하고 있다. 또 간단한 PC 스케일부터 클라우드까지 가능한 일관된 경험을 제공하는 것을 목표로 개발을 이어가고 있는 상황이다. 김 CTO는 "다양한 층위에서 사실 공통된 원리들이 적용되는데 이를 시스템 디자인에 얼마나 잘 녹여낼 수 있느냐에 대한 고민을 많이 하고 있다"며 "보안에 대한 문제도 고민 중"이라고 말했다. 그는 기술적으로 아무리 복잡한 문제를 해결했어도 이를 실제 고객에게 공급하고 기술 지원을 할 것이냐는 어려운 문제라고 토로했다. 김 CTO는 "기술적 관점에서 가능한 수직 통합을 해 모든 요소를 우리 통제 하에 두겠다는 것이 하나의 방향"이라며 "요즘 고민하는 것은 어느 정도 안정성 등이 검증된 대규모 오픈 생태계인 '거인의 어깨'에 올라타는 전략"이라고 언급했다. 다만 래블업은 AI 시장이 이제 시작 단계에 있다고 보고 다양한 특화 환경에 맞는 AI 반도체 등장을 염두에 두고 특정 벤더에 종속되지 않는 형태의 디자인에 대한 개발을 내부적으로 이어오고 있다고 강조했다. 김 CTO는 "지능 인프라를 공급하는 회사로 다양한 기술적 문제를 해결해나가고 있다"며 "이런 부분이 여러분들의 의사결정과 연구개발에 도움이 됐으면 좋겠다"고 밝혔다.

2025.12.11 16:53박서린

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평

김주영 하이퍼엑셀 대표, 팹리스산업 유공자 '중기부 장관상' 수상

AI 반도체 스타트업 하이퍼엑셀은 김주영 대표이사가 지난달 26일 열린 '2025 K-팹리스 테크포럼 & 제3회 팹리스인의 날'에서 팹리스 산업 유공자 부문 '중소벤처기업부 장관상'을 수상했다고 2일 밝혔다. 이번 포상은 팹리스 산업 생태계 혁신과 기술 자립에 기여한 기업과 인물을 선정하는 최고 권위의 정부 포상이다. 김 대표는 창업 이후 세계 최초 LLM 추론 특화 반도체 'LPU(LLM Processing Unit)'를 독자 개발하고 상용화를 성공적으로 이끌며, 국내 팹리스 기술 경쟁력 강화와 AI 반도체 기술 자립에 기여한 공로를 인정받아 중소벤처기업부 장관상을 수상했다. 특히 LPU 기반의 고성능·저전력 반도체 구축으로 해외 GPU 중심 인프라 의존도를 낮추고, 국산 AI 인프라 구축과 디지털 전환 생태계 조성에 초석을 마련한 점이 이번 수상의 핵심 근거가 됐다. 대규모 언어모델(LLM) 추론에 최적화된 LPU 아키텍처는 높은 에너지 효율성과 가격 경쟁력을 갖춘 차세대 반도체 기술로 주목받고 있다. 또한 하이퍼엑셀은 전문 연구·엔지니어링 인력을 적극 채용·육성하며 반도체 및 AI 산업의 인재 생태계 강화에 기여하고 있다. AI 반도체, 시스템 설계, 소프트웨어·플랫폼 등 전 영역의 전문 인력을 확보함으로써 국내 반도체 산업의 지속적 성장 기반을 마련하고 있다. 하이퍼엑셀은 이번 수상을 계기로 차세대 LPU 기술을 중심으로 국산 AI 반도체 및 AI 인프라 생태계 확장에 속도를 높이며, 대한민국 AI 기술 경쟁력 강화와 지속 가능한 혁신을 선도해 나갈 계획이다. 김주영 대표는 “국산 LPU 반도체 기술의 잠재력과 산업적 가치를 국가적으로 인정받은 뜻깊은 상”이라며 “한국 팹리스 산업이 글로벌 경쟁력을 갖출 수 있도록 연구개발과 상용화에 더욱 박차를 가하겠다”고 말했다.

2025.12.02 09:48전화평

[현장] 국산 AI 반도체·클라우드 결합 '시동'…국가 인프라 강화 선언

국산 인공지능(AI) 반도체와 클라우드 산업의 융합이 궤도에 올랐다. 초거대 AI 시대를 맞아 국가 인프라의 근간이 되는 클라우드가 스마트화와 지능형 자원 운영이라는 새로운 전환점을 맞이하면서 국산 기술 중심의 풀스택 생태계 구축이 본격화되고 있다. 오픈K클라우드 커뮤니티는 25일 서울 강남 과학기술회관에서 '오픈K클라우드 데브데이 2025'를 열고 국산 AI 반도체와 클라우드 융합 전략을 공유했다. 오픈K클라우드 커뮤니티에는 한국전자통신연구원(ETRI), 한국전자기술연구원(KETI), 이노그리드, 오케스트로, 경희대학교, 연세대학교, 한국클라우드산업협회(KACI), 퓨리오사AI 등 산·학·연 주요 기관이 공동 참여한다. 이번 행사는 커뮤니티의 첫 공식 기술 교류 행사로, 국산 AI 반도체를 중심으로 한 클라우드·소프트웨어(SW) 전주기 기술을 한자리에서 조망하며 국가 AI 인프라 경쟁력 제고 방안을 논의했다. ETRI 최현화 박사는 "이제 AI 서비스의 경쟁력은 모델을 누가 더 잘 만드느냐보다 누가 더 나은 인프라로 지속적으로 운영하느냐가 핵심"이라고 강조하며 클라우드의 대전환기를 진단했다. 최 박사는 최근 글로벌 거대언어모델(LLM) 발전의 특징을 멀티모달 확장, 컨텍스트 윈도우의 급격한 증가, 툴 연동 기반 정확도 향상으로 정리했다. 특히 메타가 공개한 오픈소스 LLM '라마'의 컨텍스트 윈도우가 1천만 토큰 수준으로 확장된 점을 언급했다. 그는 이러한 추세 속에서 국내 클라우드 산업이 ▲AI 가속기 이질성의 심화 ▲메모리 병목 문제 ▲추론 비용의 급증 ▲에이전트 폭증에 따른 관리 복잡도 증가 등 여러 난제를 동시에 마주하고 있다고 짚었다. 가장 먼저 꼽힌 것은 AI 가속기의 이질성 문제다. 엔비디아 그래픽처리장치(GPU) 중심 생태계가 유지되고 있지만 국내외에서 신경망처리장치(NPU)·AI칩·메모리 내 연산(PIM) 등 다양한 가속기와 인터커넥트 기술이 빠르게 등장하면서 단일 아키텍처에 의존하는 방식은 지속 가능하지 않다는 지적이다. 이어 LLM 추론의 핵심 병목으로 작용하는 '메모리 월'도 문제로 제기됐다. GPU 성능이 가파르게 증가하는 동안 메모리 기술 향상 속도는 더디기 때문이다. 최 박사는 SK하이닉스의 'AiMX', CXL 기반 차세대 메모리 사례를 언급하며 "AI 추론은 본질적으로 메모리 중심 작업이기에 차세대 메모리가 성능의 핵심을 좌우하게 될 것"이라고 말했다. LLM 스케일링 문제 역시 중요한 도전 과제로 다뤄졌다. 사용자 요구는 계속 높아지지만 단일 모델의 크기 확장에는 한계가 있어 여러 전문가 모델을 조합하는 '전문가 혼합(MoE)' 방식이 중요한 돌파구가 될 것이라고 강조했다. AI 모델마다 강점이 다른 만큼 다중 LLM 기반 지능형 추론은 필연적인 흐름이라는 설명이다. 추론 비용 문제도 빠지지 않았다. 최 박사는 "엔비디아 B200 급 GPU의 전력 소비가 1킬로와트(kW)에 이르는데, 이러한 DGX 서버 100대를 하루 운영하면 테슬라 전기차로 지구를 일곱 바퀴 도는 전력량에 해당한다"고 설명했다. 그러면서 "전력·비용 최적화는 하드웨어(HW) 스펙뿐 아니라 스케줄링, 클러스터 재구성이 필수"라고 말했다. 또 LLM·에이전트·데이터소스가 동적으로 연결되는 시대가 되면서 모니터링 복잡성이 기하급수적으로 커지고 있다는 점도 지적했다. 기존에는 레이턴시와 처리량을 중심으로 모니터링했다면 이제는 LLM의 할루시네이션 여부, 에이전트 간 호출 관계, 로직 변경 이력까지 관측해야 안정적 운영이 가능하다는 것이다. 이 같은 문제를 해결하기 위해 ETRI는 과학기술정보통신부가 추진하는 'AI 반도체 클라우드 플랫폼 구축 및 최적화 기술 개발' 과제에 참여했다. 이를 통해 ▲이종 AI 반도체 관리 ▲클라우드 오케스트레이션 ▲자동 디바이스 감지 ▲협상 기반 스케줄링 ▲국산 NPU 특화 관측 기술을 포함한 오픈소스형 '오픈K클라우드 플랫폼'을 개발 중이다. ETRI는 5년간 진행되는 사업에서 2027년 파라미터 규모 640억 LLM, 2029년 3천200억 LLM 지원을 목표로 풀스택 AI 클라우드 생태계를 구축할 계획이다. 오픈K클라우드 커뮤니티에 참여하는 퓨리오사AI, 이노그리드, 오케스트로도 이날 국산 AI 반도체와 클라우드 융합 생태계 활성화를 위한 기술 전략을 발표했다. 퓨리오사AI 이병찬 수석은 엔비디아 의존을 극복하기 위해 전력·운영 효율성을 높인 '레니게이드' 칩과 SW 스택을 소개했다. 이노그리드 김바울 수석은 다양한 반도체가 혼재된 클라우드 구조를 성능·전력·비용 최적화로 통합한 옵저버빌리티의 전략을 공유했다. 오케스트로 박의규 소장은 자연어 요구 기반 코딩과 자동화된 테스트·배포를 지원하는 에이전트형 AI SW 개발환경(IDE) 트렌드와 국내 시장의 변화에 대해 발표했다. 최 박사는 "앞으로 오픈K클라우드 플랫폼을 통해 국산 AI 반도체가 국가 핵심 인프라에 적용될 수 있는 계기를 만들겠다"고 강조했다. 이어 "아직 확정은 아니지만 정부가 추진하는 '국가AI컴퓨팅센터' 사업에 우리 플랫폼을 탑재할 수 있는 계기를 만들 것"이라며 "국산 AI 반도체 실사용자의 요구사항을 반영해 레퍼런스를 쌓아가는 것이 목표"라고 덧붙였다.

2025.11.25 17:10한정호

신성이엔지, ESG 평가 A등급 획득...지속가능경영 경쟁력 입증

신성이엔지는 국내 대표 ESG 평가기관인 서스틴베스트로부터 '2025년 하반기 ESG 평가' A등급을 획득했다고 24일 밝혔다. C등급을 중앙값으로 하는 평가 체계에서 업종 평균을 크게 상회했고, 외부 공시와 실제 이행 간의 일치도를 중시하는 ESG 평가에서 실질적 개선과 정량 지표 성과가 두드러진 기업으로 인정받았다. 환경(E) 부문에서는 주요 반도체 인프라 장비를 에너지 절감형으로 연구·개발·생산하며 산업 현장의 에너지 소모 저감에 기여한 점이 주목받았다. 용인스마트팩토리를 태양광 전력과 ESS(에너지저장장치) 기반으로 운영해 공장 가동 전력의 상당 부분을 친환경 에너지로 전환했다. 모든 회사 차량을 전기차로 전환해 Scope 1·2 탄소배출을 저감한 점도 높은 평가를 받았다. 사회(S) 부문에서는 안전품질환경체계 고도화, 온열질환 예방, 외국인 근로자 대상 다국어 안전보건교육 등 현장 중심 개선이 주목받았다. 지역 저소득층 대상 커피차 기부, 임직원 플로깅 활동 정례화 등 지역사회 공헌 확대도 인정받았다. 지배구조(G) 부문에서는 자발적 감사위원회 설치를 통한 내부 통제 강화와 기업지배구조보고서 준수율 제고로 투명경영 수준을 높였다. 영문 공시, 유튜브 실적발표, IR 페이지 Q&A 등 투자자 이해 증진을 위한 활동에도 노력하고 있다. 신성이엔지 관계자는 "ESG 경영은 리스크 관리에서 그치지 않고 이를 개선해 실질적인 사업 기여로 이어져야 한다"며 "앞으로도 체계를 단계적으로 수립·실행하며 평가 등급을 높이고, 모든 임직원이 ESG 경영에 참여할 수 있도록 노력하겠다"고 밝혔다. 한편 신성이엔지는 전체 1천299개 기업 중 387위, 업종 내 18위를 기록하며 환경·사회·지배구조 전 부문에서 업종 평균을 상회했다.

2025.11.24 09:43장경윤

"AI의 심장은 데이터센터"…지능형 인프라가 여는 차세대 AI 시대

“오늘날 데이터센터는 단순한 인프라가 아니라 지능의 심장부로 진화하고 있습니다.” 이중연 KTNF 대표는 12일 서울 강남구 그랜드인터컨티넨탈 파르나스에서 열린 인공지능반도체조찬포럼에서 이같이 밝혔다. 그는 “AI가 폭발적으로 발전하면서 이제 데이터센터는 단순히 데이터를 저장하고 처리하는 공간이 아니라, 지능형 컴퓨팅의 중심으로 재정의되고 있다”고 강조했다. KTNF는 2002년에 설립된 서버 전문 개발 및 제조 기업이다. 자체 기술력으로 국산 서버를 직접 설계·제조한 뒤 공급한다. 이 대표는 AI 시대의 데이터센터가 직면한 가장 큰 도전으로 전력, 냉각, 자원 활용 효율을 꼽았다. GPT-4 학습에 수만 개의 CPU가 투입될 정도로 연산 수요가 급증하지만, 기존 인프라는 이를 감당하지 못한다는 것이다. 그는 “AI가 요구하는 연산 밀도와 속도를 지원하려면 기존 설계의 한계를 뛰어넘는 새로운 구조가 필요하다”고 말했다. 이 대표가 제시한 해법은 'AI 특화형 데이터센터 모델'이다. 이 모델은 CPU, GPU, MPU 등 다양한 가속기를 CXL(컴퓨트 익스프레스 링크) 기반으로 연결해 자원을 실시간 공유하고 자동으로 최적화할 수 있는 구조다. 이를 통해 대규모 모델 학습과 추론을 효율적으로 처리하면서도 전력 낭비를 최소화할 수 있다. 그는 “에너지 효율적이면서도 지능적으로 확산되는 차세대 AI 데이터센터를 통해 AI가 더 빠르고 더 안전하며 더 지속 가능하게 성장하는 세상을 만들어야 한다”고 전했다. 냉각 기술의 혁신도 AI 데이터센터 구성의 중요 요소로 꼽았다. 특히 DLC(직접 액체 냉각) 기술의 필요성을 강조했다. DLC는 서버나 GPU 같은 발열 부품 표면에 냉각수를 직접 순환시켜 냉각하는 방식이다. 공냉식 대비 열 제거 효율이 최대 10배 이상 높다. 이 대표는 “고밀도 AI 서버는 전력뿐 아니라 열이 성능의 한계를 결정짓는 요소가 됐다”며 “냉각 효율이 곧 연산 효율로 이어지는 시대에 전력과 냉각은 AI 인프라의 생명선”이라고 강조했다. 보안이 AI 데이터센터 구현의 문턱이 될 것으로 내다봤다. 그가 제시한 해법은 물리적 보안 체계다. 현재 시장에서는 반도체 미세 불균일성을 이용한 PUF(물리적 복제 방지 기능)기술과 QRNG(양자 난수 생성기), PQC(양자내성암호)를 AI 데이터센터를 위한 차세대 보안 요소로 보고 있다. 이 기술은 칩 자체가 고유한 '전기적 지문'을 갖도록 만들어 복제나 위·변조를 원천 차단한다. 이 대표는 “AI가 스스로 학습하고 판단하는 만큼, 그 기반이 되는 하드웨어의 신뢰성이 중요하다”고 말했다. 이 대표는 또 AI 인프라를 위해 시스템을 구축해야 한다고 전했다. 그는 “AI 인프라의 핵심은 이제 연산 속도나 저장 용량이 아니라, 얼마나 지능적으로 자원을 관리하고 얼마나 신뢰할 수 있는 시스템을 갖추느냐에 달려 있다”고 강조했다. 이어 “국산 AI 반도체와 지능형 인프라 기술을 융합해 한국형 데이터센터 모델을 발전시켜 나가겠다”며 “AI가 AI를 위한 인프라를 설계하는 시대를 준비하겠다”고 덧붙였다.

2025.11.12 13:40전화평

SK하이닉스 "이제 메모리는 조합의 시대…커스텀 HBM·HBF에 기회"

"인공지능(AI) 시대에 메모리는 기존 천편일률적인 구조를 벗어나, 각 기능에 맞춘 메모리를 최적의 방식으로 조합하는 것이 중요해지고 있다. 이 과정에서 커스텀 고대역폭메모리(HBM), 컴퓨트익스프레스링크(CXL), 고대역폭플래시(HBF) 등이 기회를 맞게 될 것이다." 박경 SK하이닉스 담당은 4일 오전 서울 코엑스에서 열린 'SK AI 서밋 2025'에서 회사의 메모리 사업 전략에 대해 이같이 밝혔다. 메모리, 향후 기능별로 분업화…최적의 조합 만들어야 이날 'AI 서비스 인프라의 진화와 메모리의 역할'을 주제로 발표를 진행한 박 담당은 AI 인프라 투자 확대에 따른 메모리 시장의 높은 성장세를 강조했다. 발표된 자료에 따르면, 글로벌 AI 데이터센터 시장 규모는 올해 2천560억 달러에서 2030년 8천230억 달러로 연평균 26% 증가할 것으로 예상된다. 이에 따라 D램은 서버 및 HBM(고대역폭메모리)를 중심으로, 낸드는 eSSD(기업용 SSD)를 중심으로 수요가 크게 늘어날 전망이다. 또한 AI 경쟁의 축이 기존의 학습에서 추론으로 이동하면서, 요구되는 메모리의 양도 급격히 증가하는 추세다. 추론 과정에서 KV(키-값) 캐시가 매 요청마다 생성되고 누적되면서, 메모리 용량과 대역폭을 상당 부분 소모하기 때문이다. KV 캐시는 키-값 구조로 데이터를 저장하는 캐시 시스템이다. 이전 연산 결과를 재활용해 추론 속도를 높이는 데 활용된다. 박 담당은 "AI 추론에서는 주어진 문장에 포함된 토큰 수와 사용자의 수에 따라 KV 캐시가 급증하는 것이 변수"라며 "이 KV 캐시로 촉발되는 메모리 요구량을 어떻게 잘 대응하느냐가 추론 시대에서 가장 중요한 화두가 될 것"이라고 설명했다. 때문에 SK하이닉스는 전체 시스템 내에서 가용되는 메모리의 성능 및 용량, 구성 방식이 AI 추론의 효율을 결정짓는 요소가 될 것으로 보고 있다. 특히 기존에는 메모리가 일반화된 계측 구조를 갖췄다면, 향후에는 기능별로 분업화된 메모리를 최적화된 구조로 조합하는 것이 핵심이 될 것으로 내다봤다. '풀 스택 AI 메모리' 전략…커스텀 HBM·HBF 등 두각 대표적인 사례가 엔비디아의 칩이다. 엔비디아는 루빈(Rubin) GPU에는 HBM4를, 베라(Vera) CPU에는 LPDDR5X(저전력 D램)를, 루빈 CPX(AI 추론에서 문맥 처리에 특화된 전용 가속기)에는 GDDR7(그래픽 D램)을 채용해 하나의 시스템을 구성하고 있다. 박 담당은 "예전에는 x86 CPU에 D램과 낸드를 붙이는 천편일률적인 메모리 구조가 지배적이었으나, 이제는 기능별로 메모리를 배치해야 하는 조합의 시대로 바뀌고 있다"며 "이 상황에서 메모리 공급사는 단순히 메모리 용량을 더 많이 제공하는 것이 아닌, 고객사 칩 성능에 따라 가장 효율적인 메모리 조합을 제시할 수 있어야 한다"고 강조했다. 이에 SK하이닉스는 '풀 스택 AI 메모리 크리에이터'라는 개념으로 AI 메모리 제품군을 적극 확장하고 있다. HBM4E부터 커스텀 HBM 공급을 준비 중이며, 기존 D램을 고객사 요구에 맞춰 더 세분화된 제품으로 개발하고 있다. 낸드 역시 초고성능과 대역폭, 초고용량 등 세 가지 방향에 맞춰 맞춤형 제품을 개발 중이다. 샌디스크와 협업해 개발 중인 HBF가 대표적인 사례다. HBF는 D램을 수직으로 여러 개 적층하는 HBM(고대역폭메모리)와 유사하게, 낸드를 여러 층 적층해 메모리 대역폭을 끌어올린 차세대 메모리다.

2025.11.04 13:27장경윤

"메모리, 공급 자체가 병목화"…최태원 회장, '통 큰' 투자 결의

SK그룹이 폭발적인 AI 수요 성장세에 대응하기 위해 적극적인 설비투자·기술개발을 진행한다. HBM(고대역폭메모리) 양산을 담당할 신규 'M15X' 팹에 장비 반입을 시작한 가운데, 오는 2027년에는 용인 클러스터를 오픈해 생산능력을 지속 확충할 계획이다. 최태원 SK그룹 회장은 3일 'SK AI 서밋 2025' 기조연설에서 "용인 클러스터는 완성 시 M15X 팹 24개가 동시에 들어서는 것과 같은 규모"라며 "상당히 많은 설비투자액을 요구하지만 공급부족 현상을 최대한 막아보려고 한다"고 밝혔다. AI 수요 폭발적…"메모리, 성능 아닌 공급 자체가 병목화" 이날 'AI의 지금과 다음(AI Now & Next)'을 주제로 발표를 진행한 최 회장은 "AI 데이터센터 투자 규모는 2020년 2천300억 달러에서 올해 6천억 달러로 매년 24% 증가해 왔다"며 "앞으로는 빅테크 및 신규 기업들의 투자로 인해 AI 인프라 투자가 이전보다 더 폭발적으로 성장할 확률이 존재한다"고 강조했다. AI 수요 성장세에 대한 근거는 매우 다양하다. 최 회장은 ▲AI 추론의 본격화 ▲B2B 영역의 본격적인 AI 도입 ▲에이전트 AI의 등장 ▲소버린 AI 경쟁 등이다. 그러나 컴퓨팅 파워 공급은 AI 수요의 성장세를 따라가지 못하고 있다. 특히 AI 구현에 필수적인 GPU 등 시스템반도체, HBM(고대역폭메모리)와 같은 서버용 메모리도 병목현상을 겪고 있다. 최 회장은 "예전에는 GPU 하나에 HBM 하나를 연결했으나, 지금은 HBM 연결이 12개 이상까지 늘어나는 등 메모리 칩의 공급량을 전례 없이 빠른 속도로 소진시키고 있다"며 "이 여파가 기존 범용 메모리에도 영향을 주면서, 이제는 성능이 아닌 공급 자체가 병목화되고 있다"고 설명했다. 그는 이어 "요즘 너무 많은 기업으로부터 메모리 칩 공급 요청을 받고 있어 당사가 어떻게 소화하냐가 하나의 걱정"이라며 "공급 문제를 해결하지 못하면 고객사가 사업 자체를 못 하는 상황에 접어들 수 있어 책임감을 가지고 있다"고 덧붙였다. 설비투자에 주력…"용인 클러스터, M15X 팹 24개와 맞먹는 규모" 이에 고객사들은 안정적인 메모리 수급 전략에 총력을 기울이고 있다. 챗GPT의 창시자인 오픈AI가 지난달 초 SK하이닉스·삼성전자와 전방위적 협력을 체결하며 월 90만장 수준의 HBM 공급을 요구한 것이 대표적인 사례다. 해당 수준은 현재 기준 전 세계 HBM 생산량 총합의 2배 규모에 해당한다. 최 회장은 "샘 올트먼 오픈AI CEO도 미래 AI 주도권을 확보하려면 HBM 병목현상이 가장 핵심 요소임을 잘 알고 있다"며 "이 문제를 해결하려면 설비투자(CAPEX)와 기술 관점에서 접근해야 한다"고 설명했다. 설비투자의 경우, SK하이닉스는 최근 청주에 HBM 양산을 주력으로 담당할 'M15X' 팹의 설비반입을 시작했다. 이 공장은 내년부터 본격 가동될 예정이다. 또한 오는 2027년에는 용인 클러스터 팹을 오픈할 계획이다. 용인 클러스터는 총 4개 팹으로 구성되며, 각 팹이 6개의 M15X 팹을 합친 것과 같은 대규모로 조성된다. 최 회장은 "용인 클러스터가 다 완성되면 24개의 청주 M15X 팹이 동시에 들어가는 것과 같은 생산능력을 확보하게 된다"며 "계속 장비를 도입해 수요에 대비할 수 있도록 하고 있고, 상당히 많은 투자를 요하지만 최소한 공급 부족 현상을 막을 수 있도록 하겠다"고 말했다. 기술 측면에서는 초고용량 메모리 칩을 개발하거나, 상대적으로 저렴하면서도 데이터 저장력이 뛰어난 낸드의 개념을 도입하는 방식 등을 추진하고 있다. 최 회장은 "젠슨 황 엔비디아 CEO조차도 이제는 저에게 더 이상 개발 속도에 대해 이야기하지 않는다"며 "SK하이닉스의 기술력이 이미 업계에서 어느 정도 증명이 됐다고 생각한다"고 밝혔다.

2025.11.03 12:49장경윤

엔비디아와 손잡은 팀네이버…이해진 "AI·클라우드로 산업 도약 지원"

팀네이버는 산업 현장의 AI 전환을 지원하기 위해 주력 사업을 중심으로 AI 인프라를 구축하고 피지컬 AI 개발을 하고자 엔비디아와 함께 힘을 합친다. 이해진 네이버 이사회 의장은 31일 경북 경주 화백컨벤션센터(HICO)에서 열린 이재명 대통령과 젠슨 황 엔비디아 최고경영자(CEO)와의 접견에 함께 참석했다. 이 자리에서 이 의장은 모두발언을 통해 “자동차의 SDV 전환이 보여주듯이 AI가 실제 산업 현장과 시스템 속에서 작동하는 '피지컬 AI'의 시대가 열리고 있다”며 “네이버는 AI와 클라우드 기술로 기업이 데이터를 더 잘 활용하고, 산업이 한 단계 더 도약할 수 있도록 지원하겠다”고 말했다. 이번 협력은 AI 기술의 산업 현장 확장을 가속화하고, 제조 산업 전반의 디지털 전환을 구체화하는 계기가 될 전망이다. 이를 위해 네이버클라우드는 엔비디아와 업무협약(MOU)를 맺고 현실 공간과 디지털 공간을 유기적으로 연결하는 차세대 '피지컬 AI' 플랫폼을 공동 개발하고, 반도체·조선·에너지 등 국가 주력 산업을 중심으로 AI 인프라를 구축해 산업 현장의 AI 활용을 지원할 계획이다. 네이버클라우드는 이를 통해 ▲조선 ▲에너지 ▲바이오 등 주요 산업별 특화 AI 적용 모델을 발굴하고 확산을 주도해 산업 현장에 최적화된 AI 기술이 빠르게 자리 잡을 수 있도록 한다는 방침이다. 산업별 적용을 가능하게 하는 기술적 기반은 바로 '피지컬 AI 플랫폼'이다. 양사는 네이버클라우드의 디지털 트윈·로보틱스 등 차세대 기술 역량과 엔비디아의 '옴니버스', '아이작 심' 등 3D 시뮬레이션·로보틱스 플랫폼을 결합해 현실 산업 환경을 가상 공간에서 정밀하게 재현하고, AI가 ▲분석 ▲판단 ▲제어를 지원할 수 있는 구조로 피지컬 AI 플랫폼을 구현해 나갈 예정이다. 이번 협력은 네이버클라우드가 제시한 '소버린 AI 2.0' 비전을 실제로 구현하기 위한 첫 단계다. 기존 소버린 AI가 자국의 언어와 문화 중심의 AI 모델과 생태계를 구축해 기술 주권 확보에 초점을 맞췄다면, 소버린 AI 2.0은 이를 국가 핵심 산업과 일상 전반으로 확장해 국가 경쟁력을 높이는 방향으로 발전한 개념이다. 네이버클라우드는 이 비전을 구체화하기 위해 ▲하이퍼클로바 X 모델 오픈소스 공개 ▲국가 AI 프로젝트 연계 ▲AI 인재 양성 프로그램 운영 등을 추진하며, 산업·학계·연구기관 전반의 협력 생태계 조성에도 힘쓰고 있다. 김유원 네이버클라우드 대표는 “이번 협력은 AI 기술이 산업 현장의 생산성과 안전, 효율을 실질적으로 끌어올리는 '피지컬 AI 시대'의 출발점이 될 것”이라며 “하이퍼스케일 AI 인프라와 클라우드 운영 역량을 기반으로 디지털 트윈과 로보틱스 기술을 결합해 산업 현장의 경쟁력을 강화하고 국내 제조 산업의 AI 혁신을 함께 이끌어가는 신뢰받는 기술 파트너가 되겠다”고 강조했다.

2025.10.31 15:00박서린

11.3조원 쏜 SK하이닉스, 내년도 HBM·D램·낸드 모두 '훈풍'

올 3분기 사상 최대 분기 실적을 거둔 SK하이닉스가 내년에도 성장세를 자신했다. 메모리 산업이 AI 주도로 구조적인 '슈퍼사이클'을 맞이했고, 핵심 사업인 HBM(고대역폭메모리)도 주요 고객사와 내년 공급 협의를 성공적으로 마쳤기 때문이다. 이에 SK하이닉스는 내년 설비투자 규모를 올해 대비 확대하고, HBM과 범용 D램, 낸드 모두 차세대 제품의 생산능력 비중 확대를 추진하는 등 수요 확대에 대응하기 위한 준비에 나섰다. 29일 SK하이닉스는 3분기 실적발표를 통해 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 밝혔다. 창사 이래 최대 실적…'메모리 슈퍼사이클' 이어진다 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. 또한 분기 기준 역대 최대 실적으로, 영업이익이 창사 이래 최초로 10조원을 넘어섰다. 호실적의 주요 배경에는 AI 중심의 메모리 슈퍼사이클 효과가 있다. AI 인프라 투자에 따른 데이터센터 및 일반 서버 수요가 확대되면서, D램과 낸드 모두 수요가 빠르게 증가하는 추세다. 특히 주요 메모리 공급사들이 HBM(고대역폭메모리) 양산에 생산능력을 상당 부분 할당하면서, 범용 D램의 수급이 타이트해졌다는 분석이다. SK하이닉스는 "HBM뿐 아니라 일반 D램·낸드 생산능력도 사실상 완판 상태”라며 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 밝혔다. 메모리 사업에도 근본적인 변화가 감지된다. AI가 단순히 새로운 응용처의 창출을 넘어, 기존 제품군에도 AI 기능 추가로 수요 구조 전체를 바꾸고 있다는 설명이다. SK하이닉스는 "이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습에서 추론으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 말했다. 이에 따라 SK하이닉스는 내년 서버 세트 출하량을 전년 대비 10% 후반 증가로 예상하고 있다. 전체 D램 빗그로스(출하량 증가율)은 내년 20% 이상, 낸드 빗그로스는 10% 후반으로 매우 높은 수준을 제시했다. HBM, 내후년까지 공급 부족 전망 SK하이닉스는 이번 실적발표 컨퍼런스콜을 통해 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 내년 엔비디아향 HBM 공급 계획도 순조롭게 진행될 것으로 전망된다. SK하이닉스는 "내년도 HBM 공급 계약을 최종 확정지었고, 가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"며 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"고 밝혔다. HBM4(6세대 HBM)는 올 4분기부터 출하를 시작해, 내년 본격적인 판매 확대에 나설 계획이다. HBM4는 엔비디아가 내년 출시할 차세대 AI 가속기 '루빈'에 탑재될 예정으로, 이전 세대 대비 I/O(입출력단자) 수가 2배로 확장되는 등 성능이 대폭 향상됐다. 또한 엔비디아의 요구로 최대 동작 속도도 이전 대비 빨라진 것으로 알려졌다. SK하이닉스는 "당사는 HBM 1위 기술력으로 고객사 요구 스펙에 충족하며 대응 중"이라며 "업계에서 가장 빠르게 고객 요구에 맞춘 샘플을 제공했고, 대량 공급도 시작할 준비가 돼 있다"고 강조했다. 설비투자·차세대 메모리로 미래 수요 적극 대응 SK하이닉스는 메모리 슈퍼사이클에 대응하기 위해 내년 설비투자 규모를 올해 대비 확대할 계획이다. 최근 장비 반입을 시작한 청주 신규 팹 'M15X'의 경우, 내년부터 HBM 생산량 확대에 기여할 수 있도록 투자를 준비 중이다. 또한 올해부터 건설이 본격화된 용인 1기팹, 미국 인디애나주에 계획 중인 첨단 패키징 팹 등으로 최첨단 인프라 구축에 대한 투자가 지속될 것으로 예상된다. 범용 D램과 낸드는 신규 팹 투자 대신 선단 공정으로의 전환 투자에 집중한다. 1c(6세대 10나노급) D램은 지난해 개발 완료 후 올해 양산을 시작할 예정으로, 내년 본격적인 램프업이 진행된다. SK하이닉스는 "내년 말에는 국내 범용 D램 양산의 절반 이상을 1c D램으로 계획하고 있다"며 "최고의 성능과 원가 경쟁력을 확보한 1c 기반 LPDDR(저전력 D램), GDDR(그래픽 D램) 라인업을 구축하고 적시에 공급해 수익성을 확보할 것"이라고 밝혔다. 낸드도 기존 176단 제품에서 238단, 321단 등으로 선단 공정의 비중을 꾸준히 확대하고 있다. 특히 내년에는 321단 제품에 대해 기존 TLC(트리플레벨셀)를 넘어 QLC(쿼드러플레벨셀)로 라인업을 확장할 계획이다. 내년 말에는 회사 낸드 출하량의 절반 이상을 321단에 할당하는 것이 목표다.

2025.10.29 11:41장경윤

신성이엔지, 클린룸 사업 확장..."EDM, 韓메모리 고객사 평가 완료"

신성이엔지가 반도체 클린룸 사업 영역을 확장한다. 초소형 습도 제어 모듈·내장형 케미컬필터 등을 개발해 올해 국내 주요 반도체 고객사향 퀄(품질) 테스트를 마무리한 것으로 알려졌다. 국내외 반도체 인프라 투자가 활발히 진행되고 있는 만큼 매출 확대 효과가 기대된다. 이영일 신성이엔지 클린환경 사업부문 부사장은 지난 23일 서울 코엑스에서 열린 'SEDEX 2025(반도체대전)' 행사장에서 기자와 만나 회사의 향후 사업 전략에 대해 밝혔다. 신성이엔지는 반도체·디스플레이 제조 공정의 오염도 및 온도 등을 제어하는 클린룸을 주력 사업으로 영위하고 있다. 공기를 정화하는 FFU(팬필터유닛)와 장비에 부착하는 EFU(장비 팬필터유닛) 등이 대표적인 제품이다. 나아가 신성이엔지는 EDM(장비제습모듈)으로 클린룸 사업 확장에 나선다. EDM은 반도체 공정 상에서 EFEM(웨이퍼 이송 장비) 내부 및 상부에 부착돼, 웨이퍼 표면의 습도를 제어한다. 기존에는 공정 장비의 습도 제어를 위해 배관 등 여러 부품이 필요했으나, EDM은 소형 내장형 모듈로 사용성이 매우 편리하다는 장점이 있다. 신성이엔지는 3년 전부터 EDM 개발을 시작해, 올해 상반기 국내 주요 메모리 고객사향으로 양산 퀄 인증을 받았다. 국내외 복수의 주요 전공정 장비업체와도 공급 논의를 적극 진행 중이다. 이 부사장은 "반도체 공정의 미세화로 습도 제어에 대한 필요성이 높아지면서, 2년 전부터 관련 기술에 대한 고객사들의 문의가 많아졌다"며 "1세대 EDM은 이미 일부 제품이 고객사에 도입돼 있고, 2세대 제품도 내년 상반기를 목표로 개발하고 있다"고 설명했다. ICF(내장형 케미컬필터)도 최근 반도체 분야에서 괄목할 만한 성과를 거뒀다. ICF는 클린룸 상단에 위치한 FFU에 탑재돼, 각종 유해가스를 제거하는 케미컬필터다. 기존 FFU 상부에 위치해있던 방식 대비 약 300mm가량 두께를 줄일 수 있다. 덕분에 ICF를 활용하면 층고 간섭물에 대한 설치 유연성을 확보할 수 있고, 공기 흐름 개선으로 운전 에너지를 저감할 수 있게 된다. 이 부사장은 "ICF는 디스플레이 산업에 우선 적용돼, 주요 메모리 고객사향으로도 평가는 완료했다"며 "올해부터 반도체 산업으로도 양산 공급이 시작될 것"이라고 밝혔다. 클린룸 시장 전망에 대해서는 내년과 내후년까지 긍정적인 흐름이 이어질 것으로 내다봤다. 국내 주요 고객사들이 메모리 재고 감소로 신규 및 전환 투자를 진행하고 있고, 미국 등 해외 팹 건설 프로젝트도 진행되고 있기 때문이다. 이 부사장은 "반도체 산업에서 당분간 인프라 투자가 활발히 진행될 것으로 예상한다"며 "또한 클린룸 내 에너지 소모량 저감, 장비 내 AI 기술 적용으로 에너지 효율성을 높이는 기술 등을 고객사와 논의하고 있어, 중장기적으로 매출 증대 효과를 거둘 수 있을 것"이라고 강조했다.

2025.10.27 08:47장경윤

리벨리온-Arm, 차세대 AI인프라 솔루션 협력 강화

AI반도체 스타트업 리벨리온이 미국 캘리포니아 산호세에서 열린 개방형 데이터센터 기술 컨퍼런스인 'OCP 글로벌 서밋 2025'에서 'Arm 토탈 디자인(ATD)' 파트너로 공식 합류했다고 20일 밝혔다. 이는 지난 9월 시리즈 C 투자 라운드에서 Arm의 전략적 투자를 유치한 데 이어, 양사가 차세대 AI 인프라 개발과 상용화 협력을 한층 강화하는 행보다. ATD는 '네오버스 CSS' 기반 맞춤형 시스템 개발을 가속화하기 위해 구성된 글로벌 협력 생태계다. 리벨리온은 AI반도체 스타트업으로는 최초로 ATD 파트너로 합류해, 우수한 연상 성능과 에너지 효율성을 갖춘 AI데이터센터 수요에 함께 대응한다. 네오버스 CSS는 Arm의 칩 설계 인프라 개발을 위한 플랫폼이다. 리벨리온은 최근 공개한 리벨쿼드(REBEL-Quad)로 칩렛 기반 AI 반도체 설계 역량을 입증했으며, 이를 토대로 리벨 아키텍처 중심의 제품 로드맵을 확대하고 있다. 이러한 기술력을 기반으로 Arm과 협력해 ATD 생태계에서 고성능·저전력 AI 반도체를 차세대 AI 데이터센터 인프라에 적용할 계획이다. 이 과정에서 Arm의 네오버스 CSS는 리벨리온의 AI 반도체와 자연스럽게 통합되어, 확장성과 에너지 효율을 갖춘 인프라 구현을 뒷받침한다. 이번 협력은 단순한 기술 제휴를 넘어 양사의 전략적 파트너십으로 이어지고 있다. Arm은 리벨리온의 시리즈 C 투자에 참여하며 협력 관계를 한층 강화했고, 이를 기반으로 생성형 AI 워크로드에 최적화된 솔루션을 공동 개발한다는 계획이다. ATD 합류 역시 이러한 협력의 연장선에 있으며, 양사는 앞으로도 AI 데이터센터 분야 전반에서 긴밀한 파트너십을 지속해 나갈 예정이다. 에디 라미레즈 Arm 인프라 사업부 부사장은 “AI 연산 수요가 급격히 증가하는 가운데, 더 빠르고 효율적이며 확장가능한 인프라는 필수 조건이 되었다”며, “리벨리온의 ATD 합류를 통해 검증된 Arm 네오버스 CSS와 리벨리온의 AI반도체가 결합해, AI 인프라 혁신의 새로운 장을 열 것”이라고 말했다. 박성현 리벨리온 대표는 “이번 ATD 파트너 합류는 리벨리온이 고성능·저전력 AI 반도체 솔루션을 차세대 인프라 수요에 맞춰 확장할 수 있는 중요한 계기”라며, “앞으로 출시될 리벨 시리즈에도 Arm의 검증된 네오버스(Neoverse) CSS를 적용해, 대규모 데이터센터에 최적화된 솔루션을 제공하고 고객이 성능과 지속가능성을 모두 확보할 수 있도록 지원하겠다”고 밝혔다.

2025.10.20 10:40전화평

신성이엔지, '반도체 대전'서 클린룸 초격차 위한 차세대 장비 공개

신성이엔지는 오는 22일부터 24일까지 서울 코엑스에서 열리는 '반도체 대전(SEDEX 2025)'에 참가해 첨단 클린룸 솔루션을 선보인다고 20일 밝혔다. 신성이엔지는 1977년부터 클린룸 공조 분야를 개척해온 기업으로, 국내 최초로 산업용 공기청정기(FFU)를 국산화한 이후 반도체·디스플레이 클린룸 핵심 파트너로 성장했다. 현재는 국내를 넘어 말레이시아 텍사스인스트루먼트와 미국 반도체 팹 프로젝트 등 사업을 확대하며 글로벌 시장에서 입지를 강화하고 있다. 이번 전시에서는 기존 청정 장비에 제습 기능을 더한 차세대 장비가 공개된다. 고도화된 반도체 공정에 특화된 이 장비는 습도 감지 센서와 자동 제어 시스템으로 팹 내 공기 중 수분을 제거하고 일정한 습도를 유지한다. 이를 통해 웨이퍼 부식과 회로 이상을 예방하고 수율 향상에 기여한다. HPL(High Performance Lift)도 선보인다. 이 장비는 클린룸 천장 시공 시 고소 작업을 지상 모듈화 방식으로 전환해 안전성을 크게 높였다. 작업대 범위를 확장하고 상부 설비를 동시에 시공할 수 있어 공정을 단축시킨다. 이를 통해 고객사의 팹 시공 기간과 비용을 절감하며, 안전사고 예방으로 ESG 경영에도 이바지한다. 이외에도 ▲레이저와 고감도 카메라로 미세 입자를 실시간 시각화하는 미립자 가시화 시스템 ▲외부 공기를 정화해 안정적인 클린룸 환경을 조성하는 OAC(Outdoor Air Control Unit) ▲유해가스 제거와 청정 기능을 강화하면서 에너지를 절감하는 ICF(Internal Chemical Filter FFU) 등 다양한 혁신 장비가 전시된다. 신성이엔지 관계자는 "이번 전시는 당사의 클린룸 초격차 기술을 직접 확인할 수 있는 기회"라며 "첨단 반도체 분야의 클린룸 사업을 넘어 데이터센터를 포함한 HVAC(냉난방 공조 인프라) 분야로 사업 영역을 확장하며, 글로벌 시장에서 선도적인 솔루션 기업으로 성장하고 있다"고 밝혔다. 한편 신성이엔지는 산업통상자원부와 에너지평가기술원이 지원하는 '산업용 고청정 설비 초고효율화 기술개발 및 실증 사업' 주관기관으로 선정되어 기술 경쟁력을 입증한 바 있다. 이 프로젝트를 통해 클린룸 에너지 사용량을 20% 이상 절감하고 탄소중립 실현에 기여할 계획이다.

2025.10.20 09:18장경윤

美, UAE에 엔비디아 반도체 수출 승인…양국 AI 협력 가속화

엔비디아가 아랍에미리트(UAE)로 고성능 GPU를 수출할 수 있게 됐다. 미국·아랍에미리트간 AI 인프라 구축을 위한 동맹 관계가 강화된 데 따른 수혜로 풀이된다. 블룸버그통신은 미국 상무부가 지난 5월 타결된 미국·아랍에미리트 양자 AI 협정에 따라 엔비디아에 AI 반도체 수출 허가증을 발급했다고 9일(현지시간) 보도했다. 블룸버그는 사안에 정통한 소식통을 인용해 "당국은 고객사 명시를 거부했으나, 승인된 수출 건은 오라클을 포함한 미국 기업의 아랍에미리트 현지 투자 프로젝트를 위한 것"이라며 "G42와 같은 아랍에미리트 기업들에 대한 허가는 발급되지 않았다"고 설명했다. 이번 조치는 도날드 트럼프 미국 대통령 취임 이후 걸프 지역에 엔비디아 AI 반도체 판매 허가를 허가한 첫 사례다. 앞서 미국은 지난 5월 아랍에미리트와 수도 아부다비에 5GW(기가와트)급 데이터센터 건설을 위한 협약을 체결한 바 있다. 해당 프로젝트는 오픈AI를 비롯해 오라클, 시스코, 소프트뱅크, G42 등 주요 빅테크 기업들이 함께 참여한다. 아랍에미리트 역시 향후 10년간 미국에 1조4천억 달러에 달하는 거금을 투자하겠다는 계획을 세우는 등, 미국과의 AI 인프라 투자 협력을 강화하고 있다. 한편 엔디비아의 아랍에미리트향 GPU 수출 허가증이 발급되는 시기는 아직 불분명한 것으로 알려졌다. 블룸버그는 "허가 시기는 아랍에미리트의 구체적인 투자 계획이 어떻게 전개되는 지에 따라 달라질 것"이라고 밝혔다.

2025.10.10 14:46장경윤

정명수 파네시아 "한국형 CXL 기반 '판 링크'로 AI 인프라 혁신"

[대전=전화평 기자] "파네시아(Panmnesia)는 CXL(컴퓨트익스프레스링크)로부터 시작해서 한국형 종합 링크 기술을 만드는 걸 목표로 하고 있습니다." 정명수 파네시아 대표는 지디넷코리아와의 인터뷰에서 "AI 장치 및 가속기 간 연결은 결국 링크가 포인트인데 한국은 연결 반도체 기술이 없다"며 이 같이 말했다. 파네시아는 차세대 AI 인프라를 위한 링크 솔루션을 개발하는 시스템 반도체 스타트업으로, 지난 2022년 설립됐다. 회사는 차세대 인터페이스로 주목되는 CXL을 베이스로 AI 인프라 최적화를 위한 솔루션을 개발하고 있다. 파네시아, 한국형 연결 기술 '판 링크'로 AI 인프라 구축한다 파네시아가 제안한 한국형 연결 기술인 '판 링크(PanLink)'는 대규모 AI를 위한 풀스택 인프라 솔루션이다. 회사의 고도화된 링크 기술의 집약체로 IP(설계자산)부터 하드웨어, 소프트웨어 시스템까지 포괄해 AI 인프라 구축 확장을 돕는다. 이 과정에서 네트워크 연결 없이 1천개 이상의 가속기나 메모리 장치들을 한꺼번에 연결할 수 있다. 정 대표는 "판 링크는 파네시아 링크의 줄임말"이라며 "대규모 AI 모델을 처리하는 과정에서 GPU, 그리고 가속 시스템 장치들 간 빈번하게 발생하는 데이터 교환을 최적화하는 하드웨어와 소프트웨어 스택을 제공한다"고 설명했다. 그러면서 "초대규모 AI 응용을 처리함에 있어 저지연·고대역폭을 달성할 수 있다"고 덧붙였다. 파네시아가 한국형 링크 기술인 판 링크를 제안한 배경에는 AI 인프라 시장의 확장성 제한에 있다. 현재 시장 주류 기술인 대형 스케일 구조는 GPU 간 확장성에 제한되고, 병렬 처리 과정에서 병목이 발생한다. 이를 해결하기 위해서는 CPU, GPU, 메모리 간 연결이 자유로운 구조가 필요하다. 정 대표는 판 링크를 통해 가속기 링크와 차세대 링크들을 통합하는 '하이브리드 링크 아키텍처' 방식도 제안했다. 이 아키텍처는 NV링크(NVLInk), UA링크(UALink) 등으로 연결된 시스템을 CXL 스위치로 연결한다. 하이퍼스케일러 위주로 전환된 시장 변화에 대해서도 강조했다. 현재 전 세계에서 진정한 의미의 하이퍼스케일러라고 할 수 있는 클라우드와 데이터센터 업체는 아마존, 구글, 마이크로소프트, 메타까지 총 4개에 불과하다. 하이퍼스케일러는 방대하고 유연하게 컴퓨팅 인프라를 확장할 수 있는 아키텍처나 역량을 갖춘 거대 클라우드 및 데이터센터 서비스 제공업체를 뜻한다. 일반적인 서버 업체는 개별 서버나 작은 규모의 호스팅 서비스를 제공하는 반면, 하이퍼스케일러는 수십만 대의 서버를 운영하며 방대한 클라우드 인프라를 구축하는 것이다. 정 대표는 "반도체 업체는 셀 수 없는 많은 양의 대중이 고객으로 있다가 아주 똑똑한 하이퍼스케일러 4명 밖에 없는 상황으로 바뀌게 됐다"며 "마켓 자체가 달라진 것"이라고 말했다. 이어 "대부분의 반도체 뿐만 아니라 연결 기술에 대해 얘기를 할 때도 하이퍼스케일러가 나올 수 밖에 없는 이유"라고 덧붙였다. CXL, 다음 시장은 차량용...로보틱스에도 적용 가능 AI 시대로 패러다임이 전환되며 서버의 속도는 경쟁력과 직결되기 시작했다. CPU, GPU, 메모리 간 데이터 전송 속도를 획기적으로 높여주는 CXL이 서버를 중심으로 시장이 확장되는 이유다. 다만 그간 CXL은 서버 외 시장에서는 외면 받아왔다. PC, 모바일 등 소형 기기에는 추가 비용 대비 효율이 좋지 않은 탓이다. 아울러 CXL을 활용하기 위한 하드웨어 추가 비용 역시 간과할 수 없다. 정 대표는 지금까지 서버 시장 안에 갇혀 있던 CXL이 차량용으로도 가능하다고 전했다. 그는 "자동차는 기본적으로 장거리 네트워크를 제거하면서도 운전 중 취합되는 개인 정보의 보안을 철저히 지킬 수 있는 링크가 필요하다"며 "차량에서도 소프트웨어를 최대한 배제하면서 검증이 가능하고 에러가 적은 수준으로 만드는 링크 기술이 포함될 수 있다"고 말했다. 해당 기술은 로보틱스에서도 활용 가능하다. 기본적으로 자율주행 등 차량용 칩은 로봇에 탑재되는 칩과 유사한 형태를 띈다. 자동차용 칩은 결국 로봇에도 탑재 가능한 셈이다. 정 대표는 "로봇이나 우리가 피지컬 AI라고 부르는 것들에 (CXL이) 들어갈 수 있다"며 "작은 로보틱스 안에서 뭔가 계산을 한 다음에 서로 간에 교환을 해야 하는 상황에서 캐시일관성 규칙에 따라 데이터 이동이 없는 CXL을 활용하여 저전력·고효율의 시스템을 구축할 수 있다"고 설명했다. "젊은 엔지니어 많아져야...같이 하는 사람들의 성공을 만드는 게 중요" 정 대표는 파네시아를 통해 젊은 엔지니어들과 경험을 공유할 수 있는 환경을 만드는 게 목표라고 말한다. 그는 "다른 영역과 달리 반도체는 돈이 천문적으로 많이 들어가는 일"이라며 "원가 비용이 몇 천억원인 경우도 많다. 리스크가 크다 보니 사실 기회의 공유가 젊은 분들에게 잘 일어나지 않으며 지역 편차가 매우 크다"고 밝혔다. 파네시아는 반도체 업체로는 유일하게 서울에 팹리스 오피스 그리고 대전에 실리콘 연구·설계 오피스들을 모두 운영하고 있다. 이 중 대전을 중심으로 실리콘 인력을 대거 확충함에 따라 국내에서 하나 뿐인 지방 중심의 반도체 디자인하우스 모델을 만들고 있다. 이를 통해 중앙-지방간 균형 뿐만 아니라 고비용으로 인한 반도체 개발 경험의 기회가 부재한 젊은 엔지니어들을 많이 뽑고 육성하는데 최선을 다하고 있다. 정 대표는 "비경험자(젊은 엔지니어)가 경험자가 될 수 있도록 만들어 주는 것이 파네시아가 가지고 있는 중요한 역할"이라며 "지역 균형 발전과 더불어 아직 경험이 부족한 젊은 엔지니어들에게 기회를 제공하고, 함께하는 모든 이들의 성공을 이루고 싶다"고 포부를 전했다.

2025.09.20 14:21전화평

'국가AI컴퓨팅센터' 구축 재도전…정부, GPU 5만장 확보 나선다

국가 차원의 인공지능(AI) 전략 컨트롤타워인 국가AI전략위원회가 공식 출범하면서 정부가 'AI 고속도로' 구축을 위한 '국가AI컴퓨팅센터' 추진 방안을 발표했다. 앞선 두 차례 공모가 유찰되며 표류했던 사업이 민간 참여 확대와 조건 완화를 통해 재추진되면서 업계 관심이 다시 집중될 전망이다. 과학기술정보통신부는 8일 서울스퀘어에서 열린 국가AI전략위원회 출범식 및 제1차 전체회의에서 '국가 AI컴퓨팅센터 추진 방안'을 공개하며 국가AI컴퓨팅센터 구축을 위한 사업 공모에 착수한다고 발표했다. 정부는 이번 사업을 통해 2028년까지 첨단 그래픽처리장치(GPU) 1만5천 장 이상을 확보하고 민관 협력으로 2030년까지 총 5만 장 이상을 마련할 계획이다. 이 AI컴퓨팅 인프라를 기반으로 AI 모델 개발과 서비스 제공을 뒷받침한다는 목표다. 앞서 올 상반기 진행된 1·2차 공모는 ▲민관합작 특수목적법인(SPC) 설립 시 공공지분 51% 고정 ▲센터 청산 시 기업의 정부 지분 매수청구권(바이백) ▲2030년까지 국산 AI 반도체 50% 이상 도입 의무 등 민간에 불리한 조건이 걸림돌이 되며 모두 유찰됐다. 이에 정부는 이번 추진 방안에서 민간 지분을 70% 이상으로 확대하고 공공지분은 30% 미만으로 낮춰 경영 자율성을 보장했다. 또 매수청구권은 삭제하고 국산 AI 반도체 도입 의무도 없애 민간이 자율적으로 지원 방안을 제시하도록 했다. 대신 국책은행은 원금 우선 회수가 가능한 우선주 형태로 참여해 초기 투자 위험을 분담하기로 했다. 정부는 이번 방안에 정책적 지원책도 대거 담았다. 우선 정부 재정사업 추진 시 GPU 자원이 필요한 경우 국가AI컴퓨팅 센터 활용을 우선 검토하도록 해 초기 수요를 확보할 방침이다. 또 통합투자세액공제 비율을 기존 1~10%에서 최대 25%까지 확대하고 전력계통영향평가를 신속 처리해 기업의 인프라 구축 부담을 줄이기로 했다. 아울러 친환경·무탄소 에너지 사용 시 평가에서 가점을 부여하는 등 지속가능성도 강조했다. 센터 구축 방식과 입지는 민간이 제안하도록 하되 지역 균형발전을 위해 비수도권으로 제한된다. 서비스와 요금도 민간 주도로 운영하지만, 대학·연구소·스타트업 등 산학연 지원 방안을 반드시 포함해야 하며 2027년 이전 조기 개시 시 가점을 부여한다. 특히 국산 AI 반도체 활성화와 글로벌 기업 협력은 필수 과제로, 민간이 가능한 최적의 방안을 제시해야 하고 이는 평가에 반영된다. 정부는 별도로 올해 2천528억원 규모의 국산 AI 반도체 연구개발(R&D)과 실증·사업화 예산을 투입해 초기 시장 활성화를 지원한다. 이번 사업자 선정은 1단계 기술·정책 평가와 2단계 금융 심사를 거쳐 진행된다. 컨소시엄에는 반드시 데이터센터와 AI 컴퓨팅 서비스 기업이 포함돼야 하며 복수 클라우드·통신사 컨소시엄이 우대된다. 사업 공모는 8일부터 다음 달 21일까지 진행되며 참여계획서는 다음 달 20~21일 접수한다. 과기정통부는 12월까지 평가와 금융 심사를 마치고 내년 상반기 SPC 설립과 2028년까지 센터 개소를 목표로 하고 있다. 배경훈 과기정통부 장관은 "첨단 GPU 5만 장을 조속히 확보해 AI 생태계 활성화를 위한 기폭제로 활용하고자 한다"며 "향후 국가AI컴퓨팅센터가 AI 모델·서비스, 첨단 AI 반도체 등 AI 생태계 성장의 플랫폼이자 AI 고속도로의 핵심 거점으로서 AI 3대 강국 도약을 뒷받침할 것으로 기대한다"고 밝혔다.

2025.09.08 15:26한정호

서버용 AI칩, 향후 5년간 성장세 견조…"370兆 규모 성장"

글로벌 빅테크의 AI 인프라 투자가 지속됨에 따라, 관련 시스템반도체 시장도 향후 5년간 견조한 성장세를 기록할 전망이다. 30일 시장조사업체 옴디아에 따르면 AI 데이터센터용 프로세서 시장은 오는 2030년 2천860억 달러(한화 약 370조원)에 도달할 것으로 분석된다. 현재 AI용 시스템반도체 시장은 미국 엔비디아가 주도하고 있다. 이 회사는 오랜 시간 쌓아올린 GPU 기술력을 토대로, AI 데이터센터에 최적화된 고성능 AI 가속기를 개발하고 있다. 엔비디아의 주요 경쟁사인 AMD 역시 AI 가속기 시장 확대에 열을 올리고 있다. 아울러 글로벌 CSP(클라우드서비스제공자) 기업들은 AI 데이터센터를 위한 자체 주문형반도체(ASIC) 개발에 뛰어들고 있다. 구글의 TPU(텐서처리장치) '아이언우드', AWS(아마존웹서비스)의 '트레이니엄', 화웨이 '어센드(Ascend)' 등이 대표적인 사례다. 이에 따라 GPU 및 AI 가속기 시장 규모는 지난해 1천230억 달러에서 올해 2천70억 달러로 약 67% 성장할 전망이다. 나아가 오는 2030년에는 2천860억 달러에 도달할 것으로 예상된다. 카운터포인트리서치는 "데이터 센터향 투자에서 AI 인프라 지출이 차지하는 비중은 내년 정점을 찍고 이후 점차 완화될 것"이라며 "주된 성장 요인은 AI 애플리케이션 확산과 추론 모델에 대한 수요 증가 등"이라고 설명했다. 젠슨 황 엔비디아 CEO 역시 최근 진행된 실적발표에서 "AI 가속기에 대한 CSP 기업들의 단기, 중기 수요는 모두 강력하다"며 "2030년까지 3조~4조 달러 규모의 AI 인프라 투자가 진행될 전망"이라고 밝힌 바 있다.

2025.08.30 14:02장경윤

SK하이닉스, 사회공헌에도 AI 접목…"지역사회 행복 최우선"

지난 70여 년간 세 차례의 산업 전환을 통해 괄목할 만한 성장을 이뤄온 SK그룹이 인공지능(AI) 인프라를 바탕으로 '4번째 퀀텀 점프'에 나섰다. 1953년 섬유업으로 시작한 이후, 석유화학(1980년), 이동통신(1994년), 반도체(2012년)에 이은 네 번째 도전이다. 이제 SK는 AI를 그룹의 차세대 성장 축으로 삼아 미래 산업 지형을 새롭게 그리고 있다. 앞서 SK는 지난 6월 열린 SK 경영전략회의에서 AI, 첨단 반도체 등 국가 핵심 산업 분야에 대규모 투자를 진행한다고 밝힌 바 있다. 여기에는 SK하이닉스가 주도하는 반도체 밸류체인을 비롯해, 데이터센터, 에너지 설루션 등 전략 산업을 중심으로 미래 성장을 도모한다는 전략이 담겼다. 이 자리에서는 AI를 중심으로 한 그룹 차원의 신성장 전략과 계열사 간 시너지 방안도 논의됐다. 이처럼 SK그룹은 AI를 전사적 혁신을 이끄는 핵심 동력으로 삼고 있다. SK하이닉스, SK텔레콤, SK가스, SK이노베이션 등 주요 계열사가 공동으로 추진 중인 '울산 AI 데이터센터' 프로젝트가 대표적인 사례다. 인프라, 에너지, 반도체 등 각 사의 AI 역량을 결집해, 전 사업군에 확장 가능한 새로운 사업 모델을 구상하고 있다. 이에 따라 SK하이닉스 역시 AI 전환 가속화를 통해 본원적 경쟁력 강화에 집중하고 있다. 향후 5년간 총 103조 원을 투자해 반도체 경쟁력을 높일 계획이며, 이 중 약 80%인 82조 원을 HBM(고대역폭메모리)을 포함한 AI 메모리 관련 사업에 집중 투입할 예정이다. 이러한 노력은 사회적 가치 창출로도 확장되고 있다. SK하이닉스는 AI 기술을 사회 문제 해결에 활용하는 'AI 기반 사회공헌'으로 CSR(Corporate Social Responsibility) 전략을 전환하고 있다. 이는 기술 혁신과 사회적 책임을 결합해, 기업의 역할을 재정의하고, 기술과 사회적 가치가 선순환하는 구조를 구축하기 위함이다. SK하이닉스는 용인 클러스터 시대를 앞두고 이천, 청주, 용인, 안성, 여주, 광주 등 인근 지역을 중심으로 지역사회 협력을 확대하고 있다. AI 선도기업으로서 지역의 행복을 핵심 가치로 삼고, 보다 선제적이고 밀도 있는 사회공헌 활동을 펼쳐 나갈 계획이다. 특히 회사는 '인류를 위한 AI, 사람을 향한 CSR'이라는 사회공헌 비전을 제시하며, ▲AI 혁신 주도 인재 양성 ▲AI 대응형 사회안전망 구축 ▲AI/Tech & 사람이 함께 만드는 사회 변화 플랫폼이라는 세 가지 핵심 영역에 중점을 둘 방침이다. SK하이닉스 김정일 부사장(대외협력 담당)은 “AI 중심의 경영 전략과 기술 전환에 맞춰 사회공헌 또한 근본적 변화가 필요한 시점”이라며, “앞으로 SK하이닉스는 모든 사회공헌에 AI를 접목해 실효성 높은 'AI 기반 사회공헌' 모델을 만들어가겠다”고 강조했다. 이달 25일부터 26일까지 서울 코엑스에서 열리는 '제2회 대한민국 사회적가치 페스타'에서, SK하이닉스는 AI 기반 사회공헌 활동과 사회적 가치 창출 사례를 소개한다. 이번 행사는 '지속가능한 미래를 디자인하다(Designing the Sustainable Future)'를 주제로 다양한 SK 계열사와 사회적 가치 생태계의 주요 이해관계자들이 참여해 협력과 확장의 가능성을 모색할 예정이다. SK하이닉스는 전시 부스를 통해 AI 기술을 접목한 사회공헌 모델을 선보인다. ▲사회문제 해결 주체들의 역량을 강화하는 교육 프로그램 'AI for Impact' ▲이주민의 자립을 지원하는 AI 기반 일자리 창출 모델 'AI 데이터플래닛(어노테이터 양성)' ▲고령화 사회를 위한 디지털 복지 실험 'ICT 해피에이징' ▲청년 창업을 지원하는 사회혁신 플랫폼 'SPARK(청년창업파크) 공모 사업' 등, 기술을 매개로 다양한 방식의 사회적 기여를 구현한 사례들을 공유할 계획이다. 또한 포럼에서는 SK하이닉스와 마이크로소프트, (재)숲과나눔이 협력한 'AI for Impact' 교육 프로그램의 우수 사례도 발표된다. ▲지역 맞춤형 발전전략 보고서를 자동 생성하는 공공 데이터 분석 루션(소셜벤처 비커넥트랩) ▲기후지표종을 판독해 생태 변화를 모니터링하는 AI 기술(상명대 박사과정 백종원) ▲전기차 배터리의 잔존가치를 진단하는 분석 서비스(단국대 석사졸 우지현) 등, 일상 속 문제 해결에 AI를 접목한 다양한 프로젝트가 소개될 예정이다. SK하이닉스는 “이번 행사를 통해, 기술을 활용한 실질적 사회문제 해결의 가능성을 제시하고, AI·ICT 기술이 사회적 가치 창출에 기여할 수 있는 미래를 함께 모색하겠다”고 밝혔다.

2025.08.19 10:56장경윤

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 역대 최대 매출에도 일회성 비용에 실적 '뒷걸음'

새해벽두 CES 강타한 AI 휴머노이드...미래 산업 전면에

"긴가민가 내 피부타입 ‘올리브영’이 잘 알려준대서..."

두산·현대도 K-AI 반도체 '주목'…팹리스 유망주들과 협력 모색

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.