• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'DGX-A100 GPU'통합검색 결과 입니다. (304건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI칩 전국시대 ①]韓 AI반도체 현주소: '엔비디아 대항마'를 넘어 실전으로

AI 시대의 개막과 함께 반도체 산업의 패러다임이 급변하고 있다. 인공지능 구현에 필수적인 고성능 반도체의 수요가 폭증함에 따라, 엔비디아의 GPU(그래픽처리장치)를 중심으로 한 글로벌 AI 생태계는 그 어느 때보다 공고한 성벽을 쌓아 올렸다. 그러나 최근 AI 시장의 무게추가 모델 학습에서 '추론(Inference)'으로 이동하며 GPU 중심의 시장 구조에 변화의 조짐이 나타나고 있다. 학습에서 추론으로, NPU 시장의 활성화 생성형 AI의 확산은 데이터센터부터 엣지, 온디바이스 전반에 걸쳐 막대한 연산 수요를 창출하고 있다. 초기 시장이 대규모 언어 모델을 학습시키기 위한 GPU 중심이었다면, 이제는 학습된 모델을 실무 서비스에 적용하는 추론 단계가 핵심 경쟁력으로 부상했다. 이 과정에서 AI 연산에 특화된 NPU(신경망처리장치) 시장이 본격적으로 활성화되고 있다. NPU는 범용성을 갖춘 GPU와 달리 AI 알고리즘 처리에 최적화돼 있어, 전력 효율성과 비용 측면에서 압도적인 강점을 가진다. 글로벌 테크 기업들이 효율적인 AI 인프라 구축을 위해 NPU로 눈을 돌리면서, NPU는 GPU의 대안을 넘어 차세대 반도체의 주역으로 자리매김하고 있다. 2026년, 대한민국 AI 반도체 '원년'의 선포 이러한 시장 변곡점에서 국내 AI 반도체 기업들은 글로벌 시장의 주도권을 잡기 위해 총력전을 펼치고 있다. 특히 2026년은 국내 주요 AI 반도체 스타트업들의 기술력이 담긴 칩들이 일제히 시장에 출시되는 시점으로, '한국 AI 반도체의 원년'이라 부르기에 부족함이 없다. 리벨리온, 퓨리오사AI, 딥엑스, 모빌린트 등 국내 기업들은 각기 다른 전략과 포지셔닝을 통해 글로벌 경쟁력 확보에 매진하고 있다. 이들은 단순한 기술 개발을 넘어 시제품(PoC) 단계를 통과하고 실제 양산 및 상용화 단계로 진입하며 실질적인 성과를 증명해야 하는 중요한 기로에 서 있는 셈이다. 기획의 방향: 생존 전략을 위한 SWOT 분석 본 기획은 국내 주요 AI 반도체 및 인프라 기업 7곳을 대상으로 이들의 기술력과 시장 생존 전략을 집중 조명한다. 각 기업의 주력 시장과 포지셔닝, 성능 및 전력 효율성, 그리고 소프트웨어(SW) 경쟁력을 다각도로 분석할 예정이다. 결론적으로, 급변하는 글로벌 공급망 리스크와 양산 과제 속에서 국내 기업들이 가진 강점(Strength), 약점(Weakness), 기회(Opportunity), 위협(Threat) 요인을 면밀히 분석함으로써 대한민국 AI 반도체 산업의 현주소와 미래 가능성을 제시하고자 한다.

2026.02.18 16:00전화평 기자

엔비디아, 메타에 AI칩 수백만개 공급 예정…장기 파트너십 체결

엔비디아가 글로벌 주요 클라우드서비스제공자(CSP) 메타와 장기간·대규모 AI 반도체 공급에 대한 계약을 체결했다. 17일(현지시간) 엔비디아는 메타와 온프레미스, 클라우드 및 AI 인프라에 대한 다년간의 전략적 파트너십을 맺었다고 밝혔다. 이번 협력으로 엔비디아는 메타에 수백만 개의 '블랙웰' 및 '루빈' GPU를 공급할 예정이다. 해당 GPU는 AI 데이터센터에 필요한 초고성능 칩이다. 특히 루빈의 경우, 올해 본격적인 상용화가 예상된다. 또한 메타는 자사 데이터센터에 엔비디아의 그레이스 CPU를 단독으로 도입하기로 했다. 주요 CSP 기업 중 엔비디아의 그레이스 CPU만을 채용한 사례는 이번이 처음이다. 그간 메타는 Arm 기반의 CPU를 자사 AI칩의 보조 프로세서로 활용해 왔다. 이와 관련해 로이터통신은 "고객사향 매출을 공개한 적은 없지만, 메타는 엔비디아의 최근 분기 매출의 61%를 차지하는 4대 CSP 중 하나"라며 "엔비디아가 이번 계약을 강조한 것은 메타와의 대규모 사업 관계 유지와 CPU 시장에서의 입지 강화를 보여주기 위한 것"이라고 평가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "엔비디아는 CPU, GPU, 네트워킹 및 소프트웨어 전반에 걸친 심층적인 공동 설계로 메타가 차세대 AI 인프라를 구축하는 데 필요한 모든 플랫폼을 제공할 것"이라고 말했다. 마크 저커버크 메타 CEO는 "엔비디아와의 파트너십 확대로 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축하고, 전 세계 모든 사람에게 맞춤형 인공지능을 제공하게 돼 기쁘다"고 밝혔다.

2026.02.18 10:10장경윤 기자

경남형 피지컬 AI 시동…엔비디아 B200 품은 제조AI센터 발주

제조 공정 데이터와 실물 설비를 연결하는 피지컬 인공지능(AI)이 차세대 국가 경쟁력으로 부상하는 가운데, 경상남도가 제조업 중심 산업 구조에 특화된 인프라 구축에 나섰다. 고성능 그래픽처리장치(GPU)를 기반으로 한 제조AI 데이터센터를 조성해 도내 중소 제조기업의 AI 전환(AX)을 지원하겠다는 구상이다. 14일 조달청 나라장터에 따르면 경남테크노파크는 경남 제조AI 데이터센터 구축 사업을 발주했다. 총 사업비는 약 56억원 규모로 책정됐다. 사업기간은 계약 체결일로부터 60일로, 비교적 단기간 내 구축을 완료한다는 계획이다. 이번 사업은 지역 주도형 AI 대전환 사업의 일환으로, 공용 GPU 자원을 집적한 데이터센터를 통해 제조 현장에 특화된 AI 학습·추론 환경을 마련하는 것이 핵심이다. 경남 지역 산업 특성과 여건에 맞는 맞춤형 AI센터를 구축하고 공용 GPU 서버 및 엣지컴퓨팅 기반 인프라를 도입해 제조 현장 중심의 AI 서비스를 구현할 전망이다. 특히 고성능 GPU 서버를 중심으로 한 AI 인프라 확충을 통해 도내 중소 제조기업의 AI 활용도를 높이고 서비스 신뢰성을 제고할 계획이다. 사업 범위는 제조AI 및 중소 제조기업 AI 대전환(AX)을 위한 인프라 도입과 데이터센터 구축 전반을 포함한다. 고성능 GPU 서버와 고용량 스토리지 도입, AI 운영 솔루션 구축, 전산실 기반 환경 조성 등이 주요 과업이다. 아울러 기존에 도입된 GPU 서버와 스토리지 등 관련 인프라를 신규 센터로 이전·재배치해 통합 운영 환경을 마련한다. GPU 서버는 10U 랙형 서버 5대로 구성되며 엔비디아 B200 HGX SXM 기반 GPU를 서버당 8개 이상 탑재하도록 요구됐다. 이는 대규모 모델 학습과 분산 연산을 고려한 구성으로, 제조 공정 데이터 분석과 AI 모델 고도화에 대응하기 위한 설계로 풀이된다. 소프트웨어 측면에선 GPU 자원 풀링과 컨테이너 기반 학습·추론 환경을 위한 AI 운영 솔루션이 도입된다. GPU 가상화와 분할 기능을 활용해 단일 대형 모델뿐 아니라 소규모 추론부터 다중 노드 분산 학습까지 폭넓은 워크로드를 소화하기 위한 구조다. 해당 데이터센터는 경남 창원시 의창구 기업연구관 3층에 조성된다. 제안요청서에는 전산실 배치, 이중마루 및 냉복도 컨테인먼트 구성 등 물리적 인프라 요건도 세부적으로 명시됐다. 사업은 계약 이후 세부 수행 계획 수립과 현황 조사, 기반 인프라 구축, 장비 납품·설치, 정보시스템 이전, 통합 시험운영을 거쳐 완료보고 및 검사·검수 단계로 이어진다. 시험운영과 이중화 테스트를 통해 요구 성능 충족 여부를 검증하며 문제 발생 시 교체·증설·보완을 요구할 수 있도록 했다. 특히 기술능력평가 90점, 가격평가 10점 비중으로 종합평가를 실시한다. 기술평가에서는 장비·운용환경 구축, 기반인프라 계획, 정보시스템 이전 방안, 시험 및 안정화, 유지관리 정책 등을 중점적으로 본다. 단순 장비 납품을 넘어 프로젝트 관리 역량과 보안·품질 관리 체계까지 종합 평가 대상이다. 장애 발생 시 4시간 이내 조치 착수, 8시간 이내 복구 등 구체적 대응 기준도 제시돼 운영 안정성을 확보하도록 했다. 업계에선 이번 사업에 GPU 서버·AI 인프라 구축 경험을 보유한 시스템통합(SI) 기업과 데이터센터 전문 업체, 클라우드·AI 플랫폼 기업 등이 관심을 보일 것으로 보고 있다. 특히 엔비디아 B200 HGX 기반 사양이 명시된 만큼 관련 공급 레퍼런스를 확보한 기업 중심의 경쟁이 예상된다. 제조 데이터 특화 AI 운영 역량과 전산실 기반 인프라 구축 경험이 기술평가에서 핵심 변수가 될 것이라는 분석도 나온다. 이번 경남 제조AI데이터센터 구축은 단순한 GPU 집적 사업을 넘어 제조 현장의 설비·공정 데이터와 AI를 연결하는 경남형 피지컬 AI 인프라의 출발점으로 평가된다. 지역 제조기업이 자체적으로 고가의 GPU 자원을 확보하기 어려운 상황에서 공용 데이터센터를 통해 연산·저장·운영 환경을 통합 제공함으로써 AX를 가속화하겠다는 전략이다. 경남테크노파크 측은 "고성능 GPU 기반 제조AI데이터센터를 구축해 도내 중소 제조기업의 AI 대전환을 지원할 계획"이라며 "연산·운용·저장 자원을 통합한 데이터 기반 환경을 조성해 경남 주력산업의 AX를 촉진하겠다"고 밝혔다.

2026.02.14 09:23한정호 기자

[종합] 한국 클라우드, AI 인프라·공공사업이 판 키웠다…2025년 나란히 실적 반등

국내 클라우드 산업이 인공지능(AI) 인프라 수요 확대를 발판으로 또 한 번의 분기 성장세를 기록했다. 네이버·KT·NHN 등 주요 클라우드 서비스 제공사(CSP)들은 그래픽처리장치(GPU) 기반 AI 인프라와 공공 클라우드 전환 수요를 양축으로 외형 확대와 수익성 개선을 동시에 모색한 것으로 나타났다. 12일 네이버·KT·NHN이 공시한 2025년 4분기 실적에 따르면 각 기업은 AI 인프라 고도화와 공공·산업별 디지털 전환 수요를 기반으로 엔터프라이즈·기술·클라우드 부문 매출을 끌어올렸다. GPU 확보 경쟁과 데이터센터 투자 확대가 실적에 본격 반영되며 그룹 내 존재감을 키웠고 단순 인프라 공급을 넘어 AI 중심 플랫폼 사업자로의 전환이 본격화됐다는 평가가 나온다. 먼저 네이버는 2025년 4분기 엔터프라이즈 부문에서 1718억원의 매출을 기록했다. 전년 동기 대비 3.2% 감소했지만, 전년도에 반영된 일회성 요인을 제외하면 16.6% 성장한 수치다. 직전 분기 대비로는 14.5% 증가하며 회복세를 보였고 연간 기준으로는 5878억원을 기록하며 전년 대비 4.3% 성장했다. 이번 실적은 서비스형 GPU(GPUaaS) 매출 반영과 사우디아라비아 슈퍼앱 구축, 디지털 트윈 등 글로벌 프로젝트 확대에 힘입은 결과다. 네이버는 AI·클라우드 사업을 이끄는 네이버클라우드를 주축으로 금융·공공·의료 등 고보안 영역 중심의 소버린 AI 전략을 강화 중이며 서울대학교병원·한국은행과의 협업을 통해 산업별 특화 AI 모델 구축을 확대하고 있다. 다만 네이버클라우드는 최근 과학기술정보통신부가 추진한 독자 AI 파운데이션 모델 프로젝트 1차 평가에서 다음 단계 진출에 실패하며 우려가 제기돼왔다. 이에 대해 최수연 네이버 대표는 지난 6일 실적발표 컨퍼런스콜에서 "정부 측 결과를 존중하나 이것이 네이버의 기술 경쟁력 부족을 의미하는 것은 아니다"라며 "B2B 매출에 큰 영향은 없을 것이며 연구개발(R&D)을 통해 기술 리더십을 공고히 하겠다"고 밝혔다. KT클라우드는 2025년 연간 매출 9975억원으로 전년 대비 27.4% 성장하며 1조원에 근접한 실적을 기록했다. 4분기 매출은 2779억원이다. 공공 AI 클라우드 수요 확대와 글로벌 고객 데이터센터 이용률 증가가 동시에 작용한 결과라는 게 회사 측 설명이다. KT클라우드는 지난해 11월 국내 최초로 액체 냉각 기술을 적용한 가산 AI 데이터센터를 개소하며 고성능 AI 연산 수요에 대응하고 있다. 앞서 2030년까지 320메가와트(MW) 규모 AI 데이터센터 전력 인프라를 확보한다는 중장기 로드맵도 제시한 바 있다. 이같은 GPU 기반 인프라 확장에 더해 국내외 소프트웨어(SW) 기업과 협력하는 AI 파운드리 전략을 바탕으로 인프라·플랫폼·파트너 생태계를 아우르는 구조를 구축한다는 전략이다. 장민 KT 최고재무책임자(CFO)는 "KT클라우드는 글로벌 고객의 데이터센터 이용률 증가와 공공 AI 클라우드 수요 확대에 힘입어 의미 있는 성과를 거뒀다"며 "이러한 성장 흐름은 올해도 이어질 것"이라고 말했다. 다음으로 NHN클라우드는 2025년 4분기 사상 첫 분기 흑자를 달성했다. NHN 기술 부문은 4분기 1391억원의 매출을 기록했으며 이 가운데 NHN클라우드는 전년 동기 대비 30.7%, 전 분기 대비 37.6% 증가하며 영업이익 기준 첫 흑자를 냈다. 연간 기술 부문 매출은 4609억원으로 전년 대비 11.3% 성장했다. NHN클라우드는 광주 국가AI데이터센터에서 GPU 서비스를 국내 기업과 공공기관, 대학 등에 제공하며 AI 수요 확대에 대응해왔다. 또 정부 'GPU 확보·구축·운용지원 사업'에서 다음 달 가동을 목표로 엔비디아 B200 7천656장을 서울 양평 리전에 구축 중이다. 4000장 이상 GPU를 단일 클러스터로 구성하고 수냉식 냉각 시스템 도입으로 대규모 AI 인프라 운영 역량을 강화했다. 민간 부문에서도 성과가 이어졌다. NHN클라우드는 최근 크래프톤의 초거대 GPU 클러스터 사업자로 선정되며 대형 민간 레퍼런스를 확보했다. 지난해 국가정보자원관리원 대전센터 화재 이후 공공 재해복구(DR) 수요 확대와 민간 GPU 매출 증가가 동시에 반영되며 수익 구조 개선에 속도가 붙었다는 분석이다. 정우진 NHN 대표는 "국정자원 대구센터를 통해 주요 공공기관의 클라우드 전환을 완료했고 지난해 화재로 영향을 받았던 주요 정보 시스템도 성공적으로 복구했다"며 "올해도 NHN클라우드는 GPU를 기반으로 확대되는 시장 기회를 선점해 더 높은 수준의 성장 국면에 진입할 것"이라고 강조했다. 아울러 또다른 국내 주요 CSP인 카카오엔터프라이즈는 아직 명확한 실적이 공개되진 않았으나, 업계에선 이원주 대표 선임 이후 비용 효율화를 단행한 만큼 적자 폭을 상당 부분 줄였을 것이라는 예상이 나온다. 클라우드 중심 조직 재편과 비핵심 사업 정리를 통해 체질 개선에 나선 영향이 지난해 실적에 반영됐을 것이라는 관측이다. 카카오엔터프라이즈 역시 다른 CSP와 마찬가지로 GPU 서비스를 강화하고 있다. 지난해 하이브리드 GPUaaS를 공개하며 온프레미스와 클라우드를 결합한 AI 인프라 전략을 제시했다. GPU 인프라 비용 절감과 유연성 확보를 동시에 내세우며 AI 스타트업 및 엔터프라이즈 시장을 겨냥 중이다. 한편 지난해 국정자원 대전센터 화재 이후 공공 디지털 인프라의 안정성과 재해 대응 체계에 대한 경각심이 높아지면서 정부의 민간 클라우드 도입 논의도 활성화되고 있다. 주요 정보시스템의 이중화와 DR 체계 고도화가 정책 과제로 부상하면서 공공기관의 클라우드 전환 및 민관 협력형 인프라 구축 사업이 본격화될 것이라는 전망이 나온다. 이에 공공 레퍼런스와 데이터센터 운영 역량을 확보한 국내 CSP들에게는 중장기적 사업 기회가 확대될 수 있다는 분석이다. 다만 지난해 하반기부터 공공 클라우드 보안인증(CSAP) 재편 논의가 업계 변수로 떠올랐다. CSAP와 국정원 보안 절차 간 조정 가능성이 거론되면서 공공 클라우드 시장의 제도 환경 변화가 기로에 선 상황이다. 이에 국내 CSP들은 변화에 대비하며 공공 레퍼런스 확보와 기술 내재화 전략을 동시에 강화하는 분위기다. 클라우드 업계 관계자는 "GPU 확보와 데이터센터 효율화, 공공 AI 전환 수요가 동시에 확대되며 국내 CSP 간 경쟁이 치열해지고 있다"며 "올해는 외형 성장뿐 아니라 AI 인프라 내재화와 수익성 구조 개선이 경쟁을 가르는 분기점이 될 것"이라고 전망했다.

2026.02.12 15:21한정호 기자

NHN클라우드, 2025년 4분기 첫 흑자…GPU·공공 전환 수혜

NHN클라우드가 그래픽처리장치(GPU) 기반 인공지능(AI) 인프라 사업 확대와 공공 클라우드 전환 수요 증가에 힘입어 2025년 4분기 사상 첫 분기 흑자를 달성했다. 국가정보자원관리원(국정자원) 화재 이후 재해복구(DR) 수요가 본격화되고 정부 GPU 구축 사업이 가시화되면서 외형 성장과 수익성 개선을 동시에 이뤄냈다는 평가다. NHN은 12일 진행한 2025년 4분기 실적발표 컨퍼런스콜을 통해 기술 부문이 전년 동기 대비 17.4%, 전 분기 대비 24.5% 증가한 1391억원의 매출을 기록했다고 발표했다. 이 가운데 NHN클라우드는 4분기 매출이 전년 동기 대비 30.7%, 전 분기 대비 37.6% 증가하며 영업이익 기준 최초 분기 흑자를 달성했다고 밝혔다. 연결 기준 기술 부문 연간 매출은 4609억원으로 전년 대비 11.3% 성장했다. 4분기에는 GPU 서비스 매출 증가와 공공 클라우드 전환 사업 확대가 본격 반영됐다. 특히 NHN클라우드는 광주 국가AI데이터센터에서 GPU 서비스를 국내 기업과 공공기관, 대학 등에 제공하며 AI 수요 확대에 대응했다. 동시에 행정안전부 '모바일전자정부시스템' 등 주요 공공 시스템의 클라우드 전환 및 복구 사업을 수행하며 공공 레퍼런스를 강화했다. 정우진 NHN 대표는 "국정자원 대구센터를 통해 주요 공공기관의 클라우드 전환을 완료했고 지난해 화재로 영향을 받았던 주요 정보 시스템도 성공적으로 복구했다"고 밝혔다. 국가정보자원관리원 화재 이후 DR 수요가 확대되며 공공 클라우드 전환 사업이 실적에 본격 반영됐다는 분석이다. AI 인프라 분야에서도 대형 프로젝트 성과가 이어졌다. NHN클라우드는 정부 'GPU 확보·구축·운용지원 사업'에서 엔비디아 B200 7656장을 서울 양평 리전에 구축 중이며 다음 달 본격 가동을 앞두고 있다. NHN클라우드는 이 사업의 최다 구축 기업으로, 4000장 이상 GPU를 단일 클러스터로 구성하고 수냉식 냉각 시스템을 도입해 국내 최고 수준 운영 역량 입증에 나섰다. 이같은 기술력을 기반으로 최근에는 크래프톤의 초거대 GPU 클러스터 사업자로도 선정됐다. 민간향 AI GPU 매출 확대와 함께 통합 메시지 플랫폼 '노티피케이션' 사용량 증가도 4분기 실적 개선에 힘을 보탰다. NHN은 올해도 GPU 기반 AI 인프라 수요 확대와 DR 사업에서의 지속 수혜를 전망하고 있다. 안현식 NHN 최고재무책임자(CFO)는 "올해 GPU 사업에서 괄목할 만한 성장이 예상되고 DR 사업 수요도 이어질 것"이라며 "올해 클라우드 부문에서 영업이익을 확실히 달성해 흑자 전환될 구조를 만들겠다"고 말했다. 정우진 NHN 대표는 "올해도 NHN 클라우드는 GPU 기반으로 확대되는 시장 기회를 선점해 더 높은 수준의 성장 국면에 진입할 것"이라고 밝혔다.

2026.02.12 10:46한정호 기자

카카오, 구글과 협력…차세대 AI 경험 선보인다

카카오가 차세대 인공지능(AI) 경험을 제공하고자 구글과 손 잡는다. 정신아 카카오 대표는 12일 지난해 4분기 실적 발표 컨퍼런스 콜에서 "올해부터 자사가 더 집중하고자 하는 디바이스 측면에서 차세대 AI 경험을 선보이기 위해 글로벌 협업을 본격적으로 시작하기로 합의했다"고 말했다. 이번 파트너십의 출발점으로 카카오는 자사 온디바이스 AI 서비스를 고도화하기 위해 구글 안드로이드와 협업을 시작한다. 안드로이드 개발팀과 직접 협업한다. 여기에 카카오는 AI 인프라에 대한 재무적 부담이 점진적으로 증가하고 있다는 점을 고려해 그래픽처리장치(GPU)에서 나아가 다양한 칩 라인업을 모델과 서비스별로 최적화해 배치함으로써 자본 효율적인 방식으로 AI 인프라를 강화하는 방안을 고민한다. 또 카카오는 구글클라우드와의 유의미한 규모의 중앙처리장치(CPU) 클라우드 운영에 대한 논의도 진행 중이다. 카카오는 향후 출시될 구글 AI 글래스에서의 협업에도 착수한다. 정 대표는 "앞으로 다양한 AI 폼팩터 환경에서 카카오 서비스가 더해질 때 이용자 경험이 어떻게 달라질 수 있을지에 대한 가설을 세우고 이를 바탕으로 하나씩 실험하며 새로운 AI 사용 경험을 만들어 가고자 한다"고 덧붙였다.

2026.02.12 09:32박서린 기자

삼성전자, AI 메모리 혁신 'PIM' 상용화 박차… "LPDDR6 표준 논의 중"

삼성전자가 AI 시대의 고질적인 문제인 '메모리 벽'을 허물기 위해 PIM(Process In Memory) 기술 상용화 로드맵을 구체화했다. 특히 온디바이스 AI 시장을 겨냥해 LPDDR6 기반의 PIM 표준 논의에 착수하며 차세대 시장 선점에 나선다. 손교민 삼성전자 마스터는 11일 삼성동 코엑스에서 열린 '세미콘 코리아 2026' 기조연설에서 "현재 AI 성능은 메모리 대역폭의 부족으로 인해 GPU의 성능을 100% 발휘하지 못하고 있다"며 PIM 기술의 필요성을 강조했다. PIM은 메모리 내부 뱅크(Bank) 레벨에 연산 유닛(ALU)을 배치하는 기술이다. 기존 방식이 데이터를 CPU나 GPU로 옮겨 연산했다면, PIM은 메모리 안에서 직접 연산을 수행한다. 이를 통해 대역폭에서 크게 이득을 얻으면서도, 전력 효율성 또한 크게 상승한다는 게 손 마스터의 설명이다. HBM에서 LPDDR로, 상용화 무게중심 이동 삼성전자는 그간 HBM-PIM 등을 통해 기술 검증(PoC)을 마쳤으며, 이제는 실제 양산이 가능한 커머셜 제품 단계로 진입하고 있다. 그 중심에는 스마트폰 및 온디바이스 AI 기기에 최적화된 LPDDR 시리즈가 있다. 손 마스터는 "LPDDR은 DDR 대비 스피드가 빠르게 발전하고 있으며, 온디바이스 AI에 가장 적합한 용처를 가지고 있다"며 상용화 로드맵을 공개했다. 발표에 따르면 삼성전자는 LPDDR5X에 PIM을 적용할 계획이다. LPDDR5X PIM은 현재 주요 고객사들과 협력해 개발 중이며, 올해 하반기 샘플링이 가능할 전망이다. 아울러 차세대 규격인 LPDDR6에 PIM을 적용하기 위한 스펙 논의가 현재 활발히 진행 중이다. "시스템 생태계와 협력해 '메모리 그 이상' 추구" PIM의 성공적인 안착을 위해서는 소프트웨어 및 시스템 생태계의 변화가 필수적이다. 손 마스터는 "PIM은 NPU나 GPU를 대체하는 것이 아니라, 이들과 협력해 시스템 전체의 성능을 높이는 솔루션"이라며 "과거에는 소프트웨어 지원 문제로 PIM이 어렵다는 인식이 있었으나, 현재는 많은 기업이 이를 도입하려는 의지를 가지고 있다"고 말했다. 삼성전자는 향후 하이브리드 본딩 등 고도의 패키징 기술을 결합하여, PIM이 AI 연산의 필수 요소로 자리 잡도록 개발을 지속할 계획이다.

2026.02.11 17:08전화평 기자

엔비디아 "한국 반도체 업체와 피지컬 AI 협력 지속"

"한국은 삼성전자, SK하이닉스, 현대차그룹, LG전자 등 세계적 제조기업을 보유한 전략적 거점이다. 엔비디아가 추진하는 디지털 트윈과 피지컬 AI 기반 협력을 주도하는 전초기지 역햘을 수행하고 있다." 11일 서울 코엑스에서 열린 '세미콘 코리아 2026' 기조연설에서 정소영 엔비디아코리아 대표가 이렇게 설명했다. 이날 엔비디아는 반도체 설계부터 제조까지 산업 전반에 걸친 단계에서 생산성과 효율을 강화할 수 있는 AI 모델과 디지털 트윈 기술을 소개했다. 또 반도체 생태계를 넘어 산업 전반의 혁신 기업으로 역할을 확대해 나가겠다는 비전을 제시했다. 제품 대신 지능 생산하는 'AI 팩토리' 대두 이날 정소영 대표는 AI 시대 산업 패러다임의 전환이 'AI 팩토리'와 '피지컬 AI' 등 두 축을 중심으로 일어나고 있다고 설명했다. 정 대표는 "전통적인 공장은 사람과 자원을 투입해 제품을 생산한 반면 AI 시대의 공장은 데이터와 전기를 투입해 지능(인텔리전스)를 생산하는 공간"이라고 정의했다. 이어 "AI 팩토리에서 생성된 인텔리전스가 반도체·제조·자동차·통신 등 다양한 산업에 접목되며 실질적인 변화를 만들어내고 있다. 이미 글로벌 주요 산업 현장에서 AI 기반 혁신이 가속화되고 있다"고 덧붙였다. 그는 피지컬 AI에 대해 "이는 단순히 로봇을 움직이는 것이 아니라 현실 세계에 존재하는 다양한 물리적 개체(entity)에 지능을 결합해 우리 삶과 생산 현장 전반에 AI의 영향을 확장시키는 단계"라고 밝혔다. "엔비디아, AI 팩토리 구성 인프라 제공" 엔비디아는 2020년대 이후 AI 연산을 수행하는 GPU에 머무르던 것에서 벗어나 AI 처리 인프라를 제공하는 기업으로 포지션 변화를 시도하고 있다. 정소영 대표는 "AI 팩토리는 GPU를 시작으로 클라우드와 온프레미스 데이터센터, 그 위에서 구동되는 AI 모델과 고부가가치 소프트웨어·서비스로 구성된다. 엔비디아는 이런 가속 컴퓨팅 기반을 산업 전반에 제공하는 인프라 기업"이라고 말했다. 이어 "올 하반기 출시할 차세대 GPU 플랫폼 '베라 루빈'은 베라 CPU, 루빈 GPU와 네트워킹 칩, 스위치 등 6개 요소를 동시 개발하고 최적화하며 AI 플랫폼을 구현중"이라고 덧붙였다. "CPU 대신 GPU 활용해 소요시간 단축" 엔비디아는 CPU 대신 GPU를 활용하는 쿠다(CUDA)-X 라이브러리로 고성능·장시간 연산이 필요한 산업계 과제의 소요 시간 단축을 제공하고 있다. 2023년 엔비디아가 개발한 소프트웨어 라이브러리인 cu리소(cuLitho)는 반도체 식각 공정에 쓰이는 포토마스크 설계 시간을 크게 단축한다. 기존 CPU로 2주 이상 걸리던 연산 시간을 하루 내외로 줄였다. 정소영 대표는 "주요 반도체 소자를 시뮬레이션하는 TCAD, 리소그래피, 전자설계자동화(EDA) 등 반도체 전 분야에 AI 기반 모델이 적용된다. 삼성전자·SK하이닉스 등 국내 주요 업체도 설계 시간 단축, 시뮬레이션 고도화 등을 추진중"이라고 밝혔다. 시뮬레이션 플랫폼 '옴니버스', 반도체 생산 자동화 가속 엔비디아는 현실 세계 물리 법칙과 환경을 시뮬레이션 할 수 있는 플랫폼 '옴니버스'를 피지컬 AI 구현에 활용하고 있다. 자율주행차와 휴머노이드 로봇, 자율이동로봇(AMR) 등 다양한 장비 개발 소요 시간을 단축하고 정밀도를 높일 수 있다. 정소영 대표는 옴니버스 활용 사례로 "어플라이드 머티어리얼즈(AMAT)와는 디지털 트윈 기반 생산 공정 제어에 협력하고 있고 램리서치 및 LG디스플레이 등과도 협업을 확대하고 있다"고 설명했다. 정 대표는 "반도체 산업은 축적된 방대한 부품·공정 데이터를 보유하고 있어 AI 에이전트를 통한 자동화와 EDA 가속화에 유리하다. 실제로 아드반테스트와 AI 에이전트를 활용한 제품 테스트 자동화도 공동 개발 중"이라고 밝혔다.

2026.02.11 15:41권봉석 기자

송재혁 삼성전자 CTO "커스텀 HBM으로 AI 메모리 벽 깬다"

삼성전자가 메모리와 파운드리, 패키징 역량을 총집결한 '커스텀 HBM(고대역폭메모리)을 앞세워 AI 반도체의 고질적 난제인 '메모리 벽' 돌파에 나선다. 메모리 칩 내부에 직접 연산 기능을 넣는 파격적인 설계와 최첨단 로직 공정을 결합해, 단순한 부품 공급자를 넘어 AI 아키텍처의 설계자로서 주도권을 잡겠다는 전략이다. 송재혁 삼성전자 CTO(사장)는 11일 서울 코엑스에서 열린 '세미콘 코리아 2026' 기조연설에서 '비욘드(Beyond) ZFLOPS: AI 시스템의 미래 아키텍팅'을 주제로 삼성의 차세대 반도체 로드맵을 발표했다. 송 사장은 "현재 GPU(그래픽처리장치) 성능은 비약적으로 성장하고 있지만, 메모리 대역폭의 증가 속도는 이를 따라가지 못해 AI 시스템 발전의 허들이 되고 있다"고 진단했다. 이러한 불균형을 해결할 삼성전자의 핵심 병기는 '커스텀 HBM'이다. 기존 HBM이 데이터를 전달하는 통로 역할에 충실했다면, 삼성의 커스텀 HBM은 메모리 하단부인 '베이스 다이' 내부에 '컴퓨트 코어'를 이식하는 '컴퓨트 인 베이스 다이' 아키텍처를 채택했다. 이 기술을 적용하면 GPU와 메모리 사이의 불필요한 데이터 이동이 최소화되어 연산 효율이 극대화된다. 삼성전자에 따르면 커스텀 HBM 기반 시스템은 기존 GPU 구조 대비 전력 대비 성능이 약 2.8배 향상되는 것으로 확인됐다. "메모리+파운드리" 원팀 시너지… "삼성만이 가능한 영역" 송 사장은 삼성 커스텀 HBM의 경쟁력을 뒷받침하는 핵심 동력으로 삼성전자의 '토탈 솔루션' 역량을 강조했다. 회사는 최첨단 D램, 초미세 로직 공정 파운드리(반도체 위탁생산), 어드밴스드 패키징 기술을 전 세계에서 유일하게 보유했다. 이러한 강점을 살려 시장 리더십을 차지하겠다는 계획이다. 송 사장은 "단일 기업 내에서 메모리와 로직의 시너지를 극대화함으로써 AI 시장이 요구하는 폭발적인 기능을 가장 효율적으로 지원할 것"이라고 자신했다. HBM4 넘어 'zHBM'으로…3D 메모리 시대 예고 삼성전자는 이날 기조연설에서 HBM4(6세대) 이후의 미래형 아키텍처인 'zHBM'의 세부 사양도 처음으로 공개했다. zHBM은 기존 평면적인 배치를 넘어 완전한 3D 적층 구조를 지향한다. 제품의 명칭이 zHBM인 것도, HBM을 패키징할 때 z축(수직)으로 쌓았기 때문이다. zHBM은 멀티 웨이퍼 투 웨이퍼 본딩 기술을 통해 수만 개의 I/O(입출력 단자)를 확보하며, 이를 통해 차세대 HBM 대비 대역폭은 4배 이상 높이고 전력 소비는 75% 절감하는 혁신적인 성능을 목표로 하고 있다. 또한 소자 레벨에서 혁신도 가속화한다. 삼성은 차세대 트랜지스터 구조인 CFET 연구 결과를 공유하며, 기존 구조 대비 채널 반응 속도가 20% 이상 빨라졌음을 확인했다고 밝혔다. 아울러 저전력 구현을 위한 산화물 반도체 채널 적용 등 미세 공정의 한계를 넘기 위한 기술 개발도 순항 중임을 시사했다. 송 사장은 "가상 세계를 넘어 현실을 인식하고 행동하는 '피지컬 AI(Physical AI)' 시대가 머지않았다"며 "삼성 반도체는 최적화된 시너지 솔루션을 통해 인류의 진화에 기여할 준비가 되어 있다"고 말했다.

2026.02.11 15:07전화평 기자

[유미's 픽] 李 'AI 고속도로'가 바꾼 판…정부 GPU 지원, 스타트업 실험에 불 붙였다

'인공지능(AI) 고속도로' 구축을 위해 이재명 정부가 추진해온 고성능 그래픽처리장치(GPU) 지원 사업이 국내 AI 스타트업 생태계 조성에 실질적인 역할을 했다는 평가가 나오고 있다. 대규모 연산 자원이 필수적인 파운데이션 모델 개발과 차세대 AI 구조 연구에서 초기 자본이 부족한 스타트업들도 정부 덕에 기술 실험을 지속할 수 있는 토대가 마련됐다는 분석이다. 10일 업계에 따르면 트릴리온랩스는 지난해 9월부터 4개월여간 정부로부터 엔비디아 H200 GPU 80장 규모의 고성능 연산 자원을 지원받아 차세대 AI 구조 연구를 진행했다. 이를 통해 초거대 모델 학습뿐 아니라 기존 트랜스포머 구조의 연산 효율을 개선하기 위한 신규 아키텍처 실험과 대규모 검증을 병행할 수 있는 환경을 구축했다. 이 연산 인프라는 구체적인 기술 성과로도 이어졌다. 트릴리온랩스는 지원받은 GPU 자원을 활용해 지난 달 디퓨전 기반 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다. '트리다-7B'는 단어를 하나씩 순차적으로 생성하는 기존 방식에서 벗어나 문장 전체를 병렬로 생성하는 확산(diffusion) 기법을 언어 모델에 적용한 것이 특징이다. 또 이미지 생성에 주로 활용되던 디퓨전 기술을 언어 모델 구조에 이식함으로써 추론 속도와 연산 효율을 동시에 끌어올렸다. 이와 함께 지난해 10월에는 소규모 프록시 모델을 활용해 대형 언어모델의 성능을 사전에 예측하는 '알브릿지(rBridge)' 기법도 개발했다. 실제 대형 모델을 반복 실행하지 않고도 성능을 가늠할 수 있는 구조로, 연산 효율을 최대 700배 이상 개선하고 거대언어모델(LLM) 개발 비용을 대폭 절감할 수 있는 가능성을 제시했다. 대규모 모델 학습에 앞서 시행착오를 줄일 수 있다는 점에서 파운데이션 모델 개발 방식 자체를 바꿀 수 있는 접근으로 평가된다. 업계에선 이러한 성과가 단순한 개별 기술 개발을 넘어 AI 연구·개발의 비용과 시간, 자원 구조를 근본적으로 재설계했다는 점에 주목하고 있다. 대형 모델을 '더 많이 돌리는 방식'이 아니라 '덜 돌리고도 더 많이 검증하는 방식'으로 전환할 수 있는 가능성을 보여줬다는 점에서다. 이는 스타트업이 제한된 자원 환경에서도 고난도 연구를 지속할 수 있는 실질적인 해법으로 꼽힌다. 이 같은 결과 뒤에는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 지원 방식도 한 몫 했다는 평가다. 앞서 정부는 삼성SDS·KT클라우드·엘리스클라우드를 '고성능컴퓨팅 지원사업' 공급사로 선정한 후 지난해 9월부터 12월까지 국내 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등에 총 1천 장의 GPU를 지원했다. 당시 삼성SDS와 엘리스그룹은 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급했다. 당시 정부에선 그간 단순히 GPU를 일괄 배분하는 데 그치지 않고 연구 단계와 실험 난이도에 맞춰 자원 활용 계획을 조정하며 과제 수행 전반을 관리했다. 또 개발 과정에서 발생하는 변수에 따라 지원 방식을 유연하게 조정하고 현장의 피드백을 즉각 반영하는 방식으로 연구 완성도를 높였다. 이 과정에서 정부는 단순한 예산 집행 기관을 넘어 프로젝트의 '내비게이터' 역할을 수행하며 실질적인 성과를 견인했다는 평가를 받았다. 또 단순히 규모가 큰 기업이 아닌, 독보적인 기술력과 성장 잠재력을 보유한 스타트업을 정밀하게 선별해 과제 수행 기업으로 낙점하려는 노력이 참여 기업으로부터 큰 호응을 얻었다. 업계 관계자는 "정부가 행정적 관리에 그치지 않고 모델 출시 과정에서 발생하는 변수에 맞춰 지원 체계를 업데이트했다"며 "현장의 목소리를 즉각 반영해 모델의 완성도를 높이는 실질적인 가이드도 제공해줬다"고 말했다.이어 "무한정한 지원 대신, 한정된 예산 내에서 최선의 결과물을 낼 수 있도록 목표 난이도를 정교하게 조정해준 점도 인상 깊었다"며 "이를 통해 자원의 낭비를 막고 효율적인 사용 위에 최대의 성과를 이끌어냈다"고 덧붙였다. 트릴리온랩스 역시 정부 인프라 지원을 발판 삼아 국내에서 시도된 적 없는 기술 실험을 진행할 수 있었다고 평가했다. 독자적인 모델 구조와 학습 기법을 실제 대규모 환경에서 반복 검증하며 스타트업이 겪는 컴퓨팅 파워 한계를 일정 부분 극복할 수 있었다는 것이다. 신재민 트릴리온랩스 대표는 "정부의 GPU 지원 사업이 단순한 인프라 제공을 넘어 기술 기업의 도전 방식을 바꿨다"며 "자본력보다 기술적 실험과 구조 혁신에 집중할 수 있는 조건을 마련했다는 점에서 국내 AI 생태계에 미친 영향이 적지 않다"고 강조했다. 이 같은 분위기 속에 정부가 추가경정예산으로 확보한 고성능 GPU 자원으로 어떤 AI 연구 기관, 기업들이 수혜를 받을지 관심이 쏠린다. 정부는 총 1만3천136장 규모의 GPU를 최대 12개월까지 이용할 수 있도록 한 사업을 공고한 후 지난 달 28일 마감했다. 이번에는 학계·연구기관은 무상으로, 산업계는 자부담 방식으로 지원받는 구조다. 구축·운영은 민간 클라우드 3사가 맡는다. 네이버클라우드는 세종 데이터센터에 H200 2296장을 안착시켰고, 카카오는 안산 데이터센터에 B200 2040장을 클러스터 형태로 구축했다. NHN클라우드는 3월께 B200 6120장을 갖출 계획이다. 정부는 이 사업에 예산 1조4590억원을 투입했다. 이번 프로젝트는 과제별로 H200, B200 중 하나만 신청할 수 있다. 신청은 서버 묶음 기준으로 이뤄진다. H200은 최소 서버 2대(16장)에서 최대 서버 32대(256장)까지, B200은 최소 서버 2대(16장)에서 최대 서버 16대(128장)까지다. 조만간 선정될 수요 기업은 원격 접속 방식인 GPUaaS(GPU as a Service)로 고성능 컴퓨팅 자원을 손쉽게 이용할 수 있다. 정부가 고수한 '1사 1지원' 원칙을 사실상 폐기해 중복 신청 문턱이 낮아진 점도 눈에 띈다. 이 일로 동일 기업 내 복수 부서도 각각 GPU 자원을 확보할 수 있게 됐다. 다만 연구 인력의 독립성과 과제 주제는 차별돼야 한다. 여기에 정부는 지난해 확보한 1만3000장에 이어 올해는 B200 기준 1만5000장을 투입해 지원 범위를 넓힐 계획이다. 이를 구축하기 위해 총 2조831억원(출연금)이 투입될 이번 사업 공고는 이달 중 나올 예정으로, 과기정통부 단일 사업 기준 최대 규모 프로젝트로 평가된다. 또 단일 사업자가 전체 물량을 감당하기 어려운 만큼, 사업 구조 자체를 어떻게 설계할지가 관건이 될 전망이다. 과기정통부 관계자는 "주요 클라우드 서비스 제공업체(CSP)들과 면담한 결과 데이터센터 상면(물리적 수용 공간) 확보는 어느 정도 가능한 수준으로 파악됐다"며 "최신 GPU를 확보하는 것이 유리한 만큼 엔비디아 차세대 AI 칩 '베라루빈'을 업체들이 제안할 경우 가점을 줄 지에 대한 방안에 대해선 고민 중"이라고 밝혔다. 업계에선 정부의 고성능 연산 인프라 지원이 일회성 사업에 그치지 않고 파운데이션 모델·신규 아키텍처·산업 특화 AI로 이어지는 연속적인 연구 생태계로 정착할 수 있을지가 향후 사업 성공 여부의 관건이 될 것이라고 전망했다. 업계 관계자는 "특히 연산 자원 접근성이 기술 경쟁력으로 직결되는 AI 산업 특성을 감안할 때 정부의 GPU 지원 정책이 국내 스타트업들의 글로벌 도전 여력을 좌우하는 핵심 변수로 작용할 것으로 예상된다"며 "단기 성과보다 중장기 연구 축적이 가능한 구조로 설계될 경우 정부 지원이 국내 AI 산업의 체질을 바꾸는 계기가 될 수 있다"고 말했다.

2026.02.10 11:43장유미 기자

AMD, 작년 4분기 사상 최대 실적에도 주가 17% 급락

AMD가 지난해 4분기 매출과 영업이익에서 분기 기준 사상 최고치를 기록했지만, 향후 실적 전망에 대한 실망감이 부각되며 주가가 17% 가량 하락했다. AMD는 지난해 4분기 매출 103억 달러(약 14조 9144억원), 영업이익 15억 달러(약 2조 1720억원)를 기록했다고 밝혔다. 이는 분기 기준 사상 최대 실적이다. 그러나 AMD가 제시한 올해 1분기 실적 전망이 시장 기대를 충분히 충족시키지 못하면서 주가는 급락했다. AMD는 올해 1분기 매출을 약 98억 달러(약 14조 1904억원)로 제시했다. 이는 시장 예상치였던 94억 달러를 웃도는 수준이지만, 일부 투자자들이 기대했던 100억 달러 돌파에는 미치지 못했다. 이 여파로 AMD 주가는 3일(현지시간) 종가 기준 242.11달러(약 35만 3천원)에서 17.3% 하락한 200.21달러(약 29만 2700원)까지 떨어졌다. 사상 최대 실적에도 불구하고 향후 성장 속도에 대한 기대가 낮아진 점이 투자심리를 위축시킨 것으로 풀이된다. 미국 CNBC는 4일(현지시간) "AI 관련 GPU와 서버 수요가 강하게 이어지고 있는 만큼, 시장에서는 AMD가 보다 공격적인 실적 가이던스를 제시할 것으로 기대하고 있었다"고 분석했다. 이에 대해 리사 수 AMD CEO는 4일 CNBC와의 인터뷰에서 AI 시장에 대한 중장기 성장 자신감을 재차 강조했다. 그는 "AI는 전혀 예상하지 못했던 영역까지 빠르게 확산되고 있으며, 이에 따른 수요는 지속적으로 증가할 것"이라고 말했다. 리사 수 CEO는 특히 데이터센터 사업의 성장세를 강조했다. 그는 "AMD의 데이터센터 부문은 지난해 4분기에서 올해 1분기에 걸쳐 꾸준히 성장하고 있다"며 "AI 처리량 요구가 급증하면서 서버용 에픽(EPYC) 프로세서에 대한 수요도 매우 강하다"고 설명했다. AMD는 올 하반기를 기점으로 AI 인프라 사업에서 또 한 번의 전환점을 맞을 것으로 보고 있다. 리사 수 CEO는 "서버 CPU, GPU, 고속 네트워킹을 하나의 랙 단위로 통합한 '헬리오스 AI 랙'을 출하하면서 의미 있는 변곡점이 나타날 것"이라고 밝혔다. 헬리오스 AI 랙은 OCP DC-MHS, UA 링크, 울트라 이더넷 컨소시엄(Ultra Ethernet Consortium) 등 개방형 표준을 기반으로 설계된 서버 시스템이다. 이는 특정 기업 중심의 폐쇄형 생태계와 차별화되는 전략으로 평가된다. 앞서 리사 수 CEO는 올해 1월 열린 CES 2026 기조연설에서 헬리오스 AI 랙 실물을 공개한 바 있다. 그는 당시 "랙 구성 요소인 트레이 한 개당 차세대 AI GPU 가속기 '인스팅트 MI455X' GPU 4개와 '베니스' 프로세서 4개, HBM4 메모리 432GB가 탑재될 것"이라고 설명했다.

2026.02.05 10:54권봉석 기자

엔비디아 GPU 의존 넘을까…정부에 발 맞춘 LG CNS, 국산 AI 반도체로 공공 AX 공략

LG CNS가 인공지능(AI) 반도체 기업 퓨리오사AI와 손잡고 신경망처리장치(NPU) 기반 AI 서비스를 개발해 공공 AX 시장 공략에 나선다. 정부가 국산 AI 반도체 육성을 핵심 과제로 내세운 가운데 대기업과 국내 AI 반도체 스타트업 간 협력이 본격화하는 모습이다.LG CNS는 서울 마곡 LG사이언스파크 본사에서 퓨리오사AI와 'AI 인프라 사업 협력 확대'를 위한 업무협약(MOU)을 체결했다고 5일 밝혔다. 협약식에는 LG CNS AI클라우드사업부 김태훈 부사장과 퓨리오사AI 백준호 대표 등 주요 경영진이 참석했다. 퓨리오사AI는 AI 연산에 특화된 반도체인 NPU를 설계·개발하는 AI 반도체 스타트업이다. 퓨리오사AI의 2세대 NPU 'RNGD(레니게이드)'는 대규모 AI 서비스에 필요한 고성능 요건을 충족하고, 그래픽처리장치(GPU) 대비 전력 소모와 운영 비용을 크게 줄일 수 있다. 퓨리오사AI는 지난 1월 TSMC로부터 RNGD 4000장을 인도받으며 양산에 성공, 글로벌 시장 공략 및 보급에 박차를 가하고 있다. 이번 협력을 통해 양사는 LG AI연구원 컨소시엄으로 참여 중인 '독자 AI 파운데이션 모델' 프로젝트 내 협력을 강화한다. LG CNS는 퓨리오사AI의 RNGD를 적용한 K-엑사원(EXAONE)을 기반으로 AI 서비스의 성능을 최적화하고, 상용화해 시너지를 극대화하는 역할을 맡는다. 퓨리오사AI는 안정적인 RNGD 공급과 함께 NPU 관련 기술 지원을 담당한다.이번 협력은 국산 AI 반도체가 실제 AI 서비스 환경에서 상용화 가능성을 검증하는 사례라는 점에서 업계의 관심을 받고 있다. 그동안 국내 AI 반도체는 기술력 대비 상용 레퍼런스 부족이 한계로 지적돼 왔는데, 이번 협력을 계기로 대기업 AI 서비스 인프라에 토종 NPU가 적용되는 실증 사례가 추가됐다는 평가다. 업계에선 이번 협력이 토종 AI 반도체가 엔비디아 중심의 GPU 생태계에 도전할 수 있는 가능성을 보여주는 사례이자, 국내 AI 반도체 기업들이 본격적으로 공급망에 참여할 수 있는 신호탄이라는 분석도 나온다. GPU 중심 인프라 구조에서 벗어나려는 시도라는 점도 이번 협력의 의미로 꼽힌다. 퓨리오사AI의 NPU는 GPU 대비 전력 효율과 추론 성능 측면에서 경쟁력을 갖췄다는 평가를 받아왔다. 이번 프로젝트를 통해 단순한 하드웨어 대체를 넘어 AI 서비스 특성에 맞춰 GPU와 NPU를 병행·최적화하는 인프라 구조의 가능성을 검증한다는 점에서 AI 인프라 생태계 확장으로 이어질 수 있다는 해석도 나온다. LG CNS 역시 협력 배경으로 GPU 중심 생태계에 대한 종속성을 줄이고, 국내 AI 기술과 인프라 경쟁력을 강화하려는 전략을 강조하고 있다. 특히 공공 AX 시장의 경우 비용 효율성과 안정성이 중요한 만큼, NPU 기반 인프라가 현실적인 대안이 될 수 있다는 판단이다. 퓨리오사AI 입장에서도 이번 협력은 성장의 중요한 분기점으로 평가된다. 국내 대기업의 AI 서비스 인프라에 자사 NPU가 채택되면서 기술력뿐 아니라 상용성과 안정성을 동시에 입증할 수 있는 레퍼런스를 확보하게 됐기 때문이다. 회사는 이를 바탕으로 글로벌 시장에서도 고객 확보에 나선다는 전략이다. 업계 관계자는 "LG CNS와의 협력이 특정 기업의 성과를 넘어 국내 팹리스 기업들이 AI 반도체 분야에서 자체 제품을 실제 서비스에 적용하는 사례를 늘리는 계기가 될 수 있을 것"이라며 "정부가 국산 AI 반도체 육성을 핵심 과제로 제시한 상황에서 민간 차원의 실질적인 상용화 사례가 등장하고 있다는 점에서 의미가 있다"고 분석했다. 양사는 이번 협력을 계기로 토종 AI 모델과 서비스, 인프라, AI반도체로 구성된 '소버린 AI 생태계'를 더욱 강화하고 공공 AX 시장에 최적화된 서비스를 제공한다는 전략이다. 공공 부문 특성상 보안성과 비용 효율, 안정성이 중요한 만큼, GPU 중심 인프라의 대안으로 NPU 기반 AI 인프라를 제시하겠다는 구상이다. 협력의 첫 단계로 LG CNS는 자체 개발한 기업용 에이전틱AI 플랫폼 '에이전틱웍스(AgenticWorks)' 구동 인프라에 퓨리오사AI NPU를 적용해 기술 검증을 진행한다. 에이전틱AI는 스스로 목표를 설정하고 복잡한 업무를 수행하는 만큼, 이를 뒷받침할 고성능·고효율 인프라가 필수적이다. LG CNS는 NPU 기반 인프라를 통해 에이전틱AI 서비스의 전력 효율과 운영 효율을 동시에 높일 계획이다. 양사는 NPU 기반 GPUaaS(GPU as a Service) 성능 최적화 기술도 실증한다. GPUaaS는 GPU를 가상화해서 제공하는 방식으로, 사용자는 실제 하드웨어를 구매하지 않고도 고성능 연산 환경을 활용할 수 있어 AI 시대의 핵심 모델로 각광받고 있다. 양사는 AI 학습과 AI 서비스 운영, 추론 등 모든 단계에 NPU를 적용해 전력 효율과 비용 경쟁력을 높일 수 있는 인프라 최적화에 나선다. 김태훈 LG CNS AI클라우드사업부 부사장은 "퓨리오사AI와의 협력을 통해 고객들이 에이전틱AI를 보다 효율적으로 사용할 수 있도록 NPU 기반 AI 인프라 기술력과 전문인력을 확보할 것"이라며 "LG AI연구원과 협력해 국가대표AI 모델 고도화를 지원하고 국내 AI 산업 발전에 기여할 것"이라고 밝혔다.

2026.02.05 10:05장유미 기자

김장겸 의원, 'AI 데이터센터 지원' 패키지법 발의

AI 데이터센터(DC)를 국가 전략 인프라로 육성하고, 전력과 행정 전반의 병목을 해소하기 위한 입법이 추진된다. 국회 과학기술정보방송통신위원회 소속 김장겸 국민의힘 의원은 AIDC의 안정적인 구축을 지원하고 산업 진흥을 도모하기 위한 '인공지능 데이터센터 진흥 및 기반 조성에 관한 법률안'과 '분산에너지 활성화 특별법 일부개정법률안'을 4일 대표발의했다. 현재는 막대한 전력을 소비하는 AIDC를 위한 별도 지원법은 부재한 실정이다. 이로 인한 제도적 공백과 복잡한 행정절차, 중앙집중식 전력 공급 규제가 관련 산업 발전을 저해한다는 지적이 제기되고 있다. 김 의원이 발의한 법안엔 비수도권 AIDC 특화지역 지정, 세제 감면·부담금 면제·GPU 등 컴퓨팅 자원 지원 근거 마련, 국가와 지자체에 전력·용수·부지 등 기반 시설 확보 책무 부여, 다수 인허가를 동시에 심사하는 원스톱·일괄 처리 제도 도입 등 내용이 담겼다. 김장겸 의원은 "AI 데이터센터는 우리나라의 디지털 영토를 지키는 핵심 근간"이라며 "패키지 법안을 통해 전력 여유가 있는 비수도권으로 데이터센터의 분산을 유도하고, 전력 공급의 다양성과 효율성을 높여 AI 산업 전반의 경쟁력을 강화하겠다"고 말했다.

2026.02.04 17:41홍지후 기자

김정호 KAIST 교수 "차세대 AI 메모리 HBF, 10년 후 HBM 시장 넘을 것"

"HBF는 HBM을 제대로 해본 회사만 할 수 있는 기술입니다." 김정호 KAIST 전기전자공학부 교수는 3일 기자간담회에서 차세대 AI 메모리로 주목받는 HBF(고대역폭 플래시)에 대해 이같이 단언했다. 생성형 AI가 추론·멀티모달·장문 컨텍스트 시대로 진화하면서 메모리 용량 한계가 본격화되기 때문이다. HBF를 단순한 낸드플래시의 확장판이 아니라 HBM(고대역폭 메모리)을 통해 축적된 기술력이 전제돼야 가능한 영역으로 본 셈이다. 김 교수의 이 발언은 곧바로 한국 메모리 산업의 경쟁력으로 이어진다. 현재 HBM 시장을 주도하고 있는 삼성전자와 SK하이닉스가 HBF에서도 시장 리더십을 유지할 수 있는 것이다. 김 교수는 "HBM은 메모리 중에서도 가장 어려운 시스템 설계"라며 "HBM을 해봤다는 것은 이미 가장 복잡한 메모리 기술을 경험했다는 의미"라고 말했다. 이어 "이 경험을 가진 나라와 기업은 사실상 한국밖에 없다"며 "HBM을 잘하는 회사가 HBF에서도 유리할 수밖에 없는 구조"라고 강조했다. HBF는 낸드플래시 기반의 초대용량 메모리를 GPU 가까이에 배치해, 기존 HBM만으로는 감당하기 어려운 데이터를 처리하기 위한 새로운 메모리 반도체다. AI 추론 과정에서 폭증하는 KV 캐시, RAG(검색 증강 생성)를 위한 문서·영상·이미지 데이터, 멀티모달 AI의 장기 기억이 대표적인 대상이다. 김 교수는 "HBM이 GPU 옆 책상이라면, HBF는 바로 옆에 붙은 도서관"이라며 "당장 필요한 책은 책상에서 보고, 더 많은 자료는 도서관에서 꺼내오는 구조"라고 설명했다. "낸드가 아니라 연결이 성능을 결정" HBF 상용화 과정에서 제기되는 속도 문제는 메모리 제어 로직 설계를 통해 구조적으로 보완할 수 있다는 입장이다. 낸드플래시는 D램에 비해 용량이 큰 대신, 속도가 느리다는 특징을 갖고 있다. 낸드플래시를 집적해 만든 HBF의 속도가 HBM 대비 느린 이유다. 김 교수는 HBF의 성능을 좌우하는 핵심으로 낸드 자체가 아니라, 베이스 다이에 통합된 메모리 제어 로직을 꼽았다. 이 로직은 전통적인 SSD 컨트롤러와는 다르다. SSD처럼 낸드 옆에서 읽기·쓰기만 담당하는 방식이 아니라, GPU와 메모리 사이에 위치한 베이스 다이가 데이터 흐름을 직접 제어하는 구조다. 페이지 단위 병렬 읽기, 대량 데이터 묶음 전송, 버퍼링과 스케줄링을 통해 낸드의 물리적 한계를 구조적으로 보완한다는 설명이다. 김 교수는 "낸드는 느리지만, 한 번에 많이 읽어서 보내면 된다"며 "GPU와 연결되는 대역폭과 지연은 낸드 셀 자체가 아니라 베이스 다이와 인터포저, 인터커넥트 설계가 결정한다"고 말했다. 실제 시스템 기준으로는 HBM 대비 20~30% 수준의 성능 손실로 관리 가능하다는 게 그의 판단이다. HBF는 단독 메모리가 아니라 HBM과 결합된 계층형 구조로 진화할 가능성이 크다. 속도는 HBM, 대용량 데이터는 HBF가 맡는 구조다. 상용화 시점은 2027년 말에서 2028년으로 예상된다. 초기에는 AI 추론용으로 채택되며, 이후 HBM과 HBF를 결합한 메모리 구조가 표준으로 자리 잡을 가능성이 크다는 분석이다. 2038년에는 HBF의 비중이 HBM보다 커질 것으로 내다봤다. 김 교수는 기술 완성도보다 누가 먼저 실제 AI 서비스에 채택하느냐가 관건이라고 강조했다. HBF가 단순한 부품 성능 경쟁이 아니라, 실제 AI 서비스 환경에서 효과가 입증돼야 확산될 수 있는 구조적 기술이기 때문이다. 한 곳에서라도 HBF를 적용해 추론 속도나 동시 처리량 개선이 확인되면, 해당 사례가 곧바로 시장의 기준점이 된다는 설명이다. 그는 "기술 자체보다는 누가 먼저 쓰느냐가 더 중요하다"며 "어떤 서비스에 채택되느냐가 시장을 결정할 것"이라고 말했다.

2026.02.03 16:15전화평 기자

"우린 GPU에만 의존하지 않아"…AI 가속기 선택 SW로 효율·전력·비용 잡아

GPU와 NPU(AI 계산에 특화된 반도체), PIM(메모리 안에서 AI 연산을 처리하는 차세대 반도체) 등 다양한 AI 가속기를 선택적으로 사용, 효율과 전력·비용 세마리 토끼를 한 방에 잡을 수 있는 차세대 AI 인프라 소프트웨어가 개발됐다. KAIST는 이 기술 개발에 박종세 전산학부 교수와 권영진· 허재혁 교수가 참여하고, 쿤레 올루코툰(Kunle Olukotun) 미국 AI 반도체 시스템 스타트업 삼바노바(SambaNova) 공동창업자이자 스탠포드대학 교수가 자문을 수행했다고 1일 밝혔다. 이 기술은 최근 카카오가 주최한 '4대 과학기술원×카카오 AI 육성 프로젝트'에서 애니브릿지 AI 팀으로 참가, 대상을 수상하고 상금 2,000만원과 3,500만원 어치 카카오클라우드 크레딧을 받았다. 연구팀은 초대형언어모델(LLM) 서비스가 대부분 고가 GPU 인프라에 의존, 서비스 규모가 확대될수록 운영 비용과 전력 소모가 급격히 증가하는 구조적 한계가 있다는 점에 주목했다. 특히, 이 문제의 근본 원인이 특정 하드웨어 성능이 아니라, GPU나 NPU, PIM 등 다양한 AI 가속기를 효율적으로 연결·운용할 수 있는 시스템 소프트웨어 계층 부재에 있다고 봤다. 연구팀은 이에 가속기 종류와 관계없이 동일한 인터페이스와 런타임 환경에서 LLM을 서비스할 수 있는 통합 소프트웨어 스택을 개발한 것. 특히 GPU 중심으로 고착화된 기존 LLM 서빙 구조의 한계를 지적하고, 여러 종류의 AI 가속기를 하나의 시스템에서 함께 활용할 수 있는 '멀티 가속기 LLM 서빙 런타임 소프트웨어'를 핵심 기술로 제시했다. 이 기술은 특정 벤더나 하드웨어에 종속되지 않으면서도, 작업 특성에 따라 가장 적합한 AI 가속기를 선택·조합할 수 있는 유연한 AI 인프라 구조 구현이 가능하다. 이는 LLM 서비스 비용과 전력 소모를 줄이고, 확장성을 크게 높일 수 있는 장점이 있다. 박종세 교수는 "AI 시스템과 컴퓨터 아키텍처 분야에서 축적한 연구 성과를 바탕으로 산업 현장에서 활용 가능한 기술 개발을 통해 글로벌 시장으로 진출할 계획"이라고 말했다.

2026.02.01 01:16박희범 기자

엔비디아, 2028년 GPU '파인만' 생산에 인텔과 협력설

엔비디아가 차세대 GPU '파인만' 생산에 필요한 반도체 중 일부를 인텔 파운드리에서 만들 수 있다는 관측이 나왔다. 대만 디지타임스는 28일 "엔비디아가 도널드 트럼프 2기 행정부의 미국 투자 확대와 관세 등 정치적 압박을 피하기 위해 인텔 파운드리와 협력할 계획을 가지고 있다"고 전했다. 엔비디아는 모든 구성 요소를 한 파운드리에서 모두 생산해 왔다. 현재까지 대만 TSMC 중심으로 유지돼 온 엔비디아의 파운드리 전략이 변화할 수 있다는 점에서 눈길을 끈다. 다만 인텔의 첨단 공정 성숙도와 비용 구조, 미국 내 정치적 문제 등 여러 변수가 얽혀 있어 양사 협력이 실제 실현될 지는 미지수다. 디지타임스 "엔비디아, 파인만 I/O 다이 인텔에 맡긴다" 디지타임스에 따르면 엔비디아는 2028년 출시할 GPU 아키텍처 '파인만' 구성에 필요한 반도체 중 GPU간 통신, 메모리 입출력과 관련된 I/O 다이(Die)를 인텔에서 생산할 예정이다. 핵심 연산을 담당하는 GPU 다이는 기존처럼 TSMC 생산을 유지한다. 디지타임스는 I/O 다이를 생산할 후보 공정으로 1.8나노급 인텔 18A(Intel 18A)나 2028년 본격 가동될 1.4나노급 인텔 14A(Intel 14A)를 거론했다. 디지타임스는 "TSMC가 생산한 GPU와 인텔이 생산한 I/O 다이가 인텔 평면 반도체 연결 기술인 EMIB으로 연결된다. 또 파인만 최종 패키징 공정 중 25%는 인텔이 미국에서, 75%는 대만에서 TSMC가 처리할 것"이라고 주장했다. 1.8나노급 인텔 18A, 외부 고객사 비중은 미미 단 디지타임스가 거론한 인텔 18A 공정은 외부 고객사보다는 내부 고객사, 다시 말해 인텔 PC·서버 생산 용도에 치중한 공정이다. 인텔 역시 "인텔 18A 공정의 주된 고객사는 인텔 자신"이라고 설명해 왔다. 인텔 18A 공정을 거칠 PC용 프로세서로는 이 달부터 본격 공급에 들어간 코어 울트라 시리즈3(팬서레이크)를 포함해 올 하반기 공개될 데스크톱 PC·노트북용 노바레이크(Nova Lake) 등이 예정됐다. 서버용으로는 제온6+(클리어워터 포레스트)를 포함해 다이아몬드래피즈, 코랄래피즈 등이 인텔 18A를 활용할 예정이다. 반대로 인텔이 직접 밝힌 인텔 18A 공정 외부 고객사는 AWS(아마존웹서비스), Arm 등 극소수에 그친다. 1.4나노급 인텔 14A, 단가·수율 등 여전히 미지수 디지타임스가 후보로 거론한 또다른 공정인 인텔 14A 공정은 시작부터 외부 고객사 요구사항에 맞춘 공정이다. 그러나 단가나 비용 효율성, 수율 면에서 아직 충분히 검증되지 않았다. 인텔 역시 시설 투자 규모조차 결정하지 못한 상태다. 또 입출력을 관리하는 I/O 다이는 단가나 비용 효율성, 수율 등을 고려해 충분히 성숙된 공정을 활용하는 것이 일반적이다. 현재 엔비디아 주력 GPU인 블랙웰 역시 I/O 다이에 5나노급 N5 공정을 개량한 N4P 공정을 활용한다. 작년 9월 데이비드 진스너 인텔 최고재무책임자(CFO)는 "인텔 14A 공정 생산 단가는 고개구율(High-NA) 극자외선(EUV) 활용으로 비싸질 것"이라고 밝힌 바 있다. 엔비디아가 I/O 다이 생산에 인텔 14A 공정을 선택할 경우 원가 상승은 불가피하다. 단 엔비디아 GPU는 현재 사실상 과점 상태에 있으며 주요 기업들이 단가 상승을 감수할 요인도 분명하다. 트럼프 행정부 압박, 11월 이후 지속 여부 불투명 디지타임스는 엔비디아-인텔 협력설 배경으로 미국 정부의 정치적 압력을 들었다. 도널드 트럼프 2기 행정부는 작년 9월 인텔에 89억 달러(약 12조 3천247억원)를 투자하고 1대 주주로 올라선 한편 대만 등에는 미국 내 반도체 생산시설 투자를 종용하고 있다. 단 지난 해 초 취임 이후 47%로 시작한 트럼프 2기 행정부 지지율은 최근 최저치인 38%대까지 내려왔다. 미국 미네소타주 미니애폴리스에서 진행된 이민 단속 작전에서 민간인 희생자가 발생한 여파로 해석된다. 이는 오는 11월 미국 상/하원 의원, 주지사 등을 선출하는 중간선거에도 적지 않은 영향을 미칠 것으로 보인다. 중간 선거 결과에 따라 트럼프 2기 행정부의 기조가 바뀐다면 엔비디아가 굳이 비용 부담이 큰 선택을 할 이유도 줄어든다. 인텔 14A 고객사 윤곽, 올 하반기 확정 전망 디지타임스의 엔비디아-인텔 협력설 실현 여부는 올 하반기에 판가름날 것으로 보인다. 반도체 업계 통례에 따르면 제품 개발부터 출시까지는 평균 2년 가량 걸린다. 엔비디아 역시 올 상반기, 늦어도 올 3분기 안에는 차기 GPU 구성 요소 중 어느 부분을 어떤 파운드리에 맡길 지 선택해야 한다. 립부 탄 인텔 CEO는 지난주 2025년 4분기 실적발표 이후 컨퍼런스 콜에서 "외부 고객사가 인텔 14A의 성능, 수율, 설계자산(IP) 준비 상황을 종합적으로 평가하고 있으며 이 과정이 올 하반기까지 계속될 것"이라고 설명했다. 인텔 관계자는 29일 디지타임스발 보도 관련 실현 가능성, 논의 진척 사항 등 지디넷코리아 질의에 "시장의 루머에 답변하지 않는다"고 회신했다.

2026.01.29 10:05권봉석 기자

인텔, 코어 울트라 시리즈3 본격 시동 "AI PC의 완성형"

"인텔 코어 울트라 시리즈3는 향상된 전력 효율과 그래픽 성능, x86의 호환성을 갖춘 AI PC의 완성형이다. 인텔은 이를 바탕으로 한국 파트너들과 협력하여 AI PC 생태계를 한 단계 더 높은 차원으로 도약시킬 것으로 기대한다" 28일 오전 서울 삼성동 웨스틴 파르나스에서 진행된 '2026 AI PC 쇼케이스 서울'에서 조쉬 뉴먼 인텔 컨수머 PC 부문 총괄이 이렇게 설명했다. 인텔은 1.8나노급 '인텔 18A' 공정에서 생산된 차세대 AI PC용 프로세서, 코어 울트라 시리즈3(팬서레이크)를 올 초 CES 2026에서 정식 출시했다. 주요 제조사도 27일을 기점으로 PC 신제품 출하에 나섰다. "코어 울트라 시리즈3, 모든 면에서 진보한 제품" 코어 울트라 시리즈3는 인텔 18A 공정의 양대 요소인 게이트올어라운드(GAA) 리본펫 트랜지스터와 반도체 후면 전력 전달 기술 '파워비아'를 적용한 첫 상용 제품이다(기술적 세부 내용은 관련기사 참조). 조쉬 뉴먼 총괄은 "코어 울트라 시리즈3는 코어 울트라 200V(루나레이크)의 전력효율성, 코어 울트라 200H(애로우레이크)의 고성능을 결합하는 것을 목표로 CPU, GPU, NPU 등 모든 면에서 진보를 달성한 제품"이라고 설명했다. 이어 "전력 효율성 향상으로 배터리 지속시간을 시간 단위에서 일 단위로 확장하는 한편 Xe3 12코어로 구성된 새 내장 GPU '아크 B390'은 초박형 노트북에서 그동안 불가능했던 게임 성능을 구현했다"고 강조했다. 삼성전자·LG전자, 27일 PC 신제품 국내 출시 삼성전자와 LG전자는 지난 27일 각각 '갤럭시북6 프로/울트라', 'LG 그램 프로 AI' 등 코어 울트라 시리즈3 탑재 신제품을 국내 출시했다. 이민철 삼성전자 MX사업부 갤럭시 에코비즈팀장(부사장)은 "갤럭시북6는 50년 이상 축적한 제조 경험과 갤럭시 생태계를 기반으로 성능과 배터리 지속시간, 안정성 등 PC 기본 요소 재정의에 집중한 완전히 새로운 제품"이라고 설명했다. 이어 "인텔의 PC 원격 관리기술 'v프로', 삼성전자의 보안 기술 '녹스'(KNOX)를 적용한 기업용 파생모델 '갤럭시북6 엔터프라이즈 에디션'도 5월경 추가 출시 예정"이라고 덧붙였다. 장진혁 LG전자 전무는 "LG 그램 프로 AI는 경량 합금 '에어로미늄' 소재를 기반으로 코어 울트라 시리즈3의 GPU·NPU를 활용해 클라우드 AI, 마이크로소프트 코파일럿+, LG가 자체 개발한 엑사원 3.5 기반 '그램 AI' 등 폭넓은 AI 기능을 제공한다"고 설명했다. 산업용 엣지 솔루션으로 포트폴리오 확장 인텔은 지난 해 9월 '인텔 테크투어 US' 행사 당시 코어 울트라 시리즈3에 적용된 모든 IP를 그대로 품은 산업용 엣지 솔루션도 동시에 시장에 공급할 것이라고 밝힌 바 있다. 이날 조쉬 뉴먼 총괄 역시 이를 재확인하고 "엣지용 코어 울트라 시리즈3는 극저온/고온 환경에서 정상 작동, 24시간 주 7일 구동되는 안정성과 긴 수명주기를 바탕으로 스마트시티, 헬스케어, 자동화 시스템의 엣지 AI 구현을 도울 것"이라고 설명했다. 인텔과 협력해온 LG이노텍, 삼성메디슨 등 국내 파트너사도 "AI 사물인식을 통한 결함 검출과 제조 현장 자동화, 의료 AI를 활용한 초음파 영상 진단 개선 등에 코어 울트라 시리즈3를 활용할 것"이라고 밝혔다. 인텔 "다양한 가격대 제품 출시 위해 노력" 립부 탄 인텔 CEO는 지난 주 실적발표 이후 컨퍼런스 콜에서 "웨이퍼 제약으로 PC용 프로세서 우선순위가 밀렸으며 고가 제품 위주로 공급한다"고 설명한 바 있다. 일부 업체도 Xe3 12코어 GPU를 내장한 고성능 제품을 우선 출시했다. 문제는 메모리 반도체 수급난이 가시화되며 올해 PC 신제품 가격이 크게 상승했다는 점이다. 가격 부담이 적은 제품을 찾는 소비자가 제품 구매를 꺼릴 것이라는 전망이 나오고 있다. 이날 현장에서 만난 한 외국계 제조사 국내법인 관계자는 "예정대로라면 이달 말 공급돼야 할 신제품이 다음 달 초 국내 들어오는 등 수급 관련 일부 차질이 있다"고 설명했다. 조쉬 뉴먼 총괄은 "다양한 가격대 제품군 출시를 위해 여러 제조사와 함께 시장 수요에 보다 정밀히 대응 예정"이라고 설명했다. 배태원 인텔코리아 대표이사 역시 "2분기부터는 공급 상황이 나아질 것"이라고 설명했다.

2026.01.28 17:10권봉석 기자

오케스트로, 여의도에 도심형 엣지 데이터센터 구축…소버린 AI 겨냥

오케스트로가 여의도 신사옥 부지에 도심형 엣지 인공지능(AI) 데이터센터를 구축해 고객의 소버린 AI 수요 대응에 나선다. 오케스트로는 DCK와 소버린 AI 클라우드 데이터센터 구축을 위한 업무협약(MOU)을 체결했다고 28일 밝혔다. 협약식은 지난 22일 서울 여의도 오케스트로 본사에서 열렸으며 양사 주요 관계자들이 참석했다. 생성형 AI 확산으로 그래픽처리장치(GPU) 기반 AI 인프라 수요가 빠르게 증가하는 가운데, 최근 데이터 주권과 보안, 비용 통제가 가능한 프라이빗 AI 환경에 대한 관심이 높아지고 있다. 특히 금융·공공·대기업을 중심으로 퍼블릭 클라우드의 제약을 벗어나 데이터와 운영 정책을 직접 통제할 수 있는 소버린 AI 환경을 도입하려는 움직임도 본격화된 상황이다. 이번 협약은 프라이빗 클라우드 기반 소버린 AI 클라우드 데이터센터를 구축하기 위해 추진됐다. 양사는 오케스트로 여의도 신사옥 부지를 활용해 도심형 엣지 AI 데이터센터를 조성하고 이를 고객 전용 소버린 AI 클라우드 데이터센터로 구현할 계획이다. 여의도에 조성될 이 센터는 5메가와트(MW)급 규모로, GPU 기반 대규모 AI 워크로드와 국산 AI 반도체(NPU), 국산 거대언어모델(LLM)까지 연계할 수 있도록 설계된다. 외부 클라우드나 공용 자원에 의존하지 않는 전용 환경을 통해 고객이 데이터와 운영 정책을 직접 설정하고 관리할 수 있는 안전한 프라이빗 소버린 AI 환경을 구현하는 것이 목표다. 특히 랙당 최대 30키로와트(kW)를 수용할 수 있는 고밀도 전력·냉각 설계와 수냉식 냉각 설비를 적용해 고성능 GPU 운영에 필요한 대규모 AI 전용 인프라를 구현하는 것이 강점이다. 랙 후면 도어 열교환기(RDHx) 방식을 적용해 공랭 기반 장비의 배기열을 수냉으로 제거하는 구조로 설계해 고밀도 GPU 환경에서도 열을 효과적으로 제어할 수 있다는 설명이다. 오케스트로는 해당 데이터센터에 자사 AI·클라우드 풀스택 솔루션을 적용해 AI 서비스부터 클라우드 인프라, 통합 운영 관리까지 하나의 아키텍처로 제공할 계획이다. 이를 통해 고객은 자체 데이터센터를 구축하거나 별도 운영 인력을 투입하지 않고도 통합된 소프트웨어·하드웨어·상면 서비스를 기반으로 프라이빗 AI 인프라를 운영할 수 있다. 해당 데이터센터의 설계·구축은 DCK가 전담한다. 양사는 개발·인허가부터 설계·조달·시공(EPC), 운영, 영업에 이르기까지 데이터센터 구축 전 과정에 걸쳐 협력한다. DCK는 전국 주요 거점에서 AI 특화 데이터센터 개발을 추진해 왔으며 최근 수도권 내 도심형 엣지 AI 데이터센터 인허가를 확보하는 등 데이터센터 설계·구축 역량을 보유 중이다. 오케스트로는 이번 협약을 통해 여의도 도심형 엣지 AI 데이터센터를 기반으로 한 소버린 AI 데이터센터 구축을 단계적으로 확대할 방침이다. DCK가 보유한 마곡·청담 AI 데이터센터에도 자사 AI·클라우드 풀스택 솔루션을 적용해 산업별 AI 인프라 수요에 대응할 계획이다. 김범재 오케스트로 대표는 "여의도 신사옥에 소버린 AI 클라우드 데이터센터를 구축하는 것은 우리 AI 인프라 전략을 구체화하는 중요한 과정"이라며 "고밀도 전력·냉각 설계를 통해 고성능 GPU를 안정적으로 운영할 수 있는 프라이빗 AI 데이터센터를 구축하고 주요 거점으로 단계적 확장해 소버린 AI 환경 구축을 본격화할 것"이라고 말했다.

2026.01.28 17:00한정호 기자

엔비디아, Arm 윈도 PC 칩 'N1X/N1' 상반기 출시하나

엔비디아가 2024년 하반기부터 대만 팹리스 미디어텍과 개발을 시작한 윈도 PC용 Arm 기반 시스템반도체(SoC)인 N1X/N1이 올 상반기 안에 정식 제품으로 등장할 수 있다는 전망이 나왔다. N1X/N1은 고성능 CPU 코어와 블랙웰 GPU를 결합한 SoC로, 엔비디아 개인용 AI 워크스테이션 'DGX 스파크' 등에 에 적용된 GB10과 유사한 구성이다. 기존 Arm 윈도 노트북의 한계로 지적돼 온 그래픽 성능을 대폭 끌어올릴 수 있다. 대만 디지타임스는 엔비디아가 오는 3월 'GTC 2026' 행사에서 N1X/N1을 정식 공개하고, 6월 '컴퓨텍스 타이베이 2026' 행사 중 실제 제품을 공개할 가능성이 높다고 짚었다. 그러나 게임과 안티치트 등을 포함한 소프트웨어 호환성이 최대 변수로 꼽힌다. 2024년 하반기부터 N1/N1X 개발설 흘러나와 엔비디아가 대만 팹리스 미디어텍과 협력해 윈도 PC용 Arm 칩을 개발중이라는 루머는 2024년 하반기부터 대만 내 공급망을 중심으로 간헐적으로 흘러나왔다. 엔비디아가 개발중인 칩은 ▲ Arm 코어텍스(Cortex)-X925 CPU 코어 10개, 저전력·고효율 코어텍스-A725 코어 10개와 블랙웰 GPU를 결합한 'N1X' ▲ 코어 수를 줄이고 GPU 성능도 낮춘 'N1' 등 두 개다. 이 중 CPU와 GPU는 지난해 4분기부터 우분투 리눅스 기반 'DGX OS'를 탑재하고 시장에 출시된 개인용 AI 워크스테이션 'DGX 스파크' 내장 GB10과 거의 구성이 같은 것으로 알려져 있다. 작년 컴퓨텍스 공개는 불발... 벤치마크 수치는 노출 작년 5월 '컴퓨텍스 타이베이 2025' 개최를 앞두고 엔비디아와 미디어텍 두 회사가 N1X/N1 칩을 공개할 수 있다는 전망도 나왔다. 그간 컴퓨텍스를 포함해 공개석상에 등장하지 않았던 차이리싱(蔡力行) 미디어텍 CEO가 기조연설에 나섰다는 사실 때문이다. 그러나 엔비디아 기조연설이나 미디어텍 기조연설에서 N1X나 N1 관련 내용은 등장하지 않았다. 차이리싱 미디어텍 CEO와 젠슨 황 엔비디아 CEO도 GB10 관련 내용만 소개하는 데 그쳤다. 이후 작년 7월에는 N1X 칩 성능을 Arm용 윈도11에서 실행한 결과가 공개되기도 했다. CPU 성능은 인텔 14세대급 프로세서와, 내장 GPU 성능은 인텔 코어 울트라 시리즈3의 Xe3와 비슷할 것으로 예상된다. 디지타임스 "2분기부터 실제 제품 등장 전망" 대만 디지타임스는 지난 19일 공급망 관계자를 인용해 "엔비디아 N1X 칩 기반 노트북이 이르면 올 1분기 시장에 출시되고 2분기부터 본격적으로 시장에 공급될 것"이라고 보도했다. 실제로 작년 11월 경 주요 PC 제조사인 델테크놀로지스가 엔비디아 N1X 기반 '델 16 프리미엄' 노트북 시제품을 운송했다는 기록이 드러나기도 했다. 또 레노버도 최근 게이밍 노트북 '리전'에 탑재되는 소프트웨어인 '리전 스페이스' 관련 기술지원 문서에 'Legion 7 15N1X11'이라는 미출시 제품 명칭을 표기했다. 이는 '15인치 디스플레이와 엔비디아 N1X를 탑재한 리전 7 노트북'으로 해석될 수 있다. 이를 종합하자면 엔비디아가 오는 3월 중순 미국 새너제이에서 진행될 컨퍼런스 'GTC 2026'에서 N1X/N1칩을 공개하고, 6월 초순 대만에서 진행될 '컴퓨텍스 타이베이 2026'에서 실제 제품을 출시하는 스케줄로 이어질 수 있다. 게임 호환성이 관건... 최근 Arm용 X박스 앱 공개 엔비디아 N1X/N1 SoC는 현재까지 출시된 노트북용 SoC 중 그래픽 성능 면에서 최상위에 있다. Arm 진영에서는 배터리 지속시간과 휴대성이 중요한 업무용 노트북 수요가 퀄컴 스냅드래곤 X 엘리트로, 게임용 고성능 노트북은 엔비디아 N1X로 양분될 가능성도 있다. 그러나 오히려 GPU 성능보다는 주로 게임이나 안티치트 등 소프트웨어 호환성이 더 큰 문제가 될 것으로 보인다. 엔비디아에 한 발 앞서 Arm 윈도 PC 시장에 참여한 퀄컴도 별도 조직을 만들고 호환성 문제를 해결하는 데 10여 년 가량을 투자했다. 특히 GPU 등에 직접 접근해야 하는 게임 특성상 여러 문제가 발생할 수 있다. 다만 지난 21일 마이크로소프트가 Arm용 X박스 앱을 공개했고 X박스 게임 패스 카탈로그에 등록된 게임 중 85% 가량이 현재 Arm용 윈도11을 지원한다. 엔비디아가 자체 운영하는 클라우드 게이밍인 '지포스 나우'를 Arm용으로 개발하는 방안도 있다.

2026.01.26 16:39권봉석 기자

메가존클라우드, 하나은행과 디지털 혁신 금융 서비스 발굴 '맞손'

메가존클라우드가 하나은행과 인공지능(AI)·클라우드·데이터 사이언스 등 디지털 신기술을 접목한 혁신 금융 서비스 공동 발굴에 나선다. 메가존클라우드는 지난 23일 서울 중구 하나은행 을지로 본점에서 하나은행과 AI 클라우드 시장 내 상호 협업과 금융 서비스 지원을 위한 전략적 업무협약(MOU)을 체결했다고 26일 밝혔다. 이날 체결식에는 이주완 메가존클라우드 이사회 의장과 이호성 하나은행장이 참석했다. 이번 협약을 통해 양측은 정부의 글로벌 AI 3강 비전에 따른 AI 데이터센터 구축을 위해 메가존클라우드가 도입 예정인 대규모 그래픽처리장치(GPU)·신경망처리장치(NPU) 서버 수입과 관련한 하나은행의 수출입 금융 지원을 추진한다. 아울러 금융 서비스, 클라우드, AI 등 양사가 보유한 기술과 서비스를 활용한 융복합 비즈니스 모델 발굴 등에 지속 협력할 방침이다. 특히 하나은행은 GPU·NPU 서버 수입과 관련한 금융 지원과 별도로 직·간접 지분 투자도 추진할 계획이다. 이를 통해 메가존클라우드는 아시아 최대 클라우드 관리 서비스 기업(MSP) 입지와 기술 경쟁력을 강화한다는 목표다. 또 GPU 수급에 어려움을 겪고 있는 국내 빅테크·반도체 기업의 성장 촉진도 도모할 방침이다. 메가존클라우드 황인철 최고매출책임자(CRO)는 "우리 강점인 멀티·하이브리드 클라우드 운영 역량과 AI 특화 플랫폼을 하나은행의 금융 데이터들과 겹합해 AI 금융 특화 솔루션을 만들고 금융 특화 AI 데이터센터 활성화를 가속화할 예정"이라고 밝혔다.

2026.01.26 16:14한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[AI칩 전국시대 ①]韓 AI반도체 현주소: '엔비디아 대항마'를 넘어 실전으로

[타보고서] 650마력·제로이백 10.9초…'제네시스 GV60 마그마'

[AI는 지금] 로펌 판 바꾸는 AI…리걸테크 200조 시장 열린다

비트코인, 6만7000달러대까지 후퇴…"위험 증폭 가짜 자산"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.