• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터센터'통합검색 결과 입니다. (648건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AWS, 韓에 2031년까지 7조원 추가 투자…역대 최대 규모

아마존웹서비스(AWS)가 국내 단일 투자 계획 가운데 역대 최대 규모의 투자를 단행한다. 2031년까지 7조원(미화 50억 달러)을 추가로 투입해 한국 클라우드 인프라를 확충할 예정이며 누적 투자액은 12조6천억원(90억 달러)에 이를 전망이다. 이번 투자를 통해 한국 기업들이 데이터 주권을 지키면서도 글로벌 시장에서 경쟁력을 강화할 수 있도록 지원한다는 방침이다. AWS는 29일 경주 예술의전당에서 열린 'APEC CEO 서밋 코리아 2025'에서 이 같은 투자 계획을 공식 발표했다. 이번 투자는 글로벌 클라우드 사업자가 발표한 국내 단일 투자 계획으로는 역대 최대 규모로 한국 내 AI 및 클라우드 인프라 확충의 전환점이 될 것이란 전망이다. AWS는 이번 투자로 고성능 컴퓨팅 인프라와 특수 목적 AI 하드웨어, 그리고 AI 개발 환경 전반에 걸친 지원을 확대한다. 기업과 공공기관은 AWS 클라우드 플랫폼을 통해 머신러닝, 데이터 분석, 자율적 업무 처리, 생성형 AI 모델 학습 등 다양한 서비스를 안정적으로 이용할 수 있게 된다. AWS 하이메 발레스 아시아·태평양·일본(APJ) 총괄 부사장은 "이번 7조원 규모의 신규 투자는 모든 규모의 한국 기업의 디지털 전환을 지원하고 한국이 글로벌 AI 강국으로 도약하는 데 기여하기 위한 장기적 약속을 더욱 공고히 하는 것"이라며 "AWS는 세계적 수준의 데이터센터 인프라를 확장함으로써 한국의 기술적 미래에 투자하며 한국 기업들이 생성형 AI가 제공하는 막대한 기회를 활용할 수 있도록 돕겠다"고 말했다. 이번 투자에는 AWS와 SK그룹이 협력해 추진 중인 '울산 AI 존(Ulsan AI Zone)' 프로젝트가 포함됐다. 울산 미포국가산업단지 일대에 조성되는 이 AI 특화 데이터센터는 2027년부터 단계적으로 운영을 시작할 예정이며 SK그룹이 건설을 담당하고 AWS는 자사의 AI 및 클라우드 기술 역량을 제공한다. 완공 시 약 103메가와트(MW)급 설비와 6만 개의 그래픽처리장치(GPU)를 갖춘 대규모 AI 인프라로 향후 1기가와트(GW)급 확장 가능성도 제시됐다. 김정관 산업통상자원부 장관은 "AWS의 대규모 AI 인프라 투자는 한국이 글로벌 AI 강국으로 도약하는 데 크게 기여할 것"이라며 "생산성 정체와 보호무역 확산 등 산업계가 직면한 위기를 극복하기 위해서는 AI 전환(AX)이 필수적으로 정부는 국내외 기업이 AI 인프라 확충과 AX 확산을 위한 적극적인 투자와 비즈니스 활동을 펼칠 수 있도록 전폭 지원하겠다"고 말했다. AWS는 인프라 확충과 함께 한국의 디지털 인재 양성에도 투자 중이다. 2017년 이후 한국에서 30만 명 이상이 AWS를 통해 클라우드 기술을 교육받았으며 대학·특성화고 등과의 협력도 강화 중이다. 천안여자상업고등학교에서는 2025년부터 3년 과정의 AWS 클라우드 교육과정을 운영하고, 서울여자대학교는 아마존 세이지메이커와 아마존 퀵사이트를 활용한 지능형 데이터 시스템 연구를 진행 중이다. 또 트레이니움, 인퍼런시아 등 자체 개발한 특수 목적 AI 칩을 기반으로 한 고성능 연산 인프라를 국내 데이터센터에 적용할 예정이다. 이를 통해 한국 내 기업과 연구기관이 대규모 AI 모델을 빠르게 학습·배포하고 비용 효율적으로 운영할 수 있는 환경을 마련한다. 이번 발표는 한국이 AI, 반도체, 데이터 인프라 등 첨단 산업 중심으로 글로벌 기업들의 전략적 투자처로 부상하고 있음을 보여준다. 산업부는 AWS의 추가 투자를 통해 국내 데이터 인프라 역량 강화와 더불어 고급 기술 일자리 창출, AI 스타트업 생태계 확산이 기대된다고 밝혔다. AWS는 현재 서울 리전과 로컬 존을 중심으로 국내 클라우드 서비스를 운영하고 있으며 이번 투자를 통해 리전 간 연결성과 가용성을 높일 계획이다. 이를 통해 한국 내 고객이 안정적이고 저지연의 AI·클라우드 서비스를 이용할 수 있는 기반이 강화될 전망이다. 함기호 AWS코리아 대표는 "다년에 걸친 이번 투자 계획은 한국의 디지털 전환 여정을 지원하고자 하는 AWS의 확고한 의지를 보여준다"며 "확장된 클라우드 인프라는 모든 규모의 국내 기업이 데이터 주권을 유지하면서 첨단 AI 기술을 활용해 글로벌 시장에서 경쟁력을 확보할 수 있도록 할 것"이라고 말했다. 이어 "한국은 세계 최고 수준의 ICT 인프라와 우수한 인재를 갖춘 시장으로 생성형 AI와 클라우드 혁신을 실현하기 위한 최적의 환경"이라며 "이번 투자를 통해 한국이 글로벌 기술혁신의 중심으로 자리매김하도록 지원할 것"이라고 덧붙였다.

2025.10.29 12:17남혁우

11.3조원 쏜 SK하이닉스, 내년도 HBM·D램·낸드 모두 '훈풍'

올 3분기 사상 최대 분기 실적을 거둔 SK하이닉스가 내년에도 성장세를 자신했다. 메모리 산업이 AI 주도로 구조적인 '슈퍼사이클'을 맞이했고, 핵심 사업인 HBM(고대역폭메모리)도 주요 고객사와 내년 공급 협의를 성공적으로 마쳤기 때문이다. 이에 SK하이닉스는 내년 설비투자 규모를 올해 대비 확대하고, HBM과 범용 D램, 낸드 모두 차세대 제품의 생산능력 비중 확대를 추진하는 등 수요 확대에 대응하기 위한 준비에 나섰다. 29일 SK하이닉스는 3분기 실적발표를 통해 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 밝혔다. 창사 이래 최대 실적…'메모리 슈퍼사이클' 이어진다 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. 또한 분기 기준 역대 최대 실적으로, 영업이익이 창사 이래 최초로 10조원을 넘어섰다. 호실적의 주요 배경에는 AI 중심의 메모리 슈퍼사이클 효과가 있다. AI 인프라 투자에 따른 데이터센터 및 일반 서버 수요가 확대되면서, D램과 낸드 모두 수요가 빠르게 증가하는 추세다. 특히 주요 메모리 공급사들이 HBM(고대역폭메모리) 양산에 생산능력을 상당 부분 할당하면서, 범용 D램의 수급이 타이트해졌다는 분석이다. SK하이닉스는 "HBM뿐 아니라 일반 D램·낸드 생산능력도 사실상 완판 상태”라며 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 밝혔다. 메모리 사업에도 근본적인 변화가 감지된다. AI가 단순히 새로운 응용처의 창출을 넘어, 기존 제품군에도 AI 기능 추가로 수요 구조 전체를 바꾸고 있다는 설명이다. SK하이닉스는 "이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습에서 추론으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 말했다. 이에 따라 SK하이닉스는 내년 서버 세트 출하량을 전년 대비 10% 후반 증가로 예상하고 있다. 전체 D램 빗그로스(출하량 증가율)은 내년 20% 이상, 낸드 빗그로스는 10% 후반으로 매우 높은 수준을 제시했다. HBM, 내후년까지 공급 부족 전망 SK하이닉스는 이번 실적발표 컨퍼런스콜을 통해 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 내년 엔비디아향 HBM 공급 계획도 순조롭게 진행될 것으로 전망된다. SK하이닉스는 "내년도 HBM 공급 계약을 최종 확정지었고, 가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"며 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"고 밝혔다. HBM4(6세대 HBM)는 올 4분기부터 출하를 시작해, 내년 본격적인 판매 확대에 나설 계획이다. HBM4는 엔비디아가 내년 출시할 차세대 AI 가속기 '루빈'에 탑재될 예정으로, 이전 세대 대비 I/O(입출력단자) 수가 2배로 확장되는 등 성능이 대폭 향상됐다. 또한 엔비디아의 요구로 최대 동작 속도도 이전 대비 빨라진 것으로 알려졌다. SK하이닉스는 "당사는 HBM 1위 기술력으로 고객사 요구 스펙에 충족하며 대응 중"이라며 "업계에서 가장 빠르게 고객 요구에 맞춘 샘플을 제공했고, 대량 공급도 시작할 준비가 돼 있다"고 강조했다. 설비투자·차세대 메모리로 미래 수요 적극 대응 SK하이닉스는 메모리 슈퍼사이클에 대응하기 위해 내년 설비투자 규모를 올해 대비 확대할 계획이다. 최근 장비 반입을 시작한 청주 신규 팹 'M15X'의 경우, 내년부터 HBM 생산량 확대에 기여할 수 있도록 투자를 준비 중이다. 또한 올해부터 건설이 본격화된 용인 1기팹, 미국 인디애나주에 계획 중인 첨단 패키징 팹 등으로 최첨단 인프라 구축에 대한 투자가 지속될 것으로 예상된다. 범용 D램과 낸드는 신규 팹 투자 대신 선단 공정으로의 전환 투자에 집중한다. 1c(6세대 10나노급) D램은 지난해 개발 완료 후 올해 양산을 시작할 예정으로, 내년 본격적인 램프업이 진행된다. SK하이닉스는 "내년 말에는 국내 범용 D램 양산의 절반 이상을 1c D램으로 계획하고 있다"며 "최고의 성능과 원가 경쟁력을 확보한 1c 기반 LPDDR(저전력 D램), GDDR(그래픽 D램) 라인업을 구축하고 적시에 공급해 수익성을 확보할 것"이라고 밝혔다. 낸드도 기존 176단 제품에서 238단, 321단 등으로 선단 공정의 비중을 꾸준히 확대하고 있다. 특히 내년에는 321단 제품에 대해 기존 TLC(트리플레벨셀)를 넘어 QLC(쿼드러플레벨셀)로 라인업을 확장할 계획이다. 내년 말에는 회사 낸드 출하량의 절반 이상을 321단에 할당하는 것이 목표다.

2025.10.29 11:41장경윤

SK하이닉스, 엔비디아 등과 내년 HBM 공급 협의 '완료'

SK하이닉스가 엔비디아 등 주요 고객사와의 내년 HBM(고대역폭메모리) 공급 협의를 마무리했다. 이에 따라 차세대 HBM의 양산 및 설비투자에 속도를 낼 수 있을 것으로 관측된다. SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 29일 밝혔다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. SK하이닉스는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 SK하이닉스는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자, 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, SK하이닉스는 "시황에 맞는 최적화된 투자 전략을 유지할 것"이라고 밝혔다.

2025.10.29 08:39장경윤

SK하이닉스, 창사 첫 '10조 클럽'...사상 최대 실적

SK하이닉스가 AI향 고부가 메모리 판매 확대로 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 돌파했다. SK하이닉스는 올해 3분기 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 29일 밝혔다. 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. D램과 낸드 가격 상승이 본격화되고, AI 서버용 고성능 제품 출하량이 증가하며 분기 기준 역대 최대 실적을 달성했다. 특히 영업이익은 창사 이래 최초로 10조원을 넘어섰다. SK하이닉스는 “고객들의 AI 인프라 투자 확대로 메모리 전반의 수요가 급증했다”며 “HBM3E 12단과 서버향 DDR5 등 고부가가치 제품군 판매 확대로 지난 분기에 기록한 역대 최고 실적을 다시 한 번 넘어섰다”고 밝혔다. 회사는 이어 “특히 AI 서버향 수요가 늘며 128GB 이상 고용량 DDR5 출하량은 전 분기 대비 2배 이상으로 증가했고, 낸드에서도 가격 프리미엄이 있는 AI 서버향 기업용 SSD(eSSD) 비중이 확대됐다”고 강조했다. 이 같은 호실적을 바탕으로 3분기 말 현금성 자산은 전 분기 대비 10조9천억원 늘어난 27조9천억원에 달했다. 반면 차입금은 24조1천억원에 그쳐 회사는 3조8천억원의 순현금 체제로 전환하는 데 성공했다. 회사는 AI 시장이 추론 중심으로 빠르게 전환되면서 AI 서버의 연산 부담을 일반 서버 등 다양한 인프라로 분산하려는 움직임이 나타나고 있어, 고성능 DDR5와 eSSD 등 메모리 전반으로 수요가 확장될 것으로 내다봤다. 여기에 최근 주요 AI 기업들이 전략적 파트너십을 잇달아 체결하며 AI 데이터센터 확장 계획을 발표하고 있는 점도 긍정적이다. 이는 HBM뿐만 아니라 일반 서버용 메모리를 포함한 다양한 제품군에 걸쳐 고른 수요 성장을 견인할 것으로 예상된다. 이에 SK하이닉스는 안정적으로 양산 중인 최선단 10나노급 6세대(1c) 공정으로의 전환을 가속해 서버, 모바일, 그래픽 등 '풀 라인 업(Full-line up)' D램 제품군을 갖추고, 공급을 확대해 고객 수요에 대응한다는 전략이다. 낸드에서는 세계 최고층 321단 기반 TLC, QLC 제품의 공급을 늘려 고객 요구에 신속히 대응할 계획이다. 한편 SK하이닉스는 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다. 이 중 지난 9월 개발을 완료하고 양산 체제를 구축한 HBM4는 고객 요구 성능을 모두 충족하고 업계 최고 속도 지원이 가능하도록 준비했다. 회사는 이를 4분기부터 출하하기 시작해 내년에는 본격적인 판매 확대에 나설 계획이다. 아울러 회사는 급증하는 AI 메모리 수요로 D램과 낸드 전 제품에 대해 내년까지 고객 수요를 모두 확보했다고 밝혔다. SK하이닉스는 예상을 뛰어넘는 고객 수요에 대응하고자 최근 클린룸을 조기 오픈하고 장비 반입을 시작한 M15X를 통해 신규 생산능력(Capa)을 빠르게 확보하고 선단공정 전환을 가속화한다는 방침이다. 이에 따라 내년 투자 규모는 올해보다 증가할 계획으로, 회사는 시황에 맞는 최적화된 투자 전략을 유지할 것이라고 밝혔다. 김우현 SK하이닉스 부사장(CFO)은 “AI 기술 혁신으로 메모리 시장이 새로운 패러다임으로 전환하며 전 제품 영역으로 수요가 확산되기 시작했다”며 “앞으로도 시장을 선도하는 제품과 차별화된 기술 경쟁력을 바탕으로 고객 수요에 대응하며 AI 메모리 리더십을 공고히 지켜가겠다”고 말했다.

2025.10.29 08:39장경윤

[영상] "세상에 없던 기술, 경주서 개봉"…놀라움 자아낸 삼성·현대차 기술 뭐길래?

[경주=장유미 기자] "평소에는 화물 트럭, 주말에는 캠핑카. 차 한 대로 기분따라 콘셉트를 바꿀 수 있다는 점 때문에 많은 분들이 신기해 했어요." 아시아태평양경제협력체(APEC) 정상회의가 열리는 경주에 마련된 'K-테크 쇼케이스'장. 28일 오후 이곳 현대자동차 부스에서 만난 안내직원은 '이지스왑' 동작 모형이 전시된 공간 앞에서 들뜬 표정으로 이처럼 말했다. '이지스왑'은 목적기반모빌리티(PBV) 모듈 교체 기술로, 현대차그룹의 다른 브랜드인 기아가 지난 해 1월 'CES 2024'에서 처음 공개했다.이 기술은 이날 'K-테크 쇼케이스'를 찾은 최태원 SK그룹 겸 대한상공회의소 회장에게도 호기심을 자아냈다. 최 회장은 '이지스왑' 모형을 가리키며 "두 개는 합쳐지는 건가요?"라고 질문을 던지기도 했다.기아는 'PBV'를 새로운 성장동력으로 삼고 있다. 기아의 첫 전용 PBV 모델 'PV5'도 부스에서 볼 수 있었는데, 외관에 아나모픽 LED 스크린이 탑재돼 다양한 각도에서 PBV 모빌리티를 생생하게 체험할 수 있었다. 또 '이지스왑'의 작동원리를 PBV 동작 모형을 통해 직관적으로 전달해줌으로써 PBV의 다양한 활용성에 대해 쉽게 이해할 수 있었다. 현대차그룹 부스 안내직원은 "관람객들이 현장에서 '이지스왑' 기술이 상용화 된 것인지에 대해 가장 많이 물어봤다"며 "기아차에서 PBV 모델인 'PV5'를 올해 7월에 출시했지만, '이지스왑' 기술은 차량 개조 측면에서 도로교통법에 따른 제약으로 인해 아직까지 활용할 수 없는 상황"이라고 설명했다. 그러면서 "현대차그룹이 이를 상용화 하고자 정부 측에 개정 요청을 해뒀다"며 "최근 긍정적인 답변을 받은 것으로 알고 있다"고 덧붙였다. 현대차그룹은 수소 기술력과 지속가능한 모빌리티에 대한 비전도 부스를 통해 공개했다. 특히 '수소 존'에선 현대차그룹이 구상하는 수소사회의 모습을 한 눈에 알 수 있도록 모형으로 제작해 눈길을 끌었다. 신재생에너지로 생산한 전기를 활용해 수전해 방식으로 수소를 생성하고 이를 저장·운송해 모빌리티에 활용하는 전 과정이 담겨 있었다. 또 '로봇 존'에는 현대차그룹 완성차 제조 공정에 실제로 활용되고 있는 '주차로봇'과 기울어진 도로, 요철, 연석 등에서도 수평을 유지하는 기술이 집약된 소형 모빌리티 로봇 플랫폼 '모베드(MobED)'도 전시돼 있었다. 전시장 내에는 보스턴다이나믹스의 4족 보행 로봇 '스팟'이 자유롭게 움직이는 모습도 연출됐다. 이 외에도 현대차그룹은 APEC 정상회의의 공식 부대행사인 'APEC CEO 서밋'이 열리는 경주 예술의전당에도 수소전기차 '디 올 뉴 넥쏘'를 전시해 이목을 집중시켰다. 글로벌 정상급 외교 무대에서 신형 넥쏘가 공개되는 것은 이번이 처음이다. 올해 6월 출시된 '디 올 뉴 넥쏘'는 현대차가 2018년 이후 7년 만에 선보인 승용 수소전기차 넥쏘의 완전 변경 모델이다. 현대차그룹 왼편에 자리잡은 SK그룹 부스는 전체가 인공지능(AI) 데이터센터로 형상화돼 시선을 사로잡았다. 이곳에선 SK그룹의 AI 데이터센터 역량이 결집된 기술과 서비스를 한 번에 경험할 수 있었다. 특히 최근 SK그룹의 효자 역할을 톡톡히 하고 있는 SK하이닉스가 초고성능 AI용 메모리 신제품 고대역폭메모리(HBM)4와 그래픽DDR D램(GDDR DRAM) 등을 선보인 것이 주목됐다. SK하이닉스는 그래픽처리장치(GPU)로 AI 시장을 이끌고 있는 엔비디아의 핵심 HBM 공급사로, 시장의 기대감이 커지면서 올해 첫 거래일에서 17만1천200만에 거래됐던 주가가 최근 장중 50만원 고지를 넘어설 정도로 승승장구하고 있다. 덕분에 SK그룹의 다른 계열사들도 AI 기술 역량을 함께 끌어올리고 있는데, 이날 부스에선 액침냉각 활용 발열 관리 시스템을 SK엔무브와 SK텔레콤이 영상을 통해 재미있게 설명을 해줘 눈길을 끌었다. 이 외에 반도체 공정의 게임 체인저로 불리는 SKC의 유리기판과 SK텔레콤이 투자 중인 리벨리온의 신경망처리장치(NPU) 기반 AI가속기도 전시장에서 만날 수 있었다. 전시장 왼쪽 끝에 마련된 삼성전자 부스는 미술관 콘셉트로 관람객들을 맞았다. 이건용, 마크 데니스 등 4명의 아티스트와 함께 협업해 '아트 큐브'란 콘셉트를 한 켠에 구성해 놓은 탓에 관람하는 재미가 쏠쏠했다. 이들은 삼성 마이크로 LED, 네오 QLED 8K, 더 프레임 등 삼성전자 TV에 '경계 없이, 예술 속으로'라는 주제로 각각의 작품을 이번에 선보였다. 또 삼성전자는 참관객들이 이곳에서 찍은 사진을 해시태그를 걸어 자신의 소셜 미디어(SNS)에 게재하도록 유도해 홍보 효과도 노리는 듯 했다. 하지만 이곳에서 가장 눈길을 끈 것은 삼성전자가 자체 개발한 '갤럭시Z 트라이폴드폰'의 실물이었다. 화면을 두 번 접을 수 있는 구조로 설계된 스마트폰으로, 실물이 공개된 것은 이번이 처음이다. 접었을 때는 일반 스마트폰 수준의 크기이지만, 완전히 펼치면 10인치대에 달한다는 점에서 현장에서 실물을 마주한 관람객들은 눈을 떼지 못하는 모습이었다. 다만 이날 전시에서 관람객이 직접 제품을 만져보거나 사용할 수 없어 아쉬웠다. 유리 전시관을 통해 두 번 모두 접힌 형태, 모두 펴진 형태만 볼 수 있었다. 두 번 접히거나 펼쳐지는 과정이 시연되지 않아 일부 관람객들은 "진짜가 맞아?", "접었을 때 이상 생기니까 보여주기만 하는 거야?" 등의 질문을 하며 의문을 드러내기도 했다. 삼성전자 부스 관계자는 "관람객들이 제품의 무게에 대해서도 많이 궁금해 했다"며 "일부는 '지금까진 힌지(경첩)가 하나였는데, 양쪽에 힌지가 들어가면 똑같이 베젤을 잡아줄 수 있냐'는 심도 있는 질문도 해 깜짝 놀랐다"고 말했다. 그간 업계에선 삼성전자 '갤럭시Z 트라이폴드폰'을 두고 다양한 추측을 내놨다. 현재까지 알려진 바로는 약 10인치의 메인 디스플레이, 약 6.5인치의 커버 디스플레이가 탑재될 전망이다. 앱 프로세서(AP)는 퀄컴 스냅드래곤8 엘리트 프로세서를 기반으로 한다. 카메라는 2억 화소 메인, 1천만 화소 망원, 1천200만 화소 초광각으로, '갤럭시 Z 폴드7'과 유사할 것으로 예상됐다. 삼성전자가 연내 '갤럭시Z 트라이폴드폰'을 출시할 것이라고 공언했다는 점에서 이르면 다음달께 제품이 출시될 것으로 보는 시각이 많다. 가격은 약 400만원 안팎으로, 한국이나 중국 등에서만 출시될 것으로 보고 있다. 실제 초기 생산량은 5만~10만 대 수준으로 알려졌다. '갤럭시Z 트라이폴드폰' 옆에는 반도체도 소규모로 전시돼 있었다. 특히 엔비디아에 공급을 위한 인증 작업을 진행 중인 것으로 알려진 HBM4가 현장에 실물로 전시돼 눈길을 끌었다. 삼성전자는 엔비디아 납품을 시작으로 HBM 시장 점유율을 빠르게 늘려나간다는 계획으로, 그간 HBM3·HBM3E에서의 점유율 열세를 HBM4로 빠르게 만회해 나간다는 각오다. 실제 시장조사기관 카운터포인트리서치는 삼성전자의 HBM 시장 점유율이 올해 17%에서 내년 30%로 늘어갈 것으로 상향 전망해 기대감을 키우고 있다. 경쟁사인 LG전자는 삼성전자 부스와 멀리 떨어진 반대편에 대형 예술 작품만 덩그러니 전시해 호기심을 자극했다. 이는 세계 최초의 무선·투명 TV 'LG 시그니처 올레드 T'로 만든 초대형 샹들리에로, 77형 시그니처 올레드 T 28대로 아래로 길게 늘어진 형태의 조명을 둥글게 둘러싸 웅장한 느낌을 줬다. 360도 어느 방향에서든 영상을 감상할 수 있었는데, 영상에 맞춰 디스플레이가 움직여 인상 깊었다. LG전자 관계자는 "LG 시그니처 올레드 T는 4K 해상도 올레드(OLED·유기발광다이오드)의 화질과 투명 스크린, 무선 AV 송·수신 기술 등 현존 가장 앞선 최고의 TV 기술을 모두 적용한 제품"이라고 설명했다.

2025.10.28 22:41장유미

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호

SK엔무브·LG전자·GRC, AI 데이터센터 액침냉각 동맹 구축

SK엔무브가 LG전자, 미국 액침냉각 전문기업 GRC와 손잡고 초대형 AI 데이터센터에 최적화된 액침냉각 설루션 개발과 글로벌 시장 공략에 나선다. SK엔무브는 지난 27일 경기도 평택 LG전자 칠러사업장에서 LG전자, 미국 액침냉각 전문기업 GRC와 데이터센터용 액침냉각 솔루션 공동 개발 및 글로벌 사업 확대를 위한 3자 업무협약(MOU)을 체결했다고 밝혔다. 협약식에는 남재인 SK엔무브 그린성장본부장, 이재성 LG전자 ES사업본부장, 피터 폴린 GRC CEO가 참석했다. 이번 협약은 AI 시대의 도래로 대규모 데이터센터 시장이 급성장하고, 이를 뒷받침할 고효율·친환경 냉각 기술의 중요성이 커지는 가운데, 초대형 데이터센터에 필수적인 냉각 환경을 효과적으로 구축하기 위해 추진됐다. 세 회사는 각 사 대표 기술을 결집해 AI 및 하이퍼스케일 데이터센터에 최적화된 맞춤형 액침냉각 설루션을 공동 개발하고, 실제 데이터센터 환경에서 그 성능을 실증할 계획이다. SK엔무브는 액침냉각 플루이드를, LG전자는 냉각 시스템을, GRC는 액침냉각 탱크를 각각 담당해 단일 기업이 제공하기 어려운 '토털 패키지형' 솔루션을 완성할 예정이다. 실증은 LG전자 칠러사업장 내 AI 데이터센터 전용 테스트베드에서 진행된다. 액침냉각은 데이터센터 서버 등 열이 발생하는 전자기기를 전기가 통하지 않는 특수 냉각 플루이드에 직접 담가 냉각하는 기술로, 열전도율이 높은 액체를 사용해 열을 빠르고 효율적으로 낮출 수 있다. 이 방식을 적용할 경우, 데이터센터 에너지 효율을 나타내는 전력효율지수(PUE)가 공랭식이나 수랭식 등 기존 냉각 방식에 비해 현저히 낮아져, 탁월한 전력 절감 효과를 보인다. SK엔무브는 2022년 GRC에 전략적 투자를 단행하며 국내 최초로 액침냉각 시장에 진출했고, 같은 해 데이터센터용 액침냉각 플루이드 개발에도 성공했다. 2023년에는 SK텔레콤 데이터센터에 실제 적용해 상용화의 포문을 열었으며, 2024년에는 한화에어로스페이스와 인셀과 협업해 에너지저장장치(ESS)용 냉각 플루이드를 상용화하며 사업 영역을 확대했다. 최근에는 SK온과 협업해 전기차 배터리 열관리 분야까지 진출하는 등 사업을 꾸준히 확장하고 있다. 산업 표준이 없는 액침냉각 시장에서 빠른 상용화와 공급 실적을 바탕으로 신뢰를 구축하며, 냉각 플루이드 표준화를 주도하고 시장 선점을 이어갈 것으로 기대된다. 세 회사는 액침냉각 설루션의 실증뿐 아니라, 각 사 글로벌 네트워크와 사업 경험을 바탕으로 새로운 비즈니스 기회도 적극적으로 모색할 계획이다. 이재성 LG전자 ES사업본부장은 “AI 데이터센터 핵심 과제인 에너지 효율과 냉각 성능을 극대화하기 위해 이번 협업을 추진하게 됐다”며 “차별화된 냉각 설루션으로 AI 데이터센터 산업의 글로벌 경쟁력을 강화하겠다”고 밝혔다. 피터 폴린 GRC CEO는 “이번 파트너십을 통해 AI 데이터센터 고객사에 혁신적이고 검증된 가치를 제공할 것으로 기대한다”며 “액침냉각 핵심 부품의 완벽한 통합과 검증을 통해 고객이 신속하고 안정적으로 시스템을 도입할 수 있도록 지원하겠다”고 말했다. 남재인 SK엔무브 그린성장본부장은 “액침냉각 기술력과 냉각 시장 경험을 갖춘 세 회사가 각 사의 강점을 효과적으로 결합함으로써, 글로벌 데이터센터 액침냉각 시장에서 경쟁력을 더욱 높일 수 있을 것으로 기대한다”며 “혁신적인 설루션과 전략적 파트너십을 바탕으로 냉각 시장의 성장과 변화를 선도하겠다”고 밝혔다.

2025.10.28 10:00류은주

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤

세종 부용산에 숨 쉬는 네이버의 AI 심장, '각 세종' 가보니

세종시 부용산 자락에 자리한 네이버의 두 번째 데이터센터 '각 세종'. 겉으로는 조용하지만 내부는 쉼 없이 움직이는 거대한 기술 생태계다. 인공지능(AI) 시대 핵심 인프라로 불리는 이곳을 직접 찾아가 봤다. 네이버클라우드는 지난 27일 각 세종 데이터센터에서 테크밋업을 개최하고 AI 인프라 운영 기술과 친환경 설계 시스템을 공개했다. 이날 현장에서는 AI 서비스의 핵심인 그래픽처리장치(GPU) 서버, 냉각 기술, 전력 구조, 자율주행 로봇 시스템까지 살펴볼 수 있었다. 첫 방문지는 서버 IT 창고였다. 자산 관리 구역임에도 인력의 움직임은 거의 없었다. 대신 '가로'와 '세로'로 불리는 로봇이 서버를 실어 나르며 작동 중이었다. 이 로봇들은 자산 입출고를 자동화해 사람의 개입 없이 서버를 적재하고 회수하는 역할을 한다. 매년 5천 대 이상의 서버를 교체할 수 있는 효율성을 갖췄다. 로봇은 카메라와 센서를 기반으로 서버 위치를 스스로 인식하고 높이 3m 랙에도 정확히 접근한다. 자율주행 로봇 가로는 최대 400㎏의 장비를 운반할 수 있으며 내부 동선은 네이버클라우드의 통합 로봇 관제 플랫폼 '아크' 시스템으로 관리된다. 이어진 공간은 냉각 기술의 핵심인 '나무'였다. 이는 네이버가 자체 개발한 외기 냉각 시스템으로, 자연 바람을 활용해 서버의 열을 식히는 구조다. 네이버 김예원 도슨트는 "각 세종에 적용된 나무 3세대는 계절과 기후에 따라 외기 모드를 자동 전환하는 하이브리드 시스템"이라며 "일반 냉동 방식 대비 최대 73%의 전력 효율을 달성했다"고 설명했다. 서버실에서 발생하는 열은 폐열 회수 시스템을 통해 재활용된다. 바닥 난방과 겨울철 도로 제설용 스노우멜팅 시스템에 쓰이며 센터의 에너지 순환 구조를 완성한다. 이러한 각 세종의 전력효율지수(PUE)는 1.1 수준으로, 글로벌 하이퍼스케일 센터 중에서도 최상위 등급이다. GPU 서버실에 들어서면 공기의 흐름이 달라진다. 고전력 서버에서 발생한 열은 천장을 통해 배출되고 바닥과 벽면을 따라 차가운 공기가 순환한다. 각 세종은 정전이나 장애에 대비해 전력 인입선로를 이중화했으며 무정전전원장치(UPS)와 비상 발전기를 통해 72시간 이상 자가 전력을 유지할 수 있다. 운영 효율을 높이기 위해 각 세종은 로봇 기반 자산 관리와 자율주행 셔틀 '알트비' 시스템도 도입했다. 축구장 41개 크기의 부지를 이동하며 인력과 장비를 운반하는 이 셔틀은 네이버랩스의 자율주행 기술과 네이버클라우드의 관제 시스템이 결합된 결과물이다. 센터의 중앙 제어실은 각종 수치를 실시간으로 모니터링하는 관제의 두뇌 역할을 맡고 있었다. 온습도, 전력 사용량, GPU 랙당 전력 밀도, 네트워크 트래픽이 실시간으로 표시되고 외부 사고나 트래픽 급증 상황에 즉각 대응할 수 있도록 구성됐다. 김 도슨트는 "각 세종은 국내 데이터센터 중 유일하게 네트워크망·전력·데이터 모두를 이중화한 구조"라며 "정전이나 장애가 발생해도 즉시 복구 가능한 구조로 설계됐다"고 말했다. 센터 외부의 친환경 설계도 눈에 띄었다. 옥상에는 태양광 발전 설비가, 지하에는 지열 냉난방 시스템이 적용돼 있으며 서버실에서 발생한 폐열은 다시 에너지로 순환된다. 네이버에 따르면 이 구조를 통해 연간 이산화탄소 배출량을 약 1만5천 톤 줄일 수 있고 이는 나무 225만 그루를 심는 효과와 맞먹는다. 또 각 세종은 세계적 친환경 건축 인증인 리드 플래티넘 등급을 획득했다. 세종 부용산의 단단한 화강암 지반 위에 세워진 이 건물은 규모 7의 지진에도 견디는 내진 특등급으로 설계됐다. 각 세종은 향후 증축을 통해 270메가와트(MW) 전력 수용 규모로 확장될 예정이다. 완공 시에는 세종시 전체 인구의 전력 소비량에 맞먹는 AI 인프라가 된다. 네이버클라우드 노상민 센터장은 "각 세종은 단순히 데이터를 보관하는 공간이 아니라 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼"이라며 "지속가능성과 효율, 복원력을 모두 갖춘 하이퍼스케일 인프라로 설계됐다"고 강조했다.

2025.10.28 09:03한정호

네이버, 국가AI컴퓨팅센터 참여…"완전 이중화로 복원력 높인다"

네이버클라우드가 끊김 없는 인공지능(AI) 인프라 구축과 국가 차원의 AI 역량 강화에 나선다. 최근 발생한 국가정보자원관리원(국정자원) 데이터센터 화재로 안정성과 복구체계의 중요성이 커지는 가운데, 자체 기술과 이중화 아키텍처를 기반으로 국가AI컴퓨팅센터 사업에 참여하며 민·관을 아우르는 고신뢰 AI 데이터센터 모델을 제시한다는 방침이다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크밋업에서 "AI 인프라는 이제 확보보다 효율이 핵심이며 한쪽 장애에도 멈추지 않는 구조가 곧 경쟁력"이라고 강조했다. 이어 "우리는 춘천과 세종, 수도권에 걸쳐 완전 이중화된 네트워크와 복구 체계를 갖춰 어떤 상황에서도 서비스를 이어갈 수 있다"고 덧붙였다. 네이버는 지난 2022년 판교 데이터센터 화재 당시 일부 서비스가 영향을 받았지만 설계 단계부터 다중 백업 구조를 갖춰 빠르게 우회 복구할 수 있었다. 하나의 데이터센터에 의존하지 않고 여러 센터를 분산 운용하는 것이 주효했다는 설명이다. 이 CIO는 이를 AI 시대의 인프라 복원력으로 평가했다. 이날 행사에서는 최근 이슈가 된 국정자원 화재 사고와 복구 대책, 국가AI컴퓨팅센터 사업 참여와 관련한 네이버클라우드의 방향이 공유됐다. 이 CIO는 "우리는 삼성SDS와 함께 국가AI컴퓨팅센터 구축에 공동 참여하고 있다"며 "정부가 AI 인프라 확충에 집중하고 있는 만큼 민간이 보유한 기술 내재화 경험을 공공 인프라로 확장할 좋은 기회"라고 말했다. 또 그는 "그래픽처리장치(GPU), 인력, 데이터 세 가지가 AI 경쟁력의 핵심"이라며 "국가가 보유한 질 좋은 데이터를 민간이 잘 활용할 수 있도록 지원하고 우리도 내부 데이터와 모델 역량을 국가 인프라에 결합해 기술 자립 기반을 강화하겠다"고 밝혔다. 이어 "국가AI컴퓨팅센터 구축 사업은 단순한 인프라 공급이 아니라 네이버의 서비스형 GPU(GPUaaS) 플랫폼을 국가 수준의 AI 데이터센터에도 적용하는 구조로 확장될 것"이라고 덧붙였다. 네이버클라우드 노상민 센터장은 재해 대응과 안정성 강화를 위한 시스템을 소개했다. 노 센터장에 따르면 리튬이온 화재는 완전한 예방이 어렵기에 각 세종 데이터센터에는 기존 소화가스에 더해 배터리실 전용 스프링클러가 설치됐다. 화재 시 소화가스와 물 분사 시스템을 병행해 초기 진화 효율을 높인 것이다. 노 센터장은 "춘천·세종뿐 아니라 수도권과 충청, 경남권에도 임차 데이터센터를 다수 확보해 서비스 이원화 투자를 이어가고 있다"며 "물리적 피해가 발생하더라도 빠르게 서비스 전환이 가능하다"고 강조했다. 이어 "모든 데이터센터는 동일한 프로세스와 정책으로 운영된다"며 "자가든 임대든 동일 기준으로 대응할 수 있는 일원화 체계가 중요하다"고 덧붙였다. 최근 전력 사용량과 냉각 기술 부담이 급증하는 상황에 대해서도 설명이 이어졌다. 노 센터장은 "GPU 서버의 전력 밀도가 기존 CPU 대비 2~3배 높아지면서 공기 냉각만으로는 한계가 있다"며 "각 세종에서는 다이렉트 리퀴드 쿨링(DLC) 방식을 도입하고 향후 액침냉각도 병행할 계획"이라고 말했다. 이어 "전력 효율과 안정성, 환경 영향까지 고려한 냉각 기술 내재화를 지속 추진 중"이라고 덧붙였다. 데이터센터 시장 전반의 구조적 어려움에 대한 지적도 제기됐다. AI 수요 증가 이후 국내 데이터센터 상면과 전력이 모두 부족한 상황이며 수도권 전력 규제와 인구 감소 등으로 지방 운영 환경이 어렵다는 지적이다. 노 센터장은 "규제 완화와 전문 인력 양성 등 정책적 지원이 필요하다"고 말했다. 끝으로 이 CIO는 향후 AI 인프라 사업 목표를 밝혔다. 그는 "우리는 이미 내부 AI 워크로드를 대규모로 운영하고 있고 이 경험을 국가AI컴퓨팅센터 구축 등 공공 영역으로도 확장할 자신이 있다"며 "AI 인프라가 우리만의 자산이 아니라 국가의 성장 엔진이 되도록 기술 자립 기반을 완성하겠다"고 강조했다.

2025.10.28 09:02한정호

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호

"韓 의료 소버린 AI, 국가 경쟁력 문제…원주에 특화 데이터센터 마련돼야"

"의료 분야는 인공지능(AI) 도입에 따른 혜택을 국민들이 빠르게 체감할 수 있는 분야인 만큼 의료 인공지능 전환(AX)이 조속히 진행돼야 합니다. 정부와 업계, 지역사회의 관심과 노력이 필요한 상황으로, 앞으로 AI가 의료 현장에서 의료인과 환자들의 편의를 증진할 수 있도록 정부에서도 지속 노력하겠습니다." 류제명 과학기술정보통신부 2차관은 27일 서울 관악구 서울대학교에서 진행된 '의료 AI 데이터센터 구축의 경제적 효과 평가' 세미나에서 영상을 통해 이처럼 축사를 전했다. 과기정통부는 지난 2017년부터 암, 치매 등 다양한 질환에 특화된 AI 진단 솔루션 개발, AI 앰뷸런스 등 다양한 의료 혁신을 지원해오고 있다. 하지만 지난 2022년 말 '챗GPT' 등장 후 생성형 AI 시장이 빠르게 확산되면서 의료 AI 시장도 변화를 맞고 있다. 특히 구글 딥마인드는 단백질 분자 구조를 분석하는 AI 모델 '알파폴드'를 통해 신약 개발의 새로운 가능성을 열었다. 템퍼스AI는 임상·분자 데이터와 AI를 결합해 암을 비롯한 다양한 질환의 맞춤치료와 임상시험 설계를 지원하는 정밀 의료 플랫폼을 개발해 시장의 주목을 받았다. 국내에서도 루닛이 의료영상 판독 및 AI 바이오마커를 통해 조기 암 검진을 지원하는 기술을 보유한 것으로 알려져 관심이 집중됐다. 뷰노 역시 의료 영상·생체신호 데이터를 AI로 분석해 진단 및 예후 리스크를 조기에 탐지하는 솔루션을 앞세워 시장 공략에 본격 나섰다. 이날 세미나에서 발표를 맡은 유병준 서울대 교수는 "의료 데이터는 인간이 처리하기엔 방대하고, 인간의 분석 능력만으로는 진단·예후 예측·치료 의사결정에 필요한 패턴을 탐지할 수 없기 때문에 AI가 필수적"이라며 "AI는 복합적 변수를 동시에 고려하는 데 특화돼 있다"고 설명했다. 그러면서 "특히 글로벌 AI 시대를 맞아 한국형 의료 소버린 AI는 국가 경쟁력의 문제"라며 "자국 AI 인프라 구축으로 정보 주권을 확보하는 동시에 한국 환자군 특성·진료 데이터에 최적화된 서비스를 제공할 수 있는 국내 맞춤형 의료 AI를 개발해 나갈 필요가 있다"고 덧붙였다. 이를 위해 유 교수는 '의료 AI 데이터센터' 구축이 선제적으로 이뤄져야 한다고 강조했다. 의료 소버린 AI 클러스터 구축을 위한 필수적 기반이 마련돼야 이를 중심으로 첨단의료기기 기업, 제약 연구소들이 활발히 기술력을 끌어올리고 빠르게 성장할 수 있다고 진단했다. 또 그는 의료 AI 데이터센터를 구축하면 의료 서비스 효율화와 진료비 진감, 연구개발 생산성 향상, AI 산업의 민간 투자 확대 등 다양한 편익이 발생할 것이라고 봤다. 이를 금액으로 환산 시 연평균 1조6천억원의 사회적 편익과 2조5천억원의 산업 파급효과가 있을 것으로 예상했다. 유 교수는 "인프라 확충에 따라 공공 데이터 활용률도 높아질 것"이라며 "의료 AI 기업의 진입장벽이 완화되며 지역별 의료 접근성 개선으로 환자 후생이 증대될 것"이라고 전망했다. 이어 "신경망처리장치(NPU) 등 국산 반도체의 성능을 실시간으로 평가, 튜닝할 수 있는 현실적인 테스트 베드로서도 의료 AI 데이터센터가 역할을 할 수 있을 것"이라며 "국가 의료 AI 생태계의 확장과 글로벌 경쟁력 확보를 위한 전략적 실물옵션으로서 중요한 역할을 할 것"이라고 부연했다. 이처럼 최근 '의료 AI 데이터센터' 구축에 대한 필요성이 높아지고 있는 가운데 유 교수는 이날 세미나에서 강원도 원주시가 생태계를 마련하는데 최적지라고 평가했다. 서울 접근성이 높은데다 교통 환경이 잘 갖춰져 있어서다. 데이터센터 부지로 고려되고 있는 곳에 SK, KT, LG 등 정보통신망 인프라까지 잘 갖춰져 있다는 점도 유리한 요소로 꼽았다. 유 교수는 "원주는 홍수발생이 가능한 극한 상황에서도 침수 가능성이 없는 지리적 입지와 국민건강보험공단, 건강보험심사평가원, 대한적십자사, 연세대 원주세브란스 병원 등이 위치해 있어 의료 생태계가 이미 어느 정도 구축돼 있다는 것도 강점"이라며 "에너지 발전 등 친환경 에너지를 활용하기에도 적합한 지역이어서 데이터센터의 수도권 집중 완화를 해소할 수 있고 전력 공급 문제도 해소할 수 있는 대안이 될 것"이라고 강조했다. 원주시도 지난해 12월부터 '의료 AI 데이터센터' 유치를 위해 힘을 쏟고 있다. 현재 원주시 단구동에 9만9천386㎡(약 3만64평) 부지를 확보하고 40MW(메가와트) 3개동으로 구성된 총 120MW 데이터센터 건립 계획을 추진 중이다. 이에 이날 세미나에 참석한 이들은 한 목소리로 원주에 '의료 AI 데이터센터'를 구축할 수 있도록 정부에서 적극 지원해줘야 한다고 강조했다. 해외 거대언어모델(LLM) 기반 서비스가 민감한 환자 정보 유출 위험이 큰 만큼 자국 AI 인프라 구축으로 정보 주권을 확보해 국내 맞춤형 의료 AI를 개발할 수 있는 환경을 빠르게 마련해야 한다고 목소리를 높였다. 유 교수는 "인프라가 확충되면 공공 데이터 활용률도 높아질 것"이라며 "의료 AI 기업의 진입장벽이 완화되며 지역별 의료 접근성 개선으로 환자 후생이 증대될 것"이라고 강조했다. 장병탁 서울대 헬스케어AI연구원장이 좌장으로 진행된 종합 토론에서도 비슷한 의견들이 제기됐다. 특히 전성민 가천대 교수는 '원주 의료 AI 데이터센터 구축 프로젝트'가 NPU 기반 효율성을 통해 비용 대비 높은 경제적 타당성을 확보하는 동시에 의료 소버린 AI와 국산 NPU 테스트베드라는 국가 전략적 목표를 달성한다는 점에서 하루 빨리 추진돼야 한다고 강조했다.전 교수는 "궁극적으로 이 인프라가 우리나라 '탑 탤런트의 창업 플랫폼으로 기능하고 의료 AI 분야에서 글로벌 경쟁력을 확보하기 위해서는 벤처캐피탈의 적극적 투자 유도와 데이터 활용 및 인허가 관련 규제 혁신이 반드시 수반돼야 한다"며 "의료 AI 데이터센터는 단순 인프라를 넘어 국가 산업 발전, 지역 균형 발전, 보건 혁신에 기여하는 국가 전략적 가치를 제공할 것"이라고 밝혔다. 법무법인 대율 백주선 변호사도 의료 AI 데이터센터 구축을 위해 기술적·경제적 타당성뿐 아니라 관계 법령 정비와 법률적 지원이 함께 추진돼야 한다고 강조했다. 또 의료 데이터 산업의 발전을 위해선 법적 안정성과 데이터 주권 확보가 필수적이라고 주장했다. 백 변호사는 "병원 임상데이터는 반드시 비식별화·IRB 승인·연구동의 절차를 거쳐야 하며 공공 의료 데이터는 국내 인프라에서 관리해 해외 규제·유출 위험을 차단해야 한다"며 "데이터센터 구축을 통해 검증체계를 마련하면 기업의 임상시험·인증비용을 줄이고 국제 기준 대응력을 높일 수 있다"고 밝혔다. 이 외에도 정구민 국민대 교수는 원주시가 우리나라 의료 AI 데이터를 효과적으로 관리할 수 있는 최적지라고 기대했다. 소윤창 IBM 킨드릴코리아 본부장은 정부가 의료 소버린 AI 데이터센터에 엔드유저로 참여해 '알파 커스터머' 역할을 이행하며 국산 NPU의 실증 및 검증의 기회를 제공하고 이를 통해 글로벌 시장으로 진출할 수 있는 계기를 만들어야 한다고 주장했다. 장병탁 서울대 헬스케어AI연구원장은 "의료 AI 데이터센터는 단순히 데이터를 모으는 시설이 아니라 국산 AI 반도체의 실증 무대이자, 대한민국의 우수 인재들이 미래 산업을 개척할 수 있는 창업의 요람"이라며 "정부와 민간의 협력, 과감한 규제 혁신을 통해 이 전략적 인프라가 성공적으로 구축되기를 기대한다"고 말했다. 이재욱 서울대 AI연구원장은 "현재 원주시가 추진 중인 의료 AI 데이터센터 구축은 단순한 인프라 확충을 넘어 의료 데이터의 안전한 활용과 AI 기반 의료 서비스의 혁신을 가능하게 하는 핵심 전략 사업"이라며 "지역의 균형 발전과 더불어 국내 의료 산업 전반의 경쟁력 제고에 중대한 기여를 할 것으로 기대하고 있다"고 밝혔다. 이어 "서울대 AI연구원에서도 앞으로 AI 기술이 산업, 의료, 사회 전반에 긍정적인 변화를 이끌어 낼 수 있도록 플랫폼으로서의 역할을 다 할 것"이라며 "이번 세미나가 새로운 협력과 (의료 AI) 혁신의 출발점이 되기를 바란다"고 마무리했다.

2025.10.27 15:59장유미

[유미's 픽] '경주 APEC' 건너 뛰는 샘 알트먼, 오픈AI 韓 직접 투자 계획은 언제?

샘 알트먼 오픈AI 최고경영자(CEO)가 오는 28일부터 31일까지 경북 경주에서 열리는 'APEC CEO 서밋 코리아 2025'에 불참한다. 이미 올 들어 두 차례나 한국을 찾았던 데다 직전 방문이 이달 초였다는 점을 감안해 이처럼 결정한 것으로 풀이된다. 오픈AI는 공식 자료를 통해 알트먼 대표가 APEC CEO 서밋에 참석하지 않는다고 24일 밝혔다. 이 서밋은 대한상공회의소가 APEC 정상회의 공식 부대행사로 주관하는 아시아·태평양 지역 최대 민간 경제포럼이다. 최태원 대한상의 회장 겸 SK그룹 회장, 이재용 삼성전자 회장, 정의선 현대차그룹 회장, 구광모 LG그룹 회장 등 국내 주요 대기업 오너를 비롯해 젠슨 황 엔비디아 CEO, 손정의 소프트뱅크 회장, 맷 가먼 아마존웹서비스(AWS) CEO, 사이먼 칸 구글 APAC 부사장 등 글로벌 기업인 1천700여 명이 참여할 것으로 알려졌다. 업계에선 황 CEO와 AI 인프라 프로젝트인 '스타게이트'를 오픈AI와 함께 이끄는 손정의 회장이 경주를 찾는 만큼 알트먼 CEO도 합류할 것으로 그간 관측했다. 이들이 만나 글로벌 AI·반도체 산업의 새로운 밑그림을 'APEC CEO 서밋'에서 그려갈 것으로 기대했지만, 불발됐다. 하지만 알트먼 CEO는 올 들어 한국 시장에 상당히 공 들이는 모습이다. 지난 2월 방한해 이재용 삼성전자 회장과 최태원 SK그룹 회장, 정신아 카카오 대표를 만나 AI 데이터센터와 AI 솔루션 사업에 대한 협력을 논의한 바 있다. 또 지난 1일 한국을 찾아 이 대통령을 비롯해 배경훈 과학기술정보통신부 장관, 이재용 회장, 최태원 회장, 이준표 SBVA 대표 등을 만난 바 있다. 당시 오픈AI는 삼성전자, SK하이닉스와 각각 디램(DRAM) 웨이퍼 공급 계약을 체결했고, 과기정통부와 함께 국내 AI 데이터센터 개발을 추진하겠다고 합의한 바 있다. SBVA와는 국내 AI 스타트업 지원 방안을 논의했다. 지난 달에는 한국 사무소도 공식 개소했다. 챗GPT 유료 구독자 수가 미국에 이어 2위라는 점에서 AI 시장 내 한국이 경쟁력이 있다고 본 것이다. 업계에선 AI 생태계에서 소프트웨어를 장악한 오픈AI가 반도체와 같은 하드웨어에서도 주도권을 쥐기 위해 한국 시장 내 존재감을 키우고 있다고 봤다. 인간의 뇌처럼 복잡한 AI 연산을 수행하기 위해서는 '가속기' 역할을 하는 그래픽처리장치(GPU)를 대량으로 확보해야 하는데 현재 이 시장을 엔비디아가 장악하고 있어서다. 업계 관계자는 "오픈AI가 보기엔 재주는 곰이 부리고 돈은 엉뚱한 사람이 가져가는 구조인 셈"이라며 "오픈AI가 소프트웨어와 하드웨어를 합쳐 자신들이 이 시대를 이끌겠다는 빅 픽처를 앞세워 삼성전자, SK하이닉스 등 반도체 기업을 보유한 한국에 공 들이고 있는 것"이라고 분석했다. 오픈AI는 최근 들어 좀 더 한국과의 접점을 확대하기 위해 지난 23일 '한국에서의 AI : 오픈AI의 경제 청사진' 보고서를 발표했다. 이 보고서에서 AI 기술 잠재력을 극대화하면서도 위험을 최소화하기 위해 결단력 있는 인프라 투자와 글로벌 협력이 필수적이라고 강조했다. 특히 데이터센터와 발전 시설, 이를 연결하는 네트워크 등 물리적 인프라가 AI 리더십의 기반이 된다고 말했다. 오픈AI는 한국이 반도체 공급망, 디지털 인프라, 인적 역량에서 강점을 지닌 만큼 글로벌 AI 경쟁에서 중요한 전환점을 맞이했다고 평가했다. 또 한국이 AI 생태계의 중심으로 도약하기 위해서는 ▲GPU·컴퓨팅 자원 부족 해소를 위한 글로벌 협력 ▲안정적인 AI 모델 운영 역량 확보 ▲책임 있는 데이터 거버넌스 체계 구축이 필요하다고 제언했다. 오픈AI 측은 "한국의 대규모 모델은 우수한 연구 성과를 내고 있지만 산업 전반에서의 배포는 제한적일 수 있다"며 "오픈AI와 같은 프런티어 개발자들이 축적한 대규모·안정적 배포 역량을 활용해 안전하고 효과적인 AI 도입을 가속화할 수 있다"고 강조했다. 또 오픈AI는 한국의 소버린 AI 정책 기조를 유지하면서도 글로벌 기업과의 협력을 병행하는 이중 트랙 전략도 제안했다. 그 대표 사례로 이달 초 과학기술정보통신부, 삼성전자, SK와 체결한 협약을 들었다. 오픈AI는 삼성전자, SK와 각각 D램 웨이퍼 공급 계약을 맺고 과기정통부와 함께 국내 AI 데이터센터 개발에 협력하기로 했다. 이를 통해 한국은 오픈AI의 '스타게이트' 프로젝트에 참여하게 됐다는 평가도 나온다. 하지만 일각에선 오픈AI가 한국 정부와 협력키로 했지만 직접 투자 계획을 구체적으로 밝히지 않았다는 점에서 아쉬움을 드러내고 있다. 오픈AI가 직접 AI 인프라를 구축하는 것이 아닌, 한국 정부와 기업이 인프라를 마련하면 오픈AI가 그 시설을 활용하거나 협력 파트너로 들어오는 구조라는 점에서다. 업계 관계자는 "오픈AI뿐 아니라 올 들어 앤트로픽, 코히어 등 글로벌 AI 기업들이 잇따라 한국에 공식 진출하며 정부, 기업 공략에 적극 나서고 있다"며 "이들의 한국 시장 진출과 전방위 협력 의지는 국내 대기업의 혁신을 촉진하고 AI 생태계 전반에 활력을 불어넣을 수 있지만, 직접 투자 측면에선 소극적이어서 아쉽다"고 지적했다. 이와 관련해 크리스 리헤인 오픈AI 글로벌대외협력 최고책임자는 "(한국 내 데이터센터 구축에 대해) 현재 한국 정부 및 민간 파트너들과 함께 입지, 모델, 운영방식 등을 검토 중"이라며 "오픈AI가 직접 투자하거나 공동 운영하는 등 여러 옵션이 열려있다"고만 밝혔다.

2025.10.24 17:21장유미

美 마이크론, 2세대 '소캠' 샘플 출하…엔비디아향 저전력 D램 시장 공략

미국 마이크론이 AI 서버용 차세대 저전력 메모리인 소캠(SOCAMM, Small Outline Compression Attached Memory Module)의 2세대 샘플을 출하하는 데 성공했다. 마이크론은 192GB(기가바이트) 용량 및 최대 동작속도 9.6Gbps의 소캠2 샘플을 주요 고객사에 전달했다고 22일 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈이다. 저전력 D램인 LPDDR을 4개씩 집적해 전력 효율성을 높였으며, 데이터 전송 통로인 I/O(입출력단자) 수가 694개로 대역폭이 비교적 높다. 기존 LPDDR 단품을 온보드(납땜)로 붙이는 방식과 달리 메모리를 탈부착할 수 있어 성능 업그레이드 및 유지보수에도 용이하다. 마이크론이 이번에 발표한 샘플은 2세대 소캠에 해당한다. 이전 세대 대비 동일한 크기에서 50% 더 많은 용량을 구현했다. 또한 이번 소캠2에는 마이크론의 1γ(감마) LPDDR5X가 탑재됐다. 1γ는 국내 반도체 업계에서는 1c(6세대 10나노급) D램에 대응하는 공정으로, 현재 개발된 D램 중 가장 최신 세대에 해당한다. 마이크론은 "소캠2의 향상된 용량은 실시간 추론 워크로드에서 최초 토큰 생성 시간(TTFT)을 80% 이상 단축시킬 수 있어 성능 향상에 크게 기여한다"며 "최첨단 1γ D램은 이전 세대 대비 20% 이상 전력 효율을 향상시켜, 대규모 데이터센터 클러스터의 전력 설계 최적화를 더 강화한다"고 설명했다. 마이크론은 이번 소캠2 샘플 공급으로 엔비디아와의 협력을 더욱 강화할 것으로 전망된다. 현재 엔비디아는 차세대 AI 반도체인 '루빈'에 소캠을 적용할 계획으로, 이에 따라 삼성전자, SK하이닉스 등도 소캠2 양산화를 준비 중이다. 라즈 나라시만 마이크론 클라우드 메모리 사업부 수석 부사장은 "마이크론은 저전력 D램 분야에서 입증된 리더십을 바탕으로 소캠2 모듈이 차세대 AI 데이터센터 구동에 필수적인 데이터 처리량, 에너지 효율, 용량 등을 제공할 수 있도록 보장한다"고 밝혔다.

2025.10.23 09:28장경윤

S&P, LG전자 신용등급 전망 3년만에 '긍정적' 상향

국제신용평가기관 스탠더드앤드푸어스(S&P)가 21일 LG전자 신용등급 전망을 BBB Stable(안정적)에서 BBB Positive(긍정적)로 한 단계 상향 조정했다. S&P가 LG전자 신용등급 전망을 조정한 것은 2022년 10월 이후 3년 만이다. 이는 가전, 전장사업의 견조한 성과와 최근 인도법인 상장을 통한 대규모 현금 조달, 관계사 LG디스플레이 실적 개선에 따른 기대를 반영한 것이다. 앞서 올 2월에는 국제신용평가기관 무디스(Moody's)가 LG전자 신용등급 전망을 Baa2, Stable(안정적)에서 Baa2, Positive(긍정적)로 상향 조정한 바 있다. S&P가 신용등급 전망을 '긍정적'으로 상향 조정한 것은 현재 LG전자의 사업구조와 재무상황 등을 고려했을 때 향후 1~2년간 재무 지표를 지속적으로 개선해 신용도를 개선할 가능성이 높음을 전망한다는 의미다. 당분간 현 상태를 유지한다는 의미의 '안정적' 등급 대비 긍정적 평가에 해당한다. S&P는 “LG전자는 美 관세인상 등 어려운 환경 가운데 주력사업의 견조한 실적, 인도법인 상장을 통한 대규모 현금 유입, 지분 36.72%를 보유한 LG디스플레이의 턴어라운드가 주요 성장동력으로 작용하고 있다”고 밝혔다. 구체적으로 가전 사업은 거시경제 불확실성 속에서도 안정적인 수익성을 기반으로 주요 시장에서 탄탄한 입지를 구축하고 있으며, 냉난방공조 사업은 데이터센터용 냉각솔루션 사업과 고효율 솔루션이 성장 동력이 되고 있다고 말했다. 전장 사업은 100조 원에 달하는 수주 잔고에 더불어 수주 믹스 개선 등이 이뤄지며 수익성을 크게 개선하고 있다고 말했다. S&P는 관계사 LG디스플레이의 실적 개선세 또한 LG전자 신용등급 평가에 긍정적으로 작용할 것으로 내다봤다. LG전자는 LG디스플레이의 경영성과를 지분법손익으로 반영하고 있다. 또한 인도법인 현지 증시 상장으로 인한 1조8천억원 이상의 현금 유입 또한 부채 감소 등으로 이어질 것으로 내다봤다.

2025.10.22 09:24장경윤

파두, 데이터센터용 고성능 PMIC 상용화 성공

국내 팹리스(반도체 설계전문) 파두가 데이터센터용 고성능 전력관리반도체(PMIC)가 최상위 등급(Tier 1) 고객 인증 통과 및 양산을 통해 복수의 후속 제품 공급을 확정했다고 21일 밝혔다. 이번 성과로 파두는 기술력과 사업성을 동시에 입증함으로써 이미 글로벌 시장에서 안정적으로 성장하고 있는 데이터센터 SSD 컨트롤러에 이어 종합 시스템반도체 기업으로 성장하기 위한 추가적인 발판을 확보했다. 인공지능(AI) 시장을 비롯해 클라우드 컴퓨팅, 빅데이터 등 고성능 컴퓨팅에 대한 수요가 폭증하면서'전기먹는 하마'로 불리는 데이터센터의 전력 효율성을 높이면서도 컴퓨팅 자원에 전력을 안정적으로 분배할 수 있는 전력 솔루션의 중요성이 강조되고 있다. 특히 AI로 인해 GPU를 필두로 급격하게 높아진 성능을 뒷받침하기 위해 반도체가 소비하는 전력량이 크게 증가하면서 반도체에 공급하는 전력을 정밀하게 제어하고 전력손실을 최소화할 수 있는 솔루션으로서 PMIC에 대한 관심이 크게 높아지고 있다. 데이터센터용 PMIC는 GPU, DRAM, SSD 등 서버 컴퓨터 내의 다양한 구성 요소가 사용해야 하는 전력을 각 반도체에 맞게 적절히 변환, 배분, 제어하는 반도체로서 안정적이고 효율적인 전력공급의 핵심적 역할을 수행한다. 이지효 파두 대표는 “저전력 고효율 설계철학은 팹리스로서 파두가 갖고 있는 가장 근본적인 차별점으로서 PMIC를 통해 파두의 철학을 다시 한번 증명했다는 점이 의미가 있다”며 “대한민국 팹리스의 오랜 숙제는 한국의 탁월한 엔지니어들이 개발한 제품을 어떻게 글로벌 시장에서 인정받고 고객의 인증을 통과해 대규모 양산까지 연결할 수 있느냐였다”고 설명했다. 이어 “파두는 지난 10년간의 노력 끝에 우리만의 성공 공식을 찾았다고 생각한다”며 “첫 제품인 SSD 컨트롤러가 글로벌 데이터센터 시장에서 인정받는데 까지 8년이 걸렸는데 이를 통해서 쌓은 고객들의 신뢰 덕분에 PMIC에서는 훨씬 빠르게 글로벌 시장에서 인정받을 수 있었다”고 전했다. 이 대표는 “파두는 글로벌 데이터센터 반도체 시장에서 지속적인 혁신제품을 소개하면서 대한민국 선도 팹리스 기업으로 성장해 나가겠다”고 강조했다.

2025.10.21 13:41전화평

리벨리온, 말레이시아 주정부와 AI 반도체 협력… 아세안 시장 공략 가속화

AI반도체 스타트업 리벨리온이 말레이시아 보르네오 섬에 위치한 사라왁 주정부와 전략적 협력을 맺으며 아세안 시장 진출을 본격화했다. 리벨리온은 현지시간 20일 사라왁 주정부 산하 디자인하우스 기업 'SMD 세미컨덕터'와 AI 반도체 설계 및 개발 협력을 위한 업무협약(MOU)을 체결했다고 21일 밝혔다. 이번 협약은 사라왁 주정부가 주최한 'IDECS 2025'에서 진행됐다. 행사에서 리벨리온은 향후 협력 계획과 아세안 시장에서의 성장 전략을 발표하며, 양사 간 협력의 비전과 방향성을 제시했다. 양사는 이번 협약을 통해 반도체 공동 개발과 사라왁 주정부를 중심으로 한 데이터센터 사업, 공동 마케팅 등을 추진할 예정이다. 이를 기반으로 리벨리온은 말레이시아 내 데이터센터향 반도체 공급망을 구축하고, 아세안 시장 진출의 교두보를 마련한다. 말레이시아 사라왁은 천연가스 등 지하자원은 물론 수력, 태양광 등 신재생에너지 인프라를 보유한 지역이다. 이 때문에 대규모의 전력이 필수적인 데이터센터 설립에 유리해 사라왁 정부를 비롯해 다수의 기업이 데이터센터 구축을 추진하고 있다. 이번 사라왁 주정부와의 협력은 리벨리온이 최근 마무리한 시리즈C 펀딩에서 인터베스트의 투자를 유치한 것이 계기가 됐다. 인터베스트는 산업통상부 정책펀드인 '글로벌 오픈이노베이션 펀드' 등을 통해 총 420억원을 투자했으며, 이를 기반으로 리벨리온과 사라왁 주정부 간 협력을 주선했다. 해당 펀드는 한국산업기술기획평가원과 한국성장금융이 공동으로 관리하며, 이번 협약은 정부·공공·민간이 협력해 국내 반도체 기업의 해외 진출을 지원한 대표적 사례로 평가된다. 박성현 리벨리온 대표는 “말레이시아는 OSAT(후공정업체)를 중심으로 한 반도체 생태계를 갖추고 있을 뿐 아니라 올 초 말레이시아 정부는 Arm과 손을 잡고 반도체 설계 지식재산권(IP)을 확보하는 등 첨단 반도체 설계에도 큰 관심을 보이고 있다”며 “글로벌 빅테크의 데이터센터가 잇따라 들어서며 말레이시아가 전략적 거점으로 부상하는 만큼 이번 협력을 통해 리벨리온은 아세안 지역 데이터센터 시장에서 빠른 성과를 창출할 것으로 기대한다”고 말했다. 완 리조즈만(Dr. Wan Lizozman) SMD 세미컨덕터 회장은 “리벨리온과의 협력은 사라왁이 아시아의 첨단 반도체 설계와 혁신 중심지로 도약하기 위한 중요한 발걸음”이라며, “글로벌 AI 선도 기업인 리벨리온과의 협력을 통해 우리는 산업의 새로운 방향을 함께 만들어가고 있다”고 전했다.

2025.10.21 13:32전화평

Arm, OCP 이사회 합류... 칩렛 표준화 기술 기여

Arm은 21일 개방형 데이터센터 표준을 주관하는 업계 단체인 오픈컴퓨트프로젝트(OCP) 이사회에 합류한다고 밝혔다. OCP는 개방형·오픈소스 기술 기반으로 데이터센터 하드웨어를 개발하기 위한 프로젝트로 구글·마이크로소프트·인텔·AMD 등 글로벌 IT 기업과 연구기관이 참여하고 있다. Arm은 OCP 네트워킹 프로젝트(OCP Networking Project) 산하 대규모 AI용 이더넷 기술 발전 협력체 ESUN에 합류하는 등 이미 펌웨어, 관리 가능성, 서버 하드웨어 설계 관련 OCP 워크스트림에서 활발히 활동하고 있다. Arm은 이번에 AMD, 엔비디아 등 주요 반도체 업체와 함께 OCP 이사회에 합류했으며 OCP에 참여하는 주요 기업과 AI 데이터센터를 위한 개방적이고 상호운용 가능한 설계 발전을 위해 노력할 예정이다. 모하메드 아와드 Arm 인프라 사업부 총괄은 "AI 경제는 컴퓨팅 인프라를 재편하고 있으며, 클라우드부터 엣지까지 전례 없는 성능과 효율성, 확장성을 요구하고 있다"고 설명했다. 이어 "현재 AI 전용 랙(rack) 시스템은 미국 100가구 수준의 전력을 소비하며 2020년 최고 슈퍼컴퓨터급 성능을 낸다. 이런 과제를 해결하려면 차세대 인프라와 함께 빠르게 진화하는 생태계 전반의 개방적 협력이 필수적"이라고 밝혔다. Arm은 OCP 이사회 합류와 함께 서로 다른 제조사와 IP 기반 반도체 칩렛(조각)을 2.5차원/3차원으로 쉽게 통합할 수 있는 기반 시스템 칩렛 아키텍처(FCSA) 사양을 OCP에 제공하기로 했다. Arm이 제안하는 FCSA는 특정 기업이나 프로세서 아키텍처, ISA에 종속되지 않는 개방형 프레임워크로 칩렛 설계 및 통합 기간 단축, 칩렛 재사용과 상호운용성 실현을 목표로 한다. Arm은 "Arm은 데이터센터 내 모든 배포 환경에서 AI를 효율적으로 확장할 수 있는 방안 마련에 주력하고 있다. OCP 이사회 합류와 FCSA 제공은 이러한 노력의 시작에 불과하다"고 밝혔다.

2025.10.21 11:15권봉석

삼성전자, 8세대 낸드도 흥행 가도…가동률 10% 이상 올라

삼성전자가 최근 평택캠퍼스 내 주력 낸드 양산 라인의 가동률을 크게 끌어올린 것으로 파악됐다. AI 산업 주도로 낸드 업황이 빠르게 개선되면서 소비자용 낸드 재고까지 덩달아 빠르게 감소한 덕분이다. 20일 업계에 따르면 삼성전자는 올 3분기 8세대(V8) 낸드 가동률을 전분기 대비 10% 이상 높였다. V8 낸드는 삼성전자가 지난 2022년 말부터 양산하기 시작한 낸드다. 적층 수는 236단으로, 6세대(V6)와 더불어 삼성전자의 주력 낸드 제품으로 자리해 왔다. 생산능력은 월 10만장 내외로 추산된다. 지난 2분기만 해도 삼성전자 V8 낸드의 가동률은 60~70%로 평이한 수준이었다. 그러나 올 3분기 들어서는 라인 가동률이 80%대까지 올라간 것으로 파악됐다. 해당 낸드 제조를 위한 소재·부품 발주량도 올해 중반을 기점으로 함께 증가했다. 반도체 업계 관계자는 "하반기 들어 V8 낸드 재고가 급감하면서 삼성전자가 생산량을 다시 늘리는 추세"라며 "3분기 최소 80% 이상의 가동률을 유지하고, 4분기에도 긍정적인 분위기가 지속될 것"이라고 설명했다. 주 요인은 낸드 업황의 개선 추세다. 시장조사업체 트렌드포스에 따르면 낸드 평균판매가격은 올 3분기와 4분기 각각 5~10%가량 상승할 것으로 관측된다. 올 상반기 메모리 공급사의 감산 전략으로 재고가 줄어든 반면, 수요는 전반적으로 증가한 데 따른 영향이다. 삼성전자 V8 낸드는 이러한 추세에 간접적인 수혜를 입었다. 현재 낸드 수요 증가는 주로 AI 인프라를 위한 eSSD(기업용 SSD) 분야가 주도하고 있다. 서버용 eSSD는 QLC(쿼드레벨셀) 낸드가 주로 탑재된다. QLC는 셀 하나에 4비트를 저장해, TLC(트리플레벨셀) 대비 고용량 저장장치 구현에 유리하다. 삼성전자 V8 낸드는 주로 소비자용으로 활용되는 TLC가 주축을 이루고 있다. QLC 제품으로는 출시되지 않았다. 그럼에도 낸드 공급망 전체가 eSSD로 수급이 쏠리면서, 소비자용 SSD도 재고가 빠르게 감소한 것으로 알려졌다. 한편 삼성전자의 eSSD 수요를 사실상 전담하는 V6 낸드도 지난해 중반부터 높은 가동률을 유지하고 있다. 중국 내 노후화된 설비를 갖춘 현지 데이터센터들의 수요가 꾸준히 발생하고 있는 것으로 전해진다.

2025.10.20 13:38장경윤

리벨리온-Arm, 차세대 AI인프라 솔루션 협력 강화

AI반도체 스타트업 리벨리온이 미국 캘리포니아 산호세에서 열린 개방형 데이터센터 기술 컨퍼런스인 'OCP 글로벌 서밋 2025'에서 'Arm 토탈 디자인(ATD)' 파트너로 공식 합류했다고 20일 밝혔다. 이는 지난 9월 시리즈 C 투자 라운드에서 Arm의 전략적 투자를 유치한 데 이어, 양사가 차세대 AI 인프라 개발과 상용화 협력을 한층 강화하는 행보다. ATD는 '네오버스 CSS' 기반 맞춤형 시스템 개발을 가속화하기 위해 구성된 글로벌 협력 생태계다. 리벨리온은 AI반도체 스타트업으로는 최초로 ATD 파트너로 합류해, 우수한 연상 성능과 에너지 효율성을 갖춘 AI데이터센터 수요에 함께 대응한다. 네오버스 CSS는 Arm의 칩 설계 인프라 개발을 위한 플랫폼이다. 리벨리온은 최근 공개한 리벨쿼드(REBEL-Quad)로 칩렛 기반 AI 반도체 설계 역량을 입증했으며, 이를 토대로 리벨 아키텍처 중심의 제품 로드맵을 확대하고 있다. 이러한 기술력을 기반으로 Arm과 협력해 ATD 생태계에서 고성능·저전력 AI 반도체를 차세대 AI 데이터센터 인프라에 적용할 계획이다. 이 과정에서 Arm의 네오버스 CSS는 리벨리온의 AI 반도체와 자연스럽게 통합되어, 확장성과 에너지 효율을 갖춘 인프라 구현을 뒷받침한다. 이번 협력은 단순한 기술 제휴를 넘어 양사의 전략적 파트너십으로 이어지고 있다. Arm은 리벨리온의 시리즈 C 투자에 참여하며 협력 관계를 한층 강화했고, 이를 기반으로 생성형 AI 워크로드에 최적화된 솔루션을 공동 개발한다는 계획이다. ATD 합류 역시 이러한 협력의 연장선에 있으며, 양사는 앞으로도 AI 데이터센터 분야 전반에서 긴밀한 파트너십을 지속해 나갈 예정이다. 에디 라미레즈 Arm 인프라 사업부 부사장은 “AI 연산 수요가 급격히 증가하는 가운데, 더 빠르고 효율적이며 확장가능한 인프라는 필수 조건이 되었다”며, “리벨리온의 ATD 합류를 통해 검증된 Arm 네오버스 CSS와 리벨리온의 AI반도체가 결합해, AI 인프라 혁신의 새로운 장을 열 것”이라고 말했다. 박성현 리벨리온 대표는 “이번 ATD 파트너 합류는 리벨리온이 고성능·저전력 AI 반도체 솔루션을 차세대 인프라 수요에 맞춰 확장할 수 있는 중요한 계기”라며, “앞으로 출시될 리벨 시리즈에도 Arm의 검증된 네오버스(Neoverse) CSS를 적용해, 대규모 데이터센터에 최적화된 솔루션을 제공하고 고객이 성능과 지속가능성을 모두 확보할 수 있도록 지원하겠다”고 밝혔다.

2025.10.20 10:40전화평

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 낸드 계열사 지분 中에 전량매각…고부가 메모리 집중

[지디 코믹스] 판교 대기업 다니는 김부장 딸 결혼식

아우디, F1 첫 진출 앞두고 '레이싱 머신' 디자인 콘셉트 공개

이재명, 재계 총수와 주말 회동…팩트시트 후속 논의

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.