• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서버'통합검색 결과 입니다. (62건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

알리바바 클라우드, 글로벌 조사기관 평가서 잇단 '리더' 선정

알리바바 클라우드가 주요 글로벌 시장조사기관 평가에서 인공지능(AI) 인프라·모델·솔루션 전반의 경쟁력을 인정받았다. 알리바바 클라우드는 2025년 가트너·포레스터·옴디아 등 글로벌 조사기관의 시장 분석 보고서에서 잇따라 업계 리더로 선정됐다고 26일 밝혔다. 먼저 옴디아는 지난해 12월 발간한 '마켓 레이더: 2025 글로벌 엔터프라이즈급 MaaS 시장 분석' 보고서에서 알리바바 클라우드를 리더로 선정했다. 서비스형 모델(MaaS)은 AI 모델을 중심으로 API와 애플리케이션, 통합형 솔루션 등을 통해 사용자에게 AI 기능을 제공하는 서비스 모델이다. 알리바바 클라우드는 9개 핵심 역량 중 이용 가능한 파운데이션 모델의 다양성, 모델 커스터마이징·튜닝, AI 에이전트 개발·스케줄링, 비용 최적화 전략, 프로덕션 배포 접근 방식 등 5개 부문에서 어드밴스드 등급을 획득했다. 보고서에 따르면 알리바바 클라우드는 자체 개발한 '큐웬' 모델을 PAI 컴퓨팅 인프라와 모델 스튜디오 애플리케이션 플랫폼과 수직 통합해 기업이 AI 애플리케이션을 개발부터 배포·운영까지 전 라이프사이클에 걸쳐 구현할 수 있도록 지원한 점을 인정받았다. 또 옴디아는 지난해 6월 발표한 '2025 아시아·오세아니아 지역 생성형 AI 클라우드 대표 기업' 보고서에서도 알리바바 클라우드를 시장 리더로 선정했다. 알리바바 클라우드는 평가 대상 9개 글로벌 벤더 중 4개 리더 기업 가운데 하나로 이름을 올렸으며, 9개 평가 항목 중 7개 항목에서 최고 등급인 '어드밴스드'를 획득했다. 가트너는 지난해 11월 발표한 4개의 '생성형 AI 혁신 가이드' 보고서에서 알리바바 클라우드를 평가 대상 4개 부문 모두 신흥 리더로 선정했다. 해당 부문은 생성형 AI 특화 클라우드 인프라, 생성형 AI 모델 제공업체, 생성형 AI 엔지니어링, 생성형 AI 지식 관리 앱·범용 생산성 영역이다. AI 인프라 혁신 분야에서도 성과를 이어갔다. 알리바바 클라우드는 '포레스터 웨이브: AI 인프라 솔루션' 2025년 4분기 보고서에서 리더로 선정됐다. 구성·데이터 관리·운영 관리·장애 허용성·효율성·배포 환경 등 7개 항목에서 최고 점수인 5.00점을 받았다. 이와 관련해 지난해 8월엔 가트너의 '2025 매직 쿼드런트: 클라우드 네이티브 애플리케이션 플랫폼' 보고서에서도 리더로 선정됐다. 서버리스 앱 엔진(SAE), 함수 컴퓨트, 컨테이너 컴퓨트 서비스(ACS) 등을 통해 기업이 AI 기반 애플리케이션을 더 빠르게 구축·배포·확장할 수 있도록 지원한다는 점이 강점으로 꼽혔다. 서버리스 분야에서는 '포레스터 웨이브: 서버리스 개발 플랫폼' 2025년 2분기 보고서에서 리더로 선정되며 경쟁력을 입증했다. 알리바바 클라우드는 함수 컴퓨트와 서버리스 앱 엔진 역량을 기반으로 초기화 및 배포, 워크로드 유연성, 관찰성, AI 애플리케이션 개발 등 9개 항목에서 최고 점수 5점을 획득했다. 아울러 가트너의 클라우드 데이터베이스 관리 및 컨테이너 관리 관련 보고서에서도 리더로 선정됐다. 지난해 11월 '가트너 매직 쿼드런트: 클라우드 데이터베이스 관리 시스템(DBMS)' 보고서에서 6년 연속 리더에 올랐으며 같은 해 8월 '가트너 매직 쿼드런트: 컨테이너 관리' 보고서에서도 리더로 선정됐다. 알리바바 클라우드는 첨단 클라우드 인프라와 고급 AI 역량을 결합한 AI+클라우드 전략을 중심으로 기술 혁신을 이어가고 있다고 강조했다. 현재 전 세계 29개 지역에서 92개 데이터센터를 운영하며 글로벌 클라우드 인프라 역량을 강화하고 있다. 알리바바 클라우드는 "AI와 클라우드 기술 혁신을 통해 전 세계 기업 고객들에게 실질적인 비즈니스 가치를 제공하겠다"고 밝혔다.

2026.01.26 17:40한정호 기자

메가존클라우드, 하나은행과 디지털 혁신 금융 서비스 발굴 '맞손'

메가존클라우드가 하나은행과 인공지능(AI)·클라우드·데이터 사이언스 등 디지털 신기술을 접목한 혁신 금융 서비스 공동 발굴에 나선다. 메가존클라우드는 지난 23일 서울 중구 하나은행 을지로 본점에서 하나은행과 AI 클라우드 시장 내 상호 협업과 금융 서비스 지원을 위한 전략적 업무협약(MOU)을 체결했다고 26일 밝혔다. 이날 체결식에는 이주완 메가존클라우드 이사회 의장과 이호성 하나은행장이 참석했다. 이번 협약을 통해 양측은 정부의 글로벌 AI 3강 비전에 따른 AI 데이터센터 구축을 위해 메가존클라우드가 도입 예정인 대규모 그래픽처리장치(GPU)·신경망처리장치(NPU) 서버 수입과 관련한 하나은행의 수출입 금융 지원을 추진한다. 아울러 금융 서비스, 클라우드, AI 등 양사가 보유한 기술과 서비스를 활용한 융복합 비즈니스 모델 발굴 등에 지속 협력할 방침이다. 특히 하나은행은 GPU·NPU 서버 수입과 관련한 금융 지원과 별도로 직·간접 지분 투자도 추진할 계획이다. 이를 통해 메가존클라우드는 아시아 최대 클라우드 관리 서비스 기업(MSP) 입지와 기술 경쟁력을 강화한다는 목표다. 또 GPU 수급에 어려움을 겪고 있는 국내 빅테크·반도체 기업의 성장 촉진도 도모할 방침이다. 메가존클라우드 황인철 최고매출책임자(CRO)는 "우리 강점인 멀티·하이브리드 클라우드 운영 역량과 AI 특화 플랫폼을 하나은행의 금융 데이터들과 겹합해 AI 금융 특화 솔루션을 만들고 금융 특화 AI 데이터센터 활성화를 가속화할 예정"이라고 밝혔다.

2026.01.26 16:14한정호 기자

삼성전기, 작년 매출 11.3조원 '역대 최대'

삼성전기가 AI·서버·전장용 고부가 부품 수요 확대에 힘입어 지난해 4분기 시장 기대를 웃도는 실적을 거뒀다. 연간 기준으로는 창사 이래 최대 매출을 기록하며 체질 개선 성과를 입증했다. 삼성전기는 23일 지난해 4분기 실적으로 매출 2조9천21억원, 영업이익 2395억원을 기록했다고 밝혔다. 전년 동기 대비 매출은 16%, 영업이익은 108% 증가했다. 2025년 연간 실적은 매출 11조3145억원, 영업이익 9133억원으로 전년 대비 각각 10%, 24% 늘며 역대 최대 매출을 달성했다. 컨센서스 상회…AI·전장 수요 효과 4분기 실적은 증권가 예상을 상회했다. 에프앤가이드가 집계한 증권가 컨센서스(예상치 평균)는 매출 2조8147억원, 영업이익 2246억원이었다. 매출과 영업이익 모두 이를 웃돈 것이다. 삼성전기는 글로벌 AI 인프라 투자 확대와 자율주행 채용 증가로 AI·서버·전장용 고사양 부품 수요가 견조하게 이어졌다고 설명했다. 특히 AI·서버용 MLCC와 AI 가속기 및 자율주행 시스템용 FCBGA(플립칩볼그리드어레이) 등 고부가 제품 공급 확대가 매출 성장과 수익성 개선을 동시에 이끌었다. 사업부문별로는 컴포넌트 부문의 4분기 매출이 1조3203억원으로 전년 동기 대비 22% 증가했다. 연말 재고 조정 영향으로 전 분기 대비 4% 감소했으나, AI·서버 및 파워용 MLCC 공급 확대 효과로 전년 대비 높은 성장세를 유지했다. 삼성전기는 올해 서버·네트워크 등 AI 및 산업용 고부가 MLCC 공급을 확대하고, 고용량·고압 등 전장용 MLCC 라인업을 강화해 전장 부문 매출을 늘릴 계획이다. 패키지솔루션 부문 매출은 6446억원으로 전년 동기 대비 17%, 전 분기 대비 9% 증가했다. 글로벌 빅테크향 서버 및 AI 가속기용, 자율주행 시스템용 FCBGA와 모바일 AP용 BGA 등 고부가 패키지기판 공급이 확대됐다. 올해에는 데이터센터 시장 고성장이 예상되는 가운데, 삼성전기는 신규 빅테크 고객향 AI 가속기 및 네트워크용 패키지기판 공급을 통해 매출 확대에 나설 방침이다. 광학솔루션 부문은 4분기 매출 9372억원으로 전년 동기 대비 9%, 전 분기 대비 2% 증가했다. 고성능 IT용 카메라 모듈 공급 개시와 전장용 카메라 모듈 확대가 실적 개선을 이끌었다. 올해는 전장용 ADAS(첨단운전자지원시스템) 고도화와 휴머노이드 등 신규 응용처 확대, 스마트폰 카메라 고성능화 수요 증가에 대응해 차별화 기술 개발과 전장 특화 제품 공급 확대에 집중할 계획이다.

2026.01.23 13:31전화평 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호 기자

노타, 유탑소프트와 온디바이스 AI 튜터 개발 '맞손'…비용 효율화 실현

노타가 인공지능(AI) 에듀테크 기업 유탑소프트와 손잡고 온디바이스 AI 튜터 개발에 나선다. 노타는 지난 18일 유탑소프트와 온디바이스 AI 기반 교육 서비스 사업 협력을 위한 양해각서(MOU) 체결식을 진행했다고 19일 밝혔다. 이번 체결식은 유탑소프트가 보유한 교육 업체 대상 AI 튜터 개발 역량과 노타의 AI 경량화 기술을 결합해 교육 전용 디바이스에 최적화된 생성형 AI 기반 AI 튜터 서비스를 상용화하고자 마련됐다. 양사가 구상 중인 온디바이스 AI 튜터는 외부 서버를 거치지 않고 태블릿 기기 자체에서 AI 튜터가 구동되는 방식을 기본으로 하되, 추론의 결과가 많이 필요한 경우에 한해 외부 서버와 연동하는 하이브리드 방식의 적용이 검토되고 있다. 기존 생성형 AI 기반 서비스의 고질적인 문제로 꼽히는 ▲막대한 서버 운영 비용 ▲네트워크 지연 속도 ▲데이터 보안 문제를 효율적으로 개선한다는 목표다. 향후 협력이 구체화되면 유탑소프트는 우선적으로 영어 스피킹 특화 AI 튜터 모델과 거대언어모델(LLM) 기반 문제은행 특화 AI 튜터 모델의 기획과 개발을 주도할 계획이다. 이에 맞춰 노타는 자사 핵심 기술인 AI 모델 최적화 플랫폼 '넷츠프레소'를 활용해 데이터 기반 파인튜닝 및 해당 AI 튜터 모델을 태블릿 등의 하드웨어(HW) 성능에 맞춰 압축·최적화하는 과정에서 긴밀히 협력해 나갈 방침이다. 이를 통해 구현되는 AI 튜터 솔루션은 학생 사용자수 증가에 따라 기하급수적으로 늘어나는 AI 서비스 운용 비용을 획기적으로 절감할 수 있을 것이라는 게 회사 측 설명이다. 또 인터넷 연결이 원활하지 않은 환경에서도 학생들이 끊김 없이 AI 튜터의 질문·답변 서비스를 이용할 수 있어 학습 효율성을 극대화할 전망이다. 김성범 유탑소프트 대표는 "노타와의 협력은 에듀테크 시장의 화두인 비용 효율화와 개인화 교육을 동시에 실현하는 계기가 될 것"이라며 "교육 업체가 고비용의 LLM 도입으로 발생되는 운영 비용의 부담을 하이브리드 지원 온디바이스 AI 튜터를 통해 합리적이고 안전한 솔루션을 교육 업체에 제공하겠다"고 밝혔다. 채명수 노타 대표는 "교육 업체를 위한 AI 서비스 모델 경량화는 HW 제약이 많은 모바일 교육 환경에서 필수적인 기술"이라며 "유탑소프트의 풍부한 교육 서비스 구축 경험이 우리의 온디바이스 AI 기술과 만나 실제 교육 현장에서 의미 있는 혁신 사례를 만들 수 있도록 적극 지원하겠다"고 말했다.

2025.12.19 15:32한정호 기자

지난해 PCB 시장 규모 117조원…中 점유율 60% 압도적 1위

한국 PCB 및 반도체패키징 산업협회(KPCA)는 세계 각국 유관 협회와 PCB(인쇄회로기판) 생산량을 총집계한 '2024년 글로벌 PCB 생산 보고서'를 발간했다고 18일 밝혔다. KPCA협회는 전세계 각국 회원들로부터 매년 생산 데이터를 취합하고, 이를 글로벌 시장 분석에 반영하는 역할을 수행하고 있다. 한국은 IC(집적회로) 패키지 기판, 고다층PCB 분야에서 중요한 글로벌 공급국으로 자리매김하고 있어, KPCA의 데이터 기여도는 전세계 보고서에서 높은 신뢰도를 가진 것으로 평가된다. 2024년 전 세계 PCB 총생산 규모는 117조5천517억원(861억7천200만 달러)으로 집계됐다. 중국이 전체의 60% 이상(71조4천707억원)을 차지하며 압도적인 생산국 지위를 유지했으며, 대만·한국·일본은 첨단 패키징 중심 고부가가치 제품 공급국으로 뒤를 이었다. 한국은 12조6천402억원 규모로 세계 4위 PCB 생산국을 기록했으며, 특히 IC 기판 분야에서 강력한 경쟁력을 보였다. 대만과 일본은 고신뢰성 및 반도체용 패키징 기판 중심의 안정적인 생산 체제를 유지했다. 북미·유럽은 방산 및 산업용PCB 중심의 제한적 시장 체제를 유지하고 있으며, 인도·기타 아시아는 '차이나+1' 전략 확산으로 성장세가 본격화되고 있다. 전체 시장 중 고다층(MLB), HDI, IC Substrate 등 첨단 패키징용 제품이 절반 이상을 차지하며, 반도체 패키징 고도화가PCB 산업의 핵심 성장동력으로 지속될 전망이다. 국내 PCB 산업은 글로벌 PCB 시장에서 통신 장비 분야 비중 40.5%로 세계 최고 수준을 기록하며, 5G·서버·네트워크용 고부가가치 PCB 수요를 선도하고 있다. 이어 컴퓨터·비즈니스 장비 분야가 19.7%, 자동차 전장용 PCB가 17.5%로 산업별 수요가 균형을 이루고 있다. 또한 국내 PCB 산업은 5G, 서버, AI·HPC 관련 기판 수요를 적극 반영하며 첨단 패키징과 고부가가치PCB 중심으로 발전하고 있다. 특히 IC 기판, HDI·고다층PCB, 리지드-플렉스 등 전략 산업 기반을 확보함으로써 글로벌 공급망에서 핵심적인 역할을 수행하고 있다. 최근에는 유리 기판(TGV) 기술이 센서 및 고신뢰성 모듈 패키징 분야에서 주목받고 있다. 저온 접합·초미세 배선 공정을 통한 유리 기판 기반 모듈은AI, 자동차, 바이오 등 첨단 산업용 패키징에서 활용도가 높아, 한국 기업들의 첨단 패키징 경쟁력을 더욱 강화하고 있다. 안영우 KPCA협회 사무총장은 “산업별 PCB 수요 구조와 첨단 패키징 기술의 결합은 한국 제조업 경쟁력과 전략 산업 방향성을 보여주는 핵심 지표”라며 "한국PCB 산업이 AI·반도체 패키징·통신 인프라 중심으로 고도화 및 고부가 가치화되고 있다"고 강조했다.

2025.12.18 16:33장경윤 기자

SK하이닉스 32Gb 서버용 D램, 업계 첫 인텔 호환성 검증

SK하이닉스가 업계 최초로 10나노급 5세대(1b) 32Gb 기반 고용량 서버용 D램 모듈 제품인 256GB DDR5 RDIMM을 인텔 '제온 6' 플랫폼에 적용하기 위한 '인텔 데이터센터 인증' 절차를 통과했다고 18일 밝혔다. RDIMM은 메모리 모듈 내에 메모리 컨트롤러와 D램 칩 사이에 주소, 명령 신호를 중계해주는 레지스터 또는 버퍼 칩을 추가한 서버·워크스테이션용 D램 모듈이다. 이번 인증 절차는 미국에 위치한 인텔의 첨단 연구시설인 어드밴스드 데이터센터 디벨롭먼트 랩에서 진행됐다. 이 곳에서 SK하이닉스는 수차례의 다면 평가를 거쳐 이번 제품이 제온 플랫폼과 결합했을 때 신뢰할 수 있는 성능과 호환성, 품질을 갖췄다는 결과를 얻었다. 회사는 이에 앞서 올해 1월, 10나노급 4세대(1a) 16Gb 기반 256GB 제품에 대한 인증도 받은 바 있다. SK하이닉스는 "서버용 CPU 시장을 선도하는 인텔의 최신 서버 플랫폼과의 호환성을 업계 최초로 검증 받으며 당사의 고용량 DDR5 모듈 기술력이 글로벌 최고 수준임을 입증했다"며 "이를 발판으로 글로벌 주요 데이터센터 사업자들과의 협력을 확대하고, 급증하는 서버 고객들의 수요에 적기 대응해 차세대 메모리 시장 리더십을 이어 가겠다"고 강조했다. 차세대 AI 인프라에서 메모리는 성능을 좌우하는 핵심 요소로 부상하고 있다. 최근 AI 추론 모델들이 단순 답변 생성을 넘어 복잡한 논리적 사고 과정을 수행하면서, 실시간으로 처리해야 하는 데이터량이 기하급수적으로 늘어나고 있기 때문이다. 방대한 데이터를 빠르고 안정적으로 처리하려면 고용량·고성능 메모리가 필수적이며, 이에 따른 시장 수요도 급증하고 있다. 회사는 이번 제품이 늘어나는 시장 수요에 부응하는 최적의 설루션이라고 강조했다. 회사 개발진은 "이번 제품을 탑재한 서버는 32Gb 128GB 제품을 채용했을 때 대비 16% 추론 성능이 향상된다"며 "32Gb D램 단품 칩을 활용한 설계로 전력 소모량도 기존 1a 기반 16Gb 256GB 제품보다 최대 약 18%까지 줄였다"고 설명했다. 이에 따라, 전성비를 중시하는 데이터센터 고객들의 높은 관심이 예상된다. 이상권 SK하이닉스 부사장(DRAM상품기획 담당)은 “서버용 DDR5 D램 시장에서 주도권을 확실히 하면서 고객 요구에 신속하게 대응할 수 있게 됐다”며 “풀 스택 AI 메모리 크리에이터로서 고성능·저전력·고용량 메모리 수요 확산에 적극 대응해 고객들의 만족을 이끌어 내겠다”고 말했다. 디미트리오스 지아카스 인텔 플랫폼 아키텍처 부사장은 "양사가 긴밀히 협력해 기술 완성도를 높인 결과 좋은 성과를 거뒀고, 메모리 기술 발전에도 기여하게 됐다"며 "고용량 모듈은 급증하는 AI 워크로드(Workload) 수요에 대응하며, 데이터센터 고객들이 원하는 성능과 효율성도 크게 향상시킬 것"이라고 말했다.

2025.12.18 09:39장경윤 기자

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호 기자

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호 기자

AI 열풍 속 메모리 슈퍼사이클…"2026년까지 호황 지속"

AI 열풍이 메모리 반도체 시장의 사이클을 근본적으로 바꾸고 있다. 올해 D램, 낸드플래시 가격이 잇따라 급등하며 강한 회복세를 보인 데 이어, 내년에도 호황이 이어질 것이란 전망에 힘이 실리고 있기 때문이다. 업계 안팎에서는 수요에 비해 공급이 부족할 것이라는 진단을 내놓으며 슈퍼사이클 지속 가능성을 강조하고 있다. 9일 시장조사업체 트렌드포스에 따르면 올해 메모리 가격은 1분기 바닥을 찍은 뒤 3분기 급등, 4분기까지 높은 가격대를 유지하는 흐름을 보였다. D램은 HBM(고대역폭메모리)과 DDR5 중심의 공급 전환으로 레거시 DDR4 부족 현상이 심화되면서 가격이 예상보다 가파르게 올랐다. 3분기에는 주요 세트업체의 재고 확보 수요가 겹치는 양상까지 나타났으며, 4분기에는 서버·PC D램 전반으로 인상 흐름이 확산됐다. 낸드플래시는 1분기까지 공급과잉에 시달렸지만, 감산과 투자 축소 효과로 3분기부터 반등하기 시작했다. 특히 SSD·데이터센터향 제품의 주문이 늘면서 4분기에는 구조적인 타이트 구간에 접어들었다. 트렌드포스는 올해 완제품 기준 BOM(부품원가)이 8~10% 증가한 것으로 분석했다. 韓 메모리 양사 “AI 메모리 수요가 공급 앞선다” 삼성전자와 SK하이닉스 등 국내 메모리 양사도 2026년까지 메모리 수요가 유지될 것으로 전망했다. AI용 메모리인 HBM, DDR5, SSD 중심의 전략을 이어가겠다는 것이다. 삼성전자는 최근 컨퍼런스콜에서 “HBM3E와 차세대 HBM4 공급을 확대하더라도 2026년까지는 수요가 공급을 웃도는 구조가 유지될 것”이라고 밝혔다. 아울러 DDR5·LPDDR5X, 고용량 QLC SSD 등 고부가 제품군 비중도 지속 확대할 계획이다. SK하이닉스 역시 주요 고객사와의 협의를 근거로 “내년 HBM 공급 물량은 이미 상당 부분 소진됐다”고 밝혔다. 회사는 HBM과 서버용 DRAM, 고성능 SSD 생산 능력 강화를 위해 내년 설비투자(Capex)를 상향 조정할 방침이다. 해외 매체들은 SK하이닉스의 HBM 공급이 2027년까지 사실상 예약 완료 상태라고 보도하기도 했다. 증권가 “2026년까지 호황 지속 전망” 이에 국내 증권업계는 내년 메모리 업황에 대해 매우 낙관적인 전망을 내놓고 있다. 대신증권은 최근 보고서를 통해 “D램과 낸드 모두 2026년까지 호황이 이어질 가능성이 크다”고 분석했다. 보고서에 따르면 D램 수요 증가율은 30% 이상, 서버 D램은 40%대 성장까지 예상된다. 반면 D램 비트 공급 증가율은 20% 수준, 낸는 17% 안팎에 그쳐 수요를 따라가지 못할 것으로 봤다. 메모리 재고도 D램은 2~3주, 낸드는 약 6주로 추정돼 공급이 빠듯한 상황이라는 분석이다. 해외에서도 비슷한 전망이 나오고 있다. 노무라증권은 “메모리 슈퍼사이클이 최소 2027년까지 이어질 것”이라며 SK하이닉스를 최대 수혜주로 제시했다. D램과 낸드 가격 상승률 전망도 내년 기준 각각 50%, 60%대로 상향했다. 다만 HBM 가격 조정 가능성이 변수로 지적된다. 하나증권은 “AI 서버 수요가 견조하더라도 HBM 가격은 2026년 이후 두 자릿수 조정이 나타날 수 있다”며 “물량은 부족하지만 가격은 피크아웃 국면에 접어들 수 있다”고 분석했다.

2025.12.09 16:08전화평 기자

삼성전기, 내년 초 필리핀 팹 증설 추진…'MLCC' 호황 대응

삼성전기가 내년 초부터 AI 서버용 적층세라믹캐패시터(MLCC) 생산능력 확대를 추진한다. 최근 필리핀 법인의 증설을 위한 준비에 나선 것으로 파악됐다. 급증하는 AI 인프라 투자에 선제적으로 대응하려는 전략으로 풀이된다. 1일 업계에 따르면 삼성전기는 내년 1분기부터 필리핀 소재의 MLCC 양산라인을 증설할 계획이다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 IT제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. 현재 삼성전기의 MLCC는 주로 중국 톈진과 필리핀 라구나주 칼람바시 소재의 공장 2곳에서 양산되고 있다. 국내 수원 및 부산사업장은 R&D 및 원재료 제조에 집중하고 있다. 삼성전기는 이 중 필리핀 MLCC 공장의 증설을 지속 고려해 왔다. 올 4분기 설비투자를 위한 협력망을 구성하는 등 구체적인 준비에 나선 것으로 파악됐다. 이르면 올 1분기부터 실제 투자에 나설 전망이다. 구체적인 투자 규모는 밝혀지지 않았으나, 삼성전기의 연간 투자 규모를 고려하면 수천억원의 투자가 집행될 것으로 관측된다. 또한 이달 초에는 장덕현 삼성전기 사장이 부산사업장에서 페르디난드 마크로스 필리핀 대통령을 만나, 필리핀 경제특구청(PEZA) 및 MLCC 투자를 위한 협약을 체결한 바 있다. 전자부품 업계 관계자는 "삼성전기는 중국 톈진에서 전장용 MLCC를, 필리핀에서는 AI 서버용 MLCC를 주력으로 양산해 왔다"며 "필리핀 MLCC 공장 건설 계획이 조만간 구체화될 것으로 안다"고 설명했다. AI 서버용 MLCC는 최근 글로벌 빅테크 기업들의 공격적인 AI 인프라 투자 확대에 따라 수요가 빠르게 증가하는 추세다. AI 서버에는 일반 서버 대비 약 10배 이상의 MLCC가 탑재되며, 소형·고용량을 요구하기 때문에 부가가치가 높다. 이에 삼성전기도 MLCC 사업에서 호황을 맞고 있다. MLCC가 포함된 삼성전기의 컴포넌트 공장 가동률은 지난해 연 81% 수준에서 올해 3분기 기준 99%로 사실상 '풀가동' 체제에 접어들었다.

2025.12.01 10:34장경윤 기자

AI 반도체 열폭주 시대…데이터센터 식히는 '2상 냉각' 뜬다

인공지능(AI) 반도체 성능 경쟁이 뜨거워지면서 데이터센터의 가장 큰 문제로 '열'이 부상했다. 기존 공랭식(공기냉각)은 이미 수년 전 한계에 도달했고, 수랭식(액체냉각) 역시 전력밀도 증가 속도를 따라잡지 못하고 있다. GPU·HBM 탑재 AI 칩의 발열량이 폭증하면서 냉각 방식의 전환이 데이터센터 업계의 핵심 과제로 떠오른 것이다. 28일 여의도 FKI타워컨퍼런스홀에서 열린 '전자기기 및 데이터센터 첨단 방열 기술 집중 교육'에서는 이 같은 문제에 대한 해답으로 '2상 냉각' 기술이 제안됐다. 문강석 LG전자 책임연구원은 “AI 칩의 발열 특성상 기존 냉각 구조만으로는 앞으로 2~3년 내에도 대응이 쉽지 않다”며 “칩 단위에서 열을 직접 제어하는 방식이 필요하다”고 지적했다. 증발·응축 활용하는 2상 냉각… 소켓당 2kW, 랙당 100kW 대응 2상 냉각은 냉매가 칩 표면에서 끓어 증발하고, 다시 응축돼 순환하는 구조로 동작한다. 액체와 기체가 오가는 과정에서 잠열을 활용하기 때문에 1상 액체 냉각(물 기반)보다 월등한 열 제거 성능을 낸다. 문 연구원은 “비전도성 냉각액이 콜드플레이트로 들어가 칩에서 증발한 뒤 응축기를 거쳐 다시 순환하는 구조”라며 “이 방식으로 소켓당 2~2.5kW, 렉당 100kW까지 대응 가능하다”고 설명했다. 이는 최근 AI 서버 밀도 증가와 함께 업계가 직면한 냉각 한계를 정면으로 넘어서는 수준이다. 특히 2상 액침냉각은 서버 전체를 비전도성 유체에 담가 열을 제거하는 구조로, PUE(전력효율지수)를 크게 낮출 수 있다. 미국, 유럽 등 글로벌 데이터센터 기업들이 공격적으로 검토하는 기술이다. 공랭·1상 수랭의 구조적 한계… “이미 정점을 지나고 있다” 기존 냉각 방식의 물리적 한계도 자세히 언급됐다. 팬 기반 공랭은 소음·부피·전력 소모 증가로 운영 비용 급증하고 있으며, 히트파이프는 중력·자세·길이 제약으로 고열밀도 칩 대응이 어렵다. 1상(단상) 수랭식의 경우 물리적 구조 자체에 근본적 한계를 갖는다. 이 방식은 물이 상태 변화 없이 온도를 올려가며 열을 흡수하는 구조라 냉매의 비열·열전도도 같은 물성 한계에 부딪힐 수밖에 없다. 채널을 더 좁게 만들거나 유량을 늘려도 압력손실만 커지고 펌프 전력 소모가 급증해 효율이 거의 올라가지 않는 '정체 구간'에 도달한다. 문 연구원은 “현재 데이터센터의 대부분이 단상 액체 냉각을 쓰지만 AI 칩 발열량을 고려하면 한계가 빠르게 오고 있다”며 “2상 냉각 없이 열을 안정적으로 제거하려면 전체 시스템 비용이 폭증할 것”이라고 말했다. AI 칩 발열은 더 뜨거워진다… 2상 냉각은 '미래형'이 아닌 '필연' AI 반도체는 앞으로 더 높은 열설계전력(TDP)을 요구할 것이 확실시된다. GPU·HBM 통합 구조, 고대역 패키지, 미세공정 전환은 곧 더 높은 열밀도로 이어지는 것이다. 이에 칩 제조사와 서버 OEM, 데이터센터 사업자 등은 냉각 기술을 단순 선택지가 아닌 성능·전력·비용을 좌우하는 핵심 인프라로 보고 있다. 문 연구원은 “AI 서버의 발열은 앞으로 더 올라갈 수밖에 없다”며 “지금 속도라면 기존 냉각으로는 감당이 어렵다. 결국 2상 냉각이 데이터센터에서 표준으로 자리 잡게 될 것”이라고 밝혔다.

2025.11.28 17:09전화평 기자

삼성SDS "AI 시대 데이터 폭증…효율적 스토리지 전략이 기업 경쟁력 좌우"

인공지능(AI) 전환이 가속화되며 기업이 다루는 데이터의 양과 복잡성이 폭발적으로 증가하고 있다. 데이터 일관성과 무결성을 확보하는 동시에 장기 보관까지 고려한 스토리지 전략이 기업 경쟁력의 핵심 요소로 떠오른 가운데 삼성SDS가 효율적인 클라우드 스토리지 활용 방안을 제시했다. 삼성SDS는 13일 '기업의 데이터 신뢰성을 높이는 스토리지 구현 전략'을 주제로 '삼성SDS 클라우드 토크' 온라인 웨비나를 개최했다. 이번 세션에서는 삼성클라우드플랫폼(SCP) 스토리지를 기반으로 데이터 일관성 유지, 백업·복구 체계, 장기 보관 전략 등 기업 IT 환경의 핵심 과제가 집중적으로 다뤄졌다. 발표를 맡은 삼성SDS SCP사업팀 김현웅 프로는 현재 기업들이 직면한 데이터 환경 변화를 소개했다. AI, 빅데이터 분석 등 디지털 기술 확산으로 데이터가 폭발적으로 증가하고 있으며 전 세계 데이터의 90%가 최근 2년 사이 생성됐다는 추정 결과를 강조했다. 이에 복수 서버가 동시에 데이터를 처리하는 환경이 보편화되면서 데이터 일관성과 안정성 확보 중요성도 커지고 있다고 설명했다. 기업이 겪는 주요 고민 역시 이같은 변화와 연결된다. ▲고가용성 환경에서의 일관성 유지 ▲안정적인 데이터 복구 ▲폭증하는 데이터를 장기 보관할 수 있는 확장성 등이 기업 IT 인프라 구축에서 핵심 검토 요소로 떠오르고 있다. 삼성SDS는 이러한 수요에 대응하기 위해 SCP 기반 블록·파일·오브젝트·아카이브 스토리지로 구성된 포트폴리오를 제시했다. 블록 스토리지는 고성능·고가용성이 필요한 데이터베이스·메일 서버 등에 적합하고 파일 스토리지는 여러 서버가 네트워크를 통해 데이터를 손쉽게 공유하는 구조다. 오브젝트 스토리지는 인터넷 URL 기반 접근으로 확장성이 높으며 아카이브 스토리지는 오브젝트 데이터를 장기간 보관하기 위한 저비용 스토리지로 소개됐다. 김 프로는 "AI 시대, 어떤 서버에 접속하더라도 동일하고 정확한 데이터가 유지돼야 한다"며 "고가용성 환경에서 여러 서버가 하나의 스토리지를 공유해 데이터의 무결성을 유지하려면 각 스토리지 종류에 맞는 연결 방식을 갖춰야 한다"고 말했다. 실제 SCP 콘솔을 활용한 파일 스토리지 실습도 이뤄졌다. 서버 운영체제(OS)에 맞춘 프로토콜(NFS/CIFS) 선택, 파일 스토리지 생성 및 연결 방식, 오토스케일링 전환 시 콘텐츠를 오브젝트 스토리지로 이전하는 절차 등이 시연됐다. 오브젝트 스토리지는 아마존웹서비스(AWS)의 S3 스토리지와도 호환돼 CLI 명령어 기반 데이터 이관도 지원한다. 데이터 보호와 복구 전략도 중요한 주제로 다뤄졌다. SCP 파일 스토리지는 특정 시점의 데이터를 그대로 저장하는 스냅샷 기능을 제공하며 오브젝트 스토리지는 변경 이력을 축적하는 버전 관리 기능을 제공한다. 이를 통해 실수로 데이터가 삭제되거나 덮어 쓰인 경우에도 원하는 시점으로 복구할 수 있다. 필요시 저비용 구조의 아카이브 스토리지로 데이터를 이관해 보존 기간을 늘릴 수도 있다. SCP의 아카이브 스토리지는 자동 확장·축소되는 용량 구조, 오브젝트 대비 낮은 비용, 3시간 이내 검색·복구 기능 등을 지원한다. 김 프로는 "아카이브 스토리지는 법적·제도적 요건에 따라 수년 이상 데이터를 보관해야 하는 제조·금융·의료 등 산업군에서 활용성이 크다"며 "다른 클라우드 사업자들의 스토리지 서비스와 비교해 비용 구조가 효율적이고 가격 측면에서도 경쟁력이 높다"고 설명했다. 삼성SDS는 대규모 이차전지 제조사 A사의 아카이브 스토리지 적용 사례도 소개했다. 이차전지 생산 과정에서 생성되는 이미지 데이터를 15년 이상 보관해야 하는 법적 규제에 맞춰 SCP의 아카이브 스토리지를 도입함으로써 데이터 관리 비용과 운영 복잡성 문제를 개선했다. 국내외 사업장의 데이터를 삼성SDS 수원 데이터센터의 아카이브 스토리지로 통합했고 유지보수 기간 제한 문제도 해결했다. 특히 유럽 사업장 이미지 데이터 이관 기간을 기존 대비 약 6개월 이상 단축하는 효과를 얻었다. 김 프로는 "데이터 폭증 시대에는 일관성과 무결성을 보장하는 고가용성 스토리지 구성, 안정적인 백업·복구, 비용 효율적인 장기 보관 구조 확보가 필수"라며 "SCP 스토리지는 이러한 요건을 충족하는 플랫폼으로 기업의 데이터 경쟁력을 높일 수 있다"고 강조했다.

2025.11.13 15:36한정호 기자

AI 추론 수요에 메모리 슈퍼사이클 기대감↑

"당사는 삼성전자와 SK하이닉스의 범용 D램 가격이 4분기 각각 22%, 20% 상승할 것으로 예상하고 있습니다." 미국 증권가 골드만삭스가 최근 밝힌 국내 메모리 양사의 4분기 실적 전망이다. 골드만삭스 내부 추정치를 뛰어넘는다는 예상이다. 지난 2018년을 넘어설 메모리 슈퍼사이클이 도래할 것이란 기대감이 커지는 이유다. 11일 반도체 및 증권가에 따르면 올 4분기 메모리 가격이 급등할 것으로 전망된다. 특히 고무적인 부분은 서버뿐 아니라 모바일, PC 등 모든 분야에서 메모리 가격 상승이 기대된다는 점이다. 메모리는 한동안 AI 인프라 확장으로 서버향 제품 판매량은 늘어난 반면, 모바일과 PC에 대한 수요는 감소했었다. 골드만삭스는 보고서를 통해 “서버 고객들이 2027년 물량까지 선계약을 추진하고 있으며, 이로 인해 PC·모바일용 메모리 공급이 제한되고 있다”며 “삼성전자와 SK하이닉스의 가격 협상력이 강화되고 있다”고 전했다. 트렌드포스도 이달 초 4분기 PC용 D램 가격 전망을 전 분기 대비 25~30% 상승할 것으로 내다봤다. 서버용 D램에 생산이 집중되면서 PC와 모바일용 공급이 빠듯해졌고, 전 제품군 가격이 상승세로 확산된다는 분석이다. 업계에서는 이번 메모리 호황의 핵심 원인을 AI 추론 수요 폭발로 보고 있다. AI 추론은 학습이 끝난 인공지능 모델이 실제 데이터를 입력받아 추론을 수행하는 단계로, 막대한 양의 메모리 대역폭과 실시간 데이터 접근 속도가 필요하다. 특히 생성형 AI 서비스 확산으로 클라우드 데이터센터의 추론 서버 수요가 폭발적으로 증가하면서, GPU뿐 아니라 메모리 전반의 사용량이 급격히 늘고 있다. 이로 인해 AI 인프라 확충이 곧 메모리 수요 급증으로 이어지는 구조가 형성된 것이다. 낸드플래시 컨트롤러를 개발하는 대만 파이슨 푸아 케인센 CEO는 최근 인터뷰에서 “이런 사이클은 평생 한 번 볼까 말까 하다”며 “AI 인퍼런스 수요가 메모리 시장을 근본적으로 바꾸고 있다”고 말했다. 국내 업계도 시장 상황을 유사하게 보고 있다. SK하이닉스는 최근 실적 발표에서 “AI 수요가 예상을 뛰어넘고 있으며, 슈퍼사이클이 장기화될 것”이라고 전망했다. 한편 시장조사업체 욜(Yole)은 올해 메모리 시장 규모가 1천700억달러(248조9천140억원)로 사상 최대치, 내년에는 2천억달러(292조8천800억원)에 이를 것으로 전망했다. 재고 역시 3.3주 수준으로 2018년 슈퍼사이클 저점과 유사하다.

2025.11.11 16:18전화평 기자

수세, AI 내장형 리눅스 시대 개막…SLES 16 출시

수세(SUSE)가 인공지능(AI)을 운영체제(OS) 내부에 내장한 차세대 리눅스 배포판을 선보인다. 수세는 '수세 리눅스 엔터프라이즈 서버 16(SLES 16)'을 공식 출시했다고 4일 밝혔다. 이번 버전은 AI 기반 자동 관리와 예측형 운영 기능을 제공하며, 업계 최장 수준인 16년의 지원 주기를 보장한다. 수세는 이번 신제품을 통해 리눅스 운영체제(OS) 수준에서 AI를 직접 실행·활용할 수 있는 '에이전틱 AI(Agentic AI)' 개념을 처음 도입했다. SLES 16은 '모델 컨텍스트 프로토콜(MCP)' 표준을 구현해 특정 AI 공급업체에 종속되지 않는 개방형 구조를 제공한다. 이를 통해 기업은 원하는 대형언어모델(LLM)을 자유롭게 연동하고, 로컬 환경에서 AI 기반 자율 운영을 구현할 수 있다. SLES 16은 자동화된 운영 관리와 복원 기능을 대폭 강화했다. 시스템 업그레이드, 소프트웨어 패치, 구성 변경 등을 즉시 되돌릴 수 있는 '즉각 롤백 기능'이 기본 제공되며, 클라우드 이미지에서도 기본 활성화된다. 또한 재현 가능한 빌드 기반으로 설계돼, 고객이 소스 검증이나 재구축을 직접 수행할 수 있다. 이는 소프트웨어 자재 명세서(SBOM)와 최고 수준의 보안 인증(EAL4+)을 충족하는 투명한 개발 프로세스를 기반으로 한다. 이번 버전은 기존 리눅스 배포판 간 기술 격차를 최소화하는 구성요소를 포함해, 다른 환경에서 전환 시의 기술 장벽을 낮췄다. 또한 예측 가능한 업데이트와 단순한 유지관리 체계를 제공해, 장기적 안정성과 비용 절감 효과를 동시에 달성할 수 있도록 설계됐다. 수세는 SLES 16 출시와 함께 AI 기능을 통합한 전체 제품군을 2025년 11월 4일부터 고객과 파트너에게 순차적으로 제공한다. 수세 릭 스펜서비즈니스 크리티컬 리눅스 부문 총괄은 "모든 CIO와 CTO는 인프라 효율 극대화를 위해 AI를 활용해야 하지만, 단일 생태계에 묶이는 리스크를 감수해선 안 된다"고 말했다. 이어 "SLES 16은 새로운 팀 구성이나 별도 도구 체계 없이도 운영 효율을 향상시킬 수 있는 개방형 AI 인프라를 제공한다"며 "보안·규정 준수·자동화 역량에 16년 라이프사이클을 더해 혁신성과 안정성을 동시에 갖춘 최초의 엔터프라이즈 리눅스"라고 강조했다.

2025.11.04 18:21남혁우 기자

코오롱베니트, 델·리벨리온과 건설 현장 안전 'AI 어플라이언스' 출시

코오롱베니트가 델 테크놀로지스, 리벨리온과 협력해 건설 현장을 위한 올인원 어플라이언스를 출시한다. 코오롱베니트는 자체 개발한 안전 관제 시스템 '인공지능(AI) 비전 인텔리전스'를 상용화하며 델·리벨리온의 고성능 솔루션을 결합해 프리패키지 형태로 출시한다고 30일 밝혔다. 이는 지난해 코오롱글로벌 건설 현장에서 진행한 실증 검증을 마친 데 이어, 본격적인 시장 공급으로 이어진 성과다. 새롭게 출시된 AI 비전 인텔리전스 올인원 어플라이언스는 코오롱베니트가 자체 개발한 AI 모델과 리벨리온의 신경망처리장치(NPU), 델의 파워엣지 R760xa 서버를 결합한 AI 프리패키지 제품이다. 델 파워엣지 R760xa 서버는 고수준의 성능과 자동화 기능을 갖춘 플랫폼으로 안정성과 확장성을 보장한다. 리벨리온의 AI 반도체는 그래픽처리장치(GPU) 대비 우수한 에너지 효율성과 연산 속도를 제공해 CCTV 기반 추론 성능을 강화한다. 여기에 코오롱베니트의 AI 모델이 결합돼 안전모 미착용, 위험구역 진입, 중장비 접근 등 건설 현장의 다양한 위험 상황을 실시간으로 탐지하고 이를 정교한 언어 알림으로 변환해 사고 예방 효과를 극대화한다. AI 비전 인텔리전스는 이번 상용화에 앞서 코오롱베니트·코오롱글로벌·리벨리온·위시 등 4사가 참여한 컨소시엄을 통해 개념 검증 과정을 거쳤다. 코오롱베니트는 방대한 건설 현장 CCTV 영상과 운영 데이터를 정제·분석해 실제 환경에 특화된 멀티모달 AI 모델을 완성했다. 코오롱글로벌은 현장의 실제 운영 데이터를 제공하고 기능 요구사항을 구체화했으며 리벨리온은 자체 AI 반도체 NPU '아톰'을 기반으로 한 고성능 관제 서버를 구성했다. 위시는 시각 정보와 언어 정보를 동시에 출력하는 관제 솔루션을 제공해 현장에서 발생하는 위험 요소를 더욱 정밀하게 포착할 수 있도록 했다. 이 과정을 통해 모델은 위험 상황 탐지 정확도를 크게 높였고 PoC 단계에서 현장 실효성을 입증했다는 설명이다. 코오롱베니트는 이번에 선보인 어플라이언스를 건설 산업을 넘어 제조·물류 등의 다양한 분야로 적용 영역을 확대해 나갈 계획이다. 강이구 코오롱베니트 대표는 "글로벌 기업과 국내 선도 기업과의 협력을 통해 고객이 신속하게 AI 혁신을 체감할 수 있는 프리패키지 서비스를 선보이게 됐다"며 "앞으로도 AI를 기반으로 사업 성과를 가속화하며 고객의 비즈니스 혁신을 지원하는 AI 전환 조력자로 성장해 나갈 것"이라고 말했다.

2025.10.30 17:33한정호 기자

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호 기자

세종 부용산에 숨 쉬는 네이버의 AI 심장, '각 세종' 가보니

세종시 부용산 자락에 자리한 네이버의 두 번째 데이터센터 '각 세종'. 겉으로는 조용하지만 내부는 쉼 없이 움직이는 거대한 기술 생태계다. 인공지능(AI) 시대 핵심 인프라로 불리는 이곳을 직접 찾아가 봤다. 네이버클라우드는 지난 27일 각 세종 데이터센터에서 테크밋업을 개최하고 AI 인프라 운영 기술과 친환경 설계 시스템을 공개했다. 이날 현장에서는 AI 서비스의 핵심인 그래픽처리장치(GPU) 서버, 냉각 기술, 전력 구조, 자율주행 로봇 시스템까지 살펴볼 수 있었다. 첫 방문지는 서버 IT 창고였다. 자산 관리 구역임에도 인력의 움직임은 거의 없었다. 대신 '가로'와 '세로'로 불리는 로봇이 서버를 실어 나르며 작동 중이었다. 이 로봇들은 자산 입출고를 자동화해 사람의 개입 없이 서버를 적재하고 회수하는 역할을 한다. 매년 5천 대 이상의 서버를 교체할 수 있는 효율성을 갖췄다. 로봇은 카메라와 센서를 기반으로 서버 위치를 스스로 인식하고 높이 3m 랙에도 정확히 접근한다. 자율주행 로봇 가로는 최대 400㎏의 장비를 운반할 수 있으며 내부 동선은 네이버클라우드의 통합 로봇 관제 플랫폼 '아크' 시스템으로 관리된다. 이어진 공간은 냉각 기술의 핵심인 '나무'였다. 이는 네이버가 자체 개발한 외기 냉각 시스템으로, 자연 바람을 활용해 서버의 열을 식히는 구조다. 네이버 김예원 도슨트는 "각 세종에 적용된 나무 3세대는 계절과 기후에 따라 외기 모드를 자동 전환하는 하이브리드 시스템"이라며 "일반 냉동 방식 대비 최대 73%의 전력 효율을 달성했다"고 설명했다. 서버실에서 발생하는 열은 폐열 회수 시스템을 통해 재활용된다. 바닥 난방과 겨울철 도로 제설용 스노우멜팅 시스템에 쓰이며 센터의 에너지 순환 구조를 완성한다. 이러한 각 세종의 전력효율지수(PUE)는 1.1 수준으로, 글로벌 하이퍼스케일 센터 중에서도 최상위 등급이다. GPU 서버실에 들어서면 공기의 흐름이 달라진다. 고전력 서버에서 발생한 열은 천장을 통해 배출되고 바닥과 벽면을 따라 차가운 공기가 순환한다. 각 세종은 정전이나 장애에 대비해 전력 인입선로를 이중화했으며 무정전전원장치(UPS)와 비상 발전기를 통해 72시간 이상 자가 전력을 유지할 수 있다. 운영 효율을 높이기 위해 각 세종은 로봇 기반 자산 관리와 자율주행 셔틀 '알트비' 시스템도 도입했다. 축구장 41개 크기의 부지를 이동하며 인력과 장비를 운반하는 이 셔틀은 네이버랩스의 자율주행 기술과 네이버클라우드의 관제 시스템이 결합된 결과물이다. 센터의 중앙 제어실은 각종 수치를 실시간으로 모니터링하는 관제의 두뇌 역할을 맡고 있었다. 온습도, 전력 사용량, GPU 랙당 전력 밀도, 네트워크 트래픽이 실시간으로 표시되고 외부 사고나 트래픽 급증 상황에 즉각 대응할 수 있도록 구성됐다. 김 도슨트는 "각 세종은 국내 데이터센터 중 유일하게 네트워크망·전력·데이터 모두를 이중화한 구조"라며 "정전이나 장애가 발생해도 즉시 복구 가능한 구조로 설계됐다"고 말했다. 센터 외부의 친환경 설계도 눈에 띄었다. 옥상에는 태양광 발전 설비가, 지하에는 지열 냉난방 시스템이 적용돼 있으며 서버실에서 발생한 폐열은 다시 에너지로 순환된다. 네이버에 따르면 이 구조를 통해 연간 이산화탄소 배출량을 약 1만5천 톤 줄일 수 있고 이는 나무 225만 그루를 심는 효과와 맞먹는다. 또 각 세종은 세계적 친환경 건축 인증인 리드 플래티넘 등급을 획득했다. 세종 부용산의 단단한 화강암 지반 위에 세워진 이 건물은 규모 7의 지진에도 견디는 내진 특등급으로 설계됐다. 각 세종은 향후 증축을 통해 270메가와트(MW) 전력 수용 규모로 확장될 예정이다. 완공 시에는 세종시 전체 인구의 전력 소비량에 맞먹는 AI 인프라가 된다. 네이버클라우드 노상민 센터장은 "각 세종은 단순히 데이터를 보관하는 공간이 아니라 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼"이라며 "지속가능성과 효율, 복원력을 모두 갖춘 하이퍼스케일 인프라로 설계됐다"고 강조했다.

2025.10.28 09:03한정호 기자

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호 기자

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

HBM4 출하 경쟁 '후끈'...엔비디아 수급 전략이 공급망 핵심 변수

"또 실패는 없다"…구글이 AI 글래스 ‘킬러앱에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

저평가주 외인 매수세에...SK텔레콤 주가 고공행진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.