• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서버'통합검색 결과 입니다. (70건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

슈퍼마이크로 공동창업자, 엔비디아 AI칩 중국 밀반출 혐의로 퇴진

엔비디아 인공지능(AI) 칩을 중국으로 불법 반출한 혐의로 기소된 슈퍼마이크로 공동 창업자가 이사회에서 물러났다. 수십억 달러 규모의 밀반출 정황이 드러나면서 글로벌 반도체 공급망과 미·중 기술 갈등에 미치는 파장이 확산되는 모습이다. 23일 CNBC 등 주요 외신에 따르면 왈리 라우 슈퍼마이크로 공동 창업자는 미국 검찰의 기소 이후 이사회에서 사임했다. 그는 사업개발 수석 부사장과 이사직을 맡고 있었으나 사건이 불거진 직후 자리에서 물러났다. 라우는 엔비디아 AI 칩이 탑재된 서버를 중국으로 밀반출한 혐의로 뉴욕 남부지방검찰청에 의해 기소됐다. 검찰은 라우를 포함한 임직원 3명에게 미국 수출통제법을 위반해 고성능 그래픽처리장치(GPU) 서버를 중국으로 우회 반출한 혐의를 적용했다. 라우는 해당 혐의와 관련해 법원에 출석한 뒤 조건부로 석방된 상태에서 재판 절차를 밟고 있는 것으로 알려졌다. 조사에 따르면 이들은 동남아시아 소재 회사를 중간 거래자로 활용해 허위 서류를 작성하고 물류를 재포장하는 방식으로 최종 목적지가 중국임을 숨겼다. 또 내부 컴플라이언스 검증을 회피하기 위해 가짜 서버를 준비해 감사를 통과시키는 등 조직적으로 규제를 회피한 정황도 드러났다. 해당 사건은 규모 면에서도 이례적으로 평가된다. 검찰은 2024년 이후 약 25억 달러(약 3조 7500억원) 규모의 서버 거래가 이뤄졌으며 이 가운데 최소 5억 달러(약 7500억원) 이상의 물량이 실제로 중국에 흘러 들어간 것으로 보고 있다. 중국계 미국인인 라우는 슈퍼마이크로의 공동 창업자로, 찰스 리앙 최고경영자(CEO)와 함께 회사를 설립한 핵심 인물이다. 창업 초기에는 영업을 담당하며 회사 성장에 기여했으며 이후 글로벌 영업 총괄과 이사회 구성원으로 활동해왔다. 과거에도 그는 회계 문제로 논란에 휘말린 바 있다. 슈퍼마이크로는 2015년부터 2017년까지 매출을 부풀린 혐의로 미국 증권 당국인 증권거래위원회(SEC)의 조사를 받았으며 이 여파로 라우는 당시 회계 책임자와 함께 사임했다. 이후 회사는 약 1750만 달러(약 263억원)의 합의금을 지급하고 상장 거래를 재개한 바 있다. 이번 사건으로 회사는 즉각적인 조치에 나섰다. 슈퍼마이크로는 라우를 포함한 관련 인물들을 직무에서 배제하고 일부는 해임했으며 인텔 출신의 디아나 루나를 컴플라이언스 책임자로 임명하는 등 내부 통제 강화에 나섰다. 이번 사태는 엔비디아와 긴밀한 협력 관계를 유지해온 슈퍼마이크로에 적지 않은 타격을 줄 것으로 전망된다. 슈퍼마이크로는 엔비디아 AI 칩의 주요 고객 중 하나로, 전체 매출의 상당 부분을 AI 서버 사업에서 창출해왔다. 시장 반응도 즉각 나타났다. 기소 사실이 공개된 이후 슈퍼마이크로 주가는 하루 만에 30% 이상 급락했다. 업계에선 이번 사건이 단순한 기업 내부 문제를 넘어 미·중 기술 패권 경쟁 속에서 반도체 수출 통제의 실효성을 둘러싼 시험대가 될 것으로 보고 있다. 특히 엔비디아 최신 AI 칩이 포함된 장비가 우회 경로를 통해 중국으로 유입됐다는 점에서 규제 당국의 추가 조사 가능성도 제기된다. 슈퍼마이크로 측은 "공소장에 적시된 피고인들의 행위는 회사 정책과 수출 규정을 위반한 개인적 일탈"이라며 "정부 수사에 전적으로 협조하고 있다"고 밝혔다.

2026.03.23 09:47한정호 기자

첨단 엔비디아 칩, 중국으로 샜다…슈퍼마이크로 간부 3명 기소

미국 인공지능(AI) 서버 기업 슈퍼마이크로의 간부들이 엔비디아 AI 칩을 중국으로 밀반출한 혐의로 기소됐다. 수십억 달러 규모의 불법 수출 정황이 드러나며 글로벌 반도체·공급망 업계 전반에 파장이 확산되는 모습이다. 19일(현지시간) CNBC에 따르면 미국 뉴욕 남부지방검찰청은 엔비디아 AI 칩이 탑재된 서버를 중국으로 불법 반출한 혐의로 슈퍼마이크로컴퓨터 관계자 3명을 기소했다. 기소된 인물은 공동 창업자인 왈리 라우를 포함해 영업 관리자와 외부 계약자 등으로, 이들은 미국 수출통제법을 위반해 엔비디아 그래픽처리장치(GPU)가 포함된 서버를 중국으로 우회 반출한 혐의를 받고 있다. 미국 검찰에 따르면 이들은 동남아시아 소재 회사를 중간 거래자로 내세워 허위 서류를 작성하고 물류 과정을 조작하는 방식으로 실제 최종 목적지가 중국임을 숨겼다. 또 가짜 서버를 준비해 내부 컴플라이언스 검증을 통과시키는 등 조직적으로 규제를 회피한 것으로 조사됐다. 이 과정에서 2024년 이후 약 25억 달러(약 3조 7245억원) 규모의 서버 판매가 이뤄졌으며 일부 물량은 엔비디아 최신 AI 칩이 탑재된 제품으로 파악됐다. 미국 정부는 중국 AI 기업들의 성장 속에서 첨단 반도체 유출을 국가안보 문제로 보고 강력히 규제하고 있다. 엔비디아 칩 역시 중국 수출 시 별도 허가가 필요한 핵심 품목으로 분류된다. 이번 사건은 엔비디아와 슈퍼마이크로 간 긴밀한 협력 관계에도 영향을 미칠 가능성이 제기된다. 양사는 AI 서버 시장에서 밀접한 공급망을 구축해왔다. 같은 대만계 미국인으로서 젠슨 황 엔비디아 최고경영자(CEO)와 찰스 리앙 슈퍼마이크로 CEO 간 개인적 친분도 두터운 것으로 알려졌다. 사건 여파는 즉각 주가에도 반영됐다. 슈퍼마이크로 주가는 해당 사실이 공개된 직후 시간외 거래에서 약 12% 급락했으며 일부 거래에서는 12.48% 하락한 26.95달러를 기록했다. CNBC는 미·중 기술 패권 경쟁이 심화되고 있어 이번 AI 칩 불법 유출 문제가 더욱 엄격히 다뤄질 것이라고 보도했다. 슈퍼마이크로 측은 "해당 직원들을 직무에서 배제하고 계약을 해지했다"며 "회사 정책과 수출 규정을 위반한 개인적 일탈"이라고 선을 그었다.

2026.03.20 09:52한정호 기자

글로벌 서버 시장, 엔비디아 '베라 루빈' 중심 재편…통합 인프라에 방점

엔비디아의 차세대 인공지능(AI) 슈퍼컴퓨팅 아키텍처 '베라 루빈'이 공개되면서 글로벌 서버·인프라 시장이 빠르게 재편되고 있다. 델 테크놀로지스, 슈퍼마이크로, HPE 등 주요 기업들이 일제히 해당 플랫폼을 중심으로 제품과 전략을 내놓으며 AI 인프라 경쟁이 차세대 아키텍처 선점 국면으로 본격 진입하는 양상이다. 19일 엔비디아는 미국 새너제이에서 열린 'GTC 2026'에서 차세대 AI 컴퓨팅 플랫폼 베라 루빈을 중심으로 한 인프라 전략을 공개하고 주요 파트너사들과의 협력 확대를 발표했다. 가장 공격적으로 움직인 곳은 델 테크놀로지스다. 델은 '엔비디아 기반 델 AI 팩토리'를 전면 고도화하며 베라 루빈 기반 서버를 핵심 축으로 내세웠다. 대표적으로 '파워엣지 XE9812'는 베라 루빈 NVL72 플랫폼을 기반으로 설계된 수랭식 서버로, 대규모 AI 학습과 추론을 동시에 지원하는 차세대 주력 제품으로 꼽힌다. 델은 단순 서버 공급을 넘어 데이터 플랫폼, 네트워크, 서비스까지 통합한 엔드투엔드 구조를 통해 AI를 파일럿에서 실제 운영 단계로 확장하는 데 초점을 맞췄다. 델 AI 팩토리는 전 세계 4000여 기업에서 활용되며 최대 2.6배 수준의 투자수익률(ROI)을 기록한 것으로 나타났다. 마이클 델 델 테크놀로지스 회장은 "이제 기업들은 AI 도입 여부가 아니라 데이터를 어떻게 AI에 적합하게 만들고 이를 운영 환경에서 어떻게 확장하며 ROI를 어떻게 입증할지를 고민하고 있다"며 "엔비디아 기반 델 AI 팩토리는 이러한 과제에 대한 검증된 해답을 제공한다"고 강조했다. 슈퍼마이크로는 인프라 구조 측면에서 베라 루빈 활용을 전면에 내세웠다. 회사는 데이터센터 빌딩 블록 솔루션(DCBBS)에 베라 루빈 NVL72와 HGX 루빈 NVL8, 베라 CPU를 통합한 차세대 플랫폼을 공개했다. 이 플랫폼은 단일 랙 기준 최대 3.6엑사플롭스의 추론 성능과 75테라바이트 메모리, 초당 1.6페타바이트에 달하는 대역폭을 제공하는 것이 특징이다. 기존 대비 와트당 성능을 최대 10배까지 끌어올리고 토큰 처리 비용은 10분의 1 수준으로 낮추는 것이 목표다. 슈퍼마이크로는 수냉식 기반 랙 스케일 설계를 통해 전력·냉각·네트워크를 통합한 'AI 팩토리형 데이터센터'를 구현하는 데 집중하고 있다. 이는 대규모 추론과 장문 컨텍스트 처리, 에이전틱 AI 워크로드 증가에 대응하기 위한 전략이다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이제 모든 조직이 AI 팩토리를 필요로 하는 시대에 들어섰다"며 "추론 중심 워크로드가 데이터센터 설계 기준 자체를 바꾸고 있다"고 말했다. HPE는 운영 가능한 AI에 방점을 찍었다. 베라 루빈 기반 시스템을 포함한 'HPE 기반 엔비디아 AI 컴퓨팅' 포트폴리오를 확대하며 보안과 확장성을 동시에 확보한 프로덕션 환경 구축에 나서고 있다. 특히 'HPE 프라이빗 클라우드 AI'를 중심으로 최대 128개 그래픽처리장치(GPU)까지 확장 가능한 환경과 에어갭 구조를 제공해 금융·공공 등 규제 산업에서도 활용 가능한 AI 인프라를 구현했다. 또 엔비디아 인증 스토리지를 기반으로 데이터 파이프라인 병목 문제 해결에도 나섰다. 안토니오 네리 HPE CEO는 "AI 경쟁의 핵심은 속도와 규모, 신뢰"라며 "엔비디아와 함께 턴키 방식 AI 인프라를 제공해 기업이 AI를 실제 비즈니스 가치로 전환할 수 있도록 지원하고 있다"고 밝혔다. 이번 GTC 2026의 핵심은 베라 루빈을 중심으로 한 AI 인프라 재편이다. 기존 GPU 중심 경쟁을 넘어 CPU·네트워크·스토리지·소프트웨어까지 통합된 AI 팩토리 구조가 새로운 표준으로 자리 잡고 있다는 평가가 나온다. 델은 엔드투엔드 플랫폼으로, 슈퍼마이크로는 고집적 인프라 설계로, HPE는 운영·보안 중심 전략으로 각각 차별화를 꾀하고 있다. AI 경쟁이 모델 성능에서 인프라 효율과 운영 역량으로 이동하는 가운데, 베라 루빈이 블랙웰의 뒤를 이어 향후 글로벌 AI 데이터센터 차세대 표준으로 자리 잡을 전망이다. 젠슨 황 엔비디아 CEO는 "모든 기업과 국가가 AI를 구축하는 시대에 접어들었다"며 "우리는 통합 데이터 플랫폼과 확장 가능한 인프라, 구축 전문성을 결합할 것"이라고 밝혔다.

2026.03.19 17:20한정호 기자

델, 엔비디아와 AI 동맹 확장…"파일럿 넘어 운영으로"

델 테크놀로지스가 엔비디아와 협력해 인공지능(AI) 도입 성과를 높이기 위한 통합 플랫폼을 고도화하며 엔터프라이즈 AI 시장 공략에 속도를 낸다. 데이터·인프라·솔루션을 아우르는 통합 접근으로 AI 투자 대비 성과(ROI)를 높인다는 목표다. 델 테크놀로지스는 '엔비디아 기반 델 AI 팩토리' 출시 2주년을 맞아 AI 데이터 플랫폼과 인프라, 솔루션 및 서비스 전반에 걸친 업데이트를 발표했다고 17일 밝혔다. 델 AI 팩토리는 기업이 AI를 파일럿 단계에서 실제 운영 환경으로 확장할 수 있도록 지원하는 엔드투엔드 플랫폼이다. 현재 전 세계 4000개 이상의 기업과 기관이 도입했으며 초기 도입 고객은 최대 2.6배의 투자수익률을 기록한 것으로 나타났다. 델은 엔터프라이즈 AI 도입의 핵심 요건으로 ▲데이터를 AI 활용에 적합한 형태로 전환하는 데이터 플랫폼 ▲파일럿에서 운영까지 확장 가능한 인프라 ▲구축 복잡성을 줄이고 ROI 달성을 가속하는 솔루션 및 서비스를 제시했다. 이를 바탕으로 AI 도입에서 실제 비즈니스 성과 창출까지 이어지는 검증된 경로를 제공한다는 설명이다. 이번 업데이트에는 AI 워크로드를 지원하는 서버와 네트워크 등 인프라 제품군도 포함됐다. 델 파워엣지 XE9812, XE9880L 시리즈 등 차세대 서버는 엔비디아 최신 플랫폼을 기반으로 대규모 학습과 추론을 지원하며 데이터센터 환경에서도 AI 가속 기능을 강화했다. 또 고성능 네트워크와 액체 냉각 기술을 결합한 인프라를 통해 AI 워크로드 처리 효율을 높이고 엔비디아 '쿠다-Q' 및 'NVQ링크' 통합을 통해 양자·고전 하이브리드 컴퓨팅 연구도 지원한다. 델은 AI 솔루션과 서비스 영역에서도 기능을 강화했다. 모듈형 아키텍처 기반 플랫폼과 자동화 기능을 통해 기업이 초기 도입 단계에서 시작해 점진적으로 확장할 수 있도록 지원하며 에이전틱 AI 기반 서비스와 워크로드 관리 솔루션을 통해 운영 효율을 높인다는 방침이다. 이를 통해 기업은 데이터 준비부터 모델 개발, 운영, 성과 창출까지 AI 전 과정을 통합적으로 관리할 수 있게 된다. 델은 향후에도 엔비디아와 협력을 강화해 엔터프라이즈 AI 도입 장벽을 낮추고 실제 비즈니스 성과로 이어지는 환경을 구축해 나갈 계획이다. 델은 주요 AI 인프라 제품의 출시 일정도 공개했다. 델 파워엣지 XE9812는 올해 하반기, XE9880L·XE9885L은 3분기 출시될 예정이다. RTX 프로 4500 블랙웰 GPU를 탑재한 R770·R7715·R7725는 현재 공급 중이다. 또 파워엣지 M9822·R9822는 오는 9월 파워스위치 SN6000 시리즈는 7월 출시를 앞두고 있다. 이와 함께 엔비디아 모듈러 아키텍처 기반 델 AI 팩토리는 다음 달 공개되며 인피니밴드 스위치 등 차세대 네트워크 장비도 연내 순차 도입될 예정이다. 마이클 델 델 테크놀로지스 회장은 "이제 기업들은 데이터를 AI에 적합한 형태로 만드는 방법, AI를 대규모로 운영하는 방법, ROI를 입증하는 방법을 찾고 있다"며 "엔비디아 기반 델 AI 팩토리는 이 세 가지 질문에 모든 해답을 제시한다"고 강조했다. 이어 "우리는 신뢰할 수 있는 조언자로서 고객의 AI 여정 전반에 참여하고 있으며 원시 데이터를 AI 자산으로 전환하는 단계부터 배포와 실제 비즈니스 성과 창출까지 지원하고 있다"고 덧붙였다. 젠슨 황 엔비디아 CEO는 "모든 기업과 국가에서 AI를 사용하고 구축하는 가운데 통합된 데이터 플랫폼, 확장 가능한 인프라, 구축 전문성이 필요하다"며 "델 테크놀로지스는 우리 기술을 핵심 기반 삼아 이 세 가지를 모두 제공하는 공급업체로, 엔비디아 기반 델 AI 팩토리는 AI를 실제 운영 환경에 도입하고 ROI를 달성하려는 조직에게 검증된 방안을 제시한다"고 말했다.

2026.03.17 16:54한정호 기자

델, AI 데이터센터 특수에 '어닝 서프라이즈'…시간외 10% 급등

델 테크놀로지스가 시장 기대를 웃도는 실적을 발표하며 주가가 급등했다. 인공지능(AI) 서버 수요 확대가 실적 개선을 이끈 덕분이다. 27일 블룸버그통신에 따르면 델 테크놀로지스는 회계연도 2025년 4분기(1월 종료) 매출이 333억8000만 달러로 전년 동기 대비 39.5% 증가했다고 밝혔다. 이는 시장 예상치(약 317억2000만 달러)를 상회하는 수준이다. 조정 주당순이익(EPS)은 3.89달러로, 애널리스트 평균 전망치(3.52달러)를 웃돌았다.이 기간 영업이익률은 9.3%로 전년 동기와 비슷한 수준을 유지했다. 서버·네트워킹 부문 영업이익률은 14.8%로 시장 예상치를 상회했다. 같은 기간 잉여현금흐름은 39억5000만 달러로, 전년 동기(-1억1700만 달러) 대비 크게 개선됐다.다음 분기(2026년 1분기) 매출 가이던스는 중간값 기준 352억 달러로 제시돼 시장 예상치(289억9000만 달러)를 20% 이상 크게 웃돌았다. 연간 실적 가이던스도 시장 기대를 넘어섰다. 델은 2027년 1월 종료 예정인 2026년 회계연도 전체 매출을 약 1400억 달러, 조정 EPS를 12.90달러로 제시했다. 이는 월가 컨센서스(매출 1263억 달러, EPS 11.56달러)를 상회하는 수치다. 특히 AI 서버 매출은 약 500억 달러에 달할 것으로 전망했다. 사업 부문별로는 인프라스트럭처 그룹 매출이 196억 달러로 73% 급증하며 전체 성장을 견인했다. 서버 및 네트워킹 부문의 영업이익률은 14.8%로 시장 예상치(12.9%)를 웃돌았다. 반면 PC 사업을 담당하는 클라이언트 솔루션 그룹 매출은 135억 달러로 14% 증가했으며 수익성은 기대에 다소 못 미쳤다. 델은 100억 달러 규모의 자사주 매입 확대 계획도 발표했다. 회사 측은 430억 달러에 달하는 사상 최대 수주 잔고를 바탕으로 AI 데이터센터 투자 확대의 수혜가 이어질 것으로 기대하고 있다. 이에 시장에서도 델 테크놀로지스에 대한 기대감을 높였다. 지난 26일 뉴욕 증시에서 델 주가는 121.45달러로 정규장을 마친 뒤 시간외 거래에서 약 10% 급등했다. 다만 최근 12개월 기준 주가 상승률은 약 5% 수준에 그쳐 이번 실적 발표가 본격적인 반등 계기가 될지 주목된다.제프 클라크 최고운영책임자(COO)는 "전례 없는 AI 수요가 지속적인 공급 제약과 가격 재조정을 낳고 있다"며 "AI 기회가 회사를 근본적으로 변화시키고 있다"고 말했다.

2026.02.27 11:10장유미 기자

델, 실외형 서버 '파워엣지 XR9700' 공개…클라우드랜·엣지 AI 정조준

델 테크놀로지스가 실외 환경에서도 클라우드랜과 엣지 인공지능(AI) 워크로드를 안정적으로 지원할 수 있는 서버 신제품을 선보이며 통신·엣지 인프라 확장에 나섰다. 델 테크놀로지스는 서버 신제품 '델 파워엣지 XR9700'을 공개했다고 26일 밝혔다. 이 제품은 클라우드랜과 엣지 AI 워크로드를 지원하는 폐쇄형 루프 액체 냉각 방식의 완전 밀폐형 러기드 x86 서버다. 델 파워엣지 XR9700은 전신주, 옥상, 건물 외벽 등 외부 환경에 직접 노출되는 옥외 공간에서도 별도의 보호 장비 없이 운용 가능하도록 설계됐다. 기존 데이터센터 인프라가 도달하기 어려운 도심 밀집 지역이나 원격지, 공간 제약이 큰 시설에서도 고성능 컴퓨팅 환경을 구현할 수 있도록 고안된 것이 특징이다. 통신 사업자와 엣지 환경 운영 조직은 전력과 공간 제약으로 인해 컴퓨팅 자원 배치에 어려움을 겪어왔다. XR9700은 IP66 등급의 초소형 인클로저를 적용해 외부 환경으로부터 시스템을 완전히 차단하면서도 필요한 지점에 직접 설치할 수 있도록 지원한다. 특히 유연한 소프트웨어(SW) 정의 아키텍처 기반으로 각 기지국 현장에서 클라우드랜과 오픈랜을 지원하며 데이터가 생성·소비되는 위치에서 엣지 및 AI 애플리케이션을 직접 실행할 수 있도록 설계됐다. 내환경성도 강화했다. 초소형 IP66 등급 인클로저와 GR-3108 클래스 4 인증을 통해 극한의 온도, 먼지, 습기에 노출되는 환경에서도 안정적인 성능을 제공한다는 설명이다. 폐쇄형 루프 액체 냉각과 정교한 열 관리 아키텍처도 적용해 영하 40도에서 영상 46도에 이르는 온도 범위와 직사광선 환경에서도 일관된 운영이 가능하다. 또 15리터의 컴팩트한 폼팩터로 설계돼 전신주, 옥상, 건물 외벽 등에 설치할 수 있고 랙 상면을 차지하지 않는 제로 풋프린트 구조로 기존 무선 장비 중심 공간에서도 통신 및 엣지 워크로드 구현을 돕는다. 성능 측면에서는 인텔 vRAN 부스트와 인텔 AMX 기술이 통합된 인텔 제온 6 SoC를 탑재해 단일 서버에서 최대 15개의 5G 섹터를 지원할 수 있는 처리 성능과 프런트홀 연결성을 제공한다. 클라우드랜에 최적화된 구조를 갖추는 동시에 네트워크 아키텍처와 서비스 요구사항에 따라 워크로드를 유연하게 구동할 수 있도록 했다. XR9700은 델의 엣지 특화 제품군인 '델 파워엣지 XR 시리즈'에 포함되며 기존 관리 툴·SW 스택과 통합된다. 통합 컨트롤러인 'iDRAC'을 통해 원격 가시성과 제어 기능을 제공하고 제로 터치 프로비저닝을 지원한다. 또 파워엣지 XR8720t에서 검증된 동일한 클라우드랜 SW와 호환돼 인증 절차를 간소화하고 통신 환경에서의 구축 속도를 높일 수 있다. 델 파워엣지 XR9700은 올 하반기 중 출시될 예정이다. 김경진 한국 델 테크놀로지스 총괄사장은 "극한의 야외 환경에서도 컴퓨팅 성능에 제약이 발생해서는 안된다"며 "델 파워엣지 XR9700은 기존에는 배치가 불가능했던 장소에까지 클라우드랜, 오픈랜, 엣지 AI 역량을 확장함으로써 네트워크 확장과 엣지 애플리케이션을 위한 새로운 가능성을 열어줄 것"이라고 밝혔다.

2026.02.26 11:19한정호 기자

신성이엔지, 통합 모듈형 'AIO'로 AI 데이터센터 시장 공략 가속화

신성이엔지는 냉각·서버 인프라를 하나로 통합한 모듈형 데이터센터 솔루션 'AIO(All In One)'를 자체 개발, 기술 고도화를 완료했다고 23일 밝혔다. AIO는 하부 냉각 시스템과 상부 서버 랙을 수직 일체화한 구조로, 기존 데이터센터처럼 서버실·기계실·공조 설비를 분리 구축할 필요 없이 데이터센터 핵심 기능을 구현한다. 고집적·고발열 환경에 최적화된 설계를 적용해 AI 데이터센터 수요 확대에 대응하는 전략적 플랫폼이다. 공장에서 사전 제작된 모듈을 현장에 설치하는 방식을 적용해 구축 기간을 단축하고, 품질 균일성과 안정성을 동시에 확보했다. 이는 AI·클라우드 사업자들이 요구하는 '신속한 인프라 확장' 니즈와 정확히 맞닿아 있다. 특히 AIO는 공랭 기반 구성과 액체 냉각(DLC) 연계 구성을 모두 지원하는 확장형 플랫폼으로 설계됐다. 초기에는 공랭 기반으로 구축하고, 고성능 GPU 서버 확대로 발열 밀도가 높아지면 액체 냉각 기반으로 전환하는 전략적 운용이 가능하다. 단일 설비가 아닌 '진화 가능한 인프라 플랫폼'이라는 점에서 차별화된다. 구체적 세부 사양은 공개하지 않았으나, AIO는 고집적 서버 환경을 고려한 고풍량·고정압 설계와 다중 안전 설계, 안정적 전원 구조를 갖췄다. 냉각 코일, 팬·모터, 배수 및 필터 시스템, 접근 플로어와 배관 구조까지 하나의 체계로 통합 설계해 공랭식·DLC용 배관을 최소화했으며, 이를 통해 공사 비용과 에너지 손실을 동시에 줄였다. 신성이엔지가 이 같은 통합 구조를 구현할 수 있었던 배경에는 반도체 클린룸 분야에서 축적한 정밀 환경제어 기술이 있다. 50여 년간 초고청정·초정밀 온습도 제어 환경을 구현해온 기술력이 데이터센터 냉각 설계에 그대로 반영됐다. 공기 흐름 제어, 열 부하 대응, 안정적 환경 유지 기술은 AI 데이터센터의 고발열 문제 해결에 직접 연결된다. 최근 AI 연산 수요가 급증하면서 데이터센터의 전력밀도는 과거 대비 크게 상승했다. 기존 범용 공조 방식만으로는 대응이 어려운 구간이 늘어나고 있으며, 공랭과 액체 냉각을 병행하는 하이브리드 전략이 대안으로 부상하고 있다. AIO는 모듈 단위 증설이 가능해 단계적 투자가 용이하며, 실내·실외 겸용 구조로 설계돼 설치 환경 제약도 최소화했다. 신성이엔지는 AIO를 데이터센터 신사업의 핵심 축으로 삼고 실증 프로젝트 확대와 레퍼런스 확보에 집중한다는 계획이다. 김태형 신성이엔지 기술실장은 “AIO는 단순한 냉각 장비가 아니라 냉각·운영 모니터링을 통합한 데이터센터 인프라 플랫폼”이라며 “AI 및 고성능 컴퓨팅(HPC) 환경에서도 안정성과 에너지 효율을 동시에 확보할 수 있도록 고도화했다”고 설명했다. 이어 “ '더 나은 미래, 지속 가능한 환경' 이라는 슬로건 아래 안정성과 경제성, 환경성을 모두 갖춘 차세대 데이터센터 모델을 제시하겠다”고 강조했다.

2026.02.23 09:17장경윤 기자

마이크론, AI 수요 겨냥한 서버용 PCIe 6.0 SSD 양산

미국 메모리 반도체 업체인 마이크론이 서버·데이터센터용 PCI 익스프레스 6.0 SSD 양산에 돌입했다. AI 확산으로 초고속 데이터 처리 수요가 급증하는 가운데 차세대 인터페이스 기반 스토리지 시장 선점 경쟁이 본격화하는 양상이다. 마이크론이 공개한 9650 SSD는 PCI 익스프레스 6.0 규격을 적용한 서버용 SSD 중 가장 먼저 나온 제품이다. 최대 읽기·쓰기 속도를 이전 규격 제품 대비 최대 두 배 끌어올렸다. 마이크론은 9650 SSD가 대량생산 단계에 들어가 주요 제조사와 AI 데이터센터 고객사 검증 작업을 진행중이라고 밝혔다. 단 이는 서버용 제품이며 일반 소비자용 PCI 익스프레스 6.0 제품이 나오기까지는 상당한 시간이 걸릴 것으로 보인다. PCI-SIG, 2022년 1월 PCIe 6.0 규격 확정 PCI 익스프레스는 프로세서와 그래픽카드, NVMe SSD와 AI 가속기 등 PC·서버 주요 부품을 빠르게 잇는 다리 역할을 한다. 이를 관리하는 곳은 Arm, AMD, 퀄컴, 엔비디아, 인텔, 델테크놀로지스 등 PC와 서버, 반도체 업계 주요 관계사 1천여 개 이상이 참여한 표준화 단체인 PCI-SIG다. PCI-SIG는 2022년 1월 각 회원사 의견 수렴을 거쳐 PCI 익스프레스 6.0 규격을 최종 확정했다. 신호 전송 방식을 바꿔 1개 레인(PCI 익스프레스 데이터 전송 경로)당 전송 속도를 최대 8GB/s까지 끌어올렸다. 이는 PCI 익스프레스 4.0(2GB/s) 대비 네 배, PCI 익스프레스 5.0(4GB/s) 대비 두 배 향상된 것이다. 16개 레인을 모두 활용하면 초당 최대 128GB/s를 전송할 수 있어 데이터센터나 서버의 병목현상 제거에 활용될 것으로 예상됐다. 마이크론, 지난해 발표 후 1년 반만에 상용화 마이크론은 2024년 8월 FMS 2024에서 PCI 익스프레스 6.0 기반 SSD 개발 계획을 처음 공개했다. 이후 1년 반이 지난 올 2월부터 제품 대량생산에 나선다고 밝혔다. 마이크론이 13일(현지시간) 공개한 9650 SSD는 E1.S, E3.S 등 서버 규격 제품이며 PCI 익스프레스 6.0 레인 4개와 마이크론 TLC(3비트) 낸드 플래시메모리로 구성됐다. 최대 읽기 속도는 28GB/s, 최대 쓰기 속도는 14GB/s로 현재 판매되는 PCI 익스프레스 5.0 기반 NVMe SSD의 두 배 수준이다. 9650 프로는 저장된 데이터를 읽는 작업에 중점을 뒀고 최대 용량은 30.72TB다. 9650 맥스는 읽기와 쓰기가 모두 중요한 제품 대상이며 최대 용량은 25.6TB다. 작동시 발생하는 열을 식힐 수 있는 냉각 옵션은 공랭식, 수랭식을 모두 지원한다. 차세대 SSD, 데이터센터 중심 성장 전망 마이크론은 "9650 SSD 출시를 통해 고성능 스토리지가 선택이 아닌 필수로 자리 잡고 데이터 이동 구조가 AI 워크로드의 핵심 요소가 되는 미래로 업계가 한 걸음 더 나아가고 있다"고 자평했다. 단 마이크론을 포함한 주요 SSD 제조사는 일반 소비자용 PCI 익스프레스 6.0 SSD에 적극적으로 나서지 않을 것으로 보인다. 신호 전송을 제어하기 까다로워 생산 원가가 높고 성능을 온전히 이끌어 낼 용도가 아직까지 미비하기 때문이다. PCI 익스프레스 5.0 SSD는 2023년 3분기부터 일반 소비자용 시장에 나왔지만 발열과 전력소모 문제로 보급이 더뎠다. SSD 컨트롤러 시장을 양분하는 대만 팹리스인 파이슨과 실리콘모션이 작년 상반기부터 저전력 컨트롤러를 공급하며 이 문제가 해결됐다. PCI 익스프레스 5.0 제품의 성장 여지도 여전히 남아있다. 주요 제조사에 따르면 지난 해 일반 소비자용 SSD 시장에서 PCI 익스프레스 5.0 제품 비중은 약 5% 내외다. 새 규격 기반 제품 투입보다는 기존 시장 확대가 더 쉬운 상황에서 신제품 개발과 출시를 굳이 서두를 필요가 없다.

2026.02.14 09:49권봉석 기자

알리바바 클라우드, 글로벌 조사기관 평가서 잇단 '리더' 선정

알리바바 클라우드가 주요 글로벌 시장조사기관 평가에서 인공지능(AI) 인프라·모델·솔루션 전반의 경쟁력을 인정받았다. 알리바바 클라우드는 2025년 가트너·포레스터·옴디아 등 글로벌 조사기관의 시장 분석 보고서에서 잇따라 업계 리더로 선정됐다고 26일 밝혔다. 먼저 옴디아는 지난해 12월 발간한 '마켓 레이더: 2025 글로벌 엔터프라이즈급 MaaS 시장 분석' 보고서에서 알리바바 클라우드를 리더로 선정했다. 서비스형 모델(MaaS)은 AI 모델을 중심으로 API와 애플리케이션, 통합형 솔루션 등을 통해 사용자에게 AI 기능을 제공하는 서비스 모델이다. 알리바바 클라우드는 9개 핵심 역량 중 이용 가능한 파운데이션 모델의 다양성, 모델 커스터마이징·튜닝, AI 에이전트 개발·스케줄링, 비용 최적화 전략, 프로덕션 배포 접근 방식 등 5개 부문에서 어드밴스드 등급을 획득했다. 보고서에 따르면 알리바바 클라우드는 자체 개발한 '큐웬' 모델을 PAI 컴퓨팅 인프라와 모델 스튜디오 애플리케이션 플랫폼과 수직 통합해 기업이 AI 애플리케이션을 개발부터 배포·운영까지 전 라이프사이클에 걸쳐 구현할 수 있도록 지원한 점을 인정받았다. 또 옴디아는 지난해 6월 발표한 '2025 아시아·오세아니아 지역 생성형 AI 클라우드 대표 기업' 보고서에서도 알리바바 클라우드를 시장 리더로 선정했다. 알리바바 클라우드는 평가 대상 9개 글로벌 벤더 중 4개 리더 기업 가운데 하나로 이름을 올렸으며, 9개 평가 항목 중 7개 항목에서 최고 등급인 '어드밴스드'를 획득했다. 가트너는 지난해 11월 발표한 4개의 '생성형 AI 혁신 가이드' 보고서에서 알리바바 클라우드를 평가 대상 4개 부문 모두 신흥 리더로 선정했다. 해당 부문은 생성형 AI 특화 클라우드 인프라, 생성형 AI 모델 제공업체, 생성형 AI 엔지니어링, 생성형 AI 지식 관리 앱·범용 생산성 영역이다. AI 인프라 혁신 분야에서도 성과를 이어갔다. 알리바바 클라우드는 '포레스터 웨이브: AI 인프라 솔루션' 2025년 4분기 보고서에서 리더로 선정됐다. 구성·데이터 관리·운영 관리·장애 허용성·효율성·배포 환경 등 7개 항목에서 최고 점수인 5.00점을 받았다. 이와 관련해 지난해 8월엔 가트너의 '2025 매직 쿼드런트: 클라우드 네이티브 애플리케이션 플랫폼' 보고서에서도 리더로 선정됐다. 서버리스 앱 엔진(SAE), 함수 컴퓨트, 컨테이너 컴퓨트 서비스(ACS) 등을 통해 기업이 AI 기반 애플리케이션을 더 빠르게 구축·배포·확장할 수 있도록 지원한다는 점이 강점으로 꼽혔다. 서버리스 분야에서는 '포레스터 웨이브: 서버리스 개발 플랫폼' 2025년 2분기 보고서에서 리더로 선정되며 경쟁력을 입증했다. 알리바바 클라우드는 함수 컴퓨트와 서버리스 앱 엔진 역량을 기반으로 초기화 및 배포, 워크로드 유연성, 관찰성, AI 애플리케이션 개발 등 9개 항목에서 최고 점수 5점을 획득했다. 아울러 가트너의 클라우드 데이터베이스 관리 및 컨테이너 관리 관련 보고서에서도 리더로 선정됐다. 지난해 11월 '가트너 매직 쿼드런트: 클라우드 데이터베이스 관리 시스템(DBMS)' 보고서에서 6년 연속 리더에 올랐으며 같은 해 8월 '가트너 매직 쿼드런트: 컨테이너 관리' 보고서에서도 리더로 선정됐다. 알리바바 클라우드는 첨단 클라우드 인프라와 고급 AI 역량을 결합한 AI+클라우드 전략을 중심으로 기술 혁신을 이어가고 있다고 강조했다. 현재 전 세계 29개 지역에서 92개 데이터센터를 운영하며 글로벌 클라우드 인프라 역량을 강화하고 있다. 알리바바 클라우드는 "AI와 클라우드 기술 혁신을 통해 전 세계 기업 고객들에게 실질적인 비즈니스 가치를 제공하겠다"고 밝혔다.

2026.01.26 17:40한정호 기자

메가존클라우드, 하나은행과 디지털 혁신 금융 서비스 발굴 '맞손'

메가존클라우드가 하나은행과 인공지능(AI)·클라우드·데이터 사이언스 등 디지털 신기술을 접목한 혁신 금융 서비스 공동 발굴에 나선다. 메가존클라우드는 지난 23일 서울 중구 하나은행 을지로 본점에서 하나은행과 AI 클라우드 시장 내 상호 협업과 금융 서비스 지원을 위한 전략적 업무협약(MOU)을 체결했다고 26일 밝혔다. 이날 체결식에는 이주완 메가존클라우드 이사회 의장과 이호성 하나은행장이 참석했다. 이번 협약을 통해 양측은 정부의 글로벌 AI 3강 비전에 따른 AI 데이터센터 구축을 위해 메가존클라우드가 도입 예정인 대규모 그래픽처리장치(GPU)·신경망처리장치(NPU) 서버 수입과 관련한 하나은행의 수출입 금융 지원을 추진한다. 아울러 금융 서비스, 클라우드, AI 등 양사가 보유한 기술과 서비스를 활용한 융복합 비즈니스 모델 발굴 등에 지속 협력할 방침이다. 특히 하나은행은 GPU·NPU 서버 수입과 관련한 금융 지원과 별도로 직·간접 지분 투자도 추진할 계획이다. 이를 통해 메가존클라우드는 아시아 최대 클라우드 관리 서비스 기업(MSP) 입지와 기술 경쟁력을 강화한다는 목표다. 또 GPU 수급에 어려움을 겪고 있는 국내 빅테크·반도체 기업의 성장 촉진도 도모할 방침이다. 메가존클라우드 황인철 최고매출책임자(CRO)는 "우리 강점인 멀티·하이브리드 클라우드 운영 역량과 AI 특화 플랫폼을 하나은행의 금융 데이터들과 겹합해 AI 금융 특화 솔루션을 만들고 금융 특화 AI 데이터센터 활성화를 가속화할 예정"이라고 밝혔다.

2026.01.26 16:14한정호 기자

삼성전기, 작년 매출 11.3조원 '역대 최대'

삼성전기가 AI·서버·전장용 고부가 부품 수요 확대에 힘입어 지난해 4분기 시장 기대를 웃도는 실적을 거뒀다. 연간 기준으로는 창사 이래 최대 매출을 기록하며 체질 개선 성과를 입증했다. 삼성전기는 23일 지난해 4분기 실적으로 매출 2조9천21억원, 영업이익 2395억원을 기록했다고 밝혔다. 전년 동기 대비 매출은 16%, 영업이익은 108% 증가했다. 2025년 연간 실적은 매출 11조3145억원, 영업이익 9133억원으로 전년 대비 각각 10%, 24% 늘며 역대 최대 매출을 달성했다. 컨센서스 상회…AI·전장 수요 효과 4분기 실적은 증권가 예상을 상회했다. 에프앤가이드가 집계한 증권가 컨센서스(예상치 평균)는 매출 2조8147억원, 영업이익 2246억원이었다. 매출과 영업이익 모두 이를 웃돈 것이다. 삼성전기는 글로벌 AI 인프라 투자 확대와 자율주행 채용 증가로 AI·서버·전장용 고사양 부품 수요가 견조하게 이어졌다고 설명했다. 특히 AI·서버용 MLCC와 AI 가속기 및 자율주행 시스템용 FCBGA(플립칩볼그리드어레이) 등 고부가 제품 공급 확대가 매출 성장과 수익성 개선을 동시에 이끌었다. 사업부문별로는 컴포넌트 부문의 4분기 매출이 1조3203억원으로 전년 동기 대비 22% 증가했다. 연말 재고 조정 영향으로 전 분기 대비 4% 감소했으나, AI·서버 및 파워용 MLCC 공급 확대 효과로 전년 대비 높은 성장세를 유지했다. 삼성전기는 올해 서버·네트워크 등 AI 및 산업용 고부가 MLCC 공급을 확대하고, 고용량·고압 등 전장용 MLCC 라인업을 강화해 전장 부문 매출을 늘릴 계획이다. 패키지솔루션 부문 매출은 6446억원으로 전년 동기 대비 17%, 전 분기 대비 9% 증가했다. 글로벌 빅테크향 서버 및 AI 가속기용, 자율주행 시스템용 FCBGA와 모바일 AP용 BGA 등 고부가 패키지기판 공급이 확대됐다. 올해에는 데이터센터 시장 고성장이 예상되는 가운데, 삼성전기는 신규 빅테크 고객향 AI 가속기 및 네트워크용 패키지기판 공급을 통해 매출 확대에 나설 방침이다. 광학솔루션 부문은 4분기 매출 9372억원으로 전년 동기 대비 9%, 전 분기 대비 2% 증가했다. 고성능 IT용 카메라 모듈 공급 개시와 전장용 카메라 모듈 확대가 실적 개선을 이끌었다. 올해는 전장용 ADAS(첨단운전자지원시스템) 고도화와 휴머노이드 등 신규 응용처 확대, 스마트폰 카메라 고성능화 수요 증가에 대응해 차별화 기술 개발과 전장 특화 제품 공급 확대에 집중할 계획이다.

2026.01.23 13:31전화평 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호 기자

노타, 유탑소프트와 온디바이스 AI 튜터 개발 '맞손'…비용 효율화 실현

노타가 인공지능(AI) 에듀테크 기업 유탑소프트와 손잡고 온디바이스 AI 튜터 개발에 나선다. 노타는 지난 18일 유탑소프트와 온디바이스 AI 기반 교육 서비스 사업 협력을 위한 양해각서(MOU) 체결식을 진행했다고 19일 밝혔다. 이번 체결식은 유탑소프트가 보유한 교육 업체 대상 AI 튜터 개발 역량과 노타의 AI 경량화 기술을 결합해 교육 전용 디바이스에 최적화된 생성형 AI 기반 AI 튜터 서비스를 상용화하고자 마련됐다. 양사가 구상 중인 온디바이스 AI 튜터는 외부 서버를 거치지 않고 태블릿 기기 자체에서 AI 튜터가 구동되는 방식을 기본으로 하되, 추론의 결과가 많이 필요한 경우에 한해 외부 서버와 연동하는 하이브리드 방식의 적용이 검토되고 있다. 기존 생성형 AI 기반 서비스의 고질적인 문제로 꼽히는 ▲막대한 서버 운영 비용 ▲네트워크 지연 속도 ▲데이터 보안 문제를 효율적으로 개선한다는 목표다. 향후 협력이 구체화되면 유탑소프트는 우선적으로 영어 스피킹 특화 AI 튜터 모델과 거대언어모델(LLM) 기반 문제은행 특화 AI 튜터 모델의 기획과 개발을 주도할 계획이다. 이에 맞춰 노타는 자사 핵심 기술인 AI 모델 최적화 플랫폼 '넷츠프레소'를 활용해 데이터 기반 파인튜닝 및 해당 AI 튜터 모델을 태블릿 등의 하드웨어(HW) 성능에 맞춰 압축·최적화하는 과정에서 긴밀히 협력해 나갈 방침이다. 이를 통해 구현되는 AI 튜터 솔루션은 학생 사용자수 증가에 따라 기하급수적으로 늘어나는 AI 서비스 운용 비용을 획기적으로 절감할 수 있을 것이라는 게 회사 측 설명이다. 또 인터넷 연결이 원활하지 않은 환경에서도 학생들이 끊김 없이 AI 튜터의 질문·답변 서비스를 이용할 수 있어 학습 효율성을 극대화할 전망이다. 김성범 유탑소프트 대표는 "노타와의 협력은 에듀테크 시장의 화두인 비용 효율화와 개인화 교육을 동시에 실현하는 계기가 될 것"이라며 "교육 업체가 고비용의 LLM 도입으로 발생되는 운영 비용의 부담을 하이브리드 지원 온디바이스 AI 튜터를 통해 합리적이고 안전한 솔루션을 교육 업체에 제공하겠다"고 밝혔다. 채명수 노타 대표는 "교육 업체를 위한 AI 서비스 모델 경량화는 HW 제약이 많은 모바일 교육 환경에서 필수적인 기술"이라며 "유탑소프트의 풍부한 교육 서비스 구축 경험이 우리의 온디바이스 AI 기술과 만나 실제 교육 현장에서 의미 있는 혁신 사례를 만들 수 있도록 적극 지원하겠다"고 말했다.

2025.12.19 15:32한정호 기자

지난해 PCB 시장 규모 117조원…中 점유율 60% 압도적 1위

한국 PCB 및 반도체패키징 산업협회(KPCA)는 세계 각국 유관 협회와 PCB(인쇄회로기판) 생산량을 총집계한 '2024년 글로벌 PCB 생산 보고서'를 발간했다고 18일 밝혔다. KPCA협회는 전세계 각국 회원들로부터 매년 생산 데이터를 취합하고, 이를 글로벌 시장 분석에 반영하는 역할을 수행하고 있다. 한국은 IC(집적회로) 패키지 기판, 고다층PCB 분야에서 중요한 글로벌 공급국으로 자리매김하고 있어, KPCA의 데이터 기여도는 전세계 보고서에서 높은 신뢰도를 가진 것으로 평가된다. 2024년 전 세계 PCB 총생산 규모는 117조5천517억원(861억7천200만 달러)으로 집계됐다. 중국이 전체의 60% 이상(71조4천707억원)을 차지하며 압도적인 생산국 지위를 유지했으며, 대만·한국·일본은 첨단 패키징 중심 고부가가치 제품 공급국으로 뒤를 이었다. 한국은 12조6천402억원 규모로 세계 4위 PCB 생산국을 기록했으며, 특히 IC 기판 분야에서 강력한 경쟁력을 보였다. 대만과 일본은 고신뢰성 및 반도체용 패키징 기판 중심의 안정적인 생산 체제를 유지했다. 북미·유럽은 방산 및 산업용PCB 중심의 제한적 시장 체제를 유지하고 있으며, 인도·기타 아시아는 '차이나+1' 전략 확산으로 성장세가 본격화되고 있다. 전체 시장 중 고다층(MLB), HDI, IC Substrate 등 첨단 패키징용 제품이 절반 이상을 차지하며, 반도체 패키징 고도화가PCB 산업의 핵심 성장동력으로 지속될 전망이다. 국내 PCB 산업은 글로벌 PCB 시장에서 통신 장비 분야 비중 40.5%로 세계 최고 수준을 기록하며, 5G·서버·네트워크용 고부가가치 PCB 수요를 선도하고 있다. 이어 컴퓨터·비즈니스 장비 분야가 19.7%, 자동차 전장용 PCB가 17.5%로 산업별 수요가 균형을 이루고 있다. 또한 국내 PCB 산업은 5G, 서버, AI·HPC 관련 기판 수요를 적극 반영하며 첨단 패키징과 고부가가치PCB 중심으로 발전하고 있다. 특히 IC 기판, HDI·고다층PCB, 리지드-플렉스 등 전략 산업 기반을 확보함으로써 글로벌 공급망에서 핵심적인 역할을 수행하고 있다. 최근에는 유리 기판(TGV) 기술이 센서 및 고신뢰성 모듈 패키징 분야에서 주목받고 있다. 저온 접합·초미세 배선 공정을 통한 유리 기판 기반 모듈은AI, 자동차, 바이오 등 첨단 산업용 패키징에서 활용도가 높아, 한국 기업들의 첨단 패키징 경쟁력을 더욱 강화하고 있다. 안영우 KPCA협회 사무총장은 “산업별 PCB 수요 구조와 첨단 패키징 기술의 결합은 한국 제조업 경쟁력과 전략 산업 방향성을 보여주는 핵심 지표”라며 "한국PCB 산업이 AI·반도체 패키징·통신 인프라 중심으로 고도화 및 고부가 가치화되고 있다"고 강조했다.

2025.12.18 16:33장경윤 기자

SK하이닉스 32Gb 서버용 D램, 업계 첫 인텔 호환성 검증

SK하이닉스가 업계 최초로 10나노급 5세대(1b) 32Gb 기반 고용량 서버용 D램 모듈 제품인 256GB DDR5 RDIMM을 인텔 '제온 6' 플랫폼에 적용하기 위한 '인텔 데이터센터 인증' 절차를 통과했다고 18일 밝혔다. RDIMM은 메모리 모듈 내에 메모리 컨트롤러와 D램 칩 사이에 주소, 명령 신호를 중계해주는 레지스터 또는 버퍼 칩을 추가한 서버·워크스테이션용 D램 모듈이다. 이번 인증 절차는 미국에 위치한 인텔의 첨단 연구시설인 어드밴스드 데이터센터 디벨롭먼트 랩에서 진행됐다. 이 곳에서 SK하이닉스는 수차례의 다면 평가를 거쳐 이번 제품이 제온 플랫폼과 결합했을 때 신뢰할 수 있는 성능과 호환성, 품질을 갖췄다는 결과를 얻었다. 회사는 이에 앞서 올해 1월, 10나노급 4세대(1a) 16Gb 기반 256GB 제품에 대한 인증도 받은 바 있다. SK하이닉스는 "서버용 CPU 시장을 선도하는 인텔의 최신 서버 플랫폼과의 호환성을 업계 최초로 검증 받으며 당사의 고용량 DDR5 모듈 기술력이 글로벌 최고 수준임을 입증했다"며 "이를 발판으로 글로벌 주요 데이터센터 사업자들과의 협력을 확대하고, 급증하는 서버 고객들의 수요에 적기 대응해 차세대 메모리 시장 리더십을 이어 가겠다"고 강조했다. 차세대 AI 인프라에서 메모리는 성능을 좌우하는 핵심 요소로 부상하고 있다. 최근 AI 추론 모델들이 단순 답변 생성을 넘어 복잡한 논리적 사고 과정을 수행하면서, 실시간으로 처리해야 하는 데이터량이 기하급수적으로 늘어나고 있기 때문이다. 방대한 데이터를 빠르고 안정적으로 처리하려면 고용량·고성능 메모리가 필수적이며, 이에 따른 시장 수요도 급증하고 있다. 회사는 이번 제품이 늘어나는 시장 수요에 부응하는 최적의 설루션이라고 강조했다. 회사 개발진은 "이번 제품을 탑재한 서버는 32Gb 128GB 제품을 채용했을 때 대비 16% 추론 성능이 향상된다"며 "32Gb D램 단품 칩을 활용한 설계로 전력 소모량도 기존 1a 기반 16Gb 256GB 제품보다 최대 약 18%까지 줄였다"고 설명했다. 이에 따라, 전성비를 중시하는 데이터센터 고객들의 높은 관심이 예상된다. 이상권 SK하이닉스 부사장(DRAM상품기획 담당)은 “서버용 DDR5 D램 시장에서 주도권을 확실히 하면서 고객 요구에 신속하게 대응할 수 있게 됐다”며 “풀 스택 AI 메모리 크리에이터로서 고성능·저전력·고용량 메모리 수요 확산에 적극 대응해 고객들의 만족을 이끌어 내겠다”고 말했다. 디미트리오스 지아카스 인텔 플랫폼 아키텍처 부사장은 "양사가 긴밀히 협력해 기술 완성도를 높인 결과 좋은 성과를 거뒀고, 메모리 기술 발전에도 기여하게 됐다"며 "고용량 모듈은 급증하는 AI 워크로드(Workload) 수요에 대응하며, 데이터센터 고객들이 원하는 성능과 효율성도 크게 향상시킬 것"이라고 말했다.

2025.12.18 09:39장경윤 기자

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호 기자

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호 기자

AI 열풍 속 메모리 슈퍼사이클…"2026년까지 호황 지속"

AI 열풍이 메모리 반도체 시장의 사이클을 근본적으로 바꾸고 있다. 올해 D램, 낸드플래시 가격이 잇따라 급등하며 강한 회복세를 보인 데 이어, 내년에도 호황이 이어질 것이란 전망에 힘이 실리고 있기 때문이다. 업계 안팎에서는 수요에 비해 공급이 부족할 것이라는 진단을 내놓으며 슈퍼사이클 지속 가능성을 강조하고 있다. 9일 시장조사업체 트렌드포스에 따르면 올해 메모리 가격은 1분기 바닥을 찍은 뒤 3분기 급등, 4분기까지 높은 가격대를 유지하는 흐름을 보였다. D램은 HBM(고대역폭메모리)과 DDR5 중심의 공급 전환으로 레거시 DDR4 부족 현상이 심화되면서 가격이 예상보다 가파르게 올랐다. 3분기에는 주요 세트업체의 재고 확보 수요가 겹치는 양상까지 나타났으며, 4분기에는 서버·PC D램 전반으로 인상 흐름이 확산됐다. 낸드플래시는 1분기까지 공급과잉에 시달렸지만, 감산과 투자 축소 효과로 3분기부터 반등하기 시작했다. 특히 SSD·데이터센터향 제품의 주문이 늘면서 4분기에는 구조적인 타이트 구간에 접어들었다. 트렌드포스는 올해 완제품 기준 BOM(부품원가)이 8~10% 증가한 것으로 분석했다. 韓 메모리 양사 “AI 메모리 수요가 공급 앞선다” 삼성전자와 SK하이닉스 등 국내 메모리 양사도 2026년까지 메모리 수요가 유지될 것으로 전망했다. AI용 메모리인 HBM, DDR5, SSD 중심의 전략을 이어가겠다는 것이다. 삼성전자는 최근 컨퍼런스콜에서 “HBM3E와 차세대 HBM4 공급을 확대하더라도 2026년까지는 수요가 공급을 웃도는 구조가 유지될 것”이라고 밝혔다. 아울러 DDR5·LPDDR5X, 고용량 QLC SSD 등 고부가 제품군 비중도 지속 확대할 계획이다. SK하이닉스 역시 주요 고객사와의 협의를 근거로 “내년 HBM 공급 물량은 이미 상당 부분 소진됐다”고 밝혔다. 회사는 HBM과 서버용 DRAM, 고성능 SSD 생산 능력 강화를 위해 내년 설비투자(Capex)를 상향 조정할 방침이다. 해외 매체들은 SK하이닉스의 HBM 공급이 2027년까지 사실상 예약 완료 상태라고 보도하기도 했다. 증권가 “2026년까지 호황 지속 전망” 이에 국내 증권업계는 내년 메모리 업황에 대해 매우 낙관적인 전망을 내놓고 있다. 대신증권은 최근 보고서를 통해 “D램과 낸드 모두 2026년까지 호황이 이어질 가능성이 크다”고 분석했다. 보고서에 따르면 D램 수요 증가율은 30% 이상, 서버 D램은 40%대 성장까지 예상된다. 반면 D램 비트 공급 증가율은 20% 수준, 낸는 17% 안팎에 그쳐 수요를 따라가지 못할 것으로 봤다. 메모리 재고도 D램은 2~3주, 낸드는 약 6주로 추정돼 공급이 빠듯한 상황이라는 분석이다. 해외에서도 비슷한 전망이 나오고 있다. 노무라증권은 “메모리 슈퍼사이클이 최소 2027년까지 이어질 것”이라며 SK하이닉스를 최대 수혜주로 제시했다. D램과 낸드 가격 상승률 전망도 내년 기준 각각 50%, 60%대로 상향했다. 다만 HBM 가격 조정 가능성이 변수로 지적된다. 하나증권은 “AI 서버 수요가 견조하더라도 HBM 가격은 2026년 이후 두 자릿수 조정이 나타날 수 있다”며 “물량은 부족하지만 가격은 피크아웃 국면에 접어들 수 있다”고 분석했다.

2025.12.09 16:08전화평 기자

삼성전기, 내년 초 필리핀 팹 증설 추진…'MLCC' 호황 대응

삼성전기가 내년 초부터 AI 서버용 적층세라믹캐패시터(MLCC) 생산능력 확대를 추진한다. 최근 필리핀 법인의 증설을 위한 준비에 나선 것으로 파악됐다. 급증하는 AI 인프라 투자에 선제적으로 대응하려는 전략으로 풀이된다. 1일 업계에 따르면 삼성전기는 내년 1분기부터 필리핀 소재의 MLCC 양산라인을 증설할 계획이다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 IT제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. 현재 삼성전기의 MLCC는 주로 중국 톈진과 필리핀 라구나주 칼람바시 소재의 공장 2곳에서 양산되고 있다. 국내 수원 및 부산사업장은 R&D 및 원재료 제조에 집중하고 있다. 삼성전기는 이 중 필리핀 MLCC 공장의 증설을 지속 고려해 왔다. 올 4분기 설비투자를 위한 협력망을 구성하는 등 구체적인 준비에 나선 것으로 파악됐다. 이르면 올 1분기부터 실제 투자에 나설 전망이다. 구체적인 투자 규모는 밝혀지지 않았으나, 삼성전기의 연간 투자 규모를 고려하면 수천억원의 투자가 집행될 것으로 관측된다. 또한 이달 초에는 장덕현 삼성전기 사장이 부산사업장에서 페르디난드 마크로스 필리핀 대통령을 만나, 필리핀 경제특구청(PEZA) 및 MLCC 투자를 위한 협약을 체결한 바 있다. 전자부품 업계 관계자는 "삼성전기는 중국 톈진에서 전장용 MLCC를, 필리핀에서는 AI 서버용 MLCC를 주력으로 양산해 왔다"며 "필리핀 MLCC 공장 건설 계획이 조만간 구체화될 것으로 안다"고 설명했다. AI 서버용 MLCC는 최근 글로벌 빅테크 기업들의 공격적인 AI 인프라 투자 확대에 따라 수요가 빠르게 증가하는 추세다. AI 서버에는 일반 서버 대비 약 10배 이상의 MLCC가 탑재되며, 소형·고용량을 요구하기 때문에 부가가치가 높다. 이에 삼성전기도 MLCC 사업에서 호황을 맞고 있다. MLCC가 포함된 삼성전기의 컴포넌트 공장 가동률은 지난해 연 81% 수준에서 올해 3분기 기준 99%로 사실상 '풀가동' 체제에 접어들었다.

2025.12.01 10:34장경윤 기자

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

대통령도 꼬집은 담합 과징금 액수...더 세질까

모터쇼가 변했다...미래 기술 과시서 판매 경쟁 무대로

이재현 CJ 회장, ‘올리브영 명동 타운’서 쇼핑…장바구니 봤더니

박윤영號 KT, 기존 조직장 대거 물갈이

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.