• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터센터'통합검색 결과 입니다. (718건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI·오라클 스타게이트, 美 미시간서 전력·환경 갈등 촉발

인공지능(AI) 인프라 확장을 둘러싼 기대와 우려가 미국 미시간주에서 정면 충돌하고 있다. 21일 가디언 등 주요 외신에 따르면 오픈AI와 오라클이 추진 중인 초대형 데이터센터 프로젝트 '스타게이트'가 지역 전력망 부담과 환경 훼손, 절차적 정당성 논란까지 불러오며 지역사회 반발을 키우고 있다. 미국 미시간주 세일린 타운십에 건설 예정인 스타게이트 데이터센터는 최대 1.4기가와트(GW)의 전력을 사용하는 초대형 시설로, 디트로이트시 전체 전력 사용량에 맞먹는 규모다. 총 투자액은 약 70억 달러(약 10조원)에 달한다. 문제는 전력과 환경 부담이다. 주민들은 대규모 전력 수요로 인해 전기요금 인상 가능성이 커지고, 지하수 고갈 및 농촌 지역 훼손이 불가피하다고 주장하고 있다. 특히 미시간주가 2040년까지 재생에너지 전환을 의무화한 상황에서 스타게이트 프로젝트가 예외 조항을 촉발해 화석연료 발전 확대의 빌미가 될 수 있다는 우려도 제기된다 . 당초 세일린 타운십 이사회는 주민 반대 여론을 이유로 데이터센터 부지 용도 변경을 부결했지만, 개발사가 소송을 제기하면서 합의로 사업이 재추진됐다. 이후 미시간 공공서비스위원회(MPSC)는 별도의 공청회 없이 전력 공급 계약을 승인해 논란을 키웠다. 전력 공급사 DTE 에너지는 "데이터센터 전력 비용이 일반 가정용 요금으로 전가되지 않는다"고 설명했지만, 주민들은 충분한 검증이 이뤄지지 않았다고 반발하고 있다. 스타게이트 프로젝트는 오픈AI와 오라클이 주도하는 미국 정부 차원의 AI 인프라 전략 사업이다. 도널드 트럼프 미국 대통령은 이를 미국 기술 경쟁력의 상징으로 평가했으며 샘 알트먼 오픈AI 최고경영자(CEO)와 래리 엘리슨 오라클 창업자 등도 직접 관여하고 있다. 한편 오픈AI는 최근 스타게이트 프로젝트의 글로벌 확장을 본격화하며 영국 재무장관 출신 조지 오스본을 '오픈AI 포 컨트리' 총괄 책임자로 영입했다. 이는 각국 정부와 협력해 민주적 가치에 기반한 AI 인프라를 구축하겠다는 구상으로, 스타게이트를 미국 밖으로 확장하려는 전략의 일환이다. 주요 외신들은 이번 미시간 사례를 미국 전역에서 반복되고 있는 데이터센터 갈등의 전형으로 보고 있다. AI 경쟁이 격화되면서 전력·환경·지방자치 권한을 둘러싼 충돌이 불가피해지고 있으며 대규모 AI 인프라 투자가 지역사회 수용성이라는 새로운 시험대에 올랐다는 분석이다.

2025.12.21 17:36한정호

오라클, 틱톡 美 사업 운영 맡는다…주가 회복

오라클이 중국 동영상 플랫폼 틱톡의 미국 사업 운영에 참여하면서 주가가 급등했다. 인공지능(AI) 인프라 투자 확대에 따른 부담과 데이터센터 투자 불확실성으로 최근 주가가 급락했던 상황에서 이번 거래가 투자심리를 반전시키는 계기가 됐다는 평가가 나온다. 21일 CNBC에 따르면 쇼우즈 츄 틱톡 최고경영자(CEO)는 전날 직원들에게 보낸 내부 메모에서 오라클과 사모펀드 실버레이크, 아부다비 국부펀드 계열 MGX가 참여하는 합작법인이 틱톡 미국 사업을 운영하게 될 것이라고 밝혔다. 이번 합작법인은 틱톡 미국 법인의 지분 50%를 보유한다. 이 가운데 오라클은 약 15%의 지분을 확보하는 것으로 알려졌다. 중국 모회사 바이트댄스는 19.9%의 지분을 유지하며 기존 바이트댄스 투자자 일부가 나머지 지분을 나눠 갖는다. 거래는 다음 달 22일 마무리될 예정이다. 이번 합의로 틱톡은 미국 내 서비스 중단 위기를 넘기게 됐다. 앞서 미국 정부는 국가 안보 우려를 이유로 바이트댄스에 틱톡 미국 사업 매각을 요구하는 법안을 통과시켰으며 이를 이행하지 않을 경우 서비스 금지를 예고한 바 있다. 실제로 올해 초 틱톡은 미국에서 일시적으로 서비스가 중단되기도 했다. 오라클은 이번 거래에서 틱톡이 합의된 국가 안보 조건을 준수하고 있는지를 감사·검증하는 역할을 맡는다. 또 틱톡의 미국 사용자와 관련된 민감한 데이터는 오라클의 클라우드 데이터센터에 저장될 예정이다. 다만 알고리즘 매각은 포함되지 않았다는 점에서 중국 측의 법적 요구도 일정 부분 반영됐다는 분석이 나온다. 중국 정부는 이번 거래를 공식 확인하지 않았지만 중국 관영 매체들은 친중 성향 학자의 발언을 인용해 중국 법률에 부합하는 구조라며 거래 성사 가능성을 높게 보고 있다. 이번 소식이 전해지자 오라클 주가는 즉각 반응했다. 지난 19일(현지시간) 뉴욕증시에서 오라클 주가는 장중 한때 7% 이상 급등했으며 정규장 마감 기준으로도 6% 이상 상승했다. 이는 최근 2주 가까이 이어졌던 하락 흐름을 되돌린 것이다. 오라클 주가는 앞서 AI 인프라 투자 확대에 따른 자본 지출 증가, 데이터센터 투자 재원 마련에 대한 우려로 급격한 조정을 받았다. 특히 블루아울 캐피털과 논의 중이던 100억 달러(약 14조원) 규모 데이터센터 투자 협상이 교착 상태에 빠졌다는 보도가 나오면서 투자자들의 불안이 커졌다. 월가에서는 이번 거래가 단기적인 주가 반등 이상의 의미를 가질 수 있다는 분석도 나온다. 투자은행 에버코어 ISI는 "이번 소식은 오라클에 있어 의미 있는 성과"라며 "최근의 주가 조정은 6~12개월 관점에서 투자자에게 매력적인 진입 구간이 될 수 있다"고 평가했다. 다만 시장에서는 틱톡 미국 사업을 둘러싼 정치·규제 리스크가 완전히 해소된 것은 아니라는 점에도 주목하고 있다. 향후 미국 의회의 감독 강화 가능성과 추가 규제 논의가 재개될 경우 이번 거래 역시 다시 변수가 될 수 있다는 관측이다.

2025.12.21 10:48한정호

AI 투자 열풍에 메모리·SSD 이어 HDD도 들썩인다

글로벌 빅테크의 AI 관련 집중 투자는 메모리와 SSD에 이어 한동안 하락세를 이어오던 하드디스크드라이브(HDD) 가격까지 끌어올리고 있다. 시장조사업체와 업계에 따르면 최근 HDD 공급가는 4%, 실제 판매가는 20% 가량 올랐다. AI 모델을 학습하고 훈련하기 전의 데이터, 학습을 마친 데이터를 담아 두는 데 가장 효율적인 저장장치로 HDD가 널리 쓰이면서 데이터센터와 기업용 스토리지 시장을 중심으로 가격 인상 압력이 확산되고 있다. 과거 2011년 태국 홍수로 인한 HDD 생산량 감소, 2021년 암호화폐 '치아'(Chia)로 인한 일시적인 가격 변동과 달리, 이번 가격 상승은 AI 투자 확대에 따라 장기적으로 지속될 것으로 보인다. 올 4분기 HDD 공급가, 3분기 대비 4% 상승 트렌드포스에 따르면 웨스턴디지털은 지난 9월 중순 모든 HDD 가격을 올렸다. 전례 없는 수요 증가, 연구개발(R&D) 투자 확대에 따라 가격 조정이 불가피하다는 것이다. 닛케이에 따르면 올 4분기 HDD 공급가는 3분기 대비 4% 가량 올랐다. 이는 최근 2년간 가장 큰 가격 상승이다. 국내 시장에서도 네트워크 저장장치(NAS)와 워크스테이션, 서버 등에 쓰이는 고성능 니어라인(Nearline) HDD를 중심으로 유통 가격이 상승하고 있다. 일부 제품은 분기가 아닌 월 단위로 공급 가격이 책정되고 있다. 글로벌 HDD 국내 공급을 담당하는 한 업체 관계자는 19일 "24시간 365일 구동을 염두에 두고 만들어진 고성능 제품 중심으로 작년 대비 평균 20% 가량 판매가격이 올랐다"고 설명했다. AI 모델 관련 데이터 상당수 HDD에 저장 현재 HDD 가격이 오르는 가장 큰 원인은 클라우드 서비스 제공사(CSP)와 대형 데이터센터의 수요 급증이다. AI 모델 학습과 추론 과정에서 발생하는 방대한 데이터가 여전히 HDD에 담긴다. SSD는 빠른 입출력 속도로 처리 시간을 줄이는 효과가 있지만 대량 데이터 보관 영역에서는 여전히 HDD가 핵심 역할을 맡고 있다. 같은 비용으로 SSD 대비 3-5배 가까운 용량을 담아 둘 수 있다. 시장조사업체 IDC 집계에 따르면 2023년부터 2028년까지 만 5년간 생성되는 데이터 양은 최대 3배까지 늘어나 400제타바이트(ZB)에 달할 전망이다. 이 데이터 중 SSD에서 처리된 데이터가 마지막으로 향하는 곳이 HDD다. 헬륨 가스 수급 문제·중국 시장 수요 증가도 소폭 영향 12TB 이상 고용량 HDD에 공기 대신 채우는 헬륨 기체의 수급 문제도 HDD 가격 상승에 일부 영향을 미쳤다. 씨게이트에 따르면 현재 기업용/니어라인 고성능 HDD 제품군의 78% 가량은 헬륨 기체를 채운다. 그러나 헬륨 주요 공급처인 카타르가 올 상반기 헬륨 수출량을 전년 대비 23% 가량 줄였다. 관련 업계는 미국 텍사스 주에 새로운 헬륨 생산 시설이 가동되는 올 3분기를 정점으로 4분기 경부터 헬륨 공급가가 서서히 감소할 것으로 전망했다. 최근 중국 정부와 공공기관에서는 일부 업무나 데이터 저장에 SSD 대신 HDD를 이용하도록 권장하고 있다. 장시간 꺼져 있는 상태에서 SSD를 구성하는 플래시 메모리 안의 전하가 서서히 빠져나가 저장된 데이터가 날아갈 수 있다. 2021년 '치아' 채굴 광풍에 HDD 가격 크게 상승 HDD 가격이 상승하는 현상은 과거에도 있었다. 가장 가까운 예로는 2021년 3월부터 약 9개월간 지속된 암호화폐 '치아' 채굴로 인한 현상을 들 수 있다. 당시 비싼 고성능 그래픽카드 대신 저장공간을 빌려주고 보상을 받을 수 있는 구조에 대용량 HDD와 SSD가 대거 소진됐다. 국내를 포함해 일본과 중국 등 동아시아 시장에서도 가격 상승이 이어졌다. 같은 해 9월 경 치아 시세 하락이 급격히 일어나며 저장장치 관련 수요는 급감했고 이에 따라 HDD와 SSD 공급난과 가격 상승이 동시에 해소됐다. 단 치아 채굴 후 남은 중고 HDD가 새 것으로 둔갑해 공급되는 문제는 지속되고 있다. 일반 소비자보다 전문가·중소규모 기업에 더 영향 커 HDD 가격 상승은 메모리나 SSD와 달리 일반 소비자에게는 큰 영향을 주지 않을 것으로 보인다. 대부분의 PC가 주 저장장치로 SSD를 이용하며 일반 소비자도 사진이나 문서 등을 클라우드에 백업하기 때문이다. 19일 글로벌 HDD 제조사 관계자는 "4베이(HDD 4개 동시 장착) 이상 네트워크 저장장치를 구성하려는 전문가들, 혹은 스토리지를 구성하려는 중소규모 기업 담당자들에게는 적지 않은 영향을 미칠 것"이라고 설명했다.

2025.12.19 15:39권봉석

엘리스그룹, AI 클라우드 인프라 혁신으로 과기정통부 장관 표창 수상

엘리스그룹(대표 김재원)이 18일 서울 코엑스에서 열린 '2025 데이터∙클라우드 산업 진흥 유공자 표창 시상식'에서 클라우드 산업발전 유공 부문 과학기술정보통신부 장관 표창을 수상했다. 과학기술정보통신부가 주최하고, 정보통신산업진흥원(NIPA)과 한국지능정보사회진흥원(NIA)이 주관하는 '클라우드 산업발전 유공 표창'은 클라우드 산업 활성화와 클라우드 컴퓨팅 기술 발전에 기여한 유공자 및 기관을 선정해 수여하는 상이다. 정책 및 기술 개발은 물론, 민간과 공공부문의 클라우드 도입 확산에 대한 기여도를 평가한다. 엘리스그룹은 수랭식 B200 기반 고성능 AI 데이터센터를 구축하고, 자체 기술 기반의 AI 클라우드 인프라를 산업 전반에 확산시켜 국내 AI 생태계 활성화에 기여한 점을 인정받아 '미래선도∙산업고도화' 분야에서 표창을 수상했다. 특히, 고성능∙고효율 모듈형 데이터센터 '엘리스 AI PMDC'와 AI 전용 IaaS 'ECI(Elice Cloud Infrastructure)'를 중심으로, 기업과 연구기관이 대규모 GPU 자원을 보다 유연하고 안정적으로 활용할 수 있는 AI 클라우드 환경을 제공하고 있다. 이와 함께 제조∙의료∙공공 등 산업별 특화 AI 솔루션, 교육 현장을 위한 AI 교육∙평가 플랫폼, 업무 생산성을 높이는 생성형 AI 솔루션 및 에이전트까지 확장하며 데이터센터 인프라부터 AI 서비스 레이어까지 이어지는 AI 풀스택 역량을 확보했다. 현재 엘리스클라우드는 4천800개 이상의 고객 기관을 확보하고 있으며, 대기업과 스타트업, 학교, AI 연구실 등 다양한 고객층에서 활용되고 있다. 정부 주도의 'AI 특화 파운데이션 모델 프로젝트 사업'에 고성능 GPU 인프라를 공급하는 한편, 산업용 로봇 개발사와 의료 AI 스타트업 등 제조∙의료∙공공 분야 전반에서 AI 전환(AX) 성과 확산을 이끌고 있다. 김재원 엘리스그룹 대표는 “국내 AI 인프라 확장이 본격화되는 시점에 클라우드 산업발전 유공 표창을 받게 돼 큰 책임감을 느낀다”며 “내년에 고성능 GPU 1만 장 규모의 인프라 구축을 통해 누구나 필요한 만큼 AI를 잘 활용할 수 있는 환경을 조성하고, 국내 AI 산업의 글로벌 도약을 적극 뒷받침하겠다”고 말했다. 또 “모듈형 AIDC 인프라부터 산업별 AI 솔루션, 교육과 에이전트까지 연결하는 AI 풀스택 기업으로서 기업과 기관의 실질적인 AI 전환 성과를 만들어가겠다”고 덧붙였다.

2025.12.19 09:54백봉삼

앤트로픽, 구글 TPU 핵심 파트너와 AI 데이터센터 구축 '박차'

인공지능(AI) 인프라 경쟁이 본격화되는 가운데, 앤트로픽이 구글의 핵심 파트너로 떠오른 네오클라우드 기업 플루이드스택과 초대형 데이터센터 구축에 박차를 가한다. 18일 월스트리트저널(WSJ)에 따르면 플루이드스택은 미국 루이지애나주에 건설되는 대규모 AI 데이터센터에서 앤트로픽이 활용할 고성능 컴퓨팅 클러스터 운영을 맡게 됐다. 해당 프로젝트는 단계별로 확장되는 구조로, 초기에는 약 245메가와트(MW) 규모의 연산 용량이 제공될 예정이다. 이 인프라는 앤트로픽이 대규모 언어모델(LLM)을 학습·운영·확장하는 데 활용된다 . 이번 협력에서 플루이드스택은 단순 임대 사업자를 넘어 AI 연산 인프라 운영의 중심 역할을 맡는다. 회사는 구글 텐서처리장치(TPU) 생태계의 핵심 파트너로, 최근 '제미나이 3' 학습용 TPU 인프라를 공급하며 급부상했다. TPU 중심 전략을 앞세워 AI 모델 개발사들의 엔비디아 그래픽처리장치(GPU) 의존도를 낮추는 동시에 대형 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축에 속도를 내고 있다 . 플루이드스택은 현재 약 7억 달러(약 1조345억원) 규모의 신규 투자 유치를 추진 중이며 투자 성사 시 기업가치는 70억 달러(약 10조원)에 이를 것으로 전망된다. 구글과 골드만삭스가 투자 논의에 참여한 것으로 알려졌고 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 공개했다. 이는 글로벌 AI 인프라 수요가 급증하는 가운데, 기술 기업과 금융권이 결합한 새로운 데이터센터 투자 모델을 대표하는 사례로 평가된다. 앤트로픽 역시 공격적인 인프라 투자에 나서고 있다. 회사는 총 500억 달러(약 73조원)를 투입해 미국 내 맞춤형 AI 데이터센터를 구축할 계획이며 텍사스와 뉴욕을 시작으로 내년부터 순차 가동한다. 이 과정에서 플루이드스택과의 협력은 앤트로픽이 안정적인 연산 자원과 전력을 확보하는 핵심 축으로 작동할 전망이다. 업계에서는 앤트로픽의 대규모 인프라 투자가 오픈AI, 메타 등 경쟁사들의 초대형 프로젝트에 대응하기 위한 전략적 선택으로 보고 있다. 생성형 AI 성능 경쟁이 연산 능력과 전력 확보 경쟁으로 확산되면서 클라우드 사업자의 위상도 빠르게 높아지고 있다는 분석이 나온다. 플루이드스택이 단기간에 구글과 앤트로픽을 지원하는 글로벌 AI 인프라 핵심 사업자로 부상한 배경도 이같은 흐름과 맞물려 있다 . 앤트로픽은 "이번 데이터센터 구축을 통해 보다 강력하고 안전한 AI 시스템을 개발하고 과학적 발견과 산업 전반의 혁신을 가속화할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.18 13:31한정호

삼성전자, 엔비디아향 '소캠2' 공급 임박…샘플 평가·표준화 협력

삼성전자와 엔비디아가 AI 메모리 분야에서 긴밀한 협력을 더 강화하고 있다. LPDDR(저전력 D램) 기반 차세대 서버 메모리 모듈에 대한 평가를 진행 중인 것은 물론, 공식 표준화 작업도 함께 진행 중이다. 양사 간 협업은 내년 초부터 본격적인 시너지 효과를 발휘할 것으로 기대된다. 삼성전자는 18일 공식 뉴스룸을 통해 고객사에 SOCAMM(소캠; Small Outline Compression Attached Memory Module)2 샘플을 공급하고 있다고 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈로, 저전력 D램인 LPDDR을 4개씩 집적한다. 기존 모듈(RDIMM) 대비 데이터 전송 통로인 I/O(입출력단자) 수가 많아, 데이터 처리 성능의 척도인 대역폭이 높다는 장점이 있다. 소캠2는 2세대 소캠으로서, RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공한다. 또한 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장해야 했지만, 소캠2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있다. 삼성전자가 개발한 소캠2는 내년 초부터 본격 상용화될 전망이다. 현재 삼성전자는 1b(5세대 10나노급) D램을 기반으로 소캠2를 개발해, 주요 고객사인 엔비디아와 퀄(품질) 테스트를 거치고 있는 것으로 알려졌다. 삼성전자는 "서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다"며 "특히 엔비디아와의 기술 협업을 통해 소캠2를 엔비디아 가속 인프라에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다"고 밝혔다. 소캠2의 공식 표준화 작업도 마무리 단계에 접어들었다. 현재 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다. 디온 헤리스 엔비디아 HPC 및 AI 인프라 솔루션 총괄 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 피지컬 AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며 "삼성전자와의 지속적인 기술 협력을 통해 소캠2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

2025.12.18 11:04장경윤

SK하이닉스 32Gb 서버용 D램, 업계 첫 인텔 호환성 검증

SK하이닉스가 업계 최초로 10나노급 5세대(1b) 32Gb 기반 고용량 서버용 D램 모듈 제품인 256GB DDR5 RDIMM을 인텔 '제온 6' 플랫폼에 적용하기 위한 '인텔 데이터센터 인증' 절차를 통과했다고 18일 밝혔다. RDIMM은 메모리 모듈 내에 메모리 컨트롤러와 D램 칩 사이에 주소, 명령 신호를 중계해주는 레지스터 또는 버퍼 칩을 추가한 서버·워크스테이션용 D램 모듈이다. 이번 인증 절차는 미국에 위치한 인텔의 첨단 연구시설인 어드밴스드 데이터센터 디벨롭먼트 랩에서 진행됐다. 이 곳에서 SK하이닉스는 수차례의 다면 평가를 거쳐 이번 제품이 제온 플랫폼과 결합했을 때 신뢰할 수 있는 성능과 호환성, 품질을 갖췄다는 결과를 얻었다. 회사는 이에 앞서 올해 1월, 10나노급 4세대(1a) 16Gb 기반 256GB 제품에 대한 인증도 받은 바 있다. SK하이닉스는 "서버용 CPU 시장을 선도하는 인텔의 최신 서버 플랫폼과의 호환성을 업계 최초로 검증 받으며 당사의 고용량 DDR5 모듈 기술력이 글로벌 최고 수준임을 입증했다"며 "이를 발판으로 글로벌 주요 데이터센터 사업자들과의 협력을 확대하고, 급증하는 서버 고객들의 수요에 적기 대응해 차세대 메모리 시장 리더십을 이어 가겠다"고 강조했다. 차세대 AI 인프라에서 메모리는 성능을 좌우하는 핵심 요소로 부상하고 있다. 최근 AI 추론 모델들이 단순 답변 생성을 넘어 복잡한 논리적 사고 과정을 수행하면서, 실시간으로 처리해야 하는 데이터량이 기하급수적으로 늘어나고 있기 때문이다. 방대한 데이터를 빠르고 안정적으로 처리하려면 고용량·고성능 메모리가 필수적이며, 이에 따른 시장 수요도 급증하고 있다. 회사는 이번 제품이 늘어나는 시장 수요에 부응하는 최적의 설루션이라고 강조했다. 회사 개발진은 "이번 제품을 탑재한 서버는 32Gb 128GB 제품을 채용했을 때 대비 16% 추론 성능이 향상된다"며 "32Gb D램 단품 칩을 활용한 설계로 전력 소모량도 기존 1a 기반 16Gb 256GB 제품보다 최대 약 18%까지 줄였다"고 설명했다. 이에 따라, 전성비를 중시하는 데이터센터 고객들의 높은 관심이 예상된다. 이상권 SK하이닉스 부사장(DRAM상품기획 담당)은 “서버용 DDR5 D램 시장에서 주도권을 확실히 하면서 고객 요구에 신속하게 대응할 수 있게 됐다”며 “풀 스택 AI 메모리 크리에이터로서 고성능·저전력·고용량 메모리 수요 확산에 적극 대응해 고객들의 만족을 이끌어 내겠다”고 말했다. 디미트리오스 지아카스 인텔 플랫폼 아키텍처 부사장은 "양사가 긴밀히 협력해 기술 완성도를 높인 결과 좋은 성과를 거뒀고, 메모리 기술 발전에도 기여하게 됐다"며 "고용량 모듈은 급증하는 AI 워크로드(Workload) 수요에 대응하며, 데이터센터 고객들이 원하는 성능과 효율성도 크게 향상시킬 것"이라고 말했다.

2025.12.18 09:39장경윤

'AI 바람' 탄 마이크론, 영업익 168% 증가 '어닝 서프라이즈'

미국 메모리 반도체 기업 마이크론이 시장 기대를 크게 웃도는 분기 실적과 강력한 실적 가이던스를 제시하며 인공지능(AI) 메모리 수요 확대를 다시 한 번 확인시켰다. 마이크론은 2026회계연도 1분기 매출이 전년 동기보다 56.7% 상승한 136억 달러(약 20조1천억원)로 집계됐다고 17일(현지시간) 발표했다. 영업이익은 64억2천만달러로 전년 동기 대비 168.1% 증가했다. 이 같은 실적은 월가 예상치를 훌쩍 뛰어넘는 결과다. 당초 월가 컨센서스(증권사 평균 전망치)는 매출 129억5천만 달러, 영업이익 54억1천만 달러였다. 실적 호조의 배경으로는 인공지능(AI)·데이터센터용 메모리 수요 확대가 꼽힌다. 마이크론은 고대역폭메모리(HBM)를 비롯해 AI 가속기와 서버에 탑재되는 D램, 낸드플래시 출하가 급증하면서 수익성이 크게 개선됐다고 설명했다. 특히 AI용 고부가 메모리 제품 비중이 확대되며 평균판매가격(ASP) 상승과 영업이익률 개선으로 이어졌다. 사업부별로는 클라우드 메모리 부문 매출이 52억8천400만 달러로 전년 대비 98% 늘었다. 모바일&클라이언트 부문 매출은 42억5천500만 달러로 63% 증가했고, 자동차&임베디드 부문 매출은 17억2천만 달러로 48.0% 증가했다. 코어 데이터센터 부문 매출은 23억7천900만 달러로 3% 늘었다. 향후 실적 전망도 시장 기대를 크게 웃돌았다. 마이크론은 2분기 매출 가이던스를 187억 달러로 제시했다. 이는 시장 컨센서스를 큰 폭으로 상회하는 수준이다. AI 메모리 중심의 성장세가 단기간에 꺾이지 않을 것으로 관측되는 이유다. 산제이 메흐로트라 마이크론 최고경영자(CEO)는 실적 발표에서 “AI가 메모리 산업 전반의 수요 구조를 변화시키고 있다”며 “데이터센터와 AI 고객을 중심으로 한 강한 수요 환경이 2026회계연도에도 지속될 것”이라고 말했다.

2025.12.18 08:42전화평

차세대 전력반도체 시장 키운다…"기술 자립률·국내 생산비중 2배 목표"

산업통상부(이하 산업부)는 지난 10일 발표한 'AI 시대, 반도체 산업전략'의 세부과제를 구체화하기 위해 산학연 관계자 100여명과 함께 그랜드머큐어 임피리얼 팰리스 서울 강남에서 '차세대 전력반도체 포럼'을 17일 개최했다. 차세대 전력반도체는 Si(실리콘) 대비 고온·고전압에서 효율이 높은 화합물 소재(SiC(탄화규소), GaN(질화갈륨) 등)를 활용한 반도체로, 첨단산업 핵심부품(AI 데이터센터·전기차·HVDC 등)에 활용될 것으로 전망된다. 추진단은 전력반도체 밸류체인별 앵커기업·참여기업·관련 기관 전문가로 구성되며, 차세대 전력반도체 기술로드맵 수립을 통해 차세대 전력반도체 개발과 제품 양산으로 이어질 수 있는 수요 연계형 R&D를 기획할 예정이다. 또한 추진단에서는 정례적인 포럼 개최를 통해 지역별 핵심거점 중심 전력반도체 인프라 구축 논의와 함께 국민성장펀드 및 반도체 특별법 운용 등 제도적 지원이 필요한 분야에 대해 각계 각층의 의견을 수렴하는 자문 역할을 담당할 계획이다. 산업부 관계자는 “첨단 산업에서는 반도체의 연산 능력도 중요하지만, 이제는 전력 효율과 내구성도 산업의 경쟁력을 좌우하는 핵심 요소가 됐다"며 "2030년까지 화합물 전력반도체 기술자립률과 국내 생산비중을 2배 확대할 수 있도록 산·학·연·관의 정례적인 소통 채널을 강화해 정책 역량을 집중할 계획”이라고 밝혔다.

2025.12.17 16:48장경윤

CJ올리브네트웍스, 전남 1호 데이터센터 잡았다…AI 인프라 사업 확장 가속

유인상 대표 체제에서 대외사업 확대에 속도를 높이고 있는 CJ올리브네트웍스가 시스템통합(SI) 기업에서 인공지능(AI) 인프라 기업으로 한 단계 성장할 수 있는 발판 마련에 나섰다. CJ올리브네트웍스는 전남 1호 데이터센터 '장성 파인데이터센터' 구축에 참여한다고 16일 밝혔다.앞서 전라남도는 지난 15일 장성군 남면 첨단3지구에서 '장성 파인데이터센터' 착공식을 개최하고 본격적인 데이터센터 구축에 돌입했다. 이 데이터센터는 오는 2028년 상반기 준공 및 가동 개시를 목표로 하고 있다. 전남 1호 데이터센터인 장성 파인데이터센터는 총 3천959억원 규모로 전라남도 장성군 남면 첨단3구에서 26MW급으로 조성된다. 정부의 '데이터센터 수도권 집중 완화 정책' 발표 이후 민간에 의해 첫 번째로 추진되는 사업으로, 전라남도 지역의 디지털 혁신의 거점이자 AI 산업 성장을 이끌 핵심 인프라가 될 것으로 예상된다. 전라남도는 이 데이터센터를 기반으로 '데이터센터 열관리 기술개발 실증사업', '지역주도형 AI대전환 프로젝트' 등을 추진하며 AI실증 R&D 교육 창업이 연계되는 AI혁신 생태계를 구축할 계획이다. CJ올리브네트웍스는 성공적인 장성 파인데이터센터 구현을 위해 MEP 사업(Mechanical·기계, Electrical·전력, Plumbing·수배전)에 참여한다. MEP는 데이터센터 구축에서 서버와 IT장비가 24시간 안정적으로 작동할 수 있도록 지원하는 핵심 요소다. AI 학습 및 추론에 사용되는 그래픽처리장치(GPU) 및 텐서처리장치(TPU)는 기존 중앙처리장치(CPU) 기반 서버보다 5배 이상의 전력 소모와 발열이 발생해 AI데이터센터 구축에는 일반 설비보다 높은 수준의 정밀도·복잡도·통합 능력이 요구된다. CJ올리브네트웍스는 송도 데이터센터 구축 및 운영을 통해 얻은 노하우와 제조물류 분야 EPC(설계-시공-운영) 사업 역량을 통합해 데이터센터의 고성능 AI 컴퓨팅 안전성을 보장한다는 계획이다. 이 외에도 이 회사는 AI, 빅데이터, 클라우드 등 지역의 AX 인재를 양성하는데 적극 협력한다는 방침이다. 특히 지역 거점 대학 및 공공기관과 연계해 전문 인력을 배출하고 관련 분야에 취업할 수 있도록 지원도 할 예정이다. 유인상 CJ올리브네트웍스 대표는 "전남 1호 데이터센터인 장성 파인데이터센터 구축 사업에 참여하게 돼 기쁘게 생각한다"며 "보유하고 있는 기술과 역량을 동원해 데이터센터의 안정화를 성공적으로 이끌고, 고객이 AI 사업을 마음껏 펼칠 수 있는 최적의 인프라 환경을 제공하겠다"고 밝혔다.

2025.12.16 17:25장유미

[현장] "AI가 두뇌라면 데이터는 혈액, 클라우드는 심장"…민관 인프라 협력 시동

"모두가 주연 배우인 인공지능(AI)에 주목할 때, 조연 배우인 데이터와 클라우드를 함께 챙겨야 성공적인 AI 생태계를 만들 수 있습니다." 과학기술정보통신부 류제명 차관은 16일 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간' 개막식에서 AI 시대 데이터와 클라우드의 중요성에 대해 이같이 강조했다. 올해 처음 개최된 데이터·클라우드 진흥주간은 과기정통부가 주최하고 한국지능정보사회진흥원(NIA), 정보통신산업진흥원(NIPA), 정보통신기획평가원(IITP), 한국데이터산업진흥원(K-DATA) 등이 공동으로 참여하는 국내 최대 규모의 데이터·클라우드 통합 행사다. '모두를 위한 AI, AI를 위한 데이터·클라우드'를 슬로건으로 이날부터 19일까지 나흘간 서울 코엑스에서 열린다. 류 차관은 개회사를 통해 "AI 성능과 국가 경쟁력의 핵심은 결국 양질의 데이터와 신뢰할 수 있는 클라우드에 있다"며 "AI가 두뇌라면 데이터는 혈액이고 클라우드는 혈액을 순환시키는 심장"이라고 말했다. 정부 차원의 전략도 공유했다. 그는 "국가AI전략위원회와 과학기술관계장관회의를 중심으로 범부처 역량을 결집한 전략적 대응 체계를 구축하고 있다"며 "독자적인 AI 생태계와 AI 고속도로를 만들어 국민 누구나 AI 혜택을 누리는 모두의 AI 사회를 구현하겠다"고 덧붙였다. 이번 개막식에서는 데이터·클라우드 분야 핵심 7개 기관과 협회가 참여하는 업무협약(MOU) 체결식도 함께 진행됐다. 이번 협약은 데이터와 클라우드를 기반으로 한 AI 혁신을 공동 추진하고 대한민국의 AI 3강 도약을 목표로 한다. MOU에는 한국지능정보사회진흥원·정보통신산업진흥원·정보통신기획평가원·한국데이터산업진흥원과 함께 한국클라우드산업협회·한국데이터산업협회·한국데이터센터연합회 등 총 7개 기관·협회가 참여했다. 각 기관은 전문성과 역할을 바탕으로 상호 협력 체계를 구축하기로 했다. 협약에 따라 이들 기관은 국가 데이터 인프라 구축, 공공부문 클라우드 전환 확대, AI 데이터 기반 연구개발(R&D) 지원, 산업 현장의 데이터 활용 촉진 등 전 주기에 걸쳐 협력한다. 데이터·클라우드 산업 경쟁력을 강화하고 기술 성과가 산업 생태계 전반으로 확산되도록 공동 대응한다는 계획이다. 이날 행사에는 국회 과학기술정보방송통신위원회 최민희 위원장을 비롯해 김현·최형두 의원의 영상 축사도 이어졌다. 국회는 데이터와 클라우드가 국가 전략 자산으로 자리 잡을 수 있도록 입법·제도적 지원을 이어가겠다는 뜻을 밝혔다. 이어진 기조연설에서 김동훈 NHN클라우드 대표는 AI 시대 데이터센터의 역할을 'AI 팩토리'로 정의하며 기존 데이터센터와는 다른 인프라 전환이 필요하다고 강조했다. 앞으로 고성능 그래픽처리장치(GPU), 대규모 전력, 첨단 냉각 기술이 결합된 AI 데이터센터가 필요하다는 설명이다. 김 대표는 "현재 데이터센터는 단순한 저장 공간이 아니라 AI 서비스를 생산하는 공장으로 진화하고 있다"며 "한국도 이러한 AI 팩토리 역량을 갖춰야 글로벌 경쟁에서 살아남을 수 있다"고 강조했다.

2025.12.16 16:19한정호

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호

"넷제로 달성할까"…MS, 탄소 제거 크래딧 추가 구매

마이크로소프트가 데이터센터 확장으로 늘어난 탄소량 줄이기에 나섰다. 14일 테크크런치 등 외신에 따르면 마이크로소프트는 미국 루이지애나에 위치한 바이오연료 공장으로부터 360만 메트릭톤 규모의 탄소 제거 크레딧을 구매한다고 발표했다. 해당 공장은 C2X가 소유하고 있으며 2029년 가동을 시작할 예정이다. 이 시설은 산림 폐기물을 원료로 메탄올을 생산하는 바이오에너지 공장이다. 생산된 메탄올은 선박과 항공기 연료로 사용되거나 화학 제조 원료로 활용된다. 공장이 가동되면 연간 50만 메트릭톤 이상의 메탄올을 생산할 계획이다. 이 과정에서 약 100만 메트릭톤의 이산화탄소가 포집돼 지하에 저장될 것으로 예상된다. 이를 통해 대기 중 탄소를 실제로 제거하는 효과를 낸다. 마이크로소프트는 직접 탄소를 제거하는 대신 외부 바이오에너지 시설에서 발생하는 탄소 제거 성과를 크레딧 형태로 구매하는 전략을 이어가고 있다. 최근 1년간 볼티드딥과 490만 메트릭톤, CO280과 370만 메트릭톤, 체스트넛 카본과 700만 메트릭톤 규모 계약을 잇따라 체결해 왔다. 마이크로소프트는 데이터센터를 빠르게 확장하면서 2030년까지 탄소 배출량보다 제거량을 늘리겠다는 목표 달성에 어려움을 겪고 있다. 이를 보완하기 위해 재생에너지와 원자력 전력 구매, 탄소 제거 크래딧 구매를 전략 방향으로 삼고 있다.

2025.12.14 10:36김미정

엔비디아 "데이터센터용 GPU 위치 등 추적 솔루션 개발 중"

엔비디아가 10일(현지시간) 데이터센터용 GPU의 상태와 작동 위치를 파악할 수 있는 소프트웨어 기반 모니터링 솔루션을 개발하고 있다고 밝혔다. 엔비디아는 공식 블로그에 올린 글에서 “AI 인프라의 규모와 복잡성이 커질수록 데이터센터 운영자는 성능, 온도, 전력 사용량 등 요소에 대한 지속적인 가시성이 필요하다”고 개발 배경을 설명했다. 엔비디아가 개발중인 솔루션은 데이터센터에 설치된 엔비디아 GPU를 모니터링할 수 있는 대시보드를 제공한다. 엔비디아 GPU를 도입한 고객사가 필요할 경우 자발적으로 설치하는 옵트인(opt-in) 방식이다. 엔비디아에 따르면 데이터센터 운영사는 전력 사용 급증을 추적해 에너지 예산을 준수하면서 와트당 성능을 극대화하고, GPU 활용률과 메모리 대역폭, 인터커넥트 상태를 플릿 전체에서 모니터링할 수 있다. 엔비디아는 제기될 수 있는 보안 우려에 대해 "이 서비스는 각 GPU 시스템이 외부 클라우드 서비스와 GPU 메트릭을 공유하는 방식으로 실시간 모니터링만 제공한다. 엔비디아 GPU에는 하드웨어 추적 기술이나 킬 스위치, 백도어가 없다"고 밝혔다. 엔비디아의 새 솔루션은 최근 강화되고 있는 미국의 AI 칩 수출 규제 논의와 맞물려 있다. 미국 정부는 중국을 비롯한 일부 국가에 대한 고성능 AI GPU 수출을 금지하고 있다. 의회 일각에서는 엔비디아 제품에 보다 강력한 추적·검증 기능을 탑재해야 한다는 요구가 제기되고 있다. 공화당 소속 톰 코튼 상원의원을 포함해 양당 의원들이 지지하는 '칩 보안법'(Chip Security Act)'은 첨단 AI 칩에 보안 및 위치 검증 기능을 의무화하는 내용을 담고 있다. 반면 중국 정부는 엔비디아 제품에 잠재적 모니터링 백도어와 보안 취약점이 존재한다는 점을 통보했으며, 국가안보 검토 이후 일부 고성능 칩, 특히 H200 제품의 도입을 제한하고 있다.

2025.12.14 09:29권봉석

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

오라클, 데이터센터 임대·투자 늘려…주가 11% 하락

오라클이 인공지능(AI) 수요 급증에 대응하기 위해 데이터센터 임대 약정과 인프라 투자 규모를 확대했다. 12일 CNBC 등 외신에 따르면 11월 말 기준 오라클 데이터센터와 클라우드 용량 관련 임대 약정 규모는 2천480억 달러(약 300조2천억원)에 이르는 것으로 나타났다. 회사는 이번 회계연도 자본적 지출 계획도 기존 350억 달러(약 44조1천500억원)에서 500억 달러(약 73조5천900억원)로 늘렸다. 오라클은 오픈AI, 메타, 엔비디아 등 주요 AI 고객사에 서버와 저장 장치, 그래픽처리장치(GPU) 접근 권한을 제공하는 클라우드 인프라 사업 투자를 강화했다. 특히 오픈AI는 지난 9월 오라클과 3천억 달러 규모 이용 약정을 체결하면서 핵심 고객사로 부상했다. 오라클은 자체 데이터센터 확장뿐 아니라 장기 임대 계약까지 늘려 인프라 확보 전략을 다변화하고 있다. 최근 임대 약정 규모는 8월 대비 148% 증가했으며, 여기에 100억 달러 규모 클라우드 용량 약정도 포함됐다. 오라클은 지난 11월 말 기준 총 부채는 운용 리스 부채를 합쳐 1천240억 달러를 넘어선 것으로 나타났다. 업계에선 일부 고객사가 자체 칩을 반입해 사용할 수 있는 구조가 마련되면 오라클의 비용 부담이 낮아질 수 있다는 전망도 나오고 있다. 한편 AI 인프라 수요는 계속 늘고 있지만, 오라클의 분기 매출은 시장 기대치에 미치지 못했다. 이에 따라 오라클 주가는 실적 발표 다음 날 약 11% 하락했다. 리시 잘루리아 애널리스트는 "투자자들은 오라클이 AI 데이터센터 구축 자금을 어떤 방식으로 마련할지에 대해 불안해하고 있다"고 지적했다. 더그 케어링 오라클 최고재무책임자(CFO)는 "우리는 공모 회사채, 은행 차입, 사모 부채 시장 등 다양한 부채 구조를 통해 필요한 자금을 확보할 수 있다"고 설명했다.

2025.12.12 10:30김미정

ACC 2025 찾은 관람객 "AI 풀스택 인상적"…실무형 혁신 전략 쏟아져

"모델 구축부터 재해복구(DR)까지 인공지능(AI) 서비스를 운영하는 데 필요한 '풀스택' 기술을 한 자리에서 접할 수 있어 정보가 머릿속에서 유기적으로 연결되는 느낌을 받았습니다." 글로벌 경기 침체 속에서 기업들이 단순한 AI 도입을 넘어 '실질적인 성과'를 고민하고 있는 가운데, 최신 IT 기술과 비즈니스 적용 해법을 확인할 수 있는 자리가 마련돼 업계의 높은 관심을 받았다. 지디넷코리아는 11일 서울 중구 신라호텔 다이너스티홀에서 'AI & Cloud Conference 2025(ACC 2025)' 행사를 개최했다. 이번 행사는 글로벌 구글 클라우드·삼성SDS·퓨어스토리지 등 국내외 주요 기업이 참여해 2026년을 선도할 비즈니스 전략과 AI·클라우드 혁신안 등을 제시했다. 또 현장에서는 생성형AI·인프라·보안 등 최신 솔루션을 보다 직접적으로 경험해 볼 수 있는 기업 전시 부스도 운영돼 관람객들의 이목을 집중시켰다. 행사장은 이른 아침부터 등록을 마친 관람객들로 붐볐다. 특히 올해 행사는 단순한 AI 기술의 신기함을 넘어, 기업 현장에 AI를 어떻게 도입하고 실질적인 성과를 낼 것인가에 대한 구체적인 해법을 찾는 실무자들의 발길이 이어졌다. 이날 첫 번째 키노트로 나선 구글 클라우드 안영균 엔터프라이즈 파트너십 헤드는 이제는 AI를 도구가 아닌 '만능 비서'로 봐야 한다며 행사의 포문을 열었다. 이어 퓨어스토리지 김영석 상무, 뉴타닉스 마이클 신 전무, 알리바바 클라우드 임종진 테크리드, 삼성SDS 최정진 그룹장이 연단에 올라 AI 인프라와 재해복구(DR) 전략 등 심도 있는 인사이트를 공유했다. 오후에는 트랙 A·B로 나눠 ▲바이트플러스 ▲Odoo ▲배스트데이터 ▲오픈서베이 ▲아카마이 ▲HPE ▲래블업 ▲나무기술 등이 각 기업 환경에 맞춘 구체적인 기술 도입 사례와 운영 전략을 발표해 호응을 얻었다. 다양한 AI 솔루션을 주제로 진행된 행사인 만큼 부스를 찾은 참관객들의 반응도 뜨거웠다. 특히 보안과 비용 효율성을 강조한 부스들에 실무자들의 발길이 이어졌다. HPE 부스에서는 AI와 머신러닝(ML) 이더넷 패브릭 환경에서 고용량 스파인 및 리프 스위치로 활용되는 'QFX5230'의 실물이 전시돼 관람객들의 기술적 호기심을 자극했다. 또 '앱스트라 데이터센터 디렉터' 사용자화면(UI)을 통해 데이터센터 네트워크 최적화 방안을 직접 시연해 눈길을 끌었다. 래블업 부스에서는 단 2대의 서버로 120B(1천200억 파라미터) 규모의 거대언어모델(LLM)을 구동하는 시연이 주목받았다. 래블업 관계자는 "보안 문제로 외부망 사용이 어려운 기업들을 위해 온프레미스 환경에서도 효율적인 AI 구축이 가능하다는 점을 강조하고 있다"고 설명했다. 바이트플러스는 AI 영상 생성 기술로 관람객을 사로잡았다. 립싱크뿐만 아니라 영상 생성까지 가능한 기능들을 선보였다. 바이트플러스 관계자는 "콘솔 하나로 클라우드와 AI 제품을 통합 관리할 수 있어 아마존웹서비스(AWS)처럼 편리하게 사용할 수 있다"고 소개했다. 아카마이는 엔비디아와 협업한 GPU 모델 제공과 AI 보안 솔루션을 소개하며 'AI 인프라 기업'으로서의 확장을 알렸다. 이날 행사를 찾은 한 IT 기업 관계자는 "보통 세미나는 단편적인 정보에 그치기 쉬운데 이번 행사는 AI 도입의 전체 과정을 빠짐없이 설명하려는 진심이 느껴졌다"며 "파편화된 정보들이 융합돼 인프라 구축과 서비스 운영에 대한 명확한 인사이트를 얻을 수 있었다"고 호평했다. 현장의 디지털 전환을 고민하며 행사장을 찾은 의료 업계 관계자는 "폐쇄망을 사용하는 병원 환경에서 클라우드와 자체 구축 사이의 인프라 해법을 찾기 위해 컨퍼런스와 부스를 주의 깊게 살펴봤다"고 말했다.

2025.12.11 16:58진성우

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

[AI는 지금] "13억 인도 시장 잡아라"…AWS·구글 이어 MS도 돈 보따리 푼다

아마존, 구글에 이어 마이크로소프트(MS)가 인도 클라우드 및 인공지능(AI) 인프라 증설을 위해 대규모 투자에 나선다. 13억 인구가 이끄는 디지털 서비스 수요 폭증과 정부 행정의 디지털화, 전자상거래·핀테크 성장세가 맞물리며 글로벌 빅테크들의 자금이 인도로 빠르게 몰리는 모양새다.로이터통신 등 외신에 따르면 사티아 나델라 MS 최고경영자(CEO)는 9일(현지시간) 나렌드라 모디 총리와 인도서 회동 후 2026년부터 4년간 175억 달러(약 26조원)를 투자하겠다고 밝혔다. 이는 MS의 아시아 시장 투자 중 최대 규모로, 올해 초 발표한 30억 달러 투자의 연장선상이다. 모디 총리와 나델라 CEO는 이번 회동에서 인도의 AI 전략 및 기술주권 강화 방안을 논의했다. 또 MS는 이번 투자를 통해 하이데라바드, 푸네 등 도시에 초대형(하이퍼스케일) 클라우드 인프라를 추가로 구축하고, 국가 플랫폼 AI 내재화, AI 전문 인재 양성 등에도 자금을 투입키로 했다. MS가 1년도 지나지 않아 인도 투자 규모를 6배 가까이 키운 것은 글로벌 빅테크들의 투자 경쟁이 본격화되고 있어서다. 인도는 MS·아마존웹서비스(AWS)·구글 등 세 기업 모두 100억 달러 이상 베팅한 드문 신흥시장이다. 글로벌 클라우드 기업들에게 인도는 '차세대 하이퍼스케일 격전지'로 자리잡았다는 평가를 받고 있다.실제 AWS는 오는 2030년까지 인도 텔랑가나·마하라슈트라 등지에 총 127억 달러(약 18조1천293억원)를 투입해 클라우드·AI 인프라를 확충하겠다는 계획을 내놓은 상태다. 이 과정에서 2016~2022년 사이 이미 37억 달러를 선제적으로 투자한 데 이어 중소기업 1천500만 곳과 학생 400만 명에게 AI 교육과 도구를 제공하는 로드맵도 함께 제시했다. 구글 역시 지난 10월 안드라프라데시 비사카파트남에 자사의 첫 '기가와트(GW)급 AI 허브'를 구축하기 위해 150억 달러를 투자하겠다고 발표했다. 이 허브는 대규모 데이터센터·광케이블망·전력 인프라가 통합된 형태로, 미국 외 지역에서 구글이 단행한 최대 규모 AI 인프라 투자다. 여기에 인도 재벌 리라이언스와 캐나다 브룩필드 합작사인 '디지털 커넥션'은 비사카파트남에 1GW 규모 AI 데이터센터 단지를 구축하기 위해 110억 달러를 투자한다고 밝혔다. 일본의 NTT와 인도 기업 요타(Yotta)·컨트롤에스(CtrlS) 등도 대규모 데이터센터 및 GPU 인프라 투자 계획을 잇따라 발표했다. 챗GPT 개발사인 오픈AI도 인도 남부 지역에 1GW 규모 데이터센터 설립을 위해 부지 물색에 나섰다. 인텔은 지난 8일 인도 뭄바이의 타타 일렉트로닉스와 제휴 협정을 체결하고 반도체 및 AI용 칩 제품 생산 협업을 추진하기로 했다.이처럼 인도는 글로벌 빅테크·현지 대기업·인프라 자본이 동시에 몰리며 '초거대 AI 집적지'가 형성돼 가는 분위기다. 또 각 기업들이 경쟁적으로 데이터센터 투자에 나서면서 AI 수요 급증 속 최대 수혜국 중 하나로 급부상했다. 이 같은 자금 쏠림의 가장 큰 배경은 확실한 수요와 성장 전망 덕분이다. 인도는 13억 명 인구와 급격히 증가하는 인터넷·스마트폰 보급률을 기반으로 전자상거래·핀테크·모빌리티·에듀테크 등 디지털 서비스 이용이 폭발적으로 증가하고 있다. 이로 인해 데이터센터 시장 규모도 빠르게 커지는 분위기다. 상업용부동산서비스업체 CBRE그룹에 따르면 인도 데이터센터 시장 규모는 2027년까지 1천억 달러(약 142조7천700억원) 규모로 성장할 것으로 추정된다. 또 업계에선 인도의 데이터센터 전력 수용 용량이 현재 약 1.3GW에서 2030년경 9GW 수준으로 7배 이상 확대될 것으로 전망했다. 이는 단순한 서버 증설을 넘어 국가 규모의 클라우드 트래픽 허브로 도약하는 수준이다. 인도 정부가 'AI 미션'과 '디지털 인디아' 프로젝트를 중심으로 공공 서비스의 디지털화를 가속하고 있다는 점도 매력 요소로 꼽힌다. 이곳은 금융·공공 데이터의 국내 저장을 요구하는 데이터 현지화 정책도 강화하고 있다. 최근에는 총 180억 달러 규모의 '인도 반도체 미션'을 통해 10개 반도체 프로젝트를 승인하며 칩 설계·제조·패키징·AI 인프라를 연결하는 산업 생태계를 구축하는 데도 속도를 내고 있다. MS가 이번 투자 발표에서 인도 내 AI 인재 양성 목표를 두 배인 2천만 명으로 확대한 것도 이러한 정부 전략과 궤를 같이한다. 지정학적 환경도 인도에 유리하게 작용하고 있다. 미·중 갈등 이후 글로벌 기술 기업들은 생산기지·데이터센터·R&D 허브를 중국·홍콩 중심에서 인도·동남아·중동으로 재배치하는 '차이나 플러스 원' 전략을 본격화하고 있다. 인도는 영어 기반 인력 생태계, 민주주의 국가의 제도적 안정성, 미국과의 전략적 협력 관계 등을 기반으로 '신뢰할 수 있는 기술 파트너'로 부상하고 있다는 평가가 나온다. 모디 총리 역시 이번 MS 투자 발표 직후 "이번 기회로 인도의 젊은 세대가 AI의 힘을 활용해 더 나은 미래를 만들 것"이라고 강조했다. 빅테크들의 인도 투자 전략을 보면 단순한 데이터센터 투자가 아니라 AI 전용 하드웨어 인프라·주권 클라우드·AI 거버넌스·대규모 AI 교육 프로그램이 결합된 '패키지형 진출'이란 점도 눈여겨 볼 요소다. AWS가 학생·중소기업 대상 AI 교육을 확대한 데 이어 MS가 교육 대상 인원을 2천만 명으로 늘린 것, 구글이 글로벌 해저케이블과 AI 데이터센터를 묶어 투자하는 것 모두 같은 흐름으로 읽힌다. 다만 일각에선 전력·수자원 부담, 지역별 전력망 격차, AI 인프라 투자 과열 가능성 등 리스크가 있다고 지적했다. GW 단위 데이터센터는 막대한 전력과 냉각 인프라가 필요하기 때문에 전력수급이 빠듯한 일부 지역에서는 공급이 뒤따르지 못할 수 있다는 우려가 나온다. 글로벌 금융시장에서는 AI 인프라 경쟁의 속도가 실제 수요를 앞지르는 'AI 버블' 가능성도 꾸준히 제기된다. 이 같은 상황 속에서도 인도는 소프트웨어 인력 공급지에서 AI·클라우드·반도체 인프라의 전면적 생산·운영 허브로 빠르게 전환하고 있다. 나델라 CEO는 소셜미디어(SNS)를 통해 "이번 투자가 인도의 'AI 퍼스트' 미래를 구축하는 데 필요한 인프라·기술·인재 역량을 뒷받침할 것"이라고 밝히며 인도 정부에 힘을 싣는 분위기다. 업계 관계자는 "이번 MS의 175억 달러 투자는 인도의 산업 전환 방향성을 더욱 명확히 하는 신호탄이 될 것"이라며 "앞으로 5~10년간 인도가 글로벌 AI 가치사슬에서 어떤 위치를 차지하게 될지, 빅테크·정부·현지 산업이 이를 어떻게 조율해 나갈지 주목된다"고 말했다.

2025.12.10 17:17장유미

HPE, 서버·네트워크 총판 통합…최종 4개사 유력 후보는

휴렛팩커드엔터프라이즈(HPE)가 제품군별로 나뉘어 있던 총판 체계를 하나로 통합하는 단일화 작업을 본격화한다. 이는 지난 7월 인수를 마무리한 주니퍼네트웍스와 기존 아루바 그리고 HPE 서버 사업을 유기적으로 결합해 인공지능(AI) 인프라 시너지를 극대화하려는 조치로 내년 국내 인프라 유통 판도에 지각변동이 예고된다. 10일 관련 업계에 따르면 HPE는 최근 국내 파트너사들에게 통합 총판 선정을 위한 정보요청서(RFI)를 배포했다. 현재 HPE 서버, 아루바, 주니퍼 등으로 분산된 10여 개의 총판사를 4개 내외로 압축하는 것이 골자다. HPE는 내년 1월 제안서 접수를 시작으로 2월 전략 발표와 3월 평가를 거쳐, 4월 중 최종 통합 총판을 선정할 계획이다. 이번 개편은 급성장하는 AI 및 클라우드 시장에 민첩하게 대응하기 위한 전략적 의도로 풀이된다. 최근 델 테크놀로지스, IBM 등 주요 경쟁사들이 서버와 스토리지는 물론 소프트웨어와 네트워크까지 통합 제공하는 AI 풀스택(Full Stack) 전략을 강화하는 추세다. HPE 역시 이 흐름에 맞춰 아루바의 무선 기술과 주니퍼의 유선·데이터센터 네트워크 기술을 HPE의 서버·스토리지 포트폴리오와 결합해 단일 공급망으로 제공하겠다는 복안이다. 한 업계 관계자는 "HPE 본사가 글로벌 파트너십 단순화 전략의 일환으로 국가별 총판 수를 최적화하려는 움직임을 보이고 있다"며 "단순히 제품을 유통하는 것을 넘어, 데이터센터 설계부터 구축까지 원스톱으로 지원 가능한 파트너를 찾으려는 것으로 예상된다"고 분석했다. 이번 선정 과정의 최대 승부처는 네트워크 통합 역량이 될 전망이다. 서버·스토리지는 매출 규모가 크지만 마진율이 낮은 반면, 네트워크 사업은 상대적으로 수익성이 높고 고도의 기술 지원이 요구되기 때문이다. HPE 입장에서는 무선과 유선·데이터센터 네트워크 역량을 결합해, 단순 하드웨어 공급을 넘어 AI 인프라 환경 전반을 설계할 수 있는 환경을 조성할 것으로 예상된다. 이에 따라 국내 주요 IT 유통사들 간의 물밑 경쟁도 치열해지고 있다. 업계에서는 이번 경쟁 구도에서 에티버스, 아이티센그룹, 에스넷그룹, 동국시스템즈가 최종 통합 총판으로 선정될 가능성이 높은 것으로 점치고 있다. 이들 기업은 기존 HPE 서버 및 스토리지 사업에서 탄탄한 입지를 다져왔거나 아루바·주니퍼 등 네트워크 솔루션 분야에서 전문성을 입증해온 곳들이다. 특히 에티버스와 동국시스템즈는 압도적인 서버 유통 물량과 영업망을 강점으로 내세우고 있으며 아이티센그룹과 에스넷그룹은 네트워크 기술력과 계열사 시너지를 바탕으로 'AI 풀스택' 수행 능력을 강조하며 경쟁 우위를 점하겠다는 전략이다. 이번 개편에 대해 HEP 측은 현재 진행하고 있는 것은 맞지만 정확한 사안을 공개하긴 어렵다고 답했다. 한 업계관계자는 "이번 총판 개편은 단순히 유통 채널을 줄이는 차원이 아니라, AI 시대에 맞춰 국내 IT 인프라 공급망을 재편하는 하기 위한 신호탄"이라며 "최종 선정되는 기업들은 HPE의 포트폴리오를 독점적으로 공급하며 내년도 시장 주도권을 쥐게 될 것"이라고 내다봤다.

2025.12.10 16:12남혁우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

AI, 추론 모델→행동도구로…'월드모델' 경쟁 불붙는다

디지털 자산 2단계 법안 통과?…"한은 신경써야 하냐?"

로봇이 차 만들고 로봇개가 품질검사…현대차그룹 '제조혁신' 가속

새해 AI 반도체 지도 바뀐다…메모리·시스템 신성장 국면 도래

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.