• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터센터'통합검색 결과 입니다. (505건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엘리스그룹, AI 클라우드 인프라 혁신으로 과기정통부 장관 표창 수상

엘리스그룹(대표 김재원)이 18일 서울 코엑스에서 열린 '2025 데이터∙클라우드 산업 진흥 유공자 표창 시상식'에서 클라우드 산업발전 유공 부문 과학기술정보통신부 장관 표창을 수상했다. 과학기술정보통신부가 주최하고, 정보통신산업진흥원(NIPA)과 한국지능정보사회진흥원(NIA)이 주관하는 '클라우드 산업발전 유공 표창'은 클라우드 산업 활성화와 클라우드 컴퓨팅 기술 발전에 기여한 유공자 및 기관을 선정해 수여하는 상이다. 정책 및 기술 개발은 물론, 민간과 공공부문의 클라우드 도입 확산에 대한 기여도를 평가한다. 엘리스그룹은 수랭식 B200 기반 고성능 AI 데이터센터를 구축하고, 자체 기술 기반의 AI 클라우드 인프라를 산업 전반에 확산시켜 국내 AI 생태계 활성화에 기여한 점을 인정받아 '미래선도∙산업고도화' 분야에서 표창을 수상했다. 특히, 고성능∙고효율 모듈형 데이터센터 '엘리스 AI PMDC'와 AI 전용 IaaS 'ECI(Elice Cloud Infrastructure)'를 중심으로, 기업과 연구기관이 대규모 GPU 자원을 보다 유연하고 안정적으로 활용할 수 있는 AI 클라우드 환경을 제공하고 있다. 이와 함께 제조∙의료∙공공 등 산업별 특화 AI 솔루션, 교육 현장을 위한 AI 교육∙평가 플랫폼, 업무 생산성을 높이는 생성형 AI 솔루션 및 에이전트까지 확장하며 데이터센터 인프라부터 AI 서비스 레이어까지 이어지는 AI 풀스택 역량을 확보했다. 현재 엘리스클라우드는 4천800개 이상의 고객 기관을 확보하고 있으며, 대기업과 스타트업, 학교, AI 연구실 등 다양한 고객층에서 활용되고 있다. 정부 주도의 'AI 특화 파운데이션 모델 프로젝트 사업'에 고성능 GPU 인프라를 공급하는 한편, 산업용 로봇 개발사와 의료 AI 스타트업 등 제조∙의료∙공공 분야 전반에서 AI 전환(AX) 성과 확산을 이끌고 있다. 김재원 엘리스그룹 대표는 “국내 AI 인프라 확장이 본격화되는 시점에 클라우드 산업발전 유공 표창을 받게 돼 큰 책임감을 느낀다”며 “내년에 고성능 GPU 1만 장 규모의 인프라 구축을 통해 누구나 필요한 만큼 AI를 잘 활용할 수 있는 환경을 조성하고, 국내 AI 산업의 글로벌 도약을 적극 뒷받침하겠다”고 말했다. 또 “모듈형 AIDC 인프라부터 산업별 AI 솔루션, 교육과 에이전트까지 연결하는 AI 풀스택 기업으로서 기업과 기관의 실질적인 AI 전환 성과를 만들어가겠다”고 덧붙였다.

2025.12.19 09:54백봉삼

앤트로픽, 구글 TPU 핵심 파트너와 AI 데이터센터 구축 '박차'

인공지능(AI) 인프라 경쟁이 본격화되는 가운데, 앤트로픽이 구글의 핵심 파트너로 떠오른 네오클라우드 기업 플루이드스택과 초대형 데이터센터 구축에 박차를 가한다. 18일 월스트리트저널(WSJ)에 따르면 플루이드스택은 미국 루이지애나주에 건설되는 대규모 AI 데이터센터에서 앤트로픽이 활용할 고성능 컴퓨팅 클러스터 운영을 맡게 됐다. 해당 프로젝트는 단계별로 확장되는 구조로, 초기에는 약 245메가와트(MW) 규모의 연산 용량이 제공될 예정이다. 이 인프라는 앤트로픽이 대규모 언어모델(LLM)을 학습·운영·확장하는 데 활용된다 . 이번 협력에서 플루이드스택은 단순 임대 사업자를 넘어 AI 연산 인프라 운영의 중심 역할을 맡는다. 회사는 구글 텐서처리장치(TPU) 생태계의 핵심 파트너로, 최근 '제미나이 3' 학습용 TPU 인프라를 공급하며 급부상했다. TPU 중심 전략을 앞세워 AI 모델 개발사들의 엔비디아 그래픽처리장치(GPU) 의존도를 낮추는 동시에 대형 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축에 속도를 내고 있다 . 플루이드스택은 현재 약 7억 달러(약 1조345억원) 규모의 신규 투자 유치를 추진 중이며 투자 성사 시 기업가치는 70억 달러(약 10조원)에 이를 것으로 전망된다. 구글과 골드만삭스가 투자 논의에 참여한 것으로 알려졌고 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 공개했다. 이는 글로벌 AI 인프라 수요가 급증하는 가운데, 기술 기업과 금융권이 결합한 새로운 데이터센터 투자 모델을 대표하는 사례로 평가된다. 앤트로픽 역시 공격적인 인프라 투자에 나서고 있다. 회사는 총 500억 달러(약 73조원)를 투입해 미국 내 맞춤형 AI 데이터센터를 구축할 계획이며 텍사스와 뉴욕을 시작으로 내년부터 순차 가동한다. 이 과정에서 플루이드스택과의 협력은 앤트로픽이 안정적인 연산 자원과 전력을 확보하는 핵심 축으로 작동할 전망이다. 업계에서는 앤트로픽의 대규모 인프라 투자가 오픈AI, 메타 등 경쟁사들의 초대형 프로젝트에 대응하기 위한 전략적 선택으로 보고 있다. 생성형 AI 성능 경쟁이 연산 능력과 전력 확보 경쟁으로 확산되면서 클라우드 사업자의 위상도 빠르게 높아지고 있다는 분석이 나온다. 플루이드스택이 단기간에 구글과 앤트로픽을 지원하는 글로벌 AI 인프라 핵심 사업자로 부상한 배경도 이같은 흐름과 맞물려 있다 . 앤트로픽은 "이번 데이터센터 구축을 통해 보다 강력하고 안전한 AI 시스템을 개발하고 과학적 발견과 산업 전반의 혁신을 가속화할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.18 13:31한정호

삼성전자, 엔비디아향 '소캠2' 공급 임박…샘플 평가·표준화 협력

삼성전자와 엔비디아가 AI 메모리 분야에서 긴밀한 협력을 더 강화하고 있다. LPDDR(저전력 D램) 기반 차세대 서버 메모리 모듈에 대한 평가를 진행 중인 것은 물론, 공식 표준화 작업도 함께 진행 중이다. 양사 간 협업은 내년 초부터 본격적인 시너지 효과를 발휘할 것으로 기대된다. 삼성전자는 18일 공식 뉴스룸을 통해 고객사에 SOCAMM(소캠; Small Outline Compression Attached Memory Module)2 샘플을 공급하고 있다고 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈로, 저전력 D램인 LPDDR을 4개씩 집적한다. 기존 모듈(RDIMM) 대비 데이터 전송 통로인 I/O(입출력단자) 수가 많아, 데이터 처리 성능의 척도인 대역폭이 높다는 장점이 있다. 소캠2는 2세대 소캠으로서, RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공한다. 또한 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장해야 했지만, 소캠2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있다. 삼성전자가 개발한 소캠2는 내년 초부터 본격 상용화될 전망이다. 현재 삼성전자는 1b(5세대 10나노급) D램을 기반으로 소캠2를 개발해, 주요 고객사인 엔비디아와 퀄(품질) 테스트를 거치고 있는 것으로 알려졌다. 삼성전자는 "서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다"며 "특히 엔비디아와의 기술 협업을 통해 소캠2를 엔비디아 가속 인프라에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다"고 밝혔다. 소캠2의 공식 표준화 작업도 마무리 단계에 접어들었다. 현재 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다. 디온 헤리스 엔비디아 HPC 및 AI 인프라 솔루션 총괄 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 피지컬 AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며 "삼성전자와의 지속적인 기술 협력을 통해 소캠2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

2025.12.18 11:04장경윤

SK하이닉스 32Gb 서버용 D램, 업계 첫 인텔 호환성 검증

SK하이닉스가 업계 최초로 10나노급 5세대(1b) 32Gb 기반 고용량 서버용 D램 모듈 제품인 256GB DDR5 RDIMM을 인텔 '제온 6' 플랫폼에 적용하기 위한 '인텔 데이터센터 인증' 절차를 통과했다고 18일 밝혔다. RDIMM은 메모리 모듈 내에 메모리 컨트롤러와 D램 칩 사이에 주소, 명령 신호를 중계해주는 레지스터 또는 버퍼 칩을 추가한 서버·워크스테이션용 D램 모듈이다. 이번 인증 절차는 미국에 위치한 인텔의 첨단 연구시설인 어드밴스드 데이터센터 디벨롭먼트 랩에서 진행됐다. 이 곳에서 SK하이닉스는 수차례의 다면 평가를 거쳐 이번 제품이 제온 플랫폼과 결합했을 때 신뢰할 수 있는 성능과 호환성, 품질을 갖췄다는 결과를 얻었다. 회사는 이에 앞서 올해 1월, 10나노급 4세대(1a) 16Gb 기반 256GB 제품에 대한 인증도 받은 바 있다. SK하이닉스는 "서버용 CPU 시장을 선도하는 인텔의 최신 서버 플랫폼과의 호환성을 업계 최초로 검증 받으며 당사의 고용량 DDR5 모듈 기술력이 글로벌 최고 수준임을 입증했다"며 "이를 발판으로 글로벌 주요 데이터센터 사업자들과의 협력을 확대하고, 급증하는 서버 고객들의 수요에 적기 대응해 차세대 메모리 시장 리더십을 이어 가겠다"고 강조했다. 차세대 AI 인프라에서 메모리는 성능을 좌우하는 핵심 요소로 부상하고 있다. 최근 AI 추론 모델들이 단순 답변 생성을 넘어 복잡한 논리적 사고 과정을 수행하면서, 실시간으로 처리해야 하는 데이터량이 기하급수적으로 늘어나고 있기 때문이다. 방대한 데이터를 빠르고 안정적으로 처리하려면 고용량·고성능 메모리가 필수적이며, 이에 따른 시장 수요도 급증하고 있다. 회사는 이번 제품이 늘어나는 시장 수요에 부응하는 최적의 설루션이라고 강조했다. 회사 개발진은 "이번 제품을 탑재한 서버는 32Gb 128GB 제품을 채용했을 때 대비 16% 추론 성능이 향상된다"며 "32Gb D램 단품 칩을 활용한 설계로 전력 소모량도 기존 1a 기반 16Gb 256GB 제품보다 최대 약 18%까지 줄였다"고 설명했다. 이에 따라, 전성비를 중시하는 데이터센터 고객들의 높은 관심이 예상된다. 이상권 SK하이닉스 부사장(DRAM상품기획 담당)은 “서버용 DDR5 D램 시장에서 주도권을 확실히 하면서 고객 요구에 신속하게 대응할 수 있게 됐다”며 “풀 스택 AI 메모리 크리에이터로서 고성능·저전력·고용량 메모리 수요 확산에 적극 대응해 고객들의 만족을 이끌어 내겠다”고 말했다. 디미트리오스 지아카스 인텔 플랫폼 아키텍처 부사장은 "양사가 긴밀히 협력해 기술 완성도를 높인 결과 좋은 성과를 거뒀고, 메모리 기술 발전에도 기여하게 됐다"며 "고용량 모듈은 급증하는 AI 워크로드(Workload) 수요에 대응하며, 데이터센터 고객들이 원하는 성능과 효율성도 크게 향상시킬 것"이라고 말했다.

2025.12.18 09:39장경윤

'AI 바람' 탄 마이크론, 영업익 168% 증가 '어닝 서프라이즈'

미국 메모리 반도체 기업 마이크론이 시장 기대를 크게 웃도는 분기 실적과 강력한 실적 가이던스를 제시하며 인공지능(AI) 메모리 수요 확대를 다시 한 번 확인시켰다. 마이크론은 2026회계연도 1분기 매출이 전년 동기보다 56.7% 상승한 136억 달러(약 20조1천억원)로 집계됐다고 17일(현지시간) 발표했다. 영업이익은 64억2천만달러로 전년 동기 대비 168.1% 증가했다. 이 같은 실적은 월가 예상치를 훌쩍 뛰어넘는 결과다. 당초 월가 컨센서스(증권사 평균 전망치)는 매출 129억5천만 달러, 영업이익 54억1천만 달러였다. 실적 호조의 배경으로는 인공지능(AI)·데이터센터용 메모리 수요 확대가 꼽힌다. 마이크론은 고대역폭메모리(HBM)를 비롯해 AI 가속기와 서버에 탑재되는 D램, 낸드플래시 출하가 급증하면서 수익성이 크게 개선됐다고 설명했다. 특히 AI용 고부가 메모리 제품 비중이 확대되며 평균판매가격(ASP) 상승과 영업이익률 개선으로 이어졌다. 사업부별로는 클라우드 메모리 부문 매출이 52억8천400만 달러로 전년 대비 98% 늘었다. 모바일&클라이언트 부문 매출은 42억5천500만 달러로 63% 증가했고, 자동차&임베디드 부문 매출은 17억2천만 달러로 48.0% 증가했다. 코어 데이터센터 부문 매출은 23억7천900만 달러로 3% 늘었다. 향후 실적 전망도 시장 기대를 크게 웃돌았다. 마이크론은 2분기 매출 가이던스를 187억 달러로 제시했다. 이는 시장 컨센서스를 큰 폭으로 상회하는 수준이다. AI 메모리 중심의 성장세가 단기간에 꺾이지 않을 것으로 관측되는 이유다. 산제이 메흐로트라 마이크론 최고경영자(CEO)는 실적 발표에서 “AI가 메모리 산업 전반의 수요 구조를 변화시키고 있다”며 “데이터센터와 AI 고객을 중심으로 한 강한 수요 환경이 2026회계연도에도 지속될 것”이라고 말했다.

2025.12.18 08:42전화평

차세대 전력반도체 시장 키운다…"기술 자립률·국내 생산비중 2배 목표"

산업통상부(이하 산업부)는 지난 10일 발표한 'AI 시대, 반도체 산업전략'의 세부과제를 구체화하기 위해 산학연 관계자 100여명과 함께 그랜드머큐어 임피리얼 팰리스 서울 강남에서 '차세대 전력반도체 포럼'을 17일 개최했다. 차세대 전력반도체는 Si(실리콘) 대비 고온·고전압에서 효율이 높은 화합물 소재(SiC(탄화규소), GaN(질화갈륨) 등)를 활용한 반도체로, 첨단산업 핵심부품(AI 데이터센터·전기차·HVDC 등)에 활용될 것으로 전망된다. 추진단은 전력반도체 밸류체인별 앵커기업·참여기업·관련 기관 전문가로 구성되며, 차세대 전력반도체 기술로드맵 수립을 통해 차세대 전력반도체 개발과 제품 양산으로 이어질 수 있는 수요 연계형 R&D를 기획할 예정이다. 또한 추진단에서는 정례적인 포럼 개최를 통해 지역별 핵심거점 중심 전력반도체 인프라 구축 논의와 함께 국민성장펀드 및 반도체 특별법 운용 등 제도적 지원이 필요한 분야에 대해 각계 각층의 의견을 수렴하는 자문 역할을 담당할 계획이다. 산업부 관계자는 “첨단 산업에서는 반도체의 연산 능력도 중요하지만, 이제는 전력 효율과 내구성도 산업의 경쟁력을 좌우하는 핵심 요소가 됐다"며 "2030년까지 화합물 전력반도체 기술자립률과 국내 생산비중을 2배 확대할 수 있도록 산·학·연·관의 정례적인 소통 채널을 강화해 정책 역량을 집중할 계획”이라고 밝혔다.

2025.12.17 16:48장경윤

CJ올리브네트웍스, 전남 1호 데이터센터 잡았다…AI 인프라 사업 확장 가속

유인상 대표 체제에서 대외사업 확대에 속도를 높이고 있는 CJ올리브네트웍스가 시스템통합(SI) 기업에서 인공지능(AI) 인프라 기업으로 한 단계 성장할 수 있는 발판 마련에 나섰다. CJ올리브네트웍스는 전남 1호 데이터센터 '장성 파인데이터센터' 구축에 참여한다고 16일 밝혔다.앞서 전라남도는 지난 15일 장성군 남면 첨단3지구에서 '장성 파인데이터센터' 착공식을 개최하고 본격적인 데이터센터 구축에 돌입했다. 이 데이터센터는 오는 2028년 상반기 준공 및 가동 개시를 목표로 하고 있다. 전남 1호 데이터센터인 장성 파인데이터센터는 총 3천959억원 규모로 전라남도 장성군 남면 첨단3구에서 26MW급으로 조성된다. 정부의 '데이터센터 수도권 집중 완화 정책' 발표 이후 민간에 의해 첫 번째로 추진되는 사업으로, 전라남도 지역의 디지털 혁신의 거점이자 AI 산업 성장을 이끌 핵심 인프라가 될 것으로 예상된다. 전라남도는 이 데이터센터를 기반으로 '데이터센터 열관리 기술개발 실증사업', '지역주도형 AI대전환 프로젝트' 등을 추진하며 AI실증 R&D 교육 창업이 연계되는 AI혁신 생태계를 구축할 계획이다. CJ올리브네트웍스는 성공적인 장성 파인데이터센터 구현을 위해 MEP 사업(Mechanical·기계, Electrical·전력, Plumbing·수배전)에 참여한다. MEP는 데이터센터 구축에서 서버와 IT장비가 24시간 안정적으로 작동할 수 있도록 지원하는 핵심 요소다. AI 학습 및 추론에 사용되는 그래픽처리장치(GPU) 및 텐서처리장치(TPU)는 기존 중앙처리장치(CPU) 기반 서버보다 5배 이상의 전력 소모와 발열이 발생해 AI데이터센터 구축에는 일반 설비보다 높은 수준의 정밀도·복잡도·통합 능력이 요구된다. CJ올리브네트웍스는 송도 데이터센터 구축 및 운영을 통해 얻은 노하우와 제조물류 분야 EPC(설계-시공-운영) 사업 역량을 통합해 데이터센터의 고성능 AI 컴퓨팅 안전성을 보장한다는 계획이다. 이 외에도 이 회사는 AI, 빅데이터, 클라우드 등 지역의 AX 인재를 양성하는데 적극 협력한다는 방침이다. 특히 지역 거점 대학 및 공공기관과 연계해 전문 인력을 배출하고 관련 분야에 취업할 수 있도록 지원도 할 예정이다. 유인상 CJ올리브네트웍스 대표는 "전남 1호 데이터센터인 장성 파인데이터센터 구축 사업에 참여하게 돼 기쁘게 생각한다"며 "보유하고 있는 기술과 역량을 동원해 데이터센터의 안정화를 성공적으로 이끌고, 고객이 AI 사업을 마음껏 펼칠 수 있는 최적의 인프라 환경을 제공하겠다"고 밝혔다.

2025.12.16 17:25장유미

[현장] "AI가 두뇌라면 데이터는 혈액, 클라우드는 심장"…민관 인프라 협력 시동

"모두가 주연 배우인 인공지능(AI)에 주목할 때, 조연 배우인 데이터와 클라우드를 함께 챙겨야 성공적인 AI 생태계를 만들 수 있습니다." 과학기술정보통신부 류제명 차관은 16일 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간' 개막식에서 AI 시대 데이터와 클라우드의 중요성에 대해 이같이 강조했다. 올해 처음 개최된 데이터·클라우드 진흥주간은 과기정통부가 주최하고 한국지능정보사회진흥원(NIA), 정보통신산업진흥원(NIPA), 정보통신기획평가원(IITP), 한국데이터산업진흥원(K-DATA) 등이 공동으로 참여하는 국내 최대 규모의 데이터·클라우드 통합 행사다. '모두를 위한 AI, AI를 위한 데이터·클라우드'를 슬로건으로 이날부터 19일까지 나흘간 서울 코엑스에서 열린다. 류 차관은 개회사를 통해 "AI 성능과 국가 경쟁력의 핵심은 결국 양질의 데이터와 신뢰할 수 있는 클라우드에 있다"며 "AI가 두뇌라면 데이터는 혈액이고 클라우드는 혈액을 순환시키는 심장"이라고 말했다. 정부 차원의 전략도 공유했다. 그는 "국가AI전략위원회와 과학기술관계장관회의를 중심으로 범부처 역량을 결집한 전략적 대응 체계를 구축하고 있다"며 "독자적인 AI 생태계와 AI 고속도로를 만들어 국민 누구나 AI 혜택을 누리는 모두의 AI 사회를 구현하겠다"고 덧붙였다. 이번 개막식에서는 데이터·클라우드 분야 핵심 7개 기관과 협회가 참여하는 업무협약(MOU) 체결식도 함께 진행됐다. 이번 협약은 데이터와 클라우드를 기반으로 한 AI 혁신을 공동 추진하고 대한민국의 AI 3강 도약을 목표로 한다. MOU에는 한국지능정보사회진흥원·정보통신산업진흥원·정보통신기획평가원·한국데이터산업진흥원과 함께 한국클라우드산업협회·한국데이터산업협회·한국데이터센터연합회 등 총 7개 기관·협회가 참여했다. 각 기관은 전문성과 역할을 바탕으로 상호 협력 체계를 구축하기로 했다. 협약에 따라 이들 기관은 국가 데이터 인프라 구축, 공공부문 클라우드 전환 확대, AI 데이터 기반 연구개발(R&D) 지원, 산업 현장의 데이터 활용 촉진 등 전 주기에 걸쳐 협력한다. 데이터·클라우드 산업 경쟁력을 강화하고 기술 성과가 산업 생태계 전반으로 확산되도록 공동 대응한다는 계획이다. 이날 행사에는 국회 과학기술정보방송통신위원회 최민희 위원장을 비롯해 김현·최형두 의원의 영상 축사도 이어졌다. 국회는 데이터와 클라우드가 국가 전략 자산으로 자리 잡을 수 있도록 입법·제도적 지원을 이어가겠다는 뜻을 밝혔다. 이어진 기조연설에서 김동훈 NHN클라우드 대표는 AI 시대 데이터센터의 역할을 'AI 팩토리'로 정의하며 기존 데이터센터와는 다른 인프라 전환이 필요하다고 강조했다. 앞으로 고성능 그래픽처리장치(GPU), 대규모 전력, 첨단 냉각 기술이 결합된 AI 데이터센터가 필요하다는 설명이다. 김 대표는 "현재 데이터센터는 단순한 저장 공간이 아니라 AI 서비스를 생산하는 공장으로 진화하고 있다"며 "한국도 이러한 AI 팩토리 역량을 갖춰야 글로벌 경쟁에서 살아남을 수 있다"고 강조했다.

2025.12.16 16:19한정호

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호

"넷제로 달성할까"…MS, 탄소 제거 크래딧 추가 구매

마이크로소프트가 데이터센터 확장으로 늘어난 탄소량 줄이기에 나섰다. 14일 테크크런치 등 외신에 따르면 마이크로소프트는 미국 루이지애나에 위치한 바이오연료 공장으로부터 360만 메트릭톤 규모의 탄소 제거 크레딧을 구매한다고 발표했다. 해당 공장은 C2X가 소유하고 있으며 2029년 가동을 시작할 예정이다. 이 시설은 산림 폐기물을 원료로 메탄올을 생산하는 바이오에너지 공장이다. 생산된 메탄올은 선박과 항공기 연료로 사용되거나 화학 제조 원료로 활용된다. 공장이 가동되면 연간 50만 메트릭톤 이상의 메탄올을 생산할 계획이다. 이 과정에서 약 100만 메트릭톤의 이산화탄소가 포집돼 지하에 저장될 것으로 예상된다. 이를 통해 대기 중 탄소를 실제로 제거하는 효과를 낸다. 마이크로소프트는 직접 탄소를 제거하는 대신 외부 바이오에너지 시설에서 발생하는 탄소 제거 성과를 크레딧 형태로 구매하는 전략을 이어가고 있다. 최근 1년간 볼티드딥과 490만 메트릭톤, CO280과 370만 메트릭톤, 체스트넛 카본과 700만 메트릭톤 규모 계약을 잇따라 체결해 왔다. 마이크로소프트는 데이터센터를 빠르게 확장하면서 2030년까지 탄소 배출량보다 제거량을 늘리겠다는 목표 달성에 어려움을 겪고 있다. 이를 보완하기 위해 재생에너지와 원자력 전력 구매, 탄소 제거 크래딧 구매를 전략 방향으로 삼고 있다.

2025.12.14 10:36김미정

엔비디아 "데이터센터용 GPU 위치 등 추적 솔루션 개발 중"

엔비디아가 10일(현지시간) 데이터센터용 GPU의 상태와 작동 위치를 파악할 수 있는 소프트웨어 기반 모니터링 솔루션을 개발하고 있다고 밝혔다. 엔비디아는 공식 블로그에 올린 글에서 “AI 인프라의 규모와 복잡성이 커질수록 데이터센터 운영자는 성능, 온도, 전력 사용량 등 요소에 대한 지속적인 가시성이 필요하다”고 개발 배경을 설명했다. 엔비디아가 개발중인 솔루션은 데이터센터에 설치된 엔비디아 GPU를 모니터링할 수 있는 대시보드를 제공한다. 엔비디아 GPU를 도입한 고객사가 필요할 경우 자발적으로 설치하는 옵트인(opt-in) 방식이다. 엔비디아에 따르면 데이터센터 운영사는 전력 사용 급증을 추적해 에너지 예산을 준수하면서 와트당 성능을 극대화하고, GPU 활용률과 메모리 대역폭, 인터커넥트 상태를 플릿 전체에서 모니터링할 수 있다. 엔비디아는 제기될 수 있는 보안 우려에 대해 "이 서비스는 각 GPU 시스템이 외부 클라우드 서비스와 GPU 메트릭을 공유하는 방식으로 실시간 모니터링만 제공한다. 엔비디아 GPU에는 하드웨어 추적 기술이나 킬 스위치, 백도어가 없다"고 밝혔다. 엔비디아의 새 솔루션은 최근 강화되고 있는 미국의 AI 칩 수출 규제 논의와 맞물려 있다. 미국 정부는 중국을 비롯한 일부 국가에 대한 고성능 AI GPU 수출을 금지하고 있다. 의회 일각에서는 엔비디아 제품에 보다 강력한 추적·검증 기능을 탑재해야 한다는 요구가 제기되고 있다. 공화당 소속 톰 코튼 상원의원을 포함해 양당 의원들이 지지하는 '칩 보안법'(Chip Security Act)'은 첨단 AI 칩에 보안 및 위치 검증 기능을 의무화하는 내용을 담고 있다. 반면 중국 정부는 엔비디아 제품에 잠재적 모니터링 백도어와 보안 취약점이 존재한다는 점을 통보했으며, 국가안보 검토 이후 일부 고성능 칩, 특히 H200 제품의 도입을 제한하고 있다.

2025.12.14 09:29권봉석

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

오라클, 데이터센터 임대·투자 늘려…주가 11% 하락

오라클이 인공지능(AI) 수요 급증에 대응하기 위해 데이터센터 임대 약정과 인프라 투자 규모를 확대했다. 12일 CNBC 등 외신에 따르면 11월 말 기준 오라클 데이터센터와 클라우드 용량 관련 임대 약정 규모는 2천480억 달러(약 300조2천억원)에 이르는 것으로 나타났다. 회사는 이번 회계연도 자본적 지출 계획도 기존 350억 달러(약 44조1천500억원)에서 500억 달러(약 73조5천900억원)로 늘렸다. 오라클은 오픈AI, 메타, 엔비디아 등 주요 AI 고객사에 서버와 저장 장치, 그래픽처리장치(GPU) 접근 권한을 제공하는 클라우드 인프라 사업 투자를 강화했다. 특히 오픈AI는 지난 9월 오라클과 3천억 달러 규모 이용 약정을 체결하면서 핵심 고객사로 부상했다. 오라클은 자체 데이터센터 확장뿐 아니라 장기 임대 계약까지 늘려 인프라 확보 전략을 다변화하고 있다. 최근 임대 약정 규모는 8월 대비 148% 증가했으며, 여기에 100억 달러 규모 클라우드 용량 약정도 포함됐다. 오라클은 지난 11월 말 기준 총 부채는 운용 리스 부채를 합쳐 1천240억 달러를 넘어선 것으로 나타났다. 업계에선 일부 고객사가 자체 칩을 반입해 사용할 수 있는 구조가 마련되면 오라클의 비용 부담이 낮아질 수 있다는 전망도 나오고 있다. 한편 AI 인프라 수요는 계속 늘고 있지만, 오라클의 분기 매출은 시장 기대치에 미치지 못했다. 이에 따라 오라클 주가는 실적 발표 다음 날 약 11% 하락했다. 리시 잘루리아 애널리스트는 "투자자들은 오라클이 AI 데이터센터 구축 자금을 어떤 방식으로 마련할지에 대해 불안해하고 있다"고 지적했다. 더그 케어링 오라클 최고재무책임자(CFO)는 "우리는 공모 회사채, 은행 차입, 사모 부채 시장 등 다양한 부채 구조를 통해 필요한 자금을 확보할 수 있다"고 설명했다.

2025.12.12 10:30김미정

ACC 2025 찾은 관람객 "AI 풀스택 인상적"…실무형 혁신 전략 쏟아져

"모델 구축부터 재해복구(DR)까지 인공지능(AI) 서비스를 운영하는 데 필요한 '풀스택' 기술을 한 자리에서 접할 수 있어 정보가 머릿속에서 유기적으로 연결되는 느낌을 받았습니다." 글로벌 경기 침체 속에서 기업들이 단순한 AI 도입을 넘어 '실질적인 성과'를 고민하고 있는 가운데, 최신 IT 기술과 비즈니스 적용 해법을 확인할 수 있는 자리가 마련돼 업계의 높은 관심을 받았다. 지디넷코리아는 11일 서울 중구 신라호텔 다이너스티홀에서 'AI & Cloud Conference 2025(ACC 2025)' 행사를 개최했다. 이번 행사는 글로벌 구글 클라우드·삼성SDS·퓨어스토리지 등 국내외 주요 기업이 참여해 2026년을 선도할 비즈니스 전략과 AI·클라우드 혁신안 등을 제시했다. 또 현장에서는 생성형AI·인프라·보안 등 최신 솔루션을 보다 직접적으로 경험해 볼 수 있는 기업 전시 부스도 운영돼 관람객들의 이목을 집중시켰다. 행사장은 이른 아침부터 등록을 마친 관람객들로 붐볐다. 특히 올해 행사는 단순한 AI 기술의 신기함을 넘어, 기업 현장에 AI를 어떻게 도입하고 실질적인 성과를 낼 것인가에 대한 구체적인 해법을 찾는 실무자들의 발길이 이어졌다. 이날 첫 번째 키노트로 나선 구글 클라우드 안영균 엔터프라이즈 파트너십 헤드는 이제는 AI를 도구가 아닌 '만능 비서'로 봐야 한다며 행사의 포문을 열었다. 이어 퓨어스토리지 김영석 상무, 뉴타닉스 마이클 신 전무, 알리바바 클라우드 임종진 테크리드, 삼성SDS 최정진 그룹장이 연단에 올라 AI 인프라와 재해복구(DR) 전략 등 심도 있는 인사이트를 공유했다. 오후에는 트랙 A·B로 나눠 ▲바이트플러스 ▲Odoo ▲배스트데이터 ▲오픈서베이 ▲아카마이 ▲HPE ▲래블업 ▲나무기술 등이 각 기업 환경에 맞춘 구체적인 기술 도입 사례와 운영 전략을 발표해 호응을 얻었다. 다양한 AI 솔루션을 주제로 진행된 행사인 만큼 부스를 찾은 참관객들의 반응도 뜨거웠다. 특히 보안과 비용 효율성을 강조한 부스들에 실무자들의 발길이 이어졌다. HPE 부스에서는 AI와 머신러닝(ML) 이더넷 패브릭 환경에서 고용량 스파인 및 리프 스위치로 활용되는 'QFX5230'의 실물이 전시돼 관람객들의 기술적 호기심을 자극했다. 또 '앱스트라 데이터센터 디렉터' 사용자화면(UI)을 통해 데이터센터 네트워크 최적화 방안을 직접 시연해 눈길을 끌었다. 래블업 부스에서는 단 2대의 서버로 120B(1천200억 파라미터) 규모의 거대언어모델(LLM)을 구동하는 시연이 주목받았다. 래블업 관계자는 "보안 문제로 외부망 사용이 어려운 기업들을 위해 온프레미스 환경에서도 효율적인 AI 구축이 가능하다는 점을 강조하고 있다"고 설명했다. 바이트플러스는 AI 영상 생성 기술로 관람객을 사로잡았다. 립싱크뿐만 아니라 영상 생성까지 가능한 기능들을 선보였다. 바이트플러스 관계자는 "콘솔 하나로 클라우드와 AI 제품을 통합 관리할 수 있어 아마존웹서비스(AWS)처럼 편리하게 사용할 수 있다"고 소개했다. 아카마이는 엔비디아와 협업한 GPU 모델 제공과 AI 보안 솔루션을 소개하며 'AI 인프라 기업'으로서의 확장을 알렸다. 이날 행사를 찾은 한 IT 기업 관계자는 "보통 세미나는 단편적인 정보에 그치기 쉬운데 이번 행사는 AI 도입의 전체 과정을 빠짐없이 설명하려는 진심이 느껴졌다"며 "파편화된 정보들이 융합돼 인프라 구축과 서비스 운영에 대한 명확한 인사이트를 얻을 수 있었다"고 호평했다. 현장의 디지털 전환을 고민하며 행사장을 찾은 의료 업계 관계자는 "폐쇄망을 사용하는 병원 환경에서 클라우드와 자체 구축 사이의 인프라 해법을 찾기 위해 컨퍼런스와 부스를 주의 깊게 살펴봤다"고 말했다.

2025.12.11 16:58진성우

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

[AI는 지금] "13억 인도 시장 잡아라"…AWS·구글 이어 MS도 돈 보따리 푼다

아마존, 구글에 이어 마이크로소프트(MS)가 인도 클라우드 및 인공지능(AI) 인프라 증설을 위해 대규모 투자에 나선다. 13억 인구가 이끄는 디지털 서비스 수요 폭증과 정부 행정의 디지털화, 전자상거래·핀테크 성장세가 맞물리며 글로벌 빅테크들의 자금이 인도로 빠르게 몰리는 모양새다.로이터통신 등 외신에 따르면 사티아 나델라 MS 최고경영자(CEO)는 9일(현지시간) 나렌드라 모디 총리와 인도서 회동 후 2026년부터 4년간 175억 달러(약 26조원)를 투자하겠다고 밝혔다. 이는 MS의 아시아 시장 투자 중 최대 규모로, 올해 초 발표한 30억 달러 투자의 연장선상이다. 모디 총리와 나델라 CEO는 이번 회동에서 인도의 AI 전략 및 기술주권 강화 방안을 논의했다. 또 MS는 이번 투자를 통해 하이데라바드, 푸네 등 도시에 초대형(하이퍼스케일) 클라우드 인프라를 추가로 구축하고, 국가 플랫폼 AI 내재화, AI 전문 인재 양성 등에도 자금을 투입키로 했다. MS가 1년도 지나지 않아 인도 투자 규모를 6배 가까이 키운 것은 글로벌 빅테크들의 투자 경쟁이 본격화되고 있어서다. 인도는 MS·아마존웹서비스(AWS)·구글 등 세 기업 모두 100억 달러 이상 베팅한 드문 신흥시장이다. 글로벌 클라우드 기업들에게 인도는 '차세대 하이퍼스케일 격전지'로 자리잡았다는 평가를 받고 있다.실제 AWS는 오는 2030년까지 인도 텔랑가나·마하라슈트라 등지에 총 127억 달러(약 18조1천293억원)를 투입해 클라우드·AI 인프라를 확충하겠다는 계획을 내놓은 상태다. 이 과정에서 2016~2022년 사이 이미 37억 달러를 선제적으로 투자한 데 이어 중소기업 1천500만 곳과 학생 400만 명에게 AI 교육과 도구를 제공하는 로드맵도 함께 제시했다. 구글 역시 지난 10월 안드라프라데시 비사카파트남에 자사의 첫 '기가와트(GW)급 AI 허브'를 구축하기 위해 150억 달러를 투자하겠다고 발표했다. 이 허브는 대규모 데이터센터·광케이블망·전력 인프라가 통합된 형태로, 미국 외 지역에서 구글이 단행한 최대 규모 AI 인프라 투자다. 여기에 인도 재벌 리라이언스와 캐나다 브룩필드 합작사인 '디지털 커넥션'은 비사카파트남에 1GW 규모 AI 데이터센터 단지를 구축하기 위해 110억 달러를 투자한다고 밝혔다. 일본의 NTT와 인도 기업 요타(Yotta)·컨트롤에스(CtrlS) 등도 대규모 데이터센터 및 GPU 인프라 투자 계획을 잇따라 발표했다. 챗GPT 개발사인 오픈AI도 인도 남부 지역에 1GW 규모 데이터센터 설립을 위해 부지 물색에 나섰다. 인텔은 지난 8일 인도 뭄바이의 타타 일렉트로닉스와 제휴 협정을 체결하고 반도체 및 AI용 칩 제품 생산 협업을 추진하기로 했다.이처럼 인도는 글로벌 빅테크·현지 대기업·인프라 자본이 동시에 몰리며 '초거대 AI 집적지'가 형성돼 가는 분위기다. 또 각 기업들이 경쟁적으로 데이터센터 투자에 나서면서 AI 수요 급증 속 최대 수혜국 중 하나로 급부상했다. 이 같은 자금 쏠림의 가장 큰 배경은 확실한 수요와 성장 전망 덕분이다. 인도는 13억 명 인구와 급격히 증가하는 인터넷·스마트폰 보급률을 기반으로 전자상거래·핀테크·모빌리티·에듀테크 등 디지털 서비스 이용이 폭발적으로 증가하고 있다. 이로 인해 데이터센터 시장 규모도 빠르게 커지는 분위기다. 상업용부동산서비스업체 CBRE그룹에 따르면 인도 데이터센터 시장 규모는 2027년까지 1천억 달러(약 142조7천700억원) 규모로 성장할 것으로 추정된다. 또 업계에선 인도의 데이터센터 전력 수용 용량이 현재 약 1.3GW에서 2030년경 9GW 수준으로 7배 이상 확대될 것으로 전망했다. 이는 단순한 서버 증설을 넘어 국가 규모의 클라우드 트래픽 허브로 도약하는 수준이다. 인도 정부가 'AI 미션'과 '디지털 인디아' 프로젝트를 중심으로 공공 서비스의 디지털화를 가속하고 있다는 점도 매력 요소로 꼽힌다. 이곳은 금융·공공 데이터의 국내 저장을 요구하는 데이터 현지화 정책도 강화하고 있다. 최근에는 총 180억 달러 규모의 '인도 반도체 미션'을 통해 10개 반도체 프로젝트를 승인하며 칩 설계·제조·패키징·AI 인프라를 연결하는 산업 생태계를 구축하는 데도 속도를 내고 있다. MS가 이번 투자 발표에서 인도 내 AI 인재 양성 목표를 두 배인 2천만 명으로 확대한 것도 이러한 정부 전략과 궤를 같이한다. 지정학적 환경도 인도에 유리하게 작용하고 있다. 미·중 갈등 이후 글로벌 기술 기업들은 생산기지·데이터센터·R&D 허브를 중국·홍콩 중심에서 인도·동남아·중동으로 재배치하는 '차이나 플러스 원' 전략을 본격화하고 있다. 인도는 영어 기반 인력 생태계, 민주주의 국가의 제도적 안정성, 미국과의 전략적 협력 관계 등을 기반으로 '신뢰할 수 있는 기술 파트너'로 부상하고 있다는 평가가 나온다. 모디 총리 역시 이번 MS 투자 발표 직후 "이번 기회로 인도의 젊은 세대가 AI의 힘을 활용해 더 나은 미래를 만들 것"이라고 강조했다. 빅테크들의 인도 투자 전략을 보면 단순한 데이터센터 투자가 아니라 AI 전용 하드웨어 인프라·주권 클라우드·AI 거버넌스·대규모 AI 교육 프로그램이 결합된 '패키지형 진출'이란 점도 눈여겨 볼 요소다. AWS가 학생·중소기업 대상 AI 교육을 확대한 데 이어 MS가 교육 대상 인원을 2천만 명으로 늘린 것, 구글이 글로벌 해저케이블과 AI 데이터센터를 묶어 투자하는 것 모두 같은 흐름으로 읽힌다. 다만 일각에선 전력·수자원 부담, 지역별 전력망 격차, AI 인프라 투자 과열 가능성 등 리스크가 있다고 지적했다. GW 단위 데이터센터는 막대한 전력과 냉각 인프라가 필요하기 때문에 전력수급이 빠듯한 일부 지역에서는 공급이 뒤따르지 못할 수 있다는 우려가 나온다. 글로벌 금융시장에서는 AI 인프라 경쟁의 속도가 실제 수요를 앞지르는 'AI 버블' 가능성도 꾸준히 제기된다. 이 같은 상황 속에서도 인도는 소프트웨어 인력 공급지에서 AI·클라우드·반도체 인프라의 전면적 생산·운영 허브로 빠르게 전환하고 있다. 나델라 CEO는 소셜미디어(SNS)를 통해 "이번 투자가 인도의 'AI 퍼스트' 미래를 구축하는 데 필요한 인프라·기술·인재 역량을 뒷받침할 것"이라고 밝히며 인도 정부에 힘을 싣는 분위기다. 업계 관계자는 "이번 MS의 175억 달러 투자는 인도의 산업 전환 방향성을 더욱 명확히 하는 신호탄이 될 것"이라며 "앞으로 5~10년간 인도가 글로벌 AI 가치사슬에서 어떤 위치를 차지하게 될지, 빅테크·정부·현지 산업이 이를 어떻게 조율해 나갈지 주목된다"고 말했다.

2025.12.10 17:17장유미

HPE, 서버·네트워크 총판 통합…최종 4개사 유력 후보는

휴렛팩커드엔터프라이즈(HPE)가 제품군별로 나뉘어 있던 총판 체계를 하나로 통합하는 단일화 작업을 본격화한다. 이는 지난 7월 인수를 마무리한 주니퍼네트웍스와 기존 아루바 그리고 HPE 서버 사업을 유기적으로 결합해 인공지능(AI) 인프라 시너지를 극대화하려는 조치로 내년 국내 인프라 유통 판도에 지각변동이 예고된다. 10일 관련 업계에 따르면 HPE는 최근 국내 파트너사들에게 통합 총판 선정을 위한 정보요청서(RFI)를 배포했다. 현재 HPE 서버, 아루바, 주니퍼 등으로 분산된 10여 개의 총판사를 4개 내외로 압축하는 것이 골자다. HPE는 내년 1월 제안서 접수를 시작으로 2월 전략 발표와 3월 평가를 거쳐, 4월 중 최종 통합 총판을 선정할 계획이다. 이번 개편은 급성장하는 AI 및 클라우드 시장에 민첩하게 대응하기 위한 전략적 의도로 풀이된다. 최근 델 테크놀로지스, IBM 등 주요 경쟁사들이 서버와 스토리지는 물론 소프트웨어와 네트워크까지 통합 제공하는 AI 풀스택(Full Stack) 전략을 강화하는 추세다. HPE 역시 이 흐름에 맞춰 아루바의 무선 기술과 주니퍼의 유선·데이터센터 네트워크 기술을 HPE의 서버·스토리지 포트폴리오와 결합해 단일 공급망으로 제공하겠다는 복안이다. 한 업계 관계자는 "HPE 본사가 글로벌 파트너십 단순화 전략의 일환으로 국가별 총판 수를 최적화하려는 움직임을 보이고 있다"며 "단순히 제품을 유통하는 것을 넘어, 데이터센터 설계부터 구축까지 원스톱으로 지원 가능한 파트너를 찾으려는 것으로 예상된다"고 분석했다. 이번 선정 과정의 최대 승부처는 네트워크 통합 역량이 될 전망이다. 서버·스토리지는 매출 규모가 크지만 마진율이 낮은 반면, 네트워크 사업은 상대적으로 수익성이 높고 고도의 기술 지원이 요구되기 때문이다. HPE 입장에서는 무선과 유선·데이터센터 네트워크 역량을 결합해, 단순 하드웨어 공급을 넘어 AI 인프라 환경 전반을 설계할 수 있는 환경을 조성할 것으로 예상된다. 이에 따라 국내 주요 IT 유통사들 간의 물밑 경쟁도 치열해지고 있다. 업계에서는 이번 경쟁 구도에서 에티버스, 아이티센그룹, 에스넷그룹, 동국시스템즈가 최종 통합 총판으로 선정될 가능성이 높은 것으로 점치고 있다. 이들 기업은 기존 HPE 서버 및 스토리지 사업에서 탄탄한 입지를 다져왔거나 아루바·주니퍼 등 네트워크 솔루션 분야에서 전문성을 입증해온 곳들이다. 특히 에티버스와 동국시스템즈는 압도적인 서버 유통 물량과 영업망을 강점으로 내세우고 있으며 아이티센그룹과 에스넷그룹은 네트워크 기술력과 계열사 시너지를 바탕으로 'AI 풀스택' 수행 능력을 강조하며 경쟁 우위를 점하겠다는 전략이다. 이번 개편에 대해 HEP 측은 현재 진행하고 있는 것은 맞지만 정확한 사안을 공개하긴 어렵다고 답했다. 한 업계관계자는 "이번 총판 개편은 단순히 유통 채널을 줄이는 차원이 아니라, AI 시대에 맞춰 국내 IT 인프라 공급망을 재편하는 하기 위한 신호탄"이라며 "최종 선정되는 기업들은 HPE의 포트폴리오를 독점적으로 공급하며 내년도 시장 주도권을 쥐게 될 것"이라고 내다봤다.

2025.12.10 16:12남혁우

"韓, AI 데이터센터 구조 취약…비수도권 이전·전력 직거래 허용 필요"

한국 인공지능 데이터센터(AIDC) 구축 활성화를 위해 시설 비수도권 이전과 전력 직거래 규정 완화가 추진돼야 한다는 전문가 의견이 나왔다. 건국대 박종배 전기전자공학부 교수는 9일 국회 본청에서 열린 과학기술정보방송통신위원회 공청회에서 AIDC 구조 취약점 완화를 위해 이같이 제언했다. 박 교수는 AIDC가 AI 산업의 기반 시설로 자리 잡은 만큼 안정적·저탄소 전력 공급 능력이 국가 경쟁력을 좌우할 것이라고 주장했다. 박 교수는 국내 AIDC 경쟁력이 향후 글로벌 경쟁에서 뒤처질 수 있다고 우려했다. 그는 "현재 국내 데이터센터 전력 소비량이 2025년 기준 8테라와트(Tw)에 불과하다"며 "이는 중국의 12분의 1, 미국의 22분의 1 수준"이라고 설명했다. 이어 "이는 우리 AI 인프라가 양적·질적으로 모두 취약하다는 사실을 보여준다"고 지적했다. 박 교수는 AI 인프라 취약성의 주요 원인을 수도권에 집중된 전력망 구조로 꼽았다. 그는 "수도권은 전국 전력의 40%를 소비하지만 자체적으로는 필요한 전력의 66%만 생산한다"며 "나머지 전력을 비수도권에서 끌어 쓰는 구조"라고 설명했다. 그는 이런 상황에서 국내 데이터센터마저 70% 이상 수도권에 몰려 있다는 점도 지적했다. 현재 AIDC 신규 입지까지 수도권 위주로 이뤄지고 있다는 설명이다. 그는 "AIDC는 기존 데이터센터보다 전력 소비 밀도가 훨씬 높다"며 "수도권처럼 전력 수요가 많은 지역에 추가로 몰리면 전력망 과부하, 송전 병목, 안정성 문제 등이 발생할 수 있다"고 지적했다. 이에 박 교수는 신규 AIDC 구축을 비수도권으로 옮기는 방안을 추진해야 한다고 주장했다. 특히 전력 공급 여유가 있는 지역 또는 재생에너지 인프라 구축이 가능한 지역에 AIDC를 세우는 것이 가장 바람직하다는 설명이다. 그는 "비수도권 중 호남권이 가장 적합한 후보라고 본다"며 "이런 지역은 AIDC 전력 수요를 흡수할 여력이 있을 뿐 아니라 지역 균형 발전까지 도울 수 있다"고 말했다. "韓, 전력 직거래 완화해야…원전은 기준 필요" 박 교수는 AIDC의 안정적 전력 수급을 위해 전력 직거래 규정이 완화돼야 한다고 주장했다. 미국, 유럽과 달리 국내에선 전력 생산자가 전기를 거래소에서만 판매할 수 있으며 소비자 대부분 한국전력에서 전기를 구매해야 한다. 그는 "현재 국내에 재생에너지나 구역지정사업자, 특구 내 직거래 제도가 있긴 하지만 모두 극히 제한적이라 실효성이 낮다"고 평가했다. 이어 "데이터센터는 전력계통 영향평가를 거쳐 인근 발전기와 직접 전력을 주고받을 수 있어야 한다"며 "이는 수도권 전력 부담을 덜고 지역 전력 수급 균형에 도움을 줄 것"이라고 말했다. 그는 원전과의 직거래는 신중히 접근해야 한다고 당부했다. 그는 "원자력은 발전단가가 다른 전원보다 매우 낮다"며 "특정 데이터센터가 원전과 직접 계약을 맺을 경우 전체 소비자 전기요금 체계가 흔들릴 수 있다"고 이유를 밝혔다. 박 교수는 "전기 요금 왜곡 가능성을 고려해 원전 직거래는 별도 기준과 검토 절차가 필요하다"고 덧붙였다.

2025.12.09 12:47김미정

[유미's 픽] 삼성SDS, 'AI 총사령부' 띄웠다…이준희 대표, 직속 조직 '승부수'

"(기업의) 인공지능(AI) 트랜스포메이션을 위한 최고의 파트너가 되겠습니다." 취임 1주년을 맞은 이준희 삼성SDS 대표가 새로운 조직을 통해 AI 시장 주도권 잡기에 나섰다. 그룹 안팎 AI 전환(AX) 수요를 본격 공략해 내부거래 비중을 줄이고 외형 확대를 노린 모습이다. 8일 업계에 따르면 삼성SDS는 개발센터장을 맡고 있던 김종필 부사장을 지난 1일 이준희 대표 직속으로 신설된 'AX센터' 수장으로 선임했다. AX센터는 사내 AI 관련 영업, 마케팅, 기술 개발 등 기존 조직들을 한 데 모아 새롭게 출범했다.1968년생인 김 부사장은 삼성SDS에서 자사 기술·제품 개발 조직을 총괄하는 핵심 기술 리더 역할을 해왔다. 또 AI·클라우드·솔루션 개발의 방향을 정하고 실행을 책임져왔다는 점에서 AX센터장으로 적임자란 평가를 받고 있다. 이 대표의 이런 행보는 AI·클라우드 중심으로 삼성SDS의 체질을 개선하기 위한 것이다. 지난 9월 이 대표는 삼성SDS가 개최한 '리얼 서밋 2025'를 통해 'AI 풀스택 서비스' 전략을 앞세워 AX를 위한 인프라, 컨설팅, 솔루션 등 전 영역을 제공하겠다는 청사진을 공개한 바 있다.산업 전반에서 AX 수요가 폭발적으로 성장하고 있다는 점도 AX센터 설립에 영향을 준 것으로 분석된다. 시장조사기관 더 비즈니스 리서치 컴퍼니(The Business Research Company)에 따르면 디지털 전환 내 AI 시장 규모는 지난 2024년 약 321억8천900만 달러(한화 43조9천551억원)에서 올해 약 424억7천500만 달러로, 1년 만에 31.9% 성장했다. 또 2029년에는 1천275억9천900만 달러(약 172조2천586억원)까지 커질 것으로 보여 시장 전망이 상당히 밝다. 삼성SDS가 최근 AI·클라우드 사업에서 두드러진 성과를 보였다는 점 역시 주효했다. 삼성SDS의 올해 3분기 클라우드 사업 누적 매출액은 1조9천926억3천700만원으로, 전년 동기 대비 15.6% 상승한 것으로 나타났다. 전체 매출에서 클라우드가 차지하는 비중도 지난해 3분기 16.9%에서 올해 3분기 19.1%로 높아져 삼성SDS의 핵심 사업으로 점차 자리잡은 모습을 보였다. 덕분에 3분기 전체 누적 매출은 전년 동기 대비 2.0% 증가한 10조3천930억원, 영업이익은 4.5% 늘어난 7천310억원을 기록했다. 이 같은 성장세의 중심에는 AI가 자리 잡았다. 삼성SDS는 기업용 생성형 AI 플랫폼 '패브릭스'와 업무 보조 AI 서비스 '브리티 코파일럿' 등을 지난해 출시한 후 빠르게 이용자 수를 늘리고 있는 상태다. 실제 '브리티 코파일럿'은 삼성 관계사 17곳과 외부 기업 11곳 등에서 약 18만 명 이상이 사용 중으로, 퍼블릭 클라우드 사용이 제한적인 공공과 금융 부문을 중심으로도 영역을 확대하고 있다. 최근에는 행정안전부, 경기도 교육청을 시작으로 중앙정부와 지방자치단체 등으로 공급 범위를 확대하고 있다.AI를 중심으로 해외 업체와의 교류도 활발히 진행 중이란 점도 기대감을 높이는 요소다. 특히 현재 오픈AI와 AI 데이터센터 구축, 챗GPT 엔프라이즈 도입, 리셀러 계약 등 세 가지 분야에서 협력 중이다. 오픈AI와 공식 리셀러 계약을 맺은 것은 국내 최초다.AI 데이터센터 구축 사업에서도 시장 내 존재감을 높이고 있다. 오픈AI가 주도하는 초대형 AI 인프라 프로젝트 '스타게이트' 참여 외에도 삼성SDS는 지난해 11월 삼성전자로부터 215억원에 경북 구미 1공장 일부 부지를 매입해 AI 데이터센터 구축을 추진 중이다. 또 전남에 들어설 국가AI컴퓨팅센터를 건립할 특수목적회사(SPC) 컨소시엄 주사업자로 선정돼 이르면 1월, 늦어도 3월쯤 사업 수주를 확정할 예정이다. 이는 삼성SDS가 그간 AI 사업 확장을 위해 매년 대규모 자금을 투입한 것이 점차 효과를 보이고 있기 때문으로 분석된다. 이곳은 AI 사업에 지난 2023년 5천28억원을 쏟아 부은 데 이어 2024년 4천743억원, 올해 5천억원(예상) 가량의 자금을 투입한 것으로 알려졌다. 또 대부분의 자금은 최신 그래픽처리장치(GPU) 구매 등 AI 인프라 구축을 위한 투자인 것으로 전해졌다. 일각에선 삼성그룹이 최근 계열사 전반에서 AI 투자 확대 움직임을 보이고 있는 만큼, 향후 삼성SDS가 그룹 전체의 AI, DX 도입을 실제 실행하는 핵심 조직으로서 역할을 더 강화하기 위해 AX센터를 신설한 것으로 봤다. 또 삼성전자에서 쌓은 기술 자산을 바탕으로 삼성SDS의 IT 서비스·솔루션 역량을 결합하는 다리 역할을 수행하며 이재용 삼성전자 회장의 신임을 쌓은 이준희 대표가 직속으로 AX센터를 세웠다는 점에서 기대감도 드러냈다.업계에선 삼성SDS가 김 부사장을 주축으로 한 AX센터를 통해 대외 고객 확대에도 속도를 낼 것으로 봤다. 삼성SDS의 내부거래 비중은 최근 수 년간 80% 안팎에서 크게 벗어나지 못했던 만큼, 내년부터 AX 사업을 앞세워 비중을 점차 줄여나갈 것으로 예상된다.삼성SDS 관계자는 "미래 성장동력인 AI 플랫폼 및 에이전트 기반 사업, 클라우드 상품개발 및 전환구축 사업 등을 주도한 인재들을 (이번 인사에서) 두루 등용해 IT 기술 리더십과 사업경쟁력을 강화했다"며 "기존 클라우드 및 솔루션, 디지털 물류 글로벌 사업 역량을 기반으로 기업향 AI 트랜스포메이션(AX) 사업 확대를 가속화하고 IT기술 리더십을 더욱 강화해 나갈 계획"이라고 말했다.

2025.12.08 18:16장유미

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

SK하이닉스가 내년 HBM4(6세대 고대역폭메모리)의 본격적인 양산 시점을 놓고 조절에 나섰다. 당초 내년 2분기 말부터 HBM4의 생산량을 대폭 늘릴 예정이었지만, 최근 이를 일부 시점을 조정 중으로 파악됐다. 엔비디아의 AI칩 수요 및 차세대 제품 출시 전략에 맞춰 탄력 대응에 나선 것으로 풀이된다. 8일 지디넷코리아 취재에 따르면 SK하이닉스는 HBM4의 램프업(양산 본격화) 시점을 당초 계획 대비 한 두달 가량 늦췄다. HBM4는 내년 엔비디아가 출시하는 차세대 AI 가속기 '루빈(Rubin)'부터 채용되는 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개로 확대되며, HBM을 제어하는 로직 다이(베이스 다이)가 기존 D램 공정이 아닌 파운드리 공정에서 양산되는 점이 가장 큰 특징이다. 당초 SK하이닉스는 HBM4를 내년 2월경부터 양산하기 시작해, 2분기 말부터 HBM4 생산량을 대폭 확대할 계획이었다. 엔비디아가 HBM4 퀄(품질) 테스트를 공식적으로 마무리하는 시점에 맞춰 생산량을 빠르게 확대하려는 전략이다. 이를 위해 SK하이닉스는 대량의 샘플 시생산을 진행해 왔으며, 엔비디아의 요청에 따라 2만~3만개의 칩을 공급한 것으로 알려졌다. 그러나 최근 계획을 일부 수정했다. HBM4의 양산 시점을 내년 3~4월부터로 미루고, HBM4의 생산량을 대폭 확대하는 시점도 탄력 운영하기로 했다. HBM4 양산을 위한 소재·부품 수급도 기존 대비 속도를 늦추기로 한 것으로 파악됐다. 사안에 정통한 관계자는 "SK하이닉스가 내년 상반기부터 HBM4 생산량을 점진적으로 늘려, 2분기 말에는 HBM4 비중을 크게 확대할 계획이었다"며 "그러나 현재는 최소 내년 상반기까지 전체 HBM에서 HBM3E의 생산 비중을 가장 높게 유지하는 것으로 가닥을 잡았다"고 설명했다. 또 다른 관계자는 "SK하이닉스가 엔비디아와 내년 HBM 물량을 논의하면서 예상 대비 HBM3E 물량을 많이 늘린 것으로 안다"며 "엔비디아 루빈의 출시 일정이 지연될 가능성이 커졌고, HBM3E를 탑재하는 기존 블랙웰 칩의 수요가 견조한 것 등이 영향을 미쳤을 것"이라고 말했다. 현재 업계에서는 엔비디아 루빈 칩의 본격적인 양산 시점이 밀릴 수 있다는 우려가 팽배하다. 엔비디아가 루빈 칩의 성능 향상을 추진하면서 HBM4 등의 기술적 난이도가 높아졌고, 루빈 칩 제조에 필수적인 TSMC의 2.5D 패키징 기술 'CoWoS'가 계속해서 병목 현상을 겪고 있기 때문이다. 이에 대해 SK하이닉스 측은 "경영 전략과 관련해서는 구체적으로 확인해드릴 수 없으나, 시장 수요에 맞춰 유연하게 대응할 계획"이라고 밝혔다.

2025.12.08 10:03장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성디스플레이 OLED, 주름·반사 모두 잡는다

현대차 로봇에 '구글 AI' 입힌다…보스턴다이내믹스-딥마인드 맞손

CES서 사라진 전기차…AI·자율주행이 대세된 車 산업

AI기본법 시행 보름 앞으로…업계 '준비 부족' 토로

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.