• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터센터'통합검색 결과 입니다. (444건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아, 루빈 울트라·파인만 AI칩 공개…"차세대 HBM 탑재"

엔비디아가 인공지능(AI) 반도체 산업의 주도권을 유지하기 위한 차세대 GPU를 추가로 공개했다. 오는 2027년 HBM4E(7세대 고대역폭메모리)를 탑재한 '루빈 울트라'를, 2028년에는 이를 뛰어넘을 '파인만(Feynman)' GPU를 출시할 예정이다. 파인만에 대한 구체적인 정보는 아직 공개되지 않았지만, '차세대 HBM(Next HBM)'을 비롯해 다양한 혁신 기술이 적용될 것으로 전망된다. 18일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 미국 실리콘밸리 새너제이 컨벤션 센터에서 열린 연례행사인 'GTC 2025' 무대에 올라 AI 데이터센터용 GPU 로드맵을 발표했다. 이날 발표에 따르면, 엔비디아는 최신형 AI 가속기인 '블랙웰' 시리즈의 최고성능 제품인 '블랙웰 울트라'를 올해 하반기 출시한다. 해당 칩은 12단 HBM3E(5세대 HBM)를 탑재했으며, AI 성능을 이전 세대 대비 1.5배 높인 것이 특징이다. 이어 엔비디아는 HBM4를 탑재한 '루빈' 시리즈를 내년 하반기 출시한다. 루빈부터는 기존 '그레이스' CPU가 아닌 '베라' CPU가 채용된다. 루빈의 최고성능 제품인 루빈 울트라는 내후년인 2027년 하반기께 출시가 목표다. 루빈 울트라에는 HBM4E가 채용돼, 메모리 성능이 블랙웰 울트라 대비 8배나 늘어난다. 그동안 드러나지 않았던 차차세대 AI 가속기에 대한 정보도 공개됐다. 엔비디아는 루빈 이후의 제품명을 파인만으로 확정했다. 미국의 저명한 이론 물리학자인 리처드 파인만에서 이름을 따왔다. 엔비디아는 파인만에 대해 차세대 HBM(Next HBM)을 탑재한다고 기술했다. 다만 구체적인 세대명은 공개하지 않았다. 파인만은 오는 2028년 출시될 예정이다.

2025.03.19 08:43장경윤

LS일렉트릭, 올해도 호황 계속…1625억원 계약 수주

LS일렉트릭이 북미 빅테크 기업을 대상으로 한 수주에 성공했다. LS일렉트릭은 18일 자회사 미국 법인(LS일렉트릭 아메리카)이 1천625억원 규모 전력공급·배전 시스템을 공급하는 계약을 체결했다고 공시했다. LS일렉트릭은 지난해에도 해당 프로젝트와 관련해 6천224만 달러(약 900억원) 규모 공급계약을 수주한 바 있다. 계약 규모가 올해 더 늘어난 셈이다. LS일렉트릭은 국내 중전기업 중 유일하게 미국 배전 시장 진출에 필수인 UL 인증을 확보하며 글로벌 사업을 확대하고 있다. 이번 계약은 구자균 LS일렉트릭 회장이 빅테크발 수주 가능성을 언급한 이후 성사된 첫 계약이다. 구 회장은 지난달 서울 코엑스 열린 인터배터리 2025에서 취재진과 만나 "QCD(품질·가격·납기) 측면에서 LS일렉트릭이 굉장히 경쟁력 있다는 평가와 함께 인지도가 올라가 미국 빅테크 기업들을 비롯해 우리를 찾는 업체들이 늘고 있다"며 "미국은 세계 전력 시장의 25%를 차지하는 나라인 만큼 R&D에 굉장히 많은 비용을 들여 시장을 공략하고 있으며, 입소문이 나면서 올해 큰 건수가 생기지 않을까 기대를 하고 있다"고 말했다. 앞서 구 회장은 올해 미국 시장에서만 매출 1조 원 달성을 목표로 제시했으며, 빅테크 신규 수주를 통해 매출이 1조원을 넘어설 가능성도 있다. LS일렉트릭 관계자는 "구 회장이 언급한 기대감이 있는 빅테크발 수주에 속한다'며 "계속해서 수주를 위한 노력을 이어갈 것"이라고 말했다.

2025.03.18 15:36류은주

이퀄1, 데이터센터용 양자시스템 공개…양자컴퓨팅 대중화 가속

외부 냉각기 없이 작동 가능한 랙 마운트형 양자 시스템이 공개됐다. 자체 내장된 소형 냉각 장치를 이용해 데이터센터에 설치할 수 있어 양자컴퓨팅 진입장벽을 완화할 전망이다. 18일 퀀텀인사이더 등 외신에 따르면 양자 컴퓨팅 스타트업 이퀄1(Equal1)이 새로운 양자 시스템 '벨-1(Bell-1)'을 발표했다. 벨-1은 표준 19인치 랙 마운트형 양자 컴퓨터로 데이터센터 등 고성능 컴퓨팅(HPC) 환경에 직접 통합 가능한 점이 특징이다. 현재 양자 컴퓨팅 시장은 수백 큐비트 이상의 대형 시스템 중심으로 경쟁이 치열하지만, 이퀄1은 소형 시스템의 상용화 및 양자 가속기의 현실적 도입에 초점을 맞추고 있다. 벨-1은 특히 미국과 유럽의 주요 HPC 시설에 도입될 예정이며 이를 통해 기업과 연구기관의 양자 기술 실증 및 단계적 확장을 도울 계획이다. 벨-1은 이퀄1의 독자 기술을 기반으로 한 고품질 실리콘 기반 물리 큐비트 6개를 탑재하고 있다. 완전히 통합된 양자 단일 칩 체제(SoC) 아키텍처를 바탕으로 설계됐다. 양자 프로세서와 제어 회로, 인터페이스 회로가 하나의 칩으로 집적됐으며 이를 통해 시스템 소형화와 에너지 효율을 동시에 실현했다. 프로세서에는 CMOS 공정으로 제작된 실리콘 기반 양자처리장치(QPU)가 적용되어 생산 단가 절감과 안정적인 양산이 가능하며 신뢰성과 저전력 특성을 확보했다. 이 시스템은 표준 19인치 랙 마운트형 디자인으로 제작됐으며 별도의 극저온 냉각 장치 없이 상온에서 작동 가능하며 기존 데이터센터 및 HPC 서버 환경에 손쉽게 통합될 수 있도록 설계됐다. 특히 저전력 소비 구조를 통해 시스템 운영 비용을 최소화하고, 데이터센터 인프라의 부담을 줄였다. 또한 기존 고성능 컴퓨팅(HPC) 및 클라우드 시스템과의 직접 연동이 가능하며, 소프트웨어 스택과 API 지원을 통해 기존 워크플로우와의 호환성을 확보한 점도 강점으로 꼽힌다. 이 외에도 시스템 보안을 고려한 모듈화 구조와 내장 모니터링 기능을 갖추고 있으며, 양자-고전 하이브리드 연산 환경에서의 양자 가속기(Quantum Accelerator) 역할을 수행할 수 있도록 최적화되어 있다. 벨-1은 이러한 구조를 바탕으로 소규모 최적화 문제, 양자 시뮬레이션, 머신러닝 연산 가속 등 다양한 분야에 적용할 수 있으며, 양자 알고리즘 테스트 및 연구용 시뮬레이션 환경으로도 활용 가능하다. 이퀄1은 벨-1을 통해 양자 컴퓨팅을 특수한 환경에서만 활용 가능한 기술이 아닌 기존 컴퓨팅 환경에 자연스럽게 통합 가능한 실용적 기술로 자리매김시키겠다는 전략이다. 벨-1는 6큐비트로 경쟁사 대비 제한적인 연산 능력을 보유하고 있다. 이퀄1은 이를 활용해 작은 규모의 최적화 문제 해결, 머신러닝 일부 가속, 양자 알고리즘 테스트 등에 적용할 수 있다고 설명했다. 예를 들어 양자 근사 최적화 알고리즘(QAOA)이나 변분적 양자 알고리즘(VQE)을 활용해 물류 최적화, 간단한 화학 시뮬레이션, 금융 분야의 소규모 포트폴리오 최적화 등이 가능하다는 설명이다. 또한 벨-1은 기존 HPC 시스템에서 양자 연산이 필요한 부분만을 선택적으로 오프로드하는 방식으로 양자-고전 협업 환경을 구현할 수 있다. 이퀄1은 이를 통해 기업이 양자 컴퓨팅 도입 리스크를 최소화하고, 현실적인 비용으로 양자 기술을 경험할 수 있다고 강조했다. 이퀄1의 제이슨 린치 최고경영자(CEO)는 "벨-1은 복잡한 인프라 없이 데이터센터 내에서 양자 가속을 실현할 수 있는 세계 최초의 제품"이라며 "양자 기술이 현실적 가치를 제공해야만 실용화될 수 있다는 이퀄1의 철학이 담겨 있다"고 밝혔다.

2025.03.18 09:21남혁우

샌디스크, 업계 최초 차량용 UFS4.1 낸드 솔루션 공개

샌디스크는 11일부터 13일까지(현지시각) 독일 뉘른베르크에서 개최되는 '임베디드 월드 2025'에서 업계 최초 오토모티브 등급 UFS4.1 인터페이스 디바이스를 공개한다고 12일 밝혔다. '샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브'는 샌디스크의 이전 UFS3.1 디바이스 대비 2배 이상 업그레이드된 성능과 기존 업계에 출시된 용량 대비 2배 향상된 용량을 제공한다. 샌디스크의 최신 BiCS8 TLC 낸드 기술이 적용된 것은 물론, 최대 1TB의 대용량을 지원하며 높은 수준의 데이터 스토리지 성능, 용량, 내구성, 신뢰성이 요구되는 오토모티브 애플리케이션을 발전시키고 오토모티브 AI 혁신을 가속화한다. 첨단운전자지원시스템(ADAS), 자율주행, 이콕핏(eCockpit)과 같은 오토모티브 인공지능(AI) 시스템은 센서, 지도, AI 데이터베이스에서 정보를 추출해야 안전하게 작동할 수 있다. iNAND 임베디드 플래시 드라이브는 데이터가 필요할 때 활용할 수 있도록 하는 데 중요한 역할을 하며 자율주행 컴퓨터를 위한 실시간 차량 스토리지를 제공해 클라우드 접속 시 발생하는 지연성(latency) 및 연결성 문제를 해결할 수 있도록 지원한다. 샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브는 현재 엄선된 고객 및 파트너를 대상으로 출하 중이다. 새롭게 공개된 임베디드 플래시 드라이브를 통해 샌디스크는 한층 강화된 오토모티브 등급 SD 카드, e.MMC, UFS2.1, UFS3.1 및 NVMe 제품 포트폴리오를 보유하게 됐다. 한편 샌디스크는 임베디드 월드 2025의 현지 부스에서 샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브와 함께, '샌디스크 DC SN861 NVMe SSD'와 '울트라스타 DC SN655 NVMe SSD'를 비롯한 선도적인 데이터센터 솔루션, 워크스테이션 및 노트북용 클라이언트 SSD, 산업용 임베디드 및 리무버블(removable) 플래시 스토리지 솔루션, 클라이언트 SSD 등의 플래시 스토리지 솔루션을 선보인다.

2025.03.12 11:22장경윤

MS와 틈 벌리는 오픈AI, 코어위브에 120억 달러 투자한 속내는

'챗GPT'를 개발한 오픈AI가 인공지능(AI) 인프라 확보를 위해 스타트업 코어위브에 대규모로 투자하며 지분 확보에 나섰다. 마이크로소프트(MS)에 대한 의존도가 각각 높았던 오픈AI와 코어위브는 이번 일로 사업 확장에 새로운 전환을 맞이 할 수 있게 됐다. 11일 로이터통신, 테크크런치 등 주요 외신에 따르면 오픈AI는 코어위브와 119억 달러(17조3천561억원) 규모의 클라우드 컴퓨팅 서비스 계약을 체결했다. 이번 계약 기간은 5년으로, 오픈AI는 이번 계약을 통해 코어위브 지분 일부를 확보하게 됐다. 이를 위해 코어위브는 3억5천만 달러 규모의 주식을 사모 방식으로 발행할 예정이다. 코어위브는 엔비디아 AI 칩을 이용한 대규모 데이터센터를 운영 중으로, 이를 임대하는 사업을 펼치고 있다. 클라우드 서비스 제공 업체인 만큼 경쟁사로는 아마존웹서비스(AMS), MS 애저, 구글 클라우드 등이 꼽힌다. 2023년에는 엔비디아 등으로부터 투자를 유치했으며 현재 뉴욕증시 상장을 추진 중이다. 기업가치를 350억 달러(약 51조원) 이상으로 평가 받으면서 올해 미국 기업공개(IPO) 시장에선 최대어로 주목 하고 있다. 지난해 5월 초 11억 달러 규모의 투자금을 유치할 당시 평가 받았던 기업가치(190억 달러)의 약 두 배다. 그러나 코어위브가 79억 달러의 부채를 보유하고 있다는 점은 다소 우려스럽다. 코어위브는 IPO를 통해 수십억 달러의 신규 자본이 유입되면 일부를 부채 상환에 사용할 예정이다. 이번 일을 두고 양 사는 묵묵부답으로 일관하고 있다. 업계에선 오픈AI와 MS의 관계 변화에 따른 일로 해석했다. 오픈AI는 그간 MS와 파트너십을 맺고 MS 클라우드 '애저'를 기반으로 챗GPT 등 AI 서비스와 모델을 개발·운영해 왔다. 하지만 오픈AI가 대규모 투자가 이뤄지는 사업에 MS가 아닌 다른 기업과 손을 잡기 시작하며 양 사 관계에 이상 기류가 감지되기 시작했다. 특히 지난 1월 오픈AI가 일본 소프트뱅크, 오라클과 AI 합작회사인 '스타게이트' 설립을 발표하며 두 기업간 흔들리는 협력 관계가 조명 받기도 했다. 일단 MS는 올해 1월쯤 오픈AI가 오라클 클라우드를 활용할 수 있도록 승인하면서 2030년까지 오픈AI API 독점권과 매출 25%를 가져가는 수익 공유 계약은 유지하기로 협의했다. 월스트리트저널(WSJ)은 당시 "오픈AI의 스타게이트 발표 현장에서 MS가 보이지 않는 것은 수개월에 걸친 양사 간 긴장 이후 나온 것"이라며 "오랜 파트너들이 서로 덜 의존하게 될 새로운 시대를 알리는 신호"라고 관측했다. 이후 MS가 오픈AI와 경쟁하기 위해 AI 추론 모델을 자체 개발하고 있다는 소식이 전해지며 틈은 더 벌어진 분위기다. IT 매체 디인포메이션에 따르면 무스타파 술레이먼이 이끄는 MS AI팀은 최근 '마이(MAI)'라고 불리는 AI 모델군 훈련을 완료했다. 마이는 AI 성능을 평가한 벤치마크 테스트에서 오픈AI와 앤트로픽 최상위 AI 모델과 거의 같은 성능을 보인 것으로 알려졌다. MS는 현재 자체 AI 도구 '코파일럿'에서 오픈AI의 AI 모델을 '마이'로 교체하는 테스트도 진행 중인 것으로 전해졌다. 오픈AI에 대한 의존도를 줄이기 위한 것으로 분석된다. 디인포메이션은 "MS '마이' 추론 모델은 오픈AI 추론 모델 o시리즈와 직접 경쟁이 가능할 것"이라고 밝혔다. 코어위브는 MS에 대한 매출 의존도가 높다는 점에서 이번 오픈AI와의 계약이 새로운 동력이 될 것으로 보인다. 현재 최대 고객인 MS가 코어위브의 매출에서 차지하는 비중은 62%다. 이 외에도 페이스북 운영사 메타, IBM 등 대형 IT 기업도 코어위브 데이터센터를 활용하고 있다. 이곳의 지난해 매출은 19억2천만 달러(약 2조7천990억원)로 전년 대비 약 8배 증가했다. 다만 순손실도 2023년 5억9천370만 달러(약 8천657억원)에서 2024년 8억6천340만 달러(약 1조2천595억원)로 확대됐다. 코어위브는 6%의 지분을 보유한 엔비디아의 지원을 받아 지난해 말 기준 25만 개 이상의 엔비디아 그래픽처리장치(GPU)를 운영하는 32개 데이터센터 네트워크를 통해 AI 전용 클라우드 서비스를 운영하고 있다. 특히 AI 추론을 지원하는 엔비디아의 최신 제품인 블랙웰을 포함해 더 많은 GPU가 최근 추가됐다는 점에서 고성능 AI 모델 개발에 나선 업체들의 러브콜이 쏟아지고 있다. 업계 관계자는 "오픈AI가 MS 애저를 사용 중이지만 더 많은 컴퓨팅 리소스가 필요한 시점에서 MS로부터 GPU를 원하는 만큼 공급 받고 있지 못하고 있다고 보고 있다"며 "코어위브도 그간 최대 고객이 MS였다는 점에서 의존도를 줄일 수 있게 된 데다 오픈AI를 고객으로 유치하면서 투자자들을 달래는 데도 도움이 될 것"이라고 밝혔다.

2025.03.11 15:38장유미

"우주 데이터센터 시대 연다"…레드햇, 액시엄 스페이스와 손잡고 궤도 컴퓨팅 강화

레드햇이 글로벌 우주 인프라 기업와 손을 잡고 궤도 데이터센터 구축에 나선다. 인공지능(AI), 클라우드 컴퓨팅, 사이버 보안 기술의 적용 범위를 지구 밖으로 확장함으로써 다양한 산업군의 우주 진입을 가속화하기 위한 조치다. 레드햇은 액시엄 스페이스와 올해 봄 국제우주정거장(ISS)에서 가동될 '액시엄 데이터센터 유닛-1(AxDCU-1)'의 공동 개발에 착수했다고 10일 발표했다. 이 프로젝트에는 레드햇 디바이스 엣지 기술이 적용되며 궤도 데이터센터(ODC)의 초기 기능이 시험될 예정이다. 'AxDCU-1'은 궤도 내 데이터 저장과 처리를 가능하게 해 지구 기반 데이터센터 의존도를 줄인다. 이를 통해 AI 및 머신러닝(ML) 훈련, 사이버 보안 테스트, 지구 관측 위성 데이터 분석 등이 실시간으로 이뤄질 전망이다. 기존에는 데이터 전송 지연과 보안 문제로 인해 우주 내 실시간 데이터 활용이 제한적이었다. 레드햇 디바이스 엣지는 경량 쿠버네티스 배포판 '마이크로시프트'를 기반으로 한다. 이는 레드햇 엔터프라이즈 리눅스(RHEL) 및 앤서블 오토메이션 플랫폼과 결합돼 엣지 환경에서도 강력한 클라우드 네이티브 워크로드를 실행할 수 있게 지원한다. 이를 통해 액시엄 스페이스는 궤도 내 하이브리드 클라우드 인프라를 구축할 수 있다. ODC는 단순한 데이터 저장소가 아니라 다양한 우주 산업 분야에서 활용될 전망이다. 지구 관측 위성의 저지연 데이터 처리, 우주 내 AI 모델 훈련, 자율 운영 시스템, 우주 기상 분석 및 지구 인프라 보호를 위한 백업 솔루션 등 다양한 응용 사례가 예상된다. 이번 프로젝트는 액시엄 스페이스가 추진하는 우주 인프라 확장 전략의 핵심 단계다. 향후 액시엄이 개발하는 우주 정거장 '액시엄 스테이션'과 연계해 보다 확장된 ODC 네트워크를 구축할 계획이다. 이를 통해 우주 내 산업 활동이 보다 활발해지고 지구 기반 IT 산업과의 연계도 더욱 강화될 전망이다. 토니 제임스 레드햇 과학·우주 부문 수석 아키텍트는 "우주 데이터 처리는 차세대 개척지이며 엣지 컴퓨팅이 그 핵심"이라며 "이번 협력을 통해 우주 내 실시간 데이터 처리 역량을 높여 보다 신뢰성 높은 의사결정이 가능해질 것"이라고 말했다. 제이슨 아스피오티스 액시엄 스페이스 글로벌 디렉터는 "레드햇과의 협력으로 ODC 인프라와 우주 운영의 미래가 더욱 발전할 것"이라며 "ODC를 통해 사용자는 낮은 지연성과 향상된 보안을 확보하고 지상 워크로드를 궤도로 원활하게 전환할 수 있을 것"이라고 밝혔다.

2025.03.10 16:49조이환

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미

"전력 규제·토지비 급등…韓 데이터센터 공급 위기 직면했다"

쿠시먼앤드웨이크필드가 국내 데이터센터 시장 공략을 본격화한다. 인공지능(AI)과 클라우드 산업 성장에 따른 시장 수요 증가에 대응하고 데이터센터 임대 및 관리 사업을 확대해 수익성을 극대화하려는 행보다. 쿠시먼앤드웨이크필드는 서울 광화문 오피스에서 '데이터센터와 AI' 포럼을 개최했다고 7일 밝혔다. 회사는 이 자리에서 최신 시장 동향과 함께 엠피리온 디지털의 KR1 강남 데이터센터 프로젝트를 공개했다. 이날 포럼에서는 AI와 데이터센터가 한국 경제에 미치는 영향을 중심으로 전문가 논의가 이뤄졌다. 이 자리에서 존 프리차드 쿠시먼앤드웨이크필드 코리아 데이터센터 상무는 한국 데이터센터 시장이 최근 5년간 급성장했으며 향후 5~7년 내 중국과 일본에 필적하는 수준으로 도약할 가능성이 높다고 평가했다. 다만 AI 도입이 확대되면서 국내 데이터센터 공급이 수요를 따라가지 못할 수 있다는 우려도 나왔다. 전력계통영향평가 정책, 지역 주민 반대, 토지 비용 급등 등의 요인이 신규 데이터센터 건립을 어렵게 만들고 있다는 분석이다. 실제로 현재 국내 콜로케이션 데이터센터 공실률은 사상 최저치인 6%를 기록 중이다. 이날 포럼에서는 엠피리온 디지털의 KR1 강남 데이터센터도 주목을 받았다. 마크 퐁 엠피리온 디지털 대표와 홍지원 상무는 해당 프로젝트의 세부 내용을 발표하며 서울 수도권의 데이터센터 공급 부족 문제를 해결할 수 있을 것으로 기대했다. KR1 강남 데이터센터는 오는 3분기 가동을 목표로 건립 중이며 IT 부하 29메가와트(MW) 규모로 설계됐다. 특히 AI 및 클라우드 기업을 위해 액침 냉각과 직접 칩 냉각 기술을 적용해 전력 효율성을 극대화할 예정이다. 이는 강남 지역에서 10년 만에 새롭게 들어서는 첫 번째 데이터센터라는 점에서도 의미가 크다. 쿠시먼앤드웨이크필드 코리아는 오는 3분기 서울 양재동에 건립될 해당 데이터센터의 임차인을 유치하고 있으며 향후에도 시장 동향을 공유하고 업계 전문성을 강화하기 위한 포럼을 지속적으로 개최할 계획이다. 프리차드 상무는 "한국은 5G 상용화를 세계 최초로 이뤄낸 만큼 AI 및 데이터센터 인프라 시장에서도 경쟁력을 갖출 가능성이 크다"며 "다만 전력 규제와 토지 비용 증가 등 해결해야 할 과제도 산적해 있다"고 말했다.

2025.03.07 17:50조이환

퓨어스토리지, 메타 스토리지 인프라 책임진다

퓨어스토리지가 메타의 스토리지 인프라 핵심 기술로 선정됐다. 퓨어스토리지는 메타가 스토리지 인프라 혁신을 위해 올플래시 기술을 도입했다고 7일 밝혔다. 올플래시는 연평균 장애율이 0.15%에 불과한 높은 안정성을 제공한다는 평을 받고 있다. 이는 1% 넘는 범용 솔리드스테이트드라이브(SSD) 장애율과 비교했을 때 현저히 낮은 수치다. 대규모 워크로드를 처리해야 하는 하이퍼스케일러에 필수 요소다. 특히 퓨어스토리지의 '퓨리티' 소프트웨어(SW)와 '다이렉트플래시' 기술이 결합해 성능을 극대화하면서도 운영 부담을 줄였다. 또 퓨어스토리지의 다이렉트플래시 모듈은 기존 하드디스크 기반 솔루션 대비 전력 소비를 획기적으로 줄이는 것으로 전해졌다. 이를 통해 메타는 스토리지 계층을 단일 플랫폼으로 통합하고 운영 비용을 절감할 수 있다. 인공지능(AI)과 데이터 중심 애플리케이션의 증가하는 요구를 충족시키면서도 지속 가능성을 고려한 인프라 운영이 가능하다는 설명이다. 스토리지 아키텍처 단순화도 메타가 퓨어스토리지를 선택한 주요 이유인 것으로 알려졌다. 퓨어스토리지는 비용 효율적인 아카이브부터 고성능 미션 크리티컬 워크로드, AI 환경까지 지원하는 일관된 단일 아키텍처를 제공한다. 이를 통해 복잡한 시스템 관리 부담을 줄이고, 전체 인프라의 효율성을 높일 수 있다. 퓨어스토리지는 다이렉트플래시 기술을 통해 뛰어난 가격 대비 성능을 구현했다고 밝혔다. 기존 스토리지 대비 저장 용량과 성능을 극대화하면서도 불필요한 오버 프로비저닝을 제거해 하이퍼스케일러의 비용 부담을 줄였다. 퓨어스토리지 관계자는 "메타의 이번 선택은 하이퍼스케일러들이 기존 하드디스크에서 플래시 기반 스토리지로 전환하는 흐름을 가속화할 것"이라며 "기업들이 운영을 혁신하고 미래 인프라를 준비하는 데 이같은 기술이 핵심이 될 것"이라고 말했다.

2025.03.07 14:52김미정

'5% 급락' 엔비디아 주가, 美 스타게이트 덕에 살아날까…AI 칩 수만 개 장착

'챗GPT' 개발사 오픈AI와 오라클, 일본 소프트뱅크가 함께 추진 중인 '스타게이트' 프로젝트에 수십억 달러 규모의 엔비디아 인공지능(AI) 칩이 탑재될 예정이다. 최신 칩인 '블랙웰' 공급 지연 여파로 최근 하락세를 보인 엔비디아의 주가가 이번 소식으로 반등할 수 있을지 주목된다. 7일 블룸버그통신에 따르면 오픈AI, 오라클 등은 향후 몇 개월 안에 미국 텍사스 애빌린에 짓고 있는 첫 데이터센터에 2026년 말까지 수만 개의 엔비디아 GB200 칩 6만4천 개를 탑재할 계획이다. 올해 여름까지 1만6천 개의 GB200이 1차로 설치된 후 단계적으로 추가될 예정인 것으로 알려졌다. GB200은 엔비디아의 최신 AI 칩 '블랙웰' 그래픽처리장치(GPU) 2개와 그레이스 중앙처리장치(CPU) 1개를 탑재한 AI 가속기다. GB200의 공식 가격은 알려지지 않았지만 1개당 3만~4만 달러였던 직전 모델보다는 더 비싼 것으로 전해졌다. 이에 스타게이트 프로젝트에 투입되는 자금은 GB200 칩만으로도 수십억 달러가 될 전망이다. 블룸버그통신은 "한 곳의 데이터 센터에 투입되는 컴퓨팅 파워로는 매우 큰 규모"라며 "이는 스타게이트 프로젝트의 대규모 확장을 시사한다"고 말했다. '스타게이트' 프로젝트 여파로 미국 전역에 최대 10곳의 데이터센터가 구축될 예정인 만큼 엔비디아의 첨단 AI 칩에 대한 수요는 줄어들지 않을 것으로 보인다. '스타게이트'는 오픈AI와 오라클, 소프트뱅크의 주도로 진행되는 프로젝트로, 미국 내 데이터센터 설립을 목표로 하고 있다. 이를 위해 향후 4년간 최대 5천억 달러(약 720조원)을 투자할 계획이다. 샘 알트먼 오픈AI 최고경영자(CEO)와 손정의 소프트뱅크 회장은 지난 달 4일 이재용 삼성전자 회장을 만나 자금 지원에 나설 것을 요청하기도 했다. 오픈AI는 향후 스타게이트 부지를 최대 10곳까지 확장할 계획으로, 텍사스 외에도 펜실베이니아, 위스콘신, 오리건주 등에서도 부지를 검토 중이다. 일각에선 최근 '저비용·고성능'을 앞세운 중국 AI 딥시크가 출현한 후 엔비디아의 첨단 AI 칩에 대한 수요가 줄어드는 것 아니냐는 우려를 내놨지만, 이번 일로 불식된 분위기다. 현재 '스타게이트' 프로젝트에서 AI 칩을 확보·운영하는 것은 오라클이 맡고 있는 상태로, 오라클은 엔비디아 최신 칩 확보 경쟁에서 치열한 싸움을 벌이고 있다. 특히 일론 머스크가 설립한 xAI, 메타 등이 가장 큰 경쟁자로 꼽힌다. xAI는 최근 멤피스에 있는 슈퍼 컴퓨터용 AI 서버 확장에 나섰고, 메타는 루이지애나와 텍사스주 또는 와이오밍에 2천억 달러 규모의 데이터센터 건설을 검토 중에 있다. 이곳에는 모두 수 만장의 엔비디아 AI 가속기가 투입될 가능성이 높다. 하지만 엔비디아는 이 같은 호재를 앞두고도 주가 하락 움직임을 막지 못한 분위기다. 지난 6일 주가는 전일 대비 5.47% 내린 110.57달러(약 16만215원)에 거래를 마쳤다. 이는 지난해 9월 10일(108.08달러) 이후 가장 낮은 수준으로, 최신 칩인 '블랙웰' 공급이 수요를 충족시킬 만큼 원활하지 않다는 시장의 판단 때문으로 분석됐다. 최근 3개월간 주가는 19.50% 하락했다. 업계 관계자는 "그동안 시장에선 블랙웰 공급 확장을 통해 엔비디아의 폭발적인 매출 증가를 기대했다"며 "하지만 계속된 공급 지연에 따른 실망감으로 매도가 나온 것으로 보인다"고 분석했다.

2025.03.07 10:17장유미

브로드컴, AI 반도체 사업 훈풍…삼성·SK도 HBM 성장 기대감

미국 브로드컴의 AI 사업이 지속 확대될 전망이다. 구글을 비롯한 핵심 고객사가 자체 데이터센터용 AI 반도체를 적극 채용한 데 따른 영향이다. 나아가 브로드컴은 추가 고객사 확보 논의, 업계 최초 2나노미터(nm) 기반 AI XPU(시스템반도체) 개발 등을 추진하고 있다. 이에 따라 삼성전자·SK하이닉스 등 국내 기업들도 HBM(고대역폭메모리) 사업 확대에 속도를 낼 수 있을 것으로 기대된다. 6일 브로드컴은 회계연도 2025년 1분기에 매출 약 149억 달러를 기록했다고 밝혔다. 이번 매출은 전년동기 대비 25%, 전분기 대비로는 6% 증가했다. 증권가 컨센서스(147억 달러)도 소폭 상회했다. 해당 분기 순이익 역시 GAAP 기준 55억 달러로 전년동기(13억 달러) 대비 크게 증가했다. 브로드컴은 "AI 반도체 솔루션과 인프라 소프트웨어 부문의 성장으로 1분기 사상 최대 매출을 기록했다"며 "특히 AI 매출은 전년 대비 77% 증가한 41억 달러를 기록했고, 2분기에도 44억 달러의 매출을 예상한다"고 밝혔다. AI 매출은 브로드컴의 반도체 솔루션 사업 부문에서 AI용 주문형반도체(ASIC), AI 가속기, 서버 네트워크 칩 등을 포함한 매출이다. 브로드컴은 자체적인 반도체 설계 역량을 바탕으로, 구글·메타 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원하고 있다. 현재 브로드컴을 통해 AI 반도체의 대량 양산에 이른 고객사는 3곳이다. 브로드컴은 이들 고객사의 AI 반도체 출하량이 지난해 200만개에서 오는 28년에는 700만개로 늘어날 것으로 보고 있다. 나아가 4개의 잠재 고객사와도 양산 논의를 진행하고 있다. 브로드컴의 AI 사업 확대는 삼성전자·SK하이닉스 등 국내 주요 메모리 기업들에게도 수혜로 작용한다. AI 가속기에 필수적으로 활용되는 HBM의 수요가 증가하기 때문이다. 기존 HBM의 수요처는 엔비디아·AMD 등 고성능 GPU를 개발하는 팹리스가 주를 이뤘다. 그러나 최근에는 구글·메타 등도 전력효율성, 비용 등을 고려해 자체 AI ASIC 탑재량을 적극적으로 늘리는 추세다. 특히 구글은 브로드컴의 핵심 고객사로 자리 잡았다. 구글은 자체 개발한 6세대 TPU(텐서처리장치) '트릴리움(Trillium)'에 HBM3E 8단을 채용하며, 이전 세대 대비 생산량을 크게 확대할 계획이다. 구글 최신형 TPU에 HBM을 양산 공급하기로 한 기업은 SK하이닉스, 마이크론으로 알려져 있다. 삼성전자도 공급망 진입을 위한 테스트를 꾸준히 진행하고 있다. 경쟁사 대비 진입이 늦어지고 있으나, 최근 테스트에서는 기존 대비 긍정적인 결과를 얻어낸 것으로 파악됐다. 반도체 업계 관계자는 "최근 데이터센터 업계의 트렌드는 고가의 엔비디아 AI 가속기 대신 자체 칩을 개발하는 것"이라며 "구글과 AWS(아마존웹서비스) 등이 대표적인 대항마로 떠오르고 있어, 올해부터 HBM의 수요 비중을 늘려나갈 것으로 관측된다"고 설명했다.

2025.03.07 10:13장경윤

TSMC, CoWoS에 '플럭스리스 본딩' 적용 추진…AI칩 대형화에 대응

대만 주요 파운드리 TSMC가 첨단 패키징 기술인 '플럭스리스(Fluxless)' 본딩을 적용하는 방안을 추진 중이다. 지난해부터 관련 장비를 도입해 평가를 진행해 온 것으로 파악됐다. AI 산업의 발달로 패키징 크기가 점차 확대되면서, 기술 전환의 필요성이 높아졌다는 분석이 제기된다. 6일 업계에 따르면 TSMC는 2.5D 패키징에 플럭스리스 본딩을 적용하기 위한 공정 평가를 진행하고 있다. 그간 TSMC는 2.5D 패키징을 'CoWoS(Chip-on-Wafer-on-Substrate)'라는 브랜드명으로 자체 개발해 왔다. TSMC는 지난해 2곳 이상의 해외 주요 반도체 장비업체로부터 플럭스리스 본딩 장비를 들여와, CoWos에 양산 적용하기 위한 평가를 진행하고 있다. 나아가 올 상반기에도 또 다른 협력사와 추가적인 평가를 시작할 예정인 것으로 파악됐다. 2.5D 패키징은 칩과 기판 사이에 넓다란 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 기술이다. 기판만을 활용하는 기존 2D 패키징에 비해 회로를 더 밀도있게 연결할 수 있다. 특히 HBM과 고성능 GPU를 연결하는 데이터센터용 AI 가속기 분야에서 CoWoS에 대한 수요가 높다. TSMC는 그간 CoWoS에 플럭스(Flux)를 활용해 왔다. 플럭스는 칩과 인터포저를 연결하는 미세한 범프의 접착력을 높이고, 접합 품질을 떨어트리는 산화막을 방지하는 역할을 맡고 있다. 그러나 CoWoS는 점차 플럭스를 쓰기 어려워지는 환경으로 진화하고 있다. 플럭스는 범프의 접합이 끝난 뒤 제거(세정)돼야 하는데, 인터포저 크기가 커지면 가운데에 묻은 플럭스를 완전히 제거하기가 어렵기 때문이다. 플럭스가 잔존하면 칩 신뢰성이 저해될 수 있다. 실제로 TSMC의 CoWoS 패키징 내 인터포저 크기는 지난 2023년 기준 80x80mm 수준이었다. 레티클(포토마스크; 반도체 회로를 새기기 위한 원판) 대비 약 3.3배 크다. TSMC는 이를 오는 2026년 100x100mm(레티클 대비 5.5배)까지 확대할 계획이다. 2027년에는 120x120mm(레티클 대비 8배) 수준으로 커진다. AI 가속기에 요구되는 컴퓨팅 성능이 높아질수록 더 많은 칩을 내장해야 하기 때문에, 인터포저의 크기도 덩달아 커지는 추세다. 플럭스리스 본딩은 이 문제를 해결할 수 있는 대안으로 꼽힌다. 플럭스리스는 플럭스를 사용하지 않고 범프의 산화막을 제거하는 기술이다. 때문에 해외 주요 반도체 장비기업들이 관련 기술 개발에 주력하고 있다. TSMC도 향후 CoWoS에 플럭스리스 본딩을 적용하는 방안을 적극 검토하는 분위기다. 특히 TSMC는 지난해 CoWoS 수율 향상에 난항을 겪은 바 있어, 플럭스리스를 비롯한 대안 기술에 관심을 기울일 수 밖에 없다는 게 업계의 전언이다. 반도체 업계 관계자는 "현재 TSMC는 플럭스리스 본더를 소량 들여와 연구개발(R&D) 단계에서 평가를 진행하는 중"이라며 "올해까지 테스트가 마무리 될 것으로 보고 있다"고 설명했다.

2025.03.06 14:16장경윤

리미니스트리트-LF, IT 유지보수 협력…SAP·오라클 최적화 지원

리미니스트리트가 LF의 IT 유지보수 비용 절감과 데이터센터 이전 안전성 확보 지원에 나선다. 리미니스트리트는 LF의 SAP 전사적자원관리(ERP)·오라클 데이터베이스 유지보수를 위해 '리미니 서보프' 서비스를 공급했다고 5일 밝혔다. LF는 패션, 라이프스타일, 금융 사업을 운영하고 있다. 최근 데이터센터 이전과 IT 유지보수 비용 증가 문제를 해결할 필요성이 커졌다. 기존 제조사 지원 모델에서는 유지보수 비용이 지속적으로 상승하는 반면, 서비스 품질은 글로벌 표준으로 저하된 것으로 전해졌다. 이에 LF는 리미니스트리트의 유지보수 서비스가 비용 절감과 운영 유연성 확보에 최적화됐다 판단해 도입을 결정했다고 밝혔다. SAP ERP 시스템에는 고객 맞춤형 테이블(CBO) 개발이 포함됐다. 대규모 데이터센터 이전과 함께 유지보수 비용 부담을 줄이는 것도 주요 과제였다. 리미니스트리트는 LF의 IT 운영 안정성을 높이기 위해 전담 전문 엔지니어(PSE)와 맞춤형 기술 지원을 제공하고 있다. 이를 통해 기존 시스템을 유지하면서도 강제 업그레이드 부담 없이 지속적인 운영이 가능해졌다. LF는 리미니스트리트의 지원을 바탕으로 데이터센터 이전 프로젝트를 수행을 완료했다. 기존 제조사 지원 대신 리미니스트리트 맞춤형 서비스를 활용해 유지보수 체계를 개편하고 목표 일정 내에서 프로젝트를 완료했다. LF 이동원 상무 겸 최고정보책임자(CIO)는 "리미니스트리트 도입으로 명확한 비용 절감 효과를 거뒀다"며 "전략적 IT 투자에 집중할 기회를 확보했다"고 설명했다.

2025.03.05 16:39김미정

'클라우드 전쟁' 뛰어든 아카마이…기업용 컨테이너 서비스 출시

아카마이 테크놀로지스(아카마이)가 전 세계 인프라를 활용해 워크로드 실행을 최적화하는 새로운 기술을 내놓았다. 기업들이 애플리케이션을 보다 빠르고 효율적으로 개발·배포하게 함으로써 클라우드 시장에서의 영향력을 보다 확대할 전망이다. 아카마이는 '매니지드 컨테이너 서비스'를 출시해 아카마이 서버가 위치한 700개 이상 도시와 4천300개 이상 네트워크 거점에서 제공한다고 5일 밝혔다. 이 서비스는 현재 100개 이상 도시에서 고객 애플리케이션을 대상으로 테스트가 진행 중이다. 아카마이는 서비스를 통해 통해 클라우드 컴퓨팅 전략을 한층 강화할 계획이다. 이 서비스는 데이터 처리량이 많은 워크로드를 엔드 유저와 가까운 위치에서 실행하도록 설계됐으며 그래픽처리장치(GPU), 오브젝트 스토리지, 매니지드 데이터베이스, 네트워크 서비스 등 풀스택 클라우드 인프라를 지원한다. 특히 동시 접속이 많은 비즈니스 크리티컬 환경에서도 안정적인 성능을 보장한다. 고객 애플리케이션 코드를 구성 파일, 라이브러리, 실행 종속 요소 등과 함께 번들 형태로 제공해 개발과 배포를 간소화한다. 애덤 캐런 아카마이 최고운영책임자(COO)는 "이번 서비스는 아카마이의 글로벌 인프라를 활용해 기업들이 700개 이상 도시에서 워크로드를 실행하고 확장할 수 있도록 돕는다"며 "멀티 클라우드 환경에서 핵심 플랫폼으로 자리 잡는 데 중요한 역할을 할 것"이라고 말했다. 데이브 맥카시 IDC 연구 부사장은 "최신 애플리케이션 환경에서는 고성능, 저지연, 뛰어난 확장성이 필수"라며 "아카마이의 '매니지드 컨테이너 서비스'는 중앙 클라우드뿐 아니라 4천300개 글로벌 클라우드 및 엣지 인프라에서도 최적화된 사용자 경험을 제공한다"고 평가했다.

2025.03.05 10:29조이환

리벨리온, SKT·펭귄솔루션스와 MOU…AI 데이터센터 공략 가속화

리벨리온은 스페인 바르셀로나에서 열린 'MWC25'에서 펭귄 솔루션스(Penguin Solutions), SK텔레콤과 함께 MOU를 체결했다고 5일 밝혔다. 리벨리온은 이번 협력을 통해 NPU 제품과 기술을 바탕으로 사업역량과 기술력을 대규모 데이터센터 수준으로 끌어올린다는 계획이다. 리벨리온은 에너지효율성을 확보한 AI반도체를 바탕으로 카드는 물론 서버와 렉 수준까지 제품 라인업을 확장해왔다. 펭귄 솔루션스는 높은 수준의 AI 인프라 전문성을 바탕으로, 8만5천대 이상의 GPU를 관리하는 AI 인프라 전문 기업이다. SK텔레콤은 최근 AI 인프라 사업에 속도를 내며 펭귄 솔루션스를 비롯한 AI 인프라 관련 기업에 적극 투자하고 있다. 3사는 각사의 경쟁력과 사업 경험을 결합해 이번 협약을 시작으로 AI 데이터센터 분야에서 경쟁력 강화와 시장확대를 위한 전략적 협력에 나선다. 먼저, AI 인프라 구축과 기업 테스트 환경 조성을 위해 협력한다. 리벨리온의 NPU 하드웨어 및 풀스택(Full-Stack) 소프트웨어 기술과 펭귄 솔루션스의 인프라 운영 역량을 결합해 기업 고객이 NPU 기반 AI 인프라 검증과 도입을 할 수 있도록 지원한다. 나아가 AI 데이터센터 최적화를 위해 3사 공동으로 기술협업에 속도를 내고, NPU와 GPU를 모두 지원할 수 있는 데이터센터향 운영 솔루션을 개발한다. 박성현 리벨리온 대표는 "'딥시크(DeepSeek)' 이후 효율적인 운영이 AI 시대의 핵심 키워드로 떠오른 만큼 AI 인프라의 에너지효율성과 경제성 역시 고객에게 중요 평가기준이 될 것”이라며 "이를 위해선 각 분야의 전문성을 지닌 기업이 모여 시너지를 내는 게 필수적이기에 이번 MOU가 효율적인 AI 데이터센터 생태계 구축의 중요한 첫 걸음이 될 것"이라고 밝혔다. 마크 시먼스 펭귄 솔루션스 글로벌 마케팅 부사장은 "우리가 HPC와 AI 클러스터 영역에서 축적해 온 전문성이 이번 협력을 통해 GPU뿐 아니라 NPU 인프라에서도 빛을 발할 것"이라며 "빠르게 성장하는 글로벌 AI 시장에서 최신 AI 인프라를 제공해 고객의 요구사항을 만족시킬 뿐 아니라 복잡한 문제들을 해결하고, 비즈니스 성과를 가속화할 수 있도록 최선을 다하겠다”고 말했다. 이외에도 리벨리온 박성현 대표는 MWC25 공식 행사의 일환으로 패널 세션에도 참가했다. 박 대표는 'Chips for the Future: Fueling Business Transformation with Computing Power(미래를 위한 반도체: 컴퓨팅 파워로 비즈니스 혁신을 가속하다)'라는 제목으로 진행된 세션에서 암페어(Ampere), 안시스(Ansys) 등 세계 유수 반도체 기업 패널들과 AI반도체의 미래에 대해 논의하는 등 글로벌 AI반도체 기업으로서 존재감을 드러냈다.

2025.03.05 09:57장경윤

SKT, 슈나이더와 AI데이터센터 글로벌 진출 맞손

SK텔레콤이 MWC 25에서 슈나이더일렉트릭과 AI데이터센터 기계, 전력, 수배전(MEB) 시스템 분야 협력을 위한 파트너십을 맺었다고 5일 밝혔다. AI 데이터센터 MEP시스템은 기계, 전력, 수배전으로, AI데이터센터 설계 및 구축 단계에서부터 이후 운영 과정에서 안정성과 효율성을 유지하는데 필수적인 역할을 한다. 슈나이더 일렉트릭은 마이크로소프트와 30년 간 글로벌 파트너십을 통한 협력을 지속해오고 있으며, 지난 해 엔비디아와 협력해 AI 데이터센터 인프라 최적화 및 디지털 트윈 기술 기반 마련을 위한 파트너십을 체결하고 데이터센터 레퍼런스 디자인을 선보였다. 또한, 지난해 기준 시가총액 211조원, 매출 58조원 규모로, 전세계 100여 개 국가에서 약 17만명의 임직원이 근무하는 글로벌 기업이다. 특히, 슈나이더일렉트릭이 보유한 데이터센터 전력 및 수배전 분야 기술력은 세계 최고 수준으로, 지난해 미국 타임지가 발표한 '2024 세계 최고의 지속가능 선도기업' 1위에 선정되기도 했다. 양사는 이번 파트너십을 통해 국내 지역 거점에 하이퍼 스케일급 AI 데이터센터 건설 및 구축 사업 협력을 논의할 예정으로 MEP 분야에서 부품 제품 솔루션과 컨설팅 등 전 사업 영역에서 협력할 예정이다. 향후, SK텔레콤은 슈나이더 일렉트릭과 장기적인 파트너십을 통해 AI데이터센터 관련 공동 솔루션을 개발하고, 이를 통해 글로벌 시장으로 AI 데이터센터 사업을 확장해 나갈 계획이다. 판카즈 샤르마 슈나이더일렉트릭 시큐어 파워 및 서비스 총괄 사장(EVP)은 “슈나이더 일렉트릭은 오랜 경험과 기술력을 바탕으로 데이터센터 전력 인프라, 냉각 시스템, 관리 솔루션 등 MEP 전반에 걸친 최적화된 솔루션을 제공하고 있다”며 “이번 협력을 통해 SK텔레콤의 AIDC 운영 역량과 결합하여 최고의 시너지를 창출할 것으로 기대한다”고 밝혔다. 유영상 SK텔레콤 CEO는 “세계 최고 수준의 AI 데이터센터 솔루션 사업자인 슈나이더 일렉트릭과의 협력을 통해 우리 회사의 AI DC 경쟁력 강화는 물론 글로벌 시장 진출에도 크게 기여할 수 있을 것으로 기대한다”고 말했다.

2025.03.05 08:16박수형

"서울 데이터센터 시대 끝났다"…IDC 개발, 인천·부천으로 이동

수도권 데이터센터 개발 중심이 서울에서 인천·부천으로 이동하고 있다는 조사 결과가 나왔다. 전력 공급과 토지 부족 문제로 기업들이 신규 입지를 서부 수도권으로 넓히는 가운데 글로벌 투자와 대규모 거래가 맞물리며 시장 재편이 가속화됐다는 분석이다. 4일 쿠시먼앤드웨이크필드가 발간한 '2024년 하반기 데이터센터 보고서'에 따르면 지난해 하반기 기준으로 데이터센터 신규 개발의 46%는 인천·부천 권역에서 이뤄질 예정이다. 현재 수도권 데이터센터 운영 용량은 520메가와트(MW)로, 개발 및 공사 중 물량 638MW가 완료되면 1기가와트(GW)를 넘을 전망이다. 기존에는 서울 남서부가 이들의 허브 역할을 해왔다. 지난해 맥쿼리인프라는 하남 IDC를 7천436억원에 매입하며 본격적으로 시장에 진출했으며 퍼시픽자산운용 역시 캐나다연금투자와 손잡아 약 1조원 규모의 개발 펀드를 조성했다. 또 인베스코는 이지스자산운용의 안산 초지동 데이터센터에 투자했으며 영국계 투자사 액티스(Actis)도 영등포구에 데이터센터를 준공한 바 있다. 다만 데이터센터 업체들은 서울 내 전력 공급 제한과 토지 부족 문제로 인해 신규 입지를 수도권 외곽으로 확대하고 있다. 아직까지는 서울 남서부(강서·구로·금천·양천·영등포)가 수도권 데이터센터 운영 용량의 26%를 차지하고 있으나 신규 개발은 인천과 부천을 중심으로 진행되는 추세다. 그 이유는 서울에서 신규 데이터센터 건립이 점점 더 어려워지고 있기 때문이다. 전력 인프라가 이미 포화 상태에 가까워지면서 안정적인 전력 공급이 어려워졌고 대규모 부지를 확보하는 것도 제한적이다. 반대로 인천·부천 지역은 상대적으로 저렴한 부지 가격과 안정적인 전력 공급을 갖추고 있어 기업들이 대체 입지로 선택하는 사례가 늘어나고 있다. 이에 따라 인천·부천이 하이퍼스케일 및 클라우드 데이터센터의 새로운 거점으로 자리 잡을 가능성이 크다. 보고서는 데이터센터의 전력 수급 문제가 지속되면서 정부가 전력계통영향평가 제도를 정비한다는 점도 지적했다. 기존 제도는 일부 지역에 전력 공급이 집중되는 문제를 해결하기 위해 도입됐지만 운영 과정에서 실효성이 부족하다는 지적이 있었다. 이에 정부는 평가 절차를 조정해 지역별 전력 분산을 보다 효과적으로 추진하고 데이터센터 운영에 필요한 전력 안정성을 높일 계획이다. 또 데이터센터 업계는 향후 보다 엄격한 규제를 맞이하게 될 전망이다. 올해부터 연면적 1천제곱미터(㎡) 이상인 모든 데이터센터는 제로에너지건축물(ZEB) 5등급 이상 인증을 의무적으로 받아야 한다. 이에 따라 데이터센터 업계는 에너지 효율 개선과 신재생 에너지 도입이 필수가 됐다. 개인정보보호법(PIPA) 개정으로 국내외 기업들이 더욱 엄격한 데이터 보호 기준을 준수해야 하게 됐다. 특히 한국인을 대상으로 서비스를 제공하는 데이터센터는 강화된 보안 규정을 따르면서도 운영 효율성을 확보해야 하는 과제를 안게 됐다. 시장 측면에서 데이터센터 산업은 지속적인 성장세를 보이고 있다. 수도권 데이터센터의 공실률은 6%까지 낮아지고 있으며 코로케이션(colocation) 수요가 꾸준히 증가하고 있다. 금융·클라우드·IT 기업들의 서비스 확장이 가속화되면서 신규 데이터센터의 허가, 착공, 완공이 잇따르는 중이다. 업계에서는 이러한 흐름이 지속될 경우 데이터센터가 단순한 부동산 자산을 넘어 IT 인프라의 핵심으로 자리 잡을 것으로 전망하고 있다. 쿠시먼앤드웨이크필드 관계자는 "서울 내 데이터센터 확장이 어려워지면서 기업들이 새로운 입지를 모색하고 있다"며 "특히 인천·부천 지역에 데이터센터가 증가할 가능성이 크다"고 밝혔다.

2025.03.04 16:42조이환

SKC, MWC25 첫 참가…반도체 '글라스기판' 실물 전시

SKC는 3~6일(현지 시간)까지 열리는 세계 최대 모바일 전시회인 'MWC25'에서 글라스기판을 선보인다고 3일 밝혔다. SKC는 SK텔레콤이 운영하는 전시관 내 AI DC (AI 데이터센터)구역에서 글라스기판을 실물 전시한다. '혁신적인 AI, 미래를 앞당기다'를 주제로 조성되는 이번 전시는 AI 데이터센터(이하 AI DC) 관련 주요 기술과 AI 기반 통신 인프라에 관한 연구 성과가 총망라됐다. 글라스기판은 AI DC구역에서 대규모 데이터를 처리하는 데 필요한 핵심 기술로 소개된다. 특히 SK하이닉스의 고대역폭 메모리인 HBM3E와 데이터센터용 고성능 SSD 스토리지와 함께 전시되며 AI 통합 솔루션을 제시할 예정이다. 글라스기판은 초미세회로 구현이 가능하고 MLCC 등 다양한 소자를 내부에 넣어 표면에 대용량 중앙처리장치(CPU)와 그래픽처리장치(GPU)를 얹을 수 있다. 글라스기판을 반도체 패키징에 적용하면 전력 소비와 패키지 두께는 절반 이상으로 줄어들고 데이터 처리 속도는 기존 대비 40% 빨라진다. SKC관계자는 “세계 최초 반도체 글라스기판 상업화 기업으로서 지난 CES2025에 이어 이번 MWC25에서도 기술 우수성을 전 세계에 선보일 것”이라며 “목표로 했던 연말 글라스기판 상업화를 통해 전 세계가 주목하는 AI 기술 고도화에 기여할 수 있길 기대한다”고 말했다.

2025.03.03 11:09장경윤

SK온, '액침냉각' 배터리 팩 공개…급속 충전 시 열 폭주 방지

SK온과 오는 5일 개막하는 국내 최대 배터리 전시회 '인터배터리 2025'에서 SK엔무브와 개발 중인 차세대 액침냉각 기술을 전시할 예정이라고 3일 밝혔다. 액침냉각은 절연성 냉각 플루이드를 배터리 팩 내부에 순환시켜 열을 효과적으로 방출하는 시스템이다. 냉매가 배터리 셀과 직접 접촉하기 때문에 공랭식, 수랭식 등 간접 냉각 방식보다 온도 상승을 더욱 효율적으로 억제한다. 급속충전 등 발열이 심한 상황에서 배터리 셀 온도를 일정 수준 이하로 유지해 열 폭주(TR) 발생을 방지해 화재나 폭발 위험성을 대폭 낮추는 데도 기여한다. 셀 간 온도 편차를 줄여 배터리 수명 연장에도 기여한다는 설명이다. 양사가 개발 중인 액침냉각 배터리 팩은 냉각 플루이드와 셀의 접촉 면적을 극대화하는 최적의 유로 설계로 냉각 효율을 향상시킨 것이 특징이다. 화재 시 플루이드가 원활히 공급되는 시스템을 구축해 열 확산(TP) 방지 성능도 높였다. SK온은 독자적 무선 배터리관리시스템(BMS)를 접목해 액침냉각의 성능을 극대화한다는 방침이다. 기존 BMS는 셀의 배터리 정보를 한 데 모으기 위해 금속 케이블과 커넥터 등을 사용했다. 때문에 배터리팩 구조가 복잡해지고, 공간 효율성도 낮아지는 문제가 있었다. 무엇보다 액침냉각을 도입할 경우, 케이블이 냉각 플루이드의 흐름을 방해해 냉각 성능을 저해하는 부분이 개선사항으로 꼽혔다. 이에 SK온은 배터리 셀 탭에 무선 칩을 직접 부착하고, 해당 칩이 수집한 정보를 모듈의 안테나가 BMS에 전송하는 구조를 고안했다. 액침냉각 모듈 내부에 별도 케이블이 없어 냉각 플루이드가 원활하게 흐를 수 있다. 단순한 구조와 우수한 물리적 안전성을 갖추고 있어 플루이드의 잠재적 누출 위험이 줄어들고, 방수 성능 역시 향상된다. 여유 공간이 확보되면서, 에너지 밀도 개선도 가능하다. 차량 진동 등에 따른 케이블, 커넥터의 결함 발생을 원천적으로 차단하기 때문에, 제품 신뢰성 또한 높일 수 있을 전망이다. SK온은 무선 BMS 기술이 상용화되면 '배터리 여권' 보급 및 활성화도 앞당겨질 것으로 전망했다. 무선 칩을 활용하면 각 셀의 생산 공정부터 원산지, 사용 기간, 재활용 가능성 등에 이르기까지의 이력을 간편하게 조회할 수 있다. 배터리 충전 상태(SOC), 잔존 수명(SOH), 출력 수명(SOP) 등 진단 정보도 저장·관리하기 용이해진다. 이를 통해 배터리 전 생애 주기 데이터를 투명하게 관리해 신뢰성을 제고하고, 환경적 영향을 최소화하며, 나아가 순환 경제를 촉진하는 데 도움이 될 것으로 봤다. SK엔무브는 지난 2023년 SK텔레콤과 협력해 SK텔레콤 데이터센터에 SK엔무브 냉각 플루이드를 적용하고 실증평가를 진행한 결과, 공랭식 대비 총 전력 소비를 37% 절감하는 성과를 거두기도 했다. 지난해에는 한화에어로스페이스와 손잡고 불에 타지 않는 ESS 액침냉각 제품 개발에 성공했다. 박기수 SK온 연구개발(R&D) 본부장은 “전기차 보급률이 높아질수록 안전성이 중요해지는 만큼, 향후 액침냉각 및 무선BMS에 대한 수요가 커질 것으로 예상한다”며 “SK온은 해당 시장을 선도하는 동시에, 앞으로도 끊임없는 기술개발과 혁신을 기반으로 모빌리티의 전동화에 기여해 나갈 것”이라고 말했다.

2025.03.03 10:41김윤희

"지진 8.0도 끄떡없다"…LG CNS, 데이터센터 재해 대응 역량 입증

LG CNS가 운영 중인 데이터센터의 안전성을 최근 행정안전부로부터 입증 받으며 재해 대응 역량을 과시했다. LG CNS는 상암과 부산, 가산, 하남 등 자사 운영 데이터센터에 대해 행안부로부터 '재해경감 우수기업 인증'을 획득했다고 28일 밝혔다. ▲상암 ▲부산 ▲가산 데이터센터는 LG CNS가 소유·운영하고 있으며 ▲하남 데이터센터는 LG CNS가 위탁 운영 중이다. '재해경감 우수기업 인증'은 재난과 같은 위기가 발생했을 때 기업활동이 중단되지 않도록 하는 비즈니스 연속성 경영시스템(BCMS, Business Continuity Management system)을 평가해 우수기업에게 인증서를 수여하는 제도다. LG CNS 데이터센터는 각종 재난이 발생하더라도 최단 시간내에 핵심 시스템을 복구하고 피해를 최소화하는 역량을 보유하고 있다. 특히 무중단 전력 공급 역량과 화재, 지진 등의 재해 대응 측면에서 높은 평가를 받았다. LG CNS 데이터센터는 고객에게 365일 24시간 무중단으로 서비스를 제공한다. 데이터센터의 핵심 인프라 설비인 무정전 전원공급장치(UPS, Uninterruptible Power Supply) 등을 갖추고 있으며 이중화된 변전소에서 안정적으로 전력을 공급한다. 전력 공급이 중단될 때도 자가발전 시스템으로 동일 용량의 전원 공급이 가능하다. LG CNS는 정전에 대비해 실제 전원을 차단시켜 데이터센터의 핵심 설비가 정상 작동하는지 검증하는 정전테스트(PIT, Power Interruption Test)도 매년 실시하고 있다. 또 LG CNS는 디지털트윈 기술을 바탕으로 데이터센터의 전력계통을 3D로 구현했다. 과거에는 전력계통 장애 시 현장에 출동해 문제를 파악하는 시간이 많이 소요됐다면, 이제는 3D로 시각화된 전력장비와 전력흐름을 보고 현장에 가지 않더라도 직관적인 상황 파악과 신속한 대응이 가능하다. LG CNS는 AI 기술을 적용해 데이터센터의 안전성을 강화하고 있다. 예를 들어 AI CCTV는 데이터센터에서 연기가 피어오르거나 작은 불꽃이 발생할 경우 즉각적으로 화재 위험신호를 탐지해 경고 알림을 제공한다. 이 외에도 LG CNS 데이터센터는 공기 흡입형 감지기, 소방감지기 등 최첨단 기술과 설비를 통해 다중 감시 방식으로 운영되고 있어 화재 위험으로부터 안전하다. LG CNS는 관할 소방서와 함께 매년 비상 대응 훈련도 실시하고 있다. LG CNS '부산 글로벌 클라우드 데이터센터'는 면진구조를 갖춘 대한민국 대표 데이터센터로 꼽힌다. 부산 데이터센터는 국내 최초의 면진 데이터센터로, 규모 8.0의 강진도 견딜 수 있도록 설계됐다. 면진건물은 지진 발생 시 고무기둥 댐퍼가 좌우로 흔들리면서 진동 에너지를 흡수하기 때문에 건물과 서버 등의 장비는 지진의 영향을 받지 않고 안전하게 보호된다. 지난해 8월 LG CNS 데이터센터는 국제표준화기구(ISO, International Standardization)가 공인하는 '비즈니스 연속성(ISO22301) 인증'을 받기도 했다. LG CNS 데이터센터의 비즈니스 연속성 경영시스템(BCMS)이 국내뿐만 아니라 국제 표준에서도 인정을 받은 것을 의미한다. 더불어 LG CNS 데이터센터는 '에너지경영시스템(ISO50001) 인증'도 받았다. 에너지경영시스템 인증은 국제표준화기구가 기후변화 시대의 기업경영에 있어 에너지 절감 계획과 실행, 운영을 촉진하기 위한 국제 인증이다. LG CNS는 데이터센터의 온실가스 모니터링 시스템을 구축해 온실가스 배출량을 상시 확인하고 관리하는 체계를 마련했다. 태양광 발전설비도 도입해 온실가스 배출량을 저감하고 있다. 김태훈 LG CNS AI클라우드사업부 전무는 "자사가 운영중인 모든 데이터센터가 재해 대응 역량의 우수성을 국내외에서 인정 받았다는 점에서 큰 의미가 있다"며 "기업 고객들이 안전하게 데이터센터 서비스를 이용할 수 있도록 고객가치를 지속 강화할 것"이라고 강조했다.

2025.02.28 10:01장유미

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

李, 네이버 출신 트리플 발탁...플랫폼 '꽃' 필까

네이버 "소버린 AI는 현지화+자립"…韓 넘어 글로벌 확산 핵심 키워드로 '부상'

[SW키트] "AI가 고른 사이트만 생존"…'콘텐츠 노출 전쟁' 시작

LG는 '전담조직 신설', 삼성은 '기술 인수'…HVAC 주도권 승부수

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.