• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (285건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 시대, 델이 제안하는 '분리형 IT 인프라'…"기업 HW·SW 선택권 모두 넓힌다"

델 테크놀로지스가 인공지능(AI) 시대를 맞아 빠르게 늘어나고 변화하는 기업의 IT 시스템과 워크로드를 모두 확장·지원할 수 있는 '분리형 IT 인프라'를 제시한다. 이를 통해 기업의 서버·스토리지 선택권을 넓히고 컴퓨팅 자원과 데이터 활용성을 높일 수 있도록 돕겠다는 방침이다. 델 테크놀로지스 크리스 켈리 아시아태평양·중국·일본(APJC) 인프라솔루션그룹(ISG) 수석 부사장은 8일 진행된 '모던 인프라 솔루션 신제품 출시' 온라인 미디어 브리핑에서 "자사가 제안하는 분리형 인프라는 기업이 하나의 벤더에 종속되지 않고 원하는 방향으로 인프라의 유연성과 적응력을 확보할 수 있는 지원 방안"이라고 강조했다. 최근 모든 산업에서 전통적인 IT 워크로드를 비롯해 가상머신(VM)·데이터베이스(DB)·전사적자원관리(ERP), 나아가 AI 운용을 뒷받침하는 컨테이너와 같은 현대적 워크로드가 폭발적으로 증가하고 있다. 이에 따른 비용 예측의 불확실성과 사이버보안 문제도 함께 늘어나는 상황이다. 이에 델은 기존의 전통적인 3티어 아키텍처와 하이퍼컨버지드 인프라(HCI)보다 효율적으로 IT 인프라를 관리하면서도 보안은 더욱 강력하게 갖출 수 있는 접근 방법으로 분리형 인프라를 내세우고 있다. 크리스 켈리 부사장은 "분리형 인프라는 3티어 아키텍처가 갖춘 서버·스토리지·네트워킹의 독립성과 HCI가 제공할 수 있는 통합성·유연성을 모두 결합해 지원할 수 있는 구조"라며 "필요한 하드웨어(HW)와 소프트웨어(SW)만을 유연하게 이용해 비용은 적게 들고 라이프사이클 관리는 간편해져 기업 전사적으로 데이터센터와 인프라의 효율성이 높아지는 성과를 얻을 수 있다"고 설명했다. 델은 이같은 방법론에 입각해 자사 서버부터 스토리지, 보안 솔루션 등 엔드투엔드 포트폴리오 전반을 업데이트했다. 먼저 서버 부문에서는 '파워엣지 R470·570 싱글 소켓 서버'와 '파워엣지 R670·770 듀얼 소켓 서버'를 새롭게 출시했다. 두 서버 제품군 모두 인텔 제온6 프로세서를 기반으로 전작 대비 2.5배 더 높은 코어 성능을 갖췄다. 이런 성능을 바탕으로 인프라 확장성이 요구되는 컨테이너와 가상화는 물론 대규모 데이터 분석과 AI 모델 학습에 최적화돼 있다. 스토리지 영역도 더욱 강화됐다. 델의 대표 스토리지 제품군인 '파워스토어'는 SW 주도형 아키텍처가 적용돼 '스마트 서포트'라는 기능이 추가됐다. 이는 스토리지의 이상 현상을 예측하는 등 장비 운용 현황에 대한 가시성을 확보할 뿐만 아니라 이산화탄소 배출량도 파악할 수 있는 기능이다. 또 데이터 절감 기술도 적용돼 있어 절감 가능한 데이터 파악과 함께 스토리지 내 용량과 운영 중인 데이터센터 전반의 현황을 쉽게 파악할 수 있도록 돕는다. 데이터 백업 환경과의 연결성도 강화돼 운영 환경으로의 데이터 복구 시 속도가 4배 빨라졌다. 이에 더해 민감 데이터를 보관하는 행정·공공기관 및 조직을 위한 멀티 팩터 인증(MFA) 지원 '스마트 카드'도 제공한다. 민감 데이터 접근을 위한 추가 인증 과정을 지원하며 인증서 갱신도 자동으로 수행한다는 게 강점이다. 파워스토어 외에도 델은 생성형 AI와 클라우드 네이티브 애플리케이션 개발 등 까다로운 워크로드를 지원하는 올플래시 스토리지인 '오브젝트스케일'도 공급 중이다. 또 기업의 AI 집약적인 워크로드 활용을 염두에 둬 고밀도의 SSD를 탑재해 효율성을 더욱 향상한 '파워스케일'도 제공한다. 사이버보안 대응과 발 빠른 데이터 복구를 지원하는 보안 솔루션인 '파워프로텍트'도 업데이트했다. 델 테크놀로지스 대니 엘마지 APJC 프리세일즈 부사장은 "파워프로텍트는 사이버 위협에 대응할 수 있는 강한 보안성을 충족하고 컴플라이언스 구축을 돕는 백업 포트폴리오"라며 "현재 1만5천여 개에 달하는 기업 데이터 시스템을 지원하고 있으며 2천600여 개의 고객사가 더 고도화된 사이버 금고 솔루션을 이용 중"이라고 말했다. '파워프로텍터 데이터 매니저'라는 SW도 제공해 보안 취약점에 대한 인사이트를 미리 제공하고 시스템을 안전한 환경으로 격리할 수 있도록 돕는다. 이에 더해 쿠버네티스 환경에 대한 보안 모니터링도 지원한다. 델은 분리형 인프라 아키텍처를 기반으로 서버·스토리지·보안 각 영역의 솔루션을 확대해 기업이 유연하게 각 사에 맞춤화된 인프라 환경을 구축할 수 있도록 지원한다는 목표다. 대니 엘마지 부사장은 "분리형 인프라는 기업이 장기적인 관점에서 필요한 요소들을 각각 독립적으로 구축하고 고도화할 수 있는 현대화된 방법"이라며 "AI 시대에 데이터와 인프라 활용력을 높여야 하는 모든 조직에게 중요한 접근 방식"이라고 강조했다. 크리스 켈리 부사장은 "자사는 빠르게 변화하는 시장 환경에 맞춰 고객에게 다양한 선택권을 제공한다"며 "분리형 인프라를 제안하는 것은 전통적인 3티어와 HCI 아키텍처를 지원하지 않는 것이 아닌 새로운 서비스 역량을 추가한 것"이라고 밝혔다. 이어 "컴퓨터 자원 활용도를 높이고 적재적소에 확장 가능한 인프라를 제공하기 위해 고객사·파트너들과 긴밀히 협력해 자사 포트폴리오를 발전시켜 나가겠다"고 덧붙였다.

2025.04.08 22:01한정호

[유미's 픽] 트럼프 관세 폭탄 '코 앞'…글로벌 SW·AI 시장 찬바람 불까

미국의 상호관세 적용 시점이 하루 앞으로 다가오면서 글로벌 소프트웨어, 인공지능(AI) 시장도 들썩이고 있다. 관세율 계산 방식이 엉터리란 지적에도 불구하고 도널드 트럼프 미국 대통령이 강행 의사를 고수하면서 빅테크와 AI 스타트업들이 어려움을 겪을 것이란 전망이 나오고 있다. 8일 업계에 따르면 트럼프 대통령이 지난 2일 모든 나라에 기본 관세율 10% 이상의 관세를 부과하는 상호관세 조치를 발표했다. 기본 관세 10%는 지난 5일부터 시행되고 있다. 한국(25%)을 비롯해 미국이 이른바 '최악 침해국'으로 분류한 국가에 대한 국가별 상호관세 조치는 오는 9일부터 적용된다. 미국발 관세 폭탄 여파로 글로벌 시장은 혼란에 휩싸였다. 일부 국가는 미국에 협상단을 급파해 인하 방안을 모색하고 있지만, 강력한 보복 관세로 맞대응한 나라들도 있어 일부 기업들의 피해가 우려된다. 특히 이번 조치로 소프트웨어, AI 시장을 이끄는 미국 빅테크들이 오히려 적지 않은 충격을 받을 것으로 예상돼 관련 기업들이 대책 마련에 골몰하는 분위기다. 가장 반감이 심한 곳은 유럽연합(EU)과 중국이다. EU는 미국의 인터넷, 소프트웨어 빅테크를 타깃으로 광범위한 보복을 준비하고 있다. 개인 정보 보호 정책을 강화하고 있는 데다 디지털 서비스에 대한 세금 부과에 나서고 있다는 점도 관련 기업들의 EU 시장 진출에 점차 걸림돌로 작용할 것으로 보인다. 에리크 롱바르 프랑스 재무장관은 "EU 차원에서 특정 디지털 기업들의 데이터 사용을 규제하고 세금을 부과할 수 있다"며 "모든 방안을 두고 논의 중"이라고 밝혔다. 업계 관계자는 "(프랑스 재무장관 발언은) 구글·마이크로소프트(MS)·아마존·메타 등의 유럽 내 독과점을 명분으로 벌금을 부과하거나 서비스를 제한하는 방안을 고려 중이란 뜻"이라고 해석했다. 중국도 미국의 움직임에 즉각 반발하며 끝까지 맞설 것이라고 경고했다. 현재 미국은 중국에 20%의 관세가 부과되고 있었던 상황에서 상호관세 34%를 더해 54%를 부과키로 했다. 여기에 트럼프는 중국이 맞불 관세를 철회하지 않으면 50%를 추가한다는 방침을 내놔 상황을 더 악화시켰다. 이로 인해 각국의 눈치만 보고 있는 기업들은 미국 소프트웨어 서비스를 이용하는 데 주저하는 분위기다. 각국 정부가 미국 업체들에 대한 규제에 나설 것이란 우려 속에 상호관세 여파에 따른 장기 불황 우려가 갈수록 높아지고 있어서다. IT 전문 매체 디인포메이션은 "(미국 관세 정책에 따른) 경기 침체 가능성으로 인해 소프트웨어 구매 업체들이 신규 거래를 중단하고 있다"며 "이로 인해 관련 기업들이 모두 피해를 보고 있다"고 말했다. 대기업의 소프트웨어 계약 협상을 돕는 애덤 맨스필드 어퍼엣지 컨설턴트는 "시장 불확실성으로 인해 소프트웨어에 연간 수백만 달러를 지출하는 일부 고객이 MS와 세일즈포스, SAP, 오라클, 서비스나우와의 거래를 미루고 있다"며 "예산은 이미 올해 들어 압박을 받고 있었는데 시장 붕괴로 인해 고객들이 예산을 더 삭감하게 됐다"고 분석했다. 벤 바링어 퀼터체비엇 글로벌 기술 애널리스트는 "관세가 수요를 위축시켜서 소프트웨어 및 클라우드 지출이 줄어들 것"이라며 "디지털 광고 지출까지 감소할 수 있는 어려운 경제 환경에서 알파벳은 이중 타격을 받을 수 있고 메타도 마찬가지"라고 지적했다. 미국이 자의적 상호관세율을 적용한 것도 문제다. 자국이 흑자를 보는 서비스 무역을 제외한 채 관세율을 산정했기 때문이다. 미국은 우리나라는 물론 대부분 국가에서 서비스 무역 부문에서 흑자를 내고 있다. 중국에서는 318억 달러, 유럽연합에서는 756억 달러, 캐나다에서는 349억 달러 흑자를 각각 거뒀다. 한국에선 107억 달러 흑자를 냈다. 하지만 미국은 상호관세율을 정할 때 적자를 보고 있는 상품 무역만 반영했다. 지난해 한국과의 상품 교역에서 662억 달러 적자를 본 것만 고려해 관세율을 25%로 측정했으며 EU(2천367억 달러 적자), 중국(2천952억 달러 적자) 등도 마찬가지다. 서비스 무역 부문을 고려하면 관세율은 한국이 19%, EU 14%, 중국 29% 수준이다. 업계 관계자는 "구글, 애플, MS, 메타 등이 전 세계에서 벌어들이는 구독료, 수수료, 광고 수입금, 저작권 사용료 등 서비스 무역에 대한 부분은 고려되지 않았다"며 "트럼프 대통령이 상호관세율을 정할 때 각국의 플랫폼 규제 등 비관세 장벽을 고려하겠다고 주장해놓고 정작 상호관세율을 정할 때 자국 서비스 무역을 쏙 뺀 것은 앞뒤가 맞지 않다"고 주장했다. 이어 "이는 미국을 상대로 서비스 무역 적자를 겪고 있는 다른 나라들이 똑같이 미국을 향해 상호관세를 매길 수 있는 빌미를 제공하게 될 것"이라며 "관세까진 아니더라도 미국 기업을 향한 규제 강화 등의 보복 조처로 반격에 나설 가능성이 높다"고 덧붙였다. 이 같은 분위기 탓에 글로벌 AI 시장도 찬바람이 불고 있다. AI 성장성을 보고 시장에 대규모 자금을 투입했던 투자자들이 미국의 상호관세 움직임 탓에 보수적으로 돌아섰기 때문이다. 특히 자금 마련에 어려움을 겪었던 AI 스타트업들에 대한 지원이 사그라들면서 도산하는 기업들이 많아질 것이란 전망도 나오고 있다. 디인포메이션은 "최근 나스닥 종합지수가 최고치에서 20% 이상 하락하면서 스타트업 등에 자금을 지원하던 투자자들로부터 투자를 받는 것이 더 어려워질 것이란 예상이 많다"며 "경제가 안정될 때까지 벤처 기업을 지원하기 위한 새로운 투자자 신규 자본 조달을 일시 중단하겠다고 나서는 곳들이 속속 등장하고 있다"고 밝혔다. 이어 "기업 인수 움직임들도 중단될 조짐을 보이기 시작했다"며 "시장의 불확실성이 없어질 때까지 인수합병(M&A) 결정은 보류될 듯 하다"고 덧붙였다. AI 인프라 시장도 이번 관세 정책으로 인한 충격이 상당하다. 특히 AI 기술 고도화로 대규모 AI 인프라 구축에 열을 올리던 빅테크들이 막대한 비용 부담을 떠안게 되면서 계획에 차질을 빚을 가능성이 커졌기 때문이다. 특히 '챗GPT', '클로드' 등의 AI 서비스를 구동하는 소프트웨어 모델을 개발한 오픈AI, 앤트로픽 등은 과도한 비용 부담을 이용자들에게 요금 인상으로 전가시킬 우려가 있다는 지적도 나오고 있다. 이 기업들은 연산 작업 처리를 위해 MS, 아마존, 구글, 오라클 등의 클라우드 기업들에 의존하고 있다. 클라우드 기업들은 고객사 유치를 위해 데이터센터 등의 AI 인프라를 구축하는데, 이번 미국의 상호관세 여파로 건설에 필요한 자재 비용이 큰 폭으로 오를 것이란 예상이 나와 난감한 상황이다. 디인포메이션은 "오픈AI, xAI, 앤트로픽 등을 위해 건설 중인 새로운 데이터센터 건설 비용이 급등할 위기에 처해있다"며 "오라클 임원진의 경우 오픈AI를 위해 텍사스에 건설 중인 데이터센터와 관련한 비용 상승에 대해 우려하기도 했다"고 분위기를 전했다. AI 기업 아이세라의 무두 수다카르 최고경영자(CEO)는 "데이터센터 건설 비용이 오르면 AI 사용료도 오를 가능성이 높다"며 "결국 추가 비용을 소비자들이 감당하게 될 것"이라고 관측했다. 그러면서 "이에 따라 기업들이 지출을 보다 엄격히 통제해야 할 것"이라고 덧붙였다. 다만 국내 소프트웨어 업체들은 이번 일에 따른 영향이 크지 않을 것으로 보인다. 상품이 형태가 없는 무형의 서비스여서 관세 부과 자체가 쉽지 않다는 점에서다. 업계 관계자는 "당장은 영향을 받지 않겠지만 미국이 디지털 서비스 세금과 같은 비관세 장벽을 도입할 경우 한국 소프트웨어 기업들도 다소 영향을 받을 수 있을 것"이라며 "트럼프 정부의 정책 변화가 예측이 불가할 때가 많은 만큼 지속적인 모니터링을 통해 대응 전략을 갖춰 나가는 것이 중요해 보인다"고 밝혔다.

2025.04.08 17:09장유미

AI 시대, 데이터 폭발적 증가…냉각 기술에 '주목'

인공지능(AI) 시대를 맞아 데이터가 폭발적으로 증가하면서 이를 수용하는 데이터센터 장비의 과열을 방지하기 위한 냉각 기술의 필요성이 크게 늘고 있다. 이에 국내 첨단기술 인력 양성에 힘쓰는 한국미래기술교육연구원이 데이터센터 전문 세미나를 진행한다. 한국미래기술교육연구원은 다음 달 23일 '데이터센터 냉각시스템 개발 및 구축 사례와 효율적 운영방안 세미나'를 서울 여의도 FKI타워 사파이어홀에서 온오프라인으로 병행 개최한다고 8일 밝혔다. 이번 세미나에서는 공조·냉각 시스템부터 액침냉각·액침냉각유, 무정전전원장치(UPS), 히트펌프, 액화가스(LNG) 냉열·지열 등 데이터센터 관련 내용들이 폭넓게 다뤄질 예정이다. 최근 AI와 미디어의 발달로 생성되는 데이터가 급격히 증가함에 따라 데이터센터의 효율적이고 안정적인 운영을 위한 서버·스토리지 및 기타 네트워킹 장비의 과열을 방지하는 냉각 기술의 필요성이 커지고 있다. 냉각시스템은 ▲바닥 설계 ▲에어컨 장치 ▲액체·액침 냉각 솔루션 ▲LNG 기화 냉열 기술 ▲폐열을 재활용하기 위한 히트펌프 기술 ▲상승 및 외부 차가운 공기를 활용하는 프리쿨링 냉각 등 다양한 기술을 통해 가동 중지 시간을 최소화하고 장비 수명을 연장하며 에너지 소비를 줄이기 위한 필수적 요소다. 글로벌마켓인사이트에 따르면 지난해 약 159억 달러(한화 23조3천968억원) 수준에 그쳤던 전 세계 데이터센터 냉각 시장 규모가 2032년에는 약 3배 성장한 517억 달러(한화 76조765억원)에 이를 것으로 예상된다. 또 리서치네스터는 세계 데이터센터 냉각 기술 및 솔루션 시장이 지난해 약 212억 달러(한화 31조2천339억원) 규모에서 2037년 약 1천351억5천만 달러(한화 199조1천164억원)에 이를 것으로 전망하고 있다. 이번 세미나는 ▲데이터센터 냉각시스템 방식 비교와 냉각 설비·설치 기준 ▲발열 서버 냉각 장치용 하이브리드 UPS 및 AI 데이터센터용 파워솔루션 소개 ▲데이터센터 전용 액침냉각유 개발과 상용화 방안 ▲데이터센터 통합 엔지니어링 기술과 고밀도 서버랙 냉각방식 설계사례 ▲액침냉각 폐열 활용 흡착식 히트펌프 기술 개발과 데이터센터 적용방안 ▲LNG 냉열을 이용한 데이터센터 냉각시스템 개발 및 성능평가 ▲데이터센터 냉각을 위한 LNG 기화 냉열과 지열 에너지 융합 기술 개발 및 실증사례 등의 주제 발표가 예정돼 있다. 세미나와 관련된 자세한 사항은 홈페이지(www.kecft.or.kr)를 참조하거나 전화(02-545-4020)로 문의하면 된다. 연구원 관계자는 "데이터센터 냉각 기술의 발전은 데이터센터 운영의 경제적 효율성뿐 아니라 탄소 배출 저감을 통한 환경적 지속 가능성을 높이는 데 중요한 역할을 하고 있다"며 "데이터센터의 효율적 운영은 사회 전반에 걸쳐 여러 긍정적인 효과를 유발해 스마트시티, 디지털 헬스케어, AI 연구 등 다양한 분야에서 중요한 기반을 제공할 것"이라고 말했다. 이어 "이번 세미나가 성장 가능성이 높은 신사업인 데이터센터 운영의 효율성 증대와 더불어 기업의 지속 가능성을 높이는 데 핵심적인 역할을 할 기회가 될 것"이라고 덧붙였다.

2025.04.08 10:46한정호

[인터뷰] "엔비디아 사로 잡은 비결, '델 AI 팩토리' 덕분"

"바이 델(Buy Dell·델 제품을 사세요), 바이 델, 바이 델!" 지난 달 18일. 미국 새너제이에서 열린 엔비디아 연례 개발자 회의 GTC 행사에 마련된 델 테크놀로지스 부스에선 '인공지능(AI) 대부'로 불리는 젠슨 황 엔비디아 최고경영자(CEO)가 목청을 높여 이처럼 외쳤다. 컴퓨터를 필요로 하는 이들이라면 누구나 알고 있는 '델'의 PC뿐 아니라 AI 인프라 경쟁력을 인정하며 엔비디아의 가장 최고 파트너라는 점을 치켜 세워준 것이다. AI 열풍이 한창이던 1년 전 엔비디아 GTC 행사에서도 황 CEO는 델 테크놀로지스를 공개 석상에서 언급하며 끈끈한 관계를 과시했다. 당시 황 CEO는 "정보기술(IT)과 관련해 무엇이든 필요한 것이 있다면 델에 전화하면 된다"고 밝혔다. 이는 델 테크놀로지스 주가에도 영향을 줘 지난해 5월 시가총액이 1천억 달러를 넘기도 했다. 이처럼 엔비디아의 두터운 신임을 받고 있는 델 테크놀로지스가 올해 AI 인프라를 전면 업그레이드하며 시장 강자의 면모를 다시 한 번 드러내고 있다. 엔비디아 기반 델 AI 팩토리의 최신 포트폴리오를 앞세워 최근 달궈지고 있는 글로벌 AI 인프라 시장에서 주도권 굳히기에 본격 나선 모습이다. 최근 지디넷코리아와 만난 양원석 델 테크놀로지스 인프라스트럭처 솔루션 사업부 전무는 "우리는 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(end-to-end) AI 솔루션 포트폴리오를 가지고 있다는 것이 강점"이라며 "서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 갖추고 있는 덕분에 글로벌뿐 아니라 한국에서도 서버 부문 1위 업체로 인정 받고 있다"고 운을 뗐다. 그러면서 "글로벌뿐 아니라 한국 스토리지 하드웨어(HW) 및 소프트웨어(SW) 부문 1위 업체로서의 저력을 갖고 있는 만큼, 데이터 및 데이터관리에 대해 전 세계에서 제일 잘 알고 있는 기업이라고 자부할 수 있다"며 "젠슨 황 CEO가 엔비디아 GTC 현장에서 '델'을 언급한 것도 이런 점을 인정한 것이라고 볼 수 있다"고 덧붙였다. 실제로 델 테크놀로지스는 글로벌 AI 인프라 시장에서 경쟁력을 입증 받아 독보적인 점유율을 유지하며 꾸준한 성장세를 보이고 있다. 특히 슈퍼마이크로, HPE 등과 경쟁하고 있는 AI 서버 시장에선 다양한 포트폴리오를 앞세워 압도적인 우위에 올라서 있다는 평가를 받고 있다. 7일 시장조사업체 IDC에 따르면 델 테크놀로지스는 지난해 3분기 전 세계 X86 서버 시장 판매대수 기준으로 11.4%의 점유율을 차지하며 1위를 유지했다. 매출 기준 점유율도 12.4%로 1위를 차지했다. 델 테크놀로지스와 경쟁하고 있는 슈퍼마이크로와 HPE, IEIT 시스템즈, 레노버는 그 뒤를 이었다. 이처럼 델 테크놀로지스가 시장 우위를 견고히 하고 있는 상황에서 전체 서버 시장의 성장세가 높다는 점은 호재로 작용하고 있다. 지난해 4분기 서버 시장 매출은 전년 동기 대비 91% 증가한 733억 달러를 기록, 2019년 이후 두 번째로 높은 성장률을 보였다. 특히 GPU가 내장된 서버 매출은 전년 동기보다 192.6%나 성장해 전체 서버 시장 매출의 절반 이상을 차지할 정도로 급성장한 모습을 보였다. 엔비디아는 전체 출하량의 90% 이상을 차지하며 서버 GPU 분야에서 독주를 이어갔다. 지난해 전체 서버 시장 규모는 2020년 이후 두 배 이상 성장한 2천357억 달러에 달했다. 엔비디아와 밀접한 관계를 맺고 있는 델 테크놀로지스도 지난해 호실적을 기록했다. 특히 AI 서버 출하액은 98억 달러로, 사업을 시작한 지 2년도 채 안되는 기간에 급속도로 성장한 모습을 보였다. AI 관련 기업 고객 역시 2천 곳 이상을 확보한 상태로, 올해 고객사 수가 더 늘어나 AI 매출이 50% 성장할 것으로 예상됐다. 올해 AI 서버 출하액은 약 150억 달러에 달할 것으로 전망했다. 양 전무는 "지난해 엔비디아 GTC에서 처음 선보인 '델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'를 통해 다양한 솔루션과 제품을 선보이며 엄청난 컴퓨팅 파워를 시장에 공급했다고 자부하고 있다"며 "해외뿐 아니라 국내에서도 AI 시장 수요가 점차 '엔터프라이즈 AI'로 이동하고 있는 만큼 올해도 수요는 더 많아질 것으로 보인다"고 설명했다. 이어 "지난해까진 클라우드 서비스 제공자(CSP), 특히 하이퍼스케일러 또는 코어위브 같은 NCP(NVIDIA Cloud Partner) 업체들이 주축이 돼 시장 성장을 주도했지만, 올해는 더 많은 대기업, 대학, 연구기관 등 다양한 분야에서 수요가 많을 듯 하다"며 "10대 미만~수십대 등 작은 규모에서부터 거대 규모에 이르기까지 서버 규모 면에서도 더 다양해질 듯 하다"고 덧붙였다. 양 전무는 최근 국내에서 sLM(small Language Model), 온프레미스에 AI 서버를 두고 API를 사용해 클라우드 업체가 제공하는 AI 서비스와 연결해 사용하는 활용 사례(Use Case)가 늘어나고 있다는 점도 주목했다. 또 엔비디아 'H100' 위주로 형성된 GPU 시장이 향후 블랙웰, 그레이스블랙웰, AMD, 인텔 등 다양한 실리콘으로 확대될 것으로 봤다. 하지만 국내 고객들이 생성형 AI를 도입, 활용할 때 걸림돌이 많아 아직 시장이 활성화 되지 못했다는 점에 대해선 아쉬워 했다. 양 전무는 "국내에선 생성형 AI 활용 시 거버넌스와 개인정보 보호, 법적 규제 등을 고려해야 해 적절한 데이터를 수집·준비하는 과정에 있어 많은 어려움이 있을 수 있다"며 "생성형 AI를 위한 인프라는 기존 데이터센터 인프라 기술과는 달라 이를 위해 내부 역량을 확보하거나, 외부 전문 인력 채용 등을 함께 추진해야 하는 데 쉽지 않은 것이 현실"이라고 분석했다. 이어 "이에 따라 AI와 관련해 데이터 준비, 전략 수립을 위한 컨설팅, 활용 사례 생성 및 구축 등에 있어 전문 서비스를 활용하는 것이 좀 더 안전하고 체계적일 수 있다"며 "비용 측면에서 고가의 GPU에 투자하거나 퍼블릭 클라우드 서비스 사용 시 높은 운영 비용을 감당하는 데 기업들이 부담을 느끼는 경우가 많다"고 덧붙였다. 이 같은 상황에서 양 전무는 델 테크놀로지스가 좋은 대안이 될 것이라고 강조했다. 또 엔터프라이즈 기업의 경우 생성형 AI를 위해 안정적이며 보안 측면에서 신뢰할 수 있고 관리하기 쉬운 데다 데이터와 가까운 곳에 위치한 고성능의 데이터센터 인프라를 구축해야 한다고 조언했다. 양 전무는 "자사 서버 제품들은 효율화 및 생산성 향상을 위한 라이프사이클 관리의 지능적 설계 및 제어가 가능하다"며 "클라우드 인프라의 대부분의 이점도 온프레미스에서 서비스 형태(As a Service)로 제공할 수 있다"고 설명했다. 그러면서 "'델 AI 솔루션'은 경쟁사들에 비해 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(End-to-end) AI 솔루션 포트폴리오를 갖추고 있는 데다 자사가 국내외서 스토리지 HW 및 SW 부문 1위 업체로서 데이터 및 데이터 관리에 대해 전 세계에서 가장 잘 알고 있다는 것이 강점"이라며 "코로케이션 및 호스팅 공급업체부터 AI 모델의 기반이 되는 반도체 공급업체에 이르기까지 포괄적인 파트너 생태계 스택을 제공하고 있다는 것도 매력적인 요소"라고 덧붙였다. 또 그는 "엔비디아, 마이크로소프트, 퀄컴, AMD, 허깅페이스, 인텔, 메타, 레드햇 등 광범위한 에코시스템을 통해 협력 관계를 탄탄히 구축하고 있는 것도 장점"이라며 "공장 팩토리 레벨에서 준비된 솔루션을 공급할 수 있도록 엔지니어링 단계에서부터 엔비디아와 협력하고 있다는 것도 우리만의 경쟁력"이라고 강조했다. 이 같은 시스템을 바탕으로 델은 국내 서버 시장에서도 1위 자리를 굳건히 지키고 있다. 특히 서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 인정 받아 삼성SDS와 NHN클라우드, 엘리스 등 많은 기업들이 델의 서버를 앞 다퉈 도입하고 있다. 해외에서도 마찬가지다. 델 테크놀로지스에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 삼고 있다. 이에 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있는데 델 테크놀로지스는 다양한 제품 및 시스템 덕에 기업들의 상당한 신뢰를 얻고 있는 것으로 나타났다. 양 전무는 "우리는 업계 최신 기술과 오픈·모듈러 아키텍처를 빠르고 적극적으로 수용해 고객들이 이미 투자한 자산을 보호할 수 있도록 지원하고 있다"며 "새로운 기술이 나왔을 때 기존의 장비·설비에서 손쉽게 업그레이드할 수 있도록 함으로써 기업들이 효율적으로 자사 제품을 활용할 수 있게 도울 것"이라고 밝혔다. 그러면서 "특히 곧 출시될 '델 파워엣지 XE8712' 서버는 고객들이 가장 기대해도 좋을 제품"이라며 "2개의 그레이스 CPU와 4개의 블랙웰 GPU를 통합한 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재해 데이터센터 내 AI 성능을 극대화 함으로써 현존하는 AI 서버 중 가장 빠른 속도로 이용할 수 있을 것"이라고 설명했다. 또 델 테크놀로지스가 AI 데이터 관리 측면에서도 상당한 기술 발전을 이끌어 낼 것이라고 자신했다. 특히 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계된 '델 AI 데이터 팩토리 위드 엔비디아'가 중추적 역할을 할 것으로 봤다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 더불어 델이 AI 소프트웨어 분야에서도 엔비디아와의 협력을 통해 기술 발전을 이끌어 냈다고 강조했다. 특히 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합함으로써 AI를 통해 기업들이 의사 결정을 쉽게 내릴 수 있도록 지원에 나선 점을 피력했다. 양 전무는 "그동안에는 마이크로소프트 등 하이퍼스케일러들이 수십만 장의 GPU를 구매해 파운데이션 모델을 만드는 것이 대세였다면, 작년 말부턴 AI를 어떻게 잘 활용할 수 있을지에 대해 고민을 하는 기업들이 더 많아진 듯 하다"며 "점차 일반 기업들이 실제 비즈니스 도움이 될 수 있도록 AI를 사용하는 사례가 많아지고 있는 만큼, AI 인프라에 대한 시장의 관심도 더 커질 듯 하다"고 말했다. 그러면서 "AI 기술 발전으로 서버 신제품 발표 주기도 2년에 한 번 정도에서 최근에는 엔비디아의 움직임에 맞춰 6개월에 한 번으로 짧아질 정도로 빨라진 상황"이라며 "이에 따른 전력 소비, 냉각 등과 관련된 시스템을 잘 갖춰나가기 위해 노력 중인 만큼 많은 기업들이 우리 제품을 선택할 것으로 기대하고 있다"고 덧붙였다. 또 그는 "특히 국내에선 정부에서 국가 AI 컴퓨팅 센터를 추진하고 있는 만큼 실제 구체적인 사업을 진행할 때 우리 제품을 외면하지는 않을 것으로 보인다"며 "엔비디아뿐 아니라 AMD, 인텔 등 다양한 기업들의 GPU를 제공하며 고객들의 선택지를 많이 넓힌 만큼 '델 AI 팩토리'를 통해 시장 변화에 맞춰 탄력적으로 대응함으로써 시장 주도권을 유지하기 위해 더 노력할 것"이라고 강조했다.

2025.04.07 16:48장유미

최준용 SK하이닉스 부사장 "HBM4E 적기 공급…리더십 공고히할 것"

"올해 HBM4 12단 양산을 성공적으로 진행하는 것은 물론, 고객 요구에 맞춰 HBM4E도 적기에 공급함으로써 HBM 리더십을 더욱 공고히 하겠다. 시장을 선제적으로 준비하고 최적화된 사업 기획을 할 수 있도록 최선을 다하겠다." 최준용 SK하이닉스 부사장은 7일 SK하이닉스 공식 뉴스룸을 통해 진행한 인터뷰에서 HBM 사업 전략에 대해 이같이 밝혔다. 최 부사장은 1982년생으로, HBM사업기획을 총괄하는 최연소 임원으로 선임됐다. 모바일 D램 상품기획 팀장을 거치고, HBM사업기획을 담당하는 등 주로 HBM 사업의 성장을 이끌어온 핵심 인물 인물로 평가받는다. 최 부사장은 HBM사업기획 조직의 원동력으로 '자부심'을 꼽았다. 그는 강한 책임감과 자부심으로 HBM 사업의 성장을 견인해 온 구성원들에게 새로운 에너지를 불어넣어 조직의 더 큰 성장을 이끌겠다는 강한 의지를 밝혔다. 그는 "HBM사업기획 조직은 막대한 규모의 투자와 전략적 방향을 결정하는 핵심 조직으로, 기술 개발 로드맵 수립부터 전 세계 고객들과의 협력에 필요한 전략을 마련하는 등 중요한 역할을 하고 있다"며 "새롭게 선임된 리더로서 구성원들이 원 팀 마인드로 뭉쳐 함께 성장하고 최고의 성과를 창출할 수 있도록 돕는 것이 제 역할이라고 생각한다"고 말했다. AI 기술이 눈부시게 진보하면서 반도체에 대한 수요가 그 어느 때보다 많아지고 있다. HBM은 AI 메모리가 가장 필요로 하는 전력 효율성(Power)과 성능(Performance)에 가장 최적화된 제품으로 앞으로도 그 중요성은 더욱 커질 것으로 전망된다. 최 부사장은 이를 바탕으로 더 먼 미래를 내다보며, 회사가 HBM 시장에서 주도적인 위치를 이어갈 수 있도록 선봉에서 최선을 다하겠다고 밝혔다. 최 부사장은 "올해 HBM4 12단 양산을 성공적으로 진행하는 것은 물론 고객 요구에 맞춰 HBM4E도 적기에 공급함으로써 HBM 리더십을 더욱 공고히 하겠다"며 "시장을 선제적으로 준비하고 최적화된 사업 기획을 할 수 있도록 최선을 다하겠다"고 강조했다. 최 부사장은 끝으로 젊은(MZ) 구성원들을 'Motivated & Zealous(동기부여가 만드는 열정적인 인재들)'로 설명하며, 그들이 새로운 기회와 목표에 맞서 성장할 수 있도록 동기를 부여하는 리더가 되겠다고 강조했다. 이어서 그는 구성원들에게 한 가지를 약속했다. 최 부사장은 “저는 제 자신을 스스로 새장에 가두지 않는 소통의 리더가 되고자 한다. 다양한 관점이 담긴 구성원들의 아이디어를 경청하며, 함께 최적의 방향을 만들어 나가겠다"며 "구성원들이 부담 없이 많은 이야기를 들려주실 수 있도록 제 자리를 언제든 열어 놓겠다"고 말했다.

2025.04.07 15:10장경윤

SK하이닉스 "차세대 HBM 성패, 세 가지 과제가 중요"

SK하이닉스가 차세대 HBM(고대역폭메모리) 상용화를 위해 다방면의 기술 고도화가 필요하다고 강조했다. 특히 전력 효율성의 경우, 주요 파운드리 기업과의 협력이 보다 긴밀해질 것으로 관측된다. 이규제 SK하이닉스 부사장은 2일 인천 송도 컨벤시아에서 열린 'KMEPS 2025년 정기학술대회'에서 HBM의 개발 방향에 대해 발표했다. 이 부사장은 이날 SK하이닉스의 차세대 HBM 개발을 위한 과제로 ▲대역폭(Bandwith) ▲전력소모(Power) ▲용량(Capacity) 세 가지를 강조했다. 대역폭은 데이터를 얼마나 빨리 전송할 수 있는지 나타내는 척도다. 대역폭이 높을수록 성능이 좋다. 대역폭을 늘리기 위해선 일반적으로 I/O(입출력단자) 수를 증대시켜야 한다. 실제로 HBM4(6세대)의 경우, HBM3E(5세대) 대비 I/O 수가 2배 늘어난 2천48개가 된다. 이 부사장은 "고객사들은 SK하이닉스가 만들 수 있는 것보다 높은 대역폭을 원하고 있고, 일각에서는 I/O수를 4천개까지 얘기하기도 한다"며 "그러나 I/O 수를 무작정 늘린다고 좋은 건 아니기 때문에, 기존 더미 범프를 실제 작동하는 범프로 바꾸는 등의 작업이 필요할 것"이라고 설명했다. 결과적으로 차세대 HBM은 전력소모와 용량 면에서 진보를 이뤄야 할 것으로 관측된다. 특히 전력소모의 경우, 로직 공정과의 연관성이 깊다. HBM은 D램을 적층한 코어다이의 컨트롤러 기능을 담당하는 로직다이가 탑재된다. 기존에는 이를 SK하이닉스가 자체 생산했으나, HBM4부터는 이를 파운드리에서 생산해야 한다. 이 부사장은 "HBM의 로직 공정은 주요 파운드리 협력사와의 협업이 굉장히 중요한데, 이런 부분에서 긴밀한 설계적인 협업이 있다"며 "SK하이닉스도 패키지 관점에서 여러 아이디어를 내고 있다"고 설명했다. HBM의 용량은 D램의 적층 수와 직결된다. 현재 상용화된 HBM은 D램을 최대 12개 적층하나, 향후에는 16단, 20단 등으로 확대될 예정이다. 다만 차세대 HBM을 제한된 규격(높이 775마이크로미터) 내에서 더 많이 쌓기 위해서는 각 D램의 간격을 줄여야 하는 난점이 있다. 예를 들어, HBM이 12단에서 16단으로 줄어들게 되면 각 D램간의 간격은 절반으로 감소된다. 때문에 SK하이닉스는 기존 어드밴스드 MR-MUF와 더불어 하이브리드 본딩 기술을 고도화하고 있다. 하이브리드 본딩은 범프를 쓰지 않고 각 D램을 직접 연결하는 방식으로, 칩 두께를 줄이고 전력 효율성을 높이는 데 유리하다. 다만 하이브리드 본딩도 현재로선 상용화에 무리가 있다. 기술적 난이도가 높아, 양산성 및 신뢰성을 충분히 확보해야 한다는 문제가 남아있기 때문이다. 이 부사장은 "차세대 HBM 개발과 관련해 위와 같은 세가지 요소가 굉장히 복잡하게 얽혀있는 상황"이라며 "이외에도 차세대 HBM 시장에서는 메모리 기업들이 제조원가를 어떻게 줄이느냐가 가장 중요한 과제가 될 것으로 생각한다"고 설명했다.

2025.04.02 17:30장경윤

'AI 칩' 리벨리온, 日 법인 설립…亞 AI 데이터센터 공략

AI 반도체 기업 리벨리온은 일본 도쿄에 첫 해외 법인 설립을 완료하고 일본 데이터센터 시장 공략에 속도를 낸다고 31일 밝혔다. 이번 법인 설립으로 리벨리온은 현지 기업과 소통을 강화하고 보다 긴밀한 기술 지원을 제공하는 한편, 신규 고객 발굴에도 적극 나설 계획이다. 일본 사업은 베인앤드컴퍼니를 거쳐 무신사의 초기 일본 사업을 담당했던 동경대 출신 김혜진 전략 리드가 이끌며, 이와 함께 일본 내 사업을 함께 이끌 전문성을 갖춘 법인장 선임도 추진 중이다. 기술 전담 인력 역시 함께 채용해 현지 사업의 추진력을 높이고 고객 대응 역량을 끌어올릴 계획이다. 리벨리온은 일본 클라우드 서비스 제공 사업자(CSP, Cloud Service Provider), 통신사 등과 진행 중인 AI반도체 도입 PoC(Proof of Concept, 개념검증) 등 사업협력에도 속도를 내고 일본 내 입지를 확대해나간다는 방침이다. 일본 AI 인프라 시장의 성장을 일찍부터 눈여겨본 리벨리온은 일본의 벤처캐피털(VC) DG 다이와 벤처스(DGDV)로부터 투자를 유치했다. 이를 바탕으로 현지 네트워크를 확장하고 잠재 고객을 확보하는 등 일본 시장에서 존재감을 키워왔으며, 지난해에는 일본에서 첫 매출 확보라는 성과를 거두기도 했다. 특히 리벨리온은 일본 AI 데이터센터 산업의 규모가 가파르게 성장함에 따라 AI반도체에 대한 수요 역시 증가할 것으로 내다봤다. 실제로 최근 오픈AI, 마이크로소프트 등 글로벌 빅테크 기업들이 일본 AI 인프라에 대한 투자를 확대하고 있으며, 일본 정부 또한 AI 슈퍼컴퓨팅 관련 보조금 지원 정책을 추진하며 산업 경쟁력 강화에 나서고 있다. 일본 시장의 전략적 중요성이 커지는 만큼, 아시아를 대표하는 AI반도체 유니콘으로서 검증된 기술력을 바탕으로 일본 시장을 선점한다는 계획이다. 박성현 리벨리온 대표는 “일본 AI 데이터센터 시장은 빠르게 커지고 있다. 하지만, 일본 내에서 AI 반도체를 직접 개발하고, 이를 실제 데이터센터에서 운영할 수 있도록 PoC를 수행할 수 있는 기업은 손에 꼽힌다”며 “리벨리온은 이미 현지 기업들과 사업 협력을 진행하며 기술 협력을 상당 부분 진척시킨 만큼, 이제 법인 설립으로 현지 시장에 깊숙이 들어가 본격적으로 사업을 확장할 계획"이라고 밝혔다. 그는 이어 "일본을 시작으로 사우디 법인 설립도 연내 완료하며 글로벌 AI인프라 시장에서 리벨리온의 존재감을 확실히 보여줄 것”이라고 덧붙였다.

2025.03.31 09:16장경윤

MS發 AI 인프라 시장 '찬물'…엔비디아가 찍은 코어위브, IPO 후 '속앓이'

올해 미국 기업공개(IPO) '최대어'로 꼽혔던 클라우드 컴퓨팅 제공업체 코어위브(CoreWeave)가 최대 고객인 마이크로소프트(MS)의 움직임에 직격탄을 맞은 모습이다. 엔비디아가 투자하는 곳으로 알려지며 시장의 기대감을 한 몸에 받았지만, MS가 최근 과잉공급을 이유로 대형 데이터센터 프로젝트를 중단했다는 소식이 알려져 상장 흥행에 실패한 탓이다. 30일 로이터통신 등 주요 외신에 따르면 코어위브는 지난 28일부터 나스닥에서 거래를 시작했으나, IPO 공모가인 40달러보다 낮은 39달러에 거래가 시작됐다. 큰 변동성을 보이며 한 때 약 37달러까지 떨어지기도 했지만 장 마감 때는 다시 40달러를 유지했다. 정규시장 마감후 거래가 이뤄지는 애프터마켓에선 40.09달러에 마감됐다. 이에 따른 코어위브의 시가총액은 189억 달러로, 기존 평가됐던 기업가치(350억 달러, 약 51조원)에는 한참 못미친다. 지난해 5월 초 11억 달러 규모의 투자금을 유치할 당시 평가 받았던 기업가치(190억 달러) 수준에 머물고 있는 상태다. 코어위브는 엔비디아의 AI 칩을 이용해 대규모 데이터센터를 운영하며 AI 관련 컴퓨팅을 제공하는 업체로, 지난해 말 기준 32개 데이터센터를 운영 중이다. 25만 개 이상의 엔비디아 그래픽처리장치(GPU)를 보유하고 있는 데다 엔비디아가 이곳의 지분 약 6%를 보유했다는 점에서 시장의 높은 관심을 받았다. 또 엔비디아가 최근 추가로 이곳의 주식을 주당 40달러에 2억5천만 달러(약 3천661억원)가량을 매입했다는 소식이 알려져 상장 흥행에 대한 기대감도 키웠다. 특히 최근 챗GPT 개발사 오픈AI와 100억 달러가 넘는 규모의 클라우드 컴퓨팅 서비스 계약도 체결해 주목 받았다. 이곳의 지난해 매출은 전년 대비 약 8배 증가한 19억2천만 달러를 기록했으나, 순손실도 2023년 5억9천370만 달러에서 지난해 8억6천340만 달러로 늘어 다소 아쉬움을 남겼다. 이 같은 상황에도 AI를 활용하는 기업과 산업이 점차 많아지면서 막대한 데이터 처리 능력을 갖춘 AI 인프라 시장이 각광 받게 되자 코어위브에 대한 기대감도 한층 높아졌다. 미국 도널드 트럼프 대통령이 '스타게이트 프로젝트'를 통해 AI 인프라 구축에 5천억 달러(약 720조원)를 투자한다는 소식이 알려지며 시장도 더욱 활성화되는 듯 했다. 그러나 최근 MS의 데이터센터 투자 축소 방침이 코어 위브 상장에 독이 됐다. MS가 미국, 유럽에서 잇따라 대규모 데이터센터 임차 계약을 취소한 소식이 알려진 탓이다. MS는 AI를 구동하는 컴퓨팅 클러스터의 공급 과잉 문제를 이유로 이 같은 결정을 내린 것으로 전해졌다. 이에 코어위브는 당초 주당 47~55달러에 4천900만 주를 공모하려 했으나 예상보다 부진한 시장 반응 탓에 공모 규모를 3천750주로 축소했다. 공모가도 주당 40달러로 내렸다. 이에 따른 조달 자금은 당초 목표했던 27억 달러에 한참 못미치는 15억 달러에 불과했다. 코어위브가 일부 기업들에 대한 매출 의존도가 높다는 점도 다소 걸림돌로 작용했다. 이곳의 지난해 매출의 4분의 3은 엔비디아와 MS로부터 발생했는데, MS가 3분의 2를 차지한 것으로 나타났다. 전문가들은 코어위브가 소수 고객에 대한 의존도가 높은 데다 회사의 부채와 지출이 높은 수준이라는 점에서 성장성에 의문을 표하고 있다. MS가 '애저'로 클라우드 시장에서 경쟁사라는 점도 위험 요소다. 월스트리트저널(WSJ)은 코어위브 IPO에 대한 시장의 미온적인 반응에 대해 "AI 기업에 대한 투자자들의 열정이 식고 있다"며 "미국에서 IPO 시장이 냉각된 상태임을 보여주는 신호"라고 분석했다.

2025.03.30 15:11장유미

日 소프트뱅크, 오픈AI '400억 달러' 펀딩 마무리 단계…자금 상태 '우려'

일본 소프트뱅크가 '스타게이트' 프로젝트를 함께 추진 중인 오픈AI에게 역대 최대 규모의 자금 지원에 나선다. 최근 재무 상황에 대한 우려 속에서도 오픈AI에 대한 투자를 강행하며 인공지능(AI) 시장에서 주도권 잡기에 나선 모양새다. 28일 블룸버그통신에 따르면 소프트뱅크는 400억 달러(약 58조원) 펀딩 라운드에 마그네타 캐피털, 코투 매니지먼트, 파운더스 펀드, 알터미터 캐피털 매니지먼트 등을 포함한 투자자들과 참여 방안에 대해 협상 중인 것으로 알려졌다. 이번 펀딩은 최종 마무리 단계로, 일리노이주에 본사를 둔 헤지펀드 마그네타 캐피털의 투자 금액이 최대 10억 달러(약 1조5천억원)에 달할 것으로 예상돼 눈길을 끈다. 시장조사업체 피치북에 따르면 오픈AI의 이번 펀딩 규모는 역대 최대가 될 것으로 관측됐다. 오픈AI의 기업가치는 이번 펀딩에서 모은 자금을 포함해 현재 3천억 달러(약 439조원)로 평가되고 있다. 이는 지난 해 10월 펀딩 때 평가된 1천570억 달러(약 230조원)의 거의 두 배로, 한국 시가총액 1위 기업인 삼성전자(약 365조원)보다 훨씬 높다. 이번 펀딩에서 소프트뱅크는 투자자 신디케이트로부터 25억 달러와 함께 초기에 75억 달러를 투자할 것으로 알려졌다. 이어 연말에는 소프트뱅크가 225억 달러, 신디케이트를 통해 75억 달러를 더 투자해 총 300억 달러의 추가 투자를 진행할 것으로 전해졌다. 앞서 소프트뱅크그룹은 지난 1월 오픈AI에 15억 달러를 추가 출자한 것으로도 알려진 바 있다. 이에 따른 오픈AI 출자액은 당시 총 20억 달러인 것으로 집계됐다. 또 소프트뱅크그룹은 오픈AI와 다양한 사업을 두고 협업에 적극 나서고 있다. 일본에선 합작사를 만들어 기업용 생성형 AI를 개발해 판매할 계획이며 미국에선 소프트웨어 기업 오라클과 함께 최소 5천억 달러를 투자해 새로운 AI 기업인 '스타게이트'를 설립할 계획이다. 소프트뱅크는 이번 투자 움직임과 관련해 뚜렷한 입장을 밝히지 않았다. 그러나 소식이 전해진 후 도쿄 증시에서 소프트뱅크 주가는 4.7% 하락세를 보였다. 블룸버그통신은 "소프트뱅크의 신용부도스와프(CDS)도 확대된 상황"이라며 "이는 부분적으로 이러한 대규모 지출이 기업의 재무 상태에 미칠 영향에 대한 우려 때문"이라고 분석했다.

2025.03.28 10:06장유미

에퀴닉스, 韓 데이터센터 추가 건설…"폭증한 AI 수요 대응"

에퀴닉스가 국내 인공지능(AI) 수요 확산에 대응하기 위해 네 번째 데이터센터를 짓는다. 이를 통해 수도권 기반 디지털 인프라를 구축할 방침이다. 27일 에퀴닉스는 이같은 데이터센터 건설 계획을 밝혔다. 국내 대규모 클라우드와 AI 워크로드를 처리할 수 있는 고밀도 인프라 구축을 목표로 뒀다. 현재 에퀴닉스는 서울에 데이터센터 3곳을 운영하고 있다. 2019년 3분기 서울 상암동 디지털미디어시티에 첫 데이터센터 'SL1'을 개소했으며 2023년 고양시 덕양구에 두 번째 데이터센터 'SL4'를 열었다. 세 번째 데이터센터 'SL2x' 역시 고양시에 지난해 건립됐다. 에퀴닉스는 데이터센터를 다크 파이버로 직접 연결해 서울 매트로 내 상호 연결된 디지털 캠퍼스를 구축했다. 네 번째 데이터센터도 수도권에 위치할 가능성이 높다. 데이터센터 간 연계 운용을 통해 네트워크 확장성과 운영 효율을 높일 수 있을 것으로 기대되고 있다. 에퀴닉스는 2020년부터 재생에너지를 전력으로 활용하고 있다. 태양광 패널을 비롯한 LED 조명, 냉각 효율화 등 친환경 기술을 통해 센터를 운영하고 있다. 2030년까지 100% 재생에너지로 전환하는 것이 목표다. 국내 데이터센터에선 이를 이미 달성했다. 에퀴닉스코리아는 "AI와 클라우드 수요가 폭증한 가운데 기업들은 빠르고 안전하며 지속가능한 인프라를 요구하고 있다"며 "데이터센터 투자를 통해 이에 적극 대응할 것"이라고 밝혔다.

2025.03.27 16:11김미정

"AI 연산 획기적 향상"…슈퍼마이크로, 엔비디아 블랙웰 울트라 플랫폼 기반 솔루션 공개

슈퍼마이크로가 인공지능(AI) 연산 성능을 향상할 수 있는 차세대 AI 솔루션을 선보인다. 슈퍼마이크로는 엔비디아 블랙웰 울트라 플랫폼을 탑재한 새로운 서버·랙제품군을 공개했다고 27일 밝혔다. 슈퍼마이크로의 새로운 AI 제품군은 엔비디아 'HGX B300 NVL16'와 'GB300 NVL72' 플랫폼을 탑재해 AI 추론, 에이전틱 AI, 비디오 추론 등 고성능 연산 AI 워크로드에서 높은 성능을 제공한다. 엔비디아 블랙웰 울트라 플랫폼은 GPU 메모리 용량과 네트워크 대역폭 제약으로 발생하는 병목현상을 해소하고 대규모 클러스터 환경에서 요구되는 AI 워크로드를 안정적으로 처리할 수 있도록 설계됐다. GPU당 288GB의 HBM3e 고대역폭 메모리가 탑재돼 초대규모 AI 모델의 학습·추론에서 향상된 AI 플롭스(FLOPS)를 구현한다. 또 네트워킹 플랫폼에 엔비디아 퀀텀-X800 인피니밴드와 스펙트럼-X 이더넷을 통합해 최대 800Gb/s의 컴퓨팅 패브릭 대역폭을 제공한다. 슈퍼마이크로와 엔비디아는 이번 공개한 차세대 AI 솔루션을 통해 AI 분야에서의 리더십을 더욱 공고히 한다는 목표다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "자사의 데이터센터 빌딩 블록 솔루션을 활용해 엔비디아 HGX B300 NVL16 GB300 NVL72의 열 관리 및 내부 토폴로지(topology)에 최적화된 새로운 공냉식·수냉식 냉각 시스템을 구현했다"며 "이 시스템은 수자원을 절약하면서 전력 소비도 최대 40%까지 줄여 엔터프라이즈 데이터센터의 환경적·운영적 측면에서 상당한 이점을 제공한다"고 설명했다. 이어 "자사는 엔비디아와 오랜 파트너십을 지속하며 엔비디아 블랙웰 울트라 플랫폼을 기반으로 한 최신 AI 기술을공개하게 돼 기쁘다"고 덧붙였다.

2025.03.27 12:05한정호

오픈AI와 틈 벌린 MS, 인프라 투자 너무 무리했나…美·유럽서 데이터센터 임대 또 취소

최근 인프라 투자에 열을 올리던 마이크로소프트(MS)가 돌연 미국과 유럽에서 추진하던 신규 데이터센터 프로젝트를 취소한 것으로 알려져 그 배경에 관심이 집중된다. 27일 블룸버그통신에 따르면 미국 투자은행 TD 코헨은 MS가 미국, 유럽에서 약 2기가와트(GW) 용량에 해당하는 새로운 데이터 프로젝트를 중단했다고 주장했다. 2기가와트는 150만∼200만 가구가 사용하는 전력량과 맞먹는 수준으로, AI를 구동하는 컴퓨팅 클러스터의 공급 과잉 문제가 이번 일의 주 요인인 것으로 분석됐다. TD 코헨은 지난 달 보고서에서 MS가 최소 두 곳의 민간 운영업체와 체결했던 데이터센터 임차 계약을 취소했다고 밝힌 바 있다. 다만 이번에 중단한 프로젝트는 지난 달 취소한 임차 계약과는 별개인 것으로 파악됐다. TD 코헨은 챗GPT 개발사인 오픈AI와의 일부 신규 사업이 무산된 점도 이번 결정에 영향을 미친 것으로 해석했다. MS는 오픈AI에 130억 달러를 투자하는 등 파트너십을 맺고 AI 모델을 위한 클라우드 인프라를 제공해 왔다. 그러나 두 회사는 올 초 MS가 원하지 않을 경우 오픈AI가 다른 컴퓨팅 서비스를 이용할 수 있도록 계약을 조정했다. 이의 일환으로 오픈AI는 최근 코어위브와도 120억 달러(약 17조4천972억원) 규모 클라우드 컴퓨팅 서비스 계약을 체결하기도 했다. 일각에선 오픈AI가 자체 데이터센터 구축도 검토 중인 것으로 파악했다. IT 전문 매체 디인포메이션에 따르면 오픈AI는 최근 수십억 달러 규모 데이터 스토리지 하드웨어 및 소프트웨어 구입을 자체 데이터센터 구축을 위해 고려 중인 것으로 알려졌다. 오픈AI는 현재 자체 데이터센터를 운영하고 있지 않다. 또 TD코웬은 MS가 지난 6개월 동안 데이터센터 임대 계약을 취소하거나 연기하는 등 사업을 조정했다고 주장했다. 이에 따라 MS가 유럽에서 포기한 일부 임대 계약은 구글과 메타플랫폼이 인수한 것으로 알려졌다. TD코웬은 지난 달 보고서에서도 MS가 미국에서 최소 2곳의 사설 데이터센터 운영자와 임차 계약을 취소했다고 밝힌 바 있다. 이에 대해 MS가 데이터센터 확장을 중단할 것이라는 우려가 제기됐다. 앞서 MS는 6월 말 마무리되는 2025년 회계연도에 800억 달러 이상의 자본 지출을 투입할 것이라고 밝히며 계획이 예정대로 진행 중이라고 밝힌 바 있다. 다만 경영진은 다음 회계연도부터 성장 속도가 둔화될 것으로 예상했다. MS 대변인은 "지금까지 진행해온 대규모 투자 덕분에 현재와 증가하는 고객 수요를 충족할 수 있는 탄탄한 입지를 갖추고 있다"며 "일부 지역에서 인프라 전략을 조정하거나 속도를 조절할 수는 있지만 모든 지역에서 지속적으로 강력한 성장을 이어갈 것"이라고 강조했다. 그러면서 "이는 우리가 미래 성장 분야에 투자하고 자원을 효율적으로 배분하는 데 도움이 될 것"이라고 덧붙였다.

2025.03.27 10:55장유미

[영상] 최형두 의원 "2025 추경, AI 예산 2조 반영 추진"

"인공지능(AI) 인프라 예산 확보는 국가 경쟁력의 문제다. 여야 모두 공감하고 있는 만큼 2025년 1차 추경에서 반드시 2조 원 규모로 반영될 수 있도록 기획재정부와 조율 중이다." 국민의힘 최형두 의원은 26일 국회 의원회관 간담회장에서 열린 '2차 AI G3 강국 신기술 전략 조찬 포럼'에서 이와 같이 말하며 AI인프라 경쟁력 확보를 위해 예산을 확대할 것임을 강조했다. 대한민국의 혁신 및 산업 발전을 위한 산·학·연 전문가 중심의 정책 및 실행방안을 논의하기 위해 마련된 이번 포럼에는 국회와 정부, 학계, 산업계를 대표하는 전문가 20여 명이 참석했다. 과학기술정보통신부 송상훈 실장을 비롯해 서울대, 성균관대, 카이스트 등 주요 대학의 학계 인사들과 네이버, LG AI연구원, SK하이닉스, 현대차, SKT, 두산로보틱스, 퓨리오사AI, 리벨리온, 페르소나AI 등 국내 대표 AI·ICT 기업 관계자들이 자리를 함께 했다. 우선 삼성글로벌리서치 허준 상무가 발제자로 나서 '최근 AI 동향과 AI 부상에 따른 데이터센터의 변곡점'을 주제로 발표했다. 그는 "AI는 지금 '모델 골드러시' 시대에 있다”며 최근 몇 개월 사이 쏟아지는 초거대 AI 모델 개발과 추론형 AI의 급부상, 경량형·오픈소스 AI의 흐름을 조망했다. 특히 생성형 AI에서 에이전트 AI, 피지컬 AI로 이어지는 기술 진화 흐름을 짚으며, AI의 진화는 결국 인프라 수요의 폭발적 증가로 이어질 수밖에 없다고 강조했다. 허 상무는 AI를 구성하는 세 가지 요소인 모델, 데이터, 컴퓨팅 인프라 가운데 지금은 인프라가 전략의 핵심이 되고 있다고 강조했다. 이어 과거 초고속 인터넷 인프라를 바탕으로 인터넷 강국이 된 것처럼 AI 인프라 선점 없이는 AI 강국 도약도 어렵다고 말했다. 특히 "AI로 수익을 내는 기업은 대부분 인프라 기업"이라며 "반도체, 전력장비, 냉각기술 분야가 AI의 진짜 수익 원천”이라며, 정부와 국회가 데이터센터 기반 인프라 육성에 보다 적극적으로 나서야 한다"고 강조했다. SKT 이영탁 부사장도 현재 AI 생태계에서 핵심적인 요소가 AI 인프라라는 의견에 동의를 표하며 기업의 투자를 유도하기 위해선 수익성이 있는 인프라 중심의 전략이 필요하다고 강조했다. 이 부사장은 미국의 스타게이트처럼 정부·기업·연구소가 협력하는 한국형 AI 인프라 전략이 필요하다며 국가 AI 컴퓨팅 센터 같은 거점이 실질적인 인프라 구축으로 이어져야 한다고 말했다. 더불어 최근 해외 빅테크의 AI 투자가 일본으로 집중되는 이유로 정부의 공격적인 인센티브 지원를 들었다. 그는 "일본은 해외 기업이 데이터센터를 지을 경우 건설비의 50%까지 지원한다"며 "우리나라도 예산 규모는 작더라도 이와 유사한 적극적인 국회·정부의 재정 지원이 필요하다"고 강조했다. 과기정통부 송상훈 실장는 AI인프라가 국가 간·기업 간 경쟁의 핵심 인프라라는 것에 공감하지만 추가적인 예산 확보가 절실한 상황이라고 밝혔다. 송 실장은 현재 기재부 예산실과 구체적인 협의가 늦어지고 있지만 "플랜 A는 물론 B, C까지 마련해 대비 중”이라고 설명했다. 이에 최형두 의원은 "여야 모두 AI 인프라 예산의 필요성에 공감하고 있다"며 "산불·재해 등으로 인한 2025년 1차 추경 논의가 앞당겨지고 있는 만큼, AI 인프라 예산을 확실히 반영하도록 기획재정부와 조율해 나가겠다"고 밝혔다. 김영호 서울대 공과대학 학장도 GPU와 전기료가 인재 양성의 최대 장애물이라며 AI교육 현장의 현실을 전했다. 김 학장은 "대규모언어모델(LLM)을 직접 돌려보는 경험 유무에 따라 졸업 후 역량이 천차만별"이라며 "정부가 연구자들에게 전기료 완화 조치 등을 제공할 필요가 있다"고 말했다 네이버클라우드의 하정우 AI이노베이션센터장은 해외 사례를 언급하며, 학습용 하이퍼스케일 데이터센터와 산업단지형 추론 인프라를 분리하는 전략을 제시했다. 그는 "사우디아라비아도 AI 모델을 서비스하면서 추론 인프라의 중요성을 인식했다"며 "우리도 국내 AI 반도체를 활용한 인퍼런스 센터 실증 프로젝트를 산업단지에서 시작해야 한다"고 강조했다. 또한 프랑스가 167조 원 규모의 AI 투자 중 70억 유로를 해외에서 유치한 사례를 들며 해외 투자 유치로 AI 인프라를 스케일업할 전략을 세워야 한다고 의견을 피력했다. 더불어민주당 정동영 의원과 국민의힘 최형두 의원, 정보통신산업진흥원이 공동 주최·주관하는 AI G3 강국 신기술 전략 조찬 포럼은 매월 주요 인사와 산업계를 초청해 시리즈 형태로 개최 중이다. 다음 달부터는 중소기업과 스타트업, 대표기업 중심의 현장 목소리를 반영한 논의가 이어지며 12월에는 연간 종합토론이 국회에서 진행될 계획이다.

2025.03.26 11:24남혁우

"탄소도 줄이고 전기도 아끼고"…KT클라우드, 데이터센터에 AI 결합

KT클라우드가 데이터센터(DC) 운영을 인공지능(AI) 기술로 최적화하는 실증 작업에 나선다. 급증하는 데이터 트래픽을 효율적으로 처리하면서 에너지도 절약하는 차세대 친환경 데이터센터로의 전환을 위한 초석이다. KT클라우드는 오는 11월 서울 목동 DC 2센터 내에 AI DC 실증센터를 개관할 예정이라고 25일 밝혔다. 이번 실증센터는 데이터 트래픽 증가에 대응하기 위한 운영 최적화 기술 검증을 주목적으로 한다. AI를 통해 전력 소비, 냉각, 네트워크 등 데이터센터 핵심 운영 요소의 효율을 실험하고 협력사와의 공동 기술 개발도 추진한다. 기업 고객과 공공기관 관계자를 대상으로 한 투어 프로그램도 병행할 계획이다. KT클라우드는 AI 자동 운영 외에도 수냉식 냉각, 신재생에너지 적용 등 탄소 배출 저감을 위한 친환경 기술을 테스트할 계획이다. 이를 통해 지속 가능한 데이터센터 운영 체계를 단계적으로 구현한다는 목표다. 센터 개관 이후에는 독립형 실증 공간 마련을 추진하고 오는 2028년까지 자율운영 기반의 에너지 자립형 데이터센터 구축에 나선다. 이미 KT클라우드는 DC본부 내 기술 전문 조직인 'DC 랩스'를 중심으로 디지털트윈, AI 운용 등 핵심 기술을 발굴하고 있다. 내부 역량을 강화함과 동시에 파트너사와 공동 개발 및 성과 공유를 통한 생태계 조성도 병행한다. 허영만 KT클라우드 DC본부장은 "이번 AI DC 실증센터 구축을 통해 앞선 기술력을 발빠르게 현장에 적용하고 파트너사와 긴밀한 협력 관계를 기반으로 동반 성장하며 DC 생태계 전반을 견고히 다지겠다"며 "향후에도 선진 데이터센터 운영 기술과 차별화된 서비스로 시장을 선도하겠다"고 밝혔다.

2025.03.25 10:36조이환

이재용과 친한 인도 기업, 오픈AI·메타 '러브콜' 받았다…무슨 일?

'챗GPT' 개발사 오픈AI와 '페이스북' 모회사 메타플랫폼이 인도 인공지능(AI) 시장을 노리고 릴라이언스 그룹과 협력에 나선다. 24일 더인포메이션, 블룸버그통신 등 주요 외신에 따르면 오픈AI는 릴라이언스 지오와 인도에서 '챗GPT'를 배포하고 20달러인 구독료를 현지에서 인하하는 방안을 검토 중이다. 구독료가 인도 평균 월급보다 높은 수준이어서 '챗GPT' 사용자를 더 늘리는 데 한계가 있어서다. 현재 인도에선 '챗GPT'의 대안이 딱히 없는 상태지만, AI 시장은 빠르게 성장하고 있는 상태다. 실제 블루위브 컨설팅에 따르면 지난 2022년 인도 AI 시장 규모는 약 6억7천211만 달러에서 2029년까지 약 39억6천651만 달러로 성장할 것으로 전망됐다. 다만 현지 기업을 중심으로 한 B2C(기업 소비자간 거래) 시장은 아직 제대로 형성되지 않았다. 현재 인도 AI 시장에선 '챗GPT'가 많이 사용되고 있으나 인구 대비 AI 챗봇을 사용하는 비중은 아직 낮다. 그러나 전 세계 '챗GPT' 사용자 수로는 미국에 이어 2위로, 오픈AI에겐 중요한 시장으로 평가 된다. B2B(기업간 거래) AI 시장에선 크루트림, 사르밤 등 현지 기업들이 경쟁하고 있는 중으로, 크루트림의 경우 최근 20억 루피(약 2천400억원) 규모의 AI 연구소를 설립해 기업용 AI 솔루션 개발에 집중하고 있다. 업계 관계자는 "인도는 자체 파운데이션 모델 개발을 본격화하고 있는 상태로, 향후 B2C 서비스로 이어질 가능성이 높다"며 "오픈AI의 인도 진출은 B2B뿐 아니라 B2C 시장까지 확장하려는 움직임으로 보인다"고 말했다. 업계에선 오픈AI가 릴라이언스 그룹과 손을 잡았다는 점을 주목하고 있다. 릴라이언스는 인도에서 석유화학·에너지·통신·유통 등 사업을 벌이고 있는 재벌 그룹이다. 특히 릴라이언스 지오는 인도 이동통신 시장 점유율 40%가량을 차지하고 있으며 삼성전자 LTE 장비를 택해 점유율을 빠르게 끌어올렸다는 점에서 우리나라와도 친숙한 기업이다. 이재용 삼성전자 회장은 무케시 암바니 릴라이언스그룹 회장 자녀 결혼식에 참석할 정도로 각별한 관계를 유지하고 있다. 릴라이언스는 오픈AI의 AI 모델을 자사의 기업 고객에게 판매하는 동시에 오픈AI의 AI 시스템을 인도에서 운영해 현지 고객 데이터를 인도 내에서 보관하는 방안도 논의 중인 것으로 알려졌다. 또 인도 서부 잠나가르 시에 건설을 계획 중인 세계 최대 규모의 3기가와트(GW)급 데이터센터에 오픈AI와 메타의 AI 모델을 운영하는 방안도 논의 중인 것으로 전해졌다. 디인포메이션은 "이번 일로 메타가 오픈AI의 경쟁자가 될 수도 있을 것 같다"면서도 "이들이 릴라이언스와 계약을 맺은 것은 메타, 오픈AI 등 외국계 AI 기업이 현지 기업을 밀어낼 수도 있다고 우려하는 인도 정부 관리들과의 관계를 강화하는 데는 잠재적으로 도움이 될 수 있을 것 같다"고 말했다. 이어 "현지 소비자와 기업 사이에서 입지를 확대하는 데도 도움이 될 것으로 보인다"고 덧붙였다.

2025.03.24 10:56장유미

MS가 이끄는 AI 인프라 투자에 엔비디아·xAI 합류

엔비디아와 일론 머스크의 xAI가 미국 내 인공지능(AI) 인프라 확장을 위해 투자 프로젝트에 합류했다. 13일 테크크런치 등 외신에 따르면 엔비디아와 xAI는 마이크로소프트, 투자 펀드 MGX, 블랙록이 주도하는 'AI 인프라 파트너십(AIP)'에 참여한다고 밝혔다. AIP는 AI 서비스 운영에 필수적인 데이터센터·전력 공급망 강화를 목표로 지난해 설립됐다. AI 기술이 발전하면서 연산 능력에 대한 수요가 급증했고 이로 인해 전력 소비 문제가 새로운 과제로 떠올라서다. AIP는 AI 모델 훈련과 대규모 데이터 처리를 지원하기 위해 300억 달러(약 43조7천490억원) 넘는 투자 계획을 세웠다. 현재 투자금 확보를 위해 기업, 자산 소유자, 기관 투자자로부터 자금을 유치하고 있다. 부채 금융을 포함해 최대 1천억 달러(약 145조8천300억원)를 동원할 방침이다. 이번 프로젝트에 GE 버노바와 유틸리티 기업 넥스테라 에너지도 참여한다. 해당 기업은 AI 인프라 구축에 필요한 전력 공급망 관리와 고효율 에너지 솔루션 개발을 맡을 예정이다. AIP는 이번 투자가 미국 내 협력업체뿐만 아니라 경제협력개발기구(OECD) 회원국을 중심으로 이루어질 것이라고 밝혔다. 다만 현재까지 확보된 총투자금 규모는 공개되지 않았다. 해당 컨소시엄은 도널드 트럼프 미국 대통령이 두 달 전 발표한 '스타게이트' 프로젝트 후 본격화했다. 스타게이트는 소프트뱅크, 오픈AI, 오라클이 참여하는 민간 AI 인프라 투자 프로젝트로 최대 5천억 달러(약 729조4천억원) 자금 조달을 목표로 하고 있다. 현재까지 1천억 달러가 즉시 투입될 예정이며 나머지 자금은 향후 4년 동안 추가 마련될 계획이다. AIP는 "지난해 9월 출범 이후 상당한 자본과 파트너들의 관심을 끌었다"며 "AI 인프라 구축을 위한 추가적인 투자 유치도 진행 중"이라고 밝혔다.

2025.03.20 08:37김미정

'1b LPDDR5X' 양산 개시...SK하이닉스, 엔비디아 등 AI 고객사 잡는다

SK하이닉스가 지난해 하반기 최선단 D램 공정 기반의 LPDDR(저전력 D램) 양산을 시작한 것으로 확인됐다. AI 서버가 주요 적용처로, 엔비디아 등 글로벌 빅테크 공략에 속도를 낼 것으로 관측된다. 19일 SK하이닉스 사업보고서에 따르면 이 회사는 지난해 10월부터 1b(5세대 10나노급) 기반의 LPDDR5X 양산을 시작했다. 1b D램은 현재 양산 중인 D램의 가장 최신 세대에 해당한다. SK하이닉스는 1b 공정을 기반으로 16Gb(기가비트) LPDDR5X를 지난해 6월 개발 완료한 뒤, 10월부터 양산에 돌입했다. 해당 제품의 동작 속도는 10.7Gbps로, 이전 세대(9.6Gbps) 대비 약 10% 빠르다. 전력 효율도 최대 15%까지 절감할 수 있다는 게 SK하이닉스의 설명이다. 이번 1b LPDDR5X의 주요 타겟은 AI, HPC(고성능컴퓨팅) 등이다. SK하이닉스는 시장에서 향후 수요가 빠르게 증가할 것으로 예상되는 신규 메모리 모듈인 LPCAMM·SOCAMM 등에 해당 제품을 채용할 예정이다. LPCAMM은 기존 LPDDR 모듈 방식인 So-DIMM(탈부착)과 온보드(직접 탑재)의 장점을 결합한 기술이다. 기존 방식 대비 패키지 면적을 줄이면서도 전력 효율성을 높이고, 탈부착 형식으로 제작하는 것이 가능하다. SOCAMM 역시 LPDDR 기반의 차세대 모듈이다. LPCAMM과 마찬가지로 탈부착이 가능하지만, 데이터를 주고받는 I/O(입출력단자) 수가 694개로 LPCAMM(644개) 대비 소폭 증가했다. LPCAMM 및 SOCAMM은 이 같은 장점을 무기로 글로벌 빅테크와 주요 메모리 기업들의 주목을 받고 있다. 현재 AI 산업을 주도하고 있는 엔비디아도 차세대 AI PC에 이들 제품을 채택할 것으로 알려졌다.

2025.03.19 17:11장경윤

SK하이닉스, 세계 최초 'HBM4' 12단 샘플 공급 시작

SK하이닉스가 AI용 초고성능 D램 신제품인 HBM4 12단 샘플을 세계 최초로 주요 고객사들에 제공했다고 19일 밝혔다. SK하이닉스는 "HBM 시장을 이끌어온 기술 경쟁력과 생산 경험을 바탕으로 당초 계획보다 조기에 HBM4 12단 샘플을 출하해 고객사들과 인증 절차를 시작한다"며 "양산 준비 또한 하반기 내로 마무리해, 차세대 AI 메모리 시장에서의 입지를 굳건히 하겠다"고 강조했다. 이번에 샘플로 제공한 HBM4 12단 제품은 AI 메모리가 갖춰야 할 세계 최고 수준의 속도를 갖췄다. 12단 기준으로 용량도 세계 최고 수준이다. 우선 이 제품은 처음으로 초당 2TB(테라바이트) 이상의 데이터를 처리할 수 있는 대역폭을 구현했다. 이는 FHD(Full-HD)급 영화(5GB=5기가바이트) 400편 이상 분량의 데이터를 1초 만에 처리하는 수준으로, 전세대(HBM3E) 대비 60% 이상 빨라졌다. HBM 제품에서 대역폭은 HBM 패키지 1개가 초당 처리할 수 있는 총 데이터 용량을 뜻한다. 아울러 회사는 앞선 세대를 통해 경쟁력이 입증된 어드밴스드(Advanced) MR-MUF 공정을 적용해 HBM 12단 기준 최고 용량인 36GB를 구현했다. 이 공정을 통해 칩의 휨 현상을 제어하고, 방열 성능도 높여 제품의 안정성을 극대화했다. SK하이닉스는 2022년 HBM3를 시작으로 2024년 HBM3E 8단, 12단도 업계 최초 양산에 연이어 성공하는 등 HBM 제품의 적기 개발과 공급을 통해 AI 메모리 시장 리더십을 이어왔다. 김주선 SK하이닉스 AI Infra(인프라) 사장(CMO)은 “당사는 고객들의 요구에 맞춰 꾸준히 기술 한계를 극복하며 AI 생태계 혁신의 선두주자로 자리매김했다”며 “업계 최대 HBM 공급 경험에 기반해 앞으로 성능 검증과 양산 준비도 순조롭게 진행할 것”이라고 말했다.

2025.03.19 09:58장경윤

엔비디아, 루빈 울트라·파인만 AI칩 공개…"차세대 HBM 탑재"

엔비디아가 인공지능(AI) 반도체 산업의 주도권을 유지하기 위한 차세대 GPU를 추가로 공개했다. 오는 2027년 HBM4E(7세대 고대역폭메모리)를 탑재한 '루빈 울트라'를, 2028년에는 이를 뛰어넘을 '파인만(Feynman)' GPU를 출시할 예정이다. 파인만에 대한 구체적인 정보는 아직 공개되지 않았지만, '차세대 HBM(Next HBM)'을 비롯해 다양한 혁신 기술이 적용될 것으로 전망된다. 18일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 미국 실리콘밸리 새너제이 컨벤션 센터에서 열린 연례행사인 'GTC 2025' 무대에 올라 AI 데이터센터용 GPU 로드맵을 발표했다. 이날 발표에 따르면, 엔비디아는 최신형 AI 가속기인 '블랙웰' 시리즈의 최고성능 제품인 '블랙웰 울트라'를 올해 하반기 출시한다. 해당 칩은 12단 HBM3E(5세대 HBM)를 탑재했으며, AI 성능을 이전 세대 대비 1.5배 높인 것이 특징이다. 이어 엔비디아는 HBM4를 탑재한 '루빈' 시리즈를 내년 하반기 출시한다. 루빈부터는 기존 '그레이스' CPU가 아닌 '베라' CPU가 채용된다. 루빈의 최고성능 제품인 루빈 울트라는 내후년인 2027년 하반기께 출시가 목표다. 루빈 울트라에는 HBM4E가 채용돼, 메모리 성능이 블랙웰 울트라 대비 8배나 늘어난다. 그동안 드러나지 않았던 차차세대 AI 가속기에 대한 정보도 공개됐다. 엔비디아는 루빈 이후의 제품명을 파인만으로 확정했다. 미국의 저명한 이론 물리학자인 리처드 파인만에서 이름을 따왔다. 엔비디아는 파인만에 대해 차세대 HBM(Next HBM)을 탑재한다고 기술했다. 다만 구체적인 세대명은 공개하지 않았다. 파인만은 오는 2028년 출시될 예정이다.

2025.03.19 08:43장경윤

샌디스크, 업계 최초 차량용 UFS4.1 낸드 솔루션 공개

샌디스크는 11일부터 13일까지(현지시각) 독일 뉘른베르크에서 개최되는 '임베디드 월드 2025'에서 업계 최초 오토모티브 등급 UFS4.1 인터페이스 디바이스를 공개한다고 12일 밝혔다. '샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브'는 샌디스크의 이전 UFS3.1 디바이스 대비 2배 이상 업그레이드된 성능과 기존 업계에 출시된 용량 대비 2배 향상된 용량을 제공한다. 샌디스크의 최신 BiCS8 TLC 낸드 기술이 적용된 것은 물론, 최대 1TB의 대용량을 지원하며 높은 수준의 데이터 스토리지 성능, 용량, 내구성, 신뢰성이 요구되는 오토모티브 애플리케이션을 발전시키고 오토모티브 AI 혁신을 가속화한다. 첨단운전자지원시스템(ADAS), 자율주행, 이콕핏(eCockpit)과 같은 오토모티브 인공지능(AI) 시스템은 센서, 지도, AI 데이터베이스에서 정보를 추출해야 안전하게 작동할 수 있다. iNAND 임베디드 플래시 드라이브는 데이터가 필요할 때 활용할 수 있도록 하는 데 중요한 역할을 하며 자율주행 컴퓨터를 위한 실시간 차량 스토리지를 제공해 클라우드 접속 시 발생하는 지연성(latency) 및 연결성 문제를 해결할 수 있도록 지원한다. 샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브는 현재 엄선된 고객 및 파트너를 대상으로 출하 중이다. 새롭게 공개된 임베디드 플래시 드라이브를 통해 샌디스크는 한층 강화된 오토모티브 등급 SD 카드, e.MMC, UFS2.1, UFS3.1 및 NVMe 제품 포트폴리오를 보유하게 됐다. 한편 샌디스크는 임베디드 월드 2025의 현지 부스에서 샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브와 함께, '샌디스크 DC SN861 NVMe SSD'와 '울트라스타 DC SN655 NVMe SSD'를 비롯한 선도적인 데이터센터 솔루션, 워크스테이션 및 노트북용 클라이언트 SSD, 산업용 임베디드 및 리무버블(removable) 플래시 스토리지 솔루션, 클라이언트 SSD 등의 플래시 스토리지 솔루션을 선보인다.

2025.03.12 11:22장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

전자담배 온라인·무인 판매 이대로 괜찮을까

티메프 사태로 달라진 여행업 생태계...'부익부 빈익빈'

"강남역 사수하라"...350평 올리브영 등장에 시코르 ‘긴장’

삼성 파운드리, 2나노 3세대 공정 2년내 구현..."고객이 다시 찾게 하자"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.