• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (337건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

日 소프트뱅크, 오픈AI '400억 달러' 펀딩 마무리 단계…자금 상태 '우려'

일본 소프트뱅크가 '스타게이트' 프로젝트를 함께 추진 중인 오픈AI에게 역대 최대 규모의 자금 지원에 나선다. 최근 재무 상황에 대한 우려 속에서도 오픈AI에 대한 투자를 강행하며 인공지능(AI) 시장에서 주도권 잡기에 나선 모양새다. 28일 블룸버그통신에 따르면 소프트뱅크는 400억 달러(약 58조원) 펀딩 라운드에 마그네타 캐피털, 코투 매니지먼트, 파운더스 펀드, 알터미터 캐피털 매니지먼트 등을 포함한 투자자들과 참여 방안에 대해 협상 중인 것으로 알려졌다. 이번 펀딩은 최종 마무리 단계로, 일리노이주에 본사를 둔 헤지펀드 마그네타 캐피털의 투자 금액이 최대 10억 달러(약 1조5천억원)에 달할 것으로 예상돼 눈길을 끈다. 시장조사업체 피치북에 따르면 오픈AI의 이번 펀딩 규모는 역대 최대가 될 것으로 관측됐다. 오픈AI의 기업가치는 이번 펀딩에서 모은 자금을 포함해 현재 3천억 달러(약 439조원)로 평가되고 있다. 이는 지난 해 10월 펀딩 때 평가된 1천570억 달러(약 230조원)의 거의 두 배로, 한국 시가총액 1위 기업인 삼성전자(약 365조원)보다 훨씬 높다. 이번 펀딩에서 소프트뱅크는 투자자 신디케이트로부터 25억 달러와 함께 초기에 75억 달러를 투자할 것으로 알려졌다. 이어 연말에는 소프트뱅크가 225억 달러, 신디케이트를 통해 75억 달러를 더 투자해 총 300억 달러의 추가 투자를 진행할 것으로 전해졌다. 앞서 소프트뱅크그룹은 지난 1월 오픈AI에 15억 달러를 추가 출자한 것으로도 알려진 바 있다. 이에 따른 오픈AI 출자액은 당시 총 20억 달러인 것으로 집계됐다. 또 소프트뱅크그룹은 오픈AI와 다양한 사업을 두고 협업에 적극 나서고 있다. 일본에선 합작사를 만들어 기업용 생성형 AI를 개발해 판매할 계획이며 미국에선 소프트웨어 기업 오라클과 함께 최소 5천억 달러를 투자해 새로운 AI 기업인 '스타게이트'를 설립할 계획이다. 소프트뱅크는 이번 투자 움직임과 관련해 뚜렷한 입장을 밝히지 않았다. 그러나 소식이 전해진 후 도쿄 증시에서 소프트뱅크 주가는 4.7% 하락세를 보였다. 블룸버그통신은 "소프트뱅크의 신용부도스와프(CDS)도 확대된 상황"이라며 "이는 부분적으로 이러한 대규모 지출이 기업의 재무 상태에 미칠 영향에 대한 우려 때문"이라고 분석했다.

2025.03.28 10:06장유미

에퀴닉스, 韓 데이터센터 추가 건설…"폭증한 AI 수요 대응"

에퀴닉스가 국내 인공지능(AI) 수요 확산에 대응하기 위해 네 번째 데이터센터를 짓는다. 이를 통해 수도권 기반 디지털 인프라를 구축할 방침이다. 27일 에퀴닉스는 이같은 데이터센터 건설 계획을 밝혔다. 국내 대규모 클라우드와 AI 워크로드를 처리할 수 있는 고밀도 인프라 구축을 목표로 뒀다. 현재 에퀴닉스는 서울에 데이터센터 3곳을 운영하고 있다. 2019년 3분기 서울 상암동 디지털미디어시티에 첫 데이터센터 'SL1'을 개소했으며 2023년 고양시 덕양구에 두 번째 데이터센터 'SL4'를 열었다. 세 번째 데이터센터 'SL2x' 역시 고양시에 지난해 건립됐다. 에퀴닉스는 데이터센터를 다크 파이버로 직접 연결해 서울 매트로 내 상호 연결된 디지털 캠퍼스를 구축했다. 네 번째 데이터센터도 수도권에 위치할 가능성이 높다. 데이터센터 간 연계 운용을 통해 네트워크 확장성과 운영 효율을 높일 수 있을 것으로 기대되고 있다. 에퀴닉스는 2020년부터 재생에너지를 전력으로 활용하고 있다. 태양광 패널을 비롯한 LED 조명, 냉각 효율화 등 친환경 기술을 통해 센터를 운영하고 있다. 2030년까지 100% 재생에너지로 전환하는 것이 목표다. 국내 데이터센터에선 이를 이미 달성했다. 에퀴닉스코리아는 "AI와 클라우드 수요가 폭증한 가운데 기업들은 빠르고 안전하며 지속가능한 인프라를 요구하고 있다"며 "데이터센터 투자를 통해 이에 적극 대응할 것"이라고 밝혔다.

2025.03.27 16:11김미정

"AI 연산 획기적 향상"…슈퍼마이크로, 엔비디아 블랙웰 울트라 플랫폼 기반 솔루션 공개

슈퍼마이크로가 인공지능(AI) 연산 성능을 향상할 수 있는 차세대 AI 솔루션을 선보인다. 슈퍼마이크로는 엔비디아 블랙웰 울트라 플랫폼을 탑재한 새로운 서버·랙제품군을 공개했다고 27일 밝혔다. 슈퍼마이크로의 새로운 AI 제품군은 엔비디아 'HGX B300 NVL16'와 'GB300 NVL72' 플랫폼을 탑재해 AI 추론, 에이전틱 AI, 비디오 추론 등 고성능 연산 AI 워크로드에서 높은 성능을 제공한다. 엔비디아 블랙웰 울트라 플랫폼은 GPU 메모리 용량과 네트워크 대역폭 제약으로 발생하는 병목현상을 해소하고 대규모 클러스터 환경에서 요구되는 AI 워크로드를 안정적으로 처리할 수 있도록 설계됐다. GPU당 288GB의 HBM3e 고대역폭 메모리가 탑재돼 초대규모 AI 모델의 학습·추론에서 향상된 AI 플롭스(FLOPS)를 구현한다. 또 네트워킹 플랫폼에 엔비디아 퀀텀-X800 인피니밴드와 스펙트럼-X 이더넷을 통합해 최대 800Gb/s의 컴퓨팅 패브릭 대역폭을 제공한다. 슈퍼마이크로와 엔비디아는 이번 공개한 차세대 AI 솔루션을 통해 AI 분야에서의 리더십을 더욱 공고히 한다는 목표다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "자사의 데이터센터 빌딩 블록 솔루션을 활용해 엔비디아 HGX B300 NVL16 GB300 NVL72의 열 관리 및 내부 토폴로지(topology)에 최적화된 새로운 공냉식·수냉식 냉각 시스템을 구현했다"며 "이 시스템은 수자원을 절약하면서 전력 소비도 최대 40%까지 줄여 엔터프라이즈 데이터센터의 환경적·운영적 측면에서 상당한 이점을 제공한다"고 설명했다. 이어 "자사는 엔비디아와 오랜 파트너십을 지속하며 엔비디아 블랙웰 울트라 플랫폼을 기반으로 한 최신 AI 기술을공개하게 돼 기쁘다"고 덧붙였다.

2025.03.27 12:05한정호

오픈AI와 틈 벌린 MS, 인프라 투자 너무 무리했나…美·유럽서 데이터센터 임대 또 취소

최근 인프라 투자에 열을 올리던 마이크로소프트(MS)가 돌연 미국과 유럽에서 추진하던 신규 데이터센터 프로젝트를 취소한 것으로 알려져 그 배경에 관심이 집중된다. 27일 블룸버그통신에 따르면 미국 투자은행 TD 코헨은 MS가 미국, 유럽에서 약 2기가와트(GW) 용량에 해당하는 새로운 데이터 프로젝트를 중단했다고 주장했다. 2기가와트는 150만∼200만 가구가 사용하는 전력량과 맞먹는 수준으로, AI를 구동하는 컴퓨팅 클러스터의 공급 과잉 문제가 이번 일의 주 요인인 것으로 분석됐다. TD 코헨은 지난 달 보고서에서 MS가 최소 두 곳의 민간 운영업체와 체결했던 데이터센터 임차 계약을 취소했다고 밝힌 바 있다. 다만 이번에 중단한 프로젝트는 지난 달 취소한 임차 계약과는 별개인 것으로 파악됐다. TD 코헨은 챗GPT 개발사인 오픈AI와의 일부 신규 사업이 무산된 점도 이번 결정에 영향을 미친 것으로 해석했다. MS는 오픈AI에 130억 달러를 투자하는 등 파트너십을 맺고 AI 모델을 위한 클라우드 인프라를 제공해 왔다. 그러나 두 회사는 올 초 MS가 원하지 않을 경우 오픈AI가 다른 컴퓨팅 서비스를 이용할 수 있도록 계약을 조정했다. 이의 일환으로 오픈AI는 최근 코어위브와도 120억 달러(약 17조4천972억원) 규모 클라우드 컴퓨팅 서비스 계약을 체결하기도 했다. 일각에선 오픈AI가 자체 데이터센터 구축도 검토 중인 것으로 파악했다. IT 전문 매체 디인포메이션에 따르면 오픈AI는 최근 수십억 달러 규모 데이터 스토리지 하드웨어 및 소프트웨어 구입을 자체 데이터센터 구축을 위해 고려 중인 것으로 알려졌다. 오픈AI는 현재 자체 데이터센터를 운영하고 있지 않다. 또 TD코웬은 MS가 지난 6개월 동안 데이터센터 임대 계약을 취소하거나 연기하는 등 사업을 조정했다고 주장했다. 이에 따라 MS가 유럽에서 포기한 일부 임대 계약은 구글과 메타플랫폼이 인수한 것으로 알려졌다. TD코웬은 지난 달 보고서에서도 MS가 미국에서 최소 2곳의 사설 데이터센터 운영자와 임차 계약을 취소했다고 밝힌 바 있다. 이에 대해 MS가 데이터센터 확장을 중단할 것이라는 우려가 제기됐다. 앞서 MS는 6월 말 마무리되는 2025년 회계연도에 800억 달러 이상의 자본 지출을 투입할 것이라고 밝히며 계획이 예정대로 진행 중이라고 밝힌 바 있다. 다만 경영진은 다음 회계연도부터 성장 속도가 둔화될 것으로 예상했다. MS 대변인은 "지금까지 진행해온 대규모 투자 덕분에 현재와 증가하는 고객 수요를 충족할 수 있는 탄탄한 입지를 갖추고 있다"며 "일부 지역에서 인프라 전략을 조정하거나 속도를 조절할 수는 있지만 모든 지역에서 지속적으로 강력한 성장을 이어갈 것"이라고 강조했다. 그러면서 "이는 우리가 미래 성장 분야에 투자하고 자원을 효율적으로 배분하는 데 도움이 될 것"이라고 덧붙였다.

2025.03.27 10:55장유미

[영상] 최형두 의원 "2025 추경, AI 예산 2조 반영 추진"

"인공지능(AI) 인프라 예산 확보는 국가 경쟁력의 문제다. 여야 모두 공감하고 있는 만큼 2025년 1차 추경에서 반드시 2조 원 규모로 반영될 수 있도록 기획재정부와 조율 중이다." 국민의힘 최형두 의원은 26일 국회 의원회관 간담회장에서 열린 '2차 AI G3 강국 신기술 전략 조찬 포럼'에서 이와 같이 말하며 AI인프라 경쟁력 확보를 위해 예산을 확대할 것임을 강조했다. 대한민국의 혁신 및 산업 발전을 위한 산·학·연 전문가 중심의 정책 및 실행방안을 논의하기 위해 마련된 이번 포럼에는 국회와 정부, 학계, 산업계를 대표하는 전문가 20여 명이 참석했다. 과학기술정보통신부 송상훈 실장을 비롯해 서울대, 성균관대, 카이스트 등 주요 대학의 학계 인사들과 네이버, LG AI연구원, SK하이닉스, 현대차, SKT, 두산로보틱스, 퓨리오사AI, 리벨리온, 페르소나AI 등 국내 대표 AI·ICT 기업 관계자들이 자리를 함께 했다. 우선 삼성글로벌리서치 허준 상무가 발제자로 나서 '최근 AI 동향과 AI 부상에 따른 데이터센터의 변곡점'을 주제로 발표했다. 그는 "AI는 지금 '모델 골드러시' 시대에 있다”며 최근 몇 개월 사이 쏟아지는 초거대 AI 모델 개발과 추론형 AI의 급부상, 경량형·오픈소스 AI의 흐름을 조망했다. 특히 생성형 AI에서 에이전트 AI, 피지컬 AI로 이어지는 기술 진화 흐름을 짚으며, AI의 진화는 결국 인프라 수요의 폭발적 증가로 이어질 수밖에 없다고 강조했다. 허 상무는 AI를 구성하는 세 가지 요소인 모델, 데이터, 컴퓨팅 인프라 가운데 지금은 인프라가 전략의 핵심이 되고 있다고 강조했다. 이어 과거 초고속 인터넷 인프라를 바탕으로 인터넷 강국이 된 것처럼 AI 인프라 선점 없이는 AI 강국 도약도 어렵다고 말했다. 특히 "AI로 수익을 내는 기업은 대부분 인프라 기업"이라며 "반도체, 전력장비, 냉각기술 분야가 AI의 진짜 수익 원천”이라며, 정부와 국회가 데이터센터 기반 인프라 육성에 보다 적극적으로 나서야 한다"고 강조했다. SKT 이영탁 부사장도 현재 AI 생태계에서 핵심적인 요소가 AI 인프라라는 의견에 동의를 표하며 기업의 투자를 유도하기 위해선 수익성이 있는 인프라 중심의 전략이 필요하다고 강조했다. 이 부사장은 미국의 스타게이트처럼 정부·기업·연구소가 협력하는 한국형 AI 인프라 전략이 필요하다며 국가 AI 컴퓨팅 센터 같은 거점이 실질적인 인프라 구축으로 이어져야 한다고 말했다. 더불어 최근 해외 빅테크의 AI 투자가 일본으로 집중되는 이유로 정부의 공격적인 인센티브 지원를 들었다. 그는 "일본은 해외 기업이 데이터센터를 지을 경우 건설비의 50%까지 지원한다"며 "우리나라도 예산 규모는 작더라도 이와 유사한 적극적인 국회·정부의 재정 지원이 필요하다"고 강조했다. 과기정통부 송상훈 실장는 AI인프라가 국가 간·기업 간 경쟁의 핵심 인프라라는 것에 공감하지만 추가적인 예산 확보가 절실한 상황이라고 밝혔다. 송 실장은 현재 기재부 예산실과 구체적인 협의가 늦어지고 있지만 "플랜 A는 물론 B, C까지 마련해 대비 중”이라고 설명했다. 이에 최형두 의원은 "여야 모두 AI 인프라 예산의 필요성에 공감하고 있다"며 "산불·재해 등으로 인한 2025년 1차 추경 논의가 앞당겨지고 있는 만큼, AI 인프라 예산을 확실히 반영하도록 기획재정부와 조율해 나가겠다"고 밝혔다. 김영호 서울대 공과대학 학장도 GPU와 전기료가 인재 양성의 최대 장애물이라며 AI교육 현장의 현실을 전했다. 김 학장은 "대규모언어모델(LLM)을 직접 돌려보는 경험 유무에 따라 졸업 후 역량이 천차만별"이라며 "정부가 연구자들에게 전기료 완화 조치 등을 제공할 필요가 있다"고 말했다 네이버클라우드의 하정우 AI이노베이션센터장은 해외 사례를 언급하며, 학습용 하이퍼스케일 데이터센터와 산업단지형 추론 인프라를 분리하는 전략을 제시했다. 그는 "사우디아라비아도 AI 모델을 서비스하면서 추론 인프라의 중요성을 인식했다"며 "우리도 국내 AI 반도체를 활용한 인퍼런스 센터 실증 프로젝트를 산업단지에서 시작해야 한다"고 강조했다. 또한 프랑스가 167조 원 규모의 AI 투자 중 70억 유로를 해외에서 유치한 사례를 들며 해외 투자 유치로 AI 인프라를 스케일업할 전략을 세워야 한다고 의견을 피력했다. 더불어민주당 정동영 의원과 국민의힘 최형두 의원, 정보통신산업진흥원이 공동 주최·주관하는 AI G3 강국 신기술 전략 조찬 포럼은 매월 주요 인사와 산업계를 초청해 시리즈 형태로 개최 중이다. 다음 달부터는 중소기업과 스타트업, 대표기업 중심의 현장 목소리를 반영한 논의가 이어지며 12월에는 연간 종합토론이 국회에서 진행될 계획이다.

2025.03.26 11:24남혁우

"탄소도 줄이고 전기도 아끼고"…KT클라우드, 데이터센터에 AI 결합

KT클라우드가 데이터센터(DC) 운영을 인공지능(AI) 기술로 최적화하는 실증 작업에 나선다. 급증하는 데이터 트래픽을 효율적으로 처리하면서 에너지도 절약하는 차세대 친환경 데이터센터로의 전환을 위한 초석이다. KT클라우드는 오는 11월 서울 목동 DC 2센터 내에 AI DC 실증센터를 개관할 예정이라고 25일 밝혔다. 이번 실증센터는 데이터 트래픽 증가에 대응하기 위한 운영 최적화 기술 검증을 주목적으로 한다. AI를 통해 전력 소비, 냉각, 네트워크 등 데이터센터 핵심 운영 요소의 효율을 실험하고 협력사와의 공동 기술 개발도 추진한다. 기업 고객과 공공기관 관계자를 대상으로 한 투어 프로그램도 병행할 계획이다. KT클라우드는 AI 자동 운영 외에도 수냉식 냉각, 신재생에너지 적용 등 탄소 배출 저감을 위한 친환경 기술을 테스트할 계획이다. 이를 통해 지속 가능한 데이터센터 운영 체계를 단계적으로 구현한다는 목표다. 센터 개관 이후에는 독립형 실증 공간 마련을 추진하고 오는 2028년까지 자율운영 기반의 에너지 자립형 데이터센터 구축에 나선다. 이미 KT클라우드는 DC본부 내 기술 전문 조직인 'DC 랩스'를 중심으로 디지털트윈, AI 운용 등 핵심 기술을 발굴하고 있다. 내부 역량을 강화함과 동시에 파트너사와 공동 개발 및 성과 공유를 통한 생태계 조성도 병행한다. 허영만 KT클라우드 DC본부장은 "이번 AI DC 실증센터 구축을 통해 앞선 기술력을 발빠르게 현장에 적용하고 파트너사와 긴밀한 협력 관계를 기반으로 동반 성장하며 DC 생태계 전반을 견고히 다지겠다"며 "향후에도 선진 데이터센터 운영 기술과 차별화된 서비스로 시장을 선도하겠다"고 밝혔다.

2025.03.25 10:36조이환

이재용과 친한 인도 기업, 오픈AI·메타 '러브콜' 받았다…무슨 일?

'챗GPT' 개발사 오픈AI와 '페이스북' 모회사 메타플랫폼이 인도 인공지능(AI) 시장을 노리고 릴라이언스 그룹과 협력에 나선다. 24일 더인포메이션, 블룸버그통신 등 주요 외신에 따르면 오픈AI는 릴라이언스 지오와 인도에서 '챗GPT'를 배포하고 20달러인 구독료를 현지에서 인하하는 방안을 검토 중이다. 구독료가 인도 평균 월급보다 높은 수준이어서 '챗GPT' 사용자를 더 늘리는 데 한계가 있어서다. 현재 인도에선 '챗GPT'의 대안이 딱히 없는 상태지만, AI 시장은 빠르게 성장하고 있는 상태다. 실제 블루위브 컨설팅에 따르면 지난 2022년 인도 AI 시장 규모는 약 6억7천211만 달러에서 2029년까지 약 39억6천651만 달러로 성장할 것으로 전망됐다. 다만 현지 기업을 중심으로 한 B2C(기업 소비자간 거래) 시장은 아직 제대로 형성되지 않았다. 현재 인도 AI 시장에선 '챗GPT'가 많이 사용되고 있으나 인구 대비 AI 챗봇을 사용하는 비중은 아직 낮다. 그러나 전 세계 '챗GPT' 사용자 수로는 미국에 이어 2위로, 오픈AI에겐 중요한 시장으로 평가 된다. B2B(기업간 거래) AI 시장에선 크루트림, 사르밤 등 현지 기업들이 경쟁하고 있는 중으로, 크루트림의 경우 최근 20억 루피(약 2천400억원) 규모의 AI 연구소를 설립해 기업용 AI 솔루션 개발에 집중하고 있다. 업계 관계자는 "인도는 자체 파운데이션 모델 개발을 본격화하고 있는 상태로, 향후 B2C 서비스로 이어질 가능성이 높다"며 "오픈AI의 인도 진출은 B2B뿐 아니라 B2C 시장까지 확장하려는 움직임으로 보인다"고 말했다. 업계에선 오픈AI가 릴라이언스 그룹과 손을 잡았다는 점을 주목하고 있다. 릴라이언스는 인도에서 석유화학·에너지·통신·유통 등 사업을 벌이고 있는 재벌 그룹이다. 특히 릴라이언스 지오는 인도 이동통신 시장 점유율 40%가량을 차지하고 있으며 삼성전자 LTE 장비를 택해 점유율을 빠르게 끌어올렸다는 점에서 우리나라와도 친숙한 기업이다. 이재용 삼성전자 회장은 무케시 암바니 릴라이언스그룹 회장 자녀 결혼식에 참석할 정도로 각별한 관계를 유지하고 있다. 릴라이언스는 오픈AI의 AI 모델을 자사의 기업 고객에게 판매하는 동시에 오픈AI의 AI 시스템을 인도에서 운영해 현지 고객 데이터를 인도 내에서 보관하는 방안도 논의 중인 것으로 알려졌다. 또 인도 서부 잠나가르 시에 건설을 계획 중인 세계 최대 규모의 3기가와트(GW)급 데이터센터에 오픈AI와 메타의 AI 모델을 운영하는 방안도 논의 중인 것으로 전해졌다. 디인포메이션은 "이번 일로 메타가 오픈AI의 경쟁자가 될 수도 있을 것 같다"면서도 "이들이 릴라이언스와 계약을 맺은 것은 메타, 오픈AI 등 외국계 AI 기업이 현지 기업을 밀어낼 수도 있다고 우려하는 인도 정부 관리들과의 관계를 강화하는 데는 잠재적으로 도움이 될 수 있을 것 같다"고 말했다. 이어 "현지 소비자와 기업 사이에서 입지를 확대하는 데도 도움이 될 것으로 보인다"고 덧붙였다.

2025.03.24 10:56장유미

MS가 이끄는 AI 인프라 투자에 엔비디아·xAI 합류

엔비디아와 일론 머스크의 xAI가 미국 내 인공지능(AI) 인프라 확장을 위해 투자 프로젝트에 합류했다. 13일 테크크런치 등 외신에 따르면 엔비디아와 xAI는 마이크로소프트, 투자 펀드 MGX, 블랙록이 주도하는 'AI 인프라 파트너십(AIP)'에 참여한다고 밝혔다. AIP는 AI 서비스 운영에 필수적인 데이터센터·전력 공급망 강화를 목표로 지난해 설립됐다. AI 기술이 발전하면서 연산 능력에 대한 수요가 급증했고 이로 인해 전력 소비 문제가 새로운 과제로 떠올라서다. AIP는 AI 모델 훈련과 대규모 데이터 처리를 지원하기 위해 300억 달러(약 43조7천490억원) 넘는 투자 계획을 세웠다. 현재 투자금 확보를 위해 기업, 자산 소유자, 기관 투자자로부터 자금을 유치하고 있다. 부채 금융을 포함해 최대 1천억 달러(약 145조8천300억원)를 동원할 방침이다. 이번 프로젝트에 GE 버노바와 유틸리티 기업 넥스테라 에너지도 참여한다. 해당 기업은 AI 인프라 구축에 필요한 전력 공급망 관리와 고효율 에너지 솔루션 개발을 맡을 예정이다. AIP는 이번 투자가 미국 내 협력업체뿐만 아니라 경제협력개발기구(OECD) 회원국을 중심으로 이루어질 것이라고 밝혔다. 다만 현재까지 확보된 총투자금 규모는 공개되지 않았다. 해당 컨소시엄은 도널드 트럼프 미국 대통령이 두 달 전 발표한 '스타게이트' 프로젝트 후 본격화했다. 스타게이트는 소프트뱅크, 오픈AI, 오라클이 참여하는 민간 AI 인프라 투자 프로젝트로 최대 5천억 달러(약 729조4천억원) 자금 조달을 목표로 하고 있다. 현재까지 1천억 달러가 즉시 투입될 예정이며 나머지 자금은 향후 4년 동안 추가 마련될 계획이다. AIP는 "지난해 9월 출범 이후 상당한 자본과 파트너들의 관심을 끌었다"며 "AI 인프라 구축을 위한 추가적인 투자 유치도 진행 중"이라고 밝혔다.

2025.03.20 08:37김미정

'1b LPDDR5X' 양산 개시...SK하이닉스, 엔비디아 등 AI 고객사 잡는다

SK하이닉스가 지난해 하반기 최선단 D램 공정 기반의 LPDDR(저전력 D램) 양산을 시작한 것으로 확인됐다. AI 서버가 주요 적용처로, 엔비디아 등 글로벌 빅테크 공략에 속도를 낼 것으로 관측된다. 19일 SK하이닉스 사업보고서에 따르면 이 회사는 지난해 10월부터 1b(5세대 10나노급) 기반의 LPDDR5X 양산을 시작했다. 1b D램은 현재 양산 중인 D램의 가장 최신 세대에 해당한다. SK하이닉스는 1b 공정을 기반으로 16Gb(기가비트) LPDDR5X를 지난해 6월 개발 완료한 뒤, 10월부터 양산에 돌입했다. 해당 제품의 동작 속도는 10.7Gbps로, 이전 세대(9.6Gbps) 대비 약 10% 빠르다. 전력 효율도 최대 15%까지 절감할 수 있다는 게 SK하이닉스의 설명이다. 이번 1b LPDDR5X의 주요 타겟은 AI, HPC(고성능컴퓨팅) 등이다. SK하이닉스는 시장에서 향후 수요가 빠르게 증가할 것으로 예상되는 신규 메모리 모듈인 LPCAMM·SOCAMM 등에 해당 제품을 채용할 예정이다. LPCAMM은 기존 LPDDR 모듈 방식인 So-DIMM(탈부착)과 온보드(직접 탑재)의 장점을 결합한 기술이다. 기존 방식 대비 패키지 면적을 줄이면서도 전력 효율성을 높이고, 탈부착 형식으로 제작하는 것이 가능하다. SOCAMM 역시 LPDDR 기반의 차세대 모듈이다. LPCAMM과 마찬가지로 탈부착이 가능하지만, 데이터를 주고받는 I/O(입출력단자) 수가 694개로 LPCAMM(644개) 대비 소폭 증가했다. LPCAMM 및 SOCAMM은 이 같은 장점을 무기로 글로벌 빅테크와 주요 메모리 기업들의 주목을 받고 있다. 현재 AI 산업을 주도하고 있는 엔비디아도 차세대 AI PC에 이들 제품을 채택할 것으로 알려졌다.

2025.03.19 17:11장경윤

SK하이닉스, 세계 최초 'HBM4' 12단 샘플 공급 시작

SK하이닉스가 AI용 초고성능 D램 신제품인 HBM4 12단 샘플을 세계 최초로 주요 고객사들에 제공했다고 19일 밝혔다. SK하이닉스는 "HBM 시장을 이끌어온 기술 경쟁력과 생산 경험을 바탕으로 당초 계획보다 조기에 HBM4 12단 샘플을 출하해 고객사들과 인증 절차를 시작한다"며 "양산 준비 또한 하반기 내로 마무리해, 차세대 AI 메모리 시장에서의 입지를 굳건히 하겠다"고 강조했다. 이번에 샘플로 제공한 HBM4 12단 제품은 AI 메모리가 갖춰야 할 세계 최고 수준의 속도를 갖췄다. 12단 기준으로 용량도 세계 최고 수준이다. 우선 이 제품은 처음으로 초당 2TB(테라바이트) 이상의 데이터를 처리할 수 있는 대역폭을 구현했다. 이는 FHD(Full-HD)급 영화(5GB=5기가바이트) 400편 이상 분량의 데이터를 1초 만에 처리하는 수준으로, 전세대(HBM3E) 대비 60% 이상 빨라졌다. HBM 제품에서 대역폭은 HBM 패키지 1개가 초당 처리할 수 있는 총 데이터 용량을 뜻한다. 아울러 회사는 앞선 세대를 통해 경쟁력이 입증된 어드밴스드(Advanced) MR-MUF 공정을 적용해 HBM 12단 기준 최고 용량인 36GB를 구현했다. 이 공정을 통해 칩의 휨 현상을 제어하고, 방열 성능도 높여 제품의 안정성을 극대화했다. SK하이닉스는 2022년 HBM3를 시작으로 2024년 HBM3E 8단, 12단도 업계 최초 양산에 연이어 성공하는 등 HBM 제품의 적기 개발과 공급을 통해 AI 메모리 시장 리더십을 이어왔다. 김주선 SK하이닉스 AI Infra(인프라) 사장(CMO)은 “당사는 고객들의 요구에 맞춰 꾸준히 기술 한계를 극복하며 AI 생태계 혁신의 선두주자로 자리매김했다”며 “업계 최대 HBM 공급 경험에 기반해 앞으로 성능 검증과 양산 준비도 순조롭게 진행할 것”이라고 말했다.

2025.03.19 09:58장경윤

엔비디아, 루빈 울트라·파인만 AI칩 공개…"차세대 HBM 탑재"

엔비디아가 인공지능(AI) 반도체 산업의 주도권을 유지하기 위한 차세대 GPU를 추가로 공개했다. 오는 2027년 HBM4E(7세대 고대역폭메모리)를 탑재한 '루빈 울트라'를, 2028년에는 이를 뛰어넘을 '파인만(Feynman)' GPU를 출시할 예정이다. 파인만에 대한 구체적인 정보는 아직 공개되지 않았지만, '차세대 HBM(Next HBM)'을 비롯해 다양한 혁신 기술이 적용될 것으로 전망된다. 18일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 미국 실리콘밸리 새너제이 컨벤션 센터에서 열린 연례행사인 'GTC 2025' 무대에 올라 AI 데이터센터용 GPU 로드맵을 발표했다. 이날 발표에 따르면, 엔비디아는 최신형 AI 가속기인 '블랙웰' 시리즈의 최고성능 제품인 '블랙웰 울트라'를 올해 하반기 출시한다. 해당 칩은 12단 HBM3E(5세대 HBM)를 탑재했으며, AI 성능을 이전 세대 대비 1.5배 높인 것이 특징이다. 이어 엔비디아는 HBM4를 탑재한 '루빈' 시리즈를 내년 하반기 출시한다. 루빈부터는 기존 '그레이스' CPU가 아닌 '베라' CPU가 채용된다. 루빈의 최고성능 제품인 루빈 울트라는 내후년인 2027년 하반기께 출시가 목표다. 루빈 울트라에는 HBM4E가 채용돼, 메모리 성능이 블랙웰 울트라 대비 8배나 늘어난다. 그동안 드러나지 않았던 차차세대 AI 가속기에 대한 정보도 공개됐다. 엔비디아는 루빈 이후의 제품명을 파인만으로 확정했다. 미국의 저명한 이론 물리학자인 리처드 파인만에서 이름을 따왔다. 엔비디아는 파인만에 대해 차세대 HBM(Next HBM)을 탑재한다고 기술했다. 다만 구체적인 세대명은 공개하지 않았다. 파인만은 오는 2028년 출시될 예정이다.

2025.03.19 08:43장경윤

샌디스크, 업계 최초 차량용 UFS4.1 낸드 솔루션 공개

샌디스크는 11일부터 13일까지(현지시각) 독일 뉘른베르크에서 개최되는 '임베디드 월드 2025'에서 업계 최초 오토모티브 등급 UFS4.1 인터페이스 디바이스를 공개한다고 12일 밝혔다. '샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브'는 샌디스크의 이전 UFS3.1 디바이스 대비 2배 이상 업그레이드된 성능과 기존 업계에 출시된 용량 대비 2배 향상된 용량을 제공한다. 샌디스크의 최신 BiCS8 TLC 낸드 기술이 적용된 것은 물론, 최대 1TB의 대용량을 지원하며 높은 수준의 데이터 스토리지 성능, 용량, 내구성, 신뢰성이 요구되는 오토모티브 애플리케이션을 발전시키고 오토모티브 AI 혁신을 가속화한다. 첨단운전자지원시스템(ADAS), 자율주행, 이콕핏(eCockpit)과 같은 오토모티브 인공지능(AI) 시스템은 센서, 지도, AI 데이터베이스에서 정보를 추출해야 안전하게 작동할 수 있다. iNAND 임베디드 플래시 드라이브는 데이터가 필요할 때 활용할 수 있도록 하는 데 중요한 역할을 하며 자율주행 컴퓨터를 위한 실시간 차량 스토리지를 제공해 클라우드 접속 시 발생하는 지연성(latency) 및 연결성 문제를 해결할 수 있도록 지원한다. 샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브는 현재 엄선된 고객 및 파트너를 대상으로 출하 중이다. 새롭게 공개된 임베디드 플래시 드라이브를 통해 샌디스크는 한층 강화된 오토모티브 등급 SD 카드, e.MMC, UFS2.1, UFS3.1 및 NVMe 제품 포트폴리오를 보유하게 됐다. 한편 샌디스크는 임베디드 월드 2025의 현지 부스에서 샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브와 함께, '샌디스크 DC SN861 NVMe SSD'와 '울트라스타 DC SN655 NVMe SSD'를 비롯한 선도적인 데이터센터 솔루션, 워크스테이션 및 노트북용 클라이언트 SSD, 산업용 임베디드 및 리무버블(removable) 플래시 스토리지 솔루션, 클라이언트 SSD 등의 플래시 스토리지 솔루션을 선보인다.

2025.03.12 11:22장경윤

MS와 틈 벌리는 오픈AI, 코어위브에 120억 달러 투자한 속내는

'챗GPT'를 개발한 오픈AI가 인공지능(AI) 인프라 확보를 위해 스타트업 코어위브에 대규모로 투자하며 지분 확보에 나섰다. 마이크로소프트(MS)에 대한 의존도가 각각 높았던 오픈AI와 코어위브는 이번 일로 사업 확장에 새로운 전환을 맞이 할 수 있게 됐다. 11일 로이터통신, 테크크런치 등 주요 외신에 따르면 오픈AI는 코어위브와 119억 달러(17조3천561억원) 규모의 클라우드 컴퓨팅 서비스 계약을 체결했다. 이번 계약 기간은 5년으로, 오픈AI는 이번 계약을 통해 코어위브 지분 일부를 확보하게 됐다. 이를 위해 코어위브는 3억5천만 달러 규모의 주식을 사모 방식으로 발행할 예정이다. 코어위브는 엔비디아 AI 칩을 이용한 대규모 데이터센터를 운영 중으로, 이를 임대하는 사업을 펼치고 있다. 클라우드 서비스 제공 업체인 만큼 경쟁사로는 아마존웹서비스(AMS), MS 애저, 구글 클라우드 등이 꼽힌다. 2023년에는 엔비디아 등으로부터 투자를 유치했으며 현재 뉴욕증시 상장을 추진 중이다. 기업가치를 350억 달러(약 51조원) 이상으로 평가 받으면서 올해 미국 기업공개(IPO) 시장에선 최대어로 주목 하고 있다. 지난해 5월 초 11억 달러 규모의 투자금을 유치할 당시 평가 받았던 기업가치(190억 달러)의 약 두 배다. 그러나 코어위브가 79억 달러의 부채를 보유하고 있다는 점은 다소 우려스럽다. 코어위브는 IPO를 통해 수십억 달러의 신규 자본이 유입되면 일부를 부채 상환에 사용할 예정이다. 이번 일을 두고 양 사는 묵묵부답으로 일관하고 있다. 업계에선 오픈AI와 MS의 관계 변화에 따른 일로 해석했다. 오픈AI는 그간 MS와 파트너십을 맺고 MS 클라우드 '애저'를 기반으로 챗GPT 등 AI 서비스와 모델을 개발·운영해 왔다. 하지만 오픈AI가 대규모 투자가 이뤄지는 사업에 MS가 아닌 다른 기업과 손을 잡기 시작하며 양 사 관계에 이상 기류가 감지되기 시작했다. 특히 지난 1월 오픈AI가 일본 소프트뱅크, 오라클과 AI 합작회사인 '스타게이트' 설립을 발표하며 두 기업간 흔들리는 협력 관계가 조명 받기도 했다. 일단 MS는 올해 1월쯤 오픈AI가 오라클 클라우드를 활용할 수 있도록 승인하면서 2030년까지 오픈AI API 독점권과 매출 25%를 가져가는 수익 공유 계약은 유지하기로 협의했다. 월스트리트저널(WSJ)은 당시 "오픈AI의 스타게이트 발표 현장에서 MS가 보이지 않는 것은 수개월에 걸친 양사 간 긴장 이후 나온 것"이라며 "오랜 파트너들이 서로 덜 의존하게 될 새로운 시대를 알리는 신호"라고 관측했다. 이후 MS가 오픈AI와 경쟁하기 위해 AI 추론 모델을 자체 개발하고 있다는 소식이 전해지며 틈은 더 벌어진 분위기다. IT 매체 디인포메이션에 따르면 무스타파 술레이먼이 이끄는 MS AI팀은 최근 '마이(MAI)'라고 불리는 AI 모델군 훈련을 완료했다. 마이는 AI 성능을 평가한 벤치마크 테스트에서 오픈AI와 앤트로픽 최상위 AI 모델과 거의 같은 성능을 보인 것으로 알려졌다. MS는 현재 자체 AI 도구 '코파일럿'에서 오픈AI의 AI 모델을 '마이'로 교체하는 테스트도 진행 중인 것으로 전해졌다. 오픈AI에 대한 의존도를 줄이기 위한 것으로 분석된다. 디인포메이션은 "MS '마이' 추론 모델은 오픈AI 추론 모델 o시리즈와 직접 경쟁이 가능할 것"이라고 밝혔다. 코어위브는 MS에 대한 매출 의존도가 높다는 점에서 이번 오픈AI와의 계약이 새로운 동력이 될 것으로 보인다. 현재 최대 고객인 MS가 코어위브의 매출에서 차지하는 비중은 62%다. 이 외에도 페이스북 운영사 메타, IBM 등 대형 IT 기업도 코어위브 데이터센터를 활용하고 있다. 이곳의 지난해 매출은 19억2천만 달러(약 2조7천990억원)로 전년 대비 약 8배 증가했다. 다만 순손실도 2023년 5억9천370만 달러(약 8천657억원)에서 2024년 8억6천340만 달러(약 1조2천595억원)로 확대됐다. 코어위브는 6%의 지분을 보유한 엔비디아의 지원을 받아 지난해 말 기준 25만 개 이상의 엔비디아 그래픽처리장치(GPU)를 운영하는 32개 데이터센터 네트워크를 통해 AI 전용 클라우드 서비스를 운영하고 있다. 특히 AI 추론을 지원하는 엔비디아의 최신 제품인 블랙웰을 포함해 더 많은 GPU가 최근 추가됐다는 점에서 고성능 AI 모델 개발에 나선 업체들의 러브콜이 쏟아지고 있다. 업계 관계자는 "오픈AI가 MS 애저를 사용 중이지만 더 많은 컴퓨팅 리소스가 필요한 시점에서 MS로부터 GPU를 원하는 만큼 공급 받고 있지 못하고 있다고 보고 있다"며 "코어위브도 그간 최대 고객이 MS였다는 점에서 의존도를 줄일 수 있게 된 데다 오픈AI를 고객으로 유치하면서 투자자들을 달래는 데도 도움이 될 것"이라고 밝혔다.

2025.03.11 15:38장유미

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미

'5% 급락' 엔비디아 주가, 美 스타게이트 덕에 살아날까…AI 칩 수만 개 장착

'챗GPT' 개발사 오픈AI와 오라클, 일본 소프트뱅크가 함께 추진 중인 '스타게이트' 프로젝트에 수십억 달러 규모의 엔비디아 인공지능(AI) 칩이 탑재될 예정이다. 최신 칩인 '블랙웰' 공급 지연 여파로 최근 하락세를 보인 엔비디아의 주가가 이번 소식으로 반등할 수 있을지 주목된다. 7일 블룸버그통신에 따르면 오픈AI, 오라클 등은 향후 몇 개월 안에 미국 텍사스 애빌린에 짓고 있는 첫 데이터센터에 2026년 말까지 수만 개의 엔비디아 GB200 칩 6만4천 개를 탑재할 계획이다. 올해 여름까지 1만6천 개의 GB200이 1차로 설치된 후 단계적으로 추가될 예정인 것으로 알려졌다. GB200은 엔비디아의 최신 AI 칩 '블랙웰' 그래픽처리장치(GPU) 2개와 그레이스 중앙처리장치(CPU) 1개를 탑재한 AI 가속기다. GB200의 공식 가격은 알려지지 않았지만 1개당 3만~4만 달러였던 직전 모델보다는 더 비싼 것으로 전해졌다. 이에 스타게이트 프로젝트에 투입되는 자금은 GB200 칩만으로도 수십억 달러가 될 전망이다. 블룸버그통신은 "한 곳의 데이터 센터에 투입되는 컴퓨팅 파워로는 매우 큰 규모"라며 "이는 스타게이트 프로젝트의 대규모 확장을 시사한다"고 말했다. '스타게이트' 프로젝트 여파로 미국 전역에 최대 10곳의 데이터센터가 구축될 예정인 만큼 엔비디아의 첨단 AI 칩에 대한 수요는 줄어들지 않을 것으로 보인다. '스타게이트'는 오픈AI와 오라클, 소프트뱅크의 주도로 진행되는 프로젝트로, 미국 내 데이터센터 설립을 목표로 하고 있다. 이를 위해 향후 4년간 최대 5천억 달러(약 720조원)을 투자할 계획이다. 샘 알트먼 오픈AI 최고경영자(CEO)와 손정의 소프트뱅크 회장은 지난 달 4일 이재용 삼성전자 회장을 만나 자금 지원에 나설 것을 요청하기도 했다. 오픈AI는 향후 스타게이트 부지를 최대 10곳까지 확장할 계획으로, 텍사스 외에도 펜실베이니아, 위스콘신, 오리건주 등에서도 부지를 검토 중이다. 일각에선 최근 '저비용·고성능'을 앞세운 중국 AI 딥시크가 출현한 후 엔비디아의 첨단 AI 칩에 대한 수요가 줄어드는 것 아니냐는 우려를 내놨지만, 이번 일로 불식된 분위기다. 현재 '스타게이트' 프로젝트에서 AI 칩을 확보·운영하는 것은 오라클이 맡고 있는 상태로, 오라클은 엔비디아 최신 칩 확보 경쟁에서 치열한 싸움을 벌이고 있다. 특히 일론 머스크가 설립한 xAI, 메타 등이 가장 큰 경쟁자로 꼽힌다. xAI는 최근 멤피스에 있는 슈퍼 컴퓨터용 AI 서버 확장에 나섰고, 메타는 루이지애나와 텍사스주 또는 와이오밍에 2천억 달러 규모의 데이터센터 건설을 검토 중에 있다. 이곳에는 모두 수 만장의 엔비디아 AI 가속기가 투입될 가능성이 높다. 하지만 엔비디아는 이 같은 호재를 앞두고도 주가 하락 움직임을 막지 못한 분위기다. 지난 6일 주가는 전일 대비 5.47% 내린 110.57달러(약 16만215원)에 거래를 마쳤다. 이는 지난해 9월 10일(108.08달러) 이후 가장 낮은 수준으로, 최신 칩인 '블랙웰' 공급이 수요를 충족시킬 만큼 원활하지 않다는 시장의 판단 때문으로 분석됐다. 최근 3개월간 주가는 19.50% 하락했다. 업계 관계자는 "그동안 시장에선 블랙웰 공급 확장을 통해 엔비디아의 폭발적인 매출 증가를 기대했다"며 "하지만 계속된 공급 지연에 따른 실망감으로 매도가 나온 것으로 보인다"고 분석했다.

2025.03.07 10:17장유미

브로드컴, AI 반도체 사업 훈풍…삼성·SK도 HBM 성장 기대감

미국 브로드컴의 AI 사업이 지속 확대될 전망이다. 구글을 비롯한 핵심 고객사가 자체 데이터센터용 AI 반도체를 적극 채용한 데 따른 영향이다. 나아가 브로드컴은 추가 고객사 확보 논의, 업계 최초 2나노미터(nm) 기반 AI XPU(시스템반도체) 개발 등을 추진하고 있다. 이에 따라 삼성전자·SK하이닉스 등 국내 기업들도 HBM(고대역폭메모리) 사업 확대에 속도를 낼 수 있을 것으로 기대된다. 6일 브로드컴은 회계연도 2025년 1분기에 매출 약 149억 달러를 기록했다고 밝혔다. 이번 매출은 전년동기 대비 25%, 전분기 대비로는 6% 증가했다. 증권가 컨센서스(147억 달러)도 소폭 상회했다. 해당 분기 순이익 역시 GAAP 기준 55억 달러로 전년동기(13억 달러) 대비 크게 증가했다. 브로드컴은 "AI 반도체 솔루션과 인프라 소프트웨어 부문의 성장으로 1분기 사상 최대 매출을 기록했다"며 "특히 AI 매출은 전년 대비 77% 증가한 41억 달러를 기록했고, 2분기에도 44억 달러의 매출을 예상한다"고 밝혔다. AI 매출은 브로드컴의 반도체 솔루션 사업 부문에서 AI용 주문형반도체(ASIC), AI 가속기, 서버 네트워크 칩 등을 포함한 매출이다. 브로드컴은 자체적인 반도체 설계 역량을 바탕으로, 구글·메타 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원하고 있다. 현재 브로드컴을 통해 AI 반도체의 대량 양산에 이른 고객사는 3곳이다. 브로드컴은 이들 고객사의 AI 반도체 출하량이 지난해 200만개에서 오는 28년에는 700만개로 늘어날 것으로 보고 있다. 나아가 4개의 잠재 고객사와도 양산 논의를 진행하고 있다. 브로드컴의 AI 사업 확대는 삼성전자·SK하이닉스 등 국내 주요 메모리 기업들에게도 수혜로 작용한다. AI 가속기에 필수적으로 활용되는 HBM의 수요가 증가하기 때문이다. 기존 HBM의 수요처는 엔비디아·AMD 등 고성능 GPU를 개발하는 팹리스가 주를 이뤘다. 그러나 최근에는 구글·메타 등도 전력효율성, 비용 등을 고려해 자체 AI ASIC 탑재량을 적극적으로 늘리는 추세다. 특히 구글은 브로드컴의 핵심 고객사로 자리 잡았다. 구글은 자체 개발한 6세대 TPU(텐서처리장치) '트릴리움(Trillium)'에 HBM3E 8단을 채용하며, 이전 세대 대비 생산량을 크게 확대할 계획이다. 구글 최신형 TPU에 HBM을 양산 공급하기로 한 기업은 SK하이닉스, 마이크론으로 알려져 있다. 삼성전자도 공급망 진입을 위한 테스트를 꾸준히 진행하고 있다. 경쟁사 대비 진입이 늦어지고 있으나, 최근 테스트에서는 기존 대비 긍정적인 결과를 얻어낸 것으로 파악됐다. 반도체 업계 관계자는 "최근 데이터센터 업계의 트렌드는 고가의 엔비디아 AI 가속기 대신 자체 칩을 개발하는 것"이라며 "구글과 AWS(아마존웹서비스) 등이 대표적인 대항마로 떠오르고 있어, 올해부터 HBM의 수요 비중을 늘려나갈 것으로 관측된다"고 설명했다.

2025.03.07 10:13장경윤

TSMC, CoWoS에 '플럭스리스 본딩' 적용 추진…AI칩 대형화에 대응

대만 주요 파운드리 TSMC가 첨단 패키징 기술인 '플럭스리스(Fluxless)' 본딩을 적용하는 방안을 추진 중이다. 지난해부터 관련 장비를 도입해 평가를 진행해 온 것으로 파악됐다. AI 산업의 발달로 패키징 크기가 점차 확대되면서, 기술 전환의 필요성이 높아졌다는 분석이 제기된다. 6일 업계에 따르면 TSMC는 2.5D 패키징에 플럭스리스 본딩을 적용하기 위한 공정 평가를 진행하고 있다. 그간 TSMC는 2.5D 패키징을 'CoWoS(Chip-on-Wafer-on-Substrate)'라는 브랜드명으로 자체 개발해 왔다. TSMC는 지난해 2곳 이상의 해외 주요 반도체 장비업체로부터 플럭스리스 본딩 장비를 들여와, CoWos에 양산 적용하기 위한 평가를 진행하고 있다. 나아가 올 상반기에도 또 다른 협력사와 추가적인 평가를 시작할 예정인 것으로 파악됐다. 2.5D 패키징은 칩과 기판 사이에 넓다란 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 기술이다. 기판만을 활용하는 기존 2D 패키징에 비해 회로를 더 밀도있게 연결할 수 있다. 특히 HBM과 고성능 GPU를 연결하는 데이터센터용 AI 가속기 분야에서 CoWoS에 대한 수요가 높다. TSMC는 그간 CoWoS에 플럭스(Flux)를 활용해 왔다. 플럭스는 칩과 인터포저를 연결하는 미세한 범프의 접착력을 높이고, 접합 품질을 떨어트리는 산화막을 방지하는 역할을 맡고 있다. 그러나 CoWoS는 점차 플럭스를 쓰기 어려워지는 환경으로 진화하고 있다. 플럭스는 범프의 접합이 끝난 뒤 제거(세정)돼야 하는데, 인터포저 크기가 커지면 가운데에 묻은 플럭스를 완전히 제거하기가 어렵기 때문이다. 플럭스가 잔존하면 칩 신뢰성이 저해될 수 있다. 실제로 TSMC의 CoWoS 패키징 내 인터포저 크기는 지난 2023년 기준 80x80mm 수준이었다. 레티클(포토마스크; 반도체 회로를 새기기 위한 원판) 대비 약 3.3배 크다. TSMC는 이를 오는 2026년 100x100mm(레티클 대비 5.5배)까지 확대할 계획이다. 2027년에는 120x120mm(레티클 대비 8배) 수준으로 커진다. AI 가속기에 요구되는 컴퓨팅 성능이 높아질수록 더 많은 칩을 내장해야 하기 때문에, 인터포저의 크기도 덩달아 커지는 추세다. 플럭스리스 본딩은 이 문제를 해결할 수 있는 대안으로 꼽힌다. 플럭스리스는 플럭스를 사용하지 않고 범프의 산화막을 제거하는 기술이다. 때문에 해외 주요 반도체 장비기업들이 관련 기술 개발에 주력하고 있다. TSMC도 향후 CoWoS에 플럭스리스 본딩을 적용하는 방안을 적극 검토하는 분위기다. 특히 TSMC는 지난해 CoWoS 수율 향상에 난항을 겪은 바 있어, 플럭스리스를 비롯한 대안 기술에 관심을 기울일 수 밖에 없다는 게 업계의 전언이다. 반도체 업계 관계자는 "현재 TSMC는 플럭스리스 본더를 소량 들여와 연구개발(R&D) 단계에서 평가를 진행하는 중"이라며 "올해까지 테스트가 마무리 될 것으로 보고 있다"고 설명했다.

2025.03.06 14:16장경윤

리벨리온, SKT·펭귄솔루션스와 MOU…AI 데이터센터 공략 가속화

리벨리온은 스페인 바르셀로나에서 열린 'MWC25'에서 펭귄 솔루션스(Penguin Solutions), SK텔레콤과 함께 MOU를 체결했다고 5일 밝혔다. 리벨리온은 이번 협력을 통해 NPU 제품과 기술을 바탕으로 사업역량과 기술력을 대규모 데이터센터 수준으로 끌어올린다는 계획이다. 리벨리온은 에너지효율성을 확보한 AI반도체를 바탕으로 카드는 물론 서버와 렉 수준까지 제품 라인업을 확장해왔다. 펭귄 솔루션스는 높은 수준의 AI 인프라 전문성을 바탕으로, 8만5천대 이상의 GPU를 관리하는 AI 인프라 전문 기업이다. SK텔레콤은 최근 AI 인프라 사업에 속도를 내며 펭귄 솔루션스를 비롯한 AI 인프라 관련 기업에 적극 투자하고 있다. 3사는 각사의 경쟁력과 사업 경험을 결합해 이번 협약을 시작으로 AI 데이터센터 분야에서 경쟁력 강화와 시장확대를 위한 전략적 협력에 나선다. 먼저, AI 인프라 구축과 기업 테스트 환경 조성을 위해 협력한다. 리벨리온의 NPU 하드웨어 및 풀스택(Full-Stack) 소프트웨어 기술과 펭귄 솔루션스의 인프라 운영 역량을 결합해 기업 고객이 NPU 기반 AI 인프라 검증과 도입을 할 수 있도록 지원한다. 나아가 AI 데이터센터 최적화를 위해 3사 공동으로 기술협업에 속도를 내고, NPU와 GPU를 모두 지원할 수 있는 데이터센터향 운영 솔루션을 개발한다. 박성현 리벨리온 대표는 "'딥시크(DeepSeek)' 이후 효율적인 운영이 AI 시대의 핵심 키워드로 떠오른 만큼 AI 인프라의 에너지효율성과 경제성 역시 고객에게 중요 평가기준이 될 것”이라며 "이를 위해선 각 분야의 전문성을 지닌 기업이 모여 시너지를 내는 게 필수적이기에 이번 MOU가 효율적인 AI 데이터센터 생태계 구축의 중요한 첫 걸음이 될 것"이라고 밝혔다. 마크 시먼스 펭귄 솔루션스 글로벌 마케팅 부사장은 "우리가 HPC와 AI 클러스터 영역에서 축적해 온 전문성이 이번 협력을 통해 GPU뿐 아니라 NPU 인프라에서도 빛을 발할 것"이라며 "빠르게 성장하는 글로벌 AI 시장에서 최신 AI 인프라를 제공해 고객의 요구사항을 만족시킬 뿐 아니라 복잡한 문제들을 해결하고, 비즈니스 성과를 가속화할 수 있도록 최선을 다하겠다”고 말했다. 이외에도 리벨리온 박성현 대표는 MWC25 공식 행사의 일환으로 패널 세션에도 참가했다. 박 대표는 'Chips for the Future: Fueling Business Transformation with Computing Power(미래를 위한 반도체: 컴퓨팅 파워로 비즈니스 혁신을 가속하다)'라는 제목으로 진행된 세션에서 암페어(Ampere), 안시스(Ansys) 등 세계 유수 반도체 기업 패널들과 AI반도체의 미래에 대해 논의하는 등 글로벌 AI반도체 기업으로서 존재감을 드러냈다.

2025.03.05 09:57장경윤

SKT, 슈나이더와 AI데이터센터 글로벌 진출 맞손

SK텔레콤이 MWC 25에서 슈나이더일렉트릭과 AI데이터센터 기계, 전력, 수배전(MEB) 시스템 분야 협력을 위한 파트너십을 맺었다고 5일 밝혔다. AI 데이터센터 MEP시스템은 기계, 전력, 수배전으로, AI데이터센터 설계 및 구축 단계에서부터 이후 운영 과정에서 안정성과 효율성을 유지하는데 필수적인 역할을 한다. 슈나이더 일렉트릭은 마이크로소프트와 30년 간 글로벌 파트너십을 통한 협력을 지속해오고 있으며, 지난 해 엔비디아와 협력해 AI 데이터센터 인프라 최적화 및 디지털 트윈 기술 기반 마련을 위한 파트너십을 체결하고 데이터센터 레퍼런스 디자인을 선보였다. 또한, 지난해 기준 시가총액 211조원, 매출 58조원 규모로, 전세계 100여 개 국가에서 약 17만명의 임직원이 근무하는 글로벌 기업이다. 특히, 슈나이더일렉트릭이 보유한 데이터센터 전력 및 수배전 분야 기술력은 세계 최고 수준으로, 지난해 미국 타임지가 발표한 '2024 세계 최고의 지속가능 선도기업' 1위에 선정되기도 했다. 양사는 이번 파트너십을 통해 국내 지역 거점에 하이퍼 스케일급 AI 데이터센터 건설 및 구축 사업 협력을 논의할 예정으로 MEP 분야에서 부품 제품 솔루션과 컨설팅 등 전 사업 영역에서 협력할 예정이다. 향후, SK텔레콤은 슈나이더 일렉트릭과 장기적인 파트너십을 통해 AI데이터센터 관련 공동 솔루션을 개발하고, 이를 통해 글로벌 시장으로 AI 데이터센터 사업을 확장해 나갈 계획이다. 판카즈 샤르마 슈나이더일렉트릭 시큐어 파워 및 서비스 총괄 사장(EVP)은 “슈나이더 일렉트릭은 오랜 경험과 기술력을 바탕으로 데이터센터 전력 인프라, 냉각 시스템, 관리 솔루션 등 MEP 전반에 걸친 최적화된 솔루션을 제공하고 있다”며 “이번 협력을 통해 SK텔레콤의 AIDC 운영 역량과 결합하여 최고의 시너지를 창출할 것으로 기대한다”고 밝혔다. 유영상 SK텔레콤 CEO는 “세계 최고 수준의 AI 데이터센터 솔루션 사업자인 슈나이더 일렉트릭과의 협력을 통해 우리 회사의 AI DC 경쟁력 강화는 물론 글로벌 시장 진출에도 크게 기여할 수 있을 것으로 기대한다”고 말했다.

2025.03.05 08:16박수형

SKC, MWC25 첫 참가…반도체 '글라스기판' 실물 전시

SKC는 3~6일(현지 시간)까지 열리는 세계 최대 모바일 전시회인 'MWC25'에서 글라스기판을 선보인다고 3일 밝혔다. SKC는 SK텔레콤이 운영하는 전시관 내 AI DC (AI 데이터센터)구역에서 글라스기판을 실물 전시한다. '혁신적인 AI, 미래를 앞당기다'를 주제로 조성되는 이번 전시는 AI 데이터센터(이하 AI DC) 관련 주요 기술과 AI 기반 통신 인프라에 관한 연구 성과가 총망라됐다. 글라스기판은 AI DC구역에서 대규모 데이터를 처리하는 데 필요한 핵심 기술로 소개된다. 특히 SK하이닉스의 고대역폭 메모리인 HBM3E와 데이터센터용 고성능 SSD 스토리지와 함께 전시되며 AI 통합 솔루션을 제시할 예정이다. 글라스기판은 초미세회로 구현이 가능하고 MLCC 등 다양한 소자를 내부에 넣어 표면에 대용량 중앙처리장치(CPU)와 그래픽처리장치(GPU)를 얹을 수 있다. 글라스기판을 반도체 패키징에 적용하면 전력 소비와 패키지 두께는 절반 이상으로 줄어들고 데이터 처리 속도는 기존 대비 40% 빨라진다. SKC관계자는 “세계 최초 반도체 글라스기판 상업화 기업으로서 지난 CES2025에 이어 이번 MWC25에서도 기술 우수성을 전 세계에 선보일 것”이라며 “목표로 했던 연말 글라스기판 상업화를 통해 전 세계가 주목하는 AI 기술 고도화에 기여할 수 있길 기대한다”고 말했다.

2025.03.03 11:09장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

이재명 대통령 "AI 혁신에만 전념할 환경 만들겠다"

통신사가 직접 'AI 스마트폰' 만들어 판다

"긴 추석 미리 준비 하세요"…대형마트, 선물세트 사전예약 개시

국내 OTT, 해외서도 끊김 없이 보려면…여름휴가·연휴 안전한 시청법

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.