• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (584건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[인터뷰] "엔비디아 사로 잡은 비결, '델 AI 팩토리' 덕분"

"바이 델(Buy Dell·델 제품을 사세요), 바이 델, 바이 델!" 지난 달 18일. 미국 새너제이에서 열린 엔비디아 연례 개발자 회의 GTC 행사에 마련된 델 테크놀로지스 부스에선 '인공지능(AI) 대부'로 불리는 젠슨 황 엔비디아 최고경영자(CEO)가 목청을 높여 이처럼 외쳤다. 컴퓨터를 필요로 하는 이들이라면 누구나 알고 있는 '델'의 PC뿐 아니라 AI 인프라 경쟁력을 인정하며 엔비디아의 가장 최고 파트너라는 점을 치켜 세워준 것이다. AI 열풍이 한창이던 1년 전 엔비디아 GTC 행사에서도 황 CEO는 델 테크놀로지스를 공개 석상에서 언급하며 끈끈한 관계를 과시했다. 당시 황 CEO는 "정보기술(IT)과 관련해 무엇이든 필요한 것이 있다면 델에 전화하면 된다"고 밝혔다. 이는 델 테크놀로지스 주가에도 영향을 줘 지난해 5월 시가총액이 1천억 달러를 넘기도 했다. 이처럼 엔비디아의 두터운 신임을 받고 있는 델 테크놀로지스가 올해 AI 인프라를 전면 업그레이드하며 시장 강자의 면모를 다시 한 번 드러내고 있다. 엔비디아 기반 델 AI 팩토리의 최신 포트폴리오를 앞세워 최근 달궈지고 있는 글로벌 AI 인프라 시장에서 주도권 굳히기에 본격 나선 모습이다. 최근 지디넷코리아와 만난 양원석 델 테크놀로지스 인프라스트럭처 솔루션 사업부 전무는 "우리는 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(end-to-end) AI 솔루션 포트폴리오를 가지고 있다는 것이 강점"이라며 "서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 갖추고 있는 덕분에 글로벌뿐 아니라 한국에서도 서버 부문 1위 업체로 인정 받고 있다"고 운을 뗐다. 그러면서 "글로벌뿐 아니라 한국 스토리지 하드웨어(HW) 및 소프트웨어(SW) 부문 1위 업체로서의 저력을 갖고 있는 만큼, 데이터 및 데이터관리에 대해 전 세계에서 제일 잘 알고 있는 기업이라고 자부할 수 있다"며 "젠슨 황 CEO가 엔비디아 GTC 현장에서 '델'을 언급한 것도 이런 점을 인정한 것이라고 볼 수 있다"고 덧붙였다. 실제로 델 테크놀로지스는 글로벌 AI 인프라 시장에서 경쟁력을 입증 받아 독보적인 점유율을 유지하며 꾸준한 성장세를 보이고 있다. 특히 슈퍼마이크로, HPE 등과 경쟁하고 있는 AI 서버 시장에선 다양한 포트폴리오를 앞세워 압도적인 우위에 올라서 있다는 평가를 받고 있다. 7일 시장조사업체 IDC에 따르면 델 테크놀로지스는 지난해 3분기 전 세계 X86 서버 시장 판매대수 기준으로 11.4%의 점유율을 차지하며 1위를 유지했다. 매출 기준 점유율도 12.4%로 1위를 차지했다. 델 테크놀로지스와 경쟁하고 있는 슈퍼마이크로와 HPE, IEIT 시스템즈, 레노버는 그 뒤를 이었다. 이처럼 델 테크놀로지스가 시장 우위를 견고히 하고 있는 상황에서 전체 서버 시장의 성장세가 높다는 점은 호재로 작용하고 있다. 지난해 4분기 서버 시장 매출은 전년 동기 대비 91% 증가한 733억 달러를 기록, 2019년 이후 두 번째로 높은 성장률을 보였다. 특히 GPU가 내장된 서버 매출은 전년 동기보다 192.6%나 성장해 전체 서버 시장 매출의 절반 이상을 차지할 정도로 급성장한 모습을 보였다. 엔비디아는 전체 출하량의 90% 이상을 차지하며 서버 GPU 분야에서 독주를 이어갔다. 지난해 전체 서버 시장 규모는 2020년 이후 두 배 이상 성장한 2천357억 달러에 달했다. 엔비디아와 밀접한 관계를 맺고 있는 델 테크놀로지스도 지난해 호실적을 기록했다. 특히 AI 서버 출하액은 98억 달러로, 사업을 시작한 지 2년도 채 안되는 기간에 급속도로 성장한 모습을 보였다. AI 관련 기업 고객 역시 2천 곳 이상을 확보한 상태로, 올해 고객사 수가 더 늘어나 AI 매출이 50% 성장할 것으로 예상됐다. 올해 AI 서버 출하액은 약 150억 달러에 달할 것으로 전망했다. 양 전무는 "지난해 엔비디아 GTC에서 처음 선보인 '델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'를 통해 다양한 솔루션과 제품을 선보이며 엄청난 컴퓨팅 파워를 시장에 공급했다고 자부하고 있다"며 "해외뿐 아니라 국내에서도 AI 시장 수요가 점차 '엔터프라이즈 AI'로 이동하고 있는 만큼 올해도 수요는 더 많아질 것으로 보인다"고 설명했다. 이어 "지난해까진 클라우드 서비스 제공자(CSP), 특히 하이퍼스케일러 또는 코어위브 같은 NCP(NVIDIA Cloud Partner) 업체들이 주축이 돼 시장 성장을 주도했지만, 올해는 더 많은 대기업, 대학, 연구기관 등 다양한 분야에서 수요가 많을 듯 하다"며 "10대 미만~수십대 등 작은 규모에서부터 거대 규모에 이르기까지 서버 규모 면에서도 더 다양해질 듯 하다"고 덧붙였다. 양 전무는 최근 국내에서 sLM(small Language Model), 온프레미스에 AI 서버를 두고 API를 사용해 클라우드 업체가 제공하는 AI 서비스와 연결해 사용하는 활용 사례(Use Case)가 늘어나고 있다는 점도 주목했다. 또 엔비디아 'H100' 위주로 형성된 GPU 시장이 향후 블랙웰, 그레이스블랙웰, AMD, 인텔 등 다양한 실리콘으로 확대될 것으로 봤다. 하지만 국내 고객들이 생성형 AI를 도입, 활용할 때 걸림돌이 많아 아직 시장이 활성화 되지 못했다는 점에 대해선 아쉬워 했다. 양 전무는 "국내에선 생성형 AI 활용 시 거버넌스와 개인정보 보호, 법적 규제 등을 고려해야 해 적절한 데이터를 수집·준비하는 과정에 있어 많은 어려움이 있을 수 있다"며 "생성형 AI를 위한 인프라는 기존 데이터센터 인프라 기술과는 달라 이를 위해 내부 역량을 확보하거나, 외부 전문 인력 채용 등을 함께 추진해야 하는 데 쉽지 않은 것이 현실"이라고 분석했다. 이어 "이에 따라 AI와 관련해 데이터 준비, 전략 수립을 위한 컨설팅, 활용 사례 생성 및 구축 등에 있어 전문 서비스를 활용하는 것이 좀 더 안전하고 체계적일 수 있다"며 "비용 측면에서 고가의 GPU에 투자하거나 퍼블릭 클라우드 서비스 사용 시 높은 운영 비용을 감당하는 데 기업들이 부담을 느끼는 경우가 많다"고 덧붙였다. 이 같은 상황에서 양 전무는 델 테크놀로지스가 좋은 대안이 될 것이라고 강조했다. 또 엔터프라이즈 기업의 경우 생성형 AI를 위해 안정적이며 보안 측면에서 신뢰할 수 있고 관리하기 쉬운 데다 데이터와 가까운 곳에 위치한 고성능의 데이터센터 인프라를 구축해야 한다고 조언했다. 양 전무는 "자사 서버 제품들은 효율화 및 생산성 향상을 위한 라이프사이클 관리의 지능적 설계 및 제어가 가능하다"며 "클라우드 인프라의 대부분의 이점도 온프레미스에서 서비스 형태(As a Service)로 제공할 수 있다"고 설명했다. 그러면서 "'델 AI 솔루션'은 경쟁사들에 비해 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(End-to-end) AI 솔루션 포트폴리오를 갖추고 있는 데다 자사가 국내외서 스토리지 HW 및 SW 부문 1위 업체로서 데이터 및 데이터 관리에 대해 전 세계에서 가장 잘 알고 있다는 것이 강점"이라며 "코로케이션 및 호스팅 공급업체부터 AI 모델의 기반이 되는 반도체 공급업체에 이르기까지 포괄적인 파트너 생태계 스택을 제공하고 있다는 것도 매력적인 요소"라고 덧붙였다. 또 그는 "엔비디아, 마이크로소프트, 퀄컴, AMD, 허깅페이스, 인텔, 메타, 레드햇 등 광범위한 에코시스템을 통해 협력 관계를 탄탄히 구축하고 있는 것도 장점"이라며 "공장 팩토리 레벨에서 준비된 솔루션을 공급할 수 있도록 엔지니어링 단계에서부터 엔비디아와 협력하고 있다는 것도 우리만의 경쟁력"이라고 강조했다. 이 같은 시스템을 바탕으로 델은 국내 서버 시장에서도 1위 자리를 굳건히 지키고 있다. 특히 서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 인정 받아 삼성SDS와 NHN클라우드, 엘리스 등 많은 기업들이 델의 서버를 앞 다퉈 도입하고 있다. 해외에서도 마찬가지다. 델 테크놀로지스에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 삼고 있다. 이에 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있는데 델 테크놀로지스는 다양한 제품 및 시스템 덕에 기업들의 상당한 신뢰를 얻고 있는 것으로 나타났다. 양 전무는 "우리는 업계 최신 기술과 오픈·모듈러 아키텍처를 빠르고 적극적으로 수용해 고객들이 이미 투자한 자산을 보호할 수 있도록 지원하고 있다"며 "새로운 기술이 나왔을 때 기존의 장비·설비에서 손쉽게 업그레이드할 수 있도록 함으로써 기업들이 효율적으로 자사 제품을 활용할 수 있게 도울 것"이라고 밝혔다. 그러면서 "특히 곧 출시될 '델 파워엣지 XE8712' 서버는 고객들이 가장 기대해도 좋을 제품"이라며 "2개의 그레이스 CPU와 4개의 블랙웰 GPU를 통합한 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재해 데이터센터 내 AI 성능을 극대화 함으로써 현존하는 AI 서버 중 가장 빠른 속도로 이용할 수 있을 것"이라고 설명했다. 또 델 테크놀로지스가 AI 데이터 관리 측면에서도 상당한 기술 발전을 이끌어 낼 것이라고 자신했다. 특히 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계된 '델 AI 데이터 팩토리 위드 엔비디아'가 중추적 역할을 할 것으로 봤다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 더불어 델이 AI 소프트웨어 분야에서도 엔비디아와의 협력을 통해 기술 발전을 이끌어 냈다고 강조했다. 특히 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합함으로써 AI를 통해 기업들이 의사 결정을 쉽게 내릴 수 있도록 지원에 나선 점을 피력했다. 양 전무는 "그동안에는 마이크로소프트 등 하이퍼스케일러들이 수십만 장의 GPU를 구매해 파운데이션 모델을 만드는 것이 대세였다면, 작년 말부턴 AI를 어떻게 잘 활용할 수 있을지에 대해 고민을 하는 기업들이 더 많아진 듯 하다"며 "점차 일반 기업들이 실제 비즈니스 도움이 될 수 있도록 AI를 사용하는 사례가 많아지고 있는 만큼, AI 인프라에 대한 시장의 관심도 더 커질 듯 하다"고 말했다. 그러면서 "AI 기술 발전으로 서버 신제품 발표 주기도 2년에 한 번 정도에서 최근에는 엔비디아의 움직임에 맞춰 6개월에 한 번으로 짧아질 정도로 빨라진 상황"이라며 "이에 따른 전력 소비, 냉각 등과 관련된 시스템을 잘 갖춰나가기 위해 노력 중인 만큼 많은 기업들이 우리 제품을 선택할 것으로 기대하고 있다"고 덧붙였다. 또 그는 "특히 국내에선 정부에서 국가 AI 컴퓨팅 센터를 추진하고 있는 만큼 실제 구체적인 사업을 진행할 때 우리 제품을 외면하지는 않을 것으로 보인다"며 "엔비디아뿐 아니라 AMD, 인텔 등 다양한 기업들의 GPU를 제공하며 고객들의 선택지를 많이 넓힌 만큼 '델 AI 팩토리'를 통해 시장 변화에 맞춰 탄력적으로 대응함으로써 시장 주도권을 유지하기 위해 더 노력할 것"이라고 강조했다.

2025.04.07 16:48장유미 기자

최준용 SK하이닉스 부사장 "HBM4E 적기 공급…리더십 공고히할 것"

"올해 HBM4 12단 양산을 성공적으로 진행하는 것은 물론, 고객 요구에 맞춰 HBM4E도 적기에 공급함으로써 HBM 리더십을 더욱 공고히 하겠다. 시장을 선제적으로 준비하고 최적화된 사업 기획을 할 수 있도록 최선을 다하겠다." 최준용 SK하이닉스 부사장은 7일 SK하이닉스 공식 뉴스룸을 통해 진행한 인터뷰에서 HBM 사업 전략에 대해 이같이 밝혔다. 최 부사장은 1982년생으로, HBM사업기획을 총괄하는 최연소 임원으로 선임됐다. 모바일 D램 상품기획 팀장을 거치고, HBM사업기획을 담당하는 등 주로 HBM 사업의 성장을 이끌어온 핵심 인물 인물로 평가받는다. 최 부사장은 HBM사업기획 조직의 원동력으로 '자부심'을 꼽았다. 그는 강한 책임감과 자부심으로 HBM 사업의 성장을 견인해 온 구성원들에게 새로운 에너지를 불어넣어 조직의 더 큰 성장을 이끌겠다는 강한 의지를 밝혔다. 그는 "HBM사업기획 조직은 막대한 규모의 투자와 전략적 방향을 결정하는 핵심 조직으로, 기술 개발 로드맵 수립부터 전 세계 고객들과의 협력에 필요한 전략을 마련하는 등 중요한 역할을 하고 있다"며 "새롭게 선임된 리더로서 구성원들이 원 팀 마인드로 뭉쳐 함께 성장하고 최고의 성과를 창출할 수 있도록 돕는 것이 제 역할이라고 생각한다"고 말했다. AI 기술이 눈부시게 진보하면서 반도체에 대한 수요가 그 어느 때보다 많아지고 있다. HBM은 AI 메모리가 가장 필요로 하는 전력 효율성(Power)과 성능(Performance)에 가장 최적화된 제품으로 앞으로도 그 중요성은 더욱 커질 것으로 전망된다. 최 부사장은 이를 바탕으로 더 먼 미래를 내다보며, 회사가 HBM 시장에서 주도적인 위치를 이어갈 수 있도록 선봉에서 최선을 다하겠다고 밝혔다. 최 부사장은 "올해 HBM4 12단 양산을 성공적으로 진행하는 것은 물론 고객 요구에 맞춰 HBM4E도 적기에 공급함으로써 HBM 리더십을 더욱 공고히 하겠다"며 "시장을 선제적으로 준비하고 최적화된 사업 기획을 할 수 있도록 최선을 다하겠다"고 강조했다. 최 부사장은 끝으로 젊은(MZ) 구성원들을 'Motivated & Zealous(동기부여가 만드는 열정적인 인재들)'로 설명하며, 그들이 새로운 기회와 목표에 맞서 성장할 수 있도록 동기를 부여하는 리더가 되겠다고 강조했다. 이어서 그는 구성원들에게 한 가지를 약속했다. 최 부사장은 “저는 제 자신을 스스로 새장에 가두지 않는 소통의 리더가 되고자 한다. 다양한 관점이 담긴 구성원들의 아이디어를 경청하며, 함께 최적의 방향을 만들어 나가겠다"며 "구성원들이 부담 없이 많은 이야기를 들려주실 수 있도록 제 자리를 언제든 열어 놓겠다"고 말했다.

2025.04.07 15:10장경윤 기자

SK하이닉스 "차세대 HBM 성패, 세 가지 과제가 중요"

SK하이닉스가 차세대 HBM(고대역폭메모리) 상용화를 위해 다방면의 기술 고도화가 필요하다고 강조했다. 특히 전력 효율성의 경우, 주요 파운드리 기업과의 협력이 보다 긴밀해질 것으로 관측된다. 이규제 SK하이닉스 부사장은 2일 인천 송도 컨벤시아에서 열린 'KMEPS 2025년 정기학술대회'에서 HBM의 개발 방향에 대해 발표했다. 이 부사장은 이날 SK하이닉스의 차세대 HBM 개발을 위한 과제로 ▲대역폭(Bandwith) ▲전력소모(Power) ▲용량(Capacity) 세 가지를 강조했다. 대역폭은 데이터를 얼마나 빨리 전송할 수 있는지 나타내는 척도다. 대역폭이 높을수록 성능이 좋다. 대역폭을 늘리기 위해선 일반적으로 I/O(입출력단자) 수를 증대시켜야 한다. 실제로 HBM4(6세대)의 경우, HBM3E(5세대) 대비 I/O 수가 2배 늘어난 2천48개가 된다. 이 부사장은 "고객사들은 SK하이닉스가 만들 수 있는 것보다 높은 대역폭을 원하고 있고, 일각에서는 I/O수를 4천개까지 얘기하기도 한다"며 "그러나 I/O 수를 무작정 늘린다고 좋은 건 아니기 때문에, 기존 더미 범프를 실제 작동하는 범프로 바꾸는 등의 작업이 필요할 것"이라고 설명했다. 결과적으로 차세대 HBM은 전력소모와 용량 면에서 진보를 이뤄야 할 것으로 관측된다. 특히 전력소모의 경우, 로직 공정과의 연관성이 깊다. HBM은 D램을 적층한 코어다이의 컨트롤러 기능을 담당하는 로직다이가 탑재된다. 기존에는 이를 SK하이닉스가 자체 생산했으나, HBM4부터는 이를 파운드리에서 생산해야 한다. 이 부사장은 "HBM의 로직 공정은 주요 파운드리 협력사와의 협업이 굉장히 중요한데, 이런 부분에서 긴밀한 설계적인 협업이 있다"며 "SK하이닉스도 패키지 관점에서 여러 아이디어를 내고 있다"고 설명했다. HBM의 용량은 D램의 적층 수와 직결된다. 현재 상용화된 HBM은 D램을 최대 12개 적층하나, 향후에는 16단, 20단 등으로 확대될 예정이다. 다만 차세대 HBM을 제한된 규격(높이 775마이크로미터) 내에서 더 많이 쌓기 위해서는 각 D램의 간격을 줄여야 하는 난점이 있다. 예를 들어, HBM이 12단에서 16단으로 줄어들게 되면 각 D램간의 간격은 절반으로 감소된다. 때문에 SK하이닉스는 기존 어드밴스드 MR-MUF와 더불어 하이브리드 본딩 기술을 고도화하고 있다. 하이브리드 본딩은 범프를 쓰지 않고 각 D램을 직접 연결하는 방식으로, 칩 두께를 줄이고 전력 효율성을 높이는 데 유리하다. 다만 하이브리드 본딩도 현재로선 상용화에 무리가 있다. 기술적 난이도가 높아, 양산성 및 신뢰성을 충분히 확보해야 한다는 문제가 남아있기 때문이다. 이 부사장은 "차세대 HBM 개발과 관련해 위와 같은 세가지 요소가 굉장히 복잡하게 얽혀있는 상황"이라며 "이외에도 차세대 HBM 시장에서는 메모리 기업들이 제조원가를 어떻게 줄이느냐가 가장 중요한 과제가 될 것으로 생각한다"고 설명했다.

2025.04.02 17:30장경윤 기자

'AI 칩' 리벨리온, 日 법인 설립…亞 AI 데이터센터 공략

AI 반도체 기업 리벨리온은 일본 도쿄에 첫 해외 법인 설립을 완료하고 일본 데이터센터 시장 공략에 속도를 낸다고 31일 밝혔다. 이번 법인 설립으로 리벨리온은 현지 기업과 소통을 강화하고 보다 긴밀한 기술 지원을 제공하는 한편, 신규 고객 발굴에도 적극 나설 계획이다. 일본 사업은 베인앤드컴퍼니를 거쳐 무신사의 초기 일본 사업을 담당했던 동경대 출신 김혜진 전략 리드가 이끌며, 이와 함께 일본 내 사업을 함께 이끌 전문성을 갖춘 법인장 선임도 추진 중이다. 기술 전담 인력 역시 함께 채용해 현지 사업의 추진력을 높이고 고객 대응 역량을 끌어올릴 계획이다. 리벨리온은 일본 클라우드 서비스 제공 사업자(CSP, Cloud Service Provider), 통신사 등과 진행 중인 AI반도체 도입 PoC(Proof of Concept, 개념검증) 등 사업협력에도 속도를 내고 일본 내 입지를 확대해나간다는 방침이다. 일본 AI 인프라 시장의 성장을 일찍부터 눈여겨본 리벨리온은 일본의 벤처캐피털(VC) DG 다이와 벤처스(DGDV)로부터 투자를 유치했다. 이를 바탕으로 현지 네트워크를 확장하고 잠재 고객을 확보하는 등 일본 시장에서 존재감을 키워왔으며, 지난해에는 일본에서 첫 매출 확보라는 성과를 거두기도 했다. 특히 리벨리온은 일본 AI 데이터센터 산업의 규모가 가파르게 성장함에 따라 AI반도체에 대한 수요 역시 증가할 것으로 내다봤다. 실제로 최근 오픈AI, 마이크로소프트 등 글로벌 빅테크 기업들이 일본 AI 인프라에 대한 투자를 확대하고 있으며, 일본 정부 또한 AI 슈퍼컴퓨팅 관련 보조금 지원 정책을 추진하며 산업 경쟁력 강화에 나서고 있다. 일본 시장의 전략적 중요성이 커지는 만큼, 아시아를 대표하는 AI반도체 유니콘으로서 검증된 기술력을 바탕으로 일본 시장을 선점한다는 계획이다. 박성현 리벨리온 대표는 “일본 AI 데이터센터 시장은 빠르게 커지고 있다. 하지만, 일본 내에서 AI 반도체를 직접 개발하고, 이를 실제 데이터센터에서 운영할 수 있도록 PoC를 수행할 수 있는 기업은 손에 꼽힌다”며 “리벨리온은 이미 현지 기업들과 사업 협력을 진행하며 기술 협력을 상당 부분 진척시킨 만큼, 이제 법인 설립으로 현지 시장에 깊숙이 들어가 본격적으로 사업을 확장할 계획"이라고 밝혔다. 그는 이어 "일본을 시작으로 사우디 법인 설립도 연내 완료하며 글로벌 AI인프라 시장에서 리벨리온의 존재감을 확실히 보여줄 것”이라고 덧붙였다.

2025.03.31 09:16장경윤 기자

MS發 AI 인프라 시장 '찬물'…엔비디아가 찍은 코어위브, IPO 후 '속앓이'

올해 미국 기업공개(IPO) '최대어'로 꼽혔던 클라우드 컴퓨팅 제공업체 코어위브(CoreWeave)가 최대 고객인 마이크로소프트(MS)의 움직임에 직격탄을 맞은 모습이다. 엔비디아가 투자하는 곳으로 알려지며 시장의 기대감을 한 몸에 받았지만, MS가 최근 과잉공급을 이유로 대형 데이터센터 프로젝트를 중단했다는 소식이 알려져 상장 흥행에 실패한 탓이다. 30일 로이터통신 등 주요 외신에 따르면 코어위브는 지난 28일부터 나스닥에서 거래를 시작했으나, IPO 공모가인 40달러보다 낮은 39달러에 거래가 시작됐다. 큰 변동성을 보이며 한 때 약 37달러까지 떨어지기도 했지만 장 마감 때는 다시 40달러를 유지했다. 정규시장 마감후 거래가 이뤄지는 애프터마켓에선 40.09달러에 마감됐다. 이에 따른 코어위브의 시가총액은 189억 달러로, 기존 평가됐던 기업가치(350억 달러, 약 51조원)에는 한참 못미친다. 지난해 5월 초 11억 달러 규모의 투자금을 유치할 당시 평가 받았던 기업가치(190억 달러) 수준에 머물고 있는 상태다. 코어위브는 엔비디아의 AI 칩을 이용해 대규모 데이터센터를 운영하며 AI 관련 컴퓨팅을 제공하는 업체로, 지난해 말 기준 32개 데이터센터를 운영 중이다. 25만 개 이상의 엔비디아 그래픽처리장치(GPU)를 보유하고 있는 데다 엔비디아가 이곳의 지분 약 6%를 보유했다는 점에서 시장의 높은 관심을 받았다. 또 엔비디아가 최근 추가로 이곳의 주식을 주당 40달러에 2억5천만 달러(약 3천661억원)가량을 매입했다는 소식이 알려져 상장 흥행에 대한 기대감도 키웠다. 특히 최근 챗GPT 개발사 오픈AI와 100억 달러가 넘는 규모의 클라우드 컴퓨팅 서비스 계약도 체결해 주목 받았다. 이곳의 지난해 매출은 전년 대비 약 8배 증가한 19억2천만 달러를 기록했으나, 순손실도 2023년 5억9천370만 달러에서 지난해 8억6천340만 달러로 늘어 다소 아쉬움을 남겼다. 이 같은 상황에도 AI를 활용하는 기업과 산업이 점차 많아지면서 막대한 데이터 처리 능력을 갖춘 AI 인프라 시장이 각광 받게 되자 코어위브에 대한 기대감도 한층 높아졌다. 미국 도널드 트럼프 대통령이 '스타게이트 프로젝트'를 통해 AI 인프라 구축에 5천억 달러(약 720조원)를 투자한다는 소식이 알려지며 시장도 더욱 활성화되는 듯 했다. 그러나 최근 MS의 데이터센터 투자 축소 방침이 코어 위브 상장에 독이 됐다. MS가 미국, 유럽에서 잇따라 대규모 데이터센터 임차 계약을 취소한 소식이 알려진 탓이다. MS는 AI를 구동하는 컴퓨팅 클러스터의 공급 과잉 문제를 이유로 이 같은 결정을 내린 것으로 전해졌다. 이에 코어위브는 당초 주당 47~55달러에 4천900만 주를 공모하려 했으나 예상보다 부진한 시장 반응 탓에 공모 규모를 3천750주로 축소했다. 공모가도 주당 40달러로 내렸다. 이에 따른 조달 자금은 당초 목표했던 27억 달러에 한참 못미치는 15억 달러에 불과했다. 코어위브가 일부 기업들에 대한 매출 의존도가 높다는 점도 다소 걸림돌로 작용했다. 이곳의 지난해 매출의 4분의 3은 엔비디아와 MS로부터 발생했는데, MS가 3분의 2를 차지한 것으로 나타났다. 전문가들은 코어위브가 소수 고객에 대한 의존도가 높은 데다 회사의 부채와 지출이 높은 수준이라는 점에서 성장성에 의문을 표하고 있다. MS가 '애저'로 클라우드 시장에서 경쟁사라는 점도 위험 요소다. 월스트리트저널(WSJ)은 코어위브 IPO에 대한 시장의 미온적인 반응에 대해 "AI 기업에 대한 투자자들의 열정이 식고 있다"며 "미국에서 IPO 시장이 냉각된 상태임을 보여주는 신호"라고 분석했다.

2025.03.30 15:11장유미 기자

日 소프트뱅크, 오픈AI '400억 달러' 펀딩 마무리 단계…자금 상태 '우려'

일본 소프트뱅크가 '스타게이트' 프로젝트를 함께 추진 중인 오픈AI에게 역대 최대 규모의 자금 지원에 나선다. 최근 재무 상황에 대한 우려 속에서도 오픈AI에 대한 투자를 강행하며 인공지능(AI) 시장에서 주도권 잡기에 나선 모양새다. 28일 블룸버그통신에 따르면 소프트뱅크는 400억 달러(약 58조원) 펀딩 라운드에 마그네타 캐피털, 코투 매니지먼트, 파운더스 펀드, 알터미터 캐피털 매니지먼트 등을 포함한 투자자들과 참여 방안에 대해 협상 중인 것으로 알려졌다. 이번 펀딩은 최종 마무리 단계로, 일리노이주에 본사를 둔 헤지펀드 마그네타 캐피털의 투자 금액이 최대 10억 달러(약 1조5천억원)에 달할 것으로 예상돼 눈길을 끈다. 시장조사업체 피치북에 따르면 오픈AI의 이번 펀딩 규모는 역대 최대가 될 것으로 관측됐다. 오픈AI의 기업가치는 이번 펀딩에서 모은 자금을 포함해 현재 3천억 달러(약 439조원)로 평가되고 있다. 이는 지난 해 10월 펀딩 때 평가된 1천570억 달러(약 230조원)의 거의 두 배로, 한국 시가총액 1위 기업인 삼성전자(약 365조원)보다 훨씬 높다. 이번 펀딩에서 소프트뱅크는 투자자 신디케이트로부터 25억 달러와 함께 초기에 75억 달러를 투자할 것으로 알려졌다. 이어 연말에는 소프트뱅크가 225억 달러, 신디케이트를 통해 75억 달러를 더 투자해 총 300억 달러의 추가 투자를 진행할 것으로 전해졌다. 앞서 소프트뱅크그룹은 지난 1월 오픈AI에 15억 달러를 추가 출자한 것으로도 알려진 바 있다. 이에 따른 오픈AI 출자액은 당시 총 20억 달러인 것으로 집계됐다. 또 소프트뱅크그룹은 오픈AI와 다양한 사업을 두고 협업에 적극 나서고 있다. 일본에선 합작사를 만들어 기업용 생성형 AI를 개발해 판매할 계획이며 미국에선 소프트웨어 기업 오라클과 함께 최소 5천억 달러를 투자해 새로운 AI 기업인 '스타게이트'를 설립할 계획이다. 소프트뱅크는 이번 투자 움직임과 관련해 뚜렷한 입장을 밝히지 않았다. 그러나 소식이 전해진 후 도쿄 증시에서 소프트뱅크 주가는 4.7% 하락세를 보였다. 블룸버그통신은 "소프트뱅크의 신용부도스와프(CDS)도 확대된 상황"이라며 "이는 부분적으로 이러한 대규모 지출이 기업의 재무 상태에 미칠 영향에 대한 우려 때문"이라고 분석했다.

2025.03.28 10:06장유미 기자

에퀴닉스, 韓 데이터센터 추가 건설…"폭증한 AI 수요 대응"

에퀴닉스가 국내 인공지능(AI) 수요 확산에 대응하기 위해 네 번째 데이터센터를 짓는다. 이를 통해 수도권 기반 디지털 인프라를 구축할 방침이다. 27일 에퀴닉스는 이같은 데이터센터 건설 계획을 밝혔다. 국내 대규모 클라우드와 AI 워크로드를 처리할 수 있는 고밀도 인프라 구축을 목표로 뒀다. 현재 에퀴닉스는 서울에 데이터센터 3곳을 운영하고 있다. 2019년 3분기 서울 상암동 디지털미디어시티에 첫 데이터센터 'SL1'을 개소했으며 2023년 고양시 덕양구에 두 번째 데이터센터 'SL4'를 열었다. 세 번째 데이터센터 'SL2x' 역시 고양시에 지난해 건립됐다. 에퀴닉스는 데이터센터를 다크 파이버로 직접 연결해 서울 매트로 내 상호 연결된 디지털 캠퍼스를 구축했다. 네 번째 데이터센터도 수도권에 위치할 가능성이 높다. 데이터센터 간 연계 운용을 통해 네트워크 확장성과 운영 효율을 높일 수 있을 것으로 기대되고 있다. 에퀴닉스는 2020년부터 재생에너지를 전력으로 활용하고 있다. 태양광 패널을 비롯한 LED 조명, 냉각 효율화 등 친환경 기술을 통해 센터를 운영하고 있다. 2030년까지 100% 재생에너지로 전환하는 것이 목표다. 국내 데이터센터에선 이를 이미 달성했다. 에퀴닉스코리아는 "AI와 클라우드 수요가 폭증한 가운데 기업들은 빠르고 안전하며 지속가능한 인프라를 요구하고 있다"며 "데이터센터 투자를 통해 이에 적극 대응할 것"이라고 밝혔다.

2025.03.27 16:11김미정 기자

"AI 연산 획기적 향상"…슈퍼마이크로, 엔비디아 블랙웰 울트라 플랫폼 기반 솔루션 공개

슈퍼마이크로가 인공지능(AI) 연산 성능을 향상할 수 있는 차세대 AI 솔루션을 선보인다. 슈퍼마이크로는 엔비디아 블랙웰 울트라 플랫폼을 탑재한 새로운 서버·랙제품군을 공개했다고 27일 밝혔다. 슈퍼마이크로의 새로운 AI 제품군은 엔비디아 'HGX B300 NVL16'와 'GB300 NVL72' 플랫폼을 탑재해 AI 추론, 에이전틱 AI, 비디오 추론 등 고성능 연산 AI 워크로드에서 높은 성능을 제공한다. 엔비디아 블랙웰 울트라 플랫폼은 GPU 메모리 용량과 네트워크 대역폭 제약으로 발생하는 병목현상을 해소하고 대규모 클러스터 환경에서 요구되는 AI 워크로드를 안정적으로 처리할 수 있도록 설계됐다. GPU당 288GB의 HBM3e 고대역폭 메모리가 탑재돼 초대규모 AI 모델의 학습·추론에서 향상된 AI 플롭스(FLOPS)를 구현한다. 또 네트워킹 플랫폼에 엔비디아 퀀텀-X800 인피니밴드와 스펙트럼-X 이더넷을 통합해 최대 800Gb/s의 컴퓨팅 패브릭 대역폭을 제공한다. 슈퍼마이크로와 엔비디아는 이번 공개한 차세대 AI 솔루션을 통해 AI 분야에서의 리더십을 더욱 공고히 한다는 목표다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "자사의 데이터센터 빌딩 블록 솔루션을 활용해 엔비디아 HGX B300 NVL16 GB300 NVL72의 열 관리 및 내부 토폴로지(topology)에 최적화된 새로운 공냉식·수냉식 냉각 시스템을 구현했다"며 "이 시스템은 수자원을 절약하면서 전력 소비도 최대 40%까지 줄여 엔터프라이즈 데이터센터의 환경적·운영적 측면에서 상당한 이점을 제공한다"고 설명했다. 이어 "자사는 엔비디아와 오랜 파트너십을 지속하며 엔비디아 블랙웰 울트라 플랫폼을 기반으로 한 최신 AI 기술을공개하게 돼 기쁘다"고 덧붙였다.

2025.03.27 12:05한정호

오픈AI와 틈 벌린 MS, 인프라 투자 너무 무리했나…美·유럽서 데이터센터 임대 또 취소

최근 인프라 투자에 열을 올리던 마이크로소프트(MS)가 돌연 미국과 유럽에서 추진하던 신규 데이터센터 프로젝트를 취소한 것으로 알려져 그 배경에 관심이 집중된다. 27일 블룸버그통신에 따르면 미국 투자은행 TD 코헨은 MS가 미국, 유럽에서 약 2기가와트(GW) 용량에 해당하는 새로운 데이터 프로젝트를 중단했다고 주장했다. 2기가와트는 150만∼200만 가구가 사용하는 전력량과 맞먹는 수준으로, AI를 구동하는 컴퓨팅 클러스터의 공급 과잉 문제가 이번 일의 주 요인인 것으로 분석됐다. TD 코헨은 지난 달 보고서에서 MS가 최소 두 곳의 민간 운영업체와 체결했던 데이터센터 임차 계약을 취소했다고 밝힌 바 있다. 다만 이번에 중단한 프로젝트는 지난 달 취소한 임차 계약과는 별개인 것으로 파악됐다. TD 코헨은 챗GPT 개발사인 오픈AI와의 일부 신규 사업이 무산된 점도 이번 결정에 영향을 미친 것으로 해석했다. MS는 오픈AI에 130억 달러를 투자하는 등 파트너십을 맺고 AI 모델을 위한 클라우드 인프라를 제공해 왔다. 그러나 두 회사는 올 초 MS가 원하지 않을 경우 오픈AI가 다른 컴퓨팅 서비스를 이용할 수 있도록 계약을 조정했다. 이의 일환으로 오픈AI는 최근 코어위브와도 120억 달러(약 17조4천972억원) 규모 클라우드 컴퓨팅 서비스 계약을 체결하기도 했다. 일각에선 오픈AI가 자체 데이터센터 구축도 검토 중인 것으로 파악했다. IT 전문 매체 디인포메이션에 따르면 오픈AI는 최근 수십억 달러 규모 데이터 스토리지 하드웨어 및 소프트웨어 구입을 자체 데이터센터 구축을 위해 고려 중인 것으로 알려졌다. 오픈AI는 현재 자체 데이터센터를 운영하고 있지 않다. 또 TD코웬은 MS가 지난 6개월 동안 데이터센터 임대 계약을 취소하거나 연기하는 등 사업을 조정했다고 주장했다. 이에 따라 MS가 유럽에서 포기한 일부 임대 계약은 구글과 메타플랫폼이 인수한 것으로 알려졌다. TD코웬은 지난 달 보고서에서도 MS가 미국에서 최소 2곳의 사설 데이터센터 운영자와 임차 계약을 취소했다고 밝힌 바 있다. 이에 대해 MS가 데이터센터 확장을 중단할 것이라는 우려가 제기됐다. 앞서 MS는 6월 말 마무리되는 2025년 회계연도에 800억 달러 이상의 자본 지출을 투입할 것이라고 밝히며 계획이 예정대로 진행 중이라고 밝힌 바 있다. 다만 경영진은 다음 회계연도부터 성장 속도가 둔화될 것으로 예상했다. MS 대변인은 "지금까지 진행해온 대규모 투자 덕분에 현재와 증가하는 고객 수요를 충족할 수 있는 탄탄한 입지를 갖추고 있다"며 "일부 지역에서 인프라 전략을 조정하거나 속도를 조절할 수는 있지만 모든 지역에서 지속적으로 강력한 성장을 이어갈 것"이라고 강조했다. 그러면서 "이는 우리가 미래 성장 분야에 투자하고 자원을 효율적으로 배분하는 데 도움이 될 것"이라고 덧붙였다.

2025.03.27 10:55장유미 기자

[영상] 최형두 의원 "2025 추경, AI 예산 2조 반영 추진"

"인공지능(AI) 인프라 예산 확보는 국가 경쟁력의 문제다. 여야 모두 공감하고 있는 만큼 2025년 1차 추경에서 반드시 2조 원 규모로 반영될 수 있도록 기획재정부와 조율 중이다." 국민의힘 최형두 의원은 26일 국회 의원회관 간담회장에서 열린 '2차 AI G3 강국 신기술 전략 조찬 포럼'에서 이와 같이 말하며 AI인프라 경쟁력 확보를 위해 예산을 확대할 것임을 강조했다. 대한민국의 혁신 및 산업 발전을 위한 산·학·연 전문가 중심의 정책 및 실행방안을 논의하기 위해 마련된 이번 포럼에는 국회와 정부, 학계, 산업계를 대표하는 전문가 20여 명이 참석했다. 과학기술정보통신부 송상훈 실장을 비롯해 서울대, 성균관대, 카이스트 등 주요 대학의 학계 인사들과 네이버, LG AI연구원, SK하이닉스, 현대차, SKT, 두산로보틱스, 퓨리오사AI, 리벨리온, 페르소나AI 등 국내 대표 AI·ICT 기업 관계자들이 자리를 함께 했다. 우선 삼성글로벌리서치 허준 상무가 발제자로 나서 '최근 AI 동향과 AI 부상에 따른 데이터센터의 변곡점'을 주제로 발표했다. 그는 "AI는 지금 '모델 골드러시' 시대에 있다”며 최근 몇 개월 사이 쏟아지는 초거대 AI 모델 개발과 추론형 AI의 급부상, 경량형·오픈소스 AI의 흐름을 조망했다. 특히 생성형 AI에서 에이전트 AI, 피지컬 AI로 이어지는 기술 진화 흐름을 짚으며, AI의 진화는 결국 인프라 수요의 폭발적 증가로 이어질 수밖에 없다고 강조했다. 허 상무는 AI를 구성하는 세 가지 요소인 모델, 데이터, 컴퓨팅 인프라 가운데 지금은 인프라가 전략의 핵심이 되고 있다고 강조했다. 이어 과거 초고속 인터넷 인프라를 바탕으로 인터넷 강국이 된 것처럼 AI 인프라 선점 없이는 AI 강국 도약도 어렵다고 말했다. 특히 "AI로 수익을 내는 기업은 대부분 인프라 기업"이라며 "반도체, 전력장비, 냉각기술 분야가 AI의 진짜 수익 원천”이라며, 정부와 국회가 데이터센터 기반 인프라 육성에 보다 적극적으로 나서야 한다"고 강조했다. SKT 이영탁 부사장도 현재 AI 생태계에서 핵심적인 요소가 AI 인프라라는 의견에 동의를 표하며 기업의 투자를 유도하기 위해선 수익성이 있는 인프라 중심의 전략이 필요하다고 강조했다. 이 부사장은 미국의 스타게이트처럼 정부·기업·연구소가 협력하는 한국형 AI 인프라 전략이 필요하다며 국가 AI 컴퓨팅 센터 같은 거점이 실질적인 인프라 구축으로 이어져야 한다고 말했다. 더불어 최근 해외 빅테크의 AI 투자가 일본으로 집중되는 이유로 정부의 공격적인 인센티브 지원를 들었다. 그는 "일본은 해외 기업이 데이터센터를 지을 경우 건설비의 50%까지 지원한다"며 "우리나라도 예산 규모는 작더라도 이와 유사한 적극적인 국회·정부의 재정 지원이 필요하다"고 강조했다. 과기정통부 송상훈 실장는 AI인프라가 국가 간·기업 간 경쟁의 핵심 인프라라는 것에 공감하지만 추가적인 예산 확보가 절실한 상황이라고 밝혔다. 송 실장은 현재 기재부 예산실과 구체적인 협의가 늦어지고 있지만 "플랜 A는 물론 B, C까지 마련해 대비 중”이라고 설명했다. 이에 최형두 의원은 "여야 모두 AI 인프라 예산의 필요성에 공감하고 있다"며 "산불·재해 등으로 인한 2025년 1차 추경 논의가 앞당겨지고 있는 만큼, AI 인프라 예산을 확실히 반영하도록 기획재정부와 조율해 나가겠다"고 밝혔다. 김영호 서울대 공과대학 학장도 GPU와 전기료가 인재 양성의 최대 장애물이라며 AI교육 현장의 현실을 전했다. 김 학장은 "대규모언어모델(LLM)을 직접 돌려보는 경험 유무에 따라 졸업 후 역량이 천차만별"이라며 "정부가 연구자들에게 전기료 완화 조치 등을 제공할 필요가 있다"고 말했다 네이버클라우드의 하정우 AI이노베이션센터장은 해외 사례를 언급하며, 학습용 하이퍼스케일 데이터센터와 산업단지형 추론 인프라를 분리하는 전략을 제시했다. 그는 "사우디아라비아도 AI 모델을 서비스하면서 추론 인프라의 중요성을 인식했다"며 "우리도 국내 AI 반도체를 활용한 인퍼런스 센터 실증 프로젝트를 산업단지에서 시작해야 한다"고 강조했다. 또한 프랑스가 167조 원 규모의 AI 투자 중 70억 유로를 해외에서 유치한 사례를 들며 해외 투자 유치로 AI 인프라를 스케일업할 전략을 세워야 한다고 의견을 피력했다. 더불어민주당 정동영 의원과 국민의힘 최형두 의원, 정보통신산업진흥원이 공동 주최·주관하는 AI G3 강국 신기술 전략 조찬 포럼은 매월 주요 인사와 산업계를 초청해 시리즈 형태로 개최 중이다. 다음 달부터는 중소기업과 스타트업, 대표기업 중심의 현장 목소리를 반영한 논의가 이어지며 12월에는 연간 종합토론이 국회에서 진행될 계획이다.

2025.03.26 11:24남혁우 기자

"탄소도 줄이고 전기도 아끼고"…KT클라우드, 데이터센터에 AI 결합

KT클라우드가 데이터센터(DC) 운영을 인공지능(AI) 기술로 최적화하는 실증 작업에 나선다. 급증하는 데이터 트래픽을 효율적으로 처리하면서 에너지도 절약하는 차세대 친환경 데이터센터로의 전환을 위한 초석이다. KT클라우드는 오는 11월 서울 목동 DC 2센터 내에 AI DC 실증센터를 개관할 예정이라고 25일 밝혔다. 이번 실증센터는 데이터 트래픽 증가에 대응하기 위한 운영 최적화 기술 검증을 주목적으로 한다. AI를 통해 전력 소비, 냉각, 네트워크 등 데이터센터 핵심 운영 요소의 효율을 실험하고 협력사와의 공동 기술 개발도 추진한다. 기업 고객과 공공기관 관계자를 대상으로 한 투어 프로그램도 병행할 계획이다. KT클라우드는 AI 자동 운영 외에도 수냉식 냉각, 신재생에너지 적용 등 탄소 배출 저감을 위한 친환경 기술을 테스트할 계획이다. 이를 통해 지속 가능한 데이터센터 운영 체계를 단계적으로 구현한다는 목표다. 센터 개관 이후에는 독립형 실증 공간 마련을 추진하고 오는 2028년까지 자율운영 기반의 에너지 자립형 데이터센터 구축에 나선다. 이미 KT클라우드는 DC본부 내 기술 전문 조직인 'DC 랩스'를 중심으로 디지털트윈, AI 운용 등 핵심 기술을 발굴하고 있다. 내부 역량을 강화함과 동시에 파트너사와 공동 개발 및 성과 공유를 통한 생태계 조성도 병행한다. 허영만 KT클라우드 DC본부장은 "이번 AI DC 실증센터 구축을 통해 앞선 기술력을 발빠르게 현장에 적용하고 파트너사와 긴밀한 협력 관계를 기반으로 동반 성장하며 DC 생태계 전반을 견고히 다지겠다"며 "향후에도 선진 데이터센터 운영 기술과 차별화된 서비스로 시장을 선도하겠다"고 밝혔다.

2025.03.25 10:36조이환 기자

이재용과 친한 인도 기업, 오픈AI·메타 '러브콜' 받았다…무슨 일?

'챗GPT' 개발사 오픈AI와 '페이스북' 모회사 메타플랫폼이 인도 인공지능(AI) 시장을 노리고 릴라이언스 그룹과 협력에 나선다. 24일 더인포메이션, 블룸버그통신 등 주요 외신에 따르면 오픈AI는 릴라이언스 지오와 인도에서 '챗GPT'를 배포하고 20달러인 구독료를 현지에서 인하하는 방안을 검토 중이다. 구독료가 인도 평균 월급보다 높은 수준이어서 '챗GPT' 사용자를 더 늘리는 데 한계가 있어서다. 현재 인도에선 '챗GPT'의 대안이 딱히 없는 상태지만, AI 시장은 빠르게 성장하고 있는 상태다. 실제 블루위브 컨설팅에 따르면 지난 2022년 인도 AI 시장 규모는 약 6억7천211만 달러에서 2029년까지 약 39억6천651만 달러로 성장할 것으로 전망됐다. 다만 현지 기업을 중심으로 한 B2C(기업 소비자간 거래) 시장은 아직 제대로 형성되지 않았다. 현재 인도 AI 시장에선 '챗GPT'가 많이 사용되고 있으나 인구 대비 AI 챗봇을 사용하는 비중은 아직 낮다. 그러나 전 세계 '챗GPT' 사용자 수로는 미국에 이어 2위로, 오픈AI에겐 중요한 시장으로 평가 된다. B2B(기업간 거래) AI 시장에선 크루트림, 사르밤 등 현지 기업들이 경쟁하고 있는 중으로, 크루트림의 경우 최근 20억 루피(약 2천400억원) 규모의 AI 연구소를 설립해 기업용 AI 솔루션 개발에 집중하고 있다. 업계 관계자는 "인도는 자체 파운데이션 모델 개발을 본격화하고 있는 상태로, 향후 B2C 서비스로 이어질 가능성이 높다"며 "오픈AI의 인도 진출은 B2B뿐 아니라 B2C 시장까지 확장하려는 움직임으로 보인다"고 말했다. 업계에선 오픈AI가 릴라이언스 그룹과 손을 잡았다는 점을 주목하고 있다. 릴라이언스는 인도에서 석유화학·에너지·통신·유통 등 사업을 벌이고 있는 재벌 그룹이다. 특히 릴라이언스 지오는 인도 이동통신 시장 점유율 40%가량을 차지하고 있으며 삼성전자 LTE 장비를 택해 점유율을 빠르게 끌어올렸다는 점에서 우리나라와도 친숙한 기업이다. 이재용 삼성전자 회장은 무케시 암바니 릴라이언스그룹 회장 자녀 결혼식에 참석할 정도로 각별한 관계를 유지하고 있다. 릴라이언스는 오픈AI의 AI 모델을 자사의 기업 고객에게 판매하는 동시에 오픈AI의 AI 시스템을 인도에서 운영해 현지 고객 데이터를 인도 내에서 보관하는 방안도 논의 중인 것으로 알려졌다. 또 인도 서부 잠나가르 시에 건설을 계획 중인 세계 최대 규모의 3기가와트(GW)급 데이터센터에 오픈AI와 메타의 AI 모델을 운영하는 방안도 논의 중인 것으로 전해졌다. 디인포메이션은 "이번 일로 메타가 오픈AI의 경쟁자가 될 수도 있을 것 같다"면서도 "이들이 릴라이언스와 계약을 맺은 것은 메타, 오픈AI 등 외국계 AI 기업이 현지 기업을 밀어낼 수도 있다고 우려하는 인도 정부 관리들과의 관계를 강화하는 데는 잠재적으로 도움이 될 수 있을 것 같다"고 말했다. 이어 "현지 소비자와 기업 사이에서 입지를 확대하는 데도 도움이 될 것으로 보인다"고 덧붙였다.

2025.03.24 10:56장유미 기자

MS가 이끄는 AI 인프라 투자에 엔비디아·xAI 합류

엔비디아와 일론 머스크의 xAI가 미국 내 인공지능(AI) 인프라 확장을 위해 투자 프로젝트에 합류했다. 13일 테크크런치 등 외신에 따르면 엔비디아와 xAI는 마이크로소프트, 투자 펀드 MGX, 블랙록이 주도하는 'AI 인프라 파트너십(AIP)'에 참여한다고 밝혔다. AIP는 AI 서비스 운영에 필수적인 데이터센터·전력 공급망 강화를 목표로 지난해 설립됐다. AI 기술이 발전하면서 연산 능력에 대한 수요가 급증했고 이로 인해 전력 소비 문제가 새로운 과제로 떠올라서다. AIP는 AI 모델 훈련과 대규모 데이터 처리를 지원하기 위해 300억 달러(약 43조7천490억원) 넘는 투자 계획을 세웠다. 현재 투자금 확보를 위해 기업, 자산 소유자, 기관 투자자로부터 자금을 유치하고 있다. 부채 금융을 포함해 최대 1천억 달러(약 145조8천300억원)를 동원할 방침이다. 이번 프로젝트에 GE 버노바와 유틸리티 기업 넥스테라 에너지도 참여한다. 해당 기업은 AI 인프라 구축에 필요한 전력 공급망 관리와 고효율 에너지 솔루션 개발을 맡을 예정이다. AIP는 이번 투자가 미국 내 협력업체뿐만 아니라 경제협력개발기구(OECD) 회원국을 중심으로 이루어질 것이라고 밝혔다. 다만 현재까지 확보된 총투자금 규모는 공개되지 않았다. 해당 컨소시엄은 도널드 트럼프 미국 대통령이 두 달 전 발표한 '스타게이트' 프로젝트 후 본격화했다. 스타게이트는 소프트뱅크, 오픈AI, 오라클이 참여하는 민간 AI 인프라 투자 프로젝트로 최대 5천억 달러(약 729조4천억원) 자금 조달을 목표로 하고 있다. 현재까지 1천억 달러가 즉시 투입될 예정이며 나머지 자금은 향후 4년 동안 추가 마련될 계획이다. AIP는 "지난해 9월 출범 이후 상당한 자본과 파트너들의 관심을 끌었다"며 "AI 인프라 구축을 위한 추가적인 투자 유치도 진행 중"이라고 밝혔다.

2025.03.20 08:37김미정 기자

'1b LPDDR5X' 양산 개시...SK하이닉스, 엔비디아 등 AI 고객사 잡는다

SK하이닉스가 지난해 하반기 최선단 D램 공정 기반의 LPDDR(저전력 D램) 양산을 시작한 것으로 확인됐다. AI 서버가 주요 적용처로, 엔비디아 등 글로벌 빅테크 공략에 속도를 낼 것으로 관측된다. 19일 SK하이닉스 사업보고서에 따르면 이 회사는 지난해 10월부터 1b(5세대 10나노급) 기반의 LPDDR5X 양산을 시작했다. 1b D램은 현재 양산 중인 D램의 가장 최신 세대에 해당한다. SK하이닉스는 1b 공정을 기반으로 16Gb(기가비트) LPDDR5X를 지난해 6월 개발 완료한 뒤, 10월부터 양산에 돌입했다. 해당 제품의 동작 속도는 10.7Gbps로, 이전 세대(9.6Gbps) 대비 약 10% 빠르다. 전력 효율도 최대 15%까지 절감할 수 있다는 게 SK하이닉스의 설명이다. 이번 1b LPDDR5X의 주요 타겟은 AI, HPC(고성능컴퓨팅) 등이다. SK하이닉스는 시장에서 향후 수요가 빠르게 증가할 것으로 예상되는 신규 메모리 모듈인 LPCAMM·SOCAMM 등에 해당 제품을 채용할 예정이다. LPCAMM은 기존 LPDDR 모듈 방식인 So-DIMM(탈부착)과 온보드(직접 탑재)의 장점을 결합한 기술이다. 기존 방식 대비 패키지 면적을 줄이면서도 전력 효율성을 높이고, 탈부착 형식으로 제작하는 것이 가능하다. SOCAMM 역시 LPDDR 기반의 차세대 모듈이다. LPCAMM과 마찬가지로 탈부착이 가능하지만, 데이터를 주고받는 I/O(입출력단자) 수가 694개로 LPCAMM(644개) 대비 소폭 증가했다. LPCAMM 및 SOCAMM은 이 같은 장점을 무기로 글로벌 빅테크와 주요 메모리 기업들의 주목을 받고 있다. 현재 AI 산업을 주도하고 있는 엔비디아도 차세대 AI PC에 이들 제품을 채택할 것으로 알려졌다.

2025.03.19 17:11장경윤 기자

SK하이닉스, 세계 최초 'HBM4' 12단 샘플 공급 시작

SK하이닉스가 AI용 초고성능 D램 신제품인 HBM4 12단 샘플을 세계 최초로 주요 고객사들에 제공했다고 19일 밝혔다. SK하이닉스는 "HBM 시장을 이끌어온 기술 경쟁력과 생산 경험을 바탕으로 당초 계획보다 조기에 HBM4 12단 샘플을 출하해 고객사들과 인증 절차를 시작한다"며 "양산 준비 또한 하반기 내로 마무리해, 차세대 AI 메모리 시장에서의 입지를 굳건히 하겠다"고 강조했다. 이번에 샘플로 제공한 HBM4 12단 제품은 AI 메모리가 갖춰야 할 세계 최고 수준의 속도를 갖췄다. 12단 기준으로 용량도 세계 최고 수준이다. 우선 이 제품은 처음으로 초당 2TB(테라바이트) 이상의 데이터를 처리할 수 있는 대역폭을 구현했다. 이는 FHD(Full-HD)급 영화(5GB=5기가바이트) 400편 이상 분량의 데이터를 1초 만에 처리하는 수준으로, 전세대(HBM3E) 대비 60% 이상 빨라졌다. HBM 제품에서 대역폭은 HBM 패키지 1개가 초당 처리할 수 있는 총 데이터 용량을 뜻한다. 아울러 회사는 앞선 세대를 통해 경쟁력이 입증된 어드밴스드(Advanced) MR-MUF 공정을 적용해 HBM 12단 기준 최고 용량인 36GB를 구현했다. 이 공정을 통해 칩의 휨 현상을 제어하고, 방열 성능도 높여 제품의 안정성을 극대화했다. SK하이닉스는 2022년 HBM3를 시작으로 2024년 HBM3E 8단, 12단도 업계 최초 양산에 연이어 성공하는 등 HBM 제품의 적기 개발과 공급을 통해 AI 메모리 시장 리더십을 이어왔다. 김주선 SK하이닉스 AI Infra(인프라) 사장(CMO)은 “당사는 고객들의 요구에 맞춰 꾸준히 기술 한계를 극복하며 AI 생태계 혁신의 선두주자로 자리매김했다”며 “업계 최대 HBM 공급 경험에 기반해 앞으로 성능 검증과 양산 준비도 순조롭게 진행할 것”이라고 말했다.

2025.03.19 09:58장경윤 기자

엔비디아, 루빈 울트라·파인만 AI칩 공개…"차세대 HBM 탑재"

엔비디아가 인공지능(AI) 반도체 산업의 주도권을 유지하기 위한 차세대 GPU를 추가로 공개했다. 오는 2027년 HBM4E(7세대 고대역폭메모리)를 탑재한 '루빈 울트라'를, 2028년에는 이를 뛰어넘을 '파인만(Feynman)' GPU를 출시할 예정이다. 파인만에 대한 구체적인 정보는 아직 공개되지 않았지만, '차세대 HBM(Next HBM)'을 비롯해 다양한 혁신 기술이 적용될 것으로 전망된다. 18일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 미국 실리콘밸리 새너제이 컨벤션 센터에서 열린 연례행사인 'GTC 2025' 무대에 올라 AI 데이터센터용 GPU 로드맵을 발표했다. 이날 발표에 따르면, 엔비디아는 최신형 AI 가속기인 '블랙웰' 시리즈의 최고성능 제품인 '블랙웰 울트라'를 올해 하반기 출시한다. 해당 칩은 12단 HBM3E(5세대 HBM)를 탑재했으며, AI 성능을 이전 세대 대비 1.5배 높인 것이 특징이다. 이어 엔비디아는 HBM4를 탑재한 '루빈' 시리즈를 내년 하반기 출시한다. 루빈부터는 기존 '그레이스' CPU가 아닌 '베라' CPU가 채용된다. 루빈의 최고성능 제품인 루빈 울트라는 내후년인 2027년 하반기께 출시가 목표다. 루빈 울트라에는 HBM4E가 채용돼, 메모리 성능이 블랙웰 울트라 대비 8배나 늘어난다. 그동안 드러나지 않았던 차차세대 AI 가속기에 대한 정보도 공개됐다. 엔비디아는 루빈 이후의 제품명을 파인만으로 확정했다. 미국의 저명한 이론 물리학자인 리처드 파인만에서 이름을 따왔다. 엔비디아는 파인만에 대해 차세대 HBM(Next HBM)을 탑재한다고 기술했다. 다만 구체적인 세대명은 공개하지 않았다. 파인만은 오는 2028년 출시될 예정이다.

2025.03.19 08:43장경윤 기자

샌디스크, 업계 최초 차량용 UFS4.1 낸드 솔루션 공개

샌디스크는 11일부터 13일까지(현지시각) 독일 뉘른베르크에서 개최되는 '임베디드 월드 2025'에서 업계 최초 오토모티브 등급 UFS4.1 인터페이스 디바이스를 공개한다고 12일 밝혔다. '샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브'는 샌디스크의 이전 UFS3.1 디바이스 대비 2배 이상 업그레이드된 성능과 기존 업계에 출시된 용량 대비 2배 향상된 용량을 제공한다. 샌디스크의 최신 BiCS8 TLC 낸드 기술이 적용된 것은 물론, 최대 1TB의 대용량을 지원하며 높은 수준의 데이터 스토리지 성능, 용량, 내구성, 신뢰성이 요구되는 오토모티브 애플리케이션을 발전시키고 오토모티브 AI 혁신을 가속화한다. 첨단운전자지원시스템(ADAS), 자율주행, 이콕핏(eCockpit)과 같은 오토모티브 인공지능(AI) 시스템은 센서, 지도, AI 데이터베이스에서 정보를 추출해야 안전하게 작동할 수 있다. iNAND 임베디드 플래시 드라이브는 데이터가 필요할 때 활용할 수 있도록 하는 데 중요한 역할을 하며 자율주행 컴퓨터를 위한 실시간 차량 스토리지를 제공해 클라우드 접속 시 발생하는 지연성(latency) 및 연결성 문제를 해결할 수 있도록 지원한다. 샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브는 현재 엄선된 고객 및 파트너를 대상으로 출하 중이다. 새롭게 공개된 임베디드 플래시 드라이브를 통해 샌디스크는 한층 강화된 오토모티브 등급 SD 카드, e.MMC, UFS2.1, UFS3.1 및 NVMe 제품 포트폴리오를 보유하게 됐다. 한편 샌디스크는 임베디드 월드 2025의 현지 부스에서 샌디스크 iNAND AT EU752 UFS4.1 임베디드 플래시 드라이브와 함께, '샌디스크 DC SN861 NVMe SSD'와 '울트라스타 DC SN655 NVMe SSD'를 비롯한 선도적인 데이터센터 솔루션, 워크스테이션 및 노트북용 클라이언트 SSD, 산업용 임베디드 및 리무버블(removable) 플래시 스토리지 솔루션, 클라이언트 SSD 등의 플래시 스토리지 솔루션을 선보인다.

2025.03.12 11:22장경윤 기자

MS와 틈 벌리는 오픈AI, 코어위브에 120억 달러 투자한 속내는

'챗GPT'를 개발한 오픈AI가 인공지능(AI) 인프라 확보를 위해 스타트업 코어위브에 대규모로 투자하며 지분 확보에 나섰다. 마이크로소프트(MS)에 대한 의존도가 각각 높았던 오픈AI와 코어위브는 이번 일로 사업 확장에 새로운 전환을 맞이 할 수 있게 됐다. 11일 로이터통신, 테크크런치 등 주요 외신에 따르면 오픈AI는 코어위브와 119억 달러(17조3천561억원) 규모의 클라우드 컴퓨팅 서비스 계약을 체결했다. 이번 계약 기간은 5년으로, 오픈AI는 이번 계약을 통해 코어위브 지분 일부를 확보하게 됐다. 이를 위해 코어위브는 3억5천만 달러 규모의 주식을 사모 방식으로 발행할 예정이다. 코어위브는 엔비디아 AI 칩을 이용한 대규모 데이터센터를 운영 중으로, 이를 임대하는 사업을 펼치고 있다. 클라우드 서비스 제공 업체인 만큼 경쟁사로는 아마존웹서비스(AMS), MS 애저, 구글 클라우드 등이 꼽힌다. 2023년에는 엔비디아 등으로부터 투자를 유치했으며 현재 뉴욕증시 상장을 추진 중이다. 기업가치를 350억 달러(약 51조원) 이상으로 평가 받으면서 올해 미국 기업공개(IPO) 시장에선 최대어로 주목 하고 있다. 지난해 5월 초 11억 달러 규모의 투자금을 유치할 당시 평가 받았던 기업가치(190억 달러)의 약 두 배다. 그러나 코어위브가 79억 달러의 부채를 보유하고 있다는 점은 다소 우려스럽다. 코어위브는 IPO를 통해 수십억 달러의 신규 자본이 유입되면 일부를 부채 상환에 사용할 예정이다. 이번 일을 두고 양 사는 묵묵부답으로 일관하고 있다. 업계에선 오픈AI와 MS의 관계 변화에 따른 일로 해석했다. 오픈AI는 그간 MS와 파트너십을 맺고 MS 클라우드 '애저'를 기반으로 챗GPT 등 AI 서비스와 모델을 개발·운영해 왔다. 하지만 오픈AI가 대규모 투자가 이뤄지는 사업에 MS가 아닌 다른 기업과 손을 잡기 시작하며 양 사 관계에 이상 기류가 감지되기 시작했다. 특히 지난 1월 오픈AI가 일본 소프트뱅크, 오라클과 AI 합작회사인 '스타게이트' 설립을 발표하며 두 기업간 흔들리는 협력 관계가 조명 받기도 했다. 일단 MS는 올해 1월쯤 오픈AI가 오라클 클라우드를 활용할 수 있도록 승인하면서 2030년까지 오픈AI API 독점권과 매출 25%를 가져가는 수익 공유 계약은 유지하기로 협의했다. 월스트리트저널(WSJ)은 당시 "오픈AI의 스타게이트 발표 현장에서 MS가 보이지 않는 것은 수개월에 걸친 양사 간 긴장 이후 나온 것"이라며 "오랜 파트너들이 서로 덜 의존하게 될 새로운 시대를 알리는 신호"라고 관측했다. 이후 MS가 오픈AI와 경쟁하기 위해 AI 추론 모델을 자체 개발하고 있다는 소식이 전해지며 틈은 더 벌어진 분위기다. IT 매체 디인포메이션에 따르면 무스타파 술레이먼이 이끄는 MS AI팀은 최근 '마이(MAI)'라고 불리는 AI 모델군 훈련을 완료했다. 마이는 AI 성능을 평가한 벤치마크 테스트에서 오픈AI와 앤트로픽 최상위 AI 모델과 거의 같은 성능을 보인 것으로 알려졌다. MS는 현재 자체 AI 도구 '코파일럿'에서 오픈AI의 AI 모델을 '마이'로 교체하는 테스트도 진행 중인 것으로 전해졌다. 오픈AI에 대한 의존도를 줄이기 위한 것으로 분석된다. 디인포메이션은 "MS '마이' 추론 모델은 오픈AI 추론 모델 o시리즈와 직접 경쟁이 가능할 것"이라고 밝혔다. 코어위브는 MS에 대한 매출 의존도가 높다는 점에서 이번 오픈AI와의 계약이 새로운 동력이 될 것으로 보인다. 현재 최대 고객인 MS가 코어위브의 매출에서 차지하는 비중은 62%다. 이 외에도 페이스북 운영사 메타, IBM 등 대형 IT 기업도 코어위브 데이터센터를 활용하고 있다. 이곳의 지난해 매출은 19억2천만 달러(약 2조7천990억원)로 전년 대비 약 8배 증가했다. 다만 순손실도 2023년 5억9천370만 달러(약 8천657억원)에서 2024년 8억6천340만 달러(약 1조2천595억원)로 확대됐다. 코어위브는 6%의 지분을 보유한 엔비디아의 지원을 받아 지난해 말 기준 25만 개 이상의 엔비디아 그래픽처리장치(GPU)를 운영하는 32개 데이터센터 네트워크를 통해 AI 전용 클라우드 서비스를 운영하고 있다. 특히 AI 추론을 지원하는 엔비디아의 최신 제품인 블랙웰을 포함해 더 많은 GPU가 최근 추가됐다는 점에서 고성능 AI 모델 개발에 나선 업체들의 러브콜이 쏟아지고 있다. 업계 관계자는 "오픈AI가 MS 애저를 사용 중이지만 더 많은 컴퓨팅 리소스가 필요한 시점에서 MS로부터 GPU를 원하는 만큼 공급 받고 있지 못하고 있다고 보고 있다"며 "코어위브도 그간 최대 고객이 MS였다는 점에서 의존도를 줄일 수 있게 된 데다 오픈AI를 고객으로 유치하면서 투자자들을 달래는 데도 도움이 될 것"이라고 밝혔다.

2025.03.11 15:38장유미 기자

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미 기자

'5% 급락' 엔비디아 주가, 美 스타게이트 덕에 살아날까…AI 칩 수만 개 장착

'챗GPT' 개발사 오픈AI와 오라클, 일본 소프트뱅크가 함께 추진 중인 '스타게이트' 프로젝트에 수십억 달러 규모의 엔비디아 인공지능(AI) 칩이 탑재될 예정이다. 최신 칩인 '블랙웰' 공급 지연 여파로 최근 하락세를 보인 엔비디아의 주가가 이번 소식으로 반등할 수 있을지 주목된다. 7일 블룸버그통신에 따르면 오픈AI, 오라클 등은 향후 몇 개월 안에 미국 텍사스 애빌린에 짓고 있는 첫 데이터센터에 2026년 말까지 수만 개의 엔비디아 GB200 칩 6만4천 개를 탑재할 계획이다. 올해 여름까지 1만6천 개의 GB200이 1차로 설치된 후 단계적으로 추가될 예정인 것으로 알려졌다. GB200은 엔비디아의 최신 AI 칩 '블랙웰' 그래픽처리장치(GPU) 2개와 그레이스 중앙처리장치(CPU) 1개를 탑재한 AI 가속기다. GB200의 공식 가격은 알려지지 않았지만 1개당 3만~4만 달러였던 직전 모델보다는 더 비싼 것으로 전해졌다. 이에 스타게이트 프로젝트에 투입되는 자금은 GB200 칩만으로도 수십억 달러가 될 전망이다. 블룸버그통신은 "한 곳의 데이터 센터에 투입되는 컴퓨팅 파워로는 매우 큰 규모"라며 "이는 스타게이트 프로젝트의 대규모 확장을 시사한다"고 말했다. '스타게이트' 프로젝트 여파로 미국 전역에 최대 10곳의 데이터센터가 구축될 예정인 만큼 엔비디아의 첨단 AI 칩에 대한 수요는 줄어들지 않을 것으로 보인다. '스타게이트'는 오픈AI와 오라클, 소프트뱅크의 주도로 진행되는 프로젝트로, 미국 내 데이터센터 설립을 목표로 하고 있다. 이를 위해 향후 4년간 최대 5천억 달러(약 720조원)을 투자할 계획이다. 샘 알트먼 오픈AI 최고경영자(CEO)와 손정의 소프트뱅크 회장은 지난 달 4일 이재용 삼성전자 회장을 만나 자금 지원에 나설 것을 요청하기도 했다. 오픈AI는 향후 스타게이트 부지를 최대 10곳까지 확장할 계획으로, 텍사스 외에도 펜실베이니아, 위스콘신, 오리건주 등에서도 부지를 검토 중이다. 일각에선 최근 '저비용·고성능'을 앞세운 중국 AI 딥시크가 출현한 후 엔비디아의 첨단 AI 칩에 대한 수요가 줄어드는 것 아니냐는 우려를 내놨지만, 이번 일로 불식된 분위기다. 현재 '스타게이트' 프로젝트에서 AI 칩을 확보·운영하는 것은 오라클이 맡고 있는 상태로, 오라클은 엔비디아 최신 칩 확보 경쟁에서 치열한 싸움을 벌이고 있다. 특히 일론 머스크가 설립한 xAI, 메타 등이 가장 큰 경쟁자로 꼽힌다. xAI는 최근 멤피스에 있는 슈퍼 컴퓨터용 AI 서버 확장에 나섰고, 메타는 루이지애나와 텍사스주 또는 와이오밍에 2천억 달러 규모의 데이터센터 건설을 검토 중에 있다. 이곳에는 모두 수 만장의 엔비디아 AI 가속기가 투입될 가능성이 높다. 하지만 엔비디아는 이 같은 호재를 앞두고도 주가 하락 움직임을 막지 못한 분위기다. 지난 6일 주가는 전일 대비 5.47% 내린 110.57달러(약 16만215원)에 거래를 마쳤다. 이는 지난해 9월 10일(108.08달러) 이후 가장 낮은 수준으로, 최신 칩인 '블랙웰' 공급이 수요를 충족시킬 만큼 원활하지 않다는 시장의 판단 때문으로 분석됐다. 최근 3개월간 주가는 19.50% 하락했다. 업계 관계자는 "그동안 시장에선 블랙웰 공급 확장을 통해 엔비디아의 폭발적인 매출 증가를 기대했다"며 "하지만 계속된 공급 지연에 따른 실망감으로 매도가 나온 것으로 보인다"고 분석했다.

2025.03.07 10:17장유미 기자

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

더 크게보다 더 가볍게…AI 인프라 경량화 시대 부상

[현장] 지드래곤·태민 춤 완벽 재현한 로봇들…'피지컬 AI 엔터테크' 시대 성큼

전기차 대신 ESS 키우는 포드…배터리 전략 선회

"드론 비행거리 2배로"…中, 차세대 리튬-황 배터리 화제

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.