• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (584건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 脫 엔비디아 노린 오픈AI, 브로드컴과 일 낸다…삼성·SK도 득 볼까

엔비디아 의존도를 낮추기 위해 본격 나선 오픈AI가 브로드컴과 자체 인공지능(AI) 칩셋 개발을 공식화하며 대형 데이터센터 구축에 속도를 낼 것으로 보인다. 이번 일은 직접 계약을 맺은 브로드컴뿐 아니라 브로드컴에 고대역폭메모리(HBM)를 공급하는 반도체 업계에도 호재로 작용할 전망이다. 14일 블룸버그통신에 따르면 '챗GPT' 개발사인 오픈AI는 브로드컴과 맞춤형 칩셋 및 네트워킹 장비 개발을 위해 협력한다. 이를 위해 오픈AI는 수백억 달러 규모의 투자를 진행할 예정으로, 하드웨어 설계에도 직접 나선다. 오픈AI는 내년 하반기부터 관련 장비가 탑재된 서버 랙을 설치하기 시작해 총 10기가와트(GW) 규모 데이터센터 구축에 나설 계획이다. 10GW는 원전 10개에 해당하는 전력량으로, 뉴욕시의 전체 전력 소모량과 비슷하다. 하드웨어 구축은 2029년 말 완료될 예정으로, 오픈AI 맞춤형 AI 칩셋이 장착될 랙에는 브로드컴 이더넷, PCIe 및 광 연결 솔루션이 포함된다. 브로드컴은 맞춤형 하드웨어가 탑재된 서버랙을 오픈AI 또는 오픈AI의 클라우드 파트너가 운영하는 시설에 배치할 예정이다. 그렉 브록먼 오픈AI 공동창업자 겸 사장은 "10GW의 컴퓨팅 파워만으로는 인공일반지능(AGI) 달성이라는 우리의 비전을 실현하기에는 턱없이 부족하다"며 "이는 우리가 가야 할 길에 비하면 아주 작은 시작에 불과하다"고 말했다. 오픈AI와 브로드컴의 협업설은 그간 꾸준히 제기돼 왔다. 특히 혹 탄 브로드컴 최고경영자(CEO)가 지난 달 실적 발표에서 고객명은 언급하지 않고 대규모 계약을 체결했다고 밝힌 후 시장에서는 오픈AI라는 추측이 제기된 바 있다. 이번에 양 사가 구체적인 공급 시기, 물량 등을 공개하며 계약 체결을 공식화하면서 반도체 업계에도 화색이 돌고 있다. 특히 브로드컴 주가는 이날 뉴욕 증시에서 9.88% 급등해 눈길을 끌었다. 덩달아 엔비디아는 2.82%, TSMC와 마이크론은 각각 7.92%, 6.15% 올랐다. 일각에선 브로드컴에 SK하이닉스와 삼성전자가 HBM을 공급하고 있다는 점에서 향후 수혜를 입을 것이란 기대감도 내비쳤다. SK하이닉스는 HBM3E 공급 계약을 체결한 상태로, 내년 하반기부터 일부 HBM4 물량을 브로드컴에 공급할 계획으로 알려졌다. 삼성전자도 브로드컴에 HBM3E를 공급 중으로, 브로드컴을 비롯한 주요 반도체 설계사와 차세대 HBM4 공급을 현재 논의 중이다. 샘 알트먼 오픈AI CEO가 지난 1일 방한해 이재용 삼성전자 회장, 최태원 SK그룹 회장과 만남을 가진 것도 긍정적인 요소다. 이 때 삼성전자, SK하이닉스는 오픈AI가 주도하는 초거대 AI 인프라 구축 프로젝트인 '스타게이트'의 핵심 파트너로 합류했다. 오는 2029년까지 5천억 달러(약 700조원)를 들여 세계 곳곳에 짓는 AI 데이터센터에 두 회사의 최신 HBM 등 첨단 반도체가 대거 들어간다는 점에서 기대감이 커지고 있다. 오픈AI는 두 회사에 웨이퍼 기준 월 최대 90만 장 규모의 HBM 공급을 요청한 것으로 알려졌다. 이는 전 세계 HBM 생산 능력의 두 배가 넘는 수준으로, 올해 HBM 시장 규모가 340억 달러(약 48조원)인 것을 감안하면 100조원 넘는 신규 수요가 생기는 셈이다. 오픈AI의 이 같은 움직임은 엔비디아 의존도를 낮추기 위한 것으로 분석된다. 현재 AI 반도체 시장은 엔비디아가 80% 이상을 장악, 그래픽처리장치(GPU) 공급·가격 결정까지 주도하고 있다. 오픈AI는 AMD에 이어 브로드컴과도 계약에 나서면서 공급망 다변화와 연산 자립 기반을 마련하며 엔비디아의 독점 구조를 깨기 위해 노력 중이다. 그러나 컴퓨팅 자원 부족 문제가 심화되면서 올 들어 엔비디아와도 꾸준하게 협업을 이어가고 있다. 지난 달 엔비디아가 오픈AI의 새로운 인프라 구축을 지원하기 위해 최소 10GW 규모의 컴퓨팅 용량 확보를 목표로 최대 1천억 달러를 투자한다고 발표한 것이 대표적이다. AMD와도 지난 주 6GW 규모의 프로세서 도입을 위해 협력키로 했다. 다만 업계에선 오픈AI가 이에 투입될 대규모 자금을 어떻게 마련할 지에 대해 의문을 품고 있다. 현재 1GW의 AI 컴퓨팅 용량을 구축하려면 칩 비용만 약 350억 달러가 소요되는데, 10GW면 3천500억 달러 이상이다. 이번 브로드컴과의 계약은 지분 투자나 주식 교환이 포함되지 않아 엔비디아와 AMD와의 협력과는 차별화된다. 두 회사는 칩 구매 자금 조달 방식에 대해서는 언급을 피했지만, 더 많은 컴퓨팅 파워 확보를 통해 서비스 매출을 확대하는 것으로 자금 조달 계획을 세우고 있는 것으로 보인다. 오픈AI는 지금까지 여러 건의 대형 투자를 유치하며 급속도로 성장해왔으나, 막대한 현금을 투입해 오는 2030년쯤에야 흑자를 낼 것으로 관측됐다. 업계 관계자는 "오픈AI가 자체 칩셋 개발에 나선 이유는 비용 절감과 효율성 확대 때문"이라며 "투자 유치·협력과 별개로 엔비디아·AMD 밖으로 GPU 선택지를 넓히려는 의도도 있다"고 분석했다. 그러면서 "오픈AI가 브로드컴·오라클·AMD·코어위브 등과 발표한 AI 인프라 투자 규모는 이미 1조 달러를 훌쩍 넘어섰다"며 "현재로선 오픈AI의 공격적인 인프라 계약이 실제 이뤄질 수 있을지 의문"이라고 덧붙였다.

2025.10.14 16:05장유미 기자

'반도체 훈풍' 맞은 삼성전자, 4분기도 수익 성장 예고

삼성전자가 올 3분기 업계 예상을 웃도는 호실적을 기록했다. 전 세계 AI 인프라 투자 확대에 따라 고부가 D램 수요가 확대되는 한편, 파운드리 가동률도 점진적인 회복세를 보이고 있다. 4분기에도 메모리 가격 상승 및 출하량 확대가 예상되는 만큼, 삼성전자 반도체 사업의 수익성은 더 개선될 전망이다. 14일 삼성전자는 올 3분기 연결기준으로 매출 86조원, 영업이익 12조1천억원의 잠정 실적을 기록했다고 공시했다. 전기 대비 매출은 15.33%, 영업이익은 158.55% 증가했으며, 전년동기 대비 매출은 8.72%, 영업이익은 31.81% 증가했다. 또한 이번 실적은 증권가 컨센서스인 10조1천419억원을 크게 상회하는 수준이다. 업계는 이번 호실적의 배경으로 주요 사업인 DS(반도체) 분야의 수익성 확대를 지목하고 있다. DS부문의 3분기 영업이익은 7조원 내외로 추산된다. 해당 분기 AI 서버를 중심으로 D램 가격 및 출하량이 증가했으며, HBM(고대역폭메모리)도 용량 기준으로 10억 초중반대의 Gb(기가비트) 출하량으로 전분기 대비 성장을 기록한 것으로 분석된다. 지난해 4분기 이후 3개분기 연속 2조원대의 적자를 기록했던 비메모리 사업도 올 3분기 적자폭이 1조원대로 축소되는 등 회복세를 보이고 있다. 7나노미터(nm) 등 주력 공정의 고객사 확보, 내부 모바일 AP(애플리케이션 프로세서)·CIS(CMOS 이미지센서) 생산량 확대로 가동률이 상승한 덕분이다. 4분기에는 반도체 부문의 수익성이 더 크게 개선될 전망이다. 시장조사업체 트렌드포스에 따르면 4분기 전체 D램의 평균판매가격은 전분기 대비 13~18%의 상승세가 예상된다. 트렌드포스는 "주요 CSP(클라우드서비스제공자) 기업들이 내년 서버용 D램 수급을 크게 늘릴 것으로 예상된다"며 "반면 공급업체들은 HBM4(6세대 HBM)에 생산능력을 크게 할당하고 있어, DDR5 공급은 여전히 불안정한 상황"이라고 설명했다. 반도체 업계 관계자는 "4분기에도 D램·낸드 시장이 성장할 것으로 예상되고, HBM은AMD 등 주요 고객사향 출하량이 전분기 대비 상승할 전망"이라며 "올 하반기 뿐만이 아니라 내년까지 메모리 사업의 구조적인 호황이 예상되는 상황"이라고 말했다.

2025.10.14 11:02장경윤 기자

TI, 엔비디아 등 협력사와 AI 데이터센터 아키텍처 구축 지원

텍사스인스트루먼트(TI)는 13일부터 16일까지 미국 캘리포니아 새너제이에서 개최되는 오픈 컴퓨트 서밋(OCP)에서 새로운 설계 리소스와 전력 관리 칩을 공개한다고 14일 밝혔다. TI는 이번 발표를 통해 인공지능(AI) 연산 수요를 충족하고 전력 관리 아키텍처를 12V에서 48V, 800VDC까지 확장할 수 있도록 지원하는 전력 관리 솔루션을 제시한다. 먼저 백서 '첨단 AI 컴퓨팅 성장을 대비한 전력 공급의 트레이드오프'에서는 엔비디아와의 협업을 통해 800VDC 전력 아키텍처를 지원하는 솔루션 개발 방향을 공개한다. 향후 2~3년 내 IT 랙 전력이 1MW를 초과할 것으로 예상되는 만큼, TI는 고효율·고전력 밀도 에너지 변환을 실현하기 위한 전력 공급 구조의 재검토와 시스템 수준의 설계 과제를 다룬다. 또한 고부하 AI 워크로드를 위한 30kW AI 서버 전원 공급 유닛 설계도 함께 공개한다. TI의 듀얼 스테이지 전원 공급장치 레퍼런스 설계는 3상 3레벨 플라잉 커패시터 역률 보정(PFC) 컨버터와 듀얼 델타-델타 3상 인덕터-인덕터-커패시터(LLC) 컨버터로 구성돼 있으며, 단일 800V 출력 또는 분리된 출력 구성 모두를 지원한다. TI는 또한 여러 첨단 전력 장치를 선보인다. 5mm×5mm QFN 패키지에 두 개의 전력 단을 통합한 2상 스마트 전력 스테이지 CSD965203B는 위상당 최대 100A의 피크 전류를 제공하며, 시장에 출시된 제품들 중 가장 높은 피크 전력 밀도를 구현한다. 엔지니어는 이 장치를 통해 소형 PCB 내에서도 위상 수와 전력 용량을 쉽게 확장할 수 있다. 또한 2상 스마트 전력 모듈 CSDM65295은 9mm×10mm×5mm의 소형 패키지에서 최대 180A의 피크 전류를 제공하며, 두 개의 전력 단계와 인덕터를 트랜스 인덕터 전압 조절(TLVR) 옵션과 함께 통합해 높은 효율과 우수한 열 성능을 구현한다. 또한 질화갈륨(GaN) 기반 중간 버스(Bus) 컨버터 LMM104RM0는 58.4mm×36.8mm 크기의 쿼터 브릭 폼팩터에서 최대 1.6kW의 출력을 제공하며, 97.5% 이상의 입력-출력 변환 효율을 달성한다. 이 디바이스는 경부하 구간에서도 높은 효율을 유지하며, 여러 모듈 간의 능동 전류 공유를 가능하게 한다. 최신 AI 데이터 센터는 효율적인 전력 관리, 센싱, 데이터 변환을 위해 다양한 핵심 반도체 솔루션을 필요로 한다. TI는 새로운 설계 리소스와 폭넓은 전력 관리 포트폴리오를 기반으로 데이터센터 설계자와 협력해 발전소의 전력 생성부터 GPU의 로직 게이트에 이르기까지 효율적이고 안전한 전력 관리를 구현할 수 있도록 지원한다. 크리스 수코스키 TI 데이터센터 부문 총괄 매니저는 “데이터센터는 AI의 확산과 함께 단순한 서버 공간을 넘어 고도화된 전력 인프라의 중심으로 진화하고 있다. 이러한 수요를 충족하기 위해서는 확장 가능한 전력 인프라와 높은 전력 효율이 필수적"이라며 "TI의 새로운 전력 관리 솔루션은 설계자들이 800VDC 전환을 지원하는 첨단 전력 아키텍처를 보다 쉽게 구현할 수 있도록 돕는다”고 말했다. TI는 이번 OCP를 통해 최신 전력 관리 기술을 소개하고, 데이터센터 전력 아키텍처의 미래 방향을 제시한다. 전시는 OCP 부스 C17번에서 진행되며, 15일에 데셩 궈 TI 시스템 및 애플리케이션 엔지니어가 '첨단 데이터센터 AC/DC 분배 및 변환 전력 아키텍처'를 주제로 발표한다. 또한 같은 날 프라딥 셰노이 TI 컴퓨팅 파워 기술 책임자는 '미래 데이터센터를 위한 직렬 스택 전력 공급 아키텍처'를 주제로 포스터 세션을 진행한다.

2025.10.14 09:44장경윤 기자

마이크로칩, 업계 최초 3나노 공정 PCIe Gen 6 스위치 출시

마이크로칩테크놀로지는 차세대 스위치텍(Switchtec) Gen 6 PCIe 스위치 제품군을 출시한다고 14일 밝혔다. 스위치텍 Gen 6 제품군은 업계 최초로 3나노미터(3nm) 공정으로 제조된 PCIe Gen 6 스위치로, 전력 소비를 줄이고 고밀도 AI 시스템 연결을 위해 최대 160레인을 지원하도록 설계됐다. 또한 하드웨어 루트 오브 트러스트와 보안 부팅 등 고급 보안 기능을 포함하며, CNSA 2.0(상업용 국가보안알고리즘)을 준수하는 포스트 퀀텀 안전(Post-Quantum Safe) 암호 기술을 채택해 강화된 보안을 제공한다. 이전 세대의 PCIe 기술은 CPU, GPU, 메모리, 스토리지 간 데이터 전송에서 대역폭 병목 현상을 일으켜 데이터의 활용도가 떨어지고 불필요한 연산 사이클이 발생하는 문제를 초래했다. 새로운 PCIe 6.0 표준은 PCIe 5.0 대비 두 배인 레인당 64GT/s의 대역폭을 제공해, 가장 강력한 AI 액셀러레이터(AI Accelerator)에 안정적으로 데이터를 공급할 수 있는 필수 데이터 파이프라인을 제공한다. 스위치텍 Gen 6 PCle 스위치는 CPU, GPU, SoC, AI 액셀러레이터, 스토리지 간의 고속 연결을 구현하며, 데이터센터 설계자들이 차세대 AI 및 클라우드 인프라의 잠재력을 최대한 활용할 수 있도록 지원한다. 브라이언 멕카슨 마이크로칩 데이터센터 솔루션 사업부 부사장은 “AI 시대의 급속한 혁신은 데이터센터 아키텍처가 기존의 전통적 설계에서 벗어나, 컴퓨팅 자원을 공유하는 풀 기반 아키텍처로 전환하도록 이끌고 있다”고 말하며 “마이크로칩은 검증된 스위치텍 제품 라인을 PCIe 6.0으로 확장함으로써 주요 컴퓨팅 리소스 간의 직접적 통신이 용이해지도록 변화를 지원하고 있으며, 지금까지 생산한 것 중 전례 없는 가장 강력하고 에너지 효율적인 스위치를 제공하게 됐다”고 말했다. 스위치텍 Gen 6 스위치는 고성능 인터커넥트로서 서버 랙에서 GPU 간 간단하고 직접적인 연결을 가능케 해 신호 손실을 최소화하고 AI 패브릭이 요구하는 낮은 지연시간을 유지하는데 중요하다. PCIe 6.0 표준은 플로우 컨트롤 유닛(FLIT) 모드, 경량 순방향 오류 수정(FEC) 시스템, 동적 자원 할당 기능을 새롭게 도입해 특히 AI 워크로드에서 흔한 소규모 패킷의 데이터 전송의 효율성과 안정성을 대폭 향상시켰다. 그 결과 전체 처리량은 증가하고, 실효 지연은 감소한다. 스위치텍 Gen 6 PCIe 스위치는 20개의 포트와 10개의 스택을 갖추고 있으며, 각 포트는 핫플러그 및 서프라이즈 플러그 컨트롤러를 내장하고 있다. 또한 멀티 호스트 도메인을 연결하고 분리할 수 있는 논트랜스페어런트 브리징(NTB)과 단일 도메인 내 1:N 데이터 분배를 위한 멀티캐스트도 지원한다. 이 스위치는 고급 오류 격리 기능, 종합적인 진단 및 디버깅 기능, 다양한 I/O 인터페이스, 그리고 x8 및 x16 분기 옵션을 제공하는 통합 MIPS 프로세서로 설계되었다. 입출력 기준 클록은 각 스택별로 4개의 입력 클록을 사용하는 PCIe 스택 기반이다. 마이크로칩의 전체 PCIe 스위치 포트폴리오에 대한 자세한 내용은 웹사이트를 방문하면 확인할 수 있다.

2025.10.14 09:44장경윤 기자

GS칼텍스, 데이터센터용 직접액체냉각유체 출시

GS칼텍스가 액체냉각의 두 가지 방식인 액침냉각과 직접액체냉각 시장에 모두 진출하게 됐다. GS칼텍스는 데이터센터 산업 분야 에너지 효율화를 위한 직접액체냉각유체 '킥스 DLC 플루이드 PG25'를 출시했다고 14일 밝혔다. GS칼텍스가 이번에 출시한 직접액체냉각유체 '킥스 DLC 플루이드 PG25'는 인체와 환경에 미치는 영향을 최소화하기 위해 화장품 원료로 널리 사용되는 프로필렌글라이콜과 부식 방지 기능이 우수한 유기산(OAT) 첨가제를 활용해 개발했다. 직접액체냉각은 서버 내 중앙처리장치(CPU)나 그래픽처리장치(GPU) 같은 고발열 전자부품에 냉각판을 부착하고 그 안으로 직접액체냉각유체를 순환시켜 냉각하는 기술이다. 액침냉각유에 전자기기를 담가 냉각하는 액침냉각과 함께 최근 데이터센터 산업 분야에서 주목하고 있는 냉각 기술이다. 액침냉각과 직접액체냉각 모두 기존 공기 냉각보다 에너지 효율이 높다. 액체냉각 중에서는 액침냉각이 서버 전체적으로 에너지 효율이 더 높은 기술이지만, 직접액체냉각은 서버 내 발열량이 특히 높은 CPU, GPU와 같은 국소적 냉각에 보다 효과적인 특징을 가지고 있어 사용자의 목적 및 환경에 따라 선택적으로 사용할 수 있다. GS칼텍스 관계자는 “향후 직접액체냉각유체와 액침냉각유 등 액체냉각 제품을 활용하여 데이터센터를 비롯한 다양한 산업분야별 고객사들과 협력해 에너지 효율화를 위한 노력을 지속해 나가겠다“고 밝혔다. 한편, GS칼텍스는 이번 직접액체냉각유체 출시 이전에 2023년 국내 최초로 액침냉각유 '킥스 이머전 플루이드 S'를 출시한 이후, 액침냉각유 기술 개발, 제품 실증, 시장 확대를 위해 국내외 데이터센터 산업 생태계 내 기업들과 협력을 진행해왔다. 2024년에는 삼성SDS 데이터센터에, 올해는 LG유플러스 평촌 데이터센터에 액침냉각유를 공급하고 실증해왔다. 또한 미국에 본사를 둔 글로벌 서버 제조 회사 슈퍼마이크로컴퓨터와 협력해 올해 GS칼텍스 대전 기술연구소 내 액침냉각 시스템을 구축하고 AI 서버를 대상으로 열관리 성능 및 안정성 평가를 자체 진행하고 있다. 지난달에는 GS건설 및 SDT와 데이터센터 에너지 사용량 저감을 위한 액침냉각 기술 개발 및 실증을 추진하고 있다. GS칼텍스는 액침냉각유를 공급하고, 액침냉각유 활용 전주기에 걸쳐 필요한 기술 솔루션을 제공하기로 했다. GS건설은 대규모 액침냉각시스템 도입을 고려한 데이터센터 설계 기술과 사전 제작된 모듈을 현장에서 조립하는 프리패브 공법이 결합된 액침냉각형 데이터센터 설계 기술을 개발하고 실증을 진행한다. SDT는 액침냉각 시스템인 '아쿠아랙'을 공급하고, 시스템 실증 운영 및 최적화를 통해 실증 데이터를 확보하고 에너지 저감 효과를 검증할 계획이다.

2025.10.14 09:01류은주 기자

"GPU 만으론 한계...AI 데이터센터 상면 확보해야"

정부의 대규모 GPU 확보 계획이 나왔으나 데이터센터 상면이 부족할 수 있다는 지적이 제기됐다. 국회 과학기술정보방송통신위원회 소속 김우영 의원(더불어민주당)은 “GPU 만으로는 AI 경쟁력이 완성되지 않는다”며 GPU+ 데이터센터 인프라 패키지로 정책 지원을 촉구했다. 김우영 의원실에 따르면 당장 배치할 수 있는 GPU 1만3천장 가운데 1만장을 NHN, 카카오, 네이버 등 주요 클라우드사업자(CSP) 데이터센터에 순차 배치 예정이고 약 3천장은 운영비와 제반비용 등을 고려해 기업이 자체 활용할 예정이다. 다만, 수도권 집중 배치 경향과 GPU 클러스터 특성을 고려하면 향후 추가 물량은 전력, 냉각, 상면 확충 없이는 효율적 수용이 어렵다는 지적이 나온다. 의원실이 분석한 자료에 따르면 내년 목표인 약 2만장의 GPU 를 데이터센터에 설치하기 위해서는 최소 30~40MW, 2030년 목표인 5만장에는 112MW 이상의 전력이 필요하다. 최신 AI 가속기인 NVIDIA H200, B200급 GPU는 서버당 10kW 이상을 요구하며, 20~40kW 급 전력과 고효율 냉각 시스템이 필수적이다. 반면 현재 수도권 데이터센터의 대부분은 저밀도 공랭식 구조로 설계되어 20~40kW급 고밀도 전력, 고효율 냉각을 요구하는 최신 AI 서버에 적합한 'AI-Ready 상면'을 즉시 확보하기 어렵다. 이미 수도권 데이터센터의 공실률은 7% 미만으로 포화 상태이며 고밀도 전력과 고효율 냉각을 지원하는 AI-Ready 상면은 전체의 5% 미만으로 추정된다. 이에 정부는 대전 KISTI 슈퍼컴센터에 9천장 규모 GPU 설치를 추진 중이며, 비수도권 지역을 대상으로 한 국가AI컴퓨팅센터 공모도 진행 중이다. 김 의원은 “정부가 당장 연내에 확보할 1 만여 장의 GPU 는 물론 앞으로 들여올 4만장의 GPU를 '어디에, 어떻게 설치할지'에 대한 구체적인 계획과 인프라를 함께 마련해야 한다 “ 고 강조했다. 이어, “정부도 상면과 전력 문제를 인식하고 패키지 조달과 민관합작(SPC), 세액공제 , 성장펀드 등 정부가 제시한 제도적 지원을 속도감 있게 실행하고 AI-Ready 상면 표준 확보를 위한 정책적 노력을 다해야 한다”고 덧붙였다. 이와 함께 AI데이터센터진흥특별법 논의에 정부가 적극 참여하며, 단기적으로는 국내외 전문 기업들이 운영하는 고밀도 코로케이션 상면 활용 등을 통해 GPU 를 배치하는 전략도 제시됐다. 김 의원은 “AI 진짜 인프라는 반도체만이 아니라 전력, 냉각, 네트워크, 그리고 AI-Ready 상면까지 포함된다”며 “GPU 구축에 필요한 기반을 튼튼히 다져야 향후 정부의 대규모 마중물과 민간의 투자가 투입될 AI 인프라 투자가 더욱 큰 성과로 이어질 수 있다”고 말했다.

2025.10.13 08:50박수형 기자

[영상] AI 시대의 숨은 주역, 데이터센터가 주목받는 이유는?

인공지능(AI)이 일상이 되며 방대한 데이터를 실시간으로 처리하고 저장·연결하는 고성능 인프라의 중요성이 급격히 부상하고 있다. 단순한 서버 저장 공간으로 여겨졌던 데이터센터는 이제 AI 학습과 클라우드 서비스, 금융·제조 등 핵심 산업을 뒷받침하는 국가 전략 자산으로 전환되고 있다. 특히 생성형 AI와 대규모 언어 모델(LLM)의 등장은 더 많은 연산 자원과 전력, 네트워크 밀도를 요구하며 데이터센터의 존재 가치를 다시 부각시키고 있다. 장혜덕 에퀴닉스코리아 대표는 9일 인터뷰에서 "AI 시대의 본격적인 전환기 속에서 데이터센터는 기술적 허브이자 디지털 경제의 심장"이라며 글로벌 인프라 전략과 국내 시장의 역할, 지속가능성 과제에 대해 진단했다. AI·클라우드·전력·환경이라는 네 가지 화두가 맞물린 지금 데이터센터는 단순한 기술 인프라를 넘어 미래 산업을 이끄는 핵심 축으로 자리매김하고 있다는 것이 그의 설명이다. "AI가 고도화될수록 요구되는 데이터량은 기하급수적으로 증가합니다. 그만큼 인프라가 감당해야 할 부담도 자연스럽게 커질 수밖에 없습니다. 일반 기업이 이를 자체적으로 감당하는 것은 사실상 불가능에 가까운 상황이죠." 장 대표는 급격히 발전하고 있는 생성형 AI와 대규모 언어모델에 대응하기 위해, 이를 뒷받침할 수 있는 물리적·기술적 인프라의 역량 확보가 무엇보다 중요해졌다고 강조했다. 기술 진화 속도에 비해 물리 인프라 설계와 구축은 상대적으로 더딜 수밖에 없다는 점을 짚으며 데이터센터 업계 전반이 지금 구조적 전환점에 서 있다고 진단했다. 초거대 AI 모델은 수천에서 수만 개의 GPU 가속기를 병렬로 연결해 학습한다. 이 과정에서 단일 랙당 수십 킬로와트에 달하는 고밀도 전력이 요구되며, 연산 과정에서 발생하는 막대한 열을 실시간으로 제어할 수 있는 냉각 시스템도 필수적이다. 이에 따라 AI 도입을 원하는 기업들은 전통적인 자체 인프라 구축보다는, 글로벌 수준의 고성능 환경이 갖춰진 코로케이션 데이터센터를 선호하는 추세다. 이러한 기술 전환은 글로벌 빅테크 기업뿐 아니라 금융, 게임, 의료 등 다양한 산업군에도 빠르게 확산되고 있다. "AI와 클라우드는 결국 데이터센터 위에서 돌아갑니다. 그리고 연결, 보안, 속도, 전력 효율까지 책임지는 것이 바로 오늘날의 데이터센터입니다. 이제 데이터센터는 고밀도 연산 자원, 초저지연 네트워크 연결, 전력 효율, 냉각 설계까지 모두 융합된 복합 기술 플랫폼이라고 할 수 있습니다." 에퀴닉스는 이러한 철학을 바탕으로 기업 간, 클라우드 간, 국가 간 상호연결을 지원하는 글로벌 인프라 전략을 강화하고 있다. 단순한 공간 임대를 넘어, 코로케이션과 상호연결 서비스를 결합해 클라우드만으로는 해결할 수 없는 물리적 한계를 보완하고 고객이 멀티클라우드와 하이브리드 인프라를 보다 유연하게 구성할 수 있도록 지원하고 있다. 현재 전 세계 70여 개 도시에서 260개 이상의 인터내셔널 비즈니스 익스체인지(IBX) 데이터센터를 운영하며, 각 지역의 디지털 허브이자 상호연결 중심축으로서 역할을 수행 중이다. IBX는 단순한 공간 임대를 넘어, 기업과 클라우드, 통신망 사업자 간 상호연결을 실시간으로 지원하는 글로벌 인프라 교환소 기능을 한다. 고전력 GPU 서버를 수용할 수 있도록 고밀도 랙 설계를 적용하고, 장비에서 발생하는 열을 안정적으로 제어하기 위해 수냉 및 액침냉각 시스템도 도입하고 있다. 하지만 AI의 발전과 인프라의 확산은 막대한 전력 수요를 동반한다. 특히 고성능 GPU 서버는 1랙당 30~60킬로와트(kW)에 달하는 전력을 요구하며, 이에 따라 데이터센터를 둘러싼 환경 부담 논란도 커지고 있다. 일부에서는 AI의 확산이 전력난과 탄소배출을 가중시킬 것이라는 우려의 목소리도 나온다. 이에 대해 장 대표는 글로벌 데이터센터 기업들은 이러한 문제를 인식하고, 누구보다 먼저 대안을 모색하고 있다고 답했다. 한국에서도 지속가능성을 확보하기 위한 설비와 운영 전략이 본격화되고 있다. 고양 향동지구에 구축한 SL2x와 SL4 캠퍼스에는 고효율 전력 공급 설계를 비롯해 냉각 에너지 손실을 최소화할 수 있는 수냉식 인프라가 적용됐다. 기계실 내부 온도 기준을 재설정하고, 고밀도 랙 환경에서도 안정적인 전력 공급이 가능하도록 전력 분산 구조를 최적화한 것이 특징이다. 또한 글로벌 본사의 재생에너지 전력구매계약(PPA) 모델을 한국 환경에 맞춰 점진적으로 확장하는 방안도 모색 중이다. 국내 전력 구조 및 정책적 제약을 고려하면서도, 장기적으로는 클린에너지 기반의 데이터센터 운영을 위한 자체적인 로드맵을 구축하고 있다는 설명이다. 에퀴닉스는 이미 아태지역 일부 리전에서 연료전지 기반 전력 공급과 소형 모듈형 원자로(SMR) 적용을 추진하고 있으며, 향후 기술 조건과 제도적 기반이 마련될 경우 한국에서도 중장기적 전력 다변화 전략을 검토할 계획이다. 장 대표는 "에너지 전환은 기술만의 문제가 아니라, 정책과 산업 생태계 전반이 함께 풀어야 할 공동 과제입니다. 고객에게 지속가능한 디지털 인프라를 제공하는 것이 우리의 책무인 만큼, 한국에서도 실현 가능한 방식부터 하나씩 해법을 만들어가고 있습니다"고 말했다. 에퀴닉스가 강조하는 또 하나의 핵심 가치는 '연결성'이다. 장 대표는 데이터센터를 단순한 물리 공간이 아닌, 클라우드와 고객, AI 인프라를 논리적으로 연결해주는 통로라고 정의했다. 이를 통해 고객은 복잡한 네트워크 설계 없이도, 수 분 이내에 멀티클라우드 인프라를 연결하고 확장할 수 있다는 설명이다. "AI가 앞으로 얼마나 진화하든, 결국 그 기반은 연결입니다. 연결 없이는 연산도, 학습도, 서비스도 존재할 수 없습니다. 데이터센터는 이제 국경을 초월한 인프라로 더 이상 특정 산업만의 기술 설비가 아닙니다. 에퀴닉스는 이 거대한 흐름 속에서 고객이 미래로 연결될 수 있도록 최선을 다하고자 합니다."

2025.10.12 09:56남혁우 기자

美, UAE에 엔비디아 반도체 수출 승인…양국 AI 협력 가속화

엔비디아가 아랍에미리트(UAE)로 고성능 GPU를 수출할 수 있게 됐다. 미국·아랍에미리트간 AI 인프라 구축을 위한 동맹 관계가 강화된 데 따른 수혜로 풀이된다. 블룸버그통신은 미국 상무부가 지난 5월 타결된 미국·아랍에미리트 양자 AI 협정에 따라 엔비디아에 AI 반도체 수출 허가증을 발급했다고 9일(현지시간) 보도했다. 블룸버그는 사안에 정통한 소식통을 인용해 "당국은 고객사 명시를 거부했으나, 승인된 수출 건은 오라클을 포함한 미국 기업의 아랍에미리트 현지 투자 프로젝트를 위한 것"이라며 "G42와 같은 아랍에미리트 기업들에 대한 허가는 발급되지 않았다"고 설명했다. 이번 조치는 도날드 트럼프 미국 대통령 취임 이후 걸프 지역에 엔비디아 AI 반도체 판매 허가를 허가한 첫 사례다. 앞서 미국은 지난 5월 아랍에미리트와 수도 아부다비에 5GW(기가와트)급 데이터센터 건설을 위한 협약을 체결한 바 있다. 해당 프로젝트는 오픈AI를 비롯해 오라클, 시스코, 소프트뱅크, G42 등 주요 빅테크 기업들이 함께 참여한다. 아랍에미리트 역시 향후 10년간 미국에 1조4천억 달러에 달하는 거금을 투자하겠다는 계획을 세우는 등, 미국과의 AI 인프라 투자 협력을 강화하고 있다. 한편 엔디비아의 아랍에미리트향 GPU 수출 허가증이 발급되는 시기는 아직 불분명한 것으로 알려졌다. 블룸버그는 "허가 시기는 아랍에미리트의 구체적인 투자 계획이 어떻게 전개되는 지에 따라 달라질 것"이라고 밝혔다.

2025.10.10 14:46장경윤 기자

"어마어마하네"…韓서 삼성·SK와 데이터센터 짓는 오픈AI, 기업 가치 얼마길래

'챗GPT' 개발사 오픈AI가 빠른 속도로 전 세계에서 가장 가치있는 스타트업에 등극했다. 설립 10년 만에 기업 가치가 5천억 달러(약 700조원)를 훌쩍 넘어선 것이다. 3일 블룸버그통신에 따르면 오픈AI는 테슬라 창업자인 일론 머스크 최고경영자(CEO)가 설립한 우주 기업 스페이스X(4천억 달러)를 넘어 세계에서 가장 가치 있는 스타트업이 됐다. 오픈AI는 최근 직원들이 보유한 지분을 매각할 수 있도록 하는 거래를 마무리하는 과정에서 기업 가치를 5천억 달러로 평가 받았다. 올해 초 소프트뱅크가 주도한 투자 라운드 당시의 3천억 달러를 단기간에 크게 뛰어넘었다. 전·현직 직원들이 매각한 지분 규모는 약 66억 달러로, 투자사 스라이브 캐피털과 일본 소프트뱅크 그룹, 아부다비 기반 MGX, 티로 프라이스 등이 매입했다. 다만 매각한 지분 규모는 회사가 허용한 100억 달러에는 미치지 못했다. 이는 일부 직원들이 회사의 장기적 사업 지속 가능성에 신뢰를 보이고 있기 때문으로 분석됐다. 지난 2015년 비영리단체로 설립된 오픈AI는 '인류 전체에 이익이 되는 방식으로 디지털 지능을 발전시키겠다'는 목표로 출범했다. 그러나 막대한 투자에 필요한 자금 조달 등을 위해 현재 지배구조를 개편 중이다. 이 개편이 완료되면 기존 비영리 조직이 새로운 공익 법인을 지배하는 구조로 바뀌게 된다. 오픈AI는 아직 흑자를 내고 있지는 못했지만, 구글, 앤트로픽 등과 치열한 AI 경쟁을 벌이는 가운데 지난 8월 자사의 가장 강력한 모델인 GPT-5를 발표하며 AI 시장 주도권을 확고히 했다. 현재는 엔비디아 등과 함께 수조 달러를 투입해 전 세계적으로 '스타게이트' 프로젝트를 통해 데이터센터를 구축하고 AI 서비스를 개발하는 흐름도 이끌고 있다. '스타게이트'는 지난 1월 오픈AI와 미국 소프트웨어 및 클라우드 기업 오라클, 일본 투자회사 소프트뱅크가 함께 4년간 5천억 달러를 투자하기로 한 데이터센터 건설 프로젝트다. 오픈AI는 한국에서도 삼성과 SK그룹과 함께 '스타게이트' 프로젝트를 추진해 포항, 전남에 각각 데이터센터를 만들어 운영키로 했다. 알트먼 CEO는 자사 블로그를 통해 관련 소식을 전하며 "한국은 훌륭한 기술 인재와 세계적 수준의 인프라, 강력한 정부 지원, 활발한 AI 생태계 등 AI 글로벌 리더가 될 모든 요소를 갖추고 있다"고 평가했다.

2025.10.03 11:32장유미 기자

"최대 월 120만장인데"...오픈AI, 삼성·SK에 HBM용 D램 90만장 요청

글로벌 빅테크 기업 오픈AI가 삼성전자·SK하이닉스와 핵심 AI 인프라 구축을 위한 전방위적 협력 체계를 구축했다. 오픈AI의 핵심 프로젝트인 '스타게이트'에 고성능 메모리를 공급하는 것이 주 골자로, D램 및 HBM(고대역폭메모리) 수요를 강하게 촉진할 것으로 기대된다. 1일 샘 알트만 오픈AI 대표는 이재용 삼성전자 회장, 최태원 SK 회장 등과 만나 메모리 공급과 관련한 LOI(의향서)를 체결했다. 삼성·SK에 손 내민 오픈AI…K-메모리 성장동력 '기대감' 오픈AI는 미국 클라우드 기업 오라클, 일본 투자 회사 소프트뱅크와 함께 초거대 데이터센터를 건설하는 스타게이트 프로젝트를 추진하고 있다. 오는 2029년까지 약 5천억 달러(한화 약 700조원)의 거금이 투입될 예정이다. 데이터센터 구축에는 방대한 양의 데이터 처리를 위한 고성능·고효율 메모리가 필수적으로 탑재된다. 기업용 낸드인 eSSD는 물론, 서버용 D램과 HBM(고대역폭메모리) 등 제품 전반이 필요하다. 특히 HBM의 경우, 기존 D램 대비 메모리를 전송하는 통로인 대역폭이 높아 고부가 제품으로 각광받고 있다. 이에 따라 삼성전자, SK하이닉스 등 국내 주요 메모리 기업들은 중장기적 매출 성장을 위한 추가 동력을 확보하게 됐다. 삼성전자는 "회사는 스타게이트 프로젝트를 진행하고 있는 오픈AI가 고성능·저전력 메모리를 원활하게 공급받을 수 있도록 지원할 계획"이라며 "오픈AI가 메모리 솔루션 수급에 어려움을 겪지 않도록 지원할 방침"이라고 밝혔다. SK하이닉스는 "스타게이트 프로젝트에서 HBM 반도체 공급 파트너로 참여한다"며 "이번 메모리 공급 의향서 체결은 올해 상반기 기준 D램 글로벌 매출 1위인 SK하이닉스의 AI 전용 메모리반도체 기술력과 공급 역량을 인정받은 결과"라고 설명했다. D램 최대 월 90만장 요구…삼성·SK 총 생산능력 120만에 필적 업계의 이목을 끈 또 하나의 대목은 오픈AI가 요구한 D램 물량이다. 샘 알트만 오픈AI 대표는 양사와의 만남에서 월 90만장에 이르는 D램 공급량을 요구한 것으로 알려졌다. 삼성·SK 역시 각사 보도자료에 해당 물량을 명시했다. 현재 삼성전자의 전체 D램 생산능력(CAPA; 캐파)은 월 60만~65만장으로 추산된다. SK하이닉스는 월 50만장 수준이다. 이를 고려하면 오픈AI는 양사의 도합 D램 생산능력에 필적하는 수준의 물량을 요청한 셈이다. 반도체 업계 관계자는 "오픈AI가 자체 AI 가속기 등을 개발하면서 국내 메모리사에 HBM 샘플을 요청하는 등 메모리 수급에 지대한 관심을 가지고 있는 것으로 안다"며 "당장 오픈AI가 요구한 메모리 물량은 양사의 총 생산능력과 맞먹어 현실과는 괴리가 있다"며 "중장기적 관점에서 AI 인프라 구축에 상당한 메모리가 필요하다는 관점으로 보는 것이 더 적절할 것"이라고 말했다.

2025.10.01 18:47장경윤 기자

삼성, 오픈AI와 'AI 인프라' 구축…메모리·데이터센터 전방위 협력

삼성은 오픈AI와 삼성전자 서초사옥에서 글로벌 AI 핵심 인프라 구축을 위해 상호 협력하는 LOI(Letter of Intent, 의향서) 체결식을 거행했다고 1일 밝혔다. 오픈AI와 LOI를 체결한 삼성 관계사는 삼성전자, 삼성SDS, 삼성물산, 삼성중공업 등 4개사다. 삼성은 오픈AI의 전략적 파트너사로서 반도체, 데이터센터, 클라우드, 해양 기술 등 각사의 핵심 역량을 결집시켜 전방위적인 협력 체계를 구축할 예정이다. LOI 체결식에는 ▲전영현 삼성전자 부회장 ▲최성안 삼성중공업 부회장 ▲오세철 삼성물산 사장 ▲이준희 삼성SDS 사장이 참석했다. 오픈AI 고성능 D램 '월 90만장' 필요…삼성 반도체 역량 총동원 삼성전자는 스타게이트 프로젝트를 진행하고 있는 오픈AI가 고성능· 저전력 메모리를 원활하게 공급받을 수 있도록 지원할 계획이다. 스타게이트 프로젝트는 오픈AI가 글로벌 기술·투자 기업들과 함께 슈퍼컴퓨터와 데이터센터를 건설하는 대규모 프로젝트다. 삼성전자는 오픈AI의 전략적 파트너로서 오픈AI가 메모리 솔루션 수급에 어려움을 겪지 않도록 지원할 방침이다. 오픈AI는 웨이퍼 기준 월 90만 장의 대량의 고성능 D램이 필요할 것으로 전망하고 있다. 삼성전자는 ▲메모리 반도체 ▲시스템반도체 ▲파운드리 사업 역량을 모두 보유하고 있는 종합반도체 회사로, AI 학습과 추론 전 과정에 필요한 다양한 제품 포트폴리오를 갖추고 있다. 또한 패키징 기술, 메모리·시스템반도체 융복합 기술 측면에도 오픈AI에 차별화된 솔루션을 제공할 수 있다. 삼성SDS는 오픈AI와 AI 데이터센터 공동 개발, 기업용 AI 서비스 제공에 대한 파트너십을 맺었다. 삼성SDS는 첨단 데이터센터 기술을 기반으로 오픈AI 스타게이트 AI 데이터센터의 ▲설계 ▲구축 ▲운영 분야에서 협력할 예정이다. LOI를 통해 삼성SDS는 오픈AI 모델을 사내 업무시스템에 도입하길 원하는 기업들을 대상으로 ▲컨설팅 ▲구축 ▲운영 사업을 진행할 수 있게 됐다. 또한 삼성SDS는 국내 최초로 OpenAI 기업용 서비스를 판매하고 기술지원할 수 있는 리셀러 파트너십을 체결해, 향후 국내 기업들이 오픈AI 챗GPT 엔터프라이즈 서비스를 사용할 수 있도록 지원할 예정이다. 차세대 플로팅 데이터센터 분야 개발 협력 삼성물산과 삼성중공업은 글로벌 AI 데이터센터의 진보와 발전을 위해 오픈AI와 협업하고, 특히 플로팅 데이터센터 공동 개발을 위해 협력할 예정이다. 플로팅 데이터센터는 해상에 설치하는 첨단 데이터센터로, 육지에 데이터센터를 설치할 때보다 공간 제약이 적고 열 냉각 비용을 절감할 수 있으며 탄소 배출량도 감소시킬 수 있는 장점이 있다. 다만 기술적 난도가 높아 몇몇 국가에서 상용화를 위한 연구 개발이 진행되고 있는 단계다. 삼성물산과 삼성중공업은 독자 기술을 바탕으로 ▲플로팅 데이터센터 ▲부유식 발전설비 ▲관제센터 개발을 추진할 예정이다. 삼성은 오픈AI와의 협력을 시작으로 한국이 글로벌 인공지능 분야에서 3대 강국으로 도약하는 데 핵심적인 역할을 수행할 계획이다. 삼성전자는 ▲메모리 기술력 ▲글로벌 반도체업계 1위 생산능력 ▲안정적인 글로벌 생산 거점을 기반으로 OpenAI와 같은 글로벌 AI 선도 기업과의 협력을 강화할 예정이다. 또한 미래 AI 경쟁력을 제고하기 위해 ▲대규모 R&D 투자 ▲선제적 국내외 시설 투자 ▲국내외 우수인재 육성과 유치를 지속할 방침이다. 삼성SDS, 삼성물산, 삼성중공업도 AI 사업 기회를 확대해 한국이 AI 분야에서 글로벌 인공지능 3대 강국으로 도약하는 데 기여할 계획이다. 한편, 삼성은 임직원들의 기술 개발 생산성을 높이고 혁신 속도에 박차를 가하기 위해 챗GPT 사내 확대 도입도 검토하고 있다.

2025.10.01 18:42장경윤 기자

SK그룹-오픈AI, HBM·AI DC 협력...K-AI 확장 가속화

SK그룹이 오픈AI에 메모리 반도체를 공급하고, AI 데이터센터 설립·운영 등에 관한 파트너십을 맺었다. SK그룹은 이번 협력으로 스타게이트 프로젝트에 참여하며, 글로벌 AI 인프라 구축 확장에 나선다. SK그룹은 최태원 회장과 샘 올트먼 오픈AI 최고경영자(CEO) 등 양사 경영진들이 1일 서울 종로구 SK서린빌딩에서 만나 메모리 공급 의향서(LOI)와 서남권 AI DC 협력에 관한 양해각서(MOU)를 체결했다고 밝혔다. 최태원 회장은 이번 협력에 대해 “글로벌 AI 인프라 구축을 위한 스타게이트 프로젝트에 SK가 핵심 파트너로 참여하게 됐다”면서 “메모리반도체부터 데이터센터(DC)까지 아우르는 SK의 통합 AI 인프라 역량을 이번 파트너십에 집중해 글로벌 AI인프라 혁신과 대한민국의 국가 AI 경쟁력 강화에 적극 나설 것”이라고 말했다. 스타게이트 프로젝트는 오픈AI를 중심으로 대규모 글로벌 AI 데이터센터를 구축하는 사업이다. SK하이닉스, 스타게이트에 HBM 공급...생산량 2배 확대 SK하이닉스는 스타게이트 프로젝트에 고대역폭메모리(HBM) 반도체 공급 파트너로 참여한다. 이번 메모리 공급 의향서 체결은 올해 상반기 기준 D램 글로벌 매출 1위인 SK하이닉스의 AI 전용 메모리반도체 기술력과 공급 역량을 인정받은 결과다. 이에 따라 SK하이닉스는 HBM용 D램 웨이퍼 기준 월 최대 90만 장 규모의 HBM 공급 요청에 적기 대응할 수 있는 생산 체제를 구축할 예정이다. 월 90만 장은 HBM 제품 기준으로 환산했을 시 현재 D램 웨이퍼 생산량의 2배가 넘는 수준이다. 이와 함께, SK하이닉스는 이번 협력을 통해 오픈AI의 AI 가속기(GPU) 확보 전략 실현을 적극 협력할 계획이다. SKT, 오픈AI 전용 AI 데이터센터 구축...AI 혁신 테스트 베드되나 SK텔레콤은 대규모 데이터센터 구축·운영 경험을 바탕으로 오픈AI와 MOU를 체결하고, 한국 서남권에 오픈AI 전용 AI 데이터 센터를 공동 구축해 '한국형 스타게이트'를 실현한다. 양사의 협력은 AI 데이터센터를 기반으로 B2C·B2B AI 활용 사례를 발굴하고, 나아가 차세대 컴퓨팅과 데이터센터 설루션의 시범 운용까지 이어진다. SK그룹은 한국이 세계 최고 수준의 통신·전력 인프라와 반도체 기술, 그리고 풍부한 AI 수요를 바탕으로 글로벌 AI 혁신의 테스트 베드로의 역할을 할 것으로 기대하고 있다. 이번 협력으로 한국은 아시아 지역 AI 데이터센터 허브로 자리매김하고, 지속가능한 협력을 이끌어내는 기반이 될 것으로 보인다. 또한, SK그룹이 추진 중인 'SK AI 데이터센터 울산'과 함께 동서를 연결하는 AI 벨트를 구축해 지역 균형발전에 기여하고 대한민국 전역의 AI 대전환을 가속화할 것으로 기대된다. 정부도 이번 협력을 적극 지원한다. SK그룹의 스타게이트 프로젝트 참여가 한미 간 AI 경제동맹을 공고히 하는 마중물로 기대되기 때문이다. 최태원 회장과 샘 올트먼 CEO는 2023년부터 긴밀히 협력하며 AI 인프라의 미래를 함께 설계해 온 바 있다. 양측은 AI 학습과 추론에 필요한 워크로드 폭증에 대비해 전용 반도체 개발과 인프라 구축의 필요성에 깊이 공감하며, 하드웨어 병목 없는 차세대 AI 모델 개발을 위한 새로운 메모리-컴퓨팅 아키텍처 등 혁신적 AI 인프라 공동 개발을 논의해왔다. 이번 파트너십 체결은 칩 개발부터 데이터센터 구축·운영까지 전 주기에 걸친 기술 혁신 협력의 본격적 출발점으로, 글로벌 AI 생태계에 새로운 패러다임을 제시할 것으로 기대된다. SK 관계자는 “SK는 글로벌 AI 대전환 시기를 맞아 핵심 플레이어로서 시장 참여를 확대할 수 있도록 빅테크 협력과 관련 투자를 지속적으로 강화하고. K-AI 생태계 확장에도 기여하겠다”고 말했다. 한편 SK그룹은 AI를 새로운 성장축으로 삼아 사업 포트폴리오를 혁신 중이며, 올해 8월 아마존웹서비스(AWS)와 함께 'SK AI 데이터센터 울산' 기공식을 여는 등 글로벌 빅테크와 협력을 강화하고 있다.

2025.10.01 18:42전화평 기자

코람코, 신규 대형 '가산 데이터센터' 가동…10조 투자 청사진 제시

코람코자산운용(코람코)이 새로운 대형 데이터센터 '케이스퀘어데이터센터 가산(가산 IDC)'을 가동하며 국내 대표 디지털 인프라 투자 플랫폼으로 도약하겠다는 청사진을 밝혔다. 부지 매입부터 개발·운영까지 전 과정을 독자적으로 수행한 첫 프로젝트인 만큼, 이번 성과를 발판 삼아 2032년까지 10조원 규모 데이터센터 투자와 전문 리츠 상장 등 장기 전략을 본격화할 계획이다. 코람코는 가산 IDC의 가동식을 열고 본격적인 운영에 돌입했다고 26일 밝혔다. 이번 프로젝트는 코람코가 2021년 직접 부지를 매입해 개발을 주도한 첫 데이터센터 사업으로 착수 4년여 만의 성과다. 이날 가동식에는 박형석 코람코자산운용 대표를 비롯해 현대건설·LG유플러스·키움증권 관계자 등 100여 명이 참석했다. 가산 IDC는 약 1만2천467평 규모로 지하 3층에서 지상 11층까지 총 14개 층으로 건립됐다. 건물 높이는 84.7m이며 철골철근콘크리트 구조로 시공됐다. 시설 내에는 총 2천446개의 서버랙을 수용할 수 있으며 IT 로드는 26메가와트(MW)에 달한다. 특히 층별 서버랙 수를 차등 배치하고 전력수요를 효율적으로 분산해 고밀도 환경에서의 안정적 운영을 지원한다. 시공은 현대건설이 맡아 고효율 냉방, 실시간 에너지 모니터링, 자연 냉각 프리쿨링 기술 등 최신 에너지·안전 기술을 반영했다. 데이터센터 운영은 LG유플러스가 담당해 시설의 물리적 안정성과 운영 고도화를 맡는다. 한국전력으로부터 총 40MW의 수전 용량을 확보했으며 시설 인근 대림변전소와 대방변전소에서 각각 전력을 공급받을 수 있는 이중화 체계를 갖췄다. 냉각방식도 직접 수냉 방식을 적용해 에너지 효율을 글로벌 최고 수준으로 유지할 수 있도록 설계됐다. 최근 서울은 전력 수급과 지역 규제로 인해 신규 데이터센터 공급이 극도로 제한된 상황이다. 이에 대해 코람코 측은 "가산 IDC는 서울 도심에서 보기 드문 신규 대형 데이터 인프라 자산으로, 인공지능(AI)·클라우드·빅데이터 수요가 폭발적으로 증가하는 시장에 즉각 대응할 수 있는 핵심 인프라로 자리매김할 것"이라고 밝혔다. 이어 "특히 강남·판교 IT밸리와의 뛰어난 접근성을 기반으로 글로벌 클라우드 서비스 제공자와 국내 대형 IT 기업들의 수요를 선점할 수 있을 것으로 기대된다"고 덧붙였다. 코람코는 경쟁 운용사들이 완공된 데이터센터를 매입해 운용하는 방식과 달리 부지 발굴부터 자금 조달, 설계·인허가, 시공, 자산관리, 시설 운영까지 직접 수행하는 전 과정을 내재화했다고 강조했다. 코람코는 데이터센터 전담 조직인 '데이터센터본부'를 조직해 전문 인력을 한데 모으고 1조원 규모의 데이터센터 전용 블라인드펀드도 출시한다. 향후 국내 최초 데이터센터 리츠 상장을 추진하며 투자자들에게 안정적인 투자 기회를 제공할 계획이다. 현재 코람코는 가산 IDC 외에도 수도권과 부산을 아우르는 대규모 데이터센터 개발을 동시에 추진하고 있다. 경기 안산 성곡 일원에서는 약 40MW급 대형 IDC를 글로벌 대체투자운용사 브룩필드의 자회사 DCI와 협력해 개발 중이다. 의정부 용현 산업단지에서는 연면적 약 2만5천 제곱미터(㎡) 규모의 티어 3급 대형 데이터센터를 조성하고 있다. 또 부산 사하구 장림동에서도 연면적 약 4만6천900㎡, 수전 용량 40MW 규모의 초거대급 데이터센터를 착공할 예정이다. 국내 최대 통신망 허브 도시인 부산의 입지적 장점을 활용해 글로벌 클라우드 서비스 기업 수요를 선점한다는 전략이다. 특히 데이터센터본부를 주축으로 2028년까지 약 5조원의 펀딩과 2032년까지 총 10조원 규모의 데이터센터 투자를 실현할 계획이다. 이를 통해 약 1.4기가와트(GW) 규모의 수전 용량과 1GW IT 로드를 단독 운용하는 국내 유일의 자산운용사로 자리매김한다는 목표다. 장기적으로는 데이터센터 전문 리츠 상장을 통해 투자자들에게 안정적이고 지속 가능한 수익 기회를 제공한다는 구상이다. 박형석 코람코 대표는 "가산 IDC의 본격 가동은 우리가 데이터센터 개발과 운영 전 과정에 걸쳐 독자적인 전문성을 확보했음을 입증한 성과"라며 "서울 내 희소한 신규 데이터센터 공급을 통해 국내외 투자자들에게 안정성과 차별성을 동시에 제공하고 대한민국 대표 디지털 인프라 투자 플랫폼으로 도약하겠다"고 말했다.

2025.09.26 17:41한정호 기자

韓 클라우드 시장 노리는 알리바바, 내년에 데이터센터 또 연다

알리바바 클라우드가 한국 클라우드 시장 공략을 강화하기 위해 내년 국내에 세 번째 데이터센터를 구축한다. 정확한 입지는 공개되지 않았으나 인공지능(AI)과 클라우드 수요가 급증하는 상황에서 국내 인프라 확충에 속도를 내겠다는 전략이다. 알리바바 클라우드는 26일(현지시간) 연례 기술 행사인 '압사라 컨퍼런스 2025'에서 브라질·프랑스·네덜란드 등 신규 지역 진출과 함께 한국·멕시코·일본·말레이시아·두바이에 데이터센터를 추가로 건립한다고 발표했다. 이로써 알리바바 클라우드는 전 세계 29개 지역에서 91개 가용 영역을 운영하게 된다. 알리바바 클라우드 인텔리전스 그룹 페이페이 리 글로벌 사업 총괄은 "AI는 기업 비즈니스 혁신의 기반 자체를 완전히 바꾸고 있다"며 "이번 글로벌 인프라의 전략적 확장은 혁신적 사고를 가진 고객들의 늘어나는 수요에 부응하기 위한 것"이라고 말했다. 앞서 알리바바 클라우드는 지난 6월 서울에서 열린 기자간담회에서 두 번째 데이터센터 설립을 공식화한 바 있다. 당시 윤용준 알리바바 클라우드 한국 지사장은 신규 인프라 구축을 통해 국내 고객사 확보에 속도를 내겠다는 의지를 밝혔다. 이번 제3 데이터센터 발표는 그 연장선상으로, 한국 시장을 전략적 요충지로 삼아 공격적인 투자를 이어간다는 목표다. 알리바바는 지난 2016년 한국 시장에 진출한 뒤 2022년과 올해 각각 서울에 데이터센터를 열며 국내 기업 지원을 강화해왔다. 이번 데이터센터 추가 구축 발표는 국내 생성형 AI 서비스 확산과 이에 따른 인프라 수요 급증에 대응하기 위한 포석으로 풀이된다. 현재까지 알리바바 제3 데이터센터의 구체적인 입지는 공개되지 않았으나, 업계에서는 수도권을 중심으로 한 설립 가능성에 무게가 실린다. 특히 알리바바 클라우드는 기존에 주력했던 게임 분야를 넘어 이커머스·인터넷·유통 등 다양한 산업군의 고객사 확보에도 공을 들이고 있다. 이를 위해 인력과 인프라를 지속적으로 확충하며 국내 기업들의 디지털 전환 수요에 대응해왔다. 실제 가격 경쟁력과 AI 모델 '큐원'의 기술력을 앞세워 AI 솔루션 기업 유니바, 네이버 자회사 스노우, 이커머스 라이브 스트리밍 기업 라라스테이션 등을 지원했다. 국내 데이터센터 추가 구축은 이같은 리테일·인터넷 비즈니스 산업 고객 확보를 가속하는 행보로 평가된다. 윤 지사장은 "국내 고객들이 안심하고 쓸 수 있는 컴플라이언스와 보안 체계 마련에 많은 투자를 이어왔다"며 "추가 데이터센터 설립은 한국 시장에 대한 지속적인 투자 의지이자 국내 기업들의 AI 전환을 적극 지원하기 위한 중요한 이정표"라고 강조했다.

2025.09.26 16:56한정호 기자

"AI 복잡성 해결"…에퀴닉스, 분산형 AI 인프라 공개

에퀴닉스가 인공지능(AI) 워크로드를 더 빠르게 실행하는 분산형 인프라를 내놨다. 에퀴닉스는 에이전틱 AI를 포함한 차세대 AI 혁신을 뒷받침하는 새로운 접근 방법인 분산형 AI 인프라를 AI 서밋서 26일 공개했다. 이번 발표에는 ▲분산형 AI 구축을 지원하는 AI 사용 가능한 새로운 백본 ▲신규 솔루션을 검증할 수 있는 글로벌 AI 솔루션 랩▲차세대 워크로드를 지원하는 패브릭 인텔리전스가 포함됐다. 기업이 AI 에이전트와 같은 차세대 AI 툴을 구축하고자 할 때, 기존 IT 아키텍처에 대한 재고가 필요하다. 에퀴닉스의 분산형 AI는 정적 모델에서 독립적으로 추론과 행동, 학습이 가능한 자율적 에이전틱 AI로의 진화를 비롯해 현대 지능형 시스템의 규모와 속도, 복잡성을 지원하도록 설계됐다. 기존 애플리케이션과 달리 AI는 분산되어 있으며, 학습, 추론, 데이터 독립성에 대해 상이한 인프라를 요구한다. 이러한 요구를 충족하기 위해 전세계적으로 분산되고 상호연결되며 대규모 워크로드에서도 뛰어난 성능을 보일 수 있도록 구축된 새로운 유형의 인프라가 필요하다. 에퀴닉스는 77개 시장에서 270개 넘는 데이터센터를 연결하는 완전히 프로그래밍 가능하고 AI에 최적화된 네트워크를 보유함으로써 지리적 경계를 넘어 이 같은 환경을 통합하는 독보적인 위치에 있다는 평을 받고 있다. 에퀴닉스는 이를 통해 지능형 시스템이 필요한 모든 곳에서 신뢰도 높고 안전하게 운영될 수 있도록 지원한다. 패브릭 인텔리전스는 온디맨드 글로벌 상호연결 서비스 에퀴닉스 패브릭을 강화하는 소프트웨어(SW) 계층이다. 실시간 텔레메트리 기반 가시성을 제공하고 라우팅과 세그먼테이션을 동적으로 조정해 네트워크 운영을 자동화한다. 이를 통해 기업은 수작업을 줄이고 배포 속도를 높이며 AI의 확장성과 속도에 맞춘 연결 환경을 구현할 수 있다. 패브릭 인텔리전스는 2026년 1분기 출시 예정이다. 또 에퀴닉스는 10개국 20개 지역에 '글로벌 AI 솔루션 랩'을 열어 기업이 업계 선도 AI 파트너와 협력할 수 있는 테스트 환경을 제공한다. 이 공간에서 기업은 새로운 아이디어를 빠르게 검증하고 프로덕션 수준의 AI 구축으로 이어갈 수 있다. 위험을 줄이면서 혁신적인 공동 솔루션 개발이 가능해지는 점도 핵심이다. 에퀴닉스의 AI 에코시스템은 2천개 이상의 글로벌 파트너로 구성됐으며 벤더 중립적 구조를 유지하고 있다. 기업은 이 생태계를 통해 최첨단 AI 추론 서비스를 쉽게 검색하고 활용할 수 있다. 특히 2026년 1분기 출시 예정인 '그록클라우드'를 포함한 고성능 플랫폼에 직접 접근해 맞춤형 구축 없이 빠르게 AI를 배포하고 확장할 수 있다. 이러한 인프라는 제조 분야의 예측 유지 보수, 리테일 최적화, 금융 사기 탐지 등 다양한 산업 현장에서 즉각적인 의사결정과 지연 없는 데이터 처리를 가능하게 한다. 에퀴닉스는 2026년부터 엣지와 리전 전반에서 AI 워크로드를 안정적이고 규정 준수 환경에서 운영할 수 있도록 지원할 계획이다. 존 린 에퀴닉스 최고 비즈니스 책임자(CBO)는 "AI가 점점 더 분산되고 동적으로 진화하는 상황에서 안전하고 효율적이며 대규모로 연결하는 것이 핵심 과제"라며 "우리 글로벌 플랫폼은 데이터를 사용자 가까이 이동시키고 새로운 기회를 빠르게 실현할 수 있는 무한한 연결성을 제공한다"고 말했다.

2025.09.26 15:45김미정 기자

블랙록 손잡은 '한국 AI'…업계 "실행 속도·구체적 성과 관건"

이재명 대통령이 글로벌 자본 손잡고 한국을 아시아 인공지능(AI) 수도로 키우겠다는 계획을 공식화했다. 업계에서는 이번 협력 성패가 실행 속도와 구체적 성과에 달려 있다는 평가가 나온다. 24일 IT 업계에 따르면 이 대통령은 미국 뉴욕 현지에서 래리 핑크 블랙록 회장을 비롯한 글로벌 인사들과 회동한 것으로 전해졌다. 이날 과학기술정보통신부가 블랙록과 양해각서(MOU)를 체결하며 한국 AI·재생에너지 인프라 투자 협력 기본 틀을 마련했다고 발표했다. 이번 합의는 국내 AI 인프라 조성 목표뿐 아니라 아시아·태평양 지역을 아우르는 AI 허브 구축 방안까지 포함한다. 재생에너지와 데이터센터를 통합한 하이퍼스케일 인프라 기반으로 한국을 AI 거점으로 만들기 위한 전략이다. 더불어민주당 차지호 의원은 뉴욕 프레스센터 브리핑에서 "이번 블랙록 MOU 체결 기반으로 수조 원 규모의 파일럿 투자가 추진될 것"이라고 밝혔다. 대규모 투자가 현실화되기까지는 여러 과정이 필요하지만 실행을 위한 준비가 일단 시작됐다는 설명이다. 이번 협력으로 한국의 주요 기관투자자와 산업 파트너가 참여할 수 있는 글로벌 파트너십 구조도 열렸다. 이를 위해 정부와 블랙록은 조만간 태스크포스를 결성해 공동 투자 포트폴리오 실행 계획을 논의할 예정이다. 블랙록은 전 세계 1경원이 넘는 자산을 굴리는 세계 최대 자산운용사로 알려졌다. 연기금과 국부펀드, 보험사 등 글로벌 기관투자자를 주요 고객으로 뒀다. 인프라·에너지·기술 분야 대규모 투자에도 적극 나서고 있다. 업계에서는 이번 협력을 계기로 한국이 일본이나 싱가포르와 달리 AI 산업에서 차별화를 이룰 수 있다는 전망이 나온다. 단순한 AI 소비 시장을 넘어 인프라 허브로서의 매력을 인정받았다는 평가다. 이에 업계에선 한국이 일본, 싱가포르 등 아시아 국가들과 AI 산업에서 차별화를 가질 것이란 분위기가 나오고 있다. 이번 협력을 통해 한국이 단순 AI 소비 시장이 아니라 AI 인프라 허브로서 매력을 갖췄다는 의미라는 이유에서다. 또 한국은 유럽이나 미국 정부가 반도체와 데이터센터에 대규모 보조금을 직접 투입하는 방식과 달리 글로벌 자본과 손잡는 전략을 택했다는 점에서 차별성이 있다는 분석도 제기됐다. 업계에선 이번 협력 성패가 실행 속도와 구체적 성과에 달려 있다는 분위기다. 업계 관계자는 "블랙록이 언급한 파일럿 투자가 실제 수조원 단위로 집행되고, 재생에너지 인프라와 데이터센터가 병행 추진돼야 한다"며 "한국을 AI 수도로 구현할 수 있는 유일한 방안"이라고 설명했다. 래리 핑크 블랙록 회장은 "AI과 탈탄소 전환은 반드시 함께 진행되는 것이 중요하고 이는 전 세계가 협력해야 할 문제"라며 "한국이 아시아의 AI 수도가 될 수 있도록 글로벌 자본을 연계해 적극 협력하겠다"고 밝혔다.

2025.09.24 14:53김미정 기자

오픈AI, 690조원 규모 '스타게이트' 확장…美 전역에 초대형 AI 인프라 구축

오픈AI가 미국 내 초대형 데이터센터 프로젝트 '스타게이트'를 본격 확대하며 인공지능(AI) 인프라 경쟁 주도권 강화에 박차를 가한다. 오라클과 손정의 회장이 이끄는 소프트뱅크가 동참하면서 총투자 규모는 5천억 달러(약 690조 원)에 달할 전망이다. 24일 블룸버그통신에 따르면 오픈AI·오라클·소프트뱅크는 미국 내 신규 5곳의 AI 데이터센터 부지를 확정하고 착공에 돌입했다. 이번 프로젝트는 미국 텍사스 애빌린에 마련된 첫 번째 거점 데이터센터를 시작으로 뉴멕시코, 오하이오, 텍사스 내 다른 지역, 중서부 지역까지 확장된다. 이번 추가 확장만으로 스타게이트의 계획 용량은 약 7기가와트(GW)에 이르며 올해 말까지 10GW 확보라는 당초 목표를 앞당겨 달성할 수 전망이다. 이와 함께 엔비디아는 차세대 칩 공급을 담당하며 오픈AI 지분 투자에도 나선다. 오픈AI는 올해 약 130억 달러(약 18조원)의 매출 달성을 예상하고 있으며 현금 흐름과 부채 조달을 통해 대규모 인프라 건설 비용을 충당한다는 계획이다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "AI를 뒷받침할 컴퓨팅 자원이 반드시 필요하다"며 "스타게이트를 통해 우리는 역사적인 진전을 이루고 있으며 이는 인류의 미래 혁신을 위한 초석이 될 것"이라고 강조했다. 클레이 마구이크 오라클 CEO는 "확장성과 보안성을 갖춘 우리의 AI 인프라가 오픈AI의 비즈니스 성장을 뒷받침하고 있다"며 "폭발적으로 증가하는 수요에 대응하기 위해 클라우드 인프라를 유례없는 속도로 확장하고 있다"고 말했다. 손정의 소프트뱅크 회장은 "스타게이트는 우리의 혁신적 데이터센터 설계와 에너지 전문성을 활용해 AI의 미래를 위한 확장 가능한 컴퓨팅을 제공하고 있다"며 "오픈AI·오라클과 함께 인류 발전을 이끄는 새로운 시대를 열 것"이라고 밝혔다.

2025.09.24 09:41한정호 기자

HS효성인포, 연례 컨퍼런스 개최…데이터센터 현대화·AI 인프라 전략 한자리

인공지능(AI)과 데이터 시대의 인프라 전략을 주제로 한 대규모 행사가 부산에서 열렸다. HS효성인포메이션시스템(대표 양정규)은 부산 롯데호텔 크리스탈 볼룸에서 '데이터센터 현대화 컨퍼런스 2025'를 개최했다고 23일 밝혔다. 이번 행사에서는 AI 데이터센터 최신 인프라 전략부터 프라이빗 AI 전환 가속화, 히타치 밴타라 VSP ONE 기반 데이터 혁신 전략까지 기업들이 디지털 전환 과정에서 고려해야 할 주요 주제들이 다뤄졌다. 컨퍼런스 기조에는 AI와 데이터 관리가 기업 성장의 핵심 요소로 자리 잡은 만큼 올바른 데이터 인프라 구축과 안정적 운영이 경쟁력 확보의 필수 조건이라는 메시지가 강조됐다. 행사에서는 HS효성인포메이션시스템의 주요 고객사인 넥센이 직접 발표에 나서 성공적인 U2L(Unix to Linux) 전환 경험을 공유했다. 실제 도입 과정을 바탕으로 한 발표는 AI 데이터센터 구축을 준비하는 기업들에게 구체적 가이드라인으로 주목을 받았다. 이와 함께 슈퍼마이크로컴퓨터, VM웨어 바이 브로드컴, 페르소나AI, 텐(TEN), 빔(Veeam) 등 국내외 주요 파트너사들이 참여해 클라우드 네이티브 환경 최적화, 데이터 보호 및 복원력 강화, AI 데이터센터 구축 사례 등을 발표했다. 또한 씨플랫폼, 오우션테크놀러지, 유니온바이오매트릭스 등 공식 총판사와 아콘소프트는 전시 부스와 네트워킹 세션을 통해 참가자들과 직접 소통하며 솔루션을 체험할 수 있는 기회를 제공했다. 데이터센터 현대화 컨퍼런스는 HS효성인포메이션시스템이 10여 년간 부산·경남 지역 IT 담당자들과 함께 이어온 행사다. 매년 최신 기술 트렌드와 데이터센터 혁신 전략을 공유하며 업계 관계자들의 교류와 학습의 장으로 자리매김하고 있다. 양정규 HS효성인포메이션시스템 대표는"AI와 데이터가 기업 경쟁력을 좌우하는 시대에 이번 컨퍼런스를 통해 고객들이 성공적인 디지털 전환을 위한 실질적인 전략과 인사이트를 얻길 바란다"고 말했다.

2025.09.23 16:10남혁우 기자

"새 인프라 개척"…디지털리얼티, 뉴욕에 첫 '양자-AI 데이터센터' 구축

디지털리얼티가 양자컴퓨팅과 인공지능(AI) 슈퍼컴퓨팅을 결합한 새 데이터 인프라를 구축한다. 디지털리얼티는 옥스퍼드퀀텀서킷(OQC), 엔비디아 손잡고 미국 뉴욕에 첫 '양자-AI 데이터센터'를 열었다고 23일 밝혔다. 이번 데이터센터는 디지털리얼티의 뉴욕 JFK10 시설에 구축됐다. OQC의 차세대 '제네시스' 양자컴퓨터가 설치됐으며, 엔비디아 GH200 그레이스 호퍼 슈퍼칩과 통합돼 하이브리드 워크로드를 지원한다. OQC는 이미 런던과 도쿄 데이터센터에 상용 시스템을 배치한 바 있다. 이번 뉴욕 확장은 OQC가 세계 주요 데이터 허브에서 상용 양자 시스템을 가동하는 첫 사례로 평가받고 있다. 새로운 시스템은 오류 억제에 강점을 지닌 듀얼레일 다이몬 큐비트 기술로 이뤄졌다. 이를 통해 하드웨어 부담을 줄이고 안정적인 로지컬 양자컴퓨팅 환경을 제공한다. 디지털리얼티는 자체 글로벌 플랫폼 '플랫폼디지털'에 양자 하드웨어와 엔비디아 가속 컴퓨팅을 통합할 계획이다. 향후 출시될 제네시스 제품은 엔비디아 가속 컴퓨팅을 기본 탑재해 개발자들이 양자-AI 애플리케이션을 더 쉽게 구현할 수 있도록 돕는다. 산업별 활용 가능성도 제시됐다. 금융 분야에서는 리스크 모델링과 사기 탐지에, 보안 분야에서는 물류 최적화와 시뮬레이션에, AI 분야에서는 데이터 생성과 머신러닝 가속에 기여할 것으로 전망된다. 제럴드 멀랄리 OQC 최고경영자(CEO)는 "이번 양자-AI 데이터센터는 양자가 어떻게 안전하게 실용적으로 대규모로 AI 혁명을 이끌 수 있는지를 보여준다"며 "디지털리얼티 인프라와 엔비디아 슈퍼컴퓨팅 기술을 활용해 금융과 보안 분야의 엔터프라이즈 컴퓨팅을 재정의할 것"이라고 말했다.

2025.09.23 16:03김미정 기자

엔비디아, 오픈AI 140조원 규모 투자...'AI 동맹' 체결

엔비디아가 오픈AI에 최대 1천억 달러(약 140조원)를 투자하며 대규모 인공지능(AI) 데이터센터 구축에 나선다. 세계 AI 산업을 주도하는 두 기업이 손을 잡으면서 차세대 AI 인프라 경쟁이 본격화되고 있다. 23일 블룸버그통신에 따르면 엔비디아는 오픈AI와 전략적 파트너십을 체결하고 10기가와트(GW) 규모의 데이터센터 인프라를 공동 구축하기로 했다. 이는 원전 10기에 해당하는 막대한 전력량으로, 엔비디아의 차세대 AI 칩과 네트워킹 장비가 투입된다. 투자금은 단계적으로 집행되며 첫 100억 달러(약 14조원)는 1GW 규모 컴퓨팅 파워가 배치될 때 투입될 예정이다. 이번 파트너십은 오픈AI가 마이크로소프트(MS)·오라클·소프트뱅크와 함께 진행 중인 '스타게이트' 인프라 구축 프로젝트를 보완하는 성격을 지닌다. 엔비디아의 막대한 투자와 첨단 칩 기술이 결합되면서 기존 프로젝트의 성과를 극대화하고 오픈AI의 인프라 확장 속도를 크게 앞당길 것으로 평가된다. 엔비디아는 오픈AI를 핵심 고객으로 유지하며 치열한 AI 칩 경쟁에서 우위를 강화할 수 있을 것으로 전망된다. 일각에서는 엔비디아가 이번 계약을 통해 오픈AI의 지분도 확보할 것이라는 관측도 나온다. 이 소식은 뉴욕 증시에서도 즉각 반영됐다. 엔비디아 주가는 전 거래일 대비 3% 이상 상승하며 장중 최고가를 경신했다. 시장은 이번 협력이 양사 모두에게 막대한 시너지 효과를 가져올 것으로 보고 있다. 젠슨 황 엔비디아 최고경영자(CEO)는 "10GW는 400만~500만 개 그래픽처리장치(GPU) 출력에 해당하며 이는 올해 엔비디아 전체 출하량과 맞먹고 지난해 대비 2배 수준"이라며 "오픈AI와의 이번 프로젝트는 규모 면에서 기념비적"이라고 말했다. 샘 올트먼 오픈AI CEO는 "엔비디아와 함께 구축 중인 인프라를 통해 새로운 AI 혁신을 창출하고 이를 대규모로 사람들과 기업에 제공할 것"이라고 밝혔다.

2025.09.23 11:03한정호 기자

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

더 크게보다 더 가볍게…AI 인프라 경량화 시대 부상

[현장] 지드래곤·태민 춤 완벽 재현한 로봇들…'피지컬 AI 엔터테크' 시대 성큼

전기차 대신 ESS 키우는 포드…배터리 전략 선회

"드론 비행거리 2배로"…中, 차세대 리튬-황 배터리 화제

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.