• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (281건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

11.3조원 쏜 SK하이닉스, 내년도 HBM·D램·낸드 모두 '훈풍'

올 3분기 사상 최대 분기 실적을 거둔 SK하이닉스가 내년에도 성장세를 자신했다. 메모리 산업이 AI 주도로 구조적인 '슈퍼사이클'을 맞이했고, 핵심 사업인 HBM(고대역폭메모리)도 주요 고객사와 내년 공급 협의를 성공적으로 마쳤기 때문이다. 이에 SK하이닉스는 내년 설비투자 규모를 올해 대비 확대하고, HBM과 범용 D램, 낸드 모두 차세대 제품의 생산능력 비중 확대를 추진하는 등 수요 확대에 대응하기 위한 준비에 나섰다. 29일 SK하이닉스는 3분기 실적발표를 통해 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 밝혔다. 창사 이래 최대 실적…'메모리 슈퍼사이클' 이어진다 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. 또한 분기 기준 역대 최대 실적으로, 영업이익이 창사 이래 최초로 10조원을 넘어섰다. 호실적의 주요 배경에는 AI 중심의 메모리 슈퍼사이클 효과가 있다. AI 인프라 투자에 따른 데이터센터 및 일반 서버 수요가 확대되면서, D램과 낸드 모두 수요가 빠르게 증가하는 추세다. 특히 주요 메모리 공급사들이 HBM(고대역폭메모리) 양산에 생산능력을 상당 부분 할당하면서, 범용 D램의 수급이 타이트해졌다는 분석이다. SK하이닉스는 "HBM뿐 아니라 일반 D램·낸드 생산능력도 사실상 완판 상태”라며 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 밝혔다. 메모리 사업에도 근본적인 변화가 감지된다. AI가 단순히 새로운 응용처의 창출을 넘어, 기존 제품군에도 AI 기능 추가로 수요 구조 전체를 바꾸고 있다는 설명이다. SK하이닉스는 "이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습에서 추론으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 말했다. 이에 따라 SK하이닉스는 내년 서버 세트 출하량을 전년 대비 10% 후반 증가로 예상하고 있다. 전체 D램 빗그로스(출하량 증가율)은 내년 20% 이상, 낸드 빗그로스는 10% 후반으로 매우 높은 수준을 제시했다. HBM, 내후년까지 공급 부족 전망 SK하이닉스는 이번 실적발표 컨퍼런스콜을 통해 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 내년 엔비디아향 HBM 공급 계획도 순조롭게 진행될 것으로 전망된다. SK하이닉스는 "내년도 HBM 공급 계약을 최종 확정지었고, 가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"며 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"고 밝혔다. HBM4(6세대 HBM)는 올 4분기부터 출하를 시작해, 내년 본격적인 판매 확대에 나설 계획이다. HBM4는 엔비디아가 내년 출시할 차세대 AI 가속기 '루빈'에 탑재될 예정으로, 이전 세대 대비 I/O(입출력단자) 수가 2배로 확장되는 등 성능이 대폭 향상됐다. 또한 엔비디아의 요구로 최대 동작 속도도 이전 대비 빨라진 것으로 알려졌다. SK하이닉스는 "당사는 HBM 1위 기술력으로 고객사 요구 스펙에 충족하며 대응 중"이라며 "업계에서 가장 빠르게 고객 요구에 맞춘 샘플을 제공했고, 대량 공급도 시작할 준비가 돼 있다"고 강조했다. 설비투자·차세대 메모리로 미래 수요 적극 대응 SK하이닉스는 메모리 슈퍼사이클에 대응하기 위해 내년 설비투자 규모를 올해 대비 확대할 계획이다. 최근 장비 반입을 시작한 청주 신규 팹 'M15X'의 경우, 내년부터 HBM 생산량 확대에 기여할 수 있도록 투자를 준비 중이다. 또한 올해부터 건설이 본격화된 용인 1기팹, 미국 인디애나주에 계획 중인 첨단 패키징 팹 등으로 최첨단 인프라 구축에 대한 투자가 지속될 것으로 예상된다. 범용 D램과 낸드는 신규 팹 투자 대신 선단 공정으로의 전환 투자에 집중한다. 1c(6세대 10나노급) D램은 지난해 개발 완료 후 올해 양산을 시작할 예정으로, 내년 본격적인 램프업이 진행된다. SK하이닉스는 "내년 말에는 국내 범용 D램 양산의 절반 이상을 1c D램으로 계획하고 있다"며 "최고의 성능과 원가 경쟁력을 확보한 1c 기반 LPDDR(저전력 D램), GDDR(그래픽 D램) 라인업을 구축하고 적시에 공급해 수익성을 확보할 것"이라고 밝혔다. 낸드도 기존 176단 제품에서 238단, 321단 등으로 선단 공정의 비중을 꾸준히 확대하고 있다. 특히 내년에는 321단 제품에 대해 기존 TLC(트리플레벨셀)를 넘어 QLC(쿼드러플레벨셀)로 라인업을 확장할 계획이다. 내년 말에는 회사 낸드 출하량의 절반 이상을 321단에 할당하는 것이 목표다.

2025.10.29 11:41장경윤

유영상 SKT "AI G3 위해 인프라 구축이 가장 중요"

[경주=박수형 기자] 유영상 SK텔레콤 대표는 28일 “AI 3대 강국을 위해 정부가 주도하고 기업도 열심히 하지만 제일 중요한 것은 AI 인프라를 빨리 강화하는 것”이라고 밝혔다. 유영상 사장은 경주엑스포대공원에서 열린 APEC CEO서밋 부대행사로 열린 퓨처테크포럼에서 하정우 대통령실 AI미래기획수석, 김경훈 오픈AI코리아 총괄대표 등과 담화에서 이같이 말했다. 유 사장은 “과거에 정부 주도로 통신사와 함께 브로드밴드 구축에 나섰고 4G와 모바일 시대도 정부와 통신사의 주도 아래 모바일 인프라를 만들었다”며 “이를 통해 한국은 인터넷 강국, 모바일 강국이 됐다”고 진단했다. 이어, “AI시대도 마찬가지로 인프라를 빨리 갖춰야 우리가 다른 나라에 비해 AI 경쟁에서 빨리 발전할 수 있는 승산이 있지 않을까 생각한다”고 했다. 그러면서 “인프라를 했는데 수요가 안 생긴다면 큰 문제가 되겠지만, AI 수요는 무궁무진하게 발생하고 있다는 관점에서 인프라를 먼저 갖추는 것이 무엇보다 중요하다”고 강조했다. SK의 AI 전략에 대해서는 자강과 협력이란 키워드를 제시했다. 유 사장은 “오픈AI의 투트랙 전략과도 유사한데, 자강 측면에서 쩡부가 주도하는 독자파운데이션모델 5개사에 통신사에 유일하게 선정되어 열심히 모델을 개발하고 있다”면서 “국내서는 가장 크게 시도되고 있는 것 같은데 500빌리언 사이즈로 시작해 연말 정도 되면 결과가 나올 것”이라고 설명했다. 이어, “에이닷 서비스를 3년 전부터 하고 있는데 지속적으로 크게 성공한 것은 아니지만 글로벌 진출을 위해 일본의 거점회사를 인수하는 방식의 진출을 고민하고 있다”고 말했다. 유 사장은 또 “협력 측면을 본다면 SK그룹은 모든 AI 빅테크의 퍼스트 파트너로 오픈AI도 메타도 아마존웹서비스도 우리와 힘을 모으고 있다”며 “SK그룹은 반도체, 통신, 에너지를 다 하고 있는 한국의 유일한 기업이고 기업 정서가 다른 대기업과 비교해 오픈되어 있고 협력하는 것을 좋아하는 회사”라고 평가했다. 그러면서 “인프라 측면에서 데이터센터 부분을 강조했지만 제조업의 피지컬AI나 앞으로 나올 여러 애플리케이션에 대해 빅테크와 같이 한국의 AI 에코시스템 한 단계 높이는 데 주력할 것”이라고 강조했다.

2025.10.28 16:37박수형

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호

IBM, '스파이어 엑셀러레이터' 가속기로 메인프레임 AI 시대 연다

IBM이 메인프레임과 서버 인프라에 적용 가능한 차세대 인공지능(AI) 가속기를 선보였다. 보안성과 복원력을 유지하면서도 생성형 및 에이전트 기반 AI를 효율적으로 처리할 수 있는 전용 하드웨어(HW)를 통해 기업 워크로드 성능과 확장성을 강화하겠다는 목표다. IBM은 메인프레임 시스템 'IBM z17'과 'IBM 리눅스원 5'에 적용 가능한 AI 가속기 '스파이어 엑셀러레이터'를 정식 출시한다고 28일 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계됐다. IBM은 오는 12월 초부터 파워11 서버용 제품도 추가로 선보일 예정이다. 최근 IT 환경은 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 빠르게 전환되고 있다. 기업들은 저지연 추론과 실시간 반응성을 필요로 하는 AI 모델을 기존 업무와 함께 안정적으로 처리할 수 있는 인프라를 요구하고 있다. IBM은 이러한 수요에 대응해 보안성과 운영 효율성을 동시에 확보한 AI 추론 전용 HW를 개발했다. 이번에 공개된 스파이어 엑셀러레이터는 IBM 리서치 AI HW 센터의 기술과 인프라 사업부의 개발 역량이 결합된 결과물이다. IBM 요크타운 하이츠 연구소와 올버니대학교 산하 신흥 AI 시스템 센터와의 협업을 통해 빠른 반복 개발 과정을 거치며 완성도를 높였다. 상용화된 제품은 32개의 가속 코어와 256억 개 트랜지스터를 탑재한 5나노미터 기반 시스템온칩(SoC) 형태로, 75와트 PCIe 카드에 장착된다. IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. 스파이어 엑셀러레이터를 통해 IBM 고객은 온프레미스 환경에서 빠르고 안전한 AI 추론 기능을 활용할 수 있다. 특히 IBM Z 및 리눅스원 시스템에서는 텔럼 II 프로세서와 결합해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에서 다중 AI 모델을 적용할 수 있다. 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 생성형 AI 모델을 업무에 손쉽게 통합할 수 있으며 128개 토큰 길이의 프롬프트 입력을 지원해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. IBM 인프라 사업부 배리 베이커 최고운영책임자(COO)는 "스파이어 엑셀러레이터를 통해 우리 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다"며 "고객이 AI 기반 핵심 업무를 보안성·복원력·효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다"고 말했다. IBM 반도체·하이브리드 클라우드 부문 무케시 카레 부사장은 "최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데 AI HW 리서치 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다"며 "이번 스파이어 칩의 정식 출시로 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 됐다"고 강조했다.

2025.10.28 14:46한정호

세종 부용산에 숨 쉬는 네이버의 AI 심장, '각 세종' 가보니

세종시 부용산 자락에 자리한 네이버의 두 번째 데이터센터 '각 세종'. 겉으로는 조용하지만 내부는 쉼 없이 움직이는 거대한 기술 생태계다. 인공지능(AI) 시대 핵심 인프라로 불리는 이곳을 직접 찾아가 봤다. 네이버클라우드는 지난 27일 각 세종 데이터센터에서 테크밋업을 개최하고 AI 인프라 운영 기술과 친환경 설계 시스템을 공개했다. 이날 현장에서는 AI 서비스의 핵심인 그래픽처리장치(GPU) 서버, 냉각 기술, 전력 구조, 자율주행 로봇 시스템까지 살펴볼 수 있었다. 첫 방문지는 서버 IT 창고였다. 자산 관리 구역임에도 인력의 움직임은 거의 없었다. 대신 '가로'와 '세로'로 불리는 로봇이 서버를 실어 나르며 작동 중이었다. 이 로봇들은 자산 입출고를 자동화해 사람의 개입 없이 서버를 적재하고 회수하는 역할을 한다. 매년 5천 대 이상의 서버를 교체할 수 있는 효율성을 갖췄다. 로봇은 카메라와 센서를 기반으로 서버 위치를 스스로 인식하고 높이 3m 랙에도 정확히 접근한다. 자율주행 로봇 가로는 최대 400㎏의 장비를 운반할 수 있으며 내부 동선은 네이버클라우드의 통합 로봇 관제 플랫폼 '아크' 시스템으로 관리된다. 이어진 공간은 냉각 기술의 핵심인 '나무'였다. 이는 네이버가 자체 개발한 외기 냉각 시스템으로, 자연 바람을 활용해 서버의 열을 식히는 구조다. 네이버 김예원 도슨트는 "각 세종에 적용된 나무 3세대는 계절과 기후에 따라 외기 모드를 자동 전환하는 하이브리드 시스템"이라며 "일반 냉동 방식 대비 최대 73%의 전력 효율을 달성했다"고 설명했다. 서버실에서 발생하는 열은 폐열 회수 시스템을 통해 재활용된다. 바닥 난방과 겨울철 도로 제설용 스노우멜팅 시스템에 쓰이며 센터의 에너지 순환 구조를 완성한다. 이러한 각 세종의 전력효율지수(PUE)는 1.1 수준으로, 글로벌 하이퍼스케일 센터 중에서도 최상위 등급이다. GPU 서버실에 들어서면 공기의 흐름이 달라진다. 고전력 서버에서 발생한 열은 천장을 통해 배출되고 바닥과 벽면을 따라 차가운 공기가 순환한다. 각 세종은 정전이나 장애에 대비해 전력 인입선로를 이중화했으며 무정전전원장치(UPS)와 비상 발전기를 통해 72시간 이상 자가 전력을 유지할 수 있다. 운영 효율을 높이기 위해 각 세종은 로봇 기반 자산 관리와 자율주행 셔틀 '알트비' 시스템도 도입했다. 축구장 41개 크기의 부지를 이동하며 인력과 장비를 운반하는 이 셔틀은 네이버랩스의 자율주행 기술과 네이버클라우드의 관제 시스템이 결합된 결과물이다. 센터의 중앙 제어실은 각종 수치를 실시간으로 모니터링하는 관제의 두뇌 역할을 맡고 있었다. 온습도, 전력 사용량, GPU 랙당 전력 밀도, 네트워크 트래픽이 실시간으로 표시되고 외부 사고나 트래픽 급증 상황에 즉각 대응할 수 있도록 구성됐다. 김 도슨트는 "각 세종은 국내 데이터센터 중 유일하게 네트워크망·전력·데이터 모두를 이중화한 구조"라며 "정전이나 장애가 발생해도 즉시 복구 가능한 구조로 설계됐다"고 말했다. 센터 외부의 친환경 설계도 눈에 띄었다. 옥상에는 태양광 발전 설비가, 지하에는 지열 냉난방 시스템이 적용돼 있으며 서버실에서 발생한 폐열은 다시 에너지로 순환된다. 네이버에 따르면 이 구조를 통해 연간 이산화탄소 배출량을 약 1만5천 톤 줄일 수 있고 이는 나무 225만 그루를 심는 효과와 맞먹는다. 또 각 세종은 세계적 친환경 건축 인증인 리드 플래티넘 등급을 획득했다. 세종 부용산의 단단한 화강암 지반 위에 세워진 이 건물은 규모 7의 지진에도 견디는 내진 특등급으로 설계됐다. 각 세종은 향후 증축을 통해 270메가와트(MW) 전력 수용 규모로 확장될 예정이다. 완공 시에는 세종시 전체 인구의 전력 소비량에 맞먹는 AI 인프라가 된다. 네이버클라우드 노상민 센터장은 "각 세종은 단순히 데이터를 보관하는 공간이 아니라 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼"이라며 "지속가능성과 효율, 복원력을 모두 갖춘 하이퍼스케일 인프라로 설계됐다"고 강조했다.

2025.10.28 09:03한정호

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호

'가비아 AI 플랫폼' 출시…공공·민간 클라우드 공략 박차

가비아가 공공·민간 클라우드 시장에 특화된 인공지능(AI) 플랫폼을 앞세워 사업 확장에 나선다. 가비아는 베슬AI와 손잡고 AI 모델 개발 전 과정을 통합 지원하는 '가비아 AI 플랫폼'을 공식 출시했다고 23일 밝혔다. 이번 플랫폼은 그래픽처리장치(GPU) 도입부터 모델 학습·개발·배포에 이르는 AI 프로젝트의 전체 라이프사이클을 효율적으로 관리할 수 있도록 설계됐다. 이는 지난 5월 양사가 체결한 클라우드 기반 AI 플랫폼 공동 개발 및 사업 협력을 위한 전략적 업무협약(MOU)의 후속 성과다. 가비아는 AI에 최적화된 클라우드 인프라와 기술 지원을 담당하며 베슬AI는 머신러닝 운영관리(MLOps)와 거대언어모델 운영관리(LLMOps)를 통합한 오퍼레이션 환경을 제공하는 방식으로 협력했다. 고객사는 가비아 AI 플랫폼의 자동화 파이프라인을 통해 개발 속도를 단축하고 별도의 장비 구축 없이 신속하게 AI 개발 환경을 마련할 수 있다. 모델·데이터·실험 결과를 단일 플랫폼에서 통합 관리함으로써 최대 80%의 컴퓨팅 비용을 절감해 개발 생산성이 크게 향상된다는 게 가비아 측 설명이다. 특히 가비아 클라우드는 GPU 자원을 고객별로 논리적으로 격리해 운영함으로써 공공기관 등 보안이 중요한 환경에서도 안전하게 AI 모델을 학습·추론할 수 있도록 지원한다. 가비아는 '가비아 AI 플랫폼'을 우선 공공 시장에 공개하고 검증을 거쳐 점차 민간 클라우드 시장으로 확대해 나갈 방침이다. 서비스 고도화는 물론 컨설팅, 기술검증(PoC)과 실무 교육 활동도 병행할 예정이다. 가비아 정대원 상무는 "가비아 AI 플랫폼 출시로 공공 시장에서도 AI 개발 환경과 최신 모델을 빠르고 안전하게 도입할 수 있게 됐다"며 "고객별 GPU 자원 격리 운용은 공공기관의 까다로운 보안 기준을 완벽하게 충족시키는 가비아 클라우드의 차별화된 인프라 경쟁력"이라고 강조했다. 안재만 베슬AI 대표는 "공공 시장에 클라우드를 공급하는 가비아의 인프라 위에서 대규모 AI 모델의 안정적 배포가 가능해졌다"며 "최근 공공과 엔터프라이즈 시장으로의 확장에 박차를 가하고 있는데, 국내 AI 생태계 발전에 기여할 최적의 인프라 환경을 여러 산업 분야에 걸쳐 제공할 것"이라고 밝혔다.

2025.10.23 14:25한정호

에티버스, 민아이오 총판 계약 체결...AI 데이터 인프라 공략 본격화

에티버스(ETEVERS)가 민아이오(MinIO)와 손잡고 국내 AI 데이터 인프라 시장 공략에 나선다. 에티버스는 미국 실리콘밸리 민아이오 본사에서 총판 계약을 체결했다고 23일 밝혔다. 체결식에는 에티버스 박상현 부사장과 민아이오의 공동 창업자 겸 공동 CEO인 가리마 카푸어 양사 주요 경영진이 참석해 협력 방안을 논의했다. 이번 계약으로 에티버스는 민아이오의 AI 전용 오브젝트 스토리지 솔루션 'AI스토어(AIStor)'를 국내 시장에 독점 공급한다. AI스토어는 AWS S3와 완벽히 호환되는 API를 제공하며, GPU 기반의 대규모 AI 학습 및 추론 워크로드에 최적화된 고성능 오브젝트 스토리지다. 특히 AI와 빅데이터 분석, 클라우드 네이티브 애플리케이션 등 대규모 데이터 처리 환경에서 성능과 확장성을 동시에 확보할 수 있는 것이 강점이다. 민아이오는 포춘 500대 기업의 절반 이상이 사용하는 글로벌 데이터 스토리지 솔루션으로, 수십억건의 다운로드를 기록하며 안정성을 입증했다. 최근에는 페타바이트를 넘어 엑사바이트급 데이터 처리가 가능한 소프트웨어 정의(Software-Defined) 스토리지로 주목받고 있다. 에티버스는 이번 파트너십을 통해 AI·머신러닝·클라우드 등 폭증하는 데이터 수요에 대응하고 유통망과 기술지원 역량을 결합해 시장 점유율을 확대한다는 전략이다. 기존 서버·네트워크·가상화 솔루션과 민아이오의 AI스토어 를 통합해 맞춤형 데이터 인프라 구축 컨설팅과 전문 기술 지원, 교육 서비스도 함께 제공할 예정이다. 박상현 에티버스 부사장은 "AI 기술이 기업의 경쟁력을 좌우하는 시대에 고성능 데이터 인프라의 중요성은 그 어느 때보다 크다"며 "세계 최고 수준의 오브젝트 스토리지 기업 민아이오와의 협력을 통해 국내 기업이 AI와 빅데이터 시대의 가능성을 실현할 수 있도록 지원하겠다"고 밝혔다. 가리마 카푸어 민아이오 공동 CEO는 "대한민국 IT 시장에서 높은 신뢰를 쌓아온 에티버스와 파트너가 돼 기쁘다"며 "AIStor는 기업의 데이터 활용 효율을 극대화하고 인프라의 한계를 해소하는 핵심 솔루션이다. 이번 협력을 통해 한국 기업들이 데이터 중심의 AI 혁신을 가속화할 수 있도록 적극 지원할 것"이라고 말했다.

2025.10.23 13:27남혁우

중견기업 59.1% "경쟁력 제고 위해 AI 도입 필요”…실제 도입은 18.1% 그쳐

중견기업 열 곳 가운데 여섯 곳이 기업 경쟁력을 높이는 데 인공지능(AI) 도입이 필요하다고 인식하고 있지만 실제 AI 도입은 두 곳에 그치고 있는 것으로 확인됐다. 한국중견기업연합회는 '중견기업 AI 도입 및 활용 실태 조사'에서 중견기업의 59.1%가 AI 도입이 필요하다고 응답했다고 22일 밝혔다. 제조업(59.7%)과 비제조업(57.7%) 분야 모두 AI 도입 요구가 비슷한 수준으로 나타났다. AI를 도입한 중견기업은 18.1%에 불과했지만, 이들 대부분(97.0%)은 AI가 성과 달성에 도움이 됐다고 평가했다. '의사 결정 정확도 및 속도 향상(41.2%)' '생산성 제고(38.2%)' 등을 구체적인 개선 사례로 꼽았다. 중견기업들은 AI 도입 과정에서 겪은 가장 큰 애로로 '전문 인력 부족(41.2%)'을 지목했다. '기술·인프라 부족(20.6%)' '초기 투자 비용(11.8%)' '보안 및 개인정보보호(11.8%)' 등이 뒤를 이었다. AI 도입 예정인 중견기업은 26.6%로 확인됐지만, 여전히 55.3%의 중견기업은 '높은 초기 비용(31.7%)' '투자 대비 효과 불확실성(19.2%)' '경영진의 낮은 관심도(19.2%)' '내부 전문 인력 부족(16.3%)' 등의 이유로 도입 계획을 수립하지 못한 것으로 조사됐다. 이번 조사는 지난 8월 25일부터 9월 8일까지 중견기업 188개 사를 대상으로 진행됐다. 중견기업들은 AI 도입·확산을 위해 'AI 인프라 구축(22.9%)' 'R&D 및 투자 비용 지원(21.8%)' 'AI 전문 인력 양성(21.3%)' 'AI 도입 세제 혜택 등 인센티브 제공(20.2%)' 등 정책 지원이 시급하다고 꼽았다. 이호준 중견련 상근부회장은 “정부가 혁신 경제의 국정 목표 달성을 위한 주요 전략으로 'AI 3대 강국 도약'을 천명할 만큼, AI는 미래 산업 경쟁력의 요체로서 중견기업을 비롯한 모든 기업의 지속성장을 견인할 핵심 동력”이라면서 “R&D·세제 등 일반적인 경영 지원은 물론, AI 관련 분야 전문 인력 양성, 여타 분야의 AI 인프라 구축 등 구체적인 산업별 정책 수요에 세심히 대응하는, AI 도입에 대한 현장의 의지를 빠르게 현실화할 수 있는 종합적인 지원 체계가 구축될 수 있도록 최선을 다할 것”이라고 강조했다.

2025.10.22 18:34주문정

'삼수' 국가AI컴퓨팅센터…삼성SDS 컨소, 전남 솔라시도 입지로 참여

국가 인공지능(AI) 인프라 구축을 위한 정부의 핵심 사업 '국가AI컴퓨팅센터'가 세 번의 공모 끝에 본격 궤도에 올랐다. 과학기술정보통신부는 AI 고속도로의 핵심 인프라인 국가AI컴퓨팅센터 구축 사업 공모가 21일 오후 5시부로 종료됐다고 밝혔다. 이번 사업 공모에는 삼성SDS 컨소시엄이 가칭 '전남 해남 솔라시도 데이터센터 파크'를 입지로 선정해 참여했다. 이에 따라 정부는 이달 1단계 기술·정책평가에서 공모신청자 및 사업참여계획서의 적격성 등을 평가하고 오는 11~12월 2단계 금융심사 등을 통해 국가AI컴퓨팅센터 구축 사업 민간참여자 연내 확정을 목표로 추진한다. 이후 민·관 합작 특수목적법인(SPC)을 설립해 국가AI컴퓨팅센터 구축 사업에 본격적으로 착수한다. 국가AI컴퓨팅센터는 2028년까지 첨단 그래픽처리장치(GPU) 1만5천장 이상을 확보해 구축할 계획이다. 다만 입지·요금·일정 등의 구체적인 사업 계획과 국내 산·학·연에 대한 첨단 GPU 지원, 국산 AI 반도체 도입 활성화, 글로벌 기업 협력 등 정책 목표 달성 방안은 향후 확정된 민간참여자가 제시한 사업참여계획서를 바탕으로 구체화할 계획이다. 과기정통부는 "이번 사업을 통해 AI 인프라에 대한 민간 투자가 촉진되고 세계적 수준의 AI 연구 개발 및 서비스 환경이 조성될 것으로 기대한다"며 "이를 바탕으로 국내 AI 컴퓨팅 생태계를 육성하며 대한민국이 AI 3대 국가로 도약할 수 있도록 뒷받침할 계획"이라고 밝혔다.

2025.10.21 18:48한정호

국가AI컴퓨팅센터 3차 공모, 삼성SDS 컨소시엄 단독 응찰

삼성SDS가 '국가인공지능(AI)컴퓨팅센터' 3차 공모에 단독으로 사업 제안서를 제출한 것으로 확인됐다. 두 차례 유찰 끝에 다시 추진된 이번 공모는 삼성SDS가 주도하는 단독 경쟁 구도로 마감됐다. 21일 과학기술정보통신부가 국가AI컴퓨팅센터 3차 공모 신청 접수를 마감한 결과, 삼성SDS가 단독으로 사업 제안서를 제출한 것으로 확인됐다. 앞서 SK텔레콤·LG유플러스·LG CNS 등 유력 기업들의 참여도 거론됐지만 실제 접수에는 포함되지 않은 것으로 알려졌다. 과기정통부는 별도의 평가위원회를 구성해 기술·정책·금융 등 적격성 심사에 곧 착수할 계획이다. 삼성SDS는 이번 공모에 참여 의사를 공식화했지만 컨소시엄 세부 구성과 사업 제안 내용, 입지 후보지 등에 대해서는 밝히지 않았다. 과기정통부 역시 사업자별 제출 현황과 세부 내용은 공식 심사 절차 이후 공개할 예정인 것으로 알려졌다. 업계에선 삼성SDS가 네이버클라우드·KT·카카오 등 주요 클라우드 서비스 사업자(CSP)와 연합한 것으로 알려졌다. 정부가 복수 CSP 컨소시엄에 가점을 부여하는 구조를 적용했기 때문이다. 국가AI컴퓨팅센터 사업은 정부와 민간이 공동으로 특수목적법인(SPC)을 설립해 대규모 그래픽처리장치(GPU) 인프라를 확보하고 산업계·학계·스타트업에 연산 자원을 제공하는 대형 공공 인프라 프로젝트다. 총 사업비는 약 2조5천억원 규모로, 정부가 800억원을 출자하고 민간과 정책금융기관이 나머지를 분담한다. 앞서 두 차례 공모는 공공 지분 비율(51%)과 매수청구권, 국산 AI 반도체(NPU) 의무 장착 조항 등으로 인해 유찰됐다. 이에 정부는 공공 지분을 30% 미만으로 낮추고 매수청구권과 국산화 의무를 폐지했다. 또 복수 CSP가 참여한 컨소시엄을 우대하고 단독 입찰이어도 적격 심사 절차를 거쳐 추진할 수 있도록 조건을 완화했다. 정부는 이번 사업을 통해 2028년까지 GPU 1만5천장을 확보하고 2030년까지 5만장 이상으로 확충할 계획이다. 센터는 연구기관과 스타트업이 저비용으로 대규모 AI 학습·서비스 개발을 수행할 수 있도록 지원하는 것을 목표로 한다. 센터 부지 선정과 관련해서는 아직 확정된 바가 없다. 다만 업계에선 전남 해남 솔라시도가 유력 후보지로 꼽힌다. 전남도는 대규모 부지와 안정적인 전력 인프라, 친환경 전원 조달 여건 등을 갖춘 점에서 우위를 점하고 있다는 평가다. 광주·포항·천안 등 복수의 지자체도 유치 의사를 밝힌 만큼 제안서 제출 이후 평가 단계에서 입지가 최종 확정될 전망이다. 과기정통부는 이르면 이번 주 내 기술·정책 평가 절차를 시작해 연내 우선협상대상자를 선정할 예정이다. 이후 산업은행·기업은행의 금융심사를 거쳐 내년 상반기 특수목적법인(SPC) 설립과 자본금 출자를 마무리하고 내년 착공·2028년 서비스 개시를 목표로 하고 있다. 삼성SDS 관계자는 "국가AI컴퓨팅센터 공모에 사업계획서를 제출했다"며 "컨소시엄 구성이나 입지 등 세부 내용은 공유할 수 있는 단계가 아니다"라고 말했다.

2025.10.21 17:51한정호

리벨리온-Arm, 차세대 AI인프라 솔루션 협력 강화

AI반도체 스타트업 리벨리온이 미국 캘리포니아 산호세에서 열린 개방형 데이터센터 기술 컨퍼런스인 'OCP 글로벌 서밋 2025'에서 'Arm 토탈 디자인(ATD)' 파트너로 공식 합류했다고 20일 밝혔다. 이는 지난 9월 시리즈 C 투자 라운드에서 Arm의 전략적 투자를 유치한 데 이어, 양사가 차세대 AI 인프라 개발과 상용화 협력을 한층 강화하는 행보다. ATD는 '네오버스 CSS' 기반 맞춤형 시스템 개발을 가속화하기 위해 구성된 글로벌 협력 생태계다. 리벨리온은 AI반도체 스타트업으로는 최초로 ATD 파트너로 합류해, 우수한 연상 성능과 에너지 효율성을 갖춘 AI데이터센터 수요에 함께 대응한다. 네오버스 CSS는 Arm의 칩 설계 인프라 개발을 위한 플랫폼이다. 리벨리온은 최근 공개한 리벨쿼드(REBEL-Quad)로 칩렛 기반 AI 반도체 설계 역량을 입증했으며, 이를 토대로 리벨 아키텍처 중심의 제품 로드맵을 확대하고 있다. 이러한 기술력을 기반으로 Arm과 협력해 ATD 생태계에서 고성능·저전력 AI 반도체를 차세대 AI 데이터센터 인프라에 적용할 계획이다. 이 과정에서 Arm의 네오버스 CSS는 리벨리온의 AI 반도체와 자연스럽게 통합되어, 확장성과 에너지 효율을 갖춘 인프라 구현을 뒷받침한다. 이번 협력은 단순한 기술 제휴를 넘어 양사의 전략적 파트너십으로 이어지고 있다. Arm은 리벨리온의 시리즈 C 투자에 참여하며 협력 관계를 한층 강화했고, 이를 기반으로 생성형 AI 워크로드에 최적화된 솔루션을 공동 개발한다는 계획이다. ATD 합류 역시 이러한 협력의 연장선에 있으며, 양사는 앞으로도 AI 데이터센터 분야 전반에서 긴밀한 파트너십을 지속해 나갈 예정이다. 에디 라미레즈 Arm 인프라 사업부 부사장은 “AI 연산 수요가 급격히 증가하는 가운데, 더 빠르고 효율적이며 확장가능한 인프라는 필수 조건이 되었다”며, “리벨리온의 ATD 합류를 통해 검증된 Arm 네오버스 CSS와 리벨리온의 AI반도체가 결합해, AI 인프라 혁신의 새로운 장을 열 것”이라고 말했다. 박성현 리벨리온 대표는 “이번 ATD 파트너 합류는 리벨리온이 고성능·저전력 AI 반도체 솔루션을 차세대 인프라 수요에 맞춰 확장할 수 있는 중요한 계기”라며, “앞으로 출시될 리벨 시리즈에도 Arm의 검증된 네오버스(Neoverse) CSS를 적용해, 대규모 데이터센터에 최적화된 솔루션을 제공하고 고객이 성능과 지속가능성을 모두 확보할 수 있도록 지원하겠다”고 밝혔다.

2025.10.20 10:40전화평

골드만삭스, AI 인프라 금융시장 진출…전담조직 신설

골드만삭스가 인공지능(AI) 시대의 핵심 인프라인 데이터센터를 비롯한 대규모 AI 인프라 금융시장 공략에 나선다. 글로벌 인프라 금융을 담당할 새 조직을 신설해 AI 데이터센터, 전력 공급시설, 국방 및 에너지 프로젝트까지 포괄하는 초대형 금융 딜에 집중할 계획이다. 19일 월스트리트저널(WSJ)에 따르면 골드만삭스는 글로벌 뱅킹·마켓 부문 내에 '인프라 및 실물자산 금융' 전담팀을 신설했다. 이 팀은 AI 데이터센터와 같은 차세대 인프라 프로젝트에 자금을 직접 대출하거나, 관련 부채를 매입할 투자자를 모집하는 역할을 맡는다. 최근 전 세계적으로 AI 모델 학습과 운영에 필요한 데이터센터, 전력 인프라, 그래픽처리장치(GPU) 등 고성능 연산 자원 수요가 폭발적으로 증가하면서 금융권의 자금 공급 경쟁이 치열해지고 있다. 골드만삭스의 새로운 조직은 AI 인프라 외에도 유료도로·공항 등 전통 인프라 재건 및 신흥국 개발 프로젝트, 신재생에너지 및 액화천연가스(LNG) 생산설비, 각국의 국방비 증가에 따라 늘어난 군수산업 금융까지 포괄할 예정이다. 골드만삭스는 이미 자산운용 고객을 위한 다양한 금융상품을 확충하고 있으며 새 조직을 통해 일부 대출은 자체 보유하고 나머지는 보험사나 유동화 시장을 통해 분산시킬 계획이다. 이를 통해 대체투자 및 자산관리 부문의 성장 동력을 강화한다는 목표다. WSJ은 이번 조직 개편이 골드만삭스의 대출 기반 수익 다각화 전략의 일환이라고 분석했다. 실제로 회사의 채권·통화·상품(FICC) 금융 부문 수익은 지난해 1분기 6억5천100만 달러(약 9천275억원)에서 올해 분기당 10억 달러(약 1조4천억원)를 돌파하며 급성장했다. 골드만삭스는 "새로운 인프라 금융 조직은 AI와 에너지 전환 등 글로벌 메가트렌드에 대응하기 위한 핵심 플랫폼이 될 것"이라고 말했다.

2025.10.19 12:21한정호

'국가AI컴퓨팅센터' 3차 공모 마감 임박…삼성SDS 컨소 독주할까

두 차례 유찰됐던 '국가인공지능(AI)컴퓨팅센터' 구축 사업이 오는 21일로 3차 공모 마감을 앞두고 있다. 정부가 민간 자율성을 확대하고 참여 조건을 대폭 완화한 가운데 삼성SDS를 주축으로 한 대형 컨소시엄의 참여가 유력시되며 사업 마감 직전 불이 붙었다. 19일 업계에 따르면 삼성SDS는 네이버클라우드·KT·카카오 등 주요 클라우드 서비스 사업자(CSP)와 손잡고 대형 컨소시엄을 구성해 이번 공모에 참여할 예정인 것으로 알려졌다. 정부가 복수 CSP가 참여하는 컨소시엄에 가점을 부여하겠다고 밝힌 만큼, 삼성SDS가 주도하는 대형 연합이 이번 사업의 가장 유력한 후보로 꼽힌다. 국가AI컴퓨팅센터 구축 사업은 정부와 민간이 합작해 특수목적법인(SPC)을 설립하고 그래픽처리장치(GPU) 등 첨단 AI 반도체 자원을 대규모로 확보해 산업계·학계·스타트업 등에 제공하는 국가 핵심 인프라 프로젝트다. 올해 상반기 두 차례 공모가 진행됐으나 공공 51%·민간 49% 지분 구조와 매수청구권, 국산 AI 반도체 의무 도입 조항 등 까다로운 조건 탓에 모두 유찰됐다. 이에 정부는 이번 3차 공모에서 공공 지분을 30% 미만으로 줄이고 민간 지분을 70% 이상으로 확대, 민간 중심의 경영 자율성을 보장했다. 또 매수청구권과 국산 반도체 의무 조항을 삭제해 기업의 부담을 덜었다. 이에 과학기술정보통신부와 정보통신산업진흥원(NIPA)가 지난달 11일 개최한 사업설명회 현장에는 삼성SDS·LG CNS·현대오토에버·신세계아이앤씨·SK텔레콤·KT·LG유플러스 등 주요 IT서비스 및 통신사, 그리고 네이버클라우드·KT클라우드·NHN클라우드·카카오엔터프라이즈 등 클라우드 기업 관계자들이 대거 참석했다. 이 외에도 쿠팡, 삼성물산, 광주·울산·전남·경남·포항 등 지자체 관계자들도 참여해 높은 관심을 보였다. 삼성SDS가 주도하는 대형 컨소시엄에는 네이버·카카오·KT 등 국내 주요 CSP가 모두 참여할 것으로 알려졌다. 이로 인해 경쟁 구도가 사실상 삼성SDS 진영으로 쏠리는 분위기다. 업계 일각에선 SK텔레콤이나 LG CNS 등 일부 기업이 독자 참여를 검토했으나, 대형 컨소시엄의 위상에 밀려 참여를 보류할 가능성도 제기된다. 정부는 오는 21일까지 사업계획서를 접수받은 뒤 기술·정책 평가와 금융심사를 거쳐 연내 우선협상대상자를 선정할 계획이다. 내년 상반기에는 SPC 설립과 자본금 출자를 마무리하고 본격적인 인프라 구축에 들어간다. 특히 이번 공모는 단일 컨소시엄만 참여해도 유찰 없이 진행될 수 있어 세 번째 도전에서는 성과가 나올 것이란 기대가 커지고 있다. 업계 관계자는 "정부가 민간 중심 구조로 방향을 바꾼 만큼 이번에는 실질적인 경쟁이 이뤄질 가능성이 높다"며 "삼성SDS를 중심으로 한 초대형 컨소시엄이 등장한 만큼 국가AI컴퓨팅센터 사업이 세 번째 도전에선 결실을 맺을지 주목된다"고 말했다.

2025.10.19 10:03한정호

[AI는 지금] 300억 달러 조달한 메타, 데이터센터 투자에 빚 부담 덜어낸 비결은?

글로벌 인공지능(AI) 시장 내 패권 잡기에 속도를 높이고 있는 마크 저커버그 메타 최고경영자(CEO)가 초대형 데이터센터 '하이페리온' 프로젝트를 위해 대규모 자금 유치에 성공했다. AI 경쟁이 연산력 중심으로 재편되는 상황에서 자본 효율성과 기술 주권을 동시에 잡는 전략을 취해 업계의 주목을 받고 있다. 17일 블룸버그통신에 따르면 메타는 미국 루이지애나주에 짓고 있는 '하이페리온' 데이터센터 부지 개발을 위해 300억 달러(약 41조원) 규모의 자금조달에 성공했다. 이는 민간 자본이 참여한 사상 최대 규모의 데이터 인프라투자로 평가된다. 이를 위해 앞서 미국 투자은행 모건스탠리는 270억 달러 부채와 25억 달러 지분을 묶어 특수목적법인(SPV)을 설립했다. 사모펀드 블루아울캐피털·핌코(PIMCO) 등 금융기관도 자금조달 파트너로 뛰어들었다. 이번 거래에서 메타는 블루아울캐피털과 하이페리온 부지를 공동 소유하되 20%의 지분만 유지키로 합의했다. 또 SPV 구조에 따라 메타가 직접 차입을 하지 않았다는 점에서 자금 부담도 다소 덜었다. 직접 돈을 빌리기보다 SPV가 자금을 차입하고 메타는 개발자·운영자·임차인 역할만 담당하는 식이다. 다만 일정 부분 자산 가치 보증 조건은 포함된 것으로 알려졌다.이로써 메타는 신용등급(AA-)을 유지하면서도 대규모 AI 인프라 투자를 이어갈 수 있는 구조를 확보했다. 또 외부 파트너와의 공동 개발로 기술 기업과 투자자들은 윈윈(win-win) 효과를 얻을 것으로 보인다. 블룸버그통신은 "AI와 데이터 수요 증가로 인해 대규모 차입은 점점 늘어나고 있는 추세"라며 "이번 일은 대형 테크기업들이 신용등급을 해치지 않으면서도 초대형 데이터센터를 개발할 수 있는 새로운 자금 조달 모델로 주목받고 있다"고 말했다. 실제 올해 9월 말까지 미국 채권시장에서 테크 기업들이 조달한 금액은 약 1천570억 달러로, 전년 동기 대비 70%나 증가했다. 메타는 전 세계에 29개 데이터센터 설립 및 운영 중으로, 올해만 AI 관련 인프라 프로젝트 등에 최대 720억 달러(약 102조원)의 자본을 지출할 예정이어서 부담이 큰 상태였다. 다른 빅테크들도 자금 부담을 덜기 위해 다양한 방안을 마련 중이다. 실제 오픈AI는 미국 내 데이터센터 구축을 위해 오라클과 수십억 달러 규모의 컴퓨팅 파워 공급 계약을 맺고 5년 단위의 확장 계획을 세우고 있다. 세계 최대자산운용사 블랙록과 엔비디아·마이크로소프트(MS)·xAI 등은 'AI 인프라 파트너십(AIP)'이라는 투자 컨소시엄을 꾸리고, 데이터센터 설계·운영사인 '얼라인드 데이터 센터'를 400억 달러(약 56조원)에 인수하기로 합의했다. 업계 관계자는 "AI 데이터센터 투자는 규모가 워낙 크기 때문에 기업들이 자금 확보에 대해 고민이 많다"며 "이번 일을 계기로 기업들이 재무제표에 직접 부채를 올리지 않고 자산을 분리하는 구조가 확산될 것"이라고 전망했다. 메타는 하이페리온 데이터센터를 통해 외부 클라우드 의존도도 낮출 것으로 기대하는 눈치다. 오는 2029년 완공되는 하이페리온 데이터센터는 메타가 전 세계에 보유한 약 25개 데이터센터 가운데 최대 규모다. 총 400만 제곱피트(약 37만㎡) 부지에 들어서며 완공 시 최대 5기가와트(GW)의 전력을 소모할 예정이다. 이는 미국 가정 400만 가구의 전력 사용량에 해당한다. 업계 관계자는 "이 시설은 메타의 AI 모델 학습·추론용 핵심 연산 허브가 될 것"이라며 "엔비디아 H100·B100급 그래픽처리장치(GPU) 수십만 개를 동시에 구동할 수 있는 규모로, 메타가 아마존웹서비스(AWS)나 MS 애저(Azure) 같은 외부 클라우드 의존도를 낮추고 자체 AI 인프라 비중을 높이려는 시도로 보인다"고 분석했다. 이어 "이는 곧 'AI 컴퓨트 주권' 확보로 이어질 것"이라며 "AI 모델의 크기가 급증하고 전력 수요가 폭증하는 상황에서 자체 인프라를 보유한 기업만이 지속 가능한 AI 경쟁력을 확보할 수 있기 때문"이라고 덧붙였다. 또 다른 관계자는 "AI 시장의 경쟁력은 더 이상 데이터나 알고리즘이 아닌 연산력·전력·자본 구조의 효율성으로 이동하고 있다"며 "메타의 이번 거래는 그 전환을 대표하는 사례"라고 봤다.

2025.10.17 17:35장유미

엔비디아 지원받는 美 스타트업, 에너지 자급형 AI 데이터센터 착공

엔비디아의 지원을 받는 풀사이드가 코어위브와 함께 미국 텍사스 서부에 초대형 데이터센터 단지를 짓는다. 전력 생산부터 인공지능(AI) 컴퓨팅까지 모두 자체적으로 해결하는 자급형 AI 허브를 구축한다는 목표다. 17일 월스트리트저널(WSJ)에 따르면 풀사이드와 코어위브는 텍사스 서부 유전지대의 대규모 목장 부지에 '호라이즌 프로젝트'를 추진한다. 부지 규모는 뉴욕 센트럴파크의 3분의 2에 달하는 약 200만 제곱미터(㎡)로, 축구장 300개 크기와 맞먹는다. 이 지역은 미국 내 최대 셰일가스 생산지인 퍼미언 분지 중심부로, 양사는 인근에서 생산되는 천연가스를 직접 활용해 데이터센터의 전력을 자체 공급하는 방식을 채택했다. 이번 프로젝트를 통해 풀사이드는 12월부터 코어위브가 제공하는 엔비디아 AI 컴퓨팅 리소스를 활용할 계획이다. 장기적으로는 최대 2기가와트(GW) 규모의 데이터센터를 함께 구축한다. 풀사이드는 현재 기업가치 140억 달러(약 19조원)를 목표로 20억 달러(약 2조8천억원) 규모의 투자 유치를 진행 중이다. 지난해에는 5억 달러(약 7천억원)를 조달하며 엔비디아가 전략적 투자자로 참여했다. 코어위브는 이번 프로젝트의 주요 입주사이자 핵심 고객으로 참여한다. 1단계로 250메가와트(MW) 규모의 데이터센터를 구축해 내년 말 완공을 목표로 하고 있으며 이후 500MW 규모로 확장하는 2단계 계획도 검토 중이다. 풀사이드는 코어위브와 함께 AI 컴퓨팅 인프라의 신속한 구축을 목표로 호라이즌 프로젝트에 박차를 가할 계획이다. 아이소 칸트 풀사이드 공동창업자는 "AI 인프라 경쟁의 핵심은 전력 규모가 아니라 얼마나 빠르게 실제 데이터센터를 지을 수 있느냐에 달려 있다"며 "우리 산업이 직면한 진짜 병목은 물리적 건설 속도"라고 말했다.

2025.10.17 14:54한정호

오라클 카란 바타 부사장 "AI 인프라 경쟁, 속도보다 유연성이 핵심"

[라스베이거스(미국)=남혁우 기자] "고객에게 필요한 것은 특정 칩이나 속도보다 원하는 기술을 자유롭게 선택할 수 있는 유연성이다." 오라클 카란 바타 오라클 클라우드 인프라(OCI) 제품 부사장은 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드'에서 이같이 말하며 고객이 다양한 기술을 선택해 활용할 수 있는 개방형 인프라 전략이 오라클의 핵심 경쟁력이라고 강조했다. 카란 바타 부사장은 "지난해 이후 OCI에 대한 글로벌 고객의 관심이 폭발적으로 늘었다"며 "스테이트 스트리트 같은 글로벌 금융기관을 중심으로 아마존웹서비스(AWS), 마이크로소프트 애저 등과 함께 오라클 클라우드를 병행하는 멀티클라우드 환경이 빠르게 확산되고 있다"고 말했다. 그는 오라클의 개방형 인프라 핵심 전략 중 하나로 '멀티클라우드 유니버설 크레딧 모델(UCM)' 제도를 대표적인 변화로 꼽았다. 바타 부사장은 "UCM은 하나의 예산으로 여러 클라우드에서 오라클 서비스를 동일한 조건으로 사용할 수 있게 해준다"며 "기업은 각 클라우드별로 예산을 미리 나누지 않고, 필요할 때마다 원하는 클라우드에서 자원을 쓸 수 있다"고 설명했다. 이어 "이는 복잡한 멀티클라우드 환경을 단일 계약으로 단순화하면서도 유연성을 확보할 수 있는 구조"라고 덧붙였다. 최근 브로드컴의 VM웨어 라이선스 정책 변경으로 인해 기업들이 클라우드 이전 전략을 재검토하면서 대안에 대한 관심이 높아지고 있다. 이에 대해 바타 부사장은 "고객들은 기존 시스템을 유지하는 동시에 새로운 AI 기반 서비스를 도입하려 한다"며 "이 과정에서 기술적 종속성과 라이선스 제약 문제를 최소화하기 위해 두 환경을 분리해 운영하는 경우가 많다"고 말했다. 다만 AI 분야는 매주 새로운 모델과 하드웨어가 등장하는 빠른 시장이다. 오라클은 이러한 환경에서 고객이 특정 기술사에 묶이지 않고, 원하는 시점에 원하는 인프라를 선택할 수 있는 유연성을 핵심 가치로 보고 있다. 그는 "고객사의 요구에 대응하기 위해 OCI는 데디케이티드 리전 25를 핵심 솔루션으로 제시하고 있다"며 "이 모델은 고객 데이터센터 내부에서 GPU와 AI 워크로드를 완전한 주권형 환경으로 운영할 수 있도록 지원한다"고 설명했다. AI월드에서 공개한 데디케이티드 리전 25는 기업 자체 데이터센터 내에서 오라클 클라우드 인프라 전반을 직접 운영할 수 있도록 지원하는 소버린 클라우드 모델이다. 이를 통해 금융·공공기관 등 데이터 주권이 중요한 조직은 내부 보안 정책을 유지하면서도, 퍼블릭 클라우드 수준의 확장성과 자동화를 동시에 확보할 수 있다. 특히 3랙 규모의 규모의 소규모 인프라에서도 구축할 수 있어 도입 부담이 적다는 점이 특징이다. AI 인프라 역시 유연성 확보를 위해 특정 칩 제조사에 종속되지 않는 구조를 확보하고 있다. 바타 부사장은 "엔비디아, AMD, Arm 등 고객이 어떤 칩을 원하든 선택할 수 있도록 지원한다"며 "이를 위해 CPU, GPU, 네트워크, 광학 부품을 모듈형으로 구성해 필요에 따라 교체·확장할 수 있는 구조로 설계된 '엑셀러론' 아키텍처를 선보였다고 설명했다. 이어 "AI 시대의 경쟁력은 속도가 아니라 고객이 원하는 인프라를 자유롭게 구성할 수 있는 유연성"이라고 강조했다. 더불어 급증하는 그래픽처리장치(GPU) 수요에 대응하기 위해 오라클은 여러 데이터센터 건물에 분산된 GPU 클러스터를 하나의 시스템처럼 연결할 수 있는 '멀티플래너' 기술을 OCI를 통해 제공하고 있다. 바타 부사장은 "대규모 고객뿐 아니라 일반 기업도 이 기술을 활용해 안정적인 AI 학습 환경을 구축할 수 있다"며 "GPU뿐 아니라 전력, 냉각, 광케이블, 네트워크 등 전체 인프라를 최적화할 수 있도록 서비스를 제공하고 있다"고 말했다. 끝으로 그는 "모든 클라우드에서 오라클 데이터베이스를 배포할 수 있도록 개방형 구조와 데디케이티드 리전25를 적극적으로 선보일 계획"이라며 "오라클은 화려한 기술 경쟁보다 인프라의 본질인 성능·보안·비용 효율성에 집중할 것"이라고 강조했다.

2025.10.16 19:52남혁우

오픈AI는 왜 오라클과 '스타게이트' 함께 했나

[라스베이거스(미국)=남혁우 기자] 오픈AI가 역대 최대 규모 초대형 인공지능(AI) 인프라 구축 사업인 '스타게이트(Stargate)' 프로젝트를 하면서 오라클과 손을 잡았다. 두 회사가 손을 맞잡게 된 배경에는 초거대 AI 모델 훈련 과정에서 발생한 컴퓨팅 한계가 있었다. GPT-4 등 대규모 모델 개발 가속화으로 발생한 전력, 인프라 부족을 오라클 클라우드 인프라(OCI)를 통해 해소하며 기술적 신뢰성을 확인했기 때문이다. 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드 2025'에서 클레이 마고요크 오라클 최고경영자(CEO)는 기조강연 중 피터 호에셀레 오픈AI 부사장과 함께 스타게이트 프로젝트의 추진 배경과 협력 과정을 주제로 대담을 나눴다. 피터 호에셀레 부사장은 "1년 전 오라클을 처음 찾았을 당시 오픈AI는 새로운 모델을 훈련할 컴퓨팅 자원이 절대적으로 부족했다"며 "당시 오라클이 단기간에 200메가와트(MW)에 달하는 컴퓨팅 용량을 제공하면서 전환점을 맞이할 수 있었다"고 밝혔다. 그는 "불과 몇 년 전만 해도 5MW만으로도 대형 데이터센터로 평가받던 시절이었다"며 "200MW급 인프라를 지원할 수 있다는 것은 업계 판도를 바꾸는 수준"이라고 설명했다. 오라클은 단순한 컴퓨팅 자원 제공에 그치지 않고 보안 요건과 클러스터 설계, 전력 효율성까지 반영한 지능형 클라우드 인프라를 오픈AI와 함께 공동 설계(Co-Design)했다. 이를 통해 오픈AI는 모델 훈련용 자원을 즉시 확장할 수 있었고, 제품 출시 시 수주 단위의 지연 없이 서비스를 가동할 수 있게 됐다. 피터 부사장은 이러한 협력을 통해 오픈AI의 AI 인프라가 새로운 국면에 들어설 수 있었다고 강조했다. 그는 "AI는 이제 연구실 단계를 넘어, 전력·실리콘·네트워크·보안 등 모든 요소를 동시에 최적화하는 산업화 단계에 진입했다"고 밝혔다. 또 "기존에는 모델 훈련(training)과 추론(inference)을 분리해 운영했지만, 이제는 모델이 상시 학습하며 데이터를 실시간으로 반영하는 체계로 발전했다"며 "이런 지속 학습 구조를 유지하려면 오라클 OCI처럼 유연하고 확장성 높은 인프라가 필수적"이라고 설명했다. 오픈AI는 현재 오라클과 함께 '스타게이트(Stargate)' 프로젝트를 본격 추진 중이다. 이 프로젝트는 전 세계 주요 거점에 초거대 AI 학습용 데이터센터를 구축해 글로벌 수준의 컴퓨팅 네트워크를 완성하는 것을 목표로 한다. 피터 부사장은 스타게이트 프로젝트를 진행하는 과정에서 이미 오라클과의 협업이 가져온 성과를 확인했다고 밝혔다. 그는 "미국 텍사스주 애빌린(Abilene)에 건설된 데이터센터는 불과 11개월 만에 완공됐다"며 "이전에는 같은 규모의 센터를 짓는 데 4년 가까이 걸렸다"고 말했다. 이어 "오라클 팀이 기술적 세부 사항을 완벽히 이해하고 신속하게 대응해준 덕분에, 내부 승인과 엔지니어링 절차에 걸리는 시간을 크게 단축할 수 있었다"며 "이는 단순한 협력이 아니라, 공동 설계(Co-Design)로 운영 효율을 극대화한 결과"라고 평가했다. 오픈AI은 애빌린을 비롯해 최근 발표한 스타게이트 아르헨티나처럼 세계 각국에 데이터센터를 적극적으로 구축 중이다. 피터 부사장은 "UAE 등 여러 국가에서 인프라를 확충하고 있다"며 "각국의 보안 및 정책 요건은 오라클이 일원화해 관리하고 있다"고 말했다. 이어 "AI 산업의 글로벌 확장은 기술만으로는 불가능하며 정책·보안·규제 환경까지 함께 고려해야 한다"며 "오라클은 각국의 보안 인증과 정책 요건을 완벽히 충족하는 '원스톱 파트너' 역할을 하고 있다"고 평가했다. 클레이 마고요크 오라클 CEO는 "오픈AI와의 협력은 단순한 인프라 계약을 넘어 AI 산업의 구조적 변화를 이끄는 동반자 관계"라고 평가했다. 이어 "양사가 보여준 실행 속도와 기술 결합력은 AI 인프라 산업화의 새로운 기준이 될 것"이라며 "오라클은 앞으로도 글로벌 AI 혁신 기업과 함께 차세대 인프라 표준을 만들어가겠다"고 밝혔다

2025.10.16 04:27남혁우

틱톡, 제타바이트급 10억 이용자 트래픽 관리…"해답은 OCI"

[라스베이거스(미국)=남혁우 기자] 틱톡이 전 세계 10억 명에 달하는 이용자 트래픽을 안정적으로 처리하기 위해 오라클 클라우드 인프라(OCI)를 핵심 인프라로 채택했다. 양사는 초대형 데이터 전송과 폭증하는 글로벌 사용자 수요에 대응하기 위해 네트워크 계층까지 통합한 협력 구조를 구축했다. 이를 통해 틱톡은 제타바이트(ZB)급 스토리지와 초당 수백 테라비트 퍼 세컨드(Tbps)급 네트워크 환경을 안정적으로 운영하고 있다. 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드 2025'에서 클레이 마고요크 오라클 CEO와 첸 팡페이 바이트댄스 인프라엔지니어링 책임자가 직접 대담을 통해 대규모 트래픽 대응 전략과 양사의 협력 모델을 공개했다. 첸 팡페이 책임자는 "틱톡의 미션은 창의성을 영감하고 즐거움을 전하는 것으로 이를 실현하기 위한 글로벌 인프라의 규모는 상상을 초월한다"고 말했다. 이어 "현재 전 세계적으로 10억명 이상이 틱톡을사용하고 있으며 미국 내만 해도 1억7천만 명의 사용자가 매일 2천만 개 이상의 영상을 생성하고 있다"고 밝혔다. 틱톡은 이 같은 폭증하는 사용자 기반을 지원하기 위해 수백만 대의 서버, ZB급 스토리지, 그리고 수백 Tbps의 네트워크 용량을 운영 중이다. 특히 750만 개 이상의 미국 중소기업(SMB)이 틱톡을 마케팅과 커머스 채널로 활용하고 있어, 안정적인 인프라가 서비스 품질을 좌우하는 핵심 요소로 작용하고 있다. 틱톡과 오라클은 단순한 클라우드 파트너십을 넘어 네트워크 계층까지 공동 설계한 협력 모델을 구축했다. 첸 책임자는 "양사는 100Gbps에서 400Gbps로 전송 속도를 높이며, 인프라 성능의 한계를 함께 극복하고 있다"고 설명했다. 이 과정에서 틱톡의 월간 활성 사용자(MAU)는 2021년 이후 60% 이상 증가했다. 오라클은 이를 뒷받침하기 위해 데이터센터 간 초고속 전송 경로를 최적화하고, 트래픽 급증 구간에 대한 실시간 확장 기능을 제공하고 있다. 첸 책임자는 "오라클과의 네트워크 통합 덕분에 트래픽 폭주 상황에서도 영상 지연이나 서비스 중단이 거의 발생하지 않았다"고 말했다. 틱톡의 급격한 성장에는 쇼핑 기능과 라이브스트리밍 서비스가 큰 역할을 했다. 첸 팡페이는 "블랙프라이데이 같은 대형 쇼핑 이벤트 기간에는 트래픽이 하루 만에 2배 이상 급증한다"며 "이를 예측해 대응할 수 있도록 오라클과 함께 용량 계획(capacity planning)을 세운다"고 설명했다. 이 계획은 공급망 관리(Supply Chain Planning)와 유사한 구조로, 특정 시점에 필요한 자원을 정확히 확보하는 것을 목표로 한다. 반면, 예측이 어려운 트래픽 급변 상황에는 '지능형 부하분산 시스템(Smart Load Balancing)'이 작동한다. 이 시스템은 오라클 클라우드 인프라의 텔레메트리 데이터, 데이터센터 온도, 전력 사용량 등 실시간 환경 정보를 결합해 자원을 자동 조정함으로써 서비스 안정성을 유지한다. 첸 책임자는 "틱톡은 단순히 지연시간으로 인프라 품질을 평가하지 않는다"며 "사용자가 영상을 끝까지 시청하는지, 좋아요를 누르는지 등 행동 데이터를 기반으로 서비스 품질을 판단한다"고 말했다. 그는 또 "작은 코드 버그나 케이블 손상 같은 미세한 결함도 전체 서비스 품질을 저하시킬 수 있다"며 "이를 방지하기 위해 오라클과 공동 안정성 목표(Joint Stability Goals)를 설정하고 양사 최고경영진이 직접 협력체계를 후원하고 있다"고 밝혔다. 첸은 "문제가 발생하면 두 팀이 같은 대시보드와 화이트보드를 공유하며 실시간으로 조치한다"며 "비결은 없다. 매일 꾸준히 협력하고 문제를 함께 해결하는 것뿐"이라고 덧붙였다. 클레이 마고요크 오라클 CEO는 "틱톡 덕분에 오라클도 세계적 수준의 인프라 운영 역량을 한층 끌어올릴 수 있었다"며 파트너십에 감사를 전했다. 첸 팡페이는 "틱톡은 단순한 엔터테인먼트 앱이 아니라 수백만 명의 창작자와 중소기업이 기회를 얻는 플랫폼으로 성장했다"며 "오라클과의 협력이 그 성장을 가능하게 했다"고 말했다. 이어 "틱톡의 경제적·사회적 영향력을 담은 '임팩트 리포트'에서 보다 자세한 내용을 확인할 수 있다"며 "앞으로도 창작자, 브랜드, 사용자 모두에게 긍정적 변화를 이끄는 플랫폼으로 진화하겠다"고 덧붙였다.

2025.10.16 03:28남혁우

브로드컴, AI 네트워킹 칩 '토르 울트라' 공개

미국 반도체 기업 브로드컴이 인공지능(AI) 전용 네트워킹 칩 '토르 울트라(Thor Ultra)'를 공개하며, AI 인프라 시장을 무대로 엔비디아와의 경쟁을 한층 격화시키고 나섰다. 로이터는 AI 모델이 작동하는 데이터센터 내에서 수많은 연산 칩을 서로 연결할 수 있게 해 주는 핵심 연결장치 역할을 맡는다고 현지시간 14일 보도했다. 브로드컴 측은 이 칩이 기존 제품 대비 대역폭을 두 배 이상 강화했다고 밝혔다. 브로드컴은 이번 발표 직전인 13일 챗GPT 제작사 오픈AI에 대해 2026년 하반기부터 적용할 10GW(기가와트) 규모의 맞춤형 AI 칩을 공급하기로 한 파트너십을 발표한 바 있다. 이 계약은 AI 가속기 시장에서 엔비디아가 가진 지배력에 대한 도전으로 풀이된다. 브로드컴 최고경영자 호크 탄은 자사가 AI 관련 사업에서 겨냥하는 2027년 시장 규모로 600억~900억달러(약 85조~128조원)를 제시한 바 있다. 2024 회계연도 브로드컴의 AI 매출은 약 122억달러(17조4천167억원) 수준이었다. 또 최근에는 AI 데이터센터 맞춤형 칩 수주 규모가 100억 달러에 달하는 새 고객을 확보한 사실도 알려졌다. 네트워킹 칩은 데이터센터 운영에서 '정보의 흐름'을 관리하는 핵심 인프라 요소로, 클라우드 기업들이 대규모 AI 시스템을 구축할 때 필수적이다. 브로드컴은 구글과 협업해 AI 칩 설계에도 참여해 왔으며, 회사는 네트워킹 칩과 AI 칩이라는 두 축으로 수익을 다변화하고 있다. 브로드컴 관계자는 “분산형 클러스터 환경에서 네트워크는 대규모 연결을 가능케 하는 핵심 요소”라며 “GPU 업체가 네트워킹 분야까지 진입하려는 것은 당연한 흐름”이라고 말했다.

2025.10.15 11:26전화평

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

정부 위약금 면제 판단에...KT "해킹 보상안 조속히 발표"

배민 독주에 균열...새해 승부처는 ‘AI 효율화’

분리 매각 카드 꺼낸 홈플러스…마트는 어떻게 되나

쿠팡 사실상 '1만원' 보상...부정 여론 잠잠해질까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.