• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (235건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성SDS, 동탄 데이터센터 서관 가동 '임박'…AI 인프라 확충 속도

삼성SDS가 차세대 성장축으로 삼은 인공지능(AI) 클라우드 인프라 확충 핵심 거점인 '동탄 데이터센터' 서관 가동을 앞두고 있다. 내년 1~2월 본격 오픈과 함께 그래픽처리장치(GPU) 기반 AI 클라우드 서비스 매출이 본격 반영되며 회사의 클라우드 사업이 새로운 성장 국면에 진입할 전망이다. 4일 업계에 따르면 삼성SDS는 오는 12월 전력 인입을 완료한 뒤 내년 초 동탄 데이터센터 서관을 본격 가동할 계획이다. 서관은 20메가와트(MW) 규모로 구축돼 있으며 동탄 센터의 동관과 함께 약 2만 대의 서버로 구성된 대규모 AI 전용 인프라를 완성하게 된다. 서관 가동을 통해 삼성SDS의 GPU 및 AI 클라우드 플랫폼인 '삼성 클라우드 플랫폼(SCP)'의 운영·공급이 확대될 전망이다. 그동안 AI 학습용 서버 수요와 클라우드 기반 GPU 인프라 부족으로 제한적이던 AI 서비스 매출도 내년 1분기부터 반영될 것으로 관측된다. 삼성SDS는 AI 클라우드 사업을 중심으로 한 구조 전환에 속도를 내고 있다. 올해 3분기 실적 기준, 전체 사업 부문 가운데 클라우드 부문이 성장세를 보이며 전년 동기 대비 5.9% 증가한 매출 6천746억원을 기록했다. 특히 클라우드 서비스 제공(CSP) 부문은 2천800억원으로 18% 성장했다. 이 같은 성장세를 발판으로 삼성SDS GPU 인프라 확보는 물론 국가 AI 사업에 적극 나섰다. 회사는 정부 주도 대규모 인프라 프로젝트인 '국가AI컴퓨팅센터' 구축 사업에 컨소시엄 주관사로 참여해 총 2조5천억원 규모의 AI 인프라 구축을 이끌 예정이다. 아울러 구미 지역에도 차세대 AI 데이터센터 신설을 추진 중이다. 구미 부지는 이미 확보했으며 설계와 디자인 단계에 들어갔다. 구미 센터는 냉각 효율을 높이기 위한 수랭식 시스템과 재생에너지 사용 확대로 ESG 기준을 충족하는 고효율 인프라로 구축된다. 이호준 삼성SDS 클라우드서비스사업부장은 지난달 30일 실적발표 컨퍼런스콜에서 "동탄 데이터센터 서관은 20MW 규모로 가동 준비 막바지 단계에 있으며 12월 전력 인입 후 내년 1~2월 중 본격 오픈할 예정"이라며 "GPU 및 클라우드 사업 매출이 본격 반영될 것"이라고 밝혔다.

2025.11.04 18:17한정호

AI 팩토리가 미래 산업의 전력망...엔비디아 'NVL72'가 여는 지능 생산 시대

엔비디아가 제시한 'AI 팩토리' 개념이 단순한 데이터센터를 넘어 산업 인프라의 새로운 전력망으로 부상하고 있다. 정구형 엔비디아 코리아 솔루션스 아키텍트 팀장은 4일 서울 강남구 코엑스에서 열린 'SK AI 서밋 2025'에서 “AI 팩토리는 데이터를 투입해 학습하고, 추론하고, 다시 개선하는 지능의 생산 라인”이라며 AI가 AI를 관리하는 구조로 진화하고 있다”고 말했다. “AI 팩토리는 지능을 생산하는 공장” 정 팀장은 AI 팩토리를 “데이터를 넣으면 인사이트를 만들어내는 공장”이라고 정의했다. 그는 엔비디아가 제공하는 AI 블루프린트를 예시로 들었다. 해당 기술은 기업 개발자가 특정 사용 사례에 맞춰 맞춤형 생성형 AI 어플리케이션이나 디지털 트윈 솔루션을 신속하게 구축하고 배포할 수 있도록 설계된 포괄적인 참조 워크플로우 패키지다. 블루프린트는 오픈소스로 공개돼 있다. 정 팀장은 “개발자는 깃허브에서 그대로 클론해 자기 환경에 맞게 수정할 수 있다”고 설명했다. AI 팩토리의 심장 'NVL72' AI 팩토리의 핵심은 NV링크다. NV링크는 엔비디아가 개발한 고속 상호 연결 기술로, 서버 내 GPU 간 통신 속도를 높여 성능을 향상시킨다. 엔비디아가 제시한 NVL72는 기존 GPU 8개가 연결되던 NV링크를 72개까지 확장한 기술이다. 정 팀장은 엔비디아의 차세대 AI 인프라 시스템인 GB200 NVL72를 “에이전틱(Agentic) AI 서빙을 위한 가장 효율적이고 최적화된 플랫폼”이라고 소개했다. 이 시스템은 한 개의 그레이스 CPU와 두 개의 블랙웰 GPU로 구성된 'GB200 슈퍼칩'을 기본 단위로 한다. 각 컴퓨트 트레이에는 슈퍼칩 두 세트가 장착되고, NV링크 스위치 트레이가 네트워크 구조로 연결된다. 정 팀장은 “이전까지는 8개의 GPU가 마더보드 위에서 NV링크로 연결됐지만, NVL72는 NV링크를 외장화해 전체 72개 GPU를 하나의 NV링크 도메인으로 묶는다”며 “모든 트레이가 콘센트 꽂듯이 연결되고, NV링크 케이블이 GPU 간 병목을 없앤다”고 설명했다. 이 구조를 통해 NVL72는 GPU 간 130TB/s의 대역폭을 확보하며, FP8 기준 720 PFLOPS의 학습 성능, FP4 기준 1천440 PFLOPS의 추론 성능을 제공한다. 그는 “NVL72는 훈련용뿐 아니라 추론용으로도 완벽하게 최적화됐다”고 강조했다. 엔비디아, AI 팩토리 운영 시스템 '미션 컨트롤' 지원 NVL72는 냉각·전력·네트워크까지 미션 컨트롤이라는 운영 소프트웨어를 통해 통합 관리된다. 미션 컨트롤은 작동 중 오류가 날 경우 AI가 자동으로 오류를 바로 잡는 운영 시스템이다. 정 팀장은 “GPU가 장애가 나면 미션 컨트롤이 자동으로 복구 작업을 한다”며 “100개 중 2개가 에러라도 나머지 98개를 다시 묶어 작업을 시작한다. 장애가 나도 1분 내에 자동으로 재시작된다”고 전했다. 이 소프트웨어는 BMS(Building Management system)와 연동돼 전력 사용량·냉각 상태·하드웨어 텔레메트리를 한 화면에서 확인할 수 있다. 그는 “전력과 냉각, 센서 데이터가 미션 컨트롤과 연결되고, 그 정보는 그래파나(Grafana) 대시보드에서 한눈에 볼 수 있다”고 말했다. 국내 기업들도 'AI 팩토리' 경쟁 본격화 엔비디아의 AI 팩토리 개념은 국내 주요 그룹의 핵심 전략으로 빠르게 확산 중이다. 삼성전자는 반도체 전 공정에 AI를 접목한 'AI 메가팩토리'를 추진하며 수만 개 GPU 규모의 AI 팩토리 인프라를 구축 중이다. 현대자동차그룹은 약 30억 달러를 투자해 NVL72 기반 'AI 모빌리티 팩토리'를 설계했다. 자율주행·로보틱스·스마트팩토리를 하나의 학습·추론 시스템으로 통합한다. LG전자는 엔비디아 옴니버스 블루프린트로 디지털트윈과 로봇, AI홈을 연결하는 '피지컬 AI 팩토리'를 구현하고 있다. SK하이닉스·SK텔레콤은 반도체·통신 인프라를 묶은 그룹형 AI 팩토리 플랫폼으로 데이터센터 사업화를 추진 중이다. 정 팀장은 발표를 마치며 “AI 팩토리는 더 이상 서버실이 아니라 산업의 전력망”이라고 말했다. 그는 “AI는 이제 모델이 아니라 시스템이다. 그리고 그 시스템을 담는 공장이 바로 AI 팩토리”라며 “AI 팩토리는 전력망처럼 산업 전체를 움직이는 기반이 될 것”이라고 강조했다.

2025.11.04 17:07전화평

유클릭, 오라클 손잡고 韓 스타트업 글로벌 진출 지원

유클릭이 오라클과 협력해 인공지능(AI)·클라우드 인프라 공급에 앞장서며 국내 스타트업의 글로벌 진출 지원에 나선다. 유클릭은 오라클과 함께 투디지트의 미국 시장 진출을 지원한다고 4일 밝혔다. 이번 협력을 통해 투디지트는 오라클의 글로벌 AI·클라우드 인프라를 기반으로 자사 AI 솔루션 '나인메모스'를 상용화하고 미국 시장에서 본격적인 서비스 제공에 나설 계획이다. 투디지트는 지난해 세계 최대 오픈소스 플랫폼 허깅페이스가 운영하는 '오픈 LLM 리더보드'에서 1위를 차지(81.22점)하고 95일간 세계 1위를 유지하며 글로벌 업계의 주목을 받아왔다. 이러한 성과를 바탕으로 과학기술정보통신부와 중소벤처기업부가 주관하고 오라클 국내 파트너사인 유클릭과 굿어스데이터가 평가한 AI 스타트업 거대언어모델(LLM) 챌린지 사업에서 글로벌 시장 진출 유망 AI 스타트업으로 선정됐다. 이번 선정으로 투디지트는 유클릭과 오라클로부터 ▲상용화 기술 검증(PoC) 비용 지원 ▲LLM 개발 환경 제공 ▲공동 프로젝트 기획 등 오라클 클라우드·AI 서비스 기반의 다방면 지원을 받게 된다. 이를 통해 미국 8천여 개 상장기업을 대상으로 서비스를 확대하고 미국 내 약 1억300만 개의 개인투자자 계좌를 보유한 투자자층과 글로벌 시장에 투자하는 국내 개인 투자자들에게 맞춤형 서비스를 제공할 예정이다. 특히 사업 확장을 통해 투디지트는 자사 AI 기술과 오라클 인프라를 결합해 투자자들이 정보 수집·분석에 소요되는 시간과 비용을 획기적으로 절감할 수 있도록 지원한다는 계획이다. 투디지트 관계자는 "그동안 글로벌 1위의 기술력을 실질적 서비스로 구현하는 데 주력해 왔고 이번 나인메모스 상용화로 그간의 노력이 결실을 맺게 돼 기쁜 마음"이라며 "앞으로도 더 많은 사용자가 AI 기술을 통해 시간과 비용을 절감할 수 있도록 서비스 고도화에 최선을 다하겠다"고 말했다. 유클릭 관계자는 "오라클과의 긴밀한 협력을 통해 투디지트가 세계 시장에서도 기술력과 비즈니스 경쟁력을 입증할 수 있도록 인프라·기술·네트워크 전반에 걸친 실질적인 지원을 아끼지 않겠다"며 "앞으로도 한국 AI 기업들이 글로벌 시장에서 성장할 수 있도록 오라클과 함께 다양한 성공 사례를 만들어 나갈 것"이라고 밝혔다.

2025.11.04 15:29한정호

슈퍼마이크로, 엔비디아 '베라 루빈' 플랫폼 도입…정부용 AI 인프라 강화

슈퍼마이크로가 엔비디아와의 협력을 강화해 정부 기관의 까다로운 요구사항을 충족하도록 최적화된 첨단 인공지능(AI) 인프라 솔루션을 선보인다. 슈퍼마이크로는 내년 출시 예정인 엔비디아 베라 루빈 NVL144 및 NVL144 CPX 플랫폼 기반 솔루션을 출시할 계획이라고 4일 밝혔다. 해당 플랫폼은 이전 세대 블랙웰 울트라 대비 3배 이상 향상된 AI 어텐션 가속 성능을 제공해 복잡한 AI 학습·추론 워크로드를 효율적으로 처리할 수 있도록 지원한다. 슈퍼마이크로는 엔비디아 HGX B300·B200, GB300·GB200, RTX PRO 6000 블랙웰 서버 에디션그래픽처리장치(GPU)를 기반으로 최신 제품군을 확장 중이다. 이 솔루션들은 ▲사이버 보안 및 리스크 탐지 ▲엔지니어링·설계 ▲헬스케어·생명과학 ▲데이터 분석·융합 플랫폼 ▲모델링·시뮬레이션 ▲보안 가상 인프라 등 주요 연방 정부 워크로드를 위한 연산 성능·효율성·확장성을 제공한다. 슈퍼마이크로는 미국 내 제조 역량을 기반으로 모든 정부용 시스템을 캘리포니아 새너제이에 위치한 글로벌 본사에서 개발·구축·검증한다. 이를 통해 무역협정법과 미국산우선구매법(BAA)을 모두 준수하며 공급망 보안을 강화하고 연방 정부의 신뢰성과 품질 요건을 충족한다는 방침이다. 슈퍼마이크로는 엔비디아 베라 루빈 NVL144 및 NVL144 CPX 플랫폼 기반 솔루션과 함께 자사 제품 중 가장 컴팩트한 2OU 엔비디아 HGX B300 8-GPU 솔루션도 공개했다. 해당 솔루션은 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 기반의 OCP랙 스케일 아키텍처로, 하나의 랙당 최대 144개의 GPU를 지원한다. 이를 통해 정부의 데이터센터 내 대규모 AI 및 고성능 컴퓨터(HPC) 구축에 필요한 성능과 확장성을 제공한다. 또 슈퍼마이크로는 정부용 엔비디아 AI 팩토리 표준 설계를 지원하기 위해 AI 솔루션 제품군을 확장하고 있다. 이 표준 설계는 온프레미스와 하이브리드 클라우드 환경에서 다중 AI 워크로드를 구축·관리할 수 있도록 지원하는 엔드투엔드 풀스택 아키텍처로, 정부 기관의 보안성·신뢰성·확장성 표준을 충족하도록 설계됐다. 새롭게 확장된 제품군에는 엔비디아 GB300 기반 슈퍼 AI 스테이션과 새로운 랙 스케일 엔비디아 GB200 NVL4 HPC 솔루션이 포함된다. 찰스 리앙 슈퍼마이크로 사장 겸 최고경영자(CEO)는 "엔비디아와의 긴밀한 협력과 미국 내 제조 역량을 기반으로 미국 연방 정부가 신뢰할 수 있는 AI 구축 파트너로 자리매김하고 있다"며 "실리콘밸리의 중심지인 캘리포니아 새너제이에 본사와 제조시설, R&D 센터를 모두 두고 있어 연방 정부 고객을 위한 선도적 솔루션을 신속히 개발·구축·검증·제조할 수 있는 독보적 역량을 갖췄다"고 강조했다. 이어 "엔비디아와의 오랜 협력 관계를 바탕으로 미국 AI 인프라 개발의 선구자로서의 입지를 더욱 공고히 할 것"이라고 덧붙였다.

2025.11.04 15:29한정호

SK하이닉스 "이제 메모리는 조합의 시대…커스텀 HBM·HBF에 기회"

"인공지능(AI) 시대에 메모리는 기존 천편일률적인 구조를 벗어나, 각 기능에 맞춘 메모리를 최적의 방식으로 조합하는 것이 중요해지고 있다. 이 과정에서 커스텀 고대역폭메모리(HBM), 컴퓨트익스프레스링크(CXL), 고대역폭플래시(HBF) 등이 기회를 맞게 될 것이다." 박경 SK하이닉스 담당은 4일 오전 서울 코엑스에서 열린 'SK AI 서밋 2025'에서 회사의 메모리 사업 전략에 대해 이같이 밝혔다. 메모리, 향후 기능별로 분업화…최적의 조합 만들어야 이날 'AI 서비스 인프라의 진화와 메모리의 역할'을 주제로 발표를 진행한 박 담당은 AI 인프라 투자 확대에 따른 메모리 시장의 높은 성장세를 강조했다. 발표된 자료에 따르면, 글로벌 AI 데이터센터 시장 규모는 올해 2천560억 달러에서 2030년 8천230억 달러로 연평균 26% 증가할 것으로 예상된다. 이에 따라 D램은 서버 및 HBM(고대역폭메모리)를 중심으로, 낸드는 eSSD(기업용 SSD)를 중심으로 수요가 크게 늘어날 전망이다. 또한 AI 경쟁의 축이 기존의 학습에서 추론으로 이동하면서, 요구되는 메모리의 양도 급격히 증가하는 추세다. 추론 과정에서 KV(키-값) 캐시가 매 요청마다 생성되고 누적되면서, 메모리 용량과 대역폭을 상당 부분 소모하기 때문이다. KV 캐시는 키-값 구조로 데이터를 저장하는 캐시 시스템이다. 이전 연산 결과를 재활용해 추론 속도를 높이는 데 활용된다. 박 담당은 "AI 추론에서는 주어진 문장에 포함된 토큰 수와 사용자의 수에 따라 KV 캐시가 급증하는 것이 변수"라며 "이 KV 캐시로 촉발되는 메모리 요구량을 어떻게 잘 대응하느냐가 추론 시대에서 가장 중요한 화두가 될 것"이라고 설명했다. 때문에 SK하이닉스는 전체 시스템 내에서 가용되는 메모리의 성능 및 용량, 구성 방식이 AI 추론의 효율을 결정짓는 요소가 될 것으로 보고 있다. 특히 기존에는 메모리가 일반화된 계측 구조를 갖췄다면, 향후에는 기능별로 분업화된 메모리를 최적화된 구조로 조합하는 것이 핵심이 될 것으로 내다봤다. '풀 스택 AI 메모리' 전략…커스텀 HBM·HBF 등 두각 대표적인 사례가 엔비디아의 칩이다. 엔비디아는 루빈(Rubin) GPU에는 HBM4를, 베라(Vera) CPU에는 LPDDR5X(저전력 D램)를, 루빈 CPX(AI 추론에서 문맥 처리에 특화된 전용 가속기)에는 GDDR7(그래픽 D램)을 채용해 하나의 시스템을 구성하고 있다. 박 담당은 "예전에는 x86 CPU에 D램과 낸드를 붙이는 천편일률적인 메모리 구조가 지배적이었으나, 이제는 기능별로 메모리를 배치해야 하는 조합의 시대로 바뀌고 있다"며 "이 상황에서 메모리 공급사는 단순히 메모리 용량을 더 많이 제공하는 것이 아닌, 고객사 칩 성능에 따라 가장 효율적인 메모리 조합을 제시할 수 있어야 한다"고 강조했다. 이에 SK하이닉스는 '풀 스택 AI 메모리 크리에이터'라는 개념으로 AI 메모리 제품군을 적극 확장하고 있다. HBM4E부터 커스텀 HBM 공급을 준비 중이며, 기존 D램을 고객사 요구에 맞춰 더 세분화된 제품으로 개발하고 있다. 낸드 역시 초고성능과 대역폭, 초고용량 등 세 가지 방향에 맞춰 맞춤형 제품을 개발 중이다. 샌디스크와 협업해 개발 중인 HBF가 대표적인 사례다. HBF는 D램을 수직으로 여러 개 적층하는 HBM(고대역폭메모리)와 유사하게, 낸드를 여러 층 적층해 메모리 대역폭을 끌어올린 차세대 메모리다.

2025.11.04 13:27장경윤

"MS 덕에 주가 날았다"…비트코인 채굴하다 AI 인프라 기업으로 전환한 이곳은?

호주 인공지능(AI) 인프라 기업 아이렌이 마이크로소프트(MS)와 대규모 클라우드 서비스 계약 체결한 덕분에 주가가 급등했다. 아이렌의 주가는 3일(현지시간) 뉴욕증시에서 전 거래일보다 11.52% 오른 67.75달러에 마감됐다. 이는 1년 새 688% 급등한 수치다. 아이렌은 비트코인 채굴 사업으로 시작했으나, 현재는 AI 인프라 기업으로 전환했다. 비슷한 사업 경로를 거쳐온 코어위브·네비우스그룹 등과 함께 '네오클라우드' 그룹으로 불린다. 주가 급상승의 이유는 아이렌이 MS에 엔비디아 GB300 아키텍처 그래픽처리장치(GPU)를 적용한 클라우드 서비스를 5년간 97억 달러(약 13조8천800억원)에 제공하는 서비스 계약을 체결해서다.이 외에도 MS는 이날 2018년부터 협력 관계를 이어온 AI 클라우드 스타트업 람다와도 수십억 달러 규모의 엔비디아 GPU 사용 계약을 맺었다. 앞서 지난 9월 초에는 네비우스와 5년간 174억 달러의 인프라 구매 계약을 맺은 바 있다. 이는 AI 시장 급성장 속 컴퓨팅 자원의 부족을 해결하기 위해 신규 데이터센터를 짓기 보다 전문 업체를 통해 간접적으로 컴퓨팅 용량을 확보하기 위한 전략으로 풀이된다. 이번 아이렌과의 계약으로 MS는 아이렌의 텍사스주 칠드리스 캠퍼스에 설치될 엔비디아 GPU를 사용하게 된다. 아이렌은 해당 GPU와 관련 장비를 델에서 58억 달러에 구매해 내년까지 단계적으로 텍사스주 칠드레스에 있는 750메가와트(㎿) 규모 데이터센터에 배치할 계획이다. 대니얼 로버츠 아이렌 최고경영자(CEO)는 "MS와의 계약은 우리 전체 용량의 10%만을 활용하는 규모"라며 "계약이 완전히 이행되면 연간 약 19억4천만 달러의 매출이 발생할 것"이라고 말했다.

2025.11.04 10:30장유미

"메모리, 공급 자체가 병목화"…최태원 회장, '통 큰' 투자 결의

SK그룹이 폭발적인 AI 수요 성장세에 대응하기 위해 적극적인 설비투자·기술개발을 진행한다. HBM(고대역폭메모리) 양산을 담당할 신규 'M15X' 팹에 장비 반입을 시작한 가운데, 오는 2027년에는 용인 클러스터를 오픈해 생산능력을 지속 확충할 계획이다. 최태원 SK그룹 회장은 3일 'SK AI 서밋 2025' 기조연설에서 "용인 클러스터는 완성 시 M15X 팹 24개가 동시에 들어서는 것과 같은 규모"라며 "상당히 많은 설비투자액을 요구하지만 공급부족 현상을 최대한 막아보려고 한다"고 밝혔다. AI 수요 폭발적…"메모리, 성능 아닌 공급 자체가 병목화" 이날 'AI의 지금과 다음(AI Now & Next)'을 주제로 발표를 진행한 최 회장은 "AI 데이터센터 투자 규모는 2020년 2천300억 달러에서 올해 6천억 달러로 매년 24% 증가해 왔다"며 "앞으로는 빅테크 및 신규 기업들의 투자로 인해 AI 인프라 투자가 이전보다 더 폭발적으로 성장할 확률이 존재한다"고 강조했다. AI 수요 성장세에 대한 근거는 매우 다양하다. 최 회장은 ▲AI 추론의 본격화 ▲B2B 영역의 본격적인 AI 도입 ▲에이전트 AI의 등장 ▲소버린 AI 경쟁 등이다. 그러나 컴퓨팅 파워 공급은 AI 수요의 성장세를 따라가지 못하고 있다. 특히 AI 구현에 필수적인 GPU 등 시스템반도체, HBM(고대역폭메모리)와 같은 서버용 메모리도 병목현상을 겪고 있다. 최 회장은 "예전에는 GPU 하나에 HBM 하나를 연결했으나, 지금은 HBM 연결이 12개 이상까지 늘어나는 등 메모리 칩의 공급량을 전례 없이 빠른 속도로 소진시키고 있다"며 "이 여파가 기존 범용 메모리에도 영향을 주면서, 이제는 성능이 아닌 공급 자체가 병목화되고 있다"고 설명했다. 그는 이어 "요즘 너무 많은 기업으로부터 메모리 칩 공급 요청을 받고 있어 당사가 어떻게 소화하냐가 하나의 걱정"이라며 "공급 문제를 해결하지 못하면 고객사가 사업 자체를 못 하는 상황에 접어들 수 있어 책임감을 가지고 있다"고 덧붙였다. 설비투자에 주력…"용인 클러스터, M15X 팹 24개와 맞먹는 규모" 이에 고객사들은 안정적인 메모리 수급 전략에 총력을 기울이고 있다. 챗GPT의 창시자인 오픈AI가 지난달 초 SK하이닉스·삼성전자와 전방위적 협력을 체결하며 월 90만장 수준의 HBM 공급을 요구한 것이 대표적인 사례다. 해당 수준은 현재 기준 전 세계 HBM 생산량 총합의 2배 규모에 해당한다. 최 회장은 "샘 올트먼 오픈AI CEO도 미래 AI 주도권을 확보하려면 HBM 병목현상이 가장 핵심 요소임을 잘 알고 있다"며 "이 문제를 해결하려면 설비투자(CAPEX)와 기술 관점에서 접근해야 한다"고 설명했다. 설비투자의 경우, SK하이닉스는 최근 청주에 HBM 양산을 주력으로 담당할 'M15X' 팹의 설비반입을 시작했다. 이 공장은 내년부터 본격 가동될 예정이다. 또한 오는 2027년에는 용인 클러스터 팹을 오픈할 계획이다. 용인 클러스터는 총 4개 팹으로 구성되며, 각 팹이 6개의 M15X 팹을 합친 것과 같은 대규모로 조성된다. 최 회장은 "용인 클러스터가 다 완성되면 24개의 청주 M15X 팹이 동시에 들어가는 것과 같은 생산능력을 확보하게 된다"며 "계속 장비를 도입해 수요에 대비할 수 있도록 하고 있고, 상당히 많은 투자를 요하지만 최소한 공급 부족 현상을 막을 수 있도록 하겠다"고 말했다. 기술 측면에서는 초고용량 메모리 칩을 개발하거나, 상대적으로 저렴하면서도 데이터 저장력이 뛰어난 낸드의 개념을 도입하는 방식 등을 추진하고 있다. 최 회장은 "젠슨 황 엔비디아 CEO조차도 이제는 저에게 더 이상 개발 속도에 대해 이야기하지 않는다"며 "SK하이닉스의 기술력이 이미 업계에서 어느 정도 증명이 됐다고 생각한다"고 밝혔다.

2025.11.03 12:49장경윤

정재헌 CEO "SKT, 국가대표 AI 기업으로 성장하겠다”

정재헌 SK텔레콤 CEO가 3일 “AI 강국 도약에 기여하는 국가대표 AI 사업자로 성장하겠다”고 밝혔다. 최근 SK텔레콤의 새로운 수장으로 발탁된 정재헌 CEO는 이날 서울 삼성동 코엑스에서 열린 SK AI서밋에서 기조연설을 맡아 “AI 대전환 시대의 한가운데서 국가를 대표하는 AI 기업의 CEO로서 막중한 책임감을 느낀다”며 이같이 말했다. 정 사장은 “(SK텔레콤 CEO로서) 오늘부터 제 업무가 시작된다. 이 스피치가 저의 첫 업무”라며 “AI 혁신을 논의하는 이 중요한 자리에서 처음 인사드리게 된 것은 개인적으로는 기쁘고 또 영광스럽다”며 운을 뗐다. 그러면서 SK텔레콤이 그동안 AI 시장에서 이뤄낸 성과와 과제를 중심으로 발표를 이어갔다. AI 인프라 성장 발판 마련 정 사장은 먼저 “AI 시대의 강국을 목표로 하는 대한민국 역시 AI 고속도로 구축을 선언했다. 과감한 예산 투입으로 AI 인프라 혁신을 추진하고 있다”며 “SK텔레콤의 AI 인프라 전략은 이러한 국가 경쟁력의 핵심 축과 맞닿아 있다”고 짚었다. 대표적인 AI 인프라 성과로 ▲국내 최대 규모의 AI 데이터센터 유치 ▲국내 최초, 최대 고성능 GPU 클러스터 구축 ▲에이닷 서비스의 확장 등을 꼽았다. 정 사장은 “지난 6월 아마존과 공동으로 약 7조 원을 투자해 울산에 AI 데이터센터를 건설하는 역사적인 계약을 체결했다”며 “울산 AI 데이터센터는 대한민국이 AI 인프라 경쟁에서 글로벌 리더로 성장하는 발판이 될 것”이라고 평가했다. 이어, “최신 GPU 칩 1천여 장을 가산에 국내 최초, 최대의 고성능 GPU 클러스터를 구축했다”며 “SK텔레콤의 고유 역량과 파트너십을 결집한 결과로, 이는 현재 독자 AI 파운데이션 모델 개발에 활용하고 있다”고 소개했다. 그러면서 “에이닷은 가입자와 월 이용자가 1천만 명을 넘어서는 성과를 거두고 있다”며 “업무용 AI인 에이닷 비즈는 연내에 약 8만 명에게 AI 업무 파트너로 활용하게 될 것”이라고 했다. 서울-울산-서남권 있는 전국 AI 인프라 이같은 성과를 바탕으로 AI 인프라의 향후 전략으로 인프라 확대, 애플리케이션 사업, 데이터센터 솔루션 확보 등을 제시했다. 정 사장은 “울산 AI DC를 확장하고 서남권 AI DC를 신설해 국내 기반을 단단히 다진 후에 글로벌 시장으로 진출하도록 하겠다”며 “통신사의 강점을 살려서 엣지 AI 영역까지 인프라를 확장하겠다”고 밝혔다. 이어, “지난 10월 오픈AI와 국내 서남권의 AI 데이터센터 설립을 위한 전략적 파트너십을 구축했다”며 “오픈AI와는 전용 데이터센터 구축을 시작으로 기술, 정책, 산업을 함께 하는 협력체계를 만들어가도록 하겠다”고 설명했다. 즉, 서울의 GPU 클러스터와 아마존과 협력한 울산 AIDC, 오픈AI와 협력한 서남권 AIDC로 전국에 AI 인프라를 갖추겠다는 전략이다. AI인프라 사업 글로벌 진출...엣지AI 집중 개발 특히 “SK텔레콤은 그룹의 글로벌 사업과 연계하여 글로벌 시장으로 진출을 준비하고 있다”며 “현재 SK이노베이션과 함께 베트남에서 에너지와 IT의 복합단지 전략에 기반한 AI 데이터센터 건설을 추진하고 있다”고 밝혔다. 정 사장은 또 “AI 서비스가 늘면서 통신사의 네트워크 인프라가 재조명을 받고 있다. SK텔레콤은 전국망을 활용하는 엣지AI 개념을 새롭게 제시했다”며 “하이퍼스케일러의 데이터센터나 온디바이스AI만으로는 대응하기 어려운 초저지연 저비용 수요 분야를 타겟으로 하고 있다”고 했다. 엣지AI는 아마존과 힘을 모으고, 엔비디아와는 AI-RAN 공동연구를 이어간다. 제조 전용 AI클라우드 구축...DC 솔루션 본격 사업화 제조AI에도 힘을 쏟는다. 정 사장은 “제조 AI 전용의 디지털트윈 솔루션과 로봇 파운데이션 모델 개발을 지금 진행하고 있습”며 “엔비디아와 함께 RTX프로 GPU 2000대를 기반으로 제조 AI에 특화된 클라우드를 구축하겠다”고 했다. 이어, “이는 제조의 혁신을 위해 기업 내부의 자체 클라우드를 구축한 아시아 최초의 사례가 될 것”이라며 “이 클라우드는 SK하이닉스 등 제조회사의 AI 전환에 활용할 예정”이라고 덧붙였다. AI인프라 사업 가운데 데이터센터 솔루션 확장을 두고 심혈을 기울이는 영역이라며 강조하기도 했다. 정 사장은 “AI 수요의 폭증은 데이터센터 운영에 필요한 전력 확보의 문제, 천문학적으로 드는 구축 비용의 문제를 낳았다”며 “인프라 사업의 핵심 경쟁력은 비용의 효율성과 구축의 신속성에 달려 있다”고 평가했다. 그러면서 “SK텔레콤은 이에 대응할 수 있는 AI DC 솔루션을 제공하겠다”며 “예를 들어 In-rack과 에너지 솔루션 등은 그룹 멤버사와 협력하여 구현을 하고 있고 또 Out-rack이나 서브클러스팅 솔루션 등은 저희가 직접 개발하면서 내재화를 추진하고 있다”고 밝혔다. 인랙의 기술 협력 파트너로는 슈나이더, 아웃랙 파트너는 펭귄솔루션, 하드웨어는 슈퍼마이크로 등을 소개했다. 정 사장은 “이를 통해 설계에서 시공까지 전 과정을 아우르는 AI DC 솔루션 공급자로 자리매김하도록 하겠다”고 말했다.

2025.11.03 11:36박수형

엔비디아 블랙웰 26만장 한국행…'AI 인프라 허브' 도약 신호탄

엔비디아가 우리 정부와 주요 기업에 블랙웰 그래픽처리장치(GPU) 26만 장을 공급한다. 정부의 국가AI컴퓨팅센터 구축과 민간 AI 인프라 확충이 함께 맞물리며 한국이 아시아 AI 허브로 도약할 기반이 마련됐다는 평가가 나온다. 31일 엔비디아는 한국 정부와 삼성전자·SK그룹·현대자동차그룹·네이버클라우드 등 5곳에 총 26만 장의 블랙웰 GPU를 공급한다고 발표했다. 이 중 정부는 최대 5만 장을 소버린 클라우드 구축용으로 확보하고, 삼성전자·SK·현대차가 각각 5만 장, 네이버클라우드는 6만 장을 공급받는다. 엔비디아는 이번 협력을 통해 반도체·로보틱스·통신·데이터센터 등 AI 인프라 전반에서 한국 기업들과 협력을 강화한다는 방침이다. 업계에서는 이번 공급 규모가 아시아 최대 수준으로, AI 반도체 확보 경쟁의 중심에 한국이 본격적으로 진입하게 됐다고 평가한다. 네이버클라우드, 엔비디아와 소버린·피지컬 AI 전방위 '협력' 정부는 이번 협력과 맞물려 현재 국가AI컴퓨팅센터 구축 사업을 가속화하고 있다. 과학기술정보통신부는 민관 합작 특수목적법인(SPC)을 설립해 2028년까지 GPU 1만5천 장, 2030년까지 5만 장 이상을 확보할 계획이다. 총사업비는 2조5천억 원 규모로, 정부 800억 원을 출자하고 민간과 정책금융기관이 나머지를 분담한다. 국가AI컴퓨팅센터 사업은 AI 연구기관과 스타트업에 연산 자원을 제공하고 민간 클라우드 기업의 기술을 공공 인프라에 접목하는 구조로 설계됐다. 정부는 대규모 GPU 인프라를 공공 연구개발에 활용함으로써 AI 모델 개발 경쟁력과 산업계 접근성을 동시에 높인다는 목표를 세웠다. 이번 공급의 수혜 기업 중 하나인 네이버클라우드는 국가AI컴퓨팅센터 사업에서 삼성SDS 컨소시엄의 주요 파트너로 참여하고 있다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 테크밋업에서 "정부 인프라에 민간 기술 내재화를 결합해 기술 자립 기반을 강화하겠다"며 "국가AI컴퓨팅센터 구축은 네이버의 서비스형 GPU 플랫폼(GPUaaS)을 국가 데이터센터로 확장하는 구조로 발전할 것"이라고 설명했다. 네이버는 이날 오후 엔비디아와 피지컬 AI 플랫폼 공동 개발 협약도 체결했다. 양사는 디지털 트윈과 로보틱스 기술을 결합해 산업 현장을 가상 공간에 정밀하게 구현하고 AI가 분석·판단·제어를 지원하는 시스템을 구축할 계획이다. AI와 클라우드 인프라의 융합을 추진하는 만큼, 네이버클라우드가 담당하는 역할이 커질 전망이다. 김유원 네이버클라우드 대표는 이날 행사에서 "이번 협력은 피지컬 AI 시대의 출발점이 될 것"이라며 "하이퍼스케일 AI 인프라와 클라우드 운영 역량을 기반으로 국내 제조 산업의 AI 혁신을 이끌 신뢰받는 기술 파트너가 되겠다"고 밝혔다. 엔비디아와 네이버의 협력은 이번이 처음은 아니다. 네이버클라우드는 초거대언어모델(LLM) '하이퍼클로바X'를 운영하며 엔비디아 GPU를 기반으로 한 고성능 클러스터를 구축한 경험을 갖고 있다. 특히 양사는 최근 태국·모로코 등 해외에서도 '소버린 AI' 인프라 구축을 함께 추진 중이다. 이 외에도 네이버는 엔비디아와 글로벌 투자사 등과 컨소시엄을 구성해 모로코에 블랙웰 GPU 기반 40메가와트(MW)급 AI 데이터센터도 구축 중이다. 해당 프로젝트는 유럽과 중동, 아프리카를 잇는 글로벌 AI 허브로 확장될 예정이며 한국형 AI 인프라 모델의 해외 진출 사례로 주목받고 있다. 국가 AI 인프라 확충 '가속'…AI 생태계 전반 확산 전망 우리나라에서 국가AI컴퓨팅센터 사업과 같이 민간과 공공이 함께 GPU 인프라를 확충하는 구조가 자리 잡으면서 한국이 아시아 AI 산업의 중심지로 부상할 가능성이 높다는 평가가 나온다. 업계 관계자는 "AI 인프라 경쟁력은 GPU 확보 속도와 활용 효율성에 달려 있다"며 "정부와 기업이 함께 대규모 연산 자원을 구축하는 한국형 모델이 아시아 AI 생태계의 새로운 기준이 될 수 있다"고 기대했다. 정부의 국가AI컴퓨팅센터 사업 역시 이번 공급 발표로 추진 동력이 커질 전망이다. 과기정통부는 연내 우선협상대상자 선정을 마무리하고 내년 상반기 SPC 설립과 착공 절차에 착수할 계획이다. 이번 엔비디아의 GPU 공급 발표로 AI 인프라 확충이 가속화되면 산업·학계·연구기관 전반에서 AI 학습 및 응용 환경이 대폭 개선될 것으로 예상된다. 이번 공급은 국가AI컴퓨팅센터 외에도 정부가 추진 중인 독자 AI 파운데이션 모델 프로젝트 등 국가 AI 사업 전반에 직간접적 영향을 미칠 전망이다. 업계에서는 국가 차원에서 GPU 자원이 충분히 확보되면 정부의 AI 연구·산업 지원 정책이 전방위적으로 활성화될 것으로 보고 있다. 엔비디아의 이번 결정은 한국의 AI 인프라 확충 노력에 대한 글로벌 기술 기업의 신뢰가 반영된 결과라는 평가도 나온다. 업계 관계자는 "최근 정부가 AI 인프라 확충을 적극적으로 추진하고 민간이 기술 내재화를 빠르게 진행하고 있는 만큼, 한국은 엔비디아의 아시아 전략에서 핵심 거점으로 부상할 것"이라고 전망했다.

2025.10.31 15:04한정호

엔비디아와 손잡은 팀네이버…이해진 "AI·클라우드로 산업 도약 지원"

팀네이버는 산업 현장의 AI 전환을 지원하기 위해 주력 사업을 중심으로 AI 인프라를 구축하고 피지컬 AI 개발을 하고자 엔비디아와 함께 힘을 합친다. 이해진 네이버 이사회 의장은 31일 경북 경주 화백컨벤션센터(HICO)에서 열린 이재명 대통령과 젠슨 황 엔비디아 최고경영자(CEO)와의 접견에 함께 참석했다. 이 자리에서 이 의장은 모두발언을 통해 “자동차의 SDV 전환이 보여주듯이 AI가 실제 산업 현장과 시스템 속에서 작동하는 '피지컬 AI'의 시대가 열리고 있다”며 “네이버는 AI와 클라우드 기술로 기업이 데이터를 더 잘 활용하고, 산업이 한 단계 더 도약할 수 있도록 지원하겠다”고 말했다. 이번 협력은 AI 기술의 산업 현장 확장을 가속화하고, 제조 산업 전반의 디지털 전환을 구체화하는 계기가 될 전망이다. 이를 위해 네이버클라우드는 엔비디아와 업무협약(MOU)를 맺고 현실 공간과 디지털 공간을 유기적으로 연결하는 차세대 '피지컬 AI' 플랫폼을 공동 개발하고, 반도체·조선·에너지 등 국가 주력 산업을 중심으로 AI 인프라를 구축해 산업 현장의 AI 활용을 지원할 계획이다. 네이버클라우드는 이를 통해 ▲조선 ▲에너지 ▲바이오 등 주요 산업별 특화 AI 적용 모델을 발굴하고 확산을 주도해 산업 현장에 최적화된 AI 기술이 빠르게 자리 잡을 수 있도록 한다는 방침이다. 산업별 적용을 가능하게 하는 기술적 기반은 바로 '피지컬 AI 플랫폼'이다. 양사는 네이버클라우드의 디지털 트윈·로보틱스 등 차세대 기술 역량과 엔비디아의 '옴니버스', '아이작 심' 등 3D 시뮬레이션·로보틱스 플랫폼을 결합해 현실 산업 환경을 가상 공간에서 정밀하게 재현하고, AI가 ▲분석 ▲판단 ▲제어를 지원할 수 있는 구조로 피지컬 AI 플랫폼을 구현해 나갈 예정이다. 이번 협력은 네이버클라우드가 제시한 '소버린 AI 2.0' 비전을 실제로 구현하기 위한 첫 단계다. 기존 소버린 AI가 자국의 언어와 문화 중심의 AI 모델과 생태계를 구축해 기술 주권 확보에 초점을 맞췄다면, 소버린 AI 2.0은 이를 국가 핵심 산업과 일상 전반으로 확장해 국가 경쟁력을 높이는 방향으로 발전한 개념이다. 네이버클라우드는 이 비전을 구체화하기 위해 ▲하이퍼클로바 X 모델 오픈소스 공개 ▲국가 AI 프로젝트 연계 ▲AI 인재 양성 프로그램 운영 등을 추진하며, 산업·학계·연구기관 전반의 협력 생태계 조성에도 힘쓰고 있다. 김유원 네이버클라우드 대표는 “이번 협력은 AI 기술이 산업 현장의 생산성과 안전, 효율을 실질적으로 끌어올리는 '피지컬 AI 시대'의 출발점이 될 것”이라며 “하이퍼스케일 AI 인프라와 클라우드 운영 역량을 기반으로 디지털 트윈과 로보틱스 기술을 결합해 산업 현장의 경쟁력을 강화하고 국내 제조 산업의 AI 혁신을 함께 이끌어가는 신뢰받는 기술 파트너가 되겠다”고 강조했다.

2025.10.31 15:00박서린

아마존, 3분기 클라우드 성장률 20% '반등'…AI 수요가 견인

아마존이 인공지능(AI) 수요 급증에 힘입어 올해 3분기 클라우드 부문에서 20%의 성장률을 기록했다. 특히 아마존웹서비스(AWS)가 2022년 이후 가장 빠른 속도로 성장하면서 회사 전체 매출 상승을 견인했다. 31일 블룸버그통신 등 외신에 따르면 아마존은 올해 3분기 매출 1천802억 달러(약 257조원)를 기록했다. 이는 미국 증권가 예상치를 웃도는 성적이다. 핵심 사업인 AWS 매출은 전년 동기 대비 20% 증가한 330억 달러(약 47조원)로 집계됐다. 이는 2022년 이후 최대 증가율이다. 이번 실적 발표 이후 아마존 주가는 시간 외 거래에서 13% 급등했다. 특히 회사가 대규모 AI 인프라 투자를 본격화하면서 투자자들의 신뢰를 회복했다는 평가가 나온다. AWS는 '트레이니엄' AI 칩과 초대형 AI 데이터센터 '프로젝트 레이니어'를 공개하며 본격적인 AI 클라우드 경쟁에 뛰어들었다. 트레이니엄 칩은 분기 기준 매출이 150% 급증했다. 대표 협력사인 앤트로픽은 100만 개의 맞춤형 AWS 칩을 활용해 AI 모델을 훈련할 계획이다. 이와 함께 아마존은 쇼핑 챗봇 '루퍼스'가 연간 100억 달러(약 14조원) 추가 매출을 창출할 것으로 전망하고 있다. 콜센터 솔루션 '커넥트'도 연간 매출 10억 달러(약 1조4천억원) 규모로 성장 중이다. 광고 부문 매출은 24% 증가한 177억 달러(약 25조원), 제3자 판매 서비스 매출은 12% 증가한 425억 달러(약 60조원)를 기록했다. 최근 AWS의 글로벌 대규모 클라우드 장애와 1만4천명 규모 감원 발표로 시장 우려가 있었지만, 이번 실적은 아마존이 여전히 AI 시장에서 견고한 경쟁력을 입증했다는 평가가 나온다. 미국 증권가에서는 "이번 분기가 아마존이 다시 대형 기술 기업으로서의 리더십을 회복하는 전환점이 될 수 있다"고 전망했다. 앤디 재시 아마존 최고경영자(CEO)는 "회사 전반에서 뚜렷한 성장세가 이어지는 중"이라며 "AI 서비스뿐만 아니라 이를 뒷받침하는 클라우드 인프라 수요도 동시에 급증하고 있다"고 밝혔다.

2025.10.31 12:57한정호

아카마이, 코어에서 엣지까지 AI 추론 확장…'인퍼런스 클라우드' 공개

아카마이가 인공지능(AI) 추론 기능을 중앙 데이터센터에서 인터넷 엣지까지 확장해 AI가 작동하는 위치와 방식을 새롭게 정의했다. 아카마이는 코어 데이터센터에서 인터넷 엣지까지 추론을 확장해 AI의 활용 영역과 방식을 재정의하는 플랫폼인 '아카마이 인퍼런스 클라우드'를 출시했다고 29일 밝혔다. 이번 신제품은 사용자와 디바이스에 가까운 엣지에서 지능적이고 에이전틱한 AI 추론을 수행하도록 설계된 플랫폼이다. 아카마이의 전 세계 분산 아키텍처 전문성을 바탕으로 엔비디아 블랙웰 AI 인프라를 결합해 저지연·고확장·실시간 AI 처리를 지원한다. 이를 통해 아카마이는 AI 추론을 글로벌 규모로 구현할 수 있는 분산형 AI 클라우드 생태계를 활성화한다는 목표다. 아카마이에 따르면 개인화된 디지털 경험과 스마트 에이전트, 실시간 의사결정 시스템 등 차세대 AI 애플리케이션은 사용자 근접성이 핵심이다. 인퍼런스 클라우드는 이러한 요구에 맞춰 AI 연산을 데이터 생성 지점에 가깝게 배치하는 구조로 설계됐다. 엔비디아 RTX 프로 6000 블랙웰 서버 에디션 GPU, 블루필드-3 DPU, 엔비디아 AI 엔터프라이즈 소프트웨어를 기반으로 전 세계 4천200개 이상의 엣지 네트워크와 연동된다. 아카마이는 엔비디아와의 협력을 통해 AI 팩토리를 엣지로 확장해 스마트 커머스, 실시간 금융 의사결정, 자율주행·산업용 로봇 등 피지컬 AI 영역까지 지원할 계획이다. 엣지에서의 실시간 추론과 데이터 분산 처리를 통해 지연을 최소화하고 보다 빠르고 안전한 AI 의사결정을 가능하게 한다는 목표다. 아카마이는 현재 전 세계 20개 지역을 대상으로 인퍼런스 클라우드 서비스를 시작했으며 향후 서비스 지역을 확대할 계획이다. 톰 레이튼 아카마이 최고경영자(CEO)는 "AI 추론 성능 확장에 대한 요구가 커지는 가운데, 엔비디아 AI 인프라를 기반으로 하는 아카마이 인퍼런스 클라우드는 AI 의사결정 기능을 전 세계 수천 지점에 배치해 더 빠르고 스마트하며 안전한 의사결정을 가능하게 할 것"이라고 말했다.

2025.10.29 17:16한정호

"AI 성과, 데이터 품질에 달렸다"…AWS·메타·네이버, 인프라 투자 한 목소리

[경주=장유미 기자] 맷 가먼 아마존웹서비스(AWS) 최고경영자(CEO)와 최수연 네이버 대표, 사이먼 밀너 메타 부사장 등 글로벌 인공지능(AI) 업계 리더들이 나란히 AI 인프라를 화두로 꺼냈다. 데이터센터, 네트워크 등 기반 시설을 AI 경쟁력의 핵심으로 지목하며 국가 경제 및 안보를 위해 탄탄한 인프라를 토대로 선도적인 AI 개발에도 나설 필요가 있다고 지적했다. 가먼 AWS CEO는 29일 경주 예술의전당 화랑홀에서 열린 '아시아태평양경제협력체(APEC) CEO 서밋(Summit)'에서 'AI 주도 경제' 세션의 연사로 나서 "AI의 성과는 결국 데이터 품질에 달려 있다"며 "온프레미스(사내 시스템)에 갇힌 데이터로는 한계가 있다"고 지적했다. 그러면서 "데이터를 클라우드 기반 현대 아키텍처로 이전해야 AI가 비즈니스 특화형 결과를 낼 수 있다"며 AI 혁신의 전제 조건으로 '데이터의 현대화'를 꼽았다. 이를 위해 AWS는 미국 외 14개 아-태 지역에 AI 에이전트 확산을 위해 400억 달러(약 57조원) 이상을 투자키로 했다. 이를 통해 미국 국내총생산(GDP)에 해당하는 450억 달러(약 64조5천억원) 이상의 추가 경제 효과가 창출될 것으로 전망했다. 가먼 CEO는 "이미 일본, 호주, 싱가포르에 대규모 투자를 단행했고, 뉴질랜드·태국·말레이시아에도 신규 리전을 개설했다"며 "한국에서는 SK그룹과 협력해 울산에 전용 AI 리전(AI Region)을 구축하고 기존 서울 리전도 확장 중"이라고 설명했다. 앞서 AWS는 지난 6월 SK그룹과 손잡고 울산에 신규 AI 데이터센터를 설립하겠다고 발표했다. SK와 AWS는 공동으로 7조원을 투자하고, 2027년 첫 가동을 시작으로 6만장의 AI 반도체를 가동한다. 또 AWS는 이날 한국에 7조원 규모 추가 투자를 진행키로 결정해 주목 받았다. 올해부터 오는 2031년까지 진행되는 이번 투자로, AWS가 국내에 투자하는 누적액은 12조6천억원으로 늘어나게 됐다. AWS는 이를 통해 한국을 '아시아 AI 허브'로 육성한다는 구상이다. 가먼 CEO는 "한국 기업들이 자국 내에서 안전하게 AI 혁신을 추진할 수 있는 환경을 마련할 것"이라며 "AI 혁신의 기반은 신뢰할 수 있는 인프라에 있다고 보는 만큼, 앞으로 기업들이 인프라 구축이 아닌 혁신에 집중할 수 있도록 돕겠다"고 밝혔다. 메타를 대표해 이날 연사로 참석한 사이먼 밀러 부사장은 AI 시대를 맞아 스마트폰을 대체할 핵심 하드웨어로 '스마트 글래스'를 언급하며 이를 제대로 활용하기 위해선 막대한 컴퓨팅 자원이 필요하다고 강조했다. 밀러 부사장은 "AI는 더 이상 단순한 도구가 아닌 '개인화된 지능'을 통해 각 개인의 목표와 필요에 맞게 실용적이고 맞춤형으로 작동할 수 있게 될 것"이라며 "점차 '초지능 AI' 시대로 가고 있는 상황에서 컴퓨팅 자원에 대한 투자 경쟁은 더 치열해질 것"이라고 밝혔다. 이에 메타는 현재 미국에서 '프로메테우스', '하이페리온' 등의 이름을 붙인 대규모 데이터센터 클러스터 구축 프로젝트를 추진하고 있다. 지난 20년간 페이스북, 인스타그램 등을 운영하며 쌓은 사업 기반을 토대로 오는 2028년까지 미국 내에 6천억 달러 규모의 AI 인프라 투자를 진행 중이다. 밀러 부사장은 "전 세계의 AI 접근성을 높이기 위해 해저 케이블, 네트워크 캐시, 접속 거점 등 인프라 확충에도 지속 투자할 예정"이라며 "AI가는 단순히 경제 성장의 엔진이 아니라 더 지능적이고 혁신적이며 포용적인 미래를 만드는 기술"이라고 강조했다. 이어 "AI는 경제 전반을 재편할 잠재력을 가지고 있지만, 개방적·협력적인 접근 방식을 취해야 향후 10년간 수조 달러의 생산성 향상을 이끌 수 있을 것"이라며 "APEC 지역은 AI 혁신을 주도할 독보적인 위치에 있는 만큼, 개방형 AI를 포용적 성장, 사회적 회복력, 기술 리더십의 원동력으로 삼아 많은 곳에 AI 기술이 확산될 수 있게 나서야 할 것"이라고 덧붙였다. 최수연 네이버 대표는 자체 데이터센터와 풀스택 AI 역량을 강조하며 모두를 위한 AI 기술 구현의 기반이 되는 AI 데이터센터의 지원책 마련을 강조했다. 약 10분간 약 10분간 AI 데이터센터 구축의 중요성과 제도적 지원 필요성을 주제로 기조 발표에 나선 최 대표는 "네이버가 만드는 AI는 디지털 생태계를 더 섬세하게 연결하는 도구"라며 "일찍부터 AI 기술에 선제적으로 투자했고, 인프라부터 모델·서비스까지 아우르는 풀스택 AI 생태계를 구축했다"고 말했다. 이어 "모두에게 더 나은 미래를 가능하게 하는 AI 기술 구현의 토대이자 핵심 인프라는 AI 데이터센터"라며 "이와 관련한 세제 혜택 확대와 행정절차 간소화, 입지 규제 완화 등이 현장에 활력을 불어넣을 것"이라고 덧붙였다. AI 데이터센터 지원을 위해 국회가 추진하는 특별법과 정부가 추진하는 'AI 고속도로' 구상과 관련해선 국가 산업 체질의 AI 전환 제도적 기반이 될 것으로 평가했다. 또 정부와 국회의 적극적인 노력이 포용적 AI의 밑거름이 될 것으로 기대했다. 최 대표는 "AI는 디지털 생태계를 끊김없이 연결하는 도구"라며 "AI 데이터센터를 국가 인프라로 삼아 신뢰·포용·지속가능성을 확보해야 한다"고 제언했다.

2025.10.29 15:27장유미

LG전자·유플러스, AWS CEO와 회동…AI 데이터센터 협력 기대

LG전자·LG유플러스, AWS(아마존웹서비스) 최고경영자(CEO)가 경주에서 회동한다. 이들 기업간 AI 데이터센터 구축의 필수 요소인 냉난방공조(HVAC) 분야에서의 협력 강화가 기대된다. 29일 업계에 따르면 조주완 LG전자 CEO, 홍범식 LG유플러스 대표는 이날 오후 경주에서 맷 가먼 AWS CEO와 만날 예정인 것으로 알려졌다. 현재 LG그룹과 AWS 경영진은 경주에서 열리는 아시아태평양경제협력체(APEC) 정상회의에 참석 중이다. LG전자와 LG유플러스는 AWS와 차세대 AI 데이터센터 인프라 구축과 관련한 논의를 진행할 것으로 관측된다. AWS는 전 세계 주요 CSP(클라우드서비스제공자) 중 한 곳으로, AI 데이터센터 확장을 위한 기술개발 및 설비투자에 적극 나서고 있다. 한국에도 오는 2031년까지 인천 및 경기 일대에 신규 AI 데이터센터 구축 등 총 50억 달러(한화 약 7조1천억원) 이상을 추가로 투자하겠다고 발표한 바 있다. LG전자와 LG유플러스 역시 데이터센터 인프라 사업에 적극 뛰어들고 있다. LG전자는 데이터센터향 HVAC 사업 확장을 위해 액침냉각 기술을 개발 중이다. 액침냉각은 데이터센터 서버 등 열이 발생하는 전자기기를 전기가 통하지 않는 특수 냉각 플루이드에 직접 담가 냉각하는 기술로, 열전도율이 높은 액체를 사용해 열을 빠르고 효율적으로 낮출 수 있다. 이 방식을 적용할 경우 데이터센터 에너지 효율을 나타내는 전력효율지수(PUE)가 공랭식이나 수랭식 등 기존 냉각 방식에 비해 현저히 낮아져, 탁월한 전력 절감 효과를 보인다. LG유플러스도 지난 5월 평촌2데이터센터에서 차세대 액체냉각 기반 데모룸을 개소했다. 해당 데모룸에서는 직접 칩 냉각과 액침냉각 등 차세대 냉각 기술을 검증할 계획이다. 또한 지난 3월에는 스페인 바르셀로나 'MWC25'에서 AWS와 전략적 파트너십을 맺고, 국내 AI 클라우드 생태계 조성을 위한 'AX얼라이언스' 전략을 공동 추진하기로 한 바 있다. LG유플러스가 자체 개발한 sLLM(소형언어모델)인 '익시젠(ixi-GEN)'과 AWS의 LLM(대형언어모델) '노바(Nova)'를 최적화하고, 국내 기업 고객들이 AI 서비스를 빠르게 도입할 수 있도록 '워크 에이전트(Work Agent)'를 공동 개발하는 것이 주 골자다.

2025.10.29 14:48장경윤

11.3조원 쏜 SK하이닉스, 내년도 HBM·D램·낸드 모두 '훈풍'

올 3분기 사상 최대 분기 실적을 거둔 SK하이닉스가 내년에도 성장세를 자신했다. 메모리 산업이 AI 주도로 구조적인 '슈퍼사이클'을 맞이했고, 핵심 사업인 HBM(고대역폭메모리)도 주요 고객사와 내년 공급 협의를 성공적으로 마쳤기 때문이다. 이에 SK하이닉스는 내년 설비투자 규모를 올해 대비 확대하고, HBM과 범용 D램, 낸드 모두 차세대 제품의 생산능력 비중 확대를 추진하는 등 수요 확대에 대응하기 위한 준비에 나섰다. 29일 SK하이닉스는 3분기 실적발표를 통해 매출액 24조4천489억원, 영업이익 11조3천834억원(영업이익률 47%), 순이익 12조5천975억원(순이익률 52%)을 기록했다고 밝혔다. 창사 이래 최대 실적…'메모리 슈퍼사이클' 이어진다 매출액은 전년동기 대비 39%, 전분기 대비 10% 증가했다. 영업이익은 전년동기 대비 62%, 전분기 대비 24% 증가했다. 또한 분기 기준 역대 최대 실적으로, 영업이익이 창사 이래 최초로 10조원을 넘어섰다. 호실적의 주요 배경에는 AI 중심의 메모리 슈퍼사이클 효과가 있다. AI 인프라 투자에 따른 데이터센터 및 일반 서버 수요가 확대되면서, D램과 낸드 모두 수요가 빠르게 증가하는 추세다. 특히 주요 메모리 공급사들이 HBM(고대역폭메모리) 양산에 생산능력을 상당 부분 할당하면서, 범용 D램의 수급이 타이트해졌다는 분석이다. SK하이닉스는 "HBM뿐 아니라 일반 D램·낸드 생산능력도 사실상 완판 상태”라며 “일부 고객은 2026년 물량까지 선구매(PO) 발행해 공급 부족에 대응하고 있다”고 밝혔다. 메모리 사업에도 근본적인 변화가 감지된다. AI가 단순히 새로운 응용처의 창출을 넘어, 기존 제품군에도 AI 기능 추가로 수요 구조 전체를 바꾸고 있다는 설명이다. SK하이닉스는 "이번 사이클은 과거처럼 가격 급등에 따른 단기 호황이 아니라, AI 패러다임 전환을 기반으로 한 구조적 성장기”라며 “AI 컴퓨팅이 학습에서 추론으로 확장되면서 일반 서버 수요까지 급격히 늘고 있다”고 말했다. 이에 따라 SK하이닉스는 내년 서버 세트 출하량을 전년 대비 10% 후반 증가로 예상하고 있다. 전체 D램 빗그로스(출하량 증가율)은 내년 20% 이상, 낸드 빗그로스는 10% 후반으로 매우 높은 수준을 제시했다. HBM, 내후년까지 공급 부족 전망 SK하이닉스는 이번 실적발표 컨퍼런스콜을 통해 주요 고객들과 내년 HBM 공급 협의를 모두 완료했다고 밝혔다. 내년 엔비디아향 HBM 공급 계획도 순조롭게 진행될 것으로 전망된다. SK하이닉스는 "내년도 HBM 공급 계약을 최종 확정지었고, 가격 역시 현재 수익성을 유지 가능한 수준으로 형성돼 있다"며 "HBM은 2027년에도 수요 대비 공급이 타이트할 것으로 전망된다"고 밝혔다. HBM4(6세대 HBM)는 올 4분기부터 출하를 시작해, 내년 본격적인 판매 확대에 나설 계획이다. HBM4는 엔비디아가 내년 출시할 차세대 AI 가속기 '루빈'에 탑재될 예정으로, 이전 세대 대비 I/O(입출력단자) 수가 2배로 확장되는 등 성능이 대폭 향상됐다. 또한 엔비디아의 요구로 최대 동작 속도도 이전 대비 빨라진 것으로 알려졌다. SK하이닉스는 "당사는 HBM 1위 기술력으로 고객사 요구 스펙에 충족하며 대응 중"이라며 "업계에서 가장 빠르게 고객 요구에 맞춘 샘플을 제공했고, 대량 공급도 시작할 준비가 돼 있다"고 강조했다. 설비투자·차세대 메모리로 미래 수요 적극 대응 SK하이닉스는 메모리 슈퍼사이클에 대응하기 위해 내년 설비투자 규모를 올해 대비 확대할 계획이다. 최근 장비 반입을 시작한 청주 신규 팹 'M15X'의 경우, 내년부터 HBM 생산량 확대에 기여할 수 있도록 투자를 준비 중이다. 또한 올해부터 건설이 본격화된 용인 1기팹, 미국 인디애나주에 계획 중인 첨단 패키징 팹 등으로 최첨단 인프라 구축에 대한 투자가 지속될 것으로 예상된다. 범용 D램과 낸드는 신규 팹 투자 대신 선단 공정으로의 전환 투자에 집중한다. 1c(6세대 10나노급) D램은 지난해 개발 완료 후 올해 양산을 시작할 예정으로, 내년 본격적인 램프업이 진행된다. SK하이닉스는 "내년 말에는 국내 범용 D램 양산의 절반 이상을 1c D램으로 계획하고 있다"며 "최고의 성능과 원가 경쟁력을 확보한 1c 기반 LPDDR(저전력 D램), GDDR(그래픽 D램) 라인업을 구축하고 적시에 공급해 수익성을 확보할 것"이라고 밝혔다. 낸드도 기존 176단 제품에서 238단, 321단 등으로 선단 공정의 비중을 꾸준히 확대하고 있다. 특히 내년에는 321단 제품에 대해 기존 TLC(트리플레벨셀)를 넘어 QLC(쿼드러플레벨셀)로 라인업을 확장할 계획이다. 내년 말에는 회사 낸드 출하량의 절반 이상을 321단에 할당하는 것이 목표다.

2025.10.29 11:41장경윤

유영상 SKT "AI G3 위해 인프라 구축이 가장 중요"

[경주=박수형 기자] 유영상 SK텔레콤 대표는 28일 “AI 3대 강국을 위해 정부가 주도하고 기업도 열심히 하지만 제일 중요한 것은 AI 인프라를 빨리 강화하는 것”이라고 밝혔다. 유영상 사장은 경주엑스포대공원에서 열린 APEC CEO서밋 부대행사로 열린 퓨처테크포럼에서 하정우 대통령실 AI미래기획수석, 김경훈 오픈AI코리아 총괄대표 등과 담화에서 이같이 말했다. 유 사장은 “과거에 정부 주도로 통신사와 함께 브로드밴드 구축에 나섰고 4G와 모바일 시대도 정부와 통신사의 주도 아래 모바일 인프라를 만들었다”며 “이를 통해 한국은 인터넷 강국, 모바일 강국이 됐다”고 진단했다. 이어, “AI시대도 마찬가지로 인프라를 빨리 갖춰야 우리가 다른 나라에 비해 AI 경쟁에서 빨리 발전할 수 있는 승산이 있지 않을까 생각한다”고 했다. 그러면서 “인프라를 했는데 수요가 안 생긴다면 큰 문제가 되겠지만, AI 수요는 무궁무진하게 발생하고 있다는 관점에서 인프라를 먼저 갖추는 것이 무엇보다 중요하다”고 강조했다. SK의 AI 전략에 대해서는 자강과 협력이란 키워드를 제시했다. 유 사장은 “오픈AI의 투트랙 전략과도 유사한데, 자강 측면에서 쩡부가 주도하는 독자파운데이션모델 5개사에 통신사에 유일하게 선정되어 열심히 모델을 개발하고 있다”면서 “국내서는 가장 크게 시도되고 있는 것 같은데 500빌리언 사이즈로 시작해 연말 정도 되면 결과가 나올 것”이라고 설명했다. 이어, “에이닷 서비스를 3년 전부터 하고 있는데 지속적으로 크게 성공한 것은 아니지만 글로벌 진출을 위해 일본의 거점회사를 인수하는 방식의 진출을 고민하고 있다”고 말했다. 유 사장은 또 “협력 측면을 본다면 SK그룹은 모든 AI 빅테크의 퍼스트 파트너로 오픈AI도 메타도 아마존웹서비스도 우리와 힘을 모으고 있다”며 “SK그룹은 반도체, 통신, 에너지를 다 하고 있는 한국의 유일한 기업이고 기업 정서가 다른 대기업과 비교해 오픈되어 있고 협력하는 것을 좋아하는 회사”라고 평가했다. 그러면서 “인프라 측면에서 데이터센터 부분을 강조했지만 제조업의 피지컬AI나 앞으로 나올 여러 애플리케이션에 대해 빅테크와 같이 한국의 AI 에코시스템 한 단계 높이는 데 주력할 것”이라고 강조했다.

2025.10.28 16:37박수형

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호

IBM, '스파이어 엑셀러레이터' 가속기로 메인프레임 AI 시대 연다

IBM이 메인프레임과 서버 인프라에 적용 가능한 차세대 인공지능(AI) 가속기를 선보였다. 보안성과 복원력을 유지하면서도 생성형 및 에이전트 기반 AI를 효율적으로 처리할 수 있는 전용 하드웨어(HW)를 통해 기업 워크로드 성능과 확장성을 강화하겠다는 목표다. IBM은 메인프레임 시스템 'IBM z17'과 'IBM 리눅스원 5'에 적용 가능한 AI 가속기 '스파이어 엑셀러레이터'를 정식 출시한다고 28일 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계됐다. IBM은 오는 12월 초부터 파워11 서버용 제품도 추가로 선보일 예정이다. 최근 IT 환경은 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 빠르게 전환되고 있다. 기업들은 저지연 추론과 실시간 반응성을 필요로 하는 AI 모델을 기존 업무와 함께 안정적으로 처리할 수 있는 인프라를 요구하고 있다. IBM은 이러한 수요에 대응해 보안성과 운영 효율성을 동시에 확보한 AI 추론 전용 HW를 개발했다. 이번에 공개된 스파이어 엑셀러레이터는 IBM 리서치 AI HW 센터의 기술과 인프라 사업부의 개발 역량이 결합된 결과물이다. IBM 요크타운 하이츠 연구소와 올버니대학교 산하 신흥 AI 시스템 센터와의 협업을 통해 빠른 반복 개발 과정을 거치며 완성도를 높였다. 상용화된 제품은 32개의 가속 코어와 256억 개 트랜지스터를 탑재한 5나노미터 기반 시스템온칩(SoC) 형태로, 75와트 PCIe 카드에 장착된다. IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. 스파이어 엑셀러레이터를 통해 IBM 고객은 온프레미스 환경에서 빠르고 안전한 AI 추론 기능을 활용할 수 있다. 특히 IBM Z 및 리눅스원 시스템에서는 텔럼 II 프로세서와 결합해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에서 다중 AI 모델을 적용할 수 있다. 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 생성형 AI 모델을 업무에 손쉽게 통합할 수 있으며 128개 토큰 길이의 프롬프트 입력을 지원해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. IBM 인프라 사업부 배리 베이커 최고운영책임자(COO)는 "스파이어 엑셀러레이터를 통해 우리 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다"며 "고객이 AI 기반 핵심 업무를 보안성·복원력·효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다"고 말했다. IBM 반도체·하이브리드 클라우드 부문 무케시 카레 부사장은 "최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데 AI HW 리서치 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다"며 "이번 스파이어 칩의 정식 출시로 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 됐다"고 강조했다.

2025.10.28 14:46한정호

세종 부용산에 숨 쉬는 네이버의 AI 심장, '각 세종' 가보니

세종시 부용산 자락에 자리한 네이버의 두 번째 데이터센터 '각 세종'. 겉으로는 조용하지만 내부는 쉼 없이 움직이는 거대한 기술 생태계다. 인공지능(AI) 시대 핵심 인프라로 불리는 이곳을 직접 찾아가 봤다. 네이버클라우드는 지난 27일 각 세종 데이터센터에서 테크밋업을 개최하고 AI 인프라 운영 기술과 친환경 설계 시스템을 공개했다. 이날 현장에서는 AI 서비스의 핵심인 그래픽처리장치(GPU) 서버, 냉각 기술, 전력 구조, 자율주행 로봇 시스템까지 살펴볼 수 있었다. 첫 방문지는 서버 IT 창고였다. 자산 관리 구역임에도 인력의 움직임은 거의 없었다. 대신 '가로'와 '세로'로 불리는 로봇이 서버를 실어 나르며 작동 중이었다. 이 로봇들은 자산 입출고를 자동화해 사람의 개입 없이 서버를 적재하고 회수하는 역할을 한다. 매년 5천 대 이상의 서버를 교체할 수 있는 효율성을 갖췄다. 로봇은 카메라와 센서를 기반으로 서버 위치를 스스로 인식하고 높이 3m 랙에도 정확히 접근한다. 자율주행 로봇 가로는 최대 400㎏의 장비를 운반할 수 있으며 내부 동선은 네이버클라우드의 통합 로봇 관제 플랫폼 '아크' 시스템으로 관리된다. 이어진 공간은 냉각 기술의 핵심인 '나무'였다. 이는 네이버가 자체 개발한 외기 냉각 시스템으로, 자연 바람을 활용해 서버의 열을 식히는 구조다. 네이버 김예원 도슨트는 "각 세종에 적용된 나무 3세대는 계절과 기후에 따라 외기 모드를 자동 전환하는 하이브리드 시스템"이라며 "일반 냉동 방식 대비 최대 73%의 전력 효율을 달성했다"고 설명했다. 서버실에서 발생하는 열은 폐열 회수 시스템을 통해 재활용된다. 바닥 난방과 겨울철 도로 제설용 스노우멜팅 시스템에 쓰이며 센터의 에너지 순환 구조를 완성한다. 이러한 각 세종의 전력효율지수(PUE)는 1.1 수준으로, 글로벌 하이퍼스케일 센터 중에서도 최상위 등급이다. GPU 서버실에 들어서면 공기의 흐름이 달라진다. 고전력 서버에서 발생한 열은 천장을 통해 배출되고 바닥과 벽면을 따라 차가운 공기가 순환한다. 각 세종은 정전이나 장애에 대비해 전력 인입선로를 이중화했으며 무정전전원장치(UPS)와 비상 발전기를 통해 72시간 이상 자가 전력을 유지할 수 있다. 운영 효율을 높이기 위해 각 세종은 로봇 기반 자산 관리와 자율주행 셔틀 '알트비' 시스템도 도입했다. 축구장 41개 크기의 부지를 이동하며 인력과 장비를 운반하는 이 셔틀은 네이버랩스의 자율주행 기술과 네이버클라우드의 관제 시스템이 결합된 결과물이다. 센터의 중앙 제어실은 각종 수치를 실시간으로 모니터링하는 관제의 두뇌 역할을 맡고 있었다. 온습도, 전력 사용량, GPU 랙당 전력 밀도, 네트워크 트래픽이 실시간으로 표시되고 외부 사고나 트래픽 급증 상황에 즉각 대응할 수 있도록 구성됐다. 김 도슨트는 "각 세종은 국내 데이터센터 중 유일하게 네트워크망·전력·데이터 모두를 이중화한 구조"라며 "정전이나 장애가 발생해도 즉시 복구 가능한 구조로 설계됐다"고 말했다. 센터 외부의 친환경 설계도 눈에 띄었다. 옥상에는 태양광 발전 설비가, 지하에는 지열 냉난방 시스템이 적용돼 있으며 서버실에서 발생한 폐열은 다시 에너지로 순환된다. 네이버에 따르면 이 구조를 통해 연간 이산화탄소 배출량을 약 1만5천 톤 줄일 수 있고 이는 나무 225만 그루를 심는 효과와 맞먹는다. 또 각 세종은 세계적 친환경 건축 인증인 리드 플래티넘 등급을 획득했다. 세종 부용산의 단단한 화강암 지반 위에 세워진 이 건물은 규모 7의 지진에도 견디는 내진 특등급으로 설계됐다. 각 세종은 향후 증축을 통해 270메가와트(MW) 전력 수용 규모로 확장될 예정이다. 완공 시에는 세종시 전체 인구의 전력 소비량에 맞먹는 AI 인프라가 된다. 네이버클라우드 노상민 센터장은 "각 세종은 단순히 데이터를 보관하는 공간이 아니라 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼"이라며 "지속가능성과 효율, 복원력을 모두 갖춘 하이퍼스케일 인프라로 설계됐다"고 강조했다.

2025.10.28 09:03한정호

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

한미 관세 팩트시트 확정…기업들 "불확실성 걷혔다"

웹툰엔터vs픽코마, 3분기 성적·확장 전략 비교해보니

벤츠, 韓에 직판제·亞구매 허브 구축…"세계 최고 고객 경험 선사"

해킹 인질된 핀테크社 "몸값 줄 돈, 보안 연구 기부하겠다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.