[현장] 에퀴닉스 "AI 시대 분산형 인프라가 경쟁력"…'SL4'서 차세대 전략 공개
에퀴닉스가 에이전틱 인공지능(AI) 시대 높아지는 워크로드 수요에 맞춰 차세대 분산형 인프라 전략을 공개했다. 장혜덕 에퀴닉스 한국 대표는 18일 경기도 고양시 향동동에서 열린 'SL4' 데이터센터 투어 행사에서 "AI 시대에는 데이터가 생성되는 위치에서 바로 추론까지 이어지는 초저지연 인프라가 핵심 경쟁력이 될 것"이라며 "글로벌 표준의 회복 탄력성과 연결성을 한국 시장에서도 동일하게 제공하겠다"고 강조했다. 이날 행사에서 에퀴닉스는 SL4 데이터센터 설계 철학과 글로벌 AI 에코시스템 전략을 소개하며 한국 시장 내 AI 인프라 수요 확산에 맞춘 고집적·고효율 인프라 대응 방안을 제시했다. SL4는 상암 SL1과 다크파이버로 직접 연결된 도심형 멀티사이트 구조를 기반으로 그래픽처리장치(GPU) 기반 AI 워크로드를 소화할 수 있도록 전력·냉각·보안·연결성 전반을 강화한 점이 특징이다. "AI 워크로드가 기존 인프라를 바꾸고 있다" 이날 장 대표는 AI 워크로드 확산이 기존 데이터센터 인프라의 한계를 드러내고 있다고 설명했다. 전통적인 IT 워크로드가 랙당 5~10키로와트(kW) 전력을 기준으로 설계돼 온 반면, 최신 AI 서버는 랙당 40~80kW, 일부 고성능 모델은 120kW까지 요구하며 기존 설계 기준을 넘어서는 수준으로 진화하고 있다는 분석이다. AI 추론의 실시간성도 주요 의제로 다뤄졌다. AI 서비스가 10밀리초(ms) 미만의 지연을 전제로 설계되고 있으며 제조·금융·미디어 등 다양한 산업에서 엣지 기반 실시간 서비스가 급증하면서 데이터센터의 물리적 위치와 네트워크 구조 전반이 재편되고 있는 상황이다. 장 대표는 "AI 인프라는 기존 시설의 여유 용량을 조금 더 활용하는 수준이 아니라 완전히 다른 차원의 설계 구조를 요구한다"며 "데이터가 생성된 곳에서 즉시 추론하는 구조가 AI 시대의 기본 환경이 될 것"이라고 설명했다. 특히 AI 학습·추론을 위한 데이터 이동 비용·지연·규제 부담이 커지면서 기업들이 데이터를 가능한 인접 클라우드나 내부 인프라에 위치시키는 방식을 선호한다는 분석도 제기됐다. 이와 관련해 장 대표는 에퀴닉스가 구축한 글로벌 AI 에코시스템을 소개했다. 아마존웹서비스(AWS)·마이크로소프트(MS) 애저·구글 클라우드 등 글로벌 클라우드 사업자(CSP)는 물론, 엔비디아·AMD 같은 AI 인프라 기업, 네트워크 사업자와 데이터 플랫폼 기업들을 에퀴닉스 생태계 안에서 모두 연결한다는 게 강점으로 평가된다. 에퀴닉스 데이터센터 고객은 하나의 플랫폼 상에서 다양한 AI 서비스와 인프라를 조합할 수 있다는 설명이다. 차세대 분산형 AI 인프라 전략도 제시했다. 데이터 생성 위치에서는 추론, 중앙 리전에서는 대규모 학습을 수행하는 이원화 구조를 통해 성능과 비용을 모두 확보할 수 있는 방안이다. 장 대표는 "에퀴닉스 생태계 안에서 퍼블릭 AI와 프라이빗 AI 간 이동성이 확보되면 산업 전반의 AI 도입 속도가 더욱 빨라질 것"이라고 덧붙였다. 마지막으로 데이터센터 지속가능성과 회복 탄력성도 강조됐다. 에퀴닉스는 전 세계 37개국, 77개 대도시에서 270개 이상 데이터센터를 재생에너지 기반으로 운영 중이며 연간 99.999% 이상의 가동률을 유지하고 있다. 고집적·고효율 설계로 무장한 SL4…AI 시대 데이터센터 표준 제시 이날 행사가 진행된 SL4 데이터센터는 서울·고양 일대를 하나의 디지털 캠퍼스로 연결하는 전략적 거점으로 구축됐다. 에퀴닉스가 상암에 구축한 SL1, 고양시에 위치한 SL2x와 다크파이버로 직접 연결해 초저지연 환경을 보장하며 AI·클라우드 서비스가 요구하는 분산형 워크로드를 구성했다. 전력 공급 체계는 'N+1' 구조를 적용해 안정성을 극대화했다. 3.9메가와트(MW)급 비상 발전기 10대를 확보해 외부 전력 차단 시에도 장시간 독립 운영이 가능하며 모든 발전기는 지하층 대형 연료탱크와 연동돼 중단 없는 전력 공급을 보장한다. 매년 전력 차단 후 발전기 단독으로 센터 전체를 가동하는 'CUFT 테스트'를 직접 수행하는 것도 에퀴닉스의 차별화된 안정성 확보 전략이다. 무정전전원공급장치(UPS)와 배터리룸은 국내 기준보다 높은 수준으로 설계됐다. 배터리룸은 별도 공간으로 분리됐으며 2시간 내화 성능을 갖춘 방화벽 구조가 적용됐다. 이종래 에퀴닉스 한국 센터장은 "일반적으로 한 공간에 배터리와 UPS를 함께 두는 경우가 많지만 글로벌 기준은 철저한 분리 구조를 요구한다"고 설명했다. 냉각 구조는 에퀴닉스 특허 기반 '핫 아이슬' 컨테인먼트 방식이 적용됐다. 뜨거운 공기를 분리해 회수하는 구조를 통해 높은 에너지 효율을 확보하고 리퀴드 쿨링을 즉시 적용할 수 있도록 수배관 설계를 미리 반영한 점도 특징이다. GPU 기반 서버 증가로 열 밀도가 빠르게 높아지는 시장 상황에 대응한 설계로 꼽힌다. 운영·보안 측면에서도 SL4는 글로벌 표준을 그대로 적용했다. 고객별 프라이빗 케이지와 QR 기반 장비 식별·문서화 시스템을 통해 장애 대응 속도를 높였으며 설비·전력·통신 라인은 색상과 레이어별로 완전히 분리해 운영 안정성을 확보했다. 소방 인프라 역시 고급형 노즐 시스템 도입 등 비용보다 안정성을 우선한 설계 철학이 반영됐다. "한국은 성장 잠재력이 큰 시장…전력·망·생태계가 경쟁력 결정" 아울러 에퀴닉스는 국내 데이터센터 시장의 성장 조건과 과제를 설명하며 글로벌 사업자가 바라보는 경쟁력 요소를 제시했다. 먼저 에퀴닉스는 글로벌 이중화 구조를 기반으로 해외 리전 장애 시에도 한국 리전으로 즉시 우회가 가능한 운영 체계를 강조했다. 이같은 글로벌 표준화 운영 모델은 멀티리전 기반의 AI 서비스를 제공하는 기업에게 중요한 인프라 요소라는 설명이다. GPU 고집도 이슈에 대해서는 최신 AI 서버가 요구하는 전력량과 발열이 기존 데이터센터 구조를 빠르게 대체하고 있다고 진단했다. SL4는 공랭 기반으로도 운영이 가능하지만 필요 시 즉시 리퀴드 쿨링으로 확장할 수 있는 파이프 구조를 이미 설계 단계에서 반영했다. 또 전력 인프라와 입지 조건에 대해 장 대표는 "전력이 제공되지 않는 지역은 데이터센터 입지로 의미가 없다"며 "한국에서도 에너지 인프라 확충 정책이 가시화되고 있어 긍정적"이라고 평가했다. 국내 시장 구조에 대해서는 기존 통신사 중심 시장이 점차 분산되고 있다고 설명했다. 에퀴닉스는 통신사 중립적 사업자라는 점을 강조하며 다양한 글로벌·국내 네트워크 사업자가 한 공간에서 연결되는 구조가 AI 시대의 가장 큰 차별성이라고 소개했다. 이를 통해 국내 데이터를 해외 사용자나 글로벌 AI 서비스와 빠르고 효율적으로 연결할 수 있다는 점도 부각됐다. 분산형 AI 환경이 본격화되는 흐름도 설명했다. 데이터가 생성되는 지점에서 추론을 수행하고, 중앙 리전에서 학습을 처리하는 구조가 확산되면서 다계층 네트워크 패브릭을 제공하는 에퀴닉스의 역할이 커지고 있다는 것이다. 장 대표는 SL4를 포함한 서울·고양 데이터센터 캠퍼스가 이러한 분산형 AI 구조를 한국 기업이 활용하는 데 주요 거점 역할을 할 것으로 전망했다. 마지막으로 에너지·망 정책 이슈에 대해서도 의견을 제시했다. 장 대표는 "정부의 AI 확산 기조에 맞춰 에너지 확보 정책과 전력 인프라 지원이 확대되면서 국내 데이터센터 산업의 성장 속도가 빨라질 것"이라며 "망사용료 관련 논의도 산업 전반의 투명성과 개방성을 높이는 방향으로 이뤄지길 기대한다"고 밝혔다. 이어 "한국 시장에서 다양한 생태계 파트너가 만나는 분산형 AI 허브라는 본연의 역할을 강화해 나가겠다"고 덧붙였다.