• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (289건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

xAI, 태양광 발전소 구축 계획…"가스 의존은 지속"

일론 머스크의 xAI가 인공지능(AI) 연산 전력 확보를 위해 태양광 발전소를 짓는다고 발표했지만, 가스 의존을 줄이지 못해 오염 논란에서 벗어나지 못할 것이라는 비판을 받고 있다. 27일 테크크런치 등 외신에 따르면 xAI는 미국 멤피스 데이터센터 인근에 소규모 태양광 발전소를 건설한다는 계획을 밝혔다. xAI는 멤피스 시와 카운티 계획 담당자들에게 콜로서스 데이터센터 서쪽과 남쪽 약 35.6헥타르(ha) 규모 부지에 발전소를 짓겠다고 알렸다. 콜로서스는 세계 최대급 AI 학습용 데이터센터로 알려져 전력 수요가 매우 큰 편에 속한다. 해당 부지는 개발사가 보유한 약 55ha 규모 공터와 맞닿았다. 태양광 발전 규모는 약 30메가와트(MW)로 추정된다. 다만 이는 전체 전력 수요의 약 10% 수준에 불과한 것으로 확인됐다. 이에 다수 외신은 xAI가 가스 터빈에 지속 의존할 것이라고 분석했다. 현재 xAI는 허가 없이 400MW 넘는 천연가스 터빈을 운영해 왔다는 비판을 받고 있다. 미국 남부환경법센터는 xAI가 연간 2천톤 넘는 질소산화물을 배출할 수 있는 가스 터빈을 35기 넘게 가동하고 있다고 밝혔다. 이 가스 터빈은 인근 보크스타운 주민들의 반발을 불러왔다. xAI 운영 이후 환경 변화가 심각해졌다는 이유에서다. 테네시대 녹스빌 캠퍼스 연구진도 xAI 터빈 가동 후 주변 지역의 이산화질소 농도가 79% 증가했다고 분석했다. 지역 활동가들도 데이터센터가 문을 연 뒤 천식 발작과 호흡기 질환 사례가 늘었다고 주장하고 있다. xAI는 대체 전력을 확보하기 전까지 터빈 사용을 계속하겠다는 입장을 고수하고 있다. 현지 당국은 xAI에 2027년 1월까지 터빈 15기 운영을 공식 허가한 상태다. 또 xAI는 지난 9월 100MW 태양광과 100MW 배터리 팩을 결합한 별도 에너지 프로젝트도 추진하겠다고 밝혔다. 이 프로젝트는 세븐스테이츠파워 코퍼레이션이 개발을 맡았으며 미국 농무부는 총 4억3천900만 달러(약 6천437억원)를 지원했다. 이 가운데 4억1천400만달러는 무이자 대출로 배정됐다. 현재 미시시피 지역에서도 xAI 가스 터빈 59대가 설치됐다. 이중 18기는 임시 설비로 분류돼 규제기관의 오염물질 추적 대상에서 제외다. 해당 터빈들은 '콜로서스 2' 데이터센터 전력 공급에 사용되고 있다. 테크크런치는 "트럼프 행정부가 환경보호청과 에너지부에 청정에너지 보조금을 대거 중단한 상황에서 이번 사례는 이례적"이라고 평가했다.

2025.11.27 11:09김미정 기자

AI 시대 핵심 인프라 '쿠버네티스'…메타넷 "캐스트 AI로 운영·비용 자동 최적화"

인공지능(AI) 시대 기업의 인프라 운영 방식이 급격히 변화하며 비용 효율성과 운영 민첩성을 동시에 확보하기 위한 핵심 플랫폼으로 '쿠버네티스'가 부상했다. 이 가운데 메타넷은 AI 네이티브 전환을 선도하기 위한 인프라 운영 관리 해법을 제시했다. 메타넷엑스 오창훈 이사는 26일 진행된 'AI-레디 2026' 웨비나에서 "AI 워크로드 증가로 인해 그래픽처리장치(GPU) 자원·멀티 클러스터 환경 관리가 필수 영역으로 떠오르면서 쿠버네티스는 이제 애플리케이션 배포 기술을 넘어 AI 인프라를 효율적으로 운영하기 위한 핵심 플랫폼이 됐다"고 강조했다. 쿠버네티스의 중요성은 AI 도입 흐름과 맞물려 더 커지고 있다. AI·머신러닝(ML) 기반 모델을 운영하려면 확장 가능한 인프라, 효율적 GPU 관리, 멀티 클라우드 운영 능력이 필수다. 쿠버네티스는 이를 표준화된 방식으로 구현할 수 있는 사실상 유일한 플랫폼으로 자리 잡았다. 특히 대규모언어모델(LLM) 배포까지 단일 플랫폼으로 다룰 수 있어 기업의 AI 인프라 경쟁력을 결정하는 핵심 요소로 꼽힌다. 메타넷은 이같은 쿠버네티스 시장의 핵심 변화로 ▲AI·ML 워크로드의 본격적 융합 ▲GPU 중심 인프라 확산 ▲멀티 클라우드 운영 일반화 ▲보안·규제 대응 요구 증가 등을 제시했다. 기업이 특정 클라우드 서비스 제공자(CSP)에 종속되지 않고 유연하게 인프라를 설계할 수 있다는 점도 쿠버네티스의 강점으로 평가된다. 특히 금융권과 제조·물류 산업에서 쿠버네티스 도입이 빠르게 늘고 있다. 메타넷엑스 이준석 이사는 "전자금융감독규정 개정 이후 컨테이너 기반 재해복구(DR) 체계 구축이 사실상 금융권 표준으로 자리잡으며 레드햇 '오픈시프트'와 같은 엔터프라이즈급 쿠버네티스 플랫폼 도입이 활발해졌다"며 "공공·제조 분야에서도 보안 규제와 스마트팩토리 대응을 위한 클라우드 전환이 급증하고 있다"고 설명했다. 아울러 메타넷이 쿠버네티스 도입·전환 지원을 통해 창출한 인프라 비용 60% 절감, 멀티 클러스터 중앙 관리, 서비스 출시 속도 2배 향상과 같은 실질적 성과가 소개됐다. 쿠버네티스를 구축했다고 해서 운영 효율화가 끝나는 것은 아니다. 오 이사는 "클러스터가 늘어날수록 운영 복잡성은 폭발적으로 증가하기 때문에 이후 단계에서는 비용 최적화와 운영 자동화가 필수"라고 말했다. 이어 "GPU 인스턴스는 가격 변동성이 크고 리전·가용성별 재고가 수시로 바뀌기에 엔지니어가 실시간으로 관리하는 것은 구조적 한계가 있다"고 덧붙였다. 이러한 배경에서 메타넷엑스는 핵심 솔루션인 '캐스트 AI'를 공급 중이다. 캐스트 AI는 쿠버네티스 클러스터를 AI가 실시간 분석하고 자동으로 리소스를 재배치·조정하는 AI 기반 자동화 '핀옵스' 플랫폼이다. 기존 모니터링 중심 핀옵스를 넘어 인프라를 스스로 최적화·조치하는 자율형 자동화 플랫폼(APA)을 구현하는 것이 특징이다. 캐스트 AI가 제공하는 대표 기능은 ▲AI 기반 리소스 자동 선택 ▲라이트 사이징 ▲빈 패킹 ▲GPU 공유·통합 ▲스팟 인스턴스 자동화 ▲멀티 클라우드 최적화 등이다. 특히 GPU 비용은 전체 AI 운영비 중 가장 큰 비중을 차지하는데 캐스트 AI를 통해 최대 90% 수준까지 GPU 비용을 절감할 수 있다는 점이 강조됐다. 다양한 기업 도입 사례도 소개됐다. 아카마이는 캐스트 AI 적용 후 40~70% 인프라 비용 절감을, 허깅페이스는 GPU 비용 10배 절감, 닐슨IQ는 최대 80% 절감 성과를 거뒀다. 중견기업 역시 스팟 인스턴스 자동화만으로 상당한 비용 개선 효과가 나타난다는 게 메타넷 측 설명이다. 또 캐스트 AI는 클라우드·리전별 가격·가용성을 실시간 수집해 최적의 GPU 위치를 자동으로 찾아주는 기능을 지원한다. 가장 저렴한 리전에 워크로드를 자동 라우팅하는 방식이다. 메타넷엑스 김병기 이사는 "캐스트 AI는 클러스터 연결만 하면 초기 분석 보고서를 통해 즉시 절감 가능성을 확인할 수 있고 기술검증(PoC)만으로도 평균 30% 정도의 절감 효과를 거둘 수 있다"며 "캐스트 AI의 한국 공식 파트너로서 PoC·교육·설계를 전담해 고객이 빠르게 투자수익률(ROI)을 확보할 수 있도록 지원한다"고 강조했다.

2025.11.26 15:32한정호 기자

[현장] 국산 AI 반도체·클라우드 결합 '시동'…국가 인프라 강화 선언

국산 인공지능(AI) 반도체와 클라우드 산업의 융합이 궤도에 올랐다. 초거대 AI 시대를 맞아 국가 인프라의 근간이 되는 클라우드가 스마트화와 지능형 자원 운영이라는 새로운 전환점을 맞이하면서 국산 기술 중심의 풀스택 생태계 구축이 본격화되고 있다. 오픈K클라우드 커뮤니티는 25일 서울 강남 과학기술회관에서 '오픈K클라우드 데브데이 2025'를 열고 국산 AI 반도체와 클라우드 융합 전략을 공유했다. 오픈K클라우드 커뮤니티에는 한국전자통신연구원(ETRI), 한국전자기술연구원(KETI), 이노그리드, 오케스트로, 경희대학교, 연세대학교, 한국클라우드산업협회(KACI), 퓨리오사AI 등 산·학·연 주요 기관이 공동 참여한다. 이번 행사는 커뮤니티의 첫 공식 기술 교류 행사로, 국산 AI 반도체를 중심으로 한 클라우드·소프트웨어(SW) 전주기 기술을 한자리에서 조망하며 국가 AI 인프라 경쟁력 제고 방안을 논의했다. ETRI 최현화 박사는 "이제 AI 서비스의 경쟁력은 모델을 누가 더 잘 만드느냐보다 누가 더 나은 인프라로 지속적으로 운영하느냐가 핵심"이라고 강조하며 클라우드의 대전환기를 진단했다. 최 박사는 최근 글로벌 거대언어모델(LLM) 발전의 특징을 멀티모달 확장, 컨텍스트 윈도우의 급격한 증가, 툴 연동 기반 정확도 향상으로 정리했다. 특히 메타가 공개한 오픈소스 LLM '라마'의 컨텍스트 윈도우가 1천만 토큰 수준으로 확장된 점을 언급했다. 그는 이러한 추세 속에서 국내 클라우드 산업이 ▲AI 가속기 이질성의 심화 ▲메모리 병목 문제 ▲추론 비용의 급증 ▲에이전트 폭증에 따른 관리 복잡도 증가 등 여러 난제를 동시에 마주하고 있다고 짚었다. 가장 먼저 꼽힌 것은 AI 가속기의 이질성 문제다. 엔비디아 그래픽처리장치(GPU) 중심 생태계가 유지되고 있지만 국내외에서 신경망처리장치(NPU)·AI칩·메모리 내 연산(PIM) 등 다양한 가속기와 인터커넥트 기술이 빠르게 등장하면서 단일 아키텍처에 의존하는 방식은 지속 가능하지 않다는 지적이다. 이어 LLM 추론의 핵심 병목으로 작용하는 '메모리 월'도 문제로 제기됐다. GPU 성능이 가파르게 증가하는 동안 메모리 기술 향상 속도는 더디기 때문이다. 최 박사는 SK하이닉스의 'AiMX', CXL 기반 차세대 메모리 사례를 언급하며 "AI 추론은 본질적으로 메모리 중심 작업이기에 차세대 메모리가 성능의 핵심을 좌우하게 될 것"이라고 말했다. LLM 스케일링 문제 역시 중요한 도전 과제로 다뤄졌다. 사용자 요구는 계속 높아지지만 단일 모델의 크기 확장에는 한계가 있어 여러 전문가 모델을 조합하는 '전문가 혼합(MoE)' 방식이 중요한 돌파구가 될 것이라고 강조했다. AI 모델마다 강점이 다른 만큼 다중 LLM 기반 지능형 추론은 필연적인 흐름이라는 설명이다. 추론 비용 문제도 빠지지 않았다. 최 박사는 "엔비디아 B200 급 GPU의 전력 소비가 1킬로와트(kW)에 이르는데, 이러한 DGX 서버 100대를 하루 운영하면 테슬라 전기차로 지구를 일곱 바퀴 도는 전력량에 해당한다"고 설명했다. 그러면서 "전력·비용 최적화는 하드웨어(HW) 스펙뿐 아니라 스케줄링, 클러스터 재구성이 필수"라고 말했다. 또 LLM·에이전트·데이터소스가 동적으로 연결되는 시대가 되면서 모니터링 복잡성이 기하급수적으로 커지고 있다는 점도 지적했다. 기존에는 레이턴시와 처리량을 중심으로 모니터링했다면 이제는 LLM의 할루시네이션 여부, 에이전트 간 호출 관계, 로직 변경 이력까지 관측해야 안정적 운영이 가능하다는 것이다. 이 같은 문제를 해결하기 위해 ETRI는 과학기술정보통신부가 추진하는 'AI 반도체 클라우드 플랫폼 구축 및 최적화 기술 개발' 과제에 참여했다. 이를 통해 ▲이종 AI 반도체 관리 ▲클라우드 오케스트레이션 ▲자동 디바이스 감지 ▲협상 기반 스케줄링 ▲국산 NPU 특화 관측 기술을 포함한 오픈소스형 '오픈K클라우드 플랫폼'을 개발 중이다. ETRI는 5년간 진행되는 사업에서 2027년 파라미터 규모 640억 LLM, 2029년 3천200억 LLM 지원을 목표로 풀스택 AI 클라우드 생태계를 구축할 계획이다. 오픈K클라우드 커뮤니티에 참여하는 퓨리오사AI, 이노그리드, 오케스트로도 이날 국산 AI 반도체와 클라우드 융합 생태계 활성화를 위한 기술 전략을 발표했다. 퓨리오사AI 이병찬 수석은 엔비디아 의존을 극복하기 위해 전력·운영 효율성을 높인 '레니게이드' 칩과 SW 스택을 소개했다. 이노그리드 김바울 수석은 다양한 반도체가 혼재된 클라우드 구조를 성능·전력·비용 최적화로 통합한 옵저버빌리티의 전략을 공유했다. 오케스트로 박의규 소장은 자연어 요구 기반 코딩과 자동화된 테스트·배포를 지원하는 에이전트형 AI SW 개발환경(IDE) 트렌드와 국내 시장의 변화에 대해 발표했다. 최 박사는 "앞으로 오픈K클라우드 플랫폼을 통해 국산 AI 반도체가 국가 핵심 인프라에 적용될 수 있는 계기를 만들겠다"고 강조했다. 이어 "아직 확정은 아니지만 정부가 추진하는 '국가AI컴퓨팅센터' 사업에 우리 플랫폼을 탑재할 수 있는 계기를 만들 것"이라며 "국산 AI 반도체 실사용자의 요구사항을 반영해 레퍼런스를 쌓아가는 것이 목표"라고 덧붙였다.

2025.11.25 17:10한정호 기자

이노그리드, 위엠비와 AI 데이터센터 운영 관리 역량 '강화'

이노그리드가 미래 인공지능(AI) 인프라 시장 선도를 위한 구축·관리 역량 확보에 박차를 가한다. 이노그리드는 위엠비와 국내 AI 데이터센터 관리 사업 협력을 위한 업무협약(MOU)을 체결했다고 25일 밝혔다. 협약식은 지난 24일 위엠비 사옥에서 진행됐으며 김명진 이노그리드 대표, 박창원 전무, 김홍진 전무와 김수현 위엠비 대표, 임대춘 상무, 박건범 상무 등 주요 관계자가 참석했다. 이노그리드는 올해 7월 과학기술정보통신부와 정보통신기획평가원이 주관하는 '마이크로 데이터센터 연동 스케일아웃 클라우드 기술개발' 연구개발(R&D) 과제를 수주했다. 이를 바탕으로 분산된 초소형 데이터센터를 통합 관리하고 대규모 AI 연산을 효율적으로 처리할 수 있는 혁신 기술 개발·상용화를 추진 중이다. 이노그리드는 지난 12일 개최한 자사 클라우드 컨퍼런스 'IC3 2025'에서 AI 드리븐 데이터센터 솔루션 사업자로의 변모를 공식 선언하는 등 미래 AI 데이터센터 시장을 선도하기 위한 준비를 하고 있다. 이번 협약은 급변하는 AI 시대에 발맞춰 미래 AI 데이터센터 기술 개발과 공동 비즈니스를 발굴하기 위해 추진됐다. 앞서 이노그리드와 위엠비는 과기정통부와 정보통신산업진흥원이 추진하는 '국산 장비·소프트웨어(SW) 개발 고도화 및 실증' 사업을 통해 AI 기반의 데이터센터 인프라 관리(DCIM) 고도화와 국산화를 진행하는 등 협력 관계를 이어오고 있다. 이번 협약으로 양사는 이노그리드의 클라우드, AI 인프라 구축 역량과 위엠비의 데이터센터 관리 기술을 결합해 ▲AI 데이터센터 운영 관리를 위한 공동 기술 개발 ▲AI 데이터센터 시장 전반에 대한 공동 비즈니스 ▲AI 데이터센터를 위한 양사 전문 기술 정보 교류 ▲양사 기술 개발 및 비즈니스 협력을 위한 신규 사업 발굴 등을 추진할 계획이다. 양사는 향후 기술 협력 범위를 확대해 공동 기술 개발 로드맵 수립과 파일럿 과제 발굴도 진행한다. 김명진 이노그리드 대표는 "양사의 전문성 융합을 통해 AI 시대를 선도할 데이터센터의 혁신 생태계를 만들어 미래 성장 동력을 창출하고 AI 데이터센터의 기준점을 제시하겠다"고 밝혔다. 김수현 위엠비 대표는 "AI 서비스의 안정성과 효율성을 확보하려면 데이터센터 운영의 지능화가 필수적"이라며 "이번 협력을 통해 국내 AI 데이터센터 운영의 새로운 기준을 마련하고 실증 기반 기술 고도화와 상용화를 통해 고객 가치 제고에 기여하겠다"고 말했다.

2025.11.25 10:37한정호 기자

와탭랩스 "향후 10년 AI 네이티브 옵저버빌리티 시대 주도한다"

"인공지능(AI) 인프라 시대에는 그래픽처리장치(GPU)와 클라우드 네이티브 환경을 아우르는 통합 옵저버빌리티가 기업 경쟁력을 좌우할 것입니다" 이동인 와탭랩스 대표는 지난 20일 웨스틴 서울 파르나스 호텔에서 열린 '와탭 옵저브 서밋 2025' 기자간담회에서 AI 시대 옵저버빌리티의 역할에 대해 이같이 강조했다. 이날 와탭랩스는 GPU·쿠버네티스·온프레미스·서비스형 소프트웨어(SaaS) 환경을 통합하는 차세대 옵저버빌리티 전략을 공유했다. 최근 AI 인프라 확장에 따라 관측·분석해야 할 IT 지표가 기하급수적으로 늘어나는 상황에서 이를 실시간 통합해 해석할 수 있는 와탭랩스 플랫폼의 수요가 늘고 있다. 이에 대해 와탭랩스 김성조 최고기술책임자(CTO)는 "향후 데이터센터는 GPU 기반 AI 인프라 중심으로 빠르게 재편될 것"이라며 "데이터 규모와 시스템 복잡도가 폭발적으로 증가하는 만큼, 효율적으로 AI를 활용하기 위해서는 통합 옵저버빌리티 전략의 중요성이 더 커질 수밖에 없다"고 말했다. 이런 흐름에 맞춰 와탭랩스는 GPU 전력 단계부터 서버·컨테이너·쿠버네티스까지 전 계층을 연동해 분석하는 기존에 존재하지 않던 형태를 개발 과정에 반영했다. 상당한 기술적 어려움을 극복한 와탭랩스는 올해 GPU 모니터링 솔루션을 공식 출시해 다수 기업과 기술검증(PoC)을 진행하며 국내 최다 수준의 GPU 모니터링 경험을 확보했다고 강조했다. 이 대표는 "국내 기업들이 GPU 인프라 운영 규모를 크게 공개하지 않는 상황에서도 문의가 꾸준히 증가하고 있다"며 "내년에는 GPU 모니터링 사업이 올해의 4배 수준인 매출 20% 기여도까지 확대될 수 있을 것"이라고 전망했다. 쿠버네티스 모니터링 경쟁력에 대한 강점도 소개했다. 실시간성을 기반으로 한 초 단위 분석, 직관적 UI, SaaS·온프레미스 동시 제공 구조가 글로벌 모니터링 솔루션과 차별화되는 핵심 요소라는 설명이다. 해외 제품들이 분 단위로 데이터를 집계하는 것에 비해 와탭랩스 플랫폼은 전 계층을 초 단위로 수집해 즉시 분석할 수 있어 실시간 대응에 최적화돼 있다는 것이다. 글로벌 확장 로드맵도 공유했다. 이 대표는 "일본·동남아 시장에서 빠르게 성장하고 있으며 특히 동남아에서는 전년 대비 2배 이상의 매출을 기대하고 있다"며 "아시아 기업은 온프레미스 기반 풀스택 옵저버빌리티 수요가 여전히 높아 우리 플랫폼의 구조적 강점이 크게 작용하고 있다"고 밝혔다. 이어 "내년에는 미국 진출도 본격 추진할 계획"이라고 덧붙였다. 이번 서밋에서 와탭랩스는 데이터 레이크 기반의 AI 레디 옵저버빌리티 플랫폼 '옵스레이크'를 중심으로 GPU 모니터링 고도화, AI 기반 운영 자동화, 오픈 메트릭 통합 등 기술 로드맵도 발표했다. 행사에는 아마존웹서비스(AWS)를 비롯한 주요 파트너사·고객사가 참여해 GPU·AI·테크·비즈니스 분야의 실제 활용 사례도 공유했다. 와탭랩스는 올해 가트너 '인프라 모니터링 도구 마켓 가이드'에서 국내 기업 중 유일하게 대표 기업으로 선정되는 등 기술력을 입증했다. 1천200여 고객사 기반의 글로벌 사업 확장도 지속 추진한다는 목표다. 이 대표는 "AI가 개발과 운영 방식을 근본적으로 재정의하고 있는 지금, 옵저버빌리티는 AI의 속도를 따라가기 위한 기업의 엔진이자 중심축이 되고 있다"며 "앞으로의 10년은 우리가 주도하는 AI 네이티브 옵저버빌리티 시대로 만들겠다"고 강조했다.

2025.11.21 09:01한정호 기자

렛서, 기업 AX 전담팀 역할 'AX 파트너즈' 출시

렛서(대표 심규현)가 기업의 AI 전환을 전략 단계에 머무르지 않고 실제 운영과 내재화까지 지원하는 실행형 모델 'AX 파트너즈'를 정식 출시했다고 19일 밝혔다. 렛서는 300개 이상의 AX 프로젝트를 수행하며 축적해온 경험을 토대로, AX 파트너즈를 통해 실행 중심 AX 전환의 표준을 제시한다는 계획이다. 생성형 AI 도입은 빠르게 확산되고 있지만, 실제 성과를 만드는 단계는 여전히 기업의 가장 큰 과제로 남아 있다. 특히 기존의 협업 구조와 복잡한 운영 프로세스로 인해 AI가 실제 업무 체계 안으로 진입하지 못하는 경우가 반복되고 있다. 렛서는 이를 기술의 문제가 아닌, AI가 작동할 수 있도록 업무 흐름과 협업 방식을 정비하지 못해 발생하는 '내재화의 문제'로 진단하며 AX 파트너즈를 설계했다. AX 파트너즈는 파견형 방식의 AX 실행 모델로 운영된다. 렛서의 AX 전문가가 기업 내부에 직접 투입돼 현장의 문제를 발굴하고, 이를 AI가 실제로 처리할 수 있는 방식으로 재구성해 워크플로우에 빠르게 반영한다. 기업은 별도의 전담 조직을 신설하지 않고도 단기간에 성과를 창출하고 조직 내부에 AX 역량을 내재화할 수 있다. 프로그램은 현장에서 즉시 문제를 해결하는 '실행 축'과, 구성원이 AI를 실무에 활용할 수 있도록 역량과 인프라를 조직에 정착시키는 '내재화 축'으로 구성된다. 파견된 전문가가 문제 발굴부터 프로세스 자동화까지 빠르게 실행하여 즉각적인 성과를 만들고, 동시에 구성원의 AI 리터러시 교육과 인프라까지 통합 지원해 전사적 확산을 돕는 구조다. AX 파트너즈는 렛서가 자체 개발한 AX 인프라들과 통합 운영된다. ▲AX-ray(AI 역량 진단) ▲에이블 캠퍼스(맞춤형 AI 교육) ▲AI Gateway(AI API 통합관리) ▲Staix(AI 운영관리 플랫폼) 등 전 주기 솔루션을 통해, 기업은 단기 자동화 성과뿐 아니라 AI가 실제로 업무에 정착하고 조직 역량으로 자리 잡는 'AX 내재화' 단계까지 빠르게 도달할 수 있다. 렛서는 이미 여러 기업에서 AX 파트너즈의 가시적인 성과를 입증했다. 한 K-뷰티 기업은 마케팅·디자인·리서치 프로세스를 약 70% 단축했고, 의류 제조 기업은 제품 상세페이지와 연출샷 제작에 걸리는 시간을 80% 이상 단축했다. 또한 비영리 기관은 동영상 검색 등 내부 자료 관리에 걸리는 시간을 70% 이상 감소하며 업무 효율이 크게 개선됐다. 심규현 렛서 대표는 “AX 파트너즈는 문서나 계획이 아니라 현장에서 바로 돌아가는 운영 모델을 먼저 만드는 구조”라며 “300여 개 프로젝트를 통해 검증된 방법론과 즉시 적용 가능한 솔루션으로, 도입 첫날부터 수치로 증명되는 AX를 지원하겠다”고 밝혔다.

2025.11.19 13:14백봉삼 기자

'아시아 최대 부호' 암바니, 이재용과 AI·6G 논의

아시아 최대 부호인 무케시 암바니 인도 릴라이언스그룹 회장이 한국을 방한해 이재용 삼성전자 회장을 만난다. AI 등 미래 사업에 대한 협력 논의가 오갈 것으로 관측된다. 19일 재계에 따르면 오는 25일 암바니 회장은 장남 아카시 암바니 릴라이언스 지오 인포컴 이사회 의장과 1박 2일 일정으로 방한할 예정이다. 인도 릴라이언스그룹은 석유화학 및 철강, 통신 등 다양한 사업을 수행하고 있다. 통신 계열사인 지오는 초대형 통신사로, 삼성전자와 손잡고 현지 전역에 4G LTE 통신망을 구축한 바 있다. 또한 지난 2022년부터는 5G 통신망 구축 사업에서도 긴밀한 협력을 이어오고 있다. 암바니 회장은 이번 이 회장과의 회동에서도 5G 및 6G 사업 확대, AI 등 다양한 첨단 산업에서의 협력 방안을 논의할 것으로 예상된다. 특히 릴라이언스그룹이 인도에 3GW(기가와트)급 데이터센터를 구축 중인 만큼, 삼성전자가 AI 인프라 분야에서 새로운 기회를 잡을 수 있을 것으로 기대된다. 한편 암바니 회장은 아시아 지역 최대 갑부로서, 지난해 포브스가 집계한 세계 부호 순위에서 9위를 기록했다. 이재용 회장은 지난해 7월 암바니 회장의 막내아들 결혼식에 참석하기 위해 인도에 방문하기도 했다.

2025.11.19 11:19장경윤 기자

韓, 글로벌 AI 인프라 허브로 급부상…빅테크·운용사 데이터센터 투자 '러시'

한국이 글로벌 인공지능(AI) 인프라의 주요 거점으로 부상하고 있다. 미국·중국·싱가포르 등의 주요 빅테크는 물론 대형 자산운용사까지 한국을 아시아태평양 AI 허브의 전략 요충지로 삼으면서 AI 데이터센터 건립·그래픽처리장치(GPU) 공급·재생에너지 연계 인프라 구축이 전방위적으로 확산되는 양상이다. 18일 업계에 따르면 아마존웹서비스(AWS)·알리바바 등 하이퍼스케일 클라우드 사업자를 비롯해 ESR·프린스턴 디지털 그룹(PDG)과 같은 글로벌 자산·데이터센터 운용사들이 한국 데이터센터 개발에 나서고 있다. 수도권과 도심 인근 지역을 중심으로 AI 특화 데이터센터 착공이 잇따르고 정부 역시 국가 차원의 AI 인프라 확충에 속도를 내는 상황이다. 이같은 글로벌 투자 확산의 배경에는 한국의 반도체 공급망 경쟁력, 안정적 전력·통신 인프라, 수도권 중심의 거대 소비·산업 수요 등이 동시에 작용한 것으로 풀이된다. AWS는 한국을 AI 혁신의 핵심 거점으로 지목하며 2031년까지 총 50억 달러(약 7조원) 이상을 추가 투자하기로 했다. 특히 SK그룹과 울산에서 추진 중인 '울산 AI 존'과 인천·경기권 신규 AI 데이터센터 프로젝트는 한국이 하이퍼스케일 AI 인프라 경쟁에서 본격적으로 체급을 키우는 상징적 사례로 평가된다. AWS는 이미 인천 서구 일대 부지를 매입하고 시공사 선정까지 완료해 본격적인 구축 절차에 들어갔다. 중국 알리바바 클라우드도 한국 투자를 강화하고 있다. 알리바바는 내년에 세 번째 국내 데이터센터를 착공해 서울 수도권에 AI 인프라를 대폭 확장할 예정이다. 이는 올해 발표한 두 번째 데이터센터 개소에 이은 연속 투자로, 이커머스·인터넷 기업의 AI 수요 증가에 대응하기 위한 전략이다. 글로벌 자산운용사·데이터센터 운영 전문기업들의 움직임도 빨라지고 있다. 아태지역 실물자산 투자사 ESR은 인천 부평구에 80메가와트(MW)급 AI 데이터센터 'KR1' 착공에 돌입할 예정이다. 해당 시설은 아태지역 기반 운용사인 PDG가 운영을 맡아 2028년 가동될 예정이다. PDG는 이 시설을 포함해 한국에 총 60억 달러(약 8조원) 집중 투자 및 500MW 데이터센터 확장 계획을 공식화하며 기존 싱가포르·일본·인도·인도네시아·중국·말레이시아에 이어 한국을 거점으로 AI·클라우드 수요를 흡수한다는 목표다. 스튜어트 깁슨 ESR 최고경영자(CEO)는 "한국에서 첫 데이터센터 개발을 시작하게 돼 기쁘다"며 "KR1은 고객과 파트너를 성장의 중심으로 이끌 것"이라고 말했다. 또 랑구 살가메 PDG 회장은 "한국은 매우 중요한 시장이며 장기적 확장 전략의 핵심 거점"이라고 강조했다. 글로벌 대형 금융 자본 역시 한국의 잠재력을 높게 평가한다. 블랙록 자회사 뷔나는 우리 정부와 총 20조원 규모의 투자 의향서를 제출하며 재생에너지·데이터센터 결합형 AI 인프라 로드맵을 제시했다. 이는 한국이 아시아의 AI 수도가 될 수 있다는 평가를 실질적인 대규모 투자로 전환한 사례로 꼽힌다. 특히 도심 인근 지역을 중심으로 한 데이터센터 건설이 활발해지고 있다. 서울 상암·인천·경기 북부 등 기존 IT 인프라가 밀집한 지역에 AI 전용 설비가 빠르게 확장되면서 수도권이 글로벌 AI 데이터센터 벨트로 재편되고 있다. 대표적인 글로벌 코로케이션 데이터센터 사업자인 에퀴닉스는 서울 상암 SL1과 경기 고양시 SL2x·SL4에 이어 네 번째 데이터센터 SL3x 건립에 착수했고 액체 냉각 기술(D2C) 등 차세대 인프라 도입을 본격화하고 있다. 디지털리얼티 역시 망중립성을 기반으로 AI 전용 코로케이션 수요에 대응하고 있다. 초저지연 네트워크와 고밀도 랙 구조 등 하이퍼스케일 AI에 필요한 요소를 갖추면서 글로벌·국내 기업들의 입주가 확대되는 추세다. 장혜덕 에퀴닉스 한국 대표는 "국내 데이터가 해외 사용자와 AI 모델 개발자에게 연결되는 플랫폼을 강화해 글로벌 AI 허브로서 한국의 역할이 커질 것"이라고 강조했다. 여기에 챗GPT 개발사인 오픈AI도 삼성과 전략적 파트너십을 맺고 메모리·데이터센터·클라우드 협력에 나서면서 국내 AI 인프라 생태계 확장에 힘을 보탰다. 특히 AI 데이터센터 설계·운영에 있어 전방위 협력이 진행되고 있다. 이에 업계에서는 글로벌 빅테크·자산운용사·데이터센터 운영사가 모두 한국을 AI 기반시설의 핵심 시장으로 인식하면서 한국이 아시아를 넘어 글로벌 AI 인프라 허브로 도약할 기회를 맞고 있다는 평가가 나온다. 아울러 정부에서도 'AI 고속도로' 구축을 핵심 국정과제로 삼아 국가 핵심 AI 인프라가 될 '국가AI컴퓨팅센터' 구축에 나섰고 엔비디아의 블랙웰 GPU 26만 장 공급으로 경쟁력 확보에 탄력을 더했다. 정부는 2030년까지 최소 5만 장 이상의 GPU를 확보해 공공·산업·연구 전반의 접근성을 높인다는 계획이다. 데이터센터 업계 관계자는 "AI 인프라 경쟁력은 전력·냉각·네트워크·GPU 수급이 동시에 갖춰질 때 완성되는데 아시아 시장에서 한국은 이러한 풀스택 인프라를 빠르게 갖춘 나라"라며 "글로벌 하이퍼스케일러들이 잇따라 투자를 결정하는 것도 한국이 향후 글로벌 AI 데이터센터 전략에서 리스크가 낮고 성장성이 높은 시장으로 평가받기 때문"이라고 말했다.

2025.11.18 17:10한정호 기자

시스코, AI 플랫폼 사업 강화…번역 스타트업 '이지더브스' 인수

시스코가 실시간 번역 기술을 보유한 스타트업 '이지더브스'를 인수하며 인공지능(AI) 기반 음성·커뮤니케이션 기술을 고도화한다. 시스코는 협업 플랫폼에 강화된 실시간 번역 기능을 탑재하고 엔터프라이즈 고객을 중심으로 AI 역량을 확대할 계획이다. 18일 테크크런치에 따르면 시스코는 와이콤비네이터가 투자한 소비자용 실시간 번역 기업 이지더브스를 인수했다고 발표했다. 구체적인 인수 금액은 공개하지 않았다. 앞서 이지더브스는 벤처하이웨이가 주도한 시드 라운드에서 420만 달러(약 61억원)를 유치했으며 AI 개발·인프라 기업인 레플릿, 어플라이드 인튜이션, 레플리케이트 등도 투자사로 참여했다. 이지더브스의 공동 창업자인 카림 나사르는 창업 전 시스코의 음성 AI 사업부에서 근무한 바 있다. 시스코는 이지더브스 기술을 '시스코 콜라보레이션' 플랫폼에 통합해 웹엑스 화상회의·메시징 등에 실시간 번역 기능을 제공할 계획이다. 특히 화자의 목소리와 감정을 유지한 상태로 번역하는 기술을 파트너와 개발자에게 제공하는 방안을 검토 중이다. 이번 인수로 이지더브스는 30개 이상의 언어를 지원하던 소비자용 앱 서비스를 다음 달 15일 종료한다. 시스코가 음성 AI 기업을 인수한 배경에는 네트워크·보안 중심의 기존 사업 구조를 AI 기반 협업 플랫폼으로 확장하려는 전략이 깔려 있다. 글로벌 협업 도구 시장이 화상회의·메시징을 넘어 실시간 음성 처리, 자동 번역, 감정 보존 음성 합성 등으로 빠르게 고도화되면서 네트워크 인프라 기업인 시스코 역시 서비스 경쟁력 확보가 절실해진 상황이다. 특히 웹엑스가 마이크로소프트 팀즈·줌 등과 경쟁하는 가운데, 차별화 포인트로 AI 기반 자연어 커뮤니케이션 기능을 강화한 것은 필수적 선택으로 평가된다. 이번 이지더브스 인수를 통해 시스코는 네트워크·장비 공급업체를 넘어 엔터프라이즈 커뮤니케이션 전반을 통합하는 AI 중심의 협업 플랫폼 사업자로 사업 방향을 다각화한다는 목표다. 시스코 측은 "이지더브스 팀이 우리의 협업 사업 부문에 합류해 제품·엔지니어링·고투마켓(GTM) 조직과 함께 밀접하게 협력하게 될 것"이라며 "AI가 단순히 협업을 지원하는 수준을 넘어 진정으로 협업을 강화하는 새로운 산업 패러다임을 만들어갈 것"이라고 밝혔다.

2025.11.18 15:48한정호 기자

[현장] 에퀴닉스 "AI 시대 분산형 인프라가 경쟁력"…'SL4'서 차세대 전략 공개

에퀴닉스가 에이전틱 인공지능(AI) 시대 높아지는 워크로드 수요에 맞춰 차세대 분산형 인프라 전략을 공개했다. 장혜덕 에퀴닉스 한국 대표는 18일 경기도 고양시 향동동에서 열린 'SL4' 데이터센터 투어 행사에서 "AI 시대에는 데이터가 생성되는 위치에서 바로 추론까지 이어지는 초저지연 인프라가 핵심 경쟁력이 될 것"이라며 "글로벌 표준의 회복 탄력성과 연결성을 한국 시장에서도 동일하게 제공하겠다"고 강조했다. 이날 행사에서 에퀴닉스는 SL4 데이터센터 설계 철학과 글로벌 AI 에코시스템 전략을 소개하며 한국 시장 내 AI 인프라 수요 확산에 맞춘 고집적·고효율 인프라 대응 방안을 제시했다. SL4는 상암 SL1과 다크파이버로 직접 연결된 도심형 멀티사이트 구조를 기반으로 그래픽처리장치(GPU) 기반 AI 워크로드를 소화할 수 있도록 전력·냉각·보안·연결성 전반을 강화한 점이 특징이다. "AI 워크로드가 기존 인프라를 바꾸고 있다" 이날 장 대표는 AI 워크로드 확산이 기존 데이터센터 인프라의 한계를 드러내고 있다고 설명했다. 전통적인 IT 워크로드가 랙당 5~10키로와트(kW) 전력을 기준으로 설계돼 온 반면, 최신 AI 서버는 랙당 40~80kW, 일부 고성능 모델은 120kW까지 요구하며 기존 설계 기준을 넘어서는 수준으로 진화하고 있다는 분석이다. AI 추론의 실시간성도 주요 의제로 다뤄졌다. AI 서비스가 10밀리초(ms) 미만의 지연을 전제로 설계되고 있으며 제조·금융·미디어 등 다양한 산업에서 엣지 기반 실시간 서비스가 급증하면서 데이터센터의 물리적 위치와 네트워크 구조 전반이 재편되고 있는 상황이다. 장 대표는 "AI 인프라는 기존 시설의 여유 용량을 조금 더 활용하는 수준이 아니라 완전히 다른 차원의 설계 구조를 요구한다"며 "데이터가 생성된 곳에서 즉시 추론하는 구조가 AI 시대의 기본 환경이 될 것"이라고 설명했다. 특히 AI 학습·추론을 위한 데이터 이동 비용·지연·규제 부담이 커지면서 기업들이 데이터를 가능한 인접 클라우드나 내부 인프라에 위치시키는 방식을 선호한다는 분석도 제기됐다. 이와 관련해 장 대표는 에퀴닉스가 구축한 글로벌 AI 에코시스템을 소개했다. 아마존웹서비스(AWS)·마이크로소프트(MS) 애저·구글 클라우드 등 글로벌 클라우드 사업자(CSP)는 물론, 엔비디아·AMD 같은 AI 인프라 기업, 네트워크 사업자와 데이터 플랫폼 기업들을 에퀴닉스 생태계 안에서 모두 연결한다는 게 강점으로 평가된다. 에퀴닉스 데이터센터 고객은 하나의 플랫폼 상에서 다양한 AI 서비스와 인프라를 조합할 수 있다는 설명이다. 차세대 분산형 AI 인프라 전략도 제시했다. 데이터 생성 위치에서는 추론, 중앙 리전에서는 대규모 학습을 수행하는 이원화 구조를 통해 성능과 비용을 모두 확보할 수 있는 방안이다. 장 대표는 "에퀴닉스 생태계 안에서 퍼블릭 AI와 프라이빗 AI 간 이동성이 확보되면 산업 전반의 AI 도입 속도가 더욱 빨라질 것"이라고 덧붙였다. 마지막으로 데이터센터 지속가능성과 회복 탄력성도 강조됐다. 에퀴닉스는 전 세계 37개국, 77개 대도시에서 270개 이상 데이터센터를 재생에너지 기반으로 운영 중이며 연간 99.999% 이상의 가동률을 유지하고 있다. 고집적·고효율 설계로 무장한 SL4…AI 시대 데이터센터 표준 제시 이날 행사가 진행된 SL4 데이터센터는 서울·고양 일대를 하나의 디지털 캠퍼스로 연결하는 전략적 거점으로 구축됐다. 에퀴닉스가 상암에 구축한 SL1, 고양시에 위치한 SL2x와 다크파이버로 직접 연결해 초저지연 환경을 보장하며 AI·클라우드 서비스가 요구하는 분산형 워크로드를 구성했다. 전력 공급 체계는 'N+1' 구조를 적용해 안정성을 극대화했다. 3.9메가와트(MW)급 비상 발전기 10대를 확보해 외부 전력 차단 시에도 장시간 독립 운영이 가능하며 모든 발전기는 지하층 대형 연료탱크와 연동돼 중단 없는 전력 공급을 보장한다. 매년 전력 차단 후 발전기 단독으로 센터 전체를 가동하는 'CUFT 테스트'를 직접 수행하는 것도 에퀴닉스의 차별화된 안정성 확보 전략이다. 무정전전원공급장치(UPS)와 배터리룸은 국내 기준보다 높은 수준으로 설계됐다. 배터리룸은 별도 공간으로 분리됐으며 2시간 내화 성능을 갖춘 방화벽 구조가 적용됐다. 이종래 에퀴닉스 한국 센터장은 "일반적으로 한 공간에 배터리와 UPS를 함께 두는 경우가 많지만 글로벌 기준은 철저한 분리 구조를 요구한다"고 설명했다. 냉각 구조는 에퀴닉스 특허 기반 '핫 아이슬' 컨테인먼트 방식이 적용됐다. 뜨거운 공기를 분리해 회수하는 구조를 통해 높은 에너지 효율을 확보하고 리퀴드 쿨링을 즉시 적용할 수 있도록 수배관 설계를 미리 반영한 점도 특징이다. GPU 기반 서버 증가로 열 밀도가 빠르게 높아지는 시장 상황에 대응한 설계로 꼽힌다. 운영·보안 측면에서도 SL4는 글로벌 표준을 그대로 적용했다. 고객별 프라이빗 케이지와 QR 기반 장비 식별·문서화 시스템을 통해 장애 대응 속도를 높였으며 설비·전력·통신 라인은 색상과 레이어별로 완전히 분리해 운영 안정성을 확보했다. 소방 인프라 역시 고급형 노즐 시스템 도입 등 비용보다 안정성을 우선한 설계 철학이 반영됐다. "한국은 성장 잠재력이 큰 시장…전력·망·생태계가 경쟁력 결정" 아울러 에퀴닉스는 국내 데이터센터 시장의 성장 조건과 과제를 설명하며 글로벌 사업자가 바라보는 경쟁력 요소를 제시했다. 먼저 에퀴닉스는 글로벌 이중화 구조를 기반으로 해외 리전 장애 시에도 한국 리전으로 즉시 우회가 가능한 운영 체계를 강조했다. 이같은 글로벌 표준화 운영 모델은 멀티리전 기반의 AI 서비스를 제공하는 기업에게 중요한 인프라 요소라는 설명이다. GPU 고집도 이슈에 대해서는 최신 AI 서버가 요구하는 전력량과 발열이 기존 데이터센터 구조를 빠르게 대체하고 있다고 진단했다. SL4는 공랭 기반으로도 운영이 가능하지만 필요 시 즉시 리퀴드 쿨링으로 확장할 수 있는 파이프 구조를 이미 설계 단계에서 반영했다. 또 전력 인프라와 입지 조건에 대해 장 대표는 "전력이 제공되지 않는 지역은 데이터센터 입지로 의미가 없다"며 "한국에서도 에너지 인프라 확충 정책이 가시화되고 있어 긍정적"이라고 평가했다. 국내 시장 구조에 대해서는 기존 통신사 중심 시장이 점차 분산되고 있다고 설명했다. 에퀴닉스는 통신사 중립적 사업자라는 점을 강조하며 다양한 글로벌·국내 네트워크 사업자가 한 공간에서 연결되는 구조가 AI 시대의 가장 큰 차별성이라고 소개했다. 이를 통해 국내 데이터를 해외 사용자나 글로벌 AI 서비스와 빠르고 효율적으로 연결할 수 있다는 점도 부각됐다. 분산형 AI 환경이 본격화되는 흐름도 설명했다. 데이터가 생성되는 지점에서 추론을 수행하고, 중앙 리전에서 학습을 처리하는 구조가 확산되면서 다계층 네트워크 패브릭을 제공하는 에퀴닉스의 역할이 커지고 있다는 것이다. 장 대표는 SL4를 포함한 서울·고양 데이터센터 캠퍼스가 이러한 분산형 AI 구조를 한국 기업이 활용하는 데 주요 거점 역할을 할 것으로 전망했다. 마지막으로 에너지·망 정책 이슈에 대해서도 의견을 제시했다. 장 대표는 "정부의 AI 확산 기조에 맞춰 에너지 확보 정책과 전력 인프라 지원이 확대되면서 국내 데이터센터 산업의 성장 속도가 빨라질 것"이라며 "망사용료 관련 논의도 산업 전반의 투명성과 개방성을 높이는 방향으로 이뤄지길 기대한다"고 밝혔다. 이어 "한국 시장에서 다양한 생태계 파트너가 만나는 분산형 AI 허브라는 본연의 역할을 강화해 나가겠다"고 덧붙였다.

2025.11.18 15:14한정호 기자

한국 AI·클라우드 허브 부상…ESR, 인천에 80MW급 'KR1' 데이터센터 착공

한국이 아시아 시장의 클라우드·인공지능(AI) 인프라 허브로 부상하면서 글로벌 자산 운용사들의 대형 데이터센터 건립이 확대되고 있다. 아시아태평양(APAC) 지역 특화 실물자산 투자·운용사 ESR은 서울 소재 와이드크릭자산운용(와이드크릭 AMC)과 파트너십을 맺고 한국 내 첫 번째 데이터센터 개발을 추진한다고 17일 밝혔다. 인천 부평구에 위치할 지상 9층 80메가와트(MW)급 'KR1 데이터센터(KR1)' 건립은 이번 주 착공에 들어간다. 이는 프린스턴 디지털 그룹(PDG)에 임대되며 2028년에 가동될 예정이다. KR1 데이터센터는 ESR이 개발관리사로서 설계를 맡고 ESR과 와이드크릭 AMC가 건물 골조 및 외관 공사를 공동으로 수행한다. PDG는 건립 이후 내부 인프라 구축과 운영을 담당한다. 인천은 한국 디지털 경제의 전략적 허브로 서울의 기술산업 벨트와 인접해 있으며 견고한 광섬유 네트워크, 안정적인 전력 인프라를 갖춘 것으로 평가된다. 또 약 607만 제곱미터(㎡) 규모의 대표 스마트시티인 송도국제도시가 위치해 있어 클라우드 및 AI 기반 산업의 본고장으로서 중요성이 한층 강화될 전망이다. KR1은 지속가능한 데이터센터로서 리드 골드 인증 획득을 목표로 개발된다. 건물일체형 태양광(BIPV)과 연료전지 등 첨단 사양을 도입해 에너지 효율성을 높일 계획이다. KR1은 ESR이 아태지역 전역에서 확보한 3.2기가와트(GW) 이상의 전력 및 부지 파이프라인의 일부로, 자본 파트너와 고객에게 데이터센터 솔루션을 제공함으로써 아태지역의 급격한 디지털 성장, 확장가능한 고성능 인프라 수요 증가에 효과적으로 대응·활용한다는 목표다. 스튜어트 깁슨 ESR 공동 창립자 겸 최고경영자(CEO)는 "한국은 아시아에서 가장 역동적이고 빠르게 성장하는 디지털 경제권 중 하나로 두각을 나타내고 있어 한국에서 첫 번째 데이터센터인 KR1을 개발하게 돼 기쁘다"며 "세계적인 인프라를 갖춘 핵심 비즈니스 허브 인천에 전략적으로 위치한 KR1은 고객과 파트너를 성장의 중심으로 이끌 것"이라고 말했다. 이어 "이번 프로젝트는 우리가 범 아태지역 데이터센터 전략을 강화하고 역내 고수요 시장에서 대규모 개발 파이프라인의 가치를 창출하는 중요한 이정표가 될 것"이라고 덧붙였다. 디알미드 매시 ESR 데이터센터 부문 CEO는 "KR1은 한국과 아태지역 전역에서 원활한 데이터 흐름과 AI 기반 혁신을 뒷받침하는 데 핵심적인 역할을 할 것"이라며 "이번 개발은 이 지역의 빠른 디지털 전환을 촉진할 것"이라고 강조했다.

2025.11.18 12:24한정호 기자

아시아 데이터센터 운용사 PDG, 1조원 투입해 한국 첫 진출…"AI 허브로 확장"

아시아 데이터센터 시장이 인공지능(AI) 경쟁 거점으로 부상하는 가운데 미국계 사모펀드 워버그 핀커스가 지원하는 프린스턴디지털그룹(PDG)이 한국 시장에 대규모 투자와 함께 본격 진출을 선언했다. 글로벌 하이퍼스케일 기업들의 AI 인프라 수요가 폭증하는 상황에서 한국 시장을 핵심 전략 허브로 삼겠다는 목표다. 17일 블룸버그통신에 따르면 PDG는 약 7억 달러(약 1조201억원)를 투입해 인천에 첫 번째 한국 데이터센터 캠퍼스를 구축할 계획이다. 초기 48메가와트(MW) 규모로 시작해 향후 여러 부지를 포함해 총 500MW 규모까지 확장할 예정이다. PDG는 이미 전력 수급을 확보했으며 이달 착공을 시작해 2028년 초 상용화를 추진한다는 구상이다. 아시아 각국은 미국 빅테크와 AI 기업들이 수천억 달러를 투입하며 확장하는 데이터센터 시장에 뒤처지지 않기 위해 투자를 확대하고 있다. 일본·인도·한국 등은 자체 대형언어모델(LLM) 개발, 데이터 주권 요건 충족, 기업용 AI 수요 대응을 위해 인프라 구축에 속도를 내는 중이다. PDG 역시 향후 5년간 총 250억 달러(약 36조원)를 투입해 아시아 인프라 전체 용량을 현재 1.3기가와트(GW)에서 4GW 이상으로 확대할 계획이다. 이 가운데 60억 달러(약 8조7천480억원)는 한국 시장에 집중 투자한다는 전략이다. 현재 PDG는 싱가포르·일본·인도·인도네시아·중국·말레이시아에서 16개 데이터센터를 운용 중이다. 한국은 전력망·부지 제약과 인허가 절차 등으로 데이터센터 진출이 쉽지 않은 시장으로 꼽힌다. 다만 최근 정부가 대규모 AI 인프라 육성 의지를 밝히면서 글로벌 기업들의 행보가 빨라지고 있다. 오픈AI는 최근 첫 한국 지사를 설립했고 아마존도 향후 2031년까지 인천·경기 일대 신규 AI 데이터센터 구축 등에 50억 달러(약 7조2천860억원)를 추가 투자한다고 발표했다. 앞서 PDG는 지난 8월 인프라 및 실물자산 전문 대체투자회사 스톤피크로부터 13억 달러(약 1조8천921억원) 투자를 유치한 바 있다. 이를 바탕으로 아시아 데이터센터 시장 확장에 속도를 낼 계획이다. 랑구 살가메 PDG 회장 겸 최고경영자(CEO)는 "아시아 기반 AI 인프라 공급망은 경쟁 우위로 작용해 빠르고 비용 효율적인 배치가 가능하다"며 "기존 시장에서의 성장을 배가시키는 동시에 호주와 한국 같은 신규 시장으로 확장할 것"이라고 강조했다.

2025.11.17 10:56한정호 기자

아이티센씨티에스, 3분기 영업손실 축소…AI 신사업 확대 가속

아이티센씨티에스가 올해 3분기 인공지능(AI) 등 신성장 사업에 집중한 결과 영업손실을 줄이며 실적 개선 흐름을 이어가고 있다. 아이티센씨티에스는 3분기 연결 기준 누계 매출 7천186억원, 영업이익 42억원, 당기순이익 212억원을 기록했다고 14일 밝혔다. 별도 기준의 경우 매출은 전년 동기 대비 399억원 감소한 1천575억원이며 영업손실 54억원, 당기순손실 17억원으로 적자가 지속됐다. 다만 손실 폭이 축소되면서 4분기에는 흑자전환이 가능할 것이라는 게 회사 측 전망이다. 아이티센씨티에스는 단순 실적 개선을 넘어 미래 핵심 성장 동력을 AI 사업 확대에 두고 전사적 역량을 집중하고 있다. 회사는 엔터프라이즈 고객을 위한 엔드투엔드 IT 인프라 서비스 전문기업으로서 기존 인프라 구축·운영 노하우에 AI 기반 솔루션을 결합해 시장 혁신을 주도하고 중장기적인 실적 성장을 이끌 방침이다. 우선 AI 기반 컨택센터(AICC) 솔루션을 새롭게 출시할 예정이다. AI 전문기업과 협업해 기존 컨택센터 솔루션에 대형언어모델(LLM)을 탑재한 솔루션을 개발 중이다. 이를 토대로 고객 접점 자동화 및 효율화 시장을 선점하고 새로운 수익원을 확보할 계획이다. 또 내년 시제품 출시를 목표로 고성능컴퓨팅(HPC) 및 AI 연산에 필수적인 자원 배포 관리 모니터링 솔루션을 개발해 AI 인프라 사업 영역을 확장하고 시장 경쟁력도 한층 강화할 방침이다. 이를 통해 AI 인프라 사업 추가 제안도 적극 진행하며 안산 데이터센터(DC) 외에 K사 DC, 자원통합사업 등 추가적인 사업 확장을 통해 성장 기반을 더욱 공고히 한다는 목표다. 권창완 아이티센씨티에스 대표는 "적극적인 AI 솔루션 포트폴리오 확대를 토대로 엔터프라이즈 IT 인프라 서비스 시장의 변화를 선도할 것"이라며 "AI DC 등 AI 위주 신성장 사업이 가시적인 성과로 창출되는 만큼, 연말에는 보다 큰 이익으로 사업 성과가 개선될 수 있을 것으로 기대한다"고 말했다.

2025.11.14 16:18한정호 기자

앤트로픽, 73조원 투입해 美 데이터센터 구축…내년 가동

인공지능(AI) 경쟁이 격화되는 가운데 앤트로픽이 500억 달러(약 73조원) 규모 미국 데이터센터 구축 계획을 발표하며 기술·전력·인프라 확보전에 본격적으로 뛰어들었다. 텍사스와 뉴욕을 시작으로 대규모 맞춤형 AI 시설을 건설해 경쟁사와의 격차를 좁히겠다는 전략이다. 13일 블룸버그통신에 따르면 앤트로픽은 영국 네오클라우드 기업 플루이드스택과 협력해 미국 텍사스와 뉴욕에 대규모 AI 데이터센터를 건설하는 계획을 발표했다. 해당 시설은 내년부터 순차적으로 가동될 예정이며 약 800개의 상시 고용과 2천400개의 건설 인력을 창출할 전망이다. 앤트로픽은 이 인프라가 자사 '클로드' 모델의 연구·개발 효율을 극대화할 뿐 아니라 미국 정부가 추진하는 AI 기술 주도권 전략에도 부합한다고 설명했다. 이번 투자 규모 500억 달러는 스타트업이 단행한 인프라 투자 중 최대 수준이다. 앤트로픽은 2028년 700억 달러(약 102조원) 매출과 170억 달러(약 24조원) 흑자 전환을 전망하고 있다. 최근 기업가치도 1천830억 달러(약 268조원) 수준까지 치솟았다. 기업용 AI 시장에서 점유율을 빠르게 확대하며 30만 개 이상의 고객사를 확보한 점이 성장세를 견인한 것으로 분석된다. 플루이드스택 역시 이번 계약을 통해 글로벌 AI 인프라 시장의 핵심 사업자로 부상했다는 평가를 받는다. 업계에서는 이번 프로젝트가 글로벌 AI 인프라 경쟁의 분수령이 될 것이라는 전망이 나온다. 오픈AI는 엔비디아·브로드컴·오라클 등과 협력해 1조4천억 달러(2천58조원) 규모 '스타게이트' 프로젝트를 전개하고 있으며 메타 역시 향후 수년 내 미국 내 인프라·전력·데이터센터에만 6천억 달러(882조원)를 투입할 계획이다. 앤트로픽의 이번 행보는 경쟁사에 대응해 자체 인프라 주도권을 확보하려는 전략적 결정으로 해석된다. 또 주요 외신에서는 이번 투자가 트럼프 행정부가 추진하는 'AI 액션 플랜'과도 맞물려 있다고 분석했다. 백악관의 테크·AI 정상회의 이후 여러 빅테크 기업이 미국 내 투자 비중을 대폭 확대하는 등 정책·산업적 이해관계가 제도화되고 있다는 설명이다. 앤트로픽 측은 "이번 데이터센터 구축으로 보다 강력한 AI 시스템을 실현하고 과학적 발견과 산업 혁신을 가속하는 데 기여할 것"이라고 말했다.

2025.11.13 10:15한정호 기자

"AI의 심장은 데이터센터"…지능형 인프라가 여는 차세대 AI 시대

“오늘날 데이터센터는 단순한 인프라가 아니라 지능의 심장부로 진화하고 있습니다.” 이중연 KTNF 대표는 12일 서울 강남구 그랜드인터컨티넨탈 파르나스에서 열린 인공지능반도체조찬포럼에서 이같이 밝혔다. 그는 “AI가 폭발적으로 발전하면서 이제 데이터센터는 단순히 데이터를 저장하고 처리하는 공간이 아니라, 지능형 컴퓨팅의 중심으로 재정의되고 있다”고 강조했다. KTNF는 2002년에 설립된 서버 전문 개발 및 제조 기업이다. 자체 기술력으로 국산 서버를 직접 설계·제조한 뒤 공급한다. 이 대표는 AI 시대의 데이터센터가 직면한 가장 큰 도전으로 전력, 냉각, 자원 활용 효율을 꼽았다. GPT-4 학습에 수만 개의 CPU가 투입될 정도로 연산 수요가 급증하지만, 기존 인프라는 이를 감당하지 못한다는 것이다. 그는 “AI가 요구하는 연산 밀도와 속도를 지원하려면 기존 설계의 한계를 뛰어넘는 새로운 구조가 필요하다”고 말했다. 이 대표가 제시한 해법은 'AI 특화형 데이터센터 모델'이다. 이 모델은 CPU, GPU, MPU 등 다양한 가속기를 CXL(컴퓨트 익스프레스 링크) 기반으로 연결해 자원을 실시간 공유하고 자동으로 최적화할 수 있는 구조다. 이를 통해 대규모 모델 학습과 추론을 효율적으로 처리하면서도 전력 낭비를 최소화할 수 있다. 그는 “에너지 효율적이면서도 지능적으로 확산되는 차세대 AI 데이터센터를 통해 AI가 더 빠르고 더 안전하며 더 지속 가능하게 성장하는 세상을 만들어야 한다”고 전했다. 냉각 기술의 혁신도 AI 데이터센터 구성의 중요 요소로 꼽았다. 특히 DLC(직접 액체 냉각) 기술의 필요성을 강조했다. DLC는 서버나 GPU 같은 발열 부품 표면에 냉각수를 직접 순환시켜 냉각하는 방식이다. 공냉식 대비 열 제거 효율이 최대 10배 이상 높다. 이 대표는 “고밀도 AI 서버는 전력뿐 아니라 열이 성능의 한계를 결정짓는 요소가 됐다”며 “냉각 효율이 곧 연산 효율로 이어지는 시대에 전력과 냉각은 AI 인프라의 생명선”이라고 강조했다. 보안이 AI 데이터센터 구현의 문턱이 될 것으로 내다봤다. 그가 제시한 해법은 물리적 보안 체계다. 현재 시장에서는 반도체 미세 불균일성을 이용한 PUF(물리적 복제 방지 기능)기술과 QRNG(양자 난수 생성기), PQC(양자내성암호)를 AI 데이터센터를 위한 차세대 보안 요소로 보고 있다. 이 기술은 칩 자체가 고유한 '전기적 지문'을 갖도록 만들어 복제나 위·변조를 원천 차단한다. 이 대표는 “AI가 스스로 학습하고 판단하는 만큼, 그 기반이 되는 하드웨어의 신뢰성이 중요하다”고 말했다. 이 대표는 또 AI 인프라를 위해 시스템을 구축해야 한다고 전했다. 그는 “AI 인프라의 핵심은 이제 연산 속도나 저장 용량이 아니라, 얼마나 지능적으로 자원을 관리하고 얼마나 신뢰할 수 있는 시스템을 갖추느냐에 달려 있다”고 강조했다. 이어 “국산 AI 반도체와 지능형 인프라 기술을 융합해 한국형 데이터센터 모델을 발전시켜 나가겠다”며 “AI가 AI를 위한 인프라를 설계하는 시대를 준비하겠다”고 덧붙였다.

2025.11.12 13:40전화평 기자

AI 열풍에도 전력 부족…디지털리얼티 美 데이터센터 가동 지연

인공지능(AI)과 클라우드 확산으로 데이터센터 수요가 급증하고 있지만, 전력 공급이 따라가지 못하면서 일부 시설이 가동되지 못하는 사례가 나타나고 있다. 11일 블룸버그통신에 따르면 미국 캘리포니아주 산타클라라에서 디지털리얼티와 스택인프라가 추진 중인 데이터센터가 전력 부족으로 가동이 지연되고 있다. 디지털리얼티는 2019년 48메가와트(MW) 규모의 데이터센터 건립을 신청했지만 6년이 지난 현재까지 전력 인입이 완료되지 않았다. 스택인프라 역시 48MW 규모의 시설을 완공했으나, 지역 공기업인 실리콘밸리 파워가 송전 용량을 확대하지 못해 가동을 시작하지 못한 상태다. 산타클라라에는 현재 운영 중이거나 건설 중인 데이터센터가 57개에 이른다. 실리콘밸리 파워는 전력 수요 증가에 대응하기 위해 4억5천만 달러(약 6천589억원) 규모의 설비 업그레이드를 추진 중이며 2028년 완공을 목표로 하고 있다. 미국 내 다른 지역에서도 유사한 상황이 이어지고 있다. 버지니아주의 도미니언에너지는 대형 데이터센터의 전력 연결까지 최대 7년이 걸릴 수 있다고 밝혔다. 오리건주에서는 아마존이 전력 배분 문제로 발전사와 갈등을 겪고 있는 것으로 알려졌다. AI 연산 수요가 늘어나면서 전력망 한계가 뚜렷해질 것이란 지적이 힘을 얻고 있다. 블룸버그 조사에 따르면 AI 컴퓨팅으로 인한 미국 내 전력 사용량은 2035년까지 두 배 이상 증가할 전망이다. 디지털리얼티 측은 "산타클라라에서는 부지를 확보해도 실제 전력 공급까지 수년이 걸린다"며 "실리콘밸리 파워와 협력해 올해 말까지 총 48MW의 전력을 확보할 계획"이라고 밝혔다.

2025.11.11 17:10한정호 기자

[컨콜] 이우현 OCI홀딩스 회장, AI 인프라 사업 진출 선언

OCI홀딩스가 인공지능(AI) 인프라 개발사업(디벨로퍼)을 미래 먹거리로 낙점했다. 이우현 OCI홀딩스 회장은 11일 올해 3분기 실적발표 컨퍼런스콜에서 "그동안 소재 사업에 집중했지만, 올해부터는 태양광 에너지저장장치(ESS) 발전사업과 전기공급 사업 AI 인프라 사업으로 투자와 노력을 집중할 생각"이라고 밝혔다. 이어 "2030년 AI 인프라 관련 실적 비중을 전체 매출과 이익의 30%로 만들겠다는 것이 회사의 새로운 비전"이라며 "전 세계적으로 AI 데이터센터에 대규모 투자가 이뤄지고 있는 만큼, 회사가 가진 전력 인프라를 활용해 새로운 성장동력을 만들겠다"고 강조했다. 이날 OCI홀딩스는 지난 2011년부터 북미 태양광 및 ESS 프로젝트 개발사업을 하고 있는 OCI 에너지가 그간 쌓아온 디벨로퍼 역량과 이미 전력·용수 등 인프라가 갖춰진 OCI 유휴부지를 활용하면 신속한 개발이 가능하고 밝혔다. 특히 부지확보, 인허가, 설계, 자금조달, 시공, 운영 등의 단계별로 진행되는 디벨로퍼 핵심 역량은 데이터센터 개발과 매우 유사해 사업 전환에 있어 전략적 시너지를 기대할 수 있다고 덧붙였다.

2025.11.11 16:04류은주 기자

[종합] 韓 클라우드, AI 인프라 힘입어 나란히 성장…GPU 확보·효율화 경쟁 '점화'

국내 주요 클라우드 기업 네이버·KT·NHN이 3분기 나란히 성장세를 보였다. 글로벌 인공지능(AI) 인프라 확장과 서비스형 그래픽처리장치(GPUaaS) 매출 확대, 공공·산업별 맞춤형 클라우드 구축 수요가 실적을 견인한 것으로 나타났다. 10일 업계에 따르면 올해 3분기 세 회사 모두 AI 인프라 고도화와 공공 클라우드 수요를 중심으로 매출이 증가했다. 특히 GPU 확보 경쟁이 본격화되면서 각 사가 추진 중인 데이터센터 확충과 AI 인프라 서비스가 향후 성장의 관건으로 부상했다. 네이버는 엔터프라이즈 부문에서 전년 동기 대비 3.8% 성장한 1천500억원의 매출을 기록했다. 전 분기 대비 13.9% 증가한 수치로, GPUaaS 신규 매출이 본격 반영되고 협업 솔루션 '라인웍스'의 유료 ID 증가가 매출 성장을 이끌었다. 네이버는 최근 엔비디아와 피지컬 AI 사업 업무협약(MOU)을 체결하고 2030년까지 GPU 6만 장을 추가 확보하기로 했다. 이를 기반으로 사우디아라비아·태국·모로코 등에서 소버린 AI 및 데이터센터 구축 프로젝트에 박차를 가한다. 또 일본에 이어 대만에도 라인웍스를 공식 출시하며 아시아 B2B 시장 확대에 나섰다. 네이버는 공공과 민간 모두를 대상으로 맞춤형 프라이빗 클라우드 구축과 GPUaaS 수요 확보에 집중할 방침이다. 최수연 네이버 대표는 "B2B 사업에서 GPUaaS 신규 매출을 확보하고 라인웍스 등 솔루션의 두 자릿수 성장을 이어가고 있다"며 "엔비디아와의 협력으로 피지컬 AI 경쟁력을 강화하고 글로벌 AI·로보틱스 사업을 확장해 나가겠다"고 밝혔다. KT클라우드는 3분기 매출이 전년 대비 20.3% 증가한 2천490억원을 기록하며 그룹 내 핵심 성장축으로 부상했다. 전 분기 대비로도 12.4% 증가해 뚜렷한 상승세를 보였다. 성장 배경으로는 글로벌 데이터센터 이용률 확대와 공공 AI 클라우드 수요 증가가 꼽혔다. KT는 최근 국내 최초 액체 냉각 방식의 '가산 AI 데이터센터'를 가동해 GPU 서버 냉각 효율을 극대화했으며 '콜로닷AI' 등 자사 AI 인프라 서비스도 상용화했다. 아울러 금융·제조·이커머스 산업군을 대상으로 'AI 파운드리' 사업을 추진하며 기업 맞춤형 AI 전환(AX) 플랫폼 생태계도 확대하고 있다. KT 그룹 차원에서도 독자 모델 '믿:음 K 2.0', 마이크로소프트(MS) 협력 모델 '소타 K', 메타의 오픈소스 모델을 활용한 '라마 K' 등 한국형 거대언어모델(LLM) 라인업을 구축하며 AI 중심 기업으로 전환을 가속하고 있다. KT 장민 최고재무책임자(CFO)는 "클라우드와 데이터센터의 성장이 이번 분기 그룹 실적을 견인했다"며 "AI·AX 사업을 중심으로 기업 가치 제고에 힘쓸 것"이라고 말했다. NHN은 3분기 기술 부문 매출이 전년 동기 대비 8.8% 증가한 1천118억원을 기록하며 안정적인 성장세를 이어갔다. 특히 NHN클라우드는 공공·AI 인프라 구축 사업에서 두드러진 성과를 보였다. 국가정보자원관리원 대구센터에 추가 상면을 확보하고 주요 정부 시스템 이관 작업을 진행 중이며 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'GPU 확보·구축·운용지원 사업'의 최다 구축 사업자로 선정돼 7천600장 이상 규모의 엔비디아 B200 GPU를 공급할 예정이다. 또 SRT 운영 시스템을 전면 클라우드로 전환해 예매기간 오류 0건을 기록했고 중앙보훈병원 차세대 인프라 전환 사업도 수주하며 공공·의료 클라우드 시장에서도 입지를 넓히고 있다. 김동훈 NHN클라우드 대표는 "GPU 확보 사업을 비롯한 정부 AI 인프라 구축이 내년 1분기 내 시스템 구축을 완료하고 2분기부터 본격적인 매출로 이어질 것"이라며 "국가정보자원관리원 대구센터의 추가 상면 확보를 기반으로 주요 정부 시스템 이관을 주도할 것"이라고 말했다. 업계에선 올해를 기점으로 국내 클라우드 산업의 주도권이 단순 인프라 제공을 넘어 AI·데이터 중심 플랫폼 경쟁으로 이동했다고 분석한다. GPU 확보와 데이터센터 효율화, 산업별 AX 서비스가 향후 3사의 매출 구조를 결정지을 핵심 요인으로 꼽힌다. 클라우드 업계 관계자는 "정부와 민간이 함께 AI 인프라 생태계를 구축하는 가운데, 연말과 내년 토종 클라우드 기업들의 기술 내재화가 경쟁력의 분기점이 될 것"이라고 설명했다.

2025.11.10 15:02한정호 기자

엔비디아 파트너 코어위브, AI 열풍 속 주가 급락…인수 무산에도 성장 기대 '유효'

엔비디아의 투자를 받은 인공지능(AI) 데이터센터 기업 코어위브가 최근 주가 급락과 인수 무산 등 악재를 맞았다. 다만 AI 인프라 시장의 확장세가 이어지고 있어 중장기 성장 기대감은 여전히 남아 있다는 분석이 나온다. 10일 미국 증권가와 외신 등에 따르면 코어위브 주가는 최근 한 주 동안 20% 이상 하락했다. AI 관련주의 평가가치가 지나치게 높아졌다는 우려가 커지면서 투자심리가 위축된 것으로 풀이된다. 코어위브는 최근 90억 달러(약 13조원) 규모로 암호화폐 채굴기업 코어사이언티픽 인수를 추진했지만 주주 반대로 무산됐다. 두 차례 시도 끝에 인수 계획이 좌절되면서 회사의 사업 확장 전략에 제동이 걸렸다는 평가가 나온다. 코어위브는 2017년 암호화폐 채굴로 출발해 그래픽처리장치(GPU) 기반 AI 클라우드 서비스 기업으로 전환했다. 현재 오픈AI·마이크로소프트·메타 등 주요 빅테크 기업에 AI 연산 인프라를 제공하고 있다. 올해 2분기 매출은 전년 동기 대비 207% 증가한 12억 달러(약 1조7천400억원)를 기록했으며 수주 잔고는 301억 달러(약 43조원)에 달했다. 3분기에는 오픈AI와 메타, 엔비디아와의 추가 계약으로 수주 잔고가 560억 달러(약 81조원)를 넘을 것으로 예상된다. 엔비디아와의 긴밀한 협력 관계도 주목받고 있다. 엔비디아는 코어위브 지분 약 7%를 보유하고 있으며 GPU 공급과 데이터센터 협력도 확대 중이다. 코어위브는 엔비디아의 최신 GPU를 우선적으로 공급받는 엘리트 퍼스트 파트너로 지정돼 있다. 다만 공격적인 투자와 차입 확대가 부담 요인으로 꼽힌다. 코어위브는 올해 200억 달러(약 29조원) 이상을 AI 데이터센터 확충에 투입할 계획이며 이로 인해 2분기 순이자비용이 전년 대비 300% 증가한 2억6천700만 달러(약 3천882억원)를 기록했다. 월가에서는 코어위브가 단기 수익성보다는 시장 점유율 확대에 집중하는 전략을 유지할 것으로 보고 있다. 코어위브는 오는 11일(현지시간) 3분기 실적을 발표한다. 월가에서는 코어위브의 3분기 매출을 13억 달러(약 1조8천905억원)로 예상 중이며 고객 다변화가 진행되는 내년부터 손익 개선이 가능할 것으로 분석하고 있다. 한 미국 증권가 애널리스트는 "AI 인프라 시장의 성장은 아직 초기 단계이며 코어위브는 엔비디아와 함께 이 시장의 핵심 기업으로 자리 잡고 있다"며 "단기 조정은 있을 수 있으나 장기 성장 가능성은 여전히 유효하다"고 말했다.

2025.11.10 11:52한정호 기자

엘리스그룹 "AI 도입 핵심은 기술 아닌 리더십"

"인공지능(AI) 도입의 핵심은 기술이 아니라 사람입니다. 기술을 이해하고 활용할 수 있는 조직의 리더십과 구성원의 변화 의지가 중요합니다." 엘리스그룹 홍지완 엔터프라이즈AX팀 리더는 10일 서울 코엑스에서 열린 'AI 서밋 서울&엑스포 2025'에서 AI 전환(AX) 시대 리더와 임직원의 역할에 대해 이같이 강조했다. 이번 강연에서 홍 리더는 기업 중심의 실질적인 AX 전략을 제시했다. 그는 "AI 기술의 발전은 단순한 자동화 수준을 넘어 조직의 일하는 방식을 완전히 바꾸고 있다"며 "바이브코딩과 에이전틱 AI의 등장으로 비개발자도 필요한 서비스를 직접 개발하고 개발자는 자신을 대신할 AI 동료를 만드는 시대가 됐다"고 말했다. 이어 "이제는 검색 대신 생성형 AI에게 직접 묻고 답을 얻는 시대로 전환됐다"며 "검색엔진최적화(SEO)에서 답변엔진최적화(AEO), 생성엔진최적화(GEO)로의 패러다임 변화가 일어나고 있어 이제 AI 활용 능력은 더 이상 선택이 아니라 생존의 문제"라고 덧붙였다. 특히 홍 리더는 막연한 AI 도입과 전문 인력을 충원하는 것보다 기존 인력을 리스킬링·업스킬링하는 것이 더 효과적이라고 강조했다. AI 시스템을 조직 내 빠르게 도입한 글로벌 기업들 역시 인프라와 모델에 더해 인재 육성에도 공격적으로 투자하고 있다는 설명이다. 홍 리더는 "AI 전략은 기술 전략이 아니라 비즈니스 전략이며 조직 전체가 AI를 어떻게 현업에 적용하고 혁신할지를 고민해야 한다"며 "AI 활용 경험이 조직 문화를 바꾸는 출발점"이라고 말했다. 이날 홍 리더는 실제 기업 리더 교육 사례도 공개했다. 엘리스그룹은 국내 주요 대기업 리더들을 대상으로 AI 트렌드와 실습 중심 교육을 진행 중이며 교육 참가자 대부분이 직접 챗봇과 데모 앱을 제작하고 기술검증(PoC) 보고서를 작성하도록 실습을 지원한다. 조직 리더들이 직접 AI 챗봇을 만들고 결과물을 팀원과 공유하며 조직 내 AI 활용 문화를 확산하는 방식이다. 단순 교육을 넘어 실질적인 디지털 리더십 내재화를 돕는다는 목표다. 아울러 홍 리더는 엘리스그룹의 주요 B2B 솔루션인 'AI헬피챗'도 소개했다. 그는 "AI헬피챗은 챗GPT, 제미나이와 같은 범용 거대언어모델(LLM) 기반이지만 클라우드 보안인증(CSAP)을 취득해 공공기관과 대기업에서도 안전하게 사용할 수 있다"며 "한글 문서 지원, PPT 제작, 딥리서치, 고급 이미지 생성 등 기업 맞춤형 기능을 제공한다"고 설명했다. 또 중견기업 대상 맞춤형 컨설팅 사례를 통해 그래픽처리장치(GPU) 서버와 같은 인프라 진단과 교체, AI 모델 개발, 내부 데이터베이스 구축 등을 지원한 사례도 공유했다. 끝으로 홍 리더는 "조직 리더는 AI 기술을 이해하고 우리 조직에 필요한 기술을 스스로 발굴할 수 있어야 한다"며 "신뢰할 수 있는 인프라를 기반으로 구성원이 AI를 적극 활용할 수 있는 문화를 만드는 것이 리더의 역할"이라고 강조했다.

2025.11.10 11:35한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

HBM4 출하 경쟁 '과열'...엔비디아 수급 전략이 공급망 핵심 변수

"또 실패는 없다"…구글이 AI 글래스 '킬러앱'에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

저평가주 외인 매수세에...SK텔레콤 주가 고공행진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.