• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (281건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

일본, 반도체·AI 지원 예산 4배 확대…기술 경쟁력 강화 박차

일본 정부가 차세대 기술 경쟁력 확보를 위해 반도체와 인공지능(AI) 산업 지원 예산을 대폭 늘리는 방안을 마련했다. 2026 회계연도 예산안에서 칩 및 AI 관련 지원을 기존보다 약 4배 규모로 확대하는 내용이 포함됐다. 블룸버그는 일본 내각이 총지출 약 122조3천억 엔(약 7천850억 달러) 규모의 2026 회계연도 예산안을 승인했다고 26일 보도했다. 그간 일본은 보통 추가경정예산 형태로 일시적인 지원을 해왔으나, 앞으로는 정규 예산에서 지속적이고 안정적인 투자가 이뤄질 전망이다. 산업통상자원부(METI)의 예산은 전년 대비 약 50% 증가한 3조7천억 엔가량으로 확대됐다. 이 중 상당 부분은 반도체 제조 역량 강화와 AI 연구 개발, 데이터 인프라 구축 등에 투입될 예정이다. 반도체 분야에서는 정부가 지원하는 국책 반도체 벤처 라피더스에 1천500억 엔이 추가로 책정되는 등 국내 제조 경쟁력 강화에 방점을 찍었다. AI 분야에서는 기초 AI 모델 개발, 데이터 인프라 강화, 로봇·물류 등 물리 AI(Physical AI) 기술 지원에 약 3천873억 엔이 배정됐다. 이번 예산 확대는 미국과 중국 간 기술 경쟁이 치열해지는 가운데 일본이 핵심 기술 주도권 확보를 위한 움직임을 강화하고 있다는 신호로 해석된다. 미·중 양대 기술 강국의 투자 확대 속에서 일본 정부는 국내 산업 생태계의 기술 주권 확보와 공급망 강화를 우선 과제로 삼고 있다. 예산안은 향후 국회 심의를 거쳐 최종 확정될 예정이며, 일본 정부는 이를 통해 반도체와 AI 기술 분야에서 장기적인 경쟁력을 확보할 계획이다.

2025.12.28 11:38전화평

오픈AI·오라클 스타게이트, 美 미시간서 전력·환경 갈등 촉발

인공지능(AI) 인프라 확장을 둘러싼 기대와 우려가 미국 미시간주에서 정면 충돌하고 있다. 21일 가디언 등 주요 외신에 따르면 오픈AI와 오라클이 추진 중인 초대형 데이터센터 프로젝트 '스타게이트'가 지역 전력망 부담과 환경 훼손, 절차적 정당성 논란까지 불러오며 지역사회 반발을 키우고 있다. 미국 미시간주 세일린 타운십에 건설 예정인 스타게이트 데이터센터는 최대 1.4기가와트(GW)의 전력을 사용하는 초대형 시설로, 디트로이트시 전체 전력 사용량에 맞먹는 규모다. 총 투자액은 약 70억 달러(약 10조원)에 달한다. 문제는 전력과 환경 부담이다. 주민들은 대규모 전력 수요로 인해 전기요금 인상 가능성이 커지고, 지하수 고갈 및 농촌 지역 훼손이 불가피하다고 주장하고 있다. 특히 미시간주가 2040년까지 재생에너지 전환을 의무화한 상황에서 스타게이트 프로젝트가 예외 조항을 촉발해 화석연료 발전 확대의 빌미가 될 수 있다는 우려도 제기된다 . 당초 세일린 타운십 이사회는 주민 반대 여론을 이유로 데이터센터 부지 용도 변경을 부결했지만, 개발사가 소송을 제기하면서 합의로 사업이 재추진됐다. 이후 미시간 공공서비스위원회(MPSC)는 별도의 공청회 없이 전력 공급 계약을 승인해 논란을 키웠다. 전력 공급사 DTE 에너지는 "데이터센터 전력 비용이 일반 가정용 요금으로 전가되지 않는다"고 설명했지만, 주민들은 충분한 검증이 이뤄지지 않았다고 반발하고 있다. 스타게이트 프로젝트는 오픈AI와 오라클이 주도하는 미국 정부 차원의 AI 인프라 전략 사업이다. 도널드 트럼프 미국 대통령은 이를 미국 기술 경쟁력의 상징으로 평가했으며 샘 알트먼 오픈AI 최고경영자(CEO)와 래리 엘리슨 오라클 창업자 등도 직접 관여하고 있다. 한편 오픈AI는 최근 스타게이트 프로젝트의 글로벌 확장을 본격화하며 영국 재무장관 출신 조지 오스본을 '오픈AI 포 컨트리' 총괄 책임자로 영입했다. 이는 각국 정부와 협력해 민주적 가치에 기반한 AI 인프라를 구축하겠다는 구상으로, 스타게이트를 미국 밖으로 확장하려는 전략의 일환이다. 주요 외신들은 이번 미시간 사례를 미국 전역에서 반복되고 있는 데이터센터 갈등의 전형으로 보고 있다. AI 경쟁이 격화되면서 전력·환경·지방자치 권한을 둘러싼 충돌이 불가피해지고 있으며 대규모 AI 인프라 투자가 지역사회 수용성이라는 새로운 시험대에 올랐다는 분석이다.

2025.12.21 17:36한정호

[인터뷰] "AI 인프라 폭증 시대…해법은 카카오클라우드 하이브리드 GPUaaS"

"인공지능(AI) 서비스가 커질수록 인프라 비용 부담이 수익성을 잠식하는 구조가 고착화되고 있습니다. 이제는 클라우드만으로는 이 문제를 해결하기 어렵습니다." 카카오엔터프라이즈 이재한 클라우드부문 사업본부장은 최근 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간'에서 지디넷코리아와 만나 이같이 강조했다. AI 인프라 시장이 학습 중심에서 추론 중심으로 전환되는 과정에서 기업들이 비용 구조의 한계를 직면한다는 설명이다. 이 본부장은 "AI 서비스가 확산될수록 추론 트래픽이 급증하고 이에 따라 고가 그래픽처리장치(GPU) 사용이 불가피해진다"며 "매출이 늘수록 인프라 비용도 함께 증가하는 역설적인 상황이 이미 현실화되고 있다"고 진단했다. 카카오엔터프라이즈는 이러한 구조적 문제의 해법으로 '하이브리드 서비스형 GPU(GPUaaS)'를 제시하고 있다. 하이브리드 GPUaaS는 고객이 GPU 서버를 자산으로 보유하되, 카카오클라우드의 단일 콘솔과 플랫폼을 통해 퍼블릭 클라우드 GPUaaS와 동일한 방식으로 운영·관리할 수 있도록 한 모델이다. 초기 개발이나 기술검증(PoC) 단계에서는 클라우드 GPU를 활용해 민첩성을 확보하고 서비스가 본궤도에 오르면 GPU 자산화를 통해 중장기 총소유비용(TCO)을 낮추는 방식이 핵심이다. 이를 통해 클라우드의 유연성과 온프레미스의 비용 효율성을 동시에 확보할 수 있다. AI 추론 시대의 비용 딜레마, '하이브리드 GPUaaS'로 풀다 AI 인프라 시장의 가장 큰 변화는 추론 비용이 학습 비용을 추월하는 시점이 도래하고 있다는 점이다. 글로벌 리서치와 카카오엔터프라이즈의 분석에 따르면 내년을 전후로 AI 서비스의 총비용 구조에서 추론이 차지하는 비중이 학습을 넘어설 것으로 전망된다. 문제는 기존 '클라우드 온리' 전략이 이러한 환경에서 수익성 악화를 가속화할 수 있다는 점이다. 서비스 이용량이 늘수록 GPU 사용량이 증가하고 이는 곧 비용 증가로 직결된다. 일부 글로벌 AI 기업들이 대규모 자체 데이터센터 구축과 자산화 전략으로 회귀하는 배경도 여기에 있다. 이 본부장은 "국내 스타트업과 중소기업 입장에서는 대규모 온프레미스 구축이 현실적으로 쉽지 않다"며 "전력·상면·냉각·운영 인력까지 고려하면 초기 진입 장벽이 매우 높다"고 말했다. 실제 국내에서 최신 엔비디아 B200·B300급 GPU를 수용할 수 있는 데이터센터는 제한적이며 랙당 전력 밀도 역시 주요 제약 요소로 작용하고 있다. 이러한 상황에서 단순한 온프레미스 전환은 또 다른 부담으로 작용할 수 있다는 설명이다. 카카오엔터프라이즈는 이 지점에서 하이브리드 전략이 현실적인 대안이 된다고 바라봤다. 고정 수요는 자산화된 GPU로 처리하고 변동성이 큰 수요는 클라우드 GPUaaS로 흡수하는 구조다. 이 모델을 적용할 경우 퍼블릭 클라우드 GPUaaS 대비 약 33% 수준의 TCO 절감 효과를 기대할 수 있고 고객이 직접 온프레미스를 구축하는 방식과 비교해도 약 10~20% 비용 효율성이 개선된다는 것이 카카오엔터프라이즈의 분석이다. 이 본부장은 "결국 AI 서비스가 성장할수록 기업의 고민은 어떻게 GPU를 더 싸고 안정적으로 쓰느냐로 수렴한다"며 "하이브리드 GPUaaS는 그 질문에 대한 가장 현실적인 답"이라고 말했다. 운영·확장·가시성까지…"민첩성과 수익성 동시 확보 지원" 하이브리드 GPUaaS의 차별점은 단순 비용 절감에 그치지 않는다. 카카오엔터프라이즈는 유연성·효율성·가시성을 핵심 가치로 제시하고 있다. 먼저 유연성 측면에서 고객은 평상시에는 전용 GPU 자산을 활용해 최대 효율을 확보하고 트래픽이 급증할 경우 클라우드 GPU로 즉시 확장할 수 있다. 모든 자원은 하나의 VPC와 단일 콘솔에서 관리된다. 효율성 측면에서는 GPU 자원 할당과 회수, 모델 학습·배포·서빙까지 머신러닝 운영관리(MLOps) 기반 자동화를 지원한다. 이를 통해 유휴 GPU 발생을 최소화하고 운영 인력 부담을 줄일 수 있다. 가시성 역시 핵심 요소다. 물리적으로 분산된 GPU 자원을 단일 대시보드에서 모니터링하고 사용량·가동률·비용을 통합적으로 파악할 수 있어 TCO 관리가 용이하다. 보안 측면에서도 금융권 수준의 클라우드 서비스 제공사(CSP) 안정성 평가를 충족한 데이터센터 환경을 기반으로 서비스를 제공한다. 이는 규제 산업으로의 확장 가능성을 뒷받침하는 요소다. 이 본부장은 "하이브리드 GPUaaS는 금융권과 공공기관, 대규모 엔터프라이즈를 중심으로 도입 사례가 확산되고 있다"며 "전력과 상면 확보가 어려운 고객일수록 수요가 빠르게 늘고 있다"고 밝혔다. "GPU는 싸게만 쓰는 게 아니다"…플랫폼·통합 모니터링으로 차별화 카카오엔터프라이즈는 하이브리드 GPUaaS를 단순한 인프라 상품이 아니라 AI 플랫폼 전략의 출발점으로 보고 있다. 이 본부장은 "GPU 비용만 낮춘다고 AI 경쟁력이 생기는 것은 아니다"라며 "GPU를 얼마나 효율적으로 운영·관리하고 AI 개발과 서비스로 연결할 수 있느냐가 더 중요해지고 있다"고 설명했다. 이를 위해 카카오엔터프라이즈는 GPU 자원 통합 관리와 모니터링을 중심으로 한 AI 플랫폼 고도화를 추진하고 있다. 온프레미스 GPU와 카카오클라우드 GPUaaS는 물론, 외부에 분산된 GPU 자원을 일원화해서 하나의 대시보드로 통합 관리하는 방향을 준비 중이다. 이 본부장은 "고객 입장에서는 GPU가 어느 인프라에 있든 상관없이 하나의 콘솔에서 쓰는 것이 중요하다"며 "하이브리드 GPUaaS는 이런 통합 관리 전략을 실현하기 위한 기반"이라고 말했다. 특히 GPU 사용 현황, 가동률, 성능, 비용을 실시간으로 모니터링하고 학습·추론 워크로드를 효율적으로 배치하는 기능이 핵심이다. 이를 통해 불필요한 유휴 자원을 줄이고 AI 서비스 운영 단계에서의 비용 예측 가능성을 높인다는 구상이다. 카카오엔터프라이즈는 이러한 통합 운영 역량이 향후 AI 플랫폼 경쟁력의 핵심 요소가 될 것으로 보고 있다. 단순히 GPU를 제공하는 것을 넘어 AI 모델 학습부터 배포·서빙·운영까지 이어지는 전체 흐름을 플랫폼 차원에서 지원하겠다는 전략이다. 카카오엔터프라이즈 이재한 본부장은 "AI 비즈니스가 지속 가능하게 성장하려면 인프라 비용을 통제할 수 있는 구조가 필요하다"며 "카카오클라우드의 하이브리드 GPUaaS는 AI를 위한 멀티·하이브리드 전략의 한 축으로 자리 잡을 것"이라고 강조했다. 이어 "하이브리드 GPUaaS를 통해 고객이 성장 단계에 맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 적극 돕겠다"고 덧붙였다.

2025.12.21 16:19한정호

굿어스데이터, 오라클 클라우드 핵심 파트너로 '부상'…스타트업 해외 진출 지원

굿어스데이터가 오라클 클라우드 인프라스트럭처(OCI)를 기반으로 한 인공지능 전환(AX) 프로젝트를 연이어 수행하며 글로벌 AI 서비스 확장을 지원하는 스케일업 파트너로서의 역량을 입증했다. 굿어스데이터는 AI 기반 투자정보 서비스 기업 투디지트의 모델을 기반으로 한 미국 주식 분석서비스 기술검증(PoC)을 마쳤다고 19일 밝혔다. 굿어스데이터는 OCI 기술력을 바탕으로 인공지능(AI)·헬스케어 분야 기업들의 글로벌 진출을 지원 중이다. 투디지트는 과학기술정보통신부와 중소벤처기업부가 주관한 AI 스타트업 거대언어모델(LLM) 챌린지 사업에서 '글로벌 시장 진출 유망 AI 스타트업'에 선정된 기업이다. 굿어스데이터가 구축한 OCI 기반의 고성능 그래픽처리장치(GPU) 환경을 기반으로 미국 시장 서비스 출시를 앞두고 있다. 굿어스데이터는 이번 프로젝트에서 ▲OCI 기반 글로벌 서비스 아키텍처 구축 ▲데이터베이스(DB) 전환·운영 안정화 설계 ▲대규모 LLM 서비스 운영 환경 최적화 등을 수행했다. 이를 통해 투디지트가 대규모 모델 기반 서비스를 해외 클라우드 환경에서도 안정적으로 운영할 수 있는 시스템을 확보하도록 지원했다. 굿어스데이터는 오라클의 AI 데이터 플랫폼 전문 파트너로서 AI 서비스 상용화와 글로벌 확장 지원을 핵심 사업 목표로 삼고 있다. 이번 프로젝트를 통해 LLM 기반 AI 서비스에 요구되는 대규모 데이터 처리 역량과 안정적인 클라우드 인프라 구축 경험을 축적했다. 앞으로 금융·헬스케어 등 다양한 산업군에서 AI 서비스 스타트업과 디지털 헬스케어 플랫폼 기업을 중심으로 PoC부터 상용화, 해외 시장에서의 서비스 운영까지 전 과정을 지원하는 표준 전환 모델을 정립·확산하며 국내 AI 기업의 글로벌 진출을 지원할 계획이다. 아울러 굿어스데이터는 최근 피지컬 AI 기반 디지털 헬스케어 플랫폼 기업 엠아이제이의 클라우드 인프라 전환 프로젝트도 수행했다. 헬스케어 서비스 특성에 맞춘 OCI 기반 구축, 시스템 이관, 애플리케이션 최적화 등을 지원해 안정적이고 확장 가능한 클라우드 인프라 환경 구축했다. 굿어스데이터는 오라클 클라우드를 기반으로 전략적 파트너십을 확대해 국내 AI 생태계 확장과 클라우드 기술력 고도화를 이끈다는 목표다. 굿어스데이터 데이터사업부 장재식 상무는 "오라클 클라우드를 기반으로 기업들이 글로벌 시장에서도 흔들림 없이 서비스를 운영할 수 있도록 안정적인 인프라 환경을 제공하는 것이 우리의 역할"이라며 "각 기업의 산업적 특성과 기술 구조에 맞춘 클라우드 환경을 제공함으로써 해외 시장 확장에 필요한 기반 마련을 함께하고 있다"고 말했다.

2025.12.19 15:43한정호

[현장] '한국인공지능클라우드산업협회' 출범…AI 융합 생태계 주도 선언

한국클라우드산업협회(KACI)가 인공지능(AI)을 전면에 내세운 '한국인공지능클라우드산업협회'로 명칭을 변경하며 AI·클라우드 융합 산업을 대표하는 민간 협회로의 재출범을 선언했다. AI가 산업 전반의 핵심 성장 동력으로 부상한 가운데, 클라우드를 중심으로 한 인프라·데이터·서비스 생태계를 아우르는 역할을 강화하겠다는 비전이다. 최지웅 KACI 회장은 18일 JW메리어트호텔 서울에서 열린 '제4회 클라우드인의 밤'에서 "AI 산업이 인프라 중심에서 서비스 중심으로 빠르게 이동하고 있는 만큼, 협회 역시 AI를 포함한 새로운 비전과 역할을 선언하는 재출범의 해를 준비하고 있다"며 "내년을 기점으로 그래픽처리장치(GPU)·인프라·서비스가 본격적으로 확장되는 융합 생태계를 뒷받침하겠다"고 강조했다. 이날 행사에서는 국회 과학기술정보방송통신위원회(과방위) 소속 의원들의 축사도 이어졌다. 국민의힘 최형두 의원은 "광복 80주년을 맞아 대한민국 과학기술과 산업의 도약을 다시 설계해야 할 시점"이라며 "AI와 클라우드는 향후 국가 경쟁력을 좌우할 핵심 영역으로, 국회에서도 초당적 협력을 통해 제도적 뒷받침을 하겠다"고 밝혔다. 조국혁신당 이해민 의원도 "보안·데이터센터·네트워크 등 여러 요소를 관통하는 키워드는 결국 클라우드이기에 이를 이해하지 못하면 입법과 제도 역시 단편적일 수밖에 없다"며 "과방위와 예결위에서 AI·클라우드 산업이 보다 도약할 수 있도록 역할을 충실히 하겠다"고 말했다. 정부 기관을 대표해 참석한 과학기술정보통신부 김경만 인공지능정책실장은 클라우드를 심장, AI를 두뇌로 비유하며 국가 GPU 공급 사업을 비롯한 주요 정책을 클라우드 기반으로 추진한다는 계획을 공유했다. 또 그는 "AI 중심 서비스 시대로 전환되는 흐름 속에서 협회의 명칭 변경은 매우 상징적인 변화"라며 "대한민국 클라우드 발전을 토대로 AI 산업이 국가 성장에 기여하길 기대한다"고 말했다. 이날 행사에서는 올해 클라우드 산업 발전에 기여한 기업과 인사를 대상으로 한 시상식도 열렸다. 과기정통부 장관상은 폴라리스오피스와 원더무브가 수상했으며 정보통신산업진흥원장상은이노그리드가, 한국지능정보사회진흥원장상은 가온아이가 각각 받았다. 올 한 해 국내 클라우드 산업을 빛 낸 '클라우드 MVP 2025' 기업에는 네이버클라우드가 선정됐다. 김유원 네이버클라우드 대표는 "AI는 산업 차원을 넘어 국가의 50년, 100년을 준비하는 문제"라며 "내년에는 우리 모두 힘을 합쳐 대한민국 산업의 새로운 영웅담을 써 내려갈 수 있기를 기대한다"고 수상 소감을 전했다. 이날 협회는 공식 세리머니를 통해 한국인공지능클라우드산업협회라는 새 명칭과 로고를 공개했다. 협회는 클라우드 기반 AI 생태계 확산과 민관 협력 강화를 목표로, AI·클라우드 융합 산업을 연결하는 중심 기관으로 거듭난다는 목표다. 아울러 협회는 '커넥트 클라우드 얼라이언스(C.C.A)' 운영 성과를 공유하고, SaaS·PaaS·보안·글로벌 진출·AI 클라우드·DaaS 등 6개 지원분과 활동을 통해 정책·시장·기술 연계를 강화해 온 점을 강조했다. 최지웅 KACI 회장은 "AI와 클라우드를 축으로 한 융합 생태계에서 협회의 책임감과 사명감이 더욱 커지고 있다"며 "산업계·정부·국회와 긴밀히 협력해 내년 대한민국이 AI 3대 강국으로 도약하는 데 기여하겠다"고 밝혔다.

2025.12.18 19:54한정호

앤트로픽, 구글 TPU 핵심 파트너와 AI 데이터센터 구축 '박차'

인공지능(AI) 인프라 경쟁이 본격화되는 가운데, 앤트로픽이 구글의 핵심 파트너로 떠오른 네오클라우드 기업 플루이드스택과 초대형 데이터센터 구축에 박차를 가한다. 18일 월스트리트저널(WSJ)에 따르면 플루이드스택은 미국 루이지애나주에 건설되는 대규모 AI 데이터센터에서 앤트로픽이 활용할 고성능 컴퓨팅 클러스터 운영을 맡게 됐다. 해당 프로젝트는 단계별로 확장되는 구조로, 초기에는 약 245메가와트(MW) 규모의 연산 용량이 제공될 예정이다. 이 인프라는 앤트로픽이 대규모 언어모델(LLM)을 학습·운영·확장하는 데 활용된다 . 이번 협력에서 플루이드스택은 단순 임대 사업자를 넘어 AI 연산 인프라 운영의 중심 역할을 맡는다. 회사는 구글 텐서처리장치(TPU) 생태계의 핵심 파트너로, 최근 '제미나이 3' 학습용 TPU 인프라를 공급하며 급부상했다. TPU 중심 전략을 앞세워 AI 모델 개발사들의 엔비디아 그래픽처리장치(GPU) 의존도를 낮추는 동시에 대형 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축에 속도를 내고 있다 . 플루이드스택은 현재 약 7억 달러(약 1조345억원) 규모의 신규 투자 유치를 추진 중이며 투자 성사 시 기업가치는 70억 달러(약 10조원)에 이를 것으로 전망된다. 구글과 골드만삭스가 투자 논의에 참여한 것으로 알려졌고 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 공개했다. 이는 글로벌 AI 인프라 수요가 급증하는 가운데, 기술 기업과 금융권이 결합한 새로운 데이터센터 투자 모델을 대표하는 사례로 평가된다. 앤트로픽 역시 공격적인 인프라 투자에 나서고 있다. 회사는 총 500억 달러(약 73조원)를 투입해 미국 내 맞춤형 AI 데이터센터를 구축할 계획이며 텍사스와 뉴욕을 시작으로 내년부터 순차 가동한다. 이 과정에서 플루이드스택과의 협력은 앤트로픽이 안정적인 연산 자원과 전력을 확보하는 핵심 축으로 작동할 전망이다. 업계에서는 앤트로픽의 대규모 인프라 투자가 오픈AI, 메타 등 경쟁사들의 초대형 프로젝트에 대응하기 위한 전략적 선택으로 보고 있다. 생성형 AI 성능 경쟁이 연산 능력과 전력 확보 경쟁으로 확산되면서 클라우드 사업자의 위상도 빠르게 높아지고 있다는 분석이 나온다. 플루이드스택이 단기간에 구글과 앤트로픽을 지원하는 글로벌 AI 인프라 핵심 사업자로 부상한 배경도 이같은 흐름과 맞물려 있다 . 앤트로픽은 "이번 데이터센터 구축을 통해 보다 강력하고 안전한 AI 시스템을 개발하고 과학적 발견과 산업 전반의 혁신을 가속화할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.18 13:31한정호

삼성전자, 엔비디아향 '소캠2' 공급 임박…샘플 평가·표준화 협력

삼성전자와 엔비디아가 AI 메모리 분야에서 긴밀한 협력을 더 강화하고 있다. LPDDR(저전력 D램) 기반 차세대 서버 메모리 모듈에 대한 평가를 진행 중인 것은 물론, 공식 표준화 작업도 함께 진행 중이다. 양사 간 협업은 내년 초부터 본격적인 시너지 효과를 발휘할 것으로 기대된다. 삼성전자는 18일 공식 뉴스룸을 통해 고객사에 SOCAMM(소캠; Small Outline Compression Attached Memory Module)2 샘플을 공급하고 있다고 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈로, 저전력 D램인 LPDDR을 4개씩 집적한다. 기존 모듈(RDIMM) 대비 데이터 전송 통로인 I/O(입출력단자) 수가 많아, 데이터 처리 성능의 척도인 대역폭이 높다는 장점이 있다. 소캠2는 2세대 소캠으로서, RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공한다. 또한 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장해야 했지만, 소캠2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있다. 삼성전자가 개발한 소캠2는 내년 초부터 본격 상용화될 전망이다. 현재 삼성전자는 1b(5세대 10나노급) D램을 기반으로 소캠2를 개발해, 주요 고객사인 엔비디아와 퀄(품질) 테스트를 거치고 있는 것으로 알려졌다. 삼성전자는 "서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다"며 "특히 엔비디아와의 기술 협업을 통해 소캠2를 엔비디아 가속 인프라에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다"고 밝혔다. 소캠2의 공식 표준화 작업도 마무리 단계에 접어들었다. 현재 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다. 디온 헤리스 엔비디아 HPC 및 AI 인프라 솔루션 총괄 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 피지컬 AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며 "삼성전자와의 지속적인 기술 협력을 통해 소캠2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

2025.12.18 11:04장경윤

"AI 추론 비용 내년부터 폭증…하이브리드 GPUaaS가 부담 덜 것"

카카오엔터프라이즈가 인공지능(AI) 인프라의 새로운 대안으로 '하이브리드 서비스형 그래픽처리장치(GPUaaS)를 제안했다. 내년에 AI 서비스가 더 많이 이용되면서 클라우드 비용이 급증할 것으로 예상되는 만큼 유연성과 경제성을 동시에 확보하는 가장 현실적인 해법이 '하이브리드 GPUaaS'가 될 것으로 판단해서다. 카카오엔터프라이즈는 지난 16일 과학기술정보통신부가 주최하는 '2025 AI를 위한 데이터&클라우드 진흥주간' 행사에 이재한 클라우드부문 사업본부장이 참여해 이처럼 강조했다고 17일 밝혔다. 오는 19일까지 서울 강남구 코엑스 그랜드볼룸에서 열리는 '데이터&클라우드 진흥주간'은 '모두를 위한 AI, AI를 위한 데이터&클라우드'라는 슬로건 아래 데이터 및 클라우드 업계 관계자들이 모여 최신 기술, 산업 동향, 미래 방향 등을 공유할 수 있는 자리다. 이재한 카카오엔터프라이즈 클라우드부문 사업본부장은 이번 행사에 참석해 "2026년에는 AI 추론에 드는 비용이 학습 비용을 추월할 전망"이라며 "AI 서비스가 더 많이 이용될수록 추론에 소요되는 클라우드 비용이 급증하면서 AI 서비스 기업 및 기관의 적자폭이 커지는 구조적인 문제에 직면할 가능성이 높다"고 내년 AI 서비스 시장을 전망했다. 이어 "GPU는 AI 모델과 서비스 개발에 필수 요소이나, GPUaaS(서비스형 GPU)는 비용 부담이 높고 온프레미스 방식은 구축이나 상면 확보, 운영 등의 부담이 높다는 측면이 있다"며 "AI 서비스 기업 및 기관은 비즈니스 성장 단계에 따라 빠르게 증가하는 클라우드 비용을 절감할 수 있는 방법을 고민하며, GPU 등 자산 확보를 통한 수익성 개선 방안을 염두에 두어야한다"고 강조했다. 카카오엔터프라이즈는 이러한 AI 서비스 기업 및 기관의 부담을 해소할 수 있도록 고객이 GPU를 자산으로 소유하고 카카오클라우드가 GPU 클러스터를 구축 및 운영하는 새로운 형태의 하이브리드 GPUaaS를 선보인 바 있다. 카카오클라우드의 하이브리드 GPUaaS는 불확실한 초기 개발 및 기술 검증(PoC) 단계에서는 클라우드를 통해 투자 리스크를 최소화하며 민첩성을 확보하고, 비즈니스가 본 궤도에 오르는 시기에 자산화를 통해 효율적으로 수익성을 개선할 수 있도록 지원한다. 이 사업본부장은 "우리의 하이브리드 GPUaaS는 클라우드의 '유연성'과 소유의 '경제성' 등 두 가치를 동시에 확보할 수 있는 가장 현실적이고 강력한 해답"이라며 "우리는 AI 서비스 기업 고객과 기관의 클라우드 전략 파트너로서 고객이 불확실한 비즈니스 환경에서도 성장 단계에 발맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 가장 효율적이고 안정적인 방안을 제시할 것"이라고 말했다.

2025.12.17 15:27장유미

에퀴닉스 "AI 시대 디지털 인프라 핵심 전략은 데이터 주권·지속가능성"

글로벌 인공지능(AI) 경쟁이 본격화되면서 기업의 성패를 가를 핵심 요소로 디지털 인프라 전략이 부상하고 있다. 전력·데이터 주권·지속가능성 등 복합적인 변수 속에서 AI 인프라는 단순한 IT 자산을 넘어 기업 경쟁력을 좌우하는 전략 자산으로 자리 잡고 있다. 에퀴닉스는 내년 한국 기업의 AI 도입과 기술 전략을 좌우할 것으로 예측되는 6대 디지털 인프라 트렌드 전망을 17일 발표했다. 에퀴닉스는 AI 고도화와 함께 IT 환경이 복잡해지면서 디지털 인프라가 백엔드 운영을 넘어 기업 혁신의 핵심 기반으로 전환되고 있다고 분석했다. 특히 한국은 전 세계에서 AI 도입 속도가 가장 빠른 국가 중 하나로 꼽히지만, 그래픽처리장치(GPU) 수요 급증과 수도권 전력·부지 제약, 데이터 주권 규제 강화 등 구조적 과제에 동시에 직면해 있다는 설명이다. 보고서에 따르면 가장 시급한 과제로는 전력 밀도와 인프라 병목 문제가 지목됐다. 정부의 엔비디아 GPU 대규모 도입 계획과 함께 하이퍼스케일러, AI 스타트업 전반에서 고성능 컴퓨팅 수요가 폭증하고 있다. 다만 기존 데이터센터는 랙당 5~10키로와트(kW) 수준의 전통적인 워크로드에 최적화돼 있어 랙당 30~80kW 이상을 요구하는 AI 환경을 감당하기 어렵다는 것이다. 특히 수도권 지역은 전력 공급과 인허가, 부지 확보 측면에서 한계가 뚜렷해 AI 인프라 구축 지연 가능성이 제기된다. 에퀴닉스는 이러한 수요에 대응하기 위해 고밀도 AI 워크로드를 지원하는 엑스스케일(xScale) 데이터센터를 수도권에서 운영 중이며 향후 추가 확장을 통해 차세대 AI 인프라 수요를 지원할 계획이다. 또 다른 핵심 트렌드로는 무중단 운영을 위한 회복 탄력성이 꼽혔다. 글로벌 대규모 서비스 장애가 잇따르면서 OTT·게임·핀테크·이커머스 등 주요 산업 전반에서 저지연·고가용성 인프라에 대한 요구가 높아지고 있다. 규제 당국의 서비스 안정성 감독 강화도 기업들이 보다 정교한 이중화와 복원력을 갖춘 인프라 전략을 요구하는 배경으로 작용하고 있다. 데이터 주권을 중시하는 소버린 AI 전환 역시 주요 변화로 제시됐다. 개인정보보호법(PIPA), 마이데이터, 클라우드 보안인증(CSAP) 등 규제 환경 속에서 국내 AI 학습·추론 수요는 빠르게 증가 중이다. 특히 의료· 금융·공공·국방 등 규제 산업에서는 민감한 데이터를 국내에 보관하면서도 글로벌 AI·클라우드 생태계와 연결할 수 있는 인프라가 필수 요소로 부상하고 있다. 에퀴닉스는 분산형 AI와 에이전틱 AI 확산에 따라 컴퓨팅 자원의 위치가 재정의되고 있다는 점도 강조했다. 실시간 추론 중심의 AI 환경에서는 컴퓨팅이 사용자와 더 가까운 곳에서 이뤄져야 하며 통신·로봇·자동차·제조 분야에서 경쟁력을 갖춘 한국은 차세대 AI 활용의 핵심 시장으로 부상할 가능성이 높다는 분석이다. 지속가능성 역시 기업 경쟁력을 좌우하는 요소로 제시됐다. AI 인프라 확산에 따른 에너지 소비 증가로 인해 기업들은 효율성뿐 아니라 탄소 배출의 측정·검증과 재생에너지 활용까지 고려해야 하는 상황이다. 데이터센터는 이러한 ESG 목표 달성의 핵심 인프라로, 기업들은 장기적인 지속가능성 성과를 제공할 수 있는 파트너를 우선적으로 검토하고 있다. 제조 분야에서의 AI 활용 확대도 주요 트렌드로 꼽혔다. 반도체·자동차·조선·배터리·디스플레이 등 제조 강국인 한국은 AI 기반 예측 유지보수, 검사 자동화, 로봇 자동화, 디지털 트윈 도입을 가속화하고 있다. 이에 따라 온프레미스·클라우드·코로케이션을 결합한 하이브리드 AI 아키텍처가 필수 인프라로 자리 잡고 있다는 설명이다. 장혜덕 에퀴닉스 한국 대표는 "한국의 빠른 AI 도입은 기업이 혁신하고 글로벌 경쟁력을 높이는 데 중요한 기회가 되고 있으며 경쟁력 강화를 위해 지속가능성과 데이터 주권, 안정성 확보가 필수 조건이 됐다"며 "AI 기반 혁신의 시대에 국내 기업이 글로벌 수준의 역량을 구축할 수 있도록 지속적으로 지원할 것"이라고 말했다.

2025.12.17 15:03한정호

넷앱 "데이터 인프라가 AI 경쟁력 좌우…내년 韓 공공·금융·소버린 공략"

넷앱이 내년 한국 시장에서 하이브리드 클라우드와 인공지능(AI) 데이터 인프라를 축으로 공공·금융, 소버린 AI 영역 공략을 본격화하겠다는 전략을 제시했다. 유재성 한국넷앱 대표는 17일 서울 교촌치킨 선릉점에서 열린 연말 미디어 데이에서 "AI 논의는 이미 실험을 지나 실행 단계로 넘어왔지만 이를 실제 운영으로 연결하지 못하는 이유는 데이터 인프라에 있다"고 말했다. AI가 실험 단계를 넘어 실제 비즈니스 성과로 이어지기 위해서는 데이터 인프라의 근본적인 전환이 필요하다는 진단이다. 유 대표는 최근 기업들의 AI 도입 흐름에 대해 "모델 성능이나 알고리즘보다 중요한 것은 데이터를 얼마나 잘 통합·관리하고 거버넌스를 적용해 운영할 수 있느냐"라며 "제대로 된 데이터 기반 없이는 AI도 확장될 수 없다"고 설명했다. 이같은 문제의식은 넷앱이 제시한 내년 핵심 전략과도 맞닿아 있다. 넷앱은 ▲AI 데이터 서비스 ▲보안이 강화된 데이터 프로덕션 환경 ▲유연한 하이브리드 클라우드 환경 구축을 3대 축으로 한국 시장을 공략할 계획이다. 특히 온프레미스와 클라우드를 분리된 환경이 아닌 하나의 데이터 흐름으로 연결하는 데 초점을 맞추고 있다. 유 대표는 "하이브리드 클라우드를 단순히 온프레미스와 퍼블릭 클라우드 두 환경의 병렬 구조로 보는 것이 아니라, 고객이 가장 최적의 조건에서 데이터를 활용할 수 있도록 연결하는 것이 핵심"이라며 "여기에 AI를 데이터 서비스 전반에 어떻게 접목할 것인지가 중요하다"고 강조했다. 공공·금융 시장에 대한 접근 전략도 공유했다. 그는 "공공과 금융 분야는 보안과 규제가 까다로운 만큼 진입 장벽이 높지만, 장기적으로 반드시 성장 엔진으로 만들어야 할 영역"이라며 "지금까지 상대적으로 비중이 낮았던 이 시장에서 내년부터는 본격적인 기회를 만들어갈 것"이라고 밝혔다. 특히 최근 화두로 떠오른 국가 차원 '소버린 AI' 전략에 있어서도 데이터 인프라 기업으로서 유의미한 포지셔닝을 하겠다는 목표를 소개했다. 넷앱은 고객 부담을 낮추기 위한 사업 모델 변화도 병행한다. 기존의 일회성 투자 방식에서 벗어나 구독형 모델을 확대하고 인프라 사업자 및 서비스 파트너와의 협업을 통해 새로운 서비스 형태를 개발한다는 구상이다. 한국의 하이브리드 클라우드 시장이 아직 초기 단계라는 점도 언급했다. 유 대표는 "현재는 가상화 초창기처럼 고객 인식과 시장 성숙도에 차이가 있는 상황"이라며 "가격 경쟁이 아닌 기술 경쟁력으로 승부할 수 있도록 시장을 키워나갈 것"이라고 덧붙였다. 유 대표는 "AI 시대의 경쟁력은 결국 데이터를 얼마나 안전하고 유연하게 다룰 수 있느냐에 달려 있다"며 "공공·금융, 소버린 AI 환경에서도 신뢰할 수 있는 데이터 인프라를 제공하는 파트너로 자리매김하겠다"고 강조했다.

2025.12.17 14:30한정호

[현장] "AI가 두뇌라면 데이터는 혈액, 클라우드는 심장"…민관 인프라 협력 시동

"모두가 주연 배우인 인공지능(AI)에 주목할 때, 조연 배우인 데이터와 클라우드를 함께 챙겨야 성공적인 AI 생태계를 만들 수 있습니다." 과학기술정보통신부 류제명 차관은 16일 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간' 개막식에서 AI 시대 데이터와 클라우드의 중요성에 대해 이같이 강조했다. 올해 처음 개최된 데이터·클라우드 진흥주간은 과기정통부가 주최하고 한국지능정보사회진흥원(NIA), 정보통신산업진흥원(NIPA), 정보통신기획평가원(IITP), 한국데이터산업진흥원(K-DATA) 등이 공동으로 참여하는 국내 최대 규모의 데이터·클라우드 통합 행사다. '모두를 위한 AI, AI를 위한 데이터·클라우드'를 슬로건으로 이날부터 19일까지 나흘간 서울 코엑스에서 열린다. 류 차관은 개회사를 통해 "AI 성능과 국가 경쟁력의 핵심은 결국 양질의 데이터와 신뢰할 수 있는 클라우드에 있다"며 "AI가 두뇌라면 데이터는 혈액이고 클라우드는 혈액을 순환시키는 심장"이라고 말했다. 정부 차원의 전략도 공유했다. 그는 "국가AI전략위원회와 과학기술관계장관회의를 중심으로 범부처 역량을 결집한 전략적 대응 체계를 구축하고 있다"며 "독자적인 AI 생태계와 AI 고속도로를 만들어 국민 누구나 AI 혜택을 누리는 모두의 AI 사회를 구현하겠다"고 덧붙였다. 이번 개막식에서는 데이터·클라우드 분야 핵심 7개 기관과 협회가 참여하는 업무협약(MOU) 체결식도 함께 진행됐다. 이번 협약은 데이터와 클라우드를 기반으로 한 AI 혁신을 공동 추진하고 대한민국의 AI 3강 도약을 목표로 한다. MOU에는 한국지능정보사회진흥원·정보통신산업진흥원·정보통신기획평가원·한국데이터산업진흥원과 함께 한국클라우드산업협회·한국데이터산업협회·한국데이터센터연합회 등 총 7개 기관·협회가 참여했다. 각 기관은 전문성과 역할을 바탕으로 상호 협력 체계를 구축하기로 했다. 협약에 따라 이들 기관은 국가 데이터 인프라 구축, 공공부문 클라우드 전환 확대, AI 데이터 기반 연구개발(R&D) 지원, 산업 현장의 데이터 활용 촉진 등 전 주기에 걸쳐 협력한다. 데이터·클라우드 산업 경쟁력을 강화하고 기술 성과가 산업 생태계 전반으로 확산되도록 공동 대응한다는 계획이다. 이날 행사에는 국회 과학기술정보방송통신위원회 최민희 위원장을 비롯해 김현·최형두 의원의 영상 축사도 이어졌다. 국회는 데이터와 클라우드가 국가 전략 자산으로 자리 잡을 수 있도록 입법·제도적 지원을 이어가겠다는 뜻을 밝혔다. 이어진 기조연설에서 김동훈 NHN클라우드 대표는 AI 시대 데이터센터의 역할을 'AI 팩토리'로 정의하며 기존 데이터센터와는 다른 인프라 전환이 필요하다고 강조했다. 앞으로 고성능 그래픽처리장치(GPU), 대규모 전력, 첨단 냉각 기술이 결합된 AI 데이터센터가 필요하다는 설명이다. 김 대표는 "현재 데이터센터는 단순한 저장 공간이 아니라 AI 서비스를 생산하는 공장으로 진화하고 있다"며 "한국도 이러한 AI 팩토리 역량을 갖춰야 글로벌 경쟁에서 살아남을 수 있다"고 강조했다.

2025.12.16 16:19한정호

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

오라클, "AI가 DB 안으로"…AI 데이터베이스 26ai로 차별화 승부

오라클이 데이터를 밖으로 빼내지 않고 데이터베이스에서 바로 인공지능(AI)을 실행하는 방식을 앞세워 AI 데이터플랫폼 기업으로 거듭나겠다고 선언했다. 한국오라클은 11일 서울 강남구 아셈타워에서 미디어 브리핑을 열고 오라클 AI 월드 2025의 주요 발표 내용을 국내 시장 관점에서 재정리했다. 올해 처음 개최된 오라클 AI 월드는 기존 글로벌 연례 행사였던 '오라클 클라우드월드'의 이름을 바꾼 것으로 클라우드 인프라와 데이터베이스, 애플리케이션 전반을 AI 중심으로 재편하는 전략이 집중적으로 소개된 무대다. 행사에서 나정옥 한국오라클 부사장(클라우드 엔지니어링 총괄)은 AI 전략의 출발점을 'AI를 위한 데이터'가 아니라 '데이터를 위한 AI(AI for Data)'라고 규정했다. 그는 "AI 도입의 성패는 '데이터 이동'을 얼마나 줄이느냐에 달렸다"며 "오라클은 데이터를 AI 모델로 가져가는 비효율을 없애고, 데이터가 저장된 바로 그곳에 AI를 심는 '데이터 중심' 전략으로 시장 판도를 바꾸겠다"고 강조했다. 나 부사장은 "오픈AI가 오라클을 선택한 이유도 타사가 수년 걸릴 대규모 클러스터를 1년이 채 안 되는 기간에 구축할 수 있는 인프라 역량 때문"이라며 "AI를 위해 데이터를 밖으로 빼내지 않는다는 원칙 아래, 데이터가 머무는 자리로 AI를 가져오는 것이 오라클 전략의 핵심"이라고 말했다. 차세대 인프라 전략은 장진호 상무가 설명했다. 그는 오라클 클라우드 인프라(OCI)의 기존 '젠2(Gen 2)' 클라우드 아키텍처를 AI 워크로드에 맞게 재설계한 '엑셀러론(Acceleron)' 기반 인프라를 소개했다. 엑셀러론은 GPU 간 연결 구조와 네트워크, 스토리지를 모두 AI 학습·추론에 맞게 최적화한 구조로, 수십만개의 GPU를 하나의 거대한 클러스터로 묶는 것이 특징이다. 실제로 오라클은 엔비디아 GPU를 최대 80만개까지 단일 클러스터로 연결하는 'OCI 제타스케일10(Zettascale10)' 아키텍처를 공개했으며, 미국 텍사스 애빌린에 오픈AI와 함께 구축 중인 '스타게이트' 슈퍼클러스터의 기반 패브릭으로 적용하고 있다. 장 상무는 "엑셀러론은 단순히 하드웨어를 늘린 것이 아니라, 네트워크와 스토리지까지 전 계층을 AI 워크로드에 맞춰 다시 설계한 인프라"라며 "이미 13만장 규모 GPU 클러스터를 운영 중이고, 제타스케일10을 통해 80만장 수준까지 확장하는 '물리적 체급'의 차이를 보여줄 것"이라고 말했다. 데이터베이스 측면에서는 '오라클 AI 데이터베이스 26ai'가 프레임 전환의 중심에 섰다. 오라클은 기존 '오라클 데이터베이스 23ai'에서 선보였던 AI 벡터 검색, 셀렉트 AI 기능을 발전시켜 26ai에 통합했다. 조경진 상무는 "벡터 검색은 기계가 사람처럼 문맥과 의미를 이해하게 만드는 핵심 기술"이라며 "오라클은 별도 벡터 데이터베이스를 따로 구축하지 않고도, 기존 데이터베이스 안에서 관계형 데이터와 문서, 이미지 같은 비정형 데이터를 함께 벡터로 다루고 검색할 수 있다"고 설명했다. 그는 "개발자는 익숙한 SQL과 JSON, 그래프, 공간 데이터 위에 AI 벡터 검색을 얹어, 복잡한 인프라를 다시 짜지 않고도 LLM, RAG 같은 고급 AI 기능을 구현할 수 있다"고 덧붙였다. 실제 시연에서는 자연어로 "이번 달 배송 지연 건수는?"이라고 묻자, 셀렉트 AI가 데이터베이스 스키마 정보를 바탕으로 SQL을 자동 생성해 결과를 반환하는 화면이 소개됐다. 오라클 셀렉트 AI는 자연어를 SQL로 변환하고, 필요할 경우 기업 문서와 로그를 벡터로 변환해 함께 조회하는 방식으로 '대화하듯 데이터에 질의'하는 경험을 제공한다. 조 상무는 "결국 중요한 것은 LLM이 아니라 기업 고유 데이터"라며 "데이터베이스 안에 AI를 내장해 개발자와 데이터 분석가가 기존 워크플로를 거의 바꾸지 않고도 AI 기능을 쓰게 하는 것이 목표"라고 말했다. 데이터 플랫폼 전략은 김태완 상무가 맡았다. 그는 파편화된 데이터를 하나로 엮는 '오라클 AI 데이터 플랫폼'과 '오픈 데이터 레이크하우스', '제로 ETL(Zero-ETL)' 전략을 함께 제시했다. 김 상무는 "이제 데이터가 어디에 있든 상관없는 '오픈 데이터' 시대"라며 "오라클의 전략은 데이터를 복제하거나 옮기는 작업을 최소화해, 이동에 드는 시간과 비용을 없애는 '제로 ETL'을 실현하는 것"이라고 강조했다. 그는 "AWS, 마이크로소프트 애저, 구글 클라우드 등과의 멀티클라우드 연동을 통해, 여러 클라우드에 흩어진 데이터를 데이터 사일로 없이 하나의 논리적 플랫폼처럼 다루게 하는 것이 목표"라고 설명했다. 보안과 규제 준수 측면에서 오라클은 '프라이빗 AI'를 핵심 차별점으로 내세웠다. 나정옥 부사장은 "많은 기업이 비싼 GPU를 도입해 놓고도, 데이터 반출과 규제 이슈 때문에 실제 업무에는 쓰지 못하고 있다"며 "오라클은 'AI를 위해 데이터를 밖으로 빼내지 않는다'는 철학 아래, 데이터가 저장된 데이터베이스와 데이터 레이크, 애플리케이션 주변에 AI를 심는 구조를 택했다"고 말했다. 그는 "데이터 주권과 규제가 중요한 금융, 공공, 제조 기업이 기존 보안·거버넌스 체계를 그대로 유지한 상태에서 고성능 AI를 쓸 수 있도록 하는 것이 오라클 프라이빗 AI의 지향점"이라고 부연했다.

2025.12.11 21:50남혁우

메가존클라우드, 동아대 지-램프 사업단과 양자·원자 연구 '맞손'

메가존클라우드가 학계와 함께 양자·원자 과학 기반 연구를 위한 클라우드·인공지능(AI) 인프라 협력에 나선다. 메가존클라우드는 동아대학교 지-램프(G-LAMP) 사업단과 산학연협력 양해각서(MOU)를 체결했다고 11일 밝혔다. 이번 협약을 통해 양측은 ▲원자·양자 과학 분야 기초·응용 기술 연구개발(R&D) 및 고급 연구 인력 양성 ▲기술 이전 및 사업화 추진 협력 ▲장비·시설 등 연구 인프라 공동 활용 ▲세미나·워크숍·학술교류 등 공동 학술행사 기획·운영 ▲기타 상호 발전을 위한 산학연 협력 등을 함께 추진할 계획이다. 특히 메가존클라우드는 자사 클라우드·AI 역량을 바탕으로 양자·원자 과학 연구에 필요한 클라우드·AI 인프라를 지원해 연구자들의 대용량 데이터 분석과 시뮬레이션, 협업 환경을 고도화할 방침이다. 메가존클라우드 김동호 최고양자책임자(CQO)는 "동아대 지-램프 사업단과의 협력은 클라우드 기술을 양자·원자 과학 연구 현장에 적극 적용해 연구 효율성과 확장성을 높이는 중요한 출발점"이라며 "공동 연구와 기술 협력을 통해 기초과학과 산업 기술이 연결되는 실질적 성과를 만들고 지속가능한 산학 협력 모델을 구축해 나가겠다"고 말했다. 정진웅 동아대 지-램프 사업단장은 "메가존클라우드와의 협력은 기초과학 연구의 디지털 전환과 융합 연구 강화에 큰 도움이 될 것"이라며 "양자·원자 과학 기반 R&D와 기술 사업화를 위해 협력을 확대해 나가겠다"고 밝혔다.

2025.12.11 17:45한정호

과기정통부 "AI 3대 강국, 정부·민간 협력 생태계 구축해 달성한다"

"인공지능(AI)을 국가 성장의 핵심축으로 삼고 민간과 함께 생태계를 구축하겠습니다." 과학기술정보통신부 장기철 인공지능데이터진흥과장은 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 국가 AI 경쟁력 강화와 디지털 인프라 전환에 대해 이같이 밝혔다. 지디넷코리아가 주최한 ACC 2025는 AI와 클라우드 분야의 실질적 비즈니스 성과 창출 방안을 모색하는 대표 기술 컨퍼런스다. 올해 행사에는 과기정통부 비롯해 구글 클라우드·삼성SDS·뉴타닉스 코리아·아카마이·알리바바 클라우드·나무기술 등 글로벌 및 국내 주요 기업들이 대거 참여해 성황을 이뤘다. 이날 장 과장은 글로벌 'AI 3대 강국(AI G3)' 도약을 목표로 하는 정부의 AI 정책 확대 로드맵을 공유했다. 그는 "현재 우리나라 AI의 수준은 미국·중국을 뒤따르는 3위권 그룹으로, 앞으로는 압도적인 3강을 굳히는 것이 목표"라고 말했다. 특히 글로벌 AI 모델 평가 지표에서 LG AI연구원의 '엑사원', 업스테이지 '솔라' 모델이 상위권에 오른 점을 언급하며 "우리도 톱티어 모델을 만들 역량이 있다"고 덧붙였다. 정부는 AI G3 도약을 위해 내년 대규모 예산을 투입한다. 정부 AI 예산 10조원, 국민성장펀드를 통한 AI 투자 30조원 등을 통해 GPU·데이터·반도체·모델·인재까지 이어지는 AI 풀스택 역량을 모두 강화한다는 방침이다. 특히 2030년까지 엔비디아 26만 장 그래픽처리장치(GPU)를 확보하는 계획을 바탕으로 한국형 'AI 고속도로' 구축에 속도를 낼 전망이다. 장 과장은 AI 인재 문제도 시급한 과제로 꼽았다. 국내에서 충분한 GPU를 써볼 기회가 없어 연구자들이 해외로 빠져나가는 현실을 타개하고자 정부는 ▲해외 AI 인재 특별비자 도입 ▲AI대학원·AX 융합대학원 확대 ▲AI 스타펠로우십 지원 등 제도 개선을 추진하고 있다. 또 '독자 AI 파운데이션 모델 프로젝트'에도 속도를 낸다. 장 과장은 "프롬 스크래치 기술을 갖춘 우수 국내 AI 기업들과 함께 글로벌 톱 모델 확보에 도전한다"며 "공공·민간의 데이터와 GPU, 인재 등 기술과 정부 지원 역량을 결합해 글로벌 모델 10위권에 진입할 것"이라고 밝혔다. AI 기반 국가 대전환 전략도 소개됐다. 제조·지역·공공·과학 분야로 구분된 AX 전략을 통해 AI 로봇·AI 공장·AI 복지·AI 납세 관리 등 전 산업·행정 분야의 디지털 혁신을 동시 추진한다는 구상이다. 장 과장은 "대통령 직속 국가AI전략위원회를 중심으로 범부처 협업을 강화해 AI 정부로 전환되고 있다"고 강조했다. 아울러 지난 9월 국가정보자원관리원 화재 사고 이후 국가가 운영하는 디지털 인프라의 안정성 확보 대책도 언급됐다. 그는 "국가에서 관리하는 데이터센터들이 민간 클라우드를 더 많이 활용할 수 있도록 방안을 마련 중"이라며 "국가AI전략위원회에서 별도 대책을 준비하고 있어 이른 시일 내 발표될 것"이라고 말했다. 장 과장은 AI G3 도약을 위한 향후 정부의 역할도 공유했다. 예산 측면에서는 마중물 역할을, 산업 측면에서는 규제 완화와 공공 조달을 통한 초기 시장 조성을 핵심 방향으로 제시했다. 그는 "정부가 AI에 있어 모든 것을 다 할 수 있다고 생각하지 않는다"며 "민간이 AI 비즈니스를 잘할 수 있도록 적절한 제도와 환경을 만드는 데 집중하겠다"고 말했다.

2025.12.11 17:34한정호

ACC 2025 찾은 관람객 "AI 풀스택 인상적"…실무형 혁신 전략 쏟아져

"모델 구축부터 재해복구(DR)까지 인공지능(AI) 서비스를 운영하는 데 필요한 '풀스택' 기술을 한 자리에서 접할 수 있어 정보가 머릿속에서 유기적으로 연결되는 느낌을 받았습니다." 글로벌 경기 침체 속에서 기업들이 단순한 AI 도입을 넘어 '실질적인 성과'를 고민하고 있는 가운데, 최신 IT 기술과 비즈니스 적용 해법을 확인할 수 있는 자리가 마련돼 업계의 높은 관심을 받았다. 지디넷코리아는 11일 서울 중구 신라호텔 다이너스티홀에서 'AI & Cloud Conference 2025(ACC 2025)' 행사를 개최했다. 이번 행사는 글로벌 구글 클라우드·삼성SDS·퓨어스토리지 등 국내외 주요 기업이 참여해 2026년을 선도할 비즈니스 전략과 AI·클라우드 혁신안 등을 제시했다. 또 현장에서는 생성형AI·인프라·보안 등 최신 솔루션을 보다 직접적으로 경험해 볼 수 있는 기업 전시 부스도 운영돼 관람객들의 이목을 집중시켰다. 행사장은 이른 아침부터 등록을 마친 관람객들로 붐볐다. 특히 올해 행사는 단순한 AI 기술의 신기함을 넘어, 기업 현장에 AI를 어떻게 도입하고 실질적인 성과를 낼 것인가에 대한 구체적인 해법을 찾는 실무자들의 발길이 이어졌다. 이날 첫 번째 키노트로 나선 구글 클라우드 안영균 엔터프라이즈 파트너십 헤드는 이제는 AI를 도구가 아닌 '만능 비서'로 봐야 한다며 행사의 포문을 열었다. 이어 퓨어스토리지 김영석 상무, 뉴타닉스 마이클 신 전무, 알리바바 클라우드 임종진 테크리드, 삼성SDS 최정진 그룹장이 연단에 올라 AI 인프라와 재해복구(DR) 전략 등 심도 있는 인사이트를 공유했다. 오후에는 트랙 A·B로 나눠 ▲바이트플러스 ▲Odoo ▲배스트데이터 ▲오픈서베이 ▲아카마이 ▲HPE ▲래블업 ▲나무기술 등이 각 기업 환경에 맞춘 구체적인 기술 도입 사례와 운영 전략을 발표해 호응을 얻었다. 다양한 AI 솔루션을 주제로 진행된 행사인 만큼 부스를 찾은 참관객들의 반응도 뜨거웠다. 특히 보안과 비용 효율성을 강조한 부스들에 실무자들의 발길이 이어졌다. HPE 부스에서는 AI와 머신러닝(ML) 이더넷 패브릭 환경에서 고용량 스파인 및 리프 스위치로 활용되는 'QFX5230'의 실물이 전시돼 관람객들의 기술적 호기심을 자극했다. 또 '앱스트라 데이터센터 디렉터' 사용자화면(UI)을 통해 데이터센터 네트워크 최적화 방안을 직접 시연해 눈길을 끌었다. 래블업 부스에서는 단 2대의 서버로 120B(1천200억 파라미터) 규모의 거대언어모델(LLM)을 구동하는 시연이 주목받았다. 래블업 관계자는 "보안 문제로 외부망 사용이 어려운 기업들을 위해 온프레미스 환경에서도 효율적인 AI 구축이 가능하다는 점을 강조하고 있다"고 설명했다. 바이트플러스는 AI 영상 생성 기술로 관람객을 사로잡았다. 립싱크뿐만 아니라 영상 생성까지 가능한 기능들을 선보였다. 바이트플러스 관계자는 "콘솔 하나로 클라우드와 AI 제품을 통합 관리할 수 있어 아마존웹서비스(AWS)처럼 편리하게 사용할 수 있다"고 소개했다. 아카마이는 엔비디아와 협업한 GPU 모델 제공과 AI 보안 솔루션을 소개하며 'AI 인프라 기업'으로서의 확장을 알렸다. 이날 행사를 찾은 한 IT 기업 관계자는 "보통 세미나는 단편적인 정보에 그치기 쉬운데 이번 행사는 AI 도입의 전체 과정을 빠짐없이 설명하려는 진심이 느껴졌다"며 "파편화된 정보들이 융합돼 인프라 구축과 서비스 운영에 대한 명확한 인사이트를 얻을 수 있었다"고 호평했다. 현장의 디지털 전환을 고민하며 행사장을 찾은 의료 업계 관계자는 "폐쇄망을 사용하는 병원 환경에서 클라우드와 자체 구축 사이의 인프라 해법을 찾기 위해 컨퍼런스와 부스를 주의 깊게 살펴봤다"고 말했다.

2025.12.11 16:58진성우

래블업 "인간 지능 대체 시도 활발…수직 통합·오픈 생태계 해법으로"

래블업이 인간의 지능을 대체하고자 하는 시도가 활발하게 일어나는 현 시점에 기술적 문제의 해결법으로 수직 통합과 대규모 오픈 생태계 진입을 제시했다. 김준기 래블업 최고기술책임자(CTO)는 11일 서울 중구 신라호텔에서 열린 'ACC 2025'에서 "AI 기술이 등장하면서 이전에는 슈퍼컴퓨터를 동원해야만 계산할 수 있었던 연산들이 적은 개수의 서버로 수행할 수 있게 되면서 AI 모델이 저정밀도 환경에서도 잘 작동한다는 깨달음을 얻게 됐다"며 "고도화된 AI 모델을 만들고 이를 통해 인간의 지능을 대체하는 시도들이 활발하게 일어나고 있는 게 현재 시점"이라고 말했다. 'ACC 2025'는 지디넷코리아가 주관·주최하고 과학기술정보통신부, 래블업, 네이버 등이 후원하는 컨퍼런스다. 이 자리에서 김 CTO는 "경제적인 동인에 따라 그래픽처리장치(GPU)의 아키텍처가 점점 빈틈없이 메워지기 시작했다"며 "이전에는 인간의 고유한 지적 활동으로 취급됐던 지능이 산업적 측면에서 재화나 물품으로 취급될 수 있다는 시각이 나왔다"고 설명했다. 또 그는 이 과정에서 고장 등의 현실적인 문제가 발생했으나, 래블업은 이같은 컴퓨팅 인프라를 관리하는 데 필요한 여러 기술적 어려움과 고민들을 숨겨주는 것을 목표로 하고 있다고 언급했다. 이를 위해 이 회사는 오픈소스 개발 단계에서 여러 엔터프라이즈 확장 기능을 붙이는 방식을 추구하고 있다. 또 간단한 PC 스케일부터 클라우드까지 가능한 일관된 경험을 제공하는 것을 목표로 개발을 이어가고 있는 상황이다. 김 CTO는 "다양한 층위에서 사실 공통된 원리들이 적용되는데 이를 시스템 디자인에 얼마나 잘 녹여낼 수 있느냐에 대한 고민을 많이 하고 있다"며 "보안에 대한 문제도 고민 중"이라고 말했다. 그는 기술적으로 아무리 복잡한 문제를 해결했어도 이를 실제 고객에게 공급하고 기술 지원을 할 것이냐는 어려운 문제라고 토로했다. 김 CTO는 "기술적 관점에서 가능한 수직 통합을 해 모든 요소를 우리 통제 하에 두겠다는 것이 하나의 방향"이라며 "요즘 고민하는 것은 어느 정도 안정성 등이 검증된 대규모 오픈 생태계인 '거인의 어깨'에 올라타는 전략"이라고 언급했다. 다만 래블업은 AI 시장이 이제 시작 단계에 있다고 보고 다양한 특화 환경에 맞는 AI 반도체 등장을 염두에 두고 특정 벤더에 종속되지 않는 형태의 디자인에 대한 개발을 내부적으로 이어오고 있다고 강조했다. 김 CTO는 "지능 인프라를 공급하는 회사로 다양한 기술적 문제를 해결해나가고 있다"며 "이런 부분이 여러분들의 의사결정과 연구개발에 도움이 됐으면 좋겠다"고 밝혔다.

2025.12.11 16:53박서린

기업 85% "클라우드 네이티브 전환 필요"…실행은 여전히 초기 단계

인공지능(AI) 확산과 함께 인프라 전환의 필요성이 커지고 있지만 여전히 많은 기업들이 실행에 어려움을 겪고 있는 것으로 나타났다. 11일 오케스트로가 발표한 클라우드 네이티브 전환 실태 조사 결과에 따르면 전체 응답자의 84.7%가 '클라우드 네이티브 전환이 필요하다'고 답했으며 이 가운데 절반 이상은 '매우 필요하다'고 응답했다. 이번 조사는 지난달 기업 및 공공기관 IT 종사자 8천978명을 대상으로 진행됐다. 조사에 따르면 클라우드 네이티브 전환 필요성에 대한 인식이 확산되면서 실제 준비 현황에 대한 관심도 높아지고 있다. 그러나 전환 수준은 여전히 초기 단계에 머물러 있는 것으로 나타났다. 전환을 완료했거나 절반 이상 진행 중이라고 응답한 비율은 18.4%에 불과했다. 대부분 초기 논의 단계(39.5%)에 머물러 있거나, 일부 업무에만 시범 적용(27.6%)하는 데 그쳤다. 전환에 대한 공감대는 형성됐지만 실행으로 이어지지 못하는 현실적 한계도 뚜렷했다는 게 오케스트로 측 설명이다. 기업들이 전환 과정에서 가장 많이 겪는 어려움은 운영 복잡성으로 조사됐다. ▲운영 복잡성 증가(18.3%)와 ▲레거시 시스템의 복잡성(17.4%)이 주요 제약 요인으로 꼽혔고 ▲전문 인력 부족(16.9%) ▲보안·규제 부담(10.5%)이 뒤를 이었다. 복잡해진 클라우드 환경도 전환 필요성을 높이는 배경으로 지목됐다. 응답자의 82.9%는 멀티‧하이브리드 환경의 운영 복잡성이 클라우드 네이티브 전환 필요성에 영향을 미친다고 답했다. 클라우드 환경을 안정적으로 운영하기 위해 구조적인 전환이 필요하다는 인식이 확산되고 있다. 클라우드 네이티브 전환을 통해 기대하는 효과도 분명했다. ▲인프라 운영 자동화 향상(24.9%)이 가장 높은 응답을 얻었고 ▲AI 서비스 대응 속도 향상(19.7%) ▲재해복구(DR)·복구력 강화(16.8%)가 뒤를 이었다. 이 밖에도 ▲신규 서비스 출시·배포 속도 향상(15.6%) ▲비용 효율성 제고(15.6%) 등 다양한 기대가 고르게 나타났다. 클라우드 네이티브 전환 논의가 확산되면서 운영 안정성과 서비스 연속성 확보가 기업의 핵심 과제로 부상하고 있다. 오케스트로는 이에 대응해 전환부터 AI 인프라 최적화, DR 전략까지 아우르는 풀스택 소버린 AI 클라우드 아키텍처를 기반으로 전환과 운영 안정성을 동시에 지원한다는 목표다. 오케스트로는 KT클라우드와 공동 투자한 국가정보자원관리원 대구 민관협력형(PPP) 클라우드 존 운영 경험을 바탕으로 컨설팅·설계·구축·운영까지 전환의 전 과정을 직접 수행하고 있다. 자체 개발한 마이크로서비스 아키텍처(MSA) 분석 자동화 툴을 활용해 레거시 시스템 분석 시간을 기존 대비 약 10분의 1로 단축하고 복잡한 환경에서도 신속하고 체계적인 전환을 돕고 있다. 이러한 기술력과 경험을 기반으로 오케스트로는 클라우드 네이티브 전환을 선도하는 리딩 기업으로 자리매김한다는 방침이다. 특히 AI 인프라 운영 효율화를 위해 서버 가상화 솔루션 '콘트라베이스'와 클라우드 네이티브 운영관리 플랫폼 '비올라'를 기반으로 그래픽처리장치 가상화(GPUaaS)와 노드·리소스 통합 관리를 구현하며 고성능 AI 워크로드의 안정적 운영을 지원 중이다. 아울러 오케스트로는 최근 DR 전문 기업 인수를 통해 연속 데이터 보호(CDP) 기술을 포함한 DR 전 영역의 핵심 역량을 내재화·고도화해 왔다. 이를 기반으로 콘트라베이스는 액티브-스탠바이와 실시간 이중화 구성을 모두 지원해 장애 상황에서도 안정적인 복구 환경을 제공한다. 김범재 오케스트로 대표는 "많은 기업들이 클라우드 네이티브 전환의 필요성은 인식하고 있지만 복잡한 환경과 기술적 제약으로 실행에 어려움을 겪고 있다"며 "고객의 안정적인 클라우드 네이티브 전환과 운영 효율성뿐만 아니라 서비스 연속성까지 확보할 수 있도록 적극 지원하겠다"고 말했다.

2025.12.11 13:56한정호

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

뉴타닉스 "AI 도입, 멋진 모델보다 '단순함'과 '운영 전략'이 우선"

뉴타닉스가 생성형 인공지능(AI) 도입을 망설이는 기업들에게 단순하고 확장 가능한 AI 인프라와 IT 주도형 플랫폼 전략을 해법으로 제시했다. 뉴타닉스 코리아 마이클 신 시스템 엔지니어링 전무는 11일 서울 신라호텔에서 열린 '인공지능(AI)&클라우드 컨퍼런스 2025(ACC 2025)'에서 AI도입 과정의 어려움을 살펴보며 이를 해결하기 위한 도입 전략을 소개했다. 그는 "기업들이 AI를 도입하는 이유는 결국 생산성과 수익성을 높이기 위한 것"이라며 "이 목표를 달성하려면 처음 설계 단계에서부터 인프라와 운영 방식을 함께 생각해야 한다"고 강조했다. 신 전무는 AI 도입을 고민하는 기업들이 먼저 스스로에게 던져야 할 질문을 세 가지로 정리했다. ▲어떤 모델을 쓸 것인지 ▲어떤 부서와 업무에 AI를 적용할 것인지 ▲그래픽처리장치(GPU) 수급과 비용 현실 등을 감안해 인프라를 어떻게 확장해 나갈 것인지다. 그는 "지금 당장 수천 개의 GPU를 살 수 있는 기업은 거의 없다"며 "처음부터 크게 시작하는 것보다 작게 시작하되 수요에 맞춰 자연스럽게 확장할 수 있는 구조가 중요하다"고 말했다. AI 도입 과정에서 뚜렷한 목표와 구체적인 계획 없이 우선 도입을 추지하려는 관행도 지적했다. 신 전무는 "공공과 민간을 막론하고 'AI를 도입하지 않으면 예산조차 받을 수 없다'는 말이 나올 정도로 압박이 심하지만, 정작 실무자들은 무엇부터 손대야 할지 몰라 막막해하는 경우가 태반"이라고 현장의 고충을 짚었다. 이어 "성공적인 AI 프로젝트는 '이 기술로 무엇을 할 수 있을까'라는 막연한 기대가 아니라 '우리 조직의 어떤 업무부터, 어떻게 적용할 것인가'를 명확히 정의하는 것에서 출발해야 한다"고 조언했다. 더불어 폭발적으로 늘어난 AI 모델 생태계에 대해서는 기회와 위험이 공존한다고 평가했다. 신 전무는 "현재 공개된 모델이 100만 개가 넘고 매주 수 많은 신규 모델이 등장한다"며 "각 모델의 특성과 규제 이슈를 따져보지 않고 '좋다더라'는 말만 믿고 도입했다가 나중에 개인정보 수집이나 라이선스 문제로 발목을 잡히는 경우가 나올 수 있다"고 경고했다. 그러면서 "예전에 웹, 애플리케이션 서버, 데이터베이스를 표준화해 공통 인프라 위에서 애플리케이션을 운영했듯 생성형 AI도 장기적으로는 모델과 추론, 데이터를 하나의 통합 플랫폼에서 관리하는 구조가 필요하다"고 말했다. 뉴타닉스가 제시한 해법의 핵심은 IT가 주도권을 가지는 AI 플랫폼이다. 신 전무는 뉴타닉스 클라우드 플랫폼 위에 쿠버네티스 환경과 '뉴타닉스 엔터프라이즈 AI(NAI)'를 결합한 구조를 소개했다. NAI는 다양한 모델과 추론 서버를 라이브러리처럼 등록하고, 중앙에서 관리할 수 있는 플랫폼이다. 그는 "허깅페이스나 엔비디아에서 몇 번의 클릭으로 모델을 가져오고 추론 서버 구성을 자동화한 뒤 대시보드에서 엔드포인트 수와 GPU 사용률, 토큰 요청량을 한눈에 볼 수 있게 하는 것이 목표"라고 설명했다. 이 과정에서 조직 내 역할 분담의 중요성도 강조했다. 신 전무는 "AI 인프라와 플랫폼은 기존 인프라를 관리하던 IT 조직이 맡고, 데이터 사이언티스트와 기계학습 운영(MLOps) 엔지니어는 모델과 애플리케이션에 집중해야 한다"고 말했다. 이어 "비싸고 구하기 어려운 인력을 인프라 관리에 쓰는 것은 비효율적"이라며 "AI 인프라를 IT와 보안 엔지니어의 시야 안에 두는 것이 보안과 컴플라이언스 측면에서도 훨씬 안전하다"고 강조했다. 쿠버네티스 운영의 현실적인 어려움을 극복하기 위한 방안도 제시했다. 그는 "쿠버네티스는 15주마다 새 버전이 나오고 15개월이면 기술 지원이 종료된다"며 "여러 AI 벤더가 각자 쿠버네티스 클러스터를 들고 들어오면, 기업 입장에서는 버전 관리와 보안 검증, 업그레이드를 클러스터마다 따로 해야 하는 상황이 벌어진다"고 설명했다. 뉴타닉스 쿠버네티스 플랫폼은 CNCF 표준을 따르지만 실제 운영과 업그레이드는 뉴타닉스가 책임지는 방식으로 운영된다. 또 IT 인프라팀은 공통 플랫폼만 관리하고, 개발자와 데이터팀은 그 위에서 자유롭게 도구를 선택해 쓸 수 있도록 설계됐다. 신 전무는 내년 이후 본격화될 에이전틱 AI 시대를 대비하기 위해서도 공통 플랫폼이 필수라고 강조했다. 그는 "에이전트 환경에서는 리즈닝, 임베딩, 검색증강생성(RAG), 리랭킹, 가드레일 등 여러 모델이 얽혀 돌아가는데, 애플리케이션마다 따로 GPU와 인프라를 얹어 구성하면 관리와 비용, 보안이 모두 폭증한다"고 지적했다. 뉴타닉스는 에이전트와 툴까지 NAI 안에서 라이브러리 형태로 재사용하고 통제할 수 있도록 하는 기능을 개발 중이며, 이를 통해 에이전틱 AI의 전 과정을 하나의 플랫폼에서 운영하는 것이 목표라고 설명했다. 마이클 신 전무는 "AI 도입에서 중요한 것은 '최고 성능의 모델'을 찾는 것이 아니라 '우리 조직이 감당할 수 있는 단순한 구조와 운영 방식을 먼저 정하는 것'"이라고 강조했다. 이어 "작게 시작하되 확장 가능한 인프라와, IT가 책임지고 운영하는 AI 플랫폼을 갖추는 것이 성공적인 AI 여정의 출발점"이라며 "뉴타닉스가 그 설계와 운영을 함께 고민하는 파트너가 되겠다"고 말했다.

2025.12.11 11:49남혁우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

정부 위약금 면제 판단에...KT "해킹 보상안 조속히 발표"

배민 독주에 균열...새해 승부처는 ‘AI 효율화’

분리 매각 카드 꺼낸 홈플러스…마트는 어떻게 되나

쿠팡 사실상 '1만원' 보상...부정 여론 잠잠해질까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.