• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능 인프라'통합검색 결과 입니다. (210건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

팀네이버, 엔비디아 B200 4천장 클러스터 구축…AI 개발 속도 12배↑

팀네이버가 인공지능(AI) 기술을 서비스와 산업 전반에 유연하게 적용하기 위한 글로벌 수준 컴퓨팅 파워를 확보했다. 팀네이버는 차세대 엔비디아 그래픽처리장치(GPU) B200 4천 장 규모를 기반으로 국내 최대 규모 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다. 팀네이버는 단순 장비 도입을 넘어 대규모 GPU 자원을 하나로 연결해 최적의 성능을 끌어내는 클러스터링 분야에 중점을 뒀다. 지난 2019년 엔비디아 슈퍼컴퓨팅 인프라인 '슈퍼팟'을 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계·운영한 실증 경험을 축적해왔다. 이번에 구축된 B200 4K 클러스터에는 이러한 경험을 바탕으로 한 냉각·전력·네트워크 최적화 기술이 집약됐다. 대규모 병렬 연산과 고속 통신을 전제로 설계된 이번 클러스터는 글로벌 톱500 상위권 슈퍼컴퓨터들과 비교 가능한 수준의 컴퓨팅 규모를 갖춘 것으로 평가된다. 이같은 인프라 성능은 AI 모델 개발 속도로 직결된다. 회사 측은 내부 시뮬레이션 결과, 720억 개(72B) 파라미터 규모 모델 학습 시 기존 A100 기반 주력 인프라로 약 18개월이 소요되던 학습 기간을 이번 B200 4K 클러스터에서는 약 1.5개월 수준으로 단축할 수 있는 효과를 확인했다. 해당 수치는 내부 시뮬레이션 결과로, 실제 학습 과제와 설정에 따라 소요 기간은 달라질 수 있다는 설명이다. 학습 효율이 12배 이상 향상됨에 따라 팀네이버는 더 많은 실험과 반복 학습을 통해 모델 완성도를 높이고 변화하는 기술 환경에 보다 기민하게 대응할 수 있는 개발·운영 체계를 갖추게 됐다고 설명했다. 대규모 학습을 빠르게 반복할 수 있는 인프라가 확보되면서 AI 모델 개발 전반의 속도와 유연성이 한층 강화됐다는 평가다. 팀네이버는 이러한 인프라를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에도 속도를 낼 계획이다. 텍스트를 넘어 이미지·비디오·음성을 동시에 처리하는 옴니 모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고 이를 다양한 서비스와 산업 현장에 단계적으로 적용한다는 구상이다. 최수연 네이버 대표는 "이번 AI 인프라 구축은 단순한 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보했다는 데 의미가 있다"며 "빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 보다 유연하게 적용해 실질적인 가치를 만들어 나갈 것"이라고 말했다.

2026.01.08 16:59한정호 기자

삼성SDS, 60MW 규모 구미 AI 데이터센터 건립 추진…2029년 가동

삼성SDS는 4천273억원을 투입해 60메가와트(MW) 규모 구미 인공지능(AI) 데이터센터 신규 건립에 박차를 가한다. 삼성SDS는 7일(현지시간) 미국 라스베이거스에서 열린 CES 2026에서 경상북도, 구미시와 구미 AI 데이터센터 건립을 위한 양해각서(MOU)를 체결했다고 밝혔다. 이날 체결식에는 이준희 삼성SDS 대표, 김장호 구미시장, 경상북도 양금희 경제부지사가 참석했다. 구미 AI 데이터센터는 삼성SDS가 지난 2024년 12월 삼성전자로부터 취득한 옛 삼성전자 구미1사업장 부지에 들어서며 가동 예정 시점은 2029년 3월이다. 이번 데이터센터 구축을 통해 삼성SDS는 급증하는 AI 수요에 대응하는 핵심 인프라를 확보하고 구미시 지역 경제 활성화와 AI 산업 생태계 확충에 기여할 계획이다. 구미 AI 데이터센터는 AI·그래픽처리장치(GPU) 중심 서비스에 최적화된 고전력 IT 장비 운영 환경을 목표로, 유연성·확장성·신뢰성을 갖춘 미래 수요 대응형 하이퍼스케일 데이터센터로 건립된다. 삼성SDS는 이러한 하이퍼스케일 데이터센터 운영을 위해 냉각과 전력 인프라 전반에 최신 기술을 적용한다. 서버룸에서 발생하는 고발열에 대응하기 위해 공냉식과 수냉식을 하나의 서버룸에 혼합 적용하는 하이브리드 쿨링 기술을 도입한다. 이를 통해 GPU 등 고전력을 소비하는 서버에 냉수를 직접 공급하고 네트워크나 스토리지 등 상대적으로 발열이 낮은 장비에는 공냉식을 적용함으로써 전력 효율을 높이고 에너지 소비를 최소화할 계획이다. 또 서버룸은 다양한 전력 밀도 랙 운영을 고려해 설계되며 향후 초고전력 랙까지 안정적으로 운영할 수 있는 환경으로 구축된다. 경상북도와 구미시는 이번 MOU를 계기로 삼성SDS의 구미 AI 데이터센터 투자 계획이 원활히 추진될 수 있도록 행정적·제도적 지원에 나선다. 앞서 삼성SDS는 지난 2일 구미 AI 데이터센터 투자를 공시했다. 이날 이사회에서 승인된 투자 금액 4천273억원은 데이터센터 건물 건립과 설비 구축 비용으로, 향후 AI 인프라 확충에 따라 추가 설비 투자가 이뤄질 수 있다는 설명이다. 이준희 삼성SDS 대표는 "구미 AI 데이터센터 투자를 통해 AI 인프라 경쟁력을 강화하는 동시에 구미시 지역 경제 활성화와 산업 생태계 발전에 기여해 나가겠다"고 밝혔다. 양금희 경제부지사는 "이번 협약을 CES 2026 현장에서 체결한 것은 경상북도가 글로벌 시장과 투자자들에게 AI 인프라 투자 최적지로서의 경쟁력과 추진 의지를 분명히 보여준 의미 있는 성과"라고 말했다. 김장호 구미시장은 "이번 협약을 계기로 구미는 AI 인프라를 기반으로 한 미래 산업 중심 도시로 한 단계 더 도약하게 될 것"이라고 강조했다.

2026.01.08 11:33한정호 기자

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호 기자

삼성SDS, 구미 AI 데이터센터 건립 착수…4273억원 투자 의결

삼성SDS가 경북 구미에 대규모 인공지능(AI) 데이터센터를 구축한다. AI 연산 인프라를 확대해 서비스 경쟁력을 강화하려는 행보다. 삼성SDS는 2일 구미 AI 데이터센터 건립을 위해 4천273억원 규모의 유형자산 취득을 결정했다고 공시했다. 투자는 이날 열린 이사회에서 결정됐다. 안건 의결에는 사외이사 4명이 모두 참석했다. 삼성SDS는 구미 AI 데이터센터를 건립해 AI 연산 수요 증가에 대응하고 중장기 성장 기반을 마련한다는 계획이다. 공시에 따르면 이번에 승인된 취득가액은 건물과 설비 투자 금액으로, 향후 수요 점검 결과에 따라 추가 설비 투자가 이뤄질 가능성도 열어뒀다. 데이터센터는 2024년 12월 이미 취득한 구미 부지에 들어설 예정이다. 삼성SDS는 앞서 2024년 11월 삼성전자로부터 경북 구미 1공장 일부 부지를 매입하며 AI 데이터센터 구축을 추진해왔다. 현재는 설계와 디자인 단계에 들어간 것으로 알려졌다. 구미 AI 데이터센터는 고집적 AI 연산을 고려해 냉각 효율을 높인 수랭식 시스템을 적용하고 재생에너지 사용 비중을 확대하는 등 ESG 기준을 충족하는 고효율 인프라로 구축될 전망이다. 업계에서는 이번 투자가 삼성전자를 포함한 삼성 관계사의 AI 서비스와 내부 시스템을 안정적으로 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 자체 데이터센터를 통한 연산 내재화로 보안성과 비용 효율성을 동시에 확보하려는 전략이라는 분석이다. 특히 삼성SDS는 외부 고객을 대상으로 한 서비스형 그래픽처리장치(GPUaaS) 등 AI 인프라 기반 대외 사업 확대에도 구미 AI 데이터센터를 활용할 계획이다. 공시상 공사 완료 및 가동 예정 시점은 2029년 3월이다. 삼성SDS는 장기간에 걸친 단계적 투자를 통해 AI·클라우드 수요 증가에 대응하는 중장기 성장 축으로 데이터센터 사업을 키운다는 구상이다. 한국투자증권 정호윤 연구원은 최근 리포트를 통해 "데이터센터 투자는 삼성SDS가 보유한 현금성 자산을 활용해 장기적인 자기자본이익률(ROE)을 높이는 큰 그림과 맞닿아 있다"며 "시간이 흐를수록 실적 증가 잠재력이 높아질 것"이라고 밝혔다.

2026.01.02 18:00한정호 기자

소프트뱅크, 오픈AI에 57조원 투자 완료…지분율 10% 상회

손정의 회장이 이끄는 소프트뱅크가 오픈AI에 약속했던 400억 달러(약 57조원) 투자를 모두 완료했다. 이번 투자로 오픈AI 핵심 주주로 올라서며 AI 인프라와 생태계 전반에 대한 대규모 베팅을 본격화하고 있다. 1일 CNBC에 따르면 소프트뱅크는 최근 오픈AI에 대한 투자 약정 잔금인 220억~225억달러를 납입하며 총 400억 달러 투자 약속을 이행했다. 소프트뱅크는 앞서 지난해 4월 80억 달러를 직접 출자한 데 이어 공동 투자자들과 함께 100억 달러를 추가 조성하는 등 단계적으로 자금을 집행해왔다. 이번 투자는 지난해 2월 오픈AI 기업가치를 2천600억달러(약 376조원)로 평가한 조건을 기준으로 이뤄졌다. 이후 오픈AI의 기업가치는 급격히 상승해 10월 기준 5천억 달러(약 723조원)까지 치솟았으며 향후 기업공개(IPO)에 나설 경우 1조 달러(약 1천447조원) 수준의 평가를 받을 수 있다는 관측도 나온다. 소프트뱅크는 이번 투자로 오픈AI 지분율 10%를 넘기며 마이크로소프트(MS)와 비영리 오픈AI 재단에 이은 주요 주주로 자리매김했다. 오픈AI는 지난 10월 공익과 영리를 동시에 추구하는 공익법인(PBC)으로 기업 구조를 개편하며 MS와 재단의 지분율을 각각 27%, 26%로 조정한 바 있다. 소프트뱅크는 오픈AI 투자 재원을 마련하기 위해 보유 중이던 약 58억 달러(약 8조4천억원) 규모 엔비디아 지분을 전량 매각하기도 했다. 당시 손정의 회장은 "오픈AI 등에 투자하기 위해 울며 겨자 먹기로 매각했다"고 밝혔다. 이번 투자금의 일부는 소프트뱅크·오픈AI·오라클이 공동 추진하는 미국 내 초대형 AI 데이터센터 구축 프로젝트 '스타게이트'에 투입될 예정이다. 앞서 소프트뱅크는 최근 AI 인프라 투자 확대를 위해 데이터센터 전문 투자사 디지털브리지를 40억 달러(약 5조7천억원)에 인수한다고 발표했다.

2026.01.01 09:30한정호 기자

오픈AI·오라클 스타게이트, 美 미시간서 전력·환경 갈등 촉발

인공지능(AI) 인프라 확장을 둘러싼 기대와 우려가 미국 미시간주에서 정면 충돌하고 있다. 21일 가디언 등 주요 외신에 따르면 오픈AI와 오라클이 추진 중인 초대형 데이터센터 프로젝트 '스타게이트'가 지역 전력망 부담과 환경 훼손, 절차적 정당성 논란까지 불러오며 지역사회 반발을 키우고 있다. 미국 미시간주 세일린 타운십에 건설 예정인 스타게이트 데이터센터는 최대 1.4기가와트(GW)의 전력을 사용하는 초대형 시설로, 디트로이트시 전체 전력 사용량에 맞먹는 규모다. 총 투자액은 약 70억 달러(약 10조원)에 달한다. 문제는 전력과 환경 부담이다. 주민들은 대규모 전력 수요로 인해 전기요금 인상 가능성이 커지고, 지하수 고갈 및 농촌 지역 훼손이 불가피하다고 주장하고 있다. 특히 미시간주가 2040년까지 재생에너지 전환을 의무화한 상황에서 스타게이트 프로젝트가 예외 조항을 촉발해 화석연료 발전 확대의 빌미가 될 수 있다는 우려도 제기된다 . 당초 세일린 타운십 이사회는 주민 반대 여론을 이유로 데이터센터 부지 용도 변경을 부결했지만, 개발사가 소송을 제기하면서 합의로 사업이 재추진됐다. 이후 미시간 공공서비스위원회(MPSC)는 별도의 공청회 없이 전력 공급 계약을 승인해 논란을 키웠다. 전력 공급사 DTE 에너지는 "데이터센터 전력 비용이 일반 가정용 요금으로 전가되지 않는다"고 설명했지만, 주민들은 충분한 검증이 이뤄지지 않았다고 반발하고 있다. 스타게이트 프로젝트는 오픈AI와 오라클이 주도하는 미국 정부 차원의 AI 인프라 전략 사업이다. 도널드 트럼프 미국 대통령은 이를 미국 기술 경쟁력의 상징으로 평가했으며 샘 알트먼 오픈AI 최고경영자(CEO)와 래리 엘리슨 오라클 창업자 등도 직접 관여하고 있다. 한편 오픈AI는 최근 스타게이트 프로젝트의 글로벌 확장을 본격화하며 영국 재무장관 출신 조지 오스본을 '오픈AI 포 컨트리' 총괄 책임자로 영입했다. 이는 각국 정부와 협력해 민주적 가치에 기반한 AI 인프라를 구축하겠다는 구상으로, 스타게이트를 미국 밖으로 확장하려는 전략의 일환이다. 주요 외신들은 이번 미시간 사례를 미국 전역에서 반복되고 있는 데이터센터 갈등의 전형으로 보고 있다. AI 경쟁이 격화되면서 전력·환경·지방자치 권한을 둘러싼 충돌이 불가피해지고 있으며 대규모 AI 인프라 투자가 지역사회 수용성이라는 새로운 시험대에 올랐다는 분석이다.

2025.12.21 17:36한정호 기자

[인터뷰] "AI 인프라 폭증 시대…해법은 카카오클라우드 하이브리드 GPUaaS"

"인공지능(AI) 서비스가 커질수록 인프라 비용 부담이 수익성을 잠식하는 구조가 고착화되고 있습니다. 이제는 클라우드만으로는 이 문제를 해결하기 어렵습니다." 카카오엔터프라이즈 이재한 클라우드부문 사업본부장은 최근 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간'에서 지디넷코리아와 만나 이같이 강조했다. AI 인프라 시장이 학습 중심에서 추론 중심으로 전환되는 과정에서 기업들이 비용 구조의 한계를 직면한다는 설명이다. 이 본부장은 "AI 서비스가 확산될수록 추론 트래픽이 급증하고 이에 따라 고가 그래픽처리장치(GPU) 사용이 불가피해진다"며 "매출이 늘수록 인프라 비용도 함께 증가하는 역설적인 상황이 이미 현실화되고 있다"고 진단했다. 카카오엔터프라이즈는 이러한 구조적 문제의 해법으로 '하이브리드 서비스형 GPU(GPUaaS)'를 제시하고 있다. 하이브리드 GPUaaS는 고객이 GPU 서버를 자산으로 보유하되, 카카오클라우드의 단일 콘솔과 플랫폼을 통해 퍼블릭 클라우드 GPUaaS와 동일한 방식으로 운영·관리할 수 있도록 한 모델이다. 초기 개발이나 기술검증(PoC) 단계에서는 클라우드 GPU를 활용해 민첩성을 확보하고 서비스가 본궤도에 오르면 GPU 자산화를 통해 중장기 총소유비용(TCO)을 낮추는 방식이 핵심이다. 이를 통해 클라우드의 유연성과 온프레미스의 비용 효율성을 동시에 확보할 수 있다. AI 추론 시대의 비용 딜레마, '하이브리드 GPUaaS'로 풀다 AI 인프라 시장의 가장 큰 변화는 추론 비용이 학습 비용을 추월하는 시점이 도래하고 있다는 점이다. 글로벌 리서치와 카카오엔터프라이즈의 분석에 따르면 내년을 전후로 AI 서비스의 총비용 구조에서 추론이 차지하는 비중이 학습을 넘어설 것으로 전망된다. 문제는 기존 '클라우드 온리' 전략이 이러한 환경에서 수익성 악화를 가속화할 수 있다는 점이다. 서비스 이용량이 늘수록 GPU 사용량이 증가하고 이는 곧 비용 증가로 직결된다. 일부 글로벌 AI 기업들이 대규모 자체 데이터센터 구축과 자산화 전략으로 회귀하는 배경도 여기에 있다. 이 본부장은 "국내 스타트업과 중소기업 입장에서는 대규모 온프레미스 구축이 현실적으로 쉽지 않다"며 "전력·상면·냉각·운영 인력까지 고려하면 초기 진입 장벽이 매우 높다"고 말했다. 실제 국내에서 최신 엔비디아 B200·B300급 GPU를 수용할 수 있는 데이터센터는 제한적이며 랙당 전력 밀도 역시 주요 제약 요소로 작용하고 있다. 이러한 상황에서 단순한 온프레미스 전환은 또 다른 부담으로 작용할 수 있다는 설명이다. 카카오엔터프라이즈는 이 지점에서 하이브리드 전략이 현실적인 대안이 된다고 바라봤다. 고정 수요는 자산화된 GPU로 처리하고 변동성이 큰 수요는 클라우드 GPUaaS로 흡수하는 구조다. 이 모델을 적용할 경우 퍼블릭 클라우드 GPUaaS 대비 약 33% 수준의 TCO 절감 효과를 기대할 수 있고 고객이 직접 온프레미스를 구축하는 방식과 비교해도 약 10~20% 비용 효율성이 개선된다는 것이 카카오엔터프라이즈의 분석이다. 이 본부장은 "결국 AI 서비스가 성장할수록 기업의 고민은 어떻게 GPU를 더 싸고 안정적으로 쓰느냐로 수렴한다"며 "하이브리드 GPUaaS는 그 질문에 대한 가장 현실적인 답"이라고 말했다. 운영·확장·가시성까지…"민첩성과 수익성 동시 확보 지원" 하이브리드 GPUaaS의 차별점은 단순 비용 절감에 그치지 않는다. 카카오엔터프라이즈는 유연성·효율성·가시성을 핵심 가치로 제시하고 있다. 먼저 유연성 측면에서 고객은 평상시에는 전용 GPU 자산을 활용해 최대 효율을 확보하고 트래픽이 급증할 경우 클라우드 GPU로 즉시 확장할 수 있다. 모든 자원은 하나의 VPC와 단일 콘솔에서 관리된다. 효율성 측면에서는 GPU 자원 할당과 회수, 모델 학습·배포·서빙까지 머신러닝 운영관리(MLOps) 기반 자동화를 지원한다. 이를 통해 유휴 GPU 발생을 최소화하고 운영 인력 부담을 줄일 수 있다. 가시성 역시 핵심 요소다. 물리적으로 분산된 GPU 자원을 단일 대시보드에서 모니터링하고 사용량·가동률·비용을 통합적으로 파악할 수 있어 TCO 관리가 용이하다. 보안 측면에서도 금융권 수준의 클라우드 서비스 제공사(CSP) 안정성 평가를 충족한 데이터센터 환경을 기반으로 서비스를 제공한다. 이는 규제 산업으로의 확장 가능성을 뒷받침하는 요소다. 이 본부장은 "하이브리드 GPUaaS는 금융권과 공공기관, 대규모 엔터프라이즈를 중심으로 도입 사례가 확산되고 있다"며 "전력과 상면 확보가 어려운 고객일수록 수요가 빠르게 늘고 있다"고 밝혔다. "GPU는 싸게만 쓰는 게 아니다"…플랫폼·통합 모니터링으로 차별화 카카오엔터프라이즈는 하이브리드 GPUaaS를 단순한 인프라 상품이 아니라 AI 플랫폼 전략의 출발점으로 보고 있다. 이 본부장은 "GPU 비용만 낮춘다고 AI 경쟁력이 생기는 것은 아니다"라며 "GPU를 얼마나 효율적으로 운영·관리하고 AI 개발과 서비스로 연결할 수 있느냐가 더 중요해지고 있다"고 설명했다. 이를 위해 카카오엔터프라이즈는 GPU 자원 통합 관리와 모니터링을 중심으로 한 AI 플랫폼 고도화를 추진하고 있다. 온프레미스 GPU와 카카오클라우드 GPUaaS는 물론, 외부에 분산된 GPU 자원을 일원화해서 하나의 대시보드로 통합 관리하는 방향을 준비 중이다. 이 본부장은 "고객 입장에서는 GPU가 어느 인프라에 있든 상관없이 하나의 콘솔에서 쓰는 것이 중요하다"며 "하이브리드 GPUaaS는 이런 통합 관리 전략을 실현하기 위한 기반"이라고 말했다. 특히 GPU 사용 현황, 가동률, 성능, 비용을 실시간으로 모니터링하고 학습·추론 워크로드를 효율적으로 배치하는 기능이 핵심이다. 이를 통해 불필요한 유휴 자원을 줄이고 AI 서비스 운영 단계에서의 비용 예측 가능성을 높인다는 구상이다. 카카오엔터프라이즈는 이러한 통합 운영 역량이 향후 AI 플랫폼 경쟁력의 핵심 요소가 될 것으로 보고 있다. 단순히 GPU를 제공하는 것을 넘어 AI 모델 학습부터 배포·서빙·운영까지 이어지는 전체 흐름을 플랫폼 차원에서 지원하겠다는 전략이다. 카카오엔터프라이즈 이재한 본부장은 "AI 비즈니스가 지속 가능하게 성장하려면 인프라 비용을 통제할 수 있는 구조가 필요하다"며 "카카오클라우드의 하이브리드 GPUaaS는 AI를 위한 멀티·하이브리드 전략의 한 축으로 자리 잡을 것"이라고 강조했다. 이어 "하이브리드 GPUaaS를 통해 고객이 성장 단계에 맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 적극 돕겠다"고 덧붙였다.

2025.12.21 16:19한정호 기자

굿어스데이터, 오라클 클라우드 핵심 파트너로 '부상'…스타트업 해외 진출 지원

굿어스데이터가 오라클 클라우드 인프라스트럭처(OCI)를 기반으로 한 인공지능 전환(AX) 프로젝트를 연이어 수행하며 글로벌 AI 서비스 확장을 지원하는 스케일업 파트너로서의 역량을 입증했다. 굿어스데이터는 AI 기반 투자정보 서비스 기업 투디지트의 모델을 기반으로 한 미국 주식 분석서비스 기술검증(PoC)을 마쳤다고 19일 밝혔다. 굿어스데이터는 OCI 기술력을 바탕으로 인공지능(AI)·헬스케어 분야 기업들의 글로벌 진출을 지원 중이다. 투디지트는 과학기술정보통신부와 중소벤처기업부가 주관한 AI 스타트업 거대언어모델(LLM) 챌린지 사업에서 '글로벌 시장 진출 유망 AI 스타트업'에 선정된 기업이다. 굿어스데이터가 구축한 OCI 기반의 고성능 그래픽처리장치(GPU) 환경을 기반으로 미국 시장 서비스 출시를 앞두고 있다. 굿어스데이터는 이번 프로젝트에서 ▲OCI 기반 글로벌 서비스 아키텍처 구축 ▲데이터베이스(DB) 전환·운영 안정화 설계 ▲대규모 LLM 서비스 운영 환경 최적화 등을 수행했다. 이를 통해 투디지트가 대규모 모델 기반 서비스를 해외 클라우드 환경에서도 안정적으로 운영할 수 있는 시스템을 확보하도록 지원했다. 굿어스데이터는 오라클의 AI 데이터 플랫폼 전문 파트너로서 AI 서비스 상용화와 글로벌 확장 지원을 핵심 사업 목표로 삼고 있다. 이번 프로젝트를 통해 LLM 기반 AI 서비스에 요구되는 대규모 데이터 처리 역량과 안정적인 클라우드 인프라 구축 경험을 축적했다. 앞으로 금융·헬스케어 등 다양한 산업군에서 AI 서비스 스타트업과 디지털 헬스케어 플랫폼 기업을 중심으로 PoC부터 상용화, 해외 시장에서의 서비스 운영까지 전 과정을 지원하는 표준 전환 모델을 정립·확산하며 국내 AI 기업의 글로벌 진출을 지원할 계획이다. 아울러 굿어스데이터는 최근 피지컬 AI 기반 디지털 헬스케어 플랫폼 기업 엠아이제이의 클라우드 인프라 전환 프로젝트도 수행했다. 헬스케어 서비스 특성에 맞춘 OCI 기반 구축, 시스템 이관, 애플리케이션 최적화 등을 지원해 안정적이고 확장 가능한 클라우드 인프라 환경 구축했다. 굿어스데이터는 오라클 클라우드를 기반으로 전략적 파트너십을 확대해 국내 AI 생태계 확장과 클라우드 기술력 고도화를 이끈다는 목표다. 굿어스데이터 데이터사업부 장재식 상무는 "오라클 클라우드를 기반으로 기업들이 글로벌 시장에서도 흔들림 없이 서비스를 운영할 수 있도록 안정적인 인프라 환경을 제공하는 것이 우리의 역할"이라며 "각 기업의 산업적 특성과 기술 구조에 맞춘 클라우드 환경을 제공함으로써 해외 시장 확장에 필요한 기반 마련을 함께하고 있다"고 말했다.

2025.12.19 15:43한정호 기자

[현장] '한국인공지능클라우드산업협회' 출범…AI 융합 생태계 주도 선언

한국클라우드산업협회(KACI)가 인공지능(AI)을 전면에 내세운 '한국인공지능클라우드산업협회'로 명칭을 변경하며 AI·클라우드 융합 산업을 대표하는 민간 협회로의 재출범을 선언했다. AI가 산업 전반의 핵심 성장 동력으로 부상한 가운데, 클라우드를 중심으로 한 인프라·데이터·서비스 생태계를 아우르는 역할을 강화하겠다는 비전이다. 최지웅 KACI 회장은 18일 JW메리어트호텔 서울에서 열린 '제4회 클라우드인의 밤'에서 "AI 산업이 인프라 중심에서 서비스 중심으로 빠르게 이동하고 있는 만큼, 협회 역시 AI를 포함한 새로운 비전과 역할을 선언하는 재출범의 해를 준비하고 있다"며 "내년을 기점으로 그래픽처리장치(GPU)·인프라·서비스가 본격적으로 확장되는 융합 생태계를 뒷받침하겠다"고 강조했다. 이날 행사에서는 국회 과학기술정보방송통신위원회(과방위) 소속 의원들의 축사도 이어졌다. 국민의힘 최형두 의원은 "광복 80주년을 맞아 대한민국 과학기술과 산업의 도약을 다시 설계해야 할 시점"이라며 "AI와 클라우드는 향후 국가 경쟁력을 좌우할 핵심 영역으로, 국회에서도 초당적 협력을 통해 제도적 뒷받침을 하겠다"고 밝혔다. 조국혁신당 이해민 의원도 "보안·데이터센터·네트워크 등 여러 요소를 관통하는 키워드는 결국 클라우드이기에 이를 이해하지 못하면 입법과 제도 역시 단편적일 수밖에 없다"며 "과방위와 예결위에서 AI·클라우드 산업이 보다 도약할 수 있도록 역할을 충실히 하겠다"고 말했다. 정부 기관을 대표해 참석한 과학기술정보통신부 김경만 인공지능정책실장은 클라우드를 심장, AI를 두뇌로 비유하며 국가 GPU 공급 사업을 비롯한 주요 정책을 클라우드 기반으로 추진한다는 계획을 공유했다. 또 그는 "AI 중심 서비스 시대로 전환되는 흐름 속에서 협회의 명칭 변경은 매우 상징적인 변화"라며 "대한민국 클라우드 발전을 토대로 AI 산업이 국가 성장에 기여하길 기대한다"고 말했다. 이날 행사에서는 올해 클라우드 산업 발전에 기여한 기업과 인사를 대상으로 한 시상식도 열렸다. 과기정통부 장관상은 폴라리스오피스와 원더무브가 수상했으며 정보통신산업진흥원장상은이노그리드가, 한국지능정보사회진흥원장상은 가온아이가 각각 받았다. 올 한 해 국내 클라우드 산업을 빛 낸 '클라우드 MVP 2025' 기업에는 네이버클라우드가 선정됐다. 김유원 네이버클라우드 대표는 "AI는 산업 차원을 넘어 국가의 50년, 100년을 준비하는 문제"라며 "내년에는 우리 모두 힘을 합쳐 대한민국 산업의 새로운 영웅담을 써 내려갈 수 있기를 기대한다"고 수상 소감을 전했다. 이날 협회는 공식 세리머니를 통해 한국인공지능클라우드산업협회라는 새 명칭과 로고를 공개했다. 협회는 클라우드 기반 AI 생태계 확산과 민관 협력 강화를 목표로, AI·클라우드 융합 산업을 연결하는 중심 기관으로 거듭난다는 목표다. 아울러 협회는 '커넥트 클라우드 얼라이언스(C.C.A)' 운영 성과를 공유하고, SaaS·PaaS·보안·글로벌 진출·AI 클라우드·DaaS 등 6개 지원분과 활동을 통해 정책·시장·기술 연계를 강화해 온 점을 강조했다. 최지웅 KACI 회장은 "AI와 클라우드를 축으로 한 융합 생태계에서 협회의 책임감과 사명감이 더욱 커지고 있다"며 "산업계·정부·국회와 긴밀히 협력해 내년 대한민국이 AI 3대 강국으로 도약하는 데 기여하겠다"고 밝혔다.

2025.12.18 19:54한정호 기자

앤트로픽, 구글 TPU 핵심 파트너와 AI 데이터센터 구축 '박차'

인공지능(AI) 인프라 경쟁이 본격화되는 가운데, 앤트로픽이 구글의 핵심 파트너로 떠오른 네오클라우드 기업 플루이드스택과 초대형 데이터센터 구축에 박차를 가한다. 18일 월스트리트저널(WSJ)에 따르면 플루이드스택은 미국 루이지애나주에 건설되는 대규모 AI 데이터센터에서 앤트로픽이 활용할 고성능 컴퓨팅 클러스터 운영을 맡게 됐다. 해당 프로젝트는 단계별로 확장되는 구조로, 초기에는 약 245메가와트(MW) 규모의 연산 용량이 제공될 예정이다. 이 인프라는 앤트로픽이 대규모 언어모델(LLM)을 학습·운영·확장하는 데 활용된다 . 이번 협력에서 플루이드스택은 단순 임대 사업자를 넘어 AI 연산 인프라 운영의 중심 역할을 맡는다. 회사는 구글 텐서처리장치(TPU) 생태계의 핵심 파트너로, 최근 '제미나이 3' 학습용 TPU 인프라를 공급하며 급부상했다. TPU 중심 전략을 앞세워 AI 모델 개발사들의 엔비디아 그래픽처리장치(GPU) 의존도를 낮추는 동시에 대형 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축에 속도를 내고 있다 . 플루이드스택은 현재 약 7억 달러(약 1조345억원) 규모의 신규 투자 유치를 추진 중이며 투자 성사 시 기업가치는 70억 달러(약 10조원)에 이를 것으로 전망된다. 구글과 골드만삭스가 투자 논의에 참여한 것으로 알려졌고 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 공개했다. 이는 글로벌 AI 인프라 수요가 급증하는 가운데, 기술 기업과 금융권이 결합한 새로운 데이터센터 투자 모델을 대표하는 사례로 평가된다. 앤트로픽 역시 공격적인 인프라 투자에 나서고 있다. 회사는 총 500억 달러(약 73조원)를 투입해 미국 내 맞춤형 AI 데이터센터를 구축할 계획이며 텍사스와 뉴욕을 시작으로 내년부터 순차 가동한다. 이 과정에서 플루이드스택과의 협력은 앤트로픽이 안정적인 연산 자원과 전력을 확보하는 핵심 축으로 작동할 전망이다. 업계에서는 앤트로픽의 대규모 인프라 투자가 오픈AI, 메타 등 경쟁사들의 초대형 프로젝트에 대응하기 위한 전략적 선택으로 보고 있다. 생성형 AI 성능 경쟁이 연산 능력과 전력 확보 경쟁으로 확산되면서 클라우드 사업자의 위상도 빠르게 높아지고 있다는 분석이 나온다. 플루이드스택이 단기간에 구글과 앤트로픽을 지원하는 글로벌 AI 인프라 핵심 사업자로 부상한 배경도 이같은 흐름과 맞물려 있다 . 앤트로픽은 "이번 데이터센터 구축을 통해 보다 강력하고 안전한 AI 시스템을 개발하고 과학적 발견과 산업 전반의 혁신을 가속화할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.18 13:31한정호 기자

에퀴닉스 "AI 시대 디지털 인프라 핵심 전략은 데이터 주권·지속가능성"

글로벌 인공지능(AI) 경쟁이 본격화되면서 기업의 성패를 가를 핵심 요소로 디지털 인프라 전략이 부상하고 있다. 전력·데이터 주권·지속가능성 등 복합적인 변수 속에서 AI 인프라는 단순한 IT 자산을 넘어 기업 경쟁력을 좌우하는 전략 자산으로 자리 잡고 있다. 에퀴닉스는 내년 한국 기업의 AI 도입과 기술 전략을 좌우할 것으로 예측되는 6대 디지털 인프라 트렌드 전망을 17일 발표했다. 에퀴닉스는 AI 고도화와 함께 IT 환경이 복잡해지면서 디지털 인프라가 백엔드 운영을 넘어 기업 혁신의 핵심 기반으로 전환되고 있다고 분석했다. 특히 한국은 전 세계에서 AI 도입 속도가 가장 빠른 국가 중 하나로 꼽히지만, 그래픽처리장치(GPU) 수요 급증과 수도권 전력·부지 제약, 데이터 주권 규제 강화 등 구조적 과제에 동시에 직면해 있다는 설명이다. 보고서에 따르면 가장 시급한 과제로는 전력 밀도와 인프라 병목 문제가 지목됐다. 정부의 엔비디아 GPU 대규모 도입 계획과 함께 하이퍼스케일러, AI 스타트업 전반에서 고성능 컴퓨팅 수요가 폭증하고 있다. 다만 기존 데이터센터는 랙당 5~10키로와트(kW) 수준의 전통적인 워크로드에 최적화돼 있어 랙당 30~80kW 이상을 요구하는 AI 환경을 감당하기 어렵다는 것이다. 특히 수도권 지역은 전력 공급과 인허가, 부지 확보 측면에서 한계가 뚜렷해 AI 인프라 구축 지연 가능성이 제기된다. 에퀴닉스는 이러한 수요에 대응하기 위해 고밀도 AI 워크로드를 지원하는 엑스스케일(xScale) 데이터센터를 수도권에서 운영 중이며 향후 추가 확장을 통해 차세대 AI 인프라 수요를 지원할 계획이다. 또 다른 핵심 트렌드로는 무중단 운영을 위한 회복 탄력성이 꼽혔다. 글로벌 대규모 서비스 장애가 잇따르면서 OTT·게임·핀테크·이커머스 등 주요 산업 전반에서 저지연·고가용성 인프라에 대한 요구가 높아지고 있다. 규제 당국의 서비스 안정성 감독 강화도 기업들이 보다 정교한 이중화와 복원력을 갖춘 인프라 전략을 요구하는 배경으로 작용하고 있다. 데이터 주권을 중시하는 소버린 AI 전환 역시 주요 변화로 제시됐다. 개인정보보호법(PIPA), 마이데이터, 클라우드 보안인증(CSAP) 등 규제 환경 속에서 국내 AI 학습·추론 수요는 빠르게 증가 중이다. 특히 의료· 금융·공공·국방 등 규제 산업에서는 민감한 데이터를 국내에 보관하면서도 글로벌 AI·클라우드 생태계와 연결할 수 있는 인프라가 필수 요소로 부상하고 있다. 에퀴닉스는 분산형 AI와 에이전틱 AI 확산에 따라 컴퓨팅 자원의 위치가 재정의되고 있다는 점도 강조했다. 실시간 추론 중심의 AI 환경에서는 컴퓨팅이 사용자와 더 가까운 곳에서 이뤄져야 하며 통신·로봇·자동차·제조 분야에서 경쟁력을 갖춘 한국은 차세대 AI 활용의 핵심 시장으로 부상할 가능성이 높다는 분석이다. 지속가능성 역시 기업 경쟁력을 좌우하는 요소로 제시됐다. AI 인프라 확산에 따른 에너지 소비 증가로 인해 기업들은 효율성뿐 아니라 탄소 배출의 측정·검증과 재생에너지 활용까지 고려해야 하는 상황이다. 데이터센터는 이러한 ESG 목표 달성의 핵심 인프라로, 기업들은 장기적인 지속가능성 성과를 제공할 수 있는 파트너를 우선적으로 검토하고 있다. 제조 분야에서의 AI 활용 확대도 주요 트렌드로 꼽혔다. 반도체·자동차·조선·배터리·디스플레이 등 제조 강국인 한국은 AI 기반 예측 유지보수, 검사 자동화, 로봇 자동화, 디지털 트윈 도입을 가속화하고 있다. 이에 따라 온프레미스·클라우드·코로케이션을 결합한 하이브리드 AI 아키텍처가 필수 인프라로 자리 잡고 있다는 설명이다. 장혜덕 에퀴닉스 한국 대표는 "한국의 빠른 AI 도입은 기업이 혁신하고 글로벌 경쟁력을 높이는 데 중요한 기회가 되고 있으며 경쟁력 강화를 위해 지속가능성과 데이터 주권, 안정성 확보가 필수 조건이 됐다"며 "AI 기반 혁신의 시대에 국내 기업이 글로벌 수준의 역량을 구축할 수 있도록 지속적으로 지원할 것"이라고 말했다.

2025.12.17 15:03한정호 기자

넷앱 "데이터 인프라가 AI 경쟁력 좌우…내년 韓 공공·금융·소버린 공략"

넷앱이 내년 한국 시장에서 하이브리드 클라우드와 인공지능(AI) 데이터 인프라를 축으로 공공·금융, 소버린 AI 영역 공략을 본격화하겠다는 전략을 제시했다. 유재성 한국넷앱 대표는 17일 서울 교촌치킨 선릉점에서 열린 연말 미디어 데이에서 "AI 논의는 이미 실험을 지나 실행 단계로 넘어왔지만 이를 실제 운영으로 연결하지 못하는 이유는 데이터 인프라에 있다"고 말했다. AI가 실험 단계를 넘어 실제 비즈니스 성과로 이어지기 위해서는 데이터 인프라의 근본적인 전환이 필요하다는 진단이다. 유 대표는 최근 기업들의 AI 도입 흐름에 대해 "모델 성능이나 알고리즘보다 중요한 것은 데이터를 얼마나 잘 통합·관리하고 거버넌스를 적용해 운영할 수 있느냐"라며 "제대로 된 데이터 기반 없이는 AI도 확장될 수 없다"고 설명했다. 이같은 문제의식은 넷앱이 제시한 내년 핵심 전략과도 맞닿아 있다. 넷앱은 ▲AI 데이터 서비스 ▲보안이 강화된 데이터 프로덕션 환경 ▲유연한 하이브리드 클라우드 환경 구축을 3대 축으로 한국 시장을 공략할 계획이다. 특히 온프레미스와 클라우드를 분리된 환경이 아닌 하나의 데이터 흐름으로 연결하는 데 초점을 맞추고 있다. 유 대표는 "하이브리드 클라우드를 단순히 온프레미스와 퍼블릭 클라우드 두 환경의 병렬 구조로 보는 것이 아니라, 고객이 가장 최적의 조건에서 데이터를 활용할 수 있도록 연결하는 것이 핵심"이라며 "여기에 AI를 데이터 서비스 전반에 어떻게 접목할 것인지가 중요하다"고 강조했다. 공공·금융 시장에 대한 접근 전략도 공유했다. 그는 "공공과 금융 분야는 보안과 규제가 까다로운 만큼 진입 장벽이 높지만, 장기적으로 반드시 성장 엔진으로 만들어야 할 영역"이라며 "지금까지 상대적으로 비중이 낮았던 이 시장에서 내년부터는 본격적인 기회를 만들어갈 것"이라고 밝혔다. 특히 최근 화두로 떠오른 국가 차원 '소버린 AI' 전략에 있어서도 데이터 인프라 기업으로서 유의미한 포지셔닝을 하겠다는 목표를 소개했다. 넷앱은 고객 부담을 낮추기 위한 사업 모델 변화도 병행한다. 기존의 일회성 투자 방식에서 벗어나 구독형 모델을 확대하고 인프라 사업자 및 서비스 파트너와의 협업을 통해 새로운 서비스 형태를 개발한다는 구상이다. 한국의 하이브리드 클라우드 시장이 아직 초기 단계라는 점도 언급했다. 유 대표는 "현재는 가상화 초창기처럼 고객 인식과 시장 성숙도에 차이가 있는 상황"이라며 "가격 경쟁이 아닌 기술 경쟁력으로 승부할 수 있도록 시장을 키워나갈 것"이라고 덧붙였다. 유 대표는 "AI 시대의 경쟁력은 결국 데이터를 얼마나 안전하고 유연하게 다룰 수 있느냐에 달려 있다"며 "공공·금융, 소버린 AI 환경에서도 신뢰할 수 있는 데이터 인프라를 제공하는 파트너로 자리매김하겠다"고 강조했다.

2025.12.17 14:30한정호 기자

[현장] "AI가 두뇌라면 데이터는 혈액, 클라우드는 심장"…민관 인프라 협력 시동

"모두가 주연 배우인 인공지능(AI)에 주목할 때, 조연 배우인 데이터와 클라우드를 함께 챙겨야 성공적인 AI 생태계를 만들 수 있습니다." 과학기술정보통신부 류제명 차관은 16일 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간' 개막식에서 AI 시대 데이터와 클라우드의 중요성에 대해 이같이 강조했다. 올해 처음 개최된 데이터·클라우드 진흥주간은 과기정통부가 주최하고 한국지능정보사회진흥원(NIA), 정보통신산업진흥원(NIPA), 정보통신기획평가원(IITP), 한국데이터산업진흥원(K-DATA) 등이 공동으로 참여하는 국내 최대 규모의 데이터·클라우드 통합 행사다. '모두를 위한 AI, AI를 위한 데이터·클라우드'를 슬로건으로 이날부터 19일까지 나흘간 서울 코엑스에서 열린다. 류 차관은 개회사를 통해 "AI 성능과 국가 경쟁력의 핵심은 결국 양질의 데이터와 신뢰할 수 있는 클라우드에 있다"며 "AI가 두뇌라면 데이터는 혈액이고 클라우드는 혈액을 순환시키는 심장"이라고 말했다. 정부 차원의 전략도 공유했다. 그는 "국가AI전략위원회와 과학기술관계장관회의를 중심으로 범부처 역량을 결집한 전략적 대응 체계를 구축하고 있다"며 "독자적인 AI 생태계와 AI 고속도로를 만들어 국민 누구나 AI 혜택을 누리는 모두의 AI 사회를 구현하겠다"고 덧붙였다. 이번 개막식에서는 데이터·클라우드 분야 핵심 7개 기관과 협회가 참여하는 업무협약(MOU) 체결식도 함께 진행됐다. 이번 협약은 데이터와 클라우드를 기반으로 한 AI 혁신을 공동 추진하고 대한민국의 AI 3강 도약을 목표로 한다. MOU에는 한국지능정보사회진흥원·정보통신산업진흥원·정보통신기획평가원·한국데이터산업진흥원과 함께 한국클라우드산업협회·한국데이터산업협회·한국데이터센터연합회 등 총 7개 기관·협회가 참여했다. 각 기관은 전문성과 역할을 바탕으로 상호 협력 체계를 구축하기로 했다. 협약에 따라 이들 기관은 국가 데이터 인프라 구축, 공공부문 클라우드 전환 확대, AI 데이터 기반 연구개발(R&D) 지원, 산업 현장의 데이터 활용 촉진 등 전 주기에 걸쳐 협력한다. 데이터·클라우드 산업 경쟁력을 강화하고 기술 성과가 산업 생태계 전반으로 확산되도록 공동 대응한다는 계획이다. 이날 행사에는 국회 과학기술정보방송통신위원회 최민희 위원장을 비롯해 김현·최형두 의원의 영상 축사도 이어졌다. 국회는 데이터와 클라우드가 국가 전략 자산으로 자리 잡을 수 있도록 입법·제도적 지원을 이어가겠다는 뜻을 밝혔다. 이어진 기조연설에서 김동훈 NHN클라우드 대표는 AI 시대 데이터센터의 역할을 'AI 팩토리'로 정의하며 기존 데이터센터와는 다른 인프라 전환이 필요하다고 강조했다. 앞으로 고성능 그래픽처리장치(GPU), 대규모 전력, 첨단 냉각 기술이 결합된 AI 데이터센터가 필요하다는 설명이다. 김 대표는 "현재 데이터센터는 단순한 저장 공간이 아니라 AI 서비스를 생산하는 공장으로 진화하고 있다"며 "한국도 이러한 AI 팩토리 역량을 갖춰야 글로벌 경쟁에서 살아남을 수 있다"고 강조했다.

2025.12.16 16:19한정호 기자

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호 기자

메가존클라우드, 동아대 지-램프 사업단과 양자·원자 연구 '맞손'

메가존클라우드가 학계와 함께 양자·원자 과학 기반 연구를 위한 클라우드·인공지능(AI) 인프라 협력에 나선다. 메가존클라우드는 동아대학교 지-램프(G-LAMP) 사업단과 산학연협력 양해각서(MOU)를 체결했다고 11일 밝혔다. 이번 협약을 통해 양측은 ▲원자·양자 과학 분야 기초·응용 기술 연구개발(R&D) 및 고급 연구 인력 양성 ▲기술 이전 및 사업화 추진 협력 ▲장비·시설 등 연구 인프라 공동 활용 ▲세미나·워크숍·학술교류 등 공동 학술행사 기획·운영 ▲기타 상호 발전을 위한 산학연 협력 등을 함께 추진할 계획이다. 특히 메가존클라우드는 자사 클라우드·AI 역량을 바탕으로 양자·원자 과학 연구에 필요한 클라우드·AI 인프라를 지원해 연구자들의 대용량 데이터 분석과 시뮬레이션, 협업 환경을 고도화할 방침이다. 메가존클라우드 김동호 최고양자책임자(CQO)는 "동아대 지-램프 사업단과의 협력은 클라우드 기술을 양자·원자 과학 연구 현장에 적극 적용해 연구 효율성과 확장성을 높이는 중요한 출발점"이라며 "공동 연구와 기술 협력을 통해 기초과학과 산업 기술이 연결되는 실질적 성과를 만들고 지속가능한 산학 협력 모델을 구축해 나가겠다"고 말했다. 정진웅 동아대 지-램프 사업단장은 "메가존클라우드와의 협력은 기초과학 연구의 디지털 전환과 융합 연구 강화에 큰 도움이 될 것"이라며 "양자·원자 과학 기반 R&D와 기술 사업화를 위해 협력을 확대해 나가겠다"고 밝혔다.

2025.12.11 17:45한정호 기자

과기정통부 "AI 3대 강국, 정부·민간 협력 생태계 구축해 달성한다"

"인공지능(AI)을 국가 성장의 핵심축으로 삼고 민간과 함께 생태계를 구축하겠습니다." 과학기술정보통신부 장기철 인공지능데이터진흥과장은 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 국가 AI 경쟁력 강화와 디지털 인프라 전환에 대해 이같이 밝혔다. 지디넷코리아가 주최한 ACC 2025는 AI와 클라우드 분야의 실질적 비즈니스 성과 창출 방안을 모색하는 대표 기술 컨퍼런스다. 올해 행사에는 과기정통부 비롯해 구글 클라우드·삼성SDS·뉴타닉스 코리아·아카마이·알리바바 클라우드·나무기술 등 글로벌 및 국내 주요 기업들이 대거 참여해 성황을 이뤘다. 이날 장 과장은 글로벌 'AI 3대 강국(AI G3)' 도약을 목표로 하는 정부의 AI 정책 확대 로드맵을 공유했다. 그는 "현재 우리나라 AI의 수준은 미국·중국을 뒤따르는 3위권 그룹으로, 앞으로는 압도적인 3강을 굳히는 것이 목표"라고 말했다. 특히 글로벌 AI 모델 평가 지표에서 LG AI연구원의 '엑사원', 업스테이지 '솔라' 모델이 상위권에 오른 점을 언급하며 "우리도 톱티어 모델을 만들 역량이 있다"고 덧붙였다. 정부는 AI G3 도약을 위해 내년 대규모 예산을 투입한다. 정부 AI 예산 10조원, 국민성장펀드를 통한 AI 투자 30조원 등을 통해 GPU·데이터·반도체·모델·인재까지 이어지는 AI 풀스택 역량을 모두 강화한다는 방침이다. 특히 2030년까지 엔비디아 26만 장 그래픽처리장치(GPU)를 확보하는 계획을 바탕으로 한국형 'AI 고속도로' 구축에 속도를 낼 전망이다. 장 과장은 AI 인재 문제도 시급한 과제로 꼽았다. 국내에서 충분한 GPU를 써볼 기회가 없어 연구자들이 해외로 빠져나가는 현실을 타개하고자 정부는 ▲해외 AI 인재 특별비자 도입 ▲AI대학원·AX 융합대학원 확대 ▲AI 스타펠로우십 지원 등 제도 개선을 추진하고 있다. 또 '독자 AI 파운데이션 모델 프로젝트'에도 속도를 낸다. 장 과장은 "프롬 스크래치 기술을 갖춘 우수 국내 AI 기업들과 함께 글로벌 톱 모델 확보에 도전한다"며 "공공·민간의 데이터와 GPU, 인재 등 기술과 정부 지원 역량을 결합해 글로벌 모델 10위권에 진입할 것"이라고 밝혔다. AI 기반 국가 대전환 전략도 소개됐다. 제조·지역·공공·과학 분야로 구분된 AX 전략을 통해 AI 로봇·AI 공장·AI 복지·AI 납세 관리 등 전 산업·행정 분야의 디지털 혁신을 동시 추진한다는 구상이다. 장 과장은 "대통령 직속 국가AI전략위원회를 중심으로 범부처 협업을 강화해 AI 정부로 전환되고 있다"고 강조했다. 아울러 지난 9월 국가정보자원관리원 화재 사고 이후 국가가 운영하는 디지털 인프라의 안정성 확보 대책도 언급됐다. 그는 "국가에서 관리하는 데이터센터들이 민간 클라우드를 더 많이 활용할 수 있도록 방안을 마련 중"이라며 "국가AI전략위원회에서 별도 대책을 준비하고 있어 이른 시일 내 발표될 것"이라고 말했다. 장 과장은 AI G3 도약을 위한 향후 정부의 역할도 공유했다. 예산 측면에서는 마중물 역할을, 산업 측면에서는 규제 완화와 공공 조달을 통한 초기 시장 조성을 핵심 방향으로 제시했다. 그는 "정부가 AI에 있어 모든 것을 다 할 수 있다고 생각하지 않는다"며 "민간이 AI 비즈니스를 잘할 수 있도록 적절한 제도와 환경을 만드는 데 집중하겠다"고 말했다.

2025.12.11 17:34한정호 기자

기업 85% "클라우드 네이티브 전환 필요"…실행은 여전히 초기 단계

인공지능(AI) 확산과 함께 인프라 전환의 필요성이 커지고 있지만 여전히 많은 기업들이 실행에 어려움을 겪고 있는 것으로 나타났다. 11일 오케스트로가 발표한 클라우드 네이티브 전환 실태 조사 결과에 따르면 전체 응답자의 84.7%가 '클라우드 네이티브 전환이 필요하다'고 답했으며 이 가운데 절반 이상은 '매우 필요하다'고 응답했다. 이번 조사는 지난달 기업 및 공공기관 IT 종사자 8천978명을 대상으로 진행됐다. 조사에 따르면 클라우드 네이티브 전환 필요성에 대한 인식이 확산되면서 실제 준비 현황에 대한 관심도 높아지고 있다. 그러나 전환 수준은 여전히 초기 단계에 머물러 있는 것으로 나타났다. 전환을 완료했거나 절반 이상 진행 중이라고 응답한 비율은 18.4%에 불과했다. 대부분 초기 논의 단계(39.5%)에 머물러 있거나, 일부 업무에만 시범 적용(27.6%)하는 데 그쳤다. 전환에 대한 공감대는 형성됐지만 실행으로 이어지지 못하는 현실적 한계도 뚜렷했다는 게 오케스트로 측 설명이다. 기업들이 전환 과정에서 가장 많이 겪는 어려움은 운영 복잡성으로 조사됐다. ▲운영 복잡성 증가(18.3%)와 ▲레거시 시스템의 복잡성(17.4%)이 주요 제약 요인으로 꼽혔고 ▲전문 인력 부족(16.9%) ▲보안·규제 부담(10.5%)이 뒤를 이었다. 복잡해진 클라우드 환경도 전환 필요성을 높이는 배경으로 지목됐다. 응답자의 82.9%는 멀티‧하이브리드 환경의 운영 복잡성이 클라우드 네이티브 전환 필요성에 영향을 미친다고 답했다. 클라우드 환경을 안정적으로 운영하기 위해 구조적인 전환이 필요하다는 인식이 확산되고 있다. 클라우드 네이티브 전환을 통해 기대하는 효과도 분명했다. ▲인프라 운영 자동화 향상(24.9%)이 가장 높은 응답을 얻었고 ▲AI 서비스 대응 속도 향상(19.7%) ▲재해복구(DR)·복구력 강화(16.8%)가 뒤를 이었다. 이 밖에도 ▲신규 서비스 출시·배포 속도 향상(15.6%) ▲비용 효율성 제고(15.6%) 등 다양한 기대가 고르게 나타났다. 클라우드 네이티브 전환 논의가 확산되면서 운영 안정성과 서비스 연속성 확보가 기업의 핵심 과제로 부상하고 있다. 오케스트로는 이에 대응해 전환부터 AI 인프라 최적화, DR 전략까지 아우르는 풀스택 소버린 AI 클라우드 아키텍처를 기반으로 전환과 운영 안정성을 동시에 지원한다는 목표다. 오케스트로는 KT클라우드와 공동 투자한 국가정보자원관리원 대구 민관협력형(PPP) 클라우드 존 운영 경험을 바탕으로 컨설팅·설계·구축·운영까지 전환의 전 과정을 직접 수행하고 있다. 자체 개발한 마이크로서비스 아키텍처(MSA) 분석 자동화 툴을 활용해 레거시 시스템 분석 시간을 기존 대비 약 10분의 1로 단축하고 복잡한 환경에서도 신속하고 체계적인 전환을 돕고 있다. 이러한 기술력과 경험을 기반으로 오케스트로는 클라우드 네이티브 전환을 선도하는 리딩 기업으로 자리매김한다는 방침이다. 특히 AI 인프라 운영 효율화를 위해 서버 가상화 솔루션 '콘트라베이스'와 클라우드 네이티브 운영관리 플랫폼 '비올라'를 기반으로 그래픽처리장치 가상화(GPUaaS)와 노드·리소스 통합 관리를 구현하며 고성능 AI 워크로드의 안정적 운영을 지원 중이다. 아울러 오케스트로는 최근 DR 전문 기업 인수를 통해 연속 데이터 보호(CDP) 기술을 포함한 DR 전 영역의 핵심 역량을 내재화·고도화해 왔다. 이를 기반으로 콘트라베이스는 액티브-스탠바이와 실시간 이중화 구성을 모두 지원해 장애 상황에서도 안정적인 복구 환경을 제공한다. 김범재 오케스트로 대표는 "많은 기업들이 클라우드 네이티브 전환의 필요성은 인식하고 있지만 복잡한 환경과 기술적 제약으로 실행에 어려움을 겪고 있다"며 "고객의 안정적인 클라우드 네이티브 전환과 운영 효율성뿐만 아니라 서비스 연속성까지 확보할 수 있도록 적극 지원하겠다"고 말했다.

2025.12.11 13:56한정호 기자

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호 기자

뉴타닉스 "AI 도입, 멋진 모델보다 '단순함'과 '운영 전략'이 우선"

뉴타닉스가 생성형 인공지능(AI) 도입을 망설이는 기업들에게 단순하고 확장 가능한 AI 인프라와 IT 주도형 플랫폼 전략을 해법으로 제시했다. 뉴타닉스 코리아 마이클 신 시스템 엔지니어링 전무는 11일 서울 신라호텔에서 열린 '인공지능(AI)&클라우드 컨퍼런스 2025(ACC 2025)'에서 AI도입 과정의 어려움을 살펴보며 이를 해결하기 위한 도입 전략을 소개했다. 그는 "기업들이 AI를 도입하는 이유는 결국 생산성과 수익성을 높이기 위한 것"이라며 "이 목표를 달성하려면 처음 설계 단계에서부터 인프라와 운영 방식을 함께 생각해야 한다"고 강조했다. 신 전무는 AI 도입을 고민하는 기업들이 먼저 스스로에게 던져야 할 질문을 세 가지로 정리했다. ▲어떤 모델을 쓸 것인지 ▲어떤 부서와 업무에 AI를 적용할 것인지 ▲그래픽처리장치(GPU) 수급과 비용 현실 등을 감안해 인프라를 어떻게 확장해 나갈 것인지다. 그는 "지금 당장 수천 개의 GPU를 살 수 있는 기업은 거의 없다"며 "처음부터 크게 시작하는 것보다 작게 시작하되 수요에 맞춰 자연스럽게 확장할 수 있는 구조가 중요하다"고 말했다. AI 도입 과정에서 뚜렷한 목표와 구체적인 계획 없이 우선 도입을 추지하려는 관행도 지적했다. 신 전무는 "공공과 민간을 막론하고 'AI를 도입하지 않으면 예산조차 받을 수 없다'는 말이 나올 정도로 압박이 심하지만, 정작 실무자들은 무엇부터 손대야 할지 몰라 막막해하는 경우가 태반"이라고 현장의 고충을 짚었다. 이어 "성공적인 AI 프로젝트는 '이 기술로 무엇을 할 수 있을까'라는 막연한 기대가 아니라 '우리 조직의 어떤 업무부터, 어떻게 적용할 것인가'를 명확히 정의하는 것에서 출발해야 한다"고 조언했다. 더불어 폭발적으로 늘어난 AI 모델 생태계에 대해서는 기회와 위험이 공존한다고 평가했다. 신 전무는 "현재 공개된 모델이 100만 개가 넘고 매주 수 많은 신규 모델이 등장한다"며 "각 모델의 특성과 규제 이슈를 따져보지 않고 '좋다더라'는 말만 믿고 도입했다가 나중에 개인정보 수집이나 라이선스 문제로 발목을 잡히는 경우가 나올 수 있다"고 경고했다. 그러면서 "예전에 웹, 애플리케이션 서버, 데이터베이스를 표준화해 공통 인프라 위에서 애플리케이션을 운영했듯 생성형 AI도 장기적으로는 모델과 추론, 데이터를 하나의 통합 플랫폼에서 관리하는 구조가 필요하다"고 말했다. 뉴타닉스가 제시한 해법의 핵심은 IT가 주도권을 가지는 AI 플랫폼이다. 신 전무는 뉴타닉스 클라우드 플랫폼 위에 쿠버네티스 환경과 '뉴타닉스 엔터프라이즈 AI(NAI)'를 결합한 구조를 소개했다. NAI는 다양한 모델과 추론 서버를 라이브러리처럼 등록하고, 중앙에서 관리할 수 있는 플랫폼이다. 그는 "허깅페이스나 엔비디아에서 몇 번의 클릭으로 모델을 가져오고 추론 서버 구성을 자동화한 뒤 대시보드에서 엔드포인트 수와 GPU 사용률, 토큰 요청량을 한눈에 볼 수 있게 하는 것이 목표"라고 설명했다. 이 과정에서 조직 내 역할 분담의 중요성도 강조했다. 신 전무는 "AI 인프라와 플랫폼은 기존 인프라를 관리하던 IT 조직이 맡고, 데이터 사이언티스트와 기계학습 운영(MLOps) 엔지니어는 모델과 애플리케이션에 집중해야 한다"고 말했다. 이어 "비싸고 구하기 어려운 인력을 인프라 관리에 쓰는 것은 비효율적"이라며 "AI 인프라를 IT와 보안 엔지니어의 시야 안에 두는 것이 보안과 컴플라이언스 측면에서도 훨씬 안전하다"고 강조했다. 쿠버네티스 운영의 현실적인 어려움을 극복하기 위한 방안도 제시했다. 그는 "쿠버네티스는 15주마다 새 버전이 나오고 15개월이면 기술 지원이 종료된다"며 "여러 AI 벤더가 각자 쿠버네티스 클러스터를 들고 들어오면, 기업 입장에서는 버전 관리와 보안 검증, 업그레이드를 클러스터마다 따로 해야 하는 상황이 벌어진다"고 설명했다. 뉴타닉스 쿠버네티스 플랫폼은 CNCF 표준을 따르지만 실제 운영과 업그레이드는 뉴타닉스가 책임지는 방식으로 운영된다. 또 IT 인프라팀은 공통 플랫폼만 관리하고, 개발자와 데이터팀은 그 위에서 자유롭게 도구를 선택해 쓸 수 있도록 설계됐다. 신 전무는 내년 이후 본격화될 에이전틱 AI 시대를 대비하기 위해서도 공통 플랫폼이 필수라고 강조했다. 그는 "에이전트 환경에서는 리즈닝, 임베딩, 검색증강생성(RAG), 리랭킹, 가드레일 등 여러 모델이 얽혀 돌아가는데, 애플리케이션마다 따로 GPU와 인프라를 얹어 구성하면 관리와 비용, 보안이 모두 폭증한다"고 지적했다. 뉴타닉스는 에이전트와 툴까지 NAI 안에서 라이브러리 형태로 재사용하고 통제할 수 있도록 하는 기능을 개발 중이며, 이를 통해 에이전틱 AI의 전 과정을 하나의 플랫폼에서 운영하는 것이 목표라고 설명했다. 마이클 신 전무는 "AI 도입에서 중요한 것은 '최고 성능의 모델'을 찾는 것이 아니라 '우리 조직이 감당할 수 있는 단순한 구조와 운영 방식을 먼저 정하는 것'"이라고 강조했다. 이어 "작게 시작하되 확장 가능한 인프라와, IT가 책임지고 운영하는 AI 플랫폼을 갖추는 것이 성공적인 AI 여정의 출발점"이라며 "뉴타닉스가 그 설계와 운영을 함께 고민하는 파트너가 되겠다"고 말했다.

2025.12.11 11:49남혁우 기자

[AI는 지금] "13억 인도 시장 잡아라"…AWS·구글 이어 MS도 돈 보따리 푼다

아마존, 구글에 이어 마이크로소프트(MS)가 인도 클라우드 및 인공지능(AI) 인프라 증설을 위해 대규모 투자에 나선다. 13억 인구가 이끄는 디지털 서비스 수요 폭증과 정부 행정의 디지털화, 전자상거래·핀테크 성장세가 맞물리며 글로벌 빅테크들의 자금이 인도로 빠르게 몰리는 모양새다.로이터통신 등 외신에 따르면 사티아 나델라 MS 최고경영자(CEO)는 9일(현지시간) 나렌드라 모디 총리와 인도서 회동 후 2026년부터 4년간 175억 달러(약 26조원)를 투자하겠다고 밝혔다. 이는 MS의 아시아 시장 투자 중 최대 규모로, 올해 초 발표한 30억 달러 투자의 연장선상이다. 모디 총리와 나델라 CEO는 이번 회동에서 인도의 AI 전략 및 기술주권 강화 방안을 논의했다. 또 MS는 이번 투자를 통해 하이데라바드, 푸네 등 도시에 초대형(하이퍼스케일) 클라우드 인프라를 추가로 구축하고, 국가 플랫폼 AI 내재화, AI 전문 인재 양성 등에도 자금을 투입키로 했다. MS가 1년도 지나지 않아 인도 투자 규모를 6배 가까이 키운 것은 글로벌 빅테크들의 투자 경쟁이 본격화되고 있어서다. 인도는 MS·아마존웹서비스(AWS)·구글 등 세 기업 모두 100억 달러 이상 베팅한 드문 신흥시장이다. 글로벌 클라우드 기업들에게 인도는 '차세대 하이퍼스케일 격전지'로 자리잡았다는 평가를 받고 있다.실제 AWS는 오는 2030년까지 인도 텔랑가나·마하라슈트라 등지에 총 127억 달러(약 18조1천293억원)를 투입해 클라우드·AI 인프라를 확충하겠다는 계획을 내놓은 상태다. 이 과정에서 2016~2022년 사이 이미 37억 달러를 선제적으로 투자한 데 이어 중소기업 1천500만 곳과 학생 400만 명에게 AI 교육과 도구를 제공하는 로드맵도 함께 제시했다. 구글 역시 지난 10월 안드라프라데시 비사카파트남에 자사의 첫 '기가와트(GW)급 AI 허브'를 구축하기 위해 150억 달러를 투자하겠다고 발표했다. 이 허브는 대규모 데이터센터·광케이블망·전력 인프라가 통합된 형태로, 미국 외 지역에서 구글이 단행한 최대 규모 AI 인프라 투자다. 여기에 인도 재벌 리라이언스와 캐나다 브룩필드 합작사인 '디지털 커넥션'은 비사카파트남에 1GW 규모 AI 데이터센터 단지를 구축하기 위해 110억 달러를 투자한다고 밝혔다. 일본의 NTT와 인도 기업 요타(Yotta)·컨트롤에스(CtrlS) 등도 대규모 데이터센터 및 GPU 인프라 투자 계획을 잇따라 발표했다. 챗GPT 개발사인 오픈AI도 인도 남부 지역에 1GW 규모 데이터센터 설립을 위해 부지 물색에 나섰다. 인텔은 지난 8일 인도 뭄바이의 타타 일렉트로닉스와 제휴 협정을 체결하고 반도체 및 AI용 칩 제품 생산 협업을 추진하기로 했다.이처럼 인도는 글로벌 빅테크·현지 대기업·인프라 자본이 동시에 몰리며 '초거대 AI 집적지'가 형성돼 가는 분위기다. 또 각 기업들이 경쟁적으로 데이터센터 투자에 나서면서 AI 수요 급증 속 최대 수혜국 중 하나로 급부상했다. 이 같은 자금 쏠림의 가장 큰 배경은 확실한 수요와 성장 전망 덕분이다. 인도는 13억 명 인구와 급격히 증가하는 인터넷·스마트폰 보급률을 기반으로 전자상거래·핀테크·모빌리티·에듀테크 등 디지털 서비스 이용이 폭발적으로 증가하고 있다. 이로 인해 데이터센터 시장 규모도 빠르게 커지는 분위기다. 상업용부동산서비스업체 CBRE그룹에 따르면 인도 데이터센터 시장 규모는 2027년까지 1천억 달러(약 142조7천700억원) 규모로 성장할 것으로 추정된다. 또 업계에선 인도의 데이터센터 전력 수용 용량이 현재 약 1.3GW에서 2030년경 9GW 수준으로 7배 이상 확대될 것으로 전망했다. 이는 단순한 서버 증설을 넘어 국가 규모의 클라우드 트래픽 허브로 도약하는 수준이다. 인도 정부가 'AI 미션'과 '디지털 인디아' 프로젝트를 중심으로 공공 서비스의 디지털화를 가속하고 있다는 점도 매력 요소로 꼽힌다. 이곳은 금융·공공 데이터의 국내 저장을 요구하는 데이터 현지화 정책도 강화하고 있다. 최근에는 총 180억 달러 규모의 '인도 반도체 미션'을 통해 10개 반도체 프로젝트를 승인하며 칩 설계·제조·패키징·AI 인프라를 연결하는 산업 생태계를 구축하는 데도 속도를 내고 있다. MS가 이번 투자 발표에서 인도 내 AI 인재 양성 목표를 두 배인 2천만 명으로 확대한 것도 이러한 정부 전략과 궤를 같이한다. 지정학적 환경도 인도에 유리하게 작용하고 있다. 미·중 갈등 이후 글로벌 기술 기업들은 생산기지·데이터센터·R&D 허브를 중국·홍콩 중심에서 인도·동남아·중동으로 재배치하는 '차이나 플러스 원' 전략을 본격화하고 있다. 인도는 영어 기반 인력 생태계, 민주주의 국가의 제도적 안정성, 미국과의 전략적 협력 관계 등을 기반으로 '신뢰할 수 있는 기술 파트너'로 부상하고 있다는 평가가 나온다. 모디 총리 역시 이번 MS 투자 발표 직후 "이번 기회로 인도의 젊은 세대가 AI의 힘을 활용해 더 나은 미래를 만들 것"이라고 강조했다. 빅테크들의 인도 투자 전략을 보면 단순한 데이터센터 투자가 아니라 AI 전용 하드웨어 인프라·주권 클라우드·AI 거버넌스·대규모 AI 교육 프로그램이 결합된 '패키지형 진출'이란 점도 눈여겨 볼 요소다. AWS가 학생·중소기업 대상 AI 교육을 확대한 데 이어 MS가 교육 대상 인원을 2천만 명으로 늘린 것, 구글이 글로벌 해저케이블과 AI 데이터센터를 묶어 투자하는 것 모두 같은 흐름으로 읽힌다. 다만 일각에선 전력·수자원 부담, 지역별 전력망 격차, AI 인프라 투자 과열 가능성 등 리스크가 있다고 지적했다. GW 단위 데이터센터는 막대한 전력과 냉각 인프라가 필요하기 때문에 전력수급이 빠듯한 일부 지역에서는 공급이 뒤따르지 못할 수 있다는 우려가 나온다. 글로벌 금융시장에서는 AI 인프라 경쟁의 속도가 실제 수요를 앞지르는 'AI 버블' 가능성도 꾸준히 제기된다. 이 같은 상황 속에서도 인도는 소프트웨어 인력 공급지에서 AI·클라우드·반도체 인프라의 전면적 생산·운영 허브로 빠르게 전환하고 있다. 나델라 CEO는 소셜미디어(SNS)를 통해 "이번 투자가 인도의 'AI 퍼스트' 미래를 구축하는 데 필요한 인프라·기술·인재 역량을 뒷받침할 것"이라고 밝히며 인도 정부에 힘을 싣는 분위기다. 업계 관계자는 "이번 MS의 175억 달러 투자는 인도의 산업 전환 방향성을 더욱 명확히 하는 신호탄이 될 것"이라며 "앞으로 5~10년간 인도가 글로벌 AI 가치사슬에서 어떤 위치를 차지하게 될지, 빅테크·정부·현지 산업이 이를 어떻게 조율해 나갈지 주목된다"고 말했다.

2025.12.10 17:17장유미 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

"3조원 시장 잡아라"…플랫폼, 직구서 ‘역직구’로 사업 환승

"오픈클로까지 탐지"…MS, 에이전트 관리 플랫폼 공개

"입는 아이스크림?"…CU-아이더, 냉감 티셔츠 모양 아이스크림 출시

500만원짜리 스타트업으로 시작해도 괜찮았을까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.