• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (289건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성SDS, 60MW 규모 구미 AI 데이터센터 건립 추진…2029년 가동

삼성SDS는 4천273억원을 투입해 60메가와트(MW) 규모 구미 인공지능(AI) 데이터센터 신규 건립에 박차를 가한다. 삼성SDS는 7일(현지시간) 미국 라스베이거스에서 열린 CES 2026에서 경상북도, 구미시와 구미 AI 데이터센터 건립을 위한 양해각서(MOU)를 체결했다고 밝혔다. 이날 체결식에는 이준희 삼성SDS 대표, 김장호 구미시장, 경상북도 양금희 경제부지사가 참석했다. 구미 AI 데이터센터는 삼성SDS가 지난 2024년 12월 삼성전자로부터 취득한 옛 삼성전자 구미1사업장 부지에 들어서며 가동 예정 시점은 2029년 3월이다. 이번 데이터센터 구축을 통해 삼성SDS는 급증하는 AI 수요에 대응하는 핵심 인프라를 확보하고 구미시 지역 경제 활성화와 AI 산업 생태계 확충에 기여할 계획이다. 구미 AI 데이터센터는 AI·그래픽처리장치(GPU) 중심 서비스에 최적화된 고전력 IT 장비 운영 환경을 목표로, 유연성·확장성·신뢰성을 갖춘 미래 수요 대응형 하이퍼스케일 데이터센터로 건립된다. 삼성SDS는 이러한 하이퍼스케일 데이터센터 운영을 위해 냉각과 전력 인프라 전반에 최신 기술을 적용한다. 서버룸에서 발생하는 고발열에 대응하기 위해 공냉식과 수냉식을 하나의 서버룸에 혼합 적용하는 하이브리드 쿨링 기술을 도입한다. 이를 통해 GPU 등 고전력을 소비하는 서버에 냉수를 직접 공급하고 네트워크나 스토리지 등 상대적으로 발열이 낮은 장비에는 공냉식을 적용함으로써 전력 효율을 높이고 에너지 소비를 최소화할 계획이다. 또 서버룸은 다양한 전력 밀도 랙 운영을 고려해 설계되며 향후 초고전력 랙까지 안정적으로 운영할 수 있는 환경으로 구축된다. 경상북도와 구미시는 이번 MOU를 계기로 삼성SDS의 구미 AI 데이터센터 투자 계획이 원활히 추진될 수 있도록 행정적·제도적 지원에 나선다. 앞서 삼성SDS는 지난 2일 구미 AI 데이터센터 투자를 공시했다. 이날 이사회에서 승인된 투자 금액 4천273억원은 데이터센터 건물 건립과 설비 구축 비용으로, 향후 AI 인프라 확충에 따라 추가 설비 투자가 이뤄질 수 있다는 설명이다. 이준희 삼성SDS 대표는 "구미 AI 데이터센터 투자를 통해 AI 인프라 경쟁력을 강화하는 동시에 구미시 지역 경제 활성화와 산업 생태계 발전에 기여해 나가겠다"고 밝혔다. 양금희 경제부지사는 "이번 협약을 CES 2026 현장에서 체결한 것은 경상북도가 글로벌 시장과 투자자들에게 AI 인프라 투자 최적지로서의 경쟁력과 추진 의지를 분명히 보여준 의미 있는 성과"라고 말했다. 김장호 구미시장은 "이번 협약을 계기로 구미는 AI 인프라를 기반으로 한 미래 산업 중심 도시로 한 단계 더 도약하게 될 것"이라고 강조했다.

2026.01.08 11:33한정호 기자

삼성SDS, 엔비디아·오픈AI 협력 빛 본다…"올 1분기 성과"

[라스베이거스(미국)=장경윤 기자] 삼성SDS가 올해 'AI 에이전트' 서비스 사업 확대에 속도를 낸다. 다양한 클라우드 플랫폼과 엔비디아 B300으로 구축한 AI 인프라 서비스를 다음달 시작하는 한편, 국내 기업 최초로 오픈AI와 협업한 '챗GPT 엔터프라이즈'도 이르면 이달 가시적인 성과가 나올 전망이다. 이준희 삼성SDS 대표는 7일(현지시간) 미국 라스베이거스 컨벤션센터(LVCC) 내 전시관에서 향후 사업 전략 및 전망에 대해 이같이 밝혔다. 엔비디아 B300 수백 장 도입…오픈AI 협업도 "이달 가시적 성과" 삼성SDS는 AI 에이전트를 안정적으로 제공하기 위해 AI 인프라·AI 플랫폼·AI 솔루션을 모두 아우르는 'AI 풀스택' 서비스를 목표로 하고 있다. 이 중 AI 인프라 영역에서는 자사 클라우드인 '삼성 클라우드 플랫폼(SCP)'을 중심으로, 아마존웹서비스(AWS)·마이크로소프트 애저(Microsoft Azure)·구글클라우드플랫폼(GCP), 오라클 클라우드 인프라스트럭처(OCI) 등 글로벌 클라우드 서비스를 고객 환경에 맞춰 유연하게 제공한다. 또한 엔비디아(NVIDIA)와의 협력을 통해 최신 GPU인 B300 모델을 선제적으로 도입했다. 이 대표는 "수백 장의 B300을 도입해 다음달까지 준비를 마치고 AI 인프라 서비스를 출시할 예정이다. 수요를 보면서 더 투자를 확장하게 될 것"이라고 말했다. AI 플랫폼 분야에서는 삼성SDS의 생성형 AI 플랫폼 '패브릭스(FabriX)'를 통해 삼성 거대언어모델(LLM)은 물론 주요 글로벌 언어 모델을 통합 제공하고 있다. 특히 지난해 말에는 국내 기업 최초로 오픈AI의 '챗GPT 엔터프라이즈' 리셀러 파트너 계약을 체결해, 기업용 생성형 AI 서비스를 제공할 수 있게 됐다. 이 대표는 "지난해 말 오픈AI와 계약을 체결했고, 조금 전부터 시작해서 당사의 잠재 고객들에게 소개를 했다"며 "예상보다 훨씬 더 많은 기업들이 관심을 보여 빠르면 이달 내, 혹은 1분기 내에는 상당히 가시적인 성과가 나타날 것으로 기대하고 있다"고 강조했다. AI 솔루션, 글로벌 무대서 활약 기대 AI 솔루션은 글로벌 시장에서의 성과가 기대된다. 대표적으로 삼성SDS의 구매공급망관리(SRM) SaaS는 지난해 유수의 서버·PC 고객사 3곳에 공급을 진행해, 현재 UAT(최종 테스트)를 진행 중이다. 이와 관련해 송해구 솔루션사업부장(부사장)은 "조만간에 고 라이브(Go live; 서비스 배포)'를 할 것 같고, 이후에 고객사 이름 등도 공개할 수 있을 것 같다"며 "또한 1분기 내에 또 하나의 전기·공조 제조사하고도 계약을 앞두고 있다"고 말했다. 한편 전남 해남에 구축 중인 국가 AI컴퓨팅센터는 올 하반기부터 착공이 시작될 것으로 예상된다. 현재 삼성SDS는 네이버클라우드, 지자체와 컨소시엄을 구성해 현지에 국가 AI 컴퓨팅센터 구축을 추진하고 있다. 오는 2028년까지 첨단 GPU 1만5천장을 확보해 2029년 오픈하는 것이 목표다.

2026.01.08 04:46장경윤 기자

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호 기자

삼성SDS, 구미 AI 데이터센터 건립 착수…4273억원 투자 의결

삼성SDS가 경북 구미에 대규모 인공지능(AI) 데이터센터를 구축한다. AI 연산 인프라를 확대해 서비스 경쟁력을 강화하려는 행보다. 삼성SDS는 2일 구미 AI 데이터센터 건립을 위해 4천273억원 규모의 유형자산 취득을 결정했다고 공시했다. 투자는 이날 열린 이사회에서 결정됐다. 안건 의결에는 사외이사 4명이 모두 참석했다. 삼성SDS는 구미 AI 데이터센터를 건립해 AI 연산 수요 증가에 대응하고 중장기 성장 기반을 마련한다는 계획이다. 공시에 따르면 이번에 승인된 취득가액은 건물과 설비 투자 금액으로, 향후 수요 점검 결과에 따라 추가 설비 투자가 이뤄질 가능성도 열어뒀다. 데이터센터는 2024년 12월 이미 취득한 구미 부지에 들어설 예정이다. 삼성SDS는 앞서 2024년 11월 삼성전자로부터 경북 구미 1공장 일부 부지를 매입하며 AI 데이터센터 구축을 추진해왔다. 현재는 설계와 디자인 단계에 들어간 것으로 알려졌다. 구미 AI 데이터센터는 고집적 AI 연산을 고려해 냉각 효율을 높인 수랭식 시스템을 적용하고 재생에너지 사용 비중을 확대하는 등 ESG 기준을 충족하는 고효율 인프라로 구축될 전망이다. 업계에서는 이번 투자가 삼성전자를 포함한 삼성 관계사의 AI 서비스와 내부 시스템을 안정적으로 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 자체 데이터센터를 통한 연산 내재화로 보안성과 비용 효율성을 동시에 확보하려는 전략이라는 분석이다. 특히 삼성SDS는 외부 고객을 대상으로 한 서비스형 그래픽처리장치(GPUaaS) 등 AI 인프라 기반 대외 사업 확대에도 구미 AI 데이터센터를 활용할 계획이다. 공시상 공사 완료 및 가동 예정 시점은 2029년 3월이다. 삼성SDS는 장기간에 걸친 단계적 투자를 통해 AI·클라우드 수요 증가에 대응하는 중장기 성장 축으로 데이터센터 사업을 키운다는 구상이다. 한국투자증권 정호윤 연구원은 최근 리포트를 통해 "데이터센터 투자는 삼성SDS가 보유한 현금성 자산을 활용해 장기적인 자기자본이익률(ROE)을 높이는 큰 그림과 맞닿아 있다"며 "시간이 흐를수록 실적 증가 잠재력이 높아질 것"이라고 밝혔다.

2026.01.02 18:00한정호 기자

소프트뱅크, 오픈AI에 57조원 투자 완료…지분율 10% 상회

손정의 회장이 이끄는 소프트뱅크가 오픈AI에 약속했던 400억 달러(약 57조원) 투자를 모두 완료했다. 이번 투자로 오픈AI 핵심 주주로 올라서며 AI 인프라와 생태계 전반에 대한 대규모 베팅을 본격화하고 있다. 1일 CNBC에 따르면 소프트뱅크는 최근 오픈AI에 대한 투자 약정 잔금인 220억~225억달러를 납입하며 총 400억 달러 투자 약속을 이행했다. 소프트뱅크는 앞서 지난해 4월 80억 달러를 직접 출자한 데 이어 공동 투자자들과 함께 100억 달러를 추가 조성하는 등 단계적으로 자금을 집행해왔다. 이번 투자는 지난해 2월 오픈AI 기업가치를 2천600억달러(약 376조원)로 평가한 조건을 기준으로 이뤄졌다. 이후 오픈AI의 기업가치는 급격히 상승해 10월 기준 5천억 달러(약 723조원)까지 치솟았으며 향후 기업공개(IPO)에 나설 경우 1조 달러(약 1천447조원) 수준의 평가를 받을 수 있다는 관측도 나온다. 소프트뱅크는 이번 투자로 오픈AI 지분율 10%를 넘기며 마이크로소프트(MS)와 비영리 오픈AI 재단에 이은 주요 주주로 자리매김했다. 오픈AI는 지난 10월 공익과 영리를 동시에 추구하는 공익법인(PBC)으로 기업 구조를 개편하며 MS와 재단의 지분율을 각각 27%, 26%로 조정한 바 있다. 소프트뱅크는 오픈AI 투자 재원을 마련하기 위해 보유 중이던 약 58억 달러(약 8조4천억원) 규모 엔비디아 지분을 전량 매각하기도 했다. 당시 손정의 회장은 "오픈AI 등에 투자하기 위해 울며 겨자 먹기로 매각했다"고 밝혔다. 이번 투자금의 일부는 소프트뱅크·오픈AI·오라클이 공동 추진하는 미국 내 초대형 AI 데이터센터 구축 프로젝트 '스타게이트'에 투입될 예정이다. 앞서 소프트뱅크는 최근 AI 인프라 투자 확대를 위해 데이터센터 전문 투자사 디지털브리지를 40억 달러(약 5조7천억원)에 인수한다고 발표했다.

2026.01.01 09:30한정호 기자

딥엑스, CES 2026서 '피지컬AI 인프라 기업' 비전 제시

저전력·고성능 AI 반도체 기업 딥엑스는 내달 미국 라스베이거스에서 열리는 'CES 2026'에 참가해 피지컬 AI 시장을 주도할 AI 인프라 기업으로서의 새로운 청사진을 공개한다고 30일 밝혔다. 딥엑스는 이번 CES 2026을 통해 대한민국이 메모리 반도체 강국을 넘어 시스템 및 AI 반도체 분야에서도 글로벌 리더십을 확보할 수 있음을 증명하고, 피지컬 AI 시대의 필수 인프라 기업으로 도약하겠다는 비전을 제시한다. 현재 대한민국이 'AI 3대 강국'을 목표로 산업 전환을 가속화하는 가운데, 딥엑스는 독보적인 기술력과 실질적인 성과를 바탕으로 국가 경쟁력을 높이는 핵심적인 역할을 수행하고 있다. 과거 CPU 시대에 저전력 기술로 시장을 재편한 Arm처럼, 딥엑스는 로봇·모빌리티·스마트시티 등 피지컬 AI 분야에서 에너지 효율과 실시간성을 갖춘 초저전력·고성능 AI 반도체로 새로운 글로벌 표준을 만들어가고 있다. 이러한 딥엑스의 행보는 대한민국 AI 반도체 산업이 기술적 주도권과 신뢰를 확보하는 중요한 이정표가 될 전망이다. 이번 CES에서 가장 주목해야 할 점은 딥엑스의 제품이 시장에서 실질적인 혁신을 증명했다는 것이다. 딥엑스는 자체적으로 혁신상 2관왕(컴퓨팅 하드웨어/임베디드 기술)을 달성했을 뿐만 아니라, 미국 파트너사 식스팹(Sixfab)이 딥엑스의 1세대 칩 'DX-M1'을 탑재한 'ALPON X5'로 CES 최고 영예인 최고 혁신상(Best of Innovation)을 수상하는 쾌거를 이뤘다. 이는 딥엑스의 솔루션이 단순한 부품 공급을 넘어, 글로벌 파트너사의 제품을 세계 최고 수준으로 끌어올리는 '핵심 동력'이자 '게임 체인저'임을 입증한 결정적 사건으로 평가 받는다. 딥엑스는 라스베이거스 컨벤션센터(LVCC) 노스홀(North Hall) AI·로보틱스 구역에 독립 부스를 마련하고, 양산 단계의 제품이 적용된 로봇, 드론, 공장 자동화, 리테일 등 다양한 산업 현장 솔루션을 실시간으로 시연한다. 관람객들은 이를 통해 피지컬 AI가 개념 단계를 넘어 이미 상용화 단계에 진입했음을 확인할 수 있다. 특히 2나노 공정 기반의 차세대 AI 반도체 'DX-M2'의 개발 현황과 핵심 성능 목표도 처음으로 공개한다. DX-M2는 데이터센터 중심 AI가 직면한 전력 소모와 확장성 한계를 근본적으로 해결하기 위해 설계된 차세대 피지컬 AI 시대를 위한 인프라 칩이다. 또한 바이두의 패들패들(PaddlePaddle), 미국 울트라라이틱스(Ultralytics)의 YOLO 생태계와 함께하는 '오픈소스 피지컬 AI 얼라이언스' 협력 내용도 소개하며, 하드웨어와 소프트웨어를 아우르는 글로벌 전략을 선보인다.

2025.12.30 10:43장경윤 기자

일본, 반도체·AI 지원 예산 4배 확대…기술 경쟁력 강화 박차

일본 정부가 차세대 기술 경쟁력 확보를 위해 반도체와 인공지능(AI) 산업 지원 예산을 대폭 늘리는 방안을 마련했다. 2026 회계연도 예산안에서 칩 및 AI 관련 지원을 기존보다 약 4배 규모로 확대하는 내용이 포함됐다. 블룸버그는 일본 내각이 총지출 약 122조3천억 엔(약 7천850억 달러) 규모의 2026 회계연도 예산안을 승인했다고 26일 보도했다. 그간 일본은 보통 추가경정예산 형태로 일시적인 지원을 해왔으나, 앞으로는 정규 예산에서 지속적이고 안정적인 투자가 이뤄질 전망이다. 산업통상자원부(METI)의 예산은 전년 대비 약 50% 증가한 3조7천억 엔가량으로 확대됐다. 이 중 상당 부분은 반도체 제조 역량 강화와 AI 연구 개발, 데이터 인프라 구축 등에 투입될 예정이다. 반도체 분야에서는 정부가 지원하는 국책 반도체 벤처 라피더스에 1천500억 엔이 추가로 책정되는 등 국내 제조 경쟁력 강화에 방점을 찍었다. AI 분야에서는 기초 AI 모델 개발, 데이터 인프라 강화, 로봇·물류 등 물리 AI(Physical AI) 기술 지원에 약 3천873억 엔이 배정됐다. 이번 예산 확대는 미국과 중국 간 기술 경쟁이 치열해지는 가운데 일본이 핵심 기술 주도권 확보를 위한 움직임을 강화하고 있다는 신호로 해석된다. 미·중 양대 기술 강국의 투자 확대 속에서 일본 정부는 국내 산업 생태계의 기술 주권 확보와 공급망 강화를 우선 과제로 삼고 있다. 예산안은 향후 국회 심의를 거쳐 최종 확정될 예정이며, 일본 정부는 이를 통해 반도체와 AI 기술 분야에서 장기적인 경쟁력을 확보할 계획이다.

2025.12.28 11:38전화평 기자

오픈AI·오라클 스타게이트, 美 미시간서 전력·환경 갈등 촉발

인공지능(AI) 인프라 확장을 둘러싼 기대와 우려가 미국 미시간주에서 정면 충돌하고 있다. 21일 가디언 등 주요 외신에 따르면 오픈AI와 오라클이 추진 중인 초대형 데이터센터 프로젝트 '스타게이트'가 지역 전력망 부담과 환경 훼손, 절차적 정당성 논란까지 불러오며 지역사회 반발을 키우고 있다. 미국 미시간주 세일린 타운십에 건설 예정인 스타게이트 데이터센터는 최대 1.4기가와트(GW)의 전력을 사용하는 초대형 시설로, 디트로이트시 전체 전력 사용량에 맞먹는 규모다. 총 투자액은 약 70억 달러(약 10조원)에 달한다. 문제는 전력과 환경 부담이다. 주민들은 대규모 전력 수요로 인해 전기요금 인상 가능성이 커지고, 지하수 고갈 및 농촌 지역 훼손이 불가피하다고 주장하고 있다. 특히 미시간주가 2040년까지 재생에너지 전환을 의무화한 상황에서 스타게이트 프로젝트가 예외 조항을 촉발해 화석연료 발전 확대의 빌미가 될 수 있다는 우려도 제기된다 . 당초 세일린 타운십 이사회는 주민 반대 여론을 이유로 데이터센터 부지 용도 변경을 부결했지만, 개발사가 소송을 제기하면서 합의로 사업이 재추진됐다. 이후 미시간 공공서비스위원회(MPSC)는 별도의 공청회 없이 전력 공급 계약을 승인해 논란을 키웠다. 전력 공급사 DTE 에너지는 "데이터센터 전력 비용이 일반 가정용 요금으로 전가되지 않는다"고 설명했지만, 주민들은 충분한 검증이 이뤄지지 않았다고 반발하고 있다. 스타게이트 프로젝트는 오픈AI와 오라클이 주도하는 미국 정부 차원의 AI 인프라 전략 사업이다. 도널드 트럼프 미국 대통령은 이를 미국 기술 경쟁력의 상징으로 평가했으며 샘 알트먼 오픈AI 최고경영자(CEO)와 래리 엘리슨 오라클 창업자 등도 직접 관여하고 있다. 한편 오픈AI는 최근 스타게이트 프로젝트의 글로벌 확장을 본격화하며 영국 재무장관 출신 조지 오스본을 '오픈AI 포 컨트리' 총괄 책임자로 영입했다. 이는 각국 정부와 협력해 민주적 가치에 기반한 AI 인프라를 구축하겠다는 구상으로, 스타게이트를 미국 밖으로 확장하려는 전략의 일환이다. 주요 외신들은 이번 미시간 사례를 미국 전역에서 반복되고 있는 데이터센터 갈등의 전형으로 보고 있다. AI 경쟁이 격화되면서 전력·환경·지방자치 권한을 둘러싼 충돌이 불가피해지고 있으며 대규모 AI 인프라 투자가 지역사회 수용성이라는 새로운 시험대에 올랐다는 분석이다.

2025.12.21 17:36한정호 기자

[인터뷰] "AI 인프라 폭증 시대…해법은 카카오클라우드 하이브리드 GPUaaS"

"인공지능(AI) 서비스가 커질수록 인프라 비용 부담이 수익성을 잠식하는 구조가 고착화되고 있습니다. 이제는 클라우드만으로는 이 문제를 해결하기 어렵습니다." 카카오엔터프라이즈 이재한 클라우드부문 사업본부장은 최근 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간'에서 지디넷코리아와 만나 이같이 강조했다. AI 인프라 시장이 학습 중심에서 추론 중심으로 전환되는 과정에서 기업들이 비용 구조의 한계를 직면한다는 설명이다. 이 본부장은 "AI 서비스가 확산될수록 추론 트래픽이 급증하고 이에 따라 고가 그래픽처리장치(GPU) 사용이 불가피해진다"며 "매출이 늘수록 인프라 비용도 함께 증가하는 역설적인 상황이 이미 현실화되고 있다"고 진단했다. 카카오엔터프라이즈는 이러한 구조적 문제의 해법으로 '하이브리드 서비스형 GPU(GPUaaS)'를 제시하고 있다. 하이브리드 GPUaaS는 고객이 GPU 서버를 자산으로 보유하되, 카카오클라우드의 단일 콘솔과 플랫폼을 통해 퍼블릭 클라우드 GPUaaS와 동일한 방식으로 운영·관리할 수 있도록 한 모델이다. 초기 개발이나 기술검증(PoC) 단계에서는 클라우드 GPU를 활용해 민첩성을 확보하고 서비스가 본궤도에 오르면 GPU 자산화를 통해 중장기 총소유비용(TCO)을 낮추는 방식이 핵심이다. 이를 통해 클라우드의 유연성과 온프레미스의 비용 효율성을 동시에 확보할 수 있다. AI 추론 시대의 비용 딜레마, '하이브리드 GPUaaS'로 풀다 AI 인프라 시장의 가장 큰 변화는 추론 비용이 학습 비용을 추월하는 시점이 도래하고 있다는 점이다. 글로벌 리서치와 카카오엔터프라이즈의 분석에 따르면 내년을 전후로 AI 서비스의 총비용 구조에서 추론이 차지하는 비중이 학습을 넘어설 것으로 전망된다. 문제는 기존 '클라우드 온리' 전략이 이러한 환경에서 수익성 악화를 가속화할 수 있다는 점이다. 서비스 이용량이 늘수록 GPU 사용량이 증가하고 이는 곧 비용 증가로 직결된다. 일부 글로벌 AI 기업들이 대규모 자체 데이터센터 구축과 자산화 전략으로 회귀하는 배경도 여기에 있다. 이 본부장은 "국내 스타트업과 중소기업 입장에서는 대규모 온프레미스 구축이 현실적으로 쉽지 않다"며 "전력·상면·냉각·운영 인력까지 고려하면 초기 진입 장벽이 매우 높다"고 말했다. 실제 국내에서 최신 엔비디아 B200·B300급 GPU를 수용할 수 있는 데이터센터는 제한적이며 랙당 전력 밀도 역시 주요 제약 요소로 작용하고 있다. 이러한 상황에서 단순한 온프레미스 전환은 또 다른 부담으로 작용할 수 있다는 설명이다. 카카오엔터프라이즈는 이 지점에서 하이브리드 전략이 현실적인 대안이 된다고 바라봤다. 고정 수요는 자산화된 GPU로 처리하고 변동성이 큰 수요는 클라우드 GPUaaS로 흡수하는 구조다. 이 모델을 적용할 경우 퍼블릭 클라우드 GPUaaS 대비 약 33% 수준의 TCO 절감 효과를 기대할 수 있고 고객이 직접 온프레미스를 구축하는 방식과 비교해도 약 10~20% 비용 효율성이 개선된다는 것이 카카오엔터프라이즈의 분석이다. 이 본부장은 "결국 AI 서비스가 성장할수록 기업의 고민은 어떻게 GPU를 더 싸고 안정적으로 쓰느냐로 수렴한다"며 "하이브리드 GPUaaS는 그 질문에 대한 가장 현실적인 답"이라고 말했다. 운영·확장·가시성까지…"민첩성과 수익성 동시 확보 지원" 하이브리드 GPUaaS의 차별점은 단순 비용 절감에 그치지 않는다. 카카오엔터프라이즈는 유연성·효율성·가시성을 핵심 가치로 제시하고 있다. 먼저 유연성 측면에서 고객은 평상시에는 전용 GPU 자산을 활용해 최대 효율을 확보하고 트래픽이 급증할 경우 클라우드 GPU로 즉시 확장할 수 있다. 모든 자원은 하나의 VPC와 단일 콘솔에서 관리된다. 효율성 측면에서는 GPU 자원 할당과 회수, 모델 학습·배포·서빙까지 머신러닝 운영관리(MLOps) 기반 자동화를 지원한다. 이를 통해 유휴 GPU 발생을 최소화하고 운영 인력 부담을 줄일 수 있다. 가시성 역시 핵심 요소다. 물리적으로 분산된 GPU 자원을 단일 대시보드에서 모니터링하고 사용량·가동률·비용을 통합적으로 파악할 수 있어 TCO 관리가 용이하다. 보안 측면에서도 금융권 수준의 클라우드 서비스 제공사(CSP) 안정성 평가를 충족한 데이터센터 환경을 기반으로 서비스를 제공한다. 이는 규제 산업으로의 확장 가능성을 뒷받침하는 요소다. 이 본부장은 "하이브리드 GPUaaS는 금융권과 공공기관, 대규모 엔터프라이즈를 중심으로 도입 사례가 확산되고 있다"며 "전력과 상면 확보가 어려운 고객일수록 수요가 빠르게 늘고 있다"고 밝혔다. "GPU는 싸게만 쓰는 게 아니다"…플랫폼·통합 모니터링으로 차별화 카카오엔터프라이즈는 하이브리드 GPUaaS를 단순한 인프라 상품이 아니라 AI 플랫폼 전략의 출발점으로 보고 있다. 이 본부장은 "GPU 비용만 낮춘다고 AI 경쟁력이 생기는 것은 아니다"라며 "GPU를 얼마나 효율적으로 운영·관리하고 AI 개발과 서비스로 연결할 수 있느냐가 더 중요해지고 있다"고 설명했다. 이를 위해 카카오엔터프라이즈는 GPU 자원 통합 관리와 모니터링을 중심으로 한 AI 플랫폼 고도화를 추진하고 있다. 온프레미스 GPU와 카카오클라우드 GPUaaS는 물론, 외부에 분산된 GPU 자원을 일원화해서 하나의 대시보드로 통합 관리하는 방향을 준비 중이다. 이 본부장은 "고객 입장에서는 GPU가 어느 인프라에 있든 상관없이 하나의 콘솔에서 쓰는 것이 중요하다"며 "하이브리드 GPUaaS는 이런 통합 관리 전략을 실현하기 위한 기반"이라고 말했다. 특히 GPU 사용 현황, 가동률, 성능, 비용을 실시간으로 모니터링하고 학습·추론 워크로드를 효율적으로 배치하는 기능이 핵심이다. 이를 통해 불필요한 유휴 자원을 줄이고 AI 서비스 운영 단계에서의 비용 예측 가능성을 높인다는 구상이다. 카카오엔터프라이즈는 이러한 통합 운영 역량이 향후 AI 플랫폼 경쟁력의 핵심 요소가 될 것으로 보고 있다. 단순히 GPU를 제공하는 것을 넘어 AI 모델 학습부터 배포·서빙·운영까지 이어지는 전체 흐름을 플랫폼 차원에서 지원하겠다는 전략이다. 카카오엔터프라이즈 이재한 본부장은 "AI 비즈니스가 지속 가능하게 성장하려면 인프라 비용을 통제할 수 있는 구조가 필요하다"며 "카카오클라우드의 하이브리드 GPUaaS는 AI를 위한 멀티·하이브리드 전략의 한 축으로 자리 잡을 것"이라고 강조했다. 이어 "하이브리드 GPUaaS를 통해 고객이 성장 단계에 맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 적극 돕겠다"고 덧붙였다.

2025.12.21 16:19한정호 기자

굿어스데이터, 오라클 클라우드 핵심 파트너로 '부상'…스타트업 해외 진출 지원

굿어스데이터가 오라클 클라우드 인프라스트럭처(OCI)를 기반으로 한 인공지능 전환(AX) 프로젝트를 연이어 수행하며 글로벌 AI 서비스 확장을 지원하는 스케일업 파트너로서의 역량을 입증했다. 굿어스데이터는 AI 기반 투자정보 서비스 기업 투디지트의 모델을 기반으로 한 미국 주식 분석서비스 기술검증(PoC)을 마쳤다고 19일 밝혔다. 굿어스데이터는 OCI 기술력을 바탕으로 인공지능(AI)·헬스케어 분야 기업들의 글로벌 진출을 지원 중이다. 투디지트는 과학기술정보통신부와 중소벤처기업부가 주관한 AI 스타트업 거대언어모델(LLM) 챌린지 사업에서 '글로벌 시장 진출 유망 AI 스타트업'에 선정된 기업이다. 굿어스데이터가 구축한 OCI 기반의 고성능 그래픽처리장치(GPU) 환경을 기반으로 미국 시장 서비스 출시를 앞두고 있다. 굿어스데이터는 이번 프로젝트에서 ▲OCI 기반 글로벌 서비스 아키텍처 구축 ▲데이터베이스(DB) 전환·운영 안정화 설계 ▲대규모 LLM 서비스 운영 환경 최적화 등을 수행했다. 이를 통해 투디지트가 대규모 모델 기반 서비스를 해외 클라우드 환경에서도 안정적으로 운영할 수 있는 시스템을 확보하도록 지원했다. 굿어스데이터는 오라클의 AI 데이터 플랫폼 전문 파트너로서 AI 서비스 상용화와 글로벌 확장 지원을 핵심 사업 목표로 삼고 있다. 이번 프로젝트를 통해 LLM 기반 AI 서비스에 요구되는 대규모 데이터 처리 역량과 안정적인 클라우드 인프라 구축 경험을 축적했다. 앞으로 금융·헬스케어 등 다양한 산업군에서 AI 서비스 스타트업과 디지털 헬스케어 플랫폼 기업을 중심으로 PoC부터 상용화, 해외 시장에서의 서비스 운영까지 전 과정을 지원하는 표준 전환 모델을 정립·확산하며 국내 AI 기업의 글로벌 진출을 지원할 계획이다. 아울러 굿어스데이터는 최근 피지컬 AI 기반 디지털 헬스케어 플랫폼 기업 엠아이제이의 클라우드 인프라 전환 프로젝트도 수행했다. 헬스케어 서비스 특성에 맞춘 OCI 기반 구축, 시스템 이관, 애플리케이션 최적화 등을 지원해 안정적이고 확장 가능한 클라우드 인프라 환경 구축했다. 굿어스데이터는 오라클 클라우드를 기반으로 전략적 파트너십을 확대해 국내 AI 생태계 확장과 클라우드 기술력 고도화를 이끈다는 목표다. 굿어스데이터 데이터사업부 장재식 상무는 "오라클 클라우드를 기반으로 기업들이 글로벌 시장에서도 흔들림 없이 서비스를 운영할 수 있도록 안정적인 인프라 환경을 제공하는 것이 우리의 역할"이라며 "각 기업의 산업적 특성과 기술 구조에 맞춘 클라우드 환경을 제공함으로써 해외 시장 확장에 필요한 기반 마련을 함께하고 있다"고 말했다.

2025.12.19 15:43한정호 기자

[현장] '한국인공지능클라우드산업협회' 출범…AI 융합 생태계 주도 선언

한국클라우드산업협회(KACI)가 인공지능(AI)을 전면에 내세운 '한국인공지능클라우드산업협회'로 명칭을 변경하며 AI·클라우드 융합 산업을 대표하는 민간 협회로의 재출범을 선언했다. AI가 산업 전반의 핵심 성장 동력으로 부상한 가운데, 클라우드를 중심으로 한 인프라·데이터·서비스 생태계를 아우르는 역할을 강화하겠다는 비전이다. 최지웅 KACI 회장은 18일 JW메리어트호텔 서울에서 열린 '제4회 클라우드인의 밤'에서 "AI 산업이 인프라 중심에서 서비스 중심으로 빠르게 이동하고 있는 만큼, 협회 역시 AI를 포함한 새로운 비전과 역할을 선언하는 재출범의 해를 준비하고 있다"며 "내년을 기점으로 그래픽처리장치(GPU)·인프라·서비스가 본격적으로 확장되는 융합 생태계를 뒷받침하겠다"고 강조했다. 이날 행사에서는 국회 과학기술정보방송통신위원회(과방위) 소속 의원들의 축사도 이어졌다. 국민의힘 최형두 의원은 "광복 80주년을 맞아 대한민국 과학기술과 산업의 도약을 다시 설계해야 할 시점"이라며 "AI와 클라우드는 향후 국가 경쟁력을 좌우할 핵심 영역으로, 국회에서도 초당적 협력을 통해 제도적 뒷받침을 하겠다"고 밝혔다. 조국혁신당 이해민 의원도 "보안·데이터센터·네트워크 등 여러 요소를 관통하는 키워드는 결국 클라우드이기에 이를 이해하지 못하면 입법과 제도 역시 단편적일 수밖에 없다"며 "과방위와 예결위에서 AI·클라우드 산업이 보다 도약할 수 있도록 역할을 충실히 하겠다"고 말했다. 정부 기관을 대표해 참석한 과학기술정보통신부 김경만 인공지능정책실장은 클라우드를 심장, AI를 두뇌로 비유하며 국가 GPU 공급 사업을 비롯한 주요 정책을 클라우드 기반으로 추진한다는 계획을 공유했다. 또 그는 "AI 중심 서비스 시대로 전환되는 흐름 속에서 협회의 명칭 변경은 매우 상징적인 변화"라며 "대한민국 클라우드 발전을 토대로 AI 산업이 국가 성장에 기여하길 기대한다"고 말했다. 이날 행사에서는 올해 클라우드 산업 발전에 기여한 기업과 인사를 대상으로 한 시상식도 열렸다. 과기정통부 장관상은 폴라리스오피스와 원더무브가 수상했으며 정보통신산업진흥원장상은이노그리드가, 한국지능정보사회진흥원장상은 가온아이가 각각 받았다. 올 한 해 국내 클라우드 산업을 빛 낸 '클라우드 MVP 2025' 기업에는 네이버클라우드가 선정됐다. 김유원 네이버클라우드 대표는 "AI는 산업 차원을 넘어 국가의 50년, 100년을 준비하는 문제"라며 "내년에는 우리 모두 힘을 합쳐 대한민국 산업의 새로운 영웅담을 써 내려갈 수 있기를 기대한다"고 수상 소감을 전했다. 이날 협회는 공식 세리머니를 통해 한국인공지능클라우드산업협회라는 새 명칭과 로고를 공개했다. 협회는 클라우드 기반 AI 생태계 확산과 민관 협력 강화를 목표로, AI·클라우드 융합 산업을 연결하는 중심 기관으로 거듭난다는 목표다. 아울러 협회는 '커넥트 클라우드 얼라이언스(C.C.A)' 운영 성과를 공유하고, SaaS·PaaS·보안·글로벌 진출·AI 클라우드·DaaS 등 6개 지원분과 활동을 통해 정책·시장·기술 연계를 강화해 온 점을 강조했다. 최지웅 KACI 회장은 "AI와 클라우드를 축으로 한 융합 생태계에서 협회의 책임감과 사명감이 더욱 커지고 있다"며 "산업계·정부·국회와 긴밀히 협력해 내년 대한민국이 AI 3대 강국으로 도약하는 데 기여하겠다"고 밝혔다.

2025.12.18 19:54한정호 기자

앤트로픽, 구글 TPU 핵심 파트너와 AI 데이터센터 구축 '박차'

인공지능(AI) 인프라 경쟁이 본격화되는 가운데, 앤트로픽이 구글의 핵심 파트너로 떠오른 네오클라우드 기업 플루이드스택과 초대형 데이터센터 구축에 박차를 가한다. 18일 월스트리트저널(WSJ)에 따르면 플루이드스택은 미국 루이지애나주에 건설되는 대규모 AI 데이터센터에서 앤트로픽이 활용할 고성능 컴퓨팅 클러스터 운영을 맡게 됐다. 해당 프로젝트는 단계별로 확장되는 구조로, 초기에는 약 245메가와트(MW) 규모의 연산 용량이 제공될 예정이다. 이 인프라는 앤트로픽이 대규모 언어모델(LLM)을 학습·운영·확장하는 데 활용된다 . 이번 협력에서 플루이드스택은 단순 임대 사업자를 넘어 AI 연산 인프라 운영의 중심 역할을 맡는다. 회사는 구글 텐서처리장치(TPU) 생태계의 핵심 파트너로, 최근 '제미나이 3' 학습용 TPU 인프라를 공급하며 급부상했다. TPU 중심 전략을 앞세워 AI 모델 개발사들의 엔비디아 그래픽처리장치(GPU) 의존도를 낮추는 동시에 대형 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축에 속도를 내고 있다 . 플루이드스택은 현재 약 7억 달러(약 1조345억원) 규모의 신규 투자 유치를 추진 중이며 투자 성사 시 기업가치는 70억 달러(약 10조원)에 이를 것으로 전망된다. 구글과 골드만삭스가 투자 논의에 참여한 것으로 알려졌고 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 공개했다. 이는 글로벌 AI 인프라 수요가 급증하는 가운데, 기술 기업과 금융권이 결합한 새로운 데이터센터 투자 모델을 대표하는 사례로 평가된다. 앤트로픽 역시 공격적인 인프라 투자에 나서고 있다. 회사는 총 500억 달러(약 73조원)를 투입해 미국 내 맞춤형 AI 데이터센터를 구축할 계획이며 텍사스와 뉴욕을 시작으로 내년부터 순차 가동한다. 이 과정에서 플루이드스택과의 협력은 앤트로픽이 안정적인 연산 자원과 전력을 확보하는 핵심 축으로 작동할 전망이다. 업계에서는 앤트로픽의 대규모 인프라 투자가 오픈AI, 메타 등 경쟁사들의 초대형 프로젝트에 대응하기 위한 전략적 선택으로 보고 있다. 생성형 AI 성능 경쟁이 연산 능력과 전력 확보 경쟁으로 확산되면서 클라우드 사업자의 위상도 빠르게 높아지고 있다는 분석이 나온다. 플루이드스택이 단기간에 구글과 앤트로픽을 지원하는 글로벌 AI 인프라 핵심 사업자로 부상한 배경도 이같은 흐름과 맞물려 있다 . 앤트로픽은 "이번 데이터센터 구축을 통해 보다 강력하고 안전한 AI 시스템을 개발하고 과학적 발견과 산업 전반의 혁신을 가속화할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.18 13:31한정호 기자

삼성전자, 엔비디아향 '소캠2' 공급 임박…샘플 평가·표준화 협력

삼성전자와 엔비디아가 AI 메모리 분야에서 긴밀한 협력을 더 강화하고 있다. LPDDR(저전력 D램) 기반 차세대 서버 메모리 모듈에 대한 평가를 진행 중인 것은 물론, 공식 표준화 작업도 함께 진행 중이다. 양사 간 협업은 내년 초부터 본격적인 시너지 효과를 발휘할 것으로 기대된다. 삼성전자는 18일 공식 뉴스룸을 통해 고객사에 SOCAMM(소캠; Small Outline Compression Attached Memory Module)2 샘플을 공급하고 있다고 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈로, 저전력 D램인 LPDDR을 4개씩 집적한다. 기존 모듈(RDIMM) 대비 데이터 전송 통로인 I/O(입출력단자) 수가 많아, 데이터 처리 성능의 척도인 대역폭이 높다는 장점이 있다. 소캠2는 2세대 소캠으로서, RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공한다. 또한 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장해야 했지만, 소캠2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있다. 삼성전자가 개발한 소캠2는 내년 초부터 본격 상용화될 전망이다. 현재 삼성전자는 1b(5세대 10나노급) D램을 기반으로 소캠2를 개발해, 주요 고객사인 엔비디아와 퀄(품질) 테스트를 거치고 있는 것으로 알려졌다. 삼성전자는 "서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다"며 "특히 엔비디아와의 기술 협업을 통해 소캠2를 엔비디아 가속 인프라에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다"고 밝혔다. 소캠2의 공식 표준화 작업도 마무리 단계에 접어들었다. 현재 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다. 디온 헤리스 엔비디아 HPC 및 AI 인프라 솔루션 총괄 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 피지컬 AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며 "삼성전자와의 지속적인 기술 협력을 통해 소캠2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

2025.12.18 11:04장경윤 기자

"AI 추론 비용 내년부터 폭증…하이브리드 GPUaaS가 부담 덜 것"

카카오엔터프라이즈가 인공지능(AI) 인프라의 새로운 대안으로 '하이브리드 서비스형 그래픽처리장치(GPUaaS)를 제안했다. 내년에 AI 서비스가 더 많이 이용되면서 클라우드 비용이 급증할 것으로 예상되는 만큼 유연성과 경제성을 동시에 확보하는 가장 현실적인 해법이 '하이브리드 GPUaaS'가 될 것으로 판단해서다. 카카오엔터프라이즈는 지난 16일 과학기술정보통신부가 주최하는 '2025 AI를 위한 데이터&클라우드 진흥주간' 행사에 이재한 클라우드부문 사업본부장이 참여해 이처럼 강조했다고 17일 밝혔다. 오는 19일까지 서울 강남구 코엑스 그랜드볼룸에서 열리는 '데이터&클라우드 진흥주간'은 '모두를 위한 AI, AI를 위한 데이터&클라우드'라는 슬로건 아래 데이터 및 클라우드 업계 관계자들이 모여 최신 기술, 산업 동향, 미래 방향 등을 공유할 수 있는 자리다. 이재한 카카오엔터프라이즈 클라우드부문 사업본부장은 이번 행사에 참석해 "2026년에는 AI 추론에 드는 비용이 학습 비용을 추월할 전망"이라며 "AI 서비스가 더 많이 이용될수록 추론에 소요되는 클라우드 비용이 급증하면서 AI 서비스 기업 및 기관의 적자폭이 커지는 구조적인 문제에 직면할 가능성이 높다"고 내년 AI 서비스 시장을 전망했다. 이어 "GPU는 AI 모델과 서비스 개발에 필수 요소이나, GPUaaS(서비스형 GPU)는 비용 부담이 높고 온프레미스 방식은 구축이나 상면 확보, 운영 등의 부담이 높다는 측면이 있다"며 "AI 서비스 기업 및 기관은 비즈니스 성장 단계에 따라 빠르게 증가하는 클라우드 비용을 절감할 수 있는 방법을 고민하며, GPU 등 자산 확보를 통한 수익성 개선 방안을 염두에 두어야한다"고 강조했다. 카카오엔터프라이즈는 이러한 AI 서비스 기업 및 기관의 부담을 해소할 수 있도록 고객이 GPU를 자산으로 소유하고 카카오클라우드가 GPU 클러스터를 구축 및 운영하는 새로운 형태의 하이브리드 GPUaaS를 선보인 바 있다. 카카오클라우드의 하이브리드 GPUaaS는 불확실한 초기 개발 및 기술 검증(PoC) 단계에서는 클라우드를 통해 투자 리스크를 최소화하며 민첩성을 확보하고, 비즈니스가 본 궤도에 오르는 시기에 자산화를 통해 효율적으로 수익성을 개선할 수 있도록 지원한다. 이 사업본부장은 "우리의 하이브리드 GPUaaS는 클라우드의 '유연성'과 소유의 '경제성' 등 두 가치를 동시에 확보할 수 있는 가장 현실적이고 강력한 해답"이라며 "우리는 AI 서비스 기업 고객과 기관의 클라우드 전략 파트너로서 고객이 불확실한 비즈니스 환경에서도 성장 단계에 발맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 가장 효율적이고 안정적인 방안을 제시할 것"이라고 말했다.

2025.12.17 15:27장유미 기자

에퀴닉스 "AI 시대 디지털 인프라 핵심 전략은 데이터 주권·지속가능성"

글로벌 인공지능(AI) 경쟁이 본격화되면서 기업의 성패를 가를 핵심 요소로 디지털 인프라 전략이 부상하고 있다. 전력·데이터 주권·지속가능성 등 복합적인 변수 속에서 AI 인프라는 단순한 IT 자산을 넘어 기업 경쟁력을 좌우하는 전략 자산으로 자리 잡고 있다. 에퀴닉스는 내년 한국 기업의 AI 도입과 기술 전략을 좌우할 것으로 예측되는 6대 디지털 인프라 트렌드 전망을 17일 발표했다. 에퀴닉스는 AI 고도화와 함께 IT 환경이 복잡해지면서 디지털 인프라가 백엔드 운영을 넘어 기업 혁신의 핵심 기반으로 전환되고 있다고 분석했다. 특히 한국은 전 세계에서 AI 도입 속도가 가장 빠른 국가 중 하나로 꼽히지만, 그래픽처리장치(GPU) 수요 급증과 수도권 전력·부지 제약, 데이터 주권 규제 강화 등 구조적 과제에 동시에 직면해 있다는 설명이다. 보고서에 따르면 가장 시급한 과제로는 전력 밀도와 인프라 병목 문제가 지목됐다. 정부의 엔비디아 GPU 대규모 도입 계획과 함께 하이퍼스케일러, AI 스타트업 전반에서 고성능 컴퓨팅 수요가 폭증하고 있다. 다만 기존 데이터센터는 랙당 5~10키로와트(kW) 수준의 전통적인 워크로드에 최적화돼 있어 랙당 30~80kW 이상을 요구하는 AI 환경을 감당하기 어렵다는 것이다. 특히 수도권 지역은 전력 공급과 인허가, 부지 확보 측면에서 한계가 뚜렷해 AI 인프라 구축 지연 가능성이 제기된다. 에퀴닉스는 이러한 수요에 대응하기 위해 고밀도 AI 워크로드를 지원하는 엑스스케일(xScale) 데이터센터를 수도권에서 운영 중이며 향후 추가 확장을 통해 차세대 AI 인프라 수요를 지원할 계획이다. 또 다른 핵심 트렌드로는 무중단 운영을 위한 회복 탄력성이 꼽혔다. 글로벌 대규모 서비스 장애가 잇따르면서 OTT·게임·핀테크·이커머스 등 주요 산업 전반에서 저지연·고가용성 인프라에 대한 요구가 높아지고 있다. 규제 당국의 서비스 안정성 감독 강화도 기업들이 보다 정교한 이중화와 복원력을 갖춘 인프라 전략을 요구하는 배경으로 작용하고 있다. 데이터 주권을 중시하는 소버린 AI 전환 역시 주요 변화로 제시됐다. 개인정보보호법(PIPA), 마이데이터, 클라우드 보안인증(CSAP) 등 규제 환경 속에서 국내 AI 학습·추론 수요는 빠르게 증가 중이다. 특히 의료· 금융·공공·국방 등 규제 산업에서는 민감한 데이터를 국내에 보관하면서도 글로벌 AI·클라우드 생태계와 연결할 수 있는 인프라가 필수 요소로 부상하고 있다. 에퀴닉스는 분산형 AI와 에이전틱 AI 확산에 따라 컴퓨팅 자원의 위치가 재정의되고 있다는 점도 강조했다. 실시간 추론 중심의 AI 환경에서는 컴퓨팅이 사용자와 더 가까운 곳에서 이뤄져야 하며 통신·로봇·자동차·제조 분야에서 경쟁력을 갖춘 한국은 차세대 AI 활용의 핵심 시장으로 부상할 가능성이 높다는 분석이다. 지속가능성 역시 기업 경쟁력을 좌우하는 요소로 제시됐다. AI 인프라 확산에 따른 에너지 소비 증가로 인해 기업들은 효율성뿐 아니라 탄소 배출의 측정·검증과 재생에너지 활용까지 고려해야 하는 상황이다. 데이터센터는 이러한 ESG 목표 달성의 핵심 인프라로, 기업들은 장기적인 지속가능성 성과를 제공할 수 있는 파트너를 우선적으로 검토하고 있다. 제조 분야에서의 AI 활용 확대도 주요 트렌드로 꼽혔다. 반도체·자동차·조선·배터리·디스플레이 등 제조 강국인 한국은 AI 기반 예측 유지보수, 검사 자동화, 로봇 자동화, 디지털 트윈 도입을 가속화하고 있다. 이에 따라 온프레미스·클라우드·코로케이션을 결합한 하이브리드 AI 아키텍처가 필수 인프라로 자리 잡고 있다는 설명이다. 장혜덕 에퀴닉스 한국 대표는 "한국의 빠른 AI 도입은 기업이 혁신하고 글로벌 경쟁력을 높이는 데 중요한 기회가 되고 있으며 경쟁력 강화를 위해 지속가능성과 데이터 주권, 안정성 확보가 필수 조건이 됐다"며 "AI 기반 혁신의 시대에 국내 기업이 글로벌 수준의 역량을 구축할 수 있도록 지속적으로 지원할 것"이라고 말했다.

2025.12.17 15:03한정호 기자

넷앱 "데이터 인프라가 AI 경쟁력 좌우…내년 韓 공공·금융·소버린 공략"

넷앱이 내년 한국 시장에서 하이브리드 클라우드와 인공지능(AI) 데이터 인프라를 축으로 공공·금융, 소버린 AI 영역 공략을 본격화하겠다는 전략을 제시했다. 유재성 한국넷앱 대표는 17일 서울 교촌치킨 선릉점에서 열린 연말 미디어 데이에서 "AI 논의는 이미 실험을 지나 실행 단계로 넘어왔지만 이를 실제 운영으로 연결하지 못하는 이유는 데이터 인프라에 있다"고 말했다. AI가 실험 단계를 넘어 실제 비즈니스 성과로 이어지기 위해서는 데이터 인프라의 근본적인 전환이 필요하다는 진단이다. 유 대표는 최근 기업들의 AI 도입 흐름에 대해 "모델 성능이나 알고리즘보다 중요한 것은 데이터를 얼마나 잘 통합·관리하고 거버넌스를 적용해 운영할 수 있느냐"라며 "제대로 된 데이터 기반 없이는 AI도 확장될 수 없다"고 설명했다. 이같은 문제의식은 넷앱이 제시한 내년 핵심 전략과도 맞닿아 있다. 넷앱은 ▲AI 데이터 서비스 ▲보안이 강화된 데이터 프로덕션 환경 ▲유연한 하이브리드 클라우드 환경 구축을 3대 축으로 한국 시장을 공략할 계획이다. 특히 온프레미스와 클라우드를 분리된 환경이 아닌 하나의 데이터 흐름으로 연결하는 데 초점을 맞추고 있다. 유 대표는 "하이브리드 클라우드를 단순히 온프레미스와 퍼블릭 클라우드 두 환경의 병렬 구조로 보는 것이 아니라, 고객이 가장 최적의 조건에서 데이터를 활용할 수 있도록 연결하는 것이 핵심"이라며 "여기에 AI를 데이터 서비스 전반에 어떻게 접목할 것인지가 중요하다"고 강조했다. 공공·금융 시장에 대한 접근 전략도 공유했다. 그는 "공공과 금융 분야는 보안과 규제가 까다로운 만큼 진입 장벽이 높지만, 장기적으로 반드시 성장 엔진으로 만들어야 할 영역"이라며 "지금까지 상대적으로 비중이 낮았던 이 시장에서 내년부터는 본격적인 기회를 만들어갈 것"이라고 밝혔다. 특히 최근 화두로 떠오른 국가 차원 '소버린 AI' 전략에 있어서도 데이터 인프라 기업으로서 유의미한 포지셔닝을 하겠다는 목표를 소개했다. 넷앱은 고객 부담을 낮추기 위한 사업 모델 변화도 병행한다. 기존의 일회성 투자 방식에서 벗어나 구독형 모델을 확대하고 인프라 사업자 및 서비스 파트너와의 협업을 통해 새로운 서비스 형태를 개발한다는 구상이다. 한국의 하이브리드 클라우드 시장이 아직 초기 단계라는 점도 언급했다. 유 대표는 "현재는 가상화 초창기처럼 고객 인식과 시장 성숙도에 차이가 있는 상황"이라며 "가격 경쟁이 아닌 기술 경쟁력으로 승부할 수 있도록 시장을 키워나갈 것"이라고 덧붙였다. 유 대표는 "AI 시대의 경쟁력은 결국 데이터를 얼마나 안전하고 유연하게 다룰 수 있느냐에 달려 있다"며 "공공·금융, 소버린 AI 환경에서도 신뢰할 수 있는 데이터 인프라를 제공하는 파트너로 자리매김하겠다"고 강조했다.

2025.12.17 14:30한정호 기자

[현장] "AI가 두뇌라면 데이터는 혈액, 클라우드는 심장"…민관 인프라 협력 시동

"모두가 주연 배우인 인공지능(AI)에 주목할 때, 조연 배우인 데이터와 클라우드를 함께 챙겨야 성공적인 AI 생태계를 만들 수 있습니다." 과학기술정보통신부 류제명 차관은 16일 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간' 개막식에서 AI 시대 데이터와 클라우드의 중요성에 대해 이같이 강조했다. 올해 처음 개최된 데이터·클라우드 진흥주간은 과기정통부가 주최하고 한국지능정보사회진흥원(NIA), 정보통신산업진흥원(NIPA), 정보통신기획평가원(IITP), 한국데이터산업진흥원(K-DATA) 등이 공동으로 참여하는 국내 최대 규모의 데이터·클라우드 통합 행사다. '모두를 위한 AI, AI를 위한 데이터·클라우드'를 슬로건으로 이날부터 19일까지 나흘간 서울 코엑스에서 열린다. 류 차관은 개회사를 통해 "AI 성능과 국가 경쟁력의 핵심은 결국 양질의 데이터와 신뢰할 수 있는 클라우드에 있다"며 "AI가 두뇌라면 데이터는 혈액이고 클라우드는 혈액을 순환시키는 심장"이라고 말했다. 정부 차원의 전략도 공유했다. 그는 "국가AI전략위원회와 과학기술관계장관회의를 중심으로 범부처 역량을 결집한 전략적 대응 체계를 구축하고 있다"며 "독자적인 AI 생태계와 AI 고속도로를 만들어 국민 누구나 AI 혜택을 누리는 모두의 AI 사회를 구현하겠다"고 덧붙였다. 이번 개막식에서는 데이터·클라우드 분야 핵심 7개 기관과 협회가 참여하는 업무협약(MOU) 체결식도 함께 진행됐다. 이번 협약은 데이터와 클라우드를 기반으로 한 AI 혁신을 공동 추진하고 대한민국의 AI 3강 도약을 목표로 한다. MOU에는 한국지능정보사회진흥원·정보통신산업진흥원·정보통신기획평가원·한국데이터산업진흥원과 함께 한국클라우드산업협회·한국데이터산업협회·한국데이터센터연합회 등 총 7개 기관·협회가 참여했다. 각 기관은 전문성과 역할을 바탕으로 상호 협력 체계를 구축하기로 했다. 협약에 따라 이들 기관은 국가 데이터 인프라 구축, 공공부문 클라우드 전환 확대, AI 데이터 기반 연구개발(R&D) 지원, 산업 현장의 데이터 활용 촉진 등 전 주기에 걸쳐 협력한다. 데이터·클라우드 산업 경쟁력을 강화하고 기술 성과가 산업 생태계 전반으로 확산되도록 공동 대응한다는 계획이다. 이날 행사에는 국회 과학기술정보방송통신위원회 최민희 위원장을 비롯해 김현·최형두 의원의 영상 축사도 이어졌다. 국회는 데이터와 클라우드가 국가 전략 자산으로 자리 잡을 수 있도록 입법·제도적 지원을 이어가겠다는 뜻을 밝혔다. 이어진 기조연설에서 김동훈 NHN클라우드 대표는 AI 시대 데이터센터의 역할을 'AI 팩토리'로 정의하며 기존 데이터센터와는 다른 인프라 전환이 필요하다고 강조했다. 앞으로 고성능 그래픽처리장치(GPU), 대규모 전력, 첨단 냉각 기술이 결합된 AI 데이터센터가 필요하다는 설명이다. 김 대표는 "현재 데이터센터는 단순한 저장 공간이 아니라 AI 서비스를 생산하는 공장으로 진화하고 있다"며 "한국도 이러한 AI 팩토리 역량을 갖춰야 글로벌 경쟁에서 살아남을 수 있다"고 강조했다.

2025.12.16 16:19한정호 기자

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호 기자

오라클, "AI가 DB 안으로"…AI 데이터베이스 26ai로 차별화 승부

오라클이 데이터를 밖으로 빼내지 않고 데이터베이스에서 바로 인공지능(AI)을 실행하는 방식을 앞세워 AI 데이터플랫폼 기업으로 거듭나겠다고 선언했다. 한국오라클은 11일 서울 강남구 아셈타워에서 미디어 브리핑을 열고 오라클 AI 월드 2025의 주요 발표 내용을 국내 시장 관점에서 재정리했다. 올해 처음 개최된 오라클 AI 월드는 기존 글로벌 연례 행사였던 '오라클 클라우드월드'의 이름을 바꾼 것으로 클라우드 인프라와 데이터베이스, 애플리케이션 전반을 AI 중심으로 재편하는 전략이 집중적으로 소개된 무대다. 행사에서 나정옥 한국오라클 부사장(클라우드 엔지니어링 총괄)은 AI 전략의 출발점을 'AI를 위한 데이터'가 아니라 '데이터를 위한 AI(AI for Data)'라고 규정했다. 그는 "AI 도입의 성패는 '데이터 이동'을 얼마나 줄이느냐에 달렸다"며 "오라클은 데이터를 AI 모델로 가져가는 비효율을 없애고, 데이터가 저장된 바로 그곳에 AI를 심는 '데이터 중심' 전략으로 시장 판도를 바꾸겠다"고 강조했다. 나 부사장은 "오픈AI가 오라클을 선택한 이유도 타사가 수년 걸릴 대규모 클러스터를 1년이 채 안 되는 기간에 구축할 수 있는 인프라 역량 때문"이라며 "AI를 위해 데이터를 밖으로 빼내지 않는다는 원칙 아래, 데이터가 머무는 자리로 AI를 가져오는 것이 오라클 전략의 핵심"이라고 말했다. 차세대 인프라 전략은 장진호 상무가 설명했다. 그는 오라클 클라우드 인프라(OCI)의 기존 '젠2(Gen 2)' 클라우드 아키텍처를 AI 워크로드에 맞게 재설계한 '엑셀러론(Acceleron)' 기반 인프라를 소개했다. 엑셀러론은 GPU 간 연결 구조와 네트워크, 스토리지를 모두 AI 학습·추론에 맞게 최적화한 구조로, 수십만개의 GPU를 하나의 거대한 클러스터로 묶는 것이 특징이다. 실제로 오라클은 엔비디아 GPU를 최대 80만개까지 단일 클러스터로 연결하는 'OCI 제타스케일10(Zettascale10)' 아키텍처를 공개했으며, 미국 텍사스 애빌린에 오픈AI와 함께 구축 중인 '스타게이트' 슈퍼클러스터의 기반 패브릭으로 적용하고 있다. 장 상무는 "엑셀러론은 단순히 하드웨어를 늘린 것이 아니라, 네트워크와 스토리지까지 전 계층을 AI 워크로드에 맞춰 다시 설계한 인프라"라며 "이미 13만장 규모 GPU 클러스터를 운영 중이고, 제타스케일10을 통해 80만장 수준까지 확장하는 '물리적 체급'의 차이를 보여줄 것"이라고 말했다. 데이터베이스 측면에서는 '오라클 AI 데이터베이스 26ai'가 프레임 전환의 중심에 섰다. 오라클은 기존 '오라클 데이터베이스 23ai'에서 선보였던 AI 벡터 검색, 셀렉트 AI 기능을 발전시켜 26ai에 통합했다. 조경진 상무는 "벡터 검색은 기계가 사람처럼 문맥과 의미를 이해하게 만드는 핵심 기술"이라며 "오라클은 별도 벡터 데이터베이스를 따로 구축하지 않고도, 기존 데이터베이스 안에서 관계형 데이터와 문서, 이미지 같은 비정형 데이터를 함께 벡터로 다루고 검색할 수 있다"고 설명했다. 그는 "개발자는 익숙한 SQL과 JSON, 그래프, 공간 데이터 위에 AI 벡터 검색을 얹어, 복잡한 인프라를 다시 짜지 않고도 LLM, RAG 같은 고급 AI 기능을 구현할 수 있다"고 덧붙였다. 실제 시연에서는 자연어로 "이번 달 배송 지연 건수는?"이라고 묻자, 셀렉트 AI가 데이터베이스 스키마 정보를 바탕으로 SQL을 자동 생성해 결과를 반환하는 화면이 소개됐다. 오라클 셀렉트 AI는 자연어를 SQL로 변환하고, 필요할 경우 기업 문서와 로그를 벡터로 변환해 함께 조회하는 방식으로 '대화하듯 데이터에 질의'하는 경험을 제공한다. 조 상무는 "결국 중요한 것은 LLM이 아니라 기업 고유 데이터"라며 "데이터베이스 안에 AI를 내장해 개발자와 데이터 분석가가 기존 워크플로를 거의 바꾸지 않고도 AI 기능을 쓰게 하는 것이 목표"라고 말했다. 데이터 플랫폼 전략은 김태완 상무가 맡았다. 그는 파편화된 데이터를 하나로 엮는 '오라클 AI 데이터 플랫폼'과 '오픈 데이터 레이크하우스', '제로 ETL(Zero-ETL)' 전략을 함께 제시했다. 김 상무는 "이제 데이터가 어디에 있든 상관없는 '오픈 데이터' 시대"라며 "오라클의 전략은 데이터를 복제하거나 옮기는 작업을 최소화해, 이동에 드는 시간과 비용을 없애는 '제로 ETL'을 실현하는 것"이라고 강조했다. 그는 "AWS, 마이크로소프트 애저, 구글 클라우드 등과의 멀티클라우드 연동을 통해, 여러 클라우드에 흩어진 데이터를 데이터 사일로 없이 하나의 논리적 플랫폼처럼 다루게 하는 것이 목표"라고 설명했다. 보안과 규제 준수 측면에서 오라클은 '프라이빗 AI'를 핵심 차별점으로 내세웠다. 나정옥 부사장은 "많은 기업이 비싼 GPU를 도입해 놓고도, 데이터 반출과 규제 이슈 때문에 실제 업무에는 쓰지 못하고 있다"며 "오라클은 'AI를 위해 데이터를 밖으로 빼내지 않는다'는 철학 아래, 데이터가 저장된 데이터베이스와 데이터 레이크, 애플리케이션 주변에 AI를 심는 구조를 택했다"고 말했다. 그는 "데이터 주권과 규제가 중요한 금융, 공공, 제조 기업이 기존 보안·거버넌스 체계를 그대로 유지한 상태에서 고성능 AI를 쓸 수 있도록 하는 것이 오라클 프라이빗 AI의 지향점"이라고 부연했다.

2025.12.11 21:50남혁우 기자

메가존클라우드, 동아대 지-램프 사업단과 양자·원자 연구 '맞손'

메가존클라우드가 학계와 함께 양자·원자 과학 기반 연구를 위한 클라우드·인공지능(AI) 인프라 협력에 나선다. 메가존클라우드는 동아대학교 지-램프(G-LAMP) 사업단과 산학연협력 양해각서(MOU)를 체결했다고 11일 밝혔다. 이번 협약을 통해 양측은 ▲원자·양자 과학 분야 기초·응용 기술 연구개발(R&D) 및 고급 연구 인력 양성 ▲기술 이전 및 사업화 추진 협력 ▲장비·시설 등 연구 인프라 공동 활용 ▲세미나·워크숍·학술교류 등 공동 학술행사 기획·운영 ▲기타 상호 발전을 위한 산학연 협력 등을 함께 추진할 계획이다. 특히 메가존클라우드는 자사 클라우드·AI 역량을 바탕으로 양자·원자 과학 연구에 필요한 클라우드·AI 인프라를 지원해 연구자들의 대용량 데이터 분석과 시뮬레이션, 협업 환경을 고도화할 방침이다. 메가존클라우드 김동호 최고양자책임자(CQO)는 "동아대 지-램프 사업단과의 협력은 클라우드 기술을 양자·원자 과학 연구 현장에 적극 적용해 연구 효율성과 확장성을 높이는 중요한 출발점"이라며 "공동 연구와 기술 협력을 통해 기초과학과 산업 기술이 연결되는 실질적 성과를 만들고 지속가능한 산학 협력 모델을 구축해 나가겠다"고 말했다. 정진웅 동아대 지-램프 사업단장은 "메가존클라우드와의 협력은 기초과학 연구의 디지털 전환과 융합 연구 강화에 큰 도움이 될 것"이라며 "양자·원자 과학 기반 R&D와 기술 사업화를 위해 협력을 확대해 나가겠다"고 밝혔다.

2025.12.11 17:45한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

HBM4 출하 경쟁 '과열'...엔비디아 수급 전략이 공급망 핵심 변수

"또 실패는 없다"…구글이 AI 글래스 '킬러앱'에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

저평가주 외인 매수세에...SK텔레콤 주가 고공행진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.