• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'클라우드 인프라'통합검색 결과 입니다. (247건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

퍼블릭 클라우드 '흔들'…AI·데이터 주권에 '프라이빗 회귀' 가속

전 세계적으로 생성형 인공지능(AI) 확산과 데이터 주권 요구가 맞물리면서 기업들의 클라우드 전략이 빠르게 재편되고 있다. 기존 퍼블릭 클라우드 중심에서 벗어나 보안·규제·비용을 동시에 고려한 하이브리드 및 프라이빗 클라우드로 이동하는 흐름이 뚜렷해지며, 이른바 '인프라 회귀' 현상이 산업 전반에 확산되는 양상이다. 22일 엔터프라이즈 오픈 소스 기업 수세가 발표한 설문조사에 따르면 기업의 59%가 하이브리드 클라우드를, 16%는 프라이빗 클라우드를 우선 도입 전략으로 고려하는 것으로 나타났다. 이번 조사는 미국·영국·일본·인도·독일 등 주요 국가의 IT 의사결정권자 약 600명을 대상으로 진행됐다. 특히 AI 도입이 기업 인프라 전략 변화의 핵심 요인으로 작용하고 있는 것으로 분석됐다. 응답자의 61%는 AI 도입을 '중대한 과제'로 꼽았으며 AI 모델 학습 과정에서 데이터 주권 확보 중요성에 대해 80% 이상이 '매우 중요하다'고 답했다. AI 확산은 단순한 기술 도입을 넘어 인프라 복잡성과 리스크를 동시에 증가시키고 있다. 이에 기업들은 기존 퍼블릭 인프라 중심 구조에서 벗어나 통제 가능한 환경을 확보하기 위해 하이브리드 및 프라이빗 클라우드로 눈을 돌리는 분위기다. 이 과정에서 데이터 주권이 핵심 키워드로 떠오르고 있다. 특히 유럽과 미국을 중심으로 데이터 지역화 규제와 보안 요구가 강화되면서, 기업 내부 또는 통제 가능한 환경에서 데이터를 관리하려는 움직임이 확대되고 있다. 클라우드 전략 변화는 비용 구조에서도 영향을 받고 있다. AI 워크로드는 대규모 그래픽처리장치(GPU) 자원을 요구하는 만큼 퍼블릭 클라우드 기반 과금 모델에서 비용 부담이 급격히 증가하는 문제가 발생하고 있다. 장기적으로는 프라이빗과 하이브리드 인프라 환경이 비용 효율 측면에서도 유리하다는 인식이 확산되고 있다. 이같은 흐름은 단순 기술 선택의 문제를 넘어 기업 핵심 자산인 데이터를 어디까지 통제할 수 있는지에 대한 전략 경쟁으로 확장되고 있다. 특히 생성형 AI가 기업 내부 데이터를 학습에 활용하는 구조로 발전하면서, 퍼블릭 클라우드에 대한 의존도를 줄이고 자체 인프라를 강화하려는 움직임이 더욱 가속화되는 추세다. 실제 조사 결과 기업의 51%는 멀티·하이브리드 클라우드 환경 확장에 대한 투자를 늘릴 계획이며 46%는 오픈소스 엔터프라이즈 지원 확대에 나설 것으로 나타났다. 이는 특정 벤더 종속에서 벗어나 유연성을 확보하려는 전략으로 풀이된다. 벤더 종속성 문제 역시 주요 변수로 지목된다. 미국 기업의 경우 39%가 벤더 락인(종속성)을 주요 우려로 꼽았으며 절반 이상이 이를 '중대한 과제'로 인식하고 있는 것으로 조사됐다. 이와 함께 IT 복원력과 보안 강화도 주요 투자 우선순위로 떠올랐다. 미국 응답자의 64%는 IT 복원력을 최우선 기술 과제로 꼽았으며 글로벌 평균 역시 높은 수준을 보였다. 이는 퍼블릭 클라우드 장애나 보안 사고 경험이 누적된 결과로 해석된다. 국내에서도 유사한 흐름이 감지된다. 금융·공공 분야를 중심으로 데이터 주권과 보안 요구가 강화되면서 프라이빗 및 하이브리드 클라우드 도입이 확대되는 추세다. 특히 최근 VM웨어 가격 정책 변화와 벤더 종속 우려가 겹치며 오픈소스 기반 인프라로의 전환 움직임도 점차 가속화되고 있다. 업계에선 이러한 변화가 단기적인 트렌드가 아닌 구조적 전환이라는 분석이 나온다. AI 시대에 데이터가 핵심 자산으로 부상하면서 이를 얼마나 통제할 수 있는지가 기업 경쟁력의 핵심 요소로 자리 잡고 있기 때문이다. 특히 오픈소스 기반 인프라는 이러한 흐름에서 중요한 역할을 하고 있다. 기업들은 특정 벤더에 종속되지 않으면서도 유연성과 확장성을 확보할 수 있는 오픈소스 환경을 통해 하이브리드·프라이빗 전략을 강화하고 있다. 마가렛 도슨 수세 최고마케팅책임자(CMO)는 "AI 도입이 기업 인프라 전략에 큰 변화를 가져오고 있다"며 "고객들은 보다 유연하고 확장 가능하며 통제된 환경으로 빠르게 이동하고 있다"고 말했다. 클라우드 업계 관계자는 "이제 클라우드는 단순한 IT 인프라가 아니라 데이터 주권과 직결된 전략 자산"이라며 "하이브리드와 프라이빗 중심 구조는 AI 시대의 필수 선택지가 될 것"이라고 밝혔다.

2026.03.22 09:19한정호 기자

[AI 고속도로] '베라루빈' 도입·연내 구축 가능할까…정부 GPU 확충 쟁점은

정부가 '인공지능(AI) 고속도로' 구현을 위한 2조원 규모 최신 그래픽처리장치(GPU) 확충 사업에 착수한다. 엔비디아가 공개한 차세대 GPU '베라루빈' 도입 가능성까지 포함되면서 사업 방향과 세부 기준에 대한 업계 관심이 높아지고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 개최했다. 이날 현장에선 사업 구조와 평가 기준, 데이터센터 요건 등을 설명하고 현장 질의응답을 진행했다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 밝혔다. 이날 설명회에는 지난해 사업에 선정된 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)와 엘리스그룹이 자리했다. 또 삼성SDS·LG CNS 등 SI 기업과 메가존클라우드·디딤365, 레드햇·클러쉬, 델·HPE·IBM·넷앱·슈퍼마이크로 등 인프라 기업, 엔비디아·AMD·인텔, MS·구글 클라우드, SK텔레콤·쿠팡 등 60여개 기업 200여 명이 참석했다. 현장 질의응답에선 차세대 GPU 도입 기준을 비롯해 데이터센터 구축 방식, 글로벌 공급망 위협과 환율 변동에 따른 비용 부담, 연내 구축 일정 등 주요 쟁점을 중심으로 사업 참여를 검토하는 기업들의 질의가 이어졌다. 특히 베라루빈 도입 여부와 구축 일정 간 균형, 국내 인프라 중심 운영 원칙 등이 핵심 관심사로 부각됐다. 최신 GPU 중심 평가…베라루빈 도입 기준·일정 변수는 -사업 요건의 비용 대비 높은 GPU 성능은 어떤 기준으로 평가되나. "경제성 항목은 단순히 장비 수량을 많이 확보하는 개념이 아니라, 최신 GPU 기준으로 성능 대비 얼마나 효율적으로 제안하느냐를 보는 것이다. 동일한 예산 안에서 최신 아키텍처 GPU를 얼마나 확보할 수 있는지가 핵심이다. 구형 GPU를 대량으로 제안하는 방식보다는 최신 GPU 중심으로 실제 AI 학습과 추론에 적합한 성능을 확보했는지가 평가 포인트가 된다. 성능 대비 비용, 그 성능이 실제 AI 활용에 얼마나 적합한지를 종합적으로 볼 것이다." -베라루빈 제안 시 클러스터 구축 기준은 어떻게 적용되나. "베라루빈은 아직 구체적인 구성 방식이나 클러스터 단위가 완전히 정형화되지 않은 차세대 GPU다. 기존 블랙웰 계열과 동일한 기준을 그대로 적용하기는 어려울 수 있다. 이 부분은 칩 제조사와 공급망을 통해 확인해야 하는 영역이다. 제안 단계에선 가능한 범위에서 구성 계획을 제시하되, 세부 기준은 제조사 스펙과 실제 공급 조건을 반영해 판단하게 된다. 중요한 것은 차세대 GPU 도입 의지와 실현 가능성이다." -특정 제조사의 GPU만을 고려해 평가가 이뤄지는지. "이번 사업은 특정 칩 제조사를 배제하거나 제한하려는 것이 아니라, 국가 차원에서 AI 인프라를 가장 빠르게 확보하는 것이 목적이다. 현재 시장에서 대규모 AI 모델 학습과 서비스에 가장 널리 활용되는 최신 GPU를 중심으로 판단하게 된다. 다양한 선택지가 있을 수 있지만 실제 활용성과 안정성, 공급 가능성을 종합적으로 고려할 수밖에 없다." -베라 루빈 출시 일정과 연내 구축 목표가 충돌할 경우 기준은. "기본적으로 이번 사업은 연내 구축과 서비스 개시가 중요한 목표다. 다만 차세대 GPU 도입은 평가에서 우대 요소로 반영된다. 베라 루빈의 경우 일반적인 글로벌 공급 일정과 달리 국내 도입 시점이 앞당겨질 가능성도 있다. 관계 부처와 제조사 간 협의를 통해 국내 물량 확보를 추진해 왔다. 결국 일정과 최신성 두 요소를 함께 고려하되, 현실적인 공급 상황을 반영해 판단할 것이다." -GPU 납기 지연 등 변수 발생 시 일정 조정이 가능한가. "사업자가 최종 선정된 이후 협약 단계에서 시장 상황을 반영해 일부 조정은 가능하다. 기본 원칙은 유지하되, 실제 납기나 공급 이슈가 불가피하게 발생하는 경우까지 일률적으로 적용하기는 어렵다. 협약 과정에서 합리적으로 논의할 수 있는 여지는 있다." "국내 데이터센터 집적이 원칙"…냉각 인프라도 예산에 포함 -복수 데이터센터를 활용한 구축·운용이 가능한가. "데이터센터를 여러 개 제안하는 것은 가능하다. 다만 사업에서 요구하는 최소 클러스터 단위는 반드시 동일 공간 또는 동일 층에 물리적으로 집적돼야 한다. 대규모 AI 연산을 위해서는 GPU 간 통신 지연을 최소화하는 구조가 필요하기 때문이다. 따라서 분산 배치는 가능하지만, 핵심 클러스터는 집적형으로 구성해야 한다." -동일 제조사 내 서로 다른 GPU 모델을 혼합해 제안할 수 있나. "가능은 하지만 단순 혼합이 아니라, 각각의 GPU 구성에 대한 명확한 목적과 타당성을 제시해야 한다. 어떤 워크로드에 어떤 GPU를 쓰는지, 클러스터 단위 기준을 어떻게 충족하는지를 설명해야 한다. 단순히 여러 모델을 섞는 방식은 설득력이 떨어질 수 있다." -해외 데이터 연동이나 네트워크 활용은 원천 불가능한가. "사업의 기본 원칙은 국내 데이터센터에서 GPU를 직접 운영·통제하는 것이다. 국가 AI 인프라라는 특성상 데이터 주권과 보안이 중요하다. 다만 실제 운영 과정에서 필요한 세부 사항은 추가 논의를 통해 정리할 수 있다." -수냉 배관 등 데이터센터 공사 비용도 사업 지원비에 포함되나. "GPU 서버가 최고 성능을 낼 수 있도록 필요한 환경이라면 통합 구축 범위에 포함해 제안할 수 있다. 단순히 장비만 도입하는 것이 아니라 실제 운영 가능한 인프라를 구축하는 것이 목적이다. 전력·냉각·네트워크까지 포함한 전체 시스템 관점에서 제안하는 것이 중요하다." -콜드플레이트 등 냉각 구성 요소는 어떻게 반영해야 하나. "세부적인 하드웨어 구성은 서버 벤더와 칩 제조사 기준을 따르는 것이 바람직하다. GPU 성능을 충분히 발휘할 수 있는 구성이라면 관련 부대장비까지 포함해 제안하면 된다. 단순 장비 나열이 아니라 완성된 인프라로서 제안해야 한다." 환율 변수에도 제안가 기준…"사업 종료 후 관리는 정부가" -환율 변동에 따른 가격 차이는 추후 어떻게 반영되나. "기본적으로는 제안 시점에서 확보한 가격을 기준으로 본다. 공모 사업 특성상 사후 정산 구조이기 때문에 가격 변동이 발생하더라도 그 기준을 중심으로 관리하게 된다." -환율 급등 등 외부 변수 발생 시 대응은. "원칙은 제안 가격 기준이다. 다만 전쟁이나 글로벌 공급망 충격과 같은 불가피한 상황이 발생할 경우에는 협약 단계에서 논의가 필요할 수 있다. 모든 변수를 사전에 규정하기는 어렵지만 현실적인 범위에서 대응할 예정이다." -정부 활용분과 기업 자체 활용분은 어떤 기준으로 산정되나. "정부 활용분에 대해 요구되는 최소 클러스터 규모를 먼저 충족해야 하고 그 이후 남는 자원을 자체 활용분으로 설정하는 구조다. GPU 종류나 성능이 서로 다른 경우에는 단순 장수 기준만으로 판단하지 않고 도입 비용과 활용 목적까지 함께 고려해 전체 구성의 타당성을 평가한다. 단순 비율이 아니라 정부 활용 목적에 부합하는지와 자원 배분의 합리성을 종합적으로 볼 것이다." -정부 활용분 GPU에 대한 수요는 보장되나. "수요 모집과 배분은 정부가 담당한다. 사업자는 인프라를 제공하고 운영을 지원하는 역할을 수행하게 된다. 수요 확보 부담을 사업자에게 전가하는 구조는 아니다." -사업 종료 후 GPU 자산은 어떻게 되나. "GPU와 부대장비는 NIPA 자산으로 관리된다. 이후 처리 방식은 관련 규정과 절차에 따라 결정된다. 매각이나 이전 등 다양한 방안을 검토할 예정이다."

2026.03.20 17:58한정호 기자

[AI 고속도로] 고성능 GPU 확보 나선 정부, 2조 규모 인프라 사업에 기업 관심 ↑

정부가 약 2조800억원 규모의 '인공지능(AI) 컴퓨팅 인프라 구축 사업'을 추진하며 첨단 그래픽처리장치(GPU) 확보에 속도를 내고 있다. 생성형 AI 경쟁이 짧은 기간 내 판가름 날 수 있다는 판단에 따라 최신 GPU를 조기에 대규모로 확보해 'AI 고속도로'를 구축하겠다는 구상이지만, 사업 구조와 요구 조건 측면에서 기업들의 부담이 적지 않을 것이란 관측도 나오고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이후 사업 협약 종료 시점인 2031년 12월 31일까지 산업계·학계·연구계 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 사업은 민간 클라우드 사업자(CSP)를 선정해 국내 데이터센터에 GPU 클러스터를 구축·운영하도록 하는 방식으로 추진된다. 정부는 GPU 서버와 스토리지, 네트워크, 냉각장치 등 장비 구매 비용만 지원하고, 운영 비용은 사업자가 부담하도록 했다. 대신 일부 GPU 자원은 자체 활용을 허용해 수익을 확보할 수 있도록 했다. 이번 사업의 핵심은 '최신성'과 '대규모 클러스터'다. 정부는 최소 256노드, 2048장 이상의 GPU를 단일 클러스터로 구성하는 방안을 기본으로 제시하며 블랙웰급 이상 최신 GPU 도입을 사실상 전제로 삼았다. 차세대 GPU인 베라루빈 계열도 제안 가능 대상으로 열어두면서 최신 기술 도입을 적극 유도하는 모습이다. 특히 베라루빈 도입을 둘러싼 논의는 이번 사업의 방향성을 보여주는 대목으로 꼽힌다. 당초 사업 요건에 베라루빈을 명시적으로 포함하는 방안까지 검토됐던 것으로 전해졌으나, 최종 공모에선 강제 조건으로 포함시키지 않았다. 업계에선 정부가 엔비디아와의 협의를 통해 국내 물량 확보 가능성을 타진하면서도, 아직 레퍼런스가 부족한 점을 감안해 기업 자율 제안으로 방향을 조정한 것으로 보고 있다. 그러나 실제 도입 규모는 제한적일 것이라는 전망이 우세하다. 차세대 GPU 특성상 공급 물량이 충분하지 않고, 성능 검증 사례도 부족해 기업들이 대규모로 제안하기에는 부담이 크다는 이유에서다. 업계에선 일부 상징적 물량 수준에서 제안이 이뤄질 가능성에 무게를 두고 있다. 평가 기준을 보면 정부가 무엇을 우선순위로 두고 있는지도 드러난다. 총 100점 가운데 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도 18점, 구축계획 우수성 32점이 핵심이다. 데이터센터 상면 확보를 비롯해 전력·냉각 설비, 네트워크 구성, 보안·안정성 체계 등이 주요 평가 항목에 포함됐다. 이는 대규모 GPU를 실제로 안정적으로 운영할 수 있는 인프라 역량을 가장 중요한 기준으로 삼겠다는 의미다. GPU 물량보다 성능을 중시하는 평가 방식도 특징이다. 동일 예산 기준에서 구형 GPU를 대량 확보하는 방식보다 최신 GPU 기반 고성능 클러스터를 구축하는 제안이 더 유리한 구조다. 서비스 개시 시점이 빠를수록 가점을 부여하는 항목도 포함돼 조기 구축과 실제 활용 가능성 역시 핵심 평가 요소로 설정됐다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 개발에서 서비스까지 걸리는 시간이 크게 단축된 상황"이라며 "최신 GPU를 신속하게 확보해 국내에 공급하는 것이 경쟁력 확보의 핵심"이라고 강조했다. 업계에선 이번 사업을 두고 참여 문턱이 높은 것 같다는 평가를 내놨다. 대규모 GPU 클러스터를 구축하려면 충분한 데이터센터 상면과 전력, 고성능 냉각 인프라가 필수적인데 이를 단기간 내 확보할 수 있는 기업이 제한적이기 때문이다. 수도권 중심 데이터센터 전력 수급 문제도 부담 요인으로 지목된다. 운영비 부담도 주요 변수다. 정부 지원은 장비 구매에 한정되고 실제 운영비는 사업자가 부담해야 하기 때문이다. 자체 활용 GPU로 수익을 확보할 수는 있지만, 정부 활용 자원 비중이 높을수록 평가에서 유리한 구조여서 사업성과 점수 간 균형을 맞추기 쉽지 않다는 지적이 나온다. 가격과 환율 리스크도 기업들이 부담으로 꼽는 대목이다. GPU 조달 비용은 대부분 달러 기반으로 형성되는데, 사업 구조상 비용 절감분은 정산 대상인 반면 가격 상승에 따른 리스크는 일정 부분 사업자가 떠안아야 한다. 차세대 GPU의 경우 납기와 가격 변동성이 커 불확실성이 더 크다.여기에 올해부터 서비스 수준 협약(SLA) 요건이 새롭게 포함되면서 운영 부담은 더 커질 전망이다. 장애 대응, 성능 유지, 기술 지원 체계를 구체적으로 제시해야 하는 만큼, 단일 CSP가 이를 모두 감당하기는 쉽지 않다는 평가다. 이에 따라 CSP가 운영·관리 전문기업(MSP)과 협력하는 컨소시엄 형태가 늘어날 것이라는 관측이 나온다.업계 관계자는 "단순히 GPU를 구축하는 수준이 아니라 24시간 대응 체계와 서비스 품질까지 함께 요구되면서 사업 난도가 크게 올라갔다"며 "운영과 기술지원 역량을 동시에 갖춘 구조를 만들어야 하는 부담이 커진 상황"이라고 말했다.이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 맡는다. 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 여부와 확보 계획, 데이터의 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등도 주요 평가 항목에 포함됐다. 특히 AI 워크로드를 이해하는 전문 인력과 24시간 대응이 가능한 기술지원 체계를 반드시 제시해야 한다는 점도 이번에 강조됐다. 단순 인프라 운영을 넘어 AI 모델 개발과 서비스까지 지원할 수 있는 수준의 역량이 요구된다는 점에서 기업 부담이 추가로 커졌다는 평가가 나온다.설계 부담도 적지 않을 것으로 보인다. 특히 차세대 GPU인 베라루빈을 적용할 경우 클러스터 구성 단위와 성능 기준이 명확히 정해져 있지 않아 기업이 직접 제조사와 협의를 통해 구성 방안을 검토해야 하는 상황이다. GPU 종류별로 클러스터 구조와 성능 산정 방식이 달라질 수 있는 만큼, 제안 단계에서부터 기술적 검증과 설계 부담이 기업에 상당 부분 전가됐다는 평가가 나온다. 이번 설명회에는 네이버클라우드, KT클라우드, NHN클라우드, 카카오엔터프라이즈, SK텔레콤, 삼성SDS 등 주요 클라우드 사업자를 비롯해 메가존클라우드, LG CNS 등 클라우드 서비스 운영 관리 기업(MSP)과 델, 시스코, HPE, 엔비디아 등 글로벌 장비·반도체 기업까지 대거 참석했다. 이 같은 구조를 감안하면 실제 경쟁은 일부 대형 사업자 중심으로 형성될 가능성이 크다. 업계에선 네이버클라우드와 KT클라우드를 유력 후보로 거론하는 가운데 삼성SDS와 SK텔레콤 등도 경쟁군으로 함께 언급했다. NHN클라우드 등은 컨소시엄 형태로 참여할 가능성이 제기된다. 아마존웹서비스(AWS), 마이크로소프트 애저, 구글 클라우드 등 해외 CSP 역시 참여는 가능하지만 국내 데이터센터 기반과 직접 운영·통제 요구 등을 고려할 때 진입 장벽은 여전히 높다는 평가다. 업계 관계자는 "베라루빈 같은 차세대 GPU는 상징적으로 일부 들어갈 수는 있겠지만, 실제 사업은 전력과 냉각, 운영 역량 확보가 더 큰 변수"라며 "SLA까지 포함되면서 기업 부담이 상당히 커진 구조"라고 말했다. NIPA 관계자는 "시장 상황과 공급 여건이 쉽지 않다는 점을 충분히 인지하고 있다"며 "선정 이후 협상 과정에서 일정과 세부 조건은 현실적으로 조정해 나가고, 민간과 협력해 AI 인프라를 빠르게 구축하겠다"고 밝혔다.

2026.03.20 17:02장유미 기자

[AI 고속도로] 정부, 2조원 규모 GPU 확보 첫발…'베라루빈'까지 품는다

정부가 '인공지능(AI) 고속도로' 구축을 위한 그래픽처리장치(GPU) 확보에 속도를 내며 차세대 엔비디아 아키텍처 '베라루빈'까지 포함한 대규모 컴퓨팅 인프라 확충에 나섰다. 약 2조원 규모 예산을 투입해 첨단 GPU를 민관 협력 방식으로 조기 확보하고 국내 AI 산업 경쟁력을 끌어올린다는 목표다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 진행했다. 이날 현장에는 지난해 1차년도 사업에 참여했던 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)를 비롯해 서비스형 GPU(GPUaaS) 사업을 하는 엘리스그룹이 참석했다. 이 외에도 ▲시스템 통합(SI) 기업 삼성SDS·LG CNS·아이티센씨티에스·에스넷시스템 ▲매니지드 서비스 기업(MSP) 메가존클라우드·디딤365 ▲AI 플랫폼 기업 레드햇·클러쉬 ▲서버·스토리지 기업 델 테크놀로지스·HS효성인포메이션시스템·시스코·넷앱·슈퍼마이크로·HPE·IBM ▲칩 벤더인 엔비디아·AMD·인텔이 자리했다. 여기에 마이크로소프트(MS)·구글 클라우드 등 글로벌 CSP와 SK텔레콤, 쿠팡까지 가세하면서 총 60여개 기업, 200여 명이 이번 설명회를 찾았다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 말했다. 이번 사업은 약 2조 805억원 규모 예산이 GPU 서버와 랙·냉각장치·스토리지·네트워크 등 부대장비 구매 비용에 집중 투입된다. 올해 첨단 GPU 구축을 완료하고 연내 서비스 개시를 목표로 한다. 이후 2031년까지 약 68개월간 운영·지원이 이어진다. 사업 추진 방향은 단순한 물량 확대가 아닌 ▲비용 대비 높은 성능 ▲대규모 클러스터링 ▲직접 클러스터링을 통한 기술력 확보 ▲최신 GPU 우선 도입 ▲연내 서비스 개시 등이 핵심이다. 특히 올해 공모에선 차세대 GPU 도입 여부가 주요한 평가 요소로 떠올랐다. 블랙웰급 이상의 최신 GPU를 기본으로 제안하되, 최근 공개된 차세대 하이엔드 GPU인 베라루빈을 제안할 경우 평가에서 우대한다는 설명이다. 이 사업을 통해 확보되는 GPU는 동일 데이터센터, 동일 공간 또는 동일 층에 물리적으로 집적해 클러스터를 구성해야 하는 것이 요건이다. 참여 기업의 전력·냉각·항온항습·초저지연 네트워크 등 인프라 설계 역량도 평가에 반영된다. 최소 256노드(GPU 2048개) 규모 이상의 클러스터 구성이 기본 기준으로 제시됐다. 이번 사업은 국내 기업 중심의 AI 인프라 역량 강화에도 초점이 맞춰졌다. 이 팀장은 "국내 CSP들이 직접 클러스터링과 운영을 수행하면서 기술력을 축적할 수 있도록 하는 것이 중요한 목적"이라며 "우리 기업들의 인프라 구축·운영 역량을 키우는 방향으로 설계됐다"고 강조했다. 사업 참여는 단독뿐 아니라 컨소시엄 형태도 가능하다. 다만 모든 참여 기업이 GPUaaS 운영 실적 등 신청 요건을 충족해야 하며 사전검토와 발표평가, 데이터센터 현장실사를 거쳐 최종 사업자가 선정된다. 복수 사업자 선정도 가능해 CSP·MSP·SI·통신 기업 간 치열한 연합 경쟁이 예상된다. 평가 기준도 구체적으로 제시됐다. 총 100점 만점 기준에서 사업 준비도 및 경쟁력이 50점으로 가장 큰 비중을 차지하며 이 가운데 구축계획 우수성이 32점, 인프라 준비도가 18점으로 구성된다. 여기에 AI 생태계 발전 노력 26점, 사업 이해도 및 추진역량 12점, 운영 역량 및 사업관리 12점이 반영된다. 이 팀장은 "정부 활용 GPU 비중이 높고 산학연 지원 계획이 구체적일수록 높은 평가를 받을 것"이라며 "국내 데이터센터에서 GPU 자원을 직접 운영·통제하는 구조 역시 중요한 평가 요소"라고 밝혔다. 특히 GPU 자원 중 일부는 사업자가 자체 활용할 수 있도록 허용되지만, 해당 비중과 활용 계획 역시 평가에 반영된다. 정부는 국가 AI 프로젝트와 산학연, 스타트업 지원을 우선 고려한다는 방침이다. 이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 담당하게 된다. 동시에 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 현황과 확보 계획, 데이터 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등이 주요 평가 대상에 포함된다. 특히 AI 워크로드를 이해하는 전문 인력과 안정적인 기술지원 체계를 반드시 제시해야 한다는 점도 강조됐다. 단순 인프라 운영을 넘어 실질적인 AI 모델 개발과 서비스까지 지원할 수 있는 수준이 요구된다. 정부는 이번 사업을 통해 확보한 GPU를 국가 AI 프로젝트와 연구개발, 산업 현장에 폭넓게 공급하며 국내 AI 생태계 전반의 경쟁력을 끌어올린다는 계획이다. 원상호 NIPA AI인프라본부장은 "민간과 협력해 국내 AI 산업 생태계가 체감할 수 있는 첨단 활용 기반을 마련하는 것이 중요하다"며 "글로벌 AI 경쟁 기반을 넓히고 우리 산업의 경쟁력을 한 단계 끌어올리는 계기가 될 것"이라고 강조했다.

2026.03.20 16:55한정호 기자

韓 AI 3사 총집결…오케스트로, 공공 AI 인프라 판 키운다

오케스트로가 리벨리온, 업스테이지와 함께 공공 인공지능(AI) 인프라 전략을 제시하며 소버린 AI 기반 공공 시장 공략에 나선다. 데이터 주권과 클라우드 인프라를 결합한 국가 AI 경쟁력 확보를 선도한다는 목표다. 오케스트로는 한국인공지능정부협회와 오는 26일 정부세종컨벤션센터에서 '2026 공공 AI 인프라 혁신 컨퍼런스'를 공동 개최한다고 19일 밝혔다. 이번 행사는 국가대표 AI와 소버린 클라우드 플랫폼을 기반으로 공공 데이터 주권 확보 및 AI 기술 자립 전략을 모색하기 위해 마련됐다. 중앙부처와 지방정부, 주요 공공기관 관계자들이 참석해 공공 AI 인프라 구축을 위한 기술 동향과 도입 사례를 공유할 예정이다. 컨퍼런스에는 오케스트로를 비롯해 AI 반도체 기업 리벨리온, 생성형 AI 기업 업스테이지 등 국내 주요 AI 기업이 참여한다. 각 기업은 소버린 AI, 신경망처리장치(NPU), 거대언어모델(LLM) 등 공공 AI 인프라 구축에 필요한 핵심 기술 전략을 발표한다. 오케스트로는 소버린 AI 클라우드를 중심으로 공공기관 환경에 최적화된 인프라 구축·운영 전략을 제시한다. 공공 AI 서비스 확산을 위한 클라우드 기반 인프라 구조와 운영 방안을 소개할 계획이다. 리벨리온은 NPU 기반 차세대 AI 추론 인프라 전략을 발표하며 대규모 AI 연산 환경에서의 효율성과 확장성을 선보일 예정이다. 업스테이지는 공공 서비스에 즉시 적용 가능한 LLM 활용 사례를 중심으로 AI 도입 방안을 공유한다. 아울러 행사에서는 AI 데이터센터 구축 기술과 클라우드 레질리언스 등 공공 AI 인프라 운영을 위한 다양한 기술 세션이 진행된다. 공공기관이 실제 업무 환경에서 활용할 수 있는 실질적인 기술 적용 방안을 제시하는 데 초점을 맞췄다. 김범재 오케스트로 대표는 "공공 AI 경쟁력은 단순한 AI 모델 도입을 넘어 데이터 주권과 안정적인 인프라가 함께 갖춰질 때 완성된다"며 "이번 컨퍼런스를 통해 소버린 AI 클라우드 전략과 기술 방향을 공유하고 공공기관이 실제 업무 환경에서 활용할 수 있는 안정적인 AI 인프라 구축을 적극 지원해 나가겠다"고 말했다.

2026.03.19 16:22한정호 기자

미들웨어 경쟁력 키운 LG CNS, '레나' 앞세워 공공·금융 시장 정조준

LG CNS가 웹 애플리케이션 서버(WAS) 분야에서 최고 수준 인증을 획득하며 최신 자바 기술 표준과 글로벌 호환성을 확보했다. 고신뢰 IT 인프라를 요구하는 공공·금융 시장에서 기술 경쟁력을 바탕으로 사업 확장에 나선다는 목표다. 19일 LG CNS에 따르면 자사 핵심 WAS인 '레나(LENA)'가 국내 최초로 '자카르타 EE 10 풀 플랫폼' 인증을 획득했다. WAS는 로그인, 결제, 데이터 처리 등 기업 시스템의 핵심 애플리케이션을 실행·관리하는 미들웨어다. 이번 인증은 기업 IT 인프라의 안정성과 확장성을 좌우하는 핵심 영역에서 LG CNS의 기술력을 입증한 사례로 평가된다. 자카르타 EE는 자바 기반 대규모 시스템 개발을 위한 글로벌 표준 기술이다. 최신 버전은 EE 11이지만, 클라우드 환경에서의 안정성과 생태계 성숙도가 검증된 EE 10이 현재 글로벌 시장의 사실상 표준으로 자리 잡고 있다. 특히 LG CNS가 획득한 풀 플랫폼 인증은 자카르타 EE 10 인증 중 가장 높은 수준으로, 코어 프로파일·웹 프로파일을 포함한 전 영역을 충족해야 한다. 대규모 트랜잭션 처리, 분산 환경 운영, 사용자 인증 및 권한 관리 등 기업용 시스템에 요구되는 핵심 기능을 모두 갖춰야 획득 가능한 최고 난이도 인증으로 알려졌다. 레나는 이번 인증을 통해 국내 상용 WAS 가운데 유일하게 자카르타 EE 10 기준을 충족한 제품이 됐다. 이는 최신 자바 기술 표준 준수와 글로벌 시스템 간 호환성을 동시에 확보한 것으로, 특히 기술 요건이 엄격한 금융·공공 시장 진입을 위한 경쟁력을 확보했다는 평가다. LG CNS는 2017년 출시한 레나를 통해 클라우드 환경에 최적화된 WAS 시장을 공략해왔다. 이 솔루션은 특정 기술에 종속되지 않는 오픈소스 기반 구조를 바탕으로 다양한 기업 시스템 환경에서 유연한 운영을 지원한다. 레나는 온프레미스 서버부터 컨테이너 기반 클라우드 환경까지 폭넓게 지원한다. 기존 애플리케이션을 최신 기술 구조로 전환하는 애플리케이션 현대화 프로젝트에서도 인프라 변화에 따른 리스크를 최소화할 수 있는 점이 강점으로 꼽힌다. 운영 안정성 측면에서도 차별화 요소를 갖췄다. LG CNS는 자체 데이터센터 운영 노하우를 기반으로 지능형 장애 감지·진단 엔진을 레나에 적용했다. 이를 통해 서버와 애플리케이션 상태를 실시간으로 모니터링하고 장애를 사전에 감지해 신속 대응을 제공한다. 또 다수 서버를 하나처럼 운영할 수 있는 클러스터링 기능과 사용자 세션을 안정적으로 유지하는 자체 세션 서버를 통해 대규모 서비스 환경에서도 안정적인 운영을 지원한다. LG CNS는 이번 인증으로 우선 국내 공공·금융 시장 중심 사업에 집중할 방침이다. 해외에서는 중국 시스템통합(SI) 기업들과 협업을 추진하며 글로벌 사업 기회 확대를 모색 중이다. 아울러 향후 레나에 인공지능(AI) 기술도 접목해 시스템 운영 자동화와 최적화를 구현하는 지능형 WAS로 고도화한다는 전략이다. 이를 토대로 클라우드 전환 수요와 함께 증가하는 기업 IT 인프라 혁신 시장을 선점한다는 계획이다. LG CNS 관계자는 "이번 인증은 레나가 글로벌 기준에서도 신뢰할 수 있는 엔터프라이즈급 WAS임을 공식적으로 인정받은 것"이라며 "클라우드 전환과 보안 강화를 동시에 요구받는 WAS 시장에서 레나는 기업 고객을 위한 최고의 선택지"라고 강조했다.

2026.03.19 11:34한정호 기자

신세계아이앤씨, 이틀 연속 주가 급등…AI 데이터센터 수혜 기대감↑

신세계가 인공지능(AI) 데이터센터 진출을 선언한 가운데, 그룹의 대형 AI 인프라 사업에서 실제 구축·운영을 맡을 핵심 주체로 신세계아이앤씨가 주목받으며 시장 관심이 집중되고 있다. 18일 신세계아이앤씨는 전거래일 대비 5.97% 상승한 2만 3950원에 거래를 마치며 코스피 장을 마감했다. 전날인 17일에는 2만 2600원으로 상한가를 기록하며 29.81% 급등한 데 이어 이틀 연속 상승세를 이어갔다. AI 데이터센터 사업 기대감이 주가를 끌어올린 것으로 풀이된다. 앞서 신세계그룹은 16일(현지시간) 미국 샌프란시스코에서 리플렉션AI와 한국 소버린 AI 팩토리 구축을 위한 업무협약(MOU)을 체결하고 250메가와트(MW) 규모 초대형 AI 데이터센터 건립 계획을 발표했다. 이는 국내 최대 수준으로, 업계에선 10조원 규모 이상 투자가 필요할 것으로 보고 있다. 이번 프로젝트에서 신세계아이앤씨는 그룹 내 IT 전문 계열사로서 서버·네트워크·클라우드 환경 설계 등 데이터센터 구축과 운영 전반을 담당할 것으로 예상된다. 회사는 이미 김포 데이터센터를 구축·운영한 경험을 보유하고 있어 그룹의 AI 인프라 전략을 실제로 구현할 수 있는 내부 실행 조직으로 평가된다. 업계에선 이번 사업이 단순 데이터센터 구축을 넘어 신세계아이앤씨의 사업 구조 전환을 가속화하는 계기가 될 것으로 보고 있다. 기존 시스템통합(SI) 중심에서 클라우드·AI 기반 플랫폼 사업자로 역할이 확대될 수 있다는 분석이다. 실제 신세계아이앤씨는 2025년 매출 6872억원, 영업이익 491억원을 기록하며 수익성을 개선했다. 저수익 사업을 정리하고 클라우드·AI 중심 사업 비중을 확대한 전략이 실적 개선으로 이어졌다는 평가다. 여기에 생성형 AI 개발 플랫폼 '스파로스 데브엑스'와 멀티 거대언어모델(LLM) 기반 'AI 허브' 등 자체 기술 고도화도 병행하며 그룹 내 디지털 전환뿐 아니라 외부 사업 확장 기반을 마련하고 있다. 이번 신세계그룹의 AI 데이터센터 프로젝트 발표는 이러한 전략을 가속하는 연장선이 될 것이라는 전망이 나온다. 그룹 내부적으로는 이마트·SSG닷컴 등 유통 계열사의 AI 전환(AX)을 지원하고 외부적으로는 AI 클라우드 및 맞춤형 모델 서비스까지 제공하는 풀스택 AI 사업자로 진화하는 로드맵이다. 다만 당장의 AI 데이터센터 시장 확대는 쉽지 않을 전망이다. 국내 시장은 이미 아마존웹서비스(AWS)·마이크로소프트·구글 등 빅테크를 비롯해 삼성SDS·네이버클라우드·KT클라우드·NHN클라우드·카카오엔터프라이즈 등 주요 클라우드 서비스 제공사(CSP) 중심으로 재편돼 있어서다. 또 데이터센터 구축과 클라우드 사업 성공은 별개의 문제라는 지적도 나온다. AI 데이터센터를 활용한 외부 클라우드 사업을 추진함에 있어 대규모 전력 확보, 인허가, 고객 수요 확보 등 해결해야 할 과제도 적지 않다. 업계에선 그룹 차원을 넘어 고객 대상 서비스 상용화까지 최소 수년이 소요될 것으로 보고 있다. 그럼에도 이번 프로젝트는 신세계아이앤씨가 단순 SI 사업을 넘어 AI 인프라 중심 사업으로 확장하는 변곡점이 될 것으로 보인다. 주가 급등 역시 이러한 기대감이 반영된 결과로 풀이된다. 신세계아이앤씨 관계자는 "AI 데이터센터 사업과 관련한 구체적인 역할은 향후 그룹 차원에서 단계적으로 정해질 예정"이라고 밝혔다. 클라우드 업계 관계자는 "그룹 내부에서 사용하는 인프라와 외부 고객을 대상으로 서비스하는 클라우드는 전혀 다른 영역"이라며 "상품화·과금·보안 등 고객 중심 체계를 얼마나 빠르게 갖추느냐가 사업 성패를 좌우할 것"이라고 전망했다.

2026.03.18 18:31한정호 기자

[종합] 삼성SDS "자사주 매입·소각, 상황 맞춰 추진…주주가치 제고 이어갈 것"

삼성SDS가 인공지능(AI) 중심 투자 확대와 주주환원 정책을 병행하는 중장기 전략을 공개하고 이사회 거버넌스 개편까지 포함한 주요 안건을 일괄 의결하며 AI 전환(AX) 시대 대응에 본격 나섰다. 이준희 삼성SDS 대표는 서울 잠실 삼성SDS 캠퍼스에서 열린 제41기 정기 주주총회에서 "중장기 현금 활용은 성장 투자와 주주환원의 균형을 최적화하는 것을 기본 원칙으로 한다"며 "2026년은 AI와 클라우드 시장의 주도권을 결정짓는 중요한 시기로, 투자 확대와 사업 구조 고도화를 통해 성장 속도를 끌어올리겠다"고 밝혔다. 이날 주총에선 ▲제41기 재무제표 승인 ▲정관 일부 변경 ▲사내·외 이사 선임 ▲감사위원회 위원 선임 ▲이사 보수 한도 승인 등 주요 안건이 모두 원안대로 통과됐다. 삼성SDS는 지난해 매출 13조 9299억원, 영업이익 9571억원, 순이익 7827억원을 기록했다. 특히 클라우드 사업이 IT 서비스 매출의 41%를 넘어서는 등 생성형 AI 중심으로 사업 구조 전환이 빠르게 진행되고 있다. 삼성SDS는 AI 인프라·플랫폼·솔루션을 아우르는 AI 풀스택 전략을 기반으로 AX 사업 확대에 나설 계획이다. 6조 4000억원 현금 푼다…AI 투자·M&A·주주환원 병행 이번 주총에선 약 6조 4000억원 규모 현금 활용 방안이 주목받았다. 삼성SDS는 이를 기반으로 AI 인프라 투자, 전략적 인수합병(M&A), 주주환원 정책을 병행하는 3축 전략을 제시했다. 우선 AI 인프라 투자가 핵심이다. 회사는 구미 AI 데이터센터와 국가 AI 컴퓨팅센터 구축을 추진하고 있으며 동탄 데이터센터 서관에도 그래픽처리장치(GPU) 전용 서버와 관련 장비 투자를 확대하고 있다. 생성형 AI 확산에 대응해 고성능 컴퓨팅 환경을 선제적으로 확보하기 위한 조치다. 국가AI컴퓨팅센터 구축 등 공공 AI 사업에도 참여하며 시장 영향력 확대에 나서고 있다. 전략적 M&A도 병행한다. 삼성SDS는 업종 특화 IT 기업과 AX, AI 보안, GPU 인프라 기술을 보유한 기업을 중심으로 투자 대상을 검토하고 있다. 특히 클라우드 사업이 산업별 업무 시스템 중심으로 진화하는 흐름에 맞춰 산업 특화 역량 확보에 초점을 맞춘다는 계획이다. 물류 분야에서도 디지털 포워딩 경쟁력 강화를 위한 투자도 추진된다. 주주환원 정책 역시 제시됐다. 회사는 자사주 매입과 소각을 핵심 수단으로 활용하겠다는 입장을 밝혔다. 이 대표는 "자사주 매입과 소각은 주주 가치 제고를 위한 중요한 방법"이라며 "현금 흐름과 투자 계획, 주식 시장 상황 등을 종합적으로 고려해 적절한 시점에 실행하겠다"고 말했다. 삼성SDS의 현금성 자산은 약 6조 4000억원 수준으로, 시가총액 약 12조 8000억원 대비 절반에 달하는 규모다. 투자 여력과 함께 주주환원 확대 기대를 동시에 반영하는 요소로 평가된다. 배당도 확대됐다. 이날 주총에선 전기 2900원 대비 증가한 주당 3190원의 현금 배당이 확정됐다. 실적 개선과 안정적인 현금 흐름을 바탕으로 주주환원 기조를 강화한다는 방침이다. 회사는 현재 약 2만 7000여주의 자사주(발행주식의 약 0.04%)를 보유 중이며 향후 자사주 정책이 주가와 주주가치에 미칠 영향에도 시장의 관심이 집중되고 있다. 이사회 개편 일괄 의결…집중투표제 도입 등 정관 변경 통과 이날 주총에선 거버넌스 개편을 위한 정관 변경도 함께 이뤄졌다. 우선 집중투표제가 도입됐다. 이는 소액주주가 특정 이사 후보에게 의결권을 집중할 수 있도록 하는 제도로, 주주 권한 강화로 풀이된다. 이사 임기도 개정 상법 388조 제2항에 따라 기존 '3년'에서 '3년을 초과하지 못한다'로 정관을 변경했다. 이사회 구성의 유연성을 높이기 위한 조치로 해석된다. 전환사채(CB) 발행 한도도 기존 670억원에서 1조 5000억원으로 대폭 확대됐다. 시가총액 대비 낮았던 기존 한도를 현실화하고 향후 투자 재원 확보를 위한 자본 전략 유연성을 확보한다는 목표다. 이사진 구성도 재정비됐다. 사외이사에는 이재진 서울대 데이터사이언스대학원 원장을, 사내이사로는 김태호 삼성SDS 경영지원담당을 선임했다. 감사위원이 되는 사외이사로는 문무일 법무법인 세종 대표변호사와 박정수 서강대 경제학과 교수를 선임했다. 이 대표에 따르면 문 변호사는 법률·리스크 관리 측면의 전문성을 제공할 예정이다. 박 교수는 재무·경제 분야 전문성을 기반으로 이사회 의사결정의 균형을 보완하는 역할을 맡게 된다. 이 대표는 "이사회 과반을 사외이사로 구성하고 주요 위원회를 사외이사 중심으로 운영해 독립적인 의사결정 구조를 확보하고 있다"며 "주주 가치에 영향을 미치는 주요 사안을 이사회 차원에서 지속 점검하겠다"고 설명했다. 이사 보수한도액은 전기와 동일한 83억원으로 의결됐다. 전기 이사 보수 집행실적은 52억 1000만원이다. 이날 주총은 약 40여분간 진행됐다. 주요 안건은 큰 이견 없이 신속하게 의결됐다. 한 개인 주주는 배당 확대와 안정적인 실적 흐름에 대해 긍정적인 반응을 보이기도 했다. 주총 종료 직후 이준희 대표는 별도의 기자 질의응답 없이 이재진 사외이사를 배웅한 뒤 짧은 인사만 남기고 곧바로 현장을 떠났다. 이 대표는 인사말을 통해 "AI 데이터센터와 AX 사업을 중심으로 실행력을 높이고 글로벌 파트너십을 확대해 지속 가능한 성장을 이어가겠다"며 "주주와 함께 성장의 결실을 나누는 기업으로서 기업가치 제고에 최선을 다하겠다"고 말했다.

2026.03.18 13:06한정호 기자

[현장] 삼성SDS "6조원 현금으로 AI 투자 확대…전략적 M&A 병행"

삼성SDS가 6조원대 현금을 기반으로 인공지능(AI) 인프라 투자와 인수합병(M&A)에 속도를 내며 성장 전략을 본격화한다. 이준희 삼성SDS 대표는 서울 잠실 삼성SDS 캠퍼스에서 열린 제41기 정기 주주총회에서 "2026년은 AI와 클라우드 시장 주도권이 결정되는 중요한 시기"라며 "성장에 초점을 맞춰 투자와 사업 확대를 추진하겠다"고 밝혔다. 삼성SDS는 현재 약 6조 4000억원 규모의 현금을 확보 중이며 이를 바탕으로 AI·클라우드 중심 사업 경쟁력 강화에 집중할 계획이다. 이 대표는 현금 활용 전략과 관련해 "성장을 위한 투자와 주주환원의 균형을 기본 원칙으로 하되, 당분간은 AI와 클라우드 중심 투자에 보다 무게를 둘 것"이라고 설명했다. 구체적으로는 ▲AI 데이터센터 등 인프라 투자 ▲전략적 M&A ▲주주환원 등 세 축으로 현금을 활용한다는 방침이다. 우선 AI 인프라 투자가 핵심이다. 삼성SDS는 구미 AI 데이터센터와 국가AI컴퓨팅센터 구축을 추진하고 있으며 올 1월 개소한 동탄 데이터센터 서관에도 그래픽처리장치(GPU) 기반 설비 투자를 확대하고 있다. 이를 통해 고성능 AI 서비스 제공 기반을 강화한다는 전략이다. 전략적 M&A도 병행한다. 회사는 업종 특화 IT 기업과 AI·보안·GPU 인프라 기술을 보유한 기업을 중심으로 투자 대상을 검토하고 있다. 물류 분야에서도 디지털 포워딩 경쟁력 강화를 위한 국내외 기업 투자에 나설 계획이다. 이 대표는 "최근 클라우드 사업이 인프라 중심에서 산업별 업무 시스템 중심으로 변화하고 있다"며 "이에 맞춰 AI 전환(AX)과 AI 중심 사업 포트폴리오를 강화하겠다"고 말했다. 주주환원 정책도 병행된다. 삼성SDS는 자사주 매입과 소각을 주요 수단으로 제시하며 투자와 환원의 균형을 유지하겠다는 입장이다. 이 대표는 "자사주 매입과 소각은 주주가치 제고를 위한 중요한 방법"이라며 "현금 흐름과 투자 계획을 종합적으로 고려해 적절한 시점에 실행하겠다"고 밝혔다. 삼성SDS는 AI 인프라·플랫폼·솔루션을 아우르는 AI 풀스택 전략을 기반으로 공공·금융 등 다양한 산업으로 AX 사업을 확대하고 AI 데이터센터 및 데이터센터 설계·구축·운영(DBO) 사업을 신규 성장 축으로 육성할 계획이다. 이 대표는 "DBO 사업을 통해 AI 서비스 확산 기반을 마련하는 한편, 스테이블코인과 피지컬 AI 등 신사업도 사업화를 전제로 검토해 미래 성장 동력 확보에 속도를 내겠다"고 강조했다.

2026.03.18 11:42한정호 기자

[현장] 이준희 삼성SDS 대표 "AX 중심 사업 확대…AI 3대 강국 도약 기여"

이준희 삼성SDS 대표가 생성형 인공지능(AI)과 클라우드를 중심으로 사업 구조를 재편하고 AI 전환(AX) 기반 성장을 가속화하겠다는 비전을 제시했다. 이 대표는 서울 잠실 삼성SDS 캠퍼스에서 열린 제41기 정기 주주총회에서 "2026년 우리는 AX 중심의 대외 사업 확대와 미래 성장 동력 발굴을 통해 성장 속도를 더욱 높일 것"이라고 밝혔다. 삼성SDS는 지난해 매출 13조 9299억원, 영업이익 9571억원, 순이익 7827억원을 기록했다. 특히 클라우드 사업을 포함한 IT 서비스 매출 비중이 41%를 넘어 2조 6802억원을 달성하며 사업 구조가 클라우드와 생성형 AI 중심으로 빠르게 전환되고 있다는 점을 강조됐다. 이는 외형 성장뿐 아니라 수익성 개선이 동시에 진행되고 있음을 보여주는 성과라는 설명이다. 이 대표는 AI 사업 경쟁력에 대해 "AI 인프라·플랫폼·솔루션을 아우르는 AI 풀스택 역량을 바탕으로 기업의 성공적인 AX를 위한 최적의 파트너임을 증명하고 있다"고 강조했다. AI 인프라 영역에서는 삼성 클라우드 플랫폼과 함께 AWS, 마이크로소프트 애저, 구글 클라우드, OCI 등 글로벌 클라우드를 고객 맞춤형으로 제공 중이며 최신 그래픽처리장치(GPU) 도입을 통해 고성능 AI 인프라를 선제적으로 구축했다고 덧붙였다. AI 플랫폼 영역에선 생성형 AI 에이전트 플랫폼 '패브릭스'를 통해 삼성 자체 거대언어모델(LLM)을 비롯한 다양한 글로벌 LLM과 기업 업무 시스템을 연계하고 있다. 특히 이 대표는 국내 기업 최초로 오픈AI와 챗GPT 엔터프라이즈 리셀러 계약을 체결해 기업 맞춤형 생성형 AI 서비스 공급 기반을 확보했다고 강조했다. AI 솔루션 분야에선 생성형 AI 기반 협업 솔루션 '브리티웍스'를 중심으로 업무 혁신을 지원하고 있으며 엠로, o9, 세일즈포스, 워크데이, SAP 등 글로벌 SaaS 솔루션도 함께 제공 중이다. 다양한 산업군에서 축적한 컨설팅·구축·운영 경험 역시 경쟁력으로 내세웠다. 아울러 공공 사업과 관련해 이 대표는 "국가정보자원관리원 대구센터를 기반으로 GPU 서비스를 포함한 클라우드를 제공하고 있으며 행안부와 과기정통부가 추진하는 범정부 AI 공통기반 사업과 지능형 업무관리 플랫폼 사업을 수행 중"이라고 말했다. 이어 "국가AI컴퓨팅센터 구축 사업도 단독 입찰해 사업 수행을 준비 중"이라며 "대한민국이 AI 3대 강국으로 도약하는 데 기여하겠다"고 덧붙였다. 회사는 ESG 경영에도 속도를 내고 있다. 재생에너지 전환과 데이터센터 에너지 효율 개선을 추진하는 한편, AI 윤리팀을 신설해 기술 발전에 따른 윤리 리스크 관리 체계도 강화했다. 향후 사업 전략으로는 공공·국방·금융 분야 중심의 클라우드 및 구축형 사업 확대, SAP 기반 전사적자원관리(ERP) 및 글로벌 서비스형 소프트웨어(SaaS) 사업 강화, 물류 사업의 디지털 서비스 고도화 등을 제시했다. 동시에 AX 센터를 중심으로 AI 사업 실행력을 높이고 글로벌 기업과의 전략적 협업을 확대할 계획이다. 특히 AI 데이터센터 및 데이터센터 설계·구축·운영(DBO) 사업을 신규 성장 축으로 육성해 서비스형 GPU(GPUaaS), 패브릭스, 브리티웍스 등 AI 서비스 확산 기반을 마련한다는 방침이다. 이 대표는 미래 사업과 관련해 "스테이블코인과 피지컬 AI 등 신성장 동력도 사업화를 전제로 검토 중"이라고 밝혔다. 그는 "지금은 생성형 AI가 단순한 기술 흐름을 넘어 기업 경쟁력을 좌우하는 핵심 동력으로 자리 잡는 시기"라며 "기술 변화에 맞춰 기업 고객의 현장에서 실행 가능한 AX를 구현하는 파트너로서 지속 가능한 성장과 기업가치 제고에 최선을 다하겠다"고 강조했다.

2026.03.18 11:15한정호 기자

오케스트로, 업스테이지와 한국 소버린 AI 풀스택 구축 '맞손'

오케스트로가 업스테이지와 협력해 클라우드 인프라와 생성형 인공지능(AI) 기술을 결합한 국산 소버린 AI 풀스택 구현에 박차를 가한다. 오케스트로는 지난 16일 서울 여의도 본사에서 업스테이지와 'K-소버린 AI 풀스택 서비스' 구축을 위한 업무협약(MOU)을 체결했다고 17일 밝혔다. 이날 행사에는 김민준 오케스트로 그룹 의장과 김성훈 업스테이지 대표 등 양사 최고경영진이 참석해 AI 기술 주권 확보라는 국가적 과제 해결을 위한 협력 방안을 논의하고 실행 의지를 확인했다. 이번 협약은 양사가 기존에 추진해온 '국가대표 AI' 프로젝트 협력을 기반으로 소버린 AI 서비스 공동 개발을 본격화하기 위해 추진됐다. 오케스트로의 소버린 AI 클라우드 데이터센터 플랫폼과 업스테이지의 생성형 AI 모델·에이전트 기술을 결합해 통합 AI 서비스 환경을 구현하는 것이 핵심이다. 앞서 오케스트로는 과학기술정보통신부 '독자 AI 파운데이션 모델' 프로젝트에서 업스테이지 컨소시엄에 참여하며 기술 협력을 이어왔다. 양사는 이러한 협력 경험을 바탕으로 AI 인프라부터 모델, 서비스까지 아우르는 풀스택 구조를 구축해 시장에 대응할 계획이다. 특히 최근 그래픽처리장치(GPU) 가격 상승과 공급 불안정 등으로 특정 하드웨어(HW) 의존도를 낮춘 AI 환경 구축 필요성이 커지는 상황에서 양사는 다양한 HW 환경에서도 안정적으로 운영 가능한 소버린 AI 인프라 구현에 집중한다. GPU뿐 아니라 국산 신경망처리장치(NPU) 등 다양한 연산 자원을 활용할 수 있는 유연한 구조를 마련한다는 방침이다. 업스테이지는 '솔라 거대언어모델(LLM)'과 '도큐먼트 AI' 등 생성형 AI 기술을 기반으로 최적화된 AI 에이전트 서비스를 제공 중이다. 오케스트로는 AI 서비스 구축과 운영을 지원하는 클라우드 인프라와 플랫폼 기술을 담당해 양사 기술을 통합할 예정이다. 이를 통해 기업이 AI 모델부터 인프라까지 단일 환경에서 운영할 수 있으며 보안성과 확장성을 동시에 확보할 수 있도록 지원한다는 목표다. 양사는 향후 실증 사업과 신규 비즈니스 모델 발굴을 통해 소버린 AI 데이터센터 시장에서 경쟁력을 강화하고 기술 표준화와 생태계 확장에도 나설 계획이다. 김민준 오케스트로 그룹 의장은 "이번 협약을 통해 우리의 소버린 AI 클라우드 인프라 기술과 업스테이지의 생성형 AI 기술 역량을 결합한 K-소버린 AI 풀스택 서비스를 선보일 계획"이라며 "국산 AI 기술을 기반으로 소버린 AI 서비스 모델을 고도화하고 글로벌 시장에서도 K-AI 경쟁력을 입증해 나가겠다"고 밝혔다.

2026.03.17 16:54한정호 기자

네이버클라우드, 한국외대와 미래형 'AI 스마트캠퍼스' 구축한다

네이버클라우드가 대학과 협력해 인공지능(AI) 기반 스마트캠퍼스 구축과 AI 인재 양성에 나선다. 클라우드 인프라와 AI 기술을 교육·연구 현장에 적용해 대학 디지털 전환(DX)을 지원하고 미래형 교육 환경을 구축한다는 구상이다. 네이버클라우드는 한국외국어대학교와 AI 기반 교육·연구 혁신과 AI 전문 인재 양성을 위한 업무협약(MOU)을 체결했다고 16일 밝혔다. 이번 협약은 네이버클라우드 AI 인프라와 기술을 대학 교육 환경에 적용하고 한국외대의 교육 역량과 결합해 미래형 스마트캠퍼스 구축과 AI 중심 대학으로의 전환을 지원하기 위해 마련됐다. 네이버클라우드는 대학 연구 환경에 최적화된 그래픽처리장치(GPU) 인프라를 제공하고 하이퍼클로바X 기반 AI 행정·학습 서비스를 구축할 계획이다. 또 네이버 AI 솔루션과 한국외대의 언어 역량을 결합해 다국어 행정 서비스 등 다양한 AI 기반 교육·행정 서비스를 지원한다. 양 기관은 온·오프라인을 통합한 스마트캠퍼스 환경도 구축한다. 얼굴 인식 기술을 활용한 출입·결제 시스템을 고도화하고 네이버 협업 플랫폼 '네이버웍스'를 기반으로 스마트 행정 및 학습 환경을 조성할 예정이다. AI 인재 양성을 위한 협력도 추진된다. 네이버클라우드 아카데미와 네이버 클라우드 플랫폼 교육 과정을 대학 정규 커리큘럼과 연계하고 인턴십 기회 제공, 채용 박람회 개최, 기술 멘토링 지원 등을 통해 산학 협력 기반의 교육 프로그램을 확대할 방침이다. 김유원 네이버클라우드 대표는 "이번 협력을 통해 AI 기술이 실제 교육과 연구 현장에 활용되는 혁신 생태계를 조성할 것"이라며 "네이버 제2사옥인 1784와 같이 한국외대도 AI와 클라우드를 기반으로 한 혁신 테스트베드가 될 수 있도록 지원하겠다"고 말했다. 강기훈 한국외대 총장은 "네이버클라우드와의 협력은 AI 기반 스마트캠퍼스와 미래형 교육·연구 환경을 함께 만들어 가는 중요한 출발점이 될 것"이라며 "언어·지역·인문 기반의 글로벌 지식과 AI 기술을 결합해 다양한 분야에서 새로운 가치를 창출하는 모범적인 산학협력 모델로 발전하길 기대한다"고 밝혔다.

2026.03.16 11:25한정호 기자

IPO 앞둔 英 엔스케일, 美 AI 데이터센터 부지 인수 추진…인프라 시장 진출 속도

엔비디아의 지원을 받는 영국 기반 인공지능(AI) 클라우드 기업 엔스케일(Nscale)이 미국에서 대형 AI 데이터센터 부지 인수를 추진하며 미국 인프라 시장 진출을 본격화하고 있다. 13일 IT 전문매체 디인포메이션에 따르면 엔스케일은 미국 웨스트버지니아주 메이슨카운티에 위치한 AI 데이터센터 개발 부지 인수를 놓고 협상을 진행 중이다. 이 부지는 미국 내에서 AI 데이터센터 구축이 가능한 대규모 후보지 가운데 하나로 평가된다. 해당 부지는 최대 2GW급 전력 공급이 가능한 것으로 알려졌다. 이는 엔스케일이 추진 중인 차세대 AI 슈퍼클러스터 구축의 핵심 거점이 될 전망이다. 이미 지역 규제 절차를 상당 부분 통과했으며 초기 단계 프로젝트에 필요한 전력 설비 확보도 이뤄진 상태다. 이에 따라 인수 이후 비교적 빠른 시일 내 데이터센터 건설에 착수할 수 있는 것으로 알려졌다. 최근 생성형 AI 확산으로 대규모 그래픽처리장치(GPU) 기반 데이터센터 수요가 급증하면서 미국을 중심으로 AI 인프라 구축 경쟁이 치열해지고 있다. 업계에선 엔스케일이 해당 부지를 확보할 경우 미국 AI 인프라 시장에서 단기간에 존재감을 확보할 수 있을 것으로 보고 있다. 엔스케일은 엔비디아 GPU를 기반으로 AI 연산용 클라우드 서비스를 제공하는 이른바 '네오클라우드' 기업이다. 주요 고객으로는 오픈AI, 마이크로소프트 등이 거론된다. 이 회사는 최근 대형 AI 인프라 구축 계약을 확보하며 사업 확대에 속도를 내고 있으며 기업공개(IPO)도 추진 중인 것으로 알려졌다. 이번 데이터센터 부지 인수는 향후 상장 준비 과정에서 기업 가치를 높이기 위한 전략적 행보로 분석된다. 업계 관계자는 "AI 산업이 빠르게 성장하면서 데이터센터와 전력 같은 물리적 인프라 확보가 기업 경쟁력의 핵심 요소로 떠오르고 있다"며 "대규모 부지를 선점하는 기업이 향후 AI 인프라 시장에서 주도권을 확보할 가능성이 높다"고 말했다.

2026.03.13 10:36장유미 기자

2조원 규모 국가 GPU 확충 닻 올렸다…'AI 고속도로' 시동

정부가 2조원대 예산을 투입해 첨단 그래픽처리장치(GPU) 확충에 나선다. 지난해 1만 3000여 장 확보에 이어 올해는 공모 단계부터 대규모·최신 GPU 클러스터와 연내 서비스 개시를 전면에 내세우며 산학연과 국가 인공지능(AI) 프로젝트를 뒷받침할 'AI 고속도로' 구축을 본격화한다. 과학기술정보통신부는 12일 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모를 이날부터 다음 달 13일까지 진행한다고 발표했다. 국내 AI 생태계 활성화와 AI 3대 강국 도약의 핵심 인프라인 AI 고속도로 구축을 본격 추진한다는 목표다. 이번 사업은 약 2조 805억원을 투입해 첨단 GPU와 통합 운영환경을 민관 협력 방식으로 신속히 확보하는 것이 핵심이다. 협약 기간은 올해 협약 체결 시점부터 2031년 12월 31일까지 약 68개월이다. 올해는 구축과 서비스 개시, 2027년부터 2031년까지는 운영 단계로 이어진다. 정부는 이번 사업 예산을 GPU 서버와 랙, 냉각장치, 스토리지, 네트워크 케이블·스위치, 소프트웨어(SW) 라이선스, 기술지원 패키지 등 구매 비용에 집중 투입할 계획이다. 공고에 따르면 정부는 단순히 GPU 수량을 늘리는 것을 넘어 ▲비용 대비 높은 성능 ▲대규모 클러스터링 ▲직접 클러스터링을 통한 기술력 확보 ▲최신 기종 우선 도입 ▲연내 서비스 개시 등을 중점 추진 방향으로 제시했다. 특히 정부 활용분 가운데 최소 1개 이상 클러스터를 256서버(GPU 2048개) 이상 규모로 구성하는 제안이 우대되며 최신 GPU는 엔비디아 블랙웰급 이상을 기본으로 보고 차세대 베라루빈 제안 시에도 우대한다는 기준을 내세웠다. 사업 참여 대상은 국내에서 클라우드 기반 서비스형 GPU(GPUaaS) 제공·운영이 가능한 사업자다. 단독 또는 컨소시엄 형태 모두 가능하지만 최근 3년 이내 관련 매출과 운영 실적을 사업계획서에 포함해야 한다. 참여 기업은 국내 데이터센터에 상면을 확보하고 같은 공간 또는 같은 층에서 GPU 서버를 물리적으로 집적해야 한다. 대규모 클러스터를 구성할 수 있는 전력·냉각·항온항습·네트워크 인프라 계획도 제출 요건이다. 이는 정부가 단순 조달보다 실제 대형 AI 학습과 추론을 감당할 수 있는 고성능 집적 인프라 구축 역량을 전면 평가하겠다는 것으로 풀이된다. 정부는 공고에 관한 사업설명회를 오는 20일 서울 포스코타워 역삼에서 개최한다. 다음 달까지 공모 접수를 거쳐 오는 4~5월 평가위원회 선정평가와 데이터센터 현장실사를 진행하고 5월 사업수행기관을 확정할 예정이다. 이후 12월까지 협약 체결과 정부출연금 교부, GPU 발주·구축·테스트·연내 서비스 개시가 이어지며 중간보고는 9월, 결과보고와 평가는 내년 1월, 정산은 내년 2월로 예정됐다. 올해 사업은 지난해 GPU 확보 사업의 연장선으로 진행된다. 정부는 지난해 추가경정예산 약 1조 4000억원을 투입해 1만 3000여 장 규모 GPU 확보를 추진했다. 이 사업에는 네이버클라우드·NHN클라우드·카카오가 최종 선정됐다. 이후 정부와 기업이 실무협의체를 구성해 확보·구축·운용 계획과 GPU 통합지원 플랫폼 구축, 산학연 지원 일정 등을 논의해왔다. 민관 협력으로 이달 초부터는 지난해 확보된 정부 GPU가 본격적으로 산학연에 공급되기 시작했다. 이번 공모는 이미 가동을 시작한 1차 공급 체계에 추가 물량과 더 큰 클러스터를 얹는 2단계 확장 사업으로 평가된다. AI 고속도로 구축 속도를 높이고자 정부는 올해 공고에 지난해보다 한층 구체적인 운영 조건도 담았다. 제안사는 전체 GPU 자원 중 자체 활용 허용 자원 비중을 스스로 제안할 수 있지만, 정부 활용 자원 비중이 높을수록 평가에서 우대받는다. 동시에 독자 AI 파운데이션 모델 등 국가 AI 프로젝트와 국내 산학연 대상 지원 계획, 국내 직접 운영·통제 체계, GPU 자원 관리 시스템, 통합 SW 플랫폼, 모니터링과 기술지원 체계 등이 핵심으로 제시됐다. 업계에선 단순 GPU 확보를 넘어 공급·운영·지원이 결합된 상시 GPU 서비스 체계를 만들겠다는 의지로 보고 있다. 정부 주도 대형 AI 인프라 사업인 만큼 어떤 사업자가 이번 공모에 뛰어들지도 주목된다. 지난해 사업에 참여했던 네이버클라우드·NHN클라우드·카카오는 물론, 대형 데이터센터·클라우드 인프라를 보유한 KT클라우드와 같은 주요 클라우드 서비스 기업(CSP)과 GPU 운용 역량을 키우고 있는 통신사업자 등이 경쟁 구도를 형성할 가능성이 거론된다. 공모상 정부가 복수 사업자 선정도 가능하게 열어둔 만큼, 대규모 단일 클러스터 구축 역량과 운영 경험, 보안 인증, 직접 운영 체계 등을 얼마나 설득력 있게 제시하느냐가 관전 포인트다. 특히 정부가 국가 AI 경쟁력 뒷받침을 중점으로 국내 AI 생태계를 실질적으로 지원할 수 있는 운영·지원 능력이 최종 승부를 가를 전망이다. 실제 공고에 기재된 평가 항목엔 총 100점 만점 중 구축계획 우수성이 32점으로 가장 크고 뒤를 이어 AI 생태계 발전 노력이 26점으로 높은 배정이 산정됐다. 이번 사업으로 확보되는 GPU는 대규모 학습과 추론 자원이 필요한 국가 AI 프로젝트, 산학연 연구개발, 스타트업 AI 서비스 고도화 등에 폭넓게 쓰일 전망이다. 정부가 지난해 확보 물량 공급을 시작한 데 이어 올해 추가 공모에 착수하면서 국내 AI 인프라는 초기 확보에서 확장·고도화 단계로 넘어가고 있다. 클라우드 업계 관계자는 "지난해 사업을 통해 국가 AI 생태계를 지원할 GPUaaS 운영 기반이 마련됐다"며 "올해는 규모가 더 커진 만큼 기존 참여 기업을 비롯한 주요 클라우드 사업자들이 참여 여부를 검토하며 경쟁 구도가 형성될 것으로 보인다"고 밝혔다. 배경훈 부총리 겸 과기정통부 장관은 "작년 추경을 통해 확보한 정부 GPU는 현장의 뜨거운 반응과 함께 이달 초부터 본격적으로 산학연에 공급되고 있다"며 "첨단 GPU를 추가로 확보해 더 많은 기업과 연구자들이 좋은 아이디어를 AI로 구현해 볼 수 있도록 지원하고 더 많은 팀이 도전할 수 있도록 정부가 함께 뛰겠다"고 강조했다.

2026.03.12 18:31한정호 기자

에퀴닉스, 분산형 AI 허브 공개…기업 인프라 운영 단순화

에퀴닉스가 새로운 분산형 인공지능(AI) 플랫폼을 앞세워 기업 AI 인프라 운영 단순화와 보안 강화에 박차를 가한다. 에퀴닉스는 '에퀴닉스 패브릭 인텔리전스'를 기반으로 한 '분산형 AI 허브'를 공개했다고 12일 밝혔다. 분산형 AI 허브는 기업이 점점 더 복잡해지고 분산되는 AI 에코시스템을 연결·보호·관리할 수 있도록 지원하는 통합 프레임워크다. 모델 개발사, 그래픽처리장치(GPU) 클라우드, 데이터 플랫폼, 네트워크·보안 서비스, AI 프레임워크 등 다양한 AI 인프라 공급자를 하나의 환경에서 연결해 활용할 수 있도록 지원한다. 에퀴닉스는 전 세계 280개 데이터센터에서 프라이빗 저지연 연결을 제공해 기업이 여러 위치에 분산된 AI 워크로드를 보다 효율적으로 운영할 수 있도록 돕는다. 데이터 이동이나 인프라 재구성 없이도 최적의 성능 환경에서 AI 애플리케이션을 실행할 수 있다. 최근 에이전트 AI 확산으로 AI 워크로드가 퍼블릭 클라우드, 프라이빗 데이터센터, 엣지 환경 등 다양한 위치에 분산되면서 인프라 복잡성이 증가하고 있다. 이러한 환경에선 데이터 위치와 컴퓨팅 자원을 효과적으로 제어하지 못할 경우 지연시간 증가와 운영 관리 부담이 커질 수 있다는 게 회사 측 설명이다. 에퀴닉스는 분산형 AI 허브를 통해 이같은 문제를 해결하고 기업이 보다 간단하고 안전한 방식으로 AI를 운영할 수 있도록 지원한다는 목표다. 분산형 AI 허브는 벤더 중립 환경에서 데이터·컴퓨팅·클라우드 플랫폼·AI 파트너를 통합하는 구조로 설계됐다. 기업은 특정 공급업체에 종속되지 않고 최적의 AI 인프라 구성 요소를 조합해 자체 AI 스택을 구축할 수 있다. 또 일관된 거버넌스 체계를 기반으로 데이터 이동, 모델 연결, 추론 실행, 시스템 관리 등을 통합 운영할 수 있다. 에퀴닉스는 팔로알토 네트웍스와의 연계도 추진했다. 에퀴닉스 고객은 팔로알토 네트웍스의 AI 보안 플랫폼 '프리즈마 AIRS'를 활용해 외부 도구와 데이터 소스 간 에이전트 및 모델 상호작용에 대한 실시간 보호 기능을 적용할 수 있게 됐다. AI 애플리케이션과 데이터 흐름 전반에 대한 가시성과 정책 제어를 확보할 수 있다는 설명이다. 로이드 테일러 알렘빅 최고기술책임자(CTO) 겸 최고정보보호책임자(CISO)는 "에퀴닉스는 분산형 AI 허브로 배치·거버넌스·예측 가능한 성능을 동일한 아키텍처에 통합했다"며 "이는 데이터의 위치와 컴퓨팅 실행 방식을 제어하는 접근법으로 분산형 AI를 실현하는 핵심"이라고 말했다.

2026.03.12 16:53한정호 기자

AWS, AT&T와 통신 인프라 현대화 협력…클라우드·네트워크 역량 결집

아마존웹서비스(AWS)가 클라우드·인공지능(AI) 역량과 광섬유 네트워크를 결합해 차세대 통신 인프라 발전에 속도를 낸다. AWS는 AT&T, 아마존 레오와 미국 통신 인프라 현대화와 차세대 클라우드 혁신을 위한 협력을 추진한다고 12일 밝혔다. 이번 협력은 AT&T의 광범위한 광섬유 네트워크와 AWS의 보안·안정성·고성능 클라우드 인프라, AI 역량을 결합해 탄력적이고 확장 가능한 연결 솔루션을 구축하는 데 초점을 맞췄다. 세 기업은 데이터센터 연결, 클라우드 전환, 위성 네트워크 확장 등 다양한 영역에서 협력을 확대할 계획이다. AT&T는 내부 운영 효율성과 전환 속도를 높이기 위해 일부 온프레미스 워크로드를 AWS의 온프레미스 관리형 하이브리드 클라우드 서비스 'AWS 아웃포스트'로 마이그레이션할 예정이다. 또 AWS 프로페셔널 서비스의 지원을 받아 '아마존 Q 디벨로퍼'와 에이전틱 서비스 등을 활용해 네트워크 서비스 활성화 기능을 AWS로 이전하는 작업을 진행 중이다. AWS의 클라우드 인프라 확장에도 AT&T 네트워크 역량이 활용된다. AT&T는 고용량 광섬유 네트워크로 AWS 데이터센터를 연결해 AI 애플리케이션 구축·운영에 필요한 고성능 클라우드 인프라를 지원할 계획이다. AT&T는 아마존의 저궤도 위성 네트워크 '아마존 레오'와도 협력한다. AT&T는 아마존 레오를 활용해 네트워크 연결 범위를 확대하고 기존 네트워크 인프라가 닿지 않는 지역의 기업 고객에 고정형 광대역 인터넷 서비스를 제공할 방침이다. 숀 하클 AT&T 비즈니스 제품 담당 수석부사장은 "우리 광섬유 인프라와 AWS의 클라우드 역량을 결합하고 데이터센터를 연결해 미래 인프라를 구축할 것"이라며 "탄력적이고 확장 가능하며 지능적인 연결 생태계를 만들 것"이라고 밝혔다. 얀 호프마이르 AWS 통신 부문 부사장은 "AT&T의 첨단 광섬유 네트워킹 리더십과 우리 클라우드·AI 역량을 결합함으로써 미국 전역 고객에게 혁신적인 서비스를 제공할 것"이라고 말했다.

2026.03.12 16:53한정호 기자

이노그리드, 제조 AI 인프라 구축 나선다…산업 클라우드 공략 박차

이노그리드가 제조 산업의 인공지능 전환(AX) 확산 수요를 겨냥한 클라우드 기반 AI 인프라 구축 사업 확대에 나섰다. 이노그리드는 국내 대표 제조 대기업이 추진하는 AI 인프라 시스템 구축 프로젝트를 수행한다고 11일 밝혔다. 이번 사업은 제조 핵심 영역인 생산 설비 기술 업무에 AI 기반 가상화 인프라를 도입하는 프로젝트로, 대규모 산업 현장에서 생성되는 데이터를 안정적으로 수집·저장·분석할 수 있는 클라우드 기반 환경을 구축하는 것이 목표다. 이노그리드는 자사 대표 가상화 솔루션 '오픈스택잇''과 하이퍼컨버지드 플랫폼 '옵티머스잇'을 통합 적용해 제조 환경에 최적화된 AI 인프라를 구현 중이다. 최근 제조 업계에선 설비·센서·계장 장비에서 발생하는 대용량 데이터를 활용해 예지보전, 공정 최적화, 품질 분석 등 AI 기반 운영 혁신을 추진하고 있다. 이에 맞춰 고신뢰성·고확장성·고성능을 동시에 충족하는 클라우드 인프라의 중요성도 빠르게 커지는 추세다. 이노그리드의 오픈스택 기반 서비스형 인프라(IaaS) 오픈스택잇은 안정성과 유연성을 기반으로 빠른 가상 자원 배포와 통합 관리 기능을 제공한다. 특히 그래픽처리장치(GPU) 기반 고성능 컴퓨팅(HPC) 환경을 지원해 AI 워크로드에 적합한 인프라 구현을 지원한다. 이와 함께 적용되는 옵티머스잇은 하이퍼컨버지드 인프라(HCI) 기반 일체형 클라우드 구조를 통해 구축 효율성을 높이고 제조 현장의 운영 특성에 맞춰 클러스터 단위로 확장할 수 있는 구조를 갖췄다. 이번 프로젝트는 단순한 가상화 시스템 도입을 넘어 제조 기업이 AI 분석 체계를 안정적으로 운영할 수 있는 기반을 마련하는 사례로 평가된다. 이노그리드는 ▲고신뢰성 인프라 ▲실시간 자원 확장성 ▲일원화된 통합 관리 체계를 구현해 제조 공정 데이터의 활용 가치를 극대화할 계획이다. 앞서 이노그리드는 공공·금융·민간 산업 전반에서 가상화 및 클라우드 인프라 구축 경험을 축적해왔다. 이번 프로젝트를 토대로 제조 AI 인프라 시장에서의 기술 경쟁력을 본격적으로 입증할 방침이다. 향후 스마트팩토리 및 산업 AI 확산을 위한 대표 레퍼런스로 자리매김할 것으로 예상된다. 김명진 이노그리드 대표는 "이번 프로젝트는 대규모 제조 환경에서 AI 워크로드를 안정적으로 수용할 수 있는 클라우드 인프라를 구현하는 사례"라며 "AI 클라우드 기술과 전문성을 바탕으로 산업 현장의 디지털 전환을 가속하고 제조 AI 인프라 시장에서 기술 중심의 AI 인프라 전문기업으로서 입지를 강화해 나가겠다"고 밝혔다.

2026.03.11 18:18한정호 기자

[종합] 공공시스템 2030년까지 클라우드 전면 전환…변수는 예산·부처 협력

정부가 2030년까지 행정·공공 정보시스템을 클라우드 기반으로 전면 전환하는 정책을 공식화하면서, 국내 클라우드 산업에 대형 수요가 창출될 전망이다. 다만 업계에선 제도 정비와 예산 확보, 부처 간 협력 체계가 뒷받침되지 않으면 정책 실행력이 떨어질 수 있다는 우려도 함께 제기된다. 배경훈 부총리 겸 과학기술정보통신부 장관은 11일 정부서울청사에서 열린 제5회 과학기술관계장관회의에서 '행정·공공시스템의 클라우드 네이티브 전환 현황 및 향후 추진방향(안)'을 확정하고 2030년까지 범정부 정보시스템을 클라우드 기반으로 전면 전환하겠다고 밝혔다. 정부에 따르면 현재 행정·공공 정보시스템의 클라우드 전환율은 약 42.4% 수준이다. 정부는 전 행정기관의 정보시스템을 대상으로 클라우드컴퓨팅 적용 현황을 전수 조사한 뒤 단계적 전환 로드맵을 올해 4분기까지 마련할 계획이다. 특히 국민 체감도가 높고 파급효과가 큰 핵심 정보시스템을 우선 대상으로 선정해 클라우드 네이티브 방식으로 전환을 추진한다. 클라우드 네이티브는 애플리케이션 설계 단계부터 클라우드 기술을 적용해 확장성과 안정성을 극대화하는 방식으로, 기존 시스템을 단순 이전하는 리프트 앤 시프트 방식보다 고도화된 클라우드 전환 전략으로 평가된다. 정부는 공공 정보화 사업 추진 시 민간 클라우드 적용 여부를 의무적으로 검토하도록 제도 개선도 병행할 방침이다. 이번 발표는 지난달 25일 열린 국가인공지능(AI)전략위원회 제2차 전체회의에서 논의된 AI 정부 인프라 혁신 전략과도 맞물린다. 당시 AI정부 인프라 거버넌스·혁신 TF는 2030년까지 약 1만 5000여 개 정부 정보시스템에 대해 등급별 재해복구(DR) 체계를 구축하고 민간 클라우드 활용을 확대하는 방안을 제시했다. 정부는 국가정보원 국가망보안체계(N2SF)에 따라 데이터를 기밀(C)·민감(S)·공개(O) 등급으로 구분하고 기밀 데이터는 공공 인프라에서 관리하되 민감·공개 데이터는 민간 클라우드와 데이터센터를 적극 활용하는 하이브리드 구조로 전환할 계획이다. 분산형 인프라와 액티브-액티브 DR 체계를 구축함으로써, 지난해 국가정보자원관리원 화재로 신뢰를 잃은 국가 디지털 인프라의 안정성을 높인다는 목표다. 이같은 방향은 공공 디지털 인프라를 AI 중심 구조로 재편하려는 정부 AI 전환(AX) 전략의 핵심 인프라 정책으로도 평가된다. 이번 과기장관회의에서도 클라우드 전환 정책은 AI 활용 확대, 전략기술 육성 등과 함께 국가 디지털 전환 기반 구축 과제로 논의됐다. 정책 실행력을 좌우할 핵심 변수로는 예산과 범정부 협력 체계가 꼽힌다. 행정안전부에 따르면 올해 공공 클라우드 네이티브 전환 예산은 652억원으로 전년 725억원 대비 약 10% 감소했다. 다만 공공 AX 예산 가운데 156억원이 클라우드 이용료로 별도 편성돼 실질적인 클라우드 활용 지원은 확대된 구조라고 밝힌 바 있다. 업계에선 정책 방향 자체에는 긍정적인 평가가 나오지만, 실제 사업 추진 과정에서는 제도 정비와 예산 확보가 관건이 될 것으로 보고 있다. 클라우드 업계 관계자는 "정부가 공공 정보시스템을 클라우드로 전면 전환하겠다는 방향을 공식적으로 제시한 것은 산업 측면에서 긍정적인 신호"라며 "다만 기존 클라우드 보안인증(CSAP) 체계와 N2SF, 국정원 보안 절차 등 복잡하게 얽힌 제도 구조가 정리돼야 사업 추진 속도가 붙을 것"이라고 말했다. 또 다른 관계자는 "행안부가 공공 정보시스템을 관리하고 있어 실제 전환 과정에서는 과기정통부뿐 아니라 범부처 간 긴밀한 협력이 중요할 것"이라며 "각 시스템을 등급별로 분류하고 어떤 시스템을 어떻게 이전할지 명확하게 설계하지 않으면 정책 해석 차이로 사업이 지연될 수 있다"고 짚었다. 특히 공공기관의 클라우드 이전 비용 부담도 현실적인 과제로 꼽힌다. 기관들이 클라우드로 이전하려 해도 자체 예산이 부족한 경우가 많다는 지적이다. 이 상황 속 정책 실행력을 확보하려면 전환 비용과 운영 비용에 대한 정부 차원의 재정 지원이 필요하다는 목소리가 나온다. 업계는 이번 정책이 본격 추진될 경우 공공 클라우드 시장이 중장기적으로 크게 확대될 것으로 기대하고 있다. 정책 발표 이후 실제 사업 발주까지 이어지는 과정에서 규제 정비와 실행 로드맵이 얼마나 구체적으로 마련되느냐가 시장 확대 속도를 좌우할 것으로 전망된다. 업계 관계자는 "공공부문 클라우드 전환은 이제 방향성보다 실행력이 더 중요한 단계"라며 "정부가 단순한 인프라 이전을 넘어 공공 시스템 운영 역량과 AI 기반 서비스 구조까지 함께 고려해 설계해야 정책 효과가 극대화될 것"이라고 강조했다.

2026.03.11 17:53한정호 기자

김민준 오케스트로 그룹 의장, '디지털정부 발전 유공' 대통령 국민포장 수훈

국산 인공지능(AI)·클라우드 기술로 디지털정부 발전에 기여해 온 김민준 오케스트로 그룹 의장이 공로를 인정받았다. 오케스트로 그룹은 지난 9일 판교테크노밸리 경기창조경제혁신센터에서 열린 AI 국민비서 시범서비스 개통식에서 김 의장이 '디지털정부 발전 유공' 대통령 국민포장을 수훈했다고 11일 밝혔다. 포장은 훈장과 함께 대통령이 수여하는 최고 권위의 국가 서훈으로, 국가 발전과 더불어 정치·경제·사회·교육·학술 분야 발전에 이바지한 공적이 뚜렷한 사람에게 수여되는 국가 포상이다. 이번 디지털정부 발전 유공 포상에서는 대통령 포장 1명과 표창 3명 등 총 4명에게 포상이 수여됐으며 김 의장은 국민포장을 받은 유일한 수훈자로 이름을 올렸다. 그는 국산 AI·클라우드 기술 개발을 이끌며 디지털 행정 혁신과 공공 서비스 고도화, 공공부문 AI 활용 확대와 산업 경쟁력 강화에 기여한 공로를 인정받았다. 이번 수훈에는 김 의장이 이끄는 오케스트로가 국가 연구개발(R&D) 과제와 주요 AI 프로젝트에 참여해 온 성과도 반영됐다. 특히 오케스트로는 국가대표 AI를 선정하는 독자 AI 파운데이션 모델 프로젝트에서 공공부문 생성형 AI 서비스 구현을 전담하고 있다. 또 오케스트로는 서버 가상화 솔루션 '콘트라베이스'를 중심으로 외산 가상화 솔루션이 주도한 국내 가상화 시장에서 독자 기술력을 바탕으로 입지를 넓혀 왔다. 공공·금융·제조·통신 등 주요 산업의 VM웨어 환경을 콘트라베이스로 전환하며 지난해 윈백 매출 100억원을 돌파했다. 최근에는 공공·기업 환경에서 데이터 주권과 인프라 통제권을 확보할 수 있는 소버린 AI 클라우드 데이터센터 솔루션도 선보였다. 해당 서비스는 서비스형 인프라(IaaS)부터 플랫폼·데브옵스·AI 운영관리·마이그레이션·재해복구(DR) 등 풀스택 솔루션을 단일 통합 패키지로 제공해 프라이빗 소버린 AI 환경을 지원한다. 오케스트로는 이 패키지 기술을 일본 AI 데이터센터에 수출해 그래픽처리장치(GPU) 가상화 기반 대규모언어모델(LLM) 환경을 구현했다. 이를 계기로 글로벌 시장 협력과 사업 확대도 이어지고 있다. 김 의장은 "이번 대통령 국민포장 수훈은 우리의 국산 AI·클라우드 기술이 디지털정부 혁신과 공공 서비스 발전에 기여한 성과를 인정받은 결과"며 "앞으로도 소버린 AI 클라우드 기술 고도화를 통해 디지털 주권을 강화하고 국내 AI 산업 경쟁력 제고에 기여하겠다"고 말했다.

2026.03.11 16:16한정호 기자

[현장] 레드햇 "AI 운영 핵심은 추론 인프라…오픈소스 플랫폼 지원 확대"

레드햇이 기업의 인공지능(AI) 도입 확대에 맞춰 AI 추론 인프라와 하이브리드 클라우드 기반 플랫폼 지원을 강화한다. 그래픽처리장치(GPU) 활용 효율과 AI 운영 거버넌스를 동시에 확보하는 플랫폼 전략을 앞세워 AI 서비스 구축과 운영을 지원한다는 목표다. 최원영 한국레드햇 전무는 11일 양재 엘타워에서 열린 '레드햇 테크데이'에서 "기업이 AI 서비스를 운영하려면 추론 아키텍처와 GPU 활용 전략을 포함한 통합 플랫폼 접근이 필요하다"며 "오픈소스 기반 플랫폼 '레드햇 AI'를 통해 AI 도입·운영을 지속 지원할 것"이라고 강조했다. 이날 행사는 AI-레디 하이브리드 클라우드 플랫폼 구축 전략을 주제로 기업 AI 환경 구축을 위한 인프라와 플랫폼 전략을 공유하는 자리로 마련됐다. 행사에는 300여 명의 고객과 파트너가 참석했다. 최 전무에 따르면 최근 생성형 AI와 멀티 에이전트 기반 서비스가 확산되면서 AI 모델의 실제 서비스 단계인 추론 영역의 중요성이 커지고 있다. AI 에이전트는 단순 질의응답을 넘어 계획 수립, 도구 호출, 결과 검증 등 여러 단계를 거치기에 연산량과 토큰 사용량이 크게 증가하는 추세다. 그는 "AI 에이전트 기반 서비스는 단순한 거대언어모델(LLM) 응답보다 훨씬 많은 추론 연산이 필요하다"며 "이 과정에서 GPU 자원을 얼마나 효율적으로 활용하느냐가 기업 AI 운영의 핵심 과제가 되고 있다"고 설명했다. 레드햇은 이를 지원하고자 '오픈시프트'를 중심으로 한 레드햇 AI 플랫폼 전략을 추진 중이다. 해당 플랫폼은 다양한 오픈소스 기반 AI 도구를 통합해 기업 환경에서 안정적으로 운영할 수 있도록 지원한다. 레드햇 AI 플랫폼은 ▲AI 엔터프라이즈 ▲오픈시프트 AI ▲엔터프라이즈 리눅스 AI ▲AI 인퍼런스 서버 등으로 구성된다. 특히 가상 거대언어모델(vLLM) 기반 AI 인퍼런스 서버를 통해 다양한 GPU와 가속기 환경에서 대규모 AI 모델을 효율적으로 운영할 수 있도록 지원한다. 또 GPU 자원을 여러 사용자와 서비스가 유연하게 공유할 수 있는 서비스형 GPU(GPUaaS) 구조도 제공한다. 기업이 보유한 GPU 자원을 보다 효율적으로 활용하고 AI 인프라 비용 부담을 줄인다는 목표다. 레드햇은 최근 글로벌 오픈소스 커뮤니티와 함께 엔비디아와 AMD GPU, 구글 텐서처리장치(TPU), 나아가 국내 AI 반도체 기업 리벨리온의 신경망처리장치(NPU) 등 다양한 AI 가속기에 대한 최적화도 진행 중이다. AI 플랫폼 생태계 확대도 박차를 가한다. 레드햇은 엔비디아와 협력해 DGX 시스템에 AI 플랫폼을 통합하는 '레드햇 AI 팩토리 위드 엔비디아' 협력 모델을 지난달 발표했다. 현재 엔비디아 블랙웰 플랫폼과 통합됐으며 향후 차세대 루빈 플랫폼과의 연계도 추진할 계획이다. 이날 행사에선 한전KDN이 레드햇 오픈시프트 기반 클라우드 네이티브 환경을 통해 전력 제어 시스템을 현대화하는 프로젝트 사례도 소개됐다. 한전KDN은 현재 10년 규모의 변전소 원격 감시·제어 시스템(SCADA) 개발 프로젝트를 진행 중이다. 기존 시스템 중심 구조에서 벗어나 유연성과 확장성을 갖춘 클라우드 플랫폼 기반으로 전환하는 것이 목적이다. 배선준 한전KDN 차장은 "전력 제어 시스템은 수많은 변전소에서 데이터를 수집하고 실시간으로 제어해야 하기에 안정성과 운영 효율성이 무엇보다 중요하다"며 "레드햇 오픈시프트 플랫폼을 통해 개발 자동화와 지속적 통합·배포(CI/CD) 체계를 구축하고 클라우드 네이티브 전환을 추진 중"이라고 밝혔다. 이어 "컨테이너 기반 환경으로 장애 발생 시 영향 범위를 격리하고 신속하게 대응할 수 있는 구조를 구축해 한국전력 제어 시스템을 고도화할 것"이라고 덧붙였다. 레드햇은 오픈소스 기반 플랫폼이 기업의 기존 IT 인프라와 AI 워크로드를 통합 운영하는 데 적합하다고 강조했다. 특히 하이브리드 클라우드 환경에서 애플리케이션과 AI 서비스를 단일 플랫폼 레드햇 AI에서 관리할 수 있다는 점을 주요 강점으로 내세웠다. 최 전무는 "AI도 기존 IT 환경과 마찬가지로 보안과 거버넌스를 함께 고려해야 한다"며 "기업이 기존 IT 운영 플랫폼 위에서 AI를 통합적으로 관리할 수 있도록 지원할 것"이라고 말했다.

2026.03.11 15:46한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

57.2조 축포 쏜 삼성전자, DX 재편·노조 파업 불확실성 직면

"FSD 되는 테슬라 빌려타면 되네?"...쏘카 큰그림 엿보니

[AI는 지금] "클로드서 코덱스로 갈아탄다"…앤트로픽, 보안·토큰비 논란에 '흔들'

[현장] 메타, 스마트 글래스 연내 한국 출시…몰래 촬영하면?

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.