AI 시대 핵심은 '통제권'… 레드햇, 오픈소스 기반 '소버린 AI' 비전 제시
레드햇이 급격히 확산되는 인공지능(AI) 시대 속에서 소버린 AI의 중요성을 강조했다. 특정 벤더나 폐쇄형 플랫폼에 종속되지 않고 기업과 정부가 데이터와 인프라를 직접 통제할 수 있는 환경을 구축해야 한다는 것이다. 이를 실현하기 위한 해법으로 오픈소스와 하이브리드 클라우드를 기반으로 한 개방형 혁신 전략을 내세우며 AI의 주권과 신뢰를 동시에 확보할 수 있는 방향을 제시했다. 레드햇은 28일 서울 강남구 웨스틴 서울 파르나스 호텔에서 '레드햇 서밋 커넥트 2025' 기자간담회를 톨해 오픈소스 기반의 'AI 주권(Sovereign AI)' 전략과 차세대 엔터프라이즈 AI 혁신 방향을 발표했다. 레드햇 서밋 커넥트 2025는 아시아태평양 지역 최대 규모의 오픈소스 기술 행사로 기업과 개발자, 기술 파트너가 한자리에 모여 최신 IT 트렌드와 오픈소스 혁신 전략을 공유하는 자리다. 올해 '기술의 전환점, 함께 성장할 시대(Unlock What's Next)'를 주제로 AI·클라우드·자동화를 아우르는 다양한 세션과 데모를 통해 기업이 복잡한 IT 환경 속에서 어떻게 오픈소스 기술로 혁신을 가속화할 수 있는지 구체적인 방안을 제시했다. 이에 따라 레드햇 빈센트 칼데이라 아태지역(APAC) 최고기술책임자(CTO)와 김경상 한국레드햇 대표가 AI와 클라우드가 간담회에서 기술 전략을 제시했다. 빈센트 칼데이라 CTO는 급변하는 환경에서 필수적인 요소는 소버린 AI라며 이를 실현하는 핵심 기술로 오픈소스를 강조했다. 소버린 AI가 단순히 기술의 문제가 아니라 국가와 기업이 AI 활용 과정에서 통제력과 신뢰를 확보하기 위한 전략적 선택이라는 설명이다. 그는 "AI는 더 이상 기술적 진보의 문제가 아니라 데이터와 인프라에 대한 통제와 신뢰 확보가 경쟁력의 본질이 되고 있다"며 "특히 최근 AI가 정부 행정, 금융, 의료 등 사회 전반의 의사결정 과정에 깊숙이 들어오면서 데이터가 어디에 저장되고 어떤 기준으로 처리되는지가 중요해졌다"고 강조했다. 이에 따라 각국 정부와 기업은 외부 기술 종속을 줄이고 자국 내에서 데이터를 통제할 수 있는 기술적 주권을 확보해야 한다는 것이다. 칼데이라 CTO는 "오픈소스는 투명성과 감사 가능성을 바탕으로, 기업과 정부가 특정 벤더에 종속되지 않고 자율적으로 AI 인프라를 구축하고 운영할 수 있도록 한다"며 "특히 오픈 하이브리드 클라우드 환경에서는 AI 워크로드를 유연하게 배치하고, 각국이 데이터 주권을 유지한 채 기술 혁신을 지속할 수 있다”고 설명했다. 이어 “AI의 신뢰성과 규제 준수는 폐쇄형 시스템보다 개방형 생태계에서 더 효과적으로 구현된다"며 "레드햇은 오픈소스를 통해 고객이 데이터와 인프라를 직접 통제하면서도 글로벌 오픈 커뮤니티의 기술 혁신을 적극적으로 활용할 수 있도록 지원하고 있다"고 덧붙였다. 칼데이라 CTO는 소버린 AI의 4대 구성 요소로 ▲데이터 통제와 거버넌스 ▲보안 및 신뢰성 확보 ▲하이브리드 클라우드 컨트롤 ▲로컬 생태계 구축을 꼽았다. 그는 "레드햇은 오픈 하이브리드 클라우드 플랫폼을 통해 고객이 자체 클라우드와 AI 환경을 구축하고 관리할 수 있도록 돕고 있다"며 "이는 기술 주권과 디지털 자립을 위한 오픈소스의 실질적 구현"이라고 덧붙였다. 칼데이라 CTO는 AI 확산 과정에서 기업들이 가장 큰 어려움을 겪는 부분으로 '추론 효율성'을 지적했다. 많은 기업이 개념 검증(PoC) 단계에서는 AI가 잘 작동한다고 평가하지만 실제 서비스 환경에서 수천·수백만 요청이 발생하면 비용이 급격히 증가하며 투자수익률(ROI)을 만족시키지 못한다는 것이다. 특히 그는 GPU 인프라 활용률 문제를 지적하며 "GPU를 확보한 기업 중 7%만이 85% 이상의 활용률을 달성하고 있다"고 밝혔다. GPU 자원의 공유와 효율적 분배가 어려워 비용 낭비가 커지고 AI 확산의 발목을 잡고 있다는 것이다. 레드햇은 이러한 한계를 극복하기 위해 오픈소스 기반의 효율적 대규모언어모델 추론 엔진(vLLM)과 분산 대규모언어모델 추론 프레임워크(llm-d) 기술을 제시했다. vLLM은 페이지드 어텐션과 연속 배칭 기술을 적용해 GPU 메모리 사용을 크게 개선하고 처리량을 대폭 높인다. llm-d는 쿠버네티스 네이티브 분산 추론 프레임워크로 vLLM을 기반으로 AI-인식 라우팅, 동적 오토스케일링 등을 통해 다양한 클라우드 및 가속기 환경에서 대형 언어모델 추론을 확장 가능하게 한다. 칼데이라 CTO는 "AI 효율성을 높이는 일은 단순히 비용 절감이 아니라, AI를 실제 비즈니스로 전환할 수 있는 핵심 조건"이라며 "vLLM과 llm-d를 통해 기업은 클라우드 네이티브 환경에서 보다 유연하고 비용 효율적인 AI 운영이 가능해질 것"이라고 말했다. 레드햇은 이날 차세대 통합 AI 플랫폼 '레드햇 AI 3(Red Hat AI 3)'도 공식 발표했다. AI 3는 효율적인 추론, 에이전틱(Agentic) AI 혁신, 데이터와 모델의 연결, 하이브리드 클라우드 전반의 확장성이라는 4가지 영역을 중심으로 설계됐다. 이번 버전에는 분산 추론 기능과 향상된 vLLM, 생성형 AI 스튜디오, 모델 컨텍스트 프로토콜(MCP), 라마스택(Llama Stack) API가 포함됐다. 또한 문서 처리 툴킷 '도클링(Docling)' 기반의 데이터 전처리, 합성 데이터 생성, 훈련 허브(Training Hub), 서비스형 GPU(GPUaaS)와 서비스형 모델(MaaS), 데이터 드리프트 감지 등 기능이 새롭게 추가됐다. 칼데이라 CTO는 "레드햇 AI 3는 오픈시프트 위에서 구동되며, 고객이 이미 익숙한 클라우드 운영 방식을 유지한 채 AI 워크로드를 손쉽게 확장할 수 있게 한다"며 "레드햇은 고객에게 완전히 새로운 플랫폼을 요구하지 않는다. 오픈시프트의 기반 위에 AI를 얹어, 이미 구축된 인프라 자산을 최대한 재활용할 수 있도록 지원하고 있다"고 덧붙였다. 김경상 한국레드햇 대표는 지난해부터 레드햇이 추진해 온 핵심 전략으로 AI 대중화를 꼽았다. 그는 올해 들어 AI 오픈소스 커뮤니티의 활성화와 엔터프라이즈 환경에서 사용할 수 있는 오픈소스 AI 플랫폼 제공이라는 두 가지 방향에서 의미 있는 성과를 거뒀다고 평가했다. 그는 국내 시장에서 특히 '오픈 협력 생태계' 구축에 속도를 내고 있다고 강조했다. 레드햇은 국산 반도체 스타트업 리벨리온과 협력해 NPU(신경처리장치)의 오픈시프트(OpenShift) 인증을 완료했으며 이를 기반으로 AI 인프라 최적화를 지원하고 있다. 또 개발자와 기업 고객을 대상으로 한 첫 번째 공식 vLLM 밋업을 개최해 오픈소스 AI 기술을 공유하고 협업 생태계를 확대했다. 김 대표는 레드햇의 차세대 AI 플랫폼 '레드햇 AI 3(Red Hat AI 3)'를 중심으로 국내 기업들의 AI 전환을 본격적으로 지원하겠다는 계획도 밝혔다. 그는 "많은 기업이 AI 파일럿 단계를 넘어 상용화를 추진하고 있지만, 여전히 고비용 GPU 인프라와 맞춤형 AI 구축의 부담이 크다"며 "레드햇은 GPU 가상화와 자원 효율화 기술을 통해 비용을 줄이고, 각 기업의 데이터와 환경에 맞는 맞춤형 AI 플랫폼을 제공하고 있다"고 설명했다. 또한 레드햇의 핵심 운영체제인 '레드햇 엔터프라이즈 리눅스(RHEL)'의 역할도 강조했다. 그는 "RHEL은 이미 통신, 금융, 유통 등 산업 전반에서 안정적인 인프라로 자리 잡았다"며 "내년에는 AI 환경에 최적화된 RHEL 10을 통해 고객들이 AI와 클라우드를 더욱 긴밀하게 통합할 수 있도록 지원할 것"이라고 밝혔다.