• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'레드햇'통합검색 결과 입니다. (54건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[현장] 레드햇 "RHEL10, 소프트 리부트·이미지 모드로 다운타임 잡는다"

사이버 위협이 고도화하면서 기업 정보기술(IT) 인프라의 보안 관리 부담이 커지는 가운데 레드햇이 공개 취약점(CVE) 제로(ZERO)를 목표로 운영체제(OS)부터 컨테이너 애플리케이션까지 아우르는 선제적 보안 전략을 공개했다. 매년 취약점 공세가 거세지는 상황에서 패치 적용을 미루게 만드는 운영 부담을 기술적으로 해소하겠다는 구상이다. 최원영 레드햇 전무는 25일 서울 영등포구에서 열린 제로 CVE를 위한 대응 전략 미디어 간담회에서 "기업이 보안 패치를 미루는 가장 큰 원인은 서비스 다운타임 부담"이라며 레드햇 엔터프라이즈 리눅스(RHEL) 10 신기능 중심의 CVE 대응 방안을 소개했다. CVE는 시간이 갈수록 증가하는 추세다. 1999년 CVE 제도가 처음 도입된 해 894건이던 등록 건수는 2024년 4만297건으로 25년 새 45배 이상 늘었다. 현실 악용으로 이어지는 비율은 전체의 0.47% 수준이지만 절대 건수로는 188건에 달해 어느 취약점이 공격에 활용될지 사전에 가려내기 어렵다고 최 전무는 설명했다. 취약점이 늘어도 패치가 제때 적용되지 않는 데엔 기술 외적인 요인이 크다. 최 전무는 기업의 패치 기피 원인으로 ▲운영 서버는 건드리지 않는다는 조직 관행 ▲패치 작업이 자기 업무 부담으로 이어진다는 실무자의 저항 ▲서비스 장애 책임을 피하려는 임원의 현상 유지 선호를 제시했다. 기술적 해법 이전에 조직 전반의 보안 인식과 운영 문화가 선행돼야 하는 이유다. 레드햇은 커뮤니티 기반 무료 리눅스 배포판과의 차별점으로 선제적 취약점 대응 체계를 제시한다. 커뮤니티 리눅스는 CVE 발생 시 조직이 직접 취약점을 조사하고 패치를 검증해야 하지만, RHEL 10은 레드햇이 위협을 상시 모니터링하고 가능하면 3일 이내에 검증된 패치를 제공한다. 핵심은 재시작 방식의 전환에 있다. 베어메탈 환경에서 커널 업데이트 시 하드웨어 점검을 포함하는 기존 하드 리부트는 최소 15분에서 최대 30분의 서비스 중단을 수반한다. RHEL 10이 제공하는 소프트 리부트는 하드웨어 초기화 단계를 건너뛰고 소프트웨어 영역만 재시작해 중단 시간을 약 15초 수준으로 단축한다. 보안 패치 적용의 심리적·운영적 장벽을 낮춰 취약한 상태로 방치되는 기간 자체를 줄이겠다는 접근이다. 이미지 모드는 취약점 관리 방식을 바꾸는 또 다른 축이다. 기존엔 서버마다 개별 패키지를 업데이트하다 보니 패키지 간 버전 충돌이나 잘못된 패치 적용 등 오류가 생기기 쉬웠다. 이미지 모드는 보안 검증을 마친 단일 골든 이미지를 사전 제작하고 모든 시스템에 동일하게 배포하는 방식이다. 이미지를 부팅하는 것만으로 업데이트가 완료된다. 최 전무는 "레드햇 새틀라이트와 앤서블 오토메이션 플랫폼을 결합하면 대규모 환경에서도 자동화된 이미지 배포가 가능하다"며 "인터넷이 제한된 폐쇄망에서도 운용할 수 있다"고 설명했다. 다만 레드햇은 OS 보안만으로 충분하지 않다고 본다. 애플리케이션이 컨테이너 이미지 형태로 운영되는 환경에선 OS가 안전해도 이미지 내 CVE가 침해 경로가 될 수 있다. 레드햇이 준비 중인 '프로젝트 허밍버드'는 CVE가 해소되고 기능 테스트까지 완료된 컨테이너 이미지를 제공하는 저장소 서비스다. 정기 주기 업데이트가 아닌 취약점 확인 즉시 패치 이미지를 공급하는 방식으로, 기업은 직접 이미지를 빌드하거나 패치를 개발할 필요 없이 검증된 최신 이미지로 교체할 수 있다. 실제 운영 환경에서의 취약점 관리는 4단계 순환 구조로 이뤄진다. 먼저 레드햇 새틀라이트에 호스트를 등록하고 인공지능(AI) 어시스턴트 라이트스피드로 취약점을 분석한다. 이후 패치 적용을 위한 플레이북을 자동 생성해 실행하고 조치 결과를 리포트로 확인하는 방식이다. 이 과정은 반복 적용이 가능해 대규모 서버 환경에서도 일관된 보안 수준을 유지할 수 있다. 장기 보안 로드맵으로는 포스트 양자 암호화(PQC)도 제시됐다. RHEL 10.1에선 패키지 서명과 네트워크 보안에 PQC가 기본 적용될 예정이며 RHEL 9.7에서도 단계적으로 제공된다. 복잡하게 분화된 기존 지원 옵션들을 단일 모델로 통합해 최대 14년 라이프사이클을 제공하는 RHEL 포에버(4EVR) 정책도 함께 소개됐다. 최 전무는 "AI 시대에서 취약점이 없는 상태를 유지하려면 OS 인프라의 견고함과 최신성이 기반이 된다"고 피력했다.

2026.03.25 17:05이나연 기자

[현장] 레드햇 "AI 운영 핵심은 추론 인프라…오픈소스 플랫폼 지원 확대"

레드햇이 기업의 인공지능(AI) 도입 확대에 맞춰 AI 추론 인프라와 하이브리드 클라우드 기반 플랫폼 지원을 강화한다. 그래픽처리장치(GPU) 활용 효율과 AI 운영 거버넌스를 동시에 확보하는 플랫폼 전략을 앞세워 AI 서비스 구축과 운영을 지원한다는 목표다. 최원영 한국레드햇 전무는 11일 양재 엘타워에서 열린 '레드햇 테크데이'에서 "기업이 AI 서비스를 운영하려면 추론 아키텍처와 GPU 활용 전략을 포함한 통합 플랫폼 접근이 필요하다"며 "오픈소스 기반 플랫폼 '레드햇 AI'를 통해 AI 도입·운영을 지속 지원할 것"이라고 강조했다. 이날 행사는 AI-레디 하이브리드 클라우드 플랫폼 구축 전략을 주제로 기업 AI 환경 구축을 위한 인프라와 플랫폼 전략을 공유하는 자리로 마련됐다. 행사에는 300여 명의 고객과 파트너가 참석했다. 최 전무에 따르면 최근 생성형 AI와 멀티 에이전트 기반 서비스가 확산되면서 AI 모델의 실제 서비스 단계인 추론 영역의 중요성이 커지고 있다. AI 에이전트는 단순 질의응답을 넘어 계획 수립, 도구 호출, 결과 검증 등 여러 단계를 거치기에 연산량과 토큰 사용량이 크게 증가하는 추세다. 그는 "AI 에이전트 기반 서비스는 단순한 거대언어모델(LLM) 응답보다 훨씬 많은 추론 연산이 필요하다"며 "이 과정에서 GPU 자원을 얼마나 효율적으로 활용하느냐가 기업 AI 운영의 핵심 과제가 되고 있다"고 설명했다. 레드햇은 이를 지원하고자 '오픈시프트'를 중심으로 한 레드햇 AI 플랫폼 전략을 추진 중이다. 해당 플랫폼은 다양한 오픈소스 기반 AI 도구를 통합해 기업 환경에서 안정적으로 운영할 수 있도록 지원한다. 레드햇 AI 플랫폼은 ▲AI 엔터프라이즈 ▲오픈시프트 AI ▲엔터프라이즈 리눅스 AI ▲AI 인퍼런스 서버 등으로 구성된다. 특히 가상 거대언어모델(vLLM) 기반 AI 인퍼런스 서버를 통해 다양한 GPU와 가속기 환경에서 대규모 AI 모델을 효율적으로 운영할 수 있도록 지원한다. 또 GPU 자원을 여러 사용자와 서비스가 유연하게 공유할 수 있는 서비스형 GPU(GPUaaS) 구조도 제공한다. 기업이 보유한 GPU 자원을 보다 효율적으로 활용하고 AI 인프라 비용 부담을 줄인다는 목표다. 레드햇은 최근 글로벌 오픈소스 커뮤니티와 함께 엔비디아와 AMD GPU, 구글 텐서처리장치(TPU), 나아가 국내 AI 반도체 기업 리벨리온의 신경망처리장치(NPU) 등 다양한 AI 가속기에 대한 최적화도 진행 중이다. AI 플랫폼 생태계 확대도 박차를 가한다. 레드햇은 엔비디아와 협력해 DGX 시스템에 AI 플랫폼을 통합하는 '레드햇 AI 팩토리 위드 엔비디아' 협력 모델을 지난달 발표했다. 현재 엔비디아 블랙웰 플랫폼과 통합됐으며 향후 차세대 루빈 플랫폼과의 연계도 추진할 계획이다. 이날 행사에선 한전KDN이 레드햇 오픈시프트 기반 클라우드 네이티브 환경을 통해 전력 제어 시스템을 현대화하는 프로젝트 사례도 소개됐다. 한전KDN은 현재 10년 규모의 변전소 원격 감시·제어 시스템(SCADA) 개발 프로젝트를 진행 중이다. 기존 시스템 중심 구조에서 벗어나 유연성과 확장성을 갖춘 클라우드 플랫폼 기반으로 전환하는 것이 목적이다. 배선준 한전KDN 차장은 "전력 제어 시스템은 수많은 변전소에서 데이터를 수집하고 실시간으로 제어해야 하기에 안정성과 운영 효율성이 무엇보다 중요하다"며 "레드햇 오픈시프트 플랫폼을 통해 개발 자동화와 지속적 통합·배포(CI/CD) 체계를 구축하고 클라우드 네이티브 전환을 추진 중"이라고 밝혔다. 이어 "컨테이너 기반 환경으로 장애 발생 시 영향 범위를 격리하고 신속하게 대응할 수 있는 구조를 구축해 한국전력 제어 시스템을 고도화할 것"이라고 덧붙였다. 레드햇은 오픈소스 기반 플랫폼이 기업의 기존 IT 인프라와 AI 워크로드를 통합 운영하는 데 적합하다고 강조했다. 특히 하이브리드 클라우드 환경에서 애플리케이션과 AI 서비스를 단일 플랫폼 레드햇 AI에서 관리할 수 있다는 점을 주요 강점으로 내세웠다. 최 전무는 "AI도 기존 IT 환경과 마찬가지로 보안과 거버넌스를 함께 고려해야 한다"며 "기업이 기존 IT 운영 플랫폼 위에서 AI를 통합적으로 관리할 수 있도록 지원할 것"이라고 말했다.

2026.03.11 15:46한정호 기자

레드햇-소프트뱅크, AI-RAN 통합…"통신망서 LLM 추론 분산 처리"

레드햇이 통신 인프라에서 인공지능(AI) 활용을 확대하기 위한 기술 통합에 나섰다. 레드햇은 소프트뱅크 손잡고 AI-무선접속망(RAN) 오케스트레이터 '아이트라스'에 'llm-d'를 통합했다고 10일 밝혔다. 이 기술은 RAN 환경에서 거대언어모델(LLM) 추론을 분산 처리해 성능과 효율을 높이는 오픈소스 프레임워크다. 이번 통합은 통신 사업자가 AI와 기존 RAN 워크로드를 동일한 하드웨어(HW) 환경에서 운영하도록 지원하는 것이 핵심이다. 엣지 환경에서 생성형 AI와 언어 모델 활용이 늘면서 통신망 내부에서도 AI 추론과 네트워크 기능을 동시에 처리해야 하는 수요가 커지고 있기 때문이다. 레드햇과 소프트뱅크는 이를 위해 'vLLM'과 'llm-d'를 결합한 AI-RAN 협력 구조를 구축했다. vLLM은 단일 그래픽처리장치(GPU) 노드에서 고성능 AI 모델 배포를 지원하는 오픈소스 프로젝트다. llm-d는 이를 쿠버네티스 기반으로 여러 노드에 분산 배치해 멀티 노드 환경에서도 AI 추론을 안정적으로 운영하도록 돕는다. 레드햇은 llm-d에 아이트라스가 통합되면서 RAN 워크로드와 LLM 요청을 여러 GPU 클러스터에 걸쳐 동시에 오케스트레이션할 수 있다고 밝혔다. 시스템은 AI 추론 요청을 지능적으로 라우팅하고 GPU 자원 관리와 오토스케일링을 자동으로 수행한다. HW 자원 활용을 높이기 위한 구조도 적용됐다. llm-d는 LLM 추론 과정에서 연산 중심 단계인 프리필(prefill)과 메모리 중심 단계인 디코드(decode)를 분리해 각각 다른 GPU 자원에 배치한다. 이를 통해 다양한 하드웨어 환경에서 자원 활용도를 높이고 동일한 장비에서 실행되는 핵심 RAN 기능을 보호할 수 있다. AI 서비스 요청이 급증하거나 감소하는 상황에도 자동 확장이 가능하다. 아이트라스는 워크로드 특성에 따라 프리필과 디코드 작업자를 자동으로 배치하고 확장한다. 이를 통해 사용자 지연 시간을 줄이고 전력 소비를 낮춰 총소유비용(TCO) 절감에도 기여한다. 레드햇은 "이번 통합은 통신 사업자의 AI 기반 엣지 서비스 확대에 필요한 기반이 될 것"이라며 "엣지에서 AI와 네트워크 기능을 함께 운영하면 운영 비용을 낮추고 새로운 서비스 출시 기간도 단축할 수 있다"고 밝혔다.

2026.03.10 10:27김미정 기자

레드햇, AI 엔터프라이즈 출시…인프라·에이전트 통합

레드햇이 인프라부터 에이전트까지 연결하는 인공지능(AI) 통합 플랫폼을 출시해 AI 활용도를 높였다. 레드햇은 하이브리드 클라우드 전반에서 AI 모델과 에이전트 애플리케이션을 배포하고 관리할 수 있는 '레드햇 AI 엔터프라이즈'를 출시했다고 27일 밝혔다. 이 플랫폼은 레드햇 엔터프라이즈 리눅스와 레드햇 오픈시프트 기반으로 AI 라이프사이클을 통합한다. 이번 솔루션은 레드햇 AI 인퍼런스 서버, 레드햇 오픈시프트 AI, 레드햇 엔터프라이즈 리눅스 AI를 통합한 형태다. 리눅스와 쿠버네티스 기반 인프라에 고급 추론과 에이전트 기능을 통합한 '메탈 투 에이전트' 스택을 제공한다. 기업이 단편적 파일럿을 넘어 표준화된 엔터프라이즈 시스템으로 AI를 운영하도록 설계됐다. 이날 레드햇은 '레드햇 AI 3.3'을 공개했다. 모델 선택 범위를 넓히고 차세대 반도체를 위한 풀스택 최적화를 강화했다. 최신 모델 환경에서 운영 일관성도 높였다. 오픈시프트 AI 카탈로그를 통해 미스트랄 라지 3, 네모트론 나노, 아페르투스 8B, 인스트럭트 등 검증된 경량 모델을 제공한다. 미니스트랄 3, 딥시크 V3.2 배포를 지원하며 위스퍼 속도 3배 향상, 지리공간 지원, 이글 추측, 디코딩 개선, 에이전트 워크플로용 툴 호출 기능 강화 등 멀티모달 기능도 개선했다. 서비스형 모델 기술 프리뷰를 통해 사내 호스팅 모델을 API 게이트웨이 기반 셀프서비스 방식으로 제공한다. 중앙 집중형 접근을 통해 기업 내 프라이빗하고 확장 가능한 AI 도입을 지원한다. 레드햇은 인텔 중앙처리장치(CPU) 기반 생성형 AI 기술 프리뷰를 포함해 엔비디아 블랙웰 울트라 인증 확대, AMD MI325X 가속기 지원을 추가했다. 지능형 오케스트레이션과 풀링된 하드웨어 접근으로 그래픽처리장치(GPU) 서비스형 역량 구축도 지원한다. 레드햇 AI 파이썬 인덱스를 통해 데이터부터 모델까지 라이프사이클을 통합하고 보안을 강화했다. 실시간 텔레메트리 기반 관측성과 네모 가드레일스 기술 프리뷰를 통해 AI 워크로드 안전성과 정렬성을 높인다. 조 페르난데스 레드햇 AI 사업 부문 부사장 겸 총괄은 "AI가 실질적인 비즈니스 가치를 창출하려면 독립된 사일로가 아닌 기업 소프트웨어 스택의 핵심 구성 요소로 운영돼야 한다"라며 "레드햇 AI 3.3을 통해 기업은 단편적인 파일럿 단계를 넘어 하이브리드 클라우드 전반에서 거버넌스를 갖추며 반복 가능하고 고성능의 AI 운영 환경을 구현할 수 있다"라고 밝혔다.

2026.02.27 14:17김미정 기자

[현장] LLM보다 20배 자원 쓰는 에이전틱 AI…레드햇 "해법은 추론 최적화"

"에이전틱 AI는 하나의 질문에도 모델을 여러 번 호출하며 일반 챗봇 대비 GPU 자원을 5배에서 최대 20배까지 더 소모하는 구조입니다. 기업이 이를 도입해 수익을 창출하려면 비용 통제와 성능 확보, 서비스 안정성을 동시에 달성할 수 있는 추론 최적화가 필수입니다." 이호진 레드햇 솔루션 아키텍트는 26일 서울 마곡 LG사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 이같이 강조했다. 그는 '에이전틱 AI로의 진화와 추론 최적화 전략'을 주제로 발표하며, 생성형 AI를 넘어 에이전틱 AI 시대로 전환되는 흐름과 이에 따른 인프라 전략 변화를 짚었다. 이 아키텍트는 가트너와 IDC 리서치를 인용하며 올해 기업 애플리케이션 40%가 업무 특화 AI 에이전트를 탑재하거나 AI 에이전트와 함께 일하게 될 것이라고 설명했다. 단순 질의응답을 수행하는 생성형 AI에서 벗어나, 멀티스텝 업무 자동화와 워크플로우 판단·실행까지 수행하는 구조로 진화하고 있다는 분석이다. 문제는 자원 소모다. 에이전틱 AI는 하나의 요청에도 모델 호출과 도구 실행, 검색과 재시도를 반복한다. 그 결과 일반 챗봇 대비 GPU 자원이 5배에서 최대 20배까지 더 필요할 수 있다. 그는 "이 구조에서는 추론 비용이 급격히 증가할 수밖에 없다"며 "추론 최적화 없이 에이전틱 AI를 확장하는 것은 현실적으로 어렵다"고 말했다. 이어 추론의 개념과 운영 환경에서의 과제를 설명했다. 대규모언어모델(LLM) 추론은 입력을 토큰으로 변환하고 토큰 간 관계를 계산해 답변을 생성하는 과정이다. 현재 AI 시장의 예산과 컴퓨팅 중심이 학습에서 추론 영역으로 이동하고 있으며 상시 운영 환경에서는 성능과 비용 최적화의 효과가 더욱 크게 나타난다고 강조했다. 특히 엔터프라이즈 환경에서는 GPU 자원 효율화뿐 아니라 보안 검증, 모델 안정성 확보, 지연 편차 관리까지 함께 고려해야 한다고 짚었다. 레드햇은 이를 해결하기 위한 전략으로 가상대규모언어모델(vLLM), LLM 컴프레서, 검증된 모델 컬렉션, 대규모 분산 추론 기술(LLM-D)을 제시했다. vLLM은 고성능 모델 서빙 엔진으로, 신규 모델과 다양한 AI 가속기를 지속적으로 지원하며 업계 표준처럼 활용되고 있다고 설명했다. LLM 컴프레서는 양자화를 통해 모델 크기와 GPU 메모리 사용량을 줄이면서도 정확도를 유지하는 기술이다. 실제 70B 모델을 GPU 8장에서 2장으로 줄이면서 99% 이상의 정확도를 확보한 사례도 소개했다. 또한 오픈시프트 기반으로 검증·최적화된 모델을 제공해 엔터프라이즈 AI의 품질과 안정성을 빠르게 확보할 수 있다고 밝혔다. LLMD는 대규모 분산 추론을 지원하는 기술로 여러 서버에 모델을 분산 배치하고 라우팅과 로드밸런싱, KV 캐시 효율화를 통해 고성능과 비용 효율을 동시에 달성할 수 있도록 돕는다고 설명했다. BC카드 사례도 공유했다. 초기에는 오라마 기반으로 최대 20건 요청을 처리했으나, vLLM 전환과 API 캐싱, 튜닝을 거치며 최대 25만건 요청을 처리하는 구조로 확장했다. 특히 LLM 컴프레서를 통한 양자화로 모델 크기를 절반으로 줄이고 성능은 3배 높이면서도 정확도 차이는 0.01% 수준에 그쳤다고 밝혔다. 이 과정에서 기업이 모든 기술 레이어를 자체적으로 감당하기보다 안정적인 플랫폼을 기반으로 전문 역량을 결합하는 전략이 필요하다고 강조했다. 이호진 아키텍트는 "에이전틱 AI 시대에는 추론이 곧 경쟁력"이라며 "레드햇 AI 플랫폼과 전문 역량, 컨설팅을 통해 고객의 추론 최적화와 AI 혁신을 지원하겠다"고 말했다.

2026.02.27 08:38남혁우 기자

레드햇-엔비디아, AI 팩토리 출시…"안정적 대규모 개발"

레드햇이 엔비디아와 기업용 통합 인공지능(AI) 플랫폼을 개발해 사업 확장에 나섰다. 레드햇은 엔비디아 손잡고 '레드햇 AI 팩토리 위드 엔비디아'를 출시했다고 25일 밝혔다. 이 플랫폼은 레드햇 AI 엔터프라이즈와 엔비디아 AI 엔터프라이즈를 결합한 엔드투엔드 AI 솔루션이다. 대규모 AI 도입을 추진하는 기업 환경에 최적화됐다. 이 플랫폼은 엔비디아 하드웨어(HW) 아키텍처에 대한 0일 차 지원을 제공한다. 엔비디아 그래픽처리장치(GPU) 기반 가속 컴퓨팅 인프라 위에서 모델 성능을 극대화하는 소프트웨어(SW) 스택을 제공한다. IDC에 따르면 에이전틱 AI 확산으로 2029년까지 엔터프라이즈 AI 지출은 1조 달러를 넘어설 전망이다. 이에 기업은 고밀도 에이전틱 워크플로 중심 전략으로 전환하고 있으며 AI 추론과 인프라 수요도 급증하는 상황이다. 레드햇 AI 팩토리 위드 엔비디아는 이런 변화에 맞춰 IT 운영팀이 기존 인프라와 AI 스택을 동시에 관리할 수 있도록 설계됐다. 온프레미스, 클라우드, 엣지 전반에서 배포가 가능하며 고확장성과 보안을 전면에 내세웠다. 플랫폼은 사전 구성된 IBM 그래니트 제품군과 엔비디아 네모트론, 엔비디아 코스모스 오픈 모델을 엔비디아 NIM 마이크로서비스 형태로 제공한다. 또 엔비디아 네모를 활용해 기업 데이터에 맞게 모델을 튜닝해 시간과 비용을 줄일 수 있다. 성능 측면에서는 가상거대언어모델(vLLM) 기반 레드햇 AI 추론 기능과 엔비디아 '텐서RT-LLM', 엔비디아 '다이나모'를 결합했다. 이를 통해 GPU 활용도를 높이고 엄격한 AI 서비스 수준 목표를 충족하며 총소유비용 절감을 돕는다. 플랫폼에 지능형 GPU 오케스트레이션 기능도 포함됐다. 자동 체크포인팅으로 장시간 작업을 보호하고 동적 환경에서도 예측 가능한 비용 구조 유지를 지원한다. 보안은 레드햇 엔터프라이즈 리눅스 기반으로 강화됐다. 엔비디아 도카 마이크로서비스는 제로 트러스트 아키텍처를 구현해 AI 런타임 보안을 지원한다. 플랫폼은 시스코와 델테크놀로지스, 레노버, 슈퍼마이크로 등 주요 시스템 제조업체의 AI 팩토리 인프라에서 지원된다. 이를 통해 일반 기업 워크로드와 동일한 수준의 운영 엄격성과 예측 가능성을 확보하도록 돕는다. 크리스 라이트 레드햇 글로벌 엔지니어링 부문 수석 부사장 겸 최고기술책임자(CTO)는 "우리는 새 플랫폼으로 대규모 AI 배포와 신속한 프로덕션 전환을 가속하고 있다"며 "고객은 안정적이고 수준 높은 기술을 통해 AI 전략을 주도하고 확장할 수 있을 것"이라고 말했다.

2026.02.25 15:07김미정 기자

노키아, 퓨어스토리지 적용…안전·확장형 클라우드 네이티브 네트워크 구현

노키아가 차세대 통신 클라우드의 데이터 인프라 기반으로 퓨어스토리지를 도입했다. 이번 도입으로 레드햇 오픈시프트 상에서 구동되는 퓨어스토리지의 고성능 올플래시 데이터 레이어를 기반으로 안전하고 확장 가능한 클라우드 네이티브 네트워크 기능(CNF)을 지원하게 된다. 2일 퓨어스토리지에 따르면 현재 통신 산업은 전통적인 인프라에서 클라우드 네이티브 아키텍처로 전환되는 중요한 변곡점에 놓여 있다. 글로벌 서비스 제공업체들은 오늘날의 클라우드 네이티브 워크로드와 미래의 AI 기반 네트워크 자동화를 동시에 지원하면서도 글로벌 규모의 안정성을 유지해야 하는 도전에 직면해 있다. 이에 노키아는 지난 2023년 6월 코어 네트워크 애플리케이션을 위한 핵심 플랫폼으로 레드햇 오픈시프트를 선정했다. 최근에는 퓨어스토리지를 차세대 통신 클라우드의 데이터 인프라 기반으로 도입했다. 이번 협력은 서비스 제공업체가 엣지에서 코어, 클라우드까지 확장되는 데이터 레이어를 설계하고, 클라우드 네이티브 및 자율 네트워크에 필수적인 보안성, 확장성, 운영 단순성을 구현하는 데 새로운 참조 아키텍처를 제시한다. 레드햇 오픈시프트는 노키아의 CNF와 자율 네트워크 운영 애플리케이션을 위한 일관된 통신사급 기반을 제공한다. 퓨어스토리지를 데이터 레이어로 도입함으로써 노키아는 여러 CNF와 배포 사이트 전반에서 예측 가능한 결과와 반복 가능한 구축을 제공하는 완전한 라이프사이클 관리 솔루션을 구현하게 된다. 이번 솔루션은 레드햇 오픈시프트를 기반으로 노키아 CNF에 퓨어스토리지 플래시어레이를 주요 데이터 인프라로 사용하는 견고한 아키텍처로 구성된다. 이를 통해 서비스 제공업체는 여러 사이트에서 일관된 운영 모델을 반복적으로 배포할 수 있으며 수백 개에서 수천 개의 네트워크 노드를 효율적으로 관리할 수 있다. 기존의 단편적 저장 시스템 대신 이번 통합 솔루션은 엣지 애플리케이션부터 중앙 클라우드 자원까지 동일한 방식으로 확장되고, 일관되게 동작하는 단일 데이터 레이어를 제공한다. 마치에이 크란츠(Maciej Kranz) 퓨어스토리지 엔터프라이즈 총괄 매니저는 "노키아와의 첫 협력은 클라우드 네이티브 네트워크의 미래를 함께 만들어가는 중요한 이정표"라며 "노키아와 함께 업계 최고의 올플래시 기술을 바탕으로 새로운 기회를 열어나가게 돼 기쁘다"고 말했다.

2026.02.02 18:02장유미 기자

레드햇, 엔비디아용 리눅스 발표…"풀스택 AI 협력"

레드햇이 엔비디아 손잡고 하이브리드 클라우드와 오픈소스 역량을 결합한다. 레드햇은 엔비디아와 협력을 강화하고 랙 스케일 인공지능(AI) 혁신에 맞춘 최적화 솔루션을 공개했다고 7일 밝혔다. 두 기업은 엔터프라이즈 오픈소스 기술을 통해 개별 서버 단위를 넘어 통합된 고밀도 시스템으로 진화하는 AI 워크로드 수요에 공동 대응할 방침이다. 이번 협력 핵심은 '엔비디아용 레드햇 엔터프라이즈 리눅스' 공식 발표다. 이는 엔비디아 루빈 플랫폼에 최적화된 특별 에디션이다. 레드햇 오픈시프트와 레드햇 AI 내 생산성을 극대화하기 위해 튜닝된 플랫폼이다. 양사는 인프라 구성 핵심인 차세대 하드웨어 지원책도 구체화했다. 새로운 엔비디아 베라 중앙처리장치(CPU)와 최첨단 루빈 그래픽처리장치(GPU)를 탑재한 시스템을 위해 최적화된 풀 스택 AI 솔루션을 제공할 계획이다. 또 최신 엔비디아 아키텍처에 대해 '0일 차(Day 0)' 지원을 보장해 기업들이 제품 출시와 동시에 즉각적인 운영에 착수할 수 있도록 돕는다. 맷 힉스 레드햇 사장 겸 최고경영자(CEO)는 "엔비디아 아키텍처 혁신은 AI를 필수 기술로 만들었으며 컴퓨팅 스택이 산업 미래를 정의할 것임을 증명했다"며 "우리는 하이브리드 클라우드·AI 포트폴리오 전반에서 최신 엔비디아 아키텍처에 대한 0일 차 지원을 제공할 계획"이라고 밝혔다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "레드햇은 오픈소스 소프트웨어로 엔터프라이즈 컴퓨팅을 혁신했다"며 "AI 시대에는 칩과 시스템부터 미들웨어, 모델, AI 라이프사이클에 이르기까지 컴퓨팅 스택 전체가 근본적으로 재창조되고 있다"고 강조했다.

2026.01.07 09:41김미정 기자

레드햇 "IT 현대화는 선택 아닌 생존…개방형 플랫폼이 핵심"

인공지능(AI) 에이전트 확산과 IT 주권 강화, 가상화 시장의 구조적 변화가 맞물리며 엔터프라이즈 IT 환경이 새로운 전환점을 맞고 있다. 22일 레드햇이 발표한 2026년 엔터프라이즈 IT 전망에 따르면 내년 기업들의 전략은 단순 기술 도입을 넘어 보안·프라이버시, 기술 부채 해소, 하이브리드 환경 확장, IT 주권 확보까지 복합적으로 확대될 것으로 분석됐다. 레드햇은 올해를 AI 에이전트의 본격적인 등장과 소버린 클라우드 수요가 급증한 해로 평가하며 이러한 흐름이 내년 IT 전략 수립에 결정적인 영향을 미칠 것으로 내다봤다. 레드햇 아셰시 바다니 수석 부사장 겸 최고제품책임자(CPO)는 기업이 AI를 통해 빠른 투자 대비 효과(ROI)를 창출해야 하는 동시에, 보안과 프라이버시 기준을 충족해야 하는 이중 과제에 직면해 있다고 진단했다. 여기에 기존 시스템 현대화, 기술 부채 누적, 하이브리드 인프라 확장, IT 주권 요구까지 더해지며 IT 조직의 부담이 한층 커지고 있다는 설명이다. 그는 "이같은 환경에서 특정 기술이나 인프라에 종속되지 않고 유연하게 확장할 수 있는 개방형 플랫폼의 중요성이 더욱 부각될 것"이라고 강조했다. 이에 레드햇은 리눅스와 쿠버네티스를 기반으로 클라우드 네이티브와 기존 애플리케이션을 모두 포괄하며 모든 모델·가속기·클라우드 환경에서 AI 추론을 지원하는 에이전틱 미래를 준비 중이다. IT 현대화의 의미 역시 변화하고 있다. 레드햇 마이크 페리스 수석 부사장 겸 최고운영책임자(COO) 및 최고전략책임자(CSO)는 과거 선택 사항으로 여겨졌던 IT 현대화가 이제는 기업 경쟁력과 직결된 생존의 문제로 전환되고 있다고 분석했다. 가상화 시장의 변동성과 AI 도입 압박이 맞물리며 그동안 누적돼 온 기술 부채가 전례 없이 부각되고 있다는 지적이다. 그는 "기술 부채는 더 이상 관리 비용 차원의 문제가 아니라 새로운 기술 도입과 혁신을 가로막는 구조적 한계로 작용하고 있다"며 "비즈니스 요구 속도는 오히려 가속화되고 있다"고 설명했다. 이어 "기존 시스템의 안정성을 유지하면서도 AI와 같은 미래 기술을 연결할 수 있는 다리 역할 기술이 기업의 핵심 경쟁력이 될 것"이라며 "내년을 앞두고 있는 지금이 전환의 적기"라고 덧붙였다. AI 경쟁의 무게중심이 학습에서 추론 환경으로 이동하고 있다는 분석도 나왔다. 레드햇 브라이언 스티븐스 AI 부문 수석 부사장 겸 최고기술책임자(CTO)는 "지난 수년간 대규모언어모델(LLM) 학습에 집중됐던 투자가 이제 실제 업무에 활용되는 AI 에이전트와 추론 환경으로 옮겨가고 있다"고 설명했다. 다양한 고성능 모델이 등장하면서 기업의 경쟁력은 모델 자체보다는 이를 얼마나 안정적이고 효율적으로 운영할 수 있는지에 달렸다는 것이다. 그는 "우리가 '레드햇 엔터프라이즈 리눅스(RHEL)'를 통해 엔터프라이즈 운영체제의 표준을 제시해왔듯, '레드햇 AI'를 통해 통합된 추론 플랫폼을 제공함으로써 특정 모델이나 인프라에 종속되지 않는 AI 운영 환경을 지원할 계획"이라고 밝혔다. 생성형 AI 도입 방식의 변화도 주요 과제로 제시됐다. 레드햇 크리스 라이트 글로벌 엔지니어링 부문 수석 부사장 겸 최고기술책임자(CTO)는 많은 기업이 여전히 AI 프로젝트를 개념 검증(PoC) 단계에 머물러 있다고 지적했다. 그는 내년을 준비하는 기업 최고정보책임자(CIO)들의 핵심 과제로 AI를 실제 운영 환경으로 이전하는 것을 꼽으며 기술 변화 속도가 빠른 만큼 새로운 기술을 신속하게 통합하고 가치를 창출할 수 있는 공통 기반이 중요해질 것이라고 강조했다. 전통적인 애플리케이션부터 AI 에이전트까지 다양한 워크로드를 연결할 수 있는 개방형 플랫폼의 유연성이 향후 IT 전략의 중요한 판단 기준이 될 것이라는 설명이다. 크리스 라이트 CTO는 "AI는 더 이상 실험의 대상이 아니라 실제 비즈니스 가치를 창출해야 하는 기술"이라며 "기업은 현재의 운영 안정성을 유지하면서도 향후 AI 워크로드 증가에 대비할 수 있는 개방형 플랫폼을 통해 변화에 대응해야 한다"고 말했다.

2025.12.22 15:52한정호 기자

레드햇-리벨리온, NPU 기반 '오픈시프트 AI' 출시…추론 환경 개선

레드햇이 리벨리온 손잡고 신경처리장치(NPU) 기반 플랫폼을 개발해 인공지능(AI) 추론 환경을 개선했다. 레드햇은 리벨리온과 '리벨리온 NPU 기반 레드햇 오픈시프트 AI'를 발표했다고 11일 밝혔다. 이 플랫폼은 레드햇 오픈시프트 AI, 리벨리온의 NPU, 가상거대언어모델(vLLM) 엔진을 결합해 엔터프라이즈급 풀스택 AI 추론 환경을 제공한다. 리벨리온 NPU는 AI 추론에 특화된 아키텍처다. 그래픽처리장치(GPU) 대비 에너지 효율을 높여 데이터센터 구축·운영 비용을 줄인다. 또 자체 소프트웨어(SW) 스택과 오픈소스 프레임워크 지원을 통해 GPU와 유사한 개발 환경을 제공한다. 새 솔루션은 하드웨어(HW)부터 모델 서빙까지 전 영역을 아우르는 풀스택 구조를 제공한다. 리벨리온 SW 스택은 레드햇 오픈시프트 AI에서 네이티브 실행돼 배포 속도를 높인다. 레드햇 오픈시프트 인증을 받은 NPU 오퍼레이터는 온프레미스·멀티클라우드 환경에서 모두 작동한다. 해당 플랫폼은 랙 스케일 NPU와 vLLM 기반으로 고처리량, 저지연, 전력 효율성을 제공한다. 이를 통해 고객은 LLM 등 다양한 추론 워크로드를 안정적으로 운영할 수 있다. 데이터 온프레미스 유지와 규제 준수 측면에서도 강화된 보안 환경을 제공한다. 코어에서 엣지까지 선형 확장을 지원해 배포 유연성도 확보했다. 브라이언 스티븐스 레드햇 AI 부문 수석부사장 겸 최고기술책임자(CTO)는 "우리 솔루션을 리벨리온의 NPU와 통합해 엔터프라이즈에 검증된 풀스택 대안을 제공할 것"이라며 "고객은 실제 운영 환경의 AI에 필수인 효율성과 저지연성, 수평 확장성을 갖추고 AI 추론 워크로드를 배포할 수 있다"고 밝혔다. 박성현 리벨리온 대표는 "이번 협력으로 기업들이 보다 효율적이고 안전하게 AI 서비스를 확장할 수 있도록 지원할 것"이라며 "GPU 중심 환경을 넘어 NPU 기반 추론 인프라의 새로운 대안을 제시하는 첫 사례가 될 것"이라고 밝혔다.

2025.12.11 11:48김미정 기자

리벨리온, 자사 NPU 기반 레드햇 오픈시프트 AI 공개

AI 반도체 스타트업 리벨리온은 글로벌 오픈소스 솔루션 선도기업 레드햇과 함께 '리벨리온 NPU 기반 레드햇 오픈시프트 AI'를 공개한다고 11일 밝혔다. 이 솔루션은 '레드햇 오픈시프트 AI'와 리벨리온의 NPU(신경망처리장치), 고효율 추론 엔진인 vLLM을 결합해 검증된 풀스택 엔터프라이즈 AI 플랫폼을 제공한다. 레드햇 오픈시프트 AI는 기업이 AI 모델의 라이프사이클을 규모에 맞게 관리할 수 있도록 지원하는 쿠버네티스 기반의 엔터프라이즈 AI/ML 플랫폼이다. '리벨리온 NPU 기반 레드햇 오픈시프트 AI'는 AI 추론 최적화를 위해 핵심 요소를 통합해, 하드웨어(NPU)는 물론 모델 서빙(vLLM)까지 추론에 필요한 모든 영역을 아우르는 검증된 풀스택 AI 추론 플랫폼이다. AI 도입이 확대되면서 기업은 인프라 비용, 배포 복잡성, 보안 등 다양한 과제를 동시에 해결해야 한다. 특히, AI 추론은 학습된 모델이 실제 환경에서 응답을 생성하는 단계로 사용 빈도가 가장 높고 비용·성능에 직접적인 영향을 미친다. 따라서, 기존 GPU 중심의 인프라만으로는 대규모 운영이 요구하는 효율성을 충족하기 어렵다. 이번 솔루션은 이러한 현실적 요구를 반영해 다양한 환경에서 안정적이고 효율적인 추론 인프라를 구축할 수 있는 대안이 될 전망이다. 이번에 출시된 플랫폼은 고객의 AI추론 최적화를 위한 핵심 요소를 통합했다. 먼저, 리벨리온의 NPU는 AI 추론에 최적화된 아키텍처로 설계되어 기존 GPU 대비 최대 3.2배 더 높은 에너지 효율성을 제공하며, 서버·랙 단위에서 데이터센터의 구축 및 운영 비용을 효과적으로 낮춰준다. 또한 풀스택 소프트웨어와 주요 오픈소스 AI 프레임워크 지원을 통해 GPU와 동일한 수준의 편리한 개발 환경을 제공한다. 이를 바탕으로 '리벨리온 NPU 기반 레드햇 오픈시프트 AI'는 하드웨어부터 모델 서빙까지 모든 영역을 아우르는 검증된 풀스택 AI 추론 플랫폼을 제공한다. 리벨리온의 소프트웨어 스택은 '레드햇 오픈시프트 AI'에서 최적화되어 실행되며 오버헤드(불필요한 작업)를 줄이고 배포를 가속화한다. 또한 레드햇 오픈시프트의 인증을 취득한 레벨리온 NPU 오퍼레이터는 온프레미스 및 멀티클라우드 환경에서 보다 원활한 통합과 신뢰할 수 있는 지원을 제공하여 기업의 데이터 주권 확보와 규제 준수를 지원한다. 해당 플랫폼은 주요 기능으로 ▲확장 가능한 엔터프라이즈급 AI 지원(vLLM 통합으로 고처리량·저지연·고효율 추론 운영) ▲보안 강화 및 규제 준수(온프레미스 기반 데이터 보호 및 요건 대응) ▲운영 단순화(NPU를 GPU처럼 쉽게 운영할 수 있는 통합 관리 환경) ▲유연한 확장성(코어부터 엣지까지 선형 확장이 가능한 인프라)을 제공한다. 양사는 코오롱베니트와 공동으로 세미나를 열어 솔루션을 소개하고, 기업의 생성형 AI 도입 과정에서 마주하는 주요 과제를 논의할 예정이다. 이후 참여 기업 대상 컨설팅과 실증을 통해 효율적인 AI 인프라 구축을 지원하고 시장 확장을 본격화할 계획이다. 박성현 리벨리온 대표는 “AI서빙과 추론이 본격화되며 기업들은 성능과 비용, 데이터 주권을 모두 만족시키는 실용적인 인프라를 필요로 하고 있다”며 “기업들이 보다 효율적이고 안전하게 AI서비스를 확장할 수 있도록 지원하는 한편, GPU 중심의 환경을 넘어 NPU 기반 추론 인프라의 새로운 대안을 제시하는 첫 사례가 될 것”이라고 말했다. 브라이언 스티븐스 레드햇 AI 부문 수석부사장 겸 CTO는 “레드햇은 레드햇 오픈시프트 AI의 개방적이고 확장 가능한 역량을 리벨리온의 효율적인 NPU와 통합함으로써, 엔터프라이즈에 검증된 풀스택 대안을 제공한다”며 “이를 통해 고객은 실제 운영 환경의 AI에 필수인 효율성과 저지연성, 수평 확장성을 갖추고 AI 추론 워크로드를 배포할 수 있다”라고 전했다.

2025.12.11 10:26전화평 기자

레드햇, 'OVE 4'로 보안 확인서 획득…"컨테이너 가상화 첫 사례"

레드햇이 최신 가상화 플랫폼으로 국내 기관에서 보안 역량을 공식 인증받았다. 레드햇은 '오픈시프트 버추얼라이제이션 엔진 4(OVE 4)'가 한국정보보안기술원(KOIST)으로부터 보안기능 확인서를 획득했다고 8일 밝혔다. 이 인증은 국가·공공기관이 정보보호 제품을 도입할 때 요구되는 보안 적합성 검증을 대체한다. OVE 4는 이번 인증을 통해 가상머신 관리, 가상 네트워크 설정, 트래픽 필터링, 사용자 인증, 취약점 제거 등 핵심 보안 기능을 충족한 것으로 평가됐다. 컨테이너 기반 가상화 제품이 보안기능 확인서를 받은 것은 이번이 처음이다. 최근 공공과 민간에서 대규모 해킹 사고와 취약점 악용 사례가 반복되며 인프라 보안성에 대한 요구가 빠르게 높아지고 있다. 가상화 인프라는 다양한 업무 시스템과 민감 데이터를 처리하는 만큼 가상머신, 가상 스위치, 관리자 계정 등 여러 공격 지점을 동시에 관리해야 하는 복잡성이 뒤따른다. 특히 글로벌 가상화 솔루션 업체들의 사업 구조 변화와 라이선스 조정이 이어지면서 국내 기관과 기업들은 장기적 대안을 찾고 있다. OVE 4는 VM웨어 등 기존 솔루션을 대체할 수 있는 보안성, 운영성, 확장성을 확보한 기술로 부상하고 있다. OVE 4는 오픈시프트 기반으로 가상머신과 컨테이너를 단일 플랫폼에서 통합 관리하는 구조를 갖췄다. 신속한 업그레이드, 자원 할당, 서비스 배포가 가능하며, 마이그레이션 툴킷을 포함해 기존 가상화 환경을 이전하는 기능도 제공한다. 이 제품은 국방통합데이터센터, 국가정보자원관리원, 서울시데이터센터, 인천시데이터센터 등 공공기관과 민간 기업을 중심으로 도입이 확대되고 있다. 특히 레드햇의 자동화 툴 기반으로 대규모 가상머신을 빠르게 구축할 수 있어 복구와 유지관리 효율이 높다는 평가를 받는다. 레드햇은 이번 인증으로 OVE 4가 공공 가상화 인프라 전환과 확장의 핵심 대안 플랫폼이 될 것으로 보고 있다. 향후 클라우드 네이티브 및 가상화 현대화를 추진하는 기관을 위한 보안 검증된 파트너 역할을 강화할 계획이다. 레드햇은 "OVE 4는 공공·민간 고객의 현대화를 지원하는 안전하고 보안이 검증된 인프라 기반"이라며 "앞으로도 고객의 안정적 전환을 뒷받침하겠다"고 밝혔다.

2025.12.08 15:11김미정 기자

레드햇, AWS 협업 확대…"AI 추론 성능·유연성 강화"

레드햇이 엔터프라이즈급 생성형 인공지능(AI) 기능을 강화하기 위해 아마존웹서비스(AWS)와 협업을 확대했다. 레드햇은 레드햇 AI와 AWS AI 실리콘을 결합해 프로덕션 환경에서의 생성형 AI 배포 유연성을 높인다고 3일 밝혔다. 이번 협업은 레드햇 플랫폼과 AWS 클라우드 인프라, AWS 인퍼런시아2와 트레이니움3을 결합해 전방위적 생성형 AI 전략 구현을 골자로 한다. 레드햇은 이를 통해 모든 세대의 생성형 AI 모델을 지원하는 공통 추론 레이어를 제공하며, 그래픽처리장치(GPU) 기반 아마존 EC2 대비 최대 30~40% 향상된 가격 대비 성능을 실현할 수 있다고 설명했다. '레드햇 AI 인퍼런스 서버'는 AWS 인퍼런시아2와 트레이니움3을 비롯한 AWS AI 칩에서 실행되도록 확장된다. 기업은 더 낮은 지연 시간과 비용으로 AI 배포 규모를 확대할 수 있고, 다양한 추론 워크로드를 단일 추론 레이어에서 통합 운영할 수 있다. 양사는 레드햇 오픈시프트 AI, 레드햇 오픈시프트 서비스 온 AWS에 적용되는 'AWS 뉴런 오퍼레이터'도 개발했다. 이를 통해 고객은 AWS 가속기를 자연스럽고 지원되는 방식으로 연동해, AI 학습·추론 워크로드를 더 쉽게 운영할 수 있다. 레드햇은 AWS AI 칩 지원을 통해 AWS 환경의 레드햇 고객이 대규모 가속기에 보다 손쉽게 접근할 수 있도록 지원할 계획이다. 또 레드햇 앤서블 오토메이션 플랫폼을 위한 '아마존.ai 인증 앤서블 컬렉션'을 제공해 AWS 기반 AI 서비스 자동화를 강화했다. 커뮤니티 차원의 협력도 포함된다. 레드햇과 AWS는 가상거대언어모델(vLLM)에 업스트림된 AWS AI 칩 플러그인을 최적화하고 있으며, 레드햇은 vLLM의 최대 상업적 기여자로서 AWS 환경에서 vLLM 기반 추론·학습을 가속하는 데 기여하고 있다. 이는 레드햇 오픈시프트 AI 3에서 상업적으로 제공되는 기능으로 이어진다. 레드햇은 데이터센터에서 엣지 환경에 이르기까지 AWS와의 장기 협력을 바탕으로 하이브리드 클라우드에서의 AI 통합 요구를 지원해 왔다. 이번 협업 확대는 조직이 생성형 AI의 성능·효율·운영 비용을 균형 있게 확보하도록 돕는 것이 핵심 목표다. AWS 뉴런 커뮤니티 오퍼레이터는 레드햇 오픈시프트 오퍼레이터허브에서 바로 이용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 내년 1월 개발자 프리뷰로 제공될 예정이다. 조 페르난데스 레드햇 AI 사업부 부사장은 "레드햇 AI 인퍼런스 서버를 AWS AI 칩과 함께 구현해 조직이 효율성과 유연성을 기반으로 AI 워크로드를 확장할 수 있도록 지원하고 있다"고 밝혔다. 콜린 브레이스 AWS 안나푸르나 랩 부사장은 "트레이니움과 인퍼런시아 칩은 기업이 높은 성능과 비용 효율성을 기반으로 생성형 AI를 프로덕션까지 확장하도록 설계됐다"고 말했다.

2025.12.03 14:05김미정 기자

레드햇, '프로젝트 허밍버드' 공개…개발 속도·보안 개선

레드햇이 클라우드 네이티브 애플리케이션 구축 환경을 개선하기 위해 새 서비스를 내놨다. 레드햇은 레드햇 구독 고객 대상 얼리 액세스 프로그램 '프로젝트 허밍버드'를 공개했다고 24일 밝혔다. 프로젝트 허밍버드는 최소 구성으로 강화된 컨테이너 이미지 카탈로그를 제공한다. IT 조직이 보안을 저해하지 않고 소프트웨어(SW)를 제공할 수 있게 돕는다. 검증된 마이크로 사이즈 컨테이너 이미지 카탈로그를 통해 애플리케이션 개발과 보안 요구를 동시에 충족하는 것을 목표로 한다. 이 프로그램은 불필요한 구성 요소를 제거한 이미지 카탈로그를 제공한다. 패키지 통합과 취약점 관리에 필요한 리소스를 줄인다. 이를 통해 기업은 개발 인력을 혁신 작업에 집중시키고 시장 출시 속도를 높일 수 있다. 카탈로그에는 닷넷, 고, 자바, 노드 등 주요 프로그래밍 언어 런타임과 마리아DB, 포스트그레SQL 같은 개발용 데이터베이스, 엔진엑스와 캐디를 포함한 웹 서버·프록시가 포함됐다. 현대적 애플리케이션 스택을 구성하는 필수 기반 요소도 제공된다. 이 프로그램은 알려진 취약점이 없는 '제로 공개 취약점 노출(CVE)' 상태를 유지하며 기능 테스트를 완료한 이미지를 제공한다. 개발자 요청이 많았던 프로덕션 레디 컨테이너를 선별해 공격 표면을 줄이고 공급망 신뢰도를 강화했다. 사용자는 이미지 내부 구성 요소를 확인할 수 있는 완전한 소프트웨어 자재명세서(SBOM)을 제공받아 현대적 컴플라이언스 요구를 충족할 수 있다. 정식 출시 후에는 레드햇의 공급망 검증 체계와 기술 지원을 포함한 풀 프로덕션 지원도 이용 가능하다. 지원되지 않는 허밍버드 이미지도 레드햇 유니버설 베이스 이미지(UBI)와 유사한 모델로 무료 배포되며 재배포가 허용된다. 페도라 리눅스 기반 오픈소스 개발 프로세스를 통해 구축돼 레드햇 엔터프라이즈 리눅스(RHEL) 개발의 업스트림 역할을 수행하는 점도 특징이다. 거너 헬렉슨 레드햇 엔터프라이즈 리눅스 부문 부사장 겸 총괄 매니저는 "프로젝트 허밍버드는 최소화되고 신뢰할 수 있으며 투명한 제로 CVE 기반을 제공해 취약점을 줄인다"며 "개발과 보안을 모두 충족하는 비즈니스 가치를 실현하게 할 것"이라고 밝혔다.

2025.11.24 11:16김미정 기자

"AI 병목 해소"…레드햇, RHEL AI 가속기 지원 강화

레드햇이 '레드햇 엔터프라이즈 리눅스(RHEL)' 내 인공지능(AI) 가속기 이용 환경을 개선했다. 레드햇은 AMD와 인텔, 엔비디아 AI 가속기를 레드햇 엔터프라이즈 리눅스에서 쉽게 설치하고 활용할 수 있도록 최신 드라이버 접근 방식을 확대했다고 13일 밝혔다. 이번 조치는 프로덕션 환경에서 드라이버 설치 과정이 초래하는 다운타임을 줄이고 AI 워크로드 안정성을 강화하는 데 초점 맞췄다. 레드햇 엔터프라이즈 리눅스는 수백 개 클라우드와 수천 개 하드웨어 소프트웨어 벤더로부터 인증을 받아 오픈 하이브리드 클라우드 기반을 제공해왔다. 이번 확장은 급증하는 AI 수요에 대응해 빠른 개발과 확장성을 확보하도록 설계됐다. 기업은 레드햇 저장소를 통해 파트너사가 호환성을 검증한 드라이버를 직접 내려받아 설치할 수 있다. 이를 통해 AI 모델과 애플리케이션을 프로덕션 환경에 신속하게 적용할 수 있다. 레드햇은 엔터프라이즈 리눅스 익스텐션 리포지토리와 서플리멘터리 리포지토리, 베이스OS를 통해 AI 가속기 관련 구성 요소를 제공한다. 여기에는 AMD GPU 커널 모드 드라이버와 ROCm, 인텔 NPU 커널 모드 드라이버, 엔비디아 GPU OpenRM 커널 모드 드라이버, 엔비디아 쿠다 툴킷 등이 포함된다. 레드햇은 RHEL이 오랜 기간 엔터프라이즈 혁신 기반으로 활용돼왔으며 이번 확장이 AI 시대 운영체제 역할을 재정의하는 계기가 될 것으로 보고 있다. 기업은 검증된 AI 가속화 소프트웨어를 보다 안정적으로 도입하고 배포하고 유지할 수 있다. 거너 헬렉슨 레드햇 엔터프라이즈 리눅스 부문 부사장 겸 총괄 매니저는 "우리는 AMD 인텔 엔비디아와의 협력을 확대해 RHEL 고객이 검증된 AI 가속기를 활용해 보다 원활한 혁신 빠른 배포 손쉬운 AI 확장을 실현할 수 있도록 간소화된 경험을 제공하게 돼 기쁘다"고 밝혔다.

2025.11.13 10:30김미정 기자

AI 시대 핵심은 '통제권'… 레드햇, 오픈소스 기반 '소버린 AI' 비전 제시

레드햇이 급격히 확산되는 인공지능(AI) 시대 속에서 소버린 AI의 중요성을 강조했다. 특정 벤더나 폐쇄형 플랫폼에 종속되지 않고 기업과 정부가 데이터와 인프라를 직접 통제할 수 있는 환경을 구축해야 한다는 것이다. 이를 실현하기 위한 해법으로 오픈소스와 하이브리드 클라우드를 기반으로 한 개방형 혁신 전략을 내세우며 AI의 주권과 신뢰를 동시에 확보할 수 있는 방향을 제시했다. 레드햇은 28일 서울 강남구 웨스틴 서울 파르나스 호텔에서 '레드햇 서밋 커넥트 2025' 기자간담회를 톨해 오픈소스 기반의 'AI 주권(Sovereign AI)' 전략과 차세대 엔터프라이즈 AI 혁신 방향을 발표했다. 레드햇 서밋 커넥트 2025는 아시아태평양 지역 최대 규모의 오픈소스 기술 행사로 기업과 개발자, 기술 파트너가 한자리에 모여 최신 IT 트렌드와 오픈소스 혁신 전략을 공유하는 자리다. 올해 '기술의 전환점, 함께 성장할 시대(Unlock What's Next)'를 주제로 AI·클라우드·자동화를 아우르는 다양한 세션과 데모를 통해 기업이 복잡한 IT 환경 속에서 어떻게 오픈소스 기술로 혁신을 가속화할 수 있는지 구체적인 방안을 제시했다. 이에 따라 레드햇 빈센트 칼데이라 아태지역(APAC) 최고기술책임자(CTO)와 김경상 한국레드햇 대표가 AI와 클라우드가 간담회에서 기술 전략을 제시했다. 빈센트 칼데이라 CTO는 급변하는 환경에서 필수적인 요소는 소버린 AI라며 이를 실현하는 핵심 기술로 오픈소스를 강조했다. 소버린 AI가 단순히 기술의 문제가 아니라 국가와 기업이 AI 활용 과정에서 통제력과 신뢰를 확보하기 위한 전략적 선택이라는 설명이다. 그는 "AI는 더 이상 기술적 진보의 문제가 아니라 데이터와 인프라에 대한 통제와 신뢰 확보가 경쟁력의 본질이 되고 있다"며 "특히 최근 AI가 정부 행정, 금융, 의료 등 사회 전반의 의사결정 과정에 깊숙이 들어오면서 데이터가 어디에 저장되고 어떤 기준으로 처리되는지가 중요해졌다"고 강조했다. 이에 따라 각국 정부와 기업은 외부 기술 종속을 줄이고 자국 내에서 데이터를 통제할 수 있는 기술적 주권을 확보해야 한다는 것이다. 칼데이라 CTO는 "오픈소스는 투명성과 감사 가능성을 바탕으로, 기업과 정부가 특정 벤더에 종속되지 않고 자율적으로 AI 인프라를 구축하고 운영할 수 있도록 한다"며 "특히 오픈 하이브리드 클라우드 환경에서는 AI 워크로드를 유연하게 배치하고, 각국이 데이터 주권을 유지한 채 기술 혁신을 지속할 수 있다”고 설명했다. 이어 “AI의 신뢰성과 규제 준수는 폐쇄형 시스템보다 개방형 생태계에서 더 효과적으로 구현된다"며 "레드햇은 오픈소스를 통해 고객이 데이터와 인프라를 직접 통제하면서도 글로벌 오픈 커뮤니티의 기술 혁신을 적극적으로 활용할 수 있도록 지원하고 있다"고 덧붙였다. 칼데이라 CTO는 소버린 AI의 4대 구성 요소로 ▲데이터 통제와 거버넌스 ▲보안 및 신뢰성 확보 ▲하이브리드 클라우드 컨트롤 ▲로컬 생태계 구축을 꼽았다. 그는 "레드햇은 오픈 하이브리드 클라우드 플랫폼을 통해 고객이 자체 클라우드와 AI 환경을 구축하고 관리할 수 있도록 돕고 있다"며 "이는 기술 주권과 디지털 자립을 위한 오픈소스의 실질적 구현"이라고 덧붙였다. 칼데이라 CTO는 AI 확산 과정에서 기업들이 가장 큰 어려움을 겪는 부분으로 '추론 효율성'을 지적했다. 많은 기업이 개념 검증(PoC) 단계에서는 AI가 잘 작동한다고 평가하지만 실제 서비스 환경에서 수천·수백만 요청이 발생하면 비용이 급격히 증가하며 투자수익률(ROI)을 만족시키지 못한다는 것이다. 특히 그는 GPU 인프라 활용률 문제를 지적하며 "GPU를 확보한 기업 중 7%만이 85% 이상의 활용률을 달성하고 있다"고 밝혔다. GPU 자원의 공유와 효율적 분배가 어려워 비용 낭비가 커지고 AI 확산의 발목을 잡고 있다는 것이다. 레드햇은 이러한 한계를 극복하기 위해 오픈소스 기반의 효율적 대규모언어모델 추론 엔진(vLLM)과 분산 대규모언어모델 추론 프레임워크(llm-d) 기술을 제시했다. vLLM은 페이지드 어텐션과 연속 배칭 기술을 적용해 GPU 메모리 사용을 크게 개선하고 처리량을 대폭 높인다. llm-d는 쿠버네티스 네이티브 분산 추론 프레임워크로 vLLM을 기반으로 AI-인식 라우팅, 동적 오토스케일링 등을 통해 다양한 클라우드 및 가속기 환경에서 대형 언어모델 추론을 확장 가능하게 한다. 칼데이라 CTO는 "AI 효율성을 높이는 일은 단순히 비용 절감이 아니라, AI를 실제 비즈니스로 전환할 수 있는 핵심 조건"이라며 "vLLM과 llm-d를 통해 기업은 클라우드 네이티브 환경에서 보다 유연하고 비용 효율적인 AI 운영이 가능해질 것"이라고 말했다. 레드햇은 이날 차세대 통합 AI 플랫폼 '레드햇 AI 3(Red Hat AI 3)'도 공식 발표했다. AI 3는 효율적인 추론, 에이전틱(Agentic) AI 혁신, 데이터와 모델의 연결, 하이브리드 클라우드 전반의 확장성이라는 4가지 영역을 중심으로 설계됐다. 이번 버전에는 분산 추론 기능과 향상된 vLLM, 생성형 AI 스튜디오, 모델 컨텍스트 프로토콜(MCP), 라마스택(Llama Stack) API가 포함됐다. 또한 문서 처리 툴킷 '도클링(Docling)' 기반의 데이터 전처리, 합성 데이터 생성, 훈련 허브(Training Hub), 서비스형 GPU(GPUaaS)와 서비스형 모델(MaaS), 데이터 드리프트 감지 등 기능이 새롭게 추가됐다. 칼데이라 CTO는 "레드햇 AI 3는 오픈시프트 위에서 구동되며, 고객이 이미 익숙한 클라우드 운영 방식을 유지한 채 AI 워크로드를 손쉽게 확장할 수 있게 한다"며 "레드햇은 고객에게 완전히 새로운 플랫폼을 요구하지 않는다. 오픈시프트의 기반 위에 AI를 얹어, 이미 구축된 인프라 자산을 최대한 재활용할 수 있도록 지원하고 있다"고 덧붙였다. 김경상 한국레드햇 대표는 지난해부터 레드햇이 추진해 온 핵심 전략으로 AI 대중화를 꼽았다. 그는 올해 들어 AI 오픈소스 커뮤니티의 활성화와 엔터프라이즈 환경에서 사용할 수 있는 오픈소스 AI 플랫폼 제공이라는 두 가지 방향에서 의미 있는 성과를 거뒀다고 평가했다. 그는 국내 시장에서 특히 '오픈 협력 생태계' 구축에 속도를 내고 있다고 강조했다. 레드햇은 국산 반도체 스타트업 리벨리온과 협력해 NPU(신경처리장치)의 오픈시프트(OpenShift) 인증을 완료했으며 이를 기반으로 AI 인프라 최적화를 지원하고 있다. 또 개발자와 기업 고객을 대상으로 한 첫 번째 공식 vLLM 밋업을 개최해 오픈소스 AI 기술을 공유하고 협업 생태계를 확대했다. 김 대표는 레드햇의 차세대 AI 플랫폼 '레드햇 AI 3(Red Hat AI 3)'를 중심으로 국내 기업들의 AI 전환을 본격적으로 지원하겠다는 계획도 밝혔다. 그는 "많은 기업이 AI 파일럿 단계를 넘어 상용화를 추진하고 있지만, 여전히 고비용 GPU 인프라와 맞춤형 AI 구축의 부담이 크다"며 "레드햇은 GPU 가상화와 자원 효율화 기술을 통해 비용을 줄이고, 각 기업의 데이터와 환경에 맞는 맞춤형 AI 플랫폼을 제공하고 있다"고 설명했다. 또한 레드햇의 핵심 운영체제인 '레드햇 엔터프라이즈 리눅스(RHEL)'의 역할도 강조했다. 그는 "RHEL은 이미 통신, 금융, 유통 등 산업 전반에서 안정적인 인프라로 자리 잡았다"며 "내년에는 AI 환경에 최적화된 RHEL 10을 통해 고객들이 AI와 클라우드를 더욱 긴밀하게 통합할 수 있도록 지원할 것"이라고 밝혔다.

2025.10.28 17:27남혁우 기자

HS효성인포·히타치 밴타라·레드햇, 하이브리드 클라우드 전환 가속

하이브리드 클라우드 시대를 맞아 기업들의 인프라 전환 속도가 빨라지고 있다. HS효성인포메이션시스템(대표 양정규)이 히타치 밴타라와 레드햇의 협력을 통해 가상화 현대화와 클라우드 전환을 단순화하는 솔루션을 공개했다. HS효성인포메이션시스템은 히타치 밴타라가 레드햇의 오픈시프트 가상화와 자사 차세대 스토리지 플랫폼 '가상스토리지플랫폼(VSP) 원(One)'을 결합한 새로운 하이브리드 클라우드 솔루션을 발표했다고 20일 밝혔다. 이번 솔루션은 독점 하이퍼바이저에 대한 의존도를 줄이고, 복잡한 라이선스 구조에서 비롯되는 기업의 비용 부담을 완화하는 데 초점을 맞췄다. 기존 가상화 환경을 통합된 하이브리드 클라우드로 현대화할 수 있도록 지원하며, 100% 데이터 가용성과 엔터프라이즈급 회복력을 제공해 안정적이고 효율적인 IT 운영을 구현한다. 히타치 밴타라의 VSP One과 레드햇 오픈시프트 결합 솔루션은 사전 검증된 참조 아키텍처와 강력한 가상머신(VM) 마이그레이션 도구를 제공한다. 이를 통해 전환 과정의 복잡성을 줄이고, 기존 인프라에서 새로운 환경으로의 이전 속도를 높인다. 또한 VM과 컨테이너를 동일한 플랫폼에서 함께 운영할 수 있어 중복 인프라를 최소화하고, 하드웨어 및 소프트웨어 라이선스 비용 절감 효과도 기대된다. VSP 원은 다중 사이트 회복력과 자동 페일오버(failover) 기능을 갖춰 장애 발생 시에도 연속적인 서비스 운영을 보장한다. 블록·파일·오브젝트 스토리지를 통합 관리할 수 있는 환경을 제공해 데이터 일관성과 가시성을 강화한다. 여기에 강화된 컨테이너 스토리지 인터페이스(CSI) 드라이버를 활용해 무중단 운영과 재해 복구, 지리적으로 분산된 사이트 간 워크로드 이동을 지원한다. 오픈시프트 마스터 노드를 퍼블릭 클라우드나 제3의 데이터센터에 분산 구성해 장애 상황에서도 안정적인 서비스 복원력을 확보할 수 있다. 또한 VM과 컨테이너의 통합 운영으로 벤더 종속성을 완화하고, 사전 검증된 아키텍처와 스토리지를 기반으로 애플리케이션 배포 및 마이그레이션 속도를 높인다. 통합 모니터링과 엔드투엔드 자동화를 통해 운영 효율성과 보안성을 강화하는 것도 주요 특징이다. 양정규 HS효성인포메이션시스템 대표는 "하이브리드 클라우드 시대에는 비용 최적화, 운영 단순화, 엔터프라이즈급 회복력을 동시에 확보하는 것이 핵심 과제"라며 "히타치 밴타라와 레드햇의 협력 솔루션은 기업이 안정적이면서도 미래 지향적인 IT 인프라를 구축할 수 있도록 돕는 혁신적 대안이 될 것"이라고 말했다.

2025.10.20 16:02남혁우 기자

레드햇, 'AI 3'로 기업 AI 상용화 정조준…'프로덕션의 벽' 넘는다

레드햇이 기업의 인공지능(AI) 실험 단계를 끝내고 실제 사업 성과로 연결하는 프로덕션 워크로드 시장 공략에 본격 나섰다. 레드햇은 최신 AI 플랫폼 '레드햇 AI 3'를 출시했다고 15일 밝혔다. 이번 플랫폼은 '레드햇 AI 인퍼런스 서버', '레드햇 엔터프라이즈 리눅스 AI', '레드햇 오픈시프트 AI'의 최신 기술을 통합했다. 이번 출시는 AI 도입 기업 대다수가 겪는 '프로덕션의 벽'을 겨냥한다. 실제로 매사추세츠 공과대학교(MIT) 보고서에 따르면 약 95%의 조직이 대규모 AI 투자에도 불구하고 측정 가능한 재무 성과를 내지 못하고 있다. 레드햇은 새 플랫폼을 통해 개념증명(PoC) 단계에 머무는 AI 워크로드를 실제 운영 환경으로 손쉽게 전환하도록 지원한다. 플랫폼의 핵심은 학습에서 실행 단계로 넘어가는 '추론' 기능 강화에 있다. 특히 '레드햇 오픈시프트 AI 3.0'에 정식 포함된 '엘엘엠-디(llm-d)'는 거대언어모델(LLM)을 쿠버네티스 환경에서 효율적으로 실행하는 분산 추론 기술이다. 레드햇 AI 3는 개발자와 IT 팀의 협업을 강화하는 통합 환경을 제공한다. 주요 기능은 ▲서비스형 모델 (MaaS) ▲AI 허브 ▲생성형 AI 스튜디오 등으로 구성된다. 레드햇은 이번 플랫폼으로 차세대 AI 에이전트 시스템의 기반을 마련했다. 라마 스택 기반의 통합 응용 프로그램 인터페이스(API)를 도입하고 외부 도구와 모델 상호작용을 간소화하는 '모델 컨텍스트 프로토콜' 채택을 주도해 에이전트 개발을 가속화한다. 기존 '인스트럭트랩' 기능을 기반으로 한 새로운 모델 맞춤형 툴킷도 선보였다. 이 툴킷은 개발자가 자체 데이터를 활용해 더 정확하고 특화된 AI 결과를 얻도록 돕는다. 조 페르난데스 레드햇 AI 사업부 부사장 겸 총괄 매니저는 "기업이 AI를 실험 단계에서 프로덕션 단계로 확장하면서 복잡성 비용 제어 측면에서 새로운 문제에 직면하고 있다"며 "레드햇 AI 3를 통해 IT 팀이 어떤 인프라에서도 자신만의 방식으로 차세대 AI를 안정적으로 운영할 수 있도록 지원한다"고 밝혔다.

2025.10.15 16:38조이환 기자

레드햇이 뽑은 '에코시스템 어워드' 수상자는?

레드햇이 국내 '에코시스템 어워드' 수상자를 19일 발표했다. 레드햇 에코시스템 어워드 2025는 레드햇 기술을 활용해 고객의 요구를 충족하고 비즈니스 성과를 개선하는 혁신적인 솔루션 개발에 지속적으로 노력한 파트너사를 선정한다. 혁신은 공동 창조, 투명성, 신뢰라는 오픈소스 원칙 위에서 구축되며 강력하고 역동적인 파트너 커뮤니티를 통해서 이뤄진다. 올해 마켓 메이커 어워드 부문 수상자는 아이웍스, 클라우드 엑셀러레이터 어워드는 에티버스, 우수 혁신 어워드는 펜타린크다. 전략 서비스 혁신 어워드는 코오롱베니트, 올해 파트너 어워드는 락플레이스다. 아이웍스는 지방 거점을 중심으로 레드햇 어드밴스드 비즈니스 파트너로서 입지 확대와 교육 센터 설립 공로를 인정받았다. 에티버스는 MSP 총판으로 클라우드 시장 개척과 파트너 네트워크 확장에 기여했다. 펜타린크는 자동화와 애플리케이션 분야 전문성을 입증하며 혁신성을 보였다. 코오롱베니트는 총판으로 레드햇 엔터프라이즈 리눅스를 포함한 전 제품군 기술 지원과 고객 접점 확대에서 성과를 거뒀다. 락플레이스는 전략적 파트너로서 매출 성과와 기술력을 입증하며 올해의 파트너 어워드 수상자로 선정됐다. 레드햇은 락플레이스가 단순 성과를 넘어 에코시스템 확장에 기여했다고 설명했다. 레드햇은 "혁신은 공동 창조와 투명성 신뢰라는 오픈소스 원칙 위에서 이뤄진다"며 "파트너 커뮤니티가 엔터프라이즈 오픈소스 확산을 주도하고 있다"고 밝혔다.

2025.09.19 14:36김미정 기자

레드햇이 AI 시대 오픈소스 철학으로 경쟁력 확보한 비결

"인공지능(AI) 시대에도 우리 오픈소스 철학은 변하지 않습니다. 누구나 어떤 환경에서도 자유롭게 AI를 개발하게 돕는 것이 목표입니다. 고객이 원하는 AI 모델과 액셀러레이터, 클라우드 환경을 효율적으로 구축하기 위해 노력하고 있습니다. AI 산업에서 경쟁보다 협력을 앞세워 안전하고 효율적인 개발 생태계 구축에 힘쓰겠습니다." 레드햇 프렘 파반 동남아시아·한국(SEAK) 총괄 부사장은 최근 지디넷코리아를 만나 오픈소스 기반 AI 비전을 이같이 밝혔다. 파반 부사장은 한국을 포함해 싱가포르, 말레이시아, 태국, 인도네시아, 베트남, 필리핀 시장을 담당하고 있다. 이 외 소규모 시장까지 합치면 총 11개국 사업을 책임지고 있다. '레드햇 AI' 전략으로 경쟁력 확보…글로벌 파트너십 강화 레드햇은 오픈소스 철학을 바탕으로 레드햇 AI 전략을 추진하고 있다. 가장 대표 사례는 뉴럴매직 인수와 '레드햇 AI 인퍼런스 서버' 개발 등이다. 이를 통해 고객사가 원하는 모델과 가속기, 클라우드 환경에서 자유롭게 AI를 개발할 수 있게 돕는다. 현재 뉴럴매직은 레드햇의 가상거대언어모델(vLLM) 핵심축으로 알려졌다. vLLM은 거대언어모델(LLM) 추론 성능을 끌어올리는 오픈소스 추론 엔진 역할을 한다. 메모리 관리와 병렬 처리 기술을 통해 그래픽처리장치(GPU) 자원 효율성을 높이도록 설계됐다. 레드햇은 이번 인수를 통해 뉴럴매직의 vLLM 최적화 기술을 레드햇 AI 인퍼런스 서버와 '오픈시프트AI' 플랫폼에 통합했다. 이를 통해 고객들이 어떤 환경에서도 안정적이고 비용효율적인 AI 개발·활용이 가능한 환경을 구현한 셈이다. 파반 부사장은 "우리는 단순히 학습된 모델을 그대로 서비스하는 수준을 넘어섰다"며 "연산 구조를 압축하거나 필요 없는 파라미터를 줄여 추론 속도를 높여 자원 소모를 줄이는 기술을 확보하게 된 것"이라고 강조했다. 이어 "vLLM 기반으로 기업 고객이 더 적은 자원으로 더 많은 AI 워크로드를 실행할 수 있도록 지원할 수 있다"고 덧붙였다. 파반 부사장은 레드햇 AI 전략만으로 AI 산업 경쟁력을 확보할 수 없다고 주장했다. 현재 AI 기술을 통한 경쟁보다는 협력이 우선이라는 설명이다. 그는 "AI 산업은 특정 기업의 독점 영역이 아니다"며 "업계 전체가 AI를 안전하고 효율적인 방향으로 키워야 한다"고 강조했다. 실제 레드햇은 글로벌 기업와 AI 연합을 추진하고 있다. 대표 예시가 오픈소스 프로젝트 'llm-d' 출범이다. 여기에 구글클라우드를 비롯한 IBM리서치, 엔비디아, 코어위브가 초기 멤버로 참여했다. 이후 시스코와 허깅페이스, 인텔, 미스트랄AI가 파트너사로 합류했다. llm-d는 vLLM 기반 추론을 분산형으로 확장하는 오픈소스 프로젝트다. 쿠버네티스 기반 인프라를 비롯한 GPU·CPU 자원 최적화, AI-aware 라우팅 등 추론 기술을 통합한 생태계 구축을 목표로 한다. 파반 부사장은 "오픈소스는 단순한 코드 공개가 아니라 커뮤니티·기업·생태계가 신뢰할 수 있는 표준을 만드는 과정"이라며 "우리는 AI 혁신을 안정성과 보안성으로 연결해 엔터프라이즈급 가치를 제공한다"고 강조했다. "한국, AI로 돈 벌기 시작…AI 네이티브로 가야" 파반 부사장은 한국 시장이 아시아에서 우수한 AI 성숙도를 갖췄다고 평가했다. AI 기술 검증(PoC) 단계를 넘어 실제 운영 환경에서 AI를 돈 버는 수단으로 활용하기 시작했다는 이유에서다. 그는 "한국 고객은 특히 GPU 투자 대비 효율성과 추론 비용 최적화, 모델 운영 환경 안정성 등 현실적 과제까지 논의하기 시작했다"며 "어떤 AI 모델을 업무에 활용해야 하는지에 대한 기초 논의를 넘어선 수준"이라고 말했다. 파반 부사장은 아시아 기업들이 AI 네이티브 기업으로 도약하기 위해 갖춰야 할 세 가지 요건으로 데이터와 문화, 스케일을 꼽았다. 기업이 AI를 통해 장기적이고 지속 가능한 성과를 내려면 이 세 가지 균형을 반드시 이뤄야 한다고 재차 강조했다. 그는 "AI 전략을 논의하기 전 가장 먼저 점검해야 할 것은 데이터 품질과 구조화"라며 "사일로 없는 데이터 플랫폼이 구축돼야 기업 전체가 AI 혁신을 추진할 수 있다"고 설명했다. 파반 부사장은 AI 네이티브 문화도 필요하다고 봤다. 경영진이 AI 네이티브에 대한 강력한 의지가 없다면 AI는 단순한 실험으로 끝날 수밖에 없다는 이유에서다. 조직 전체가 AI 활용 문화를 공유하고 뿌리내려야만 AI 성과를 낼 수 있다고 밝혔다. 그는 스케일 전략도 중요하다고 내다봤다. 그는 "작은 성공에 만족하지 말고 장기적 AI 확장을 준비해야 한다"고 말했다. 이어 "앞으로 기업 내 유스케이스가 폭발적으로 늘어나기 때문에 이를 감당할 수 있는 인프라와 전략을 미리 갖추는 것이 필수"라고 덧붙였다.

2025.09.01 10:31김미정 기자

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

나프타 쇼크에 포장재 비상…파우치 배터리는 괜찮나

네이버·카카오의 요즘 인재상…"AI 활용 넘어 소통·사고력"

"AI 스타트업 성패는 '인프라'…글로벌 확장 기회 좌우"

美, 반도체 공급망 위한 '팍스 실리카' 펀드 출범…3700억원 투입

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.