• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'레드햇 서밋 2026'통합검색 결과 입니다. (4건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

레드햇-엔비디아, 'AI 팩토리' 고도화…"보안·운영 강화"

[애틀란타(미국)=김미정 기자] "우리는 엔비디아 손잡고 기업이 에이전틱 인공지능(AI)을 확장하도록 돕고 있습니다. 이를 위해 가장 필요한 보안과 통제, 관리 효율을 높이는 데 주력하겠습니다." 크리스 라이트 레드햇 최고기술책임자(CTO) 겸 글로벌 엔지니어링 수석부사장은 11~14일까지 미국 조지아주 애틀랜타에서 열리는 '레드햇 서밋 2026'에서 엔비디아와 공동 개발한 소프트웨어(SW) 플랫폼 '레드햇 AI 팩토리 위드 엔비디아' 신규 업데이트를 공개했다. 이번 업데이트는 장시간 자율적으로 작동하는 AI 에이전트 보안성과 관리 효율을 높이는 데 초점 맞췄다. 이번 업데이트 핵심은 자율형 에이전트를 안전하게 통제하는 실행 환경이다. 두 기업은 엔비디아 오픈소스 프로젝트 '오픈셸'을 레드햇 풀스택 AI 플랫폼에 통합하는 공동 엔지니어링을 추진하고 있다. 오픈셸은 에이전트가 어떤 작업을 실행하고 어떤 시스템에 접근하며 추론 요청을 어디로 보낼지 관리하는 샌드박스형 런타임이다. 양사는 보안 체계도 하드웨어(HW) 수준으로 확장했다고 밝혔다. 레드햇 AI 팩토리 위드 엔비디아는 기밀 컴퓨팅 기반 '기밀 컨테이너'를 적용해 다른 에이전트가 침해되더라도 런타임 환경을 보호하도록 설계됐다. 현재 기술 프리뷰 형태로 제공되며 레드햇 오픈시프트 샌드박스드 컨테이너에서 엔비디아 컨피덴셜 컴퓨팅을 활용할 수 있다. 여기에 셀리눅스, 미국 연방정보처리표준(FIPS) 준수, 엔비디아 도카 기반 런타임 보호 기능을 결합한 제로 트러스트 아키텍처도 적용했다. 레드햇은 이를 통해 데이터센터부터 엣지까지 분산된 환경에서 핵심 자산을 보호하고 유럽연합(EU) AI법과 같은 보안·거버넌스 요구에도 대응할 수 있다고 설명했다. 양사는 AI 모델과 에이전트 운영을 통합 관리하는 기능도 강화했다. 레드햇 AI 팩토리 위드 엔비디아는 '레드햇 AI 3.4' 기능을 활용해 레드햇 AI 게이트웨이 기반 '서비스형 모델' 환경을 제공한다. 개발자는 엔비디아 네모트론 등 선별된 모델을 오픈AI 호환 인터페이스로 이용할 수 있다. 운영 추적 기능에는 머신러닝(ML) 수명주기 관리 도구 'ML플로'가 적용됐다. 이를 통해 거대언어모델(LLM) 호출, 도구 실행, 추론 단계를 종단 간으로 확인할 수 있다. 기업은 에이전트가 어떤 과정을 거쳐 특정 결과에 도달했는지 감사할 수 있게 된다. 이날 무대에 선 저스틴 보이타노 엔비디아 엔터프라이즈 AI 부문 부사장은 이번 협력을 통해 엔비디아 인프라 지원을 확대한다고 밝혔다. 엔비디아는 그레이스 블랙웰 아키텍처를 레드햇의 '엔비디아용 레드햇 엔터프라이즈 리눅스 26.01'을 통해 지원한다. 양사는 향후 엔비디아 베라 루빈 플랫폼을 지원하는 차기 버전도 공동 개발하고 있다. 양사는 AI 구축 시간을 줄이기 위한 검증형 설계안도 내놨다. 레드햇과 엔비디아는 서비스형 모델, 기업용 리서치, 기업용 검색증강생성(RAG)·래프트(RAFT) 등 주요 활용 사례를 담은 '엔비디아 AI 블루프린트'와 AI 퀵스타트를 제공한다. 추가 블루프린트도 순차적으로 개발할 예정이다. 라이트 CTO는 "AI를 기업의 실험 단계에서 산업적 엔진으로 옮기려면 하이브리드 클라우드 전반에서 주권성과 일관성을 갖춘 기반이 필요하다"며 "엔비디아와의 전략적 공동 엔지니어링을 통해 기업이 에이전틱 AI를 자신 있게 확장하는 데 필요한 아키텍처 통제력과 오픈소스 혁신을 제공하고 있다"고 밝혔다.

2026.05.12 23:58김미정 기자

레드햇, '소버린 AI' 시장 노린다…"민감 산업 고객 확보"

[애틀란타(미국)=김미정 기자] "어떤 기업·국가도 인공지능(AI) 모델과 데이터, 운영 인프라 통제권을 특정 글로벌 벤더나 외부 환경에 넘겨줘선 안 됩니다. 우리는 누구나 스스로 이를 보유·관리하는 체계를 만들 수 있는 소버린 AI·클라우드 강화에 힘쓸 것입니다." 아쉬쉬 바다니 레드햇 수석부사장 겸 최고제품책임자(CPO)는 11~14일까지 미국 조지아주 애틀랜타에서 열리는 '레드햇 서밋 2026'에서 소버린 AI와 프라이빗 클라우드 포트폴리오 확장 방안을 발표했다. 레드햇은 소버린 개념을 단순한 규제 준수로 보지 않았다. 조직 스스로 기술 방향을 결정할 수 있는 통제권으로 규정했다. 지정학적 변화나 시장 상황, 벤더 정책 변화와 관계없이 자체 데이터와 인프라 운영 권한을 유지해야 한다는 시각이다. 이를 위해 레드햇은 '레드햇 오픈시프트'를 비롯한 '레드햇 엔터프라이즈 리눅스' '레드햇 앤서블 오토메이션 플랫폼' '레드햇 AI' 업그레이드를 발표했다. 조직이 자국 경계 안에서 에어갭, 소버린, 프라이빗 클라우드를 구축하고 확장할 수 있도록 소프트웨어(SW) 핵심 기반을 제공하는 전략을 핵심으로 뒀다. 이번 포트폴리오 고도화에는 규제 대응 자동화 기능이 포함됐다. 레드햇은 오픈시프트 컴플라이언스 오퍼레이터용 프로파일과 쿠버네티스 보안 기능을 결합해 기술 검토와 증빙 자료 생성을 자동화하는 기능을 추가했다. 또 네트워크·정보시스템 지침(NIS)2, 일반개인정보보호규정(GDPR), 디지털 운영 복원력법(DORA) 등 지역별·산업별 규제 대응 부담을 줄이겠다고 밝혔다. AI와 클라우드 서비스를 자체 환경에서 빠르게 구축할 수 있는 기능도 강화했다. 새 서비스 프로비저닝 인터페이스는 오픈시프트 위에서 가상머신, 클러스터, AI 서비스를 신속히 배포하도록 지원한다. 그래픽처리장치형 서비스(GPU-as-a-Service), 모델형 서비스(Model-as-a-Service), 추론형 서비스 제공과 AI 모델 생명주기 통제 기능을 제공한다. 레드햇은 데이터 주권을 위한 운영 기능도 플랫폼에 추가했다. 레드햇 라이트스피드는 고객 통제 환경 내부에서만 작동하는 오픈시프트 비용 관리 텔레메트리를 제공하며 운영 데이터를 소버린 경계 밖으로 전송하지 않고도 클라우드 지출을 파악할 수 있도록 돕는다. 바다니 CPO는 "우리는 EU를 시작으로 소프트웨어(SW) 공급망 현지화를 추진할 방침"이라며 "레드햇 엔터프라이즈 리눅스 지역 내 다운로드 체계를 마련하고 2026년 말까지 대상 제품을 확대할 계획"이라고 전략을 밝혔다. 코어42 "레드햇 플랫폼 덕에 민감 산업 고객 늘어" 라구 차크라바르티 코어42 엔지니어링 총괄 부사장은 AI 시대 국가와 기업이 데이터 통제권을 지키기 위한 소버린 클라우드 전략을 제시했다. 그는 퍼블릭 클라우드만으로는 의료, 국방, 금융처럼 민감 산업군 요구를 충족하기 어렵다고 판단했다. 이에 코어42는 레드햇 오픈스택과 오픈시프트로 수천 대 서버에서 가상머신과 컨테이너를 운영하기 시작했다. 차크바라크티 부사장은 레드햇 플랫폼으로 민감 산업 고객을 확보할 수 있었다고 밝혔다. 데이터가 지역 밖으로 나가지 않고 현지 인력이 직접 기술 지원을 한다는 점이 주요 원인이다. 그는 "대형 은행과 정부기관은 진단 데이터와 감사 데이터 보관을 중시한다"며 "우리는 AI용 그래픽처리장치(GPU) 자원도 몇 주가 아닌 몇 분 안에 공급할 수 있게 됐다"고 설명했다. 이어 "레드햇을 글로벌 확장 핵심 파트너로 뒀다"며 "국가별 요구에 맞춘 소버린 클라우드 모델을 늘려갈 것"이라고 강조했다.

2026.05.12 23:50김미정 기자

레드햇 CEO "AI 승부처, 모델보다 '개방형 플랫폼'서 갈려"

[애틀란타(미국)=김미정 기자] "인공지능(AI) 시대 기업은 시스템 복잡성 폭증을 겪고 있습니다. 예산은 그대로 인데 규제는 느는데다가 AI 성과까지 올려야 하는 상황이기 때문입니다. 기존 IT 환경을 무너뜨리지 않으면서 AI를 안정적으로 운영할 수 있는 개방형 환경을 갖춰야 합니다." 맷 힉스 레드햇 최고경영자(CEO)는 11~14일까지 미국 조지아주 애틀랜타에서 열리는 '레드햇 서밋 2026' 기조 연설에서 AI 시대 경쟁력 핵심으로 오픈소스 기반 개방형 플랫폼 중요성을 강조했다. 힉스 CEO는 현재 기업들이 가상화 비용 상승, 규제 확대, AI 투자 성과 압박을 동시에 겪고 있다고 진단했다. 같은 예산과 인력으로 현대화, 보안, 운영, 혁신을 모두 추진해야 하는 만큼 기업 IT의 본질적 과제는 AI 도입 자체보다 복잡성 관리에 있다는 설명이다. 힉스 CEO는 과거 리눅스와 쿠버네티스가 산업 전환 공통 기반이 됐던 흐름을 AI 산업에 연결지어 설명했다. 그는 "독점 인프라 시대에는 리눅스가, 클라우드 네이티브 전환기에는 오픈시프트 기반 쿠버네티스가 표준으로 자리 잡았다"며 "AI 역시 개방형 표준 위에서 엔터프라이즈로 확산할 것"이라고 내다봤다. 그는 AI 시스템을 개방형 플랫폼으로 전환한 사례를 공유했다. 가장 대표 사례는 내부 지식을 탐색해 실질적 답변을 제공하는 '딥 리서치 에이전트'다. 레드햇은 초기에 프런티어 모델을 활용했지만 최근 문서 검색, 환각 탐지, 안전성 관리, 계획 수립 등 기능별로 오픈 웨이트 모델 전환을 확대했다. 그는 "해당 시스템 호출 85%는 레드햇 인프라에서 구동되는 오픈소스·오픈 웨이트 모델로 처리되고 있다"며 "모델과 인프라를 직접 제어할수록 범용 프런티어 모델이 예상하기 어려운 방식으로 최적화가 가능하며 비용 효율성과 결과 품질도 개선됐다"고 설명했다. 이어 "AI 시대 해답은 하나의 클라우드와 벤더, 단일 모델이 아닐 것"이라며 "해답은 폭넓은 생태계가 뒷받침하는 올바른 플랫폼"이라고 밝혔다.

2026.05.12 22:21김미정 기자

[현장] LLM보다 20배 자원 쓰는 에이전틱 AI…레드햇 "해법은 추론 최적화"

"에이전틱 AI는 하나의 질문에도 모델을 여러 번 호출하며 일반 챗봇 대비 GPU 자원을 5배에서 최대 20배까지 더 소모하는 구조입니다. 기업이 이를 도입해 수익을 창출하려면 비용 통제와 성능 확보, 서비스 안정성을 동시에 달성할 수 있는 추론 최적화가 필수입니다." 이호진 레드햇 솔루션 아키텍트는 26일 서울 마곡 LG사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 이같이 강조했다. 그는 '에이전틱 AI로의 진화와 추론 최적화 전략'을 주제로 발표하며, 생성형 AI를 넘어 에이전틱 AI 시대로 전환되는 흐름과 이에 따른 인프라 전략 변화를 짚었다. 이 아키텍트는 가트너와 IDC 리서치를 인용하며 올해 기업 애플리케이션 40%가 업무 특화 AI 에이전트를 탑재하거나 AI 에이전트와 함께 일하게 될 것이라고 설명했다. 단순 질의응답을 수행하는 생성형 AI에서 벗어나, 멀티스텝 업무 자동화와 워크플로우 판단·실행까지 수행하는 구조로 진화하고 있다는 분석이다. 문제는 자원 소모다. 에이전틱 AI는 하나의 요청에도 모델 호출과 도구 실행, 검색과 재시도를 반복한다. 그 결과 일반 챗봇 대비 GPU 자원이 5배에서 최대 20배까지 더 필요할 수 있다. 그는 "이 구조에서는 추론 비용이 급격히 증가할 수밖에 없다"며 "추론 최적화 없이 에이전틱 AI를 확장하는 것은 현실적으로 어렵다"고 말했다. 이어 추론의 개념과 운영 환경에서의 과제를 설명했다. 대규모언어모델(LLM) 추론은 입력을 토큰으로 변환하고 토큰 간 관계를 계산해 답변을 생성하는 과정이다. 현재 AI 시장의 예산과 컴퓨팅 중심이 학습에서 추론 영역으로 이동하고 있으며 상시 운영 환경에서는 성능과 비용 최적화의 효과가 더욱 크게 나타난다고 강조했다. 특히 엔터프라이즈 환경에서는 GPU 자원 효율화뿐 아니라 보안 검증, 모델 안정성 확보, 지연 편차 관리까지 함께 고려해야 한다고 짚었다. 레드햇은 이를 해결하기 위한 전략으로 가상대규모언어모델(vLLM), LLM 컴프레서, 검증된 모델 컬렉션, 대규모 분산 추론 기술(LLM-D)을 제시했다. vLLM은 고성능 모델 서빙 엔진으로, 신규 모델과 다양한 AI 가속기를 지속적으로 지원하며 업계 표준처럼 활용되고 있다고 설명했다. LLM 컴프레서는 양자화를 통해 모델 크기와 GPU 메모리 사용량을 줄이면서도 정확도를 유지하는 기술이다. 실제 70B 모델을 GPU 8장에서 2장으로 줄이면서 99% 이상의 정확도를 확보한 사례도 소개했다. 또한 오픈시프트 기반으로 검증·최적화된 모델을 제공해 엔터프라이즈 AI의 품질과 안정성을 빠르게 확보할 수 있다고 밝혔다. LLMD는 대규모 분산 추론을 지원하는 기술로 여러 서버에 모델을 분산 배치하고 라우팅과 로드밸런싱, KV 캐시 효율화를 통해 고성능과 비용 효율을 동시에 달성할 수 있도록 돕는다고 설명했다. BC카드 사례도 공유했다. 초기에는 오라마 기반으로 최대 20건 요청을 처리했으나, vLLM 전환과 API 캐싱, 튜닝을 거치며 최대 25만건 요청을 처리하는 구조로 확장했다. 특히 LLM 컴프레서를 통한 양자화로 모델 크기를 절반으로 줄이고 성능은 3배 높이면서도 정확도 차이는 0.01% 수준에 그쳤다고 밝혔다. 이 과정에서 기업이 모든 기술 레이어를 자체적으로 감당하기보다 안정적인 플랫폼을 기반으로 전문 역량을 결합하는 전략이 필요하다고 강조했다. 이호진 아키텍트는 "에이전틱 AI 시대에는 추론이 곧 경쟁력"이라며 "레드햇 AI 플랫폼과 전문 역량, 컨설팅을 통해 고객의 추론 최적화와 AI 혁신을 지원하겠다"고 말했다.

2026.02.27 08:38남혁우 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

통신 3사, 1분기 마케팅 비용 2조원 넘어섰다

'안전 제일' 카카오 자율주행차 강남서 타보니

AI에이전트·양자위협에 금융사 보안 '빨간불'…"정부·업계 선제책 필요"

리플 "한국, 스테이블코인 입법 주저하면 산업 기회 놓칠 것"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.