• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ACC 컨퍼런스'통합검색 결과 입니다. (6건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

세일즈포스 "AI 시대에도 통합과 연계는 중요한 과제"

“AI 시대에 통합과 연계는 여전히 중요한 과제다. 기업의 개발자가 번아웃을 일으키는 주요 요건 중 하나가 통합, 연계, 자동화 같은 일 때문에 생산적인 일에 몰두하지 못하기 때문이다.” 세일즈포스코리아 이성 상무는 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024'에서 이같이 밝혔다. 세일즈포스 뮬소프트는 얼마전 자동화 및 디지털 통합 현황과 AI 전략 구축 인사이트를 담은 '2024 연결성 벤치마크' 보고서를 발표했었다. 뮬소프트의 이번 보고서는 미국, 영국, 프랑스, 일본 등 전 세계 9개국의 1천50명의 CIO 및 IT 부문 리더들을 대상으로 작년 10월부터 11월까지 진행한 연구조사에 기반한다. 조직 내 IT 부문 리더 중 85%는 AI를 통해 개발자의 업무 생산성이 향상할 것이라고 응답했다. 반면, AI의 중요성에도 불구하고 62%는 조직에서 아직 AI 활용에 필요한 데이터 시스템 통합이 준비되어 있지 않다고 답했다. 보고서에 따르면, 기업의 운영 효율성, 생산성, 직원 및 고객경험 향상 등을 위한 성공적인 AI 전략은 데이터 통합에 달린 것으로 나타났다. 설문 응답자의 80%는 이미 조직 내에서 생성형 AI 또는 예측형 AI를 활용하고 있는 가운데, 근 3년 내 조직이 활용하고 있는 LLM 수가 69% 이상 늘어날 것이라고 예상했다. 기업 내 데이터 및 시스템에 연동된 앱은 약 28%에 불과했으며, 응답자의 95% 이상은 기업의 AI 도입에 시스템, 장치, 소프트웨어, 데이터 소스 등의 '디지털 통합'이 당면과제라고 답했다. 이성 상무는 “평균적으로 기업이 보유한 애플리케이션 수가 900여개 정도라고 하는데, 트랜잭션 한번 일어날 때마다 32개 시스템을 연결해야 한다”며 “투자 비용은 늘지 않지만, 점점 더 많은 기술 스택을 지원해야 하는 과제 때문에 통합의 복잡성은 중요한 문제가 되고 있다”고 말했다. 그는 뮬소프트의 API 관리와 통합 영역을 설명하면서 복잡한 시스템 연계를 어떻게 자동화할 수 있는지 설명했다. 그는 “뮬소프트는 API를 레이어별로 구분해 느슨하게 연계하는 방식으로 기술을 지원하고 있다”며 “이를 통해 타임투마켓에 맞춰 애플리케이션을 개발한 다음에 API를 땡겨가면 되므로 실제로 전체적인 영향도나 안정성 이에 대해서 시간을 최소화하고, API 재사용성을 극대화할 수 있다”고 밝혔다. AI 도입 및 통합된 고객경험을 제공하기 위해서는 데이터 사일로 해결이 급선무인 것으로 나타났다. 조사 결과, 81%의 IT 리더는 데이터 사일로가 디지털 혁신에 있어 가장 큰 어려움이라고 답했으며, 약 26%만이 전체 디지털 채널에서 연결된 사용자 경험을 제공하고 있다고 밝혔다. 이와 관련해 뮬소프트는 AI를 도입하고 운영하기 위해서 모든 비즈니스 데이터를 통합할 수 있는 시스템의 필요성이 증가하고 있다고 설명했다. 뮬소프트는 노코드 기반의 자동화, API, 데이터 및 시스템 통합을 지원하는 유니파이드 플랫폼으로 새로운 장치, 소프트웨어, 버전 및 데이터 소스를 쉽고 빠르게 통합 및 연동할 수 있도록 지원한다. 이를 통해 기업은 빠르게 변화하는 내·외부 환경에도 민첩한 대응 역량을 확보할 수 있다. 지난 18년간 뮬소프트는 글로벌 생활용품 기업 유니레버, 유럽 항공기 제작사 에어버스, 미국의 통신사인 AT&T, 프랑스의 보험 금융 그룹 AXA, 스포츠 브랜드 아식스 등 전 세계 기업의 디지털 혁신을 지원했다.

2024.04.17 16:59김우용

"오라클 데이터베이스 23c는 생성형 AI의 기반"

“곧 정식 출시될 오라클 데이터베이스 23c는 기업에서 필요로 하는 AI 핵심 요소를 제공한다. 오라클 데이터베이스는 지속적으로 다양한 포맷을 수용하는 통합 데이터베이스를 표방한다. 새 버전은 JSON과 관계형 DB를 혼합하고, AI에 가장 필요한 검색증강생성(RAG)을 지원하는 벡터 검색을 제공하게 된다. 오라클 데이터베이스 23는 AI의 근간 인풋인 데이터의 기반을 제공한다.” 허양호 한국오라클 전무는 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024'에서 이같이 밝혔다. 향후 출시되는 오라클 데이터베이스 23c는 새로운 기능으로 JSON 듀얼리티 뷰와 AI 벡터 검색 등을 제공한다. 관계형 데이터베이스 형식과 JSON 형식을 한 테이블에 저장할 수 있는 기능과 AI의 기업 내부 데이터 접근을 가능하게 하는 벡터 DB 기능이다. 허양호 전무는 “오라클 데이터베이스 23c의 JSON 듀얼리티 뷰를 이용하면 JSON 데이터 변환작업을 DB 차원에서 자동으로 해주고, JSON 데이터를 DB 테이블에 자동으로 알아서 저장한다”며 “이 테이블에 있는 데이터를 읽으면 JSON 포맷으로 다시 복귀해 보여준다”고 설명했다. 그는 “그 리턴 값을 다시 수정해서 JSON 뷰에 넣으면 그 업데이트된 내용이 자동으로 다시 DB 테이블에 저장돼 모든 변환에 필요한 복잡한 과정을 자동화할 수 있다”고 강조했다. 생성형 AI의 기술은 데이터에 연관성을 부여하는 벡터화를 활용한다. 벡터 정보를 위한 별도 데이터베이스가 요구되는데, 오라클 데이터베이스 23c를 사용하면 기존 DB로 벡터 검색을 지원할 수 있다. 허 전무는 “AI 환각을 해결하는 단어로 요즘 RAG가 각광받고 있다”며 “벡터 DB는 정형 및 비정형 데이터를 수치화해 벡터 형태로 저장하는 것으로, 그 의미 검색을 지원해 최신화된 데이터를 언제든 연동해서 사용할 수 있게 한다”고 말했다. 그는 “오라클 데이터베이스 23c에서 이 벡터 DB를 함께 매핑해 지원함으로써 기업 내부에 데이터를 LLM에 더해 프롬프트를 자동으로 생성할 수 있고, 기업에게 실질적으로 필요한 전문적 답변을 받게 한다”고 강조했다. 그는 데이터베이스 제품 외에 오라클클라우드인프라(OCI) 서비스의 AI 요소도 설명했다. 그는 “오라클 OCI는 AI 데이터의 수집, 저장, 처리, 분석, 학습, 활용, 배포, 관리 등에 이르는 엔드투엔드 데이터 파이프라인 관리 서비스를 제공한다”고 밝혔다. 오라클은 자사의 퍼블릭 클라우드 서비스의 강점으로 저렴한 비용, 고성능, 유연성, 보안 등으로 꼽는다. OCI의 모든 기능과 요소를 프라이빗 클라우드, 전용 리전, 멀티클라우드에 걸쳐 동일하게 제공하는 구성도 제공한다. 허 전무는 “AI의 가장 중요한 것 중 하나가 보안이므로, 프라이빗 클라우드를 원하는 고객에게 OCI의 클라우드앳커스터머와 전용 리전은 매우 큰 이점을 제공한다”고 말했다.

2024.04.17 16:42김우용

수세 "컨테이너 특성을 이해하는 보안 솔루션 필요"

"컨테이너 환경을 운영하다 보면 종래의 보안툴로 컨테이너 특성을 제대로 확인하고, 가시성을 확보하기 쉽지 않다. 컨테이너에 특화된 가시성을 제공하고, 그에 맞는 보안을 적용할 수 있는 솔루션이 필요하다.: 최근홍 수세코리아 지사장은 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024'에서 이같이 밝혔다. 최근홍 지사장은 "IT 시스템은 한 하드웨어 안에서 컨테이너와 가상머신이 공존하며 발전했고, 데브옵스가 데브섹옵스로 연결되며 보안가지 한 흐름으로 연결되는 형태로 진화하고 있다”며 “클라우드 네이티브는 이제 필수적인 변화의 방향이고, 하루에도 수십번씩 핵심 기능을 변경하는 빠른 혁신이 필요한 상황에서 IT 전체 구성의 클라우드 네이티브로 전환이 반드시 필요하다”고 전제했다. 클라우드 네이티브 환경은 빠르게 기업용 IT 시스템 환경의 기본으로 자리잡고 있다. 과거의 전통적인 엔터프라이즈 애플리케이션을 클라우드 네이티브 환경으로 전환하는 '현대화 사업'도 활발히 벌어진다. 클라우드 네이티브 환경은 변화에 빠르게 대응하고, 유연하게 확장하며, 시스템 중단을 최소화하면서 수시로 기능을 업그레이드할 수 있는 이점을 제공한다. 그러나 이런 이점을 제대로 누리기까지 쉽지 않은 과정을 거쳐야 한다. 최근홍 지사장은 “클라우드 네이티브가 제시하는 밝은 청사진을 실제로 실현하고 자신의 것으로 만드는데 적지 않은 노력이 필요하다”며 “일단 모노리틱 앱에 익숙한 기업이 작은 단위로 앱을 쪼개서 빠르게 변화시키는 개발환경을 도입하고, 하드웨어 운영 관련 부분을 개발자에게도 맡기거나, 컨테이너의 보안도 함께 생각하게 만드는 변화를 조직 관리 차원에서 하기 매우 어렵다”고 지적했다. 이어 “적절한 보안을 정의하고 적용하는 것도 어렵고, 새로운 기술을 이해하는 인재를 확보해 지속적인 최신 기술력을 보유하는 것도 어렵다”며 “특히 오픈소스는 다양한 영역에 걸쳐 존재하는 무수한 기술 요소를 사용자 스스로 취사선택하고 최신 상태를 유지해야 하는 어려움도 갖고 있다”고 덧붙였다. 이런 과제를 해결하기 위해 수세는 클라우드 네이티브 계층 11개에 걸쳐 핵심 솔루션과 기술을 직접 개발하거나 패키징해서 한 스택으로 구성하고, 이를 수세 랜처로 제공해 오픈소스 활용과 기술 확보를 지원한다. 뉴벡터는 컨테이너의 활동을 관찰, 학습해서 비정상적인 행위를 정책으로 만들고 그를 기반으로 보안을 유지하게 한다. 제로데이 방어라 해서 운영 첫날부터 정상적 행위로 정의되지 않은 모든활동으로부터 시스템을 보호하고, 패킷 캡처 같은 기술로 기업에 필요한 핵심 자산의 외부 유출을 막는다. 최 지사장은 “뉴벡터는 이미 알려진 위협 요소를 정의하고 그로부터 컨테이너화된 시스템을 보호할 뿐 아니라 알려지지 않은 위협에서도 비정상적인 네트워크 프로토콜과 위협 공격을 학습해서 정상적 범주를 스스로 정의하고 적용해 공격으로부터 지켜낸다”며 “컨테이너 이미지 생성부터 배포까지 전 과정에서 문제를 사전에 식별하고 런타임에서 이미지 배포할 때 직면할 운영 환경의 위협요소에 대비하도록 한다”고 설명했다. 그는 “예를 들어 프로세스의 실행이나 파일액세스, 위협노출 컨테이너를 격리해서 위협 미치지 않게 하는 등이 가능하다”며 “노드에 파드를 구성해 배포하고, 네트워크 동작 부분을 개발 품질 단계서 학습하고, 모니터링 환경으로 넘어가면 이전과 다른 형태의 접근이나 프로토콜 발생 시 차단한다”고 말했다. 시중의 컨테이너 보호 솔루션은 별도 서버를 구성하고, 노드별 에이전트를 심어서 탐지하므로 현업 환경에서 성능 이슈를 부르거나 별도 자원을 필요로 한다. 반면, 뉴벡터는 하나의 컨테이너 앱으로 구성해 직접 배포되는 형태로 아키텍처가 이뤄져 있다. 뉴벡터를 배포해서 네트워크 가시성을 확보하기까지 30분이면 된다. 최 지사장은 “수세는 또한 하베스트란 솔루션을 통해 가상머신과 컨테이너를 함께 구성하고 운영하도록 한다”며 “하베스트는 쿠버네티스를 기반으로 하면서, 데이터센터를 컨테이너와 가상머신 하이브리드 구성을 지원한다”고 강조했다.

2024.04.17 15:04김우용

지코어 "삶을 바꾸는 생성 AI의 위치는 엣지"

“인공지능(AI)이 인류의 미래를 바꿀 것이라 전망되지만, AI가 어떻게 산업에 연결돼 서비스로 다가오고 경제 생활을 만들어낼 지 알 수 없다. 가시적인 변화는 AI가 생산성으로 이어져야 가능할 것이다. 일반인공지능(AGI)도 중요한 문제고 인류의 미래를 바꾸겠지만, 기업의 먹거리와 인류의 삶을 바꾸는 AI는 결국 엣지에서 있을 것이다.” 지코어코리아 김진용 팀장은 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024' 기조연설에서 이같이 밝혔다. 김진용 팀장은 "생성형 AI는 2년도 안 돼 부풀려진 기대치의 정점을 찍었고, 곧 환멸의 골짜기에 도달할 것으로 보인다”며 “생성형 AI 기업의 운영 비용은 월 100만달러에 달하는 큰 부담을 주고 실질적인 이익을 벌어들이지 못하는 상황이기 때문”이라고 설명했다. 김 팀장은 “현 시점에서 필요한 것은 기존 자산을 잘 조합하고 새로운 아이디어를 고안해내서 새로운 혁신을 이루는 것”이라며 “AI 학습과 추론, 모델을 묶어서 사용자 가까이 있는 디바이스와 안전한 통신으로 연결되는 모든 세트를 갖춰야 한다”고 강조했다. 지코어는 160개 이상의 국가와 지역에 PoP를 운영하고 있다. 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업이라고 스스로를 강조한다. 특히 생성형 AI 학습과 추론에 필요한 전용 인프라를 클라우드 서비스로 제공하고 있다. 최근 지코어코리아는 한국 데이터센터를 개소했다. 품귀현상을 보이는 엔비디아 H100 텐서코어 GPU 서버를 설치했다.지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 김진용 팀장은 “생성형 AI의 아키텍처는 기존 엔터프라이즈용 애플리케이션과 달리 서비스 부분에서 많은 자원이 필요하다”며 “지코어는 훈련용과 추론용 인프라로 GPU 자원을 제공하며, 더 특별한 수요에 대응하는 IPU도 제공한다”고 말했다. 지코어의 또 다른 강점은 네트워킹 인프라다. 콘텐츠딜리버리네트워크(CDN)에서 시작한 회사란 장점을 살려 초저지연시간을 보장하는 고속 네트워크를 생성 AI에 제공할 수 있다. 지코어의 클라우드 컴퓨팅은 '서버리스 컴퓨팅'에 기반한다. 거대언어모델(LLM)을 사용할 때 자원 할당을 별도로 하지 않아도 되며, 실제로 모델을 작동시키는 양만큼만 비용을 내면 된다. 그는 “AI는 지연시간에 민감한 서비스기에 지코어는 글로벌 평균 26밀리초의 지연시간을 유지하며, 한국의 경우 한자릿수 밀리초의 지연시간으로 이용할 수 있다”며 “다양한 LLM을 기업이 모두 미리 깔아놓을 수 없으므로 정말 필요할 때 자원과 모델을 곧바로 활용할 수 있도록 서버리스 컴퓨팅으로 제공하고 있다”고 설명했다. 지코어는 중앙의 인프라와 네트워킹에 더해 엣지 단계에서 AI 모델 추론을 수행할 수 있는 환경도 제공한다. '인퍼런스앳더엣지'란 서비스는 160여개 지코어 POP의 캐싱서버에 암페어 알트라맥스와 엔비디아 L40S 칩을 두고 고객의 AI 서비스를 구동할 수 있게 한다. 필요한 LLM도 캐싱해 빠르게 제공할 수 있으며, 유사한 추론을 반복적으로 하게 되는 상황을 감안해 모델응답을 캐시할 수 있다. 김 팀장은 “사용자가 지코어 기잔의 AI 서비스에 접속하면 인퍼런스앳더엣지의 AI 칩으로 다양한 모델을 끌어와 서비스를 돌릴 수 있다”며 “지리적 혹은 정치적 이유에 따른 규제 차이에 맞게 답변과 모델에 차이를 둬야 할 때도 맞춤형으로 대응가능하다”고 말했다. 그는 여기에 '5G 보안 네트워크' 기반으로 생성 AI와 사용자 디바이스를 연결할 수 있다고 했다. 사용자, 기업 등의 데이터가 외부에 유출되지 않도록 제로트러스트 네트워크를 통해 정보를 주고 받을 수 있다. 그는 “어떤 IoT 디바이스든 데이터를 실제 AI 서비스 장소까지 안전하게 전달하는 센서 데이터 보안 확보가 가능하다” 그는 “지코어의 서비스를 통해 '모든 것의 인터넷(IoT)'에서 '모든 것의 AI(AioT)'라 할 수 있게 된다”며 “지코어는 앞으로 AI 시장이 우리 현실 속에 들어온 엣지 디바이스에서 일어날 것으로 생각하며 이를 실현하기 위해 어느 기업보다 먼저 아키텍처를 고안해 선보이고 실제로 잘 움직이도록 잘 조율해 서비스에 녹여왔다”고 강조했다.

2024.04.17 11:53김우용

VM과 컨테이너를 병용하며 AI를 도입하는 확실한 전략

클라우드는 인프라 현대화를 넘어 애플리케이션 현대화 시대로 나아가고 있다. 클라우드 네이티브 기술의 핵심인 컨테이너, 쿠버네티스 등이 새롭게 만들어지는 클라우드향 애플리케이션의 토대를 이루고 있다. 그러면서 한때 IT시스템 혁신의 선두역할을 했던 서버 가상화 기술이 레거시 기술로 여겨진다. 애플리케이션 현대화는 구식 시스템을 최신 클라우드 네이티브 기술 기반으로 교체해 급변하는 IT 트렌드에 유연하고 민첩하게 대응하려 추진된다. 현재 당연하게 활용되는 기저의 클라우드 네이티브 기술이 컨테이너와 쿠버네티스다. 기존에 구축한 시스템을 한꺼번에 교체하기 어려울 수 있다. 서버 가상화 기술은 앞으로도 많이 사용될 전망이다. KBV리서치의 조사에 따르면, 세계 가상머신(VM) 시장은 2030년까지 303억달러 규모를 형성할 것으로 예측된다. 그사이 연평균 성장률(CAGR)이 15.8%로 예상됐다. 컨테이너를 VM과 통합하는 환경을 구축하면 워크로드 관리에 더 유연성을 얻을 수 있고, 컨테이너와 VM 간 원활한 전환을 추구할 수 있다. 서버 가상화는 장기적으로 애플리케이션 현대화에 걸림돌일 수 있다. 하지만 가상화 환경과 컨테이너 환경을 이원화 운영하기는 어렵고 복잡하다. 그래서 우선 컨테이너와 가상화를 단일한 제어환경으로 통합한 뒤 점진적으로 컨테이너 기반의 마이크로서비스 환경으로 전환해 가는게 적절한 방안으로 제시된다. 인공지능(AI)·머신러닝(ML) 같은 최신 워크로드는 리소스를 많이 할애해야하므로 컨테이너 환경이 적합하다. 다만, 기존의 기업용 애플리케이션까지 컨테이너로 전환해야 하는가는 세부 상황을 따져봐야 한다. 레드햇은 가상화 또한 클라우드 네이티브 가상화를 실현할 수 있도록 지원하며 레거시 가상화 기술과 최신 컨테이너 기술이 공존할 수 있는 방법을 제시하고 하고 있다. 레드햇은 오픈시프트AI를 비롯한 AI 솔루션을 통해 AI·ML 및 ML옵스를 더욱 효과적으로 도입할 수 있도록 지원하는 개방형 아키텍처를 제공한다. 레드햇은 기존 가상화를 활용할 수 있는 방안과 더불어 AI 솔루션을 효과적으로 도입하기 위한 방안을 제시한다. 레드햇은 단계적 해법을 제안한다. 먼저, 가상화와 컨테이너를 오픈시프트 플랫폼으로 통합 운영하고, 한번에 모든 인프라를 변경하기보다 VM을 컨테이너와 혼용하면서 단계적으로 전환하며, 컨테이너 도입 비중을 늘려서 애플리케이션 현대화를 완수하는 것이다. 이 전략을 통해 기존 가상화 시스템과 인프라를 활용하면서도 리소스가 많이 활용되는 워크로드도 해결할 수 있게 된다. 무엇보다 클라우드 네이티브 가상화에서 나아가 컨테이너를 통한 애플리케이션 현대화를 위한 기반을 마련할 수 있다. 개발자는 오픈시프트를 통해 쿠버네티스의 이점을 유지하면서 VM에 필요한 아키텍처를 활용하고, 레거시를 운영하면서 동시에 애플리케이션을 컨테이너로 리팩토링할 수 있다. 컨테이너, VM, 서버리스 등의 워크로드를 통합된 환경에서 단일한 개발 방법론과 경험으로 개발할 수 있게 된다. 컨테이너로 VM을 변경하는 과정을 거치지 않고도 VM에 클라우드 네이티브의 이점인 확장성과 자동화 요소를 접목할 수 있다. 운영자는 데브옵스를 매우 효율적으로 구성할 수 있다. 오픈시프트의 셀프서비스 기능을 VM에서 이용하면, 워크로드 관리권한을 담당 현업이나 개발팀에 넘겨주고 인프라와 플랫폼 유지보수에 더 집중할 수 있다. 기업은 레드햇 오픈시프트 가상화(Redhat OpenShift Virtualization)를 활용해 기존 VM을 쿠버네티스 기반으로 이동한다. 다음으로 비즈니스 로직에 큰 변화를 주지 않고 VM웨어를 컨테이너로 전환할 수 있다. 운영중인 애플리케이션을 마이크로서비스로 리팩토링하는 게 가능하다.마지막으로 클라우드 네이티브 개발 접근법을 활용해 새로운 버전의 애플리케이션을 개발하는 동안 레거시 환경을 지속적으로 실행할 수 있는 기반을 재구축한다. 레드햇 오픈시프트는 기본적으로 KVM이란 가상화 기술 위에서 작동한다. 레드햇가상화(RHV), 오픈스택에서도 활용되는 가상화 환경과 동일하다. 레드햇 오픈시프트 가상화는 레드햇엔터프라이즈리눅스(RHEL) 코어OS 기반의 게스트 OS를 무제한으로 생성할 수 있다. 마이크로소프트 서버가상화검증프로그램(SVVP)을 통해 마이크로소프트 윈도 게스트 OS도 지원한다. 레드햇 오픈시프트는 세가지 종류로 나뉜다. 리눅스 환경에 쿠버네티스와 쿠버네티스 클러스터 서비스를 포함하는 '레드햇 오픈시프트 쿠버네티스 엔진'과, 그 엔진 위에 워크로드 관리, 클라우드 네이티브 앱 빌드, 데이터 서비스, 개발자 생산성 기능 등을 제공하는 '레드햇 오픈시프트 컨테이너 플랫폼', 여기에 멀티클러스터 관리, 클러스터 보안, 글로벌 레지스트리, 클러스터 데이터 관리 등의 기능까지 제공하는 '레드햇 오픈시프트 플랫폼 플러스' 등이다. VM을 오픈시프트 가상화로 이전하면 이같은 레드햇 오픈시프트 제품군의 모든 기능을 이용할 수 있다. 레드햇은 기존 VM웨어 환경의 VM을 오픈시프트로 이전할 수 있는 '마이그레이션 툴킷 포 버추얼라이제이션((Migration Toolkit for Virtualization, MTV)'을 제공한다. 이 도구를 활용하면 대규모 VM을 무중단에 가깝게 마이그레이션할 수 있다. 전통적인 VM 작업인 관리자 개념과 작업, 네트워크 및 스토리지 연결, 라이브 마이그레이션 등을 최신 플랫폼에서 동작시킬 수 있다. 전통적인 VM에 담긴 비즈니스 크리티컬 애플리케이션을 유지 관리하면서 시간을 두고 기술 세트를 현대화할 수 있다. 운영자는 오픈시프트 프로젝트 단위로 VM 권한을 현업 담당자나 개발자에게 부여할 수 있다. VM 프로비저닝도 레드햇 앤서블 자동화 도구를 활용해 하드웨어부터 모든 설정에 이르기까지 단순화할 수 있다. VM은 컨테이너와 기본적으로 동일한 네트워크 상에 올라가 있으므로, VM과 컨테이너의 연결이 매우 자유롭다. 오픈시프트 위의 VM은 컨테이너와 동일한 소프트웨어정의네트워킹(SDN) 네트워크에 연결되며, 쿠버네티스의 서비스, 라우트, 인그레스, 서비스메시, 파이프라인, 깃옵스 등 표준 방식으로 접근할 수 있다. 네트워크 정책은 컨테이너 POD와 동일한 방식으로 VM에 적용된다. 네트워크 연결에 따라 SDN이나 인그레스를 통해 VM-POD 혹은 반대로 통신도 가능하다. 전세계적인 AI 열풍에 따라가려면 신규 AI·ML 도입을 위한 효과적인 애플리케이션 현대화 전략이 필요하다. 디지털 환경에서 데이터는 중요한 경쟁력은 데이터의 양뿐 아니라 데이터를 어떻게 활용하느냐다. 컨테이너와 쿠버네티스는 데이터 활용에 필요한 시스템을 유연하고 민첩하게, 확장가능하게 구축할 수 있으므로 AI/ML에서 대부분 활용된다. 레드햇 오픈시프트AI는 검증된 기술 포트폴리오, 입증된 전문성, 전략적 파트너십 등을 제공해 기업의 AI/ML 목표 실현을 지원한다. 레드햇 오픈시프트는 온디맨드 컴퓨팅 리소스, 하드웨어 및 GPU 가속 지원, 온사이트와 퍼블릭 클라우드 및 엣지 환경 전반의 일관성을 통해 성공 필요한 속도와 유연성을 제공한다. 레드햇 오픈시프트 AI는 AI/ML 모델 및 애플리케이션의 라이프사이클을 교육, 서비스, 모니터링, 관리할 수 있고, 엔비디아, 인텔, 스타버스트, 아나콘다, IBM, 파키덤(Pachyderm) 등 주요 인증 파트너 제품을 통합하는 일관된 협업 환경을 통해 실험 단계에서 프로덕션으로 이동할 수 있다. 이같은 기존 VM 활용과 신규 AI 도입을 위한 효과적인 애플리케이션 현대화 방안은 오는 17일 인터컨티넨탈서울코엑스 하모니볼룸에서 열리는 'ACC+ 2024' 행사에서 더 자세히 확인할 수 있다. ACC+ 2024는 AI와 더불어, 빅데이터, 클라우드, 보안 등 최신 IT 솔루션과 서비스를 확인할 수 있는 세미나와 함께 직접 경험할 수 있는 기업 전시부스를 다양하게 운영한다. 사전 등록을 통해 행사에 참가할 수 있으며, 현재 얼리버드 등록 이벤트를 통해 할인 혜택을 제공하고 있다. 사전 등록과 등록 문의는 공식 웹사이트를 통해 가능하다.

2024.04.15 11:24김우용

AI 플랫폼, 성능과 지속가능성 함께 잡는 전략은

전 세계 기업이 AI로 다양한 문제를 해결하고 비즈니스 성장을 이끌고 있는 가운데, 기존의 데이터 관련 접근 방식은 막대한 초기 투자와 높은 에너지를 소비해 지속가능성 면에서 우려를 낳고 있다. 대화형 AI 서비스, 문서 초안 작성, 이미지 및 동영상 생성, 작곡 등을 수행하는 모든 AI 모델은 시간당 메가와트 단위의 막대한 서버 운영 비용을 발생시킨다. AI 모델의 전력 소비량을 정확히 추정하는 건 어렵다. AI 개발과 운영에 필요한 GPU의 전력 외에 CPU, 저장매체, 스토리지, 네트워킹 등의 전력도 전체 에너지 소비에 영향을 주며, 데이터센터의 냉각과 공조에 소비되는 전력도 무시할 수 없다. AI 모델의 소비 전력량은 이같은 여러 요소를 종합적으로 판단하고, 각 인프라 상황에 따라 달라질 수 있다. AI 모델의 전력 소비량은 학습과 추론에 따라 다르게 볼 수 있다. 2022년 발표된 한 논문에 따르면, 오픈AI의 GPT-3를 학습시키는 데 1천300메가와트시(MWh) 수준의 전력이 필요한 것으로 추정된다. 이는 넷플릭스 동영상 스트리밍을 162만5천시간동안 지속하는 양이다. 허깅페이스와 카네기멜론대학교의 알렉산드라 사샤 루치오니 박사의 작년 12월 연구 조사에 의하면, AI 모델의 샘플 1천건 분류에 0.002킬로와트시(kwh)를 소비하는 반면, 텍스트 생성 작업을 1천번 실행하는데 평균 0.0476kWh의 에너지를 사용한다. 이미지 생성 모델은 1천회 추론당 평균 2천907kWh 전력을 사용하는 것으로 나타났다. 이 연구는 학습보다 추론에 더 많은 전력을 사용한다는 것을 보여준다. 또 엔비디아 GPU의 비트코인 채굴 시 전력 소비량을 계산했던 알렉스 드 브리에스 VU 암스테르담 박사과정 후보자의 작년 연구에 의하면, AI 부문은 2027년까지 매년 85~134테라와트시(TWh)를 소비할 것으로 예측됐다. 이는 네덜란드 연간 전력수요와 비슷한 수준이다. 드 브라이스는 2027년까지 AI 전력 소비가 전세계 전력 소비의 0.5%를 차지할 것이라고 전망했다. 국제에너지기구는 2022년 현재 데이터센터의 전력 사용량을 약 460TWh로 추정하면서 2026년까지 620~1천50TWh로 증가할 것이라고 최근 보고서에서 추정했다. 이같은 급격한 전력 소비량 증가세는 AI 수요의 영향 때문이다. 여러 연구자들은 AI 모델을 전력 소비를 절감하는 방향으로 구성하면 에너지 소비량을 크게 줄일 수 있다고 강조한다. 지금까지 AI 모델 개발과 운영은 주로 성능 개선에만 초점을 맞추고 발전해왔고, 현 상황부터 에너지 절감에 초점을 맞추면 얼마든지 개선할 수 있다는 것이다. 연구자들은 AI 인프라 관련 제조사에서 제품 전략을 지속가능성이란 한방향으로 맞추면 달성할 수 있다고 조언한다. AI 모델의 성능과 에너지 절감 즉, 지속가능성을 함께 달성하는 여러 방법 중 하나로 가장 활발한 주장을 내놓는 회사는 퓨어스토리지다. 퓨어스토리지는 고가용성 올플래시 스토리지인 플래시블레이드를 AI 데이터 플랫폼 솔루션으로 제시하면서 데이터센터의 에너지 절감을 주요 강조점을 내세우고 있다. AI 프로젝트의 성공은 방대하고 다양한 종류의 데이터 처리에 달려 있다. 정형 데이터뿐 아니라 수집, 저장, 분석이 까다로운 비정형 데이터 관리에 최적화된 퓨어스토리지의 플래시블레이드는 파일과 오브젝트 모두를 지원하며, 데이터 크기나 액세스 패턴에 관계없이 우수한 성능을 제공한다. 플래시블레이드는 데이터 증가에도 성능을 유지하는 스케일아웃 구조를 갖추고 있어, 성능과 용량을 필요에 따라 유연하게 확장할 수 있으며 다양한 스케일의 AI 수요를 충족시킨다. 퓨어스토리지는 올플래시 스토리지를 통해 AI 데이터 운영을 간소화하고, 컨테이너화된 AI 환경에서 셀프 서비스 기능 및 서비스수준협약(SLA) 기반 리소스 프로비저닝을 제공한다. 경쟁 솔루션 대비 에너지 사용량과 데이터센터 내 상면 공간을 최대 80%까지 절감하고, 전자 폐기물을 85%까지 감소시켜 데이터센터 비용 절감에도 크게 기여한다. 기존 AI 데이터 스토리지는 용량 확장만 가능할 뿐, GPU 발전에 따른 성능 향상은 어려웠다. 구축과 최적화에 장시간이 소요되며, 내구연한에 이를 경우 최신 하드웨어로의 업그레이드가 필요하지만 무중단 업그레이드는 불가능했다. 이에 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 접목했다. 퓨어스토리지는 클라우드와 같은 구독형 모델을 올플래시 스토리지에 적용하여, 기업이 스토리지를 사용하는 만큼만 비용을 지불하게 하고, 스토리지 업그레이드 시 기존 제품의 교체 번거로움과 데이터 마이그레이션 중 발생할 수 있는 서비스 중단 문제를 해결했다. 퓨어스토리지의 구독 서비스인 에버그린(Evergreen) 포트폴리오를 통해, 데이터 플랫폼을 항상 최신 하드웨어와 소프트웨어로 유지함으로써 최고의 성능을 제공하고, 업그레이드 과정에서도 시스템 중단 없이 작업을 이어갈 수 있다. 이러한 접근 방식은 AI 혁신 가속화, 비용 절감, 운영 효율성 향상, 환경 보호 등 다양한 이점을 제공하며, 기업들이 지속가능한 AI 데이터 파이프라인을 구축하는 데 핵심적인 역할을 한다. 이에 대해 퓨어스토리지는 AI 혁신 가속화를 위한 효율적인 데이터 파이프라인 구축 전략을 제시하고 지속가능한 IT 인프라 구축의 중요성을 강조한다. 퓨어스토리지는 데이터 파이프라인을 통한 인프라 간소화 및 프로세스 효율화로 AI 역량 강화와 속도를 극대화하고, 지속가능성 목표 달성을 위한 방안을 제시하고자 한다. 퓨어스토리지의 플래시블레이드는 포춘 100대 기업 중 25% 이상이 사용하고 있으며, 금융, 제조, 의료 및 IT 서비스 등 AI 관련 연구를 선도하는 국내외 기업 및 연구기관들의 AI 컴퓨팅 환경에서 활발하게 활용하고 있다. 엔씨소프트의 경우 AI 프로젝트를 가속화하기 위해 플래시블레이드를 확대 도입한 사례다. 플래시블레이드 도입 후 수일이 소요되던 데이터 이동 및 로딩 작업을 당일 내 처리할 수 있게 되었으며, 클라우드와 같이 스케일링이 가능한 AI 환경을 온프레미스에 구축하여 총소유비용(TCO)을 대폭 절감하고, 추가 비용 없이 온프레미스 인프라를 유연하게 확장할 수 있는 역량을 확보했다. 카카오는 AI 애플리케이션에서 발생하는 방대한 양의 데이터를 처리하고 GPU의 성능을 극대화하기 위해 플래시블레이드를 도입했다. 도입 이후, 카카오는 네트워크 인터페이스 및 스토리지 병목 현상을 제거하여 GPU로부터 높은 컴퓨팅 리소스를 확보했으며, 사내 관제 시스템과 유기적으로 통합된 플래시블레이드는 데이터 파이프라인에 대한 직관적인 관리를 제공하고, 중복된 데이터 사일로의 제거 및 데이터 압축 저장을 통해 운영 및 관리 비용을 절감했다. 미디어젠은 플래시블레이드를 통해 최대 12개월이 소요되던 음성인식 모델링 작업을 2주(96% 향상)로 단축했으며, 충북테크노파크는 플래시블레이드를 도입해 데이터 처리 성능을 2배 이상 향상하고, GPU 서버 내 데이터 읽기 속도를 개선해 GPU 활용률을 기존 30%에서 80%로 약 2.6배 증가시켰다. 이같은 AI 데이터 플랫폼의 성능과 지속가능성 개선이란 두 목표를 달성하기 위한 방안은 오는 17일 인터컨티넨탈서울코엑스 하모니볼룸에서 열리는 'ACC+ 2024' 행사에서 더 자세히 확인할 수 있다. ACC+ 2024는 AI와 더불어, 빅데이터, 클라우드, 보안 등 최신 IT 솔루션과 서비스를 확인할 수 있는 세미나와 함께 직접 경험할 수 있는 기업 전시부스를 다양하게 운영한다. 사전 등록을 통해 행사에 참가할 수 있으며, 현재 얼리버드 등록 이벤트를 통해 할인 혜택을 제공하고 있다. 사전 등록과 등록 문의는 공식 웹사이트를 통해 가능하다.

2024.04.08 11:25김우용

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

美, 한국에 상호관세 25%부과…8월 1일부터 적용

무너지는 중소웹툰플랫폼…네카오, 양강 체제 굳어진다

정부 요청에…유통업계, 라면·빵·커피 등 ‘최대 반값 할인’

삼성전자, 반도체 쇼크에 '휘청'…"재고 충당·AI칩 대중 수출 규제 탓"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.