• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터 클라우드'통합검색 결과 입니다. (217건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

한국IDC "올해 국내 서버 시장 GPU 공급확대로 성장 전환"

한국IDC는 최근 발간한 '국내 엔터프라이즈 인프라스트럭처 서버 컴핏 보고서'에서 국내 서버 시장이 향후 5년간 연평균 성장률(CAGR) 9.9%를 기록하며 2028년 4조7천246억원의 매출 규모를 형성할 것이라고 30일 밝혔다. 국내 서버 시장은 주요 GPU 제조사의 공급이 회복되며 2024년부터 성장세로 전환할 것으로 분석됐다. IDC 보고서에 따르면 작년 국내 서버 시장 매출 규모는 전년 대비 5.1% 감소한 2조9천521억원으로 나타났다. 신규 데이터센터 증가에도 불구하고 서버 증설 물량이 기대에 미치지 못한 점이 시장 감소의 주요 원인으로 꼽힌다. 2022년말부터 생성형AI 시장의 가파른 성장으로 인해 기업 IT예산이 GPU 서버에 집중되며 기존 데이터센터 랙서버 물량의 감소, GPU 서버 공급 지연 문제 등의 요인이 시장 하락에 영향을 미친 것으로 분석됐다. 국내 서버 시장은 그간 기업의 디지털화를 지원하는 클라우드가 성장의 동력이었으나 재작년부터 생성형 AI 시장이 급격히 성장하며 시장 판도가 바뀌었다. 작년 정부의 공공 클라우드 전환 사업 예산 삭감으로 투자 방향을 잃은 국내 클라우드 사업자들이 생성형AI를 위한 GPU 서버 확보에 IT투자를 집중하는 추세다. 특히 생성형AI를 구축하기 위해서 많은 데이터의 트레이닝을 위한 8GPU 서버가 선호되며8GPU 서버 공급이 가능한 서버 벤더가 국내 서버 시장을 주도했다. 향후 제조, 통신, 공공, 금융 등 다양한 산업의 GPU서버 도입도 증가하면서 생성형AI 시장의 저변이 확대될 것으로 예상된다. 엔비디아가 서버 GPU를 단독으로 공급하면서 수요가 몰리는 경향이 있었으나, AMD도 서버 GPU를 출시하며 향후 인퍼런싱 단계에서 GPU외에 다른 가속기 수요도 증가할 전망이다. 아직 생성형AI의 초기 단계로 트레이닝을 위한 8GPU 서버의 수요가 빠르게 증가하고 있지만 본격적으로 생성형AI가 상용화되는 시점에서는 인퍼런싱에 대한 수요도 증가하면서 8GPU 서버와 단일 GPU 벤더로 집중되는 현상은 해소될 것으로 예상된다. IDC는 서버를 크게 x86 프로세서를 사용하는 x86서버와 그 외 비x86 서버로 구분하고 있다. 대부분의 플랫폼이 x86 서버 기반으로 전환되면서 국내에서 대략적으로 90% 이상이 x86 서버로 공급되고 있으나 일부 공공 및 금융권에서는 여전히 미션크리티컬 서버로 비x86 서버 기반의 유닉스 시스템이 운영되고 있다. 저전력으로 운영되는 ARM 서버도 글로벌 클라우드 서비스 사업자 중심으로 빠르게 성장하는 추세다. 이런 기조를 바탕으로 국내 비x86 서버 시장의 향후 연평균 성장률은 5.9%를 기록하며 2028년에는 3천866억원의 매출 규모를 형성할 전망이다. 국내 x86 서버 시장 역시 기업의 AI 및 클라우드 등 디지털 전환을 주도하면서 향후 5년간 연평균 성장률은 10.3%로 증가하여 2028년에는 4조3천379억원의 매출 규모를 기록할 것으로 예상된다. 한국IDC에서 엔터프라이즈 인프라 시장 리서치를 담당하고 있는 김민철 수석연구원은 “서버 시장의 경우 아직 생성형AI의 초기 단계지만 GPU 서버에 대한 투자 과열과 늘어나는 GPU는 소비 전력 증가 및 발열 상승으로 이어지고 있다"며 "이는 데이터센터의 운영 비용 증가로 이어져 앞으로 수도권의 추가적인 데이터센터 구축은 점차 힘들어질 것”이라고 설명했다. 그는 "현재 생성형AI는 대부분 LLM 기반으로 운영되고 있으나, 향후에는 이미지, 사운드, 비디오 등 다양한 고용량 데이터가 증가하며 AI기술을 위한 GPU 서버 공급이 더욱 증가할 것"이라고 전망했다.

2024.04.30 09:46김우용

[기고] 클라우드 서비스 선택, 5가지만 알아두세요

클라우데라의 조사에 따르면 IT 의사결정권자의 68%는 하이브리드 클라우드 전략을 선호했다. 또한, IT 의사결정권자의 72%는 여러 클라우드 서비스 공급업체(CSP)와 계약을 맺고 있는 것으로 나타났다. 클라우드 환경이 복잡해지면서 각 CSP는 다양한 서비스를 제공한다. 때문에 올바른 데이터 아키텍처를 기반으로 삼는 것은 매우 중요하다. 이를 어긴다면 관리 자체가 요원하게 된다. 클라우드 비용, 규정 준수, 비즈니스 위험에 대한 영향을 고려할 때 기업의 철저한 사전검토는 점차 중요해지고 있다. 하지만 기업이 CSP에게 필요한 것이 무엇인지 파악하기 위해서는 먼저 자사의 데이터를 정확하게 이해해야 한다. 기업은 그들이 어떤 데이터를 저장, 관리, 처리하는지 명확히 알고 있어야 한다. 규정 준수 또는 보안 요구사항 때문에 온프레미스에 남아 있어야 하는 데이터가 있는지, 퍼블릭 클라우드 환경으로 이전하면 어떤 데이터와 워크로드에 이점이 있는지 알아야 한다. 이러한 정보가 없다면 기업은 CSP에게 필요한 것이 무엇인지 요구하기 어렵다. IT 의사결정권자의 92%가 향후 3년 동안 더 많은 데이터를 클라우드로 이전할 계획이 있다고 응답한 만큼 미래를 위해서라도 데이터에 대한 심층적인 이해가 필요하다. 시간과 비용을 투자했다면 문제에 다다랐을 때 다시 되돌릴 여유가 없다. 예컨대 통신사가 네트워크, 운영 최적화를 위해 CSP와 대규모 계약을 체결한 경우, 많은 경우 방대한 데이터 양으로 인한 천문학적인 클라우드 비용이 발생해 계약을 중단하기도 한다. 이처럼 퍼블릭 클라우드를 통하는 데이터의 양을 미리 예상하는 것은 매우 중요하다. 기업이 어떤 데이터가 필요한지 파악했다면 어떤 CSP와 함께할지 고민해야 한다. CSP를 선정하기 위한 다섯 가지 핵심 질문은 다음과 같다. 첫째는 미래를 대비한 유연성 제공 여부다. 이는 CSP가 기업의 성장을 지원하는지 알 수 있는 지표 중 하나다. CSP가 현재 혹은 미래 워크로드에 필요한 사례를 경험했는지, 오픈소스 표준을 지원하는지, 비즈니스 혁신을 위한 AI, 분석 도구와 같은 제품 로드맵을 갖추고 있는지 확인해야 한다. 최대한 다양한 미래 가능성을 상정하고 접근하는 지혜가 필요하다. 둘째는 워크로드에 따른 비용 변화다. 비용은 모든 클라우드 결정에서 가장 중요한 요소 중 하나다. 특정 워크로드마다 더 효과적이고 효율적인 비용으로 실행 가능한 클라우드가 다를 수 있음을 인지해야 한다. 이에 따라 기업이 실행하는 특정 워크로드에 대한 비용을 세분화해 논의해야 한다. 셋째는 데이터 송신에 대한 수수료 부과 여부다. 구글 클라우드 플랫폼이 송신 수수료 정책을 폐지했지만, 모든 클라우드에는 클라우드를 쉽사리 바꾸지 못하게 하는 요소가 있다. 따라서 상황 변화에 대비해 데이터를 CSP 환경 밖으로 송신하는 데 드는 비용을 미리 파악하는 것이 좋다. 이는 비즈니스 민첩성에도 영향을 미친다. 넷째는 서비스 복원력과 안정성이다. 퍼블릭 클라우드가 다운되면 기업 전체가 마비될 가능성이 있다. 클라우드 의존도가 높은 기업은 단순히 서버를 재부팅하는 것만으로는 서비스를 복구할 수 없기 때문에 복원력과 안정성은 CSP 선정의 중요한 기준이다. 클라우드 중단이 일어난다면 엄청난 피해 금액이 발생할 수도 있다. 가격이 높더라도 복원력이 뛰어나고 다운타임이 훨씬 적은 CSP를 고르는 것이 정답이 될 수 있다. 마지막은 다른 기술과의 통합이다. 기업은 보통 데이터 분석, 데이터 웨어하우징, 데이터 스트리밍 등을 위해 다양한 개별 도구를 사용한다. 데이터 저장에는 AWS를 사용하고 챗 GPT를 위해서는 애저를 사용할 수도 있다는 것이다. 이처럼 다양한 작업을 위해 서로 다른 클라우드를 사용하는 경우에는 클라우드가 기술 스택 측면에서 다른 도구들과 통합될 수 있어야 한다. 기업 IT에서 클라우드는 점점 더 모든 일의 중심이 되고 있다. 하지만 선택의 폭이 넓고 복잡하기 때문에 철저한 사전 조사는 필수다. 기업은 현재 데이터를 어떻게 사용하고 있는지, 앞으로 어떤 계획을 가지고 있는지 정확히 이해하는 것부터 시작해, 위의 다섯 가지 핵심 질문을 통해 가장 적합한 CSP를 찾아야 한다. 가장 적합한 CSP를 선택하기 위한 약간의 수고는 훗날 데이터 요구 사항을 충족하는 가장 비용 효율적이고 안정적이며 유연한 클라우드를 선정하는데 큰 도움이 될 것이다.

2024.04.29 14:06최승철

효성인포메이션시스템, 국내 하이엔드 스토리지 10년째 1위

효성인포메이션시스템(대표 양정규)은 25일 서울 사옥에서 기자간담회를 열고 IT 시장분석 및 컨설팅업체 IDC의 분기별 외장형 스토리지 시스템 시장조사(2023 Q4)에서 히타치 밴타라가 작년 국내 하이엔드 스토리지 시장 매출액 기준 42.2%로 시장점유율 1위를 기록했다고 밝혔다. 히타치 밴타라 국내 영업을 담당하는 효성인포메이션시스템은 10년 연속 국내 하이엔드 스토리지 시장 1위라는 대기록을 달성했다. 권필주 효성인포메이션시스템 SA팀 전문위원은 “기업용 하이엔드 스토리지라면 저장 장치의 가용성을 99.9999%로 보장하고 높은 성능과, 용량, 확장성 등을 지원하는 것으로 정의된다”며 “효성인포메이션시스템은 여기에 프리미엄을 더해 24시간 365일 원격서비스 지원, 장애 시 4시간 이내 현장 지원, 실시간 액티브-액티브 데이터센터 재해복구, 가용성 99.999999% 등까지 제공하는 것을 하이엔드라 정의하고 있다”고 설명했다. 권필주 위원은 “히타치 벤타라와 효성인포메이션시스템이 하이엔드 시장에서 1위를 유지하는 비결은 100% 데이터 가용성 보장, 앞선 기술력, 맞춤형 고객 지원능력 등의 요소 때문”이라며 “데이터 가용성 100% 보장 프로그램을 23년째 운영하고, 이기종 스토리지 가상화, 실시간 비동기식 복제, 액티브액티브 미러링 같은 독보적 기술력, 고객사별 전담 엔지니어와 전국단위 밀착 서비스 등이 그 비결”이라고 강조했다. 하이엔드 스토리지는 주로 기업에서 핵심 업무 시스템의 데이터를 저장하는 용도로 쓰인다. 특히 고성능으로 거래를 처리하고 정합성을 유지해야 하는 관계형 데이터베이스 시스템의 저장소가 핵심이다. 때문에 하이엔드 스토리지는 데이터 손실을 없애고 서비스 무중단을 유지하는 것을 요건으로 한다. 효성인포메이션시스템은 2001년부터 데이터 가용성 100% 보증 프로그램을 운영하고 있다. 가트너의 크리티컬 캐머필리티 리포트의 RAS 부문에서 10년째 1위를 유지하고 있다. 기술적으로 2004년 이기종 스토리지 가상화(UVM)를 선보이며 타 벤더 스토리지 환경도 히타치 벤타라 스토리지 환경에서 통합 운영할 수 있게 했다. 2014년엔 액티브-액티브 미러링을 발표하고 재해복구 솔루션으로 가장 먼저 구현해 100개 이상의 고객사례를 확보했다. 실시간 비동기식 복제 기술을 통해 원거리 재해복구센터 구현을 실현했는데, 한국과 미국 워싱턴 사이에 DR 환경을 구축한 사례도 만들어냈다. 권 위원은 “최근 Ai 수요로 수도권 데이터센터의 전력 소비량이 포화상태에 도달하면서 정부가 데이터센터를 수도권 외 지방으로 분산하라는 권고를 계속 내고 있다”며 “대전, 천안, 광주, 대구 등으로 데이터센터를 분산하려 할 때 비동기식 복제를 이용하지 않으면 데이터 손실이 일어날 수 있다”고 설명했다. 그는 “손실없이 데이터를 복제해 실시간으로 원격 센터로 보낼 수 있는 유일한 솔루션으로 히타치 벤타라가 선택받고 있다”며 “이 기술은 특허 기술이기에 경쟁사가 동일하게 구현할 수 없다”고 강조했다. 효성인포메이션시스템은 하이엔드 스토리지 고객사에 전담 엔지니어를 배정하고, 해당 고객사에서 발생하는 모든 장애 처리와 유지보수를 책임지게 하고 있다. 전담 엔지니어는 항상 대기를 유지하고 문제 발생 시 2~4시간 내 현장에 도착한다. 해당 엔지니어는 장기로 고객사를 전담하기 때문에 고객 장비의 히스토리를 잘 알고 있어 문제를 깊이있게 들여다보고 해결할 수 있다고 한다. 또한 서울과 수도권뿐 아니라 고객사와 데이터센터가 있는 모든 지방에 사무소를 운영하고 있다. 현재 대전, 천안, 수원, 대구, 광주, 원주, 부산 등에 지역사무소가 있다. 권 위원은 “최근 클라우드 패러다임과 함께 오픈소스 활용이 늘어나고 있는데, 쿠버네티스나 오픈스택 같은 기술은 컴퓨트 부분의 가용성 유지에 치중하고 데이터 정합성 유지 방안이 마땅치 않다”며 “효성인포메이션시스템과 히타치 벤타라는 오픈스택과 쿠버네티스 환경의 데이터 재해복구 환경도 지원할 수 있는 역량을 갖고 있다”고 말했다. 그는 “하이엔드 스토리지 환경뿐 아니라 갈수록 변화하는 고객의 워크로드 수요에서도 계속 사례를 넓혀가고 있다”며 “하이엔드 제품은 하이브리드 클라우드 환경 지원과 다양한 연동 솔루션으로 클라우드 환경의 원활한 운영을 지원한다”고 강조했다. 효성인포메이션시스템의 VSP 스토리지 포트폴리오는 유연한 하이브리드 클라우드 인프라 구현과 AI 시대 디지털 비즈니스 혁신을 지원한다. VSP 5000 시리즈는 선도적 기술력과 혁신적 아키텍처, 100% 데이터 가용성 보장 등 미션 크리티컬하고 중단 없는 안정적 서비스를 위한 최상의 인프라 환경을 제공한다. 효성인포메이션시스템은 고객들의 데이터 전략을 강화하고 미래 혁신 설계를 위한 스토리지 전략을 제시하며 스토리지 시장 리더십을 유지해 나갈 계획이다. 블록, 파일, 오브젝트, 메인프레임과 같이 서로 다른 유형의 데이터 플랫폼을 하나의 데이터 플레인으로 통합 관리하는 'VSP ONE' 전략을 통해 미래지향적 스토리지 아키텍처를 선보인다. VSP ONE 파일, VSP ONE SDS 블록/클라우드 등을 순차적으로 출시하며, 궁극적으로 하이브리드 클라우드 환경을 위한 진화와 혁신을 지속해 나갈 전략이다. 구독형 스토리지 서비스 HIS STaaS 사업도 강화하며 기업의 IT 운영, 비즈니스 효율을 높이고 인프라 현대화를 추진할 수 있도록 지원한다.

2024.04.25 12:34김우용

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

SAS 바이야, 생성형 AI 기능 강화

SAS는 지난 16일부터 19일까지 미국 라스베이거스에서 개최한 'SAS 이노베이트 2024'에서 최신 AI 및 데이터 분석 관련 제품과 비즈니스 사례를 발표했다고 22일 밝혔다. SAS는 데이터 분석 플랫폼인 'SAS 바이야'에 대규모언어모델(LLM) 오케스트레이션 기능을 제공한다고 밝혔다. 이를 통해 생성형 AI를 활용하고자 하는 고객은 LLM에 대한 설명력을 제공받아 업무 프로세스에 LLM을 쉽게 통합할 수 있게 됐다. SAS는 'SAS 데이터 메이커'를 출시하고, 생성형 AI 구현에 필요한 합성 데이터 생성을 지원한다. 더불어 산업별로 특화된 생성형 AI 비서 기능을 통해, 신뢰성 있는 생성형 AI의 적용을 확대하며 혁신을 이어나갈 예정이다. SAS 바이야는 LLM 오케스트레이션 기능을 통해 외부 생성형 AI 모델을 기존 비즈니스 프로세스 및 시스템과 쉽게 통합할 수 있어, 활용성을 높여준다. SAS 바이야 코파일럿 기능을 통해 분석 및 산업별 업무를 지원하는 개인 비서를 활용할 수 있다. 'SAS 바이야 코파일럿'은 코드 생성, 데이터 정리, 데이터 탐색, 마케팅 계획, 여정 설계 및 지식 격차 분석과 같은 작업에 활용되며, 개발자, 데이터 과학자 및 비즈니스 사용자의 생산성을 높여준다. SAS 데이터 메이커는 민감한 정보를 손상시키지 않으면서 고품질의 합성 데이터를 생성해 데이터 개인 정보 보호 및 데이터 부족 문제를 해결해 준다. SAS의 마케팅 솔루션인 'SAS 커스터머 인텔리전스 360'도 마케팅 계획, 여정 설계 및 콘텐츠 개발에 생성형 AI 지원을 제공한다. 'SAS 커스터머 인텔리전스 360'에서 자연어 프롬프트를 통해 타겟 고객층을 선정하거나, 채팅 서비스, 이메일 제목 추천 등에 생성형 AI를 활용할 수 있다. SAS는 'SAS 바이야'의 생성형 AI 및 LLM 오케스트레이션 기능의 사례로 미국 종합 제지 및 포장 제조 기업 조지아 퍼시픽 사례를 소개했다. 'SAS 바이야'의 센서 데이터, 비즈니스 룰, 추천 시스템, 스트리밍 분석 및 지능형 의사 결정 관리 지원을 통해 조지아-퍼시픽은 이벤트 발생 시, 빠르게 올바른 결정을 내림으로써 즉각적인 가치를 창출하고 있다. 조지아-퍼시픽은 SAS LLM 오케스트레이션과 제조에 특화된 생성형 AI 비서를 활용해 실시간으로 운영 문제를 해결하고 있다. 작년 5월 AI 산업 솔루션 개발에 10억 달러 투자 계획을 발표했던 SAS는 그 일환으로 패키지 형태의 산업특화형 AI 모델을 공급한다고 밝혔다. SAS는 개별 라이선스 방식으로 이용할 수 있는 산업별 맞춤형 경량 AI 모델을 제공함으로써 기업 고객들은 효율적인 방식으로 모델 패키지 도입 즉시 AI 기술 활용이 가능하다. SAS는 수십 년간 전 세계 금융, 의료, 제조 및 정부 기관에 확장 가능하고 신뢰성 있는 AI 모델을 배포하는 데 독보적인 입지를 보유하고 있다. 이번에 발표된 산업특화형 AI 모델을 통해 SAS는 LLM을 넘어, 사기 탐지, 공급망 최적화, 문서 기반 대화 서비스 및 의료비 사기 적발 등의 분야에서 사용이 입증된 결정론적 AI 모델을 제공하게 됐다. 특히, SAS의 산업별 AI 모델은 신속한 통합이 가능하도록 설계돼, 기업은 신뢰성 있는 AI 기술을 운영하고 가시적인 이익과 신뢰할 수 있는 결과를 더욱 빠르게 얻을 수 있다. SAS는 AI 모델 개발을 위한 경량 플랫폼 'SAS 바이야 워크벤치' 출시를 발표했다. 'SAS 바이야 워크벤치'는 개발자 및 모델작업자를 위한 셀프서비스 방식의 컴퓨팅 환경으로, 데이터 준비, 탐색 데이터 분석, 분석 모델 및 머신러닝 모델 개발 작업을 할 수 있다. 개발자와 모델작업자는 'SAS 바이야 워크벤치'를 이용해 클라우드 기반의 확장형 환경에서 SAS 나 파이썬 중 선호하는 언어로 작업이 가능하다. 현재 SAS와 파이썬으로 이용 가능하며, 2024년 말에는 R도 지원 예정이다. 또한, 주피터 노트북 및 주피터 랩과 비주얼 스튜디오 코드 등 두 가지 개발 환경 옵션을 제공한다. 'SAS 바이야 워크벤치'에서 제공하는 강력한 SAS 분석 프로시저(PROCs)와 네이티브 파이썬 API를 통해 고성능의 AI 모델을 더욱 빠르게 개발할 수 있다. 'SAS 바이야 워크벤치'는 아마존 AWS 마켓플레이스에서 올 2분기 내에 공급 예정이며, 추후 추가적인 클라우드 및 SaaS 옵션이 발표될 예정이다. SAS는 'SAS 호스티드 매니지드 서비스'를 아마존웹서비스(이하 AWS)로 확대한다고 밝혔다. SAS는 'SAS 매니지드 서비스' 포트폴리오에 AWS를 추가함으로써 고객들의 퍼블릭 클라우드 플랫폼에 대한 선택권을 넓히게 되었으며, 또한 클라우드 기반 데이터 및 AI 플래폼인 'SAS 바이야'를 포함해 자사의 다양한 첨단 기술 및 제품을 호스티드 매니지드 서비스의 형태로 고객들에게 공급할 수 있게 됐다. SAS는 이미 마이크로소프트 애저, 구글클라우드플랫폼 등을 포함한 다양한 클라우드 포털을 통해 SAS 바이야를 공급해 왔다. 이번 발표는 'SAS 호스티드 매니지드 서비스'의 확대로, SAS 제품의 설치, 구성, 운영 및 유지 보수에 이르는 전과정을 SAS의 전문적인 클라우드 서비스를 통해 제공하는 것이다. 이를 통해 이미 AWS를 사용 중인 'SAS 9' 고객들은 보다 간소하게 'SAS 바이야'로 전환할 수 있게 됐다. 'SAS 매니지드 서비스'는 가동시간을 극대화하고 관리 비용은 최소화하는 동시에 데이터의 가치 실현까지의 시간을 단축한다. SAS는 AI 거버넌스 및 지원 모델의 신뢰도와 투명성을 향상하기 위해 새로운 신뢰성 있는 AI 제품 및 서비스인 '모델 카드'와 'AI 거버넌스 자문 서비스'를 소개했다. 이를 통해, 기업들은 급변하는 AI 환경에서 올바른 선택을 하고, 리스크를 완화하며, 보다 확신 있게 AI 목표를 달성할 수 있다. SAS 바이야에서 제공되는 '모델 카드'는 AI 모델을 위한 '영양 성분표'와 같은 개념으로 정확도, 공정성, 모델 드리프트와 같은 지표를 보여준다. 모델의 최종 수정 시기, 모델에 기여한 사람, 모델에 대한 책임자와 같은 거버넌스 정보가 포함돼 있어, 조직이 비정상적인 모델 성능을 내부적으로 해결할 수 있게 해준다. 이처럼 개발자와 의사결정권자 등 모든 사용자에게 AI 수명 주기 전반에 걸쳐 독자 모델과 오픈소스 모델을 지원하는 엄선된 툴을 공급함으로써 신뢰성 있는 AI의 가치를 창출하게 될 것이다. 2024년 중반에 출시되는 '모델 카드'는 SAS 제품에서 콘텐츠를 가져와 등록된 모델에 대한 '모델 카드'를 자동으로 생성해, 개별 사용자가 '모델 카드'를 생성해야 하는 부담을 덜어준다. SAS 바이야는 이미 오픈소스 관리를 위한 기존 아키텍처를 보유하고 있어, 파이썬 모델을 시작으로 오픈소스 모델에도 '모델 카드'를 사용할 수 있다. '모델 카드'와 함께 'AI 거버넌스 자문 서비스'는 AI와 데이터 활용 방법을 고민하는 고객을 위해 제공하는 부가서비스로, 고객과의 미팅을 통해 조직의 현 상황을 파악하고 관련 서비스를 제공한다.

2024.04.22 09:36김우용

시스코, AI 기반 클라우드 보호 기술 '시스코 하이퍼쉴드' 공개

시스코는 데이터센터 및 클라우드 보호 기술 '시스코 하이퍼쉴드'를 최근 공개했다고 22일 밝혔다. 인공지능(AI) 확대로 IT 인프라 요구 수준이 높아지는 가운데, 시스코는 AI과 워크로드의 활용 및 보호 방식을 재구성하겠다는 방침이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 모든 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 계층에서 이뤄진다. AI 네이티브로 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산 구조의 지원 접근이 가능하다. 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 확장버클리패킷필터(eBPF)를 기반으로 구축됐다. 시스코는 기업용 eBPF 선도업체인 아이소밸런트 인수를 이번 달 초 마무리했다. 시스코는 서버와 네트워크 패브릭 자체에 고급 보안 제어 기능을 탑재해 네트워크 보안 작동 방식을 변화시키고 있다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 네트워크, 보안 및 광범위한 파트너 에코시스템 분야에서 업계 최고의 전문성을 갖춘 시스코는 엔비디아와 함께 데이터센터를 보호하고 확장하기 위해 AI 네이티브 솔루션을 구축 및 최적화하는 데 노력을 기울이고 있다. 엔비디아와의 협력은 네트워크 이상 징후를 탐지하는 엔비디아 모르페우스 사이버보안 AI 프레임워크와 엔터프라이즈를 위한 맞춤형 보안 AI 어시스턴트를 구동하는 엔비디아 NIM 마이크로서비스를 활용하는 것을 포함한다. 엔비디아의 컨버지드 가속기는 GPU 및 DPU 컴퓨팅의 성능을 결합해 클라우드부터 엣지까지 강력한 보안을 갖춘 시스코 하이퍼쉴드를 강화한다. 케빈 디어링 엔비디아 네트워킹 부문 수석 부사장은 “기업들은 산업 분야에 상관없이 끊임없이 확정되는 사이버 위협으로부터 기업을 보호할 수 있는 방법을 찾고 있다”며 “시스코와 엔비디아는 AI가 가진 힘을 활용해 강력하고 안전한 데이터센터 인프라를 제공해 기업들이 비즈니스를 혁신하고 전 세계 모든 고객들이 혜택을 누릴 수 있도록 지원하고 있다”고 밝혔다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객이 직면하는 세 가지 문제를 해결할 수 있다. 분산 취약점 방어의 경우 공격자는 새로운 취약점 발표 후 보안 패치 적용 전에 빠르게 활용해 공격한다. 시스코의 보안 전문 조직 탈로스에 따르면, 방어자들은 매일 100 여개의 취약점을 새롭게 발견하고 있으며 이는 치명적인 결과로 이어질 수 있다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 공격자가 네트워크에 접근했을 때 세그멘테이션은 공격자의 측면 이동 공격을 차단하는 데 핵심적인 역할을 한다. 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 시스코 하이퍼쉴드는 이중 데이터 평면을 활용해 매우 복잡하고 오랜 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 고객 고유의 트래픽, 정책 및 기능 조합을 사용해 소프트웨어 업그레이드 및 정책 변경 사항을 디지털 트윈에 반영하고, 다운타임 없이 이를 적용한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 '시큐리티 클라우드'에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 전례 없는 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 지투 파텔 시스코 보안 및 협업 부문 부회장 겸 총괄 매니저는 "AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다”며 “이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 설명했다. 이어 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다”며 “수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 밝혔다. 척 로빈스 시스코 회장 겸 최고경영자(CEO)는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라며 “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 강조했다.

2024.04.22 09:24김우용

디노도, 구글클라우드와 생성형 AI 통합 발표

디노도테크놀로지(이하 디노도)는 구글클라우드와 파트너십의 일환으로 데이터 통합, 관리 플랫폼인 디노도 플랫폼과 구글 클라우드의 버텍스 AI를 새롭게 통합한다고 11일 밝혔다. 디노도는 데이터 가상화 기술을 기반으로 구글 클라우드와 협력해 논리적 데이터 관리 기능을 생성형 AI 서비스와 결합하고 최신 대규모언어모델(LLM)을 활용할 수 있도록 지원할 계획이다. 오늘날 기업은 금융 서비스, 의료, 제조, 소매, 통신, 고등 교육 등 산업 전분야에 걸쳐 생성형 AI를 활용한 비즈니스 혁신 방안을 적극적으로 찾고 있다. 이번 양사의 플랫폼 통합으로 기업은 제미나이 모델을 이용해 혁신적인 신규 서비스와 애플리케이션을 개발할 수 있게 돼 실질적인 변화를 추진할 수 있게 된다. 구글클라우드는 인프라 플랫폼, 산업 솔루션 및 전문성을 결합해 기업 비즈니스의 디지털 혁신 역량을 강화한다. 기업은 구글 클라우드의 생성형 AI 및 LLM 기술과 결합한 디노도 플랫폼을 활용해 자사의 데이터를 안전하고 효율적으로 버텍스 AI 애플리케이션에 제공함으로써 편향성 완화, 개인정보 보호 및 인적 오류 등 윤리적 고려사항을 책임감 있게 지킬 수 있다. 리티카 수리 구글클라우드 기술파트너십부문 이사는 “생성형 AI는 비즈니스 운영 방식을 현저하게 개선하고 사실상 모든 산업에 이익을 제공할 수 있다”며 “디노도는 구글 클라우드의 선도적인 생성형 AI 기능을 활용함으로써 고객이 데이터 운영을 개선하고 생산성을 향상하는 데 도움이 되는 새로운 인사이트를 확보할 수 있도록 지원할 수 있게 됐다”라고 밝혔다 . 나라얀 순다르 디노도 전략적 제휴 담당 선임 이사는 “다양한 산업 분야의 기업들이 디노도의 논리적 접근방식을 통해 데이터를 통합 및 관리하고, 사전에 훈련된 LLM 과 외부 데이터 소스를 결합한 RAG 기술을 적용할 수 있다”며 “양사의 이번 플랫폼 통합은 데이터와 생성형 AI의 강력한 힘을 기반으로 새로운 차원의 비즈니스 가치를 실현함으로써 기업이 혁신의 한계를 재정의할 수 있는 계기를 제공한다”고 강조했다. 그는 “구글클라우드의 오랜 파트너인 디노도는 신뢰할 수 있고 연관성 있는 데이터를 쿼리하고, 비즈니스 인사이트를 제공하는 섬세한 응답을 생성할 수 있도록 함으로써 LLM의 기능을 개선한다” 고 덧붙였다.

2024.04.11 10:17김우용

씨젠, 세일즈포스 서비스 클라우드·태블로 도입

세일즈포스는 분자진단 종합솔루션 기업 씨젠이 고객 서비스 부문의 디지털 혁신 가속화 및 데이터 문화 정립을 위해 세일즈포스의 서비스 클라우드와 태블로를 도입했다고 4일 밝혔다. 씨젠은 독자적인 기술력을 바탕으로 전 세계 60여 개국에 분자진단 제품을 공급하고 있는 분자진단 솔루션 기업으로, 전 세계에 총 80여 개의 대리점을 운영하며 대형 병원뿐 아니라 중소형 병원에서도 누구나 쉽게 분자진단을 접할 수 있는 환경을 조성하고 있다. 씨젠은 이번 세일즈포스 서비스 클라우드와 태블로 도입을 통해 ▲데이터 기반 고객 서비스 통한 고객 만족도 향상 ▲업무 프로세스 효율화 통한 업무 생산성 및 연속성 증진 ▲태블로 기반 데이터 도출 및 가시화 통한 인사이트 확보 ▲글로벌 커뮤니케이션 역량 강화 등의 성과를 달성했다. 더불어 세일즈포스 도입을 바탕으로 기업의 규모 및 서비스 범위를 확장해 나감에 따라 필요한 고객 데이터 기반의 전산화, 자동화, 표준화 등의 전략 추진을 위한 디지털 기반의 업무 체계를 구축하고, 글로벌 커뮤니케이션 역량을 강화하며 고객 중심 디지털 기업으로 혁신해 나갈 것이라는 포부를 밝혔다. 씨젠에 따르면 기존에는 산재된 데이터로 인해 필요한 정보를 찾기 위해 많은 시간과 자원을 할애해야 했지만, 세일즈포스 도입 후 데이터를 즉시 추적할 수 있게 되면서 데이터 유관 업무에 소요되던 시간이 17%가량 감소했으며, 실시간으로 고객 문의를 확인하고 대응할 수 있는 업무 환경이 구축됨에 따라 서비스 클라우드 도입 1년 만에 최초 고객 문의 대응 처리 시간 또한 30%가량 감소했다. 이제 세일즈포스에 통합된 데이터를 바탕으로 조직 내 부서 이동이 있거나, 새로운 직원이 입사할 경우에도 기존 대비 약 20%의 시간만 할애하더라도 유관 업무와 관련된 히스토리와 데이터를 빠르게 습득할 수 있다. 이 밖에도 씨젠은 세일즈포스가 제공하는 글로벌 수준에서의 확장성과 편리성을 바탕으로 전 세계 법인과의 협업 및 사내 데이터 문화 정립 측면에서도 비약적인 성과를 거뒀다고 전했다. 글로벌 고객사, 대리점 및 법인의 영문 문의가 접수될 경우, 세일즈포스를 통해 자동으로 번역된 한국어를 확인 및 답변하여 번역 및 데이터 재가공에 소요되는 시간을 대폭 감소시킬 수 있었으며, 고객을 중심으로 체계화된 업무 프로세스와 세일즈포스에 통합된 데이터를 바탕으로 부서 간 데이터 연결성과 협업 역량 또한 강화할 수 있었다는 설명이다. 데이터 측면에서 세일즈포스 태블로를 통해 글로벌 문의, 엔지니어링 서비스 등의 데이터를 축적, 분석 및 가시화할 수 있는 데이터 분석 역량을 확보함과 동시에, 도출된 인사이트를 사내 보고 활동 및 비즈니스 의사 결정 수립에 활용하면서 사내 데이터 문화 확산을 위한 움직임을 가속화하고 있다. 세일즈포스 서비스 클라우드는 옴니채널에서 발생하는 고객 데이터와 문의를 하나의 통합된 디지털 채널에서 관리 및 운영할 수 있도록 돕는 고객 서비스 지원 솔루션으로 고객 데이터를 기반으로 콜센터, 상담 채널, 챗봇 등에서 발생하는 고객 문의에 보다 빠르고 정확한 응대가 가능한 환경 구축을 지원한다. 태블로는 세일즈포스 및 슬랙과의 연결성을 바탕으로 데이터 분석 및 시각화를 지원하는 지능형 데이터 분석 플랫폼으로 최근 생성형 AI 기술이 접목된 '태블로 펄스'를 공개하며 기업 내 데이터 문화 정립과 데이터 경험 향상에 기여하고 있다. 씨젠의 글로벌 세일즈 엔지니어링 센터 김봉호 상무는 “세일즈포스와 태블로를 도입하여 실제로 고객 문의 대응에 들던 시간을 단축하고 더 많은 시간을 고부가가치를 위한 업무에 투자할 수 있게 됐다"며 “고객 서비스 부문 업무의 40~50%를 문의처리에 사용하는 만큼 생성형 AI를 통해 보다 고부가가치 업무에 리소스를 할애할 수 있기를 기대한다”고 밝혔다. 세일즈포스코리아 손부한 대표는 “세일즈포스 서비스 클라우드는 편의성과 유연성이 뛰어난 제품으로 다양한 경로로 유입되는 고객 데이터를 단일화하고 이를 바탕으로 온오프라인의 연결된 고객경험을 제공할 수 있는 고객 서비스 환경 구축을 지원한다”며 “세일즈포스는 신뢰할 수 있는 디지털 혁신 파트너로서, 씨젠의 데이터 기반의 업무 프로세스 구축 및 고객 중심 디지털 혁신 여정을 지원하기 위한 노력을 아끼지 않을 것"이라고 강조했다.

2024.04.04 10:32김우용

코스닥 입성 앞둔 이노그리드, 역대 최대 매출 달성

이노그리드(대표 김명진)가 코스닥 입성 앞두고 지난해 연간 최대 매출을 달성했다. 올해 목표인 흑자전환도 가능할 것이란 기대감이 커지고 있다. 이노그리드는 금융감독원 전자공시시스템에 사업보고서를 공시하며 2023년 4분기 매출 136억 원, 분기영업이익 25억 원, 분기순이익 31억 원을 기록하며 분기 흑자를 달성했다고 2일 밝혔다. 4분기 매출액은 전년동기대비 70% 증가했고, 영업이익은 전년동기대비 93% 개선됐다. 이는 솔루션과 클라우드 시스템의 매출이 프로젝트 종료 후 고객의 검수 시점인 4분기에 인식되는 산업군의 특성에 따른 것으로 분석된다. 또한, 연간 매출액은 329억 원을 달성하며 창사 이래 최대 실적을 기록했다. 이는 전년 대비 133% 증가한 수치로, 영업손실도 77% 감소하는 등 실적이 대폭 개선됐다. 작년에 연간 매출 목표로 잡은 300억 원을 상회하는 매출로, 현실적인 매출 목표 수립과 실제로 목표를 달성했다. 이러한 성과에 힘입어 이노그리드는 올해 흑자전환 한다는 계획이다. 이처럼 이노그리드의 실적 개선은 클라우드 사업별 고른 성장 덕분인 것으로 보인다. 이노그리드는 ▲자체 개발한 클라우드 풀스택 솔루션(IaaS, PaaS, CMP 등)을 중심으로 ▲클라우드 마이그레이션 및 인프라 구축 ▲솔루션 커스터마이징 및 컨설팅 ▲퍼블릭 서비스 제공 ▲클라우드 기술 개발 등 클라우드 전 주기에 걸쳐 사업을 영위하고 있다. 이중 유지보수 및 커스터마이징을 포함한 솔루션 부문은 지난해 97억 원을 기록하며 전년(41억 원) 대비 약 137% 성장했다. 클라우드 마이그레이션 및 인프라 구축을 통해 발생한 매출은 2022년 46억 원에서 2023년 144억 원으로 약 213% 급성장했다. 이는 AI, 빅데이터, 블록체인 등 IT 기술이 빠르게 발전함에 따라 산업 전 영역에서 클라우드가 필수 불가결한 제반 시설로 자리 잡았기 때문으로 분석된다. 정부에서도 2030년까지 모든 시스템을 클라우드 네이티브로 전환하는 계획을 추진 중인 만큼 이 같은 흐름은 지속될 것으로 기대된다. 이와 함께 클라우드 퍼블릭 서비스 매출은 전년 대비 약 254% 증가한 10억 원을 달성했다. 이노그리드는 지난해 자사의 클라우드 기술이 집약된 지능형 하이브리드 클라우드 관리 플랫폼 탭클라우드잇을 기반으로 공공 및 민간에 제공하는 하이브리드 클라우드 서비스를 24시간 365일 모니터링하는 클라우드 전문 관제 센터 '제로 스퀘어(ZERO SQUARE)'를 개소하며 본격적으로 퍼블릭 클라우드 시장에 진출했다. 더욱이 올해에는 관제 센터 운영을 위한 솔루션을 개발할 계획으로 향후 퍼블릭 서비스 부문의 매출도 더욱 확대될 것으로 기대된다. 또한 이노그리드는 지난해부터 자체 클라우드 연구센터와 전문 인력을 바탕으로 클라우드 기술 개발 및 개념증명(PoC) 사업도 진행하고 있다. 사업 첫해인 작년에만 48억 원을 달성하며 기술력과 수행력을 다시금 인정받았다. 김명진 이노그리드 대표이사는 “기술이 가장 중요하다는 신념하에 자체 개발한 클라우드 솔루션을 중심으로 사업을 영위하고자 한 노력이, 창사 이래 최대 매출로 빛을 발했다고 생각한다”며 “앞으로도 지속적인 제품 개발 및 사업 확장을 통해 치열해지는 시장 경쟁 속에서도 더욱 성장해 나가겠다”고 말했다. 이노그리드는 현재 코스닥 시장 상장을 추진하고 있다. 상장 후 공모자금으로는 기존 솔루션 고도화와 신규 솔루션 개발을 통한 라인업 확장, 마이크로 클라우드 데이터센터 투자 및 중대형 클라우드 데이터센터 분야 진출 등 클라우드 사업 확장에 활용한다는 방침이다.

2024.04.02 11:28남혁우

스노우플레이크, '데이터 클린룸' 정식 출시

스노우플레이크는 데이터 클라우드 상에서 개인정보를 보호하면서 기업 간 데이터 공유와 협업을 제공하는 '스노우플레이크 데이터 클린룸'을 정식 출시한다고 2일 밝혔다. 이 서비스는 아마존웹서비스와 일부 마이크로소프트 애저 사용 고객을 대상으로 먼저 제공된다. 고객은 기업 규모에 관계없이 데이터 클라우드 상에서 개인 정보를 보호하면서 데이터를 안전하게 공유하여 긴밀하게 협업할 수 있다. 데이터 클린룸 기술은 관련 기술 기업인 '사무하'를 인수하고 발표된 것으로, '사무하'는 패스트컴퍼니에서 선정한 '2024년 가장 혁신적인 데이터 사이언스 기업'에 이름을 올렸다. 현재 스노우플레이크의 데이터 클라우드 시스템에 완전히 통합돼 내장형 거버넌스 모델인 스노우플레이크 호라이즌의 규정, 보안, 개인 정보 보호, 상호 운용성과 액세스 기능 등으로 그 성능이 한층 강화됐다. 데이터 클린룸은 민감한 데이터를 외부업체 및 기관과 안전하게 공유하면서 개인 정보 등 민감한 데이터는 비공개 처리할 수 있어 획기적인 솔루션이다. 지금까지 데이터 클린룸 기술은 대규모 집단, 기관 내에서도 소수의 데이터 보안 전문가들에 의해서만 활용되어 왔다. 이번에 서비스를 일반에 공개하면서 더 많은 사용자가 철저한 보안 환경에서 산업군에 제한 없이 데이터를 분석하거나 공동으로 운용할 수 있게 됐다. 모든 협업 과정에서 개인 식별 정보와 같이 민감한 데이터는 비공개로 유지된다. 스노우플레이크는 데이터 클린룸을 스노우플레이크 네이티브 앱 형태로 제공한다. 기업 고객은 스노우플레이크의 거버넌스·보안·개인정보 보호 규정을 준수하며 클라우드 환경과 비즈니스 생태계 전반의 데이터로부터 새로운 비즈니스 가치를 창출할 수 있다. 고객은 데이터 클린룸을 통해 안전한 환경에서 민감한 데이터를 활용하는 협업이 수월해진다. 조직은 추가 라이선스 비용 없이 쉽고 빠르게 새로운 데이터 클린룸을 생성할 수 있다. 이곳에서 비즈니스 또는 기술 분야의 사용자 누구나 공통 타깃, 도달과 빈도, 타깃 속성 등 업계별 워크플로우와 템플릿을 통해 데이터로부터 필요한 정보만 빠르게 추출해 낼 수 있다. 스노우플레이크의 개방적이고 상호 운용 가능한 생태계에 접근할 수 있다. 데이터 클린룸 생태계에 연결하면 써드파티를 통합하고 공용 클라우드 제공업체를 통한 다양한 솔루션을 제공받을 수 있다. 고객은 스노우플레이크 계정 보유 여부와 상관없이 모든 비즈니스 파트너와 원활하게 협업할 수 있다. 스노우플레이크의 내장된 개인정보 보호 및 거버넌스 기능을 활용할 수 있다. 데이터 클린룸은 스노우플레이크 네이티브 앱 프레임워크를 기반으로 구축되어, 스노우플레이크의 철저한 거버넌스·보안·개인정보 보호 규정에 의거한 데이터 액세스만을 지원한다. 고객과 비즈니스 파트너는 개인정보를 유지하면서 보다 심층적인 분석을 진행할 수 있다. 카마크쉬 시바라마크리쉬난 스노우플레이크 데이터 클린룸 제품 관리 이사 겸 '사무하' 공동 창립자는 “브라우저에서 써드파티 쿠키를 사용할 수 없게 되면서 데이터 클린룸은 산업 전반에 걸쳐 필수 요소가 됐다”며 “이러한 상황에서 스노우플레이크 데이터 클린룸은 마케터뿐만 아니라 다양한 직군에서 안전하고 클라우드 중립적인 데이터 협업을 실현할 수 있도록 돕는다”고 설명했다. 데이터 클린룸은 변화하는 기술과 개인정보 보호 규정에 발맞춰 고객 맞춤형 서비스를 제공하기 위해 미디어·엔터테인먼트 업계에 먼저 도입됐다. 개인정보를 취급하는 취업·채용정보 제공 업계에서도 활용되고 있으며, 금융, 의료와 같이 규제가 까다로운 분야에서도 민감한 데이터에 대한 안전한 협업을 위한 기술로 주목받고 있다.

2024.04.02 09:46김우용

[기고] AI 생성, 생각보다 쉬울 수 있다

챗GPT 등장 후 1년이 조금 넘었는데, 그 사이 AI는 이미 여러 산업에서 그 적용 범위를 확대해 나가고 있으며, 생성형 AI의 인기는 텍스트부터 이미지 생성, 심지어 의료 및 과학 연구 등 다양한 분야에서의 활용 가능성 덕분에 나날이 높아지고 있다. 이런 생성형 AI의 열풍에 부응하려면 높은 비용과 복잡성이 요구되는데, 이런 상황에서 AI를 어떻게 잘, 그리고 정확하게 작동시킬지에 대한 고민이 생기는 것은 당연하다. 우리가 AI에 이르게 되는 과정을 살펴보면, AI의 잠재력은 그 지혜로움에서 비롯됨을 알 수 있다. 그 방대한 용량과 일관된 처리 능력 때문에 인간이 간과할 수 있는 세부 사항도 포착하는 AI지만 궁극적으로 AI도 데이터를 기반으로 작동한다. 우리는 이런 데이터를 적절하게 처리하고 보호해야 하는데, 이는 데이터가 IT 인프라뿐만 아니라 사람 또는 인공 지능이 만들어내는 모든 혁신의 기초가 되기 때문이다. 생성형 AI의 가장 기초가 되는 데이터베이스는 생성형 AI 시대에 기업들의 요구사항에 부응하기 위해 발전해 왔으므로 기업의 효과적인 AI 활용은 올바른 데이터 관리와 깊은 관련이 있다. ■ 흔한 데이터베이스 모델 비즈니스에서 흔히 사용되는 데이터베이스에는 여러 가지가 있는데 그중 온라인 트랜잭션 처리(OLTP)라는 데이터베이스 유형은 온라인 거래를 지원한다. OLTP는 온라인 뱅킹 또는 쇼핑 환경에서 기업이 동시에 여러 거래를 처리하도록 돕는데, 데이터가 축적되면 그 데이터 풀을 활용해 새로운 비즈니스 가치를 만들어낼 수 있다. 또 여러 소스의 데이터를 통합해 신속하고 강력한 상호작용형 애널리틱스를 지원하는 온라인 분석 처리(OLAP) 데이터베이스도 있다. OLAP을 사용하면 소매업자는 재고와 실제 재고 데이터를 다른 데이터세트인 고객 구매 데이터와 결합해 특정 상품의 수요가 다른 상품보다 높아져서 해당 상품의 생산을 증가시킬 필요에 대한 통찰력을 얻을 수 있다. NoSQL이라는 또 다른 데이터베이스는 위 두 모델과 달리 비정형 데이터를 정렬하는 데 도움이 되어 인기를 얻고 있다. ■ AI를 위한 새로운 데이터베이스 모델 앞서 언급된 모델들이 각자의 영역에서 충실히 제 기능을 해왔음에도 AI 시대에는 벡터 데이터베이스 모델이 가장 혁신적인 변화를 가져올 것이다. 벡터 데이터베이스는 대규모 언어 모델의 '인텔리전트 워크로드'를 처리하고 수백만 개의 고차원 벡터를 저장하는 데 쓰인다. 문서, 이미지, 오디오 녹음, 비디오 등과 같은 비구조화된 데이터가 여기에 해당되는데, 이런 데이터는 2050년까지 전 세계 데이터의 80% 이상을 차지할 것으로 예상된다. 이는 단순 의미 파악을 넘어서 AI 시대에 걸맞게 전체 맥락과 뉘앙스까지 이해하는 시맨틱스(기존 데이터의 의미)에 대한 이해를 가능하게 한다. 벡터 데이터베이스 없이는 그런 이해를 얻기 어려우므로 이는 대규모 언어 모델을 통한 특화된 산업 지식의 발전에 필수적인 요소가 된다. 이에 대비해 알리바바 클라우드는 독자적인 벡터 엔진을 통해 클라우드 네이티브 데이터베이스 폴라DB, 클라우드 네이티브 데이터 웨어하우스 애널리틱DB, 클라우드 네이티브 다중 모델 데이터베이스 린돔을 포함한 모든 데이터베이스 솔루션을 강화해 왔다. 그 결과 기업들은 벡터 데이터베이스에 분야별 지식을 입력해 생성형 AI 애플리케이션을 구축 및 출시할 수 있게 됐다. 일례로 동남아시아의 한 온라인 게임 회사는 알리바바 클라우드의 데이터베이스 솔루션을 사용해 지능적인 비플레이어 캐릭터(NPC)를 생성하고 있다. 이 NPC들은 사전에 정해진 대사를 단순히 읽는 것이 아니라 플레이어가 전달하는 내용을 실시간으로 이해하고 반응해 실제 플레이어들과 더욱 현실감 있는 상호작용을 할 수 있다. ■ AI로 가능해지는 합리적인 소비 AI의 잠재력은 게임이나 비정형 데이터의 이해에만 국한되지 않는다. AI는 데이터베이스를 스스로 관리할 수 있는 능력도 갖췄다. 예를 들어, 저장 공간이 부족해지면 AI는 시스템 관리자에게 경고를 보내고, 추가 저장 공간을 확장할지 여부를 물을 수 있다. 또 권한이 주어지면 저장 공간을 자동으로 확장하는 조치도 취할 수 있으며, 이런 기능은 CPU 용량, 메모리 용량 및 기타 기능에도 적용될 수 있다. 이런 AI의 능력은 서버리스 클라우드 컴퓨팅으로 전환을 고려할 때 특히 유용하다. 과거에 클라우드 서비스 제품을 구매할 때 일정량의 서버를 준비하는 프로비저닝 작업이 필요했는데, 이 과정에서 추가 비용이 발생하는 것은 물론, 실제 워크로드보다 더 많은 용량을 준비할 경우 자원을 낭비하는 일도 발생했다. 하지만 서버리스 컴퓨팅은 클라우드 서비스가 사용하는 서버 용량을 워크로드에 정확히 맞추며, 워크로드 변동에 따라 서버 용량을 유연하게 조절할 수 있는 장점을 지닌다. ■ 일거양득: AI와 서버리스 클라우드 컴퓨팅의 장점 누리기 따라서 AI와 서버리스 클라우드 컴퓨팅의 결합은 비정형 데이터의 이해 및 데이터베이스 자가 관리뿐만 아니라 서버 용량의 유연한 조절까지, 두 기술의 장점을 모두 활용할 기회를 제공한다. 이제 바로 알리바바 클라우드가 핵심 AI 기반 데이터베이스 제품을 서버리스로 만든 이유이기도 하다. 이를 통해 고객은 필요한 자원에 대해서만 비용을 지불하고, AI의 지능적 관리를 통해 급격한 수요 증가나 변동이 큰 워크로드에 효과적으로 대응할 수 있을 것이다. 다시 요약하자면 AI 활용의 성패는 올바른 데이터베이스 활용 전략에 좌우됨을 명심해야 한다.

2024.04.02 09:01리페이페이

kt클라우드, 데이터센터 보안 글로벌 수준 입증

kt 클라우드가 데이터센터의 보안수준이 글로벌 상위 수준임을 입증했다. kt 클라우드(대표 황태현)는 목동1·2, 용산, 강남, 천안, 여의도 등 주요 IDC 6곳에 대해 글로벌 데이터 보안표준인 'PCI DSS' 인증을 획득했다고 25일 밝혔다. kt 클라우드가 부여 받은 등급은 '레벨 1'로 해당 인증 최고 수준이다. 지불 카드 보안 표준(PCI DSS)은 지불결제 산업의 정보보호를 위해 글로벌 카드사인 비자(Visa), 마스터카드(MasterCard), 아메리칸 익스프레스(American Express) 등이 만든 표준인증이다. 신용카드 부정 사용과 정보유출을 방지하며 안전한 결제환경을 검증하는 금융 특화 인증으로 평가받고 있다. kt 클라우드는 인증기관인 BSI로부터 PCI DSS 3.2.1 인증의 최상위 등급을 획득하며 금융 고객들의 민감한 데이터와 거래 정보를 보호하는 산업 표준을 준수하고 있음을 증명한 것이라고 설명했다. 데이터센터에 대한 물리적 보안, 데이터 보호, 정기 모니터링 등 41개 세부 항목의 요구조건을 모두 충족하며 보안 체계와 안전성을 인정받았다. kt 클라우드는 정보보호관리체계(ISMS), 정보보안 국제표준 'ISO 27001, ISO 22301' 등 국내외 주요 보안 인증 22종을 획득하며 서비스 보안을 강화해왔다. 또 대규모 인프라 운영 경험을 기반으로 실시간 장애 상황에 체계적으로 대응할 수 있도록 정기훈련 등을 시행하며 고객 데이터 보호 및 보안 역량강화에 힘써왔다. kt 클라우드는 향후 PCI DSS 신규 버전인 4.0 획득 등을 준비하며 보안 역량 향상을 위해 지속 노력할 계획이다. 김승운 IDC본부장은 “PCI DSS 인증을 통해 글로벌 수준의 선진화된 정보 보안 체계를 구축해온 kt 클라우드 IDC의 안전성을 인정받게 되어 기쁘게 생각한다”며 “앞으로도 정보보호에 만전을 기하며 고객들이 안심하고 이용할 수 있는 최상의 서비스 환경을 구현하는 데 최선을 다할 것”이라고 말했다.

2024.03.25 10:11남혁우

"국내 최대 AI인프라 구축한, NHN 클라우드 글로벌 간다"

김동훈 엔에이치엔(NHN) 클라우드 대표가 'NHN클라우드 2.0 전략'을 통해 국내 최대규모 인공지능(AI) 인프라를 확보하고 글로벌 기업으로 발돋움한다. 지난 21일 NHN클라우드는 광주광역시 김대중컨벤션센터에서 개최한 간담회를 통해 국가 AI 데이터센터와 함께 AI 중심 전략을 소개했다. █ 국가AI 데이터센터로 글로벌 수준 AI인프라 지원 국가AI 데이터센터는 NHN클라우드 2.0 전략의 핵심 인프라다. AI 연구개발에 특화됐으며 엔비디아의 AI전용 GPU H100을 기반으로 88.5페타플롭스(PF)의 컴퓨팅 연산능력과 저장 용량 107페타바이트(PB) 규모의 인프라를 갖췄다. GPU의 성능 극대화를 위해 전력 공급 최적화 기술을 적용해 서버랙 당 전력밀도를 15kw로 끌어올렸다. 이는 국내 데이터센터의 평균 전력밀도의 3배에 달하는 수치다. 높은 전력사용으로 인한 발열을 줄이기 위해 NHN클라우드에서 개발한 냉기 시스템을 적용했다. 외부의 자연 바람을 이용한 공냉식으로 열교환 과정에서 간섭을 최소화해 냉각에 쓰이는 에너지를 절감하기 위한 방안을 적용했다. 김동훈 대표는 “NHN클라우드는 판교 데이터센터(NCC1)를 10년 이상 운영하며 얻은 클라우드 서비스 전문 데이터센터 운영 경험을 녹여 고밀도전력, 효율적 소비 전력 설비를 구축했다”고 설명했다. “일반 기업이 H100 등 AI전용 하드웨어를 구하는 것이 거의 불가능에 가까운 상황에서 상대적으로 저렴하게 이용할 수 있다는 것부터 큰 메리트라고 할 수 있다”며 “기업의 서비스 특성이나 자금상황에 따라 유연하게 활용할 수 있도록 H100외에도 A100 등 추가적인 옵션도 함께 제공하고 있다”고 설명했다. 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 일환으로 광주 첨단3지구 AI중심산업융합집적단지에 지난해 10월 구축됐다. 11월부터 정식 운영을 시작해 현재 470여 곳의 기업, 기관이 데이터센터를 이용하고 있다. AI 산업융합 생태계 활성화를 위해 올해 말까지 스타트업 등 민간 기업을 대상으로 인프라 지원사업을 실시한다. 민간지원사업이 종료되는 2025년부터 본격적인 수익 사업도 이어질 예정이다. █ “AI전환(AX) 패러다임 이끄는 선두기업 될 것” NHN클라우드 2.0 전략은 공공, 금융, 제조, IT 등 다양한 산업 분야의 기업에 최적화된 AI 환경을 인프라부터 솔루션까지 통합제공해 AI전환(AX) 패러다임을 이끌겠다는 전략이다. 이를 위해 김동훈 대표는 국내 최대 수준의 '멀티 AI GPU 팜'을 구축하고 이를 중심으로 풀스택 AI 클라우드 서비스 제공사(CSP)'로 발전할 것이라고 계획을 설명했다. 현재 NHN클라우드는 국가AI데이터센터를 포함해 판교 데이터센터(NCC1) 등 데이터센터를 보유하고 있다. H100 GPU 1천 개 이상으로 이뤄진 엔비디아 기반 인프라는 77.3 PF에 달하며 그래프코어 기반 인프라는 11.2PF, 사피온은 11PF로 총 99.5PF에 달한다. 이와 함께 AI 플랫폼 'AI 이지메이커', 프라이빗클라우드 전용 솔루션 '프라이빗덱' 등 서비스 역량을 결합함으로써 고객이 쉽게 AI 서비스를 개발하고 상용화할 수 있도록 환경을 제공한다는 것이다. 김 대표는 NHN클라우드 외에도 솔트룩스 등 다양한 AI 기술 기업과 협력 관계를 맺어 AI 얼라이언스를 구축해 AI 생태계를 확장할 것이라고 장기적인 청사진을 소개했다. 이에 글로벌 파트너 지코어의 정현용 지사장이 참석해 “오픈스택 기술력 융합 협력에 이어 AI 인프라 사업에서도 긴밀하게 NHN클라우드와 협업할 것”이며 향후 AI생태계 구축을 위한 지속적인 파트너십을 약속했다. 김동훈 NHN클라우드 대표는 “생성형AI를 중심으로 확대되는 시장에서 다양한 AI서비스와 인프라를 제공해 선두권 사업자로 앞서 나가겠다는 것이 2.0 전략의 핵심”이라며 “우리는 개발부터 운영, 서비스 제공까지 모든 과정에서 앞선 역량과 인프라를 갖춘 만큼 앞으로 더욱 가시적인 성과를 낼 것”이라고 강조했다. 이어서 “지난해는 민간 사업은 목표치를 달성했지만, 공공 부문은 전체적으로 규모가 줄고 매출 반영이 1년뒤에 이뤄지면서 단기 순손실을 기록했다”며 “하지만 AI와 클라우드 관련 전체적인 기조가 긍정적이고, 글로벌진출까지 준비하고 있는 만큼 올해 매출 2천억 원, 2026년까지 8천 억 원을 달성하겠다는 목표는 그대로 유지할 것”이라고 포부를 밝혔다.

2024.03.25 09:19남혁우

"기업의 실질적 생성형 AI 활용은 통합에 달렸다"

“오라클의 AI 솔루션은 생성형 AI와 기업 데이터 플랫폼을 유기적으로 연계하는데 초점을 맞추고 있다. 오라클은 '통합'에 주목한다. 기업이 그동안 투자해온 데이터 플랫폼, 다양한 도구, 프로그래밍 언어 등을 그대로 활용하면서 동시에 생성형 AI란 최신 기술을 개방형으로 구축, 활용하게 지원한다.” 나정옥 한국오라클 클라우드엔지니어링 부사장은 21일 '최신 AI 트렌드와 오라클의 AI 전략'을 주제로 기자 간담회에서 이같이 밝혔다. 나정옥 부사장은 “현재 비즈니스의 핵심이 '데이터'에서 AI 기반 '분석'으로 변화하고 있는 가운데, 오라클은 기술 스택 전반의 모든 레이어마다 AI 솔루션을 제공하는 '풀 스택' 전략을 통해 기업 AI 여정을 촉진한다”고 말했다. 나 부사장은 “오라클은 생성형 AI 모델의 학습과 운영에 필요한 비용효과적인 클라우드 인프라, AI 앱 개발을 위한 완전관리형 서비스, 신뢰성 있는 관리형 AI 모델 등을 갖췄고, 오라클의 모든 애플리케이션에 AI를 내장시켰다”며 “AI 시대를 맞아 데이터 수집, 전처리, 저장, 분석, 활용에 이르는 전단계를 지원한다”고 강조했다. 오라클은 완전하고 통합된 데이터 및 AI 포트폴리오의 일부로서 ▲AI 인프라 ▲애플리케이션 ▲AI 서비스 ▲데이터 플랫폼과 유기적으로 작동하는 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스 등을 제공한다. 오라클의 최신 생성형 AI 기술 및 서비스를 살펴보면, 애플리케이션은 생성형 AI를 내재화한 퓨전 애플리케이션을, AI 서비스는 라마 2와 코히어 등의 LLM 미세조정 및 추론 서비스 및 데이터 플랫폼과 결합 가능한 검색 증강 생성(RAG) 서비스를 제공한다. 데이터 플랫폼은 AI를 내장한 자율운영 데이터베이스와 마이SQL 히트웨이브 및 오라클 데이터베이스 23c의 벡터 검색 지원 기능 등을 제공한다. OCI 생성형 AI 서비스는 OCI 슈퍼클러스터와 통합을 기반으로 하며, 기업이 자체 데이터를 활용해 가장 안전하면서도 비용효율적인 방식으로 생성형 AI 서비스를 개발 및 운영하도록 지원한다. 데이터 플랫폼에서 모든 애플리케이션 및 개발 환경에 데이터를 제공하고, 데이터 수집, 처리, 분석, 예측 등에 AI를 활용하도록 한다. 이날 간담회에서 김태완 한국오라클 수석 솔루션엔지니어 상무는 오라클의 생성형 AI 솔루션의 주요 기능을 직접 시연했다. 데모 시연을 통해 OCI 생성형 AI 서비스에서 임베딩, 프롬프트 작업 및 자동 코드 생성 등을 통해 애플리케이션 개발을 효과적으로 지원하는 기능, 미세조정을 통한 모델 맞춤화 및 모델 성능 관리 기능을 설명했다. 김태완 상무는 “OCI 생성형 AI 서비스는 상용 모델과 오픈소스 모델을 제공하며, 프롬프트 엔지니어링, 텍스트 임베딩, 코드 생성, 요약 등의 기능을 이용할 수 있다”며 “여러 모델을 운영, 테스트할 수 있고, 자바나 파이썬 코드를 생성하고, 텍스트를 벡터로 변환해 데이터 간 연관성과 유사도를 시각적으로 확인할 수 있는데, 모든 과정을 UI로 할 수 있다”고 설명했다. 김 상무는 “파인튜닝과 커스터마이징을 위해 전용 인스턴스를 생성, 파인튜닝하고, 성능 검증해 변경된 모델을 프롬프트로 테스트하고 코드화할 수 있다”며 관리콘솔로 대시보드와 모니터링 환경을 제공함으로써 기업의 LLM 모델 활용에 대한 기술 진입장벽을 낮춘다”고 덧붙였다. 오라클 OCI 생성형 AI 서비스는 제공 모델에 미스트랄 AI의 믹스트랄을 곧 추가할 예정이다. 김 상무는 기업에서 신뢰성 높은 생성형 AI 앱을 만들 수 있도록 검색증강생성(RAG)를 쉽게 활용하게 하는 서비스를 소개했다. RAG는 기업 내부 데이터와 LLM을 연결하고, 벡터화된 내부 데이터의 의미 검색을 통해 사용자 프롬프트의 맥락에 가장 알맞는 답변을 생성하도록 하는 기법이다. 그는 “맥락에 맞는 데이터 저장소에서 정보를 찾아서 LLM에 보내고, 캐싱을 처리하고, 양질 프롬프트를 새로 만들고, 입력 프롬프트를 임베딩해서 적정 데이터를 찾게 하는 등의 전처리 과정이 RAG에서 매우 복잡하다”며 “오라클은 에이전트란 서비스를 통해 LLM과 RAG를 자동화할 수 있는 부분을 혼합하고 추상화시켜서 고객의 부담을 최소화하며 AI 앱을 쉽게 개발하게 한다”고 설명했다. 그는 “에이전트는 오픈서치 기반으로 LLM과 통합하는 데이터 저장소를 만들며, 오라클 데이터베이스23c나 마이SQL 히트웨이브의 벡터 서치를 저장소로 연동할 수 있다”며 “레디스 캐시로 프롬프트 히스토리를 관리할 수 있는 등 대상 LLM과 저장소를 연결해 RAG 앱을 만드는 모든 부분을 자동화한다”고 덧붙였다.

2024.03.21 16:38김우용

광주 AI반도체 업계 "국산 NPU 우선 도입해야"

과학기술정보통신부(장관 이종호)와 기획재정부 신성장전략기획추진단(단장 유병희)은 21일 광주광역시 소재 국가 AI 데이터센터와 AI창업캠프를 찾아 국산 AI반도체 상용화 현장을 점검하고, 업계 관계자와 간담회를 개최했다. 추진단은 이날 국가 AI 데이터센터에서 국산 NPU(AI연산에 특화된 반도체)기반의 서버팜 구축 상황과 NPU 시험‧검증 플랫폼, AI 응용서비스 실증 현황 등을 점검했다. 또 AI 스타트업들이 집적해 있는 AI 창업캠프를 찾아 입주 기업들의 기술개발 성과와 애로사항을 들었다. 업계 측은 이날 간담회에서 공공 부문에 국산 NPU 우선 도입, AI 학습 데이터 보안 규제 완화, 정부 납부 기술료 부담 완화 등에 대한 정부 지원의 필요성을 언급했다. 이날 간담회에 참석한 기업은 NHN클라우드, 네이버클라우드, 퓨리오사, 사피온코리아, 슈퍼브에이아이, 휴먼ICT 등 6개다. 기획재정부 유병희 추진단장은 “생성형 AI 서비스의 급속한 확산으로 AI반도체의 중요성이 더욱 부각되고 있다"며 "글로벌 빅테크 기업들의 AI 반도체 자체 개발도 치열하다"고 말했다. 유 단장은 또 “신성장 프로젝트에 포함된 AI 분야 핵심과제를 실효성 있게 추진해 국산 AI 반도체의 실증 레퍼런스를 조기에 확보하고 이를 토대로 국산 AI 반도체가 국내 시장은 물론 글로벌 무대에 진출할 수 있도록 지원하겠다”고 밝혔다. 과기정통부 전영수 정보통신산업정책관은 “AI반도체와 클라우드는 AI일상화 시대 핵심 인프라"라며 "세계 최고의 저전력·고효율 국산 AI반도체 고도화를 적극 지원, 광주 국가 AI데이터센터의 성공 모델을 글로벌로 확대해 나갈 계획”이라고 덧붙였다.

2024.03.21 15:03박희범

스노우플레이크, 엔비디아와 풀스택 AI 플랫폼 제공

스노우플레이크는 엔비디아와 파트너십을 강화해 풀스택 AI 플랫폼을 제공한다고 21일 발표했다. 인공지능(AI)을 활용해 기업 고객의 생산성을 높일 수 있도록 지원하는 것으로, 스노우플레이크의 데이터 기반과 안정성 높은 데이터 클라우드의 AI 기술을 풀스택 엔비디아 가속 플랫폼에 결합할 수 있게 된다. 양사는 AI의 생산성과 비즈니스 속도를 높이고 여러 산업군에 걸쳐 새로운 비즈니스 기회를 확대하도록 설계된 인프라와 컴퓨팅 기술을 결합해 안전하고 강력한 기능을 제공한다. 지난해 6월 스노우플레이크와 엔비디아가 엔비디아 네모 통합 기능을 확대한다고 발표했다.. 강화된 파트너십에서 스노우플레이크는 자사 플랫폼에서 데이터 보안, 개인정보보호 및 거버넌스를 원활하게 유지하면서 직접 엔비디아의 네모 리트리버를 활용할 수 있게 된다. 네모 리트리버는 기업이 맞춤형 LLM을 기업 데이터에 연결할 수 있는 생성형 AI 마이크로 서비스다. 이를 기반으로 챗봇 애플리케이션의 성능과 확장성을 개선하고 스노우플레이크 코텍스(프리뷰 공개)로 AI 애플리케이션을 구축한 400개 이상의 기업이 보다 빠르게 비즈니스 가치를 실현할 수 있도록 지원한다. 또한 딥 러닝 추론 애플리케이션에 짧은 지연 시간과 높은 처리량을 제공하는 엔비디아 텐서RT를 활용할 수 있어 기업 고객의 LLM 기반 검색 기능이 향상될 것으로 기대된다. SQL 사용자는 스노우플레이크 코텍스 LLM 기능을 통해 소규모 LLM을 활용해 감정 분석, 번역 및 요약 등의 특정 작업을 몇 초 만에 비용 효율적으로 처리할 수 있다. 미스트랄AI, 메타 등의 고성능 모델을 활용한 AI 애플리케이션의 개발에도 적용할 수 있다. 스노우플레이크의 새로운 LLM 기반 어시스턴트로, 자연어를 통해 스노우플레이크의 코딩 작업에 생성형 AI를 적용한다. 사용자들이 대화 형식으로 질문하면 관련 테이블을 활용해 SQL 쿼리를 작성해 주며 쿼리를 개선하고 인사이트를 필터링하는 등의 작업을 수행할 수 있다. 도큐먼트 AI는 기업들이 LLM을 사용해 문서에서 청구 금액 또는 계약 약관 등의 내용을 쉽게 추출하고 시각화 인터페이스와 자연어를 사용해 결과를 섬세하게 조정할 수 있도록 지원한다. 고객사는 도큐먼트 AI를 사용해 수작업으로 인한 오류를 줄이고 자동 문서 처리를 통해 효율성을 강화한다. 슈리다 라마스워미 스노우플레이크 CEO는 “데이터는 AI의 원동력으로, 효과적인 AI 전략 수립에 매우 중요하다”며 “스노우플레이크는 엔비디아와 협력으로 신뢰할 수 있는 기업 데이터를 위한 안전하고 확장 가능하며 사용이 용이한 플랫폼을 제공하게 됐다”고 밝혔다. 그는 “특히 기술 전문성에 상관없이 모든 사용자가 AI를 사용할 수 있게 해 누구나 AI 기술 혜택을 얻도록 지원한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “기업 데이터는 비즈니스 인텔리전스를 확보할 수 있는 커스터마이징 AI 애플리케이션의 근간”이라며 “엔비디아 가속 컴퓨팅 및 소프트웨어를 스노우플레이크의 데이터 플랫폼에 적용함으로써 고객이 기업 전용의 생성형 AI 애플리케이션을 구축, 배포 및 관리할 수 있게 된다”고 강조했다.

2024.03.21 09:39김우용

뉴타닉스 "IT 현대화 주요 동력 AI·보안·지속가능성'”

뉴타닉스는 기업의 클라우드 도입 진행 현황을 조사하는 '제6회 글로벌 엔터프라이즈 클라우드 인덱스(ECI) 설문 및 연구 보고서'의 결과를 21일 발표했다. 올해 ECI 보고서에 따르면, 하이브리드 멀티 클라우드 모델은 향후 1~3년 동안 사용량이 두 배 증가할 것으로 예상된다. 이는 IT 의사결정권자들이 AI, 보안, 지속가능성과 같은 요인으로 인해 IT 인프라 현대화에 대한 새로운 요구에 직면해 있기 때문이다. 기업 조직이 여러 환경 간 애플리케이션과 데이터 이동에 따르는 복잡성 문제를 해결하고자 하는 가운데, 하이브리드 멀티 클라우드 인프라의 중요성은 점점 더 커지고 있다. 보고서에 따르면 지난 한 해 동안 애플리케이션을 다른 환경으로 옮긴 가장 큰 이유는 보안과 혁신이었다. AI가 비즈니스의 중심이 되면서 응답자들은 AI 전략 지원을 위한 투자 확대가 최우선적으로 이뤄진다고 밝혔으며, IT 현대화에 대한 투자가 차순위로 근접한 결과를 보였다. 올해 보고서는 다섯 가지 주요 결과를 도출했다. 첫번째로 하이브리드 멀티 클라우드 인프라 구축은 인프라 표준으로 자리 잡을 것으로 분석하고 있다. ECI 응답자의 90%는 인프라 전략에 '클라우드 스마트' 접근 방식을 채택해 각 애플리케이션에 가장 적합한 데이터센터, 퍼블릭 클라우드, 엣지와 같은 환경을 활용하고 있다. 이러한 접근 방식이 널리 퍼져 있다는 점을 고려할 때 하이브리드 및 멀티 클라우드 환경은 사실상 인프라 표준이 됐다. 기업 조직의 80% 이상은 하이브리드 IT 환경이 애플리케이션 및 데이터 관리 능력에 가장 유리하다고 생각한다고 밝혔다. 나아가 하이브리드 IT 환경은 경영진의 우선순위로 자리잡아, 응답자 중 거의 절반이 하이브리드 IT 구현이 CIO의 최우선 과제라고 답했다. 두번째로 랜섬웨어 방어는 최고 경영자와 실무자 모두에게 가장 먼저 고려되는 사안이지만 대부분의 조직은 이미 진행된 공격의 여파로 계속해서 어려움을 겪고 있다. 2024년에도 랜섬웨어와 멀웨어 공격이 계속되어 기업에 실존적인 위협으로 남을 것이다. 하지만, 랜섬웨어 공격을 경험한 ECI 응답자의 71%가 전체 운영체계를 복구하는 데 수일 또는 여러 주가 걸렸다고 답하며 데이터 보호 및 복구에 대한 어려움을 느끼고 있었다. 이에 따라, 조직의 78%는 올해 랜섬웨어 보호 솔루션에 대한 투자를 늘릴 계획이라고 답했다. 세번째는 조직이 보안과 혁신의 균형을 모색함에 따라 애플리케이션과 데이터 이동이 여전히 복잡한 과제로 남아 있다. 애플리케이션과 데이터를 포함한 엔터프라이즈 워크로드는 온프레미스 데이터센터, 퍼블릭 클라우드, 소규모 엣지 위치, 또는 이 세 가지가 혼합된 환경 등 요구사항에 가장 적합한 IT 환경에 구축되는 경우가 많다. 이러한 다양한 애플리케이션 배치는 ECI 응답자의 95%가 작년에 애플리케이션을 다른 환경으로 전환한 주요 이유 중 하나로, 보안과 혁신을 꼽았다. 기업들은 애플리케이션과 데이터 이동이 지속적으로 이루어질 것을 예상하고 유연성과 가시성을 중점적으로 고려해 인프라를 선택해야 한다. 오늘날 조직은 복잡한 애플리케이션 마이그레이션을 실행할 때 상당한 장벽에 직면해 있으며, ECI 응답자의 35%는 현재의 IT 인프라에서 워크로드 및 애플리케이션 마이그레이션을 할 때 어려움이 있다고 답했다. 네번째는 IT 팀이 지속가능성 프로그램을 계획 선에서 그치지 않고 IT 현대화를 시작으로 적극적으로 실천하고 있다는 점이다. 응답자의 88%는 지속가능성이 조직의 우선순위라고 동의했다. 실행이 제한적이었던 이전 보고서와 달리, 많은 조직이 지속가능성 이니셔티브를 실행하기 위해 IT 인프라 현대화와 같은 적극적인 조치를 취하고 있다고 공통적으로 답했다. 이는 IT 인프라가 지속가능성에 미치는 직접적인 영향을 보여주는 결과로 보인다. 다섯째는 AI, 최신 애플리케이션 및 데이터 증가에 힘입어 인프라 현대화가 당연시되고 있다는 것이다. 응답자의 37%는 현재 IT 인프라에서 AI 애플리케이션을 실행하는 것이 상당한 도전 과제가 될 것이라고 답했다. 이러한 과제를 해결하기 위해 기업들은 데이터 처리 및 접근 속도를 높일 수 있는 IT 현대화 및 엣지 인프라 구축에 우선순위를 두고 있다. 이를 통해 여러 환경의 데이터를 연결하는 기능을 개선하고, 방대한 에코시스템에서 데이터의 위치를 더 잘 파악할 수 있다. 리 캐스웰 뉴타닉스 제품 및 솔루션 마케팅 담당 수석은 "IT 조직은 AI, 지속가능성 또는 보안의 중요성 때문에 지속적으로 신속한 IT 인프라 현대화 압력에 직면해 있다”며 “ECI 응답자의 80%가 IT 현대화에 투자할 계획이며, 85%는 AI 지원을 특정해 투자를 늘릴 계획이라고 했다”고 설명했다. 그는 “올해 보고서에 따르면, 조직들은 오늘의 IT 인프라를 미래에 대비시켜 내일의 기술을 지원해야 한다”며 “하이브리드 멀티 클라우드는 기존의 가상머신과 최신 컨테이너화된 애플리케이션을 지원하고 클라우드와 온프레미스 간 이동을 지원하는 유연성 측면에서 지속적으로 선호되는 인프라 표준으로 부상하고 있다"고 밝혔다. 6년 연속으로 기술 조사업체 밴슨 본은 뉴타닉스의 의뢰로 작년 12월 전 세계 1천500명의 IT 및 데브옵스 및 플랫폼 엔지니어링 의사결정권자를 대상으로 설문조사를 실시했다. 응답자는 북미 및 남미, 유럽, 중동 및 아프리카(EMEA), 아시아태평양 지역의 다양한 산업, 비즈니스 규모 및 지역을 포괄했다.

2024.03.21 09:31김우용

메가존클라우드, 데이터·AI로 기업 의사결정 지원

메가존클라우드(대표 이주완)가 데이터 기반 통합 거버넌스 의사결정 지원 서비스를 지원한다. 메가존클라우드는 데이터브릭스와 딜리버리 프로바이더 프로그램(DPP)에 따른 파트너십 계약을 체결했다고 20일 밝혔다. DPP는데이터브릭스의 생태계 역량 강화 프로그램으로, 높은 기술 역량과 다양한 고객 사례를 보유하고 있는 파트너 업체에게만 파트너십 체결 자격이 부여된다. 평가 기준은 데이터 엔지니어링 전문가 자격증 유무, 데이터브릭스 솔루션에 대한 실무 지식, 프로젝트 수행 경험 등이다. 메가존클라우드는 ▲국내 시장에 대한 이해 ▲주요 클라우드 서비스 제공업체 관련 업무 경험 ▲클라우드, 빅데이터, 데브옵스 관련 컨설팅 제공역량 ▲데이터브릭스 솔루션 수행경험 부문에서 높은 평가를 받으며 심사를 통과해 데이터브릭스와 파트너십 계약을 체결했다. 메가존클라우드는 DPP 파트너십을 바탕으로 데이터엔지니어링 업무가이드, 마이그레이션 서비스, 데이터브릭스 유니티 카탈로그 등 고객사가 데이터와 AI의 통합 거버넌스를 위해 데이터브릭스 활용을 극대화할 수 있도록 지원하는 데이터브릭스 프로페셔널 서비스를 제공한다. 또한, 데이터브릭스와 기술 협력을 통해 다양한 프로젝트를 진행함으로써 최신 기술을 기반으로 고객에게 향상된 서비스를 제공할 계획이다. 메가존클라우드는 데이터브릭스 솔루션을 기반으로 기술검증, 고객사 대상 핸즈온 세션 지원, 데이터 전환 사업 구축 등을 진행하고 있다. 100여명 규모의 전문 조직을 통해 기업 고객에 최적화된 데이터브릭스 제품을 제공해 데이터 기반 인사이트 제공 및 데이터 비즈니스에 대한 전문성 강화를 지원해왔다. 지난해 7월에는 데이터브릭스가 인증하는 데이터 및 AI 전문가인 데이터브릭스 챔피언을 배출한 바 있다. 메가존클라우드 AI & 데이터분석센터 공성배 센터장은 “데이터브릭스와의 파트너십 확대로 긴밀한 협업 관계를 구축하고 더욱 전문적인 서비스를 제공할 수 있게 돼 기쁘다”며 "우리의 운영 및 관리 경험과 혁신적인 데이터브릭스의 솔루션을 통해 다양한 고객에게 데이터 기반의 신속한 의사결정을 지원하겠다"고 밝혔다. 데이터브릭스 그레그 테일러 아태지역 파트너 부문 부사장은 "데이터 인텔리전스 플랫폼을 통해 많은 한국 기업들이 독점 데이터를 기반으로 안전하게 생성형 AI를 구축할 수 있을 것이라고 확신한다"고 말했다.

2024.03.20 11:18남혁우

스노우플레이크 CFO "데이터 클라우드로 AI 기술 생산성 높일 것”

스노우플레이크는 마이크 스카펠리 최고재무책임자(CFO) 마이크 스카펠리가 지난 13일 한국을 방문했다고 20일 밝혔다. 스노우플레이크는 13일 소피텔 엠베서더에서 국내 주요 기업 임원들을 초청해 '이그젝큐티브 라운드테이블 고객 세미나'를 진행했다. 이날 행사에서 마이크 스카펠리 CFO와 존 로버슨 APJ 세일즈 총괄, 크리스 차일드 스노우플레이크 제품 시니어 디렉터가 데이터 및 AI 전략과 전망을 공유했다. 스노우플레이크 코리아 최기영 사장과 김우성 한국 딜로이트 그룹 전무를 비롯해 CJ프레시웨이, BC카드, LG유플러스 등의 고객사도 연사로 참여해 데이터 및 생성형 AI 등에 대한 인사이트와 경험을 전했다. 마이크 스카펠리 스노우플레이크 CFO는 “AI 시대에 발맞춰 고객이 애플리케이션 전략을 구축하고 실행하는 과정에 스노우플레이크 데이터 클라우드 플랫폼에서 AI 및 LLM 기술로 생산성을 높일 수 있도록 지속적으로 지원할 것”이라고 강조했다. 마이크 스카펠리 CFO는 AI 검색 엔진 니바 인수, AI 솔루션 제공업체 미스트랄 AI 파트너십 등 AI 지원을 가속화하기 위한 스노우플레이크의 노력을 설명했다. 그는 “전략적인 인수합병과 시의적절한 투자를 통해 고객에게 민주화된 AI 경험을 제공할 수 있게 됐다”며 “고객이 보안과 거버넌스가 보장된 스노우플레이크 플랫폼에서 AI 및 LLM을 활용해 쉽고 비용 효율적으로 애플리케이션을 구축하고, 이를 기반으로 혁신적인 AI 성공 사례를 만들어 나가기를 바란다”고 말했다. 크리스 차일드 시니어 디렉터는 2023년 인수한 데이터 앱 개발 플랫폼 스트림릿에 대해 “스트림릿은 고객이 데이터 분석을 통해 유의미한 인사이트를 빠르게 확보하고 대화형 애플리케이션 구축 기능을 활용해 쉽게 풀스택 AI 앱을 개발할 수 있도록 한다”며 “이처럼 스노우플레이크는 통합된 데이터를 보다 효과적으로 활용하고 새로운 비즈니스 모델을 창출할 수 있도록 지원한다”고 설명했다. 김우성 한국 딜로이트 그룹 전무는 'AI시대의 엔터프라이즈 데이터 관리 방안'을 주제로 발표를 진행했다. “정제되지 않은 데이터로 생성형 AI를 더 잘 활용할 수 있도록 ▲통합 ▲분석 ▲관리 및 표준화 ▲거버넌스 수립이 가능한 시스템 요건을 갖춘 유연한 데이터 플랫폼을 선택해야 한다”며 “스노우플레이크는 4가지 요건을 모두 충족하는 데이터 플랫폼 기업”이라고 강조했다. 패널 토크에서 CJ프레시웨이 김종호 디지털 혁신 담당과 BC카드 데이터 사업본부 오성수 본부장, LG유플러스 데이터 전략 및 관리 총괄 조연호 책임이 각사에서 데이터 클라우드 플랫폼을 활용하는 사례와 효과에 대해 설명했다. CJ프레시웨이 김종호 디지털 혁신 담당은 “데이터를 활용해 새로운 비즈니스 기회를 창출하면서 동시에 기업의 생산성을 높이기 위해 클라우드 전환을 고려하게 됐다”며 “클라우드 전환으로 데이터를 IT부서에서 받아 활용하는 것이 아니라 현업 직원들이 직접 공유하고 분석할 수 있게 됐다”고 전했다. LG유플러스 마이데이터 서비스를 총괄하는 조연호 책임은 스노우플레이크 도입 이유에 대해 “마이데이터 서비스는 고객의 신용정보와 같이 민감한 개인정보를 다루는 만큼 안전한 데이터 관리를 위한 보안 환경 구축이 필수”라며 “스노우플레이크는 금융보안원의 클라우드 서비스 공급자(CSP) 안정성 평가를 완료했을 뿐 아니라 강력한 보안성과 일관된 거버넌스를 제공해 개인화된 데이터 시대에 가장 적합하다”고 밝혔다. 스노우플레이크의 데이터 거래 플랫폼 마켓플레이스에서 데이터 세트를 제공하고 있는 BC카드 데이터 사업본부 오성수 본부장은 데이터 기반 솔루션 제공업체로서 데이터를 통한 수익화 모델을 성공적으로 구축한 경험을 소개했다. 그는 “스노우플레이크 마켓플레이스는 자사가 보유한 유의미한 데이터를 더 많은 잠재 고객에게 도달해 공유할 수 있는 기회를 제공했다”며 “마켓플레이스는 기업이 민감한 정보는 철저히 보호하면서도 데이터 비즈니스를 확장하고 경쟁력을 향상하는 최적의 플랫폼”이라고 말했다.

2024.03.20 10:50김우용

오라클, 엔비디아와 '소버린 AI' 제공 협력 발표

오라클은 엔비디아와 협력 관계를 확장해, 전 세계 고객들을 대상으로 소버린 AI 솔루션을 제공하기 위한 계획을 20일 발표했다. 이 협력을 통해 오라클의 분산형 클라우드와 AI 인프라스트럭처, 생성형 AI 서비스는 엔비디아의 가속 컴퓨팅 및 생성형 AI 소프트웨어와 결합해 각국 정부 및 기업의 AI 팩토리 배포를 지원한다. 양사의 AI 팩토리는 광범위한 운영 통제 기능을 통해 클라우드 서비스를 국가 또는 기업 조직의 안전한 자체 지역 내 로컬 환경에서 운영하고, 이를 통해 경제 성장을 촉진하고 다각화하기 위한 주권 목표를 지원한다. OCI 전용 리전과 오라클 알로이, 오라클 EU 소버린 클라우드, 오라클 정부 클라우드 등에 배포 가능한 오라클의 기업용 AI 서비스는 엔비디아의 풀스택 AI 플랫폼과 결합돼 데이터의 운영과 위치 및 보안에 대한 제어력을 강화하여 고객의 디지털 주권을 지원하는 최첨단 AI 솔루션을 제공한다. 현재 세계 각국은 자국의 문화적, 경제적 목표를 달성하기 위해 AI 인프라 투자를 늘려 나가고 있다. 기업 고객들은 26개국에 위치한 66개의 오라클 클라우드 리전을 통해 인프라 및 애플리케이션 전반에 걸쳐 100여 개 클라우드 및 AI 서비스에 접근할 수 있고, 이를 통해 IT 마이그레이션, 현대화 및 혁신을 추진할 수 있다. 양사의 통합 오퍼링은 유연한 운영 통제 기능을 바탕으로 퍼블릭 클라우드를 통하거나 특정한 위치의 고객사 데이터센터에 직접 배포 가능하다. 오라클은 고객이 원하는 모든 장소에서 로컬 방식으로 AI 서비스 및 자사의 완전한 클라우드 서비스를 제공할 수 있는 유일한 하이퍼스케일러다. OCI는 배포 유형과 관계없이 동일한 서비스 및 가격 정책을 일관되게 제공하여 클라우드 서비스 이용을 보다 간단하게 계획하고 이전 및 관리할 수 있도록 한다. 오라클의 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼 등 다양한 엔비디아 스택을 활용하고 있다. 엔비디아 텐서RT, 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버 등 엔비디아 추론 소프트웨어를 기반으로 구축되어 최근 발표된 엔비디아 NIM 추론 마이크로서비스도 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 포함된다. 스위스 뱅킹 소프트웨어 제공업체인 아발록은 자체 데이터센터에서 완전한 OCI 퍼블릭 클라우드 리전을 운용하기 위해 OCI 전용 리전을 도입했다. 아발록의 마틴 부치 최고 기술 책임자는 "OCI 전용 리전은 최신 클라우드 인프라에 대한 액세스를 제공하면서도 데이터 보존을 최대한 제어하려는 아발록의 노력과 부합한다"며 "이는 우리가 은행과 자산 관리사의 디지털 혁신을 지속적으로 추진하는 데 큰 도움이 된다”고 설명했다. 뉴질랜드의 선도적인 정보 관리 서비스 제공업체인 팀 아이엠은 뉴질랜드 최초로 현지 기업이 소유 및 운영하는 하이퍼스케일 클라우드인 팀 클라우드를 구축하기 위해 오라클 알로이를 도입했다. 팀 아이엠의 이언 로저스 CEO는 "클라우드의 성능은 십분 활용하면서도 뉴질랜드 국경 내에서 데이터 무결성을 유지할 수 있는 독자적인 하이퍼스케일 클라우드 솔루션에 대한 뉴질랜드 기업들의 수요가 갈수록 증가하고 있다"며 "팀 아이엠은 오라클 알로이와 더불어, 엔비디아 AI 플랫폼을 자사 클라우드 서비스에 통합할 수 있는 가능성을 통해 공공 분야 및 민간 기업, 뉴질랜드 원주민 단체들이 디지털 환경의 복잡성을 해소하고 디지털 혁신 과정을 최적화하는 과정에 기여할 수 있는 클라우드 서비스 제공업체로 자리 매김했다"고 밝혔다. 오라클은 엔비디아 GTC에서 발표된 최신 엔비디아 그레이스 블랙웰 컴퓨팅 플랫폼을 자사의 OCI 슈퍼클러스터 및 OCI 컴퓨트 서비스 전반에 도입함으로써 지속적으로 증가하는 고객의 AI 모델에 대한 요구사항에 대응해 나갈 계획이다. OCI 슈퍼클러스터는 새로운 OCI 컴퓨트 베어 메탈 인스턴스와 초저지연 RDMA 네트워킹, 고성능 스토리지를 통해 훨씬 더 빠른 속도를 제공할 전망이다. OCI 컴퓨트에는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩과 엔비디아 블랙웰 B200 텐서 코어 GPU가 모두 탑재된다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩은 컴퓨팅의 새로운 시대를 선도할 획기적 성능을 제공한다. 전 세대 GPU 대비 최대 30배 빠른 실시간 대규모 언어 모델(LLM) 추론, 25배 낮은 TCO, 25배 적은 에너지 소모량 등을 자랑하는 GB200은 AI 학습, 데이터 처리, 엔지니어링 설계 및 시뮬레이션 등의 작업 성능을 대폭 강화해 준다. 엔비디아 블랙웰 B200 텐서 코어 GPU는 가장 높은 성능이 요구되는 AI, 데이터 분석, 고성능 컴퓨팅(HPC) 워크로드를 처리하기 위해 설계됐다. 또한 검색 증강 생성(RAG) 추론 배포를 위한 엔비디아 네모 리트리버를 비롯한 엔비디아 NIM 및 쿠다-X 마이크로서비스는 OCI 고객이 자체 데이터를 사용해 생성형 AI 코파일럿 및 기타 생산성 도구에 더 많은 인사이트를 제공하는 동시에, 해당 도구들의 정확성을 향상시키는 작업에도 도움이 될 것으로 보인다. 점점 더 복잡해지는 AI 모델에 대한 고객의 수요 증가에 부응하기 위해 오라클과 엔비디아는 OCI 상에서 구동되는 엔비디아 DGX 클라우드 서비스에 엔비디아 그레이스 블랙웰 슈퍼칩을 추가할 예정이다. 고객들은 LLM의 매개변수가 조 단위에 달하게 된 현 시점에 보다 에너지 효율적인 학습 및 추론을 지원하기 위해 양사가 함께 설계한 슈퍼컴퓨팅 서비스인 엔비디아 DGX 클라우드를 통해 새로운 GB200 NVL72 기반 인스턴스에 액세스 할 수 있다. DGX 클라우드 클러스터의 전체 구성에는 2만개 이상의 GB200 가속기와 엔비디아 CX8 인피니밴드 네트워킹이 포함돼 더욱 탁월한 확장성 및 성능을 갖춘 클라우드 인프라를 제공할 예정이다. 해당 클러스터는 5세대 NV링크가 탑재된 72개의 블랙웰 GPU NVL 72와 36개 그레이스 CPU로 구성된다. 사프라 카츠 오라클 CEO는 "AI가 전 세계의 비즈니스, 산업 및 정책을 재편함에 따라, 국가와 기업 조직은 가장 중요한 데이터를 안전하게 보호하기 위해 디지털 주권을 강화해야 한다"며 "오라클은 엔비디아와의 지속적인 협력 관계와 클라우드 리전을 로컬 차원에서 신속히 배포할 수 있는 독보적인 역량을 통해 전 세계에서 보안에 대한 타협과 우려 없이 AI를 활용할 수 있도록 보장할 것"이라고 밝혔다. 젠슨 황 엔비디아 설립자 겸 CEO는 "생성형 AI가 혁신을 주도하는 시대에 데이터 주권은 문화적, 경제적 필수 요소"라며 "엔비디아의 가속 컴퓨팅 및 생성형 AI 서비스와 결합된 오라클의 통합 클라우드 애플리케이션 및 인프라 서비스는 각 국가 및 지역이 데이터 주권을 바탕으로 스스로 미래를 직접 설계할 수 있는 유연성과 보안을 제공한다."라고 강조했다. 오라클과 엔비디아가 공동 제공하는 소버린 AI 솔루션은 발표와 함께 바로 사용 가능하다.

2024.03.20 10:45김우용

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

美 "보조금 줄게, 지분 내놔"...삼성·SK까지 확대되나

삼성·SK, 하반기도 낸드 투자에 보수적…장비 업계 '한숨'

전야제부터 분위기 '후끈'…게임스컴 'ONL', 韓 게임 대거 출격

구글에 韓 정밀지도 내줘도 괜찮다?...공정위, 주병기 후보자 관련 보도 해명

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.