• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 클라우드'통합검색 결과 입니다. (662건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

알리바바클라우드, LLM 최신 버전 '큐원 2.5' 출시

알리바바클라우드는 자사의 대규모언어모델(LLM) 제품군의 최신 버전인 큐원2.5(Qwen 또는 퉁이 첸원)를 출시하고, 주요 성과를 16일 발표했다. 지난해 6월 이후 큐원 제품군은 알리바바 클라우드의 모델스튜디오를 통해 9만 이상의 기업에게 채택받는 성과를 달성했다. 다양한 산업군의 기업들이 큐원을 선택함으로써 큐원은 소비자 전자제품, 자동차, 게임 등의 분야에서 입지를 다졌다. AI 솔루션 수요 증가에 따라, 알리바바 클라우드는 큐원의 최신 버전으로 큐원2.5를 출시하며, 오픈소스 커뮤니티에 대한 약속과 지속적인 노력을 바탕으로 새로운 큐원 모델 시리즈도 함께 공개했다. 기업 사용자의 급증하는 AI 수요를 충족하기 위해 모델스튜디오를 업그레이드하여 새로운 AI개발 리소스를 제공하기로 했다. 작년 6월 AI개발 플랫폼 출시 이후, 9만 이상의 기업 사용자가 모델스튜디오를 통해 큐원 언어 모델들을 사용했다. 알리바바 그룹의 지능형 협업 작업 공간이자 애플리케이션 개발 플랫폼인 딩톡에서 큐원을 기반으로 한 AI 서비스를 약 220만 명의 기업 사용자가 활용한 것으로 확인된다. 5억부터 1천100억 개에 이르는 다양한 매개변수 모델을 자랑하는 오픈소스 큐원 시리즈는 허깅페이스, 깃허브 같은 플랫폼에서 700만 건 이상의 다운로드 횟수를 기록했다. 알리바바클라우드가 주도하는 중국 최대의 AI 모델 커뮤니티인 '모델스코프'는 현재 4천 개 이상의 모델을 보유하고 있으며, 지난 몇 년간 활발히 참여한 500만 명의 개발자 기반을 확보했다. 새롭게 출시된 큐원2.5는 이전 버전인 큐원2.0에 비해 추론, 코드 이해력, 텍스트 이해력 등에서 현저한 발전을 이뤘다. 최근에 출시된 모델스튜디오를 통해 사용할 수 있다. 대규모 모델 평가 시스템인 오픈콤파스에 따르면 큐원2..5는 다양한 범주에서 SOTA (State-Of-The-Art) LLM 중 상당히 경쟁력 있는 결과를 보여줬다. 오픈소스 커뮤니티 발전의 기여에 전념하는 알리바바 클라우드는 큐원을 다양한 사이즈로 제공한다. 여기에는 '오픈LLM 리더보드'의 사전 학습 모델 부문에서 최상의 성능을 보인 1천100억 개의 매개변수를 갖춘 큐원1.5-110B와 70억 개의 매개변수를 가진 코드 최적화 버전인 코드큐원1.5-7B가 포함된다. 이 모델은 현재 '허깅페이스'의 '빅코드 모델 리더보드'에서 기본 모델 중 최상위에 있다. 알리바바 클라우드는 또한 다음 몇 달 이내 큐원2.0의 70억 매개변수와 720억 매개변수 변형을 공유할 계획이다. 샤오미는 알리바바클라우드의 모델을 자사의 AI 어시스턴트 '샤오AI에 통합해 최신 스마트폰 제품 및 스마트 전기 자동차에 이미지 생성 및 기계 독해와 같은 기능을 지원하고 있다. 이 통합은 음성 명령만으로도 샤오AI가 자동차 인포테인먼트 시스템에서 이미지를 생성할 수 있게 하면서, 승객들에게 상호 작용하는 엔터테인먼트 옵션을 제공해 차량 내에서 풍부한 경험을 할 수 있도록 한다. 샤오미 스마트폰 사용자들은 알리바바 클라우드의 이미지 생성 모델인 퉁이 완시앙과 고급 비전-언어 모델인 '큐원-VL' 등을 이용해 이미지 제작, 사진 분석, 음식 이미지로 레시피 생성 등 다양한 애플리케이션을 이용할 수 있어, 이를 통해 전반적인 사용자 경험이 향상될 것으로 기대된다. 알리바바클라우드는 2022년 이후 서비스형 모델 MaaS 을 통해 개발자가 AI 모델 개발을 간소화하고, AI 혁신을 이루도록 종합적인 서비스 스택을 제공한다. 알리바바 클라우드는 모델 학습 및 추론을 보다 비용 효과적이고 효율적으로 만들기 위해 자사 생성형 AI모델 및 애플리케이션 개발 플랫폼인 모델스튜디오를 전반적으로 업데이트했다. 이번 업데이트에는 더 다양한 모델과 정교한 AI 도구 및 서비스가 포함됐다. 개발자들은 이제 Baichuan AI와 같은 제3자 AI 기업의 고품질 모델에도 접근할 수 있다. 모델스튜디오의 다양한 포트폴리오는 이미 다양한 사이즈의 큐원을 포함 100개 이상의 모델이 포함되어 있다. 새롭게 개편된 모델스튜디오는 다양한 고급 개발자 도구가 포함되어 있으며, 챗봇 및 분석 도구와 같은 애플리케이션 개발을 위한 LLM을 개선하는 데 도움이 되는 오픈 소스 프레임워크인 LlamaIndex를 통합하고 있다. 이에 더해 어시스턴트 API(Assistant API)라는 새로운 기능이 공개되어 복잡한 AI 어시스턴트 개발을 간편하게 한다. 이 기능은 검색 증강 생성(RAG) 기술을 신속하게 통합해 상황에 맞는 응답을 생성하고, 다중 에이전트 조정 및 메모리 관리와 같은 고급 기능을 지원한다. 알리바바 클라우드의 저우징런 CTO는 “지금까지 알리바바 클라우드의 LLM 제품군인 큐원이 강력해지고 빠르게 성장하는 것을 지켜보는 것은 매우 흥미로운 여정이었으며, 여러 산업 분야에서 큐원 모델을 창의적으로 적용한 수많은 사례를 보았다”며 “그동안 알리바바 클라우드는 큐원 모델의 기능을 지속적으로 향상하고 AI 개발 서비스 제품군을 강화해 고객에게 더욱 혁신적인 애플리케이션을 제공하기 위해 끊임없이 노력해 왔다”고 밝혔다. 저우징런 CTO는 “앞으로도 다양한 AI 모델을 오픈소스 커뮤니티에 제공할 것이며, 최신 생성형 AI 개발의 급격한 증가로 인해 생겨나는 무수한 성장 기회들을 포착하기 위해 고객 및 개발자들과 함께 협업하기를 기대한다”고 덧붙였다.

2024.05.16 16:16김우용

넷앱, AI 맞춤형 통합 데이터 스토리지 공개

넷앱은 생성형 AI, VM웨어, 엔터프라이즈 데이터베이스 등 기업의 까다로운 IT 작업을 수행하도록 지원하는 새로운 AFF A-시리즈 시스템을 공개했다고 16일 밝혔다. 넷앱은 이번 신제품 공개와 함께 자사 포트폴리오 내 확장 기능도 발표했다. 오늘날 많은 기업들이 AI 시대를 맞이하면서 혁신 가속화, 새로운 고객 경험 창출, 사이버 위협 예방, 생산성 향상 등의 목표 달성의 압박을 느끼고 있으며 동시에 AI를 이러한 목표를 달성하기 위한 핵심 도구로 보고 있다. 2024년 넷앱 클라우드 복잡성 보고서에 따르면, 기업들이 선택한 AI 비즈니스 성공의 핵심 요소로 데이터(74%)와 IT 인프라(71%) 두 가지가 꼽혔다. 넷앱은 이번 발표를 통해 혁신적인 지능형 데이터 인프라스트럭처를 제공하여 기업들이 AI를 통해 데이터의 가치를 발견하고 궁극적으로 데이터와 IT 인프라 두 가지 요소에서 경쟁력을 갖출 수 있도록 지원한다는 계획이다. 넷앱은 새로운 AFF A 시리즈 발표를 통해 차세대 워크로드를 위한 통합 데이터 스토리지 리더십을 계속 이어가고 있다. AFF A 시리즈는 세계 최대 3대 퍼블릭 클라우드와 동일한 기술을 활용해 스토리지 사일로 및 복잡성을 제거하고, 강력하고 안전한 지능형 스토리지를 제공하여 모든 워크로드를 가속화하고 최적화한다. 또한 브이엠웨어 스토리지 비용을 최적화하고 미래에 뛰어난 유연성을 제공하는 등의 통합적인 기능도 지원한다. 넷앱은 더욱 강력해진 새로운 AFF A 시리즈 올 플래시 스토리지를 도입함으로써 데이터, 애플리케이션, 클라우드 모두와 호환되는 통합 데이터 스토리지 시스템의 혁신을 이어가고 있다. 새로운 AFF A 시리즈 스토리지는 기존의 미션 크리티컬한 애플리케이션부터 미래의 비즈니스 성공을 이끌어낼 수 있는 생성형 AI 등의 가장 까다로운 워크로드를 쉽게 처리할 수 있다. 새로운AFF A 시리즈는 넷앱 AFF A1K, AFF A90, AFF A70으로 구성되며 기업 워크로드를 가속화할 수 있도록 다양한 기능을 제공한다. 4천만 IOPs 및 1 TBps 처리량으로 최대 2배 향상된 성능을 제공하며, 입증된 99.9999%의 데이터 가용성을 제공한다. 실시간 데이터 절감 및 4대1 스토리지 효율성 개런티를 포함한 선도적인 효율화 용량을 지원하고, 99% 이상 정확도의 실시간 통합 랜섬웨어 탐지 및 선도적인 랜섬웨어 복구 개런티를 제공한다. 넷앱의 통합 데이터 스토리지는 블록, 파일 및 객체 스토리지 프로토콜을 지원하며, 3대 퍼블릭 클라우드에 네이티브 서비스를 제공함으로써 고객들이 워크로드를 통합하고 데이터 비용을 절감하며 사일로 없이 운영할 수 있도록 돕고 있다. 또한 넷앱 온탭(ONTAP)에 의해 구동되어 많은 기업들에게 단순성과 신뢰성을 제공하고 있다. 넷앱은 지능형 데이터 인프라스트럭처 기업으로서의 혁신을 이어가기 위해 기업들에게 생성형 AI와 같은 현대적인 워크로드가 요구하는 향상된 데이터 관리, 업계를 선도하는 랜섬웨어 보호 기능 및 클라우드 통합과 같은 새로운 기능도 추가적으로 발표했다. 넷앱은 대용량 비정형 데이터의 가치를 향상시키고 총 소유 비용(TCO)을 줄일 수 있는 다섯 가지 새로운 스토리지그리드 모델을 도입했다. 이번 업데이트를 통해 스토리지그리드 내에서 용량 플래시를 활용할 수 있어 최저 비용으로 빠르게 데이터 객체에 접근할 수 있다. 고객은 기가바이트(GB)당 경쟁력 있는 가격, 최대 3배 성능 향상, 스토리지 면적 80% 감소 및 최대 70% 전력 소비 절감 등의 기능을 제공받을 수 있으며 중요 객체 워크로드에 대해 새로운 수준의 유연성, 선택권, 성능 및 지속 가능성을 경험할 수 있다. 넷앱은 데이터 보호 기능을 확장한 새로운 사이버 볼트 레퍼런스 아키텍처를 발표했다. 넷앱의 사이버 볼트는 안전한 데이터 스토리지, 실시간 자율 랜섬웨어 탐지 및 신속한 데이터 복구 등의 최신 기능이 결합되었다. 기업의 데이터를 최신 사이버 위협으로부터 보호하기 위해 검증된 넷앱 온탭 기술을 기반으로 '논리적으로 에어갭' 기술이 적용된 스토리지를 제공한다. 최신 버전의 넷앱 온탭은 두 데이터 센터 간에 대칭적인 액티브-액티브 비즈니스 연속성 솔루션을 제공하는 스냅미러 액티브 싱크를 포함한다. 스냅미러 액티브 싱크는 VM웨어 V스피어 메트로 스토리지 클러스터(vMSC) 및 오라클, SAP, 마이크로소프트(Microsoft)의 엔터프라이즈 데이터베이스와 결합되어 데이터 센터 장애 중에도 중단 없이 비즈니스 운영을 계속할 수 있도록 지원한다. 넷앱 온탭의 최신 버전에는 분산된 팀을 위해 로컬 데이터 복제본을 생성해 지연 속도를 줄이고 끊김 없는 접근을 유지하며 관리 오버헤드를 줄여주는 플렉스캐시 위드 라이트백 기능이 포함되어 있다. 로컬 복사본은 데이터를 읽고 쓸 수 있어, 핵심 데이터 센터와의 데이터 일관성을 유지하며 로컬 팀에 더 많은 제어권을 제공할 수 있다. 넷앱과 레노버는 검증된 RAG 및 생성형 AI 추론 사용 사례를 위한 새로운 융합 인프라 솔루션을 위해 협력하고 있으며 엔비디아 OVX 아키텍처 사양으로 검증된 레노버의 고성능 씽크시스템 서버와 엔비디아 L40S GPU, 엔비디아 스펙트럼-X 네트워킹 및 넷앱 AFF 스토리지 장치를 활용하고 있다. 추가 비용 없이 넷앱 블루XP의 핵심 기능으로 사용할 수 있는 AI 및 ML 기반의 서비스로, 고객에게 즉각적인 접근성을 제공하여 전체 데이터 자산에 걸쳐 데이터를 자동으로 분류, 카테고리화 및 태그를 지정할 수 있도록 한다. 또한 생성형 AI 와 같은 전략적 워크로드를 지원하는 동시에 거버넌스, 보안 및 컴플라이언스를 강화한다. 고객은 블루XP 분류 기능 및 AI옵스를 활용해 생성형 AI 및 RAG 혁신을 가속화할 수 있으며 사전 훈련된 모델을 자동 분류된 독점 데이터로 안전한 프로그래밍 방식으로 증강시킬 수 있어 비용이나 데이터 보안의 손실 없이 연관성을 향상시킬 수 있다. 산딥 싱 넷앱 엔터프라이즈 스토리지 부문 수석 부사장 겸 제너럴 매니저는 “어느 기업에나 데이터는 경쟁 우위를 확보할 수 있는 가장 귀중한 자산임은 분명하다”며 “미션 크리티컬한 애플리케이션을 실행하든지, 기업 데이터를 활용해 AI를 가속화하든지, 차이를 만드는 가장 중요한 것은 기업이 어떤 데이터 인프라스트럭처를 사용하는 가이다”라고 밝혔다. 그는 "온프레미스부터 퍼블릭 클라우드까지의 광범위한 넷앱의 통합 데이터 스토리지 포트폴리오는 까다로운 워크로드에 대한 솔루션을 찾고 있는 기업에게 솔루션이 될 수 있다”며 “이번에 새롭게 공개된 AFF A 시리즈는 업계에서 가장 강력하고 안전한 지능형 엔터프라이즈 스토리지를 제공하려는 넷앱의 변함없는 헌신을 증명한다"고 강조했다. 김백수 한국 넷앱 대표는 "AI의 기반은 곧 데이터다. 국내 AI 도입이 가속화됨에 따라 기업들은 변화와 성장을 위해 데이터를 지능적으로 관리해야 할 것”이라며 ”넷앱은 엔터프라이즈 스토리지 시장에서의 30년 이상의 전문성을 바탕으로 기업들의 지능적인 데이터 관리를 돕고 있으며 편의성, 보안, 지속 가능성 및 비용 절감에 대한 기업들의 요구를 확실히 지원하고 있다”고 밝혔다.

2024.05.16 16:10김우용

"생성형AI 직접 보고 가세요" AWS 서밋 서울 2024 개막

아마존웹서비스(AWS) 서밋 서울 2024가 올해 10주년을 맞아 역대 최대 규모로 개최했다. 이번 행사는 초점을 생성형AI에 맞췄다. 기조연설을 비롯해 주요 세션이 생성형AI를 주제로 이뤄졌으며 파트너사들의 참가부스도 생성형AI 서비스를 중점적으로 내세웠다. AWS 서밋 서울 2024은 16일부터 17일까지 양일간 서울 코엑스에서 진행되며, 60개 이상의 파트너사가 세션·엑스포 부스를 통해 AWS에서 운영되는 다양한 서비스를 선보인다. AWS 서밋 서울은 클라우드 기술 컨퍼런스로는 각 기업·정부 부처의 리더와 개발자, 일반 대중이 한자리에 모여 생성형 AI·업계의 최신 동향과 AWS 서비스에 관해 소통·협업하고 배울 수 있는 무료 교육 행사다. 올해 10주년을 맞은 이번 행사는 AWS 서밋 서울 2024는 메가존클라우드, 베스핀글로벌을 비롯해 GS네오텍, LG CNS, SK C&C, 삼성SDS, 에티버스 등 국내 주요 파트너사가 모두 참가했다. 기업 관계자는 사전예약자 수는 2만9천 명 이상에 달하며, 실제 참가자 수는 26일 하루 2만 명 이상 참여할 것으로 예상한다고 밝혔다. 키노트 발표에는 함기호 AWS 코리아 대표와 AWS 프란체스카 바스케즈 생성형 AI 혁신센터 부사장, 니라브 킹스랜드 앤트로픽 글로벨 제휴 총괄을 비롯해 우아한형제들 송재하 최고기술책임자(CTO), SKT 정석근 AI 사업 총괄이 참석했다. 주요 세션과 부스는 생성형AI 또는 이와 관련된 클라우드나 데이터, 보안 등 관련 주제로 가득 채워졌다. 생성형AI라는 섹션이 별도로 마련됐을 뿐 아니라 삼성전자, 스타벅스, 넥슨, CJ제일제당 등 주요 기업이 AI도입 사례를 소개했으며 AWS는 인공지능산업융합사업단과의 협업 사례도 발표했다 또한 쿠팡, LG화학은 클라우드, 우아한형제들과 교보생명은 데이터 혁신 전략 사례를 선보였다. 코엑스 C홀과 D홀에 마련된 부스존에는 AWS 파트너사들의 클라우드 및 생성형AI 서비스가 대거 전시됐다. 생성형AI 서비스를 직접 체험하거나 시연을 보고 설명을 들으면서 참관객의 이해도를 높이기 위함이다. AWS 올해의 MSP로 선정된 베스핀글로벌은 생성형AI를 활용해 기업에 최적화된 챗봇을 개발할 수 있도록 지원하는 서비스인 헬프나우를 현장에서 직접 시연했다. 메가존클라우드는 제조나 유통 기업의 데이터를 클라우드로 전환해 데이터를 분석하거나 AI등에 활용하는 클라우드 마이그레이션 서비스 '하이퍼 마이그'를 선보였다. GS네오텍은 AWS 배드록을 이용해 클로드3를 적용한 AI컨택센터 솔루션 와이즈엔(WiseN)을 선보였다. 와이즈엔은 챗봇을 비롯해 상담분석, 영상 분석, 상품 추천 등의 기능까지 함께 지원한다. 테마파크를 콘셉트로 부스를 꾸민 LG CNS는 클라우드 진단과 컨설팅부터 전환, 운영까지 모든 과정을 지원하는 엔드 투 엔드 서비스를 강조했다. 삼성SDS는 생성형AI 기반 협업솔루션 코파일럿을 직접 시연할 수 있는 자리를 마련했다. 이 밖에도 농심데이타시스템(NDS)는 사진 속 인물의 동작 따라하는 캐릭터를 그리는 서비스 등 생성형AI를 활용한 서비스가 대거 소개됐다. 직접 AI서비스를 체험하거나 시연을 본 관람객들의 반응은 대부분 긍정적이었다. 한 기업 참가자는 "생성형AI를 이야기로만 듣고 실제 사용해보진 않았다"며 "현장에서 처음 시연을 보게 됐는데 예상보다 더 실용적인 것 같아서 보다 활성화됐을 때가 기대된다"고 말했다.

2024.05.16 15:34남혁우

"한국은 어떤 마법을 만들고 싶습니까?"

“생성형 AI 덕분에 한국에서 더 이상 빌더가 되기 이보다 더 좋은 시기는 없었다. 여러분이 오늘 발명하는 모든게 전세계에 영향 미칠 것이다. 한국은 어떤 마법을 만들고자 하느냐?” 프란체스카 바스케즈 AWS 프로페셔널 서비스 및 생성형 AI 혁신센터 부사장은 아마존웹서비스(AWS)가 16일 서울 삼성동 코엑스에서 개최한 'AWS 서밋 서울 2024' 기조연설에서 이같이 밝혔다. 17일까지 이틀 동안 열리는 AWS서밋서울 2024는 2만9천여 명이 사전 등록했다. 올해 행사는 다양한 산업 분야와 기술 주제에 대한 100여 개 이상의 강연을 준비했다. 70여 고객이 AWS를 통한 실질적인 성공 사례를 공유할 예정이다. 첫째 날 AWS 프로페셔널 서비스 및 생성형 AI 혁신센터를 총괄하는 프란체스카 바스케즈 부사장이 생성형 AI를 통한 비즈니스 혁신 방법에 대해 전달하고, 우아한형제들 송재하 CTO, SKT의 정석근 AI 사업 총괄의 기조 연설을 진행했다. 앤스로픽의 글로벌 제휴총괄 니라브 킹스랜드가 AWS와 전략적 파트너십 및 한국 고객을 위한 지속적인 협력 방안에 대해서 공유했다. 둘째 날 기조연설은 아마존 CTO 워너 보겔스, AWS AI 서비스 부사장 맷 우드의 온라인 대담이 준비됐으며, 인프랩, 카카오페이증권 등 고객사가 기술 혁신 사례에 대해 인사이트를 나눌 예정이다. 함기호 AWS코리아 대표는 국내에 형성된 강력한 생성형 AI 흐름을 강조하면서 국내 기업의 AWS 기반 AI 구축 사례를 간략히 소개했다. 아마존 세이지메이커 점프스타트를 기반으로 대규모언어모델(LLM) '바르코'를 출시한 엔씨소프트, AWS 기반의 AI 이미지-투-텍스트 캡셔닝 솔루션을 출시한 LG AI연구원 등이 먼저 소개됐다. 아마존 세이지메이커 점프스타트는 고객이 엔씨소프트의 바르코 LLM과 같은 사전 구축된 솔루션을 활용해 생성형 AI를 쉽게 시작하고, 모델을 처음부터 학습시키지 않고도 자체 데이터 세트로 맞춤화하며 특정 사용 사례에 맞는 새로운 애플리케이션을 출시할 수 있도록 지원한다. LG AI연구원의 솔루션은 광고, 패션, 리테일 등 다양한 산업 분야의 전 세계 고객을 위해 보다 정확하고 적절한 콘텐츠를 생성하는 3천억개의 파라미터를 보유한 LG AI연구원의 멀티모달 FM인 엑사원(EXAONE)을 활용한다. 엑사원의 학습 과정에서 LG AI연구원은 안전하고 조정 가능한 클라우드 컴퓨팅 용량을 제공해 파라미터 확장 필요에 따라 IT 자원을 확장할 수 있는 서비스가 필요했다. 아마존 세이지메이커와 아마존 EC2를 도입 한 LG AI연구원은 엑사원 내에 체크포인트를 구현하고 데이터 편향 문제를 빠르게 해결할 수 있었다. 업스테이지, KT, SK텔레콤 등의 생성형 AI 구축 사례도 연이어 소개됐다. 함기호 대표는 “AWS는 국내 기업의 생성형 AI 도입과 디지털 전환 가속을 지원하고 있으며, 이를 위해 앤트로픽과 전략적 파트너십을 체결해 생성형 AI 혁신을 진행하고 있다”며 “대규모 투자로 AI 기술 고도화에 박차를 가하고 있다”고 강조했다. 이어 무대에 오른 니라브 킹스랜드 앤트로픽 글로벨 제휴 총괄은 “AWS와 함께 가장 역량있고 안전한 모델을 만들고 있다”며 “모든 모델은 높은 인텔리전스 레벨을 갖춰 이미지도 처리할 수 있으며, 아마존 베드락에서 사용가능하다”고 말했다. 프란체스카 바스케즈 부사장은 기조연설에서 AWS가 주도하는 생성형 인공지능(AI) 기반 혁신의 미래를 소개했다. 바스케즈 부사장은 우선 생성형 AI가 인간 수준의 사고와 추론을 할 수 있게 됨에 따라 다양한 산업 분야에서 일어난 혁신을 설명하고, “AWS는 줄곧 고객을 대신하여 그들이 최첨단 기술을 더 쉽게 사용, 확장, 배포할 수 있도록 혁신해 왔다”고 말하며 생성형 AI에 대한 접근성을 높이고 있는 AWS의 역할을 강조했다. 다음으로 데이터, 사용 사례, 고객에게 맞춤화된 생성형 AI를 쉽게 구축하고 확장할 수 있도록 지원하는 AWS의 생성형 AI 스택을 소개했다. 생성형 AI 스택은 파운데이션 모델(FM) 훈련 및 추론을 위한 인프라, 생성형 AI 애플리케이션을 구축하고 확장하는 데 필요한 FM 및 거대 언어 모델(LLM) 등을 제공하는 플랫폼, FM 및 LLM을 활용하여 구축된 애플리케이션의 세 계층으로 구성된다. 바스케즈 부사장은 “AWS 트레이니움, AWS 인퍼런시아, 아마존 세이지메이커 등 인프라에 대한 투자가 상위 계층에서 제공하는 서비스의 역량 향상으로 이어진다”며 “비용 효율적인 고성능의 인프라를 구축하기 위한 노력의 일환으로 AWS는 엔비디아와 전략적 협력을 확대해 AWS 클라우드에서 엔비디아 H100 GPU를 제공하고 프로젝트 세이바(Ceiba)를 통해 AI 슈퍼컴퓨터를 구축하고 있다”고 강조했다. 그는 “단 하나의 모델이 모든 것을 지배할 수 없다”며 “아마존, 앤트로픽, 코히어, 메타, 미스트랄 AI, 스태빌리티AI 등 아마존 베드록에서 다양한 FM을 고객에게 제공하여 여러 모델을 사용해보고 선택할 수 있다”고 밝혔다. 이어 “어떤 모델을 선택하든 안전하고 신뢰할 수 있으며 책임감 있는 방식으로 배포할 수 있는 책임감 있는 AI를 구축하기 위한 가드레일 포 아마존 베드록도 선보였다”고 덧붙였다 그는 베드록에서 제공하는 미세 조정, 검색증강생성(RAG) 등 포괄적인 기능 세트와 보안 기능을 통해 기업의 자체 데이터를 이용하여 비즈니스 관련 애플리케이션을 안전하게 구축할 수 있다고 밝혔다. 송재하 우아한형제들 최고기술책임자(CTO)는 “배달의민족은 마이크로서비스아키텍처, 핀옵스, 데이터분석, 머신러닝, 생성형 AI 등을 활용해 문앞으로 배달되는 일상의 행복을 실현하고 고객 만족과 고객 창출을 실현해왔다”며 “2016년 AWS로 클라우드 전면 이전 프로젝트를 성공적으로 진행한 덕에 성장과 토태를 결정하는 중요한 순간을 근본적으로 돌파할 수 있었다”고 말했다. 송재하 CTO는 “배달의민족은 AWS를 통해 유연하고 확장성있는 구조를 갖춰 더 효율적이고 유연한 플랫폼으로 진화했다”며 “이후 2019년 루비란 이름의 거대한 데이터베이스에 묶여있던 모든 데이터를 이동하는 먼데이프로젝트를 진행해 API와 어드민 시스템 거의 대부분을 마이크로서비스 아키텍처로 전환했으며 이로써 시스템의 유연성과 안정성, 개발 생산성 등을 크게 향상시켰다”고 덧붙였다. 우아한형제들은 이후 2020년 온프레미스의 결제와 정산 영역도 클라우드 환경에 구현하는데 성공했다. 송 CTO는 “클라우드를 촉매로 진행된 배달의민족 구조적 혁신은 팬데믹을 맞으며 폭발적 성장을 뒷받침했다”며 “2022년 핀옵스를 통해 운영 비용을 최적화하고 주문 한건 당 AWS 비용을 전년대비 15% 줄여 엔데믹에서 재정적으로 생존하고 번창하는 토대를 마련할 수 있었다”고 강조했다. 그는 “현재 다양한 AI를 활용해 배달의민족 앱 UX를 개선하고 있으며, 리뷰필터링, 메뉴 추천, 배차 효율화 등을 이루고 있다”며 “로봇기술이 생성형 AI와 함께 이시대에 빠르게 발전하고 있어 자율주행 배달로봇 기술을 연말께 베타테스트할 수 있을 것”이라고 밝혔다. 이어 정석근 SK텔레콤 최고AI글로벌책임자가 기조연설 무대에 올라 SK텔레콤의 글로벌 AI비전에 대해 소개했다. 그는 “SK텔레콤은 글로벌 통신사와 글로벌 텔코 AI 얼라이언스(GTTA)를 설립해 AI 기술 혁신 및 산업 선도를 위한 글로벌 AI 생태계를 연결해 나갈 것이며, GTTA와 글로벌 빅테크를 이어주는 가교의 역할을 하고자 한다”며 “도이치텔레콤, 이앤(e&), 싱텔, 소프트뱅크 등과 공동 개발한 거대 언어 모델 '텔코 LLM'와 이를 향상시킬 RAG을 개발하기 위해 베이스 모델을 제공하는 앤스로픽, 파운데이션 모델을 제공 및 관리해주는 서비스를 제공하는 AWS와 협력하고 있다”고 말했다. 그는 텔코 LLM의 활용 사례를 소개하며, 효율적인 AI 개발과 운용에 있어 아마존 베드록의 역할을 특히 강조했다. SK텔레콤은 아마존 베드록을 기반 모델로 한 텔코 LLM을 통해 협력을 바탕으로 한 파트너십을 구축할 예정이다. 그는 “SK텔레콤은 또한 AI 기술로 고객 가치를 더하는 글로벌 AI 개인 비서(PAA) 서비스를 준비 중”이라며 “PAA는 고객 일상의 크고 작은 일들을 더욱 편리하게 바꿔주는 것을 목표로 하며, 이 서비스를 위해 SK 텔레콤은 미국과 국내에 PAA 전담 자회사를 설립하고, 글로벌 시장과 고객 니즈를 반영한 서비스 개발을 진행 중”이라고 강조했다. 이어 고객의 비즈니스에 맞춤화된 업무용 생성형 AI 비서인 아마존 Q를 소개하고, 특히 개발자 생산성을 크게 향상시킬 수 있는 방법을 소개했다. 아마존 Q 디벨롭퍼를 활용해 아마존 베드락 호출 코드를 손쉽게 생성하고, 기획, 디자인, 코드구현, 테스트, 배포, 운영 등에 이르는 개발 주기 전단계의 생산성을 향상시키는 방안을 제시했다. 애플리케이션의 작동 방식을 파악하고 싶은 경우, 기존 애플리케이션에서 업데이트해야 할 부분을 알고 싶은 경우, 콘솔에서 예기치 못한 오류가 발생했을 경우, 기존 데이터를 바탕으로 RAG를 구현하고 싶은 경우 등 개발자들이 마주하는 다양한 상황에서 아마존 Q와 아마존 베드록을 어떻게 이용할 수 있는지 구체적으로 보여주었다. 이를 통해 AWS를 활용하여 복잡한 생성형 AI 애플리케이션을 빠르고 효율적으로, 안전하게 구축할 수 있음을 강조했다. 끝으로 바스케즈 부사장은 2025년까지 전 세계 2,900만 명에게 무료 교육을 제공하겠다는 AWS의 약속을 재확인하고, AWS 스킬 빌더와 AWS 에듀케이트 등 AI/ML과 생성형 AI 관련 교육 프로그램과 AWS의 개발자 커뮤니티에 관해서도 설명했다.

2024.05.16 13:45김우용

[유미's 픽] 'AI 기업' 꿈꾸는 한컴, 김연수 매직 통했다…1Q 실적 '굿'

오너일가 2세인 김연수 한글과컴퓨터 대표가 글로벌 인공지능(AI) 기업으로 도약하기 위한 발판 마련에 한 걸음 더 다가선 분위기다. 클라우드 및 웹기반 제품군의 호조에 힘입어 올해 1분기 동안 호실적 달성에 성공했기 때문이다. 13일 금융감독원 전자공시시스템에 따르면 한컴은 연결 기준 올해 1분기 영업이익이 전년 동기 대비 161.9% 증가한 63억6천만원으로 잠정 집계됐다. 매출은 546억1천만원으로 1년 새 30.7% 늘었다. 매출은 시장 기대치를 웃돌았으나, 수익은 다소 아쉬움을 남겼다. 금융정보업체 에프앤가이드에 따르면 한컴의 올해 1분기 예상 매출은 500억원, 영업이익은 전년 동기 대비 74억원이었다. 연결기준 영업이익률은 11.7%로 전년 동기 대비 5.8% 성장했다. 이는 연결종속사의 사업 포트폴리오 개편과 수익 구조 개선에 집중한 결과다. 한컴의 별도기준 매출액은 338억원, 영업이익은 121억4천만원을 달성했다. 매출액, 영업이익은 각각 지난해 동기 보다 17.8%, 31.3% 늘어나며 영업이익률 35.9%를 기록했다. 이번 호실적은 클라우드 및 웹 기반 제품군의 매출 증가, 연결종속사 한컴라이프케어의 사업 포트폴리오 개편과 수익 구조 개선이 주효했다. 특히 클라우드 및 웹기반 제품군은 전년 동기 약 8%의 매출 비중에서 올해 18.9%로 증가하면서 성장에 기여했다. 한컴오피스 2024 출시 효과에 따른 온프레미스 제품 성장과 더불어 B2G(정부·공공기관), B2B(기업체) 클라우드 제품 고성장이 힘을 보탰다는 분석이다. 한컴은 2015년부터 B2C(소비자) 클라우드 사업을 시작하며 영역을 확장하고 있다. 업계에선 지난 2021년 한컴 각자대표로 선임된 김연수 대표의 AI 사업 확장에 대한 의지가 반영된 결과라고 평가했다. 앞서 김 대표는 지난해 글로벌 시장 공략을 위해 국내외 유수의 파트너사들과 연대하는 '한컴얼라이언스'의 공식 출범을 알리는 발족식에서 "향후 5년 내 글로벌 빅테크 기업으로 도약하겠다"는 포부를 밝힌 바 있다. 한컴은 이 같은 성과를 바탕으로 기존 설치형 '한컴오피스'의 안정적 성장 기조 아래 '한컴독스'나 '웹기안기' 등과 같은 클라우드와 웹기반 제품 확장에 더욱 박차를 가한다는 방침이다. 또 2분기 및 하반기 역시 클라우드 사업을 비롯해 국내와 글로벌 AI 사업 확대에도 속도를 낸다는 계획이다. AI 기반 질의응답 설루션 '한컴피디아'의 상반기 정식 출시를 비롯해 연내에 '한컴독스 AI'와 '한컴 어시스턴트' 출시가 연달아 예정돼 있다. 특히 오는 5월에는 PDF 문서에서 AI 데이터를 추출하는 '한컴 데이터 로더(Data Loader)'로 글로벌 시장에 진출한다. 이 제품은 LLM(대규모 언어 모델)의 단점인 '환각(할루시네이션) 현상'을 최소화하는 해결책으로 글로벌 AI 시장에서 주목받는 'RAG(검색 증강 생성·Retrieval-Augmented Generation)'에 문서의 AI 학습용 데이터를 제공하는 SDK(소프트웨어 개발 키트)다. 한컴 관계자는 "이달 글로벌 출시 후 최근 한컴이 투자한 스페인 AI 보안 설루션 기업 '페이스피(FacePhi)'의 네트워크와 글로벌 고객사를 연계해 사업을 본격화할 것"이라며 "유럽 지역 기업들을 가장 먼저 공략하지 않을까 싶다"고 말했다. 최근 매각 절차에 들어간 연결종속사인 한컴라이프케어도 한컴의 호실적 달성에 상당 부분 기여했다. 개인용 소방안전 장비에서 국방 부문까지 사업 포트폴리오를 개편하고 원가 구조를 정비하는 등 수익성을 개선한 덕분이다. 한컴라이프케어의 1분기 매출액은 136억원으로 전년비 58.2% 성장했다. 영업손실도 같은 기간에 비해 75.5% 감소한 8억4천만원을 기록했다. 한컴 관계자는 "산업 특성상 하반기에 매출이 집중적으로 발생하는 계절성이 있다"며 "그럼에도 이번 1분기 실적부터 크게 개선돼 올해 전반적인 실적과 수익 성장이 가능할 것으로 예상한다"고 밝혔다. 김 대표는 한컴라이프케어의 지분 매각을 통해 AI 사업 투자 확대에 본격 나설 방침이다. 2022년 한컴MDS 매각으로 마련한 1천억원가량의 자금을 국내외 AI기업 인수에 활용했던 것처럼 이번 매각 자금으로도 AI와 관련된 새로운 투자에 사용할 것으로 알려졌다. 한컴은 한컴 컨소시엄을 통해 한컴라이프케어의 지분(36.13%)을 가장 많이 보유하고 있다. 한컴 컨소시엄은 스틱인베스트먼트, 파트너원인베스트먼트와 한컴이 함께 구성한 것으로, 지난 2017년 한컴라이프케어 경영권을 인수했다. 나머지 지분은 스틱인베스트먼트가 22.58%, 파트너원인베스트먼트가 11.29%를 갖고 있다. 한컴 컨소시엄은 최근 한컴라이프케어 지분 70%를 매각키로 하고 잠재 후보 물색에 돌입했다. 매각 자문은 BDA파트너스가 맡고 있고, 지분 매각가는 1천600억원 이상을 희망하는 것으로 알려졌다. 한컴이 이번 매각을 통해 확보하는 자금은 600억원가량일 것으로 예상된다. 일각에선 이번 매각에 한컴 컨소시엄이 모두 참여하면서 '경영권 프리미엄'이 반영돼 최대 1천억원가량의 현금을 확보할 수도 있을 것으로 봤다. 이병화 신한투자증권 연구원은 "한컴라이프케어 매각 추진이 공식화됐다"며 "한컴은 비주력 연결 자회사 매각 시 클라우드 및 AI, SW 고성장세가 부각될 시기로, 한컴라이프케어 매각 시 본업 비중은 82.7%로 증가한다"고 설명했다. 업계 관계자는 "한컴라이프케어는 김 대표가 미래 성장 동력으로 삼고 있는 AI 사업과는 다소 거리가 멀다"며 "글로벌 시장에서 개인안전장비 기업의 기업가치가 상승하고 있는 추세인 만큼, 국내 기업뿐 아니라 해외 기업들도 한컴라이프케어 지분 매각에 관심을 보이고 있는 것으로 알고 있다"고 말했다. 그러면서 "인수합병(M&A) 전문가로 알려진 김연수 대표의 장기가 이번에도 십분 발휘될 것으로 보인다"며 "한컴라이크케어 매각이 완료되면 추가 실탄이 확보되는 만큼 김 대표의 AI 관련 투자·인수 행보에도 힘이 더 실릴 것으로 보인다"고 덧붙였다.

2024.05.13 11:54장유미

"하이퍼클로바X, 어떻게 활용할까"…네이버클라우드, 세미나 통해 '해법' 제시

네이버의 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'를 실제 도입한 기업의 사례를 소개하고 기업들의 생성형 AI 도입에 필요한 방안을 제시하는 자리가 마련된다. 네이버클라우드는 오는 21일 오후 '하이퍼클로바X 레퍼런스 세미나-사례와 트렌드로 보는 기업의 생성형AI 도입방안' 행사를 오프라인으로 개최한다고 13일 밝혔다. 이번 행사에선 지난해 8월 '하이퍼클로바X'를 공개한 이후 실제 다양한 산업에서 활용되고 있는 사례를 고객사가 직접 공유하는 시간을 중심으로 구성해 생성형AI의 도입을 고민하고 있는 기업들에게 실질적 도움을 줄 수 있을 것으로 기대된다. 세미나는 네이버클라우드 하정우 AI 이노베이션 센터장의 '하이퍼클로바X가 열어가는 초거대 생성 AI 시대의 비즈니스 기회'를 주제로 한 기조연설로 시작한다. 하 센터장은 생성형 AI 트렌드와 '하이퍼클로바X'가 만드는 생성형 AI 시대 비즈니스 변화 방향에 대해 소개할 예정이다. 이어 AI 대륙아주, 한국방송광고진흥공사, 폴라리스오피스, 현대IT&E 등 '하이퍼클로바X'를 도입한 기업의 관계자가 직접 연사로 나서 '하이퍼클로바X'를 선택한 이유와 서비스 개발 시 주요 포인트, 도입 과정에서 경험 등을 발표한다. 이와 함께 하이퍼클로바X 기반의 비즈니스 플랫폼인 '커넥트X', 네이버 서비스에 적용된 하이퍼클로바X사례 및 생성형 AI 도입 케이스별 상세 구축 방안도 함께 소개될 예정이다. 참가를 원하는 이들은 생성형 AI 도입을 준비하는 기업 관계자면 누구나 네이버 클라우드 플랫폼 홈페이지에서 신청할 수 있다. 네이버클라우드 관계자는 "'하이퍼클로바X'는 공식 출시 전부터 많은 기업들의 관심을 받으며 지난 1년 여간 55건의 업무협약을 체결하는 등 국내 AI 생태계 확장에 앞장서고 있다"며 "세미나에서 생성형AI 도입에 있어서의 궁금증을 해결하고, 업계 사례를 통해 각 사에 맞는 AI 전략을 세울 수 있는 기회가 되길 바란다"고 말했다.

2024.05.13 11:45장유미

몽고DB, AWS・구글클라우드와 생성형 AI 협력 확대

몽고DB는 아마존웹서비스(AWS), 구글 클라우드 등과 협력을 확대한다고 13일 밝혔다 . 몽고DB는 '날리지베이스 포 아마존 베드록'에 '몽고DB 아틀라스 벡터 서치'를 정식 통합해, 기업이 완전관리형 파운데이션 모델(FM)를 활용해 생성형 AI 애플리케이션 기능을 더 쉽게 구축할 수 있도록 지원한다. 수많은 개발자와 고객이 비즈니스 크리티컬 애플리케이션 구동을 위해 사용 중인 업계를 선도하는 개발자 데이터 플랫폼인 몽고DB에서 구글 클라우드의 제미나이 코드 어시스트를 최적화하며 애플리케이션 개발 및 현대화를 위한 향상된 개발자 경험을 제공한다. 아마존 베드록은 AWS의 완전관리형 서비스로, 단일 API를 통한 다양한 고성능 FM을 지원하고 보안, 개인정보 보호 및 책임감 있는 AI 역량을 갖춘 생성형 AI 애플리케이션 구축을 위한 광범위한 기술을 제공한다. 이번 통합으로 개발자는 자체 데이터를 활용해 복잡한 작업을 자동화하고, 엔드 유저의 요구사항에 따라 정확하고 신뢰 가능한 최신 응답을 제공하는 생성형 AI 애플리케이션을 쉽게 제작할 수 있다. 기업은 아틀라스 벡터 서치에서 처리된 데이터를 기반으로 AWS에서 빠르고 쉽게 생성형 AI 애플리케이션을 배포할 수 있으며, 더욱 정확하고 관련성 높은 응답을 제공할 수 있다. 벡터 데이터만 저장하는 애드온 솔루션과 달리, 아틀라스 벡터 서치는 고성능의 확장 가능한 벡터 데이터베이스로서 전 세계에 분산된 운영 데이터베이스와 통합돼 기업의 전체 데이터를 저장 및 처리할 수 있어 생성형 AI 애플리케이션을 효과적으로 지원한다. 아마존 베드록과의 통합으로 고객은 실시간 운영 데이터를 벡터 임베딩으로 변환해 대규모 언어 모델(LLMs)에서 사용할 수 있다. AI21랩스, 아마존, 앤트로픽, 코히어, 메타, 미스트랄 AI, 스태빌리티 AI 등의 LLM 을 자체 데이터로 맞춤화한다. 개발자는 검색 증강 생성(RAG)을 위한 아마존 베드록 에이전트로 직접 코딩하지 않더라도 사용자 쿼리와 연관된 맥락에 맞는 응답을 바탕으로 애플리케이션을 구축할 수 있다. 기업은 몽고DB 아틀라스 서치 노드를 통해 핵심 운영 데이터베이스에서 생성 AI 워크로드를 분리 및 확장하며 쿼리 시간을 최대 60% 단축하는 등 비용과 성능을 최적화할 수 있다. 이 같은 완전관리형 기능은 노보 노디스크 같은 AWS와 몽고DB의 공동 고객이 조직 전반에서 자체 데이터로 생성형 AI를 안전하게 사용하고, 운영 오버헤드와 수작업을 줄이며 비즈니스 가치 실현을 가속화하도록 돕는다. 구글 클라우드의 제미나이 코드 어시스트는 코드 제안을 생성하고, 통합개발환경(IDE)에서 기존 코드에 관한 문의에 답하며, 간단한 프롬프트 입력으로 전체 코드베이스를 업데이트할 수 있는 기능을 제공한다. 몽고DB와 구글 클라우드의 협업으로 개발자는 제미나이 코드 어시스트를 활용해 몽고DB 코드와 매뉴얼, 모범 사례에 대한 답변과 정보를 얻을 수 있을 뿐만 아니라 신기능을 빠르게 프로토타이핑하고 애플리케이션 개발을 가속화할 수 있다. 오늘날 많은 개발자는 워크플로우에 생성형 AI 기반 코딩 어시스턴트를 통합해 일상 업무를 자동화해 생산성을 높이고 중요한 업무에 집중하기 위한 방법을 모색하고 있다. 제미나이 코드 어시스트는 공개된 데이터 세트를 학습하고 코드베이스에 대한 뛰어난 가독성을 갖췄으며, 널리 사용되는 애플리케이션, 소스 코드 저장소, 코드 편집기 등과 통합돼 개발자의 요구사항을 충족할 수 있는 기능을 제공한다. 제미나이 코드 어시스트의 통합으로 개발자는 신속한 애플리케이션 구축과 현대화를 위한 몽고DB 활용법을 익히고, 몽고DB 매뉴얼에서 엄선된 콘텐츠와 코드를 확인하며, 사용사례를 비롯해 몽고DB에서 데이터 작업 시 적용할 수 있는 다양한 기능에 대한 고도화된 제안을 받을 수 있다. 이 밖에도 제미나이 코드 어시스트는 자연어 채팅, 코드 사용자화, 전체 코드베이스의 대규모 변경, AI 기반의 스마트한 작업 자동화, API 개발 간소화 등 핵심 기능과 기업이 라이선스 요건을 준수할 수 있도록 코드 제안 시 출처를 함께 제공한다. 이처럼 양사의 지속적인 협력은 개발자가 반복적인 작업에 투입하는 시간을 대폭 줄이고 구글 클라우드용 몽고DB에서 데이터 기반 애플리케이션을 신속하게 구축할 수 있는 토대를 제공한다. 바시 필로민 AWS 생성형 AI 부문 부사장은 “오늘날 수만 개의 기업은 특정 요구사항에 맞는 생성형 AI 애플리케이션을 구축하기 위해 아마존 베드록을 사용하고 있다”며 “이제 양사의 공동 고객은 날리지베이스 포 아마존 베드록에서 정식 제공되는 몽고DB 아틀라스 벡터 서치로 RAG를 더욱 쉽고 빠르게 구현하며 데이터에서 풍부한 인사이트를 도출할 수 있다”고 강조했다. 스티븐 오반 구글 클라우드 마이그레이션, ISV 및 마켓플레이스 부문 부사장은 “제미나이 코드 어시스트는 개발자가 고품질 코드를 더 효율적으로 작성할 수 있도록 엔터프라이즈급 AI를 지원한다”며 “개발자는 제미나이 코드 어시스턴트로 확장된 몽고DB 관련 정보와 매뉴얼, 코드를 통해 애플리케이션 구축과 가치 창출에 소요되는 시간을 줄이고, 소프트웨어 개발 및 제공 프로세스 전반에서 불필요한 마찰을 줄일 수 있다”고 밝혔다.

2024.05.13 11:05김우용

어도비, AI로 개인화된 고객 여정 지원

어도비는 13일 어도비 익스피리언스 클라우드의 새로운 혁신을 발표하며, 브랜드가 효과적인 크로스채널 여정 조율을 통해 고객 참여를 강화하도록 지원하겠다고 밝혔다. 이번에 새롭게 발표된 통합 실험(unified experimentation) 역량은 브랜드가 고객 경로를 정확히 예측하도록 테스트 규모를 늘려 여러 채널에서 고객 전환율을 극대화하고, 고객 제안 콘텐츠를 여러 번 재사용할 수 있도록 돕는다. 어도비 저니 옵티마이저(Adobe Journey Optimizer)에 B2C 및 B2B 브랜드가 적절한 시기에 개인화된 경험을 통해 고객 여정을 조율할 수 있는 기능이 추가됐다. 마케터, 제품 관리자 및 개발자는 한층 강화된 통계 모델을 사용하는 통합 실험 및 목표 기반 최적화 서비스를 통해 고객 여정에 통합된 의사결정 역량을 활용하고, 소통 채널 전반에서 고객 제안 콘텐츠의 재사용을 유도하거나 전환율을 최대로 이끌어내기 위한 최적의 고객 경로를 제시할 수 있다. 브랜드는 콘텐츠 최적화, 여정 충돌 및 제안 수락 지연 등의 문제 해결을 중앙에서 관리하면서 콘텐츠, 채널, 타깃, 여정 및 머신 러닝 모델 전반에서 실험과 의사결정을 단계적으로 수행할 수 있다. 어도비 익스피리언스 플랫폼 기반의 어도비 저니 옵티마이저 B2B 에디션은 기업 고객별 구매 그룹 여정에 초점을 맞춘 엔터프라이즈 애플리케이션이다. 해당 제품은 마케팅 및 세일즈 팀 간의 협업을 통해 개인화된 B2B 구매 경험을 제공하고, 수요를 정확히 예측할 수 있도록 지원한다. 또한 익스피리언스 플랫폼의 통합 데이터와 생성형 AI를 활용해 여정을 개인화하고 어도비 마케토 인게이지의 리드 마케팅 워크플로우를 보완하며 포괄적인 B2B 서비스도 제공한다. 이 밖에도 브랜드는 저니 옵티마이저의 강화된 '브랜드 주도 여정 조율' 기능으로 타깃 중심 캠페인을 실시간 고객 반응과 연결해 정확한 타깃의 참여를 유도할 수 있고, 모바일 및 웹 채널 지원 강화로 푸시, 인앱, 코드 기반 경험, 메시지 피드 등을 포괄적으로 이용 가능하다. 아미트 아후자 어도비 디지털 경험 사업 부문 수석 부사장은 “어도비 익스피리언스 클라우드는 고객과 소통하는 데 어려움을 겪고 있는 B2C 및 B2B 브랜드의 요구를 충족시킬 수 있는 솔루션을 제공한다”며 “브랜드는 어도비 익스피리언스 플랫폼을 통해 서로 다른 데이터를 통합하고 고객에 대한 포괄적인 시각을 확보해, 각 고객에게 진정한 일대일 개인화를 제공하고 타깃 기업 고객 내 특정 구매 그룹의 참여를 유도할 수 있다”고 밝혔다.

2024.05.13 10:51김우용

[종합] "1분기도 날았다"…네이버·KT, 클라우드 실적 '好好'

네이버·KT 등 토종 클라우드 기업들이 올해 1분기에도 두 자릿수 매출 성장을 달성했다. 생성형 인공지능(AI) 확산과 공공 클라우드 전환이 비즈니스 수요를 끌어올린 덕분으로, 지난해에 이어 올해도 호실적 달성에 '청신호'가 켜진 분위기다. 10일 국내 주요 클라우드서비스기업(CSP)들이 최근 발표한 올해 1분기 실적을 분석한 결과, 네이버클라우드·KT클라우드는 국내 클라우드 시장 고성장에 힘입어 이 기간 매출이 전년 동기 대비 두 자릿수 성장했다. 네이버의 지난 1분기 클라우드 부문 매출은 1천170억원으로 전년 대비 25.5% 늘었다. '하이퍼클로바X' 등 생성형 AI 솔루션 매출 실현이 본격화된 효과다. 네이버클라우드의 이 같은 호실적은 핵심 사업인 네이버클라우드플랫폼(NCP)뿐 아니라 네이버클로바, 네이버랩스 등에서 고르게 좋은 성과를 거뒀기 때문이다. 네이버클라우드에서 NCP 사업은 전체 매출에서 92.8%의 비중을 차지한다. 네이버클라우드는 지난해에도 매 분기마다 꾸준히 성장세를 보였다. 지난해 매출은 1분기 932억원, 2분기 1천45억원, 3분기 1천236억원, 4분기 1천259억원으로, 연간 매출은 전년보다 11% 증가한 4천472억원을 기록했다. 최수연 네이버 대표는 1분기 실적 컨퍼런스 콜에서 "지난해 11월부터 시작된 '하이퍼클로바X'가 탑재된 뉴로클라우드 납품이 차질 없이 진행 중"이라며 "보안을 중요하게 여기고 내부 생성형 AI 서비스를 구축하고자 하는 다양한 분야의 고객들을 대상으로 사업을 확장하기 위해 노력 중"이라고 설명했다. 그러면서 "기업들이 '하이퍼클로바X'로 특화 모델이나 AI 서비스를 구축하는 사례는 빠르게 증가하고 있다"며 "현재 2천여 곳의 기업과 연구기관 등에서 클로바 스튜디오를 활용해 '하이퍼클로바X'를 기반으로 한 혁신 서비스를 구축하기 위해 협력하고 있다"고 덧붙였다. KT클라우드도 인터넷데이터센터(IDC) 코로케이션 수요 증가와 함께 DBO(Design Build Operation·다른 회사나 기관의 IDC 설계와 구축, 운영 지원) 사업이 확대된 영향으로 올해 1분기 매출이 전년 동기 대비 17.8% 증가한 1천752억원을 기록했다. 전 분기보다 3.8% 줄었으나, 전년 동기 대비로는 2022년 4월 KT로부터 분사한 후 꾸준히 매출이 상승세를 보이고 있다. KT클라우드의 지난해 매출은 6천783억원으로, 전년보다 무려 57% 급증했다. 분사 시점을 고려해 지난해 2~4분기 매출을 전년 동기와 비교해봐도 증가율은 22.6%에 이른다. 장민 KT CFO는 1분기 실적발표 컨퍼런스콜에서 "AWS, MS, 구글이 본격적으로 코로케이션 서비스를 사용해주기 시작했다"며 "올해 목표는 매출과 이익이 모두 성장하는 것으로, 매출은 26%, 이익은 51% 성장을 목표로 하고 있다"고 설명했다. KT클라우드는 이 같은 호실적에 자신감을 얻어 AI 인프라 수요 증가에 대비해 IDC 사업을 지속 확장하고 클라우드 네이티브 본격화에 따라 서비스 모델을 확대하겠다는 사업 전략도 최근 공개했다. 최지웅 KT클라우드 대표는 지난 2일 열린 'KT 클라우드 서밋 2024'에서 "CSP 관점에서 시장에서 통하는 기술과 서비스를 선보여 엔지니어, 파트너들과 동반 성장하는 생태계를 만들겠다"며 "DX(디지털전환)를 넘어 AX 변화에 맞춰 '클라우드 퍼스트' 전략을 펼칠 것"이라고 강조했다. 이어 "KT클라우드는 B2B2C(기업간·소비자간거래) 모델로 가야 한다고 본다. 이를 위해선 파트너 생태계를 키워야 한다"며 "글로벌 기술단들과 협업해 자체 기술력을 강화하는 게 목표"라고 덧붙였다. 반면 NHN클라우드는 지난해 1분기에 비해 매출이 소폭 줄어 경쟁사들에 비해 다소 주춤한 듯한 모습을 보였다. 실제 국내 클라우드 사업과 일본 내 클라우드 관리서비스(MSP) 사업이 포함된 NHN의 기술 부문 매출은 올해 1분기 동안 951억원에 그쳤다. 전년 동기 대비 5.0% 감소한 수치다. 이는 지난해 하반기 매각한 다이퀘스트와 클라우드넷사의 매출이 제외된 영향이 컸다. 이를 제외하면 사실상 기술 부문 매출은 전년 동기 대비 6.2% 상승한 것으로 분석됐다. 전 분기 대비 매출도 20.6% 증가했다. 올해 1분기부터 '광주 국가 AI 데이터센터'에서 발생하는 매출을 본격적으로 인식하기 시작한 덕분이다. 지난해 4분기 실적 발표에서 매출 하락 요인으로 인식했던 매출을 차감한 것에 대한 기저효과도 영향을 줬다. 앞서 NHN클라우드는 회사가 수주했던 공공 클라우드 사업이 일시적으로 지연되면서 기존에 매출로 인식한 약 130억원을 지난해 4분기 매출에서 차감시킨 바 있다. NHN클라우드는 올해 공공기관의 클라우드 전환 사업에 큰 기대를 걸고 있다. 특히 지난 4월 정부 주관 '클라우드 네이티브 컨설팅 사업'에서 3차 권역 사업의 우선협상대상자로 선정된 만큼 올해 더 좋은 성과를 낼 것으로 예상했다. NHN클라우드 관계자는 "하반기 전환 사업에서 다수의 공공기관을 수주할 수 있도록 공공사업에 집중할 예정"이라며 "금융 시장을 비롯한 민간 쪽에서도 성과를 낼 수 있도록 노력할 것"이라고 밝혔다. NHN은 이 같은 추진 전략과 광주 국가 AI 데이터센터 매출, 클라우드 네이티브 컨설팅 사업 등을 통해 올해 클라우드 매출을 전년 대비 20% 성장시킬 수 있을 것으로 내다봤다. 안현식 NHN CFO(최고재무책임자)는 "공공 클라우드 전환 사업 부문에서는 작년보다는 좋은 성과가 날 것으로 본다"면서도 "다만 문제가 되는 점은 아직 공공사업에 대한 정부 예산이 100% 확정되지 않았다는 부분"이라고 설명했다. 그러면서 "금융 분야에서 성과를 내고 있지만 전체적으로 (금융) 시장의 성장이 더딘 부분이 있다"며 "앞으로 성과를 키울 수 있도록 노력하겠다"고 덧붙였다. 업계에선 국내 CSP 3사가 올해도 고성장을 지속할 것으로 예상했다. 전 세계적으로 생성형 AI가 확산되면서 덩달아 클라우드 인프라 수요도 커졌기 때문이다. 더불어 공공부문의 클라우드 네이티브 전환 정책도 올해 국내 CSP들 실적을 뒷받침해줄 것이란 전망도 나온다. 특히 정부가 클라우드보안인증(CSAP) 등급제 전면시행 움직임을 보이면서 공공의 민간 클라우드 도입도 활성화될 것으로 관측된다. 업계 관계자는 "기업 입장에선 CSAP 등급제 전면 시행을 기점으로 그간 공략이 어려웠던 국가행정시스템에 대한 클라우드 전환 사업 수요를 선점해야 할 것"이라며 "상대적으로 보안 요구가 낮은 CSAP '하' 등급 시장을 노리는 외산 CSP들을 견제하는 것도 과제"라고 지적했다.

2024.05.10 16:48장유미

레드햇, RHEL용 이미지 모드 출시

레드햇은 플랫폼을 컨테이너 이미지로 제공하는 레드햇 엔터프라이즈 리눅스(RHEL)의 새로운 배포 방식 'RHEL용 이미지 모드'를 출시한다고 10일 밝혔다. 이미지 모드는 운영체제의 구축, 배포 및 관리를 컨테이너 네이티브 방식으로 접근해 애플리케이션부터 기본 운영체제까지 전체 IT 환경을 동일한 도구와 기술로 관리할 수 있는 단일 워크플로우를 제공한다. RHEL 기반의 표준 운영 환경(SOE) 또는 '골드 이미지'는 많은 조직에서 각 기업이 보유한 기술 전략의 토대를 형성한다. 이러한 이미지는 데이터센터에서 퍼블릭 클라우드, 그리고 엣지에 이르는 하이브리드 클라우드를 지원하지만, 고유한 비즈니스와 환경에 걸맞도록 커스터마이즈 해야 하는 경우가 많다. 2027년까지 기업 워크로드의 50%가 중앙집중식 퍼블릭 클라우드의 외부에 위치할 것이라는 가트너의 전망과 같이, 하이브리드 클라우드 컴퓨팅의 까다로운 요구조건을 효과적으로 해결하는 것이 더욱 중요해지고 있다. 더 빠른 속도와 유연성이 요구되는 AI 워크로드가 증가하는 만큼 운영체제는 더 향상된 적응성, 확장 가능성, 그리고 반응성을 갖고 이에 응답해야 한다. 레드햇은 최신 애플리케이션 개발 관행과 컨테이너 지원을 운영체제의 핵심으로 가져와 이에 대응하고 있다. RHEL용 이미지 모드는 부트씨(bootc)와 같은 오픈소스 프로젝트의 성공을 기반으로 컨테이너 네이티브 워크플로우에 완벽하게 들어맞는 배포 모델을 구축한다. 이미지 모드를 사용하면 운영체제에서 컨테이너화된 애플리케이션과 동일한 도구, 기술 및 패턴을 사용할 수 있으므로 운영 및 인프라팀은 개발자와 동일한 언어로 소통할 수 있게 된다. 이미지 모드는 이미 컨테이너의 핵심 요소로 자리잡은 리눅스의 역할을 한 단계 더 발전시킨다. 이미지 모드에서는 깃옵스 및 CI/CD 같은 컨테이너 기반 도구와 개념을 통해 전체 운영체제를 관리할 수 있다. 이처럼 간소화된 접근 방식은 서로 다른 위치에 패치를 푸시하는 것이나 운영 팀과 애플리케이션 개발 주기 간의 단절 등 리눅스를 대규모로 관리할 때 발생하는 문제를 해결하는 데 도움이 된다. 모든 RHEL 사용자는 하이브리드 클라우드를 아우르는 모든 환경에서 간소화 및 휴대성 향상이라는 이점을 누릴 수 있다. 데브옵스 팀은 그들의 깃옵스 및 CI/CD 워크플로우에 레드햇 엔터프라이즈 리눅스를 더욱 쉽게 연결하여 플랫폼과 애플리케이션 사이에 존재하는 마찰을 완화할 수 있다. 보안팀은 스캔 및 유효성 검사부터 암호화 및 증명에 이르기까지 컨테이너 보안 도구를 운영체제의 기본 요소에 적용하여 업무의 복잡성을 줄일 수 있다. 솔루션 제공업체는 레드햇 엔터프라이즈 리눅스 기반 애플리케이션을 더 쉽게 구축, 테스트 및 배포할 수 있다. 대부분의 조직은 AI 워크로드, 또는 최소한 일정 수준의 AI 기능이 포함된 애플리케이션을 중심으로 구성된 미래를 계획하고 있다. 레드햇 엔터프라이즈 리눅스용 이미지 모드는 유연성 및 포드맨 AI랩과 긴밀한 통합을 통해 AI 애플리케이션 구축, 테스트 및 배포에 신속하게 대응할 수 있도록 지원한다. 개발자는 AI랩의 레시피 카탈로그와 간단한 AI 플레이그라운드 환경으로 크게 간소화된 프로세스를 통해, 노트북에서도 포드맨 AI랩을 사용해 지능형 애플리케이션을 구축할 수 있다. 다음으로 포드맨 데스크톱의 익스텐션인 부트씨(bootc)를사용해 컨테이너, 부팅 가능한 이미지, 또는 베어메탈 설치 도구로 쉽게 변환할 수 있으며, 이 모든 과정은 레드햇 엔터프라이즈 리눅스의 검증되고, 신뢰할 수 있으며, 일관된 기반 위에서 실행된다. 이에 더하여 레드햇 인사이트는 이미지 모드의 불변성을 지원하는 추가 관리 기능을 제공한다. 운영팀은 이제 인프라 전반에서 운영체제 이미지의 배포를 확인할 수 있으며, 관리자는 레드햇 인사이트에서 이미지 모드 시스템을 직접 업데이트할 수 있다. 향후에는 이미지 유지 관리자가 이미지를 더욱 강화할 수 있게 될 것이다. RHEL용 이미지 모드는 이제 레드햇 엔터프라이즈 9.4를 통해 프리뷰 버전으로 제공된다. 레드햇 고객은 고객 포털을 통해 새로운 배포 모델에 엑세스할 수 있으며, 사용자 누구나 레드햇 개발자 무료 서브스크립션을 통해 이에 엑세스할 수 있다. 군나르 헬렉슨 레드햇 엔터프라이즈 리눅스 및 레드햇 부사장은 “AI로 정의되는 조직의 시대에는 지능형 애플리케이션과 워크로드의 직접적인 영향을 받는 기술뿐 아니라 기업 전반에 걸쳐 있는 모든 기술을 재평가해야 한다”며 “레드햇은 업계 선도적인 엔터프라이즈 리눅스 플랫폼을 컨테이너 형식으로 제공함으로써, CIO들이 레드햇 엔터프라이즈 리눅스에 기대해 온 일관성과 신뢰를 바탕으로 AI 시대의 속도, 효율성 및 혁신에 부응하는 운영체제를 제공해 나갈 것”이라고 강조했다.

2024.05.10 10:35김우용

中 알리바바 "초거대 AI 지식 문답 GPT-4 넘었다"

중국 알리바바가 초거대 인공지능(AI) 모델 성능이 미국 오픈AI의 GPT-4를 넘어선다고 자신했다. 9일 중국 언론 디이차이징에 따르면 알리바바클라우드가 초거대 모델 '쳰이퉁원 2.5'를 발표하고 여러 항목의 성능이 GPT-4를 넘어섰다고 밝혔다. 알리바바클라우드에 따르면 퉁이쳰원 2.1 버전과 비교했을 때, 2.5 버전은 이해 성능, 논리적 추론, 지시 이행 및 코딩 성능이 각각 9%, 16%, 19%, 10% 증가했다. GPT-4와 비교했을 때, 중국어 환경에서 퉁이쳰원 2.5 버전의 텍스트 이해, 텍스트 생성, 지식 문답 및 생활 제안, 채팅과 대화, 보안 리스크 등 기능은 GPT-4를 넘어섰다고 설명했다. 퉁이쳰원 2.5 출시와 함께 알리바바클라우드는 평가 사이트 오픈콤파스에서 GPT-4 터보와 동일한 점수를 얻었다고도 전했다. 이는 중국 초거대 모델이 해당 평가사이트에서 이 결과를 달성한 최초의 사례라고 강조했다. 오픈콤파스는 중국 상하이 인공지능실험실에서 내놓은 오픈소스 평가 플랫폼으로 주제, 언어, 지식, 이해, 추론 등 5가지 주요 평가 영역을 다룬다. 알리바바클라우드에 따르면 현재 자사 퉁이 초거대 모델은 이미 9만 개 이상 기업에서 서비스되고 있다. 자사 채팅 서비스 딩톡을 통해 220만 개 이상 기업에서 오픈소스 모델의 누적 다운로드 수도 700만 건을 넘어섰다. PC, 휴대폰뿐 아니라 자동차, 항공, 천문학, 광업, 교육, 의료, 요식업, 게임 등 분야에 적용되고 있다. 알리바바클라우드는 이날 1천100억 개의 매개변수를 갖춘 최신 오픈소스 초거대 모델 '큐원(Qwen)1.5-110B'도 출시하고, MMLU, TheoremQA, GPQA 등 테스트에서 메타의 라마-3-70B 모델을 능가했다고도 밝혔다. 허깅페이스가 출시한 오픈소스 대형 모델 순위 목록 오픈LLM리더보드에서도 1위를 차지했다고 소개됐다.

2024.05.10 08:58유효정

kt 클라우드, AI디지털교과서 특화 학습 플랫폼 개발 박차

kt 클라우드(대표 최지웅)가 AI 디지털교과서에 필요한 AI학습 플랫폼 구축에 박차를 가한다. kt 클라우드는 대구교육대학교, 스마트앤와이즈, 리벨리온과 '클라우드 기반 교육 특화 AI서비스 개발 및 활성화를 위한 양해각서(MOU)'를 체결했다고 9일 밝혔다. 8일 대구교육대학교에서 진행된 협약식에는 최지웅 kt 클라우드 대표이사, 대구교육대학교 배상식 총장, 스마트앤와이즈 이민주 연구소장, 박성현 리벨리온 대표이사가 참석했다. 교육부는 2025년 전국 초·중·고 대상 AI 디지털교과서를 전면 도입하며 학생 별 맞춤형 교육을 제공할 것이라고 발표한 바 있다. AI 디지털교과서에 필요한 AI학습 플랫폼 구축을 위해 kt 클라우드를 비롯한 유관 기업들은 교육용 LLM, 클라우드 인프라, 교육용 NPU 등 개발에 박차를 가하고 있다. 협약에서는 협약사들이 AI튜터·AI보조교사와 같은 AI학습 모델과 교육용 LLM 개발을 위해 협업하고, 교육기관을 대상으로 교육현장에 AI학습플랫폼 공급 및 확대를 위해 노력한다. kt 클라우드는 AI학습 모델과 교육용 LLM 개발을 위한 AI, 클라우드 인프라를 지원한다. 또한 AI학습플랫폼의 시범검증 및 운영을 위해 필요한 클라우드 인프라를 구축, 안정적인 서비스 구동 환경을 제공한다. 대구교육대학교는 AI학습 모델 개발, 실증 및 시범 사업을 추진하고 교육청 등 교육기관과 연계한 AI보조교사 확산을 이끈다. 스마트앤와이즈는 AI학습 모델과 AI학습플랫폼을 개발하고, 다양한 에듀테크 기업과 기술 연계를 위한 API를 개발한다. 리벨리온은 교육 특화 LLM 개발을 위해 필요한 추론용 NPU를 개발하고, 교육분야 활용 가능한 NPU의 양산과 제품화를 지원한다. 대구교육대학교 배상식 총장은 “AI와 교사가 협업하여 학생의 학습에 도움을 제공하는 교육모델 연구와 환경구축에 실질적인 지원과 투자를 아끼지 않을 것“이라고 밝혔다. 스마트앤와이즈 이민주 연구소장은 “학습 상담과 인지 상호작용 데이터를 기반으로 개발된 교육 특화 LLM은 챗GPT와 같은 범용AI의 한계점을 보완하여 교육현장에서 AI와 조화된 맞춤형 교육을 직접 체감할 수 있게 할 것”이라고 말했다. 박성현 리벨리온 대표는 “LLM을 기반으로 한 맞춤형 교육 플랫폼을 교수 현장에 제대로 적용하기 위해선 이에 최적화된 인공지능용 인프라 구축이 필수적”이라며, “리벨리온의 NPU는 안정성과 보안성을 검증받았을 뿐 아니라, 생성형AI를 가장 효과적이고 효율적으로 구동할 수 있는 교육 특화형 인프라로 그 역할을 수행할 것이다“고 밝혔다. cloud kt 최지웅 대표는 “AI학습 모델과 AI학습플랫폼에 대한 정부와 기업의 관심도가 높아지고 있다”며 “kt 클라우드는 그간 축적해온 AI와 클라우드 인프라 적용 경험을 기반으로 AI학습 모델, 교육용 LLM과 AI학습플랫폼 개발 및 활용에 앞장서겠다”고 밝혔다.

2024.05.09 16:08남혁우

레드햇, 생성형 AI 기능 클라우드 제품 전반으로 확장

레드햇은 생성형AI 기술인 레드햇 라이트스피드를 자사 플랫폼 전반으로 확장하고 엔터프라이즈급 AI를 레드햇 하이브리드 클라우드 포트폴리오 전반에 적용한다고 9일 발표했다. '레드햇 오픈시프트 라이트스피드'와 '레드햇 엔터프라이즈 리눅스 라이트스피드'는 지능형 자연어 처리 기능을 제공해 초보자는 더욱 쉽게, 숙련된 전문가들은 더욱 효율적으로 레드햇의 엔터프라이즈급 리눅스 및 클라우드 네이티브 애플리케이션 플랫폼을 사용할 수 있도록 지원한다. 레드햇은 생성형 AI의 통합을 통해 플랫폼 사용 간의 생산성과 효율성을 향상을 지원할 계획이다. 레드햇 라이트스피드는 '레드햇 앤서블 자동화 플랫폼'에 처음 도입되었으며, 업계 전반의 기술 격차와 하이브리드 클라우드 도입 증가에 따른 복잡성을 해소하여 사용자에게 보다 높은 정확성과 효율성을 제공하고 IT팀이 더욱 큰 혁신을 추진할 수 있도록 지원한다. 레드햇의 핵심 플랫폼에 레드햇 라이트스피드가 적용되면 사용자는 미션 크리티컬 환경에서의 오픈소스 기술 사용에 관한 레드햇의 방대한 지식을 상황에 맞게 적용할 수 있게 돼 레드햇 구독의 가치를 더욱 높인다. 쿠버네티스 기반의 하이브리드 클라우드 애플리케이션 플랫폼 '레드햇 오픈시프트'는 다양한 역할과 기술 역량을 보유한 여러 부서와 팀에서 널리 사용되고 있다. 라이트스피드는 이들 부서와 팀이 기존 및 클라우드 네이티브 애플리케이션을 오픈시프트 클러스터에 배포하는 데 생성형 AI를 적용하여, 오픈시프트의 라이프사이클 관리를 간소화하고 필요에 따라 리소스를 확장할 수 있도록 지원한다. 이를 통해 오픈시프트 초보자들은 애플리케이션 플랫폼 실행에 필요한 기술을 더 빠르게 습득할 수 있으며, 전문가들은 오픈시프트 라이트스피드을 사용해 전문성을 더욱 제고할 수 있다. 오픈시프트 라이트스피드가 지원하는 많은 시나리오 중 하나는 클러스터가 최대 용량에 도달했을 때 사용자가 취할 수 있는 조치로, 사용자에게 오토스케일링 사용을 제안하고 클러스터가 퍼블릭 클라우드에서 호스팅되는지 평가한 후 적절한 크기의 새 인스턴스를 제안한다. 이후 사용 패턴을 추가로 평가해 용량 요구 사항이 감소하면 오토스케일링 사용해 자동 축소하도록 제안할 수 있으며, 깃옵스로 이 구성을 저장해 클러스터 전체에서 사용할 수 있게 하는 등의 추가 권장 사항도 제안할 수 있다. 레드햇 엔터프라이즈 리눅스 라이트스피드는 기술 조직이 리눅스 환경을 배포, 관리, 유지하는 방법을 간소화할 수 있도록 지원한다. 시스템 규모와 복잡성이 IT 베테랑에게도 어려운 과제가 되는 가운데, 레드햇 엔터프라이즈 리눅스 라이트스피드는 초보 관리자부터 숙련된 운영 팀까지 모두가 엔터프라이즈 리눅스 플랫폼을 통해 더 많은 작업을 더 빠르게 수행할 수 있도록 지원한다. 이는 레드햇이 수십 년간 쌓아온 엔터프라이즈 리눅스 전문성을 기반으로 생성형 AI를 사용해 고객이 일반적인 질문에 더 빠르게 답하고 새로운 문제를 해결할 수 있도록 지원한다. 예를 들어 새로운 CVE 발표가 발생하면, 레드햇 엔터프라이즈 라이트스피드는 수정 사항이 포함된 레드햇 보안 권고(RHSA)가 나오면 관리자에게 알린 후, 시스템이나 머신의 가동 상태와 관련성 등을 분석해 어디에 업데이트를 적용할 수 있을지 알려줄 수 있다. 레드햇 엔터프라이즈 리눅스 라이트스피드는 전문 지식이 부족한 사용자도 간단한 명령을 통해 다음 유지 관리 기간에 패치 배포를 예약할 수 있도록 도와준다. 레드햇 앤서블 라이트스피드는 작년 출시 이래 전반적인 사용자 경험을 강화하는 동시에 코드 추천의 관련성을 높이기 위해 더욱 정교하게 개선됐다. 앤서블 라이트스피드 사용자는 IBM 왓슨x 코드 어시스턴트를 통해 기존의 앤서블 콘텐츠를 모델 훈련에 사용할 수 있다. 고객은 조직의 특정 요구 사항과 자동화 패턴에 맞게 맞춤형 코드 추천을 통해 앤서블 콘텐츠의 품질과 정확도를 향상시킬 수 있다. 레드햇 계정 관리자는 앤서블 라이트스피드 사용에 관한 텔레메트리 데이터를 확인할 수 있다. 이 데이터에는 생성형 AI 요청을 모니터링하는 메트릭 및 최종 사용자의 서비스 사용 방식에 대한 인사이트가 포함된다. 레드햇은 레드햇 라이트스피드 포트폴리오에 더해, 앞으로 콘베이어(Konveyor)와 같은 프로젝트에도 생성형 AI를 도입하는 등 오픈소스 커뮤니티의 혁신을 위한 노력을 지속하고 있다. 오픈시프트 라이트스피드는 올해 말 출시될 예정이다. 레드햇 엔터프라이즈 리눅스 라이트스피드는 기획 단계에 있으며, 빠른 시일 내 자세한 정보가 제공될 예정이다. 앤서블 라이트스피드의 새로운 기능은 현재 사용 가능하다.. 아셰시 바다니 레드햇 최고제품책임자 겸 수석 부사장은 “하이브리드 클라우드 전반에 걸친 엔터프라이즈 AI에 대한 레드햇의 노력은 AI 워크로드의 구축, 실행, 배포를 위한 플랫폼 제공 뿐만 아니라 기본 플랫폼에 내재된 기능 제공까지 아우른다”며 “레드햇 라이트스피드는 AI를 즉시 활용할 수 있게 함으로써 기존의 전문성을 확장하는 동시에 새로운 기술을 신속하게 습득할 수 있도록 지원한다”고 밝혔다. 그는 “레드햇 라이트스피드는 가장 큰 혁신을 보다 빠르게 제공할 수 있는 사용자인 IT 조직에 프로덕션 지원 AI를 제공한다”고 강조했다.

2024.05.09 14:54김우용

델, '레드햇 오픈시프트 AI용 델 에이펙스 클라우드 플랫폼' 출시

델테크놀로지스는 레드햇과 협력해 AI 인프라 구축을 간소화하는 턴키 솔루션 '레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼'을 출시한다고 9일 밝혔다. '레드햇 오픈시프트를 위한 델 에이펙스 클라우드 플랫폼'은 레드햇 오픈시프트를 위해 설계된 완전 통합형 애플리케이션 딜리버리 플랫폼이다. 기업이나 공공기관들이 온프레미스에서 가상 머신과 함께, 컨테이너를 구축하고 관리, 운영할 수 있도록 돕는다. 델은 '레드햇 오픈시프트 컨테이너 플랫폼'에 대한 컨트롤 플레인 호스팅 지원을 에이펙스에 추가했다. 관리 비용을 줄이고, 클러스터 구축 시간을 단축하며, 워크로드 관리 부담을 줄여 애플리케이션에 온전히 집중할 수 있도록 돕기 위해서다. 레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼은 기업과 기관에서 더 많은 GPU를 활용해 AI 결과물의 범위를 넓힐 수 있도록 설계됐다. 고유한 요구사항에 부합하는 맞춤형 인프라를 구성할 수 있는 유연성을 제공하며, 특히 가장 까다로운 AI 애플리케이션에도 적합한 엔비디아 L40S GPU를 탑재했다. 규모에 관계없이 설계에 따라 다양한 스토리지 요구 사항에도 대응할 수 있도록 델 파워플렉스와 델 오브젝트스케일 스토리지를 모두 지원한다. 오브젝트 스토리지는 확장 가능하고 비용 효율적인 데이터 관리를 지원해 대규모 언어 모델과 대규모 데이터 세트를 수용하는 데 이상적이다. 델은 에이펙스 클라우드 플랫폼에서 제공할 수 있는 레드햇 오픈시프트 AI의 잠재력을 실현하기 위해 검증 설계의 디지털 어시스턴트를 업데이트 함으로써 대규모 언어 모델(LLM)과 검색 증강 생성(RAG) 프레임워크를 70억개의 매개변수 모델을 130억개로 늘렸다. 기업 및 각 기관에서는 LLM만으로 조직에 대한 도메인별 최신 정보를 확보하기 어려우므로, RAG를 사용해 자체 보유한 데이터로 LLM을 보강해 최신 정보를 빠르게 학습시킬 수 있다. 델은 다양한 오픈소스 오퍼레이터를 활용하여 손쉽게 복제하고 각각의 비즈니스의 요구 사항에 맞게 디자인을 조정할 수 있도록 지원한다. 레드햇 오픈시프트 AI는 특정 퍼블릭 클라우드 전용 툴에 종속되거나, 인프라에 대한 걱정 없이 모델을 구축할 수 있는 협업 기반 오픈소스 도구 세트와 플랫폼을 제공하여 규범적인 AI/ML 제품들에 대한 대안을 제공한다. 델은 또한 AI를 사용해 자동화된 음성 인식(ASR) 및 텍스트 음성 변환(TTS) 기능을 구현하는 솔루션을 선보인다. 혁신적인 설계의 이 오퍼링은 GPU 가속 음성 AI 애플리케이션을 구축하는 마이크로서비스인 '엔비디아 리바'를 통해 델 에이펙스 클라우드 플랫폼에서 레드햇 오픈시프트 AI의 성능을 확장한다. 이를 통해 자체 자연어 처리(NLP) 솔루션의 배포를 간소화할 수 있다. 델은 서비스 사업부를 통해 레드햇 오픈시프트 AI 플랫폼의 가치 실현 시간을 단축할 수 있도록 돕는다. 델의 검증된 방법론을 기반으로 하는 프로컨설트 자문 서비스에서부터 구현 서비스에 이르기까지 다양한 고부가가치 AI 활용 사례에 요구되는 성공 전략을 제공한다. RAG 기술을 활용해 고객의 데이터에 맞게 모델을 맞춤화하고 이를 AI 아바타, 챗봇 또는 기타 애플리케이션에 원활하게 통합해 더 관련성 높고 영향력 있는 결과를 도출할 수 있다. 데이터 준비 및 LLM 훈련을 최소화하고, 조직에 요구되는 필수 기술과 모범 사례를 제공함으로써, 현재와 미래의 ROI를 극대화할 수 있도록 돕는다. 김경진 한국델테크놀로지스 총괄 사장은 “AI 속도 경쟁의 승패를 좌우하는 것은 복잡성을 어떻게 극복하는지에 따라 달려있다”며 “델은 레드햇과의 긴밀한 협력으로 고객이 간소하고 검증된 방법으로 온프레미스에서 이상적인 AI 인프라를 마련해 가치 창출 시간을 앞당길 수 있도록 노력하고 있다”고 밝혔다.

2024.05.09 14:49김우용

사피온, AI칩 성능 강화 나서...전문 데이터 업체와 협력

글로벌 AI 반도체 기업 사피온(SAPEON)이 첨단 전자제품 대상 딥 데이터 분석 서비스를 제공하는 기업인 프로티엔텍스(proteanTecs)와 협력한다고 9일 밝혔다. 이번 협력은 사피온의 차세대 AI 반도체에 프로티엔텍스의 수명주기(Lifecycle) 모니터링 솔루션을 적용하는 것이 핵심이다. 프로티엔텍스의 수명주기 모니터링 솔루션은 프로티엔텍스ML(proteanTecs ML) 기반 애플리케이션이다. 원격으로 측정된 상태와 성능에 기반해 신뢰성 높은 칩 내부의 심층적인 데이터를 제공하게 된다. 사피온은 이를 기반으로 차세대 반도체의 전력 효율 최적화와 출시 기간 단축, 품질에 대한 신뢰성 확보 등이 가능할 전망이다. 류수정 사피온 대표는 "사피온은 전력 비용 효율성을 갖춘 최첨단 AI 기술을 제공하기 위해 최선을 다하고 있다"며 "프로티엔텍스와의 협력을 통해 사피온은 프로세서의 성능을 높이고 전력 효율을 최적화하는 동시에 광범위한 신뢰성을 보장할 수 있게 됐다"고 밝혔다. 류 대표는 이어 "사피온의 첨단 프로세서는 데이터센터와 클라우드에서 대규모 AI 작업을 안정적으로 지원하기 때문에 고객들에게 현장 시스템 모니터링의 이점을 제공할 것"이라고 밝혔다. 산제이 랄 프로티엔텍스 글로벌 영업 담당 부사장은 "사피온은 시장의 기대를 뛰어넘어 추론 성능의 새로운 기준을 제시하는 AI 솔루션을 개발 및 공급하는 개척자"라며 "프로티엔텍스의 솔루션은 사피온의 AI 반도체와 함께 사용될 경우 비교할 수 없는 성능과 안정성, 전력 효율성을 제공할 것이며 데이터 기반 통찰력을 확보할 수 있도록 도울 것"이라고 말했다.

2024.05.09 09:53장경윤

'레드햇 오픈시프트 AI' 업데이트, 엣지로 AI 모델 배포 지원

레드햇은 개방형 하이브리드 인공지능(AI) 및 머신러닝(ML) 플랫폼인 '레드햇 오픈시프트 AI'의 업데이트 내용을 8일 발표했다. 레드햇 오픈시프트 AI는 기업이 하이브리드 클라우드 전반에 걸쳐 AI 지원 애플리케이션을 대규모로 생성하고 제공할 수 있도록 돕는다. 이번 업데이트는 기본 하드웨어부터 주피터나 파이토치와 같이 플랫폼 구축에 사용되는 서비스 및 도구에 이르기까지 지능형 워크로드에 대한 고객의 선택권을 보장하고자 하는 레드햇의 AI 비전을 강조한다. 레드햇의 AI 전략은 하이브리드 클라우드 전반에서 유연성을 지원하고, 고객 데이터로 사전 학습되거나 선별된 파운데이션 모델을 강화할 수 있는 기능 및 다양한 하드웨어·소프트웨어 가속기를 자유롭게 사용할 수 있는 기능을 제공한다. 새롭게 업데이트된 레드햇 오픈시프트 AI는 최신 AI·ML 혁신에 대한 액세스와 AI 중심의 광범위한 파트너 에코시스템 지원을 통해 이러한 요구 사항을 충족한다. 최신 버전인 레드햇 오픈시프트 AI 2.9는 엣지에서의 모델 서빙 기능을 제공한다. 엣지에서의 모델 서빙은 단일 노드 오픈시프트를 통해 AI 모델 배포를 원격으로 확장한다. 이는 외부와 연결이 끊겼거나(air-gapped) 간헐적(intermittent)인 네트워크 액세스 등 리소스의 제약이 있는 환경에 추론 기능을 제공한다. 이 기술 프리뷰는 조직에 코어부터 클라우드, 엣지에 이르기까지 확장 가능하고 일관된 운영 환경을 제공하며, 즉시 사용 가능한 통합 가시성을 포함한다. 향상된 모델 서빙 기능은 여러 모델 서버를 사용해 예측형 및 생성형 AI를 모두 지원할 수 있게 한다. 지원되는 내용으로는 모든 유형의 모델에 대한 서빙을 오케스트레이션하는 쿠버네티스 커스텀 리소스 정의인 K서브, vLLM 및 텍스트 생성 추론 서버(TGIS), LLM용 서빙 엔진, 자연어 처리(NLP) 모델과 작업을 다루는 Caikit-nlp-tgis 런타임 등이 포함된다. 향상된 모델 서빙을 통해 사용자는 단일 플랫폼에서 여러 사용 사례를 위한 예측형 및 생성형 AI 실행이 가능해, 비용을 절감하고 운영을 간소화할 수 있다. 이는 즉시 사용할 수 있는 모델 서비스를 LLM에 제공하고 주변 사용자 워크플로우 또한 간소화한다. 더 빠르고 효율적인 데이터 처리와 모델 학습을 위해 여러 클러스터 노드를 사용하는 코드플레어와 큐브레이를 통해 레이로 워크로드를 분산한다. 레이는 AI 워크로드 가속화를 위한 프레임워크이며, 큐브레이는 쿠버네티스에서 이러한 워크로드 관리를 돕는다. 코드플레어는 레드햇 오픈시프트 AI의 분산 워크로드 기능의 핵심으로, 작업 오케스트레이션 및 모니터링 간소화에 도움이 되는 사용자 친화적인 프레임워크를 제공한다. 또한 중앙 큐잉 및 관리 기능으로 최적의 노드 활용이 가능하고 GPU와 같은 리소스를 적절한 사용자 및 워크로드에 할당할 수 있다. 프로젝트 작업 공간과 추가 워크벤치 이미지를 통해 모델 개발을 개선해, 데이터 과학자가 다양한 사용 사례와 모델 유형에 대해 현재 기술 프리뷰로 제공되는 VS Code 및 RStudio, 향상된 CUDA를 포함한 IDE와 툴킷을 유연하게 사용할 수 있도록 한다. 성능 및 운영 메트릭에 대한 모델 모니터링을 시각화하여 AI 모델의 성능에 대한 가시성을 개선한다. 관리자가 모델 개발 및 모델 제공 워크플로우에 사용 가능한 다양한 유형의 하드웨어 가속기를 구성할 수 있도록 새로운 가속기 프로필이 추가됐다. 사용자는 이를 통해 특정 워크로드에 적합한 가속기 유형에 셀프서비스 방식으로 간단히 접근할 수 있다. 현재 IBM의 왓슨x.ai뿐 아니라 AGESIC과 오텍 파이낸스 등 다양한 산업 분야의 기업이 더욱 큰 AI 혁신과 성장을 추진하기 위해 레드햇 오픈시프트 AI를 도입하고 있다. 또한 다양한 파트너들과 협업을 통해 에코시스템을 확장하고 있다. 레드햇은 레드햇 오픈시프트 AI에서의 엔터프라이즈 AI 활용 강화를 위해 인텔과 협력한다고 발표했다. 양사는 가우디 AI 가속기, 제온 프로세서, 코어 울트라 및 코어 프로세서, 아크 GPU 등의 인텔 AI 제품에서 하이브리드 클라우드 인프라 전반에 걸친 모델 개발·교육, 제공, 관리, 관리·모니터링을 위한 엔드투엔드 AI 솔루션을 제공할 예정이다. 레드햇 오픈시프트 AI는 인텔의 AI 제품에 대한 일관된 지원을 제공해 조직이 다양한 환경에서 AI 애플리케이션을 원활히 배포할 수 있도록 지원한다. 양사는 이번 협력을 통해 데이터 센터에서 엣지까지 유연하고 탄력적인 AI 솔루션을 제공해 상호 운용성을 보장하고 확장 가능한 소프트웨어 제품을 통해 AI 혁신을 가속화할 예정이다. AI 워크로드의 구축, 배포, 관리에 대한 고객 선택권 확대를 위한 AMD의 협력도 발표했다. 레드햇과 AMD는 AMD GPU를 레드햇 오픈시프트 AI에 통합함으로써 AI 아키텍처에 더 큰 선택권과 유연성을 제공하고 AI 워크로드를 채택하는 기업의 진입 장벽을 낮춰 엔터프라이즈 AI 역량을 강화할 계획이다. 양사는 레드햇 오픈시프트 AI에서 AMD GPU 오퍼레이터를 지원해 AI 워크플로우의 간소화, 인프라 격차 해소, 지능형 애플리케이션의 시장 배포 가속화를 돕고, AMD 인스팅트 가속기에서 레드햇 오픈 하이브리드 클라우드 기술을 지원해 AI 혁신을 더욱 촉진하고 고객에게 향상된 GPU 리소스 선택권을 제공할 예정이다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "엔터프라이즈 AI를 도입하는 것은 이제 '만약'의 문제가 아니라 '언제'의 문제”라며 “기업은 생산성을 높이고 수익을 창출하며 시장에서 차별화될 수 있도록, 보다 안정적이고 일관되며 유연한 AI 플랫폼이 필요하다”고 설명했다. 그는 “레드햇 오픈시프트 AI는 엔터프라이즈 AI를 향한 대규모 수요에 대한 해답”이라며 “IT 리더는 레드햇 오픈시프트 AI를 통해 하이브리드 클라우드의 모든 곳에 지능형 애플리케이션을 배포하는 동시에, 운영 및 모델을 필요에 따라 성장시키고 미세 조정하여 프로덕션 애플리케이션과 서비스를 지원할 수 있다”고 강조했다.

2024.05.08 09:47김우용

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

마이크로소프트365로 디지털 전환에 박차를 가하다

디지털 전환은 모든 기업에게 반드시 풀어야할 숙제다. 최신 디지털 기술을 적극적으로 수용하고 비즈니스의 체질을 디지털 기반으로 전환함으로써 미래의 성공으로 나아가야 하기 때문이다. 기업 규모에 상관없이 디지털 전환을 계획하고 추진하지만, 회사마다 선택할 길은 다양할 수 있다. 그중에서 데이터를 밀도있게 활용하는 데이터 주도형 사업 구조를 만들어 디지털 전환을 시도하는 기업이 많다. IT솔루션을 제공하는 소프트웨어 기업도 그만의 디지털 전환을 시도한다. 디지털 전환을 시도하는 고객사를 지원하기 위해 솔루션 기업은 더 높은 수준의 디지털 역량을 갖춰야 하기 때문이다. 마이크로소프트365는 많은 강소기업에서 디지털 전환을 위해 도입하는 전략 솔루션 중 하나다. 에듀테크 기업으로서 마이크로소프트365로 한발 더 도약하려는 퓨전소프트와 전통적인 패션 기업으로서 마이크로소프트365로 디지털 전환의 토대를 삼은 아가방앤컴퍼니의 사례를 소개한다. ■ 첨단 디지털교과서를 이끄는 첨병 '퓨전소프트' 퓨전소프트는 1991년 창업한 소프트웨어 전문 기업이다. 최근에 AI기술을 에듀테크에 접목하는데 주력하며, 고객의 기존 서비스를 클라우드 기반 마이크로서비스아키텍처(MSA)로 전환하는 애플리케이션 현대화의 종합적인 역량을 보유한 기업으로 역할을 수행하고 있다. 퓨전소프트는 에듀테크 시장에서 교육부 산하 공공기관 한국교육학술정보원과 협력해 디지털 교과서 플랫폼을 구축하고 있다. 공공교육 정보 서비스인 학습서비스 에듀넷, e학습터, AI디지털교과서, 교육커뮤니티 등 구축하고 운영중이다. e학습터와 같은 공공학습관리시스템의 개발과 운영을 통해 학생들의 학습 기회를 확대하고, 교육 격차를 해소하는 데 노력하고 있다. 퓨전소프트는 e학습터를 2017년 통합플랫폼으로 구축 후 현재까지 안정적으로 운영하고 있으며, 올해 e학습터 구조개선 사업에도 관심을 갖고 전사적 지원을 하고 있다. 또, 국가적으로 이루어지는 교육 개혁을 위한 AI디지털교과서 기술심사 시스템 구축에도 참여한다. AI디지털교과서를 심사하고, 적합성을 판정하는 시스템을 통해 AI 디지털교과서의 안정성과 신뢰성을 확보한다는 계획이다. 황인수 퓨전소프트 대표는 “지난 10여년간 KERIS 와의 지속적 협력을 통해 교육 혁신을 이뤘던 것처럼 앞으로도 AI기술을 에듀테크에 접목해 공공 교육의 발전에 이바지 하고자 한다”고 강조했다. 다음은 황인수 대표와 일문일답이다. Q. 교육 커뮤니티 기능, VR·AR 기반 학습 시스템, 에듀넷 위탁운영 사업을 운영하며, 교육 분야 전문 SI로도 업계의 인정을 받고 있는데요. 에듀테크 시장에 대한 전략은 무엇입니까? 에듀테크 시장은 빠르게 성장하고 있으며, 다양한 기술과 서비스가 등장하고 있습니다. 퓨전소프트는 변화에 적극 대응하고, 새로운 기술을 접목하며 경쟁력을 유지하고 있습니다. Q. 최근 IT 융합 산업이 가파른 성장세를 보이고 있습니다. 많은 SI 기업들이 사업을 확장해 나가면서 내부 업무 효율성을 극대화할 수 있는 인프라 구축을 위해 노력하고 있는데요. 마이크로소프트 365를 도입하게 된 배경과 앞으로의 활용 계획이 궁금합니다. 코로나19와 펜데믹에 의해 조직문화에도 큰 변화가 일어났습니다. 정부 방침에 따라 재택근무를 도입하면서 온라인 협업과 온라인 커뮤니케이션은 선택이 아닌 필수가 됐습니다. 퓨전소프트 역시 위기 상황에서도 프로젝트의 효율을 극대화 하기 위해 마이크로소프트365를 도입했습니다. 팀즈를 통해 실시간으로 대화를 나누고 파일을 공유 및 업무 일정을 관리할 수 있으며, 오피스를 활용해 문서 작성 및 관리를 효율화하고 있습니다. 프로젝트관리(PMS)와 연동해 프로젝트를 관리하고 있습니다. 파워BI 활용을 통해 데이터를 분석하고 시각화 함으로써 비즈니스 성과를 분석하고 의사결정에 활용하고자 합니다. Q. 기획팀, 개발팀, 디자인팀 등 각 부서 간 원활한 협업은 프로젝트의 성공에 매우 중요한 역할을 합니다. 마이크로소프트365의 협업 도구인 팀즈는 실시간 소통, 파일 공유, 일정 관리 등의 장점이 있는데요. 팀즈를 활용해 업무 협업을 강화한 사례에 대해 말씀 부탁드립니다. 팀즈를 통해 기획, 디자인 업무를 요청하고 진행하고 소통하고 있습니다. 퓨전소프트는 내부 부서간의 업무요청과 그 관리를 팀즈를 통해 진행하고 있습니다. 업무 요청과 그 업무처리의 계획, 자원의 배분 그리고 업무 진행에서의 상세 커뮤니케이션이 가능하고 업무이 시각회가 가능합니다. 이를 통해 적절한 자원배과, 지연업무 및 이슈업무의 신속대응을 통해 업무의 품질과 생산성을 높였습니다. Q. 국내 공공 LMS 경험과 기술을 발판으로 해외 시장 진출을 계획하고 있는 것으로 알고 있습니다. 해외 시장 진출 계획은 어떻게 되나요? 그리고 해외 시장에서의 경쟁력을 확보하기 위해 어떤 전략을 추진하고 있습니까? 퓨전소프트는 중국 유럽 등 하드웨어 제품을 수출한 경험이 있습니다. 이제는 소프트웨어 시장의 경쟁력 확보를 통해 해외 교육 시장 진출을 계획하고 있습니다. 퓨전소프트는 공공LMS(e학습터) 를 안정적으로 운영한 경험과 자체적인 LMS 시스템 개발 경험을 보유하고 있습니다. 해외 시장에서는 다양한 언어와 문화를 가진 사용자들이 LMS를 이용하기 때문에 다문화LMS 서비스 경험이 중요한데, 퓨전소프트는 다문화 LMS 서비스를 제공하면서 쌓은 노하우와 기술력을 바탕으로 해외 시장에서도 사용자 요구에 맞는 AI기반 맞춤형 LMS 서비스를 제공할 계획입니다. 현지 교육기관들과 적극 소통하고 협력하여 안정적인 LMS 서비스를 제공할 계획입니다. Q. 해외 진출 과정에서 글로벌 기업 및 기관과의 기술 협력 및 공동 개발이 진행되는 경우가 있는 만큼 전 세계 파트너와의 지속적 교류가 필요할 것 같은데요. 팀즈는 클라우드 기반의 협업 도구로 전세계 어디에서나 쉽게 접속하여 사용할 수 있습니다. 현지 교육기관들과 적극 소통하고 협력하기 위해서는 팀즈 협업툴이 필요할 것으로 예상됩니다. Q. 퓨전소프트는 교육기관과 공공기관을 대상으로 빅데이터 기반의 시스템 구축 및 유지 관리 서비스를 제공하고 있는 만큼, 방대한 양의 데이터를 관리하고 보호해야 할 것 같습니다. 마이크로소프트365는 엔터프라이즈급 디바이스 및 엔드포인트 보호를 제공하는데, 데이터 관리와 보안에 어떤 변화가 있었습니까? 마이크로소프트365 엔터프라이즈를 도입한 중요한 이유가 보안입니다. 퓨전소프트는 고객의 정보를 보호하면서도 동시에 효율적인 업무처리가 필요합니다. 마이크로소프트365는 개별 산출물 단위로 접근 권한을 부여할 수 있고 동시에 사용 디바이스 단위로도 보안을 지정할 수 있습니다. 이를 통해서 프로젝트별 요구되는 보안사항을 모두 만족하면서 또한 프로젝트 팀내에서의 업무효율을 유지할 수 있었습니다. 퓨전소프트는 마이크로소프트365의 보안기능을 통해 엄격하게 고객의 정보를 보호하고 있습니다. Q. 원드라이브는 자동 백업 시스템을 통해 파일 손상 및 분실 시에도 쉽게 복구가 가능하며, EMS와 연동돼 업무 데이터를 보호합니다. 원드라이브 사용 이후 내부 데이터 관리와 보안에 어떤 변화가 있었는지 말씀 부탁드립니다. 자동으로 백업 되고 버전관리가 되기 때문에 여러 명이 공동으로 작업할 때도 걱정이 없습니다. 또한 프로젝트별, 장소별, 디바이스 별 보안을 지정할 수 있기에 철저한 보안 관리 하에서 협업을 통해 생산성을 높일 수 있습니다. 프로젝트단위에서 산출물 생성, 공유, 관리 등을 원 드라이브를 통해 생산성과, 신뢰성을 모두 확보할 수가 있었습니다. Q. 마이크로소프트365 앱 중 하나인 파워 BI는 기업이 데이터를 분석하고 시각화해 비즈니스 인사이트를 도출합니다. 다양한 데이터 소스를 연결하고, 데이터를 분석하여 차트, 그래프, 보고서 등 다양한 형태로 시각화할 수 있는데요. 시각화 데이터가 필요한 업무에 파워 BI를 어떻게 활용하고 있습니까? 파워BI는 회사내에 여러 단위의 정보를 모으고 이를 시각화 하는데 매우 유용해 경영자에게 정보를 제공하고 신속한 의사결정에 활용하고 있습니다. 퓨전소프트는 프로젝트 계획, 변경, 평가에 걸쳐 자원, 원가, 하위계약에 이르는 모든 정보를 통합하고 이를 대시보드로 구축했습니다. 이를 통해 이슈관리, 자원계획, 재무예측 등 다양한 의사결정을 하고 있습니다. 각종 보고 자료를 따로 만들 필요가 없으며, 기존 회사 시스템의 DB자료뿐 아니라 담당자가 편리하게 사용하고 있는 엑셀로부터 데이터를 취합할 수 있어 유연하고 실용적인 경영정보시스템을 구현할 수 있었습니다. Q. 많은 기업들이 AI를 통한 내부 업무 효율성 향상에 관심을 보이고 있습니다. 마이크로소프트 365 코파일럿 도입 후 생산성 증대를 이룬 글로벌 기업들의 사례가 있는데요. 한글화 버전 출시도 앞두고 있는데, 마이크로소프트365 코파일럿 도입도 검토하고 계신지 말씀 부탁드립니다. 마이크로소프트365의 코파일럿은 생산성을 높을 중요한 도구가 될 것이라고 기대하고 있습니다. 고객의 정보를 보호하면서도 코파일럿을 활용할 수 있는 활용방법을 검토하기 위해서 테스트 프로젝트로 검토 중입니다. ■ 막강한 브랜드 파워에 디지털을 더한다 '아가방앤컴퍼니' 아가방앤컴퍼니는 유아의류 및 용품 전문 기업에서 춥발해 글로벌 아동 전문 기업으로 도약하고 있다. 최근 디지털 전환의 일환으로 마이크로소프트365 도입을 추진중이다. 클라우드로 전사적인 데이터를 통합하고, 클라우드 기반 IT환경과 다양한 도구를 활용해 업무 안정성과 생산성을 향상시키고 있다. 아가방앤컴퍼니는 1979년에 유아의류 및 용품 전문업체로 출범해 지난 46년간 높은 브랜드 인지도와 국내 최대의 유통망을 구축하며 동종 업계 시장점유율 우위를 고수해왔다. 전통성과 브랜드 파워로 시장지배력을 더욱 강화해 나가고 있으며, 우수한 재무구조를 바탕으로 해외 생산설비 및 물류센터에 적극적으로 투자해 더 효율적이고 혁신적인 유통 및 생산 기반시설을 갖춰 국내 및 해외시장 확대를 위한 토대를 마련했다 아가방앤컴퍼니는 현재 14개의 브랜드를 운영하고 있다. 아가방(agabang), 에뜨와(ETTOI), 디즈니베이비(Disney baby), 퓨토(Putto), 디자인스킨(Designskin) 등이 대표 브랜드다. 아가방의 유아 의류는 지난해 300만장 이상 판매고를 올렸다. 이 회사의 강점은 철저한 품질관리다. 다양한 소통 채널을 통해 고객들의 피드백과 요구사항을 듣고 이를 수용해 제품의 품질을 지속적으로 향상시키려 노력한다. 이를 위해 엄격한 품질검사와 표준화된 생산 프로세스를 준수하고 있다. 원자재부터 최종 제품까지 모든 단계에서 품질을 확인하고 문제 발생시 신속하게 조치하고 각 단계마다 명확한 기준과 절차를 통한 품질관리와 함께 지속적인 개선을 통헤 생산과정과 제품의 품질을 끊임없이 향상시키고 있다. 신상국 아가방앤컴퍼니 대표는 “세계속의 아가방의 이미지를 확대해 나아가는 동시에 생산 및 판매관리 효율성을 높임으로써 고객만족, 고객의 가치창출을 위해 더욱 노력해 나아갈 것”이라고 밝혔다. 다음은 신상국 대표와 일문일답이다 Q. 아가방앤컴퍼니의 디지털 전환 방향성에 대해 말씀 부탁드립니다. 아가방앤컴퍼니는 패션 및 유통산업의 빠르게 변화하는 환경에 대응하기 위해 디지털 전환을 추진하고 있습니다. 이를 통해 고객과 상품 데이터를 철저히 분석해 트렌드를 예측하고, 이를 기반으로 고객과의 접점을 더욱 확대하고 있습니다. 디지털 역량을 강화해 온라인 플랫폼을 확장하고, 동시에 차별화된 오프라인 고객 경험을 제공하기 위해 협업 모델을 적극적으로 발굴하고 있습니다. 이를 통해 다양한 파트너와의 협업을 강화해 더 나은 제품과 서비스를 제공하고, 비즈니스 프로세스를 최적화하는 것이 아가방앤컴퍼니의 목표입니다. Q. 디지털 전환을 추진하는 과정에서 마이크로소프트365 클라우드 솔루션을 도입한 배경은 무엇입니까? 전사적 데이터 통합과 디지털 트랜스포메이션을 위해 마이크로소프트365 클라우드 솔루션 도입을 추진하고 있습니다. 이를 통해 클라우드 기반의 업무 관리와 협업 강화를 통해 기존의 온프레미스 시스템에 비해 비용과 유지보수 부담을 줄이고, 업무의 유연성과 효율성을 높이며 언제 어디서나 업무에 접근할 수 있는 높은 접근성을 실현하고자 합니다 Q. 마이크로소프트 365를 도입하면서 업무 환경에 어떤 변화가 있었습니까? 임직원의 업무환경이 크게 변화했습니다. 먼저, 클라우드 기반의 서비스로 업무를 언제 어디서나 접근할 수 있게 돼 더 유연한 업무 수행이 가능해졌습니다. 이에 따라 마이크로소프트 오피스를 포함한 다양한 협업 도구를 활용해 업무의 효율성과 관리 능력이 향상됐습니다. 특히 마이크로소프트 오피스를 기반으로 한 이메일, 채팅, 문서 등을 한 플랫폼에서 처리할 수 있어 의사소통과 협업이 보다 원활해졌습니다. 이러한 효율적인 협업 방식을 통해 업무의 질과 속도가 개선돼 조직 전체의 생산성이 향상됐으며, 클라우드 기반의 솔루션을 통해 보안과 안정성이 강화됐다고 판단합니다. Q. 패션 기업 특성상 빠르게 트렌드를 파악해야 하는 만큼, 고객의 취향과 선호도 분석을 위해 대량의 데이터를 수집하고 관리해야 할 것 같습니다. 마이크로소프트365 클라우드 인프라를 구축한 뒤 데이터 관리가 어떻게 개선됐습니까? 대량의 데이터를 수집하고 저장하기 위해 안정적이며 확장 가능한 마이크로소프트의 클라우드 환경을 적극적으로 활용해 데이터 용량 및 확장에 대한 제약이 줄어들었습니다. 더 많은 데이터를 처리하고 저장할 수 있으며, 신속한 대응이 가능하게 됐습니다. 데이터 수집을 통해 얻은 정보를 분석하기 위해 데이터 분석 도구를 활용해 데이터를 모니터링하고 빠르게 변화하는 트렌드를 보다 통합적으로 분석할 수 있게 됐습니다. 이는 고객의 취향과 선호도를 더 잘 이해하고 더 나은 의사결정을 내릴 수 있게 해주는 중요한 변화입니다. Q. 패션 회사는 많은 디자인 시안을 보유하는 만큼 민감한 정보를 포함한 방대한 양의 데이터를 보호하고 보안 조치를 유지하는 것이 중요할 것 같은데요, 마이크로소프트 365 클라우드 인프라를 구축한 뒤 데이터 보안 관리에 어떤 개선점이 있었습니까? 마이크로소프트365의 엄격한 보안 기능을 활용해 데이터 보호에 초점을 맞추고 있습니다. 특히, 각 데이터에 대한 엄격한 접근 제어 및 식별 및 인증 기능을 통해 무단 접근을 방지하고, 데이터 누출 등을 예방해 보안성을 강화하고 있습니다. 더불어, 마이크로소프트365의 실시간 보안 위협 탐지 기능을 활용해 이메일 및 클라우드 상의 잠재적인 리스크를 신속하게 대응하고 있습니다. 이를 통해 회사의 민감한 정보와 디자인 시안 등 중요한 데이터를 효과적으로 보호하고 있습니다. Q. 아가방앤컴퍼니는 마이크로소프트365를 통해 문서 관리를 어떻게 진행하고 있습니까? 먼저, 마이크로소프트365의 문서관리 기능을 통해 문서의 버전 관리, 공유 및 협업을 체계적으로 진행하고 있습니다. 셰어포인트와 원드라이브를 이용해 문서를 중앙에서 관리해 보안성과 무결성을 유지하고 있습니다. 마이크로소프트 팀즈를 활용해 팀 간 협업과 의사 소통을 강화하고 있습니다. 팀즈를 통해 회의록을 기록하고 관리해 업무의 효율성을 높이고 있습니다. 이러한 방법을 통해 아가방앤컴퍼니는 마이크로소프트365를 효과적으로 활용해 문서 관리와 업무 협업을 강화하고 있습니다. Q. 마이크로소프트365의 팀즈를 활용해 커뮤니케이션 프로세스를 효율화 한 사례를 소개해주세요. 아가방앤컴퍼니는 마이크로소프트 팀즈로 국내의 많은 지역의 매장과 소통 채널로 활용하고 있습니다. 이를 통해 지역 간 소통 및 협업을 강화하고 있습니다. 각 지역을 직접 방문해 회의하는 것을 뛰어넘어, 긴급한 문제 발생 시에도 즉각적으로 팀즈를 통해 회의를 열고 해결 방안을 논의하고 있습니다. 파일 공유 기능을 적극적으로 활용해 지시 사항이나 문서를 신속하게 공유하고 있습니다. 이는 문서 전달 및 업데이트 과정에서 발생하는 지연이나 휴먼 에러를 최소화합니다. 일정관리 기능으로 회의 일정 관리에 소요되는 시간과 노력을 최소화하고 회의에 참석하는 당사자에게 필요한 정보를 즉시 공유하고 소통하고 있습니다. Q. 아가방앤컴퍼니는 각 직무에서 클라우드 기반 협업 도구를 어떻게 활용하고 있습니까? 각 팀에서 원드라이브를 활용해 각 협업에서 생산되는 문서를 저장하고 팀내에서 쉽게 공유하고 협업하고 있습니다. 특히 다른 팀원들과 실시간으로 피드백을 주고 받고 업데이트하여 문서 관리에 소요되는 시간과 노력을 줄이고 문서 업데이트 과정에서 발생되는 다양한 이슈를 제거하고 있습니다. 팀즈의 다양한 기능을 활용해 일정과 작업 계획을 공유하고 이 업무 과정에서 발생되는 이슈를 공유하고 이를 해결하고 있습니다. 이외 각 분야에서 팀 간 협업 강화와 업무 효율성 강화를 위하여 팀즈의 다양한 기능을 활용하고 있습니다. Q. 아동복 MD 또는 마케팅 부서는 자체 판매 사이트에서 매출, 연령대, 성별, 반응 등 소비자 동향을 파악하는 업무의 비중이 클 것 같습니다. 이와 같은 소비자 데이터를 관리하는 데 가장 용이한 마이크로소프트365 솔루션은 무엇입니까? 마이크로소프트365 솔루션 중 가장 용이하게 데이터 관리를 할 수 있는 도구는 파워 BI입니다. 데이터 시각화와 분석을 위한 도구로써 다양한 데이터 소스로부터 쉽게 데이터를 추출하여 원하는 인사이트를 얻고자 노력하고 있습니다. 자사의 ERP 데이터, 기존 엑셀 데이터를 포함해 다양한 소스로부터 발생되는 데이터를 일괄 관리하고 수집된 데이터를 통하여 매출 및 고객을 분석해 인사이트를 얻고자 하고 있으며 다양한 차트, 그래프, 대시보드를 생성하여 시각화에 노력하고 있습니다. Q. 아가방앤컴퍼니는 국내 유통시장에서 600여개의 오프라인 매장과 다양한 온라인 유통 채널을 통해 고객과 소통하는 만큼 다양한 이해관계자와 협업이 중요할 것으로 보입니다 마이크로소프트365 인프라 구축 이전과 이후의 변화를 어떻게 느끼고 있습니까? 마이크로소프트365 구축 이후 커뮤니케이션 측면에서 가장 큰 변화를 경험하고 있습니다. 다양한 지역에 분산된 매장과 팀 간의 소통을 위해 마이크로소프트365를 활용하여 실시간 채팅 및 화상회의를 진행하고 있으며 본사의 업무 지시나 업데이트된 정보를 신속하게 전달하고 있습니다. 이를 통해 협업과 소통이 원활해졌으며, 이와 관련된 업무 프로세스의 효율성과 투명성이 향상되었다고 판단하고 있습니다. Q. 많은 기업들이 AI를 통한 내부 업무 효율성 향상에 관심을 보이고 있습니다. 마이크로소프트 365 코파일럿 도입 후 생산성 증대를 이룬 글로벌 기업들의 사례가 있는데요. 한글화 버전 출시도 앞두고 있는데, 마이크로소프트365 코파일럿 도입도 검토하고 계신지 말씀 부탁드립니다. 업무 생산성 향상을 위해 최신 기술과 솔루션을 지속적으로 검토하고 적용하고 있습니다. 특히 마이크로소프트365 코파일럿과 같은 AI 기반의 솔루션은 업무 효율성을 높이고 반복적이고 시간 소모적인 작업을 자동화해 직원들의 업무 부담을 줄이고 효율성을 높일 수 있는 매력적인 도구라고 생각합니다. 따라서, 문서 작성, 검색, 요약 등의 업무를 도와주는 AI 솔루션을 포함해 RPA, 디자인 및 마케팅에 활용가능한 다양한 AI 솔루션을 검토하고 도입할 계획입니다.

2024.05.07 14:17김우용

IBM, 한국도 AWS 마켓플레이스로 소프트웨어 제공

IBM은 한국을 포함한 전 세계 92개국에서 아마존웹서비스(AWS) 마켓플레이스를 통해 공급하는 자사 소프트웨어 포트폴리오를 확대한다고 3일 발표했다. AWS 마켓플레이스는 AWS에서 가동되는 소프트웨어를 쉽게 찾고, 테스트, 구매, 배포할 수 있도록 독립소프트웨어업체(ISV)의 수천 개 소프트웨어 목록을 제공하는 디지털 카탈로그다. IBM 소프트웨어는 그동안 덴마크, 프랑스, 독일, 영국, 미국 지역에서 AWS 마켓플레이스를 통해 제공돼 왔다. 간단한 구매 절차를 통해, AWS 약정 비용을 IBM 소프트웨어 구매에 사용해 효율성을 높일 수 있다. 글로벌 시장조사기업 카날리스의 연구에 따르면 클라우드 마켓플레이스는 지난 5년간 연평균 84% 성장률을 기록하며 450억 달러 규모로 성장할 것으로 예상돼 서비스형 소프트웨어(SaaS) 시장에서 가장 빠르게 발전하는 시장으로 부상했다. 마켓플레이스는 구매 주기 단축, 결제 통합, 소프트웨어 배포의 신속한 확장에 도움이 된다. 오늘 발표를 통해 고객은 AWS 마켓플레이스에서 44개의 제품 라인업과 29개의 SaaS 제품 등 IBM의 인공지능(AI) 및 데이터 기술을 더 많이 이용할 수 있게 된다. 기업이 AI 프로젝트를 구축, 확장 및 관리할 수 있도록 지원하는 왓슨x의 구성 요소를 포함한다. 개방형 데이터 레이크하우스 구조에 구축된 맞춤형 데이터 저장소인 왓슨x.데이터와 AI 개발자를 위한 차세대 기업용 플랫폼인 왓슨x.ai를 이용할 수 있으며, IBM의 AI 어시스턴트인 왓슨x.어시스턴트와 왓슨x. 오케스트레이트도 이용할 수 있다. 왓슨x.거버넌스는 곧 출시될 예정이다. AWS의 AWS 마켓플레이스 및 파트너 서비스 총괄 매니저 매트 얀치신은 "IBM의 글로벌 확장은 양사의 전 세계 고객들에게 혁신의 기회를 열어줄 것"이라며 "이제 고객들은 AWS 마켓플레이스의 속도와 간소화된 절차를 활용해 IBM의 최첨단 솔루션에 보다 쉽게 접근함으로써 디지털 혁신을 가속화하고 대규모 혁신을 추진할 수 있다”고 밝혔다. 그는 “AWS와 IBM의 이번 협력 확대는 오늘날의 급변하는 환경에서 고객이 성공하는 데 필요한 도구와 리소스를 제공하려는 양사 공동의 노력이 반영된 것"이라고 덧붙였다. 다른 소프트웨어로 IBM의 대표 데이터베이스인 데이터용 Db2 클라우드 팩과 앱티오, 터보노믹, 인스타나 등을 포함한 자동화 소프트웨어 포트폴리오, IBM 보안 및 지속 가능성 소프트웨어 포트폴리오가 있다. 모두 AWS 기반의 레드햇 오픈시프트 서비스를 기반으로 구축되었다. 고객은 클라우드 중심 소프트웨어를 통해 AWS에 소프트웨어를 배포할 수 있으며, SaaS 및 구독을 포함한 유연한 라이선싱을 통해 고객이 원하는 방식으로 쉽게 구매할 수 있다. IBM은 AWS 마켓플레이스에서 AWS 전용으로 설계된 15개의 새로운 IBM 컨설팅 전문 서비스 및 자산을 출시한다. 고객의 요구와 수요에 맞춰 데이터 및 애플리케이션 현대화, 보안 서비스, 맞춤형 산업별 솔루션에 중점을 두고 있으며, 일부 서비스에는 생성형 AI 기능이 포함된다. 또한 IBM 컨설팅은 2만4천개의 AWS 인증과 최신 AWS 기술 전문가로 구성된 전담 팀을 통해 업계 모범 사례에 기반한 맞춤형 추천으로 고객을 지원할 예정이다. IBM 글로벌 전략적 파트너십 총괄 닉 오토는 "AWS 마켓플레이스에서 IBM 소프트웨어 포트폴리오의 가용성을 확대해 전 세계 기업들이 비즈니스 발전에 도움이 되는 다양한 IBM AI 및 하이브리드 클라우드 제품을 보다 간소화된 방식으로 활용할 수 있게 될 것"이라며 "AWS와 협력은 고객의 요구를 충족하기 위해 다른 기업과 협력하여 고객이 IBM과 최대한 쉽게 비즈니스를 진행하고 혁신을 가속화하는 방법을 보여주는 대표적인 예"라고 강조했다.

2024.05.03 12:25김우용

AWS "파트너간 협력으로 매출·AI도입 효율 극대화"

아마존웹서비스(AWS)가 국내 기업의 생성형AI 도입과 신규 비즈니스 창출을 위해 파트너십 전략을 강화한다. AWS코리아는 30일 서울 역삼동 센터필드 이스트 AWS코리아 오피스에서 간담회를 개최해 파트너 비즈니스 고도화 전략을 소개했다. 이번 행사에서는 AWS코리아 허정열 파트너 매니지먼트 총괄이 AWS의 파트너 협력 지원 전략 및 성과를 발표했다. 이어서 파트너사인 에티버스의 김준성 전무와 SK텔레콤의 황웅상 클라우드 MSP 사업팀 리더가 전략적 협약 체결 이후 비즈니스 성과 및 향후 계획을 알렸다. 허 총괄은 글로벌 기준 700개 이상의 솔루션을 파트너들과 함께 개발하고 있으며 한국에서는 2017년 이후 약 20만 명에 이르는 고객들에게 교육을 진행했다고 파트너 지원 서 성과를 설명했다. 특히 전 세계적으로 빠르게 성장 중인 생성형AI 도입을 위한 지원을 위해 파트너 지원을 강화한다. 기업 특화용 AI 챗봇 '아마존 큐(Q)'를 비롯해 완전관리형 생성형 AI 서비스인 배드록 등 전방위에 걸쳐 생성형AI 관련 서비스를 지원한다. 허 총괄은 "아담 셀립스키 AWS CEO의 말처럼 우리의 생성형 AI 수준은 10Km 경주에서 이제 막 세 발자국 뛴 수준”이라며 "무한한 가능성이 열린 가운데 AWS는 파트너들과 적극 협력하고 있다"고 설명했다. AWS는 파트너 비즈니스의 핵심 전략으로 파트너 간의 협력을 강조하고 있다. 각 분야에서 전문성을 가진 파트너사들이 AWS 안에서 협력해 서로 시너지를 낼 수 있는 환경을 조성한다는 것이다. 이를 위해 기존에 각 사업 및 업무 분야에 따라 나눠져 있던 팀과 데이터를 통합해 서로 협업을 일으킬 수 있는 조직 구조로 대거 개편했다. 허정열 총괄은 “기업의 규모가 커지고 서비스가 복잡해지면서 한 파트너가 고객사의 문제를 모두 해결하는 것이 점점 어려워지고 있다”며 “이제는 파트너 간의 협의를 통해 함께 업무를 수행하고 더욱 높은 성과를 달성할 수 있도록 협업체계를 지원하고 있다”고 설명했다. 이어서 그는 "2023년 15% 미만에 불과한 산업 클라우드 플랫폼 활용이 2027년이면 70%를 상회할 전망”이라며 “이를 바탕으로 파트너들의 비즈니스 기회를 더욱 확장할 계획으로 AWS 마켓플레이스 한국 출시도 연내 진행될 것”이라고 밝혔다. 이어서 SK텔레콤의 황웅상 MSP 사업팀 리더가 AWS와의 협업을 통한 AI 클라우드 관리 서비스(MSP) 성과와 추후 사업 전략을 소개했다. SK텔레콤은 기업이 보유한 통신사 인프라와 데이터를 바탕으로 AWS의 클라우드 인프라와 AI기술력을 더해 MSP역량을 확보한다는 방침이다. 더불어 금융 등 각 산업에 특화된 솔루션을 결합해 AI 클라우드 시장을 선점할 계획이다. 실제로 AWS와의 전략적 협약을 통하여 협약 시 수립한 공격적인 매출 및 사업기회의 목표를 지속 달성하고 중이다. SK텔레콤은 AI 클라우드 사업을 위해 필요한 인프라와 서비스, 모니터링 및 관리 도구를 피라미드처럼 안정적으로 제공하는 AI 피라미드 전략을 수립해 진행 중이다. 특히 AWS 내 파트너사 등 조직과의 협력을 통한 시장 진출 전략을 안정적으로 수행하고 있다. 앤트로픽, 올거나이즈, 코난테크놀로지 등 AI전문 기업을 비롯해 클라우드 비용 최적화, 보안 서비스 등도 파트너사와 협력해 제공한다. 글로벌 서비스를 위해 도이치텔레콤, 이앤그룹, 싱텔그룹, 소프트뱅크 등과 함께 '글로벌 텔코 AI 얼라이언스(GTAA)'도 출범했다. 이들은 통신사에 특화된 AI 서비스 개발을 위해 AI 솔루션 기업 공동 발굴 및 육성에 나선다. 황 리더는 "GTAA는 전세계 45개국 12억 명을 대상으로 서비스를 제공하는 5개 통신사 연합으로 각각 서비스 지역이 다르지만 AWS의 마켓플레이스를 통해 자연스럽게 전 세계 사용자에게 AI를 서비스할 수 있는 생태계를 구축할 수 있다고 생각한다"며 앞으로 더 좋은 AI서비스를 제공하기 위해 5개 통신사가 협력할 뿐 아니라 AWS마켓플레이스를 적극적으로 활용할 계획"이라고 말했다. 에티버스 김준성 전무는 AWS와의 전략적 협업을 통한 성공 사례로 하나금융그룹에 구축한 금융 플랫폼 '글로벌 로열티 네트워크(GLN)'를 소개했다. GLN은 글로벌 가입자가 국가 간의 제약 없이 디지털 자산을 사용할 수 있도록 구축한 글로벌 통합 금융 시스템이다. 글로벌 마케팅 강화 전략으로 수행한 프로젝트로 디지털 상에서 결제, 이체, 출금 등 실제 자금 외에 상품권, 쿠폰 등의 금융 서비스를 통합 제공한다. 공유오피스 기업 패스트파이브의 경우 신규 입주한 스타트업이 손쉽게 기업에 최적화된 클라우드 환경을 조성할 수 있도록 통합 클라우드 리소스패키지인 클라우드 스타터킷을 제공하고 있다. 김 전무는 “AWS와의 전략적 협업을 통해 매출이 약 6배 가까이 증가했으며, 고객사도 4배 가까이 늘었다”며 “에티버스는 AWS의 클라우드 서비스를 국내에 제공하는 디스트리뷰터로서 국내 기업들이 더 파트너사로 참여해 더욱 성과를 낼 수 있길 기대한다”고 말했다.

2024.04.30 13:55남혁우

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 2분기 영업이익 반토막...美 트럼프 관세 영향

무너지는 중소웹툰플랫폼…네카오, 양강 체제 굳어진다

정부 요청에…유통업계, 라면·빵·커피 등 ‘최대 반값 할인’

LG엔솔, IRA 세액공제 없이 흑자 달성…저점 통과 기대↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.