• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈'통합검색 결과 입니다. (985건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

퓨어스토리지, 레드햇 오픈시프트에 '포트웍스' 최적화

퓨어스토리지는 레드햇과 협업해 자사의 포트웍스와 레드햇 오픈시프트 간 최적화 작업을 완료했다고 9일 발표했다. 양사는 이번 최적화를 통해 기업들이 간소화된 통합으로 보다 원활하게 최신 가상화를 도입하도록 지원한다. 퓨어스토리지와 레드햇은 단일 플랫폼을 제공해 기업들이 최신 애플리케이션을 개발, 확장 및 관리할 수 있도록 지원한다. 또한 가상머신(VM)과 컨테이너 모두를 위한 단일 관리 콘솔을 제공해 개발 시간을 단축하고 데이터 경험의 일관성과 유연성을 높여준다. 배포 속도와 확장성을 높이기 위해 애플리케이션을 컨테이너로 이전하는 기업이 점점 더 늘어나고 있지만, 많은 기업이 여전히 VM에서 실행되는 기존의 대규모 애플리케이션 영역에 상당한 투자를 하고 있다. VM과 컨테이너를 기반으로 하는 여러 플랫폼을 지원하는 것은 번거롭고 비용이 많이 드는 것은 물론, 최신 프레임워크와의 호환성을 위해 VM 기반 애플리케이션 재설계가 필요하다. 이로 인해 개발 속도가 느려지고 운영이 복잡 해지며 데이터 가시성이 저하되는 문제점이 발생할 수 있다. 실제로 최근 설문조사에 따르면, 데이터 관리 담당자 5명 중 4명 이상(81%)이 기존 VM 워크로드를 클라우드 네이티브로 최신화 하거나 마이그레이션할 계획이며, 79%가 이러한 계획의 주요 동인으로 운영 간소화를 꼽았다. 레드햇 오픈시프트 버추얼라이제이션과 퓨어스토리지의 포트웍스는 컨테이너와 VM을 모두 지원하며, 고객들이 대규모로 엔드-투-엔드 애플리케이션 최신화를 구현할 수 있도록 지원한다. 이러한 최신 최적화와 공동 개발을 통해 기업은 기존 가상화 애플리케이션과 최신 컨테이너화 애플리케이션을 나란히 실행하여 운영을 간소화하고 비용을 절감하며 전체 애플리케이션 개발 프로세스를 통합할 수 있게 된다. 포트웍스는 레드햇 오픈시프트 고객에게 엔터프라이즈급 데이터 관리 기능을 제공하여 VM을 레드햇 오픈시프트로 마이그레이션할 뿐만 아니라, 개발자에게 스토리지, 데이터 및 전체 애플리케이션 수명주기 관리를 통합 지원하는 단일 셀프 서비스 포털을 통해 애플리케이션을 구축, 테스트 및 배포할 수 있도록 지원한다. 기업들은 개발 팀이 셀프 서비스 옵션을 통해 더 빠르게 VM을 마이그레이션하고, 클라우드 네이티브 운영 및 개발 방식을 VM에 적용해 가치 창출 시간을 단축함으로써 프로덕션 시간을 개선할 수 있다. 포트웍스와 레드햇은 고객이 램프업 시간과 2일차(Day 2) 운영을 단축할 수 있는 비용 효율적인 옵션을 통해 인프라 비용, 라이선스, 구독료를 포함하여 기존 대비 약 63%의 비용 절감 효과를 제공한다. 포트웍스와 레드햇은 통합된 뷰와 일관된 스토리지, 데이터 및 애플리케이션 관리 툴 세트를 통해 가상화 관리자와 플랫폼 엔지니어링 팀 간의 협업을 강화하여 VM 및 컨테이너 관리를 간소화할 수 있도록 지원한다. 기업은 포트웍스를 레드햇 오픈시프트에 통합하여 기존 VM 기반 애플리케이션을 최신화하고, 최신 스토리지, 데이터, 애플리케이션 관리 기능을 활용할 수 있다. 이를 통해 기업은 온프레미스, 클라우드, 하이브리드 또는 멀티 클라우드 인프라에 VM 및 컨테이너화된 애플리케이션을 유연하게 배포하는 동시에, 일관된 스토리지 및 데이터 서비스를 유지할 수 있다. 뮬리 티루말레 퓨어스토리지 포트웍스 부문 총괄은 "레드햇 오픈시프트에서 포트웍스를 통합할 수 있게 된 것은 각각 최신 스토리지와 컴퓨팅 빌딩 블록을 대표하는 최신 IT 인프라의 중대한 발전을 시사한다”며 “포트웍스 플랫폼의 강력한 데이터 관리 기능과 레드햇 오픈시프트의 민첩성 및 확장성을 결합하여 기업은 최신 가상화 스택을 구축할 수 있는 기반을 확보함으로써 VM을 재설계하지 않고도 쿠퍼네티스의 이점을 누릴 수 있게 됐다”고 설명했다. 그는 “레드햇과 협업은 애플리케이션 개발 및 배포를 가속화할 뿐만 아니라, 복잡한 하이브리드 클라우드 환경 전반에서 기업의 안정성과 운영 유연성을 높이는 데 도움을 준다”고 덧붙였다. 레드햇 마이크 배럿 부사장 겸 하이브리드 플랫폼 부문 총괄은 “포트웍스는 레드햇 오픈시프트에서 실행되는 VM과 컨테이너 모두를 위한 고가용성, 성능, 백업 및 재해 복구와 같은 엔터프라이즈급 스토리지 기능을 제공한다”며 “통합 프레임워크 내에서 VM과 컨테이너를 원활하게 통합해 인프라 배포, 스토리지 관리 및 전반적인 애플리케이션 수명주기에서 유연성과 효율성을 제공한다”고 강조했다.

2024.05.09 14:58김우용

레드햇, 생성형 AI 기능 클라우드 제품 전반으로 확장

레드햇은 생성형AI 기술인 레드햇 라이트스피드를 자사 플랫폼 전반으로 확장하고 엔터프라이즈급 AI를 레드햇 하이브리드 클라우드 포트폴리오 전반에 적용한다고 9일 발표했다. '레드햇 오픈시프트 라이트스피드'와 '레드햇 엔터프라이즈 리눅스 라이트스피드'는 지능형 자연어 처리 기능을 제공해 초보자는 더욱 쉽게, 숙련된 전문가들은 더욱 효율적으로 레드햇의 엔터프라이즈급 리눅스 및 클라우드 네이티브 애플리케이션 플랫폼을 사용할 수 있도록 지원한다. 레드햇은 생성형 AI의 통합을 통해 플랫폼 사용 간의 생산성과 효율성을 향상을 지원할 계획이다. 레드햇 라이트스피드는 '레드햇 앤서블 자동화 플랫폼'에 처음 도입되었으며, 업계 전반의 기술 격차와 하이브리드 클라우드 도입 증가에 따른 복잡성을 해소하여 사용자에게 보다 높은 정확성과 효율성을 제공하고 IT팀이 더욱 큰 혁신을 추진할 수 있도록 지원한다. 레드햇의 핵심 플랫폼에 레드햇 라이트스피드가 적용되면 사용자는 미션 크리티컬 환경에서의 오픈소스 기술 사용에 관한 레드햇의 방대한 지식을 상황에 맞게 적용할 수 있게 돼 레드햇 구독의 가치를 더욱 높인다. 쿠버네티스 기반의 하이브리드 클라우드 애플리케이션 플랫폼 '레드햇 오픈시프트'는 다양한 역할과 기술 역량을 보유한 여러 부서와 팀에서 널리 사용되고 있다. 라이트스피드는 이들 부서와 팀이 기존 및 클라우드 네이티브 애플리케이션을 오픈시프트 클러스터에 배포하는 데 생성형 AI를 적용하여, 오픈시프트의 라이프사이클 관리를 간소화하고 필요에 따라 리소스를 확장할 수 있도록 지원한다. 이를 통해 오픈시프트 초보자들은 애플리케이션 플랫폼 실행에 필요한 기술을 더 빠르게 습득할 수 있으며, 전문가들은 오픈시프트 라이트스피드을 사용해 전문성을 더욱 제고할 수 있다. 오픈시프트 라이트스피드가 지원하는 많은 시나리오 중 하나는 클러스터가 최대 용량에 도달했을 때 사용자가 취할 수 있는 조치로, 사용자에게 오토스케일링 사용을 제안하고 클러스터가 퍼블릭 클라우드에서 호스팅되는지 평가한 후 적절한 크기의 새 인스턴스를 제안한다. 이후 사용 패턴을 추가로 평가해 용량 요구 사항이 감소하면 오토스케일링 사용해 자동 축소하도록 제안할 수 있으며, 깃옵스로 이 구성을 저장해 클러스터 전체에서 사용할 수 있게 하는 등의 추가 권장 사항도 제안할 수 있다. 레드햇 엔터프라이즈 리눅스 라이트스피드는 기술 조직이 리눅스 환경을 배포, 관리, 유지하는 방법을 간소화할 수 있도록 지원한다. 시스템 규모와 복잡성이 IT 베테랑에게도 어려운 과제가 되는 가운데, 레드햇 엔터프라이즈 리눅스 라이트스피드는 초보 관리자부터 숙련된 운영 팀까지 모두가 엔터프라이즈 리눅스 플랫폼을 통해 더 많은 작업을 더 빠르게 수행할 수 있도록 지원한다. 이는 레드햇이 수십 년간 쌓아온 엔터프라이즈 리눅스 전문성을 기반으로 생성형 AI를 사용해 고객이 일반적인 질문에 더 빠르게 답하고 새로운 문제를 해결할 수 있도록 지원한다. 예를 들어 새로운 CVE 발표가 발생하면, 레드햇 엔터프라이즈 라이트스피드는 수정 사항이 포함된 레드햇 보안 권고(RHSA)가 나오면 관리자에게 알린 후, 시스템이나 머신의 가동 상태와 관련성 등을 분석해 어디에 업데이트를 적용할 수 있을지 알려줄 수 있다. 레드햇 엔터프라이즈 리눅스 라이트스피드는 전문 지식이 부족한 사용자도 간단한 명령을 통해 다음 유지 관리 기간에 패치 배포를 예약할 수 있도록 도와준다. 레드햇 앤서블 라이트스피드는 작년 출시 이래 전반적인 사용자 경험을 강화하는 동시에 코드 추천의 관련성을 높이기 위해 더욱 정교하게 개선됐다. 앤서블 라이트스피드 사용자는 IBM 왓슨x 코드 어시스턴트를 통해 기존의 앤서블 콘텐츠를 모델 훈련에 사용할 수 있다. 고객은 조직의 특정 요구 사항과 자동화 패턴에 맞게 맞춤형 코드 추천을 통해 앤서블 콘텐츠의 품질과 정확도를 향상시킬 수 있다. 레드햇 계정 관리자는 앤서블 라이트스피드 사용에 관한 텔레메트리 데이터를 확인할 수 있다. 이 데이터에는 생성형 AI 요청을 모니터링하는 메트릭 및 최종 사용자의 서비스 사용 방식에 대한 인사이트가 포함된다. 레드햇은 레드햇 라이트스피드 포트폴리오에 더해, 앞으로 콘베이어(Konveyor)와 같은 프로젝트에도 생성형 AI를 도입하는 등 오픈소스 커뮤니티의 혁신을 위한 노력을 지속하고 있다. 오픈시프트 라이트스피드는 올해 말 출시될 예정이다. 레드햇 엔터프라이즈 리눅스 라이트스피드는 기획 단계에 있으며, 빠른 시일 내 자세한 정보가 제공될 예정이다. 앤서블 라이트스피드의 새로운 기능은 현재 사용 가능하다.. 아셰시 바다니 레드햇 최고제품책임자 겸 수석 부사장은 “하이브리드 클라우드 전반에 걸친 엔터프라이즈 AI에 대한 레드햇의 노력은 AI 워크로드의 구축, 실행, 배포를 위한 플랫폼 제공 뿐만 아니라 기본 플랫폼에 내재된 기능 제공까지 아우른다”며 “레드햇 라이트스피드는 AI를 즉시 활용할 수 있게 함으로써 기존의 전문성을 확장하는 동시에 새로운 기술을 신속하게 습득할 수 있도록 지원한다”고 밝혔다. 그는 “레드햇 라이트스피드는 가장 큰 혁신을 보다 빠르게 제공할 수 있는 사용자인 IT 조직에 프로덕션 지원 AI를 제공한다”고 강조했다.

2024.05.09 14:54김우용

델, '레드햇 오픈시프트 AI용 델 에이펙스 클라우드 플랫폼' 출시

델테크놀로지스는 레드햇과 협력해 AI 인프라 구축을 간소화하는 턴키 솔루션 '레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼'을 출시한다고 9일 밝혔다. '레드햇 오픈시프트를 위한 델 에이펙스 클라우드 플랫폼'은 레드햇 오픈시프트를 위해 설계된 완전 통합형 애플리케이션 딜리버리 플랫폼이다. 기업이나 공공기관들이 온프레미스에서 가상 머신과 함께, 컨테이너를 구축하고 관리, 운영할 수 있도록 돕는다. 델은 '레드햇 오픈시프트 컨테이너 플랫폼'에 대한 컨트롤 플레인 호스팅 지원을 에이펙스에 추가했다. 관리 비용을 줄이고, 클러스터 구축 시간을 단축하며, 워크로드 관리 부담을 줄여 애플리케이션에 온전히 집중할 수 있도록 돕기 위해서다. 레드햇 오픈시프트 AI를 위한 델 에이펙스 클라우드 플랫폼은 기업과 기관에서 더 많은 GPU를 활용해 AI 결과물의 범위를 넓힐 수 있도록 설계됐다. 고유한 요구사항에 부합하는 맞춤형 인프라를 구성할 수 있는 유연성을 제공하며, 특히 가장 까다로운 AI 애플리케이션에도 적합한 엔비디아 L40S GPU를 탑재했다. 규모에 관계없이 설계에 따라 다양한 스토리지 요구 사항에도 대응할 수 있도록 델 파워플렉스와 델 오브젝트스케일 스토리지를 모두 지원한다. 오브젝트 스토리지는 확장 가능하고 비용 효율적인 데이터 관리를 지원해 대규모 언어 모델과 대규모 데이터 세트를 수용하는 데 이상적이다. 델은 에이펙스 클라우드 플랫폼에서 제공할 수 있는 레드햇 오픈시프트 AI의 잠재력을 실현하기 위해 검증 설계의 디지털 어시스턴트를 업데이트 함으로써 대규모 언어 모델(LLM)과 검색 증강 생성(RAG) 프레임워크를 70억개의 매개변수 모델을 130억개로 늘렸다. 기업 및 각 기관에서는 LLM만으로 조직에 대한 도메인별 최신 정보를 확보하기 어려우므로, RAG를 사용해 자체 보유한 데이터로 LLM을 보강해 최신 정보를 빠르게 학습시킬 수 있다. 델은 다양한 오픈소스 오퍼레이터를 활용하여 손쉽게 복제하고 각각의 비즈니스의 요구 사항에 맞게 디자인을 조정할 수 있도록 지원한다. 레드햇 오픈시프트 AI는 특정 퍼블릭 클라우드 전용 툴에 종속되거나, 인프라에 대한 걱정 없이 모델을 구축할 수 있는 협업 기반 오픈소스 도구 세트와 플랫폼을 제공하여 규범적인 AI/ML 제품들에 대한 대안을 제공한다. 델은 또한 AI를 사용해 자동화된 음성 인식(ASR) 및 텍스트 음성 변환(TTS) 기능을 구현하는 솔루션을 선보인다. 혁신적인 설계의 이 오퍼링은 GPU 가속 음성 AI 애플리케이션을 구축하는 마이크로서비스인 '엔비디아 리바'를 통해 델 에이펙스 클라우드 플랫폼에서 레드햇 오픈시프트 AI의 성능을 확장한다. 이를 통해 자체 자연어 처리(NLP) 솔루션의 배포를 간소화할 수 있다. 델은 서비스 사업부를 통해 레드햇 오픈시프트 AI 플랫폼의 가치 실현 시간을 단축할 수 있도록 돕는다. 델의 검증된 방법론을 기반으로 하는 프로컨설트 자문 서비스에서부터 구현 서비스에 이르기까지 다양한 고부가가치 AI 활용 사례에 요구되는 성공 전략을 제공한다. RAG 기술을 활용해 고객의 데이터에 맞게 모델을 맞춤화하고 이를 AI 아바타, 챗봇 또는 기타 애플리케이션에 원활하게 통합해 더 관련성 높고 영향력 있는 결과를 도출할 수 있다. 데이터 준비 및 LLM 훈련을 최소화하고, 조직에 요구되는 필수 기술과 모범 사례를 제공함으로써, 현재와 미래의 ROI를 극대화할 수 있도록 돕는다. 김경진 한국델테크놀로지스 총괄 사장은 “AI 속도 경쟁의 승패를 좌우하는 것은 복잡성을 어떻게 극복하는지에 따라 달려있다”며 “델은 레드햇과의 긴밀한 협력으로 고객이 간소하고 검증된 방법으로 온프레미스에서 이상적인 AI 인프라를 마련해 가치 창출 시간을 앞당길 수 있도록 노력하고 있다”고 밝혔다.

2024.05.09 14:49김우용

오픈AI, AI모델 정확성 높이는 비법 공개

오픈AI가 챗GPT 등 인공지능(AI) 모델의 정확성을 높이기 위한 방법을 제시했다. 8일(현지시간) 오픈AI는 AI모델을 보다 정확하게 조절할 수 있는 모델스펙(Model Spec) 첫번째 버전을 공식 홈페이지를 통해 공개했다. 모델스펙은 AI가 답변이나 데이터를 생성하는 등 업무를 수행하는 과정에서 정확성을 높이고 합성된 허위데이터로 인한 환각 현상 등을 제거해 제어력을 향상시키는 것을 목표로 한다. 오픈AI는 AI가 정확하게 동작하도록 행동을 지정하기 위한 핵심원칙으로 목표, 규칙, 기본행동(Defaults) 등 세가지 요소를 강조했다. 목표는 AI가 특정 업무를 수행하도록 방향성을 지시하는 것을 말하며, 최대한 단순화하거나 구체화할 필요가 있다. 만약 범위가 너무 넓거나 서로 반대되는 목표가 동시에 요구될 경우 만족스러운 결과가 나오지 않거나 둘 중 하나의 목표가 무시될 수 있다. 오픈AI 측은 목표 간 충돌이 발생할 경우 "X라면 Y를 수행하시오" 같은 규칙을 만들어 입력할 것을 권했다. 규칙은 목표를 수행하는 과정에서 발생하는 충돌을 어떻게 처리할 것인지를 다룬다. 모델스펙은 다양한 업무 환경이나 법률에 따라 사용자가 직접 규칙을 지정할 수 있는 기능을 지원한다. 오픈AI는 규칙을 지정하는 과정에서 윤리적인 문제가 발생하지 않도록 개인정보 보호 및 창작자의 권리를 보호하고 부정적인 콘텐츠를 제공하지 않아야 한다고 강조했다. 기본행동은 사용자가 요청한 질문에 정확한 답변을 제공하기 어려울 때 갈등을 처리하기 위한 행동 지침이다. 오픈AI는 최선의 의도를 가정하고 사용자를 판단하지 않고 균형을 맞추는 방법을 제시할 것을 원했다. 또한 거절이 필요할 경우 문장으로 표현해야 하며 설교적인 내용은 포함하지 않아야 한다고 강조했다. 오픈AI측은 “AI모델은 명시적은 프로그래밍이 아닌 광범위한 데이터로부터 학습하기 때문에 이러한 행동을 형성하는 것은 아직 초기 단계의 과학”이라며 “이 과정에서 어조, 성격, 응답 길이 등을 포함한 사용자 입력은 AI모델이 반응하는 과정에 매우 중요하다”고 설명했다. 이어서 “우리는 AI가 학습하는 과정을 이해하고 토론하는 것이 보다 안전하고 체계적인 AI를 개발에 중요하다고 생각해 이번 모델스펙 초안을 공개하게 됐다”며 “향후에도 모델 동작 설계에 대한 연구 및 경험, 작업 과정 등을 공유하려 한다”고 밝혔다.

2024.05.09 10:41남혁우

오픈서베이 데이터스페이스, 기존 유료 고객 90% 전환 성공

오픈서베이(황희영 대표)는 기존 서비스인 피드백 유료 고객 90%를 데이터스페이스 고객으로 확보하며 고객 경험 관리 플랫폼으로 입지를 다졌다고 9일 밝혔다. 오픈서베이가 리서치 및 경험 관리를 위해 개발한 B2B SaaS (기업용 서비스형 소프트웨어) 플랫폼 데이터스페이스는 그 전신인 피드백 활용 기업 대부분을 고객으로 확보하는 데 성공했다. 피드백은 데이터스페이스가 그 기능을 대체하며 4월부로 서비스를 종료했다. 오픈서베이는 기존 서비스에서 제공하던 ▲타깃팅·데이터 수집 ▲데이터 시각화·분석 기능에 ▲내외부 데이터 연동 ▲패널 관리 및 운영 기능 ▲협업·공유 기능 등을 추가해 데이터 활용성을 확장하고, 보안을 강화한 데이터스페이스를 지난해 12월 출시했다. 데이터스페이스를 통해 최근 1개월간 수집한 데이터 수는 29만 건이 넘고, 이는 오픈서베이 전체 트래픽의 약 30% 비중을 차지한다. 지속 증가하는 경험 데이터 수집량은 기업이 자사 제품 및 서비스 이용 고객의 경험 관리를 위해 데이터를 활용하려는 니즈가 더욱 커지고 있음을 방증한다. 실제로 유한킴벌리, 요기요, 무신사 등 소비재·IT·식음료를 포함한 업계 선두 기업에서는 데이터 활용을 극대화하고자 발 빠르게 데이터스페이스를 도입하고 있다. 배달앱 요기요는 앱 사용자에게 더 나은 경험을 제공하고자 관련 데이터를 수집해 적극 활용 중이다. 요기요 UX 리서치 랩에서는 "데이터스페이스는 다양한 설문 편집 기능으로 요기요 아이덴티티를 담은 설문을 제작하기에 적합하고, 쉬운 분석 툴 덕분에 요기요 사용자 경험을 다방면으로 분석할 수 있다"고 말했다. 황희영 오픈서베이 대표는 "서비스 간 경쟁이 치열한 환경에서 자사 고객을 지속 확보하려는 기업의 노력이 곧 고객 경험 관리로 이어지고 있다"면서 "경험 개선 방안 설계부터 실행, 효과 측정까지 비즈니스 성과로 이어질 수 있도록 데이터스페이스가 데이터 인프라로서 적극 지원하고자 한다"고 밝혔다.

2024.05.09 08:42백봉삼

'레드햇 오픈시프트 AI' 업데이트, 엣지로 AI 모델 배포 지원

레드햇은 개방형 하이브리드 인공지능(AI) 및 머신러닝(ML) 플랫폼인 '레드햇 오픈시프트 AI'의 업데이트 내용을 8일 발표했다. 레드햇 오픈시프트 AI는 기업이 하이브리드 클라우드 전반에 걸쳐 AI 지원 애플리케이션을 대규모로 생성하고 제공할 수 있도록 돕는다. 이번 업데이트는 기본 하드웨어부터 주피터나 파이토치와 같이 플랫폼 구축에 사용되는 서비스 및 도구에 이르기까지 지능형 워크로드에 대한 고객의 선택권을 보장하고자 하는 레드햇의 AI 비전을 강조한다. 레드햇의 AI 전략은 하이브리드 클라우드 전반에서 유연성을 지원하고, 고객 데이터로 사전 학습되거나 선별된 파운데이션 모델을 강화할 수 있는 기능 및 다양한 하드웨어·소프트웨어 가속기를 자유롭게 사용할 수 있는 기능을 제공한다. 새롭게 업데이트된 레드햇 오픈시프트 AI는 최신 AI·ML 혁신에 대한 액세스와 AI 중심의 광범위한 파트너 에코시스템 지원을 통해 이러한 요구 사항을 충족한다. 최신 버전인 레드햇 오픈시프트 AI 2.9는 엣지에서의 모델 서빙 기능을 제공한다. 엣지에서의 모델 서빙은 단일 노드 오픈시프트를 통해 AI 모델 배포를 원격으로 확장한다. 이는 외부와 연결이 끊겼거나(air-gapped) 간헐적(intermittent)인 네트워크 액세스 등 리소스의 제약이 있는 환경에 추론 기능을 제공한다. 이 기술 프리뷰는 조직에 코어부터 클라우드, 엣지에 이르기까지 확장 가능하고 일관된 운영 환경을 제공하며, 즉시 사용 가능한 통합 가시성을 포함한다. 향상된 모델 서빙 기능은 여러 모델 서버를 사용해 예측형 및 생성형 AI를 모두 지원할 수 있게 한다. 지원되는 내용으로는 모든 유형의 모델에 대한 서빙을 오케스트레이션하는 쿠버네티스 커스텀 리소스 정의인 K서브, vLLM 및 텍스트 생성 추론 서버(TGIS), LLM용 서빙 엔진, 자연어 처리(NLP) 모델과 작업을 다루는 Caikit-nlp-tgis 런타임 등이 포함된다. 향상된 모델 서빙을 통해 사용자는 단일 플랫폼에서 여러 사용 사례를 위한 예측형 및 생성형 AI 실행이 가능해, 비용을 절감하고 운영을 간소화할 수 있다. 이는 즉시 사용할 수 있는 모델 서비스를 LLM에 제공하고 주변 사용자 워크플로우 또한 간소화한다. 더 빠르고 효율적인 데이터 처리와 모델 학습을 위해 여러 클러스터 노드를 사용하는 코드플레어와 큐브레이를 통해 레이로 워크로드를 분산한다. 레이는 AI 워크로드 가속화를 위한 프레임워크이며, 큐브레이는 쿠버네티스에서 이러한 워크로드 관리를 돕는다. 코드플레어는 레드햇 오픈시프트 AI의 분산 워크로드 기능의 핵심으로, 작업 오케스트레이션 및 모니터링 간소화에 도움이 되는 사용자 친화적인 프레임워크를 제공한다. 또한 중앙 큐잉 및 관리 기능으로 최적의 노드 활용이 가능하고 GPU와 같은 리소스를 적절한 사용자 및 워크로드에 할당할 수 있다. 프로젝트 작업 공간과 추가 워크벤치 이미지를 통해 모델 개발을 개선해, 데이터 과학자가 다양한 사용 사례와 모델 유형에 대해 현재 기술 프리뷰로 제공되는 VS Code 및 RStudio, 향상된 CUDA를 포함한 IDE와 툴킷을 유연하게 사용할 수 있도록 한다. 성능 및 운영 메트릭에 대한 모델 모니터링을 시각화하여 AI 모델의 성능에 대한 가시성을 개선한다. 관리자가 모델 개발 및 모델 제공 워크플로우에 사용 가능한 다양한 유형의 하드웨어 가속기를 구성할 수 있도록 새로운 가속기 프로필이 추가됐다. 사용자는 이를 통해 특정 워크로드에 적합한 가속기 유형에 셀프서비스 방식으로 간단히 접근할 수 있다. 현재 IBM의 왓슨x.ai뿐 아니라 AGESIC과 오텍 파이낸스 등 다양한 산업 분야의 기업이 더욱 큰 AI 혁신과 성장을 추진하기 위해 레드햇 오픈시프트 AI를 도입하고 있다. 또한 다양한 파트너들과 협업을 통해 에코시스템을 확장하고 있다. 레드햇은 레드햇 오픈시프트 AI에서의 엔터프라이즈 AI 활용 강화를 위해 인텔과 협력한다고 발표했다. 양사는 가우디 AI 가속기, 제온 프로세서, 코어 울트라 및 코어 프로세서, 아크 GPU 등의 인텔 AI 제품에서 하이브리드 클라우드 인프라 전반에 걸친 모델 개발·교육, 제공, 관리, 관리·모니터링을 위한 엔드투엔드 AI 솔루션을 제공할 예정이다. 레드햇 오픈시프트 AI는 인텔의 AI 제품에 대한 일관된 지원을 제공해 조직이 다양한 환경에서 AI 애플리케이션을 원활히 배포할 수 있도록 지원한다. 양사는 이번 협력을 통해 데이터 센터에서 엣지까지 유연하고 탄력적인 AI 솔루션을 제공해 상호 운용성을 보장하고 확장 가능한 소프트웨어 제품을 통해 AI 혁신을 가속화할 예정이다. AI 워크로드의 구축, 배포, 관리에 대한 고객 선택권 확대를 위한 AMD의 협력도 발표했다. 레드햇과 AMD는 AMD GPU를 레드햇 오픈시프트 AI에 통합함으로써 AI 아키텍처에 더 큰 선택권과 유연성을 제공하고 AI 워크로드를 채택하는 기업의 진입 장벽을 낮춰 엔터프라이즈 AI 역량을 강화할 계획이다. 양사는 레드햇 오픈시프트 AI에서 AMD GPU 오퍼레이터를 지원해 AI 워크플로우의 간소화, 인프라 격차 해소, 지능형 애플리케이션의 시장 배포 가속화를 돕고, AMD 인스팅트 가속기에서 레드햇 오픈 하이브리드 클라우드 기술을 지원해 AI 혁신을 더욱 촉진하고 고객에게 향상된 GPU 리소스 선택권을 제공할 예정이다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "엔터프라이즈 AI를 도입하는 것은 이제 '만약'의 문제가 아니라 '언제'의 문제”라며 “기업은 생산성을 높이고 수익을 창출하며 시장에서 차별화될 수 있도록, 보다 안정적이고 일관되며 유연한 AI 플랫폼이 필요하다”고 설명했다. 그는 “레드햇 오픈시프트 AI는 엔터프라이즈 AI를 향한 대규모 수요에 대한 해답”이라며 “IT 리더는 레드햇 오픈시프트 AI를 통해 하이브리드 클라우드의 모든 곳에 지능형 애플리케이션을 배포하는 동시에, 운영 및 모델을 필요에 따라 성장시키고 미세 조정하여 프로덕션 애플리케이션과 서비스를 지원할 수 있다”고 강조했다.

2024.05.08 09:47김우용

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

"北 서울 공격 시 AI에 방어 맡겨도 될까?"…'AI 대부' 샘 알트먼 답변은

전쟁 시 인공지능(AI)에 의존해도 될 지를 두고 논란이 일고 있는 가운데 샘 알트먼 오픈AI 최고경영자(CEO)가 쉽지 않을 것이라고 봤다. 샘 알트먼 CEO는 7일(현지시간) 미국 워싱턴 싱크탱크인 브루킹스연구소가 'AI 시대의 지정학적 변화'를 주제로 연 대담에서 북한이 서울을 기습 공격해 한국이 이를 방어하려면 인간보다 대응 속도가 빠른 AI에 의존해야 하는 상황에 대해 질문을 받았다. 이날 진행자는 북한이 서울을 향해 전투기 100대를 출격시키고 한국이 AI가 통제하는 로봇 무리를 이용해 항공기를 전부 격추해 북한 조종사 100명이 목숨을 잃는 상황을 일단 가정했다. 또 어떤 상황에서 AI에 사람을 죽이는 결정을 맡겨도 되느냐는 취지로 물었다. 알트먼 CEO는 "항공기가 한국에 접근했고 인간이 의사 결정에 관여할 시간이 없을 때 AI가 요격을 결정할 수도 있다"면서도 "하지만 '그런 공격이 일어나고 있다고 정말 확신할 수 있나', '어느 정도로 확실해야 하나', '예상되는 인명 피해는', '회색지대의 어느 지점에 선을 그어야 하는가' 등 정말 따져봐야 할 것이 많다"고 답변했다. 이어 "누군가 'AI가 핵무기 발사를 결정할 수 있어야 한다'고 주장하는 것을 들은 적이 없다"며 "누가 접근하는 미사일을 요격할 때처럼 정말 빠르게 행동해야 할 때 AI를 사용해서는 안된다고 주장하는 것도 들은 적이 없다"고 덧붙였다. 그러면서 "(회색 지대인 만큼) 오픈AI에서 이런 결정을 하지 않아도 되길 바란다"고 말하며 이는 자신의 전문 분야가 아니라고 강조했다. 또 알트먼 CEO는 지정학적 경쟁이 AI 산업에 미치는 영향에 대한 질문에 대해선 "우리는 미국과 우리 동맹의 편"이라며 "이 기술이 인류 전체에 득이 되기를 원하지 우리가 동의하지 않는 지도부가 있는 특정 국가에 살게 된 사람들에게만 득이 되는 것을 원치 않는다"고 밝혔다. 더불어 그는 향후 AI를 구동하는 반도체, 데이터센터 등 시설이 중요해질 것이란 점도 강조했다. 또 AI기반 시설이 저렴해져 누구나 사용할 수 있도록 민간뿐 아니라 정부가 공공재로 투자하고 이를 사람들에게 공평하게 분배하길 바란다고 주장했다. 알트먼 CEO는 AI 기반 시설 확대와 관련해 "미국이 이끌면서도 넓고 포용적인 연합체가 이를 주도했으면 좋겠다"며 "미국만 AI 데이터센터를 지어야 한다는 방식은 통하지 않을 것"이라고 밝혔다.

2024.05.08 09:02장유미

오픈AI 의존 줄이려는 마이크로소프트, 자체 LLM 'MAI-1' 개발

마이크로소프트가 오픈AI에 대한 의존도를 줄이기 위해 자체 대규모 언어모델(LLM)을 개발 중이다. 6일(현지시간) 디인포메이션 등 외신은 마이크로소프트가 약 5천억 개의 매개변수를 갖춘 대규모 언어모델(LLM)을 개발 중이라고 내부 소식통을 통해 보도했다. 현재 개발 중인 LLM은 마이크로소프트 내에서 MAI-1이라고 불리며 최근 영입한 구글 딥마인드 공동 창업자이자 AI 스타트업 인플렉션의 전 최고경영자(CEO)인 무스타파 슐레이만이 총괄하고 있다. MAI-1는 이르면 이달 중순 개최하는 개발자 컨퍼런스 빌드에서 공개될 전망이다 5천억 개의 매개변수를 상용한 해당 모델은 GPT-3과 GPT-4 중간 수준의 규모지만 사용전력은 훨씬 낮은 것으로 알려졌다. 또한 마이크로소프트는 무스타파 슐레이만의 인플렉션AI에서 개발한 학습 데이터와 개발도구 등을 개발에 활용하고 있다. 더불어 엔비디아의 그래픽카드(GPU)가 장착된 장착된 '대규모 서버 클러스터'를 사용해 개발 프로세스를 진행 중이다. MAI-1의 사용 목적은 아직 공개되지 않았다. 다만, 매개변수의 규모로 보아 GPT-4와는 경쟁하기 어렵고 온디바이스AI로는 활용하기에는 규모가 큰 만큼 웹브라우저 빙과 애저 클라우드 서비스 등을 통합 관리하기 위한 자체 데이터센터에 적용될 가능성이 높을 것으로 점쳐지고 있다.

2024.05.07 11:04남혁우

샘 알트먼 체제 더 공고해지나…오픈AI 초기 멤버 2명 동시 사임, 누구?

'챗GPT' 개발사 오픈AI 초기 멤버 2명이 회사를 떠나면서 샘 알트먼 최고경영자(CEO) 체제가 한층 더 공고해진 분위기다. 7일 정보통신(IT) 전문 매체 디인포메이션에 따르면 오픈AI 부사장으로 근무했던 다이앤 윤, 크리스 클락 등 최고 경영진 구성원 2명이 최근 사임한 것으로 알려졌다. 경영진 2명이 같은 시기에 사임하는 것은 이례적으로, 지난해 11월 발생한 이사회 내 샘 알트먼 CEO 축출 사태 이후 오픈AI 경영진의 가장 큰 변화로 분석됐다. 이들의 사임 이유는 알려지지 않았다. 다이앤 윤 부사장은 오픈AI의 인사 책임자(VP of People), 크리스 클락 부사장은 비영리 및 전략 이니셔티브 책임자로 그간 활동했다. 이들은 오픈AI가 유명해지기 전부터 합류해 가장 오랜 기간 오픈AI에 몸을 담아온 멤버로 꼽힌다. 다이앤 윤은 2018년 3월 운영 매니저(Operations Manager)로 오픈AI에 들어온 뒤 인사 담당(HR) 이사를 거쳐 2021년 5월 인사 총책임자가 됐다. 앞서 오픈AI가 지난해 6월 영국 런던에 첫 해외사무소를 설치하기로 했을 당시 "첫 단계"라며 "앞으로 다른 나라로의 확장을 계획하고 있다"고 밝힌 인물로도 알려져 있다. 크리스 클락은 다이앤 윤보다 먼저 2016년 최고운영책임자(COO)로 오픈AI에 입사해 비영리 및 전략 이니셔티브 책임자(Head of Nonprofit and Strategic Initiatives)로 주요 전략 프로젝트를 이끌어왔다. 앞서 29살이던 2012년에는 최연소 실리콘밸리 마운틴뷰 시의원에 당선됐고, 2013∼2014년에는 최연소 마운틴뷰 시장을 지내기도 했다. 크리스 클락은 지난해 11월 알트먼 CEO가 축출된 뒤 복귀했을 때 자신의 엑스(X·옛 트위터)에 "오픈AI에서 8년 가까이 근무하면서 이보다 더 자랑스러웠던 적은 없었다"며 "우리 팀은 이 모든 시련을 겪으면서도 단합을 유지했고 그 어느 때보다 강해졌다"고 밝히기도 했다.

2024.05.07 09:47장유미

"챗GPT 검색 곧 나온다"…구글, 떨고 있나

오픈AI가 다음 주 챗GPT 기반 새로운 검색 엔진을 공개할 것이라는 소식이 흘러 나왔다. IT매체 안드로이드오쏘리티는 2일(이하 현지시간) 오픈AI가 새 검색엔진 도메인에 대한 SSL 인증서를 생성했다고 보도했다. 보도에 따르면, 온라인 커뮤니티 레딧의 한 사용자는 'search.chatgpt.com' 도메인에 대한 SSL 인증서가 신규로 생성된 것을 발견했다. 이후 인공지능(AI) 팟캐스트 운영자 피트(@nonmayorpete)가 자신의 엑스에 "Search(dot) ChatGPT(dot) com 5월 9일"이라는 트윗을 남기면서 새 검색엔진 서비스 출시에 대한 가능성이 제기됐다. 새로 등록된 도메인 이름은 곧 출시될 챗GPT 기반 검색 엔진을 가리키는 것으로 알려졌다. 몇 달 전 IT 매체 디인포메이션은 오픈AI가 빙을 기반으로 하는 웹 검색 제품을 개발하고 있다고 보도한 바 있다. 이에 안드로이드오쏘리트는 오픈AI가 검색 엔진을 새로 출시한다는 아이디어는 합리적이라며, 오픈AI의 주요 투자자인 마이크로소프트는 지금까지 빙 검색 엔진으로 구글 검색에 우위를 차지하지 못했다고 전했다. 새로운 챗GPT 검색 엔진은 구글의 생성형 AI 기반 검색기능인 SGE와 마찬가지로 AI 기반 요약과 빠른 결과를 제공할 수 있는 것으로 알려져 있다.

2024.05.03 16:05이정현

오픈마루 앱 성능관리 솔루션, 삼성 클라우드 플랫폼 등록

오픈마루의 애플리케이션 성능 관리 솔루션이 삼성클라우드플랫폼의 마켓플레스를 지원한다. 오픈마루 주식회사(대표 전준식)는 '오픈마루 APM(OPENAMRU APM)'을 삼성 클라우드 플랫폼(SCP) 마켓플레이스에 등록 완료했다고 3일 밝혔다. 오픈마루 APM은 삼성 클라우드 플랫폼(SCP) 마켓플레이스에서 4월 1일부로 이용 가능하며 카카오클라우드, AWS 자체 서비스 등 국내 주요 클라우드 서비스 제공사(CSP)에서 만나볼 수 있다. 오픈마루 APM는 오픈마루에서 자체 개발한 애플리케이션 성능 관리 솔루션이다. 애플리케이션의 성능을 실시간으로 모니터링하고, 문제를 빠르게 진단하여 사용자 경험을 향상시킬 수 있어 효율적인 리소스 관리와 비용 절감을 지원한다. 클라우드 네이티브와 하이브리드 환경에 최적화된 APM으로 모니터링을 비롯해라 장애 진단과 성능 최적화에도 특화되어 있다. 실질적인 트러블슈팅을 통해 지속적인 성능 최적화를 지원하며, 멀티캐스트 통신이 불가능한 환경과 유동 IP 환경에서도 모니터링을 지원한다. 애플리케이션 장애 상황 발생 시 '퀵서비스' 기능으로 2시간 이내에 전문 기술진이 장애 이슈를 진단하는 기술 지원 체제로 타 APM 제품과 차별점을 제공한다. 오픈마루는 디지털 서비스몰과 네이버 클라우드 플랫폼, NHN 클라우드, KT클라우드 등 추가적인 클라우드 서비스 제공사(CSP) 등록도 앞두고 있어 APM 시장 공략에 더욱 박차를 가할 예정이다. 전준식 오픈마루 대표는 “이번 삼성 클라우드 플랫폼(SCP) 마켓플레이스 성공적인 등록을 매우 기쁘게 생각한다”며 고객들이 플랫폼에 제한없이 애플리케이션 성능 관리 솔루션인 OPENMARU APM을 통해 비즈니스 성공에 기여할 수 있도록 혁신적인 기술과 서비스를 지속적으로 제공할 예정이라 밝혔다. 이어 오픈마루는 삼성 클라우드 플랫폼(SCP) 마켓플레이스 등록을 시작으로 고객들이 다양한 플랫폼을 통해 OPENAMRU APM 이용 가능하도록 최선을 다할 예정이라 전했다.

2024.05.03 14:40남혁우

앤트로픽, iOS용 클로드 출시 "누구나 사용하도록 무료 제공"

오픈AI의 경쟁사 중 하나인 앤트로픽이 클로드3기반 iOS앱을 공개했다. 최근 더레지스터 등 외신에 따르면 앤트로픽이 클로드 iOS앱을 출시했다고 공식 사이트를 통해 밝혔다. 클로드 모바일 앱은 모든 사용자에게 무료 제공되는 챗봇이다. 안드로이드용 앱도 곧 출시될 예정이다. 이 앱은 대화를 비롯해 실시간으로 촬영한 이미지나 갤러리에 저장된 이미지를 분석하거나 다양한 표나 그래프에 활용할 수 있다. 또한 웹과 연동 기능을 지원해 웹 브라우저 상에서 진행하던 업무나 대화를 모바일 환경에서 그대로 이어서 진행할 수 있도록 지원한다. 앤트로픽은 모바일 앱과 더불어 기업 사용자의 협업을 지원하기 위한 '팀 플랜'을 선보였다. 팀 플랜은 다수의 사용자가 효율적으로 업무를 수행할 수 있도록 지원하는 AI 협업 도구로 사용자당 월 30달러의 비용이 청구되는 유료 서비스다. 이 도구는 웹브라우저 버전의 유료 서비스인 프로 플랜보다 더 많은 사용량을 지원하며, 오퍼스, 소넷, 하이쿠 등 클로드3 모델 제품군을 사용할 수 있어 기업의 특성이나 비즈니스 목표에 따라 원하는 AI모델을 선택할 수 있다. 20만 줄 이상 텍스트를 지원해 연구 논문이나 법적계약서 등 장문의 문서를 처리할 수 있을 뿐 아니라, 재무 예측, 제품 로드맵 등 기업에 특화된 복잡한 내용도 자연스럽게 지원한다. 이 밖에도 AI모델을 보다 편리하게 제어할 수 있는 관리 도구와 민감한 비즈니스 데이터를 보호하기 위한 보안 서비스도 함께 지원한다. 다니엘라 아모데이 앤트로픽 공동 창업차는 “우리는 특정 산업이나 비즈니스에 상관 없이 모든 사용자들이 클로드를 사용할 수 있도록 제공하려 한다”며 “다만 다른 사람들에게 피해를 끼치는 행동에 AI를 악용하는 행위는 엄격하게 반대하는 지침을 갖추고 있다”고 강조했다.

2024.05.03 10:39남혁우

인텔, 500개 AI 모델 코어 울트라에 최적화

인텔은 2일 500개 이상의 AI 모델을 코어 울트라 프로세서용으로 최적화했다고 밝혔다. 코어 울트라 프로세서는 CPU와 아크 GPU 이외에 저전력·상시 AI 처리를 돕는 NPU(신경망처리장치)를 포함했다. 이를 탑재한 PC는 지난 해 12월 이후 현재까지 500만 대 이상 출하됐다. 인텔이 최적화한 500개 AI 모델은 오픈비노 모델주, 허깅페이스, ONNX 모델주, 파이토치 등 온라인 라이브러리를 통해 쉽게 도입할 수 있다. 미스트랄, 라마, 스테이블 디퓨전 1.5 등 주요 오픈소스 모델을 포함해 거대언어모델(LLM), 스테이블 디퓨전, 해상도 향상, 사물 인식, 사진 분류 등이 CPU와 GPU, NPU 등 코어 울트라 프로세서 내 자원을 활용해 구동된다. 인텔은 AI 모델 최적화에 CPU와 GPU, NPU를 모두 구동할 수 있는 오픈소스 AI 프레임워크인 오픈비노(OpenVINO)를 활용하고 있다. 오픈비노는 CPU와 GPU, NPU 등 모든 연산 자원을 고르게 활용하고 AI PC에서 효율적으로 각종 모델이 구동되도록 이를 압축하며 메모리 대역폭을 최대한 활용할 수 있도록 최적화하는 역할을 수행한다. 인텔은 지난 해 10월부터 AI 소프트웨어 확대를 위해 주요 소프트웨어 개발사, 개인 개발자나 스타트업 지원을 확대하고 있다. 또 최근 메타가 공개한 LLM인 라마3(Llama 3) 지원도 발표했다. 로버트 헐록 인텔 클라이언트 컴퓨팅 그룹 AI 총괄은 "인텔 코어 울트라 프로세서에 최적화된 AI 모델 500개 돌파는 AI 개발자에 강력한 개발 도구, AI 소프트웨어 이용자에 신뢰를 주겠다는 인텔의 의도를 반영한 것"이라고 밝혔다.

2024.05.02 10:47권봉석

마이크로소프트-오픈AI "GPT-4, 한국어 토큰 효율화 달성"

"국내 고객은 한국어로도 부담 없이 코파일럿 내 GPT-4로 개발할 수 있다. 마이크로소프트팀은 오픈AI와 손잡고 토큰 수 효율화를 이뤘다. 한국어 특성상 영어보다 평균 2배 더 많은 토큰 수가 필요했지만, 이젠 1.1배로 줄었다." 마이크로소프트 스콧 한셀만 개발자 커뮤니티 부사장은 30일 양재 aT센터에서 열린 '마이크로소프트 AI 투어 인 서울'에서 코파일럿 제품 내 탑재된 오픈AI의 GPT-4 토크나이저 효율화를 강조했다. 보통 토큰 수는 생성형 AI로 개발에 필수 요소다. 토큰 수에 따라 지불해야 하는 비용도 상이하다. 토큰 수가 많으면 사용자는 높은 비용을 지불해야 한다. 모델마다 한번에 입력할 수 있는 토큰 수도 정해졌다. 스콧 한셀만 부사장은 "보통 같은 질문을 모델에 입력할 때, 한국어는 영어보다 약 2배 더 많은 토큰 수가 필요하다"고 설명했다. 그는 이에 대한 근거도 제시했다. 마이크로소프트 아시아팀 분석 결과에 따르면, 한국어는 GPT-4에서 영어보다 평균 2.36배 많은 토큰 수가 들었다. 한셀만 부사장은 "토큰 효율화를 위해 마이크로소프트팀과 오픈AI가 손잡고 연구했다"며 "똑같은 질문에 언어마다 토큰 수 차이가 없도록 하기 위함"이라고 설명했다. 오픈AI 멀티모달 모델 GPT-4에 토큰 수 개선이 이뤄졌다고 했다. 그는 모델이 토큰 수 나누는 방식을 설명했다. 현재 GPT-4의 토크나이저는 BPE 기반으로 작동한다. 바이트 기반으로 토큰을 나눈다. 이는 한국어를 텍스트 처리할 때 자음과 모음의 결합으로 본다거나 형태소 단위로 수치화하지 않는다. 대신 특정 음절의 빈도수나 문장 복잡성에 기반해 토큰 수를 측정한다. 기존보다 토큰 수를 줄이는 방식이다. 시맨틱 커널 방식을 비롯한, 스플리팅 전략도 활용한다. 한셀만 부사장은 "오픈AI 모델은 시맨틱 커널 등으로 토큰 수를 측정하고 있다"며 "이에 따라 한국어는 영어보다 약 1.1배 더 많이 드는 수준"이라고 했다. 기존보다 토큰 효율화를 50% 이상 올린 셈이다. 해당 기능은 지난달 처음 공개한 바 있다. 그는 "현재 애저 오픈AI 서비스 등 다양한 제품에서 한국어 토큰 수 효율화를 경험할 수 있을 것"이라며 "한국어 처리 AI 미래에 큰 도움 될 것"이라고 했다. "한국어 AI 모델에 집착할 필요 없다" 업계에서는 애저 오픈AI 서비스 등 마이크로소프트 솔루션 내에서 한국어 토큰 효율화를 경험할 수 있을 것으로 내다봤다. 그동안 국내 AI 기업들은 GPT-4 토큰 비용을 언급한 바 있다. 국내 사용자가 한국어 기반 작업에 GPT-4를 이용하면 비싼 비용을 지불해야 한다고 지적했다. 이번 마이크로소프트와 오픈AI의 토큰 효율화 후 이같은 주장은 잠잠해질 것이라는 의견이 나오고 있다. 이날 부스를 지키던 마이크로소프트 관계자도 GPT-4의 한국어 토큰 효율성에 대해 재차 강조했다. 그는 "국내 사용자가 네이버 '하이퍼클로바X' 등 한국어 기반 모델을 굳이 활용하지 않아도 되는 시대"라며 "비슷한 비용으로 GPT-4를 통한 개발 작업을 한국어로 할 수 있을 것"이라고 강조했다.

2024.04.30 13:55김미정

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

부동산 RWA 플랫폼 오픈메타시티, 엑스플라와 MOU...생태계 확장 시도

메타버스 부동산 RWA 플랫폼 오픈메타시티(Open Meta City)가 사업 확장에 나선 가운데 엑스플라(XPLA)와 손을 잡고 생태계 확장에 나선다. 오픈메타시티는 컴투스 그룹이 참여한 엑스플라와 전략적 MOU를 체결했다고 29일 밝혔다. 이번 협약은 블록체인 기술의 검증 및 전문 지식 공유를 통해 양사의 생태계 확장을 목표로 한다. 주요 협력 영역으로는 오픈메타시티 서비스의 국내외 네트워크 확장, 신규 사업 발굴, 투자, 프로젝트 생태계 확대 지원 및 마케팅과 홍보를 위한 서비스 제휴가 포함된다. 오픈메타시티는 이 협약을 통해 서비스내 NFT의 활용성을 높이고, 토크노믹스를 발전시켜 토큰 홀더들에게 추가적인 혜택과 다양한 웹3 경험을 제공할 계획이다. 이 회사는 실제 자산을 디지털 자산으로 전환하면서 게임적인 재미요소를 접목한 메타버스 및 커뮤니티 서비스와 NFT 마켓플레이스를 통합한 글로벌 서비스를 제공하고 있다. 엑스플라는 컴투스 그룹이 참여하는 글로벌 메인넷으로 선도적인 블록체인 인프라를 구축하고 있다. 또한 다양한 기술 파트너들과 밸리데이터들과 협업하고 있다. 이번 MOU는 XPLA의 RWA 분야 진출이란 점에 의미를 더하고 있다. 양측은 기술적 역량과 전문 지식을 공유하면서 전통적인 실물 자산 시장 거래에 블록체인 기술을 접목해 보다 효율적인 방안을 제시한다. 앞서 오픈메타시티는 람다256, LG유플러스, 카카오엔터프라이즈 등 7개 기업이 참여한 웹3.0 생태계 더밸런스와 제휴를 했다. 또 임대 수익 보상포인트 OMC를 오픈메타시티가 발행한 OMZ토큰으로 교환할 수 있는 토큰스왑 기능을 제공 중이다. RWA는 실물연계자산을 뜻한다. 오픈메타시티는 부동산에 특화된 RWA 생태계를 구축했으며, 부동산 소유권을 NFT로 제공는 프로젝트에 나선 상태다. 서울, 뉴욕, 도쿄, 상하이, 파리 등 세계적인 도시의 실제 아파트, 콘도 등 건물의 정보를 데이터베이스로 구축했다. 이용자들은 가상 공간에서 토큰화된 부동산의 청약에 참여하거나 등기를 가상으로 진행할 수 있다. 박희종 오픈메타시티 대표는 "XPLA와의 제휴 협력을 통해 오픈메타시티의 글로벌 시장 확대에 박차를 가하겠다"라고 포부를 밝혔다.

2024.04.29 09:29이도원

애플, 오픈AI와 재논의 시작?…"생성형 AI 기능 강화 대화 재개"

애플이 올해 말 출시될 아이폰의 새로운 기능을 강화하기 위해 오픈AI와 논의를 다시 시작했다. 27일(현지시간)외신들은 이 문제에 정통한 소식통을 인용해 두 회사는 계약 조건과 오픈 AI의 기능이 차기 아이폰 운영체제인 애플의 iOS 18에 어떻게 적용할지 논의를 시작했다고 보도했다. 앞서 애플은 올해 초 오픈AI와 생성형 AI 기술 관련해 대화를 진행했지만 진전된 내용은 없었다. 외신은 이번 조치가 양 기업간 대화가 재개되는 것을 의미한다고 분석했다. 현재 애플은 알파벳(구글의 모회사)와 제미나이 챗봇 라이센스에 대해서도 논의 중이다. 다만 외신은 어떤 기업과 손을 잡을지, 거래 성사에 대한 보장도 없는 상황이라고 전했다. 올해 말 출시될 아이폰 운영 체제에는 애플의 대형 언어 모델(LLM)을 기반으로 하는 몇 가지 새로운 기능이 포함될 예정이다. 이와 더불어 애플은 오픈AI, AI 스타트업 앤트로픽과도 논의를 진행하고 있다는 보도가 나온 바 있다.

2024.04.28 09:08이한얼

IBM, 하시코프 64억달러에 인수…오픈소스 양날개 확보

IBM이 오픈소스 기반 클라우드 관리 자동화 솔루션업체 하시코프를 64억달러에 인수했다. 레드햇과 더불어 오픈소스 기반 비즈니스에 또 하나의 날개를 달았다. 지난 25일 IBM은 하시코프를 64억달러에 인수한다고 발표했다. 하시코프는 테라폼이란 인프라 자동화 플랫폼으로 주가를 높인 회사다. 테라폼은 소프트웨어 코드 형식로 인프라 프로비저닝를 프로비저닝할 수 있는 오픈소스 도구다. 하시코프는 테라폼의 엔터프라이즈 버전을 판매했으며, '코드형 인프라'란 개념을 개척했다. 애플리케이션 딜리버리 워크플로우 자동화 플랫폼 '웨이포인트', 서비스 디스커버리 플랫폼 '노마드', 마이크로서비스 아키텍처의 네트워킹 모니터링 플랫폼 '컨설', 보안 인증 플랫폼 '볼트' 등도 대표 상품이다. IBM은 하시코프의 제품 포트폴리오와 레드햇 포트폴리오를 결합해 IT 인프라 관리를 위한 광범위한 자동화 솔루션을 제공한다는 방침이다. 아빈드 크리슈나 IBM 최고경영자(CEO)는 "기업은 멀티 클라우드, 온프레미스 환경 및 애플리케이션에 걸쳐 퍼져있는 복잡한 기술 자산과 씨름하는데 어려움을 겪고 있다"며 "IBM의 포트폴리오 및 전문 지식과 하시코프의 역량 및 재능을 결합하면 AI 시대에 맞게 설계된 포괄적인 하이브리드 클라우드 플랫폼이 만들어질 것"이라고 강조했다. IBM은 하시코프를 주당 35달러 현금에 인수하기로 했다. 하시코프는 레드햇에 포함되지 않고, IBM의 소프트웨어 사업부에 속하게 된다. 앞으로 고객은 레드햇 앤서블 오토메이션 플랫폼과 테라폼 자동화를 함께 이용할 수 있게 된다. 아몬 대드가 하시코프 공동창업자 겸 최고기술책임자(CTO)는 "이는 하시코프의 사명을 더욱 발전시키고 IBM의 지원을 통해 훨씬 더 폭넓은 고객층으로 확장할 수 있는 기회라고 믿는다"며 "계속해서 제품과 서비스를 구축할 것이며 IBM에 합류하면 하시코프 제품을 훨씬 더 많은 사람들이 사용할 수 있게 돼 더 많은 사용자와 고객에게 서비스를 제공할 수 있다"고 밝혔다.

2024.04.26 11:54김우용

오픈서베이, 해외 진출 지원 맞춤형 소비자 데이터 활용법 공유

소비자 데이터 플랫폼 운영 기업 오픈서베이(대표 황희영)가 기업 실무자를 대상으로 지난 24일 '글로벌 소비자 조사' 웨비나를 진행했다고 밝혔다. 이번 웨비나는 글로벌 조사 지식과 실무 사례를 전하며 글로벌 진출을 통해 새로운 성장 동력을 찾으려는 기업을 지원하고자 열렸다. 웨비나에서는 ▲ 글로벌 조사 프로세스 ▲ 다국가 조사 결과 분석법 ▲유형별 글로벌 조사 사례 등을 소개했다. 연사로 나선 오픈서베이 김아영 글로벌 어카운트 리드는 웨비나에서 목적에 따라 글로벌 소비자 데이터를 확보하는 조사 방법론과 데이터 분석법을 소개했다. 또 북미 시장에 제품 추가 출시를 계획하는 식음료사, 한국·미국·일본 국가별 마케팅 전략 수립을 위해 각국 소비자 니즈를 비교 분석하려는 뷰티 기업 등 구체적인 글로벌 조사 사례를 살폈다. 웨비나에 기업 실무자 약 700명이 참석 등록했으며 그중 국내 대기업 및 글로벌 기업 재직자가 과반수를 차지했다. 글로벌 비즈니스를 이미 전개 중이거나 국내 시장에서 기반을 확고히 다진 기업에서 큰 관심을 보였다는 것이 오픈서베이의 설명이다. 실제로 기업 내 글로벌 진출 관련 투자가 증가함에 따라 오픈서베이 2023년 글로벌 조사 해외 매출도 전년 대비 50% 성장을 이룬 바 있다. 오픈서베이 김아영 리드는 "경기 침체와 내수 시장 경쟁 심화 속에서 많은 기업이 글로벌 조사에 관심을 보인다"며 "글로벌 진출 희망 기업이 국가별 특징에 따라 조사를 설계하고 맞춤형 소비자 데이터를 분석함으로써 시장 확장과 비즈니스 성장의 기회를 잡도록 오픈서베이가 지원할 것"이라고 덧붙였다.

2024.04.25 17:36백봉삼

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

"AI 다음은 로봇"…열리는 로봇 칩 선점 전쟁

지주사 주가 치솟자 재계 표정관리...승계 셈법 복잡

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.