• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'스노우플레이크'통합검색 결과 입니다. (73건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

스노우플레이크 "AI 개발자 일 평균 90개 앱 개발”

스노우플레이크는 대규모언어모델(LLM) 앱 중 챗봇 비중이 지난해 5월 대비 46%까지 증가했다고 16일 밝혔다. 스노우플레이크는 9천 개 이상 고객을 대상으로 데이터 및 AI 도입의 패턴과 트렌드를 조사해 '데이터 동향 2024 보고서'를 발간했다. 글로벌 엔터프라이즈 기업들이 AI 기술과 데이터를 비즈니스에 어떻게 활용하고 있는지를 다룬 이 보고서는 텍스트 입력 방식의 LLM 앱의 비중은 줄고(2023년 82%, 2024년 54%) 대화형 챗봇이 늘어나고 있다고 분석했다. 또한 스트림릿 개발자 커뮤니티를 대상으로 실시한 설문 조사에서 응답자의 약 65%가 업무용으로 LLM 프로젝트를 진행하고 있다고 답했다. 실제로 엔터프라이즈 고객들은 생성형 AI 기반 기술을 업무의 생산성, 효율성, 분석력을 높이는데 다양하게 사용하고 있다. 스노우플레이크 스트림릿 커뮤니티에 속한 전세계 약 2만 명 이상의 개발자들은 지난 9개월 동안 3만 3143개 이상의 LLM 앱을 구축했다. 이들이 가장 선호하는 프로그래밍 언어는 파이썬이었다. 스노우플레이크의 앱 구축 플랫폼인 스노우파크에서 지난해 파이썬 사용량은 5.71배 증가했다. 이는 3.87배, 1.31배 늘어난 스칼라, 자바에 비해 높은 수치다. 파이썬은 프로토타입 및 테스트 속도를 높여 전체 작업 속도는 물론 최첨단 AI 프로젝트의 초기 단계에서 전반적인 학습 속도를 높인다. 최근에는 LLM 앱을 개발할 때 데이터 관리 플랫폼 위에서 프로그래밍하는 사례도 늘고 있다. 스노우플레이크 플랫폼에서 직접 앱을 개발할 수 있는 활용도는 지난해 7월부터 올해 1월, 7개월 사이 3배 이상 증가했다. 단일 데이터 플랫폼에서 개발한 애플리케이션은 외부 업체로 데이터 복사본을 내보낼 필요가 없어 앱 개발과 배포가 빨라지고 운영 및 유지보수 비용을 줄일 수 있다. AI 도입과 함께 조직 내 비정형 데이터에 대한 분석과 처리도 늘었다. 이 과정에서 활용되지 않은 새로운 데이터 소스를 발견할 수 있고, 민감한 개인 데이터를 보호하기 위한 데이터 거버넌스도 중요해졌다. 스노우플레이크 보고서에 따르면 기업들이 지난 한 해 동안 처리한 비정형 데이터의 양은 1.23배 증가했다. 글로벌 시장분석 기관 IDC는 전 세계 데이터의 최대 90%를 비정형 동영상과 이미지 및 문서로 추산하고 있다. 이미 언어모델 훈련이 일반화된 정형 데이터와는 달리 비정형 데이터의 가공은 기업의 비즈니스 경쟁력을 높일 수 있는 새로운 기회가 될 것이다. 제니퍼 벨리센트 스노우플레이크 데이터 전략 수석은 “데이터 거버넌스는 데이터를 통제하는 것이 아니라 궁극적으로 데이터의 가치를 활용하는 것”이라고 강조하며 “스노우플레이크는 거버넌스를 ▲데이터 수집 ▲데이터 보안 ▲데이터 활용, 3가지 축으로 분류하고 고객들은 기업에 적합한 액세스와 사용 정책을 적용하기 위해 데이터를 태그하고 분류할 수 있도록 했다”고 설명했다. 그 결과, 스노우플레이크 고객의 데이터 거버넌스 기능을 도입한 기업은 70%에서 100%로 늘었고, 거버넌스 내 운영되는 쿼리 수도 142% 증가했다. 더불어 벨리센트 수석은 “각각의 데이터들은 기업들이 당면한 문제에 대해 어떻게 대응하는지를 보여준다. 이 개별적인 데이터 포인트들을 전체로 보면, 최신 AI 기술 기회를 활용한 조직의 통합적인 전략을 세울 수 있다”며 “생성형 AI 시대의 핵심 전략은 데이터를 바꾸는 근본적인 변화가 아니라 그 전략을 바로 실행하도록 하는 것이다. 이를 위해서 기업들은 광범위한 데이터 생태계에 펼쳐진 데이터소스를 오픈하고 공유해 데이터 사일로를 허무는 것이 중요하다”고 전했다. 제니퍼 벨리센트 스노우플레이크 데이터 전략 수석은 "대화형 앱은 사람들이 실제 상호작용하는 방식으로 프로그래밍돼 이제 사람과 대화하듯 LLM과 쉽게 상호작용할 수 있다”며 “특히 LLM 앱의 기초가 되는 데이터의 거버넌스와 보안이 보장된다면 대화형 앱은 기업과 사용자 모두의 기대치를 충족하며 활용도가 확대될 것”이라고 밝혔다.

2024.05.16 16:19김우용

[기고] 스노우플레이크가 제안하는 기업 환경을 위한 생성형 AI

생성형 AI는 생산성을 개선하며 데이터에서 더 많은 가치를 창출하는 새로운 방법을 제시한다. 하지만 기업은 생성형 AI를 도입하기에 앞서 '데이터는 과연 신뢰할 수 있는 것인가?', '새로운 기술 채택을 위해 컴퓨팅 환경을 새롭게 구축해야 하는가?', '생성형 AI 기능을 제공하는 애플리케이션을 구축하고 운영해야 하는가?'와 같은 다양한 고민이 생긴다. 그런데 흥미로운 것은 이 모든 고민들의 출발은 '데이터'라는 분명한 사실이다. 기업은 올바른 데이터 전략 없이 올바른 AI 전략을 수립할 수 없다. 본 글에서는 스노우플레이크 단일 플랫폼에서 제공하는 생성형 AI와 관련 기능에 관해 설명하고자 한다. 기업 환경에서 안전한 생성형 AI 활용을 위해 데이터, 대규모언어모델(LLM), 심지어 생성형 AI 애플리케이션까지 일관되게 적용할 수 있는 광범위한 데이터 보안 및 거버넌스 체계를 구축해야 한다. 또한 데이터와 이 데이터로 학습된 모델을 포함해, 전체 생성형 AI 스택들이 안전하게 보호되어야 한다. 데이터 플랫폼과 LLM 환경을 통합하여 기업 데이터가 외부로 유출되는 것을 방지하고 새로운 기술을 위한 투자 비용을 최소화하는 것도 중요하다. 아래 그림은 스노우플레이크 데이터 클라우드 플랫폼에서 제공하는 생성형 AI 기능이다. 이 모든 기능은 데이터를 기반으로 한다. 기업 전반에 분산된 데이터는 데이터의 유형, 형식, 구조와 관계없이 단일 플랫폼에 통합돼 안전하게 보호 및 관리된다. ■ 데이터에 LLM 가져오기 생성형 AI를 위한 데이터가 준비되면 사용자는 LLM 관련 기능을 안전하고 자유롭게 사용할 수 있어야 하고, AI 애플리케이션도 빠르게 구축, 활용할 수 있어야 한다. 또한 생성형 AI가 제공하는 잠재력을 최대한 활용하기 위해서는 전문가뿐만 아니라 AI 전문 지식이 없는 사용자 누구라도 서비스를 쉽고 안전하게 접할 수 있어야 한다. 이를 위해 스노우플레이크는 데이터가 있는 환경에 LLM 관련 기능을 제공하고자 스노우플레이크 코텍스(Cortex)를 개발했다. 스노우플레이크 플랫폼에서는 미스트랄, 메타, 구글에서 제공하는 LLM 모델뿐만 아니라 자체 개발한 LLM이 내장된 상태로 제공된다. 다양한 LLM은 스노우파크 컨테이너 서비스(SPCS)를 통해 데이터 플랫폼 내에서 실행, 파인튜닝 된다. 코텍스에서 제공하는 다양한 기능으로 개발 생산성과 사용자 경험을 개선하고 새로운 분석 인사이트 또한 제공할 수 있다. 이러한 LLM 관련 기능들은 서버리스 기반의 완전 관리형 서비스로 제공되기 때문에, 사용자는 생성형 AI를 위해 높은 비용을 들여 GPU 인프라를 구축하거나 관리할 필요가 없다. 필요한 시점에 코텍스에서 제공하는 서비스를 사용할 수 있으며, 사용한 만큼의 비용만 과금되기 때문에 효율적인 비용으로 생성형 AI 기반의 새로운 사용자 경험을 누릴 수 있다. 스노우플레이크 플랫폼에 내장되지 않은 다른 LLM이나 AI21 랩스, 레카(Reka), 엔비디아 네모(NeMO) 등 상용 LLM들도 스노우플레이크 마켓플레이스를 통해 사용자 환경에 간편하게 설치하고 실행할 수 있다. ■ 스노우플레이크 코텍스 스노우플레이크 코텍스는 스노우플레이크 데이터 클라우드 플랫폼의 핵심 생성형 AI 기능이다. 코텍스는 사용자가 프롬프트를 정의할 필요 없이 번역, 감정 분석, 요약과 같은 작업을 빠르고 비용 효율적으로 실행할 수 있는 기능을 제공한다. 코텍스는 LLM에 관련된 다양한 기능들을 다음과 같은 관리형 함수로 제공한다. -EXTRACT_ANSWER(미리보기): 질문과 구조화되지 않은 데이터가 입력되면 질문에 대한 답변을 제공한다. -SENTIMENT(미리보기): 요청 받은 텍스트에서 감지된 긍정 또는 부정적 감정을 제공한다.(긍정:1, 부정:-1) -SUMMARISE(미리보기): 요청 받은 텍스트의 요약을 제공한다. -TRANSLATE(미리보기): 요청 받은 텍스트를 다른 언어로 번역한다. 코텍스의 첫 번째 장점은 사용 편의성이다. 생성형 AI 기능 구현을 위해 별도의 인프라 구축이나 관리가 필요 없다. 두 번째는 구현 편의성이다. 소개한 생성형 AI 기능들은 복잡한 구현 없이 단순하게 코텍스에서 제공하는 함수를 SQL이나 파이썬 코드에서 호출하면 된다. 이외에도 코텍스는 COMPLETE 함수와 TEXT2SQL 함수를 추가로 제공한다. -Complete(미리보기): 프롬프트의 입력값을 대상으로 LLM을 사용해 응답 텍스트 결과를 제공한다. -Text2SQL(미리보기): 프롬프트에 입력된 자연어를 기반으로 스노우플레이크에서 실행 가능한 SQL문을 제공한다. 이 함수들은 다양한 LLM을 서버리스 기반의 SQL 또는 파이썬 함수 형식으로 제공하는 것이 특징이다. 사용자는 미스트랄, 라마 및 구글의 LLM을 요구사항에 맞게 선택해 사용할 수 있다. COMPLETE와 TEXT2SQL 함수는 스노우플레이크 환경에서 운영되는 앱 개발에도 쓰일 수 있다. 스트림릿에서 개발한 단 몇 줄의 파이썬 코드로 특정 업무 목적에 맞는 챗봇을 개발하거나 커스터마이징한 코파일럿을 개발해 활용할 수 있다. ■ 도큐먼트 AI(미리보기 기능) 도큐먼트 AI는 스노우플레이크의 자체 멀티 모달 LLM을 활용해 비정형 파일(예: PDF, WORD, TXT 등)을 새로운 데이터 소스로 처리하는 기능이다. 비정형 데이터를 정형화할 수 있는 파이프라인 기능이 포함돼 있으며, 직관적인 UI로 데이터를 사전 학습하고 비정형 데이터에서 필요한 정보를 자연어 기반으로 쉽게 추출할 수 있다. ■ 유니버설 서치(미리보기 기능) 유니버설 서치는 스노우플레이크 플랫폼 내의 데이터와 앱을 간편하게 검색하고 사용할 수 있게 하는 LLM 기반 검색 기능이다. 데이터베이스, 테이블, 칼럼과 같은 메타 정보를 탐색하는 데이터 거버넌스 기능으로 활용할 수도 있다. 마켓플레이스의 데이터나 앱을 쉽게 검색하거나, 스노우플레이크와 관련된 기술 사항을 자연어 기반으로 질의하고 원하는 답변을 얻음으로써 사용자 경험을 개선하는 용도로 활용된다. ■ 스노우플레이크 코파일럿(미리보기 기능) 코파일럿은 자연어로 SQL을 생성하고 구체화하는 LLM 기반의 개발 도우미다. SQL을 모르는 사용자도 쿼리를 생성하고 구체화함으로써 데이터 분석에 대한 어려움을 낮추고 진정한 '데이터 민주화'를 경험할 수 있다. 이 텍스트 코드 변환 기능은 앞서 설명한 코텍스의 Text2SQL 함수를 사용해 함수 또는 사용자 애플리케이션에서 활용할 수 있다. ■ 스노우플레이크 아크틱 스노우플레이크는 올해 4월 아파치 2.0 라이선스로 업계 최고 수준의 개방성과 성능을 제공하는 기업용 LLM인 '스노우플레이크 아크틱'을 출시했다. 이 파운데이션 모델은 스노우플레이크만의 독창적인 전문가 혼합(MoE) 아키텍처로 설계돼 동급 최고의 성능과 생산성을 보인다. 스노우플레이크 아크틱은 다음과 같이 다섯 개의 서로 다른 용량을 가진 모델을 제공한다. 아크틱은 스노우플레이크 AI 연구소에서 실제 검색 워크로드에 중점을 두고 개발한 LLM이다. MTEB에 따르면 3억 3천400만 개의 매개 변수를 가진 아크틱(Snowflake Arctic-Embed-L) 모델은 오픈AI에 비해 추정 매개변수가 4분의 1 수준밖에 되지 않는다. 데이터의 차원은 3분의 1 수준이지만, 검색 성능은 더 높다. 이는 10억 개 이상의 매개변수를 가진 모델들도 달성하기 어려운 성능이다. 아크틱의 주요 특징은 다음과 같다. -아크틱 임베드 모델은 5가지 크기(X-Small부터 Large)로 제공된다. 모델의 크기는 2천300만~3억 3천400만 개의 매개변수로 구성돼 있으며, 사용자는 요구사항에 따라 적합한 모델을 선택하여 사용할 수 있다. -아크틱은 아파치 2.0 라이선스를 통해 제공되며, 가중치, 코드, 데이터 레시피 및 연구 과정에서 얻은 다양한 인사이트를 제공한다. -아크틱은 Dense + MoE 아키텍처를 혼용해 설계됐다. 이에 학습 효율성은 높아졌고 더 낮은 비용으로 더 나은 성능을 제공한다. 아크틱 모델의 크기는 유사한 품질의 임베딩 모델과 비교해 더 작기 때문에 대기 시간을 줄이고 TCO를 절감하는 데 도움이 된다. -검색 증강 생성(RAG) 또는 시맨틱 검색 서비스에서 아크틱을 사용할 경우, 높은 검색 성능에 기반한 고품질의 서비스를 제공할 수 있다. -스노우플레이크 아크틱은 현재 허깅페이스에서 직접 다운로드 받아 사용할 수 있으며, 곧 스노우플레이크 코텍스에 통합될 예정이다. 또한, 아마존웹서비스(AWS), 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 레플리케이트 및 투게더 AI의 카탈로그를 통해서도 제공될 예정이다. -일반적인 메트릭스를 위한 모델 훈련과 달리 아크틱은 SQL 생성, 코딩 지원 및 명령 이행과 같이 기업 환경에서 뛰어난 성능을 제공하기 위한 특화된 데이터 커리큘럼을 채택했다. 그동안 AI 모델 학습 알고리즘은 심층 신경망(DNN), 순환신경망(RNN), 장단기 기억(LSTM) 등을 거쳐 트랜스포머까지 꾸준히 발전해 왔지만, AI 모델 분야에서 트랜스포머 이후로 획기적인 발전을 이뤄내지는 못했다. 오픈AI가 매개변수를 늘려 LLM을 선보인 이후부터는 알고리즘 개선보다는 아키텍처 개선에 집중하기 시작했다. 현재 AI 아키텍처는 환각 현상, 경량화, 그리고 혼합이라는 세 가지 관점에 주력하고 있다. 아크틱의 가장 큰 장점은 앞서 설명한 세 가지 주력 사항을 모두 개선하는 독점적인 MoE 아키텍처를 기반으로 설계되었기 때문에, 작은 모델을 유지하면서도 효율적으로 실행한다. 다음 그림과 같이 아크틱은 유사한 다른 모델과 비교해 뛰어난 학습과 추론 성능을 보인다. 아크틱 모델 학습의 경우, 서로 다른 데이터 세트로 구성된 세 단계로 나눠 진행한다. 첫 단계에서는 1T 토큰을 사용해 일반적인 기술을 학습하고, 이후 두 단계에서는 1.5T 및 1T 토큰을 사용해 기업 중심의 기술을 집중적으로 학습한다. 이러한 점진적인 학습 과정은 더욱 복잡한 매트릭스를 효과적으로 학습할 수 있는 기반을 제공한다. 아크틱 모델 추론 효율성도 학습과 마찬가지로 좋은 성능을 제공한다. 아크틱 모델은 특정 작업을 수행할 때 필요한 매개변수만을 활성화 상태로 유지하기 때문에 전체적인 연산 비용을 절감하고, 빠르고 효율적인 추론을 가능하게 한다. 빠른 추론 성능은 기업 환경에서 LLM을 사용하는 경우 매우 중요한 평가 지표로 여겨진다. 일반적으로 LLM은 매개변수 수가 많은 모델을 의미한다. 이러한 파운데이션 모델의 가장 큰 문제점은 높은 비용이다. 초창기 LLM 분야에서는 고밀도 트랜스포머 아키텍처를 주로 선택했다. 모델 품질 개선을 위해 모델 크기를 쉽게 확장할 수 있었기 때문이다. 하지만 임계값 이상으로 모델 크기를 확장하기 위해서는 높아지는 연산 복잡도만큼 많은 컴퓨팅 비용이 소요된다. 오늘날 GPU는 매우 비싼 리소스이기 때문에 기존 고밀도 트랜스포머 모델을 학습하는 것은 시간과 비용 측면에서 큰 투자가 아닐 수 없다. 이러한 문제점을 해결하기 위해 사용된 방법이 MoE 아키텍처이다. MoE 아키텍처는 모델 레이어를 전문가 하위 네트워크가 원래 레이어와 동일한 크기의 MoE 레이어로 대체한다. 이로써 모델 학습과 추론에 필요한 컴퓨팅 비용을 증가하지 않으면서도 모델 품질을 향상한다는 장점이 있다. 스노우플레이크 AI 연구팀은 MoE 모델 내의 전문가 수와 전체 매개변수의 크기, 그리고 이 전문가를 조합하는 방법에 따라 모델 품질을 향상할 수 있다는 것을 입증했다. 480억 매개변수로 설계된 아크틱의 경우 세분된 128개의 전문가를 가지고 있으며, 이들 중 상위 2개의 전문가만 선택해 동작하도록 설계됐다. 이 과정에서는 17억개 규모의 매개변수만이 활성화되기 때문에 다른 MoE 아키텍처 기반의 LLM과 비교했을 때 탁월한 자원 효율성과 성능을 보인다. 또한, 스노우플레이크 아크틱은 학습 비용을 크게 절감했다. 이 모델은 아마존 EC2 P5 인스턴스를 통해 유사한 다른 모델들의 약 8분의 1 정도의 학습 비용만 사용하며 비용 효율성을 실현했다. 이러한 경제적인 이점은 기업 환경에서 비용 부담 없이 대규모 데이터와 복잡한 워크로드를 처리하는 데 도움을 줄 것이다. 앞으로 더 많은 기업이 스노우플레이크 데이터 플랫폼에 결합한 고성능 언어 모델을 접하고 그 무한한 가능성을 경험할 수 있기를 기대한다.

2024.05.07 11:30조성현

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

[기고] 기업 경쟁력 좌우하는 생성형 AI, 어떻게 시작할 것인가

2023년 우리 모두는 챗GPT가 제공한 새로운 서비스를 경험했다. 생성형 AI와 대규모 언어 모델(LLM)은 개인과 직업의 환경을 혁신적으로 변화시키고 있다. 기업들도 불과 1년 만에 대다수가 생성형 AI에서 제공하는 서비스를 통해 비즈니스 역량을 강화하려는 시도를 하고 있다. 본 글에서는 생성형 AI와 대규모 언어 모델(이하 LLM)이 무엇이며 기업들은 이 서비스를 어떤 분야에 활용할 수 있는지 살펴보고자 한다. 생성형 AI는 신경망과 딥러닝 알고리즘을 사용하여 기존 머신러닝 모델과는 근본적으로 다른 복잡한 콘텐츠, 이미지, 동영상, 오디오 또는 코드를 생성하는 AI의 한 종류이다. 생성형 AI는 전통적인 머신러닝, 딥 러닝 모델보다 훨씬 많은 양의 데이터가 필요하다. 이렇게 훈련된 범용 모델을 파운데이션 모델이라고 한다. 파운데이션 모델을 개발하려면 방대한 양의 데이터와 고성능 컴퓨팅 리소스가 필요하기 때문에 일부 빅테크 회사만이 LLM 개발 및 개선 작업에 적극적으로 참여해왔다. 하지만 최근에는 오픈 소스 파운데이션 모델이 널리 공유돼 파운데이션 모델을 직접 개발하지 않아도 활용할 수 있게 되었다. 덕분에 일반 기업들도 '파인 튜닝'을 통해 LLM을 특정 도메인에 맞게 훈련시키고 자체 비즈니스 요건에 맞게 애플리케이션을 개발하여 사용할 수 있게 됐다. 파인 튜닝은 특정 비즈니스 요건이나 업무 도메인에 맞게 사전 훈련된 LLM에 특정 데이터셋을 사용해 추가적인 학습을 수행하는 작업을 말한다. 챗GPT의 성공 후, 이 시장에 뛰어든 후발 주자 빅테크 기업들은 경쟁력을 확보하기 위한 수단으로 자체 개발하는 LLM의 매개변수를 기하급수적으로 늘려 빠르게 성능을 올리는 전략을 채택했다. 매개변수는 사람의 뇌에서 정보를 처리하고 통합하는 시냅스와 같은 역할을 한다. 매개변수가 많을수록 LLM은 더 많은 정보를 저장하고 더 다양한 패턴을 학습함으로써 세밀한 언어 이해와 콘텐츠 생성을 할 수 있다. 하지만 더 많은 컴퓨팅 자원과 저장 공간이 필요하고 이 모델을 학습하는 데 더 많은 시간이 걸릴 수밖에 없다는 한계가 있다. 이에 반해 매개변수가 적은 LLM은 학습할 때 컴퓨팅 리소스가 덜 필요하기 때문에 파인 튜닝이나 배포가 상대적으로 용이하다. 최근에 공개되고 있는 대다수 LLM의 성능은 상향 평준화되고 있다. 특히 메타의 오픈소스 LLM인 '라마'가 다른 모델에 비해 상대적으로 적은 매개변수를 사용하면서 일정 수준의 성능을 보장한다. 이렇듯 모델 경량화와 최적화는 오늘날 LLM을 선택하는 데 중요한 기준으로 자리 잡았다. ■ LLM에 대한 이해 범용 LLM은 자연어와 컴퓨터 프로그램 언어를 이해할 수 있으며 광범위한 작업을 처리할 수 있다. 인터넷상에 존재하는 방대한 양의 데이터로 사전학습 되어 있으며, 모델 목적과 관련된 특정한 데이터 소스를 활용해 추가 학습할 수도 있다. 이러한 특성 때문에 LLM은 거의 모든 주제에 대한 문맥과 관련된 정보를 생성할 수 있다. 앞서 언급한 파운데이션 모델은 특정 도메인에 국한되지 않고 사용할 수 있는 생성형 AI 모델의 하나이다. 특정 작업이나 도메인 업무에 유용성을 높이기 위해 파운데이션 모델은 사용 목적에 맞게 전문화, 파인 튜닝 또는 수정이 가능하다. 일반적인 파운데이션 모델은 다음과 같이 구분할 수 있다. 작업에 특화된 LLM: 메타의 코드 라마와 같이 특정 업무 영역별 LLM은 프로그래밍 코드 작성과 같은 전문화된 작업에 특화됐다. 도메인에 특화된 LLM: 특정 주제나 산업에 생성형 AI 기술을 적용할 수 있다. 예를 들어, 의료 산업에 대해 학습한 엔비디아의 BioBERT는 제약 업계의 신약 개발과 관련한 논문을 이해하고 의료 문서에서 정보를 검색 및 추출할 수 있다. 앞서 살펴본 LLM은 법률, 미디어, 사이버 보안과 같은 다양한 분야의 도메인에 맞는 데이터를 통해 파인 튜닝될 수 있다. 이는 텍스트에만 국한되지 않으며, 오디오, 이미지, 동영상과 같은 다양한 멀티모달 콘텐츠 역시 생성할 수 있기 때문에 활용 분야는 굉장히 다양해질 수 있다. LLM이 문장뿐만 아니라 문맥을 이해할 수 있는 것은 데이터 세트를 다차원 공간에서 벡터 형식으로 변환한 단어를 활용하기 때문이다. 벡터 임베딩 기술은 자연어의 정량적 표현을 처리하고 저장하는 가장 효율적인 방법이다. 두 단어를 표현하는 벡터 간의 거리와 유사한 메트릭을 기반으로 데이터를 식별하고 처리함으로써 모델 내부에서 정보를 쉽게 비교·분석할 수 있고 정보 처리 시간 또한 크게 단축할 수 있다. 아래 그림과 같이 단어를 공간상의 벡터로 표현하고, 연관된 단어들을 인접한 곳에 배치함으로써 단어의 문맥적 언어를 이해하고 판단하는 것이다. 때문에 LLM 내부에서 벡터 데이터베이스를 사용하면 생성 및 추론 과정에서 AI 시스템이 관련 데이터를 빠르게 검색할 수 있으며, 검색, 추천, 텍스트 생성과 같은 다양한 용도로 활용할 수 있다. 또한, 검색증강생성(RAG), 벡터 유사성 검색(VSS)과 같이 문장을 맥락화하는 데 유용한 기술들이 백터 검색 기능으로 구동된다. 여기서 주목해야 하는 기술은 바로 RAG다. RAG는 맞춤형 데이터를 통해 LLM의 검색 정확도를 개선할 수 있는 프레임워크다. 파운데이션 모델은 광범위한 인터넷 정보를 기반으로 학습되었기 때문에 하나의 모델로 다양한 유형의 질문에 응답할 수 있지만, 학습되지 않은 데이터에 대한 질문을 받는 경우 오답을 할 확률이 높아진다. 기업 환경에서 사용하려는 LLM은 범용 데이터가 아닌 특정 도메인을 이해해야 하며, 이 도메인 정보를 기반으로 답변을 제공할 필요가 있다. 하지만 파운데이션 모델이 특정 도메인에 맞게 재학습하는 데는 비용이 너무 많이 들고 학습하는 시간도 오래 걸린다. 이 같은 문제를 해결하기 위해 RAG는 LLM이 사전에 학습한 데이터에만 의존하는 것이 아니라 질문받은 시점에 동적으로 관련된 데이터를 검색하고 증강된 문맥 속에서 답변을 생성한다. 이 과정을 거치면 답변 정확도가 크게 개선된다. 기업들은 RAG를 통해 LLM을 파인 튜닝하거나 사전 학습에 필요한 비용과 시간을 절약하고, 소량의 데이터만으로도 모델 정확도를 높일 수 있다. 다음 그림은 RAG로 파운데이션 모델의 정확도를 얼마나 효율적으로 개선할 수 있는가에 대한 연구 결과이다. ■ 기업 환경에서 활용할 수 있는 생성형 AI LLM은 콘텐츠 생성, 논리 추론, 언어 번역, 텍스트 검색, 프로그램 코드 생성, 콘텐츠 요약 및 검색 등을 주요 기능으로 삼는 수많은 고급 애플리케이션의 기반을 마련했다. 1. 콘텐츠 생성 간소화 생성형 AI는 텍스트, 사운드, 이미지 등 다양한 유형의 미디어를 생성하여 콘텐츠 제작을 간소화할 수 있다. 기업의 마케팅 부서에서는 캠페인 업무를 위한 맞춤형 이미지 제작을 포함해, 블로그, 기사, 소셜미디어 콘텐츠, 그리고 제품 설명 초안을 생성하는 데 활용할 수 있다. 다른 부서에서도 현업 사용자를 위한 챗봇 애플리케이션을 개발하거나 판매, CRM과 같은 고객 데이터를 활용해 고객 개인화 서비스 개선 또는 맞춤형 캠페인을 위한 콘텐츠 생성에 활용할 수 있다. 2. 논리적 추론 엔진으로 활용 AI 분야에서 자연어 이해는 인간의 복잡한 의사소통의 의미를 이해하는 데 사용된다. LLM은 제품 리뷰, 소셜미디어의 게시글, 고객 설문조사 결과와 같은 텍스트의 의미를 이해하고 콘텐츠 속 감정을 분석하거나 기타 복잡한 추론 작업에 활용될 수 있다. 3. 언어 번역 정확도 개선 다중 언어 간 번역 정확도를 높여 언어 장벽이 있는 사람들의 소통을 더 쉽게 도와준다. 4. 검색 및 요약 LLM은 방대한 양의 데이터를 사전 학습해 언어의 맥락을 파악하고 텍스트의 의미를 이해할 수 있다. 때문에 대규모 데이터베이스나 인터넷의 데이터를 검색하여 사용자 질문에 맞춤형 답변을 찾을 수 있다. 또한, 원래 데이터의 정보를 기반으로 간결한 요약본을 생성할 수 있다. 앞서 살펴본 생성형 AI와 LLM은 거의 모든 분야와 주제에 대해 사용할 수 있기 때문에, 개인 삶뿐만 아니라 업무 방식 역시 혁신적으로 변화시킬 수 있다. 이에 기업들은 생산성 향상, 프로세스와 수익성 개선 등을 위해 생성형 AI가 가진 엄청난 잠재력을 활용해 다양한 분야에서 적용 및 도입을 고려하고 있다. 하지만, 생성형 AI를 기업 환경에서 활용하기 위해서는 고려해야 할 사항이 많다. 지식재산권, 데이터 개인 정보 보호, 콘텐츠 오용 가능성 문제 등 지금껏 일반적으로 알려진 사항뿐만 아니라 '생성형 AI를 기업환경에 구축하기 위해 뒷받침되어야 할 것은 무엇인가', '어떤 업무에 적용할 것인가', '어떤 모델을 사용할 것인가', '투자 비용은 얼마가 적정한가'와 같이 다양한 현실적인 고민거리가 있을 수밖에 없다. 다음 글에서 기업에 AI, LLM 환경 구축을 지원하는 스노우플레이크의 신규 생성형 AI 기능을 소개하고자 한다. 생성형 AI의 잠재력을 극대화하기 위한 스노우플레이크의 비전을 통해 다양한 기업들의 고민을 해결할 수 있는 방안을 찾을 수 있을 것이다.

2024.04.22 09:48조성현

스노우플레이크 "성공적 AI 개발, '데이터 파운데이션'서 출발"

"인공지능(AI)는 그냥 만들어지는 것이 아닙니다. 훌륭한 데이터 전략이 필수입니다. 스노우플레이크는 '데이터 파운데이션' 전략을 솔루션에 탑재했는데, AI 개발자가 (이를 이용하면) 한 플랫폼에서 데이터 수집, 분석, 활용까지 효과적으로 실행할 수 있을 것입니다." 스노우플레이크 정영훈 파트너세일즈 엔지니어는 지디넷코리아가 17일 서울 인터컨티넨탈 코엑스에서 개최한 '어드밴스드 컴퓨팅 컨퍼런스 플러스(ACC+) 2024'에서 데이터 파운데이션 중요성을 재차 강조했다. 정영훈 파트너세일즈 엔지니어는 최근 AI 제품 개발에 드는 시간이 획기적으로 줄었다고 주장했다. 정영훈 엔지니어는 "기존 데이터 수집부터 AI 모델 배포까지 약 7개월 걸렸다"며 "현재 하루 만에 모든 과정이 끝난다"고 말했다. 하지만 모든 AI 제품이 그냥 만들어지는 것은 아니라고 강조했다. 기업에 맞는 데이터 전략을 세워야 고품질 AI 솔루션을 만들 수 있다고 주장했다. 이날 강연에서 정영훈 엔지니어는 스노우플레이크의 데이터 전략인 '데이터 파운데이션'도 소개했다. 이 전략은 '스노우플레이크 데이터 클라우드'에 적용됐다. 데이터 파운데이션은 데이터 사일로 현상을 줄였다는 점에서 업계의 관심을 받고 있다. 그는 "모든 데이터와 워크로드를 안전하게 통합할 수 있다"며 "AI 제품 제작비용을 줄일 수 있다"고 설명했다. 정 엔지니어는 데이터를 클라우드에 안전하게 보호할 수도 있다고도 강조했다. 그는 "데이터 안전성을 통해 앱 개발부터 배포, 제품화 과정을 줄일 수 있는데, 데이터 기반 의사 결정까지 돕는다"며 "많은 사용자가 데이터 파운데이션을 통해 업무 선택권을 폭넓게 갖췄다"고 설명했다. 스노우플레이크는 생성형 AI 제품 현황도 소개했다. 지금껏 쌓아온 데이터 관리 노하우에 AI를 접목한 솔루션으로, 현재 구동 중인 것은 '다큐먼트AI'와 '유니버셜 서치', '스노우플레이크 코파일럿' 등이다. 다큐먼트AI는 문서에서 정형·비정형 데이터를 추출하는 솔루션이다. 정 엔지니어는 "AI 전문지식 없어도 비정형 문서에서 새로운 분석 가치를 추출할 수 있다"며 "프로그램 코드 개발 없이 자연어로 질의하고 답변 받을 수 있다"고 설명했다. 유니버셜 서치는 기업 데이터 위치와 내용을 찾아주는 검색 서비스다. 정 엔지니어는 "사용자들은 데이터에 대한 모든 정보를 알 수 없다"며 "이 서비스에 자연어로 질의하면 여러 형태로 데이터 위치와 내용을 지원한다"고 강조했다. 스노우플레이크 코파일럿은 데이터 추출과 분석을 지원하는 제품이다. 프로그래밍 언어를 알지 못해도 된다. 사용자가 자연어 기반으로 명령하면 해당 코파일럿이 자연어를 SQL 언어로 변환해 코파일럿에 전달하는 식이다. AI가 해당 데이터를 SQL 형태로 찾으면 코파일럿은 이를 다시 자연어로 바꿔서 제공한다. 정 엔지니어는 "이 코파일럿은 SQL과 사람 사이에서 통역사 역할을 하는 셈"이라고 부연했다. 또 그는 "해당 제품들은 스노우플레이크 데이터 관리 기술에 생성형 AI를 접목한 형태"라며 "훌륭한 데이터 전략이 훌륭한 AI 모델과 제품을 낳을 수 있는 사례"라고 강조했다.

2024.04.17 16:24김미정

스노우플레이크, '데이터 클린룸' 정식 출시

스노우플레이크는 데이터 클라우드 상에서 개인정보를 보호하면서 기업 간 데이터 공유와 협업을 제공하는 '스노우플레이크 데이터 클린룸'을 정식 출시한다고 2일 밝혔다. 이 서비스는 아마존웹서비스와 일부 마이크로소프트 애저 사용 고객을 대상으로 먼저 제공된다. 고객은 기업 규모에 관계없이 데이터 클라우드 상에서 개인 정보를 보호하면서 데이터를 안전하게 공유하여 긴밀하게 협업할 수 있다. 데이터 클린룸 기술은 관련 기술 기업인 '사무하'를 인수하고 발표된 것으로, '사무하'는 패스트컴퍼니에서 선정한 '2024년 가장 혁신적인 데이터 사이언스 기업'에 이름을 올렸다. 현재 스노우플레이크의 데이터 클라우드 시스템에 완전히 통합돼 내장형 거버넌스 모델인 스노우플레이크 호라이즌의 규정, 보안, 개인 정보 보호, 상호 운용성과 액세스 기능 등으로 그 성능이 한층 강화됐다. 데이터 클린룸은 민감한 데이터를 외부업체 및 기관과 안전하게 공유하면서 개인 정보 등 민감한 데이터는 비공개 처리할 수 있어 획기적인 솔루션이다. 지금까지 데이터 클린룸 기술은 대규모 집단, 기관 내에서도 소수의 데이터 보안 전문가들에 의해서만 활용되어 왔다. 이번에 서비스를 일반에 공개하면서 더 많은 사용자가 철저한 보안 환경에서 산업군에 제한 없이 데이터를 분석하거나 공동으로 운용할 수 있게 됐다. 모든 협업 과정에서 개인 식별 정보와 같이 민감한 데이터는 비공개로 유지된다. 스노우플레이크는 데이터 클린룸을 스노우플레이크 네이티브 앱 형태로 제공한다. 기업 고객은 스노우플레이크의 거버넌스·보안·개인정보 보호 규정을 준수하며 클라우드 환경과 비즈니스 생태계 전반의 데이터로부터 새로운 비즈니스 가치를 창출할 수 있다. 고객은 데이터 클린룸을 통해 안전한 환경에서 민감한 데이터를 활용하는 협업이 수월해진다. 조직은 추가 라이선스 비용 없이 쉽고 빠르게 새로운 데이터 클린룸을 생성할 수 있다. 이곳에서 비즈니스 또는 기술 분야의 사용자 누구나 공통 타깃, 도달과 빈도, 타깃 속성 등 업계별 워크플로우와 템플릿을 통해 데이터로부터 필요한 정보만 빠르게 추출해 낼 수 있다. 스노우플레이크의 개방적이고 상호 운용 가능한 생태계에 접근할 수 있다. 데이터 클린룸 생태계에 연결하면 써드파티를 통합하고 공용 클라우드 제공업체를 통한 다양한 솔루션을 제공받을 수 있다. 고객은 스노우플레이크 계정 보유 여부와 상관없이 모든 비즈니스 파트너와 원활하게 협업할 수 있다. 스노우플레이크의 내장된 개인정보 보호 및 거버넌스 기능을 활용할 수 있다. 데이터 클린룸은 스노우플레이크 네이티브 앱 프레임워크를 기반으로 구축되어, 스노우플레이크의 철저한 거버넌스·보안·개인정보 보호 규정에 의거한 데이터 액세스만을 지원한다. 고객과 비즈니스 파트너는 개인정보를 유지하면서 보다 심층적인 분석을 진행할 수 있다. 카마크쉬 시바라마크리쉬난 스노우플레이크 데이터 클린룸 제품 관리 이사 겸 '사무하' 공동 창립자는 “브라우저에서 써드파티 쿠키를 사용할 수 없게 되면서 데이터 클린룸은 산업 전반에 걸쳐 필수 요소가 됐다”며 “이러한 상황에서 스노우플레이크 데이터 클린룸은 마케터뿐만 아니라 다양한 직군에서 안전하고 클라우드 중립적인 데이터 협업을 실현할 수 있도록 돕는다”고 설명했다. 데이터 클린룸은 변화하는 기술과 개인정보 보호 규정에 발맞춰 고객 맞춤형 서비스를 제공하기 위해 미디어·엔터테인먼트 업계에 먼저 도입됐다. 개인정보를 취급하는 취업·채용정보 제공 업계에서도 활용되고 있으며, 금융, 의료와 같이 규제가 까다로운 분야에서도 민감한 데이터에 대한 안전한 협업을 위한 기술로 주목받고 있다.

2024.04.02 09:46김우용

스노우플레이크, 엔비디아와 풀스택 AI 플랫폼 제공

스노우플레이크는 엔비디아와 파트너십을 강화해 풀스택 AI 플랫폼을 제공한다고 21일 발표했다. 인공지능(AI)을 활용해 기업 고객의 생산성을 높일 수 있도록 지원하는 것으로, 스노우플레이크의 데이터 기반과 안정성 높은 데이터 클라우드의 AI 기술을 풀스택 엔비디아 가속 플랫폼에 결합할 수 있게 된다. 양사는 AI의 생산성과 비즈니스 속도를 높이고 여러 산업군에 걸쳐 새로운 비즈니스 기회를 확대하도록 설계된 인프라와 컴퓨팅 기술을 결합해 안전하고 강력한 기능을 제공한다. 지난해 6월 스노우플레이크와 엔비디아가 엔비디아 네모 통합 기능을 확대한다고 발표했다.. 강화된 파트너십에서 스노우플레이크는 자사 플랫폼에서 데이터 보안, 개인정보보호 및 거버넌스를 원활하게 유지하면서 직접 엔비디아의 네모 리트리버를 활용할 수 있게 된다. 네모 리트리버는 기업이 맞춤형 LLM을 기업 데이터에 연결할 수 있는 생성형 AI 마이크로 서비스다. 이를 기반으로 챗봇 애플리케이션의 성능과 확장성을 개선하고 스노우플레이크 코텍스(프리뷰 공개)로 AI 애플리케이션을 구축한 400개 이상의 기업이 보다 빠르게 비즈니스 가치를 실현할 수 있도록 지원한다. 또한 딥 러닝 추론 애플리케이션에 짧은 지연 시간과 높은 처리량을 제공하는 엔비디아 텐서RT를 활용할 수 있어 기업 고객의 LLM 기반 검색 기능이 향상될 것으로 기대된다. SQL 사용자는 스노우플레이크 코텍스 LLM 기능을 통해 소규모 LLM을 활용해 감정 분석, 번역 및 요약 등의 특정 작업을 몇 초 만에 비용 효율적으로 처리할 수 있다. 미스트랄AI, 메타 등의 고성능 모델을 활용한 AI 애플리케이션의 개발에도 적용할 수 있다. 스노우플레이크의 새로운 LLM 기반 어시스턴트로, 자연어를 통해 스노우플레이크의 코딩 작업에 생성형 AI를 적용한다. 사용자들이 대화 형식으로 질문하면 관련 테이블을 활용해 SQL 쿼리를 작성해 주며 쿼리를 개선하고 인사이트를 필터링하는 등의 작업을 수행할 수 있다. 도큐먼트 AI는 기업들이 LLM을 사용해 문서에서 청구 금액 또는 계약 약관 등의 내용을 쉽게 추출하고 시각화 인터페이스와 자연어를 사용해 결과를 섬세하게 조정할 수 있도록 지원한다. 고객사는 도큐먼트 AI를 사용해 수작업으로 인한 오류를 줄이고 자동 문서 처리를 통해 효율성을 강화한다. 슈리다 라마스워미 스노우플레이크 CEO는 “데이터는 AI의 원동력으로, 효과적인 AI 전략 수립에 매우 중요하다”며 “스노우플레이크는 엔비디아와 협력으로 신뢰할 수 있는 기업 데이터를 위한 안전하고 확장 가능하며 사용이 용이한 플랫폼을 제공하게 됐다”고 밝혔다. 그는 “특히 기술 전문성에 상관없이 모든 사용자가 AI를 사용할 수 있게 해 누구나 AI 기술 혜택을 얻도록 지원한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “기업 데이터는 비즈니스 인텔리전스를 확보할 수 있는 커스터마이징 AI 애플리케이션의 근간”이라며 “엔비디아 가속 컴퓨팅 및 소프트웨어를 스노우플레이크의 데이터 플랫폼에 적용함으로써 고객이 기업 전용의 생성형 AI 애플리케이션을 구축, 배포 및 관리할 수 있게 된다”고 강조했다.

2024.03.21 09:39김우용

스노우플레이크 CFO "데이터 클라우드로 AI 기술 생산성 높일 것”

스노우플레이크는 마이크 스카펠리 최고재무책임자(CFO) 마이크 스카펠리가 지난 13일 한국을 방문했다고 20일 밝혔다. 스노우플레이크는 13일 소피텔 엠베서더에서 국내 주요 기업 임원들을 초청해 '이그젝큐티브 라운드테이블 고객 세미나'를 진행했다. 이날 행사에서 마이크 스카펠리 CFO와 존 로버슨 APJ 세일즈 총괄, 크리스 차일드 스노우플레이크 제품 시니어 디렉터가 데이터 및 AI 전략과 전망을 공유했다. 스노우플레이크 코리아 최기영 사장과 김우성 한국 딜로이트 그룹 전무를 비롯해 CJ프레시웨이, BC카드, LG유플러스 등의 고객사도 연사로 참여해 데이터 및 생성형 AI 등에 대한 인사이트와 경험을 전했다. 마이크 스카펠리 스노우플레이크 CFO는 “AI 시대에 발맞춰 고객이 애플리케이션 전략을 구축하고 실행하는 과정에 스노우플레이크 데이터 클라우드 플랫폼에서 AI 및 LLM 기술로 생산성을 높일 수 있도록 지속적으로 지원할 것”이라고 강조했다. 마이크 스카펠리 CFO는 AI 검색 엔진 니바 인수, AI 솔루션 제공업체 미스트랄 AI 파트너십 등 AI 지원을 가속화하기 위한 스노우플레이크의 노력을 설명했다. 그는 “전략적인 인수합병과 시의적절한 투자를 통해 고객에게 민주화된 AI 경험을 제공할 수 있게 됐다”며 “고객이 보안과 거버넌스가 보장된 스노우플레이크 플랫폼에서 AI 및 LLM을 활용해 쉽고 비용 효율적으로 애플리케이션을 구축하고, 이를 기반으로 혁신적인 AI 성공 사례를 만들어 나가기를 바란다”고 말했다. 크리스 차일드 시니어 디렉터는 2023년 인수한 데이터 앱 개발 플랫폼 스트림릿에 대해 “스트림릿은 고객이 데이터 분석을 통해 유의미한 인사이트를 빠르게 확보하고 대화형 애플리케이션 구축 기능을 활용해 쉽게 풀스택 AI 앱을 개발할 수 있도록 한다”며 “이처럼 스노우플레이크는 통합된 데이터를 보다 효과적으로 활용하고 새로운 비즈니스 모델을 창출할 수 있도록 지원한다”고 설명했다. 김우성 한국 딜로이트 그룹 전무는 'AI시대의 엔터프라이즈 데이터 관리 방안'을 주제로 발표를 진행했다. “정제되지 않은 데이터로 생성형 AI를 더 잘 활용할 수 있도록 ▲통합 ▲분석 ▲관리 및 표준화 ▲거버넌스 수립이 가능한 시스템 요건을 갖춘 유연한 데이터 플랫폼을 선택해야 한다”며 “스노우플레이크는 4가지 요건을 모두 충족하는 데이터 플랫폼 기업”이라고 강조했다. 패널 토크에서 CJ프레시웨이 김종호 디지털 혁신 담당과 BC카드 데이터 사업본부 오성수 본부장, LG유플러스 데이터 전략 및 관리 총괄 조연호 책임이 각사에서 데이터 클라우드 플랫폼을 활용하는 사례와 효과에 대해 설명했다. CJ프레시웨이 김종호 디지털 혁신 담당은 “데이터를 활용해 새로운 비즈니스 기회를 창출하면서 동시에 기업의 생산성을 높이기 위해 클라우드 전환을 고려하게 됐다”며 “클라우드 전환으로 데이터를 IT부서에서 받아 활용하는 것이 아니라 현업 직원들이 직접 공유하고 분석할 수 있게 됐다”고 전했다. LG유플러스 마이데이터 서비스를 총괄하는 조연호 책임은 스노우플레이크 도입 이유에 대해 “마이데이터 서비스는 고객의 신용정보와 같이 민감한 개인정보를 다루는 만큼 안전한 데이터 관리를 위한 보안 환경 구축이 필수”라며 “스노우플레이크는 금융보안원의 클라우드 서비스 공급자(CSP) 안정성 평가를 완료했을 뿐 아니라 강력한 보안성과 일관된 거버넌스를 제공해 개인화된 데이터 시대에 가장 적합하다”고 밝혔다. 스노우플레이크의 데이터 거래 플랫폼 마켓플레이스에서 데이터 세트를 제공하고 있는 BC카드 데이터 사업본부 오성수 본부장은 데이터 기반 솔루션 제공업체로서 데이터를 통한 수익화 모델을 성공적으로 구축한 경험을 소개했다. 그는 “스노우플레이크 마켓플레이스는 자사가 보유한 유의미한 데이터를 더 많은 잠재 고객에게 도달해 공유할 수 있는 기회를 제공했다”며 “마켓플레이스는 기업이 민감한 정보는 철저히 보호하면서도 데이터 비즈니스를 확장하고 경쟁력을 향상하는 최적의 플랫폼”이라고 말했다.

2024.03.20 10:50김우용

스노우플레이크, 미스트랄AI와 협력…'미스트랄 라지' 모델 제공

스노우플레이크는 최근 프랑스 AI 솔루션 제공업체 미스트랄AI와 파트너십을 체결했다고 11일 일 발표했다. 이 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스의 미스트랄AI의 시리즈 A 투자를 포함한다. 양사의 협력으로 스노우플레이크 고객은 미스트랄AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(LLM)인 '미스트랄 라지'를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 미스트랄AI의 기본 모델인 '미스트랄 7B'와 오픈 소스 모델 '믹스트랄8x7B'에도 액세스할 수 있다. '미스트랄 라지'는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고 한번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있다. 프랑스어, 영어, 독일어, 스페인어, 이탈리아어, 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 '대규모 다중 작업 언어 이해 측정(MMLU)' 비교함에서 뛰어난 성능을 입증하며 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다. '미스트랄 7B'는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이다. '믹스트랄 8x7B'는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다. 미스트랄AI의 모델들은 '스노우플레이크 코텍스'에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스이다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안, 개인 정보 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다. 스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한, 메타 '라마2' 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 미스트랄AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서, 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다. 복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아와 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 미스트랄AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 슈리다 라마스워미 스노우플레이크 신임 CEO는 “스노우플레이크는 미스트랄AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 됐다”며 “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인 정보 보호는 강화하고 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 밝혔다. 아르튀르 멘슈 미스트랄AI 공동창립자 겸 CEO 는 “스노우플레이크의 보안, 개인 정보 보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 미스트랄AI의 포부와 맞아떨어진다”며 “미스트랄AI는 전세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능, 고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”고 강조했다. 그는 “스노우플레이크 데이터 클라우드에서 미스트랄AI의 모델을 활용함으로써, 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 덧붙였다. 스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 'AI 얼라이언스'에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다.

2024.03.11 10:52김우용

스노우플레이크코리아, 14일 '데이터포브렉퍼스트' 개최

스노우플레이크는 국내 기업의 데이터 기반 성장을 지원하기 위한 연례 컨퍼런스 '데이터 포 브렉퍼스트'를 오는 14일 소피텔 앰배서더 서울 그랜드볼룸 방돔에서 개최한다고 5일 밝혔다. '데이터포브렉퍼스트'는 서울을 포함한 전 세계 주요 도시 100여 곳에서 열리는 연례 행사로, 한국은 올해 3회차를 맞는다. 올해 행사에 마이크 스카펠리 스노우플레이크 최고재무책임자(CFO), 크리스 차일드 스노우플레이크 제품 부문 시니어 디렉터 등 본사 임원진과 최기영 스노우플레이크 코리아 지사장이 기조 연설자로 나선다. 행사는 스노우플레이크 도입을 고려하는 잠재 고객과 아직 데이터 클라우드 경험이 많지 않은 고객 및 파트너사를 대상으로 조직의 데이터 전략에 대한 인사이트를 공유한다. 기조연설과 더불어 스노우플레이크의 고객사인 BC카드는 데이터 거래 플랫폼인 '마켓플레이스'를 통해 단순 데이터 제공 기업을 넘어 데이터 기반 솔루션 제공사로써 비즈니스를 활성화해 나가고 있는 경험을 공유할 예정이다. 최근 국내 최초로 선정된 스노우플레이크가 인증한 데이터 전문가 '데이터 슈퍼히어로' 3인과의 패널토크도 진행된다. 이수현 스노우플레이크 에반젤리스트는 데이터 슈퍼히어로 3인 ▲넥슨코리아 이재면 데이터 엔지니어 ▲더핑크퐁컴퍼니 한예성 소프트웨어 엔지니어 ▲메가존클라우드 Cloud SA 데이터팀 최경진 팀장과 함께 AI 시대에 발맞춰 한국 기업들이 갖춰야 할 데이터 전략과 실제로 현업에서 데이터 기반의 비즈니스를 운영하고 있는 경험을 생생하게 공유한다. 파트너사가 운영하는 부스에서는 스노우플레이크 생태계에서 이어온 데이터 기반 협업 솔루션과 활용 사례를 소개한다. 최기영 스노우플레이크 지사장은 “데이터는 혁신적인 기술로 주목받은 생성형 AI, 대규모 언어 모델(LLM)의 시작과 발전을 이끈 핵심 요소다”라며 “스노우플레이크는 유연하고 혁신적인 데이터 플랫폼으로써 고객의 데이터 전략을 강화하고 모든 데이터 워크로드를 지원해 가파르게 성장하는 생성형 AI 시대에 빠르고 효율적으로 대비할 수 있도록 도울 것”이라고 강조했다.

2024.03.05 08:44김우용

스노우플레이크, 슈리다 라마스워미 신임 CEO 임명

스노우플레이크는 슈리다 라마스워미를 신임 최고경영자(CEO)로 임명했다고 4일 밝혔다. 슈리다 라마스워미 CEO는 스노우플레이크 AI 부문 수석 부사장을 역임해 왔으며, 신임 CEO로 임명됨과 동시에 회사 이사회에도 합류한다. 라마스워미 CEO는 2019년 공동 설립한 세계 최초 AI 기반 검색 엔진 니바가 작년 5월 스노우플레이크에 인수되며 동시에 AI 부문 수석 부사장으로 합류했다. 이후 모든 사용자가 비즈니스 가치를 빠르게 창출할 수 있도록 AI 사용을 간소화하고 보안을 강화하도록 설계된 완전 관리형 서비스 스노우플레이크 코텍스를 출시하는 등 스노우플레이크 AI 전략에 중요한 역할을 담당해왔다. 스노우플레이크 합류 전 라마스워미 CEO는 구글 광고 제품 총괄을 역임하며 검색, 디스플레이/비디오 광고, 분석, 쇼핑, 결제 및 여행을 포함한 전체 광고 사업을 성공적으로 수행한 이력이 있는 업계 베테랑으로, 15억 달러 규모의 애드워즈 및 구글 광고 사업을 1,000억 달러 이상으로 성장시키는 데 기여한 핵심 인물이다. 또한, 벨연구소(Bell Labs), 루센트 테크놀러지 및 벨코어에서 연구 직책을 맡아왔고, 2018년 10월부터 최근까지 그레이록 파트너스에서 벤처 파트너로 역임했다. 그는 브라운 대학의 이사회 임원으로 활동중이다. 프랭크 슬루트만 전 스노우플레이크 CEO는 이사회 의장직을 유지한다. 프랭크 슬루트만 전 CEO는 “스노우플레이크는 선도적인 클라우드 데이터 플랫폼으로서 AI 혁명의 진원지에 있다”며 “AI 및 머신러닝 분야에서 스노우플레이크를 다음 단계로 이끌어가고 앞으로 나아갈 기회를 제공하는 데 있어 슈리다 라마스워미 신임 CEO는 적격인 인물”이라고 평했다. 그는 “성공적인 사업 운영 및 영역 확장 경험이 있는 믿을 수 있는 기술자로 앞으로 그와 함께 성취를 이루어 낼 것”이라고 덧붙였다. 슈리다 라마스워미 CEO는 “지난 12년 간 스노우플레이크는 기업들에게 미래를 위해 필요한 안전하고 확장 가능하며 비용 효율적인 데이터 기반과 최첨단 AI 빌딩 블록을 제공하는 선도적인 데이터 클라우드 플랫폼으로 성장해왔다”며 “스노우플레이크의 다음 성장의 장을 이끌어 나갈 수 있게 되어 영광이다. 모든 고객과 파트너가 AI를 통해 혁신을 주도해 새로운 비즈니스 기회를 창출해낼 수 있도록 지원하고 관련 역량을 가속화하는 데 전념할 것”이라고 밝혔다.

2024.03.04 13:47김우용

스노우플레이크, 국내 첫 '데이터 슈퍼히어로' 3명 선정

스노우플레이크는 한국인 최초의 '스노우플레이크 데이터 슈퍼히어로'를 선정했다고 14일 밝혔다. 넥슨코리아 이재면 데이터 엔지니어, 더핑크퐁컴퍼니 한예성 소프트웨어 엔지니어, 메가존클라우드 클라우드 솔루션아키텍트 데이터팀 최경진 팀장이 스노우플레이크 데이터 슈퍼히어로 선정됐다. 스노우플레이크는 데이터 전문가를 양성하기 위해 '데이터 슈퍼히어로'를 선정해 지원하고 있다. 현재 전세계 21개국 80명이 활동하는 글로벌 개발자 지원 프로그램으로, 이들은 전세계 데이터 전문가들과 소통하면서 개인 역량을 높이고 스노우플레이크 서비스 개발에도 참여한다. 스노우플레이크의 로드맵 회의, 월별 활성화 세션 등에 참여해 개선점을 제안하고 제품 로드맵에 직간접적으로 의견을 개진하고 있다. 고급 인증 프로그램을 통해서는 데이터 활용 트레이닝도 받을 수 있다. 이외에도 스노우플레이크의 주요 행사에 초청받아 다양한 국적의 전문가들과 소통할 수 있다. 선정된 한국인 데이터 슈퍼히어로들은 스노우플레이크의 '데이터 클라우드 플랫폼'과 관련해 활발하게 콘텐츠를 확산하고 멘토링에 적극적으로 참여하면서 본사로부터 그 공로를 인정받았다. 넥슨 이재면 데이터 엔지니어는 실시간으로 수집되는 페타-바이트급 사용자 데이터를 단일 플랫폼으로 통합해 고품질 데이터 파이프라인을 개발 및 운영하고 있고, 더핑크퐁컴퍼니 한예성 소프트웨어 엔지니어는 데이터 클라우드 플랫폼에서 사일로된 데이터 환경을 통합해 다양한 고품질 콘텐츠 및 애플리케이션이 개발될 수 있도록 기획 및 분석에 최적화된 시스템을 구축하는 백엔드 업무를 맡고 있다. 국내 파트너사 최초로 스노우프로 어드밴스드 자격증을 취득한 메가존클라우드 Cloud SA 데이터팀의 최경진 팀장은 게임, 금융, 리테일 등 다양한 산업 분야의 고객사에 데이터 클라우드 플랫폼을 공급할 수 있는 기반을 마련하기 위해 고객 친화적인 데이터 아키텍처를 설계 및 구축하는데 힘쓰고 있다. 데이터 슈퍼히어로 선정 기준은 ▲콘텐츠 제작 ▲논의 주도 ▲스노우플레이크 전문성 ▲지원 등 네가지다. 데이터 클라우드 플랫폼 관련 콘텐츠를 블로그, 팟캐스트, 유튜브 등 자신의 채널에 정기적으로 업데이트하고 있는지, 포럼, 유저 그룹 및 커뮤니티 행사에의 논의 주도 방식이 주요 평가 요소다. 더불어 국내에서 페이스북에서 운영 중인 '스노우플레이크 한국 커뮤니티'에서의 참여도도 '전문성'과 '지원' 측면에서 평가되었다. 이들은 커뮤니티를 통해 클라우드 관련 최신 트렌드를 공유하고 스노우플레이크 서비스에 대한 피드백 및 추천, 질의응답 등으로 커뮤니티 회원들을 지원했다. 스노우플레이크는 국내 데이터 전문가를 육성하기 위해 '스노우플레이크 한국 커뮤니티'를 운영하며 자사 사용자 및 개발자 생태계 확장에 힘쓰고 있다. 페이스북에서 운영되는 커뮤니티 규모는 오픈 1년 6개월 만에 800명을 넘기며 빠른 속도로 확대되고 있다. 스노우플레이크 커뮤니티에 가입한 개발자 및 데이터 전문가들은 자유롭게 네트워킹 모임을 만들어 스터디하거나 데이터 클라우드 전반에 걸친 실무 역량을 쌓아 자사 전문가 과정을 이수할 수 있다. 모든 스노우플레이크 커뮤니티 회원은 '데이터 히어로'로 분류되며, 이 중 커뮤니티에서 사용자의 질문 및 도움요청에 적극적으로 답변하고 활동하는 회원은 심사를 거쳐 '데이터 슈퍼히어로'로 선정된다. 넥슨코리아 이재면 데이터 엔지니어는 “엔터테인먼트뿐 아니라 많은 산업에서 데이터 분석 및 활용의 중요성이 높아지고 있는 만큼 데이터 슈퍼히어로로서 더 많은 엔드 유저가 스노우플레이크를 활용할 수 있도록 활발한 활동을 이어갈 것”이라고 말했다. 이수현 스노우플레이크 에반젤리스트는 “스노우플레이크 데이터 클라우드 플랫폼의 역량을 소개할 수 있는 데이터 슈퍼히어로들이 국내에도 선정되면서 스노우플레이크 코리아 개발자 지원 활동은 더욱 활발해질 것”이라며 “앞으로도 스노우플레이크는 데이터 클라우드 플랫폼 생태계 확장을 위해 개발자와 데이터 전문가가 지속적으로 교류하고 전문성을 높일 수 있도록 커뮤니티를 통해 지원할 것”이라고 밝혔다.

2024.02.14 09:41김우용

메가존클라우드, 스노우플레이크 프리미어 파트너십 획득

메가존클라우드(대표 이주완)가 스노우플레이의 프리미어 파트너십을 획득했다고 30일 밝혔다. 메가존클라우드는 스노우플레이크 데이터 클라우드 고객사례 확보를 통해 스노우플레이크의 조건을 충족하고 30일 국내 프리미어 파트너 자격을 획득했다. 지난 2022년 중반 스노우플레이크의 파트너로 데이터 클라우드사업을 시작한 이후, 2023년 1월 셀렉트 파트너 자격을 획득한 바 있다. 2023년 11월 프리미어 파트너십의 어려운 조건 중 하나였던 스노우프로 어드밴스드 인증을 국내 파트너사에서는 처음으로 취득하면서 이번 프리미어 파트너 자격 획득의 결정적 기반을 다졌다. 메가존클라우드는 2023년 6월 라스베가스에서 개최된 스노우플레이크 서밋 2023에 고객사와 함께 참여해 선진 시장에서의 스노우플레이크 도입사례를 함께 경험한 바 있다. 이후, 지속적으로 스노우플레이크의 클라우드 데이터 플랫폼을 고객사에 공급하면서 게임, 화장품, 금융, 핀테크 및 리테일 등 다양한 산업분야의 선두 기업에 스노우플레이크 고객 사례를 창출하고 있다. 또한, 2023년 9월 서울에서 개최된 데이터 클라우드 월드 투어 행사에 최상위 등급인 블랙 다이아몬드 파트너로 참여해 그 동안의 고객사례를 소개하고 신규 고객사를 확보하기 위해 노력하기도 했다. 프리미어 파트너십 획득으로 메가존클라우드는 스노우플레이크 클라우드 데이터 플랫폼에 대한 컨설팅 및 구축에 있어서 최고의 기술력을 가진 파트너임을 인정받은 것으로 평가된다. 이를 바탕으로 전담 사업 및 기술조직 구성을 통해 국내 시장을 확대할 계획이다. 이주완 메가존클라우드 대표는 “스노우플레이크 프리미어 파트너십 획득을 통해 메가존클라우드의 검증된 기술력 및 고객 확보에 대한 노력이 인정받게 돼 기쁘다“며 “스노우플레이크의 진보된 클라우드 데이터 플랫폼 공급을 통해 고객사의 데이터 기반 의사결정과 효과적인 비즈니스 가치 창출을 지원할 것 “이라고 말했다. 최기영 스노우플레이크 코리아 지사장은 “아시아 최대 MSP 사업자인 메가존클라우드가 국내 파트너사 중 최초로 프리미어 파트너가 된 것을 뜻깊게 생각한다 ”며 “스노우플레이크의 클라우드 데이터 플랫폼을 공급하며 다양한 산업군의 고객 포트폴리오 확장에 힘써온 메가존클라우드와 더욱 긴밀한 협력으로 파트너 생태계를 더욱 강화해 나갈 예정이다“라고 말했다.

2024.01.30 15:54남혁우

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 국민 모두가 참여하는 ‘AI 진흥주간’ 열린다

우체국 금융서비스 정상화...인터넷뱅킹·체크카드 재개

[단독] 정보협박범 '킬린', 토목업체 유신 내부 데이터 공개

'이진숙 임기 종료' 방통위 폐지법, 국회 본회의 통과

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.