스노우플레이크, 노코드로 LLM 챗봇 구축 기능 공개
[샌프란시스코(미국)=김우용 기자] 스노우플레이크는 4일(현지시간) 미국 샌프란시스코에서 개최한 '스노우플레이크 서밋 2024' 둘째날 행사에서 '스노우플레이크 코텍스 AI'의 새로운 기능을 발표했다. 스노우플레이크 코텍스 AI는 AI 기반 애플리케이션을 쉽고 효율적으로 생성하는 도구로, 최신 업데이트를 통해 기업이 수 분 내에 챗봇을 만들고 채팅 환경에서 자사 데이터를 활용한 답변을 얻어낼 수 있도록 한다. 스노우플레이크의 새로운 노코드 인터랙티브 인터페이스와 대규모언어모델(LLM)에 대한 접근 및 서버리스 파인튜닝은 비전문가도 특정 산업 사용 사례에 맞춰 AI를 쉽게 활용하는 '데이터 민주화'를 견인한다. 스노우플레이크 ML을 통해 머신러닝을 위한 통합 환경을 갖추고 모델을 운영할 수 있는 경로를 빠르게 개발할 수 있다. 스노우플레이크의 생성형 AI 및 ML 통합 플랫폼은 비즈니스 전반에 걸쳐 데이터로부터 더 많은 가치를 창출하고 완전한 보안과 거버넌스, 제어 기능으로 신뢰할 수 있는 AI를 대규모로 제공한다.. LLM 기반 챗봇의 강점은 비전문가도 자연어로 질문해 내부 기업 데이터를 활용할 수 있다는 것이다. 기업은 이를 활용해 중요한 의사 결정을 하는데 필요한 인사이트를 빠르게 얻을 수 있다. 스노우플레이크는 '스노우플레이크 코텍스 애널리스트(퍼블릭 프리뷰 예정)'와 '스노우플레이크 코텍스 서치(퍼블릭 프리뷰 예정)' 등 두 가지 새로운 채팅 기능을 공개했다. 사용자는 복잡한 절차 없이 보유한 정형 및 비정형 데이터를 바탕으로 수 분만에 챗봇을 개발할 수 있다. 메타의 라마3, 미스트랄 라지 모델로 구축한 코텍스 애널리스트를 통해 기업은 생성형 AI 기반의 애플리케이션을 안전하고 쉽게 구축할 수 있다. 코텍스 서치는 2023년 5월 스노우플레이크가 인수한 니바의 최첨단 검색 및 랭킹 지정 기술과 스노우플레이크 아크틱 임베드를 함께 활용해 벡터 및 텍스트가 결합된 엔터프라이즈급 하이브리드 검색 기능을 제공한다. 이를 통해 문서 및 기타 텍스트 기반 데이터세트에 대한 애플리케이션을 구축할 수 있도록 한다. 비전문가도 매우 간단한 단계를 거쳐 빠르게 AI 기반 채팅 서비스를 구성할 수 있다. 스노우플레이크는 기업 데이터 및 자산 전반에 걸쳐 폭력, 혐오, 자해 또는 범죄 행위 등의 유해 콘텐츠를 필터링하는 LLM 기반 입출력 보호 기능인 메타의 라마 가드를 활용한 스노우플레이크 코텍스 가드를 출시한다. 스노우플레이크는 코텍스 가드를 통해 기업을 위한 AI 안전성을 높였다. 스노우플레이크는 맞춤형 채팅 개발 뿐 아니라 사전 구축된 AI 기반 경험을 제공한다. 사용자는 도큐먼트AI를 통해 스노우플레이크의 멀티모달 LLM '스노우플레이크 아크틱 TILT'로 인보이스의 액수 또는 계약 조건 등의 콘텐츠를 간편하게 추출할 수 있다. 이 모델의 성능은 GPT-4를 능가하며 시각적 문서 질문 응답의 표준인 DocVQA 벤치마크 테스트에서 최고 점수를 기록했다. 노던 트러스트 등의 기업은 도큐먼트 AI를 활용해 문서를 대량으로 처리함으로써 운영비용은 줄이고 효율성을 높이고 있다. 스노우플레이크는 미스트랄 라지의 강점과 스노우플레이크의 독자적 SQL 생성 모델을 조합해 모든 SQL 사용자의 생산성을 더욱 높여주는 텍스트-투-SQL 어시스턴트 스노우플레이크 코파일럿도 출시할 예정이다. 스노우플레이크 코텍스 AI는 스노우플레이크의 정상급 오픈소스 LLM인 스노우플레이크 아크틱 외에도 구글, 메타, 미스트랄 AI, 레카 등 유수 업체의 최첨단 모델 세트를 고객에게 제공해 AI 개발을 가속화한다. 스노우플레이크는 AI 개발 착수와 더 빠른 AI 애플리케이션 제품화를 지원하는 노코드 인터랙티브 인터페이스인 새로운 스노우플레이크 AI & ML 스튜디오(프라이빗 프리뷰)를 통해 누구나 각자의 기업 데이터에 쉽게 적용하도록 하며 데이터 활용을 대중화하고 있다. 사용자는 간편한 테스트·평가 과정을 거쳐 특정 분야에 가장 적합한 모델을 선정하고, 궁극적으로 운영비를 최적화하며 생산 단계에 이르는 기간을 단축할 수 있다. 스노우플레이크는 기업이 LLM 성능을 더욱 향상하고 보다 개인화된 경험을 제공할 수 있도록 코텍스 파인튜닝(퍼블릭 프리뷰)을 출시했다. 이 서버리스 맞춤화는 메타 및 미스트랄 AI 모델의 일부로 제공되며 AI & ML 스튜디오 또는 간단한 SQL 기능으로 이용할 수 있다. 파인 튜닝을 거친 모델은 코텍스 AI 기능을 통해 쉽게 사용할 수 있으며, 스노우플레이크 역할 기반 접근제어를 통해 액세스를 관리한다. 대부분의 기업은 ML 및 LLM 모델 개발 이후 변화하는 데이터 세트에서 이를 계속해서 운영하는 데 어려움을 겪는다. 스노우플레이크 ML은 AI 데이터 클라우드에 ML옵스 기능을 제공한다. 조직은 데이터 전처리부터 모델 관리까지, ML 생애 주기 전반에 걸쳐 기능, 모델, 메타데이터를 원활하게 발견하고 관리 및 통제할 수 있다. 이러한 중앙 집중식 ML옵스 기능은 스노우플레이크 노트북과 스노우파크 ML을 비롯한 스노우플레이크 플랫폼과도 통합돼 간편한 엔드투엔드 경험을 제공한다. 스노우플레이크의 ML옵스 기능은 스노우플레이크 모델 레지스트리를 포함한다. 스노우플레이크 모델 레지스트리는 모든 유형의 AI 모델의 액세스 및 사용을 통제함으로써 신뢰성과 효율을 보장하고 더욱 개인화된 경험과 비용 절감 자동화를 제공한다. 스노우플레이크는 데이터 사이언티스트와 머신러닝 엔지니어들이 일관된 ML 기능을 생성, 저장, 관리 및 제공할 수 있는 통합 솔루션인 스노우플레이크 피처 스토어(퍼블릭 프리뷰)와 ML 리니지(프라이빗 프리뷰)를 발표했다. 이 서비스를 통해 기업은 ML 생애주기 전반에 걸쳐 기능과 데이터 세트, 모델의 사용을 추적할 수 있다. 크리스티안 클라이너만 스노우플레이크 제품 총괄부사장(EVP)은 “스노우플레이크의 AI 서비스는 엔터프라이즈의 모두에게 데이터에 접근할 수 있는 힘을 주고, 막대한 기회를 준다”며 “코텍스 AI는 여러 복잡한 단계로 이뤄지는 AI 개발 워크플로우를 쉽게 구축하게 하기에 여러 혁신을 일으키고 있다”고 밝혔다. 그는 “데이터와 AI의 힘으로 더 많은 것을 할 수 있다”며 “여러분의 조직이 엔터프라이즈 AI 시대를 선도하며 더 많은 가치와 인사이트를 찾을 수 있도록 도울 것이며, 끊임없이 혁신을 이어가자고 약속하겠다”고 강조했다.