• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'코텍스'통합검색 결과 입니다. (10건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"사람대신 AI로"…스노우플레이크, 데이터 분석·관리 에이전트 출시

스노우플레이크가 데이터 전문가 대신 데이터를 분석·관리하는 인공지능(AI) 에이전트를 내놨다. 스노우플레이크는 정형·비정형 데이터에 접근해 자동 업무하는 AI 에이전트 '코텍스 에이전트'를 출시했다고 21일 밝혔다. 코텍스 에이전트는 퍼블릭 프리뷰로 제공된다. 또 코텍스 애널리스트와 코텍스 서치 기능을 강화해 자동으로 데이터를 통합·검색하고 복잡한 쿼리를 분석해 정확한 답변을 생성한다. 이 과정에서 기업들은 정확성과 효율성, 거버넌스를 실현할 수 있다. 코텍스 애널리스트는 정형화된 SQL 데이터를 분석해 앤트로픽의 클로드 3.5 소넷를 활용해 텍스트를 SQL로 변환하는 데 정확도를 높였다. 사용자가 자연어로 데이터를 조회하고 인사이트를 도출할 수 있으며 복잡한 추론, 코드 생성, 멀티모달 데이터 분석을 수행할 수 있는 엔터프라이즈급 AI 기능을 제공한다. 코텍스 서치는 텍스트, 오디오, 이미지, 비디오 등 비정형 데이터의 검색 정확도를 강화한다. 오픈AI 임베딩 모델 대비 최소 11% 높은 정확도를 기록하며 다양한 벤치마크 테스트에서 우수한 성능을 입증했다. 이 외에도 대규모 데이터 인덱싱, 맞춤형 벡터 임베딩 모델 선택 기능이 추가됐다. 정확한 데이터 분석, 보안 유지 및 거버넌스 준수는 AI 에이전트가 기업 환경에서 효과적으로 확장되기 위한 필수 요소다. 코텍스 에이전트는 다양한 데이터 소스를 검색하고, 보안 정책을 준수하며 신뢰할 수 있는 결과를 제공하도록 설계됐다. 배포 이후에도 성능과 동작을 지속적으로 모니터링하고 개선할 수 있어 기업이 AI 에이전트를 안전하게 확장하면서 보안과 컴플라이언스를 유지할 수 있도록 돕는다. 예를 들어 재무 분석가는 정형 데이터인 수익 데이터와 비정형 데이터인 재무 보고서·시장 데이터와 결합해야 하는 경우가 많다. 엔드투엔드 거버넌스를 통해 안전하게 AI에 정보를 제공하는 것이 필요한데 이 때 코텍스 에이전트를 활용하면 된다. 코텍스 에이전트는 두 데이터 소스의 통합, 검색, 처리를 단순하게 해 기업들은 쉽게 대규모로 고품질 에이전트를 구축할 수 있도록 지원한다. 스노우플레이크 크리스티안 클레이너만 제품 담당 수석 부사장은 "많은 고객이 AI 가치를 극대화하기 위해 데이터를 체계적으로 관리하고 거버넌스를 구축하는데 어려움을 겪고 있다"며 "코텍스 에이전트를 통해 데이터 전문가가 아니더라도 더욱 쉽게 데이터를 관리하고 실질적인 성과를 얻을 수 있도록 지원하겠다"고 밝혔다.

2025.02.21 11:22김미정

"고급 AI 추론 목표"…스노우플레이크, 코텍스AI에 딥시크-R1 지원

스노우플레이크가 인공지능(AI) 개발 플랫폼 '코텍스AI'에 '딥시크-R1'을 추가했다. 스노우플레이크는 자사 고객들에게 고급 AI 추론 기능을 제공하기 위해 오픈소스 AI 모델 딥시크-R1을 프리뷰 형태로 지원다고 5일 밝혔다. 딥시크-R1은 지도학습(SFT) 없이 대규모 강화학습(RL)만으로 훈련된 오픈소스 모델이다. 자체검증, 스스로 답을 찾는 추론하는 사고체계(CoT), 추론 생성 등이 가능하다. 폐쇄형 모델인 오픈AI의 o1 수준의 고급 추론, 수학, 코딩 성능을 보인다는 평을 받고 있다. 응답의 무한 반복, 언어 혼재, 낮은 가독성 문제를 해결하고 추론 능력을 개선하기 위해 콜드 스타트 데이터를 전략적으로 통합했다. 딥시크-R1은 스노우플레이크 코텍스AI를 통해 서버리스 추론에 사용할 수 있는 비공개 프리뷰 형태로 제공된다. 배치(SQL 함수)와 대화형(파이썬 및 REST API)을 통해 접근할 수 있어 기존 데이터 파이프라인, 애플리케이션·통합개발환경(IDE)에 통합된다. 코텍스AI는 고객이 코텍스 가드를 활성화할 수 있도록 해 잠재적으로 유해한 콘텐츠를 필터링하고 고객이 생성형 AI 애플리케이션을 대규모로 안전하게 배포할 수 있도록 한다. 스노우플레이크는 모델이 안전한 서비스 범위 내에서만 작동하고 고객 데이터가 모델 제공자와 공유되지 않도록 보장한다. 모델이 정식 출시되면 고객은 역할 기반 액세스 제어(RBAC)를 통해 딥시크-R1에 대한 접근을 설정해 거버넌스를 관리할 수 있다. 현재 미국 내 고객의 스노우플레이크 계정에서 사용할 수 있다. 스노우플레이크 코텍스AI는 거대언어모델(LLM) 추론, 파인튜닝, 검색기반생성(RAG) 기능을 포함한 종합적인 툴 세트를 제공하고 있다. 이를 통해 정형·비정형 데이터를 함께 분석하고 AI 기반 애플리케이션을 쉽게 구축할 수 있다. 메타와 미스트랄, 스노우플레이크를 포함한 주요 오픈소스 및 폐쇄형 LLM 모두 지원함으로써 간편하게 AI를 통합할 수 있게 돕는다. 스노우플레이크 AI 연구팀은 "딥시크-R1의 추론 비용을 추가로 절감해 고객에게 더 큰 비용 대비 성능 효율성을 제공할 계획"이라며 "기업은 최첨단 AI 기술을 기반으로 한 생성형 AI 애플리케이션을 보다 빠르게 제공함으로써 생태계에서 혁신의 새로운 표준을 제시하게 될 것"이라고 말했다.

2025.02.05 11:13김미정

스노우플레이크 "방대한 기업 데이터, 단일 API로 관리 간소화"

"생성형 인공지능(AI) 시대 최대 과제는 기업 데이터 관리입니다. 단일 API로 데이터 환경을 간소화해야 합니다. 효율적인 데이터 관리로 쉬운 AI 애플리케이션 개발 환경을 고객에 제공할 수 있습니다. 또 고객에게 생성형 AI 서비스를 잘 지원하려면 높은 신뢰성·가성비도 필수입니다." 최기영 스노우플레이크 코리아 지사장은 10일 미디어 간담회를 통해 생성형 AI 시대 데이터 관리 방식과 AI 애플리케이션 개발 필수 요소를 이같이 밝혔다. 스노우플레이크는 10년 동안 글로벌 시장에 데이터 레이크하우스와 데이터 메시 등 다양한 데이터 아키텍처 솔루션을 지원해 왔다. 한국에는 3년 전 진출했다. 현재 전 세계적으로 50억 건 넘는 데이터를 매일 처리하고 있다. 고객은 약 10만 명이다. "AI로 복잡한 데이터 관리…단일 API로 간소화" 최기영 지사장은 생성형 AI 산업 활성화로 기업 데이터가 방대해졌다고 주장했다. 그동안 기업이 데이터 레이크 하우스와 데이터 메시, 웨어하우스 등으로 데이터 간소화에 노력했지만 복잡성이 오히려 늘었다고 지적했다. 이 과정에서 기업이 여러 엔진을 활용하면서 데이터 사일로가 다시 발생했다는 이유에서다. 이에 스노우플레이크는 방대한 데이터 관리를 간소화하기 위해 단일 API 방식을 채택했다. 이는 데이터 관리를 간소화할 뿐 아니라 여러 엔진을 하나로 합쳐줄 수 있는 방식으로 평가받고 있다. 현재 스노우플레이크 기업 고객은 단일 API로 정형 데이터와 비정형 데이터, 외부 데이터 등 다양한 소스를 하나의 통합된 인터페이스로 연결해 데이터를 간소화하고 통합적으로 활용하고 있다. 사용자는 복잡한 데이터 위치나 처리 방식을 고려하지 않아도 단일 API 호출로 데이터를 쿼리·분석할 수 있다. 예를 들어 PDF 계약서에서 결제 조건을 추출하거나 SQL 데이터베이스(DB)에서 배송 시간을 조회하는 작업을 동일한 API 호출로 한 번에 할 수 있다. 최 지사장은 "사용자는 단일 API를 통해 적합한 엔진을 자동으로 라우팅할 수 있다"며 "정형 데이터와 비정형 데이터를 유기적으로 연결할 수 있다"고 설명했다. 이어 "사용자는 별도 설정 없이 필요한 데이터를 간편하게 얻을 수 있다"며 "단일 API는 데이터 소스 간 경계를 허물고, 복잡한 데이터 추출·변환·적재(ETL) 작업을 줄여 효율성을 높인다"고 강조했다. "생성형 AI 환각현상 최소화·가성비 최대화 핵심" 스노우플레이크는 향후 AI 애플리케이션이 기업 시장에서 주요 킬러 앱으로 자리 잡을 것으로 내다봤다. 이를 실현하기 위한 필수 요소로 답변 신뢰성과 가성비를 꼽았다. 이날 스노우플레이크 코리아 이수현 테크에반젤리스트는 스노우플레이크의 검색증강생성(RAG) 주요 특징을 설명했다. 스노우플레이크는 현재 20개 넘는 매트릭스를 활용해 AI 모델 성능을 다각적으로 측정할 수 있는 방법을 도입했다. 측정 기준은 정확성과 연관성, 문맥 적합성이다. 우선 AI 모델이 내놓은 답변이 사용자 질문과 얼마나 밀접히 관련됐는지 평가한다. 이후 AI가 검색한 데이터와 제공한 응답 간 연관성을 검증한다. 마지막으로 답변이 질문 문맥과 얼마나 잘 맞는지 확인한다. 이를 자체적으로 수치화해 일정 점수가 넘어야 사용자에게 답변을 제공하는 식이다. 이 에반젤리스트는 AI 모델 성능이 임계값보다 낮을 경우 이를 자동으로 감지하고 사용자에게 알림을 제공한다고 설명했다. 과정도 간단하다. 우선 사용자는 모델 성능의 최소 허용 수준을 설정한다. 이후 시간이 지나면서 솔루션이 자체적으로 훈련 데이터와 현재 데이터 간 불일치를 탐지해 실시간으로 성능 저하를 식별한다. 이때 답변 정확도에 문제가 생기면 사용자는 기존 모델을 수정하거나 새 데이터로 모델을 재학습시키면 된다. 이 에반젤리스트는 "엔터프라이즈의 AI 핵심은 옵저버빌리티"라며 "AI 모델이 비즈니스 목표를 효과적으로 지원하고 기업에게 데이터 중심 의사 결정 기회를 줄 수 있을 것"이라고 밝혔다. 스노우플레이크는 데이터보안 강화를 위한 전략도 소개했다. 최근 잇따라 발생하는 데이터 거버넌스 이슈와 보안 문제를 해결하기 위한 목표다. 이 에반젤리스트는 "최근 기업들은 데이터를 AI 모델로 보내는 방식을 채택하기 일쑤"라며 "데이터를 외부 AI로 전송할 경우 보안 위험과 관리 어려움이 발생할 수 있다"고 지적했다. 이어 "AI 모델을 데이터 플랫폼으로 직접 가져와 데이터 내에서 관리하는 방식이 더 안전하다"며 "이를 통해 데이터 거버넌스와 보안에 생기는 이슈를 최소화할 수 있다"고 덧붙였다. 스노우플레이크는 가성비 있는 AI 활용을 지원하기 위해 오픈소스를 적극 활용할 것이라고 밝혔다. 기업이 데이터를 저비용에 처리할 수 있기 때문이다. 이를 통해 기업의 생성형 AI 사용 비용을 획기적으로 낮출 수 있다. 이 에반젤리스트는 "현재 아파치 아이스버그 도구로 생성형 AI의 학습 데이터 준비와 처리를 최적화해 비용 효율성을 높이고 있다"며 "대규모 데이터를 테이블 형식으로 관리해 필요한 데이터만 선택적으로 로드할 수 있어 데이터 준비와 처리 시간을 줄이고 불필요한 리소스 사용을 없앨 수 있다"고 강조했다.

2024.12.10 16:26김미정

스노우플레이크, 데이터 환경 개선·보안 강화 지원

스노우플레이크가 데이터 환경 단순화와 신뢰성 확보를 통해 기업에게 높은 개발 운영 효율성을 제공한다. 스노우플레이크는 자사 플렛폼 업그레이드와 신제품을 대거 출시했다고 10일 밝혔다. 이번 정식 출시된 '스노우플레이크 오픈 카탈로그'는 진화하는 데이터 아키텍쳐에서 새 엔진을 통합하고 일관된 거버넌스를 적용할 수 있다. 아파치 아이스커그 지원과 데이터 레이크하우스 기능도 강화했다. 스노우플레이크의 데이터 커버넌스 기능인 스노우플레이크 호라이즌 카탈로그에는 새 위협 예방 및 모니터링 기능을 추가하며 보안을 강화했다. 다크 웹에서 발견된 사용자의 비밀번호를 자동으로 비활성화하는 유출 비밀번호 보호기능과 API 인증을 위한 프로그래매틱 액세스 토큰을 지원한다. 애플리케이션 접근을 위한 개발자의 부담은 줄이고 해당 토큰에 범위와 만료 기한을 추가해 보안을 강화했다. 스노우플레이크는 트러스트 센터를 개선하고 플랫폼에 새로운 스토리지 라이프사이클 주기 정책, 데이터 레이크 성능 향상과 비용 절감을 위한 추가 기능도 더했다. 스노우컨버트의 경우 기존 테이블 오브젝트만 가능하던 마이그레이션을 뷰도 가능하도록 확대했다. '스노우플레이크 코텍스 AI' 업그레이드 스노우플레이크는 기업이 신뢰할 수 있는 AI를 프로덕션 환경에 도입할 수 있도록 지원하는 주요 기능도 발표했다. 이번에 업데이트된 스노우플레이크 코텍스 AI는 스노우플레이크의 완전 관리형 AI 서비스다. 기업이 고품질 대화형 앱을 더 효율적으로 구축하도록 지원한다. 이번 업데이트에는 메타의 라마 3.2 모델과 등 멀티모달 LLM을 통해 이미지와 곧 오디오, 다양한 형태의 비정형 데이터를 지원하는 기능이 추가됐다. 마이크로소프트 셰어포인트용 스노우플레이크 커넥터로 내부 지식 베이스와 외부 문서 데이터를 빠르게 통합할 수 있다. 마이크로소프트 365 셰어포인트 파일과 문서에 액세스, 자동으로 파일을 수집하고 AI 활용을 위한 전처리 작업을 생략할 수 있다. 문서 전처리 기능도 강화했다. 새로운 함수 호출로 PDF 및 다른 문서를 AI에 활용 가능한 상태로 쉽게 전처리할 수 있다. 텍스트 추출부터 청킹을 코텍스 서치에서 사용할 수 있다. 사용자는 코텍스 챗 API를 사용해 앱 프론트엔드와 스노우플레이크 간 통합을 간소화할 수 있다. 정형 데이터와 비정형 데이터를 단일 API 호출로 결합해 검색증강생성(RAG) 및 에이전트 기반 분석 앱을 더 쉽고 빠르게 구축하도록 돕는다. 사용자는 개발 및 운영 중에 AI 앱을 관련성, 정확도, 고정관념, 지연 등 20개 이상의 지표를 사용해 평가하고 지속적으로 모니터링할 수 있다. LLM을 위한 'AI 관찰'로 제공되며 스노우플레이크가 인수한 트루에라의 기술이 통합됐다. 정확한 셀프 서비스 분석도 제공한다. 코텍스 애널리스트를 통해 멀티턴 대화기능, 코텍스 서치 통합을 포함한 다양한 데이터 검색 기능으로 기업이 정형화된 데이터에서 더 정확한 인사이트를 얻도록 지원한다. 스노우플레이크는 자연어 처리(NLP) 기능을 향상해 배치 LLM 추론 옵션을 개선하고 더 많은 모델 옵션과 맞춤형 파인 튜닝 방식을 제공한다. 개발자는 코텍스 AI에 더 많은 사전 학습된 LLM, 임베딩 모델 크기, 지원하는 언어 등을 추가해 기업은 가장 적합한 LLM을 유연하게 선택할 수 있다. 이번에 추가된 코텍스 플레이그라운드 기능은 사용자가 다양한 LLM의 응답을 생성하고 비교할 수 있는 통합된 채팅 인터페이스다. 기업이 최적의 LLM 모델을 쉽게 찾도록 돕는다. 코텍스 서버리스 파인튜닝은 개발자가 데이터 자산으로 모델을 맞춤화하고 더 정확한 결과를 생성하도록 한다. 여러 작업에서 LLM을 대규모로 사용할 때 일관된 응답 생성을 지원한다. 프로비전드 스루풋은 대규모 LLM 추론 작업을 프로비전된 처리량으로 처리해야 하는 기업을 위해 기업이 성능을 보장하는 상태에서 성공적으로 작업을 처리하도록 지원한다. 스노우플레이크 배리스 굴테킨 AI 책임자는 "기업은 효과적인 의사 결정을 위해 정확하고 신뢰할 수 있는 AI가 필요하다"며 "이는 AI 모델을 작동할 다양한 출처의 고품질 데이터에 대한 접근으로부터 시작한다"고 강조했다. 이어 "스노우플레이크 코텍스 AI와 스노우플레이크 ML의 플랫폼 혁신을 통해 기업 데이터를 활용한 신뢰할 수 있는 AI를 더 빨리 제공할 수 있다"며 "이를 바탕으로 챗봇 개발 속도와 AI 프로젝트 비용, 성능을 개선해 ML 개발을 가속화할 수 있다"고 덧붙였다.

2024.12.10 10:37김미정

"모델 접근성↑"…스노우플레이크, 코텍스 AI에 '클로드' 추가

스노우플레이크가 자사 애플리케이션에 앤트로픽 인공지능(AI) 모델을 추가해 사업 확장에 나섰다. 21일 벤처비트 등 외신에 따르면 스노우플레이크가 앤트로픽의 '클로드 3.5' 시리즈를 코텍스 AI에 적용한다. 스노우플레이크 고객은 클로드 모델로 AI 에이전트 개발 등을 코텍스 AI에서 진행할 수 있다. 또 클로드의 추론 능력과 문제 해결 능력을 통해 기존 생성형 AI 애플리케이션 기능 확장도 가능하다. 예를 들어 코텍스 AI 사용자는 클로드 3.5 소넷으로 데이터 분석을 비롯한 애드혹(Ad-hoc) 분석, 시각화 생성 등 다단계 워크플로우를 수행하는 에이전트 만들 수 있다. 스노우플레이크는 신제품과 사내 워크플로에도 클로드 모델군을 적용한다고 밝혔다. 우선 클로드 모델이 스노우플레이크 인텔리전스, 코텍스 애널리스트 같은 새 에이전트 기반 제품 형태로 제공될 예정이다. 내부적으로는 스노우플레이크 직원들이 맞춤형 에이전트 워크플로 생성에 클로드 모델을 활용할 예정이다. 외신은 스노우플레이크가 이런 전략을 통해 주요 경쟁사인 데이터브릭스를 제치려는 목표를 내비쳤다고 분석했다. 데이터브릭스는 앤트로픽을 포함한 오픈소스·폐쇄형 모델을 자사 플랫폼에 적용했다. 데이터브릭스 고객은 앤트로픽 API를 통해서만 클로드 모델에 접근할 수 있다. 반면 스노우플레이크 고객은 클로드 모델을 직접 활용 가능하다. 스노우플레이크 고객이 데이터브릭스 고객보다 모델 접근성이 한층 더 높아진 셈이다. 스노우플레이크 크리스천 클라이너만 제품 부문 부사장은 "코텍스 AI 사용자는 데이터 분석부터 챗봇 개발 등을 포함한 다양한 AI 에이전트 기반 작업을 기존보다 원활히 진행할 수 있을 것"이라고 밝혔다.

2024.11.21 10:14김미정

"韓 10대 기업이 찜"…스노우플레이크, 코텍스AI에 '라마3.1' 탑재

"애플리케이션 개발 플랫폼 '스노우플레이크 코텍스AI'에 오픈소스 모델 '라마 3.1'을 본격 추가했습니다. 기업은 코텍스AI로 앱 개발을 대규모로 원활히 진행할 수 있습니다. 현재 국내 10대 대기업이 이 플랫폼을 선택한 이유입니다." 최기영 스노우플레이크 한국 지사장은 9일 서울 강남 파크 하얏트에서 열린 '스노우플레이크 월드투어 서울'에서 새 거대언어모델(LLM) 호스팅 계획을 이같이 밝혔다. 이를 통해 코텍스AI는 엔터프라이즈 고객들에 원활한 인공지능(AI) 서비스를 추가 공급할 수 있다. 스노우플레이크 서비스에 탑재된 라마3.1은 오픈소스 LLM이다. 메타의 라마 제품군 중 가장 큰 모델로, 파라미터 405억개로 이뤄졌다. 코텍스AI는 라마3.1로 실시간 고처리량 추론을 진행하고 자연어처리(NLP)와 생성형 AI 앱 개발을 돕는 환경을 제공한다. 최기영 지사장은 "코텍스AI는 라마3.1로 더 빠른 시간 내에 높은 추론력을 구현할 수 있다"고 강조했다. 기존 오픈소스 솔루션보다 엔드투엔드(end-to-end) 지연시간은 최대 3분의 1로 줄고, 처리량은 1.4배 높아졌다는 이유에서다. 최 지사장은 스노우플레이크 AI 리서치팀이 라마3.1 출시와 더불어 LLM 추론과 파인튜닝 시스템 최적화 스택을 오픈소스화하고 있다는 점도 설명했다. 이를 통해 수천억개 매개변수로 이뤄진 모델 접근성을 높이고 파인튜닝 시스템에 필요한 솔루션을 구축할 방침이다. 최 지사장은 스노우플레이크가 LLM 추론과 파인튜닝 시스템 최적화를 위해 노력 중이라고 밝혔다. 고급 병렬화 기술과 메모리 최적화를 통해 복잡하고 고비용 인프라 없이 효율적인 AI 처리가 가능하도록 만들기 위해서다. 그는 "라마 3.1 405B로 스노우플레이크의 시스템 스택은 GPU 노드 하나만으로 실시간의 고처리량 성능을 발휘할 수 있다"고 말했다. 이런 환경에서 개발자들은 적은 개수로 이뤄진 GPU 상에서 복잡한 기술로 라마 3.1 405B를 파인튜닝할 수 있다. 대규모 GPU 클러스터 환경 자체가 필요 없게 된 셈이다. 이에 기업들은 생성형 AI 앱을 전보다 편리하고 빠르게 구축·배포할 수 있다. 최 지사장은 "국내 상위 10대 기업 중 80%를 확보한 상태"라며 "사용하기 쉽고 효과적인 서비스를 제공한다는 가치를 지킬 것"이라고 말했다.

2024.09.09 16:06김미정

스노우플레이크, 노코드로 LLM 챗봇 구축 기능 공개

[샌프란시스코(미국)=김우용 기자] 스노우플레이크는 4일(현지시간) 미국 샌프란시스코에서 개최한 '스노우플레이크 서밋 2024' 둘째날 행사에서 '스노우플레이크 코텍스 AI'의 새로운 기능을 발표했다. 스노우플레이크 코텍스 AI는 AI 기반 애플리케이션을 쉽고 효율적으로 생성하는 도구로, 최신 업데이트를 통해 기업이 수 분 내에 챗봇을 만들고 채팅 환경에서 자사 데이터를 활용한 답변을 얻어낼 수 있도록 한다. 스노우플레이크의 새로운 노코드 인터랙티브 인터페이스와 대규모언어모델(LLM)에 대한 접근 및 서버리스 파인튜닝은 비전문가도 특정 산업 사용 사례에 맞춰 AI를 쉽게 활용하는 '데이터 민주화'를 견인한다. 스노우플레이크 ML을 통해 머신러닝을 위한 통합 환경을 갖추고 모델을 운영할 수 있는 경로를 빠르게 개발할 수 있다. 스노우플레이크의 생성형 AI 및 ML 통합 플랫폼은 비즈니스 전반에 걸쳐 데이터로부터 더 많은 가치를 창출하고 완전한 보안과 거버넌스, 제어 기능으로 신뢰할 수 있는 AI를 대규모로 제공한다.. LLM 기반 챗봇의 강점은 비전문가도 자연어로 질문해 내부 기업 데이터를 활용할 수 있다는 것이다. 기업은 이를 활용해 중요한 의사 결정을 하는데 필요한 인사이트를 빠르게 얻을 수 있다. 스노우플레이크는 '스노우플레이크 코텍스 애널리스트(퍼블릭 프리뷰 예정)'와 '스노우플레이크 코텍스 서치(퍼블릭 프리뷰 예정)' 등 두 가지 새로운 채팅 기능을 공개했다. 사용자는 복잡한 절차 없이 보유한 정형 및 비정형 데이터를 바탕으로 수 분만에 챗봇을 개발할 수 있다. 메타의 라마3, 미스트랄 라지 모델로 구축한 코텍스 애널리스트를 통해 기업은 생성형 AI 기반의 애플리케이션을 안전하고 쉽게 구축할 수 있다. 코텍스 서치는 2023년 5월 스노우플레이크가 인수한 니바의 최첨단 검색 및 랭킹 지정 기술과 스노우플레이크 아크틱 임베드를 함께 활용해 벡터 및 텍스트가 결합된 엔터프라이즈급 하이브리드 검색 기능을 제공한다. 이를 통해 문서 및 기타 텍스트 기반 데이터세트에 대한 애플리케이션을 구축할 수 있도록 한다. 비전문가도 매우 간단한 단계를 거쳐 빠르게 AI 기반 채팅 서비스를 구성할 수 있다. 스노우플레이크는 기업 데이터 및 자산 전반에 걸쳐 폭력, 혐오, 자해 또는 범죄 행위 등의 유해 콘텐츠를 필터링하는 LLM 기반 입출력 보호 기능인 메타의 라마 가드를 활용한 스노우플레이크 코텍스 가드를 출시한다. 스노우플레이크는 코텍스 가드를 통해 기업을 위한 AI 안전성을 높였다. 스노우플레이크는 맞춤형 채팅 개발 뿐 아니라 사전 구축된 AI 기반 경험을 제공한다. 사용자는 도큐먼트AI를 통해 스노우플레이크의 멀티모달 LLM '스노우플레이크 아크틱 TILT'로 인보이스의 액수 또는 계약 조건 등의 콘텐츠를 간편하게 추출할 수 있다. 이 모델의 성능은 GPT-4를 능가하며 시각적 문서 질문 응답의 표준인 DocVQA 벤치마크 테스트에서 최고 점수를 기록했다. 노던 트러스트 등의 기업은 도큐먼트 AI를 활용해 문서를 대량으로 처리함으로써 운영비용은 줄이고 효율성을 높이고 있다. 스노우플레이크는 미스트랄 라지의 강점과 스노우플레이크의 독자적 SQL 생성 모델을 조합해 모든 SQL 사용자의 생산성을 더욱 높여주는 텍스트-투-SQL 어시스턴트 스노우플레이크 코파일럿도 출시할 예정이다. 스노우플레이크 코텍스 AI는 스노우플레이크의 정상급 오픈소스 LLM인 스노우플레이크 아크틱 외에도 구글, 메타, 미스트랄 AI, 레카 등 유수 업체의 최첨단 모델 세트를 고객에게 제공해 AI 개발을 가속화한다. 스노우플레이크는 AI 개발 착수와 더 빠른 AI 애플리케이션 제품화를 지원하는 노코드 인터랙티브 인터페이스인 새로운 스노우플레이크 AI & ML 스튜디오(프라이빗 프리뷰)를 통해 누구나 각자의 기업 데이터에 쉽게 적용하도록 하며 데이터 활용을 대중화하고 있다. 사용자는 간편한 테스트·평가 과정을 거쳐 특정 분야에 가장 적합한 모델을 선정하고, 궁극적으로 운영비를 최적화하며 생산 단계에 이르는 기간을 단축할 수 있다. 스노우플레이크는 기업이 LLM 성능을 더욱 향상하고 보다 개인화된 경험을 제공할 수 있도록 코텍스 파인튜닝(퍼블릭 프리뷰)을 출시했다. 이 서버리스 맞춤화는 메타 및 미스트랄 AI 모델의 일부로 제공되며 AI & ML 스튜디오 또는 간단한 SQL 기능으로 이용할 수 있다. 파인 튜닝을 거친 모델은 코텍스 AI 기능을 통해 쉽게 사용할 수 있으며, 스노우플레이크 역할 기반 접근제어를 통해 액세스를 관리한다. 대부분의 기업은 ML 및 LLM 모델 개발 이후 변화하는 데이터 세트에서 이를 계속해서 운영하는 데 어려움을 겪는다. 스노우플레이크 ML은 AI 데이터 클라우드에 ML옵스 기능을 제공한다. 조직은 데이터 전처리부터 모델 관리까지, ML 생애 주기 전반에 걸쳐 기능, 모델, 메타데이터를 원활하게 발견하고 관리 및 통제할 수 있다. 이러한 중앙 집중식 ML옵스 기능은 스노우플레이크 노트북과 스노우파크 ML을 비롯한 스노우플레이크 플랫폼과도 통합돼 간편한 엔드투엔드 경험을 제공한다. 스노우플레이크의 ML옵스 기능은 스노우플레이크 모델 레지스트리를 포함한다. 스노우플레이크 모델 레지스트리는 모든 유형의 AI 모델의 액세스 및 사용을 통제함으로써 신뢰성과 효율을 보장하고 더욱 개인화된 경험과 비용 절감 자동화를 제공한다. 스노우플레이크는 데이터 사이언티스트와 머신러닝 엔지니어들이 일관된 ML 기능을 생성, 저장, 관리 및 제공할 수 있는 통합 솔루션인 스노우플레이크 피처 스토어(퍼블릭 프리뷰)와 ML 리니지(프라이빗 프리뷰)를 발표했다. 이 서비스를 통해 기업은 ML 생애주기 전반에 걸쳐 기능과 데이터 세트, 모델의 사용을 추적할 수 있다. 크리스티안 클라이너만 스노우플레이크 제품 총괄부사장(EVP)은 “스노우플레이크의 AI 서비스는 엔터프라이즈의 모두에게 데이터에 접근할 수 있는 힘을 주고, 막대한 기회를 준다”며 “코텍스 AI는 여러 복잡한 단계로 이뤄지는 AI 개발 워크플로우를 쉽게 구축하게 하기에 여러 혁신을 일으키고 있다”고 밝혔다. 그는 “데이터와 AI의 힘으로 더 많은 것을 할 수 있다”며 “여러분의 조직이 엔터프라이즈 AI 시대를 선도하며 더 많은 가치와 인사이트를 찾을 수 있도록 도울 것이며, 끊임없이 혁신을 이어가자고 약속하겠다”고 강조했다.

2024.06.05 06:39김우용

"엔터프라이즈 AI의 시대가 왔다"

[샌프란시스코(미국)=김우용 기자] “엔터프라이즈 AI의 시대가 도래했습니다.” 슈리다 라마스워미 스노우플레이크 최고경영자(CEO)는 3일(현지시간) 미국 샌프란시스코에서 개최한 연례 컨퍼런스 '스노우플레이크 서밋 2024' 기조연설에서 이같이 밝혔다. 슈리다 라마스워미 CEO는 “우리의 통합 플랫폼은 그 어느 때보다 우수하고 강력하게 복잡한 것을 간단하고 정교하며 비용 효율적으로 만든다”며 “아이디어를 뒷받침하는 통합 데이터 플랫폼에 내장된 쉽고 효율적이며 신뢰할 수 있는 AI를 여러분 모두에게 제공하기 위해 엄청난 속도로 작동하고 있다”고 강조했다. 스노우플레이크는 기업이 자사 플랫폼에서 엔비디아AI를 기반으로 맞춤형 AI 데이터 애플리케이션을 구축할 수 있도록 엔비디아와의 협력을 강화한다고 발표했다. 양사 협력을 통해 스노우플레이크는 엔비디아 AI 엔터프라이즈 소프트웨어를 적용, 네모 리트리버 마이크로서비스를 완전 관리형 LLM 및 벡터 검색 서비스인 스노우플레이크 코텍스 AI에 통합했다. 고객은 맞춤형 모델을 다양한 비즈니스 데이터에 원활히 연결하고 정확한 응답을 제공할 수 있게 된다. 엔터프라이즈급 LLM 스노우플레이크 아크틱은 엔비디아 텐서RT-LLM 소프트웨어를 지원해 고도로 최적화된 성능을 제공한다. 또, 엔비디아 NIM(추론 마이크로서비스)로도 사용할 수 있게 돼 더 많은 개발자가 아크틱에서 인사이트를 얻을 수 있다. 기업은 AI를 적용할 수 있는 다양한 방법들을 모색하고 있고, 맞춤화된 모델을 생성하기 위해 데이터 활용은 더욱 중요해졌다. 스노우플레이크와 엔비디아의 협력으로 기업들은 맞춤형 사례별 AI 솔루션을 빠른 속도로 구축할 수 있고, 이를 통해 기업들은 엔터프라이즈 AI의 잠재력을 실현하고 있다. 슈리다 라마스워미 CEO는 “엔비디아의 풀스택 가속 컴퓨팅 및 소프트웨어와 스노우플레이크의 최신 AI 기능을 코텍스 AI에 통합시키는 것은 시장 판도를 바꿀 것”이라며 “양사는 모든 산업과 모든 기술 수준의 고객이 쉽고 효율적이며 안전하게 맞춤형 AI 애플리케이션을 기업 데이터에 구축할 수 있는 AI 의 새로운 시대를 열고자 노력하고 있다”고 강조했다. 젠슨 황 엔비디아 CEO는 타이완 타이베이에서 온라인 생중계로 기조연설에 참석했다. 그는 “AI는 매우 큰 규모의 컴퓨팅을 필요로 하며, 인프라 임대 기간이 짧을수록 비용을 줄이고 모델을 더 많이 반복 학습할 수 있으며 시장에 더 빨리 출시할 수 있다”며 “AI 모델이 토큰을 생성하는 생성형 AI의 시대에 모두가 비용을 낮출 수 있도록 빠르게 생성하기를 원하는 가운데 토큰 생성을 위한 혁신적인 런타임인 텐서 RT LM 통합에 스노우플레이크 팀과 협력하게 돼 기쁘다”고 밝혔다. 라마스워미 CEO는 엔비디아 H100 텐서코어 GPU를 활용해 스노우플레이크 아크틱을 3개월만에 구축할 수 있었다고 밝혔다. 지난 4월 출시된 최신 LLM 스노우플레이크 아크틱은 엔비디아 H100 텐서 코어 GPU를 통해 학습됐다. 엔비디아 NIM에 통합돼 사용할 수 있어 몇 초 만에 시작할 수 있다. 엔비디아가 호스팅하는 아크틱 NIM은 엔비디아 AI 카탈로그를 통해 실시간으로 제공돼 개발자가 무료 크레딧을 사용해 선호하는 인프라를 선택해 개방성이 가장 높은 기업용 LLM을 배포할 수 있도록 지원한다. 젠슨 황 CEO는 “네모 리트리버는 의미 체계 쿼리 라이브러리로서 데이터를 포함하며 가장 중요한 데이터는 기업 독점 데이터이고, 스노우플레이크에 있다”며 “이제 더 나은 인덱스 가이드, 더 나은 순위를 검색하고 몰입감 있는 방식으로 매우 크고 독점적인 데이터를 채팅 기능에 직접 연결할 수 있도록 도울 수 있게 됐다”고 말했다. 이어 “기업이 스노우플레이크에 보유한 데이터의 양이 너무 커서 처리를 위해 다른 곳으로 옮길 수 없게 됐으므로, 컴퓨팅을 데이터쪽으로 옮기는 것이 훨씬 더 쉬운 방법”이라며 “엔비디아 가속 컴퓨팅과 생성형 AI 컴퓨팅이 스노우플레이크 코텍스 AI에서 바로 처리를 수행할 수 있는 동일한 위치에 있게 돼 완전히 혁신적”이라고 강조했다. 스노우플레이크와 엔비디아는 네모 리트리버와 같은 엔비디아의 AI 엔터프라이즈 소프트웨어 제품군의 핵심 기술을 코텍스 AI에 통합하기 위해 협력하고 있다. 이를 통해 기업은 AI 투자를 극대화하는 맞춤형 AI 기반 애플리케이션을 효율적으로 구축하고 활용할 수 있게 된다. 엔비디아 네모 리트리버는 코텍스 AI 내에서 검색 증강 생성(RAG) 기반의 AI 애플리케이션을 구축하는 기업이 보다 정확하고 효율적인 결과를 도출할 수 있는 정보 검색 기능을 제공한다. 엔비디아 트리톤 인퍼런스 서버는 모든 플랫폼의 모든 애플리케이션에 대해 AI 추론을 배포, 실행 및 확장할 수 있는 기능을 제공한다. 양사 협력을 통해 고객들은 엔비디아 AI 소프트웨어 기반의 AI 솔루션 NIM을 스노우파크 컨테이너 서비스에 네이티브 앱의 형태로 배포해 사용할 수 있다. 이를 통해 기업은 스노우플레이크 내 일련의 파운데이션 모델을 쉽게 배포할 수 있게 된다. 젠슨 황 엔비디아 CEO는 “생성형 AI의 속도는 무어의 법칙을 따르지 않고 6개월마다 두배 빨라지고 있다”며 “여기서 정말 중요한 것은 이 기차에 최대한 빨리 뛰어들어야 한다는 것이고, 이 비행을 바라보는 것은 좋은 전략이 아니다”라고 조언했다. 슈리다 라마스워미 CEO는 “스노우플레이크의 AI 데이터 클라우드에서 매일 50억개의 쿼리가 발생하고 있는데 이는 구글의 일일 검색수와 같은 규모”라며 “스노우플레이크는 고객의 성공에 계속 집착할 것이고, 복잡한 작업을 단순하고 비용효율적으로 만드는 단일 통합 플랫폼을 구축한다는 약속은 변하지 않는다”고 강조했다. 슈리다 라마스워미 CEO는 “모든 스노우플레이크 사용자에게 생성형 AI를 제공하는 완전 관리형 서비스인 코텍스 AI를 출시함으로써 기존 SaaS 모델에서 불가능했던 애플리케이션을 구축하고 실행하게 했다”며 “AI 데이터 클라우드에서 1천 개 이상의 앱이 실행중이고 그중 160개는 스노우플레이크 마켓플레이스에서 사용가능하다”고 덧붙였다.

2024.06.04 19:24김우용

[기고] 스노우플레이크가 제안하는 기업 환경을 위한 생성형 AI

생성형 AI는 생산성을 개선하며 데이터에서 더 많은 가치를 창출하는 새로운 방법을 제시한다. 하지만 기업은 생성형 AI를 도입하기에 앞서 '데이터는 과연 신뢰할 수 있는 것인가?', '새로운 기술 채택을 위해 컴퓨팅 환경을 새롭게 구축해야 하는가?', '생성형 AI 기능을 제공하는 애플리케이션을 구축하고 운영해야 하는가?'와 같은 다양한 고민이 생긴다. 그런데 흥미로운 것은 이 모든 고민들의 출발은 '데이터'라는 분명한 사실이다. 기업은 올바른 데이터 전략 없이 올바른 AI 전략을 수립할 수 없다. 본 글에서는 스노우플레이크 단일 플랫폼에서 제공하는 생성형 AI와 관련 기능에 관해 설명하고자 한다. 기업 환경에서 안전한 생성형 AI 활용을 위해 데이터, 대규모언어모델(LLM), 심지어 생성형 AI 애플리케이션까지 일관되게 적용할 수 있는 광범위한 데이터 보안 및 거버넌스 체계를 구축해야 한다. 또한 데이터와 이 데이터로 학습된 모델을 포함해, 전체 생성형 AI 스택들이 안전하게 보호되어야 한다. 데이터 플랫폼과 LLM 환경을 통합하여 기업 데이터가 외부로 유출되는 것을 방지하고 새로운 기술을 위한 투자 비용을 최소화하는 것도 중요하다. 아래 그림은 스노우플레이크 데이터 클라우드 플랫폼에서 제공하는 생성형 AI 기능이다. 이 모든 기능은 데이터를 기반으로 한다. 기업 전반에 분산된 데이터는 데이터의 유형, 형식, 구조와 관계없이 단일 플랫폼에 통합돼 안전하게 보호 및 관리된다. ■ 데이터에 LLM 가져오기 생성형 AI를 위한 데이터가 준비되면 사용자는 LLM 관련 기능을 안전하고 자유롭게 사용할 수 있어야 하고, AI 애플리케이션도 빠르게 구축, 활용할 수 있어야 한다. 또한 생성형 AI가 제공하는 잠재력을 최대한 활용하기 위해서는 전문가뿐만 아니라 AI 전문 지식이 없는 사용자 누구라도 서비스를 쉽고 안전하게 접할 수 있어야 한다. 이를 위해 스노우플레이크는 데이터가 있는 환경에 LLM 관련 기능을 제공하고자 스노우플레이크 코텍스(Cortex)를 개발했다. 스노우플레이크 플랫폼에서는 미스트랄, 메타, 구글에서 제공하는 LLM 모델뿐만 아니라 자체 개발한 LLM이 내장된 상태로 제공된다. 다양한 LLM은 스노우파크 컨테이너 서비스(SPCS)를 통해 데이터 플랫폼 내에서 실행, 파인튜닝 된다. 코텍스에서 제공하는 다양한 기능으로 개발 생산성과 사용자 경험을 개선하고 새로운 분석 인사이트 또한 제공할 수 있다. 이러한 LLM 관련 기능들은 서버리스 기반의 완전 관리형 서비스로 제공되기 때문에, 사용자는 생성형 AI를 위해 높은 비용을 들여 GPU 인프라를 구축하거나 관리할 필요가 없다. 필요한 시점에 코텍스에서 제공하는 서비스를 사용할 수 있으며, 사용한 만큼의 비용만 과금되기 때문에 효율적인 비용으로 생성형 AI 기반의 새로운 사용자 경험을 누릴 수 있다. 스노우플레이크 플랫폼에 내장되지 않은 다른 LLM이나 AI21 랩스, 레카(Reka), 엔비디아 네모(NeMO) 등 상용 LLM들도 스노우플레이크 마켓플레이스를 통해 사용자 환경에 간편하게 설치하고 실행할 수 있다. ■ 스노우플레이크 코텍스 스노우플레이크 코텍스는 스노우플레이크 데이터 클라우드 플랫폼의 핵심 생성형 AI 기능이다. 코텍스는 사용자가 프롬프트를 정의할 필요 없이 번역, 감정 분석, 요약과 같은 작업을 빠르고 비용 효율적으로 실행할 수 있는 기능을 제공한다. 코텍스는 LLM에 관련된 다양한 기능들을 다음과 같은 관리형 함수로 제공한다. -EXTRACT_ANSWER(미리보기): 질문과 구조화되지 않은 데이터가 입력되면 질문에 대한 답변을 제공한다. -SENTIMENT(미리보기): 요청 받은 텍스트에서 감지된 긍정 또는 부정적 감정을 제공한다.(긍정:1, 부정:-1) -SUMMARISE(미리보기): 요청 받은 텍스트의 요약을 제공한다. -TRANSLATE(미리보기): 요청 받은 텍스트를 다른 언어로 번역한다. 코텍스의 첫 번째 장점은 사용 편의성이다. 생성형 AI 기능 구현을 위해 별도의 인프라 구축이나 관리가 필요 없다. 두 번째는 구현 편의성이다. 소개한 생성형 AI 기능들은 복잡한 구현 없이 단순하게 코텍스에서 제공하는 함수를 SQL이나 파이썬 코드에서 호출하면 된다. 이외에도 코텍스는 COMPLETE 함수와 TEXT2SQL 함수를 추가로 제공한다. -Complete(미리보기): 프롬프트의 입력값을 대상으로 LLM을 사용해 응답 텍스트 결과를 제공한다. -Text2SQL(미리보기): 프롬프트에 입력된 자연어를 기반으로 스노우플레이크에서 실행 가능한 SQL문을 제공한다. 이 함수들은 다양한 LLM을 서버리스 기반의 SQL 또는 파이썬 함수 형식으로 제공하는 것이 특징이다. 사용자는 미스트랄, 라마 및 구글의 LLM을 요구사항에 맞게 선택해 사용할 수 있다. COMPLETE와 TEXT2SQL 함수는 스노우플레이크 환경에서 운영되는 앱 개발에도 쓰일 수 있다. 스트림릿에서 개발한 단 몇 줄의 파이썬 코드로 특정 업무 목적에 맞는 챗봇을 개발하거나 커스터마이징한 코파일럿을 개발해 활용할 수 있다. ■ 도큐먼트 AI(미리보기 기능) 도큐먼트 AI는 스노우플레이크의 자체 멀티 모달 LLM을 활용해 비정형 파일(예: PDF, WORD, TXT 등)을 새로운 데이터 소스로 처리하는 기능이다. 비정형 데이터를 정형화할 수 있는 파이프라인 기능이 포함돼 있으며, 직관적인 UI로 데이터를 사전 학습하고 비정형 데이터에서 필요한 정보를 자연어 기반으로 쉽게 추출할 수 있다. ■ 유니버설 서치(미리보기 기능) 유니버설 서치는 스노우플레이크 플랫폼 내의 데이터와 앱을 간편하게 검색하고 사용할 수 있게 하는 LLM 기반 검색 기능이다. 데이터베이스, 테이블, 칼럼과 같은 메타 정보를 탐색하는 데이터 거버넌스 기능으로 활용할 수도 있다. 마켓플레이스의 데이터나 앱을 쉽게 검색하거나, 스노우플레이크와 관련된 기술 사항을 자연어 기반으로 질의하고 원하는 답변을 얻음으로써 사용자 경험을 개선하는 용도로 활용된다. ■ 스노우플레이크 코파일럿(미리보기 기능) 코파일럿은 자연어로 SQL을 생성하고 구체화하는 LLM 기반의 개발 도우미다. SQL을 모르는 사용자도 쿼리를 생성하고 구체화함으로써 데이터 분석에 대한 어려움을 낮추고 진정한 '데이터 민주화'를 경험할 수 있다. 이 텍스트 코드 변환 기능은 앞서 설명한 코텍스의 Text2SQL 함수를 사용해 함수 또는 사용자 애플리케이션에서 활용할 수 있다. ■ 스노우플레이크 아크틱 스노우플레이크는 올해 4월 아파치 2.0 라이선스로 업계 최고 수준의 개방성과 성능을 제공하는 기업용 LLM인 '스노우플레이크 아크틱'을 출시했다. 이 파운데이션 모델은 스노우플레이크만의 독창적인 전문가 혼합(MoE) 아키텍처로 설계돼 동급 최고의 성능과 생산성을 보인다. 스노우플레이크 아크틱은 다음과 같이 다섯 개의 서로 다른 용량을 가진 모델을 제공한다. 아크틱은 스노우플레이크 AI 연구소에서 실제 검색 워크로드에 중점을 두고 개발한 LLM이다. MTEB에 따르면 3억 3천400만 개의 매개 변수를 가진 아크틱(Snowflake Arctic-Embed-L) 모델은 오픈AI에 비해 추정 매개변수가 4분의 1 수준밖에 되지 않는다. 데이터의 차원은 3분의 1 수준이지만, 검색 성능은 더 높다. 이는 10억 개 이상의 매개변수를 가진 모델들도 달성하기 어려운 성능이다. 아크틱의 주요 특징은 다음과 같다. -아크틱 임베드 모델은 5가지 크기(X-Small부터 Large)로 제공된다. 모델의 크기는 2천300만~3억 3천400만 개의 매개변수로 구성돼 있으며, 사용자는 요구사항에 따라 적합한 모델을 선택하여 사용할 수 있다. -아크틱은 아파치 2.0 라이선스를 통해 제공되며, 가중치, 코드, 데이터 레시피 및 연구 과정에서 얻은 다양한 인사이트를 제공한다. -아크틱은 Dense + MoE 아키텍처를 혼용해 설계됐다. 이에 학습 효율성은 높아졌고 더 낮은 비용으로 더 나은 성능을 제공한다. 아크틱 모델의 크기는 유사한 품질의 임베딩 모델과 비교해 더 작기 때문에 대기 시간을 줄이고 TCO를 절감하는 데 도움이 된다. -검색 증강 생성(RAG) 또는 시맨틱 검색 서비스에서 아크틱을 사용할 경우, 높은 검색 성능에 기반한 고품질의 서비스를 제공할 수 있다. -스노우플레이크 아크틱은 현재 허깅페이스에서 직접 다운로드 받아 사용할 수 있으며, 곧 스노우플레이크 코텍스에 통합될 예정이다. 또한, 아마존웹서비스(AWS), 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 레플리케이트 및 투게더 AI의 카탈로그를 통해서도 제공될 예정이다. -일반적인 메트릭스를 위한 모델 훈련과 달리 아크틱은 SQL 생성, 코딩 지원 및 명령 이행과 같이 기업 환경에서 뛰어난 성능을 제공하기 위한 특화된 데이터 커리큘럼을 채택했다. 그동안 AI 모델 학습 알고리즘은 심층 신경망(DNN), 순환신경망(RNN), 장단기 기억(LSTM) 등을 거쳐 트랜스포머까지 꾸준히 발전해 왔지만, AI 모델 분야에서 트랜스포머 이후로 획기적인 발전을 이뤄내지는 못했다. 오픈AI가 매개변수를 늘려 LLM을 선보인 이후부터는 알고리즘 개선보다는 아키텍처 개선에 집중하기 시작했다. 현재 AI 아키텍처는 환각 현상, 경량화, 그리고 혼합이라는 세 가지 관점에 주력하고 있다. 아크틱의 가장 큰 장점은 앞서 설명한 세 가지 주력 사항을 모두 개선하는 독점적인 MoE 아키텍처를 기반으로 설계되었기 때문에, 작은 모델을 유지하면서도 효율적으로 실행한다. 다음 그림과 같이 아크틱은 유사한 다른 모델과 비교해 뛰어난 학습과 추론 성능을 보인다. 아크틱 모델 학습의 경우, 서로 다른 데이터 세트로 구성된 세 단계로 나눠 진행한다. 첫 단계에서는 1T 토큰을 사용해 일반적인 기술을 학습하고, 이후 두 단계에서는 1.5T 및 1T 토큰을 사용해 기업 중심의 기술을 집중적으로 학습한다. 이러한 점진적인 학습 과정은 더욱 복잡한 매트릭스를 효과적으로 학습할 수 있는 기반을 제공한다. 아크틱 모델 추론 효율성도 학습과 마찬가지로 좋은 성능을 제공한다. 아크틱 모델은 특정 작업을 수행할 때 필요한 매개변수만을 활성화 상태로 유지하기 때문에 전체적인 연산 비용을 절감하고, 빠르고 효율적인 추론을 가능하게 한다. 빠른 추론 성능은 기업 환경에서 LLM을 사용하는 경우 매우 중요한 평가 지표로 여겨진다. 일반적으로 LLM은 매개변수 수가 많은 모델을 의미한다. 이러한 파운데이션 모델의 가장 큰 문제점은 높은 비용이다. 초창기 LLM 분야에서는 고밀도 트랜스포머 아키텍처를 주로 선택했다. 모델 품질 개선을 위해 모델 크기를 쉽게 확장할 수 있었기 때문이다. 하지만 임계값 이상으로 모델 크기를 확장하기 위해서는 높아지는 연산 복잡도만큼 많은 컴퓨팅 비용이 소요된다. 오늘날 GPU는 매우 비싼 리소스이기 때문에 기존 고밀도 트랜스포머 모델을 학습하는 것은 시간과 비용 측면에서 큰 투자가 아닐 수 없다. 이러한 문제점을 해결하기 위해 사용된 방법이 MoE 아키텍처이다. MoE 아키텍처는 모델 레이어를 전문가 하위 네트워크가 원래 레이어와 동일한 크기의 MoE 레이어로 대체한다. 이로써 모델 학습과 추론에 필요한 컴퓨팅 비용을 증가하지 않으면서도 모델 품질을 향상한다는 장점이 있다. 스노우플레이크 AI 연구팀은 MoE 모델 내의 전문가 수와 전체 매개변수의 크기, 그리고 이 전문가를 조합하는 방법에 따라 모델 품질을 향상할 수 있다는 것을 입증했다. 480억 매개변수로 설계된 아크틱의 경우 세분된 128개의 전문가를 가지고 있으며, 이들 중 상위 2개의 전문가만 선택해 동작하도록 설계됐다. 이 과정에서는 17억개 규모의 매개변수만이 활성화되기 때문에 다른 MoE 아키텍처 기반의 LLM과 비교했을 때 탁월한 자원 효율성과 성능을 보인다. 또한, 스노우플레이크 아크틱은 학습 비용을 크게 절감했다. 이 모델은 아마존 EC2 P5 인스턴스를 통해 유사한 다른 모델들의 약 8분의 1 정도의 학습 비용만 사용하며 비용 효율성을 실현했다. 이러한 경제적인 이점은 기업 환경에서 비용 부담 없이 대규모 데이터와 복잡한 워크로드를 처리하는 데 도움을 줄 것이다. 앞으로 더 많은 기업이 스노우플레이크 데이터 플랫폼에 결합한 고성능 언어 모델을 접하고 그 무한한 가능성을 경험할 수 있기를 기대한다.

2024.05.07 11:30조성현

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 193만...교체 예약 대기 686만

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현