• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'벡터 데이터베이스'통합검색 결과 입니다. (8건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

디노티시아, 美 CB 인사이트 '2025 AI 100' 선정

장기기억 인공지능(AI) 및 반도체 통합 솔루션 전문기업 디노티시아는 글로벌 AI 스타트업 선정 기준 중 가장 권위 있는 평가로 꼽히는 CB 인사이트(CB Insights)의 '2025 글로벌 AI 100'에 선정됐다고 25일 밝혔다. 'AI 100'은 매년 전 세계에서 가장 혁신적인 인공지능 스타트업 100곳을 선정하는 리스트로, 디노티시아는 AI 인프라 부분, 특히 벡터 데이터베이스 분야의 기술력을 인정받아 이름을 올렸다. 올해 9회째를 맞은 'AI100'은 CB인사이트가 자체 데이터베이스를 기반으로 ▲투자 유치 현황, ▲산업 파트너십, ▲팀 구성, ▲기술 성숙도(Commercial Maturity) 및 모자이크 점수 (Mosaic Score) 등을 종합 평가해 최종 선발했다. 2025년 리스트에는 디노티시아를 포함해 엔비디아, 구글, 우버 등과 파트너십을 맺고 있는 글로벌 스타트업 100개사가 포함됐다. CB 인사이트의 만리오 카렐리(Manlio Carrelli) 대표는 “AI100에 선정된 기업들은 향후 AI 기술 발전을 이끌 차세대 주자들”이라며 “AI 에이전트, 물리기반, 멀티 에이전트 시스템 등 신흥 분야에서 빠르게 시장을 개척하고 있다”고 밝혔다. 정무경 디노티시아 대표는 “디노티시아는 AI에 데이터를 더하는 새로운 방식으로 접근하고 있으며, 벡터 데이터베이스 분야의 선도 기업으로 'AI 100'에 선정돼 매우 영광”이라며 “창업 1년 반밖에 되지 않은 신생기업임에도 시장의 높은 기대를 실감하고 있으며, 이번 기회를 발판으로 국내외 시장 확대에 더욱 속도를 내겠다”고 밝혔다. 디노티시아는 최근 MCP(Model Context Protocol) 기반 RAGOps(Retrieval-Augmented Generation Operations)를 통합한 SaaS형 벡터 데이터베이스 '씨홀스 클라우드(Seahorse Cloud)'의 클로즈 베타를 시작하며, 기술 경쟁력을 입증하고 있다. 씨홀스 클라우드는 클라우드 네이티브 아키텍처를 기반으로, 복잡한 하드웨어나 소프트웨어 설치 없이 몇 번의 클릭만으로 벡터DB를 손쉽게 구축하고 사용할 수 있도록 구현됐다. 또한 디노티시아는 세계 유일의 벡터 연산 전용 반도체 'VDPU(Vector Data Processing Unit)'을 통해, 벡터 연산의 정확도와 속도를 획기적으로 향상해, 기존 소프트웨어 기반 검색 대비 최대 10배 높은 성능을 구현하고, TCO를 80% 이상 절감하는 효과를 기대할 수 있다. 한편, 디노티시아 '씨홀스 클라우드'의 클로즈 베타 테스트를 공식 홈페이지 및 전용 웹사이트를 통해 진행 중이며, 현재 참가 신청을 받고 있다.

2025.04.25 11:23장경윤

"급증하는 LLM 데이터 처리량, '벡터 DB'로 해결"

디노티시아는 LLM의 전력 및 비용 효율성을 획기적으로 높일 수 있는 '벡터 데이터베이스(DB)'를 개발하고 있습니다. 기존 소프트웨어만을 다루는 기업들과 달리, 전용 반도체를 개발해 기술력을 크게 높인 것이 차별점이죠. 이달 주요 학회에서 '업계 최초'로 반도체 기반의 벡터 데이터베이스 데모 버전을 공개합니다. 정무경 디노티시아 대표는 최근 서울 강남 소재의 본사에서 기자와 만나 회사의 핵심 기술 및 향후 사업 전략에 대해 이같이 밝혔다. 지난해 설립된 디노티시아는 AI 기반 데이터 솔루션 전문기업이다. 삼성전자, SK텔레콤, 사피온 등에서 시스템반도체와 스토리지 시스템, 데이터베이스 등을 두루 개발한 정무경 대표가 창업했다. LLM서 급증하는 데이터 처리량…'벡터 DB'로 해결 정 대표는 기존 LLM(거대언어모델)의 발전 방향이 갈수록 한계에 직면할 것이라고 내다봤다. LLM 구동에 필요한 데이터 처리량이 매우 빠르게 늘어나고 있는 반면, 반도체의 성능 향상 속도는 기술적 한계로 이를 따라가지 못하고 있기 때문이다. 정 대표는 "현재 LLM은 1조개에 달하는 파라미터(매개변수)를 메모리에 저장하고, 필요할 때마다 이를 전부 읽어서 계산해야 하기 때문에 데이터 처리량이 매우 방대하다"며 "메모리의 대역폭을 넓힌 HBM(고대역폭메모리)가 비싼 가격과 어려운 수율 확보에도 불구하고 엔비디아 등에서 적극 채용한 이유도 여기에 있다"고 설명했다. 이 같은 LLM의 비효율성을 해결하기 위한 기술 중 하나가 RAG(검색증강생성)다. RAG는 데이터로부터 AI가 필요로하는 특정 정보를 정확하게 검색해내는 기술로, 이를 활용하면 답변의 정확도 및 효율성을 높일 수 있다. 디노티시아는 이 RAG의 핵심 기술인 벡터 데이터베이스를 '씨홀스(Seahorse)라는 이름으로 개발하고 있다. 벡터 데이터베이스란 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템을 뜻한다. 정 대표는 "벡터 데이터베이스를 활용하면, 수 많은 데이터를 일일이 직접 들여다보지 않더라도 질문과 관련된 정보들이 자동적으로 추출될 수 있게 인덱스(색인)할 수 있다"며 "디노티시아는 전 세계 모든 고객사의 데이터를 벡터 데이터베이스해 효율적인 시맨틱 서치(사용자의 의도 및 문맥을 파악해 원하는 결과를 도출하는 검색)를 가능케 하는 게 목표"라고 밝혔다. 업계 최초 벡터 DB '전용 칩'으로 차별화…내년 매출 실현 목표 이미 업계에서는 벡터 데이터베이스를 개발하는 경쟁사들이 많이 있으나, 이들 기업은 소프트웨어 알고리즘만을 활용한다. 반면 디노티시아는 벡터 데이터베이스를 위한 '전용 칩'을 세계 최초로 개발해, 차별화된 경쟁력을 확보했다. 정 대표는 "소프트웨어만으로는 점점 더 커지는 데이터 처리량을 감당할 수 없는 시대가 곧 올 것"이라며 "때문에 디노티시아는 벡터 데이터베이스를 위한 가속기를 만들어, 소프트웨어와 하드웨어 모두 제공할 수 있도록 할 것"이라고 말했다. 이를 위해 디노티시아는 TSMC의 12나노 공정을 활용한 VDPU(벡터 데이터 프로세싱 유닛)를 개발하고 있다. 최근 FPGA(필드 프로그래머블 게이트 어레이) 형태의 데모 칩 개발이 완료돼, 이달 열리는 세계 최대 규모의 슈퍼컴퓨팅 기술 전시회 '슈퍼컴퓨팅(Super Computing) 2024'에서 처음 공개할 계획이다. 정 대표는 "디노티시아의 하드웨어 및 소프트웨어 기반의 벡터 데이터베이스를 활용하면 데이터센터의 전력 효율성은 10배 높아지고, TCO(총소유비용)은 80% 이상 절감할 수 있다"며 "향후 LLM급 성능을 갖춘 온-디바이스 AI가 구현된다면, 여기에도 적용될 수 있을 것"이라고 강조했다. 이후 디노티시아는 내년 FPGA 기반의 솔루션을 상용화하고, 내후년에는 ASIC(주문형반도체) 기반의 솔루션을 상용화할 계획이다. 회사 설립 2년만에 매출을 실현하겠다는 공격적인 목표지만, 정 대표는 이 같은 계획을 현실화할 수 있다는 자신감을 가지고 있다. 배경에는 뛰어난 기술력과 양질의 인력이 있다. 현재 디노티시아는 약 78명의 임직원을 보유하고 있으며, 이들 중 상당수가 반도체 및 소프트웨어 분야에서 상당한 경력을 쌓은 베테랑들이다. 정 대표는 "시맨틱 서치에는 AI와 데이터베이스 기술이 중요한데, 디노티시아는 우리나라 데이터베이스 분야에서 최고의 인력들을 많이 보유하고 있다"며 "AI 분야 역시 경력이 상당한 개발자들을 확보했다"고 밝혔다.

2024.11.20 09:45장경윤

디노티시아, SC 2024서 벡터 데이터베이스 '씨홀스' 최초 공개

인공지능(AI) 전문기업 디노티시아가 17일부터 22일까지 미국 애틀란타에서 열리는 세계 최대 규모의 슈퍼컴퓨팅 기술 전시회 '슈퍼컴퓨팅(SC) 2024'에 참가해 고성능 벡터 데이터베이스 시스템 '씨홀스(Seahorse)'를 최초로 공개한다. 벡터 데이터베이스는 LLM(대규모 언어모델) 기반 인공지능 서비스 기술인 검색증강생성(Retrieval-Augmented Generation, RAG)을 위한 핵심 기술이다. 씨홀스는 LLM이 동작할 수 있는 정보와 장기기억을 제공하고, 대규모 데이터에서 고성능, 고품질의 시맨틱 검색(의미기반 검색)을 가능하게 한다. 벡터 데이터베이스는 텍스트, 이미지, 동영상 등 멀티모달(Multi-Modal) 데이터를 고차원 벡터로 변환해 유사도 기반 검색을 효율적으로 수행할 수 있도록 설계된 데이터베이스 시스템이다. 디노티시아의 씨홀스는 벡터 데이터베이스 기술을 기반으로 텍스트, 이미지 등 다양한 형태의 데이터를 맥락에 맞게 검색할 수 있는 시맨틱 검색 기능을 제공한다. 이를 통해 사용자가 찾고자 하는 정보와 가장 관련성 높은 결과를 정확하게 찾아내며, AI 시스템의 정보 검색 및 활용 성능을 한층 끌어올린다. 씨홀스는 세계 최초로 개발한 벡터연산 전용 가속 반도체 칩인 VDPU(Vector Data Processing Unit)를 탑재해 벡터 데이터베이스의 성능과 정확도를 획기적으로 개선했다는 점이 기술적으로 주목된다. 씨홀스는 ▲시맨틱 검색 최적화 ▲멀티모달 RAG 지원 ▲10배 향상된 검색 속도 ▲80% 이상 절감된 TCO(Total Cost of Ownership, 총소유비용)가 포함된다. 이를 통해 대규모 데이터 처리에서의 효율성을 극대화하고, 증가하는 데이터의 양과 복잡성을 효과적으로 해결할 수 있다. 정무경 디노티시아 대표는 "씨홀스는 의미와 맥락을 기반으로 내가 찾고자 하는 정보를 정확하게 제공하는 혁신적 기술"이라며 "기존에는 특정 키워드를 기반으로 검색하고 데이터를 개별적으로 확인해야 했지만, 이제는 자연어 혹은 추상적으로 표현하더라도 씨홀스로 필요한 데이터를 찾을 수 있다"고 말했다. 이어 "이런 변화는 디지털 데이터 접근 방식을 혁신적으로 개선해 누구나 더 정확하고 빠르게 원하는 정보를 얻을 수 있는 시대를 열 것으로 기대된다"고 덧붙였다.

2024.11.19 11:19이나리

디노티시아·베슬에이아이, AI 솔루션 MOU 체결

인공지능 전문기업 디노티시아는 최근 베슬에이아이(VESSL AI)와 전략적 업무 협약(MOU)을 체결했다고 24일 밝혔다. 이번 MOU는 인공지능 및 벡터 데이터베이스 기술 분야에서 양사의 첨단 기술을 융합하여 차세대 AI 솔루션 개발 및 시장 경쟁력 강화를 목표로 한다. 벡터 데이터에비스는 텍스트, 이미지 등의 데이터를 벡터 형식으로 저장하고, 유사도 검색을 통해 추천 시스템과 이미지 검색 등을 구현하는 기술이다. 디노티시아는 벡터 데이터베이스 시스템과 하드웨어 가속기 개발에서 독보적인 기술력을 보유하고 있으며, 베슬에이아이는 확장성과 안정성이 뛰어난 LLMOps(거대언어모델 및 운영) 솔루션을 통해 대규모 AI 서비스 운영과 관리를 효율화하는 기술을 제공한다. 이번 MOU을 통해 양사는 벡터 데이터베이스 기술을 활용해 LLM 서비스에 필수적인 RAG(정보 검색 생성) 시스템을 지원한다. 특히 디노티시아의 벡터 데이터베이스가 베슬에이아이의 LLMOps 플랫폼에 통합됨으로써 AI 모델의 실시간 처리 능력이 대폭 향상될 것으로 기대된다. 양사는 이번 협약을 바탕으로 다양한 분야에서 긴밀히 협력할 계획이다. 이를 통해 기술 정보의 상호 공유와 공동 연구 개발을 촉진하고, 벡터 데이터베이스와 LLMOps 솔루션의 융합을 통해 최적의 RAG 서비스 시스템을 지원하며, AI 서비스 개발과 배포 뿐만 아니라 LLM 서비스의 효율성을 극대화해 시장 경쟁력을 높일 방침이다. 나아가 공동 마케팅과 영업 활동을 강화해 사업 기회를 확장하고, 인력 교류와 교육 프로그램 운영을 통해 상호 발전을 도모할 예정이다. 이지원 디노티시아 최고전략책임자(CSO)는 “이번 MOU 체결은 AI와 벡터 데이터베이스 기술의 융합을 통해 LLM 서비스의 혁신을 선도할 수 있는 중요한 기회”라며 “베슬에이아이와의 협력을 통해 글로벌 AI 시장에서의 입지를 더욱 강화하고, 세계 최고 수준의 AI 솔루션을 제공하는 데 주력하겠다”고 밝혔다. 안재만 베슬에이아이 CEO는 "디노티시아와의 협력을 통해 베슬에이아이의 LLMOps 플랫폼 성능을 강화하고 품질을 높일 수 있을 것"이라며 “확장성과 안정성이 뛰어난 LLMOps 솔루션으로 기업들이 AI모델을 더욱 손쉽게 도입하고, 학습하며 운영할 수 있도록 기술 발전에 박차를 가하겠다"고 밝혔다. 이번 전략적 파트너십은 양사가 AI와 벡터 데이터베이스 기술을 중심으로 혁신적인 기술 개발과 글로벌 시장에서의 입지를 강화하는 데 핵심적인 역할을 할 것으로 기대된다.

2024.09.24 08:40장경윤

오라클, 히트웨이브 생성형AI 발표…추가비용 無

오라클은 인데이터베이스(in-database) 거대언어모델(LLM), 자동화된 인데이터베이스 벡터 저장소, 확장 벡터 처리, 자연어 대화 기능 등을 제공하는 '히트웨이브 생성형AI(GenAI)'를 출시한다고 2일 밝혔다. 히트웨이브 생성형 AI는 데이터베이스 내에서 벡터 프로세싱과 LLM을 처리하므로 별도 벡터 데이터베이스로 데이터를 이동시키지 않아도 된다. 기존 히트웨이브 고객이라면 오라클 클라우드 리전과 오라클 클라우드 인프라스트럭처(OCI) 전용 리전 및 여타 주요 클라우드 서비스 전반에서 추가 비용 없이 즉시 이용 가능하다. 히트웨이브 생성형AI는 내장형 임베딩 모델을 사용해 단일 SQL 명령어로 기업의 비정형 콘텐츠를 위한 벡터 저장소를 생성할 수 있게 해 준다. 사용자는 인-데이터베이스 LLM, 혹은 외부 LLM을 사용해 단일 동작으로 자연어 검색을 수행할 수 있다. 데이터는 데이터베이스 내에서 안전하게 유지되며, 히트웨이브의 뛰어난 확장성과 성능 덕분에 GPU를 프로비저닝할 필요도 없다. 개발자는 결과적으로 애플리케이션의 복잡성을 최소화하는 동시에 성능 및 데이터 보안을 강화하고, 비용을 절감할 수 있다. 니푼 아가르왈 오라클 마이SQL 및 히트웨이브 개발담당 수석부사장(SVP)은 2일 한국기자단을 대상으로 열린 온라인 브리핑에서 “히트웨이브 생성형AI는 히트웨이브 레이크하우스, 히트웨이브 오토파일럿, 히트웨이브 오토ML, 히트웨이브 마이SQL 등 기존 내장형 히트웨이브 기술군에 추가된 최신 혁신”이라며 “오늘날의 통합 및 자동화된 AI 기능은 개발자가 데이터를 이전하거나 AI 전문성을 확보하지 않고도 풍부한 생성형 AI 애플리케이션을 더욱 빠르게 구축할 수 있게 해 준다”고 설명했다. 자동화된 인-데이터베이스 벡터 저장소는 고객이 데이터를 별도의 벡터 데이터베이스로 이동하거나, AI 전문성을 갖추지 않고도 생성형 AI를 자사의 비즈니스 문서와 함께 사용할 수 있도록 지원한다. 객체 저장소에서의 문서 검색, 파싱(parsing), 고도로 병렬화 되고 최적화된 임베딩 생성, 벡터 저장소에 대한 임베딩 삽입 등 벡터 저장소 및 벡터 임베딩 생성을 위한 모든 과정이 자동화돼 있다. RAG용 벡터 저장소는 이 모델들이 보다 정확하고 유관한 답변 제공을 위해 적절한 맥락을 바탕으로 전문 데이터를 검색할 수 있도록 하여 LLM의 환각 문제 해결에도 도움을 준다. 파싱은 입력된 문자열을 분석해 그 구조를 파악하고 의미 있는 데이터로 변환하는 과정이다. 니푼 아가르왈 부사장은 “인데이터베이스 벡터저장소는 오브젝트 스토리지 내의 데이터를 히트웨이브 내부에서 처리하는 독특한 아키텍처를 가졌다”며 “데이터 처리 작업 과정은 히트웨이브 안에서 이뤄지지만 벡터스토어는 오브젝트 스토리지에 위치하고, 최저의 스토리지 비용으로 모델을 구현하면서 확장성과 안정성에서 매우 큰 이점을 얻게 한다”고 설명했다. 그는 “일반적으로 생성형 AI 앱을 만드려면 벡터스토어를 만드는데 아홉 단계, 벡터스토어를 LLM에 적용하는 데 또 아홉 단계가 필요하다”며 “히트웨이브 생성형 AI는 각각 하나의 생성커맨드면 모든 단계를 자동화할 수 있다”고 강조했다. 히트웨이브는 문서 식별, 파싱, 임베딩 생성, 벡터스토어 인서트 등의 단계를 하나의 명령어로 가능하게 했다. 문서 파악하고, 파싱, 임베딩 생성, 벡터스토어 최적화해 인서트하는 단계 필요한데. 히트웨이브는 이를 하나의 단계로 단축시켰다. 그는 “인데이터베이스로 벡터스토어 생성을 자동화한다는 건 새로운 문서가 들어올 때 인크리멘털한 방식으로 추가할 수 있다는 의미”라며 “과거엔 새로운 문서가 들어올 때 벡터스토어를 리크리에이트해야 해서 시간과 복잡성을 늘렸다”고 설명했다. 확장 벡터 처리는 일정한 정확도를 유지하면서 신속한 의미 검색 결과를 제공한다. 히트웨이브는 새로운 네이티브 벡터 데이터 유형 및 거리 함수의 최적화된 구현을 지원해 고객이 표준 SQL을 통해 의미 쿼리를 수행할 수 있도록 한다. 인-메모리 하이브리드 열 형식 표현 및 히트웨이브의 확장 아키텍처는 벡터 처리가 '니어 메모리' 대역폭에서 실행되고, 최대 512 히트웨이브 노드에서 병렬화 될 수 있게 한다. 그 결과 고객의 질문에 대한 답을 신속히 제공할 수 있게 된다. 또한 사용자는 의미 검색과 기타 SQL 연산자를 결합하여 여러 테이블을 다양한 문서로 조인하고, 모든 문서 전반에서 유사성 검색을 수행할 수 있다. 아가르왈 부사장은 “히트웨이브에 새로운 벡터 데이터 타입을 추가함으로써 효율적으로 쿼리를 사용할 수 있다”며 “높은 효율성은 히트웨이브가 여러 노드로 잘 확장되고, 인메모리에서 프로세싱되기 때문”이라고 설명했다. 그는 “히트웨이브는 쿼리 성능과 비용에서 업계 최고 속도로 벡터를 처리할 수 있다”고 강조했다. 인-데이터베이스 LLM은 생성형 AI 애플리케이션의 개발을 간소화하고, 개발 비용을 절감한다. 고객은 외부 LLM 선정 및 통합의 복잡성 없이도 생성형 AI의 이점을 누릴 수 있고, 다양한 클라우드 제공업체 데이터센터의 LLM 가용성에 대해 걱정할 필요도 없다. 아가르왈 부사장은 “히트웨이브는 데이터베이스에서 LLM을 구동함으로써 CPU를 활용하므로, 추가적인 별도의 GPU 서비스를 이용하지 않아도 된다”며 “물론, 외부의 OCI GPU 기반의 LLM 서비스를 가져와서 응용할 수도 있다”고 말했다. 인-데이터베이스 LLM은 고객이 히트웨이브 벡터 저장소를 활용해 데이터 검색, 콘텐츠 생성 및 요약, 검색증강생성(RAG) 등을 수행할 수 있게 해 준다. 또한 고객은 오토ML과 같은 기타 내장형 히트웨이브 기능을 생성형 AI와 결합해 보다 풍성한 애플리케이션을 구축할 수 있다. 히트웨이브 생성형AI는 OCI 생성형 AI 서비스에도 통합돼 고객은 최고의 LLM 제공업체들이 제공하는 사전 훈련된 기본 모델을 활용할 수 있다. 그는 “추가적으로 인데이터베이스 LLM과 오라클 히트웨이브 오토ML을 함께 사용했을 때 좋은 시너지를 발휘한다”며 “두 기능을 혼합했을 때 LLM을 활용해 쿼리 결과를 더 향상시킬 수 있고, 성능도 향상시킬 수 있으며, 인풋 데이터 양을 줄이므로 피딩되는 데이터를 줄여 비용도 절감할 수 있다”고 덧붙였다. 히트웨이브 챗(Chat)은 마이SQL 쉘용 비주얼 코드 플러그인으로 히트웨이브 생성형AI를 위한 그래픽 인터페이스를 제공하며, 개발자들이 자연어 또는 SQL로 질문을 할 수 있게 지원한다. 이 통합 레이크하우스 네비게이터는 사용자가 객체 스토리지로부터 파일을 선택하고 벡터 저장소를 생성할 수 있도록 지원한다. 사용자는 데이터베이스 전반에서 검색을 수행하거나, 검색 영역을 폴더로 제한할 수도 있다. 히트웨이브는 질문 내역, 소스 문서 인용 및 LLM 프롬프트를 바탕으로 컨텍스트를 유지 관리한다. 이는 상황별 대화를 용이하게 하고, 사용자가 LLM이 생성한 답변의 출처를 검증할 수 있게 해 준다. 컨텍스트는 히트웨이브에서 유지 관리되며, 히트웨이브를 사용하는 모든 애플리케이션에서 사용 가능하다. 히트웨이브 생성형AI는 아마존 베드록 기반의 날리지베이스를 사용할 때보다 PDF, PPT, 워드, HTML 형식 문서용 벡터 저장소 생성 속도에서 23배 빠르다. 비용은 4분의1 수준이다. 1.6GB에서 300GB 크기의 테이블에서 다양한 유사성 검색 쿼리를 사용해 이루어진 서드파티 벤치마크에서 히트웨이브 생성형AI는 스노우플레이크 대비 30배 빠른 속도와 25% 저렴한 비용, 데이터브릭스 대비 15배 빠른 속도와 85% 저렴한 비용, 구글 빅쿼리 대비 18배 빠른 속도와 60% 저렴한 비용을 자랑한다. 별도의 벤치마크에 따르면, pg벡터를 사용하는 아마존 오로라 포스트그레SQL의 벡터 인덱스는 정확도가 떨어져 오답을 산출할 가능성이 있는 것으로 나타났다. 반면 히트웨이브의 유사성 검색 처리는 항상 정확한 결과를 제공하고, 예측 범위 내의 응답 시간을 보장했으며, 유사한 메모리 속도로 수행돼 동일한 수의 코어를 사용하는 아마존 오로라 대비 10배-80배 빠른 속도를 제공한다. 히트웨이브는 트랜잭션 및 레이크하우스 규모 분석을 위해 자동화 및 통합된 생성형 AI와 머신러닝을 하나의 제품을 통해 제공하는 클라우드 서비스다. 오라클 분산형 클라우드 전략의 핵심 구성 요소인 히트웨이브는 OCI와 아마존웹서비스에서 네이티브 방식으로 활용할 수 있으며, 마이크로소프트 애저에서 애저용 오라클 인터커넥트를 통해, 고객의 데이터센터에서 OCI 전용 리전 및 오라클 알로이를 통해 사용할 수 있다. 아가르왈 부사장은 “오라클 히트웨이브 생성형AI는 긴밀하게 통합돼 있어 높은 수준의 안정성과 단순성을 제공한다”며 “고수준의 자동화를 구현했으며, 애플리케이션 제작 비용을 크게 절감시켜줄 수 있다”고 강조했다.

2024.07.02 12:37김우용

몽고DB, AWS・구글클라우드와 생성형 AI 협력 확대

몽고DB는 아마존웹서비스(AWS), 구글 클라우드 등과 협력을 확대한다고 13일 밝혔다 . 몽고DB는 '날리지베이스 포 아마존 베드록'에 '몽고DB 아틀라스 벡터 서치'를 정식 통합해, 기업이 완전관리형 파운데이션 모델(FM)를 활용해 생성형 AI 애플리케이션 기능을 더 쉽게 구축할 수 있도록 지원한다. 수많은 개발자와 고객이 비즈니스 크리티컬 애플리케이션 구동을 위해 사용 중인 업계를 선도하는 개발자 데이터 플랫폼인 몽고DB에서 구글 클라우드의 제미나이 코드 어시스트를 최적화하며 애플리케이션 개발 및 현대화를 위한 향상된 개발자 경험을 제공한다. 아마존 베드록은 AWS의 완전관리형 서비스로, 단일 API를 통한 다양한 고성능 FM을 지원하고 보안, 개인정보 보호 및 책임감 있는 AI 역량을 갖춘 생성형 AI 애플리케이션 구축을 위한 광범위한 기술을 제공한다. 이번 통합으로 개발자는 자체 데이터를 활용해 복잡한 작업을 자동화하고, 엔드 유저의 요구사항에 따라 정확하고 신뢰 가능한 최신 응답을 제공하는 생성형 AI 애플리케이션을 쉽게 제작할 수 있다. 기업은 아틀라스 벡터 서치에서 처리된 데이터를 기반으로 AWS에서 빠르고 쉽게 생성형 AI 애플리케이션을 배포할 수 있으며, 더욱 정확하고 관련성 높은 응답을 제공할 수 있다. 벡터 데이터만 저장하는 애드온 솔루션과 달리, 아틀라스 벡터 서치는 고성능의 확장 가능한 벡터 데이터베이스로서 전 세계에 분산된 운영 데이터베이스와 통합돼 기업의 전체 데이터를 저장 및 처리할 수 있어 생성형 AI 애플리케이션을 효과적으로 지원한다. 아마존 베드록과의 통합으로 고객은 실시간 운영 데이터를 벡터 임베딩으로 변환해 대규모 언어 모델(LLMs)에서 사용할 수 있다. AI21랩스, 아마존, 앤트로픽, 코히어, 메타, 미스트랄 AI, 스태빌리티 AI 등의 LLM 을 자체 데이터로 맞춤화한다. 개발자는 검색 증강 생성(RAG)을 위한 아마존 베드록 에이전트로 직접 코딩하지 않더라도 사용자 쿼리와 연관된 맥락에 맞는 응답을 바탕으로 애플리케이션을 구축할 수 있다. 기업은 몽고DB 아틀라스 서치 노드를 통해 핵심 운영 데이터베이스에서 생성 AI 워크로드를 분리 및 확장하며 쿼리 시간을 최대 60% 단축하는 등 비용과 성능을 최적화할 수 있다. 이 같은 완전관리형 기능은 노보 노디스크 같은 AWS와 몽고DB의 공동 고객이 조직 전반에서 자체 데이터로 생성형 AI를 안전하게 사용하고, 운영 오버헤드와 수작업을 줄이며 비즈니스 가치 실현을 가속화하도록 돕는다. 구글 클라우드의 제미나이 코드 어시스트는 코드 제안을 생성하고, 통합개발환경(IDE)에서 기존 코드에 관한 문의에 답하며, 간단한 프롬프트 입력으로 전체 코드베이스를 업데이트할 수 있는 기능을 제공한다. 몽고DB와 구글 클라우드의 협업으로 개발자는 제미나이 코드 어시스트를 활용해 몽고DB 코드와 매뉴얼, 모범 사례에 대한 답변과 정보를 얻을 수 있을 뿐만 아니라 신기능을 빠르게 프로토타이핑하고 애플리케이션 개발을 가속화할 수 있다. 오늘날 많은 개발자는 워크플로우에 생성형 AI 기반 코딩 어시스턴트를 통합해 일상 업무를 자동화해 생산성을 높이고 중요한 업무에 집중하기 위한 방법을 모색하고 있다. 제미나이 코드 어시스트는 공개된 데이터 세트를 학습하고 코드베이스에 대한 뛰어난 가독성을 갖췄으며, 널리 사용되는 애플리케이션, 소스 코드 저장소, 코드 편집기 등과 통합돼 개발자의 요구사항을 충족할 수 있는 기능을 제공한다. 제미나이 코드 어시스트의 통합으로 개발자는 신속한 애플리케이션 구축과 현대화를 위한 몽고DB 활용법을 익히고, 몽고DB 매뉴얼에서 엄선된 콘텐츠와 코드를 확인하며, 사용사례를 비롯해 몽고DB에서 데이터 작업 시 적용할 수 있는 다양한 기능에 대한 고도화된 제안을 받을 수 있다. 이 밖에도 제미나이 코드 어시스트는 자연어 채팅, 코드 사용자화, 전체 코드베이스의 대규모 변경, AI 기반의 스마트한 작업 자동화, API 개발 간소화 등 핵심 기능과 기업이 라이선스 요건을 준수할 수 있도록 코드 제안 시 출처를 함께 제공한다. 이처럼 양사의 지속적인 협력은 개발자가 반복적인 작업에 투입하는 시간을 대폭 줄이고 구글 클라우드용 몽고DB에서 데이터 기반 애플리케이션을 신속하게 구축할 수 있는 토대를 제공한다. 바시 필로민 AWS 생성형 AI 부문 부사장은 “오늘날 수만 개의 기업은 특정 요구사항에 맞는 생성형 AI 애플리케이션을 구축하기 위해 아마존 베드록을 사용하고 있다”며 “이제 양사의 공동 고객은 날리지베이스 포 아마존 베드록에서 정식 제공되는 몽고DB 아틀라스 벡터 서치로 RAG를 더욱 쉽고 빠르게 구현하며 데이터에서 풍부한 인사이트를 도출할 수 있다”고 강조했다. 스티븐 오반 구글 클라우드 마이그레이션, ISV 및 마켓플레이스 부문 부사장은 “제미나이 코드 어시스트는 개발자가 고품질 코드를 더 효율적으로 작성할 수 있도록 엔터프라이즈급 AI를 지원한다”며 “개발자는 제미나이 코드 어시스턴트로 확장된 몽고DB 관련 정보와 매뉴얼, 코드를 통해 애플리케이션 구축과 가치 창출에 소요되는 시간을 줄이고, 소프트웨어 개발 및 제공 프로세스 전반에서 불필요한 마찰을 줄일 수 있다”고 밝혔다.

2024.05.13 11:05김우용

"오라클 데이터베이스 23c는 생성형 AI의 기반"

“곧 정식 출시될 오라클 데이터베이스 23c는 기업에서 필요로 하는 AI 핵심 요소를 제공한다. 오라클 데이터베이스는 지속적으로 다양한 포맷을 수용하는 통합 데이터베이스를 표방한다. 새 버전은 JSON과 관계형 DB를 혼합하고, AI에 가장 필요한 검색증강생성(RAG)을 지원하는 벡터 검색을 제공하게 된다. 오라클 데이터베이스 23는 AI의 근간 인풋인 데이터의 기반을 제공한다.” 허양호 한국오라클 전무는 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024'에서 이같이 밝혔다. 향후 출시되는 오라클 데이터베이스 23c는 새로운 기능으로 JSON 듀얼리티 뷰와 AI 벡터 검색 등을 제공한다. 관계형 데이터베이스 형식과 JSON 형식을 한 테이블에 저장할 수 있는 기능과 AI의 기업 내부 데이터 접근을 가능하게 하는 벡터 DB 기능이다. 허양호 전무는 “오라클 데이터베이스 23c의 JSON 듀얼리티 뷰를 이용하면 JSON 데이터 변환작업을 DB 차원에서 자동으로 해주고, JSON 데이터를 DB 테이블에 자동으로 알아서 저장한다”며 “이 테이블에 있는 데이터를 읽으면 JSON 포맷으로 다시 복귀해 보여준다”고 설명했다. 그는 “그 리턴 값을 다시 수정해서 JSON 뷰에 넣으면 그 업데이트된 내용이 자동으로 다시 DB 테이블에 저장돼 모든 변환에 필요한 복잡한 과정을 자동화할 수 있다”고 강조했다. 생성형 AI의 기술은 데이터에 연관성을 부여하는 벡터화를 활용한다. 벡터 정보를 위한 별도 데이터베이스가 요구되는데, 오라클 데이터베이스 23c를 사용하면 기존 DB로 벡터 검색을 지원할 수 있다. 허 전무는 “AI 환각을 해결하는 단어로 요즘 RAG가 각광받고 있다”며 “벡터 DB는 정형 및 비정형 데이터를 수치화해 벡터 형태로 저장하는 것으로, 그 의미 검색을 지원해 최신화된 데이터를 언제든 연동해서 사용할 수 있게 한다”고 말했다. 그는 “오라클 데이터베이스 23c에서 이 벡터 DB를 함께 매핑해 지원함으로써 기업 내부에 데이터를 LLM에 더해 프롬프트를 자동으로 생성할 수 있고, 기업에게 실질적으로 필요한 전문적 답변을 받게 한다”고 강조했다. 그는 데이터베이스 제품 외에 오라클클라우드인프라(OCI) 서비스의 AI 요소도 설명했다. 그는 “오라클 OCI는 AI 데이터의 수집, 저장, 처리, 분석, 학습, 활용, 배포, 관리 등에 이르는 엔드투엔드 데이터 파이프라인 관리 서비스를 제공한다”고 밝혔다. 오라클은 자사의 퍼블릭 클라우드 서비스의 강점으로 저렴한 비용, 고성능, 유연성, 보안 등으로 꼽는다. OCI의 모든 기능과 요소를 프라이빗 클라우드, 전용 리전, 멀티클라우드에 걸쳐 동일하게 제공하는 구성도 제공한다. 허 전무는 “AI의 가장 중요한 것 중 하나가 보안이므로, 프라이빗 클라우드를 원하는 고객에게 OCI의 클라우드앳커스터머와 전용 리전은 매우 큰 이점을 제공한다”고 말했다.

2024.04.17 16:42김우용

[기고] AI 생성, 생각보다 쉬울 수 있다

챗GPT 등장 후 1년이 조금 넘었는데, 그 사이 AI는 이미 여러 산업에서 그 적용 범위를 확대해 나가고 있으며, 생성형 AI의 인기는 텍스트부터 이미지 생성, 심지어 의료 및 과학 연구 등 다양한 분야에서의 활용 가능성 덕분에 나날이 높아지고 있다. 이런 생성형 AI의 열풍에 부응하려면 높은 비용과 복잡성이 요구되는데, 이런 상황에서 AI를 어떻게 잘, 그리고 정확하게 작동시킬지에 대한 고민이 생기는 것은 당연하다. 우리가 AI에 이르게 되는 과정을 살펴보면, AI의 잠재력은 그 지혜로움에서 비롯됨을 알 수 있다. 그 방대한 용량과 일관된 처리 능력 때문에 인간이 간과할 수 있는 세부 사항도 포착하는 AI지만 궁극적으로 AI도 데이터를 기반으로 작동한다. 우리는 이런 데이터를 적절하게 처리하고 보호해야 하는데, 이는 데이터가 IT 인프라뿐만 아니라 사람 또는 인공 지능이 만들어내는 모든 혁신의 기초가 되기 때문이다. 생성형 AI의 가장 기초가 되는 데이터베이스는 생성형 AI 시대에 기업들의 요구사항에 부응하기 위해 발전해 왔으므로 기업의 효과적인 AI 활용은 올바른 데이터 관리와 깊은 관련이 있다. ■ 흔한 데이터베이스 모델 비즈니스에서 흔히 사용되는 데이터베이스에는 여러 가지가 있는데 그중 온라인 트랜잭션 처리(OLTP)라는 데이터베이스 유형은 온라인 거래를 지원한다. OLTP는 온라인 뱅킹 또는 쇼핑 환경에서 기업이 동시에 여러 거래를 처리하도록 돕는데, 데이터가 축적되면 그 데이터 풀을 활용해 새로운 비즈니스 가치를 만들어낼 수 있다. 또 여러 소스의 데이터를 통합해 신속하고 강력한 상호작용형 애널리틱스를 지원하는 온라인 분석 처리(OLAP) 데이터베이스도 있다. OLAP을 사용하면 소매업자는 재고와 실제 재고 데이터를 다른 데이터세트인 고객 구매 데이터와 결합해 특정 상품의 수요가 다른 상품보다 높아져서 해당 상품의 생산을 증가시킬 필요에 대한 통찰력을 얻을 수 있다. NoSQL이라는 또 다른 데이터베이스는 위 두 모델과 달리 비정형 데이터를 정렬하는 데 도움이 되어 인기를 얻고 있다. ■ AI를 위한 새로운 데이터베이스 모델 앞서 언급된 모델들이 각자의 영역에서 충실히 제 기능을 해왔음에도 AI 시대에는 벡터 데이터베이스 모델이 가장 혁신적인 변화를 가져올 것이다. 벡터 데이터베이스는 대규모 언어 모델의 '인텔리전트 워크로드'를 처리하고 수백만 개의 고차원 벡터를 저장하는 데 쓰인다. 문서, 이미지, 오디오 녹음, 비디오 등과 같은 비구조화된 데이터가 여기에 해당되는데, 이런 데이터는 2050년까지 전 세계 데이터의 80% 이상을 차지할 것으로 예상된다. 이는 단순 의미 파악을 넘어서 AI 시대에 걸맞게 전체 맥락과 뉘앙스까지 이해하는 시맨틱스(기존 데이터의 의미)에 대한 이해를 가능하게 한다. 벡터 데이터베이스 없이는 그런 이해를 얻기 어려우므로 이는 대규모 언어 모델을 통한 특화된 산업 지식의 발전에 필수적인 요소가 된다. 이에 대비해 알리바바 클라우드는 독자적인 벡터 엔진을 통해 클라우드 네이티브 데이터베이스 폴라DB, 클라우드 네이티브 데이터 웨어하우스 애널리틱DB, 클라우드 네이티브 다중 모델 데이터베이스 린돔을 포함한 모든 데이터베이스 솔루션을 강화해 왔다. 그 결과 기업들은 벡터 데이터베이스에 분야별 지식을 입력해 생성형 AI 애플리케이션을 구축 및 출시할 수 있게 됐다. 일례로 동남아시아의 한 온라인 게임 회사는 알리바바 클라우드의 데이터베이스 솔루션을 사용해 지능적인 비플레이어 캐릭터(NPC)를 생성하고 있다. 이 NPC들은 사전에 정해진 대사를 단순히 읽는 것이 아니라 플레이어가 전달하는 내용을 실시간으로 이해하고 반응해 실제 플레이어들과 더욱 현실감 있는 상호작용을 할 수 있다. ■ AI로 가능해지는 합리적인 소비 AI의 잠재력은 게임이나 비정형 데이터의 이해에만 국한되지 않는다. AI는 데이터베이스를 스스로 관리할 수 있는 능력도 갖췄다. 예를 들어, 저장 공간이 부족해지면 AI는 시스템 관리자에게 경고를 보내고, 추가 저장 공간을 확장할지 여부를 물을 수 있다. 또 권한이 주어지면 저장 공간을 자동으로 확장하는 조치도 취할 수 있으며, 이런 기능은 CPU 용량, 메모리 용량 및 기타 기능에도 적용될 수 있다. 이런 AI의 능력은 서버리스 클라우드 컴퓨팅으로 전환을 고려할 때 특히 유용하다. 과거에 클라우드 서비스 제품을 구매할 때 일정량의 서버를 준비하는 프로비저닝 작업이 필요했는데, 이 과정에서 추가 비용이 발생하는 것은 물론, 실제 워크로드보다 더 많은 용량을 준비할 경우 자원을 낭비하는 일도 발생했다. 하지만 서버리스 컴퓨팅은 클라우드 서비스가 사용하는 서버 용량을 워크로드에 정확히 맞추며, 워크로드 변동에 따라 서버 용량을 유연하게 조절할 수 있는 장점을 지닌다. ■ 일거양득: AI와 서버리스 클라우드 컴퓨팅의 장점 누리기 따라서 AI와 서버리스 클라우드 컴퓨팅의 결합은 비정형 데이터의 이해 및 데이터베이스 자가 관리뿐만 아니라 서버 용량의 유연한 조절까지, 두 기술의 장점을 모두 활용할 기회를 제공한다. 이제 바로 알리바바 클라우드가 핵심 AI 기반 데이터베이스 제품을 서버리스로 만든 이유이기도 하다. 이를 통해 고객은 필요한 자원에 대해서만 비용을 지불하고, AI의 지능적 관리를 통해 급격한 수요 증가나 변동이 큰 워크로드에 효과적으로 대응할 수 있을 것이다. 다시 요약하자면 AI 활용의 성패는 올바른 데이터베이스 활용 전략에 좌우됨을 명심해야 한다.

2024.04.02 09:01리페이페이

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

전자담배 온라인·무인 판매 이대로 괜찮을까

티메프 사태로 달라진 여행업 생태계...'부익부 빈익빈'

"강남역 사수하라"...350평 올리브영 등장에 시코르 ‘긴장’

삼성 파운드리, 2나노 3세대 공정 2년내 구현..."고객이 다시 찾게 하자"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.