• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'RAG'통합검색 결과 입니다. (43건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"구글·오픈AI에 도전장"…퍼플렉시티, 쇼핑 특화 AI 검색 출시

퍼플렉시티가 쇼핑 관련 서비스를 확대하며 시장 경쟁력을 강화한다. 구글이 주도하는 검색 엔진 분야와 오픈AI가 이끄는 생성형 인공지능(AI) 분야에서 입지를 넓히기 위함이다. 19일 로이터 통신에 따르면 퍼플렉시티는 '쇼핑 허브'를 출시해 사용자들에게 제품 정보를 시각적으로 제공하는 서비스를 시작했다. 이 서비스는 캐나다 전자상거래 플랫폼인 쇼피파이와 통합 돼 미국 내 배송 가능한 다양한 제품 정보를 실시간으로 제공할 수 있게 했다. 특히 퍼플렉시티가 도입한 '제품 카드'는 쇼핑 관련 질문에 응답해 사용자가 필요한 제품 정보를 이미지와 함께 간편히 확인할 수 있도록 돕는다. 또 사진을 기반으로 상품을 검색하는 '스냅 투 샵' 기능을 통해 제품을 직접 확인할 수 있도록 했다. 이번에 새로 출시된 기능은 우선 미국 시장에 한정해 제공되며 이후 점진적으로 다른 시장으로 확대될 예정이다. 추가 시장 진출 일정은 아직 구체적으로 발표되지 않았다. 퍼플렉시티는 새로 출시한 쇼핑 서비스의 성장을 위해 '머천트 프로그램'도 함께 도입했다. '머천트 프로그램'은 소매업체들이 자사 제품 정보를 퍼플렉시티와 공유하는 프로그램으로, 특정 상품들이 검색 결과에 더 쉽게 노출될 수 있게 한다. 로이터 통신은 "퍼플렉시티는 현재 기업 가치를 약 90억 달러(한화 약 12조6천억원)로 평가받으며 새로운 투자를 유치 중"이라며 "이번 기능 확장은 투자를 유치하고 최근 '서치GPT' 기능을 출시한 오픈AI와의 직접적인 경쟁 구도를 고려한 것으로 보인다"고 분석했다.

2024.11.19 09:28조이환

퍼플렉시티, 美 선거 정보 허브 출시…AI 기반 실시간 업데이트로 신뢰성 강화

인공지능(AI) 검색 엔진 퍼플렉시티가 미국 선거 정보를 실시간으로 제공하는 전용 허브를 출시했다. 이로써 사용자는 웹사이트에 접속해 쉽게 선거 결과와 관련 정보를 확인할 수 있어 선거 정보를 보다 편리하게 이용할 수 있을 전망이다. 최근 테크크런치 등 외신에 따르면 퍼플렉시티는 미국 대선 관련 주요 정보를 통합적으로 제공하기 위해 새로운 허브를 발표했다. 이 허브는 대선뿐 아니라 상원 및 하원 경선 결과까지 실시간으로 업데이트하며 주 및 전국 차원의 선거 정보를 제공하는 것을 목표로 한다. 퍼플렉시티의 선거 허브는 사용자가 선거와 관련해 던진 일반적인 질문에 대답하는 동시에 투표 방법, 요건, 투표 시간과 같은 기본 정보를 상세히 제공한다. 또 각 후보자의 정책 입장과 주요 쟁점에 대한 요약 분석을 AI로 지원해 유권자들이 보다 쉽게 이해할 수 있도록 돕는다. 더불어 퍼플렉시티는 주 및 전국 단위에서 선거 정보를 신속하게 전달하기 위해 AP 통신의 데이터와 비정부기구인 데모크래시 웍스(Democracy Works)의 애플리케이션 프로그램 인터페이스(API)를 적극적으로 활용하고 있다. 이를 통해 실시간 선거 정보의 신뢰성을 높이고 사용자가 각종 선거 결과를 빠르게 확인할 수 있도록 하고 있다. 퍼플렉시티의 이번 서비스는 주요 AI 기업들이 AI 정보의 정확성에 대한 우려로 유사한 기능을 선보이는 데 주저하는 상황에서 출시됐다는 점에서 주목받고 있다. AI의 잘못된 정보 생성 우려가 큰 가운데 선거와 같은 민감한 정보를 제공하는 데 있어 높은 신뢰성과 정확성이 필수적이기 때문이다. 지난 7월 민주주의 및 기술 센터가 발표한 연구에 따르면 AI 챗봇들이 제공한 선거 관련 답변 중 상당수는 오류를 포함하고 있는 것으로 나타났다. 이에 따라 주요 AI 업체들은 선거 정보를 직접 제공하기보다는 신뢰할 수 있는 외부 소스로 안내하는 방식을 채택하고 있다. 퍼플렉시티 관계자는 "AP 통신의 데이터를 활용해 대선, 상원, 하원 경선에 대한 실시간 업데이트를 제공할 것"이라며 "주 및 전국 차원에서 신속하고 정확한 정보를 전달하겠다"고 강조했다.

2024.11.03 09:19조이환

인젠트, 'ISS 2024'…"AI시대 최적의 대비전략 제시"

국내 오픈소스 데이터베이스 시장을 이끌어온 인젠트가 축적한 역량을 바탕으로 인공지능(AI), 클라우드를 통합 지원하는 데이터 플랫폼 전문기업으로 거듭날 것이라고 비전을 선포했다. 인젠트는 22일 서울시 중구 더플라자호텔 서울에서 '통합 솔루션 서밋 2024(ISS 2024)'를 개최했다. 2019년부터 시작해 올해 6회를 맞이한 ISS는 인젠트가 개최하는 기술 컨퍼런스다. 올해는 '우리는 하나: 데이터+AI 온 클라우드'를 주제로 인공지능(AI), 클라우드 등을 중심으로 비즈니스가 전환하고 있는 AI시대를 대비하기 위한 전략을 선보였다. 박재범 인젠트 대표는 환경사를 통해 ▲데이터 플랫폼 모든 제품에 기계학습(ML), 생성형AI 기능 강화 ▲ 포스트그레SQL(PG) 데이터베이스관리서비스(DBMS) 포트폴리오 확대 ▲애니클라우드 서비스 플랫폼 배포 관리 ▲검색 증강 생성(RAG) 기반 기업 AI 전환 지원을 핵심 테마로 제시했다. 제시한 테마는 모두 고객사의 AI 전환 가속을 지원하기 위한 것이다. 제공하는 모든 제품과 서비스에 생성형AI를 먼저 도입해 AI에 대한 역량과 이해도를 높이고 PG DBMS 서비스 포트폴리오 기반 생태계를 확대해 다양한 데이터 관리 요구사항을 효율적으로 지원하기 위함이다. 애니 클라우드 서비스 플랫폼은 인젠트 제품을 클라우드 플랫폼에 쉽고 빠르게 배포할 수 있도록 설계된 서비스다. 이를 통해 컨설팅에서 구축, 배포 등 AI 도입을 위한 전체 프로세스를 한눈에 확인하고 통합 관리할 수 있도록 지원한다. 더불어 인젠트의 데이터플랫폼을 활용해 기업 내 정형·비정형 데이터를 효율적으로 관리하고 AI등에 활용할 수 있는 기반환경을 마련한다. 박재범 대표는 "AI 기술이 점차 표준화되면서 각 기업이 가진 데이터가 가장 핵심적인 차별화 요소로 주목받고 있다"며" "인젠트는 자체 데이터 관리 솔루션을 사용해 중소 중견 기업도 효율적으로 비정형 데이터의 품질과 접근성을 개선하고 중앙 집중화와 표준화 할 수 있도록 지원한다"고 설명했다. 이어 이동욱 인젠트 연구개발(R&D)센터장과 함께 인젠트 김성태 상무, 황지하 상무가 '인젠트+AI, PG 에코시스템과 클라우드 네이티브'를 주제로 발표했다. 인젠트 박정권 전무는 'RAG 최적화를 위한 데이터 플랫폼의 역할'을 주제로 RAG 기술을 활용해 환각을 없애고 정확성을 높인 AI 사용 방법을 제시했다. 이 밖에도 하나은행, 하나증권, 엑스로그 등 인젠트 파트너사의 전문가들이 참여해 실제 데이터 플랫폼을 활용한 혁신 사례를 공유했다. 특히 하나은행의 경우 통합서비스형플랫폼(iPaaS)을 활용한 금융서비스 통합 전략 및 구축 사례와 하나증권 STO 사례를 소개해 주목받았다. 더불어 현장에는 엑스로그, 맨텍솔루션, 에스티씨랩의 제품을 직접 확인하고 체험할 수 있는 세션 및 전시 부스도 마련됐다. 박재범 인젠트 대표는 “올해 ISS 2024는 AI 에브리웨어 시대를 앞두고 인젠트의 인사이트와 다양한 협력 사례를 소개하는 시간으로 구성했다”며 “앞으로도 지속적인 연구개발과 기술 발전으로 협력사에게는 성공적인 혁신 경험을 제공하는 동시에 인젠트만의 독보적인 전문성을 무기로 IT 산업을 주도하는 리딩 기업으로 발돋움할 것”이라고 전했다.

2024.10.23 15:36남혁우

"집과 자동차를 하나로"…카카오가 AI와 IoT 결합하는 방법은

"인공지능(AI)과 사물인터넷(IoT)을 결합해 보다 스마트하고 개인화된 서비스를 제공하려고 합니다. 이를 통해 사용자들의 생활을 획기적으로 개선하는 것이 우리의 궁극적인 목표입니다." 김덕형 카카오 담당자는 22일 경기도 용인시 카카오 AI 캠퍼스에서 열린 '이프카카오 2024' 행사에서 이같이 말했다. '이프카카오 2024'는 카카오 그룹이 AI 및 클라우드 기술 성과를 공유하고 국내 IT 기술 발전에 기여하기 위해 마련한 행사다. 첫날에만 10개 이상의 다양한 기술 세션이 진행됐다. 이날 김 담당자는 '카카오i를 통한 AIoT 서비스의 사례와 미래' 세션을 맡아 '인공지능-사물인터넷(AIoT)'을 구현하기 위한 카카오i의 역할을 설명했다. AIoT란 인공지능(AI)과 사물인터넷(IoT)의 융합으로, 데이터 수집과 학습이 동시에 이뤄져 큰 시너지를 발휘한다. 이는 AI의 학습·추론 능력과 IoT의 데이터 수집·연결성이 결합돼 더 효율적이고 지능적인 시스템을 구축할 수 있기 때문이다. 김 담당자는 "IoT의 발전 단계는 현재 자율형 단계로 나아가고 있다"며 "이 단계에서는 AI 기술이 IoT 기기 자체에서 실행돼 데이터 수집과 학습을 동시에 수행하고 기기 간의 협업도 가능해진다"고 설명했다. 카카오 AI 서비스들 역시 이러한 방향성을 따르며 발전하고 있다. '헤이 카카오', '카카오홈', '카카오i 오토' 등의 솔루션이 자연어를 기반으로 다양한 기능을 제공하고 있기 때문이다. 사용자들은 이미 이러한 서비스를 통해 AIoT의 초기 단계를 경험하고 있다. 이어 발표를 맡은 김진호 담당자는 AIoT가 구현될 미래의 구체적인 시나리오를 제시했다. 그는 AIoT 기술의 지속적인 발전이 개인화된 서비스로 구현되면서 기기간의 연결성이 증대되는 상황을 시나리오를 통해 설명했다. 김 담당자는 "취침 전에 카카오i 솔루션을 대상으로 '나 잘게'라고 말하면 기기가 자동으로 에어컨 온도를 조절하고 조명의 밝기와 색상을 변경하며 커튼을 닫는다"며 "리모콘처럼 하나의 기기를 제어하는 것을 넘어 사용자의 진정한 의도를 이해하고 여러 기기를 통합적으로 관리하는 상황이 가능해질 것"이라고 강조했다. 또 그는 환경 변화에 따라 적절한 서비스를 추천하는 기능도 소개하며 자동차를 예시로 들었다. 가까운 미래에 카카오i 솔루션은 운전 중 날씨와 차량 상태를 고려해 에어컨을 켜고 장시간 운전 시 환기를 추천하는 기능을 제공할 예정이다. 이러한 기대에 대해 김 담당자는 "사용자들은 더욱 편리하고 안전한 생활을 누릴 수 있게 될 것"이라고 강조했다. 그럼에도 불구하고 AIoT 구현을 위해서는 해결해야 할 도전과제들이 있다. 김 담당자는 "복잡하고 다양한 표현을 AIoT가 이해하는데는 기존의 자연어 처리 방식으로는 한계가 있다"며 "생성형 AI와 거대언어모델(LLM)을 활용해 사용자 발화의 맥락을 정확히 이해하고 적절한 기기 제어를 수행해야 한다"고 밝혔다. 그 중 해결책으로 각광 받는 최신 AI 기술로는 생각의 연쇄(Chain of Thought), 멀티 에이전트 LLM, 검색증강생성(RAG) 등이 있다. 이러한 기술들은 사용자 발화에서 제어해야 할 기기 목록을 정확히 추출하고 AI가 그럴듯하게 거짓말하는 환각 현상을 줄이는 데 도움이 된다. 김 담당자는 "우리는 기술적인 과제들을 해결해 결국 집에서는 차량을, 차량에서는 집을 제어할 수 있는 통합된 서비스를 제공하게 될 것"이라며 "AI를 통한 스마트한 결정으로 사용자 경험을 혁신하겠다"고 강조했다.

2024.10.22 15:46조이환

카카오엔터프라이즈 "AI·클라우드 신기술로 국내 IT 견인"

카카오엔터프라이즈가 주요 인공지능(AI) 및 클라우드 기술 성과를 바탕으로 국내 IT 기술 발전에 기여하겠다는 포부를 드러냈다. 카카오엔터프라이즈는 경기도 용인시 카카오 AI 캠퍼스에서 '이프카카오 2024' 행사를 개최한다고 22일 밝혔다. 사흘간 진행되는 이 행사는 카카오 그룹의 기술 비전을 공유하는 자리로, AI 인프라의 핵심인 클라우드 기술과 다양한 AI 솔루션을 주제로 한 기술 세션이 진행될 예정이다. 카카오엔터프라이즈는 이번 행사에서 비전 AI, 머신러닝 운영 플랫폼(MLOps), 검색증강생성(RAG) 등 4개의 주요 기술 세션을 통해 자사의 최신 기술 성과를 발표한다. 특히 비전 AI 기술을 활용한 영상 데이터 분석과 클라우드 기반 AI 가속 솔루션이 주목을 받을 예정이다. 비전 AI 세션에서는 카카오클라우드의 비디오 인스턴스를 활용해 실시간 영상 데이터를 더욱 빠르게 처리하는 방법이 소개된다. 이를 통해 영상 내 인물 및 사물 인식, 차량 번호 추적 등 다양한 AI 모델 적용이 시연될 계획이다. 머신러닝 운영 플랫폼(MLOps) 세션에서는 대규모 데이터를 처리하고 머신러닝 모델을 효율적으로 관리하는 카카오클라우드의 솔루션이 소개된다. 실시간 데이터 수집과 분석을 돕는 인프라는 MLOps의 핵심으로, 카카오는 이를 통해 다양한 산업군에서 활용 가능한 기술을 제시할 예정이다. 검색증강생성(RAG) 세션에서는 LLM 기반의 검색 모델 성능을 향상시키는 방법론이 발표된다. 공공데이터를 활용한 데모 시연을 통해 AI 기반 검색 품질을 개선하는 기술이 소개되고 AI의 할루시네이션 문제를 줄이기 위한 해결책도 제시된다. 카카오엔터프라이즈 관계자는 "우리는 카카오 그룹의 신성장동력의 한 축을 담당하며 AI 원천 기술의 근간을 다지고 있다"며 "앞으로도 클라우드 및 검색 분야 기술 고도화를 위해 연구 개발한 다양한 기술과 방법론을 공유하고 국내 IT 기술 발전에 기여할 것"이라고 강조했다.

2024.10.22 10:54조이환

파네시아, 엔비디아·구글에 CXL 솔루션 기술 선봬

국내 팹리스 스타트업 파네시아는 이달 15일부터 미국 캘리포니아주에서 개최되고 있는 세계 최대규모 데이터센터 관련 행사 'OCP 글로벌 서밋'에서 'CXL 3.1 스위치가 포함된 AI 클러스터'를 세계 최초로 공개했다고 18일 밝혔다. OCP 글로벌 서밋은 기존 데이터센터의 비용 효율적인 문제를 해결하는 방법 등 이상적인 데이터센터 인프라 구축 방안에 대한 논의가 이루어지는 행사다. 올해에는 다수의 글로벌 기업을 포함해 7천명 이상의 관계자가 모여 AI향 솔루션에 대해 중점적으로 논의를 진행했다. 파네시아는 이번 행사에서 차세대 인터페이스 기술인 CXL(컴퓨트익스프레스링크)을 활용해 AI 데이터센터의 비용 효율을 획기적으로 개선하는 솔루션인 'CXL 탑재 AI 클러스터'를 선보여 많은 관심을 받았다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 파네시아 관계자는 "AI가 메인 토픽으로 다루어진 올해 행사에서 파네시아는 AI 데이터센터에 CXL 기술을 실용적으로 도입하기위한 청사진을 제시함으로써 많은 글로벌 기업들의 관심을 받고, 고객사 및 협업사 생태계를 확장할 수 있었다”고 말했다. CXL 탑재 AI 클러스터는 파네시아의 주요 제품인 CXL 3.1 스위치와 CXL 3.1 IP를 활용해 구축한 프레임워크다. 대규모 데이터를 저장하는 CXL-메모리 노드와 기계학습 연산을 빠른 속도로 처리하는 CXL-GPU 노드가 CXL 3.1 스위치를 통해 연결되는 구조다. 메모리를 확장하고 싶다면 오직 메모리와 메모리 확장을 위한 CXL 장치들만 추가로 장착해주면 되며, 따라서, 기타 서버 부품 구매에 불필요한 지출을 하지 않아도 돼 메모리 확장 비용을 절감할 수 있다. 또한 각 CXL 장치에는 파네시아의 초고속 CXL IP가 내재돼 메모리 관리 동작을 하드웨어로 가속해준다. 이를 통해 사용자들은 빠른 성능을 누릴 수 있다. 뿐만 아니라 CXL 3.1 표준의 고확장성 관련 기능 및 모든 타입의 CXL 장치에 대한 연결을 지원하는 파네시아의 CXL 스위치 덕분에, 수 백대 이상의 다양한 장치를 하나의 시스템으로 연결하는 실용적인 데이터센터 수준의 메모리 확장이 가능하다는 것도 주요 장점이다. 해당 CXL 3.1 스위치는 내년 하반기에 고객사들에게 제공될 예정이다. 파네시아는 이번 전시회 기간 동안 본인들의 AI 클러스터 상에서 LLM(대규모 언어 모델) 기반 최신 응용인 RAG(검색 증강 생성)를 가속하는 데모를 선보였다. 관계자의 설명에 따르면, 파네시아의 CXL 탑재 AI 클러스터를 활용할 경우, 기존의 스토리지 혹은 RDMA(네트워크 기술의 일종, Remote Direct Memory Access) 기반 시스템 대비 추론 지연시간을 약 6배 이상 단축시킬 수 있다. 파네시아 관계자는 "서버를 제공하는 다수의 기업들이 내년 하반기 고객사에게 제공예정인 우리의 CXL 3.1 스위치 칩을 본인들의 서버 제품에도 도입하길 희망한다는 의사를 강력히 밝혔다”며 "엔비디아, AMD 등 GPU를 개발하는 기업에서도 많이 방문했는데, 이들은 파네시아의 CXL 3.1 IP를 활용해 GPU 장치에 CXL을 활성화할 수 있다는 사실에 많은 관심을 보였다"고 강조했다.

2024.10.18 09:33장경윤

"내 기사 쓰지마"…뉴욕 타임스, AI 검색 엔진 퍼플렉시티에 법적 경고

인공지능(AI) 검색 엔진 퍼플렉시티가 뉴욕 타임스(NYT)와 콘텐츠 사용 문제로 갈등을 빚고 있다. 이는 지난해 뉴욕 타임스가 오픈AI에 자사 기사 사용 중단을 요청하며 소송을 제기한 후 이어진 조치다. 16일 월스트리트 저널 등 외신에 따르면 뉴욕 타임스는 최근 퍼플렉시티가 자사 웹사이트에 있는 자료들을 무단으로 사용하고 있다며 '중단 및 철회 요청서'(cease and desist letter)를 발송했다. 요청서에는 퍼플렉시티가 뉴욕 타임스의 저작물을 허가 없이 사용하고 있다고 주장하는 내용이 담겨 있는 것으로 알려졌다. 퍼플렉시티는 검색증강생성(RAG) 기술에 기반한 AI 검색 엔진으로, 2022년 아라빈드 스리니바스 대표가 창업한 후 빠르게 성장해왔다. 이 검색 엔진은 신속한 정보 검색과 생성형 답변 서비스를 제공하며 주목받고 있으며 지난 8월에는 SK텔레콤과 상호 투자 및 공동 마케팅 파트너십을 체결한 바 있다. 뉴욕 타임스의 조치는 이번이 처음이 아니다. 지난해 12월에는 오픈AI에도 유사한 요청을 하면서 뉴욕 지방법원에서 법적 소송을 제기한 바 있다. 이는 자사 콘텐츠가 AI 모델 훈련에 사용되는 것을 원천적으로 금지하고 있기 때문이다. 실제로 뉴욕 타임스는 AI 크롤러가 자사 웹사이트의 일부 URL을 색인화하지 못하도록 차단하고 있다. 퍼플렉시티 측은 자사 AI 모델이 데이터를 스크랩하지 않으며 웹 페이지를 색인화해 사실적 정보를 인용하는 방식으로 작동한다고 반박했다. 또 특정 단체가 사실에 대한 저작권을 소유할 수 없다는 법적 입장을 내세우고 있다. 아라빈드 스리니바스 퍼플렉시티 CEO는 이번 사건에 대해 "적대적인 입장을 취할 의사가 없다"며 "뉴욕 타임스를 포함한 모든 언론매체 및 출판사와 협력할 준비가 되어 있다"고 밝혔다.

2024.10.16 10:15조이환

시놀로지 "생성 AI·DX 시대에 자원 부족한 IT 파트너 도울 것"

"생성 AI와 디지털 전환으로 경쟁이 치열해진 오늘날 비용 최적화, 운영 간소화를 통한 효율 향상 중요성이 커졌습니다. 시놀로지는 이런 환경에서 한정된 예산과 인력으로 운영하는 IT 부서 담당자가 이상적인 환경을 구축하도록 돕고 있습니다." 15일 오후 더케이호텔 서울에서 진행된 '시놀로지 솔루션 데이 2024' 행사에서 조앤 웡(Joanne Weng) 시놀로지 국제 사업 총괄이 생성 AI와 디지털 전환 시대 비용 효율화된 자사 신제품을 소개하면서 이같이 설명했다. 시놀로지 솔루션 데이는 고객사와 협력사 관계자, 전문가를 대상으로 시놀로지 스토리지 제품과 소프트웨어 솔루션, 서비스를 소개하는 행사다. 국내에서는 작년 11월 초순 이후 두 번째 진행됐다. 이날 시놀로지는 일체형 백업 솔루션인 액티브프로텍트 어플라이언스, 스케일 아웃 스토리지 솔루션, 클라우드 기반 영상감시 솔루션 'C2 서베일런스 스테이션', 생성 AI를 접목한 협업 솔루션인 시놀로지 오피스 등 향후 출시할 신제품을 대거 소개했다. ■ 비인가 로그온 막는 SSO 솔루션 'C2 아이덴티티' 석미은 시놀로지 시니어 세일즈 매니저는 "현재 IT 부서가 가장 걱정하는 것은 랜섬웨어 공격과 데이터 침해이며 이를 막으려면 비인가 접속 차단과 신속한 데이터 복구, 데이터 유출을 막는 이중 보호 전략이 필요하다"고 설명했다. 시놀로지 서비스인 C2 아이덴티티는 자체 서비스와 1천개 이상의 외부 서비스형 소프트웨어(SaaS), 내부 서비스 로그인 관리를 돕는다. 직원 입사·퇴사시 여러 서비스 로그온 권한을 간단히 부여·회수할 수 있다. 비밀번호 입력 없이 스마트폰 전용 앱 '시큐어 사인인'의 안면·지문인식, FIDO2 프로토콜을 지원하는 물리 키로 로그온한다. 복잡한 비밀번호를 일일이 외우는 대신 비밀번호 관리자 기능을 이용해 클라우드에 저장된 정보로 로그온 가능하다. 석미은 매니저는 "C2 아이덴티티에 저장된 비밀번호 관련 데이터는 AES-256 종단간 암호화로 저장되며 시놀로지도 접근할 수 없다. 무차별 대입 방식 공격도 방어 가능하며 비밀번호가 네트워크로 직접 전달되지 않아 중간자 공격도 막는다"고 설명했다. ■ 액티브프로텍트, 중앙 집중 백업·중복 제거 기능 탑재 시놀로지는 지난 6월 전용 백업 소프트웨어와 하드웨어를 결합한 기업용 어플라이언스 '액티브프로텍트'(ActiveProtect)를 공개했다. AMD 2세대 에픽(EPYC) 7272 프로세서와 DDR4 64GB ECC 메모리, 140TB 스토리지를 내장했다. 석미은 매니저는 "백업은 사이버 공격의 최후 방어선이지만 자체 조사 결과 실제 복구가 필요한 상황에서 백업 플랜을 계획대로 이행할 수 있는 업체는 약 20% 미만으로 나타났다"고 설명했다. 이어 "액티브프로텍트는 가상머신과 개인 PC, 클라우드 서비스의 데이터를 중앙 집중 백업하며 각 사이트(site) 별 백업을 통합하고 중복 제거 기술을 활용해 효율적 백업을 돕는다"고 밝혔다. 액티브프로텍트는 필요한 인원이 필요한 백업 데이터에만 접근할 수 있도록 철저한 다중 권한 기능을 부여했다. 백업된 가상머신은 내장 하이퍼바이저로 정상 여부를 자동 검증하고 백업된 데이터가 악성코드나 부주의로 손상되지 않도록 보호한다. ■ 자체 클라우드 기반 오피스 스위트에 올 연말 AI 기능 추가 시놀로지는 NAS(네트워크 저장장치)의 자유로운 백업·저장공간 특성을 살려 외부 클라우드 없이 오피스 문서와 이메일, 일정 관리, 기업용 메신저를 운용할 수 있는 오피스 스위트를 무료로 제공하고 있다. 이날 셸리 추 시놀로지 어카운트 매니저는 "시놀로지 오피스 스위트는 NAS의 용량이 허락하는 한 기업 내 데이터를 완전 무제한 저장 가능하며 구독료가 필요없다. 이런 특성으로 지난 해 전세계 이용자는 20%, 월간 이용자 수는 24% 성장했다"고 설명했다. 이어 "올 연말 경 오피스 스위트에 문서 요약, 초안 작성, 번역과 요약 등 생성 AI 기반 기능이 추가되며 잘못된 정보로 인한 환각 현상을 막는 RAG(검색증강생성) 기능도 추가된다"고 설명했다. 오픈AI, 구글 제미나이 등 외부 AI 모델 활용을 위한 프롬프트 생성시 이름이나 전화번호, 사회보장번호(SSN), 주민등록번호 등 개인을 식별할 수 있는 민감 정보가 포함되는 것을 막는 비식별화 기능도 탑재 예정이다. ■ 영상 데이터 클라우드에 직접 전송하는 IP 카메라 시놀로지는 NAS 전용 운영체제 DSM(디스크스테이션매니저)에 IP 카메라의 영상을 저장하고 분석하는 솔루션인 '서베일런스 스테이션'을 제공한다. 지난 해 9.0으로 업데이트를 거치며 자동차 번호판 인식, 지정 구역 혼잡도 알림, 침입 탐지 등 기능을 추가했다. 셸리 추 매니저는 "서베일런스 스테이션은 영상 데이터 손실을 막는 이중화 솔루션, 사람 얼굴을 흐리게 만드는 프라이버시 마스크, 영상 유출을 막는 워터마크 기능, 비인가 접속을 막는 다중 인증 등을 내장했다"고 설명했다. 이어 "NAS를 직접 설치하기 힘든 환경에서 영상 데이터를 클라우드 기반 'C2 서베일런스'로 자동 전송하는 카메라 2종을 출시할 것이다. 영상 데이터는 단대단 암호화되며 마이크로SD카드를 이용한 영상 백업으로 영상 유출을 막는다"고 덧붙였다. ■ 한국 내 비즈니스 부문 매출 2019년 대비 2배 성장 시놀로지는 현재 국내 시장에서 방송국과 연구소, 물류 기업 등 대형 고객사를 확보하며 시장 점유율을 꾸준히 늘리고 있다. 2019년 이후 국내 비즈니스 부문 매출은 두 배 가량 성장했다. 조앤 웡 시놀로지 국제 사업 총괄은 "기업 내 IT 부서 중 상당수가 예산 제약 속에서 사업 연속성 확보와 재해 복구 전략에 어려움을 느끼고 있다"며 "그러나 시놀로지와 각 국가별 채널 파트너는 여러 기업의 경쟁력 강화에 기여했다"고 밝혔다. 이어 "시놀로지 목표는 IT 부서를 강화하고 산업을 견고하게 만드는 것이며 이를 위해 안정적이고, 안전하며 비용 효율적인 솔루션을 지속 공급할 것"이라고 덧붙였다.

2024.10.16 09:06권봉석

"AI 검색 혁신 이끈다"…라이너, 시리즈 B2로 270억원 투자 유치

라이너가 대규모 스타트업 투자 유치에 성공하며 글로벌 인공지능(AI) 검색 시장 공략에 나섰다. 라이너는 최근 270억원 규모의 시리즈 B2 투자 유치에 성공했다고 11일 밝혔다. 지난 2022년 진행한 시리즈 B1에서는 110억원을 유치해 시리즈 B 라운드에서 총 380억원을 확보한 상태로, 현재 총 누적 투자금은 440억원이다. 라운드 오픈 2주 만에 마무리된 라이너의 시리즈 B2 투자는 에이티넘인베스트먼트와 인터베스트의 주도로 삼성벤처투자와 LB인베스트먼트도 참여했다. 또 기존 투자자인 캡스톤파트너스, IBK기업은행, SL인베스트먼트도 후속 투자를 단행했다. 라이너는 AI 검색 서비스로 경쟁력 및 기술적 역량을 입증해 대규모 투자금을 확보할 수 있었다. 특히 지난 2015년 하이라이팅 서비스를 출시함으로써 '사람이 직접 중요한 정보라고 선별한 데이터'를 축적해 이용자를 위한 고품질의 정보와 출처를 선별하는 독보적인 기술력을 확보했다. 또 지난해 국내 최초로 AI 에이전트 기술을 선보였으며 출처 선별에 특화된 거대언어모델(LLM)을 자체 개발해 신뢰할 수 있는 AI 검색 서비스를 출시했다. 미국을 중심으로 실제 비즈니스가 성장하고 있다는 점도 투자 유치의 주요 요인으로 작용했다. 라이너는 현재 글로벌 220여 개국에서 서비스를 운영하고 있으며 전 세계 가입자 수는 1천만 명에 이른다. 라이너 유료 구독자의 60% 이상은 미국 이용자로, 미국 내 활성 구독자 수는 1년 사이 13.5배 증가했다. 라이너 AI 검색은 명확한 답변을 제공하고 답변의 문장마다 신뢰할 수 있는 정확한 출처를 제시한다. 특히 지난 10년 동안 축적한 하이라이팅 데이터를 활용해 양질의 출처를 먼저 선별한 후 정확도 높은 답변을 생성해 잘못된 정보 문제를 해결하고 있다. 김제욱 에이티넘인베스트먼트 부사장은 "AI 검색 영역에서 라이너가 가지고 있는 데이터와 기술 경쟁력은 독보적"이라며 "이번 투자를 시작으로 글로벌 시장에서 혁신을 이룰 수 있도록 다각도로 지원할 예정"이라고 말했다. 김진우 라이너 대표는 "우리는 출처 선별 기술을 통해 이용자에게 신뢰할 수 있는 답변을 제공하며 AI 검색 서비스를 통해 명확한 가치를 선사하고 있다."며 "이번 투자 유치를 통해 기술력과 경쟁력을 인정받은 만큼 라이너의 강점을 더욱 강화하고 인재 채용과 국내외 마케팅 등에도 적극 투자하겠다"고 강조했다.

2024.10.11 10:35조이환

포티투마루 권혁성 이사 "RAG 기능 핵심은 데이터 품질"

"기업이 검색증강생성(RAG)을 모델에 제대로 도입하려면 데이터 전처리 과정부터 학습 데이터 설계, 검증까지 거쳐야 합니다. 생성형 인공지능(AI) 모델 데이터 품질을 잘 관리해야 RAG도 잘 작동합니다." 포티투마루 권혁성 이사는 10~12일 서울 코엑스에서 열린 '디지털혁신페스타(DINNO) 2024'의 퓨처테크 컨퍼런스에서 생성형 AI에 RAG를 성공적으로 도입하기 위한 조건을 이같이 밝혔다. 권 이사는 최근 기업들이 생성형 AI를 업무에 적용하면서 RAG에 높은 관심을 보이기 시작했다고 했다. RAG가 AI 모델 정확도를 높이고 사용자 의도에 맞는 결과물을 제공하기 때문이다. 보통 RAG는 스스로 필요한 정보를 찾고 이를 LLM에 제공해 답변 생성을 돕는다. 기업 내부 지식과 데이터를 LLM에 넣어 답변 정확성을 높이는 원리다. 이는 생성형 AI 한계인 환각현상을 줄일 수 있다. 그는 "RAG를 생성형 AI에 도입하는 것만으로는 충분치 않다"며 "모델 데이터 전처리가 필수로 이뤄져야 한다"고 재차 강조했다. 데이터 전처리는 모델이 데이터를 제대로 이해하고 활용할 수 있도록 데이터를 깨끗하고 정돈된 상태로 만드는 과정이다. 데이터가 잘 정돈돼야 RAG가 정상 기능을 할 수 있다는 설명이다. 권 이사는 "기업은 RAG 구축 전 데이터를 적절히 준비하고 최적 학습 데이터를 설계해 검증 과정을 반드시 거쳐야 한다"면서 "단순히 오픈소스 모델을 사용하는 것만으로는 고품질 결과물을 기대하기 어렵다"고 강조했다. 그는 RAG 솔루션을 도입한 사례를 소개했다. 대표 고객사로 CJ제일제당, KB증권, LG유플러스 등을 소개했다. 권 이사는 "현재 고객사는 생성형 AI 모델로 사내 데이터 분석과 문서 처리를 최적화하고 있다"며 "여기서 RAG는 사내 전사적 업무 지원 도구 역할을 톡톡히 하고 있다"고 설명했다. 이어 "모든 고객사가 생성형 AI와 RAG를 구축하기 전 데이터 전처리 과정을 반드시 거쳤다"며 "실제 AI와 RAG가 비즈니스에서 어떤 원리로 효과를 낼 수 있는지 고민하며 적용하는 것이 상당히 중요하다"고 덧붙였다.

2024.10.11 07:06김미정

메가존클라우드 "기업 생성형 AI 도입, '관망'에서 '관리' 영역으로 진화"

"기업들이 생성형 인공지능(AI)을 도입하는 데 있어 환각 현상을 줄이는 것이 반드시 필요합니다. 조만간 선보일 '젠AI360 버전2(GenAI360 v2)'가 이같은 기업들의 고민을 해결해 줄 것입니다." 공성배 메가존클라우드 AI·데이터분석센터장은 10일 서울 강남구 코엑스에서 개최된 'SaaS 서밋 2024(SaaS Summit 2024)'에 연사로 참석해 이달 말께 '젠AI360'의 새로운 버전을 공개하며 기업 고객 공략에 속도를 내겠다는 의지를 밝혔다. '젠AI360'은 생성형 AI를 도입하고자 하는 기업들을 위해 설계부터 구축, 운영까지 지원하는 기업 맞춤형 엔드 투 엔드 서비스로, 지난해 9월 처음 론칭됐다. 기존 버전은 ▲기업의 생성형 AI 활용 전략 수립 및 파일럿 과제 수행 등 컨설팅 ▲기업별 환경을 고려한 최적 플랫폼 선정과 데이터 학습 및 검증 ▲기업 내 활용 대상 서비스 개발 및 가이드 제공 ▲생성형 AI 운영 전략 수립 및 서비스 운영 등으로 구성된다. 이번에 선보이는 새로운 버전은 검색증강생성(RAG) 기능을 적용해 좀 더 간편하고 정확하게 질의응답 할 수 있는 플랫폼으로 구현함으로써 기업 고객들이 원하는 답변을 제대로 도출할 수 있도록 지원하는 것이 특징이다. 주요 질문 유형에 대해 프롬프트 엔지니어링을 적용해 신뢰할 수 있는 답변을 생성함으로써 기업들은 업무를 더 효율적으로 할 수 있게 된다. 공 센터장은 이날 '비즈니스 혁신을 이끄는 생성형 AI, 고객 경험으로 본 가능성'을 주제로 발표하며 "2022년 말 '챗GPT' 등장 후 생성형 AI가 굉장히 주목 받게 되면서 기업들이 이를 적용하는 것에 대한 고민이 많았다"며 "지난해까진 많은 기업들이 적용하는 부분에 대해 대체적으로 '관망'하는 분위기였지만, 이제는 '관리'하는 영역으로 넘어오면서 자사 데이터와 결합하려는 곳들이 많아지고 있다"고 말했다. 이어 "조직 차원에서 생성형 AI를 활용하는 것을 받아 들이고 1~2개 업무 프로세스와 연계해 자사 데이터를 활용하는 방안을 추진하는 기업들이 많아지고 있다"며 "각 기업들이 지속적으로 생성형 AI를 활용하기 위해선 ▲비정형·정형 데이터 ▲기존 전사적자원관리(ERP) 시스템이나 데이터 웨어하우스에서 잘 정의된 데이터 ▲웹에서 크롤링한 데이터 등 세 가지 잘 버무릴 수 있어야 한다"고 덧붙였다. 공 센터장은 이를 고려해 만들어진 '젠AI360 버전2'가 기업들의 제조 현장 업무 생산성을 더 강화시켜 줄 것이라고도 자신했다. 또 이커머스 플랫폼의 검색 및 추천 기능을 강화시키는 데 도움을 줄 뿐 아니라 B2C(기업간소비자거래) 지식 제공 서비스 지식 상품을 생성하는 데도 적극 활용될 수 있다고 설명했다. 공 센터장은 "현재 19개 기업과 관련 프로젝트를 진행해 본 결과 각각의 기업들이 적용하는 것이 다르다는 점과 내부에 이식하는 데 4~6주 정도 걸린다는 점을 파악할 수 있었다"며 "각 기업 맞춤 서비스를 제공하는 동시에 적용 기간을 단축할 수 있도록 PaaS(서비스형 플랫폼) 형태로 애플리케이션을 만들어 선보이게 됐다"고 말했다. 이를 앞세워 메가존클라우드는 앞으로 성장성이 높은 기업용 생성형 AI 시장에서 다양한 사업 기회를 잡겠다는 전략이다. 시장조사기관 가트너에 따르면 오는 2026년까지 기업 80% 이상이 생성형 AI를 적용해 사용할 것으로 예상됐다. 지난해 생성형 AI를 활용한 기업은 5% 미만이었다. 공 센터장은 "생성형 AI 시장은 많은 새로운 서비스와 제품을 출시하고 있는 상황으로, 이를 위한 다양한 에코시스템 구성도 필요해졌다"며 "오픈소스 관심도 지표상 관련 생태계 기술 또한 기반 모델에서 응용·인프라(SaaS, PaaS) 부분으로 빠르게 전환하고 있다"고 설명했다. 그러면서 "올해는 생성형 AI와 관련해 기업들이 구체적 실증 사업을 실행하고 기술·활용 역량을 내재화 하는데 집중하는 분위기"라며 "기업들이 생성형 AI를 도입하기 위해 고려하는 방법은 다양하겠지만 자사가 선보이는 '젠AI360 버전2'를 도입하면 좋은 결과물을 내놓을 수 있는 데이터를 최적의 비용으로 잘 활용할 수 있을 것"이라고 덧붙였다.

2024.10.10 15:07장유미

이즈파크, RAG 기술 강화해 기업 DX 촉진한다

민관 기업들의 빠른 디지털 전환(DX)을 위해 이즈파크가 인공지능(AI)을 활용한 검색 증강 생성(RAG) 기술을 강화한다. 이즈파크는 어드밴스드 RAG 기술을 비즈니스 환경에 최적화함과 동시에 기업 성과 관리를 위한 AI 기반 서비스 출시를 앞두고 있다고 10일 밝혔다. 어드밴스드 RAG는 사용자 질문에 실시간으로 반응해 관련 데이터를 검색하고 맥락에 맞는 정확한 답변을 제공하는 솔루션이다. 이즈파크가 현재 개발 중인 업무 데이터 분석 서비스는 ▲보고서 자동 생성 ▲구성원의 역량 증진 위한 피드백 추천 ▲조직 성장을 위한 인사이트 제공 등이 포함될 예정이다. '어드밴스드 RAG' 기술로 기존 '네이브 RAG' 대비 고도화된 자동화 솔루션을 개발한 이즈파크는 향후 기업 운영 효율성을 높이는 데 주력하겠다는 방침이다. 기업의 업무 효율성을 높인 사례로는 ▲한국무역협회 솔루션 최적화 ▲항공기 부품 도막 두께 예측 지능화 시스템 ▲해양 ICT 스마트 시스템 구축 등이 대표적인 성공 사례로 꼽힌다. 이즈파크 AI 기술연구소 김건형 상무는 "고객 지원 자동화뿐만 아니라 복잡한 데이터 처리, 문서 분석, 의사결정 지원 등 다양한 업무에 고도화된 AI 기술을 적용해 기업들이 빠르게 변화하는 시장 환경에 유연하게 대응할 수 있도록 도울 것"이라고 말했다.

2024.10.10 11:54양정민

"AI 에이전트 '알리' 각광…한·미·일 시장 동시 공략"

올거나이즈코리아가 '제8회 대한민국 디지털 미래혁신대상'에서 한국인공지능산업협회 협회장상을 수상했다. 과학기술정보통신부가 주최하고 한국소프트웨어산업협회(KOSA)가 주관하는 대한민국 디지털 미래혁신대상은 뛰어난 미래 혁신 기술을 보유한 기업을 발굴해 시상하는 디지털 분야 대표 어워드다. 시상식은 오는 10일 서울 코엑스에서 열리는 '디지털 혁신 페스타(DINNO) 2024'에서 열린다. 올거나이즈는 자연어 이해(NLU) AI 기술을 기반으로, 엔터프라이즈 고객사에 LLM(거대언어모델) 관련 솔루션을 제공하는 기업이다. 지난 2017년 한·미·일에서 동시에 사업을 시작해 2018년 한국 법인을 설립했다. 올거나이즈의 핵심 제품은 AI 태스크봇인 '알리(Alli)'다. 기업 내 많은 문서·텍스트 데이터를 분류 및 추출·검색해, 직원들의 업무 자동화를 돕는다. 현재 올거나이즈는 자체 개발한 산업 특화 LLM부터 기업 맞춤형 LLM 등 LLM의 전 영역을 제공하고 있다. 기업은 알리 앱 마켓에서 직군별 업무 자동화 앱을 골라 바로 사용할 수 있으며, 업종별 전문 용어가 반영된 업무 생산성 앱을 노코드(No-Code) 형태로 직접 구축할 수도 있다. 또한 알파-인스트럭트 LLM을 오픈소스로 공개하고, 금융 LLM 리더보드 및 RAG 리더보드의 테스트 데이터셋도 공개해 AI 생태계에 기여하고 있다. 이창수 올거나이즈코리아 대표는 "회사의 가장 강력한 경쟁력은 지난 6년간 실제 고객사들의 문서를 다뤄온 경험과 노하우를 '에이전트 RAG(검색증강생성)'로 녹여냈다는 점"이라며 "LLM을 기업에서 사용할 때 환각에 대한 걱정을 하게 되는데, 이러한 환각을 줄이면서 업무 생산성을 향상시키는 방향으로 RAG 기술이 부각되고 있다"고 설명했다. RAG은 외부 리소스를 LLM에 연결해 생성형 AI 모델의 출력 정확성을 향상시키는 기술이다. 올거나이즈의 에이전트 RAG는 기존 RAG와 다르게 일회성으로 답변하고 끝나는 것이 아니라, 사용자와 상호작용하면서 더 나은 결과물을 도출하기 위해 에이전트가 직접 계획부터 실행까지 진행한다. 이 대표는 "운영 비용을 최소화해야하는 기업들은 반복적인 기능을 자동화하고, 방대한 데이터를 분석하고, 실시간으로 효과적인 대안을 제공하는 AI 에이전트를 점점 더 많이 필요로 하고 있다"며 "올거나이즈의 AI 에이전트는 많은 문의를 동시에 관리할 수 있어, 더 빠른 대응과 복잡한 문제 처리가 가능하다"고 말했다. 한편 올거나이즈코리아는 2025년 말 일본 도쿄거래소 증시 상장을 목표로 하고 있다. 또한 AI 워크 에이전트의 유망한 성장세에 주목해 주요 시장인 한·미·일 3개국을 동시에 공략할 계획이다. 시장조사업체 마켓앤마켓의 최신 보고서에 따르면, AI 에이전트 시장은 2024년 51억 달러에서 2030년 471억 달러로 연평균 44.8%의 높은 성장률을 기록할 것으로 예상된다. 이 대표는 "현재 금융, 공공기관의 온프레미스 AI 프로젝트를 많이 진행해 왔는데, 올거나이즈 제품은 온프레미스, 하이브리드, SaaS 형태로 모두 제공 가능하다"며 "미국과 일본에서는 SaaS 제품이 더 많이 팔리고 있기 때문에 한국 시장에서도 SaaS 제품을 좀 더 공격적으로 마케팅할 것"이라고 밝혔다. 그는 이어 "올거나이즈의 비전은 전 세계적인 AI 회사를 만드는 것"이라며 "스타트업의 유전자(DNA)를 가진 AI 자회사들을 여럿 만들어 다양한 일을 해 보고 싶다. 매출보다 영향력이 큰 회사를 만드는 것이 꿈"이라고 덧붙였다.

2024.10.08 09:33장경윤

디노티시아, '벡터 데이터베이스' 개발해 160억원 국책 과제 수주

인공지능 전문기업 디노티시아(Dnotitia)는 최신 AI 서비스의 필수 요소로 주목받고 있는 검색증강생성(RAG)의 핵심 기술인 벡터데이터베이스(Vector Database) 개발 및 사업화에 박차를 가하고 있다. RAG는 대규모 언어 모델(LLM)을 사용하는 인공지능에 실시간 정보를 반영하고 개인화 서비스를 가능하게 하며, 할루시네이션을 줄여주고 장기 기억 기능을 더해주는 필수 기술이다. 이 모든 과정의 중심에는 디노티시아가 가지고 있는 핵심 기술인 고성능 벡터데이터베이스가 자리하고 있다. 디노티시아는 과학기술정보통신부가 지원하고 전문기관인 정보통신기획평가원이 주관하는 SW컴퓨팅산업원천기술개발사업 중 '초거대 AI모델의 장기 기억 저장을 위한 벡터 DB개발' 과제(이하 '과기부 과제')를 통해 세계 최고 성능과 정확도를 가지는 국산 벡터데이터베이스 공개 소프트웨어를 개발한다. 또한 산업통상자원부에서 지원하고 한국산업기술평가관리원이 전문기관으로 수행하는 소재부품기술개발(이종기술융합형) 사업의 '거대언어모델을 위한 벡터데이터베이스 가속기 개발' 과제(이하 '산자부 과제')를 통해 세계 최초로 벡터 데이터 연산에 특화된 반도체 칩을 개발한다. 각각 과제는 4년 88억원(총과제금액), 3년 73억원(총과제금액) 이다. 디노티시아는 본 사업을 성공적으로 수행하기 위해서 최고 기술을 가지고 있는 다수의 산학기관과 협력한다. 벡터데이터베이스 공개 소프트웨어를 개발하는 과기부 과제에서는 데이터베이스 시스템 분야 학계 세계 최고 권위를 자랑하는 서울대학교, 그래프 데이터베이스 분야 세계 최고권위자인 포항공과대학교와 H/W & S/W 수직최적화 관련 세계 최고 연구실적을 가지고 있는 성균관대학교 팀이 참여한다. 뛰어난 성능과 높은 정확도를 동시에 보장하는 벡터 데이터베이스 인덱스 기술을 개발하고, 오픈소스 데이터베이스 국내 최고 기업 큐브리드가 참여해 인덱스와 통합된 벡터 데이터베이스 시스템을 개발한다. 개발된 벡터 데이터베이스 시스템은 최초 HBM 기반 고성능 인공지능 반도체 기업 퓨리오사AI의 국산 LLM 가속 인공지능 반도체 칩을 활용해, 국내 최고의 AI미디어 콘텐츠 플랫폼 기술을 보유한 SBS의 자체 콘텐츠 플랫폼에 적용해 실증할 계획이다. 또한 벡터 데이터 연산에 특화된 VDPU(Vector Data Processing Unit) 반도체 칩을 개발하는 산자부 과제에서는 국내 유일 TSMC 디자인하우스 에이직랜드가 참여해 반도체 칩의 완성도를 높인다. 정무경 디노티시아 대표는 “이번에 선정된 두개 과제를 통해 벡터데이터베이스 소프트웨어 기술과 전용 하드웨어 가속기 개발을 동시에 추진해 세계 최고 성능의 LLM-RAG 하드웨어-소프트웨어 통합 솔루션을 개발하는 데 성공할 것”이라며 “이번 과제를 통한 협력과 기술 개발을 바탕으로 세계 최고 벡터데이터베이스 회사로 자리매김하겠다”고 말했다.

2024.09.10 08:55장경윤

와이즈넛, 생성형AI·RAG 기술력 글로벌 한인과학기술인에 선보여

와이즈넛(대표 강용성)이 세계 각국 한인 과학기술인 2천여 명을 대상으로 생성형 인공지능(AI) 기술력을 선보였다. 와이즈넛은 '제2회 세계 한인과학기술인대회'에 참가해 검색 증강 생성(RAG)기반 생성형AI 솔루션과 관련 원천 기술 및 실증 사례를 소개했다고 11일 밝혔다. 9~11일 3일간 한국과학기술회관에서 열린 세계 한인과학기술인대회는 전세계에서 활약하고 있는 한인 과학기술인을 국내로 초청하여 미래 과학기술 혁신의 방향을 모색하고 연구성과를 교류하는 자리다. 과학기술정보통신부가 주최하고 한국과학기술단체총연합회와 재외한인과학기술자협회가 주관했다. 본 행사는 지난해 국내외 과학기술인들의 연구 성과를 교류하는 장을 열겠다는 윤석열 대통령의 제안으로 마련되어, 올해 이종호 과학기술정보통신부 장관과 이태식 한국과학기술단체총연합회 회장을 비롯한 각계 대표 인사들이 자리를 빛냈다. 이번 행사에서 와이즈넛은 AI 대표기업으로 참가하여, 성공적인 비즈니스 활성화를 위해 도입할 수 있는 최적화된 생성형AI 솔루션 '와이즈 아이랙(WISE iRAG)'을 포함해 자체 보유한 AI기술을 선보이는 전시 부스를 운영했다. 전시 부스에서는 24년간 와이즈넛이 축적해온 자연어처리기반 기술들과 최근 선보이고 있는 와이즈 아이랙을 소개하고, 공공, 제조, 법률, 금융, 반도체 등 산업별 실증 사례에 대한 상세 설명이 이뤄졌다. 강용성 와이즈넛 대표는 “전세계 과학기술인들이 당사의 자연어처리 기술과 생성형AI 기술에 대해 보여주신 관심은, 그동안 투자하며 AI 관련 연구 개발을 꾸준히 지속해온 것에 확신을 주는 계기가 됐다”며 “앞으로도 생성형AI에 대한 연구를 활발히 수행하고 관련 사업을 지속적으로 추진해 글로벌 AI 산업 경쟁력을 확보하기위해 노력할 것”이라고 말했다.

2024.07.11 16:33남혁우

KAIST, 챗GPT4.0 정답률보다 32.5% 더 나은 'PlanRAG' 첫 공개

KAIST가 거대언어모델(LLM)을 이용해 챗GPT4.0의 기업 의사결정 정답률을 32.5% 개선한 '플랜래그'(Plan RAG)를 처음 공개했다. 오픈AI의 최신모델인 챗GPT 4.0은 의사결정 구조에서 통상 40~50%의 정답률을 보인다. 이를 30% 이상 개선했다. KAIST는 전산학부 김민수 교수 연구팀이 ▲의사결정 문제 ▲기업 데이터베이스 ▲비즈니스 규칙 집합 등 3 가지를 기반으로 비즈니스 규칙에 부합하는 최적의 의사결정을 내릴 수 있는 '플랜래그(PlanRAG)'을 개발했다고 19일 밝혔다. 김 교수는 엔비디아 GPU 연구센터장과 IBM 알마덴 연구센터 연구원을 지냈다. 지난 2021년부터 KAIST 전산학부 교수로 재직 중이다. 연구팀은 기업 의사결정 문제를 푸는데 있어 GPT-3.5 터보에서 반복적 RAG 기술을 사용하더라도 정답률이 10% 미만이라는데 착안해 대안을 모색했다. 최근 AI분야에서는 LLM이 학습된 내용만으로 답변하는 것 대신, 데이터베이스를 검색해 답변을 생성하는 검색 증강 생성(Retrieval-Augmented Generation; 이하 RAG) 기술이 각광받고 있다. 연구팀은 여기에서 한 단계 더 나아갔다. 반복적 RAG를 이용하기 전에 먼저 어떤 데이터 분석이 필요한지에 대한 거시적 차원의 계획을 먼저 생성했다. 마치 기업의 의사결정권자가 어떤 데이터 분석이 필요한지 먼저 계획을 세우면, 그 계획에 따라 데이터 분석팀이 데이터베이스 솔루션들을 이용해 분석하는 형태와 유사한 구조다. 연구팀은 "다만 이러한 과정을 모두 사람이 아닌 거대언어모델이 수행하도록 한 것이커다란 차이"라며 "'플랜래그' 기술은 계획에 따른 데이터 분석 결과로 적절한 답변을 도출하지 못하면, 다시 계획을 수립하고 데이터 분석을 수행하는 과정을 반복한다"고 설명했다. 김민수 교수는 “지금까지 LLM 기반으로 의사결정 문제를 푼 연구가 없었다"며 "기업 의사결정 성능을 평가할 수 있는 의사결정 질의응답(DQA) 벤치마크를 새롭게 만들었다"고 말했다. 실제 이 벤치마크에서 GPT-4.0을 사용할 때 종래의 반복적 'RAG'의 의사결정 정답률에 비해 '플랜래그'는 최대 32.5%까지 정답률을 개선했다. 김 교수는 "기업 CEO가 '플랜래그'를 실제 활용하기 까지는 1~2년이 더 걸릴 것으로 예상한다"며 "기존 챗GPT 4.0의 의사결정 정답률을 획기적으로 끌어올려 문제의 3분의 2가량을 맞출 수 있다는데 큰 의미를 부여한다"고 덧붙였다. 이 연구에는 KAIST 전산학부 이명화 박사과정과 안선호 석사과정이 공동 제1 저자, 김민수 교수가 교신 저자로 참여했다. 연구 결과는 자연어처리 분야 최고 학회(top conference)인 'NAACL' 에 지난 17일 발표됐다.

2024.06.19 09:14박희범

인텔 "가우디3, 납기·비용·성능 모두 뛰어난 엔비디아 대체재"

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 AI 가속기 '가우디3'의 가격 대비 성능을 강조했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 전세계 10개 이상의 글로벌 공급업체가 올 3분기부터 가우디3 기반 솔루션을 공급 계획중이다. ■ "네이버도 가우디 선택했다...TCO·TTM에서 엔비디아 대비 우위" 이날 팻 겔싱어 인텔 CEO는 "현재 클라우드 이용 현황을 보면 전체 워크로드 중 60%가 클라우드에서 실행되며 생성된 데이터 중 80%가 여전히 활용되지 않는 상황"이라고 설명했다. 이어 "LLM(거대언어모델)에 기업이나 기관의 데이터를 더한 검색증강생성(RAG)은 잠자는 데이터를 활용할 수 있는 기회를 줄 것이다. 6월부터 내년 1분기에 걸쳐 출시될 제온6 프로세서와 가우디 가속기는 이를 바꿀 수 있다"고 설명했다. 현재 AI용 GPU 시장은 엔비디아가 독식하고 있다. 팻 겔싱어 CEO는 "기업들은 대안과 개방형 구조를 원한다. 또 제품/서비스 출시 시간(TTM)을 단축하고 총소유비용을 낮추길 희망하고 있다"고 지적했다. 이어 "한국 네이버클라우드가 가우디를 쓰고 있다. 또 오픈소스 리눅스 재단과 기업용 AI 플랫폼 구축에 협업하고 있으며 제온6와 가우디가 기업 AI 워크로드에 도움을 줄 것"이라고 강조했다. ■ "가우디3, 덜 쓰고 더 얻을 수 있는 '가성비' 가속기" 팻 겔싱어 CEO는 올 3분기부터 공급될 차세대 가속기 가우디3에 대해 "같은 규모 클러스터 구성시 엔비디아 H100에서 추론 성능은 2배이며 H200 GPU 대비 경쟁력을 갖고 있다"고 설명했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공할 예정이다. 팻 겔싱어 CEO는 "가우디3는 '덜 쓰고 더 얻을 수' 있는 AI 가속기"라며 가우디3의 개방성도 강조했다. 그는 "가우디3는 업계 표준 인터페이스인 이더넷으로 작동하며 파이토치 등 오픈소스 AI 프레임워크에 최적화됐고 수십만 개의 AI 모델을 지원한다"고 말했다. ■ 가우디3 솔루션 공급 업체 10개 이상으로 확대 가우디3는 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 인텔은 이날 가우디3 기반 AI 서버 공급업체로 델테크놀로지스, HPe, 레노버, 슈퍼마이크로에 더해 폭스콘, 기가바이트, 인벤텍, 콴타, 위스트론 등 총 10개 이상 글로벌 업체가 참여하고 있다고 밝혔다.

2024.06.04 19:01권봉석

올거나이즈 "생성형 AI '거짓말 탐지기' 성능 비교하세요"

앞으로 기업들이 생성형 인공지능(AI) 환각현상 방지에 활용되는 검색증강생성(RAG) 성능을 비교하고 자사 제품에 가장 적합한 RAG를 고를 수 있게 됐다. 올거나이즈(대표 이창수)는 국내에서 처음 RAG 리더보드 '알리 RAG 리더보드'를 공개한다고 29일 밝혔다. RAG는 생성형 AI의 환각현상을 최소화할 수 있는 대안으로 주목받는 기술이다. 생성형 AI의 '거짓말 탐지기'라고도 알려졌다. RAG는 사전 학습한 데이터만을 활용하는 게 아니라 기업 내부 데이터 등 이미 존재하는 데이터에서 답을 찾아낸다. 이들 답변 중 질문 및 검색어의 맥락을 고려한 후 가장 적절한 대답을 제공하는 식이다. 올거나이즈의 RAG 리더보드는 RAG 기술의 성능을 측정해 순위를 매긴다. 이를 통해 기업 AI 실무자들이 가장 적절한 솔루션을 비교 도입할 수 있도록 돕는다. 알리 RAG 리더보드는 금융, 공공, 의료, 법률, 커머스의 5개 분야에 대한 한국어 RAG 성능을 평가한다. 올거나이즈 측은 답변 유사도 및 정확도를 판단하는 5개의 평가 툴로 RAG 성능을 평가해 신뢰도를 높이고 오차를 줄였다는 입장이다. 우선 각 분야별로 2~300페이지의 문서를 업로드한 후 분야마다 사용자가 할 법한 질문 60개를 생성했다. 질문별로 RAG가 답변을 생성하면 5개의 평가 툴 중 3개 이상에서 오류가 없을 경우 '이상 없음'으로 판명한다. 해외 RAG 리더보드의 경우 일반적으로 1~2개의 평가 툴만을 활용하고 있다. 특히 현재 공개된 RAG 리더보드 중 유일하게 RAG의 3개 구성요소를 모두 평가한다. RAG는 문서에서 글자·그림·표 등을 추출하고 읽기 쉬운 포맷으로 변경해주는 파서, 기업이 보유한 방대한 데이터 중 사용자가 원하는 대답을 즉시 찾아주는 리트리버, 새로운 지식과 학습 데이터를 토대로 LLM이 응답을 생성해내는 답변생성의 3개 요소로 구성돼 있다. 기업들이 RAG을 도입하고자 할 때 어떤 RAG가 적합한지 성능평가를 제대로 하기 어렵다는 점을 고려해 테스트 데이터셋을 모두 공개했다. 실제 업무 문서에 표, 이미지 등이 복잡하게 얽혀 있다는 점을 감안해서 표 및 이미지 데이터도 테스트 데이터셋에 포함했다. 리더보드는 허깅페이스를 통해 확인할 수 있으며 리더보드에 들어간 RAG 솔루션들도 링크로 공개돼 있어 누구나 손쉽게 체험해 볼 수 있다. 이창수 올거나이즈 대표는 "AI 생태계에 기여하기 위해 테스트 데이터셋을 모두 공개했고 이를 활용해 한국어로 된 다양한 RAG 솔루션의 성능이 향상됐으면 하는 바람"이라며 "대학 및 개인 연구자들은 AI 연구에 도움을 받을 수 있을 것이고, 기업들 역시 성능 좋은 RAG를 도입함으로써 업무 생산성 증대를 경험할 수 있을 것"이라고 밝혔다.

2024.05.29 10:07김미정

[기고] 기업 경쟁력 좌우하는 생성형 AI, 어떻게 시작할 것인가

2023년 우리 모두는 챗GPT가 제공한 새로운 서비스를 경험했다. 생성형 AI와 대규모 언어 모델(LLM)은 개인과 직업의 환경을 혁신적으로 변화시키고 있다. 기업들도 불과 1년 만에 대다수가 생성형 AI에서 제공하는 서비스를 통해 비즈니스 역량을 강화하려는 시도를 하고 있다. 본 글에서는 생성형 AI와 대규모 언어 모델(이하 LLM)이 무엇이며 기업들은 이 서비스를 어떤 분야에 활용할 수 있는지 살펴보고자 한다. 생성형 AI는 신경망과 딥러닝 알고리즘을 사용하여 기존 머신러닝 모델과는 근본적으로 다른 복잡한 콘텐츠, 이미지, 동영상, 오디오 또는 코드를 생성하는 AI의 한 종류이다. 생성형 AI는 전통적인 머신러닝, 딥 러닝 모델보다 훨씬 많은 양의 데이터가 필요하다. 이렇게 훈련된 범용 모델을 파운데이션 모델이라고 한다. 파운데이션 모델을 개발하려면 방대한 양의 데이터와 고성능 컴퓨팅 리소스가 필요하기 때문에 일부 빅테크 회사만이 LLM 개발 및 개선 작업에 적극적으로 참여해왔다. 하지만 최근에는 오픈 소스 파운데이션 모델이 널리 공유돼 파운데이션 모델을 직접 개발하지 않아도 활용할 수 있게 되었다. 덕분에 일반 기업들도 '파인 튜닝'을 통해 LLM을 특정 도메인에 맞게 훈련시키고 자체 비즈니스 요건에 맞게 애플리케이션을 개발하여 사용할 수 있게 됐다. 파인 튜닝은 특정 비즈니스 요건이나 업무 도메인에 맞게 사전 훈련된 LLM에 특정 데이터셋을 사용해 추가적인 학습을 수행하는 작업을 말한다. 챗GPT의 성공 후, 이 시장에 뛰어든 후발 주자 빅테크 기업들은 경쟁력을 확보하기 위한 수단으로 자체 개발하는 LLM의 매개변수를 기하급수적으로 늘려 빠르게 성능을 올리는 전략을 채택했다. 매개변수는 사람의 뇌에서 정보를 처리하고 통합하는 시냅스와 같은 역할을 한다. 매개변수가 많을수록 LLM은 더 많은 정보를 저장하고 더 다양한 패턴을 학습함으로써 세밀한 언어 이해와 콘텐츠 생성을 할 수 있다. 하지만 더 많은 컴퓨팅 자원과 저장 공간이 필요하고 이 모델을 학습하는 데 더 많은 시간이 걸릴 수밖에 없다는 한계가 있다. 이에 반해 매개변수가 적은 LLM은 학습할 때 컴퓨팅 리소스가 덜 필요하기 때문에 파인 튜닝이나 배포가 상대적으로 용이하다. 최근에 공개되고 있는 대다수 LLM의 성능은 상향 평준화되고 있다. 특히 메타의 오픈소스 LLM인 '라마'가 다른 모델에 비해 상대적으로 적은 매개변수를 사용하면서 일정 수준의 성능을 보장한다. 이렇듯 모델 경량화와 최적화는 오늘날 LLM을 선택하는 데 중요한 기준으로 자리 잡았다. ■ LLM에 대한 이해 범용 LLM은 자연어와 컴퓨터 프로그램 언어를 이해할 수 있으며 광범위한 작업을 처리할 수 있다. 인터넷상에 존재하는 방대한 양의 데이터로 사전학습 되어 있으며, 모델 목적과 관련된 특정한 데이터 소스를 활용해 추가 학습할 수도 있다. 이러한 특성 때문에 LLM은 거의 모든 주제에 대한 문맥과 관련된 정보를 생성할 수 있다. 앞서 언급한 파운데이션 모델은 특정 도메인에 국한되지 않고 사용할 수 있는 생성형 AI 모델의 하나이다. 특정 작업이나 도메인 업무에 유용성을 높이기 위해 파운데이션 모델은 사용 목적에 맞게 전문화, 파인 튜닝 또는 수정이 가능하다. 일반적인 파운데이션 모델은 다음과 같이 구분할 수 있다. 작업에 특화된 LLM: 메타의 코드 라마와 같이 특정 업무 영역별 LLM은 프로그래밍 코드 작성과 같은 전문화된 작업에 특화됐다. 도메인에 특화된 LLM: 특정 주제나 산업에 생성형 AI 기술을 적용할 수 있다. 예를 들어, 의료 산업에 대해 학습한 엔비디아의 BioBERT는 제약 업계의 신약 개발과 관련한 논문을 이해하고 의료 문서에서 정보를 검색 및 추출할 수 있다. 앞서 살펴본 LLM은 법률, 미디어, 사이버 보안과 같은 다양한 분야의 도메인에 맞는 데이터를 통해 파인 튜닝될 수 있다. 이는 텍스트에만 국한되지 않으며, 오디오, 이미지, 동영상과 같은 다양한 멀티모달 콘텐츠 역시 생성할 수 있기 때문에 활용 분야는 굉장히 다양해질 수 있다. LLM이 문장뿐만 아니라 문맥을 이해할 수 있는 것은 데이터 세트를 다차원 공간에서 벡터 형식으로 변환한 단어를 활용하기 때문이다. 벡터 임베딩 기술은 자연어의 정량적 표현을 처리하고 저장하는 가장 효율적인 방법이다. 두 단어를 표현하는 벡터 간의 거리와 유사한 메트릭을 기반으로 데이터를 식별하고 처리함으로써 모델 내부에서 정보를 쉽게 비교·분석할 수 있고 정보 처리 시간 또한 크게 단축할 수 있다. 아래 그림과 같이 단어를 공간상의 벡터로 표현하고, 연관된 단어들을 인접한 곳에 배치함으로써 단어의 문맥적 언어를 이해하고 판단하는 것이다. 때문에 LLM 내부에서 벡터 데이터베이스를 사용하면 생성 및 추론 과정에서 AI 시스템이 관련 데이터를 빠르게 검색할 수 있으며, 검색, 추천, 텍스트 생성과 같은 다양한 용도로 활용할 수 있다. 또한, 검색증강생성(RAG), 벡터 유사성 검색(VSS)과 같이 문장을 맥락화하는 데 유용한 기술들이 백터 검색 기능으로 구동된다. 여기서 주목해야 하는 기술은 바로 RAG다. RAG는 맞춤형 데이터를 통해 LLM의 검색 정확도를 개선할 수 있는 프레임워크다. 파운데이션 모델은 광범위한 인터넷 정보를 기반으로 학습되었기 때문에 하나의 모델로 다양한 유형의 질문에 응답할 수 있지만, 학습되지 않은 데이터에 대한 질문을 받는 경우 오답을 할 확률이 높아진다. 기업 환경에서 사용하려는 LLM은 범용 데이터가 아닌 특정 도메인을 이해해야 하며, 이 도메인 정보를 기반으로 답변을 제공할 필요가 있다. 하지만 파운데이션 모델이 특정 도메인에 맞게 재학습하는 데는 비용이 너무 많이 들고 학습하는 시간도 오래 걸린다. 이 같은 문제를 해결하기 위해 RAG는 LLM이 사전에 학습한 데이터에만 의존하는 것이 아니라 질문받은 시점에 동적으로 관련된 데이터를 검색하고 증강된 문맥 속에서 답변을 생성한다. 이 과정을 거치면 답변 정확도가 크게 개선된다. 기업들은 RAG를 통해 LLM을 파인 튜닝하거나 사전 학습에 필요한 비용과 시간을 절약하고, 소량의 데이터만으로도 모델 정확도를 높일 수 있다. 다음 그림은 RAG로 파운데이션 모델의 정확도를 얼마나 효율적으로 개선할 수 있는가에 대한 연구 결과이다. ■ 기업 환경에서 활용할 수 있는 생성형 AI LLM은 콘텐츠 생성, 논리 추론, 언어 번역, 텍스트 검색, 프로그램 코드 생성, 콘텐츠 요약 및 검색 등을 주요 기능으로 삼는 수많은 고급 애플리케이션의 기반을 마련했다. 1. 콘텐츠 생성 간소화 생성형 AI는 텍스트, 사운드, 이미지 등 다양한 유형의 미디어를 생성하여 콘텐츠 제작을 간소화할 수 있다. 기업의 마케팅 부서에서는 캠페인 업무를 위한 맞춤형 이미지 제작을 포함해, 블로그, 기사, 소셜미디어 콘텐츠, 그리고 제품 설명 초안을 생성하는 데 활용할 수 있다. 다른 부서에서도 현업 사용자를 위한 챗봇 애플리케이션을 개발하거나 판매, CRM과 같은 고객 데이터를 활용해 고객 개인화 서비스 개선 또는 맞춤형 캠페인을 위한 콘텐츠 생성에 활용할 수 있다. 2. 논리적 추론 엔진으로 활용 AI 분야에서 자연어 이해는 인간의 복잡한 의사소통의 의미를 이해하는 데 사용된다. LLM은 제품 리뷰, 소셜미디어의 게시글, 고객 설문조사 결과와 같은 텍스트의 의미를 이해하고 콘텐츠 속 감정을 분석하거나 기타 복잡한 추론 작업에 활용될 수 있다. 3. 언어 번역 정확도 개선 다중 언어 간 번역 정확도를 높여 언어 장벽이 있는 사람들의 소통을 더 쉽게 도와준다. 4. 검색 및 요약 LLM은 방대한 양의 데이터를 사전 학습해 언어의 맥락을 파악하고 텍스트의 의미를 이해할 수 있다. 때문에 대규모 데이터베이스나 인터넷의 데이터를 검색하여 사용자 질문에 맞춤형 답변을 찾을 수 있다. 또한, 원래 데이터의 정보를 기반으로 간결한 요약본을 생성할 수 있다. 앞서 살펴본 생성형 AI와 LLM은 거의 모든 분야와 주제에 대해 사용할 수 있기 때문에, 개인 삶뿐만 아니라 업무 방식 역시 혁신적으로 변화시킬 수 있다. 이에 기업들은 생산성 향상, 프로세스와 수익성 개선 등을 위해 생성형 AI가 가진 엄청난 잠재력을 활용해 다양한 분야에서 적용 및 도입을 고려하고 있다. 하지만, 생성형 AI를 기업 환경에서 활용하기 위해서는 고려해야 할 사항이 많다. 지식재산권, 데이터 개인 정보 보호, 콘텐츠 오용 가능성 문제 등 지금껏 일반적으로 알려진 사항뿐만 아니라 '생성형 AI를 기업환경에 구축하기 위해 뒷받침되어야 할 것은 무엇인가', '어떤 업무에 적용할 것인가', '어떤 모델을 사용할 것인가', '투자 비용은 얼마가 적정한가'와 같이 다양한 현실적인 고민거리가 있을 수밖에 없다. 다음 글에서 기업에 AI, LLM 환경 구축을 지원하는 스노우플레이크의 신규 생성형 AI 기능을 소개하고자 한다. 생성형 AI의 잠재력을 극대화하기 위한 스노우플레이크의 비전을 통해 다양한 기업들의 고민을 해결할 수 있는 방안을 찾을 수 있을 것이다.

2024.04.22 09:48조성현

"기업의 실질적 생성형 AI 활용은 통합에 달렸다"

“오라클의 AI 솔루션은 생성형 AI와 기업 데이터 플랫폼을 유기적으로 연계하는데 초점을 맞추고 있다. 오라클은 '통합'에 주목한다. 기업이 그동안 투자해온 데이터 플랫폼, 다양한 도구, 프로그래밍 언어 등을 그대로 활용하면서 동시에 생성형 AI란 최신 기술을 개방형으로 구축, 활용하게 지원한다.” 나정옥 한국오라클 클라우드엔지니어링 부사장은 21일 '최신 AI 트렌드와 오라클의 AI 전략'을 주제로 기자 간담회에서 이같이 밝혔다. 나정옥 부사장은 “현재 비즈니스의 핵심이 '데이터'에서 AI 기반 '분석'으로 변화하고 있는 가운데, 오라클은 기술 스택 전반의 모든 레이어마다 AI 솔루션을 제공하는 '풀 스택' 전략을 통해 기업 AI 여정을 촉진한다”고 말했다. 나 부사장은 “오라클은 생성형 AI 모델의 학습과 운영에 필요한 비용효과적인 클라우드 인프라, AI 앱 개발을 위한 완전관리형 서비스, 신뢰성 있는 관리형 AI 모델 등을 갖췄고, 오라클의 모든 애플리케이션에 AI를 내장시켰다”며 “AI 시대를 맞아 데이터 수집, 전처리, 저장, 분석, 활용에 이르는 전단계를 지원한다”고 강조했다. 오라클은 완전하고 통합된 데이터 및 AI 포트폴리오의 일부로서 ▲AI 인프라 ▲애플리케이션 ▲AI 서비스 ▲데이터 플랫폼과 유기적으로 작동하는 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스 등을 제공한다. 오라클의 최신 생성형 AI 기술 및 서비스를 살펴보면, 애플리케이션은 생성형 AI를 내재화한 퓨전 애플리케이션을, AI 서비스는 라마 2와 코히어 등의 LLM 미세조정 및 추론 서비스 및 데이터 플랫폼과 결합 가능한 검색 증강 생성(RAG) 서비스를 제공한다. 데이터 플랫폼은 AI를 내장한 자율운영 데이터베이스와 마이SQL 히트웨이브 및 오라클 데이터베이스 23c의 벡터 검색 지원 기능 등을 제공한다. OCI 생성형 AI 서비스는 OCI 슈퍼클러스터와 통합을 기반으로 하며, 기업이 자체 데이터를 활용해 가장 안전하면서도 비용효율적인 방식으로 생성형 AI 서비스를 개발 및 운영하도록 지원한다. 데이터 플랫폼에서 모든 애플리케이션 및 개발 환경에 데이터를 제공하고, 데이터 수집, 처리, 분석, 예측 등에 AI를 활용하도록 한다. 이날 간담회에서 김태완 한국오라클 수석 솔루션엔지니어 상무는 오라클의 생성형 AI 솔루션의 주요 기능을 직접 시연했다. 데모 시연을 통해 OCI 생성형 AI 서비스에서 임베딩, 프롬프트 작업 및 자동 코드 생성 등을 통해 애플리케이션 개발을 효과적으로 지원하는 기능, 미세조정을 통한 모델 맞춤화 및 모델 성능 관리 기능을 설명했다. 김태완 상무는 “OCI 생성형 AI 서비스는 상용 모델과 오픈소스 모델을 제공하며, 프롬프트 엔지니어링, 텍스트 임베딩, 코드 생성, 요약 등의 기능을 이용할 수 있다”며 “여러 모델을 운영, 테스트할 수 있고, 자바나 파이썬 코드를 생성하고, 텍스트를 벡터로 변환해 데이터 간 연관성과 유사도를 시각적으로 확인할 수 있는데, 모든 과정을 UI로 할 수 있다”고 설명했다. 김 상무는 “파인튜닝과 커스터마이징을 위해 전용 인스턴스를 생성, 파인튜닝하고, 성능 검증해 변경된 모델을 프롬프트로 테스트하고 코드화할 수 있다”며 관리콘솔로 대시보드와 모니터링 환경을 제공함으로써 기업의 LLM 모델 활용에 대한 기술 진입장벽을 낮춘다”고 덧붙였다. 오라클 OCI 생성형 AI 서비스는 제공 모델에 미스트랄 AI의 믹스트랄을 곧 추가할 예정이다. 김 상무는 기업에서 신뢰성 높은 생성형 AI 앱을 만들 수 있도록 검색증강생성(RAG)를 쉽게 활용하게 하는 서비스를 소개했다. RAG는 기업 내부 데이터와 LLM을 연결하고, 벡터화된 내부 데이터의 의미 검색을 통해 사용자 프롬프트의 맥락에 가장 알맞는 답변을 생성하도록 하는 기법이다. 그는 “맥락에 맞는 데이터 저장소에서 정보를 찾아서 LLM에 보내고, 캐싱을 처리하고, 양질 프롬프트를 새로 만들고, 입력 프롬프트를 임베딩해서 적정 데이터를 찾게 하는 등의 전처리 과정이 RAG에서 매우 복잡하다”며 “오라클은 에이전트란 서비스를 통해 LLM과 RAG를 자동화할 수 있는 부분을 혼합하고 추상화시켜서 고객의 부담을 최소화하며 AI 앱을 쉽게 개발하게 한다”고 설명했다. 그는 “에이전트는 오픈서치 기반으로 LLM과 통합하는 데이터 저장소를 만들며, 오라클 데이터베이스23c나 마이SQL 히트웨이브의 벡터 서치를 저장소로 연동할 수 있다”며 “레디스 캐시로 프롬프트 히스토리를 관리할 수 있는 등 대상 LLM과 저장소를 연결해 RAG 앱을 만드는 모든 부분을 자동화한다”고 덧붙였다.

2024.03.21 16:38김우용

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현