• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'눈치 RAG 2.0'통합검색 결과 입니다. (75건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"AI 에이전트 '알리' 각광…한·미·일 시장 동시 공략"

올거나이즈코리아가 '제8회 대한민국 디지털 미래혁신대상'에서 한국인공지능산업협회 협회장상을 수상했다. 과학기술정보통신부가 주최하고 한국소프트웨어산업협회(KOSA)가 주관하는 대한민국 디지털 미래혁신대상은 뛰어난 미래 혁신 기술을 보유한 기업을 발굴해 시상하는 디지털 분야 대표 어워드다. 시상식은 오는 10일 서울 코엑스에서 열리는 '디지털 혁신 페스타(DINNO) 2024'에서 열린다. 올거나이즈는 자연어 이해(NLU) AI 기술을 기반으로, 엔터프라이즈 고객사에 LLM(거대언어모델) 관련 솔루션을 제공하는 기업이다. 지난 2017년 한·미·일에서 동시에 사업을 시작해 2018년 한국 법인을 설립했다. 올거나이즈의 핵심 제품은 AI 태스크봇인 '알리(Alli)'다. 기업 내 많은 문서·텍스트 데이터를 분류 및 추출·검색해, 직원들의 업무 자동화를 돕는다. 현재 올거나이즈는 자체 개발한 산업 특화 LLM부터 기업 맞춤형 LLM 등 LLM의 전 영역을 제공하고 있다. 기업은 알리 앱 마켓에서 직군별 업무 자동화 앱을 골라 바로 사용할 수 있으며, 업종별 전문 용어가 반영된 업무 생산성 앱을 노코드(No-Code) 형태로 직접 구축할 수도 있다. 또한 알파-인스트럭트 LLM을 오픈소스로 공개하고, 금융 LLM 리더보드 및 RAG 리더보드의 테스트 데이터셋도 공개해 AI 생태계에 기여하고 있다. 이창수 올거나이즈코리아 대표는 "회사의 가장 강력한 경쟁력은 지난 6년간 실제 고객사들의 문서를 다뤄온 경험과 노하우를 '에이전트 RAG(검색증강생성)'로 녹여냈다는 점"이라며 "LLM을 기업에서 사용할 때 환각에 대한 걱정을 하게 되는데, 이러한 환각을 줄이면서 업무 생산성을 향상시키는 방향으로 RAG 기술이 부각되고 있다"고 설명했다. RAG은 외부 리소스를 LLM에 연결해 생성형 AI 모델의 출력 정확성을 향상시키는 기술이다. 올거나이즈의 에이전트 RAG는 기존 RAG와 다르게 일회성으로 답변하고 끝나는 것이 아니라, 사용자와 상호작용하면서 더 나은 결과물을 도출하기 위해 에이전트가 직접 계획부터 실행까지 진행한다. 이 대표는 "운영 비용을 최소화해야하는 기업들은 반복적인 기능을 자동화하고, 방대한 데이터를 분석하고, 실시간으로 효과적인 대안을 제공하는 AI 에이전트를 점점 더 많이 필요로 하고 있다"며 "올거나이즈의 AI 에이전트는 많은 문의를 동시에 관리할 수 있어, 더 빠른 대응과 복잡한 문제 처리가 가능하다"고 말했다. 한편 올거나이즈코리아는 2025년 말 일본 도쿄거래소 증시 상장을 목표로 하고 있다. 또한 AI 워크 에이전트의 유망한 성장세에 주목해 주요 시장인 한·미·일 3개국을 동시에 공략할 계획이다. 시장조사업체 마켓앤마켓의 최신 보고서에 따르면, AI 에이전트 시장은 2024년 51억 달러에서 2030년 471억 달러로 연평균 44.8%의 높은 성장률을 기록할 것으로 예상된다. 이 대표는 "현재 금융, 공공기관의 온프레미스 AI 프로젝트를 많이 진행해 왔는데, 올거나이즈 제품은 온프레미스, 하이브리드, SaaS 형태로 모두 제공 가능하다"며 "미국과 일본에서는 SaaS 제품이 더 많이 팔리고 있기 때문에 한국 시장에서도 SaaS 제품을 좀 더 공격적으로 마케팅할 것"이라고 밝혔다. 그는 이어 "올거나이즈의 비전은 전 세계적인 AI 회사를 만드는 것"이라며 "스타트업의 유전자(DNA)를 가진 AI 자회사들을 여럿 만들어 다양한 일을 해 보고 싶다. 매출보다 영향력이 큰 회사를 만드는 것이 꿈"이라고 덧붙였다.

2024.10.08 09:33장경윤

디노티시아, '벡터 데이터베이스' 개발해 160억원 국책 과제 수주

인공지능 전문기업 디노티시아(Dnotitia)는 최신 AI 서비스의 필수 요소로 주목받고 있는 검색증강생성(RAG)의 핵심 기술인 벡터데이터베이스(Vector Database) 개발 및 사업화에 박차를 가하고 있다. RAG는 대규모 언어 모델(LLM)을 사용하는 인공지능에 실시간 정보를 반영하고 개인화 서비스를 가능하게 하며, 할루시네이션을 줄여주고 장기 기억 기능을 더해주는 필수 기술이다. 이 모든 과정의 중심에는 디노티시아가 가지고 있는 핵심 기술인 고성능 벡터데이터베이스가 자리하고 있다. 디노티시아는 과학기술정보통신부가 지원하고 전문기관인 정보통신기획평가원이 주관하는 SW컴퓨팅산업원천기술개발사업 중 '초거대 AI모델의 장기 기억 저장을 위한 벡터 DB개발' 과제(이하 '과기부 과제')를 통해 세계 최고 성능과 정확도를 가지는 국산 벡터데이터베이스 공개 소프트웨어를 개발한다. 또한 산업통상자원부에서 지원하고 한국산업기술평가관리원이 전문기관으로 수행하는 소재부품기술개발(이종기술융합형) 사업의 '거대언어모델을 위한 벡터데이터베이스 가속기 개발' 과제(이하 '산자부 과제')를 통해 세계 최초로 벡터 데이터 연산에 특화된 반도체 칩을 개발한다. 각각 과제는 4년 88억원(총과제금액), 3년 73억원(총과제금액) 이다. 디노티시아는 본 사업을 성공적으로 수행하기 위해서 최고 기술을 가지고 있는 다수의 산학기관과 협력한다. 벡터데이터베이스 공개 소프트웨어를 개발하는 과기부 과제에서는 데이터베이스 시스템 분야 학계 세계 최고 권위를 자랑하는 서울대학교, 그래프 데이터베이스 분야 세계 최고권위자인 포항공과대학교와 H/W & S/W 수직최적화 관련 세계 최고 연구실적을 가지고 있는 성균관대학교 팀이 참여한다. 뛰어난 성능과 높은 정확도를 동시에 보장하는 벡터 데이터베이스 인덱스 기술을 개발하고, 오픈소스 데이터베이스 국내 최고 기업 큐브리드가 참여해 인덱스와 통합된 벡터 데이터베이스 시스템을 개발한다. 개발된 벡터 데이터베이스 시스템은 최초 HBM 기반 고성능 인공지능 반도체 기업 퓨리오사AI의 국산 LLM 가속 인공지능 반도체 칩을 활용해, 국내 최고의 AI미디어 콘텐츠 플랫폼 기술을 보유한 SBS의 자체 콘텐츠 플랫폼에 적용해 실증할 계획이다. 또한 벡터 데이터 연산에 특화된 VDPU(Vector Data Processing Unit) 반도체 칩을 개발하는 산자부 과제에서는 국내 유일 TSMC 디자인하우스 에이직랜드가 참여해 반도체 칩의 완성도를 높인다. 정무경 디노티시아 대표는 “이번에 선정된 두개 과제를 통해 벡터데이터베이스 소프트웨어 기술과 전용 하드웨어 가속기 개발을 동시에 추진해 세계 최고 성능의 LLM-RAG 하드웨어-소프트웨어 통합 솔루션을 개발하는 데 성공할 것”이라며 “이번 과제를 통한 협력과 기술 개발을 바탕으로 세계 최고 벡터데이터베이스 회사로 자리매김하겠다”고 말했다.

2024.09.10 08:55장경윤

와이즈넛, 생성형AI·RAG 기술력 글로벌 한인과학기술인에 선보여

와이즈넛(대표 강용성)이 세계 각국 한인 과학기술인 2천여 명을 대상으로 생성형 인공지능(AI) 기술력을 선보였다. 와이즈넛은 '제2회 세계 한인과학기술인대회'에 참가해 검색 증강 생성(RAG)기반 생성형AI 솔루션과 관련 원천 기술 및 실증 사례를 소개했다고 11일 밝혔다. 9~11일 3일간 한국과학기술회관에서 열린 세계 한인과학기술인대회는 전세계에서 활약하고 있는 한인 과학기술인을 국내로 초청하여 미래 과학기술 혁신의 방향을 모색하고 연구성과를 교류하는 자리다. 과학기술정보통신부가 주최하고 한국과학기술단체총연합회와 재외한인과학기술자협회가 주관했다. 본 행사는 지난해 국내외 과학기술인들의 연구 성과를 교류하는 장을 열겠다는 윤석열 대통령의 제안으로 마련되어, 올해 이종호 과학기술정보통신부 장관과 이태식 한국과학기술단체총연합회 회장을 비롯한 각계 대표 인사들이 자리를 빛냈다. 이번 행사에서 와이즈넛은 AI 대표기업으로 참가하여, 성공적인 비즈니스 활성화를 위해 도입할 수 있는 최적화된 생성형AI 솔루션 '와이즈 아이랙(WISE iRAG)'을 포함해 자체 보유한 AI기술을 선보이는 전시 부스를 운영했다. 전시 부스에서는 24년간 와이즈넛이 축적해온 자연어처리기반 기술들과 최근 선보이고 있는 와이즈 아이랙을 소개하고, 공공, 제조, 법률, 금융, 반도체 등 산업별 실증 사례에 대한 상세 설명이 이뤄졌다. 강용성 와이즈넛 대표는 “전세계 과학기술인들이 당사의 자연어처리 기술과 생성형AI 기술에 대해 보여주신 관심은, 그동안 투자하며 AI 관련 연구 개발을 꾸준히 지속해온 것에 확신을 주는 계기가 됐다”며 “앞으로도 생성형AI에 대한 연구를 활발히 수행하고 관련 사업을 지속적으로 추진해 글로벌 AI 산업 경쟁력을 확보하기위해 노력할 것”이라고 말했다.

2024.07.11 16:33남혁우

KAIST, 챗GPT4.0 정답률보다 32.5% 더 나은 'PlanRAG' 첫 공개

KAIST가 거대언어모델(LLM)을 이용해 챗GPT4.0의 기업 의사결정 정답률을 32.5% 개선한 '플랜래그'(Plan RAG)를 처음 공개했다. 오픈AI의 최신모델인 챗GPT 4.0은 의사결정 구조에서 통상 40~50%의 정답률을 보인다. 이를 30% 이상 개선했다. KAIST는 전산학부 김민수 교수 연구팀이 ▲의사결정 문제 ▲기업 데이터베이스 ▲비즈니스 규칙 집합 등 3 가지를 기반으로 비즈니스 규칙에 부합하는 최적의 의사결정을 내릴 수 있는 '플랜래그(PlanRAG)'을 개발했다고 19일 밝혔다. 김 교수는 엔비디아 GPU 연구센터장과 IBM 알마덴 연구센터 연구원을 지냈다. 지난 2021년부터 KAIST 전산학부 교수로 재직 중이다. 연구팀은 기업 의사결정 문제를 푸는데 있어 GPT-3.5 터보에서 반복적 RAG 기술을 사용하더라도 정답률이 10% 미만이라는데 착안해 대안을 모색했다. 최근 AI분야에서는 LLM이 학습된 내용만으로 답변하는 것 대신, 데이터베이스를 검색해 답변을 생성하는 검색 증강 생성(Retrieval-Augmented Generation; 이하 RAG) 기술이 각광받고 있다. 연구팀은 여기에서 한 단계 더 나아갔다. 반복적 RAG를 이용하기 전에 먼저 어떤 데이터 분석이 필요한지에 대한 거시적 차원의 계획을 먼저 생성했다. 마치 기업의 의사결정권자가 어떤 데이터 분석이 필요한지 먼저 계획을 세우면, 그 계획에 따라 데이터 분석팀이 데이터베이스 솔루션들을 이용해 분석하는 형태와 유사한 구조다. 연구팀은 "다만 이러한 과정을 모두 사람이 아닌 거대언어모델이 수행하도록 한 것이커다란 차이"라며 "'플랜래그' 기술은 계획에 따른 데이터 분석 결과로 적절한 답변을 도출하지 못하면, 다시 계획을 수립하고 데이터 분석을 수행하는 과정을 반복한다"고 설명했다. 김민수 교수는 “지금까지 LLM 기반으로 의사결정 문제를 푼 연구가 없었다"며 "기업 의사결정 성능을 평가할 수 있는 의사결정 질의응답(DQA) 벤치마크를 새롭게 만들었다"고 말했다. 실제 이 벤치마크에서 GPT-4.0을 사용할 때 종래의 반복적 'RAG'의 의사결정 정답률에 비해 '플랜래그'는 최대 32.5%까지 정답률을 개선했다. 김 교수는 "기업 CEO가 '플랜래그'를 실제 활용하기 까지는 1~2년이 더 걸릴 것으로 예상한다"며 "기존 챗GPT 4.0의 의사결정 정답률을 획기적으로 끌어올려 문제의 3분의 2가량을 맞출 수 있다는데 큰 의미를 부여한다"고 덧붙였다. 이 연구에는 KAIST 전산학부 이명화 박사과정과 안선호 석사과정이 공동 제1 저자, 김민수 교수가 교신 저자로 참여했다. 연구 결과는 자연어처리 분야 최고 학회(top conference)인 'NAACL' 에 지난 17일 발표됐다.

2024.06.19 09:14박희범

인텔 "가우디3, 납기·비용·성능 모두 뛰어난 엔비디아 대체재"

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 AI 가속기 '가우디3'의 가격 대비 성능을 강조했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 전세계 10개 이상의 글로벌 공급업체가 올 3분기부터 가우디3 기반 솔루션을 공급 계획중이다. ■ "네이버도 가우디 선택했다...TCO·TTM에서 엔비디아 대비 우위" 이날 팻 겔싱어 인텔 CEO는 "현재 클라우드 이용 현황을 보면 전체 워크로드 중 60%가 클라우드에서 실행되며 생성된 데이터 중 80%가 여전히 활용되지 않는 상황"이라고 설명했다. 이어 "LLM(거대언어모델)에 기업이나 기관의 데이터를 더한 검색증강생성(RAG)은 잠자는 데이터를 활용할 수 있는 기회를 줄 것이다. 6월부터 내년 1분기에 걸쳐 출시될 제온6 프로세서와 가우디 가속기는 이를 바꿀 수 있다"고 설명했다. 현재 AI용 GPU 시장은 엔비디아가 독식하고 있다. 팻 겔싱어 CEO는 "기업들은 대안과 개방형 구조를 원한다. 또 제품/서비스 출시 시간(TTM)을 단축하고 총소유비용을 낮추길 희망하고 있다"고 지적했다. 이어 "한국 네이버클라우드가 가우디를 쓰고 있다. 또 오픈소스 리눅스 재단과 기업용 AI 플랫폼 구축에 협업하고 있으며 제온6와 가우디가 기업 AI 워크로드에 도움을 줄 것"이라고 강조했다. ■ "가우디3, 덜 쓰고 더 얻을 수 있는 '가성비' 가속기" 팻 겔싱어 CEO는 올 3분기부터 공급될 차세대 가속기 가우디3에 대해 "같은 규모 클러스터 구성시 엔비디아 H100에서 추론 성능은 2배이며 H200 GPU 대비 경쟁력을 갖고 있다"고 설명했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공할 예정이다. 팻 겔싱어 CEO는 "가우디3는 '덜 쓰고 더 얻을 수' 있는 AI 가속기"라며 가우디3의 개방성도 강조했다. 그는 "가우디3는 업계 표준 인터페이스인 이더넷으로 작동하며 파이토치 등 오픈소스 AI 프레임워크에 최적화됐고 수십만 개의 AI 모델을 지원한다"고 말했다. ■ 가우디3 솔루션 공급 업체 10개 이상으로 확대 가우디3는 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 인텔은 이날 가우디3 기반 AI 서버 공급업체로 델테크놀로지스, HPe, 레노버, 슈퍼마이크로에 더해 폭스콘, 기가바이트, 인벤텍, 콴타, 위스트론 등 총 10개 이상 글로벌 업체가 참여하고 있다고 밝혔다.

2024.06.04 19:01권봉석

올거나이즈 "생성형 AI '거짓말 탐지기' 성능 비교하세요"

앞으로 기업들이 생성형 인공지능(AI) 환각현상 방지에 활용되는 검색증강생성(RAG) 성능을 비교하고 자사 제품에 가장 적합한 RAG를 고를 수 있게 됐다. 올거나이즈(대표 이창수)는 국내에서 처음 RAG 리더보드 '알리 RAG 리더보드'를 공개한다고 29일 밝혔다. RAG는 생성형 AI의 환각현상을 최소화할 수 있는 대안으로 주목받는 기술이다. 생성형 AI의 '거짓말 탐지기'라고도 알려졌다. RAG는 사전 학습한 데이터만을 활용하는 게 아니라 기업 내부 데이터 등 이미 존재하는 데이터에서 답을 찾아낸다. 이들 답변 중 질문 및 검색어의 맥락을 고려한 후 가장 적절한 대답을 제공하는 식이다. 올거나이즈의 RAG 리더보드는 RAG 기술의 성능을 측정해 순위를 매긴다. 이를 통해 기업 AI 실무자들이 가장 적절한 솔루션을 비교 도입할 수 있도록 돕는다. 알리 RAG 리더보드는 금융, 공공, 의료, 법률, 커머스의 5개 분야에 대한 한국어 RAG 성능을 평가한다. 올거나이즈 측은 답변 유사도 및 정확도를 판단하는 5개의 평가 툴로 RAG 성능을 평가해 신뢰도를 높이고 오차를 줄였다는 입장이다. 우선 각 분야별로 2~300페이지의 문서를 업로드한 후 분야마다 사용자가 할 법한 질문 60개를 생성했다. 질문별로 RAG가 답변을 생성하면 5개의 평가 툴 중 3개 이상에서 오류가 없을 경우 '이상 없음'으로 판명한다. 해외 RAG 리더보드의 경우 일반적으로 1~2개의 평가 툴만을 활용하고 있다. 특히 현재 공개된 RAG 리더보드 중 유일하게 RAG의 3개 구성요소를 모두 평가한다. RAG는 문서에서 글자·그림·표 등을 추출하고 읽기 쉬운 포맷으로 변경해주는 파서, 기업이 보유한 방대한 데이터 중 사용자가 원하는 대답을 즉시 찾아주는 리트리버, 새로운 지식과 학습 데이터를 토대로 LLM이 응답을 생성해내는 답변생성의 3개 요소로 구성돼 있다. 기업들이 RAG을 도입하고자 할 때 어떤 RAG가 적합한지 성능평가를 제대로 하기 어렵다는 점을 고려해 테스트 데이터셋을 모두 공개했다. 실제 업무 문서에 표, 이미지 등이 복잡하게 얽혀 있다는 점을 감안해서 표 및 이미지 데이터도 테스트 데이터셋에 포함했다. 리더보드는 허깅페이스를 통해 확인할 수 있으며 리더보드에 들어간 RAG 솔루션들도 링크로 공개돼 있어 누구나 손쉽게 체험해 볼 수 있다. 이창수 올거나이즈 대표는 "AI 생태계에 기여하기 위해 테스트 데이터셋을 모두 공개했고 이를 활용해 한국어로 된 다양한 RAG 솔루션의 성능이 향상됐으면 하는 바람"이라며 "대학 및 개인 연구자들은 AI 연구에 도움을 받을 수 있을 것이고, 기업들 역시 성능 좋은 RAG를 도입함으로써 업무 생산성 증대를 경험할 수 있을 것"이라고 밝혔다.

2024.05.29 10:07김미정

인디제이 '눈치AI', 서리풀아트스튜디오 관람객 마음 사로잡아

인디제이(대표 정우주)는 최근 서초구·서초문화재단과 협력해 AI 감정분석 멀티모달 기능을 적용한 '눈치AI'를 서리풀아트스튜디오에 설치했다고 22일 밝혔다. 서초구 서리풀아트스튜디오는 예술의전당 제 1 지하보도에 문화예술의 재미와 첨단 기술을 합친 장소다. 슬럼화가 진행되던 지하보도를 정리하고 AI를 결합해 청년예술인과 지역주민이 문화예술을 즐길 수 있는 장소로 탈바꿈했다. 서리풀아트스튜디오로 탈바꿈 한 데는 인디제이의 인공지능 제품인 눈치AI 역할이 컸다. 설치된 눈치AI 제품은 실시간 감정 데이터를 수집·분석해 음악·콘텐츠를 추천하는 AI 서비스다. 사용자 음성, 음성 텍스트, 얼굴 표정, 얼굴 이미지 등 다양한 실시간적 감정인식 기술을 접목했다. 인디제이만의 음악 감정분류 모델과 사용자 멀티모달 모델, 사용자 감정차트 분석모델 등을 이용해 음악을 사용자 맞춤형으로 정확하고 정밀하게 추천 제공하는 제품이다. 서초구 관계자는 “서리풀아트스튜디오 방문자 만족도를 보면 인디제이의 눈치AI가 가장 인기있고 호응도가 좋다”고 전했다. 눈치AI 제품은 세계 최대 가전·IT 전시회인 CES에서 지난해와 올해 2년 연속 AI 기술 관련 혁신상을 수상했다. 글로벌 기업과 기관의 러브콜을 받고 있다. 정우주 인디제이 대표는 “지난 CES 혁신상 수상과 서초구 AI 협력 제품을 기반으로 투자·기술제휴 등 다양한 문의가 오고 있다”며 “개인화된 상황, 감정 인공지능 기술을 더욱 고도화해 높은 성능의 시민체감형 제품과 서비스로 성과를 창출하겠다”고 말했다. 한편, 인디제이는 지난해 마이크로소프트(MS)가 운영하는 독립 소프트웨어 공급업체(ISV)로 선정돼 올해 7월까지 MS 공식 마켓플레이스에 기업과 기업간(B2B) 제품을 등록하고 글로벌 기업과 제품 판매 및 기술협력을 진행한다. 또 AI분석 서비스 '제이든' 디자인은 2024 독일 디자인 어워드(GDA)를 받기도 했다.

2024.04.22 20:26주문정

[기고] 기업 경쟁력 좌우하는 생성형 AI, 어떻게 시작할 것인가

2023년 우리 모두는 챗GPT가 제공한 새로운 서비스를 경험했다. 생성형 AI와 대규모 언어 모델(LLM)은 개인과 직업의 환경을 혁신적으로 변화시키고 있다. 기업들도 불과 1년 만에 대다수가 생성형 AI에서 제공하는 서비스를 통해 비즈니스 역량을 강화하려는 시도를 하고 있다. 본 글에서는 생성형 AI와 대규모 언어 모델(이하 LLM)이 무엇이며 기업들은 이 서비스를 어떤 분야에 활용할 수 있는지 살펴보고자 한다. 생성형 AI는 신경망과 딥러닝 알고리즘을 사용하여 기존 머신러닝 모델과는 근본적으로 다른 복잡한 콘텐츠, 이미지, 동영상, 오디오 또는 코드를 생성하는 AI의 한 종류이다. 생성형 AI는 전통적인 머신러닝, 딥 러닝 모델보다 훨씬 많은 양의 데이터가 필요하다. 이렇게 훈련된 범용 모델을 파운데이션 모델이라고 한다. 파운데이션 모델을 개발하려면 방대한 양의 데이터와 고성능 컴퓨팅 리소스가 필요하기 때문에 일부 빅테크 회사만이 LLM 개발 및 개선 작업에 적극적으로 참여해왔다. 하지만 최근에는 오픈 소스 파운데이션 모델이 널리 공유돼 파운데이션 모델을 직접 개발하지 않아도 활용할 수 있게 되었다. 덕분에 일반 기업들도 '파인 튜닝'을 통해 LLM을 특정 도메인에 맞게 훈련시키고 자체 비즈니스 요건에 맞게 애플리케이션을 개발하여 사용할 수 있게 됐다. 파인 튜닝은 특정 비즈니스 요건이나 업무 도메인에 맞게 사전 훈련된 LLM에 특정 데이터셋을 사용해 추가적인 학습을 수행하는 작업을 말한다. 챗GPT의 성공 후, 이 시장에 뛰어든 후발 주자 빅테크 기업들은 경쟁력을 확보하기 위한 수단으로 자체 개발하는 LLM의 매개변수를 기하급수적으로 늘려 빠르게 성능을 올리는 전략을 채택했다. 매개변수는 사람의 뇌에서 정보를 처리하고 통합하는 시냅스와 같은 역할을 한다. 매개변수가 많을수록 LLM은 더 많은 정보를 저장하고 더 다양한 패턴을 학습함으로써 세밀한 언어 이해와 콘텐츠 생성을 할 수 있다. 하지만 더 많은 컴퓨팅 자원과 저장 공간이 필요하고 이 모델을 학습하는 데 더 많은 시간이 걸릴 수밖에 없다는 한계가 있다. 이에 반해 매개변수가 적은 LLM은 학습할 때 컴퓨팅 리소스가 덜 필요하기 때문에 파인 튜닝이나 배포가 상대적으로 용이하다. 최근에 공개되고 있는 대다수 LLM의 성능은 상향 평준화되고 있다. 특히 메타의 오픈소스 LLM인 '라마'가 다른 모델에 비해 상대적으로 적은 매개변수를 사용하면서 일정 수준의 성능을 보장한다. 이렇듯 모델 경량화와 최적화는 오늘날 LLM을 선택하는 데 중요한 기준으로 자리 잡았다. ■ LLM에 대한 이해 범용 LLM은 자연어와 컴퓨터 프로그램 언어를 이해할 수 있으며 광범위한 작업을 처리할 수 있다. 인터넷상에 존재하는 방대한 양의 데이터로 사전학습 되어 있으며, 모델 목적과 관련된 특정한 데이터 소스를 활용해 추가 학습할 수도 있다. 이러한 특성 때문에 LLM은 거의 모든 주제에 대한 문맥과 관련된 정보를 생성할 수 있다. 앞서 언급한 파운데이션 모델은 특정 도메인에 국한되지 않고 사용할 수 있는 생성형 AI 모델의 하나이다. 특정 작업이나 도메인 업무에 유용성을 높이기 위해 파운데이션 모델은 사용 목적에 맞게 전문화, 파인 튜닝 또는 수정이 가능하다. 일반적인 파운데이션 모델은 다음과 같이 구분할 수 있다. 작업에 특화된 LLM: 메타의 코드 라마와 같이 특정 업무 영역별 LLM은 프로그래밍 코드 작성과 같은 전문화된 작업에 특화됐다. 도메인에 특화된 LLM: 특정 주제나 산업에 생성형 AI 기술을 적용할 수 있다. 예를 들어, 의료 산업에 대해 학습한 엔비디아의 BioBERT는 제약 업계의 신약 개발과 관련한 논문을 이해하고 의료 문서에서 정보를 검색 및 추출할 수 있다. 앞서 살펴본 LLM은 법률, 미디어, 사이버 보안과 같은 다양한 분야의 도메인에 맞는 데이터를 통해 파인 튜닝될 수 있다. 이는 텍스트에만 국한되지 않으며, 오디오, 이미지, 동영상과 같은 다양한 멀티모달 콘텐츠 역시 생성할 수 있기 때문에 활용 분야는 굉장히 다양해질 수 있다. LLM이 문장뿐만 아니라 문맥을 이해할 수 있는 것은 데이터 세트를 다차원 공간에서 벡터 형식으로 변환한 단어를 활용하기 때문이다. 벡터 임베딩 기술은 자연어의 정량적 표현을 처리하고 저장하는 가장 효율적인 방법이다. 두 단어를 표현하는 벡터 간의 거리와 유사한 메트릭을 기반으로 데이터를 식별하고 처리함으로써 모델 내부에서 정보를 쉽게 비교·분석할 수 있고 정보 처리 시간 또한 크게 단축할 수 있다. 아래 그림과 같이 단어를 공간상의 벡터로 표현하고, 연관된 단어들을 인접한 곳에 배치함으로써 단어의 문맥적 언어를 이해하고 판단하는 것이다. 때문에 LLM 내부에서 벡터 데이터베이스를 사용하면 생성 및 추론 과정에서 AI 시스템이 관련 데이터를 빠르게 검색할 수 있으며, 검색, 추천, 텍스트 생성과 같은 다양한 용도로 활용할 수 있다. 또한, 검색증강생성(RAG), 벡터 유사성 검색(VSS)과 같이 문장을 맥락화하는 데 유용한 기술들이 백터 검색 기능으로 구동된다. 여기서 주목해야 하는 기술은 바로 RAG다. RAG는 맞춤형 데이터를 통해 LLM의 검색 정확도를 개선할 수 있는 프레임워크다. 파운데이션 모델은 광범위한 인터넷 정보를 기반으로 학습되었기 때문에 하나의 모델로 다양한 유형의 질문에 응답할 수 있지만, 학습되지 않은 데이터에 대한 질문을 받는 경우 오답을 할 확률이 높아진다. 기업 환경에서 사용하려는 LLM은 범용 데이터가 아닌 특정 도메인을 이해해야 하며, 이 도메인 정보를 기반으로 답변을 제공할 필요가 있다. 하지만 파운데이션 모델이 특정 도메인에 맞게 재학습하는 데는 비용이 너무 많이 들고 학습하는 시간도 오래 걸린다. 이 같은 문제를 해결하기 위해 RAG는 LLM이 사전에 학습한 데이터에만 의존하는 것이 아니라 질문받은 시점에 동적으로 관련된 데이터를 검색하고 증강된 문맥 속에서 답변을 생성한다. 이 과정을 거치면 답변 정확도가 크게 개선된다. 기업들은 RAG를 통해 LLM을 파인 튜닝하거나 사전 학습에 필요한 비용과 시간을 절약하고, 소량의 데이터만으로도 모델 정확도를 높일 수 있다. 다음 그림은 RAG로 파운데이션 모델의 정확도를 얼마나 효율적으로 개선할 수 있는가에 대한 연구 결과이다. ■ 기업 환경에서 활용할 수 있는 생성형 AI LLM은 콘텐츠 생성, 논리 추론, 언어 번역, 텍스트 검색, 프로그램 코드 생성, 콘텐츠 요약 및 검색 등을 주요 기능으로 삼는 수많은 고급 애플리케이션의 기반을 마련했다. 1. 콘텐츠 생성 간소화 생성형 AI는 텍스트, 사운드, 이미지 등 다양한 유형의 미디어를 생성하여 콘텐츠 제작을 간소화할 수 있다. 기업의 마케팅 부서에서는 캠페인 업무를 위한 맞춤형 이미지 제작을 포함해, 블로그, 기사, 소셜미디어 콘텐츠, 그리고 제품 설명 초안을 생성하는 데 활용할 수 있다. 다른 부서에서도 현업 사용자를 위한 챗봇 애플리케이션을 개발하거나 판매, CRM과 같은 고객 데이터를 활용해 고객 개인화 서비스 개선 또는 맞춤형 캠페인을 위한 콘텐츠 생성에 활용할 수 있다. 2. 논리적 추론 엔진으로 활용 AI 분야에서 자연어 이해는 인간의 복잡한 의사소통의 의미를 이해하는 데 사용된다. LLM은 제품 리뷰, 소셜미디어의 게시글, 고객 설문조사 결과와 같은 텍스트의 의미를 이해하고 콘텐츠 속 감정을 분석하거나 기타 복잡한 추론 작업에 활용될 수 있다. 3. 언어 번역 정확도 개선 다중 언어 간 번역 정확도를 높여 언어 장벽이 있는 사람들의 소통을 더 쉽게 도와준다. 4. 검색 및 요약 LLM은 방대한 양의 데이터를 사전 학습해 언어의 맥락을 파악하고 텍스트의 의미를 이해할 수 있다. 때문에 대규모 데이터베이스나 인터넷의 데이터를 검색하여 사용자 질문에 맞춤형 답변을 찾을 수 있다. 또한, 원래 데이터의 정보를 기반으로 간결한 요약본을 생성할 수 있다. 앞서 살펴본 생성형 AI와 LLM은 거의 모든 분야와 주제에 대해 사용할 수 있기 때문에, 개인 삶뿐만 아니라 업무 방식 역시 혁신적으로 변화시킬 수 있다. 이에 기업들은 생산성 향상, 프로세스와 수익성 개선 등을 위해 생성형 AI가 가진 엄청난 잠재력을 활용해 다양한 분야에서 적용 및 도입을 고려하고 있다. 하지만, 생성형 AI를 기업 환경에서 활용하기 위해서는 고려해야 할 사항이 많다. 지식재산권, 데이터 개인 정보 보호, 콘텐츠 오용 가능성 문제 등 지금껏 일반적으로 알려진 사항뿐만 아니라 '생성형 AI를 기업환경에 구축하기 위해 뒷받침되어야 할 것은 무엇인가', '어떤 업무에 적용할 것인가', '어떤 모델을 사용할 것인가', '투자 비용은 얼마가 적정한가'와 같이 다양한 현실적인 고민거리가 있을 수밖에 없다. 다음 글에서 기업에 AI, LLM 환경 구축을 지원하는 스노우플레이크의 신규 생성형 AI 기능을 소개하고자 한다. 생성형 AI의 잠재력을 극대화하기 위한 스노우플레이크의 비전을 통해 다양한 기업들의 고민을 해결할 수 있는 방안을 찾을 수 있을 것이다.

2024.04.22 09:48조성현

인디제이, 차량용 AI 업무비서 서비스 출시

미래 자동차 인공지능(AI) 플랫폼 전문기업 인디제이(대표 정우주)는 SDV(Software Defined Vehicle) 시장에서 새로운 비즈니스 모델을 창출할 '눈치 AI' 차량용 업무비서(Car Mode) 솔루션을 출시했다고 26일 밝혔다. 인디제이는 미래 자동차의 다양한 센서로 운전 패턴과 차량 내외부 상황을 데이터화하고 운전자와 탑승자의 목소리와 행동, 감정까지 감지해 이동 중인 고객이 말하지 않아도 눈치껏 솔루션을 제안하는 '눈치 AI'가 만드는 스마트 인포테인먼트 시스템을 제공한다. 인디제이는 '눈치 AI'를 BMW·테슬라 등 스마트카 디스플레이와 연동해 차량에서 회의 내용을 분석하고 영업 전략을 수립하거나 이미지를 자동 생성하고 기획 방안을 생성할 뿐만 아니라 이메일·캘린더·지도 등 다른 서비스와 AI를 기반으로 연계해 차량 탑승자에 혁신적인 경험을 제공할 계획이다. 인디제이의 AI 모델은 스마트폰·웨어러블 디바이스·사물인터넷·커넥티드카 등의 센서 데이터와 사용자 비식별 데이터를 통해 개개인의 사용자의 상황 및 감정을 학습한다. 생성형 인격체 AI모델과 정밀한 개인 추천 모델을 통해 고객에 꼭 맞는 AI 솔루션을 제공한다. 인디제이 관계자는 “기존 인포테인먼트 시스템이 운전자 행동을 기반으로 서비스가 동작하거나 제안하는 모습이었다면, 인디제이의 AI 솔루션을 기반으로 한 스마트 인포테인먼트 시스템은 운전자와 동승자의 상황과 감정, 문맥을 폭넓게 이해해 알아서 나보다 나를 더 잘 아는 AI가 된다”고 설명했다. 자동차에 탑재한 카메라·라이더 센서 등으로 운전자 감정 상태를 감지하고 운전자의 현 상황과 이동목적, 도로 상황을 종합적으로 판단해 최적 경로를 안내하거나 온·습도 조절, 음악 재생 등 최적 환경을 조성해준다. 차량 내외부 센서로 운전자가 졸음운전을 하는 상황으로 감지되면 경보를 울려주거나 진동알림, 경쾌한 음악 재생, 산소 공급 등의 기능을 하게 한다. 또 운전자와 탑승자 취향을 자동으로 감지해 상황과 감정에 맞는 콘텐츠를 추천해준다. 아이가 탑승하면 아이에 맞는 콘텐츠를 추천하기도 하고 출근길로 판단되면 뉴스 콘텐츠를 제공하기도 한다. 정우주 인디제이 대표는 “모빌리티 업계가 SDV 주도권 확보 경쟁에 뛰어든 상황에서 인디제이 AI를 중심으로 자동차가 혁신적인 생활공간이자 이동하는 사무 공간으로 발전할 것”이라며 “AI를 기반으로 차량 내부의 고객을 판단해 상황과 감정에 꼭 맞는 솔루션으로 SDV 시장에서 새로운 비즈니스 모델을 창출해 나갈 것”이라고 말했다. 한편, 인디제이는 정우주 대표가 산업통상자원부와 이스라엘혁신청 등이 주관하는 '한·이스라엘 협력 대표단' 일원에 포함돼 지난해 이스라엘 스마트 모빌리티 관계사들과 협력관계를 구축했다. 마이크로소프트(MS)가 운영하는 독립 소프트웨어 공급업체(ISV)로 선정돼 MS 공식 마켓플레이스에 기업과 기업간(B2B) 제품을 등록하고 글로벌 기업과 제품 판매 및 기술 협력을 진행하고 있다.

2024.03.26 11:08주문정

"기업의 실질적 생성형 AI 활용은 통합에 달렸다"

“오라클의 AI 솔루션은 생성형 AI와 기업 데이터 플랫폼을 유기적으로 연계하는데 초점을 맞추고 있다. 오라클은 '통합'에 주목한다. 기업이 그동안 투자해온 데이터 플랫폼, 다양한 도구, 프로그래밍 언어 등을 그대로 활용하면서 동시에 생성형 AI란 최신 기술을 개방형으로 구축, 활용하게 지원한다.” 나정옥 한국오라클 클라우드엔지니어링 부사장은 21일 '최신 AI 트렌드와 오라클의 AI 전략'을 주제로 기자 간담회에서 이같이 밝혔다. 나정옥 부사장은 “현재 비즈니스의 핵심이 '데이터'에서 AI 기반 '분석'으로 변화하고 있는 가운데, 오라클은 기술 스택 전반의 모든 레이어마다 AI 솔루션을 제공하는 '풀 스택' 전략을 통해 기업 AI 여정을 촉진한다”고 말했다. 나 부사장은 “오라클은 생성형 AI 모델의 학습과 운영에 필요한 비용효과적인 클라우드 인프라, AI 앱 개발을 위한 완전관리형 서비스, 신뢰성 있는 관리형 AI 모델 등을 갖췄고, 오라클의 모든 애플리케이션에 AI를 내장시켰다”며 “AI 시대를 맞아 데이터 수집, 전처리, 저장, 분석, 활용에 이르는 전단계를 지원한다”고 강조했다. 오라클은 완전하고 통합된 데이터 및 AI 포트폴리오의 일부로서 ▲AI 인프라 ▲애플리케이션 ▲AI 서비스 ▲데이터 플랫폼과 유기적으로 작동하는 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스 등을 제공한다. 오라클의 최신 생성형 AI 기술 및 서비스를 살펴보면, 애플리케이션은 생성형 AI를 내재화한 퓨전 애플리케이션을, AI 서비스는 라마 2와 코히어 등의 LLM 미세조정 및 추론 서비스 및 데이터 플랫폼과 결합 가능한 검색 증강 생성(RAG) 서비스를 제공한다. 데이터 플랫폼은 AI를 내장한 자율운영 데이터베이스와 마이SQL 히트웨이브 및 오라클 데이터베이스 23c의 벡터 검색 지원 기능 등을 제공한다. OCI 생성형 AI 서비스는 OCI 슈퍼클러스터와 통합을 기반으로 하며, 기업이 자체 데이터를 활용해 가장 안전하면서도 비용효율적인 방식으로 생성형 AI 서비스를 개발 및 운영하도록 지원한다. 데이터 플랫폼에서 모든 애플리케이션 및 개발 환경에 데이터를 제공하고, 데이터 수집, 처리, 분석, 예측 등에 AI를 활용하도록 한다. 이날 간담회에서 김태완 한국오라클 수석 솔루션엔지니어 상무는 오라클의 생성형 AI 솔루션의 주요 기능을 직접 시연했다. 데모 시연을 통해 OCI 생성형 AI 서비스에서 임베딩, 프롬프트 작업 및 자동 코드 생성 등을 통해 애플리케이션 개발을 효과적으로 지원하는 기능, 미세조정을 통한 모델 맞춤화 및 모델 성능 관리 기능을 설명했다. 김태완 상무는 “OCI 생성형 AI 서비스는 상용 모델과 오픈소스 모델을 제공하며, 프롬프트 엔지니어링, 텍스트 임베딩, 코드 생성, 요약 등의 기능을 이용할 수 있다”며 “여러 모델을 운영, 테스트할 수 있고, 자바나 파이썬 코드를 생성하고, 텍스트를 벡터로 변환해 데이터 간 연관성과 유사도를 시각적으로 확인할 수 있는데, 모든 과정을 UI로 할 수 있다”고 설명했다. 김 상무는 “파인튜닝과 커스터마이징을 위해 전용 인스턴스를 생성, 파인튜닝하고, 성능 검증해 변경된 모델을 프롬프트로 테스트하고 코드화할 수 있다”며 관리콘솔로 대시보드와 모니터링 환경을 제공함으로써 기업의 LLM 모델 활용에 대한 기술 진입장벽을 낮춘다”고 덧붙였다. 오라클 OCI 생성형 AI 서비스는 제공 모델에 미스트랄 AI의 믹스트랄을 곧 추가할 예정이다. 김 상무는 기업에서 신뢰성 높은 생성형 AI 앱을 만들 수 있도록 검색증강생성(RAG)를 쉽게 활용하게 하는 서비스를 소개했다. RAG는 기업 내부 데이터와 LLM을 연결하고, 벡터화된 내부 데이터의 의미 검색을 통해 사용자 프롬프트의 맥락에 가장 알맞는 답변을 생성하도록 하는 기법이다. 그는 “맥락에 맞는 데이터 저장소에서 정보를 찾아서 LLM에 보내고, 캐싱을 처리하고, 양질 프롬프트를 새로 만들고, 입력 프롬프트를 임베딩해서 적정 데이터를 찾게 하는 등의 전처리 과정이 RAG에서 매우 복잡하다”며 “오라클은 에이전트란 서비스를 통해 LLM과 RAG를 자동화할 수 있는 부분을 혼합하고 추상화시켜서 고객의 부담을 최소화하며 AI 앱을 쉽게 개발하게 한다”고 설명했다. 그는 “에이전트는 오픈서치 기반으로 LLM과 통합하는 데이터 저장소를 만들며, 오라클 데이터베이스23c나 마이SQL 히트웨이브의 벡터 서치를 저장소로 연동할 수 있다”며 “레디스 캐시로 프롬프트 히스토리를 관리할 수 있는 등 대상 LLM과 저장소를 연결해 RAG 앱을 만드는 모든 부분을 자동화한다”고 덧붙였다.

2024.03.21 16:38김우용

퓨어스토리지, 엔비디아와 RAG 파이프라인 개발

퓨어스토리지는 엔비디아 OVX 지원 검증 레퍼런스 아키텍처를 비롯해, 생성형 AI 사용사례를 운용하기 위한 새로운 검증 레퍼런스 아키텍처를 20일 발표했다. 퓨어스토리지는 엔비디아와 협력해 전 세계 고객들의 성공적인 AI 구축을 위해 고성능 데이터 및 컴퓨팅 요구사항을 관리할 수 있는 검증된 프레임워크를 제공한다. 오늘날 대부분의 AI 구축은 클라우드부터 레거시 스토리지 솔루션에 이르기까지 파편화된 데이터 환경에 분산되어 있다. 그러나 이러한 파편화된 환경은 AI 데이터 파이프라인을 지원하고 기업 데이터의 잠재력을 발휘하는 데 필요한 성능과 네트워킹 요구사항을 지원할 수 없다. 기업이 혁신을 주도하고, 운영을 간소화하며, 경쟁 우위를 확보하기 위해 AI를 더욱 적극적으로 도입함에 따라, 강력하고 고성능이며 효율적인 AI 인프라에 대한 수요가 그 어느 때보다 높다. 특히, 급속도로 성장하는 포춘 500대 기업 고객군을 중심으로 기업용 AI 구축을 선도하고 있는 퓨어스토리지는 기업이 AI의 잠재력을 충분히 활용하는 동시에 관련 리스크, 비용, 에너지 소비를 줄일 수 있도록 간편하고 안정적이며 효율적인 스토리지 플랫폼을 제공한다. 퓨어스토리지는 AI 추론을 위한 검색 증강 생성(RAG) 파이프라인을 제공한다. 퓨어스토리지는 대규모 언어 모델(LLM)을 위한 추론 기능의 정확성, 통화 및 관련성을 향상시키기 위해, 기업용 올플래시 스토리지용 엔비디아 네모 리트리버 마이크로서비스 및 엔비디아 GPU, 그리고 퓨어스토리지를 활용하는 RAG 파이프라인을 개발했다. 이로써 퓨어스토리지는 AI 학습을 위해 자체 내부 데이터를 사용하는 기업들이 더 빠른 인사이트를 얻을 수 있도록 가속화하며, 최신 데이터 사용을 보장하고 LLM의 지속적인 재훈련 필요성을 없앴다. 엔비디아 OVX 서버 스토리지 레퍼런스 아키텍처 인증을 획득했다. 퓨어스토리지는 기업 고객과 채널 파트너에게 비용 및 성능에 최적화된 AI 하드웨어 및 소프트웨어 솔루션을 위한 강력한 인프라 기반을 제공하기 위해, 주요 벤치마크에 대해 검증된 유연한 스토리지 레퍼런스 아키텍처를 제공하는 OVX 서버 스토리지 검증을 획득했다. 해당 검증은 AI 고객들에게 추가적인 선택권을 제공하며, 지난해 발표된 퓨어스토리지의 엔비디아 DGX BasePOD에 대한 인증을 보완한다. 버티컬 산업 부문별 성공적인 AI 도입을 가속화하기 위해 퓨어스토리지는 엔비디아와 협력해 산업별 RAG를 개발하고 있다. 퓨어스토리지는 상용 LLM보다 더 높은 정확도로 방대한 데이터세트를 요약하고 쿼리할 수 있는 금융 서비스 RAG 솔루션을 개발했다. 이를 통해 금융 서비스 기관들은 이제 AI를 사용해 다양한 재무 문서 및 기타 소스에서 즉각적인 요약 및 분석을 생성하여 인사이트를 더욱 빠르게 확보할 수 있게 됐다. 헬스케어 및 공공 부문을 위한 추가적인 RAG도 출시될 예정이다. 퓨어스토리지는 엔비디아와 함께 AI 파트너 생태계에 대한 투자를 더욱 확대하며, 런:AI 및 웨이트 앤 바이어스와 같은 ISV와 새로운 파트너십을 체결하고 있다. 런:AI는 고급 오케스트레이션 및 스케줄링을 통해 GPU 활용을 최적화하며, 웨이트 앤 바이어스 AI 개발 플랫폼은 머신러닝 팀이 모델 개발 라이프사이클을 구축, 평가 및 관리할 수 있도록 지원한다. 퓨어스토리지는 이플러스, 인사이트, WWT 등을 포함한 AI 전문 리셀러 및 서비스 파트너와 긴밀히 협력하여 공동 고객의 AI 구축 업무를 더욱 효율화하고 있다. 퓨어스토리지 롭 리 최고기술책임자(CTO)는 “퓨어스토리지는 초기부터 AI 수요 증가를 예측하고, 최첨단 AI 구축을 위한 효율적이고 안정적인 고성능 플랫폼을 제공해왔다”며 “엔비디아와의 오랜 협업으로 개발한 최신 AI 레퍼런스 아키텍처와 생성형 AI 개념 증명은 글로벌 기업들이 AI의 복잡성을 극복하는 데 결정적인 역할을 하고 있다”고 밝혔다. 엔비디아 밥 피트 엔터프라이즈 플랫폼 부문 부사장은 “엔비디아의 AI 플랫폼 레퍼런스 아키텍처는 퓨어스토리지의 단순하고 효율적이며 신뢰성이 탁월한 데이터 인프라로 한층 강화돼 복잡한 AI, 데이터 분석 및 고도화된 컴퓨팅을 해결하려는 기업에 포괄적인 솔루션을 제공한다”며 “퓨어스토리지의 검증된 최신 레퍼런스 아키텍처와 개념 증명은 기업이 새로운 가능성을 열고 혁신적인 결과를 도출하는 데 필요한 툴을 제공함으로써 AI 혁신을 주도하고 있다.”라고 강조했다.

2024.03.20 10:38김우용

[기고] 생성형 AI 도입, 기업이 반드시 유념해야 할 두 가지 전략

생성형 AI 모델에 대한 뜨거운 관심은 이제 다방면으로 확산되고 있다. 지난 해 까지만 해도 변호사 자격시험 통과나 다양한 주제의 학술 논문 작성은 물론, 정보 검색 지원 등 놀라운 신기능이 화제의 중심이었다. 이제 우리는 생성형 AI가 텍스트 생성과 SQL 쿼리 생성, 코드 작성, 심지어는 예술작품 제작은 물론, 기업의 제품 지원에 이르기까지 거의 모든 분야의 작업을 수행하는 것을 목격하고 있다. 생산성과 수익을 향상시킬 수 있는 방법을 늘 고민중인 기업 경영진의 마음을 생성형AI가 사로잡고 있다고 해도 과언이 아니다. 실제 우리 기업들은 이제 향후 어떤 업무에 생성형 AI의 어떤 기능을 더 추가적으로 도입할 지 심각하게 고민하고 있는 상황이다. 기업은 생성형 AI 기능을 원하는 업무에 도입해 비즈니스 결과를 개선하려면 우선적으로 중요한 원칙을 되새겨야 한다. 즉 해당 AI기능이 자사의 비즈니스 적용업무에 통합되어 그에 적합하고 정확한 결과를 제공하는 대상 모델은 무엇인지 정의하는 것과, 그에 맞게 해당 인프라를 설정하고, 모델을 선택, 맞춤화하고 배포를 어떻게 할 것인지 대한 기획이다. 이와 같은 원칙과 전제하에 기업이 생성형 AI를 도입해 자사의 비즈니스를 향상시키는 방안은 두 가지로 구분할 수 있다. 애플리케이션에서 AI 서비스 및 데이터와 인프라 전반을 아우르는 '풀스택 AI'의 활용 전략과 '특정 비즈니스 업무에 적합한 맞춤형 서비스 활용'이 그것이다. 풀스택 AI 활용과 그 경험을 구현하는 방법은 무엇인가? 이는 생성형 AI에 대한 시스템 차원의 '총체적인 접근방식'으로, 기업이 AI 구현을 위해 필요로 하는 기술 전반을 통합한 환경을 의미한다. 이와 관련해 기업은 자사의 온프레미스(구축형)와 퍼블릭 클라우드로 운영되는 IT시스템 환경의 전반에서 애플리케이션과 서비스, 데이터 및 인프라를 아우르는 단일한 AI 솔루션 적용을 통해 AI의 ROI(투자대비효과)를 거둘 수 있다. 보통 기업에서는 AI 프로젝트를 진행할 경우 여러 곳에 편재한 단편적인 부분과 툴을 결합하는 방식으로 AI를 구현한다. 이와 달리 풀스택 접근방식은 기업 핵심 애플리케이션의 사용 경험에 생성형 AI 기술을 접목할 수 있는 기술력을 갖추고 있다는 장점이 있다. 덕분에 기업은 자사 애플리케이션에 필요한 생성형 AI 기술을 획기적으로 간단히 통합할 수 있다. 필자가 속한 오라클 역시 기업이 생성형 AI를 성공적으로 구현하기 위해 정말 필요한 것이 무엇인지에 대해 고민하면서 생성형 AI에 대해 이러한 총체적인 접근 방식을 취하고 있다. 또한 데이터베이스에 탑재된 AI 기반 운영 자동화 및 벡터 검색 기능은 기업이 추가적인 개발의 노력을 들이지 않아도 데이터베이스 관리 업무와 앱 개발 과정을 대폭 간소화하고 정확도 높은 모델을 지원할 수 있어 비용 절감을 돕는다. 오라클은 자사의 서비스형 소프트웨어(SaaS)에서 시작해 이러한 AI 기술이 접목된 풀스택 서비스와 함께 광범위한 미세 조정 모델 및 즉시 사용 가능한 검색 증강 생성(RAG)을 통해 기업의 차별화된 AI 전략을 지원하고 있다. 두 번째로, 생성형 AI가 기업 내의 다양한 활용을 지원하기 위해 미세 조정 또는 RAG 기술을 통해 대형 언어 모델을 현업 요구 사항에 적합하도록 맞춤화해 제공하는 방안이다. 이 중 '미세 조정'은 대형 언어 모델에 기업의 내부 정보, 지식 문서 등을 학습하는 것으로, 여기에는 많은 시간과 비용이 든다. RAG 기술은 이러한 미세조정을 돕기 위한 기술이다. 데이터 사용자와 자연어 기반의 대화 맥락 속에서 질의를 SQL 쿼리로 자동 변환하고 기업 보유의 벡터 데이터베이스와 연동을 통해 의도에 맞는 답변을 제공한다는 점에서 비용 효과성을 더 높은 수준으로 향상시켜준다. 한 예로 기업의 한 사용자가 RAG 기술을 탑재한 에이전트에 병가에 대한 인사(HR) 정책을 요약해서 알려 달라고 요청할 경우, 모델은 RAG를 통해 기업 HR 정책과 관련된 내부 문서에서 연관 있는 문단을 추출해 내어 자연어 대응 답변을 출처 문서에 대한 하이퍼링크와 함께 맞춤형으로 제공할 수 있다. 향후에는 사용자의 요청에 따라 기존 문서 편집과 같은 후속 조치까지도 지원할 것으로 기대된다. 이처럼 기업 업무의 특수한 맥락에 정교한 성능을 제공하는 생성형 AI 기술은 고객 서비스 자동화를 비롯해 개인화된 마케팅이나 가상 세일즈맨 역할, 계약서 작성, 경쟁사 및 고객 모니터링 등 비즈니스의 많은 영역에 적용해 가치를 창출할 수 있을 것으로 기대되고 있다. 성공적인 생성형 AI 구현은 인프라에 대한 총체적인 접근방식과 더불어, 생성형 AI 모델의 실제 비즈니스 적합성에 달려 있다. 이 두 가지 전략을 함께 고려하고 운용할 수 있을 때 비로소 기업은 생성형 AI 와 관련된 여정을 단계별로 차근차근 밟아 나가며 혁신을 가속화하고 고도화 할 수 있을 것이다.

2024.03.14 15:27나정옥

AWS·메가존 "기업 고객, 더 안전한 환경서 생성형 AI 개발 누릴 것"

"기업들이 본격적으로 생성형 인공지능(AI)의 보안과 정확도에 더 신경 쓰기 시작했다. 기업 고객은 아마존베드록과 젠AI360 등으로 보안성·정확도 높은 환경에서 생성형 AI 모델과 제품 개발을 할 수 있을 것이다." 아마존웹서비스(AWS)코리아 최효근 시니어 솔루션아키텍트는 12일 인터컨티넨탈 호텔 서울에서 메가존클라우드와 공동 개최한 '비즈니스 리더를 위한 성공적인 생성형 AI 도입 로드맵'에서 베드록의 최신 기능을 소개했다. 메가존클라우드 김한수 AI&데이터분석센터 그룹장도 젠AI360 서비스를 선보였다. 두 기업 모두 생성형 AI 모델 개발시 보안과 정확도를 올릴 수 있는 기능을 설명했다. 최효근 아키텍트는 실제 기업이 생성형 AI를 도입해 내놓은 제품이 많지 않다고 했다. 생성형 AI의 가장 큰 걸림돌인 환각 현상과 보안 문제를 주요 이유로 꼽았다. 이에 AWS는 베드록에 환각 현상과 데이터 유출을 방지하기 위한 새로운 기능을 추가했다고 설명했다. 최 아키텍트는 베드록에 새로 업그레이드된 파인튜닝 시스템을 설명했다. 일반적으로 사용자가 특정 도메인이나 특정 지식을 추가하고 싶을 때 파인튜닝 기법을 활용한다. 그러나 파인튜닝을 한다고 해서 답변 정확도가 무조건 오르는 것은 아니다. 그는 "베드록은 정확도 향상을 위해 소수의 레이블 된 데이터를 이용한다"며 "질문과 가장 연관성 높은 데이터만 활용함으로써 답변 정확도를 높일 수 있다"고 했다. 최효근 아키텍트는 "도메인에 대한 모델 정확도 유지를 위해 많은 수의 레이블 없는 데이터까지 추가로 이용한다"고 덧붙였다. 현재 사용자는 파인튜닝을 진행할 때 코히어, 메타, 아마존의 거대언어모델(LLM)을 통해 진행했다. 올해 앤트로픽의 LLM도 추가될 방침이다. 최 아키텍트는 베드록이 검색 증강 생성(RAG)을 강화했다고 했다. 그는 "베드록은 완전 관리형 RAG를 지원하고 있다"며 "다른 플랫폼처럼 RAG 실행을 위한 추가적인 프로그래밍이 불필요하다"고 했다. 베드록 RAG의 가장 큰 특징은 RAG 내부 시스템이 단계별로 진행된다는 점이다. 예를 들어, 사용자가 AI 모델에 복잡한 요청을 했을 때, 베드록의 RAG 에이전트가 이를 여러개의 작은 작업으로 나눠 적절한 API를 호출하거나 데이터베이스(DB)를 스스로 찾아 답하는 식이다. 이를 통해 답변 정확도를 높일 수 있다. 그는 "이는 기존 RAG보다 품질 높은 답변을 준다"고 강조했다. 최효근 아키텍트는 AWS가 '책임감 있는 AI'구현도 힘쓴다고 강조했다. 그는 "모델이 응답할 때 내부적으로 필터링해야 한다"며 "베드록은 이를 위한 가드레일을 제공한다"고 설명했다. 사용자가 유해 콘텐츠 차단 등 AI 정책을 모델 내 세팅할 경우, 베드록은 이를 위한 필터링을 만들거나 개인 식별 번호 등을 설정한다. 외부로 유출되면 안 되는 정보까지 필터링한다. 이날 AWS 루크 앤더슨 아시아 태평양 및 일본 AI·ML 매니징 디렉터도 자리했다. 그는 LG AI연구원을 비롯한 KT, 업스테이지, 이스트소프트 등과 협력해 다양한 생성형 AI 모델과 서비스를 구축했다고 알렸다. 앤더슨 디렉터는 “모든 고객이 쉽게 빠르게 생성형 AI를 사용할 수 있도록 서비스를 연구하고 있다”며 “IT 전문가가 아니어도 몇 분 안에 AI를 구축할 수 있게 만들 것”이라고 강조했다. 메가존클라우드 김한수 그룹장도 지난해 출시된 젠AI360 오퍼링 서비스를 소개했다. 젠AI360은 생성형 AI를 도입하고자 하는 기업들을 위해 설계부터 구축, 운영까지 지원하는 기업 맞춤형 생성형 AI 엔드 투 엔드 서비스다. 김한수 그룹장은 "최근 기업들이 RAG와 파인튜닝에 집중하는 추세"라며 "이러한 시대에 발맞춰 메가존도 AWS와 협력해 안전한 개발 환경을 위한 기능을 젠AI360에 꾸준히 넣을 것"이라고 강조했다.

2024.03.12 17:32김미정

인디제이, '눈치 AI'로 CES 2024 참가…투자유치·글로벌 대기업 협업 등 성과

인디제이(inDJ·대표 정우주)는 지난 9일부터 12일(현지시간)까지 미국 라스베이거스에서 열린 세계 최대 가전·정보기술 박람회 'CES 2024'에서 '눈치 AI'를 선보여 투자유치와 글로벌 대기업 협업 등의 성과를 거뒀다고 18일 밝혔다. 인디제이는 CES 2024에서 미래 자동차의 다양한 센서로 운전 패턴과 차량 내외부 상황을 데이터화하고 운전자와 탑승자 목소리와 행동·감정을 감지해 이동 중인 고객이 말하지 않아도 눈치껏 솔루션을 제안하는 '눈치 인공지능(AI)'가 만드는 스마트 인포테인먼트 시스템을 선보였다. 인디제이의 AI 모델은 스마트폰·웨어러블 디바이스·사물인터넷·커넥티드카 등의 센서 데이터와 사용자 비식별 데이터로 개개인의 사용자 상황과 감정을 학습한다. 생성형 인격체 AI 모델을 적용한 정밀한 개인 추천 모델로 고객에 꼭 맞는 AI 솔루션을 제공한다. 인디제이 측은 CES 2024 부스운영을 통해 2천100명 이상의 순 방문자와 1천500만 달러 이상의 수출·투자상담과 40건 이상의 업무협약 성과를 거두며 투자유치와 글로벌 대기업 협업 등의 계기를 마련했다고 전했다. 테슬라·혼다·현대 등 글로벌 자동차 회사는 물론 정보기술(IT)·통신사·AI 회사 등 다양한 글로벌 기업과 상담했다. 또 뱅크오브아메리카·BQ Capital·한미은행 등을 비롯한 다수 투자사가 투자를 문의해와 투자 유치 성과도 예상된다. 정우주 인디제이 대표는 “불과 두 번째 참가 만에 2년 연속 총 3건의 혁신상을 수상하며 미래 자동차에서 인포테인먼트가 가져올 혁신을 기술을 통해 인정받았다”며 “CES 2024를 계기로 인터페이스 AI인 눈치 AI 글로벌 진출에 계속 힘을 실을 계획'이라고 말했다. 한편, 인디제이는 'CES 2023'과 'CES 2024'에서 혁신상을 받았다. 마이크로소프트(MS)가 운영하는 독립 소프트웨어 공급업체(ISV)로 선정돼 내년 7월까지 MS 공식 마켓플레이스에 기업과 기업간(B2B) 제품을 등록하고 글로벌 기업과 제품 판매 및 기술 협력을 진행한다. AI 분석 서비스 '제이든' 디자인은 '2024 독일 디자인 어워드(GDA)'를 받기도 했다.

2024.01.18 15:32주문정

인디제이, CES 2024서 혁신상…'눈치 AI' 활용 커넥티드카 선봬

인디제이(대표 정우주)는 세계 최대 가전·IT 전시회 CES 2024에서 더욱 진화한 인공지능(AI) '눈치 AI'가 만드는 미래의 커넥티드카를 선보인다고 3일 밝혔다. 인디제이는 미래 자동차의 다양한 센서로 운전 패턴과 차량 내외부 상황을 데이터화하고 운전자와 탑승자 목소리와 행동·감정을 감지해 이동 중인 고객이 말하지 않아도 눈치껏 솔루션을 제안하는 '눈치 AI'가 만드는 스마트 인포테인먼트 시스템을 전시한다. 인디제이의 AI 모델은 스마트폰·웨어러블 디바이스·사물인터넷·커넥티드카 등의 센서 데이터와 사용자 비식별 데이터로 개개인의 사용자 상황과 감정을 학습한다. 생성형 인격체 AI 모델을 적용한 정밀한 개인 추천 모델로 고객에 꼭 맞는 AI 솔루션을 제공한다. 인디제이 측은 기존 인포테인먼트 시스템이 운전자 행동을 기반으로 서비스가 동작하거나 제안했다면 인디제이의 AI 솔루션을 기반으로 한 스마트 인포테인먼트 시스템은 운전자와 동승자의 상황과 감정, 문맥을 폭넓게 이해해 알아서 나보다 나를 더 잘 아는 AI가 된다고 설명했다. 예를 들어 자동차에 적용한 카메라·라이더 센서 등을 통해 운전자 감정 상태를 감지하고 운전자 현 상황과 이동목적, 도로 상황을 종합적으로 판단해 AI가 이 데이터를 바탕으로 최적 경로를 안내하거나 온·습도 조절, 음악 재생 등 최적의 환경을 조성해준다. 차량 내외부 센서로 운전자가 졸음운전하는 상황으로 감지되면 경보를 울려주거나 진동알림, 경쾌한 음악 재생, 산소 공급을 해주기도 한다. 또, 운전자와 탑승자 취향을 자동으로 감지해 상황과 감정에 맞는 콘텐츠를 추천해준다. 아이가 탑승한 경우 아이에 맞는 콘텐츠를 추천하기도 하고 출근길로 판단되면 뉴스 콘텐츠를 제공하기도 한다. 정우주 인디제이 대표는 “지난 2023년 CES에 처음으로 참가해 인공지능 플랫폼 '인디제이'를 소개한 이후 불과 두 번째 참가 만에 혁신상 총 3건을 수상하며 미래 자동차에서 인포테인먼트가 가져올 혁신을 기술을 통해 인정받았다”며 “AI를 기반으로 차량 내부의 고객을 판단해 상황과 감정에 꼭 맞는 솔루션을 제안하는 인포테인먼트 시스템을 만들어나갈 것'이라고 말했다. 한편, 인디제이는 'CES 2023'에서 혁신상을 받은바 있다. 마이크로소프트(MS)가 운영하는 독립 소프트웨어 공급업체(ISV)로 선정돼 내년 7월까지 MS 공식 마켓플레이스에 기업과 기업간(B2B) 제품을 등록하고 글로벌 기업과 제품 판매 및 기술 협력을 진행한다. AI 분석 서비스 '제이든' 디자인은 '2024 독일 디자인 어워드(GDA)'를 받기도 했다.

2024.01.03 18:18주문정

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

[AI는 지금] 'AI 거품론'에도 내 갈 길 간다…소프트뱅크·오픈AI, 투자 확대 '승부수'

국정자원 복구는 두 달, 민간은 몇 시간…왜 차이 날까

엔씨, 아이온2 두 번째 긴급 라이브…"어비스 포인트 격차 즉시 완화"

[영상] "공장장 주목"...사람처럼 손으로 도구 쓰는 로봇 나온다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.