• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'RAG'통합검색 결과 입니다. (43건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[현장] 통합형 LLM·멀티소스 RAG로 '출격'…코난테크놀로지, 올해 실적 반등 노린다

"생성형 인공지능(AI)의 핵심은 더 이상 모델 성능의 경쟁이 아닙니다. 이제는 얼마나 실질적인 업무 수요를 반영하고 이를 통해 실제 성과를 만들어낼 수 있는가가 관건입니다." 김영섬 코난테크놀로지 대표는 13일 서울 광화문 호텔 코리아나에서 열린 기자간담회에서 이같이 밝히며 자체 개발한 차세대 거대언어모델(LLM), 신규 인공지능(AI) 제품군, 이를 아우르는 사업화 전략과 기술 로드맵을 공개했다. '추론 통합형 LLM부터 AI PC까지'라는 주제로 진행된 이번 간담회는 실제 업무 현장에서 검증 가능한 생성형 AI 기술을 중심으로, 코난테크놀로지가 독자 개발한 코난 LLM 'ENT-11', 레거시 연동형 검색증강생성(RAG) 시스템 'RAG-X', 그리고 온디바이스 AI 솔루션 'AI스테이션' 등을 소개하는 자리였다. 김 대표는 환영사에서 "지난 26년간 축적해온 기술 역량을 기반으로 우리는 단순 모델 성능이 아닌 비즈니스 실효성과 현장 접목 가능성에 초점을 맞춘 생성형 AI 전략을 펼쳐가고 있다"며 "제품군 확장을 통해 AI의 도입 허들을 낮추고 시장 성과로 이어지는 환경을 주도하겠다"고 강조했다. 실무형 RAG·통합형 LLM 앞세워…공공·의료 레퍼런스 '확보' 임완택 코난테크놀로지 전략기획본부 상무는 이날 간담회에서 검색증강생성 기술 기반의 신규 제품 '코난 RAG-X'를 소개했다. 발표에 앞서 그는 "LLM은 아무리 고성능이어도 최신 정보를 반영하지 못하고 사내 문서처럼 민감한 내부 데이터를 다루지 못하는 아키텍처 상의 한계가 있다"며 "우리는 이 한계를 실무 환경에서 해결하기 위해 RAG 기술을 핵심으로 재설계했다"고 설명했다. 임 상무에 따르면 '코난 RAG-X'는 단순한 외부 검색용 챗봇이 아니라 내부 데이터베이스(DB), 레거시 시스템, 공공기관 데이터, 뉴스, 논문, 커뮤니티 자료 등 다양한 정보를 연동해 활용할 수 있도록 구성된 멀티소스 기반의 B2B 특화형 시스템이다. 퍼플렉시티처럼 외부 웹에 의존하는 B2C형 RAG 솔루션과 달리 온프레미스 환경에서 구동돼 사내 민감 데이터가 외부로 유출될 우려 없이 운용 가능하다. 그는 기술 구조에도 차별점이 있다고 설명했다. 단일 질문에 대해 즉시 응답하는 일반형 RAG와 달리 '코난 RAG-X'는 하나의 복합 질문을 다단계 질의로 나누고 각 하위 질의에 대해 순차적으로 정보를 검색·검증한 뒤 최종 응답을 조합하는 구조다. 일례로 "최근 3개월간 대출 연체가 발생한 건설사를 알려주고 각 기업의 자본금, 분양 실적, 관련 뉴스 반응을 종합해 리스크 대응 전략을 보고서로 만들어줘" 같은 질의도 단계별로 자동 처리 가능하다는 설명이다. 이러한 구조 덕분에 'RAG-X'가 금융, 공공, 제조업처럼 의사결정 과정이 복잡하고 규제 요건이 엄격한 B2B 환경에서 유효하는 설명이다. 실제 도입을 검토하는 고객들도 질문부터 보고서 작성에 이르는 전 과정을 하나의 AI로 대체할 수 있다는 점에 높은 관심을 보이고 있다는 것이다. 이어 발표를 맡은 도원철 코난테크놀로지 연구소 상무는 회사의 최신 LLM '코난 ENT-11'을 중심으로 단일 모델 구조와 추론 성능 개선 내용을 발표했다. 그는 "'ENT-11'은 일반 모드와 추론 모드를 하나의 엔진으로 통합한 국내 유일의 모델"이라며 "별도 모델을 병행 도입할 필요 없이 다양한 업무에 확장 적용할 수 있다"고 강조했다. 도 상무는 'ENT-11'이 기존의 범용 생성 모델과 달리 정밀 추론에 특화된 구조를 갖췄다고 설명했다. 단순 질의응답을 넘어 수학 계산, 법률 문서 해석, 테이블 기반 질의 등 복합 태스크까지 하나의 모델로 처리할 수 있도록 설계됐다는 설명이다. 현장에서는 세 가지 시연이 진행됐다. 첫 번째는 법원 판결문을 기반으로 양형 인자 항목을 추출하는 과제였다. 'ENT-11'은 해당되는 양형 인자를 골라낸 뒤 문서 내 근거 문장까지 함께 출력해 응답의 신뢰성을 높였다. 더불어 신축 건물 정보를 담은 테이블에서 대지 면적의 총합을 계산하는 과제에서는 테이블 내 조건 필터링, 수치 추출, 합산 계산을 모두 수행해 정확한 결과를 출력했다. 또 유명한 AI 수학 벤치마크인 'MATH500' 문제를 'ENT-11'이 풀었고 94점을 기록했다는 결과도 공유됐다. 도 상무는 "'ENT-11'이 딥시크 'R1' 대비 20분의 1 규모의 파라미터로 유사한 수준의 성능을 냈고 한국어 추론에서는 더 높은 정확도를 확보했다"며 "설명 가능한 추론 과정을 한국어로 출력하는 기능은 현재 ENT-11이 유일하다"고 덧붙였다. 이어 이형주 코난테크놀로지 AI사업부 이사는 코난 LLM의 실제 도입 사례와 산업별 적용 효과를 소개했다. 이 이사에 따르면 한국남부발전은 발전사 최초로 생성형 AI를 전사 35개 태스크와 15개 시스템에 연동해 구축했다. 발전소 운영에 필요한 기술문서, 정책 자료, 현장 보고서 등을 자동 분류·요약·생성하는 데 코난 LLM이 적용됐으며 연간 약 10만 시간의 업무 절감과 최대 51억원 규모의 생산성 향상이 기대된다. 한림대학교의료원 역시 의료진이 매일 작성하는 일일 경과기록지 초안을 자동 생성하는 데 코난 LLM을 도입했다. 기존 수작업 대신 전자의무기록(EMR) 기반으로 초안을 자동 작성한 뒤 의료진이 검토·승인하는 방식으로, 연간 약 9만5천시간의 업무 시간을 줄이고 의사 1인당 약 36일의 진료 가능 시간을 확보할 수 있을 것으로 분석된다. 이와 함께 국민권익위원회는 행정심판 청구서 작성에 생성형 AI를 적용해 유사 판례 검색부터 청구서 초안 생성까지의 과정을 자동화했다. 전체 작성 시간이 최대 60% 이상 단축됐으며 민원인의 정보 접근성과 업무 담당자의 처리 효율 모두 개선된 것으로 나타났다. 이형주 이사는 "이제는 개념검증(PoC)을 넘어서 실질적 수익확보 단계로 넘어가고 있다"며 "생성형 AI는 '자동화 툴'이 아니라 '업무 자산'으로 재정의돼야 한다"고 말했다. 폐쇄망 AI스테이션·서버 공개…공공·B2B 실무 자동화 '정조준' 코난테크놀로지는 이번 행사에서 자사의 자체 개발 LLM이 탑재된 온디바이스형 AI PC '코난 AI스테이션(AIStation)'과 기업형 AI 서버 'AI스테이션 서버(aiStation Server)'를 공개하며 제품군 확장을 마무리했다. 발표는 조인배 TG삼보 팀장과 이영주 코난테크놀로지 AI사업부 이사가 각각 맡았다. 조인배 팀장은 'AI PC가 바꾸는 업무환경'을 주제로 "'AI스테이션'은 인터넷 없이도 AI 기능을 활용할 수 있어 공공기관의 보안 요건과 반복 업무 자동화 수요를 동시에 충족할 수 있는 실무형 장비"라며 "민원 응대, 보고서 작성, 외국어 안내 등 반복적인 행정 태스크에 특히 효과적"이라고 설명했다. 조 팀장은 AIStation의 핵심 기능으로 ▲문서 요약 및 질의응답 ▲다국어 번역 ▲RAG 기반 정보 생성 ▲유해 콘텐츠 차단 등을 꼽았다. 더불어 RAG 기능이 내장돼 있기 때문에 단순한 생성형 응답을 넘어 맥락에 기반한 응답 생성이 가능하다는 점을 주요 장점으로 꼽았다. 'AI스테이션'의 하드웨어는 인텔 14세대 i7·i9 CPU, 엔비디아 RTX 그래픽처리장치(GPU), 고용량 SSD 등으로 구성된다. 보급형과 고급형 모델로 나뉘어 오는 7월 조달 등록이 예정돼 있다. 이어 발표를 진행한 이영주 코난테크놀로지 AI사업부 이사는 기업형 AI 서버 제품 'AI스테이션 서버'를 소개했다. 그는 "중소기업이나 연구기관 입장에선 고가의 다중 서버 LLM 환경을 도입하기 어렵다"며 "'AI스테이션 서버'는 폐쇄망 기반에서도 단일 장비로 생성형 AI 환경을 구축할 수 있도록 설계된 어플라이언스형 제품"이라고 말했다. 'AI스테이션 서버'는 코난 LLM을 중심으로 문서 임베딩, 개인정보 필터링, 유해 질의 차단, 시스템 관리 기능이 통합된 단일 서버 구조다. 생산성은 높이고 보안과 비용 부담은 줄이기 위해 하나의 서버에 모든 기능을 통합해 50명 이하 소규모부터 300명 규모 조직까지 대응할 수 있다는 설명이다. 현장 시연에서는 사내 매뉴얼 기반 계획서 자동 생성, 보험업무 대응 화법 작성, 다국어 이메일 자동화 사례 등이 공개됐다. 유통 전략은 에스넷 그룹과의 협력을 중심으로 구축된다. 현재 서울, 대전, 대구, 부산의 에스넷 물류 거점을 통해 전국 단위 서비스 체계를 갖췄으며 에스넷 계열사들과 연계해 공공, 금융, 연구 기관 대상 B2B 사업화가 추진될 예정이다. 이영주 이사는 "AI스테이션 서버는 하나의 서버에 문서 검색, 요약, 보고서 생성, 다국어 대응 등 실질적인 B2B 태스크를 통합한 제품"이라며 "LLM이 단순한 기술이 아니라 현장 자동화 도구로 기능할 수 있다는 것을 입증하는 플랫폼이 될 것"이라고 강조했다. 실적 반등 신호…공공 조달·GPU 효율로 수익성 강화 노려 현장 질의응답에서는 실적 전망, 제품 가격, 기술 우위 등을 두고 구체적인 설명이 이어졌다. 임완택 전략기획본부 상무는 회사의 실적과 관련된 기자의 질문에 "지난 1분기 실적은 오는 15일 공시될 예정"이라며 "지난해 다수의 PoC가 마무리되며 올해는 본계약과 실 매출이 빠르게 증가하는 구간에 진입했다"고 밝혔다. 그는 공공·국방·대기업 중심으로 파이프라인이 확대되고 있다며 매출은 전년 대비 큰 폭으로 증가하고 적자 규모는 대폭 축소될 것으로 내다봤다. AI스테이션의 조달 전략을 묻는 질문에 대해서는 연간 40만 대 이상 규모의 데스크톱 조달 시장에서 5~10% 점유율 확보를 목표로 하고 있다는 조인배 TG삼보 팀장의 설명이 나왔다. 일정 비율만 확보해도 자체 LLM 수요 확대와 매출 증가로 이어질 수 있다는 판단에서다. 제품 가격은 천만 원 이하로 조율 중이다. GPU는 예산 구조와 성능 효율을 고려해 엔비디아 '지포스 RTX 4070'이 탑재됐다. 조인배 팀장은 "고성능 대비 최적화 작업을 통해 비용을 최소화했다"며 "공공기관에선 AI 서버보다 AI 기능 탑재 PC 형태로 접근하는 게 현실적"이라고 설명했다. LG '엑사원', 솔트룩스 '루시아' 등 타사 모델과의 성능 차이를 묻는 질문에는 GPU 사용 효율을 중심으로 비교 설명이 나왔다. 도원철 코난테크놀로지 연구소 상무는 'ENT-11'이 일반 생성형 모델과 추론 특화 모델을 하나로 통합한 구조라며 동일 작업을 처리할 때 필요한 GPU 자원이 절반 수준으로 줄어든다고 설명했다. 기존에는 쉬운 질의응답과 복잡한 추론 태스크에 각각 다른 모델을 띄워야 했지만 'ENT-11'은 하나의 모델로 모두 처리해 비용과 운용 부담을 동시에 낮추는 등 경쟁력을 갖췄다는 설명이다. 도원철 상무는 "두 모델을 따로 띄우는 구조는 GPU 자원이 2배로 들 수밖에 없다"며 "'ENT-11'은 단일 모델로 동일 기능을 처리해 훨씬 효율적이며 한국어 기반 추론 정확도도 타 모델 대비 높게 나온다"고 말했다.

2025.05.13 14:23조이환

와이즈넛, 국내 첫 RAG 솔루션 GS인증 1등급 획득…공공시장 진출 박차

와이즈넛(대표 강용성)이 자체 개발한 검색증강생성(RAG) 솔루션으로 굿소프트웨어(GS) 인증 1등급을 최초로 획득했다. 와이즈넛은 AI 에이전트 구축 최적화 솔루션 '와이즈 아이랙(WISE iRAG) V2'가 국내 인공지능 기업이 개발한 RAG 솔루션 중 처음으로 GS인증 1등급을 받았다고 8일 밝혔다. GS 인증은 과학기술정보통신부가 정한 소프트웨어 품질 기준에 따라 기능성, 호환성, 신뢰성 등 9개 항목에서 최고 수준을 충족한 제품에만 부여된다. 회사는 이를 바탕으로 조달청 디지털서비스몰 등록 절차를 빠르게 진행할 예정이며 상반기 내 업계 최초로 RAG 솔루션 등록을 완료한다는 계획이다. 이를 통해 공공시장 내 입지를 더욱 공고히 하고 안정적인 매출 확대를 기대하고 있다. 최근 생성형 AI 기반 에이전트가 주요 기술 화두로 떠오르며, RAG 기술의 중요성도 함께 부각되고 있다. 와이즈넛은 와이즈 아이랙과 자체 개발한 와이즈 LLM을 기반으로 AI 에이전트 구축 레퍼런스를 확보하고 있으며, 한국도로공사, 고용노동부, 한전KPS 등에서 이미 기술을 적용한 바 있다. WISE iRAG V2는 ▲벡터 검색과 키워드 검색을 결합한 하이브리드 RAG 구조 ▲고품질 검색을 위한 강화된 전처리 기술 ▲다양한 LLM과의 유연한 연동 ▲AI 에이전트 구축에 최적화된 학습 데이터 관리 기능(RAGOps) 등을 주요 특징으로 갖췄다. 강용성 대표는 "전 제품을 대상으로 GS인증을 획득해온 것은 기술력과 신뢰성을 동시에 강화하기 위한 노력의 일환"이라며, "RAG 기술을 중심으로 생성형 AI 에이전트 시장에서 기술 리더십을 확보하고, 공공·민간 시장에서의 사업 확장에 속도를 낼 것"이라고 밝혔다. 한편 와이즈넛은 국내 SW기업 중 최초로 2010년 SP 품질인증을 획득하고, 현재까지 인증을 유지해오며 지속적인 품질 관리를 이어가고 있다.

2025.05.08 14:16남혁우

파네시아, CXL 개발자 컨퍼런스서 'CXL 3.x' 스위치 솔루션 공개

국내 팹리스 스타트업 파네시아는 올해 국내 기업으로서 유일하게 CXL 개발자 컨퍼런스(CXL DevCon)에 참가해 고출력(high fan-out) CXL 3.x 스위치 기반 프레임워크를 선보였다고 7일 밝혔다. CXL DevCon은 CXL 표준을 제정하는 CXL 컨소시엄에서 주관하는 공식행사로서, 올해 2회차를 맞았다. 지난달 29일, 30일 양일간 미국 캘리포니아주 산타 클라라에서 진행됐다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. PCIe(PCI 익스프레스)를 기반으로 다수의 장치를 하나의 인터페이스로 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 파네시아는 올해 국내 기업으로서는 유일하게 전시 기업으로 참여해 대표 제품인 고출력 CXL 3.x 스위치와 이를 기반으로 한 프레임워크를 선보였다. 파네시아가 선보인 고출력 CXL 3.x 스위치는 서로 다른 CXL 장치들을 캐시 일관성이 보장된 하나의 시스템으로 통합하는 가교 역할을 한다. 파네시아가 자체 개발한 저지연 CXL IP를 기반으로 개발된 데에 더해, 한꺼번에 더 많은 장치를 연결할 수 있는 고출력 SoC 구조를 가짐으로 시스템의 평균적인 홉 수를 줄여 지연시간을 최소화한다. 또한 파네시아의 스위치는 여러 대의 스위치를 다수의 계층으로 연결하는 멀티-레벨 스위칭(multi-level switching) 기능, 그리고 각 장치가 장착되는 물리적 위치인 '포트'를 기준으로 장치 간의 논리적인 연결 구조와 연결 경로를 유연하게 설정하는 포트-기반 라우팅(port-based routing, PBR) 기능을 모두 지원한다. 뿐만 아니라 CPU, GPU, 메모리 등 모든 종류의 시스템 장치에 대한 연결을 지원하기 때문에, 수많은 시스템 장치들을 다양한 형태와 조합으로 연결해 고객의 요구에 맞는 대규모 시스템을 구축하는 데 용이하다. 파네시아는 이번 전시회에서 CXL 3.x 스위치를 활용해 CXL 서버 노드를 여러 개 연결해 구축한 'CXL Composable Server'도 출품했다. 각 서버 노드에는 파네시아의 또 다른 제품인 CXL IP를 활용해 개발한 CPU, GPU, 메모리 장치 등이 종류별로 장착돼 있다. 덕분에 고객들은 그때그때 필요한 장치가 장착된 노드를 추가로 장착해 수요에 알맞은 형태로 시스템을 구축할 수 있다. 파네시아는 해당 프레임워크를 기반으로 검색증강생성(RAG), 대규모언어모델(LLM) 등의 AI 응용 및 과학 시뮬레이션을 가속하는 데모를 시연하며, 행사에 참석한 CXL 전문기업들로부터 많은 주목을 받았다. 파네시아 관계자는 “CXL 3.x 스위치 기술을 다룬 발표와 출품은 파네시아가 유일했다”며 “CXL 컨소시엄의 리더들에게도 CXL 3.x 스위치는 새로운 기술이기에, 이번 파네시아의 출품작과 발표에 많은 관심을 보인 것 같다”고 말했다.

2025.05.07 14:56장경윤

"국산 AI 추론 비용 잡는다"…코난테크놀로지, 이종 반도체 분산추론에 '승부수'

코난테크놀로지가 인공지능(AI) 반도체 기반 분산 추론 및 모델 최적화 기술 개발에 나선다. 다양한 AI반도체를 연동하는 기술을 확보해 추론비용을 낮추고 국내 AI 인프라의 자립성과 경쟁력을 끌어올리려는 의도다. 코난테크놀로지는 과학기술정보통신부가 추진하는 '이종 AI반도체용 분산 추론 및 모델 최적화 기술 개발' 과제에 선정됐다고 29일 밝혔다. 이 사업은 오는 2029년 12월까지 약 4년 9개월간 진행되며 총 104억원 규모다. 한국전자통신연구원(ETRI)이 주관을 맡고 코난테크놀로지를 비롯해 리벨리온, 서울대, 카이스트가 공동 연구에 참여한다. 이번 과제는 신경망처리장치(NPU)와 인메모리컴퓨팅(PIM) 등 다양한 AI반도체를 활용하는 환경에서 효율적인 분산추론과 모델 최적화를 구현하는 것이 목표다. 이를 통해 AI모델을 유연하게 구동하는 서비스 프레임워크, AI가속기 기반 자원 스케줄링 시스템, 사용자 단말 중심의 거대언어모델(LLM)-검색증강생성(RAG) 기반 통합 실증 서비스가 개발될 예정이다. 코난테크놀로지는 이 중 LLM-RAG 분산추론 통합 실증 서비스를 담당한다. AI 소프트웨어 기술력과 개발 경험을 살려 다양한 반도체 환경에서도 안정적인 AI 서비스를 구현할 계획이다. 이로써 고성능 분산추론 구조를 검증하고 향후 차세대 AI 인프라 상용화 기반을 마련한다. 더불어 이 회사는 다음달 13일 열리는 '2025 코난테크놀로지 AI쇼케이스-미디어 브리핑' 행사에서 '코난 LLM', '코난 RAG-X'를 포함한 신제품을 공개할 예정이다. 이 자리에서는 향후 사업화 전략도 소개한다. 오창민 코난테크놀로지 언어음성연구소 상무는 "국내 AI 인프라의 기술 자립을 위한 핵심 과제에 참여하게 돼 의미가 크다"며 "이종 AI반도체 기반 추론 환경에서 고도화된 실증 서비스를 현실화하고 차세대 AI 인프라 상용화에 기여하겠다"고 밝혔다.

2025.04.29 15:59조이환

디노티시아, 국내 최초 '벡터 DB' 상용화 첫 발…"검색 성능 2배"

"디노티시아의 국내 최초 벡터 데이터베이스(DB)는 소프트웨어 만으로 기존 상용화 서비스 대비 2배 빠른 검색 성능을 구현했다. 올해 하반기에 출시되는 전용 칩을 결합하면, 성능은 10배까지 높아질 수 있다. 효율성이 중요한 미래 AI 시대에서 중요한 기술이 될 것이다" 정무경 디노티시아 대표는 22일 서울 본사에서 기자간담회를 열고 회사의 핵심 기술 및 사업 방향에 대해 이같이 밝혔다. 국내 최초 벡터 데이터베이스 서비스 출시…검색 성능 2배 디노티시아는 장기기억 AI 및 반도체 통합 솔루션 전문기업이다. 국내 최초의 벡터 데이터베이스인 '씨홀스(Seahorse)' 개발에 성공해, 이달 SaaS(서비스형 소프트웨어) 클라우드 버전을 베타 형태로 공식 출시했다. 벡터 데이터베이스는 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템이다. 쿼리의 의미적 유사성을 인식하고 맥락을 파악한다는 점에서, 단순한 키워드 검색 대비 뛰어난 성능을 구현한다. 이를 '시멘틱 서치'라고도 부른다. 씨홀스 클라우드는 클라우드 네이티브 아키텍처를 기반으로 한다. 고성능 벡터 데이터베이스를 웹 환경에서 간편하게 사용할 수 있도록 구현됐다. 복잡한 하드웨어 조달이나 소프트웨어 설치를 요구하지 않아 편의성도 뛰어나다. 이번 SaaS 버전은 기존 상용 및 오픈소스 벡터 데이터베이스 대비 약 2배 빠른 검색 성능을 소프트웨어만으로 구현했다. 또한 세계 최초로 MCP(모델 컨텍스트 프로토콜)를 지원하는 'RAGOps(외부 데이터를 검색해 이를 바탕으로 응답을 생성하는 기술 체계) 서비스도 함께 제공할 계획이다. 정 대표는 "현재의 LLM(거대언어모델)은 너무 방대한 양의 데이터를 처리해야 하기 때문에, 보다 효율성이 높은 AI 모델 및 서비스에 대한 수요가 커지는 추세"라며 "디노티시아는 소프트웨어 뿐만 아니라 하드웨어까지 개발해 AI 모델의 효율성을 극대화하는 벡터 데이터베이스 기술을 개발할 것"이라고 밝혔다. 전용 칩 결합하면 성능 10배…대형 고객사 확보 등 성과 씨홀스는 오는 24일부터 공식 홈페이지를 통해 국내 클로즈 베타 서비스가 시작된다. 사용자는 씨홀스 클라우드와 구글 드라이브를 연동해, 수백 개의 문서 속에서 의미와 맥락에 맞는 정보를 빠르게 찾을 수 있다. 씨홀스의 차기 버전은 디노티시아가 자체 개발한 벡터 데이터베이스 전용 반도체 VDPU(벡터 데이터 프로세싱 유닛)로 성능을 한층 끌어올릴 계획이다. 반도체가 결합된 경우, 씨홀스는 기존 대비 최대 10배 높은 성능을 구현할 수 있게 된다. 이를 통해 TCO(총소유비용)를 80% 이상 절감할 수 있다는 게 디노티시아의 설명이다. 해당 칩은 TSMC의 12나노미터(nm) 공정을 활용해 제조된다. 올해 하반기에는 FPGA(필드 프로그래머블 게이트 어레이) 버전이 출시되며, 내년에는 ASIC(주문형반도체) 형태로 탑재될 예정이다. 노홍찬 디노티시아 CDO(최고데이터책임자)는 "씨홀스는 이미 대형 고객사와 계약을 체결하는 등 성과를 거두고 있다"며 "씨홀스를 활용하면 CPU 서버 시스템을 10분의 1로 줄이거나, GPU를 5분의 1로 줄일 수 있어 매우 효율적"이라고 강조했다.

2025.04.23 12:58장경윤

"내부 문서와 웹 검색을 한 번에"…코난테크놀로지, 기업용 AI 'RAG-X' 첫 선

코난테크놀로지가 기업용 생성형 인공지능(AI) 시장 공략에 나선다. 내부 데이터와 외부 정보를 동시에 아우르는 검색 기술으로 다양한 산업군의 실무 자동화 수요를 충족시키기 위해서다. 코난테크놀로지는 오는 24일부터 사흘간 서울 삼성동 코엑스에서 열리는 '2025 월드IT쇼(WIS 2025)'에 참가해 '코난 RAG-X'를 첫 공개한다고 21일 밝혔다. 행사 부스는 코엑스 3층 C홀에 마련되며 현장에서는 제품 시연과 함께 다양한 활용 시나리오도 소개될 예정이다. '코난 RAG-X'는 생성형 AI 기술과 정밀 벡터 검색 기반의 검색증강생성(RAG) 구조를 결합한 솔루션이다. 코난테크놀로지가 지난 20여년 간 축적한 검색 노하우를 토대로 사내 문서와 데이터베이스(DB), 회계·인사 등 레거시 시스템은 물론 외부 웹사이트와 공공 데이터까지 통합 분석할 수 있도록 설계됐다. 기존 생성형 AI가 외부 검색에만 의존해 기업 환경에서의 실효성이 떨어졌던 것과 달리 '코난 RAG-X'는 기업 내부 자산과 외부 지식을 유기적으로 연결해 실질적인 업무 자동화를 가능하게 한다는 점에서 차별화된다. 지난달 사내 베타 테스트를 마쳤으며 이번 월드IT쇼를 통해 처음 대외적으로 선보인다. '코난 RAG-X'의 활용 가능 분야는 은행, 제조, 공공기관 등으로 다양하다. 일례로 금융기관의 리스크 관리 부서가 해당 업종의 대출 연체율 변화와 특정 기업의 자금 흐름을 실시간으로 점검하는 데 활용할 수 있다. 내부 데이터 기반의 통계 분석과 함께 국토교통부, 금융감독원 등 기관 자료 및 웹 검색 결과까지 종합적으로 반영해 대응 보고서 작성에 필요한 인사이트를 자동 생성한다. 이 같은 구조는 기존 생성형 AI에 대한 신뢰성과 정확성 문제를 보완할 수 있다는 점에서도 주목된다. 코난테크놀로지는 '코난 RAG-X'를 통해 AI 도입 시 가장 큰 장벽으로 꼽히는 내부 자산 보호와 외부 정보 활용 간의 균형을 동시에 충족시킨다는 계획이다. 더불어 코난테크놀로지는 다음달 13일 예정된 '2025 코난테크놀로지 AI쇼케이스 : 미디어 브리핑' 행사에서도 'RAG-X'를 포함한 신규 생성형 AI 제품군을 추가로 소개할 예정이다. 박영진 코난테크놀로지 팀장은 "'코난 RAG-X'는 생성AI의 신뢰성과 활용 가능성을 극대화한 제품"이라며 "업무 현장에서 실제 쓰일 수 있는 기업형 AI로 자리잡도록 적극적인 사업 전개에 나설 것"이라고 말했다.

2025.04.21 16:06조이환

디노티시아·하이퍼엑셀, AI칩 결합해 최적 추론 시스템 개발

인공지능(AI)·반도체 통합 솔루션 전문기업 디노티시아는 AI 반도체 설계 팹리스 스타트업 하이퍼엑셀과 공동으로 'RAG(검색증강생성) 최적화 AI 추론 시스템' 개발에 나선다고 20일 밝혔다. 이번 협력은 디노티시아의 벡터 데이터 연산 가속기 칩(VDPU)과 하이퍼엑셀의 거대언어모델(LLM) 가속기 칩인 'LLM 프로세싱 유닛(LPU)'을 결합해 하나의 통합 시스템으로 구현하는 방식으로 진행된다. AI 서비스 분야에서 데이터 검색의 중요성이 점차 커지고, 데이터의 모달리티(modality)도 다양해지며 양이 늘어나면서, 더 빠른 데이터 검색이 점점 더 요구되고 있다. 기존 시스템은 소프트웨어에 의존해 데이터를 검색하고, LLM 기반의 GenAI 과정을 별도로 처리해 응답 속도가 느리고 전력 소모가 많았다. 디노티시아는 벡터 데이터베이스 연산 가속기 칩, VDPU를 활용해 AI가 대규모 멀티모달 (Multi-modal) 데이터를 실시간으로 검색·활용할 수 있도록 제공하고, 하이퍼엑셀은 LPU 칩을 통해 AI 모델의 연산 성능을 극대화 한다. 양사는 이 두 칩을 결합해, 검색과 추론을 동시에 처리하는 세계 최초의 RAG 특화 AI 시스템을 완성할 계획이다. 정무경 디노티시아 대표는 “LLM 서비스가 확산되면서 데이터 검색에 대한 요구사항이 급격히 늘어나고 있다”며 “이번 협력을 통해 AI 모델의 추론뿐 아니라 데이터 검색 기능까지 최적화한 새로운 개념의 AI 시스템을 선보이겠다”고 말했다. 김주영 하이퍼엑셀 대표는 “AI 연산의 병목 현상을 해결하고, 성능과 효율성을 동시에 확보하는 것이 AI 반도체의 핵심 과제”라며 “이번 협력을 통해 RAG와 LLM을 최적화한 AI 시스템을 구축함으로써, AI 시스템 운영 방식을 혁신하는 중요한 전환점이 될 것”이라고 말했다.

2025.03.20 10:42장경윤

[AI는 지금] 검색 시장에 부는 AI 바람…글로벌 포털, 생존 전략 재편한다

인공지능(AI) 검색이 기존 검색 시장을 변화시키고 있다. 기존 키워드 검색이 여러 링크를 클릭해야 하는 번거로움을 수반했던 점과 달리 직접 답변을 제공하는 방식으로 진화하고 있기 때문이다. 이러한 변화 속에서 국내외 검색 엔진 업계는 새로운 환경에 적응하기 위한 생존 전략을 모색해야 하는 상황에 놓였다. 17일 업계에 따르면 해외에서는 이미 AI 검색 서비스가 빠르게 확산하며 검색 시장의 주류로 자리 잡고 있다. 대표적인 서비스로는 퍼플렉시티, 오픈AI '챗GPT 서치', 구글 'AI 오버뷰' 등이 있다. 이들 서비스는 기존 검색 방식보다 빠르고 직관적인 정보를 제공하며 사용자의 검색 경험을 근본적으로 변화시키고 있다. 퍼플렉시티는 AI가 질문에 대한 직접적인 답변을 제공하며 검색 결과의 출처를 명확히 표시해 신뢰도를 높이는 것이 특징이다. 오픈AI '챗GPT 서치'는 기존 '챗GPT'에 탑재 돼 기존 검색 엔진과 차별화를 꾀했다. 구글 'AI 오버뷰'는 생성형 AI를 활용해 검색 결과 상단에 요약된 정보를 제공하며 링크 탐색을 통해 추가 정보를 찾을 수 있도록 구성됐다. 이들 AI 검색의 가장 큰 특징은 기존 키워드 검색과 전혀 다른 방식으로 정보를 제공한다는 점이다. 기존 검색 엔진은 사용자의 입력 키워드를 기반으로 연관 웹사이트 링크를 나열해 사용자가 추가적으로 정보를 찾아야 하는 식이었다. 반대로 AI 검색은 문맥을 이해하고 맞춤형 답변을 직접 생성해 제공한다. 이는 사용자가 원하는 정보를 보다 빠르게 찾을 수 있도록 지원하지만 검색 광고 클릭률 감소를 유도할 가능성이 있다. 이러한 특성은 이미 기존 검색 엔진의 시장 점유율에도 영향을 미치고 있다. 구글의 글로벌 검색 시장 점유율은 지난해 말 91.58%에서 90%로 소폭 하락했다. 이는 지난 2015년 이후 최초로 발생한 이례적 현상으로, 올해 미국 내 검색 광고 점유율도 50.5%에서 48.3%로 감소할 것으로 전망된다. 검색 시장의 구조적 변화도 불가피하다. 기존 검색 엔진들은 광고 기반 수익 모델에 의존하고 있는 만큼 AI 검색이 대중화될 경우 핵심 비즈니스 모델이 흔들릴 가능성이 크다. AI가 직접적인 답변을 제공하는 방식이 확산되면 검색 광고 노출 기회가 줄어들어 수익 감소로 이어질 수 있기 때문이다. 업계 전문가들도 우려를 제기하고 있다. 로샤트 아드나니 엠앤씨사치퍼포먼스 아태지역 매니징 디렉터는 "제품 차원에서 직면한 도전 과제로 인해 구글은 시장 점유율 축소에 더 큰 영향을 받을 수 있다"며 "'챗GPT'가 이미 소비자 검색 행동을 변화시킨 와중에 검색 전문 AI 기술이 검색 패턴을 재편할 가능성이 크다"고 말했다. 국내에서도 AI 검색의 확산으로 검색 시장의 구조적 변화가 가속화되고 있다. 이러한 흐름 속에서 카카오는 지난 13일 다음을 독립 법인으로 분사하기로 결정했다. 카카오 관계자는 "재도약을 위해 분사를 준비하고 있다"며 "법인 독립을 통해 다양한 실험이 가능한 환경을 조성하고 독자적인 의사결정 구조를 갖춰 경쟁력을 강화할 것"이라고 밝혔다. 다만 이는 AI 검색 기술이 기존 검색 엔진을 대체하는 움직임이 본격화되는 가운데 다음의 검색 시장 점유율이 2.72%까지 하락하면서 불가피한 선택이 된 것으로 보인다. 실제로 카카오는 다음을 분사하는 동시에 지난해에 AI 서비스 '카나나'를 발표하고 지난 2월 오픈AI와 파트너십을 체결하는 등 AI 중심 기업으로의 전환을 가속화하고 있다. 이외에도 AI 검색 기술을 활용한 서비스가 국내에서 속속 등장하고 있다. 네이버는 AI 검색 서비스 '큐(Cue:)'를 통해 생성형 AI 기술을 접목한 새로운 검색 방식을 도입했다. 네이버 '하이퍼클로바X' 모델을 기반으로 개발된 '큐'는 복잡한 질의를 분석하고 검색 증강 생성(RAG) 기술을 활용해 보다 정교한 답변을 제공한다. 특히 대화형 검색을 지원해 사용자의 이전 질문을 기억하고 맥락을 반영한 지속적인 검색이 가능하다. '큐'는 지난 2023년 9월 시범 출시돼 현재 PC 버전으로 제공 중이며 올해부터는 네이버 통합검색과 본격적으로 연계될 예정이다. 또 쇼핑·예약 등 맞춤형 서비스와의 연계를 통해 활용 범위가 확대될 것으로 예상된다. 이같은 상황에서 오픈리서치의 '오오에이아이(oo.ai)' 역시 주목받고 있다. 이 회사는 김일두 대표 등 카카오브레인 출신 AI 전문가들이 설립한 기업으로, 지난해 7월 창업과 동시에 100억원 규모의 시드 투자를 유치하며 기대를 모았다. 오픈리서치는 이 솔루션을 통해 AI 기술을 활용해 검색어를 분석하고 맥락을 이해하여 신속하고 정확한 검색 결과를 제공하는 것을 목표로 한다. 오픈리서치에 따르면 '오오에이'는 기존 AI 검색 서비스보다 10배 이상 많은 참고 자료를 활용하며 검색 시간이 3초 이내로 단축했다. 이는 기존 검색 엔진이 7~8개의 문서를 참고하는 것과 비교해 압도적인 차이를 보인다. 특히 퍼플렉시티 '프로'와의 비교에서도 검색 속도와 데이터 활용량 측면에서 우위를 점했다. '프로'가 유료 서비스로 운영되는 것과 달리 무료로 제공된다는 점도 차별화 요소다. 이러한 접근 방식은 AI 검색의 대중화를 촉진할 가능성이 크다. 커머스 분야에서도 강점을 보인다. 단순한 가격 비교를 넘어 소비자 맞춤형 정보를 제공할 수 있도록 설계됐다. 일례로 '당뇨병 환자에게 적합한 사과'를 검색하면 사과 품종별 당도와 식이섬유 함량을 분석해 최적의 제품을 추천하는 방식이다. 이러한 기능은 소비자들에게 더욱 정확하고 유용한 검색 경험을 제공할 것으로 예측된다. 김일두 오픈리서치 대표는 "'오오에이아이'는 신속한 속도, 높은 정확성, 직관적인 인터페이스로 차별화된 검색 경험을 제공하는 차세대 '검색 코파일럿'"이라며 "기존 검색에서는 찾기 어려웠던 정보들까지 답변해 사람들이 가장 편하게 많이 사용하는 AI 검색 서비스로 거듭나겠다"고 강조했다.

2025.03.17 16:52조이환

디노티시아, 파인더스와 '보험 AI' 공동 개발 협력 체결

인공지능(AI) 전문기업 디노티시아는 보험 설계사 비교 플랫폼 '보인다'를 운영하는 파인더스와 보험 AI 솔루션 공동 개발을 위한 전략적 업무협약(MOU)을 체결했다고 25일 밝혔다. 파인더스는 2019년 설립된 국내 유일 인슈어테크 AI 스타트업으로, 보험 설계사 비교 플랫폼 '보인다'와 초개인화 'AI 설계사'를 운영하며, 보험 판매 시장에서 디지털 전환 혁신을 주도하고 있다. 이번 협약을 통해 디노티시아와 파인더스 양사는 ▲SLLM(경량 대형 언어 모델), ▲RAG (검색 증강 생성 기술)을 적용해 보험 데이터 분석의 정확성과 활용성을 극대화하고, 최적화된 AI 모델을 통해 보험 유통 및 판매 데이터를 기반으로 보험사의 리스크 평가 및 계약 심사 과정의 운영 효율성을 극대화하는 데 집중할 예정이다. 디노티시아의 '디엔에이(DNA: Dnotitia AI)' 파운데이션 모델은 Meta의 Llama 아키텍처를 기반으로 설계된 한국어 특화 AI 모델로, 한국 시장과 소비자의 언어적 특성과 보험 상품 구조에 최적화된 AI 서비스를 제공할 수 있도록 설계됐다. 특히 대규모 언어 모델의 한국어 평가 데이터인 KMMLU 벤치마크에서 최고 성능을 기록하며 한국어 이해 및 생성에서 우수성을 입증했다. 이를 바탕으로, 보험 관련 정보 제공의 정확도를 높이고, 소비자 맞춤형 보험 상품 추천과 고객 상담 서비스의 품질을 향상시켜 사용자 만족을 극대화할 것으로 기대된다. 또한 디엔에이 모델은 보험 관련 정보를 보다 정교하게 이해하고 활용할 수 있도록 지원해, 보험사의 리스크 평가 및 상품 추천의 정확도를 높이고 운영 효율성을 극대화하는 데 기여한다. 기존 대형 언어 모델 (LLM)은 높은 연산 비용과 자원 소모 문제를 수반하지만, 디엔에이 모델은 최적화된 경량 구조를 통해 동등한 AI 성능을 제공하면서도 연산 비용을 절감할 수 있어, 보험사가 보다 효과적으로 AI를 도입하고 활용할 수 있도록 돕는다. 정무경 디노티시아 대표는 “LLM 기반 AI 서비스가 본격적으로 우리 일상에 자리 잡고 있으며, 그 중에서도 보험 산업은 AI가 중요한 역할을 할 수 있는 분야 중 하나”라며 “보험은 일반 소비자들이 이해하기 어렵고, 잘못된 선택을 하기 쉬운 영역이다. 디노티시아는 LLM 기반 기술을 활용하여 보험 산업을 비롯한 다양한 분야의 전문 기업들과 협력하고, AI가 실질적인 가치를 제공할 수 있도록 지속적으로 확장해 나가겠다”고 밝혔다. 윤상일 파인더스 대표는 “보험 산업에서 AI 활용 사례가 점차 확장되는 만큼, 보험 판매시장에서 신뢰도와 소비자의 편의성을 높이는 것이 무엇보다 중요해졌다”며 “디노티시아와의 협업을 통해 'AI 설계사' 서비스를 고도화해, 보험에 대한 부정적인 인식을 개선하고 소비자가 신뢰할 수 있게 보험 판매시장을 디지털 전환하는 데 힘쓰겠다”고 말했다. 디노티시아와 파인더스는 이번 협약을 계기로 보험 산업 내 AI 기술 적용 범위를 점진적으로 확장하며, 지속적인 모델 개선을 통해 'AI 설계사' 서비스의 혁신을 실현할 계획이다.

2025.02.25 09:02장경윤

"업무 생산성 게임체인저"…코난테크놀로지, AI 기반 검색 플랫폼 'RAG-X' 공개

인공지능(AI) 기반 검색 기술이 기업 경쟁력의 핵심 요소로 떠오르는 가운데 기업 맞춤형 솔루션을 개발해온 코난테크놀로지가 자사 AI 검색 플랫폼의 본격적인 시장 진입을 예고했다. 코난테크놀로지는 기업용 AI 검색 플랫폼 '코난 검색증강생성(RAG)-X'의 베타 테스트를 진행 중이라고 13일 밝혔다. 이 솔루션은 기업 내부 데이터, 실시간 웹사이트, 고객 맞춤형 사이트까지 검색 결과를 통합해 AI가 즉각적인 답변을 제공하는 B2B형 플랫폼이다. '코난 RAG-X'는 단순 검색을 넘어 AI가 종합적이고 심층적인 답변을 생성하는 것이 특징이다. 기존 웹 기반 검색 서비스와 달리 검색 증강 생성(RAG) 기술을 활용해 내부 문서, 데이터베이스(DB), 외부 사이트 정보까지 아우르며 기업에 최적화된 정보를 제공한다. 일례로 사용자가 특정 산업 동향에 대한 최신 정보를 요청하면 AI가 내부 자료와 실시간 웹사이트 데이터를 분석해 핵심 변화를 정리하고 보고서 초안까지 생성한다. AI의 답변에는 모든 출처가 명확하게 표시되며 연관 검색어나 참고자료도 자동 추천된다. 이같은 기능을 통해 기업들은 수작업으로 정보를 찾을 필요 없이 원클릭 검색만으로 신속하고 정확한 답변을 제공받을 수 있다. 업무 생산성을 높이고 시장 분석·경쟁사 동향 파악·신제품 조사·정책 연구 등 다양한 분야에서 활용될 것으로 기대된다. 코난테크놀로지는 지난 1999년 설립 이후 AI 검색엔진 '코난 서치'를 포함해 2천900여 개 기업과 3천400건 이상의 프로젝트를 수행하며 기술력을 입증해왔다. 특히 자체 개발한 대규모 언어 모델 '코난 거대언어모델(LLM)'은 지난해 미국 스탠퍼드대학의 AI 생태계 분석 리포트 '에코시스템 그래프'에 포함되며 글로벌 경쟁력을 인정받았다. 현재 '코난 RAG-X'는 200여 명의 사내 인력과 일부 고객사를 대상으로 비공개 베타 테스트를 진행 중이다. 다음달 정식 출시를 목표로 서비스 안정성과 성능을 최적화하고 있다. 코난테크놀로지는 또 '코난 LLM'의 차세대 버전도 다음 달 공개할 예정이다. 최신 AI 연구 트렌드에 맞춰 추론 데이터와 인스트럭션 튜닝을 대폭 강화해 한층 업그레이드된 성능을 선보일 계획이다. 김영섬 코난테크놀로지 대표는 "검색 품질에 대한 기대가 높아지는 가운데 기업 맞춤형 검색 수요도 증가하고 있다"며 "새로운 생성형 AI 경험을 통해 고객의 비즈니스 혁신을 적극 지원하겠다"고 밝혔다.

2025.02.13 14:45조이환

NH농협은행 임직원, LG CNS 덕에 업무 '뚝딱'…이유는?

이달 초 상장한 LG CNS가 생성형 인공지능(AI) 플랫폼을 앞세워 금융 고객 확보에 속도를 높인다. 상장 직후 공모가 대비 10% 이상 하락세를 유지하며 침울한 상황이지만, 'AX(AI Transformation) 전문기업'이란 경쟁력을 앞세워 대외 사업 확대를 통해 반전을 노리는 분위기다. LG CNS는 NH농협은행과 생성형 AI 플랫폼 구축 계약을 체결했다고 12일 밝혔다. LG CNS는 두 차례의 기술비교평가(BenchMark Test, BMT)에서 우수한 AI 기술력과 비즈니스 활용 역량을 인정받아 NH농협은행의 AI 파트너로 최종 선정됐다. LG CNS는 이번 계약을 통해 NH농협은행의 ▲생성형 AI모델 ▲AI기반 지능형 기업문서 관리 서비스(Enterprise Search Agent) 등을 구축해 임직원들의 업무 효율성을 혁신한다. 또 고객 맞춤형 금융상품 추천 등 AI 뱅킹 서비스를 고도화해 NH농협은행을 이용하는 고객의 편의성을 대폭 향상할 계획이다. NH농협은행 임직원은 AI 에이전트나 내부 지식자료 검색 기능 등으로 짧은 시간 안에 업무 보고서, 보도자료, 마케팅 자료 등을 정확하고 손쉽게 작성할 수 있다. 예를 들어 "중소기업 대출 상품 소개자료를 만들어줘"라고 AI에게 요청하면, 정보화한 워드(Word), 파워포인트(PowerPoint), PDF 등으로 작성된 기업 내부문서 파일을 검색해 맞춤형 세일즈 자료를 만들어준다. 특정 금융상품에 가장 적합한 기업고객을 빅데이터 분석으로 매칭해주는 AI 서비스나 마케팅 이미지 생성도 가능하다. LG CNS는 NH농협은행 생성형 AI 플랫폼 구축에 자사의 '댑 젠AI(DAP GenAI) 플랫폼'을 적용한다. 이 플랫폼은 엑사원(EXAONE), 챗GPT, 라마(Llama), 클로드(Claude) 등 고객이 원하는 생성형 AI 모델을 플랫폼에 도입해 전문 개발지식이 없는 사람도 손쉽게 AI 에이전트 같은 서비스를 개발할 수 있게 한다. 특히 LG CNS는 이 플랫폼에 LG AI연구원의 최신 AI 모델 '엑사원(EXAONE) 3.5'도 도입한다. 엑사원을 NH농협은행에 맞게 파인튜닝(Fine-Tuning)해 NH농협은행 전용 생성형 AI로 구축한다. 파인튜닝은 이미 훈련된 기존 AI 파운데이션 모델에 별도의 데이터를 추가적으로 학습시켜 특정한 목적에 맞게 재훈련하는 과정을 의미한다. LG CNS는 NH농협은행 생성형 AI 플랫폼의 검색 속도와 정확도도 강화한다. LG CNS는 자체 개발한 검색 증강 생성(Retrieval Augmented Generation, RAG) 솔루션인 '키룩(KeyLook)'을 적용해 한국어 검색역량을 획기적으로 개선했다. RAG는 생성형 AI가 사전에 학습한 데이터 범위를 넘어서는 질문을 받거나, 학습데이터가 거짓 또는 과거의 데이터일 경우에도 정확한 답변을 할 수 있도록 AI에 정보검색 기능을 추가한 기술이다. AI가 잘못된 답변이나 거짓 정보를 전달하는 '할루시네이션(Hallucination)' 현상도 대폭 개선할 수 있다. LG CNS가 NH농협은행의 선택을 받게 된 것은 우수한 기술력을 입증했기 때문이다. 이곳은 최근 서울보증보험의 기업 내부문서검색 서비스 개념검증(PoC, Proof of Concept)도 성공적으로 수행해 주목 받고 있다. 개념검증은 사업 효용성을 판단하는 기술검증 과정이다. 또 LG CNS는 생성형AI 서비스 개발 과정에서 복수의 LLM을 활용하는 고객 맞춤형 '멀티 엔진(Multi-Engine)' 전략을 본격화하고 있다. 기업마다 업무·시스템 환경, 비즈니스 목적이 각양각색인 만큼 고객에게 가장 적합한 기술을 적용하기 위해서다. LG CNS는 마곡 본사에 '젠 AI 스튜디오'라는 AI 특화 공간이자 조직을 마련해 어떻게 기업 고객들이 생성형 AI를 효과적으로 비즈니스에 접목할 수 있을지에 대한 컨설팅도 제공하고 있다. 고객들은 '댑 젠AI 플랫폼', '멀티모달 엔진 드래그(DRAG)'와 같은 LG CNS의 자체 생성형 AI 솔루션을 이곳에서 경험해볼 수 있다. 또 이곳에선 마이크로소프트, 구글, AWS 등 글로벌 빅테크 기업들의 선진 생성형 AI 솔루션도 체험 가능하다. 이를 기반으로 평소 갖고 있었던 생성형 AI 도입 관련한 다양한 고민을 LG CNS 생성형 AI 전문가와 함께 논의할 수 있다. 현신균 LG CNS 사장은 "금융 서비스 경쟁력은 AI와 빅데이터를 기반으로 더욱 빠르고 개별화된 고객 서비스를 제공하는데 달려 있다"며 "앞으로도 금융고객의 AX 비즈니스 혁신을 위해 기업용 생성형 AI 기술을 고도화할 것"이라고 강조했다.

2025.02.12 14:00장유미

"AI, 日 철도 서비스 혁신"…올거나이즈, 도쿄메트로에 '알리 플랫폼' 공급

올거나이즈가 인공지능(AI)를 통해 도쿄메트로의 고객 응대 속도를 높이고 사내 업무 효율성을 극대화한다. 올거나이즈는 도쿄메트로가 일본 철도기업 최초로 회사의 고객용 챗봇과 사내 AI 서비스를 동시에 도입한다고 11일 밝혔다. 회사는 '알리(Alli)' 플랫폼을 활용해 기존 챗봇을 고도화하고 고객센터 임직원을 위한 자동화 솔루션을 적용한다. 도쿄메트로 고객센터는 연평균 25만 건의 전화 문의와 10만 건의 이메일을 처리해야 한다. 올거나이즈의 AI 챗봇은 기존의 자주 묻는 질문(FAQ) 응답을 개선하고 공식 웹사이트와 내부 데이터를 바탕으로 최적의 답변을 생성한다. 이를 통해 고객 응대 지연을 줄이고 만족도를 높일 예정이다. 특히 기존에는 이메일로만 가능했던 분실물 접수 절차도 챗봇으로 간소화된다. 고객은 챗봇을 통해 개인정보, 분실 상황, 물건 정보 및 사진을 한 번에 입력할 수 있어 불필요한 추가 문의를 최소화할 수 있다. 일본어, 영어, 한국어 등 8개 언어를 지원해 외국인 관광객도 편리하게 이용할 수 있다. 사내 업무 자동화도 강화된다. 올거나이즈의 '알리 앱 마켓'을 활용해 고객센터 직원들은 응대 이메일 작성, 문서 요약, 보고서 작성 등 반복 업무를 AI로 처리할 수 있다. 특정 업무에 따라 오픈AI '챗GPT', 구글 '제미나이', 앤트로픽 '클로드' 등 다양한 거대언어모델(LLM)을 선택해 활용할 수도 있다. 이 외에도 올거나이즈는 LLM을 기반으로 AI 애플리케이션을 쉽게 개발할 수 있는 '알리 앱 빌더'와 기업 내부 문서를 검색해 활용하는 검색증강생성(RAG) 기술을 제공한다. 금융·공공기관을 위한 '알파 LLM 모델'도 함께 지원하며 다양한 LLM을 관리하고 최적화할 수 있는 기능도 포함됐다. 이창수 올거나이즈 대표는 "우리는 한국·일본·미국을 중심으로 390여 개 기업에 LLM 기반 AI 솔루션을 제공해 왔다"며 "도쿄메트로의 대규모 고객 응대와 사내 업무 자동화를 성공적으로 지원한 만큼 앞으로도 다양한 산업에 생성형 AI를 확대 적용해 나갈 것"이라고 밝혔다.

2025.02.11 18:11조이환

에너지기술연구원, 연구지원 부서에서 기술이전 계약따내 '화제'

정부출연연구기관 설립이래 처음으로 연구지원 부서에서 기술이전 계약 성과가 나왔다. 한국에너지기술연구원은 (주)아이티메이트에 'AI 활용 규정 챗봇 시스템'(검색증강생성 기술)을 기술이전하기로 하는 계약을 체결했다고 6일 밝혔다. 이전 기술은 AI를 활용한 채팅형 규정 세부 내용 답변 시스템이다. 사용자가 규정과 관련된 질문을 하면 시스템이 대규모 언어 모델(LLM)과 검색 증강 생성(RAG) 기술을 통해 최적의 답변을 도출하는 방식이다. 에너지연 송영배 지식정보실장은 "이를 이용하면 규정 검색에 들이는 시간을 10분의 1 수준으로 줄일 수 있다"며 ""출연연 연구지원 부서에서 개발한 기술이 기업에 이전되기는 처음"이라고 말했다. 이 AI 챗봇 시스템은 "규정을 속속 들여다본다"는 의미에서 '규봄이'라고 이름 지었다. 미리 학습된 데이터만 활용하는 대규모 언어 모델은 답변이 어려울 때 허위 정보를 제공하는 경우가 있어 이를 보완하기 위해 검색증강 생성 기술을 도입했다는 것이 개발진 설명이다. 규정 전문을 단어 수준으로 쪼개고, 쪼갠 단어를 수치화해 사용자의 질문을 수치화한 값과 가장 근접한 결과를 도출하는 기술이다. 검색 증강 생성 기술이 도출한 결과는 대규모 언어 모델에 전달되고 다시 문장 형태로 변환돼 사용자에게 제공된다. 에너지연은 현재 152개의 규정을 보유하고 있다. 단어 검색을 통해 원하는 정보를 찾고 정확한 의미를 해석하기에는 많은 시간이 소요된다. 반면 해당 시스템을 이용하면 원하는 규정을 즉시 확인할 수 있고 문장의 의미도 함께 해석돼 규정 검색에 들이는 시간을 대폭 줄일 수 있다. 또 검색 증강 생성 기술의 정밀도 평가 지표(RAGAS)를 활용한 결과, 시스템이 도출한 답변은 90% 이상의 높은 정확도를 기록했다. 에너지연은 규정 외에도 내부 게시판, 연구 논문 정보 등 모든 데이터의 적용이 가능해 기업과 기관의 특성에 맞는 다양한 형태로 활용할 수 있을 것으로 내다봤다. 기술을 이전받은 ㈜아이티메이트는 해당 기술과 기업이 보유한 AI 기술을 적용해 공공기관용 전사적 자원 관리 시스템(ERP)의 선진화를 추진할 계획이다. 송영배 실장은 “AI 챗봇 시스템을 통해 규정 검색의 효율성과 정보 접근성이 대폭 향상될 것"으로 기대하며 "향후 출연연 행정 업무의 효율화를 선도할 수 있는 기반이 마련된 것”이라고 밝혔다. ㈜아이티메이트 고재용 대표는 “회사가 보유한 전사적 자원관리 솔루션과 AI 기술을 결합하고 민간기업과 공공기관의 디지털 전환을 지원하는 선도 기업으로 자리매김하겠다”고 전했다. 한편, 에너지연은 AI를 활용 첨단 연구, 행정 효율화를 위해 고성능 그래픽처리장치(GPU)를 포함한 서버를 구축하고 운영 중이다.

2025.02.06 15:04박희범

AI센터 출범한 GS네오텍...AI선두 경쟁 가속

GS네오텍이 새해 인공지능(AI) 기술 개발과 도입을 선도하기 위해 기존 AI 태스크포스(TF)를 정식조직인 AI 센터로 전환하며 새로운 도약에 나선다. 선도적인 AI 연구를 위해 관련 기술을 연구해온 AI센터는 앞으로 고객과 조직 모두에게 실질적인 가치를 제공하는 AI의 활용에 초점을 맞춰 연구개발을 진행할 예정이다. 9일 서울 구로 GS네오텍 사옥에서 만난 김성혁 AI/ML 솔루션 아키텍터는 AI센터 새해 목표와 새해 주목받을 것으로 예상되는 신규 AI 기술을 소개했다. 새해 GS네오텍은 지속적인 연구 개발을 통해 확보한 기술역량과 성공 사례를 기반으로 새로운 비즈니스 기회를 창출하고, 기존 고객사의 문제를 혁신적으로 해결하며, 다양한 산업군에 AI 기술을 확대 적용할 계획이다. 이를 위해 AI센터를 중심으로 조직의 AI 활용 역량을 강화하는 데 중점을 두고 있다. 이상오 최고기술책임자(CTO)가 센터장을 겸직하며 이끄는 AI센터는 그동안 리더십 아래 조직의 기술적 기반을 강화하고, 고객 맞춤형 AI 솔루션을 제공하기 위한 연구를 수행했다. 내부적으로는 AI 기술을 활용한 워크플로우 자동화와 생산성 향상에 초점을 맞춰왔으며, 이를 통해 조직 구성원이 AI를 도구로 적극적으로 활용할 수 있도록 교육과 지원을 병행했다. 더불어 개념 증명(PoC)을 통해 고객사의 비즈니스 문제를 해결하는 데 중점을 두며, 제조업과 미디어 산업 등에서 실질적인 성과를 만들어내는데 주력했다. 김 아키텍터는 "AI TF는 선도적으로 AI를 연구하고 조직 내 역량을 확보하기 위해 2017년 말쯤 조직돼 꾸준히 운영돼 왔다"며 "그동안 AI와 관련된 다양한 프로젝트를 수행하고 연구를 지속하며 상당한 수준의 AI 역량을 내재화할 수 있었다"고 설명했다. AI센터는 새해 GS네오텍이 적극적으로 AI 기반 서비스와 고객 지원에 나선다는 의미를 담고 있다. 이를 위해 개발자를 비롯해 재무, 인사 등 조직내 다양한 업무분야에서 AI를 활용할 수 있는 서비스도 선보일 예정이다. 더불어 점차 다변화되고 복잡해지는 클라우드 환경에서도 각 기업에 최적화된 AI 모델과 업무 환경을 제공하기 위한 연구 및 개발도 강화한다는 방침이다. 이를 위해 GS네오텍은 AI센터를 중심으로 다양한 산업군에서 AI 기술이 실질적으로 어떤 변화를 가져올 수 있는지 탐구하고 있다. 김 아키텍터는 그래프RAG 기술에 주목하고 있다고 밝혔다. 그래프RAG는 기존의 단순 검색 방식을 넘어, 데이터 간의 관계를 구조화하고 맥락을 이해하여 보다 정확하고 심층적인 분석과 추론을 가능하게 한다. 그는 "그래프RAG는 대규모 문서나 데이터의 전체 내용을 한 번에 이해하거나 문서 내부의 주요 내용의 연관 관계를 정확하게 파악할 수 있다"며 " 이 기술은 대규모 데이터를 다루는 고객사에서 중요한 가치를 제공할 것"이라고 설명했다. 이를 통해 제조업에서는 제품 개발과 공급망 관리를 통합 연계하거나 미디어 기업이 보유한 길이가 긴 콘텐츠를 분석해 새로운 활용방안을 도출할 수 있다. 금융 분야에서는 거래 데이터의 상관관계 분석해 리스크 관리와 맞춤형 서비스를 구축하는 것도 가능하다. 김성혁 아키텍터는 "AI센터는 새해를 기술 개발과 비즈니스 전략의 융합을 통해 새로운 성장을 이루는 해로 만들기 위해 최선을 다할 것"이라며 "AI를 통해 고객사의 업무를 혁신하고 점차 불확실성이 커지는 시장 환경에서 공동 성장할 수 있는 기반을 지원하도록 하겠다"고 새해 포부를 밝혔다.

2025.01.09 15:27남혁우

"구글 비켜"…검색 시장 노리는 오픈AI, '챗GPT 서치' 무료 개방

오픈AI가 자사의 인공지능(AI) 기반 웹 검색 기능인 '챗GPT'를 출시 한 달 반만에 무료로 제공키로 하며 온라인 검색 시장 강자인 '구글'과의 경쟁에 본격 나섰다. 17일 테크크런치에 따르면 오픈AI는 크리스마스 시즌 동안 진행되는 '쉽마스' 행사 8일차에서 '챗GPT 서치'를 모든 챗GPT 사용자에게 제공한다고 발표했다. 이 기능은 'GPT-4o' 모델을 기반으로 작동하며 웹 검색을 통해 뉴스, 스포츠 점수, 주식 시세 등의 정보를 제공한다. '챗GPT 서치'는 사용자의 질문에 맞게 자동으로 웹 검색 여부를 판단한다. 사용자가 직접 검색을 요청할 경우 인터페이스의 '웹 검색하기' 아이콘을 통해 검색할 수 있다. 결과는 요약된 답변과 함께 사진이나 유튜브 동영상 등의 콘텐츠로 구성된다. 이전까지 '챗GPT 서치'는 프리미엄 사용자만 이용할 수 있었으나 이번 업데이트로 무료 이용자도 접근할 수 있게 됐다. 또 오픈AI는 검색 속도 개선과 함께 모바일 환경에서의 사용자 경험 최적화도 진행했다. 모바일 환경에서는 검색 시에 주소나 전화번호 등을 더 체계적으로 제공하며 iOS에서는 애플 지도와 연동돼 장소를 찾을 때의 사용성을 높였다. 여기에 고급 음성 모드에서도 '챗GPT 서치'를 사용할 수 있도록 개선했다. 이와 함께 오픈AI는 파트너사들의 피드백을 반영해 기사 검색시 '챗GPT 서치'가 요약하는 수준과 출처 선정 방식을 조정했다. 이는 AI 검색 도구가 언론사 트래픽 감소를 유발할 수 있다는 비판을 고려한 조치로 보인다. 실제로 일부 언론사들은 AI 기반 검색 도구가 뉴스 사이트 트래픽을 잠식한다고 우려를 표하고 있다. 연구에 따르면 구글의 AI 개요 기능만으로도 퍼블리셔 트래픽이 약 25% 감소할 수 있는 것으로 나타났다. 이번 일로 오픈AI는 전 세계 온라인 검색 시장 점유율 90%를 차지하고 있는 구글을 크게 위협할 것으로 보인다. 미국 투자은행 에버코어 조사에 따르면 '챗GPT'는 미국 내 사용자 규모가 빠르게 늘어 미국 검색시장 점유율 5%를 기록했다. 이는 마이크로소프트 빙의 점유율 4%를 넘어서는 비약적 성장세다. 반면 구글은 지난 6월 80%이던 점유율이 반년 만에 78%로 하락했다. 여기에 '챗GPT' 이용자 수도 빠르게 증가하고 있다. 현재 주간 활성 이용자 수는 2억5천만 명 수준으로 1년 새 1.5배 늘었다. 시장조사기업 가트너는 지난 2월 보고서를 통해 AI 에이전트 기반의 검색 방식이 자리를 잡으면서 2026년까지 구글 등 기존 검색 엔진 사용량이 25% 감소할 것이라고 예측했다. 오픈AI 관계자는 "파트너 의견을 반영해 '챗GPT 서치'가 보다 정교하게 작동하도록 개선했다"며 "사용자에게 유익한 정보를 제공하면서도 출처의 가치를 존중하겠다"고 밝혔다.

2024.12.17 09:55조이환

클라우데라, 'RAG 스튜디오'로 기업용 AI 시장 공략 가속

클라우데라가 기업용 인공지능(AI) 시장을 겨냥해 새로운 무기를 꺼내들었다. 클라우데라는 실시간 기업 데이터를 활용해 AI의 모든 가치를 실현할 수 있도록 지원하는 'RAG 스튜디오(RAG Studio)'를 12일 발표했다. 새로운 RAG 스튜디오는 고객이 실시간 기업 데이터를 사용해 몇 분 안에 RAG 챗봇을 배포할 수 있도록 지원한다. RAG 스튜디오는 코드가 필요 없기 때문에 기술 전문가가 아니어도 AI 애플리케이션을 쉽게 사용할 수 있다. 이는 비즈니스, IT 팀 간 AI 개발 협력 강화, 더 많은 사용자가 AI 도구를 활용할 수 있도록 한다. RAG 스튜디오는 온프레미스 또는 클라우드에서 안전하고 신뢰할 수 있는 실시간 데이터를 활용해 기업이 최첨단 기술을 통해 AI의 가치를 실현할 수 있도록 지원한다. AI 챗봇은 AI 서비스 중 가장 널리 사용되지만 기업들은 부정확한 응답으로 인한 리스크에 지속적으로 노출되고 있다. 챗GPT의 경우 어떤 작업을 하느냐에 따라 성공률이 0.66%에서 89%까지 크게 달라지는 것으로 나타났다. RAG는 검색 기반 시스템과 생성형 AI의 강점을 결합한 강력한 AI 패러다임으로, 개선된 설명가능성과 신뢰도를 통해 향상된 정확도와 문맥 관련성을 제공한다. RAG 지원 챗봇은 일반적인 정보에 의존하지 않고 실시간 기업별 데이터를 기반으로 질문에 답하기 때문에 AI 환각 현상을 현저히 줄여준다. 클라우데라는 RAG 스튜디오가 고객들의 기업 데이터 가치를 극대화하는 한편, 컴퓨팅 집약적 생성 모델에 대한 의존도를 줄여준다는 점을 강점으로 내세웠다. 또 클라우데라 플랫폼과 통합돼 비용이 효율적이고 안전한 AI 워크플로우를 제공하며 지속적인 모델 미세 조정을 제거해 이를 해결한다고 설명했다. 더불어 RAG 스튜디오는 생성된 결과물을 조직에서 승인한 데이터 소스에 직접 연결해 설명 가능성 및 추적 가능성을 내장함으로써 클라우데라의 AI 스택을 강화한다. 이를 통해 검증 가능하고 감사 가능한 데이터를 기반으로 AI 의사결정을 내리고 AI 기반 추천에 대한 투명한 추론을 제공한다. 클라우데라는 RAG 스튜디오가 의료, 금융, 정부 등 규제가 엄격한 산업의 조직들이 활용할 시 신뢰성을 높여줄 수 있다고 봤다. 아바스 리키 클라우데라 최고 전략 책임자(CSO)는 "신속한 고객 지원부터 정보 기반 제품 기반까지 RAG 스튜디오의 이점은 비즈니스 전반에 유효하다"며 "노 코드 RAG 스튜디오는 빠른 프로토타입 제작, 사전 구축된 통합, 운영 효율성을 제공하고, AI 전략을 올바르게 수립하고자 하는 기업들의 효율적인 도구로 기업용 AI를 가속할 것"이라고 설명했다. 최승철 클라우데라코리아 지사장은 "국내 데이터 시장은 AI 기술 도입에 대한 높은 관심을 보이고 있지만 많은 기업들이 데이터 사일로, 인프라 복잡성, 전문 인력 부족 등으로 도입에 어려움을 겪고 있다"며 "RAG 스튜디오는 복잡하며 데이터가 풍부한 환경을 탐색하고, 설명 가능성 및 추적 가능성을 통해 AI 솔루션을 확장하고 지속적인 모델 미세 조정을 제거하는 것을 지원할 것"이라고 밝혔다

2024.12.12 10:59장유미

LG, 생성형 AI '엑사원' 新버전 공개…오픈소스 AI 모델 중 '최고 성능'

LG AI연구원은 지난 8월 '엑사원(EXAONE) 3.0'을 공개한 지 4개월 만에 성능을 한층 끌어올린 최신 AI 모델 '엑사원 3.5'를 오픈소스로 공개했다고 9일 밝혔다. LG AI연구원은 '엑사원 3.0'을 범용 목적 경량 모델만 공개한 것과는 달리 '엑사원 3.5'는 ▲온디바이스용 초경량 모델(24억 파라미터) ▲범용 목적의 경량 모델(78억 파라미터) ▲특화 분야에 활용할 수 있는 고성능 모델(320억 파라미터) 등 3종을 모두 오픈소스로 공개했다. ■ 글로벌 오픈소스 AI 모델 중 최고 성능 보여 LG AI연구원은 엉뚱한 답변을 그럴듯하게 생성하는 환각을 최소화하고, 답변의 정확도와 신뢰성을 높이기 위해 실시간 웹 검색 결과나 업로드한 문서를 기반으로 답변을 생성하는 검색 증강 생성(RAG) 기술을 고도화하고, AI가 사용자가 입력한 질문을 단계별로 분해해 논리적으로 추론한 결과를 생성하는 기술(MSR)을 적용했다. '엑사원 3.5'는 입력하는 문장의 길이에 따라 다르지만 A4 용지 100페이지 분량의 장문도 한 번에 처리할 수 있다. LG AI연구원은 모델 성능 평가 결과를 담은 기술 보고서(Technical Report)도 함께 공개하며 글로벌 경쟁력을 갖춘 기술력에 대한 자신감을 보였다. LG AI연구원이 공개한 기술 보고서에 따르면 '엑사원 3.5'는 미국, 중국 등의 글로벌 오픈소스 AI 모델과의 성능 평가 비교에서 △실제 사용성 △장문 처리 능력 △코딩 △수학 등에서 세계 최고 수준이다. LG AI연구원은 성능 평가에 활용한 지표 20개의 개별 점수와 영역별 평균 점수도 모두 공개했다. 오픈소스로 공개한 '엑사원 3.5'는 온디바이스부터 고성능까지 3가지 모델 모두 연구 목적으로 활용이 가능하며, 누구나 모델을 확인하고 검증할 수 있다. LG AI연구원은 이번 오픈소스 공개가 개방형 AI 연구 생태계를 촉진하고 혁신의 속도 역시 높일 것으로 기대하고 있다. LG AI연구원 관계자는 “AI 기술이 국가별 주요 전략 자산이 되면서 자체 기술로 AI 모델을 개발하는 것은 국가 AI 경쟁력 제고에 기여한다는 데 의미가 있다”라고 말했다. ■ LG 임직원, 사내 보안 환경에서 엑사원 활용 LG AI연구원이 임직원 대상으로 기업용 AI 에이전트 '챗엑사원(ChatEXAONE)' 정식 서비스를 시작하며 'AI의 일상화 시대'로의 진입을 본격화했다. 이와 관련 LG 임직원들은 9일부터 전용 웹페이지에 접속해 가입하면 '챗엑사원'을 업무에 바로 활용할 수 있다. '엑사원(EXAONE)'을 기반으로 만든 '챗엑사원'은 정보 암호화, 개인 정보 보호 기술을 적용해 임직원들이 사내 보안 환경 내에서 내부 데이터의 유출 걱정 없이 업무에 활용할 수 있는 기업용 AI 에이전트다. LG AI연구원은 '챗엑사원'이 실시간 웹 정보 검색부터 문서 요약, 번역, 보고서 작성, 데이터 분석, 코딩까지 임직원들의 업무 생산성과 효율성을 높이는 데 도움을 줄 것으로 기대하고 있다. LG AI연구원은 '챗엑사원'에 '엑사원 3.5'를 적용하면서 성능을 고도화하고 '심층 분석(Deep)'과 '출처 선택(Dive)' 기능을 추가했다. '심층 분석'은 여러 개의 질문이 섞여 있는 복합 질문을 했을 때 '챗엑사원'이 이를 단계별로 나눠 분석하고 추론한 뒤 종합적인 답변을 하는 기능으로 정확하고 깊이 있는 보고서 수준의 결과물을 원할 때 사용할 수 있다. '출처 선택'은 ▲범용 ▲해외 사이트 ▲학술 자료 ▲유튜브 등 검색 범위를 선택해서 목적에 따라 정확한 출처에 기반한 답변을 확인할 수 있는 기능이다. '챗엑사원'은 14개 직무, 133개 업무별 특화된 지시문을 추천하고 맞춤형 답변을 제공하며 임직원은 용도에 따라 관심 업무를 설정해 사용할 수 있다. LG AI연구원은 임직원들의 피드백을 받으며 직무와 업무 분류를 계속 늘려갈 계획이다. '챗엑사원'은 현재 한국어 기준으로 단어 2만개(영어 단어 2만 3,000개)를 동시에 처리할 수 있는 3만 2,000 토큰(token)을 지원해 장문의 질문과 답변이 가능해졌고, 내년 상반기 중 12만 8,000 토큰으로 확장될 계획이다. ■ 설립 4주년 맞은 LG AI연구원…차세대 기술 준비 지난 2020년 12월 7일 설립해 4주년을 맞은 LG AI 연구의 싱크탱크인 LG AI연구원은 '엑사원 3.5' 이후를 준비하고 있다. 스스로 행동을 하는 액션 AI 연구를 진행해온 LG AI연구원은 2025년 거대행동모델(LAM)에 기반한 AI 에이전트(Agent) 개발을 목표로 하고 있다. 배경훈 LG AI연구원장은 “최근 생성형 인공지능 모델의 발전이 빨라져 업그레이드 속도전이 중요한 시기”라며 “산업 현장에 적용 가능한 초인공지능을 목표로 혁신의 속도를 높이고, 한국을 대표하는 프론티어 모델로 발전시켜 나갈 것”이라고 강조했다. LG AI연구원은 ▲구글 클라우드 ▲델 테크놀로지스 ▲미시간대 △아마존웹서비스 ▲엔비디아 ▲엘스비어 ▲유아이패스 ▲인텔 ▲잭슨랩 ▲토론토대 ▲파슨스 ▲피츠버그대 메디컬 센터(UPMC) 등과 글로벌 파트너십을 맺으며 엑사원을 비롯한 AI 기술로 실질적 성과를 창출하기 위한 생태계 확장에 나서고 있다. 한편 LG는 구광모 ㈜LG 대표가 미래 사업으로 공을 들이고 있는 AI 분야에서 'LG AI연구원'을 중심으로 지난 4년간 AI 전환 가속화를 추진하고 있으며, 미래 기술을 선점하고 인재를 영입하기 위해 전 계열사가 적극 나서고 있다.

2024.12.09 10:00장경윤

尹 계엄령 '충격'…오픈AI·퍼플렉시티·네이버는 이렇게 해석했다

윤석열 대통령이 지난 3일 비상계엄령을 선포하며 대한민국이 큰 충격에 휩싸였다. 이번 계엄령은 지난 1980년 이후 44년만에 처음으로 발동된 사례로, 국민은 물론 정치권과 국제 사회에까지 큰 파장을 불러일으켰다. 4일 업계에 따르면 이번 사건의 여파는 단순히 정치적 논란에 그치지 않고 경제와 사회 전반으로 확산되고 있다. 이러한 상황에서 인공지능(AI) 서비스들이 계엄령 사건을 어떤 방식으로 이해하고 사용자들에게 정보를 제공했는지에 대한 관심이 높아지고 있다. 주요 AI 서비스인 오픈AI '챗GPT', '퍼플렉시티', 네이버 '큐(CUE)'를 기자가 직접 테스트해본 결과 각 서비스가 가진 기술적 특징과 장단점이 뚜렷이 드러났다. 이에 따라 AI 기술이 정보 제공과 사회적 논의에서 얼마나 중요한 역할을 하고 있는지에 대한 확인이 가능했다. '챗GPT·퍼플렉시티' 정밀 정보 제공…RAG 기술 신속히 상용화 '챗GPT'와 '퍼플렉시티'는 검색증강생성(RAG) 기술을 기반으로 실시간으로 업데이트된 정보를 제공하며 높은 성능을 보였다. RAG는 대규모 언어 모델(LLM)과 실시간 정보 검색을 결합한 기술로, 이미 다양한 분야에서 상용화 및 활용되고 있다. 이에 기자가 '챗GPT'에게 "윤석열 대통령이 계엄령을 선포했는데 이를 최대한 알기 쉽게 정리해 줘"라고 질문하자 2초 만에 상세한 답변이 돌아왔다. '챗GPT'는 "윤석열 대통령이 3일 밤 비상계엄령을 선포했다"며 "이는 국가 안보 위협에 대응하기 위한 조치로 알려져 있으며 이에 국회가 즉각적으로 계엄 해제 결의안을 통과시켰다"고 사건을 간략히 정리했다. 또 관련된 역사적 배경과 헌법 조항까지 언급하며 종합적인 정보를 제공해 완성도를 높였다. '퍼플렉시티'도 마찬가지로 우수한 성능을 보였다. 기자가 동일한 질문을 던지자 '퍼플렉시티'는 검색을 통해 '챗GPT'와 유사한 답변을 제공했다. 다만 답에 각주 형태로 관련 뉴스 기사 링크를 총 28개 제공해 사용자가 추가 정보를 쉽게 확인할 수 있도록 했다. '챗GPT'도 RAG를 사용했을 때는 답변의 출처를 제공하나 퍼플렉시티 수준의 정밀성을 보여주지는 못하는 상황이다. 그럼에도 두 서비스 모두 RAG 기술을 활용해 최신 정보를 정확히 전달하고 사용자에게 필요한 맥락을 상세히 제공했다. 이는 빅테크가 주도하는 RAG 기술이 안정적으로 상용화되어 있음을 보여주는 사례다. 네이버 '큐' 베타 버전으로 한계…지속적 '성장' 가능성 보여 네이버 '큐'는 베타 버전으로 제공되는 대화형 AI 검색 서비스로, '챗GPT', '퍼플렉시티'와는 다른 방식으로 접근했다. 처음에 기자가 "포괄적으로 설명해달라"고 요청했음에도 "윤석열 대통령은 3일 밤 비상계엄령을 선포했다"며 약 3~4줄의 간략한 답변만을 제공했다. 이에 기자가 "좀 더 자세히 설명해줘"라는 프롬프트를 제시하자 '큐'는 담화 내용, 국회의 대응, 시민들의 반응 등 사건의 타임라인을 A4 용지 분량으로 상세히 설명하며 대화형 검색의 가능성을 보여줬다. 여기에 '퍼플렉시티' 유저 인터페이스(UI)와 유사한 각주도 제공돼 출처를 찾아보기도 수월했다. 네이버 '큐'는 현재 베타 버전으로, RAG 기술을 활용하고 있지만 '챗GPT'나 '퍼플렉시티'에 비해 상대적으로 느리게 시장에 뛰어 들었다는 평가를 받고 있다. 이는 거대 언어 모델과 RAG 개발에 막대한 비용과 자원이 소요되기 때문이다. 그럼에도 네이버는 AI 기술을 꾸준히 개선 중이며 내년 상반기에 새롭게 출시될 'AI 브리핑'에 '큐'를 통합해 최신 데이터를 기반으로 한 정보 요약, 문서 출처 강화 등 기능을 확대할 예정이다. 이러한 노력은 네이버가 강조하는 '소버린 AI' 개념의 일환으로 볼 수 있다. 현재 네이버는 국내 기반 기술을 지속적으로 발전시키고 유지해야만 해외 빅테크에 의한 종속을 막을 수 있다는 입장을 고수하고 있다. 그럼에도 불구하고 전문가들은 거대 언어 모델은 막대한 비용이 소요되는 기술이라는 점을 지적한다. 미국이나 중국 등의 테크 강국에 비해 기술적·재정적 제약을 겪는 상황에서 해외 빅테크를 따라가는 방식이 옳은 전략인지에 대해서는 업계 내에서도 의견이 엇갈리고 있다. 한 국내 AI 업계 관계자는 "'챗GPT'도 처음부터 완벽했던 것은 아니며 사용자 요구와 경쟁 서비스 흐름을 반영하면서 꾸준히 개선해왔다"며 "네이버 솔루션도 비슷한 방식으로 강화하면 국내 상황에서는 더 나은 성과를 낼 수 있을 것"이라고 전망했다. 다만 그는 "사용자 요구는 글로벌과 로컬 정보를 통합하는 방향으로 나아갈 가능성이 크다"며 "결국 이러한 흐름 속에서 누가 얼마나 효과적으로 대응하느냐가 경쟁의 핵심이 될 것"이라고 덧붙였다.

2024.12.04 18:40조이환

"급증하는 LLM 데이터 처리량, '벡터 DB'로 해결"

디노티시아는 LLM의 전력 및 비용 효율성을 획기적으로 높일 수 있는 '벡터 데이터베이스(DB)'를 개발하고 있습니다. 기존 소프트웨어만을 다루는 기업들과 달리, 전용 반도체를 개발해 기술력을 크게 높인 것이 차별점이죠. 이달 주요 학회에서 '업계 최초'로 반도체 기반의 벡터 데이터베이스 데모 버전을 공개합니다. 정무경 디노티시아 대표는 최근 서울 강남 소재의 본사에서 기자와 만나 회사의 핵심 기술 및 향후 사업 전략에 대해 이같이 밝혔다. 지난해 설립된 디노티시아는 AI 기반 데이터 솔루션 전문기업이다. 삼성전자, SK텔레콤, 사피온 등에서 시스템반도체와 스토리지 시스템, 데이터베이스 등을 두루 개발한 정무경 대표가 창업했다. LLM서 급증하는 데이터 처리량…'벡터 DB'로 해결 정 대표는 기존 LLM(거대언어모델)의 발전 방향이 갈수록 한계에 직면할 것이라고 내다봤다. LLM 구동에 필요한 데이터 처리량이 매우 빠르게 늘어나고 있는 반면, 반도체의 성능 향상 속도는 기술적 한계로 이를 따라가지 못하고 있기 때문이다. 정 대표는 "현재 LLM은 1조개에 달하는 파라미터(매개변수)를 메모리에 저장하고, 필요할 때마다 이를 전부 읽어서 계산해야 하기 때문에 데이터 처리량이 매우 방대하다"며 "메모리의 대역폭을 넓힌 HBM(고대역폭메모리)가 비싼 가격과 어려운 수율 확보에도 불구하고 엔비디아 등에서 적극 채용한 이유도 여기에 있다"고 설명했다. 이 같은 LLM의 비효율성을 해결하기 위한 기술 중 하나가 RAG(검색증강생성)다. RAG는 데이터로부터 AI가 필요로하는 특정 정보를 정확하게 검색해내는 기술로, 이를 활용하면 답변의 정확도 및 효율성을 높일 수 있다. 디노티시아는 이 RAG의 핵심 기술인 벡터 데이터베이스를 '씨홀스(Seahorse)라는 이름으로 개발하고 있다. 벡터 데이터베이스란 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템을 뜻한다. 정 대표는 "벡터 데이터베이스를 활용하면, 수 많은 데이터를 일일이 직접 들여다보지 않더라도 질문과 관련된 정보들이 자동적으로 추출될 수 있게 인덱스(색인)할 수 있다"며 "디노티시아는 전 세계 모든 고객사의 데이터를 벡터 데이터베이스해 효율적인 시맨틱 서치(사용자의 의도 및 문맥을 파악해 원하는 결과를 도출하는 검색)를 가능케 하는 게 목표"라고 밝혔다. 업계 최초 벡터 DB '전용 칩'으로 차별화…내년 매출 실현 목표 이미 업계에서는 벡터 데이터베이스를 개발하는 경쟁사들이 많이 있으나, 이들 기업은 소프트웨어 알고리즘만을 활용한다. 반면 디노티시아는 벡터 데이터베이스를 위한 '전용 칩'을 세계 최초로 개발해, 차별화된 경쟁력을 확보했다. 정 대표는 "소프트웨어만으로는 점점 더 커지는 데이터 처리량을 감당할 수 없는 시대가 곧 올 것"이라며 "때문에 디노티시아는 벡터 데이터베이스를 위한 가속기를 만들어, 소프트웨어와 하드웨어 모두 제공할 수 있도록 할 것"이라고 말했다. 이를 위해 디노티시아는 TSMC의 12나노 공정을 활용한 VDPU(벡터 데이터 프로세싱 유닛)를 개발하고 있다. 최근 FPGA(필드 프로그래머블 게이트 어레이) 형태의 데모 칩 개발이 완료돼, 이달 열리는 세계 최대 규모의 슈퍼컴퓨팅 기술 전시회 '슈퍼컴퓨팅(Super Computing) 2024'에서 처음 공개할 계획이다. 정 대표는 "디노티시아의 하드웨어 및 소프트웨어 기반의 벡터 데이터베이스를 활용하면 데이터센터의 전력 효율성은 10배 높아지고, TCO(총소유비용)은 80% 이상 절감할 수 있다"며 "향후 LLM급 성능을 갖춘 온-디바이스 AI가 구현된다면, 여기에도 적용될 수 있을 것"이라고 강조했다. 이후 디노티시아는 내년 FPGA 기반의 솔루션을 상용화하고, 내후년에는 ASIC(주문형반도체) 기반의 솔루션을 상용화할 계획이다. 회사 설립 2년만에 매출을 실현하겠다는 공격적인 목표지만, 정 대표는 이 같은 계획을 현실화할 수 있다는 자신감을 가지고 있다. 배경에는 뛰어난 기술력과 양질의 인력이 있다. 현재 디노티시아는 약 78명의 임직원을 보유하고 있으며, 이들 중 상당수가 반도체 및 소프트웨어 분야에서 상당한 경력을 쌓은 베테랑들이다. 정 대표는 "시맨틱 서치에는 AI와 데이터베이스 기술이 중요한데, 디노티시아는 우리나라 데이터베이스 분야에서 최고의 인력들을 많이 보유하고 있다"며 "AI 분야 역시 경력이 상당한 개발자들을 확보했다"고 밝혔다.

2024.11.20 09:45장경윤

델 테크놀로지스, 新 인프라·서비스 공개…AI 팩토리 '확대'

델 테크놀로지스가 인공지능(AI) 구축·운영을 간소화할 수 있는 새로운 인프라 솔루션과 전문 서비스를 발표해 고객사를 지원한다. 델 테크놀로지스는 '델 AI 팩토리' 포트폴리오에 신형 서버, 랙 시스템, AI 전문 서비스를 추가했다고 19일 밝혔다. 델은 이번 업데이트를 통해 대규모 AI 환경에서 데이터 접근과 관리의 효율성을 높이고 고성능 컴퓨팅을 지원할 계획이다. 이번에 공개된 '델 IRSS'는 공장 통합형 랙 스케일 시스템으로 델 스마트 쿨링 기술이 적용돼 플러그 앤 플레이 방식의 고효율 AI 인프라를 제공한다. 델은 설치 후 패키징 폐기물 처리와 노후 하드웨어 재활용 서비스도 지원해 지속 가능성을 강화할 예정이다. 델 파워엣지 'XE9685L'은 수랭식 4U 서버로 최대 96개의 그래픽처리장치(GPU)를 지원하며 AI와 머신러닝 워크로드에 최적화됐다. 공랭식 모델인 'XE7740'은 4U 크기에서 최대 16개의 GPU 구성이 가능해 생성형 AI 모델의 효율적 운영을 돕는다. 이같이 엔비디아 기반 델 AI 팩토리는 새로운 GPU 지원 옵션을 통해 최대 1.9배 성능을 향상시킨다. 또 신규 검색 증강 생성(RAG) 서비스 '델 에이전틱 RAG'를 도입해 대규모 데이터 세트에서 복잡한 쿼리와 RAG 작업을 개선할 수 있도록 했다. 델은 AI 구축을 간소화하기 위한 전문 서비스도 함께 선보였다. 지속 가능한 데이터 센터 구축, 데이터 관리 체계화, AI 네트워크 설계 서비스 등 다양한 분야에서 고객을 지원할 예정이다. 김경진 델 테크놀로지스 한국 총괄사장은 "AI를 구축하려는 기업들이 점점 복잡한 과제에 직면하고 있다"며 "진일보한 AI 솔루션을 통해 고객이 더 스마트하게 대응할 수 있도록 돕겠다"고 말했다.

2024.11.19 10:16조이환

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현