• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'RAG'통합검색 결과 입니다. (55건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

코히어 "AGI 아닌 '엔터프라이즈 AI' 집중…서울 허브로 亞 공략"

"우리의 목표는 범용인공지능(AGI) 경쟁이 아닙니다. 기업이 실제 현장에서 직면하는 비즈니스 문제를 해결하고 그 가치를 직접 수치화해 투자 대비 수익(ROI)으로 증명하는 '실현 가능한 인공지능(AI)'를 만드는 것입니다. 이 비전을 아시아 전역으로 확산시킬 최적의 허브는 바로 대한민국 서울입니다." 장화진 코히어 아시아태평양(APAC) 총괄사장은 최근 서울 강남에 위치한 코히어 코리아 오피스에서 지디넷코리아와 만나 이같이 밝혔다. 오픈AI, 앤트로픽 등의 거대언어모델(LLM) 기업들이 AGI 개발 무한 경쟁에 뛰어들 때 코히어는 '기업 문제 해결'과 '측정 가능한 ROI'라는 비전에 따라 서울을 중심으로 아태 시장을 공략하겠다는 선언이다. 25일 업계에 따르면 글로벌 AI 시장이 일반 소비자용 챗봇을 넘어 기업간거래(B2B) 시장으로 본격 확장되면서 데이터 보안과 비용 효율성을 갖춘 AI 솔루션에 대한 요구가 커지고 있다. 이같은 흐름 속에서 코히어는 지난달 한국에 APAC 허브를 설립하며 아시아 B2B 시장 공략의 출사표를 던졌다. 이러한 코히어의 결정은 오픈AI와 앤트로픽이 각각 싱가포르와 일본에 거점을 마련한 점과 대비되며 업계의 큰 주목을 받았다. 이는 지난 3월 창업자인 에이단 고메즈 최고경영자(CEO)가 직접 방한해 LG CNS와 파트너십을 발표하며 예고했던 국내 시장에 대한 본격적인 투자의 신호탄이다. 코히어의 전략은 AGI 개발 무한 경쟁에 뛰어든 경쟁사들과는 궤를 달리한다. 설립 초기부터 이들은 일반 소비자 시장이 아닌 명확한 ROI를 요구하는 엔터프라이즈 B2B 시장에만 집중해왔다. 이러한 철학은 최근 공식 출시한 에이전트 AI 플랫폼 '노스(North)'에 집약돼 있다. '노스'는 코딩 지식이 없는 현업 담당자도 손쉽게 AI 솔루션을 구축하고 배포하게 해주는 엔드투엔드(End-to-End) 플랫폼이다. 장 총괄사장은 "최근 MIT 보고서에 따르면 기업 AI 기술검증(PoC)의 95%가 실패하는데 이는 범용 AI가 기업 내부의 복잡한 시스템과 통합되지 못하기 때문"이라며 "'노스'는 바로 이 '통합의 문제'를 해결함으로써 기업이 실질적인 ROI를 달성하도록 돕는 솔루션"이라고 설명했다. 코히어의 자신감은 ▲보안 ▲비용 효율성 ▲다국어 지원이라는 세 가지 차별점에서 비롯된다. 장 총괄사장에 따르면 이중 핵심은 '보안'으로, 코히어는 외국계 기업임에도 대한민국 외교부 프로젝트를 수주하며 시장의 신뢰를 증명했다. 모든 솔루션을 고객사 데이터센터에 직접 설치하는 '온프레미스 배포'를 원칙으로 데이터가 외부로 유출될 가능성을 원천 차단했기 때문이다. 이같은 온프레미스 방식에는 막대한 하드웨어 투자 비용이 걸림돌이 될 수 있다. 이러한 '비용 효율성' 문제 역시 아키텍처 최적화로 해결했다는 것이 장 총괄사장의 설명이다. 그는 "경쟁사 모델이 16개 이상의 그래픽처리장치(GPU)를 요구할 때 우리의 LLM '커맨드'는 단 2개의 GPU만으로 동일하거나 더 나은 성능을 보인다"고 밝혔다. 마지막 강점은 '다국어 역량'이다. '커맨드' 모델은 한국어를 포함해 34개 언어를 공식 지원한다. 이러한 역량의 배경에는 "AI의 혜택이 영어권에만 집중돼서는 안 된다"는 철학 아래 100개 이상의 언어를 지원하는 오픈소스 모델 '아야(Aya)'를 개발한 비영리 단체 '코히어 랩스(Cohere Labs)'가 있다. 이 세 가지 강점의 조합이 코히어만의 '스윗 스팟(Sweet Spot)'을 만든다. 데이터 규제가 엄격한 금융, 공공, 헬스케어는 물론 에너지, 제조, 통신 등 국가 핵심 산업이 회사의 핵심 목표시장이다. 코히어의 기술적 깊이는 업계 최고 수준의 검색증강생성(RAG) 스택에서도 드러난다. 실제로 RAG 기술을 최초로 개발한 패트릭 루이스 코히어 에이전틱 AI 디렉터가 현재 직접 회사의 관련 솔루션 개발을 이끌고 있다. 장 총괄사장은 "미국의 한 헬스케어 기업은 우리 RAG의 '정확한 출처 제시(Citation)' 기능을 통해 환자 데이터 등 민감한 정보 검색에서 높은 신뢰도를 확보했다"고 소개했다. 국내 시장에서는 LG CNS와의 파트너십을 통해 초기 시장 개척의 발판을 마련한 상황이다. 장 총괄사장에 따르면 코히어의 기술적 우위, 특히 LLM을 특정 산업 환경에 맞춰 깊이 있게 미세조정(Customization)할 수 있는 역량이 파트너십의 핵심 동력으로 작용했다. 그는 "아키텍처 구조상 미세조정이 어려운 경쟁사들과 달리 우리는 LG CNS가 한국의 공공·금융 환경에 특화된 자체 LLM을 만들 수 있도록 지원했다"며 "공공·금융 분야의 성공 사례를 바탕으로 제조, 유통 등 다른 핵심 산업 분야에서도 한국 기업에 최적화된 솔루션을 제공해 나갈 것"이라고 밝혔다. 궁극적으로 코히어의 전략은 '소버린 AI'라는 시대적 요구와 맞닿아있다. 캐나다 토론토에 본사를 둔 이 회사는 미·중 패권 구도에서 비교적 벗어나 있어 각국의 데이터 주권 확보를 지원하는 최적의 파트너임을 자처한다. 온프레미스 배포를 통해 데이터 통제권을 고객에게 완전히 넘겨주고 오픈소스 모델 '아야'로 다국어·다문화 AI 기반을 제공하는 투트랙 전략이다. 특히 서울 허브는 단순한 영업 지사를 넘어 코히어의 아시아태평양 사업 전체를 이끄는 핵심 기지가 될 전망이다. 이미 본사 직속 머신러닝(ML) 엔지니어를 채용하며 테크 조직으로서의 면모를 갖췄고 최근 일본 지사장을 선임하는 등 아시아 전역으로의 확장을 준비하고 있다. 장 총괄사장은 "우리는 단순 소프트웨어 판매사가 아니라 기업의 문제를 함께 해결하고 ROI를 증명하는 '파트너'"라며 "전 세계 최고 수준의 전문가들과 함께 아시아태평양 지역의 비즈니스를 키워나가는 여정에 동참해달라"고 강조했다. 아래는 장화진 총괄사장과의 일문일답. Q. 오픈AI, 앤트로픽 등 다른 프론티어 AI 기업들은 일본이나 싱가포르를 첫 아시아 거점으로 삼았다. 이와 달리 코히어는 한국을 아시아태평양(APAC) 허브로 선택했다. 특별한 이유가 있나. A. 한국은 선진적인 디지털 인프라, 우수한 AI 인재, 고도로 발달된 기술 생태계를 모두 갖춘 곳이다. 특히 최근 정부와 기업 모두 '소버린 AI' 등으로 대표되는 AI 이니셔티브에 대한 관심과 수요가 매우 높다. 이러한 환경 덕분에 한국은 우리의 AI 솔루션을 가장 먼저 선보이고 아시아 전역으로 확산시킬 최적의 허브라고 판단했다. 이는 개인적으로 과거 여러 글로벌 테크 기업에서 일하며 얻은 확신이기도 하다. 한국 고객들은 요구사항 수준이 높고 기술적으로도 매우 앞서있다. 여기서 통하는 솔루션이라면 다른 어떤 시장에서도 성공할 수 있다는 의미다. Q. 여타 프론티어 AI랩들이 AGI 경쟁에 뛰어든 가운데 코히어는 수익화 가능한 기업 문제 해결에 집중하는 점이 인상적이다. 이러한 비즈니스 철학은 어디서 비롯됐나. (지난 2017년 생성형 AI의 기반 기술인 트랜스포머를 고안한) 에이단 고메즈, 닉 프로스트, 아이반 장이라는 세 공동창업자의 역할과 비전이 코히어의 전략에 어떻게 반영되고 있나. A. 실제로 우리의 목표는 AGI 경쟁이 아니라 기업이 실제 현장에서 직면하는 비즈니스 문제를 해결하고 그 가치를 직접 수치화해 개선하는 '실현 가능한 AI'를 만드는 것이다. 이것이 일반 소비자 시장이 아닌 엔터프라이즈 B2B 시장에 집중하는 이유다. 창업자 각자의 역할도 명확하다. 에이단 고메즈 CEO는 혁신을 통해 비즈니스 문제를 해결하는 데, 닉 프로스트 공동창업자는 차세대 AI 기술 개발과 사용자 경험(UX)에, 아이반 장 공동창업자는 실제 제품 개발을 총괄하는 데 집중한다. 특히 아이반은 이달 출시한 에이전트 AI 플랫폼 '노스' 개발을 직접 이끌었다. 여기에 공공 분야에도 관심이 많아 캐나다 정부와 협력하며 데이터 보안 및 주권(Residency) 문제에 깊이 관여하고 있다. 이 세 명의 공통된 비전은 "기업의 문제를 실질적으로 해결해 투자 대비 수익(ROI)을 신속히 실현하는 AI를 만들자"는 것이다. Q. 코히어의 제품 포트폴리오가 궁금하다. 핵심 제품인 노스(North), 커맨드(Command), 임베드(Embed), 리랭크(Rerank)는 각각 어떤 문제를 해결하며 이 솔루션들이 하나의 플랫폼으로서 어떻게 시너지를 내는가. A. 우리 제품군은 크게 파운데이션 모델과 이를 감싸는 플랫폼으로 나뉜다. 파운데이션 모델의 핵심은 '커맨드' LLM이다. 오랜 시간과 막대한 비용이 소요될 초거대 모델 대신 기업이 당장 효율적으로 쓸 수 있도록 최적화된 모델이다. 경쟁사가 수십 개의 GPU를 요구할 때 '커맨드'는 최소 단 2개의 GPU만으로도 비슷하거나 보다 나은 성능을 낸다. 특히 온프레미스 환경에서 아랍어 등 특정 언어의 다양한 방언이나 산업별 용어에 맞춰 미세조정이 가능한 것이 강점이다. 강력한 검색증강생성(RAG) 스택을 구성하는 '임베드(Embed)'와 '리랭크(Rerank)'도 있다. '임베드'는 100개 이상의 언어를 기반으로 텍스트는 물론 PDF, 이미지, 그래프 속 데이터까지 검색하고 '리랭크'는 이렇게 찾아낸 정보들 중 가장 정확하고 연관성 높은 답변의 순위를 매겨 제시한다. 이 모든 모델을 감싸는 것이 바로 에이전트 AI 플랫폼인 '노스'다. 이달 공식적으로 전 세계에 출시한 '노스'는 프로그래밍 지식이 필요 없는 노코드(No-code) 기반의 엔드투엔드 플랫폼이다. 최근 MIT 보고서에 따르면 기업 AI PoC의 95%가 실패하는데 이는 범용 AI 툴이 기업 내부의 전사적 자원관리(ERP), 데이터베이스(DB) 등 각기 다른 시스템과 연동되지 않아 실질적인 워크플로우에 적용될 수 없기 때문이다. 이 '통합의 문제'를 해결하는 것이 '노스'의 핵심이다. '노스'는 AI가 실제 업무 프로세스에 깊숙이 통합되도록 설계됐다. 이를 통해 기업들이 PoC 단계의 장벽을 넘어 실질적인 ROI를 신속히 달성하도록 돕는다. 즉, '커맨드', '임베드', '리랭크'가 엔진이라면 '노스'는 기업이 이 엔진을 손쉽게 활용해 AI 솔루션을 구축하고 배포하게 해주는 완성된 차체와 같다. Q. 외국계 기업임에도 대한민국 외교부 프로젝트를 수주한 사례가 놀랍다. 민감한 데이터를 다루는 공공·금융·헬스케어 기업들이 코히어를 선택하는 이유는 무엇인가. A. 핵심적인 이유는 온프레미스에 기반한 보안 역량이라고 본다. 공공·금융·헬스케어처럼 규제가 많은 산업에 있어 온프레미스 배포는 한국뿐만 아니라 아시아 및 글로벌 시장의 핵심 요구사항이다. 기업의 기밀문서가 외부 인터넷으로 나가는 것을 원천 차단해 보안 우려를 해소할 수 있기 때문이다. 우리는 이 지점에 주목해 우리의 모든 솔루션이 온프레미스 환경에서 완벽하게 작동하도록 설계했다. 특히 최근 주목받는 '에이전트 AI'를 제대로 활용하려면 이 지점이 보다 중요해진다. 에이전트 AI가 직원처럼 일하려면 그 직원이 접근할 수 있는 모든 내부 데이터베이스와 애플리케이션에 접근해야 하는데 클라우드 기반 AI는 보안 규제 때문에 이 접근이 막히는 경우가 많다. 우리는 '노스'를 통해 이 문제를 해결한다. '노스'는 업계 표준 기술인 모델 컨텍스트 프로토콜(MCP)을 기반으로, 온프레미스 환경 속에서도 구글·마이크로소프트(MS) 솔루션부터 SAP·오라클 등의 ERP, 이외 맞춤형 DB까지 기업이 사용하는 거의 모든 시스템과의 연결을 지원한다. 이같이 포괄적인 데이터 접근을 보안 걱정 없이 구현하기에 직원들은 에이전트 AI를 통해 효율적으로 일할 수 있게 된다. Q. 온프레미스 방식이 보안에는 유리하지만 GPU 클러스터 구축 등 막대한 초기 하드웨어 투자 비용이 부담으로 작용할 수 있다. 코히어는 이 비용 효율성 문제를 어떻게 해결했나. A. 온프레미스 AI 도입 시 고객들이 가장 우려하는 부분이다. 우리는 LLM 아키텍처를 기업 환경에 맞게 고도로 최적화해 이 문제를 해결한다. 앞서 언급했듯 경쟁사 모델이 제대로 성능을 내기 위해 16개 이상의 GPU를 필요로 하는데 비해 '커맨드' 모델은 단 2개의 GPU만으로도 동일하거나 보다 뛰어난 결과를 보여준다. 결과적으로 고객은 훨씬 적은 비용으로 온프레미스 AI를 구축하고 운영할 수 있다. Q. 한국뿐 아니라 일본, 동남아 등 다양한 언어가 공존하는 아시아 시장에서 다국어 능력은 필수적이다. 코히어 솔루션의 언어 역량은 어느 수준인가. A. '커맨드'는 공식적으로 한국어, 일본어, 중국어, 베트남어 등 34개 언어를 지원한다. 특히 아랍어의 경우 다양한 지역 방언들도 동시에 구사하는 등 우수한 언어 역량을 보여준다. 이러한 공식 지원 언어는 계속 확장해 나갈 계획이다. 이러한 역량의 배경에는 우리 비영리 단체인 '코히어 랩스'가 있다. 이 단체는 "AI의 혜택이 영어권에만 집중돼서는 안 된다"는 철학 하에 전 세계 AI 개발자들을 모아 100개 이상의 언어를 지원하는 오픈소스 모델 '아야(Aya)'를 개발했다. '아야'를 통해 확보된 기술력이 코히어의 상용 플랫폼에도 그대로 녹아들어 강력한 다국어 처리 능력을 갖추게 될 수 있었다. Q. 앞서 설명한 보안, 비용 효율성, 다국어 지원이라는 강점을 종합해 보면 코히어는 온프레미스·고규제 환경에서 사실상 경쟁자가 없는 독자적인 영역, 즉 '스윗 스팟'을 가지고 있는 것으로 보인다. A. 맞다. 우리의 경쟁력은 이 모든 요소를 동시적으로 제공하는 데 있다. 단순히 온프레미스에서 작동하는 에이전트 AI를 넘어 그 기반이 되는 LLM인 '커맨드'와 검색 스택인 '임베드' 및 '리랭크'까지 엔드투엔드로 제공하면서 동시에 특정 언어와 산업에 맞춰 미세조정할 수 있는 것은 현재 코히어가 유일하다고 본다. 이러한 면에서 볼 때 우리의 '스윗 스팟'은 바로 이 조합을 가장 필요로 하는 기업들이다. 대표적으로 데이터 규제가 엄격한 금융, 공공, 헬스케어 분야가 핵심 타겟이다. 그 외에도 국가 핵심 전략 산업인 에너지, 제조, 통신 분야의 글로벌 기업들과도 활발히 협력하고 있다. 벨 캐나다, 사우디 텔레콤 등이 좋은 사례다. Q. 회사의 RAG 스택 역시 업계에서 독보적인 강점을 보이는 것으로 알려져 있다. 이 기술력이 실제 고객 환경에서 가장 큰 차이를 만든 사례를 소개해달라. A. RAG 기술을 처음으로 개발한 패트릭 루이스가 현재 우리의 관련 솔루션 개발을 이끌고 있다. 덕분에 우리 RAG 스택은 업계 최고 수준이라고 자부한다. 그 효과의 가장 대표적인 사례는 미국의 한 헬스케어 기업이다. 생명과 직결되는 분야인 만큼 내부 데이터 검색의 정확성은 무엇보다 중요하다. 우리 RAG 솔루션은 이 기업의 방대한 내부 의료 프로토콜, 가이드라인, 환자 데이터 등을 기반으로 정확한 답변을 찾아준다. 더불어 우리의 강점은 '정확한 출처 제시'에 있다. 모든 답변에 근거가 된 문서의 출처를 명확히 밝혀주기 때문에 사용자는 언제든 원문을 직접 확인하며 정보의 정확성을 재차 검증할 수 있다. 이는 환각 현상을 억제할 뿐 아니라 결과에 대한 신뢰도를 극대화하는 핵심 기능이다. Q. 국내 시장에서는 LG CNS와의 협력이 가장 주목받았다. LG CNS를 첫 파트너로 선택한 이유는 무엇이며 이 파트너십이 외교부 프로젝트 수주와 같은 성과로 이어진 과정이 궁금하다. A. LG CNS는 규모가 크고 우수한 AI 인력을 보유했으며 동시에 금융권을 포함한 대외 사업에서 강력한 역량을 갖추고 있어 첫 파트너로 선택했다. 파트너십의 핵심은 'LLM 커스터마이제이션(미세조정)'에 있다. 아키텍처 구조상 미세조정이 어려운 경쟁사들과 달리 우리는 LG CNS가 한국의 공공·금융 환경에 특화된 자체 LLM을 만들 수 있도록 지원했다. 외교부 프로젝트는 이러한 협력의 대표적인 성공 사례다. 외교부는 수많은 내부 기밀문서를 다뤄야 하므로 온프레미스 환경이 필수적이었고 동시에 전 세계의 다양한 언어를 처리할 다국어 역량이 필요했다. 우리는 LG CNS와 함께 '똑똑한 AI 외교관'이라는 목표 아래 이 두 가지 핵심 요구사항을 모두 충족하며 프로젝트를 수주할 수 있었다. Q. LG CNS 외에 국내 시장에서 전략적으로 우선순위를 두는 다른 산업 분야나 파트너 유형이 있나. A. 우리의 '스윗 스팟'인 고규제 산업과 공공 분야를 계속해서 우선순위에 둘 계획이다. LG CNS와 집중하고 있는 공공·금융 분야 외에도 제조, 헬스케어, 통신, 에너지 등 국가 핵심 산업의 선도 기업들과 파트너십을 확대해 나갈 것이다. 이러한 모든 미래 협력의 중심에는 에이전트 AI 플랫폼인 '노스'가 자리하게 될 것이다. Q. 한국을 포함한 아태 시장에서는 데이터 주권과 각국의 상이한 규제를 존중하는 '소버린 AI'에 대한 요구가 커지고 있다. 국가별로 규제 환경이 다른 아시아태평양(APAC) 지역에 대응하는 코히어의 접근법은 무엇인가. A. 앞서 언급한 우리의 아키텍처 자체가 답이다. 우리 솔루션은 고객사의 데이터센터에 직접 설치하는 온프레미스 배포가 핵심이기 때문이다. 이를 통해 데이터 현지화(Localization), 보안, 개인정보보호 등 각국의 다양한 규제 요구사항을 원천적으로 충족시킨다. 가장 중요한 원칙은 "데이터 통제권은 전적으로 고객에게 있다"는 것이다. 고객의 데이터로 우리 모델을 미세조정하더라도 그 데이터는 절대 해당 기업이나 정부 기관의 방화벽 밖으로 나가지 않는다. 심지어 솔루션을 제공하는 우리조차도 고객 데이터에 접근하거나 들여다볼 수 없다. 기술을 제공할 뿐 데이터에 대한 모든 관리와 통제권은 고객이 갖는다. 이것이 우리가 다양한 규제 환경에 대응하는 방식이다. Q. AI 패권이 미국과 중국 중심으로 재편되는 가운데 한국, 캐나다, 프랑스, 인도 등이 제3의 AI 강국이 되기 위한 경쟁도 치열하다. 이 구도 속에서 코히어는 한국이 글로벌 AI 리더로 도약하기 위해 어떤 지원을 할 수 있나. A. 창업자인 에이단 고메즈가 캐나다 국적이듯 우리는 미국·중국 AI 패권 구도에서 비교적 벗어나 캐나다 토론토에 본사를 둔 기업이다. 최근 우리가 캐나다 정부와 파트너십을 맺고 소버린 AI 구축을 지원하는 것처럼 우리는 이 경험과 철학을 다른 국가에도 동일하게 적용한다. 나라마다 소버린 AI의 정의가 조금씩 다르지만 코히어가 한국을 지원하는 방식은 두 가지 축으로 명확히 나뉜다. 첫째는 우리 모델을 온프레미스 방식으로 제공해 한국의 데이터와 문화를 담은 고유의 AI 모델을 만들 수 있도록 돕는 것이다. 핵심은 AI 모델과 데이터에 대한 모든 통제권이 전적으로 한국 정부나 기업에 있다는 점이다. 둘째는 비상업적인 기여다. 앞서 언급한 우리의 비영리단체인 '코히어 랩스'에서 나온 100개 이상의 언어를 지원하는 모델 '아야'는 글로벌 오픈소스 커뮤니티에 올라와 있다. 이를 누구나 다운로드 받아 전 세계 모든 국가가 자체적인 AI 주권을 확보할 수 있도록 기술적 기반을 제공하고 있는 것이다. Q. 코히어 서울 허브는 회사의 아태 전략에서 어떤 역할을 담당하며 향후 아시아 시장 확장 계획은 어떻게 되나. A. 서울 허브는 아태 확장 전략의 핵심 기지다. 현재는 영업, 기술 배포, 고객 성공(Customer Success)을 책임지며 국내 시장 확산에 집중하고 있지만 동시에 기타 아시아 시장 진출을 위한 전략을 설정하는 역할도 맡고 있다. 구체적으로는 한국, 일본, 싱가포르를 최우선 집중 시장으로 보고 있다. 최근 일본 지사장을 선임해 이달 말 온보딩을 앞두고 있으며 일본 지사 설립도 곧 가시화될 것이다. 이후 단계로는 인도와 호주 시장 진출을 계획하고 있다. Q. 서울 허브가 단순한 영업 지사를 넘어 연구개발(R&D) 기능을 포함한 기술 조직으로 확장될 가능성도 있나. A. 이미 단순한 영업 지사가 아니다. 현재 국내에서 영업, 솔루션 아키텍트(SA), 고객 성공 매니저(CSM) 등 비즈니스 인력과 더불어 본사 직속으로 근무하는 머신러닝(ML) 엔지니어를 이미 채용했고 계속 충원하고 있다. 향후 아시아태평양 마케팅 인력까지 채용할 계획으로, 서울 허브는 코히어의 아시아 사업 전반을 이끄는 핵심 기술 및 비즈니스 조직으로 성장할 것이다. Q. 한국 허브 채용에서 가장 중점적으로 보는 역량과 인재상은 무엇인가. A. AI 분야에 대한 역량과 관심은 기본이다. 이 외에는 '산업 도메인에 대한 깊은 이해'를 갖춘 인재를 찾고 있다. B2B 비즈니스에 집중하기 때문에 고객이 속한 산업의 문제를 이해하고 함께 해결하려는 의지와 관심이 중요하다. 특히 우리의 '스윗 스팟'인 금융, 제조, 공공 등 규제가 많은 산업에 대한 이해도가 높은 분이라면 더욱 환영한다. Q. 마지막으로 한국의 엔터프라이즈 의사결정자, 개발자, 그리고 코히어 합류를 꿈꾸는 인재들에게 각각 메시지를 전한다면. A. 먼저 엔터프라이즈 의사결정자들께는 우리가 단순한 소프트웨어 판매사가 아닌 기업의 비즈니스 문제를 함께 해결하는 '파트너'가 되겠다고 약속한다. 우리는 AI를 가장 신속하고 쉽게 도입해 실질적으로 측정 가능한 ROI를 신속히 제시하는 데 집중한다. 이 모든 과정은 데이터 보안을 최우선으로 하는 프라이빗 배포(Private Deployment)를 통해 안전하게 제공될 것이다. 개발자들께는 차세대 AI 솔루션을 함께 만들자고 제안하고 싶다. 우리는 최첨단 기술을 다루는 기업으로서 에이전트 AI 플랫폼을 기반으로 B2B 고객에게 실질적인 가치를 제공하는 의미 있는 솔루션을 개발하고자 한다. 마지막으로 미래의 동료가 될 인재들께는 보람 있고 의미 있는 여정에 동참해달라고 말하고 싶다. 전 세계 최고 수준의 AI 전문가들과 함께 최첨단 기술이 실제 산업 현장에 어떻게 적용되는지 경험하고 우리의 아태 비즈니스를 키워나가는 성장의 기회를 잡길 바란다.

2025.08.25 10:58조이환

"미래 인재는 우리가 먼저"…퍼플렉시티의 '파격' 제안에 글로벌 MZ 관심 ↑

퍼플렉시티가 한국을 포함한 전 세계 대학생들과 직접 실전 마케팅을 펼치는 프로그램을 운영한다. 미래의 잠재고객인 대학생 커뮤니티 내 영향력을 강화하고 기술과 마케팅에 능통한 인재를 조기 발굴하려는 포석이다. 퍼플렉시티는 글로벌 대학생을 대상으로 '2025 캠퍼스 스트래티지스트(Campus Strategist)' 프로그램 참가자를 모집한다고 30일 밝혔다. 지원 접수는 다음달 15일까지 퍼플렉시티 공식 프로그램 페이지를 통해 진행하며 선발 인원은 대학당 최대 3명이다. 이번 프로그램은 퍼플렉시티 AI를 사용하는 대학생들이 직접 실전 마케팅 캠페인을 기획하고 실행하며 AI 기술과 마케팅 현장 경험을 쌓도록 설계됐다. 선발된 참가자는 퍼플렉시티 리더십 및 그로스(Growth)팀과 직접 협업하며 캠퍼스 내 마케팅 활동을 자율적으로 펼친다. 참가자에게는 기획한 프로모션을 위한 소정의 마케팅 예산이 지원된다. 또 유료 구독 서비스인 퍼플렉시티 프로 계정과 현재 개발 중인 기능에 대한 얼리 액세스 권한도 제공받는다. 정규 학기 중인 전일제 대학생이라면 전공과 무관하게 지원할 수 있으나 기본적인 영어 소통 능력은 필수다. 퍼플렉시티는 창의적 사고, 소통 능력, 자기주도적 실행력을 갖춘 인재를 우대하며 플랫폼 이해도가 높거나 캠퍼스 내 리더십 경험이 있는 지원자를 환영한다고 설명했다. 활동 최상위 우수 성과자에게는 파격적인 특전이 주어진다. 미국 샌프란시스코에 위치한 퍼플렉시티 본사 방문 기회와 함께 공식 추천서가 제공된다. 성과에 따른 현금 보상도 지급될 예정이다. 이 프로그램은 전 세계 각국에서 선발된 다른 캠퍼스 스트래티지스트들과 교류할 기회도 제공한다. 이를 통해 참가자들은 글로벌 역량을 키울 수 있을 것으로 기대된다. 지난해 '2024 캠퍼스 스트래티지스트'로 선발된 한국 학생들은 국내 대학생들을 위한 특별 프로모션을 직접 제안해 성사시킨 바 있다. 학생 이메일로 가입하는 대학생에게 지난 4월부터 두달간 1년간 프로 계정을 무료 제공하는 내용이었다. 당시 캠퍼스 스트래티지스트로 활동한 서울대학교 4학년 오지승 씨는 "학생들을 위한 플랫폼 구축에 기여하면서 마케팅 전략에 대해 많이 배울 수 있었다"며 "한국 학생들이 기술 변화에 때로 뒤쳐진다는 느낌을 받을 때도 있는데 퍼플렉시티를 더 쉽게 접하도록 하고 일찍부터 관심을 이끌어낼 수 있어 의미가 컸다"고 밝혔다.

2025.07.30 09:40조이환

"AI 도입 장벽↓"…kt클라우드, RAG 탑재한 'AI 파운더리' 가동

"기업용 생성형 인공지능(AI) 핵심은 정확도와 신뢰도입니다. 검색 증강 생성(RAG) 서비스까지 갖춘 'AI 파운더리'는 이를 충족해 주는 현실적 수단이 될 것입니다." kt클라우드 감철웅 상무는 24일 kt클라우드 웨비나에서 AI 파운더리 기반 RAG 서비스 출시 예고를 알리며 이같이 밝혔다. AI 파운더리는 기업이 생성형 AI를 빠르게 도입하고 운영할 수 있도록 지원하는 kt클라우드의 개방형 통합 플랫폼이다. 모델 개발부터 파인튜닝, 배포, RAG 적용까지 전 과정을 클릭 몇 번으로 구성할 수 있는 엔드-투-엔드 환경을 제공하는 것이 목표다. kt클라우드는 내달부터 웹 기반 RAG 파이프라인을 AI 파운더리에 추가할 방침이다. 파일럿 테스트를 한 달 동안 진행한 후 정식 배포한다. RAG 파이프라인은 별도 시스템 구축 없이 벡터 데이터베이스(DB)와 거대언어모델(LLM)을 결합한 고정밀 응답 구현을 돕는다. 중앙처리장치(GPU) 점유 없이 사용량 기반 과금이 가능한 서버리스 구조로 설계돼 중소기업과 스타트업도 쉽게 도입할 수 있다. RAG 서비스는 'RAG 스위트'와 'LLM 플레이그라운드' '벡터 DB'로 구성됐다. 이 구성 요소는 파트너사 기술과 kt클라우드 인프라가 통합돼 작동한다. 공동 개발사인 업스에이지의 광학문자인식(OCR)과 LLM, 디노티시아의 벡터 DB, 폴라리스오피스의 파싱 기술이 RAG 서비스에 통합됐다. 이 외에도 문서 자동 분해 기능, 고품질 표현 임베딩, 한국어 특화 생성 모델 등이 서비스에 포함됐다. 고속 검색 성능과 규제 준수를 지원하는 보안 설계도 들어갔다. 감 상무는 "기업이 사내 지식 검색부터 고객 응대, 산업별 분석, 문서 생성 등 다양한 업무에 생성형 AI을 직접 활용할 수 있도록 지원할 계획"이라며 "실제 운영 환경에서 정확도와 신뢰도를 확보하는 것이 핵심"이라고 강조했다. 이어 "생성형 AI의 가능성은 넓지만 실제 기업이 도입해 활용하려면 많은 기술 장벽이 있다"며 "RAG 서비스까지 갖춘 AI 파운더리는 이 간극을 메워주는 현실적 플랫폼이 될 것"이라고 밝혔다.

2025.07.24 17:38김미정

[기고] AI가 연계를 주도하는 시대, 지능형 플랫폼으로의 진화

최근 연계 플랫폼 시장에서 가장 두드러진 흐름은 서비스형 통합 플랫폼(iPaaS)에 대한 관심이 높아지고 있다는 점이다. iPaaS는 온프레미스, SaaS, 레거시 시스템 등 이질적인 환경을 하나의 플랫폼에서 유연하게 연결하고 통합적으로 관리함으로써 복잡한 IT 환경을 단순화하고 운영효율을 극대화할 수 있는 기술로, 가트너는 이를 IT전략의 핵심 요소 중의 하나로 보고 있다. 이러한 iPaaS는 '클라우드 네이티브 기반의 통합·자동화·지능화'를 축으로 해 차세대 연계 환경의 핵심 표준 플랫폼으로 인식되고 있다. 현재 기업환경에서 운용되고 있는 연계 플랫폼은 용도와 사용기술에 따라서 각각 분리되어 있어 사일로(Silo)화가 심하다. 이는 시스템의 복잡성을 높이고 변화에 대한 대응력을 떨어뜨린다. 클라우드 네이티브 기반 통합이 필요한 이유다. 통합을 통해, 확장성과 운영 민첩성을 동시에 확보할 수 있고 유지보수 부담을 줄이는 데에도 효과적이다. 개발 생산성 향상을 위한 기술적 기반도 중요해지고 있다. 복잡한 코드 기반의 전통적 개발 방식에서 벗어나, 보다 직관적이고 신속한 개발 환경에 대한 수요가 커지고 있다. 특히 개발 지식이 없는 사용자도 연계 업무를 직접 구현할 수 있도록 지원하는 기술 진보가 지속적으로 요구되고 있다. 이는 기술 인력 부족 문제를 해결하면서도 비즈니스 현장 중심의 민첩한 개발 환경을 가능하게 하기 때문이다. 여기에 더해 AI 기술의 비약적인 발전은 통합의 개념 자체를 변화시키고 있다. 단순한 시스템 간 연결을 넘어 애플리케이션과 AI, 나아가 AI 간의 상호 통합까지 고려해야 하는 시대가 도래했다. 이제는 AI 간 상호작용과 협업을 극대화하여 더 높은 가치의 서비스를 제공할 수 있는 지능형 통합 환경의 구축이 새로운 요구사항으로 부상하고 있다. 이러한 요구사항을 충족하기 위한 핵심전략을 3가지로 말하고자 한다. 첫 번째는 API 매니지먼트(APIM)를 중심으로 한 클라우드 네이티브 기반의 통합 전략이다. APIM은 다양한 시스템 간 API와 데이터 흐름을 표준화해 온프레미스, SaaS, 레거시 환경 간의 유연한 연계를 가능하게 한다. 이를 위해 다양한 환경에 대응할 수 있는 어댑터를 함께 제공하며 이 어댑터들은 벤더가 실제 연계 프로젝트에서 축적한 경험과 노하우를 기반으로 구축된 핵심 자산이다. 이러한 어댑터 기반의 연계 체계는 단순한 시스템 간 연계를 넘어 다양한 채널과 애플리케이션은 물론 AI까지 아우르는 통합 환경의 기반을 제공한다. 두 번째는 개발생산성을 높이기 위한 자동화 전략이다. 연계 플랫폼에는 연계 흐름을 설계하고 구현할 수 있는 개발 환경이 필요하다. 이 개발 환경은 복잡한 코드 작성 중심의 기존 방식에서 벗어나 로우코드·노코드(LCNC) 기반의 직관적이고 신속한 개발을 가능하게 한다. 전문 개발자가 아니더라도 업무 지식을 가진 사용자가 직접 연계 시나리오를 구성할 수 있도록 지원하는 것이다. 이를 뒷받침하기 위해, 사전에 구성된 다양한 사전제작 템플릿과 워크플로우가 제공되며 이들을 활용하면 연계 개발 시간을 크게 줄이고 업무 생산성을 향상시킬 수 있다. 세 번째는 룰 기반 자동화를 넘어서는, AI 에이전트가 연계 업무를 지원하는 지능화 전략이다. 연계 플랫폼의 자동화 기반 위에 AI 에이전트를 추가하면, 사용자의 요청과 업무 맥락을 스스로 이해하고 판단하여, 가장 적합한 템플릿과 설정을 추천하고 자동으로 적용하는 지능형 연계 플랫폼으로 진화할 수 있다. 이러한 혁신을 실현하는 핵심 기반이 바로 검색증강생성(RAG)옵스 플랫폼과의 통합이다. RAG옵스는 외부 지식을 실시간으로 활용하는 RAG 기술과 AI 에이전트를 통해 연계 개발을 더욱 고도화하고, 운영 효율성을 극대화한다. 여기에 더해, 에이전트 간의 통합을 원활히 하기 위한 AI 게이트웨이 구성도 필요하다. 에이전트 간 상호작용(A2A) 구조는 AI 에이전트 간의 연계를 자동화하고 모델 컨텍스트 프로토콜(MCP)은 에이전트 간의 컨텍스트 공유와 협력적 실행을 가능하게 하는 AI 간 통합 프로토콜로 기능한다. 이러한 구성은 AI 간 통합 생태계를 실현하는 기술적 기반이 된다. 필자는 '가장 쉽고 빠르게 AI 서비스를 구축하는 방법, 문서중앙화'라는 제목의 기고를 통해 RAG옵스 플랫폼의 첫 번째 적용 사례를 소개한 바 있다. 이번에 소개하는 연계 플랫폼의 지능화는 인젠트의 RAG옵스 플랫폼의 두 번째 적용 사례가 될 것이다. 인젠트는 자사의 핵심 통합 엔진인 아이게이트(iGate)를 기반으로 APIM 아키텍처를 도입해 연계의 표준화를 구현하고 기존 레거시 시스템과의 통합까지 폭넓게 지원한다. 그동안 축적된 연계 노하우는 템플릿으로 제공되며 이를 통해 자동화 효율을 극대화하는 구성이 가능해진다. 이러한 기반 위에 자체 RAG옵스 플랫폼을 연계 에이전트 서비스에 적용함으로써, 지능형 연계 플랫폼의 완성을 목표로 하고 있다. 이제 연계 플랫폼은 단순한 자동화를 넘어 AI가 직접 연계를 주도하는 지능형 플랫폼으로의 진화를 준비해야 한다. 기업들은 통합과 자동화 그리고 지능화를 핵심 전략으로 삼아, 미래의 연계 환경에 선제적으로 대응하고, 디지털 경쟁력 확보를 위한 전략적 준비에 나서야 할 시점이다.

2025.07.16 17:38박정권

산업현장도 AI 가속...포스코그룹, AWS와 제조현장 자동화 본격화

포스코그룹이 아마존웹서비스(AWS)와 손잡고 산업현장에 AI를 본격 도입한다. 제조업의 AI 전환(AX)에 속도를 내며 생산성과 고부가가치 창출에 주력한다. 포스코그룹의 디지털 전환을 담당하는 포스코DX는 산업현장 AI 확산을 위한 업무협약을 체결했다고 13일 밝혔다. 11일 판교사옥에서 심민석 포스코DX 사장, 함기호 AWS코리아 대표 등 주요 인사들이 참석한 가운데 진행한 이번 협약식을 바탕으로 양사는 제조 분야 AX 추진을 위해 기술 및 인프라 협력 강화에 나선다. 이번 협력에서 포스코DX는 산업현장에 특화된 AI 에이전트와 검색증강생성(RAG) 기반의 엔지니어링 자동화 플랫폼을 개발하고, AWS는 이를 지원하는 클라우드 인프라와 AI 서비스를 제공한다. RAG는 특정 도메인 또는 조직의 지식 베이스를 참고해 보다 정확하고 신뢰도 높은 AI 응답을 생성하는 기술이다. 포스코그룹은 AWS의 생성형 AI 서비스 '베드록(Bedrock)'과 머신러닝 플랫폼 '세이지메이커(SageMaker)'를 활용해, 현장 엔지니어링 업무를 자동화하는 'AI 엔지니어 에이전트'를 개발 중이다. 이 에이전트는 설비 시스템 설계에 필요한 데이터를 학습하고 해석해, 사양서, 설계서, 도면, 준공 보고서 등 엔지니어링 전 과정의 산출물을 자동으로 생성하는 기능을 제공한다. 이를 위해 포스코DX는 올해 상반기부터 AWS의 생성형 AI 전문조직 '생성형AI 이노베이션센터'와 함께 AI 엔지니어 에이전트의 시제품을 개발하고 실제 산업현장 적용을 위한 플랫폼 구현 프로젝트를 진행해왔다. 또한 포스코DX는 산업현장의 프로그래머블 로직 컨트롤러(PLC)시스템에 AI 기반 '코파일럿(Copilot)' 기능도 적용할 계획이다. 코파일럿은 엔지니어가 직접 수행해야 했던 PLC 프로그램 코딩 작업을 AI가 자동으로 생성하도록 돕는 도구다. 생성된 코드를 엔지니어가 검토만 하면 돼 업무 효율성이 크게 향상될 것으로 기대된다. 포스코그룹은 AI 엔지니어 에이전트와 PLC 코파일럿 도입으로 반복적 프로그래밍과 문서 작업이 줄어 업무 생산성이 30% 이상 향상될 것으로 보고 있다. 동시에 엔지니어들이 보다 창의적이고 고부가가치 업무에 집중할 수 있는 환경이 조성될 것이라 전망했다. AWS는 포스코그룹의 산업현장 혁신과 인텔리전트 팩토리 고도화를 위해 기술 지원을 아끼지 않겠다고 밝혔다. 포스코그룹은 철강 및 이차전지소재 등 주요 사업 분야에 AI, 로봇, 디지털트윈 등 DX 기술을 적용하며 '인텔리전트 팩토리' 구축을 본격 추진 중이다. 포스코DX는 이를 위한 AI 및 로봇 자동화 기술 내재화를 지속 강화하고 있다.

2025.07.13 14:11남혁우

인디제이, '눈치 RAG 2.0' 출시…한국어 미묘한 맥락·문화적 깊이까지 이해

감성지능 AI 기술 선도 기업 인디제이(inDJ·대표 정우주)는 한국어의 미묘한 맥락과 문화적 깊이까지 이해하는 '눈치(Noonchee) RAG 2.0'을 공식 출시한다고 11일 밝혔다. 인디제이 측은 이번 업데이트는 최근 국가적 과제로 부상한 '소버린 AI(AI 주권)' 시대에 대응해 외산 거대언어모델(LLM) 기술 종속을 극복하고 대한민국의 AI 경쟁력을 한 단계 끌어올릴 핵심 기술이라고 설명했따. 인디제이가 선보이는 눈치 RAG 2.0은 인간의 인지기억 메커니즘을 모방한 차세대 검색 증강 생성(RAG) 솔루션이다. 기존 LLM이 가진 고질적인 문제인 '환각 현상'을 방지하고 한국인의 실제 사용 데이터와 문화적 배경지식을 바탕으로 신뢰도 높은 답변을 생성하는 데 특화됐다. 눈치 RAG 2.0은 단순한 텍스트 번역 수준을 넘어, 한국인의 '정(情)''한(恨)''눈치'와 같은 복잡하고 미묘한 감정과 사회적 맥락을 이해하고 상호작용에 반영한다. 이는 31억 건 이상의 방대한 감성·상황 데이터를 학습한 멀티모달 감성 인지 기술을 통해 구현된다. 또 사용자와의 대화나 데이터를 단편적으로 기억하는 것이 아니라, 스키마리스 지식 그래프(SKG)와 구조화된 기억 및 계층적 추론(SMHR) 시스템을 통해 정보를 의미론적으로 연결하고 구조화해 저장한다. 이를 통해 과거 경험에 기반한 복합적인 추론과 일관성 있는 초개인화된 상호작용이 가능하다. 기업 내부 문서나 전문 지식 등 검증된 데이터 소스를 기반으로 답변을 생성하도록 설계돼 공공·금융·의료 등 높은 신뢰성이 요구되는 전문 분야에 즉시 적용할 수 있다. 네이버의 '클로바X', LG의 '엑사원' 등 국내 기업이 개발한 소버린 LLM과 유기적으로 결합해 해당 모델이 더욱 정교하고 개인화된 서비스를 제공할 수 있도록 돕는 핵심 강화 엔진 역할을 수행한다. 정우주 인디제이 대표는 “AI 주권은 단순히 외국 AI를 따라잡는 것을 넘어, 우리 언어와 문화, 가치를 담은 AI를 우리 손으로 만드는 데서 시작된다”며 “눈치 RAG 2.0은 대한민국이 AI 기술 식민지에서 벗어나, 우리 고유의 정체성을 가진 AI 강국으로 나아가는 데 중요한 초석이 될 것”이라고 밝혔다. 정 대표는 이어 “국내 유수의 기업·기관들과 협력해 대한민국 소버린 AI 생태계를 만드는 데 최선을 다하겠다”고 덧붙였다. 한편, 인디제이는 2년 연속 CES 혁신상을 수상하고, KOLAS 국제 공인 시험에서 85% 이상의 감정 인식 정확도를 입증하는 등 세계적인 수준의 기술력을 인정받았다. DB손해보험 등 주요 기업과의 협업 사례를 통해 기술 시장성을 증명했고 현재 구글·마이크로소프트·BMW·DH오토웨어 등과 협력하며 미래 모빌리티(SDV) 분야로 기술을 확장하고 있다.

2025.07.11 15:25주문정

국방부터 정신건강까지…포티투마루, 경량 LLM·RAG로 공공 업무 자동화 '확산'

포티투마루가 인공지능(AI) 기술을 무기로 공무원, 군 관계자, 상담사 등 공공 부문의 'AI 전환(AX)'을 전방위로 확산시키고 있다. 포티투마루는 행정안전부가 추진하는 '범정부 초거대 AI 공통기반' 사업에 참여해 경량언어모델(sLLM)과 검색증강생성(RAG) 기반의 공공 행정 AI 플랫폼을 구축하고 있다고 8일 밝혔다. 이 시스템은 부처 간 공동 인프라로 설계돼 각 정부 기관이 별도 개발 없이 문서 요약, 정책 초안 생성, 행정 질의응답 등 주요 업무를 수행할 수 있도록 지원한다. 이 플랫폼은 각 부처의 데이터 특성과 실무 흐름에 맞춘 맞춤형 서비스로 구성된다. 여기에 범정부 공통 과금 체계와 연동 가능한 서비스형 소프트웨어(SaaS) 형태로도 확장되고 있어 도입과 운영의 비용 장벽을 낮춘 점이 특징이다. 국방 영역에서는 방위사업청, 육군군수사령부 등과 손잡고 군수통합정보시스템 내 정비·수리·법령 자료를 기반으로 한 품질검증(QA) 시스템을 구현 중이다. 실시간 검색과 응답이 가능한 소형언어모델(sLM) 기반 생성형 AI를 적용해 군 현장에서 바로 활용 가능한 기술로 구현했다. 해당 시스템은 정비 지시서 자동 검색, 부품 소요 예측, 기술 자료 요약 등 군수업무 자동화에 초점을 맞췄다. 장비 운용의 효율성과 무기체계 유지율 향상이라는 두 가지 목표 모두에서 구체적인 성과가 예상된다. 추후에는 다중 모달 데이터까지 포함한 확장형 모델로 진화할 계획이다. 포티투마루는 헬스케어 분야에서도 생성형 AI 기술을 상담 전문가용 시스템으로 확장하고 있다. 특히 LG유플러스, 성신여대, 서울아산병원 등과 협력해 '초거대 AI 기반 심리상담사 보조 플랫폼'을 개발하고 있다. 내담자 사전 정보 수집, 상담 기록 자동화, 위기 모니터링까지 전 주기를 AI로 지원하는 구조다. 수천 회기의 실 상담 데이터를 기반으로 국내 최초의 심리상담 특화 LLM도 개발 중이다. 마이데이터 기반 생활 패턴 분석과 고위험군 실시간 식별, 상담 중 정서 상태·비언어 표현 분석 등 고도화된 기능도 탑재된다. 경력 차이를 보완하는 교육 기능까지 포함해 상담 품질과 효율성 모두 개선하는 효과를 노린다. 지방자치단체와의 협력도 진행 중이다. 이 회사는 부산시와 함께 '공공행정 생성형 AI 융합서비스' 프로젝트를 추진하고 있으며 민원 응대, 정책 자료 검색, 보도자료 초안 작성 등 반복 업무의 자동화를 도모하고 있다. 해당 시스템은 부산시 행정문서를 학습한 경량 언어모델에 기반해 공무원이 별도 학습 없이 바로 사용할 수 있는 형태로 설계됐다. 민원 편람 검색, 정책 문안 초안 등 실무 직접 투입을 목표로, 시민 응대 품질과 업무 효율성 모두에서 실증적 성과가 기대되고 있다. 김동환 포티투마루 대표는 "공공 분야에서의 생성형 AI 도입은 단순한 기술 이전이 아니라 업무 방식 자체의 패러다임 전환"이라며 "실제 현장에서 바로 활용 가능한 정확하고 신뢰성 높은 도메인 특화 AI를 통해 공공AX의 모범 사례를 지속적으로 만들어가겠다"고 밝혔다.

2025.07.08 16:24조이환

"챗GPT보다 싸고 빠르다"…라이너, 검색 LLM으로 AI 검색 시장 '정조준'

라이너가 '챗GPT'보다 정확하고 비용 효율적인 자체 검색 인공지능(AI) 성능을 공개했다. 핵심은 리서치에 최적화된 검색 결과를 신속히 제공하는 구조와 이를 뒷받침하는 데이터 기반 학습 역량이다. 라이너는 자사 '라이너 검색 LLM'이 AI 검색 컴포넌트 성능 비교 평가에서 오픈AI 'GPT-4.1'보다 우수한 결과를 기록했다고 3일 밝혔다. 이번 모델은 기존 오픈 소스 기반 구조 위에 10여 년간 축적한 방대한 사용자 데이터를 사후 학습 방식으로 적용해 정확도와 처리 속도를 높였다. 토큰당 비용도 평균 30~50% 절감한 것으로 나타났다. '라이너 검색 LLM'은 질문 분석부터 답변 생성까지 검색형 에이전트의 전 과정을 처리하는 데 필요한 8개 컴포넌트를 통합 구성한 모델이다. 이 중 카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 컴포넌트는 성능·속도·비용 전 항목에서 'GPT-4.1'을 상회했다. 특히 실제 서비스 환경에서 재현성과 신뢰성을 기반으로 성능을 측정한 점이 주목된다. 단순 벤치마크 수치가 아니라 실사용 기반 결과를 중심으로 비용·속도·정확도의 균형을 검증한 구조다. 이로 인해 기존 대형 모델 대비 가볍고 빠른 검색형 LLM 구현이 가능해졌다는 평가다. 라이너는 수년간 테스트와 개선을 반복하며 LLM 학습 구조를 고도화해 왔다. 자사 사용자 데이터를 활용한 정밀 학습을 통해 질문 처리 구조를 체계화하고 할루시네이션 가능성을 줄이는 방향으로 검색 정확도를 끌어올렸다는 설명이다. 검색 LLM의 비용 경쟁력 역시 차별점으로 꼽힌다. 'GPT-4.1' 대비 평균 30~50% 낮은 토큰당 처리 비용으로, 대규모 트래픽이 발생하는 검색형 에이전트 환경에서도 운영 효율성과 수익성 확보가 가능하다는 계산이다. 조현석 라이너 테크 리드는 "'라이너 검색 LLM'은 8가지 모든 컴포넌트에서 '챗GPT'를 뛰어넘는 성능을 입증했다"며 "어떤 데이터를 어떻게 학습하고 어떤 구조로 질문을 처리하느냐가 AI 할루시네이션을 줄이는 핵심"이라고 밝혔다. 이어 "데이터 학습과 연구 개발에 꾸준히 집중해 온 노력이 차별화된 AI 에이전트 기술 경쟁력으로 이어졌다는 점에서 의미가 크다"고 말했다.

2025.07.03 16:56조이환

[기고] 지속 가능한 AI 운영 전략, RAG옵스

"생성형 인공지능(AI)을 놓치면 뒤처진다." 지난 2년간 수많은 기업이 내세운 슬로건이다. 실제로 글로벌 컨설팅사들은 2024년 한 해에만 기업 10곳 중 9곳이 생성형 AI 도입을 검토하거나 초기 도입을 시도했다고 집계했다. 하지만 가트너는 2025년까지 생성형 AI 프로젝트의 30%가 개념 검증(PoC) 단계에서 멈출 것이라 전망한다. 쉽지 않은 현실이다. 그 이유로 우선 데이터 품질 문제가 있다. 기업 데이터의 80% 이상을 차지하는 비정형 문서나 이미지가 제대로 정제되지 않은 상태로 방치되어 모델 학습 효과가 떨어진다. 또한 강력한 새로운 AI 모델이 빠르게 등장하지만 기존 시스템의 경직된 구조로 인해 모델이나 도구의 빠른 교체 및 확장이 어려운 것도 현실이다. 마지막으로 AI 성능은 배포 이후에도 지속적으로 모니터링하고 품질을 보정해야 하는 운영 부담이 존재한다. 생성형 AI의 품질을 높이는 방법중의 하나인 검색증강생성(RAG) 기술이 더욱 발전하고 있다. RAG는 대규모 언어모델(LLM)을 검색과 결합해 추가 학습 없이 정확성을 높이는 방식이다. RAG 기술은 최근 모듈화(Modular RAG) 형태로 진화하며 임베딩, 검색, 생성, 평가, 피드백 등의 주요 기능을 독립 모듈로 분리해 사용 환경에 따라 유연하게 조립하거나 교체할 수 있는 구조로 발전하고 있다. 앞으로의 과제는 이러한 모듈들을 얼마나 쉽게 조립하고 자동화할 수 있는가에 집중되고 있다. 하지만 기술의 발전 속도에 비해 이를 조직이 학습하고 시스템에 반영하는 데 필요한 시간은 턱없이 부족하다. 새로운 기술이나 모델을 도입하려면 사실상 기존 시스템의 재구축에 가까운 노력이 요구되며 이로 인해 시스템은 빠르게 노후화되고 유지보수 또한 한계에 봉착하게 된다. AI를 활용한 문제 해결 방식은 전통적인 '정확성 중심'의 시각이 아니라, '확률 중심'의 시각에서 접근해야 한다. 즉, 단일 정답을 찾기보다는 반복 가능한 개선 프로세스를 내재화하고, 실시간 피드백과 품질 보정을 통해 성능을 지속적으로 향상시킬 수 있는 구조가 필요하다. 따라서 지속 가능한 AI 서비스를 실현하기 위해서는, 기술 변화에 유연하게 대응할 수 있고, 품질을 지속적으로 개선할 수 있으며, 안정적인 운영이 가능한 플랫폼 구조가 필수적이다. 이를 위해 RAG옵스(RAGOps) 플랫폼이 필요하다. 이 플랫폼은 AI 시스템의 지속적인 개선, 품질 유지, 안정적인 운영을 실현하기 위한 핵심 플랫폼 역할을 수행해야 한다. 비정형 데이터를 수집하고 구조화하여 AI가 이해할 수 있는 형태로 가공하고, 벡터라이제이션을 통해 검색 및 생성 성능을 극대화해야 한다. 응답 품질에 대한 평가 시스템을 통해 다양한 지표를 측정하고, 이를 기반으로 반복적 개선과 최적화를 수행할 수 있어야 한다. 좀 더 구체적으로 필요로 하는 구성요소를 정리하면 다음과 같다. RAG옵스 플랫폼의 아키텍처는 오픈 구조(Open Architecture)를 채택해 기술 종속성을 최소화해야 한다. 또한 모듈 단위로 유연하게 교체 및 확장할 수 있는 구조가 중요하다. 데이터 수집 레이어에서는 데이터 수집, 임베딩, 모델 평가, 운영, 피드백까지 모든 과정을 모듈형 파이프라인으로 구성하고 자동화를 제공하는 것이 중요하다. 또한 벡터 데이터와 정형 데이터를 통합 관리할 수 있는 하이브리드 저장소가 필수적이다. SQL 필터링과 벡터 유사도 검색을 동시에 실행해 성능과 정확성을 확보해야 한다. LLM과 키워드 검색을 조합하여 도메인 요구에 맞는 최적의 검색과 생성 파이프라인을 구성할 수 있어야 한다. 데이터레이어는 포스트그레SQL 기반의 데이터 아키텍처가 좋은 모델이 된다. 포스트그레SQL은 RDBMS뿐만 아니라 벡터DB의 저장소로도 확장할 수 있다. RAG에서 필요로 하는 비정형데이터와 정형데이터를 아우르는 데이터처리를 통해 효율성을 높일 수 있다. 자동화된 평가와 피드백 시스템도 중요한 요소다. 정확도, 신뢰도, 컨텍스트 적합성 같은 다양한 품질 지표를 실시간으로 모니터링하고, 비교 테스트를 통해 자동으로 개선 방안을 제시할 수 있어야 한다. RAG옵스 플랫폼을 구성하면서 데이터 품질의 문제를 해결하기 위해서는 문서중앙화 플랫폼과 만났을 때 큰 시너지가 난다고 생각한다. 실제 구축을 해보면서 문서중앙화가 비정형 데이터의 허브 역할을 하며 RAG옵스와 결합해서 쉽게 AI 서비스를 만들 수 있는 환경을 제공할 수 있음을 확인했다. 결국 생성형 AI의 성공은 단순히 뛰어난 모델을 사용하는 것이 아니라, AI의 운영 전 과정을 효과적으로 관리할 수 있는 플랫폼의 확보 여부가 될 것이다. 모듈화와 개방형 아키텍처를 바탕으로 유연성, 지속적인 개선, 안정적인 운영을 동시에 제공할 수 있는 플랫폼 전략이야말로 PoC 수준에서 머무는 AI 프로젝트를 실제 고객 가치로 연결할 수 있는 가장 현실적인 방안이 될 것이다.

2025.07.02 15:09박정권

포티투마루, 석박사 만남의 장 열었다…AI 인재, 현장으로 '직행'

포티투마루가 인공지능(AI) 대학원 석박사들과 산업 현장 문제 해결을 위한 생성형 AI 적용 가능성을 논의하는 만남의 장을 열었다. 포티투마루는 서울 본사에서 '생성AI선도인재 양성사업'의 일환으로 제1회 우수연구자 워크숍을 개최했다고 30일 밝혔다. 이 자리에는 국내 AI대학원 소속 우수 연구원들과 자사 연구진이 참여해 실제 산업 수요에 맞는 생성형 AI 기술 활용 방안을 집중 논의했다. 워크숍에서는 울산과학기술원, 인하대, 성균관대 등 각 대학 소속 연구원들이 진행 중인 연구 주제를 발표하고 이를 산업 현장에 적용할 수 있는 구체적 방식을 공유했다. 특히 고속도로 CCTV 영상 분석, 자연어 질의 생성, 멀티에이전트 시스템 등 다양한 주제가 제시됐다. 울산과학기술원 소속 연구원은 기상 조건으로 인한 노이즈를 제거하고 사고나 낙하물 등의 이상 상황을 실시간 식별할 수 있는 알고리즘 개발 방안을 설명했다. 인하대 연구팀은 그래프 기반 데이터베이스를 대상으로 자연어 질의 생성을 자동화하는 기술을 다뤘고 인하대와 성균관대의 공동 연구진은 회의실 예약부터 음료 주문까지 가능한 멀티에이전트 시스템 구현을 제안했다. 각 연구팀은 수요기관의 구체적인 니즈에 기반해 연구 주제를 수정하거나 일정을 조정하는 등 현실 적용을 위한 전략을 수립했다. 포티투마루는 연구원들의 활동을 적극 지원하고 기술적 문제 발생 시 자사 인프라와 노하우를 통해 해결을 지원할 계획이다. 워크숍 말미에는 김동환 포티투마루 대표와 우수 연구원들이 간담회를 열고 진로 고민과 산업 현장의 궁금증을 자유롭게 나누는 시간도 마련됐다. 학생들은 실제 기업 환경에서의 생성형 AI 활용에 대한 경험과 시야를 넓힐 수 있는 기회였다고 평가했다. 포티투마루는 생성형 AI 특화 스타트업으로, 초거대 언어모델의 환각 문제를 검색증강생성 기술 '알에이지42(RAG42)'와 독해 기술 '엠알씨42(MRC42)'를 통해 완화하고 있다. 자체 개발한 경량화 모델 '거대언어모델42(LLM42)'를 기반으로 전문 산업 분야 맞춤형 AI 솔루션을 제공하며 민감 데이터 보호를 위한 프라이빗 모드와 비용 절감형 학습·서빙 구조도 갖추고 있다. 김동환 포티투마루 대표는 "이번 워크숍은 미래 생성AI 시대를 이끌 인재들과 직접 소통하며 그들의 열정과 잠재력을 확인할 수 있는 소중한 기회였다"며 "이들이 실제 산업 문제 해결에 기여하고 혁신적인 결과를 낼 수 있도록 적극 지원하겠다"고 밝혔다.

2025.05.30 16:56조이환

포티투마루 "한국, 아직도 GPU만 논의"…AI 에이전트로 '글로벌 해법' 제시

포티투마루가 추론 기반 인공지능(AI) 에이전트 기술을 앞세워 글로벌 시장에서의 경쟁력 확보 전략을 제시했다. 산업 특화형 경량 모델과 민감 정보 보호 기술을 통해 국내 AI 생태계의 실질적 전환을 유도해야 한다는 것이다. 포티투마루는 28일 서울 신라호텔에서 열린 '서울포럼 2025'에 연사로 참여해 AI 에이전트 기술 현황과 관련 전략을 공개했다. 이날 행사는 '이미 시작된 미래, 모든 것은 AI로 통한다'를 주제로 진행됐으며 과학기술정보통신부가 후원했다. 김동환 포티투마루 대표는 이날 오후 진행된 세션 '두뇌혁명 : GPT가 연 생성형 AI 시대'에 패널로 참여해 추론형 거대언어모델(LLM) 기반의 에이전트 개발 사례를 소개했다. 김 대표는 패널토론을 통해 한국 정부와 기업이 생성형 AI 경쟁 속에서 실질적으로 대응할 수 있는 전략적 방향성도 함께 제안했다. 세션에는 김 대표 외에도 차인혁 광주과학기술원(GIST) AI정책전략대학원 석학교수, 최재식 카이스트 김재철AI대학원 교수, 임우형 LG AI연구원 상무, 변계풍 이스트소프트 AI사업본부장이 패널로 참여했다. 진행은 이경일 솔트룩스 대표가 맡았다. 포티투마루는 검색증강생성(RAG) 기술인 'RAG42', 인공지능 독해 기술인 'MRC42', 산업 특화 경량화 모델 'LLM42' 등을 자체 개발해 통합적으로 제공하고 있다. 이를 통해 AI 환각 문제를 완화하면서도 기업용 프라이빗 모드를 통해 데이터 보안까지 동시에 충족시키고 있다. 해당 기술은 기업 전용 프라이빗 모드를 지원해 내부 데이터 및 고객 정보 유출 위험을 차단할 수 있다. 동시에 AI 시스템 학습, 구축, 서빙에 필요한 운영 비용을 대폭 줄일 수 있다는 점에서 기업 도입 진입장벽도 낮췄다는 평가다. 김동환 포티투마루 대표는 "해외에선 산업 특화 AI 에이전트가 업무 효율성과 생산성 향상의 핵심으로 주목받고 있다"며 "반대로 한국은 아직도 그래픽처리장치(GPU) 인프라나 파운데이션 모델 중심의 논의에 머무르고 있다"고 지적했다. 이어 "2주마다 새로운 기술이 등장하는 경쟁 상황에서 한국이 지속 가능한 경쟁력을 확보할 수 있도록 기여해 나가겠다"고 말했다.

2025.05.28 16:05조이환

라이너, '구글 대항마' 노린다…BC카드 손잡고 AI 검색 대중화 '승부수'

라이너가 BC카드와 손잡고 인공지능(AI) 검색 기술을 금융 플랫폼에 접목한다. 사용자가 검색 결과의 정확도를 직접 체험하도록 설계해 서비스 대중화를 노린다는 전략이다. 라이너는 BC카드의 생활금융 앱 페이북에서 'AI 거짓말 챌린지' 이벤트를 시작했다고 22일 밝혔다. 페이북은 결제, 혜택, 금융상품 비교 등 다양한 서비스를 제공하는 통합 플랫폼으로, 이번 챌린지는 라이너 AI의 팩트 기반 검색 기능을 퀴즈 형태로 체험하는 구조다. 이벤트는 하루 한 번 참여할 수 있으며 매일 세 개 문항이 제공된다. 사용자는 두 개 문장 중 사실인 것을 골라야 하며 정답 여부와 무관하게 최대 1만원 상당의 랜덤 머니박스를 받을 수 있다. 챌린지는 총 9일간 진행되며 반복 참여할수록 누적 리워드가 커지는 구조다. 이와 별도로 페이북 이용자 중 BC카드를 등록한 사용자에게는 '라이너 프로' 1년 무료 이용권도 제공된다. 페이북 앱 내 프로모션 페이지에서 신청 후 라이너 회원 가입과 카드 등록만 하면 혜택이 자동 적용된다. 해당 프로모션은 오는 31일까지 운영된다. 라이너는 이번 이벤트를 통해 AI의 할루시네이션 문제를 대중이 직접 판단할 수 있도록 하는 데 초점을 맞췄다. 사용자 참여를 통해 검색 결과의 정확성과 실용성을 경험하도록 설계한 점이 특징이다. 양사는 검색 데이터와 결제 데이터를 연계해 정보 탐색과 금융 소비 전반에 걸쳐 보다 신뢰도 높은 서비스를 구축하는 방향으로 협업을 확대할 계획이다. 라이너는 전체 사용자 중 95% 이상이 미국, 캐나다, 유럽, 인도 등 해외 시장에서 확보돼 있다. 이번 협업은 국내 시장에서 본격적인 사용자 기반을 확대하기 위한 신호탄으로 해석된다. 김진우 라이너 대표는 "이번 협업을 통해 국내 사용자에게도 우리 기술력과 정확성을 직접 체험할 기회를 제공하게 돼 기쁘다"며 "챌린지를 통해 재미와 리워드를 동시에 경험하고 일상과 업무에서 신뢰할 수 있는 검색을 체감해 보시길 바란다"고 밝혔다.

2025.05.22 14:05조이환

[현장] 통합형 LLM·멀티소스 RAG로 '출격'…코난테크놀로지, 올해 실적 반등 노린다

"생성형 인공지능(AI)의 핵심은 더 이상 모델 성능의 경쟁이 아닙니다. 이제는 얼마나 실질적인 업무 수요를 반영하고 이를 통해 실제 성과를 만들어낼 수 있는가가 관건입니다." 김영섬 코난테크놀로지 대표는 13일 서울 광화문 호텔 코리아나에서 열린 기자간담회에서 이같이 밝히며 자체 개발한 차세대 거대언어모델(LLM), 신규 인공지능(AI) 제품군, 이를 아우르는 사업화 전략과 기술 로드맵을 공개했다. '추론 통합형 LLM부터 AI PC까지'라는 주제로 진행된 이번 간담회는 실제 업무 현장에서 검증 가능한 생성형 AI 기술을 중심으로, 코난테크놀로지가 독자 개발한 코난 LLM 'ENT-11', 레거시 연동형 검색증강생성(RAG) 시스템 'RAG-X', 그리고 온디바이스 AI 솔루션 'AI스테이션' 등을 소개하는 자리였다. 김 대표는 환영사에서 "지난 26년간 축적해온 기술 역량을 기반으로 우리는 단순 모델 성능이 아닌 비즈니스 실효성과 현장 접목 가능성에 초점을 맞춘 생성형 AI 전략을 펼쳐가고 있다"며 "제품군 확장을 통해 AI의 도입 허들을 낮추고 시장 성과로 이어지는 환경을 주도하겠다"고 강조했다. 실무형 RAG·통합형 LLM 앞세워…공공·의료 레퍼런스 '확보' 임완택 코난테크놀로지 전략기획본부 상무는 이날 간담회에서 검색증강생성 기술 기반의 신규 제품 '코난 RAG-X'를 소개했다. 발표에 앞서 그는 "LLM은 아무리 고성능이어도 최신 정보를 반영하지 못하고 사내 문서처럼 민감한 내부 데이터를 다루지 못하는 아키텍처 상의 한계가 있다"며 "우리는 이 한계를 실무 환경에서 해결하기 위해 RAG 기술을 핵심으로 재설계했다"고 설명했다. 임 상무에 따르면 '코난 RAG-X'는 단순한 외부 검색용 챗봇이 아니라 내부 데이터베이스(DB), 레거시 시스템, 공공기관 데이터, 뉴스, 논문, 커뮤니티 자료 등 다양한 정보를 연동해 활용할 수 있도록 구성된 멀티소스 기반의 B2B 특화형 시스템이다. 퍼플렉시티처럼 외부 웹에 의존하는 B2C형 RAG 솔루션과 달리 온프레미스 환경에서 구동돼 사내 민감 데이터가 외부로 유출될 우려 없이 운용 가능하다. 그는 기술 구조에도 차별점이 있다고 설명했다. 단일 질문에 대해 즉시 응답하는 일반형 RAG와 달리 '코난 RAG-X'는 하나의 복합 질문을 다단계 질의로 나누고 각 하위 질의에 대해 순차적으로 정보를 검색·검증한 뒤 최종 응답을 조합하는 구조다. 일례로 "최근 3개월간 대출 연체가 발생한 건설사를 알려주고 각 기업의 자본금, 분양 실적, 관련 뉴스 반응을 종합해 리스크 대응 전략을 보고서로 만들어줘" 같은 질의도 단계별로 자동 처리 가능하다는 설명이다. 이러한 구조 덕분에 'RAG-X'가 금융, 공공, 제조업처럼 의사결정 과정이 복잡하고 규제 요건이 엄격한 B2B 환경에서 유효하는 설명이다. 실제 도입을 검토하는 고객들도 질문부터 보고서 작성에 이르는 전 과정을 하나의 AI로 대체할 수 있다는 점에 높은 관심을 보이고 있다는 것이다. 이어 발표를 맡은 도원철 코난테크놀로지 연구소 상무는 회사의 최신 LLM '코난 ENT-11'을 중심으로 단일 모델 구조와 추론 성능 개선 내용을 발표했다. 그는 "'ENT-11'은 일반 모드와 추론 모드를 하나의 엔진으로 통합한 국내 유일의 모델"이라며 "별도 모델을 병행 도입할 필요 없이 다양한 업무에 확장 적용할 수 있다"고 강조했다. 도 상무는 'ENT-11'이 기존의 범용 생성 모델과 달리 정밀 추론에 특화된 구조를 갖췄다고 설명했다. 단순 질의응답을 넘어 수학 계산, 법률 문서 해석, 테이블 기반 질의 등 복합 태스크까지 하나의 모델로 처리할 수 있도록 설계됐다는 설명이다. 현장에서는 세 가지 시연이 진행됐다. 첫 번째는 법원 판결문을 기반으로 양형 인자 항목을 추출하는 과제였다. 'ENT-11'은 해당되는 양형 인자를 골라낸 뒤 문서 내 근거 문장까지 함께 출력해 응답의 신뢰성을 높였다. 더불어 신축 건물 정보를 담은 테이블에서 대지 면적의 총합을 계산하는 과제에서는 테이블 내 조건 필터링, 수치 추출, 합산 계산을 모두 수행해 정확한 결과를 출력했다. 또 유명한 AI 수학 벤치마크인 'MATH500' 문제를 'ENT-11'이 풀었고 94점을 기록했다는 결과도 공유됐다. 도 상무는 "'ENT-11'이 딥시크 'R1' 대비 20분의 1 규모의 파라미터로 유사한 수준의 성능을 냈고 한국어 추론에서는 더 높은 정확도를 확보했다"며 "설명 가능한 추론 과정을 한국어로 출력하는 기능은 현재 ENT-11이 유일하다"고 덧붙였다. 이어 이형주 코난테크놀로지 AI사업부 이사는 코난 LLM의 실제 도입 사례와 산업별 적용 효과를 소개했다. 이 이사에 따르면 한국남부발전은 발전사 최초로 생성형 AI를 전사 35개 태스크와 15개 시스템에 연동해 구축했다. 발전소 운영에 필요한 기술문서, 정책 자료, 현장 보고서 등을 자동 분류·요약·생성하는 데 코난 LLM이 적용됐으며 연간 약 10만 시간의 업무 절감과 최대 51억원 규모의 생산성 향상이 기대된다. 한림대학교의료원 역시 의료진이 매일 작성하는 일일 경과기록지 초안을 자동 생성하는 데 코난 LLM을 도입했다. 기존 수작업 대신 전자의무기록(EMR) 기반으로 초안을 자동 작성한 뒤 의료진이 검토·승인하는 방식으로, 연간 약 9만5천시간의 업무 시간을 줄이고 의사 1인당 약 36일의 진료 가능 시간을 확보할 수 있을 것으로 분석된다. 이와 함께 국민권익위원회는 행정심판 청구서 작성에 생성형 AI를 적용해 유사 판례 검색부터 청구서 초안 생성까지의 과정을 자동화했다. 전체 작성 시간이 최대 60% 이상 단축됐으며 민원인의 정보 접근성과 업무 담당자의 처리 효율 모두 개선된 것으로 나타났다. 이형주 이사는 "이제는 개념검증(PoC)을 넘어서 실질적 수익확보 단계로 넘어가고 있다"며 "생성형 AI는 '자동화 툴'이 아니라 '업무 자산'으로 재정의돼야 한다"고 말했다. 폐쇄망 AI스테이션·서버 공개…공공·B2B 실무 자동화 '정조준' 코난테크놀로지는 이번 행사에서 자사의 자체 개발 LLM이 탑재된 온디바이스형 AI PC '코난 AI스테이션(AIStation)'과 기업형 AI 서버 'AI스테이션 서버(aiStation Server)'를 공개하며 제품군 확장을 마무리했다. 발표는 조인배 TG삼보 팀장과 이형주 코난테크놀로지 AI사업부 이사가 각각 맡았다. 조인배 팀장은 'AI PC가 바꾸는 업무환경'을 주제로 "'AI스테이션'은 인터넷 없이도 AI 기능을 활용할 수 있어 공공기관의 보안 요건과 반복 업무 자동화 수요를 동시에 충족할 수 있는 실무형 장비"라며 "민원 응대, 보고서 작성, 외국어 안내 등 반복적인 행정 태스크에 특히 효과적"이라고 설명했다. 조 팀장은 AIStation의 핵심 기능으로 ▲문서 요약 및 질의응답 ▲다국어 번역 ▲RAG 기반 정보 생성 ▲유해 콘텐츠 차단 등을 꼽았다. 더불어 RAG 기능이 내장돼 있기 때문에 단순한 생성형 응답을 넘어 맥락에 기반한 응답 생성이 가능하다는 점을 주요 장점으로 꼽았다. 'AI스테이션'의 하드웨어는 인텔 14세대 i7·i9 CPU, 엔비디아 RTX 그래픽처리장치(GPU), 고용량 SSD 등으로 구성된다. 보급형과 고급형 모델로 나뉘어 오는 7월 조달 등록이 예정돼 있다. 이어 발표를 진행한 이형주 코난테크놀로지 AI사업부 이사는 기업형 AI 서버 제품 'AI스테이션 서버'를 소개했다. 그는 "중소기업이나 연구기관 입장에선 고가의 다중 서버 LLM 환경을 도입하기 어렵다"며 "'AI스테이션 서버'는 폐쇄망 기반에서도 단일 장비로 생성형 AI 환경을 구축할 수 있도록 설계된 어플라이언스형 제품"이라고 말했다. 'AI스테이션 서버'는 코난 LLM을 중심으로 문서 임베딩, 개인정보 필터링, 유해 질의 차단, 시스템 관리 기능이 통합된 단일 서버 구조다. 생산성은 높이고 보안과 비용 부담은 줄이기 위해 하나의 서버에 모든 기능을 통합해 50명 이하 소규모부터 300명 규모 조직까지 대응할 수 있다는 설명이다. 현장 시연에서는 사내 매뉴얼 기반 계획서 자동 생성, 보험업무 대응 화법 작성, 다국어 이메일 자동화 사례 등이 공개됐다. 유통 전략은 에스넷 그룹과의 협력을 중심으로 구축된다. 현재 서울, 대전, 대구, 부산의 에스넷 물류 거점을 통해 전국 단위 서비스 체계를 갖췄으며 에스넷 계열사들과 연계해 공공, 금융, 연구 기관 대상 B2B 사업화가 추진될 예정이다. 이형주 이사는 "AI스테이션 서버는 하나의 서버에 문서 검색, 요약, 보고서 생성, 다국어 대응 등 실질적인 B2B 태스크를 통합한 제품"이라며 "LLM이 단순한 기술이 아니라 현장 자동화 도구로 기능할 수 있다는 것을 입증하는 플랫폼이 될 것"이라고 강조했다. 실적 반등 신호…공공 조달·GPU 효율로 수익성 강화 노려 현장 질의응답에서는 실적 전망, 제품 가격, 기술 우위 등을 두고 구체적인 설명이 이어졌다. 임완택 전략기획본부 상무는 회사의 실적과 관련된 기자의 질문에 "지난 1분기 실적은 오는 15일 공시될 예정"이라며 "지난해 다수의 PoC가 마무리되며 올해는 본계약과 실 매출이 빠르게 증가하는 구간에 진입했다"고 밝혔다. 그는 공공·국방·대기업 중심으로 파이프라인이 확대되고 있다며 매출은 전년 대비 큰 폭으로 증가하고 적자 규모는 대폭 축소될 것으로 내다봤다. AI스테이션의 조달 전략을 묻는 질문에 대해서는 연간 40만 대 이상 규모의 데스크톱 조달 시장에서 5~10% 점유율 확보를 목표로 하고 있다는 조인배 TG삼보 팀장의 설명이 나왔다. 일정 비율만 확보해도 자체 LLM 수요 확대와 매출 증가로 이어질 수 있다는 판단에서다. 제품 가격은 천만 원 이하로 조율 중이다. GPU는 예산 구조와 성능 효율을 고려해 엔비디아 '지포스 RTX 4070'이 탑재됐다. 조인배 팀장은 "고성능 대비 최적화 작업을 통해 비용을 최소화했다"며 "공공기관에선 AI 서버보다 AI 기능 탑재 PC 형태로 접근하는 게 현실적"이라고 설명했다. LG '엑사원', 솔트룩스 '루시아' 등 타사 모델과의 성능 차이를 묻는 질문에는 GPU 사용 효율을 중심으로 비교 설명이 나왔다. 도원철 코난테크놀로지 연구소 상무는 'ENT-11'이 일반 생성형 모델과 추론 특화 모델을 하나로 통합한 구조라며 동일 작업을 처리할 때 필요한 GPU 자원이 절반 수준으로 줄어든다고 설명했다. 기존에는 쉬운 질의응답과 복잡한 추론 태스크에 각각 다른 모델을 띄워야 했지만 'ENT-11'은 하나의 모델로 모두 처리해 비용과 운용 부담을 동시에 낮추는 등 경쟁력을 갖췄다는 설명이다. 도원철 상무는 "두 모델을 따로 띄우는 구조는 GPU 자원이 2배로 들 수밖에 없다"며 "'ENT-11'은 단일 모델로 동일 기능을 처리해 훨씬 효율적이며 한국어 기반 추론 정확도도 타 모델 대비 높게 나온다"고 말했다.

2025.05.13 14:23조이환

와이즈넛, 국내 첫 RAG 솔루션 GS인증 1등급 획득…공공시장 진출 박차

와이즈넛(대표 강용성)이 자체 개발한 검색증강생성(RAG) 솔루션으로 굿소프트웨어(GS) 인증 1등급을 최초로 획득했다. 와이즈넛은 AI 에이전트 구축 최적화 솔루션 '와이즈 아이랙(WISE iRAG) V2'가 국내 인공지능 기업이 개발한 RAG 솔루션 중 처음으로 GS인증 1등급을 받았다고 8일 밝혔다. GS 인증은 과학기술정보통신부가 정한 소프트웨어 품질 기준에 따라 기능성, 호환성, 신뢰성 등 9개 항목에서 최고 수준을 충족한 제품에만 부여된다. 회사는 이를 바탕으로 조달청 디지털서비스몰 등록 절차를 빠르게 진행할 예정이며 상반기 내 업계 최초로 RAG 솔루션 등록을 완료한다는 계획이다. 이를 통해 공공시장 내 입지를 더욱 공고히 하고 안정적인 매출 확대를 기대하고 있다. 최근 생성형 AI 기반 에이전트가 주요 기술 화두로 떠오르며, RAG 기술의 중요성도 함께 부각되고 있다. 와이즈넛은 와이즈 아이랙과 자체 개발한 와이즈 LLM을 기반으로 AI 에이전트 구축 레퍼런스를 확보하고 있으며, 한국도로공사, 고용노동부, 한전KPS 등에서 이미 기술을 적용한 바 있다. WISE iRAG V2는 ▲벡터 검색과 키워드 검색을 결합한 하이브리드 RAG 구조 ▲고품질 검색을 위한 강화된 전처리 기술 ▲다양한 LLM과의 유연한 연동 ▲AI 에이전트 구축에 최적화된 학습 데이터 관리 기능(RAGOps) 등을 주요 특징으로 갖췄다. 강용성 대표는 "전 제품을 대상으로 GS인증을 획득해온 것은 기술력과 신뢰성을 동시에 강화하기 위한 노력의 일환"이라며, "RAG 기술을 중심으로 생성형 AI 에이전트 시장에서 기술 리더십을 확보하고, 공공·민간 시장에서의 사업 확장에 속도를 낼 것"이라고 밝혔다. 한편 와이즈넛은 국내 SW기업 중 최초로 2010년 SP 품질인증을 획득하고, 현재까지 인증을 유지해오며 지속적인 품질 관리를 이어가고 있다.

2025.05.08 14:16남혁우

파네시아, CXL 개발자 컨퍼런스서 'CXL 3.x' 스위치 솔루션 공개

국내 팹리스 스타트업 파네시아는 올해 국내 기업으로서 유일하게 CXL 개발자 컨퍼런스(CXL DevCon)에 참가해 고출력(high fan-out) CXL 3.x 스위치 기반 프레임워크를 선보였다고 7일 밝혔다. CXL DevCon은 CXL 표준을 제정하는 CXL 컨소시엄에서 주관하는 공식행사로서, 올해 2회차를 맞았다. 지난달 29일, 30일 양일간 미국 캘리포니아주 산타 클라라에서 진행됐다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. PCIe(PCI 익스프레스)를 기반으로 다수의 장치를 하나의 인터페이스로 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 파네시아는 올해 국내 기업으로서는 유일하게 전시 기업으로 참여해 대표 제품인 고출력 CXL 3.x 스위치와 이를 기반으로 한 프레임워크를 선보였다. 파네시아가 선보인 고출력 CXL 3.x 스위치는 서로 다른 CXL 장치들을 캐시 일관성이 보장된 하나의 시스템으로 통합하는 가교 역할을 한다. 파네시아가 자체 개발한 저지연 CXL IP를 기반으로 개발된 데에 더해, 한꺼번에 더 많은 장치를 연결할 수 있는 고출력 SoC 구조를 가짐으로 시스템의 평균적인 홉 수를 줄여 지연시간을 최소화한다. 또한 파네시아의 스위치는 여러 대의 스위치를 다수의 계층으로 연결하는 멀티-레벨 스위칭(multi-level switching) 기능, 그리고 각 장치가 장착되는 물리적 위치인 '포트'를 기준으로 장치 간의 논리적인 연결 구조와 연결 경로를 유연하게 설정하는 포트-기반 라우팅(port-based routing, PBR) 기능을 모두 지원한다. 뿐만 아니라 CPU, GPU, 메모리 등 모든 종류의 시스템 장치에 대한 연결을 지원하기 때문에, 수많은 시스템 장치들을 다양한 형태와 조합으로 연결해 고객의 요구에 맞는 대규모 시스템을 구축하는 데 용이하다. 파네시아는 이번 전시회에서 CXL 3.x 스위치를 활용해 CXL 서버 노드를 여러 개 연결해 구축한 'CXL Composable Server'도 출품했다. 각 서버 노드에는 파네시아의 또 다른 제품인 CXL IP를 활용해 개발한 CPU, GPU, 메모리 장치 등이 종류별로 장착돼 있다. 덕분에 고객들은 그때그때 필요한 장치가 장착된 노드를 추가로 장착해 수요에 알맞은 형태로 시스템을 구축할 수 있다. 파네시아는 해당 프레임워크를 기반으로 검색증강생성(RAG), 대규모언어모델(LLM) 등의 AI 응용 및 과학 시뮬레이션을 가속하는 데모를 시연하며, 행사에 참석한 CXL 전문기업들로부터 많은 주목을 받았다. 파네시아 관계자는 “CXL 3.x 스위치 기술을 다룬 발표와 출품은 파네시아가 유일했다”며 “CXL 컨소시엄의 리더들에게도 CXL 3.x 스위치는 새로운 기술이기에, 이번 파네시아의 출품작과 발표에 많은 관심을 보인 것 같다”고 말했다.

2025.05.07 14:56장경윤

"국산 AI 추론 비용 잡는다"…코난테크놀로지, 이종 반도체 분산추론에 '승부수'

코난테크놀로지가 인공지능(AI) 반도체 기반 분산 추론 및 모델 최적화 기술 개발에 나선다. 다양한 AI반도체를 연동하는 기술을 확보해 추론비용을 낮추고 국내 AI 인프라의 자립성과 경쟁력을 끌어올리려는 의도다. 코난테크놀로지는 과학기술정보통신부가 추진하는 '이종 AI반도체용 분산 추론 및 모델 최적화 기술 개발' 과제에 선정됐다고 29일 밝혔다. 이 사업은 오는 2029년 12월까지 약 4년 9개월간 진행되며 총 104억원 규모다. 한국전자통신연구원(ETRI)이 주관을 맡고 코난테크놀로지를 비롯해 리벨리온, 서울대, 카이스트가 공동 연구에 참여한다. 이번 과제는 신경망처리장치(NPU)와 인메모리컴퓨팅(PIM) 등 다양한 AI반도체를 활용하는 환경에서 효율적인 분산추론과 모델 최적화를 구현하는 것이 목표다. 이를 통해 AI모델을 유연하게 구동하는 서비스 프레임워크, AI가속기 기반 자원 스케줄링 시스템, 사용자 단말 중심의 거대언어모델(LLM)-검색증강생성(RAG) 기반 통합 실증 서비스가 개발될 예정이다. 코난테크놀로지는 이 중 LLM-RAG 분산추론 통합 실증 서비스를 담당한다. AI 소프트웨어 기술력과 개발 경험을 살려 다양한 반도체 환경에서도 안정적인 AI 서비스를 구현할 계획이다. 이로써 고성능 분산추론 구조를 검증하고 향후 차세대 AI 인프라 상용화 기반을 마련한다. 더불어 이 회사는 다음달 13일 열리는 '2025 코난테크놀로지 AI쇼케이스-미디어 브리핑' 행사에서 '코난 LLM', '코난 RAG-X'를 포함한 신제품을 공개할 예정이다. 이 자리에서는 향후 사업화 전략도 소개한다. 오창민 코난테크놀로지 언어음성연구소 상무는 "국내 AI 인프라의 기술 자립을 위한 핵심 과제에 참여하게 돼 의미가 크다"며 "이종 AI반도체 기반 추론 환경에서 고도화된 실증 서비스를 현실화하고 차세대 AI 인프라 상용화에 기여하겠다"고 밝혔다.

2025.04.29 15:59조이환

디노티시아, 국내 최초 '벡터 DB' 상용화 첫 발…"검색 성능 2배"

"디노티시아의 국내 최초 벡터 데이터베이스(DB)는 소프트웨어 만으로 기존 상용화 서비스 대비 2배 빠른 검색 성능을 구현했다. 올해 하반기에 출시되는 전용 칩을 결합하면, 성능은 10배까지 높아질 수 있다. 효율성이 중요한 미래 AI 시대에서 중요한 기술이 될 것이다" 정무경 디노티시아 대표는 22일 서울 본사에서 기자간담회를 열고 회사의 핵심 기술 및 사업 방향에 대해 이같이 밝혔다. 국내 최초 벡터 데이터베이스 서비스 출시…검색 성능 2배 디노티시아는 장기기억 AI 및 반도체 통합 솔루션 전문기업이다. 국내 최초의 벡터 데이터베이스인 '씨홀스(Seahorse)' 개발에 성공해, 이달 SaaS(서비스형 소프트웨어) 클라우드 버전을 베타 형태로 공식 출시했다. 벡터 데이터베이스는 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템이다. 쿼리의 의미적 유사성을 인식하고 맥락을 파악한다는 점에서, 단순한 키워드 검색 대비 뛰어난 성능을 구현한다. 이를 '시멘틱 서치'라고도 부른다. 씨홀스 클라우드는 클라우드 네이티브 아키텍처를 기반으로 한다. 고성능 벡터 데이터베이스를 웹 환경에서 간편하게 사용할 수 있도록 구현됐다. 복잡한 하드웨어 조달이나 소프트웨어 설치를 요구하지 않아 편의성도 뛰어나다. 이번 SaaS 버전은 기존 상용 및 오픈소스 벡터 데이터베이스 대비 약 2배 빠른 검색 성능을 소프트웨어만으로 구현했다. 또한 세계 최초로 MCP(모델 컨텍스트 프로토콜)를 지원하는 'RAGOps(외부 데이터를 검색해 이를 바탕으로 응답을 생성하는 기술 체계) 서비스도 함께 제공할 계획이다. 정 대표는 "현재의 LLM(거대언어모델)은 너무 방대한 양의 데이터를 처리해야 하기 때문에, 보다 효율성이 높은 AI 모델 및 서비스에 대한 수요가 커지는 추세"라며 "디노티시아는 소프트웨어 뿐만 아니라 하드웨어까지 개발해 AI 모델의 효율성을 극대화하는 벡터 데이터베이스 기술을 개발할 것"이라고 밝혔다. 전용 칩 결합하면 성능 10배…대형 고객사 확보 등 성과 씨홀스는 오는 24일부터 공식 홈페이지를 통해 국내 클로즈 베타 서비스가 시작된다. 사용자는 씨홀스 클라우드와 구글 드라이브를 연동해, 수백 개의 문서 속에서 의미와 맥락에 맞는 정보를 빠르게 찾을 수 있다. 씨홀스의 차기 버전은 디노티시아가 자체 개발한 벡터 데이터베이스 전용 반도체 VDPU(벡터 데이터 프로세싱 유닛)로 성능을 한층 끌어올릴 계획이다. 반도체가 결합된 경우, 씨홀스는 기존 대비 최대 10배 높은 성능을 구현할 수 있게 된다. 이를 통해 TCO(총소유비용)를 80% 이상 절감할 수 있다는 게 디노티시아의 설명이다. 해당 칩은 TSMC의 12나노미터(nm) 공정을 활용해 제조된다. 올해 하반기에는 FPGA(필드 프로그래머블 게이트 어레이) 버전이 출시되며, 내년에는 ASIC(주문형반도체) 형태로 탑재될 예정이다. 노홍찬 디노티시아 CDO(최고데이터책임자)는 "씨홀스는 이미 대형 고객사와 계약을 체결하는 등 성과를 거두고 있다"며 "씨홀스를 활용하면 CPU 서버 시스템을 10분의 1로 줄이거나, GPU를 5분의 1로 줄일 수 있어 매우 효율적"이라고 강조했다.

2025.04.23 12:58장경윤

"내부 문서와 웹 검색을 한 번에"…코난테크놀로지, 기업용 AI 'RAG-X' 첫 선

코난테크놀로지가 기업용 생성형 인공지능(AI) 시장 공략에 나선다. 내부 데이터와 외부 정보를 동시에 아우르는 검색 기술으로 다양한 산업군의 실무 자동화 수요를 충족시키기 위해서다. 코난테크놀로지는 오는 24일부터 사흘간 서울 삼성동 코엑스에서 열리는 '2025 월드IT쇼(WIS 2025)'에 참가해 '코난 RAG-X'를 첫 공개한다고 21일 밝혔다. 행사 부스는 코엑스 3층 C홀에 마련되며 현장에서는 제품 시연과 함께 다양한 활용 시나리오도 소개될 예정이다. '코난 RAG-X'는 생성형 AI 기술과 정밀 벡터 검색 기반의 검색증강생성(RAG) 구조를 결합한 솔루션이다. 코난테크놀로지가 지난 20여년 간 축적한 검색 노하우를 토대로 사내 문서와 데이터베이스(DB), 회계·인사 등 레거시 시스템은 물론 외부 웹사이트와 공공 데이터까지 통합 분석할 수 있도록 설계됐다. 기존 생성형 AI가 외부 검색에만 의존해 기업 환경에서의 실효성이 떨어졌던 것과 달리 '코난 RAG-X'는 기업 내부 자산과 외부 지식을 유기적으로 연결해 실질적인 업무 자동화를 가능하게 한다는 점에서 차별화된다. 지난달 사내 베타 테스트를 마쳤으며 이번 월드IT쇼를 통해 처음 대외적으로 선보인다. '코난 RAG-X'의 활용 가능 분야는 은행, 제조, 공공기관 등으로 다양하다. 일례로 금융기관의 리스크 관리 부서가 해당 업종의 대출 연체율 변화와 특정 기업의 자금 흐름을 실시간으로 점검하는 데 활용할 수 있다. 내부 데이터 기반의 통계 분석과 함께 국토교통부, 금융감독원 등 기관 자료 및 웹 검색 결과까지 종합적으로 반영해 대응 보고서 작성에 필요한 인사이트를 자동 생성한다. 이 같은 구조는 기존 생성형 AI에 대한 신뢰성과 정확성 문제를 보완할 수 있다는 점에서도 주목된다. 코난테크놀로지는 '코난 RAG-X'를 통해 AI 도입 시 가장 큰 장벽으로 꼽히는 내부 자산 보호와 외부 정보 활용 간의 균형을 동시에 충족시킨다는 계획이다. 더불어 코난테크놀로지는 다음달 13일 예정된 '2025 코난테크놀로지 AI쇼케이스 : 미디어 브리핑' 행사에서도 'RAG-X'를 포함한 신규 생성형 AI 제품군을 추가로 소개할 예정이다. 박영진 코난테크놀로지 팀장은 "'코난 RAG-X'는 생성AI의 신뢰성과 활용 가능성을 극대화한 제품"이라며 "업무 현장에서 실제 쓰일 수 있는 기업형 AI로 자리잡도록 적극적인 사업 전개에 나설 것"이라고 말했다.

2025.04.21 16:06조이환

디노티시아·하이퍼엑셀, AI칩 결합해 최적 추론 시스템 개발

인공지능(AI)·반도체 통합 솔루션 전문기업 디노티시아는 AI 반도체 설계 팹리스 스타트업 하이퍼엑셀과 공동으로 'RAG(검색증강생성) 최적화 AI 추론 시스템' 개발에 나선다고 20일 밝혔다. 이번 협력은 디노티시아의 벡터 데이터 연산 가속기 칩(VDPU)과 하이퍼엑셀의 거대언어모델(LLM) 가속기 칩인 'LLM 프로세싱 유닛(LPU)'을 결합해 하나의 통합 시스템으로 구현하는 방식으로 진행된다. AI 서비스 분야에서 데이터 검색의 중요성이 점차 커지고, 데이터의 모달리티(modality)도 다양해지며 양이 늘어나면서, 더 빠른 데이터 검색이 점점 더 요구되고 있다. 기존 시스템은 소프트웨어에 의존해 데이터를 검색하고, LLM 기반의 GenAI 과정을 별도로 처리해 응답 속도가 느리고 전력 소모가 많았다. 디노티시아는 벡터 데이터베이스 연산 가속기 칩, VDPU를 활용해 AI가 대규모 멀티모달 (Multi-modal) 데이터를 실시간으로 검색·활용할 수 있도록 제공하고, 하이퍼엑셀은 LPU 칩을 통해 AI 모델의 연산 성능을 극대화 한다. 양사는 이 두 칩을 결합해, 검색과 추론을 동시에 처리하는 세계 최초의 RAG 특화 AI 시스템을 완성할 계획이다. 정무경 디노티시아 대표는 “LLM 서비스가 확산되면서 데이터 검색에 대한 요구사항이 급격히 늘어나고 있다”며 “이번 협력을 통해 AI 모델의 추론뿐 아니라 데이터 검색 기능까지 최적화한 새로운 개념의 AI 시스템을 선보이겠다”고 말했다. 김주영 하이퍼엑셀 대표는 “AI 연산의 병목 현상을 해결하고, 성능과 효율성을 동시에 확보하는 것이 AI 반도체의 핵심 과제”라며 “이번 협력을 통해 RAG와 LLM을 최적화한 AI 시스템을 구축함으로써, AI 시스템 운영 방식을 혁신하는 중요한 전환점이 될 것”이라고 말했다.

2025.03.20 10:42장경윤

[AI는 지금] 검색 시장에 부는 AI 바람…글로벌 포털, 생존 전략 재편한다

인공지능(AI) 검색이 기존 검색 시장을 변화시키고 있다. 기존 키워드 검색이 여러 링크를 클릭해야 하는 번거로움을 수반했던 점과 달리 직접 답변을 제공하는 방식으로 진화하고 있기 때문이다. 이러한 변화 속에서 국내외 검색 엔진 업계는 새로운 환경에 적응하기 위한 생존 전략을 모색해야 하는 상황에 놓였다. 17일 업계에 따르면 해외에서는 이미 AI 검색 서비스가 빠르게 확산하며 검색 시장의 주류로 자리 잡고 있다. 대표적인 서비스로는 퍼플렉시티, 오픈AI '챗GPT 서치', 구글 'AI 오버뷰' 등이 있다. 이들 서비스는 기존 검색 방식보다 빠르고 직관적인 정보를 제공하며 사용자의 검색 경험을 근본적으로 변화시키고 있다. 퍼플렉시티는 AI가 질문에 대한 직접적인 답변을 제공하며 검색 결과의 출처를 명확히 표시해 신뢰도를 높이는 것이 특징이다. 오픈AI '챗GPT 서치'는 기존 '챗GPT'에 탑재 돼 기존 검색 엔진과 차별화를 꾀했다. 구글 'AI 오버뷰'는 생성형 AI를 활용해 검색 결과 상단에 요약된 정보를 제공하며 링크 탐색을 통해 추가 정보를 찾을 수 있도록 구성됐다. 이들 AI 검색의 가장 큰 특징은 기존 키워드 검색과 전혀 다른 방식으로 정보를 제공한다는 점이다. 기존 검색 엔진은 사용자의 입력 키워드를 기반으로 연관 웹사이트 링크를 나열해 사용자가 추가적으로 정보를 찾아야 하는 식이었다. 반대로 AI 검색은 문맥을 이해하고 맞춤형 답변을 직접 생성해 제공한다. 이는 사용자가 원하는 정보를 보다 빠르게 찾을 수 있도록 지원하지만 검색 광고 클릭률 감소를 유도할 가능성이 있다. 이러한 특성은 이미 기존 검색 엔진의 시장 점유율에도 영향을 미치고 있다. 구글의 글로벌 검색 시장 점유율은 지난해 말 91.58%에서 90%로 소폭 하락했다. 이는 지난 2015년 이후 최초로 발생한 이례적 현상으로, 올해 미국 내 검색 광고 점유율도 50.5%에서 48.3%로 감소할 것으로 전망된다. 검색 시장의 구조적 변화도 불가피하다. 기존 검색 엔진들은 광고 기반 수익 모델에 의존하고 있는 만큼 AI 검색이 대중화될 경우 핵심 비즈니스 모델이 흔들릴 가능성이 크다. AI가 직접적인 답변을 제공하는 방식이 확산되면 검색 광고 노출 기회가 줄어들어 수익 감소로 이어질 수 있기 때문이다. 업계 전문가들도 우려를 제기하고 있다. 로샤트 아드나니 엠앤씨사치퍼포먼스 아태지역 매니징 디렉터는 "제품 차원에서 직면한 도전 과제로 인해 구글은 시장 점유율 축소에 더 큰 영향을 받을 수 있다"며 "'챗GPT'가 이미 소비자 검색 행동을 변화시킨 와중에 검색 전문 AI 기술이 검색 패턴을 재편할 가능성이 크다"고 말했다. 국내에서도 AI 검색의 확산으로 검색 시장의 구조적 변화가 가속화되고 있다. 이러한 흐름 속에서 카카오는 지난 13일 다음을 독립 법인으로 분사하기로 결정했다. 카카오 관계자는 "재도약을 위해 분사를 준비하고 있다"며 "법인 독립을 통해 다양한 실험이 가능한 환경을 조성하고 독자적인 의사결정 구조를 갖춰 경쟁력을 강화할 것"이라고 밝혔다. 다만 이는 AI 검색 기술이 기존 검색 엔진을 대체하는 움직임이 본격화되는 가운데 다음의 검색 시장 점유율이 2.72%까지 하락하면서 불가피한 선택이 된 것으로 보인다. 실제로 카카오는 다음을 분사하는 동시에 지난해에 AI 서비스 '카나나'를 발표하고 지난 2월 오픈AI와 파트너십을 체결하는 등 AI 중심 기업으로의 전환을 가속화하고 있다. 이외에도 AI 검색 기술을 활용한 서비스가 국내에서 속속 등장하고 있다. 네이버는 AI 검색 서비스 '큐(Cue:)'를 통해 생성형 AI 기술을 접목한 새로운 검색 방식을 도입했다. 네이버 '하이퍼클로바X' 모델을 기반으로 개발된 '큐'는 복잡한 질의를 분석하고 검색 증강 생성(RAG) 기술을 활용해 보다 정교한 답변을 제공한다. 특히 대화형 검색을 지원해 사용자의 이전 질문을 기억하고 맥락을 반영한 지속적인 검색이 가능하다. '큐'는 지난 2023년 9월 시범 출시돼 현재 PC 버전으로 제공 중이며 올해부터는 네이버 통합검색과 본격적으로 연계될 예정이다. 또 쇼핑·예약 등 맞춤형 서비스와의 연계를 통해 활용 범위가 확대될 것으로 예상된다. 이같은 상황에서 오픈리서치의 '오오에이아이(oo.ai)' 역시 주목받고 있다. 이 회사는 김일두 대표 등 카카오브레인 출신 AI 전문가들이 설립한 기업으로, 지난해 7월 창업과 동시에 100억원 규모의 시드 투자를 유치하며 기대를 모았다. 오픈리서치는 이 솔루션을 통해 AI 기술을 활용해 검색어를 분석하고 맥락을 이해하여 신속하고 정확한 검색 결과를 제공하는 것을 목표로 한다. 오픈리서치에 따르면 '오오에이'는 기존 AI 검색 서비스보다 10배 이상 많은 참고 자료를 활용하며 검색 시간이 3초 이내로 단축했다. 이는 기존 검색 엔진이 7~8개의 문서를 참고하는 것과 비교해 압도적인 차이를 보인다. 특히 퍼플렉시티 '프로'와의 비교에서도 검색 속도와 데이터 활용량 측면에서 우위를 점했다. '프로'가 유료 서비스로 운영되는 것과 달리 무료로 제공된다는 점도 차별화 요소다. 이러한 접근 방식은 AI 검색의 대중화를 촉진할 가능성이 크다. 커머스 분야에서도 강점을 보인다. 단순한 가격 비교를 넘어 소비자 맞춤형 정보를 제공할 수 있도록 설계됐다. 일례로 '당뇨병 환자에게 적합한 사과'를 검색하면 사과 품종별 당도와 식이섬유 함량을 분석해 최적의 제품을 추천하는 방식이다. 이러한 기능은 소비자들에게 더욱 정확하고 유용한 검색 경험을 제공할 것으로 예측된다. 김일두 오픈리서치 대표는 "'오오에이아이'는 신속한 속도, 높은 정확성, 직관적인 인터페이스로 차별화된 검색 경험을 제공하는 차세대 '검색 코파일럿'"이라며 "기존 검색에서는 찾기 어려웠던 정보들까지 답변해 사람들이 가장 편하게 많이 사용하는 AI 검색 서비스로 거듭나겠다"고 강조했다.

2025.03.17 16:52조이환

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

삼성·SK, 엔비디아 HBM4 퀄테스트 내년 1분기 판가름

AI 홈 시대 왔다…삼성·LG, IFA 2025서 현실형 솔루션 제시

기업회생 5개월 지나도…답보상태 빠진 홈플러스

韓 IT서비스 빅3, AX 주도권 경쟁 본격화…각사 핵심 전략은

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.