• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'언어 생성 AI'통합검색 결과 입니다. (24건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[현장] 통합형 LLM·멀티소스 RAG로 '출격'…코난테크놀로지, 올해 실적 반등 노린다

"생성형 인공지능(AI)의 핵심은 더 이상 모델 성능의 경쟁이 아닙니다. 이제는 얼마나 실질적인 업무 수요를 반영하고 이를 통해 실제 성과를 만들어낼 수 있는가가 관건입니다." 김영섬 코난테크놀로지 대표는 13일 서울 광화문 호텔 코리아나에서 열린 기자간담회에서 이같이 밝히며 자체 개발한 차세대 거대언어모델(LLM), 신규 인공지능(AI) 제품군, 이를 아우르는 사업화 전략과 기술 로드맵을 공개했다. '추론 통합형 LLM부터 AI PC까지'라는 주제로 진행된 이번 간담회는 실제 업무 현장에서 검증 가능한 생성형 AI 기술을 중심으로, 코난테크놀로지가 독자 개발한 코난 LLM 'ENT-11', 레거시 연동형 검색증강생성(RAG) 시스템 'RAG-X', 그리고 온디바이스 AI 솔루션 'AI스테이션' 등을 소개하는 자리였다. 김 대표는 환영사에서 "지난 26년간 축적해온 기술 역량을 기반으로 우리는 단순 모델 성능이 아닌 비즈니스 실효성과 현장 접목 가능성에 초점을 맞춘 생성형 AI 전략을 펼쳐가고 있다"며 "제품군 확장을 통해 AI의 도입 허들을 낮추고 시장 성과로 이어지는 환경을 주도하겠다"고 강조했다. 실무형 RAG·통합형 LLM 앞세워…공공·의료 레퍼런스 '확보' 임완택 코난테크놀로지 전략기획본부 상무는 이날 간담회에서 검색증강생성 기술 기반의 신규 제품 '코난 RAG-X'를 소개했다. 발표에 앞서 그는 "LLM은 아무리 고성능이어도 최신 정보를 반영하지 못하고 사내 문서처럼 민감한 내부 데이터를 다루지 못하는 아키텍처 상의 한계가 있다"며 "우리는 이 한계를 실무 환경에서 해결하기 위해 RAG 기술을 핵심으로 재설계했다"고 설명했다. 임 상무에 따르면 '코난 RAG-X'는 단순한 외부 검색용 챗봇이 아니라 내부 데이터베이스(DB), 레거시 시스템, 공공기관 데이터, 뉴스, 논문, 커뮤니티 자료 등 다양한 정보를 연동해 활용할 수 있도록 구성된 멀티소스 기반의 B2B 특화형 시스템이다. 퍼플렉시티처럼 외부 웹에 의존하는 B2C형 RAG 솔루션과 달리 온프레미스 환경에서 구동돼 사내 민감 데이터가 외부로 유출될 우려 없이 운용 가능하다. 그는 기술 구조에도 차별점이 있다고 설명했다. 단일 질문에 대해 즉시 응답하는 일반형 RAG와 달리 '코난 RAG-X'는 하나의 복합 질문을 다단계 질의로 나누고 각 하위 질의에 대해 순차적으로 정보를 검색·검증한 뒤 최종 응답을 조합하는 구조다. 일례로 "최근 3개월간 대출 연체가 발생한 건설사를 알려주고 각 기업의 자본금, 분양 실적, 관련 뉴스 반응을 종합해 리스크 대응 전략을 보고서로 만들어줘" 같은 질의도 단계별로 자동 처리 가능하다는 설명이다. 이러한 구조 덕분에 'RAG-X'가 금융, 공공, 제조업처럼 의사결정 과정이 복잡하고 규제 요건이 엄격한 B2B 환경에서 유효하는 설명이다. 실제 도입을 검토하는 고객들도 질문부터 보고서 작성에 이르는 전 과정을 하나의 AI로 대체할 수 있다는 점에 높은 관심을 보이고 있다는 것이다. 이어 발표를 맡은 도원철 코난테크놀로지 연구소 상무는 회사의 최신 LLM '코난 ENT-11'을 중심으로 단일 모델 구조와 추론 성능 개선 내용을 발표했다. 그는 "'ENT-11'은 일반 모드와 추론 모드를 하나의 엔진으로 통합한 국내 유일의 모델"이라며 "별도 모델을 병행 도입할 필요 없이 다양한 업무에 확장 적용할 수 있다"고 강조했다. 도 상무는 'ENT-11'이 기존의 범용 생성 모델과 달리 정밀 추론에 특화된 구조를 갖췄다고 설명했다. 단순 질의응답을 넘어 수학 계산, 법률 문서 해석, 테이블 기반 질의 등 복합 태스크까지 하나의 모델로 처리할 수 있도록 설계됐다는 설명이다. 현장에서는 세 가지 시연이 진행됐다. 첫 번째는 법원 판결문을 기반으로 양형 인자 항목을 추출하는 과제였다. 'ENT-11'은 해당되는 양형 인자를 골라낸 뒤 문서 내 근거 문장까지 함께 출력해 응답의 신뢰성을 높였다. 더불어 신축 건물 정보를 담은 테이블에서 대지 면적의 총합을 계산하는 과제에서는 테이블 내 조건 필터링, 수치 추출, 합산 계산을 모두 수행해 정확한 결과를 출력했다. 또 유명한 AI 수학 벤치마크인 'MATH500' 문제를 'ENT-11'이 풀었고 94점을 기록했다는 결과도 공유됐다. 도 상무는 "'ENT-11'이 딥시크 'R1' 대비 20분의 1 규모의 파라미터로 유사한 수준의 성능을 냈고 한국어 추론에서는 더 높은 정확도를 확보했다"며 "설명 가능한 추론 과정을 한국어로 출력하는 기능은 현재 ENT-11이 유일하다"고 덧붙였다. 이어 이형주 코난테크놀로지 AI사업부 이사는 코난 LLM의 실제 도입 사례와 산업별 적용 효과를 소개했다. 이 이사에 따르면 한국남부발전은 발전사 최초로 생성형 AI를 전사 35개 태스크와 15개 시스템에 연동해 구축했다. 발전소 운영에 필요한 기술문서, 정책 자료, 현장 보고서 등을 자동 분류·요약·생성하는 데 코난 LLM이 적용됐으며 연간 약 10만 시간의 업무 절감과 최대 51억원 규모의 생산성 향상이 기대된다. 한림대학교의료원 역시 의료진이 매일 작성하는 일일 경과기록지 초안을 자동 생성하는 데 코난 LLM을 도입했다. 기존 수작업 대신 전자의무기록(EMR) 기반으로 초안을 자동 작성한 뒤 의료진이 검토·승인하는 방식으로, 연간 약 9만5천시간의 업무 시간을 줄이고 의사 1인당 약 36일의 진료 가능 시간을 확보할 수 있을 것으로 분석된다. 이와 함께 국민권익위원회는 행정심판 청구서 작성에 생성형 AI를 적용해 유사 판례 검색부터 청구서 초안 생성까지의 과정을 자동화했다. 전체 작성 시간이 최대 60% 이상 단축됐으며 민원인의 정보 접근성과 업무 담당자의 처리 효율 모두 개선된 것으로 나타났다. 이형주 이사는 "이제는 개념검증(PoC)을 넘어서 실질적 수익확보 단계로 넘어가고 있다"며 "생성형 AI는 '자동화 툴'이 아니라 '업무 자산'으로 재정의돼야 한다"고 말했다. 폐쇄망 AI스테이션·서버 공개…공공·B2B 실무 자동화 '정조준' 코난테크놀로지는 이번 행사에서 자사의 자체 개발 LLM이 탑재된 온디바이스형 AI PC '코난 AI스테이션(AIStation)'과 기업형 AI 서버 'AI스테이션 서버(aiStation Server)'를 공개하며 제품군 확장을 마무리했다. 발표는 조인배 TG삼보 팀장과 이영주 코난테크놀로지 AI사업부 이사가 각각 맡았다. 조인배 팀장은 'AI PC가 바꾸는 업무환경'을 주제로 "'AI스테이션'은 인터넷 없이도 AI 기능을 활용할 수 있어 공공기관의 보안 요건과 반복 업무 자동화 수요를 동시에 충족할 수 있는 실무형 장비"라며 "민원 응대, 보고서 작성, 외국어 안내 등 반복적인 행정 태스크에 특히 효과적"이라고 설명했다. 조 팀장은 AIStation의 핵심 기능으로 ▲문서 요약 및 질의응답 ▲다국어 번역 ▲RAG 기반 정보 생성 ▲유해 콘텐츠 차단 등을 꼽았다. 더불어 RAG 기능이 내장돼 있기 때문에 단순한 생성형 응답을 넘어 맥락에 기반한 응답 생성이 가능하다는 점을 주요 장점으로 꼽았다. 'AI스테이션'의 하드웨어는 인텔 14세대 i7·i9 CPU, 엔비디아 RTX 그래픽처리장치(GPU), 고용량 SSD 등으로 구성된다. 보급형과 고급형 모델로 나뉘어 오는 7월 조달 등록이 예정돼 있다. 이어 발표를 진행한 이영주 코난테크놀로지 AI사업부 이사는 기업형 AI 서버 제품 'AI스테이션 서버'를 소개했다. 그는 "중소기업이나 연구기관 입장에선 고가의 다중 서버 LLM 환경을 도입하기 어렵다"며 "'AI스테이션 서버'는 폐쇄망 기반에서도 단일 장비로 생성형 AI 환경을 구축할 수 있도록 설계된 어플라이언스형 제품"이라고 말했다. 'AI스테이션 서버'는 코난 LLM을 중심으로 문서 임베딩, 개인정보 필터링, 유해 질의 차단, 시스템 관리 기능이 통합된 단일 서버 구조다. 생산성은 높이고 보안과 비용 부담은 줄이기 위해 하나의 서버에 모든 기능을 통합해 50명 이하 소규모부터 300명 규모 조직까지 대응할 수 있다는 설명이다. 현장 시연에서는 사내 매뉴얼 기반 계획서 자동 생성, 보험업무 대응 화법 작성, 다국어 이메일 자동화 사례 등이 공개됐다. 유통 전략은 에스넷 그룹과의 협력을 중심으로 구축된다. 현재 서울, 대전, 대구, 부산의 에스넷 물류 거점을 통해 전국 단위 서비스 체계를 갖췄으며 에스넷 계열사들과 연계해 공공, 금융, 연구 기관 대상 B2B 사업화가 추진될 예정이다. 이영주 이사는 "AI스테이션 서버는 하나의 서버에 문서 검색, 요약, 보고서 생성, 다국어 대응 등 실질적인 B2B 태스크를 통합한 제품"이라며 "LLM이 단순한 기술이 아니라 현장 자동화 도구로 기능할 수 있다는 것을 입증하는 플랫폼이 될 것"이라고 강조했다. 실적 반등 신호…공공 조달·GPU 효율로 수익성 강화 노려 현장 질의응답에서는 실적 전망, 제품 가격, 기술 우위 등을 두고 구체적인 설명이 이어졌다. 임완택 전략기획본부 상무는 회사의 실적과 관련된 기자의 질문에 "지난 1분기 실적은 오는 15일 공시될 예정"이라며 "지난해 다수의 PoC가 마무리되며 올해는 본계약과 실 매출이 빠르게 증가하는 구간에 진입했다"고 밝혔다. 그는 공공·국방·대기업 중심으로 파이프라인이 확대되고 있다며 매출은 전년 대비 큰 폭으로 증가하고 적자 규모는 대폭 축소될 것으로 내다봤다. AI스테이션의 조달 전략을 묻는 질문에 대해서는 연간 40만 대 이상 규모의 데스크톱 조달 시장에서 5~10% 점유율 확보를 목표로 하고 있다는 조인배 TG삼보 팀장의 설명이 나왔다. 일정 비율만 확보해도 자체 LLM 수요 확대와 매출 증가로 이어질 수 있다는 판단에서다. 제품 가격은 천만 원 이하로 조율 중이다. GPU는 예산 구조와 성능 효율을 고려해 엔비디아 '지포스 RTX 4070'이 탑재됐다. 조인배 팀장은 "고성능 대비 최적화 작업을 통해 비용을 최소화했다"며 "공공기관에선 AI 서버보다 AI 기능 탑재 PC 형태로 접근하는 게 현실적"이라고 설명했다. LG '엑사원', 솔트룩스 '루시아' 등 타사 모델과의 성능 차이를 묻는 질문에는 GPU 사용 효율을 중심으로 비교 설명이 나왔다. 도원철 코난테크놀로지 연구소 상무는 'ENT-11'이 일반 생성형 모델과 추론 특화 모델을 하나로 통합한 구조라며 동일 작업을 처리할 때 필요한 GPU 자원이 절반 수준으로 줄어든다고 설명했다. 기존에는 쉬운 질의응답과 복잡한 추론 태스크에 각각 다른 모델을 띄워야 했지만 'ENT-11'은 하나의 모델로 모두 처리해 비용과 운용 부담을 동시에 낮추는 등 경쟁력을 갖췄다는 설명이다. 도원철 상무는 "두 모델을 따로 띄우는 구조는 GPU 자원이 2배로 들 수밖에 없다"며 "'ENT-11'은 단일 모델로 동일 기능을 처리해 훨씬 효율적이며 한국어 기반 추론 정확도도 타 모델 대비 높게 나온다"고 말했다.

2025.05.13 14:23조이환

"글로벌 수준"...카카오, 멀티모달 언어모델 'Kanana-o' 성능 공개

카카오가 새로운 인공지능 모델을 통해 기술 경쟁력 강화를 이어간다. 카카오(대표 정신아)는 공식 테크블로그를 통해 통합 멀티모달 언어모델 'Kanana-o'와 오디오 언어모델 'Kanana-a'의 성능과 개발 후기를 1일 공개했다. 통합 멀티모달 언어모델인 Kanana-o는 텍스트와 음성, 이미지까지 다양한 형태의 정보를 동시에 이해하고 처리할 수 있는 모델이다. 텍스트, 음성, 이미지 중 어떠한 조합으로 질문을 입력하더라도 처리 가능하며, 상황에 맞는 텍스트나 자연스러운 음성으로 응답 가능한 구조로 설계됐다. 카카오는 '모델 병합' 기술을 기반으로 이미지 처리에 특화된 모델 'Kanana-v'와 오디오 이해 및 생성에 특화된 'Kanana-a' 모델을 통합, 단기간 내 효율적으로 Kanana-o를 개발했다. 통합 후에는 이미지, 오디오, 텍스트 데이터를 동시에 학습하는 '병합 학습'을 통해 시각과 청각 정보를 동시에 이해하고, 텍스트와 연결 지을 수 있도록 통합 훈련을 거쳤다. 이런 과정을 통해 기존 LLM 구조에서 이미지 이해 능력과 음성 인식과 합성, 감정 이해 등 고도화된 오디오 능력을 확장시킨 통합 멀티모달 언어모델이 구현됐다. Kanana-o는 음성 감정 인식 기술을 통해 사용자의 의도를 올바르게 해석하고, 상황에 맞는 적절한 반응과 답변을 제공해준다. 억양, 말투, 목소리 떨림 등 비언어적 신호를 분석하고, 대화 맥락에 맞는 감정적이고 자연스러운 음성의 응답을 생성하는 것이 특징이다. 대규모 한국어 데이터셋을 활용해 한국어의 특수한 발화 구조, 억양, 어미 변화 등을 정밀하게 반영하기도 했다. 특히 제주도, 경상도 등 지역 방언을 인식하고 이를 표준어로 변환해 자연스러운 음성을 생성할 수 있다. 지속적인 성능의 고도화를 위해 카카오는 현재 독자적인 한국어 음성 토크나이저(오디오 신호를 일정 단위로 작게 분해하는 도구) 개발을 진행 중이다. 스트리밍 방식의 음성합성 기술을 적용해 사용자가 긴 대기 시간 없이 응답을 제공하는 강점도 보유했다. 예를 들어, 이미지와 함께 "이 그림에 어울리는 동화를 만들어 줘"라고 입력하면, Kanana-o는 해당 음성을 이해하고 사용자의 억양과 감정 등을 분석해 자연스럽고 창의적인 이야기를 실시간으로 생성해 들려준다. Kanana-o는 한국어 및 영어 벤치마크에서 글로벌 최고 모델들과 유사 수준을 기록했으며, 한국어 벤치마크에서는 높은 우위를 보였다. 특히, 감정인식 능력에서는 한국어와 영어 모두에서 큰 격차를 기록하며, 감정까지 이해하고 소통할 수 있는 AI 모델의 가능성을 입증했다. 이미지와 음성을 통합적으로 이해해야 하는 '이미지-음성 QA(질의응답)' 태스크에서도 강력한 성능을 달성하며, 통합 멀티모달 언어모델로서의 글로벌 경쟁력을 확인했다. 카카오는 향후 Kanana-o를 통해 ▲다중 턴 대화 처리 ▲양방향 데이터 동시 송수신 기술 대응 능력 강화 ▲부적절한 응답 방지를 위한 안전성 확보 등을 목표로 연구 개발을 지속해 갈 계획이다. 이를 통해 다중 음성 대화 환경에서의 사용자 경험을 혁신하고, 실제 대화에 가까운 자연스러운 상호작용을 실현해가는 것이 목표다. 카카오 김병학 카나나 성과리더는 "카나나 모델은 복합적인 형태의 정보를 통합적으로 처리함으로써 기존의 텍스트 중심 AI를 넘어 사람처럼 보고 듣고 말하며 공감하는 AI로 진화하고 있다"며 "독자적인 멀티모달 기술을 바탕으로 자사의 인공지능 기술 경쟁력을 강화하는 한편, 지속적 연구 결과 공유를 통해 국내 AI 생태계 발전에 꾸준히 기여할 계획"이라고 말했다.

2025.05.01 10:13백봉삼

LG CNS "금융 특화 LLM 평가 도구, AI 도입 기준점 될 것"

금융권에서도 생성형 AI에 대한 관심이 높아지고 있지만, 보안과 정확성 문제로 인해 실제 도입은 쉽지 않다. LG CNS는 이런 현실적인 장벽을 해결하기 위해, 금융 업무에 특화된 대규모언어모델(LLM) 평가 도구를 자체 개발했다. AI를 실제로 도입할 수 있는지 여부를 객관적으로 판단할 수 있도록 설계돼, 금융 현장에서의 신뢰성과 실용성을 함께 고려한 것이 특징이다. 이 도구는 LG CNS가 미리 구축한 금융 특화 데이터셋을 바탕으로 시중에 공개된 수십 개의 개방형 LLM(Open-source LLM)을 평가하고 비교해 뱅킹, 보험, 증권 등 다양한 금융 업무 환경에 가장 적합한 모델을 추천한다. "도입보다 신뢰가 우선"… 금융에 맞춘 자체 평가 도구 3일 서울 마곡 LG CNS 사옥에서 만난 AI센터 어드밴스드 생성형AI 연구소의 황윤구 팀장은 "금융은 보안과 규제가 모두 중요한 환경이라 일반 AI처럼 쉽게 적용하기 어려운면이 있다"며 "만약 이자율을 잘못 알려주거나 금융용어를 잘못 해석하는 순간 그 피해가 치명적일 수 있다"라고 설명했다. 그는 이어 "그래서 우리는 AI를 '신뢰하고 도입할 수 있는가'를 판단할 수 있는 기준이 먼저 필요하다고 봤다"고 강조했다. 이러한 문제의식은 실제 프로젝트 경험에서 출발했다. LG CNS는 다양한 금융사와의 시스템 통합(SI) 프로젝트에서 AI 도입이 실패하거나 지연되는 사례를 반복적으로 목격했고, 이를 해결하기 위한 방법론을 내부에서 구축하기로 한 것이다. 황 팀장은 "우리가 직접 부딪히며 실패하고 배운 것들을 하나씩 정리해간 결과물이 바로 이번 평가 도구"라고 설명했다. 평가 도구는 총 29개 세부 테스크로 구성돼 있으며, 약 1천200개의 비공개 질문·지문 데이터셋을 기반으로 운영된다. 외부에 공개된 수능형 문제처럼 명확한 정답이 있는 문항도 있고, '모른다'라고 답하는 것이 오히려 정답이 되는 문항도 포함돼 있다. 공개된 리더보드는 학습·평가용 데이터가 외부에 노출돼 있어, 모델이 문제 유형을 암기해 정답률을 높이는 방식으로 성능이 과장될 수 있기 때문이다. 황윤구 팀장은 "벤치마크 데이터를 공개하는 순간, 고도화된 LLM은 문제 유형을 학습해 정답률을 인위적으로 끌어올릴 수 있다"며 "이 경우 실제 역량과 상관없이 높은 점수를 받을 수 있기 때문에, 평가의 객관성이 훼손될 우려가 있다"라고 설명했다. 정량적 평가지표도 체계적으로 설계돼 있다. LG CNS는 ▲정답 유사도 ▲지문 기반 내용 일치도 ▲지시 수행 정확도 등 세 가지 기준을 종합해 점수를 산정하며, 평가 결과는 단순 스코어가 아닌 실무 도입 가능성을 가늠하는 기준으로 사용된다. 또한 금융 도메인 지식과 문맥 이해도를 평가하기 위해, 질문에 포함된 용어와 문장의 배경 의미를 얼마나 정확히 해석했는지도 주요 요소로 반영된다. 이민영 선임은 "단순히 질문에 대답하는 것이 아니라, 오히려 '대답하지 않는 게 맞는 상황'에서 어떤 선택을 하는지가 금융에서는 더 중요하다"며 "그런 정교한 평가 항목이 저희 도구의 특징"이라고 설명했다. 모델별 성능 비교…"GPT·클로드 상위, 딥시크는 예상보다 낮아" 모델별 성능 비교도 진행됐다. GPT-4, 클로드 등 상용 API 모델이 평가에서 가장 높은 성능을 보이는 것으로 나타났다. 다만 퍼블릭 클라우드만 지원하는 만큼 금융사 등에서 적극적으로 활용하기엔 한계가 있다는 지적이 있었다. 최근 주목받는 오픈소스 LLM인 딥시크(DeepSeek)는 평가에서 대부분 낮은 점수를 기록했다. 황윤구 팀장은 "딥시크는 성능뿐 아니라 학습 데이터의 출처와 개인정보 이슈 등 여러 면에서 금융사 입장에서 채택하기 어려웠다"며 "특히 컴플라이언스 관점에서 리스크가 큰 것으로 나타났습니다"라고 밝혔다. 반면 LG 그룹의 자체 LLM인 엑사원(Exaone)은 상대적으로 높은 평가를 받았다. 이민영 선임은 "질문과 관련 없는 내용이 지문에 섞여 있어도, 질문에만 집중해 정확하게 응답하는 능력이 뛰어났다"며 "특히 다양한 정보가 뒤섞인 긴 지문에서도 흔들리지 않고 핵심을 잘 잡는 모습을 보였다"며 대화형 AI에 높은 성능을 제공한다고 설명했다. 또한 이번 평가 도구의 평가 테스크는 고정된 항목이 아니라 고객사 니즈나 기술 트렌드에 따라 지속적으로 업데이트된다. 생성형AI 연구소는 올해 이 평가 도구를 실제 금융 현장에 적용해 활용 사례를 축적하는 데 집중하고 있다. 이민영 선임은 "지난해에는 평가도구를 만드는 것 자체가 목표였다면 올해는 이 도구를 적용해 실제 금융 AI 평가 로그를 얼마나 확보하는지가 주요 실행 과제"라며 "이제는 실적 기반으로 이 툴이 얼마나 많이 쓰이느냐가 핵심이 될 것"이라고 밝혔다. LG CNS는 계열사를 중심으로 엑사원 테스트를 완료했으며, 일부 금융사들과도 PoC 형태로 적용 가능성을 검토 중이다. 다만 보안 및 계약 이슈로 인해 외부 공개는 제한적이다. 금융 넘어 공공·제조 확산 목표 LG CNS는 향후 공공 문서나 제조 환경처럼 금융과 유사한 폐쇄형·도메인 특화 환경으로의 확장도 고려하고 있다. 이민영 선임은 "공공기관 보도자료나 행정문서는 형식이 딱 정해져 있는 만큼, 우리의 금융 평가 프레임워크를 확장하면 충분히 적용 가능할 거라 예상한다"라고 말했다. 황윤구 팀장은 "금융처럼 민감한 환경에서는 '잘 쓴다'보다 '믿고 쓸 수 있는가'가 더 중요하다"며 "우리는 먼저 금융환경에 적합한 기준을 세운 후, 직접 사용해보고 끊임없이 개선해가고 있다"고 말했다. 이어 그는 "AI 기술의 발전도 중요하지만, 결국 기업이 그것을 신뢰하고 안심하고 쓸 수 있는 '기준선'을 만드는 것이 더 본질적"이라며 "LG CNS가 만든 이 평가 도구가 금융권의 AI 도입을 앞당기고 다양한 선업에서 적용 가능한 신뢰의 기준의 '눈금자'가 되기를 기대한다"라며 포부를 밝혔다.

2025.04.03 11:02남혁우

"업무 생산성 게임체인저"…코난테크놀로지, AI 기반 검색 플랫폼 'RAG-X' 공개

인공지능(AI) 기반 검색 기술이 기업 경쟁력의 핵심 요소로 떠오르는 가운데 기업 맞춤형 솔루션을 개발해온 코난테크놀로지가 자사 AI 검색 플랫폼의 본격적인 시장 진입을 예고했다. 코난테크놀로지는 기업용 AI 검색 플랫폼 '코난 검색증강생성(RAG)-X'의 베타 테스트를 진행 중이라고 13일 밝혔다. 이 솔루션은 기업 내부 데이터, 실시간 웹사이트, 고객 맞춤형 사이트까지 검색 결과를 통합해 AI가 즉각적인 답변을 제공하는 B2B형 플랫폼이다. '코난 RAG-X'는 단순 검색을 넘어 AI가 종합적이고 심층적인 답변을 생성하는 것이 특징이다. 기존 웹 기반 검색 서비스와 달리 검색 증강 생성(RAG) 기술을 활용해 내부 문서, 데이터베이스(DB), 외부 사이트 정보까지 아우르며 기업에 최적화된 정보를 제공한다. 일례로 사용자가 특정 산업 동향에 대한 최신 정보를 요청하면 AI가 내부 자료와 실시간 웹사이트 데이터를 분석해 핵심 변화를 정리하고 보고서 초안까지 생성한다. AI의 답변에는 모든 출처가 명확하게 표시되며 연관 검색어나 참고자료도 자동 추천된다. 이같은 기능을 통해 기업들은 수작업으로 정보를 찾을 필요 없이 원클릭 검색만으로 신속하고 정확한 답변을 제공받을 수 있다. 업무 생산성을 높이고 시장 분석·경쟁사 동향 파악·신제품 조사·정책 연구 등 다양한 분야에서 활용될 것으로 기대된다. 코난테크놀로지는 지난 1999년 설립 이후 AI 검색엔진 '코난 서치'를 포함해 2천900여 개 기업과 3천400건 이상의 프로젝트를 수행하며 기술력을 입증해왔다. 특히 자체 개발한 대규모 언어 모델 '코난 거대언어모델(LLM)'은 지난해 미국 스탠퍼드대학의 AI 생태계 분석 리포트 '에코시스템 그래프'에 포함되며 글로벌 경쟁력을 인정받았다. 현재 '코난 RAG-X'는 200여 명의 사내 인력과 일부 고객사를 대상으로 비공개 베타 테스트를 진행 중이다. 다음달 정식 출시를 목표로 서비스 안정성과 성능을 최적화하고 있다. 코난테크놀로지는 또 '코난 LLM'의 차세대 버전도 다음 달 공개할 예정이다. 최신 AI 연구 트렌드에 맞춰 추론 데이터와 인스트럭션 튜닝을 대폭 강화해 한층 업그레이드된 성능을 선보일 계획이다. 김영섬 코난테크놀로지 대표는 "검색 품질에 대한 기대가 높아지는 가운데 기업 맞춤형 검색 수요도 증가하고 있다"며 "새로운 생성형 AI 경험을 통해 고객의 비즈니스 혁신을 적극 지원하겠다"고 밝혔다.

2025.02.13 14:45조이환

코난테크놀로지, 의료분야 국내 첫 LLM 기반 진료 플랫폼 개발

코난테크놀로지(대표 김영섬)가 생성형인공지능(AI) 기술을 기반으로 의료 분야에 특화된 대규모언어모델(LLM)을 선보인다. 코난테크놀로지는 한림대학교 의료원과 '생성형AI기반 입원환자 전주기 기록지 작성 및 의료원 지식상담 플랫폼 구축' 사업을 계약했다고 5일 밝혔다. 이 사업은 한림대학교의료원과 협력하여 국내 의료 분야에 특화된 생성형 AI 플랫폼을 개발하고 적용하는 것을 목표로 하며, 양 기관은 오는 7월까지 의료 AI 솔루션 공동 개발에 나서게 된다. 입원환자 전주기 의무기록은 접수부터 진료, 검사, 경과 기록, 퇴원까지 모든 과정을 아우르는 통합 기록 시스템으로, 의료 기록 전 과정에 LLM 기술을 적용하는 사례는 국내 최초다. 이에 따라 의무기록 작성에 소요되는 시간이 연간 최대 절반까지 단축될 것으로 예상되며, 실시간 데이터 분석과 함께 입력 오류도 줄어들어 의료기록의 정확성이 한층 높아질 전망이다. 생성형 AI가 의료 현장에 도입되면, 환자 관리와 케어에 더 많은 시간을 할애할 수 있는 환경이 조성되어 궁극적으로 의료 서비스의 품질 향상으로 이어질 것으로 기대된다. 양 기관은 의료 기록 시스템 외에도 검색 증강 생성(RAG) 기술을 활용한 지식 상담 플랫폼을 개발해 의료진과 교직원의 실시간 정보 검색과 상담을 지원할 계획이다. 윤리적 AI 설계와 안전 필터링으로 정보 신뢰성을 강화하며, AI 오남용 방지를 위한 대응 시스템도 구축한다. 김규훈 코난테크놀로지 사업부장은 "생성형 AI 기술을 적용해 병원 행정과 진료 과정에서 업무를 효율화하려는 시도가 늘어나는 만큼, 의무기록 작성 AI 서비스를 시작으로 의료 AI 시장의 수요에 민첩하게 대응하며 관련 모델 고도화와 제품화를 이어가겠다"고 포부를 전했다. 한림대학교의료원은 초기 개념검증(PoC) 단계부터 서비스 기획, 의료진 인터뷰, 방향성 도출까지 사업의 주요 과정을 주도적으로 이끌었다. 코난테크놀로지는 한림대학교의료원이 제공한 실무적 통찰과 피드백, 그리고 의료 AI의 특수성을 반영한 철저한 검증을 기반으로 안전하고 신뢰성 높은 의료 AI 솔루션을 고도화 해나갈 예정이다.

2025.02.05 16:46남혁우

"산업 현장 데이터가 경쟁력"…LG, '엑사원 3.5'로 오픈소스 AI 시장 공략

LG AI연구원이 오픈소스 AI 모델 '엑사원(Exaone) 3.5'를 공개했다. 이번 발표는 초경량(2.4B), 범용(7.8B), 고성능(32B) 모델을 모두 오픈소스로 공개한 국내 기업 중 보기 드문 사례로, 글로벌 오픈소스 AI 시장에서 산업 특화 '니치(niche)' 공략에 나서겠다는 전략으로 해석된다. 9일 업계에 따르면 메타의 '라마(LLaMA)'는 오픈소스 AI 시장에서 현재 압도적인 1인자로 자리하고 있다. 메타는 지난 2022년 이후 다양한 크기의 모델을 공개하며 연구자와 기업들로부터 폭넓은 피드백을 받아왔다. 12월 기준으로 6억5천만 회 이상을 기록한 '라마' 앱 다운로드는 그 생태계가 얼마나 탄탄한지를 보여준다. 매개변수 규모도 거대하다. 가장 최신인 '라마 3.3'의 매개변수는 700억(70B) 파라미터로, '엑사원' 고성능 모델과 비교해 약 두 배 가까운 차이를 보인다. 실제로 라마의 지배력에 도전장을 내밀었던 오픈소스 경쟁자들의 성과는 미미했다. 마크롱 프랑스 대통령의 지원을 받는 초거대 AI 기업인 미스트랄은 올해 초 완전 오픈소스 라이선스를 적용한 모델을 출시하며 시장에 도전했으나 '라마' 생태계의 벽을 넘지 못하고 한정된 사용자층 확보에 그쳤다. 이러한 빅테크의 오픈소스 AI 시장 독주 속에서 LG AI연구원은 단순히 파라미터를 늘리는 대신 효율성을 극대화하는 경량화 전략을 내세우고 있다. '라마' 최신 모델의 절반 수준인 32B 모델만으로 고성능을 구현하면서도 전력 소비와 운영 비용을 대폭 줄여 실질적인 산업 적용이 가능하게 한 것이다. 이러한 전략을 시도할 수 있었던 것은 LG가 축적해온 전문 데이터 때문이다. LG 계열사들은 생화학·병리학·제조업 등 다양한 산업 분야에서 고품질 도메인 데이터를 확보해왔다. 이 데이터를 활용해 엑사원의 성능을 강화하면서도 매개변수 규모는 줄이는 효율적인 모델 설계가 가능했다는 설명이다. LG 관계자는 "엄청난 자금력을 가진 빅테크들과 같은 전략을 쓰는 대신 회사가 오랜 기간 쌓아온 자체 데이터를 활용해 산업별 맞춤형 역량을 제공하는데 집중하고 있다"며 "단순히 크롤링한 데이터가 아닌 양질의 도메인 데이터가 특화의 비결"이라고 설명했다. 이러한 전문 데이터 기반 경량화 전략은 실질적인 성과로 이어지고 있다. 최근 LG는 병리학 모델인 '엑사원 패스(EXAONEPath)'를 개발해 기존 대비 10배 경량화된 모델로도 우수한 성능을 구현했다. 이 모델은 특히 병리학 데이터에서 높은 정확도를 기록하며 글로벌 의료 AI 시장에서도 주목받았다. 이로 인해 LG는 현재 잭슨 랩(Jackson Laboratory)과 협업을 진행하고 있다. 잭슨 랩은 전임상 시험 분야에서 세계 최고의 기술력을 보유한 미국의 연구기관으로, LG의 우수한 병리학 데이터 덕분에 협업을 결정한 것으로 알려졌다. 이에 더해 LG AI연구원은 경량화를 넘어 대규모 행동모델(LAM, Large Action Model) 기반 AI 에이전트를 개발해 산업 현장에서의 혁신을 앞당길 계획이다. 단순히 생성형 AI에 그치지 않고 복합적인 기술을 통합해 산업 전반에 실질적인 가치를 제공하려는 의도로 풀이된다. LG 관계자는 "거대 생태계를 구축한 빅테크와 동일한 전략을 취하기보다는 선택과 집중을 통해 강점을 극대화하고 있다"며 "LLM뿐만 아니라 다양한 AI 기술에서의 기술적 돌파구를 모색하고 도메인 특화 데이터를 기반으로 산업 전반의 주요 문제를 해결하는 데 기여할 것"이라고 강조했다.

2024.12.09 14:59조이환

"누구나 비전언어모델 사용"…구글, 신형AI '팔리젬마2' 오픈소스로 공개

구글이 사람처럼 보고, 이해하고, 상호작용할 수 있는 신형 비전언어모델(VLM)을 오픈소스로 공개했다. 이를 통해 의료, 제조 등 다양한 산업 분야에서 보다 효율적으로 AI를 활용할 수 있을 전망이다. 5일 구글 딥마인드는 오픈소스 VLM '팔리젬마2(PaliGemma2)'를 공식 블로그를 통해 공개했다. 비전언어모델은 사람처럼 이미지와 텍스트를 함께 학습하고 업무를 처리하는 AI 모델이다. 이를 통해 두 가지 데이터 유형이 독립적으로 처리되었을 때 놓칠 수 있는 정보 간 연관성을 이해하고 처리할 수 있는 것이 특징이다. 구글의 팔리젬마2는 젬마2 언어 모델 기반으로 개발돼 언어 처리 성능을 향상시켰다. 이를 통해 세부 사항을 요구하는 작업을 보다 정확하게 수행할 수 있으며 복잡한 작업의 완성도도 높일 수 있다. 특히 구글의 AI전용 프로세서 TPUv5를 활용해 학습 효율성을 극대화했으며 일반 PC 환경에서도 효과적으로 실행될 수 있도록 최적화 작업을 거쳤다. 기존 페일젬마는 224px 해상도만 지원한 반면 팔리젬마2는 448px와 896px등 고해상도 까지 지원해 실제 활용할 수 있는 업무 범위를 확대했다. 이 밖에도 세밀한 글씨를 정확히 감지하고 인식하기 위한 광학문자인식(OCR) 등의 기능을 개선했다. 고해상도도 이미지를 학습하고 구연할 수 있어 ICDAR 15와 토털텍스트 데이터셋 벤치마크에서 이전 최고 성능 모델을 능가하며 F1 점수 75.9를 기록하며 VLM 중 가장 우수한 성능을 달성했다. 구글 딥러잉 측은 페일젬마2를 활용해 더욱 복잡한 분자구조나 X레이 이미지를 분석하고 음악 파형 등을 인식해 디지털 변환하는 과정의 정확도를 높이는 등 다양한 분야에 활용할 수 있을 것으로 예측하고 있다. 구글의 다니엘 카이저스 연구 엔지니어는 "볼 수 있는 맞춤형 AI를 구축하는 것은 복잡하고 리소스 집약적인 노력이 요구됐다"며 "하지만 이제는 팔리젬마2를 통해 누구나 시각적 입력을 이해하고 상호작용할 수 있는 AI를 활용할 수 있게됐다"고 말했다.

2024.12.06 10:25남혁우

뤼튼, AI 수익화 '시동'…캐릭터 챗·광고 플랫폼으로 성장 '가속'

뤼튼테크놀로지스가 자사 '캐릭터 챗'을 부분 유료화하고 인공지능(AI) 광고 플랫폼 '뤼튼 애즈'를 출시하며 본격적인 수익화 행보에 나섰다. 뤼튼은 지난 10월 말 '캐릭터 챗' 서비스에 부분 유료화를 도입한 후 단 두 달만에 월 매출 10억원을 돌파했다고 3일 밝혔다. '캐릭터 챗'은 사용자가 제작한 AI 캐릭터와 대화할 수 있는 서비스로, 유료화 이후 뤼튼 모바일 앱이 구글 플레이스토어 최고 매출 앱 순위 18위에 오르는데 기여했다. 이번 유료 모델의 도입은 '캐릭터 챗' 창작자에게 수익을 분배하는 시스템을 구축하며 AI 캐릭터 생태계를 활성화하는 데 기여하고 있다. 이로써 창작자와 이용자가 함께 성장하는 선순환 구조를 마련했다는 분석이 나온다. 이와 함께 지난달 29일 출시된 '뤼튼 애즈'는 국내 최초 자연어 기술 기반 AI 광고 플랫폼으로 주목받고 있다. 월간 활성 이용자(MAU) 500만 명 이상을 기반으로 광고주에게 최적의 캠페인 대상을 자동 타겟팅하고 사용자 경험에 녹아든 광고 상품을 제공해 효과를 극대화한다. 특히 '한 문장으로 타겟 찾기' 기능은 광고 캠페인 대상을 자연어로 묘사하면 적합한 잠재 고객을 찾아내는 기술로, 클릭률과 전환율 향상에 기여하고 있다. 예산에 맞춘 광고 효율 최적화와 성과 분석 등 디지털 광고의 새로운 기준을 제시했다는 평가다. 업계 관계자는 "뤼튼은 글로벌 AI 플랫폼과 비교해도 손색없는 성과를 보여주고 있다"며 "현재 MAU가 500만 명 수준임을 감안하면 향후 이용자 규모가 확대될 경우 매출 잠재력에서 글로벌 기업들과도 충분히 경쟁할 가능성이 크다"고 분석했다. 이세영 뤼튼 대표는 "AI 대중화를 주도하는 기업으로서 우리의 모든 서비스는 계속 무료로 사용 가능하다"며 "이용자 경험을 해치지 않으면서도 고품질의 AI 서비스를 제공할 수 있는 입체적 수익 모델을 계속 추구해 나갈 것"이라고 밝혔다.

2024.12.03 14:33조이환

구글클라우드, 워크스페이스 AI 툴 진화…'제미나이' 한국어 지원 확대

구글클라우드가 자사 워크스페이스의 인공지능(AI) 도구 '제미나이'의 언어 지원을 확대하며 전 세계 10억 명 이상 사용자가 모국어로 서비스를 이용할 수 있게 했다. 구글클라우드는 최근에 진행한 업데이트를 통해 '제미나이' 사이드 패널에 한국어를 포함한 7개 언어를 새롭게 추가한다고 22일 밝혔다. 한국어 외에도 독일어, 이탈리아어, 일본어, 포르투갈어, 스페인어, 프랑스어가 포함됐다. '제미나이'는 구글 '닥스', '시트', '드라이브', '지메일' 등 워크스페이스 주요 애플리케이션의 사이드 패널에 내장돼 있다. 이번 언어 업데이트를 통해 사용자는 문서 작성, 파일 요약, 이메일 답장 등 다양한 업무를 자신의 언어로 처리할 수 있게 됐다. 이미 이 도구는 마케팅과 영업 분야에서 활용도가 높다. '제미나이'는 창의적인 문구를 작성하거나 필요한 데이터를 빠르게 요약해 제공하며 팀의 생산성을 높이는 데 기여한다. 또 구글 '미트' 영상 통화에서는 실시간 번역 자막 기능을 통해 언어 장벽을 극복할 수 있다. 구글클라우드는 향후 구글 챗의 자동 번역 기능 추가를 준비 중이다. 이번 업데이트는 60일 무료 체험판으로 제공돼 더 많은 사용자들이 제미나이를 경험할 수 있도록 지원하고 있다. 내년에는 더 많은 언어가 추가될 예정이다. 브라질 기업 나투라의 레나타 마르케스 최고정보책임자는 "'제미나이'를 통해 직원들의 역량이 향상되고 업무가 크게 개선됐다"며 "모든 직원이 AI를 활용해 새로운 가능성을 열어가고 있다"고 밝혔다.

2024.11.22 14:20조이환

"오픈AI 따라잡을 수 있을까"…머스크, AI 주도권 놓고 '총력전'

일론 머스크가 인공지능(AI) 분야에서 공격적인 행보를 보이며 미래 기술의 주도권을 노리고 있다. 대규모 투자 유치, 경쟁사 견제, 소셜미디어 엑스(X)를 활용한 자극적인 홍보 등으로 AI 사업 확장에 박차를 가하고 있지만 선두주자와의 격차를 좁히기 위한 과제가 여전히 산재해 있다. 18일 업계에 따르면 머스크의 AI 스타트업 엑스AI(xAI)는 최근 60억 달러(한화 약 8조3천억원) 규모의 투자 유치에 성공하며 기업 가치를 무려 500억 달러(약 70조원) 수준으로 끌어올렸다. 이는 겨우 6개월 만에 기업 가치가 두 배 이상 급증한 것으로, 회사의 기술력과 시장의 높은 기대감을 동시에 입증했다. 확보한 자금은 엔비디아의 최신 그래픽처리장치(GPU) 10만 개를 매입하는 데 사용할 예정이다. 이를 통해 AI 모델의 훈련을 강화하고 오픈AI, 앤트로픽 등 선발주자와의 기술 격차를 좁히겠다는 전략이다. 실제로 엑스AI는 미국 테네시주 멤피스에 세계 최대 규모의 데이터 센터를 구축하고 있다. 멤피스 남서부에 위치한 약 7만3천 평방미터 규모의 공장 부지에 건설 중인 이 시설에는 최신 GPU가 최소 10만 개에서 최대 20만 개까지 설치될 예정이다. 머스크는 회사의 내실 강화에 그치지 않고 경쟁업체를 겨냥한 공격에도 나서고 있다. 그는 지난 15일 AI 업계 내 공정한 경쟁을 사유로 지목하며 오픈AI와 마이크로소프트(MS)를 상대로 법적 소송을 제기했다. 오픈AI와 MS의 파트너십은 사실상의 합병으로, AI 업계에서 독점적 지위를 형성해 시장을 교란했다는 주장이다. 머스크는 "오픈AI는 경쟁사들의 AI 인재 확보도 방해하고 있다"며 "평균 연봉이 약 53만4천 달러(약 7억5천만원)로, 실리콘밸리 평균보다 훨씬 높아 시장을 왜곡시키고 공정한 경쟁을 저해한다"고 비판했다. 이와 같은 갈등의 배경에는 머스크와 오픈AI 사이의 오랜 불화가 자리 잡고 있다. 지난 2015년 비영리단체로 시작한 오픈AI의 공동창립자였던 머스크는 테슬라의 AI 개발과의 이해충돌 우려로 이사회에서 사임한 바 있다. 이후 오픈AI가 영리 조직으로 전환되자 머스크는 오픈AI가 원래의 목적을 잃었다며 여러 차례 소송을 제기했다. 그럼에도 업계 일각에서는 머스크의 소송 목적이 오픈AI의 공익적 가치 보존이 아니라 엑스AI의 AI 업계 주도권 확보에 있다고 분석한다. 실제로 머스크가 오픈AI 이사였던 지난 2017년에 이미 그가 회사에서 절대적인 통제권을 가지려고 시도했다는 우려가 제기됐기 때문이다. 당시 일리야 수츠케버 전 오픈AI 공동창업자는 머스크에게 이메일을 통해 "현재 회사 구조로는 당신이 범용인공지능(AGI)에 대한 절대적 통제를 가지게 될 위험이 있다"며 "당신이 독재자가 될 가능성을 배제할 수 없다"고 말했다. 이러한 우려는 머스크가 소셜 미디어에서 보이는 행보에서도 그대로 드러난다. AI 안전성·공공선을 위해 오픈AI를 견제한다는 본인의 주장과는 반대로 엑스AI에 대한 자극적인 소식과 과장을 이어가고 있기 때문이다. 그는 지난해 11월 자신의 엑스(X) 계정에 자사 챗봇 '그록(Grok)'에게 코카인 제조법을 물어보는 스크린샷을 게시하며 논란을 일으킨 바 있다. 또 지난 8월에는 '그록-2'를 두고 타사의 그림 생성 AI에 비해 검열이 적다는 점을 강조해 화제를 모았다. 최근에는 직원도 이러한 행렬에 가세했다. 히우 팜 엑스AI 연구원은 지난 17일 자신의 X 계정을 통해 "최근 출시된 '그록-3(Grok-3)' AI가 수학계의 오랜 난제인 리만 가설을 증명했다"며 "증명이 맞을 경우 AI가 너무 똑똑해서 인류에게 위험할 수 있기 때문에 모델 훈련을 일시 중단했다"고 주장했다. 업계 전문가들은 팜 연구원의 주장에 대해 회의적인 반응을 보이며 이러한 발언이 대중의 관심을 끌고 투자 유치를 위한 홍보 효과를 노린 것이라고 평했다. 오픈AI나 앤트로픽의 후발 주자로서 기술적 성숙도나 인지도가 부족한 상황을 극복하려는 과장된 시도라는 분석이다. 실리콘밸리의 한 AI 업계 관계자는 "머스크가 테크 분야 전반에서와 마찬가지로 AI 산업에서도 파격적인 행보를 보이고 있는 것은 사실"이라면서도 "다만 기술적 측면에서 볼 때 오픈AI와 같은 선두주자들이 보다 앞서 있는 상황"이라고 분석했다.

2024.11.18 17:24조이환

[컨콜] 삼성SDS "내년 상반기 멀티모달 챗·지식 그래프 선보일 것"

삼성SDS가 주력 비즈니스로 인공지능(AI) 서비스 확대를 위해 내년 상반기 멀티모달 챗·지식 그래프기반 기술을 선보일 예정이다. 삼성SDS는 30일 개최한 3분기 컨퍼런스콜을 통해 차기 AI 비즈니스 계획을 공개했다. 구형준 클라우드서비스사업부장은 "내년 상반기 안으로 멀티모달 챗, 지식 그래프 등의 핵심 기술을 확보할 것"이라며 "이를 사업에 활용할 수 있도록 준비할 것"이라고 밝혔다. 멀티모달 챗은 텍스트, 이미지, 소리 등 여러 형태의 입력과 출력을 통합해 사용자와 상호작용하는 챗봇 시스템을 말한다. 다양한 데이터 소스에서 정보를 수집하고 분석하여 더욱 풍부하고 정확한 대화를 제공할 수 있도록 지원한다. 지식 그래프는 정보와 데이터를 연결해 시각적, 구조적으로 나타내는 데이터 모델이다. 사람, 장소, 사물 등 다양한 개체 간의 관계를 그래프 형태로 표현해 정보 간의 연결을 보여주며 이를 통해 단순한 데이터 집합이 아닌 맥락화된 정보를 제공해 더 높은 수준의 데이터 분석과 추론이 가능하도록 돕는다. 구 부사장은 "현재 200개가 넘는 기업 고객사례를 바탕으로 다양한 요구사항을 수집하고 있다"며 "이를 해결하기 위해 대규모언어모델(LLM), 에이전트 등을 활용한 기술을 구체화하고 있다"고 밝혔다.

2024.10.30 15:57남혁우

카카오 '카나나' 라인업 발표…"한국어 AI 성능으로 글로벌 모델 압도할 것"

"이번에 발표된 '카나나'는 우리가 지금까지 개발해 온 모든 인공지능(AI)을 통합한 모델로, 한국어 처리에서 글로벌 AI 모델들을 능가하는 성과를 냈습니다. '카나나'를 통해 글로벌 AI 시장에서 선두로 나아가고자 합니다." 김병학 카카오 성과리더는 23일 경기도 용인시 카카오 AI 캠퍼스에서 열린 '이프카카오 2024' 행사에서 이같이 말했다. '이프카카오 2024'는 카카오 그룹이 AI 및 클라우드 기술 성과를 공유하고 국내 IT 기술 발전에 기여하기 위해 마련한 행사로, 지난 22일부터 사흘간 진행된다. 김 성과리더는 '카나나 모델 라인업의 핵심(Essence of Kanana Model Family)' 세션을 통해 카카오의 통합 AI 모델인 '카나나(Kanana)'를 소개했다. 그는 "카카오의 모든 AI 서비스를 '카나나'로 통합해 일관된 경험과 새로운 가치를 제공할 것"이라며 "한국어 처리에서 글로벌 모델을 능가하는 성능을 보유했다"고 강조했다. '카나나'는 언어모델(LLM), 멀티모달 언어모델(MLLM), 비주얼 생성모델, 음성모델 등으로 구성된 카카오의 통합 AI 모델이다. 특히 언어모델은 모델 크기에 따라 '카나나 나노', '카나나 에센스', '카나나 플래그'로 분류돼 서비스 환경에 따라 맞춤형의 성능과 비용 효율성을 제공한다. 김 성과리더는 "'카나나 에센스' 모델은 한국어 논리 및 추론 평가에서 글로벌 최고 수준의 성능을 기록했다"며 "케이엠엠엘유(KMMLU), 해래(HAE-RAE) 등의 벤치마크에서 글로벌 대표 모델들을 앞서는 결과를 얻었다"고 밝혔다. 이는 카카오가 자체 구축한 고품질의 한국어 데이터셋과 개인정보 및 저작권 이슈를 해결한 투명한 학습 과정을 통해 이루어진 성과다. '카나나' 모델은 비용 효율성 면에서도 강점을 지닌다. 다양한 모델들이 라인업 형태로 출시돼 각기 다른 목적을 위해 활용될 수 있기 때문이다. 이에 대해 김 성과리더는 "큰 모델을 모든 서비스에 적용하는 것은 비용 효율성이 떨어진다"며 "'카나나'는 서비스 목적에 맞게 학습 과정을 최적화해 처리 시간과 운영 비용을 절감할 수 있다"고 설명했다. 카카오는 이러한 '카나나' 모델을 활용해 카카오톡의 AI 대화 요약, 톡채널 AI 매니저 등 다양한 서비스에 AI 기술을 적용할 계획이다. 특히 멀티모달 언어모델인 '카나나 O'는 텍스트, 이미지, 오디오 데이터를 동시에 이해하고 처리할 수 있어 더욱 자연스러운 사용자 경험을 제공한다. 또 비주얼 생성모델 '콜라주'와 '키네마'는 개인화된 이미지와 동영상을 생성하며 음성모델 '카부'와 '퀘스트'는 자연스러운 음성 인식과 합성을 지원한다. 김 성과리더는 "'카나나' 모델은 다양한 신기술을 통해 사용자와 깊이 있는 상호작용을 이끌어낸다"며 "정확한 지식과 통찰력을 바탕으로 답변을 제공해 서비스에 새로운 가치를 더할 것"이라고 말했다. AI 모델 개발에는 여전히 해결해야 할 과제들이 있다. 그럼에도 김 성과리더는 이러한 도전에 대응하기 위한 해결책을 제시했다. 그는 "사용자 발화의 맥락을 정확히 이해하고 적절한 응답을 제공하기 위해서는 생성형 AI와 대형 언어모델(LLM)의 활용이 필요하다"며 "책임감 있고 신뢰할 수 있는 AI 모델을 만들어가고 있다"고 밝혔다. 그러면서 "'카나나' AI 기술을 서비스로 연결해 사용자 문제를 직접적으로 해결하는 AI 네이티브 컴퍼니로 나아가기 위한 기반을 확대하겠다"고 강조했다.

2024.10.23 14:02조이환

"집과 자동차를 하나로"…카카오가 AI와 IoT 결합하는 방법은

"인공지능(AI)과 사물인터넷(IoT)을 결합해 보다 스마트하고 개인화된 서비스를 제공하려고 합니다. 이를 통해 사용자들의 생활을 획기적으로 개선하는 것이 우리의 궁극적인 목표입니다." 김덕형 카카오 담당자는 22일 경기도 용인시 카카오 AI 캠퍼스에서 열린 '이프카카오 2024' 행사에서 이같이 말했다. '이프카카오 2024'는 카카오 그룹이 AI 및 클라우드 기술 성과를 공유하고 국내 IT 기술 발전에 기여하기 위해 마련한 행사다. 첫날에만 10개 이상의 다양한 기술 세션이 진행됐다. 이날 김 담당자는 '카카오i를 통한 AIoT 서비스의 사례와 미래' 세션을 맡아 '인공지능-사물인터넷(AIoT)'을 구현하기 위한 카카오i의 역할을 설명했다. AIoT란 인공지능(AI)과 사물인터넷(IoT)의 융합으로, 데이터 수집과 학습이 동시에 이뤄져 큰 시너지를 발휘한다. 이는 AI의 학습·추론 능력과 IoT의 데이터 수집·연결성이 결합돼 더 효율적이고 지능적인 시스템을 구축할 수 있기 때문이다. 김 담당자는 "IoT의 발전 단계는 현재 자율형 단계로 나아가고 있다"며 "이 단계에서는 AI 기술이 IoT 기기 자체에서 실행돼 데이터 수집과 학습을 동시에 수행하고 기기 간의 협업도 가능해진다"고 설명했다. 카카오 AI 서비스들 역시 이러한 방향성을 따르며 발전하고 있다. '헤이 카카오', '카카오홈', '카카오i 오토' 등의 솔루션이 자연어를 기반으로 다양한 기능을 제공하고 있기 때문이다. 사용자들은 이미 이러한 서비스를 통해 AIoT의 초기 단계를 경험하고 있다. 이어 발표를 맡은 김진호 담당자는 AIoT가 구현될 미래의 구체적인 시나리오를 제시했다. 그는 AIoT 기술의 지속적인 발전이 개인화된 서비스로 구현되면서 기기간의 연결성이 증대되는 상황을 시나리오를 통해 설명했다. 김 담당자는 "취침 전에 카카오i 솔루션을 대상으로 '나 잘게'라고 말하면 기기가 자동으로 에어컨 온도를 조절하고 조명의 밝기와 색상을 변경하며 커튼을 닫는다"며 "리모콘처럼 하나의 기기를 제어하는 것을 넘어 사용자의 진정한 의도를 이해하고 여러 기기를 통합적으로 관리하는 상황이 가능해질 것"이라고 강조했다. 또 그는 환경 변화에 따라 적절한 서비스를 추천하는 기능도 소개하며 자동차를 예시로 들었다. 가까운 미래에 카카오i 솔루션은 운전 중 날씨와 차량 상태를 고려해 에어컨을 켜고 장시간 운전 시 환기를 추천하는 기능을 제공할 예정이다. 이러한 기대에 대해 김 담당자는 "사용자들은 더욱 편리하고 안전한 생활을 누릴 수 있게 될 것"이라고 강조했다. 그럼에도 불구하고 AIoT 구현을 위해서는 해결해야 할 도전과제들이 있다. 김 담당자는 "복잡하고 다양한 표현을 AIoT가 이해하는데는 기존의 자연어 처리 방식으로는 한계가 있다"며 "생성형 AI와 거대언어모델(LLM)을 활용해 사용자 발화의 맥락을 정확히 이해하고 적절한 기기 제어를 수행해야 한다"고 밝혔다. 그 중 해결책으로 각광 받는 최신 AI 기술로는 생각의 연쇄(Chain of Thought), 멀티 에이전트 LLM, 검색증강생성(RAG) 등이 있다. 이러한 기술들은 사용자 발화에서 제어해야 할 기기 목록을 정확히 추출하고 AI가 그럴듯하게 거짓말하는 환각 현상을 줄이는 데 도움이 된다. 김 담당자는 "우리는 기술적인 과제들을 해결해 결국 집에서는 차량을, 차량에서는 집을 제어할 수 있는 통합된 서비스를 제공하게 될 것"이라며 "AI를 통한 스마트한 결정으로 사용자 경험을 혁신하겠다"고 강조했다.

2024.10.22 15:46조이환

미스트랄AI, 온디바이스 AI 모델 '레 미니스트로' 출시

미스트랄AI가 인터넷 연결 없이 노트북·스마트폰 등에서 작동하는 생성형 인공지능(AI) 모델을 출시했다. 17일 테크크런치 등 외신에 따르면 미스트랄AI는 온디바이스용 AI 경량화 모델 '레 미니스트로(Les Ministraux)'를 '미스트랄 3B'와 '미스트랄 8B' 버전으로 각각 공개했다. 해당 모델들은 영어 기준으로 약 50페이지 분량 텍스트를 한 번에 이해할 수 있는 수준이다. 미스트랄 8B는 입·출력 토큰 당 10센트 비용이 든다. 미스트랄 3B는 같은 양에 4센트다. 노트북이나 스마트폰에서 번역, 업무 지원, 로컬 분석, 자율 로봇, 응용 프로그램 개발에 활용될 수 있다. 인터넷 연결 없이 작동 가능해 개인정보 보호를 기존보다 강화할 수 있다는 점도 특징이다. 현재 개인이나 기업은 미스트랄 8B만 다운로드할 수 있다. 연구 목적으로만 사용 가능하다. 상업적 모델 사용을 위해 미스트랄AI에 별도 연락을 해야 한다. 이 외 사용자들도 미스트랄AI 클라우드 플랫폼인 '라 플라토르므(La Platformee)'나 향후 파트너십을 맺은 다른 클라우드를 통해서 해당 모델 시리즈를 이용할 수 있다. 최근 AI 개발사들이 경량화 모델을 잇달아 출시하고 있다. 거대모델보다 훈련, 미세 조정, 실행 비용이 더 낮고 속도가 빠르다는 이유에서다. 이에 개발자와 기업은 경량 모델을 이전보다 더 요구하고 있다. 앞서 구글은 제미나이 경량화 버전 '젬마' 모델 시리즈를 출시했다. 마이크로소프트도 경량 모델 '파이' 모델을 제공하고 있다. 메타도 오픈소스 모델 '라마'를 업데이트해 온디바이스용 경량화 버전을 공개한 바 있다. 미스트랄AI는 최근6억4천만 달러(약 8천576억원) 투자금을 유치하고 AI 제품 포트폴리오를 점차 확장하고 있다. 최근 개발자들이 자사 모델을 테스트할 수 있는 무료 서비스를 출시했다. 사용자가 모델을 미세 조정할 수 있게 돕는 소프트웨어 개발 키트(SDK)도 내놨다. 코드 생성 모델 코드스트랄'도 공개했다. 이날 미스트랄AI는 "최근 고객과 파트너들은 프라이버시 강화를 위해 로컬에서 실행할 수 있는 AI 추론을 요구하고 있다"며 "레 미니스트로는 이런 시나리오에 적합한 컴퓨팅 효율적이고 지연 시간 적은솔루션을을 제공하기 위해 탄생했다"고 공식 블로그에 밝혔다.

2024.10.17 09:44김미정

MIT 박사·삼성 최연소 임원이 AI 기업 '투플랫폼' 세운 이유는

"인간과 인공지능(AI) 간의 상호작용을 혁신하고자 하는 마음이 저를 이끌었습니다. 둘 사이의 관계를 새롭게 정의해 인류 모두를 위한 AI를 실현하는 것이 우리의 최종 목표입니다. 이를 위해 우리는 비용 효율적이면서도 다문화 지향적인 '듀얼 트랜스포머 아키텍처' 기술을 적극 활용하고 있습니다." 프라나브 미스트리 투플랫폼 대표는 최근 기자와 만나 회사의 AI 기술 성과와 향후 계획을 이같이 밝혔다. 미스트리 대표는 지난 2012년 MIT에서 박사 과정을 밟던 중 삼성전자에 입사해 최연소 임원이 된 것으로 국내에 널리 알려진 바 있다. 그 이전에는 구글, 마이크로소프트, 나사(NASA) 등에서 근무하며 폭넓은 경험을 쌓았으며 삼성전자 입사 후에는 최연소 상무·전무로 초고속 승진해 최첨단 기술 프로젝트를 이끌었다. 그가 지난 2021년 삼성전자를 나온 후 세운 기업이 바로 투플랫폼이다. 인간과 AI의 관계를 재정의하고자 하는 목표를 가진 테크 스타트업으로서, 투플랫폼은 자체 거대언어모델(LLM)인 '수트라(Sutra)'를 개발해 다국어 지원·현지화에 특화된 솔루션을 제공한다. 미스트리 대표는 "'수트라'의 설계 철학은 전 세계 모든 다른 언어를 영어만큼이나 효율적으로 처리하는 것"이라며 "기존 모델들과 달리 진정한 의미에서 현지화된 경험을 대규모 사용자들에게 제공하는 것이 목표"라고 강조했다. 미스트리 대표에 따르면 오픈AI의 '챗GPT'와 같은 타사 LLM 역시 다양한 언어를 지원하고 있지만 '수트라'는 보다 비용 효율적이며 현지화에 특화돼 있다. 그는 "'수트라'는 기존 모델들보다 영어 이외의 언어에 최대 8배까지 비용 효율적"이라며 "이는 에너지 자원이 제한된 비영어권 시장에서 AI 도입이 확대되는 데 가장 중요한 요소"라고 주장했다. 이러한 비용 효율성을 가능하게 하는 것은 투플랫폼에서 개발한 '듀얼 트랜스포머 아키텍처' 기술 덕분이다. 인간의 뇌 작동 방식을 모방한 기술로서, '듀얼 트랜스포머'는 LLM이 한 언어에서 배운 지식과 개념을 다른 언어에도 그대로 적용할 수 있게 한다. 미스트리 대표는 "우리가 새로운 언어를 배울 때 굳이 이미 알고 있는 개념을 다시 배우지 않는다"며 "수트라 LLM 역시 이와 같이 이미 알고 있는 개념을 다른 언어에서 추가로 학습할 필요가 없게 설계됐다"고 설명했다. 이러한 기술 개발은 단순히 비용 효율성뿐만 아니라 문화적 다양성에도 도움을 준다. 실제로 '수트라'는 인도의 여러 방언과 혼합 언어까지 동시적으로 지원하고 있다. 미스트리 대표는 "우리의 주요 시장 중 하나인 인도는 각 지역들끼리 서로 포르투갈과 아르메니아 사이만큼이나 거대한 문화·언어적 차이가 있다"며 "'수트라'는 이와 같은 다양한 언어·문화차이를 극복하고 서비스를 제공할 수 있다"고 강조했다. 이러한 '수트라'의 장점은 최근 대두되는 '소버린 AI' 개념과도 연결된다. 실제로 지난 2022년부터 각국의 AI 주권을 위해 소버린 AI 개념을 강조해 왔던 네이버도 자회사 스노우를 통해 투플랫폼에 5백만 달러(약 60억원)를 투자한 바 있다. 상용화 역시 활발하다. 투플랫폼은 인도의 대표 통신기업인 릴라이언스 지오(Reliance Jio)와 협력해 '수트라'를 공급 중이다. 최근에는 국내 유수의 대기업들과도 사업 계약을 추진하고 있는 것으로 알려졌다. 투플랫폼의 철학은 실제 사업 행보에서도 드러난다. 본사가 위치한 실리콘밸리 외에는 인도 뭄바이와 서울에 사무실을 두고 있기 때문이다. 이는 대부분의 다국적 기업들이 세금 혜택을 목적으로 주로 싱가포르·두바이에 해외 사무소를 두는 것과는 차별화됐다. 미스트리 대표는 "지사를 세울 때 최우선 기준은 우리 기술 모델에 걸맞는 현지 인재를 확보하고 시장을 이해하는 것"이라며 "고객들과 가까이서 소통하며 현지 시장에 맞는 제품을 개발하고 언어 문제를 해결하는 '글로컬(Glocal)' 기업이 되기 위한 전략"이라고 밝혔다. 미스트리 대표에 따르면 투플랫폼의 장기 목표는 인간과 AI의 관계에 대한 재정의다. 실제로 투플랫폼의 슬로건은 '나(I)와 AI'로, 인간과 기계의 상호작용을 새로운 단계로 발전시키는 것이다. 이를 위해 텍스트나 음성을 넘어 몰입형 경험을 선도하는 것이 주요 전략이다. 실제로 회사 제품들도 이를 반영하고 있다. 올해 1월에는 AI 소셜앱 '재피(ZAPPY)'를 국내에 정식 출시했으며 출시 2개월 만에 25만 명이 넘는 유저를 확보했다. 인간 친구뿐만 아니라 AI 캐릭터들과도 함께 대화하는 기능을 통해 새로운 형태의 커뮤니케이션을 가능케 했다. 기술 혁신의 중요성을 강조하는 동시에 미스트리 대표는 책임 있는 AI 개발의 중요성에 대해서도 역설했다. 실제로 투플랫폼은 군사 분야에서의 책임 있는 AI 활용을 위해 대한민국 외교부가 전 세계 국가들을 대상으로 지난 9~10일 개최한 'REAIM' 정상회의에 AI 스타트업으로서는 유일하게 초청된 바 있다. 10일 개최된 주요 세션 패널로서 미스트리 대표는 스웜(Swarm)과 같은 최신 AI 기술들의 발전이 국제 안보에 미칠 수 있는 잠재적 악영향에 대해 발표했다. 스웜 AI는 작은 AI 에이전트들이 협력해 더 큰 지능을 발휘하는 기술로, 통제하기 어려운 집단 지능을 형성해 예측 불가능한 행동을 초래할 수 있다. 미스트리 대표는 패널에서 "새로운 AI들의 기술적 특성과 잠재적 악영향을 고려해야 한다"며 "비단 스웜 만이 아니라 앞으로 기하급수적으로 발전할 기술들의 잠재적 악용을 지속적으로 방지하고 책임감 있게 활용하는 것이 매우 중요하다"고 역설했다. 투플랫폼이 유일하게 행사에 초청된 AI 기업인 이유를 묻는 기자의 질문에 그는 "책임·효율성의 균형을 맞추는 동시에 인간과 기술 모두에 집중해 온 경영 철학이 주효했던 것 같다"며 "끊임없이 발전하는 AI가 의도치 않게 발생시킬 수 있는 악영향에 끊임없이 대비하고 인간을 위한 기술을 개발하겠다"고 밝혔다. 그러면서 "우리는 디즈니처럼 상상력과 기술로 세상을 변화시키는 회사가 되고자 한다"며 "기술이 일상에 스며들어 경계가 사라지는 세상을 만들고 싶다"고 강조했다.

2024.09.18 10:36조이환

[기고] 기업 데이터 분석의 새로운 패러다임, 생성형 BI

그야말로 AI열풍이다. 기업에서는 업무 전반에 인공지능(AI) 특히, 대규모 언어모델(LLM)을 적용하거나 새로운 비즈니스 기회를 창출하는 시도가 활발하게 이루어지고 있다. LLM은 언어 모델이기 때문에 주로 비정형 텍스트 문서를 기반으로 AI 활용을 모색하고 있다. LLM의 단점을 보완하기 위해 검색 증강 생성(RAG) 아키텍처를 적용하는 경우도 많다. 다만, 기업의 중요한 정보는 비정형(unstructured) 문서에만 존재하는 것이 아니라, 관계형 데이터베이스(RDB) 같은 데이터 저장소에 정형(structured) 형태로도 존재한다. RDB 데이터의 LLM 적용을 위해서 RDB 데이터를 문서형태로 변환하는 것은 비효율적이다. RDB 데이터는 SQL을 통해 질의하고 결과를 얻는 것이 적절하므로, LLM이 SQL을 생성하도록 하는 것이 바람직하다. 이 과정은 자연어 기반 질의(NL2SQL) 영역에 속하며, LLM이 자연어 질의를 SQL로 변환할 수 있다. LLM은 자연어 질의에 대한 답변을 비롯해 SQL 작성에도 비교적 높은 수준의 성능을 보인다. 다만, LLM은 조직의 내부 DB 정보를 학습하지 않았으므로 RAG 방식으로 기업 내 DB 정보를 LLM 프롬프트에 질의와 함께 전달해 주면, 비교적 정확한 SQL을 생성할 수 있다. RDB에 데이터를 저장하고 분석하는 일은 전통적인 비즈니스 인텔리전스(BI) 영역에 속한다. 데이터 분석을 목적으로 한 NL2SQL은 BI 영역에 생성형AI를 적용한 것이므로 '생성형 BI'라 부를 수 있다. 글로벌 리서치 기관인 가트너에서도 생성형 BI라는 용어를 사용하기 시작했으며, 비정형 텍스트를 대상으로 생성형AI가 활발히 적용된 만큼, 정형 데이터를 대상으로 한 생성형 BI 영역도 급속도로 성장할 것으로 예상된다. 하지만 LLM이 생성하는 SQL이 항상 정확한 것은 아니다. 단순한 DB 모델에서는 LLM의 정확도가 높지만, 복잡한 DB 모델에서는 성능이 떨어질 수 있다. 정확도를 높이기 위해 DB 정보에 대한 설명을 풍부하게 만들어주면 성능이 향상될 수 있으나, 여전히 100% 만족하기는 어렵다. 그 이유는 기업의 복잡한 업무가 DB 테이블 설계에 반영되어 있을 뿐만 아니라, DB 설계자의 설계 스타일도 반영되기 때문이다. 이러한 정보를 모두 서술하기도 어렵고, LLM에 전달해도 이해하지 못해 잘못된 SQL을 생성할 가능성이 크다. 또 다른 문제점은 BI 데이터 분석이 주로 수치화된 정보를 다룬다는 점이다. 예를 들어, 판매수량, 판매금액, 생산수량, 불량수량 등을 집계하는 경우가 많은데, 잘못 생성된 SQL의 결과값이 정답 SQL의 결과값과 조금만 다르다면, 예를 들어 연간 매출액이 10조인데 9.9조나 10.1조의 결과가 나왔다면, 사용자가 이를 오답으로 인지하기 어렵다. 텍스트 문서를 기반으로 한 생성형 AI의 답변이 거짓일 경우, 예를 들어 "세종대왕이 아이패드를 던졌다"는 식의 거짓말은 문장의 특성상 사용자가 쉽게 알아차릴 수 있지만, 숫자로 된 답변은 큰 차이가 아니라면 잘못된 결과임을 인지하기 어렵다. 이러한 Gen BI의 한계를 극복하는 방법 중 하나는 온라인 분석 처리(OLAP)를 활용하는 것이다. OLAP은 SQL을 모르는 사용자도 DB 데이터를 분석할 수 있게 해주는 기술이다. 사용자가 OLAP솔루션에서 OLAP리포트를 작성하고 실행 버튼을 누르면, OLAP엔진이 SQL을 자동 생성해주고 실행 결과를 리포트에 반환해준다. 마치 엑셀의 피봇테이블 기능으로 엑셀의 데이터를 분석하는 것과 유사하다. OLAP이 쿼리 생성자로서의 역할을 수행하는 셈이다. OLAP은 수십 년에 걸쳐 상용화된 기술로, OLAP의 쿼리는 항상 안전하고 정확하다. OLAP 메타데이터를 설정할 때 비즈니스 메타데이터와 기술 메타데이터의 매핑 및 테이블 간의 조인 관계를 미리 설정하기 때문에, 설정되지 않은 조합의 SQL은 생성되지 않는다. OLAP 기반의 Gen BI에서는 LLM이 OLAP 리포트 항목을 선택할 수 있도록, RAG 방식에서 DB 정보 대신 OLAP 메타 정보를 전달하면 된다. 이후 LLM이 OLAP 리포트를 생성하면, OLAP 엔진을 통해 정확한 SQL을 생성하고 실행할 수 있다. OLAP 기반 생성형 BI의 또 다른 장점은 NL2SQL 방식의 Gen BI보다 오류 식별이 용이하다는 점이다. 질의에서 바로 SQL이 생성되는 것이 아니라, 중간 단계에서 OLAP 리포트 항목(관점, 측정값, 필터 조건 등)이 만들어지므로, 사용자가 이를 보고 LLM이 올바른 답을 도출했는지 쉽게 검증할 수 있다. 많은 OLAP 기반 BI 솔루션과 분석 솔루션들이 Gen BI 기능과 서비스를 출시하고 있다. 아직 Gen BI는 초기 단계이지만, 정확도를 높이기 위한 RAG 적용이나 외부 LLM 활용에 따른 데이터 보안 문제 등이 점차 개선될 것으로 보인다. 예를 들어 마이크로스트레티지와 같은 OLAP 기반 BI 솔루션 제공업체들은 기존 BI의 장점에 AI를 결합한 솔루션을 제공하고 있다. NL2SQL 기반의 생성형 BI도 SQL을 아는 개발자나 분석가의 생산성을 높이는 초도 Query 작성용으로 활용한다면 가치를 발휘할 것이다. 그러나 SQL을 모르는 일반 사용자에게는 OLAP 기반의 생성형 BI가 더 유리할 것이다. 언제까지? 아마도 LLM이 DB 설계자의 성향까지 극복해 정확한 NL2SQL을 생성할 때까지일 것이다. 챗GPT의 등장과 빠른 업그레이드처럼, 그 시기는 예상보다 빨리 올 수도 있다.

2024.09.13 10:29류진수

업스테이지 "산업 특화 AI로 시장 공략…매출 급증했다"

"생성형 인공지능(AI)을 통해 돈 버는 기업으로 자리매김 했습니다. 올해 1분기 매출 100억원을 기록했습니다. 단순히 AI 모델 개발에만 그치지 않고 국내 금융·법률·의료·커머스 기업들에 맞춤형 거대언어모델(LLM)을 제공했기 때문입니다. 이런 사업 방향으로 국내뿐 아니라 미국 등 해외 시장에서도 본격 활약하겠습니다." 김자현 업스테이지 LLM 사업개발 리드는 최근 기자와 만나 자사 LLM '솔라'를 통한 비즈니스 성과와 향후 계획을 이같이 밝혔다. 김 리드는 업스테이지가 '솔라'를 통해 각 산업 도메인 업무에 특화된 솔루션을 제공해 왔다고 설명했다. 현재 업스테이지는 신한투자증권, 케이뱅크 등 금융회사에 파이낸스 LLM을 공급하고 있으며 법률상담 플랫폼 로톡을 운영하는 로앤컴퍼니에 법률 특화 솔루션을 제공하고 있다. 김 리드는 "고객이 요구하는 문제를 해결하기 위해 맞춤형 솔루션을 제공한 점이 주효했다"며 "이를 통해 고객사에 실질적인 가치를 제공하고 성공에 일조할 수 있었다"고 강조했다. 업스테이지는 금융과 법률뿐만 아니라 의료와 커머스 분야에서도 활약하고 있다. 의료 분야에서는 카카오 헬스케어와 손잡고 대학병원 3곳을 대상으로 AI 솔루션 제공용 메디컬 특화 모델을 제공한다. 커머스 분야에서는 커넥트웨이브와 협력해 AI 기반 맞춤형 상품 검색 및 추천 서비스를 구축했다. 현재 업스테이지는 생성형 AI 비즈니스로 올해 1분기 100억원 넘는 매출을 기록했다. 이는 지난해 회사 전체 매출보다 높은 수치다. 김 리드는 "업스테이지가 창업 원년부터 매출 창출을 목표로 사업을 진행했다"며 "최근 이례적인 성과를 얻은 셈"이라고 말했다. 이어 "생성형 AI 기업이 실제 매출을 올린 사례가 적다"며 "이런 상황에서 업스테이지 성과가 더 주목받고 있다"고 덧붙였다. 매출 성과 비결을 자체 개발한 LLM '솔라'와 파인튜닝 기술로 꼽았다. 파인튜닝은 LLM을 특정 작업이나 도메인에 맞게 학습 시키는 기술로, 업스테이지는 '솔라'를 특정 도메인에 맞게 파인튜닝해 고객사에 제공했다. 김 리드는 '솔라'가 번역·수학 풀이 등 특정 작업에서 오픈AI 'GPT-4' 같은 타사 LLM보다 뛰어난 성능을 보인다고 주장했다. 김 리드는 "파인튜닝 전문사인 프레디베이스(Predibase)와 협력해 '솔라' 성능 테스트를 500번 이상 실시했다"며 "'솔라'가 특정 도메인에선 빅테크 모델보다 우수하단 점을 정량적으로 입증했다"고 강조했다. 美·日 등 해외 진출 가속…"시장 수요에 맞는 전략 채택" 업스테이지는 글로벌 시장 진출도 빠르게 추진하고 있다. 현재 미국과 일본, 동남아시아 등 아시아태평양 지역으로 사업을 확장하며 국가 특성에 맞는 전략을 구사하고 있다. 김 리드는 "미국 시장에서는 온프레미스(On-premise) 수요를 주로 공략하고 있다"며 "생성형 AI 보안이나 비용 효율성 측면에서 온프레미스를 선호하는 기업 수요가 늘어났기 때문"이라고 밝혔다. 또 아태지역에서는 각국 언어와 도메인에 맞는 모델을 개발 중이다. 최근 '솔라' 일본어 버전을 개발 개발해 일본 시장 문을 두드리고 있다. 특히 '솔라' 일본어 버전은 니케이 아시아가 발표한 일본어 모델 벤치마크 테스트에서 상위 20위권에 포함된 것으로 알려졌다. 이중 유일한 한국산 모델이다. 김 리드는 "아태지역에서는 대규모 LLM을 자체 구축하기 어려운 경우가 많다"며 "한국서 입증된 경쟁력 있는 AI 솔루션을 통해 향후 베트남, 인도네시아, 아랍에미리트 등 다양한 국가에 언어 특화 모델을 제공할 계획"이라고 밝혔다. 김 리드는 업스테이지가 '솔라' 영어 모델을 공개해 AI 생태계 강화에 기여하고 있다는 점도 설명했다. 이를 통해 피드백과 사용 사례를 추가 확보하기 위함이다. 김 리드는 "오픈소스를 통해 개발자와 기업들이 업스테이지 모델을 활용하면 더 많은 애플리케이션과 솔루션이 나올 것"이라며 "이는 AI 공동 발전을 도모하고 AI 경쟁력을 알리는 좋은 기회"라고 강조했다. 같은 목적으로 업스테이지는 한국어 모델 성능을 평가하는 자체 리더보드를 운영 중이다. 리더보드 시즌 1에서는 LLM 기본 능력인 자연어 이해나 상식 등의 지표를 주로 사용했다. 최근에는 평가를 시즌 2로 업데이트 해 한국어 모델 성능뿐만 아니라 문화와 규범을 이해하는 능력까지 포함시켰다. 김 리드는 "평가 세트를 공개하지 않음으로써 모델들이 평가 세트를 학습하는 문제를 방지했다"며 "이로써 공정하고 정확한 성능 평가가 가능해졌다"고 밝혔다. 그러면서 "오픈소스와 리더보드 등을 통해 국내 AI 생태계가 함께 상생하고 발전하길 바란다"며 "이는 업스테이지도 한층 더 성장할 수 있는 기회일 것"이라고 강조했다.

2024.09.08 09:32조이환

"AI 운영비용 최대 90% 감소"…앤트로픽, 프롬프트 캐싱 도입

앤트로픽이 생성형 인공지능(AI) 클로드의 운영비용을 최대 90% 줄이고 반응속도를 개선하는 새로운 기능을 공개했다. 16일 실리콘앵글 등 외신에 따르면 앤트로픽은 프롬프트 캐싱을 공식 홈페이지를 통해 발표했다. 이 기능은 앤트로픽의 멀티모달 대규모언어모델(LLM) 클로드3.5 소네트와 고속 AI모델인 클로드3 하이쿠에서 베타모드로 먼저 도입된다. 프롬프트 캐싱은 AI챗봇의 응답 처리 과정에서 발생하는 비용을 줄이고 반응속도를 높이기 위한 기술이다. 일반적인 AI모델은 프롬프트를 입력할 때마다 해당 데이터를 새로 입력해야 하는 만큼 많은 비용과 시간을 소모한다. 반면, 프롬프트 캐싱은 반복적으로 사용할 긴 문서나 복잡한 프롬프트를 캐시에 저장해 반복 사용하는 방식이다. 앤트로픽에 따르면 프롬프트를 캐시에 저장할 때는 백만 토큰당 3.75달러의 비용이 든다. 하지만 캐시에 저장된 데이터를 불러와 사용할 경우에는 백만 토큰당 0.3달러로 줄어든다. 이를 통해 반복적인 작업에서 기존 대비 최대 90%의 비용 감소효과를 일으킬 수 있다는 설명이다. 더불어 매번 데이터를 새로 불러올 필요가 없는 만큼 응답 시간 역시 2배 이상 높일 수 있다. 앤트로픽에 따르면 10만 토큰 규모의 특정 문서 기반 대화의 경우 캐싱 전 지연 시간은 11.5초수준이었다. 프롬프트 캐싱 적용 후 지연 시간은 2.4초로 79% 줄어드는 성과를 기록했다. 앤트로픽은 프롬프트 캐싱의 실무 사례로 노션을 소개했다. 노션은 해당 기능을 통해 AI 운영 비용을 최대 90%까지 절감했으며, 10초가 걸리던 응답 시간도 약 2.5초로 단축했다고 밝혔다. 더불어 AI응답속도가 증가하고 비용을 절감하게 되면서 더 많은 사용자에게 보다 빠른 AI서비스를 제공할 수 있어 사용자 경험 향상에 큰 영향을 미쳤다고 답했다. 노션의 공동창업자인 사이먼라스트는 "프롬프트 캐싱을 사용해 노션AI를 더 빠르고 저렴할 뿐 아니라 높은 품질을 유지할 수 있게 됐다"며 해당 서비스를 평가했다.

2024.08.16 09:52남혁우

[현장] 오픈AI 제이슨 권 "AI 극초기 단계…낙관론 유지해야"

"사람들이 인공지능(AI)을 '스마트하다'고 느끼기 시작했음에도 이 기술은 아직 초기 단계에 있습니다. 기술의 유용성을 극대화하기 위해서는 AI를 '과대광고'라고 생각하지 말고 합리적 낙관론을 유지해야 합니다." 제이슨 권 오픈AI 최고전략임원(CSO)은 12일 서울 페럼홀에서 열린 '서울 AI 정책 컨퍼런스(Seoul AI Policy Conference) 2024'에서 임용 서울대 교수와 대담하며 AI 기술의 현황과 잠재력에 대한 자신의 견해를 밝혔다. 권 이사는 지난 2022년 11월 '챗GPT-3.5'가 출시된 후 생성 AI에 대한 대중의 인식이 급격히 변화했다고 언급했다. 거대언어모델(LLM)을 통해 AI가 사람의 말을 이해하게 되면서 20년 전에는 상상할 수 없었던 기술들이 실현됐기 때문이다. 그는 직접 오픈AI 'GPT-4o' 최신 음성 모드를 시연하며 기술의 급격한 발전을 증명했다. 한국인 교수와의 대화를 통역해 달라는 권 이사의 영어로 된 요청에 'GPT-4o'는 그의 말을 한국어로 실시간 변환하며 성공적인 통역을 수행했다. 권 이사는 "불과 1년 반 전만 해도 텍스트를 키보드로 입력해야 했던 모델이 이제는 음성으로 실시간 통역을 제공할 수 있게 됐다"며 "기술은 매우 빠르게 발전하고 있다"고 강조했다. AI 능력의 급격한 발전에도 여전히 할루시네이션(환각)이나 음성 인식 오류와 같은 문제가 존재한다. 그럼에도 불구하고 AI는 여전히 추론 능력을 개선하고 있으며 엔지니어들은 최신 기술인 '트랜스포머' 이후의 새로운 패러다임을 모색하고 있다. 이러한 발전 과정에 대해 권 이사는 "우리는 기술을 점진적으로 발전시키고 AI가 일상 업무를 대신하도록 하는 것이 목표"라며 "단 한번의 도약이 아닌 점진적인 진화 과정을 통해 종국에는 일반인공지능(AGI)에 도달할 것이라고 믿는다"고 밝혔다. AI의 급격한 발전이 안전성 문제를 초래할 수 있지 않냐는 질문에 그는 AI 시스템 발전이 오히려 '정렬(Alignment)' 문제를 해결하는 데 도움될 수 있다는 점을 강조했다. 실제로 'GPT-2' 시절의 AI는 일반화 능력이 부족해 비윤리적인 명령을 실행했던 바 있으나 현재의 강력한 모델들은 스스로를 윤리적인 방향으로 제어할 수 있게 됐다. 또 권 이사는 AI 기업의 구조·거버넌스는 필요에 따라 변할 수 있지만 중요한 것은 조직을 운영하고 결정을 내리는 사람이라는 점을 강조했다. 오픈AI 역시 비영리로 시작했지만 컴퓨팅 자원과 투자 유치로 인해 복잡한 구조를 가지게 됐기 때문이다. 권 이사는 "AGI라는 핵심 목표를 위해 우리는 세상과 상호작용하며 유연하게 진화해 왔다"며 "이는 회사 구성원들이 원했던 목적을 이루기 위해 변화한 결과"라고 주장했다. 오픈AI의 향후 계획에 대해 권 이사는 "앞으로 사람들이 AI를 지금보다 많은 방향으로 활용하며 잠재력을 실현할 것"이라며 "AI의 추론 능력을 더욱 발전시켜 사람들의 업무에 실질적인 도움을 주고 동시에 안전성을 확보하는 것이 회사의 목표"라고 밝혔다.

2024.08.12 14:52조이환

美 클라우드플레어, '웹사이트 스크랩' 차단 지원

미국의 인터넷 보안 업체 클라우드플레어가 웹사이트 소유자들이 인공지능(AI) 서비스의 콘텐츠 접근을 차단하는 기능을 출시했다. 여러 AI 기업들이 타사 웹사이트를 무단으로 스크랩해 콘텐츠를 수집하자 대응 조치를 내놓은 것이다. 지난 6일 포브스 등 외신에 따르면, 클라우드플레어는 공식 블로그를 통해 클라우드플레어 고객이 자신의 웹사이트를 방문하는 AI 봇을 차단하는 기능을 출시했다고 밝혔다. 클라우드플레어 관계자는 해당 기능을 출시한 이유에 대해 "생성형 AI의 인기로 모델 학습이나 추론 실행에 사용되는 콘텐츠 수요가 급증하고 있다"며 "웹 스크래핑용 AI봇을 투명하게 운영하지 않는 일부 AI 기업이 무단으로 콘텐츠를 가져가는 사례도 발생하고 있다"고 설명했다. 해당 기능은 클릭 한 번으로 클라우드플레어 고객 누구나 활성화할 수 있으며 무료 사용자도 이용 가능하다. 해당 기능이 활성화되면 클라우드플레어 자체 기술로 봇 점수를 계산하며, AI봇을 식별하고 막는다. 클라우드플레어는 발표와 함께 자사가 수집한 'AI 스크랩퍼'들의 활동 데이터를 공유했다. AI 모델을 학습시키기 위해 대규모언어모델(LLM) 등의 콘텐츠 수요가 급증하자 여러 기업에서 타사의 홈페이지의 스크랩해 콘텐츠를 도용한 것이다. 해당 데이터에 따르면, 6월 한 달 간 클라우드플레어 사용자 중 약 39%가 AI 봇에 의해 홈페이지 스크랩을 당했다. 또한 이 중 2.98%만이 홈페이지 스크랩을 자체적으로 차단한 것으로 나타났다. 클라우드플레어 관계자는 "봇 탐지를 회피하기 위해 기존 감지 규칙을 우회해 콘텐츠에 접근하려는 AI 기업이 계속 나올 것으로 보인다"며 "클라우드플레어는 머신러닝 모델을 고도화하고 더 많은 AI봇을 차단목록에 추가해 콘텐츠 제작자가 성장할 환경을 제공할 것"이라고 말했다.

2024.07.07 14:13정석규

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

"책 대신 '아이패드'로 수업을"…디지털이 바꾼 교실 풍경은

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 193만...교체 예약 대기 686만

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현