• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 언어 모델'통합검색 결과 입니다. (141건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 'K-AI' 노리는 코난테크·업스테이지, 韓 반도체 기업과 협업 나선 까닭은

한국형 인공지능(AI) 모델 개발을 위한 정부의 '독자 AI 파운데이션 모델' 프로젝트 사업자 선정에 도전장을 내민 AI 업체들이 국내 반도체 기업과 손잡고 경쟁력 끌어올리기에 본격 나섰다. 25일 업계에 따르면 코난테크놀로지는 최근 AI 반도체 기업 리벨리온의 신경망처리장치(NPU)에 자사 거대언어모델(LLM)이 탑재된 '코난 AI 스테이션 서버'를 접목했다. 이를 위해 두 회사는 지난해 8월 AI 모델과 AI 반도체 기술을 결합하는 공동 연구개발 협약을 맺고 국산 AI 소프트웨어와 반도체 기술을 융합한다고 발표한 바 있다. 코난 AI 스테이션 서버는 팀이나 조직 단위가 함께 사용하는 생성형 AI 인프라로 사용자 수에 따라 그래픽처리장치(GPU), 메모리, 스토리지를 유연하게 구성할 수 있다. 지난달 출시한 기업형 AI 서버 코난 AI 스테이션 서버에는 코난 LLM이 기본 탑재된 상태로, 리벨리온의 최신 NPU에서 작동되고 있다. 두 회사는 현재 최적화 작업을 진행 중이다. 업스테이지도 국내 반도체 팹리스 기업인 퓨리오사AI와 '신경망처리장치(NPU) 기반 생성형 AI 사업 협력'을 위한 양해각서(MOU)를 체결했다. 이번 일로 업스테이지는 자체 거대언어모델(LLM) '솔라'를 퓨리오사AI의 차세대 NPU '레니게이드'에 최적화해 탑재할 계획이다. 또 두 회사는 NPU 기반으로 구동하는 온프레미스 AI 구축 사업을 공동 추진하고 국내는 물론 글로벌 시장까지 함께 공략할 방침이다. 이들이 이처럼 나선 것은 최근 AI 반도체 시장을 미국 엔비디아가 사실상 독점하며 이에 따른 글로벌 공급난과 가격 급등으로 인해 불안정성이 지속되고 있어서다. 여기에 최근 미국, 중국 등 해외 빅테크 LLM의 공세가 거세지면서 국내 AI 산업 전반에 상당한 부담이 가중되고 있다는 점도 주효했다. 더불어 최근 정부가 '독자 AI 파운데이션 모델' 프로젝트 사업자 선정에 나서고 있는 것도 영향이 크다. 코난테크놀로지와 업스테이지는 각각 자체 LLM을 보유하고 있는 곳으로, 이번 정부의 프로젝트에 사업자로 참여하고 싶다는 의지를 강하게 드러내고 있다. 이들의 LLM이 대표 AI 모델로 선정되면 'K-AI 모델', 개발사는 'K-AI 기업' 등 명칭을 쓸 수 있게 된다. 정부는 이 사업에 총 1천936억원을 투입해 선발 기업에게 최대 3년간 GPU와 데이터, 인재 등 필요한 자원을 집중적으로 지원한다. 초기에 최대 5개 기업을 선발할 예정으로, 평가를 거쳐 점차 지원기업을 압축해 나갈 계획이다. 이 사업에는 두 회사 외에도 네이버와 카카오, LG AI 연구원, KT, 솔트룩스, 이스트소프트 등이 참여 의사를 적극 내비치고 있다. 업계 관계자는 "국내 대표 AI 소프트웨어와 하드웨어 기업이 힘을 모아 국산 AI 경쟁력을 강화하기 위해 나서려는 분위기가 조성되고 있다는 점은 긍정적"이라며 "이들의 움직임이 정부가 추진하는 프로젝트 사업자 선정에 어떤 영향을 줄 지 기대된다"고 말했다. 그러면서 "국산 NPU 기반 생성형 AI 솔루션의 상용화는 해외 기술 의존도를 낮추고 AI 인프라의 자립화와 기술 주권 확보에 기여할 것으로 보인다"고 덧붙였다.

2025.06.25 10:10장유미

LG AI연구원 '엑사원 4.0' 개발 중…추론형 AI 역량 강화 시동

LG가 차세대 인공지능(AI) '엑사원'의 후속 버전 개발에 속도를 내고 있다. 24일 업계에 따르면 LG AI연구원은 '엑사원 4.0'과 조직병리 특화 모델 '엑사원 패스 2.0'을 개발 중이다. 현재까지 관련 공식 행사 계획은 없으며 공개 일정도 논의 단계에 머물러 있는 것으로 알려졌다. '엑사원 4.0'은 기존 모델에 추론형 모델 '엑사원 딥'을 통합하는 형태로, 대용량 장문 처리와 과학·의료 등 고도화된 전문 영역 활용을 목표로 설계되고 있다. '3.5' 버전은 A4 100페이지 수준의 문서를 단일 입력으로 처리할 수 있을 정도의 처리 능력을 보인 바 있다. 함께 준비 중인 '엑사원 패스 2.0'은 병리 이미지 기반의 암 진단 AI 모델로, 유전자 검사 대비 검사 시간을 줄이는 데 목적이 있다. 두 모델 모두 오픈소스로 공개해 활용성과 투명성을 높인다는 것이 LG 측 내부 방향성이다. 지난 23일 과학기술정보통신부 장관으로 지명된 배경훈 LG AI연구원장은 지난 3월 엔비디아 개발자 행사에서 "'엑사원 4.0'부터 통합 모델을 선보일 것"이라며 "상반기 출시를 목표로 한다"고 말했다. LG 관계자는 "모델은 개발 중인 것이 맞고 행사는 미정"이라고 밝혔다.

2025.06.24 15:12조이환

[AI는 지금] 정부, '국가 파운데이션 모델' 추진…업계 "설계는 훌륭, 실행이 관건"

정부가 글로벌 생성형 인공지능(AI) 시장에서 독립적 경쟁력을 확보하기 위한 '독자 파운데이션 모델' 개발에 착수했다. 모델을 오픈소스로 공개해 민간 활용도를 극대화하겠다는 구상이다. 업계에서는 방향성과 의도에 대해 긍정적인 평가가 나오지만 실질 집행에 대한 지속적인 모니터링은 필요하다는 시각도 병존한다. 24일 업계에 따르면 과학기술정보통신부는 지난 20일 정보통신산업진흥원(NIPA), 지능정보사회진흥원(NIA), 정보통신기획평가원(IITP) 등과 함께 '독자 AI 파운데이션 모델' 프로젝트를 공식 발표했다. 해당 사업은 기존 '월드 베스트 거대언어모델(LLM)'로 불리던 기획의 정식 명칭으로, 다음달 7월 21일까지 국내 AI 정예팀 공모를 진행해 최대 5개 팀을 선발하고 단계별 압축 평가를 통해 상위팀으로 압축할 계획이다. 이번 사업은 최근 6개월 내 출시된 글로벌 최신 AI 모델 대비 95% 이상의 성능을 목표로 삼고 있다. 다만 고정된 성능 수치에 집착하기보다는 '무빙 타겟' 방식을 도입해 기술환경 변화에 따라 목표와 평가 기준을 유연하게 조정하는 전략을 채택했다. 과기정통부는 이와 같은 방식을 미국 방위고등연구계획국(DARPA)의 모델에 빗대어 'DARPA형'이라고 정의했다. 기술주권 위한 'K-AI 전략' 본격화…정예팀 자율 설계·정부 전폭 지원 구조 이 프로젝트를 위해 정예팀은 AI 모델 개발 전략과 방법론을 스스로 제시해야 한다. 정부는 GPU, 데이터, 인재 등 자원 항목에 대해 '희망 수요'를 정예팀이 먼저 요청하도록 하고 평가를 통해 적정 수준을 매칭 지원한다. 이 과정에서 오픈소스 공개 범위가 넓을수록 정부의 지원 매칭 비율은 높아진다. 그래픽 처리장치(GPU)는 당장 1차 추경 예산 1천576억원 규모를 활용해 민간 GPU를 임차해 지원한다. 팀 당 초기 지원 수량은 GPU 500장 수준이며 평가 결과에 따라 1천 장 이상까지 확대된다. 내년 하반기부터는 정부가 직접 구매한 첨단 GPU 1만 장을 본격 투입할 예정이다. 데이터는 공통수요와 개별수요로 나눠 지원된다. 정예팀이 필요로 하는 저작물 기반 학습데이터를 연간 100억원 규모로 공동구매하고 팀별 데이터 구축 및 가공은 연간 30억~50억원 수준으로 지원한다. 학습 효율성과 저작권 이슈를 동시에 감안한 전략이다. 인재 지원은 해외 우수 연구자 유치를 전제로 한다. 정예팀이 해외 팀이나 재외 한인 인재를 유치하면 정부가 연간 20억원 내외의 인건비 및 연구비를 매칭한다. 이 항목은 정예팀이 탈락하더라도 오는 2027년까지 지속 지원된다. 모델 성능 평가는 6개월 주기로 진행된다. 국민과 전문가가 함께 참여하는 콘테스트 기반 평가, 국내외 벤치마크 기준에 따른 검증 평가, 파생 모델 수를 기준으로 한 파생 평가 등을 결합한 입체적 방식이다. 단계평가를 통해 5개 팀에서 4개, 3개, 2개로 점차 압축하는 경쟁형 설계를 따를 예정이다. 모델 개발 완료 후에는 오픈소스를 통해 국내 AI 생태계 전반에 확산될 예정이다. 정예팀은 공모 시 '국민 AI 접근성 향상'과 '공공·경제·사회 전반의 AI 전환'을 위한 활용 계획을 함께 제출해야 하며 정부는 필요에 따라 이에 매칭해 후속 지원도 가능하다고 밝혔다. AI 안전성 확보도 주요 과제로 포함된다. 정부는 AI 안전연구소(K-AISI)와 협력해 파운데이션 모델의 신뢰성과 확장성을 검증하고 일정 수준 이상에 도달한 모델에 대해 'K-AI 모델', 'K-AI 기업' 등 명칭을 부여해 글로벌 시장에서의 공신력을 제고한다는 방침이다. 송상훈 과기정통부 정보통신정책실장은 "이번 프로젝트는 단순히 AI 모델을 만드는 데 그치지 않고 기술주권을 확보하고 모두가 활용할 수 있는 AI 생태계를 조성하는 출발점이 될 것"이라며 "정예팀들이 글로벌 수준의 독자 모델을 확보해 대한민국이 AI 강국으로 도약하는 기반을 마련하길 기대한다"고 밝혔다. 설계는 잘 했다…'기술·자원·평가' 운용이 진짜 시험대 업계에서는 정부의 독자 파운데이션 모델 추진을 대체로 긍정적으로 평가하고 있다. 국가가 주도해 자국 모델을 구축하려는 흐름은 이미 전 세계적으로 확산 중이며 한국의 이번 시도도 그 연장선에 있다는 분석이다. 실제로 국가 주도 모델 개발은 미국 오픈AI, 앤트로픽 등과 중국 딥시크 만의 경쟁 구도가 아니다. 프랑스는 오픈소스 기반 생성형 AI 기업 미스트랄을 중심으로 자체 모델을 개발하고 있으며 에마뉘엘 마크롱 대통령이 직접 나서 수천억 원대 민간 투자와 글로벌 협력을 이끌고 있다. 싱가포르 역시 '씨라이언(SEA-LION)' 프로젝트를 통해 동남아 현지 언어 기반 LLM을 개발 중이다. 최근에는 칠레 AI센터를 중심으로 아르헨티나, 브라질 등 남미 12개국이 연합해 '라탐-GPT' 개발을 공식화하며 오는 9월 공개를 예고한 상태다. 라지브 쿠마르 한국외국어대학교 연구교수는 "국가가 주도해 독자적인 파운데이션 모델을 개발하는 건 지금 전 세계적인 흐름으로, 한국 정부의 이번 시도는 매우 긍정적으로 본다"며 "인도도 스타트업 중심의 개발을 정책적으로 지원하면서 정부 차원에서 국내 생태계를 강화하려는 시도가 있다"고 말했다. 더불어 업계에서는 이번 프로젝트가 단순히 모델 하나를 만드는 데 그치지 않고 자원 배분 방식과 생태계 설계까지 포괄하고 있다는 점에 주목하고 있다. 'GPU·데이터·인재'라는 AI 핵심 자원을 수요 기반으로 자율 신청받고 이를 정부가 평가 후 매칭하는 구조가 민간 주도성과 정부 책임성을 동시에 확보하려는 시도로 보고 대체로 긍정적으로 반응하는 상황이다. 다만 실무 현장에서는 자원 지원이 선언에만 머물 경우 효과가 반감될 수 있다는 우려도 제기된다. 일례로 GPU의 경우 1천576억원 규모의 예산이 잡혀 있다 해도 실제 장비 임차·세팅·운영까지 이뤄지는 시간 차를 간과해선 안 된다는 게 중론이다. 단순한 GPU 확보가 아니라 팀별 물리적 접근성과 운영 안정성까지 감안한 체계 설계가 필요하다는 것이다. 데이터 항목도 비슷한 맥락이다. 정예팀이 요청하는 데이터에 대한 품질 기준과 저작권 검토 체계가 정비되지 않을 경우 향후 오픈소스 공개 과정에서 법적 리스크나 생태계 혼란을 야기할 수 있다. 특히 저작물 데이터의 공동구매가 연간 100억원 규모로 설정된 만큼, 명확한 선별 기준과 기술적 정제 절차가 병행돼야 한다는 의견이 나온다. 인재 유치 항목에 대해선 방향성은 맞지만 실질 효과는 제약이 클 수 있다는 관측도 있다. 단순히 해외 인재에게 연구비를 매칭 지원한다고 해서 국내에 안착하는 건 어렵다는 것으로 국내 기관의 위상, 프로젝트 자체의 매력도, 그리고 연구 독립성 등이 종합적으로 뒷받침돼야 할 것으로 관측된다. 오픈소스 정책 역시 마찬가지다. 오픈소스 정책이 산업 육성과 충돌하지 않도록 장기적으로는 파라미터 제한이나 일부 모듈 비공개 등에 대한 세분화된 가이드라인이 수립될 필요가 있다는 것이다. 한 업계 관계자는 "오픈소스를 전제로 한 모델 전략은 지금 시기에 필요하다"면서도 "오픈소스에 대한 구체적인 정의가 프로젝트가 진행되면서 확립돼야 할 것으로 보인다"고 말했다. "이어 기술 보호 없이 모든 걸 일괄적으로 공개할 경우 산업적 격차를 키울 수 있다"고 우려했다. 일각에서는 이 프로젝트가 '국가대표 AI'를 선발하는 성격인 만큼 평가 기준의 엄정성과 공정성이 핵심이라는 지적도 있다. 단순한 국내 경쟁이 아니라 세계적 기술 경쟁의 문턱을 넘는 출발점이 되려면 국제적인 벤치마크와 기술 평가 기준을 적극 반영해야 한다는 주장이다. 또 다른 업계 관계자는 프로젝트를 두고 "파운데이션 모델 구축을 위한 기술력과 역량은 충분하지만 자원이 부족했던 강소기업에게는 매우 훌륭한 육성 프로젝트로 보인다"며 "다만 기술적 발전이 빠른 만큼 평가 기준에는 국제적인 수준이 반영돼야 그 공신력이 확보되고 국가대표로서도 의미가 있을 것"이라고 말했다. 이와 함께 모델 규모에 대한 조건이 명확히 규정돼 있지 않다는 점도 일부에서 우려되는 대목이다. 개발 전략과 방법론을 정예팀이 자율적으로 제안하는 'DARPA형' 설계는 기술 진화에 유연하게 대응할 수 있다는 점에서 긍정적이지만 자칫 자원 격차에 따른 구조적 불균형을 초래할 수 있다는 지적이다. 업계 관계자는 "모델 규모에 대한 규정이 자칫 잘못되면 큰 모델들만이 성능과 역량이 좋게 평가를 받을 것"이라며 "기울어진 운동장이 될 수도 있으므로 이를 방지하기 위한 노력을 기울여야 할 것"이라고 평가했다.

2025.06.24 11:21조이환

"軍 AI 싹쓸이"…코난테크놀로지, 국방 AI 서밋 연다

코난테크놀로지가 국방 인공지능(AI) 기술력을 집약한 만남의 장을 열어 방산 시장 공략에 속도를 내고 있다. 코난테크놀로지는 다음달 16일 서울 용산 전쟁기념관 내 로얄파크컨벤션에서 '국방 AI 테크 서밋 2025'를 개최한다고 23일 밝혔다. 이 행사에는 군 관계자, 방산 협력업체 관계자 등 200여 명이 참석하며 국방 AI 관련 성과와 활용 전략을 공유하는 세션으로 구성된다. 이번 서밋은 코난테크놀로지가 지난 10년간 수행해온 국방 AI 사업 사례를 외부에 처음으로 공개하는 자리다. 주요 세션으로는 ▲국방 AI 기술 추진 전략 및 도입사례 ▲AI 거버넌스 기반 플랫폼 구축 전략 ▲감시정찰 체계를 위한 지능형 의사결정 전략 ▲에이전틱 AI 기반 정보 분석 전략 등이 포함됐다. 행사장에는 관련 기술과 제품의 시연도 진행된다. 코난테크놀로지는 AI 기반 화력운용시스템, 공중전투 기동훈련 체계, 스마트 인재관리 시스템 등 핵심 군 사업에 AI를 공급해온 국내 유일 기업으로, 현재 국방 및 민간 방산 전문기업 20여 곳과 협업 중이다. 특히 지능형 CCTV와 이동형 드론은 국내 최초로 한국인터넷진흥원(KISA) 인증을 받아 재난 구조 현장에서 실전 투입되고 있다. 일례로 'AI 파일럿' 등 유무인 복합 전투체계 실증에도 착수했으며 지난해 '방산혁신기업 100'에 이름을 올린 바 있다 더불어 지난 2023년 자체 개발한 대규모 언어모델 '코난LLM'을 기반으로 공공 및 민간 시장에 AI 솔루션을 공급 중이다. 해당 모델은 지난해 미국 스탠퍼드대 생태계 그래프에 등재됐다. 공공 프로젝트 기반의 신뢰를 바탕으로 의료 AI 영역으로도 확장 중으로, 지난 2월 한림대의료원과 국내 첫 거대언어모델(LLM) 기반 진료 플랫폼 공동 개발을 시작했다. 출시 2년차인 '코난LLM'은 현재 온디바이스, 프로페셔널, 엔터프라이즈 모델로 라인업을 구성해 고객 맞춤형 대응에 나섰다. 지난 3월에는 일반·추론 모드를 통합한 '이엔티-11(ENT-11)' 모델도 출시하며 범용성과 유연성을 높였다. 오는 7월 자사 기술을 탑재한 AI PC도 공개될 예정이다. 김규훈 코난테크놀로지 국방AI사업부 이사는 "AI 기술의 전략적 도입을 통해 국방력 강화에 기여하는 실질적 해법을 고객과 함께 모색할 계획"이라며 "실전성과 신뢰성 기반의 AI 솔루션으로 국방 분야의 새로운 기준을 만들겠다"고 밝혔다.

2025.06.23 16:47조이환

정부, '국가대표 AI' 만든다…글로벌 수준 모델 개발에 '총력'

대한민국 정부가 인공지능(AI) 기술 자립과 생태계 확장을 목표로 국내 정예팀을 뽑아 독자 모델 개발에 나선다. 글로벌 기업 중심의 AI 주도권 구도를 견제하고 기술 주권을 확보하기 위해서다. 과학기술정보통신부(과기정통부)는 '독자 AI 파운데이션 모델 프로젝트'를 공식 출범하고 다음달 21일까지 참여 정예팀 공모에 착수한다고 20일 밝혔다. 과기정통부 외에도 정보통신산업진흥원, 한국지능정보사회진흥원, 정보통신기획평가원이 공동으로 추진하는 이번 사업은 기존 '월드베스트 거대언어모델(World Best LLM)' 프로젝트의 공식화다. 이번 공모는 성능·전략·파급효과 등을 기준으로 최대 5개 정예팀을 선정한 뒤 단계별 평가를 통해 점진적으로 압축하는 방식으로 진행된다. 최신 글로벌 AI 모델 성능의 95% 이상 달성을 목표로, 참여팀은 자체적인 개발 전략과 방법론을 자유롭게 설계할 수 있다. 프로젝트는 일괄지원이 아닌 6개월 단위 경쟁형 압축 방식을 도입해 민첩한 기술 진화를 유도한다. 지원 자원은 그래픽 처리장치(GPU), 데이터, 인재라는 세 가지 축으로 구성된다. GPU는 올해부터 내년 상반기까지 민간 GPU 임차 형태로, 이후엔 정부 구매 GPU를 활용해 정예팀당 최대 1천 장 이상이 단계별로 지원된다. 데이터는 저작물 중심의 공동구매와 개별 가공 작업에 연간 최대 150억원 규모의 예산이 투입된다. 인재 분야는 해외 연구자 유치 시 연 20억원 한도 내에서 인건비와 연구비를 매칭해 준다. 특히 대학·대학원생의 참여를 필수로 명시하며 미래 인재 양성을 병행하는 구조다. 동시에 참여팀은 국민 AI 접근성 향상, 공공·경제·사회 전환(AX) 기여계획도 함께 제출해야 한다. 오픈소스 수준에 따라 정부 매칭 비율과 자부담 비율이 달라지는 구조도 설계됐다. 프로젝트는 단순한 기술개발에 머무르지 않는다. 국민 대상 사용성 평가, 컨테스트형 단계 심사, 벤치마크와 한국어 성능·안전성 검증 등 다층적 방식으로 완성도를 높인다. 우수한 모델에는 'K-AI' 명칭 부여 등 글로벌 브랜딩도 병행한다. 안전성 확보를 위해 AI안전연구소(K-ASIS)와의 협력도 예정돼 있다. 이 밖에 공공영역은 물론 국방·안보 등 민감 분야 활용도 계획에 포함돼 있다. 정부는 개발된 모델을 오픈소스화해 민간 AI 서비스 생태계 확산에도 적극 활용할 방침이다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 프로젝트는 AI 기술 주권 확보와 모두의 성장을 위한 생태계 구축이 목표"라며 "글로벌 수준의 독자 AI 모델을 통해 대한민국이 진정한 AI 강국으로 도약하길 기대한다"고 밝혔다.

2025.06.20 13:37조이환

이스트소프트, AI 휴먼 키오스크 사업 시동…자체 LLM 첫 상용화

이스트소프트(대표 정상원)가 자체 개발한 경량 대규모언어모델(LLM) '앨런'을 앞세워 온디바이스 AI 시장 공략에 본격 나선다. 이스트소프트는 이큐비알과 대화형 AI 휴먼 솔루션 'AI 라이브 챗' 공급 계약을 체결했다고 19일 밝혔다. 이 계약을 통해 양사는 온디바이스 AI 키오스크 시장 공략에 본격 나선다. 이번 계약은 이스트소프트기 '앨런 LLM'과 AI 휴먼 기술을 기반으로 한 온디바이스 소프트웨어 개발 키트(Full On-Device SDK)를 이큐비알에 공급하는 내용이다. 이를 통해 양사는 온디바이스 AI 휴먼 키오스크를 빠른 시일 내에 제품화하고, 초도 물량 20억원 규모를 시작으로 순차적 유통에 돌입한다. 이스트소프트는 키오스크에 탑재되는 AI 라이브 챗이 독립 환경에서 구동돼 ▲높은 보안성 ▲지연시간 최소화 ▲클라우드 인프라 비용 절감 등의 장점을 제공한다고 설명했다. 여기에 검색 기반 생성형 AI(RAG), 음성합성(TTS), AI 휴먼 인터페이스 등 온디바이스 최적화를 위한 기술 고도화를 지속 추진하고 있다. 이큐비알은 금융권 SI 사업에서 쌓은 구축·유통·운영 노하우를 기반으로 키오스크 현장 설치와 유지보수까지 전반을 담당하게 된다. 양사는 기술-사업 연계 모델을 통해 온디바이스 기반 LLM 서비스의 상용화 속도를 높이겠다는 계획이다. 이스트소프트는 이번 계약을 통해 자체 개발한 앨런 LLM을 처음으로 상업 공급하게 됐으며, 이를 기점으로 에이전트 AI 구축 사업과 LLM 플랫폼 확장에 속도를 낼 방침이다. 하반기에는 LLM 기반 온디바이스 솔루션 사업을 주력으로 추진한다. 정상원 이스트소프트 대표는 "이번 계약은 자체 LLM 기술을 온디바이스 환경에 상용화한 상징적인 첫 사례"라며 "AI 라이브 챗을 포함한 다양한 솔루션을 통해 온디바이스 AI 생태계를 선도하고, LLM 기반 사업의 본격 성장을 이끌겠다"고 강조했다. 향후 양사는 공공, 의료, 유통, 관광 등 다양한 분야로 온디바이스 AI 키오스크 사업을 확대하고, 베리어프리 키오스크 도입 의무화에 선제 대응할 계획이다.

2025.06.19 09:43남혁우

모티프, 국산 sLLM 첫 공개…미스트랄·구글·메타 제쳤다

인공지능(AI) 스타트업 모티프테크놀로지스가 자체 개발한 소형언어모델(sLLM) '모티프(Motif) 2.6B'를 공개했다. 이 모델은 구글, 메타, 미스트랄 등 글로벌 빅테크의 동급 혹은 중대형 모델들을 뛰어넘는 성능을 기록해 관심을 모았다. 임정환 모티프 대표는 10일 서울 강남구 조선 팰리스에서 열린 '레노버 테크데이 2025' 현장에서 모티프 2.6B를 처음 소개했다. 그는 "AI는 크기보다 얼마나 잘 만들었는지가 중요하다"며, 소형 모델의 전략적 가치와 기술 완성도를 강조했다. 모티프 2.6B는 총 26억 개의 파라미터를 가진 국산 sLLM으로 AMD의 MI250 GPU 한 장만으로도 추론이 가능하다. 임 대표는 "일반적인 대형언어모델(LLM)이 수십~수백 개의 GPU를 요구하는 것과 대비되는 경량구조를 갖췄다"며 "엔비디아 기반 인프라 대비 약 60% 수준의 비용으로 학습과 운영이 가능하다"고 설명했다. 특히 그는 70억 파라미터 규모의 미스트랄 7B보다 높은 벤치마크 점수를 기록하는 등 낮은 요구사항에도 높은 성능을 제공한다고 강조했다. 현장에서 공개된 벤치마크 결과에 따르면 모티프 2.6B는 프랑스 미스트랄의 70억 파라미터 모델 '미스트랄 7B'보다 134% 높은 점수를 기록했다. 구글의 젬마 2B와 비교해 191%, 메타의 라마 3.2(1B) 대비 139%, AMD 인스텔라(3B)보다 112%, 알리바바 첸(Qwen) 2.5(3B)와는 104% 성능 우위를 보였다. 임 대표는 각 모델의 공식 테크니컬 리포트에서 공개한 설정값과 지표를 그대로 적용해 비교했다며 벤치마크의 신뢰성과 투명성을 동시에 확보했다고 강조했다. 또한 모티프 2.6B는 문장 내 문맥 파악과 응답 정확도 향상에 초점을 맞춘 설계가 특징이다. 핵심 문맥에 집중하고 흐름에서 벗어난 단어 선택을 줄이기 위해 어텐션 메커니즘을 정밀하게 조정했다. 이로써 단순한 언어 생성 능력을 넘어, 실제 사용에 적합한 AI 성능을 확보했다. 임 대표는 이 sLLM이 단순한 파인튜닝 모델이 아니라 모델 구조 설계부터 학습 데이터 구성, 학습 파이프라인까지 처음부터 끝까지 전부 독자적으로 개발했다고 밝혔다. 그는 "남이 만든 모델을 조금씩 바꾸는 방식으로는 세계 수준에 도달할 수 없다고 판단했다"며 "그래서 처음부터 끝까지 전부 직접 만들었다"고 말했다. 모티프는 이번 모델을 계기로 온디바이스 AI와 에이전틱 AI 분야로 확장을 본격화한다. 경량화를 통해 슈퍼컴퓨터 없이도 구동이 가능해, 산업 현장에서의 적용성이 높기 때문이다. 또한 올해 말에는 텍스트 투 이미지(T2I), 텍스트 투 비디오(T2V)와 같은 멀티모달 생성형 AI 모델도 오픈소스로 공개할 계획이다. 이들 모델 역시 AMD 기반 인프라에서 학습 및 서비스가 가능하도록 설계되고 있다. 현재 모티프는 이미지·비디오 생성, AI 챗봇, 의료 상담형 모델 등 다양한 서비스형 AI를 직접 운영하고 있으며 AMD 기반의 102B 모델 호스팅 서비스도 병행하고 있다. 임 대표는 "가트너에 따르면 sLLM의 산업 수요는 2027년까지 대형 LLM보다 3배 이상 늘어날 것으로 보고 있다"며, "모티프 2.6B는 그 흐름을 준비하는 전략적 모델"이라고 말했다. 이어 "우리는 단순히 모델 하나 잘 만드는 회사를 넘어, 인프라부터 서비스까지 아우르는 풀스택 AI 생태계를 직접 구축하고 있다"며, "모티프는 누구나 접근할 수 있는 강력하고 효율적인 AI를 만들어, 국산 AI도 글로벌 무대에서 통할 수 있다는 걸 증명해 보이겠다"고 포부를 밝혔다.

2025.06.10 20:01남혁우

"동남아판 챗GPT 만든다"…싱가포르, '멀티모달 LLM'에 '7천만 달러' 투입

싱가포르 정부가 자체 거대언어모델(LLM) 개발에 착수했다. 글로벌 인공지능(AI) 경쟁 속 지역 주권을 확보하고 다언어·다문화 환경에 최적화된 동남아판 소버린 AI를 실현하겠다는 포부다. 1일 싱가포르 정보통신미디어개발청(IMDA)에 따르면 이 조직은 현재 과학기술연구청(A*STAR), AI 싱가포르(AISG)와 함께 '국가 멀티모달 LLM 프로그램(NMLP)'을 운영하고 있다. 해당 사업은 싱가포르 국가연구재단(NRF)이 7천만 싱가포르 달러(약 700억원)를 투자해 추진되며 '국가 AI 전략 2.0 및 연구혁신기업(RIE) 2025 계획'과 연계해 내년까지 총 2년간 진행된다. 이번 프로젝트는 AI 인재 양성, 산업 생산성 향상, 신뢰 가능한 거버넌스 환경 조성 등 세 갈래 목표로 설계됐다. 국내 연구자에게는 고성능 컴퓨팅 자원을 지원하고 산업계는 다언어 고객 응대와 자율적 의사결정 시스템을 도입할 수 있도록 유도하는 것이다. 또 LLM의 작동 방식과 위험 요소를 규명하는 연구를 통해 신뢰 기반 AI 사용환경도 구축할 계획이다. 'NMLP'는 크게 두 가지 축으로 구동된다. 첫번째 축인 '머라이언(MERaLiON)'은 과학기술연구청 정보통신연구소가 주도한 모델로, 싱가포르와 동남아에서 흔한 언어·방언 혼용 대화를 인식하고 이해하는 데 초점을 맞췄다. 이 모델은 텍스트, 음성, 장면 정보를 통합하는 멀티모달 처리 능력을 갖췄고 구어체를 이해해 문맥 인식 정확도를 높였다. 구체적으로는 음성 인식·번역, 음성 요약, 음성 질의응답, 장면 인식, 감정 및 분위기 파악, 지역 방언 해석 등 6가지 주요 기능을 갖췄다. 이를 통해 공공·민간 부문의 고객지원, 인사이트 도출, 자동화 의사결정 등에 폭넓게 활용될 수 있다는 게 당국의 설명이다. 싱가포르 정부가 설립한 국가 AI 연구개발(R&D) 추진 기관이자 AI 국가 전략을 실행하는 중심 조직인 'AI 싱가포르'가 개발한 '시라이언(SEA-LION)'은 동남아 다국어 학습에 특화된 LLM 모델이다. 태국어, 베트남어, 인도네시아어 등 주요 지역 언어를 학습해 서구권이나 중화권 중심의 모델보다 높은 문맥 적합성과 응답 품질을 보이는 것이 특징이다. 언어적 대표성의 불균형 문제를 해소하고 포용적 AI 개발을 추진하는 데 목적을 둔다. 현재까지 개발된 '시라이언' 모델은 동남아 전역에서 작동 중으로, 동급 오픈소스 모델을 성능 면에서 앞서고 있는 것으로 알려졌다. 산업계 참여도 이미 활발하다. 과학기술연구청은 정보통신미디어개발청과 함께 머라이언 AI 컨소시엄을 조직했고 DBS은행, 그랩, 마이크로소프트, SPH미디어, 국가슈퍼컴퓨팅센터(NSCC) 등 13개 기관이 1차 멤버로 합류했다. 이들은 다언어 고객상담, 감정 및 건강정보 분석, 자율 의사결정 솔루션 등을 함께 개발 중이다. 컨소시엄은 공통 수요 집약을 통해 개발·통합 비용을 줄이고 데이터와 전문성을 공유해 모델 역량을 빠르게 개선할 방침이다. 또 기업 실무에 즉시 적용할 수 있는 형태의 교육과 도구를 제공하고, 투자 대비 수익(ROI) 검증을 위한 초기 개념증명(POC) 과제를 병행 추진한다. AI 싱가포르는 '시라이언'의 기능 확대와 품질 향상을 위해 외부 협력도 개방했다. 오픈소스화된 결과물을 토대로 다양한 파트너십을 구축해 공동 개발 체계를 유지한다는 계획이다. 싱가포르 정부는 이번 프로젝트를 통해 AI 기술의 지역 적합성과 전략적 자립성을 동시에 확보할 수 있을 것으로 기대하고 있다. 프로젝트 총괄 기관인 정보통신미디어개발청은 "싱가포르가 다언어 사회인 만큼 AI도 지역 현실을 반영할 수 있어야 한다"며 "이번 모델들이 산업 혁신뿐 아니라 AI 거버넌스에도 기여하길 기대한다"고 밝혔다.

2025.06.01 08:29조이환

정부, '1.6조원' 규모 GPU 대전 시작…"WBL 훈련용 반도체, 민간과 함께 확보"

과학기술정보통신부가 민간 클라우드 기업들과 손잡고 총 1조6천300억원 규모의 그래픽처리장치(GPU) 확보·임차 사업을 추진한다. 세계 최고 수준의 초거대 언어모델 개발과 국내 산학연의 인공지능(AI) 인프라 확충을 위한 행보다. 과기정통부와 정보통신산업진흥원은 29일 서울 강남 코엑스에서 클라우드 기업을 대상으로 GPU 확보·임차 사업 통합설명회를 개최했다. 이달 1차 추가경정예산을 통해 관련 예산을 확정한 이후 다음달 4주차까지 협력 기업 공모에 본격 착수한 상태다. 이번 사업은 ▲총 1조4천600억원 규모의 GPU 확보 사업과 ▲1천723억원 규모의 GPU 임차 사업으로 구성된다. 확보 사업은 정부와 민간이 협력해 첨단 GPU를 직접 구매·구축하는 방식이고 임차 사업은 클라우드 기업이 보유한 GPU를 임차해 활용하는 구조다. 임차된 GPU는 가칭 '월드 베스트 LLM(WBL)' 프로젝트와 국내 산학연 등에 지원될 예정이다. 정부는 국내 고성능 연산 자원 부족 문제를 해소하고 AI 기술의 자립 기반을 확보하는 데 사업의 목적이 있다고 설명했다. 설명회 현장에선 사업 개요와 정책 방향 외에도 공모 절차, 평가 기준, 지원 조건 등의 세부 사항이 구체적으로 안내됐다. 참석자들은 질의응답을 통해 공모 준비에 필요한 사항들을 직접 확인할 수 있었다. 과기정통부와 정보통신산업진흥원(NIPA)은 다음달 4주차까지 공모 접수를 마감하고 오는 7월 중 평가와 협약 체결을 마무리할 계획이다. 이후 GPU 인프라 확보 및 배포를 신속히 추진하겠다는 입장이다. 과기정통부는 "보다 구체적인 공모 내용과 사업 안내는 과기정통부 및 NIPA 홈페이지를 통해 확인할 수 있다"고 밝혔다.

2025.05.29 17:18조이환

"국산 LLM의 반격"…업스테이지, 31B 모델로 '글로벌 70B급' 뛰어넘었다

업스테이지가 경량 언어모델 '솔라 프로 2' 프리뷰를 내세워 글로벌 생성형 인공지능(AI) 시장에 정면승부를 걸었다. 자체 기술력으로 초대형 언어모델을 뛰어넘는 성능을 구현하며 국산 소형모델의 반격을 선언한 것이다. 업스테이지는 자체 개발한 거대언어모델 '솔라 프로 2'를 프리뷰 형태로 공개하고 응용프로그램 인터페이스(API)를 통한 무료 테스트 사용을 허용했다고 20일 밝혔다. '솔라 프로 2'는 오는 7월 정식 출시 예정이다. 이번 모델은 지난해 12월 공개된 '솔라 프로'의 후속으로, 패러미터는 기존 22B에서 31B로 약 1.5배 확대됐다. 주요 성능 지표도 크게 향상돼 동일 계열의 30B급 모델 중에서는 유일하게 메타와 알리바바의 70B급 모델을 벤치마크에서 앞섰다. '솔라 프로 2'는 종합지식(MMLU)·지시이행(IFeval) 평가에서 '라마 4 스카우트', '라마 3.3 70B', '큐원 2.5 72B' 등을 모두 웃도는 결과를 냈다. 한국어 성능도 'KMMLU', '해례' 벤치마크에서 최고 수준으로 확인됐다. 이번 모델에는 업스테이지 LLM 중 처음으로 '하이브리드 모드'가 탑재됐다. 사용자 선택에 따라 빠른 응답용 '챗 모드'와 단계적 추론을 위한 '추론 모드' 중 선택할 수 있으며 특히 추론 모드엔 '생각 사슬(CoT)' 기법이 적용돼 복잡한 수학·코딩 문제에 강점을 보인다. 성능 외에 사용성도 개선됐다. 최대 처리 토큰 수는 기존 대비 두 배 이상 확장된 6만4천 토큰으로 긴 문서 처리에 유리하다. 한국어 맞춤형 토크나이저 개선으로 최대 30%의 토큰 절감이 가능해 응답 속도와 비용 효율도 크게 높아졌다. 김성훈 업스테이지 대표는 "'솔라 프로 2'는 31B라는 효율적 규모로도 70B 모델 수준의 성능을 구현하며 작지만 강력한 소형언어모델의 새 기준을 제시한다"며 "특히 최고 추론 성능에 탁월한 한국어 성능을 갖춘 이번 모델을 통해 보다 많은 업무 혁신을 기대한다"고 밝혔다.

2025.05.20 15:00조이환

인텔리콘연구소, 보고서 자동화 시장 '정조준'…국정원 보안도 '통과'

인텔리콘연구소가 기업 보고서 자동 생성 인공지능(AI) '딥리서치 울트라'를 선보였다. 기업 내부 문서와 외부 지식을 동시에 분석해 맞춤형 리서치를 지원하기 위함이다. 인텔리콘연구소는 공공기관, 로펌, 기업 대상 보고서 작성용 AI '딥리서치 울트라'를 개발했다고 14일 밝혔다. 이 기술은 자체 보유한 법률 추론 원천기술과 다단계 추론형 멀티 에이전트 기술을 결합해 만들어졌으며 외부 정보뿐 아니라 사내문서 기반 분석을 병행할 수 있는 것이 특징이다. 연구소는 '딥리서치 울트라'가 기존 오픈AI나 구글의 리서치 툴과 달리 기업 내부의 방대한 문서 자산과 규정, 정책, 법률자료 등을 바탕으로 리서치 보고서를 자동 생성할 수 있다고 밝혔다. 단순 웹 검색이 아닌 심층 문서 분석을 통해 보고서의 정밀도를 높였다는 설명이다. 이 솔루션은 인텔리콘의 문서 분석 솔루션 '도큐브레인'과 연동돼 사용된다. '도큐브레인'은 검색증강생성(RAG) 기반의 기업형 검색 시스템으로 대용량 문서에서 의미 있는 정보를 추출하는 기능을 제공하며 '딥리서치 울트라'와 함께 내부 정보에 특화된 리서치 결과를 생성할 수 있도록 돕는다. '도큐브레인'은 보안성 검증도 완료했다. 한국산업인력공단 도입 사례에서 국가정보원 보안 심사를 통과했으며 국무조정실 산하 기관의 보안 테스트와 모의해킹 절차도 모두 통과한 것으로 알려졌다. 인텔리콘 측은 이 같은 보안성 확보가 공공기관과 기업의 디지털 전환 리스크를 줄이는 데 기여할 수 있다고 설명했다. 이번 기술 출시는 인텔리콘이 리걸테크 영역에서 쌓아온 기술 역량의 연장선이다. 도큐브레인은 조달청 혁신제품으로 지정된 바 있으며 법률 문서 분석 특화 거대언어모델(LLM)로 기업과 공공기관의 문서 업무 자동화 수요를 충족시켜왔다. 임영익 인텔리콘연구소 대표는 "이번에 출시한 기업용 보고서 생성 AI는 단순한 정보 검색 도구를 넘어 기관 및 기업의 핵심 업무 효율성을 극대화하는 혁신적인 솔루션"이라며 "국정원 및 국무조정실의 보안 심사를 통과해 공공기관 및 기업들이 안심하고 사용할 수 있으며 '도큐브레인'과의 결합을 통해 문서 분석 및 보고서 생성 기능을 더욱 강화해 차별화된 가치를 제공할 것"이라고 밝혔다.

2025.05.14 13:04조이환

"단행본 70권도 거뜬"…업스테이지, 한글 AI 교열 도구 '에디트업' 출시

업스테이지가 자체 거대언어모델(LLM) '솔라'를 기반으로 교열 서비스를 내놓았다. 전문가 수준의 문맥 교정 기능을 앞세워 인공지능(AI) 문서 편집 도구 시장에서 영향력을 확대한다는 전략이다. 업스테이지는 한글 교열 서비스 '에디트업'의 정식 서비스를 시작한다고 13일 밝혔다. 이 솔루션은 웹 기반 외에도 구글 크롬 확장 프로그램, 마이크로소프트 워드, 한컴오피스 플러그인으로도 이용할 수 있다. '에디트업'은 기사·보고서 등 다양한 문서 파일을 입력하면 오탈자와 띄어쓰기 오류를 자동으로 탐지해 수정 방향을 제시한다. 기존 맞춤법 검사기와 달리 문맥 기반 판단이 가능해 부적절한 어휘나 어색한 문장도 대체 문구를 제안해준다. 업스테이지의 자체 검증 결과 교정 정확도는 95%를 넘어서는 것으로 나타났다. 요금제는 ▲베이직 ▲프리미엄 ▲엔터프라이즈의 세 가지로 구성되며 각각 500자 기준 호출량이 연간 약 삼만 회, 십만 회, 오십만 회까지 지원되고 가장 저렴한 요금제 기준으로도 약 천오백만 자에 단행본 70권 분량 문서를 교열할 수 있다. 더불어 '에디트업'은 1대1 설치 지원과 플러그인 호환성을 내세워 출판사·언론사·공공기관 등에서 대용량 문서 작업에 강점을 갖는 구조다. 전문 교열 인력 부족 문제를 해소할 수 있는 대안으로 기대된다는 것이 업계의 분석이다. 업스테이지는 신조어, 유행어, 외국 인명 등 최신 데이터를 지속적으로 업데이트해 교열 정확도를 강화할 방침이다. 향후에는 영어 실시간 번역 기능도 더해 글로벌 업무 환경에서도 확장 활용될 수 있도록 할 계획이다. 김성훈 업스테이지 대표는 "많은 시간과 노력이 필요한 교열은 대표적인 노동 집약 분야"라며 "'에디트업'은 이를 자동화해 업무 효율성을 극대화하는 혁신적 도구"라고 밝혔다.

2025.05.13 14:41조이환

[현장] 통합형 LLM·멀티소스 RAG로 '출격'…코난테크놀로지, 올해 실적 반등 노린다

"생성형 인공지능(AI)의 핵심은 더 이상 모델 성능의 경쟁이 아닙니다. 이제는 얼마나 실질적인 업무 수요를 반영하고 이를 통해 실제 성과를 만들어낼 수 있는가가 관건입니다." 김영섬 코난테크놀로지 대표는 13일 서울 광화문 호텔 코리아나에서 열린 기자간담회에서 이같이 밝히며 자체 개발한 차세대 거대언어모델(LLM), 신규 인공지능(AI) 제품군, 이를 아우르는 사업화 전략과 기술 로드맵을 공개했다. '추론 통합형 LLM부터 AI PC까지'라는 주제로 진행된 이번 간담회는 실제 업무 현장에서 검증 가능한 생성형 AI 기술을 중심으로, 코난테크놀로지가 독자 개발한 코난 LLM 'ENT-11', 레거시 연동형 검색증강생성(RAG) 시스템 'RAG-X', 그리고 온디바이스 AI 솔루션 'AI스테이션' 등을 소개하는 자리였다. 김 대표는 환영사에서 "지난 26년간 축적해온 기술 역량을 기반으로 우리는 단순 모델 성능이 아닌 비즈니스 실효성과 현장 접목 가능성에 초점을 맞춘 생성형 AI 전략을 펼쳐가고 있다"며 "제품군 확장을 통해 AI의 도입 허들을 낮추고 시장 성과로 이어지는 환경을 주도하겠다"고 강조했다. 실무형 RAG·통합형 LLM 앞세워…공공·의료 레퍼런스 '확보' 임완택 코난테크놀로지 전략기획본부 상무는 이날 간담회에서 검색증강생성 기술 기반의 신규 제품 '코난 RAG-X'를 소개했다. 발표에 앞서 그는 "LLM은 아무리 고성능이어도 최신 정보를 반영하지 못하고 사내 문서처럼 민감한 내부 데이터를 다루지 못하는 아키텍처 상의 한계가 있다"며 "우리는 이 한계를 실무 환경에서 해결하기 위해 RAG 기술을 핵심으로 재설계했다"고 설명했다. 임 상무에 따르면 '코난 RAG-X'는 단순한 외부 검색용 챗봇이 아니라 내부 데이터베이스(DB), 레거시 시스템, 공공기관 데이터, 뉴스, 논문, 커뮤니티 자료 등 다양한 정보를 연동해 활용할 수 있도록 구성된 멀티소스 기반의 B2B 특화형 시스템이다. 퍼플렉시티처럼 외부 웹에 의존하는 B2C형 RAG 솔루션과 달리 온프레미스 환경에서 구동돼 사내 민감 데이터가 외부로 유출될 우려 없이 운용 가능하다. 그는 기술 구조에도 차별점이 있다고 설명했다. 단일 질문에 대해 즉시 응답하는 일반형 RAG와 달리 '코난 RAG-X'는 하나의 복합 질문을 다단계 질의로 나누고 각 하위 질의에 대해 순차적으로 정보를 검색·검증한 뒤 최종 응답을 조합하는 구조다. 일례로 "최근 3개월간 대출 연체가 발생한 건설사를 알려주고 각 기업의 자본금, 분양 실적, 관련 뉴스 반응을 종합해 리스크 대응 전략을 보고서로 만들어줘" 같은 질의도 단계별로 자동 처리 가능하다는 설명이다. 이러한 구조 덕분에 'RAG-X'가 금융, 공공, 제조업처럼 의사결정 과정이 복잡하고 규제 요건이 엄격한 B2B 환경에서 유효하는 설명이다. 실제 도입을 검토하는 고객들도 질문부터 보고서 작성에 이르는 전 과정을 하나의 AI로 대체할 수 있다는 점에 높은 관심을 보이고 있다는 것이다. 이어 발표를 맡은 도원철 코난테크놀로지 연구소 상무는 회사의 최신 LLM '코난 ENT-11'을 중심으로 단일 모델 구조와 추론 성능 개선 내용을 발표했다. 그는 "'ENT-11'은 일반 모드와 추론 모드를 하나의 엔진으로 통합한 국내 유일의 모델"이라며 "별도 모델을 병행 도입할 필요 없이 다양한 업무에 확장 적용할 수 있다"고 강조했다. 도 상무는 'ENT-11'이 기존의 범용 생성 모델과 달리 정밀 추론에 특화된 구조를 갖췄다고 설명했다. 단순 질의응답을 넘어 수학 계산, 법률 문서 해석, 테이블 기반 질의 등 복합 태스크까지 하나의 모델로 처리할 수 있도록 설계됐다는 설명이다. 현장에서는 세 가지 시연이 진행됐다. 첫 번째는 법원 판결문을 기반으로 양형 인자 항목을 추출하는 과제였다. 'ENT-11'은 해당되는 양형 인자를 골라낸 뒤 문서 내 근거 문장까지 함께 출력해 응답의 신뢰성을 높였다. 더불어 신축 건물 정보를 담은 테이블에서 대지 면적의 총합을 계산하는 과제에서는 테이블 내 조건 필터링, 수치 추출, 합산 계산을 모두 수행해 정확한 결과를 출력했다. 또 유명한 AI 수학 벤치마크인 'MATH500' 문제를 'ENT-11'이 풀었고 94점을 기록했다는 결과도 공유됐다. 도 상무는 "'ENT-11'이 딥시크 'R1' 대비 20분의 1 규모의 파라미터로 유사한 수준의 성능을 냈고 한국어 추론에서는 더 높은 정확도를 확보했다"며 "설명 가능한 추론 과정을 한국어로 출력하는 기능은 현재 ENT-11이 유일하다"고 덧붙였다. 이어 이형주 코난테크놀로지 AI사업부 이사는 코난 LLM의 실제 도입 사례와 산업별 적용 효과를 소개했다. 이 이사에 따르면 한국남부발전은 발전사 최초로 생성형 AI를 전사 35개 태스크와 15개 시스템에 연동해 구축했다. 발전소 운영에 필요한 기술문서, 정책 자료, 현장 보고서 등을 자동 분류·요약·생성하는 데 코난 LLM이 적용됐으며 연간 약 10만 시간의 업무 절감과 최대 51억원 규모의 생산성 향상이 기대된다. 한림대학교의료원 역시 의료진이 매일 작성하는 일일 경과기록지 초안을 자동 생성하는 데 코난 LLM을 도입했다. 기존 수작업 대신 전자의무기록(EMR) 기반으로 초안을 자동 작성한 뒤 의료진이 검토·승인하는 방식으로, 연간 약 9만5천시간의 업무 시간을 줄이고 의사 1인당 약 36일의 진료 가능 시간을 확보할 수 있을 것으로 분석된다. 이와 함께 국민권익위원회는 행정심판 청구서 작성에 생성형 AI를 적용해 유사 판례 검색부터 청구서 초안 생성까지의 과정을 자동화했다. 전체 작성 시간이 최대 60% 이상 단축됐으며 민원인의 정보 접근성과 업무 담당자의 처리 효율 모두 개선된 것으로 나타났다. 이형주 이사는 "이제는 개념검증(PoC)을 넘어서 실질적 수익확보 단계로 넘어가고 있다"며 "생성형 AI는 '자동화 툴'이 아니라 '업무 자산'으로 재정의돼야 한다"고 말했다. 폐쇄망 AI스테이션·서버 공개…공공·B2B 실무 자동화 '정조준' 코난테크놀로지는 이번 행사에서 자사의 자체 개발 LLM이 탑재된 온디바이스형 AI PC '코난 AI스테이션(AIStation)'과 기업형 AI 서버 'AI스테이션 서버(aiStation Server)'를 공개하며 제품군 확장을 마무리했다. 발표는 조인배 TG삼보 팀장과 이형주 코난테크놀로지 AI사업부 이사가 각각 맡았다. 조인배 팀장은 'AI PC가 바꾸는 업무환경'을 주제로 "'AI스테이션'은 인터넷 없이도 AI 기능을 활용할 수 있어 공공기관의 보안 요건과 반복 업무 자동화 수요를 동시에 충족할 수 있는 실무형 장비"라며 "민원 응대, 보고서 작성, 외국어 안내 등 반복적인 행정 태스크에 특히 효과적"이라고 설명했다. 조 팀장은 AIStation의 핵심 기능으로 ▲문서 요약 및 질의응답 ▲다국어 번역 ▲RAG 기반 정보 생성 ▲유해 콘텐츠 차단 등을 꼽았다. 더불어 RAG 기능이 내장돼 있기 때문에 단순한 생성형 응답을 넘어 맥락에 기반한 응답 생성이 가능하다는 점을 주요 장점으로 꼽았다. 'AI스테이션'의 하드웨어는 인텔 14세대 i7·i9 CPU, 엔비디아 RTX 그래픽처리장치(GPU), 고용량 SSD 등으로 구성된다. 보급형과 고급형 모델로 나뉘어 오는 7월 조달 등록이 예정돼 있다. 이어 발표를 진행한 이형주 코난테크놀로지 AI사업부 이사는 기업형 AI 서버 제품 'AI스테이션 서버'를 소개했다. 그는 "중소기업이나 연구기관 입장에선 고가의 다중 서버 LLM 환경을 도입하기 어렵다"며 "'AI스테이션 서버'는 폐쇄망 기반에서도 단일 장비로 생성형 AI 환경을 구축할 수 있도록 설계된 어플라이언스형 제품"이라고 말했다. 'AI스테이션 서버'는 코난 LLM을 중심으로 문서 임베딩, 개인정보 필터링, 유해 질의 차단, 시스템 관리 기능이 통합된 단일 서버 구조다. 생산성은 높이고 보안과 비용 부담은 줄이기 위해 하나의 서버에 모든 기능을 통합해 50명 이하 소규모부터 300명 규모 조직까지 대응할 수 있다는 설명이다. 현장 시연에서는 사내 매뉴얼 기반 계획서 자동 생성, 보험업무 대응 화법 작성, 다국어 이메일 자동화 사례 등이 공개됐다. 유통 전략은 에스넷 그룹과의 협력을 중심으로 구축된다. 현재 서울, 대전, 대구, 부산의 에스넷 물류 거점을 통해 전국 단위 서비스 체계를 갖췄으며 에스넷 계열사들과 연계해 공공, 금융, 연구 기관 대상 B2B 사업화가 추진될 예정이다. 이형주 이사는 "AI스테이션 서버는 하나의 서버에 문서 검색, 요약, 보고서 생성, 다국어 대응 등 실질적인 B2B 태스크를 통합한 제품"이라며 "LLM이 단순한 기술이 아니라 현장 자동화 도구로 기능할 수 있다는 것을 입증하는 플랫폼이 될 것"이라고 강조했다. 실적 반등 신호…공공 조달·GPU 효율로 수익성 강화 노려 현장 질의응답에서는 실적 전망, 제품 가격, 기술 우위 등을 두고 구체적인 설명이 이어졌다. 임완택 전략기획본부 상무는 회사의 실적과 관련된 기자의 질문에 "지난 1분기 실적은 오는 15일 공시될 예정"이라며 "지난해 다수의 PoC가 마무리되며 올해는 본계약과 실 매출이 빠르게 증가하는 구간에 진입했다"고 밝혔다. 그는 공공·국방·대기업 중심으로 파이프라인이 확대되고 있다며 매출은 전년 대비 큰 폭으로 증가하고 적자 규모는 대폭 축소될 것으로 내다봤다. AI스테이션의 조달 전략을 묻는 질문에 대해서는 연간 40만 대 이상 규모의 데스크톱 조달 시장에서 5~10% 점유율 확보를 목표로 하고 있다는 조인배 TG삼보 팀장의 설명이 나왔다. 일정 비율만 확보해도 자체 LLM 수요 확대와 매출 증가로 이어질 수 있다는 판단에서다. 제품 가격은 천만 원 이하로 조율 중이다. GPU는 예산 구조와 성능 효율을 고려해 엔비디아 '지포스 RTX 4070'이 탑재됐다. 조인배 팀장은 "고성능 대비 최적화 작업을 통해 비용을 최소화했다"며 "공공기관에선 AI 서버보다 AI 기능 탑재 PC 형태로 접근하는 게 현실적"이라고 설명했다. LG '엑사원', 솔트룩스 '루시아' 등 타사 모델과의 성능 차이를 묻는 질문에는 GPU 사용 효율을 중심으로 비교 설명이 나왔다. 도원철 코난테크놀로지 연구소 상무는 'ENT-11'이 일반 생성형 모델과 추론 특화 모델을 하나로 통합한 구조라며 동일 작업을 처리할 때 필요한 GPU 자원이 절반 수준으로 줄어든다고 설명했다. 기존에는 쉬운 질의응답과 복잡한 추론 태스크에 각각 다른 모델을 띄워야 했지만 'ENT-11'은 하나의 모델로 모두 처리해 비용과 운용 부담을 동시에 낮추는 등 경쟁력을 갖췄다는 설명이다. 도원철 상무는 "두 모델을 따로 띄우는 구조는 GPU 자원이 2배로 들 수밖에 없다"며 "'ENT-11'은 단일 모델로 동일 기능을 처리해 훨씬 효율적이며 한국어 기반 추론 정확도도 타 모델 대비 높게 나온다"고 말했다.

2025.05.13 14:23조이환

'문서 AI'가 더 똑똑해졌다…"서류 속 문맥·구조까지 파악"

문서 인공지능(AI) 기술이 단순 텍스트 인식을 넘어 문맥·구조까지 이해하는 방향으로 진화했다. 복잡한 문서에서도 주요 정보를 자동 식별하고 고도화된 자동화 처리까지 가능해졌다. 11일 IT 업계에 따르면 최근 문서 처리 시장에서는 비전언어모델(VLM) 기반 광학 문자 인식(OCR) 기술이 주목받고 있다. 이 기술은 계약서, 보고서 등 여러 형식과 맥락으로 이뤄진 문서 속 표, 조항, 제목, 본문을 AI로 식별해 구조화된 데이터로 변환할 수 있다. VLM은 이미지와 언어 정보를 동시에 이해하는 AI 모델이다. 일종의 '이미지 전문가'와 '언어 전문가'가 한 팀처럼 협업하는 방식으로 작동한다. 우선 이 모델은 문서에서 표, 문장, 도장, 손글씨 등 다양한 이미지 요소를 구분한다. 이후 각 영역의 텍스트를 분석해 의미를 파악하고, 이를 종합적으로 해석한다. 이 과정에서 시각 정보와 언어 정보가 실시간으로 상호작용하며 정답을 조율한다. 정보 하나가 잘못 인식되면 다른 정보가 이를 보완하고, 누락된 부분은 이미지 단서를 활용해 추론하는 식이다. 예를 들어, 사용자가 계약서에 VLM 기반 OCR을 적용하면 '계약 당사자'와 '계약 기간' '주요 조항' '서명란' 등을 자동으로 식별해 체계적으로 정리할 수 있다. 이를 통해 문서 처리 자동화 수준을 높이고 반복 작업과 인적 오류를 줄일 수 있다. 기존 OCR은 이미지 속 텍스트를 디지털 문자로 바꾸는 데만 초점 맞췄다. 문서 레이아웃이나 의미적 맥락은 이해하지 못해 데이터 활용에 한계가 있었다. 이에 추가 인력이 이를 수작업으로 정리해야만 했다. VLM OCR, 정확도·사업성 모두 잡아 한국딥러닝은 '딥 OCR 플러스' 출시로 VLM OCR 서비스를 이미 상용화했다. 이 솔루션은 별도 학습 없이 여러 형식 문서를 처리할 수 있다. 한국어·영어·숫자·특수문자가 섞인 복잡한 구조도 정확하게 인식할 수 있도록 설계됐다. 딥 OCR 플러스는 문서의 표나 문단을 자동 분석해 핵심 정보를 요약하고, 추출 데이터를 표준 포맷으로 제공해 업무 시스템과 연동된다. 한국딥러닝은 이 솔루션으로 문서 검토 시간을 최대 80% 줄이고, 일관된 데이터 품질을 유지할 수 있다고 강조했다. 앞서 업스테이지도 AI 기반 문서 구조화 솔루션 '다큐먼트 파스'를 출시해 보험, 금융, 의료 등 산업 현장에서 문서 자동화를 지원하고 있다. 고정밀 벤치마크에서 아마존·마이크로소프트 모델보다 높은 정확도를 기록한 것으로 전해졌다. 올해 6월 모델 '솔라'를 결합한 '솔라 다큐브엘엠'도 출시한다. 솔라 타큐브엘엠은 시각 정보와 언어 정보 통합 처리 역량을 강화해 문서 기반 요약, 질의응답, 자동 분류까지 수행할 수 있도록 구성됐다. 특히 비정형 문서나 복잡한 레이아웃 문서에서도 높은 인식률을 보일 것이란 평가를 받고 있다. 김지현 한국딥러닝 대표는 "비전 OCR은 돈 버는 AI"라며 "정확도와 사업성을 모두 잡을 수 있는 실용 기술"이라고 강조했다.

2025.05.11 14:40김미정

LG AI연구원, '마곡 집결'로 재정비…AI R&D 시너지 '승부수'

LG AI연구원이 인공지능(AI) 기술 경쟁력 강화를 위한 조직 재편에 나섰다. 핵심 연구진을 한데 모아 연구개발 역량을 끌어올리려는 전략이다. LG AI연구원은 최근 본사를 서울 여의도에서 마곡 디앤오 사옥으로 이전했다고 9일 밝혔다. 본사는 3층부터 7층까지 5개 층 규모로 조성됐으며 기존 여의도와 마곡에 분산돼 근무하던 연구원 300여 명이 한 곳으로 통합됐다. 이번 이전을 통해 연구원은 공간 설계에 집중해 약 50개의 다양한 회의실을 마련했다. 자유로운 협업을 유도하고 창의적인 아이디어 발현을 유도하려는 목적이다. LG AI연구원은 지난 2020년 12월 출범 이후 그룹 차원의 전폭적인 지원을 바탕으로 LG의 AI 전환 전략을 이끄는 핵심 조직으로 성장했다. 특히 자체 초거대 AI 모델 '엑사원' 시리즈를 통해 기술 고도화를 이어왔다. 지난해 12월 공개된 '엑사원 3.5'에 이어 지난 3월에는 국내 최초 추론형 AI '엑사원 딥'도 선보였다. 계열사 제품과 서비스에 실제 적용되며 그룹 전반의 AI 내재화에 기여하고 있다. 대표 사례로는 LG전자의 AI 노트북 '그램'과 LG유플러스의 통화 에이전트 '익시오'에 엑사원 기술이 탑재됐다. 기업용 AI 에이전트 '챗엑사원'은 현재 LG 사무직 임직원의 절반 수준인 4만 명 이상이 활용 중이다. AI 인재 양성을 위한 교육도 병행되고 있다. AI 리터러시 교육부터 석·박사 과정 운영까지 전주기 체계를 구축했으며 지난 4년간 1만5천 명 이상의 임직원이 참여했다. 기술력 확보 성과도 가시적이다. LG AI연구원은 국제인공지능학회(AAAI), 국제컴퓨터언어학회(ACL), 국제 컴퓨터 비전 및 패턴 인식 학술대회(CVPR) 등 글로벌 최상위 학회에 234건의 논문을 발표했으며 국내외 특허 출원도 총 228건에 달한다. 연구원은 온디바이스 AI 성능 고도화에도 집중하고 있다. 외부 서버 연결 없이 기기 내 데이터 처리를 가능케 해 보안성과 개인정보 보호 측면에서 경쟁력을 강화하려는 전략이다. 향후 계획으로는 '에이전틱 AI' 구현을 목표로 하고 있다. 계열사 업무 효율화, 생산성 제고, 나아가 신소재와 신약 개발 영역까지 AI 적용을 확장한다는 구상이다. LG AI연구원 관계자는 "엑사원을 중심으로 산업 현장과 제품, 서비스까지 AI를 연결하는 전략을 차근차근 실현해나가고 있다"며 "기술력과 협업 역량 모두에서 세계적 수준을 목표로 하고 있다"고 밝혔다.

2025.05.09 10:38조이환

"글로벌 수준"...카카오, 멀티모달 언어모델 'Kanana-o' 성능 공개

카카오가 새로운 인공지능 모델을 통해 기술 경쟁력 강화를 이어간다. 카카오(대표 정신아)는 공식 테크블로그를 통해 통합 멀티모달 언어모델 'Kanana-o'와 오디오 언어모델 'Kanana-a'의 성능과 개발 후기를 1일 공개했다. 통합 멀티모달 언어모델인 Kanana-o는 텍스트와 음성, 이미지까지 다양한 형태의 정보를 동시에 이해하고 처리할 수 있는 모델이다. 텍스트, 음성, 이미지 중 어떠한 조합으로 질문을 입력하더라도 처리 가능하며, 상황에 맞는 텍스트나 자연스러운 음성으로 응답 가능한 구조로 설계됐다. 카카오는 '모델 병합' 기술을 기반으로 이미지 처리에 특화된 모델 'Kanana-v'와 오디오 이해 및 생성에 특화된 'Kanana-a' 모델을 통합, 단기간 내 효율적으로 Kanana-o를 개발했다. 통합 후에는 이미지, 오디오, 텍스트 데이터를 동시에 학습하는 '병합 학습'을 통해 시각과 청각 정보를 동시에 이해하고, 텍스트와 연결 지을 수 있도록 통합 훈련을 거쳤다. 이런 과정을 통해 기존 LLM 구조에서 이미지 이해 능력과 음성 인식과 합성, 감정 이해 등 고도화된 오디오 능력을 확장시킨 통합 멀티모달 언어모델이 구현됐다. Kanana-o는 음성 감정 인식 기술을 통해 사용자의 의도를 올바르게 해석하고, 상황에 맞는 적절한 반응과 답변을 제공해준다. 억양, 말투, 목소리 떨림 등 비언어적 신호를 분석하고, 대화 맥락에 맞는 감정적이고 자연스러운 음성의 응답을 생성하는 것이 특징이다. 대규모 한국어 데이터셋을 활용해 한국어의 특수한 발화 구조, 억양, 어미 변화 등을 정밀하게 반영하기도 했다. 특히 제주도, 경상도 등 지역 방언을 인식하고 이를 표준어로 변환해 자연스러운 음성을 생성할 수 있다. 지속적인 성능의 고도화를 위해 카카오는 현재 독자적인 한국어 음성 토크나이저(오디오 신호를 일정 단위로 작게 분해하는 도구) 개발을 진행 중이다. 스트리밍 방식의 음성합성 기술을 적용해 사용자가 긴 대기 시간 없이 응답을 제공하는 강점도 보유했다. 예를 들어, 이미지와 함께 "이 그림에 어울리는 동화를 만들어 줘"라고 입력하면, Kanana-o는 해당 음성을 이해하고 사용자의 억양과 감정 등을 분석해 자연스럽고 창의적인 이야기를 실시간으로 생성해 들려준다. Kanana-o는 한국어 및 영어 벤치마크에서 글로벌 최고 모델들과 유사 수준을 기록했으며, 한국어 벤치마크에서는 높은 우위를 보였다. 특히, 감정인식 능력에서는 한국어와 영어 모두에서 큰 격차를 기록하며, 감정까지 이해하고 소통할 수 있는 AI 모델의 가능성을 입증했다. 이미지와 음성을 통합적으로 이해해야 하는 '이미지-음성 QA(질의응답)' 태스크에서도 강력한 성능을 달성하며, 통합 멀티모달 언어모델로서의 글로벌 경쟁력을 확인했다. 카카오는 향후 Kanana-o를 통해 ▲다중 턴 대화 처리 ▲양방향 데이터 동시 송수신 기술 대응 능력 강화 ▲부적절한 응답 방지를 위한 안전성 확보 등을 목표로 연구 개발을 지속해 갈 계획이다. 이를 통해 다중 음성 대화 환경에서의 사용자 경험을 혁신하고, 실제 대화에 가까운 자연스러운 상호작용을 실현해가는 것이 목표다. 카카오 김병학 카나나 성과리더는 "카나나 모델은 복합적인 형태의 정보를 통합적으로 처리함으로써 기존의 텍스트 중심 AI를 넘어 사람처럼 보고 듣고 말하며 공감하는 AI로 진화하고 있다"며 "독자적인 멀티모달 기술을 바탕으로 자사의 인공지능 기술 경쟁력을 강화하는 한편, 지속적 연구 결과 공유를 통해 국내 AI 생태계 발전에 꾸준히 기여할 계획"이라고 말했다.

2025.05.01 10:13백봉삼

[기고] 텍스트만 읽는 AI는 한계…이미지까지 이해하는 'VLM 시대' 왔다

텍스트만 바라보던 인공지능(AI)이 이미지도 읽기 시작했다. 생성형 AI 열풍 정점에 서 있던 거대언어모델(LLM)이 세상을 바꾼 지 채 2년이 되기도 전에 산업계는 벌써 비전언어모델(VLM) 이라는 새로운 반열을 주목하고 있다. LLM은 인터넷 전체에 해당하는 방대한 문서, 코드, 게시글 등을 토큰 단위로 분해해 빈도와 순서를 학습하는 통계 기반 언어 모델이다. 이를 통해 문장 구조, 주제 흐름, 단어 간 연관도 등을 정교하게 파악할 수 있다. 그러나 LLM은 픽셀로 구성된 시각 정보를 직접 해석하지 못한다. 특히 스캔본 한 장 안에 담긴 표, 도장, 서명, 손글씨, 이미지 등 다양한 비정형 요소 앞에서는 입력 자체를 받지 못해 무력해진다. 이 때문에 반드시 광학문자인식(OCR)을 거쳐 텍스트로 전처리한 후에야 분석이 가능하다. 이 과정에서 발생하는 정보 손실이나 오인식이 전체 모델 성능에 결정적 영향을 미친다. 이 한계를 근본적으로 보완하는 방식이 VLM이다. VLM은 쉽게 말해 '사진 전문가'와 '언어 전문가'가 한 팀이 된 모델이다. 우선 이미지를 보고 표, 문장, 도장, 필기 영역을 구분한 후 텍스트 기반으로 의미를 해석한다. 이를 실시간으로 교차 어텐션(Cross-Attention) 층에서 주고 받으며 정답을 보정한다. 한 영역이 잘못 인식되면 다른 쪽이 보완하고, 누락된 정보는 이미지의 시각 단서 바탕으로 추론해 빈칸을 채운다. 언어와 시각 정보가 동일 공간에서 상호작용하듯 작동하는 식이다. 구조가 복잡하거나 손글씨가 섞인 문서도 훨씬 자연스럽게 이해할 수 있다. 예를 들어 물결 무늬 배경 때문에 일부 금액 텍스트가 흐릿해진 스캔 이미지에서도 VLM은 표 헤더와 숫자 패턴을 근거로 '이 칸은 청구 금액일 것'이라고 추론한다. 텍스트만 해석하던 기존 LLM 방식과 달리, VLM은 이미지와 문장이 함께 대화하는 구조로 작동하기 때문에 비정형 문서에 강력한 성능을 발휘한다. 실제 산업 현장에서 VLM 기반 OCR은 이미 도입 초기부터 기존 접근법보다 뚜렷한 개선 효과를 보이고 있다. 이미 업계에서는 VLM을 통한 생산성 향상 효과가 나오고 있다. 신생 물류기업 L사는 하루 평균 4만 장의 송장을 스캔하는데, 양식 종류가 600종을 넘어서면서 OCR 오류율이 18%까지 상승했다. VLM을 탑재한 OCR을 적용한 결과 첫 달에 오류율이 4%까지 떨어졌고, 급히 투입된 15명의 검수 인력을 4명으로 줄일 수 있었다. 금융·보험 분야에서도 VLM은 의미 있는 변화를 만들어냈다. 보험 손해 사정사 워크플로에 도입된 VLM 기반 OCR 엔진은 의료 영수증, 처방전, 수기 메모가 섞인 PDF 문서를 분석해 질병 코드와 치료 기간, 총 청구액 등 핵심 정보를 의미 단위로 자동 매핑했다. 결과적으로 도입 3개월 만에 평균 심사 시간이 건당 4.7분 단축됐다. 부실 청구 탐지율은 2.3배 향상됐다. 실질적인 VLM 구현을 위해선 세 가지 핵심 과제가 수반된다. 첫째는 중앙처리장치(GPU) 비용이다. 이미지 해상도가 높을수록 메모리 요구량은 기하급수적으로 증가한다. 둘째는 데이터 보안이다. 문서 이미지에는 신분증과 도장, 주소 등 민감한 개인정보가 포함된다. 저장 암호화와 접근 제어 등 보안 설계가 모델 설계 초기부터 명확히 반영돼야 한다. 마지막으로 운영 측면에서의 ML옵스 통합이다. VLM은 텍스트와 이미지 양쪽에서 오류가 누적될 수 있으므로, 라벨 재검수·재학습 주기를 기존보다 촘촘하게 설정해 지속적 품질을 수행해야 한다. 이런 기술 과제를 극복할 수 있다면 VLM은 단순 OCR을 넘어 멀티모달 로봇프로세스자동화(RPA)로 진화할 수 있다. VLM이 문서 의미를 이해하게 되면 수준 높은 복합 워크플로까지 자동화할 수 있을 것이다. 실제 모바일 스캐너나 드론 카메라처럼 네트워크 지연이 큰 현장에서는 경량화된 VLM을 엣지 디바이스에서 구동하는 방향으로 연구가 진행되고 있으며, 실제 적용 사례도 점차 증가하고 있다. 유럽연합(EU)의 AI법 등 주요 규제는 이미지 데이터의 편향성과 프라이버시를 명확히 규정하기 시작했다. 이로 인해 향후 VLM 개발자는 학습 데이터셋의 출처와 라벨링 과정을 투명하게 기록해야 하는 책임도 함께 지게 될 전망이다. 기업과 공공기관이 다양한 형식의 데이터를 한 눈에 이해하는 AI를 원한다면 VLM OCR 전략을 로드맵에 포함해야 한다. 문서 인식부터 업무 자동화까지 이어지는 다음 혁신의 축은 '텍스트‑이미지 융합형 AI'가 될 가능성이 크다. 현재 기술 기업들의 도전이 이 변화를 앞당기고 있으며, 실제 도입 성공 사례는 더 빠르게 쌓일 것이다. 텍스트 AI만으로 충분하다고 느끼는 지금 이 순간이, 어쩌면 VLM 전환을 준비할 마지막 골든타임일지 모른다.

2025.04.30 15:54김지현

[AI는 지금] 국산 오픈 LLM '출격'…엑사원·하이퍼클로바X 등 잇따라 공개

국산 오픈소스 대형 언어모델(LLM) 경쟁이 본격화되고 있다. LG AI연구원과 네이버가 잇따라 오픈 LLM을 선보이며 국내 AI 생태계에 활력을 불어넣고 있는 가운데 카카오도 자체 모델을 공개하며 흐름에 합류하는 모양새다. 27일 업계에 따르면 네이버는 최근 '하이퍼클로바X 시드(Seed)' 시리즈를 공개하며 국산 오픈소스 LLM 흐름을 이어가고 있다. 이는 지난해 LG AI연구원이 12월 '엑사원(Exaone)-3.5'를 공개하며 포문을 연 이후 국내에서도 오픈소스 LLM 시장이 본격적으로 형성되기 시작한 흐름을 잇는 것이다. LG AI연구원은 '엑사원-3.5' 공개 이후 후속 업데이트를 지속하고 있으며 최근에는 '엑사원 딥(DEEP)' 모델도 허깅페이스에 오픈소스로 공개했다. 엑사원 시리즈는 케엠엠엘유(KMMLU), 해래벤치(HAERAE-Bench), 코베스트(KoBEST) 등 다양한 한국어 특화 벤치마크에서도 준수한 성능을 기록하며 기술력을 입증하고 있다. 더불어 원라인에이아이 발표에 따르면 '엑사원-3.5'는 한국어와 영어 모두에서 일관된 성능을 보여주는 안정성이 강점으로 꼽혔다. 최근 회사가 자체적으로 진행한 '구구단 문제(1부터 100까지 두 자리 곱셈)' 실험에서 한국어와 영어 입력 모두에서 균형 잡힌 답변 정확도를 기록해 주목받았다. 특히 제곱수나 10의 자리 곱셈 문제에서는 높은 정확도를 보였으며 피연산자의 순서에 따라 미세한 성능 차이가 발생하는 특성도 관찰됐다. 업계에서는 엑사원이 한국어 오픈소스 모델 시장에서 핵심 모델 중 하나로 자리잡았다는 평가를 내놓고 있다. 커뮤니티의 반응도 대체로 긍정적이다. 최근 레딧 'LLM' 및 '오픈소스AI' 관련 커뮤니티에서는 '엑사원 딥' 모델에 대해 "7B 모델이 GPQA+ 고난도 벤치마크에서 62% 성능을 기록했다"거나 "2.4B 모델이 라즈베리파이나 스마트폰에서도 실행 가능할 정도로 경량화됐다"는 평가가 나왔다. 네이버 클라우드는 지난 24일 '하이퍼클로바X 시드(Seed)' 시리즈를 공개하며 국산 오픈소스 LLM 경쟁에 본격 합류했다. '하이퍼클로바X 시드'는 30억 파라미터 규모의 소형 모델로, 한국어 벤치마크 'KMMLU'에서 48.47점을 기록했다. 이는 절대 점수만 보면 과거 53.4점을 기록했던 '하이퍼클로바X-라지'보다 낮지만 대형 서버 모델이 아닌 온디바이스 환경까지 염두에 둔 경량 모델이라는 점을 고려하면 의미 있는 결과로 평가된다. '하이퍼클로바X' 시드는 케이엠엠엘유 외에도 해래벤치, 클릭(CLICK) 등 주요 한국어 벤치마크에서도 안정적인 성능을 보였다. 또 공개 하루 만에 다운로드 수가 2천400건을 넘겼고 커머셜 라이선스로 제공돼 스타트업이나 기업들이 상업적 활용까지 가능하다. 허깅페이스에서는 시드를 기반으로 한 파인튜닝 및 양자화 파생모델들이 빠르게 확산되며 생태계 확장 속도도 빨라지고 있다. 실제로 뉴욕대 조경현 교수, 스퀴즈비츠 김형준 대표, 바이오넥서스 김태형 대표 등은 직접 사용 후 긍정적인 후기를 SNS에 남기며 기대감을 나타냈다. 다만 일부 아쉬운 부분도 확인됐다. '하이퍼클로바X 시드'는 구구단 문제 실험에서 문제 자체는 정확히 풀었지만 정답을 요구되는 형식으로 출력하지 않아 평가 점수가 낮게 나오는 사례가 발생했다. 네이버는 이와 같은 포맷 일관성 문제를 해결하기 위해 한국어 데이터셋을 보강할 계획이다. 카카오 역시 '카나나' 시리즈를 통해 오픈소스 LLM 경쟁에 참가하고 있다. 다만 원라인에이아이의 구구단 실험 결과에 따르면 '카나나'는 한국어 입력에서는 비교적 양호한 성능을 보였으나 영어 입력에서는 답변 길이 문제로 인해 성능이 저하되는 모습을 보였다. 실험에 따르면 토큰 제한을 완화할 경우 영어 성능도 개선될 여지가 있는 것으로 나타났다. 현재 국내에 공개된 국산 오픈 LLM들이 아직 경량화 모델 위주로 구성돼 있다는 한계가 있다는 지적도 나온다. 업계는 향후 다양한 크기의 모델들이 추가로 등장할 경우 한국어 기반 AI 생태계의 경쟁력 또한 한층 강화될 것으로 기대하고 있다. 손규진 원라인에이아이 자연어처리(NLP) 연구원은 자신의 링크드인을 통해 "국내에서는 아직 소형 모델 위주로 공개돼 'HRM8K' 같은 고난도 수학 벤치마크로 평가하기에는 아쉬운 점이 있다"며 "향후 더 다양한 크기의 모델이 등장해 한국어 기반 AI 생태계가 한층 발전하기를 기대한다"고 말했다.

2025.04.27 07:21조이환

[현장] "美·中은 무단 크롤링, 우리는 정공법"…업스테이지, 글로벌 AI 정조준

"미국과 중국의 프론티어 인공지능(AI) 랩들이 무단 크롤링으로 데이터를 확보할 때 우리는 역차별이라 느껴질 만큼 합법적이고 투명한 방식으로 데이터를 수집해왔습니다. 이러한 제약에도 실사용 사례를 통해 검증된 우리 '워크 인텔리전스'를 바탕으로 인류의 업무 효율성을 5배, 10배, 나아가 100배까지 끌어올리며 새로운 세상을 열겠습니다." 김성훈 업스테이지 대표는 16일 서울 여의도 콘래드 호텔에서 열린 기자 간담회에서 향후 비전에 대해 이같이 밝혔다. '미래의 일을 위한 워크 인텔리전스'를 주제로 열린 이번 행사는 자사의 기술 스택과 국내외 도입 사례, 글로벌 확장 전략 등을 종합적으로 공개하는 자리였다. 행사에는 업스테이지 일본법인 대표를 포함한 주요 경영진이 참여해 향후 해외 시장 공략 전략도 함께 발표했다. 이날 업스테이지는 문서 추출 엔진 '도큐먼트 파스', 경량화 거대언어모델(LLM) '솔라', 문서 특화 멀티모달 모델 '솔라 도크VLM'을 중심으로 한 워크플로우 자동화 기술을 대거 공개했다. 국내에서는 KB금융, 한컴, 로앤컴퍼니 등의 실제 도입 사례를 소개했고 일본·동남아·북미 등에서 진행 중인 개념검증(PoC)과 수출 성과를 통해 글로벌 확장의 구체적 로드맵도 제시했다. 문서 기반 업무 자동화 기술 공개…"AI로 리포트 작성부터 의사결정까지" 김 대표는 업스테이지가 자체 개발한 문서 처리 엔진 '도큐먼트 파스'를 시작으로 기술 경쟁력을 설명했다. 이 솔루션은 이미지나 PDF 기반 문서에서 핵심 데이터를 추출한 뒤 이를 컴퓨터가 이해할 수 있는 HTML 형태로 정교하게 구조화한다. '도큐먼트 파스'는 표, 차트, 2단 편집 등 사람이 보기 편하게 구성된 비정형 문서를 LLM이 처리할 수 있도록 정제해 주는 데 특히 강점을 보인다. 실제로 이 기술은 허깅페이스 벤치마크에서 아마존웹서비스(AWS), 구글, 메타 등 글로벌 솔루션을 제치고 정확도 97.02점으로 1위를 기록했으며 처리 속도 또한 세계 최고 수준으로 평가받았다. 문서를 정교하게 구조화하는 기술 외에도 업스테이지는 자체 언어모델 '솔라(Solar)'를 통해 텍스트 기반 업무의 자동화까지 전방위로 대응하고 있다. 회사는 그래픽 처리장치(GPU) 한 장만으로도 고성능을 내는 소형 언어모델(sLM)을 개발하는 것을 목표로, 모델 경량화와 정밀도 간 균형에 집중하고 있다. '솔라' 시리즈는 고정밀 문서 분석, 보고서 요약, 질의응답 등 워크플로우 전반에서 핵심 역할을 수행한다. 지난해 공개된 '솔라 프리뷰'는 허깅페이스에 등록된 약 90만 개 LLM 중 트렌딩 3위에 오르며 기술력을 입증했다. '솔라 프로 1.3'은 국내 언론사들로부터 수급한 대량의 기사 데이터를 학습해 한국어 해석 성능을 크게 끌어올렸다. 차기 모델은 오는 6월 출시 예정인 '솔라 프로 1.5'다. 파라미터 수는 기존 22억 패러미터에서 31억 패러미터로 확장됐지만 여전히 GPU 한 장으로 구동 가능한 경량 구조를 유지하고 있다. 김 대표는 "우리는 '솔라'를 지속적으로 업데이트하는 동시에 오픈AI 'o 시리즈'나 딥시크 'R1'과 유사한 '사고의 연쇄(CoT)' 추론 기능도 개발 중"이라며 "고차원적 해석과 판단이 요구되는 산업 현장에 LLM을 실질적으로 투입할 수 있는 기반을 마련하기 위한 기초 작업"이라고 설명했다. 이에 더해 업스테이지는 문서 이해와 언어 처리 기술을 단일 파이프라인으로 연결해 '워크 인텔리전스' 완성도를 끌어올리고 있다. 이날 공개된 '솔라 도크VLM'은 이러한 통합 전략을 대표하는 기술이다. 기존 멀티모달 모델이 일반 이미지에는 강하지만 문서 인식에는 한계가 있는 반면 이 모델은 문서 전용 인코더를 탑재해 100페이지 이상 분량도 안정적으로 처리한다. 요약, 질의응답, 보고서 작성까지 한 번에 수행하는 단일 파이프라인을 구현한 것이 특징이다. 데이터 확보 방식에서도 업스테이지는 차별화를 꾀하고 있다. 김 대표는 "오픈AI와 같은 프론티어 기업들이 무단 크롤링 방식으로 데이터를 확보하고 있다"며 "이 가운데 우리는 쿠오라(Quora)와 같은 글로벌 파트너와의 계약을 통해 거의 불공정 거래 급으로 투명하게 데이터를 수집하고 있다"고 설명했다. 이어 "대선 이후에는 정부 차원에서 데이터 계약과 보상에 대한 새로운 거버넌스가 마련되기를 기대한다"고 밝혔다. 기술력이 곧 매출로 연결되기 시작했다는 점도 주목할 만하다. 업스테이지는 법률 분야에서 로앤컴퍼니와는 판례·조문 검색에 특화된 AI 검색 엔진을 구축했고 한컴의 '한컴 어시스턴트'에는 문서 초안·요약 기능을, 보험사들에는 수술 자동 판단·지급 심사로 이어지는 자동화 파이프라인을 공급하며 실적을 쌓았다. 이들 성과를 포함해 1년 간 누적 계약액은 250억원을 넘겼으며 이는 지난해 대비 다섯 배 증가한 수치다. 재무 적자와 향후 자금 조달 계획에 대한 기자의 질문에는 "현재의 적자는 대부분 GPU 등 고성능 인프라에 대한 선제적 투자 때문"이라며 "멀티모달 모델과 '솔라 프로 1.5' 등 신제품 개발이 완료되면 운영비용은 급격히 줄어들 것"이라고 답했다. 이어 "글로벌 주요 기업들과의 논의도 활발히 진행 중이며 조만간 긍정적인 투자 소식을 전할 수 있을 것"이라고 밝혔다. 맞춤형 LLM 통해 日 조준, 동남아·북미로 확장 가속 이날 행사에서는 업스테이지의 해외 진출 전략, 특히 일본 시장 공략 역시 집중 조명됐다. 마츠시타 히로유키 업스테이지 재팬 지사장은 일본 내 전략과 비전을 직접 발표했다. 그는 AWS 시니어 매니저 출신으로, 지난달 일본 도쿄에서 개소식을 열고 업스테이지 일본 법인을 공식 출범시킨 인물이다. 마츠시타 지사장은 "세계 수준의 기술력과 팀 문화, 글로벌과 로컬을 모두 이해하는 전략이 있어 회사에 합류했다"며 "일본 기업들이 미국 빅테크의 기술력은 인정하면서도 현지화된 솔루션을 함께 구축하는 어려움을 겪을 때 우리는 작지만 강력한 모델로 이 간극을 충분히 메울 수 있다"고 강조했다. 일본 AI 시장은 오는 2030년까지 20억 달러(한화 약 2조8천억원) 규모로 성장할 전망이다. 특히 전체 AI 지출 중 94%가 모델이 아닌 솔루션·애플리케이션 영역에 집중될 것으로 분석된다. 이에 따라 회사는 단순한 모델 판매가 아니라 각 기업의 목적과 니즈에 맞춘 솔루션을 제공하는 '빌더-퍼스트' 전략을 취하고 있다. 기술적 차별화도 이어졌다. 업스테이지는 최근 일본 스타트업 카라쿠리와 공동으로 일본어 최적화 경량 LLM '신(Syn)'을 개발했다. 이 모델은 14억 패라미터급 소형 구조임에도 불구하고 금융·의료·제조 등 주요 산업 벤치마크에서 높은 정확도를 기록했다. 사업 측면에서는 지역 IT기업 퓨식(Fusic)과도 전략적 파트너십을 체결했다. 퓨식은 규슈 지역을 기반으로 고객 네트워크와 도메인 전문성을 보유하고 있다. 업스테이지는 이들과 함께 10건 이상의 개념검증(PoC)를 동시다발적으로 진행 중이며 기술 트레이닝 프로그램도 함께 운영하고 있다. 교육 콘텐츠 및 문서 AI 등 핵심 기술 역시 일본 시장에 맞춰 현지화 작업이 진행 중이다. 유통 전략에서도 다층적 접근을 택했다. 클라우드 사업자 및 유통사와는 총판 계약을 체결했고 컨설팅·시스템통합(SI) 파트너사와는 공동 영업을 전개해 세일즈 파이프라인을 확장하고 있다. 마츠시타 지사장은 "교육, PoC, 고도화된 솔루션 도입까지 일본 내에서 지속 가능한 AI 생태계를 직접 구축하겠다"며 "실제 매출 인식은 올해 하반기부터 본격화될 것"이라고 설명했다. 일본 외 지역에서도 업스테이지의 '소버린 AI' 구축 사업은 빠르게 확장되고 있다. 김성훈 대표는 "태국 IT기업 JTS에 공급한 태국어 LLM이 최종 낙점돼 인수인계를 마쳤다"며 "중국계 '타이쿤2' 모델과의 경쟁 끝에 최고 성능으로 인정받은 첫 수출 사례"라고 밝혔다. 이어 "이 프로젝트를 계기로 말레이시아, 베트남, 몽골, 터키 등지에서도 유사 요청이 들어오고 있다"고 설명했다. 북미 시장 공략도 이미 시작됐다. 현재 업스테이지는 S&P500 소속 대형 보험사 세 곳과 도큐먼트 품질검증(QA) 기반의 정보 추출 워크플로우 도입을 협의 중이다. 또 미국 최대 규모의 텔레헬스 기업과는 환자 진료 기록 자동 요약 솔루션 개발을 논의하고 있으며 대형 헬스케어 클리닉과는 수십 년간 축적된 의료 기록을 디지털로 전환하는 작업을 함께 검토 중이다. 김성훈 업스테이지 대표는 행사를 마치며 "우리는 단순히 모델을 공급하는 기업이 아니라 글로벌 시장에서 신뢰받는 디지털 전환 파트너가 되겠다"며 "이를 통해서 일의 미래를 완전히 재설계해 새로운 세상을 여는데 기여하겠다"고 강조했다.

2025.04.16 14:52조이환

[AI는 지금] "양보다 질이다"…AI 기업들, 정제 데이터 '버티컬 모델' 베팅

인공지능(AI) 기술이 거대언어모델(LLM)을 중심으로 확산되던 흐름에서 벗어나 산업 맞춤형 '버티컬 AI'로 전환되는 흐름이 빨라지고 있다. AI의 범용성이 오히려 현장 적용을 방해하는 요인으로 지적되면서 특정 산업 문제를 정확히 풀 수 있는 특화형 모델 수요가 높아지는 추세다. 10일 업계에 따르면 국내외 AI 기업들은 최근 범용 모델 대신 산업별 정밀화를 앞세운 버티컬 AI 개발에 집중하고 있다. 의료, 금융, 법률, 커머스 등 도메인 특화형 AI가 실제 계약 체결, 리스크 예측, 비용 절감 등 실질적 성과를 입증하며 LLM을 그대로 쓰는 전략의 한계를 드러내고 있다는 판단에서다. 이같이 버티컬 AI가 주목받는 배경에는 세 가지 축이 자리한다. ▲도메인 최적화로 인한 문제 해결력 ▲데이터 중심의 경량화 전략 ▲정확성 향상을 통한 규제 산업 대응력이다. 이미 LG AI연구원, 코히어 등의 파운데이션 모델 기업들은 기존처럼 모델 파라미터를 키우기보단 양질의 산업 데이터로 성능을 끌어올리는 방식에 주력하고 있다. 범용 AI 빈틈 메우는 버티컬 AI…"정확성·가성비서 차이 난다" 오픈AI '챗GPT', 앤트로픽 '클로드' 등의 범용 LLM은 다양한 주제를 빠르게 학습할 수 있다는 장점이 있다. 다만 각 산업이 요구하는 맥락 이해력·정확성·규제 대응력에서는 취약하다는 지적이 나온다. 특히 문서 구조나 용어가 고정된 법률·세무 분야는 일반 LLM에게는 문맥이 과도하게 추상적이거나 관련성이 낮은 정보를 만들어낼 위험이 높다. '챗GPT'가 사실과 다른 판례를 생성하거나 존재하지 않는 조항을 제시하는 사례는 그 대표적이다. 이러한 한계는 성능 문제가 아니라 학습 데이터의 범용성과 과적합 위험, 도메인에 특화된 개념 계층구조 부족에서 기인한다. 이에 따라 전문가가 직접 구축한 정제된 데이터셋 기반의 산업 특화형 AI가 정확도·신뢰성·업무 호환성에서 실효성을 증명하고 있다. 단순히 답을 생성하는 것을 넘어 특정 산업의 '실제 문서'를 구조적으로 이해하고 '작동 가능한 결정'을 내릴 수 있는 수준까지 도달 중이다. 이 같은 흐름은 지표로도 확인된다. 한국지능정보사회진흥원(NIA)은 최근 보고서에서 글로벌 버티컬 AI 시장이 오는 2032년까지 연평균 27% 성장할 것으로 전망했다. 이미 미국, 이스라엘 등은 규제·보안 산업을 중심으로 시장을 선점하며 독점 생태계를 구축 중이다. 업계 관계자는 "오픈AI 같은 글로벌 기업들도 기술적으로 버티컬 AI에 대응할 수는 있겠지만 이미 너무 많은 영역에 손을 뻗은 상황이라 특정 산업에 깊이 들어가기엔 어려움이 있다"며 "오히려 이같은 방향성이 가격 측면에서 B2B 기업에게는 경쟁력이 될 수 있고 수익 모델로도 충분히 의미가 있다"고 말했다. 리걸AI, 법률 효율성 높인다…"문서 해석에 리스크 관리까지 가능해져" 문서 복잡도와 전문성, 강한 규제 환경으로 생성형 AI 도입이 까다롭던 법률 분야도 기술 변화의 전환점을 맞고 있다. 과거 법무 관련 AI 기술은 단순 검색이나 판례 조회에 머물렀다면 최근에는 법령 해석, 조항 간 논리 구조 분석처럼 문서의 문맥을 이해하고 업무 수행 프로세스에 도움을 주고 있다. 국내에서의 대표적인 사례는 BHSN이다. 비즈니스 리걸AI 솔루션 '앨리비(allibee)'를 운영 중인 이 회사는 법률 분야에 특화된 생성형 AI를 기반으로 기업의 계약, 법무 등 비즈니스에 필요한 서비스를 제공한다. 자체 개발한 법률 특화 거대언어모델인 '리걸 LLM(Legal-LLM)', 검색증강생성(RAG), 특허받은 '리걸 OCR' 기술 등으로 복잡한 법률 문서를 수 초 만에 면밀히 분석하고 정밀한 리스크 감지까지 가능하다. 특히 전문가가 직접 정제한 고품질 법령, 판례, 정책 데이터를 기반으로 범용 LLM보다 높은 정확도와 신뢰도를 확보한 점이 강점으로 꼽힌다. 프론티어 AI 기업의 모델이 사실과 다른 법령이나 판례를 인용해 오류를 일으키는 사례가 잦다는 점에서 산업 현장에서는 이런 특화형 AI에 대한 선호가 점차 높아질 가능성이 높다. 한 변호사 업계 관계자는 "'챗GPT'가 그럴듯한 말투로 실제 존재하지 않는 법령이나 판례를 제시해 곤혹을 겪었다는 사례를 들었다"며 "클라이언트들이 관련 사례를 뉴스 등으로 접하면서 범용 AI를 꺼리는 분위기가 이어지다 보니 클린한 법률 데이터만을 말해주는 서비스가 필요하다는 인식이 있다"고 말했다. 이러한 수요를 파악한 BHSN은 이미 다양한 산업군을 대상으로 레퍼런스를 확보하며 신뢰를 쌓아가고 있다. 현재 CJ제일제당, 애경케미칼, 한화솔루션 등 국내 주요 기업에 '앨리비'를 공급 중이며 연내 제약·유통 등 추가 산업군과의 신규 계약도 추진하고 있다. '앨리비'를 도입한 기업들은 계약서 검토 시간이 67% 이상 단축됐고 반복 검토 항목의 자동화를 통해 조항 누락이나 오류 발생률도 크게 낮췄다. AI 기반 자동화와 정밀 분석 기술로 법무 업무 전반의 생산성과 정확성 역시 향상됐다는 평가다. 고객 의도 읽고 구매까지 이끈다…커머스 특화형 AI의 진화는? 커머스 분야에서도 마찬가지다. 실시간 추천, 구매 유도, 결제 전환까지 온라인 쇼핑 전 과정에서 AI가 '판매 파트너' 역할을 수행하는 시대가 열렸다. 고객의 행동 데이터를 실시간으로 분석하고 구매 여정을 따라가며 맞춤형 응대를 제공하는 이커머스 특화형 AI 솔루션이 떠오르고 있는 것이다. 이같은 흐름 속에서 대화형 에이전트 '젠투(Gentoo)' 개발사인 '와들'이 주목받고 있다. '젠투'는 고객의 관심사와 행동을 실시간으로 분석해 상품을 추천하고 구매 결정을 유도하는 멀티 AI 에이전트 솔루션이다. 고객의 니즈를 능동적으로 파악하는 것은 물론 구매 장벽을 해소하는 구조로 이뤄져 중소형 쇼핑몰을 중심으로 고객 전환율 개선 효과를 나타내고 있다. 최근 와들은 코오롱베니트의 AI 얼라이언스 파트너로 참여해 다양한 커머스 플랫폼에 젠투의 기술을 적용하고 있다. 특히 중소형 브랜드를 중심으로 AI 기반 운영 파트너로서 입지를 강화하고 있으며 이를 통해 온라인 쇼핑몰의 운영 효율성과 고객 만족도를 동시에 향상시키는 데 기여하고 있다. 일례로 국내 월간 활성 사용자 수(MAU)가 70만 명인 한 이커머스 플랫폼은 '젠투' 솔루션 도입 후 상품 클릭률이 6개월 만에 20%로 증가하며 약 2배 이상 높아졌다고 밝혔다. 이같이 고객의 구매 여정 전반을 AI가 실시간으로 지원하는 흐름은 상담 접점에서도 뚜렷하게 나타난다. 올인원 AI 비즈니스 메신저 '채널톡'을 운영하는 채널코퍼레이션은 대화형 버티컬 AI 기능인 '알프(ALF)'를 지난해 11월 정식 출시했다. '알프'는 자연어 기반으로 대화의 맥락을 이해하고 정보를 탐색해 고객 응대 업무를 수행하는 서비스다. 현재 패션·뷰티 업계를 중심으로 1천여 개 기업에서 활용 중이며 올해는 상품 판매와 고객 정보 수집까지 자율적으로 수행할 수 있도록 업데이트될 예정이다. '알프'를 통해 상담을 효율화한 대표 사례로는 애슬레저 브랜드 안다르가 꼽힌다. 안다르는 상담 유형별로 응대 체계를 세분화하고 배송·교환 등 반복되는 단순 문의는 알프가 직접 처리하도록 설정했다. 그 결과 전체 고객 문의의 61%를 상담원 연결 없이 알프가 자체 응대하며 상담 효율성과 응답 속도를 크게 끌어올렸다. 세금·재무도 '사람 없이' 자동화…소상공인, 자영업자를 위한 버티컬 AI 세금과 재무 분야 역시 예외는 아니다. 특히 반복적이고 규제 민감도가 높은 세무·회계 업무는 정확성과 속도 모두를 요구하는 영역으로, AI 자동화 수요가 빠르게 늘고 있다. 사람 손을 타지 않고도 환급 신청, 증빙 처리, 보고서 작성까지 가능한 서비스가 등장하면서 실무 자원이 부족한 사업자들에게 실질적인 '버티컬 AI 비서'로 자리잡고 있다. 일례로 혜움은 소상공인과 자영업자를 위한 버티컬 AI를 개발해 세무·재무 실무 자동화에 나서고 있다. 이 기술은 혜움이 운영 중인 국내 최초 AI 경정청구 서비스 '더낸세금'과 '혜움 레포트 2.0'에 적용돼 사업자 대상 세금 환급, 보고서 생성, 증빙 처리 등 다양한 업무를 수행할 수 있게 한다. 최근에는 소상공인을 위한 버티컬 AI 구축을 위해 IBK기업은행, 네이버와 전략적 오픈 이노베이션을 추진하고 마이크로소프트(MS), 기업은행 등과 금융 AI 서비스 공동 개발을 위한 MOU를 체결하는 등 금융 버티컬 생태계 구축에 더욱 박차를 가하고 있다. 업계 관계자는 "이제 생성형 AI는 산업 내 데이터를 이해하고 업무 성과까지 연결하는 수준으로 진화하고 있다"며 "앞으로 특정 산업에 얼마나 최적화된 형태로 작동하느냐가 기술 경쟁력의 핵심 지표가 될 것"이라고 말했다.

2025.04.10 16:50조이환

  Prev 1 2 3 4 5 6 7 8 Next  

지금 뜨는 기사

이시각 헤드라인

과기정통부, AI 중심 조직 개편 '가속'…정책 컨트롤타워 본격화

"국정자원 화재 초래 서버-배터리 간격 규제해야"

미 연방정부 셧다운에 사이버보안도 '셧다운' 위기

오픈AI 영향력 이 정도?…AI에 진심인 이재명, 43년 묵은 금산분리 '완화' 추진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.