• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (264건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

LG디스플레이, 자체 개발 AI 어시스턴트로 업무 생산성 'UP'

LG디스플레이는 개인 생산성 향상을 위해 AI 어시스턴트 서비스를 자체 개발하고 업무에 적용한다고 21일 밝혔다. 기업 자체 기술로 AI 어시스턴트를 개발하고 도입한 사례는 LG디스플레이가 업계 최초다. AI 어시스턴트 서비스는 LG디스플레이 임직원을 위해 반복 작업을 자동화하고 복잡한 작업을 단순화해 준다. '화상회의 자동 통번역'과 'AI 회의록 자동 작성' 등을 지원해 업무를 보다 효율적으로 수행할 수 있도록 돕는다. LG디스플레이는 AI 어시스턴트 서비스의 성능을 지속적으로 업그레이드할 계획이다. 상반기에는 '이메일 AI 요약', 자연어 기반 지표 분석 등의 '데이터 처리 기능'을 추가한다. 하반기에는 보고용 PPT 초안까지 작성해 주는 '문서 작성 어시스턴트 기능' 등 보다 고난이도의 AI 업무로 확장한다. AI 어시스턴트 서비스는 일(日) 평균 업무 생산성을 이전 대비 약 10% 향상시킨다. 하루 표준 근무시간 8시간 중 약 50분을 효율적으로 관리할 수 있게 된 셈이다. 임직원은 줄어든 시간만큼 고부가가치 업무에 집중하여 업무 효율과 생산성을 높이게 됐다. LG디스플레이는 AI 어시스턴트 서비스의 업무 활용도를 높여 3년 내 업무 생산성을 30% 이상 높여갈 계획이다. AI 어시스턴트 서비스는 기존 사내 인트라넷 '렛츠(Let's)'에 AI 애플리케이션(앱)을 추가하는 플러그인(Plug-in) 방식으로 구축됐다. 기존 인프라를 그대로 활용하기 때문에 임직원은 평소 업무 환경에서 AI 어시스턴트 서비스를 자연스럽게 접하고 편리하게 사용할 수 있다. LG디스플레이는 AI 어시스턴트 서비스를 자체 개발함으로써 동일한 기능의 외부 AI 어시스턴트 서비스를 구독하는 데 드는 비용도 100억 원 이상을 절감했다. 또한 LG디스플레이는AI의 두뇌 역할을 하는 LLM(대형언어모델)을 내재화해 AI 어시스턴트 서비스의 외부 정보 유출을 원천 차단하고 보안 안정성을 강화했다. LLM은 LG AI연구원이 자체 개발한 '엑사원(EXAONE) 3.5'를 활용한다. '엑사원 3.5 초경량 모델'은 세계 최대 AI 플랫폼인 '허깅페이스(Hugging Face)'의 리더보드 엣지 부문에서 1위에 오르는 등 경쟁 LLM 대비 압도적 우수성을 인정받은 고성능 AI다. 이 같은 '엑사원 3.5'을 활용한 AI 어시스턴트 서비스는 요약, 번역, 검색, 생성 등의 작업에서 최적화된 성능을 발휘한다. 아울러 AI 어시스턴트 서비스에 탑재된 플러그인 AI 앱 개발은 LG CNS와 협업했다. 한편 LG디스플레이는 지난 3월 산업통상자원부가 승인하는 '사업재편기업' 디지털 전환 분야 대상 기업으로 선정됐다. LG디스플레이는 '디지털 전환(DX)을 통한 생산 효율성 및 품질 확보'를 목표로, 자동화 시스템 고도화 및 지능화 시스템 구축을 통해 OLED 생산성 제고를 추진한다. 이병승 LG디스플레이 DX그룹장(상무)은 “개인 AI 어시스턴트 도입으로 개인 업무 생산성을 극대화함으로써 단순 업무는 줄이고 생산성을 높일 수 있게 됐다”며 “AX(AI Transformation, AI 전환) 역량을 강화해 차별적 고객가치 창출에 주력할 것”이라고 말했다.

2025.04.21 10:00장경윤

퓨리오사AI, MS 애저 마켓플레이스에 2세대 NPU 가속기 'RNGD' 출시

인공지능 반도체 기업 퓨리오사AI는 자사의 2세대 AI 추론 가속기 RNGD(레니게이드)를 마이크로소프트의 애저 마켓플레이스(Azure Marketplace)에 공식 출시했다고 17일 밝혔다. 애저 유저들은 레니게이드를 활용해 고성능 AI 인프라를 손쉽게 활용할 수 있게 될 전망이다. RNGD는 LLM 및 멀티모달 모델의 효율적인 추론을 위해 설계된 데이터 센터용 차세대 AI 가속기다. 지난해 8월 '핫 칩스(Hot chips) 2024' 컨퍼런스에서 첫 선을 보여 글로벌 테크 업계의 큰 관심을 모은 바 있다. 클라우드 중심, 온프레미스, 하이브리드 등 다양한 환경에 최적화돼 있어 유연하게 여러가지 목적으로 활용할 수 있다. 또한 ▲수분 내로 추론용 프로덕션 환경 배포 ▲수요에 따라 유연하게 추론 인프라 규모 조절 ▲기존 애저 데이터 및 소프트웨어 스택과 원활한 통합 등을 제공한다. 나아가 퓨리오사AI는 Llama 3.1 사전 컴파일 모델 기반 API를 곧 제공할 계획이다. 이를 통해 기업 고객은 레니게이드의 추론 성능을 기존 워크플로우 내에서 즉시 테스트하고 활용할 수 있다. 향후 다양한 모델 아키텍처 지원도 순차적으로 확대할 예정이다. 제이크 즈보로프스키 마이크로소프트 애저 플랫폼 총괄은 “애저 마켓플레이스는 전 세계 고객이 신뢰할 수 있는 파트너 솔루션을 쉽게 찾고 배포할 수 있는 공간”이라며 “퓨리오사AI의 레니게이드를 이 생태계에 새롭게 맞이하게 되어 기쁘다”고 말했다. 이번 출시를 계기로 퓨리오사AI는 자사 제품 보급에 박차를 가할 계획이다. 현재 국내외 기업 고객을 대상으로 레니게이드 제품평가를 진행 중이며, TSMC와의 협업을 통해 대규모 양산에 돌입했다. 퓨리오사AI 관계자는 “레니게이드의 애저 통합은 누구나 접근 가능한 효율적인 AI 추론 인프라를 제공한다는 당사의 비전을 실현하는 중요한 이정표”라며 “스타트업부터 대기업까지 복잡한 AI 인프라 없이도 필요한 성능을 쉽고 빠르게 확보할 수 있을 것”이라고 밝혔다. 퓨리오사AI는 지난 2017년 설립된 인공지능 반도체 스타트업이다. AMD, 삼성전자에서 근무했던 백준호 대표와 김한준 CTO(삼성전자), 구형일 CAO(Chief AI Officer; 퀄컴) 3인이 '지속 가능하고 지구상의 모두가 활용할 수 있는 AI 컴퓨팅 환경 구현'을 목표로 공동 창업했다. 지난 2022년에는 1세대 NPU를 출시해 상용화에 성공했고, 2024년 하반기 2세대 NPU RNGD를 출시해 현재 글로벌 고객사 제품 평가를 진행 중이다.

2025.04.17 08:59장경윤

[현장] "美·中은 무단 크롤링, 우리는 정공법"…업스테이지, 글로벌 AI 정조준

"미국과 중국의 프론티어 인공지능(AI) 랩들이 무단 크롤링으로 데이터를 확보할 때 우리는 역차별이라 느껴질 만큼 합법적이고 투명한 방식으로 데이터를 수집해왔습니다. 이러한 제약에도 실사용 사례를 통해 검증된 우리 '워크 인텔리전스'를 바탕으로 인류의 업무 효율성을 5배, 10배, 나아가 100배까지 끌어올리며 새로운 세상을 열겠습니다." 김성훈 업스테이지 대표는 16일 서울 여의도 콘래드 호텔에서 열린 기자 간담회에서 향후 비전에 대해 이같이 밝혔다. '미래의 일을 위한 워크 인텔리전스'를 주제로 열린 이번 행사는 자사의 기술 스택과 국내외 도입 사례, 글로벌 확장 전략 등을 종합적으로 공개하는 자리였다. 행사에는 업스테이지 일본법인 대표를 포함한 주요 경영진이 참여해 향후 해외 시장 공략 전략도 함께 발표했다. 이날 업스테이지는 문서 추출 엔진 '도큐먼트 파스', 경량화 거대언어모델(LLM) '솔라', 문서 특화 멀티모달 모델 '솔라 도크VLM'을 중심으로 한 워크플로우 자동화 기술을 대거 공개했다. 국내에서는 KB금융, 한컴, 로앤컴퍼니 등의 실제 도입 사례를 소개했고 일본·동남아·북미 등에서 진행 중인 개념검증(PoC)과 수출 성과를 통해 글로벌 확장의 구체적 로드맵도 제시했다. 문서 기반 업무 자동화 기술 공개…"AI로 리포트 작성부터 의사결정까지" 김 대표는 업스테이지가 자체 개발한 문서 처리 엔진 '도큐먼트 파스'를 시작으로 기술 경쟁력을 설명했다. 이 솔루션은 이미지나 PDF 기반 문서에서 핵심 데이터를 추출한 뒤 이를 컴퓨터가 이해할 수 있는 HTML 형태로 정교하게 구조화한다. '도큐먼트 파스'는 표, 차트, 2단 편집 등 사람이 보기 편하게 구성된 비정형 문서를 LLM이 처리할 수 있도록 정제해 주는 데 특히 강점을 보인다. 실제로 이 기술은 허깅페이스 벤치마크에서 아마존웹서비스(AWS), 구글, 메타 등 글로벌 솔루션을 제치고 정확도 97.02점으로 1위를 기록했으며 처리 속도 또한 세계 최고 수준으로 평가받았다. 문서를 정교하게 구조화하는 기술 외에도 업스테이지는 자체 언어모델 '솔라(Solar)'를 통해 텍스트 기반 업무의 자동화까지 전방위로 대응하고 있다. 회사는 그래픽 처리장치(GPU) 한 장만으로도 고성능을 내는 소형 언어모델(sLM)을 개발하는 것을 목표로, 모델 경량화와 정밀도 간 균형에 집중하고 있다. '솔라' 시리즈는 고정밀 문서 분석, 보고서 요약, 질의응답 등 워크플로우 전반에서 핵심 역할을 수행한다. 지난해 공개된 '솔라 프리뷰'는 허깅페이스에 등록된 약 90만 개 LLM 중 트렌딩 3위에 오르며 기술력을 입증했다. '솔라 프로 1.3'은 국내 언론사들로부터 수급한 대량의 기사 데이터를 학습해 한국어 해석 성능을 크게 끌어올렸다. 차기 모델은 오는 6월 출시 예정인 '솔라 프로 1.5'다. 파라미터 수는 기존 22억 패러미터에서 31억 패러미터로 확장됐지만 여전히 GPU 한 장으로 구동 가능한 경량 구조를 유지하고 있다. 김 대표는 "우리는 '솔라'를 지속적으로 업데이트하는 동시에 오픈AI 'o 시리즈'나 딥시크 'R1'과 유사한 '사고의 연쇄(CoT)' 추론 기능도 개발 중"이라며 "고차원적 해석과 판단이 요구되는 산업 현장에 LLM을 실질적으로 투입할 수 있는 기반을 마련하기 위한 기초 작업"이라고 설명했다. 이에 더해 업스테이지는 문서 이해와 언어 처리 기술을 단일 파이프라인으로 연결해 '워크 인텔리전스' 완성도를 끌어올리고 있다. 이날 공개된 '솔라 도크VLM'은 이러한 통합 전략을 대표하는 기술이다. 기존 멀티모달 모델이 일반 이미지에는 강하지만 문서 인식에는 한계가 있는 반면 이 모델은 문서 전용 인코더를 탑재해 100페이지 이상 분량도 안정적으로 처리한다. 요약, 질의응답, 보고서 작성까지 한 번에 수행하는 단일 파이프라인을 구현한 것이 특징이다. 데이터 확보 방식에서도 업스테이지는 차별화를 꾀하고 있다. 김 대표는 "오픈AI와 같은 프론티어 기업들이 무단 크롤링 방식으로 데이터를 확보하고 있다"며 "이 가운데 우리는 쿠오라(Quora)와 같은 글로벌 파트너와의 계약을 통해 거의 불공정 거래 급으로 투명하게 데이터를 수집하고 있다"고 설명했다. 이어 "대선 이후에는 정부 차원에서 데이터 계약과 보상에 대한 새로운 거버넌스가 마련되기를 기대한다"고 밝혔다. 기술력이 곧 매출로 연결되기 시작했다는 점도 주목할 만하다. 업스테이지는 법률 분야에서 로앤컴퍼니와는 판례·조문 검색에 특화된 AI 검색 엔진을 구축했고 한컴의 '한컴 어시스턴트'에는 문서 초안·요약 기능을, 보험사들에는 수술 자동 판단·지급 심사로 이어지는 자동화 파이프라인을 공급하며 실적을 쌓았다. 이들 성과를 포함해 1년 간 누적 계약액은 250억원을 넘겼으며 이는 지난해 대비 다섯 배 증가한 수치다. 재무 적자와 향후 자금 조달 계획에 대한 기자의 질문에는 "현재의 적자는 대부분 GPU 등 고성능 인프라에 대한 선제적 투자 때문"이라며 "멀티모달 모델과 '솔라 프로 1.5' 등 신제품 개발이 완료되면 운영비용은 급격히 줄어들 것"이라고 답했다. 이어 "글로벌 주요 기업들과의 논의도 활발히 진행 중이며 조만간 긍정적인 투자 소식을 전할 수 있을 것"이라고 밝혔다. 맞춤형 LLM 통해 日 조준, 동남아·북미로 확장 가속 이날 행사에서는 업스테이지의 해외 진출 전략, 특히 일본 시장 공략 역시 집중 조명됐다. 마츠시타 히로유키 업스테이지 재팬 지사장은 일본 내 전략과 비전을 직접 발표했다. 그는 AWS 시니어 매니저 출신으로, 지난달 일본 도쿄에서 개소식을 열고 업스테이지 일본 법인을 공식 출범시킨 인물이다. 마츠시타 지사장은 "세계 수준의 기술력과 팀 문화, 글로벌과 로컬을 모두 이해하는 전략이 있어 회사에 합류했다"며 "일본 기업들이 미국 빅테크의 기술력은 인정하면서도 현지화된 솔루션을 함께 구축하는 어려움을 겪을 때 우리는 작지만 강력한 모델로 이 간극을 충분히 메울 수 있다"고 강조했다. 일본 AI 시장은 오는 2030년까지 20억 달러(한화 약 2조8천억원) 규모로 성장할 전망이다. 특히 전체 AI 지출 중 94%가 모델이 아닌 솔루션·애플리케이션 영역에 집중될 것으로 분석된다. 이에 따라 회사는 단순한 모델 판매가 아니라 각 기업의 목적과 니즈에 맞춘 솔루션을 제공하는 '빌더-퍼스트' 전략을 취하고 있다. 기술적 차별화도 이어졌다. 업스테이지는 최근 일본 스타트업 카라쿠리와 공동으로 일본어 최적화 경량 LLM '신(Syn)'을 개발했다. 이 모델은 14억 패라미터급 소형 구조임에도 불구하고 금융·의료·제조 등 주요 산업 벤치마크에서 높은 정확도를 기록했다. 사업 측면에서는 지역 IT기업 퓨식(Fusic)과도 전략적 파트너십을 체결했다. 퓨식은 규슈 지역을 기반으로 고객 네트워크와 도메인 전문성을 보유하고 있다. 업스테이지는 이들과 함께 10건 이상의 개념검증(PoC)를 동시다발적으로 진행 중이며 기술 트레이닝 프로그램도 함께 운영하고 있다. 교육 콘텐츠 및 문서 AI 등 핵심 기술 역시 일본 시장에 맞춰 현지화 작업이 진행 중이다. 유통 전략에서도 다층적 접근을 택했다. 클라우드 사업자 및 유통사와는 총판 계약을 체결했고 컨설팅·시스템통합(SI) 파트너사와는 공동 영업을 전개해 세일즈 파이프라인을 확장하고 있다. 마츠시타 지사장은 "교육, PoC, 고도화된 솔루션 도입까지 일본 내에서 지속 가능한 AI 생태계를 직접 구축하겠다"며 "실제 매출 인식은 올해 하반기부터 본격화될 것"이라고 설명했다. 일본 외 지역에서도 업스테이지의 '소버린 AI' 구축 사업은 빠르게 확장되고 있다. 김성훈 대표는 "태국 IT기업 JTS에 공급한 태국어 LLM이 최종 낙점돼 인수인계를 마쳤다"며 "중국계 '타이쿤2' 모델과의 경쟁 끝에 최고 성능으로 인정받은 첫 수출 사례"라고 밝혔다. 이어 "이 프로젝트를 계기로 말레이시아, 베트남, 몽골, 터키 등지에서도 유사 요청이 들어오고 있다"고 설명했다. 북미 시장 공략도 이미 시작됐다. 현재 업스테이지는 S&P500 소속 대형 보험사 세 곳과 도큐먼트 품질검증(QA) 기반의 정보 추출 워크플로우 도입을 협의 중이다. 또 미국 최대 규모의 텔레헬스 기업과는 환자 진료 기록 자동 요약 솔루션 개발을 논의하고 있으며 대형 헬스케어 클리닉과는 수십 년간 축적된 의료 기록을 디지털로 전환하는 작업을 함께 검토 중이다. 김성훈 업스테이지 대표는 행사를 마치며 "우리는 단순히 모델을 공급하는 기업이 아니라 글로벌 시장에서 신뢰받는 디지털 전환 파트너가 되겠다"며 "이를 통해서 일의 미래를 완전히 재설계해 새로운 세상을 여는데 기여하겠다"고 강조했다.

2025.04.16 14:52조이환

KT, 국내 최초 LLM 플랫폼 수출

KT가 태국 자스민 그룹의 IT 전문기업 '자스민 테크놀로지 솔루션(JTS)'과 추진한 태국어 거대 언어 모델(LLM) 플랫폼 구축 프로젝트를 성공적으로 마무리했다고 15일 밝혔다. KT는 지난해 3월 JTS와 태국어 LLM 플랫폼 개발 프로젝트를 위한 계약을 체결하고 1년여간 프로젝트를 수행해왔다. 이 프로젝트는 LLM 운영 관리 환경 'LLM 옵스(Ops)'와 AI 서비스 인프라 'GPU 팜'을 구축하고 태국어 전용 LLM 모델까지 개발하는 원스톱 프로젝트다. 해외에 종합 AI 인프라를 구축해 생성형 AI 서비스의 개발과 운영, 확장 환경을 마련한 것은 국내 기업 중 KT 그룹이 처음이다. LLM 옵스는 다양한 LLM 모델의 학습, 배포, 운영 전 과정을 관리할 수 있는 환경이다. KT는 이를 고객사 맞춤형으로 구축해 JTS는 복잡한 생성형 AI 운영 환경을 보다 효율적, 안정적으로 운용할 수 있게 됐다. KT는 클라우드 자회사 KT클라우드와 GPU 자원 관리를 위한 GPU 팜도 태국 현지에 조성했다. 여기에 기반해 JTS는 태국 기업과 기관에 GPU 구독 서비스(GPUaaS)를 공급하고 본격적으로 태국 내 AI 생태계 확장을 촉진할 계획이다. KT는 자체 모델 개발 경험과 노하우를 토대로 국내 LLM 전문 기업 업스테이지와 태국어 전용 LLM을 공동 개발했다. 이 모델은 태국어, 영어, 한국어 등을 지원한다. 태국의 방대한 고유 데이터를 학습해 태국 정치, 역사, 문화 관련 질문에도 정확하게 응대할 수 있다. KT는 대한민국 AX 생태계 발전을 위해 지난 2023년 업스테이지에 투자했다. 이번 프로젝트는 대기업과 스타트업이 공동으로 글로벌 AX 사업을 성공한 사례로서 의미를 더했다. KT는 앞으로도 JTS의 전문 기술 파트너로서 ▲AI 플랫폼 고도화 ▲GPU 인프라 확장 및 유지 보수 ▲AI 기반 신규 서비스 발굴 등 다분야에서 지속적인 협력을 이어 나간다. 또한 양 사는 태국 AX 시장을 겨냥한 AI 서비스를 단계적으로 선보일 계획이다.. KT는 이번 프로젝트로 성공적인 글로벌 AX 사업 레퍼런스를 확보했다. 이를 통해 한층 고도화된 AI 사업 역량을 확보하고 동남아 시장뿐만 아니라 중동, 유럽 등 다른 글로벌 시장까지 AX 사업 영역을 본격적으로 확대해 나갈 방침이다. 이진형 KT 전략사업컨설팅부문 AI사업전략담당은 “태국어 특화 LLM 플랫폼 개발과 상용화는 KT의 AI 기술력과 글로벌 사업 역량을 다시 한번 입증한 성과”라며 “이번 프로젝트에서 얻은 경험과 노하우를 포함해 KT는 마이크로소프트, 팔란티어와의 전략적 제휴를 기반으로 AI, 클라우드의 서비스형 상품 라인업도 다각화해 나갈 계획이다”라고 말했다.

2025.04.15 09:12박수형

"한국어 LLM 신뢰성 강화"…NIA-TTA, 학습용 데이터 유해 표현 검출 모델 공개

한국지능정보사회진흥원(NIA)과 한국정보통신기술협회(TTA)가 유해 표현 검출 기술을 바탕으로 우리나라 거대언어모델(LLM)의 신뢰성·안정성 강화에 힘을 쏟는다. NIA와 TTA는 'AI허브'를 통해 LLM 학습용 데이터 내의 유해 표현 검출 AI 모델과 유해 표현 학습용 데이터를 공개했다고 14일 밝혔다. AI 허브는 과학기술정보통신부와 NIA가 운영하는 국내 최대 AI 학습용 데이터 제공 플랫폼이다. 이번에 공개된 AI 모델은 주어진 말뭉치 데이터 내에서 유해 표현을 검출하고 다양한 유해 표현 카테고리로 분류하는 기능을 수행할 수 있다. 해당 AI 모델과 데이터는 과기정통부 초거대AI 확산 생태계 조성 사업의 일환으로, LLM 데이터의 품질검증 과정에서 주요 특성 중 하나인 유해성을 측정하기 위해 개발됐다. 자체 성능 검증 결과 높은 정확도(80~90%)를 달성해 유해 표현 검출의 효용성을 입증했다. AI 모델을 학습시키기 위해 구축된 데이터는 유해 표현 검출용 데이터 20만 건과 유해 표현 카테고리 구분용 데이터 21만 건 등으로 구성돼 있다. 데이터는 한국어 유해 표현 오픈소스 데이터를 토대로 AI허브의 온라인 구어체 말뭉치 데이터와 지식그래프 투 텍스트 데이터를 활용해 문체의 다양성을 확보하는 데 중점을 뒀다. 또 국가인권위원회의 혐오 표현에 대한 안내서 등과 같은 신뢰할 수 있는 가이드라인을 참조해 유해 표현·카테고리 11개를 명확하게 정의하고 이를 재가공해 데이터의 일관성과 신뢰성을 확보했다. 이번에 공개된 AI 모델과 데이터는 AI허브에 개방돼 누구나 활용할 수 있다. LLM 관련 서비스와 데이터 구축사업에 적용함으로써 AI가 생성하는 콘텐츠의 안전성 강화는 물론 다양한 산업 분야에서의 AI 윤리 강화에 기여할 것으로 예상된다. 황종성 NIA 원장은 "AI 기술의 발전은 기술적 진보뿐만 아니라 사회적 책임을 담보할 수 있는 윤리적 고려가 반드시 병행돼야 하고 이는 지속 가능한 AI 생태계 조성을 위한 핵심 요소"라며 "이번 AI 모델과 데이터 공개가 한국어 LLM의 신뢰성·안전성을 강화하기 위한 계기가 될 것으로 기대한다"고 말했다. 이어 "앞으로도 윤리적 책임을 고려한 양질의 AI 데이터 구축·활용 기반을 마련해 국내 AI 생태계 지원을 확대해 나갈 것"이라고 덧붙였다.

2025.04.14 11:22한정호

[AI는 지금] "양보다 질이다"…AI 기업들, 정제 데이터 '버티컬 모델' 베팅

인공지능(AI) 기술이 거대언어모델(LLM)을 중심으로 확산되던 흐름에서 벗어나 산업 맞춤형 '버티컬 AI'로 전환되는 흐름이 빨라지고 있다. AI의 범용성이 오히려 현장 적용을 방해하는 요인으로 지적되면서 특정 산업 문제를 정확히 풀 수 있는 특화형 모델 수요가 높아지는 추세다. 10일 업계에 따르면 국내외 AI 기업들은 최근 범용 모델 대신 산업별 정밀화를 앞세운 버티컬 AI 개발에 집중하고 있다. 의료, 금융, 법률, 커머스 등 도메인 특화형 AI가 실제 계약 체결, 리스크 예측, 비용 절감 등 실질적 성과를 입증하며 LLM을 그대로 쓰는 전략의 한계를 드러내고 있다는 판단에서다. 이같이 버티컬 AI가 주목받는 배경에는 세 가지 축이 자리한다. ▲도메인 최적화로 인한 문제 해결력 ▲데이터 중심의 경량화 전략 ▲정확성 향상을 통한 규제 산업 대응력이다. 이미 LG AI연구원, 코히어 등의 파운데이션 모델 기업들은 기존처럼 모델 파라미터를 키우기보단 양질의 산업 데이터로 성능을 끌어올리는 방식에 주력하고 있다. 범용 AI 빈틈 메우는 버티컬 AI…"정확성·가성비서 차이 난다" 오픈AI '챗GPT', 앤트로픽 '클로드' 등의 범용 LLM은 다양한 주제를 빠르게 학습할 수 있다는 장점이 있다. 다만 각 산업이 요구하는 맥락 이해력·정확성·규제 대응력에서는 취약하다는 지적이 나온다. 특히 문서 구조나 용어가 고정된 법률·세무 분야는 일반 LLM에게는 문맥이 과도하게 추상적이거나 관련성이 낮은 정보를 만들어낼 위험이 높다. '챗GPT'가 사실과 다른 판례를 생성하거나 존재하지 않는 조항을 제시하는 사례는 그 대표적이다. 이러한 한계는 성능 문제가 아니라 학습 데이터의 범용성과 과적합 위험, 도메인에 특화된 개념 계층구조 부족에서 기인한다. 이에 따라 전문가가 직접 구축한 정제된 데이터셋 기반의 산업 특화형 AI가 정확도·신뢰성·업무 호환성에서 실효성을 증명하고 있다. 단순히 답을 생성하는 것을 넘어 특정 산업의 '실제 문서'를 구조적으로 이해하고 '작동 가능한 결정'을 내릴 수 있는 수준까지 도달 중이다. 이 같은 흐름은 지표로도 확인된다. 한국지능정보사회진흥원(NIA)은 최근 보고서에서 글로벌 버티컬 AI 시장이 오는 2032년까지 연평균 27% 성장할 것으로 전망했다. 이미 미국, 이스라엘 등은 규제·보안 산업을 중심으로 시장을 선점하며 독점 생태계를 구축 중이다. 업계 관계자는 "오픈AI 같은 글로벌 기업들도 기술적으로 버티컬 AI에 대응할 수는 있겠지만 이미 너무 많은 영역에 손을 뻗은 상황이라 특정 산업에 깊이 들어가기엔 어려움이 있다"며 "오히려 이같은 방향성이 가격 측면에서 B2B 기업에게는 경쟁력이 될 수 있고 수익 모델로도 충분히 의미가 있다"고 말했다. 리걸AI, 법률 효율성 높인다…"문서 해석에 리스크 관리까지 가능해져" 문서 복잡도와 전문성, 강한 규제 환경으로 생성형 AI 도입이 까다롭던 법률 분야도 기술 변화의 전환점을 맞고 있다. 과거 법무 관련 AI 기술은 단순 검색이나 판례 조회에 머물렀다면 최근에는 법령 해석, 조항 간 논리 구조 분석처럼 문서의 문맥을 이해하고 업무 수행 프로세스에 도움을 주고 있다. 국내에서의 대표적인 사례는 BHSN이다. 비즈니스 리걸AI 솔루션 '앨리비(allibee)'를 운영 중인 이 회사는 법률 분야에 특화된 생성형 AI를 기반으로 기업의 계약, 법무 등 비즈니스에 필요한 서비스를 제공한다. 자체 개발한 법률 특화 거대언어모델인 '리걸 LLM(Legal-LLM)', 검색증강생성(RAG), 특허받은 '리걸 OCR' 기술 등으로 복잡한 법률 문서를 수 초 만에 면밀히 분석하고 정밀한 리스크 감지까지 가능하다. 특히 전문가가 직접 정제한 고품질 법령, 판례, 정책 데이터를 기반으로 범용 LLM보다 높은 정확도와 신뢰도를 확보한 점이 강점으로 꼽힌다. 프론티어 AI 기업의 모델이 사실과 다른 법령이나 판례를 인용해 오류를 일으키는 사례가 잦다는 점에서 산업 현장에서는 이런 특화형 AI에 대한 선호가 점차 높아질 가능성이 높다. 한 변호사 업계 관계자는 "'챗GPT'가 그럴듯한 말투로 실제 존재하지 않는 법령이나 판례를 제시해 곤혹을 겪었다는 사례를 들었다"며 "클라이언트들이 관련 사례를 뉴스 등으로 접하면서 범용 AI를 꺼리는 분위기가 이어지다 보니 클린한 법률 데이터만을 말해주는 서비스가 필요하다는 인식이 있다"고 말했다. 이러한 수요를 파악한 BHSN은 이미 다양한 산업군을 대상으로 레퍼런스를 확보하며 신뢰를 쌓아가고 있다. 현재 CJ제일제당, 애경케미칼, 한화솔루션 등 국내 주요 기업에 '앨리비'를 공급 중이며 연내 제약·유통 등 추가 산업군과의 신규 계약도 추진하고 있다. '앨리비'를 도입한 기업들은 계약서 검토 시간이 67% 이상 단축됐고 반복 검토 항목의 자동화를 통해 조항 누락이나 오류 발생률도 크게 낮췄다. AI 기반 자동화와 정밀 분석 기술로 법무 업무 전반의 생산성과 정확성 역시 향상됐다는 평가다. 고객 의도 읽고 구매까지 이끈다…커머스 특화형 AI의 진화는? 커머스 분야에서도 마찬가지다. 실시간 추천, 구매 유도, 결제 전환까지 온라인 쇼핑 전 과정에서 AI가 '판매 파트너' 역할을 수행하는 시대가 열렸다. 고객의 행동 데이터를 실시간으로 분석하고 구매 여정을 따라가며 맞춤형 응대를 제공하는 이커머스 특화형 AI 솔루션이 떠오르고 있는 것이다. 이같은 흐름 속에서 대화형 에이전트 '젠투(Gentoo)' 개발사인 '와들'이 주목받고 있다. '젠투'는 고객의 관심사와 행동을 실시간으로 분석해 상품을 추천하고 구매 결정을 유도하는 멀티 AI 에이전트 솔루션이다. 고객의 니즈를 능동적으로 파악하는 것은 물론 구매 장벽을 해소하는 구조로 이뤄져 중소형 쇼핑몰을 중심으로 고객 전환율 개선 효과를 나타내고 있다. 최근 와들은 코오롱베니트의 AI 얼라이언스 파트너로 참여해 다양한 커머스 플랫폼에 젠투의 기술을 적용하고 있다. 특히 중소형 브랜드를 중심으로 AI 기반 운영 파트너로서 입지를 강화하고 있으며 이를 통해 온라인 쇼핑몰의 운영 효율성과 고객 만족도를 동시에 향상시키는 데 기여하고 있다. 일례로 국내 월간 활성 사용자 수(MAU)가 70만 명인 한 이커머스 플랫폼은 '젠투' 솔루션 도입 후 상품 클릭률이 6개월 만에 20%로 증가하며 약 2배 이상 높아졌다고 밝혔다. 이같이 고객의 구매 여정 전반을 AI가 실시간으로 지원하는 흐름은 상담 접점에서도 뚜렷하게 나타난다. 올인원 AI 비즈니스 메신저 '채널톡'을 운영하는 채널코퍼레이션은 대화형 버티컬 AI 기능인 '알프(ALF)'를 지난해 11월 정식 출시했다. '알프'는 자연어 기반으로 대화의 맥락을 이해하고 정보를 탐색해 고객 응대 업무를 수행하는 서비스다. 현재 패션·뷰티 업계를 중심으로 1천여 개 기업에서 활용 중이며 올해는 상품 판매와 고객 정보 수집까지 자율적으로 수행할 수 있도록 업데이트될 예정이다. '알프'를 통해 상담을 효율화한 대표 사례로는 애슬레저 브랜드 안다르가 꼽힌다. 안다르는 상담 유형별로 응대 체계를 세분화하고 배송·교환 등 반복되는 단순 문의는 알프가 직접 처리하도록 설정했다. 그 결과 전체 고객 문의의 61%를 상담원 연결 없이 알프가 자체 응대하며 상담 효율성과 응답 속도를 크게 끌어올렸다. 세금·재무도 '사람 없이' 자동화…소상공인, 자영업자를 위한 버티컬 AI 세금과 재무 분야 역시 예외는 아니다. 특히 반복적이고 규제 민감도가 높은 세무·회계 업무는 정확성과 속도 모두를 요구하는 영역으로, AI 자동화 수요가 빠르게 늘고 있다. 사람 손을 타지 않고도 환급 신청, 증빙 처리, 보고서 작성까지 가능한 서비스가 등장하면서 실무 자원이 부족한 사업자들에게 실질적인 '버티컬 AI 비서'로 자리잡고 있다. 일례로 혜움은 소상공인과 자영업자를 위한 버티컬 AI를 개발해 세무·재무 실무 자동화에 나서고 있다. 이 기술은 혜움이 운영 중인 국내 최초 AI 경정청구 서비스 '더낸세금'과 '혜움 레포트 2.0'에 적용돼 사업자 대상 세금 환급, 보고서 생성, 증빙 처리 등 다양한 업무를 수행할 수 있게 한다. 최근에는 소상공인을 위한 버티컬 AI 구축을 위해 IBK기업은행, 네이버와 전략적 오픈 이노베이션을 추진하고 마이크로소프트(MS), 기업은행 등과 금융 AI 서비스 공동 개발을 위한 MOU를 체결하는 등 금융 버티컬 생태계 구축에 더욱 박차를 가하고 있다. 업계 관계자는 "이제 생성형 AI는 산업 내 데이터를 이해하고 업무 성과까지 연결하는 수준으로 진화하고 있다"며 "앞으로 특정 산업에 얼마나 최적화된 형태로 작동하느냐가 기술 경쟁력의 핵심 지표가 될 것"이라고 말했다.

2025.04.10 16:50조이환

디노티시아·한양대, AI양자화 평가 플랫폼 오픈소스로 공개

인공지능(AI)·반도체 통합 솔루션 전문기업 디노티시아는 한양대학교 AIHA 연구실과 산학협력 연구를 통해 개발한 AI 양자화 알고리즘 평가 플랫폼, 'QLLM-INFER'를 깃허브(GitHub)에 오픈소스로 공개했다고 8일 밝혔다. 이 플랫폼은 '아파치 2.0' 라이선스를 적용해 누구나 자유롭게 사용하고 기여할 수 있다. 오픈소스를 그대로 재배포하거나 수정하여 재배포하더라도 소스 코드를 공개할 의무가 없으며, 상업적 이용에도 제한이 없다. 최근 챗GPT와 같은 대규모 언어 모델(LLM)이 주목받으면서 AI 기술의 활용 범위가 급격히 넓어지고 있다. 그러나 이러한 모델은 높은 연산량과 메모리 사용으로 인해 실제 서비스나 개인용 컴퓨터 및 스마트폰에 적용하기 어렵다. 이를 해결하기 위한 방법이 양자화 기술이다. 양자화는 AI 모델의 계산 정밀도를 낮춰 더 빠르게 만드는 기술로, 큰 숫자를 작은 숫자로 압축하는 방식이다. 이를 통해 AI 모델은 원래 성능을 유지하면서도 메모리 사용량과 연산 속도를 크게 줄일 수 있다. 그러나 지금까지 다양한 양자화 알고리즘이 서로 다른 환경과 조건에서 평가돼, 어느 기술이 더 좋은 지 객관적으로 비교하기 어려웠다. 디노티시아와 한양대는 이런 문제를 해결하고자 표준화된 환경에서 알고리즘 성능을 정확히 비교할 수 있는 플랫폼을 만들었다. 또한 최근 3년(2022~2024년)동안 가장 많이 주목받은 양자화 기술 8가지를 선정해 동일한 조건에서 객관적으로 평가했다. 특히 이 플랫폼은 ▲가중치와 활성화 값(모델의 기억과 계산을 담당하는 값)을 모두 줄이는 방식, ▲가중치만 줄이는 방식, ▲AI가 긴 입력을 처리할 때 임시 저장하는 공간(KV 캐시)을 줄이는 방식 등 세 가지 유형으로 나눠 알고리즘 성능을 분석했다. 정무경 디노티시아 대표는 “LLM 서비스가 널리 상용화되기 위해서는 양자화를 통한 모델 경량화가 필수적이지만, 어떤 양자화 기술이 타겟 응용과 시스템에 더 유효한 지 판단이 어렵다”며 “'QLLM-INFER'는 양자화 알고리즘의 성능을 객관적이고 투명하게 비교할 수 있는 오픈소스 플랫폼으로, 최적의 양자화 솔루션을 선택하거나 새로운 양자화 기술을 개발할 때 큰 도움을 줄 것”이라고 강조했다. 최정욱 한양대학교 융합전자공학과 교수는 “지금까지 양자화 기술은 연구마다 기준이 달라 객관적 비교가 어려웠다”며 “이번 플랫폼은 AI 연구에 처음으로 표준화된 평가 기준을 제시했다는 점에서 학문적으로 의미가 크며, AI 연구자들이 이 플랫폼을 통해 더욱 객관적이고 신뢰성 높은 연구 성과를 낼 수 있을 것으로 기대한다”고 말했다. 한편 디노티시아는 최근 한국어 논리 추론 AI모델인 'DNA-R1'을 오픈소스로 공개해 한국어 AI 연구 활성화에 기여하고 있다는 평가를 받고 있다.

2025.04.08 13:44장경윤

"AI 인프라 대안 나올까"…망고부스트, 엔비디아 넘은 추론 성과 공개

망고부스트가 업계 표준 성능 테스트에서 인공지능(AI) 추론(inference) 분야의 신기록을 세우며 거대언어모델(LLM) 시대에 대응할 수 있는 새로운 기술적 대안을 제시했다. AI 데이터센터의 성능, 비용 효율성, 개방형 아키텍처를 두루 갖춘 조합으로 가능성을 입증하며 시장의 주목을 받고 있다. 망고부스트는 지난 2일 미국 워싱턴주 벨뷰에서 실시된 ML퍼프 인퍼런스(MLPerf Inference) v5.0 테스트에서 자사의 AI 추론 소프트웨어 '망고 LLM부스트'와 AMD 'MI300X' 그래픽처리장치(GPU) 조합으로 라마2-70B(Llama2-70B) 모델 오프라인 추론 부문에서 가장 높은 성능을 기록했다고 5일 밝혔다. 이번 테스트는 총 32개의 'MI300X' GPU를 4개 서버 노드에 분산한 다중 노드 구성에서 이뤄졌으며 'MI300X' 기반 시스템의 첫 ML퍼프 멀티노드 제출 사례로도 주목된다. 망고부스트는 '라마2-70B' 오프라인 추론 시나리오에서 초당 10만3천182 토큰(TPS)을 처리해 이전 최고였던 8만2천749 TPS 기록을 넘어섰다. 서버 시나리오에서도 9만3천39 TPS를 기록해 엔비디아 'H100' 기반 시스템 성능을 뛰어넘는 성과를 입증했다. 비용 구조 개선 효과도 눈에 띈다. 'MI300X' GPU는 H100 대비 최대 62% 저렴한 가격에 공급되며 '망고 LLM부스트'와의 조합으로 동일 GPU 수 기준 2.8배 더 높은 가격 대비 성능을 기록했다. 일각에서는 이를 고성능 AI 인프라의 비용 구조를 재편할 수 있는 가능성으로 보고 있다. 이 같은 성과는 AMD와의 긴밀한 협업을 통해 라데온 오픈 컴퓨트(ROCm) 소프트웨어 스택을 최적화한 결과다. 망고부스트는 'MI300X'의 성능을 극대화하는 동시에 단일 노드부터 멀티 노드 클러스터까지 유연하게 확장 가능한 AI 추론 솔루션을 구현했다. 클라우드 환경에서도 경쟁 우위가 확인됐다. 망고부스트는 AWS의 'A100' 기반 환경에서 오픈소스 프레임워크 '오라마(Ollama)' 대비 최대 138배 빠른 AI 추론 성능을 보였으며 허깅페이스의 '텍스트 생성 추론(TGI)'와 vLLM을 포함한 주요 프레임워크와 비교해 성능 및 비용 측면에서 모두 우위를 입증했다. 특히 라마3.1-70B, 큐원-32B, 딥시크-R1-디스틸 등 최신 LLM 모델을 대상으로도 성능 저하 없이 일관된 결과를 유지했다. 이는 다양한 워크로드에 대응 가능한 범용 추론 솔루션으로서의 강점을 보여준다. '망고LLM부스트'는 50개 이상의 오픈 거대언어모델(LLM)을 지원하며 도커 기반의 원라인(one-line) 배포 방식, 오픈AI 애플리케이션 프로그램 인터페이스(API) 호환성 등을 제공해 기존 시스템을 유지하면서도 손쉽게 도입 가능하다. 아마존웹서비스(AWS), 애저(Azure), 구글클라우드플랫폼(GCP) 등 주요 퍼블릭 클라우드뿐 아니라 보안 요구가 높은 온프레미스 환경에서도 통합 운용이 용이하다. 기술적 차별성은 자체 개발한 하드웨어 IP에 기반한다. 이 회사의 데이터처리장치(DPU)는 GPU, 스토리지, 네트워크 가속기 간 데이터 흐름을 최적화해 AI 인프라의 성능과 비용 효율을 동시에 높이는 역할을 한다. 관련 기술은 30건 이상의 특허로 보호받고 있으며 국제 컴퓨터 아키텍처 학술대회(ISCA) 등에서 발표된 10여 년간의 연구 성과를 바탕으로 개발됐다. 망고부스트는 현재 미국, 캐나다, 한국 등을 거점으로 빠르게 사업을 확장하고 있으며 6천만 달러(한화 약 810억원) 이상의 투자를 유치한 상태다. 당초에는 고성능 DPU 반도체로 주목받았지만 창업 초기부터 AI 인프라 전반을 아우르는 풀스택 시스템 솔루션 기업으로의 전환을 준비해왔다. 이번 '망고LLM부스트'는 이러한 소프트웨어 역량의 대표적인 결과물이다. 김장우 망고부스트 대표는 "이번 ML퍼프 결과는 글로벌 AI 인프라 시장에서 망고부스트의 기술력이 공식적으로 인정받았다는 의미"라며 "DPU 기반 하드웨어와 LLM 추론 최적화 소프트웨어가 결합된 풀스택 솔루션으로 AI 데이터센터의 성능과 비용 문제를 동시에 해결해 나가겠다"고 말했다.

2025.04.05 13:52조이환

[AI 리더스] S2W "지식그래프·온톨로지로 무장한 AI"…다크웹 넘어 산업까지 확장

"우리가 지향하는 궁극적인 목표는 의사결정을 지원하는 인공지능(AI)으로, 복잡한 현실 문제에 실질적인 해답을 제시하는 AI입니다. 기존의 생성형 AI가 평균 80~90%의 정확도를 보인다면 도메인 특화 지식그래프와 온톨로지는 이에 더해 95% 이상의 정밀 자동화를 실현합니다. 분야별 AI들이 협업해 해법을 찾아가는 구조는 진정한 문제 해결형 AI로 나아가기 위한 실질적 경로로, 우리의 기술적 목표입니다." 박근태 S2W 최고기술책임자(CTO)는 최근 경기도 판교시 회사 사옥에서 진행된 기자와의 인터뷰에서 이같이 말했다. 그는 복잡한 현실 문제를 단순 자동화가 아닌 분야별 AI 에이전트 간의 협업을 통해 해결하려는 구조야말로 S2W 기술의 핵심 가치라고 설명했다. 또 이를 위해 도메인 특화 '지식그래프'와 정밀 전처리 인프라를 함께 구축해 생성형 AI가 혼자서는 넘기 어려운 정확도 한계를 기술적으로 보완하고 있다고 강조했다. 28일 업계에 따르면 최근 생성형 AI의 한계를 보완하고 정밀한 의사결정까지 지원하는 기술로 '도메인 특화 지식그래프'와 '온톨로지' 개념이 주목받고 있다. 단순 정보 생성에서 나아가 복잡한 산업 문제를 다각도로 분석해 해법을 제시하려는 시도가 늘고 있는 가운데 이 두 요소는 기술 신뢰성과 실효성을 동시에 확보할 수 있는 기반으로 평가된다. S2W가 말하는 'AI의 눈'…지식그래프와 온톨로지의 진화 과정은 '지식그래프'와 '온톨로지'는 S2W가 산업 영역으로 확장하는 과정에서 가장 전면에 내세우는 기술이다. 생성형 AI가 말 그대로 '생성'에 강하다면 지식그래프는 '정확한 연결'을 책임지는 구조적 기반이다. 데이터를 단순히 나열하거나 열람하는 것이 아니라 AI가 그 의미와 관계를 맥락 속에서 파악할 수 있게 해준다는 것이 박 CTO의 설명이다. 지식그래프는 정보를 '노드'와 '엣지(연결관계)'로 표현해 데이터 간의 숨겨진 인과성과 유사성을 구조화한다. 일례로 반도체 사업에서 '공급망 이슈 → 재료 부족 → 생산 중단'이라는 흐름을 벡터 안의 그래프 형태로 구성하면 인간 분석가보다 더 빠르고 정확하게 AI가 리스크를 예측할 수 있다. 단순히 데이터를 모으는 데 그치지 않고 실시간으로 이들의 관계성까지 해석하는 것이 핵심이다. '온톨로지'는 이 지식그래프가 혼란 없이 작동하도록 만드는 개념 사전이다. 산업별 주요 개념들을 정의하고 그 계층구조와 속성, 분류 기준을 정형화한다. 일례로 철강 산업 공정에 도입된다면 '롤링', '주조', '냉각' 같은 개념이 각각 어떤 역할이고 어떤 순서로 진행되는지를 AI가 이해할 수 있게 만드는 것이 온톨로지의 역할이다. 박 CTO는 "우리는 이 두 기술을 결합해 단순 검색 기반 AI에서 '의미 기반 추론형 AI'로 진화하는 구조를 구현하고 있다"며 "이는 특히 거대언어모델(LLM)의 고질적인 문제인 환각(hallucination)을 줄여 기존 생성형 AI가 자동화한 80% 업무를 95%까지 자동화할 가능성을 제공한다"고 강조했다. 이어 "AI가 그럴듯한 답을 넘어서 왜 그런 답을 도출했는지까지 설명할 수 있으려면 지식 구조가 반드시 뒷받침돼야 한다"고 설명했다. 다만 기존 산업에서 지식그래프는 오랫동안 수작업 중심으로 구축돼 왔다. 산업에 본격 도입하기엔 시간과 비용 부담이 컸고 설계 인력도 많이 필요했다. 팔란티어 같은 글로벌 기업은 이 분야의 선두주자로 꼽히지만 수십 명 단위의 인력을 투입해 대규모 온톨로지를 구축하는 방식이어서 비용 장벽이 높다는 한계가 있었다. S2W는 이같은 구조적 한계를 AI 기반 자동화로 극복하고 있다. 자연어처리(NLP), 분류 모델, 임베딩 기반 유사도 분석 등 여러 기술을 통해 개체 간 관계를 자동으로 추출한다. 반복적이고 규칙 기반의 매핑 작업은 AI가 맡고 도메인 전문가가 최종 검증만 수행하는 하이브리드 프로세스를 구축해 효율성과 정확도를 동시에 확보했다. "팔란티어와는 다른 길"…경량형 AI 통해 산업과 안보 동시 '공략' 이러한 구조화 기반 기술은 산업 쪽에서도 빠르게 적용 중이다. S2W가 국내에서 쌓은 대표적인 사례는 현대제철이다. 압연기, 냉각라인 등 설비 정보를 지식그래프로 연결해, 공정 이상이 발생한 경우 영향을 받는 설비나 지역 정보까지 결합하여 분석할 수 있도록 했다. 과거 다양한 관련 시스템에 각각 접속해야하고 관련된 모든 정보를 파악하기도 힘들었던 작업이 AI 기반으로 수초 내에 해결되고 있다. 롯데멤버스 역시 대표적인 지식그래프 기반 AI 도입 사례다. S2W는 롯데멤버스와 함께 회원 소비 데이터와 뉴스 데이터를 연계한 트렌드 분석 플랫폼을 개발 완료했으며 오는 2분기 중 롯데그룹 제휴사를 대상으로 시범 도입할 예정이다. 두 기업 모두 고객 맞춤형 인사이트 도출과 자동화된 의사결정 기반 확보에 효과를 보고 있다. 이외에도 회사는 공공기관, 금융사 등과 협업해 지식그래프 기반 AI 솔루션을 테스트하거나 납품하고 있다. 금융권에서는 계좌 간 이동 경로와 거래 내역을 그래프화해 자금세탁이나 투자사기 등의 이상 패턴을 조기 탐지하는 데 적용되고 있다. AI가 정황상 수상한 자금 흐름을 실시간으로 식별함으로써 기존 룰베이스 시스템보다 정밀한 경보 시스템이 가능하다는 평가다. 해외 진출 역시 보안과 국방 분야에서 활발히 진행되고 있다. 회사는 인도네시아·싱가포르 등 아시아권 정부기관과 협력해 사이버보안 기반 정보 인텔리전스 플랫폼을 구축했고 중동 정보기관 및 동남아 국가의 군사 정보기구 등과도 기술 검토 단계에 있다. AI가 직접 정보를 수집하고 위험을 추론하는 구조는 국경을 넘는 디지털 위협에 빠르게 대응할 수 있는 수단으로 평가받고 있다. 군·정보기관의 특성상 폐쇄망이나 열악한 통신 환경에서도 작동 가능한 분석 체계가 필수다. 이에 박 CTO는 "우리가 가진 다크웹 기반 실시간 수집 역량과 결합된 지식그래프 기반 분석 시스템이 이런 조건에 적합하다"고 강조했다. 업계에서는 이같은 S2W의 해외 전략이 팔란티어와 같은 미국계 보안 AI 기업들과는 궤를 달리한다고 분석한다. 팔란티어가 대규모 인력 투입과 고비용 프로젝트 중심이라면 S2W는 상대적으로 '가성비' 있는 경량 구조와 유연한 도입 모델을 내세운다는 것이다. 특히 아시아권 정부기관이나 정보기관과의 협력에서 문화적 유사성과 민첩한 기술 지원이 시너지를 낸다는 평가다. 박 CTO는 "우리는 고객 피드백을 반영해 신속하게 서비스를 튜닝해주는 대응력을 가지고 있다"며 "특히 아시아 국가들과는 워크플로우나 의사결정 방식에서 유사한 부분이 많아 우리가 기술 도입을 적극적으로 지원한 점이 어필한 것 같다"고 설명했다. 이어 "공공·보안 시장에서 쌓은 신뢰를 바탕으로 제조업과 같은 산업 영역까지 해외 확장을 이어가는 것이 목표"라고 밝혔다. 보안 AI 넘은 산업 AI…의미를 추론하는 '에이전트'로 진화 이 같은 전략이 가능했던 것은 S2W가 태생부터 '정보의 하수도'라 불리는 다크웹을 정면 돌파하겠다는 목표로 시작된 회사이기 때문이다. 창업자 서상덕 대표는 카이스트를 졸업하고 롯데그룹 미래전략연구소와 보스턴컨설팅그룹(BCG)을 거치며 전략기획과 AI 기술에 모두 정통한 인물이다. "가장 복잡하고 지저분한 데이터를 다룰 수 있어야 진짜 AI 기술력이라 할 수 있다"는 그의 판단 아래 회사는 다크웹이라는 난제를 선택했다. 박근태 CTO 역시 카이스트 전기전자 박사 출신으로, SK텔레콤에서 AI·빅데이터 개발 조직을 이끌던 경력을 갖고 있다. 그는 보안이라는 극한의 도메인 안에서 강건한 AI 시스템을 만든다면 이를 산업 전반으로 확장할 수 있다는 구조적 자신감을 갖고 있었다. 이에 회사는 초기부터 구글 BERT 기반의 경량 자연어처리 모델을 활용해 다크웹 데이터를 정제했고 이후 LLM을 병렬적으로 활용하며 기술의 확장성을 키워나갔다. 다크웹은 단순한 범죄 채널이 아닌 수많은 언어·텍스트·이미지가 얽힌 비정형 데이터의 보고다. S2W는 이를 수년간 실시간으로 크롤링하며 자연어처리, 전처리, 데이터 구조화 기술을 축적했고 이는 현재 산업 데이터로 확장 가능한 기술적 기반이 됐다. 박 CTO는 "다크웹 보안이라는 가장 척박한 환경에서 출발했기에 제조·유통·금융 데이터는 오히려 '정돈된 정보'처럼 느껴졌다"고 말했다. 현재 S2W는 이러한 기술 구조를 기반으로 '에이전트 기반 의사결정 AI'로의 진화를 추진 중이다. 박 CTO는 "AI가 하나의 지시만 받고 단일 작업을 수행하는 시대는 지났다"며 "복잡한 산업 환경에서는 다양한 전문 에이전트가 협업하는 '멀티에이전트' 구조가 필요하다"고 강조했다. 일례로 제조업에선 '설비 진단 에이전트', '수요 예측 에이전트', '스케줄링 에이전트'가 각각 데이터를 분석한 후 서로의 분석 결과를 공유하고 결론을 도출한다. 이때 지식그래프는 이질적인 데이터를 하나의 언어로 통합하는 '지도'이자 '중재자' 역할을 할 수 있다는 것이다. 이미 S2W는 자사 인텔리전스 조직 '탈론(TALON)'을 통해 AI 에이전트 파일럿을 개발 중이다. 다크웹에서 특정 키워드가 탐지되면 에이전트가 관련 지표를 자동 분석하고 보고서를 생성해 인간 분석가에게 전달하는 방식이다. 이는 향후 기업 내 부서 간의 단절된 정보흐름을 AI가 논리적으로 통합해주는 시스템으로 확장될 수 있다. 이같은 기술적 기반과 사업 확장을 바탕으로 S2W는 올해 하반기 코스닥 기술특례상장을 목표로 IPO를 추진 중이다. 지난해 12월 기술성 평가를 통과했으며 현재는 한국거래소의 예비심사 청구를 마쳤다. 주관사는 대신증권으로, 이번 IPO를 통해 글로벌 보안 AI 기업으로의 도약을 본격화할 계획이다. 특히 아시아와 중동 지역을 1차 타깃 시장으로 삼고 IPO 자금을 현지 인재 유치, 지사 설립, 기술 고도화 등에 전략적으로 활용할 방침이다. 박 CTO는 "우리 목표는 AI가 인간의 결정을 대체하는 것이 아니라 보다 정밀하고 빠른 결정을 가능하게 하는 파트너로 진화하게 하는 것"이라며 "보안에서 시작된 우리 기술이 산업 전반의 디지털 의사결정을 뒷받침할 수 있을 것"이라고 강조했다.

2025.03.28 16:27조이환

대만만 쳐도 '삭제'...中, AI로 비판 글 '실시간 감시' 훈련했다

중국이 민감 콘텐츠를 탐지·차단하는 인공지능(AI) 기반의 검열 체계를 구축한 정황이 드러났다. 사회적 불만이나 정치적 비판을 효율적으로 관리하려는 목적이 반영된 것으로, 권위주의 정부가 최신 생성형 AI 기술을 억압 수단으로 전환하고 있다는 정황을 뒷받침하는 사례란 분석이 나온다. 26일 테크크런치에 따르면 보안 연구자 '넷아스카리(NetAskari)'는 최근 중국 바이두 서버에서 보안 설정 없이 공개된 엘라스틱서치 데이터베이스를 발견했다. 이 데이터는 약 13만3천 건의 텍스트를 기반으로 거대언어모델(LLM)이 콘텐츠를 실시간으로 검열하도록 훈련된 것으로 확인됐다. 유출된 데이터는 군사 정보부터 노동 분쟁, 환경오염, 식품 안전, 정치 풍자, 대만 관련 이슈까지 폭넓게 포함돼 있다. 심지어는 "나무가 쓰러지면 원숭이가 흩어진다"는 중국 속담처럼 우회적 표현도 검열 대상에 포함되며 감정적 불만과 체제 비판을 구분 없이 탐지하도록 설계됐다. 이 같은 방식이 가능한 것은 LLM이 단순한 키워드가 아닌 표현의 맥락을 이해하고 판단하기 때문이다. 시스템은 이를 토대로 콘텐츠를 정치, 사회, 군사 이슈 중 하나로 분류해 '즉시 조치 대상'으로 삼는다. 대표적 사례로는 부패 경찰에 대한 기업인의 고발, 농촌 빈곤에 대한 호소, 미신을 믿는 공산당 간부의 부패 보도 등이 포함됐다. 대만 관련 키워드는 1만5천 회 이상 등장했으며 신형 전투기 정보 등 군사 움직임까지 정밀하게 추적 대상에 올랐다. 데이터 속 LLM 명령어에는 '프롬프트 토큰' 등 '챗GPT'류 모델과 유사한 지시어가 포함돼 있었다. 이는 중국 정부가 최신 AI 기술을 활용해 여론 통제를 체계화하고 있음을 뒷받침한다. 데이터의 활용 목적은 '여론 작업'으로 명시돼 있다. 이는 중국 중앙인터넷정보판공실(CAC)이 주도하는 국가 검열·선전 활동을 지칭하는 용어로 알려져 있다. UC버클리 샤오 치앙 연구원은 "전통적 검열을 넘어 AI가 국가 통제를 한층 정교하게 만든다"며 "중국 정부가 AI를 억압 도구로 활용하려는 증거"라고 밝혔다. 오픈AI 역시 지난달 보고서를 통해 "중국 기반 행위자가 AI로 인권 시위 감시, 반체제 인사 음해까지 시도한 정황이 있다"고 밝혔다.

2025.03.27 10:58조이환

아토믹GPT, AI 에이전트로 진화하나

한국원자력연구원이 자체 개발한 '아토믹 GPT'가 지능형 에이전트로 진화 중이다. 한국원자력연구원은 인공지능(AI) 스타트업인 ㈜젠티(대표 최은진)와 거대언어모델(LLM) 기술 활용에 관한 업무협약(MOA)을 체결했다고 27일 밝혔다. 이번 협약은 연구원이 최근 선보인 원자력 특화 AI 솔루션 '아토믹GPT'와 ㈜젠티의 강력한 거대언어모델 기술을 결합하자는 것. 원자력과 관련된 방대한 자료를 신속하게 분석해 활용할 수 있도록 도와주는 혁신적 AI 솔루션인 지능형 에이전트를 구축하는 것이 목표다. '아토믹 GPT'는 원자력 기술 문서 분석, 연구 정보 검색, 연구 문서 자동 요약 및 생성 등 연구자들이 겪는 다양한 어려움을 해소하기 위해 연구원이 자체 개발한 AI 프로그램이다. 현재 연구원 내부 직원들을 위한 전용 서비스로도 제공 중이다. ㈜젠티는자연어 처리와 의미 기반 검색 기술로 정리되지 않은 복잡한 문서를 분석해 원하는 정보를 신속․정확하게 제공하는 플랫폼을 보유했다. 지난 2021년 한국원자력연구원과 과학기술정보통신부가 주관한 인공지능그랜드챌린지에 참가해 대상을 차지했다. 이번 협약을 통해 양 기관은 표와 그림 등이 포함된 복잡한 원자력 관련 문서에서 핵심 정보를 빠르게 찾아 정리해주고, 자연어 기반의 질의응답 챗봇 등을 갖춘 AI 에이전트 서비스를 구축할 계획이다. 특히, 연구원의 외부와 분리된 네트워크 환경에서도 보안과 독립성을 유지하면서 서비스 이용이 가능하도록 개발해 연구자들의 활용성을 높인다는 복안이다. 원자력연구원 유용균 인공지능응용연구실장은 "원자력 연구에서 기초적인 문서작업 소요 시간을 최소화함으로써 연구자들이 창의적 연구 활동에 전념할 수 있도록 도울 것"이라고 말했다. ㈜젠티 최은진 대표는 “다년간 축적된 문서 분석 기술을 바탕으로 원자력연구원이 혁신적인 정보처리 및 연구지원 시스템을 구축할 수 있도록 기술적 협력과 맞춤형 솔루션을 제공할 것”이라고 덧붙였다. 원자력연구원 조윤제 디지털원자로․AI연구센터장은 “원자력과 같이 데이터가 방대하고 전문성이 요구되는 분야일수록 문서 분석 AI 기술의 효과가 클 것”이라며, “앞으로도 인공지능을 통해 산업 현장에서 실질적 변화를 만들어 갈 것"이라고 밝혔다.

2025.03.27 09:22박희범

[AI는 지금] "개보위, 中 AI 옹호"…딥시크에 긍정 신호 보낸 고학수 위원장, 이유는?

중국 딥시크의 국내 진출 여부를 둘러싼 논란이 이어지는 가운데 개인정보보호위원회가 오픈소스 기반 인공지능(AI) 모델 활용에 긍정적인 입장을 밝혔다. 중국 기업의 앱 자체를 옹호한 것이 아니라 딥시크 등의 오픈소스 생태계 확장이라는 기술 전략에 지지를 표한 것으로 보인다. 24일 업계에 따르면 고학수 개인정보보호위원회 위원장은 최근 한 세미나에서 딥시크 오픈소스 모델의 활용 가능성을 언급하며 '글로벌 빅테크가 아닌 기업도 도전할 수 있는 기회'라고 표현했다. 해당 발언은 지난달 국내 앱스토어에서 자진 철수한 딥시크 앱과는 별개로 발전하고 있는 오픈소스 기술 흐름을 짚은 것으로 평가된다. 딥시크는 중국발 오픈소스 거대언어모델(LLM) 스타트업으로, 지난 1월 이후 전 세계 AI 생태계를 신속히 장악했다. 오픈AI, 앤트로픽, 구글 딥마인드 등 미국·영국 프런티어 AI 기업들이 천문학적 자금을 투입한 것과 달리 적은 비용으로 고성능 모델을 구현한 데다 오픈소스로 공개돼 폭발적인 관심을 받았다. 퍼플렉시티 등 해외 LLM 서비스 기업들은 이미 딥시크를 로컬 환경에 설치해 운영 중이다. 최근에는 국내 기업들도 이를 기반으로 특화 모델 개발에 나서고 있다. 뤼튼테크놀로지스와 이스트소프트는 지난 2월 딥시크 모델을 자체 클라우드 환경에 구축해 운영을 시작했다. 크라우드웍스는 일본 법인을 통해 딥시크 R1 기반 일본어 모델을 개발한 뒤 이를 한국어로 확장할 계획이다. 일각에선 크라우드웍스가 딥시크 본사와 직접 계약을 맺고 한국어 모델을 공동 개발했다고 주장했지만 이는 사실이 아닌 것으로 확인됐다. 크라우드웍스 측이 지난 23일 딥시크 본사와 계약한 적이 없으며 회사가 활용 중인 모델은 앱이 아닌 설치형 B2B 버전이라고 해명했기 때문이다. 데이터가 중국 서버로 전송되는 B2C 앱과는 구조적으로 다르다는 설명이다. 실제로 퍼플렉시티, 뤼튼, 이스트소프트 등의 국내 설치형 모델은 외부 인터넷과 연결되지 않는 제한된 환경에서 구동된다. 이에 따라 중국 서버로 정보가 전송될 가능성은 원천적으로 차단된다. 다만 보안업계에서는 딥시크처럼 오픈소스로 제공되는 모델이라도 로컬 환경에 도입할 경우 여전히 위험 요소가 존재한다고 지적한다. 오픈소스 특성상 코드나 가중치 파일에 악성 코드가 삽입될 수 있으며 모델 로딩 과정에서 시스템 취약점을 노린 침투 가능성도 배제할 수 없기 때문이다. 또 일부 개발자가 모델에 내장된 안전 장치를 우회하거나 변형 모델을 제작할 경우 유해한 콘텐츠나 악성 코드를 생성하는 방식으로 악용될 수 있다. 특히 딥시크는 경쟁 모델에 비해 보안 업데이트나 코드 감사가 부족하다는 평가도 있어 도입 시 철저한 검증과 보안 관리가 필요하다는 지적이 잇따른다. 실제로 김승주 고려대학교 정보보호대학원 교수는 최근 자신의 링크드인을 통해 "딥시크를 PC나 클라우드에 설치해서 쓰면 운영주체가 중국이 아니기 때문에 안전하다는 말이 돈다"며 "이는 굉장히 위험한 생각"이라고 지적했다. 그럼에도 고 위원장이 딥시크를 위시한 오픈소스 LLM에 주목한 이유는 분명하다. 자본과 인프라가 부족한 국내 AI 생태계가 낮은 진입 장벽을 바탕으로 글로벌 경쟁에 도전할 수 있다는 점 때문이다. 업계에선 이 같은 메시지를 한국 정부가 추진 중인 '월드 베스트 LLM' 프로젝트와 맞물려 해석하는 분위기다. 정부는 국가 차원의 대규모 언어모델 개발을 위해 파운데이션 모델을 오픈소스로 공개하고 공공 중심의 활용 사례를 확산하겠다는 계획을 밝힌 바 있다. 이 프로젝트는 지난 2월 과학기술정보통신부가 발표한 'AI R&D 전략 고도화 방안'에 핵심 과제로 포함됐다. 정부는 향후 3개월 이내 'AI 국가대표팀'을 선발해 연구 자원과 데이터를 집중 지원하고 공공 데이터를 기반으로 한 특화 모델 개발을 유도할 방침이다. 업계에선 딥시크 사례가 이 같은 흐름을 촉발하는 계기가 됐다는 평가도 나온다. 고성능 언어모델을 오픈소스를 통해 낮은 비용으로 구현할 수 있다는 점이 확인되면서 '챗GPT'나 '클로드' 등 프런티어 AI를 빠르게 따라잡을 수 있다는 기대가 생겼다는 분석으로, 보안만 보장된다면 무료로 실사용도 가능하다는 인식이 퍼진 것이 정책 전환에 영향을 미쳤다는 해석도 제기된다. 고학수 개인정보보호위원회 위원장은 "딥시크 등의 모델에는 분명 잠재적인 불안 요소가 있지만 빅테크가 아니어도 적은 투자를 통해 세계 시장에 도전할 수 있다는 메시지를 줬다"며 "이러한 오픈소스를 통해 국내에서도 다양한 앱 서비스를 만들 수 있을 것"이라고 말했다. 이어 "향후에 보다 넓은 생태계를 구축해야 한다고 믿는다"며 "자유로운 혁신의 한 축은 열린 모델을 통해 새로운 응용 생태계를 형성하는 것이라 생각한다"고 말했다.

2025.03.24 16:16조이환

버즈니 고재현 팀장 "10년 쌓은 쇼핑데이터 ,타사 AI와 한끗 차 만들어"

“버즈니는 단순히 '영상의 핵심을 요약해줘'와 같은 동작을 수행하는 제품을 개발하지 않는다. 어떤 유형의 하이라이트가 적합한지 사전에 정의하고 실제 홈쇼핑 업계에서 고급 PD 인력들이 하이라이트라고 평가한 구간 대상으로 학습된 모델을 통해 정교한 자체 평가 기준을 보유하고 있다. 일반적인 LLM으로 구축된 프로덕트들이 잡아내지 못하는 어떤 '한 끗'의 가치를 제공할 수 있다.” 버즈니는 10년 이상 쇼핑 관련 데이터 축적과 경험을 바탕으로 빠르고 효과적인 AI 솔루션을 제공하고 있다. 버즈니 에이플러스AI 사업부 고재현 팀장 설명처럼, 버즈니의 풍부한 자체 데이터로 학습된 AI 기술은 차별화된 성능을 자랑한다. 버즈니의 커머스AI 구독 서비스인 에이플러스AI는 AI 전문가 없이도 쉽게 도입할 수 있는 서비스로, 숏폼AI, 챗봇, 추천, 리뷰 등 다양한 기술을 제공한다. 그 결과 서비스 1년 만에 주요 이커머스 기업들과 계약을 체결하며 초기 대비 10배 이상의 매출 성장을 이뤘다. 이 제품의 경쟁력은 다년간 축적된 방대한 커머스 데이터와 이를 활용한 기술력에 있다. 에이플러스AI의 숏폼AI는 이커머스 영상 데이터를 기반으로 자동 영상 편집을 지원하며, B2B 및 B2C 제품으로 개발되고 있다. 고재현 팀장은 AI 사업부 에이플러스AI에서 이커머스 데이터를 활용한 서비스형 소프트웨어(SaaS) 및 인공지능(AI) 제품 개발을 주도하고 있다. 그는 최근 거대언어모델(LLM)과 같은 범용 AI 기술이 비약적으로 발전하고 있으나, AI의 성공적 도입을 위해서는 문제정의, 데이터, 모델적용이라는 세 가지 요소가 조화를 이뤄야 한다는 생각이다. 고 팀장에 따르면 에이플러스 AI의 기술은 영상 제작 도메인에서의 피드백을 통해 발전해 왔다. 비전문가도 쉽게 짧은 형식 영상을 제작할 수 있도록 하는 것이 서비스 목표다. 특히 영상 제작 과정의 효율성을 크게 향상하는 데 기여하고 있다. 고 팀장은 “숏폼AI를 도입한 기업들은 100% 자동화된 프로세스를 통해 제작 인력을 최소화하고 높은 효율성을 달성했다. 또 홈쇼핑모아의 '30초 홈쇼핑' 같은 서비스는 높은 참여도를 기록하며 숏폼 영상의 강력한 서비스 효과를 입증했다”면서 “이런 성공 사례는 숏폼AI 도입을 고려하는 기업들에게 긍정적인 영향을 미치고 있다”고 설명했다. 이어 그는 “버즈니는 text-to-video 기술 발전과 같은 시장 흐름에 맞춰 다양한 기능을 개발하고 있다”며 “특히 URL 기반 숏폼 생성, 클립 최적화 기능, 워크플로우 UI 등 새로운 기술을 통해 숏폼AI의 활용도를 확대할 계획이다. 고객사가 지속 가능한 이익을 창출할 수 있도록 제품을 고도화할 예정”이라고 밝혔다. [다음은 고재현 팀장과의 일문일답] Q. 간단한 자기소개 한다면? 버즈니의 AI 사업부인 에이플러스AI에서 프로덕트팀 팀장을 맡고 있다. 버즈니가 10여 년 동안 모바일 홈쇼핑 플랫폼 홈쇼핑모아를 운영하며 축적한 데이터를 바탕으로 실용인공지능 기술을 연구 및 개발해, 이커머스향 서비스형 소프트웨어(SaaS)로 제품화하는 역할을 담당하고 있고, 다양한 AI(AIaaS)제품을 시장에 공급하고 있다. 최근 몇 년 새 LLM을 필두로 API레벨에서 활용할 수 있는 범용 AI기술이 비약적으로 발전하면서 많은 기업이 AI Native를 천명하고 있다. 하지만 도메인의 특수성을 띠고 있는 대부분 기업에서의 AI 활용 로드맵을 고려하면, 기업의 AI 비즈니스 적용은 '문제정의, 데이터, 모델적용'의 삼박자가 맞아떨어져야 한다고 생각한다. 그런 면에서 이미 이커머스 분야에서 10년 넘게 축적한 데이터와, 그 데이터를 활용해 특수한 문제(예를 들면 이커머스 검색이나 추천, 리뷰 분석과 같은)를 정의하고 해결해 본 경험이 있는 버즈니는 LLM을 위시한 AI 기술을 통해 가장 빠른 성공 경험을 제공할 수 있다는 강한 자신감을 갖고 있다. Q. 버즈니 신규 비즈니스인 '에이플러스AI'를 설명한다면? '에이플러스AI'는 내부에 AI 전문가가 없어도 구독 방식으로 쉽게 원하는 커머스AI 기술을 도입할 수 있는 커머스AI 구독 서비스다. 에이플러스AI는 크게 ▲숏폼AI ▲챗봇 ▲상품요약 ▲상품 카탈로그 ▲추천 ▲검색 ▲리뷰 ▲상품 마케팅 AI 기술로 구성돼 있다. 해당 기술들은 버즈니가 실제 커머스 서비스(홈쇼핑모아)를 운영하며 '매출 증대', '비용 감축', '효율성 향상' 효과를 냈던 커머스 AI 기술로 구성돼 있다. 버즈니 에이플러스AI는 출시 1년 만에 CJ온스타일 등 주요 이커머스사 8곳에 커머스AI 기술 공급 계약을 체결했다. 이 기간 버즈니의 AI 비즈니스 매출도 출시 초기 대비 10배 이상 증가했다. AI의 성능은 양질의 대규모 데이터 유무가 결정한다. 버즈니 에이플러스AI의 경쟁력은 다년간 쌓아온 커머스AI 기반 기술로 대규모 정제된 커머스 데이터를 확보하고 있다는 점이다. 18개 홈쇼핑사(데이터홈쇼핑사 포함)의 1억 건 이상의 상품 데이터, 월간 1천만 명에 달하는 사용자 데이터, 100만개 상품 이미지 학습 데이터, 14만개 영상 데이터 등 있다. Q. 에이플러스AI가 제공하는 기술 중 숏폼AI는? 에이플러스 숏폼AI는 AI 에이전트 시장에서 버즈니가 전략적으로 집중하고 있는 제품 중 하나다. 버즈니가 보유한 수많은 이커머스 영상데이터(홈쇼핑 라이브 방송 영상)를 바탕으로 개발한 영상 하이라이트 베이스라인 모델을 근간으로 현재 자동 영상 편집 에이전트라는 방향성을 가지고 지속적인 개발을 진행하고 있다. 지난해 처음 출시한 숏폼AI는 상품의 소구를 중심으로 하는 이커머스 영역에서 버즈니가 그동안 쌓아온 도메인 지식(Domain Knowledge)을 바탕으로 탄생했다. 출시 이후 4개 이상의 홈쇼핑업체와 개념증명(PoC)를 진행했다. 해당 PoC의 목적은 단순 소구력이 아닌 영상언어에 대한 이해와 실제 영상제작 프로세스에 대한 도메인 학습이었다. 이 PoC 과정을 통해 모델의 영상 산업 내 범용성을 확장했고, 이렇게 개선된 모델을 바탕으로 올해는 숏폼AI를 구독형 B2C 프로덕트로도 개발 중이다. 이와 별개로 B2B영역에서는 현재 CJ온스타일 등 3개의 홈쇼핑사에 자동 또는 반자동 AI 숏폼 편집툴을 제공하고 있다. 숏폼AI는 Long-form to Short-form에 대한 편집 및 자동생성에 대한 기능을 지원하고 있다. 그밖에 이커머스 영상 도메인에 대한 이해와, 실제 영상 제작 산업과의 끊임없는 피드백루프에 근거해 영상문법을 이해하지 못하는 일반 크리에이터라도 손쉽게 숏폼 영상을 제작할 수 있는 툴을 만드는 것이 우리의 비전이다. Q. 고객사는 어떤 이유로 숏폼AI를 도입하려고 하나. 그들이 기술로 풀고 싶어 하는 문제는? 2024년 말 기준 쇼핑, 패션 카테고리 상위 20개 앱을 살펴보면 12개 앱에서 별도의 숏폼지면을 운영하며, 숏폼콘텐츠 기반의 플랫폼 체질 변화를 도모하고 있다. 실제로 숏폼 중심으로 개편된 서비스 지면에서 기존 대비 거래액 및 리텐션이 크게 향상된 사례들이 속속 등장하고 있다. 이처럼 숏폼 중심의 서비스 개편을 도모하기 위한 핵심 키워드는 '숏폼의 양'이다. 숏폼 지면이란 결국 기존 클릭베이스의 사용자 경험이 아닌 스와이프 베이스의 사용자 경험으로의 전환을 의미하기 때문에, 무한 스와이프 환경에서 탐색 가능한 대상 숏폼의 수가 많아야만 시도할 수 있는 전략이기 때문이다. 그리고 바로 이 지점이 기업들이 버즈니 숏폼AI를 찾는 이유다. 긴 영상을 숏폼 영상으로 제작하는 것은 아예 새로운 영상을 창작하는 것에 비해 간단한 작업이리라 생각되지만, 실제 이 업무를 사람 실무자가 수행하게 되면, 업무의 효율성을 높이기 어렵다. 일단 1시간여의 원본영상에서 어떤 구간들을 선택해야 하는지, 또 선택했다면 어떤 디자인 에셋들을 올려야 하는지, 자막은 어떻게 입힐지 등 생각보다 많은 영역에서 사람의 품이 든다. 그러나 우리 숏폼AI를 사용하게 되면, 5분 안에 자동으로 숏폼 영상이 생성된다. 만약 추가 편집이 필요한 경우에는 자체적으로 구축한 편집 UI상에서 미리 선별된 하이라이트 구간들에 대한 편집을 추가로 할 수 있어 고효율의 작업환경 구축이 가능하다. 만약 원본 영상 데이터를 연동하게 되면 별도의 업로드 절차도 필요 없이 미리 생성된 영상들을 바로 자사 서비스에 전시할 수 있는 형태다. 결국 빠르게 숏폼 리소스를 확보해야 하지만 관련 인력이 부족한 기업들이 주로 버즈니 숏폼AI를 찾고있다. Q. 여러 숏폼AI 관련 기술 중 버즈니 숏폼AI를 도입해야 하는 이유 혹은 버즈니만의 경쟁력은? 시장에는 이미 Long-form to Short-form과 관련된 다양한 서비스들이 존재한다. 그런데도 기업들이 버즈니 숏폼AI를 찾는 이유는 명확하다. '서비스' 즉 최종적으로 숏폼이 활용될 지면과 그 시나리오를 이해하고 있는 제품이기 때문이다. 버즈니는 단순히 '영상의 핵심을 요약해줘'와 같은 동작을 수행하는 제품을 개발하지 않는다. 완성된 숏폼이 전시될 지면에 따라 어떤 유형의 하이라이트가 적합한지 사전에 정의하고 실제 홈쇼핑 업계에서 고급 PD인력들이 하이라이트라고 평가한 하이라이트 구간들을 대상으로 학습된 모델을 통해 정교한 자체 평가기준을 보유하고 있다. 따라서 일반적인 LLM으로 구축된 프로덕트들이 잡아내지 못하는 어떤 '한 끗'의 가치를 제공할 수 있다. 커머스 영상의 하이라이트를 찾는 것은 생각보다 복잡한 문제다. 스포츠 영상처럼 득점 장면이라는 명확한 하이라이트 기준이 없다. 한 시간 내내 상품의 장점을 설명하기 때문에 어떤 구간이 하이라이트인지 판단하기가 쉽지 않다. 게다가 자연어만으로는 시각적으로 의미 있는 장면을 찾기 어렵고, 카테고리별로도 하이라이트의 기준이 다르다는 점까지 더해져 복잡성이 높다. 버즈니는 홈쇼핑모아를 통해 홈쇼핑사에서 제공받는 다양한 데이터(원본 영상, 하이라이트 영상, 상품 정보, 리뷰 정보 등)를 복합적으로 활용해 카테고리별 평가 항목을 정의하고, 이를 기반으로 복합적인 모델을 개발했다. 시각 정보를 우선으로 하되, 쇼호스트의 멘트를 기반으로 의미론적 보충을 하는 방식을 택했으며, 특히 사용자의 의도를 더 정확히 파악하기 위한 연구가 2024 EMNLP industry track에 채택되기도 했다. 또한 제품 기획 초기부터 MVP를 바탕으로 실제 업계의 피드백을 획득하며 발전한 형태의 제품으로 기업레벨에서 '숏폼을 만든다'고 했을 때의 프로세스를 제품 내에서 충분히 만족시켜 줄 수 있는 형태의 프로덕트라고 자부한다. Q. 실제로 숏폼AI를 도입한 고객사가 실제 얻은 효과는? 현재 버즈니 숏폼AI는 CJ 온스타일, 신세계라이브쇼핑과 쇼핑엔티에 적용돼 있고, 콘텐츠 제작 업체와도 PoC를 진행하고 있다. 숏폼AI를 도입한 고객사가 얻은 가장 큰 효과는 '100% 자동화'다. 실제 신세계라이브쇼핑의 경우 별도의 제작인력 없이 기획 인력만으로 100% 자동화된 숏폼 생성 프로세스(방송종료-데이터인입-분석-생성-다운로드)를 통해 획득한 숏폼 클립들을 별도의 지면에서 전시해 활용하며 리소스 효율을 극대화하고 있다. 또 홈쇼핑모아에서도 숏폼AI 기술이 들어간 '30초 홈쇼핑'을 운영 중이다. 30초 홈쇼핑의 경우 실제 홈쇼핑모아에서 운영중인 모든 탐색 영역을 통틀어 가장 높은 서비스 참여도(Engagement Depth, PV/UV)를 기록하고 있을 정도로 이용자의 반응이 좋다. '30초 홈쇼핑'의 참여도는 배포 첫 주 대비 35%이상 증가하며 지속적인 향상 추세를 보이고 있다. '30초 홈쇼핑'에 진입한 이용자는 타 영역대비 가장 많은 상품을 탐색하고 있으며, 홈쇼핑의 꽃인 생방송 상품이 포함되지 않았음에도 홈쇼핑 시청자들이 주인 홈쇼핑모아 이용자를 대상으로 이러한 성과를 도출해 냈다는 점에서 숏폼이 지닌 서비스 파워를 체감할 수 있다. 이처럼 숏폼을 도입한 기업들의 성과는 매우 고무적이며, 이러한 시장의 전반적인 분위기 속에서 올해도 숏폼AI에 대한 많은 도입 문의가 이어지고 있다. Q. 올해 숏폼AI 관련 계획이나 앞으로 관련 시장 전망은? 올해는 구글의 VEO2, 오픈AI의 소라(SORA)와 같은 text-to-video 모델들이 본격적으로 서비스화될 것으로 보인다. 이에 따라 영상 도메인에서의 AI 전환 또한 시장에서 중요한 화두가 될 것으로 보인다. 텍스트 프롬프트 중심의 영상제어가 아직은 보편화되지 않았지만 빅테크의 이러한 모델들이 보편화됨에 따라 영상 툴 이용자들의 작업 루틴에도 상당 부분 변화가 점진적으로 일어날 것으로 보인다. 버즈니도 이러한 변화의 흐름에 맞춰 Long-form to Short-form을 넘어 text기반 영상 편집 에이전트로의 발전을 염두에 두고 다양한 기능들을 출시하려고 한다. 상품상세 URL삽입 시, 숏폼으로 소구 될만한 다양한 추천페르소나별 시나리오를 생성하고, 이에 맞는 클립들을 구성해 컷편집 해주는 'URL to Short-form', 그리고 여러 건의 짧은 클립과 판매하고자 하는 상품URL을 함께 제공하면 제공된 클립들을 가장 숏폼에 적합한 형태로 정제해주는 'Clip to Short-form' 기능을 하반기에 출시할 예정이다. 기존의 편집 시나리오를 보다 자동화된 에이전트 형태로 UI에 구현한 '워크플로우' 기능은 2분기 출시 예정이다. 또 기존의 이커머스 산업을 넘어 유튜브 또는 틱톡 생태계로 확장을 위해 보다 다양한 AI 하이라이트 추천 페르소나를 계속 추가하고 있기 때문에 올 하반기에는 크레딧 구독 기반으로도 준비 중이다. 마지막으로 버즈니는 실제 제품과 산출물이 활용될 영역에 대한 깊은 이해와 연구를 바탕으로 숏폼AI를 도입한 고객사가 영상 콘텐츠의 확대재생산 영역에서 확실한 이윤을 창출할 수 있도록 지속 고도화해 나갈 계획이다.

2025.03.23 08:49백봉삼

SKT "클로드로 만든 텔코 LLM, 고객상담 효율성 높였다"

“앤트로픽 클로드를 파인튜닝한 텔코 LLM 도입으로 고객 상담 시 상담원이 더욱 효율적으로 상담에 필요한 정보를 찾을 수 있게 됐다.” 에릭 데이비스 SK텔레콤 AI테크콜라보레이션 본부장은 지난 19일 서울에서 열린 '앤트로픽 코리아 빌더 서밋'에서 클로드 활용 사례로 텔코 LLM 도입 건을 이같이 설명했다. 앤트로픽 코리아 빌더 서밋은 앤트로픽이 AI 제품 분석 플랫폼 운영사 콕스웨이브와 함께 개최한 개발자 행사로, 앤트로픽이 한국에서 처음으로 개최한 공식 행사다. 데이비스 본부장은 이날 패널 토의를 통해 SK텔레콤이 고객센터에 도입한 텔코 LLM의 사례를 소개하며 “고객센터에 적용한 텔코 LLM은 내부 상담원들이 사용하지만 결국 고객들에게 영향을 미치는 서비스”라고 소개했다. 이어, “SK텔레콤은 텔코 LLM을 사용하는 것이 실제로 고객을 만족시킬 수 있는 것인지에 대해 고민했고, 고객 만족도를 높이기 위한 형태로 엔지니어링을 계속 하고 있다”고 설명했다. SK텔레콤은 지난해 자체 개발 AI 모델 에이닷엑스(A.X)와 클로드 등을 포함, 멀티 LLM을 기반으로 텔코 LLM을 개발해 다양한 사내 운영 업무와 비즈니스에 활용하고 있고 이 가운데 고객센터에는 클로드를 적용한 텔코 LLM이 활용되고 있다. 서밋에 앞서 SK텔레콤은 앤트로픽 블로그를 통해 클로드를 베이스 모델로 파인튜닝된 텔코 LLM의 성과를 알리기도 했다. SK텔레콤은 고객센터에 텔코 LLM을 적용한 후 고객센터에 적용된 LLM의 저품질 응답 비율이 68% 감소했고, 통화 후처리에서 AI의 응답 품질이 인간 상담원의 약 89% 수준으로 올라왔으며, 고객센터 상담원이 상담에 활용한 후 평가한 점수도 기존 서비스에 비해 34% 높아졌다. SK텔레콤은 텔코 LLM 고객센터 도입이 상담원들을 지원하고 보조하기 위한 것임을 강조했다. 데이비스 본부장은 “우리의 목표는 사용자의 업무 능력을 보강해 고객센터 상담원들의 스트레스를 줄이고 일하는 즐거움을 찾아주는 것”이라며 “이러한 행위는 궁극적으로 SK텔레콤 가입자의 상담 경험 개선으로 이어져 상담원와 고객 모두에게 도움이 될 것”이라고 밝혔다. 그러면서 “과거에는 고객센터 직원들에게 고객들의 불만 제기에 어떻게 대응하면 좋을지를 교육했다면, 지금은 AI를 활용해 고객이 원하는 것에 대한 정보를 탐색하고 대응하는 데 도움을 주고있다”며 “우리의 AI는 인간을 대체하는 것이 아니고 사람들의 삶의 질을 개선하는 것”이라고 밝혔다. 한편 AI의 발전으로 인한 환경 변화에 대한 질문에 “SK텔레콤은 다양한 기업들과의 협업을 통해 각각의 상황에 따라 알맞은 모델을 활용할 수 있도록 멀티 LLM 전략을 진행하고 더욱 빠르고 더욱 효과적으로 일을 해결할 수 있도록 하고 있다”고 답했다.

2025.03.21 10:15박수형

"10년 뒤 인류 멸망할 수 있다"…국내 1세대 AI 연구자, 섬뜩한 발언한 이유는

"미국 트럼프 행정부가 들어서면서 인공지능(AI) 안전보다 발전에 더 주안점을 두기 시작했다는 점이 우려됩니다. 이렇게 되면 10년 뒤에 인류는 멸망할 수 있습니다." 한상기 테크프론티어 대표는 최근 서울 강남구 모두의연구소 강남캠퍼스에서 진행된 '국방 인공지능 혁신 네트워크' 행사에 연사로 참석해 이처럼 강조했다. 한 대표는 서울대 컴퓨터공학과를 졸업하고 카이스트에서 전산학 석·박사를 마친 국내 1세대 AI 연구자다. 이날 'AI 안전 : 주요 토픽과 해결할 문제들'이란 주제로 발표에 나선 한 대표는 최근 범용인공지능(AGI)의 능력이 향상되면서 추가적인 리스크들이 점진적으로 나타나는 것에 대해 우려를 표했다. 20일 업계에 따르면 AI는 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다. 그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 한 대표는 "데미스 하사비스 구글 딥마인드 최고경영자(CEO)는 5년, 다리오 아모데이 앤트로픽 CEO는 2~3년 안에 AGI 시대가 올 것이라고 얘기하고 있다"며 "적어도 10년 안에 온다고 보면 이에 대한 (안전성과 관련해) 대비를 해 나갈 필요가 있다"고 강조했다. 또 한 대표는 AI를 '핵무기' 수준으로 봐야 한다고 강조하며 AI 발전과 함께 안전성도 같이 고려해 나가야 한다고 주장했다. 그는 "최근 앤트로픽 클로드 3.7이나 오픈AI o3 같은 모델들이 출시되면서 인터넷에 존재하지 않는 정보를 추론 능력으로 답변을 만들어지는 사례들이 늘어나고 있다"며 "생화학 무기, 핵무기 등에 이 같은 AI가 사용되기 시작할 경우 안전성이 확보되지 않으면 큰 문제가 될 것"이라고 지적했다. 그러면서 "이제는 AI 모델뿐 아니라 시스템, 애플리케이션까지 확대해 AI와 관련된 범죄 가능성에 대해 고민해봐야 할 시점"이라며 "영국 등에선 이미 안전성뿐 아니라 국가안보적인 관점에서 AI를 들여다 보기 시작했다는 점에서 우리나라도 함께 고민해 봐야 할 것"이라고 덧붙였다. 이날 '딥시크를 포함한 추론형 AI에 대한 이해'를 주제로 강연에 나선 이진원 하이퍼엑셀 CTO는 AI가 점차 발전하면서 인간이 통제할 수 있는 영역을 점차 벗어나고 있다는 점을 주목했다. 또 앞으로는 AI가 AI를 컨트롤하는 방향으로 기술 발전을 해 나가야 하지만 데이터가 AI 발전 속도를 따라가지 못하고 있다는 점에서 우려를 표했다. 더불어 이 CTO는 오픈AI가 생각하는 AI 5단계를 소개하며 현재 AI가 ANI에서 AGI로 넘어가는 과정에서 데이터 학습량을 더 늘리기 위해 엔비디아가 그래픽처리장치(GPU)를 더 크게 만들 필요가 있다는 점도 강조했다. 이 CTO는 "딥시크처럼 저렴한 모델들이 나오면서 앞으로 AI가 실제 산업에 더 다양하게 활용될 것으로 보인다"며 "GPU 수요는 앞으로 더 폭발적으로 늘어날 것으로 보인다"고 관측했다. 이어 "딥시크 같은 기업들이 속속 나오고 있지만 오픈AI, 구글 등 빅테크의 AI 기술력을 따라가기에는 쉽지 않을 것"이라며 "다만 우리나라가 AI 경쟁력을 키우기 위해선 중국 딥시크 같은 모델을 벤치마킹해야 한다"고 주장했다. 이날 행사에선 국방기술진흥연구소 박삼준 AI PD와 김일환 삼성SDS 그룹장, 최민석 ETRI AI 안전연구소 박사 등이 참여한 패널 토의도 '국방분야 생성형 AI 도입 및 활용 방향'을 주제로 진행됐다. 각 패널들은 AI의 통제력 상실을 막지 않으면 국방분야에 생성형 AI를 도입하는 것이 쉽지 않을 것으로 봤다. 최 박사는 "무기 체계가 알고리즘으로 움직여지는 상황에서 사람 통제를 벗어나 (AI를 통해) 자의적으로 움직여질 경우 상대뿐 아니라 우리에게도 그 피해가 발생할 것이란 점이 우려된다"며 "이를 막기 위해 여러 단계의 안전장치를 고려해야 하지 않을까 싶다"고 강조했다. 김 그룹장은 우리나라가 국방 분야에서 AI를 활용하기 위해선 양질의 데이터를 안전하게 확보하는 동시에 클라우드로 전환하는 것이 가장 중요하다고 주장했다. 또 미군이 팔란티어와 손잡고 국방 전 분야를 클라우드로 전환해 활용하는 사례를 들어 우리나라도 클라우드로 점차 전환해 나갈 필요가 있다고 지적했다. 현재 미군은 팔란티어의 SaaS(클라우드 기반 서비스형 SW)를 구독해 매일 시스템을 업데이트 하고 활용하고 있다. 김 그룹장은 "우리 군 역시 JADC2(합동 전 영역 동시통합지휘통제) 등을 추진하며 국방 AI에 대한 구체적인 계획을 가지고 있는 것으로 안다"며 "이를 실행하기 위해선 예산 확보가 필수적으로, 이 문제만 해결되면 우리나라군도 굉장히 빠르게 (미군 수준으로) 따라갈 수 있을 것이라고 생각한다"고 말했다.

2025.03.20 17:13장유미

디노티시아·하이퍼엑셀, AI칩 결합해 최적 추론 시스템 개발

인공지능(AI)·반도체 통합 솔루션 전문기업 디노티시아는 AI 반도체 설계 팹리스 스타트업 하이퍼엑셀과 공동으로 'RAG(검색증강생성) 최적화 AI 추론 시스템' 개발에 나선다고 20일 밝혔다. 이번 협력은 디노티시아의 벡터 데이터 연산 가속기 칩(VDPU)과 하이퍼엑셀의 거대언어모델(LLM) 가속기 칩인 'LLM 프로세싱 유닛(LPU)'을 결합해 하나의 통합 시스템으로 구현하는 방식으로 진행된다. AI 서비스 분야에서 데이터 검색의 중요성이 점차 커지고, 데이터의 모달리티(modality)도 다양해지며 양이 늘어나면서, 더 빠른 데이터 검색이 점점 더 요구되고 있다. 기존 시스템은 소프트웨어에 의존해 데이터를 검색하고, LLM 기반의 GenAI 과정을 별도로 처리해 응답 속도가 느리고 전력 소모가 많았다. 디노티시아는 벡터 데이터베이스 연산 가속기 칩, VDPU를 활용해 AI가 대규모 멀티모달 (Multi-modal) 데이터를 실시간으로 검색·활용할 수 있도록 제공하고, 하이퍼엑셀은 LPU 칩을 통해 AI 모델의 연산 성능을 극대화 한다. 양사는 이 두 칩을 결합해, 검색과 추론을 동시에 처리하는 세계 최초의 RAG 특화 AI 시스템을 완성할 계획이다. 정무경 디노티시아 대표는 “LLM 서비스가 확산되면서 데이터 검색에 대한 요구사항이 급격히 늘어나고 있다”며 “이번 협력을 통해 AI 모델의 추론뿐 아니라 데이터 검색 기능까지 최적화한 새로운 개념의 AI 시스템을 선보이겠다”고 말했다. 김주영 하이퍼엑셀 대표는 “AI 연산의 병목 현상을 해결하고, 성능과 효율성을 동시에 확보하는 것이 AI 반도체의 핵심 과제”라며 “이번 협력을 통해 RAG와 LLM을 최적화한 AI 시스템을 구축함으로써, AI 시스템 운영 방식을 혁신하는 중요한 전환점이 될 것”이라고 말했다.

2025.03.20 10:42장경윤

[현장] 이경일 솔트룩스 대표 "초거대 AI 대신 에이전트로 돌파구 찾아야"

"한국이 초거대 AI 모델 경쟁에서 살아남기 위해서는 소형 모델 최적화와 데이터 활용 전략이 필수적입니다. 단순한 거대 모델 구축이 아니라 에이전트 AI와 같은 차별화된 기술을 통해 비용을 절감하고 성능을 극대화해야 합니다. 당장 이 변화를 준비하지 않으면 글로벌 AI 시장에서 도태될 것입니다." 이경일 솔트룩스 대표는 14일 강남 해성빌딩에서 열린 '한국데이터산업협회(KODIA) 정기총회'에서 '생성형 AI와 데이터 산업의 미래'를 주제로 특별 강연을 진행하며 이같이 말했다. 이날 행사는 국내 데이터 산업의 발전 방향을 모색하고 업계 관계자들이 최신 AI 트렌드를 공유하기 위해 KODIA가 마련했다. 이 대표는 행사에서 거대언어모델(LLM) 중심의 경쟁이 아닌 에이전트 AI를 기반으로 한 차별화 전략이 필요하다는 점을 강조했다. 글로벌 기업들과 정면 승부하기보다는 데이터 활용 최적화와 협업형 AI 모델로 새로운 시장 기회를 모색해야 한다는 주장이다. 지난 2022년 '챗GPT' 출시 이후 AI 산업은 PC·인터넷·스마트폰 시대를 거쳐 또 한 번의 변곡점을 맞았다. 기술 패러다임이 변화할 때마다 기존 강자들이 몰락하거나 새로운 기업들이 부상했는데 생성형 AI는 이 흐름을 이어받아 새로운 혁신을 이끌고 있다. 지난 1980년대 유닉스 기반 기업들의 쇠퇴, 1990년대 인터넷 기업의 등장, 2010년대 스마트폰 혁명이 대표적인 사례다. 현재 생성형 AI는 지난 2022년 이후 급격한 성장세를 보이며 또 하나의 기술 혁신 시점을 맞고 있다. 이 대표는 "단순히 오픈AI '챗GPT' 같은 거대 모델을 구축하는 방식은 비용과 인프라 측면에서 한계가 크기 때문에 국내 기업들은 소형 모델 최적화 및 데이터 기반 전략으로 경쟁력을 확보해야 한다"고 주장했다. 이어 "트랜스포머(Transformer) 모델의 발전과 초거대 모델의 등장으로 AI 성능이 폭발적으로 증가하고 있지만 그에 따른 문제점도 함께 발생하고 있다"고 지적했다. 그는 ▲환각(Hallucination) ▲최신 정보 부족 ▲보안 문제를 생성형 AI의 주요 한계점으로 꼽았다. 생성형 AI가 확률 통계적으로 답변을 생성하는 방식 때문에 존재하지 않는 사실을 말하는 문제가 빈번히 발생하며 이는 AI 신뢰성을 저하시킨다. 이를 해결하기 위해 검색증강생성(RAG)이 기본적으로 적용되고 있으며 솔트룩스도 이를 기반으로 한 에이전트 AI 개발에 집중하고 있다고 밝혔다. 이 대표는 국내에서 초거대 모델을 구축하기에는 비용과 인프라 측면에서 현실적인 한계가 있다며 대안으로 ▲믹스오브엑스퍼드(MoE) ▲지식 증류(Knowledge Distillation) ▲양자화(Quantization) 등의 기술을 활용한 비용 절감 및 성능 최적화 전략이 필요하다는 점을 강조했다. MoE는 거대 모델 하나에 모든 기능을 몰아넣기보다 여러 개의 소형 특화 모델을 협업하게 만드는 방식이다. 이를 통해 비용을 절감하면서도 고성능 AI 서비스를 제공할 수 있다. 지식 증류는 이미 학습된 대형 모델에서 중요한 지식만을 추출해 더 작은 모델에 적용하는 기술로, 연산량을 줄이면서도 학습된 정보의 핵심을 유지할 수 있는 방식이다. 이를 통해 경량 모델이 대형 모델 수준의 성능을 갖추도록 만들 수 있다. 양자화는 AI 모델이 사용하는 수치 연산을 더 작은 비트(bit)로 변환해 메모리 사용량을 줄이고 연산 속도를 향상시키는 기법이다. AI 시스템의 전력 소모를 줄이는 동시에 제한된 컴퓨팅 자원에서도 보다 효율적인 추론이 가능해진다. 에이전트 AI가 차세대 기술로 부상하는 이유에 대해 그는 "단순 질의응답이 아닌 다단계 추론과 문제 해결이 가능한 AI가 필요하기 때문"이라고 설명했다. 기존 LLM 기반 서비스가 사용자의 질문에 바로 답하는 방식이었다면 에이전트 AI는 검색·추론·결정 과정을 거쳐 최적의 솔루션을 제공하는 구조다. 이에 따라 마이크로소프트(MS), 구글, 오픈소스 커뮤니티 등이 에이전트 AI 개발을 가속화하고 있다. 솔트룩스 역시 '구버(Guber)'라는 에이전트 AI 서비스를 개발하고 있다. 이 대표에 따르면 '구버'는 사용자의 질문을 받아 분석한 후 검색증강생성(RAG)과 다단계 추론을 거쳐 최적의 답변을 제공하는 시스템으로, 회사는 이를 챗봇을 넘어 전문적인 데이터 활용이 가능한 AI로 발전시킬 계획을 세우고 있다. AI 생태계에서 데이터의 중요성도 강조됐다. 이 대표는 "AI는 결국 데이터 산업"이라며 "모델은 알고리즘을 통과한 숫자 데이터 덩어리일 뿐으로, 이는 결국 데이터가 곧 AI 경쟁력을 좌우함을 의미한다"고 강조했다. 행사를 마치며 그는 한국 AI 산업이 글로벌 시장에서 생존하기 위한 조건으로 ▲GPU 인프라 확충 ▲도메인 특화 AI 사례 확보 ▲공공 부문 AI 국산화 가속화 ▲글로벌 AI 스타트업 지원 ▲AI 투자 환경 개선 등을 제안했다. 이 대표는 "AI 산업이 변화하는 속도가 매우 빠르다"며 "신속히 에이전트 AI 기반 서비스 및 데이터 최적화 전략을 도입하지 않으면 글로벌 경쟁에서 뒤처질 것"이라고 말했다.

2025.03.14 16:55조이환

KETI, 'AW 2025'서 LLM·모방학습 이용한 조립공정 자동화 기술 공개

한국전자기술연구원(KETI·원장 신희동)이 12일 서울 코엑스에서 개최한 '2025 스마트공장·자동화산업전(AW 2025)'에서 '거대언어모델(LLM) 및 모방학습을 이용한 조립 공정 자동화 기술' 등 총 13개의 로봇·인공지능(AI) 기술을 선보였다. KETI 지능로보틱스연구센터가 선보인 'LLM 및 모방학습을 이용한 조립 공정 자동화 기술'은 별도 작업 지시나 프로그래밍 없이 사용자가 자연어 형태로 입력하면 직관적으로 로봇을 제어할 수 있도록 구현했다. 이 기술은 모방학습을 활용해 복잡한 공정을 자동화할 수 있다. 또 LLM을 통해 다양한 형태의 사용자 명령에도 유연하게 대응할 수 있다. KETI 관계자는 “모방학습 네트워크는 사용자 시연을 통해 학습 데이터를 획득하고 로봇의 위치 정보와 3개의 카메라 정보를 활용해 학습을 수행했고 LLM은 사용자의 자연어 명령을 모방학습 네트워크가 이해할 수 있는 형태로 변환해 직관적인 로봇 제어를 구현한다”고 설명했다. 이번 연구는 산업통상자원부와 한국산업기술기획평가원(KEIT)이 지원하는 로봇산업기술개발 사업의 '고난도 조립작업 교시 및 작업상태 인지 기반 자율작업 계획 솔루션 개발' 과제를 통해 추진됐다. 한편, KETI는 'AW 2025' 컨퍼런스인 'AI‧로봇이 열어가는 자율제조 혁신포럼'을 개최, 자율제조의 핵심 기술인 AI·지능형 로봇·로봇AI 기반 자동화·디지털 트윈 등의 최신 연구와 산업 동향을 공유하고, 제조업의 혁신 방향을 모색한다. 행사에는 국내 로봇산업 주요 산학연 전문가들이 참여해 실제 제조업에서 적용된 로봇 기반 자율제조 사례와 성과를 분석하고, 도입 과정에서의 문제점과 해결 방안을 논의할 계획이다. 임태범 KETI 지능정보연구본부장은 “이번 포럼은 산업계·학계·연구기관 사이 로봇 기술 협력과 확산을 촉진하는 계기가 됐다”며 “로봇 기반 자율제조가 국내 제조업의 글로벌 경쟁력 강화를 위한 핵심 전략이 될 수 있도록 적극 지원하겠다”고 밝혔다. 포럼은 산업부와 한국산업기술진흥원(KIAT)이 지원하는 로봇산업기술개발 사업의 '빅데이터 활용 마이스터 로봇화 기반 구축' 과제와 '협업지능 기반 로봇플러스 경쟁력 지원 사업' 과제를 통해 진행했다.

2025.03.12 17:48주문정

"연내 韓 특화 LLM 출시"…'오픈AI 대항마' 코히어가 찍은 LG CNS, 글로벌 사업 날개

"코히어와 LG CNS의 파트너십을 발표하게 돼 매우 기쁩니다. LG CNS와 함께 한국 기업들이 우리 기술이 적용된 인공지능(AI) 에이전트를 업무에 도입할 수 있게 열심히 돕겠습니다" '오픈AI 대항마'로 여겨지는 캐나다 AI 스타트업 코히어를 설립한 에이단 고메즈 최고경영자(CEO)가 한국 사업 확장을 위한 파트너로 LG CNS를 택했다. LG CNS이 그동안 '인공지능 전환(AX)' 전문기업으로서 경쟁력을 높여왔던 데다 수년간 노하우를 축적해 기업 고객들에게 최적의 기술을 제공하며 신뢰를 쌓아왔던 만큼 코히어의 한국 사업에 보탬이 될 것으로 여겨서다. 9일 업계에 따르면 고메즈 CEO는 지난 6일 서울 서초구 양재동 엘타워에서 진행된 LG CNS AX(AI 전환) 세미나에 연사로 참석한 후 국내 에이전틱(Agentic) AI 시장 선점을 위한 파트너십을 체결했다. 코히어가 국내 기업과 AX 파트너십을 맺은 것은 이번이 최초다. 고메즈 CEO는 "한국에선 LG CNS 외에 파트너십을 맺는 기업이 없을 것"이라며 "앞으로 LG CNS와 원팀으로 계속 협업을 이어가며 한국 특화 거대언어모델(LLM)을 만들 뿐 아니라 풀스택을 갖추고 있는 만큼 고객에게 맞는 최적화 된 모델을 선보일 것"이라고 강조했다. 코히어는 2019년 구글 출신 AI 연구원들이 설립한 캐나다 기반 AI 유니콘 기업이다. 창업자 고메즈 CEO는 LLM의 근간이 된 트랜스포머 논문의 공동저자이자 'AI의 대부'로 불리는 제프리 힌턴의 제자다. 코히어의 에이전트 디렉터인 패트릭 루이스는 LLM 적용에 핵심 기능인 검색증강생성(RAG)을 최초로 제시한 인물이다. 코히어는 기업을 위해 구축한 데이터 보안 기반의 AI 모델과 솔루션을 보유하고 있다. 이에 시장에선 오픈AI, 앤트로픽 만큼 큰 주목을 받고 있다. 엔비디아를 비롯해 세일즈포스, AMD, 시스코, 일본 후지쯔 등 글로벌 기업들로부터 자금을 지원 받고 있는 상태로, 현재 조달한 자금은 총 9억7천만 달러(약 1조3천468억원)인 것으로 알려졌다. 이곳의 기업 가치는 55억 달러(약 8조원)에 이른다. 또 코히어는 자체 LLM과 에이전틱 AI 솔루션을 기반으로 금융, 제조, 공공, 헬스케어, 에너지 등 다양한 산업 영역에서 AX 사업을 진행하고 있다. 이에 캐나다 최대은행 RBC(Royal Bank of Canada), 일본 후지쯔, 사우디아라비아 STC 그룹과도 AX 협력을 체결했다. 진요한 LG CNS AI센터장은 "글로벌 톱 AI 기업인 코히어와 국내 최초이자 독점적 파트너십을 체결하게 돼 뜻깊다"며 "국내에서 본격적인 에이전틱 AI가 시작되지 않은 시점에서 우리가 코히어와 함께 시장을 선도해 나갈 것"이라고 밝혔다. 코히어는 LG CNS와 함께 올해 안에 한국 특화 LLM을 선보일 뿐 아니라 한국 기업 맞춤형 에이전틱 AI 서비스 공동 개발에도 나선다. 최근 업계 화두인 에이전틱 AI는 단순히 질문에 답변하고 보고서를 생성해주는 AI를 넘어 목표를 달성하기 위해 자율적으로 계획, 실행, 평가를 반복하며 스스로 판단하고 복잡한 문제를 해결하는 기술이다. 예를 들어 기존의 금융 기업 AI 챗봇은 보험 상품 추천 관련 요청을 받았을 때 학습된 데이터를 바탕으로 질문에 대한 답변을 요약·생성한다. 반면 에이전틱 AI는 한 단계 나아가 인터넷에서 추가 정보를 검색하거나, 해당 상품을 가장 잘 설명해줄 수 있는 담당자와 미팅 가능한 시간을 탐색해 예약까지 해줄 수 있다. 에이전틱 AI는 보다 근본적이고 자율적인 문제 해결이 가능하다. 업계에선 양사가 성능, 효율, 보안, 비용 요소를 모두 충족하는 AI 서비스를 제공해야 하는 기업 대상의 AI 사업에 집중하고 있다는 공통점에 주목해 이번 협업의 성과를 기대하고 있다. 특히 LG CNS는 코히어의 에이전틱 AI 솔루션 '노스(North)'를 국내에서 가장 먼저 커스터마이징해 기업 맞춤형 에이전틱 AI 서비스를 구축하고 온프레미스(구축형) 방식으로 안전하게 제공할 예정이다. 노스에는 인사관리, 재무, 고객지원 등 기업의 핵심 업무를 담당하는 AI 에이전트와 다양한 LLM이 탑재돼 있어 기업이 필요로 하는 에이전틱 AI 서비스를 손쉽게 만들 수 있다. '노스'는 지난 1월 출시됐다. 또 LG CNS는 이번 파트너십을 통해 코히어의 LLM을 파인튜닝해 한국어·금융 특화 에이전트 모델을 공동으로 개발하고 노스에 탑재할 계획이다. 이를 위해 LG CNS는 축적된 금융 분야 전문 지식과 데이터를 이 모델에 학습시킬 예정이다. 이 모델은 ▲산업별·업무별 최적화 ▲빠른 처리 속도 ▲우수한 보안성 ▲비용 효율성 등의 장점을 갖추고 있어 에이전틱 AI 서비스에 효과적으로 적용될 수 있다. 양사는 금융 분야 AX 시장 공략을 시작으로 제조, 유통·서비스 등으로 산업 영역을 확장하고 향후 글로벌 에이전틱 AI 시장 진출도 모색할 계획이다. 고메즈 CEO는 "LG CNS는 (코히어와 파트너십을 맺고 있는) 오라클과 또 다르게 (여러 기업들의) 대규모 솔루션을 기반으로 고객에게 최적화된 에이전틱 AI를 구축해 배포하고, 이 사업을 더 키우려는 의지를 강하게 갖고 있다"며 "오라클은 자신들이 가진 소프트웨어에 맞춰 (AI) 기능을 활용하려는 느낌이 있다는 점에서 차별화된 것 같다"고 설명했다. 그러면서 "국내 대표 AX 기업 LG CNS와 함께할 앞으로의 여정이 기대가 된다"며 "한국 금융 기업을 시작으로 여러 산업 영역의 기업에게 꼭 필요한 에이전틱 AI 서비스를 LG CNS와 함께 제공해 나가겠다"고 밝혔다.

2025.03.10 10:02장유미

[현장] 엔비디아가 찍은 'AI 천재' 에이단 고메즈 코히어 CEO, 韓 찾아 금융시장에 '러브콜'

"금융 서비스와 의료, 공공 부문과 같은 산업을 중심으로 한국에서도 성과를 낼 수 있었으면 합니다." 캐나다 인공지능(AI) 스타트업 코히어 창업자 에이단 고메즈 최고경영자(CEO)가 한국 시장 공략에 대한 의지를 드러냈다. 오픈AI, 구글 등 미국 빅테크들과 달리 기업 시장을 주로 공략하며 수익 효율화에 나선 코히어가 향후 어떤 전략으로 국내 고객 확보에 나설 지 주목된다. 고메즈 CEO는 6일 서울 서초구 양재동 엘타워에서 진행된 LG CNS AX(AI 전환) 세미나에 연사로 참석해 "우리 고객들은 글로벌 경제의 주요 부문에서 자사 솔루션을 활용하고 있다"며 "금융, 의료, 제조, 에너지, 정부, 통신 등 모든 산업이 우리의 주력 분야"라고 강조했다. 코히어는 지난 2019년 구글 전 연구원 출신인 에이단 고메즈, 닉 프로스트와 캐나다 기업가인 이반 장이 설립한 곳으로, 오픈AI, 앤트로픽 등을 경쟁사로 두고 있다. 엔비디아를 비롯해 세일즈포스, AMD, 시스코, 일본 후지쯔 등 글로벌 기업들로부터 자금을 지원 받고 있는 상태로, 현재 조달한 자금은 총 9억7천만 달러(약 1조3천468억원)인 것으로 알려졌다. 이곳의 기업 가치는 55억 달러(약 8조원)에 이른다. IT 전문 매체 디인포메이션에 따르면 코히어의 지난해 3월 기준 연 매출은 3천500만 달러로, 오픈AI에는 한참 못미치고 있다. 오픈AI의 매출은 지난해 40억 달러, 오는 2029년에는 1천억 달러에 이를 것으로 예상됐다. 경쟁사인 앤트로픽과 비교해도 지난해 매출이 최소 5배 이상 앞선 것으로 분석됐다. 이 같은 상황 속에 코히어는 올해부터 글로벌 사업 확장을 통해 매출 확대를 추진하는 분위기다. 이를 위해 국내에서도 LG CNS와 향후 협업을 추진할 계획이다. 올해 1월에는 기업 고객을 집중 공략하기 위해 AI 워크스페이스 플랫폼 '노스'도 출시했다. '노스'는 기업이 '커맨드(Command)' 모델 시리즈와 상호작용할 수 있는 챗봇 인터페이스를 제공한다. 이 도구를 통해 직원들은 수익 보고서를 분석하거나 문서를 찾는 등 비즈니스 작업을 수행할 수 있다. 특히 텍스트뿐 아니라 그래프와 같은 데이터도 출력할 수 있다는 점이 장점이다. 고메즈 CEO는 '에이전트 AI, 비즈니스의 새로운 동력'이라는 주제를 앞세워 진행된 이날 세미나에서 '노스'를 직접 소개하며 한국 기업을 고객사로 확보하기 위해 노력했다. 이번 세미나에는 LG CNS 임직원들과 고객사 220여 명이 참석해 코히어의 제품과 향후 전략에 대해 높은 관심을 보였다. 고메즈 CEO는 "5년 반 전 창업해 현재 엔터프라이즈에 초점을 맞춘 선도적인 글로벌 대규모 언어 모델(LLM) 기업 AI 회사로 성장했다"며 "강력한 기관 투자자들과 전략적 비즈니스 파트너들의 지원을 받고 있는 상태로, 미국 오라클, 캐나다 RBC, 일본 후지쯔, 사우디아라비아 STC 등 전 세계 유슈의 기업들과 협력하고 있다"고 운을 띄웠다. 이어 "우리의 사명은 일상적인 업무를 사람이 아닌 기계에 맡겨 비즈니스 생산성과 효율성을 높이는 것"이라며 "이에 맞춰 두 가지 최첨단 (AI) 기본 모델을 구축하고 있는 상태로, 최근 선보인 '에이전틱 AI' 플랫폼 (노스)도 주력으로 내세우고 있다"고 소개했다. 그러면서 "(자사) 기업 중심의 AI 솔루션은 매우 정확하고 다국어를 지원하며 특정 비즈니스 요구사항에 맞게 맞춤화할 수 있다는 것이 장점"이라며 "특히 데이터 보안과 데이터 프라이버시를 최우선으로 생각하고 있고 클라우드부터 온프레미스에 이르기까지 매우 유연하게 배포할 수 있다는 것도 강점"이라고 덧붙였다. 코히어는 이날 첫 번째 비전언어모델(VLM)인 '아야 비전'도 오픈 소스로 출시해 주목 받았다. 이 모델은 다국어 텍스트 생성과 이미지 이해 관련 벤치마크에서 최상위 성능을 기록했으며 8B와 32B 두 가지 버전으로 제공된다. 지원 언어는 한국어를 포함해 총 23개로, 현재 출시된 오픈소스 멀티모달 AI 모델 중 가장 많다. 고메즈 CEO는 "AI 기술은 단순한 채팅 봇을 넘어 복잡한 작업을 실제로 자동화할 수 있는 시스템으로 발전하고 있다"며 "우리는 이러한 기술이 모든 중요한 데이터와 시스템에 안전하게 액세스해 업무의 품질과 속도를 개선할 수 있도록 하는 데 중점을 두고 있다"고 밝혔다. 이어 "'노스'를 포함해 고객들의 비즈니스 운영을 간소화하고 작업자의 생산성 높이는 데 도움이 되는 새로운 기능을 꾸준히 제공할 것"이라며 "보안, 개인정보 보호에 대한 해결책을 갖고 있는 자사의 솔루션을 통해 (한국 기업들도) 반복적인 업무를 자동화하는 맞춤형 AI 에이전트를 빠르게 구축할 수 있을 것"이라고 덧붙였다.

2025.03.06 15:34장유미

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 파운드리 '2세대 2나노' 공정 본격화...외부 고객사 확보 첫 발

美, 25% 관세 적용 자동차 부품 확대…韓 기업 타격 전망

라인프렌즈에서 ‘케이팝스퀘어’로…홍대 새로운 K팝 성지 가보니

퍼플렉시티 "검색이 아니라 답 만든다"…AI로 정보접근 대혁신

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.