• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (235건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"지포스 RTX와 쿠다로 무장"…엔비디아 'LM 스튜디오' 성능 폭발

엔비디아가 지포스 그래픽처리장치(GPU)와 쿠다를 기반으로 자체 로컬 거대언어모델(LLM) 실행 도구의 성능을 대폭 강화했다. 로딩·응답 속도 향상과 더불어 개발자 제어 기능을 확장해 로컬 AI 활용 생태계를 본격적으로 견인하는 전략이다. 엔비디아는 최근 'LM 스튜디오' 0.3.15 버전을 발표했다고 12일 밝혔다. 이번 버전은 지포스 '레이 트레이싱 익스피리언스(RTX)' GPU 환경에서 성능을 최대 27%까지 끌어올릴 수 있게 '쿠다' 그래프와 플래시 어텐션 최적화를 적용했다. 지포스 'RTX 20' 시리즈부터 최신 블랙웰 GPU까지 폭넓은 하드웨어 호환성도 확보했다. 'LM 스튜디오'는 고성능 추론과 데이터 보안을 동시에 확보할 수 있는 로컬 LLM 실행 도구다. '라마.cpp(llama.cpp)' 기반 런타임을 바탕으로 오프라인에서도 모델 실행이 가능하고 오픈AI 응용 프로그램 인터페이스(API) 호환 엔드포인트로도 작동해 맞춤형 워크플로우에 쉽게 통합된다. 새 버전은 '툴_초이스(tool_choice)' 패러미터를 도입해 도구 호출 방식에 대한 세밀한 제어를 제공한다. 외부 도구 연동 여부를 개발자가 지정하거나 모델이 동적으로 결정하게 할 수 있어 검색 증강 생성(RAG), 에이전트 파이프라인 등에 최적화된 구조를 제공한다. 시스템 프롬프트 편집기도 새롭게 설계돼 복잡하거나 장문 프롬프트에 대한 대응력이 향상됐다. 프리셋 기반의 다양한 모델과 양자화 방식도 지원되며 '젬마', '라마3', '미스트랄', '오르카' 등 주요 오픈소스 모델이 모두 포함됐다. 이같은 구조는 '옵시디언'과 같은 노트 기반 앱에 플러그인 형태로 연결돼 텍스트 생성, 연구 요약, 노트 검색을 클라우드 없이 수행할 수 있게 한다. 이 모든 과정은 'LM 스튜디오' 내의 로컬 서버를 통해 이뤄져 빠르고 프라이버시 중심의 상호작용이 가능하다. 성능 개선의 핵심은 '라마.cpp' 백엔드에 적용된 쿠다 그래프와 플래시 어텐션이다. 쿠다 그래프는 컴퓨팅처리장치(CPU) 호출 횟수를 줄여 모델 처리량을 최대 35%까지 높였다. 플래시 어텐션은 메모리 부담 없이 긴 컨텍스트 대응 능력을 강화하며 최대 15% 속도 향상을 이끌었다. RTX GPU 사용자라면 별도 설정 없이도 '쿠다 12.8' 기반의 성능 향상을 경험할 수 있다. 드라이버 호환 시 자동 업그레이드가 적용되며 얇은 노트북부터 고성능 워크스테이션까지 전 범위 RTX 인공지능(AI) PC에서 효율적인 추론이 가능하다. 'LM 스튜디오'는 윈도우, 맥OS, 리눅스에서 모두 실행 가능하며 무료로 다운로드해 사용할 수 있다. 데스크톱 채팅, 오픈AI API 개발자 모드 등 다양한 인터페이스도 제공된다. 엔비디아 측은 "'LM 스튜디오' 최신 업데이트는 RTX AI PC에서 최고의 성능과 유연성을 제공한다"며 "로컬 LLM 도입 장벽을 낮추고 사용자의 AI 실험과 배포를 적극 지원할 것"이라고 밝혔다.

2025.05.12 15:33조이환

하이퍼엑셀, 국산 AI 반도체 기반 K-클라우드 기술개발 국책과제 수주

LLM 특화 AI 반도체 스타트업 하이퍼엑셀은 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 450억원 규모의 'AI반도체를 활용한 K-클라우드 기술개발사업' 국책과제를 수주했다고 8일 밝혔다. 이번 과제는 국산 AI 반도체 기반 데이터센터 학습 및 추론 시스템 통합 및 검증을 목표로 하며 2030년 12월까지 진행될 예정이다. 하이퍼엑셀이 주관하는 이번 과제에는 리벨리온, 파네시아, 망고부스트, 래블업, 스퀴즈비츠 등 국내 유명 AI 반도체 및 AI 솔루션 기업들과 한국과학기술원(KAIST), 서울대학교 등 국내 유수 대학이 참여하여 최고의 전문성과 기술력을 보유한 AI 인프라 '드림팀'으로 인정받았다. 특히, 국내 최대 데이터센터 운영사이자 AI 반도체 수요처인 네이버클라우드가 직접 과제에 참여하여 기술 개발 이후 사업화 성공 가능성까지 확보했다. 특히, 국내 최대 데이터센터 운영사인 네이버클라우드가 직접 해당 기술의 실증에 적극 참여함으로써 국내 NPU 기술 산업 생태계 확산에 기여한다고 밝혔다. 이동수 네이버클라우드 전무는 “국내 소버린AI 생태계 구축에 있어서 금번 과제가 갖는 의미에 공감하고, 네이버클라우드가 가진 AI 밸류체인 전 영역에 걸친 경험과 역량을 바탕으로 금번 과제의 성공에 적극적으로 기여하고자 참여를 결정했다”고 말했다. 하이퍼엑셀은 이번 과제를 통해 대한민국의 독자적인 AI 반도체 기술 역량을 확보하고, 국산 AI 반도체 기반의 데이터센터 인프라를 구축하여 외산 AI 반도체의 의존성을 줄이고 글로벌 시장에서 경쟁력을 강화할 계획이다. 특히 추론에 최적화한 저전력 고효율 AI 반도체인 LPU(LLM Processing Unit)를 삼성전자 4나노미터 공정을 통해 개발 중이며, 데이터센터의 성능 향상 및 비용 절감 등 운영 효율성을 극대화하는 것을 목표로 하고 있다. 김주영 하이퍼엑셀 대표는 "이번 과제를 통해 국내 최고의 AI 반도체 및 AI 기업들과 함께 시너지를 낼 수 있게 되어 매우 기쁘다"며 "연구개발부터 사업화까지 참여기관들과 협업을 통해 국내 기술 역량을 총결집하여 글로벌 시장에서도 K-클라우드의 경쟁력을 인정받고 현재 정부 주도로 추진 중인 국가 AI컴퓨팅센터 구축에도 기여할 수 있을 것”이라고 말했다.

2025.05.09 14:35장경윤

LG AI연구원, '마곡 집결'로 재정비…AI R&D 시너지 '승부수'

LG AI연구원이 인공지능(AI) 기술 경쟁력 강화를 위한 조직 재편에 나섰다. 핵심 연구진을 한데 모아 연구개발 역량을 끌어올리려는 전략이다. LG AI연구원은 최근 본사를 서울 여의도에서 마곡 디앤오 사옥으로 이전했다고 9일 밝혔다. 본사는 3층부터 7층까지 5개 층 규모로 조성됐으며 기존 여의도와 마곡에 분산돼 근무하던 연구원 300여 명이 한 곳으로 통합됐다. 이번 이전을 통해 연구원은 공간 설계에 집중해 약 50개의 다양한 회의실을 마련했다. 자유로운 협업을 유도하고 창의적인 아이디어 발현을 유도하려는 목적이다. LG AI연구원은 지난 2020년 12월 출범 이후 그룹 차원의 전폭적인 지원을 바탕으로 LG의 AI 전환 전략을 이끄는 핵심 조직으로 성장했다. 특히 자체 초거대 AI 모델 '엑사원' 시리즈를 통해 기술 고도화를 이어왔다. 지난해 12월 공개된 '엑사원 3.5'에 이어 지난 3월에는 국내 최초 추론형 AI '엑사원 딥'도 선보였다. 계열사 제품과 서비스에 실제 적용되며 그룹 전반의 AI 내재화에 기여하고 있다. 대표 사례로는 LG전자의 AI 노트북 '그램'과 LG유플러스의 통화 에이전트 '익시오'에 엑사원 기술이 탑재됐다. 기업용 AI 에이전트 '챗엑사원'은 현재 LG 사무직 임직원의 절반 수준인 4만 명 이상이 활용 중이다. AI 인재 양성을 위한 교육도 병행되고 있다. AI 리터러시 교육부터 석·박사 과정 운영까지 전주기 체계를 구축했으며 지난 4년간 1만5천 명 이상의 임직원이 참여했다. 기술력 확보 성과도 가시적이다. LG AI연구원은 국제인공지능학회(AAAI), 국제컴퓨터언어학회(ACL), 국제 컴퓨터 비전 및 패턴 인식 학술대회(CVPR) 등 글로벌 최상위 학회에 234건의 논문을 발표했으며 국내외 특허 출원도 총 228건에 달한다. 연구원은 온디바이스 AI 성능 고도화에도 집중하고 있다. 외부 서버 연결 없이 기기 내 데이터 처리를 가능케 해 보안성과 개인정보 보호 측면에서 경쟁력을 강화하려는 전략이다. 향후 계획으로는 '에이전틱 AI' 구현을 목표로 하고 있다. 계열사 업무 효율화, 생산성 제고, 나아가 신소재와 신약 개발 영역까지 AI 적용을 확장한다는 구상이다. LG AI연구원 관계자는 "엑사원을 중심으로 산업 현장과 제품, 서비스까지 AI를 연결하는 전략을 차근차근 실현해나가고 있다"며 "기술력과 협업 역량 모두에서 세계적 수준을 목표로 하고 있다"고 밝혔다.

2025.05.09 10:38조이환

파네시아, CXL 개발자 컨퍼런스서 'CXL 3.x' 스위치 솔루션 공개

국내 팹리스 스타트업 파네시아는 올해 국내 기업으로서 유일하게 CXL 개발자 컨퍼런스(CXL DevCon)에 참가해 고출력(high fan-out) CXL 3.x 스위치 기반 프레임워크를 선보였다고 7일 밝혔다. CXL DevCon은 CXL 표준을 제정하는 CXL 컨소시엄에서 주관하는 공식행사로서, 올해 2회차를 맞았다. 지난달 29일, 30일 양일간 미국 캘리포니아주 산타 클라라에서 진행됐다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. PCIe(PCI 익스프레스)를 기반으로 다수의 장치를 하나의 인터페이스로 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 파네시아는 올해 국내 기업으로서는 유일하게 전시 기업으로 참여해 대표 제품인 고출력 CXL 3.x 스위치와 이를 기반으로 한 프레임워크를 선보였다. 파네시아가 선보인 고출력 CXL 3.x 스위치는 서로 다른 CXL 장치들을 캐시 일관성이 보장된 하나의 시스템으로 통합하는 가교 역할을 한다. 파네시아가 자체 개발한 저지연 CXL IP를 기반으로 개발된 데에 더해, 한꺼번에 더 많은 장치를 연결할 수 있는 고출력 SoC 구조를 가짐으로 시스템의 평균적인 홉 수를 줄여 지연시간을 최소화한다. 또한 파네시아의 스위치는 여러 대의 스위치를 다수의 계층으로 연결하는 멀티-레벨 스위칭(multi-level switching) 기능, 그리고 각 장치가 장착되는 물리적 위치인 '포트'를 기준으로 장치 간의 논리적인 연결 구조와 연결 경로를 유연하게 설정하는 포트-기반 라우팅(port-based routing, PBR) 기능을 모두 지원한다. 뿐만 아니라 CPU, GPU, 메모리 등 모든 종류의 시스템 장치에 대한 연결을 지원하기 때문에, 수많은 시스템 장치들을 다양한 형태와 조합으로 연결해 고객의 요구에 맞는 대규모 시스템을 구축하는 데 용이하다. 파네시아는 이번 전시회에서 CXL 3.x 스위치를 활용해 CXL 서버 노드를 여러 개 연결해 구축한 'CXL Composable Server'도 출품했다. 각 서버 노드에는 파네시아의 또 다른 제품인 CXL IP를 활용해 개발한 CPU, GPU, 메모리 장치 등이 종류별로 장착돼 있다. 덕분에 고객들은 그때그때 필요한 장치가 장착된 노드를 추가로 장착해 수요에 알맞은 형태로 시스템을 구축할 수 있다. 파네시아는 해당 프레임워크를 기반으로 검색증강생성(RAG), 대규모언어모델(LLM) 등의 AI 응용 및 과학 시뮬레이션을 가속하는 데모를 시연하며, 행사에 참석한 CXL 전문기업들로부터 많은 주목을 받았다. 파네시아 관계자는 “CXL 3.x 스위치 기술을 다룬 발표와 출품은 파네시아가 유일했다”며 “CXL 컨소시엄의 리더들에게도 CXL 3.x 스위치는 새로운 기술이기에, 이번 파네시아의 출품작과 발표에 많은 관심을 보인 것 같다”고 말했다.

2025.05.07 14:56장경윤

[AI는 지금] 美·中선 추론이 대세인데…전 세계 세 번째 LLM 개발국 韓 현 주소는?

인공지능(AI) 시장 경쟁이 추론 모델로 옮겨진 가운데 우리나라의 경쟁력이 갈수록 뒤처지고 있다는 평가가 나왔다. 전 세계에서 세 번째로 거대언어모델(LLM)을 개발하고도 여야 정쟁 속에 제대로 된 정부 지원과 기업들의 노력이 뒷받침되지 않으면서 시장 내 주도권을 잃어가고 있다는 평가다. 5일 업계에 따르면 현재 우리나라에서 추론 특화 AI 개발에 성공한 곳은 LG AI연구원이 거의 유일하다. 지난 2월 공개한 '엑사원 딥'은 국내 첫 추론형 AI 모델로, 주어진 데이터를 기반으로 확률이 높은 답을 내놓는 생성형 AI와 달리 스스로 정보를 조합하고 분석한다는 점에서 한층 고도화된 AI로 평가받는다. 최고 모델인 '엑사원 딥' 32B의 파라미터(매개변수)는 중국 AI 스타트업 딥시크의 'R1' 671B 모델의 5% 수준이었음에도 수학과 같은 일부 분야 테스트에서 R1을 앞서는 등 효율적인 모델이란 점도 입증해 업계의 주목을 받았다. 경량 모델 '엑사원 딥' 7.8B는 비슷한 크기의 오픈AI의 'o1 미니'보다 우수한 성적을 기록하기도 했다. 하지만 '엑사원'은 LG 내부에서만 사용할 수 있다는 점에서 범용성에 한계가 있다. 이를 상업 목적으로 이용하기 위해서는 LG AI 연구원의 허락을 받아야 하거나 한컴, 폴라리스 등 일부 업체들처럼 유료 계약을 맺어야 한다. 또 모델 공개를 위해선 출자를 통해 개발에 기여한 계열사들간 논의도 필요한 상황이다. 이에 '엑사원 딥'은 우수한 성능을 가지고 있음에도 중국 딥시크가 가진 모델처럼 빠르게 확산되지는 못하고 있다. 지난 2021년 세계에서 세 번째로 LLM '하이퍼클로바X'를 공개했던 네이버는 여전히 추론 모델을 내놓지 못하고 있다. 지난 달 23일 기자간담회를 통해 올 상반기 안에 신규 추론 모델을 선보일 것이라고 공언했으나, 국내외 경쟁사들이 기술 개발에 속도를 내며 이미 공개한 것에 비하면 대응이 상당히 저조한 편이다. 이 외에 업스테이지 등 다른 국내 기업들도 조만간 추론 모델을 선보일 것이란 계획을 세워둔 상태다. 반면 미국, 중국 기업들은 이미 한 발 앞서 추론 모델을 공개해 경쟁에 불을 지폈다. '챗GPT' 개발사인 미국 오픈AI는 최근 이용자 질문에 추론하는 것을 넘어 이미지를 보고 생각할 수 있는 새로운 추론 모델 'o3'와 소형 모델인 'o4 미니'까지 출시했다. 이는 지난 해 9월 출시된 오픈AI의 첫 번째 추론 모델 'o1'의 후속 모델이다. 'o3'는 이미 지능지수(IQ)가 130을 돌파했다는 주장까지 나오면서 경쟁력도 인정 받은 분위기다. AI 모델들의 IQ 시험 결과를 공개하는 트래킹에이아이닷컴은 최근 오픈AI 'o3'가 멘사 노르웨이 IQ 시험을 본 결과 IQ 132를 기록했다고 밝혔다. 이 시험은 온라인에서 비공식적으로 IQ를 측정하는 방법으로 주로 시각적 패턴 인식 능력을 평가한다. 이 시험에서 구글의 '제미나이 2.5 프로 익스페리멘털'도 IQ가 127을 기록하며 선전했다. 지난 3월 출시된 '제미나이 2.5 프로'도 추론 모델로, 구글은 이 모델이 AI 성능 평가 벤치마크인 LM아레나에서 오픈AI 모델을 상당한 격차로 제치고 1위에 올랐다고 강조한 바 있다. 또 지난 달에는 '구글 클라우드 넥스트 2025' 행사를 통해 전작 대비 응답지연 시간과 연산비용을 절약한 '제미나이 2.5 플래시'도 공개하며 시장 주도권 잡기에 혈안된 모습을 보였다. 순다르 피차이 구글 최고경영자(CEO)는 "제미나이 2.5 플래시를 사용하면 모델 추론의 정도를 제어하고 예산과 성능의 균형을 맞출 수 있다"고 설명했다. 미국 앤트로픽이 올해 2월 내놓은 추론 모델 '클로드 3.7 소네트 확장형'도 업계에서 주목 받는 모델이다. 이 모델을 통해 사용자는 기존의 LLM을 활용했을 때처럼 즉각적인 응답을 받을 수도 있고 AI가 보다 깊이 사고하도록 추론을 하게 명령할 수도 있다. 이 모델은 '소프트웨어 엔지니어링(Bench SWE)' 벤치마크 테스트에서 62.3% 정확도를 기록해 오픈AI의 'o3-미니'보다 높은 성능을 보였다. '딥시크 쇼크'로 전 세계 AI 업계를 놀래켰던 중국에서도 최근 추론 모델 공개가 한창이다. 딥시크가 올해 1월 추론용 AI 모델 'R1'을 공개한 후 알리바바 그룹이 하이브리드 추론 기능을 도입한 플래그십 AI 모델 '큐원3(Qwen3)'를 출시했고, 바이두도 멀티모달 기능을 갖춘 '어니 4.5 터보'와 추론에 중점을 둔 '어니 X1 터보'를 출시하며 경쟁에 합류했다. 바이두는 해당 모델이 오픈AI의 'o1' 등 경쟁 모델 대비 동급 성능에 비용은 딥시크보다 저렴하다는 점을 강조하고 있다. 샤오미도 지난 달 말 '딥시크 R1'과 유사한 추론 AI 모델 '미모(MiMo)'를 선보이며 경쟁에 합류했다. 미모는 70억 개의 매개변수를 보유하고 있는 것으로 알려졌다. 샤오미는 자체 테스트에서 '미모'가 오픈AI의 'o1-미니'와 알리바바 '큐원'을 뛰어넘었다고 주장하고 있다. 이를 통해 샤오미는 인간 수준의 지능을 갖춘 인공일반지능(AGI) 개발에 박차를 가한다는 각오다. 샤오미는 위챗 게시물에서 "미모는 새로 구성된 핵심 AI 모델 팀의 첫 시도"라며 "2025년이 대규모 모델 구축의 꿈을 실현하기에는 늦은 시기처럼 보일 수 있지만 AGI는 장기적 과제"라고 말했다. 이처럼 미국의 AI 기술을 중국이 급속도로 추격하고 나선 가운데 업계에선 추론 역량을 핵심 경쟁력으로 내세운 신형 오픈소스 모델들이 글로벌 AI 생태계 전반에 지대한 영향을 미칠 것으로 봤다. 하지만 국내에선 LG 외에 뚜렷한 움직임이 없어 AI 기술 주도권 싸움에서 이미 상당히 밀렸다는 평가가 나오고 있다. 업계 관계자는 "미국과 중국 기업들 사이에서 벌어지고 있는 '쩐의 전쟁'에서 한국 AI 기업들이 점차 밀리며 정부 지원에만 목을 메는 경향이 많았다"며 "열악한 투자 환경에도 불구하고 선전하는 기업이 있긴 하지만, 자체 AI 기술을 계속 개발하려는 노력이 예전보다 덜한 곳이 있었던 것도 사실"이라고 꼬집었다. 그러면서 "대통령 비상계엄 선포와 탄핵 등 정치적 혼란까지 더해지면서 정부의 정책 방향이 일관되지 않았던 것도 우리나라 AI 경쟁력이 뒤처지게 된 원인"이라며 "새 정부가 들어서면 AI를 국가 경쟁력의 핵심 동력으로 삼고 적극적으로 정부가 지원에 나서야겠지만, 기업들의 자체적인 기술 개발에 대한 노력도 함께 병행돼야 할 것"이라고 덧붙였다.

2025.05.05 08:17장유미

"국산 AI 추론 비용 잡는다"…코난테크놀로지, 이종 반도체 분산추론에 '승부수'

코난테크놀로지가 인공지능(AI) 반도체 기반 분산 추론 및 모델 최적화 기술 개발에 나선다. 다양한 AI반도체를 연동하는 기술을 확보해 추론비용을 낮추고 국내 AI 인프라의 자립성과 경쟁력을 끌어올리려는 의도다. 코난테크놀로지는 과학기술정보통신부가 추진하는 '이종 AI반도체용 분산 추론 및 모델 최적화 기술 개발' 과제에 선정됐다고 29일 밝혔다. 이 사업은 오는 2029년 12월까지 약 4년 9개월간 진행되며 총 104억원 규모다. 한국전자통신연구원(ETRI)이 주관을 맡고 코난테크놀로지를 비롯해 리벨리온, 서울대, 카이스트가 공동 연구에 참여한다. 이번 과제는 신경망처리장치(NPU)와 인메모리컴퓨팅(PIM) 등 다양한 AI반도체를 활용하는 환경에서 효율적인 분산추론과 모델 최적화를 구현하는 것이 목표다. 이를 통해 AI모델을 유연하게 구동하는 서비스 프레임워크, AI가속기 기반 자원 스케줄링 시스템, 사용자 단말 중심의 거대언어모델(LLM)-검색증강생성(RAG) 기반 통합 실증 서비스가 개발될 예정이다. 코난테크놀로지는 이 중 LLM-RAG 분산추론 통합 실증 서비스를 담당한다. AI 소프트웨어 기술력과 개발 경험을 살려 다양한 반도체 환경에서도 안정적인 AI 서비스를 구현할 계획이다. 이로써 고성능 분산추론 구조를 검증하고 향후 차세대 AI 인프라 상용화 기반을 마련한다. 더불어 이 회사는 다음달 13일 열리는 '2025 코난테크놀로지 AI쇼케이스-미디어 브리핑' 행사에서 '코난 LLM', '코난 RAG-X'를 포함한 신제품을 공개할 예정이다. 이 자리에서는 향후 사업화 전략도 소개한다. 오창민 코난테크놀로지 언어음성연구소 상무는 "국내 AI 인프라의 기술 자립을 위한 핵심 과제에 참여하게 돼 의미가 크다"며 "이종 AI반도체 기반 추론 환경에서 고도화된 실증 서비스를 현실화하고 차세대 AI 인프라 상용화에 기여하겠다"고 밝혔다.

2025.04.29 15:59조이환

스테이지파이브, LLM 기반 AI 고객센터 론칭

스테이지파이브는 24일 자체 보유한 통신서비스 고객센터 데이터를 활용해 LLM 기반으로 최적화한 AI 고객센터를 국내 통신사업자 최초로 선보였다고 밝혔다. 핀다이렉트 AI 고객센터는 시간과 장소의 제약 없이 24시간 고객들의 다양한 형태의 질문을 이해하고 실시간으로 맞춤형 답변을 제공한다. 특히 비정형 질문에도 정확한 대응을 통해 고객의 궁금증을 즉시 해소하며, 상담 인력의 부담을 경감시키는 데 큰 역할을 한다. 실제 AI 상담 도입 후 온라인 상담 처리 건수가 117% 증가했으며, 이 가운데 약 40%는 AI가 처리하고 있다. 반복적이고 단순한 상담 업무는 AI가 대신 처리하고, 복잡한 문의만을 전문 상담원이 직접 처리하는 방식으로 운영하여 상담 인력의 효율적 운영이 가능해졌다. 고객 입장에서도 기존의 정형화된 질문에만 답하는 챗봇 방식에서 벗어나 자유롭게 질문하고 정확한 답변을 실시간으로 받을 수 있어 만족도가 높아졌다. 회사는 현재의 AI 상담을 에이전트 기반으로 추가 개발 중이며 이를 통해 고객정보를 실시간으로 조회하고 보다 전문적인 상담을 제공하는 개인화 기능을 곧 추가 공개할 예정이다. 스테이지파이브는 이번 'AI 고객센터'를 시작으로 'AI 고객케어'와 'AI 세일즈'로 AI 에이전트의 확장 구축을 추진 중이다. 'AI 고객케어'는 고객의 해지의도 추출과 분석을 통해 맞춤형 요금제 제안 및 간편 변경 서비스를 제공하고, 'AI 세일즈'는 잠재 고객군을 수집·추출하여 해당 고객군에 최적의 상품을 효율적으로 제안하도록 세일즈 자동화를 구현하는 것이다. 서상원 스테이지파이브 대표이사는 “AI 고객센터의 도입은 AI 기반 서비스 혁신의 첫걸음으로, AI 기술을 통해 고객들의 시간 절약과 불편함 해소를 돕고 고객 만족도를 획기적으로 개선할 수 있었다”며 “앞으로도 스테이지파이브는 AI와 최신 기술을 접목한 다양한 서비스를 통해 고객들에게 차별화된 경험을 제공할 계획”이라고 말했다.

2025.04.28 12:16박수형

[AI는 지금] 국산 오픈 LLM '출격'…엑사원·하이퍼클로바X 등 잇따라 공개

국산 오픈소스 대형 언어모델(LLM) 경쟁이 본격화되고 있다. LG AI연구원과 네이버가 잇따라 오픈 LLM을 선보이며 국내 AI 생태계에 활력을 불어넣고 있는 가운데 카카오도 자체 모델을 공개하며 흐름에 합류하는 모양새다. 27일 업계에 따르면 네이버는 최근 '하이퍼클로바X 시드(Seed)' 시리즈를 공개하며 국산 오픈소스 LLM 흐름을 이어가고 있다. 이는 지난해 LG AI연구원이 12월 '엑사원(Exaone)-3.5'를 공개하며 포문을 연 이후 국내에서도 오픈소스 LLM 시장이 본격적으로 형성되기 시작한 흐름을 잇는 것이다. LG AI연구원은 '엑사원-3.5' 공개 이후 후속 업데이트를 지속하고 있으며 최근에는 '엑사원 딥(DEEP)' 모델도 허깅페이스에 오픈소스로 공개했다. 엑사원 시리즈는 케엠엠엘유(KMMLU), 해래벤치(HAERAE-Bench), 코베스트(KoBEST) 등 다양한 한국어 특화 벤치마크에서도 준수한 성능을 기록하며 기술력을 입증하고 있다. 더불어 원라인에이아이 발표에 따르면 '엑사원-3.5'는 한국어와 영어 모두에서 일관된 성능을 보여주는 안정성이 강점으로 꼽혔다. 최근 회사가 자체적으로 진행한 '구구단 문제(1부터 100까지 두 자리 곱셈)' 실험에서 한국어와 영어 입력 모두에서 균형 잡힌 답변 정확도를 기록해 주목받았다. 특히 제곱수나 10의 자리 곱셈 문제에서는 높은 정확도를 보였으며 피연산자의 순서에 따라 미세한 성능 차이가 발생하는 특성도 관찰됐다. 업계에서는 엑사원이 한국어 오픈소스 모델 시장에서 핵심 모델 중 하나로 자리잡았다는 평가를 내놓고 있다. 커뮤니티의 반응도 대체로 긍정적이다. 최근 레딧 'LLM' 및 '오픈소스AI' 관련 커뮤니티에서는 '엑사원 딥' 모델에 대해 "7B 모델이 GPQA+ 고난도 벤치마크에서 62% 성능을 기록했다"거나 "2.4B 모델이 라즈베리파이나 스마트폰에서도 실행 가능할 정도로 경량화됐다"는 평가가 나왔다. 네이버 클라우드는 지난 24일 '하이퍼클로바X 시드(Seed)' 시리즈를 공개하며 국산 오픈소스 LLM 경쟁에 본격 합류했다. '하이퍼클로바X 시드'는 30억 파라미터 규모의 소형 모델로, 한국어 벤치마크 'KMMLU'에서 48.47점을 기록했다. 이는 절대 점수만 보면 과거 53.4점을 기록했던 '하이퍼클로바X-라지'보다 낮지만 대형 서버 모델이 아닌 온디바이스 환경까지 염두에 둔 경량 모델이라는 점을 고려하면 의미 있는 결과로 평가된다. '하이퍼클로바X' 시드는 케이엠엠엘유 외에도 해래벤치, 클릭(CLICK) 등 주요 한국어 벤치마크에서도 안정적인 성능을 보였다. 또 공개 하루 만에 다운로드 수가 2천400건을 넘겼고 커머셜 라이선스로 제공돼 스타트업이나 기업들이 상업적 활용까지 가능하다. 허깅페이스에서는 시드를 기반으로 한 파인튜닝 및 양자화 파생모델들이 빠르게 확산되며 생태계 확장 속도도 빨라지고 있다. 실제로 뉴욕대 조경현 교수, 스퀴즈비츠 김형준 대표, 바이오넥서스 김태형 대표 등은 직접 사용 후 긍정적인 후기를 SNS에 남기며 기대감을 나타냈다. 다만 일부 아쉬운 부분도 확인됐다. '하이퍼클로바X 시드'는 구구단 문제 실험에서 문제 자체는 정확히 풀었지만 정답을 요구되는 형식으로 출력하지 않아 평가 점수가 낮게 나오는 사례가 발생했다. 네이버는 이와 같은 포맷 일관성 문제를 해결하기 위해 한국어 데이터셋을 보강할 계획이다. 카카오 역시 '카나나' 시리즈를 통해 오픈소스 LLM 경쟁에 참가하고 있다. 다만 원라인에이아이의 구구단 실험 결과에 따르면 '카나나'는 한국어 입력에서는 비교적 양호한 성능을 보였으나 영어 입력에서는 답변 길이 문제로 인해 성능이 저하되는 모습을 보였다. 실험에 따르면 토큰 제한을 완화할 경우 영어 성능도 개선될 여지가 있는 것으로 나타났다. 현재 국내에 공개된 국산 오픈 LLM들이 아직 경량화 모델 위주로 구성돼 있다는 한계가 있다는 지적도 나온다. 업계는 향후 다양한 크기의 모델들이 추가로 등장할 경우 한국어 기반 AI 생태계의 경쟁력 또한 한층 강화될 것으로 기대하고 있다. 손규진 원라인에이아이 자연어처리(NLP) 연구원은 자신의 링크드인을 통해 "국내에서는 아직 소형 모델 위주로 공개돼 'HRM8K' 같은 고난도 수학 벤치마크로 평가하기에는 아쉬운 점이 있다"며 "향후 더 다양한 크기의 모델이 등장해 한국어 기반 AI 생태계가 한층 발전하기를 기대한다"고 말했다.

2025.04.27 07:21조이환

디노티시아, 국내 최초 '벡터 DB' 상용화 첫 발…"검색 성능 2배"

"디노티시아의 국내 최초 벡터 데이터베이스(DB)는 소프트웨어 만으로 기존 상용화 서비스 대비 2배 빠른 검색 성능을 구현했다. 올해 하반기에 출시되는 전용 칩을 결합하면, 성능은 10배까지 높아질 수 있다. 효율성이 중요한 미래 AI 시대에서 중요한 기술이 될 것이다" 정무경 디노티시아 대표는 22일 서울 본사에서 기자간담회를 열고 회사의 핵심 기술 및 사업 방향에 대해 이같이 밝혔다. 국내 최초 벡터 데이터베이스 서비스 출시…검색 성능 2배 디노티시아는 장기기억 AI 및 반도체 통합 솔루션 전문기업이다. 국내 최초의 벡터 데이터베이스인 '씨홀스(Seahorse)' 개발에 성공해, 이달 SaaS(서비스형 소프트웨어) 클라우드 버전을 베타 형태로 공식 출시했다. 벡터 데이터베이스는 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템이다. 쿼리의 의미적 유사성을 인식하고 맥락을 파악한다는 점에서, 단순한 키워드 검색 대비 뛰어난 성능을 구현한다. 이를 '시멘틱 서치'라고도 부른다. 씨홀스 클라우드는 클라우드 네이티브 아키텍처를 기반으로 한다. 고성능 벡터 데이터베이스를 웹 환경에서 간편하게 사용할 수 있도록 구현됐다. 복잡한 하드웨어 조달이나 소프트웨어 설치를 요구하지 않아 편의성도 뛰어나다. 이번 SaaS 버전은 기존 상용 및 오픈소스 벡터 데이터베이스 대비 약 2배 빠른 검색 성능을 소프트웨어만으로 구현했다. 또한 세계 최초로 MCP(모델 컨텍스트 프로토콜)를 지원하는 'RAGOps(외부 데이터를 검색해 이를 바탕으로 응답을 생성하는 기술 체계) 서비스도 함께 제공할 계획이다. 정 대표는 "현재의 LLM(거대언어모델)은 너무 방대한 양의 데이터를 처리해야 하기 때문에, 보다 효율성이 높은 AI 모델 및 서비스에 대한 수요가 커지는 추세"라며 "디노티시아는 소프트웨어 뿐만 아니라 하드웨어까지 개발해 AI 모델의 효율성을 극대화하는 벡터 데이터베이스 기술을 개발할 것"이라고 밝혔다. 전용 칩 결합하면 성능 10배…대형 고객사 확보 등 성과 씨홀스는 오는 24일부터 공식 홈페이지를 통해 국내 클로즈 베타 서비스가 시작된다. 사용자는 씨홀스 클라우드와 구글 드라이브를 연동해, 수백 개의 문서 속에서 의미와 맥락에 맞는 정보를 빠르게 찾을 수 있다. 씨홀스의 차기 버전은 디노티시아가 자체 개발한 벡터 데이터베이스 전용 반도체 VDPU(벡터 데이터 프로세싱 유닛)로 성능을 한층 끌어올릴 계획이다. 반도체가 결합된 경우, 씨홀스는 기존 대비 최대 10배 높은 성능을 구현할 수 있게 된다. 이를 통해 TCO(총소유비용)를 80% 이상 절감할 수 있다는 게 디노티시아의 설명이다. 해당 칩은 TSMC의 12나노미터(nm) 공정을 활용해 제조된다. 올해 하반기에는 FPGA(필드 프로그래머블 게이트 어레이) 버전이 출시되며, 내년에는 ASIC(주문형반도체) 형태로 탑재될 예정이다. 노홍찬 디노티시아 CDO(최고데이터책임자)는 "씨홀스는 이미 대형 고객사와 계약을 체결하는 등 성과를 거두고 있다"며 "씨홀스를 활용하면 CPU 서버 시스템을 10분의 1로 줄이거나, GPU를 5분의 1로 줄일 수 있어 매우 효율적"이라고 강조했다.

2025.04.23 12:58장경윤

파수 "보안부터 생성형AI 활용까지 모두 돕겠다"

정보보호 기업 파수는 22일 서울 여의도 페어몬트앰배서더서울호텔에서 고객 초청 사업 설명회 '파수 디지털 인텔리전스 심포지움(FDI)'을 개최했다. 주제는 '생성형 인공지능(AI) 혁명: AI가 기업에 가져올 변화'다. 기업형 경량 대형 언어모델(sLLM), 데이터 관리·보호 방안, 공급망 관리, 사이버 물리 시스템(CPS) 보안 등을 다뤘다. 조규곤 파수 대표는 AI가 업무 환경을 어떻게 바꾸는지 설명하고, 조직에 sLLM을 성공적으로 구축하는 방안을 제시했다. 조 대표는 "sLLM을 제대로 구축하려면 AI를 위한 데이터 인프라를 강화하고 AI 거버넌스를 꾸려야 한다"며 "AI 시스템 인프라에 지나치게 투자할 필요없다"고 말했다. 그러면서 "더 발전된 모델이 날마다 새로 나온다"며 "유연하게 더 나은 신규 모델을 활용할 수 있도록 구축 단계부터 고려하는 게 좋다"고 조언했다. 윤경구 전무는 LLM 발전 현황을 짚었다. 논리적 사고의 리즈닝(Reasoning) 모델과 언어 모델 한계를 벗어나는 에이전틱 LLM이 AI 혁명을 이끌 것으로 내다봤다. 파수가 선보인 기업용 LLM '엘름(Ellm)'은 어떻게 생겼는지, 세부 모델은 무엇이 있는지, 고객은 어떻게 쓰고 있는지 등을 소개했다. '악성메일 훈련·교육, 취약점 진단과 태세 관리' 발표에서는 보안에 효과적으로 투자하는 '보안 101'이 눈길을 끌었다. 보안 투자를 늘렸는데도 보안 사고가 터지는 이유로 임직원 보안 훈련이 부족하고 취약점, 태세 관리가 미비한 점이 꼽혔다. 데이터가 암호화되지 않으면 피해가 급증한다는 지적이다. 기초·필수 과정을 뜻하는 101을 차용한 보안 101로 훈련, 암호화·백업, 취약점 분석, 태세 관리에 집중해 투자 효율성을 높일 수 있다고 파수는 강조했다. 파수가 제안한 보안 101 첫 단계는 임직원이 반복적으로 악성 메일에 대해 훈련하고, 최신 자료 중심으로 백업, 확대 적용된 암호화로 사이버 위협 대응 능력을 높이는 일이다. 컴플라이언스 대응에만 초점을 맞춘 취약점 진단이 아닌 정보기술(IT) 인프라, 공급망 애플리케이션, 운영기술(OT)·사이버 물리 시스템(CPS)으로 대상을 넓혀 보안 사각지대를 최소화한다. 데이터(DSPM)를 비롯, 애플리케이션(ASPM)과 OT 시스템(OSPM) 등을 관리해 자산 식별 및 분류, 실시간 탐지 및 대응, 지속적인 점검으로 보안을 강화할 수 있다. 파수는 이번에 소개한 구축형 sLLM Ellm 업데이트, 생성형 AI를 활용하기 위한 솔루션, 분야별 태세관리 서비스 등을 올해 내놓기로 했다. 파수는 국내 기업과 기관 정보최고책임자(CIO)와 정보보호최고책임자(CISO) 350명이 이날 행사에 함께 했다고 전했다.

2025.04.23 10:23유혜진

코오롱베니트, 리벨리온 손 잡고 'AI 비즈니스 생태계' 확장 본격화

코오롱베니트가 자체 개발한 안전 관제 시스템 '인공지능(AI) 비전 인텔리전스'로 AI 비즈니스 생태계 확장에 본격 나섰다. 국내 AI 반도체(NPU) 전문 기업 리벨리온과의 협업을 통해 건설 현장에 특화한 LLM(거대 언어 모델, Large Language Model) 기술을 고도화함으로써 코오롱글로벌 실제 건설 현장에 'AI 비전 인텔리전스'를 적용한 것이다. 코오롱베니트는 'AI 비전 인텔리전스' 고도화를 위한 최종 개념검증(PoC) 작업을 코오롱베니트·코오롱글로벌·리벨리온·위시 4사가 컨소시엄 형태로 진행했다고 21일 밝혔다. 코오롱베니트는 건설 환경에 최적화된 안전 관제 시스템을 만들기 위해 방대한 코오롱글로벌 건설 현장 데이터를 정제해 멀티(시각+언어) 구조의 AI 모델을 완성했다. 이 작업은 코오롱글로벌이 제공한 CCTV 영상과 건설 현장 운영 데이터 기반의 현장 맞춤형 기능 요구사항 수립과 시스템 점검을 바탕으로 이뤄졌다. 리벨리온은 자체 AI 반도체 아톰(ATOM)으로 NPU(Neural Processing Unit, 신경망처리장치) 기반의 CCTV 관제 서버 및 기술을 구성했다. 위시는 시각(Vision)과 언어(LLM) 정보를 동시에 출력하는 현장 CCTV 안전 관제 모니터링 솔루션을 제공했다. 이번 'AI 비전 인텔리전스' 프로젝트는 국내 AI 선도 기업과의 협력을 통해 기술력을 대폭 높인 점이 특별하다. 코오롱베니트는 국내 대표 AI 반도체 기업 리벨리온과 함께 GPU·NPU를 동시 활용하는 이종 반도체 기반 AI CCTV 안전 관제 시스템을 완성했다. 코오롱베니트 AI 솔루션센터의 GPU(Graphic Processing Unit, 그래픽처리장치)로 실제 현장의 데이터를 학습한 뒤 이를 리벨리온 AI 반도체가 적용된 NPU 서버로 배포해 추론력을 더 강화하는 방식이다. 이로 인해 현장에서 탐지된 위험 상황 설명이 훨씬 더 구체적이고 정교화됐다. 'AI 비전 인텔리전스'는 건설 현장의 ▲안전모 미착용 ▲위험구역 진입 ▲신호수 배치유무 ▲중장비 접근 등의 사고 예방율을 크게 높일 것으로 전망된다. 코오롱베니트가 개발한 건설 현장에서 탐지된 시각적인 위험 정보를 더 정교화된 언어적 알림 문구로 바꾸는 멀티 모델의 효과다. 이 모델은 기존 대비 처리 속도가 높은 고성능 라이브러리 vLLM(Versatile Large Language Model)을 사용해 LLM 추론 성능을 극대화했다. 코오롱베니트는 독자 개발 안전 관제 시스템 'AI 비전 인텔리전스'를 사업화해 AI 활용을 대중화하는 'AI 엑셀러레이션 서비스' 사업 성장 계기를 마련할 계획이다. 코오롱베니트 AI R&D(연구개발) 부문은 텍스트·이미지·음성 등을 동시 처리하는 '멀티모달 AI 서비스' 출시를 목표로 다양한 산업에 특화한 AI 기술을 개발하고 있다. 코오롱베니트에서 AI 관련 기술 개발을 담당하는 이승재 AI R&D팀장은 "우리는 고객의 사업 효율과 편의성을 극대화하는 AI 기술을 대중화하고 기업의 비즈니스 혁신성을 높이는 신사업 분야를 개척하고 있다"며 "우수한 기술력을 가진 국내 선도 기업들과 기술력을 연계해 AI 비즈니스 생태계를 확장해 나가겠다"고 밝혔다.

2025.04.21 11:19장유미

LG디스플레이, 자체 개발 AI 어시스턴트로 업무 생산성 'UP'

LG디스플레이는 개인 생산성 향상을 위해 AI 어시스턴트 서비스를 자체 개발하고 업무에 적용한다고 21일 밝혔다. 기업 자체 기술로 AI 어시스턴트를 개발하고 도입한 사례는 LG디스플레이가 업계 최초다. AI 어시스턴트 서비스는 LG디스플레이 임직원을 위해 반복 작업을 자동화하고 복잡한 작업을 단순화해 준다. '화상회의 자동 통번역'과 'AI 회의록 자동 작성' 등을 지원해 업무를 보다 효율적으로 수행할 수 있도록 돕는다. LG디스플레이는 AI 어시스턴트 서비스의 성능을 지속적으로 업그레이드할 계획이다. 상반기에는 '이메일 AI 요약', 자연어 기반 지표 분석 등의 '데이터 처리 기능'을 추가한다. 하반기에는 보고용 PPT 초안까지 작성해 주는 '문서 작성 어시스턴트 기능' 등 보다 고난이도의 AI 업무로 확장한다. AI 어시스턴트 서비스는 일(日) 평균 업무 생산성을 이전 대비 약 10% 향상시킨다. 하루 표준 근무시간 8시간 중 약 50분을 효율적으로 관리할 수 있게 된 셈이다. 임직원은 줄어든 시간만큼 고부가가치 업무에 집중하여 업무 효율과 생산성을 높이게 됐다. LG디스플레이는 AI 어시스턴트 서비스의 업무 활용도를 높여 3년 내 업무 생산성을 30% 이상 높여갈 계획이다. AI 어시스턴트 서비스는 기존 사내 인트라넷 '렛츠(Let's)'에 AI 애플리케이션(앱)을 추가하는 플러그인(Plug-in) 방식으로 구축됐다. 기존 인프라를 그대로 활용하기 때문에 임직원은 평소 업무 환경에서 AI 어시스턴트 서비스를 자연스럽게 접하고 편리하게 사용할 수 있다. LG디스플레이는 AI 어시스턴트 서비스를 자체 개발함으로써 동일한 기능의 외부 AI 어시스턴트 서비스를 구독하는 데 드는 비용도 100억 원 이상을 절감했다. 또한 LG디스플레이는AI의 두뇌 역할을 하는 LLM(대형언어모델)을 내재화해 AI 어시스턴트 서비스의 외부 정보 유출을 원천 차단하고 보안 안정성을 강화했다. LLM은 LG AI연구원이 자체 개발한 '엑사원(EXAONE) 3.5'를 활용한다. '엑사원 3.5 초경량 모델'은 세계 최대 AI 플랫폼인 '허깅페이스(Hugging Face)'의 리더보드 엣지 부문에서 1위에 오르는 등 경쟁 LLM 대비 압도적 우수성을 인정받은 고성능 AI다. 이 같은 '엑사원 3.5'을 활용한 AI 어시스턴트 서비스는 요약, 번역, 검색, 생성 등의 작업에서 최적화된 성능을 발휘한다. 아울러 AI 어시스턴트 서비스에 탑재된 플러그인 AI 앱 개발은 LG CNS와 협업했다. 한편 LG디스플레이는 지난 3월 산업통상자원부가 승인하는 '사업재편기업' 디지털 전환 분야 대상 기업으로 선정됐다. LG디스플레이는 '디지털 전환(DX)을 통한 생산 효율성 및 품질 확보'를 목표로, 자동화 시스템 고도화 및 지능화 시스템 구축을 통해 OLED 생산성 제고를 추진한다. 이병승 LG디스플레이 DX그룹장(상무)은 “개인 AI 어시스턴트 도입으로 개인 업무 생산성을 극대화함으로써 단순 업무는 줄이고 생산성을 높일 수 있게 됐다”며 “AX(AI Transformation, AI 전환) 역량을 강화해 차별적 고객가치 창출에 주력할 것”이라고 말했다.

2025.04.21 10:00장경윤

퓨리오사AI, MS 애저 마켓플레이스에 2세대 NPU 가속기 'RNGD' 출시

인공지능 반도체 기업 퓨리오사AI는 자사의 2세대 AI 추론 가속기 RNGD(레니게이드)를 마이크로소프트의 애저 마켓플레이스(Azure Marketplace)에 공식 출시했다고 17일 밝혔다. 애저 유저들은 레니게이드를 활용해 고성능 AI 인프라를 손쉽게 활용할 수 있게 될 전망이다. RNGD는 LLM 및 멀티모달 모델의 효율적인 추론을 위해 설계된 데이터 센터용 차세대 AI 가속기다. 지난해 8월 '핫 칩스(Hot chips) 2024' 컨퍼런스에서 첫 선을 보여 글로벌 테크 업계의 큰 관심을 모은 바 있다. 클라우드 중심, 온프레미스, 하이브리드 등 다양한 환경에 최적화돼 있어 유연하게 여러가지 목적으로 활용할 수 있다. 또한 ▲수분 내로 추론용 프로덕션 환경 배포 ▲수요에 따라 유연하게 추론 인프라 규모 조절 ▲기존 애저 데이터 및 소프트웨어 스택과 원활한 통합 등을 제공한다. 나아가 퓨리오사AI는 Llama 3.1 사전 컴파일 모델 기반 API를 곧 제공할 계획이다. 이를 통해 기업 고객은 레니게이드의 추론 성능을 기존 워크플로우 내에서 즉시 테스트하고 활용할 수 있다. 향후 다양한 모델 아키텍처 지원도 순차적으로 확대할 예정이다. 제이크 즈보로프스키 마이크로소프트 애저 플랫폼 총괄은 “애저 마켓플레이스는 전 세계 고객이 신뢰할 수 있는 파트너 솔루션을 쉽게 찾고 배포할 수 있는 공간”이라며 “퓨리오사AI의 레니게이드를 이 생태계에 새롭게 맞이하게 되어 기쁘다”고 말했다. 이번 출시를 계기로 퓨리오사AI는 자사 제품 보급에 박차를 가할 계획이다. 현재 국내외 기업 고객을 대상으로 레니게이드 제품평가를 진행 중이며, TSMC와의 협업을 통해 대규모 양산에 돌입했다. 퓨리오사AI 관계자는 “레니게이드의 애저 통합은 누구나 접근 가능한 효율적인 AI 추론 인프라를 제공한다는 당사의 비전을 실현하는 중요한 이정표”라며 “스타트업부터 대기업까지 복잡한 AI 인프라 없이도 필요한 성능을 쉽고 빠르게 확보할 수 있을 것”이라고 밝혔다. 퓨리오사AI는 지난 2017년 설립된 인공지능 반도체 스타트업이다. AMD, 삼성전자에서 근무했던 백준호 대표와 김한준 CTO(삼성전자), 구형일 CAO(Chief AI Officer; 퀄컴) 3인이 '지속 가능하고 지구상의 모두가 활용할 수 있는 AI 컴퓨팅 환경 구현'을 목표로 공동 창업했다. 지난 2022년에는 1세대 NPU를 출시해 상용화에 성공했고, 2024년 하반기 2세대 NPU RNGD를 출시해 현재 글로벌 고객사 제품 평가를 진행 중이다.

2025.04.17 08:59장경윤

[현장] "美·中은 무단 크롤링, 우리는 정공법"…업스테이지, 글로벌 AI 정조준

"미국과 중국의 프론티어 인공지능(AI) 랩들이 무단 크롤링으로 데이터를 확보할 때 우리는 역차별이라 느껴질 만큼 합법적이고 투명한 방식으로 데이터를 수집해왔습니다. 이러한 제약에도 실사용 사례를 통해 검증된 우리 '워크 인텔리전스'를 바탕으로 인류의 업무 효율성을 5배, 10배, 나아가 100배까지 끌어올리며 새로운 세상을 열겠습니다." 김성훈 업스테이지 대표는 16일 서울 여의도 콘래드 호텔에서 열린 기자 간담회에서 향후 비전에 대해 이같이 밝혔다. '미래의 일을 위한 워크 인텔리전스'를 주제로 열린 이번 행사는 자사의 기술 스택과 국내외 도입 사례, 글로벌 확장 전략 등을 종합적으로 공개하는 자리였다. 행사에는 업스테이지 일본법인 대표를 포함한 주요 경영진이 참여해 향후 해외 시장 공략 전략도 함께 발표했다. 이날 업스테이지는 문서 추출 엔진 '도큐먼트 파스', 경량화 거대언어모델(LLM) '솔라', 문서 특화 멀티모달 모델 '솔라 도크VLM'을 중심으로 한 워크플로우 자동화 기술을 대거 공개했다. 국내에서는 KB금융, 한컴, 로앤컴퍼니 등의 실제 도입 사례를 소개했고 일본·동남아·북미 등에서 진행 중인 개념검증(PoC)과 수출 성과를 통해 글로벌 확장의 구체적 로드맵도 제시했다. 문서 기반 업무 자동화 기술 공개…"AI로 리포트 작성부터 의사결정까지" 김 대표는 업스테이지가 자체 개발한 문서 처리 엔진 '도큐먼트 파스'를 시작으로 기술 경쟁력을 설명했다. 이 솔루션은 이미지나 PDF 기반 문서에서 핵심 데이터를 추출한 뒤 이를 컴퓨터가 이해할 수 있는 HTML 형태로 정교하게 구조화한다. '도큐먼트 파스'는 표, 차트, 2단 편집 등 사람이 보기 편하게 구성된 비정형 문서를 LLM이 처리할 수 있도록 정제해 주는 데 특히 강점을 보인다. 실제로 이 기술은 허깅페이스 벤치마크에서 아마존웹서비스(AWS), 구글, 메타 등 글로벌 솔루션을 제치고 정확도 97.02점으로 1위를 기록했으며 처리 속도 또한 세계 최고 수준으로 평가받았다. 문서를 정교하게 구조화하는 기술 외에도 업스테이지는 자체 언어모델 '솔라(Solar)'를 통해 텍스트 기반 업무의 자동화까지 전방위로 대응하고 있다. 회사는 그래픽 처리장치(GPU) 한 장만으로도 고성능을 내는 소형 언어모델(sLM)을 개발하는 것을 목표로, 모델 경량화와 정밀도 간 균형에 집중하고 있다. '솔라' 시리즈는 고정밀 문서 분석, 보고서 요약, 질의응답 등 워크플로우 전반에서 핵심 역할을 수행한다. 지난해 공개된 '솔라 프리뷰'는 허깅페이스에 등록된 약 90만 개 LLM 중 트렌딩 3위에 오르며 기술력을 입증했다. '솔라 프로 1.3'은 국내 언론사들로부터 수급한 대량의 기사 데이터를 학습해 한국어 해석 성능을 크게 끌어올렸다. 차기 모델은 오는 6월 출시 예정인 '솔라 프로 1.5'다. 파라미터 수는 기존 22억 패러미터에서 31억 패러미터로 확장됐지만 여전히 GPU 한 장으로 구동 가능한 경량 구조를 유지하고 있다. 김 대표는 "우리는 '솔라'를 지속적으로 업데이트하는 동시에 오픈AI 'o 시리즈'나 딥시크 'R1'과 유사한 '사고의 연쇄(CoT)' 추론 기능도 개발 중"이라며 "고차원적 해석과 판단이 요구되는 산업 현장에 LLM을 실질적으로 투입할 수 있는 기반을 마련하기 위한 기초 작업"이라고 설명했다. 이에 더해 업스테이지는 문서 이해와 언어 처리 기술을 단일 파이프라인으로 연결해 '워크 인텔리전스' 완성도를 끌어올리고 있다. 이날 공개된 '솔라 도크VLM'은 이러한 통합 전략을 대표하는 기술이다. 기존 멀티모달 모델이 일반 이미지에는 강하지만 문서 인식에는 한계가 있는 반면 이 모델은 문서 전용 인코더를 탑재해 100페이지 이상 분량도 안정적으로 처리한다. 요약, 질의응답, 보고서 작성까지 한 번에 수행하는 단일 파이프라인을 구현한 것이 특징이다. 데이터 확보 방식에서도 업스테이지는 차별화를 꾀하고 있다. 김 대표는 "오픈AI와 같은 프론티어 기업들이 무단 크롤링 방식으로 데이터를 확보하고 있다"며 "이 가운데 우리는 쿠오라(Quora)와 같은 글로벌 파트너와의 계약을 통해 거의 불공정 거래 급으로 투명하게 데이터를 수집하고 있다"고 설명했다. 이어 "대선 이후에는 정부 차원에서 데이터 계약과 보상에 대한 새로운 거버넌스가 마련되기를 기대한다"고 밝혔다. 기술력이 곧 매출로 연결되기 시작했다는 점도 주목할 만하다. 업스테이지는 법률 분야에서 로앤컴퍼니와는 판례·조문 검색에 특화된 AI 검색 엔진을 구축했고 한컴의 '한컴 어시스턴트'에는 문서 초안·요약 기능을, 보험사들에는 수술 자동 판단·지급 심사로 이어지는 자동화 파이프라인을 공급하며 실적을 쌓았다. 이들 성과를 포함해 1년 간 누적 계약액은 250억원을 넘겼으며 이는 지난해 대비 다섯 배 증가한 수치다. 재무 적자와 향후 자금 조달 계획에 대한 기자의 질문에는 "현재의 적자는 대부분 GPU 등 고성능 인프라에 대한 선제적 투자 때문"이라며 "멀티모달 모델과 '솔라 프로 1.5' 등 신제품 개발이 완료되면 운영비용은 급격히 줄어들 것"이라고 답했다. 이어 "글로벌 주요 기업들과의 논의도 활발히 진행 중이며 조만간 긍정적인 투자 소식을 전할 수 있을 것"이라고 밝혔다. 맞춤형 LLM 통해 日 조준, 동남아·북미로 확장 가속 이날 행사에서는 업스테이지의 해외 진출 전략, 특히 일본 시장 공략 역시 집중 조명됐다. 마츠시타 히로유키 업스테이지 재팬 지사장은 일본 내 전략과 비전을 직접 발표했다. 그는 AWS 시니어 매니저 출신으로, 지난달 일본 도쿄에서 개소식을 열고 업스테이지 일본 법인을 공식 출범시킨 인물이다. 마츠시타 지사장은 "세계 수준의 기술력과 팀 문화, 글로벌과 로컬을 모두 이해하는 전략이 있어 회사에 합류했다"며 "일본 기업들이 미국 빅테크의 기술력은 인정하면서도 현지화된 솔루션을 함께 구축하는 어려움을 겪을 때 우리는 작지만 강력한 모델로 이 간극을 충분히 메울 수 있다"고 강조했다. 일본 AI 시장은 오는 2030년까지 20억 달러(한화 약 2조8천억원) 규모로 성장할 전망이다. 특히 전체 AI 지출 중 94%가 모델이 아닌 솔루션·애플리케이션 영역에 집중될 것으로 분석된다. 이에 따라 회사는 단순한 모델 판매가 아니라 각 기업의 목적과 니즈에 맞춘 솔루션을 제공하는 '빌더-퍼스트' 전략을 취하고 있다. 기술적 차별화도 이어졌다. 업스테이지는 최근 일본 스타트업 카라쿠리와 공동으로 일본어 최적화 경량 LLM '신(Syn)'을 개발했다. 이 모델은 14억 패라미터급 소형 구조임에도 불구하고 금융·의료·제조 등 주요 산업 벤치마크에서 높은 정확도를 기록했다. 사업 측면에서는 지역 IT기업 퓨식(Fusic)과도 전략적 파트너십을 체결했다. 퓨식은 규슈 지역을 기반으로 고객 네트워크와 도메인 전문성을 보유하고 있다. 업스테이지는 이들과 함께 10건 이상의 개념검증(PoC)를 동시다발적으로 진행 중이며 기술 트레이닝 프로그램도 함께 운영하고 있다. 교육 콘텐츠 및 문서 AI 등 핵심 기술 역시 일본 시장에 맞춰 현지화 작업이 진행 중이다. 유통 전략에서도 다층적 접근을 택했다. 클라우드 사업자 및 유통사와는 총판 계약을 체결했고 컨설팅·시스템통합(SI) 파트너사와는 공동 영업을 전개해 세일즈 파이프라인을 확장하고 있다. 마츠시타 지사장은 "교육, PoC, 고도화된 솔루션 도입까지 일본 내에서 지속 가능한 AI 생태계를 직접 구축하겠다"며 "실제 매출 인식은 올해 하반기부터 본격화될 것"이라고 설명했다. 일본 외 지역에서도 업스테이지의 '소버린 AI' 구축 사업은 빠르게 확장되고 있다. 김성훈 대표는 "태국 IT기업 JTS에 공급한 태국어 LLM이 최종 낙점돼 인수인계를 마쳤다"며 "중국계 '타이쿤2' 모델과의 경쟁 끝에 최고 성능으로 인정받은 첫 수출 사례"라고 밝혔다. 이어 "이 프로젝트를 계기로 말레이시아, 베트남, 몽골, 터키 등지에서도 유사 요청이 들어오고 있다"고 설명했다. 북미 시장 공략도 이미 시작됐다. 현재 업스테이지는 S&P500 소속 대형 보험사 세 곳과 도큐먼트 품질검증(QA) 기반의 정보 추출 워크플로우 도입을 협의 중이다. 또 미국 최대 규모의 텔레헬스 기업과는 환자 진료 기록 자동 요약 솔루션 개발을 논의하고 있으며 대형 헬스케어 클리닉과는 수십 년간 축적된 의료 기록을 디지털로 전환하는 작업을 함께 검토 중이다. 김성훈 업스테이지 대표는 행사를 마치며 "우리는 단순히 모델을 공급하는 기업이 아니라 글로벌 시장에서 신뢰받는 디지털 전환 파트너가 되겠다"며 "이를 통해서 일의 미래를 완전히 재설계해 새로운 세상을 여는데 기여하겠다"고 강조했다.

2025.04.16 14:52조이환

KT, 국내 최초 LLM 플랫폼 수출

KT가 태국 자스민 그룹의 IT 전문기업 '자스민 테크놀로지 솔루션(JTS)'과 추진한 태국어 거대 언어 모델(LLM) 플랫폼 구축 프로젝트를 성공적으로 마무리했다고 15일 밝혔다. KT는 지난해 3월 JTS와 태국어 LLM 플랫폼 개발 프로젝트를 위한 계약을 체결하고 1년여간 프로젝트를 수행해왔다. 이 프로젝트는 LLM 운영 관리 환경 'LLM 옵스(Ops)'와 AI 서비스 인프라 'GPU 팜'을 구축하고 태국어 전용 LLM 모델까지 개발하는 원스톱 프로젝트다. 해외에 종합 AI 인프라를 구축해 생성형 AI 서비스의 개발과 운영, 확장 환경을 마련한 것은 국내 기업 중 KT 그룹이 처음이다. LLM 옵스는 다양한 LLM 모델의 학습, 배포, 운영 전 과정을 관리할 수 있는 환경이다. KT는 이를 고객사 맞춤형으로 구축해 JTS는 복잡한 생성형 AI 운영 환경을 보다 효율적, 안정적으로 운용할 수 있게 됐다. KT는 클라우드 자회사 KT클라우드와 GPU 자원 관리를 위한 GPU 팜도 태국 현지에 조성했다. 여기에 기반해 JTS는 태국 기업과 기관에 GPU 구독 서비스(GPUaaS)를 공급하고 본격적으로 태국 내 AI 생태계 확장을 촉진할 계획이다. KT는 자체 모델 개발 경험과 노하우를 토대로 국내 LLM 전문 기업 업스테이지와 태국어 전용 LLM을 공동 개발했다. 이 모델은 태국어, 영어, 한국어 등을 지원한다. 태국의 방대한 고유 데이터를 학습해 태국 정치, 역사, 문화 관련 질문에도 정확하게 응대할 수 있다. KT는 대한민국 AX 생태계 발전을 위해 지난 2023년 업스테이지에 투자했다. 이번 프로젝트는 대기업과 스타트업이 공동으로 글로벌 AX 사업을 성공한 사례로서 의미를 더했다. KT는 앞으로도 JTS의 전문 기술 파트너로서 ▲AI 플랫폼 고도화 ▲GPU 인프라 확장 및 유지 보수 ▲AI 기반 신규 서비스 발굴 등 다분야에서 지속적인 협력을 이어 나간다. 또한 양 사는 태국 AX 시장을 겨냥한 AI 서비스를 단계적으로 선보일 계획이다.. KT는 이번 프로젝트로 성공적인 글로벌 AX 사업 레퍼런스를 확보했다. 이를 통해 한층 고도화된 AI 사업 역량을 확보하고 동남아 시장뿐만 아니라 중동, 유럽 등 다른 글로벌 시장까지 AX 사업 영역을 본격적으로 확대해 나갈 방침이다. 이진형 KT 전략사업컨설팅부문 AI사업전략담당은 “태국어 특화 LLM 플랫폼 개발과 상용화는 KT의 AI 기술력과 글로벌 사업 역량을 다시 한번 입증한 성과”라며 “이번 프로젝트에서 얻은 경험과 노하우를 포함해 KT는 마이크로소프트, 팔란티어와의 전략적 제휴를 기반으로 AI, 클라우드의 서비스형 상품 라인업도 다각화해 나갈 계획이다”라고 말했다.

2025.04.15 09:12박수형

"한국어 LLM 신뢰성 강화"…NIA-TTA, 학습용 데이터 유해 표현 검출 모델 공개

한국지능정보사회진흥원(NIA)과 한국정보통신기술협회(TTA)가 유해 표현 검출 기술을 바탕으로 우리나라 거대언어모델(LLM)의 신뢰성·안정성 강화에 힘을 쏟는다. NIA와 TTA는 'AI허브'를 통해 LLM 학습용 데이터 내의 유해 표현 검출 AI 모델과 유해 표현 학습용 데이터를 공개했다고 14일 밝혔다. AI 허브는 과학기술정보통신부와 NIA가 운영하는 국내 최대 AI 학습용 데이터 제공 플랫폼이다. 이번에 공개된 AI 모델은 주어진 말뭉치 데이터 내에서 유해 표현을 검출하고 다양한 유해 표현 카테고리로 분류하는 기능을 수행할 수 있다. 해당 AI 모델과 데이터는 과기정통부 초거대AI 확산 생태계 조성 사업의 일환으로, LLM 데이터의 품질검증 과정에서 주요 특성 중 하나인 유해성을 측정하기 위해 개발됐다. 자체 성능 검증 결과 높은 정확도(80~90%)를 달성해 유해 표현 검출의 효용성을 입증했다. AI 모델을 학습시키기 위해 구축된 데이터는 유해 표현 검출용 데이터 20만 건과 유해 표현 카테고리 구분용 데이터 21만 건 등으로 구성돼 있다. 데이터는 한국어 유해 표현 오픈소스 데이터를 토대로 AI허브의 온라인 구어체 말뭉치 데이터와 지식그래프 투 텍스트 데이터를 활용해 문체의 다양성을 확보하는 데 중점을 뒀다. 또 국가인권위원회의 혐오 표현에 대한 안내서 등과 같은 신뢰할 수 있는 가이드라인을 참조해 유해 표현·카테고리 11개를 명확하게 정의하고 이를 재가공해 데이터의 일관성과 신뢰성을 확보했다. 이번에 공개된 AI 모델과 데이터는 AI허브에 개방돼 누구나 활용할 수 있다. LLM 관련 서비스와 데이터 구축사업에 적용함으로써 AI가 생성하는 콘텐츠의 안전성 강화는 물론 다양한 산업 분야에서의 AI 윤리 강화에 기여할 것으로 예상된다. 황종성 NIA 원장은 "AI 기술의 발전은 기술적 진보뿐만 아니라 사회적 책임을 담보할 수 있는 윤리적 고려가 반드시 병행돼야 하고 이는 지속 가능한 AI 생태계 조성을 위한 핵심 요소"라며 "이번 AI 모델과 데이터 공개가 한국어 LLM의 신뢰성·안전성을 강화하기 위한 계기가 될 것으로 기대한다"고 말했다. 이어 "앞으로도 윤리적 책임을 고려한 양질의 AI 데이터 구축·활용 기반을 마련해 국내 AI 생태계 지원을 확대해 나갈 것"이라고 덧붙였다.

2025.04.14 11:22한정호

[AI는 지금] "양보다 질이다"…AI 기업들, 정제 데이터 '버티컬 모델' 베팅

인공지능(AI) 기술이 거대언어모델(LLM)을 중심으로 확산되던 흐름에서 벗어나 산업 맞춤형 '버티컬 AI'로 전환되는 흐름이 빨라지고 있다. AI의 범용성이 오히려 현장 적용을 방해하는 요인으로 지적되면서 특정 산업 문제를 정확히 풀 수 있는 특화형 모델 수요가 높아지는 추세다. 10일 업계에 따르면 국내외 AI 기업들은 최근 범용 모델 대신 산업별 정밀화를 앞세운 버티컬 AI 개발에 집중하고 있다. 의료, 금융, 법률, 커머스 등 도메인 특화형 AI가 실제 계약 체결, 리스크 예측, 비용 절감 등 실질적 성과를 입증하며 LLM을 그대로 쓰는 전략의 한계를 드러내고 있다는 판단에서다. 이같이 버티컬 AI가 주목받는 배경에는 세 가지 축이 자리한다. ▲도메인 최적화로 인한 문제 해결력 ▲데이터 중심의 경량화 전략 ▲정확성 향상을 통한 규제 산업 대응력이다. 이미 LG AI연구원, 코히어 등의 파운데이션 모델 기업들은 기존처럼 모델 파라미터를 키우기보단 양질의 산업 데이터로 성능을 끌어올리는 방식에 주력하고 있다. 범용 AI 빈틈 메우는 버티컬 AI…"정확성·가성비서 차이 난다" 오픈AI '챗GPT', 앤트로픽 '클로드' 등의 범용 LLM은 다양한 주제를 빠르게 학습할 수 있다는 장점이 있다. 다만 각 산업이 요구하는 맥락 이해력·정확성·규제 대응력에서는 취약하다는 지적이 나온다. 특히 문서 구조나 용어가 고정된 법률·세무 분야는 일반 LLM에게는 문맥이 과도하게 추상적이거나 관련성이 낮은 정보를 만들어낼 위험이 높다. '챗GPT'가 사실과 다른 판례를 생성하거나 존재하지 않는 조항을 제시하는 사례는 그 대표적이다. 이러한 한계는 성능 문제가 아니라 학습 데이터의 범용성과 과적합 위험, 도메인에 특화된 개념 계층구조 부족에서 기인한다. 이에 따라 전문가가 직접 구축한 정제된 데이터셋 기반의 산업 특화형 AI가 정확도·신뢰성·업무 호환성에서 실효성을 증명하고 있다. 단순히 답을 생성하는 것을 넘어 특정 산업의 '실제 문서'를 구조적으로 이해하고 '작동 가능한 결정'을 내릴 수 있는 수준까지 도달 중이다. 이 같은 흐름은 지표로도 확인된다. 한국지능정보사회진흥원(NIA)은 최근 보고서에서 글로벌 버티컬 AI 시장이 오는 2032년까지 연평균 27% 성장할 것으로 전망했다. 이미 미국, 이스라엘 등은 규제·보안 산업을 중심으로 시장을 선점하며 독점 생태계를 구축 중이다. 업계 관계자는 "오픈AI 같은 글로벌 기업들도 기술적으로 버티컬 AI에 대응할 수는 있겠지만 이미 너무 많은 영역에 손을 뻗은 상황이라 특정 산업에 깊이 들어가기엔 어려움이 있다"며 "오히려 이같은 방향성이 가격 측면에서 B2B 기업에게는 경쟁력이 될 수 있고 수익 모델로도 충분히 의미가 있다"고 말했다. 리걸AI, 법률 효율성 높인다…"문서 해석에 리스크 관리까지 가능해져" 문서 복잡도와 전문성, 강한 규제 환경으로 생성형 AI 도입이 까다롭던 법률 분야도 기술 변화의 전환점을 맞고 있다. 과거 법무 관련 AI 기술은 단순 검색이나 판례 조회에 머물렀다면 최근에는 법령 해석, 조항 간 논리 구조 분석처럼 문서의 문맥을 이해하고 업무 수행 프로세스에 도움을 주고 있다. 국내에서의 대표적인 사례는 BHSN이다. 비즈니스 리걸AI 솔루션 '앨리비(allibee)'를 운영 중인 이 회사는 법률 분야에 특화된 생성형 AI를 기반으로 기업의 계약, 법무 등 비즈니스에 필요한 서비스를 제공한다. 자체 개발한 법률 특화 거대언어모델인 '리걸 LLM(Legal-LLM)', 검색증강생성(RAG), 특허받은 '리걸 OCR' 기술 등으로 복잡한 법률 문서를 수 초 만에 면밀히 분석하고 정밀한 리스크 감지까지 가능하다. 특히 전문가가 직접 정제한 고품질 법령, 판례, 정책 데이터를 기반으로 범용 LLM보다 높은 정확도와 신뢰도를 확보한 점이 강점으로 꼽힌다. 프론티어 AI 기업의 모델이 사실과 다른 법령이나 판례를 인용해 오류를 일으키는 사례가 잦다는 점에서 산업 현장에서는 이런 특화형 AI에 대한 선호가 점차 높아질 가능성이 높다. 한 변호사 업계 관계자는 "'챗GPT'가 그럴듯한 말투로 실제 존재하지 않는 법령이나 판례를 제시해 곤혹을 겪었다는 사례를 들었다"며 "클라이언트들이 관련 사례를 뉴스 등으로 접하면서 범용 AI를 꺼리는 분위기가 이어지다 보니 클린한 법률 데이터만을 말해주는 서비스가 필요하다는 인식이 있다"고 말했다. 이러한 수요를 파악한 BHSN은 이미 다양한 산업군을 대상으로 레퍼런스를 확보하며 신뢰를 쌓아가고 있다. 현재 CJ제일제당, 애경케미칼, 한화솔루션 등 국내 주요 기업에 '앨리비'를 공급 중이며 연내 제약·유통 등 추가 산업군과의 신규 계약도 추진하고 있다. '앨리비'를 도입한 기업들은 계약서 검토 시간이 67% 이상 단축됐고 반복 검토 항목의 자동화를 통해 조항 누락이나 오류 발생률도 크게 낮췄다. AI 기반 자동화와 정밀 분석 기술로 법무 업무 전반의 생산성과 정확성 역시 향상됐다는 평가다. 고객 의도 읽고 구매까지 이끈다…커머스 특화형 AI의 진화는? 커머스 분야에서도 마찬가지다. 실시간 추천, 구매 유도, 결제 전환까지 온라인 쇼핑 전 과정에서 AI가 '판매 파트너' 역할을 수행하는 시대가 열렸다. 고객의 행동 데이터를 실시간으로 분석하고 구매 여정을 따라가며 맞춤형 응대를 제공하는 이커머스 특화형 AI 솔루션이 떠오르고 있는 것이다. 이같은 흐름 속에서 대화형 에이전트 '젠투(Gentoo)' 개발사인 '와들'이 주목받고 있다. '젠투'는 고객의 관심사와 행동을 실시간으로 분석해 상품을 추천하고 구매 결정을 유도하는 멀티 AI 에이전트 솔루션이다. 고객의 니즈를 능동적으로 파악하는 것은 물론 구매 장벽을 해소하는 구조로 이뤄져 중소형 쇼핑몰을 중심으로 고객 전환율 개선 효과를 나타내고 있다. 최근 와들은 코오롱베니트의 AI 얼라이언스 파트너로 참여해 다양한 커머스 플랫폼에 젠투의 기술을 적용하고 있다. 특히 중소형 브랜드를 중심으로 AI 기반 운영 파트너로서 입지를 강화하고 있으며 이를 통해 온라인 쇼핑몰의 운영 효율성과 고객 만족도를 동시에 향상시키는 데 기여하고 있다. 일례로 국내 월간 활성 사용자 수(MAU)가 70만 명인 한 이커머스 플랫폼은 '젠투' 솔루션 도입 후 상품 클릭률이 6개월 만에 20%로 증가하며 약 2배 이상 높아졌다고 밝혔다. 이같이 고객의 구매 여정 전반을 AI가 실시간으로 지원하는 흐름은 상담 접점에서도 뚜렷하게 나타난다. 올인원 AI 비즈니스 메신저 '채널톡'을 운영하는 채널코퍼레이션은 대화형 버티컬 AI 기능인 '알프(ALF)'를 지난해 11월 정식 출시했다. '알프'는 자연어 기반으로 대화의 맥락을 이해하고 정보를 탐색해 고객 응대 업무를 수행하는 서비스다. 현재 패션·뷰티 업계를 중심으로 1천여 개 기업에서 활용 중이며 올해는 상품 판매와 고객 정보 수집까지 자율적으로 수행할 수 있도록 업데이트될 예정이다. '알프'를 통해 상담을 효율화한 대표 사례로는 애슬레저 브랜드 안다르가 꼽힌다. 안다르는 상담 유형별로 응대 체계를 세분화하고 배송·교환 등 반복되는 단순 문의는 알프가 직접 처리하도록 설정했다. 그 결과 전체 고객 문의의 61%를 상담원 연결 없이 알프가 자체 응대하며 상담 효율성과 응답 속도를 크게 끌어올렸다. 세금·재무도 '사람 없이' 자동화…소상공인, 자영업자를 위한 버티컬 AI 세금과 재무 분야 역시 예외는 아니다. 특히 반복적이고 규제 민감도가 높은 세무·회계 업무는 정확성과 속도 모두를 요구하는 영역으로, AI 자동화 수요가 빠르게 늘고 있다. 사람 손을 타지 않고도 환급 신청, 증빙 처리, 보고서 작성까지 가능한 서비스가 등장하면서 실무 자원이 부족한 사업자들에게 실질적인 '버티컬 AI 비서'로 자리잡고 있다. 일례로 혜움은 소상공인과 자영업자를 위한 버티컬 AI를 개발해 세무·재무 실무 자동화에 나서고 있다. 이 기술은 혜움이 운영 중인 국내 최초 AI 경정청구 서비스 '더낸세금'과 '혜움 레포트 2.0'에 적용돼 사업자 대상 세금 환급, 보고서 생성, 증빙 처리 등 다양한 업무를 수행할 수 있게 한다. 최근에는 소상공인을 위한 버티컬 AI 구축을 위해 IBK기업은행, 네이버와 전략적 오픈 이노베이션을 추진하고 마이크로소프트(MS), 기업은행 등과 금융 AI 서비스 공동 개발을 위한 MOU를 체결하는 등 금융 버티컬 생태계 구축에 더욱 박차를 가하고 있다. 업계 관계자는 "이제 생성형 AI는 산업 내 데이터를 이해하고 업무 성과까지 연결하는 수준으로 진화하고 있다"며 "앞으로 특정 산업에 얼마나 최적화된 형태로 작동하느냐가 기술 경쟁력의 핵심 지표가 될 것"이라고 말했다.

2025.04.10 16:50조이환

디노티시아·한양대, AI양자화 평가 플랫폼 오픈소스로 공개

인공지능(AI)·반도체 통합 솔루션 전문기업 디노티시아는 한양대학교 AIHA 연구실과 산학협력 연구를 통해 개발한 AI 양자화 알고리즘 평가 플랫폼, 'QLLM-INFER'를 깃허브(GitHub)에 오픈소스로 공개했다고 8일 밝혔다. 이 플랫폼은 '아파치 2.0' 라이선스를 적용해 누구나 자유롭게 사용하고 기여할 수 있다. 오픈소스를 그대로 재배포하거나 수정하여 재배포하더라도 소스 코드를 공개할 의무가 없으며, 상업적 이용에도 제한이 없다. 최근 챗GPT와 같은 대규모 언어 모델(LLM)이 주목받으면서 AI 기술의 활용 범위가 급격히 넓어지고 있다. 그러나 이러한 모델은 높은 연산량과 메모리 사용으로 인해 실제 서비스나 개인용 컴퓨터 및 스마트폰에 적용하기 어렵다. 이를 해결하기 위한 방법이 양자화 기술이다. 양자화는 AI 모델의 계산 정밀도를 낮춰 더 빠르게 만드는 기술로, 큰 숫자를 작은 숫자로 압축하는 방식이다. 이를 통해 AI 모델은 원래 성능을 유지하면서도 메모리 사용량과 연산 속도를 크게 줄일 수 있다. 그러나 지금까지 다양한 양자화 알고리즘이 서로 다른 환경과 조건에서 평가돼, 어느 기술이 더 좋은 지 객관적으로 비교하기 어려웠다. 디노티시아와 한양대는 이런 문제를 해결하고자 표준화된 환경에서 알고리즘 성능을 정확히 비교할 수 있는 플랫폼을 만들었다. 또한 최근 3년(2022~2024년)동안 가장 많이 주목받은 양자화 기술 8가지를 선정해 동일한 조건에서 객관적으로 평가했다. 특히 이 플랫폼은 ▲가중치와 활성화 값(모델의 기억과 계산을 담당하는 값)을 모두 줄이는 방식, ▲가중치만 줄이는 방식, ▲AI가 긴 입력을 처리할 때 임시 저장하는 공간(KV 캐시)을 줄이는 방식 등 세 가지 유형으로 나눠 알고리즘 성능을 분석했다. 정무경 디노티시아 대표는 “LLM 서비스가 널리 상용화되기 위해서는 양자화를 통한 모델 경량화가 필수적이지만, 어떤 양자화 기술이 타겟 응용과 시스템에 더 유효한 지 판단이 어렵다”며 “'QLLM-INFER'는 양자화 알고리즘의 성능을 객관적이고 투명하게 비교할 수 있는 오픈소스 플랫폼으로, 최적의 양자화 솔루션을 선택하거나 새로운 양자화 기술을 개발할 때 큰 도움을 줄 것”이라고 강조했다. 최정욱 한양대학교 융합전자공학과 교수는 “지금까지 양자화 기술은 연구마다 기준이 달라 객관적 비교가 어려웠다”며 “이번 플랫폼은 AI 연구에 처음으로 표준화된 평가 기준을 제시했다는 점에서 학문적으로 의미가 크며, AI 연구자들이 이 플랫폼을 통해 더욱 객관적이고 신뢰성 높은 연구 성과를 낼 수 있을 것으로 기대한다”고 말했다. 한편 디노티시아는 최근 한국어 논리 추론 AI모델인 'DNA-R1'을 오픈소스로 공개해 한국어 AI 연구 활성화에 기여하고 있다는 평가를 받고 있다.

2025.04.08 13:44장경윤

"AI 인프라 대안 나올까"…망고부스트, 엔비디아 넘은 추론 성과 공개

망고부스트가 업계 표준 성능 테스트에서 인공지능(AI) 추론(inference) 분야의 신기록을 세우며 거대언어모델(LLM) 시대에 대응할 수 있는 새로운 기술적 대안을 제시했다. AI 데이터센터의 성능, 비용 효율성, 개방형 아키텍처를 두루 갖춘 조합으로 가능성을 입증하며 시장의 주목을 받고 있다. 망고부스트는 지난 2일 미국 워싱턴주 벨뷰에서 실시된 ML퍼프 인퍼런스(MLPerf Inference) v5.0 테스트에서 자사의 AI 추론 소프트웨어 '망고 LLM부스트'와 AMD 'MI300X' 그래픽처리장치(GPU) 조합으로 라마2-70B(Llama2-70B) 모델 오프라인 추론 부문에서 가장 높은 성능을 기록했다고 5일 밝혔다. 이번 테스트는 총 32개의 'MI300X' GPU를 4개 서버 노드에 분산한 다중 노드 구성에서 이뤄졌으며 'MI300X' 기반 시스템의 첫 ML퍼프 멀티노드 제출 사례로도 주목된다. 망고부스트는 '라마2-70B' 오프라인 추론 시나리오에서 초당 10만3천182 토큰(TPS)을 처리해 이전 최고였던 8만2천749 TPS 기록을 넘어섰다. 서버 시나리오에서도 9만3천39 TPS를 기록해 엔비디아 'H100' 기반 시스템 성능을 뛰어넘는 성과를 입증했다. 비용 구조 개선 효과도 눈에 띈다. 'MI300X' GPU는 H100 대비 최대 62% 저렴한 가격에 공급되며 '망고 LLM부스트'와의 조합으로 동일 GPU 수 기준 2.8배 더 높은 가격 대비 성능을 기록했다. 일각에서는 이를 고성능 AI 인프라의 비용 구조를 재편할 수 있는 가능성으로 보고 있다. 이 같은 성과는 AMD와의 긴밀한 협업을 통해 라데온 오픈 컴퓨트(ROCm) 소프트웨어 스택을 최적화한 결과다. 망고부스트는 'MI300X'의 성능을 극대화하는 동시에 단일 노드부터 멀티 노드 클러스터까지 유연하게 확장 가능한 AI 추론 솔루션을 구현했다. 클라우드 환경에서도 경쟁 우위가 확인됐다. 망고부스트는 AWS의 'A100' 기반 환경에서 오픈소스 프레임워크 '오라마(Ollama)' 대비 최대 138배 빠른 AI 추론 성능을 보였으며 허깅페이스의 '텍스트 생성 추론(TGI)'와 vLLM을 포함한 주요 프레임워크와 비교해 성능 및 비용 측면에서 모두 우위를 입증했다. 특히 라마3.1-70B, 큐원-32B, 딥시크-R1-디스틸 등 최신 LLM 모델을 대상으로도 성능 저하 없이 일관된 결과를 유지했다. 이는 다양한 워크로드에 대응 가능한 범용 추론 솔루션으로서의 강점을 보여준다. '망고LLM부스트'는 50개 이상의 오픈 거대언어모델(LLM)을 지원하며 도커 기반의 원라인(one-line) 배포 방식, 오픈AI 애플리케이션 프로그램 인터페이스(API) 호환성 등을 제공해 기존 시스템을 유지하면서도 손쉽게 도입 가능하다. 아마존웹서비스(AWS), 애저(Azure), 구글클라우드플랫폼(GCP) 등 주요 퍼블릭 클라우드뿐 아니라 보안 요구가 높은 온프레미스 환경에서도 통합 운용이 용이하다. 기술적 차별성은 자체 개발한 하드웨어 IP에 기반한다. 이 회사의 데이터처리장치(DPU)는 GPU, 스토리지, 네트워크 가속기 간 데이터 흐름을 최적화해 AI 인프라의 성능과 비용 효율을 동시에 높이는 역할을 한다. 관련 기술은 30건 이상의 특허로 보호받고 있으며 국제 컴퓨터 아키텍처 학술대회(ISCA) 등에서 발표된 10여 년간의 연구 성과를 바탕으로 개발됐다. 망고부스트는 현재 미국, 캐나다, 한국 등을 거점으로 빠르게 사업을 확장하고 있으며 6천만 달러(한화 약 810억원) 이상의 투자를 유치한 상태다. 당초에는 고성능 DPU 반도체로 주목받았지만 창업 초기부터 AI 인프라 전반을 아우르는 풀스택 시스템 솔루션 기업으로의 전환을 준비해왔다. 이번 '망고LLM부스트'는 이러한 소프트웨어 역량의 대표적인 결과물이다. 김장우 망고부스트 대표는 "이번 ML퍼프 결과는 글로벌 AI 인프라 시장에서 망고부스트의 기술력이 공식적으로 인정받았다는 의미"라며 "DPU 기반 하드웨어와 LLM 추론 최적화 소프트웨어가 결합된 풀스택 솔루션으로 AI 데이터센터의 성능과 비용 문제를 동시에 해결해 나가겠다"고 말했다.

2025.04.05 13:52조이환

[AI 리더스] S2W "지식그래프·온톨로지로 무장한 AI"…다크웹 넘어 산업까지 확장

"우리가 지향하는 궁극적인 목표는 의사결정을 지원하는 인공지능(AI)으로, 복잡한 현실 문제에 실질적인 해답을 제시하는 AI입니다. 기존의 생성형 AI가 평균 80~90%의 정확도를 보인다면 도메인 특화 지식그래프와 온톨로지는 이에 더해 95% 이상의 정밀 자동화를 실현합니다. 분야별 AI들이 협업해 해법을 찾아가는 구조는 진정한 문제 해결형 AI로 나아가기 위한 실질적 경로로, 우리의 기술적 목표입니다." 박근태 S2W 최고기술책임자(CTO)는 최근 경기도 판교시 회사 사옥에서 진행된 기자와의 인터뷰에서 이같이 말했다. 그는 복잡한 현실 문제를 단순 자동화가 아닌 분야별 AI 에이전트 간의 협업을 통해 해결하려는 구조야말로 S2W 기술의 핵심 가치라고 설명했다. 또 이를 위해 도메인 특화 '지식그래프'와 정밀 전처리 인프라를 함께 구축해 생성형 AI가 혼자서는 넘기 어려운 정확도 한계를 기술적으로 보완하고 있다고 강조했다. 28일 업계에 따르면 최근 생성형 AI의 한계를 보완하고 정밀한 의사결정까지 지원하는 기술로 '도메인 특화 지식그래프'와 '온톨로지' 개념이 주목받고 있다. 단순 정보 생성에서 나아가 복잡한 산업 문제를 다각도로 분석해 해법을 제시하려는 시도가 늘고 있는 가운데 이 두 요소는 기술 신뢰성과 실효성을 동시에 확보할 수 있는 기반으로 평가된다. S2W가 말하는 'AI의 눈'…지식그래프와 온톨로지의 진화 과정은 '지식그래프'와 '온톨로지'는 S2W가 산업 영역으로 확장하는 과정에서 가장 전면에 내세우는 기술이다. 생성형 AI가 말 그대로 '생성'에 강하다면 지식그래프는 '정확한 연결'을 책임지는 구조적 기반이다. 데이터를 단순히 나열하거나 열람하는 것이 아니라 AI가 그 의미와 관계를 맥락 속에서 파악할 수 있게 해준다는 것이 박 CTO의 설명이다. 지식그래프는 정보를 '노드'와 '엣지(연결관계)'로 표현해 데이터 간의 숨겨진 인과성과 유사성을 구조화한다. 일례로 반도체 사업에서 '공급망 이슈 → 재료 부족 → 생산 중단'이라는 흐름을 벡터 안의 그래프 형태로 구성하면 인간 분석가보다 더 빠르고 정확하게 AI가 리스크를 예측할 수 있다. 단순히 데이터를 모으는 데 그치지 않고 실시간으로 이들의 관계성까지 해석하는 것이 핵심이다. '온톨로지'는 이 지식그래프가 혼란 없이 작동하도록 만드는 개념 사전이다. 산업별 주요 개념들을 정의하고 그 계층구조와 속성, 분류 기준을 정형화한다. 일례로 철강 산업 공정에 도입된다면 '롤링', '주조', '냉각' 같은 개념이 각각 어떤 역할이고 어떤 순서로 진행되는지를 AI가 이해할 수 있게 만드는 것이 온톨로지의 역할이다. 박 CTO는 "우리는 이 두 기술을 결합해 단순 검색 기반 AI에서 '의미 기반 추론형 AI'로 진화하는 구조를 구현하고 있다"며 "이는 특히 거대언어모델(LLM)의 고질적인 문제인 환각(hallucination)을 줄여 기존 생성형 AI가 자동화한 80% 업무를 95%까지 자동화할 가능성을 제공한다"고 강조했다. 이어 "AI가 그럴듯한 답을 넘어서 왜 그런 답을 도출했는지까지 설명할 수 있으려면 지식 구조가 반드시 뒷받침돼야 한다"고 설명했다. 다만 기존 산업에서 지식그래프는 오랫동안 수작업 중심으로 구축돼 왔다. 산업에 본격 도입하기엔 시간과 비용 부담이 컸고 설계 인력도 많이 필요했다. 팔란티어 같은 글로벌 기업은 이 분야의 선두주자로 꼽히지만 수십 명 단위의 인력을 투입해 대규모 온톨로지를 구축하는 방식이어서 비용 장벽이 높다는 한계가 있었다. S2W는 이같은 구조적 한계를 AI 기반 자동화로 극복하고 있다. 자연어처리(NLP), 분류 모델, 임베딩 기반 유사도 분석 등 여러 기술을 통해 개체 간 관계를 자동으로 추출한다. 반복적이고 규칙 기반의 매핑 작업은 AI가 맡고 도메인 전문가가 최종 검증만 수행하는 하이브리드 프로세스를 구축해 효율성과 정확도를 동시에 확보했다. "팔란티어와는 다른 길"…경량형 AI 통해 산업과 안보 동시 '공략' 이러한 구조화 기반 기술은 산업 쪽에서도 빠르게 적용 중이다. S2W가 국내에서 쌓은 대표적인 사례는 현대제철이다. 압연기, 냉각라인 등 설비 정보를 지식그래프로 연결해, 공정 이상이 발생한 경우 영향을 받는 설비나 지역 정보까지 결합하여 분석할 수 있도록 했다. 과거 다양한 관련 시스템에 각각 접속해야하고 관련된 모든 정보를 파악하기도 힘들었던 작업이 AI 기반으로 수초 내에 해결되고 있다. 롯데멤버스 역시 대표적인 지식그래프 기반 AI 도입 사례다. S2W는 롯데멤버스와 함께 회원 소비 데이터와 뉴스 데이터를 연계한 트렌드 분석 플랫폼을 개발 완료했으며 오는 2분기 중 롯데그룹 제휴사를 대상으로 시범 도입할 예정이다. 두 기업 모두 고객 맞춤형 인사이트 도출과 자동화된 의사결정 기반 확보에 효과를 보고 있다. 이외에도 회사는 공공기관, 금융사 등과 협업해 지식그래프 기반 AI 솔루션을 테스트하거나 납품하고 있다. 금융권에서는 계좌 간 이동 경로와 거래 내역을 그래프화해 자금세탁이나 투자사기 등의 이상 패턴을 조기 탐지하는 데 적용되고 있다. AI가 정황상 수상한 자금 흐름을 실시간으로 식별함으로써 기존 룰베이스 시스템보다 정밀한 경보 시스템이 가능하다는 평가다. 해외 진출 역시 보안과 국방 분야에서 활발히 진행되고 있다. 회사는 인도네시아·싱가포르 등 아시아권 정부기관과 협력해 사이버보안 기반 정보 인텔리전스 플랫폼을 구축했고 중동 정보기관 및 동남아 국가의 군사 정보기구 등과도 기술 검토 단계에 있다. AI가 직접 정보를 수집하고 위험을 추론하는 구조는 국경을 넘는 디지털 위협에 빠르게 대응할 수 있는 수단으로 평가받고 있다. 군·정보기관의 특성상 폐쇄망이나 열악한 통신 환경에서도 작동 가능한 분석 체계가 필수다. 이에 박 CTO는 "우리가 가진 다크웹 기반 실시간 수집 역량과 결합된 지식그래프 기반 분석 시스템이 이런 조건에 적합하다"고 강조했다. 업계에서는 이같은 S2W의 해외 전략이 팔란티어와 같은 미국계 보안 AI 기업들과는 궤를 달리한다고 분석한다. 팔란티어가 대규모 인력 투입과 고비용 프로젝트 중심이라면 S2W는 상대적으로 '가성비' 있는 경량 구조와 유연한 도입 모델을 내세운다는 것이다. 특히 아시아권 정부기관이나 정보기관과의 협력에서 문화적 유사성과 민첩한 기술 지원이 시너지를 낸다는 평가다. 박 CTO는 "우리는 고객 피드백을 반영해 신속하게 서비스를 튜닝해주는 대응력을 가지고 있다"며 "특히 아시아 국가들과는 워크플로우나 의사결정 방식에서 유사한 부분이 많아 우리가 기술 도입을 적극적으로 지원한 점이 어필한 것 같다"고 설명했다. 이어 "공공·보안 시장에서 쌓은 신뢰를 바탕으로 제조업과 같은 산업 영역까지 해외 확장을 이어가는 것이 목표"라고 밝혔다. 보안 AI 넘은 산업 AI…의미를 추론하는 '에이전트'로 진화 이 같은 전략이 가능했던 것은 S2W가 태생부터 '정보의 하수도'라 불리는 다크웹을 정면 돌파하겠다는 목표로 시작된 회사이기 때문이다. 창업자 서상덕 대표는 카이스트를 졸업하고 롯데그룹 미래전략연구소와 보스턴컨설팅그룹(BCG)을 거치며 전략기획과 AI 기술에 모두 정통한 인물이다. "가장 복잡하고 지저분한 데이터를 다룰 수 있어야 진짜 AI 기술력이라 할 수 있다"는 그의 판단 아래 회사는 다크웹이라는 난제를 선택했다. 박근태 CTO 역시 카이스트 전기전자 박사 출신으로, SK텔레콤에서 AI·빅데이터 개발 조직을 이끌던 경력을 갖고 있다. 그는 보안이라는 극한의 도메인 안에서 강건한 AI 시스템을 만든다면 이를 산업 전반으로 확장할 수 있다는 구조적 자신감을 갖고 있었다. 이에 회사는 초기부터 구글 BERT 기반의 경량 자연어처리 모델을 활용해 다크웹 데이터를 정제했고 이후 LLM을 병렬적으로 활용하며 기술의 확장성을 키워나갔다. 다크웹은 단순한 범죄 채널이 아닌 수많은 언어·텍스트·이미지가 얽힌 비정형 데이터의 보고다. S2W는 이를 수년간 실시간으로 크롤링하며 자연어처리, 전처리, 데이터 구조화 기술을 축적했고 이는 현재 산업 데이터로 확장 가능한 기술적 기반이 됐다. 박 CTO는 "다크웹 보안이라는 가장 척박한 환경에서 출발했기에 제조·유통·금융 데이터는 오히려 '정돈된 정보'처럼 느껴졌다"고 말했다. 현재 S2W는 이러한 기술 구조를 기반으로 '에이전트 기반 의사결정 AI'로의 진화를 추진 중이다. 박 CTO는 "AI가 하나의 지시만 받고 단일 작업을 수행하는 시대는 지났다"며 "복잡한 산업 환경에서는 다양한 전문 에이전트가 협업하는 '멀티에이전트' 구조가 필요하다"고 강조했다. 일례로 제조업에선 '설비 진단 에이전트', '수요 예측 에이전트', '스케줄링 에이전트'가 각각 데이터를 분석한 후 서로의 분석 결과를 공유하고 결론을 도출한다. 이때 지식그래프는 이질적인 데이터를 하나의 언어로 통합하는 '지도'이자 '중재자' 역할을 할 수 있다는 것이다. 이미 S2W는 자사 인텔리전스 조직 '탈론(TALON)'을 통해 AI 에이전트 파일럿을 개발 중이다. 다크웹에서 특정 키워드가 탐지되면 에이전트가 관련 지표를 자동 분석하고 보고서를 생성해 인간 분석가에게 전달하는 방식이다. 이는 향후 기업 내 부서 간의 단절된 정보흐름을 AI가 논리적으로 통합해주는 시스템으로 확장될 수 있다. 이같은 기술적 기반과 사업 확장을 바탕으로 S2W는 올해 하반기 코스닥 기술특례상장을 목표로 IPO를 추진 중이다. 지난해 12월 기술성 평가를 통과했으며 현재는 한국거래소의 예비심사 청구를 마쳤다. 주관사는 대신증권으로, 이번 IPO를 통해 글로벌 보안 AI 기업으로의 도약을 본격화할 계획이다. 특히 아시아와 중동 지역을 1차 타깃 시장으로 삼고 IPO 자금을 현지 인재 유치, 지사 설립, 기술 고도화 등에 전략적으로 활용할 방침이다. 박 CTO는 "우리 목표는 AI가 인간의 결정을 대체하는 것이 아니라 보다 정밀하고 빠른 결정을 가능하게 하는 파트너로 진화하게 하는 것"이라며 "보안에서 시작된 우리 기술이 산업 전반의 디지털 의사결정을 뒷받침할 수 있을 것"이라고 강조했다.

2025.03.28 16:27조이환

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

수십년 된 공공SW 관행, 이젠 바꿔야...AI·SW 기반 국가전략 필요

SKT, AI 사업 성장에 영업익 14% 껑충

백종원 더본코리아 사과·상생 약속 통할까

韓 디스플레이, '아이폰17'용 OLED 공급 본격화…美 관세 변수

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현