• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
배터리
인공지능
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (367건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"버티컬 AI 노린다"…게임사 홀린 이연수 NC AI 대표, 영역 확대 본격화

"엔씨소프트 내부에 게임 애니메이터 인력이 상당한 데 이들이 수작업으로 하는 일들을 최대한 인공지능(AI)이 할 수 있도록 돕고 있습니다. 3D 이미지 생성부터 컨셉 아트, 인게임 콘텐츠까지 AI가 활발하게 사용되고 있습니다." 이연수 NC AI 대표가 최신 AI 기술을 바탕으로 게임 개발 생산성 향상을 통해 게임 산업 발전을 이끌겠다는 포부를 드러냈다. 그간 모회사인 엔씨소프트를 통해 오랫동안 쌓아온 기술력과 실전 경험을 바탕으로 AI 기술을 결합해 창작의 한계를 뛰어 넘는 새로운 게임 경험을 NC AI가 제공할 수 있도록 하겠다는 의지도 다졌다. 이 대표는 11일 경기도 판교 그래비티 호텔에서 열린 'AWS 포 게임즈 AI 로드쇼(AWS for Games AI Roadshow)'에 참가해 '게임 산업에서의 AI 기술 활용'을 주제로 이 같은 내용을 담은 키노트 연설을 진행했다. 'AWS 포 게임즈 AI 로드쇼'는 게임 개발자 300여 명이 한자리에 모인 국내 최초 AI·머신러닝 전문 포럼으로, NC AI는 게임 AI 분야 대표 기업으로서 키노트 연설과 첨단 기술 시연을 선보이며 현장 분위기를 뜨겁게 달궜다. 이 대표는 약 300명의 게임 개발자와 업계 관계자 앞에서 진행된 이번 연설에서 AI가 더 이상 선택이 아닌 게임 산업의 필수 성장 동력임을 강조했다. 또 NC AI가 국내 대표 AI 기업으로 성장하고 있는 만큼, 앞으로 개발사들의 고민을 덜고 게임 개발을 더욱 쉽게 만드는데 앞장서겠다는 점도 강조했다. 특히 이 대표는 NC AI가 연구·개발한 3D 생성모델 '바르코 3D'와 애니메이션 자동화, 사운드 생성AI 등 다양한 혁신 기술을 소개하며 실제 게임 개발 현장에서의 적용 사례와 미래 비전을 구체적으로 제시해 참석자들의 큰 호응을 얻었다. 이날 행사장에는 NC AI의 3D, 애니메이션, 음성 및 사운드 생성 등 핵심 AI 기술을 직접 체험할 수 있는 시연부스도 마련됐다. '바르코 3D'는 텍스트 프롬프트나 2D 이미지만으로도 고품질 3D 캐릭터와 오브젝트를 빠르게 생성할 수 있는 기술로, 게임 개발 현장의 그래픽 자산 제작 효율을 획기적으로 높인다. 애니메이션 생성AI는 캐릭터의 움직임을 자동화해 개발자의 수작업 부담을 줄이고 보다 자연스럽고 다양한 동작을 구현하는 모습을 보여준다. 사운드 생성AI 플랫폼 '사운드 팔레트'는 효과음과 캐릭터 음성까지 AI가 자동 생성·변환하는 기술로, 실제 게임 및 영상 콘텐츠에서의 활용도가 높아 큰 호응을 얻었다. 또 NC AI의 TTS는 10초 내외 분량의 음성 샘플만으로도 다양한 언어와 스타일의 고품질 캐릭터 보이스를 생성할 수 있어 글로벌 게임 시장 진출에 최적화된 솔루션으로 주목 받고 있다. 이 대표는 이날 행사에서 게임 산업 내 AI 기술의 현재와 미래, 생산성을 넘어서는 새로운 시장 가치 창출에 대한 비전도 공유했다. NC AI는 게임 산업에서 축적한 AI 역량을 바탕으로 패션, 미디어, 커머스 등 다양한 산업에 특화된 버티컬 AI 솔루션을 제공하고 있다. 실제로 NC AI는 자체 개발한 대형언어모델 '바르코 LLM'을 기반으로, 패션 산업 특화 '바르코 아트' 솔루션을 통해 MLB, 디스커버리 등 국내 대표 패션 브랜드와 협업하며 신상품 기획, 디자인, 생산 전 과정을 혁신하고 있다. 디자이너가 키워드만 입력해도 수 초 내 수십 종의 디자인 시안을 자동 생성하는 등 업무 효율을 획기적으로 높여 다양한 고객사들과 사업논의를 진행하고 있다. 뿐만 아니라 미디어·커머스 분야에서도 이미지·영상 자동 생성, 실시간 다국어 더빙, 챗봇 등 다양한 AI 서비스를 SaaS(서비스형 소프트웨어) 모델로 제공함으로써 시장을 넓혀갈 계획이다. 이 대표는 "이번 AWS 행사에 참여해 우리의 다양한 기술을 소개할 수 있어 무척 기쁘다"며 "우리는 국내 게임 업계에서 가장 선도적으로 AI 서비스 경험을 축적해 온 기업으로 앞으로도 다양한 산업 파트너들과 협업해 실제 현장에 가치를 더하는 혁신적인 AI 서비스를 만들 것"이라고 밝혔다.

2025.06.11 14:47장유미

"클라우드 제약 벗어난 AI 혁신, 퀄컴 AI 허브로 돕는다"

"AI는 자료 요약이나 정리를 통한 생산성 향상과 업무 효율 향상, 문자인식이나 번역, 카메라 화질 개선 등 이미 우리 일상생활에서 널리 쓰이고 있다. 보다 다양한 기기와 응용프로그램이 AI로 지능적으로 작동하도록 돕는 것이 퀄컴의 목표다." 5일 오후 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '컨버전스 인사이트 서밋'(CIS 2025)에서 이규진 퀄컴코리아 이사가 이렇게 강조했다. 이날 이규진 이사는 "클라우드를 거치지 않고 다양한 기기 연산 능력만 활용하는 온디바이스 AI 개발에는 다양한 장애물이 있으며 퀄컴은 이를 해소할 수 있는 '퀄컴 AI 허브'를 제공하고 있다"고 설명했다. "온디바이스 AI, 지연시간·비용에 장점 지녀" 현재 주목받는 다양한 AI 서비스는 대부분 클라우드에서 구동된다. 웹브라우저나 스마트폰 앱으로 질문이나 이미지 생성 요청을 넣으면 불과 수 초 안에 원하는 결과물을 되돌려준다. 그러나 클라우드로 데이터가 오가고 결과물을 받아보는 구조 상 개인 정보 등 프라이버시나 기업 비밀, 민감 정보 노출 가능성에서 자유롭지 않다. 또 지연 시간이나 서비스 장애/중단시 이를 활용할 수 없다는 문제도 있다. 이규진 이사는 "AI 구동을 클라우드에서 로컬 기기로 전환하면 컴퓨팅 자원 이용에 드는 비용을 줄이는 것은 물론 처리 시간 단축, 개인정보나 민감정보, 비밀 유출 차단 등 다양한 이점을 얻을 수 있다"고 설명했다. 이어 "온디바이스 AI를 효과적으로 실행하려면 CPU나 GPU 뿐만 아니라 각종 AI 연산을 저전력으로 실행하는 NPU(신경망처리장치)가 필요하다. 퀄컴이 스마트폰이나 PC, 오토모티브(자동차)나 IoT용으로 제공하는 스냅드래곤 플랫폼은 이를 충족한다"고 덧붙였다. 다양한 모델 사전 최적화해 제공하는 '퀄컴 AI 허브' 퀄컴 AI 허브는 퀄컴 스냅드래곤/드래곤윙 시스템반도체(SoC) 탑재 기기에서 작동하는 AI 앱이나 서비스 개발을 돕기 위한 개발자 포털로 작년 3월부터 가동을 시작했다. 지원하는 런타임은 현재 라이트RT와 범용성을 갖춘 ONNX, 퀄컴 SoC에 최적화된 퀄컴 AI 스택 등 3가지다. 이규진 이사는 "퀄컴 AI 허브는 6월 기준으로 220개 이상의 오픈소스 AI 모델을 퀄컴 플랫폼에 최적화해 제공하고 있고 이들 모델을 활용한 상용 서비스 구현도 문제가 없다"고 설명했다. 이어 "자체 개발한 AI 모델이나 추론 성능을 강화한 모델, 튜닝한 모델을 가져와 대상 플랫폼에 맞는 형태로 최적화하는 작업도 '자체 모델 불러오기' 기능으로 지원한다"고 덧붙였다. "물리 기기 기반 프로파일링으로 PoC 시간 단축" 퀄컴 AI 허브는 허브 내에서 구동되는 실물 기기 기반 시뮬레이션으로 AI 모델을 직접 실행하고 실행 소요 시간 프로파일링, 메모리 이용량, 연산량 측정 등 기능도 수행한다. 이규진 이사는 "이들 기능을 활용하면 개념실증(PoC)을 더 빠르게 추진하고 완성도를 강화할 수 있다. 또 개발자와 퀄컴 담당자가 참여하는 슬랙 커뮤니티를 통해 개발 과정에서 겪는 어려움에 대해 서로 논의할 수 있다"고 설명했다. 이어 "퀄컴 AI 허브를 활용해 국내에서도 더 많은 개발자들이 온디바이스 AI 앱과 서비스를 개발하고 이를 통해 관련 생태계 활성화가 일어나길 바란다"고 당부했다.

2025.06.05 16:50권봉석

망고부스트, AMD 기반 멀티노드 AI 학습 첫 성공…'라마2 70B' 11분 만에 완료

망고부스트가 AMD의 고성능 GPU 32개를 활용해 초대형 AI 모델을 약 11분 만에 학습하는 데 성공했다. 복잡한 하드웨어와 소프트웨어를 하나로 최적화해, 특정 장비에 의존하지 않고도 빠르고 효율적인 AI 학습이 가능하다는 점을 입증했다. 망고부스트는 메타 '라마2 70B 로라' 모델을 10.91분 만에 학습하는 데 성공했다고 5일 밝혔다. 이번 결과는 ML퍼프 기준으로 최초의 AMD 그래픽처리장치(GPU) 기반 멀티노드 학습 성과다. GPU 간 통신 병목을 제거하면서도 성능 저하 없이 학습 시간을 대폭 단축한 사례다. 측정은 국제 AI 벤치마크인 'ML퍼프 트레이닝 5.0(MLPerf Training v5.0)'에서 AMD '인스팅트 MI300X' 그래픽처리장치 32개를 활용했다. 특히 이번 학습에는 일부 파라미터만 미세조정하는 로라 방식이 적용돼 거대 모델에 대해 짧은 시간 안에 고효율 파인튜닝이 가능함을 입증했다. 망고부스트는 온프레미스와 클라우드 환경을 모두 지원하는 유연한 구조를 갖춰 특정 벤더나 하드웨어 환경에 얽매이지 않고 확장 가능한 학습 인프라를 구현하고 있다. 망고부스트는 자체 개발한 '망고 LLM부스트' 소프트웨어와 '망고 GPU부스트 RDMA' 통신 솔루션을 통해 모델 병렬화와 자동 튜닝, 배치 최적화, 메모리 조정 등을 통합 제공하는 시스템을 구현했다. 'LLM부스트'는 다양한 대규모 언어모델을 안정적으로 운영할 수 있도록 설계됐다. 'GPU부스트 RDMA'는 수천 개 큐피 환경에서도 성능 저하 없이 통신을 유지할 수 있도록 설계돼 있다. ML퍼프 제출 기준으로는 노드 1개에서 2개, 4개로 구성된 멀티노드 환경 모두에서 95~100% 수준의 선형적 성능 확장성을 달성했다. 통신 병목을 해소한 원격 직접 메모리 접근(RDMA) 기반 구조와 GPU 최적화 소프트웨어가 병렬 학습 효율을 실질적으로 끌어올린 것으로 해석된다. 이번 학습 결과는 AMD 라데온 오픈 컴퓨트(ROCm) 소프트웨어 스택과의 통합을 기반으로 한다. 망고부스트는 이 환경에 맞춰 'LLM부스트'의 연산, 메모리, 네트워크 제어 구조를 최적화했고 'MI300X'의 메모리 대역폭과 성능을 극대화하는 데 초점을 맞췄다. 망고부스트는 이번 벤치마크 외에도 '라마2 7B', '라마3.1 8B' 모델에 대한 내부 학습 벤치마크를 통해 유사한 성능을 확보해온 것으로 알려졌다. 이 성능은 실제 온프레미스나 클라우드 환경 모두에서 재현 가능하며 일반화된 학습 효율을 보장한다는 점에서 상용화 가능성도 입증된 상태다. ML퍼프와 ML커먼스의 창립자인 데이비드 캔터는 "망고부스트의 첫 ML퍼프 트레이닝 결과는 매우 인상적"이라며 "'MI300X' 단일 노드부터 4노드까지의 확장된 학습 성능은 현대 AI 가속기의 성능을 온전히 활용하려면 소프트웨어 스택의 최적화가 얼마나 중요한지를 다시 입증한 사례"라고 밝혔다. 김장우 망고부스트 대표는 "이번 ML퍼프 벤치마크에서 우리는 소프트웨어와 하드웨어의 통합 최적화를 통해 벤더 종속 없이도 대규모 LLM 학습을 효율적으로 수행할 수 있는 해답을 제시했다"며 "이번 결과는 우리 기술이 실제 데이터센터 운영 환경에서 충분히 확장 가능하다는 점을 보여주는 이정표"라고 밝혔다.

2025.06.05 16:40조이환

"동남아판 챗GPT 만든다"…싱가포르, '멀티모달 LLM'에 '7천만 달러' 투입

싱가포르 정부가 자체 거대언어모델(LLM) 개발에 착수했다. 글로벌 인공지능(AI) 경쟁 속 지역 주권을 확보하고 다언어·다문화 환경에 최적화된 동남아판 소버린 AI를 실현하겠다는 포부다. 1일 싱가포르 정보통신미디어개발청(IMDA)에 따르면 이 조직은 현재 과학기술연구청(A*STAR), AI 싱가포르(AISG)와 함께 '국가 멀티모달 LLM 프로그램(NMLP)'을 운영하고 있다. 해당 사업은 싱가포르 국가연구재단(NRF)이 7천만 싱가포르 달러(약 700억원)를 투자해 추진되며 '국가 AI 전략 2.0 및 연구혁신기업(RIE) 2025 계획'과 연계해 내년까지 총 2년간 진행된다. 이번 프로젝트는 AI 인재 양성, 산업 생산성 향상, 신뢰 가능한 거버넌스 환경 조성 등 세 갈래 목표로 설계됐다. 국내 연구자에게는 고성능 컴퓨팅 자원을 지원하고 산업계는 다언어 고객 응대와 자율적 의사결정 시스템을 도입할 수 있도록 유도하는 것이다. 또 LLM의 작동 방식과 위험 요소를 규명하는 연구를 통해 신뢰 기반 AI 사용환경도 구축할 계획이다. 'NMLP'는 크게 두 가지 축으로 구동된다. 첫번째 축인 '머라이언(MERaLiON)'은 과학기술연구청 정보통신연구소가 주도한 모델로, 싱가포르와 동남아에서 흔한 언어·방언 혼용 대화를 인식하고 이해하는 데 초점을 맞췄다. 이 모델은 텍스트, 음성, 장면 정보를 통합하는 멀티모달 처리 능력을 갖췄고 구어체를 이해해 문맥 인식 정확도를 높였다. 구체적으로는 음성 인식·번역, 음성 요약, 음성 질의응답, 장면 인식, 감정 및 분위기 파악, 지역 방언 해석 등 6가지 주요 기능을 갖췄다. 이를 통해 공공·민간 부문의 고객지원, 인사이트 도출, 자동화 의사결정 등에 폭넓게 활용될 수 있다는 게 당국의 설명이다. 싱가포르 정부가 설립한 국가 AI 연구개발(R&D) 추진 기관이자 AI 국가 전략을 실행하는 중심 조직인 'AI 싱가포르'가 개발한 '시라이언(SEA-LION)'은 동남아 다국어 학습에 특화된 LLM 모델이다. 태국어, 베트남어, 인도네시아어 등 주요 지역 언어를 학습해 서구권이나 중화권 중심의 모델보다 높은 문맥 적합성과 응답 품질을 보이는 것이 특징이다. 언어적 대표성의 불균형 문제를 해소하고 포용적 AI 개발을 추진하는 데 목적을 둔다. 현재까지 개발된 '시라이언' 모델은 동남아 전역에서 작동 중으로, 동급 오픈소스 모델을 성능 면에서 앞서고 있는 것으로 알려졌다. 산업계 참여도 이미 활발하다. 과학기술연구청은 정보통신미디어개발청과 함께 머라이언 AI 컨소시엄을 조직했고 DBS은행, 그랩, 마이크로소프트, SPH미디어, 국가슈퍼컴퓨팅센터(NSCC) 등 13개 기관이 1차 멤버로 합류했다. 이들은 다언어 고객상담, 감정 및 건강정보 분석, 자율 의사결정 솔루션 등을 함께 개발 중이다. 컨소시엄은 공통 수요 집약을 통해 개발·통합 비용을 줄이고 데이터와 전문성을 공유해 모델 역량을 빠르게 개선할 방침이다. 또 기업 실무에 즉시 적용할 수 있는 형태의 교육과 도구를 제공하고, 투자 대비 수익(ROI) 검증을 위한 초기 개념증명(POC) 과제를 병행 추진한다. AI 싱가포르는 '시라이언'의 기능 확대와 품질 향상을 위해 외부 협력도 개방했다. 오픈소스화된 결과물을 토대로 다양한 파트너십을 구축해 공동 개발 체계를 유지한다는 계획이다. 싱가포르 정부는 이번 프로젝트를 통해 AI 기술의 지역 적합성과 전략적 자립성을 동시에 확보할 수 있을 것으로 기대하고 있다. 프로젝트 총괄 기관인 정보통신미디어개발청은 "싱가포르가 다언어 사회인 만큼 AI도 지역 현실을 반영할 수 있어야 한다"며 "이번 모델들이 산업 혁신뿐 아니라 AI 거버넌스에도 기여하길 기대한다"고 밝혔다.

2025.06.01 08:29조이환

포티투마루, 석박사 만남의 장 열었다…AI 인재, 현장으로 '직행'

포티투마루가 인공지능(AI) 대학원 석박사들과 산업 현장 문제 해결을 위한 생성형 AI 적용 가능성을 논의하는 만남의 장을 열었다. 포티투마루는 서울 본사에서 '생성AI선도인재 양성사업'의 일환으로 제1회 우수연구자 워크숍을 개최했다고 30일 밝혔다. 이 자리에는 국내 AI대학원 소속 우수 연구원들과 자사 연구진이 참여해 실제 산업 수요에 맞는 생성형 AI 기술 활용 방안을 집중 논의했다. 워크숍에서는 울산과학기술원, 인하대, 성균관대 등 각 대학 소속 연구원들이 진행 중인 연구 주제를 발표하고 이를 산업 현장에 적용할 수 있는 구체적 방식을 공유했다. 특히 고속도로 CCTV 영상 분석, 자연어 질의 생성, 멀티에이전트 시스템 등 다양한 주제가 제시됐다. 울산과학기술원 소속 연구원은 기상 조건으로 인한 노이즈를 제거하고 사고나 낙하물 등의 이상 상황을 실시간 식별할 수 있는 알고리즘 개발 방안을 설명했다. 인하대 연구팀은 그래프 기반 데이터베이스를 대상으로 자연어 질의 생성을 자동화하는 기술을 다뤘고 인하대와 성균관대의 공동 연구진은 회의실 예약부터 음료 주문까지 가능한 멀티에이전트 시스템 구현을 제안했다. 각 연구팀은 수요기관의 구체적인 니즈에 기반해 연구 주제를 수정하거나 일정을 조정하는 등 현실 적용을 위한 전략을 수립했다. 포티투마루는 연구원들의 활동을 적극 지원하고 기술적 문제 발생 시 자사 인프라와 노하우를 통해 해결을 지원할 계획이다. 워크숍 말미에는 김동환 포티투마루 대표와 우수 연구원들이 간담회를 열고 진로 고민과 산업 현장의 궁금증을 자유롭게 나누는 시간도 마련됐다. 학생들은 실제 기업 환경에서의 생성형 AI 활용에 대한 경험과 시야를 넓힐 수 있는 기회였다고 평가했다. 포티투마루는 생성형 AI 특화 스타트업으로, 초거대 언어모델의 환각 문제를 검색증강생성 기술 '알에이지42(RAG42)'와 독해 기술 '엠알씨42(MRC42)'를 통해 완화하고 있다. 자체 개발한 경량화 모델 '거대언어모델42(LLM42)'를 기반으로 전문 산업 분야 맞춤형 AI 솔루션을 제공하며 민감 데이터 보호를 위한 프라이빗 모드와 비용 절감형 학습·서빙 구조도 갖추고 있다. 김동환 포티투마루 대표는 "이번 워크숍은 미래 생성AI 시대를 이끌 인재들과 직접 소통하며 그들의 열정과 잠재력을 확인할 수 있는 소중한 기회였다"며 "이들이 실제 산업 문제 해결에 기여하고 혁신적인 결과를 낼 수 있도록 적극 지원하겠다"고 밝혔다.

2025.05.30 16:56조이환

정부, '1.6조원' 규모 GPU 대전 시작…"WBL 훈련용 반도체, 민간과 함께 확보"

과학기술정보통신부가 민간 클라우드 기업들과 손잡고 총 1조6천300억원 규모의 그래픽처리장치(GPU) 확보·임차 사업을 추진한다. 세계 최고 수준의 초거대 언어모델 개발과 국내 산학연의 인공지능(AI) 인프라 확충을 위한 행보다. 과기정통부와 정보통신산업진흥원은 29일 서울 강남 코엑스에서 클라우드 기업을 대상으로 GPU 확보·임차 사업 통합설명회를 개최했다. 이달 1차 추가경정예산을 통해 관련 예산을 확정한 이후 다음달 4주차까지 협력 기업 공모에 본격 착수한 상태다. 이번 사업은 ▲총 1조4천600억원 규모의 GPU 확보 사업과 ▲1천723억원 규모의 GPU 임차 사업으로 구성된다. 확보 사업은 정부와 민간이 협력해 첨단 GPU를 직접 구매·구축하는 방식이고 임차 사업은 클라우드 기업이 보유한 GPU를 임차해 활용하는 구조다. 임차된 GPU는 가칭 '월드 베스트 LLM(WBL)' 프로젝트와 국내 산학연 등에 지원될 예정이다. 정부는 국내 고성능 연산 자원 부족 문제를 해소하고 AI 기술의 자립 기반을 확보하는 데 사업의 목적이 있다고 설명했다. 설명회 현장에선 사업 개요와 정책 방향 외에도 공모 절차, 평가 기준, 지원 조건 등의 세부 사항이 구체적으로 안내됐다. 참석자들은 질의응답을 통해 공모 준비에 필요한 사항들을 직접 확인할 수 있었다. 과기정통부와 정보통신산업진흥원(NIPA)은 다음달 4주차까지 공모 접수를 마감하고 오는 7월 중 평가와 협약 체결을 마무리할 계획이다. 이후 GPU 인프라 확보 및 배포를 신속히 추진하겠다는 입장이다. 과기정통부는 "보다 구체적인 공모 내용과 사업 안내는 과기정통부 및 NIPA 홈페이지를 통해 확인할 수 있다"고 밝혔다.

2025.05.29 17:18조이환

코히어 손잡은 LG CNS, 결국 일 냈다…300억 규모 '외교부 AI 플랫폼' 사업자로 낙점

정부가 공공부문에서 생성형 인공지능(AI) 기술을 본격 도입하기 위해 적극 나선 가운데 LG CNS가 기술력을 인정 받아 약 300억원 규모인 '외교부 AI 플랫폼' 구축 사업자로 선정됐다. 공공기관이 발주한 AI 사업 중 가장 큰 규모로, LG AI연구원의 엑사원(EXAONE), 캐나다 글로벌 AI 기업 코히어(Cohere)과의 협업이 성과를 내는 데 주효했다. 29일 업계에 따르면 LG CNS는 외교부와 '지능형 AI 외교안보 데이터 플랫폼' 구축 계약을 체결했다. 이 계약으로 외교부 본부, 재외공관, 유관 정부조직 등의 외교업무를 지원하는 AI 플랫폼 및 서비스를 구축해 외교 업무 전반의 효율성과 대응력을 강화할 방침이다. 이를 위해 LG CNS는 외교부에 특화된 ▲AI 모델 파인튜닝 ▲AI 플랫폼 구축 ▲생성형 AI 서비스 개발 ▲데이터 관리체계 수립 ▲클라우드 인프라 구축 ▲외교데이터관리시스템 개선 ▲보안 체계 구축 등을 맡는다. 이번 사업의 핵심은 ▲외교문서 초안작성, 문서분류 및 요약, 외교업무 관련 정보관리 등 현업 담당자를 위한 어시스턴트 AI ▲실시간 글로벌 이슈 모니터링 및 허위정보탐지를 통해 의사결정을 지원하는 전략수립 AI ▲영사민원 챗봇 시스템을 통한 대국민 AI 등 외교 특화 생성형 AI 서비스를 개발하는 것이다. 특히 실시간 이슈 모니터링 서비스의 경우 검색량이 급증하거나 글로벌 외교 관련 국내외 데이터를 AI가 자동으로 수집·분석해 이슈 현황이나 키워드, 연관된 국가 등을 보고서 형식으로 즉각 생성해준다. 이를 통해 외교부 공무원들은 급변하는 국제 정세와 다양한 사건, 타 국가간 외교 갈등 등을 한눈에 파악하고 빠르게 대응할 수 있다. 대외비 정보가 많은 외교부 특성에 맞춰 LG CNS는 AI 사용 전 과정에 강력한 보안 체계도 구축한다. 보안 체계는 AI가 사용자의 데이터 접근 권한을 고려해 답변 수준을 필터링하거나, 사용자의 데이터 접근 기록 등을 실시간으로 추적하는 모니터링 기능을 구현하는 것이다. 또 LG CNS는 외교부에서만 접근 가능한 프라이빗 클라우드 인프라를 구축해 데이터가 외부망으로 유출되는 것을 사전에 방지할 계획이다. LG CNS는 한국어 역량이 가장 우수한 '엑사원', 코히어와 공동으로 개발한 다국어 거대언어모델(LLM) 등 AI 모델들을 외교부 AI 플랫폼에 멀티엔진으로 탑재한다. 이를 외교부 내부 데이터로 학습시켜 각 모델별 강점에 맞게 활용한다는 계획이다. 예컨대 한국어 기반 AI 서비스 개발에 엑사원을, 외국어 기반 AI 서비스에 코히어와 공동 개발한 모델을 활용하는 것이다. LG CNS와 코히어와 공동개발한 LLM은 23개국 언어에 능통한 고성능 AI 모델이기 때문에 전 세계 각지의 언어로 된 데이터를 취급하는 외교부에 적합하다. LG CNS는 지난 3월 코히어와 공공·금융 특화 AI 모델 및 에이전틱 AI 서비스 개발을 위한 파트너십을 체결한 바 있다. 국내 기업 중 코히어와 협업을 맺은 곳은 LG CNS가 유일하다. 코히어는 지난 2019년 구글 전 연구원 출신인 에이단 고메즈, 닉 프로스트와 캐나다 기업가인 이반 장이 설립한 곳으로, 오픈AI·앤트로픽 등을 경쟁사로 두고 있다. 엔비디아를 비롯해 세일즈포스, AMD, 시스코, 일본 후지쯔 등 글로벌 기업들로부터 자금을 지원 받고 있는 상태로, 현재 조달한 자금은 총 9억7천만 달러(약 1조3천468억원)인 것으로 알려졌다. 이곳의 기업 가치는 55억 달러(약 8조원)에 이른다. 에이단 고메즈 코히어 최고경영자(CEO)는 "한국에선 LG CNS 외에 파트너십을 맺는 기업이 없을 것"이라며 "앞으로 LG CNS와 원팀으로 계속 협업을 이어가며 한국 특화 LLM을 만들 뿐 아니라 풀스택을 갖추고 있는 만큼 고객에게 맞는 최적화 된 모델을 선보일 것"이라고 강조했다. LG CNS는 외교부 외에도 공공영역에서 다양한 AI 프로젝트를 맡으며 공공 AI 서비스 역량을 강화해왔다. 앞서 행정안전부에 정책보고서, 연설문 등 공문서를 만드는 AI 시범 서비스 개발을 완료한 바 있으며 최근에는 경찰청에 'AI 수사 지원 서비스' 개발도 진행하고 있다. 이는 AI가 작성한 조서를 요약하거나 범죄 유형별 유사한 사건 등을 보여주는 등의 서비스다. LG CNS 측은 "연내 지능형 AI 외교안보 데이터 플랫폼을 구축할 것"이라며 "플랫폼에 탑재할 다양한 AI 서비스를 2027년까지 단계별로 개발 및 고도화해 나갈 예정"이라고 말했다.

2025.05.29 14:49장유미

카카오, 자체 개발 '카나나' 언어모델 4종 오픈소스 공개

카카오가 자체 개발 AI 모델을 공개함, 인공지능 생태계 확장과 기술 접근성 강화를 위한 노력을 이어간다. 카카오(대표 정신아)는 23일 자체 개발 언어모델 '카나나(Kanana)' 라인업 가운데 8B와 2.1B 크기의 모델을 오픈소스로 허깅페이스에 공개했다. 아파치 2.0 라이선스를 적용해 누구나 자유로운 수정과 상업적 활용이 가능하다. 이번에 공개한 모델은 지난 2월말 공개한 버전에서 성능이 한층 향상된 것으로 ▲Kanana-1.5-8b-base ▲Kanana-1.5-8b-instruct ▲Kanana-1.5-2.1b-base ▲Kanana-1.5-2.1b-instruct의 총 4종이다. 기존 모델에서 업그레이드를 거친 카나나 1.5는 Agentic AI 구현을 위한 기능 강화에 중점을 뒀다. 글로벌 모델 대비 뛰어난 한국어 성능을 유지하며, 코딩과 수학 문제 해결, 함수 호출 능력에서 이전 대비 평균 1.5배의 성능 향상을 기록해 오픈소스SOTA(State-of-the-Art) 모델 수준의 유의미한 성능을 달성했다. 이 밖에 긴 문맥에 대한 이해와, 간결한 답변을 통해 향상된 사용성을 제공한다. 기존보다 더 긴 텍스트 입력에 대해 안정적인 처리가 가능하며, 정확도와 응답 길이를 최적화 한 답변을 통해 서비스 환경에서 사용자의 체감 성능을 향상시켰다. 카카오는 현재 더욱 향상된 버전의 카나나2를 개발 중이다. 더욱 긴 입력에 대한 처리, 보다 정교화된 추론, 구조적인 효율성 등 다수의 영역에서 진화된 모델 개발을 진행하고 있다. 이번 오픈소스 공개를 통해 카카오는 국내 거대언어모델(LLM) 생태계의 활성화를 위한 시도와 기여를 꾸준히 이어갈 계획이다. 특히 AI 연구자와 개발자는 물론 기업이 목적에 맞게 모델을 자유롭게 튜닝하고 활용할 수 있는 상업 라이선스를 적용, 기술 경쟁력을 확보함과 동시에 협력 기반의 AI 생태계를 구축해 나간다는 방침이다. 카카오 김병학 카나나 성과리더는 "이번 오픈소스 공개를 통해 AI 기술을 통한 성장과 경쟁을 함께하는 환경을 만들고, 이러한 생태계 내에서 기술을 발전시킬 수 있는 계기를 꾸준히 마련해가고자 한다"며 "인공지능 모델 성능의 고도화는 물론 오픈소스의 본질적인 가치를 함께 추구해 갈 것"이라고 말했다. 카카오는 지난해 자체 개발 AI 모델 카나나의 라인업을 공개했으며, 공식 테크 블로그를 통해 언어모델, 멀티모달 언어모델, 비주얼 생성모델 등의 성능과 개발기를 공개해왔다. 지난 2월에는 'Kanana Nano 2.1B' 모델을 오픈소스로 허깅페이스에 배포한 바 있으며, 언어모델 카나나의 연구 성과를 담은 테크니컬 리포트를 아카이브에 공개했다. 최근에는 텍스트와 음성, 이미지까지 다양한 형태의 정보를 동시에 이해하고 처리할 수 있는 통합 멀티모달 언어모델 'Kanana-o'의 성능을 공개하기도 했다.

2025.05.23 13:35백봉삼

"국산 LLM의 반격"…업스테이지, 31B 모델로 '글로벌 70B급' 뛰어넘었다

업스테이지가 경량 언어모델 '솔라 프로 2' 프리뷰를 내세워 글로벌 생성형 인공지능(AI) 시장에 정면승부를 걸었다. 자체 기술력으로 초대형 언어모델을 뛰어넘는 성능을 구현하며 국산 소형모델의 반격을 선언한 것이다. 업스테이지는 자체 개발한 거대언어모델 '솔라 프로 2'를 프리뷰 형태로 공개하고 응용프로그램 인터페이스(API)를 통한 무료 테스트 사용을 허용했다고 20일 밝혔다. '솔라 프로 2'는 오는 7월 정식 출시 예정이다. 이번 모델은 지난해 12월 공개된 '솔라 프로'의 후속으로, 패러미터는 기존 22B에서 31B로 약 1.5배 확대됐다. 주요 성능 지표도 크게 향상돼 동일 계열의 30B급 모델 중에서는 유일하게 메타와 알리바바의 70B급 모델을 벤치마크에서 앞섰다. '솔라 프로 2'는 종합지식(MMLU)·지시이행(IFeval) 평가에서 '라마 4 스카우트', '라마 3.3 70B', '큐원 2.5 72B' 등을 모두 웃도는 결과를 냈다. 한국어 성능도 'KMMLU', '해례' 벤치마크에서 최고 수준으로 확인됐다. 이번 모델에는 업스테이지 LLM 중 처음으로 '하이브리드 모드'가 탑재됐다. 사용자 선택에 따라 빠른 응답용 '챗 모드'와 단계적 추론을 위한 '추론 모드' 중 선택할 수 있으며 특히 추론 모드엔 '생각 사슬(CoT)' 기법이 적용돼 복잡한 수학·코딩 문제에 강점을 보인다. 성능 외에 사용성도 개선됐다. 최대 처리 토큰 수는 기존 대비 두 배 이상 확장된 6만4천 토큰으로 긴 문서 처리에 유리하다. 한국어 맞춤형 토크나이저 개선으로 최대 30%의 토큰 절감이 가능해 응답 속도와 비용 효율도 크게 높아졌다. 김성훈 업스테이지 대표는 "'솔라 프로 2'는 31B라는 효율적 규모로도 70B 모델 수준의 성능을 구현하며 작지만 강력한 소형언어모델의 새 기준을 제시한다"며 "특히 최고 추론 성능에 탁월한 한국어 성능을 갖춘 이번 모델을 통해 보다 많은 업무 혁신을 기대한다"고 밝혔다.

2025.05.20 15:00조이환

디노티시아, AI 엑스포서 개인용 AI 디바이스 '니모스' 첫 공개

장기기억 인공지능(AI) 및 반도체 통합 솔루션 전문기업 디노티시아는 14일부터 16일까지 코엑스에서 열리는 'AI EXPO 2025'에 참가해, 데이터센터 없이도 고성능 LLM을 구동할 수 있는 개인용 AI 디바이스 '니모스(Mnemos)'를 처음 공개한다고 14일 밝혔다. '기억의 신'을 뜻하는 니모스는 사용자가 별도의 서버나 클라우드 인프라 없이도 고성능 언어 모델을 로컬 환경에서 실시간으로 실행할 수 있도록 설계돼, 데이터가 외부로 전송되지 않아 개인정보 보호와 보안성 측면에서도 높은 수준을 제공한다. 또한 니모스는 디노티시아의 벡터 데이터베이스 '씨홀스(Seahorse)'와 연동되어, 고차원 의미 기반 검색 및 개인화된 AI 응답이 가능하며, 자체 개발한 고성능 LLM 파운데이션 모델 'DNA'를 중심으로 다양한 LLM 모델에 유연하게 대응할 수 있도록 설계됐다. 현장에서는 니모스를 기반으로 작동하는 '로컬 코딩 어시스턴트(Local Coding Assistant)'의 실시간 데모가 진행된다. 이 서비스는 디노티시아가 자체 개발한 코딩 전용 LLM 모델과 초경량 추론 엔진 '에테르(Aether)'를 결합해, 비용 효율성이 높은 소비자용 GPU 환경에서도 파라미터 수 140억(14B) 규모의 모델이 원활히 동작하도록 양자화 기술을 적용해 최적화됐다. 특히 코드 작성 중 외부 전송이 제한되거나 보안이 중요한 개발 환경에서도 인터넷 연결 없이 로컬에서 안전하게 LLM 기반 개발 지원을 제공할 수 있다는 점에서 차별화된다. 다국어 환경에서 특정 언어로 치우쳐 응답하는 멀티언어 모델의 한계를 보완하기 위해, 디노티시아는 자체 후처리 도구 'Smoothie Qwen'을 적용했다. 최근 오픈소스로 공개한 이 도구는, AI가 입력 언어와 다르게 의도하지 않은 언어로 응답하는 문제를 완화해, 사용자가 입력한 언어로 보다 정확하고 일관된 응답을 유도한다. 이와 함께 디노티시아는 클라우드 환경에서도 고성능 벡터 검색이 가능한 '씨홀스 클라우드(Seahorse Cloud)'를 함께 선보일 예정이다. 최근 클로즈 베타 형태로 공개된 씨홀스 클라우드는 MCP(Model Context Protocol) 기반의 RAGOps(Retrieval-Augmented Generation Operations)를 통합 지원하는 세계 최초의 SaaS형 벡터 데이터베이스로, 별도의 설치나 복잡한 설정 없이도 웹 환경에서 몇 번의 클릭만으로 구축하고 운영할 수 있다. 정무경 디노티시아 대표는 “AI의 진화는 단순한 질의응답을 넘어, 사람처럼 기억을 축적하고 그 기억을 바탕으로 사고하며 응답하는 방향으로 발전하게 될 것”이라며 “디노티시아는 기억을 기반으로하는 인공지능을 만들어가고 있다"고 밝혔다.

2025.05.14 14:35장경윤

"단행본 70권도 거뜬"…업스테이지, 한글 AI 교열 도구 '에디트업' 출시

업스테이지가 자체 거대언어모델(LLM) '솔라'를 기반으로 교열 서비스를 내놓았다. 전문가 수준의 문맥 교정 기능을 앞세워 인공지능(AI) 문서 편집 도구 시장에서 영향력을 확대한다는 전략이다. 업스테이지는 한글 교열 서비스 '에디트업'의 정식 서비스를 시작한다고 13일 밝혔다. 이 솔루션은 웹 기반 외에도 구글 크롬 확장 프로그램, 마이크로소프트 워드, 한컴오피스 플러그인으로도 이용할 수 있다. '에디트업'은 기사·보고서 등 다양한 문서 파일을 입력하면 오탈자와 띄어쓰기 오류를 자동으로 탐지해 수정 방향을 제시한다. 기존 맞춤법 검사기와 달리 문맥 기반 판단이 가능해 부적절한 어휘나 어색한 문장도 대체 문구를 제안해준다. 업스테이지의 자체 검증 결과 교정 정확도는 95%를 넘어서는 것으로 나타났다. 요금제는 ▲베이직 ▲프리미엄 ▲엔터프라이즈의 세 가지로 구성되며 각각 500자 기준 호출량이 연간 약 삼만 회, 십만 회, 오십만 회까지 지원되고 가장 저렴한 요금제 기준으로도 약 천오백만 자에 단행본 70권 분량 문서를 교열할 수 있다. 더불어 '에디트업'은 1대1 설치 지원과 플러그인 호환성을 내세워 출판사·언론사·공공기관 등에서 대용량 문서 작업에 강점을 갖는 구조다. 전문 교열 인력 부족 문제를 해소할 수 있는 대안으로 기대된다는 것이 업계의 분석이다. 업스테이지는 신조어, 유행어, 외국 인명 등 최신 데이터를 지속적으로 업데이트해 교열 정확도를 강화할 방침이다. 향후에는 영어 실시간 번역 기능도 더해 글로벌 업무 환경에서도 확장 활용될 수 있도록 할 계획이다. 김성훈 업스테이지 대표는 "많은 시간과 노력이 필요한 교열은 대표적인 노동 집약 분야"라며 "'에디트업'은 이를 자동화해 업무 효율성을 극대화하는 혁신적 도구"라고 밝혔다.

2025.05.13 14:41조이환

[현장] 통합형 LLM·멀티소스 RAG로 '출격'…코난테크놀로지, 올해 실적 반등 노린다

"생성형 인공지능(AI)의 핵심은 더 이상 모델 성능의 경쟁이 아닙니다. 이제는 얼마나 실질적인 업무 수요를 반영하고 이를 통해 실제 성과를 만들어낼 수 있는가가 관건입니다." 김영섬 코난테크놀로지 대표는 13일 서울 광화문 호텔 코리아나에서 열린 기자간담회에서 이같이 밝히며 자체 개발한 차세대 거대언어모델(LLM), 신규 인공지능(AI) 제품군, 이를 아우르는 사업화 전략과 기술 로드맵을 공개했다. '추론 통합형 LLM부터 AI PC까지'라는 주제로 진행된 이번 간담회는 실제 업무 현장에서 검증 가능한 생성형 AI 기술을 중심으로, 코난테크놀로지가 독자 개발한 코난 LLM 'ENT-11', 레거시 연동형 검색증강생성(RAG) 시스템 'RAG-X', 그리고 온디바이스 AI 솔루션 'AI스테이션' 등을 소개하는 자리였다. 김 대표는 환영사에서 "지난 26년간 축적해온 기술 역량을 기반으로 우리는 단순 모델 성능이 아닌 비즈니스 실효성과 현장 접목 가능성에 초점을 맞춘 생성형 AI 전략을 펼쳐가고 있다"며 "제품군 확장을 통해 AI의 도입 허들을 낮추고 시장 성과로 이어지는 환경을 주도하겠다"고 강조했다. 실무형 RAG·통합형 LLM 앞세워…공공·의료 레퍼런스 '확보' 임완택 코난테크놀로지 전략기획본부 상무는 이날 간담회에서 검색증강생성 기술 기반의 신규 제품 '코난 RAG-X'를 소개했다. 발표에 앞서 그는 "LLM은 아무리 고성능이어도 최신 정보를 반영하지 못하고 사내 문서처럼 민감한 내부 데이터를 다루지 못하는 아키텍처 상의 한계가 있다"며 "우리는 이 한계를 실무 환경에서 해결하기 위해 RAG 기술을 핵심으로 재설계했다"고 설명했다. 임 상무에 따르면 '코난 RAG-X'는 단순한 외부 검색용 챗봇이 아니라 내부 데이터베이스(DB), 레거시 시스템, 공공기관 데이터, 뉴스, 논문, 커뮤니티 자료 등 다양한 정보를 연동해 활용할 수 있도록 구성된 멀티소스 기반의 B2B 특화형 시스템이다. 퍼플렉시티처럼 외부 웹에 의존하는 B2C형 RAG 솔루션과 달리 온프레미스 환경에서 구동돼 사내 민감 데이터가 외부로 유출될 우려 없이 운용 가능하다. 그는 기술 구조에도 차별점이 있다고 설명했다. 단일 질문에 대해 즉시 응답하는 일반형 RAG와 달리 '코난 RAG-X'는 하나의 복합 질문을 다단계 질의로 나누고 각 하위 질의에 대해 순차적으로 정보를 검색·검증한 뒤 최종 응답을 조합하는 구조다. 일례로 "최근 3개월간 대출 연체가 발생한 건설사를 알려주고 각 기업의 자본금, 분양 실적, 관련 뉴스 반응을 종합해 리스크 대응 전략을 보고서로 만들어줘" 같은 질의도 단계별로 자동 처리 가능하다는 설명이다. 이러한 구조 덕분에 'RAG-X'가 금융, 공공, 제조업처럼 의사결정 과정이 복잡하고 규제 요건이 엄격한 B2B 환경에서 유효하는 설명이다. 실제 도입을 검토하는 고객들도 질문부터 보고서 작성에 이르는 전 과정을 하나의 AI로 대체할 수 있다는 점에 높은 관심을 보이고 있다는 것이다. 이어 발표를 맡은 도원철 코난테크놀로지 연구소 상무는 회사의 최신 LLM '코난 ENT-11'을 중심으로 단일 모델 구조와 추론 성능 개선 내용을 발표했다. 그는 "'ENT-11'은 일반 모드와 추론 모드를 하나의 엔진으로 통합한 국내 유일의 모델"이라며 "별도 모델을 병행 도입할 필요 없이 다양한 업무에 확장 적용할 수 있다"고 강조했다. 도 상무는 'ENT-11'이 기존의 범용 생성 모델과 달리 정밀 추론에 특화된 구조를 갖췄다고 설명했다. 단순 질의응답을 넘어 수학 계산, 법률 문서 해석, 테이블 기반 질의 등 복합 태스크까지 하나의 모델로 처리할 수 있도록 설계됐다는 설명이다. 현장에서는 세 가지 시연이 진행됐다. 첫 번째는 법원 판결문을 기반으로 양형 인자 항목을 추출하는 과제였다. 'ENT-11'은 해당되는 양형 인자를 골라낸 뒤 문서 내 근거 문장까지 함께 출력해 응답의 신뢰성을 높였다. 더불어 신축 건물 정보를 담은 테이블에서 대지 면적의 총합을 계산하는 과제에서는 테이블 내 조건 필터링, 수치 추출, 합산 계산을 모두 수행해 정확한 결과를 출력했다. 또 유명한 AI 수학 벤치마크인 'MATH500' 문제를 'ENT-11'이 풀었고 94점을 기록했다는 결과도 공유됐다. 도 상무는 "'ENT-11'이 딥시크 'R1' 대비 20분의 1 규모의 파라미터로 유사한 수준의 성능을 냈고 한국어 추론에서는 더 높은 정확도를 확보했다"며 "설명 가능한 추론 과정을 한국어로 출력하는 기능은 현재 ENT-11이 유일하다"고 덧붙였다. 이어 이형주 코난테크놀로지 AI사업부 이사는 코난 LLM의 실제 도입 사례와 산업별 적용 효과를 소개했다. 이 이사에 따르면 한국남부발전은 발전사 최초로 생성형 AI를 전사 35개 태스크와 15개 시스템에 연동해 구축했다. 발전소 운영에 필요한 기술문서, 정책 자료, 현장 보고서 등을 자동 분류·요약·생성하는 데 코난 LLM이 적용됐으며 연간 약 10만 시간의 업무 절감과 최대 51억원 규모의 생산성 향상이 기대된다. 한림대학교의료원 역시 의료진이 매일 작성하는 일일 경과기록지 초안을 자동 생성하는 데 코난 LLM을 도입했다. 기존 수작업 대신 전자의무기록(EMR) 기반으로 초안을 자동 작성한 뒤 의료진이 검토·승인하는 방식으로, 연간 약 9만5천시간의 업무 시간을 줄이고 의사 1인당 약 36일의 진료 가능 시간을 확보할 수 있을 것으로 분석된다. 이와 함께 국민권익위원회는 행정심판 청구서 작성에 생성형 AI를 적용해 유사 판례 검색부터 청구서 초안 생성까지의 과정을 자동화했다. 전체 작성 시간이 최대 60% 이상 단축됐으며 민원인의 정보 접근성과 업무 담당자의 처리 효율 모두 개선된 것으로 나타났다. 이형주 이사는 "이제는 개념검증(PoC)을 넘어서 실질적 수익확보 단계로 넘어가고 있다"며 "생성형 AI는 '자동화 툴'이 아니라 '업무 자산'으로 재정의돼야 한다"고 말했다. 폐쇄망 AI스테이션·서버 공개…공공·B2B 실무 자동화 '정조준' 코난테크놀로지는 이번 행사에서 자사의 자체 개발 LLM이 탑재된 온디바이스형 AI PC '코난 AI스테이션(AIStation)'과 기업형 AI 서버 'AI스테이션 서버(aiStation Server)'를 공개하며 제품군 확장을 마무리했다. 발표는 조인배 TG삼보 팀장과 이형주 코난테크놀로지 AI사업부 이사가 각각 맡았다. 조인배 팀장은 'AI PC가 바꾸는 업무환경'을 주제로 "'AI스테이션'은 인터넷 없이도 AI 기능을 활용할 수 있어 공공기관의 보안 요건과 반복 업무 자동화 수요를 동시에 충족할 수 있는 실무형 장비"라며 "민원 응대, 보고서 작성, 외국어 안내 등 반복적인 행정 태스크에 특히 효과적"이라고 설명했다. 조 팀장은 AIStation의 핵심 기능으로 ▲문서 요약 및 질의응답 ▲다국어 번역 ▲RAG 기반 정보 생성 ▲유해 콘텐츠 차단 등을 꼽았다. 더불어 RAG 기능이 내장돼 있기 때문에 단순한 생성형 응답을 넘어 맥락에 기반한 응답 생성이 가능하다는 점을 주요 장점으로 꼽았다. 'AI스테이션'의 하드웨어는 인텔 14세대 i7·i9 CPU, 엔비디아 RTX 그래픽처리장치(GPU), 고용량 SSD 등으로 구성된다. 보급형과 고급형 모델로 나뉘어 오는 7월 조달 등록이 예정돼 있다. 이어 발표를 진행한 이형주 코난테크놀로지 AI사업부 이사는 기업형 AI 서버 제품 'AI스테이션 서버'를 소개했다. 그는 "중소기업이나 연구기관 입장에선 고가의 다중 서버 LLM 환경을 도입하기 어렵다"며 "'AI스테이션 서버'는 폐쇄망 기반에서도 단일 장비로 생성형 AI 환경을 구축할 수 있도록 설계된 어플라이언스형 제품"이라고 말했다. 'AI스테이션 서버'는 코난 LLM을 중심으로 문서 임베딩, 개인정보 필터링, 유해 질의 차단, 시스템 관리 기능이 통합된 단일 서버 구조다. 생산성은 높이고 보안과 비용 부담은 줄이기 위해 하나의 서버에 모든 기능을 통합해 50명 이하 소규모부터 300명 규모 조직까지 대응할 수 있다는 설명이다. 현장 시연에서는 사내 매뉴얼 기반 계획서 자동 생성, 보험업무 대응 화법 작성, 다국어 이메일 자동화 사례 등이 공개됐다. 유통 전략은 에스넷 그룹과의 협력을 중심으로 구축된다. 현재 서울, 대전, 대구, 부산의 에스넷 물류 거점을 통해 전국 단위 서비스 체계를 갖췄으며 에스넷 계열사들과 연계해 공공, 금융, 연구 기관 대상 B2B 사업화가 추진될 예정이다. 이형주 이사는 "AI스테이션 서버는 하나의 서버에 문서 검색, 요약, 보고서 생성, 다국어 대응 등 실질적인 B2B 태스크를 통합한 제품"이라며 "LLM이 단순한 기술이 아니라 현장 자동화 도구로 기능할 수 있다는 것을 입증하는 플랫폼이 될 것"이라고 강조했다. 실적 반등 신호…공공 조달·GPU 효율로 수익성 강화 노려 현장 질의응답에서는 실적 전망, 제품 가격, 기술 우위 등을 두고 구체적인 설명이 이어졌다. 임완택 전략기획본부 상무는 회사의 실적과 관련된 기자의 질문에 "지난 1분기 실적은 오는 15일 공시될 예정"이라며 "지난해 다수의 PoC가 마무리되며 올해는 본계약과 실 매출이 빠르게 증가하는 구간에 진입했다"고 밝혔다. 그는 공공·국방·대기업 중심으로 파이프라인이 확대되고 있다며 매출은 전년 대비 큰 폭으로 증가하고 적자 규모는 대폭 축소될 것으로 내다봤다. AI스테이션의 조달 전략을 묻는 질문에 대해서는 연간 40만 대 이상 규모의 데스크톱 조달 시장에서 5~10% 점유율 확보를 목표로 하고 있다는 조인배 TG삼보 팀장의 설명이 나왔다. 일정 비율만 확보해도 자체 LLM 수요 확대와 매출 증가로 이어질 수 있다는 판단에서다. 제품 가격은 천만 원 이하로 조율 중이다. GPU는 예산 구조와 성능 효율을 고려해 엔비디아 '지포스 RTX 4070'이 탑재됐다. 조인배 팀장은 "고성능 대비 최적화 작업을 통해 비용을 최소화했다"며 "공공기관에선 AI 서버보다 AI 기능 탑재 PC 형태로 접근하는 게 현실적"이라고 설명했다. LG '엑사원', 솔트룩스 '루시아' 등 타사 모델과의 성능 차이를 묻는 질문에는 GPU 사용 효율을 중심으로 비교 설명이 나왔다. 도원철 코난테크놀로지 연구소 상무는 'ENT-11'이 일반 생성형 모델과 추론 특화 모델을 하나로 통합한 구조라며 동일 작업을 처리할 때 필요한 GPU 자원이 절반 수준으로 줄어든다고 설명했다. 기존에는 쉬운 질의응답과 복잡한 추론 태스크에 각각 다른 모델을 띄워야 했지만 'ENT-11'은 하나의 모델로 모두 처리해 비용과 운용 부담을 동시에 낮추는 등 경쟁력을 갖췄다는 설명이다. 도원철 상무는 "두 모델을 따로 띄우는 구조는 GPU 자원이 2배로 들 수밖에 없다"며 "'ENT-11'은 단일 모델로 동일 기능을 처리해 훨씬 효율적이며 한국어 기반 추론 정확도도 타 모델 대비 높게 나온다"고 말했다.

2025.05.13 14:23조이환

"지포스 RTX와 쿠다로 무장"…엔비디아 'LM 스튜디오' 성능 폭발

엔비디아가 지포스 그래픽처리장치(GPU)와 쿠다를 기반으로 자체 로컬 거대언어모델(LLM) 실행 도구의 성능을 대폭 강화했다. 로딩·응답 속도 향상과 더불어 개발자 제어 기능을 확장해 로컬 AI 활용 생태계를 본격적으로 견인하는 전략이다. 엔비디아는 최근 'LM 스튜디오' 0.3.15 버전을 발표했다고 12일 밝혔다. 이번 버전은 지포스 '레이 트레이싱 익스피리언스(RTX)' GPU 환경에서 성능을 최대 27%까지 끌어올릴 수 있게 '쿠다' 그래프와 플래시 어텐션 최적화를 적용했다. 지포스 'RTX 20' 시리즈부터 최신 블랙웰 GPU까지 폭넓은 하드웨어 호환성도 확보했다. 'LM 스튜디오'는 고성능 추론과 데이터 보안을 동시에 확보할 수 있는 로컬 LLM 실행 도구다. '라마.cpp(llama.cpp)' 기반 런타임을 바탕으로 오프라인에서도 모델 실행이 가능하고 오픈AI 응용 프로그램 인터페이스(API) 호환 엔드포인트로도 작동해 맞춤형 워크플로우에 쉽게 통합된다. 새 버전은 '툴_초이스(tool_choice)' 패러미터를 도입해 도구 호출 방식에 대한 세밀한 제어를 제공한다. 외부 도구 연동 여부를 개발자가 지정하거나 모델이 동적으로 결정하게 할 수 있어 검색 증강 생성(RAG), 에이전트 파이프라인 등에 최적화된 구조를 제공한다. 시스템 프롬프트 편집기도 새롭게 설계돼 복잡하거나 장문 프롬프트에 대한 대응력이 향상됐다. 프리셋 기반의 다양한 모델과 양자화 방식도 지원되며 '젬마', '라마3', '미스트랄', '오르카' 등 주요 오픈소스 모델이 모두 포함됐다. 이같은 구조는 '옵시디언'과 같은 노트 기반 앱에 플러그인 형태로 연결돼 텍스트 생성, 연구 요약, 노트 검색을 클라우드 없이 수행할 수 있게 한다. 이 모든 과정은 'LM 스튜디오' 내의 로컬 서버를 통해 이뤄져 빠르고 프라이버시 중심의 상호작용이 가능하다. 성능 개선의 핵심은 '라마.cpp' 백엔드에 적용된 쿠다 그래프와 플래시 어텐션이다. 쿠다 그래프는 컴퓨팅처리장치(CPU) 호출 횟수를 줄여 모델 처리량을 최대 35%까지 높였다. 플래시 어텐션은 메모리 부담 없이 긴 컨텍스트 대응 능력을 강화하며 최대 15% 속도 향상을 이끌었다. RTX GPU 사용자라면 별도 설정 없이도 '쿠다 12.8' 기반의 성능 향상을 경험할 수 있다. 드라이버 호환 시 자동 업그레이드가 적용되며 얇은 노트북부터 고성능 워크스테이션까지 전 범위 RTX 인공지능(AI) PC에서 효율적인 추론이 가능하다. 'LM 스튜디오'는 윈도우, 맥OS, 리눅스에서 모두 실행 가능하며 무료로 다운로드해 사용할 수 있다. 데스크톱 채팅, 오픈AI API 개발자 모드 등 다양한 인터페이스도 제공된다. 엔비디아 측은 "'LM 스튜디오' 최신 업데이트는 RTX AI PC에서 최고의 성능과 유연성을 제공한다"며 "로컬 LLM 도입 장벽을 낮추고 사용자의 AI 실험과 배포를 적극 지원할 것"이라고 밝혔다.

2025.05.12 15:33조이환

하이퍼엑셀, 국산 AI 반도체 기반 K-클라우드 기술개발 국책과제 수주

LLM 특화 AI 반도체 스타트업 하이퍼엑셀은 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 450억원 규모의 'AI반도체를 활용한 K-클라우드 기술개발사업' 국책과제를 수주했다고 8일 밝혔다. 이번 과제는 국산 AI 반도체 기반 데이터센터 학습 및 추론 시스템 통합 및 검증을 목표로 하며 2030년 12월까지 진행될 예정이다. 하이퍼엑셀이 주관하는 이번 과제에는 리벨리온, 파네시아, 망고부스트, 래블업, 스퀴즈비츠 등 국내 유명 AI 반도체 및 AI 솔루션 기업들과 한국과학기술원(KAIST), 서울대학교 등 국내 유수 대학이 참여하여 최고의 전문성과 기술력을 보유한 AI 인프라 '드림팀'으로 인정받았다. 특히, 국내 최대 데이터센터 운영사이자 AI 반도체 수요처인 네이버클라우드가 직접 과제에 참여하여 기술 개발 이후 사업화 성공 가능성까지 확보했다. 특히, 국내 최대 데이터센터 운영사인 네이버클라우드가 직접 해당 기술의 실증에 적극 참여함으로써 국내 NPU 기술 산업 생태계 확산에 기여한다고 밝혔다. 이동수 네이버클라우드 전무는 “국내 소버린AI 생태계 구축에 있어서 금번 과제가 갖는 의미에 공감하고, 네이버클라우드가 가진 AI 밸류체인 전 영역에 걸친 경험과 역량을 바탕으로 금번 과제의 성공에 적극적으로 기여하고자 참여를 결정했다”고 말했다. 하이퍼엑셀은 이번 과제를 통해 대한민국의 독자적인 AI 반도체 기술 역량을 확보하고, 국산 AI 반도체 기반의 데이터센터 인프라를 구축하여 외산 AI 반도체의 의존성을 줄이고 글로벌 시장에서 경쟁력을 강화할 계획이다. 특히 추론에 최적화한 저전력 고효율 AI 반도체인 LPU(LLM Processing Unit)를 삼성전자 4나노미터 공정을 통해 개발 중이며, 데이터센터의 성능 향상 및 비용 절감 등 운영 효율성을 극대화하는 것을 목표로 하고 있다. 김주영 하이퍼엑셀 대표는 "이번 과제를 통해 국내 최고의 AI 반도체 및 AI 기업들과 함께 시너지를 낼 수 있게 되어 매우 기쁘다"며 "연구개발부터 사업화까지 참여기관들과 협업을 통해 국내 기술 역량을 총결집하여 글로벌 시장에서도 K-클라우드의 경쟁력을 인정받고 현재 정부 주도로 추진 중인 국가 AI컴퓨팅센터 구축에도 기여할 수 있을 것”이라고 말했다.

2025.05.09 14:35장경윤

LG AI연구원, '마곡 집결'로 재정비…AI R&D 시너지 '승부수'

LG AI연구원이 인공지능(AI) 기술 경쟁력 강화를 위한 조직 재편에 나섰다. 핵심 연구진을 한데 모아 연구개발 역량을 끌어올리려는 전략이다. LG AI연구원은 최근 본사를 서울 여의도에서 마곡 디앤오 사옥으로 이전했다고 9일 밝혔다. 본사는 3층부터 7층까지 5개 층 규모로 조성됐으며 기존 여의도와 마곡에 분산돼 근무하던 연구원 300여 명이 한 곳으로 통합됐다. 이번 이전을 통해 연구원은 공간 설계에 집중해 약 50개의 다양한 회의실을 마련했다. 자유로운 협업을 유도하고 창의적인 아이디어 발현을 유도하려는 목적이다. LG AI연구원은 지난 2020년 12월 출범 이후 그룹 차원의 전폭적인 지원을 바탕으로 LG의 AI 전환 전략을 이끄는 핵심 조직으로 성장했다. 특히 자체 초거대 AI 모델 '엑사원' 시리즈를 통해 기술 고도화를 이어왔다. 지난해 12월 공개된 '엑사원 3.5'에 이어 지난 3월에는 국내 최초 추론형 AI '엑사원 딥'도 선보였다. 계열사 제품과 서비스에 실제 적용되며 그룹 전반의 AI 내재화에 기여하고 있다. 대표 사례로는 LG전자의 AI 노트북 '그램'과 LG유플러스의 통화 에이전트 '익시오'에 엑사원 기술이 탑재됐다. 기업용 AI 에이전트 '챗엑사원'은 현재 LG 사무직 임직원의 절반 수준인 4만 명 이상이 활용 중이다. AI 인재 양성을 위한 교육도 병행되고 있다. AI 리터러시 교육부터 석·박사 과정 운영까지 전주기 체계를 구축했으며 지난 4년간 1만5천 명 이상의 임직원이 참여했다. 기술력 확보 성과도 가시적이다. LG AI연구원은 국제인공지능학회(AAAI), 국제컴퓨터언어학회(ACL), 국제 컴퓨터 비전 및 패턴 인식 학술대회(CVPR) 등 글로벌 최상위 학회에 234건의 논문을 발표했으며 국내외 특허 출원도 총 228건에 달한다. 연구원은 온디바이스 AI 성능 고도화에도 집중하고 있다. 외부 서버 연결 없이 기기 내 데이터 처리를 가능케 해 보안성과 개인정보 보호 측면에서 경쟁력을 강화하려는 전략이다. 향후 계획으로는 '에이전틱 AI' 구현을 목표로 하고 있다. 계열사 업무 효율화, 생산성 제고, 나아가 신소재와 신약 개발 영역까지 AI 적용을 확장한다는 구상이다. LG AI연구원 관계자는 "엑사원을 중심으로 산업 현장과 제품, 서비스까지 AI를 연결하는 전략을 차근차근 실현해나가고 있다"며 "기술력과 협업 역량 모두에서 세계적 수준을 목표로 하고 있다"고 밝혔다.

2025.05.09 10:38조이환

파네시아, CXL 개발자 컨퍼런스서 'CXL 3.x' 스위치 솔루션 공개

국내 팹리스 스타트업 파네시아는 올해 국내 기업으로서 유일하게 CXL 개발자 컨퍼런스(CXL DevCon)에 참가해 고출력(high fan-out) CXL 3.x 스위치 기반 프레임워크를 선보였다고 7일 밝혔다. CXL DevCon은 CXL 표준을 제정하는 CXL 컨소시엄에서 주관하는 공식행사로서, 올해 2회차를 맞았다. 지난달 29일, 30일 양일간 미국 캘리포니아주 산타 클라라에서 진행됐다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. PCIe(PCI 익스프레스)를 기반으로 다수의 장치를 하나의 인터페이스로 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 파네시아는 올해 국내 기업으로서는 유일하게 전시 기업으로 참여해 대표 제품인 고출력 CXL 3.x 스위치와 이를 기반으로 한 프레임워크를 선보였다. 파네시아가 선보인 고출력 CXL 3.x 스위치는 서로 다른 CXL 장치들을 캐시 일관성이 보장된 하나의 시스템으로 통합하는 가교 역할을 한다. 파네시아가 자체 개발한 저지연 CXL IP를 기반으로 개발된 데에 더해, 한꺼번에 더 많은 장치를 연결할 수 있는 고출력 SoC 구조를 가짐으로 시스템의 평균적인 홉 수를 줄여 지연시간을 최소화한다. 또한 파네시아의 스위치는 여러 대의 스위치를 다수의 계층으로 연결하는 멀티-레벨 스위칭(multi-level switching) 기능, 그리고 각 장치가 장착되는 물리적 위치인 '포트'를 기준으로 장치 간의 논리적인 연결 구조와 연결 경로를 유연하게 설정하는 포트-기반 라우팅(port-based routing, PBR) 기능을 모두 지원한다. 뿐만 아니라 CPU, GPU, 메모리 등 모든 종류의 시스템 장치에 대한 연결을 지원하기 때문에, 수많은 시스템 장치들을 다양한 형태와 조합으로 연결해 고객의 요구에 맞는 대규모 시스템을 구축하는 데 용이하다. 파네시아는 이번 전시회에서 CXL 3.x 스위치를 활용해 CXL 서버 노드를 여러 개 연결해 구축한 'CXL Composable Server'도 출품했다. 각 서버 노드에는 파네시아의 또 다른 제품인 CXL IP를 활용해 개발한 CPU, GPU, 메모리 장치 등이 종류별로 장착돼 있다. 덕분에 고객들은 그때그때 필요한 장치가 장착된 노드를 추가로 장착해 수요에 알맞은 형태로 시스템을 구축할 수 있다. 파네시아는 해당 프레임워크를 기반으로 검색증강생성(RAG), 대규모언어모델(LLM) 등의 AI 응용 및 과학 시뮬레이션을 가속하는 데모를 시연하며, 행사에 참석한 CXL 전문기업들로부터 많은 주목을 받았다. 파네시아 관계자는 “CXL 3.x 스위치 기술을 다룬 발표와 출품은 파네시아가 유일했다”며 “CXL 컨소시엄의 리더들에게도 CXL 3.x 스위치는 새로운 기술이기에, 이번 파네시아의 출품작과 발표에 많은 관심을 보인 것 같다”고 말했다.

2025.05.07 14:56장경윤

[AI는 지금] 美·中선 추론이 대세인데…전 세계 세 번째 LLM 개발국 韓 현 주소는?

인공지능(AI) 시장 경쟁이 추론 모델로 옮겨진 가운데 우리나라의 경쟁력이 갈수록 뒤처지고 있다는 평가가 나왔다. 전 세계에서 세 번째로 거대언어모델(LLM)을 개발하고도 여야 정쟁 속에 제대로 된 정부 지원과 기업들의 노력이 뒷받침되지 않으면서 시장 내 주도권을 잃어가고 있다는 평가다. 5일 업계에 따르면 현재 우리나라에서 추론 특화 AI 개발에 성공한 곳은 LG AI연구원이 거의 유일하다. 지난 2월 공개한 '엑사원 딥'은 국내 첫 추론형 AI 모델로, 주어진 데이터를 기반으로 확률이 높은 답을 내놓는 생성형 AI와 달리 스스로 정보를 조합하고 분석한다는 점에서 한층 고도화된 AI로 평가받는다. 최고 모델인 '엑사원 딥' 32B의 파라미터(매개변수)는 중국 AI 스타트업 딥시크의 'R1' 671B 모델의 5% 수준이었음에도 수학과 같은 일부 분야 테스트에서 R1을 앞서는 등 효율적인 모델이란 점도 입증해 업계의 주목을 받았다. 경량 모델 '엑사원 딥' 7.8B는 비슷한 크기의 오픈AI의 'o1 미니'보다 우수한 성적을 기록하기도 했다. 하지만 '엑사원'은 LG 내부에서만 사용할 수 있다는 점에서 범용성에 한계가 있다. 이를 상업 목적으로 이용하기 위해서는 LG AI 연구원의 허락을 받아야 하거나 한컴, 폴라리스 등 일부 업체들처럼 유료 계약을 맺어야 한다. 또 모델 공개를 위해선 출자를 통해 개발에 기여한 계열사들간 논의도 필요한 상황이다. 이에 '엑사원 딥'은 우수한 성능을 가지고 있음에도 중국 딥시크가 가진 모델처럼 빠르게 확산되지는 못하고 있다. 지난 2021년 세계에서 세 번째로 LLM '하이퍼클로바X'를 공개했던 네이버는 여전히 추론 모델을 내놓지 못하고 있다. 지난 달 23일 기자간담회를 통해 올 상반기 안에 신규 추론 모델을 선보일 것이라고 공언했으나, 국내외 경쟁사들이 기술 개발에 속도를 내며 이미 공개한 것에 비하면 대응이 상당히 저조한 편이다. 이 외에 업스테이지 등 다른 국내 기업들도 조만간 추론 모델을 선보일 것이란 계획을 세워둔 상태다. 반면 미국, 중국 기업들은 이미 한 발 앞서 추론 모델을 공개해 경쟁에 불을 지폈다. '챗GPT' 개발사인 미국 오픈AI는 최근 이용자 질문에 추론하는 것을 넘어 이미지를 보고 생각할 수 있는 새로운 추론 모델 'o3'와 소형 모델인 'o4 미니'까지 출시했다. 이는 지난 해 9월 출시된 오픈AI의 첫 번째 추론 모델 'o1'의 후속 모델이다. 'o3'는 이미 지능지수(IQ)가 130을 돌파했다는 주장까지 나오면서 경쟁력도 인정 받은 분위기다. AI 모델들의 IQ 시험 결과를 공개하는 트래킹에이아이닷컴은 최근 오픈AI 'o3'가 멘사 노르웨이 IQ 시험을 본 결과 IQ 132를 기록했다고 밝혔다. 이 시험은 온라인에서 비공식적으로 IQ를 측정하는 방법으로 주로 시각적 패턴 인식 능력을 평가한다. 이 시험에서 구글의 '제미나이 2.5 프로 익스페리멘털'도 IQ가 127을 기록하며 선전했다. 지난 3월 출시된 '제미나이 2.5 프로'도 추론 모델로, 구글은 이 모델이 AI 성능 평가 벤치마크인 LM아레나에서 오픈AI 모델을 상당한 격차로 제치고 1위에 올랐다고 강조한 바 있다. 또 지난 달에는 '구글 클라우드 넥스트 2025' 행사를 통해 전작 대비 응답지연 시간과 연산비용을 절약한 '제미나이 2.5 플래시'도 공개하며 시장 주도권 잡기에 혈안된 모습을 보였다. 순다르 피차이 구글 최고경영자(CEO)는 "제미나이 2.5 플래시를 사용하면 모델 추론의 정도를 제어하고 예산과 성능의 균형을 맞출 수 있다"고 설명했다. 미국 앤트로픽이 올해 2월 내놓은 추론 모델 '클로드 3.7 소네트 확장형'도 업계에서 주목 받는 모델이다. 이 모델을 통해 사용자는 기존의 LLM을 활용했을 때처럼 즉각적인 응답을 받을 수도 있고 AI가 보다 깊이 사고하도록 추론을 하게 명령할 수도 있다. 이 모델은 '소프트웨어 엔지니어링(Bench SWE)' 벤치마크 테스트에서 62.3% 정확도를 기록해 오픈AI의 'o3-미니'보다 높은 성능을 보였다. '딥시크 쇼크'로 전 세계 AI 업계를 놀래켰던 중국에서도 최근 추론 모델 공개가 한창이다. 딥시크가 올해 1월 추론용 AI 모델 'R1'을 공개한 후 알리바바 그룹이 하이브리드 추론 기능을 도입한 플래그십 AI 모델 '큐원3(Qwen3)'를 출시했고, 바이두도 멀티모달 기능을 갖춘 '어니 4.5 터보'와 추론에 중점을 둔 '어니 X1 터보'를 출시하며 경쟁에 합류했다. 바이두는 해당 모델이 오픈AI의 'o1' 등 경쟁 모델 대비 동급 성능에 비용은 딥시크보다 저렴하다는 점을 강조하고 있다. 샤오미도 지난 달 말 '딥시크 R1'과 유사한 추론 AI 모델 '미모(MiMo)'를 선보이며 경쟁에 합류했다. 미모는 70억 개의 매개변수를 보유하고 있는 것으로 알려졌다. 샤오미는 자체 테스트에서 '미모'가 오픈AI의 'o1-미니'와 알리바바 '큐원'을 뛰어넘었다고 주장하고 있다. 이를 통해 샤오미는 인간 수준의 지능을 갖춘 인공일반지능(AGI) 개발에 박차를 가한다는 각오다. 샤오미는 위챗 게시물에서 "미모는 새로 구성된 핵심 AI 모델 팀의 첫 시도"라며 "2025년이 대규모 모델 구축의 꿈을 실현하기에는 늦은 시기처럼 보일 수 있지만 AGI는 장기적 과제"라고 말했다. 이처럼 미국의 AI 기술을 중국이 급속도로 추격하고 나선 가운데 업계에선 추론 역량을 핵심 경쟁력으로 내세운 신형 오픈소스 모델들이 글로벌 AI 생태계 전반에 지대한 영향을 미칠 것으로 봤다. 하지만 국내에선 LG 외에 뚜렷한 움직임이 없어 AI 기술 주도권 싸움에서 이미 상당히 밀렸다는 평가가 나오고 있다. 업계 관계자는 "미국과 중국 기업들 사이에서 벌어지고 있는 '쩐의 전쟁'에서 한국 AI 기업들이 점차 밀리며 정부 지원에만 목을 메는 경향이 많았다"며 "열악한 투자 환경에도 불구하고 선전하는 기업이 있긴 하지만, 자체 AI 기술을 계속 개발하려는 노력이 예전보다 덜한 곳이 있었던 것도 사실"이라고 꼬집었다. 그러면서 "대통령 비상계엄 선포와 탄핵 등 정치적 혼란까지 더해지면서 정부의 정책 방향이 일관되지 않았던 것도 우리나라 AI 경쟁력이 뒤처지게 된 원인"이라며 "새 정부가 들어서면 AI를 국가 경쟁력의 핵심 동력으로 삼고 적극적으로 정부가 지원에 나서야겠지만, 기업들의 자체적인 기술 개발에 대한 노력도 함께 병행돼야 할 것"이라고 덧붙였다.

2025.05.05 08:17장유미

"국산 AI 추론 비용 잡는다"…코난테크놀로지, 이종 반도체 분산추론에 '승부수'

코난테크놀로지가 인공지능(AI) 반도체 기반 분산 추론 및 모델 최적화 기술 개발에 나선다. 다양한 AI반도체를 연동하는 기술을 확보해 추론비용을 낮추고 국내 AI 인프라의 자립성과 경쟁력을 끌어올리려는 의도다. 코난테크놀로지는 과학기술정보통신부가 추진하는 '이종 AI반도체용 분산 추론 및 모델 최적화 기술 개발' 과제에 선정됐다고 29일 밝혔다. 이 사업은 오는 2029년 12월까지 약 4년 9개월간 진행되며 총 104억원 규모다. 한국전자통신연구원(ETRI)이 주관을 맡고 코난테크놀로지를 비롯해 리벨리온, 서울대, 카이스트가 공동 연구에 참여한다. 이번 과제는 신경망처리장치(NPU)와 인메모리컴퓨팅(PIM) 등 다양한 AI반도체를 활용하는 환경에서 효율적인 분산추론과 모델 최적화를 구현하는 것이 목표다. 이를 통해 AI모델을 유연하게 구동하는 서비스 프레임워크, AI가속기 기반 자원 스케줄링 시스템, 사용자 단말 중심의 거대언어모델(LLM)-검색증강생성(RAG) 기반 통합 실증 서비스가 개발될 예정이다. 코난테크놀로지는 이 중 LLM-RAG 분산추론 통합 실증 서비스를 담당한다. AI 소프트웨어 기술력과 개발 경험을 살려 다양한 반도체 환경에서도 안정적인 AI 서비스를 구현할 계획이다. 이로써 고성능 분산추론 구조를 검증하고 향후 차세대 AI 인프라 상용화 기반을 마련한다. 더불어 이 회사는 다음달 13일 열리는 '2025 코난테크놀로지 AI쇼케이스-미디어 브리핑' 행사에서 '코난 LLM', '코난 RAG-X'를 포함한 신제품을 공개할 예정이다. 이 자리에서는 향후 사업화 전략도 소개한다. 오창민 코난테크놀로지 언어음성연구소 상무는 "국내 AI 인프라의 기술 자립을 위한 핵심 과제에 참여하게 돼 의미가 크다"며 "이종 AI반도체 기반 추론 환경에서 고도화된 실증 서비스를 현실화하고 차세대 AI 인프라 상용화에 기여하겠다"고 밝혔다.

2025.04.29 15:59조이환

스테이지파이브, LLM 기반 AI 고객센터 론칭

스테이지파이브는 24일 자체 보유한 통신서비스 고객센터 데이터를 활용해 LLM 기반으로 최적화한 AI 고객센터를 국내 통신사업자 최초로 선보였다고 밝혔다. 핀다이렉트 AI 고객센터는 시간과 장소의 제약 없이 24시간 고객들의 다양한 형태의 질문을 이해하고 실시간으로 맞춤형 답변을 제공한다. 특히 비정형 질문에도 정확한 대응을 통해 고객의 궁금증을 즉시 해소하며, 상담 인력의 부담을 경감시키는 데 큰 역할을 한다. 실제 AI 상담 도입 후 온라인 상담 처리 건수가 117% 증가했으며, 이 가운데 약 40%는 AI가 처리하고 있다. 반복적이고 단순한 상담 업무는 AI가 대신 처리하고, 복잡한 문의만을 전문 상담원이 직접 처리하는 방식으로 운영하여 상담 인력의 효율적 운영이 가능해졌다. 고객 입장에서도 기존의 정형화된 질문에만 답하는 챗봇 방식에서 벗어나 자유롭게 질문하고 정확한 답변을 실시간으로 받을 수 있어 만족도가 높아졌다. 회사는 현재의 AI 상담을 에이전트 기반으로 추가 개발 중이며 이를 통해 고객정보를 실시간으로 조회하고 보다 전문적인 상담을 제공하는 개인화 기능을 곧 추가 공개할 예정이다. 스테이지파이브는 이번 'AI 고객센터'를 시작으로 'AI 고객케어'와 'AI 세일즈'로 AI 에이전트의 확장 구축을 추진 중이다. 'AI 고객케어'는 고객의 해지의도 추출과 분석을 통해 맞춤형 요금제 제안 및 간편 변경 서비스를 제공하고, 'AI 세일즈'는 잠재 고객군을 수집·추출하여 해당 고객군에 최적의 상품을 효율적으로 제안하도록 세일즈 자동화를 구현하는 것이다. 서상원 스테이지파이브 대표이사는 “AI 고객센터의 도입은 AI 기반 서비스 혁신의 첫걸음으로, AI 기술을 통해 고객들의 시간 절약과 불편함 해소를 돕고 고객 만족도를 획기적으로 개선할 수 있었다”며 “앞으로도 스테이지파이브는 AI와 최신 기술을 접목한 다양한 서비스를 통해 고객들에게 차별화된 경험을 제공할 계획”이라고 말했다.

2025.04.28 12:16박수형

[AI는 지금] 국산 오픈 LLM '출격'…엑사원·하이퍼클로바X 등 잇따라 공개

국산 오픈소스 대형 언어모델(LLM) 경쟁이 본격화되고 있다. LG AI연구원과 네이버가 잇따라 오픈 LLM을 선보이며 국내 AI 생태계에 활력을 불어넣고 있는 가운데 카카오도 자체 모델을 공개하며 흐름에 합류하는 모양새다. 27일 업계에 따르면 네이버는 최근 '하이퍼클로바X 시드(Seed)' 시리즈를 공개하며 국산 오픈소스 LLM 흐름을 이어가고 있다. 이는 지난해 LG AI연구원이 12월 '엑사원(Exaone)-3.5'를 공개하며 포문을 연 이후 국내에서도 오픈소스 LLM 시장이 본격적으로 형성되기 시작한 흐름을 잇는 것이다. LG AI연구원은 '엑사원-3.5' 공개 이후 후속 업데이트를 지속하고 있으며 최근에는 '엑사원 딥(DEEP)' 모델도 허깅페이스에 오픈소스로 공개했다. 엑사원 시리즈는 케엠엠엘유(KMMLU), 해래벤치(HAERAE-Bench), 코베스트(KoBEST) 등 다양한 한국어 특화 벤치마크에서도 준수한 성능을 기록하며 기술력을 입증하고 있다. 더불어 원라인에이아이 발표에 따르면 '엑사원-3.5'는 한국어와 영어 모두에서 일관된 성능을 보여주는 안정성이 강점으로 꼽혔다. 최근 회사가 자체적으로 진행한 '구구단 문제(1부터 100까지 두 자리 곱셈)' 실험에서 한국어와 영어 입력 모두에서 균형 잡힌 답변 정확도를 기록해 주목받았다. 특히 제곱수나 10의 자리 곱셈 문제에서는 높은 정확도를 보였으며 피연산자의 순서에 따라 미세한 성능 차이가 발생하는 특성도 관찰됐다. 업계에서는 엑사원이 한국어 오픈소스 모델 시장에서 핵심 모델 중 하나로 자리잡았다는 평가를 내놓고 있다. 커뮤니티의 반응도 대체로 긍정적이다. 최근 레딧 'LLM' 및 '오픈소스AI' 관련 커뮤니티에서는 '엑사원 딥' 모델에 대해 "7B 모델이 GPQA+ 고난도 벤치마크에서 62% 성능을 기록했다"거나 "2.4B 모델이 라즈베리파이나 스마트폰에서도 실행 가능할 정도로 경량화됐다"는 평가가 나왔다. 네이버 클라우드는 지난 24일 '하이퍼클로바X 시드(Seed)' 시리즈를 공개하며 국산 오픈소스 LLM 경쟁에 본격 합류했다. '하이퍼클로바X 시드'는 30억 파라미터 규모의 소형 모델로, 한국어 벤치마크 'KMMLU'에서 48.47점을 기록했다. 이는 절대 점수만 보면 과거 53.4점을 기록했던 '하이퍼클로바X-라지'보다 낮지만 대형 서버 모델이 아닌 온디바이스 환경까지 염두에 둔 경량 모델이라는 점을 고려하면 의미 있는 결과로 평가된다. '하이퍼클로바X' 시드는 케이엠엠엘유 외에도 해래벤치, 클릭(CLICK) 등 주요 한국어 벤치마크에서도 안정적인 성능을 보였다. 또 공개 하루 만에 다운로드 수가 2천400건을 넘겼고 커머셜 라이선스로 제공돼 스타트업이나 기업들이 상업적 활용까지 가능하다. 허깅페이스에서는 시드를 기반으로 한 파인튜닝 및 양자화 파생모델들이 빠르게 확산되며 생태계 확장 속도도 빨라지고 있다. 실제로 뉴욕대 조경현 교수, 스퀴즈비츠 김형준 대표, 바이오넥서스 김태형 대표 등은 직접 사용 후 긍정적인 후기를 SNS에 남기며 기대감을 나타냈다. 다만 일부 아쉬운 부분도 확인됐다. '하이퍼클로바X 시드'는 구구단 문제 실험에서 문제 자체는 정확히 풀었지만 정답을 요구되는 형식으로 출력하지 않아 평가 점수가 낮게 나오는 사례가 발생했다. 네이버는 이와 같은 포맷 일관성 문제를 해결하기 위해 한국어 데이터셋을 보강할 계획이다. 카카오 역시 '카나나' 시리즈를 통해 오픈소스 LLM 경쟁에 참가하고 있다. 다만 원라인에이아이의 구구단 실험 결과에 따르면 '카나나'는 한국어 입력에서는 비교적 양호한 성능을 보였으나 영어 입력에서는 답변 길이 문제로 인해 성능이 저하되는 모습을 보였다. 실험에 따르면 토큰 제한을 완화할 경우 영어 성능도 개선될 여지가 있는 것으로 나타났다. 현재 국내에 공개된 국산 오픈 LLM들이 아직 경량화 모델 위주로 구성돼 있다는 한계가 있다는 지적도 나온다. 업계는 향후 다양한 크기의 모델들이 추가로 등장할 경우 한국어 기반 AI 생태계의 경쟁력 또한 한층 강화될 것으로 기대하고 있다. 손규진 원라인에이아이 자연어처리(NLP) 연구원은 자신의 링크드인을 통해 "국내에서는 아직 소형 모델 위주로 공개돼 'HRM8K' 같은 고난도 수학 벤치마크로 평가하기에는 아쉬운 점이 있다"며 "향후 더 다양한 크기의 모델이 등장해 한국어 기반 AI 생태계가 한층 발전하기를 기대한다"고 말했다.

2025.04.27 07:21조이환

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

고품질 그래픽·멀티 플랫폼 '기본'…2025 게임대상 후보작 8종 공통점은?

"11초에 얼마나 담을 수 있을까"…알리익스프레스 팝업 가보니

애플은 어떻게 접을까…폴더블 아이폰의 10가지 특징

‘역대급 실적’ 카카오..."외부 파트너와 에이전틱 AI 생태계 확장"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.