• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (226건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"軍 AI 싹쓸이"…코난테크놀로지, 국방 AI 서밋 연다

코난테크놀로지가 국방 인공지능(AI) 기술력을 집약한 만남의 장을 열어 방산 시장 공략에 속도를 내고 있다. 코난테크놀로지는 다음달 16일 서울 용산 전쟁기념관 내 로얄파크컨벤션에서 '국방 AI 테크 서밋 2025'를 개최한다고 23일 밝혔다. 이 행사에는 군 관계자, 방산 협력업체 관계자 등 200여 명이 참석하며 국방 AI 관련 성과와 활용 전략을 공유하는 세션으로 구성된다. 이번 서밋은 코난테크놀로지가 지난 10년간 수행해온 국방 AI 사업 사례를 외부에 처음으로 공개하는 자리다. 주요 세션으로는 ▲국방 AI 기술 추진 전략 및 도입사례 ▲AI 거버넌스 기반 플랫폼 구축 전략 ▲감시정찰 체계를 위한 지능형 의사결정 전략 ▲에이전틱 AI 기반 정보 분석 전략 등이 포함됐다. 행사장에는 관련 기술과 제품의 시연도 진행된다. 코난테크놀로지는 AI 기반 화력운용시스템, 공중전투 기동훈련 체계, 스마트 인재관리 시스템 등 핵심 군 사업에 AI를 공급해온 국내 유일 기업으로, 현재 국방 및 민간 방산 전문기업 20여 곳과 협업 중이다. 특히 지능형 CCTV와 이동형 드론은 국내 최초로 한국인터넷진흥원(KISA) 인증을 받아 재난 구조 현장에서 실전 투입되고 있다. 일례로 'AI 파일럿' 등 유무인 복합 전투체계 실증에도 착수했으며 지난해 '방산혁신기업 100'에 이름을 올린 바 있다 더불어 지난 2023년 자체 개발한 대규모 언어모델 '코난LLM'을 기반으로 공공 및 민간 시장에 AI 솔루션을 공급 중이다. 해당 모델은 지난해 미국 스탠퍼드대 생태계 그래프에 등재됐다. 공공 프로젝트 기반의 신뢰를 바탕으로 의료 AI 영역으로도 확장 중으로, 지난 2월 한림대의료원과 국내 첫 거대언어모델(LLM) 기반 진료 플랫폼 공동 개발을 시작했다. 출시 2년차인 '코난LLM'은 현재 온디바이스, 프로페셔널, 엔터프라이즈 모델로 라인업을 구성해 고객 맞춤형 대응에 나섰다. 지난 3월에는 일반·추론 모드를 통합한 '이엔티-11(ENT-11)' 모델도 출시하며 범용성과 유연성을 높였다. 오는 7월 자사 기술을 탑재한 AI PC도 공개될 예정이다. 김규훈 코난테크놀로지 국방AI사업부 이사는 "AI 기술의 전략적 도입을 통해 국방력 강화에 기여하는 실질적 해법을 고객과 함께 모색할 계획"이라며 "실전성과 신뢰성 기반의 AI 솔루션으로 국방 분야의 새로운 기준을 만들겠다"고 밝혔다.

2025.06.23 16:47조이환

"한국형 GPT의 필수요소"…정부, AI 학습용 데이터 민간서 직접 모은다

과학기술정보통신부(과기정통부)가 자체 초거대 인공지능(AI) 모델 개발에 필요한 학습 데이터를 확보하기 위해 민간과 공공의 데이터 보유 기관을 직접 모집한다. 데이터부터 인재, 그래픽 처리장치(GPU)까지 핵심 인프라를 일괄 지원해 한국형 파운데이션 모델을 만들겠다는 전략의 일환이다. 과기정통부는 다음달 21일까지 '독자 AI 파운데이션 모델 프로젝트'에 참여할 데이터 공급기관을 공개 모집한다고 23일 밝혔다. 이번 사업은 내년부터 본격화되는 정부의 대표 AI 전략 과제로, 공모를 통해 선발될 개발팀에 GPU, 데이터, 인재 등 자원을 집중 지원할 예정이다. 이번 모집은 개발팀이 활용 가능한 고품질 유·무료 데이터를 확보하기 위한 조치다. 공급기관은 텍스트, 이미지, 음성 등 다양한 형태의 데이터를 보유하고 있어야 하며 저작권이나 소유권 등 적법한 권원이 확보돼야 한다. 공급 여부는 선발된 개발팀의 실제 수요를 바탕으로 협약을 통해 확정된다. 협약은 과기정통부 산하 정보통신산업진흥원(NIPA)과 한국지능정보사회진흥원(NIA), 한국데이터산업진흥원(K-Data) 등이 사업관리기관으로 참여해 체결한다. 이용 범위·기간·형태 등은 사전에 규정된다. 이후 데이터는 AI허브 내 전용 스토리지를 통해 공유되거나 직접 제공되는 방식이다. 데이터를 무상 제공하는 기관에는 광학문자인식(OCR) 처리, 중복 제거 등 기초 지원과 법률 검토·가공비 등 실비 보전이 지급된다. 유상 제공의 경우 정예 개발팀에 한정된 비상업적 활용 요건을 바탕으로 적정 가격을 협의해 비용을 보전받는다. 상용화 전환 시는 별도 협의가 필요하다. 참여 기관에 대한 인센티브도 구성됐다. 데이터 바우처 사업 등 정부사업 참여 시 가점 부여가 검토되고 AI 기반 서비스의 우선 도입 기회도 제공된다. 데이터 유통에 관심 있는 기관에는 AI 허브를 통한 상품 등록과 거래 활성화도 지원된다. 다만 과거 정부지원 사업을 통해 구축한 데이터는 이번 사업에 활용할 수 없다. 계약 이후 법률적 분쟁이 발생할 경우 당사자 간 계약서 기준에 따라 책임을 나누게 된다. 김경만 과기정통부 인공지능기반정책관은 "고품질 데이터는 인공지능 성능을 좌우하는 핵심 자산"이라며 "이번 협력을 계기로 민관 데이터 연대가 더욱 확대되길 기대한다"고 밝혔다.

2025.06.23 15:18조이환

AI 품은 KOSA, '소버린 AI'에 힘 준다…조준희 발언에 이재명 "저도 답답"

최근 명칭을 바꾼 한국인공지능·소프트웨어산업협회(KOSA)의 수장인 조준희 회장이 이재명 대통령을 만나 업계의 고민을 허심탄회하게 털어놨다. 우리나라 정부가 추진하고 있는 '한국형 GPT' 개발 추진 움직임에 대해서도 긍정적인 평가를 내놓으며 '소버린 인공지능(주권형 AI)'의 중요성을 강조했다. 조 회장은 20일 울산 전시컨벤션센터에서 열린 'AI 글로벌 협력 기업 간담회'에 참석해 "'챗GPT 같은 좋은 게 많은 데 왜 한국이 (AI를) 직접 개발하려고 하느냐'와 같은 질문을 많이 받는다"며 "우리 자라나는 자녀들이 '독도는 어느 나라 땅이냐' 하면 분쟁 지역이라고 나오고 '김치는 어느 나라 김치냐'고 하면 중국으로 나오지 않게 하려면 반드시 한국형 거대 언어 모델(LLM) 개발이 필요하다"고 피력했다. 이어 "LLM은 (그 나라의) 역사, 문화 등 모든 게 들어간 형태"라며 "(AI에게) 물어봤을 때 한국의 자존을 지키면서 말해주는 LLM이 있어야지, 미국이나 외국에서 만든 그런 LLM은 안된다"고 덧붙였다. 그러면서 "KOSA 협회 회원사인 LG AI 연구원의 독자 (LLM) 개발과 네이버클라우드의 소버린 AI 전략은 정말 훌륭하다고 본다"며 "정부도 이런 전략에 동참해준다면 산업에서도 반드시 응답하도록 하겠다"고 마무리했다. 조 회장의 발언 후 이 대통령도 "조 회장님, 무지하게 답답하셨던가 보다. 저도 똑같은 답답함을 가지고 있다"고 크게 공감하며 '소버린 AI'를 위해 정부도 적극 힘을 보탤 것을 시사했다. 소버린 AI는 주권 국가가 자력으로 구축해 운용하는 AI 체계로, 외부 클라우드나 서비스, 외국 자본 등에 의존하지 않고 독립적인 AI를 구축하는 것을 뜻한다. 소버린AI가 구축되지 않으면 자국의 기술과 데이터 국가 민감 정보가 글로벌 AI 모델의 학습 데이터로 악용되는 등 안보와 직결되는 문제가 발생할 우려가 있다. 이 대통령은 "'챗GPT가 있는데 소버린 AI를 왜 개발하냐, 낭비다'라는 얘기는 '베트남에 쌀 생산 많이 되는데 뭘 농사를 짓냐, 사 먹으면 되지' 이런 얘기와 똑같은 것"이라며 "그게 얼마나 위험한 생각인지 모르는 것"이라고 지적했다. 이 대통령은 대선 과정에서도 '소버린 AI' 개발의 필요성을 자주 강조해왔다. 또 '소버린 AI'는 공약으로 내걸었던 '모두의 AI'와도 맞닿아 있다. '모두의 AI'는 취약 계층도 기본적인 AI 서비스를 이용할 수 있어야 한다는 취지의 프로젝트다. 이에 이 대통령은 이를 실행할 적임자로 하정우 네이버클라우드 AI혁신센터장을 초대 인공지능(AI) 미래기획수석으로 임명했다. KOSA 초거대AI추진협의회에서 활약했던 하 수석은 평소 '소버린 AI'를 주장해 온 인물로, 네이버 LLM '하이퍼클로바X'를 총괄했으며 이론·실무·정책을 두루 갖춘 실무형 전문가로 평가 받는다. 하 수석은 지난 19일 대통령실에서 진행된 첫 공개 브리핑에서도 '소버린 AI' 개발에 힘을 실을 것을 시사했다. 또 정부 지원으로 강력한 AI 모델을 만든 뒤 국민들에게 무료 바우처를 나눠주는 방법으로 AI 생태계를 발전시켜야 한다는 아이디어도 제안했다. 하 수석은 "여러 부처와 또 다른 수석실들, 대통령실과 함께 논의하면서 (소버린 AI를) 만들어 가고 있다"며 "국민들한테는 한 달에 2만원 가량의 바우처를 줘 이를 사용하라고 하면, AI 스타트업들에게 (이 자금이) 시드머니가 될 것"이라고 말했다. 그러면서 "(현재) AI가 전 세계 국가 경쟁력을 좌우하고 국가 미래의 존망을 좌우하는 시기인 것 같다"며 "앞으로 3년, 길면 5년 동안이 어쩌면 AI 시대의 중요한 골든타임(적기)이 될 수 있을 것"이라고 강조했다. 업계에선 정부와 협회가 '소버린 AI'에 대해 뜻을 같이 하고 있는 만큼 국가대표 LLM 개발 프로젝트도 속도가 붙을 것으로 봤다. 과학기술정보통신부는 이날 '국가 AI 파운데이션 모델 프로젝트'에 참여할 사업자 선정 관련 공고를 내고 최대 5개 팀을 선발키로 했다. 이를 통해 6개월 안에 '챗GPT' 같은 해외 모델 대비 95% 이상 성능의 AI를 개발한다는 목표다. 일각에선 이 대통령과 정부의 이 같은 움직임이 최근 한국인공지능·소프트웨어산업협회로 명칭을 변경한 KOSA의 노력 덕분이란 분석도 내놨다. 그간 협회는 2023년 LG AI연구원, 네이버클라우드를 필두로 국내 최초·최대 AI 민간 협의체인 '초거대AI추진협의회'를 출범했으며, 인공지능기본법 제정 과정에 주도적으로 참여해 업계 현장의 목소리를 반영한 실효성 있는 정책 방향을 제시하고 AI 산업 생태계 조성의 토대 마련에 기여했다는 평가를 받아 왔다. 조 회장은 "AI를 중심으로 빠르게 전환되는 산업 구조 변화에 대응해 SW 산업 대표 단체를 넘어 AI 대표 민간 단체로 도약하기 위해 협회에서 적극 나설 예정"이라며 "정부·국회와 함께 AI·SW 산업이 부흥 될 수 있도록 최선의 노력을 다할 것"이라고 강조했다.

2025.06.20 18:48장유미

[AI 리더스] '국내 첫 LLM' 만든 김영섬 "코난테크, 한국형 챗GPT 개발 역량 충분"

"우리는 140여 장의 그래픽처리장치(GPU)만으로도 이미 중국 '딥시크 R1'에 버금가는 모델을 불과 두 달만에 개발했습니다. 만약 1천 장 규모의 GPU를 추가로 확보할 수 있다면 그동안 축적된 개발 노하우를 바탕으로 국가대표급 AI 모델을 만들 자신이 있습니다." 김영섬 코난테크놀로지(코난테크) 대표는 최근 서울 강남구에 위치한 본사에서 기자와 만나 '독자 AI 파운데이션 모델 프로젝트' 사업자로 반드시 선정되고 싶다는 바람을 드러내며 이처럼 강조했다. 국내 최초로 거대언어모델(LLM)을 자체 개발하고 다양한 산업 분야에서 이를 활용하고 있는 만큼 충분한 자격을 갖췄다는 점에서다. 20일 업계에 따르면 코난테크놀로지는 지난 2023년 4월 국내 중소형 업체 중 최초로 자체 LLM인 '코난 LLM'을 출시했다. 이를 위해 2022년 12월에는 국내에서 가장 먼저 엔비디아의 'H100'을 발주한 후 2023년 4월 국내서 처음으로 입고를 완료해 주목 받았다. 이처럼 코난테크놀로지가 AI 시장에 선제적으로 대응하게 된 것은 김 대표의 의지가 컸다. 김 대표는 2022년 11월 오픈AI가 '챗GPT'를 출시되자 생성형 AI의 가능성과 파급력을 알아채고 곧바로 자체 보유한 고품질 데이터와 인하우스 개발 인력을 기반으로 자체 LLM 개발에 착수했다. 이를 위해 GPT 개발 전담 TF를 구성하기도 했다. 김 대표는 "H100을 국내서 처음 입고하며 적시에 GPU 인프라를 확보한 덕분에 개발 속도를 높일 수 있었다"며 "H100의 KC 전기전파인증도 우리가 국내 최초로 받았고, 2023년 3월부터 미국 시라스케일 GPU를 임대해 자체 LLM 모델 학습을 시작했다"고 설명했다. 이어 "그 결과 2023년 8월에는 131억 파라미터 규모의 모델 학습을 완료하며 국내 최초로 독자 LLM 모델을 공개할 수 있었다"며 "이 모델은 온프레미스형 LLM으로, B2B 및 B2G 시장 진출을 목표로 하고 있다"고 덧붙였다. 업계에선 '코난 LLM'이 차별화된 R&D 인프라를 기반으로 개발됐다는 점에서 높이 평가했다. 특히 자체 벡터 검색 및 RAG 기술이 적용돼 있어 기업 내부 정보 활용 측면에서 우수한 성능을 발휘한다고도 봤다. 덕분에 '코난 LLM'은 정식 출시 후 국내 공공 현장뿐 아니라 다양한 산업군에서 활발하게 활용됐다. 특히 지난 해 6월에는 한국남부발전과 약 41억원 규모의 구축 계약을 체결해 눈길을 끌었다. 국내 최초로 LLM이 공공 현장에 도입된 사례였기 때문이다. 또 지난해 7월에는 미국 스탠퍼드대학교의 에코시스템 그래프에 한국 파운데이션 모델로 이름을 올리며 기술력을 인정받기도 했다. 이 그래프에는 네이버 LLM '하이퍼클로바'와 LG AI 연구원 '엑사원2.0', SK텔레콤의 '에이닷엑스', KT의 '믿음', 엔씨소프트의 '바르코-LLM' 등도 함께 올랐다. 이후 코난테크놀로지는 생성형 AI 서비스를 통해 공공 부문의 디지털 전환에 앞장 서 지원했다. 그 결과 '코난 LLM'은 한국중부발전, 국방부, 행정안전부, 국회사무처, 인천국제공항공사 등 주요 공공기관은 물론 한림대의료원, 한화손해보험, 신한라이프, KB증권, 제주항공 등 민간 기업과 풍부한 사업 경험을 갖게 됐다. 제품 검증(PoC)을 진행한 사례는 40여 곳이 넘는다. 김 대표는 "우리는 국내외 생성형 AI 분야에서 이미 기술력을 인정 받았다"며 "올해 3월에 출시한 국내 최초 추론 통합형 모델 '코난 LLM ENT-11'이 대표적인 예로, 중국 딥시크 R1이 출시된 지 불과 두 달 만에 추론과 수학 성능에서 이를 능가하는 모델로 개발돼 기술 저력을 보여줬다"고 강조했다. 이어 "이런 성과들은 실제 활용 가능한 수준의 고도화된 LLM을 만드는 데 있어 우리가 실질적인 역량을 갖추고 있음을 의미한다"며 "특히 자체 AI 모델을 직접 개발하고 이를 다양한 프로젝트에 적용해 온 국내 유일 기업 중 하나로, 정부 및 공공기관을 대상으로 대규모 서비스를 실제 제공하며 산업 현장의 생산성 향상을 이끌고 있다"고 덧붙였다. 코난테크놀로지가 이미 국방 AI 시장에서도 독보적인 경쟁력을 가지고 있다는 점도 눈여겨 볼 요소다. 이곳은 설립 당시 자연어 검색뿐 아니라 음성, 영상으로도 검색 비즈니스를 추진해왔고 이 중 컴퓨터 비전 분야에서 특허 받은 이미지 검색 기술과 영상 객체 식별 기술 기반의 AI 솔루션 '코난 와처'를 주축으로 공공, 방송 외에 국방 사업에 꾸준히 발을 들여왔다. 또 올해는 국방 AI 수요가 본격적으로 폭증하고 있는 것에 발 맞춰 적극 대응하고자 '국방 AI 사업부'도 확대 개편했다. 김 대표는 "미래전 양상의 변화, 무인화·자동화 수요 증가, 지능형 의사결정, 지휘통제 체계 강화에 집중하며 국방 분야의 AI 사업을 전개하고 있다"며 "민간방산전문기업을 포함하면 현재 20여 곳의 고객사와 국방 사업을 진행하고 있다"고 설명했다. 이어 "우리는 국방 분야에서 AI 소프트웨어를 규모있게 공급하는 국내 유일 업체"라며 "미국 AI SW 기업 팔란티어처럼 국방 및 의료를 중심으로 한 공공 프로젝트에서의 실적을 통해 기술 안정성과 신뢰성을 입증한 후 민간 시장으로도 확장할 수 있는 가능성이 크다"고 덧붙였다. 이 같은 자신감을 바탕으로 김 대표는 정부가 추진하는 '독자 AI 파운데이션 모델 프로젝트(가칭 월드베스트 LLM, WBL) 프로젝트'에 반드시 사업자로 참여할 것이란 의지를 내비쳤다. 우리 정부는 현재 AI 기술 자립과 생태계 확장을 목표로 국내 정예팀을 뽑아 독자 AI 파운데이션 모델을 개발하겠다는 의지를 보이고 있다. 이를 위해 과학기술정보통신부는 정보통신산업진흥원(NIPA), 한국지능정보사회진흥원(NIA), 정보통신기획평가원(IITP)과 함께 오는 7월 21일까지 프로젝트에 참여할 국내 정예팀 공모에 나선다. 이번 공모는 성능·전략·파급효과 등을 기준으로 최대 5개 정예팀을 선정한 뒤 단계별 평가를 통해 점진적으로 압축하는 방식으로 진행된다. 최신 글로벌 AI 모델 성능의 95% 이상 달성을 목표로, 참여팀은 자체적인 개발 전략과 방법론을 자유롭게 설계할 수 있다. 프로젝트는 일괄지원이 아닌 6개월 단위 경쟁형 압축 방식을 도입해 민첩한 기술 진화를 유도한다. 지원 자원은 그래픽 처리장치(GPU), 데이터, 인재라는 세 가지 축으로 구성된다. GPU는 올해부터 내년 상반기까지 민간 GPU 임차 형태로, 이후엔 정부 구매 GPU를 활용해 정예팀당 최대 1천 장 이상이 단계별로 지원된다. 데이터는 저작물 중심의 공동구매와 개별 가공 작업에 연간 최대 150억원 규모의 예산이 투입된다. 인재 분야는 해외 연구자 유치 시 연 20억원 한도 내에서 인건비와 연구비를 매칭해 준다. 김 대표는 "지금까지의 개발 경험을 바탕으로 세계적인 수준의 정교한 국내 표준 LLM을 만들 수 있다는 확신이 있는 만큼, 이번 '독자 AI 파운데이션 모델 프로젝트'에 꼭 참여하고 싶다"며 "대규모 GPU 자원이 확보된다면 국내 최고 성능 모델을 개발해 국민의 일상을 보다 편리하고 지능적으로 변화시키는 데 기여하고자 한다"고 강조했다. 그러면서 "우리는 풍부한 사업 수행 경험과 탄탄한 인프라를 갖추고 있다"며 "80여 명의 인하우스 AI 연구 인력과 함께 온디바이스, 프로페셔널, 엔터프라이즈 등 업무 규모 별로 정교하게 정비된 모델 라인업을 갖춰 고객 요구에 최적화된 기술을 제공할 수 있는 기반도 있다"고 설명했다. 또 그는 "국민이 국산 AI 기술을 직접 사용하는 경험을 통해 국가의 AI 자립도를 높일 수 있다는 사명감을 가지고 일해왔다"며 "이번 프로젝트에도 진심을 담아 임할 준비가 돼 있다"고 덧붙였다. 김 대표는 정부가 독자 AI 파운데이션 모델을 개발하려는 움직임에 대해서도 상당히 긍정적으로 평가했다. 또 이 프로젝트를 통해 확보된 LLM 모델이 오픈소스로 공개돼 다양한 산업 및 공공 도메인에서 널리 활용되면, 우리나라가 빠른 시일 내에 글로벌 수준의 경쟁력을 갖춘 LLM 기술을 보유하게 될 것이라고 전망했다. 김 대표는 "이번 프로젝트에 참여하는 기업들은 GPU 인프라와 공통 학습 데이터 지원만으로도 상당한 이점을 얻을 수 있다는 점에서 우리 외에도 많은 곳들이 관심을 가질 것"이라며 "현재 GPU는 가격이 비싸고 확보가 어려운 자원으로, 우리가 자체적으로 가진 140여 장만으로는 수천억 개 파라미터 규모의 초대형 모델 개발을 진행하고 있는 해외 기업과 경쟁하긴 쉽지 않다"고 밝혔다. 그러면서 "정부가 1천~2천 장 규모로 GPU를 지원해준다면 학습 시간 단축과 비용 절감 측면에서 큰 도움이 될 것"이라며 "공통 학습 데이터 지원을 통해선 기업들이 데이터 수집과 가공에 드는 리소스를 절감할 수 있고, 학습 품질을 안정적으로 끌어올리는 데도 좋은 영향을 줄 것으로 보여 기대가 크다"고 부연했다. 또 김 대표는 2대 주주인 SK텔레콤과도 활발히 AI 협력에 나서 성과를 내겠다는 의지도 보였다. 현재 코난테크놀로지는 SK브로드밴드의 '070 인터넷 전화 서비스'에서 제공되는 전화 및 통화 요약 기능에 사용되는 '코난 LLM'을 공급하고 있다. 또 '코난 챗봇 플러스'라는 AI 동시통역 솔루션은 SK텔레콤과의 파트너십을 통해 '트랜스 토커'라는 명칭으로 공동 사업을 진행 중이다. 이 외에 국방 관련 프로젝트 3개도 SK 측과 협업을 펼치고 있다. 김 대표는 "올해는 핵심 제품에 생성형 AI를 결합한 사업 운영으로 시너지를 내는 동시에 국방력 강화를 위한 AI 솔루션을 선제적으로 공급해 회사의 미래 동력을 확보하는 데 총력을 기울일 것"이라며 "현재 전년 매출을 이미 넘어선 상태로, 올해 말까지 매출을 400억원가량 달성할 수 있을 듯 하다"고 자신했다. 이어 "2023~2024년은 PoC 중심의 생성형 AI 시범 사업이 많았던 시기였고 올해부터 본격적인 사업들이 추진되면서 (우리에 대한) 시장의 기대감이 커지고 있다"며 "내년에는 LLM에서 성과를 더 낼 수 있을 것으로 보여 턴어라운드에 돌입하는 것을 목표로 하고 있다"고 덧붙였다.

2025.06.20 16:32장유미

정부, '국가대표 AI' 만든다…글로벌 수준 모델 개발에 '총력'

대한민국 정부가 인공지능(AI) 기술 자립과 생태계 확장을 목표로 국내 정예팀을 뽑아 독자 모델 개발에 나선다. 글로벌 기업 중심의 AI 주도권 구도를 견제하고 기술 주권을 확보하기 위해서다. 과학기술정보통신부(과기정통부)는 '독자 AI 파운데이션 모델 프로젝트'를 공식 출범하고 다음달 21일까지 참여 정예팀 공모에 착수한다고 20일 밝혔다. 과기정통부 외에도 정보통신산업진흥원, 한국지능정보사회진흥원, 정보통신기획평가원이 공동으로 추진하는 이번 사업은 기존 '월드베스트 거대언어모델(World Best LLM)' 프로젝트의 공식화다. 이번 공모는 성능·전략·파급효과 등을 기준으로 최대 5개 정예팀을 선정한 뒤 단계별 평가를 통해 점진적으로 압축하는 방식으로 진행된다. 최신 글로벌 AI 모델 성능의 95% 이상 달성을 목표로, 참여팀은 자체적인 개발 전략과 방법론을 자유롭게 설계할 수 있다. 프로젝트는 일괄지원이 아닌 6개월 단위 경쟁형 압축 방식을 도입해 민첩한 기술 진화를 유도한다. 지원 자원은 그래픽 처리장치(GPU), 데이터, 인재라는 세 가지 축으로 구성된다. GPU는 올해부터 내년 상반기까지 민간 GPU 임차 형태로, 이후엔 정부 구매 GPU를 활용해 정예팀당 최대 1천 장 이상이 단계별로 지원된다. 데이터는 저작물 중심의 공동구매와 개별 가공 작업에 연간 최대 150억원 규모의 예산이 투입된다. 인재 분야는 해외 연구자 유치 시 연 20억원 한도 내에서 인건비와 연구비를 매칭해 준다. 특히 대학·대학원생의 참여를 필수로 명시하며 미래 인재 양성을 병행하는 구조다. 동시에 참여팀은 국민 AI 접근성 향상, 공공·경제·사회 전환(AX) 기여계획도 함께 제출해야 한다. 오픈소스 수준에 따라 정부 매칭 비율과 자부담 비율이 달라지는 구조도 설계됐다. 프로젝트는 단순한 기술개발에 머무르지 않는다. 국민 대상 사용성 평가, 컨테스트형 단계 심사, 벤치마크와 한국어 성능·안전성 검증 등 다층적 방식으로 완성도를 높인다. 우수한 모델에는 'K-AI' 명칭 부여 등 글로벌 브랜딩도 병행한다. 안전성 확보를 위해 AI안전연구소(K-ASIS)와의 협력도 예정돼 있다. 이 밖에 공공영역은 물론 국방·안보 등 민감 분야 활용도 계획에 포함돼 있다. 정부는 개발된 모델을 오픈소스화해 민간 AI 서비스 생태계 확산에도 적극 활용할 방침이다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 프로젝트는 AI 기술 주권 확보와 모두의 성장을 위한 생태계 구축이 목표"라며 "글로벌 수준의 독자 AI 모델을 통해 대한민국이 진정한 AI 강국으로 도약하길 기대한다"고 밝혔다.

2025.06.20 13:37조이환

이스트소프트, AI 휴먼 키오스크 사업 시동…자체 LLM 첫 상용화

이스트소프트(대표 정상원)가 자체 개발한 경량 대규모언어모델(LLM) '앨런'을 앞세워 온디바이스 AI 시장 공략에 본격 나선다. 이스트소프트는 이큐비알과 대화형 AI 휴먼 솔루션 'AI 라이브 챗' 공급 계약을 체결했다고 19일 밝혔다. 이 계약을 통해 양사는 온디바이스 AI 키오스크 시장 공략에 본격 나선다. 이번 계약은 이스트소프트기 '앨런 LLM'과 AI 휴먼 기술을 기반으로 한 온디바이스 소프트웨어 개발 키트(Full On-Device SDK)를 이큐비알에 공급하는 내용이다. 이를 통해 양사는 온디바이스 AI 휴먼 키오스크를 빠른 시일 내에 제품화하고, 초도 물량 20억원 규모를 시작으로 순차적 유통에 돌입한다. 이스트소프트는 키오스크에 탑재되는 AI 라이브 챗이 독립 환경에서 구동돼 ▲높은 보안성 ▲지연시간 최소화 ▲클라우드 인프라 비용 절감 등의 장점을 제공한다고 설명했다. 여기에 검색 기반 생성형 AI(RAG), 음성합성(TTS), AI 휴먼 인터페이스 등 온디바이스 최적화를 위한 기술 고도화를 지속 추진하고 있다. 이큐비알은 금융권 SI 사업에서 쌓은 구축·유통·운영 노하우를 기반으로 키오스크 현장 설치와 유지보수까지 전반을 담당하게 된다. 양사는 기술-사업 연계 모델을 통해 온디바이스 기반 LLM 서비스의 상용화 속도를 높이겠다는 계획이다. 이스트소프트는 이번 계약을 통해 자체 개발한 앨런 LLM을 처음으로 상업 공급하게 됐으며, 이를 기점으로 에이전트 AI 구축 사업과 LLM 플랫폼 확장에 속도를 낼 방침이다. 하반기에는 LLM 기반 온디바이스 솔루션 사업을 주력으로 추진한다. 정상원 이스트소프트 대표는 "이번 계약은 자체 LLM 기술을 온디바이스 환경에 상용화한 상징적인 첫 사례"라며 "AI 라이브 챗을 포함한 다양한 솔루션을 통해 온디바이스 AI 생태계를 선도하고, LLM 기반 사업의 본격 성장을 이끌겠다"고 강조했다. 향후 양사는 공공, 의료, 유통, 관광 등 다양한 분야로 온디바이스 AI 키오스크 사업을 확대하고, 베리어프리 키오스크 도입 의무화에 선제 대응할 계획이다.

2025.06.19 09:43남혁우

엘리스그룹-엔비디아, 원데이 워크숍에 20명 초청한다

AI 교육 솔루션 기업 엘리스그룹(대표 김재원)이 7월 5일 '엘리스 x NVIDIA 원데이 워크숍'을 진행한다. 지난해 11월 NVIDIA(이하 엔비디아)와 교육 파트너십을 맺은 이후 처음으로 여는 공개 워크숍이다. 엘리스그룹은 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute, 이하 DLI) 공식 교육 서비스 파트너로서 AI 분야에서 필수적인 최신 기술 교육을 제공하기 위해 협력하고 있다. 이번 공개 워크숍 역시 양사의 AI 솔루션 및 서비스로 최적의 AI 교육을 지원한다. 교육은 서울 성수에 위치한 오프라인 교육 플랫폼 엘리스랩 서울센터에서 진행된다. 엔비디아 DLI 공인 강사가 엔비디아에서 개발한 딥 러닝 교육 콘텐츠를 활용해 'LLM을 활용한 앱 개발'을 강의할 계획이다. 워크숍 참여자들은 딥러닝, LLM 뿐만 아니라 생성형 AI 시대에 주목받는 RAG 기술, GPT 스타일의 디코더 모델 등 현업에 적용 가능한 LLM 기술 교육을 집중적으로 배울 수 있다. 워크샵 수료 후에는 글로벌 역량 인증서를 발급할 예정이다. 원데이 워크숍으로 진행되며 양질의 교육을 제공하고자 수강 인원은 20명으로 한정한다. 제조, 유통, 통신 기업 재직자를 포함해 관심있는 기업 개발자라면 누구든지 참여할 수 있다. 수강을 원하는 이들은 엘리스그룹 성인 AI 실무 교육 브랜드 '엘카데미' 홈페이지에서 자세한 정보를 확인하고, 신청할 수 있다. 김재원 엘리스그룹 대표는 "엘리스그룹은 엔비디아를 비롯해 다양한 글로벌 빅테크들과 협력을 강화하며 AI 인프라부터 AI 교육 분야까지 이어지는 강력한 AI 생태계를 구축해 나가고 있다"며 "이번 엔비디아 공개 워크숍에 참가하는 이들이 실제 산업 현장에서 요구하는 AI 기술 역량을 빠르게 습득할 수 있도록 최적의 AI 교육 환경을 제공할 것"이라고 말했다.

2025.06.19 08:54백봉삼

기업이 AI PC 도입 망설이는 이유는

인텔과 AMD, 퀄컴 등 프로세서 공급업체와 주요 글로벌 PC 제조사는 지난 2023년부터 업무 효율 강화, 생산성 향상 등을 앞세워 AI PC 보급 확대에 주력하고 있다. 특히 시장조사업체 IDC는 올해 초 PC 출하량 중 40%가 AI PC로 예상된다고 전망하기도 했다. 그러나 국내 대기업이나 기관 등은 AI PC를 실제 업무에 안전하게 활용할 수 있는지 여전히 회의적인 시선을 보내고 있다. 18일 국내외 PC 제조사 관계자들은 "기업들이 AI 활용보다는 일정 주기에 따라 PC를 교체하고 있으며 성급한 도입보다 관망에 무게를 두고 있다"며 "AI PC가 업무 방식의 혁신을 가져올 수 있는 도구로 인식되려면 더 많은 시간이 필요하다"고 지적했다. AI PC 활용도 높일 '킬러 앱' 부재 스마트폰이 국내 시장에 보급되던 2010년 초반 카카오톡 등 모바일 메신저가 보급을 앞당기는 '킬러 앱'(Killer App) 역할을 했다. 반면 현재 출시되는 AI PC에는 이런 역할을 할 수 있는 응용프로그램이 없다. 글로벌 PC 제조사 국내 법인 관계자는 "문서 요약이나 화상회의 보조 기능, 그림판을 이용한 이미지 생성 이외에 구체적으로 어떤 일을 할 수 있는지 문의하지만 이에 대해 답을 내놓기 쉽지 않은 것도 사실"이라고 설명했다. 또 다른 제조사 관계자는 "글로벌 차원에서 다양한 시도가 이어지고 있지만 국내 완제PC 시장 규모가 연간 470만 대 수준으로 미미해 확대되기 어렵다. 국내 환경에 맞는 AI 기능 개발을 위해 외부 소프트웨업체(ISV)의 참여가 더 필요하다"고 밝혔다. 클라우드 통한 정보 유출 우려 여전해 현재 챗GPT(오픈AI), 클로드(앤트로픽), 제미나이(구글) 등 주요 생성 AI 서비스는 대부분 클라우드 형태로 작동하며 여러 데이터와 프롬프트가 인터넷을 통해 클라우드로 전달된다. 레노버 AI 나우, AI 컴패니언(HP) 등 주요 제조사가 기본 탑재하는 소프트웨어도 하이브리드 모드로 실행할 경우 기기 자체에 설치된 거대언어모델(LLM)을 벗어나 클라우드를 이용한다. 이 과정에서 정보 유출 등 우려가 여전히 남아 있다. 한 글로벌 제조사 관계자는 "고객 정보나 프라이버시, 내부 기밀 등을 중요시하는 일부 기업은 오히려 '기본 탑재 AI 소프트웨어는 물론 마이크로소프트 윈도11 기본 기능인 코파일럿까지 삭제하는 방법이 없느냐'라고 문의하기도 한다"고 설명했다. "윈도10 전환에는 아직도 시간 부족해" IDC, 가트너 등 주요 시장조사업체는 오는 10월 윈도10 지원 종료로 인해 AI PC 수요가 늘어날 것으로 예측하기도 했다. 실제로 마이크로소프트는 오는 10월 14일 윈도10 지원이 끝나면 보안 업데이트도 지원되지 않으며 새로운 보안 위협에 대응하려면 윈도11 전환이 필수적이라고 설명하고 있다. 그러나 취재에 응한 주요 PC 제조사 관계자들은 "기업 규모가 클수록 호환성 문제가 크기 때문에 일반 소비자처럼 쉽게 윈도11 전환을 검토할 수 없다"고 지적했다. 업계 관계자는 "1년에 PC 한 대당 일정 비용(30달러, 약 4만 1천원)을 내면 보안 업데이트를 추가로 제공 받을 수 있다. 이를 이용해 호환성 문제를 해결할 시간을 벌면서 교체 시기를 내년 이후로 바꿀 수 있다"고 설명했다. 자체 클라우드·AI 모델 확립이 관건 결국 AI PC가 일반 소비자 뿐만 아니라 대형 기업과 기관까지 자리잡으려면 보안 우려를 줄일 수 있는 자체 클라우드와 자체 AI 모델 개발, 또 AI PC의 역량을 활용할 수 있는 새로운 기능 개발이 반드시 필요하다는 지적이다. 글로벌 PC 제조사 관계자는 "기업과 기관의 자체 AI 모델 개발에는 강력한 GPU와 대용량 메모리, 저장장치를 갖춘 워크스테이션이 반드시 필요하며 본사 역시 이런 수요에 대비하고 있다"고 설명했다.

2025.06.18 17:03권봉석

韓 LLM 만들 'AI 국가대표' 선발 시동…하정우 입김 작용할까

약 2천억원이 투입되는 글로벌 톱 수준의 거대언어모델(LLM)을 만들 '인공지능(AI) 국가대표 정예팀' 선발전이 이달부터 본격화된다. 17일 업계에 따르면 과학기술정보통신부는 이르면 이번주, 늦어도 다음주 초쯤 '국가대표 초거대 AI 모델 육성' 사업, 일명 '월드베스트 LLM(World Best Language Model, WBL)' 사업자 선정을 위한 제안요청서(RFP)를 공고한다. 이 사업은 AI 정예팀을 선발해 단시간에 세계 최고 수준의 LLM을 개발할 수 있도록 필요한 데이터와 그래픽처리장치(GPU) 등 핵심 인프라를 전폭적으로 지원하는 것이 주 내용이다. 투입 예산은 1천936억원으로, 선발된 기업에겐 최대 3년간 GPU와 데이터, 인재 등 필요한 자원을 집중적으로 지원한다. 이경우 국가인공지능위원회 지원단장은 지난 2월 브리핑을 통해 "파운데이션 모델인 월드 베스트 LLM이 연내 나와줘야 효과가 있을 것"이라며 "예를 들어 10팀을 뽑아 한 팀이 GPU가 1천 개 이상 필요하다면 그걸 1년 동안 마음껏 쓸 수 있도록 해야 한다"고 설명했다. 그러면서 "세계적인 제도와 비교해 파격적으로 지원하라는 요청이 있었기에 그걸 감안해서 과기정통부에서도 실행 계획을 잡을 것"이라며 "여야정 협의체에서도 지원 방안을 강구해줄 것"이라고 덧붙였다. 업계에선 과기정통부가 이에 맞춰 오는 7월까지 사업자 평가를 마무리 해 최종 정예 개발팀 선발을 마무리 할 것으로 봤다. 최대 5개의 정예 개발팀이 선발될 예정으로, 대기업 3곳, 중소기업 2곳이 사업자로 선정될 가능성이 높은 것으로 점쳐졌다. 정부는 기업 규모나 오픈소스 수준 등에 따라 자부담도 최소화하겠다는 방침을 내세우고 있다. 이 프로젝트는 ▲신규 파운데이션 모델을 스크래치부터 개발하는 방식 ▲기존 모델을 고도화하고 산업 특화형 모델로 확장하는 방식으로 나뉜다. 이를 위해 정부에선 선정 기업에게 올해까지 GPU를 민간 임차 방식으로 제공한 후 내년부터 국가AI컴퓨팅센터가 구매한 GPU 자원을 직접 투입시킬 방침이다. 또 데이터는 공통적으로 사용할 수 있는 저작물 기반 데이터셋과 각 팀의 요구에 맞춘 데이터 구축·가공 작업을 병행 지원한다. 여기에 해외 우수 연구자 유치 시 인건비와 체제비도 매칭 방식으로 지원된다. 정부는 선정 기업들이 개발한 모델을 향후 공공사업에 우선 활용하도록 연계할 방침이다. 또 AI 생태계와 실사용 환경 연동에도 적극 나설 계획이다. 과기정통부 관계자는 "이번주에 사업 공고를 내는 것이 일단 목표"라며 "자세한 내용은 현재로선 밝히기 어렵다"고 말했다. 이처럼 정부가 WBL 프로젝트를 추진한다고 나서자 일부 기업들은 자체 LLM을 갖고 있다는 점을 앞세워 도전 의사를 적극 내비치고 있다. 현재 사업에 관심을 보이고 있는 곳은 네이버와 LG AI연구원, 삼성, KT, SKT, 코난테크놀로지, NC AI, 이스트소프트, 업스테이지 등으로 알려졌다. 가장 의지를 보이는 곳은 코난테크놀로지다. 이곳은 국내 처음으로 지난 2023년 자체 개발한 LLM '코난 LLM'을 선보인 데 이어 이듬해에는 미국 스탠퍼드대 에코시스템 그래프에 등재되며 한국을 대표하는 소버린 AI로 인정 받았다. 또 출범 3년차를 맞은 '코난 LLM'은 현재 공공과 민간을 아우르는 다양한 현장에 도입됐으며 올해 4월에는 국내 유일의 추론 통합모델인 'ENT-11'을 선보이며 '딥시크 R1' 대비 우수한 추론 성능을 입증하기도 했다. 최근에는 국산 AI 기술의 자립과 실질적 경쟁력 확보를 위해 반도체 기업인 리벨리온과도 적극 협력에 나서 기업형 AI 서버 '코난 AI 스테이션 서버'를 출시해 주목 받았다. 이스트소프트도 이날 자체 개발한 LLM '앨런 LLM'을 정식 출시하며 공개적으로 WBL에 도전장을 던졌다. 특히 AI 검색 엔진에 최적화된 자체 LLM을 개발하며 에이전틱 AI(Agentic AI) 서비스화에 있어 독립적인 기술 생태계를 구축하게 됐다는 점에서 경쟁력이 있다고 자신하고 있다. 이 중 업계에선 LG AI연구원과 함께 네이버, NC AI, 코난테크놀로지, 업스테이지 등 5곳을 사업자에 선정될 유력 기업으로 보고 있다. 특히 LG AI연구원은 2021년 12월 최초로 '엑사원 1.0'을 공개한 후 다양한 버전을 선보이며 지속적으로 고도화 해 왔던 만큼 사업자로 선정되기 충분한 요건을 갖췄다는 평가다. 네이버 역시 자체 개발한 초대규모 생산형 AI 언어모델인 '하이퍼클로바'를 갖고 있다는 점이 강점으로 꼽혔다. NC AI는 국내 게임사 최초로 자체 개발해 지난 2023년 공개한 생성 AI 언어모델 '바르코 LLM'으로 패션, 미디어 등 다양한 영역에서 사업을 펼치고 있다는 점에서 주목받고 있다. 업스테이지는 LLM 모델 '솔라'와 광학문자인식(OCR) 기반 '다큐먼트 AI' 등 자체 솔루션을 보유하고 있다. 업계 관계자는 "이제는 외부 모델을 가져와 파인튜닝(미세 조정)하는 방식만으로는 세계 시장에서 기술적으로 차별화 할 수 없을 것"이라며 "한국이 자체 파운데이션 모델 개발에 지금 집중하지 않으면 AI 시장에서 더 뒤처져 선두 그룹과 격차가 더 벌어지게 될 것"이라고 우려했다. 하지만 일각에선 최근 네이버클라우드 AI 혁신센터장 출신인 하정우 AI 미래기획수석이 최근 임명되면서 WBL 프로젝트 사업자 공고가 더 늦춰질 것이란 전망도 내놨다. 하 수석이 GPU를 더 적은 기업에게 몰아줘야 한다고 주장해왔던 만큼, 과기정통부가 준비했던 요건이 달라질 수 있다고 봐서다. 업계 관계자는 "하 수석이 그간 얘기했던 것을 보면 한 곳에 좀 더 힘을 몰아줘야 한다는 식인데, 만약에 이 같은 안으로 변경이 된다고 하면 네이버와 경쟁을 다른 기업들이 제대로 할 수 있을지 의문이 든다"며 "정부가 당초엔 5개 기업을 선정할 것이라고 했지만, 하 수석이 선임된 후 몇 개 기업을 선정할 지에 대한 것도 가늠이 안돼 답답하다"고 하소연했다. 그러면서 "WBL 프로젝트 공고도 사실 지난주쯤 나올 거라고 했다가 시기가 밀려 결국 하 수석이 임명된 후 정부가 요건을 새롭게 만든다는 얘기들도 나오고 있다"며 "이렇게 되면 과기정통부에서 말한 대로 이번주에 공고가 나올 수 있을지도 미지수"라고 덧붙였다. 이에 대해 과기정통부 관계자는 "이전부터 준비를 해왔던 프로젝트"아려 "그 사이에 정권이 바뀌었고 AI 수석도 새로 오긴 했지만, 원래 준비했던 대로 (공고를 내려고) 하고 있다"고 강조했다.

2025.06.17 17:37장유미

채널톡, 개발자 행사서 '11년 쌓은 서비스 운영 노하우' 푼다

올인원 AI 비즈니스 메신저 '채널톡'을 운영하는 채널코퍼레이션(대표 최시원)이 이달 26일 개발자 컨퍼런스 '채널데브톡'을 개최한다. 올해 처음으로 개최되는 이번 행사는 지난 11년간 축적해온 채널코퍼레이션의 안정적인 서비스 운영 노하우와 AI 에이전트 '알프' 개발 경험을 공유하는 자리다. 개발자 커뮤니티 성장을 도모하고자 마련된 행사로, 온라인 라이브로 약 2시간 동안 진행된다. 첫 번째 세션에서는 윤태훈 최고기술책임자가 '채널톡의 제품팀을 소개합니다'를 주제로 채널톡만의 고유한 개발 문화를 공유한다. 이어 벡엔드·프론트엔드·iOS 등 각 분야의 엔지니어들이 생생한 개발 프로젝트 실무 경험담을 전한다. 특히 AI 세션에서는 텍스트 데이터 전처리 과정과 알프에 적용된 검색증강생성(RAG) 기능 구축 사례를 다룬다. 연사로 나서는 전승욱 머신러닝 엔지니어는 서울대학교 산업공학과를 졸업, AI 분석 관련 사업을 창업한 이력이 있으며, 채널코퍼레이션에서 알프 개발 및 음성 LLM 연구 프로젝트를 주도하고 있다. 콘퍼런스 참가 신청은 이달 25일까지 가능하며, IT 업계 종사자는 물론 대학생, 일반인 등 AI와 서비스 개발에 관심이 있는 누구나 무료로 신청할 수 있다. 윤태훈 채널코퍼레이션 최고기술책임자는 “이번 행사는 채널톡 엔지니어들이 최신 AI 트렌드와 개발 인사이트를 직접 발표하고, 외부와 소통하는 뜻깊은 자리”라며 “앞으로도 적극적인 개발자 교류와 인재 양성을 위한 다양한 지원책을 꾸준히 추진하겠다”고 말했다.

2025.06.16 15:34백봉삼

"버티컬 AI 노린다"…게임사 홀린 이연수 NC AI 대표, 영역 확대 본격화

"엔씨소프트 내부에 게임 애니메이터 인력이 상당한 데 이들이 수작업으로 하는 일들을 최대한 인공지능(AI)이 할 수 있도록 돕고 있습니다. 3D 이미지 생성부터 컨셉 아트, 인게임 콘텐츠까지 AI가 활발하게 사용되고 있습니다." 이연수 NC AI 대표가 최신 AI 기술을 바탕으로 게임 개발 생산성 향상을 통해 게임 산업 발전을 이끌겠다는 포부를 드러냈다. 그간 모회사인 엔씨소프트를 통해 오랫동안 쌓아온 기술력과 실전 경험을 바탕으로 AI 기술을 결합해 창작의 한계를 뛰어 넘는 새로운 게임 경험을 NC AI가 제공할 수 있도록 하겠다는 의지도 다졌다. 이 대표는 11일 경기도 판교 그래비티 호텔에서 열린 'AWS 포 게임즈 AI 로드쇼(AWS for Games AI Roadshow)'에 참가해 '게임 산업에서의 AI 기술 활용'을 주제로 이 같은 내용을 담은 키노트 연설을 진행했다. 'AWS 포 게임즈 AI 로드쇼'는 게임 개발자 300여 명이 한자리에 모인 국내 최초 AI·머신러닝 전문 포럼으로, NC AI는 게임 AI 분야 대표 기업으로서 키노트 연설과 첨단 기술 시연을 선보이며 현장 분위기를 뜨겁게 달궜다. 이 대표는 약 300명의 게임 개발자와 업계 관계자 앞에서 진행된 이번 연설에서 AI가 더 이상 선택이 아닌 게임 산업의 필수 성장 동력임을 강조했다. 또 NC AI가 국내 대표 AI 기업으로 성장하고 있는 만큼, 앞으로 개발사들의 고민을 덜고 게임 개발을 더욱 쉽게 만드는데 앞장서겠다는 점도 강조했다. 특히 이 대표는 NC AI가 연구·개발한 3D 생성모델 '바르코 3D'와 애니메이션 자동화, 사운드 생성AI 등 다양한 혁신 기술을 소개하며 실제 게임 개발 현장에서의 적용 사례와 미래 비전을 구체적으로 제시해 참석자들의 큰 호응을 얻었다. 이날 행사장에는 NC AI의 3D, 애니메이션, 음성 및 사운드 생성 등 핵심 AI 기술을 직접 체험할 수 있는 시연부스도 마련됐다. '바르코 3D'는 텍스트 프롬프트나 2D 이미지만으로도 고품질 3D 캐릭터와 오브젝트를 빠르게 생성할 수 있는 기술로, 게임 개발 현장의 그래픽 자산 제작 효율을 획기적으로 높인다. 애니메이션 생성AI는 캐릭터의 움직임을 자동화해 개발자의 수작업 부담을 줄이고 보다 자연스럽고 다양한 동작을 구현하는 모습을 보여준다. 사운드 생성AI 플랫폼 '사운드 팔레트'는 효과음과 캐릭터 음성까지 AI가 자동 생성·변환하는 기술로, 실제 게임 및 영상 콘텐츠에서의 활용도가 높아 큰 호응을 얻었다. 또 NC AI의 TTS는 10초 내외 분량의 음성 샘플만으로도 다양한 언어와 스타일의 고품질 캐릭터 보이스를 생성할 수 있어 글로벌 게임 시장 진출에 최적화된 솔루션으로 주목 받고 있다. 이 대표는 이날 행사에서 게임 산업 내 AI 기술의 현재와 미래, 생산성을 넘어서는 새로운 시장 가치 창출에 대한 비전도 공유했다. NC AI는 게임 산업에서 축적한 AI 역량을 바탕으로 패션, 미디어, 커머스 등 다양한 산업에 특화된 버티컬 AI 솔루션을 제공하고 있다. 실제로 NC AI는 자체 개발한 대형언어모델 '바르코 LLM'을 기반으로, 패션 산업 특화 '바르코 아트' 솔루션을 통해 MLB, 디스커버리 등 국내 대표 패션 브랜드와 협업하며 신상품 기획, 디자인, 생산 전 과정을 혁신하고 있다. 디자이너가 키워드만 입력해도 수 초 내 수십 종의 디자인 시안을 자동 생성하는 등 업무 효율을 획기적으로 높여 다양한 고객사들과 사업논의를 진행하고 있다. 뿐만 아니라 미디어·커머스 분야에서도 이미지·영상 자동 생성, 실시간 다국어 더빙, 챗봇 등 다양한 AI 서비스를 SaaS(서비스형 소프트웨어) 모델로 제공함으로써 시장을 넓혀갈 계획이다. 이 대표는 "이번 AWS 행사에 참여해 우리의 다양한 기술을 소개할 수 있어 무척 기쁘다"며 "우리는 국내 게임 업계에서 가장 선도적으로 AI 서비스 경험을 축적해 온 기업으로 앞으로도 다양한 산업 파트너들과 협업해 실제 현장에 가치를 더하는 혁신적인 AI 서비스를 만들 것"이라고 밝혔다.

2025.06.11 14:47장유미

"클라우드 제약 벗어난 AI 혁신, 퀄컴 AI 허브로 돕는다"

"AI는 자료 요약이나 정리를 통한 생산성 향상과 업무 효율 향상, 문자인식이나 번역, 카메라 화질 개선 등 이미 우리 일상생활에서 널리 쓰이고 있다. 보다 다양한 기기와 응용프로그램이 AI로 지능적으로 작동하도록 돕는 것이 퀄컴의 목표다." 5일 오후 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '컨버전스 인사이트 서밋'(CIS 2025)에서 이규진 퀄컴코리아 이사가 이렇게 강조했다. 이날 이규진 이사는 "클라우드를 거치지 않고 다양한 기기 연산 능력만 활용하는 온디바이스 AI 개발에는 다양한 장애물이 있으며 퀄컴은 이를 해소할 수 있는 '퀄컴 AI 허브'를 제공하고 있다"고 설명했다. "온디바이스 AI, 지연시간·비용에 장점 지녀" 현재 주목받는 다양한 AI 서비스는 대부분 클라우드에서 구동된다. 웹브라우저나 스마트폰 앱으로 질문이나 이미지 생성 요청을 넣으면 불과 수 초 안에 원하는 결과물을 되돌려준다. 그러나 클라우드로 데이터가 오가고 결과물을 받아보는 구조 상 개인 정보 등 프라이버시나 기업 비밀, 민감 정보 노출 가능성에서 자유롭지 않다. 또 지연 시간이나 서비스 장애/중단시 이를 활용할 수 없다는 문제도 있다. 이규진 이사는 "AI 구동을 클라우드에서 로컬 기기로 전환하면 컴퓨팅 자원 이용에 드는 비용을 줄이는 것은 물론 처리 시간 단축, 개인정보나 민감정보, 비밀 유출 차단 등 다양한 이점을 얻을 수 있다"고 설명했다. 이어 "온디바이스 AI를 효과적으로 실행하려면 CPU나 GPU 뿐만 아니라 각종 AI 연산을 저전력으로 실행하는 NPU(신경망처리장치)가 필요하다. 퀄컴이 스마트폰이나 PC, 오토모티브(자동차)나 IoT용으로 제공하는 스냅드래곤 플랫폼은 이를 충족한다"고 덧붙였다. 다양한 모델 사전 최적화해 제공하는 '퀄컴 AI 허브' 퀄컴 AI 허브는 퀄컴 스냅드래곤/드래곤윙 시스템반도체(SoC) 탑재 기기에서 작동하는 AI 앱이나 서비스 개발을 돕기 위한 개발자 포털로 작년 3월부터 가동을 시작했다. 지원하는 런타임은 현재 라이트RT와 범용성을 갖춘 ONNX, 퀄컴 SoC에 최적화된 퀄컴 AI 스택 등 3가지다. 이규진 이사는 "퀄컴 AI 허브는 6월 기준으로 220개 이상의 오픈소스 AI 모델을 퀄컴 플랫폼에 최적화해 제공하고 있고 이들 모델을 활용한 상용 서비스 구현도 문제가 없다"고 설명했다. 이어 "자체 개발한 AI 모델이나 추론 성능을 강화한 모델, 튜닝한 모델을 가져와 대상 플랫폼에 맞는 형태로 최적화하는 작업도 '자체 모델 불러오기' 기능으로 지원한다"고 덧붙였다. "물리 기기 기반 프로파일링으로 PoC 시간 단축" 퀄컴 AI 허브는 허브 내에서 구동되는 실물 기기 기반 시뮬레이션으로 AI 모델을 직접 실행하고 실행 소요 시간 프로파일링, 메모리 이용량, 연산량 측정 등 기능도 수행한다. 이규진 이사는 "이들 기능을 활용하면 개념실증(PoC)을 더 빠르게 추진하고 완성도를 강화할 수 있다. 또 개발자와 퀄컴 담당자가 참여하는 슬랙 커뮤니티를 통해 개발 과정에서 겪는 어려움에 대해 서로 논의할 수 있다"고 설명했다. 이어 "퀄컴 AI 허브를 활용해 국내에서도 더 많은 개발자들이 온디바이스 AI 앱과 서비스를 개발하고 이를 통해 관련 생태계 활성화가 일어나길 바란다"고 당부했다.

2025.06.05 16:50권봉석

망고부스트, AMD 기반 멀티노드 AI 학습 첫 성공…'라마2 70B' 11분 만에 완료

망고부스트가 AMD의 고성능 GPU 32개를 활용해 초대형 AI 모델을 약 11분 만에 학습하는 데 성공했다. 복잡한 하드웨어와 소프트웨어를 하나로 최적화해, 특정 장비에 의존하지 않고도 빠르고 효율적인 AI 학습이 가능하다는 점을 입증했다. 망고부스트는 메타 '라마2 70B 로라' 모델을 10.91분 만에 학습하는 데 성공했다고 5일 밝혔다. 이번 결과는 ML퍼프 기준으로 최초의 AMD 그래픽처리장치(GPU) 기반 멀티노드 학습 성과다. GPU 간 통신 병목을 제거하면서도 성능 저하 없이 학습 시간을 대폭 단축한 사례다. 측정은 국제 AI 벤치마크인 'ML퍼프 트레이닝 5.0(MLPerf Training v5.0)'에서 AMD '인스팅트 MI300X' 그래픽처리장치 32개를 활용했다. 특히 이번 학습에는 일부 파라미터만 미세조정하는 로라 방식이 적용돼 거대 모델에 대해 짧은 시간 안에 고효율 파인튜닝이 가능함을 입증했다. 망고부스트는 온프레미스와 클라우드 환경을 모두 지원하는 유연한 구조를 갖춰 특정 벤더나 하드웨어 환경에 얽매이지 않고 확장 가능한 학습 인프라를 구현하고 있다. 망고부스트는 자체 개발한 '망고 LLM부스트' 소프트웨어와 '망고 GPU부스트 RDMA' 통신 솔루션을 통해 모델 병렬화와 자동 튜닝, 배치 최적화, 메모리 조정 등을 통합 제공하는 시스템을 구현했다. 'LLM부스트'는 다양한 대규모 언어모델을 안정적으로 운영할 수 있도록 설계됐다. 'GPU부스트 RDMA'는 수천 개 큐피 환경에서도 성능 저하 없이 통신을 유지할 수 있도록 설계돼 있다. ML퍼프 제출 기준으로는 노드 1개에서 2개, 4개로 구성된 멀티노드 환경 모두에서 95~100% 수준의 선형적 성능 확장성을 달성했다. 통신 병목을 해소한 원격 직접 메모리 접근(RDMA) 기반 구조와 GPU 최적화 소프트웨어가 병렬 학습 효율을 실질적으로 끌어올린 것으로 해석된다. 이번 학습 결과는 AMD 라데온 오픈 컴퓨트(ROCm) 소프트웨어 스택과의 통합을 기반으로 한다. 망고부스트는 이 환경에 맞춰 'LLM부스트'의 연산, 메모리, 네트워크 제어 구조를 최적화했고 'MI300X'의 메모리 대역폭과 성능을 극대화하는 데 초점을 맞췄다. 망고부스트는 이번 벤치마크 외에도 '라마2 7B', '라마3.1 8B' 모델에 대한 내부 학습 벤치마크를 통해 유사한 성능을 확보해온 것으로 알려졌다. 이 성능은 실제 온프레미스나 클라우드 환경 모두에서 재현 가능하며 일반화된 학습 효율을 보장한다는 점에서 상용화 가능성도 입증된 상태다. ML퍼프와 ML커먼스의 창립자인 데이비드 캔터는 "망고부스트의 첫 ML퍼프 트레이닝 결과는 매우 인상적"이라며 "'MI300X' 단일 노드부터 4노드까지의 확장된 학습 성능은 현대 AI 가속기의 성능을 온전히 활용하려면 소프트웨어 스택의 최적화가 얼마나 중요한지를 다시 입증한 사례"라고 밝혔다. 김장우 망고부스트 대표는 "이번 ML퍼프 벤치마크에서 우리는 소프트웨어와 하드웨어의 통합 최적화를 통해 벤더 종속 없이도 대규모 LLM 학습을 효율적으로 수행할 수 있는 해답을 제시했다"며 "이번 결과는 우리 기술이 실제 데이터센터 운영 환경에서 충분히 확장 가능하다는 점을 보여주는 이정표"라고 밝혔다.

2025.06.05 16:40조이환

"동남아판 챗GPT 만든다"…싱가포르, '멀티모달 LLM'에 '7천만 달러' 투입

싱가포르 정부가 자체 거대언어모델(LLM) 개발에 착수했다. 글로벌 인공지능(AI) 경쟁 속 지역 주권을 확보하고 다언어·다문화 환경에 최적화된 동남아판 소버린 AI를 실현하겠다는 포부다. 1일 싱가포르 정보통신미디어개발청(IMDA)에 따르면 이 조직은 현재 과학기술연구청(A*STAR), AI 싱가포르(AISG)와 함께 '국가 멀티모달 LLM 프로그램(NMLP)'을 운영하고 있다. 해당 사업은 싱가포르 국가연구재단(NRF)이 7천만 싱가포르 달러(약 700억원)를 투자해 추진되며 '국가 AI 전략 2.0 및 연구혁신기업(RIE) 2025 계획'과 연계해 내년까지 총 2년간 진행된다. 이번 프로젝트는 AI 인재 양성, 산업 생산성 향상, 신뢰 가능한 거버넌스 환경 조성 등 세 갈래 목표로 설계됐다. 국내 연구자에게는 고성능 컴퓨팅 자원을 지원하고 산업계는 다언어 고객 응대와 자율적 의사결정 시스템을 도입할 수 있도록 유도하는 것이다. 또 LLM의 작동 방식과 위험 요소를 규명하는 연구를 통해 신뢰 기반 AI 사용환경도 구축할 계획이다. 'NMLP'는 크게 두 가지 축으로 구동된다. 첫번째 축인 '머라이언(MERaLiON)'은 과학기술연구청 정보통신연구소가 주도한 모델로, 싱가포르와 동남아에서 흔한 언어·방언 혼용 대화를 인식하고 이해하는 데 초점을 맞췄다. 이 모델은 텍스트, 음성, 장면 정보를 통합하는 멀티모달 처리 능력을 갖췄고 구어체를 이해해 문맥 인식 정확도를 높였다. 구체적으로는 음성 인식·번역, 음성 요약, 음성 질의응답, 장면 인식, 감정 및 분위기 파악, 지역 방언 해석 등 6가지 주요 기능을 갖췄다. 이를 통해 공공·민간 부문의 고객지원, 인사이트 도출, 자동화 의사결정 등에 폭넓게 활용될 수 있다는 게 당국의 설명이다. 싱가포르 정부가 설립한 국가 AI 연구개발(R&D) 추진 기관이자 AI 국가 전략을 실행하는 중심 조직인 'AI 싱가포르'가 개발한 '시라이언(SEA-LION)'은 동남아 다국어 학습에 특화된 LLM 모델이다. 태국어, 베트남어, 인도네시아어 등 주요 지역 언어를 학습해 서구권이나 중화권 중심의 모델보다 높은 문맥 적합성과 응답 품질을 보이는 것이 특징이다. 언어적 대표성의 불균형 문제를 해소하고 포용적 AI 개발을 추진하는 데 목적을 둔다. 현재까지 개발된 '시라이언' 모델은 동남아 전역에서 작동 중으로, 동급 오픈소스 모델을 성능 면에서 앞서고 있는 것으로 알려졌다. 산업계 참여도 이미 활발하다. 과학기술연구청은 정보통신미디어개발청과 함께 머라이언 AI 컨소시엄을 조직했고 DBS은행, 그랩, 마이크로소프트, SPH미디어, 국가슈퍼컴퓨팅센터(NSCC) 등 13개 기관이 1차 멤버로 합류했다. 이들은 다언어 고객상담, 감정 및 건강정보 분석, 자율 의사결정 솔루션 등을 함께 개발 중이다. 컨소시엄은 공통 수요 집약을 통해 개발·통합 비용을 줄이고 데이터와 전문성을 공유해 모델 역량을 빠르게 개선할 방침이다. 또 기업 실무에 즉시 적용할 수 있는 형태의 교육과 도구를 제공하고, 투자 대비 수익(ROI) 검증을 위한 초기 개념증명(POC) 과제를 병행 추진한다. AI 싱가포르는 '시라이언'의 기능 확대와 품질 향상을 위해 외부 협력도 개방했다. 오픈소스화된 결과물을 토대로 다양한 파트너십을 구축해 공동 개발 체계를 유지한다는 계획이다. 싱가포르 정부는 이번 프로젝트를 통해 AI 기술의 지역 적합성과 전략적 자립성을 동시에 확보할 수 있을 것으로 기대하고 있다. 프로젝트 총괄 기관인 정보통신미디어개발청은 "싱가포르가 다언어 사회인 만큼 AI도 지역 현실을 반영할 수 있어야 한다"며 "이번 모델들이 산업 혁신뿐 아니라 AI 거버넌스에도 기여하길 기대한다"고 밝혔다.

2025.06.01 08:29조이환

포티투마루, 석박사 만남의 장 열었다…AI 인재, 현장으로 '직행'

포티투마루가 인공지능(AI) 대학원 석박사들과 산업 현장 문제 해결을 위한 생성형 AI 적용 가능성을 논의하는 만남의 장을 열었다. 포티투마루는 서울 본사에서 '생성AI선도인재 양성사업'의 일환으로 제1회 우수연구자 워크숍을 개최했다고 30일 밝혔다. 이 자리에는 국내 AI대학원 소속 우수 연구원들과 자사 연구진이 참여해 실제 산업 수요에 맞는 생성형 AI 기술 활용 방안을 집중 논의했다. 워크숍에서는 울산과학기술원, 인하대, 성균관대 등 각 대학 소속 연구원들이 진행 중인 연구 주제를 발표하고 이를 산업 현장에 적용할 수 있는 구체적 방식을 공유했다. 특히 고속도로 CCTV 영상 분석, 자연어 질의 생성, 멀티에이전트 시스템 등 다양한 주제가 제시됐다. 울산과학기술원 소속 연구원은 기상 조건으로 인한 노이즈를 제거하고 사고나 낙하물 등의 이상 상황을 실시간 식별할 수 있는 알고리즘 개발 방안을 설명했다. 인하대 연구팀은 그래프 기반 데이터베이스를 대상으로 자연어 질의 생성을 자동화하는 기술을 다뤘고 인하대와 성균관대의 공동 연구진은 회의실 예약부터 음료 주문까지 가능한 멀티에이전트 시스템 구현을 제안했다. 각 연구팀은 수요기관의 구체적인 니즈에 기반해 연구 주제를 수정하거나 일정을 조정하는 등 현실 적용을 위한 전략을 수립했다. 포티투마루는 연구원들의 활동을 적극 지원하고 기술적 문제 발생 시 자사 인프라와 노하우를 통해 해결을 지원할 계획이다. 워크숍 말미에는 김동환 포티투마루 대표와 우수 연구원들이 간담회를 열고 진로 고민과 산업 현장의 궁금증을 자유롭게 나누는 시간도 마련됐다. 학생들은 실제 기업 환경에서의 생성형 AI 활용에 대한 경험과 시야를 넓힐 수 있는 기회였다고 평가했다. 포티투마루는 생성형 AI 특화 스타트업으로, 초거대 언어모델의 환각 문제를 검색증강생성 기술 '알에이지42(RAG42)'와 독해 기술 '엠알씨42(MRC42)'를 통해 완화하고 있다. 자체 개발한 경량화 모델 '거대언어모델42(LLM42)'를 기반으로 전문 산업 분야 맞춤형 AI 솔루션을 제공하며 민감 데이터 보호를 위한 프라이빗 모드와 비용 절감형 학습·서빙 구조도 갖추고 있다. 김동환 포티투마루 대표는 "이번 워크숍은 미래 생성AI 시대를 이끌 인재들과 직접 소통하며 그들의 열정과 잠재력을 확인할 수 있는 소중한 기회였다"며 "이들이 실제 산업 문제 해결에 기여하고 혁신적인 결과를 낼 수 있도록 적극 지원하겠다"고 밝혔다.

2025.05.30 16:56조이환

정부, '1.6조원' 규모 GPU 대전 시작…"WBL 훈련용 반도체, 민간과 함께 확보"

과학기술정보통신부가 민간 클라우드 기업들과 손잡고 총 1조6천300억원 규모의 그래픽처리장치(GPU) 확보·임차 사업을 추진한다. 세계 최고 수준의 초거대 언어모델 개발과 국내 산학연의 인공지능(AI) 인프라 확충을 위한 행보다. 과기정통부와 정보통신산업진흥원은 29일 서울 강남 코엑스에서 클라우드 기업을 대상으로 GPU 확보·임차 사업 통합설명회를 개최했다. 이달 1차 추가경정예산을 통해 관련 예산을 확정한 이후 다음달 4주차까지 협력 기업 공모에 본격 착수한 상태다. 이번 사업은 ▲총 1조4천600억원 규모의 GPU 확보 사업과 ▲1천723억원 규모의 GPU 임차 사업으로 구성된다. 확보 사업은 정부와 민간이 협력해 첨단 GPU를 직접 구매·구축하는 방식이고 임차 사업은 클라우드 기업이 보유한 GPU를 임차해 활용하는 구조다. 임차된 GPU는 가칭 '월드 베스트 LLM(WBL)' 프로젝트와 국내 산학연 등에 지원될 예정이다. 정부는 국내 고성능 연산 자원 부족 문제를 해소하고 AI 기술의 자립 기반을 확보하는 데 사업의 목적이 있다고 설명했다. 설명회 현장에선 사업 개요와 정책 방향 외에도 공모 절차, 평가 기준, 지원 조건 등의 세부 사항이 구체적으로 안내됐다. 참석자들은 질의응답을 통해 공모 준비에 필요한 사항들을 직접 확인할 수 있었다. 과기정통부와 정보통신산업진흥원(NIPA)은 다음달 4주차까지 공모 접수를 마감하고 오는 7월 중 평가와 협약 체결을 마무리할 계획이다. 이후 GPU 인프라 확보 및 배포를 신속히 추진하겠다는 입장이다. 과기정통부는 "보다 구체적인 공모 내용과 사업 안내는 과기정통부 및 NIPA 홈페이지를 통해 확인할 수 있다"고 밝혔다.

2025.05.29 17:18조이환

코히어 손잡은 LG CNS, 결국 일 냈다…300억 규모 '외교부 AI 플랫폼' 사업자로 낙점

정부가 공공부문에서 생성형 인공지능(AI) 기술을 본격 도입하기 위해 적극 나선 가운데 LG CNS가 기술력을 인정 받아 약 300억원 규모인 '외교부 AI 플랫폼' 구축 사업자로 선정됐다. 공공기관이 발주한 AI 사업 중 가장 큰 규모로, LG AI연구원의 엑사원(EXAONE), 캐나다 글로벌 AI 기업 코히어(Cohere)과의 협업이 성과를 내는 데 주효했다. 29일 업계에 따르면 LG CNS는 외교부와 '지능형 AI 외교안보 데이터 플랫폼' 구축 계약을 체결했다. 이 계약으로 외교부 본부, 재외공관, 유관 정부조직 등의 외교업무를 지원하는 AI 플랫폼 및 서비스를 구축해 외교 업무 전반의 효율성과 대응력을 강화할 방침이다. 이를 위해 LG CNS는 외교부에 특화된 ▲AI 모델 파인튜닝 ▲AI 플랫폼 구축 ▲생성형 AI 서비스 개발 ▲데이터 관리체계 수립 ▲클라우드 인프라 구축 ▲외교데이터관리시스템 개선 ▲보안 체계 구축 등을 맡는다. 이번 사업의 핵심은 ▲외교문서 초안작성, 문서분류 및 요약, 외교업무 관련 정보관리 등 현업 담당자를 위한 어시스턴트 AI ▲실시간 글로벌 이슈 모니터링 및 허위정보탐지를 통해 의사결정을 지원하는 전략수립 AI ▲영사민원 챗봇 시스템을 통한 대국민 AI 등 외교 특화 생성형 AI 서비스를 개발하는 것이다. 특히 실시간 이슈 모니터링 서비스의 경우 검색량이 급증하거나 글로벌 외교 관련 국내외 데이터를 AI가 자동으로 수집·분석해 이슈 현황이나 키워드, 연관된 국가 등을 보고서 형식으로 즉각 생성해준다. 이를 통해 외교부 공무원들은 급변하는 국제 정세와 다양한 사건, 타 국가간 외교 갈등 등을 한눈에 파악하고 빠르게 대응할 수 있다. 대외비 정보가 많은 외교부 특성에 맞춰 LG CNS는 AI 사용 전 과정에 강력한 보안 체계도 구축한다. 보안 체계는 AI가 사용자의 데이터 접근 권한을 고려해 답변 수준을 필터링하거나, 사용자의 데이터 접근 기록 등을 실시간으로 추적하는 모니터링 기능을 구현하는 것이다. 또 LG CNS는 외교부에서만 접근 가능한 프라이빗 클라우드 인프라를 구축해 데이터가 외부망으로 유출되는 것을 사전에 방지할 계획이다. LG CNS는 한국어 역량이 가장 우수한 '엑사원', 코히어와 공동으로 개발한 다국어 거대언어모델(LLM) 등 AI 모델들을 외교부 AI 플랫폼에 멀티엔진으로 탑재한다. 이를 외교부 내부 데이터로 학습시켜 각 모델별 강점에 맞게 활용한다는 계획이다. 예컨대 한국어 기반 AI 서비스 개발에 엑사원을, 외국어 기반 AI 서비스에 코히어와 공동 개발한 모델을 활용하는 것이다. LG CNS와 코히어와 공동개발한 LLM은 23개국 언어에 능통한 고성능 AI 모델이기 때문에 전 세계 각지의 언어로 된 데이터를 취급하는 외교부에 적합하다. LG CNS는 지난 3월 코히어와 공공·금융 특화 AI 모델 및 에이전틱 AI 서비스 개발을 위한 파트너십을 체결한 바 있다. 국내 기업 중 코히어와 협업을 맺은 곳은 LG CNS가 유일하다. 코히어는 지난 2019년 구글 전 연구원 출신인 에이단 고메즈, 닉 프로스트와 캐나다 기업가인 이반 장이 설립한 곳으로, 오픈AI·앤트로픽 등을 경쟁사로 두고 있다. 엔비디아를 비롯해 세일즈포스, AMD, 시스코, 일본 후지쯔 등 글로벌 기업들로부터 자금을 지원 받고 있는 상태로, 현재 조달한 자금은 총 9억7천만 달러(약 1조3천468억원)인 것으로 알려졌다. 이곳의 기업 가치는 55억 달러(약 8조원)에 이른다. 에이단 고메즈 코히어 최고경영자(CEO)는 "한국에선 LG CNS 외에 파트너십을 맺는 기업이 없을 것"이라며 "앞으로 LG CNS와 원팀으로 계속 협업을 이어가며 한국 특화 LLM을 만들 뿐 아니라 풀스택을 갖추고 있는 만큼 고객에게 맞는 최적화 된 모델을 선보일 것"이라고 강조했다. LG CNS는 외교부 외에도 공공영역에서 다양한 AI 프로젝트를 맡으며 공공 AI 서비스 역량을 강화해왔다. 앞서 행정안전부에 정책보고서, 연설문 등 공문서를 만드는 AI 시범 서비스 개발을 완료한 바 있으며 최근에는 경찰청에 'AI 수사 지원 서비스' 개발도 진행하고 있다. 이는 AI가 작성한 조서를 요약하거나 범죄 유형별 유사한 사건 등을 보여주는 등의 서비스다. LG CNS 측은 "연내 지능형 AI 외교안보 데이터 플랫폼을 구축할 것"이라며 "플랫폼에 탑재할 다양한 AI 서비스를 2027년까지 단계별로 개발 및 고도화해 나갈 예정"이라고 말했다.

2025.05.29 14:49장유미

카카오, 자체 개발 '카나나' 언어모델 4종 오픈소스 공개

카카오가 자체 개발 AI 모델을 공개함, 인공지능 생태계 확장과 기술 접근성 강화를 위한 노력을 이어간다. 카카오(대표 정신아)는 23일 자체 개발 언어모델 '카나나(Kanana)' 라인업 가운데 8B와 2.1B 크기의 모델을 오픈소스로 허깅페이스에 공개했다. 아파치 2.0 라이선스를 적용해 누구나 자유로운 수정과 상업적 활용이 가능하다. 이번에 공개한 모델은 지난 2월말 공개한 버전에서 성능이 한층 향상된 것으로 ▲Kanana-1.5-8b-base ▲Kanana-1.5-8b-instruct ▲Kanana-1.5-2.1b-base ▲Kanana-1.5-2.1b-instruct의 총 4종이다. 기존 모델에서 업그레이드를 거친 카나나 1.5는 Agentic AI 구현을 위한 기능 강화에 중점을 뒀다. 글로벌 모델 대비 뛰어난 한국어 성능을 유지하며, 코딩과 수학 문제 해결, 함수 호출 능력에서 이전 대비 평균 1.5배의 성능 향상을 기록해 오픈소스SOTA(State-of-the-Art) 모델 수준의 유의미한 성능을 달성했다. 이 밖에 긴 문맥에 대한 이해와, 간결한 답변을 통해 향상된 사용성을 제공한다. 기존보다 더 긴 텍스트 입력에 대해 안정적인 처리가 가능하며, 정확도와 응답 길이를 최적화 한 답변을 통해 서비스 환경에서 사용자의 체감 성능을 향상시켰다. 카카오는 현재 더욱 향상된 버전의 카나나2를 개발 중이다. 더욱 긴 입력에 대한 처리, 보다 정교화된 추론, 구조적인 효율성 등 다수의 영역에서 진화된 모델 개발을 진행하고 있다. 이번 오픈소스 공개를 통해 카카오는 국내 거대언어모델(LLM) 생태계의 활성화를 위한 시도와 기여를 꾸준히 이어갈 계획이다. 특히 AI 연구자와 개발자는 물론 기업이 목적에 맞게 모델을 자유롭게 튜닝하고 활용할 수 있는 상업 라이선스를 적용, 기술 경쟁력을 확보함과 동시에 협력 기반의 AI 생태계를 구축해 나간다는 방침이다. 카카오 김병학 카나나 성과리더는 "이번 오픈소스 공개를 통해 AI 기술을 통한 성장과 경쟁을 함께하는 환경을 만들고, 이러한 생태계 내에서 기술을 발전시킬 수 있는 계기를 꾸준히 마련해가고자 한다"며 "인공지능 모델 성능의 고도화는 물론 오픈소스의 본질적인 가치를 함께 추구해 갈 것"이라고 말했다. 카카오는 지난해 자체 개발 AI 모델 카나나의 라인업을 공개했으며, 공식 테크 블로그를 통해 언어모델, 멀티모달 언어모델, 비주얼 생성모델 등의 성능과 개발기를 공개해왔다. 지난 2월에는 'Kanana Nano 2.1B' 모델을 오픈소스로 허깅페이스에 배포한 바 있으며, 언어모델 카나나의 연구 성과를 담은 테크니컬 리포트를 아카이브에 공개했다. 최근에는 텍스트와 음성, 이미지까지 다양한 형태의 정보를 동시에 이해하고 처리할 수 있는 통합 멀티모달 언어모델 'Kanana-o'의 성능을 공개하기도 했다.

2025.05.23 13:35백봉삼

"국산 LLM의 반격"…업스테이지, 31B 모델로 '글로벌 70B급' 뛰어넘었다

업스테이지가 경량 언어모델 '솔라 프로 2' 프리뷰를 내세워 글로벌 생성형 인공지능(AI) 시장에 정면승부를 걸었다. 자체 기술력으로 초대형 언어모델을 뛰어넘는 성능을 구현하며 국산 소형모델의 반격을 선언한 것이다. 업스테이지는 자체 개발한 거대언어모델 '솔라 프로 2'를 프리뷰 형태로 공개하고 응용프로그램 인터페이스(API)를 통한 무료 테스트 사용을 허용했다고 20일 밝혔다. '솔라 프로 2'는 오는 7월 정식 출시 예정이다. 이번 모델은 지난해 12월 공개된 '솔라 프로'의 후속으로, 패러미터는 기존 22B에서 31B로 약 1.5배 확대됐다. 주요 성능 지표도 크게 향상돼 동일 계열의 30B급 모델 중에서는 유일하게 메타와 알리바바의 70B급 모델을 벤치마크에서 앞섰다. '솔라 프로 2'는 종합지식(MMLU)·지시이행(IFeval) 평가에서 '라마 4 스카우트', '라마 3.3 70B', '큐원 2.5 72B' 등을 모두 웃도는 결과를 냈다. 한국어 성능도 'KMMLU', '해례' 벤치마크에서 최고 수준으로 확인됐다. 이번 모델에는 업스테이지 LLM 중 처음으로 '하이브리드 모드'가 탑재됐다. 사용자 선택에 따라 빠른 응답용 '챗 모드'와 단계적 추론을 위한 '추론 모드' 중 선택할 수 있으며 특히 추론 모드엔 '생각 사슬(CoT)' 기법이 적용돼 복잡한 수학·코딩 문제에 강점을 보인다. 성능 외에 사용성도 개선됐다. 최대 처리 토큰 수는 기존 대비 두 배 이상 확장된 6만4천 토큰으로 긴 문서 처리에 유리하다. 한국어 맞춤형 토크나이저 개선으로 최대 30%의 토큰 절감이 가능해 응답 속도와 비용 효율도 크게 높아졌다. 김성훈 업스테이지 대표는 "'솔라 프로 2'는 31B라는 효율적 규모로도 70B 모델 수준의 성능을 구현하며 작지만 강력한 소형언어모델의 새 기준을 제시한다"며 "특히 최고 추론 성능에 탁월한 한국어 성능을 갖춘 이번 모델을 통해 보다 많은 업무 혁신을 기대한다"고 밝혔다.

2025.05.20 15:00조이환

디노티시아, AI 엑스포서 개인용 AI 디바이스 '니모스' 첫 공개

장기기억 인공지능(AI) 및 반도체 통합 솔루션 전문기업 디노티시아는 14일부터 16일까지 코엑스에서 열리는 'AI EXPO 2025'에 참가해, 데이터센터 없이도 고성능 LLM을 구동할 수 있는 개인용 AI 디바이스 '니모스(Mnemos)'를 처음 공개한다고 14일 밝혔다. '기억의 신'을 뜻하는 니모스는 사용자가 별도의 서버나 클라우드 인프라 없이도 고성능 언어 모델을 로컬 환경에서 실시간으로 실행할 수 있도록 설계돼, 데이터가 외부로 전송되지 않아 개인정보 보호와 보안성 측면에서도 높은 수준을 제공한다. 또한 니모스는 디노티시아의 벡터 데이터베이스 '씨홀스(Seahorse)'와 연동되어, 고차원 의미 기반 검색 및 개인화된 AI 응답이 가능하며, 자체 개발한 고성능 LLM 파운데이션 모델 'DNA'를 중심으로 다양한 LLM 모델에 유연하게 대응할 수 있도록 설계됐다. 현장에서는 니모스를 기반으로 작동하는 '로컬 코딩 어시스턴트(Local Coding Assistant)'의 실시간 데모가 진행된다. 이 서비스는 디노티시아가 자체 개발한 코딩 전용 LLM 모델과 초경량 추론 엔진 '에테르(Aether)'를 결합해, 비용 효율성이 높은 소비자용 GPU 환경에서도 파라미터 수 140억(14B) 규모의 모델이 원활히 동작하도록 양자화 기술을 적용해 최적화됐다. 특히 코드 작성 중 외부 전송이 제한되거나 보안이 중요한 개발 환경에서도 인터넷 연결 없이 로컬에서 안전하게 LLM 기반 개발 지원을 제공할 수 있다는 점에서 차별화된다. 다국어 환경에서 특정 언어로 치우쳐 응답하는 멀티언어 모델의 한계를 보완하기 위해, 디노티시아는 자체 후처리 도구 'Smoothie Qwen'을 적용했다. 최근 오픈소스로 공개한 이 도구는, AI가 입력 언어와 다르게 의도하지 않은 언어로 응답하는 문제를 완화해, 사용자가 입력한 언어로 보다 정확하고 일관된 응답을 유도한다. 이와 함께 디노티시아는 클라우드 환경에서도 고성능 벡터 검색이 가능한 '씨홀스 클라우드(Seahorse Cloud)'를 함께 선보일 예정이다. 최근 클로즈 베타 형태로 공개된 씨홀스 클라우드는 MCP(Model Context Protocol) 기반의 RAGOps(Retrieval-Augmented Generation Operations)를 통합 지원하는 세계 최초의 SaaS형 벡터 데이터베이스로, 별도의 설치나 복잡한 설정 없이도 웹 환경에서 몇 번의 클릭만으로 구축하고 운영할 수 있다. 정무경 디노티시아 대표는 “AI의 진화는 단순한 질의응답을 넘어, 사람처럼 기억을 축적하고 그 기억을 바탕으로 사고하며 응답하는 방향으로 발전하게 될 것”이라며 “디노티시아는 기억을 기반으로하는 인공지능을 만들어가고 있다"고 밝혔다.

2025.05.14 14:35장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자가 돌아왔다...1년 만에 글로벌 D램 1위 탈환

"수익성은 부담, 상징성은 호감"…인천공항 면세점 입찰 딜레마

라스베이거스서 'K-뷰티테크' 알리다...에이피알 CES 전시 가보니

한국 전통 문화, '생성형 AI' 타고 세계로…K-스타트업의 도전

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.