• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 모델'통합검색 결과 입니다. (219건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

코난테크놀로지, LLM 탑재 AI PC 조달청 '등록'…공공시장 '정조준'

코난테크놀로지가 자체 거대언어모델(LLM)을 탑재한 인공지능(AI) PC의 공공 조달 체계를 확보하며 시장 진입을 본격화했다. 온디바이스 생성형 AI 시스템을 전면에 내세운 만큼 공공기관 특화 요구를 정조준했다는 평가다. 코난테크놀로지는 TG삼보와 협력해 AI PC '코난 AI스테이션(AIStation)'을 조달청 나라장터 종합쇼핑몰에 공식 등록했다고 9일 밝혔다. 이에 따라 공공기관은 해당 장비를 별도 입찰 없이 조달청을 통해 직접 구매할 수 있게 됐다. 이 제품은 코난테크놀로지가 자체 개발한 한국어 특화 LLM을 탑재한 AI 내장형 PC다. 사양별로 보급형과 고급형 두 가지 모델로 등록됐으며 고급형에는 64기가바이트 '디디알5(DDR5)' 메모리와 엔비디아 '알티엑스 4070(RTX 4070)' 칩이 장착됐다. 실시간 문서 분석, 보고서 작성, 생성형 AI 기반 행정처리에 최적화된 구성이란 설명이다. 기기는 인터넷 연결 없이도 윈도우 환경에서 생성형 AI 기능을 실행할 수 있다. 모든 연산이 로컬에서 이뤄져 민감 정보의 외부 유출 위험을 원천 차단할 수 있도록 설계됐다. 이는 공공 업무 특성상 클라우드 기반 AI 사용에 제약이 있는 기관들에게 현실적인 대안이 될 수 있다. 코난테크놀로지와 TG삼보는 지난 5월 자사 행사에서 연간 40만 대 규모의 공공 조달 시장 공략 계획을 밝힌 바 있다. 이번 등록은 이 계획의 실질적 첫걸음으로, 조달 등록과 동시에 현장 영업 확대도 병행되고 있다. 영업은 TG삼보가 하드웨어 공급을, 코난테크놀로지가 LLM 기반 소프트웨어를 제공하는 구조다. TG삼보는 10여 년간 정부 납품 1위 자리를 지켜온 기업으로, 기존 공공 유통망을 활용한 빠른 확산이 가능할 것으로 보인다. 김영섬 코난테크놀로지 대표는 "생성형 AI 어플라이언스 판매 확대를 위한 첫걸음을 내디뎠다"며 "공공 시장 점유율을 끌어올리고 매출 성장에 박차를 가하겠다"고 밝혔다. 지승현 TG삼보 대표는 "이번 등록이 전국 공공기관 공급 확대의 전환점이 될 것"이라고 강조했다.

2025.07.09 15:04조이환

[기고] 가장 쉽고 빠르게 AI 서비스를 구축하는 방법, 문서중앙화

최근 '소버린 AI'에 대한 기업·정부·언론의 관심이 급격히 높아지고 있다. 관심의 본질은 데이터 주권(Data Sovereignty)에 있다. 인공지능(AI)이 신뢰할 수 있는 결과를 내기 위해서는 반드시 기업 고유의 데이터, 더 나아가 자국 경계 안에 존재하는 데이터를 기반으로 작동해야 한다는 공감대가 형성된 것이다. 실제 레퍼런스 구현 방식으로는 검색증강생성(RAG) 아키텍처가 가장 많이 거론된다. 대규모언어모델(LLM)이 자체 지식을 최소화하고 사내 문서를 검색해 응답을 생성하기 때문에 데이터 주권·보안 요구에 부합하기 때문이다. 그러나 현장의 목소리는 "첫 단추부터 막힌다"는 데 모아진다. 핵심 병목은 데이터 품질 확보다. 가트너는 AI 도입 성공을 위해 지속적인 데이터 정렬, 검증, 그리고 거버넌스를 핵심 요소로 제시한다. 많은 기업이 그 중요성을 인지하고 있음에도 불구하고 실제 실행이 어려운 이유는, 데이터 관리 체계를 처음부터 새로 구축하고 정의하는 작업이 어렵고 복잡하기 때문이다. 이로 인해 데이터 품질이 낮아지면 AI 학습에 사용할 수 있는 데이터 양이 부족해지고, 권한 관리 미흡이나 기밀 정보의 노출 위험, 결과의 신뢰성 부족 등 다양한 운영 리스크로 이어질 수 있다. 그런데 이러한 관리 체계가 이미 최적화된 형태로 제공되는 플랫폼이 존재한다. 바로 문서중앙화 플랫폼이다. 이 플랫폼은 파일의 수집부터 폐기까지 원시 데이터를 체계적으로 저장·관리할 수 있다. 이 플랫폼은 기업들이 겪는 데이터 관리의 어려움을 대부분 해결할 수 있다. 분산되고 파편화된 파일을 중앙 집중식으로 저장하고, 개인 중심의 저장 방식을 업무 중심의 분류 체계로 전환하며, 소유권·권한 관리, 파일의 이력과 버전 관리, 보안 정책 적용 및 메타정보의 구성까지 통합적으로 관리한다. 기업내의 비정형 데이터의 통합 스토리지 역할을 하고, 이 데이터 관리 체계와 권한 체계는 그대로 생성형 AI의 데이터 파이프라인과 연계될 수 있다. 결과적으로 문서 중앙화 플랫폼을 통해 지식화된 데이터는 자연스럽게 AI 처리 흐름으로 연결되어 자동으로 처리되며, 문서의 구조와 의미, 유사성 파악과 함께 보안 기준이 통합적으로 적용된다. 이를 통해 기업은 정보와 관리의 사각지대를 제거하고, AI 기반 서비스 운영에 필요한 신뢰성과 관리 효율성을 동시에 확보할 수 있게 된다 문서중앙화 플랫폼과 RAGOps의 통합은 3가지 핵심적인 특징을 제공한다. 첫 번째 "문서중앙화가 전처리의 시작점이자 AI의 기반이 된다" AI 서비스를 도입할 때 별도의 데이터 체계를 새로 구축하기보다, 기존의 문서중앙화 시스템을 데이터 기반으로 삼고 그 위에 AI를 접목하는 것이 핵심 전략이다. RAG옵스(Ops) 플랫폼을 기반으로, 데이터 파이프라인 자동화, 자연어 기반 검색, 요약, 회의록 생성 등 다양한 AI 서비스를 제공하며, 기존 문서중앙화에 AI 기능이 더해져 업무 효율성과 서비스 확장성이 크게 향상된다. 두 번째 "일관된 메타정보 체계를 통해 운영 가능한 AI를 만든다" AI가 안정적으로 운영되기 위해서는 데이터 운영체계와 AI 운영체계가 일관된 관리 기준을 공유해야 한다. 비정형 데이터만으로는 한계가 있으며, 이를 보완하는 표준화된 메타정보 체계가 필수적이다. 문서중앙화 플랫폼과 RAG옵스와 메타체계를 공유하며, 비정형 문서와 함께 메타 정보도 자동 연동·관리된다. 또한, 문서 의미 정보와 함께 등급·분류·관리 속성 등 메타정보까지 벡터화하여 저장함으로써, 검색 정확도와 생성 응답의 신뢰성을 크게 향상시키고, 운영 가능한 실용 AI로 발전시킨다. 세 번째, "RAG옵스 플랫폼을 통해 지속적인 개선과 확장이 보장된다" 문서중앙화 플랫폼의 AI 서비스는 RAG옵스 기반의 자동화된 AI 파이프라인을 통해 지속적으로 개선된다. 데이터 수집부터 임베딩, 검색, 생성까지 전 과정이 최적화되어 데이터 품질 향상에 기여하며, 평가 모델과 피드백 루프를 통해 응답 품질도 지속적으로 향상된다. 이를 통해 문서 기반 AI 시스템은 지속적인 발전과 운영 확장이 가능한 구조를 제공한다. 문서중앙화 플랫폼과 RAG옵스 플랫폼의 결합은 기업이 AI 시대의 복잡한 데이터 과제를 해결하고, AI의 진정한 잠재력을 안전하고 효율적으로 실현할 수 있는 견고한 기반을 제공한다. 인젠트의 도큐먼트(document) 플랫폼과 RAG옵스 결합은 이를 입증한다. AI를 빠르고 안전하게, 그리고 지속적으로 확장하려는 기업에게 문서중앙화는 가장 효율적이고 전략적인 선택지다. 기존 문서 자산을 체계적으로 관리하고 AI와 자연스럽게 연계함으로써, 데이터 기반 AI 서비스의 구현을 빠르고 효과적으로 가능하게 한다. 특히 RAG옵스 기반의 지속적인 개선 체계를 통해 AI 품질까지도 함께 진화할 수 있다는 점에서, 가장 실용적이고 전략적인 AI 도입 방식이라 할 수 있다.

2025.07.09 13:51박정권

이스트소프트, AI 검색 '앨런' 구독제 도입…LLM 서비스 수익화 시동

국가대표 인공지능(AI) 모델 기업에 도전하는 이스트소프트가 구독형 서비스를 출시하며 수익 모델 구축에 속도를 낸다. 이스트소프트는 AI 검색 엔진 서비스 '앨런'에 구독 서비스를 새롭게 도입하며 자체 개발한 거대언어모델(LLM)을 기반으로 본격적인 수익화에 나선다고 7일 밝혔다. 이번 구독 서비스 출시를 통해 이스트소프트는 자체 개발한 앨런 LLM을 기반으로 검색에 특화된 에이전틱 AI 서비스를 제공하며 수익 모델을 구축해 간다는 전략이다. 구독 서비스 출시에 따라 앨런은 월 1만9천900원의 '프로 플랜'과 무료 서비스인 '프리 플랜'을 제공하기 시작한다. 아울러 서비스 출시를 기념해 프로 플랜을 월 1만4천900원에 이용할 수 있는 프로모션도 한시적으로 진행한다. 프로 플랜은 앨런에서 제공하는 AI 검색을 비롯해 유튜브 요약 기능을 제약 없이 사용할 수 있다. 특히 심층 보고서를 생성해 주는 고급 기능인 딥 리서치는 사용자가 충분히 활용할 수 있도록 더 많은 사용량을 지원한다. 이와 함께 다양한 글로벌 LLM을 사용하는 옵션도 제공한다. 프리 플랜에서도 앨런의 모든 기능을 체험할 수 있다. 단 일일 사용량에 제한이 있다. 이스트소프트는 앨런의 서비스가 연속성을 가진 다각적인 검색 행위를 지원하기에 많은 이용자가 구독 서비스로 전환할 것으로 기대하고 있다. 앞서 이스트소프트는 지난 6월 자체 개발 모델 앨런 LLM을 정식 출시했다. 당시 파라미터 2천억 개 이상 수준의 초거대 모델과 경량 모델을 출시했고 이후 경량 모델 공급 계약을 빠르게 체결하며 사업화에 속도를 내고 있다. 정상원 이스트소프트 대표는 "구독 서비스 출시는 자체 LLM 기술 경쟁력을 바탕으로 앨런 서비스를 수익 모델로 전환하는 첫걸음"이라며 "앞으로도 자체 모델 고도화와 최적화를 지속해 한국형 AI 검색 엔진을 대표하는 서비스로 앨런이 자리매김할 수 있게 하겠다"고 말했다.

2025.07.07 10:55한정호

"소버린 AI, 핵심은 오픈소스 모델·연산 인프라 자립"

각국이 인공지능(AI) 주권을 확보하는 '소버린 AI' 시대에 대비하려면 오픈소스 기반 모델과 클라우드 컴퓨팅 활용이 핵심이라는 전문가들의 분석이 나왔다. 6일 CNBC가 태국 방콕에서 주최한 '이스트 테크 웨스트 2025' 컨퍼런스에서 패널들은 AI가 점점 더 민주화되는 흐름 속에서 개발도상국들이 자체적인 AI 역량을 갖추는 것이 중요하다고 강조했다. 소버린 AI는 국가가 자국의 AI 기술과 데이터, 관련 인프라를 주도적으로 통제함으로써 고유한 언어와 문화, 안보 요구에 부합하는 기술을 개발할 수 있게 하는 전략적 자립의 개념이다. SCB 10X의 카시마 탄피피차이 AI 전략 총괄은 "지금까지 전 세계에서 가장 주목받는 대형언어모델(LLM)은 대부분 영어를 기반으로 설계돼 있다"고 지적하며 "언어가 다르면 사고방식과 세계와 상호작용하는 방식도 달라질 수 있는 만큼 단순 번역이 아닌 자국 언어와 문화를 반영한 AI 시스템 개발이 중요하다"고 말했다. 이어 "AI를 자국 중심으로 구축하지 않으면 궁극적으로 기술 종속에서 벗어나기 어렵다"고 덧붙였다. 패널들은 동남아시아국가연합(ASEAN) 지역이 소버린 AI를 구축하기에 특히 적합한 환경을 갖췄다고 평가했다. 약 7억 명에 달하는 전체 인구 중 35세 이하가 61%를 차지하며 하루 평균 12만5천 명이 새롭게 인터넷에 접속할 정도로 디지털 전환 속도가 빠르기 때문이다. 특히 이날 행사에서 패널들은 오픈소스 모델이 소버린 AI 환경을 구축하는 데 중요한 역할을 할 수 있다고 강조했다. 탄피피차이 총괄은 "태국과 동남아에는 훌륭한 AI 인재들이 많다"며 "이들이 만들어낸 결과물을 폐쇄된 형태로 묶어두는 것은 국가적으로 큰 손실"이라고 밝혔다. 그는 "오픈소스는 집단적 에너지를 만들어내며 AI 경쟁력을 국가 차원으로 끌어올리는 데 기여할 수 있다"고 설명했다. 오픈소스 모델은 기존의 폐쇄형 모델에 의존하지 않고 기업과 정부가 보다 다양한 선택지를 갖도록 해준다는 점에서 긍정적으로 평가받고 있다. 데이터브릭스의 세실리 응 아세안·중화권 총괄은 "중국의 경우 오픈소스를 통해 AI 생태계를 키우고 미국과의 경쟁력을 높일 수 있었다"며 "이러한 구조는 동남아 국가들에게도 유효하다"고 말했다. 또 AI 주권 확보를 위해서는 언어적 현지화뿐만 아니라 물리적인 컴퓨팅 인프라 자립도 중요하다는 의견이 나왔다. 레드햇의 프렘 파반 동남아·한국지역 총괄은 "그동안 AI 현지화는 언어 중심이었다면 이제는 연산 인프라 자체를 자국 내에서 운영하는 것이 더 중요해지고 있다"며 "글로벌 클라우드 기업뿐 아니라 지역 클라우드 사업자들과 협력해 연산 인프라를 국내에 구축하는 것도 한 방법"이라고 설명했다.

2025.07.06 10:46한정호

[유미's 픽] 알리바바 큐원 탑재한 SKT '에이닷엑스 4.0'…藥일까 毒일까

"2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수입니다. 한국 데이터는 해외로 유출되지 않습니다." 지난 달 19일 기자간담회를 통해 이처럼 강조했던 알리바바 클라우드가 자사 인공지능(AI) 모델 '큐원'을 앞세워 SK텔레콤을 등에 업고 국내 시장 공략에 본격 나섰다. 올 초 오픈AI를 긴장하게 만든 딥시크에 이어 알리바바 '큐원'까지 영역 확장에 속도를 높이고 있지만, 중국 기업의 데이터 유출 우려 때문에 국내 시장에 제대로 안착할 수 있을지 주목된다. 6일 업계에 따르면 SK텔레콤이 지난 3일 공개한 AI 모델 '에이닷엑스 4.0'에는 알리바바의 오픈소스 거대언어모델(LLM)인 '큐원 2.5'가 적용된 것으로 파악됐다. 한국어에 맞게 SKT가 개량한 '에이닷엑스 4.0'은 특정 산업에 최적화된 '버티컬 AI 서비스'를 만든다는 목표로 만들어진 LLM으로, 오픈소스 커뮤니티 허깅페이스를 통해 A.X 4.0의 표준 모델과 경량 모델 2종이 공개됐다. 표준 모델은 720억개(72B), 경량 모델은 70억개(7B)의 매개변수를 갖추고 있다. 하지만 중국 기업의 AI 모델을 활용했다는 점에서 국외 정보 유출에 대한 의구심도 나오고 있다. SKT가 개인정보보호정책에 ▲이용자의 메시지나 답변은 저장하지 않는다 ▲이용자의 쿠키를 수집·저장하지 않는다 ▲기술적 보안과 프라이버시 보호를 위해 노력하겠다 등의 문구를 삽입하며 대응에 나섰지만, 우려를 불식시키기엔 미흡한 조치라는 평가가 나오고 있다. 특히 SKT를 활용하는 이용자들 사이에서 볼멘 소리가 나오고 있다. 누리꾼들은 "소식을 접하고 '에이닷' 어플을 바로 삭제했다", "중국산 AI 모델에 한국어를 학습시켰다고?", "중국 묻은 SKT, 빨리 탈출해야겠다" 등의 부정적인 반응을 내놓으며 실망감을 감추지 않았다. 업계 관계자는 "SKT가 유심 해킹 사건으로 고객들의 많은 신뢰를 잃은 상황에서 굳이 이미지가 좋지 않은 중국 AI 모델을 기반으로 파인튜닝 했다는 사실을 적극 알리는 것이 과연 득이 될 지 모르겠다"며 "한국어를 자체 데이터로 학습해 잘한다는 점을 내세우고 있지만 현 시점에서 이를 내놓은 것이 도움될 것 같진 않다"고 지적했다. 하지만 SKT는 'A.X 4.0'을 온프레미스(내부 구축형) 방식으로 제공하는 만큼, 기업 내부 서버에 직접 설치해 사용할 수 있어 데이터 보안에서 강점을 지녔다는 점을 적극 강조했다. 알리바바 클라우드 역시 지난 달 기자 간담회를 통해 중국계 기업에 대한 우려를 의식한 듯 보안과 컴플라이언스를 핵심 가치로 내세우며 '신뢰 받는 글로벌 파트너'로의 입지를 국내에서도 강화하겠다고 강조했다. 또 국내 투자 계획을 밝히며 사업 확장에 대한 의지도 내비쳤다. 알리바바 클라우드는 지난 2016년 국내 시장에 진출한 후 2022년 3월 국내 첫 데이터센터를 구축하고, 지난 달 서울에 또 다른 데이터센터를 가동한 상태다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 말했다. 이를 기반으로 알리바바는 고객사들이 '큐원' 중심의 AI 오픈소스 생태계를 활성화하길 원했다. 또 SKT 외에도 자사 AI 모델을 활용한 사례를 공개하며 협업 확대에 대한 의지를 다졌다. 대표적인 곳이 AI 솔루션 기업 유니바다. 이곳은 알리바바 클라우드의 큐원 모델을 활용해 비용은 30% 절감하면서 한국어 처리 정확도를 45%에서 95%까지 끌어올린 에이전트 AI를 공개했다. 네이버 '스노우'는 알리바바 클라우드의 비디오 생성 모델 '완(Wan)'을 기반으로 중국 시장에서 개인화된 이미지 스타일링 기능을 제공 중이다. 라라스테이션은 알리바바 클라우드와 손잡고 글로벌 라이브 스트리밍 플랫폼을 개발해 동남아 시장으로 비즈니스를 확장하는 데 성공했다. 또 국내 시장 확대를 위해 메가존소프트·이테크시스템과도 협력 중이다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "메가존소프트와 이테크시스템 외에 공개할 수는 없지만 대기업군 SI(시스템통합) 업체들도 파트너 에코에 이미 합류해 있다"고 밝혔다. 업계에선 '큐원'이 페이스북 모기업인 메타플랫폼의 '라마(LLaMA)'와 중국 딥시크 'R1' 모델을 제치고 사실상 전 세계 LLM 생태계에서 가장 빠르게 영향력을 키우고 있다는 점에서 SKT와 알리바바의 협업을 부정적으로만 봐선 안된다는 평가도 있다. 실제 '큐원' 모델은 현재 전 세계적으로 3억 건 이상 다운로드됐고 13만 개 이상의 파생 모델이 생성된 것으로 알려졌다. 특히 최신 모델 '큐원3-8B'의 지난 달 다운로드 수는 메타의 '라마-3.1-8B'를 거의 2배 앞섰다는 점에서 주목 받았다. 딥시크의 'R1' 시리즈 중 가장 인기 있는 최신 모델 '딥시크-R1-0528'에 비해서는 약 10배 많았다. 업계 관계자는 "큐원은 한국어 처리 능력과 온프레미스 버전에서 최적화가 가능해 산업별 맞춤형으로 튜닝을 거쳐 기업 차원으로 빠르게 확산되며 국내에서 존재감을 키우고 있다"며 "민간 데이터를 다루는 공공·금융에서도 온프레미스로 튜닝해 개발하거나 중소기업과 스타트업에서도 다양하게 튜닝하고 있다"고 말했다. 그러면서 "딥시크에 이어 큐원까지 중국 AI가 국내 산업 기반을 빠르게 장악할 것으로 예상된다"며 "향후 국내 기업 기술 완성도가 높아지더라도 기존 기술 장벽과 가격 등에서 후순위로 밀려날 가능성이 높다는 점에서 중국 AI 생태계에 종속될 것이란 우려도 높아지고 있다"고 덧붙였다.

2025.07.06 09:00장유미

구글, 생성형 AI 영상툴 '비오 3' 세계 출시…오디오까지 붙는 영상 제작

구글이 생성형 인공지능(AI) 영상 모델 '비오 3(Veo3)'를 전세계에 출시하면서 영상 제작의 진입장벽을 대폭 낮추는 기술 확장을 본격화했다. 4일 테크크런치에 따르면 구글은 '비오 3'를 이달부터 159개국 이상에서 제미나이 사용자에게 순차적으로 적용 중이다. 이 모델은 최대 8초 길이의 동영상을 생성할 수 있으며 텍스트 입력만으로 영상과 소리를 동시에 만들어준다. '비오 3'는 지난 5월 공개 당시에도 영상 품질과 프레임 전환 자연도에서 높은 평가를 받았지만 이번 세계 출시를 통해 음성까지 생성하는 '네이티브 오디오' 기능이 정식 반영됐다. 동영상 한 편 안에 장면, 움직임, 사운드를 모두 구현하는 생성형 AI는 시장 내에서도 제한된 기술로 꼽힌다. 사용자는 단순한 글을 입력하거나 캐릭터, 사물, 상황 등을 설명하는 방식만으로 애니메이션, 밈, 스토리보드 등을 즉시 생성할 수 있다. 콘텐츠 제작 초기 단계인 콘셉트 시안, 브레인스토밍, 프로토타입 영상 제작에도 유용하다. 생성 과정은 전부 '제미나이' 플랫폼 안에서 이뤄진다. 요금제에 따라 기능과 품질도 차등화된다. 'AI 프로'는 신속한 속도와 기본 품질에 중점을 두며 'AI 울트라'는 고화질 영상과 더 정교한 오디오까지 포함하는 최상위 옵션이다. 두 요금제 모두 인터넷 연결과 일정 기준의 사용자 조건을 충족해야 이용 가능하다. 또 구글은 '비오 3'에 이미지 기반 입력 기능도 곧 도입할 예정이다. 텍스트뿐 아니라 이미지를 활용해 영상으로 전환하는 기능은 현재 개발 중이며 향후 제미나이 업데이트를 통해 반영될 계획이다. 영상 제작을 위한 입력 방식 다변화를 통해 더 직관적인 창작 흐름을 노리는 것으로 풀이된다. 현재 '제미나이'에는 '비오 3 패스트'라는 경량 모델도 함께 제공되고 있다. 이는 상대적으로 짧은 시간 안에 빠르게 결과물을 확인할 수 있도록 최적화된 버전으로, 복잡한 품질 조정이나 고해상도 출력은 '울트라' 요금제 전용 기능으로 분리돼 있다. 조쉬 우드워드 구글 제미나이 담당은 "현재 이미지 기반 비디오 생성 기능도 '제미나이'에 추가하는 작업을 진행 중"이라고 밝혔다.

2025.07.04 09:23조이환

"챗GPT보다 싸고 빠르다"…라이너, 검색 LLM으로 AI 검색 시장 '정조준'

라이너가 '챗GPT'보다 정확하고 비용 효율적인 자체 검색 인공지능(AI) 성능을 공개했다. 핵심은 리서치에 최적화된 검색 결과를 신속히 제공하는 구조와 이를 뒷받침하는 데이터 기반 학습 역량이다. 라이너는 자사 '라이너 검색 LLM'이 AI 검색 컴포넌트 성능 비교 평가에서 오픈AI 'GPT-4.1'보다 우수한 결과를 기록했다고 3일 밝혔다. 이번 모델은 기존 오픈 소스 기반 구조 위에 10여 년간 축적한 방대한 사용자 데이터를 사후 학습 방식으로 적용해 정확도와 처리 속도를 높였다. 토큰당 비용도 평균 30~50% 절감한 것으로 나타났다. '라이너 검색 LLM'은 질문 분석부터 답변 생성까지 검색형 에이전트의 전 과정을 처리하는 데 필요한 8개 컴포넌트를 통합 구성한 모델이다. 이 중 카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 컴포넌트는 성능·속도·비용 전 항목에서 'GPT-4.1'을 상회했다. 특히 실제 서비스 환경에서 재현성과 신뢰성을 기반으로 성능을 측정한 점이 주목된다. 단순 벤치마크 수치가 아니라 실사용 기반 결과를 중심으로 비용·속도·정확도의 균형을 검증한 구조다. 이로 인해 기존 대형 모델 대비 가볍고 빠른 검색형 LLM 구현이 가능해졌다는 평가다. 라이너는 수년간 테스트와 개선을 반복하며 LLM 학습 구조를 고도화해 왔다. 자사 사용자 데이터를 활용한 정밀 학습을 통해 질문 처리 구조를 체계화하고 할루시네이션 가능성을 줄이는 방향으로 검색 정확도를 끌어올렸다는 설명이다. 검색 LLM의 비용 경쟁력 역시 차별점으로 꼽힌다. 'GPT-4.1' 대비 평균 30~50% 낮은 토큰당 처리 비용으로, 대규모 트래픽이 발생하는 검색형 에이전트 환경에서도 운영 효율성과 수익성 확보가 가능하다는 계산이다. 조현석 라이너 테크 리드는 "'라이너 검색 LLM'은 8가지 모든 컴포넌트에서 '챗GPT'를 뛰어넘는 성능을 입증했다"며 "어떤 데이터를 어떻게 학습하고 어떤 구조로 질문을 처리하느냐가 AI 할루시네이션을 줄이는 핵심"이라고 밝혔다. 이어 "데이터 학습과 연구 개발에 꾸준히 집중해 온 노력이 차별화된 AI 에이전트 기술 경쟁력으로 이어졌다는 점에서 의미가 크다"고 말했다.

2025.07.03 16:56조이환

"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은?

인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다. AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다. 레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(vLLM)을 제시했다. 레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다. 복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'vLLM' 지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다. 브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다. 그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다. 이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다. 레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 vLLM을 선보이고 있다. vLLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다. 스티븐스 CTO는 vLLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다. 그는 "vLLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다. vLLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다. "GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법 레드햇이 vLLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다. 이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다. 레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다. 그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다. 이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다. 레드햇은 'LLM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다. "설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라' 이와 함께 레드햇은 오픈소스 기반의 vLLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다. 이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. vLLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다. 레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다. 그는 "오픈소스 vLLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다. 이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.

2025.07.02 10:59남혁우

지미션, LLM 문서처리 솔루션 출시…기업 문서 자동화 시장 본격 진입

지미션이 핵심정보를 자동으로 분류·요약하는 문서처리 거대언어모델(LLM)을 통해 기업 문서 자동화 시장에 진입했다. 지미션은 신제품 '닥스훈드(DXHUND)'를 정식 출시하고 공공기관·금융사·대기업 등을 주요 타깃군으로 삼아 시장 확산을 추진 중이라고 30일 밝혔다. 제품명은 정보 탐지에 특화된 견종 닥스훈트에서 착안했으며 복잡한 문서 속에서도 의미 기반 핵심정보를 빠짐없이 찾아낸다는 기술적 기획이 반영됐다. '닥스훈드'는 광학문자인식(OCR) 기술을 기반으로 이미지 문서를 디지털 텍스트로 변환한 뒤 문서 구조를 해석해 항목별 정보를 자동 추출하거나 사용자 목적에 맞춰 내용을 요약·분류하는 기능을 제공한다. 계약서, 진술서, 지시문 등 비정형 문서가 많은 업무 환경에서 반복 업무를 줄이는 데 특히 적합하다는 평가다. 또 문서 내 포함된 개인정보를 자동 탐지해 비식별화하거나 마스킹할 수 있으며 사용자가 자연어로 문서 검색과 필터링을 수행할 수 있는 질의응답형 인터페이스도 함께 제공된다. 단순한 문서 처리 도구가 아닌 검색-분류-대응까지 하나의 흐름으로 연결되는 통합형 솔루션이라는 점이 차별 포인트다. 지미션은 해당 제품에 자사 기존 기술력인 AI OCR, 자연어처리(NLP), 개인정보 비식별화 역량과 더불어 최근 확보한 LLM 엔진까지 통합 적용했다고 설명했다. 사전 처리와 후처리의 품질을 모두 감안한 종단 간 문서처리 체계를 구현했다는 의미다. 이번 제품 출시는 기업 문서 업무에서 가장 처리 비용이 크고 리스크가 높은 '비정형 문서 처리'를 기술로 대응하려는 산업적 수요 증가에 맞춰 기획된 것으로 보인다. 특히 하루 단위로 대량 문서를 수작업 검토하는 조직일수록 효과가 뚜렷할 수 있다. 한준섭 지미션 대표는 "'닥스훈드'는 기술의 역할과 한계를 냉정하게 인식한 상태에서 반복적이지만 복잡한 문서 업무를 효율화하려는 조직에 실질적인 도움이 되도록 설계했다"며 "기술 중심의 과잉 마케팅보다 실사용 데이터를 기반으로 시장을 확장해나갈 것"이라고 밝혔다.

2025.06.30 15:00조이환

국가 AI 전략 앞세운 中…바이두, '어니 5.0'으로 챗GPT 넘본다

바이두가 차세대 거대언어모델(LLM)을 연이어 공개하며 중국 인공지능(AI) 산업이 딥시크에 이어 다시 한 번 전 세계의 주목을 받고 있다. 이는 단순 기술 발표를 넘어 미·중 AI 주도권 경쟁을 심화시킬 것으로 전망되고 있다. 30일 CNBC 등 외신에 따르면 중국 최대 검색기업 바이두는 올 하반기 중 차세대 생성형 AI 모델 '어니(Ernie) 5.0'을 공식 출시할 예정이다. 어니 5.0은 텍스트뿐 아니라 이미지·오디오·비디오 등 다양한 형태의 데이터를 종합적으로 이해하고 생성할 수 있는 멀티모달 기능을 지원하는 것으로 알려졌다. 현재 바이두는 어니 4.5 모델과 함께 '어니 X1'이라는 추론 특화 모델도 운용 중이다. 어니 X1은 지난 1월 딥시크가 발표한 'R1' 모델과 유사한 구조를 갖고 있으며 어니 4.5는 오픈AI의 GPT-4.5와 유사하거나 그 이상의 성능을 내는 것으로 평가된다. 바이두는 어니 시리즈를 통해 자국 내 AI 생태계는 물론 글로벌 시장까지 겨냥하겠다는 목표다. 앞서 시장의 눈길을 끈 것은 딥시크의 행보다. 딥시크는 GPT-4에 근접한 성능을 보이는 딥시크-R1 모델을 오픈소스로 공개하며 일약 주목받았다. 학습 비용은 약 600만 달러(한화 약 81억원) 수준으로, 미국의 대형 모델 대비 획기적으로 낮은 비용으로 높은 효율을 달성했다는 점에서 업계 안팎의 큰 반향을 일으켰다. 이 발표 이후 미국 기술주의 급락세가 이어졌다. 특히 생성형 AI의 연산 중심인 그래픽처리장치(GPU) 시장 대표주자 엔비디아의 주가가 약 17% 급락하며 600억 달러(한화 약 81조원) 규모의 시가총액이 급감하는 사태가 벌어졌다. 중국의 이러한 행보는 단순히 개별 기업 차원을 넘어 국가 차원의 전략과도 맞물려 있다. 중국 정부는 AI를 핵심 국가 전략 산업으로 규정하고 있으며 바이두 외에도 텐센트·알리바바·바이트댄스 등 빅테크 기업들 역시 자체 LLM을 개발하거나 상용화에 돌입했다. 이들 모델은 교육·금융·법률·고객 상담 등 다양한 분야에서 빠르게 적용되며 자국 내 수요를 흡수하고 있다. 동시에 글로벌 시장 진출을 염두에 둔 다국어 대응도 적극 추진 중이다. 올 하반기 출시가 예고된 바이두의 어니 5.0은 중국 AI 업계가 실질적으로 GPT-4.5 수준을 뛰어넘는 모델을 내놓을 수 있는지를 시험하는 척도가 될 것으로 예상되고 있다. 동시에 글로벌 AI 경쟁 구도에 균열을 가져올 수 있을지 주목되고 있다. 업계 전문가는 "중국의 AI 기술 발전 속도가 예상을 뛰어넘고 있다"며 "기술력뿐 아니라 비용 효율성과 서비스 현지화 역량까지 강화되면 글로벌 시장에서 미국 기업과 정면으로 맞붙는 양상이 본격화될 것"이라고 전망했다.

2025.06.30 09:57한정호

KETI, 컨볼루션 신경망·비전 트랜스포머 지원 '엣지 AI 반도체' 개발

한국전자기술연구원(KETI·원장 신희동)은 컨볼루션 신경망(CNN)과 비전 트랜스포머(ViT) 등 다양한 영상 기반 인공지능(AI) 모델을 지원하는 차량용 엣지 AI 반도체를 개발했다고 30일 밝혔다. 엣지 AI 반도체는 저전력으로 복잡한 AI 연산을 처리하며, 클라우드와 연동되는 '협력학습 플랫폼'을 통해 AI 모델 성능을 지속해서 개선할 수 있도록 설계됐다. KETI가 개발한 반도체의 특징은 저전력 소모를 유지하면서도 여러 종류의 객체인식 AI 모델을 효율적으로 처리할 수 있다. KETI가 설계한 신경망처리장치(NPU)는 특정 AI 모델의 연산 구조에 맞게 하드웨어 구조를 최적화하는 '재구성 가능 아키텍처'를 적용해 업계에서 사용되는 '컨볼루션 신경망(CNN)'이나 최신 '비전 트랜스포머(ViT)' 같은 상이한 구조의 모델을 각각 효율적으로 구동할 수 있다. 이 반도체는 클라우드와 연동되는 '협력학습 플랫폼'의 일부로 작동한다. 차량에 탑재된 엣지 AI 반도체는 실시간으로 객체를 인식하는 한편, AI 모델의 성능 개선에 필요한 특정 데이터를 선별해 클라우드로 전송한다. 클라우드에서는 여러 차량에서 수집된 데이터를 기반으로 기존 AI 모델을 학습시켜 성능을 개선하고 이렇게 업데이트된 모델은 다시 차량으로 전송돼 적용되는 구조다. KETI는 과학기술정보통신부와 정보통신기획평가원(IITP)이 지원하는 'IoT 다중 인터페이스 기반의 데이터센싱, 엣지컴퓨팅 분석 및 데이터공유 지능형 반도체 기술 개발' 과제의 일환으로 연구를 수행했다. 이 과제는 다양한 IoT 기기에 사용할 수 있는 국산 AI 반도체 기술을 확보하고 AI 반도체 기반 개방형 플랫폼을 마련하는 것을 목표로 한다. KETI는 자체 개발한 NPU를 테스트 차량에 탑재해 최근 경기도 화성 일대에서 실도로 주행 실증을 진행했다. 이를 통해 NPU의 안정적인 실시간 객체 인식 성능과 협력학습을 위한 데이터 수집 및 전송 기능의 원활한 작동을 검증했다. KETI 관계자는 “이번 연구 성과는 미래 모빌리티의 핵심으로 꼽히는 엣지용 AI 반도체 분야 국내 기술 생태계 기반을 강화했다는 점에서 의미가 있다”며 “앞으로 NPU의 연산 효율을 더욱 높이고 지원 가능한 AI 모델을 확장하는 등 후속 연구를 지속할 계획”이라고 밝혔다.

2025.06.30 09:03주문정

[현장] '한국형 AI' 양성 본격화…"주인공은 민간, 정부는 핵심 조력자"

정부가 국내 인공지능(AI) 기술 주권 확보를 위한 '독자 AI 파운데이션 모델' 개발 사업을 본격적으로 추진한다. 민간 자율성을 확대하고 경쟁형 지원 방식을 채택해 실질적인 국내 AI 생태계 자립 기반을 마련한다는 목표다. 과학기술정보통신부는 27일 서울 역삼 포스코타워에서 독자 AI 파운데이션 모델 사업 설명회를 개최했다. 이번 설명회는 국내 기업과 기관이 독자적인 AI 파운데이션 모델을 개발할 수 있도록 정부가 그래픽처리장치(GPU)·데이터·인재 등의 자원을 단계적으로 지원하는 사업 내용을 소개하는 자리였다. 행사는 과기정통부가 주최했으며 이번 사업을 지원하는 정보통신산업진흥원(NIPA), 한국지능정보사회진흥원(NIA), 정보통신기획평가원(IITP)이 공동 주관했다. 이날 설명회에는 카이스트·NC AI·코난테크놀로지·아마존웹서비스(AWS)·래블업·아하앤컴퍼니 등 다양한 기업·대학·실무진들이 대거 참석했다. 과기정통부 장기철 과장은 "AI는 이제 기업뿐 아니라 국가 간 경쟁의 핵심"이라며 "정부는 기술 주권 확보와 AI 생태계 확산을 위해 GPU 구매, 데이터 확보, 인재 양성 등을 패키지로 지원하는 체계를 마련했다"고 강조했다. 과기정통부는 이번 사업을 통해 최대 5개 정예팀을 선정하고 각 팀에 대해 3년간의 지원을 제공할 계획이다. 공모는 지난 20일부터 시작됐으며 접수 마감은 7월 21일 오후 4시다. 정예팀은 단독 또는 컨소시엄 형태로 지원할 수 있고 GPU·데이터·인재 중 1개 이상 분야에 대한 지원을 자유롭게 선택해 신청할 수 있다. 사업 추진 계획을 설명한 과기정통부 이현우 사무관은 "이번 사업은 단순히 모델 개발에 그치지 않고 오픈소스를 지향하는 것이 핵심"이라며 "글로벌 수준의 모델 성능 95% 이상을 달성하고 민간 주도로 전략을 설계하고 실행하는 방식을 취한다"고 밝혔다. 개발 목표 성능은 최신 글로벌 모델과의 비교 기준으로 정해지며 세부 모델 종류와 전략 수립은 전적으로 민간에 맡겨진다. 정부는 6개월 단위로 정예팀의 성과를 평가할 예정이며 이 과정에서 대국민 사용 평가, 오프라인 콘테스트, 전문가 활용 평가 등이 도입된다. 12월 말에 1차 단계 평가가 진행될 예정이다. 정부는 모델 성능과 활용성 외에도 오픈소스 공개 수준, 국민 AI 접근성 제고 방안, 공공·경제·사회 분야 기여도 등을 주요 평가 요소로 삼을 계획이다. 향후 선발된 정예팀 모델들은 'K-AI 모델' 인증 명칭을 활용할 수 있어 글로벌 진출에도 도움이 될 전망이다. 지원 세부 내용에 따르면 GPU는 최대 H100 1천장, B200 500장까지 지원 가능하며 1·2차 연도는 임차 방식, 3·4차 연도는 구매 방식으로 NIPA가 주도해 진행된다. 다만 GPU 자원은 신청 물량에 따라 조정되며 일부 팀은 자원이 미배정될 수 있다. GPU 매칭 자부담률은 오픈소스 공개 수준에 따라 차등 적용되며 기업 규모에 따른 현금·현물 부담 기준도 함께 적용된다. 데이터 부문은 NIA가 맡는다. 팀당 최대 28억 원 규모의 개별 데이터 구축 비용과 함께 100억 원 규모의 공동 구매 데이터가 제공될 예정이다. 구축된 데이터는 NIA가 지정하는 품질 검증 기관을 통해 검토받아야 하며 전체 구축량의 50% 이상은 개방이 의무화된다. 데이터 활용에 대한 학습 이력 증빙도 요구된다. 인재 부문은 IITP가 담당하며 해외 우수 연구자 유치가 주된 목적이다. 유치한 인력은 근로계약이 필수이며 국내외 어느 지역에서든 근무가 가능하다. IITP 정재훈 팀장은 "총 사업비는 3년간 250억 원 규모로, 과제당 연간 10~20억 원씩 지원한다"며 "국가 연구개발(R&D) 사업으로 분류되며 사업 공고일 이후 채용한 인력만 인정된다"고 설명했다. 사업 평가는 세 단계로 구성된다. ▲서류 적합성 검토 후 서면 평가 ▲발표 평가 ▲사업비 심의 및 협약 조정을 거쳐 최종 팀이 확정될 예정이다. 특히 발표 평가는 국내외 전문가로 구성된 평가위원단이 진행하며 참여 기업은 영어 요약 사업계획서와 모델 시연 영상을 함께 제출해야 한다. 설명회 현장에서는 ▲모델 오픈소스 공개 수준에 따른 평가 반영 방식 ▲컨소시엄 내 기관 간 역할 비중 ▲GPU 자원 배분 기준 ▲데이터 라이선스 범위 ▲합성 데이터 활용 여부 등이 주요 질문으로 제기됐다. 과기정통부 측은 "사업계획서에 제시된 전략에 따라 GPU와 자부담 구조는 유동적으로 조정된다"며 "합성 데이터도 활용 가능하고 품질 기준을 충족해야 한다"고 설명했다. 아울러 과기정통부는 이번 사업으로 개발될 독자 AI 파운데이션 모델이 필요시 향후 공공·산업 분야로의 도입이 추진될 가능성이 크다고 밝혔다. 과기정통부 이현우 사무관은 "민간이 혁신할 수 있는 수요자 중심의 AI 전략을 중심으로 추진하고 정부는 자원을 제공하며 뒷받침하는 역할을 하겠다"고 강조했다.

2025.06.27 17:12한정호

'K-파운데이션 모델' 만든다…민관, 독자 AI 모델 개발 착수

과학기술정보통신부가 우리나라 인공지능(AI) 기술의 자립을 본격화하기 위해 민간 기업과 협력해 독자 AI 파운데이션 모델 구축에 나선다. 과기정통부는 정보통신산업진흥원(NIPA)·한국지능정보사회진흥원(NIA)·정보통신기획평가원(IITP)과 함께 27일 서울 강남구 포스코타워 역삼에서 민관 협력형 AI 파운데이션 모델 사업 설명회를 개최했다. 이번 설명회는 민관 협력으로 개발되는 AI 파운데이션 모델 사업 공모 착수를 계기로 사업에 대한 이해도를 높이고 실력 있는 AI 기업·기관 등의 적극적인 참여를 독려하기 위해 마련됐다. 이번 설명회는 과기정통부·NIPA·NIA·IITP 관계자와 함께 관심 있는 AI 기업·기관 등에서 200여 명이 참석했다. ▲사업 추진 내용 및 계획 ▲GPU·데이터·인재 파트별 지원 내용 등에 대한 상세 공유 ▲참석자들의 이해를 돕기 위한 질의응답 등의 시간을 가졌다. 이번 사업 공모 접수는 다음 달 21일까지 진행될 예정이며 공모에 대한 상세 내용은 과기정통부, NIPA 홈페이지를 통해 확인할 수 있다. 과기정통부 관계자는 "이번 설명회에서 GPU·데이터·인재의 3개 파트별로 세분화된 지원 내용 등이 상세히 소개돼 참여를 희망하는 AI 기업·기관 등이 구체적인 지원 방안 등을 확인할 수 있는 계기가 조성됐다"고 밝혔다.

2025.06.27 14:00한정호

[유미's 픽] 삼성·SKT도 등판?…李 정부 '국가대표 AI' 선발전, 판 커질까

약 2천억원을 투입해 글로벌 톱 수준의 거대언어모델(LLM)을 만들 '인공지능(AI) 국가대표 정예팀' 선발전이 이달부터 본격화된 가운데 어떤 기업이 사업자로 선정될 지를 두고 관심이 높아지고 있다. 이재명 정부가 배경훈 과학기술정보통신부 장관 후보자와 하정우 AI미래기획수석을 앞세워 '한국형 챗GPT' 개발에 대한 의지를 강하게 보이고 있는 만큼, 선발된 기업들에 대한 지원도 파격적일 것으로 기대된다. 27일 업계에 따르면 과학기술정보통신부는 이날 오후 서울 강남구 포스코타워에서 '독자 AI 파운데이션 모델 프로젝트'와 관련해 기업들을 대상으로 설명회를 진행한다. 이 자리에는 그간 공개적으로 참여 의지를 보였던 LG AI 연구원을 비롯해 코난테크놀로지, 이스트소프트를 비롯해 네이버와 카카오, 엔씨 AI, 솔트룩스, 업스테이지 등이 참여할 예정이다. 이 중 가장 관심을 받고 있는 기업은 LG AI 연구원이다. 올 초 국내 최초로 추론형 AI 모델을 선보인 이곳은 그간 자체 AI 모델인 '엑사원'을 내세워 에이전틱 AI와 산업별 영역에서 활용도를 높였다는 평가를 받는다. 최근 과학기술정보통신부 장관 후보자에 지명된 배경훈 LG AI연구원장이 '엑사원'을 개발하는 데 큰 공을 들였던 만큼 사업자 선정에 대한 기대감을 키우고 있다. 하정우 AI미래기획수석을 배출해 낸 네이버도 유력 사업자로 꼽힌다. 하 수석이 네이버클라우드 AI 혁신센터장 시절 개발·운영을 총괄했던 자체 LLM '하이퍼클로바X'를 기반으로 소버린 AI 구축을 늘 강조해왔던 탓이다. 카카오는 자체 개발한 AI 모델 '카나나'로 도전에 나설 예정이다. '카나나'는 최근 오픈소스로 공개한 모델이 한국어 LLM 성능 평가를 위해 설계된 벤치마크 플랫폼 '호랑이(Horang-i)' 리더보드에서 8B 사이즈(매개변수 80억 개) 이하 모델 가운데 1위를 차지하기도 했다. 카카오는 '카나나를 지속해 개발하는 한편, 국산 AI 경쟁력을 강화하기 위해 일부 모델을 오픈소스로 계속 제공할 예정이다. 국내 최초로 LLM을 개발한 코난테크놀로지도 충분히 경쟁력이 높다는 평가를 받는다. 지난 2023년 8월 131억 파라미터 규모의 모델 학습을 완료한 후 선보인 '코난 LLM'은 현재 한국남부발전, 한국중부발전, 국방부, 행정안전부, 국회사무처, 인천국제공항공사 등 주요 공공기관을 비롯해 한화손해보험, 신한라이프, KB증권, 제주항공 등 민간 분야까지 다양한 산업 전반에 걸쳐 구축 및 PoC를 수행해 생산성 향상을 이끌고 있다. 또 코난테크놀로지는 지난 5월 추론 모델 '코난 LLM ENT-11'도 공개해 주목 받았다. 최근에는 AI 반도체 스타트업 리벨리온과 손잡고 '국산 AI 인프라' 구축에도 속도를 내고 있다. 리벨리온의 신경망처리장치(NPU)에 코난테크놀로지의 생성형 AI 기술을 접목해 국산 기술 기반의 독자적 AI 생태계를 구축하고 장기적으로 소버린 AI 기술 자립도를 높인다는 구상이다. 이스트소프트는 자체 개발한 '앨런 LLM'을 최근 정식 출시하며 도전장을 던졌다. 이곳은 AI 검색 엔진 서비스 '앨런'을 바탕으로 검색 증강 생성(RAG) 기반 보고서 생성과 추론에 특화된 오픈소스 기반의 '앨런 LLM'을 만들었다. 이 모델은 데이터센터용 초거대 모델부터 온디바이스용 경량 모델까지 구성된 것이 특징이다. 솔트룩스도 이번 프로젝트에 많은 관심을 보이고 있다. 이곳은 지난 달 말 언어 생성과 이해에 특화된 '루시아3 LLM'을 공개했다. 업스테이지도 자체 LLM '솔라'를 앞세워 도전에 나설 예정으로, 최근에는 이를 고려해 국내 반도체 업체인 퓨리오사AI와 협업에 나섰다. 이번 일을 통해 '솔라'를 퓨리오사AI의 차세대 NPU '레니게이드'에 최적화 해 탑재할 예정이다. 또 두 회사는 NPU 기반으로 구동하는 온프레미스 AI 구축 사업을 공동 추진하고 국내는 물론 글로벌 시장 공략에도 함께 나설 방침이다. NC AI도 최근 다크호스로 떠올랐다. 엔씨소프트의 14년 연구 노하우를 바탕으로 올해 2월 분사한 이곳은 자체 개발한 LLM '바르코 LLM'을 앞세워 게임, 패션, 콘텐츠 등 다양한 산업군에서 실제 상용화된 AI 솔루션을 선보이고 있어 사업자로 선정되기에 최적화돼 있다는 평가를 받는다. 또 NC AI는 '바르코 LLM'을 학술적 용도뿐 아니라 상업적인 용도까지 활용할 수 있도록 오픈소스로 공개함으로써 '모두의 AI'에 기여한다는 계획이다. 일각에선 SK텔레콤, 삼성전자도 도전할 가능성이 있다고 봤다. 팀 단위로 사업 제안이 가능한 만큼, SK텔레콤이 K-AI 얼라이언스를 운영하고 자체 GPT 개발 경험이 있다는 점을 앞세워 이번에 나설 것으로 예상했다. 삼성전자는 사내에서 사용하고 있는 자체 거대언어모델(LLM) '삼성 가우스'가 있다는 점에서 참여를 할 것이란 기대감이 나온다. 과기정통부는 오는 7월 말께 최종 선발될 '독자 AI 파운데이션 모델 프로젝트' 참여 정예팀을 최대 5곳으로 선정한 뒤 6개월 단위로 선별해 축소한다. 성능·전략·파급효과 등을 기준으로 단계 평가를 거쳐 4개팀 → 3개팀 → 2개팀 식으로 줄여나가는 식이다. 정예팀 선정은 다양한 분야의 국내외 AI 전문가들이 참여하는 위원회를 구성해 진행한다. 국민 AI 접근성 증진, 공공·경제·사회 AI 전환 지원 등 국내 기여계획을 정예팀에 제시하도록 해 선정평가에 반영한다. 참여기업 규모와 오픈소스 수준에 따라 정예팀 자원 매칭 비율은 차등화할 예정이다. 대기업 3팀, 중소기업 2팀이 초기에 선발될 것으로 보는 것이 업계 중론이다. 처음 진행될 6개월 단위 단계 평가는 오는 12월로 예정돼 있다. 평가 기준은 ▲컨테스트 기반 국민·전문가 평가 ▲국내외 벤치마크와 한국어 성능·안전성 검증체계 기반 검증평가 ▲파생 AI모델 수 기반의 파생평가 등이 연계되는 입체적 평가가 추진된다. 업계 관계자는 "정부가 정예팀으로 선발된 컨소시엄에 지난 1차 추가경정예산으로 확보한 GPU 1만 장 사용을 지원하기로 돼 있다는 점에서 많은 기업들이 관심을 가지는 듯 하다"며 "정부가 추진하는 이번 독자 AI 파운데이션 모델은 실제 세계 톱(Top) 수준의 모델을 만든 경험이 있는가, 전 국민 AI로 공개할 수 있는가 등의 조건이 제일 중요한 듯 하다"고 말했다. 이어 "정부가 이날 진행하는 설명회 자리에서 평가 기준을 어떻게 삼을지에 따라 참여할 수 있는 기업들이 다소 걸러질 듯 하다"고 덧붙였다. 일각에선 정부가 헛돈을 쓰는 게 아닌지에 대한 우려를 내놓기도 했다. 기업들이 예산 지원을 받아 LLM 생태계를 구축한다고 해도 결국 갈라파고스가 될 것이란 판단에서다. 업계 관계자는 "챗GPT, 제미나이 등 글로벌 기업들의 AI 모델이 표준이 된 상황에서 이들의 95% 수준인 K모델을 쓰다간 AI 생태계에서 배제될 수도 있다"며 "국내 기업들의 AI 모델 경쟁력이 자본력을 앞세운 글로벌 기업을 따라가기에도 쉽지 않다는 점을 고려하면, 결국 K모델을 개발해 놓고 활용을 제대로 못하는 상황이 벌어질 수도 있다"고 짚었다. 그러면서 "자체 AI 모델 개발에 예산을 투입할 것이 아니라 K-컬처가 해외에서 빠르게 확산된 것처럼 우리만의 AI 콘텐츠 개발에 주력하는 것이 좀 더 효용 가치가 높을 수 있다"며 "정부에서도 AI 인프라에만 힘을 쏟을 것이 아니라 AI를 활용한 콘텐츠 개발에도 함께 나서야 할 것"이라고 피력했다.

2025.06.27 11:53장유미

"크리에이터, 목소리만 주면 된다"…NC AI, 샌드박스 글로벌화 '전면 지원'

NC AI가 MCN 업계 선두주자 샌드박스네트워크와 손잡고 크리에이터의 글로벌 진출을 지원한다. NC AI는 서울 용산 샌드박스 본사에서 샌드박스네트워크와 '기술지원 및 사업활동 공동협력' 양해각서(MOU)를 체결했다고 26일 밝혔다. 행사에는 이연수 NC AI 대표, 이필성 샌드박스 대표, 샌드박스 공동창업자이자 최고크리에이티브책임자(CCO)인 도티가 참석했다. 이번 협력을 통해 NC AI는 자사의 버티컬 미디어 AI 기술과 바르코 거대언어모델(LLM) 기반 솔루션을 샌드박스에 제공한다. 샌드박스는 200여 팀 이상의 크리에이터 네트워크를 통해 이를 실전 현장에 접목한다. 양사는 단순 협업을 넘어 독자 인공지능(AI) 파운데이션 모델 개발에도 공동으로 나서며 글로벌 경쟁력을 키운다는 계획이다. NC AI가 제공하는 기술에는 실시간 AI 번역, 다국어 음성 합성, 3D 아바타 생성, 실시간 다국어 채팅 번역 등 미디어 콘텐츠 전용 AI 솔루션이 포함돼 있다. 현재는 영어, 일본어, 중국어 등을 중심으로 게임과 콘텐츠 특화 번역 기능을 우선 적용하고 있다. 보이스 액팅 기술은 크리에이터 목소리를 짧은 샘플만으로 재현해 감정과 말투까지 유지한 다국어 더빙을 구현한다. 도티 같은 인기 크리에이터도 기존 콘텐츠 하나로 여러 언어의 팬과 동시에 소통할 수 있는 구조다. 기술적으로는 자막이나 기계식 더빙이 아닌 '실제 목소리 기반'의 몰입형 팬 경험을 목표로 한다. 실시간 다국어 챗봇 기술은 특히 라이브 방송과 팬미팅 현장에 바로 적용된다. 한국어로 진행되는 스트리밍에서도 영어, 일본어, 유럽권 언어로 실시간 대화가 가능해지며, 글로벌 커뮤니티 형성과 관리가 수월해진다. 3D 콘텐츠 측면에선 간단한 2D 이미지를 기반으로 크리에이터 고유 굿즈, 아바타를 제작할 수 있는 도구도 제공된다. 패션 AI 역시 바르코 아트 기술과 결합해 자유로운 의상 디자인, 착장 시연이 가능하다. 크리에이터가 브랜드화에 필요한 시각 요소를 AI로 자체 생성할 수 있는 기반이 마련된 셈이다. 콘텐츠 품질과 확장성 면에서도 효과음, 모션 생성, 애니메이션 등 고비용 작업을 자동화해 진입 장벽을 낮췄다. 특히 숏폼, 웹툰, 광고 등 다양한 장르에 필요한 시청각 요소를 AI가 대체하면서 제작자 역량의 범위가 넓어진다. 양사의 협력은 크리에이터 생태계 자체를 기술로 전환하는 시도이기도 하다. 단순한 솔루션 제공을 넘어 크리에이터의 개성과 지적재산권(IP)을 유지하면서도 다국어·다문화 콘텐츠로 확장할 수 있도록 설계돼 있다. NC AI는 샌드박스 협력을 기반으로 AI 솔루션의 사업화를 확대하고 산업 맞춤형 미디어 AI 생태계 구축에도 속도를 낸다. 이연수 NC AI 대표는 "샌드박스와 함께 국내 크리에이터들이 '바르코 LLM'과 미디어 버티컬 AI를 활용해 본연의 개성을 살리고 글로벌 팬들과 자유롭게 소통할 수 있도록 지원하겠다"고 밝혔다.

2025.06.26 10:44조이환

[현장] "AI 강국 도약, 인프라·인재부터…국가 주도 생태계 구축 시급"

"우리나라가 인공지능(AI) 강국이 되려면 생태계의 선순환이 필수입니다. 이를 위해선 전력, 인재, 데이터라는 세 가지 투입 요소가 뒷받침돼야 합니다." SKT 이영탁 부사장은 25일 국회 의원회관에서 열린 'AI G3 강국 신기술 전략 조찬 포럼'에서 AI 생태계 조성 방안에 대해 이같이 강조했다. 이번 포럼은 정동영 더불어민주당 의원과 최형두 국민의힘 의원이 공동 진행을 맡고 정보통신산업진흥원(NIPA)이 주관기관으로 참여한 행사로, AI 인프라 구축과 글로벌 대응 전략을 논의하는 자리로 마련됐다. 더불어 과학기술정보통신부와 산·학·연 주요 위원들이 모여 AI 강국으로 도약하기 위한 방안과 AI 인재 양성에 대한 현실적인 방안들을 공유했다. 포럼의 서두에서 정동영 의원은 "이 자리에서 논의된 내용들이 실제 정책과 예산에 반영돼 왔다"며 1조4천600억원 규모의 그래픽처리장치(GPU) 확보 예산 반영 성과를 언급했다. 정 의원은 카이스트와 서울대조차 연구용 GPU가 부족했던 현실을 지적하며 "산·학·연이 함께 계속 목소리를 냈기에 본예산에서 누락됐던 항목이 추경에 포함될 수 있었다"고 설명했다. 다만 예산 반영 이후 추진 과정에선 또 다른 문제가 발생하고 있다. 정 의원은 "과기정통부와 NIPA가 주도한 AI 선도 사업이 산자부와 중기부 등으로 배정되며 정책 일관성이 흔들리고 있다"며 국회에서 AI 사업의 큰 틀을 바로잡겠다고 약속했다. 이번 포럼에서는 주요 산업계 인사들이 참석해 AI 강국 도약을 위한 현실적인 문제들을 짚었다. 먼저 발제에 나선 SKT 이영탁 부사장은 AI 생태계의 선순환 구조를 구축하기 위한 필수 요소로 전력, 인재, 데이터를 꼽았다. 특히 이 부사장은 데이터센터 운영에서 전력이 차지하는 비중이 60%에 달한다고 소개하며 전력 확충의 중요성을 강조했다. 이 부사장은 "AI 데이터센터 운용에 있어 한 해 전기료만 1천400억원에 이를 수 있다"며 "아무리 훌륭한 AI 모델과 자본이 있어도 전력이 없으면 AI를 운용하지 못하는 나라가 될 수 있다"고 지적했다. 이어 "미국은 스타게이트 프로젝트로 수십조 투자를, 메타는 130만 장, 마이크로소프트는 180만 장의 GPU 확보를 목표로 하고 있다"며 "우리나라도 민간과 정부가 협력해 GPU 임차와 구매를 병행하는 방식으로 속도감 있게 대응해야 하며 전력망 확충과 에너지 법제 개선이 시급하다"고 덧붙였다. 다음 발표를 맡은 유승재 페르소나AI 대표는 엣지 AI와 소버린 AI의 중요성을 강조했다. 유 대표는 "소버린 AI란 단순히 기술을 따라가는 것이 아니라 우리만의 독자적인 AI를 구축하는 개념"이라며 "특히 엣지AI는 글로벌 대기업도 아직 본격적으로 진입하지 않은 시장인 만큼 우리가 선도할 수 있는 영역"이라고 설명했다. 페르소나AI는 GPU 없이도 구동 가능한 엣지 AI 및 온디바이스 AI 기술력을 바탕으로 국내 금융권과 자동차 수입사 등 다양한 산업에 AI 엔진을 공급 중이다. 유 대표는 디바이스 안에서 개인정보보호와 낮은 전력 소비를 동시에 구현하는 자사 소형거대언어모델(sLLM)의 가능성을 주장하며 한국형 AI 모델 구축과 엣지 AI 전략이 병행돼야 한다고 강조했다. 발제 이후 이어진 토론에서는 데이터·반도체·인재·전력·규제 등 다양한 관점에서 AI 생태계 확장의 장애 요인과 해법이 논의됐다. 네이버클라우드 이동수 전무는 AI 인프라와 반도체가 모델 설계와 밀접히 연관된다고 강조했다. 어떤 반도체를 쓰느냐에 따라 어떤 AI 모델을 만들 수 있는지가 달라질 수 있다는 주장이다. 이 전무는 "AI 모델과 반도체는 하나의 생태계에 속하기에 우리나라도 독자 모델을 개발해보는 경험이 필요하다"며 "인프라 설계 단계에서부터 우리 상황에 맞는 아키텍처를 기획할 수 있어야 진짜 소버린 AI"라고 말했다. 박성현 리벨리온 대표는 "AI 반도체를 개발하고 있지만 수요가 없다면 의미가 없다"며 "정부의 GPU 임차 사업에 국산 신경망처리장치(NPU)도 포함시켜 줄 필요가 있다"고 제언했다. AI 생태계에 속하는 국내 반도체 산업을 실질적으로 키우기 위해선 초기 시장을 형성하는 수요 창출이 병행돼야 한다는 지적이다. 카이스트 김경수 부총장은 인재 양성과 기술 상용화의 연계 중요성을 강조했다. 김 부총장은 "우리는 AX 대학 설립을 논의 중"이라며 "국가 차원에서 AI 전문 대학원 설립을 독려함으로써 AI 기술을 응용할 수 있는 융합형 인재 양성이 필요하다"고 말했다. 두산로보틱스, 현대자동차차, 한화에어로스페이스 등의 제조 기업들은 피지컬 AI와 온디바이스 AI가 산업 현장에 필요하다고 입을 모았다. 단순한 센서 자동화에서 벗어나 로봇 스스로가 판단하고 행동하는 시스템이 필요하며 이를 위해선 정부 주도의 신속한 투자가 필수적이라는 주장이다. 이번 포럼에서 나온 논의에 대해 과기정통부는 탄력적인 사업 운영과 지속적인 지원을 약속했다. 과기정통부 송상훈 실장은 "피지컬 AI와 AGI 등 대형 AI 사업을 준비 중이며 이러한 사업과 관련한 예타면제도 추진 중"이라며 "부처간 갈등이 아닌 시너지를 창출할 수 있도록 노력해 나가겠다"고 강조했다.

2025.06.25 11:16한정호

[AI는 지금] 'K-AI' 노리는 코난테크·업스테이지, 韓 반도체 기업과 협업 나선 까닭은

한국형 인공지능(AI) 모델 개발을 위한 정부의 '독자 AI 파운데이션 모델' 프로젝트 사업자 선정에 도전장을 내민 AI 업체들이 국내 반도체 기업과 손잡고 경쟁력 끌어올리기에 본격 나섰다. 25일 업계에 따르면 코난테크놀로지는 최근 AI 반도체 기업 리벨리온의 신경망처리장치(NPU)에 자사 거대언어모델(LLM)이 탑재된 '코난 AI 스테이션 서버'를 접목했다. 이를 위해 두 회사는 지난해 8월 AI 모델과 AI 반도체 기술을 결합하는 공동 연구개발 협약을 맺고 국산 AI 소프트웨어와 반도체 기술을 융합한다고 발표한 바 있다. 코난 AI 스테이션 서버는 팀이나 조직 단위가 함께 사용하는 생성형 AI 인프라로 사용자 수에 따라 그래픽처리장치(GPU), 메모리, 스토리지를 유연하게 구성할 수 있다. 지난달 출시한 기업형 AI 서버 코난 AI 스테이션 서버에는 코난 LLM이 기본 탑재된 상태로, 리벨리온의 최신 NPU에서 작동되고 있다. 두 회사는 현재 최적화 작업을 진행 중이다. 업스테이지도 국내 반도체 팹리스 기업인 퓨리오사AI와 '신경망처리장치(NPU) 기반 생성형 AI 사업 협력'을 위한 양해각서(MOU)를 체결했다. 이번 일로 업스테이지는 자체 거대언어모델(LLM) '솔라'를 퓨리오사AI의 차세대 NPU '레니게이드'에 최적화해 탑재할 계획이다. 또 두 회사는 NPU 기반으로 구동하는 온프레미스 AI 구축 사업을 공동 추진하고 국내는 물론 글로벌 시장까지 함께 공략할 방침이다. 이들이 이처럼 나선 것은 최근 AI 반도체 시장을 미국 엔비디아가 사실상 독점하며 이에 따른 글로벌 공급난과 가격 급등으로 인해 불안정성이 지속되고 있어서다. 여기에 최근 미국, 중국 등 해외 빅테크 LLM의 공세가 거세지면서 국내 AI 산업 전반에 상당한 부담이 가중되고 있다는 점도 주효했다. 더불어 최근 정부가 '독자 AI 파운데이션 모델' 프로젝트 사업자 선정에 나서고 있는 것도 영향이 크다. 코난테크놀로지와 업스테이지는 각각 자체 LLM을 보유하고 있는 곳으로, 이번 정부의 프로젝트에 사업자로 참여하고 싶다는 의지를 강하게 드러내고 있다. 이들의 LLM이 대표 AI 모델로 선정되면 'K-AI 모델', 개발사는 'K-AI 기업' 등 명칭을 쓸 수 있게 된다. 정부는 이 사업에 총 1천936억원을 투입해 선발 기업에게 최대 3년간 GPU와 데이터, 인재 등 필요한 자원을 집중적으로 지원한다. 초기에 최대 5개 기업을 선발할 예정으로, 평가를 거쳐 점차 지원기업을 압축해 나갈 계획이다. 이 사업에는 두 회사 외에도 네이버와 카카오, LG AI 연구원, KT, 솔트룩스, 이스트소프트 등이 참여 의사를 적극 내비치고 있다. 업계 관계자는 "국내 대표 AI 소프트웨어와 하드웨어 기업이 힘을 모아 국산 AI 경쟁력을 강화하기 위해 나서려는 분위기가 조성되고 있다는 점은 긍정적"이라며 "이들의 움직임이 정부가 추진하는 프로젝트 사업자 선정에 어떤 영향을 줄 지 기대된다"고 말했다. 그러면서 "국산 NPU 기반 생성형 AI 솔루션의 상용화는 해외 기술 의존도를 낮추고 AI 인프라의 자립화와 기술 주권 확보에 기여할 것으로 보인다"고 덧붙였다.

2025.06.25 10:10장유미

'국가대표 AI' 노리는 코난테크놀로지, 경기도형 특화 LLM도 만든다

국내 최초로 거대언어모델(LLM) 개발에 성공한 코난테크놀로지가 경기도 전반의 행정 혁신과 디지털 전환 가속화를 위해 본격 나선다. 코난테크놀로지는 '경기 생성형AI 플랫폼 구축 사업'을 수주했다고 25일 밝혔다. 총 사업비는 약 131억원, 사업 기간은 약 11개월간이며 엠티데이타, KT, 코난테크놀로지, 대신정보통신 등 총 5개사가 공동 사업자로 참여한다. 이번 사업에서 코난테크놀로지는 경기도 보안 정책을 충족하는 온프레미스 기반 LLM 구축을 수행한다. 또 경기도 법률특화 LLM, 행정심판 및 입법 인공지능(AI) 에이전트, 생성형 AI 기반 지능형 검색 서비스 등을 마련한다. 이 외에도 고가용성 그래픽처리장치(GPU) 인프라 기반의 멀티언어 모델 도입으로 서비스 효율을 높이고 LLMops 기반의 성능 평가 및 모델 관리 체계를 구축한다. 또 생성형 AI 신뢰성 인증과 공무원 대상 리터러시 교육, 부서 간 협업 기반을 통해 행정 전반의 지속 가능한 AI 활용 환경을 도모할 예정이다. 경기도는 이번 사업을 통해 도정 운영의 효율성 향상은 물론, AI 기반의 선제적 정책 대응과 통계분석 역량 강화를 기대하고 있다. 생성형 AI의 체계적 도입을 통해 행정 자동화, 공무원 역량 강화, 중복 사업 방지, 고품질 데이터 기반의 정확한 의사결정 체계를 확립하고, 통합 플랫폼을 통해 도민 정보 접근성과 행정 운영의 효율성도 함께 높아질 것으로 전망하고 있다. 이는 그간 코난테크놀로지가 생성형 AI 서비스로 공공 부문의 디지털 전환을 견인한 덕분이다. 이곳은 자체 개발 생성형 언어모델 '코난 LLM'을 한국남부발전, 한국중부발전, 국방부, 행정안전부, 국회사무처, 인천국제공항공사 등 주요 공공기관을 비롯해 한화손해보험, 신한라이프, KB증권, 제주항공 등 민간 분야까지 다양한 산업 전반에 걸쳐 구축 및 PoC를 수행해 생산성 향상을 이끌고 있다. 나아가 최근에는 국가 주도 초거대 인공지능 개발 프로젝트인 '독자 AI 파운데이션 모델' 사업 참여도 적극 추진하고 있다. 독자모델을 오픈소스로 공개함으로써 '모두의 AI' 실현에 기여하겠단 방침이다. 또 지난해 한국산 파운데이션 모델로 스탠퍼드대 에코시스템 그래프에 등재됐으며 올해 4월에는 국내 유일의 추론 통합모델인 코난 LLM 'ENT-11'을 선보여 중국 '딥시크 R1' 대비 우수한 추론 성능을 입증 한 바 있다. 김영섬 코난테크놀로지 대표는 "경기도의 생성형AI 플랫폼 구축사업에 참여하게 돼 뜻 깊다"며 "공공 행정의 효율을 실질적으로 높이고 도민 맞춤형 서비스 혁신에 기여하겠다"고 포부를 밝혔다.

2025.06.25 08:49장유미

[현장] 슈퍼브에이아이 "비전, 한국이 1등할 수 있다"…수출형 소버린 AI 선언

"기존에 우리가 알던 거대언어모델(LLM) 기반의 소버린 인공지능(AI) 전략이 주로 방어적 접근이라면 산업용 비전 AI는 오히려 세계 무대 수출의 무기가 될 수 있습니다. 제조업에 강점을 가진 한국이 산업 특화형 파운데이션 모델(VFM)로 글로벌 경쟁력을 확보할 수 있기 때문입니다." 김현수 슈퍼브에이아이 대표는 24일 서울 여의도 콘래드호텔에서 열린 기자간담회에서 이같이 말했다. 이날 행사는 산업용 비전 AI 파운데이션 모델 '제로(ZERO)' 공개를 위한 자리로, 질의응답에는 김 대표를 비롯해 최고기술책임자(CTO), 최고사업책임자(CBO) 등 주요 경영진이 직접 참석했다. 김 대표의 발언은 정부가 최근 '국가 파운데이션 모델' 프로젝트를 통해 다양한 형태의 모델 개발을 유도하겠다는 의지를 밝힌 데 따른 것이다. 특히 소버린 AI 전략을 주창해온 네이버클라우드 출신 하정우 수석이 국가 AI 정책의 총괄 책임자로 선임되면서 거대언어모델에 대한 보완 전략도 함께 주목받고 있다. 이날 김현수 대표는 정부의 소버린 AI 전략과 제로의 연결 지점을 묻는 기자의 질문에 "LLM은 외산 모델 리스크를 막기 위한 수비형 기술로 해석되나 비전 파운데이션 모델은 수출 전략 기술이 될 수 있다"고 강조했다. 이어 "한국은 제조·조선·반도체 등 고도화된 산업 인프라를 가진 몇 안 되는 국가로, 이 기반 위에서 한국형 비전 AI는 글로벌 1등 가능성이 있다"고 말했다. 슈퍼브에이아이는 파운데이션 모델 기술을 공개하는 데 그치지 않고 산업 현장의 AI 도입 장벽을 구조적으로 낮추는 생태계 전략도 함께 제시했다. 차문수 최고기술책임자(CTO)는 "8B, 7B 모델은 현장 적용이 어려워 제로는 경량화에 집중했다"며 "산업용 제어 컴퓨터(PLC), 신경망 처리장치(NPU) 등 다양한 산업 장비와 응용 프로그램 인터페이스(API)로 직접 연동이 가능해 손쉽게 시스템에 탑재할 수 있는 구조를 갖췄다"고 설명했다. 시장 전략으로는 '플랫폼 중심 생태계 공급'을 강조했다. 김진회 최고사업책임자(CBO)는 기자의 관련 질의에 "'제로'는 아마존 웹서비스(AWS) 같은 글로벌 플랫폼에서 쉽게 호출할 수 있도록 설계됐다"며 "사용자가 가장 익숙하고 신뢰하는 환경에서 AI를 바로 접할 수 있게 했다"고 말했다. 이어 "AWS에 등록된 제로는 시간당 약 10달러(한화 약 1만4천원) 수준으로, 초기에는 할인된 가격으로 제공될 예정"이라고 설명했다. 올해 매출에는 '제로' 관련 수익이 반영되지 않는다. 슈퍼브에이아이는 현 시점에서의 '제로'를 직접적인 매출원이 아닌 '시장 인지도 제고를 위한 마중물'로 규정했다. 김진회 CBO는 "'제로'를 통해 AI가 실제 어떤 문제를 푸는지 체험하게 되면 이후 머신러닝 기반운영 'MLOps 플랫폼'과 '버티컬 솔루션' 수요가 자연스럽게 확대될 것"이라고 말했다. 김현수 대표는 "20조원 규모의 기존 머신비전 시장을 넘어 스마트팩토리와 영상관제 등 200조 원 이상 시장에서 제로가 탐지·이해 등의 작업을 대체할 수 있다"며 "빠른 시일 안에 해당 시장을 본격적으로 공략할 것"이라고 강조했다.

2025.06.24 15:15조이환

LG AI연구원 '엑사원 4.0' 개발 중…추론형 AI 역량 강화 시동

LG가 차세대 인공지능(AI) '엑사원'의 후속 버전 개발에 속도를 내고 있다. 24일 업계에 따르면 LG AI연구원은 '엑사원 4.0'과 조직병리 특화 모델 '엑사원 패스 2.0'을 개발 중이다. 현재까지 관련 공식 행사 계획은 없으며 공개 일정도 논의 단계에 머물러 있는 것으로 알려졌다. '엑사원 4.0'은 기존 모델에 추론형 모델 '엑사원 딥'을 통합하는 형태로, 대용량 장문 처리와 과학·의료 등 고도화된 전문 영역 활용을 목표로 설계되고 있다. '3.5' 버전은 A4 100페이지 수준의 문서를 단일 입력으로 처리할 수 있을 정도의 처리 능력을 보인 바 있다. 함께 준비 중인 '엑사원 패스 2.0'은 병리 이미지 기반의 암 진단 AI 모델로, 유전자 검사 대비 검사 시간을 줄이는 데 목적이 있다. 두 모델 모두 오픈소스로 공개해 활용성과 투명성을 높인다는 것이 LG 측 내부 방향성이다. 지난 23일 과학기술정보통신부 장관으로 지명된 배경훈 LG AI연구원장은 지난 3월 엔비디아 개발자 행사에서 "'엑사원 4.0'부터 통합 모델을 선보일 것"이라며 "상반기 출시를 목표로 한다"고 말했다. LG 관계자는 "모델은 개발 중인 것이 맞고 행사는 미정"이라고 밝혔다.

2025.06.24 15:12조이환

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

'골든타임' 앞둔 원화 스테이블코인..."이대로는 뒤처진다"

정기선 HD현대 수석부회장, 인도 콕 집은 이유

내연차→전기차 전환 지원금 주나…환경부 장관 후보자 "검토 중"

[현장] 갤럭시 언팩 전야…뉴욕 타임스스퀘어 채웠다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.