• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (331건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'국가대표 AI' 노린 네이버, GPU 임차 사업자 선정에 발목?…컨소시엄 구성 '난항'

글로벌 톱 수준의 거대언어모델(LLM)을 만들 '인공지능(AI) 국가대표 정예팀' 선발전 마감이 코 앞으로 다가온 가운데 네이버클라우드가 컨소시엄 구성에 난항을 겪는 분위기다. 최근 정부의 'AI 컴퓨팅 자원 활용 기반 강화(GPU 임차 지원)' 사업에서 2트랙 우선협상대상자로 선정된 것이 부정적인 영향을 준 것이다. 21일 업계에 따르면 네이버클라우드는 이날 오후 4시에 마감하는 '독자 AI 파운데이션 모델' 개발 사업 관련 컨소시엄에서 기업 중 단독으로 참여할 것으로 알려졌다. 당초 네이버가 지난 달 해외 투자법인인 네이버벤처스를 통해 투자를 진행한 영상 AI 스타트업 트웰브랩스가 함께할 것으로 전해졌지만, 그래픽처리장치(GPU) 문제로 결국 함께 하지 않는 것으로 방향을 틀었다. 이는 네이버클라우드가 지난 8일 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 주관한 'GPU 임차 지원 사업'에서 우선협상대상자로 선정된 것이 큰 영향을 미쳤다. 이 사업은 민간 기업이 설치하는 GPU를 국가가 빌려서 생성형AI 기업이 쓸 수 있도록 연결해주는 사업으로 GPU 임차 비용은 1차 추경 예산 1천500억원이다. 과기부는 최신 GPU인 엔비디아 B200 1천 장을 설치하는 부문에서 1순위 사업자로 SK텔레콤을 선정했다. 2트랙 사업자로 선정된 네이버클라우드는 엔비디아 H100·H200 GPU 1천 장 또는 B200 500장을 공급할 수 있다. 다만 GPU 임차사업자는 '독자 AI 프로젝트' 정예팀으로 선발되더라도 정부가 직접 제공하는 1차 GPU 지원을 받을 수 없다. 이 탓에 네이버클라우드는 자체 인프라와 사업 구조로 상쇄하며 개발과 공급 전략을 동시에 추진한다는 방침이지만, GPU 공급이 필요한 다른 기업 입장에선 상당한 아킬레스건으로 작용하게 됐다. 이에 트웰브랩스 등 네이버클라우드와 손 잡으려 했던 기업들은 결국 컨소시엄에 참여하지 않는 것으로 방향을 틀었다. 네이버클라우드는 자체 모델 역량과 실증 경험, GPU 조달 능력을 결집해 최소 구성의 컨소시엄 전략으로 이번 독자 AI 프로젝트에 도전한다는 계획이다. 이에 대해 네이버클라우드 관계자는 "아직 확정적으로 말할 수 있는 부분은 현재 없다"며 "프로젝트의 성공적 추진을 위해 다양한 플레이어들과 논의를 진행하고 있다"고 말했다.

2025.07.21 11:31장유미

[AI는 지금] '커서' 요금제 논란에 핵심 인재 2명 이탈?…AI 코딩 시장 기싸움 '치열'

인공지능(AI) 코딩 시장을 선점하기 위한 글로벌 테크 기업 경쟁이 불 붙고 있는 가운데 인재 확보를 위한 눈치전도 치열해지고 있다. 19일 디인포메이션 등 주요 외신에 따르면 앤트로픽과 애니스피어는 최근 핵심 기술 인재 2명을 두고 기싸움을 벌였다. 앤트로픽의 AI 코딩 제품 '클로드 코드' 팀에 있던 보리스 체르니, 캣 우 등 2명이 주인공으로, 이들은 애니스피어에 합류한 지 2주 만인 지난 16일 다시 앤트로픽으로 복귀했다. 체르니는 클로드 코드 개발을 이끈 인물로, 이달 초 애니스피어에 최고 설계 책임자 겸 엔지니어링 총괄로 합류했다. 함께 이동했던 우는 앤트로픽에서 클로드 코드의 프로덕트 매니저로, 애니스피어에서 제품 총괄을 맡았다. 하지만 최근 애니스피어가 '커서'의 요금제 변경과 관련해 적절치 않은 대응으로 논란에 휩싸인 것이 이들의 마음이 빠르게 돌아서게 한 요인으로 지목됐다. 실제 애니스피어는 지난 달 16일 '커서 프로' 사용자에게 제공하던 500회 고속 응답 혜택을 없애고 API 요금으로 청구하는 방식으로 전환했다. 고성능 AI 모델 사용료를 사용자에게 전가하는 구조로 바꾼 것이다. 이전에는 '커서 프로' 사용자가 오픈AI, 앤트로픽, 구글 하이엔드AI 모델에서 500개 빠른 응답을 받을 후 더 느린 속도로 무제한 응답을 이용할 수 있었다. 하지만 요금 방식 변경으로 20달러 한도에 도달할 때까지만 사용 할 수 있게 했고, 더 사용하기 위해선 추가 크레딧을 구매하도록 유도했다. 이 탓에 앤프로픽 '클로드'처럼 토큰 사용량이 많은 고성능 모델을 사용하면 몇 번의 요청만으로도 한도가 소진됐다는 불만이 제기됐다. 애니스피어는 AI 모델 사용량 급증에 따른 운영 비용 부담 여파로 요금제를 개편한 것으로 알려졌다. 그러나 사전 고지 부족과 혼란스러운 과금 체계로 일부 이용자들의 비판을 받았다. 경쟁 서비스인 레플릿도 고성능 모델의 사용 비용이 커지자 최근 요금을 인상했다가 이용자들의 불만이 잇따랐다. 이에 마이클 트루엘 애니스피어 최고경영자(CEO)는 블로그를 통해 "요금제 변경에 대해 제대로 소통하지 못해 죄송하다"며 이용자들에게 사과했지만, 앤트로픽에서 영입한 인재들의 이탈을 붙잡진 못했다. 업계에선 두 리더의 앤트로픽 재합류가 '클로드 코드'의 경쟁력 유지와 향후 발전에 중요한 모멘텀으로 작용할 것으로 봤다. 앤트로픽은 지난 2월 '클로드 코드'를 독립형 AI 코딩 도우미로 출시하며 본격적으로 시장에 진입한 후 빠른 속도로 점유율을 끌어올리고 있다. '클로드 코드'의 연 매출은 2억 달러 수준인 것으로 알려졌다. 업계 관계자는 "이들의 앤트로픽 이탈과 복귀는 AI 인재 쟁탈전이 여전히 치열하다는 것을 입증한 것"이라며 "앤트로픽이 인재 유치 경쟁에서 좀 더 우위에 있다는 것을 보여줬다"고 평가했다. 오픈AI, 구글, 아마존 등 다른 빅테크 기업들도 AI 코딩 시장을 노리고 투자를 아끼지 않고 있다. 구글은 오픈AI가 노렸던 윈드서프에서 핵심 인재를 데려오며 사실상 인수 효과를 얻었다. 바룬 모한 윈드서프 CEO와 공동창업자 더글라스 첸 및 주요 연구자 등을 영입했기 때문이다. 애니스피어와 AI 코딩 시장을 양분하고 있는 윈드서프는 이전에 '코디움'으로 잘 알려진 곳으로, 지난해 12억5천만 달러였던 기업가치는 올해 30억 달러까지 급등했다. 구글 측은 "윈드서프 팀의 최고 AI 코딩 인재들이 구글 딥마인드에 합류하게 돼 기쁘다"며 "이들이 우리의 '에이전트 기반 코딩' 연구를 더욱 진전시킬 것으로 기대한다"고 밝혔다. 이에 대해 WSJ는 "(구글이) 우수 AI 인재와 기술을 확보하기 위해 지분 인수가 아닌 인력 채용과 기술 라이선스 중심의 어크하이어(acquihire·인수와 채용의 결합 방식) 전략을 구사하고 있음을 보여준다"고 분석했다. 하지만 오픈AI는 윈드서프를 약 30억 달러(한화 4조2천510억원)에 인수하려 했으나, 최근 실패했다. 이를 두고 일각에선 오픈AI의 최대 투자자인 마이크로소프트(MS)와의 갈등이 요인이 됐을 것으로 봤다. 월스트리트저널(WSJ)에 따르면 MS는 현재 오픈AI의 모든 지식재산(IP)에 접근할 수 있지만, 오픈AI는 MS가 윈드서프의 AI 코딩 기술까지 확보하는 것을 원하지 않은 것으로 알려졌다. 이처럼 오픈AI가 우왕좌왕하는 사이 윈드서프는 최근 경쟁사인 코그니션 품에 안겼다. 코그니션은 윈드서프의 지식재산권, 제품, 상표, 브랜드 및 인재를 인수했다. 코그니션은 소프트웨어 개발을 돕는 AI 코딩 에이전트 '데빈'으로 잘 알려진 AI 스타트업으로, 지난 3월 약 40억 달러의 기업 가치를 인정받고 수 억 달러의 자금을 조달했다. 아마존도 이 시장을 노리고 최근 코딩 보조 프로그램인 아마존 Q 디벨로퍼를 내놓은 데 이어 차세대 AI 코딩 도구 출시를 준비하고 있다. 애플은 자체 프로그래밍 소프트웨어인 'X코드'에 AI를 접목하기 위해 앤트로픽과 협력하는 것으로 알려졌다. MS는 개발자 플랫폼 깃허브에 AI를 탑재한 '깃허브 코파일럿'을 2021년 출시했다. 깃허브 코파일럿 누적 사용자는 이달 들어 1천500만 명을 넘겼다. 마크 저커버그 메타 CEO는 지난 4월 자사 오픈소스 대규모언어모델(LLM)인 라마의 코드를 12~18개월 이내에 AI가 대부분 작성할 것이라고 전망했다. 업계 관계자는 "테크기업의 AI 코딩 투자는 AI 학습의 재료인 데이터부터 프로그램 개발, AI에이전트를 아우르는 AI 생태계를 장악하기 위한 의도"라며 "파이선이 코딩 프로그램 최강자로 등극한 이후 개발 생태계가 파이선을 중심으로 조성됐듯 AI 코딩 시장에서도 선점 효과가 발생할 수 있어 이를 둘러싼 빅테크 기업들의 주도권 경쟁이 더 치열해질 듯 하다"고 전망했다.

2025.07.19 09:00장유미

크라우드웍스, 고난도 LLM 데이터 구축 사례 공개

AI 기술 고도화에 따라 고품질 데이터 수요가 빠르게 늘어나는 가운데, 크라우드웍스가 최근 수행한 고난도 LLM 학습 데이터 구축 사례를 공식 기업 블로그를 통해 공개했다. 이번에 공개된 주요 사례는 ▲인포그래픽 텍스트 매칭 데이터셋 ▲텍스트 기반 SQL 파인튜닝 데이터셋 ▲전문 의학지식 질의응답 데이터셋 등으로 AI 레디 데이터(AI-Ready Data)에 대한 높은 수준의 전문성과 데이터 설계 역량이 요구되는 프로젝트다. 이런 데이터는 단순한 텍스트 수집·라벨링·가공을 넘어서 도메인 전문 지식, 복잡한 논리 구조 분석, 텍스트와 이미지 정보 간의 의미적 일치성 확보 등이 필요하다. 이로 인해 일반 데이터 대비 단가가 20~30% 이상 높고, 숙련된 인력 확보와 체계적인 프로젝트 운영 및 검수 등 고도화된 품질 관리 역량이 필수적이다. 대표 사례인 '인포그래픽과 텍스트 매칭 데이터셋' 프로젝트는 도표·순서도·계층 구조 등 복잡한 시각 요소가 포함된 문서 이미지에서 구성 요소(컴포넌트)와 작업 단계(노드)를 식별하고, 각 요소를 설명하는 의미 단위 텍스트를 생성하는 고난도 과업이었다. 크라우드웍스는 데이터 일관성을 확보하기 위해 VLM(Vision-Language Model)을 활용해 이미지 설명문 생성을 자동화하고, 까다로운 검수 과정을 개선하고자 JSON 시각화 툴을 개발해 데이터 품질과 효율을 모두 확보했다. 그 결과 당초 4개월로 계획된 프로젝트를 3개월 만에 성공적으로 완료하며 기술력을 입증했다. 이밖에도 ▲도메인 이해를 바탕으로 한 데이터 컨설팅 역량 ▲전문 데이터 인력을 신속하게 확보할 수 있는 전문가 인증 시스템 ▲검수 자동화 도구 등을 통해 복잡도 높은 LLM 데이터 구축에 안정적으로 대응할 수 있는 체계적 역량을 확보하고 있다. 김우승 크라우드웍스 대표는 "모델 성능은 평준화되고 데이터가 모델을 차별화하는 시대가 되고 있다"며 "크라우드웍스는 고난도 데이터 구축 역량을 바탕으로 산업별 AI 고도화를 지원하고, 기업들이 진정한 데이터 경쟁력을 확보할 수 있도록 앞장서겠다"고 말했다.

2025.07.18 08:42백봉삼

NHN두레이, 금융 내부망에 해외 리전 LLM 연동

NHN두레이(대표 백창열)는 국내 협업툴 가운데 최초로 금융 내부망에서도 해외 리전에 위치한 초거대 언어모델(LLM)까지 직접 연동할 수 있는 환경을 구현했다고 15일 밝혔다. 이번 성과는 국내 SaaS 업계 처음으로 이뤄진 사례로, 보안·정책적 제약을 넘어 글로벌 생성형 AI 서비스 활용이 가능한 환경을 마련했다는 데 큰 의미가 있다는 회사 측의 설명이다. 국내 금융회사는 망분리 규제 완화에 힘입어 혁신금융서비스 제도를 활용해 내부 업무망에서 SaaS 형태의 다양한 클라우드 서비스를 이용할 수 있도록 환경이 개선됐다. 다만 대다수의 국내 SaaS 협업 플랫폼 서비스는 국내 리전에 위치한 생성형AI 모델만 적용하고 있어 글로벌 최신 LLM 활용에는 근본적인 한계가 있었다. NHN두레이는 이러한 제약을 극복하고자 최신 글로벌 생성형 AI 서비스를 협업 환경에 적용하는 데 집중해 왔으며, 그 결과 해외 리전 기반의 애저 오픈AI의 챗GPT 4.1과 구글 버텍스 AI의 제미나이 2.0 Flash 등 최신LLM을 금융사 내부 업무망에 직접 활용할 수 있는 체계를 구축하는데 성공했다. 금융사는 두레이 서비스로 고유식별정보나 개인(신용)정보(가명정보 포함)를 활용하지 않는다면 내부 업무망에서 손쉽게 글로벌 생성형 AI를 이용할 수 있는 길이 열린 것이다. 이번 기능 개선 및 업데이트 사항은 올인원 협업 플랫폼 두레이에 적용됐으며, 사용자들은 별도의 설정 없이도 두레이 내에서 최적의 LLM을 자동으로 활용할 수 있다. 모델에 종속되지 않고 사용자가 두레이 내 기능만으로 최적화된 AI 기능을 경험하도록 구조를 만든 것이 핵심이다. 요약이나 일반적인 텍스트 기반의 응답은 챗 GPT를, 이미지 생성이나 파일 기반의 복합적 질의는 제미나이를 활용하는 등 각 LLM이 지닌 특성과 강점에 따라 선택해 업무에 이용할 수 있다. 양사는 협업 플랫폼 내 모든 데이터를 학습, 재학습, AI모델 개선, 저장, 제3자 제공 등에 활용되지 않도록 보안성 강화에도 주력했다. 두레이는 단순한 멀티 LLM 연동을 넘어 사용자 필요에 따라 특정 AI 모델을 직접 선택해 응답을 비교하거나 활용할 수 있는 맞춤형 AI 기능도 제공할 계획이다. 추후 AI스타트업 앤스로픽의 클로드를 비롯해 미스트랄, 코히어와 같은 다양한 글로벌 LLM을 단계적으로 도입하는 등 AI 서비스 선택 옵션을 확장한다는 방침이다. 이번 연동은 우리금융그룹과의 협업으로 가장 먼저 적용된다. NHN두레이는 2024년 연말 혁신금융서비스 지정 이후 올해 3월부터 우리금융그룹의 공식 협업툴로 도입되며 국산 협업툴 최초로 금융권 내부망에 AI 서비스가 연계된 SaaS 기반의 협업툴 서비스를 제공해 왔다. 양사는 공동으로 AI 전략을 추진해 왔으며 이번 글로벌 LLM 연동으로 우리금융그룹은 국내 금융권 최초로 내부망에서 최신 AI 모델을 활용할 수 있는 환경을 구축하게 된다. 백창열 NHN두레이 대표는 “이번 연동은 사용자가 복잡한 AI 모델을 일일이 구분하지 않아도 두레이 안에서 최적의 LLM을 자동으로 활용할 수 있도록 구현한 것이 핵심”이라며, “이를 통해 금융권의 AI 활용 수준을 한 단계 더 끌어 올렸다는 점에서 큰 의미가 있으며 앞으로도 협업 SaaS와 AI 융합 모델을 고도화해 고객사 확장에 속도를 낼 것”이라고 말했다.

2025.07.15 15:24안희정

[써보고서] 업스테이지 '솔라 프로 2' 써보니…韓 AI 모델, 어디까지 왔나

업스테이지가 자체 개발한 '솔라 프로 2'로 추론 인공지능(AI)의 실무 활용성을 입증하며 국내 기업 시장 공략의 포문을 열었다. 13일 업계에 따르면 업스테이지는 최근 일반 사용자도 '솔라 프로 2'를 직접 체험할 수 있도록 회사의 콘솔 플랫폼을 개방했다. 이에 기자는 해당 플랫폼에 직접 접속해 한정된 데모가 아닌 실제 서비스와 동일한 환경에서 모델의 성능을 점검했다. '솔라 프로 2'는 업스테이지가 최근 선보인 차세대 거대언어모델(LLM)이다. 사용자는 이 모델을 통해 단순 질의응답은 물론 복잡한 자료의 요약 및 번역, 데이터 변환 같은 고차원적인 과제를 수행할 수 있다. 사용자 인터페이스(UI)는 현재 시장의 주류 AI 챗봇들과 유사한 대화형 방식을 따른다. 사용자에게 익숙한 채팅 창에 바로 질문을 입력해 사용하는 구조로, 별도의 사용법을 익힐 필요는 없다. 기자에게 거대언어모델(LLM)의 추론 능력이 가장 필요한 순간은 해외 자료에 나온 수치를 원화로 환산할 때다. 이에 가트너 보고서에 언급된 생성 AI 관련 투자액을 달러에서 원화로 변환해달라고 요청했다. '솔라 프로 2'는 1달러가 1천400원이라는 기준을 세우고 지난해와 올해 글로벌 생성 AI 모델 지출액을 오차 없이 환산해냈다. 결과값은 단순히 숫자를 나열하는 데 그치지 않고 '억' 단위를 사용해 한국 사용자가 이해하기 쉬운 형태로 깔끔하게 정리해 보여줬다. 복잡한 수학 문제는 아니지만 업무 중 빈번하게 발생하는 데이터 처리 과정에서 신뢰할 수 있는 성능을 보여준다는 점은 분명한 장점이다. 기계번역에 있어서도 상당한 성능을 드러냈다. 기자는 한국의 소버린 AI 전략에 대해 최근 작성한 2천 단어 분량의 영문 기사를 한국어로 번역하도록 지시했다. 수 초가 지나지 않아 결과물이 쏟아져 나왔다. 보다 경량모델이기 때문이겠지만 체감상 구글 '제미나이 2.5 프로'나 오픈AI '챗GPT-4o'보다 신속한 속도였다. 번역의 질도 만족스러웠다. 내용 확인 결과 모든 문장이 원문의 의미를 정확하게 담고 있었다. 문체가 아주 유려하지는 않았다. 일부 표현은 '약간 투박한 대학생의 과제물' 같은 느낌을 주기도 했다. 사람 이름과 같은 고유명사에서는 일부 오류가 있기도 했다. 다만 속도와 정확성의 수준을 고려하면 해외 자료를 신속히 검토하고 핵심을 파악해야 하는 실무 환경에서는 충분한 수준이다. 결과물을 빠른 시간에 내놓는다는 점에서 실용성은 글로벌 경쟁 모델과 비교해도 뒤지지 않았다. 더불어 고유명사에서의 오류는 파운데이션 모델 자체가 고질적으로 겪는 구조적 문제다. 이번 테스트는 '솔라 프로 2'에만 진행되지 않았다. 업스테이지의 또 다른 핵심 기술인 광학문자인식(OCR) 성능도 함께 확인했다. 이는 업스테이지가 창업 초기부터 두각을 나타낸 분야로, 김성훈 대표는 여러 차례 OCR과 LLM을 통합해 '일의 미래'를 실현하겠다는 비전을 밝힌 바 있다. 플랫폼의 '도큐먼트 OCR' 기능을 이용해 2차 세계대전 당시 헨리 스팀슨 미 육군장관이 트루먼 대통령에게 보낸 편지를 인식시켜 봤다. 결과는 상당히 괜찮았다. 80%의 신뢰도(Confidence)로 인식이 진행됐으며 흘려 써서 사람도 알아보기 힘든 몇몇 단어를 제외하고는 대부분의 내용을 정확하게 디지털 텍스트로 변환했다. 이는 업스테이지가 단순히 LLM 개발에만 매달리는 것이 아니라 문서 처리라는 핵심 기술력 위에 AI 모델을 쌓아 올리고 있음을 보여주는 대목이다. '솔라 프로 2'를 체험한 소감은 '실용적이고 빠르다'로 요약할 수 있다. 사실 오픈AI, 구글, 앤트로픽 등 글로벌 빅테크부터 알리바바, 딥시크 같은 중화권 모델에 이르기까지 파운데이션 모델의 발전 방향은 대체로 대동소이해지며 상향 평준화되는 추세다. 이같은 상황에서 완전히 새로운 기능은 없으나 번역·요약·계산 등 사용자가 가장 필요로 하는 핵심 기능에서 국내 스타트업이 꾸준히 경쟁력을 유지하고 있다는 점은 그 자체로 고무적이다. 글로벌 최상위 모델과 성능 수치를 일대일로 비교하기엔 무리가 있을 수 있다. 다만 '솔라 프로 2'가 보여준 성능은 기업 실무자가 현장에서 필요로 하는 수준을 이미 충분히 만족시키는 수준이다. 이는 곧 시장에서의 현명한 포지셔닝으로 이어질 수 있는 대목이다. 글로벌 B2C 구독 시장은 미국 빅테크가, 중국 내수 시장은 중국 기업들이 장악한 구도 속에서 국내 기업이 정면으로 경쟁하기는 쉽지 않다. 대신 데이터 보안에 민감하거나 국내 환경에 최적화된 기술 지원을 필요로 하는 기업들에게 '솔라 프로 2'는 매력적인 B2B 대안이 될 수 있다. 김성훈 대표는 "'솔라 프로2'는 문제를 이해하고 논리적으로 사고하며 AI 비서처럼 명령까지 수행한다"며 "향후 발전과 사용자들의 적극적인 참여를 기대한다"고 말했다.

2025.07.13 06:49조이환

[SW키트] "AI가 고른 사이트만 생존"…'콘텐츠 노출 전쟁' 시작

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 인공지능(AI) 검색엔진 등장으로 마케터 등 웹사이트 운영자들이 분주해졌다. AI가 생성한 답변 출처에 브랜드 콘텐츠가 우선 배치되도록 만드는 것이 새 과제로 떠올랐기 때문이다. 12일 IT 업계에 따르면 챗GPT 같은 AI 챗봇이나 AI 기반 검색엔진이 등장하면서 검색 결과에 웹사이트나 특정 콘텐츠 노출도를 높이는 솔루션 산업이 증가할 것이란 전망이 나왔다. 그동안 구글이 글로벌 검색엔진 점유율 1위를 유지하면서 광고 핵심 채널이자 관문 역할을 해왔다. 그러나 챗봇과 AI 검색엔진 출현 후 이런 패러다임은 바뀌고 있다는 의견이 지배적이다. 전문가들은 앞으로 브랜드·웹사이트 운영 전략 핵심이 '검색 상단 노출'에서 'AI가 선택하는 콘텐츠로 보이게 하는 것'으로 이동할 것으로 보고 있다. 현재 AI 검색 시장에 진입하려는 기업들 움직임부터 빨라지고 있다. 최근 퍼플렉시티와 오픈AI는 AI 기반 웹브라우저와 검색엔진 출시를 통해 새 검색 생태계를 예고했다. 우선 퍼플렉시티는 검색뿐 아니라 행동까지 AI로 실행하는 웹브라우저 '코멧'을 이달 정식 출시했다. 이 브라우저는 맥스 요금제 구독자와 일부 대기자에게만 우선 제공된다. 추후 일반 사용자에게도 단계적으로 확대될 예정이다. 코멧은 사용자가 링크를 직접 확인하지 않아도 대화 한 줄로 원하는 결과를 얻을 수 있도록 설계됐다. 이메일 작성부터 캘린더 예약, 상품 주문 등 일상 업무를 자연어 명령으로 실행할 수 있다. 사용자 습관에 따라 쌓인 탭을 학습해 맥락 기반의 인터페이스를 제공한다. 오픈AI도 AI 기반 웹브라우저 출시를 앞둔 것으로 전해졌다. 이 브라우저는 챗GPT와 유사한 대화형 인터페이스 중심으로 정보를 찾는 식이다. 사용자는 검색 결과를 클릭하지 않아도 브라우저 내에서 질문과 답변을 주고받으며 필요한 정보를 얻을 수 있다. "노출 빈도 분석·제안"…어도비, 'LLM 옵티마이저'로 공략 AI 검색 결과에 웹사이트 노출 빈도나 상태를 분석·관리할 수 있는 서비스도 등장했다. 대표 서비스는 지난달 출시된 어도비의 'LLM 옵티마이저'다. LLM 옵티마이저는 챗GPT와 제미나이, 클로드 등 다양한 생성형 AI 도구 전반에서 브랜드 성과를 들여다볼 수 있는 창구 역할을 한다. 마케터 담당자는 LLM 옵티마이저로 AI 검색 결과에 브랜드 웹사이트 노출 빈도나 개선 사항을 확인 할 수 있다. 콘텐츠 게시 전략을 신속히 조정해 브랜드의 AI 검색 노출 빈도를 높일 수 있는 식이다. 예를 들어 마케터는 콘텐츠나 웹사이트 링크가 어떤 LLM의 사용자 질의 응답 결과에 포함됐는지 알 수 있다. 이를 통해 브랜드가 AI 챗봇이나 AI 검색 엔진에 어떤 방식으로 더 잘 등장하는지 인사이트를 얻을 수 있다. 고객들이 어떤 질문을 통해 브랜드 콘텐츠를 접하는지까지 파악할 수 있다. LLM 옵티마이저 플랫폼에는 '추천 엔진'도 탑재됐다. 이 엔진은 생성형 AI 응답을 지속 모니터링함으로써 브랜드 노출도를 올리기 위한 콘텐츠 조정 사항을 사용자에게 실시간 제안한다. 사용자는 클릭 한번으로 추천된 변경 사항을 승인하기만 하면 된다. 이에 시간과 인력 많이 드는 웹 개발 작업까지 대체 가능하다. 어도비는 "생성형 AI는 고객과 브랜드 간 인식과 대화, 구매 전환 핵심 도구로 자리잡았다"며 "LLM 옵티마이저는 기업이 변화하는 환경에서 주도권을 유지하고 성공 확률을 높이는 데 도움 줄 것"이라고 강조했다. 클라우드플레어, AI 챗봇·웹사이트 접근 관리한다 챗봇·AI 검색엔진과 웹브라우저 간 생태계 활성화를 위한 노력도 이어지고 있다. AI 챗봇이 웹사이트 데이터 무단 접근·수집을 막기 위한 마켓플레이스까지 등장했다. 클라우드플레어는 AI 크롤러의 웹사이트 접근을 차단·유료화하는 '페이 퍼 크롤(Pay per Crawl)' 마켓플레이스를 비공개 베타 형태로 공개했다. 마켓은 AI 챗봇이 웹사이트에 무단 접속해 정보를 무단으로 긁어가는 것을 방지하기 위해 등장했다. 클라우드플레어는 두 가지 방식으로 AI 크롤러를 통제할 방침이다. 우선 웹사이트가 AI 크롤러 접근을 원천 차단하는 기능이다. AI 크롤러가 웹사이트 자체에 접속조차 할 수 없게 만드는 식이다. 다른 하나는 크롤러가 웹사이트에 접근할 경우 소액결제를 통해 요금을 청구하는 시스템이다. AI 챗봇 기업이 웹사이트의 콘텐츠를 긁어갈 때마다 일정 금액을 지불하고, 해당 금액은 수수료를 제외한 뒤 웹사이트 운영자에게 전달되는 방식이다. 웹사이트 운영자는 크롤링 목적이 AI 학습용인지 또는 검색 응답용인지 등 기타 목적에 따라 접근 허용 여부나 과금 조건을 다르게 설정할 수 있다. 해당 정책은 클라우드플레어에 도메인을 등록한 고객 한해서만 적용된다. 현재 클라우드플레어는 AI 크롤러 고객사로 타임과 애틀랜틱, 포춘, 콘데나스트, 애드워크 등을 확보했다. 해당 매체는 AI 크롤러 전면 차단을 기본 설정으로 적용한 상태다. 매슈 프린스 클라우드플레어 최고경영자(CEO)는 "대형 언론사부터 중소 자영업자까지 모든 웹사이트 운영자가 AI 크롤러로부터 콘텐츠를 보호할 수 있게 조치할 것"이라고 강조했다.

2025.07.12 06:40김미정

[AI는 지금] "국가대표 AI에 사활 건다"...선발전 앞두고 新 LLM 쏟아지는 이유는?

정부의 '독자 AI 파운데이션 모델' 프로젝트 공모가 오는 21일 마감되는 가운데 국내 주요 빅테크와 인공지능(AI) 스타트업들이 일제히 차세대 거대언어모델(LLM)을 선보이며 기술 경쟁에 불을 지폈다. 11일 업계에 따르면 '독자 AI 파운데이션 모델' 프로젝트는 최대 5개 AI 기업을 선정해 연간 100억원 규모 이상의 그래픽처리장치(GPU), 데이터, 인재 유치 비용 등을 지원하고 6개월 단위 경쟁을 거쳐 최종 모델을 압축하는 서바이벌 방식으로 진행된다. 이같은 상황 속에서 대기업, 통신사, 스타트업을 망라한 등 주요 AI 기업들이 새로운 LLM을 공개하며 출사표를 던졌다. 국가대표 AI 경쟁 뛰어든 기업들…핵심 모델과 전략은? SK텔레콤은 11일 오픈소스 커뮤니티를 통해 자체 개발한 경량 LLM '에이닷엑스 3.1 라이트(A.X 3.1 lite)'를 공개했다. 70억 파라미터 규모의 이 모델은 설계부터 학습까지 전 과정이 자체 기술로 제작된 '프롬 스크래치' 방식임을 강조했다. 이달 중에는 340억 파라미터의 중형 모델도 추가 공개하며 기술력을 과시할 예정이다. 김태윤 SK텔레콤 담당은 "꾸준히 쌓아 온 한국형 LLM 개발 역량을 바탕으로 AI 생태계 자립성을 높이겠다"고 말했다. 업스테이지는 지난 10일 310억 파라미터 규모의 '솔라 프로 2(Solar Pro 2)'를 출시하며 추론형 AI 시장에 본격적으로 진입했다. 질의응답용 '챗 모드'와 논리적 사고 기반의 '추론 모드'를 전환하는 하이브리드 방식이 특징으로, 실무 작업을 자율 수행하는 에이전트 구조까지 갖춰 글로벌 최상위 모델과 경쟁하겠다는 포부를 밝혔다. 김성훈 업스테이지 대표는 "자체 기술로 구현한 LLM으로 업무 방식을 근본적으로 혁신할 것"이라고 말했다. 같은 날 LG CNS도 캐나다 코히어(Cohere)와 협력해 개발한 1천110억 파라미터의 초대형 추론형 LLM을 선보였다. 초대형 규모임에도 2장의 GPU로 구동 가능한 고압축 기술을 핵심 경쟁력으로 내세웠다. 다만 LG CNS는 정부 프로젝트 직접 참여 여부를 밝히지는 않은 상태다. KT 역시 지난 3일 자체 개발한 '믿음 2.0' LLM을 오픈소스로 공개하며 '한국적 AI' 개발을 기치로 내걸었다. '믿음 2.0'은 법률, 특허 등 양질의 한국어 데이터를 학습하고 자체 토크나이저를 적용한 '토종 AI'임을 강조하며 115억 파라미터 '베이스' 모델과 23억 파라미터 '미니' 모델 2종을 선보였다. 신동훈 KT 젠AI랩장은 기술 자립에 대해 "기간통신사업자로서 생성형 AI 원천기술을 반드시 확보해야 한다"고 강조했다. 이외에도 네이버는 지난달 30일 멀티모달 추론 기능을 강화한 '하이퍼클로바X 씽크'를, 이스트소프트는 지난달 17일 검색증강생성(RAG)에 특화된 '앨런 LLM'을 출시하며 경쟁에 가세했다. 이같이 지난달부터 기술 발표가 집중된 가운데 AI 주도권 확보를 위한 물밑 경쟁은 그 이전부터 치열하게 이어져 왔다. 코난테크놀로지는 지난 3월 추론 기능을 통합한 320억 파라미터 모델 '코난 LLM ENT-11'을 출시하며 효율적인 코딩 성능을 과시했다. 솔트룩스 역시 지난 5월 복잡한 질문에 깊게 사고하는 320억 파라미터의 '루시아 3'를 선보이며 독자 기술력을 입증했다. LG그룹의 AI 개발을 주도하는 LG AI연구원의 행보도 주목된다. 지난 3월 추론 특화 모델 '엑사원 딥'을 선보인 데 이어 오는 22일에는 이를 통합한 차세대 모델 '엑사원 4.0' 공개 행사를 예고했다. 프로젝트 신청 마감 직전에 기술력의 정점을 보여주려는 핵심적인 전략적 포석으로 풀이된다. 게임업계와 신흥 스타트업의 도전도 거세다. 엔씨소프트의 AI 전문 자회사 NC AI는 지난해 자체 개발 '바르코 LLM'을 오픈소스로 공개하며 콘텐츠 생성 분야의 기술력을 선보였던 바 있다. 네이버클라우드 AI 연구자 출신의 신재민 대표가 설립한 트릴리온랩스 역시 한국어에 특화된 210억 파라미터 모델을 이르면 이번주 내에 공개할 예정으로, 정부 프로젝트 참여 의사를 분명히 하고 있다. K-LLM 쏟아지는 진짜 이유…"기술 증명 넘어 미래 표준 본다" 업계에서는 이같이 AI 기업들이 일제히 신기술을 공개하며 프로젝트에 사활을 거는 이유 중 하나를 '증명'에 있다고 본다. 프로젝트 참여 의사를 알리는 신호를 넘어 심사 과정에서 가장 중요한 평가 요소인 '독자 기술력'을 시장과 정부에 선제적으로 증명하려는 의도라는 것이다. 장기적으로는 정부가 내건 '전 국민 AI' 시대의 표준 모델이 되겠다는 보다 큰 야망도 깔려 있다. 프로젝트의 최종 승자는 '모두의 AI' 등 향후 공공 및 정부 시스템에 도입될 AI의 표준을 선점해 막대한 후속 사업 기회를 거머쥘 수 있기 때문이다. 동시에 연간 수백억 원에 달하는 GPU·데이터·인재 등 파격적인 지원을 통해 단숨에 글로벌 수준으로 도약할 수 있다는 현실적인 목표 역시 중요한 동기다. 한 업계 이익단체 관계자는 "이번 프로젝트에는 LLM 기업뿐만 아니라 AI 서비스 기업들도 콘소시엄 형태로 사활을 걸고 뛰어들고 있다"며 "이는 '독자 파운데이션' 사업이 단순히 개발에만 집중된 것이 아니라 실제 수요로도 이어지기 때문"이라고 평가했다. 이번 기술 경쟁은 최근 국내 LLM의 발전 방향을 명확히 보여준다는 점에서도 의미가 깊다. 단순히 패러미터 크기를 늘리던 양적 경쟁에서 벗어나 복잡한 문제를 논리적으로 해결하는 '추론(Reasoning)', 스스로 도구를 사용해 과업을 완수하는 '에이전트(Agent)', 텍스트와 이미지를 함께 이해하는 '멀티모달(Multimodal)' 기능이 핵심 화두로 떠올랐기 때문이다. 한 업계 전문가는 "개발자들 사이에서도 이제는 LLM 벤치마크 점수가 실제 성능을 온전히 대변하지 못한다는 공감대가 형성되고 있다"며 "결국 해외 선도 기업들처럼 실제 비즈니스 문제를 해결할 수 있는 추론 능력과 에이전트 구현 가능성이 기술력의 새로운 척도가 되고 있는 상황"이라고 설명했다.

2025.07.11 17:19조이환

[유미's 픽] 韓 대표 AI 선발전, '프롬 스크래치'가 핵심…컨소시엄 신경전 '치열'

글로벌 톱 수준의 거대언어모델(LLM)을 만들 '인공지능(AI) 국가대표 정예팀' 선발전이 본격화된 가운데 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준으로 지목되고 있다. 외국 LLM을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 10일 업계에 따르면 과학기술정보통신부가 추진하고 있는 '독자 AI 파운데이션 모델 개발 지원 사업'에 선정된 컨소시엄은 ▲새로운 자체 아키텍처를 설계하고 독자적 학습 알고리즘·기법을 적용해 AI 모델을 처음부터 개발하거나 ▲이미 갖고 있는 AI 파운데이션 모델을 추가 학습을 통해 고도화해도 된다. 하지만 최근 선보인 SK텔레콤의 '에이닷 엑스 4.0'처럼 해외 업체 AI 모델을 활용하면 안된다. '에이닷 엑스 4.0'은 중국 알리바바의 AI 모델 '큐원2.5'에 한국어 데이터를 추가로 학습시킨 모델로, 온프레미스(내부 구축형) 방식을 적용해 데이터 보안을 강화했다고는 하지만 정보 유출의 위험성을 우려하는 목소리들이 나오고 있다. 업계 관계자는 "에이닷 엑스 4.0이 한국어로 튜닝됐다는 이유만으로 이를 '한국형 모델'이라고 부르는 것은 맞지 않다"며 "모델의 '메모리'는 여전히 '큐원2.5'라는 점에서 큐원에서 학습한 불투명한 정보가 에이닷 엑스 4.0 내부에 그대로 내재돼 잘못된 결과물이 예기치 않게 출력될 가능성을 배제할 수 없다"고 지적했다. 이어 "큐원2.5는 메타 라마와 달리 학습에 어떤 데이터를 사용했는지, 어떻게 수집·정제했는지조차 밝히지 않아 불투명한 모델이라는 지적을 받고 있어 이를 활용한 에이닷엑스 4.0 같은 모델들이 공공망, 정부망에 도입되는 것을 철저하게 막아야 한다"며 "공공 AI는 성능이 아무리 뛰어나더라도 설명책임과 검증가능성이라는 핵심 요건을 충족시켜야 한다는 점을 이번에 심사할 때 꼭 고려해야 할 것"이라고 덧붙였다. 또 다른 관계자는 "이번 사업으로 진정한 '소버린 AI'를 실현하기 위해선 성능보다는 통제 가능성이 우선돼야 한다는 점을 정부가 명심해야 할 것"이라며 "AI 모델의 설계부터 폐기까지 전 생애주기에 걸친 자국 통제권이 확보돼야 하는 만큼 단순한 튜닝이 아닌 각 기업들이 원천 기술을 보유하고 있는지가 중요하다"고 강조했다. 정부도 이를 고려해 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건을 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 다만 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 과기정통부 관계자는 "메타의 '라마'든, 알리바바의 '큐원'이든 외국 업체들의 AI 모델 아키텍처를 참고해 이를 우리나라 상황에 맞게 재설계 해 처음부터 만들었다면 이번 사업에 참여할 수 있다"며 "아키텍처를 그대로 쓰면서 파인튜닝한 AI 모델로는 참여할 수 없다"고 설명했다. 그러면서 "완전 재설계한 모델은 라이센스 이슈가 없을 뿐더러 거기에 들어가는 데이터도 각 업체가 보유한 것을 넣은 것이기 때문에 문제 없을 것으로 본다"며 "이 경우에는 처음부터 본인의 기술력으로 만들어진 것인 만큼 프롬 스크래치 방식으로 봐도 된다"고 덧붙였다. 이를 두고 업계에선 정부가 일부 중소업체들을 참여시키기 위해 사업자 선정 기준을 좀 더 열어둔 것으로 봤다. 예컨대 업스테이지의 경우 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. 업스테이지는 이를 기반으로 이날 추론 모델도 공개했다. 업계 관계자는 "현재 선발전에 나올 기업 중 해외 기업 AI 모델의 아키텍처를 재설계해서 모델을 선보이는 곳은 업스테이지가 대표적인 것으로 안다"며 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 업스테이지 같은 스타트업들은 어느 한 곳도 선발전에 참여할 수 없어 정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 업계에선 '프롬 스크래치' 방식이 아닌 외국 AI 모델을 기반으로 재설계하거나 파인튜닝을 한 것을 활용한 기업들이 그간 많았다는 점에서 이번 선발전의 문턱을 넘을 수 있는 곳이 많지 않을 것으로 예상했다. 또 프롬 스크래치 방식을 그간 고집하며 대형 모델을 선보였던 KT와 네이버클라우드, LG AI 연구원, NC AI 정도가 사업자 선정에 유리할 것으로 봤다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 솔트룩스, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발한 만큼 이번에 사업자로 선정될 것이란 자신감을 보이고 있다. 이 중 코난테크놀로지는 지난 2023년 4월 국내 중소형 업체 중 최초로 자체 LLM인 '코난 LLM'을 출시한 곳으로, 이번 선발전에서 유력 후보로 떠오르고 있다. 지난 5월 자체 개발 LLM '루시아3'를 공개한 솔트룩스 역시 중소업체 중에서 주목 받고 있다. 업계에선 정부가 최종 선발될 '독자 AI 파운데이션 모델 프로젝트' 참여 정예팀을 대기업 3팀, 중소기업 2팀 등 최대 5팀을 초기에 선발할 것으로 보고 있다. 업계 관계자는 "300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 국내 업체는 사실 손꼽힌다"며 "이번 선발전은 일부 대기업을 중심으로 경쟁이 치열해질 가능성이 높다"고 봤다. 그러면서도 "다만 LG, 네이버 같은 일부 대기업은 기존 AI 모델을 전 국민이 쓰는 모델로 키워 나가기엔 수익이 결부돼 있어 내부 설득이 만만치 않을 듯 하다"며 "KT, SK텔레콤 등 통신사들은 최근까지 소버린 AI를 부정하고 해외 유력 빅테크 업체들과 협업하려고 노력했다가, 정부의 정책 변경에 발 맞춰 이번 사업에 들어오려는 모습을 보였다는 점에서 사업자로 선정되기엔 아쉬운 점이 많다"고 덧붙였다. 공개적으로 이번 선발전 참여를 예고했던 기업들은 최근 컨소시엄 구성을 두고도 치열한 주도권 경쟁을 벌이고 있다. 컨소시엄을 어떤 곳과 함께 구성하느냐에 따라 자신들의 전략이 노출될 가능성이 높은 만큼, 보안 유지에도 각별히 신경쓰는 분위기다. 현재까지 이번 선발전에 관심을 보이며 설명회에 참여한 기업은 KT와 SK텔레콤, LG유플러스, LG AI 연구원, 카카오, 네이버, 포티투마루, 업스테이지, 코난테크놀로지, NC AI, 솔트룩스, 레블업, 트릴리언랩스, 트웰브랩스, 이스트소프트, 모티프테크놀로지스 등으로 알려져 있다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 업계 관계자는 "각 업체들은 자신들의 장·단점을 철저하게 분석한 후 단점을 잘 커버할 수 있는 스타트업, 대학 등과 컨소시엄을 구성하기 위해 물밑 작업을 치열하게 벌이고 있는 것으로 안다"며 "다만 국내에 있는 대부분의 기업, 대학 등이 이번 선발전에 참여할 것으로 보여 이를 제대로 객관적으로 평가해 줄 심사위원들을 정부가 확보했을 지가 가장 큰 관심사"라고 말했다. 또 다른 관계자는 "공공 AI의 핵심 요구사항에서 기술적 성능을 넘어선 설명 책임과 투명성, 국가 인프라로서의 신뢰성과 지속가능성, 향후 에이전트 간 연동 등 확장성을 고려해야 한다"며 "'잘 작동하는 AI'와 '책임질 수 있는 AI'는 별개의 문제라는 점을 기준으로 삼고 성능 대비 통제권을 잘 가질 수 있는 부분에 대해 심사 시 신중히 봐야 할 것"이라고 밝혔다.

2025.07.10 17:00장유미

'오픈AI 대항마' 손잡은 LG CNS, 또 일냈다…추론형 LLM으로 '에이전틱 AI'서 승부수

"앞으로 LG CNS와 원팀으로 계속 협업을 이어가며 한국 특화 거대언어모델(LLM)을 만들 뿐 아니라 풀스택을 갖추고 있는 만큼 고객에게 맞는 최적화 된 모델을 선보일 것입니다." '오픈AI 대항마'로 여겨지는 캐나다 AI 스타트업 코히어를 설립한 에이단 고메즈 최고경영자(CEO)가 지난 3월 LG CNS와 함께 공약했던 LLM이 또 다시 공개됐다. LG AI 연구원의 LLM인 '엑사원'을 기반으로 하지 않고 코히어와의 협업을 통해 LG CNS가 추론 모델을 직접 개발했다는 점에서 AX 전문기업으로서의 역량을 다시 한 번 입증했다는 평가가 나온다. LG CNS는 최근 코히어와 손잡고 1천110억 개의 파라미터를 갖춘 추론형 LLM을 공동 개발했다고 10일 밝혔다. 이 LLM은 한국어, 영어 등 23개 언어를 지원하며 추론 등 핵심 성능에서 글로벌 상위 모델을 뛰어넘는 결과를 보였다. LG CNS는 지난 5월 코히어와 70억 개의 파라미터로 구성된 한국어 특화 경량 모델을 출시한 지 두 달 만에 초대형 모델을 연이어 발표하며 생성형 AI 역량을 보여줬다. LG CNS는 금융, 공공 등 민감한 데이터를 다루는 국내 고객들의 비즈니스 혁신을 위해 글로벌 시장에서 역량을 인정 받고 있는 코히어와 협력해 추론형 LLM을 개발했다. 추론형 LLM은 AI가 복잡한 문제에 대해 여러 변수를 고려한 논리적인 해답을 도출하는 모델로, AI가 스스로 판단하고 작업을 수행하는 '에이전틱 AI' 서비스 구현에 필수적인 기술로 손꼽힌다. LG CNS는 코히어와 공동 개발한 초대형·경량형 2종의 LLM과 LG AI연구원의 '엑사원' 등 LLM 라인업을 갖춰 고객이 맞춤형 에이전틱 AI 서비스를 만들 수 있는 기반을 마련했다. 에이전틱 AI는 AI가 스스로 판단, 추론해 복잡한 작업을 수행하는 차세대 인공지능으로 비즈니스 자동화, 최적화 등에 활용도가 높다. LG CNS는 이 LLM 개발을 위해 코히어의 기업용 LLM인 '커맨드(Command)' 모델에 LG CNS가 국내 전 산업 분야에서 축적한 IT전문성과 AI 기술력을 결합했다. 특히 코히어의 커맨드 모델은 이미 캐나다 최대은행 RBC(Royal Bank of Canada) 등에서 온프레미스와 클라우드 방식으로 사용되고 있어 글로벌 기업에서 검증된 바 있다. LG CNS는 LLM을 온프레미스 방식으로 제공해 고객사들이 민감한 데이터의 외부 유출 없이도 자체 인프라 내에서 안전하게 처리할 수 있도록 할 계획이다. 이번에 선보인 LLM은 모델 압축 기술을 통해 2장의 그래픽처리장치(GPU)만으로 구동이 가능하다는 장점도 갖췄다. 통상 파라미터 1천억 개 이상의 LLM에는 최소 4장의 GPU가 필요한 것으로 알려졌다. 이를 통해 고객사들은 회사의 비즈니스 환경에 최적화된 LLM을 효율적인 비용으로 확보하면서도 데이터와 인프라 주권을 확보하는 '소버린 AI'를 실현할 수 있다. '소버린 AI'는 국가나 기업이 자체 인프라를 기반으로 자국의 언어, 법, 문화 등을 반영한 독립적인 AI를 만들어 운영하는 것을 말한다. 양사가 개발한 LLM은 한국어와 영어에서 우수한 추론 능력을 보였다. 양사의 자체 테스트 결과 추론 능력 검증 대표 벤치마크 테스트인 ▲Math500과 ▲AIME 2024 영역에서 한국어, 영어 모두 GPT-4o, GPT4.1, 클로드 3.7 소넷 등 글로벌 LLM보다 높은 점수를 기록했다. 'Math500'은 대학 수준 이상의 수학문제 500개로 구성된 테스트로 AI가 얼마나 논리적으로 문제를 풀 수 있는지를 검증한다. 'AIME 2024'는 미국의 수학 경시대회 문제를 활용해 AI의 수학적 추론 능력을 평가한다. 양사의 LLM은 한국어·영어·일본어·중국어는 물론 히브리어·페르시아어 등 소수 언어까지 총 23개 언어를 지원한다. 이 중 한국어 평가 테스트에서는 온프레미스 방식의 LLM 중 현존 최고 수준의 성능(SOTA, State-of-the-Art)을 내는 것으로 나타났다. 한국어 평가 테스트인 ▲KMMLU ▲KO-IFeval에서 글로벌 LLM 대비 최고점을 달성했다. 특히 파라미터 규모가 2배 이상 많은 '큐원3(Qwen3)'보다도 우수한 성능을 보였다. 복잡한 비즈니스 문제 해결과 한국어 기반의 정교한 소통이 가능해 고객사의 업무 효율과 의사결정 품질을 획기적으로 개선할 수 있다. 'KMMLU'는 한국어 이해 능력을 종합적으로 평가하는 지표다. 인문학·사회과학·응용과학 등 45가지 분야 전문가 수준의 지식을 담은 3만5천여 개의 객관식 문제로 구성돼 있다. 'KO-IFeval'는 구글과 예일대학교가 만든 'IFeval'을 한국어로 번역한 벤치마크 테스트로, LLM이 대화 내용을 얼마나 잘 이해하고 지시사항을 잘 따르는지를 평가한다. LG CNS는 코히어와의 지속적인 협력을 이어가며 LLM의 성능을 고도화해나갈 계획이다. LG CNS AI클라우드사업부장 김태훈 전무는 "차별화된 AI 역량과 경쟁력을 바탕으로 고객의 비즈니스에 특화된 에이전틱 AI 서비스를 제공할 것"이라며 "고객의 AX를 선도하는 최고의 파트너로 자리매김할 것"이라고 밝혔다.

2025.07.10 10:00장유미

업스테이지, '추론형 AI' 상용화로 정면 승부…"글로벌 LLM 판 흔든다"

생성형 인공지능(AI) 산업의 추론형 모델 전환이 본격화된 가운데 업스테이지가 국내 스타트업 최초로 글로벌 경쟁 모델과 어깨를 나란히 하는 추론 모델을 완성했다. 업스테이지는 10일 차세대 거대언어모델(LLM) '솔라 프로 2(Solar Pro 2)'를 공개했다. 이 모델은 파라미터 규모를 310억으로 확대했으며 고도화된 추론 능력을 갖춘 '하이브리드 모드'를 도입한 것이 특징이다. 사용자는 빠른 질의응답을 위한 '챗 모드'와 논리적 사고 기반의 '추론 모드'를 상황에 따라 선택할 수 있다. '솔라 프로 2'는 수학 문제 풀이 성능을 측정하는 '매스500', 코딩 과제 해결력을 평가하는 '에스더블유이(SWE) 벤치', 종합 지식 기반의 추론 능력을 보는 '엠엠엘유(MMLU) 프로' 등 고난도 벤치마크에서 오픈AI 'GPT-4o', 딥시크 'R1', 미스트랄 '스몰 3.2'와 유사한 성능을 기록했다. 특히 '생각의 사슬(CoT)' 기법을 적용한 추론 모드가 뚜렷한 성능 향상을 이끌었다. 한국어 성능도 주목할 만하다. '솔라 프로 2'는 케이오-엠엠엘유(Ko-MMLU), 해례(Hae-Rae), 아레나-하드-오토(Arena-Hard-Auto) 등 벤치마크에서 글로벌 오픈모델을 넘어서는 결과를 보였고 어휘와 문맥 이해는 물론 금융·법률·의료 등 전문 분야 질의에도 실효성 있는 답변을 도출하는 수준에 도달했다. 모델 구조도 기능 중심으로 진화했다. 단순 문장 응답을 넘어 사용자의 의도를 파악하고 외부 도구를 호출해 실질적인 결과물을 도출하는 '에이전트형 LLM' 구조가 탑재됐다. 일례로 실시간 웹 검색, 정보 정리, 프레젠테이션 초안 작성까지 일련의 업무를 자율적으로 수행할 수 있다. 업계에서는 최근 국내 대기업들이 잇따라 추론 특화 모델을 공개한 데 이어 업스테이지가 스타트업 최초로 이 영역에 진입한 점에 주목하고 있다. LG AI연구원은 지난 3월 다중 입력을 처리하는 멀티모달 기반의 에이전트형 LLM '엑사원 2.0'을 선보이며 본격적인 추론 경쟁에 가세했다. 네이버도 지난달 '하이퍼클로바X 씽크'를 공개하며 언어와 시각 정보를 모두 다루는 추론 구조를 구현한 모델을 제시했다. 이어 업스테이지가 상용 모델을 내놓으면서 국내 LLM 개발 주체는 대기업에서 벤처로까지 외연을 넓히는 양상이다. 김성훈 업스테이지 대표는 "'솔라 프로 2'는 단순히 말을 잘하는 AI가 아니라 문제를 이해하고 논리적으로 사고하며 실질적인 행동까지 수행하는 AI 에이전트"라며 "자체 기술로 구현한 세계 최고 수준의 LLM을 기반으로, AI가 업무 방식을 근본적으로 혁신하고 '일의 미래'를 앞당길 수 있도록 기술을 고도화해 나가겠다"고 밝혔다.

2025.07.10 08:00조이환

카카오, 11월 AI 에이전트 출시

정신아 카카오 대표는 최근 포브스 아시아와의 인터뷰에서 “AI 에이전트를 통해 사용자가 어떤 앱을 써야 할지 고민하지 않아도 되는 세상이 열릴 것”이라며, "AI 기술이 카카오톡 전반에 깊이 스며들게 될 것"이라고 밝혔다. 9일 관련업계에 따르면 정 대표는 해당 인터뷰에서 오는 11월 챗GPT를 만든 오픈AI와의 협업을 기반으로 'AI 에이전트' 상용화를 예고했다. 인터뷰에 내용에 따르면 카카오의 AI 에이전트는 단순한 질문 응답을 넘어 사용자를 대신해 레스토랑 예약, 택시 호출, 결제, 일정 등록 등의 의사결정과 행동까지 수행하는 실행형 AI가 될 것으로 보인다. 정 대표는 “AI가 모든 상상 가능한 서비스를 현실로 만들 것”이라며, “에이전트 기반 서비스가 카카오의 광고와 커머스 등 핵심 비즈니스에도 큰 변화를 가져올 것”이라고 말했다. 카카오는 이를 통해 이용자의 체류 시간을 늘리고, 광고와 거래 연계도 높일 것으로 기대하고 있다. 정 대표는 오픈AI와의 협업을 통해 LLM(초거대 언어모델)을 활용하는 동시에, 자체 개발한 SLM(경량 모델)을 병행 적용하는 전략을 세웠다. 상대적으로 낮은 비용으로 운영 가능한 SLM은 단순 업무에, 오픈AI의 LLM은 복잡한 연계 서비스에 쓰이는 방식이다. 정 대표는 “GPU 중심 AI 인프라에 모든 걸 맡기는 방식은 비효율적일 수 있다”며 “우리는 실용성과 안전성을 동시에 추구한다”고 설명했다. 그러면서 “우리는 단순히 성능 경쟁을 벌이기보다 실용적인 접근을 통해 사용자 삶을 실질적으로 변화시키는 데 집중하고 있다”며, “AI 에이전트가 일상의 디지털 경험 방식을 바꿔놓을 것”이라고 강조했다.

2025.07.09 21:12안희정

코난테크놀로지, LLM 탑재 AI PC 조달청 '등록'…공공시장 '정조준'

코난테크놀로지가 자체 거대언어모델(LLM)을 탑재한 인공지능(AI) PC의 공공 조달 체계를 확보하며 시장 진입을 본격화했다. 온디바이스 생성형 AI 시스템을 전면에 내세운 만큼 공공기관 특화 요구를 정조준했다는 평가다. 코난테크놀로지는 TG삼보와 협력해 AI PC '코난 AI스테이션(AIStation)'을 조달청 나라장터 종합쇼핑몰에 공식 등록했다고 9일 밝혔다. 이에 따라 공공기관은 해당 장비를 별도 입찰 없이 조달청을 통해 직접 구매할 수 있게 됐다. 이 제품은 코난테크놀로지가 자체 개발한 한국어 특화 LLM을 탑재한 AI 내장형 PC다. 사양별로 보급형과 고급형 두 가지 모델로 등록됐으며 고급형에는 64기가바이트 '디디알5(DDR5)' 메모리와 엔비디아 '알티엑스 4070(RTX 4070)' 칩이 장착됐다. 실시간 문서 분석, 보고서 작성, 생성형 AI 기반 행정처리에 최적화된 구성이란 설명이다. 기기는 인터넷 연결 없이도 윈도우 환경에서 생성형 AI 기능을 실행할 수 있다. 모든 연산이 로컬에서 이뤄져 민감 정보의 외부 유출 위험을 원천 차단할 수 있도록 설계됐다. 이는 공공 업무 특성상 클라우드 기반 AI 사용에 제약이 있는 기관들에게 현실적인 대안이 될 수 있다. 코난테크놀로지와 TG삼보는 지난 5월 자사 행사에서 연간 40만 대 규모의 공공 조달 시장 공략 계획을 밝힌 바 있다. 이번 등록은 이 계획의 실질적 첫걸음으로, 조달 등록과 동시에 현장 영업 확대도 병행되고 있다. 영업은 TG삼보가 하드웨어 공급을, 코난테크놀로지가 LLM 기반 소프트웨어를 제공하는 구조다. TG삼보는 10여 년간 정부 납품 1위 자리를 지켜온 기업으로, 기존 공공 유통망을 활용한 빠른 확산이 가능할 것으로 보인다. 김영섬 코난테크놀로지 대표는 "생성형 AI 어플라이언스 판매 확대를 위한 첫걸음을 내디뎠다"며 "공공 시장 점유율을 끌어올리고 매출 성장에 박차를 가하겠다"고 밝혔다. 지승현 TG삼보 대표는 "이번 등록이 전국 공공기관 공급 확대의 전환점이 될 것"이라고 강조했다.

2025.07.09 15:04조이환

[기고] 가장 쉽고 빠르게 AI 서비스를 구축하는 방법, 문서중앙화

최근 '소버린 AI'에 대한 기업·정부·언론의 관심이 급격히 높아지고 있다. 관심의 본질은 데이터 주권(Data Sovereignty)에 있다. 인공지능(AI)이 신뢰할 수 있는 결과를 내기 위해서는 반드시 기업 고유의 데이터, 더 나아가 자국 경계 안에 존재하는 데이터를 기반으로 작동해야 한다는 공감대가 형성된 것이다. 실제 레퍼런스 구현 방식으로는 검색증강생성(RAG) 아키텍처가 가장 많이 거론된다. 대규모언어모델(LLM)이 자체 지식을 최소화하고 사내 문서를 검색해 응답을 생성하기 때문에 데이터 주권·보안 요구에 부합하기 때문이다. 그러나 현장의 목소리는 "첫 단추부터 막힌다"는 데 모아진다. 핵심 병목은 데이터 품질 확보다. 가트너는 AI 도입 성공을 위해 지속적인 데이터 정렬, 검증, 그리고 거버넌스를 핵심 요소로 제시한다. 많은 기업이 그 중요성을 인지하고 있음에도 불구하고 실제 실행이 어려운 이유는, 데이터 관리 체계를 처음부터 새로 구축하고 정의하는 작업이 어렵고 복잡하기 때문이다. 이로 인해 데이터 품질이 낮아지면 AI 학습에 사용할 수 있는 데이터 양이 부족해지고, 권한 관리 미흡이나 기밀 정보의 노출 위험, 결과의 신뢰성 부족 등 다양한 운영 리스크로 이어질 수 있다. 그런데 이러한 관리 체계가 이미 최적화된 형태로 제공되는 플랫폼이 존재한다. 바로 문서중앙화 플랫폼이다. 이 플랫폼은 파일의 수집부터 폐기까지 원시 데이터를 체계적으로 저장·관리할 수 있다. 이 플랫폼은 기업들이 겪는 데이터 관리의 어려움을 대부분 해결할 수 있다. 분산되고 파편화된 파일을 중앙 집중식으로 저장하고, 개인 중심의 저장 방식을 업무 중심의 분류 체계로 전환하며, 소유권·권한 관리, 파일의 이력과 버전 관리, 보안 정책 적용 및 메타정보의 구성까지 통합적으로 관리한다. 기업내의 비정형 데이터의 통합 스토리지 역할을 하고, 이 데이터 관리 체계와 권한 체계는 그대로 생성형 AI의 데이터 파이프라인과 연계될 수 있다. 결과적으로 문서 중앙화 플랫폼을 통해 지식화된 데이터는 자연스럽게 AI 처리 흐름으로 연결되어 자동으로 처리되며, 문서의 구조와 의미, 유사성 파악과 함께 보안 기준이 통합적으로 적용된다. 이를 통해 기업은 정보와 관리의 사각지대를 제거하고, AI 기반 서비스 운영에 필요한 신뢰성과 관리 효율성을 동시에 확보할 수 있게 된다 문서중앙화 플랫폼과 RAGOps의 통합은 3가지 핵심적인 특징을 제공한다. 첫 번째 "문서중앙화가 전처리의 시작점이자 AI의 기반이 된다" AI 서비스를 도입할 때 별도의 데이터 체계를 새로 구축하기보다, 기존의 문서중앙화 시스템을 데이터 기반으로 삼고 그 위에 AI를 접목하는 것이 핵심 전략이다. RAG옵스(Ops) 플랫폼을 기반으로, 데이터 파이프라인 자동화, 자연어 기반 검색, 요약, 회의록 생성 등 다양한 AI 서비스를 제공하며, 기존 문서중앙화에 AI 기능이 더해져 업무 효율성과 서비스 확장성이 크게 향상된다. 두 번째 "일관된 메타정보 체계를 통해 운영 가능한 AI를 만든다" AI가 안정적으로 운영되기 위해서는 데이터 운영체계와 AI 운영체계가 일관된 관리 기준을 공유해야 한다. 비정형 데이터만으로는 한계가 있으며, 이를 보완하는 표준화된 메타정보 체계가 필수적이다. 문서중앙화 플랫폼과 RAG옵스와 메타체계를 공유하며, 비정형 문서와 함께 메타 정보도 자동 연동·관리된다. 또한, 문서 의미 정보와 함께 등급·분류·관리 속성 등 메타정보까지 벡터화하여 저장함으로써, 검색 정확도와 생성 응답의 신뢰성을 크게 향상시키고, 운영 가능한 실용 AI로 발전시킨다. 세 번째, "RAG옵스 플랫폼을 통해 지속적인 개선과 확장이 보장된다" 문서중앙화 플랫폼의 AI 서비스는 RAG옵스 기반의 자동화된 AI 파이프라인을 통해 지속적으로 개선된다. 데이터 수집부터 임베딩, 검색, 생성까지 전 과정이 최적화되어 데이터 품질 향상에 기여하며, 평가 모델과 피드백 루프를 통해 응답 품질도 지속적으로 향상된다. 이를 통해 문서 기반 AI 시스템은 지속적인 발전과 운영 확장이 가능한 구조를 제공한다. 문서중앙화 플랫폼과 RAG옵스 플랫폼의 결합은 기업이 AI 시대의 복잡한 데이터 과제를 해결하고, AI의 진정한 잠재력을 안전하고 효율적으로 실현할 수 있는 견고한 기반을 제공한다. 인젠트의 도큐먼트(document) 플랫폼과 RAG옵스 결합은 이를 입증한다. AI를 빠르고 안전하게, 그리고 지속적으로 확장하려는 기업에게 문서중앙화는 가장 효율적이고 전략적인 선택지다. 기존 문서 자산을 체계적으로 관리하고 AI와 자연스럽게 연계함으로써, 데이터 기반 AI 서비스의 구현을 빠르고 효과적으로 가능하게 한다. 특히 RAG옵스 기반의 지속적인 개선 체계를 통해 AI 품질까지도 함께 진화할 수 있다는 점에서, 가장 실용적이고 전략적인 AI 도입 방식이라 할 수 있다.

2025.07.09 13:51박정권

KT '믿:음 2.0 Base', 한국어 AI 성능 평가서 국내 1위

KT가 한국적 AI를 표방하며 자체 개발한 '믿:음 2.0'이 한국어 LLM 성능 평가 플랫폼 호랑이(Horangi) 리더보드에서 국내 1위를 기록했다. KT는 지난 4일 공개한 믿:음 2.0 Base가 한국어 LLM 평가 지표 '호랑이 리더보드3'에서 파라미터 수 150억 개 미만의 국내 기업 개발 모델 가운데 종합 성능 1위를 기록했다고 밝혔다. 믿:음 2.0 Base의 종합 점수는 0.7197(▲범용 성능 0.7004 ▲응답 정렬 성능 0.739)로 전세계 동급 모델 중에서는 3위에 해당하는 우수한 성과다. 호랑이 리더보드는 글로벌 MLOps 기업 웨이트앤바이어스(W&B)가 주관하는 한국어 특화 LLM 평가 벤치마크다. 실제 한국어 환경에서의 범용적인 언어 이해력과 응답 안전성을 포함하는 정렬성(Alignment) 등 한국어 LLM의 실용적인 역량을 다면적으로 평가한다. 단편적인 지식을 묻는 질문에 대한 답변 정확성을 평가하는 기존 벤치마크와 달리 작문, 추론, 정보 추출 등 실생활 시나리오를 기반으로 평가해 모델의 실용적 능력을 평가하는 지표로 주목받고 있다. 특히 한국어 고유의 문맥, 표현, 사회적 맥락 등을 반영한 응답인지를 평가한다는 점에서 국내 시장에서의 실효성을 가늠하는 데 중요한 기준으로 꼽힌다. 평가 결과는 W&B가 운영하는 WanDB 플랫폼을 통해 투명하게 공개되어 누구나 직접 검증할 수 있다. KT는 이 성과로 믿:음 2.0이 국산 기술력 기반의 한국어 AI 모델로서 실질적 경쟁력을 갖추었음을 객관적으로 입증했다고 설명했. KT는 믿:음 2.0을 개발하며 한국의 정신과 생활방식, 지식과 사회적 맥락을 반영하여 한국에 가장 잘 맞는 AI로 학습시켰다. 무엇보다 믿:음 2.0은 외산 모델을 기반으로 단순 튜닝하는 방식이 아닌, 아키텍처 설계부터 데이터 구축, 학습까지 전 과정을 KT가 직접 수행하는 '프롬 스크래치(From scratch)' 방식으로 개발한 순수 자체 개발 모델이라는 점에서도 기술적 의미가 크다. 신동훈 KT Gen AI Lab장(CAIO)은 “믿:음 2.0을 국내 다양한 산업 분야에 적용해 '한국적 AI'의 시장 확산에 본격적으로 나설 것”이라며 “한국적 AI의 실용화와 기술 발전을 이끄는 핵심 주체로 자리매김하겠다”고 말했다. 한편, KT는 믿:음 2.0 기반의 맞춤형 B2B AI 솔루션을 산업 전반에 제공하고 공공, 금융, 교육, 법률 분야에서 실증을 추진한다. 현재 공개된 버전에서 성능을 더 높인 믿:음 2.0 Pro 공개도 준비하고 있다. 믿:음 2.0의 추론, 멀티모달 기능 확장과 함께 국산 AI 반도체 기업 리벨리온과의 협력을 통한 AI 생태계 강화 등도 계획 중이다.

2025.07.09 12:25박수형

이스트소프트, AI 검색 '앨런' 구독제 도입…LLM 서비스 수익화 시동

국가대표 인공지능(AI) 모델 기업에 도전하는 이스트소프트가 구독형 서비스를 출시하며 수익 모델 구축에 속도를 낸다. 이스트소프트는 AI 검색 엔진 서비스 '앨런'에 구독 서비스를 새롭게 도입하며 자체 개발한 거대언어모델(LLM)을 기반으로 본격적인 수익화에 나선다고 7일 밝혔다. 이번 구독 서비스 출시를 통해 이스트소프트는 자체 개발한 앨런 LLM을 기반으로 검색에 특화된 에이전틱 AI 서비스를 제공하며 수익 모델을 구축해 간다는 전략이다. 구독 서비스 출시에 따라 앨런은 월 1만9천900원의 '프로 플랜'과 무료 서비스인 '프리 플랜'을 제공하기 시작한다. 아울러 서비스 출시를 기념해 프로 플랜을 월 1만4천900원에 이용할 수 있는 프로모션도 한시적으로 진행한다. 프로 플랜은 앨런에서 제공하는 AI 검색을 비롯해 유튜브 요약 기능을 제약 없이 사용할 수 있다. 특히 심층 보고서를 생성해 주는 고급 기능인 딥 리서치는 사용자가 충분히 활용할 수 있도록 더 많은 사용량을 지원한다. 이와 함께 다양한 글로벌 LLM을 사용하는 옵션도 제공한다. 프리 플랜에서도 앨런의 모든 기능을 체험할 수 있다. 단 일일 사용량에 제한이 있다. 이스트소프트는 앨런의 서비스가 연속성을 가진 다각적인 검색 행위를 지원하기에 많은 이용자가 구독 서비스로 전환할 것으로 기대하고 있다. 앞서 이스트소프트는 지난 6월 자체 개발 모델 앨런 LLM을 정식 출시했다. 당시 파라미터 2천억 개 이상 수준의 초거대 모델과 경량 모델을 출시했고 이후 경량 모델 공급 계약을 빠르게 체결하며 사업화에 속도를 내고 있다. 정상원 이스트소프트 대표는 "구독 서비스 출시는 자체 LLM 기술 경쟁력을 바탕으로 앨런 서비스를 수익 모델로 전환하는 첫걸음"이라며 "앞으로도 자체 모델 고도화와 최적화를 지속해 한국형 AI 검색 엔진을 대표하는 서비스로 앨런이 자리매김할 수 있게 하겠다"고 말했다.

2025.07.07 10:55한정호

[유미's 픽] 알리바바 큐원 탑재한 SKT '에이닷엑스 4.0'…藥일까 毒일까

"2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수입니다. 한국 데이터는 해외로 유출되지 않습니다." 지난 달 19일 기자간담회를 통해 이처럼 강조했던 알리바바 클라우드가 자사 인공지능(AI) 모델 '큐원'을 앞세워 SK텔레콤을 등에 업고 국내 시장 공략에 본격 나섰다. 올 초 오픈AI를 긴장하게 만든 딥시크에 이어 알리바바 '큐원'까지 영역 확장에 속도를 높이고 있지만, 중국 기업의 데이터 유출 우려 때문에 국내 시장에 제대로 안착할 수 있을지 주목된다. 6일 업계에 따르면 SK텔레콤이 지난 3일 공개한 AI 모델 '에이닷엑스 4.0'에는 알리바바의 오픈소스 거대언어모델(LLM)인 '큐원 2.5'가 적용된 것으로 파악됐다. 한국어에 맞게 SKT가 개량한 '에이닷엑스 4.0'은 특정 산업에 최적화된 '버티컬 AI 서비스'를 만든다는 목표로 만들어진 LLM으로, 오픈소스 커뮤니티 허깅페이스를 통해 A.X 4.0의 표준 모델과 경량 모델 2종이 공개됐다. 표준 모델은 720억개(72B), 경량 모델은 70억개(7B)의 매개변수를 갖추고 있다. 하지만 중국 기업의 AI 모델을 활용했다는 점에서 국외 정보 유출에 대한 의구심도 나오고 있다. SKT가 개인정보보호정책에 ▲이용자의 메시지나 답변은 저장하지 않는다 ▲이용자의 쿠키를 수집·저장하지 않는다 ▲기술적 보안과 프라이버시 보호를 위해 노력하겠다 등의 문구를 삽입하며 대응에 나섰지만, 우려를 불식시키기엔 미흡한 조치라는 평가가 나오고 있다. 특히 SKT를 활용하는 이용자들 사이에서 볼멘 소리가 나오고 있다. 누리꾼들은 "소식을 접하고 '에이닷' 어플을 바로 삭제했다", "중국산 AI 모델에 한국어를 학습시켰다고?", "중국 묻은 SKT, 빨리 탈출해야겠다" 등의 부정적인 반응을 내놓으며 실망감을 감추지 않았다. 업계 관계자는 "SKT가 유심 해킹 사건으로 고객들의 많은 신뢰를 잃은 상황에서 굳이 이미지가 좋지 않은 중국 AI 모델을 기반으로 파인튜닝 했다는 사실을 적극 알리는 것이 과연 득이 될 지 모르겠다"며 "한국어를 자체 데이터로 학습해 잘한다는 점을 내세우고 있지만 현 시점에서 이를 내놓은 것이 도움될 것 같진 않다"고 지적했다. 하지만 SKT는 'A.X 4.0'을 온프레미스(내부 구축형) 방식으로 제공하는 만큼, 기업 내부 서버에 직접 설치해 사용할 수 있어 데이터 보안에서 강점을 지녔다는 점을 적극 강조했다. 알리바바 클라우드 역시 지난 달 기자 간담회를 통해 중국계 기업에 대한 우려를 의식한 듯 보안과 컴플라이언스를 핵심 가치로 내세우며 '신뢰 받는 글로벌 파트너'로의 입지를 국내에서도 강화하겠다고 강조했다. 또 국내 투자 계획을 밝히며 사업 확장에 대한 의지도 내비쳤다. 알리바바 클라우드는 지난 2016년 국내 시장에 진출한 후 2022년 3월 국내 첫 데이터센터를 구축하고, 지난 달 서울에 또 다른 데이터센터를 가동한 상태다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 말했다. 이를 기반으로 알리바바는 고객사들이 '큐원' 중심의 AI 오픈소스 생태계를 활성화하길 원했다. 또 SKT 외에도 자사 AI 모델을 활용한 사례를 공개하며 협업 확대에 대한 의지를 다졌다. 대표적인 곳이 AI 솔루션 기업 유니바다. 이곳은 알리바바 클라우드의 큐원 모델을 활용해 비용은 30% 절감하면서 한국어 처리 정확도를 45%에서 95%까지 끌어올린 에이전트 AI를 공개했다. 네이버 '스노우'는 알리바바 클라우드의 비디오 생성 모델 '완(Wan)'을 기반으로 중국 시장에서 개인화된 이미지 스타일링 기능을 제공 중이다. 라라스테이션은 알리바바 클라우드와 손잡고 글로벌 라이브 스트리밍 플랫폼을 개발해 동남아 시장으로 비즈니스를 확장하는 데 성공했다. 또 국내 시장 확대를 위해 메가존소프트·이테크시스템과도 협력 중이다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "메가존소프트와 이테크시스템 외에 공개할 수는 없지만 대기업군 SI(시스템통합) 업체들도 파트너 에코에 이미 합류해 있다"고 밝혔다. 업계에선 '큐원'이 페이스북 모기업인 메타플랫폼의 '라마(LLaMA)'와 중국 딥시크 'R1' 모델을 제치고 사실상 전 세계 LLM 생태계에서 가장 빠르게 영향력을 키우고 있다는 점에서 SKT와 알리바바의 협업을 부정적으로만 봐선 안된다는 평가도 있다. 실제 '큐원' 모델은 현재 전 세계적으로 3억 건 이상 다운로드됐고 13만 개 이상의 파생 모델이 생성된 것으로 알려졌다. 특히 최신 모델 '큐원3-8B'의 지난 달 다운로드 수는 메타의 '라마-3.1-8B'를 거의 2배 앞섰다는 점에서 주목 받았다. 딥시크의 'R1' 시리즈 중 가장 인기 있는 최신 모델 '딥시크-R1-0528'에 비해서는 약 10배 많았다. 업계 관계자는 "큐원은 한국어 처리 능력과 온프레미스 버전에서 최적화가 가능해 산업별 맞춤형으로 튜닝을 거쳐 기업 차원으로 빠르게 확산되며 국내에서 존재감을 키우고 있다"며 "민간 데이터를 다루는 공공·금융에서도 온프레미스로 튜닝해 개발하거나 중소기업과 스타트업에서도 다양하게 튜닝하고 있다"고 말했다. 그러면서 "딥시크에 이어 큐원까지 중국 AI가 국내 산업 기반을 빠르게 장악할 것으로 예상된다"며 "향후 국내 기업 기술 완성도가 높아지더라도 기존 기술 장벽과 가격 등에서 후순위로 밀려날 가능성이 높다는 점에서 중국 AI 생태계에 종속될 것이란 우려도 높아지고 있다"고 덧붙였다.

2025.07.06 09:00장유미

챗GPT가 우주선 조종하는 날 올까

인공지능(AI) 모델을 훈련시켜 우주선을 조정할 수 있다는 연구결과가 나왔다고 과학전문매체 라이브사이언스가 최근 보도했다. 연구진들은 오랫동안 위성 제어 및 우주선 항법을 위한 자율 시스템 개발에 관심을 가져왔다. 앞으로는 우주에는 위성이 너무 많아 인간이 직접 조종하기 어렵고 속도 제한으로 심우주 탐사의 경우 우주인이 직접 조종할 수 없기 때문이다. 국제 연구진은 우주 비행 시뮬레이션 게임 '커벌 스페이스 프로그램(Kerbal Space Program)'을 기반으로 자율 우주선 게임 챌린지 프로그램을 개발해 다양한 컴퓨터 모델들이 위성 추적이나 요격, 탐지 회피 임무 등 여러 시나리오로 우주선을 조정하도록 했다. 연구진은 국제저널 '우주 연구의 발전'(Advances in Space Research)에 연구 결과를 실었다. 자율 우주선 시뮬레이션 대회에서 대규모언어모델(LLM)은 2위를 차지하는 훌륭한 성과를 거뒀다. 연구원들은 자율 시스템 개발에 LLM을 사용하기로 결정한 후 우주선의 상태와 목표를 텍스트 형태로 변환해 이를 LLM에 전달하고 우주선의 방향과 기동 방법에 대해 추천해 줄 것을 요청했다. 그 다음 LLM가 내놓은 텍스트 기반 출력을 시뮬레이션 된 우주선을 작동할 수 있는 기능 코드로 변환하는 변환 계층을 개발해 인공지능(AI)가 우주선을 조종할 수 있도록 했다. 연구진은 몇 가지 간단한 질문과 미세 조정을 거쳐 챗GPT가 이 챌린지 프로그램의 여러 테스트를 완료할 수 있었다고 밝혔다. 논문에 따르면 1위는 다양한 방정식을 기반으로 한 모델이 차지했다. 해당 매체는 아직 환각 문제 등 AI가 보완해야 할 점은 많으나 기성 LLM이 방대한 양의 인간 지식을 소화한 뒤 예상치 못한 방식으로 활용될 수 있다는 것을 보여준다고 평했다.

2025.07.05 07:43이정현

새정부 독자AI 구축 의지...통신사, 자체 AI 모델 공개

국내 기업 가운데 인공지능(AI) 분야에 가장 큰 규모의 투자를 이어가는 통신업계가 정부의 독자 AI 파운데이션 모델 프로젝트에 본격적으로 뛰어들었다. 새 정부가 독자적인 AI 모델 육성 계획을 분명히 하면서 자체 개발 거대언어모델(LLM)을 잇따라 선보였다. 3일 KT는 온라인 기자간담회를 열어 자체 개발한 LLM '믿음' 2.0을 오픈소스로 공개한다고 밝혔다. 115억 개의 파라미터 값을 가진 국산 LLM 모델로 한국 문화와 예의범절을 이해할 수 있도록 학습시켜 가장 한국적인 AI라는 점을 내세웠다. 이날 SK텔레콤도 에이닷엑스(A.X) 4.0을 공개하며 파라미터 720억 개의 대형모델로 현존 LLM 가운데 최상급의 한국어 처리 효율성과 국내 비즈니스 환경에 최적화된 성능을 강조했다. 두 회사가 같은 날 자체 개발 LLM을 오픈소스로 공개하고 나선 점이 눈에 띄는 부분이다. 국내 여러 AI 모델 개발 기업들이 정부가 선발할 AI 정예팀에 들려고 하는 가운데, 오랫동안 AI 투자를 집중해온 통신사들이 그간의 개발 성과를 선제적으로 선보이며 기술력 과시에 나선 것으로 풀이된다. 정부가 오는 21일까지 AI 파운데이션 모델 개발 사업 공모 접수를 진행하는데 이 프로젝트는 AI 모델 개발 정예팀을 꾸려 정부가 가진 데이터와 GPU 등의 핵심 인프라를 지원받게 된다. 양사 모두 이 기회를 놓치지 않겠다는 의지가 분명하다. 두 통신사의 움직임은 단순한 정부 지원 외에 향후 AI 사업 확장을 위한 경영진의 뜻이 크게 반영됐다. 정부가 선정하는 AI 정예팀에 뽑히면 이들이 개발한 모델은 공공사업에 먼저 쓰일 가능성이 높은데, 관련 시장을 선점하겠다는 판단이 깔려있다는 설명이다. 통신업계 한 관계자는 “국내 산업계에서 AI 투자를 선제적으로 나선 곳이 통신업종이나 그간의 연구개발 노력과 투자 비용을 고려하면 내부적으로는 성과를 내야 한다는 주문이 강하게 이어지고 있다”며 “기간통신사로서 국가 네트워크 인프라 투자에 이어 앞으로는 AI 인프라 투자에 나서야 하는 만큼 AI 정예팀 선발과 공공사업 등을 가벼이 볼 수 없는 상황”이라고 말했다.

2025.07.03 18:02박수형

"챗GPT보다 싸고 빠르다"…라이너, 검색 LLM으로 AI 검색 시장 '정조준'

라이너가 '챗GPT'보다 정확하고 비용 효율적인 자체 검색 인공지능(AI) 성능을 공개했다. 핵심은 리서치에 최적화된 검색 결과를 신속히 제공하는 구조와 이를 뒷받침하는 데이터 기반 학습 역량이다. 라이너는 자사 '라이너 검색 LLM'이 AI 검색 컴포넌트 성능 비교 평가에서 오픈AI 'GPT-4.1'보다 우수한 결과를 기록했다고 3일 밝혔다. 이번 모델은 기존 오픈 소스 기반 구조 위에 10여 년간 축적한 방대한 사용자 데이터를 사후 학습 방식으로 적용해 정확도와 처리 속도를 높였다. 토큰당 비용도 평균 30~50% 절감한 것으로 나타났다. '라이너 검색 LLM'은 질문 분석부터 답변 생성까지 검색형 에이전트의 전 과정을 처리하는 데 필요한 8개 컴포넌트를 통합 구성한 모델이다. 이 중 카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 컴포넌트는 성능·속도·비용 전 항목에서 'GPT-4.1'을 상회했다. 특히 실제 서비스 환경에서 재현성과 신뢰성을 기반으로 성능을 측정한 점이 주목된다. 단순 벤치마크 수치가 아니라 실사용 기반 결과를 중심으로 비용·속도·정확도의 균형을 검증한 구조다. 이로 인해 기존 대형 모델 대비 가볍고 빠른 검색형 LLM 구현이 가능해졌다는 평가다. 라이너는 수년간 테스트와 개선을 반복하며 LLM 학습 구조를 고도화해 왔다. 자사 사용자 데이터를 활용한 정밀 학습을 통해 질문 처리 구조를 체계화하고 할루시네이션 가능성을 줄이는 방향으로 검색 정확도를 끌어올렸다는 설명이다. 검색 LLM의 비용 경쟁력 역시 차별점으로 꼽힌다. 'GPT-4.1' 대비 평균 30~50% 낮은 토큰당 처리 비용으로, 대규모 트래픽이 발생하는 검색형 에이전트 환경에서도 운영 효율성과 수익성 확보가 가능하다는 계산이다. 조현석 라이너 테크 리드는 "'라이너 검색 LLM'은 8가지 모든 컴포넌트에서 '챗GPT'를 뛰어넘는 성능을 입증했다"며 "어떤 데이터를 어떻게 학습하고 어떤 구조로 질문을 처리하느냐가 AI 할루시네이션을 줄이는 핵심"이라고 밝혔다. 이어 "데이터 학습과 연구 개발에 꾸준히 집중해 온 노력이 차별화된 AI 에이전트 기술 경쟁력으로 이어졌다는 점에서 의미가 크다"고 말했다.

2025.07.03 16:56조이환

KT "정부 독자 AI모델 프로젝트 참여...한국적 AI 자체개발"

KT가 한국어에 최적화된 대규모 언어모델(LLM) '믿:음 2.0'을 공개하고, 오픈소스 생태계 확장과 정부 AI 프로젝트 참여 의지를 밝혔다. KT는 3일 진행된 온라인 브리핑에서 한국적 가치와 문화, 언어 특성을 반영한 '믿음 2.0'을 공개하고, B2B 활용 중심의 한국형 AI 전략을 설명했다. 신동훈 KT Gen Al 랩장은 “KT는 AI의 모든 영역에 데이터 주권, 사용자 선택권, 한국적 가치, 책임 있는 운영이라는 네 가지 원칙을 담고자 한다”며 “믿:음 2.0은 이러한 소버린 AI 철학을 바탕으로 개발된 첫 모델”이라고 말했다. 이어, “KT의 AI 철학과 방향이 맞기 때문에 독자 AI 파운데이션 모델 프로젝트에 참여하려고 준비하고 있다”며 “지난 1년간 한국적인 가치와 문화를 담아내기 위해 데이터얼라이언스와 노력·구축한 모델은 독자적 AI 구축에 큰 강점이라 생각한다”고 밝혔다. 이번에 공개된 '믿:음 2.0'은 한국어 표현과 문맥에 특화된 LLM으로 ▲문서 기반 검색(QA) ▲보고서 요약 및 작성 ▲툴 호출 등 기업 환경에서 자주 쓰이는 업무에 맞춰 최적화했다. 특히 한국어에 맞춰 문장을 잘게 나누는 전용 도구(토크나이저)와 분야(도메인)별로 정리된 고품질 데이터를 함께 적용해 한국의 말투와 문화, 감정 표현까지 자연스럽게 이해할 수 있도록 설계됐다. KT는 믿:음 2.0을 경량형 '미니'와 중간급 '베이스' 모델로 나눠 공개하며, 누구나 자유롭게 상업용으로도 활용할 수 있도록 MIT 라이선스를 적용했다. 대형 모델인 '프로'는 향후 단계적으로 공개될 예정이다. 모든 모델은 KT의 자체 기술로 처음부터 끝까지 독자적으로 학습된 것이 특징이다. 아울러 정부가 추진 중인 '독자 AI 파운데이션 모델' 구축 사업에도 참여할 계획이다. 오픈소스 LLM 생태계 확대와 동시에 공공·금융 등 다양한 산업 분야에 맞춤형 솔루션을 제공하며 AI 활용 저변을 넓히겠다는 전략이다. 신 상무는 “한국형 AI 모델 개발에 가장 중요한 것은 양질의 한국어 데이터”라며 “KT는 'K-데이터 얼라이언스'를 통해 각 분야 대표 기업·기관과 협력하며 국내 최고 수준의 데이터를 확보하고 있다”고 말했다. 이어 “공공 문서 등 고품질 국가 데이터가 AI 학습에 활용될 수 있도록 제도적 지원도 필요하다”고 덧붙였다. 또한 KT는 믿:음 2.0의 핵심 경쟁력 중 하나인 'K-데이터 얼라이언스'의 세부 내용도 이달 중순 공개할 예정이다. 오승필 KT CTO는 “얼라이언스를 통해 어떤 기업들이 참여했고, 어떤 종류의 데이터가 모였는지 등 구체적인 내용은 7월 중순에 설명할 계획”이라며 “양질의 한국어 데이터를 함께 만들고 공유하는 생태계 조성이 앞으로 한국형 AI 경쟁력을 좌우할 것”이라고 밝혔다. KT는 현재 마이크로소프트(MS)와의 협업을 통해 GPT 기반 한국형 AI 모델도 개발 중이다. 다만, 자체 기술로 개발한 '믿음' 시리즈는 KT가 장기적으로 확보해야 할 'AI 기술 자립'의 상징이라는 점에서 전략적으로 분리해 운용된다는 입장이다.

2025.07.03 12:06진성우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 美 반도체 관세 여부 주목…23일부터 한일 정상회담

통신사가 직접 'AI 스마트폰' 만들어 판다

이재명 대통령 "AI 혁신에만 전념할 환경 만들겠다"

'GPT-5' 황당 답변, 인력 유출 때문?…'위기' 오픈AI, 특단 대책 마련 급급

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.