• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (346건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[SW키트] "AI가 고른 사이트만 생존"…'콘텐츠 노출 전쟁' 시작

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 인공지능(AI) 검색엔진 등장으로 마케터 등 웹사이트 운영자들이 분주해졌다. AI가 생성한 답변 출처에 브랜드 콘텐츠가 우선 배치되도록 만드는 것이 새 과제로 떠올랐기 때문이다. 12일 IT 업계에 따르면 챗GPT 같은 AI 챗봇이나 AI 기반 검색엔진이 등장하면서 검색 결과에 웹사이트나 특정 콘텐츠 노출도를 높이는 솔루션 산업이 증가할 것이란 전망이 나왔다. 그동안 구글이 글로벌 검색엔진 점유율 1위를 유지하면서 광고 핵심 채널이자 관문 역할을 해왔다. 그러나 챗봇과 AI 검색엔진 출현 후 이런 패러다임은 바뀌고 있다는 의견이 지배적이다. 전문가들은 앞으로 브랜드·웹사이트 운영 전략 핵심이 '검색 상단 노출'에서 'AI가 선택하는 콘텐츠로 보이게 하는 것'으로 이동할 것으로 보고 있다. 현재 AI 검색 시장에 진입하려는 기업들 움직임부터 빨라지고 있다. 최근 퍼플렉시티와 오픈AI는 AI 기반 웹브라우저와 검색엔진 출시를 통해 새 검색 생태계를 예고했다. 우선 퍼플렉시티는 검색뿐 아니라 행동까지 AI로 실행하는 웹브라우저 '코멧'을 이달 정식 출시했다. 이 브라우저는 맥스 요금제 구독자와 일부 대기자에게만 우선 제공된다. 추후 일반 사용자에게도 단계적으로 확대될 예정이다. 코멧은 사용자가 링크를 직접 확인하지 않아도 대화 한 줄로 원하는 결과를 얻을 수 있도록 설계됐다. 이메일 작성부터 캘린더 예약, 상품 주문 등 일상 업무를 자연어 명령으로 실행할 수 있다. 사용자 습관에 따라 쌓인 탭을 학습해 맥락 기반의 인터페이스를 제공한다. 오픈AI도 AI 기반 웹브라우저 출시를 앞둔 것으로 전해졌다. 이 브라우저는 챗GPT와 유사한 대화형 인터페이스 중심으로 정보를 찾는 식이다. 사용자는 검색 결과를 클릭하지 않아도 브라우저 내에서 질문과 답변을 주고받으며 필요한 정보를 얻을 수 있다. "노출 빈도 분석·제안"…어도비, 'LLM 옵티마이저'로 공략 AI 검색 결과에 웹사이트 노출 빈도나 상태를 분석·관리할 수 있는 서비스도 등장했다. 대표 서비스는 지난달 출시된 어도비의 'LLM 옵티마이저'다. LLM 옵티마이저는 챗GPT와 제미나이, 클로드 등 다양한 생성형 AI 도구 전반에서 브랜드 성과를 들여다볼 수 있는 창구 역할을 한다. 마케터 담당자는 LLM 옵티마이저로 AI 검색 결과에 브랜드 웹사이트 노출 빈도나 개선 사항을 확인 할 수 있다. 콘텐츠 게시 전략을 신속히 조정해 브랜드의 AI 검색 노출 빈도를 높일 수 있는 식이다. 예를 들어 마케터는 콘텐츠나 웹사이트 링크가 어떤 LLM의 사용자 질의 응답 결과에 포함됐는지 알 수 있다. 이를 통해 브랜드가 AI 챗봇이나 AI 검색 엔진에 어떤 방식으로 더 잘 등장하는지 인사이트를 얻을 수 있다. 고객들이 어떤 질문을 통해 브랜드 콘텐츠를 접하는지까지 파악할 수 있다. LLM 옵티마이저 플랫폼에는 '추천 엔진'도 탑재됐다. 이 엔진은 생성형 AI 응답을 지속 모니터링함으로써 브랜드 노출도를 올리기 위한 콘텐츠 조정 사항을 사용자에게 실시간 제안한다. 사용자는 클릭 한번으로 추천된 변경 사항을 승인하기만 하면 된다. 이에 시간과 인력 많이 드는 웹 개발 작업까지 대체 가능하다. 어도비는 "생성형 AI는 고객과 브랜드 간 인식과 대화, 구매 전환 핵심 도구로 자리잡았다"며 "LLM 옵티마이저는 기업이 변화하는 환경에서 주도권을 유지하고 성공 확률을 높이는 데 도움 줄 것"이라고 강조했다. 클라우드플레어, AI 챗봇·웹사이트 접근 관리한다 챗봇·AI 검색엔진과 웹브라우저 간 생태계 활성화를 위한 노력도 이어지고 있다. AI 챗봇이 웹사이트 데이터 무단 접근·수집을 막기 위한 마켓플레이스까지 등장했다. 클라우드플레어는 AI 크롤러의 웹사이트 접근을 차단·유료화하는 '페이 퍼 크롤(Pay per Crawl)' 마켓플레이스를 비공개 베타 형태로 공개했다. 마켓은 AI 챗봇이 웹사이트에 무단 접속해 정보를 무단으로 긁어가는 것을 방지하기 위해 등장했다. 클라우드플레어는 두 가지 방식으로 AI 크롤러를 통제할 방침이다. 우선 웹사이트가 AI 크롤러 접근을 원천 차단하는 기능이다. AI 크롤러가 웹사이트 자체에 접속조차 할 수 없게 만드는 식이다. 다른 하나는 크롤러가 웹사이트에 접근할 경우 소액결제를 통해 요금을 청구하는 시스템이다. AI 챗봇 기업이 웹사이트의 콘텐츠를 긁어갈 때마다 일정 금액을 지불하고, 해당 금액은 수수료를 제외한 뒤 웹사이트 운영자에게 전달되는 방식이다. 웹사이트 운영자는 크롤링 목적이 AI 학습용인지 또는 검색 응답용인지 등 기타 목적에 따라 접근 허용 여부나 과금 조건을 다르게 설정할 수 있다. 해당 정책은 클라우드플레어에 도메인을 등록한 고객 한해서만 적용된다. 현재 클라우드플레어는 AI 크롤러 고객사로 타임과 애틀랜틱, 포춘, 콘데나스트, 애드워크 등을 확보했다. 해당 매체는 AI 크롤러 전면 차단을 기본 설정으로 적용한 상태다. 매슈 프린스 클라우드플레어 최고경영자(CEO)는 "대형 언론사부터 중소 자영업자까지 모든 웹사이트 운영자가 AI 크롤러로부터 콘텐츠를 보호할 수 있게 조치할 것"이라고 강조했다.

2025.07.12 06:40김미정

[AI는 지금] "국가대표 AI에 사활 건다"...선발전 앞두고 新 LLM 쏟아지는 이유는?

정부의 '독자 AI 파운데이션 모델' 프로젝트 공모가 오는 21일 마감되는 가운데 국내 주요 빅테크와 인공지능(AI) 스타트업들이 일제히 차세대 거대언어모델(LLM)을 선보이며 기술 경쟁에 불을 지폈다. 11일 업계에 따르면 '독자 AI 파운데이션 모델' 프로젝트는 최대 5개 AI 기업을 선정해 연간 100억원 규모 이상의 그래픽처리장치(GPU), 데이터, 인재 유치 비용 등을 지원하고 6개월 단위 경쟁을 거쳐 최종 모델을 압축하는 서바이벌 방식으로 진행된다. 이같은 상황 속에서 대기업, 통신사, 스타트업을 망라한 등 주요 AI 기업들이 새로운 LLM을 공개하며 출사표를 던졌다. 국가대표 AI 경쟁 뛰어든 기업들…핵심 모델과 전략은? SK텔레콤은 11일 오픈소스 커뮤니티를 통해 자체 개발한 경량 LLM '에이닷엑스 3.1 라이트(A.X 3.1 lite)'를 공개했다. 70억 파라미터 규모의 이 모델은 설계부터 학습까지 전 과정이 자체 기술로 제작된 '프롬 스크래치' 방식임을 강조했다. 이달 중에는 340억 파라미터의 중형 모델도 추가 공개하며 기술력을 과시할 예정이다. 김태윤 SK텔레콤 담당은 "꾸준히 쌓아 온 한국형 LLM 개발 역량을 바탕으로 AI 생태계 자립성을 높이겠다"고 말했다. 업스테이지는 지난 10일 310억 파라미터 규모의 '솔라 프로 2(Solar Pro 2)'를 출시하며 추론형 AI 시장에 본격적으로 진입했다. 질의응답용 '챗 모드'와 논리적 사고 기반의 '추론 모드'를 전환하는 하이브리드 방식이 특징으로, 실무 작업을 자율 수행하는 에이전트 구조까지 갖춰 글로벌 최상위 모델과 경쟁하겠다는 포부를 밝혔다. 김성훈 업스테이지 대표는 "자체 기술로 구현한 LLM으로 업무 방식을 근본적으로 혁신할 것"이라고 말했다. 같은 날 LG CNS도 캐나다 코히어(Cohere)와 협력해 개발한 1천110억 파라미터의 초대형 추론형 LLM을 선보였다. 초대형 규모임에도 2장의 GPU로 구동 가능한 고압축 기술을 핵심 경쟁력으로 내세웠다. 다만 LG CNS는 정부 프로젝트 직접 참여 여부를 밝히지는 않은 상태다. KT 역시 지난 3일 자체 개발한 '믿음 2.0' LLM을 오픈소스로 공개하며 '한국적 AI' 개발을 기치로 내걸었다. '믿음 2.0'은 법률, 특허 등 양질의 한국어 데이터를 학습하고 자체 토크나이저를 적용한 '토종 AI'임을 강조하며 115억 파라미터 '베이스' 모델과 23억 파라미터 '미니' 모델 2종을 선보였다. 신동훈 KT 젠AI랩장은 기술 자립에 대해 "기간통신사업자로서 생성형 AI 원천기술을 반드시 확보해야 한다"고 강조했다. 이외에도 네이버는 지난달 30일 멀티모달 추론 기능을 강화한 '하이퍼클로바X 씽크'를, 이스트소프트는 지난달 17일 검색증강생성(RAG)에 특화된 '앨런 LLM'을 출시하며 경쟁에 가세했다. 이같이 지난달부터 기술 발표가 집중된 가운데 AI 주도권 확보를 위한 물밑 경쟁은 그 이전부터 치열하게 이어져 왔다. 코난테크놀로지는 지난 3월 추론 기능을 통합한 320억 파라미터 모델 '코난 LLM ENT-11'을 출시하며 효율적인 코딩 성능을 과시했다. 솔트룩스 역시 지난 5월 복잡한 질문에 깊게 사고하는 320억 파라미터의 '루시아 3'를 선보이며 독자 기술력을 입증했다. LG그룹의 AI 개발을 주도하는 LG AI연구원의 행보도 주목된다. 지난 3월 추론 특화 모델 '엑사원 딥'을 선보인 데 이어 오는 22일에는 이를 통합한 차세대 모델 '엑사원 4.0' 공개 행사를 예고했다. 프로젝트 신청 마감 직전에 기술력의 정점을 보여주려는 핵심적인 전략적 포석으로 풀이된다. 게임업계와 신흥 스타트업의 도전도 거세다. 엔씨소프트의 AI 전문 자회사 NC AI는 지난해 자체 개발 '바르코 LLM'을 오픈소스로 공개하며 콘텐츠 생성 분야의 기술력을 선보였던 바 있다. 네이버클라우드 AI 연구자 출신의 신재민 대표가 설립한 트릴리온랩스 역시 한국어에 특화된 210억 파라미터 모델을 이르면 이번주 내에 공개할 예정으로, 정부 프로젝트 참여 의사를 분명히 하고 있다. K-LLM 쏟아지는 진짜 이유…"기술 증명 넘어 미래 표준 본다" 업계에서는 이같이 AI 기업들이 일제히 신기술을 공개하며 프로젝트에 사활을 거는 이유 중 하나를 '증명'에 있다고 본다. 프로젝트 참여 의사를 알리는 신호를 넘어 심사 과정에서 가장 중요한 평가 요소인 '독자 기술력'을 시장과 정부에 선제적으로 증명하려는 의도라는 것이다. 장기적으로는 정부가 내건 '전 국민 AI' 시대의 표준 모델이 되겠다는 보다 큰 야망도 깔려 있다. 프로젝트의 최종 승자는 '모두의 AI' 등 향후 공공 및 정부 시스템에 도입될 AI의 표준을 선점해 막대한 후속 사업 기회를 거머쥘 수 있기 때문이다. 동시에 연간 수백억 원에 달하는 GPU·데이터·인재 등 파격적인 지원을 통해 단숨에 글로벌 수준으로 도약할 수 있다는 현실적인 목표 역시 중요한 동기다. 한 업계 이익단체 관계자는 "이번 프로젝트에는 LLM 기업뿐만 아니라 AI 서비스 기업들도 콘소시엄 형태로 사활을 걸고 뛰어들고 있다"며 "이는 '독자 파운데이션' 사업이 단순히 개발에만 집중된 것이 아니라 실제 수요로도 이어지기 때문"이라고 평가했다. 이번 기술 경쟁은 최근 국내 LLM의 발전 방향을 명확히 보여준다는 점에서도 의미가 깊다. 단순히 패러미터 크기를 늘리던 양적 경쟁에서 벗어나 복잡한 문제를 논리적으로 해결하는 '추론(Reasoning)', 스스로 도구를 사용해 과업을 완수하는 '에이전트(Agent)', 텍스트와 이미지를 함께 이해하는 '멀티모달(Multimodal)' 기능이 핵심 화두로 떠올랐기 때문이다. 한 업계 전문가는 "개발자들 사이에서도 이제는 LLM 벤치마크 점수가 실제 성능을 온전히 대변하지 못한다는 공감대가 형성되고 있다"며 "결국 해외 선도 기업들처럼 실제 비즈니스 문제를 해결할 수 있는 추론 능력과 에이전트 구현 가능성이 기술력의 새로운 척도가 되고 있는 상황"이라고 설명했다.

2025.07.11 17:19조이환

[유미's 픽] 韓 대표 AI 선발전, '프롬 스크래치'가 핵심…컨소시엄 신경전 '치열'

글로벌 톱 수준의 거대언어모델(LLM)을 만들 '인공지능(AI) 국가대표 정예팀' 선발전이 본격화된 가운데 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준으로 지목되고 있다. 외국 LLM을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 10일 업계에 따르면 과학기술정보통신부가 추진하고 있는 '독자 AI 파운데이션 모델 개발 지원 사업'에 선정된 컨소시엄은 ▲새로운 자체 아키텍처를 설계하고 독자적 학습 알고리즘·기법을 적용해 AI 모델을 처음부터 개발하거나 ▲이미 갖고 있는 AI 파운데이션 모델을 추가 학습을 통해 고도화해도 된다. 하지만 최근 선보인 SK텔레콤의 '에이닷 엑스 4.0'처럼 해외 업체 AI 모델을 활용하면 안된다. '에이닷 엑스 4.0'은 중국 알리바바의 AI 모델 '큐원2.5'에 한국어 데이터를 추가로 학습시킨 모델로, 온프레미스(내부 구축형) 방식을 적용해 데이터 보안을 강화했다고는 하지만 정보 유출의 위험성을 우려하는 목소리들이 나오고 있다. 업계 관계자는 "에이닷 엑스 4.0이 한국어로 튜닝됐다는 이유만으로 이를 '한국형 모델'이라고 부르는 것은 맞지 않다"며 "모델의 '메모리'는 여전히 '큐원2.5'라는 점에서 큐원에서 학습한 불투명한 정보가 에이닷 엑스 4.0 내부에 그대로 내재돼 잘못된 결과물이 예기치 않게 출력될 가능성을 배제할 수 없다"고 지적했다. 이어 "큐원2.5는 메타 라마와 달리 학습에 어떤 데이터를 사용했는지, 어떻게 수집·정제했는지조차 밝히지 않아 불투명한 모델이라는 지적을 받고 있어 이를 활용한 에이닷엑스 4.0 같은 모델들이 공공망, 정부망에 도입되는 것을 철저하게 막아야 한다"며 "공공 AI는 성능이 아무리 뛰어나더라도 설명책임과 검증가능성이라는 핵심 요건을 충족시켜야 한다는 점을 이번에 심사할 때 꼭 고려해야 할 것"이라고 덧붙였다. 또 다른 관계자는 "이번 사업으로 진정한 '소버린 AI'를 실현하기 위해선 성능보다는 통제 가능성이 우선돼야 한다는 점을 정부가 명심해야 할 것"이라며 "AI 모델의 설계부터 폐기까지 전 생애주기에 걸친 자국 통제권이 확보돼야 하는 만큼 단순한 튜닝이 아닌 각 기업들이 원천 기술을 보유하고 있는지가 중요하다"고 강조했다. 정부도 이를 고려해 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건을 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 다만 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 과기정통부 관계자는 "메타의 '라마'든, 알리바바의 '큐원'이든 외국 업체들의 AI 모델 아키텍처를 참고해 이를 우리나라 상황에 맞게 재설계 해 처음부터 만들었다면 이번 사업에 참여할 수 있다"며 "아키텍처를 그대로 쓰면서 파인튜닝한 AI 모델로는 참여할 수 없다"고 설명했다. 그러면서 "완전 재설계한 모델은 라이센스 이슈가 없을 뿐더러 거기에 들어가는 데이터도 각 업체가 보유한 것을 넣은 것이기 때문에 문제 없을 것으로 본다"며 "이 경우에는 처음부터 본인의 기술력으로 만들어진 것인 만큼 프롬 스크래치 방식으로 봐도 된다"고 덧붙였다. 이를 두고 업계에선 정부가 일부 중소업체들을 참여시키기 위해 사업자 선정 기준을 좀 더 열어둔 것으로 봤다. 예컨대 업스테이지의 경우 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. 업스테이지는 이를 기반으로 이날 추론 모델도 공개했다. 업계 관계자는 "현재 선발전에 나올 기업 중 해외 기업 AI 모델의 아키텍처를 재설계해서 모델을 선보이는 곳은 업스테이지가 대표적인 것으로 안다"며 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 업스테이지 같은 스타트업들은 어느 한 곳도 선발전에 참여할 수 없어 정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 업계에선 '프롬 스크래치' 방식이 아닌 외국 AI 모델을 기반으로 재설계하거나 파인튜닝을 한 것을 활용한 기업들이 그간 많았다는 점에서 이번 선발전의 문턱을 넘을 수 있는 곳이 많지 않을 것으로 예상했다. 또 프롬 스크래치 방식을 그간 고집하며 대형 모델을 선보였던 KT와 네이버클라우드, LG AI 연구원, NC AI 정도가 사업자 선정에 유리할 것으로 봤다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 솔트룩스, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발한 만큼 이번에 사업자로 선정될 것이란 자신감을 보이고 있다. 이 중 코난테크놀로지는 지난 2023년 4월 국내 중소형 업체 중 최초로 자체 LLM인 '코난 LLM'을 출시한 곳으로, 이번 선발전에서 유력 후보로 떠오르고 있다. 지난 5월 자체 개발 LLM '루시아3'를 공개한 솔트룩스 역시 중소업체 중에서 주목 받고 있다. 업계에선 정부가 최종 선발될 '독자 AI 파운데이션 모델 프로젝트' 참여 정예팀을 대기업 3팀, 중소기업 2팀 등 최대 5팀을 초기에 선발할 것으로 보고 있다. 업계 관계자는 "300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 국내 업체는 사실 손꼽힌다"며 "이번 선발전은 일부 대기업을 중심으로 경쟁이 치열해질 가능성이 높다"고 봤다. 그러면서도 "다만 LG, 네이버 같은 일부 대기업은 기존 AI 모델을 전 국민이 쓰는 모델로 키워 나가기엔 수익이 결부돼 있어 내부 설득이 만만치 않을 듯 하다"며 "KT, SK텔레콤 등 통신사들은 최근까지 소버린 AI를 부정하고 해외 유력 빅테크 업체들과 협업하려고 노력했다가, 정부의 정책 변경에 발 맞춰 이번 사업에 들어오려는 모습을 보였다는 점에서 사업자로 선정되기엔 아쉬운 점이 많다"고 덧붙였다. 공개적으로 이번 선발전 참여를 예고했던 기업들은 최근 컨소시엄 구성을 두고도 치열한 주도권 경쟁을 벌이고 있다. 컨소시엄을 어떤 곳과 함께 구성하느냐에 따라 자신들의 전략이 노출될 가능성이 높은 만큼, 보안 유지에도 각별히 신경쓰는 분위기다. 현재까지 이번 선발전에 관심을 보이며 설명회에 참여한 기업은 KT와 SK텔레콤, LG유플러스, LG AI 연구원, 카카오, 네이버, 포티투마루, 업스테이지, 코난테크놀로지, NC AI, 솔트룩스, 레블업, 트릴리언랩스, 트웰브랩스, 이스트소프트, 모티프테크놀로지스 등으로 알려져 있다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 업계 관계자는 "각 업체들은 자신들의 장·단점을 철저하게 분석한 후 단점을 잘 커버할 수 있는 스타트업, 대학 등과 컨소시엄을 구성하기 위해 물밑 작업을 치열하게 벌이고 있는 것으로 안다"며 "다만 국내에 있는 대부분의 기업, 대학 등이 이번 선발전에 참여할 것으로 보여 이를 제대로 객관적으로 평가해 줄 심사위원들을 정부가 확보했을 지가 가장 큰 관심사"라고 말했다. 또 다른 관계자는 "공공 AI의 핵심 요구사항에서 기술적 성능을 넘어선 설명 책임과 투명성, 국가 인프라로서의 신뢰성과 지속가능성, 향후 에이전트 간 연동 등 확장성을 고려해야 한다"며 "'잘 작동하는 AI'와 '책임질 수 있는 AI'는 별개의 문제라는 점을 기준으로 삼고 성능 대비 통제권을 잘 가질 수 있는 부분에 대해 심사 시 신중히 봐야 할 것"이라고 밝혔다.

2025.07.10 17:00장유미

'오픈AI 대항마' 손잡은 LG CNS, 또 일냈다…추론형 LLM으로 '에이전틱 AI'서 승부수

"앞으로 LG CNS와 원팀으로 계속 협업을 이어가며 한국 특화 거대언어모델(LLM)을 만들 뿐 아니라 풀스택을 갖추고 있는 만큼 고객에게 맞는 최적화 된 모델을 선보일 것입니다." '오픈AI 대항마'로 여겨지는 캐나다 AI 스타트업 코히어를 설립한 에이단 고메즈 최고경영자(CEO)가 지난 3월 LG CNS와 함께 공약했던 LLM이 또 다시 공개됐다. LG AI 연구원의 LLM인 '엑사원'을 기반으로 하지 않고 코히어와의 협업을 통해 LG CNS가 추론 모델을 직접 개발했다는 점에서 AX 전문기업으로서의 역량을 다시 한 번 입증했다는 평가가 나온다. LG CNS는 최근 코히어와 손잡고 1천110억 개의 파라미터를 갖춘 추론형 LLM을 공동 개발했다고 10일 밝혔다. 이 LLM은 한국어, 영어 등 23개 언어를 지원하며 추론 등 핵심 성능에서 글로벌 상위 모델을 뛰어넘는 결과를 보였다. LG CNS는 지난 5월 코히어와 70억 개의 파라미터로 구성된 한국어 특화 경량 모델을 출시한 지 두 달 만에 초대형 모델을 연이어 발표하며 생성형 AI 역량을 보여줬다. LG CNS는 금융, 공공 등 민감한 데이터를 다루는 국내 고객들의 비즈니스 혁신을 위해 글로벌 시장에서 역량을 인정 받고 있는 코히어와 협력해 추론형 LLM을 개발했다. 추론형 LLM은 AI가 복잡한 문제에 대해 여러 변수를 고려한 논리적인 해답을 도출하는 모델로, AI가 스스로 판단하고 작업을 수행하는 '에이전틱 AI' 서비스 구현에 필수적인 기술로 손꼽힌다. LG CNS는 코히어와 공동 개발한 초대형·경량형 2종의 LLM과 LG AI연구원의 '엑사원' 등 LLM 라인업을 갖춰 고객이 맞춤형 에이전틱 AI 서비스를 만들 수 있는 기반을 마련했다. 에이전틱 AI는 AI가 스스로 판단, 추론해 복잡한 작업을 수행하는 차세대 인공지능으로 비즈니스 자동화, 최적화 등에 활용도가 높다. LG CNS는 이 LLM 개발을 위해 코히어의 기업용 LLM인 '커맨드(Command)' 모델에 LG CNS가 국내 전 산업 분야에서 축적한 IT전문성과 AI 기술력을 결합했다. 특히 코히어의 커맨드 모델은 이미 캐나다 최대은행 RBC(Royal Bank of Canada) 등에서 온프레미스와 클라우드 방식으로 사용되고 있어 글로벌 기업에서 검증된 바 있다. LG CNS는 LLM을 온프레미스 방식으로 제공해 고객사들이 민감한 데이터의 외부 유출 없이도 자체 인프라 내에서 안전하게 처리할 수 있도록 할 계획이다. 이번에 선보인 LLM은 모델 압축 기술을 통해 2장의 그래픽처리장치(GPU)만으로 구동이 가능하다는 장점도 갖췄다. 통상 파라미터 1천억 개 이상의 LLM에는 최소 4장의 GPU가 필요한 것으로 알려졌다. 이를 통해 고객사들은 회사의 비즈니스 환경에 최적화된 LLM을 효율적인 비용으로 확보하면서도 데이터와 인프라 주권을 확보하는 '소버린 AI'를 실현할 수 있다. '소버린 AI'는 국가나 기업이 자체 인프라를 기반으로 자국의 언어, 법, 문화 등을 반영한 독립적인 AI를 만들어 운영하는 것을 말한다. 양사가 개발한 LLM은 한국어와 영어에서 우수한 추론 능력을 보였다. 양사의 자체 테스트 결과 추론 능력 검증 대표 벤치마크 테스트인 ▲Math500과 ▲AIME 2024 영역에서 한국어, 영어 모두 GPT-4o, GPT4.1, 클로드 3.7 소넷 등 글로벌 LLM보다 높은 점수를 기록했다. 'Math500'은 대학 수준 이상의 수학문제 500개로 구성된 테스트로 AI가 얼마나 논리적으로 문제를 풀 수 있는지를 검증한다. 'AIME 2024'는 미국의 수학 경시대회 문제를 활용해 AI의 수학적 추론 능력을 평가한다. 양사의 LLM은 한국어·영어·일본어·중국어는 물론 히브리어·페르시아어 등 소수 언어까지 총 23개 언어를 지원한다. 이 중 한국어 평가 테스트에서는 온프레미스 방식의 LLM 중 현존 최고 수준의 성능(SOTA, State-of-the-Art)을 내는 것으로 나타났다. 한국어 평가 테스트인 ▲KMMLU ▲KO-IFeval에서 글로벌 LLM 대비 최고점을 달성했다. 특히 파라미터 규모가 2배 이상 많은 '큐원3(Qwen3)'보다도 우수한 성능을 보였다. 복잡한 비즈니스 문제 해결과 한국어 기반의 정교한 소통이 가능해 고객사의 업무 효율과 의사결정 품질을 획기적으로 개선할 수 있다. 'KMMLU'는 한국어 이해 능력을 종합적으로 평가하는 지표다. 인문학·사회과학·응용과학 등 45가지 분야 전문가 수준의 지식을 담은 3만5천여 개의 객관식 문제로 구성돼 있다. 'KO-IFeval'는 구글과 예일대학교가 만든 'IFeval'을 한국어로 번역한 벤치마크 테스트로, LLM이 대화 내용을 얼마나 잘 이해하고 지시사항을 잘 따르는지를 평가한다. LG CNS는 코히어와의 지속적인 협력을 이어가며 LLM의 성능을 고도화해나갈 계획이다. LG CNS AI클라우드사업부장 김태훈 전무는 "차별화된 AI 역량과 경쟁력을 바탕으로 고객의 비즈니스에 특화된 에이전틱 AI 서비스를 제공할 것"이라며 "고객의 AX를 선도하는 최고의 파트너로 자리매김할 것"이라고 밝혔다.

2025.07.10 10:00장유미

업스테이지, '추론형 AI' 상용화로 정면 승부…"글로벌 LLM 판 흔든다"

생성형 인공지능(AI) 산업의 추론형 모델 전환이 본격화된 가운데 업스테이지가 국내 스타트업 최초로 글로벌 경쟁 모델과 어깨를 나란히 하는 추론 모델을 완성했다. 업스테이지는 10일 차세대 거대언어모델(LLM) '솔라 프로 2(Solar Pro 2)'를 공개했다. 이 모델은 파라미터 규모를 310억으로 확대했으며 고도화된 추론 능력을 갖춘 '하이브리드 모드'를 도입한 것이 특징이다. 사용자는 빠른 질의응답을 위한 '챗 모드'와 논리적 사고 기반의 '추론 모드'를 상황에 따라 선택할 수 있다. '솔라 프로 2'는 수학 문제 풀이 성능을 측정하는 '매스500', 코딩 과제 해결력을 평가하는 '에스더블유이(SWE) 벤치', 종합 지식 기반의 추론 능력을 보는 '엠엠엘유(MMLU) 프로' 등 고난도 벤치마크에서 오픈AI 'GPT-4o', 딥시크 'R1', 미스트랄 '스몰 3.2'와 유사한 성능을 기록했다. 특히 '생각의 사슬(CoT)' 기법을 적용한 추론 모드가 뚜렷한 성능 향상을 이끌었다. 한국어 성능도 주목할 만하다. '솔라 프로 2'는 케이오-엠엠엘유(Ko-MMLU), 해례(Hae-Rae), 아레나-하드-오토(Arena-Hard-Auto) 등 벤치마크에서 글로벌 오픈모델을 넘어서는 결과를 보였고 어휘와 문맥 이해는 물론 금융·법률·의료 등 전문 분야 질의에도 실효성 있는 답변을 도출하는 수준에 도달했다. 모델 구조도 기능 중심으로 진화했다. 단순 문장 응답을 넘어 사용자의 의도를 파악하고 외부 도구를 호출해 실질적인 결과물을 도출하는 '에이전트형 LLM' 구조가 탑재됐다. 일례로 실시간 웹 검색, 정보 정리, 프레젠테이션 초안 작성까지 일련의 업무를 자율적으로 수행할 수 있다. 업계에서는 최근 국내 대기업들이 잇따라 추론 특화 모델을 공개한 데 이어 업스테이지가 스타트업 최초로 이 영역에 진입한 점에 주목하고 있다. LG AI연구원은 지난 3월 다중 입력을 처리하는 멀티모달 기반의 에이전트형 LLM '엑사원 2.0'을 선보이며 본격적인 추론 경쟁에 가세했다. 네이버도 지난달 '하이퍼클로바X 씽크'를 공개하며 언어와 시각 정보를 모두 다루는 추론 구조를 구현한 모델을 제시했다. 이어 업스테이지가 상용 모델을 내놓으면서 국내 LLM 개발 주체는 대기업에서 벤처로까지 외연을 넓히는 양상이다. 김성훈 업스테이지 대표는 "'솔라 프로 2'는 단순히 말을 잘하는 AI가 아니라 문제를 이해하고 논리적으로 사고하며 실질적인 행동까지 수행하는 AI 에이전트"라며 "자체 기술로 구현한 세계 최고 수준의 LLM을 기반으로, AI가 업무 방식을 근본적으로 혁신하고 '일의 미래'를 앞당길 수 있도록 기술을 고도화해 나가겠다"고 밝혔다.

2025.07.10 08:00조이환

카카오, 11월 AI 에이전트 출시

정신아 카카오 대표는 최근 포브스 아시아와의 인터뷰에서 “AI 에이전트를 통해 사용자가 어떤 앱을 써야 할지 고민하지 않아도 되는 세상이 열릴 것”이라며, "AI 기술이 카카오톡 전반에 깊이 스며들게 될 것"이라고 밝혔다. 9일 관련업계에 따르면 정 대표는 해당 인터뷰에서 오는 11월 챗GPT를 만든 오픈AI와의 협업을 기반으로 'AI 에이전트' 상용화를 예고했다. 인터뷰에 내용에 따르면 카카오의 AI 에이전트는 단순한 질문 응답을 넘어 사용자를 대신해 레스토랑 예약, 택시 호출, 결제, 일정 등록 등의 의사결정과 행동까지 수행하는 실행형 AI가 될 것으로 보인다. 정 대표는 “AI가 모든 상상 가능한 서비스를 현실로 만들 것”이라며, “에이전트 기반 서비스가 카카오의 광고와 커머스 등 핵심 비즈니스에도 큰 변화를 가져올 것”이라고 말했다. 카카오는 이를 통해 이용자의 체류 시간을 늘리고, 광고와 거래 연계도 높일 것으로 기대하고 있다. 정 대표는 오픈AI와의 협업을 통해 LLM(초거대 언어모델)을 활용하는 동시에, 자체 개발한 SLM(경량 모델)을 병행 적용하는 전략을 세웠다. 상대적으로 낮은 비용으로 운영 가능한 SLM은 단순 업무에, 오픈AI의 LLM은 복잡한 연계 서비스에 쓰이는 방식이다. 정 대표는 “GPU 중심 AI 인프라에 모든 걸 맡기는 방식은 비효율적일 수 있다”며 “우리는 실용성과 안전성을 동시에 추구한다”고 설명했다. 그러면서 “우리는 단순히 성능 경쟁을 벌이기보다 실용적인 접근을 통해 사용자 삶을 실질적으로 변화시키는 데 집중하고 있다”며, “AI 에이전트가 일상의 디지털 경험 방식을 바꿔놓을 것”이라고 강조했다.

2025.07.09 21:12안희정

코난테크놀로지, LLM 탑재 AI PC 조달청 '등록'…공공시장 '정조준'

코난테크놀로지가 자체 거대언어모델(LLM)을 탑재한 인공지능(AI) PC의 공공 조달 체계를 확보하며 시장 진입을 본격화했다. 온디바이스 생성형 AI 시스템을 전면에 내세운 만큼 공공기관 특화 요구를 정조준했다는 평가다. 코난테크놀로지는 TG삼보와 협력해 AI PC '코난 AI스테이션(AIStation)'을 조달청 나라장터 종합쇼핑몰에 공식 등록했다고 9일 밝혔다. 이에 따라 공공기관은 해당 장비를 별도 입찰 없이 조달청을 통해 직접 구매할 수 있게 됐다. 이 제품은 코난테크놀로지가 자체 개발한 한국어 특화 LLM을 탑재한 AI 내장형 PC다. 사양별로 보급형과 고급형 두 가지 모델로 등록됐으며 고급형에는 64기가바이트 '디디알5(DDR5)' 메모리와 엔비디아 '알티엑스 4070(RTX 4070)' 칩이 장착됐다. 실시간 문서 분석, 보고서 작성, 생성형 AI 기반 행정처리에 최적화된 구성이란 설명이다. 기기는 인터넷 연결 없이도 윈도우 환경에서 생성형 AI 기능을 실행할 수 있다. 모든 연산이 로컬에서 이뤄져 민감 정보의 외부 유출 위험을 원천 차단할 수 있도록 설계됐다. 이는 공공 업무 특성상 클라우드 기반 AI 사용에 제약이 있는 기관들에게 현실적인 대안이 될 수 있다. 코난테크놀로지와 TG삼보는 지난 5월 자사 행사에서 연간 40만 대 규모의 공공 조달 시장 공략 계획을 밝힌 바 있다. 이번 등록은 이 계획의 실질적 첫걸음으로, 조달 등록과 동시에 현장 영업 확대도 병행되고 있다. 영업은 TG삼보가 하드웨어 공급을, 코난테크놀로지가 LLM 기반 소프트웨어를 제공하는 구조다. TG삼보는 10여 년간 정부 납품 1위 자리를 지켜온 기업으로, 기존 공공 유통망을 활용한 빠른 확산이 가능할 것으로 보인다. 김영섬 코난테크놀로지 대표는 "생성형 AI 어플라이언스 판매 확대를 위한 첫걸음을 내디뎠다"며 "공공 시장 점유율을 끌어올리고 매출 성장에 박차를 가하겠다"고 밝혔다. 지승현 TG삼보 대표는 "이번 등록이 전국 공공기관 공급 확대의 전환점이 될 것"이라고 강조했다.

2025.07.09 15:04조이환

[기고] 가장 쉽고 빠르게 AI 서비스를 구축하는 방법, 문서중앙화

최근 '소버린 AI'에 대한 기업·정부·언론의 관심이 급격히 높아지고 있다. 관심의 본질은 데이터 주권(Data Sovereignty)에 있다. 인공지능(AI)이 신뢰할 수 있는 결과를 내기 위해서는 반드시 기업 고유의 데이터, 더 나아가 자국 경계 안에 존재하는 데이터를 기반으로 작동해야 한다는 공감대가 형성된 것이다. 실제 레퍼런스 구현 방식으로는 검색증강생성(RAG) 아키텍처가 가장 많이 거론된다. 대규모언어모델(LLM)이 자체 지식을 최소화하고 사내 문서를 검색해 응답을 생성하기 때문에 데이터 주권·보안 요구에 부합하기 때문이다. 그러나 현장의 목소리는 "첫 단추부터 막힌다"는 데 모아진다. 핵심 병목은 데이터 품질 확보다. 가트너는 AI 도입 성공을 위해 지속적인 데이터 정렬, 검증, 그리고 거버넌스를 핵심 요소로 제시한다. 많은 기업이 그 중요성을 인지하고 있음에도 불구하고 실제 실행이 어려운 이유는, 데이터 관리 체계를 처음부터 새로 구축하고 정의하는 작업이 어렵고 복잡하기 때문이다. 이로 인해 데이터 품질이 낮아지면 AI 학습에 사용할 수 있는 데이터 양이 부족해지고, 권한 관리 미흡이나 기밀 정보의 노출 위험, 결과의 신뢰성 부족 등 다양한 운영 리스크로 이어질 수 있다. 그런데 이러한 관리 체계가 이미 최적화된 형태로 제공되는 플랫폼이 존재한다. 바로 문서중앙화 플랫폼이다. 이 플랫폼은 파일의 수집부터 폐기까지 원시 데이터를 체계적으로 저장·관리할 수 있다. 이 플랫폼은 기업들이 겪는 데이터 관리의 어려움을 대부분 해결할 수 있다. 분산되고 파편화된 파일을 중앙 집중식으로 저장하고, 개인 중심의 저장 방식을 업무 중심의 분류 체계로 전환하며, 소유권·권한 관리, 파일의 이력과 버전 관리, 보안 정책 적용 및 메타정보의 구성까지 통합적으로 관리한다. 기업내의 비정형 데이터의 통합 스토리지 역할을 하고, 이 데이터 관리 체계와 권한 체계는 그대로 생성형 AI의 데이터 파이프라인과 연계될 수 있다. 결과적으로 문서 중앙화 플랫폼을 통해 지식화된 데이터는 자연스럽게 AI 처리 흐름으로 연결되어 자동으로 처리되며, 문서의 구조와 의미, 유사성 파악과 함께 보안 기준이 통합적으로 적용된다. 이를 통해 기업은 정보와 관리의 사각지대를 제거하고, AI 기반 서비스 운영에 필요한 신뢰성과 관리 효율성을 동시에 확보할 수 있게 된다 문서중앙화 플랫폼과 RAGOps의 통합은 3가지 핵심적인 특징을 제공한다. 첫 번째 "문서중앙화가 전처리의 시작점이자 AI의 기반이 된다" AI 서비스를 도입할 때 별도의 데이터 체계를 새로 구축하기보다, 기존의 문서중앙화 시스템을 데이터 기반으로 삼고 그 위에 AI를 접목하는 것이 핵심 전략이다. RAG옵스(Ops) 플랫폼을 기반으로, 데이터 파이프라인 자동화, 자연어 기반 검색, 요약, 회의록 생성 등 다양한 AI 서비스를 제공하며, 기존 문서중앙화에 AI 기능이 더해져 업무 효율성과 서비스 확장성이 크게 향상된다. 두 번째 "일관된 메타정보 체계를 통해 운영 가능한 AI를 만든다" AI가 안정적으로 운영되기 위해서는 데이터 운영체계와 AI 운영체계가 일관된 관리 기준을 공유해야 한다. 비정형 데이터만으로는 한계가 있으며, 이를 보완하는 표준화된 메타정보 체계가 필수적이다. 문서중앙화 플랫폼과 RAG옵스와 메타체계를 공유하며, 비정형 문서와 함께 메타 정보도 자동 연동·관리된다. 또한, 문서 의미 정보와 함께 등급·분류·관리 속성 등 메타정보까지 벡터화하여 저장함으로써, 검색 정확도와 생성 응답의 신뢰성을 크게 향상시키고, 운영 가능한 실용 AI로 발전시킨다. 세 번째, "RAG옵스 플랫폼을 통해 지속적인 개선과 확장이 보장된다" 문서중앙화 플랫폼의 AI 서비스는 RAG옵스 기반의 자동화된 AI 파이프라인을 통해 지속적으로 개선된다. 데이터 수집부터 임베딩, 검색, 생성까지 전 과정이 최적화되어 데이터 품질 향상에 기여하며, 평가 모델과 피드백 루프를 통해 응답 품질도 지속적으로 향상된다. 이를 통해 문서 기반 AI 시스템은 지속적인 발전과 운영 확장이 가능한 구조를 제공한다. 문서중앙화 플랫폼과 RAG옵스 플랫폼의 결합은 기업이 AI 시대의 복잡한 데이터 과제를 해결하고, AI의 진정한 잠재력을 안전하고 효율적으로 실현할 수 있는 견고한 기반을 제공한다. 인젠트의 도큐먼트(document) 플랫폼과 RAG옵스 결합은 이를 입증한다. AI를 빠르고 안전하게, 그리고 지속적으로 확장하려는 기업에게 문서중앙화는 가장 효율적이고 전략적인 선택지다. 기존 문서 자산을 체계적으로 관리하고 AI와 자연스럽게 연계함으로써, 데이터 기반 AI 서비스의 구현을 빠르고 효과적으로 가능하게 한다. 특히 RAG옵스 기반의 지속적인 개선 체계를 통해 AI 품질까지도 함께 진화할 수 있다는 점에서, 가장 실용적이고 전략적인 AI 도입 방식이라 할 수 있다.

2025.07.09 13:51박정권

KT '믿:음 2.0 Base', 한국어 AI 성능 평가서 국내 1위

KT가 한국적 AI를 표방하며 자체 개발한 '믿:음 2.0'이 한국어 LLM 성능 평가 플랫폼 호랑이(Horangi) 리더보드에서 국내 1위를 기록했다. KT는 지난 4일 공개한 믿:음 2.0 Base가 한국어 LLM 평가 지표 '호랑이 리더보드3'에서 파라미터 수 150억 개 미만의 국내 기업 개발 모델 가운데 종합 성능 1위를 기록했다고 밝혔다. 믿:음 2.0 Base의 종합 점수는 0.7197(▲범용 성능 0.7004 ▲응답 정렬 성능 0.739)로 전세계 동급 모델 중에서는 3위에 해당하는 우수한 성과다. 호랑이 리더보드는 글로벌 MLOps 기업 웨이트앤바이어스(W&B)가 주관하는 한국어 특화 LLM 평가 벤치마크다. 실제 한국어 환경에서의 범용적인 언어 이해력과 응답 안전성을 포함하는 정렬성(Alignment) 등 한국어 LLM의 실용적인 역량을 다면적으로 평가한다. 단편적인 지식을 묻는 질문에 대한 답변 정확성을 평가하는 기존 벤치마크와 달리 작문, 추론, 정보 추출 등 실생활 시나리오를 기반으로 평가해 모델의 실용적 능력을 평가하는 지표로 주목받고 있다. 특히 한국어 고유의 문맥, 표현, 사회적 맥락 등을 반영한 응답인지를 평가한다는 점에서 국내 시장에서의 실효성을 가늠하는 데 중요한 기준으로 꼽힌다. 평가 결과는 W&B가 운영하는 WanDB 플랫폼을 통해 투명하게 공개되어 누구나 직접 검증할 수 있다. KT는 이 성과로 믿:음 2.0이 국산 기술력 기반의 한국어 AI 모델로서 실질적 경쟁력을 갖추었음을 객관적으로 입증했다고 설명했. KT는 믿:음 2.0을 개발하며 한국의 정신과 생활방식, 지식과 사회적 맥락을 반영하여 한국에 가장 잘 맞는 AI로 학습시켰다. 무엇보다 믿:음 2.0은 외산 모델을 기반으로 단순 튜닝하는 방식이 아닌, 아키텍처 설계부터 데이터 구축, 학습까지 전 과정을 KT가 직접 수행하는 '프롬 스크래치(From scratch)' 방식으로 개발한 순수 자체 개발 모델이라는 점에서도 기술적 의미가 크다. 신동훈 KT Gen AI Lab장(CAIO)은 “믿:음 2.0을 국내 다양한 산업 분야에 적용해 '한국적 AI'의 시장 확산에 본격적으로 나설 것”이라며 “한국적 AI의 실용화와 기술 발전을 이끄는 핵심 주체로 자리매김하겠다”고 말했다. 한편, KT는 믿:음 2.0 기반의 맞춤형 B2B AI 솔루션을 산업 전반에 제공하고 공공, 금융, 교육, 법률 분야에서 실증을 추진한다. 현재 공개된 버전에서 성능을 더 높인 믿:음 2.0 Pro 공개도 준비하고 있다. 믿:음 2.0의 추론, 멀티모달 기능 확장과 함께 국산 AI 반도체 기업 리벨리온과의 협력을 통한 AI 생태계 강화 등도 계획 중이다.

2025.07.09 12:25박수형

이스트소프트, AI 검색 '앨런' 구독제 도입…LLM 서비스 수익화 시동

국가대표 인공지능(AI) 모델 기업에 도전하는 이스트소프트가 구독형 서비스를 출시하며 수익 모델 구축에 속도를 낸다. 이스트소프트는 AI 검색 엔진 서비스 '앨런'에 구독 서비스를 새롭게 도입하며 자체 개발한 거대언어모델(LLM)을 기반으로 본격적인 수익화에 나선다고 7일 밝혔다. 이번 구독 서비스 출시를 통해 이스트소프트는 자체 개발한 앨런 LLM을 기반으로 검색에 특화된 에이전틱 AI 서비스를 제공하며 수익 모델을 구축해 간다는 전략이다. 구독 서비스 출시에 따라 앨런은 월 1만9천900원의 '프로 플랜'과 무료 서비스인 '프리 플랜'을 제공하기 시작한다. 아울러 서비스 출시를 기념해 프로 플랜을 월 1만4천900원에 이용할 수 있는 프로모션도 한시적으로 진행한다. 프로 플랜은 앨런에서 제공하는 AI 검색을 비롯해 유튜브 요약 기능을 제약 없이 사용할 수 있다. 특히 심층 보고서를 생성해 주는 고급 기능인 딥 리서치는 사용자가 충분히 활용할 수 있도록 더 많은 사용량을 지원한다. 이와 함께 다양한 글로벌 LLM을 사용하는 옵션도 제공한다. 프리 플랜에서도 앨런의 모든 기능을 체험할 수 있다. 단 일일 사용량에 제한이 있다. 이스트소프트는 앨런의 서비스가 연속성을 가진 다각적인 검색 행위를 지원하기에 많은 이용자가 구독 서비스로 전환할 것으로 기대하고 있다. 앞서 이스트소프트는 지난 6월 자체 개발 모델 앨런 LLM을 정식 출시했다. 당시 파라미터 2천억 개 이상 수준의 초거대 모델과 경량 모델을 출시했고 이후 경량 모델 공급 계약을 빠르게 체결하며 사업화에 속도를 내고 있다. 정상원 이스트소프트 대표는 "구독 서비스 출시는 자체 LLM 기술 경쟁력을 바탕으로 앨런 서비스를 수익 모델로 전환하는 첫걸음"이라며 "앞으로도 자체 모델 고도화와 최적화를 지속해 한국형 AI 검색 엔진을 대표하는 서비스로 앨런이 자리매김할 수 있게 하겠다"고 말했다.

2025.07.07 10:55한정호

[유미's 픽] 알리바바 큐원 탑재한 SKT '에이닷엑스 4.0'…藥일까 毒일까

"2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수입니다. 한국 데이터는 해외로 유출되지 않습니다." 지난 달 19일 기자간담회를 통해 이처럼 강조했던 알리바바 클라우드가 자사 인공지능(AI) 모델 '큐원'을 앞세워 SK텔레콤을 등에 업고 국내 시장 공략에 본격 나섰다. 올 초 오픈AI를 긴장하게 만든 딥시크에 이어 알리바바 '큐원'까지 영역 확장에 속도를 높이고 있지만, 중국 기업의 데이터 유출 우려 때문에 국내 시장에 제대로 안착할 수 있을지 주목된다. 6일 업계에 따르면 SK텔레콤이 지난 3일 공개한 AI 모델 '에이닷엑스 4.0'에는 알리바바의 오픈소스 거대언어모델(LLM)인 '큐원 2.5'가 적용된 것으로 파악됐다. 한국어에 맞게 SKT가 개량한 '에이닷엑스 4.0'은 특정 산업에 최적화된 '버티컬 AI 서비스'를 만든다는 목표로 만들어진 LLM으로, 오픈소스 커뮤니티 허깅페이스를 통해 A.X 4.0의 표준 모델과 경량 모델 2종이 공개됐다. 표준 모델은 720억개(72B), 경량 모델은 70억개(7B)의 매개변수를 갖추고 있다. 하지만 중국 기업의 AI 모델을 활용했다는 점에서 국외 정보 유출에 대한 의구심도 나오고 있다. SKT가 개인정보보호정책에 ▲이용자의 메시지나 답변은 저장하지 않는다 ▲이용자의 쿠키를 수집·저장하지 않는다 ▲기술적 보안과 프라이버시 보호를 위해 노력하겠다 등의 문구를 삽입하며 대응에 나섰지만, 우려를 불식시키기엔 미흡한 조치라는 평가가 나오고 있다. 특히 SKT를 활용하는 이용자들 사이에서 볼멘 소리가 나오고 있다. 누리꾼들은 "소식을 접하고 '에이닷' 어플을 바로 삭제했다", "중국산 AI 모델에 한국어를 학습시켰다고?", "중국 묻은 SKT, 빨리 탈출해야겠다" 등의 부정적인 반응을 내놓으며 실망감을 감추지 않았다. 업계 관계자는 "SKT가 유심 해킹 사건으로 고객들의 많은 신뢰를 잃은 상황에서 굳이 이미지가 좋지 않은 중국 AI 모델을 기반으로 파인튜닝 했다는 사실을 적극 알리는 것이 과연 득이 될 지 모르겠다"며 "한국어를 자체 데이터로 학습해 잘한다는 점을 내세우고 있지만 현 시점에서 이를 내놓은 것이 도움될 것 같진 않다"고 지적했다. 하지만 SKT는 'A.X 4.0'을 온프레미스(내부 구축형) 방식으로 제공하는 만큼, 기업 내부 서버에 직접 설치해 사용할 수 있어 데이터 보안에서 강점을 지녔다는 점을 적극 강조했다. 알리바바 클라우드 역시 지난 달 기자 간담회를 통해 중국계 기업에 대한 우려를 의식한 듯 보안과 컴플라이언스를 핵심 가치로 내세우며 '신뢰 받는 글로벌 파트너'로의 입지를 국내에서도 강화하겠다고 강조했다. 또 국내 투자 계획을 밝히며 사업 확장에 대한 의지도 내비쳤다. 알리바바 클라우드는 지난 2016년 국내 시장에 진출한 후 2022년 3월 국내 첫 데이터센터를 구축하고, 지난 달 서울에 또 다른 데이터센터를 가동한 상태다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 말했다. 이를 기반으로 알리바바는 고객사들이 '큐원' 중심의 AI 오픈소스 생태계를 활성화하길 원했다. 또 SKT 외에도 자사 AI 모델을 활용한 사례를 공개하며 협업 확대에 대한 의지를 다졌다. 대표적인 곳이 AI 솔루션 기업 유니바다. 이곳은 알리바바 클라우드의 큐원 모델을 활용해 비용은 30% 절감하면서 한국어 처리 정확도를 45%에서 95%까지 끌어올린 에이전트 AI를 공개했다. 네이버 '스노우'는 알리바바 클라우드의 비디오 생성 모델 '완(Wan)'을 기반으로 중국 시장에서 개인화된 이미지 스타일링 기능을 제공 중이다. 라라스테이션은 알리바바 클라우드와 손잡고 글로벌 라이브 스트리밍 플랫폼을 개발해 동남아 시장으로 비즈니스를 확장하는 데 성공했다. 또 국내 시장 확대를 위해 메가존소프트·이테크시스템과도 협력 중이다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "메가존소프트와 이테크시스템 외에 공개할 수는 없지만 대기업군 SI(시스템통합) 업체들도 파트너 에코에 이미 합류해 있다"고 밝혔다. 업계에선 '큐원'이 페이스북 모기업인 메타플랫폼의 '라마(LLaMA)'와 중국 딥시크 'R1' 모델을 제치고 사실상 전 세계 LLM 생태계에서 가장 빠르게 영향력을 키우고 있다는 점에서 SKT와 알리바바의 협업을 부정적으로만 봐선 안된다는 평가도 있다. 실제 '큐원' 모델은 현재 전 세계적으로 3억 건 이상 다운로드됐고 13만 개 이상의 파생 모델이 생성된 것으로 알려졌다. 특히 최신 모델 '큐원3-8B'의 지난 달 다운로드 수는 메타의 '라마-3.1-8B'를 거의 2배 앞섰다는 점에서 주목 받았다. 딥시크의 'R1' 시리즈 중 가장 인기 있는 최신 모델 '딥시크-R1-0528'에 비해서는 약 10배 많았다. 업계 관계자는 "큐원은 한국어 처리 능력과 온프레미스 버전에서 최적화가 가능해 산업별 맞춤형으로 튜닝을 거쳐 기업 차원으로 빠르게 확산되며 국내에서 존재감을 키우고 있다"며 "민간 데이터를 다루는 공공·금융에서도 온프레미스로 튜닝해 개발하거나 중소기업과 스타트업에서도 다양하게 튜닝하고 있다"고 말했다. 그러면서 "딥시크에 이어 큐원까지 중국 AI가 국내 산업 기반을 빠르게 장악할 것으로 예상된다"며 "향후 국내 기업 기술 완성도가 높아지더라도 기존 기술 장벽과 가격 등에서 후순위로 밀려날 가능성이 높다는 점에서 중국 AI 생태계에 종속될 것이란 우려도 높아지고 있다"고 덧붙였다.

2025.07.06 09:00장유미

챗GPT가 우주선 조종하는 날 올까

인공지능(AI) 모델을 훈련시켜 우주선을 조정할 수 있다는 연구결과가 나왔다고 과학전문매체 라이브사이언스가 최근 보도했다. 연구진들은 오랫동안 위성 제어 및 우주선 항법을 위한 자율 시스템 개발에 관심을 가져왔다. 앞으로는 우주에는 위성이 너무 많아 인간이 직접 조종하기 어렵고 속도 제한으로 심우주 탐사의 경우 우주인이 직접 조종할 수 없기 때문이다. 국제 연구진은 우주 비행 시뮬레이션 게임 '커벌 스페이스 프로그램(Kerbal Space Program)'을 기반으로 자율 우주선 게임 챌린지 프로그램을 개발해 다양한 컴퓨터 모델들이 위성 추적이나 요격, 탐지 회피 임무 등 여러 시나리오로 우주선을 조정하도록 했다. 연구진은 국제저널 '우주 연구의 발전'(Advances in Space Research)에 연구 결과를 실었다. 자율 우주선 시뮬레이션 대회에서 대규모언어모델(LLM)은 2위를 차지하는 훌륭한 성과를 거뒀다. 연구원들은 자율 시스템 개발에 LLM을 사용하기로 결정한 후 우주선의 상태와 목표를 텍스트 형태로 변환해 이를 LLM에 전달하고 우주선의 방향과 기동 방법에 대해 추천해 줄 것을 요청했다. 그 다음 LLM가 내놓은 텍스트 기반 출력을 시뮬레이션 된 우주선을 작동할 수 있는 기능 코드로 변환하는 변환 계층을 개발해 인공지능(AI)가 우주선을 조종할 수 있도록 했다. 연구진은 몇 가지 간단한 질문과 미세 조정을 거쳐 챗GPT가 이 챌린지 프로그램의 여러 테스트를 완료할 수 있었다고 밝혔다. 논문에 따르면 1위는 다양한 방정식을 기반으로 한 모델이 차지했다. 해당 매체는 아직 환각 문제 등 AI가 보완해야 할 점은 많으나 기성 LLM이 방대한 양의 인간 지식을 소화한 뒤 예상치 못한 방식으로 활용될 수 있다는 것을 보여준다고 평했다.

2025.07.05 07:43이정현

새정부 독자AI 구축 의지...통신사, 자체 AI 모델 공개

국내 기업 가운데 인공지능(AI) 분야에 가장 큰 규모의 투자를 이어가는 통신업계가 정부의 독자 AI 파운데이션 모델 프로젝트에 본격적으로 뛰어들었다. 새 정부가 독자적인 AI 모델 육성 계획을 분명히 하면서 자체 개발 거대언어모델(LLM)을 잇따라 선보였다. 3일 KT는 온라인 기자간담회를 열어 자체 개발한 LLM '믿음' 2.0을 오픈소스로 공개한다고 밝혔다. 115억 개의 파라미터 값을 가진 국산 LLM 모델로 한국 문화와 예의범절을 이해할 수 있도록 학습시켜 가장 한국적인 AI라는 점을 내세웠다. 이날 SK텔레콤도 에이닷엑스(A.X) 4.0을 공개하며 파라미터 720억 개의 대형모델로 현존 LLM 가운데 최상급의 한국어 처리 효율성과 국내 비즈니스 환경에 최적화된 성능을 강조했다. 두 회사가 같은 날 자체 개발 LLM을 오픈소스로 공개하고 나선 점이 눈에 띄는 부분이다. 국내 여러 AI 모델 개발 기업들이 정부가 선발할 AI 정예팀에 들려고 하는 가운데, 오랫동안 AI 투자를 집중해온 통신사들이 그간의 개발 성과를 선제적으로 선보이며 기술력 과시에 나선 것으로 풀이된다. 정부가 오는 21일까지 AI 파운데이션 모델 개발 사업 공모 접수를 진행하는데 이 프로젝트는 AI 모델 개발 정예팀을 꾸려 정부가 가진 데이터와 GPU 등의 핵심 인프라를 지원받게 된다. 양사 모두 이 기회를 놓치지 않겠다는 의지가 분명하다. 두 통신사의 움직임은 단순한 정부 지원 외에 향후 AI 사업 확장을 위한 경영진의 뜻이 크게 반영됐다. 정부가 선정하는 AI 정예팀에 뽑히면 이들이 개발한 모델은 공공사업에 먼저 쓰일 가능성이 높은데, 관련 시장을 선점하겠다는 판단이 깔려있다는 설명이다. 통신업계 한 관계자는 “국내 산업계에서 AI 투자를 선제적으로 나선 곳이 통신업종이나 그간의 연구개발 노력과 투자 비용을 고려하면 내부적으로는 성과를 내야 한다는 주문이 강하게 이어지고 있다”며 “기간통신사로서 국가 네트워크 인프라 투자에 이어 앞으로는 AI 인프라 투자에 나서야 하는 만큼 AI 정예팀 선발과 공공사업 등을 가벼이 볼 수 없는 상황”이라고 말했다.

2025.07.03 18:02박수형

"챗GPT보다 싸고 빠르다"…라이너, 검색 LLM으로 AI 검색 시장 '정조준'

라이너가 '챗GPT'보다 정확하고 비용 효율적인 자체 검색 인공지능(AI) 성능을 공개했다. 핵심은 리서치에 최적화된 검색 결과를 신속히 제공하는 구조와 이를 뒷받침하는 데이터 기반 학습 역량이다. 라이너는 자사 '라이너 검색 LLM'이 AI 검색 컴포넌트 성능 비교 평가에서 오픈AI 'GPT-4.1'보다 우수한 결과를 기록했다고 3일 밝혔다. 이번 모델은 기존 오픈 소스 기반 구조 위에 10여 년간 축적한 방대한 사용자 데이터를 사후 학습 방식으로 적용해 정확도와 처리 속도를 높였다. 토큰당 비용도 평균 30~50% 절감한 것으로 나타났다. '라이너 검색 LLM'은 질문 분석부터 답변 생성까지 검색형 에이전트의 전 과정을 처리하는 데 필요한 8개 컴포넌트를 통합 구성한 모델이다. 이 중 카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 컴포넌트는 성능·속도·비용 전 항목에서 'GPT-4.1'을 상회했다. 특히 실제 서비스 환경에서 재현성과 신뢰성을 기반으로 성능을 측정한 점이 주목된다. 단순 벤치마크 수치가 아니라 실사용 기반 결과를 중심으로 비용·속도·정확도의 균형을 검증한 구조다. 이로 인해 기존 대형 모델 대비 가볍고 빠른 검색형 LLM 구현이 가능해졌다는 평가다. 라이너는 수년간 테스트와 개선을 반복하며 LLM 학습 구조를 고도화해 왔다. 자사 사용자 데이터를 활용한 정밀 학습을 통해 질문 처리 구조를 체계화하고 할루시네이션 가능성을 줄이는 방향으로 검색 정확도를 끌어올렸다는 설명이다. 검색 LLM의 비용 경쟁력 역시 차별점으로 꼽힌다. 'GPT-4.1' 대비 평균 30~50% 낮은 토큰당 처리 비용으로, 대규모 트래픽이 발생하는 검색형 에이전트 환경에서도 운영 효율성과 수익성 확보가 가능하다는 계산이다. 조현석 라이너 테크 리드는 "'라이너 검색 LLM'은 8가지 모든 컴포넌트에서 '챗GPT'를 뛰어넘는 성능을 입증했다"며 "어떤 데이터를 어떻게 학습하고 어떤 구조로 질문을 처리하느냐가 AI 할루시네이션을 줄이는 핵심"이라고 밝혔다. 이어 "데이터 학습과 연구 개발에 꾸준히 집중해 온 노력이 차별화된 AI 에이전트 기술 경쟁력으로 이어졌다는 점에서 의미가 크다"고 말했다.

2025.07.03 16:56조이환

KT "정부 독자 AI모델 프로젝트 참여...한국적 AI 자체개발"

KT가 한국어에 최적화된 대규모 언어모델(LLM) '믿:음 2.0'을 공개하고, 오픈소스 생태계 확장과 정부 AI 프로젝트 참여 의지를 밝혔다. KT는 3일 진행된 온라인 브리핑에서 한국적 가치와 문화, 언어 특성을 반영한 '믿음 2.0'을 공개하고, B2B 활용 중심의 한국형 AI 전략을 설명했다. 신동훈 KT Gen Al 랩장은 “KT는 AI의 모든 영역에 데이터 주권, 사용자 선택권, 한국적 가치, 책임 있는 운영이라는 네 가지 원칙을 담고자 한다”며 “믿:음 2.0은 이러한 소버린 AI 철학을 바탕으로 개발된 첫 모델”이라고 말했다. 이어, “KT의 AI 철학과 방향이 맞기 때문에 독자 AI 파운데이션 모델 프로젝트에 참여하려고 준비하고 있다”며 “지난 1년간 한국적인 가치와 문화를 담아내기 위해 데이터얼라이언스와 노력·구축한 모델은 독자적 AI 구축에 큰 강점이라 생각한다”고 밝혔다. 이번에 공개된 '믿:음 2.0'은 한국어 표현과 문맥에 특화된 LLM으로 ▲문서 기반 검색(QA) ▲보고서 요약 및 작성 ▲툴 호출 등 기업 환경에서 자주 쓰이는 업무에 맞춰 최적화했다. 특히 한국어에 맞춰 문장을 잘게 나누는 전용 도구(토크나이저)와 분야(도메인)별로 정리된 고품질 데이터를 함께 적용해 한국의 말투와 문화, 감정 표현까지 자연스럽게 이해할 수 있도록 설계됐다. KT는 믿:음 2.0을 경량형 '미니'와 중간급 '베이스' 모델로 나눠 공개하며, 누구나 자유롭게 상업용으로도 활용할 수 있도록 MIT 라이선스를 적용했다. 대형 모델인 '프로'는 향후 단계적으로 공개될 예정이다. 모든 모델은 KT의 자체 기술로 처음부터 끝까지 독자적으로 학습된 것이 특징이다. 아울러 정부가 추진 중인 '독자 AI 파운데이션 모델' 구축 사업에도 참여할 계획이다. 오픈소스 LLM 생태계 확대와 동시에 공공·금융 등 다양한 산업 분야에 맞춤형 솔루션을 제공하며 AI 활용 저변을 넓히겠다는 전략이다. 신 상무는 “한국형 AI 모델 개발에 가장 중요한 것은 양질의 한국어 데이터”라며 “KT는 'K-데이터 얼라이언스'를 통해 각 분야 대표 기업·기관과 협력하며 국내 최고 수준의 데이터를 확보하고 있다”고 말했다. 이어 “공공 문서 등 고품질 국가 데이터가 AI 학습에 활용될 수 있도록 제도적 지원도 필요하다”고 덧붙였다. 또한 KT는 믿:음 2.0의 핵심 경쟁력 중 하나인 'K-데이터 얼라이언스'의 세부 내용도 이달 중순 공개할 예정이다. 오승필 KT CTO는 “얼라이언스를 통해 어떤 기업들이 참여했고, 어떤 종류의 데이터가 모였는지 등 구체적인 내용은 7월 중순에 설명할 계획”이라며 “양질의 한국어 데이터를 함께 만들고 공유하는 생태계 조성이 앞으로 한국형 AI 경쟁력을 좌우할 것”이라고 밝혔다. KT는 현재 마이크로소프트(MS)와의 협업을 통해 GPT 기반 한국형 AI 모델도 개발 중이다. 다만, 자체 기술로 개발한 '믿음' 시리즈는 KT가 장기적으로 확보해야 할 'AI 기술 자립'의 상징이라는 점에서 전략적으로 분리해 운용된다는 입장이다.

2025.07.03 12:06진성우

SKT, 에이닷엑스 4.0 오픈소스로 공개

SK텔레콤은 세계 최고 수준의 한국어 처리 능력을 가진 한국어 특화 LLM인 에이닷엑스(A.X) 4.0을 오픈소스로 공개했다고 3일 밝혔다. SK텔레콤은 이날 오픈소스 커뮤니티 허깅페이스에 A.X 4.0의 표준 모델과 경량 모델 2종을 공개했다. A.X 4.0은 현존 대규모 언어모델(LLM) 가운데 최상급의 한국어 처리 효율성은 물론 데이터 보안을 고려한 설계, 그리고 로컬 환경에서의 운영 가능성 등이 강점이다. 오픈소스 모델인 Qwen2.5에 방대한 한국어 데이터를 추가로 학습시켜 국내 비즈니스 환경에 최적화된 성능을 발휘한다. SK텔레콤은 A.X 4.0의 토크나이저를 자체 설계, 적용해 높은 수준의 한국어 처리 역량을 구현했다. 자체 테스트 결과 같은 한국어 문장을 입력했을 때 GPT-4o보다 A.X 4.0이 약 33%가량 높은 토큰 효율을 기록하며, 다른 LLM 대비 높은 정보 처리용량에 비용 절감까지 가능한 경제성을 갖췄다. 또한 A.X 4.0은 대표적인 한국어 능력 평가 벤치마크인 KMMLU2에서 78.3점을 기록해 GPT-4o(72.5점)보다 우수한 성능을 보였으며, 한국어 및 한국 문화 벤치마크인 CLIcK3)에서도 83.5점을 획득해, GPT-4o(80.2점)보다 더 높은 한국 문화 이해도를 입증했다. 이와 함께 SK텔레콤은 A.X 4.0를 기업 내부 서버에 직접 설치해 사용할 수 있는 온프레미스 방식으로 제공해 기업들이 데이터 보안에 대한 걱정을 덜 수 있도록 서비스할 계획이다. 특히 A.X 4.0 개발 과정에서도 대규모 학습(CPT)의 전 과정을 외부와 연동없이 자체 데이터로 학습해 데이터의 주권도 확보했다. 또한 표준 모델은 720억 개(72B), 경량 모델은 70억 개(7B)의 매개변수를 갖추고 있어, 이용자들이 목적에 맞춰 선택적으로 이용할 수 있도록 했다. SK텔레콤은 A.X4.0을 지난 5월 에이닷 통화 요약에 적용해 성공적으로 활용하고 있으며, 추후 자사는 물론 SK그룹 내 다양한 서비스에 적용할 계획이다. SK텔레콤이 이번에 선보인 모델로 기업들은 파생형 모델을 개발할 수 있고, 연구 분야에서도 활용할 수 있다. 이를 통해 국내 기업들이 자체 환경에서 AI 기술을 보다 쉽게 활용할 수 있는 새로운 선택지를 제공해 나갈 예정이다. 아울러 A.X 4.0 지식형 모델의 오픈소스 공개와 동시에 추론형 모델의 발표도 앞두고 있다. SK텔레콤은 이달 중으로 수학 문제 해결과 코드 개발 능력이 강화된 추론(Reasoning)형 모델을 공개하고, 이미지와 텍스트를 동시에 이해하고 처리할 수 있는 수준까지 모델을 업데이트할 계획이다. 또한 소버린 AI 관점에서 A.X 3.0에 적용한 프롬 스크래치 방식도 병행하여 개발을 진행하고 있으며, 후속 모델도 순차적으로 공개할 예정이다. 김지원 SK텔레콤 AI Model Lab장은 "SK텔레콤의 다양한 서비스를 고도화하고, 기업 시장에서 한국어 특화 LLM으로 국내 비즈니스 환경에 최적화된 모델이 될 수 있도록 지속적인 기술 개발을 추진할 계획”이라고 밝혔다.

2025.07.03 09:07박수형

KT, 한국적AI '믿음2.0' 오픈소스 공개...국내 AI 대중화

KT가 '한국적 AI'의 철학을 담아 자체 개발한 언어모델(LLM) '믿:음 2.0'의 오픈소스를 공개한다. 첫 국산 범용 LLM을 개방하며 국내 AI 생태계를 활성화하는 동시에 '한국적 AI'를 확산할 방침이다. KT는 자체 개발한 한국형 언어모델(LLM) '믿:음 2.0'을 오픈소스로 공개한다고 3일 밝혔다. 공개는 AI 개발자 플랫폼 허깅페이스를 통해 이뤄지며, 기업·개인·공공 모두 제약 없이 상업적 활용이 가능하다. '믿:음 2.0'은 KT의 AI 철학인 '한국적 AI'를 구현한 모델로, 한국의 언어·문화·사회 맥락을 반영해 개발됐다. 고품질 한국어 데이터를 기반으로 학습됐으며, 저작권 이슈 없이 신뢰성과 완성도를 높였다. 또한 국내외 정책과 가이드라인을 기반으로 전문가들과 함께 만든 'AI 영향 평가 체계'를 적용해 보다 안전하고 투명한 기술을 구현하는 데 힘썼다. '한국적 AI'는 KT의 AI 철학으로 한국의 정신과 방식, 지식을 기반으로 구현해 한국에 가장 잘 맞는 AI를 의미한다. 이를 위해 KT는 한국의 사회적 맥락과 같은 무형의 요소와 한국어 고유의 언어적·문화적 특성 등을 충분히 반영한 정보를 학습시킨 AI 모델을 개발했으며, 대한민국의 산업과 일상 속에서 AI가 자연스럽게 스며들어 대중화될 수 있도록 앞장서고 있다. 이번에 공개되는 모델은 ▲115억 파라미터의 '믿:음 2.0 Base'와 ▲23억 파라미터의 '믿:음 2.0 Mini' 두 가지다. 두 모델 모두 한국어와 영어를 지원하며, 특히 Base는 질의응답 등에서 뛰어난 성능을 보인다. KT는 이번 공개가 국내 최초로 110억 파라미터 이상 LLM을 상업적 오픈소스로 제공하는 사례라며, AI 생태계 활성화에 기여할 것으로 기대했다. 믿:음 모델은 Ko-Sovereign, KMMLU, HAERAE 등 주요 벤치마크에서 국내외 오픈소스 모델을 능가하는 성능을 기록했다. 고려대 민족문화연구원과의 협력을 통해 학술적 신뢰도도 확보했다. 또한, 국산 AI 반도체 기업 리벨리온과의 협력으로 국산 칩 최적화도 진행했으며, 프렌들리AI와 함께 누구나 쉽게 체험할 수 있는 환경도 제공한다. KT는 향후 GPT-4 기반의 한국어 특화 모델도 마이크로소프트와 협력해 순차적으로 공개할 계획이다. 앞서 KT는 자체 개발한 모델 '믿:음', 글로벌 기업들의 현존 최고 수준 모델(SOTA) 등을 두루 활용하여 한국의 특수성을 반영한 AI 모델에 집중 투자하고 국내 사용 환경에 특화한 AI의 대중화에 앞장서겠다고 밝혀온 바 있다. 국내 공공 및 민간 여러 분야에서 AI를 활용한 혁신을 주도하며 국가 AI 경쟁력 제고에 기여한다는 복안이다. 신동훈 KT Gen AI Lab장(CAIO)은 “믿:음 2.0은 일반적인 생성 능력을 갖추면서도 한국의 문화와 언어를 깊이 이해하도록 고도화된 AI 모델”이라며 “이는 KT가 국내 사용자들에게 고성능 한국적 AI 모델에 대한 새로운 대안을 제시하는 한편 글로벌 경쟁력을 갖추게 될 중요한 발판이 될 것”이라고 말했다.

2025.07.03 09:01진성우

"브랜드 인지도 높여"…어도비, LLM 옵티마이저 출시

어도비가 생성형 인공지능(AI) 시대에 발맞춰 브랜드 가시성·인지도 최적화를 돕는 솔루션을 내놨다. 어도비는 '거대언어모델(LLM) 옵티마이저'를 출시했다고 2일 밝혔다. LLM 옵티마이저는 콘텐츠가 AI 브라우저나 챗봇에서 어떻게 활용되는지 실시간으로 분석할 수 있다. 이를 통해 경쟁사 대비 브랜드 노출 현황을 벤치마킹하고, 고가치 검색어 기반의 콘텐츠 전략을 개선하는 데 도움 줄 수 있다. 또 웹사이트와 자주 묻는 질문(FAQ), 포럼, 위키피디아 등 내·외부 채널 전반에서 콘텐츠 가시성을 평가하고 개선 방향을 제안한다. 클릭 한 번으로 수정 사항을 반영할 수 있으며, 참여율·전환율 등의 지표와 연결된 성과 분석도 가능하다. 이번 솔루션은 검색 엔진 최적화(SEO) 담당자, 디지털 마케터, 콘텐츠 전략가 등 다양한 실무자의 기존 워크플로우에 통합되도록 설계됐다. 아울러 에이전트 투 에이전트(A2A), 모델 컨텍스트 프로토콜(MCP) 등 기업용 프레임워크를 지원해 파트너 솔루션과의 연동성도 확보했다. 어도비는 "생성형 AI는 고객과 브랜드 간 인식, 대화, 구매 전환의 핵심 도구로 자리잡았다"며 "LLM 옵티마이저는 기업이 변화하는 환경에서 주도권을 유지하고 성공 확률을 높이는 데 도움을 줄 것"이라고 강조했다.

2025.07.02 09:25김미정

'생성형 AI 강자' 코난테크놀로지, 겟스마트 손잡고 금융권 공략 가속

코난테크놀로지가 HRD 플랫폼 겟스마트와 손잡고 생성형 AI 기반 투자심사보고서 자동화 서비스 지원에 나선다. 코난테크놀로지는 지난 달 27일 서울 강남구 서초동 본사에서 겟스마트와 업무협약을 체결했다고 1일 밝혔다. 이날 협약식에는 코난테크놀로지 김영섬 대표, 김승기 부사장 및 겟스마트 원승빈, 조규상 대표 등이 참석했다. 양사는 이번 협약을 계기로 ▲금융권 특화 생성형 AI 서비스 공동 개발 ▲온프레미스 기반 맞춤형 솔루션 공급 ▲금융권 및 기업 대상 공동 영업 및 사업화 확대 등에서 협력을 강화할 계획이다. 겟스마트는 금융, 병원, 항공사 등 40여 개 기업 및 기관에 맞춤형 인재관리 서비스를 제공하는 기업교육 플랫폼 전문 기업으로, GS ITM HRD 사업팀의 인적 분할을 통해 독립 출범했다. 또 IMM 인베스트먼트 등에서 활용 중인 AI 애널리스트(Analyst) 서비스를 자체 개발해 내부 문서, ERP 데이터, 외부 검색 등 다양한 소스의 정보를 결합해 투자심사보고서 등 각종 보고서를 자동으로 생성하는 솔루션을 운영하고 있다. 실제 높은 만족도를 얻고 있으며 이를 기반으로 다른 투자사와 자산운용사 등에 월 구독 모델로 판매를 확대할 계획이다. 코난테크놀로지는 이번 협약을 통해 해당 서비스를 자사의 온프레미스 방식으로 제공해 금융권 등 보안과 데이터 주권이 중요한 고객사에 맞춤형 생성형 AI 솔루션을 공급하고 금융권 공동 영업에 뛰어들 예정이다. 겟스마트는 골드만삭스 자산운용 대표와 NH투자증권 부사장 출신 조규상 공동대표가 금융권 영업을 직접 이끌고 있어 양사의 시너지가 기대된다. 김영섬 코난테크놀로지 대표는 "겟스마트와의 협력을 통해 금융권 등 다양한 분야에서 생성형 AI 기반 업무 혁신을 추진하겠다"고 말했다. 원승빈 겟스마트 대표는 "코난테크놀로지의 기술과 우리의 현장 경험을 바탕으로 투자심사 및 자산운용 분야의 디지털 전환에 기여하겠다"고 포부를 밝혔다.

2025.07.01 09:29장유미

라인플러스가 말하는 AI 시대 '진짜 분석가의 일'

[도쿄(일본)=안희정 기자] “이 대시보드, 데이터 분석가가 만든 게 아니라 AI가 만들었습니다. 5분도 안 걸렸습니다.” 라인플러스가 자체 개발한 MCP(Model Context Protocol) 기반의 분석 자동화 시스템을 공개했다. 복잡한 데이터 파이프라인을 AI가 이해하고 처리할 수 있도록 시맨틱 레이어를 도입해, 기존 수작업 분석 과정을 자동화하고 정밀도까지 높인 점이 핵심이다. 라인플러스 박민서 데이터 분석가는 30일 일본 도쿄에서 열린 기술 컨퍼런스 '테크버스 2025' 에서 최신애 데이터 분석가와 함께 'AI로 데이터 분석가 일자리 뺏기: 생성형 AI를 이용한 데이터 파이프라인 구축 및 데이터 분석 자동화'라는 발표를 진행했다. 이 자리에서 박 분석가는 "AI는 분석가의 일을 대체하는 것이 아니라, 분석가가 전략에 집중할 수 있게 만든다”고 강조했다. 생성형 AI가 실제로 기업 데이터를 분석하려면 단순한 자연어 처리 능력뿐 아니라, 데이터베이스 접근 권한과 맥락(컨텍스트)을 이해할 수 있는 환경이 필요하다. MCP는 이 과정을 구조화된 워크플로로 설계해, LLM이 실질적인 분석 업무를 수행할 수 있게 해주는 프로토콜이다. 박 분석가는 "AI로 데이터 분석을 하려면 LLM이 데이터베이스에 접근하고, 요청한 작업을 수행할 수 있도록 권한을 줘야 한다. 이를 쉽고 가능하게 해주는 것 중 하나가 MCP서버"라며 "MCP 서버라는 툴 박스를 클라이언트한테 쥐어주면 클라이언트는 이를 이용해서 데이터베이스에 접근하고 또 필요한 작업들을 할 수 있게 된다"고 설명했다. 박 분석가는기존의 분석 프로세스를 “단계마다 담당자도 다르고, 데이터 추출·가공·시각화까지 수작업이 많아 비즈니스 질문의 맥락이 손실되기 쉬웠다”며 "반면 MCP 기반 시스템에서는 LLM이 사용자의 질문을 분석하고, 데이터 추출부터 지표 계산, 시각화, 리포팅까지 자동으로 처리할 수 있다"고 강조했다. 여기에는 시맨틱 레이어링(Semantic Layering) 기술이 작용한다. 이는 비즈니스 용어, 데이터 스키마, 분석 로직 등 다양한 분석 맥락을 AI에게 전달해주는 중간 계층이다. 라인플러스는 이를 클라이언트·서버·데이터베이스(DB) 단에 각각 적용해, 질문의 의도를 정확히 반영하고 분석 성능을 끌어올렸다. 박 분석가는 "예를 들어 '서비스 이탈률이 얼마냐'는 질문에 대해 AI가 단순히 '비활성 사용자'만 계산한다면, 구독 취소 사용자는 누락된다. 우리가 기대하는 분석과 다른 결과가 나오는 것"이라며 "이는 사용자 요청을 AI가 제대로 이해하지 못하고 있기 때문이다. 이를 해결하기 위해 LLM에 컨텍스트를 줘야한다"고 말했다. 최신애 분석가는 실제 분석 사례를 소개하며, 시맨틱 레이어 적용 전·후의 분석 정확도 차이를 설명했다. 최 분석가는 “4월 서비스 이탈률을 계산하는 질문에서, 처음엔 비활성 사용자만 반영해 83%라는 결과를 냈다"며 "그러나 시맨틱 레이어를 통해 구독 취소자까지 포함하자 83.6%, 인덱싱 최적화를 더하니 83.4%로 정정됐다"고 말했다. 이 과정을 통해 라인플러스는 LLM이 실질적인 분석 도구로서 작동하려면 단순한 툴 연결이 아니라, 정확한 맥락 설계(Context Design)가 필요하다는 점을 강조했다. 시맨틱 레이어는 사용자 프롬프트에 포함시킬 수도 있고, 서버 내 설정 파일로 구성하거나, DB 내 메타데이터 및 트리거 구조로 반영할 수 있다. 구현 난이도는 높아지지만 자동화 수준과 분석 정밀도 역시 높아진다. 실제로 라인플러스는 MCP 구조를 활용해 몽고DB, 포스트그레SQL, 태블로, 슬랙 등 다양한 시스템을 연결하고 있으며, 실시간 모니터링, 비즈니스 성과 분석, 업무 자동화 등 다양한 시나리오로 확장 중이다. 최 분석가는 "많은 분석가들이 AI가 이렇게 빠르게 발전하면 내 일자리가 사라지는 건 아닐지 걱정하곤 한다"며 "하지만 이 변화가 일자리 위협이 아니라 사람과 AI가 각자의 강점을 살려서 협업할 수 있는 계기가 될 수 있다고 생각한다"고 말했다. 그러면서 "LLM은 대규모 데이터를 빠르게 처리하고 여러 시스템에 동시에 쿼리를 날리고 반복적인 분석 작업을 자동화하고 실시간으로 모니터링 하는 데 강하다"며 "특히 속도, 반복, 그리고 규모의 영역에서는 AI가 사람보다 큰 강점을 가지고, 사람은 AI가 비즈니스 맥락을 이해할 수 있도록 로직을 설계하고 시맨틱 레이어를 구축하고 AI가 분석한 결과를 검증하는 역할을 한다"고 언급했다. 이어 "결국 LLM은 사람의 분석 역량을 확장시켜주는 강력한 파트너라고 생각한다"며 "이제 분석가는 AI가 비즈니스 맥락을 이해할 수 있도록 구조를 설계하고 전략적인 질문을 던져서 지금보다 더 깊은 인사이트를 이끌어내는 역할을 하게 될 것"이라고 역설했다.

2025.06.30 17:09안희정

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

오픈AI·퍼플렉시티 등 총 출동…'AI 페스타 2025' 30일 개막

2차 소비쿠폰 지급 D-7…유통업계 ‘대규모 할인’ 채비

시속 95㎞ 손 놓고 달린다…벤츠 '레벨3' 자율주행 타보니

세계적 해킹그룹 국내 금융사 2곳 해킹..."고객 명단에 유명 정치인 포함"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.