• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'모델'통합검색 결과 입니다. (394건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] "국가대표 AI에 사활 건다"...선발전 앞두고 新 LLM 쏟아지는 이유는?

정부의 '독자 AI 파운데이션 모델' 프로젝트 공모가 오는 21일 마감되는 가운데 국내 주요 빅테크와 인공지능(AI) 스타트업들이 일제히 차세대 거대언어모델(LLM)을 선보이며 기술 경쟁에 불을 지폈다. 11일 업계에 따르면 '독자 AI 파운데이션 모델' 프로젝트는 최대 5개 AI 기업을 선정해 연간 100억원 규모 이상의 그래픽처리장치(GPU), 데이터, 인재 유치 비용 등을 지원하고 6개월 단위 경쟁을 거쳐 최종 모델을 압축하는 서바이벌 방식으로 진행된다. 이같은 상황 속에서 대기업, 통신사, 스타트업을 망라한 등 주요 AI 기업들이 새로운 LLM을 공개하며 출사표를 던졌다. 국가대표 AI 경쟁 뛰어든 기업들…핵심 모델과 전략은? SK텔레콤은 11일 오픈소스 커뮤니티를 통해 자체 개발한 경량 LLM '에이닷엑스 3.1 라이트(A.X 3.1 lite)'를 공개했다. 70억 파라미터 규모의 이 모델은 설계부터 학습까지 전 과정이 자체 기술로 제작된 '프롬 스크래치' 방식임을 강조했다. 이달 중에는 340억 파라미터의 중형 모델도 추가 공개하며 기술력을 과시할 예정이다. 김태윤 SK텔레콤 담당은 "꾸준히 쌓아 온 한국형 LLM 개발 역량을 바탕으로 AI 생태계 자립성을 높이겠다"고 말했다. 업스테이지는 지난 10일 310억 파라미터 규모의 '솔라 프로 2(Solar Pro 2)'를 출시하며 추론형 AI 시장에 본격적으로 진입했다. 질의응답용 '챗 모드'와 논리적 사고 기반의 '추론 모드'를 전환하는 하이브리드 방식이 특징으로, 실무 작업을 자율 수행하는 에이전트 구조까지 갖춰 글로벌 최상위 모델과 경쟁하겠다는 포부를 밝혔다. 김성훈 업스테이지 대표는 "자체 기술로 구현한 LLM으로 업무 방식을 근본적으로 혁신할 것"이라고 말했다. 같은 날 LG CNS도 캐나다 코히어(Cohere)와 협력해 개발한 1천110억 파라미터의 초대형 추론형 LLM을 선보였다. 초대형 규모임에도 2장의 GPU로 구동 가능한 고압축 기술을 핵심 경쟁력으로 내세웠다. 다만 LG CNS는 정부 프로젝트 직접 참여 여부를 밝히지는 않은 상태다. KT 역시 지난 3일 자체 개발한 '믿음 2.0' LLM을 오픈소스로 공개하며 '한국적 AI' 개발을 기치로 내걸었다. '믿음 2.0'은 법률, 특허 등 양질의 한국어 데이터를 학습하고 자체 토크나이저를 적용한 '토종 AI'임을 강조하며 115억 파라미터 '베이스' 모델과 23억 파라미터 '미니' 모델 2종을 선보였다. 신동훈 KT 젠AI랩장은 기술 자립에 대해 "기간통신사업자로서 생성형 AI 원천기술을 반드시 확보해야 한다"고 강조했다. 이외에도 네이버는 지난달 30일 멀티모달 추론 기능을 강화한 '하이퍼클로바X 씽크'를, 이스트소프트는 지난달 17일 검색증강생성(RAG)에 특화된 '앨런 LLM'을 출시하며 경쟁에 가세했다. 이같이 지난달부터 기술 발표가 집중된 가운데 AI 주도권 확보를 위한 물밑 경쟁은 그 이전부터 치열하게 이어져 왔다. 코난테크놀로지는 지난 3월 추론 기능을 통합한 320억 파라미터 모델 '코난 LLM ENT-11'을 출시하며 효율적인 코딩 성능을 과시했다. 솔트룩스 역시 지난 5월 복잡한 질문에 깊게 사고하는 320억 파라미터의 '루시아 3'를 선보이며 독자 기술력을 입증했다. LG그룹의 AI 개발을 주도하는 LG AI연구원의 행보도 주목된다. 지난 3월 추론 특화 모델 '엑사원 딥'을 선보인 데 이어 오는 22일에는 이를 통합한 차세대 모델 '엑사원 4.0' 공개 행사를 예고했다. 프로젝트 신청 마감 직전에 기술력의 정점을 보여주려는 핵심적인 전략적 포석으로 풀이된다. 게임업계와 신흥 스타트업의 도전도 거세다. 엔씨소프트의 AI 전문 자회사 NC AI는 지난해 자체 개발 '바르코 LLM'을 오픈소스로 공개하며 콘텐츠 생성 분야의 기술력을 선보였던 바 있다. 네이버클라우드 AI 연구자 출신의 신재민 대표가 설립한 트릴리온랩스 역시 한국어에 특화된 210억 파라미터 모델을 이르면 이번주 내에 공개할 예정으로, 정부 프로젝트 참여 의사를 분명히 하고 있다. K-LLM 쏟아지는 진짜 이유…"기술 증명 넘어 미래 표준 본다" 업계에서는 이같이 AI 기업들이 일제히 신기술을 공개하며 프로젝트에 사활을 거는 이유 중 하나를 '증명'에 있다고 본다. 프로젝트 참여 의사를 알리는 신호를 넘어 심사 과정에서 가장 중요한 평가 요소인 '독자 기술력'을 시장과 정부에 선제적으로 증명하려는 의도라는 것이다. 장기적으로는 정부가 내건 '전 국민 AI' 시대의 표준 모델이 되겠다는 보다 큰 야망도 깔려 있다. 프로젝트의 최종 승자는 '모두의 AI' 등 향후 공공 및 정부 시스템에 도입될 AI의 표준을 선점해 막대한 후속 사업 기회를 거머쥘 수 있기 때문이다. 동시에 연간 수백억 원에 달하는 GPU·데이터·인재 등 파격적인 지원을 통해 단숨에 글로벌 수준으로 도약할 수 있다는 현실적인 목표 역시 중요한 동기다. 한 업계 이익단체 관계자는 "이번 프로젝트에는 LLM 기업뿐만 아니라 AI 서비스 기업들도 콘소시엄 형태로 사활을 걸고 뛰어들고 있다"며 "이는 '독자 파운데이션' 사업이 단순히 개발에만 집중된 것이 아니라 실제 수요로도 이어지기 때문"이라고 평가했다. 이번 기술 경쟁은 최근 국내 LLM의 발전 방향을 명확히 보여준다는 점에서도 의미가 깊다. 단순히 패러미터 크기를 늘리던 양적 경쟁에서 벗어나 복잡한 문제를 논리적으로 해결하는 '추론(Reasoning)', 스스로 도구를 사용해 과업을 완수하는 '에이전트(Agent)', 텍스트와 이미지를 함께 이해하는 '멀티모달(Multimodal)' 기능이 핵심 화두로 떠올랐기 때문이다. 한 업계 전문가는 "개발자들 사이에서도 이제는 LLM 벤치마크 점수가 실제 성능을 온전히 대변하지 못한다는 공감대가 형성되고 있다"며 "결국 해외 선도 기업들처럼 실제 비즈니스 문제를 해결할 수 있는 추론 능력과 에이전트 구현 가능성이 기술력의 새로운 척도가 되고 있는 상황"이라고 설명했다.

2025.07.11 17:19조이환

SKT, 자체 개발 AI 모델 'A.X 3.1 라이트' 공개

SK텔레콤이 11일 오픈소스 커뮤니티 허깅페이스에 독자 구축 LLM인 에이닷 엑스(A.X) 3.1 라이트'를 공개했다. A.X 3.1 라이트는 기존 에이닷 전화 통화 요약에 적용했던 A.X 3.0 라이트 모델의 업그레이드 버전으로, SK텔레콤이 프롬 스크래치 방식으로 모델 구축과 데이터 학습 등 전 단계를 직접 진행했고 70억개(7B)의 매개변수를 기반으로 하는 경량 모델이다. 경량화된 성능과 높은 효율성의 장점에 따라 정보 처리 용량, 소비 전력 등 다양한 사양의 모바일 기기에서 최적의 품질을 구현할 수 있도록 해 기업들의 원활한 서비스 제공에 기여할 전망이다. A.X 3.1 라이트는 같은 규모의 매개변수를 바탕으로 하는 자매 LLM인 A.X 4.0 라이트와 동등한 수준의 우수한 한국어 처리능력을 갖췄다. 대표적인 한국어 능력 평가 벤치마크인 KMMLU에서 A.X 3.1 라이트(61.70)는 A.X 4.0 라이트(64.15)대비 96% 수준의 성능을 보였다. 또 한국어와 한국 문화 벤치마크인 CLIcK에서는 A.X 4.0 라이트(69.97) 대비 102% 수준의 성능을 기록했다. SK텔레콤은 A.X 3.1 라이트 후속인 매개변수 340억개(34B)의 프롬 스크래치 모델인 A.X 3.1을 이달 중 추가로 선보일 예정이다. SK텔레콤은 2018년부터 AI 언어 모델을 개발해 2019년 KoBERT를 고객센터 챗봇 등에 활용하기 시작했고, 2020년 국내 최초로 GPT2를 한국어로 개발해 오픈소스로 공개했다. 2022년 선보인 에이닷(A.) 서비스에는 자체 개발한 A.X 모델을 적용해 자유 주제로 대화가 가능하게 했으며, 2024년 A.X 3.0 모델을 에이닷 전화 통화요약 기능에 적용하기도 했다. A.X 3 계열의 자체 개발 모델과 함께 최적화된 성능과 효율이 필요한 영역에는 대규모 학습(CPT)에 기반한 A.X 4 계열 모델을 활용할 예정이다. 이와 같이 투 트랙 전략을 통해 국내 기업들이 각자의 환경에서 AI 기술을 보다 쉽게 활용할 수 있는 다양한 선택지를 제공한다는 방침이다. 또한 기존 모델의 성능을 대폭 혁신할 수 있도록 GPU 자원을 확충하고 개발 역량을 높여 나갈 계획이다. SK텔레콤은 그간의 기술 역량을 바탕으로 향후 정부가 추진하는 독자 AI 파운데이션 모델 개발사업에 지원할 예정이다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “꾸준히 쌓아 온 한국형 LLM 개발 역량을 바탕으로 AI 생태계 자립성을 높이고, 국가 AI 경쟁력 제고에 기여하도록 노력할 것”이라고 말했다.

2025.07.11 09:55박수형

[유미's 픽] 韓 대표 AI 선발전, '프롬 스크래치'가 핵심…컨소시엄 신경전 '치열'

글로벌 톱 수준의 거대언어모델(LLM)을 만들 '인공지능(AI) 국가대표 정예팀' 선발전이 본격화된 가운데 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준으로 지목되고 있다. 외국 LLM을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 10일 업계에 따르면 과학기술정보통신부가 추진하고 있는 '독자 AI 파운데이션 모델 개발 지원 사업'에 선정된 컨소시엄은 ▲새로운 자체 아키텍처를 설계하고 독자적 학습 알고리즘·기법을 적용해 AI 모델을 처음부터 개발하거나 ▲이미 갖고 있는 AI 파운데이션 모델을 추가 학습을 통해 고도화해도 된다. 하지만 최근 선보인 SK텔레콤의 '에이닷 엑스 4.0'처럼 해외 업체 AI 모델을 활용하면 안된다. '에이닷 엑스 4.0'은 중국 알리바바의 AI 모델 '큐원2.5'에 한국어 데이터를 추가로 학습시킨 모델로, 온프레미스(내부 구축형) 방식을 적용해 데이터 보안을 강화했다고는 하지만 정보 유출의 위험성을 우려하는 목소리들이 나오고 있다. 업계 관계자는 "에이닷 엑스 4.0이 한국어로 튜닝됐다는 이유만으로 이를 '한국형 모델'이라고 부르는 것은 맞지 않다"며 "모델의 '메모리'는 여전히 '큐원2.5'라는 점에서 큐원에서 학습한 불투명한 정보가 에이닷 엑스 4.0 내부에 그대로 내재돼 잘못된 결과물이 예기치 않게 출력될 가능성을 배제할 수 없다"고 지적했다. 이어 "큐원2.5는 메타 라마와 달리 학습에 어떤 데이터를 사용했는지, 어떻게 수집·정제했는지조차 밝히지 않아 불투명한 모델이라는 지적을 받고 있어 이를 활용한 에이닷엑스 4.0 같은 모델들이 공공망, 정부망에 도입되는 것을 철저하게 막아야 한다"며 "공공 AI는 성능이 아무리 뛰어나더라도 설명책임과 검증가능성이라는 핵심 요건을 충족시켜야 한다는 점을 이번에 심사할 때 꼭 고려해야 할 것"이라고 덧붙였다. 또 다른 관계자는 "이번 사업으로 진정한 '소버린 AI'를 실현하기 위해선 성능보다는 통제 가능성이 우선돼야 한다는 점을 정부가 명심해야 할 것"이라며 "AI 모델의 설계부터 폐기까지 전 생애주기에 걸친 자국 통제권이 확보돼야 하는 만큼 단순한 튜닝이 아닌 각 기업들이 원천 기술을 보유하고 있는지가 중요하다"고 강조했다. 정부도 이를 고려해 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건을 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 다만 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 과기정통부 관계자는 "메타의 '라마'든, 알리바바의 '큐원'이든 외국 업체들의 AI 모델 아키텍처를 참고해 이를 우리나라 상황에 맞게 재설계 해 처음부터 만들었다면 이번 사업에 참여할 수 있다"며 "아키텍처를 그대로 쓰면서 파인튜닝한 AI 모델로는 참여할 수 없다"고 설명했다. 그러면서 "완전 재설계한 모델은 라이센스 이슈가 없을 뿐더러 거기에 들어가는 데이터도 각 업체가 보유한 것을 넣은 것이기 때문에 문제 없을 것으로 본다"며 "이 경우에는 처음부터 본인의 기술력으로 만들어진 것인 만큼 프롬 스크래치 방식으로 봐도 된다"고 덧붙였다. 이를 두고 업계에선 정부가 일부 중소업체들을 참여시키기 위해 사업자 선정 기준을 좀 더 열어둔 것으로 봤다. 예컨대 업스테이지의 경우 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. 업스테이지는 이를 기반으로 이날 추론 모델도 공개했다. 업계 관계자는 "현재 선발전에 나올 기업 중 해외 기업 AI 모델의 아키텍처를 재설계해서 모델을 선보이는 곳은 업스테이지가 대표적인 것으로 안다"며 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 업스테이지 같은 스타트업들은 어느 한 곳도 선발전에 참여할 수 없어 정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 업계에선 '프롬 스크래치' 방식이 아닌 외국 AI 모델을 기반으로 재설계하거나 파인튜닝을 한 것을 활용한 기업들이 그간 많았다는 점에서 이번 선발전의 문턱을 넘을 수 있는 곳이 많지 않을 것으로 예상했다. 또 프롬 스크래치 방식을 그간 고집하며 대형 모델을 선보였던 KT와 네이버클라우드, LG AI 연구원, NC AI 정도가 사업자 선정에 유리할 것으로 봤다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 솔트룩스, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발한 만큼 이번에 사업자로 선정될 것이란 자신감을 보이고 있다. 이 중 코난테크놀로지는 지난 2023년 4월 국내 중소형 업체 중 최초로 자체 LLM인 '코난 LLM'을 출시한 곳으로, 이번 선발전에서 유력 후보로 떠오르고 있다. 지난 5월 자체 개발 LLM '루시아3'를 공개한 솔트룩스 역시 중소업체 중에서 주목 받고 있다. 업계에선 정부가 최종 선발될 '독자 AI 파운데이션 모델 프로젝트' 참여 정예팀을 대기업 3팀, 중소기업 2팀 등 최대 5팀을 초기에 선발할 것으로 보고 있다. 업계 관계자는 "300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 국내 업체는 사실 손꼽힌다"며 "이번 선발전은 일부 대기업을 중심으로 경쟁이 치열해질 가능성이 높다"고 봤다. 그러면서도 "다만 LG, 네이버 같은 일부 대기업은 기존 AI 모델을 전 국민이 쓰는 모델로 키워 나가기엔 수익이 결부돼 있어 내부 설득이 만만치 않을 듯 하다"며 "KT, SK텔레콤 등 통신사들은 최근까지 소버린 AI를 부정하고 해외 유력 빅테크 업체들과 협업하려고 노력했다가, 정부의 정책 변경에 발 맞춰 이번 사업에 들어오려는 모습을 보였다는 점에서 사업자로 선정되기엔 아쉬운 점이 많다"고 덧붙였다. 공개적으로 이번 선발전 참여를 예고했던 기업들은 최근 컨소시엄 구성을 두고도 치열한 주도권 경쟁을 벌이고 있다. 컨소시엄을 어떤 곳과 함께 구성하느냐에 따라 자신들의 전략이 노출될 가능성이 높은 만큼, 보안 유지에도 각별히 신경쓰는 분위기다. 현재까지 이번 선발전에 관심을 보이며 설명회에 참여한 기업은 KT와 SK텔레콤, LG유플러스, LG AI 연구원, 카카오, 네이버, 포티투마루, 업스테이지, 코난테크놀로지, NC AI, 솔트룩스, 레블업, 트릴리언랩스, 트웰브랩스, 이스트소프트, 모티프테크놀로지스 등으로 알려져 있다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 업계 관계자는 "각 업체들은 자신들의 장·단점을 철저하게 분석한 후 단점을 잘 커버할 수 있는 스타트업, 대학 등과 컨소시엄을 구성하기 위해 물밑 작업을 치열하게 벌이고 있는 것으로 안다"며 "다만 국내에 있는 대부분의 기업, 대학 등이 이번 선발전에 참여할 것으로 보여 이를 제대로 객관적으로 평가해 줄 심사위원들을 정부가 확보했을 지가 가장 큰 관심사"라고 말했다. 또 다른 관계자는 "공공 AI의 핵심 요구사항에서 기술적 성능을 넘어선 설명 책임과 투명성, 국가 인프라로서의 신뢰성과 지속가능성, 향후 에이전트 간 연동 등 확장성을 고려해야 한다"며 "'잘 작동하는 AI'와 '책임질 수 있는 AI'는 별개의 문제라는 점을 기준으로 삼고 성능 대비 통제권을 잘 가질 수 있는 부분에 대해 심사 시 신중히 봐야 할 것"이라고 밝혔다.

2025.07.10 17:00장유미

'오픈AI 대항마' 손잡은 LG CNS, 또 일냈다…추론형 LLM으로 '에이전틱 AI'서 승부수

"앞으로 LG CNS와 원팀으로 계속 협업을 이어가며 한국 특화 거대언어모델(LLM)을 만들 뿐 아니라 풀스택을 갖추고 있는 만큼 고객에게 맞는 최적화 된 모델을 선보일 것입니다." '오픈AI 대항마'로 여겨지는 캐나다 AI 스타트업 코히어를 설립한 에이단 고메즈 최고경영자(CEO)가 지난 3월 LG CNS와 함께 공약했던 LLM이 또 다시 공개됐다. LG AI 연구원의 LLM인 '엑사원'을 기반으로 하지 않고 코히어와의 협업을 통해 LG CNS가 추론 모델을 직접 개발했다는 점에서 AX 전문기업으로서의 역량을 다시 한 번 입증했다는 평가가 나온다. LG CNS는 최근 코히어와 손잡고 1천110억 개의 파라미터를 갖춘 추론형 LLM을 공동 개발했다고 10일 밝혔다. 이 LLM은 한국어, 영어 등 23개 언어를 지원하며 추론 등 핵심 성능에서 글로벌 상위 모델을 뛰어넘는 결과를 보였다. LG CNS는 지난 5월 코히어와 70억 개의 파라미터로 구성된 한국어 특화 경량 모델을 출시한 지 두 달 만에 초대형 모델을 연이어 발표하며 생성형 AI 역량을 보여줬다. LG CNS는 금융, 공공 등 민감한 데이터를 다루는 국내 고객들의 비즈니스 혁신을 위해 글로벌 시장에서 역량을 인정 받고 있는 코히어와 협력해 추론형 LLM을 개발했다. 추론형 LLM은 AI가 복잡한 문제에 대해 여러 변수를 고려한 논리적인 해답을 도출하는 모델로, AI가 스스로 판단하고 작업을 수행하는 '에이전틱 AI' 서비스 구현에 필수적인 기술로 손꼽힌다. LG CNS는 코히어와 공동 개발한 초대형·경량형 2종의 LLM과 LG AI연구원의 '엑사원' 등 LLM 라인업을 갖춰 고객이 맞춤형 에이전틱 AI 서비스를 만들 수 있는 기반을 마련했다. 에이전틱 AI는 AI가 스스로 판단, 추론해 복잡한 작업을 수행하는 차세대 인공지능으로 비즈니스 자동화, 최적화 등에 활용도가 높다. LG CNS는 이 LLM 개발을 위해 코히어의 기업용 LLM인 '커맨드(Command)' 모델에 LG CNS가 국내 전 산업 분야에서 축적한 IT전문성과 AI 기술력을 결합했다. 특히 코히어의 커맨드 모델은 이미 캐나다 최대은행 RBC(Royal Bank of Canada) 등에서 온프레미스와 클라우드 방식으로 사용되고 있어 글로벌 기업에서 검증된 바 있다. LG CNS는 LLM을 온프레미스 방식으로 제공해 고객사들이 민감한 데이터의 외부 유출 없이도 자체 인프라 내에서 안전하게 처리할 수 있도록 할 계획이다. 이번에 선보인 LLM은 모델 압축 기술을 통해 2장의 그래픽처리장치(GPU)만으로 구동이 가능하다는 장점도 갖췄다. 통상 파라미터 1천억 개 이상의 LLM에는 최소 4장의 GPU가 필요한 것으로 알려졌다. 이를 통해 고객사들은 회사의 비즈니스 환경에 최적화된 LLM을 효율적인 비용으로 확보하면서도 데이터와 인프라 주권을 확보하는 '소버린 AI'를 실현할 수 있다. '소버린 AI'는 국가나 기업이 자체 인프라를 기반으로 자국의 언어, 법, 문화 등을 반영한 독립적인 AI를 만들어 운영하는 것을 말한다. 양사가 개발한 LLM은 한국어와 영어에서 우수한 추론 능력을 보였다. 양사의 자체 테스트 결과 추론 능력 검증 대표 벤치마크 테스트인 ▲Math500과 ▲AIME 2024 영역에서 한국어, 영어 모두 GPT-4o, GPT4.1, 클로드 3.7 소넷 등 글로벌 LLM보다 높은 점수를 기록했다. 'Math500'은 대학 수준 이상의 수학문제 500개로 구성된 테스트로 AI가 얼마나 논리적으로 문제를 풀 수 있는지를 검증한다. 'AIME 2024'는 미국의 수학 경시대회 문제를 활용해 AI의 수학적 추론 능력을 평가한다. 양사의 LLM은 한국어·영어·일본어·중국어는 물론 히브리어·페르시아어 등 소수 언어까지 총 23개 언어를 지원한다. 이 중 한국어 평가 테스트에서는 온프레미스 방식의 LLM 중 현존 최고 수준의 성능(SOTA, State-of-the-Art)을 내는 것으로 나타났다. 한국어 평가 테스트인 ▲KMMLU ▲KO-IFeval에서 글로벌 LLM 대비 최고점을 달성했다. 특히 파라미터 규모가 2배 이상 많은 '큐원3(Qwen3)'보다도 우수한 성능을 보였다. 복잡한 비즈니스 문제 해결과 한국어 기반의 정교한 소통이 가능해 고객사의 업무 효율과 의사결정 품질을 획기적으로 개선할 수 있다. 'KMMLU'는 한국어 이해 능력을 종합적으로 평가하는 지표다. 인문학·사회과학·응용과학 등 45가지 분야 전문가 수준의 지식을 담은 3만5천여 개의 객관식 문제로 구성돼 있다. 'KO-IFeval'는 구글과 예일대학교가 만든 'IFeval'을 한국어로 번역한 벤치마크 테스트로, LLM이 대화 내용을 얼마나 잘 이해하고 지시사항을 잘 따르는지를 평가한다. LG CNS는 코히어와의 지속적인 협력을 이어가며 LLM의 성능을 고도화해나갈 계획이다. LG CNS AI클라우드사업부장 김태훈 전무는 "차별화된 AI 역량과 경쟁력을 바탕으로 고객의 비즈니스에 특화된 에이전틱 AI 서비스를 제공할 것"이라며 "고객의 AX를 선도하는 최고의 파트너로 자리매김할 것"이라고 밝혔다.

2025.07.10 10:00장유미

업스테이지, '추론형 AI' 상용화로 정면 승부…"글로벌 LLM 판 흔든다"

생성형 인공지능(AI) 산업의 추론형 모델 전환이 본격화된 가운데 업스테이지가 국내 스타트업 최초로 글로벌 경쟁 모델과 어깨를 나란히 하는 추론 모델을 완성했다. 업스테이지는 10일 차세대 거대언어모델(LLM) '솔라 프로 2(Solar Pro 2)'를 공개했다. 이 모델은 파라미터 규모를 310억으로 확대했으며 고도화된 추론 능력을 갖춘 '하이브리드 모드'를 도입한 것이 특징이다. 사용자는 빠른 질의응답을 위한 '챗 모드'와 논리적 사고 기반의 '추론 모드'를 상황에 따라 선택할 수 있다. '솔라 프로 2'는 수학 문제 풀이 성능을 측정하는 '매스500', 코딩 과제 해결력을 평가하는 '에스더블유이(SWE) 벤치', 종합 지식 기반의 추론 능력을 보는 '엠엠엘유(MMLU) 프로' 등 고난도 벤치마크에서 오픈AI 'GPT-4o', 딥시크 'R1', 미스트랄 '스몰 3.2'와 유사한 성능을 기록했다. 특히 '생각의 사슬(CoT)' 기법을 적용한 추론 모드가 뚜렷한 성능 향상을 이끌었다. 한국어 성능도 주목할 만하다. '솔라 프로 2'는 케이오-엠엠엘유(Ko-MMLU), 해례(Hae-Rae), 아레나-하드-오토(Arena-Hard-Auto) 등 벤치마크에서 글로벌 오픈모델을 넘어서는 결과를 보였고 어휘와 문맥 이해는 물론 금융·법률·의료 등 전문 분야 질의에도 실효성 있는 답변을 도출하는 수준에 도달했다. 모델 구조도 기능 중심으로 진화했다. 단순 문장 응답을 넘어 사용자의 의도를 파악하고 외부 도구를 호출해 실질적인 결과물을 도출하는 '에이전트형 LLM' 구조가 탑재됐다. 일례로 실시간 웹 검색, 정보 정리, 프레젠테이션 초안 작성까지 일련의 업무를 자율적으로 수행할 수 있다. 업계에서는 최근 국내 대기업들이 잇따라 추론 특화 모델을 공개한 데 이어 업스테이지가 스타트업 최초로 이 영역에 진입한 점에 주목하고 있다. LG AI연구원은 지난 3월 다중 입력을 처리하는 멀티모달 기반의 에이전트형 LLM '엑사원 2.0'을 선보이며 본격적인 추론 경쟁에 가세했다. 네이버도 지난달 '하이퍼클로바X 씽크'를 공개하며 언어와 시각 정보를 모두 다루는 추론 구조를 구현한 모델을 제시했다. 이어 업스테이지가 상용 모델을 내놓으면서 국내 LLM 개발 주체는 대기업에서 벤처로까지 외연을 넓히는 양상이다. 김성훈 업스테이지 대표는 "'솔라 프로 2'는 단순히 말을 잘하는 AI가 아니라 문제를 이해하고 논리적으로 사고하며 실질적인 행동까지 수행하는 AI 에이전트"라며 "자체 기술로 구현한 세계 최고 수준의 LLM을 기반으로, AI가 업무 방식을 근본적으로 혁신하고 '일의 미래'를 앞당길 수 있도록 기술을 고도화해 나가겠다"고 밝혔다.

2025.07.10 08:00조이환

코난테크놀로지, LLM 탑재 AI PC 조달청 '등록'…공공시장 '정조준'

코난테크놀로지가 자체 거대언어모델(LLM)을 탑재한 인공지능(AI) PC의 공공 조달 체계를 확보하며 시장 진입을 본격화했다. 온디바이스 생성형 AI 시스템을 전면에 내세운 만큼 공공기관 특화 요구를 정조준했다는 평가다. 코난테크놀로지는 TG삼보와 협력해 AI PC '코난 AI스테이션(AIStation)'을 조달청 나라장터 종합쇼핑몰에 공식 등록했다고 9일 밝혔다. 이에 따라 공공기관은 해당 장비를 별도 입찰 없이 조달청을 통해 직접 구매할 수 있게 됐다. 이 제품은 코난테크놀로지가 자체 개발한 한국어 특화 LLM을 탑재한 AI 내장형 PC다. 사양별로 보급형과 고급형 두 가지 모델로 등록됐으며 고급형에는 64기가바이트 '디디알5(DDR5)' 메모리와 엔비디아 '알티엑스 4070(RTX 4070)' 칩이 장착됐다. 실시간 문서 분석, 보고서 작성, 생성형 AI 기반 행정처리에 최적화된 구성이란 설명이다. 기기는 인터넷 연결 없이도 윈도우 환경에서 생성형 AI 기능을 실행할 수 있다. 모든 연산이 로컬에서 이뤄져 민감 정보의 외부 유출 위험을 원천 차단할 수 있도록 설계됐다. 이는 공공 업무 특성상 클라우드 기반 AI 사용에 제약이 있는 기관들에게 현실적인 대안이 될 수 있다. 코난테크놀로지와 TG삼보는 지난 5월 자사 행사에서 연간 40만 대 규모의 공공 조달 시장 공략 계획을 밝힌 바 있다. 이번 등록은 이 계획의 실질적 첫걸음으로, 조달 등록과 동시에 현장 영업 확대도 병행되고 있다. 영업은 TG삼보가 하드웨어 공급을, 코난테크놀로지가 LLM 기반 소프트웨어를 제공하는 구조다. TG삼보는 10여 년간 정부 납품 1위 자리를 지켜온 기업으로, 기존 공공 유통망을 활용한 빠른 확산이 가능할 것으로 보인다. 김영섬 코난테크놀로지 대표는 "생성형 AI 어플라이언스 판매 확대를 위한 첫걸음을 내디뎠다"며 "공공 시장 점유율을 끌어올리고 매출 성장에 박차를 가하겠다"고 밝혔다. 지승현 TG삼보 대표는 "이번 등록이 전국 공공기관 공급 확대의 전환점이 될 것"이라고 강조했다.

2025.07.09 15:04조이환

[기고] 가장 쉽고 빠르게 AI 서비스를 구축하는 방법, 문서중앙화

최근 '소버린 AI'에 대한 기업·정부·언론의 관심이 급격히 높아지고 있다. 관심의 본질은 데이터 주권(Data Sovereignty)에 있다. 인공지능(AI)이 신뢰할 수 있는 결과를 내기 위해서는 반드시 기업 고유의 데이터, 더 나아가 자국 경계 안에 존재하는 데이터를 기반으로 작동해야 한다는 공감대가 형성된 것이다. 실제 레퍼런스 구현 방식으로는 검색증강생성(RAG) 아키텍처가 가장 많이 거론된다. 대규모언어모델(LLM)이 자체 지식을 최소화하고 사내 문서를 검색해 응답을 생성하기 때문에 데이터 주권·보안 요구에 부합하기 때문이다. 그러나 현장의 목소리는 "첫 단추부터 막힌다"는 데 모아진다. 핵심 병목은 데이터 품질 확보다. 가트너는 AI 도입 성공을 위해 지속적인 데이터 정렬, 검증, 그리고 거버넌스를 핵심 요소로 제시한다. 많은 기업이 그 중요성을 인지하고 있음에도 불구하고 실제 실행이 어려운 이유는, 데이터 관리 체계를 처음부터 새로 구축하고 정의하는 작업이 어렵고 복잡하기 때문이다. 이로 인해 데이터 품질이 낮아지면 AI 학습에 사용할 수 있는 데이터 양이 부족해지고, 권한 관리 미흡이나 기밀 정보의 노출 위험, 결과의 신뢰성 부족 등 다양한 운영 리스크로 이어질 수 있다. 그런데 이러한 관리 체계가 이미 최적화된 형태로 제공되는 플랫폼이 존재한다. 바로 문서중앙화 플랫폼이다. 이 플랫폼은 파일의 수집부터 폐기까지 원시 데이터를 체계적으로 저장·관리할 수 있다. 이 플랫폼은 기업들이 겪는 데이터 관리의 어려움을 대부분 해결할 수 있다. 분산되고 파편화된 파일을 중앙 집중식으로 저장하고, 개인 중심의 저장 방식을 업무 중심의 분류 체계로 전환하며, 소유권·권한 관리, 파일의 이력과 버전 관리, 보안 정책 적용 및 메타정보의 구성까지 통합적으로 관리한다. 기업내의 비정형 데이터의 통합 스토리지 역할을 하고, 이 데이터 관리 체계와 권한 체계는 그대로 생성형 AI의 데이터 파이프라인과 연계될 수 있다. 결과적으로 문서 중앙화 플랫폼을 통해 지식화된 데이터는 자연스럽게 AI 처리 흐름으로 연결되어 자동으로 처리되며, 문서의 구조와 의미, 유사성 파악과 함께 보안 기준이 통합적으로 적용된다. 이를 통해 기업은 정보와 관리의 사각지대를 제거하고, AI 기반 서비스 운영에 필요한 신뢰성과 관리 효율성을 동시에 확보할 수 있게 된다 문서중앙화 플랫폼과 RAGOps의 통합은 3가지 핵심적인 특징을 제공한다. 첫 번째 "문서중앙화가 전처리의 시작점이자 AI의 기반이 된다" AI 서비스를 도입할 때 별도의 데이터 체계를 새로 구축하기보다, 기존의 문서중앙화 시스템을 데이터 기반으로 삼고 그 위에 AI를 접목하는 것이 핵심 전략이다. RAG옵스(Ops) 플랫폼을 기반으로, 데이터 파이프라인 자동화, 자연어 기반 검색, 요약, 회의록 생성 등 다양한 AI 서비스를 제공하며, 기존 문서중앙화에 AI 기능이 더해져 업무 효율성과 서비스 확장성이 크게 향상된다. 두 번째 "일관된 메타정보 체계를 통해 운영 가능한 AI를 만든다" AI가 안정적으로 운영되기 위해서는 데이터 운영체계와 AI 운영체계가 일관된 관리 기준을 공유해야 한다. 비정형 데이터만으로는 한계가 있으며, 이를 보완하는 표준화된 메타정보 체계가 필수적이다. 문서중앙화 플랫폼과 RAG옵스와 메타체계를 공유하며, 비정형 문서와 함께 메타 정보도 자동 연동·관리된다. 또한, 문서 의미 정보와 함께 등급·분류·관리 속성 등 메타정보까지 벡터화하여 저장함으로써, 검색 정확도와 생성 응답의 신뢰성을 크게 향상시키고, 운영 가능한 실용 AI로 발전시킨다. 세 번째, "RAG옵스 플랫폼을 통해 지속적인 개선과 확장이 보장된다" 문서중앙화 플랫폼의 AI 서비스는 RAG옵스 기반의 자동화된 AI 파이프라인을 통해 지속적으로 개선된다. 데이터 수집부터 임베딩, 검색, 생성까지 전 과정이 최적화되어 데이터 품질 향상에 기여하며, 평가 모델과 피드백 루프를 통해 응답 품질도 지속적으로 향상된다. 이를 통해 문서 기반 AI 시스템은 지속적인 발전과 운영 확장이 가능한 구조를 제공한다. 문서중앙화 플랫폼과 RAG옵스 플랫폼의 결합은 기업이 AI 시대의 복잡한 데이터 과제를 해결하고, AI의 진정한 잠재력을 안전하고 효율적으로 실현할 수 있는 견고한 기반을 제공한다. 인젠트의 도큐먼트(document) 플랫폼과 RAG옵스 결합은 이를 입증한다. AI를 빠르고 안전하게, 그리고 지속적으로 확장하려는 기업에게 문서중앙화는 가장 효율적이고 전략적인 선택지다. 기존 문서 자산을 체계적으로 관리하고 AI와 자연스럽게 연계함으로써, 데이터 기반 AI 서비스의 구현을 빠르고 효과적으로 가능하게 한다. 특히 RAG옵스 기반의 지속적인 개선 체계를 통해 AI 품질까지도 함께 진화할 수 있다는 점에서, 가장 실용적이고 전략적인 AI 도입 방식이라 할 수 있다.

2025.07.09 13:51박정권

이스트소프트, AI 검색 '앨런' 구독제 도입…LLM 서비스 수익화 시동

국가대표 인공지능(AI) 모델 기업에 도전하는 이스트소프트가 구독형 서비스를 출시하며 수익 모델 구축에 속도를 낸다. 이스트소프트는 AI 검색 엔진 서비스 '앨런'에 구독 서비스를 새롭게 도입하며 자체 개발한 거대언어모델(LLM)을 기반으로 본격적인 수익화에 나선다고 7일 밝혔다. 이번 구독 서비스 출시를 통해 이스트소프트는 자체 개발한 앨런 LLM을 기반으로 검색에 특화된 에이전틱 AI 서비스를 제공하며 수익 모델을 구축해 간다는 전략이다. 구독 서비스 출시에 따라 앨런은 월 1만9천900원의 '프로 플랜'과 무료 서비스인 '프리 플랜'을 제공하기 시작한다. 아울러 서비스 출시를 기념해 프로 플랜을 월 1만4천900원에 이용할 수 있는 프로모션도 한시적으로 진행한다. 프로 플랜은 앨런에서 제공하는 AI 검색을 비롯해 유튜브 요약 기능을 제약 없이 사용할 수 있다. 특히 심층 보고서를 생성해 주는 고급 기능인 딥 리서치는 사용자가 충분히 활용할 수 있도록 더 많은 사용량을 지원한다. 이와 함께 다양한 글로벌 LLM을 사용하는 옵션도 제공한다. 프리 플랜에서도 앨런의 모든 기능을 체험할 수 있다. 단 일일 사용량에 제한이 있다. 이스트소프트는 앨런의 서비스가 연속성을 가진 다각적인 검색 행위를 지원하기에 많은 이용자가 구독 서비스로 전환할 것으로 기대하고 있다. 앞서 이스트소프트는 지난 6월 자체 개발 모델 앨런 LLM을 정식 출시했다. 당시 파라미터 2천억 개 이상 수준의 초거대 모델과 경량 모델을 출시했고 이후 경량 모델 공급 계약을 빠르게 체결하며 사업화에 속도를 내고 있다. 정상원 이스트소프트 대표는 "구독 서비스 출시는 자체 LLM 기술 경쟁력을 바탕으로 앨런 서비스를 수익 모델로 전환하는 첫걸음"이라며 "앞으로도 자체 모델 고도화와 최적화를 지속해 한국형 AI 검색 엔진을 대표하는 서비스로 앨런이 자리매김할 수 있게 하겠다"고 말했다.

2025.07.07 10:55한정호

"소버린 AI, 핵심은 오픈소스 모델·연산 인프라 자립"

각국이 인공지능(AI) 주권을 확보하는 '소버린 AI' 시대에 대비하려면 오픈소스 기반 모델과 클라우드 컴퓨팅 활용이 핵심이라는 전문가들의 분석이 나왔다. 6일 CNBC가 태국 방콕에서 주최한 '이스트 테크 웨스트 2025' 컨퍼런스에서 패널들은 AI가 점점 더 민주화되는 흐름 속에서 개발도상국들이 자체적인 AI 역량을 갖추는 것이 중요하다고 강조했다. 소버린 AI는 국가가 자국의 AI 기술과 데이터, 관련 인프라를 주도적으로 통제함으로써 고유한 언어와 문화, 안보 요구에 부합하는 기술을 개발할 수 있게 하는 전략적 자립의 개념이다. SCB 10X의 카시마 탄피피차이 AI 전략 총괄은 "지금까지 전 세계에서 가장 주목받는 대형언어모델(LLM)은 대부분 영어를 기반으로 설계돼 있다"고 지적하며 "언어가 다르면 사고방식과 세계와 상호작용하는 방식도 달라질 수 있는 만큼 단순 번역이 아닌 자국 언어와 문화를 반영한 AI 시스템 개발이 중요하다"고 말했다. 이어 "AI를 자국 중심으로 구축하지 않으면 궁극적으로 기술 종속에서 벗어나기 어렵다"고 덧붙였다. 패널들은 동남아시아국가연합(ASEAN) 지역이 소버린 AI를 구축하기에 특히 적합한 환경을 갖췄다고 평가했다. 약 7억 명에 달하는 전체 인구 중 35세 이하가 61%를 차지하며 하루 평균 12만5천 명이 새롭게 인터넷에 접속할 정도로 디지털 전환 속도가 빠르기 때문이다. 특히 이날 행사에서 패널들은 오픈소스 모델이 소버린 AI 환경을 구축하는 데 중요한 역할을 할 수 있다고 강조했다. 탄피피차이 총괄은 "태국과 동남아에는 훌륭한 AI 인재들이 많다"며 "이들이 만들어낸 결과물을 폐쇄된 형태로 묶어두는 것은 국가적으로 큰 손실"이라고 밝혔다. 그는 "오픈소스는 집단적 에너지를 만들어내며 AI 경쟁력을 국가 차원으로 끌어올리는 데 기여할 수 있다"고 설명했다. 오픈소스 모델은 기존의 폐쇄형 모델에 의존하지 않고 기업과 정부가 보다 다양한 선택지를 갖도록 해준다는 점에서 긍정적으로 평가받고 있다. 데이터브릭스의 세실리 응 아세안·중화권 총괄은 "중국의 경우 오픈소스를 통해 AI 생태계를 키우고 미국과의 경쟁력을 높일 수 있었다"며 "이러한 구조는 동남아 국가들에게도 유효하다"고 말했다. 또 AI 주권 확보를 위해서는 언어적 현지화뿐만 아니라 물리적인 컴퓨팅 인프라 자립도 중요하다는 의견이 나왔다. 레드햇의 프렘 파반 동남아·한국지역 총괄은 "그동안 AI 현지화는 언어 중심이었다면 이제는 연산 인프라 자체를 자국 내에서 운영하는 것이 더 중요해지고 있다"며 "글로벌 클라우드 기업뿐 아니라 지역 클라우드 사업자들과 협력해 연산 인프라를 국내에 구축하는 것도 한 방법"이라고 설명했다.

2025.07.06 10:46한정호

[유미's 픽] 알리바바 큐원 탑재한 SKT '에이닷엑스 4.0'…藥일까 毒일까

"2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수입니다. 한국 데이터는 해외로 유출되지 않습니다." 지난 달 19일 기자간담회를 통해 이처럼 강조했던 알리바바 클라우드가 자사 인공지능(AI) 모델 '큐원'을 앞세워 SK텔레콤을 등에 업고 국내 시장 공략에 본격 나섰다. 올 초 오픈AI를 긴장하게 만든 딥시크에 이어 알리바바 '큐원'까지 영역 확장에 속도를 높이고 있지만, 중국 기업의 데이터 유출 우려 때문에 국내 시장에 제대로 안착할 수 있을지 주목된다. 6일 업계에 따르면 SK텔레콤이 지난 3일 공개한 AI 모델 '에이닷엑스 4.0'에는 알리바바의 오픈소스 거대언어모델(LLM)인 '큐원 2.5'가 적용된 것으로 파악됐다. 한국어에 맞게 SKT가 개량한 '에이닷엑스 4.0'은 특정 산업에 최적화된 '버티컬 AI 서비스'를 만든다는 목표로 만들어진 LLM으로, 오픈소스 커뮤니티 허깅페이스를 통해 A.X 4.0의 표준 모델과 경량 모델 2종이 공개됐다. 표준 모델은 720억개(72B), 경량 모델은 70억개(7B)의 매개변수를 갖추고 있다. 하지만 중국 기업의 AI 모델을 활용했다는 점에서 국외 정보 유출에 대한 의구심도 나오고 있다. SKT가 개인정보보호정책에 ▲이용자의 메시지나 답변은 저장하지 않는다 ▲이용자의 쿠키를 수집·저장하지 않는다 ▲기술적 보안과 프라이버시 보호를 위해 노력하겠다 등의 문구를 삽입하며 대응에 나섰지만, 우려를 불식시키기엔 미흡한 조치라는 평가가 나오고 있다. 특히 SKT를 활용하는 이용자들 사이에서 볼멘 소리가 나오고 있다. 누리꾼들은 "소식을 접하고 '에이닷' 어플을 바로 삭제했다", "중국산 AI 모델에 한국어를 학습시켰다고?", "중국 묻은 SKT, 빨리 탈출해야겠다" 등의 부정적인 반응을 내놓으며 실망감을 감추지 않았다. 업계 관계자는 "SKT가 유심 해킹 사건으로 고객들의 많은 신뢰를 잃은 상황에서 굳이 이미지가 좋지 않은 중국 AI 모델을 기반으로 파인튜닝 했다는 사실을 적극 알리는 것이 과연 득이 될 지 모르겠다"며 "한국어를 자체 데이터로 학습해 잘한다는 점을 내세우고 있지만 현 시점에서 이를 내놓은 것이 도움될 것 같진 않다"고 지적했다. 하지만 SKT는 'A.X 4.0'을 온프레미스(내부 구축형) 방식으로 제공하는 만큼, 기업 내부 서버에 직접 설치해 사용할 수 있어 데이터 보안에서 강점을 지녔다는 점을 적극 강조했다. 알리바바 클라우드 역시 지난 달 기자 간담회를 통해 중국계 기업에 대한 우려를 의식한 듯 보안과 컴플라이언스를 핵심 가치로 내세우며 '신뢰 받는 글로벌 파트너'로의 입지를 국내에서도 강화하겠다고 강조했다. 또 국내 투자 계획을 밝히며 사업 확장에 대한 의지도 내비쳤다. 알리바바 클라우드는 지난 2016년 국내 시장에 진출한 후 2022년 3월 국내 첫 데이터센터를 구축하고, 지난 달 서울에 또 다른 데이터센터를 가동한 상태다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 말했다. 이를 기반으로 알리바바는 고객사들이 '큐원' 중심의 AI 오픈소스 생태계를 활성화하길 원했다. 또 SKT 외에도 자사 AI 모델을 활용한 사례를 공개하며 협업 확대에 대한 의지를 다졌다. 대표적인 곳이 AI 솔루션 기업 유니바다. 이곳은 알리바바 클라우드의 큐원 모델을 활용해 비용은 30% 절감하면서 한국어 처리 정확도를 45%에서 95%까지 끌어올린 에이전트 AI를 공개했다. 네이버 '스노우'는 알리바바 클라우드의 비디오 생성 모델 '완(Wan)'을 기반으로 중국 시장에서 개인화된 이미지 스타일링 기능을 제공 중이다. 라라스테이션은 알리바바 클라우드와 손잡고 글로벌 라이브 스트리밍 플랫폼을 개발해 동남아 시장으로 비즈니스를 확장하는 데 성공했다. 또 국내 시장 확대를 위해 메가존소프트·이테크시스템과도 협력 중이다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "메가존소프트와 이테크시스템 외에 공개할 수는 없지만 대기업군 SI(시스템통합) 업체들도 파트너 에코에 이미 합류해 있다"고 밝혔다. 업계에선 '큐원'이 페이스북 모기업인 메타플랫폼의 '라마(LLaMA)'와 중국 딥시크 'R1' 모델을 제치고 사실상 전 세계 LLM 생태계에서 가장 빠르게 영향력을 키우고 있다는 점에서 SKT와 알리바바의 협업을 부정적으로만 봐선 안된다는 평가도 있다. 실제 '큐원' 모델은 현재 전 세계적으로 3억 건 이상 다운로드됐고 13만 개 이상의 파생 모델이 생성된 것으로 알려졌다. 특히 최신 모델 '큐원3-8B'의 지난 달 다운로드 수는 메타의 '라마-3.1-8B'를 거의 2배 앞섰다는 점에서 주목 받았다. 딥시크의 'R1' 시리즈 중 가장 인기 있는 최신 모델 '딥시크-R1-0528'에 비해서는 약 10배 많았다. 업계 관계자는 "큐원은 한국어 처리 능력과 온프레미스 버전에서 최적화가 가능해 산업별 맞춤형으로 튜닝을 거쳐 기업 차원으로 빠르게 확산되며 국내에서 존재감을 키우고 있다"며 "민간 데이터를 다루는 공공·금융에서도 온프레미스로 튜닝해 개발하거나 중소기업과 스타트업에서도 다양하게 튜닝하고 있다"고 말했다. 그러면서 "딥시크에 이어 큐원까지 중국 AI가 국내 산업 기반을 빠르게 장악할 것으로 예상된다"며 "향후 국내 기업 기술 완성도가 높아지더라도 기존 기술 장벽과 가격 등에서 후순위로 밀려날 가능성이 높다는 점에서 중국 AI 생태계에 종속될 것이란 우려도 높아지고 있다"고 덧붙였다.

2025.07.06 09:00장유미

구글, 생성형 AI 영상툴 '비오 3' 세계 출시…오디오까지 붙는 영상 제작

구글이 생성형 인공지능(AI) 영상 모델 '비오 3(Veo3)'를 전세계에 출시하면서 영상 제작의 진입장벽을 대폭 낮추는 기술 확장을 본격화했다. 4일 테크크런치에 따르면 구글은 '비오 3'를 이달부터 159개국 이상에서 제미나이 사용자에게 순차적으로 적용 중이다. 이 모델은 최대 8초 길이의 동영상을 생성할 수 있으며 텍스트 입력만으로 영상과 소리를 동시에 만들어준다. '비오 3'는 지난 5월 공개 당시에도 영상 품질과 프레임 전환 자연도에서 높은 평가를 받았지만 이번 세계 출시를 통해 음성까지 생성하는 '네이티브 오디오' 기능이 정식 반영됐다. 동영상 한 편 안에 장면, 움직임, 사운드를 모두 구현하는 생성형 AI는 시장 내에서도 제한된 기술로 꼽힌다. 사용자는 단순한 글을 입력하거나 캐릭터, 사물, 상황 등을 설명하는 방식만으로 애니메이션, 밈, 스토리보드 등을 즉시 생성할 수 있다. 콘텐츠 제작 초기 단계인 콘셉트 시안, 브레인스토밍, 프로토타입 영상 제작에도 유용하다. 생성 과정은 전부 '제미나이' 플랫폼 안에서 이뤄진다. 요금제에 따라 기능과 품질도 차등화된다. 'AI 프로'는 신속한 속도와 기본 품질에 중점을 두며 'AI 울트라'는 고화질 영상과 더 정교한 오디오까지 포함하는 최상위 옵션이다. 두 요금제 모두 인터넷 연결과 일정 기준의 사용자 조건을 충족해야 이용 가능하다. 또 구글은 '비오 3'에 이미지 기반 입력 기능도 곧 도입할 예정이다. 텍스트뿐 아니라 이미지를 활용해 영상으로 전환하는 기능은 현재 개발 중이며 향후 제미나이 업데이트를 통해 반영될 계획이다. 영상 제작을 위한 입력 방식 다변화를 통해 더 직관적인 창작 흐름을 노리는 것으로 풀이된다. 현재 '제미나이'에는 '비오 3 패스트'라는 경량 모델도 함께 제공되고 있다. 이는 상대적으로 짧은 시간 안에 빠르게 결과물을 확인할 수 있도록 최적화된 버전으로, 복잡한 품질 조정이나 고해상도 출력은 '울트라' 요금제 전용 기능으로 분리돼 있다. 조쉬 우드워드 구글 제미나이 담당은 "현재 이미지 기반 비디오 생성 기능도 '제미나이'에 추가하는 작업을 진행 중"이라고 밝혔다.

2025.07.04 09:23조이환

KAIST, 무한대 음성 학습·평가 가능한 언어모델 공개

이론적으로 무한대로 음성을 생성할 수 있는 음성언어모델(SLM)이 공개됐다. 이 모델은 영어로된 텍스트를 자연스럽게 음성으로 전달한다. KAIST(총장 이광형)는 전기및전자공학부 노용만 교수 연구팀 박세진 연구원(박사과정)이 새로운 음성 언어 모델 '스피치SSM'을 개발했다고 4일 밝혔다. 노용만 교수는 "현재 공개한 건 영어 텍스트를 여성 음성으로 만들었다"며 "향후 박세진 연구생(박사과정)이 메타(페이스북) 인턴을 마치고 돌아오면 한글로 된 음성도 만들어 공개하게 될 것"이라고 말했다. 연구 결과는 머신러닝 국제 컨퍼런스(ICML) 2025에 구두 논문 발표 대상으로 확정됐다. 구글 딥마인드와 협력해 오는 16일 열릴 국제머신러닝학회(ICML)에서 구두로 발표할 예정이다 음성 언어 모델(SLM)은 중간에 텍스트로 변환하지 않고 음성을 직접 처리한다. 인간 화자 고유의 음향적 특성을 활용할 수 있어 대규모 모델에서도 고품질 음성을 빠르게 생성할 수 있다. 이같은 장점에도 불구하고 SLM은 음성을 아주 세밀하게 잘게 쪼개 자세한 정보까지 담는 경우, '음성 토큰 해상도'가 높아지고 메모리 소비도 증가해 장시간 일관성 있는 음성 생성이 어려웠다. 연구팀은 이 문제를 해결하기 위해 긴 음성 시퀀스를 효율적으로 처리하고 생성할 수 있도록 정보에 집중하는 '어텐션 레이어'와 전체 이야기 흐름(장기적인 맥락)을 오래 기억하는 '순환 레이어'를 교차 배치한 '하이브리드 구조' 로 설계했다. 노용만 교수는 "이 구조가 긴 시간 음성을 생성해도 흐름을 잃지 않고 이야기를 잘 이어간다는 것을 연구팀이 확인했다"고 설명했다. 연구팀은 또 음성 데이터를 각 단위별로 독립적으로 처리하고, 전체 긴 음성을 만들 경우에는 다시 붙이는 방식을 활용해 쉽게 긴 음성을 만들었다. 음성 생성 단계에서는 한 글자, 한 단어 차례대로 천천히 만들어내지 않고, 여러 부분을 한꺼번에 빠르게 만들어내는 '비자기회귀' 방식의 오디오 합성 모델을 사용해, 고품질 음성을 빠르게 생성할 수 있도록 했다. 연구팀은 "기존은 100초 정도 짧은 음성 모델을 평가했지만, 우리는 16분까지 생성할 수 있도록 자체 구축한 새로운 벤치마크 데이터셋인 '라이브리스피치-롱(LibriSpeech-Long)'을 기반으로 음성을 생성하는 평가 태스크를 새롭게 만들었다"고 설명했다. 논문 제1저자인 박세진 연구생(박사과정)은 “긴 문맥에서도 일관된 내용을 유지하면서, 기존 방식보다 더 효율적이고 빠르게 실시간으로 응답한다"며 "다양한 음성 콘텐츠 제작과 음성비서 등 음성 AI 분야에 크게 기여할 것으로 기대한다”고 덧붙였다.

2025.07.04 09:01박희범

"챗GPT보다 싸고 빠르다"…라이너, 검색 LLM으로 AI 검색 시장 '정조준'

라이너가 '챗GPT'보다 정확하고 비용 효율적인 자체 검색 인공지능(AI) 성능을 공개했다. 핵심은 리서치에 최적화된 검색 결과를 신속히 제공하는 구조와 이를 뒷받침하는 데이터 기반 학습 역량이다. 라이너는 자사 '라이너 검색 LLM'이 AI 검색 컴포넌트 성능 비교 평가에서 오픈AI 'GPT-4.1'보다 우수한 결과를 기록했다고 3일 밝혔다. 이번 모델은 기존 오픈 소스 기반 구조 위에 10여 년간 축적한 방대한 사용자 데이터를 사후 학습 방식으로 적용해 정확도와 처리 속도를 높였다. 토큰당 비용도 평균 30~50% 절감한 것으로 나타났다. '라이너 검색 LLM'은 질문 분석부터 답변 생성까지 검색형 에이전트의 전 과정을 처리하는 데 필요한 8개 컴포넌트를 통합 구성한 모델이다. 이 중 카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 컴포넌트는 성능·속도·비용 전 항목에서 'GPT-4.1'을 상회했다. 특히 실제 서비스 환경에서 재현성과 신뢰성을 기반으로 성능을 측정한 점이 주목된다. 단순 벤치마크 수치가 아니라 실사용 기반 결과를 중심으로 비용·속도·정확도의 균형을 검증한 구조다. 이로 인해 기존 대형 모델 대비 가볍고 빠른 검색형 LLM 구현이 가능해졌다는 평가다. 라이너는 수년간 테스트와 개선을 반복하며 LLM 학습 구조를 고도화해 왔다. 자사 사용자 데이터를 활용한 정밀 학습을 통해 질문 처리 구조를 체계화하고 할루시네이션 가능성을 줄이는 방향으로 검색 정확도를 끌어올렸다는 설명이다. 검색 LLM의 비용 경쟁력 역시 차별점으로 꼽힌다. 'GPT-4.1' 대비 평균 30~50% 낮은 토큰당 처리 비용으로, 대규모 트래픽이 발생하는 검색형 에이전트 환경에서도 운영 효율성과 수익성 확보가 가능하다는 계산이다. 조현석 라이너 테크 리드는 "'라이너 검색 LLM'은 8가지 모든 컴포넌트에서 '챗GPT'를 뛰어넘는 성능을 입증했다"며 "어떤 데이터를 어떻게 학습하고 어떤 구조로 질문을 처리하느냐가 AI 할루시네이션을 줄이는 핵심"이라고 밝혔다. 이어 "데이터 학습과 연구 개발에 꾸준히 집중해 온 노력이 차별화된 AI 에이전트 기술 경쟁력으로 이어졌다는 점에서 의미가 크다"고 말했다.

2025.07.03 16:56조이환

지난달 수입차는 '모델Y' 홀릭…한달간 6천대 팔려

테슬라 전기 스포츠유틸리티차(SUV) 모델Y가 지난달 가장 많이 팔린 모델로 올라섰다. 기본 모델Y와 모델Y 롱레인지의 판매량을 합산하면 6천100대를 넘긴 것으로 나타났다. 한국수입자동차협회(KAIDA)는 지난달 수입 승용차 신규등록대수가 전월 2만8천189대보다 1.5% 감소했지만 전년 2만5천300대보다 9.8% 증가한 2만7천779대로 집계됐다. 올해 상반기 수입차 누적 판매량은 13만8천120대로 전년 12만5천652대보다 9.9% 증가한 것으로 나타났다. 지난달 브랜드별로 판매량 1위는 BMW로 6천553대를 판매했다. 뒤를 이어 테슬라는 6천377대, 메르세데스-벤츠가 6천37대, 렉서스 1천230대, 볼보 1천67대 순이다. 포르쉐와 아우디는 각각 1천56대, 1천42대를 팔았고 토요타 809대, 미니 775대, 폭스바겐 717대 등 신규 등록됐다. 연료별로는 하이브리드 1만4천916대(53.7%), 전기 9천125대(32.8%), 가솔린 3천470대(12.5%), 디젤 268대(1.0%) 순이었다. 구매유형별로는 2만7천779대 중 개인구매가 1만8천215대로 65.6%, 법인구매가 9천564대로 34.4%였다. 6월 베스트셀링 모델은 테슬라 모델 Y(2천281대), 테슬라 모델Y 롱레인지(2천881대), 메르세데스-벤츠 E 200(1천569대) 순이다. 모델Y의 경우 합산 판매량이 6천162대로 테슬라 총 판매량의 96.62%를 차지했다. 정윤영 한국수입자동차협회(KAIDA) 부회장은 "6월 수입 승용차 신규등록은 브랜드별 증감이 혼재하며 전월 대비 소폭 하락했으나 상반기는 다양한 신차 및 원활한 물량수급 등으로 전년 대비 증가했다"고 설명했다.

2025.07.03 15:09김재성

테슬라 차이나 월 판매량 전년比 증가…8개월만

테슬라 차이나의 월 판매량이 지난달 전년 대비 소폭 증가했다. 이는 8개월 만이다. 3일 카뉴스차이나, CNEV포스트 등 외신에 따르면 중국승용차협회(CPCA)는 지난달 테슬라 차이나의 중국 내 판매 및 수출 차량 대수가 총 7만1천599대로 나타났다고 밝혔다. 테슬라는 중국 상하이 공장에서 모델 3 세단과 모델 Y 크로스오버를 생산하고 있어 이에 대한 수출 물량이 반영된다. 이는 전년 동월 대비 0.8%, 전월 대비 16.1% 증가한 수치다. 테슬라 차이나 월 판매량은 지난해 10월부터 전년 동월 대비 감소를 지속하다 8개월 만에 상승했다. 올해 2분기 판매량은 19만1천720대로 전년 동기 대비 판매량이 6.82% 감소하고, 전분기 대비로는 10.98% 증가했다. 상반기 판매량은 36만4천474대로 전년 동기 대비 14.6% 감소했다. 외신들은 샤오미가 지난달 26일 출시한 'YU7' SUV가 출시 18시간 만에 24만대 이상 주문을 받는 등 흥행하면서, 이후 테슬라 모델Y 판매량에 영향을 줄 것으로 전망했다.

2025.07.03 09:32김윤희

트럼프 이민 정책에 美 맥주도 흔들…콘스텔레이션 매출↓

모델로·코로나 등을 보유한 미국 맥주 회사 콘스텔레이션 브랜즈가 도널드 트럼프 대통령의 이민 정책 여파로 부진한 실적을 기록했다. 2일(현지시간) CNBC에 따르면 콘스텔레이션 브랜즈의 2분기(3~5월) 매출은 25억2천만 달러로 시장 예상치였던 25억5천만 달러를 밑돌았다. 이는 트럼프 대통령의 추방 정책과 전반적인 경기 불안의 영향으로 풀이된다. 지난 4월 콘스텔레이션 브랜즈 최고경영자(CEO) 빌 뉴랜드는 “히스패닉 소비자들이 트럼프의 강경한 이민 정책과 라티노 고용 비중이 높은 산업에서의 실직 우려로 지출을 줄이고 있다”고 밝혔다. 최근 열린 실적 발표 컨퍼런스콜에서도 뉴랜드는 “미국 이민세관단속국(ICE)의 단속이 소비자 행동 예측을 어렵게 만들고 있다”면서도 “히스패닉과 비히스패닉 소비자 모두 인플레이션과 비용 구조에 대한 우려가 커지고 있다”고 말했다. 콘스텔레이션 브랜즈는 미국 내 맥주 매출의 약 절반이 히스패닉 소비자에게서 발생한다고 밝힌 바 있다. 이들이 지갑을 닫으면 매출에 직접적인 타격이 불가피하다는 우려가 나온다.

2025.07.03 09:07김민아

"보이지 않는 정보란 없어"...강남언니, 장윤주·전종서와 새 브랜드 캠페인 공개

글로벌 미용의료 정보 플랫폼 '강남언니' 운영사 힐링페이퍼(대표 홍승일)가 모델 겸 배우 장윤주와 배우 전종서를 모델로 발탁해 여름 브랜드 캠페인 'SEE THE UNSEEN'을 공개했다고 2일 밝혔다. 두 모델은 지난 겨울 브랜드 캠페인에 이어 2년 연속 강남언니 브랜드 캠페인에 참여한다. 이번 강남언니 브랜드 캠페인의 메인 메시지는 'SEE THE UNSEEN(보이지 않는 것을 보다)'으로, 거짓 의료정보가 넘치는 온오프라인 현실 속에서 소비자에게 투명하고 신뢰 높은 미용의료 정보를 제공한다는 강남언니 플랫폼의 본질적 가치를 담았다. 브랜드 영상에서는 강남언니를 'Glassis'라는 선글라스에 비유하여, 안경을 통해 새로운 시야를 얻은 사용자에게 진실된 의료정보를 제공한다는 점에서 “쓰는 순간, 보이지 않는 정보란 없어”라는 메시지를 전달한다. 이번 브랜드 캠페인 영상은 강남언니 공식 유튜브 채널에서 확인할 수 있고, 각종 SNS뿐 아니라 서울, 부산, 인천 지역 등 옥외광고와 버스를 통해서도 온라인 및 지면 광고를 확인할 수 있다. 또한, 강남언니는 브랜드 캠페인 론칭을 기념하여 7월 1일부터 8월 4일까지 5주간 앱 내 사용자를 대상으로 'Glassis Kit(글래시스 키트)' 증정 이벤트를 진행한다. 강남언니 앱 내 이벤트 배너나 강남언니 공식 인스타그램을 통해 응모하면, 장윤주와 전종서 모델이 브랜드 캠페인에서 착용한 안경과 동일한 모양의 굿즈를 총 50개 추첨 증정한다. 김호성 힐링페이퍼 마케팅 팀장은 “이번 브랜드 캠페인을 통해 의료 소비자와 공급자 간 정보 불균형이 심각한 미용의료 시장에서 강남언니가 소비자가 신뢰할 수 있는 미용의료 정보 패러다임을 만들어가고 있음을 강조하고자 했다”고 설명했다. 홍승일 힐링페이퍼 대표는 “강남언니는 국내를 넘어 일본, 태국 등 해외에서도 누구나 편리하고 정확하게 의료정보를 누릴 수 있도록 플랫폼 성장에 박차를 가하고 있다”며 “이번 장윤주와 전종서 두 모델과 함께 한 브랜드 캠페인을 통해 더 많은 의료 소비자와 의료인의 삶에 긍정적인 변화를 줄 수 있기를 기대한다”고 말했다. 강남언니는 피부과, 성형외과 등 미용의료 병원의 피부시술과 성형수술의 정확한 가격, 후기 정보를 비교 검색할 수 있는 서비스다. 현재 국내외 750만명의 사용자에게 2천 7백여 곳의 한국 병원, 1천 4백여 곳의 일본 병원의 미용의료 정보를 제공 중이다. 2025년 7월 현재 강남언니 내 병원 상담신청은 누적 600만 건, 누적 등록 후기는 240만 건에 달한다. 편리함과 함께 정보의 신뢰도와 투명성 역시 강남언니가 강조하는 핵심 가치다. 부가세 포함 시술 가격 정보 제공과 함께 자체 개발한 가짜 후기 차단 알고리즘을 통해 실시간으로 거짓 후기를 모니터링하는 등 플랫폼 정보의 신뢰도를 높이고 있다.

2025.07.02 13:23안희정

"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은?

인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다. AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다. 레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(vLLM)을 제시했다. 레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다. 복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'vLLM' 지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다. 브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다. 그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다. 이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다. 레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 vLLM을 선보이고 있다. vLLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다. 스티븐스 CTO는 vLLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다. 그는 "vLLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다. vLLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다. "GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법 레드햇이 vLLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다. 이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다. 레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다. 그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다. 이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다. 레드햇은 'LLM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다. "설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라' 이와 함께 레드햇은 오픈소스 기반의 vLLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다. 이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. vLLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다. 레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다. 그는 "오픈소스 vLLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다. 이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.

2025.07.02 10:59남혁우

지미션, LLM 문서처리 솔루션 출시…기업 문서 자동화 시장 본격 진입

지미션이 핵심정보를 자동으로 분류·요약하는 문서처리 거대언어모델(LLM)을 통해 기업 문서 자동화 시장에 진입했다. 지미션은 신제품 '닥스훈드(DXHUND)'를 정식 출시하고 공공기관·금융사·대기업 등을 주요 타깃군으로 삼아 시장 확산을 추진 중이라고 30일 밝혔다. 제품명은 정보 탐지에 특화된 견종 닥스훈트에서 착안했으며 복잡한 문서 속에서도 의미 기반 핵심정보를 빠짐없이 찾아낸다는 기술적 기획이 반영됐다. '닥스훈드'는 광학문자인식(OCR) 기술을 기반으로 이미지 문서를 디지털 텍스트로 변환한 뒤 문서 구조를 해석해 항목별 정보를 자동 추출하거나 사용자 목적에 맞춰 내용을 요약·분류하는 기능을 제공한다. 계약서, 진술서, 지시문 등 비정형 문서가 많은 업무 환경에서 반복 업무를 줄이는 데 특히 적합하다는 평가다. 또 문서 내 포함된 개인정보를 자동 탐지해 비식별화하거나 마스킹할 수 있으며 사용자가 자연어로 문서 검색과 필터링을 수행할 수 있는 질의응답형 인터페이스도 함께 제공된다. 단순한 문서 처리 도구가 아닌 검색-분류-대응까지 하나의 흐름으로 연결되는 통합형 솔루션이라는 점이 차별 포인트다. 지미션은 해당 제품에 자사 기존 기술력인 AI OCR, 자연어처리(NLP), 개인정보 비식별화 역량과 더불어 최근 확보한 LLM 엔진까지 통합 적용했다고 설명했다. 사전 처리와 후처리의 품질을 모두 감안한 종단 간 문서처리 체계를 구현했다는 의미다. 이번 제품 출시는 기업 문서 업무에서 가장 처리 비용이 크고 리스크가 높은 '비정형 문서 처리'를 기술로 대응하려는 산업적 수요 증가에 맞춰 기획된 것으로 보인다. 특히 하루 단위로 대량 문서를 수작업 검토하는 조직일수록 효과가 뚜렷할 수 있다. 한준섭 지미션 대표는 "'닥스훈드'는 기술의 역할과 한계를 냉정하게 인식한 상태에서 반복적이지만 복잡한 문서 업무를 효율화하려는 조직에 실질적인 도움이 되도록 설계했다"며 "기술 중심의 과잉 마케팅보다 실사용 데이터를 기반으로 시장을 확장해나갈 것"이라고 밝혔다.

2025.06.30 15:00조이환

국가 AI 전략 앞세운 中…바이두, '어니 5.0'으로 챗GPT 넘본다

바이두가 차세대 거대언어모델(LLM)을 연이어 공개하며 중국 인공지능(AI) 산업이 딥시크에 이어 다시 한 번 전 세계의 주목을 받고 있다. 이는 단순 기술 발표를 넘어 미·중 AI 주도권 경쟁을 심화시킬 것으로 전망되고 있다. 30일 CNBC 등 외신에 따르면 중국 최대 검색기업 바이두는 올 하반기 중 차세대 생성형 AI 모델 '어니(Ernie) 5.0'을 공식 출시할 예정이다. 어니 5.0은 텍스트뿐 아니라 이미지·오디오·비디오 등 다양한 형태의 데이터를 종합적으로 이해하고 생성할 수 있는 멀티모달 기능을 지원하는 것으로 알려졌다. 현재 바이두는 어니 4.5 모델과 함께 '어니 X1'이라는 추론 특화 모델도 운용 중이다. 어니 X1은 지난 1월 딥시크가 발표한 'R1' 모델과 유사한 구조를 갖고 있으며 어니 4.5는 오픈AI의 GPT-4.5와 유사하거나 그 이상의 성능을 내는 것으로 평가된다. 바이두는 어니 시리즈를 통해 자국 내 AI 생태계는 물론 글로벌 시장까지 겨냥하겠다는 목표다. 앞서 시장의 눈길을 끈 것은 딥시크의 행보다. 딥시크는 GPT-4에 근접한 성능을 보이는 딥시크-R1 모델을 오픈소스로 공개하며 일약 주목받았다. 학습 비용은 약 600만 달러(한화 약 81억원) 수준으로, 미국의 대형 모델 대비 획기적으로 낮은 비용으로 높은 효율을 달성했다는 점에서 업계 안팎의 큰 반향을 일으켰다. 이 발표 이후 미국 기술주의 급락세가 이어졌다. 특히 생성형 AI의 연산 중심인 그래픽처리장치(GPU) 시장 대표주자 엔비디아의 주가가 약 17% 급락하며 600억 달러(한화 약 81조원) 규모의 시가총액이 급감하는 사태가 벌어졌다. 중국의 이러한 행보는 단순히 개별 기업 차원을 넘어 국가 차원의 전략과도 맞물려 있다. 중국 정부는 AI를 핵심 국가 전략 산업으로 규정하고 있으며 바이두 외에도 텐센트·알리바바·바이트댄스 등 빅테크 기업들 역시 자체 LLM을 개발하거나 상용화에 돌입했다. 이들 모델은 교육·금융·법률·고객 상담 등 다양한 분야에서 빠르게 적용되며 자국 내 수요를 흡수하고 있다. 동시에 글로벌 시장 진출을 염두에 둔 다국어 대응도 적극 추진 중이다. 올 하반기 출시가 예고된 바이두의 어니 5.0은 중국 AI 업계가 실질적으로 GPT-4.5 수준을 뛰어넘는 모델을 내놓을 수 있는지를 시험하는 척도가 될 것으로 예상되고 있다. 동시에 글로벌 AI 경쟁 구도에 균열을 가져올 수 있을지 주목되고 있다. 업계 전문가는 "중국의 AI 기술 발전 속도가 예상을 뛰어넘고 있다"며 "기술력뿐 아니라 비용 효율성과 서비스 현지화 역량까지 강화되면 글로벌 시장에서 미국 기업과 정면으로 맞붙는 양상이 본격화될 것"이라고 전망했다.

2025.06.30 09:57한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

예스24 또 속였나?..."1차 해킹 때 백업망도 랜섬웨어 감염"

삼성·SK, 올 상반기 R&D에 '적극 투자'…AI 시대 준비

"소비쿠폰 사용도 막았다"…홈플러스 폐점 발표에 노조·종사자 "철회하라"

메가존클라우드, AI 챔피언 대회 인프라 사업 수주…정부 AI 인재 육성 사업 주도

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.