• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능 모델'통합검색 결과 입니다. (169건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI, 범용 모델로 국제올림피아드서 '금메달급' 성과

오픈AI가 인공지능(AI) 모델로 국제 수학 올림피아드(IMO) 금메달 점수에 해당하는 성과를 거뒀다. 특정 도메인에 특화되지 않은 범용 모델이 복잡한 수학 문제를 해결한 것은 이번이 처음이다. 20일 샘 알트먼 오픈AI 최고경영자(CEO)는 개인 소셜미디어를 통해 "우리 범용 추론 모델이 IMO 2025 테스트에서 금메달 점수대에 도달했다"며 "AI의 지난 10년간 발전을 상징적으로 보여준 결과"라고 밝혔다. 이번 실험은 오픈AI 연구원 알렉산더 웨이 팀이 내부적으로 실험 중인 차세대 추론형 거대언어모델(LLM) 기반으로 진행됐다. 문제는 실제 IMO 형식과 동일하게 구성됐으며 이틀 동안 총 6문제를 푸는 방식으로 진행됐다. 오픈AI의 모델은 그중 5문제를 정확히 풀어 42점 만점 중 35점을 기록했다. IMO는 단순 계산이나 공식을 넘어 고도의 수학적 사고와 창의력을 요하는 문제로 구성된 것으로 알려졌다. 전 세계 20세 미만 대표 학생들이 참가하는 권위 있는 대회로 평가받고 있다. 오픈AI가 기록한 점수는 올해 인간 참가자 중 일부가 달성한 만점에는 미치지 못했다. 다만 범용 AI 모델이 수학 문제 해결 능력을 이 정도까지 끌어올린 사례는 처음이다. 이전까지 범용 모델이 IMO에서 금메달 점수대에 도달한 사례는 없었다. 앞서 구글 딥마인드의 '알파프루프'나 '알파지오메트리 2'는 은메달 수준의 성과를 낸 바 있다. 다만 이들은 수학 문제 풀이에 특화되도록 수년간 훈련된 모델이었다. 오픈AI 노암 브라운 연구원은 "바둑이나 포커처럼 특정 규칙이 명확한 게임에서 AI가 뛰어난 결과를 보였던 것은 해당 영역에 맞춰 수년간 집중 훈련했기 때문"이라며 "이번 모델은 특정 과목에 맞춰 설계된 것이 아니라 새로운 범용 추론 방식을 적용한 실험적 모델"이라고 설명했다. 브라운 연구원은 "기존 LLM은 짧은 시간 내 추론을 끝내지만 이 모델은 수 시간 동안 문제를 탐색하며 판단을 내릴 수 있는 능력을 갖췄다"며 "차원이 다른 '딥 리서치' 방식의 추론을 실현했다"고 덧붙였다. 글로벌 AI 모델 수학 성능을 분석하는 취리히연방공대(ETH)의 매스아레나에 따르면 오픈AI 외 다른 범용 AI 모델들은 올해 IMO 테스트에서 성과를 내지 못했다. 구글의 '제미나이 2.5 프로', xAI의 '그록4', 중국 딥시크의 'R1' 등은 모두 동메달 기준에도 미치지 못한 것으로 전해졌다. 다만 일각에선 오픈AI가 올해 IMO에 사용한 모델이 투명한 벤치마크 평가를 받아야 한다는 의견도 나왔다. 해당 모델이 외부에 공개되지 않은 실험용 버전이라서다. 매스아레나 역시 "AI의 수학적 추론 분야가 비약적으로 발전하고 있는 점은 긍정적"이라 평하면서도 "모델이 공개돼 투명한 평가가 이뤄지길 바란다"고 밝혔다.

2025.07.20 17:16김미정

자연어만으로 UI 설계부터 코딩까지… 토마토시스템 'AI젠' 출시

토마토시스템(대표 조길주)이 기획부터 설계, 개발에 이르는 전체 과정을 자동화할 수 있는 지능형 협업 개발 플랫폼을 선보인다. 토마토시스템은 대규모 언어 모델(LLM) 기반 UI 자동화 플랫폼 '엑스빌더6 AI젠'(이하 AI젠)을 공식 출시했다고 17일 밝혔다. 이 플랫폼은 단순한 코드 생성 도구를 넘어, 기획부터 설계, 개발에 이르는 전체 과정을 자동화할 수 있는 지능형 협업 개발 플랫폼으로 평가받고 있다. AI젠은 사용자가 자연어로 입력한 문서, 회의 스케치, 이미지 등을 바탕으로 실시간으로 UI 화면을 설계하고 관련 소스코드까지 자동으로 생성하는 이클립스 기반 플러그인 도구다. 코딩 경험이 없는 비전문가도 손쉽게 UI를 구성할 수 있어 기존 개발 방식에서 발생하는 복잡한 커뮤니케이션 과정을 획기적으로 줄일 수 있다. 특히 AI젠은 요구사항에서 UI 설계, 코드 생성으로 이어지는 정방향 흐름과 이미지에서 UI 설계, 요구사항 도출로 이어지는 역방향 흐름을 모두 지원한다. 이를 통해 기업은 디지털 전환 속도를 크게 높일 수 있으며 인공지능 기반 모델 중심 아키텍처를 실제 개발 환경에 구현할 수 있다. 실시간 애니메이션 형태의 '목업 UI'를 통해 설계 결과를 직관적으로 확인하고 즉시 수정할 수 있어 개발 초기 단계에서의 의사결정 정확성과 속도 역시 크게 향상된다. 업계에서는 AI젠의 등장이 시스템통합(SI) 산업의 구조적 전환을 예고하는 신호탄으로 보고 있다. 기존의 인력 중심 개발 방식에서 벗어나 인공지능이 실질적인 개발을 주도하는 자동화 생태계로의 전환이 가속화되고 있기 때문이다. 실제로 AI젠은 요구사항 분석부터 코드 생성, 테스트, 오류 수정까지 자동으로 수행할 수 있는 기술적 완성도를 갖췄다. 토마토시스템은 AI젠을 통해 개발자의 역할을 전략적 설계 중심으로 전환하고, 개발 리스크를 최소화하는 동시에 생산성 극대화를 실현할 수 있다고 강조했다. 이는 기업의 IT 투자 효율성 향상은 물론, 디지털 전환 수요가 집중되고 있는 공공 및 대기업 시장에서의 경쟁력 확보로 이어질 것으로 전망된다. 조길주 토마토시스템 대표는 "AI젠은 사람 중심의 전통적 개발 방식에서 벗어나 인공지능과 협업하는 새로운 개발 패러다임을 제시한다"며 "기존 수개월이 소요되던 시스템 개발을 수일 내로 단축할 수 있어 기업의 디지털 전환 속도를 획기적으로 끌어올릴 수 있다"고 말했다. 토마토시스템은 AI젠 출시와 함께 온앤온정보시스템, 플로우컨트롤, 칠로엔, 메타빌드 등 인공지능 기술 선도 기업들과 업무협약(MOU)을 체결하고, 산업별 자동화 개발 사례 확보 및 공동 개발 환경 구축에 나섰다. AI젠은 다양한 범용 초거대 언어 모델은 물론, 설치형 모델과도 연동이 가능하며, 향후 산업군별 특화 기능을 지속적으로 확장해 나갈 계획이다.

2025.07.17 17:11남혁우

"한국형 LLM 키운다"…정부, 24억 들여 AI 성능평가 데이터 구축

과학기술정보통신부(과기정통부)가 한국형 생성형 인공지능(AI) 모델의 경쟁력을 끌어올리기 위해 성능평가용 고품질 데이터셋 구축에 나섰다. 영어 위주의 기존 평가 체계를 보완하고 국내 문화·문맥을 반영한 새로운 기준점을 제시하겠다는 전략이다. 과기정통부와 한국지능정보사회진흥원은 다음 달 7일까지 '성능 평가 데이터셋 구축 사업'의 수행기관을 공개 모집한다고 17일 밝혔다. 이번 사업은 독자 AI 파운데이션 모델 개발의 후속 조치로, 총 24억원을 투입해 수학, 지식, 장문이해 등 3개 분야에서 평가 데이터를 만든다. 평가 데이터는 한국어 기반 거대언어모델(LLM)의 성능을 정량·정성적으로 검증할 수 있도록 구성된다. 과제당 지원금은 8억원이며 수행기관은 컨소시엄 형태로 참여해야 하고 초거대 AI나 대규모 자연어처리 개발 경험이 있는 기업 또는 기관이 필수로 포함돼야 한다. 우선 구축 대상은 ▲수학 ▲지식 ▲장문이해 등 세 가지다. 수학 분야는 한국어-영어 병렬 형태로 추론형 수학 문제와 정답을 구성하며 글로벌 고난도 문제집 수준의 난이도를 요구한다. 지식 분야는 한국형 역사·문화 등을 평가할 수 있도록 주제별 질의-정답과 추론형 문항을 포함해야 하며 글로벌 공통 지식 항목도 함께 설계해야 한다. 장문이해 분야는 32K 이상 긴 문맥을 기반으로 논리 판단, 문맥 결속력 등을 테스트할 수 있는 업무수행형 데이터가 핵심이다. 정부는 이번 공모를 통해 구축된 데이터셋을 '정예팀'뿐만 아니라 국내 모든 AI 개발기관에 공개할 계획이다. 향후 멀티모달, 에이전트 AI 영역까지 평가영역을 넓힌다는 구상도 포함돼 있다. 이번 공모는 과제 제안부터 최종 평가까지 단계별로 품질 검증과 산출물 보완 절차가 마련돼 있다. 공고는 오는 8월까지 진행되며 11월 중간 점검을 거쳐 12월 최종 평가 후 결과물이 도출된다. 이후 내년 1월부터는 본격적인 보완 및 확산이 추진된다. 김경만 과기정통부 인공지능기반정책관은 "국민이 체감할 수 있는 고성능 AI 모델을 확보하려면 평가 기준도 우리 사회와 문화가 반영돼야 한다"며 "이번에 구축되는 성능평가 데이터셋은 국내 AI 생태계 전반의 활용을 염두에 두고 공개할 예정"이라고 밝혔다.

2025.07.17 15:03조이환

[써보고서] 업스테이지 '솔라 프로 2' 써보니…韓 AI 모델, 어디까지 왔나

업스테이지가 자체 개발한 '솔라 프로 2'로 추론 인공지능(AI)의 실무 활용성을 입증하며 국내 기업 시장 공략의 포문을 열었다. 13일 업계에 따르면 업스테이지는 최근 일반 사용자도 '솔라 프로 2'를 직접 체험할 수 있도록 회사의 콘솔 플랫폼을 개방했다. 이에 기자는 해당 플랫폼에 직접 접속해 한정된 데모가 아닌 실제 서비스와 동일한 환경에서 모델의 성능을 점검했다. '솔라 프로 2'는 업스테이지가 최근 선보인 차세대 거대언어모델(LLM)이다. 사용자는 이 모델을 통해 단순 질의응답은 물론 복잡한 자료의 요약 및 번역, 데이터 변환 같은 고차원적인 과제를 수행할 수 있다. 사용자 인터페이스(UI)는 현재 시장의 주류 AI 챗봇들과 유사한 대화형 방식을 따른다. 사용자에게 익숙한 채팅 창에 바로 질문을 입력해 사용하는 구조로, 별도의 사용법을 익힐 필요는 없다. 기자에게 거대언어모델(LLM)의 추론 능력이 가장 필요한 순간은 해외 자료에 나온 수치를 원화로 환산할 때다. 이에 가트너 보고서에 언급된 생성 AI 관련 투자액을 달러에서 원화로 변환해달라고 요청했다. '솔라 프로 2'는 1달러가 1천400원이라는 기준을 세우고 지난해와 올해 글로벌 생성 AI 모델 지출액을 오차 없이 환산해냈다. 결과값은 단순히 숫자를 나열하는 데 그치지 않고 '억' 단위를 사용해 한국 사용자가 이해하기 쉬운 형태로 깔끔하게 정리해 보여줬다. 복잡한 수학 문제는 아니지만 업무 중 빈번하게 발생하는 데이터 처리 과정에서 신뢰할 수 있는 성능을 보여준다는 점은 분명한 장점이다. 기계번역에 있어서도 상당한 성능을 드러냈다. 기자는 한국의 소버린 AI 전략에 대해 최근 작성한 2천 단어 분량의 영문 기사를 한국어로 번역하도록 지시했다. 수 초가 지나지 않아 결과물이 쏟아져 나왔다. 보다 경량모델이기 때문이겠지만 체감상 구글 '제미나이 2.5 프로'나 오픈AI '챗GPT-4o'보다 신속한 속도였다. 번역의 질도 만족스러웠다. 내용 확인 결과 모든 문장이 원문의 의미를 정확하게 담고 있었다. 문체가 아주 유려하지는 않았다. 일부 표현은 '약간 투박한 대학생의 과제물' 같은 느낌을 주기도 했다. 사람 이름과 같은 고유명사에서는 일부 오류가 있기도 했다. 다만 속도와 정확성의 수준을 고려하면 해외 자료를 신속히 검토하고 핵심을 파악해야 하는 실무 환경에서는 충분한 수준이다. 결과물을 빠른 시간에 내놓는다는 점에서 실용성은 글로벌 경쟁 모델과 비교해도 뒤지지 않았다. 더불어 고유명사에서의 오류는 파운데이션 모델 자체가 고질적으로 겪는 구조적 문제다. 이번 테스트는 '솔라 프로 2'에만 진행되지 않았다. 업스테이지의 또 다른 핵심 기술인 광학문자인식(OCR) 성능도 함께 확인했다. 이는 업스테이지가 창업 초기부터 두각을 나타낸 분야로, 김성훈 대표는 여러 차례 OCR과 LLM을 통합해 '일의 미래'를 실현하겠다는 비전을 밝힌 바 있다. 플랫폼의 '도큐먼트 OCR' 기능을 이용해 2차 세계대전 당시 헨리 스팀슨 미 육군장관이 트루먼 대통령에게 보낸 편지를 인식시켜 봤다. 결과는 상당히 괜찮았다. 80%의 신뢰도(Confidence)로 인식이 진행됐으며 흘려 써서 사람도 알아보기 힘든 몇몇 단어를 제외하고는 대부분의 내용을 정확하게 디지털 텍스트로 변환했다. 이는 업스테이지가 단순히 LLM 개발에만 매달리는 것이 아니라 문서 처리라는 핵심 기술력 위에 AI 모델을 쌓아 올리고 있음을 보여주는 대목이다. '솔라 프로 2'를 체험한 소감은 '실용적이고 빠르다'로 요약할 수 있다. 사실 오픈AI, 구글, 앤트로픽 등 글로벌 빅테크부터 알리바바, 딥시크 같은 중화권 모델에 이르기까지 파운데이션 모델의 발전 방향은 대체로 대동소이해지며 상향 평준화되는 추세다. 이같은 상황에서 완전히 새로운 기능은 없으나 번역·요약·계산 등 사용자가 가장 필요로 하는 핵심 기능에서 국내 스타트업이 꾸준히 경쟁력을 유지하고 있다는 점은 그 자체로 고무적이다. 글로벌 최상위 모델과 성능 수치를 일대일로 비교하기엔 무리가 있을 수 있다. 다만 '솔라 프로 2'가 보여준 성능은 기업 실무자가 현장에서 필요로 하는 수준을 이미 충분히 만족시키는 수준이다. 이는 곧 시장에서의 현명한 포지셔닝으로 이어질 수 있는 대목이다. 글로벌 B2C 구독 시장은 미국 빅테크가, 중국 내수 시장은 중국 기업들이 장악한 구도 속에서 국내 기업이 정면으로 경쟁하기는 쉽지 않다. 대신 데이터 보안에 민감하거나 국내 환경에 최적화된 기술 지원을 필요로 하는 기업들에게 '솔라 프로 2'는 매력적인 B2B 대안이 될 수 있다. 김성훈 대표는 "'솔라 프로2'는 문제를 이해하고 논리적으로 사고하며 AI 비서처럼 명령까지 수행한다"며 "향후 발전과 사용자들의 적극적인 참여를 기대한다"고 말했다.

2025.07.13 06:49조이환

[AI는 지금] "국가대표 AI에 사활 건다"...선발전 앞두고 新 LLM 쏟아지는 이유는?

정부의 '독자 AI 파운데이션 모델' 프로젝트 공모가 오는 21일 마감되는 가운데 국내 주요 빅테크와 인공지능(AI) 스타트업들이 일제히 차세대 거대언어모델(LLM)을 선보이며 기술 경쟁에 불을 지폈다. 11일 업계에 따르면 '독자 AI 파운데이션 모델' 프로젝트는 최대 5개 AI 기업을 선정해 연간 100억원 규모 이상의 그래픽처리장치(GPU), 데이터, 인재 유치 비용 등을 지원하고 6개월 단위 경쟁을 거쳐 최종 모델을 압축하는 서바이벌 방식으로 진행된다. 이같은 상황 속에서 대기업, 통신사, 스타트업을 망라한 등 주요 AI 기업들이 새로운 LLM을 공개하며 출사표를 던졌다. 국가대표 AI 경쟁 뛰어든 기업들…핵심 모델과 전략은? SK텔레콤은 11일 오픈소스 커뮤니티를 통해 자체 개발한 경량 LLM '에이닷엑스 3.1 라이트(A.X 3.1 lite)'를 공개했다. 70억 파라미터 규모의 이 모델은 설계부터 학습까지 전 과정이 자체 기술로 제작된 '프롬 스크래치' 방식임을 강조했다. 이달 중에는 340억 파라미터의 중형 모델도 추가 공개하며 기술력을 과시할 예정이다. 김태윤 SK텔레콤 담당은 "꾸준히 쌓아 온 한국형 LLM 개발 역량을 바탕으로 AI 생태계 자립성을 높이겠다"고 말했다. 업스테이지는 지난 10일 310억 파라미터 규모의 '솔라 프로 2(Solar Pro 2)'를 출시하며 추론형 AI 시장에 본격적으로 진입했다. 질의응답용 '챗 모드'와 논리적 사고 기반의 '추론 모드'를 전환하는 하이브리드 방식이 특징으로, 실무 작업을 자율 수행하는 에이전트 구조까지 갖춰 글로벌 최상위 모델과 경쟁하겠다는 포부를 밝혔다. 김성훈 업스테이지 대표는 "자체 기술로 구현한 LLM으로 업무 방식을 근본적으로 혁신할 것"이라고 말했다. 같은 날 LG CNS도 캐나다 코히어(Cohere)와 협력해 개발한 1천110억 파라미터의 초대형 추론형 LLM을 선보였다. 초대형 규모임에도 2장의 GPU로 구동 가능한 고압축 기술을 핵심 경쟁력으로 내세웠다. 다만 LG CNS는 정부 프로젝트 직접 참여 여부를 밝히지는 않은 상태다. KT 역시 지난 3일 자체 개발한 '믿음 2.0' LLM을 오픈소스로 공개하며 '한국적 AI' 개발을 기치로 내걸었다. '믿음 2.0'은 법률, 특허 등 양질의 한국어 데이터를 학습하고 자체 토크나이저를 적용한 '토종 AI'임을 강조하며 115억 파라미터 '베이스' 모델과 23억 파라미터 '미니' 모델 2종을 선보였다. 신동훈 KT 젠AI랩장은 기술 자립에 대해 "기간통신사업자로서 생성형 AI 원천기술을 반드시 확보해야 한다"고 강조했다. 이외에도 네이버는 지난달 30일 멀티모달 추론 기능을 강화한 '하이퍼클로바X 씽크'를, 이스트소프트는 지난달 17일 검색증강생성(RAG)에 특화된 '앨런 LLM'을 출시하며 경쟁에 가세했다. 이같이 지난달부터 기술 발표가 집중된 가운데 AI 주도권 확보를 위한 물밑 경쟁은 그 이전부터 치열하게 이어져 왔다. 코난테크놀로지는 지난 3월 추론 기능을 통합한 320억 파라미터 모델 '코난 LLM ENT-11'을 출시하며 효율적인 코딩 성능을 과시했다. 솔트룩스 역시 지난 5월 복잡한 질문에 깊게 사고하는 320억 파라미터의 '루시아 3'를 선보이며 독자 기술력을 입증했다. LG그룹의 AI 개발을 주도하는 LG AI연구원의 행보도 주목된다. 지난 3월 추론 특화 모델 '엑사원 딥'을 선보인 데 이어 오는 22일에는 이를 통합한 차세대 모델 '엑사원 4.0' 공개 행사를 예고했다. 프로젝트 신청 마감 직전에 기술력의 정점을 보여주려는 핵심적인 전략적 포석으로 풀이된다. 게임업계와 신흥 스타트업의 도전도 거세다. 엔씨소프트의 AI 전문 자회사 NC AI는 지난해 자체 개발 '바르코 LLM'을 오픈소스로 공개하며 콘텐츠 생성 분야의 기술력을 선보였던 바 있다. 네이버클라우드 AI 연구자 출신의 신재민 대표가 설립한 트릴리온랩스 역시 한국어에 특화된 210억 파라미터 모델을 이르면 이번주 내에 공개할 예정으로, 정부 프로젝트 참여 의사를 분명히 하고 있다. K-LLM 쏟아지는 진짜 이유…"기술 증명 넘어 미래 표준 본다" 업계에서는 이같이 AI 기업들이 일제히 신기술을 공개하며 프로젝트에 사활을 거는 이유 중 하나를 '증명'에 있다고 본다. 프로젝트 참여 의사를 알리는 신호를 넘어 심사 과정에서 가장 중요한 평가 요소인 '독자 기술력'을 시장과 정부에 선제적으로 증명하려는 의도라는 것이다. 장기적으로는 정부가 내건 '전 국민 AI' 시대의 표준 모델이 되겠다는 보다 큰 야망도 깔려 있다. 프로젝트의 최종 승자는 '모두의 AI' 등 향후 공공 및 정부 시스템에 도입될 AI의 표준을 선점해 막대한 후속 사업 기회를 거머쥘 수 있기 때문이다. 동시에 연간 수백억 원에 달하는 GPU·데이터·인재 등 파격적인 지원을 통해 단숨에 글로벌 수준으로 도약할 수 있다는 현실적인 목표 역시 중요한 동기다. 한 업계 이익단체 관계자는 "이번 프로젝트에는 LLM 기업뿐만 아니라 AI 서비스 기업들도 콘소시엄 형태로 사활을 걸고 뛰어들고 있다"며 "이는 '독자 파운데이션' 사업이 단순히 개발에만 집중된 것이 아니라 실제 수요로도 이어지기 때문"이라고 평가했다. 이번 기술 경쟁은 최근 국내 LLM의 발전 방향을 명확히 보여준다는 점에서도 의미가 깊다. 단순히 패러미터 크기를 늘리던 양적 경쟁에서 벗어나 복잡한 문제를 논리적으로 해결하는 '추론(Reasoning)', 스스로 도구를 사용해 과업을 완수하는 '에이전트(Agent)', 텍스트와 이미지를 함께 이해하는 '멀티모달(Multimodal)' 기능이 핵심 화두로 떠올랐기 때문이다. 한 업계 전문가는 "개발자들 사이에서도 이제는 LLM 벤치마크 점수가 실제 성능을 온전히 대변하지 못한다는 공감대가 형성되고 있다"며 "결국 해외 선도 기업들처럼 실제 비즈니스 문제를 해결할 수 있는 추론 능력과 에이전트 구현 가능성이 기술력의 새로운 척도가 되고 있는 상황"이라고 설명했다.

2025.07.11 17:19조이환

'오픈AI 대항마' 손잡은 LG CNS, 또 일냈다…추론형 LLM으로 '에이전틱 AI'서 승부수

"앞으로 LG CNS와 원팀으로 계속 협업을 이어가며 한국 특화 거대언어모델(LLM)을 만들 뿐 아니라 풀스택을 갖추고 있는 만큼 고객에게 맞는 최적화 된 모델을 선보일 것입니다." '오픈AI 대항마'로 여겨지는 캐나다 AI 스타트업 코히어를 설립한 에이단 고메즈 최고경영자(CEO)가 지난 3월 LG CNS와 함께 공약했던 LLM이 또 다시 공개됐다. LG AI 연구원의 LLM인 '엑사원'을 기반으로 하지 않고 코히어와의 협업을 통해 LG CNS가 추론 모델을 직접 개발했다는 점에서 AX 전문기업으로서의 역량을 다시 한 번 입증했다는 평가가 나온다. LG CNS는 최근 코히어와 손잡고 1천110억 개의 파라미터를 갖춘 추론형 LLM을 공동 개발했다고 10일 밝혔다. 이 LLM은 한국어, 영어 등 23개 언어를 지원하며 추론 등 핵심 성능에서 글로벌 상위 모델을 뛰어넘는 결과를 보였다. LG CNS는 지난 5월 코히어와 70억 개의 파라미터로 구성된 한국어 특화 경량 모델을 출시한 지 두 달 만에 초대형 모델을 연이어 발표하며 생성형 AI 역량을 보여줬다. LG CNS는 금융, 공공 등 민감한 데이터를 다루는 국내 고객들의 비즈니스 혁신을 위해 글로벌 시장에서 역량을 인정 받고 있는 코히어와 협력해 추론형 LLM을 개발했다. 추론형 LLM은 AI가 복잡한 문제에 대해 여러 변수를 고려한 논리적인 해답을 도출하는 모델로, AI가 스스로 판단하고 작업을 수행하는 '에이전틱 AI' 서비스 구현에 필수적인 기술로 손꼽힌다. LG CNS는 코히어와 공동 개발한 초대형·경량형 2종의 LLM과 LG AI연구원의 '엑사원' 등 LLM 라인업을 갖춰 고객이 맞춤형 에이전틱 AI 서비스를 만들 수 있는 기반을 마련했다. 에이전틱 AI는 AI가 스스로 판단, 추론해 복잡한 작업을 수행하는 차세대 인공지능으로 비즈니스 자동화, 최적화 등에 활용도가 높다. LG CNS는 이 LLM 개발을 위해 코히어의 기업용 LLM인 '커맨드(Command)' 모델에 LG CNS가 국내 전 산업 분야에서 축적한 IT전문성과 AI 기술력을 결합했다. 특히 코히어의 커맨드 모델은 이미 캐나다 최대은행 RBC(Royal Bank of Canada) 등에서 온프레미스와 클라우드 방식으로 사용되고 있어 글로벌 기업에서 검증된 바 있다. LG CNS는 LLM을 온프레미스 방식으로 제공해 고객사들이 민감한 데이터의 외부 유출 없이도 자체 인프라 내에서 안전하게 처리할 수 있도록 할 계획이다. 이번에 선보인 LLM은 모델 압축 기술을 통해 2장의 그래픽처리장치(GPU)만으로 구동이 가능하다는 장점도 갖췄다. 통상 파라미터 1천억 개 이상의 LLM에는 최소 4장의 GPU가 필요한 것으로 알려졌다. 이를 통해 고객사들은 회사의 비즈니스 환경에 최적화된 LLM을 효율적인 비용으로 확보하면서도 데이터와 인프라 주권을 확보하는 '소버린 AI'를 실현할 수 있다. '소버린 AI'는 국가나 기업이 자체 인프라를 기반으로 자국의 언어, 법, 문화 등을 반영한 독립적인 AI를 만들어 운영하는 것을 말한다. 양사가 개발한 LLM은 한국어와 영어에서 우수한 추론 능력을 보였다. 양사의 자체 테스트 결과 추론 능력 검증 대표 벤치마크 테스트인 ▲Math500과 ▲AIME 2024 영역에서 한국어, 영어 모두 GPT-4o, GPT4.1, 클로드 3.7 소넷 등 글로벌 LLM보다 높은 점수를 기록했다. 'Math500'은 대학 수준 이상의 수학문제 500개로 구성된 테스트로 AI가 얼마나 논리적으로 문제를 풀 수 있는지를 검증한다. 'AIME 2024'는 미국의 수학 경시대회 문제를 활용해 AI의 수학적 추론 능력을 평가한다. 양사의 LLM은 한국어·영어·일본어·중국어는 물론 히브리어·페르시아어 등 소수 언어까지 총 23개 언어를 지원한다. 이 중 한국어 평가 테스트에서는 온프레미스 방식의 LLM 중 현존 최고 수준의 성능(SOTA, State-of-the-Art)을 내는 것으로 나타났다. 한국어 평가 테스트인 ▲KMMLU ▲KO-IFeval에서 글로벌 LLM 대비 최고점을 달성했다. 특히 파라미터 규모가 2배 이상 많은 '큐원3(Qwen3)'보다도 우수한 성능을 보였다. 복잡한 비즈니스 문제 해결과 한국어 기반의 정교한 소통이 가능해 고객사의 업무 효율과 의사결정 품질을 획기적으로 개선할 수 있다. 'KMMLU'는 한국어 이해 능력을 종합적으로 평가하는 지표다. 인문학·사회과학·응용과학 등 45가지 분야 전문가 수준의 지식을 담은 3만5천여 개의 객관식 문제로 구성돼 있다. 'KO-IFeval'는 구글과 예일대학교가 만든 'IFeval'을 한국어로 번역한 벤치마크 테스트로, LLM이 대화 내용을 얼마나 잘 이해하고 지시사항을 잘 따르는지를 평가한다. LG CNS는 코히어와의 지속적인 협력을 이어가며 LLM의 성능을 고도화해나갈 계획이다. LG CNS AI클라우드사업부장 김태훈 전무는 "차별화된 AI 역량과 경쟁력을 바탕으로 고객의 비즈니스에 특화된 에이전틱 AI 서비스를 제공할 것"이라며 "고객의 AX를 선도하는 최고의 파트너로 자리매김할 것"이라고 밝혔다.

2025.07.10 10:00장유미

업스테이지, '추론형 AI' 상용화로 정면 승부…"글로벌 LLM 판 흔든다"

생성형 인공지능(AI) 산업의 추론형 모델 전환이 본격화된 가운데 업스테이지가 국내 스타트업 최초로 글로벌 경쟁 모델과 어깨를 나란히 하는 추론 모델을 완성했다. 업스테이지는 10일 차세대 거대언어모델(LLM) '솔라 프로 2(Solar Pro 2)'를 공개했다. 이 모델은 파라미터 규모를 310억으로 확대했으며 고도화된 추론 능력을 갖춘 '하이브리드 모드'를 도입한 것이 특징이다. 사용자는 빠른 질의응답을 위한 '챗 모드'와 논리적 사고 기반의 '추론 모드'를 상황에 따라 선택할 수 있다. '솔라 프로 2'는 수학 문제 풀이 성능을 측정하는 '매스500', 코딩 과제 해결력을 평가하는 '에스더블유이(SWE) 벤치', 종합 지식 기반의 추론 능력을 보는 '엠엠엘유(MMLU) 프로' 등 고난도 벤치마크에서 오픈AI 'GPT-4o', 딥시크 'R1', 미스트랄 '스몰 3.2'와 유사한 성능을 기록했다. 특히 '생각의 사슬(CoT)' 기법을 적용한 추론 모드가 뚜렷한 성능 향상을 이끌었다. 한국어 성능도 주목할 만하다. '솔라 프로 2'는 케이오-엠엠엘유(Ko-MMLU), 해례(Hae-Rae), 아레나-하드-오토(Arena-Hard-Auto) 등 벤치마크에서 글로벌 오픈모델을 넘어서는 결과를 보였고 어휘와 문맥 이해는 물론 금융·법률·의료 등 전문 분야 질의에도 실효성 있는 답변을 도출하는 수준에 도달했다. 모델 구조도 기능 중심으로 진화했다. 단순 문장 응답을 넘어 사용자의 의도를 파악하고 외부 도구를 호출해 실질적인 결과물을 도출하는 '에이전트형 LLM' 구조가 탑재됐다. 일례로 실시간 웹 검색, 정보 정리, 프레젠테이션 초안 작성까지 일련의 업무를 자율적으로 수행할 수 있다. 업계에서는 최근 국내 대기업들이 잇따라 추론 특화 모델을 공개한 데 이어 업스테이지가 스타트업 최초로 이 영역에 진입한 점에 주목하고 있다. LG AI연구원은 지난 3월 다중 입력을 처리하는 멀티모달 기반의 에이전트형 LLM '엑사원 2.0'을 선보이며 본격적인 추론 경쟁에 가세했다. 네이버도 지난달 '하이퍼클로바X 씽크'를 공개하며 언어와 시각 정보를 모두 다루는 추론 구조를 구현한 모델을 제시했다. 이어 업스테이지가 상용 모델을 내놓으면서 국내 LLM 개발 주체는 대기업에서 벤처로까지 외연을 넓히는 양상이다. 김성훈 업스테이지 대표는 "'솔라 프로 2'는 단순히 말을 잘하는 AI가 아니라 문제를 이해하고 논리적으로 사고하며 실질적인 행동까지 수행하는 AI 에이전트"라며 "자체 기술로 구현한 세계 최고 수준의 LLM을 기반으로, AI가 업무 방식을 근본적으로 혁신하고 '일의 미래'를 앞당길 수 있도록 기술을 고도화해 나가겠다"고 밝혔다.

2025.07.10 08:00조이환

코난테크놀로지, LLM 탑재 AI PC 조달청 '등록'…공공시장 '정조준'

코난테크놀로지가 자체 거대언어모델(LLM)을 탑재한 인공지능(AI) PC의 공공 조달 체계를 확보하며 시장 진입을 본격화했다. 온디바이스 생성형 AI 시스템을 전면에 내세운 만큼 공공기관 특화 요구를 정조준했다는 평가다. 코난테크놀로지는 TG삼보와 협력해 AI PC '코난 AI스테이션(AIStation)'을 조달청 나라장터 종합쇼핑몰에 공식 등록했다고 9일 밝혔다. 이에 따라 공공기관은 해당 장비를 별도 입찰 없이 조달청을 통해 직접 구매할 수 있게 됐다. 이 제품은 코난테크놀로지가 자체 개발한 한국어 특화 LLM을 탑재한 AI 내장형 PC다. 사양별로 보급형과 고급형 두 가지 모델로 등록됐으며 고급형에는 64기가바이트 '디디알5(DDR5)' 메모리와 엔비디아 '알티엑스 4070(RTX 4070)' 칩이 장착됐다. 실시간 문서 분석, 보고서 작성, 생성형 AI 기반 행정처리에 최적화된 구성이란 설명이다. 기기는 인터넷 연결 없이도 윈도우 환경에서 생성형 AI 기능을 실행할 수 있다. 모든 연산이 로컬에서 이뤄져 민감 정보의 외부 유출 위험을 원천 차단할 수 있도록 설계됐다. 이는 공공 업무 특성상 클라우드 기반 AI 사용에 제약이 있는 기관들에게 현실적인 대안이 될 수 있다. 코난테크놀로지와 TG삼보는 지난 5월 자사 행사에서 연간 40만 대 규모의 공공 조달 시장 공략 계획을 밝힌 바 있다. 이번 등록은 이 계획의 실질적 첫걸음으로, 조달 등록과 동시에 현장 영업 확대도 병행되고 있다. 영업은 TG삼보가 하드웨어 공급을, 코난테크놀로지가 LLM 기반 소프트웨어를 제공하는 구조다. TG삼보는 10여 년간 정부 납품 1위 자리를 지켜온 기업으로, 기존 공공 유통망을 활용한 빠른 확산이 가능할 것으로 보인다. 김영섬 코난테크놀로지 대표는 "생성형 AI 어플라이언스 판매 확대를 위한 첫걸음을 내디뎠다"며 "공공 시장 점유율을 끌어올리고 매출 성장에 박차를 가하겠다"고 밝혔다. 지승현 TG삼보 대표는 "이번 등록이 전국 공공기관 공급 확대의 전환점이 될 것"이라고 강조했다.

2025.07.09 15:04조이환

[기고] 가장 쉽고 빠르게 AI 서비스를 구축하는 방법, 문서중앙화

최근 '소버린 AI'에 대한 기업·정부·언론의 관심이 급격히 높아지고 있다. 관심의 본질은 데이터 주권(Data Sovereignty)에 있다. 인공지능(AI)이 신뢰할 수 있는 결과를 내기 위해서는 반드시 기업 고유의 데이터, 더 나아가 자국 경계 안에 존재하는 데이터를 기반으로 작동해야 한다는 공감대가 형성된 것이다. 실제 레퍼런스 구현 방식으로는 검색증강생성(RAG) 아키텍처가 가장 많이 거론된다. 대규모언어모델(LLM)이 자체 지식을 최소화하고 사내 문서를 검색해 응답을 생성하기 때문에 데이터 주권·보안 요구에 부합하기 때문이다. 그러나 현장의 목소리는 "첫 단추부터 막힌다"는 데 모아진다. 핵심 병목은 데이터 품질 확보다. 가트너는 AI 도입 성공을 위해 지속적인 데이터 정렬, 검증, 그리고 거버넌스를 핵심 요소로 제시한다. 많은 기업이 그 중요성을 인지하고 있음에도 불구하고 실제 실행이 어려운 이유는, 데이터 관리 체계를 처음부터 새로 구축하고 정의하는 작업이 어렵고 복잡하기 때문이다. 이로 인해 데이터 품질이 낮아지면 AI 학습에 사용할 수 있는 데이터 양이 부족해지고, 권한 관리 미흡이나 기밀 정보의 노출 위험, 결과의 신뢰성 부족 등 다양한 운영 리스크로 이어질 수 있다. 그런데 이러한 관리 체계가 이미 최적화된 형태로 제공되는 플랫폼이 존재한다. 바로 문서중앙화 플랫폼이다. 이 플랫폼은 파일의 수집부터 폐기까지 원시 데이터를 체계적으로 저장·관리할 수 있다. 이 플랫폼은 기업들이 겪는 데이터 관리의 어려움을 대부분 해결할 수 있다. 분산되고 파편화된 파일을 중앙 집중식으로 저장하고, 개인 중심의 저장 방식을 업무 중심의 분류 체계로 전환하며, 소유권·권한 관리, 파일의 이력과 버전 관리, 보안 정책 적용 및 메타정보의 구성까지 통합적으로 관리한다. 기업내의 비정형 데이터의 통합 스토리지 역할을 하고, 이 데이터 관리 체계와 권한 체계는 그대로 생성형 AI의 데이터 파이프라인과 연계될 수 있다. 결과적으로 문서 중앙화 플랫폼을 통해 지식화된 데이터는 자연스럽게 AI 처리 흐름으로 연결되어 자동으로 처리되며, 문서의 구조와 의미, 유사성 파악과 함께 보안 기준이 통합적으로 적용된다. 이를 통해 기업은 정보와 관리의 사각지대를 제거하고, AI 기반 서비스 운영에 필요한 신뢰성과 관리 효율성을 동시에 확보할 수 있게 된다 문서중앙화 플랫폼과 RAGOps의 통합은 3가지 핵심적인 특징을 제공한다. 첫 번째 "문서중앙화가 전처리의 시작점이자 AI의 기반이 된다" AI 서비스를 도입할 때 별도의 데이터 체계를 새로 구축하기보다, 기존의 문서중앙화 시스템을 데이터 기반으로 삼고 그 위에 AI를 접목하는 것이 핵심 전략이다. RAG옵스(Ops) 플랫폼을 기반으로, 데이터 파이프라인 자동화, 자연어 기반 검색, 요약, 회의록 생성 등 다양한 AI 서비스를 제공하며, 기존 문서중앙화에 AI 기능이 더해져 업무 효율성과 서비스 확장성이 크게 향상된다. 두 번째 "일관된 메타정보 체계를 통해 운영 가능한 AI를 만든다" AI가 안정적으로 운영되기 위해서는 데이터 운영체계와 AI 운영체계가 일관된 관리 기준을 공유해야 한다. 비정형 데이터만으로는 한계가 있으며, 이를 보완하는 표준화된 메타정보 체계가 필수적이다. 문서중앙화 플랫폼과 RAG옵스와 메타체계를 공유하며, 비정형 문서와 함께 메타 정보도 자동 연동·관리된다. 또한, 문서 의미 정보와 함께 등급·분류·관리 속성 등 메타정보까지 벡터화하여 저장함으로써, 검색 정확도와 생성 응답의 신뢰성을 크게 향상시키고, 운영 가능한 실용 AI로 발전시킨다. 세 번째, "RAG옵스 플랫폼을 통해 지속적인 개선과 확장이 보장된다" 문서중앙화 플랫폼의 AI 서비스는 RAG옵스 기반의 자동화된 AI 파이프라인을 통해 지속적으로 개선된다. 데이터 수집부터 임베딩, 검색, 생성까지 전 과정이 최적화되어 데이터 품질 향상에 기여하며, 평가 모델과 피드백 루프를 통해 응답 품질도 지속적으로 향상된다. 이를 통해 문서 기반 AI 시스템은 지속적인 발전과 운영 확장이 가능한 구조를 제공한다. 문서중앙화 플랫폼과 RAG옵스 플랫폼의 결합은 기업이 AI 시대의 복잡한 데이터 과제를 해결하고, AI의 진정한 잠재력을 안전하고 효율적으로 실현할 수 있는 견고한 기반을 제공한다. 인젠트의 도큐먼트(document) 플랫폼과 RAG옵스 결합은 이를 입증한다. AI를 빠르고 안전하게, 그리고 지속적으로 확장하려는 기업에게 문서중앙화는 가장 효율적이고 전략적인 선택지다. 기존 문서 자산을 체계적으로 관리하고 AI와 자연스럽게 연계함으로써, 데이터 기반 AI 서비스의 구현을 빠르고 효과적으로 가능하게 한다. 특히 RAG옵스 기반의 지속적인 개선 체계를 통해 AI 품질까지도 함께 진화할 수 있다는 점에서, 가장 실용적이고 전략적인 AI 도입 방식이라 할 수 있다.

2025.07.09 13:51박정권

[유미's 픽] 알리바바 큐원 탑재한 SKT '에이닷엑스 4.0'…藥일까 毒일까

"2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수입니다. 한국 데이터는 해외로 유출되지 않습니다." 지난 달 19일 기자간담회를 통해 이처럼 강조했던 알리바바 클라우드가 자사 인공지능(AI) 모델 '큐원'을 앞세워 SK텔레콤을 등에 업고 국내 시장 공략에 본격 나섰다. 올 초 오픈AI를 긴장하게 만든 딥시크에 이어 알리바바 '큐원'까지 영역 확장에 속도를 높이고 있지만, 중국 기업의 데이터 유출 우려 때문에 국내 시장에 제대로 안착할 수 있을지 주목된다. 6일 업계에 따르면 SK텔레콤이 지난 3일 공개한 AI 모델 '에이닷엑스 4.0'에는 알리바바의 오픈소스 거대언어모델(LLM)인 '큐원 2.5'가 적용된 것으로 파악됐다. 한국어에 맞게 SKT가 개량한 '에이닷엑스 4.0'은 특정 산업에 최적화된 '버티컬 AI 서비스'를 만든다는 목표로 만들어진 LLM으로, 오픈소스 커뮤니티 허깅페이스를 통해 A.X 4.0의 표준 모델과 경량 모델 2종이 공개됐다. 표준 모델은 720억개(72B), 경량 모델은 70억개(7B)의 매개변수를 갖추고 있다. 하지만 중국 기업의 AI 모델을 활용했다는 점에서 국외 정보 유출에 대한 의구심도 나오고 있다. SKT가 개인정보보호정책에 ▲이용자의 메시지나 답변은 저장하지 않는다 ▲이용자의 쿠키를 수집·저장하지 않는다 ▲기술적 보안과 프라이버시 보호를 위해 노력하겠다 등의 문구를 삽입하며 대응에 나섰지만, 우려를 불식시키기엔 미흡한 조치라는 평가가 나오고 있다. 특히 SKT를 활용하는 이용자들 사이에서 볼멘 소리가 나오고 있다. 누리꾼들은 "소식을 접하고 '에이닷' 어플을 바로 삭제했다", "중국산 AI 모델에 한국어를 학습시켰다고?", "중국 묻은 SKT, 빨리 탈출해야겠다" 등의 부정적인 반응을 내놓으며 실망감을 감추지 않았다. 업계 관계자는 "SKT가 유심 해킹 사건으로 고객들의 많은 신뢰를 잃은 상황에서 굳이 이미지가 좋지 않은 중국 AI 모델을 기반으로 파인튜닝 했다는 사실을 적극 알리는 것이 과연 득이 될 지 모르겠다"며 "한국어를 자체 데이터로 학습해 잘한다는 점을 내세우고 있지만 현 시점에서 이를 내놓은 것이 도움될 것 같진 않다"고 지적했다. 하지만 SKT는 'A.X 4.0'을 온프레미스(내부 구축형) 방식으로 제공하는 만큼, 기업 내부 서버에 직접 설치해 사용할 수 있어 데이터 보안에서 강점을 지녔다는 점을 적극 강조했다. 알리바바 클라우드 역시 지난 달 기자 간담회를 통해 중국계 기업에 대한 우려를 의식한 듯 보안과 컴플라이언스를 핵심 가치로 내세우며 '신뢰 받는 글로벌 파트너'로의 입지를 국내에서도 강화하겠다고 강조했다. 또 국내 투자 계획을 밝히며 사업 확장에 대한 의지도 내비쳤다. 알리바바 클라우드는 지난 2016년 국내 시장에 진출한 후 2022년 3월 국내 첫 데이터센터를 구축하고, 지난 달 서울에 또 다른 데이터센터를 가동한 상태다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 말했다. 이를 기반으로 알리바바는 고객사들이 '큐원' 중심의 AI 오픈소스 생태계를 활성화하길 원했다. 또 SKT 외에도 자사 AI 모델을 활용한 사례를 공개하며 협업 확대에 대한 의지를 다졌다. 대표적인 곳이 AI 솔루션 기업 유니바다. 이곳은 알리바바 클라우드의 큐원 모델을 활용해 비용은 30% 절감하면서 한국어 처리 정확도를 45%에서 95%까지 끌어올린 에이전트 AI를 공개했다. 네이버 '스노우'는 알리바바 클라우드의 비디오 생성 모델 '완(Wan)'을 기반으로 중국 시장에서 개인화된 이미지 스타일링 기능을 제공 중이다. 라라스테이션은 알리바바 클라우드와 손잡고 글로벌 라이브 스트리밍 플랫폼을 개발해 동남아 시장으로 비즈니스를 확장하는 데 성공했다. 또 국내 시장 확대를 위해 메가존소프트·이테크시스템과도 협력 중이다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "메가존소프트와 이테크시스템 외에 공개할 수는 없지만 대기업군 SI(시스템통합) 업체들도 파트너 에코에 이미 합류해 있다"고 밝혔다. 업계에선 '큐원'이 페이스북 모기업인 메타플랫폼의 '라마(LLaMA)'와 중국 딥시크 'R1' 모델을 제치고 사실상 전 세계 LLM 생태계에서 가장 빠르게 영향력을 키우고 있다는 점에서 SKT와 알리바바의 협업을 부정적으로만 봐선 안된다는 평가도 있다. 실제 '큐원' 모델은 현재 전 세계적으로 3억 건 이상 다운로드됐고 13만 개 이상의 파생 모델이 생성된 것으로 알려졌다. 특히 최신 모델 '큐원3-8B'의 지난 달 다운로드 수는 메타의 '라마-3.1-8B'를 거의 2배 앞섰다는 점에서 주목 받았다. 딥시크의 'R1' 시리즈 중 가장 인기 있는 최신 모델 '딥시크-R1-0528'에 비해서는 약 10배 많았다. 업계 관계자는 "큐원은 한국어 처리 능력과 온프레미스 버전에서 최적화가 가능해 산업별 맞춤형으로 튜닝을 거쳐 기업 차원으로 빠르게 확산되며 국내에서 존재감을 키우고 있다"며 "민간 데이터를 다루는 공공·금융에서도 온프레미스로 튜닝해 개발하거나 중소기업과 스타트업에서도 다양하게 튜닝하고 있다"고 말했다. 그러면서 "딥시크에 이어 큐원까지 중국 AI가 국내 산업 기반을 빠르게 장악할 것으로 예상된다"며 "향후 국내 기업 기술 완성도가 높아지더라도 기존 기술 장벽과 가격 등에서 후순위로 밀려날 가능성이 높다는 점에서 중국 AI 생태계에 종속될 것이란 우려도 높아지고 있다"고 덧붙였다.

2025.07.06 09:00장유미

구글, 생성형 AI 영상툴 '비오 3' 세계 출시…오디오까지 붙는 영상 제작

구글이 생성형 인공지능(AI) 영상 모델 '비오 3(Veo3)'를 전세계에 출시하면서 영상 제작의 진입장벽을 대폭 낮추는 기술 확장을 본격화했다. 4일 테크크런치에 따르면 구글은 '비오 3'를 이달부터 159개국 이상에서 제미나이 사용자에게 순차적으로 적용 중이다. 이 모델은 최대 8초 길이의 동영상을 생성할 수 있으며 텍스트 입력만으로 영상과 소리를 동시에 만들어준다. '비오 3'는 지난 5월 공개 당시에도 영상 품질과 프레임 전환 자연도에서 높은 평가를 받았지만 이번 세계 출시를 통해 음성까지 생성하는 '네이티브 오디오' 기능이 정식 반영됐다. 동영상 한 편 안에 장면, 움직임, 사운드를 모두 구현하는 생성형 AI는 시장 내에서도 제한된 기술로 꼽힌다. 사용자는 단순한 글을 입력하거나 캐릭터, 사물, 상황 등을 설명하는 방식만으로 애니메이션, 밈, 스토리보드 등을 즉시 생성할 수 있다. 콘텐츠 제작 초기 단계인 콘셉트 시안, 브레인스토밍, 프로토타입 영상 제작에도 유용하다. 생성 과정은 전부 '제미나이' 플랫폼 안에서 이뤄진다. 요금제에 따라 기능과 품질도 차등화된다. 'AI 프로'는 신속한 속도와 기본 품질에 중점을 두며 'AI 울트라'는 고화질 영상과 더 정교한 오디오까지 포함하는 최상위 옵션이다. 두 요금제 모두 인터넷 연결과 일정 기준의 사용자 조건을 충족해야 이용 가능하다. 또 구글은 '비오 3'에 이미지 기반 입력 기능도 곧 도입할 예정이다. 텍스트뿐 아니라 이미지를 활용해 영상으로 전환하는 기능은 현재 개발 중이며 향후 제미나이 업데이트를 통해 반영될 계획이다. 영상 제작을 위한 입력 방식 다변화를 통해 더 직관적인 창작 흐름을 노리는 것으로 풀이된다. 현재 '제미나이'에는 '비오 3 패스트'라는 경량 모델도 함께 제공되고 있다. 이는 상대적으로 짧은 시간 안에 빠르게 결과물을 확인할 수 있도록 최적화된 버전으로, 복잡한 품질 조정이나 고해상도 출력은 '울트라' 요금제 전용 기능으로 분리돼 있다. 조쉬 우드워드 구글 제미나이 담당은 "현재 이미지 기반 비디오 생성 기능도 '제미나이'에 추가하는 작업을 진행 중"이라고 밝혔다.

2025.07.04 09:23조이환

"챗GPT보다 싸고 빠르다"…라이너, 검색 LLM으로 AI 검색 시장 '정조준'

라이너가 '챗GPT'보다 정확하고 비용 효율적인 자체 검색 인공지능(AI) 성능을 공개했다. 핵심은 리서치에 최적화된 검색 결과를 신속히 제공하는 구조와 이를 뒷받침하는 데이터 기반 학습 역량이다. 라이너는 자사 '라이너 검색 LLM'이 AI 검색 컴포넌트 성능 비교 평가에서 오픈AI 'GPT-4.1'보다 우수한 결과를 기록했다고 3일 밝혔다. 이번 모델은 기존 오픈 소스 기반 구조 위에 10여 년간 축적한 방대한 사용자 데이터를 사후 학습 방식으로 적용해 정확도와 처리 속도를 높였다. 토큰당 비용도 평균 30~50% 절감한 것으로 나타났다. '라이너 검색 LLM'은 질문 분석부터 답변 생성까지 검색형 에이전트의 전 과정을 처리하는 데 필요한 8개 컴포넌트를 통합 구성한 모델이다. 이 중 카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 컴포넌트는 성능·속도·비용 전 항목에서 'GPT-4.1'을 상회했다. 특히 실제 서비스 환경에서 재현성과 신뢰성을 기반으로 성능을 측정한 점이 주목된다. 단순 벤치마크 수치가 아니라 실사용 기반 결과를 중심으로 비용·속도·정확도의 균형을 검증한 구조다. 이로 인해 기존 대형 모델 대비 가볍고 빠른 검색형 LLM 구현이 가능해졌다는 평가다. 라이너는 수년간 테스트와 개선을 반복하며 LLM 학습 구조를 고도화해 왔다. 자사 사용자 데이터를 활용한 정밀 학습을 통해 질문 처리 구조를 체계화하고 할루시네이션 가능성을 줄이는 방향으로 검색 정확도를 끌어올렸다는 설명이다. 검색 LLM의 비용 경쟁력 역시 차별점으로 꼽힌다. 'GPT-4.1' 대비 평균 30~50% 낮은 토큰당 처리 비용으로, 대규모 트래픽이 발생하는 검색형 에이전트 환경에서도 운영 효율성과 수익성 확보가 가능하다는 계산이다. 조현석 라이너 테크 리드는 "'라이너 검색 LLM'은 8가지 모든 컴포넌트에서 '챗GPT'를 뛰어넘는 성능을 입증했다"며 "어떤 데이터를 어떻게 학습하고 어떤 구조로 질문을 처리하느냐가 AI 할루시네이션을 줄이는 핵심"이라고 밝혔다. 이어 "데이터 학습과 연구 개발에 꾸준히 집중해 온 노력이 차별화된 AI 에이전트 기술 경쟁력으로 이어졌다는 점에서 의미가 크다"고 말했다.

2025.07.03 16:56조이환

"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은?

인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다. AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다. 레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(vLLM)을 제시했다. 레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다. 복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'vLLM' 지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다. 브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다. 그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다. 이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다. 레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 vLLM을 선보이고 있다. vLLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다. 스티븐스 CTO는 vLLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다. 그는 "vLLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다. vLLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다. "GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법 레드햇이 vLLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다. 이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다. 레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다. 그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다. 이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다. 레드햇은 'LLM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다. "설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라' 이와 함께 레드햇은 오픈소스 기반의 vLLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다. 이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. vLLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다. 레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다. 그는 "오픈소스 vLLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다. 이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.

2025.07.02 10:59남혁우

지미션, LLM 문서처리 솔루션 출시…기업 문서 자동화 시장 본격 진입

지미션이 핵심정보를 자동으로 분류·요약하는 문서처리 거대언어모델(LLM)을 통해 기업 문서 자동화 시장에 진입했다. 지미션은 신제품 '닥스훈드(DXHUND)'를 정식 출시하고 공공기관·금융사·대기업 등을 주요 타깃군으로 삼아 시장 확산을 추진 중이라고 30일 밝혔다. 제품명은 정보 탐지에 특화된 견종 닥스훈트에서 착안했으며 복잡한 문서 속에서도 의미 기반 핵심정보를 빠짐없이 찾아낸다는 기술적 기획이 반영됐다. '닥스훈드'는 광학문자인식(OCR) 기술을 기반으로 이미지 문서를 디지털 텍스트로 변환한 뒤 문서 구조를 해석해 항목별 정보를 자동 추출하거나 사용자 목적에 맞춰 내용을 요약·분류하는 기능을 제공한다. 계약서, 진술서, 지시문 등 비정형 문서가 많은 업무 환경에서 반복 업무를 줄이는 데 특히 적합하다는 평가다. 또 문서 내 포함된 개인정보를 자동 탐지해 비식별화하거나 마스킹할 수 있으며 사용자가 자연어로 문서 검색과 필터링을 수행할 수 있는 질의응답형 인터페이스도 함께 제공된다. 단순한 문서 처리 도구가 아닌 검색-분류-대응까지 하나의 흐름으로 연결되는 통합형 솔루션이라는 점이 차별 포인트다. 지미션은 해당 제품에 자사 기존 기술력인 AI OCR, 자연어처리(NLP), 개인정보 비식별화 역량과 더불어 최근 확보한 LLM 엔진까지 통합 적용했다고 설명했다. 사전 처리와 후처리의 품질을 모두 감안한 종단 간 문서처리 체계를 구현했다는 의미다. 이번 제품 출시는 기업 문서 업무에서 가장 처리 비용이 크고 리스크가 높은 '비정형 문서 처리'를 기술로 대응하려는 산업적 수요 증가에 맞춰 기획된 것으로 보인다. 특히 하루 단위로 대량 문서를 수작업 검토하는 조직일수록 효과가 뚜렷할 수 있다. 한준섭 지미션 대표는 "'닥스훈드'는 기술의 역할과 한계를 냉정하게 인식한 상태에서 반복적이지만 복잡한 문서 업무를 효율화하려는 조직에 실질적인 도움이 되도록 설계했다"며 "기술 중심의 과잉 마케팅보다 실사용 데이터를 기반으로 시장을 확장해나갈 것"이라고 밝혔다.

2025.06.30 15:00조이환

"크리에이터, 목소리만 주면 된다"…NC AI, 샌드박스 글로벌화 '전면 지원'

NC AI가 MCN 업계 선두주자 샌드박스네트워크와 손잡고 크리에이터의 글로벌 진출을 지원한다. NC AI는 서울 용산 샌드박스 본사에서 샌드박스네트워크와 '기술지원 및 사업활동 공동협력' 양해각서(MOU)를 체결했다고 26일 밝혔다. 행사에는 이연수 NC AI 대표, 이필성 샌드박스 대표, 샌드박스 공동창업자이자 최고크리에이티브책임자(CCO)인 도티가 참석했다. 이번 협력을 통해 NC AI는 자사의 버티컬 미디어 AI 기술과 바르코 거대언어모델(LLM) 기반 솔루션을 샌드박스에 제공한다. 샌드박스는 200여 팀 이상의 크리에이터 네트워크를 통해 이를 실전 현장에 접목한다. 양사는 단순 협업을 넘어 독자 인공지능(AI) 파운데이션 모델 개발에도 공동으로 나서며 글로벌 경쟁력을 키운다는 계획이다. NC AI가 제공하는 기술에는 실시간 AI 번역, 다국어 음성 합성, 3D 아바타 생성, 실시간 다국어 채팅 번역 등 미디어 콘텐츠 전용 AI 솔루션이 포함돼 있다. 현재는 영어, 일본어, 중국어 등을 중심으로 게임과 콘텐츠 특화 번역 기능을 우선 적용하고 있다. 보이스 액팅 기술은 크리에이터 목소리를 짧은 샘플만으로 재현해 감정과 말투까지 유지한 다국어 더빙을 구현한다. 도티 같은 인기 크리에이터도 기존 콘텐츠 하나로 여러 언어의 팬과 동시에 소통할 수 있는 구조다. 기술적으로는 자막이나 기계식 더빙이 아닌 '실제 목소리 기반'의 몰입형 팬 경험을 목표로 한다. 실시간 다국어 챗봇 기술은 특히 라이브 방송과 팬미팅 현장에 바로 적용된다. 한국어로 진행되는 스트리밍에서도 영어, 일본어, 유럽권 언어로 실시간 대화가 가능해지며, 글로벌 커뮤니티 형성과 관리가 수월해진다. 3D 콘텐츠 측면에선 간단한 2D 이미지를 기반으로 크리에이터 고유 굿즈, 아바타를 제작할 수 있는 도구도 제공된다. 패션 AI 역시 바르코 아트 기술과 결합해 자유로운 의상 디자인, 착장 시연이 가능하다. 크리에이터가 브랜드화에 필요한 시각 요소를 AI로 자체 생성할 수 있는 기반이 마련된 셈이다. 콘텐츠 품질과 확장성 면에서도 효과음, 모션 생성, 애니메이션 등 고비용 작업을 자동화해 진입 장벽을 낮췄다. 특히 숏폼, 웹툰, 광고 등 다양한 장르에 필요한 시청각 요소를 AI가 대체하면서 제작자 역량의 범위가 넓어진다. 양사의 협력은 크리에이터 생태계 자체를 기술로 전환하는 시도이기도 하다. 단순한 솔루션 제공을 넘어 크리에이터의 개성과 지적재산권(IP)을 유지하면서도 다국어·다문화 콘텐츠로 확장할 수 있도록 설계돼 있다. NC AI는 샌드박스 협력을 기반으로 AI 솔루션의 사업화를 확대하고 산업 맞춤형 미디어 AI 생태계 구축에도 속도를 낸다. 이연수 NC AI 대표는 "샌드박스와 함께 국내 크리에이터들이 '바르코 LLM'과 미디어 버티컬 AI를 활용해 본연의 개성을 살리고 글로벌 팬들과 자유롭게 소통할 수 있도록 지원하겠다"고 밝혔다.

2025.06.26 10:44조이환

[AI는 지금] 'K-AI' 노리는 코난테크·업스테이지, 韓 반도체 기업과 협업 나선 까닭은

한국형 인공지능(AI) 모델 개발을 위한 정부의 '독자 AI 파운데이션 모델' 프로젝트 사업자 선정에 도전장을 내민 AI 업체들이 국내 반도체 기업과 손잡고 경쟁력 끌어올리기에 본격 나섰다. 25일 업계에 따르면 코난테크놀로지는 최근 AI 반도체 기업 리벨리온의 신경망처리장치(NPU)에 자사 거대언어모델(LLM)이 탑재된 '코난 AI 스테이션 서버'를 접목했다. 이를 위해 두 회사는 지난해 8월 AI 모델과 AI 반도체 기술을 결합하는 공동 연구개발 협약을 맺고 국산 AI 소프트웨어와 반도체 기술을 융합한다고 발표한 바 있다. 코난 AI 스테이션 서버는 팀이나 조직 단위가 함께 사용하는 생성형 AI 인프라로 사용자 수에 따라 그래픽처리장치(GPU), 메모리, 스토리지를 유연하게 구성할 수 있다. 지난달 출시한 기업형 AI 서버 코난 AI 스테이션 서버에는 코난 LLM이 기본 탑재된 상태로, 리벨리온의 최신 NPU에서 작동되고 있다. 두 회사는 현재 최적화 작업을 진행 중이다. 업스테이지도 국내 반도체 팹리스 기업인 퓨리오사AI와 '신경망처리장치(NPU) 기반 생성형 AI 사업 협력'을 위한 양해각서(MOU)를 체결했다. 이번 일로 업스테이지는 자체 거대언어모델(LLM) '솔라'를 퓨리오사AI의 차세대 NPU '레니게이드'에 최적화해 탑재할 계획이다. 또 두 회사는 NPU 기반으로 구동하는 온프레미스 AI 구축 사업을 공동 추진하고 국내는 물론 글로벌 시장까지 함께 공략할 방침이다. 이들이 이처럼 나선 것은 최근 AI 반도체 시장을 미국 엔비디아가 사실상 독점하며 이에 따른 글로벌 공급난과 가격 급등으로 인해 불안정성이 지속되고 있어서다. 여기에 최근 미국, 중국 등 해외 빅테크 LLM의 공세가 거세지면서 국내 AI 산업 전반에 상당한 부담이 가중되고 있다는 점도 주효했다. 더불어 최근 정부가 '독자 AI 파운데이션 모델' 프로젝트 사업자 선정에 나서고 있는 것도 영향이 크다. 코난테크놀로지와 업스테이지는 각각 자체 LLM을 보유하고 있는 곳으로, 이번 정부의 프로젝트에 사업자로 참여하고 싶다는 의지를 강하게 드러내고 있다. 이들의 LLM이 대표 AI 모델로 선정되면 'K-AI 모델', 개발사는 'K-AI 기업' 등 명칭을 쓸 수 있게 된다. 정부는 이 사업에 총 1천936억원을 투입해 선발 기업에게 최대 3년간 GPU와 데이터, 인재 등 필요한 자원을 집중적으로 지원한다. 초기에 최대 5개 기업을 선발할 예정으로, 평가를 거쳐 점차 지원기업을 압축해 나갈 계획이다. 이 사업에는 두 회사 외에도 네이버와 카카오, LG AI 연구원, KT, 솔트룩스, 이스트소프트 등이 참여 의사를 적극 내비치고 있다. 업계 관계자는 "국내 대표 AI 소프트웨어와 하드웨어 기업이 힘을 모아 국산 AI 경쟁력을 강화하기 위해 나서려는 분위기가 조성되고 있다는 점은 긍정적"이라며 "이들의 움직임이 정부가 추진하는 프로젝트 사업자 선정에 어떤 영향을 줄 지 기대된다"고 말했다. 그러면서 "국산 NPU 기반 생성형 AI 솔루션의 상용화는 해외 기술 의존도를 낮추고 AI 인프라의 자립화와 기술 주권 확보에 기여할 것으로 보인다"고 덧붙였다.

2025.06.25 10:10장유미

[현장] 슈퍼브에이아이 "비전, 한국이 1등할 수 있다"…수출형 소버린 AI 선언

"기존에 우리가 알던 거대언어모델(LLM) 기반의 소버린 인공지능(AI) 전략이 주로 방어적 접근이라면 산업용 비전 AI는 오히려 세계 무대 수출의 무기가 될 수 있습니다. 제조업에 강점을 가진 한국이 산업 특화형 파운데이션 모델(VFM)로 글로벌 경쟁력을 확보할 수 있기 때문입니다." 김현수 슈퍼브에이아이 대표는 24일 서울 여의도 콘래드호텔에서 열린 기자간담회에서 이같이 말했다. 이날 행사는 산업용 비전 AI 파운데이션 모델 '제로(ZERO)' 공개를 위한 자리로, 질의응답에는 김 대표를 비롯해 최고기술책임자(CTO), 최고사업책임자(CBO) 등 주요 경영진이 직접 참석했다. 김 대표의 발언은 정부가 최근 '국가 파운데이션 모델' 프로젝트를 통해 다양한 형태의 모델 개발을 유도하겠다는 의지를 밝힌 데 따른 것이다. 특히 소버린 AI 전략을 주창해온 네이버클라우드 출신 하정우 수석이 국가 AI 정책의 총괄 책임자로 선임되면서 거대언어모델에 대한 보완 전략도 함께 주목받고 있다. 이날 김현수 대표는 정부의 소버린 AI 전략과 제로의 연결 지점을 묻는 기자의 질문에 "LLM은 외산 모델 리스크를 막기 위한 수비형 기술로 해석되나 비전 파운데이션 모델은 수출 전략 기술이 될 수 있다"고 강조했다. 이어 "한국은 제조·조선·반도체 등 고도화된 산업 인프라를 가진 몇 안 되는 국가로, 이 기반 위에서 한국형 비전 AI는 글로벌 1등 가능성이 있다"고 말했다. 슈퍼브에이아이는 파운데이션 모델 기술을 공개하는 데 그치지 않고 산업 현장의 AI 도입 장벽을 구조적으로 낮추는 생태계 전략도 함께 제시했다. 차문수 최고기술책임자(CTO)는 "8B, 7B 모델은 현장 적용이 어려워 제로는 경량화에 집중했다"며 "산업용 제어 컴퓨터(PLC), 신경망 처리장치(NPU) 등 다양한 산업 장비와 응용 프로그램 인터페이스(API)로 직접 연동이 가능해 손쉽게 시스템에 탑재할 수 있는 구조를 갖췄다"고 설명했다. 시장 전략으로는 '플랫폼 중심 생태계 공급'을 강조했다. 김진회 최고사업책임자(CBO)는 기자의 관련 질의에 "'제로'는 아마존 웹서비스(AWS) 같은 글로벌 플랫폼에서 쉽게 호출할 수 있도록 설계됐다"며 "사용자가 가장 익숙하고 신뢰하는 환경에서 AI를 바로 접할 수 있게 했다"고 말했다. 이어 "AWS에 등록된 제로는 시간당 약 10달러(한화 약 1만4천원) 수준으로, 초기에는 할인된 가격으로 제공될 예정"이라고 설명했다. 올해 매출에는 '제로' 관련 수익이 반영되지 않는다. 슈퍼브에이아이는 현 시점에서의 '제로'를 직접적인 매출원이 아닌 '시장 인지도 제고를 위한 마중물'로 규정했다. 김진회 CBO는 "'제로'를 통해 AI가 실제 어떤 문제를 푸는지 체험하게 되면 이후 머신러닝 기반운영 'MLOps 플랫폼'과 '버티컬 솔루션' 수요가 자연스럽게 확대될 것"이라고 말했다. 김현수 대표는 "20조원 규모의 기존 머신비전 시장을 넘어 스마트팩토리와 영상관제 등 200조 원 이상 시장에서 제로가 탐지·이해 등의 작업을 대체할 수 있다"며 "빠른 시일 안에 해당 시장을 본격적으로 공략할 것"이라고 강조했다.

2025.06.24 15:15조이환

LG AI연구원 '엑사원 4.0' 개발 중…추론형 AI 역량 강화 시동

LG가 차세대 인공지능(AI) '엑사원'의 후속 버전 개발에 속도를 내고 있다. 24일 업계에 따르면 LG AI연구원은 '엑사원 4.0'과 조직병리 특화 모델 '엑사원 패스 2.0'을 개발 중이다. 현재까지 관련 공식 행사 계획은 없으며 공개 일정도 논의 단계에 머물러 있는 것으로 알려졌다. '엑사원 4.0'은 기존 모델에 추론형 모델 '엑사원 딥'을 통합하는 형태로, 대용량 장문 처리와 과학·의료 등 고도화된 전문 영역 활용을 목표로 설계되고 있다. '3.5' 버전은 A4 100페이지 수준의 문서를 단일 입력으로 처리할 수 있을 정도의 처리 능력을 보인 바 있다. 함께 준비 중인 '엑사원 패스 2.0'은 병리 이미지 기반의 암 진단 AI 모델로, 유전자 검사 대비 검사 시간을 줄이는 데 목적이 있다. 두 모델 모두 오픈소스로 공개해 활용성과 투명성을 높인다는 것이 LG 측 내부 방향성이다. 지난 23일 과학기술정보통신부 장관으로 지명된 배경훈 LG AI연구원장은 지난 3월 엔비디아 개발자 행사에서 "'엑사원 4.0'부터 통합 모델을 선보일 것"이라며 "상반기 출시를 목표로 한다"고 말했다. LG 관계자는 "모델은 개발 중인 것이 맞고 행사는 미정"이라고 밝혔다.

2025.06.24 15:12조이환

[현장] "AI 도입 비용 0"…슈퍼브에이아이, 산업용 비전 파운데이션 모델 '제로' 공개

슈퍼브에이아이가 인공지능(AI) 도입 비용과 시간을 대폭 줄인 산업용 비전 파운데이션(VFM) 모델을 통해 전 산업의 디지털 전환 가속화에 나선다. 기술 부담 없이 누구나 AI를 쓸 수 있도록 만들겠다는 전략이다. 슈퍼브에이아이는 24일 서울 콘래드호텔에서 기자간담회를 열고 산업 특화형 비전 파운데이션 모델 '제로(ZERO)'를 공개했다. 이날 행사에는 김현수 최고경영자(CEO)를 비롯해 차문수 최고기술책임자(CTO), 김진회 최고사업책임자(CBO)가 참석해 슈퍼브에이아이의 기술 전략과 시장 계획을 상세히 밝혔다. 김현수 CEO는 "AI 도입 비용을 완전히 '0'으로 만들겠다"는 선언과 함께 슈퍼브에이아이가 개발한 '제로'를 소개했다. 회사에 따르면 '제로'는 학습 데이터 없이도 즉시 활용 가능한 영상 AI 모델로, 기존 AI 개발에 요구되던 데이터 구축과 모델 학습 과정 자체를 생략할 수 있는 것이 핵심이다. 영상 속 객체 탐지, 추적, 질의응답까지 다양한 작업을 단일 모델로 처리할 수 있어 산업 적용성도 강조됐다. 산업용 범용 기반 모델 '제로'…AI 도입 병목 해소한다 이날 행사를 시작하며 김 CEO는 슈퍼브에이아이가 AI 도입에 있어 ▲전문 인력 부족 ▲데이터 부족 ▲기술 인프라 부재라는 세 가지 병목을 확인했다고 설명했다. 이를 해결하기 위해 이미 개발한 것이 머신러닝 기반의 'MLOps 플랫폼'과 '버티컬 솔루션'이다. 데이터 라벨링 자동화와 AI 개발 전 과정을 하나의 플랫폼에서 처리할 수 있는 이 플랫폼은 AI 개발 기간을 6개월에서 2주로 줄이는 데 성공했다. '버티컬 솔루션'은 개발 역량이 부족한 산업 현장에서 AI를 즉시 활용할 수 있도록 만든 제품군이다. CCTV 기반 화재 감지, 안전 모니터링 솔루션은 실제로 발전소, 공항, 지자체 등에서 쓰이고 있다. 김 대표는 "이제는 더 높은 목표를 설정할 시점"이라며 "이에 '제로' 모델을 개발할 필요성을 느꼈다"고 강조했다. 슈퍼브에이아이에 따르면 '제로'는 마치 '챗GPT'처럼 프롬프트 입력만으로 다양한 작업을 실행하는 멀티모달 인터페이스를 갖췄다. 예시 이미지 하나로 생산 현장의 결함 탐지나 수량 계산이 가능하고 프롬프트를 통해 다양한 산업 과업을 정의할 수 있다. 기존 AI의 한계였던 '사전 정의된 카테고리만 인식 가능' 문제도 해결한다는 설명이다. 김 대표는 제로가 지닌 '제로샷' 능력을 핵심 경쟁력으로 꼽았다. 학습 없이도 기존 지식만으로 새로운 상황을 추론할 수 있는 점은 제조업 기반이 강한 한국이 비전 AI 분야에서 세계 시장을 주도할 수 있는 전략적 교두보가 될 수 있다는 의미이기도 하다. 산업용 비전 데이터는 대부분 기업 내부에 있고 공개되지 않는다. 텍스트 기반의 언어 모델과 달리 접근이 어렵다. 김 대표는 "바로 이 점이 우리가 경쟁력을 가질 수 있는 이유"라며 "한국의 제조·조선·방산 같은 고도화된 산업 인프라 위에서 비전 파운데이션 모델은 세계 1등을 노릴 수 있다"고 말했다. 김 대표는 "AI의 3대 축으로 거대언어모델(LLM), 비전 파운데이션 모델(VFM), 피지컬 AI(로보틱스 등)가 제시된다"며 "이 가운데 비전 AI가 산업 현장의 눈이 될 것"이라고 말했다. 이어 "산업용 비전 AI가 한국의 국가 경쟁력에 기여하도록 '제로'를 통해 AI 민주화와 함께 산업 혁신의 속도를 끌어올리겠다"고 밝혔다. 구글·MS·중국 모델 제쳤다…국산 비전 '제로'로 CVPR 2위 이어 차문수 CTO는 '제로'의 기술적 배경과 성능 성과를 설명했다. 그는 기존 비전 AI의 구조적 한계부터 짚으며 제로가 어떤 기술 혁신을 통해 이를 극복했는지를 순차적으로 소개했다. 차 CTO는 기존 비전 AI가 ▲새 객체 인식 불가 ▲환경 변화에 취약 ▲작업마다 별도 모델이 필요한 복잡성 등 세 가지 태생적 한계를 안고 있다고 설명했다. 산업 현장에서는 이 같은 제약이 반복적인 데이터 수집과 학습 비용으로 이어졌고 AI 도입 자체를 가로막아 왔다고 진단했다. 그는 슈퍼브에이아이가 이 같은 구조적 병목을 해결하기 위해 '제로'를 설계했다고 밝혔다. 제로가 가진 '제로샷'이란 대규모 언어 데이터와 이미지 데이터를 함께 학습해 학습되지 않은 객체도 추론 가능한 능력이다. 더불어 정해진 분류 없이도 작동하는 '오픈월드' 구조로 설계됐다. 이미지나 텍스트 등 다양한 형태의 프롬프트를 지원하는 멀티모달 인터페이스와 수십 개의 태스크를 하나의 모델로 처리할 수 있는 멀티태스크 구조를 채택했다. 무엇보다도 산업현장에서 필요로 하는 문제를 곧바로 다룰 수 있도록 퍼블릭 웹 데이터 외에 슈퍼브에이아이 자체 구축 데이터와 국내 AI허브 데이터 등 산업용 특화 데이터를 중심으로 학습시킨 점이 특징이다. 추가 학습 없이 바로 제조, 유통, 건설 등 다양한 분야에서 사용 가능한 형태로 만들었다는 점에서 기술적 실용성이 강조됐다. '제로'는 벤치마크에서도 뚜렷한 성과를 냈다. 산업용 영상 AI 벤치마크에서 경쟁 모델들을 제치고 1위를 기록했다. 글로벌 비전학회인 국제 컴퓨티 비전 및 패턴 인식 학회(CVPR)의 객체 탐지 및 퓨샷 챌린지에서도 각각 2위, 4위를 기록했다. 중국의 '티렉스-2(T-Rex2)', 마이크로소프트의 '플로센스-2(Florence-2)', 구글 '오더블유엘브이2(OWLv2)' 등과 비교해도 성능 격차를 크게 벌린 것으로 나타났다. 또 차 CTO는 '제로'가 적은 리소스로 고성능을 구현한 점을 강조했다. 'A100' 그래픽 처리장치(GPU) 8장만으로 학습했으며 수집한 1억 장 규모의 데이터에서 약 90만 장만을 선별 학습에 사용했다. 이를 가능하게 한 것은 슈퍼브가 보유한 MLOps 플랫폼의 데이터 선별 기술이었다는 설명이다. 모델 경량화도 특징이다. 10억 파라미터 미만으로 설계돼 연산량이 작아 엣지 디바이스나 클라우드 등 다양한 환경에서 가볍게 배포 가능하다. 응용 프로그램 인터페이스(API) 호출 방식뿐 아니라 엣지AI 형태로도 쉽게 연동 가능하며 실제 산업 환경에서의 AI 도입을 빠르고 간편하게 만든다는 것이 슈퍼브에이아이의 설명이다. 차 CTO는 "'제로'는 단일 모델에 그치지 않는다"며 "하드웨어-플랫폼-모델-버티컬 솔루션을 포괄하는 '제로 스택'으로 풀스택 생태계를 구성하겠다"고 밝혔다. '제로'로 200조 시장 노린다…"지능형 비전, 모든 산업의 표준 될 것" 이어 김진회 CBO는 '제로'가 실제 비즈니스 현장에 어떻게 가치를 창출하는지 설명하며 기술 중심 전략에서 '고객 중심 전환'으로의 구체적 비전을 제시했다. 그는 '제로'의 활용이 단순한 AI 도입을 넘어 산업 전체의 운영 구조를 바꾸는 촉매가 될 수 있다고 강조했다. 김 CBO는 "AI가 중요한 게 아니라 여러분의 자연지능이 중요하다"며 기존 AI 도입 방식의 비효율성과 제로의 실용적 전환 능력을 대비해 설명했다. 학습 없이도 객체 탐지, 결함 검출, 수량 카운팅이 가능한 '제로샷'의 현장 데모를 통해 복잡한 모델 설계와 라벨링 없이도 AI 도입이 가능함을 시연했다. 데모에서는 리테일 환경에서는 변화가 잦은 제품군을 사전 학습 없이도 인식하고 분류할 수 있는 능력도 선보였다. 영상 속 인물의 행동을 추론하고 사고 현장을 이해해 답변을 제공하는 지능형 에이전트 형태로 확장된 기능도 함께 시연됐다. 김 CBO는 '제로'가 기존 AI 도입에서 필연적으로 요구되던 '문제 정의→데이터 수집→라벨링→모델 학습→배포'의 전 과정을 무력화했다고 밝혔다. 그는 "이제는 아이디어만 있으면 AI를 바로 쓸 수 있게 된다"며 "기술검증(PoC)에 수천만 원을 쓰지 않아도 된고 전문가를 고용하는데 소요되는 시간도 필요 없게 하는 것이 우리의 궁극적 목적이었다"고 말했다. 시장 확장 전략으로는 '플랫폼 중심 생태계 공급' 구조를 제시했다. 아마존웹서비스(AWS) 같은 글로벌 플랫폼에서 손쉽게 제로를 호출할 수 있는 구조를 갖춰 사용자가 가장 익숙하고 신뢰하는 환경에서 AI를 접할 수 있도록 하겠다는 것이다. 실제로 제로는 이날 오후부터 AWS를 통해 공개될 예정이다. 그는 궁극적으로 '제로'가 모든 산업 장비·시스템에 탑재되는 표준이 되겠다는 포부를 밝혔다. 20조원 규모의 기존 컴퓨터 비전 시장을 넘어 200조원에 달하는 글로벌 영상 관제 시장, 290조원 규모의 스마트팩토리 시장 등으로 진출하겠다는 계획이다. 김진회 CBO는 "의사는 의료 AI, 농업 전문가는 농업 AI를 만드는 시대를 '제로'가 열 것"이라며 "지금까지의 AI가 기술을 위한 것이었다면 이제는 사람을 위한 AI로 전환해야 한다"고 말했다.

2025.06.24 14:21조이환

[AI는 지금] 정부, '국가 파운데이션 모델' 추진…업계 "설계는 훌륭, 실행이 관건"

정부가 글로벌 생성형 인공지능(AI) 시장에서 독립적 경쟁력을 확보하기 위한 '독자 파운데이션 모델' 개발에 착수했다. 모델을 오픈소스로 공개해 민간 활용도를 극대화하겠다는 구상이다. 업계에서는 방향성과 의도에 대해 긍정적인 평가가 나오지만 실질 집행에 대한 지속적인 모니터링은 필요하다는 시각도 병존한다. 24일 업계에 따르면 과학기술정보통신부는 지난 20일 정보통신산업진흥원(NIPA), 지능정보사회진흥원(NIA), 정보통신기획평가원(IITP) 등과 함께 '독자 AI 파운데이션 모델' 프로젝트를 공식 발표했다. 해당 사업은 기존 '월드 베스트 거대언어모델(LLM)'로 불리던 기획의 정식 명칭으로, 다음달 7월 21일까지 국내 AI 정예팀 공모를 진행해 최대 5개 팀을 선발하고 단계별 압축 평가를 통해 상위팀으로 압축할 계획이다. 이번 사업은 최근 6개월 내 출시된 글로벌 최신 AI 모델 대비 95% 이상의 성능을 목표로 삼고 있다. 다만 고정된 성능 수치에 집착하기보다는 '무빙 타겟' 방식을 도입해 기술환경 변화에 따라 목표와 평가 기준을 유연하게 조정하는 전략을 채택했다. 과기정통부는 이와 같은 방식을 미국 방위고등연구계획국(DARPA)의 모델에 빗대어 'DARPA형'이라고 정의했다. 기술주권 위한 'K-AI 전략' 본격화…정예팀 자율 설계·정부 전폭 지원 구조 이 프로젝트를 위해 정예팀은 AI 모델 개발 전략과 방법론을 스스로 제시해야 한다. 정부는 GPU, 데이터, 인재 등 자원 항목에 대해 '희망 수요'를 정예팀이 먼저 요청하도록 하고 평가를 통해 적정 수준을 매칭 지원한다. 이 과정에서 오픈소스 공개 범위가 넓을수록 정부의 지원 매칭 비율은 높아진다. 그래픽 처리장치(GPU)는 당장 1차 추경 예산 1천576억원 규모를 활용해 민간 GPU를 임차해 지원한다. 팀 당 초기 지원 수량은 GPU 500장 수준이며 평가 결과에 따라 1천 장 이상까지 확대된다. 내년 하반기부터는 정부가 직접 구매한 첨단 GPU 1만 장을 본격 투입할 예정이다. 데이터는 공통수요와 개별수요로 나눠 지원된다. 정예팀이 필요로 하는 저작물 기반 학습데이터를 연간 100억원 규모로 공동구매하고 팀별 데이터 구축 및 가공은 연간 30억~50억원 수준으로 지원한다. 학습 효율성과 저작권 이슈를 동시에 감안한 전략이다. 인재 지원은 해외 우수 연구자 유치를 전제로 한다. 정예팀이 해외 팀이나 재외 한인 인재를 유치하면 정부가 연간 20억원 내외의 인건비 및 연구비를 매칭한다. 이 항목은 정예팀이 탈락하더라도 오는 2027년까지 지속 지원된다. 모델 성능 평가는 6개월 주기로 진행된다. 국민과 전문가가 함께 참여하는 콘테스트 기반 평가, 국내외 벤치마크 기준에 따른 검증 평가, 파생 모델 수를 기준으로 한 파생 평가 등을 결합한 입체적 방식이다. 단계평가를 통해 5개 팀에서 4개, 3개, 2개로 점차 압축하는 경쟁형 설계를 따를 예정이다. 모델 개발 완료 후에는 오픈소스를 통해 국내 AI 생태계 전반에 확산될 예정이다. 정예팀은 공모 시 '국민 AI 접근성 향상'과 '공공·경제·사회 전반의 AI 전환'을 위한 활용 계획을 함께 제출해야 하며 정부는 필요에 따라 이에 매칭해 후속 지원도 가능하다고 밝혔다. AI 안전성 확보도 주요 과제로 포함된다. 정부는 AI 안전연구소(K-AISI)와 협력해 파운데이션 모델의 신뢰성과 확장성을 검증하고 일정 수준 이상에 도달한 모델에 대해 'K-AI 모델', 'K-AI 기업' 등 명칭을 부여해 글로벌 시장에서의 공신력을 제고한다는 방침이다. 송상훈 과기정통부 정보통신정책실장은 "이번 프로젝트는 단순히 AI 모델을 만드는 데 그치지 않고 기술주권을 확보하고 모두가 활용할 수 있는 AI 생태계를 조성하는 출발점이 될 것"이라며 "정예팀들이 글로벌 수준의 독자 모델을 확보해 대한민국이 AI 강국으로 도약하는 기반을 마련하길 기대한다"고 밝혔다. 설계는 잘 했다…'기술·자원·평가' 운용이 진짜 시험대 업계에서는 정부의 독자 파운데이션 모델 추진을 대체로 긍정적으로 평가하고 있다. 국가가 주도해 자국 모델을 구축하려는 흐름은 이미 전 세계적으로 확산 중이며 한국의 이번 시도도 그 연장선에 있다는 분석이다. 실제로 국가 주도 모델 개발은 미국 오픈AI, 앤트로픽 등과 중국 딥시크 만의 경쟁 구도가 아니다. 프랑스는 오픈소스 기반 생성형 AI 기업 미스트랄을 중심으로 자체 모델을 개발하고 있으며 에마뉘엘 마크롱 대통령이 직접 나서 수천억 원대 민간 투자와 글로벌 협력을 이끌고 있다. 싱가포르 역시 '씨라이언(SEA-LION)' 프로젝트를 통해 동남아 현지 언어 기반 LLM을 개발 중이다. 최근에는 칠레 AI센터를 중심으로 아르헨티나, 브라질 등 남미 12개국이 연합해 '라탐-GPT' 개발을 공식화하며 오는 9월 공개를 예고한 상태다. 라지브 쿠마르 한국외국어대학교 연구교수는 "국가가 주도해 독자적인 파운데이션 모델을 개발하는 건 지금 전 세계적인 흐름으로, 한국 정부의 이번 시도는 매우 긍정적으로 본다"며 "인도도 스타트업 중심의 개발을 정책적으로 지원하면서 정부 차원에서 국내 생태계를 강화하려는 시도가 있다"고 말했다. 더불어 업계에서는 이번 프로젝트가 단순히 모델 하나를 만드는 데 그치지 않고 자원 배분 방식과 생태계 설계까지 포괄하고 있다는 점에 주목하고 있다. 'GPU·데이터·인재'라는 AI 핵심 자원을 수요 기반으로 자율 신청받고 이를 정부가 평가 후 매칭하는 구조가 민간 주도성과 정부 책임성을 동시에 확보하려는 시도로 보고 대체로 긍정적으로 반응하는 상황이다. 다만 실무 현장에서는 자원 지원이 선언에만 머물 경우 효과가 반감될 수 있다는 우려도 제기된다. 일례로 GPU의 경우 1천576억원 규모의 예산이 잡혀 있다 해도 실제 장비 임차·세팅·운영까지 이뤄지는 시간 차를 간과해선 안 된다는 게 중론이다. 단순한 GPU 확보가 아니라 팀별 물리적 접근성과 운영 안정성까지 감안한 체계 설계가 필요하다는 것이다. 데이터 항목도 비슷한 맥락이다. 정예팀이 요청하는 데이터에 대한 품질 기준과 저작권 검토 체계가 정비되지 않을 경우 향후 오픈소스 공개 과정에서 법적 리스크나 생태계 혼란을 야기할 수 있다. 특히 저작물 데이터의 공동구매가 연간 100억원 규모로 설정된 만큼, 명확한 선별 기준과 기술적 정제 절차가 병행돼야 한다는 의견이 나온다. 인재 유치 항목에 대해선 방향성은 맞지만 실질 효과는 제약이 클 수 있다는 관측도 있다. 단순히 해외 인재에게 연구비를 매칭 지원한다고 해서 국내에 안착하는 건 어렵다는 것으로 국내 기관의 위상, 프로젝트 자체의 매력도, 그리고 연구 독립성 등이 종합적으로 뒷받침돼야 할 것으로 관측된다. 오픈소스 정책 역시 마찬가지다. 오픈소스 정책이 산업 육성과 충돌하지 않도록 장기적으로는 파라미터 제한이나 일부 모듈 비공개 등에 대한 세분화된 가이드라인이 수립될 필요가 있다는 것이다. 한 업계 관계자는 "오픈소스를 전제로 한 모델 전략은 지금 시기에 필요하다"면서도 "오픈소스에 대한 구체적인 정의가 프로젝트가 진행되면서 확립돼야 할 것으로 보인다"고 말했다. "이어 기술 보호 없이 모든 걸 일괄적으로 공개할 경우 산업적 격차를 키울 수 있다"고 우려했다. 일각에서는 이 프로젝트가 '국가대표 AI'를 선발하는 성격인 만큼 평가 기준의 엄정성과 공정성이 핵심이라는 지적도 있다. 단순한 국내 경쟁이 아니라 세계적 기술 경쟁의 문턱을 넘는 출발점이 되려면 국제적인 벤치마크와 기술 평가 기준을 적극 반영해야 한다는 주장이다. 또 다른 업계 관계자는 프로젝트를 두고 "파운데이션 모델 구축을 위한 기술력과 역량은 충분하지만 자원이 부족했던 강소기업에게는 매우 훌륭한 육성 프로젝트로 보인다"며 "다만 기술적 발전이 빠른 만큼 평가 기준에는 국제적인 수준이 반영돼야 그 공신력이 확보되고 국가대표로서도 의미가 있을 것"이라고 말했다. 이와 함께 모델 규모에 대한 조건이 명확히 규정돼 있지 않다는 점도 일부에서 우려되는 대목이다. 개발 전략과 방법론을 정예팀이 자율적으로 제안하는 'DARPA형' 설계는 기술 진화에 유연하게 대응할 수 있다는 점에서 긍정적이지만 자칫 자원 격차에 따른 구조적 불균형을 초래할 수 있다는 지적이다. 업계 관계자는 "모델 규모에 대한 규정이 자칫 잘못되면 큰 모델들만이 성능과 역량이 좋게 평가를 받을 것"이라며 "기울어진 운동장이 될 수도 있으므로 이를 방지하기 위한 노력을 기울여야 할 것"이라고 평가했다.

2025.06.24 11:21조이환

  Prev 1 2 3 4 5 6 7 8 9 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, HBM4 개발 완료…'세계 최초' 양산 체제 구축

AI 시대 인재·성장·협업 모든 것 'HR테크 리더스 데이 4' 열린다

이마트 '트레이더스' 잘 나가네…롯데마트 ‘맥스’는?

"한 곳만 참여해도 유찰 없다"…국가AI컴퓨팅센터 신속 추진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.