• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'영상 분석'통합검색 결과 입니다. (4건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

클라우다이크 '브이픽' 써보니…"AI가 30분 넘는 영상 척척 분석"

최근 숏폼 콘텐츠가 유튜브 등에서 대세로 자리잡았다. 그러나 이를 편집하는 방송·콘텐츠·미디어 실무 현장 고민은 따로 있다. 긴 영상을 어디서부터 어떻게 봐야 할지 판단하는 데 시간이 너무 많이 든다는 점이다. 회의 영상, 인터뷰 원본, 강의 녹화본처럼 긴 영상은 처음부터 끝까지 다시 보지 않는 이상, 내용을 정확히 파악하기 어렵다. 이 때문에 많은 영상이 “언젠가 쓰겠지”라는 미련이 보태져 쌓여만 간다. 클라우다이크가 선보인 영상 분석 서비스 브이픽(Vpick)이 이 문제를 해결했다. '숏폼을 더 빨리 만드는 방식'이 아니라 '영상을 처음부터 끝까지 보지 않고도 내용을 파악, 분석할 수 있기 때문이다. "브이픽은 단순한 숏폼 생성 툴이 아니다. AI를 활용해 영상을 자동으로 분석하고, 그 분석 결과를 바탕으로 원하는 장면을 검색할 수 있는 서비스"라는 것이 클라우다이크 측 설명이다. 브이픽은 인터뷰, 회의, 강의, 토크 영상처럼 맥락과 발언이 중요한 영상을 '재생해야만 이해할 수 있는 파일'이 아니라 '내용으로 검색하고 판단할 수 있는 자료'로 바꾼다. 실제 사용 편의성을 확인하기 위해 30분이 넘는 '허브스팟 인바운드(HubSpot Inbound) 2025 CEO 대담 영상과 김연경·김연아 토크 영상을 브이픽에 업로드해 체험해봤다. 영상 업로드 후 AI 분석이 완료되자 영상은 장면(Scene)단위로 자동 분리됐고, 각 장면마다 핵심 요약, 스크립트, 등장 인물 정보가 함께 정리됐다. 눈에 띄는 점은 영상을 바로 재생하지 않아도 “이 영상에서 어떤 이야기가 오갔는지”를 먼저 훑어볼 수 있다는 것이다. 스크립트와 인물 태그 나란히 제공...사람처럼 맥락 이해도 브이픽의 분석 화면에서는 장면별 요약 정보와 함께 해당 구간 스크립트(대사)와 인물 태그가 나란히 제공됐다. 스크립트 문장을 클릭하면 그 발언이 실제 등장하는 시점으로 영상 타임라인이 즉시 이동한다. 타임라인을 일일이 끌어다니며 찾던 기존 방식과는 편의성 면에서 차이가 컸다. 인물 태그를 활용하면 특정 인물이 등장하는 구간만 골라 확인할 수도 있다. 회의나 토크 영상처럼 여러 사람이 번갈아 발언하는 콘텐츠에서 이 기능의 효용성은 유난히 크게 다가왔다. 분석된 영상 정보는 검색 기능에도 활용된다. 파일명이나 정확한 키워드를 기억하지 않아도 자연어 문장으로 원하는 장면을 검색할 수 있다. 예를 들어 “결론 이야기 나온 부분”, “질문이 오간 구간”처럼 입력하면 AI가 분석된 장면 중 관련도가 높은 구간을 바로 찾아준다. 영상이 많아질수록 이 기능의 의미는 더 커진다. '기억'이 아니라 '검색'으로 영상을 다룰 수 있기 때문이다. 영상 분석을 확인한 뒤 숏폼 생성 기능도 함께 써봤다. 브이픽이 자동으로 생성한 숏폼 중 일부가 김연경 유튜브 채널에 실제 업로드된 쇼츠와 유사한 하이라이트 구간을 포함하고 있다는 점이 흥미로웠다. 이는 브이픽 숏폼 생성이 단순히 길이를 줄이는 방식이 아니라, 사람이 하이라이트로 판단하는 맥락을 영상 분석을 통해 포착한다는 점을 의미한다. 숏폼 생성 이후까지 고려한 바이럴 가이드도 눈에 띄어 브이픽은 숏폼 생성이 전부가 아니다. 생성된 각 숏폼에는 활용 전략, 업로드 시 유의사항, 제목 작성 방향, 해시태그 추천 등이 포함된 바이럴 가이드가 함께 제공됐다. 숏폼을 만든 뒤 “이제 이걸 어떻게 올려야 할까”라는 고민을 줄여주는 설계다. 단순 생성·편집 툴을 넘어 활용과 확산까지 고려한 구조라는 것이 클라우다이크 개발팀 설명이다. 클라우다이크는 향후 브이픽을 기업용 클라우드 기반 서비스인 '클라우다이크'와 유기적으로 연계, 영상과 이미지 같은 대용량 콘텐츠 자산을 단순 저장을 넘어 분석·검색·활용까지 이어지는 구조로 고도화할 계획이다. 이를 통해 기업과 미디어 조직이 보유한 방대한 영상 자산을 파일 단위가 아닌 의미와 맥락 단위로 관리할 수 있도록 하고, 필요한 순간에 원하는 장면을 바로 찾아 콘텐츠 제작이나 재가공, 배포로 이어지는 흐름을 만드는 것이 목표다. 이선웅 클라우다이크 대표는 “브이픽은 단순히 숏폼을 자동으로 만들어주는 도구가 아니라, 긴 영상을 효율적으로 이해하고 판단할 수 있는 근거를 제공하는 서비스”라며 “앞으로 영상이 많아질수록, 처음부터 끝까지 모두 보는 방식은 한계가 있는 만큼 영상이 '검색 가능한 자산'으로 활용되는 구조를 완성해 나갈 것"이라고 밝혔다.

2026.02.04 09:47박희범 기자

트웰브랩스, 차세대 영상 이해 모델 '마렝고 3.0' 공개…"업계 최고 수준"

트웰브랩스가 영상 속 장면의 텍스트·음성·움직임·상황 맥락을 통합적으로 이해하는 인공지능(AI)을 선보인다. 트웰브랩스는 차세대 영상 AI 파운데이션 모델 '마렝고 3.0'을 공식 출시했다고 2일 밝혔다. 마렝고 3.0은 영상 속 대사와 몇 분 후에 등장하는 동작을 연결해 해석하고 사물·행동·감정·상황 변화를 시간의 흐름에 따라 추적하는 등 인간에 가까운 수준의 영상 이해 능력을 구현한다. 특히 이미지와 텍스트를 동시에 검색할 수 있는 '복합 이미지 검색' 기능과 사람이나 제품을 별도로 등록해 찾아볼 수 있는 '고유명사 검색' 기능도 도입됐다. 이번 모델은 36개 언어를 지원해 글로벌 기업 환경에서도 안정적으로 활용할 수 있다. 또 스토리지 비용 50% 절감, 인덱싱 속도 2배 향상 등의 효율성 개선도 확인했다는 게 트웰브랩스 측 설명이다. 마렝고 3.0은 기존 프레임 기반 분석이나 이미지·오디오 모델의 단순 조합 방식에서 벗어나 영상 이해를 위해 처음부터 설계된 네이티브 파운데이션 구조를 갖췄다. 영상 전체를 시간·공간적으로 해석하는 방식이다. 장면 간의 연속성과 맥락을 자연스럽게 파악하며 스포츠·미디어·엔터테인먼트·광고 등 고난도 콘텐츠에 대한 이해 능력이 대폭 강화된 것이다. 공공·보안 등의 영상 분석 환경에서도 높은 정확도를 보인다. 마렝고 3.0은 다양한 산업 현장에서 즉시 활용 가능하다. 프로 스포츠 리그에서는 특정 선수의 득점 장면이나 결정적 플레이만을 즉시 검색해서 찾아내 하이라이트를 빠르게 제작할 수 있으며 경기 분석 효율 향상을 지원한다. 방송·포스트 프로덕션 분야에서는 수십 년치 아카이브에서 특정 유명인의 얼굴을 '고유명사'로 등록해 원하는 행동을 하는 장면을 몇 초 만에 찾아낼 수 있다. 공공보안 쪽에서는 CCTV 영상 전체를 몇시간씩 볼 필요 없이 빠르게 원하는 장면만을 정확하게 찾아낼 수 있다. 이커머스 분야에서도 브랜드, 제품 혹은 호스트가 언제 등장하고 어떤 행동을 하고 있는지 원하는대로 즉시 검색해 볼 수 있다. 이재성 트웰브랩스 대표는 "전 세계 디지털 데이터의 90%가 영상인데 사람이 직접 분석하기에 너무 오래 걸리고 기존 기술로는 모든 것을 파악하기가 어려워 그동안 대부분 제대로 활용되지 못했다"며 "이 문제를 해결하는 것이 우리의 목표"라고 말했다. 이어 "마렝고 3.0은 그동안 영상 이해 기술이 가졌던 한계를 완전히 뛰어넘는 모델로, 기업과 개발자에게 기존과 다른 혁신적인 기준을 제시할 것"이라고 덧붙였다. AWS 니샨트 메타 AI 인프라 부문 부사장은 "트웰브랩스의 영상 이해 기술은 그동안 수작업 중심이었던 영상 분석 프로세스에 전례 없는 속도와 효율성을 제공하며 산업 전반의 혁신을 이끌고 있다"며 "마렝고와 페가수스 모델이 아마존 베드록에서 큰 성과를 거둔 데 이어, 마렝고 3.0은 세계 최고 수준의 영상 이해 능력을 필요로 하는 고객들에게 최적의 솔루션이 될 것으로 기대한다"고 강조했다.

2025.12.02 17:51한정호 기자

네이버클라우드, 맥락 이해하는 AI 영상 분석 서비스 'MAIU' 공개

네이버클라우드가 영상 제작자를 위한 인공지능(AI) 기반의 영상 분석 서비스를 선보였다. 네이버클라우드는 서울 코엑스에서 개최되는 'KOBA 2025(국제 방송·미디어·음향·조명 전시회)'에서 방대한 영상 속 정보를 AI가 분석해 메타 데이터로 자동 추출하고 검색해주는 영상 분석 서비스 'MAIU(엠에이아이유, Media AI Understanding)'를 공개했다고 21일 밝혔다. 해당 서비스는 현재 국내 방송사 및 파트너사를 대상으로 클로즈드 베타 서비스(CBT) 중이며, 내달 정식 공개될 예정이다. MAIU는 영상 내 인물·행동·배경·음성 등 다양한 정보를 AI가 자동으로 분석해 메타데이터를 생성하고 '와인잔 나오는 장면', '남주인공 달리는 장면' 등 텍스트 검색만으로 원하는 장면을 빠르게 찾을 수 있는 서비스다. 이를 통해 방송사와 영상 제작사 뿐 아니라 유튜브와 숏폼 콘텐츠 등 수많은 영상 제작자들이 반복적인 편집 시간을 줄이고 창의적인 작업에 집중할 수 있을 것으로 기대하고 있다. MAIU를 활용하면 영상 제작에서 가장 많은 시간이 드는 메타데이터 추출 및 가편집 시간을 획기적으로 줄일 수 있다. 통상 예능 프로그램 1편 제작 시 3천600분에 해당하는 영상을 촬영하게 되는데 기존에는 편집팀이 3-4일에 걸쳐 분석 및 가편집을 마쳤다면, MAIU를 활용하면 2시간 이내로 끝낼 수 있다. 15배 이상의 시간이 단축되는 셈이다. 이에 네이버클라우드 측은 "기존 AI 분석 서비스는 일반적으로 개별 프레임 단위의 탐지나 객체 인식에 국한돼 있어 영상 콘텐츠의 흐름이나 맥락 이해가 어려웠던 반면, MAIU는 영상의 의미 단위인 구간을 중심으로 분석하는 것이 가장 큰 차이점"이라고 설명했다. 이어 "프레임이나 샷 단위가 아닌, 이야기의 흐름이나 구성상 자연스러운 구간 단위로 분석하기 에 실질적으로 콘텐츠를 편집하거나 재가공할 때 훨씬 직관적이고 현업에서 바로 활용 가능한 구조로 제공할 수 있다"고 덧붙였다. 사용 요금도 모델 경량화를 통해 경쟁력을 갖춰 글로벌 경쟁 제품 대비 최대 1/3 수준으로 정식 출시될 예정이다. 또 MAIU 서비스를 이용할 경우 모바일 라이브 스트리밍, VOD 영상 송출 등의 기능을 동일 플랫폼 내에서 함께 활용할 수 있어 제작부터 송출까지의 전 과정을 효율적으로 운영할 수 있다. 네이버클라우드 성무경 네이버 클라우드 플랫폼 기획 총괄은 "급속도로 성장하고 있는 영상 산업은 클라우드 전환 및 적극적인 AI 기술 도입으로 혁신이 가장 기대되는 분야 중 하나"라며 "AI 영상 분석 서비스를 포함해 콘텐츠 제작·편집·유통·관리에 이르는 전 과정을 아우르는 엔드투엔드 미디어 서비스로 고객의 다양한 니즈를 만족시키고 영상 산업의 혁신을 이끌어 낼 수 있도록 노력하겠다"고 말했다.

2025.05.21 13:08한정호 기자

"영상 AI의 챗GPT 순간 열까"…트웰브랩스, '페가수스-1.2' 공개

트웰브랩스가 차세대 영상언어 생성 모델을 공개해 산업 현장에서의 인공지능(AI) 활용성을 극대화한다. 트웰브랩스는 자사가 최근 개발한 '페가수스-1.2'가 다양한 길이의 영상을 분석할 수 있다고 12일 밝혔다. 이 모델은 성능이 대폭 향상돼 텍스트 요약·질의응답·하이라이트 생성 등 고도화된 영상 처리가 가능하다. 트웰브랩스는 이번 모델에 고급 비전 인코딩 전략과 토큰 감소 기술을 적용해 모델의 효율성과 이해도를 높였다. 이를 통해 기존 초거대 모델 대비 가벼운 크기로도 높은 성능을 구현했다. 특히 'GPT-4o'·'제미니 1.5 프로' 등 경쟁 모델보다 응답 속도가 빠르고 비용 효율성이 뛰어난 점이 강점으로 꼽힌다. '페가수스-1.2'는 트웰브랩스의 자체 멀티모달 임베딩 모델인 '마렝고'와 결합돼 보다 정교한 영상 이해 능력을 갖췄다. 이를 통해 엔터테인먼트·교육·보안 등 다양한 산업에서 활용될 전망이다. 일례로 방송·미디어 업계에서는 영상 콘텐츠 자동 분류, 하이라이트 추출, 교육 분야에서는 강의 요약 및 핵심 내용 정리에 활용될 것으로 기대되며 보안 산업에서는 CCTV 영상 분석과 이상 징후 탐지 등에 적용될 것으로 보인다. 트웰브랩스는 지난 2021년 설립 이후 멀티모달 신경망 기술을 기반으로 빠르게 성장했다. 글로벌 리서치 기업 CB 인사이트가 선정한 'AI 100'에 3년 연속 이름을 올렸으며 '세계 50대 생성형 AI 스타트업'에도 포함됐다. 지난해 12월에는 이승준 CTO가 포브스 '30세 미만 30인' AI 리더로 선정되며 기술력을 인정받았다. 이승준 트웰브랩스 최고기술책임자(CTO)는 "영상 속 객체의 공간적 관계와 시간적 변화를 정확히 분석하는 AI 모델이 필요하다"며 "'페가수스-1.2'는 혁신적인 시공간 정보 이해 방식을 도입해 다양한 산업 요구를 충족할 것"이라고 말했다.

2025.02.12 15:12조이환 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

코스피 6000 고지 코앞…'100만 닉스' 신화 썼다

월마트 1조 달러 돌파했는데…韓 유통 빅3, 저평가 탈출 시동

담합 의혹 속 설탕·밀가루 줄인하…밥상물가 내릴까

가상자산 거래소 대주주 지분 공방…쟁점은

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.