• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'영상 AI'통합검색 결과 입니다. (52건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"오픈AI·구글 못지 않다"…'영상 분석 강자' 트웰브랩스, LG CNS와 新 사업 발굴 본격화

트웰브랩스가 LG CNS와 영상 분석 기술 고도화와 신규 사업 발굴을 위해 함께 나선다. 트웰브랩스는 LG CNS와 영상 AI 기술 협력을 위한 업무협약(MOU)을 체결했다고 1일 밝혔다. 이번 협약으로 양사는 미디어·방송, 공공·안전, 법률·수사기관 등 다양한 산업 분야에서 혁신적인 영상 AI 솔루션 공급을 가속화할 계획이다. 트웰브랩스는 멀티모달 신경망 기술을 바탕으로 글로벌 영상 시장 내 오픈AI, 구글과 어깨를 나란히 하고 있다는 평가를 받고 있다. 지난 4월 한국 AI 모델 최초이자 영상 모델 최초로 아마존 베드록(Amazon Bedrock)에 자사 멀티모달 AI 모델 '마렝고(Marengo)'와 '페가수스(Pegasus)'를 공급하는 성과를 이뤘다. LG CNS는 금융 분야에서 생성형 AI를 기반으로 한 기업 고객의 비즈니스 혁신을 선도하고 있다. 특히 ▲NH농협은행 ▲신한은행 ▲신한카드 ▲미래에셋생명 ▲미래에셋증권 ▲우리은행 등 주요 금융 기업의 AX 사업을 맡으며 금융 AX 시장에서도 두각을 나타내고 있다. 최근에는 공공 분야에서도 외교부, 경기도교육청, 경찰청 등의 대규모 AX 사업을 연이어 수주해 기술력을 인정 받고 있으며 제조, 물류 등 다양한 분야로 사업을 확장해 나가고 있다. 양사의 협력은 기술 및 사업적 협업 두 축으로 진행된다. 연구 협력을 통해 트웰브랩스의 영상이해 모델(Video Foundation Model, VFM)을 고도화하고 이를 바탕으로 고객 서비스 기획 및 구축으로 다양한 고객 대상 협업을 통해 사업 기회를 창출할 계획이다. 미디어·방송 분야에선 ▲뉴스, 스포츠, 드라마 콘텐츠 자동 요약 및 하이라이트 추출 ▲대규모 아카이브 영상 내 특정 키워드 및 상황 검색 ▲콘텐츠 시청 시 소비 중인 장면과 유사한 광고를 노출하는 맥락 광고 서비스 등을 제공한다. 공공·안전 및 법률·수사기관 분야에서는 ▲CCTV 특정 이벤트 자동 감지 ▲바디캠·블랙박스 영상 자동 요약 ▲사건 관련 장면 검색 등의 솔루션을 구현해 전방위 혁신을 가속화한다. 이재성 트웰브랩스 대표는 "LG CNS와의 협력을 통해 우리의 영상이해 기술이 더 많은 산업 현장에서 실질적인 가치를 창출할 수 있게 됐다"며 "양사의 시너지를 바탕으로 영상 데이터의 가치를 극대화하고 영상 분야에서 대한민국이 글로벌 AI 3대 강국으로 도약할 수 있는 토대를 마련하겠다"고 말했다.

2025.07.01 15:59장유미

캐럿, 대화형 AI와 소통하며 이미지·영상 콘텐츠 만든다

생성형 AI 플랫폼 '캐럿' 개발사 패러닷(대표 장진욱)이 대규모 업데이트를 통해 캐럿의 콘텐츠 생성 기능과 사용자 편의성을 높였다고 12일 밝혔다. 업데이트 핵심은 최신 이미지·영상·음성 생성형 AI 모델을 손쉽게 활용할 수 있는 '멀티 모달 시스템' 도입이다. ▲소재 발굴 ▲대본 작성 ▲영상 제작 ▲배경음악 및 립싱크 작업 ▲최종 편집에 이르는 과정을 대화형 AI와 소통하며 진행할 수 있다. 해당 기능은 무료로 이용할 수 있으며, 더 정교한 제작 기능과 높은 사용 한도가 필요한 이들은 유료 구독 서비스를 활용할 수 있다. 캐럿은 이미지, 영상, 오디오 등 콘텐츠 생성에 특화된 AI 에이전트를 지향한다. 거대언어모델(LLM)을 통한 대화 기능에 구글 이마젠, 비오, 런웨이 등 이미지·영상 생성 AI와 일레븐랩스 등 음성·음악 생성 AI를 적용해 누구나 쉽게 콘텐츠를 제작할 수 있도록 돕는다. 여기에 AI 오케스트레이션 기술을 더해 사용자 의도를 파악해 AI가 스스로 모델을 선택해 완성도 높은 콘텐츠를 생성한다. 비용 면에서도 각 서비스를 개별 구독하는 경우보다 유리하다. 장진욱 패러닷 대표는 "캐럿은 변화무쌍한 글로벌 AI 트렌드를 가장 빠르게 따라가는 국내 유일 컨슈머 생성형 AI 앱"이라며 "이미지 AI로 시작한 캐럿은 챗GPT와 같은 텍스트 AI 보다 콘텐츠 제작 면에서 큰 강점이 있다. 올해 하반기 중에는 자율적으로 콘텐츠를 제작해주는 AI 에이전트를 출시할 예정"이라고 말했다. 패러닷은 기업이 마케팅·광고 소재 제작 비용을 대폭 절감할 수 있도록 기업용 구독 서비스 '캐럿 Biz'도 함께 운영 중이다. 캐럿이 제공하는 콘텐츠 생성 기능과 더불어, 전문 AI 크리에이터에게 각종 멘토링 서비스까지 받을 수 있다. 파트너사 LG 유플러스는 캐럿 Biz를 포함한 AI 도구를 활용해 광고 제작비를 기존 대비 95% 절감했다고 밝힌 바 있다.

2025.06.12 09:37백봉삼

포바이포-팔레트, 디지털 광고 시장 본격 공략

콘텐츠 AI 솔루션 기업 포바이포(대표 윤준호)가 AI 크리에이티브 기업 팔레트와 디지털 광고 시장 공략을 위한 전략적 업무 협약(MOU)을 체결했다고 23일 밝혔다. 팔레트는 생성형 AI 기술을 기반으로 광고 및 디지털 콘텐츠 등을 전문적으로 제작하는 AI 크리에이티브 기업이다. 팔레트는 AI를 활용해 광고 영상을 직접 제작하기도 하지만 사용자가 스스로 원하는 디지털 콘텐츠 영상을 만들 수 있는 AI 콘텐츠 제작 플랫폼도 서비스하고 있다. 광고를 원하는 기업과 영상 제작자를 연결해주는 AI 아티스트 플랫폼도 운영 중이다. 포바이포와 팔레트 양사는 이번 업무 협약을 계기로 브랜드 전략형 AI 광고에 8K 화질을 적용해 디지털 광고 산업 전반에 새 기준 제시를 목표로 하고 있다. 또 두 회사의 AI 기술 결합을 통해 더 효율적인 콘텐츠 제작 환경을 조성하고 광고주와 소비자 양쪽에 더 높은 가치를 제공할 수 있을 것으로 기대하고 있다. 팔레트 이종근 대표는 "브랜드 광고는 소재의 질감, 인물의 미세한 표정까지 온전히 전달해야 하기 때문에 화질 업스케일링 기술은 이제 선택이 아니라 필수"라며 "포바이포의 픽셀 솔루션을 활용해 팔레트가 만드는 다양한 디지털 콘텐츠들을 8K 초고화질로 바꾼다면 이런 다양한 정보를 미디어월, 리테일 미디어 등 대형 스크린에서도 더 효과적으로 보여 줄 수 있게 될 것"이라고 설명했다. 포바이포 솔루션사업본부 배성완 본부장도 "팔레트가 서비스하고 있는 영상 제작 플랫폼에 픽셀 솔루션을 API 형태로 결합시키면 사용자는 본인이 만드는 디지털 콘텐츠가 업스케일링 과정을 거친다는 사실조차 모른 채 초고화질의 결과물을 얻을 수 있게 된다"면서 "이번 협력으로 AI 기반 영상 제작의 진입 장벽은 낮추고 결과물의 품질은 손쉽게 높이는 일석이조의 효과를 기대할 수 있게 될 것"이라고 말했다. 포바이포가 제공하는 화질 개선 AI 솔루션 '픽셀'은 원클릭으로 최대 8K 수준으로 영상의 화질을 개선해준다.

2025.05.23 08:34백봉삼

네이버클라우드, 맥락 이해하는 AI 영상 분석 서비스 'MAIU' 공개

네이버클라우드가 영상 제작자를 위한 인공지능(AI) 기반의 영상 분석 서비스를 선보였다. 네이버클라우드는 서울 코엑스에서 개최되는 'KOBA 2025(국제 방송·미디어·음향·조명 전시회)'에서 방대한 영상 속 정보를 AI가 분석해 메타 데이터로 자동 추출하고 검색해주는 영상 분석 서비스 'MAIU(엠에이아이유, Media AI Understanding)'를 공개했다고 21일 밝혔다. 해당 서비스는 현재 국내 방송사 및 파트너사를 대상으로 클로즈드 베타 서비스(CBT) 중이며, 내달 정식 공개될 예정이다. MAIU는 영상 내 인물·행동·배경·음성 등 다양한 정보를 AI가 자동으로 분석해 메타데이터를 생성하고 '와인잔 나오는 장면', '남주인공 달리는 장면' 등 텍스트 검색만으로 원하는 장면을 빠르게 찾을 수 있는 서비스다. 이를 통해 방송사와 영상 제작사 뿐 아니라 유튜브와 숏폼 콘텐츠 등 수많은 영상 제작자들이 반복적인 편집 시간을 줄이고 창의적인 작업에 집중할 수 있을 것으로 기대하고 있다. MAIU를 활용하면 영상 제작에서 가장 많은 시간이 드는 메타데이터 추출 및 가편집 시간을 획기적으로 줄일 수 있다. 통상 예능 프로그램 1편 제작 시 3천600분에 해당하는 영상을 촬영하게 되는데 기존에는 편집팀이 3-4일에 걸쳐 분석 및 가편집을 마쳤다면, MAIU를 활용하면 2시간 이내로 끝낼 수 있다. 15배 이상의 시간이 단축되는 셈이다. 이에 네이버클라우드 측은 "기존 AI 분석 서비스는 일반적으로 개별 프레임 단위의 탐지나 객체 인식에 국한돼 있어 영상 콘텐츠의 흐름이나 맥락 이해가 어려웠던 반면, MAIU는 영상의 의미 단위인 구간을 중심으로 분석하는 것이 가장 큰 차이점"이라고 설명했다. 이어 "프레임이나 샷 단위가 아닌, 이야기의 흐름이나 구성상 자연스러운 구간 단위로 분석하기 에 실질적으로 콘텐츠를 편집하거나 재가공할 때 훨씬 직관적이고 현업에서 바로 활용 가능한 구조로 제공할 수 있다"고 덧붙였다. 사용 요금도 모델 경량화를 통해 경쟁력을 갖춰 글로벌 경쟁 제품 대비 최대 1/3 수준으로 정식 출시될 예정이다. 또 MAIU 서비스를 이용할 경우 모바일 라이브 스트리밍, VOD 영상 송출 등의 기능을 동일 플랫폼 내에서 함께 활용할 수 있어 제작부터 송출까지의 전 과정을 효율적으로 운영할 수 있다. 네이버클라우드 성무경 네이버 클라우드 플랫폼 기획 총괄은 "급속도로 성장하고 있는 영상 산업은 클라우드 전환 및 적극적인 AI 기술 도입으로 혁신이 가장 기대되는 분야 중 하나"라며 "AI 영상 분석 서비스를 포함해 콘텐츠 제작·편집·유통·관리에 이르는 전 과정을 아우르는 엔드투엔드 미디어 서비스로 고객의 다양한 니즈를 만족시키고 영상 산업의 혁신을 이끌어 낼 수 있도록 노력하겠다"고 말했다.

2025.05.21 13:08한정호

혈관 CT 검사 결과로 심장질환 발생 위험까지 예측하는 딥러닝 모델 개발

혈관 CT 검사 결과로 관상동맥질환 진단과 함께 미래 심장질환 발생 위험까지 예측하는 딥러닝 모델이 개발됐다. 세브란스병원 영상의학과 허진 교수 연구팀은 계명대학교 동산병원 영상의학과 김진영 교수, 의료영상 인공지능 기업 팬토믹스 연구팀과 함께 관상동맥질환 진단과 예후 예측 딥러닝 모델을 개발하고 실제 임상에 적용할 수 있는 가능성을 확인했다고 19일 밝혔다. 급성 흉통으로 응급실을 찾는 환자에게는 빠르고 정확한 관상동맥질환 진단과 함께 미래에 발생할 수 있는 심장질환의 가능성을 평가하는게 중요하다. 이러한 진단과 위험을 평가하기 위해 CT 혈관조영술을 실시하고 있지만 결과 판독이 나오기까지 오랜 시간이 걸리고 판독자에 따라 해석이 달라질 수 있다는 한계가 있다. 연구팀은 인공지능 딥러닝 기술을 이용해 관상동맥 협착을 자동으로 판독하고 협착 정도에 따라 정상, 비폐색성(협착 50% 미만), 폐색성(협착 50% 이상) 세 그룹으로 분류하는 모델을 개발하고 정확성을 살폈다. 딥러닝 모델은 2018년부터 2022년까지 3개 대학병원 응급실에 내원해 CT 혈관조영술을 시행한 408명의 환자 데이터를 학습했다. 또 물체 위치 파악과 종류 분류를 동시에 수행하기 때문에 데이터 처리 속도가 빠른 YOLO 아키텍처를 사용해 혈관 협착을 발견하는 속도를 높였다. 딥러닝 모델의 유효성을 검증하기 위해 전체 환자의 심장 사건 발생을 평균 2년6개월간 추적 관찰한 결과, 환자 중 15%가 심근경색, 불안정 협심증 등으로 입원과 사망을 겪었다. 특히 폐색성 환자군의 발생률은 38.8%로 정상군(0.6%), 비폐색성군(3.2%)보다 크게 높은 것으로 나타났다. 미래 심장질환 발생 위험을 따질 때 고지혈증이나 심장 효소 수치인 트로포닌-T 등 기존 위험인자와 비교해 딥러닝이 분석한 폐색성 정도가 가장 유효한 지표라는 것도 나타났다. 또 딥러닝이 기존 위험인자에 관상동맥 폐색성을 추가해 미래 심장질환 발생 위험을 분석하면 기존 위험인자만 가지고 분석했을 때(판별력 80%)보다 위험도 판별력이 14% 향상했다. 허진 교수는 “이번 연구로 빠른 진단과 치료 결정이 중요한 응급실에서 단순히 관상동맥질환의 유무를 판별하는 것을 넘어 환자 예후까지 예측하는데 딥러닝 모델을 적용할 수 있다는 가능성을 제시했다”며 “인공지능 기술이 단순한 진단 보조를 넘어 임상 의사결정 지원 도구로 확장할 수 있다는 것을 확인했다”고 말했다. 이번 연구 결과는 국제학술지 '영상의학:인공지능(Radiology:Artificial Intelligence, IF 8.1)'에 게재됐다.

2025.05.19 16:23조민규

틱톡, 사진 한 장으로 움직이는 영상 만든다…'AI 얼라이브' 공개

틱톡이 사진을 단편 영상으로 제작할 수 있는 인공지능(AI) 기능을 선보인다. 14일 테크크런치에 따르면 틱톡은 첫 번째 이미지 투 비디오 AI 기능인 '틱톡 AI 얼라이브'를 출시한다고 발표했다. 이 기능은 사용자가 틱톡 스토리에서 촬영한 단일 사진을 비디오로 변환할 수 있도록 지원한다. AI를 활용해 움직임, 분위기, 창의적인 효과가 있는 단편 영상을 만들 수 있는 기능이다. 정지된 풍경 사진뿐만 아니라 몸짓과 표정이 담긴 단체 촬영 사진을 애니메이션으로 변환할 수도 있다. 사용자는 틱톡 스토리 카메라를 열고 받은편지함 페이지 또는 프로필 페이지 상단의 파란색 플러스 버튼을 눌러 AI 얼라이브 비디오를 제작할 수 있다. 이후 스토리 앨범에서 사진을 선택하면 사진 편집 페이지의 도구 모음에 AI 얼라이브 아이콘이 표시된다. AI 얼라이브 스토리에는 콘텐츠가 AI로 제작됐음을 사용자에게 알리는 AI 생성 라벨도 포함된다. 또 이 콘텐츠에는 C2PA 메타데이터가 내장된다. 이는 틱톡 외부에서 다운로드·공유되더라도 다른 사람들이 해당 동영상이 AI 생성 동영상임을 식별하는 데 도움이 되는 기술 표준입니다. 특히 사용자들이 AI 기능을 통해 부적절한 영상을 제작할 경우 신고할 수 있으며 크리에이터가 AI 얼라이브 스토리를 공유하면 틱톡 앱 내에서 최종 안전 검사가 수행된다. 틱톡은 블로그 게시물을 통해 "저희는 항상 안전을 최우선으로 생각하며 AI 혁신도 마찬가지"라며 "기술은 새로운 형태의 창의적 표현을 가능하게 하므로 커뮤니티를 보호하기 위해 여러 차례의 신뢰 및 안전 검사를 거친다"고 강조했다. 이어 "정책을 위반하는 콘텐츠 제작을 방지하기 위해 업로드된 사진과 AI 생성 프롬프트, AI 얼라이브 영상은 크리에이터에게 공개되기 전에 검열 기술을 통해 검토된다"고 덧붙였다.

2025.05.14 12:16한정호

사진 한 장이 말하고 움직인다…캐릭터.AI, 영상 생성형 기술 '아바타FX' 공개

영상 생성형 인공지능(AI)이 인기를 얻고 있는 가운데, 2D 이미지를 사람처럼 움직이게 하는 기술이 공개돼 주목받고 있다. 다만 실제 인물을 활용한 애니메이션 생성이 가능해짐에 따라 악용 우려도 커지고 있다. 23일 테크크런치에 따르면 AI 기반 채팅·롤플레잉 플랫폼 기업 캐릭터.AI는 비디오 생성 모델인 '아바타FX'를 공개했다. 해당 모델은 비공개 베타 버전으로 제공된다. 아바타FX는 캐릭터들을 다양한 스타일과 음성으로 애니메이션화해 사람 같은 캐릭터부터 2D 동물 만화까지 다양한 모습으로 구현한다. 특히 오픈AI의 대표적인 영상 생성형 모델 '소라'와 차별화돼 이목을 끌고 있다. 아바타FX는 단순히 텍스트를 비디오로 변환하는 것이 아니라, 기존 이미지를 활용해 비디오를 제작할 수 있다. 이를 통해 실제 인물 사진을 애니메이션으로도 표현할 수 있다. 다만 이로 인해 업계에서는 영상 생성형 AI 기술이 악용될 수 있다는 우려도 보이고 있다. 사용자들이 유명인이나 지인의 사진을 업로드해 범죄가 될 만한 행동이나 말을 하는 영상을 사실적으로 만들 수 있기 때문이다. 특히 캐릭터.AI는 최근 많은 사용자들로부터 인기를 얻고 있어 딥페이크 기술로 악용될 가능성이 높다는 게 업계 관측이다. 실제 캐릭터.AI는 자사 챗봇이 사용자들에게 비윤리적인 채팅을 전한다는 이유로 자녀를 둔 미국의 부모들로부터 피소된 바 있다. 챗봇 메시지가 사람에게 부정적인 영향을 미칠 것이란 우려가 퍼지는 가운데, 현실적인 영상을 생성하는 캐릭터.AI의 이번 서비스는 이같은 문제를 더욱 증폭시킬 수 있다는 전망이 나오고 있다. 테크크런치는 "캐릭터.AI는 자녀 보호 기능과 같은 추가적인 안전장치를 구축했지만, 완벽한 보호 체계를 갖췄다고 보장하기는 어렵다"고 설명했다.

2025.04.23 14:29한정호

캐럿, LG유플러스에 기업용 AI 영상 제작 서비스 '캐럿 Biz' 공급

인공지능(AI) 영상 생성 플랫폼 '캐럿' 운영사 패러닷(대표 장진욱)이 LG유플러스에 기업용 AI 영상 제작 솔루션 '캐럿 Biz'를 공급한다고 21일 밝혔다. 캐럿 Biz는 기업을 대상으로 세계적인 이미지·영상 생성 모델을 실행 횟수 제한 없이 제공한다. 구글 이마젠3, 런웨이, 플럭스 등 각종 AI모델을 개별 구독하는 경우와 비교해 최소 약 75% 저렴한 가격에 이용할 수 있다. 인물이 등장하는 영상에 더빙 음성 및 입 움직임을 더하는 '영상 립싱크', 특정 인물 및 사물을 학습해 콘텐츠에 반영시켜주는 '이미지 학습' 등 제작자 친화적인 기능까지 탑재했다. 앞으로 LG 유플러스는 캐럿을 활용해 직접 광고 및 마케팅 영상을 제작할 계획이다. 인공지능 중심 사업 전환(AX)을 위한 전략 일환이다. 운영사 패러닷은 LG유플러스 실무자들이 AI 창작을 신속히 익힐 수 있도록 라이언오슬링, 연신내호랭이, 김땡땡 등 유수 AI 크리에이터를 배치해 멘토링 서비스를 지원한다. 장진욱 패러닷 대표는 “어느 분야에서든 AI는 실무자 업무 역량을 10배 이상 성장시킬 수 있는 '생산성 혁신'을 일으킬 가능성이 충분하다”며 “캐럿은 앞으로 콘텐츠 및 엔터테인먼트 업계에서 유용하게 활용할 수 있는 기능을 다수 탑재한 AI 에이전트를 개발하고 제공할 계획”이라고 말했다.

2025.04.21 09:04백봉삼

구글, 제미나이에 영상 AI 모델 '비오2' 탑재…"현실 이해하는 AI 구현"

구글이 영상 인공지능(AI) 모델 '비오2'를 AI 서비스 '제미나이'에 탑재해 동영상 AI 시장 경쟁력을 높였다. 16일 더버지 등 외신에 따르면 구글은 비오2를 유료 AI 서비스인 '제미나이 어드밴스드' 이용자에게 제공하기 시작했다. 비오는 텍스트를 영상 콘텐츠로 변형할 수 있는 생성형 AI 모델이다. 2023년 5월 처음 소개됐다. 비오2는 같은 해 말 공개된 후 소수 이용자에 한해 시범 운영됐다. 이번 제미나이 통합으로 활용 범위가 넓어졌다. 제미나이 어드밴스드 사용자는 16대9 화면 비율, 720픽셀(p) 해상도, 최대 8초 분량의 짧은 영상 클립을 생성할 수 있다. 완성된 영상은 MP4 형식으로 내려받을 수 있다. 콘텐츠가 AI로 제작된 것임을 알리기 위해 자체 인증 마크 '신스 ID' 워터마크를 영상에 삽입한다. 구글은 "비오2가 실제 촬영한 듯한 정밀한 디테일을 구현할 수 있다"며 "현실적 물리 법칙과 인체 움직임을 이해해 다양한 주제에 맞는 고품질 영상을 만들어낼 수 있다"고 강조했다. 앞서 데미스 허사비스 구글 딥마인드 최고경영자(CEO)도 비오와 제미나이 결합을 통해 AI의 물리 세계 이해력을 강화할 계획이라고 밝힌 바 있다. 앞서 오픈AI는 지난해 12월 최대 1분 분량 영상을 생성하는 '소라'를 공개했다. 메타는 같은 해 텍스트 기반 영상 생성 모델 '무비젠'을 출시했다. AI 스타트업 런웨이는 4세대 동영상 생성 모델을 출시하며 3억 달러(약 4천264억원)넘는 투자 유치를 기록하는 등 기술력과 시장 가능성을 동시에 인정받고 있다. 더버지는 "구글은 오픈AI와 메타, 런웨이 등과 동영상 생성 AI 분야 경쟁에 본격적으로 뛰어들었다"고 평가했다.

2025.04.16 17:43김미정

"AI, 화재·폭력·쓰러짐까지 사전 감지"…日 산업계 사로잡은 韓 기술, 비결은?

슈퍼브에이아이가 영상관제 솔루션을 앞세워 일본 시장 공략에 속도를 낸다. 디지털 트윈과 비전 AI의 결합을 통해 산업 현장 안전관리 수요를 선점하는 행보다. 슈퍼브에이아이는 일본 도쿄에서 열리는 '넥스테크위크 인공지능 엑스포'와 '재팬 IT 위크'에 참가한다고 9일 밝혔다. 넥스테크위크는 인공지능(AI)과 블록체인 등 첨단기술 중심의 행사로 작년 3만명이 관람했고 재팬 IT 위크는 약 9만명이 찾은 일본 최대 규모의 종합 IT 박람회다. 두 전시는 각각 오는 15일, 23일부터 도쿄 빅사이트에서 열린다. 슈퍼브에이아이는 이번 전시에서 비전 AI 기반 '슈퍼브 영상관제' 솔루션을 중점적으로 선보인다. 맞춤형 AI 제안과 산업별 컨설팅도 병행해 사업 확장을 꾀한다. 직관적인 대시보드에서 실시간으로 수십 개 영상 데이터를 분석할 수 있는 구조다. 이 솔루션은 화재 연기 감지, 차량 및 얼굴 인식, 쓰러짐과 이상 행동 탐지까지 다양한 상황을 자동 판별한다. 영상 데이터를 AI 학습용으로 자동 합성해 데이터 부족 문제도 해결하며 2주 만에 현장 시스템에 도입할 수 있다. 일상어로 영상 장면을 검색할 수 있는 기능도 차별점이다. 사용자가 "빨간 모자 쓴 사람 찾아줘"라고 입력하면 비전-언어 모델(VLM)이 해당 인물의 영상과 시간을 자동으로 찾아준다. 기존 검색 방식과 달리 콘텐츠 자체를 인식하고 추출하는 구조다. 고가의 3D 라이다 없이도 2D 카메라만으로 디지털 트윈 맵을 구성할 수 있는 기술력도 갖췄다. 그래픽 처리 장치(GPU) 1대로 20대의 CCTV를 초당 3회 이상 분석해 빠른 속도와 효율성도 확보했다. 슈퍼브에이아이는 한국, 미국, 일본 법인을 기반으로 글로벌 영향력을 확대하고 있으며 특히 일본 시장에서 성과를 보이고 있다. 지난해 토요타와 재계약을 체결했고 일본제철과의 파트너십도 강화했다. 최근에는 일본 국립 의료기관과 대형 전자제품 제조사 등으로 고객층을 넓혔다. 이 회사는 AI 컨설팅부터 데이터 설계, 알고리즘 개발, 운영까지 전 과정 일괄 제공하는 '슈퍼브 서비스'와 AI 개발 전주기를 포괄하는 '슈퍼브 플랫폼'을 함께 운영하고 있다. 김현수 슈퍼브에이아이 대표는 "일본 시장에서의 지속적인 성장을 바탕으로 더 많은 일본 기업들과의 협력 기회를 모색할 계획"이라며 "특히 안전관제 분야에서 일본 기업들의 수요가 높아지는 만큼 이 분야에 특화된 솔루션을 중점적으로 소개할 예정"이라고 밝혔다.

2025.04.09 15:20조이환

트웰브랩스, 아마존 '베드록' 입성…韓 최초로 영상 AI 모델 공급

트웰브랩스가 아마존의 대표 인공지능(AI) 플랫폼에 입성한다. 세계 주요 파운데이션 모델 기업들과 어깨를 나란히 하며 글로벌 영상 AI 시장 주도권 확보에 나서는 모양새다. 트웰브랩스는 아마존웹서비스(AWS)의 완전 관리형 AI 서비스 '아마존 베드록'에 자사 멀티모달 AI 모델인 '마렝고'와 '페가수스'를 제공하기로 했다고 7일 밝혔다. 국내 기반 영상 AI 모델이 '베드록'에 들어가는 것은 이번이 처음이다. 아마존 '베드록'은 메타, 앤트로픽, 미스트랄AI, 스태빌리티AI 등 세계 유수의 AI기업 모델을 단일 애플리케이션 프로그램 인터페이스(API)로 제공하는 플랫폼이다. 아마존 내부 모델인 '노바'를 제외하면 트웰브랩스는 베드록 내 유일한 영상이해 AI 제공사로 자리하게 됐다. 트웰브랩스의 영상 모델들은 객체, 행동, 배경음 등 영상 내 요소를 자연어로 검색하고 해석할 수 있다. 이를 통해 영상 콘텐츠의 검색, 분류, 요약, 인사이트 추출 등 전 과정을 자동화할 수 있는 것이 특징이다. 이에 고객은 '베드록'에서 인프라 관리 없이 트웰브랩스 모델을 활용해 생성형 AI 기반 영상 서비스를 구축할 수 있게 된다. 모델이 작은 영상 클립부터 대규모 콘텐츠 라이브러리까지 일관된 분석 성능을 제공하고 기업 수준의 보안 및 데이터 통제 기능도 갖췄기 때문이다. 업계 일각에서는 이번 협력이 스포츠, 미디어, 엔터테인먼트, 광고 등 영상 중심 산업 전반에 파급력을 미칠 것으로 전망한다. 방송사와 스튜디오는 촬영분 아카이빙을 자동화할 수 있고 스포츠 팀은 하이라이트를 자동 생성해 팬 맞춤형 콘텐츠를 제작할 수 있게 된다. 트웰브랩스는 AWS와의 전략적 협업 계약(SCA)을 바탕으로 아마존 '세이지메이커 하이퍼팟'도 활용 중이다. 이를 통해 모델 학습 속도는 최대 10% 빨라졌고 비용은 15% 이상 절감한 것으로 알려졌다. 글로벌 진출도 본격화하고 있다. 회사는 AWS 액티베이트 프로그램의 지원을 통해 해외 확장을 준비 중이며 AWS 마켓플레이스를 통해 전 세계 고객에게 자사 서비스를 제공할 계획이다. 사미라 파나 바크티아르 AWS 미디어·엔터테인먼트 총괄은 "트웰브랩스 모델 도입으로 영상 데이터의 활용이 쉬워졌다"며 "기업들이 인프라 없이도 AI 기술을 확장 가능하게 됐다"고 밝혔다. 이재성 트웰브랩스 대표는 "세계 영상 데이터의 80%가 사실상 미활용 상태"라며 "이번 베드록 공급은 우리 기술력이 세계 최고 수준임을 입증한 결과"라고 말했다.

2025.04.07 15:30조이환

캐럿, 구글 최신 영상 생성 AI '비오2' 탑재

인공지능(AI) 영상 생성 플랫폼 '캐럿' 운영사 패러닷(대표 장진욱)이 구글 딥마인드가 개발한 차세대 고성능 영상 생성 AI 모델 '비오2'를 탑재했다고 31일 밝혔다. 비오2는 기존 모델 대비 물리 법칙과 인간 움직임에 대한 이해도가 높다. 따라서 다양한 구도를 활용해 영상을 제작할 수 있으며, 결과물 품질 또한 더욱 자연스럽고 사실적이다. 아울러 우수한 프롬프트 이행 능력으로 사용자 의도를 영상에 정확히 반영하며, 다양한 렌즈 효과, 영화적 기법 등을 학습해 제작자 창의성을 더욱 폭넓게 구현할 수 있다. 캐럿은 구글 승인을 받아 비오2의 정식 서비스 제공을 시작했다. 현재 비오2는 비공대 베타 테스트 단계로, 일부 기업에게만 제공하고 있다. 캐럿은 현재 720p 화질로 5초 영상 생성을 지원하지만, 향후 4K 화질, 최대 2분까지 수준을 높일 계획이다. 또한 비오2 탑재를 기념해 사용자를 대상으로 해당 기능을 7일까지 30% 할인가에 제공한다. 장진욱 패러닷 대표는 "캐럿이 국내 대표 AI 영상 플랫폼으로서 비오 2를 고객에게 선보일 수 있어 기쁘다"며 "앞으로도 사용자들이 글로벌 AI 콘텐츠 트렌드를 손쉽게 따라갈 수 있도록 최신 모델을 발빠르게 탑재하겠다"고 말했다. 캐럿은 이미지 및 영상 콘텐츠 제작을 특화시켰다. 현재 이마젠3, 플럭스 등 이미지 생성 모델 7개, 비오 2, 클링 등 영상 생성 모델 9개를 지원한다. 각 모델을 개별 구독할 필요 없이 캐럿에서 제공하는 멤버십에 가입하거나 포인트를 충전, 사용하는 일 만으로 합리적인 가격에 고품질 콘텐츠를 제작할 수 있다.

2025.03.31 08:44백봉삼

"中에 220배 뒤처져"...자율주행차 발목잡는 규제

“지난해까지 중국 바이두가 쌓은 자율주행 운행 기록이 1억1천만km였다. 국내 1위 업체로 평가받는 오토노머스에이투지가 50만km로 약 220배 차이가 난다. 방대한 데이터 차이를 극복하려면 양질의 데이터를 수집할 수 있게 해야 한다.” 이상동 한국자율주행산업협회 팀장은 지난 27일 열린 '자율주행 산업 지원 국회 토론회'에서 이같이 말했다. 최근 중국 스타트업이 내놓은 AI 모델 '딥시크'가 저성능 칩으로 충격적인 성능을 보여주자 BYD와 지리 등 현지 자동차 기업들이 잇따라 자율주행 기술에 딥시크를 활용하겠다고 나섰다. 일찍이 자율주행 기술을 내세워온 테슬라도 지난해 말 완전자율주행(FSD) 소프트웨어 최신 버전을 업데이트하고, 오는 6월 이를 기반으로 한 로보택시 서비스를 예고하는 등 기술 고도화에 집중하는 추세다. 해외 기업들이 실제 주행 데이터를 수집하고, 이를 토대로 기술을 고도화하는 반면 우리나라는 데이터 수집 제한 규제로 양적 격차가 크게 벌어지고 있다는 지적이다. 이상동 팀장은 “AI 기업과 자율주행 기업, 완성차 기업들이 경계선 없이 넘나들면서 협업을 하며 AI 학습을 위한 데이터 수집과 활용이 중요하게 됐다”며 “국내에 자율주행차가 돌아다니려면 국내 환경에 맞는 최적화 데이터가 꼭 필요하다”고 강조했다. 특히 국가 차원에서 양질의 주행 데이터를 수집하는 것이 바람직하다고 봤다. 영세한 스타트업도 산업에 진입할 수 있게 하자는 취지다. 지난 2023년 개인정보보호법 개정에 따라 '이동형 영상정보처리기기'라는 개념으로 주행 영상을 데이터로 활용할 수 있는 법적 근거가 마련됐다. 그러나 데이터의 질적 측면에서 미국, 중국 등 자율주행 기술에 공들이는 국가 대비 여건이 불리하다는 지적이다. 이 팀장은 “테슬라로 예를 들면, 500만대 차량이 도로를 주행하며 사고가 발생하면 당시 영상을 그대로 본사에 전송함에 따라 그 데이터를 자율주행 AI 성능 개선에 활용하고 있다”며 “이런 회사와 규제 샌드박스 차량 몇십 대의 주행 데이터를 토대로 기술을 개발하는 (우리나라) 회사 간 경쟁력이 어디에 있겠나”라고 강조했다. 특히 현 제도 하에서 주행 영상 데이터를 활용할 때 개인정보 비식별화 처리 과정을 거치게 하는 점을 문제 삼았다. 비식별 처리된 영상을 학습한 AI보다 원본 영상을 학습한 AI가 객체 인식이나 주행 판단의 정확도가 17% 이상 높아졌다는 연구 결과를 소개했다. 이 팀장은 “특히 야간 주행, 악천우 등 복잡한 도심 환경에서 원본 주행 영상의 활용 가치가 더욱 올라간다”고 덧붙였다. 우리나라에선 설정된 규칙에 따라 자율주행 AI 모델이 주어진 상황을 인지하고 제어하는 반면, 테슬라 등 선도 기업들은 AI가 사람처럼 새로운 상황에서도 적절한 판단을 할 수 있도록 엔드투엔드(E2E) 방식을 쓰고 있는 점에도 주목했다. E2E 방식 자율주행 AI 성능을 개선하기 위해 더욱 양질의 주행 데이터가 요구되고 있다는 분석이다. 이 팀장은 “결국 모든 사례를 사전에 정의할 수 없기 때문에, 정의된 내용을 벗어나는 사례에서 자율주행 AI가 어떻게 대응할지 모른다는 기술적 어려움이 있다”고 첨언했다. 규제 샌드박스를 통해 원본 주행 데이터 활용이 일부 허용되고 있지만, 대규모 개발 프로젝트에는 한계가 있어 많은 기업들이 비식별 처리된 영상 데이터를 사용할 수밖에 없는 상황이다. 이 팀장은 “규제 샌드박스는 일시적인 예외를 두는 제도인데 자율주행 산업은 계속 고도화해나갈 산업”이라며 “원본 주행 데이터 활용에 대한 지속적인 법적 근거가 마련돼야 한다”고 주장했다.

2025.02.28 18:37김윤희

알리바바, 오픈소스 '완2.1' 출시…글로벌 AI 영상 시장 '공략'

알리바바 클라우드가 인공지능(AI) 영상 생성 모델을 오픈소스로 공개해 기술 개방성을 강화한다. 브랜드 이미지를 제고하는 동시에 자사 클라우드 플랫폼의 글로벌 활용을 확대하려는 조치다. 알리바바 클라우드는 비디오 파운데이션 모델 '통이 완샹(Tongyi Wanxiang)'의 최신 버전인 '완2.1(Wan2.1)'의 140억 및 13억 패러미터 모델 4종을 출시했다고 27일 밝혔다. 해당 모델은 AI 모델 커뮤니티인 '모델스코프(ModelScope)'와 프랑스의 오픈소스 AI 플랫폼 '허깅페이스(Hugging Face)'에서 다운로드할 수 있다. 이번에 공개된 모델은 ▲T2V-14B ▲T2V-1.3B ▲I2V-14B-720P ▲I2V-14B-480P 등 4종으로 텍스트와 이미지 입력을 기반으로 고품질의 영상과 이미지를 생성하도록 설계됐다. 특히 'T2V-14B' 모델은 복잡한 동작이 포함된 고품질 영상 생성에 특화돼 있으며 'T2V-1.3B' 모델은 연산 효율성과 생성 품질의 균형을 맞춰 연구 및 개발을 위한 최적의 솔루션을 제공한다. 'Wan2.1' 시리즈는 텍스트 효과를 지원하는 최초의 AI 영상 생성 모델로, 픽셀 품질을 향상시키고 물리적 원칙을 준수하며 명령 수행 정확도를 최적화하는 데 강점을 지닌다. 이러한 성능을 바탕으로 영상 생성 AI 모델의 종합 벤치마크인 'V벤치' 리더보드에서 종합 점수 86.22%를 기록하며 1위를 차지했다. 또 허깅페이스의 'V벤치' 리더보드 상위 5개 모델 중 유일한 오픈소스 모델로 자리매김했다. 'T2V-1.3B' 모델은 일반적인 개인용 노트북에서도 480p 해상도의 5초 길이 영상을 약 4분 만에 생성할 수 있다. 이를 통해 연구자 및 개발자들이 보다 쉽고 효율적으로 AI 영상 생성 모델을 활용할 수 있는 환경이 조성될 것으로 기대된다. 또 'I2V-14B-720P' 및 'I2V-14B-480P' 모델은 이미지 기반 영상 생성 기능까지 지원한다. 사용자는 한 장의 이미지와 간단한 텍스트 설명만 입력하면 역동적인 영상 콘텐츠를 제작할 수 있으며 특정 크기 제한 없이 다양한 해상도의 이미지를 정상적으로 처리할 수 있다. 알리바바 클라우드는 AI 모델을 오픈소스로 공개한 최초의 글로벌 테크 기업 중 하나다. 지난해 8월에는 자체 개발한 대규모 AI 모델 '큐원(Qwen-7B)'을 첫 공개했으며 이후 허깅페이스의 오픈 LLM 리더보드에서 지속적으로 상위권을 유지하고 있다. 현재까지 큐원을 기반으로 개발된 파생 모델이 10만 개를 넘어서며, 세계 최대 규모의 AI 모델군 중 하나로 자리 잡았다. 알리바바 클라우드 관계자는 "영상 생성 AI 모델을 훈련에는 막대한 컴퓨팅 자원과 대량의 고품질 학습 데이터가 요구된다"며 "이번 모델의 오픈소스 개방은 AI 활용의 장벽을 낮추어 보다 효율적이고 경제적으로 고품질 영상 콘텐츠를 제작을 가능하게 할 것으로 기대된다"고 밝혔다.

2025.02.27 17:03조이환

"AI 영상 생성, 1시간에 250만원"…구글, '비오 2' 초고품질 전략 성공할까

인공지능(AI) 기반 비디오 생성 시장의 경쟁이 본격화되는 가운데 구글이 자사 영상 AI인 '비오 2'의 가격을 공개했다. 4K 초고품질 영상을 지원하나, 오픈AI의 '소라'보다 가격이 높아 비용 대비 경쟁력이 있을지에 대한 의문이 제기되고 있다. 두 모델 모두 환각 및 물리 법칙 구현 등 기술적 한계를 드러내고 있다는 점도 해결 과제다. 24일 테크크런치에 따르면 구글은 AI 비디오 생성 모델 '비오 2'의 가격을 초당 50센트(한화 약 700원)로 책정했다. 이는 시간당 1천800달러(한화 약 250만원), 분당 30달러(한화 약 4만2천원)에 해당하는 수준으로, 구글은 '비오 2'를 통해 고품질 영상 시장을 공략하며 영상 생성의 상업적 활용도를 높이려는 전략을 펼치고 있다. '비오 2'는 최대 4K 해상도를 지원하는 고급형 비디오 생성 모델이다. 구글 클라우드의 '버텍스 AI(Vertex AI)' 플랫폼을 통해 제공되며 고해상도와 정밀한 디테일을 구현하는 데 초점을 맞췄다. 다만 비용이 초당 50센트로 책정되면서 일반 사용자보다는 전문가 및 기업 시장을 겨냥한 서비스로 보인다. 특히 오픈AI의 비디오 생성 AI인 '소라'와의 가격 정책 차이가 주목된다. 오픈AI는 크레딧 기반의 구독 모델을 통해 '소라'를 운영하고 있으며 1천80p 기준 초당 20센트(한화 약 280원)로 '비오 2'보다 상대적으로 저렴한 가격을 제시하고 있다. 오픈AI의 비디오 AI 가격 구조는 이용자의 구독 플랜에 따라 달라지며 저해상도에서는 보다 낮은 비용으로 비디오를 생성할 수 있다. 현재 '소라'는 월 20달러(한화 약 2만8천원)의 챗GPT '플러스'와 월 200달러(한화 약 28만원)의 '프로' 플랜을 통해 제공되며 각각 1천 크레딧과 1만 크레딧을 지급하는 방식이다. 480p 해상도의 경우 초당 4크레딧으로 약 8센트(한화 약 110원), 1천80p 해상도에서는 초당 100크레딧으로 약 20센트(한화 약 280원)이 소모된다. '소라'는 현재 4K 해상도를 지원하지 않지만 비용 효율성 면에서는 '비오 2'보다 경쟁력이 높은 것으로 보인다. 다만 실제 영상 제작 현장에서는 두 모델 모두 완벽하지 않다는 지적이 나온다. 최근 업계 평가에 따르면 '비오 2'는 손가락, 눈동자, 피부 질감 등 세부 표현에서 비현실적인 결과가 발생하며 물리 법칙에 부합하지 않는 액체 유동성 표현 등의 문제가 드러난다. 또 '소라'는 인체 움직임에서 부자연스러운 관절 회전과 신체 비율 왜곡 현상이 잦으며 보행 시 다리 움직임이 로봇처럼 경직되는 문제를 보인다. 이 외에도 장면 전환 시 객체의 색상 및 크기 변화가 불안정해 시간적 일관성을 유지하는 데 어려움을 겪고 있다. 이 같은 기술적 한계는 두 모델이 아직 실제 영상 수준에 미치지 못하는 부분을 여실히 보여준다. 전문가들은 물리 엔진 통합 등 추가 개발이 필요하다고 지적하며 특히 의류 주름 시뮬레이션과 액체-고체 상호작용 구현이 시급한 과제라고 평가한다. 향후 개선된 기술이 도입될 경우 보다 현실적인 AI 영상 제작이 가능할 것으로 기대된다. 디나 베라다 유튜브 제품 담당 이사는 "'비오 2'는 현실 세계의 물리 법칙과 인간의 움직임을 더 잘 이해해 세밀하고 현실적인 결과물을 만든다"며 "스타일, 렌즈, 시네마틱 효과까지 지정할 수 있어 쉽고 재미있게 영상을 표현한다"고 강조했다.

2025.02.24 10:55조이환

텔레픽스-LK삼양, 이탈리아 위성에 자체 개발 AI 영상항법 시스템 탑재…오는 6월 발사

위성 토탈 솔루션 기업 텔레픽스(대표 조성익)가 광학솔루션 전문 기업 LK 삼양과 공동 개발한 심우주용 차세대 AI 영상항법 시스템을 오는 6월 발사할 예정이라고 17일 밝혔다. 양 기업은 향후 차세대 AI 별추적기의 우주 발사 테스트 및 양산 사업화에 함께 나서기로 하는 양자 간 추가 업무협약도 최근 체결했다. 양사는 지난해 4월 차세대 AI영상 항법 시스템을 공동 개발하기로 하는 업무 협약을 체결하고, 지난 10개월 간 공동 개발해왔다. 이 시스템은 지구에서 멀리 떨어진 우주에서 지상국 통신에 의존하지 않고 위성이 자율적으로 위치를 파악하고 항행하도록 설계된 자동화 시스템이다. 광시야 카메라와 차세대 고성능 영상처리 알고리즘을 결합했다. 우주공간에서 별과 행성의 위치를 추적하고, 자신의 위치와 속도를 정확히 파악한다. 최근 소형 위성 발사가 확대됨에 따라 지상 기반 시설이 포화인 상태에서 스스로 자신의 위치를 탐색, 달이나 화성 탐사를 비롯한 심우주 탐사에 핵심적인 역할을 할 것으로 기대된다. 텔레픽스는 이에 따라 올해 초 심우주 항법용 차세대 AI 영상항법 시스템 시제품 제작을 완료한뒤 현재 우주환경에서의 테스트를 준비 중이다. 이번 기술개발에서 총괄은 텔레픽스가 맡았다. 광학계와 전자부 및 소프트웨어를 포함한 전체 시스템 개발 프로세스 관리 및 설계와 제작, 그리고 우주환경 모사 시험을 포함한 발사 전 성능 테스트 전반을 담당했다. LK삼양은 광학부문 설계와 제작을 맡았다. 이번에 우주로 향할 AI 영상항법 시스템은 이탈리아에 본사를 둔 위성 본체 제작업체 위성에 탑재된다. 발사체는 오는 6월 쏘아 올릴 스페이스X의 팰컨9 로켓으로 정해졌다. 텔레픽스 측은 영상항법 시스템의 데이터 처리를 위해, 지난해 우주 실증에 성공한 위성용 고성능 온보드 AI 프로세서 '테트라플렉스'도 함께 탑재된다고 밝혔다. 발사가 성공적으로 마무리되면 텔레픽스는 LK삼양과 공동으로 본격적인 위성 양산 사업화를 추진할 계획이다. 양산에 들어가면 텔레픽스는 체계개발업체로서 제작과 시험, 마케팅을 포함한 프로젝트 총괄 관리를 담당할 계획이다. AI 기술력을 토대로 심우주 자율항행 AI 솔루션을 고도화하고 글로벌 비즈니스를 진행할 계획이다. LK삼양은 광학렌즈뿐만 아니라 카메라제어 전자부 하드웨어 제작까지 점차적으로 역할을 확대하기로 했다. 총괄책임자인 텔레픽스 홍경우 미래혁신연구팀장은 "주요 고객들을 대상으로 우주 궤도 테스트 진행을 적극 알리고 있다"며 "테스트 성공 시 본격적인 수출 계약이 될 수 있도록 협상도 병행 중"이라고 설명했다. 홍 팀장은 “향후 LK삼양과 차세대 AI영상항법 시스템 외에도 다른 형태의 위성용 제품 개발 및 제작에서도 협업하는 등 위성 기술 양산 개발 및 글로벌 사업화에 적극 나설 것"이라고 덧붙였다.

2025.02.17 12:31박희범

"영상 AI의 챗GPT 순간 열까"…트웰브랩스, '페가수스-1.2' 공개

트웰브랩스가 차세대 영상언어 생성 모델을 공개해 산업 현장에서의 인공지능(AI) 활용성을 극대화한다. 트웰브랩스는 자사가 최근 개발한 '페가수스-1.2'가 다양한 길이의 영상을 분석할 수 있다고 12일 밝혔다. 이 모델은 성능이 대폭 향상돼 텍스트 요약·질의응답·하이라이트 생성 등 고도화된 영상 처리가 가능하다. 트웰브랩스는 이번 모델에 고급 비전 인코딩 전략과 토큰 감소 기술을 적용해 모델의 효율성과 이해도를 높였다. 이를 통해 기존 초거대 모델 대비 가벼운 크기로도 높은 성능을 구현했다. 특히 'GPT-4o'·'제미니 1.5 프로' 등 경쟁 모델보다 응답 속도가 빠르고 비용 효율성이 뛰어난 점이 강점으로 꼽힌다. '페가수스-1.2'는 트웰브랩스의 자체 멀티모달 임베딩 모델인 '마렝고'와 결합돼 보다 정교한 영상 이해 능력을 갖췄다. 이를 통해 엔터테인먼트·교육·보안 등 다양한 산업에서 활용될 전망이다. 일례로 방송·미디어 업계에서는 영상 콘텐츠 자동 분류, 하이라이트 추출, 교육 분야에서는 강의 요약 및 핵심 내용 정리에 활용될 것으로 기대되며 보안 산업에서는 CCTV 영상 분석과 이상 징후 탐지 등에 적용될 것으로 보인다. 트웰브랩스는 지난 2021년 설립 이후 멀티모달 신경망 기술을 기반으로 빠르게 성장했다. 글로벌 리서치 기업 CB 인사이트가 선정한 'AI 100'에 3년 연속 이름을 올렸으며 '세계 50대 생성형 AI 스타트업'에도 포함됐다. 지난해 12월에는 이승준 CTO가 포브스 '30세 미만 30인' AI 리더로 선정되며 기술력을 인정받았다. 이승준 트웰브랩스 최고기술책임자(CTO)는 "영상 속 객체의 공간적 관계와 시간적 변화를 정확히 분석하는 AI 모델이 필요하다"며 "'페가수스-1.2'는 혁신적인 시공간 정보 이해 방식을 도입해 다양한 산업 요구를 충족할 것"이라고 말했다.

2025.02.12 15:12조이환

AI·3D 영상 제작 기업 시나몬, 알토스벤처스 등서 110억원 투자 유치

3D 기반 AI 영상 솔루션 '시네브이'를 개발한 시나몬(대표 홍두선)이 110억원 규모의 신규 투자를 유치했다고 5일 밝혔다. 시나몬은 독보적인 기술력과 사업 확장성을 바탕으로 지난 2022년에 이어 투자유치에 성공했다. 이번 투자에는 알토스벤처스와 새한창업투자가 참여했으며, 알토스는 기존 투자자로 맺었던 인연이 또 한 번의 투자로 이어졌다. 시나몬은 AI와 3D 기술을 하이브리드로 활용하는 영상 제작 스타트업이다. 2019년 창업 후 인터랙티브 게임 분야의 기술 고도화에 힘써왔다. 현재 개발하고 있는 신규 솔루션 시네브이는 이용자가 입력한 스토리를 기반으로 가상의 3D 공간에서 AI 기술을 통해 영상으로 구현한다. 특히 프롬프트 입력에 따라 다른 결과물을 얻는 생성형 AI 영상 서비스와 달리, 사용자가 배우의 연기와 카메라 연출, 조명, 배경 등을 원하는 대로 편집할 수 있다. 이를 통해 모든 사용자가 영화 감독이자 1인 제작사가 될 수 있다. 시네브이는 3D 물리적 공간을 먼저 구축하고, 그 위에 캐릭터, 액션, 조명, 카메라 등을 개별적으로 구현한다. 이런 방식으로 기존 생성형 AI 서비스의 취약점이었던 일관성, 물리적 특성, 편집 기능 면에서 더 안정적이라는 평가를 받고 있다. 실제로 최근 글로벌 AI 업계, 특히 미국에서는 물리적 환경과 상호작용을 고려하는 피지컬 AI 모델이 주목받고 있다. 이는 일관성과 물리적 특성을 통해 AI 영상의 왜곡과 불쾌감을 줄일 수 있을 뿐만 아니라, AI의 활용 범위도 확장할 수 있기 때문이다. 이런 맥락에서 시네브이의 서비스도 확장성 측면에서 같은 방향성을 보이고 있다. 시나몬 관계자는 "이번 투자로 회사가 글로벌 AI 시장에서 경쟁할 수 있는 성장 동력을 확보하게 되어 매우 기쁘다"며 "올 상반기 서비스를 안정적으로 출시해 고객들에게 시네브이만이 갖고 있는 사용성과 편의성을 전달하는데 집중할 것"이라고 밝혔다. 알토스벤처스 관계자는 "시나몬 팀은 오랜 기간 지치지 않고 단련한 3D 제작 노하우를 바탕으로 AI서비스와 결합을 이뤄냈다. 특히 AI가 구현하기 어려운 정교한 부분을 파악해 단순한 기술 시연이 아닌 크리에이티브 제작자를 위한 도구를 개발했다"면서 "이에 시네브이가 향후 영상 제작과 콘텐츠 시장의 판도를 바꿀 수 있는 잠재력을 가지고 있다고 기대해 이번 투자를 결정했다"고 말했다.

2025.02.05 08:53백봉삼

"담배 피는 영상, AI가 잡는다"…CJ올리브네트웍스, 부적절한 콘텐츠 선별 기술 공개

CJ올리브네트웍스가 CJ ENM의 영상 분석 플랫폼에 영상 심의 및 유사도 분석 AI 모델을 제공해 업무 생산성 향상을 지원한다. CJ올리브네트웍스는 CJ ENM의 영상 분석 플랫폼에 자사 영상 심의 모델의 심의 작업과 유사도 분석 두 가지 기술을 적용했다고 4일 밝혔다. 이를 통해 작업 속도를 대폭 향상시키면서도 콘텐츠 품질을 유지할 수 있도록 돕는다. 앞서 CJ올리브네트웍스는 CGV와 포스터 속 인물의 얼굴을 바꿀 수 있는 AI 무비필터 서비스를 론칭하고, tvN 화면 해설 방송에 AI 보이스 클로닝 기술을 제공하는 등 미디어 산업에서 다양한 AI 프로젝트를 진행한 바 있다. CJ올리브네트웍스는 이번에 영상 심의 모델 완성을 위해 ▲객체 검출, 영상 심의, 유사도 등 총 12종의 API를 구축 ▲콘텐츠 특화 알고리즘 적용 ▲영상 데이터 학습 등 정밀도를 높이는 작업을 추진했다. 또 영상과 클립, 이미지 등을 레이블링(Labeling) 작업해 영상 심의 모델 학습에 활용하고 자체 검증 테스트도 진행했다. CJ ENM 영상 분석 플랫폼에 적용한 영상 심의 모델을 사용하면 흡연이나 음주, 폭력적이고 선정적인 장면 등 영상 속 부적절한 콘텐츠를 자동으로 탐지해 확인할 수 있다. 영상 심의 모델이 담배, 술과 같은 객체를 구분하고 욕설, 폭력, 성행위 등의 행동 인식도 지원한다. 특히 오토바이 헬멧이나 안전벨트 착용 여부, 자동차 번호판 등의 정보를 식별하는 기능까지 기존 모델에서 추가해 완성도 높은 콘텐츠 제작이 가능하다. 이 외에도 유사도 분석 기술을 영상 분석 플랫폼에 적용해 편집 과정에서 영상 간 대조를 통해 수정 사항을 빠르게 파악할 수 있도록 지원한다. 심의 의견이 제대로 반영됐는지도 기존 영상과 비교해 신속하게 검토할 수 있다. 또 짧은 클립 영상이라도 원본과 대조해 유사도, 인용 부분, 영상 활용 빈도 등을 점검하고 과도한 원본 IP 노출을 방지한다. 영상 심의 모델을 사용하면 단순작업은 AI가 하고 기존 인력은 고차원적인 업무에 집중할 수 있어 업무 생산성이 향상된다. 양사는 이번 기술 협력을 시작으로 영상 심의 모델 고도화 및 운영 환경 안정화를 추진하고, AI 기술 도입을 통한 콘텐츠 관리 자동화를 더욱 확대해 나갈 예정이다. 홍석주 CJ올리브네트웍스 기술전략담당은 "AI 기술력이 콘텐츠 심의 분야에서 실질적인 가치를 제공할 수 있다는 것을 이번에 입증했다"며 "앞으로도 AI 기술력을 바탕으로 영상 아카이빙 및 재제작 기능을 갖춘 대용량 영상 관리 서비스를 구축해 다양한 산업에 적용할 계획"이라고 말했다.

2025.02.04 08:57장유미

박찬호 저택 태운 LA산불…피해면적만 여의도 35배

박찬호와 멜깁슨 등의 저택이 전소되는 피해가 발생한 미국 LA 산불 면적과 최초 발화지점, 향후 확산 방향 등을 국내 기업이 자체 개발한 AI 솔루션으로 분석, 규명하고 예측해 화제다. 이 영상 분석에 따르면 LA산불은 발생 5일만에 여의도 면적의 35배에 달하는 지역에 피해를 입힌 것으로 나타났다. 텔레픽스(대표 조성익)는 지난 7일 발생한 미국 캘리포니아주 LA지역 초대형 산불 위성영상 분석 결과를 이번 주 중 이메일로 UN 재난위험경감사무국(UNDRR)에 전달할 예정이라고 16일 밝혔다. LA 산불은 발생 1주일 넘게 진화되지 못하고 있다. 피해 규모나 발생 원인 등도 정확하게 파악하지 못하고 있다. 텔레픽스는 재난 현황 파악 및 복구 전략 수립 등에 도움을 주기 위해 산불이 난 지역의 위성영상을 분석했다. 텔레픽스 분석 결과에 따르면 산불이 발생한지 약 5일 만인 12일까지 여의도 면적(2.9㎢)의 약 35배까지 피해가 확산됐다. 지난 9일부터 3일 간은 직접적인 피해를 입은 지역이 3배 가까이 늘었다. 미국 현지시각 9일 기준 합성개구레이더(SAR)를 통해 살펴보면 전체 산불피해지역으로 지정된 곳은 약 75㎢다. 이는 여의도 면적의 25.8배에 달한다. 이 중 실제 화재로 직접적인 피해를 입은 지역은 절반 수준인 33.3㎢(여의도 11.5배)로 추정됐다. 이를 12일 유럽우주국(ESA)의 센티넬2(Sentinel-2) 위성을 통해 살펴보면 산불피해지역이 총 102.4㎢(여의도 35.3배)로 넓어졌다. 직접적인 피해를 입은 지역도 98.7㎢(여의도 34배)로 나타났다. 이 결과는 텔레픽스에서 자체 개발한 위성특화 생성형 AI 챗봇 솔루션 '샛챗(SatCHAT)'이 활용됐다. 텔레픽스는 피해 지역 위성영상을 서치한 후, 그래픽과 텍스트를 융합한 사용자 인터페이스인 맵모드 화면에서 렌더링해 피해지역 영상, 면적 등을 도출했다. 텔레픽스 측은 "이러한 급격한 확산은 바람 영향이 큰 것으로 나타났다"며 "향후에도 업데이트 정보를 지속 제공할 계획"이라고 말했다. LA 산불 피해가 큰 퍼시픽 팰리세이즈 화재 구역을 광학영상으로 확인해 본 결과, 지난 7일 께 산불 초기에는 최초 발화지점에서 좌하단으로 발전하다가 우하단으로 변경됐다. 이때의 기상 관측 결과를 보면 7~8일에는 북동풍이 불었다. 7일에 발생한 강한 바람 및 돌풍의 영향으로 산불이 크게 번진 것이다. 이후 9일 경에는 서풍 혹은 북서풍이 불며 우하단으로 화재 발전 방향이 변경된 것이 당시 촬영된 레이더영상을 통해 확인된다. 또한 12일에 촬영된 광학영상을 보면 남서풍의 영향으로 산불이 내륙 중심부로 옮겨가는 것이 관측된다. 이는 앞으로 기상 상황에 따라 LA 시내로 피해가 확산될 수 있음을 보여주는 결과다. 텔레픽스는 센티넬2 위성이 수집한 영상에서 최초 발화지점도 예측했다. 산불 발생 시점인 지난 7일 오전 10시 30분경(미국 현지시각) 촬영된 위성영상을 보면 LA 토팽가 주립공원(Topanga State Park)에 위치한 스컬 록(Skull Rock) 왼쪽 부근에서 큰 불이 발생하는 모습이 포착됐다고 밝혔다. 함선정 텔레픽스 영상분석사업부 이사는 "위성영상을 활용하면 바람의 방향, 기상 상황, 주변 지형 등 여러 요소를 복합적으로 파악할 수 있다"며 "이를 바탕으로 보험금 선정 등 구체적인 구제 전략 수립 등이 가능할 것"으로 예상했다. 함 이사는 UNDRR 산하 지구관측그룹(GEO)에서 현재 기후위기 대응 한국 실무단 멤버로 활동 중이다.한편 텔레픽스는 지난 해 말 AI 챗봇 솔루션 '샛챗'을 국내 위성영상 활용 서비스 관련 공공연구기관에 보급했다.

2025.01.16 09:10박희범

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, 브로드컴에 HBM3E 12단 공급…ASIC서 기회 포착

메타의 공격적 AI 인재 사냥, 핵심은 '데이터 전쟁'

마디마다 구동기 탑재…정교한 로봇손에 숨겨진 비밀

이재명 대통령 "AI·반도체·재생에너지·문화 투자 아끼지 않겠다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.