• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'영상 AI'통합검색 결과 입니다. (75건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI가 환자정보 지키며 '신장' 질환 진단…정상, 낭종, 종양 정확히 분류

최근 컴퓨터단층촬영(CT)과 같은 의료영상을 분석할 때 인공지능(AI)을 활용해 진단의 정확성과 속도를 높이는 사례가 늘고 있다. 하지만 인공지능을 실제 임상현장에 폭넓게 적용하기에는 환자 개인정보가 유출될 수 있다는 우려가 꾸준히 제기돼 왔다. 이러한 가운데 국내 연구진이 환자 개인정보를 안전하게 보호하면서도 신장 CT 영상으로 신장질환을 정확히 진단하는 인공지능 모델을 최근 개발했다. 서울아산병원 마취통증의학과 이상욱‧비뇨의학과 서준교 교수팀은 데이터를 암호화된 상태 그대로 연산하는 동형암호 기술을 활용해, 환자의 신장 CT 영상을 암호화한 후 정상 신장과 낭종, 종양을 분류해 내는 딥러닝 모델을 구현했다. 이 딥러닝 모델은 질환 분류의 정확도를 나타내는 지표인 AUC 값(1에 가까울수록 예측 정확도가 높음)이 0.97~0.99로 손실이 거의 없었다. 즉 환자 데이터가 암호화된 상태에서도 기존 비암호화 모델과 동일한 수준의 분석 결과를 제공하는 것으로 나타났다. 이번 연구에 사용된 동형암호 기술은 양자컴퓨터 시대의 안전한 양자내성암호(Post Quantum Cryptography)로서 국제 표준으로도 지정돼 있다. '금고를 열지 않고도 내부에서 작업할 수 있는 로봇 팔'에 비유될 만큼 데이터를 열지 않고 완전히 암호화된 상태에서 실시간 연산과 분석이 가능한 혁신 기술이다. 연구팀은 암호화된 상태 그대로 분석할 수 있는 인공지능을 만들기 위해 세 가지 단계를 거쳤다. 먼저 비암호화된 상태에서 신장 CT 영상을 학습하는 딥러닝 모델을 기준 모델로 만들었다. 이를 위해 총 1만 2천446장의 신장 CT 영상(정상 5077장, 낭종 3709장, 종양 2283장)이 사용됐다. 두 번째 단계로 기준 모델을 암호화 환경에 맞춘 새 모델로 변형했다. 암호화된 데이터는 소위 '크다/작다'와 같은 직접 비교가 불가능하기 때문에 비교 연산을 쓰는 구조를 다항식 함수, 최대값 대신 평균값을 사용하는 방식으로 바꿈으로써 암호화된 데이터에서도 인공지능이 정상적으로 작동하게 만들었다. 마지막으로 'CKKS 스킴'(Cheon–Kim–Kim–Song Scheme)이라는 동형암호 기법을 이용해 환자의 신장 CT 영상을 변환했다. 즉 완전히 암호화된 상태에서 인공지능이 영상을 분석할 수 있게 고도화한 것이다. CKKS 스킴은 국내 암호학자들이 개발한 동형암호 기법으로 기존 동형암호는 정수 연산만 가능한 경우가 많은데, CKKS는 실수와 복소수에 대해서도 근사 연산이 가능하다. CKKS를 이용하면 의료 딥러닝 연산처럼 소수점이 필요한 계산을 암호화 상태로 처리할 수 있다. 이번 연구에서는 CKKS 스킴 원천 기술을 가진 크립토랩(CryptoLab)과 협력해 암호화 모델을 개발했다. 연구팀은 연산 효율성을 높이기 위해 데이터 여러 개를 한꺼번에 묶어 계산하거나 필요한 부분만 계산하는 방식도 추가로 도입했다. 그 결과, 환자의 신장 CT 데이터를 암호화된 상태 그대로 입력해도 기존 인공지능과 거의 똑같은 정확도로 신장질환을 구분하는 것으로 나타났다. 다만 암호화 때문에 이미지 크기가 약 500배 커지고 연산 속도가 느려지는 문제도 발생했다. 하지만 고성능 그래픽처리장치(GPU)를 활용한 결과, 1~2분 이내에 모든 분석이 이뤄질 수 있었다고 한다. 이상욱 서울아산병원 마취통증의학과 교수는 “향후 고성능 그래픽처리장치 등 하드웨어의 발전과 알고리즘 최적화가 이루어진다면, 이번 암호화 적용 모델은 개인정보 보존형 의료영상 분석의 표준으로 자리 잡을 것이다”라고 말했다. 서준교 서울아산병원 비뇨의학과 교수는 “이번 암호화 모델은 민감한 환자 정보를 안전하게 보호하기 때문에 법적·윤리적 문제를 최소화하면서 AI 진단을 활성화할 수 있는 기술이다. 향후 신장 CT, 엑스레이 등 의료영상 분석에서 이 AI 모델이 폭넓게 활용될 수 있을 것으로 생각한다”고 밝혔다. 이번 연구는 서울아산병원 생명과학연구원과 과학기술정보통신부 및 한국연구재단, 국가정보통신산업진흥원의 지원을 받아 수행됐다. 이번 연구 결과는 북미영상의학회가 발간하는 국제 학술지 '영상의학: 인공지능(Radiology: Artificial Intelligence, 피인용지수 13.2)'에 최근 게재됐다.

2025.09.29 16:42조민규

[영상] 고양이가 밀가루 반죽 '조물딱'…메타가 꺼낸 AI 新 무기, 韓서는 경험 못 한다

최근 인공지능(AI) 시장 주도권을 잡기 위해 안간힘을 벌이고 있는 메타가 새로운 무기를 꺼냈지만 국내에서는 경험해 볼 수 없다. '메타 AI'가 한국에서 지원되지 않아서다. 26일 테크크런치에 따르면 마크 저커버그 메타 최고경영자(CEO)는 지난 25일 자신의 인스타그램을 통해 AI 생성 영상 피드 '바이브스(Vibes)' 론칭 소식을 전하며 직접 AI 생성 영상을 공개했다. 이 영상에선 복슬복슬한 생명체들이 큐브 사이를 뛰어다니거나 고양이가 반죽을 치대는 모습, 고대 이집트가 내려다보이는 발코니에서 셀카를 찍는 고대 여성의 모습 등이 담겼다. '메타 AI' 앱에서 경험할 수 있는 이 피드는 '틱톡', 인스타그램 '릴스' 등과 비슷하지만 모든 콘텐츠가 AI로 만들어졌다는 점에서 차별화됐다. 이용자들은 '바이브스'를 통해 직접 영상을 생성하거나 기존 영상을 섞어 배경·음악·스타일을 바꿀 수 있다. 또 이를 피드에 공유하거나 인스타그램과 페이스북 스토리로 교차 게시할 수 있다. 메타 측은 "사용자가 피드를 탐색하면서 제작자와 다른 사용자들이 만든 AI 생성 영상을 볼 수 있다"며 "시간이 지날수록 우리의 알고리즘이 개인화된 콘텐츠를 추천한다"고 설명했다. 알렉산더 왕 메타 최고 AI 책임자는 "초기 버전의 '바이브스' 개발을 위해 미드저니, 블랙 포레스트 랩스 등 AI 이미지 생성 기업과 협력하고 있다"며 "자체 AI 모델 개발도 병행하고 있다"고 밝혔다. 현재 국내에선 '메타 AI' 앱과 웹사이트가 지원되지 않아 '바이브스'를 직접 경험해 볼 수 없다. '메타 AI' 앱은 사용자가 메타의 AI 기능을 활용할 수 있도록 만든 독립형 앱으로, 지난 2024년부터 미국, 캐나다, 영국 등 일부 국가에서만 선보여지고 있다. 또 '메타 AI' 앱은 '레이밴 메타' 스마트 글래스와도 연동돼 새로운 경험을 할 수 있도록 도와준다. 다만 저커버그 CEO가 이번에 야심차게 선보인 '바이브스'에 대한 시장의 반응은 냉랭하다. AI 콘텐츠가 이미 소셜미디어(SNS)에 넘쳐나는 상황에서 'AI 버전 틱톡'을 만들겠다는 메타의 행보가 의문이라는 지적이다. 저커버그 CEO의 인스타그램 게시물에도 "아무도 원하지 않는다", "스스로 AI 쓰레기를 올리고 있다", "도대체 왜?"라는 부정적 반응이 쏟아지고 있다. 테크크런치는 "유튜브 등 주요 플랫폼은 AI로 생성된 저품질 콘텐츠 확산을 막기 위한 조치를 강화하고 있는 상황"이라며 "메타 역시 올해 초 '비(非)독창적'인 페이스북 콘텐츠를 줄이겠다며 제작자들에게 '진정성 있는 스토리텔링'을 주문한 바 있어 이번 행보는 더욱 모순적으로 비친다"고 꼬집었다.

2025.09.26 17:43장유미

AI 영상 '꽹', 2025 GAMFF 종합대상 수상...소휘수 에임즈미디어 감독 작품

에임즈미디어는 소휘수 감독이 제작한 AI 영상 작품 '꽹'이 경북 구미시 구미코에서 열린 2025 경상북도 국제 AI·메타버스 영상제(GAMFF: Gyeongsangbuk-do International AI·Metaverse Film Festival)에서 종합대상을 수상했다고 지난 19일 밝혔다. 올해로 두 번째를 맞은 GAMFF는 지난 12일부터 14일까지 열렸다. 이 기간 세계 12개국에서 총 1천75편의 작품이 출품됐다. AI·VFX·메타버스가 결합한 이번 행사는 K-AI 콘텐츠의 가능성을 보여주며, 세계 창작자들이 교류하고 경쟁하는 자리로 빛났다. GAMFF는 경상북도와 구미시, 포항시, 경산시, 청도군이 공동 주최하고 경북테크노파크가 주관했다. 이 가운데 에임즈미디어의 '꽹'은 기술과 문화예술을 결합한 창작 실험으로 주목받으며 종합대상을 차지했다. 종합대상을 차지한 '꽹'은 에임즈미디어의 자체 개발 AI플랫폼 에임즈랩스(AIMZ Labs)의 기술력과 국가유산 디지털 자원을 적용한 것이 특징이다. 해당 작품은 경주의 과거와 미래를 AI로 재현하며 전통문화와 글로벌 트렌드를 결합한 새로운 콘텐츠로 구현했다. 한복을 힙합과 K-POP과 접목해 새로운 시각적 실험을 선보였으며, 경주시가 개발한 신라문화체 폰트를 로고에 적용해 지역적 정체성을 강조했다고 회사 측은 설명했다. AI플랫폼 에임즈랩스는 배경 합성, 조명·색감 연출, 시각적 일관성 유지 등 영화 제작 전 과정을 지원하는 AI-aaS(Artificial Intelligence as a Service) 툴이 적용됐다. 소휘수 에임즈미디어 감독은 "꽹은 AI가 단순한 도구를 넘어 문화와 이야기를 함께 만들어가는 동반자가 될 수 있음을 보여주고 싶었다"며 "국가유산 디지털 자산과 에임즈랩스를 연계해 한국의 전통과 현대, 지역과 세계를 잇는 새로운 다리를 만들고 싶다"고 전했다.

2025.09.21 17:33이도원

우주청, 네이버클라우드 등과 AI대비 위성정보 민간 개방 "논의"

우주청과 네이버클라우드 등 16개 기관이 위성 정보 민간 개방을 위한 논의를 시작했다. 우주항공청(청장 윤영빈)은 16일 위성정보 민간 개방을 가속화하기 위해 '개방형 위성영상 서비스시스템' 산학연 전문가 간담회를 개최했다. 이 간담회는 우주청 '위성활용 혁신기반 조성사업' 일환이다. 우주청은 인공지능(AI) 시대에 대비, 국가 위성정보 개방을 추진한다. 민간주도 인공지능과 위성정보 간 융합을 촉진시키기 위해서다. 우선 올해부터 2028년까지 총 4년간 98억원을 투입하는 '위성활용 혁신기반 조성사업'을 한국항공우주연구원이 수행 중이다. 사업이 완료되면 기존 국가 위성영상 서비스시스템을 대체할 것으로 예상됐다. 주문·검색 기능을 대폭 개선한 새로운 '개방형 위성영상 서비스시스템'이 본격 운영될 전망이다. 시스템 요구사항을 반영하기 위해 개최한 이번 간담회에서는 총 16개 기관에서 27명의 전문가가 참석했다. 주요 참석 기관은 에스아이아이에스, 지오스토리, CES, AI팩토리, 빅밸류, 네이버클라우드, 안랩클라우드메이트, 다비오, 스켈터랩스, 와이즈넛, 지인컨설팅, 서울대학교, 부경대학교, 한국항공대학교, 극지연구소 등이다. 이 간담에서는 자연어 검색 기능 등 인공지능을 통한 서비스 플랫폼의 자동화 논의가 주를 이뤘다. 한창헌 우주항공산업국장은 “산학연 전문가의 다양한 의견을 시스템 설계에 적극 수렴할 것"이라며 "향후 연구개발 과정에서도 전문가와 현장 의견에 귀 기울일 예정”이라고 말했다. 한 국장은 또 “앞으로 국가 위성정보 새로운 서비스 모델 창출을 위한 민간으로의 개방과 AI와의 융합 촉진에 대한 지원을 아끼지 않을 계획”이라고 덧붙였다.

2025.09.16 14:00박희범

영상 편집도 클라우드로…메가존클라우드, 부산국제영화제서 제작 환경 시연

메가존클라우드가 부산국제영화제에서 클라우드와 인공지능(AI) 기술을 적용한 미디어 제작 솔루션을 선보인다. 메가존클라우드는 부산국제영화제의 일환으로 오는 20~23일 벡스코 제2전시장에서 개최되는 제20회 아시아콘텐츠&필름마켓(ACFM)에 아마존웹서비스(AWS)와 공동으로 참여해 부스를 개설한다고 16일 밝혔다. 해당 부스에서는 영상 기획부터 편집·렌더링·자산 관리·배포까지 전 과정을 클라우드 기반으로 연결하는 미디어 특화 솔루션 3종을 소개한다. 또 관람객이 클라우드와 AI 기술을 활용한 영상 편집 환경을 현장에서 직접 체험할 수 있도록 하고 공동 세션을 통해 방송과 영화 제작 현장에서 실제 적용된 클라우드 활용 사례도 공유된다. 최근 업계는 고품질 시각특수효과(VFX) 렌더링 수요와 생성형 AI를 통한 콘텐츠 제작량이 폭발적으로 증가하면서 기존 로컬 장비로는 감당하기 어려운 전환점을 맞이하고 있다. 이에 메가존클라우드는 관람객이 직접 클라우드 기반 제작 환경을 체험할 수 있는 공간을 마련해 장비의 한계를 넘어서는 차세대 제작 워크플로우를 현장에서 경험할 수 있는 기회를 제공할 계획이다. 부스에는 저사양의 체험용 노트북이 마련돼 관람객은 메가존클라우드의 클라우드 편집 솔루션 '스페이스 에디트'를 활용해 고사양 클라우드 인스턴스에 접속해 직접 영상을 편집해 볼 수 있다. 특히 외장 그래픽처리장치(GPU)가 없는 저사양 환경에서도 전문 영상 편집 소프트웨어인 '어도비 프리미어 프로'를 통해 다중 레이어 편집을 수행할 수 있어 일반적으로 로컬 장비에서는 어려운 작업을 클라우드 환경에서 자유롭게 체험할 수 있다. 또 메가존클라우드는 동일 프로젝트에 여러 노트북을 동시에 접속해 실시간 공동 편집하는 협업 기능도 시연한다. 이를 통해 영화·방송 제작 현장에서 여러 참여자가 하나의 프로젝트를 함께 편집하는 새로운 제작 방식을 확인할 수 있다. 이 외에도 트웰브랩스와의 협업을 통해 AI 기반 영상 검색과 편집 지원 기능을 시연한다. 관람객은 방대한 영상 데이터에서 원하는 장면을 AI로 빠르게 찾아내고 이를 편집에 반영해 볼 수 있다. 이번에 소개되는 미디어 특화 솔루션은 스페이스 에디트·렌더·DAM 등 세 가지다. 스페이스 에디트는 장소와 장비 제약 없이 인터넷 환경에서 어도비 프리미어 프로와 에디우스 등 고성능 편집 툴을 실행할 수 있는 클라우드 편집 솔루션이다. 스페이스 렌더는 대규모 렌더링을 신속하게 처리하고 비용과 자원 사용 현황을 실시간으로 관리할 수 있는 렌더링 솔루션이다. 스페이스 DAM은 영상·이미지·오디오 자산을 통합 관리하고 완성된 콘텐츠를 유튜브·OTT·방송 등 다양한 채널에 자동 변환·배포하는 콘텐츠 자산 관리 솔루션이다. 기술 세션에서는 메가존클라우드 엔지니어가 VFX 기반 광고 콘텐츠 제작사 래빗워크와 함께 스페이스 렌더를 활용해 업계 최초로 구축한 클라우드 렌더링 사례를 발표하며 실제 영상 프로젝트 과정에서의 문제 해결 과정을 공유한다. 컨퍼런스 세션에서는 시니어 솔루션즈 아키텍트가 웨타FX·넷플릭스와 같은 미디어·엔터테인먼트 고객들이 콘텐츠 제작, VFX 렌더링, 대규모 스트리밍, AI 기반 추천 등을 구현하기 위해 AWS를 어떻게 활용하는지를 공유한다. 참가자들은 원격에서도 동일한 편집 환경을 구현하는 방법과 분산 렌더링으로 시간을 단축하는 방법, 완성된 영상을 다양한 채널에 쉽게 배포하는 과정 등을 확인할 수 있다. 메가존클라우드 김승룡 미디어 유닛장은 "클라우드 전문성과 AI 기술을 바탕으로 미디어 제작 과정 전반을 효율적으로 연결해 제작자들이 기술적 제약에 구애받지 않고 창작에 집중할 수 있는 환경을 만들고 있다"며 "이번 ACFM 전시에서는 관람객들이 클라우드 기반 제작 방식을 직접 체험하고 실제 현장에서 어떤 변화를 가져올 수 있는지 구체적으로 확인할 수 있을 것"이라고 말했다.

2025.09.16 08:53한정호

코오롱베니트, AI 얼라이언스와 '영상 비식별 솔루션' 출시…개인정보 규제 대응

코오롱베니트가 '인공지능(AI) 얼라이언스' 생태계를 주도하며 산업 분야별 전문기업과 함께 특화 서비스 개발에 박차를 가한다. 코오롱베니트는 인피닉과 협력해 CCTV 영상정보 비식별처리 솔루션을 출시한다고 15일 밝혔다. 이는 코오롱베니트가 인피닉의 AI 비식별처리 솔루션 '하이디 AI'와 해당 솔루션의 성능을 높일 하드웨어(HW)를 결합해 고객 활용도를 높인 프리패키지 제품이다. 코오롱베니트가 AI 얼라이언스 참여사와의 협력을 통해 개발하고 있는 프리패키지는 AI 기능을 손쉽게 도입할 수 있도록 소프트웨어(SW)·HW·기술 요소를 통합한 패키지형 솔루션이다. 빠르게 진화하고 있는 AI 기술을 활발히 수용하고 있는 캠퍼스, 오피스, 건설·제조 현장에서의 다양한 고객 수요에 주목한 코오롱베니트는 지난달 첫 프리패키지 3종을 출시했으며 앞으로도 지속적으로 신제품을 개발할 예정이다. 인피닉의 하이디 AI는 이미지와 동영상 속 개인정보를 AI로 자동 비식별화하는 서비스를 제공한다. 얼굴이나 차량 번호판 등 민감 정보를 블러 처리해 개인정보를 보호하면서도 데이터 품질을 유지해 활용성을 높인다. 특히 이 제품은 정보보호 국제표준을 반영해 유럽의 GDPR과 AI 액트, 미국 CCPA·CPRA, 일본 APPI 등 글로벌 개인정보보호 규정에도 대응할 수 있도록 설계됐다. 코오롱베니트는 저장 영상을 처리하는 솔루션 출시로 모든 시기에 촬영된 영상을 분석할 수 있는 영상 관제 분야 사업 역량을 갖추게 됐다. 지난달 노타와 함께 출시한 실시간 영상 분석 프리패키지 'VLM 영상 관제 솔루션'도 시장에서 확산되고 있다. 코오롱베니트는 인피닉과 협력한 솔루션 출시로 개인정보보호법상 비식별화 의무에 대응해 주택·건물·건설사·시행사 등에서 발생하는 영상 열람 요청에 따른 수동 편집의 복잡성과 비용 문제를 해소할 것으로 기대하고 있다. 또 관리 현장의 부담을 줄이며 신뢰성 있는 AI 학습용 데이터셋의 활용 환경을 마련하는 측면에서 시장성 역시 높다는 판단이다. 비식별처리 데이터는 드론·자율주행과 같이 영상 데이터와 관련한 명확한 규제가 필요한 신산업 분야에서 활용될 수 있다. 코오롱베니트 강재훈 AX커머스팀장은 "이번 패키지는 영상 데이터 비식별화 분야의 혁신적인 기술을 현장 적용 가능한 서비스로 패키지화해 제공하는 AI 얼라이언스의 협업 사례"라며 "참여사와의 긴밀한 협력으로 시장 수요를 선도하는 AI 프리패키지 제품을 지속적으로 선보일 것"이라고 밝혔다.

2025.09.15 15:50한정호

포바이포-제노레이, 의료영상 AI 고도화 힘 모은다

포바이포가 의료기기 영상솔루션 시장에 본격 진출을 선언했다. 콘텐츠 AI 솔루션 기업 포바이포(대표 윤준호)는 X-선 진단 의료기기 전문기업 제노레이와 의료영상 AI 고도화에 대한 협력을 약속하는 전략적 업무 협약(MOU)을 체결했다고 4일 밝혔다. 이번 포바이포와 협약을 체결한 제노레이는 단층영상합성 기능이 탑재된 유방질환진단장비를 개발하고 콘빔 전산화단층촬영 중심의 덴탈 사업도 영위하고 있다. 특히, 이동형 엑스레이 'C-arm' 분야에서는 오랜 기간 높은 점유율을 유지하고 있는 의료기기 전문기업이다. 제노레이를 비롯한 X-선 기반 영상진단 의료기기 기업들은 최근 적은 선량으로 선명한 영상을 제공하기 위해 노력하는 추세다. 이번 협약을 계기로 제노레이와 포바이포는 보다 적은 선량으로 더 선명한 영상을 제공할 수 있는 협력방안을 찾아 추진한다는 계획이다. 포바이포는 자체 개발한 고유 모델인 화질 개선 AI 솔루션 '픽셀'을 제노레이 장비에서 획득한 의료영상 데이터에 곧바로 적용할 수 있도록 모델 최적화 작업을 진행할 예정이다. 제노레이는 포바이포가 제공한 AI 솔루션을 의료영상 데이터 처리 과정에 적용해 보고 실제 임상, 시술 환경에서 얼마나 기능하는지 평가한 후 결과를 제공하게 된다. 제노레이 관계자는 "더 적은 선량으로 보다 선명한 영상을 얻을 수 있다면 환자와 사용자가 더욱 신뢰할 수 있는 진단 서비스가 가능하게 될 것"이라며 "AI 영상 개선 솔루션의 적합도와 신뢰도를 꼼꼼하게 평가해 양사 모두에 유의미한 결과를 얻을 수 있도록 노력하겠다"고 말했다. 포바이포 배성완 솔루션사업본부장은 "왜곡된 이미지를 만들어 채워 넣는 오류가 빈번한 생성형 AI 모델과는 달리 AI픽셀은 비생성형 알고리즘을 채택한 모델"이라며 "사실성 보존이 가장 중요한 의료용 진단 영상, 범죄 현장을 촬영한 CCTV 영상 등을 원본 훼손 없이 개선할 수 있어 민감한 정보를 다루는 다양한 사업 영역에 진출할 수 있는 경쟁력을 가지고 있다"고 설명했다. 포바이포 픽셀은 클릭 한 번으로 영상의 화질을 최대 8K 수준으로 개선해 주는 화질 개선 AI 솔루션이다. 픽셀은 영상을 초고화질로 빠르게 업스케일링 해주면서도 전송 데이터 용량, 즉 비트레이트는 최대 50% 이상 절감해줄 수 있다.

2025.09.04 14:42백봉삼

AI 어디까지 가나..."사진이나 영상 흐려도 말끔하게 복원"

인공지능(AI)이 한없이 진화하고 있다. 이번엔 활영 사진이나 영상 등이 흐릿해도 말끔하게 복원하는 기술이 개발돼 관심을 끈다. KAIST는 바이오및뇌공학과 장무석 교수와 김재철AI대학원 예종철 교수 연구팀이 움직이는 산란 매질(신호복제 환경) 너머의 숨겨진 영상을 복원할 수 있는 '비디오 디퓨전 기반 영상 복원 기술을 세계 처음 개발했다고 31일 밝혔다. 이 기술은 시간상으로 변한 영상 이미지 환경을 통해 흐릿하거나 손상된 부분을 디퓨전 모델 같은 생성형 AI모델로 되살린다. 안개·연기·불투명 유리·피부 조직 등과 같은 산란매질 때문에 '무엇인가에 가려 흐릿하게 보이는' 이미지를 마치 가려진 유리 뒤를 들여다보듯 복원한다. 연구팀은 기존 인공지능 복원 기술이 훈련된 데이터 범위에서만 성능을 발휘하는 한계를 극복하기 위해, 광학 모델과 비디오 디퓨전 모델을 결합했다. 특히 시간에 따라 산란 환경이 변하는 경우(바람에 흔들리는 커튼 너머 풍경 등)에도 안정적으로 복원할 수 있도록 연속된 영상의 시간적 상관관계를 학습한 디퓨전 모델을 적용했다. 이로인해 다양한 거리·두께·잡음 조건에서도 기존 대비 월등히 뛰어난 복원이 가능하다는 것. 기존 최고 성능의 복원 모델을 뛰어넘는 결과를 얻었다. 권성태 연구원은 "별도의 추가 학습 없이도 안개 제거, 영상 화질 개선(고해상도 프레임 생성), 블라인드 디블러링(흐린 영상 선명화) 등 다양한 상황에서 영상을 복원할 수 있는 최적화 기법을 도입해, 범용 복원 프레임워크로 확장할 가능성을 입증했다"고 설명했다. 장무석 교수 및 예종철 교수는 "혈액이나 피부 속을 들여다보는 비침습적 의료 진단, 화재 현장 연기 속 인명 구조, 벽에서 반사된 빛으로 영상을 복원하는 비시선 영상, 안개 낀 도로에서의 안전 운전 보조, 불투명 유리나 플라스틱 내부의 산업 검사, 흐린 물속 시야 확보 등 일상과 산업 전반에 활용될 수 있을 것"으로 기대했다. 연구는 KAIST 바이오및뇌공학과 권태성·송국호 박사과정이 공동 제1 저자로 참여했다. 인공지능 국제 학술지 IEEE TPAMI에 지난 13일 게재됐다. 과학기술정보통신부 및 한국연구재단 우수신진 연구자 사업, 뇌선도연구센터사업, 삼성미래기술육성사업, AI 스타펠로우십으로부터 연구 지원을 받았다.

2025.08.31 12:00박희범

2D->3D로 쉽게 바꾸는 AI 알고리즘 개발…소요시간·비용도 8분의1 '확' 줄여

세포부터 반도체까지 단면 이미지를 3D로 실시간 만드는 솔루션이 개발됐다. 한국표준과학연구원(KRISS)은 주사전자현미경(SEM)으로 촬영한 생물학 시료 2차원 단면 이미지를 3차원 구조로 빠르게 형상화할 수 있는 '인공지능(AI) 기반 영상 분할 알고리즘'을 개발했다고 30일 밝혔다. 이 알고리즘은 세포부터 반도체까지, 3D 구현에 별다른 제한이 없다. 심지어 치과 등에서 촬영하는 엑스레이 사진도 3D 구현이 가능하다. 전체 이미지 데이터의 10%만 사람이 분석하면 나머지 부분은 AI가 자동으로 구조를 예측, 3차원으로 재구성한다. 사람이 모든 단면 이미지를 일일이 분석했던 기존 방식 대비 3차원 구조 관측에 소요되는 시간과 비용을 절반 이상 줄일 수 있다. 주사전자현미경(SEM)은 분석 대상의 단층을 수십 나노미터 간격으로 연속 촬영한 후, 확보한 단면 이미지들을 결합해 3차원 입체 구조로 재구성하는 장비다. 이 장비는 미세한 세포 내부 구조를 고해상도로 정밀하게 관측할 수 있어 생명과학 연구와 의료 진단 분야에 널리 활용된다. 단면 이미지를 재구성하기 위해서는 영상 분할이라는 전처리 과정이 필요하다. 이는 각 단면 이미지에서 세포핵, 미토콘드리아 등 분석 대상의 정확한 위치와 형태를 구분하는 작업이다. 불필요한 정보를 걸러내고 분석 대상을 선명하게 드러내는 과정이다. 그런데, 기존 영상 분할은 수백에서 수천 장에 이르는 단면 이미지를 전문가가 직접 확인하고 분석 대상을 수작업으로 표시하는 '지도학습' 방식을 이용한다. 막대한 시간과 인력이 필요하고, 연구자의 주관적 판단과 실수가 발생한다. 연구팀은 이 문제를 해결하기 위해 일정 간격으로 사람이 정답을 표기한 이미지를 기준으로 인접 단면의 정답을 자동으로 표시하는 '준 지도학습' 방식을 적용한 새로운 알고리즘을 개발했다. 1번부터 100번까지의 단면 이미지가 있을 때 10장 간격마다 사람이 레이블링(데이터 값(이름) 부여과정)한 기준 데이터를 삽입하면, 나머지 90장은 연구팀이 개발한 알고리즘이 레이블링을 수행, 전체 이미지를 분석한다. 미래선도연구장비그룹 윤달재 선임연구원은 "이 방법을 이용하면 AI 기반 3차원 구조 형상에 필요한 데이터셋(Dataset) 준비 시간과 비용을 대폭 줄일 수 있다"고 설명했다. 실제 쥐 뇌세포 데이터를 대상으로 한 성능 시험에서 연구팀이 개발한 알고리즘은 기존 방식과 정확도 차이가 3% 이내에 불과했다. 그럼에도 분석에 걸리는 시간과 비용은 약 8분의 1 수준으로 단축했다. 4096×6144 해상도의 대용량 데이터를 활용한 실험에서도 분석 정확도와 속도를 유지하며 안정적인 성능을 나타냈다. 윤 선임은 “이 기술은 생물학 분야뿐 아니라 반도체 결함 분석, 신소재 개발 등 영상 분석 자동화가 필요한 다양한 분야에서 쓰일 수 있다”며 “특히 개인정보 보호나 예산 부족 등으로 AI 학습데이터 확보가 어려운 영역에서 유용하게 활용할 수 있을 것”이라고 말했다. 연구는 KRISS 기본사업의 지원을 받았다. 연구성과는 지난 6월 현미경 영상 분석 분야 국제 학술지, 마이크로카피 앤 마이크로어날리시스(Microscopy and Microanalysis(IF 3.0))의 하이라이트 논문으로 선정돼 공개됐다. 한편 한국표준과학연구원 전략기술연구소 미래선도연구장비그룹에서 일해온 윤달재 선임연구원은 오는 9월 1일부터 충남대학교 정보통신융합과 교수로 이직한다.

2025.08.30 12:01박희범

kt HCN, '방송인 AI 영상 공모전' 개인·단체 부문 동시 수상

kt HCN이 과학기술정보통신부가 주최하고, 한국방송통신전파진흥원이 주관하는 '2025 방송인 AI 영상 공모전' 개인 부문과 단체 부문에서 나란히 우수상을 수상하며 총 8개 수상작 가운데 2개를 차지하는 성과를 거뒀다고 26일 밝혔다. 이번 공모전은 국내 방송사에서 AI 기술을 활용한 자유 주제의 영상 콘텐츠 40여 편이 출품됐다. 이 가운데 kt HCN은 케이블TV 방송사 중 유일하게 수상 명단에 올랐으며, 개인과 단체 부문에서 모두 수상작을 낸 유일한 사업자로서 존재감을 입증했다. 개인 부문에서는 서울사업부 미디어팀 허승범 PD의 뮤직비디오 '우리, 동네, 사람들'이 우수작으로 선정됐다. 이 작품은 단절된 지역 내 관계 회복과 공동체 활성화를 주제로 삼았다. 일상의 이웃과 마을 사람들의 이야기를 AI 기술로 담아낸 감성 뮤직비디오 형식으로, 잊혀가는 지역 커뮤니티의 가치를 되살리고자 했다. 단순한 기술적 실험을 넘어, 지역성과 인간적인 메시지를 함께 녹여내며 작품의 완성도를 높였다. 단체 부문 우수상을 수상한 부산사업부 미디어팀 이주현 PD의 역사 다큐멘터리 '전사이 가도난'은 AI 기술을 활용해 동래부사 송상현을 현시대로 타임슬립해, 임진왜란 당시 동래성 전투와 일본군의 민간인 학살을 고발하는 내용을 담았다. 특히 송상현의 충절과 백성들의 희생을 내레이션과 영상 연출로 재현하며 지역의 역사적 사건을 소재로 하면서도, 오늘날에도 울림을 주는 교훈을 몰입감 있게 전달했다. 이번 성과는 콘텐츠 자체의 의미뿐 아니라, KT그룹 차원의 AI 역량 강화 노력과도 맞닿아 있다. kt HCN은 그룹과 연계해 AI 기술을 적극 활용하고 있으며, 실제로 전체 직원의 10%에 달하는 인원이 AI 자격증을 취득해 실무 역량을 강화했다. 원흥재 kt HCN 대표는 “kt HCN은 AI 기술을 지역 사회와 사람들의 이야기를 담아내는 매개로 삼아, 지역성과 공공성을 지키는 콘텐츠로 방송의 본질을 실현해 나가겠다”고 말했다.

2025.08.26 15:26진성우

"독자 개발만으론 한계"…메타, 미드저니와 AI 동맹

페이스북 모회사 메타가 인공지능(AI) 이미지·영상 생성 스타트업 '미드저니' 기술 라이선스를 획득할 예정이다. AI 영역에서 독자 개발 중심 전략에서 벗어나 외부 파트너와 협력하는 방향으로 전환하며 경쟁력 강화에 나선다. 22일(현지시간) 파이낸셜타임즈 등 외신에 따르면 메타 신임 최고 AI 책임자인 알렉산드르 왕은 엑스(X)에 “향후 모델과 제품에 미드저니 미적 기술을 라이선스해 수십억명에게 아름다움을 제공할 것”이라고 양사 연구팀 간 기술적 협업을 예고했다. 이어 “자사가 사람들에게 최고의 제품을 제공하려면 모든 방식을 동원하는 접근이 필요하다”며 “이는 세계적인 수준 인재, 야심찬 컴퓨터 로드맵, 업계 최고 기업들과의 협력을 의미한다”고 덧붙였다. 미드저니는 2021년 데이비드 홀츠가 설립한 이미지 생성 기업으로 지난 6월에는 기존 이미지를 기반으로 짧은 영상을 생성할 수 있는 비디오 모델 'V1'을 선보였다. 이번 제휴를 통해 메타는 자사 앱에 멀티미디어 AI 생성 기능을 개발·통합할 수 있게 될 전망이다. 마크 저커버그 메타 최고경영자(CEO)는 플랫폼에서 AI 생성 콘텐츠가 점점 더 중요한 위치를 차지할 것이라고 언급한 바 있다. 메타의 이번 행보는 저커버그 CEO가 인간 지능을 뛰어넘는 '초지능' 개발에 수십억달러를 투입하는 과정에서 나온 것이다. 그는 최근 몇 달 간 경쟁사로부터 최고 수준의 AI 연구자를 적극적으로 영입했고 AI 인프라 투자도 대폭 늘렸다. 또한 AI 음성 기술 기업 플레이 AI를 인수하고 데이터 라벨링 기업 스케일 AI에도 지분을 투자했다. 아울러, 메타는 이번 주 자사 AI 조직을 재편한다고 발표했다. 메타의 AI 부서는 최근 메타 초지능 랩으로 이름이 변경됐으며 이번 개편으로 4개의 별도 팀으로 나뉘었다. 이는 지난 6개월 동안 네 번째 조직 개편에 해당한다. 메타와 미드저니의 협력은 메타의 기존 자체 AI 모델과 제품이 경쟁사에 밀리기 시작하면서 나온 것이다. 또 모든 것을 내부에서만 구축하려는 메타의 방식을 버리고 외부와 손잡는 전환점이다. 지난해 메타는 텍스트 프롬프트로 이미지를 생성하는 도구 '이매진'을 출시했다. 같은 해 10월에는 텍스트 프롬프트를 기반으로 영상을 생성, 편집할 수 있는 영화 생성 모델 '무비 젠'에 대한 연구 논문을 발표하며 이를 올해 인스타그램에 완전히 통합하겠다고 발표했다. 그러나 통합은 아직 이뤄지지 않았으며 이를 두고 업계 관계자들은 이미 해당 모델이 구글의 비오 3(Veo 3)나 오픈AI의 소라와 같은 최신 공개 모델과 비교해 구식으로 보인다고 평가하기도 했다. 이외에도 메타는 핵심 대형 언어 모델 비헤모스를 대외 공개하려던 계획도 접고 새로운 모델 구축에 집중하고 있는 것으로 알려졌다. 내부적으로는 코딩과 같은 업무에서 서드파티 모델을 사용하기 시작했다.

2025.08.24 09:25박서린

홈쇼핑모아 "홈쇼핑 하이라이트 영상 기능, 구매전환율 최대 3배 증가”

버즈니(대표 남상협·김성국)는 '홈쇼핑모아'에서 홈쇼핑 상품의 주요 장면만 볼 수 있는 하이라이트 영상 기능이 상품의 구매전환율을 최대 3배 증가시킨다고 12일 밝혔다. 홈쇼핑모아는 올해 초 자사 숏폼AI 기술을 활용해 홈쇼핑모아 앱에서 홈쇼핑 방송의 주요 장면만 볼 수 있는 하이라이트 영상 기능을 추가했다. 해당 기능은 AI를 활용해 1시간가량의 홈쇼핑 방송 중 상품의 특장점 장면만 골라 볼 수 있다. 현재 홈쇼핑모아 앱에서 하이라이트 영상 기능이 제공되고 있는 제휴사는 신세계라이브쇼핑을 포함해 총 5곳이다. 홈쇼핑모아는 최근 한 달간 이용자의 하이라이트 영상 기능 이용 효과를 분석한 결과 하이라이트 영상 기능을 클릭한 이용자의 구매전환율은 일반 이용자의 평균 구매전환율 대비 1.96배 높은 것으로 조사됐다. 방송 타입별로 보면 홈쇼핑 생방송 상품에서 하이라이트 영상을 클릭한 이용자는 일반 이용자 대비 1.73배 구매전환율이 증가했고, 지난 방송 상품에서는 1.9배 증가한 것으로 분석됐다. 또 방송을 앞둔 상품에서는 구매전환율이 2.98배 증가해 홈쇼핑 방송 예정 상품 영역에서 하이라이트 영상의 구매전환율 상승 효과가 가장 뛰어난 것으로 조사됐다. 홈쇼핑모아 서비스 플랫폼 김한나 과장은 "이번 분석 결과 영상 하이라이팅 기술이 모바일 홈쇼핑 이용자의 편의를 증대하고 구매에 큰 영향을 끼치고 있는걸 알 수 있었다"며 "앞으로 홈쇼핑모아 이용자가 하이라이트 영상 기능을 더 많이 이용할 수 있도록 각 홈쇼핑사와 적극 협력해 적용 제휴사를 확대해 나갈 계획"이라고 말했다. 버즈니는 지난해 자연처리 분야 글로벌 최고 AI 학회 'EMNLP 2024에서 영상 검색 기술 관련 논문이 채택되는 등 영상 하이라이팅 관련 기술력을 인정받고 있다. 또 관련 기술을 서비스화한 '에이플러스 숏폼AI'의 경우 현재 신세계라이브쇼핑 등 국내 주요 커머스사에 제공되고 있다.

2025.08.12 16:19백봉삼

방송영상으로 2만1000시간 고품질 AI 학습용 데이터 구축

과학기술정보통신부와 한국전파진흥협회는 방송영상 AI 학습용 데이터 구축 사업 지원 대상에 MBC 컨소시엄, MBC충북 컨소시엄, KT ENA 컨소시엄, KBS 컨소시엄 등을 선정했다고 밝혔다. 영상을 생성하는 AI 모델 개발 지원을 위해 방송영상을 활용한 고품질 AI 학습용 데이터를 구축하는 사업으로, 2025년 1차 추경으로 반영되어 신규 추진된다. 지원 대상은 방송법에 따른 방송사업자와 AI, 데이터 기업, 기관 등으로 구성된 컨소시엄으로, 4개 컨소시엄 선정에 12개 컨소시엄이 지원해 3대 1 경쟁률을 보였다. AI, 데이터 등 전문가로 구성된 심사위원회 평가를 통해 우리나라 고유의 가치, 특성이 반영된 방송콘텐츠를 기반으로 한 AI 학습용 데이터 구축 및 활용 계획, AI 기술역량 등이 우수한 컨소시엄 4개를 최종 선정했다. 과기정통부는 선정된 4개 컨소시엄에 각각 48억3천만원을 지원하며, 4개 컨소시엄은 저작권 이슈가 해소된 국내 방송영상 원본 총 4만2천시간을 활용해 총 2만1천시간의 고품질 방송영상 AI 학습용 데이터를 구축한다. MBC 컨소시엄은 버추얼 스튜디오 등 다양한 방송콘텐츠 제작 환경에서 사용될 배경영상을 생성하는 AI의 학습용 데이터를 구축한다. 보도, 시사 교양, 예능, 드라마 등 1만시간의 원본 영상을 활용해 3천633시간의 영상데이터, 49만2천건의 이미지데이터 등 총 5천시간 분량의 AI 학습용 데이터를 구축한다. 지역MBC 15개사가 참여하는 MBC충북 컨소시엄은 우리나라 각 지역의 고유한 문화와 생활양식 등을 반영한 이미지와 영상을 생성하는 AI의 학습용 데이터를 구축한다. 보도, 시사 교양, 다큐 등에서 각 지역의 다양한 자연 풍경, 생활 문화, 역사 사회 등과 관련된 1만2천시간의 원본 영상을 활용해 3천600시간의 영상데이터, 84만2천00건의 이미지데이터 등 총 5천940시간 분량의 AI 학습용 데이터를 구축한다. KT ENA 컨소시엄은 감정이 표현되는 우리나라 인물, 우리나라 배경, 예능 자막 등을 생성하는 AI의 학습용 데이터를 구축한다. 예능, 시사 교양, 다큐 등 1만시간의 원본 영상을 활용해 3천600시간의 영상데이터, 50만4천건의 이미지데이터 등 총 5천시간 분량의 AI 학습용 데이터를 구축한다. KBS 컨소시엄은 촬영구도와 편집 자동화, 사극 시대극에서 활용되는 소품을 3D로 생성하는 등 방송콘텐츠 제작에 필요한 AI의 학습용 데이터를 구축한다. 보도, 예능, 다큐, 스포츠 등 1만 시간의 원본 영상을 활용해 4천500시간의 영상데이터, 1천500건의 3D데이터, 20만건의 이미지데이터 등 총 5천67시간 분량의 AI 학습용 데이터를 구축한다. 이 사업을 통해 구축된 데이터는 AI 모델 개발 등에 활용된다. 각 컨소시엄은 데이터를 활용해 방송제작 현장에 필요한 특화 AI 개발 및 적용을 지속 추진한다. 아울러, 구축된 데이터는 독자 AI 파운데이션 모델 프로젝트에 선정된 정예팀 요청 시 제공되고, AI 허브 내 안심존 등에 연구교육용 AI 개발을 위해 활용될 수 있도록 약 10~35% 이상 개방될 예정이다. 배경훈 과기정통부 장관은 “데이터는 GPU와 함께 AI 모델 개발의 핵심 연료로 그 중요성이 커지고 있다”며 “우리나라 인물, 사회, 역사, 자연 등이 풍부하게 담겨 있는 고품질 방송영상은 독자 AI 모델을 위한 최적의 데이터”라고 말했다. 이어, “방송영상이 AI 데이터로 적극 활용되어 방송사가 AI 기술을 다양하게 접목해 제작 효율성을 높임과 동시에 고품질 서비스를 제공하는 기반이 마련되기를 기대한다”고 밝혔다.

2025.08.09 07:40박수형

제이피아이헬스케어, 차세대 의료영상기기·클라우드 플랫폼으로 사업 확장

제이피아이헬스케어가 코스닥 상장과 함께, 차세대 의료영상기기 및 클라우드 플랫폼으로 사업을 확장하겠다고 밝혔다. 제이피아이헬스케어는 6일 서울 여의도에서 기자간담회를 열고 코스닥 상장 이후 글로벌 성장 전략과 미래 비전을 발표했다. 김진국 제이피아이헬스케어 대표는 “실적에서 매출과 영업이익이 꾸준히 성장하다 지난 2년 정체됐는데 이는 코로나 당시 초과 수요가 있었고, 임상자료 등을 더 많이 확보해 수출 준비를 했어야 하는데 지난해 의료파업으로 원활하지 못해 미뤄졌던 것도 영향이 있었던 것으로 분석됐다”라며 “올해부터는 그런 부분이 해소돼 성장 환경을 조성된 것으로 판단하고 있다”라고 말했다. 이어 “지난해 매출이 402억원이었는데 해외 매출 비중이 80% 이상을 차지했고, 국가별로는 독일, 미국, 중국 순으로 높았다. 분야별로는 핵심부품 분야가 63.9% 차지했는데, 영상기기·소프트웨어·클라우드 기반 AI 의료 솔루션까지 사업영역을 확장하며 성장기반을 마련했다”라며 “올해부터는 차세대 의료영상기기 매출이 본격화돼 성장이 가속화될 것으로 기대하고 있다”라고 덧붙였다. 1980년 설립된 제이피아이헬스케어는 엑스레이 핵심 부품인 그리드(Grid, 엑스레이가 피사체를 통과시 발생하는 산란선을 제거해 영상의 선명도와 정확도를 높여주는 엑스레이 의료영상기기의 핵심 부품) 분야에서 세계 시장 점유율 40%를 차지하고 있다. 특히 글로벌 최고 사양인 250LPI 제품을 양산하며, 세계에서 유일하게 알루미늄과 카본 두 종류의 그리드를 생산하는 기업이다. 회사는 그리드 제조를 통해 축적한 엑스레이 영상진단 기술을 토대로 정밀 진단 수요가 높은 시장을 겨냥해 차세대 의료영상기기 사업을 확대하고 있는데 ▲국내 유일의 디지털 토모신테시스(DTS) 장비 'StriXion' ▲단일 장비에서 CT·일반촬영·투시를 구현한 이동형 CT 'DeteCT'가 대표 제품이다. 두 제품 모두 단일 장비로 3가지 진단 기능을 이용할 수 있는 하이브리드 정밀 의료영상기기로, 기존 의료용 CT 대비 저선량 고해상도 입체영상을 구현하며, 협소한 공간에서도 설치·운용이 용이해 대형 병원은 물론 중소형 병·의원 수요가 증가하고 있다. 김진국 대표는 “제이피아이헬스케어는 세계 최고 수준의 엑스레이 그리드 기술력과 차세대 의료영상기기, 클라우드 영상 통합 관리 플랫폼과 AI 솔루션을 결합해 정밀 진단 시장의 새로운 패러다임을 열고 있다”며 “코스닥 상장을 계기로 글로벌 시장 확대와 미래 성장 동력 확보에 박차를 가하겠다”고 밝혔다. 회사는 공모자금을 활용해 안산과 시화에 분산된 기존 생산시설을 통합하고 신공장을 건설할 계획이다. 생산설비 자동화를 통해 효율을 극대화하고, 그리드와 StriXion, DeteCT 등 주력 제품의 생산능력을 확대해 글로벌 수요에 대응할 방침이다. 회사 총 공모주식수는 158만주이며 주당 공모 희망가 범위는 1만6500~2만원으로, 공모 예정 금액은 공모가 밴드 상단 기준 316억원이다. 8월1일부터 7일까지 5영업일간 기관투자자 대상 수요예측을 진행해 공모가를 확정하고, 8월11일과 12일 양일간 청약을 진행할 예정이다. 8월 중 상장 예정이며, 상장주관회사는 키움증권이다. 한편 제이피아이헬스케어는 엑스레이 핵심 부품 그리드부터 차세대 영상기기, AI 기반 소프트웨어, 클라우드 영상 관리 플랫폼까지 스마트 이미징 진단 전 과정을 아우르는 토탈솔루션을 구축한 기업이다. 그리드와 정밀 의료영상기기에 최적화된 소프트웨어를 자체 제작해 영상 획득부터 분석, 진단까지 효율적인 워크플로우를 구현했으며, AI를 응용한 영상 보정 기술을 고도화해 영상 품질을 개선했고, 인체용뿐 아니라 동물용 영상 소프트웨어도 확보해 시장을 다변화했으며, AI 기반 동물 영상 분석과 웹 기반 PACS 등 신사업도 전개하고 있다. 또 클라우드 기반 원격 판독 서비스·생성형 AI 진단 지원까지 단계별 서비스를 연결해 End-to-End 의료영상 플랫폼을 완성해 나가고 있다. 이를 바탕으로 병·의원, 동물병원 등 다양한 현장에서 효율적이고 정밀한 진단 환경을 제공할 계획이다. 제이피아이헬스케어는 ▲정밀 의료영상 시장 점유율 확대 ▲고부가가치 특수 그리드 사업 고도화 ▲클라우드 기반 생성형 AI 솔루션 구축을 3대 성장축으로 설정해 미래 수익성을 강화한다는 전략이다. 회사는 세계 최고 수준의 그리드 기술력을 기반으로 고부가가치 특수 사양 그리드 시장으로 영역을 확장하고 있다. 실시간·고정밀 영상장비 수요 증가에 따라 맞춤형 고사양 그리드의 수요가 확대됨에 따라 일반 제품 대비 최대 10배 이상의 수익성을 갖춘 고부가 그리드를 개발 중이다. 글로벌 톱 티어(Top-Tier) 의료기기 기업들과의 공동 프로젝트를 통해 방사선 암 치료기, 혈관 조영기에 최적화된 제품 개발을 위해 기술 고도화를 진행하고 있다. 또 하드웨어와 소프트웨어, 클라우드 기반 원격 판독으로 이어지는 단계별 서비스 확장을 통해 수익 구조 다변화를 추진하고 있다. 인체용·동물용 의료영상 획득부터 클라우드 영상 통합 관리, 원격 판독, 생성형 AI 솔루션 등 접목한 토탈 플랫폼 구축을 목표로 하고 있다. 시장조사업체 포춘 비즈니스 인사이트에 따르면, 글로벌 의료기기 시장은 만성질환 증가와 디지털 헬스케어 전환 가속화에 힘입어 2025년부터 2032년까지 연평균 6.5% 성장, 약 8천800억 달러 규모로 확대될 것으로 전망된다. 특히 정밀 영상 진단은 전체 사망 원인의 78%를 차지하는 만성질환 관리와 암 조기 진단 수단으로 주목받으며 고성장 분야로 부상하고 있다.

2025.08.06 14:38조민규

KT, AI 영상 공모전 출품작 접수 시작...8월15일까지

KT가 AI 영상 공모전 '2025 KT AI P.A.N' 공식 포스터와 아이덴티티 필름을 공개하며 출품작 접수를 시작한다고 5일 밝혔다. '2025 KT AI P.A.N'은 KT가 주최하고, KT와 한국영화감독조합(DGK)가 공동 주관한다. 자문기관으로는 영화진흥위원회가 참여한다. 공모 부문은 ▲단편영화 ▲숏폼 ▲광고 ▲배우 IP ▲KT 그룹 미디어 IP 등이다. 자유 창작 주제는 물론 kt스튜디오지니, kt밀리의서재, 스토리위즈 등 KT 그룹이 보유한 소설 웹툰 드라마 IP를 활용한 작품도 출품할 수 있다. 또한 AI 영화 '나야, 고준'과 연계해 배우 고준의 얼굴과 음성을 활용한 콘텐츠 출품도 가능하다. 2025 KT AI P.A.N의 공식 포스터와 아이덴티티 필름은 'AI 세상을 내 판으로 만들다'는 공모전의 의미를 담았으며, AI 미디어테크 기업 스튜디오프리윌루전과 협업해 제작됐다. 스튜디오 프리윌루전은 두바이 국제 AI 영화제에서 수상하는 등 글로벌 무대에서 인정받은 국내 AI 영상 전문 제작사다. 지난 7월 공개한 1차 포스터는 고래, 꽃, 광화문, 롤러코스터 등 상징적 오브제를 통해 '아이디어의 폭발'과 '다차원적 상상력의 확장'을 시각화했다. '#축제 #크리에이터 #놀이터 #상상력의 폭발'이라는 키워드를 통해 인간과 AI가 공존하는 창작의 장(場), 즉 '판(P.A.N)'을 표현했다. 새롭게 공개된 2차 포스터는 'AI꾼들의 놀이터, '판(P.A.N)'이 열렸다!'는 콘셉트로 SF 분위기의 상징 조형물을 활용해 AI 시대의 창조성을 재해석했다. 얼굴 형상은 인간의 창작성과 몰입을, 조형물에서 솟아오르는 고리와 곡선 구조는 기술 융합과 상상력의 확장을 의미한다. 아이덴티티 필름은 배우 고준이 출연해 상상과 현실의 경계를 넘나드는 순간을 보여준다. 지하철안에서 시작된 평범한 여성의 상상은 배우 고준의 현실 속 등장으로 광화문 광장 배경의 창작 세계 'P.A.N'으로 확장된다. 누구나 AI로 상상력을 실현할 수 있다는 공모전의 메시지를 담았다. KT는 공정한 심사를 위해 각 분야의 전문가로 심사위원단을 꾸렸다. AI 기술력은 글로벌 IT 테크 기업이, 콘텐츠의 서사성과 작품성은 영화 광고 드라마 감독이, IP 적합성과 상업성은 KT 미디어 그룹과 영화 제작사 전문가가 평가할 예정이다. 최종 심사위원단은 민규동 감독('파과', '허스토리'), 엄태화 감독('콘크리트 유토피아'), 김한결 감독('파일럿'), 박재수 엠씨에이 대표('나야 문희'), 권한슬 스튜디오 프리윌루전 대표, 김영기 디에이프스쿼드 감독 등 10명이다. 수상작은 5개 부문, 총 52편이다. 공모전은 국적, 연령 제한 없이 누구나 응모할 수 있다. 접수는 8월15일까지 KT 닷컴 이벤트 페이지 내 'KT AI P.A.N' 공식 페이지에서 받는다. 수상작 발표와 시상식은 9월 10일경 열린다. 자세한 내용은 KT 닷컴 공지사항과 공식 블로그에서 확인할 수 있다. 김채희 KT 미디어부문장은 “KT는 그룹사 및 파트너사의 다양한 콘텐츠 IP와 첨단 AI 기술을 융합해 새로운 형식의 영상 창작을 장려하고자 한다”며 “누구나 상상력을 펼칠 수 있는 창작의 장 'P.A.N'을 열어가겠다”고 말했다.

2025.08.05 09:25박수형

조성익 텔레픽스 대표 "위성제작· AI 영상 분석으로 세계시장 도전"

우주 인공지능(AI) 종합 솔루션 스타트업 텔레픽스(TelePIX, 대표 조성익)가 폭발적인 성장세로 주목받고 있다. 지난 2019년 설립이후 위성 프로젝트만 11건에 누적 수주액이 405억 원에 이른다. 성장세 기저에는 10년 이상 위성 개발에 참여해온 전문 연구진과 최근 주목받는 AI 연구진이 포진해 있다. 6명의 직원으로 시작한 인력이 5년새 13배, 80여 명으로 늘었다. 최근 서울 텔레픽스 본사에서 조성익 대표를 만났다. 조 대표는 편한 청바지에 후드티 복장으로 나타났다. 작업하다 나왔다고 했다. '일밖에 모르는' 장인정신 같은 고집스러움과 '단단한' 자신감이 느껴졌다. 오는 2040년 3천 547조 원에 이를 것으로 예측되는 '우주경제'에 당당하게 도전장을 내민 대한민국 대표 스타트업이기에 더 그랬다. 텔레픽스는 뉴스페이스 시대를 선도하는 대표 기업으로 성장하는 것이 목표다. 인공위성 눈에 해당하는 광학 탑재체 및 AI기반 위성 데이터 분석 솔루션이 비즈니스 기반이다. 최근엔 국방, 농업, 자원, 해양 등 다방면에서 '우주 경제(Space Economy)'라는 새로운 가치를 창출하고 있다. 조 대표가 위성 정보에 관심을 갖게 된 계기는 지난 2013년으로 거슬러 올라간다. 프랑스 에어버스 파견 때 위성분석 창업 "꿈" "2013년께 KIOST(한국해양과학기술원)에서 근무하며 프랑스 에어버스로 파견 근무를 2년정도 나간 적이 있습니다. 당시 미국과 유럽 중심으로 위성관련 민간 업체들이 생기기 시작했어요. 몇 년 뒤엔 한국에도 이런 업체가 생길 것 같았습니다. 기회가 올 것으로 판단했지요." 조 대표는 "본래 대학원을 마치고, 개인적으로 위성 만들고 데이터 분석하는 일을 하고 싶었다. 하지만, 그 시절에는 공공기관 외에는 그런 일을 하기 어려웠다"고 당시를 회상했다. 프랑스로 파견간 것이 결국 그에겐 천재일우의 기회가 됐다. "천리안 위성을 개발해야 하는데, 당시 우리나라 기술력으로는 어려웠습니다. 국제협력이 불가피했습니다. 프랑스 에어버스와 한국항공우주연구원이 중심이 돼 위성을 개발하고, 우리는 천리안 위성에 들어가는 해양 탑재체를 개발했어요. 해양 관측 카메라입니다. 이 부분은 당시 해상수산부가 예산을 지원했습니다." 텔레픽스가 주력하는 분야는 크게 2개다. 위성 영상 분석과 위성 개발이다. 비즈니스 관점에서 봤을 때 고객이 원하는 데이터를 얻기 위해 위성을 쏘아 올려 촬영을 해야 한다. 또 이 촬영 데이터를 분석하는 것이 기본이다. 텔레픽스는 위성 하드웨어 개발부터 부품까지 직접 제작한다. 직접 만들면 단가를 낮출 수 있다. 또 다른 이유는 위성 관련 부품 대부분이 전략 품목으로 분류돼 부품 수입이 어렵기 때문이다. "최근 국방분야에서도 중국산 논란이 있었는데, 텔레픽스는 카메라 경우 이미지 센서를 제외한 광기계부와 텔레스코프부, 전자부 등을 모두 직접 설계합니다. 중국산이 싼 부품도 있으나 위성은 전략 물자로 분류돼 있습니다. 중국산 부품이 들어가면 위성 카메라 자체도 수출이 안 되고 거기서 나온 데이터도 사실은 수출하기 힘든 면이 있습니다. 특히, 미국 비즈니스가 어렵습니다." 텔레픽스가 데이터를 생산하는 탑재체 카메라 중심으로 직접 설계 및 제작하고, 위성 탑재체 카메라에서 촬영한 데이터를 분석 및 가공하는 역량을 자체적으로 갖춘 배경 가운데 하나다. 심우주 탐사용 자율항행 내비게이션 시스템으로 승부 텔레픽스 주력 제품은 테트라플렉스다. 국내 최초로 엔비디아 GPU을 탑재했다. 이는 우주탐사선 두뇌에 해당하는 제품이다. 텔레픽스는 또 눈에 해당하는 솔루션을 개발 중이다. 이 두 제품을 합쳐 놓은 것이 심우주 탐사용 자율 항행 내비게이션 시스템이다. 조 대표는 "엔비디아가 산업용으로 만든 걸, 우주 환경에서 운영될 수 있도록 위성용 AI 엣지컴퓨터로 개발해 우주용으로 활용 중"이라며 "지난 2024년 8월 16일 발사해서 대략 10개월 정도 성공적으로 운용 중"이라고 언급했다. 텔레픽스는 지난 달에도 테트라플렉스와 심우주항법용 차세대 AI 별추적기를 스페이스X 팰콘9으로 우주궤도에 올려 보내 성공적으로 운용하고 있다. "사실 1970년대엔 달탐사선 등을 사람이 조종했어요. 무게와 에너지 소모량 등에 비춰봤을 때 사람이 더 경제적이었으니까요. 우주 탐사선 가운데 하나는 얼마 전까지 88세 할머니가 혼자 몇십 년 동안 운영했어요. 어쩌다 한 대니까 가능한 일이지요." 지금은 턱도 없다. 1970년대 발사된 보이저호만 해도 딥스페이스 네트워크라고 해서, 미항공우주국(NASA) 운영팀들이 조정 중이다. 특히, 스페이스 엑스 계획에 따라 화성으로 이주 탐사선을 많이 보내게 될 경우만 해도 사람이 발사와 운항 등을 모두 제어한다는 것은 불가능하다. "딥스페이스 네트워크 자체도 포화 상태에 이르렀기 때문에 앞으로 우주탐사를 제대로 하려면 테슬라의 자율주행차처럼 우주 탐사선도 자율주행을 해야 할 것입니다. 이를 위해선 반드시 영상을 확보해야 하고, 영상을 자율 처리할 수 있는 텔레픽스의 테트라플렉스가 바로 그런 한계에 도전 중인 제품이라 할 수 있습니다." 조 대표는 심우주항법용 차세대 AI 별추적기에 대해서도 설명했다. 이 추적기는 심우주 환경에서 정확한 위치 추정 및 궤도 결정을 위해 설계된 고정밀 영상항법 시스템이다. 광시야 카메라와 고성능 영상처리 알고리즘을 결합해 별과 행성 위치를 실시간 추적하고 이를 기반으로 위성 위치와 속도를 정확하게 파악한다. 지상국과 통신없이 자체적으로 우주를 항행할 수 있어 향후 지상 기반 시설이 포화상태에 이를 경우와 심우주 탐사에 유용하게 사용될 수 있을 것으로 조 대표는 기대했다. 텔레픽스는 현재 위성용 온보드 AI 프로세서인 '테트라플렉스'와 별추적기를 결합해 우주 공간에서 실시간 AI 영상처리가 가능한 '심우주탐사용 자율항법 AI솔루션'으로 고도화를 진행중이다. LLM·위성영상 결합해 서비스 진행 텔레픽스는 지난 지난 1월 큐브 위성 '블루본(BlueBON)'도 우주궤도에 진입시켜 정상 운용 중이다. 무게가 15kg 정도인 6U(가로, 세로, 높이가 각각 10cm 짜리 6개) 큐브 위성이다. '블루본'은 워낙 넓어 드론이나 비행으로 관찰이 어려운 해조류 양식장 같은 해역의 이산화탄소 흡수량 등을 계산하는데 유용하게 활용할 수 있다. 카본 크래딧(탄소거래)을 위해 마이크로소프트나 아마존 같은 글로벌 대기업들이 요즘 구매하는 해조류 양식장 이산화탄소 분석용으로 안성맞춤인 셈이다. "위성이 작다보니, 내재된 카메라도 작습니다. 초점 맞추는 것이 어렵지요. 특히, 우주 공간은 진공이어서 온도 예측 및 조절이 어렵습니다. 구조체 수축과 팽창 때문에 초점이 틀어집니다. 텔레픽스는 이러한 악조건에서도 선명한 영상을 얻을 수 있는 방법을 솔루션에서 찾았습니다.사실 큐브위성엔 초점 조절 메카니즘을 넣을 공간이나 전력 확보가 어렵습니다. 난이도가 좀 있습니다." 비즈니스 차별화 전략에 대해서도 들어봤다. 최근 우주 스타트업에 관심을 갖는 기업들이 증가하고 있다. 조 대표는 "고객이 원하는 성능까지 끌어 올리기 위해 인공지능(AI) 기반 하드웨어로 제작한다. 위성 영상 분석도 AI 모델을 만들어 활용한다"며 "여기서 한 발 더 나아가 '샛챗(SatCHAT)'이라는 챗gpt 같은 LLM(대형 언어 모델)과 위성 영상을 결합해 서비스 하고 있다"고 말했다. 초등학생도 자기가 원하는 위성 영상을 바로 찾아 분석하고 결과를 얻을 수 있는 범용성이 강화된 솔루션을 서비스 중이다. "텔레픽스는 위성 안에서 AI 프로세싱이 가능한 하드웨어를 국내 최초로 만들었습니다. 실제 지난해 위성에 탑재해 성능 검증도 마쳤습니다." 텔레픽스는 현재 미국과 유럽으로 민간 우주 기업과의 협력을 통해 수출을 진행 중이다. 동남아와 POC(개념증명) 계약을 마무리했다. 중동과는 수출 협의를 진행 중이다. 텔레픽스는 5년 내 마이크로 위성(100~200kg급)으로 세계 시장 점유율 1위를 달성하는 것이 목표다. "아프리카나 중남미, 동남아 등을 자주 다니는데, 특히 중국과 경쟁하려면 성능 차별화도 차별화지만, 가격 경쟁력 확보가 매우 중요합니다. 또 중국 부품을 쓰지 않으면서 어떻게 가격 경쟁력을 확보할 것인가 그런 부분도 많이 고민합니다." ◆ 코스닥 상장 언제하나 텔레픽스는 내년 상반기 코스닥 상장을 목표로 세웠다. 현재 순조롭게 진행 중이다. 주관사는 지난해 11월 미래에셋증권을 선정했다. 지난 주엔 일본 투자회사 엘리펀트 디자인 홀딩스로부터 전략적 투자도 받았다. 서울 본사는 영등포구 농협재단빌딩 18층이다. 이 곳에서는 주로 위성 관련 소프트웨어를 개발한다. 2022년 지은 대전 공장에서는 위성 하드웨어 제조 및 테스트, 설계가 이루어지고 있다. 규모는 200평 정도다. 자체 위성제작 클린룸 시설을 갖췄다. 연간 무게 200kg급 위성 20대 정도 제작 가능하다. 이 위성에 탑재되는 카메라 해상도는 0.5m급이다. 현재 슈에뜨(Chouette)라는 0.5m급 탑재체를 제작 중이다. 2026년 하반기 코스닥 상장…2027년 '슈에뜨' 카메라 발사 슈에뜨는 프랑스 말로 '올빼미'와 '멋지다(cool)'의 두 가지 의미를 담은 조합어다. 광학 미러를 비축 3반사 구조로 설계해 광시야로 촬영이 가능한 초소형 위성용 고해상도 광학 탑재 체다. 인공위성 관측 폭은 일반적으로 10km 내외로, 폭이 20km인 서울을 촬영하기 위해서는 서 울 상공 두번을 지나야 하지만 슈에뜨는 한 번에 촬영 가능하다. 슈에뜨 관측폭은 24km나 되기 때문이다. 슈에뜨는 지난해 10월 이탈리아 밀라노에서 열린 국제우주대회에서 관심을 끌기도 했다. 발사시기 목표는 오는 2027년 하반기다. 텔레픽스는 한국항공우주연구원과 KAIST 인공위성연구센터 등과 공동 연구도 하고, 기술 등도 이전 받는 등 탄탄한 협력 관계를 구축했다.

2025.07.27 10:54박희범

'AI+영상' 본격화 한 네이버..."트웰브랩스와 협업 언제나 열려있어"

영상에 인공지능(AI) 기술을 더해 실감형 미디어 경험을 확대하기로 한 네이버가 영상이해 인공지능(AI) 개발 기업 트웰브랩스와의 협업 가능성을 시사했다. 확장현실(XR) 콘텐츠 시장으로의 진출도 본격화했는데, 이는 삼성전자의 XR 헤드셋을 통해 이뤄질 전망이다. 김성호 네이버 이머시브 미디어 플랫폼 리더는 지난 16일 경기 분당 네이버1784에서 열린 기자간담회를 통해 “2025년도 미디어 사업 방향성으로 인해 트웰브랩스와 현재는 협업하고 있지 않지만, 2026년이나 그 이후 언제나 가능성을 열어두고 있다”고 말했다. 동영상 전체를 이해해 검색과 연결할 수 있는 AI 기술을 보유한 트웰브랩스의 기술력이 ▲미디어 AI ▲XR 스튜디오 ▲버추얼 스트리밍을 축으로 삼는 네이버의 '비전 트라이앵글' 전략과 맞닿아 취재진 질문이 나왔고 이에 답한 것이다. 트웰브랩스는 영상 검색 모델 '마렝고'와 영상 요약 및 질의응답 모델 '페가수스'를 보유하고 있는 기업이다. 네이버가 해외 투자법인인 네이버벤처스를 통해 지난달 트웰브랩스에 첫 투자를 단행해 업계의 주목을 받았다. 이날 네이버는 영상을 볼 때 사용자 몰입감을 높이기 위해 '이머시브 미디어 플랫폼'을 확대 구축하고 영상의 맥락을 심층적으로 이해하는 AI 기술인 '뮤(MU)Ai' 플랫폼과, 텍스트 콘텐츠를 영상으로 자동 변환해주는 '오토클립Ai' 연내 출시 계획을 밝히기도 했다. 여기에 안드로이드 운영체제(OS)를 기반으로 한 XR 콘텐츠 플랫폼을 준비 중이라고 소개하기도 했다. 출시되는 XR 플랫폼이 삼성전자의 XR 헤드셋인 '프로젝트 무한'에 탑재되는 것이냐는 질문에 오한기 네이버 리얼타임 엔진 스튜디오 리더는 “프로젝트 무한에 포함된다”며 “정식 서비스 명칭이 결정되지 않았지만 주력 콘텐츠는 '치지직'이 될 가능성이 될 가능성이 높다”고 답했다. 프로젝트 무한의 출시가 현실화되면 치지직 내 케이팝과 버추얼 스트리밍 콘텐츠를 XR로 즐길 수 있게 된다. 현재 삼성전자는 프로젝트 무한을 연내 출시하기 위해 개발에 박차를 가하고 있다.

2025.07.17 15:29박서린

상상만 하면 AI가 '뚝딱'...네이버 실감형 미디어 기술 엿보니

카메라 앞에 선 우주인이 인사를 건넨다. 그 뒤로 펼쳐진 배경은 현실이 아닌, 네이버가 만든 가상 공간. 이제 영상 속 장면은 사람이 아닌 AI가 구성하고, 텍스트 한 줄로도 숏폼 영상이 자동 생성된다. 네이버가 AI 기술을 일상으로 확장하는 '온서비스 AI' 전략을 영상 콘텐츠 생태계로 본격 확장하며, 올해 안에 다양한 영상 기술과 확장현실(XR) 콘텐츠 플랫폼 공개를 예고했다. 16일 네이버는 경기 분당구에서 기자간담회를 열고 '이머시브 미디어 플랫폼' 확대 구축과 함께 이같은 사실을 알렸다. 버추얼 콘텐츠 경험 확대가 미디어 업계 화두로 부상함에 따라 네이버는 독자 구축한 ▲미디어 AI ▲XR 스튜디오 ▲버추얼 스트리밍 등 '비전 테크 트라이앵글 기술'을 바탕으로 서비스 전반에 실감형 미디어 경험 확대에 나설 계획이다. 연내 영상에 AI 접목한 플랫폼·기술 출시…텍스트를 영상으로 변환 네이버는 실감형 미디어 경험 확대를 위해 AI 기반 영상 콘텐츠 플랫폼과 기술을 선보인다. 먼저, 영상의 맥락을 심층적으로 이해하는 AI 기술인 '뮤(MU)Ai' 플랫폼을 연내 확대해 공개할 예정이다. 해당 플랫폼은 저작권 관리, 유해 콘텐츠 및 저품질 영상 감지 기능을 기반으로 한층 고도화됐다. 올해는 영상 이해 기술의 범위를 확대해 영상의 챕터를 구분하고 설명을 제공하는 오토 챕터 기술, 분위기·장소 등 영상의 세부 내용을 분석하고 메타 데이터화 해 네이버 피드의 추천을 고도화하는 등 사용자 경험을 개선한다. 해당 플랫폼에는 여러 AI 모델과 이미지 처리 기술이 유형별로 내재화 돼 있어 비용 경쟁력도 확보했다는 것이 네이버 측 설명이다. 텍스트 콘텐츠를 영상으로 자동 변환해주는 '오토클립Ai'도 내놓는다. 멀티모달 초거대언어모델(LLM)을 활용해 블로그 맥락을 이해하고 요약해 숏폼에 최적화된 내용을 자동 생성하는 기술이다. 음성, 배경음악 등 내용에 맞는 편집 기법을 자동 적용해 최적화된 콘텐츠를 생성한다. 비전 스테이지서 가상화면·실제화면도 연동한다 네이버는 이날 확대 구축한 이머시브 미디어 플랫폼 구현의 대표 사례로 '비전·모션 스테이지'를 제시했다. 비전 스테이지와 모션 스테이지는 각각 다양한 주제에 맞춰 초현실화한 가상 배경을 제공할 수 있는 스튜디오, 고품질 3D 콘텐츠를 제작하고자 하는 치지직 스트리머들이 활용할 수 있도록 전문 기술력과 인력 등을 지원하는 스튜디오를 일컫는다. 그 중에서도 비전 스테이지는 ▲커머스부터 ▲드라마나 ▲영화까지도 제작 가능할 정도로 활용도가 높은 것이 특징이다. 현재 많이 제작되고 있는 콘텐츠는 라이브 커머스이며 무한도전 등 치지직의 오리지널 콘텐츠에도 활용되고 있다. 모션 스테이지는 캐릭터에 움직임을 부여하고 가상 배경을 혼합해 끊김 없는 실시간 방송이 가능하다. 이날 현장에서는 시연도 이뤄졌다. 비전 스테이지에서는 카메라 트래킹 기술이 적용돼 실제 촬영 시점과 가상 화면이 실시간으로 연동되는 장면을 볼 수 있었다. 고해상도 LED 디스플레이에 모습을 드러낸 후 사라진 우주인이 카메라 트래킹 기술이 적용된 화면에서는 오한기 네이버 리얼타임 엔진 스튜디오 리더와 인사하는 장면이 연출되기도 했다. 오 리더는 “비전 스테이지는 지난해 완공된 스튜디오로 사람이 많이 만드는 그래픽을 통해서도 콘텐츠를 만들지만 생성형 AI 이미지를 통해서도 다양한 콘텐츠를 단시간에 빨리 만들 수 있다”며 “실제로 콘텐츠가 나오는 속도가 짧기 때문에 브랜드가 원하는 콘텐츠를 즉각적으로 확보할 수 있다는 장점이 있다”고 설명했다. 이같은 미디어 기술 고도화 다음 목표로 네이버는 XR 콘텐츠 시장을 들여다보고 있다. XR은 ▲증강현실(AR) ▲가상현실(VR) ▲혼합현실(MR)을 포괄하는 기술로 네이버는 안드로이드 운영체제 기반의 XR 콘텐츠 플랫폼을 준비하고 있다고 언급하기도 했다.

2025.07.17 13:53박서린

트웰브랩스, 아마존 베드록에 '영상 AI' 공급…韓 AI, 글로벌 주류 '진입'

세계 주요 클라우드 플랫폼이 생성형 인공지능(AI) 확장에 나서는 가운데 트웰브랩스가 회사의 영상 AI 모델을 아마존에 공급하며 글로벌 시장 공략을 본격화했다. 트웰브랩스는 회사의 초거대 영상 AI 모델 '마렝고'와 '페가수스'를 아마존웹서비스(AWS)의 완전관리형 서비스 '아마존 베드록'을 통해 제공한다고 16일 밝혔다. 국내에서 개발된 파운데이션 모델이 글로벌 AI 플랫폼에 공식 편입된 건 이번이 처음이다. 아마존 베드록은 개발자가 단일 응용 프로그램 인터페이스(API)로 여러 AI 모델을 호출할 수 있는 플랫폼으로, 메타, 엔트로픽, 딥시크, 미스트랄AI 등 주요 AI 기업의 모델을 포함하고 있다. 트웰브랩스는 베드록 내에서 영상 이해 AI를 제공하는 유일한 서드파티 기업으로, 아마존 자체 모델인 '노바'를 제외하면 독점적 위치에 있다. 이번 공급을 통해 전 세계 AWS 고객들은 별도의 인프라 구축 없이 영상 내 객체, 행동, 배경음 등 다양한 요소를 자연어로 탐색할 수 있는 트웰브랩스의 모델을 활용할 수 있다. 영상 분석, 하이라이트 제작, 콘텐츠 태깅 등의 작업이 자동화돼 영상 기반 산업의 업무 생산성을 높일 수 있는 기반이 마련됐다. 트웰브랩스는 모델이 영상 분석 시간 단축 외에도 기업 내부의 아카이브 자산을 구조화하거나 마케팅과 서비스에 쓰이는 짧은 형식의 2차 콘텐츠를 제작하는데 쓰일 수 있다고 밝혔다. 활용 가능한 산업은 미디어, 스포츠, 엔터테인먼트 전반으로 확장된다. 실제로 북미 최대 스포츠 엔터테인먼트 기업인 메이플리프스포츠앤엔터테인먼트(MSLE)는 트웰브랩스 모델을 도입해 콘텐츠 제작 시간을 16시간에서 9분으로 줄였다. 트웰브랩스는 이를 통해 '데이터로서의 영상' 활용이 본격화될 것이라고 전망했다. 업계에서는 트웰브랩스의 아마존 베드록 진입을 '소버린 AI'의 실질적 구현 사례로 평가한다. 기존의 소버린 AI 개념이 국산 기술의 국내 활용에 머물렀다면 트웰브랩스는 글로벌 공급망 안에서 국산 AI가 주도권을 확보할 수 있음을 입증한 셈이다. 이재성 트웰브랩스 대표는 "이번 아마존 내 모델 공급 개시로 영상 데이터의 새로운 가치를 창출해 고객사의 비즈니스 성장에 기여할 것"이라며 "AWS와 지속 협력해 전 세계 기업들이 국산 영상 AI를 사용하는 진정한 소버린 AI를 실현하겠다"고 밝혔다.

2025.07.16 16:09조이환

시각효과 '멋집' 덱스터스튜디오..."韓 반지의제왕·아바타 만들고파"

'오징어 게임 시즌3'·'하얼빈'의 디지털색보정·음향뿐 아니라, 최근 tvN 화제의 드라마인 '견우와 선녀' 시각효과(Visual effects, VFX)를 맡아 주목 받는 회사가 있다. 바로 3D VFX 전문 기업 덱스터스튜디오다. 영화 '신과 함께', 넷플릭스 오리지널 '기생수 더 그레이'·'경성 크리처'도 이 회사의 기술이 녹아든 작품이다. 2012년 설립된 덱스터스튜디오는 자체 R&D연구소를 갖추고 있을 만큼, 고품질 영화·온라인동영상플랫폼(OTT) VFX 영역에서 견고한 전문성을 쌓아왔다. 이 회사는 자체 VFX 소프트웨어 80여개를 보유 중이며, 사내에서 연구·개발(R&D)을 전담하는 인력만 약 15명을 갖추고 있다. R&D 연구소의 AI 전담팀은 크게 '아티스트'와 '엔지니어' 그룹으로 나뉘는데, 아티스트는 AI 기술과 노하우를 바탕으로 고품질 이미지와 영상을 만들어낸다. 엔지니어는 최신 AI를 조사·연구하고 기술적인 지원을 통해 아티스트가 원하는 결과물을 구현하는 역할을 한다. 기자는 최근 서울 마포구 상암동에 위치한 덱스터스튜디오와 덱스터 R&D 연구소를 찾아 영상물에 VFX가 어떻게 입혀지는지, 나아가 AI 기술이 영상물 제작에 어떤 도움과 효과를 주는지 직접 살펴봤다. 아울러 버추얼 휴먼 시연도 살펴보고, 직접 포토그래메트리(사진 기반 3D 모델 생성 기술) 3D 스캔 체험까지 해봤다. 이어 송재원 덱스터 R&D 연구소장과의 인터뷰를 통해 덱스터 R&D 연구소의 기술력과 비전 등을 들어봤다. 모션 캡처 스튜디오부터 전신 3D 스캐너까지...영상 기술의 모든 것이 한 곳에 먼저 덱스터스튜디오가 있는 상암 DDMC 1층 한편에는 덱스터 R&D 연구소가 있다. AI 전담팀이 근무하는 이곳에는 몸에 부착된 센서를 활용해 인체의 움직임을 디지털 좌표 형태로 기록하는 모션 캡처 스튜디오가 갖춰져 있다. 현장에서 가장 먼저 기자는 덱스터스튜디오의 AI 리에이징(에이징+디에이징) 기술 시연을 감상했다. PC 모니터 화면에서 한 배우의 얼굴이 분할된 화면에서 동시에 보였는데, 왼편에는 현재의 얼굴이 오른쪽에는 나이든 얼굴이 보였다. 이 기술은 영상 속 인물의 얼굴을 어리게도, 늙게도 할 수 있는데 별도의 학습 데이터를 다량 확보하지 않고도 단 시간 내 4K 영화에 활용가능한 수준의 결과물 도출이 가능하다. AI 기술을 활용해 영화·드라마·뮤직비디오 속 인물의 나이를 손쉽게 바꿀 수 있는 기술이어서 활용도가 높아보였다. 또 위층 덱스터스튜디오 본 사무실에는 ▲인물 얼굴의 3D 스캔을 초당 24~60회 이상까지 수행할 수 있는 고품질 스캔 장비 '페이셜 4D 스캐너'와 ▲인물 전신 3D 스캔 데이터를 얻을 수 있는 '전신 3D 스캐너' ▲인물 얼굴에 대한 상세 3D 스캔 데이터를 얻을 수 있는 '얼굴 3D 스캐너' ▲영화·드라마 등에 필요한 소품의 3D 데이터를 정확하게 획득할 수 있는 '사물 3D 스캐너' 장비 등이 있다. 이 중 기자는 얼굴 3D 스캐너를 직접 체험해봤다. 안경을 벗고 머리띠로 얼굴로 쏟아지는 머리카락을 밀어 올린 후 50여대의 DSLR 카메라로 둘러싸인 의자에 앉았다. 의자 높낮이 조절 후, 하나·둘·셋 소리와 함께 강력한 플래시가 터지며 주변을 둘러싼 모든 카메라의 셔터가 열렸다 닫혔다. 그렇게 촬영된 이미지는 PC를 통해 몇 분만에 3D 모델링 이미지로 변환됐다. 기자의 얼굴이 3D 입체적인 이미지로 꾸밈없이 구현돼 차마 눈뜨고 보기 힘들었는데, 잠시 후 같은 방식으로 촬영된 꽃미남 가수 OOO의 이미지가 비교 샘플로 띄워져 민망함은 배가 됐다. “3D 스캔은 거짓말을 하지 않는다”는 스캔 엔지니어의 멘트가 조용히 가슴에 와 박혔다. '반지의 제왕'·'아바타' 같은 디지털 휴먼을 우리 작품에도 구현할 그 날까지 이런 최신 기술과 노하우가 녹아든 VFX R&D를 진두지휘하는 송재원 소장은 KAIST에서 석·박사를 컴퓨터 그래픽스로 전공하며 디지털 휴먼과 모션 캡처 분야에서 전문성을 높여왔다. 우리나라 작품에는 3D VFX가 부분적으로만 사용되지만, 언젠가는 할리우드 영화처럼 작품 처음부터 끝까지 디지털 휴먼 캐릭터가 등장하는 작품을 만들어 보고 싶다는 게 그의 꿈이다. 현재까지는 기술적 어려움과 자본의 한계가 있었으나, AI 기술의 발달로 이런 문턱이 점차 낮아질 것으로 기대했다. 송 소장은 “디지털 배우가 국내 영화에 주연으로 나온 경우는 없었다. 배우를 잠깐 교체(스왑)한다든지, 잠시 디지털 배우를 사용하는 장면은 만들 수 있었지만 반지의제왕 골룸 같은 캐릭터는 없었다”면서 “덱스터는 이런 한계를 뚫기 위한 시도들을 하고 있으며, 이와 유사한 수준의 프로젝트를 수행하고 있다. 할리우드에서 제안이 들어온다면 바로 착수할 수 있는 파이프라인도 갖추고 있다”고 설명했다. 또 덱스터스튜디오는 대규모 전쟁 장면이라든지 우주와 같은 세트 촬영이 어려운 경우 컴퓨터 그래픽(CG)을 활용해 실감나게 구현할 수 있다고도 강조했다. AI 기술을 활용하면 현실에선 구현이 어려운 배경을 어색하지 않게 고화질 영상으로 만들어낼 수 있다고. 이를 통해 제작사는 제작 단가를 낮춤은 물론, 창작자의 상상을 보다 현실적으로 구현해 낼 수 있게 된다. "고품질 영화·OTT가 주력 시장...AI, 실무와 실전에 잘 녹아들어야" 덱스터스튜디오는 디지털색보정이나 음향과 같은 작업부터, 실제로는 존재하지 않는 인물이나 괴물 등을 CG로 창조해낼 수 있다. 또 이 회사는 생성형 AI 이미지를 VFX에서 활용 가능한 16/32비트 고품질·고색심도 이미지로 변환하는 자체 프로세스를 개발해 제작 파이프 라인에 접목하고 있다. 아울러 이미지에 일부분을 다시 그리는 '인페인팅' 기술과 , 실사 촬영 장면을 분석해 위치·각도 등의 데이터를 가상의 3D 공간으로 추적·복원하는 AI 매치메이션 특허도 보유 중이다. 이 밖에 AI 학습을 통해 촬영된 인물의 얼굴을 다른 인물의 얼굴로 교체하는 'AI 페이스 스왑', 입력된 음성파일을 입모양 움직임으로 AI가 자동 생성하는 기술도 갖고 있다. 특히 더 전문 분야인 SF 또는 크리처 장르인 경우, 덱스터스튜디오는 제작사와 컨셉 아트·캐릭터 스캔 작업을 하는 등 CG VFX 슈퍼바이저 역할을 한다. 촬영 현장에도 출동해 보다 자연스럽고 원활한 CG 작업을 미리 설계하고 조율하기도 한다. 이런 세심한 작업 과정들이 작품의 완성도를 높이고 덱스터를 경쟁사들과 차별화 하는 요소로 보였다. 송재원 소장은 “덱스터의 근본은 고품질을 요구하는 영화 또는 영화급 OTT 시리즈를 주력 시장으로 본다”면서 “미디어 아트 전시 사업도 하는데, 올 10월에는 경주에 신라의 역사와 문화를 체험할 수 있는 상설 미디어 전시관도 문을 열 예정”이라고 소개했다. 10월 말 경주에서 제32차 아시아·태평양 경제협력체(APEC) 정상회의가 예정돼 있어, 회사는 각국 정상을 비롯해 관광객들에게 특별한 경험을 선사한다는 계획이다. 인터뷰 후반부에 송 소장은 AI 기술이 기존 파이프라인에 잘 녹아들어가는 것이 굉장히 중요하다고도 강조했다. AI로 생성된 영상이 기존 촬영분과 이질감 없이 자연스럽게 붙는 기술이 진짜 핵심이란 설명이었다. 송재원 소장은 "단순히 AI를 잘한다고만 되는 것이 아니라, 실무와 실전에 적용될 수 있는 AI와 파이프라인을 갖추는 게 중요하다"면서 "AI 등 기술은 결국 인간의 창작을 돕는 유용한 도구"라고 말했다. 이어 “유명 감독의 고품질 영화를 보고 싶어하고, 감동과 재미를 얻고자 하는 인간의 근본적인 심리는 바뀌지 않는다”며 “이를 위해 덱스터는 기술을 개발하고 계속 차별화를 끌고 나갈 것이다. 반지의 제왕, 아바타급의 디지털 휴먼이 영화 내내 등장하는 작품을 국내에서 꼭 만들어 보고 싶다”고 강조했다. 끝으로 그는 “기술은 어디까지나 아티스들의 창조 역량을 극대화 하는 데 도움을 주는 도구인 만큼, 아티스트들의 창의적인 작업을 지원하는 기술 개발을 이어가겠다”고 다짐했다.

2025.07.16 09:50백봉삼

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

과기정통부, AI 중심 조직 개편 '가속'…정책 컨트롤타워 본격화

"국정자원 화재 초래 서버-배터리 간격 규제해야"

미 연방정부 셧다운에 사이버보안도 '셧다운' 위기

오픈AI 영향력 이 정도?…AI에 진심인 이재명, 43년 묵은 금산분리 '완화' 추진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.