• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'영상 데이터'통합검색 결과 입니다. (7건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

알리바바클라우드 "영상 생성 AI '완 2.5', 경쟁사 모델보다 압도적 가성비"

"현재 인터넷에서 생성되는 콘텐츠의 약 50%를 인공지능(AI)이 만들고 있습니다. 알리바바클라우드는 영상 생성 AI 모델 '완 2.5'를 통해 누구나 합리적인 비용으로 고품질의 비디오와 이미지를 제작할 수 있는 환경을 지원합니다." 알리바바클라우드 임종진 테크 리드는 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 자사의 최신 AI 영상 모델(VLM)인 '완 2.5 프리뷰(Wan 2.5-Preview)'를 소개하며 이같이 강조했다. 임 리드는 이번 발표에 앞서 알리바바그룹의 대규모 투자를 언급했다. 그는 "에디 우 알리바바클라우드 회장이 올해 초 향후 3년 간 AI와 인프라 리소스에 75조원을 투자하겠다고 밝혔다"며 "이 중심에 비디오 파운데이션 모델 '통이(Tongyi)'가 있다"고 설명했다. 이어 "통이 2.6 모델은 이르면 차주 중 공개될 것으로 예상한다"고 덧붙였다. 임 리드는 이날 발표의 핵심인 '완 2.5 프리뷰' 모델의 강력한 멀티모달 기능을 시연했다. 그는 "완 2.5는 텍스트·이미지·오디오·비디오 등의 입·출력을 모두 지원하는 네이티브 다중 모델 프레임워크"라며 "모델 학습 단계에서는 인간 피드백 기반 강화 학습(RLHF)라는 아키텍처를 채택해 자연스러운 결과물을 만들어낸다"고 소개했다. 특히 영상과 음향의 정교한 동기화 기능이 주목받았다. 임 리드는 "탁구공이 튀는 소리나 스키를 탈 때 얼음이 갈리는 소리까지 영상과 거의 정확히 일치시킬 수 있다"며 "한국어 립싱크 또한 어색함 없이 구현 가능하다"고 설명했다. 기존 이미지 생성 AI의 고질적인 문제였던 '텍스트 렌더링' 능력도 대폭 개선됐다. 임 리드는 "한글이나 영어 텍스트가 깨지지 않고 정확하게 생성된다"며 "복잡한 시스템 아키텍처 다이어그램이나 플로우 차트까지 전문가급으로 그려낼 수 있어 업무 활용도가 높다"고 강조했다. 임 리드는 경쟁사 대비 압도적인 '가성비'를 완 모델의 최대 강점으로 꼽았다. 그는 "720p 해상도의 10초 영상을 생성할 때 경쟁사 모델들은 약 3~5달러가 소요되지만, 완 2.5는 단 1달러면 충분하다"며 "대량의 콘텐츠를 발주하면 추가 할인이 제공될 수 있어 비용 절감에 크게 도움될 것"이라고 자신했다. 기업 실무자를 위한 구체적인 활용 팁도 제시했다. 임 리드는 "단순한 명령어보다는 조명·카메라 구도·렌즈 종류 등 구체적인 '힌트'를 프롬프트에 포함해야 고품질의 결과물을 얻을 수 있다"고 조언했다. 아울러 자사에서 완 모델로 제작한 영상과 이에 활용된 프롬프트를 예시로 정리한 자료도 공유했다. 임 리드는 "완 2.5 프리뷰는 현재 웹사이트와 API를 통해 바로 사용할 수 있다"며 "알리바바클라우드의 AI 솔루션을 통해 기업들이 비즈니스 혁신을 이루길 바란다"고 밝혔다.

2025.12.11 13:16진성우 기자

2030년 내연차-전기차 가격 같아진다…전기차 주행거리 1500km·충전시간 5분

정부가 전기자동차 기술개발 지원을 강화해 2030년 동급 내연기관 자동차와 동등한 수준의 판매가격을 달성할 계획이다. 또 2030년까지 차량용 반도체 자립화율을 현행 5%에서 10%로 끌어올리기로 했다. 정부는 14일 기아 화성공장 'EVO 플랜트 East 준공과 West 기공식' 이후 김민석 국무총리 주재로 '제2차 미래차 산업전략 대화'를 개최해 이같은 내용을 담은 '세계를 넘어 미래를 여는 K-모빌리티 글로벌 선도전략'을 발표하고 적극 추진하기로 했다. 정부는 우선 미국 자도차 관세 극복과 재도약을 위한 긴급처방으로 내년 자동차 산업을 지원하는 정책금융을 올해 수준인 15조원 이상으로 확대 지원하고 자동차·부품 생산을 위한 원자재 품목은 할당관세를 적용한다. 또 내년 전기차(승용) 보조금도 올해 7천150억원에서 9천360억원으로 대폭확대하고 전기·수소버스 도입을 희망하는 운수사 대상으로 구매융자 사업을 실시한다. 정부는 글로벌 보호무역주의와 국내 기업의 현지 진출 확대에 대응해 국내 400만대+α 자동차 생산량 유지와 생산의 질적 고도화를 위한 정책 지원도 강화한다. 산업통상부는 관계 부처와 함께 친환경차·첨단자동차 부품 등 생산·연구개발(R&D)·투자를 위한 인센티브 구조 재설계를 검토하고, 2026년부터 노후차 폐차 후 전기차 구매시 보조금을 최대 100만원 추가 지원하는 등 친환경차 생산 확대를 유도한다. 전기차 기술개발 지원을 강화해 2030년에는 주행거리 1천500km, 충전속도 5분, 동급 내연차와 동등한 수준의 전기차 판매 가격을 달성할 계획이다. 자동차와 부품 제조공정 전 과정에 인공지능(AI) 활용을 확산하고 미래차 AI 팩토리 구축을 위한 금융·컨설팅 등을 지원한다. 한편, 제조 인력이 보유한 현장 노하우를 데이터화해 휴머노이드에 적용하고, 'HTC(Human-Technology Collaboration)-부트캠프'를 통해 근로자와 첨단로봇의 공생을 위한 '일터 혁신'을 추진한다. 산업부는 2035 NDC 목표가 발표됨에 따라 향후 친환경차 보급이 본격화할 것으로 보고 자동차 부품기업의 미래차 전환을 선제적으로 지원한다. 2030년까지 미래차 전문기업을 200개 지정하고 내연차 부품기업의 70%가 미래차 부품기업으로 전환하는 것을 목표로 금융·R&D 등을 집중지원한다. 또 '산업 GX R&D'를 통해 부품기업의 미래차 전환 R&D를 지원한다. 2033년까지 기업·대학 등과 연계해 AI·자율주행 전문인력 등 미래차 전문인력을 7만명 육성한다. 정부는 2030년까지 미-중 자율주행 기술을 따라잡기 위한 기술개발을 집중지원한다. E2E-AI 자율주행 소버린 기술을 확보하기 위해 2030년까지 대규모 R&D 기획을 추진하는 한편, 기존의 인지·판단·제어 단계별 룰-베이스 자율주행 기술에서 AI 단일 신경망 기반 E2E 기술로 자율주행 기술개발 패러다임을 전환한다. 차량 기능이 SW로 구현되는 SDV 표준플랫폼을 LG 전자·현대모비스 주도로 개발하며, HL클레무브를 앵커기업으로 E2E-AI 자율주행 모델을 2027년까지 개발한다. 차량용 반도체 자립화율을 현 5%에서 2030년 10%까지 끌어올리기 위해 완성차 기업 중심으로 국내 공급망과 시장을 확보한다. AI 모빌리티 종합실증 컴플렉스를 조성하고 AI 자율주행 우수기업에는 그래픽 처리장치(GPU) 활용을 지원한다. 자율주행차 시대를 대비하기 위한 제도개선도 추진한다. 2028년 자율주행차(레벨2+) 본격 양산을 목표로 2026년까지 제도개선을 마무리할 계획이며. 자율주행 데이터 공유 활성화을 위한 가이드라인도 마련한다. 지난 9월 대통령 주재 제1차 규제합리화회의 후속조치로 원본 영상데이터 활용 허용, 임시운행 제한구역 완화, 자율주행 시범 운행지구 확대 등 규제를 우선 개선한다. 또 내년에는 실증범위를 도시 규모로 대폭 확대한다. 산학연 공동으로 '한국 SDV 표준화 협의체'를 구성해 한국형 표준 보급으로 글로벌 표준을 주도하고 SDV 시장을 선점할 계획이다.

2025.11.14 12:37주문정 기자

머스크 xAI, '월드 모델' 개발 착수…AI가 직접 게임 만든다

일론 머스크가 이끄는 xAI가 물리적 공간을 인지하고 설계할 수 있는 차세대 인공지능(AI) '월드 모델' 개발에 나선다. 13일 파이낸셜타임스(FT)에 따르면 xAI는 텍스트 기반 언어모델을 넘어 영상·로봇 데이터를 학습한 AI 기술을 활용해 직접 만든 게임을 내년 공개할 계획이다. 월드 모델은 메타와 구글 등 주요 빅테크가 집중하는 차세대 AI 기술로, 물리적 공간을 이해하고 시뮬레이션하는 능력을 구현하는 것이 목표다. 앞서 xAI는 엔비디아 출신 전문가들을 다수 영입해 영상과 로봇 데이터를 기반으로 실제 환경을 학습하는 AI 모델 개발을 진행 중이다. 특히 이 기술을 활용해 상호작용 가능한 3D 게임 환경을 자동 생성하는 등 게임 산업 적용을 목표로 하고 있으며 향후 로봇 제어 시스템에도 응용할 계획이다. 일론 머스크 xAI 대표는 자사 SNS 플랫폼 X를 통해 "내년 말까지 AI가 직접 생성한 게임을 선보일 것"이라고 밝혔으며 최근 대규모 업그레이드를 거친 이미지·영상 생성 모델을 무료로 공개하기도 했다. 현재 오픈AI의 '소라'와 같은 영상 생성 AI는 학습 데이터를 기반으로 연속된 이미지 프레임을 예측하는 수준이다. 이에 반해 월드 모델은 물리 법칙과 사물 간 상호작용을 실시간으로 이해해 훨씬 높은 수준의 현실 시뮬레이션을 가능케 하는 것으로 알려졌다. xAI는 이미지·비디오 생성 엔지니어를 포함해 다양한 멀티모달 콘텐츠 제작 인력을 모집 중이다. 특히 자사 AI 챗봇 '그록'에게 게임 제작을 학습시키는 업무 담당자도 채용하고 있다. xAI를 비롯한 구글·메타 등이 월드 모델 개발에 집중하는 가운데, 업계에서는 실제 세계를 묘사할 데이터 확보와 막대한 비용 문제 해결을 주요 과제로 꼽고 있다. 라리안 스튜디오의 마이클 다우스 퍼블리싱 총괄은 "AI가 게임 산업의 가장 큰 문제인 리더십과 비전을 해결해 주진 못한다"며 "수학적으로 계산된 게임 루프보다 사람들이 진심으로 몰입하고 싶어 하는 세계를 표현하는 것이 더 중요하다"고 말했다.

2025.10.13 14:43한정호 기자

코오롱베니트, AI 얼라이언스와 '영상 비식별 솔루션' 출시…개인정보 규제 대응

코오롱베니트가 '인공지능(AI) 얼라이언스' 생태계를 주도하며 산업 분야별 전문기업과 함께 특화 서비스 개발에 박차를 가한다. 코오롱베니트는 인피닉과 협력해 CCTV 영상정보 비식별처리 솔루션을 출시한다고 15일 밝혔다. 이는 코오롱베니트가 인피닉의 AI 비식별처리 솔루션 '하이디 AI'와 해당 솔루션의 성능을 높일 하드웨어(HW)를 결합해 고객 활용도를 높인 프리패키지 제품이다. 코오롱베니트가 AI 얼라이언스 참여사와의 협력을 통해 개발하고 있는 프리패키지는 AI 기능을 손쉽게 도입할 수 있도록 소프트웨어(SW)·HW·기술 요소를 통합한 패키지형 솔루션이다. 빠르게 진화하고 있는 AI 기술을 활발히 수용하고 있는 캠퍼스, 오피스, 건설·제조 현장에서의 다양한 고객 수요에 주목한 코오롱베니트는 지난달 첫 프리패키지 3종을 출시했으며 앞으로도 지속적으로 신제품을 개발할 예정이다. 인피닉의 하이디 AI는 이미지와 동영상 속 개인정보를 AI로 자동 비식별화하는 서비스를 제공한다. 얼굴이나 차량 번호판 등 민감 정보를 블러 처리해 개인정보를 보호하면서도 데이터 품질을 유지해 활용성을 높인다. 특히 이 제품은 정보보호 국제표준을 반영해 유럽의 GDPR과 AI 액트, 미국 CCPA·CPRA, 일본 APPI 등 글로벌 개인정보보호 규정에도 대응할 수 있도록 설계됐다. 코오롱베니트는 저장 영상을 처리하는 솔루션 출시로 모든 시기에 촬영된 영상을 분석할 수 있는 영상 관제 분야 사업 역량을 갖추게 됐다. 지난달 노타와 함께 출시한 실시간 영상 분석 프리패키지 'VLM 영상 관제 솔루션'도 시장에서 확산되고 있다. 코오롱베니트는 인피닉과 협력한 솔루션 출시로 개인정보보호법상 비식별화 의무에 대응해 주택·건물·건설사·시행사 등에서 발생하는 영상 열람 요청에 따른 수동 편집의 복잡성과 비용 문제를 해소할 것으로 기대하고 있다. 또 관리 현장의 부담을 줄이며 신뢰성 있는 AI 학습용 데이터셋의 활용 환경을 마련하는 측면에서 시장성 역시 높다는 판단이다. 비식별처리 데이터는 드론·자율주행과 같이 영상 데이터와 관련한 명확한 규제가 필요한 신산업 분야에서 활용될 수 있다. 코오롱베니트 강재훈 AX커머스팀장은 "이번 패키지는 영상 데이터 비식별화 분야의 혁신적인 기술을 현장 적용 가능한 서비스로 패키지화해 제공하는 AI 얼라이언스의 협업 사례"라며 "참여사와의 긴밀한 협력으로 시장 수요를 선도하는 AI 프리패키지 제품을 지속적으로 선보일 것"이라고 밝혔다.

2025.09.15 15:50한정호 기자

방송영상으로 2만1000시간 고품질 AI 학습용 데이터 구축

과학기술정보통신부와 한국전파진흥협회는 방송영상 AI 학습용 데이터 구축 사업 지원 대상에 MBC 컨소시엄, MBC충북 컨소시엄, KT ENA 컨소시엄, KBS 컨소시엄 등을 선정했다고 밝혔다. 영상을 생성하는 AI 모델 개발 지원을 위해 방송영상을 활용한 고품질 AI 학습용 데이터를 구축하는 사업으로, 2025년 1차 추경으로 반영되어 신규 추진된다. 지원 대상은 방송법에 따른 방송사업자와 AI, 데이터 기업, 기관 등으로 구성된 컨소시엄으로, 4개 컨소시엄 선정에 12개 컨소시엄이 지원해 3대 1 경쟁률을 보였다. AI, 데이터 등 전문가로 구성된 심사위원회 평가를 통해 우리나라 고유의 가치, 특성이 반영된 방송콘텐츠를 기반으로 한 AI 학습용 데이터 구축 및 활용 계획, AI 기술역량 등이 우수한 컨소시엄 4개를 최종 선정했다. 과기정통부는 선정된 4개 컨소시엄에 각각 48억3천만원을 지원하며, 4개 컨소시엄은 저작권 이슈가 해소된 국내 방송영상 원본 총 4만2천시간을 활용해 총 2만1천시간의 고품질 방송영상 AI 학습용 데이터를 구축한다. MBC 컨소시엄은 버추얼 스튜디오 등 다양한 방송콘텐츠 제작 환경에서 사용될 배경영상을 생성하는 AI의 학습용 데이터를 구축한다. 보도, 시사 교양, 예능, 드라마 등 1만시간의 원본 영상을 활용해 3천633시간의 영상데이터, 49만2천건의 이미지데이터 등 총 5천시간 분량의 AI 학습용 데이터를 구축한다. 지역MBC 15개사가 참여하는 MBC충북 컨소시엄은 우리나라 각 지역의 고유한 문화와 생활양식 등을 반영한 이미지와 영상을 생성하는 AI의 학습용 데이터를 구축한다. 보도, 시사 교양, 다큐 등에서 각 지역의 다양한 자연 풍경, 생활 문화, 역사 사회 등과 관련된 1만2천시간의 원본 영상을 활용해 3천600시간의 영상데이터, 84만2천00건의 이미지데이터 등 총 5천940시간 분량의 AI 학습용 데이터를 구축한다. KT ENA 컨소시엄은 감정이 표현되는 우리나라 인물, 우리나라 배경, 예능 자막 등을 생성하는 AI의 학습용 데이터를 구축한다. 예능, 시사 교양, 다큐 등 1만시간의 원본 영상을 활용해 3천600시간의 영상데이터, 50만4천건의 이미지데이터 등 총 5천시간 분량의 AI 학습용 데이터를 구축한다. KBS 컨소시엄은 촬영구도와 편집 자동화, 사극 시대극에서 활용되는 소품을 3D로 생성하는 등 방송콘텐츠 제작에 필요한 AI의 학습용 데이터를 구축한다. 보도, 예능, 다큐, 스포츠 등 1만 시간의 원본 영상을 활용해 4천500시간의 영상데이터, 1천500건의 3D데이터, 20만건의 이미지데이터 등 총 5천67시간 분량의 AI 학습용 데이터를 구축한다. 이 사업을 통해 구축된 데이터는 AI 모델 개발 등에 활용된다. 각 컨소시엄은 데이터를 활용해 방송제작 현장에 필요한 특화 AI 개발 및 적용을 지속 추진한다. 아울러, 구축된 데이터는 독자 AI 파운데이션 모델 프로젝트에 선정된 정예팀 요청 시 제공되고, AI 허브 내 안심존 등에 연구교육용 AI 개발을 위해 활용될 수 있도록 약 10~35% 이상 개방될 예정이다. 배경훈 과기정통부 장관은 “데이터는 GPU와 함께 AI 모델 개발의 핵심 연료로 그 중요성이 커지고 있다”며 “우리나라 인물, 사회, 역사, 자연 등이 풍부하게 담겨 있는 고품질 방송영상은 독자 AI 모델을 위한 최적의 데이터”라고 말했다. 이어, “방송영상이 AI 데이터로 적극 활용되어 방송사가 AI 기술을 다양하게 접목해 제작 효율성을 높임과 동시에 고품질 서비스를 제공하는 기반이 마련되기를 기대한다”고 밝혔다.

2025.08.09 07:40박수형 기자

자율주행·로봇 인식 정확도 "지금보다 2배 개선 가능"

사람의 뇌 신경 전달 원리(시냅스)를 그대로 모사한 로봇 비전 센서가 개발됐다. 자율주행이나 드론, 로봇 등에서 주변 환경 인식이 더 빠르고, 정확해질 전망이다. 다만, 기술 성숙도 측면에서는 2차원 재료 사용으로 기초 단계고, 대신 실리콘 반도체로 상용화를 추진 중이라고 KIST 연구팀은 설명했다. UNIST 신소재공학과 최문기 교수팀은 한국과학기술연구원(KIST) 최창순 박사팀, 서울대학교 김대형 교수팀과의 공동으로 시냅스 모방 로봇 비전 센서를 개발했다고 4일 밝혔다. 비전 센서는 기계의 눈 역할을 하는 부품이다. 센서가 감지한 정보는 뇌의 역할을 하는 프로세서로 전달된다. 정보가 여과 없이 전달되면 전송 데이터가 늘어나 처리 속도가 느려지고, 불필요한 정보로 인해 인식 정확도도 떨어진다. 조명이 급격히 바뀌거나 밝고 어두운 영역이 뒤섞인 상황에서는 이 같은 현상이 더 두드러지게 나타난다. 연구팀은 뇌 시냅스에서 일어나는 도파민-글루타메이트 신호 전달 경로를 모방해 윤곽선처럼 명암 대비가 큰 시각 정보만을 골라낼 수 있는 비전 센서를 개발했다. 뇌에서 도파민이라는 신경전달물질이 글루타메이트 신호의 반응을 조절해 신호 세기를 조절하는 생리 현상을 본떠, 이를 빛에 반응하는 반도체 소자(시냅스 모사 광트랜지스터)에 구현했다. 최문기 교수는 “눈 자체에 뇌의 일부 기능을 부여한 인-센서 컴퓨팅(in-sensor computing) 기술을 적용해 영상 데이터의 밝기와 대비를 스스로 조절하고, 불필요한 정보는 걸러낸다”며“초당 수십 기가비트에 달하는 영상 데이터를 처리해야 하는 로봇 비전 시스템 부담을 근본적으로 줄일 수 있다”고 설명했다. 기존에는 모든 영상 데이터를 CPU나 GPU 같은 외부 프로세서로 전송해 처리하지만, 이 기술은 센서가 내부에서 직접 이미지 밝기와 대비를 최적화하고 중요한 정보만 선별해 남기는 방식이다. 실제 실험 결과, 이 비전 센서는 영상 데이터 전송량을 기존 대비 약 91.8% 줄이면서도, 객체 인식 시뮬레이션의 정확도는 약 86.7%까지 끌어올릴 수 있는 것으로 확인됐다. 이 센서는 게이트 전압에 따라 전류 반응이 바뀌는 광트랜지스터로 이루어져 있다. 게이트 전압은 뇌의 도파민처럼 반응 강도를 조절하는 역할을 하며, 광트랜지스터에서 나오는 전류는 글루타메이트 신호에 해당하는 자극 전달을 모사한다. 게이트 전압을 조절하면 빛에 민감해지기 때문에 어두운 환경에서도 또렷하게 윤곽 정보를 감지할 수 있다. 또 빛의 절대 밝기뿐 아니라 주변과의 밝기 차이에 따라 출력 전류가 달라지도록 설계돼 밝기 변화가 큰 경계면, 즉 윤곽선은 더 강하게 반응하고 밝기가 일정한 배경은 억제된다. 최창순 KIST 박사는 “이번 기술은 로봇·자율주행 자동차·드론·IoT 기기 등 다양한 비전 기반 시스템에 폭넓게 적용할 수 있다”며 “데이터 처리 속도와 에너지 효율을 동시에 높일 수 있어, 차세대 인공지능 비전 기술의 핵심 솔루션으로 활용될 수 있을 것”이라고 기대했다. 최 박사는 "현재 이 기술을 실리콘 반도체 분야에서 이용하는 방안도 함께 모색 중"이라며 "상용화가 이루어진다면, 실리콘 분야에서 먼저 이루어질 것"이라고 부연 설명했다. 최문기 교수는 "별도의 복잡한 연산 장치도 필요없다"며 "이 같은 기술이 실시간 반응성과 에너지 효율이 중요한 차세대 인공지능 비전 기술 핵심 해법으로 주목받고 있는 이유"라고 덧붙였다. 연구는 한국연구재단 우수신진사업, KIST 미래원천반도체기술개발사업, 기초과학연구원 지원을 받았다. 연구 결과는 국제학술지 사이언스 어드밴시스(Science Advances)에 온라인으로 5월2일 게재됐다.

2025.06.04 08:00박희범 기자

메이아이, 3년 연속 '이머징 AI+X 톱 100' 선정

영상처리 AI 솔루션 '매쉬' 개발사 메이아이(대표 박준혁)가 한국인공지능산업협회(AIIA)가 주관하는 '이머징 AI+X 톱 100'에 3년 연속 선정됐다고 7일 밝혔다. 이머징 AI+X 톱 100(Emerging AI+X Top 100)은 AI 기술과 다양한 산업을 융합해 미래 혁신을 주도할 국내 유망 100대 기업을 선정하는 제도다. 메이아이는 성장성, 혁신성 등 기술과 산업의 미래가치에 중점을 둔 정량적·정성적 평가를 거쳐 최종 선정됐다. 2023년 메이아이는 융합 분야 '머신러닝 기반 데이터 분석 솔루션'에 선정된 데 이어, 지난해와 올해 '이미지·영상처리' 기업에 이름을 올렸다. 3년 연속 영상처리 AI 기술의 혁신성과 미래가치를 인정받았다. 메이아이가 운영하는 '매쉬'는 매장에 설치된 CCTV 영상을 활용해 ▲방문객 데이터 분석 ▲매장별 핵심성과지표(KPI) 측정 ▲KPI 달성 및 개선을 위한 인사이트 등을 제공해 오프라인 공간의 데이터 기반 의사결정을 돕는다. 모든 방문객 데이터는 가명 처리돼 개인정보 유출 및 침해로부터 안전하다. 현재 삼성전자, LG전자, CGV 등 방문객 분석에 대한 필요도가 높은 국내 유수의 기업들이 매쉬를 활용해 매장 운영 성과를 정량적으로 측정하고 있다. 이를 기반으로 타깃 고객층을 파악하고 매장 레이아웃을 최적화하는 등 효과적인 마케팅 캠페인을 전개 중이다. 박준혁 메이아이 대표는 "세밀한 평가를 바탕으로 3년 연속 100대 기업에 선정, 영상처리 AI 분석 업계의 선두주자로 인정 받게 됐다"며 "앞으로도 방문객 데이터 분석에 주목하는 기업들과 협력하며 시장에서의 입지를 공고히 하고, 국내외 오프라인 매장을 더욱 똑똑하게 만드는 데 주력할 것"이라고 말했다.

2025.01.07 15:33백봉삼 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

삼성·SK, 낸드 마진율 역대 최대치 찍는다…"10년 간 없던 일"

[르포] 코어·모터·가공까지…뉴로메카 포항 생산거점 승부수

[르포] 솔리드웍스, CAD 플랫폼 틀 깨다…"창의적 설계 환경 구축"

출신학교 채용 차별 방지법 '찬vs반' 물었더니

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.