• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'멀티 모달'통합검색 결과 입니다. (48건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"AI혁신 선보일까" 애플, 자체 멀티모달 AI '4M' 공개

애플이 텍스트, 이미지, 비디오, 오디오 등 다양한 데이터 유형을 인식하고 변환할 수 있는 멀티모달 인공지능(AI)모델을 공개했다. 1일(현지시간) 벤처비트 등 외신에 따르면 애플은 멀티모달 AI '4M'의 공개 데모 버전을 허깅페이스 스페이스 플랫폼을 통해 선보였다. 4M은 대규모 멀티모달 마스크 모델링(Massively Multimodal Masked Modeling)의 약자로 다양한 모달리티의 콘텐츠를 처리하고 생성할 수 있는 AI 모델이다. 애플은 지난해 12월 스위스 연방 공과대학 로잔(EPFL)과 협력해 4M에 대한 개념을 소개하는 논문을 공개한 바 있다. 이후 7개월 만에 실제 AI모델이 오픈소스로 공개한 것이다. 허깅페이스 스페이스 플랫폼에 공개된 데모 버전은 4M에 활용된 멀티모달 마스킹 기법을 소개하기 위해 마련됐다. 멀티모달 마스킹은 여러 유형의 데이터에서 중요한 정보만 추출하기 위해 그 외의 정보를 의도적으로 숨기는 기법이다. 4M 데모버전에서는 이미지를 업로드하면 RPG, 심도, 메타데이터, 캡션 등 모달리티의 특성에 따라 마스킹 된 14종의 데이터를 확인할 수 있다. 개발자는 마스킹된 데이터 중 필요한 내용만 선택해 이미지에서 객체를 지정하거나 음성을 텍스트로 전환하는 등 다양한 멀티모달 AI 작업을 보다 간단하게 수행할 수 있다. 애플에 따르면 4M 정식 버전은 텍스트, 이미지, 비디오, 음성 등 다양한 멀티모달을 인식하기 위해 수십종의 마스킹 도구가 마련돼 있으며 해당 데이터 유형을 동시에 처리할 수 있도록 지원한다. 하나의 모델에서 서로 다른 데이터 소스 간의 관계를 학습할 수 있는 만큼 각 데이터 유형의 정보를 상호 보완해 보다 정확하고 신뢰성 있는 예측을 제공할 수 있는 것이 특징이다. 또한 여러 유형의 데이터를 통합적으로 분석하는 과정에서 새로운 패턴이나 관계를 발견할 기회도 제공할 수 있다. 특히 애플의 경우 아이폰과 아이패드를 비롯해 혼합현실(XR)서비스를 제공하는 비전프로를 선보이는 만큼 4M을 활용해 더욱 다채로운 사용자경험을 제공할 수 있을 전망이다. 애플의 데이비드 미즈라히 연구과학자 등 연구개발팀 “현재 컴퓨터비전을 위한 기계학습 모델은 매우 전문화된 대신 단일 모달리티와 작업에 한정돼 있다”며 “하지만 최근 대규모언어모델(LLM)은 다재다능한 모델의 가능성을 시사하고 있는 만큼 4M을 통해 이런 잠재력을 보여주는 것을 넘어 비전 외에 다양한 분야에서 멀티모달이 활용될 수 있는 기반을 마련하려 한다”고 논문을 통해 밝혔다.

2024.07.02 10:16남혁우

SSG닷컴, 이미지 검색 '쓱렌즈' 더 똑똑해졌다

SSG닷컴은 자체 개발한 멀티모달 AI 모델을 자사의 딥러닝 기반 이미지 상품 검색 서비스인 '쓱렌즈'에 적용했다고 26일 밝혔다. 쓱렌즈는 쓱닷컴이 2018년부터 운영 중인 이미지 검색 서비스다. 상품 상세 페이지에서 렌즈 버튼을 누르면 현재 보고 있는 상품과 비슷한 상품을 추천해주고, 검색창 우측 렌즈 아이콘을 클릭해 스마트폰으로 사진을 입력하면 상품의 외관, 속성, 색상 등을 토대로 유사 상품을 추천해준다. 멀티모달 AI는 상품 사진 정보와 함께 이름, 브랜드, 세부 특징 등 문자 정보까지 함께 학습한 모델을 뜻한다. 이번 업데이트로 쓱렌즈에 멀티모달 A' 베타 버전이 추가돼 이미지와 텍스트가 결합된 복합 정보를 처리할 수 있게 됐다. 기존 쓱렌즈에서는 이미지 정보만을 활용해 비슷한 상품을 찾는 검색이 가능했지만, 멀티모달 AI가 적용된 쓱렌즈에서는 '검색어 추가' 기능을 더해 이미지 검색 결과에 텍스트를 추가로 입력할 수 있다. 이를 통해 고객이 원하는 맞춤 검색 결과를 제공하고자 서비스를 업그레이드했다. 예를 들어, 특정 의류 이미지를 검색한 후 텍스트로 색상(베이지), 디자인(플라워 패턴) 등 상품 속성과 관련된 추가 검색어를 입력해 찾고자 하는 상품을 좁혀가는 방식이다. 현재 쓱렌즈는 상품 탐색 시간이 많이 필요한 패션, 잡화, 가구, 인테리어 관련 카테고리를 중심으로 서비스를 제공하고 있다. 기존 AI 모델 고도화로 이미지 검색 및 분류 능력이 이전 대비 크게 향상됐으며, 유사 상품 추천으로 비슷한 상품을 빠르게 비교할 수 있어 쇼핑 시간 단축도 가능하다. 이미지에 기반한 스타일 및 브랜드 상품도 함께 추천한다. 고객 쇼핑 편의성을 위한 UI/UX 개선에도 공을 들였다. 이미지 내 찾고 싶은 상품이 있을 경우 검색 대상을 바로 선택할 수 있는 실시간 이미지 편집 기능을 추가하고 디자인도 간결하게 변경했다. 장원주 SSG닷컴 데이터담당은 "23년 초부터 자체 개발해 AI 학습용으로 활용하던 멀티모달 AI를 고객 서비스에 적용한 첫 사례가 쓱렌즈"라며 "향후 상품 상세 페이지, 검색 결과 등으로 '멀티모달 AI' 활용 영역을 넓혀 검색 및 추천 등에 활용할 계획"이라고 말했다.

2024.06.26 16:43백봉삼

MS, 멀티모달 AI '플로렌스-2' 출시...음성·비전 통합 처리

마이크로소프트가 객체감지, 이미지 분석 등 다양한 비전 작업을 한 번에 처리할 수 있는 새로운 비전기반 인공지능(AI)모델을 공개했다. 20일(현지시간) 벤처비트 등 외신에 따르면 마이크로소프트의 애저AI 팀이 새로운 비전 기반 모델 '플로렌스-2'를 허깅페이스를 통해 출시했다고 밝혔다. 플로렌스-2는 시각과 언어를 융합하는 새로운 방식의 기술이 적용된 AI 모델이다. 이를 통해 이미지 캡션 생성, 객체 감지, 이미지 분석 등 다양한 이미지 관련 작업을 통합 수행할 수 있으며 성능도 향상됐다. 이 AI모델은 이미지나 사진 속 내용을 설명하는 문장을 그대로 생성할 수 있으며, 이미지 속에서 특정 객체를 찾아내고, 그 위치를 특정할 수 있다. 예를 들어, 이미지 속에 자동차와 사람, 나무 등이 있다면 각 객체의 위치를 정확하게 파악하는 것이 가능하다. 또한, 이미지와 관련된 질문을 받을 경우 적합한 답변을 제공하는 시각적 질문 응답 (VQA) 기능도 지원한다. 만약 책을 읽고 있는 사람의 사진을 입력한 후 행동을 묻는다면 "책을 읽고 있다"라는 답변을 얻을 수 있다. 이를 활용해 대량의 이미지 콘텐츠에 자동으로 설명을 추가하거나, 전자상거래 플랫폼에서 제품 이미지를 분석하고, 그 특성을 기반으로 한 자세한 설명을 생성할 수 있다. 또한 공공 장소에서 의심스러운 행동을 자동으로 감지하는 등 보안 목적으로 활용하거나, 로봇에 적용해 인간과 자연스럽게 상호작용할 수 있도록 행동을 지원할 수도 있다. 마이크로소프트 측은 플로렌스-2는 복잡한 이미지 관련 작업을 하나의 통합된 시스템 내에서 처리할 수 있도록 설계되어, 이러한 효율적이고 지능적인 이미지 분석이 가능하다고 밝혔다. 성능면에서도 상당부분 개선됐다. 제로샷 성능의 경우 이미지 캡션 생성 모델의 성능을 평가하기 위한 지표인 CIDEr에서 135.6점을 기록하며, 84.3점을 기록한 딥마인드의 플라밍고와 비교해 상당한 차이를 벌렸다. 파인튜닝 성능 역시 대규모 데이터셋 RefCOCO 기반 벤치마크에서 동일 범주 내 다른 경쟁 모델들을 상회하는 성능을 기록했다. 마이크로소프트 측은 언어와 비전이라는 서로 다른 양식(모달리티)을 융합하는 과정에서 몇 가지 어려움이 있었다고 밝혔다. 두 모달리티 간의 복잡한 상호 작용을 처리하기 위해 기존 다양하고 광범위한 데이터를 보유한 데이터셋이 요구됐다. 이에 FLD-5B라는 대규모 데이터셋을 새롭게 구축했다. 이 데이터셋은 5.4억 개의 시각적 주석을 포함하고 있으며, 다양한 시각적 상황과 세부적인 언어적 설명을 결합한 1억2천600만 이미지로 구성되어 있다. 이를 통해 보다 풍부하고 다양한 시나리오에서 비전과 언어의 상호 작용을 학습하는 것이 가능했다. 더불어 비전 데이터와 언어 데이터를 통합하는 과정에서 그 관계와 상황을 이해하기 위해 고도의 언어 이해 능력과 시각적 맥락 분석 기술이 필요했다. 이를 위해 마이크로소프트는 텍스트 프롬프트를 작업 지시로 사용하는 시퀀스-투-시퀀스 아키텍처를 적용했다. 이 구조는 이미지 인코더와 다중 모달리티 인코더-디코더를 통해 비전 토큰과 텍스트 토큰을 통합하여 처리한다. 해당 기술을 적용하면서 플로렌스-2는 이미지 내 객체들의 관계를 비롯해 이미지 속 상황에 대한 세밀한 설명을 생성하는 것이 가능해졌다. 더불어 마이크로소프트는 대규모 이미지와 텍스트 데이터를 처리하는 과정에서 발생하는 막대한 계산비용을 줄이기 위해 최적화된 학습 전략과 하드웨어 효율화 기술을 적용했다. 마이크로소프트 연구팀은 “오늘날 AI 기술 발전에 있어 중요한 것은 다양한 모달리티 간의 경계를 허무는 것”이라며 “플로렌스-2는 이미지와 텍스트 간의 상호 작용을 이해하고 이를 기반으로 새로운 정보를 생성하는 능력을 보유하고 있다”고 설명했다. 이어서 “마이크로소프트는 플로렌스-2를 기반으로 더욱 발전된 모델을 개발해 다양한 AI 응용 분야에 기여할 계획”이라며 “플로렌스-2의 공개는 연구자들과 개발자들에게 새로운 가능성을 제공하며 전 세계적으로 AI 기술의 발전을 지원할 것”이라고 강조했다.

2024.06.21 10:36남혁우

KAIST, 멀티모달 대형언어모델 '깃허브' 공개…GPT-4V 시각성능 "제꼈다"

국내 연구진이 오픈AI의 GPT-4V와 구글 제미나이-프로(Gemini-Pro)의 시각 성능을 능가하는 멀티모달 대형언어모델을 개발, 오픈소스 커뮤니티 깃허브(Github)에 공개했다. 최근 주목받는 생성형 AI 트랜드가 멀티모달화로 진화 중이어서 귀추가 주목됐다. KAIST는 전기및전자공학부 노용만 교수 연구팀이 GPT-4V 등 비공개 상업 모델의 시각 성능을 넘어서는 공개형 멀티모달 대형언어모델을 선보였다고 20일 밝혔다. 연구팀은 멀티모달 대형언어모델 시각 성능을 개선하기 위해 '콜라보(CoLLaVO)'와 '모아이(MoAI)' 2가지 기술을 자체 개발했다. 이병관 연구원(박사과정,제1저자)은 "GPT-4V나 제미나이-프로 등과 시각성능 만을 비교하면 점수나 정확도 면에서 최대 10% 더 우수하다"고 말했다. 인지추론성도 함께 따져봐야 하지만, 이는 이번 연구 주제에서 벗어나 나중에 생각할 부분이라는 것이 이 연구원 얘기다. 사실 인지추론성도 개별 검토한 결과 오픈AI나 구글 모델 대비 결코 뒤지진 않는다는 것이 이 연구원의 귀뜸이다. 연구팀은 '콜라보'를 개발하기 전 기존 공개형 멀티모달 대형언어모델 성능이 비공개형에 비해 떨어지는 이유를 1차적으로 물체 수준에 대한 이미지 이해 능력 저하에서 찾았다. 연구팀은 이를 개선하기 위해 이미지 내 정보를 배경과 물체 단위로 분할하고 각 배경 및 물체에 대한 정보를 멀티모달 대형언어모델에 직접 넣어주는 '크레용 프롬프트(Crayon Prompt)'라는 시각적 프롬프트를 새로 설계했다. 또 시각적 지시 조정 단계에서 크레용 프롬프트로 학습한 정보를 잃어버리지 않기 위해 물체 수준 이미지 이해 능력과 시각-언어 태스크 처리 능력을 서로 다른 파라미터로 학습시키는 획기적인 학습전략인 '듀얼 큐로라(Dual QLoRA)'를 제안했다. 이병관 연구원은 "이로 인해 이미지 내에서 배경 및 물체를 1차원적으로 구분하는 능력이 크게 향상됐다"고 덧붙였다. 대형언어모델인 모아이(MoAI)'도 개발했다. 인간이 사물을 판단하는 인지과학적 요소(물체 존재나 상태, 상호작용, 배경, 텍스트 등)에서 영감을 얻었다는 것이 연구팀 설명이다. 연구팀은 "기존 멀티모달 대형언어모델은 텍스트에 의미적으로 정렬된 시각 인코더(vision encoder)만을 사용하기 때문에, 이미지 픽셀 수준에서의 상세하고 종합적인 실세계 장면에 대한 이해가 모자란다고 판단했다"고 말했다. 연구팀은 △전체적 분할 △한계가 없는 물체 검출기 △상황 그래프 생성 △글자 인식 등 4가지 컴퓨터 비전 모델을 언어로 변환한 뒤 멀티모달 대형언어모델에 입력했다. 이를 연구팀이 실제 검증한 결과 '콜라보'는 Math Vista(대학수준 수학 및 물리문제)나 MM-벤치(영어 객관식 문제), MMB-CN(중국어 객관식 문제), AI2D(어학문제) 등의 풀이에서 기존 모델 대비 최대 10%까지 점수와 정확도가 우수했다. 또 '모아이'는 기존 공개형 및 비공개형 LLVMs(멀티모달 대형언어)와 비교한 결과 각 질문에 따라 점수가 20포인트 이상 우수하게 답변한 경우도 나타났다. 이병관 연구원은 "3개월전 깃허브에 올려놓은 '콜라보'(https://github.com/ByungKwanLee/CoLLaVO)와 '모아이'(https://github.com/ByungKwanLee/MoAI)에 관심을 가져달라"며 "박사학위가 마무리되면 멀티모달 대형언어를 아이템으로 창업할 생각도 있다"고 말했다. 박사과정 5년차인 이 연구원은 또 "개인적으로 향후 기회가 닿는다면, 핸드폰에 들어가는 사이즈로 현재 성능을 유지하는 멀티모달 대형언어모델을 만들어 볼 것"이라고 덧붙였다. 노용만 교수는 “연구팀에서 개발한 공개형 멀티모달 대형언어모델이 허깅페이스 일간 화제의 논문(Huggingface Daily Papers)에 추천됐다"며 "SNS 등을 통해 전세계에 점차 알려지는 등 관련분야 발전에 기여할 것"으로 기대했다. 연구에는 논문 제1저자 이병관 박사과정 연구원 외에도 박범찬 석박사통합과정, 김채원 박사과정이 공동 저자로 참여했다. 연구결과는 '콜라보'의 경우 자연어 처리(NLP) 분야 국제 학회 'ACL Findings 2024'(5월16일자)에 게재됐다. '모아이(MoAI)'는 컴퓨터 비전 국제 학회인 'ECCV 2024'에 논문을 제출하고 결과를 기다리고 있다. 한편 이 연구는 KAIST 미래국방 인공지능 특화연구센터 및 전기및전자공학부 지원을 받아 수행했다.

2024.06.20 14:26박희범

에임퓨처, AI 엑스포서 '멀티 모달 AI' 시연

에임퓨처가 5월 1일부터 3일까지 코엑스에서 개최되는 'AI 엑스코 코리아'에서 자사의 뉴로모자이크 프로세서에서 구현된 멀티모달 AI 데모를 선보일 예정이다. 에임퓨처는 지난해 LG전자와 '인공지능 반도체의 멀티모달 기술' 관련 공동개발 협약을 맺은 후 이를 꾸준히 개선해 왔다. 그 결과 여러 개의 신경망 처리장치(NPU)가 실시간으로 서로 다른 뉴럴 네트워크를 처리할 수 있게 했다. 다양한 센서로부터 들어오는 서로 다른 성질의 데이터 (음성, 이미지, 텍스트, 영상 등)를 처리해주는 멀티모달 기술은 최근 시장에서 온디바이스 AI 장치에서 요구되는 중요한 기술로 떠오르고 있다. 에임퓨처는 미국 산타클라라에서 오는 5월에 개최되는 EVS 2024 전시회에도 참가해 뉴로모자이크 프로세서에 기반한 기술 데모 및 신제품을 출시하며 글로벌 시장 진출을 가속화할 예정이다. 앞서 지난 3월에는 안전 및 헬스케어 분야의 전문 솔루션 기업인 EMTAKE(대표 조용호)와 '스마트홈, 휴먼케어 시스템'을 공동 개발하는 양해각서(MOU)를 체결했다. 김창수 에임퓨처의 대표는 "에임퓨처는 칩 제작을 위해 브릿지펀딩 종료를 눈앞에 두고 있는 등 바쁜 나날을 보내고 있다"라며 "혁신적인 기술 개발을 통해 국내 시스템 반도체 및 AI 산업 발전에 기여하고, 국내외 고객들에게 높은 가치의 고품격 솔루션을 제공하기 위해 최선을 다할 것"이라고 말했다. 에임퓨처는 LG전자의 미주연구소에서 AI 핵심 기술을 연구하던 소속 연구원들이 분사해 2020년에 설립한 신경망장치 (NPU, Neural Processing Unit) 개발기업이다. 선행기술 개발 및 북미 지역 판매를 담당하는 실리콘뉴로(SilicoNeuro, Inc)를 실리콘밸리 현지에 보유하고 있다. 에임퓨처는 작년 6월에 다수의 벤처캐피탈사로부터 시리즈A 투자유치를 성공적으로 마쳤으며, LG전자가 전략적 투자자로 참여한다. 한편, 에임퓨처는 서울AI허브의 신규 선도기업으로 선정돼 AI 허브 신축건물에 5월에 입주할 예정이다.

2024.04.29 10:25이나리

인디제이 '눈치AI', 서리풀아트스튜디오 관람객 마음 사로잡아

인디제이(대표 정우주)는 최근 서초구·서초문화재단과 협력해 AI 감정분석 멀티모달 기능을 적용한 '눈치AI'를 서리풀아트스튜디오에 설치했다고 22일 밝혔다. 서초구 서리풀아트스튜디오는 예술의전당 제 1 지하보도에 문화예술의 재미와 첨단 기술을 합친 장소다. 슬럼화가 진행되던 지하보도를 정리하고 AI를 결합해 청년예술인과 지역주민이 문화예술을 즐길 수 있는 장소로 탈바꿈했다. 서리풀아트스튜디오로 탈바꿈 한 데는 인디제이의 인공지능 제품인 눈치AI 역할이 컸다. 설치된 눈치AI 제품은 실시간 감정 데이터를 수집·분석해 음악·콘텐츠를 추천하는 AI 서비스다. 사용자 음성, 음성 텍스트, 얼굴 표정, 얼굴 이미지 등 다양한 실시간적 감정인식 기술을 접목했다. 인디제이만의 음악 감정분류 모델과 사용자 멀티모달 모델, 사용자 감정차트 분석모델 등을 이용해 음악을 사용자 맞춤형으로 정확하고 정밀하게 추천 제공하는 제품이다. 서초구 관계자는 “서리풀아트스튜디오 방문자 만족도를 보면 인디제이의 눈치AI가 가장 인기있고 호응도가 좋다”고 전했다. 눈치AI 제품은 세계 최대 가전·IT 전시회인 CES에서 지난해와 올해 2년 연속 AI 기술 관련 혁신상을 수상했다. 글로벌 기업과 기관의 러브콜을 받고 있다. 정우주 인디제이 대표는 “지난 CES 혁신상 수상과 서초구 AI 협력 제품을 기반으로 투자·기술제휴 등 다양한 문의가 오고 있다”며 “개인화된 상황, 감정 인공지능 기술을 더욱 고도화해 높은 성능의 시민체감형 제품과 서비스로 성과를 창출하겠다”고 말했다. 한편, 인디제이는 지난해 마이크로소프트(MS)가 운영하는 독립 소프트웨어 공급업체(ISV)로 선정돼 올해 7월까지 MS 공식 마켓플레이스에 기업과 기업간(B2B) 제품을 등록하고 글로벌 기업과 제품 판매 및 기술협력을 진행한다. 또 AI분석 서비스 '제이든' 디자인은 2024 독일 디자인 어워드(GDA)를 받기도 했다.

2024.04.22 20:26주문정

일론 머스크 xAI, 멀티모달 모델 '그록-1.5V' 출시

일론 머스크의 엑스에이아이(xAI)가 문자뿐 아니라 이미지까지 인식하는 멀티모달 모델을 출시했다. 최근 벤처비트는 xAI가 멀티모달 모델 '그록-1.5V'를 공식 블로그에서 소개했다고 보도했다. 이 모델은 이달 중 챗봇 그록 사용자와 초기 테스터들에게 제공된다. 이 회사는 그록-1.5V의 활용 사례도 공개했다. 아이가 그린 그림만으로 이야기를 창작하고, 밈을 설명하고, 지붕 사진에 썩은 나무가 있다며 사용자에게 교체를 요청하는 예시로 모델 능력을 알렸다. xAI는 "그록-1.5V'는 문서, 과학 도표, 차트, 캡처 이미지, 사진 이해 등 다양한 영역을 다룰 수 있다"며 "기존 멀티모달 모델과 경쟁할 수 있다"고 블로그에서 밝혔다. 타사 멀티모달 모델 GPT-4V, 클로드3 소네트 버전, 클로드3 오퍼스 버전, 제미나이 프로 1.5와 그록-1.5V를 비교한 수치도 나왔다. 테스트 결과 실제 공간 이해도에서 그록-1.5V가 타 모델보다 높은 점수를 기록했다. 논란의 여지도 있다. 이달 초 xAI 연구원들은 그록 챗봇이 사용자에게 범죄 행위를 지시할 위험성이 있다고 폭로한 바 있다. xAI의 모델이 생각보다 비윤리적인 데이터셋으로 이뤄졌다는 의미다. 이에 일론 머스크는 "우리는 일반인공지능(AGI) 구축을 위해 꾸준히 노력하고 있다"며 "그록 모델 업데이트는 계속된다"고 했다.

2024.04.14 10:26김미정

무하유, AI 영상분석 전문가 CTO로 영입…"멀티모달 기술 고도화"

무하유(대표 신동호)가 멀티모달 인공지능(AI) 시대에 발맞춰 AI 영상분석 전문가를 영입했다. 무하유는 이광주 최고기술책임자(CTO)를 영입했다고 21일 밝혔다. 이광주 CTO는 서울대 대학원에서 AI 영상 분야를 전공했다. 이후 NICE 평가정보, 벤처기업 에어플러그 등에서 약 20년간 영상 데이터 분석·처리, 머신러닝(ML)을 적용한 솔루션 개발 등을 총괄했다. 대기업과 벤처기업을 두루 거치며 서비스 안전성과 기술 개발의 신속성 양 측면의 균형 감각을 키워왔다고 평가받았다. 이 CTO는 무하유의 영상 분석 기술력을 끌어올리며, AI 평가 자동화 서비스 개발을 총괄할 예정이다. 자사 AI 면접 평가 서비스 '몬스터'가 이미지·영상·음성 등 복잡한 데이터를 분석하는 멀티모달 형식의 평가를 진행할 수 있도록 기술 고도화에 집중한다. 무하유는 그동안 AI를 활용한 한국어 텍스트 지능 분석 기술을 보유하고 있는 기업이다. 국내외 논문, 법률, 실시간 콘텐츠 등 다양한 텍스트 기반 데이터를 수집, 정제, 처리하는 고도화된 자연어 이해(NLU) 기술을 갖고 있다. 2011년 AI 기반 표절검사 서비스 '카피킬러'를 출시했다. 카피킬러는 표절, 출처 미표기, 중복 게재 등 사람이 하나하나 파악하기 힘든 검토 작업을 AI 기술을 이용해 빠르게 할 수 있는 표절 검사 서비스다. 클라우드형 대용량 전자문서 분석으로 1분 이내에 100억 건의 데이터를 기반으로 표절 검사를 진행한다. 카피킬러를 통해 축적된 문서 데이터와 NLU 노하우를 접목시켜 디텍트 GPT 솔루션인 'GPT킬러'를 개발했다. 챗GPT 가 만든 문장을 찾아내는 디텍트 GPT 솔루션 중 유일하게 AI 가 쓴 한국어 문장까지 잡아낼 수 있다. 현재 인사(HR) 분야로 사업 영역을 확장해 채용 서류 평가 서비스 '프리즘', 대화형 AI 면접 서비스 '몬스터'를 운영하고 있다. 신동호 무하유 대표는 "챗GPT 열풍으로 시작된 생성형 AI 시대는 이제 한발 더 나아가 멀티모달 AI 시대로의 진입을 앞당기고 있다"며 "텍스트 분석에 경쟁력을 가진 무하유에 영상 분석 전문가를 영입함으로써 AI 평가 자동화 서비스 개발에 주력하겠다"고 포부를 밝혔다.

2024.02.21 15:12김미정

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

정부 위약금 면제 판단에...KT "해킹 보상안 조속히 발표"

배민 독주에 균열...새해 승부처는 ‘AI 효율화’

분리 매각 카드 꺼낸 홈플러스…마트는 어떻게 되나

쿠팡 사실상 '1만원' 보상...부정 여론 잠잠해질까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.