• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
6.3 대선
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'woorden eindigen op ⊂ᴛxᴇ𝟽𝟿.ᴄᴏᴍ⊃ ㅡ코드 𝙩𝙭79ㅡ 인터넷중계방송 Live Casino 세리에 A 제노아'통합검색 결과 입니다. (4266건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 뉴스검색 "못 믿겠네"… 8개 엔진 모두 "인용 문제 심각"

AI 검색엔진, 60%가 넘는 쿼리에서 잘못된 답변 제공 AI 검색 도구가 빠르게 인기를 얻으면서 미국인 4명 중 1명이 전통적 검색엔진 대신 AI를 사용하고 있다. 이러한 도구들은 인터넷에서 최신 정보를 크롤링하여 가치를 창출하는데, 이 정보의 상당 부분은 뉴스 출판사가 생산한 콘텐츠다. 그러나 콜롬비아 저널리즘 리뷰의 타우 센터(Tow Center for Digital Journalism)가 진행한 연구에 따르면, 8개 생성형 AI 검색 도구를 테스트한 결과 모두 뉴스 콘텐츠를 인용하는 데 심각한 문제가 있는 것으로 나타났다. 전통적인 검색엔진이 사용자를 뉴스 웹사이트로 안내하는 중개자 역할을 하는 반면, 생성형 검색 도구는 정보를 직접 요약하고 재구성하여 원본 출처로의 트래픽 흐름을 차단하고 있다. 이러한 채팅봇의 대화형 출력은 종종 정보 품질의 심각한 기본 문제를 가리는 경향이 있다. 프리미엄 모델이 무료 모델보다 더 자신 있게 오답 제공 연구진은 8개 생성형 검색 도구에 대해 각 20개 출판사의 10개 기사에서 발췌한 텍스트를 제공하고, 해당 기사의 제목, 원출판사, 발행일, URL을 식별하도록 요청했다. 총 1,600개의 쿼리를 실행한 결과, 이 챗봇들은 전체 쿼리의 60% 이상에서 잘못된 답변을 제공했다. 플랫폼별로 오류율은 다양했는데, 퍼플렉시티(Perplexity)는 쿼리의 37%를 잘못 답변한 반면, 그록 3(Grok 3)은 훨씬 높은 94%의 오답률을 보였다. 더 우려되는 점은 이러한 도구들이 부정확한 답변을 매우 확신에 찬 어조로 제시한다는 것이다. 예를 들어, 챗GPT(ChatGPT)는 134개 기사를 잘못 식별했지만, 200개 응답 중 단 15번만 자신감 부족을 표시했고, 답변을 거부한 적은 한 번도 없었다. 특히 퍼플렉시티 프로($20/월)나 그록 3($40/월) 같은 프리미엄 모델들은 무료 버전보다 더 신뢰할 수 있을 것으로 기대됐지만, 테스트 결과 이들은 더 많은 오답을 제공했다. 이는 주로 정확하지 않은 정보라도 확신에 찬 어조로 답변하는 경향 때문이었다. 이러한 근거 없는 자신감은 사용자에게 정확성과 신뢰성에 대한 위험한 환상을 제공한다. 출판사가 차단한 콘텐츠도 크롤링하는 AI 검색엔진들 테스트된 8개 채팅봇 중 5개(챗GPT, 퍼플렉시티와 퍼플렉시티 프로, 코파일럿, 제미니)는 자사의 크롤러 이름을 공개하여 출판사가 이를 차단할 수 있는 선택권을 주었고, 나머지 3개(딥시크, 그록 2, 그록 3)는 크롤러 정보를 공개하지 않았다. 연구진은 채팅봇이 크롤러 접근이 허용된 출판사 관련 쿼리에만 올바르게 답변하고, 차단된 웹사이트 관련 쿼리는 응답을 거부할 것으로 예상했으나, 실제로는 그렇지 않았다. 특히 퍼플렉시티 프로는 접근이 차단되었어야 할 90개 발췌문 중 거의 3분의 1을 올바르게 식별했다. 놀랍게도 퍼플렉시티의 무료 버전은 내셔널 지오그래픽의 유료화된 기사 10개를 모두 정확히 식별했는데, 이는 출판사가 퍼플렉시티의 크롤러를 차단했고 AI 회사와 공식적인 관계가 없음에도 불구했다. 퍼플렉시티가 "robots.txt 지시를 존중한다"고 주장함에도 불구하고, 이러한 발견은 내셔널 지오그래픽의 크롤러 선호도를 무시했을 가능성을 시사한다. 로봇 배제 프로토콜(Robot Exclusion Protocol)은 법적 구속력이 없지만, 어떤 사이트 부분이 크롤링되어야 하고 어떤 부분이 크롤링되지 않아야 하는지를 신호하는 널리 수용된 표준이다. 이 프로토콜을 무시하는 것은 출판사가 자신의 콘텐츠가 검색에 포함되거나 AI 모델 학습 데이터로 사용될지 여부를 결정할 수 있는 권한을 빼앗는 것이다. 8개 검색엔진 모두 링크 위조… 그록 3, 200개 중 154개 가짜 URL 제공 AI 챗봇은 자신의 답변을 정당화하기 위해 종종 외부 소스를 인용하지만, 테스트된 생성형 검색 도구들은 잘못된 기사를 인용하는 경향이 있었다. 예를 들어, 딥시크(DeepSeek)는 200번의 쿼리 중 115번이나 잘못된 출처를 인용했다. 이는 뉴스 출판사의 콘텐츠가 대부분 잘못된 출처로 귀속되고 있음을 의미한다. 채팅봇이 기사를 올바르게 식별한 것처럼 보이는 경우에도, 종종 원본 출처에 적절하게 링크하지 못했다. 때로는 Yahoo News나 AOL 같은 플랫폼에 게재된 신디케이트 버전의 기사로 안내하기도 했다. 예를 들어, 텍사스 트리뷴(Texas Tribune)과 파트너십을 맺고 있음에도 불구하고, 퍼플렉시티 프로는 10개 쿼리 중 3개에서 트리뷴 기사의 신디케이트 버전을 인용했다. 반면에, 크롤링을 거부하고자 하는 출판사들도 문제에 직면했다. 그들의 콘텐츠는 동의 없이 결과에 계속 나타났지만, 잘못된 출처로 귀속되었다. 예를 들어, USA 투데이는 챗GPT의 크롤러를 차단했지만, 챗봇은 여전히 Yahoo News에 재발행된 버전의 기사를 인용했다. OpenAI와 퍼플렉시티는 뉴스 출판사와 공식적인 관계를 수립하는 데 가장 많은 관심을 표명한 회사들이다. 그러나 이러한 라이센싱 계약이 있다고 해서 출판사가 더 정확하게 인용되는 것은 아니었다. OpenAI와 퍼플렉시티 모두와 계약을 맺은 타임(Time)의 경우, 두 회사 관련 모델 중 어느 것도 콘텐츠를 100% 정확하게 식별하지 못했다. 반면, 샌프란시스코 크로니클(San Francisco Chronicle)은 OpenAI의 검색 크롤러를 허용하고 Hearst의 "전략적 콘텐츠 파트너십"의 일부이지만, 챗GPT는 출판사에서 공유한 10개 발췌문 중 하나만 올바르게 식별했다. 뉴스 출판사와 계약해도 소용없어… 여전히 콘텐츠 100% 정확히 식별 못해 이 연구 결과는 2024년 11월에 발표된 이전 챗GPT 연구와 일치하며, 채팅봇 전반에 걸쳐 일관된 패턴을 보여준다. 잘못된 정보의 확신에 찬 발표, 신디케이트 콘텐츠에 대한 오해의 소지가 있는 귀속, 일관성 없는 정보 검색 관행 등이 그것이다. 생성형 검색에 대한 비판가들은 대규모 언어 모델을 검색에 사용하는 것에 대해 "투명성과 사용자 권한을 빼앗고, 정보 접근 시스템과 관련된 편향 문제를 더욱 증폭시키며, 일반 사용자가 검증하지 못할 수 있는 근거 없는 또는 유해한 답변을 제공하는 경우가 많다"고 지적한다. 이러한 문제는 뉴스 생산자와 소비자 모두에게 잠재적인 해를 끼칠 수 있다. 이러한 도구를 개발하는 많은 AI 기업들은 뉴스 출판사와 협력하는 데 관심을 공개적으로 표명하지 않았다. 관심을 표명한 기업들조차도 종종 정확한 인용을 제공하거나 로봇 배제 프로토콜을 통해 표시된 선호도를 존중하지 못한다. 결과적으로 출판사들은 자신들의 콘텐츠가 채팅봇에 의해 표면화되는지 여부와 방법을 제어하는 옵션이 제한적이며, 그 옵션들도 제한된 효과만 있는 것으로 보인다. FAQ Q. AI 검색 엔진이 뉴스 콘텐츠를 인용할 때 어떤 문제가 있나요? A:AI 검색 엔진은 뉴스 콘텐츠를 정확하게 인용하지 못하는 경우가 많습니다. 테스트 결과 이들은 잘못된 기사를 인용하거나, 원본 출처 대신 다른 플랫폼에 재발행된 버전을 링크하거나, 심지어 존재하지 않는 URL을 생성하는 등의 문제를 보였습니다. 이런 오류에도 불구하고 대부분의 AI 검색 도구는 확신에 찬 어조로 답변을 제공합니다. Q. 프리미엄 AI 검색 서비스가 무료 서비스보다 더 정확한가요? A:놀랍게도, 프리미엄 AI 검색 서비스(퍼플렉시티 프로, 그록 3 등)는 일부 쿼리에서 무료 버전보다 더 많은 정확한 답변을 제공했지만, 동시에 더 높은 오류율도 보였습니다. 이는 주로 답변을 거부하기보다 확신에 찬 어조로 잘못된 정보를 제공하는 경향 때문입니다. 따라서 비용이 더 높다고 해서 반드시 더 신뢰할 수 있는 것은 아닙니다. Q. 출판사는 자신의 콘텐츠가 AI 검색 엔진에 사용되는 것을 어떻게 통제할 수 있나요? A:출판사는 자사 웹사이트의 robots.txt 파일을 통해 특정 AI 크롤러의 접근을 차단할 수 있습니다. 그러나 연구 결과에 따르면 일부 AI 회사들은 이러한 제한을 무시하고 있으며, 신디케이트된 콘텐츠나 타 플랫폼에 재발행된 버전을 통해 우회하는 경우도 있습니다. 또한 일부 AI 회사들은 출판사와 라이센싱 계약을 맺지만, 이것이 항상 정확한 인용을 보장하지는 않습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.18 10:34AI 에디터

SKT '에이닷'에 구글 제미나이 최신 버전 추가

SK텔레콤은 AI 에이전트 '에이닷(A.)'에 구글의 자체 LLM '제미나이(Gemini)' 최신 모델인 '제미나이 2.0 플래시(Flash)'를 추가하는 등 기능을 대폭 강화했다고 18일 밝혔다. 이번 에이닷의 AI 모델 확대 제공을 통해 이용자들은 국내 대표 LLM인 SK텔레콤의 'A.X'와 'GPT', '클로드(claude)', '퍼플렉시티(Perplexity)', '제미나이' 등 5개 글로벌 대표 AI 서비스의 세부 모델들을 자유롭게 이용할 수 있다. 현재 이용 가능한 AI 모델은 ▲A.X ▲제미나이 2.0 플래시 ▲GPT 4o, 4o 미니, o3-미니, o1-미니, o1-프리뷰 5개 모델 ▲클로드 3.5 소네트, 3.5 하이쿠, 3 오퍼스 3개 모델 ▲퍼플렉시티 소나, 소나 프로 2개 모델 등 총 12개다. 에이닷에 새롭게 추가된 '제미나이 2.0 플래시'는 구글이 지난 2월 공개한 최신 AI 모델이다. '제미나이 2.0 플래시'는 기존 '1.5 플래시' 모델을 개선한 버전으로, 응답 시간과 성능이 대폭 향상됐으며 주요 벤치마크에서 '1.5 프로' 모델보다 2배 빠른 속도를 기록하는 등 뛰어난 성능을 자랑한다. 이용자들은 답변과 함께 구글의 실시간 검색 결과를 함께 제공 받는 것은 물론, 답변이 어떤 내용을 토대로 생성됐는지 확인할 수 있도록 출처 페이지 이동 기능도 쓸 수 있다. SK텔레콤은 이번 '제미나이 2.0 플래시' 모델을 시작으로 향후 고객들이 구글의 최신 LLM을 지속적으로 체험할 수 있도록 할 계획이다. 김용훈 SK텔레콤 에이닷사업부장은 “에이닷은 A.X부터 챗GPT까지 글로벌 핵심 AI 모델들을 한 곳에서 비교하며 이용할 수 있는 최고의 방법”이라며 “지속적으로 AI 모델과 다양한 AI 편의 기능을 추가해 고객들의 AI 에이전트 체험 편의를 높이고 사용성을 극대화할 것”이라고 밝혔다.

2025.03.18 09:47최지연

로옴, 학습·추론 독립 실현 'AI 마이컴' 개발

로옴은 센싱 데이터를 활용한 고장 징후 검출 및 열화 예측이 가능한 AI(인공지능) 기능 탑재 마이컴 'ML63Q253x-NNNxx', 'ML63Q255x-NNNxx'(이하 AI 마이컴)를 개발했다고 18일 밝혔다. 이번 제품은 네트워크에 접속하지 않아도 학습과 추론을 독립적으로 실현하는 업계 최초 마이컴이다. 독자적인 온 디바이스 AI 솔루션을 실현하기 위해 심플한 3층 뉴럴 네트워크의 알고리즘을 채용했다. 이를 통해 클라우드 및 네트워크에 의존하지 않고 마이컴에서 학습과 추론이 가능하다. 현재 AI의 처리 모델은 클라우드 AI, 엣지 AI, 엔드 포인트 AI로 분류된다. 클라우드 AI는 클라우드 상에서, 엣지 AI는 클라우드 및 공장 설비나 PLC에 AI를 탑재하고 네트워크를 통해 학습과 추론을 실행한다. 일반적인 엔드 포인트 AI는 클라우드에서 학습하고 단말기에서 추론을 실행하기 때문에 네트워크 접속이 필요하다. 또한 이러한 처리 모델의 경우 소프트웨어를 통해 추론을 실행하기 때문에 GPU나 고성능 CPU가 요구된다. 반면 로옴의 AI 마이컴은 엔드 포인트 AI이지만, 온 디바이스 학습을 통해 학습과 추론을 모두 마이컴 단독으로 실행할 수 있어 설치 환경이나 동일 기종에서의 편차에도 유연하게 대응이 가능하다. 독자적인 기술의 AI 액셀레이터 'AxlCORE-ODL'로, 기존의 소프트웨어 방식(조건 : 12MHz 구동 시의 이론치)을 채용한 로옴의 마이컴에 비해 AI 처리를 약 1천배로 고속화할 수 있어, 실시간으로 이상 상태를 검출하고 수치화해 출력할 수 있다. 또한 기기의 설치 환경에서 고속 학습(현장 학습)이 가능해 기존 기기에 추가 탑재도 가능하다. AI 마이컴은 32bit Arm Cortex-M0+ Core, CAN FD 컨트롤러, 3상 모터 제어 PWM, 2유닛 A/D 컨버터를 탑재해, 소비전력 약 40mW의 저전력 성능을 실현했다. 산업기기 및 주택 설비, 가전기기의 고장 징후 검출에 최적이다. AI 마이컴은 메모리 사이즈 및 패키지, PIN 수, 포장 사양에 따라 16개의 기종을 라인업으로 구비할 예정이다. 2025년 2월부터 순차적으로 양산을 개시한 제품은 TQFP 패키지의 8개 기종이다. 로옴은 AI 마이컴 도입 전에 학습과 추론의 효과를 확인할 수 있는 AI 시뮬레이션 툴 을 로옴 공식 Web 사이트에서 공개하고 있다. 이 툴에서 출력한 데이터는 실제로 AI 마이컴의 학습 데이터로서 활용할 수 있어, 도입 전의 사전 검증 및 정밀도 향상에 도움이 된다. 또한 AI 마이컴을 용이하게 도입할 수 있도록 파트너 기업과 연계한 에코 시스템을 구축하여, 모델 개발 및 도입 지원 등의 서포트 체제를 구축했다.

2025.03.18 09:44장경윤

삼성전자, '유럽 테크 세미나' 개최…AI TV 혁신 기술 선봬

삼성전자는 18일부터 19일(현지시간)까지 독일 프랑크푸르트에서 2025년형 TV의 차별화된 기술과 AI TV 신기술을 소개하는 '2025 유럽 테크 세미나'를 개최한다고 18일 밝혔다. 테크 세미나는 2012년부터 전 세계 주요 지역에서 영상·음향 분야의 미디어와 전문가를 대상으로 삼성 TV의 최신 기술과 서비스를 소개하는 행사로, 업계 관계자들이 신제품을 직접 체험하고 의견을 나눌 수 있다. 올해 테크 세미나에서는 2025년형 Neo QLED·OLED·라이프스타일 TV뿐만 아니라 AI 기반 시청 경험 및 사운드 기술을 소개한다. 2025년형 Neo QLED 4K는 '로컬 디밍(Local Dimming)' 기능으로 우수한 블랙 표현력과 HDR 정확도를 구현한다. 또한 ▲'AI 업스케일링' ▲'모션 인핸서' 등 기존 8K 모델의 차별화 기술을 4K에도 확대 적용할 예정이다. 2025년형 OLED는 '글레어프리 2.0(Glare Free 2.0)'으로 빛 반사를 줄여 선명한 화면을 구현한다. 128개의 AI 뉴럴 네트워크가 적용된 3세대 4K AI 업스케일링을 통해 정교한 해상도를 제공한다. 여기에 'OLED HDR' 기술을 더해 전년 대비 밝기와 명암비를 업그레이드 시켰다. 향상된 시청 경험을 제공하는 '더 프레임 프로(The FRAME Pro)'는 Mini-LED 로컬디밍 기술을 적용해 일상적인 시청 환경에서도 선명한 화질을 제공한다. '더 프레임 프로' 사용자는 삼성 아트 스토어를 통해 약 3천점 이상의 디지털 아트를 감상할 수 있으며, '무선 원커넥트 박스'를 지원해 복잡한 케이블 없이도 간편한 설치가 가능하다. 콤팩트한 신규 디자인과 선명한 화질을 갖춘 '더 프리미어 5(The Premiere 5)'는 터치 솔루션을 탑재한 프로젝터로, 단순한 시청을 넘어 교육, 비즈니스, 가정 등 다양한 환경에서 활용할 수 있다. 이번 테크 세미나에서는 이를 활용한 게임 및 키즈 콘텐츠 등 직관적인 사용자 경험을 포함한 다양한 시나리오와 편의성을 시연한다. '비전 AI(Vision AI)'를 기반으로 AI 시청 경험과 CX-MDE(고객 중심의 멀티 디바이스 경험)도 소개했다. 주요 기능으로는 ▲재생 중인 영상과 관련된 정보를 제공하는 '클릭 투 서치(Click to Search)' ▲외국어를 사용자가 원하는 언어로 바꿔주는 '실시간 번역(Live Translate)' ▲스마트폰으로 간편하게 TV를 제어할 수 있는 '퀵 리모트(Quick Remote)' 등이 있다. 또한 구글과의 공동 개발을 통해 업계 최초로 적용한 '이클립사 오디오' 기술을 선보인다. '이클립사 오디오'는 IAMF(Immersive Audio Model and Formats) 기반의 차세대 3D 오디오 기술로, 콘텐츠에 최적화된 멀티채널 오디오를 통해 소비자에게 더욱 몰입감 있는 사운드 경험을 제공한다. 이번 행사에서는 해당 기술이 적용된 제품과 사운드바 연계 3D 사운드 효과를 직접 체험할 수 있다. 삼성전자는 유럽을 시작으로 동남아시아, 중남미 등 주요 지역에서도 테크 세미나를 순차적으로 개최할 예정이다. 한편 삼성 TV는 AI 기반 혁신 기술을 바탕으로 화질과 음향을 지속적으로 업그레이드하며, 19년 연속 글로벌 TV 시장 1위 자리를 지켜오고 있다.

2025.03.18 09:36장경윤

전기차 충전, 주유만큼 빨라진다…BYD "5분 충전 400km 주행 가능"

일반 내연기관 차량의 주유 시간과 맞먹는 초고속 충전시스템이 등장했다. 17일(현지시간) 블룸버그 통신 등에 따르면 중국 전기차 업체 BYD는 중국 선전에서 열린 라이브스트림 행사에서 1천볼트(V) 기반 '슈퍼 E-플랫폼'을 공개했다. 왕촨푸 BYD 회장은 "해당 플랫폼을 적용한 전기차는 5분 충전으로 400Km를 주행할 수 있다"고 밝혔다. BYD에 따르면 최대 1천V 충전 전압과 최대 1천A 충전 전류를 지원해 최대 1천kW(킬로와트)의 충전 전력을 허용하는데, 이는 세계 최고 수준이다. 최대 500kw 충전 속도를 제공하는 테슬라 슈퍼차저보다 두 배 빠른 속도다 왕 회장은 "사용자의 충전 불안을 완전히 해결하기 위해, 우리는 전기 자동차의 충전 시간을 가솔린 자동차의 급유 시간만큼 짧게 만드는 목표를 추구해 왔다"며 "충전 전력에 메가와트라는 단위가 도입된 것은 업계 최초"라고 설명했다. BYD는 1천kW 충전 전력을 지원하는 슈퍼충전소 건설을 시작할 예정이며, 이러한 시설을 4천개 이상 건설할 계획이다. 새로운 충전 플랫폼은 신형 전기차 모델인 '한L' 세단과 '탕L' 스포츠유틸리티차량(SUV)에 처음 적용하며, 두 모델은 이날부터 사전 판매를 시작했다. BYD는 고출력 모터를 지원하기 위해 최대 1천500V 전압을 갖춘 차세대 실리콘 카바이드 전원 칩을 개발했다고 밝혔다. BYD에 따르면 한L은 정지 상태에서 시속 100km까지 2.7초만에 가속하고, 탕L은 3.6초만에 가속한다.

2025.03.18 09:19류은주

"주가 하락 막자"…롯데이노베이트 경영진 19명, 4억원 규모 자사주 매입

김경엽 롯데이노베이트 대표를 비롯해 경영진 19명이 자사주 매입을 통해 책임 경영 실천에 나섰다. 롯데이노베이트는 최근 경영진 19명이 약 4억원 규모의 자기회사 주식을 매입하며 주주가치 제고에 나섰다고 18일 밝혔다. 이는 최근 롯데이노베이트의 주가가 계속 우하향하는 모습을 보이고 있어서다. 실제 롯데이노베이트는 지난해 1월 26일 5만3천900원으로 52주 최고가를 달성한 후 꾸준히 하락세를 보여 이날 기준 주가가 1만9천580원에 머물고 있다. 1년 전에 비해선 주가가 45.8% 내렸다. 특히 지난해 4월 25일 주주가치 제고를 목적으로 주식매수청구권 행사를 통한 자기주식 소각을 진행하는 감자(자본금 감소)를 결정했음에도 주가는 회복하지 못하는 모습을 보였다. 당시 롯데이노베이트가 소각한 주식은 2019년 현대정보기술 흡수합병 과정에서 발생한 보통주 26만6천964주(주당 액면가 5천원)다. 이에 롯데이노베이트는 지난해 10월 29일 '2024 기업가치 제고 계획'을 발표하며 분위기 전환에 나섰다. 우선 기업가치 제고를 위해 오는 2028년까지 'A·B·C(인공지능, 빅데이터, 클라우드) 플랫폼'을 기반으로 연평균 10% 이상 매출 성장을 이루는 한편, 모빌리티·메타버스 등 신규 사업 매출 비중을 20%까지 늘린다는 방침을 내세웠다. 또 배당성향을 30% 이상 추진하며 적극적으로 주주환원 정책에 나서는 동시에 향후 지배구조 핵심 지표를 현재 53.3%에서 86.7%까지 개선키로 했다. 그럼에도 불구하고 주가가 더 떨어지는 모습을 보이자 롯데이노베이트는 최근 새로운 대표 선임과 조직 개편 등 고강도 쇄신을 통해 경영 체질을 본질적으로 혁신하기 위해 나섰다. 또 새로운 먹거리 발굴을 위해 지난해 4월에는 미국 캘리포니아주에 '이브이시스 아메리카(EVSIS America)'를 설립하고 하반기부터 가동을 시작했다. 더불어 지난해 8월 초실감형 메티버스 칼리버스를 본격 론칭한 후 두 차례 대규모 업데이트를 진행하며 글로벌 진출과 함께 신사업 강화에도 적극 나서고 있다. 앞으로도 롯데이노베이트는 기존 사업들과 새로운 IT 트렌드에 부합하는 사업 모델을 발굴하며 인공지능(AI), 빅데이터, 클라우드, 메타버스, 모빌리티 등 다양한 기술력을 기반으로 고객의 비즈니스 전환을 이끌고 기업의 경쟁력을 높일 계획이다. 롯데이노베이트 관계자는 "이번 자기회사 주식 매입은 기업가치 제고에 대한 확신을 투자자분들께 전달하고 미래 성장에 대한 경영진의 책임경영을 강화화기 위해 전 임원이 뜻을 모았다"며 "향후에도 주주가치 제고를 위해 다양한 방안을 모색할 것"이라고 말했다.

2025.03.18 09:15장유미

플래티어 "디지털 전환 사업 수주 호조”

디지털 플랫폼 솔루션 전문기업 플래티어(대표 이상훈)가 최근 수주 증가와 AI 기반 솔루션 판매 확대에 힘입어 IDT 사업부문의 실적 상승세가 이어지고 있다고 18일 밝혔다. 이는 디지털 전환 수요가 지속적으로 증가하는 시장 환경 속에서 플래티어가 경쟁력을 강화하고 있음을 나타낸다. 디지털 전환은 글로벌 경기 침체에도 불구하고 기업들의 핵심 전략으로 자리 잡고 있다. 실제로 한국산업기술진흥협회가 2023년 국내 570개 기업을 대상으로 실시한 조사 결과에 따르면 디지털 전환을 추진 중인 기업이 33.6%, 검토 중인 기업이 37.2%에 달하는 것으로 나타났다. 이런 흐름에 맞춰 플래티어는 기업들의 디지털 전환을 적극 지원하기 위해 데브옵스(DevOps) 및 협업 솔루션 공급을 지속적으로 확대하고 있다. 이 같은 전략적 움직임은 플래티어의 솔루션 공급에도 반영되고 있다. 올해 들어 플래티어는 국내 기업들에 ▲트라이센티스의 '토스카' ▲퍼포스의 '헬릭스 코어' ▲아틀라시안의 '지라' 및 '컨플루언스' 등의 솔루션 공급을 확대하고 있다. 특히 AI 기반 솔루션 수주가 확대되며 주목받고 있다. 아틀라시안의 경우 IT 서비스 관리와 운영 프로세스 자동화 수요에 맞춰 AI Ops 기술이 적용된 클라우드 버전의 매출이 확대되고 있다. IT 통합 성능 관리 전문 기업 엑셈에는 AI 기반의 노코드 테스팅 자동화 도구 '토스카'를 제공해 소프트웨어 테스트 효율성을 높이는 데 일조했다. 또 국내 주요 게임사에는 선도적 버전 및 형상 관리 솔루션인 '헬릭스 코어'를 보급하며 개발 효율성을 극대화했다. 아울러 서비스 다각화 전략도 성과 확대를 견인하고 있다. 삼성전자를 비롯한 대기업을 대상으로 IT 매니지드 서비스 제공 비중을 늘리며 안정적인 수익 기반을 강화하고 있다. 플랫폼 엔지니어링을 통해 고객사의 다양한 비즈니스 요구를 충족시키고 있다. 이런 성장세를 바탕으로 플래티어는 자체적으로 개발한 ITSM(IT 서비스 관리) 및 ESM(엔터프라이즈 서비스 관리) 솔루션을 4월 출시할 예정이다. 이 솔루션은 아틀라시안 지라를 사용하는 고객들이 신속하게 ITSM 및 ESM을 구축할 수 있도록 프로세스 템플릿, 자동화 프로세스, 플러그인을 제공하며 독자적인 방법론과 컨설팅 서비스를 결합해 차별화를 꾀했다. 플래티어는 이를 통해 국내 ESM 시장 1위 사업자로 자리매김한다는 계획이다. 플래티어 관계자는 "기업들의 성공적인 디지털 전환을 위해 AI 기반 자동화 기술을 접목한 다양한 솔루션을 지속적으로 제공할 계획"이라며 "특히 4월 출시 예정인 ITSM 및 ESM 솔루션을 통해 고객사들이 개발 및 운영 효율성을 극대화할 수 있도록 지원하며 경쟁력을 강화하는데 기여하겠다"고 말했다.

2025.03.18 08:53백봉삼

'DIY 검색'의 함정…AI 검색이 더 효율적인 이유

AI 기반 검색 솔루션이 고객 경험을 좌우한다 디지털 경험의 시작과 끝은 검색에서 이루어진다. AI 기반 검색 솔루션 기업 Lucidworks가 발표한 보고서에 따르면, 디지털 쇼핑객의 69%가 검색 기능을 사용하며, 검색 경험이 좋지 않을 경우 80%가 이탈한다는 조사 결과는 검색의 중요성을 잘 보여준다. 많은 기업들이 자체적으로 검색 솔루션을 구축하거나 Elasticsearch, Solr, Google과 같은 외부 프레임워크를 활용하지만, 이러한 '직접 구축(DIY)' 방식은 겉으로 보기에 매력적일지 모르나 실제로는 많은 부정적 결과를 초래할 수 있다. 특히 인공지능과 머신러닝이 검색 기술의 핵심으로 자리 잡은 현재, DIY 방식은 기술적 한계를 드러내고 있다. 인공지능과 검색 전문가 부족이 DIY 솔루션의 함정 DIY 검색 솔루션의 가장 큰 문제점 중 하나는 전문성 격차다. 효과적인 검색 및 제품 발견 경험을 구축하려면 검색 알고리즘, 인공지능, 머신러닝, 데이터 관리, 사용자 경험 디자인을 아우르는 전문 기술이 필요하다. 맥킨지앤컴퍼니(McKinsey & Company)에 따르면 "숙련된 AI 및 검색 전문가에 대한 수요가 공급을 크게 초과하여 기업이 사내 전문성을 구축하고 유지하는 것이 어렵고 비용이 많이 든다." 이러한 전문가 부족 현상은 기업이 자체 검색 솔루션을 개발할 때 직면하는 가장 큰 장벽 중 하나다. 대부분의 기업은 이러한 복잡한 시스템을 구축하고 유지할 사내 전문성이 부족하여 최적화되지 않은 결과를 얻게 된다. 기술적 부채는 혁신과 민첩성을 저해하며, 기업이 진화하는 고객 기대에 부응하기 어렵게 만든다는 점이 하버드 비즈니스 리뷰(Harvard Business Review)에서도 지적되었다. AI 기반 검색 솔루션의 자동화가 가져오는 비즈니스 성과 직접 구축 방식과 달리 사전 구축된 AI 기반 검색 솔루션은 상당한 비용 절감과 구체적인 비즈니스 이점을 제공한다. 실제 데이터에 따르면 연간 1,100~1,300시간의 큐레이션 시간 절약, 큐레이션 규칙 20-30% 감소, 검색 관련성 10-15% 향상, 검색 결과 없음 쿼리 91% 감소 등의 효율성 향상을 가져올 수 있다. 이러한 효율성 향상은 직접적인 매출 증가로 이어져 검색 영향을 받은 주문 가치가 28% 증가하고 검색 영향을 받은 주문이 30% 증가한다. 사전 구축된 솔루션은 기계 학습 모델, AI 및 생성형 AI 모듈, 추천 모듈, 유연한 신호 캡처, 머천다이징 도구, 챗봇 앱 및 통합, 데이터 커넥터, 최고 수준의 관련성 자동화, 개인화 자동화, 모델 및 규칙 등 다양한 기능을 제공하여 팀의 가치 창출 시간을 단축시킨다. AI 기술을 활용한 비즈니스와 IT 팀 간 격차 해소 DIY 방식의 검색 및 제품 발견 접근 방식은 종종 비즈니스 리더와 구현 담당 기술 팀 간의 격차를 만든다. 이러한 불일치는 다양한 요인에서 비롯되는데, 그중 하나는 AI와 관련된 도메인 전문성 부족이다. 기술 팀은 특정 비즈니스 영역에 대한 깊은 도메인 전문성이 부족하여 특정 산업이나 분야에서 검색 및 제품 발견의 고유한 과제를 예측하고 해결하기 어려울 수 있다. 전자상거래 개인화, B2B 고객 지원, 금융 서비스 연구 등 다양한 시나리오에서 이러한 불일치가 발생할 수 있다. 예를 들어, 전자상거래 개인화 시나리오에서는 머천다이징 팀이 고객 탐색 기록을 기반으로 개인화된 제품 추천을 구현하고자 하지만, 기술팀은 필요한 데이터 소스를 통합하거나 복잡한 알고리즘을 구현하는 데 어려움을 겪어 효과적인 개인화 전략을 실현하지 못할 수 있다. 비용 효율적인 AI 검색 솔루션으로 391% ROI 달성 DIY 방식의 검색 및 제품 발견 솔루션의 총 소유 비용은 빠르게 통제를 벗어날 수 있다. 개발자 시간(약 11,000시간), 첫 해 서비스 비용(180만 달러), 2-5년 간 전담 유지 관리 팀(약 10명의 개발자)에 대한 지속적인 필요성은 상당한 재정적 부담을 만든다. 반면, 사전 구축된 솔루션은 상당한 비용 절감과 구체적인 비즈니스 이점을 제공한다. 실제 데이터에 따르면 연간 1,100~1,300시간의 큐레이션 시간 절약, 큐레이션 규칙 20-30% 감소, 평균 상호 순위가 0-15% 개선되고, 검색 결과 없음 쿼리가 91% 감소하는 효율성 향상을 가져온다. 이러한 효율성 향상은 직접적인 매출 증가로 이어져 검색 영향을 받은 주문 가치가 28% 증가하고 검색 영향을 받은 주문이 30% 증가한다. 사전 구축된 솔루션을 선택하면 DIY 검색의 숨겨진 비용과 복잡성을 피하고 귀중한 리소스를 확보하며 시장 진출 시간을 단축할 수 있다. 또한 고급 검색 기술과 AI를 활용하여 탁월한 고객 경험을 제공하고 궁극적으로 수익 성장과 장기적인 성공을 이끌어낼 수 있다. 루시드웍스(Lucidworks)의 검색 솔루션을 통해 391%의 긍정적인 ROI를 달성할 수 있다는 조사 결과는 AI 기반 검색 솔루션의 강력한 비즈니스 가치를 보여준다. FAQ Q: 생성형 AI는 기존 검색 솔루션과 어떻게 다른가요? A: 생성형 AI는 단순한 키워드 매칭을 넘어 사용자의 의도를 이해하고 맥락에 맞는 답변을 생성할 수 있습니다. 이를 통해 검색 결과의 정확성이 향상되고 제로 결과 쿼리가 91%까지 감소하는 효과를 볼 수 있습니다. Q: 중소기업도 AI 기반 검색 솔루션을 도입할 수 있나요? A: 네, 다양한 규모의 기업을 위한 AI 검색 솔루션이 있습니다. DIY 방식으로 약 11,000시간의 개발자 시간과 180만 달러의 첫 해 비용이 드는 것에 비해, 사전 구축된 솔루션은 초기 투자 비용을 크게 줄이고 빠른 ROI를 제공합니다. Q: AI 검색 솔루션 도입으로 기대할 수 있는 구체적인 성과는 무엇인가요? A: AI 검색 솔루션 도입 시 검색 관련성 10-15% 향상, 검색 영향을 받은 주문 가치 28% 증가, 검색 영향을 받은 주문 30% 증가 등의 구체적인 성과를 기대할 수 있습니다. 또한 큐레이션 시간을 연간 1,100-1,300시간 절약할 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.18 08:40AI 에디터

카이스트, LLM 학습시간 예측 모델 개발… AI 훈련 비용 5% 절감

GPU 활용률 10% 저하로 훈련 비용 수백만 달러 증가, vTrain으로 해결책 제시 대규모 언어 모델(LLM)이 다양한 응용 분야에서 널리 보급됨에 따라 인공지능 커뮤니티가 직면한 중요한 과제는 이러한 대규모 AI 모델을 비용 효율적인 방식으로 훈련하는 방법이다. 기존의 LLM 훈련 계획은 일반적으로 LLM 병렬화 공간에 대한 철저한 검토보다는 경험적 관찰에 기반한 휴리스틱 기반 병렬 훈련 전략을 채택한다. 이러한 한계로 인해 기존 시스템은 상당한 성능 향상의 여지를 남겨두게 되며, 수백만 달러에 달하는 훈련 비용이 낭비된다. 예를 들어, 1,024대의 NVIDIA A100 GPU를 사용하여 GPT-3(175B 매개변수)를 훈련할 때, GPU 컴퓨팅 활용률이 단지 10%(50%에서 40%로) 감소하더라도 훈련 시간이 8일 증가하여 수백만 달러의 추가 비용이 발생한다. 그러나 이러한 대규모 LLM을 훈련해야 하는 규모 때문에 훈련 시스템 구성의 설계 공간을 철저히 탐색하여 가장 최적의 비용 효율적인 하이퍼파라미터를 찾는 것은 극히 어려운 일이다. 수십 분 내 최적 훈련 전략 도출하는 vTrain의 혁신적 시뮬레이션 기술 카이스트가 발표한 논문에 따르면, 비용 효율적이고 컴퓨팅 최적의 LLM 훈련 시스템 평가를 안내하는 프로파일링 기반 시뮬레이터인 vTrain은 해당 문제를 해결하는 데 도움이 된다. vTrain은 AI 실무자들에게 효율적이고 비용 효율적인 LLM 훈련 시스템 구성을 결정하기 위한 빠르고 정확한 소프트웨어 프레임워크를 제공한다. vTrain의 핵심 특징은 프로파일링 기반 방법론을 사용하여 각 설계 지점의 LLM 훈련 시간을 정확하게 추정하는 것이다. 이는 고성능 멀티코어 CPU 서버에서 몇 십 분 내에 최적의 LLM 훈련 시스템 구성을 결정할 수 있게 한다. vTrain의 설계는 LLM 훈련 시간을 정확하게 추정할 수 있게 하는 다음과 같은 핵심 관찰에 기반한다. 첫째, 최신 AI 알고리즘은 각 그래프 노드가 신경망 레이어를 나타내는 비순환 그래프로 표현된다. 둘째, LLM 추론과 달리, 훈련을 위한 LLM 그래프 노드의 실행 순서는 컴파일 시간에 정확하게 정의되므로 vTrain은 얼마나 많은 LLM 그래프 노드를 실행해야 하는지와 그 실행 순서를 정적으로 결정할 수 있다. 셋째, 대상 GPU 아키텍처에서 각 개별 LLM 그래프 노드(각 레이어)의 실행 시간은 매우 결정적이며 서로 다른 실행 간에 거의 변동이 없다. 경험적 방식 대비 10% 적은 GPU로 5% 비용 절감, vTrain의 사례 연구 vTrain의 실용성을 입증하기 위해 여러 사례 연구를 실시했다. 첫 번째 사례는 비용 효율적인 LLM 훈련 계획이다. 주어진 LLM, 훈련 토큰 크기 및 컴퓨팅 예산(즉, 총 GPU 수)이 주어졌을 때, 벽시계 훈련 시간과 그에 관련된 훈련 비용을 최소화하는 가장 최적의 훈련 병렬화 전략을 결정할 수 있다. 두 번째는 비용 효율적인 멀티테넌트 LLM 스케줄링으로, 여러 LLM 훈련 작업이 GPU 클러스터를 공유할 때, GPU 활용률을 최대화하면서 작업 완료 시간을 최소화하는 효율적인 스케줄링 알고리즘을 식별할 수 있다. 세 번째는 컴퓨팅 최적의 LLM 모델 설계로, 고정된 컴퓨팅 및 훈련 시간 예산이 주어졌을 때, Chinchilla 스케일링 법칙을 만족하는 가장 큰 LLM을 결정할 수 있다. 예를 들어, MT-NLG(530B) 모델 훈련에서 vTrain은 기존 방식보다 10% 적은 GPU를 사용하면서 4.5% 높은 GPU 활용률을 달성하고, 훈련 비용을 5% 절감하는 훈련 계획을 도출했다. 텐서, 데이터, 파이프라인 병렬화의 최적 조합으로 LLM 훈련 효율성 극대화 현대 LLM 훈련은 최첨단 3D 병렬화 방식(데이터 병렬화, 텐서 병렬화, 파이프라인 병렬화)을 적용한다. 이는 LLM과 같은 거대한 AI 모델을 분할하여 여러 GPU에서 효율적으로 학습시키기 위한 전략이다. 텐서 병렬화는 모델 가중치를 GPU 내에서 열과 행 차원으로 나누어 같은 노드 내 GPU 간에 고대역폭 통신을 활용한다. 데이터 병렬화와 파이프라인 병렬화는 주로 노드 간 병렬화에 사용되며, 상대적으로 통신 오버헤드가 적다. vTrain은 이러한 복잡한 병렬화 전략의 성능을 정확하게 모델링하고, 최적의 구성을 찾아내어 GPU 활용률을 높이고 훈련 비용을 최소화할 수 있다. 145억에서 76억 매개변수로: vTrain으로 발견한 30일 내 훈련 가능한 현실적 모델 크기 Chinchilla 스케일링 법칙에 따르면, 주어진 컴퓨팅 예산 내에서 최적의 모델 크기와 훈련 토큰 수 사이에는 균형이 필요하다. 단순히 모델 크기만 키우는 것은 과소훈련으로 이어져 알고리즘 성능을 완전히 활용하지 못한다. GPU 효율성에 대한 현실적인 평가 없이 단순히 가용 GPU 수만으로 컴퓨팅 예산을 결정하면 오해의 소지가 있다. vTrain은 실제 GPU 활용률을 고려하여 보다 현실적인 컴퓨팅 최적 모델 크기를 도출할 수 있다. 예를 들어, 420개의 NVIDIA DGX A100 서버(3,360 A100 GPU)를 30일 동안 사용한다고 가정할 때, 단순히 100% GPU 활용률을 가정하면 1,456억 매개변수의 모델을 2,912억 토큰으로 훈련할 수 있다고 예상할 수 있다. 그러나 vTrain은 실제로는 평균 35.56%의 GPU 활용률만 달성 가능하며, 이는 원래 기대했던 30일 대신 85일의 훈련 시간이 필요함을 보여준다. vTrain을 사용하면 760억 매개변수의 모델을 1,521억 토큰으로 30일 내에 훈련할 수 있는 더 현실적인 계획을 수립할 수 있다. FAQ Q: 대규모 언어 모델 훈련에서 GPU 활용률이 왜 그렇게 중요한가요? A: GPU 활용률은 훈련 시간과 비용에 직접적인 영향을 미칩니다. vTrain의 연구에 따르면 GPU 활용률이 단 10% 감소하더라도(50%에서 40%로) 훈련 시간이 8일 증가하며, 이는 수백만 달러의 추가 비용을 의미합니다. 따라서 최적의 병렬화 전략을 통한 GPU 활용률 최적화는 비용 효율적인 LLM 훈련에 필수적입니다. Q: vTrain은 어떻게 기존 LLM 훈련 방식보다 더 효율적인 방법을 찾아낼 수 있나요? A: vTrain은 프로파일링 기반 시뮬레이션을 통해 수천 가지의 가능한 병렬화 구성을 빠르게 평가하여 최적의 훈련 계획을 도출합니다. 기존 방식은 경험적 관찰에 기반한 휴리스틱에 의존하지만, vTrain은 전체 설계 공간을 체계적으로 탐색하여 GPU 활용률과 훈련 시간 사이의 최적 균형점을 찾아냅니다. Q: Chinchilla 스케일링 법칙이란 무엇이며 LLM 훈련에 어떤 영향을 미치나요? A: Chinchilla 스케일링 법칙은 주어진 컴퓨팅 예산 내에서 모델 크기와 훈련 토큰 수를 균형있게 확장해야 한다는 원칙입니다. 이 법칙에 따르면, 모델을 과소훈련하면 해당 모델의 알고리즘 잠재력을 완전히 발휘할 수 없습니다. vTrain은 실제 GPU 효율성을 고려하여 이 법칙을 적용함으로써, 주어진 시간과 자원 내에서 훈련할 수 있는 최적의 모델 크기와 토큰 수를 더 정확하게 예측할 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 20:48AI 에디터

AI는 시각장애인의 눈이 될 수 있을까

전 세계 22억 명 시각장애인을 위한 최초의 1인칭 시점 비디오 데이터셋 'EgoBlind' 현재 전 세계에는 약 22억 명의 시각장애인이 살고 있다. 이들이 일상생활을 더 독립적으로 영위할 수 있도록 돕는 기술은 계속해서 발전하고 있으며, 최근 다중 모달 대규모 언어 모델(MLLM)의 발전으로 시각적 질의응답(VQA) 기술이 크게 향상되었다. 그러나 지금까지 대부분의 VQA 데이터셋은 제3자 시점이나 일반적인 이미지와 비디오 이해에 초점을 맞추고 있어, 실제 시각장애인의 관점에서 필요한 실시간 지원에는 한계가 있었다. 싱가포르 국립대학교, 중국 커뮤니케이션 대학교, 중국 과학기술대학교, 허페이 공과대학교 연구팀이 공동으로 개발한 'EgoBlind'는 시각장애인의 1인칭 시점에서 촬영된 비디오를 기반으로 한 최초의 VideoQA 데이터셋이다. 이 데이터셋은 시각장애인이 직접 착용한 카메라로 촬영된 1,210개의 비디오와 4,927개의 질문을 포함하고 있으며, 이 질문들은 시각장애인이 직접 제기하거나 검증한 것들로 구성되어 있다. "길이 앞에 있나요?" - 시각장애인이 실제 일상에서 가장 필요로 하는 6가지 정보 유형 EgoBlind 데이터셋은 시각장애인이 일상생활에서 필요로 하는 지원 유형을 여섯 가지 주요 카테고리로 분류했다. 정보 판독(Information Reading): 시각장애인이 알고 싶어하는 특정 정보 획득. 예: "이 메뉴에는 무엇이 있나요?", "지금 엘리베이터는 몇 층인가요?" 안전 경고(Safety Warning): 주변 환경의 물리적 안전 위험이나 인적 요소 관련 위험 판단. 예: "길을 건널 때 차가 지나가고 있나요?", "에스컬레이터의 방향은 어떻게 되나요?" 길 안내(Navigation): 실내외 이동 시 필요한 방향과 위치 정보. 예: "화장실은 어디에 있나요?", "지금 내가 출구를 향해 서 있나요?" 사회적 소통(Social Communication): 주변 사람들과의 상호작용 및 다중 활동을 위한 상태 정보 파악. 예: "지금 누가 나에게 말하고 있나요?", "안내견이 엘리베이터에 안전하게 탔나요?" 도구 사용(Tool Use): 각종 도구나 기기 사용 방법. 예: "전자레인지는 어떻게 사용하나요?", "이 문은 어떻게 여나요?" 기타 자원(Other Resources): 주변의 서비스 시설이나 활동 정보. 예: "근처에 시각장애인용 보행로가 있나요?", "특정 브랜드 상점이 있나요?" 이 분류는 시각장애인의 실제 필요에 기반하여 만들어진 것으로, 연구팀은 시각장애인 참가자들을 대상으로 광범위한 설문조사를 실시해 각 질문 유형의 실질적 유용성을 검증했다. GPT-4o도 인간보다 30%p 뒤처진다 - 15개 최신 AI 모델의 성능 실험 결과 연구팀은 EgoBlind 데이터셋을 활용해 현재 최고 수준의 MLLM 15개(GPT-4o, Gemini 2.0 등의 상용 모델 3개와 InternVL2, LLaVA-OV 등의 오픈소스 모델 12개)의 성능을 종합적으로 평가했다. 그 결과, 모든 모델이 시각장애인을 위한 실시간 지원에 상당한 한계를 보였다. 주요 발견 사항: 가장 성능이 좋은 모델(Gemini 2.0)도 정확도가 56.6%에 그쳐, 인간 성능(87.4%)에 비해 약 30%p 낮았다. 상용 모델과 최고 성능의 오픈소스 모델 간 성능 차이가 크지 않았다. 일반적인 자기 중심적 VQA나 시각장애인용 이미지 QA에서 좋은 성능을 보이는 모델이 반드시 EgoBlind에서도 좋은 성능을 보이지는 않았다. 특히 '길 안내', '안전 경고', '도구 사용' 질문에서 모델들의 성능이 현저히 떨어졌다. "이 차가 움직이고 있나요?" - AI가 시각장애인의 가장 중요한 질문에 답하지 못하는 5가지 이유 연구팀은 다양한 질문 유형과 실패 사례를 분석하여 다음과 같은 주요 문제점을 식별했다. 사용자 의도 이해 부족: AI는 시각 콘텐츠에 대해 객관적으로 정확한 답변을 제공할 수 있지만, 동적인 자기 중심적 시각 맥락 내에서 시각장애인의 의도를 추론하는 데 한계를 보였다. 예를 들어, "앞에 길이 있나요?"라는 질문에 장애물이 있음에도 단순히 "네"라고 대답하는 경우가 많았다. 실시간 공간 인식 문제: 모델들은 시각장애인 사용자가 움직일 때 사용자 기준의 공간 방향(예: "내 오른쪽에 있는 제품은 무엇인가요?")을 효과적으로 업데이트하지 못했다. 시간적 맥락 추론 한계: 모델들은 비디오의 시간적 맥락을 추론하고 사용자의 실시간 위치에 상대적인 객체를 파악하는 데 어려움을 겪었다. 장애물 식별 부족: '안전 경고' 질문에서 모델들은 실제 장애물을 정확히 식별하고 경고하는 데 한계를 보였다. 비현실적 답변(Sycophancy): 모델들, 특히 오픈소스 모델들은 시각장애인이 실제로 존재하지 않는 대상에 대해 질문할 때 잘못되거나 잠재적으로 해로운 답변을 제공하는 경향이 있었다. 이 연구는 시각장애인을 위한 AI 지원 기술 개발의 중요한 방향을 제시하고 있다. 연구팀은 향후 개선을 위해 사용자 의도에 대한 더 나은 이해, 연속적인 비디오 프레임의 미묘한 차이에 민감한 모델 개발, 장기 기억 기술 적용, 시각장애인의 실제 필요에 초점을 맞춘 훈련 데이터 합성 등을 제안했다. 87.4%의 인간 성능 VS 56.6%의 AI 성능 - 실질적인 시각장애인 지원 기술의 미래 전망 EgoBlind 연구는 시각장애인의 실제 필요에 부합하는 AI 시각 지원 기술 개발에 중요한 기반을 마련했다. 이 데이터셋은 현재 MLLM 모델들의 한계를 분명히 보여주는 동시에, 향후 연구 방향에 대한 통찰력을 제공한다. 특히, 시각장애인의 1인칭 시점에서의 동적 장면 이해, 실시간 맥락 인식 사용자 의도 추론, 지원 중심의 답변 생성 등 세 가지 핵심 과제를 해결하는 데 초점을 맞추어야 한다는 점이 강조되었다. 이 연구는 단순한 객체 인식이나 설명을 넘어, 시각장애인의 구체적인 필요와 맥락에 맞춘 실질적인 AI 지원 시스템 개발의 중요성을 환기시킨다. EgoBlind 데이터셋과 연구 결과는 앞으로의 AI 시각 지원 기술이 더욱 정확하고 유용한 방향으로 발전하는 데 중요한 역할을 할 것으로 기대된다. FAQ Q: 시각장애인을 위한 AI 시각 지원 기술은 기존 기술과 어떤 점이 다른가요? A: 기존 기술이 일반적인 객체 인식이나 장면 설명에 초점을 맞췄다면, EgoBlind 연구를 통해 개발 중인 AI 시각 지원 기술은 시각장애인의 1인칭 시점에서 실시간으로 필요한 정보(안전 위험, 길 안내, 도구 사용법 등)를 맥락에 맞게 제공하는 데 중점을 둡니다. Q: 현재 AI 모델들이 시각장애인 지원에 있어 가장 어려워하는 부분은 무엇인가요? A: 현재 AI 모델들은 시각장애인의 실제 의도 파악, 사용자 중심의 공간 방향 인식, 시간적 맥락 추론, 안전 관련 장애물 식별에 가장 큰 어려움을 겪고 있습니다. 특히 실시간으로 변화하는 환경에서 사용자 관점의 정보를 제공하는 데 한계가 있습니다. Q: EgoBlind 연구가 일반 사용자에게도 의미가 있을까요? A: 네, EgoBlind 연구는 AI가 인간의 관점에서 세상을 이해하고 맥락에 맞는 지원을 제공하는 능력을 향상시키는 데 기여합니다. 이러한 발전은 자율주행 차량, 증강현실, 로봇 보조 등 다양한 분야에도 적용될 수 있어 장기적으로는 모든 사용자에게 혜택을 줄 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 20:47AI 에디터

헬스케어 홀딩 슈바이츠, 이펙텀 CH-Rep(스위스) 인수

스위스의 선도적인 의료기기 서비스 제공업체이자 유통업체인 헬스케어 홀딩 슈바이츠 주식회사(Healthcare Holding Schweiz AG)가 이펙텀 CH-Rep 주식회사(Effectum CH-Rep AG)를 인수해 포트폴리오를 확장하고 있다. 헬스케어 홀딩 슈바이츠는 빈터베르크 어드바이저리(Winterberg Advisory GmbH)에서 관리한다. 바르, 스위스, 2025년 3월 17일 /PRNewswire/ -- 헬스케어 홀딩스 슈바이츠 주식회사(Healthcare Holding Schweiz AG)가 이펙텀 CH-Rep의 인수를 성공적으로 완료했다. 이번 인수는 이펙텀 메디컬 주식회사(Effectum Medical AG)에서 제공한 스위스 공인 대리인(CH-REP) 서비스를 분리해 인수한 것이다. 2021년 5월 26일부터 시행된 의료기기 법령(MedDO SR 812.213)에 따라 스위스 등록 사무소가 없는 의료기기 제조업체는 스위스 내 제품 유통을 위해 CH-REP를 지정해야 한다. 이번 인수를 통해 헬스케어 홀딩 슈바이츠는 전 세계 의료 기술 제조업체를 위한 종합 파트너로서의 입지를 강화했다. 이제 그룹 계열사를 통해 수입 및 유통뿐만 아니라 규제 요건을 완벽하게 준수하는 통합 서비스를 제공할 수 있게 됐다. Transaction successfully closed, from left to right: Florian Angstmann, MME Legal, Fabio Fagagnini, CEO of Healthcare Holding Schweiz AG, Fabian Kroeher, President of the Board of Healthcare Holding Schweiz AG, Carina Kandrian, Founder of Effectum Medical AG, Michael Eggimann, Board Member of Effectum Medical AG, Philipp Pielmeier, CFO of Healthcare Holding Schweiz AG, Gregory Budakov, Managing Director M&A of Healthcare Holding Schweiz AG 파비오 파가니니(Fabio Fagagnini) 헬스케어 홀딩 슈바이츠 최고경영자(CEO)는 "이펙텀 CH-Rep를 통해 스위스 공인 대리점의 역할을 포함하도록 서비스 포트폴리오를 확장해 그룹 역량을 강화했다. 이제 영업 담당자와 전무 이사는 모든 규제 요건을 전문적으로 충족한다는 확신을 가지고 혁신적인 제품과 탁월한 고객 서비스에 더욱 집중할 수 있다"고 전하며 이번 인수에 대한 기대감을 밝혔다. 킴 쥐거(Kim Züger) 품질 관리 및 규제 업무 책임자이자 새로 임명된 이펙텀 CH-Rep의 이사는 "규제 준수는 우리의 최우선 과제"라며 "이펙텀 CH-Rep을 통해 우리는 헬스케어 홀딩 슈바이츠의 공급업체뿐만 아니라 수많은 다른 제조업체에도 이 서비스를 제공한다. 이는 우리의 전문성과 높은 품질 기준을 명확히 보여주는 증거다"라고 말했다. 이펙텀 메디컬 이사인 마이클 에기만(Michael Eggimann) 이펙텀 CH-Rep 매각 책임자는 "우리는 파비오 파가니니(Fabio Fagagnini)와 그의 팀과 오랫동안 협력해 왔으며, 이펙텀 CH-Rep이 훌륭한 손에 맡겨졌다고 확신한다"며 "이번 전환을 통해 우리는 법적 제조 서비스와 혁신적인 플러그 앤 플레이 품질 관리 시스템의 개발 및 유통에 전념할 수 있게 됐으며, 앞으로도 고객의 이익을 위해 이펙텀 CH-Rep과 긴밀히 협력할 것"이라고 말했다. 이펙텀 CH-Rep(Effectum CH-Rep AG) 소개 올텐에 본사를 둔 이펙텀 CH-Rep는 스위스 공인 대리인(CH-REP)으로서 외국 의료기기 제조업체의 스위스 시장 진출을 지원한다. CH-REP로서 이펙텀 CH-Rep는 스위스 등록 요건 준수 보장, 예방 및 시정 조치에 대해 스위스의약품청(Swissmedic)과 협력, 규제준수책임자(PRRC) 제공, 기술 문서에 대한 접근 보장, 사고 및 불만 사항 보고 등의 책임을 맡고 있다. 헬스케어 홀딩 슈바이츠 주식회사(Healthcare Holding Schweiz AG) 소개 헬스케어 홀딩 슈바이츠는 구매, 구축, 기술화 플랫폼이자 스위스의 선도적인 의료 기술 제품 및 서비스 제공업체다. 동사는 바르에 본사를 두고 있으며, 주로 승계 계약, 파트너십, 유기적 성장의 맥락에서 인수를 통한 성장 전략을 추구한다. 헬스케어 홀딩 슈바이츠와 그 그룹사들은 최고 수준의 혁신과 고객 만족을 지향한다. Healthcare Holding Schweiz는 지속적으로 기술을 활용해 비즈니스 프로세스를 보다 안전하고 효율적으로 만든다. 시장 리더로서, 업계의 새로운 표준을 설정하고 직원들에게 매력적인 개발 기회를 제공한다. 모든 경영진은 헬스케어 홀딩 슈바이츠의 지분을 보유하고 있어 역동적인 기업가 커뮤니티를 형성하고 있다. 빈터베르크 어드바이저리(Winterberg Advisory GmbH) 및 빈터베르크 그룹(Winterberg Group AG) 소개 추크에 본사를 둔 빈터베르크 그룹은 설립자를 위한 독립적인 패밀리 오피스로 운영되고 있다. 빈터베르크는 주로 독일어권 지역의 중소기업에 투자하며, 스타트업 및 부동산에 대한 투자도 선별적으로 고려한다. 빈터베르크 어드바이저리는 독일 연방금융감독청(BaFin)의 규제를 받는 일반 파트너이자 펀드 매니저다. 동사는 수많은 사모펀드를 출시했으며 Winterberg Investment VIII 및 Winterberg Investment IX를 통해 엘스케어 홀딩 슈바이츠에 투자하고 있다. 파트너이자 전무 이사인 파비안 크뢰허(Fabian Kröher)와 플로리안 브리켄슈타인(Florian Brickenstein)은 이사회를 통해 헬스케어 홀딩 슈바이츠를 관리한다. 언론 문의: presse@healthcare-holding.ch 덴탈 액세스(Dental Axess AG) 더보기: www.effectum-chrep.com 헬스케어 홀딩 슈바이츠 더 보기: www.healthcare-holding.ch 헬스케어 홀딩스의 포트폴리오 더 보기: www.senectovia.ch, www.winthermedical.ch, www.mikrona.ch, www.orthowalker.ch, www.mcm-medsys.ch, www.naropa-reha.ch, www.mvb-medizintechnik.ch, www.dentalaxess.comhttp://www.senectovia.ch/http://www.winthermedical.ch/ 이 보도자료는 헬스케어 홀딩 슈바이츠를 대신해 빈터베르크 어드바이저리가 발행 및 배포한다. 사진 - https://mma.prnasia.com/media2/2642029/Healthcare_Holding_Schweiz_Group_Photo.jpg?p=medium600로고 - https://mma.prnasia.com/media2/2642028/Healthcare_Holding_Schweiz_Logo.jpg?p=medium600

2025.03.17 18:10글로벌뉴스

[영상] 가짜 벽 세우고 테슬라 차량 몰고 갔더니

테슬라의 첨단 운전자 보조 시스템 오토파일럿(Autopilot) 시스템을 활성화한 후 테슬라 차량을 가짜 벽으로 몰고 가 충돌 여부를 실험한 영상이 공개돼 화제를 모으고 있다고 자동차 매체 일렉트렉이 16일(현지시간) 보도했다. 해당 실험은 전직 미국 항공우주국(NASA) 엔지니어였던 괴짜 유튜버 마크 로버(Mark Rober)가 진행한 것이다. 마크 로버는 최근 자신의 유튜브에 '자율주행 차를 속일 수 있을까?'(Can you Fool A Self Driving Car?)라는 제목의 영상을 공개했다. 그는 실제 주변 환경과 똑같이 보이도록 페인트로 칠한 가짜 벽을 세운 다음 오토파일럿을 활성화해 테슬라 모델Y 차량을 몰았다. 그 결과 테슬라 차량은 가짜 벽과 그대로 충돌했다. 비교를 위해 그는 라이다(LiDAR)가 장착된 렉서스 스포츠유틸리티차량(SUV)도 동일하게 테스트했는데 렉서츠 차량은 가짜 벽을 감지하고 충돌 직전 벽 앞에서 멈춰 차이를 보였다. 자율주행 기술 개발 업체들은 대부분 카메라, 레이더, 라이더(LiDAR), 초음파 등 다양한 센서를 사용해 자율주행 기술을 제공하고 있지만 유독 테슬라는 카메라 만을 사용해 자율주행 기술을 구동하고 있다. 일론 머스크 테슬라 최고경영자(CEO)는 테슬라의 카메라와 신경망 시스템이 인간 운전자처럼 작동하도록 설계되어 있어 어떤 도로에서 적응할 수 있기 때문에 경쟁사보다 빠르게 확장할 수 있다고 테슬라 차량의 장점을 어필해왔다. 마크 로버는 또한 두 차량을 가지고 다양한 실험을 진행했다. 아이 마네킹을 정지 상태, 움직이는 상태, 불빛에 눈이 부신 상태, 안개 또는 폭우 상태에서 배치한 후 차량이 이를 인식하고 멈추는 지도 테스트했다. 그 결과 테슬라 차량은 안개나 폭우 상황에서 라이다 장착 차량과 달리 마네킹을 보고 정지할 수 없었다. 레이저 기반 시스템인 라이더가 카메라 시스템보다 짙은 안개 속에서도 더 나은 감지 능력을 보인다는 것은 놀라운 일은 아니다. 테슬라의 오토파일럿과 자율주행 시스템은 수년에 걸쳐 개선 작업을 거쳤으나 아직도 라이다 기반 차량에 미치지 못하는 수준임이 나타났다고 외신들은 전했다.

2025.03.17 17:27이정현

에이텐 코리아, 쇼룸 '벙커' 리뉴얼…시연 환경 강화

에이텐 코리아가 설립 18주년을 맞아 자사 쇼룸 '벙커'를 대대적으로 리뉴얼하고, 실사용 환경 기반의 시연 공간으로 새롭게 단장했다고 17일 밝혔다. 이번 개편은 신제품 전시 환경을 최적화하는 데 초점을 맞췄으며, 다양한 실사용 환경에서 에이텐 솔루션이 어떻게 적용될 수 있는지를 직접 체험할 수 있도록 구성했다. 에이텐 코리아 쇼룸은 사전 예약제로 운영되며, 기업 및 기관 관계자가 방문해 필요한 제품을 체험하고 맞춤형 상담을 받을 수 있다. 에이텐 코리아 쇼룸 벙커는 기업 및 공공기관의 제어실, 회의실, 방송 시스템, 데이터센터 운영 환경에서 활용되는 다양한 에이텐 제품을 직접 경험할 수 있는 공간이다. 단순한 제품 전시에 그치지 않고 실제 운용 환경을 구현해 사용자가 제품 성능을 보다 직관적으로 체감할 수 있도록 했다. 리뉴얼을 통해 프로A/V, KVM, PDU, USB 솔루션 등 다양한 제품군이 새롭게 배치되었으며, 방문자는 제품 담당자의 설명과 함께 실시간으로 제품을 시연해볼 수 있다. 새롭게 개편된 쇼룸에서 가장 눈에 띄는 변화는 가로 4.8m × 세로 2m 크기의 대형 LED 비디오월이다. 리뉴얼을 통해 추가된 ATEN VW3620 비디오월 프로세서는 최대 36개의 입력과 20개의 출력, 맞춤형 화면 레이아웃 기능을 지원하며, 오버레이(Overlay), PIP(Picture-in-Picture), PBP(Picture-by-Picture) 등 다양한 디스플레이 모드를 통해 멀티스크린 환경을 자유롭게 구성할 수 있다. 비디오월은 글로벌 LED 디스플레이 전문 브랜드 Absen의 CPK 1.5 패널을 사용해 뛰어난 화질과 균일한 색상 표현을 제공한다. 여기에 ATEN VW784 입력 보드와 ATEN VW884 출력 보드를 함께 적용해 다양한 소스를 유연하게 전환할 수 있으며, 하나의 ATEN VW3620으로 쇼룸 내 여러 디스플레이를 통합 제어할 수 있어 개별 조작 없이 간편한 운영이 가능하다. 또한 컨트롤 박스와 연결하면 태블릿(iPad)에서도 원격 제어할 수 있어, 공간에 구애받지 않는 직관적인 디스플레이 관리가 가능하다. 에이텐 코리아는 이번 리뉴얼은 고객이 직접 제품을 체험하고, 설치 환경에 맞는 최적의 솔루션을 찾을 수 있도록 지원하는 데 중점을 두었다고 설명했다. 또한, 방문자는 1:1 맞춤 컨설팅을 통해 환경에 적합한 제품 조합을 제안받을 수 있으며, 실시간 데모 시연을 통해 제품 활용성을 직접 확인할 수 있다. 에이텐 코리아 마케팅팀 전성훈 팀장은 "쇼룸 벙커는 단순한 전시 공간이 아니라, 실제 운용 환경에서 에이텐 솔루션이 어떻게 작동하는지를 체험할 수 있는 공간이다"고 설명했다. 이어 "고객이 직접 방문해 제품을 시연하고, 설치 환경에 따른 최적의 솔루션을 전문가와 함께 구성할 수 있도록 상담을 제공하며, 이를 통해 실사용 환경에서의 문제 해결과 최적화된 제품 선택을 돕는 것이 목표"라고 관심을 당부했다.

2025.03.17 17:24남혁우

"TV 방송 직후 OTT로...유료방송 '독점 가치' 붕괴"

OTT 서비스 이용률은 급증하는 미디어 환경에서 방송 콘텐츠의 '독점 가치'가 급속히 하락하고 있다. 방송사들이 대부분의 콘텐츠를 방송 직후 OTT에 즉시 제공하면서 유료방송 플랫폼의 차별화 요소가 사라지고 있는 것이다. 이에 따라 콘텐츠 공급의 중복성이 증가하면서 플랫폼 간 차별이 약화돼 유료방송 사업자의 경쟁력이 낮아질 수 있다는 우려가 제기됐다. 황용석 건국대 디지털커뮤니케이션연구센터 교수와 김헌 한양대 정보사회미디어학과 교수는 17일 개최된 방송학회 세미나에서 '방송채널 사업자의 멀티플랫폼 유통 실태 연구'를 통해 국내 방송콘텐츠 시장에서의 멀티호밍 현황과 OTT 플랫폼과 유료방송 간의 경쟁 관계를 분석해 제시했다. 황용석 교수는 "전통적인 제도적 시장 내에 있는 유료방송 사업자와 비제도적 시장에 있는 OTT 간에 있어서 콘텐츠 공급 중복 같은 것들이 일정 부분 나타나고 있다"며 "이런 천이중복(서로 다른 플랫폼이 비슷한 기능과 콘텐츠를 제공하는 현상)이 일어난다는 것은 플랫폼 간 대체성이 증가한다고 할 수 있다"고 설명했다. 43.71%가 두 개 이상 플랫폼에 공급... 지상파는 웨이브, 종편은 티빙 중심 방송채널 사업자의 멀티플랫폼 유통 실태 연구에 따르면 2024년 8월부터 12월까지 1천455개의 주요 방송 프로그램이 OTT에 공급됐다. 그 중 43.71%가 두 개 이상의 OTT 플랫폼에 중복 공급된 것으로 나타났다. 이 중 일부 콘텐츠는 넷플릭스, 웨이브, 티빙, 왓챠, 디즈니+, 쿠팡플레이 등 다수의 플랫폼에 동시 제공됐다. 연구팀은 자동화된 에이전트를 개발해 주요 OTT 플랫폼의 콘텐츠 공급 데이터를 수집했다. 분석 결과 지상파방송사(KBS, MBC, SBS)는 웨이브를 중심으로, 종합편성채널과 tvN 계열은 티빙을 중심으로 콘텐츠를 공급하는 경향이 뚜렷했다. 김헌 교수는 "단독 공급하는 콘텐츠의 경우 KBS는 평균 시청률이 2.3%, MBC는 1.9%, SBS는 1.4% 정도로 확인됐다"며 "다중 공급하는 콘텐츠는 상대적으로 단독 공급에 비해 평균 시청률이 높은 경향을 보였다"고 밝혔다. 종합편성채널(MBN, TV조선, 채널A)의 경우 콘텐츠의 90% 이상이 다수의 OTT 플랫폼을 통해 유통되고 있는 것으로 조사됐다. 이러한 현상은 방송채널 사업자들이 콘텐츠 공급 범위를 확대해 협상력을 강화하는 전략적 선택의 결과로 분석된다. 그러나 OTT플랫폼과 유료방송 간 대체성을 증가시키며 유료방송 사업자의 시장 점유율 하락과 가입자 이탈을 가속화할 가능성이 높다는 우려도 제기됐다. 기존 유료방송에서는 콘텐츠가 OTT 플랫폼에 전달되기까지 일정 기간의 '홀드백(Holdback)'이 적용되는 것이 일반적이었다. 하지만 연구결과 방송 직후 OTT에서 제공되는 콘텐츠 비율이 90% 이상인 것으로 나타났다. 황용석 교수는 "홀드백 기간 자체가 굉장히 중요하다"며 "실시간 텔레비전 프로그램 방송 나가고 나서 얼마나 빨리 OTT에 공급이 되는가가 시청자의 즉각성이라는 욕구를 충족시켜주고 실시간 방송을 빠르게 대체해 줄 수 있기 때문"이라고 설명했다. OTT 주요 3사(넷플릭스, 웨이브, 티빙)의 홀드백 기간 분석 결과 전체 프로그램 중 약 90%가 방영 당일 또는 1~2일 내에 OTT에서 제공됐다. 넷플릭스의 경우 방영 당일 콘텐츠 제공 비율이 51.72%였으나, 2일 내 공급 비율까지 포함하면 90%를 넘어섰다. 웨이브와 티빙은 각각 지상파 및 종합편성채널 콘텐츠를 중심으로 빠르게 공급하며, 특히 퀵VOD 서비스를 활용해 유료방송 실시간 시청의 대체 효과를 극대화하고 있었다. 연구 기간 중 티빙은 85개, 웨이브는 106개의 콘텐츠를 퀵 VOD로 제공했는데, 각 플랫폼의 모기업 콘텐츠(티빙은 종편·JTBC·TVN, 웨이브는 지상파) 중심으로 나타났다. 이는 방송 프로그램 공급자의 멀티호밍 전략과 결합해 유료방송의 독점적 경쟁력을 약화시키고, OTT 중심의 플랫폼 경쟁을 심화시키는 요인으로 작용할 가능성이 높다는 분석이다. 또한 KBS, MBC, SBS 지상파 계열 PP 채널도 전체 방송 시간의 평균 80% 이상이 본 채널 재편성에 의존하고 있는 것으로 나타났다. 김헌 교수는 "PP 자체 제작이 있음에도 불구하고 그러한 경우도 메인 계열 PP 채널에서 방영된 인기 프로그램을 재활용하는 방식의 편성 전략을 진행하고 있다"며 "다만 일부 채널은 차별화된 전략을 보이기도 했다"고 밝혔다. 이어 "MBC 에브리원 같은 경우에는 지상파 재편성 프로그램 수가 16개, PP에서 자체 제작한 콘텐츠 수가 10개로 자체 제작 비중이 상대적으로 높았다"고 덧붙였다. 유료방송 대응 마련 시급...독점공급 여부에 따른 차등정책 도입 필요 플랫폼 간 경쟁이 심화됨에 따라 방송 콘텐츠의 배타성(exclusivity) 조정이 중요한 요소로 부각되고 있다. 연구에 따르면 현재 OTT 플랫폼들은 자체 제작 오리지널 콘텐츠를 늘리면서 배타성 전략을 차별적으로 적용하고 있어, 유료방송 사업자들은 이에 대한 대응 전략 마련이 시급한 상황이다. 황용석 교수는 "콘텐츠 공급의 중복성이 증가하면서 플랫폼 간 차별이 약화되고, 이는 결과적으로 충성도가 낮아지고 가격 민감도가 높아지는 결과를 낳는다"고 지적했다. 그러면서 "OTT의 유료 방송에 대한 프로그램 대체 가능성은 국제적으로 많은 연구를 통해 입증되고 있고, 특히 구독자 감소 커팅 현상들이 나타나고 있다"며 "이런 것들은 이미 최근 연구에서도 2018년에서 22년 사이에 계속해서 증가한다는 연구들도 있다"고 덧붙였다. 황 교수는 유료방송 시장의 경쟁력 유지와 콘텐츠 대가 산정 기준을 합리적으로 조정하기 위해 정책적 대응이 필요하다고 제안했다. 방송콘텐츠 유통 플랫폼이 급증하고 멀티호밍 및 홀드백 제로 전략이 보편화된 현 시점에서, 해당 방식의 거래 방식으로는 유료방송생태계 지속이 불가능할 것이라는 설명이다. 황 교수는 "방송 시장이 시시각각으로 계속 변동하고 있고, 경제 구조와 관계성에서 시간 변수가 굉장히 중요하다"며 "향후에는 지속적인 모니터링과 데이터 축적을 통해 더 체계적인 연구가 필요하다"고 밝혔다. 이어, "이제는 각 플랫폼의 방송사업 경영상황 변화, 독점 콘텐츠 여부 등의 요소를 콘텐츠 대가 산정 기준에 반영하는 등 유료방송 시장 변화가 방송콘텐츠 거래에도 반영돼야 한다"며 "합리적인 콘텐츠 거래 질서가 시장에서 자리잡을 수 있도록 제도화가 뒷받침되어야 한다"고 강조했다.

2025.03.17 17:12최지연

"아이폰17 에어, 가격 130만원…카메라 컨트롤 버튼 탑재"

애플이 올 가을 출시할 예정인 초박형 '아이폰17 에어'의 가격이 기존 플러스 모델과 유사할 것이라는 전망이 나왔다. 블룸버그 통신은 아이폰17 에어가 미국에서 약 900달러(약 130만원)에 출시될 수 있다는 소식을 들었다고 16일(현지시간) 파워온 뉴스레터를 통해 보도했다. 이는 아이폰16 플러스와 같은 가격대로 에어 모델이 향후 아이폰 라인업에서 플러스 모델을 대체하기 때문에 타당한 전망이라고 외신들은 평했다. “배터리 수명 기대 이상…카메라 컨트롤 버튼 탑재” 블룸버그 마크 거먼은 아이폰17 에어가 얇은 두께에도 불구하고 '현재 아이폰과 동등한' 배터리 수명을 제공할 것이라고 밝혔다. 하지만, 구체적인 모델은 언급하지 않았다. 이에 IT매체 맥루머스는 아이폰17 에어의 배터리 수명이 아이폰16 표준 모델과 동일할 것으로 보인다고 전망했다. 그는 애플이 아이폰17 에어의 전력 효율성을 높이기 위해 하드웨어와 소프트웨어를 최적화했다고 밝혔다. ▲더 높은 밀도의 배터리 ▲자체 개발한 전력효율성 높은 C1 모뎀 ▲초광각 카메라가 없어 더 많은 내부 공간이 있다는 점 등을 들어 기대 이상의 배터리 수명을 제공하게 될 것으로 예상됐다. 거먼은 작년 아이폰16 모델에서 처음 채택되 카메라 컨트롤 버튼이 아이폰17 에어에 장착될 것이라고 밝혔다. 아이폰17 에어의 카메라 컨트롤 버튼 장착 전망은 이번이 처음이다. 또, 화면 베젤이 아이폰16 프로 베젤과 비슷하게 얇을 것이라고 예상됐다. 그가 언급한 아이폰17 에어의 사양은 이전에도 나왔던 것으로 ▲ 120Hz 프로모션 지원 6.6인치 디스플레이 ▲ 다이내믹 아일랜드 ▲ A19 칩 ▲ 4천800만 화소 단일 후면 카메라 ▲ C1 모뎀 등이 있다. 오는 9월 애플은 아이폰17 에어를 포함해 아이폰17 4개 모델을 출시할 예정이다.

2025.03.17 16:16이정현

글로브, MWC 2025에서 사이버 보안 대처 및 고객 경험 향상 노력 강조

마닐라, 필리핀 2025년 3월 17일 /PRNewswire/ -- 필리핀의 선도적 통신사 글로브(Globe)가 최근 스페인 바르셀로나에서 막을 내린 세계 최대 이동통신 전시회인 MWC 2025에서 사기 방지를 위한 모범 사례와 고객에게 최고의 경험을 선사하기 위한 여정을 공유했다. Anton Bonifacio, Globe's Chief Information Security Officer and Chief AI Officer, speaks at a roundtable discussion on Globe's efforts against fraud at MWC Barcelona 2025. 안톤 보니파시오(Anton Bonifacio) 글로브 최고정보보안책임자(CISO) 겸 최고 AI 책임자는 여러 부대 행사에 참여해 진화하는 사기 수법에 대응하기 위한 글로브의 적극적인 노력에 대해 설명했다. 보니파시오 책임자는 "글로브는 기술, 정보 공유, 선제적 보안 조치를 통합한 다층적 접근 방식을 활용해 사기와 사이버 위협에 맞선 싸움을 이어가고 있다"면서 "글로브는 AI 기반 솔루션으로 방어 체계를 보완함으로써 고객을 위해 더 안전한 디지털 생태계를 구축하기 위해 최선을 다하고 있다"고 말했다. Rebecca Eclipse, Globe's Chief Transformation and Operations Officer, talks about how Globe transformed its operations to deliver superior customer experience at MWC Barcelona. 글로브는 전 세계 통신사 중 처음으로 클릭 가능한 링크가 포함된 모든 개인 간 SMS를 차단했다. 이는 2022년 9월 모바일 사용자를 겨냥한 사기가 급증하는 가운데 시행된 보안 조치다. 글로브는 또한 보다 효율적이고 효과적인 사기 탐지, 조사, 대응과 예방 조치를 취하기 위해 주요 은행 및 기타 금융 기관과 데이터 공유 계약을 체결했다. 글로브는 이 외에도 갈수록 정교해지는 사이버 위협에 맞서 AI 기반 사이버 보안 솔루션과 전략을 구현하는 초기 단계에 있다. 한편 레베카 이클립스(Rebecca Eclipse) 글로브 최고혁신운영책임자(CTOO)는 '가장 신뢰할 수 있는 서비스 제공업체가 되기 위한 운영 모델의 혁신(Transforming Operating Model Towards Becoming the Most Reliable Service Provider)'이라는 주제의 강연을 통해 고객에게 뛰어난 경험을 제공하기 위한 글로브의 여정에 대한 통찰을 공유했다. 그녀는 글로브가 프로세스를 단순화하고, 비효율성을 줄이고, 부서 간 협력을 도모함으로써 더 민첩하면서도 고객 중심적인 접근 방식을 취하고 있다는 점을 강조했다. 이클립스 CTOO는 "우리는 전국적으로 단일하고 획일적인 전략을 취할 수 없다. 고객에게 제대로 된 경험을 제공하기 위해서는 각 지역의 고객과 환경을 제대로 파악하는 게 필수적이다. 우리는 운영 모델과 우리 자신에 변화를 주기 시작했다. 우리는 더 많은 직원을 현장에 투입했고, 그들은 합심해 더 나은 네트워크 경험을 제공하고 NPS(Net Promoter Score)를 개선하고 이를 통해 수익을 높이기 위해 노력했다"고 말했다. 시범 서비스 지역에서 글로브는 효율적인 접근 방식을 통해 기지국 구축 속도를 높이고 네트워크 커버리지를 향상시켰다. 이러한 변화는 브랜드에 대한 고객의 신뢰도를 높여 수익 개선에 기여했다. 이는 혁신과 우수한 서비스 제공에 대한 글로브의 의지가 얼마나 강한지를 잘 보여주는 사례다. 글로브는 MWC 2025에 참가해 사이버 보안과 고객 경험의 혁신을 선도하는 기업임을 전 세계에 알렸다. 글로브는 보안 조치를 지속적으로 강화하고 운영 방식을 혁신함으로써 고객에게 더 안전하고 원활한 디지털 경험을 제공한다는 사명을 고수하고 있다. https://www.globe.com.ph/에서 글로브에 대한 상세 정보를 확인할 수 있다.

2025.03.17 16:10글로벌뉴스

양자컴퓨터, 초고전적 계산으로 양자 시뮬레이션 한계 돌파… D-웨이브 연구 결과

양자 프로세서, 고전적 방식으로 풀 수 없는 문제 해결 능력 입증 양자 컴퓨터는 수십 년간 특정 작업에서 고전적 알고리즘보다 월등한 속도 향상을 약속해왔다. D-웨이브(D-wave) 연구진은 초전도 양자 어닐링(Quantum Annealing) 프로세서를 사용해 슈뢰딩거 방정식의 해를 빠르게 찾아내는 데 성공했다. 이 연구는 양자 컴퓨팅이 특정 문제에서 '초고전적 계산'(beyond-classical computation) 능력을 보여주는 중요한 사례로, 고전적 컴퓨터로는 현실적인 시간 내에 도달하기 어려운 정확도를 달성했다. 연구진은 이차원, 삼차원 및 무한 차원 스핀 글래스(spin glasses)에서 얽힘(entanglement)의 면적법칙 스케일링을 증명하며, 행렬곱상태(matrix-product-state) 접근법에서 관찰된 확장-지수적 스케일링을 뒷받침했다. 특히 주목할 점은 텐서 네트워크와 신경망 기반의 고전적 방법들이 양자 어닐러와 동일한 정확도를 합리적인 시간 내에 달성할 수 없다는 것이다. 이는 양자 어닐러가 고전적 계산으로는 해결하기 어려운 실질적 중요성을 가진 문제들에 답할 수 있음을 보여준다. 양자 임계 동역학 시뮬레이션: 5000큐비트로 검증된 횡단-장 이징 모델 양자 컴퓨팅의 이론은 특정 작업에서 고전적 알고리즘보다 큰 속도 향상을 약속해왔지만, 실질적인 관심을 가진 문제에서 이러한 능력을 확고히 입증하는 것은 여전히 중요한 과제로 남아있다. 이번 연구는 연속-시간 양자 동역학의 일반적이고 실용적인 문제인 횡단-장 이징 모델(transverse-field Ising model, TFIM)을 시뮬레이션하는 데 중점을 두었다. 초전도 양자 어닐링(QA) 프로세서는 이미 이징형 시스템에서 양자 상전이 시뮬레이션과 큐비트 스핀 글래스에서의 양자 임계 동역학에 활용되어 왔다. 이번 연구에서는 5000개 이상의 큐비트에서 측정된 임계 지수가 예상되는 보편성 클래스의 추정치와 밀접하게 일치하는 것을 확인했다. 이는 슈뢰딩거 진화를 증명하는 설득력 있는 증거지만, 이 매개변수 범위에서도 고전적 방법으로 시뮬레이션할 수 없다는 점을 확립하는 것이 중요하다. 고전 vs 양자: MPS 시뮬레이션과 QPU의 격자 크기별 성능 비교 연구팀은 먼저 작은 문제에서 양자 처리 장치(QPU)의 오차를 평가하기 위해 행렬곱상태(MPS) 시뮬레이션으로 계산된 기준 진실과 비교했다. 서로 다른 설계의 두 가지 양자 프로세서를 사용하여 정사각형, 입방체, 다이아몬드, 이중 클릭(biclique) 등 다양한 차원의 프로그래밍 가능한 토폴로지에서 스핀 글래스를 시뮬레이션했다. 연구 결과, MPS는 이차원 격자 시뮬레이션 문제에 효과적이지만, PEPS(Projected Entangled Pair States)와 NQS(Neural Quantum State) 방법은 느린 퀜치(slow quenches)에서 어려움을 겪는 것으로 나타났다. 특히 이차원 시스템에서 QPU 결과는 L(격자 크기)에 따라 평평한 스케일링을 보였지만, 이를 MPS로 매칭하려면 지수적으로 증가하는 본드 차원이 필요했다. 이는 면적법칙 스케일링과 일치하는 결과다. 양자 우위의 증거: 양자 시뮬레이션에 필요한 고전 컴퓨터는 수백 페타바이트 메모리 필요 고차원 시스템에서는 QPU 오차가 거의 일정하게 유지되는 반면, 이를 MPS로 매칭하려면 훨씬 더 많은 본드 차원이 필요했다. 연구진은 다양한 토폴로지, 크기, 퀜치 속도에서 선형 관계를 관찰했는데, 이는 MPS 표현 복잡성과 얽힘 사이의 긴밀한 연결을 보여준다. 연구진은 고전적으로 시뮬레이션 가능한 시스템에서 얻은 데이터를 바탕으로 더 큰 크기로 외삽했을 때, MPS가 QPU 시뮬레이션 품질을 매칭하기 위해 필요한 계산 리소스를 추정했다. 가장 큰 문제에서는 앞으로 수십 년간 최첨단 슈퍼컴퓨터에서도 QPU 품질에 맞추기 위해 수백 페타바이트의 메모리와 연간 전 세계 전력 소비량을 초과하는 전력이 필요할 것으로 예상된다. 이 스케일링 분석은 모든 고려된 퀜치 시간에서 QPU 품질을 매칭할 수 있는 유일한 방법인 MPS에 적용되며, 모든 고전적 방법에 대한 본질적인 하한은 아니다. 그러나 이 연구는 양자 프로세서가 기존 고전적 방법으로는 해결하기 어려운 복잡한 양자 역학 문제를 정확하게 시뮬레이션할 수 있는 능력을 갖추고 있음을 입증한다. FAQ Q: 양자 어닐링(Quantum Annealing)이란 무엇이며 왜 중요한가요? A: 양자 어닐링은 양자역학적 터널링 효과를 이용해 복잡한 최적화 문제의 해를 찾는 방법입니다. 이 논문에서는 양자 어닐링 프로세서가 고전적 컴퓨터로는 합리적인 시간 내에 해결하기 어려운 양자 시스템 동역학을 시뮬레이션할 수 있음을 보여주는데, 이는 양자 컴퓨팅이 실질적으로 유용한 문제에서 '양자 우위'를 달성할 수 있다는 중요한 증거입니다. Q: 이 연구에서 말하는 '초고전적 계산'(beyond-classical computation)이란 어떤 의미인가요? A: 초고전적 계산이란 양자 컴퓨터가 최고의 고전적 알고리즘보다 본질적으로 더 빠르게 특정 문제를 해결할 수 있는 능력을 의미합니다. 이 연구에서는 양자 프로세서가 양자 스핀 글래스 역학을 시뮬레이션하는 데 있어, 가장 발전된 고전적 방법(텐서 네트워크, 신경망 등)으로도 동일한 정확도를 달성하기 위해 비현실적인 양의 계산 자원과 시간이 필요함을 증명했습니다. Q: 이 연구 결과가 미래 컴퓨팅에 어떤 영향을 미칠까요? A: 이 연구는 양자 컴퓨터가 양자역학 시뮬레이션과 같은 특정 영역에서 고전적 컴퓨터의 한계를 뛰어넘을 수 있음을 보여줍니다. 이는 물리학, 화학, 재료 과학 등 복잡한 양자 시스템을 이해해야 하는 분야에서 중요한 돌파구가 될 수 있으며, 새로운 소재 개발, 약물 설계, 더 효율적인 화학 반응 설계 등 다양한 응용 분야에서 혁신을 가져올 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 16:06AI 에디터

당신 회사는 AI 준비가 됐나…가트너가 제시하는 2025 로드맵

생성형 AI, 하이프 사이클 정점에서 22.6% 생산성 향상 약속 가트너의 2024년 AI 하이프 사이클에서 생성형 AI(Generative AI)는 여전히 정점에 위치하고 있다. 기업 경영진들은 생성형 AI를 통해 향후 12~18개월 동안 평균 22.6%의 생산성 향상, 15.8%의 매출 증가, 15.2%의 비용 절감을 기대하고 있다. 이러한 수치는 생성형 AI가 비즈니스 성과에 미치는 잠재적 영향력을 보여준다. 하지만 76%의 CIO와 기술 리더들은 혁신 속도와 확장 필요성 사이에서 균형을 맞추는 데 어려움을 겪고 있다. 생성형 AI 기술은 2024년에도 빠르게 발전했다. 주요 상용 및 오픈소스 대규모 언어 모델(LLM)은 성능이 크게 향상되면서도 토큰 길이 비용은、감소했다. 맥락 길이가 약 2,500페이지의 텍스트에 해당하는 100만 토큰까지 증가했으며, 특정 목적을 위한 소형 언어 모델의 등장, 여러 소규모 전문가 모델을 결합한 전문가 혼합(MoE) 모델, LLM 기반의 고급 추론 기능을 활용하는 AI 에이전트 등이 주목할 만한 발전이다. 2025년에는 기업들이 안전하고 민첩하며 확장 가능한 분석 및 AI 서비스를 제공해야 하는 과제에 직면할 것이다. 이를 위해 데이터 및 분석 기술 전문가들은 AI 및 분석 기반을 강화하고, 가치와 신뢰성을 강조하며, 신뢰와 투명성을 촉진해야 한다. 크롤-워크-런: 76%의 CIO가 선택한 AI 확장 전략 가트너는 기업이 생성형 AI를 도입하고 확장하기 위해 '크롤-워크-런(Crawl-Walk-Run)' 접근법을 제안한다. 이는 초기 파일럿부터 생산 구현, 그리고 최종적으로 확장 가능한 기반 구축으로 진행되는 전략이다. 첫 단계인 '크롤'에서는 내부 사용 사례로 시작하여 접근 가능한 기술 환경을 선택하고, 개념과 기술을 검증한 후 결과를 평가하고 문제점을 식별한다. 이 파일럿 단계에서 기업은 다양한 이해관계자에게 생성형 AI의 역량과 이점을 시연하고, 새로운 사용 사례의 우선순위를 정하며, 기술·위험·규정 준수·개인정보 보호·보안 관련 문제를 파악해야 한다. '워크' 단계에서는 초기 파일럿의 성공과 교훈을 바탕으로 아이디어를 수집하고 사용 사례를 선택하는 공식적인 접근 방식을 수립한다. 생산성 향상과 고객 및 직원 경험 개선이 주요 기능적 사용 사례이며, 이는 텍스트 생성, Q&A 대화, 요약, 분류, 개체명 인식, 감정 분석, 언어 번역 등의 기술적 사용 사례로 구현된다. '런' 단계에서는 중앙 집중식 핵심 팀을 넘어 여러 AI 및 소프트웨어 개발 팀이 참여하는 민주화된 모델로 확장하기 위한 접근 방식을 고려해야 한다. 이는 모듈식 아키텍처와 전체론적 관점을 필요로 한다. RAG 아키텍처로 AI 환각 문제 해결: 기업 신뢰도 확보 전략 기업에서 생성형 AI를 확장 구현하기 위해서는 모듈식 아키텍처가 필수적이다. 통화 센터 상담원이 고객과 대화하는 도중 추가 정보를 찾고, 대화를 요약하며, 다른 팀에 대한 후속 조치를 식별하고, 대화 품질을 평가해야 하는 시나리오를 생각해보자. 이런 사용 사례는 다양한 프롬프트 흐름을 조율하고 여러 전문 모델을 활용해야 한다. 가트너의 클라이언트들은 생성형 AI 구현과 관련하여 세 가지 주요 우려사항을 표현했다. 첫째, 데이터 및 콘텐츠 개인정보 보호에 대한 염려로, 기업 독점 콘텐츠와 개인 식별 정보를 보호해야 한다. 둘째, 환각과 오래된 소스 데이터로 인한 신뢰성과 정확성 문제다. 셋째, 접근 제어와 잠재적 오용에 대한 우려가 있다. 이러한 위험을 완화하기 위해 대부분의 현재 기업 생성형 AI 구현은 검색 증강 생성(RAG) 설계 패턴을 기반으로 한다. RAG 아키텍처는 관련 컨텍스트와 프롬프트 지침으로 사용자 쿼리를 강화하고 가드레일과 모니터링 기능으로 지원하여 강력한 기업 솔루션을 제공한다. 효과적인 기업 솔루션 프레임워크는 다양한 비정형 콘텐츠를 수용하고, 여러 검색 기술을 활용하며, 구성 가능한 프롬프트 템플릿을 제공해야 한다. AI 인재 부족 해결책: 데이터 과학자에서 AI 엔지니어까지 팀 구성 가이드 생성형 AI를 성공적으로 구현하려면 팀의 역량을 강화하는 것이 중요하다. RAG 솔루션 개발과 LLM 미세 조정은 일반적인 기계 학습 개발 프로세스와는 다른 지식과 기술을 요구한다. 데이터 과학자가 AI 및 ML 모델 개발 팀의 중심에 있지만, 성공적인 기술 팀은 AI 및 ML 엔지니어와 데이터 엔지니어의 동등한 기여가 필요하다. 기업들은 데이터 기반 의사결정에 대한 경쟁 우위를 확보하기 위해 시급한 필요성과 급변하는 기술 및 제품 역량 사이에서 기술, 도입, 위험 이해에 격차가 드러나고 있다. 이에 대응하여 기업은 기술 옵션을 평가하고, 팀 역량을 강화하며, 자동화와 간소화된 방법론을 통해 민첩성을 증가시키고, 일관되고 신뢰할 수 있는 구현을 위한 지침과 프레임워크를 수립해야 한다. 신뢰와 투명성에 대한 요구는 거버넌스, 데이터 및 AI 리터러시 관행을 주도할 것이다. 효과적인 AI 개발을 위해서는 데이터 및 AI 리터러시 프로그램을 구현하고, 가드레일과 지표를 설정하여 거버넌스 제어를 통합하며, 조직 프로세스, 표준, 모범 사례에 맞춰 조정해야 한다. FAQ Q: 생성형 AI는 실제로 기업에 어떤 가치를 제공할 수 있나요? A: 생성형 AI는 기업에 생산성 향상(평균 22.6%), 매출 증가(15.8%), 비용 절감(15.2%)과 같은 실질적 가치를 제공할 수 있습니다. 주요 사용 사례로는 텍스트 생성(코드, 문서, 이메일 등), 대화형 Q&A, 콘텐츠 요약, 감정 분석, 언어 번역 등이 있으며, 이를 통해 업무 효율성을 높이고 고객 및 직원 경험을 개선할 수 있습니다. Q: 기업이 생성형 AI를 도입할 때 가장 큰 위험 요소는 무엇인가요? A: 기업이 생성형 AI를 도입할 때 가장 큰 위험 요소는 데이터 개인정보 보호 문제, 환각(hallucination)으로 인한 부정확한 정보 생성, 그리고 접근 제어 미흡으로 인한 잠재적 오용입니다. 이러한 위험을 완화하기 위해 검색 증강 생성(RAG) 아키텍처 도입, 적절한 가드레일 설정, 그리고 철저한 모니터링이 필요합니다. Q: 일반 기업이 생성형 AI를 어떻게 시작해야 할까요? A: 일반 기업은 '크롤-워크-런' 접근법으로 생성형 AI를 시작하는 것이 좋습니다. 먼저 내부 사용 사례로 파일럿 프로젝트를 시작하고, 개념과 기술을 검증한 후, 결과를 평가합니다. 이후 성공적인 사례를 기반으로 우선순위가 높은 사용 사례를 선택하여 확장하고, 최종적으로 모듈식 아키텍처와 전체론적 역량 맵을 구축하여 기업 전체에 AI 기술을 민주화하는 단계로 나아갑니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 14:56AI 에디터

카카오게임즈-벨루가, 두뇌 기능 향상 게임 '호두' 퍼블리싱 계약

카카오게임즈(대표 한상우)는 인지기능 측정 및 치료 전문 스타트업 벨루가(대표 김종윤)가 개발한 치매의 진단, 예방, 관리를 위한 기능성 게임 '호두(hodoo, 가칭)'의 퍼블리싱 계약을 체결했다고 17일 밝혔다. 이번 계약으로 카카오게임즈는 게임 서비스 및 ESG 사업 노하우를 활용해 초정밀 인지기능 개선 훈련 프로그램 '호두(hodoo)'의 사업 및 마케팅 등 퍼블리싱을 맡고, 벨루가는 게임 개발 및 운영 전반을 담당한다. '호두(hodoo)'는 IT 및 의학 전문가들이 만든 초정밀 인지기능 강화 훈련 프로그램으로, 쉽고 재미있는 게임 형태의 두뇌 트레이닝 콘텐츠를 제공한다. 30여개의 다양한 테마로 구성된 게임 콘텐츠는 학술적으로 효과가 입증된 인지기능 강화 기법을 바탕으로 설계됐으며, 지인들과 함께 즐길 수 있는 요소가 많아 노년층뿐 아니라 전 연령이 즐겁게 플레이할 수 있다. 특히 '호두(hodoo)'는 정밀한 인지기능 측정 결과에 AI 기술을 적극 활용하여 이용자의 연령, 인지기능 상태에 따라 가장 적합한 개인화된 훈련 프로그램을 제공한다. 정밀 측정 기술과 개인화된 맞춤 훈련 프로그램을 통해 치매 고위험군의 고령층 사용자에게는 치매 예방 및 지연 효과를, 일반 사용자들에게는 두뇌 기능 활성화와 두뇌 건강 향상 효과가 기대된다고 회사 측은 설명했다. 카카오게임즈는 지난 2023년 벨루가와 업무 협약을 맺고 치매의 진단, 예방, 관리를 위한 기능성 게임 공동 연구를 진행했다. 서울대학교 의과대학 예방의학과 민경복 교수가 '호두(hodoo)'의 공동 연구진으로 참여했으며, '호두(hodoo)'에 앞서 2024년 6월에 선출시된 치매 징후 탐지 게임 '브레인 오케이'의 인지기능 측정 효과성을 입증하는 논문이 의료 진단 전문 학술지인 'MDPI Diagnostics'에 지난 1월 게재된 바 있다. 카카오게임즈 관계자는 “게임을 매개로 전국민의 두뇌 건강 개선이라는 사회적으로 가치 있는 일에 기여하게 돼 기쁘다”며 “게임의 선한 영향력을 확대할 수 있는 의미있는 사업을 전개해 나갈 것”이라고 전했다. 카카오게임즈는 환경, 사회, 지배구조 전 영역에서의 ESG 사업 성과와 노력을 국내외 두루 인정 받고 있다. 한국ESG기준원(KCGS) 주관 ESG 평가에서 2년 연속 업계 최고수준인 통합 A등급을 획득했으며, 글로벌 ESG 평가기관인 모건스탠리캐피털인터내셔널(MSCI) 주관 평가에서 지난 평가 국내 게임사 최초로 최고 등급인 AAA등급을 획득한 바 있다.

2025.03.17 11:42이도원

코로나19는 정확, 경제는 취약?…5대 AI 모델 팩트체킹 능력 비교

LLM, 거짓 정보 탐지에는 강하지만 전반적 성능은 아직 미흡 생성형 AI를 기반으로 한 대형 언어 모델(LLM)이 정치 정보의 진위를 판별하는 팩트체킹 영역에서 어떤 역할을 할 수 있을지 관심이 커지고 있다. 최근 ChatGPT와 같은 대화형 AI의 등장으로 정보의 진위를 자동으로 판별하는 기술에 대한 기대가 높아지고 있는 가운데, 바이젠바움 연구소와 베른 대학 연구팀이 5개 주요 LLM의 팩트체킹 능력을 체계적으로 평가한 연구 결과를 발표했다. 연구팀은 ChatGPT-4, Llama 3(70B), Llama 3.1(405B), Claude 3.5 Sonnet, Google Gemini 등 5개 LLM을 대상으로 전문 팩트체커가 이미 검증한 1만 6,513개의 정치 정보 진술문에 대한 진위 판별 능력을 테스트했다. 주제 모델링과 회귀 분석을 통해 진술문의 주제나 모델 유형이 판별 정확도에 어떤 영향을 미치는지 체계적으로 분석했다. 정확도는 챗GPT와 제미나이가 앞서… 거짓 정보 탐지 정확도 최대 80% 연구 결과에 따르면 ChatGPT-4와 Google Gemini가 다른 모델보다 전반적으로 높은 정확도를 보였다. 특히 모든 모델이 참인 정보보다 거짓 정보를 탐지하는 데 더 강점을 보였는데, 특히 코로나19, 미국 정치 논쟁, 사회 이슈와 같은 민감한 주제에서 더 높은 정확도를 나타냈다. 이는 모든 LLM이 공중 보건이나 정치인과 관련된 민감한 주제에 대해 가드레일(안전장치)을 설정했을 가능성을 시사한다. 이런 주제에 대한 높은 정확도는 훈련 데이터에 관련 거짓 정보가 더 많이 포함되었을 가능성도 있지만, GPT 모델이 건강 관련 주제에서 높은 정확도를 보인다는 이전 연구와도 일치하는 결과다. 코로나19는 133% 더 정확하게, 경제 주제는 70% 더 부정확하게 판별 모든 LLM은 전반적으로 '혼합(MIXTURE)' 범주의 진술문보다 '거짓(FALSE)' 범주의 진술문을 더 정확하게 식별했다. 특히 진위 여부가 명확한 극단적 사례보다 부분적 사실과 부분적 거짓이 혼합된 복잡한 진술을 평가하는 데 어려움을 겪었다. 흥미롭게도 연구진은 LLM 간 성능 차이가 상당하다는 점을 발견했다. 예를 들어 Llama 모델은 진술문이 '참'인지 '거짓'인지 혹은 '혼합'인지에 관계없이 '참'으로 판정하는 경향이 있었다. 이는 모델들의 기반이 되는 훈련 데이터가 성능에 깊은 영향을 미친다는 점을 보여준다. 또한 미국 재정 문제나 경제 관련 주제에서는 모든 LLM이 거짓 정보를 식별하는 정확도가 낮았다. 이는 특정 주제에 대한 훈련 데이터의 부족이나 주제별 가드레일의 차이에서 기인했을 가능성이 있다. 더 큰 모델이 팩트체킹도 더 정확하게 수행 연구팀은 LLM의 팩트체킹 성능이 모델의 아키텍처 및 파라미터 규모와 직접적인 관련이 있다고 지적했다. Llama 3.1(405B)이 Llama 3(70B)보다 모든 카테고리에서 더 나은 성능을 보인 것이 이를 증명한다. 이는 더 많은 파라미터로 훈련된 모델이 복잡한 팩트체킹 작업에서 더 좋은 성능을 발휘한다는 것을 의미한다. 연구진은 LLM의 팩트체킹 능력 향상을 위해 목표화된 사전 훈련과 미세 조정이 필요하다고 제안했다. 특히 코로나19와 미국 정치 관련 주제에서 모든 LLM이 높은 정확도를 보인 점에 주목하며, 가드레일 설정이 출력의 정확성을 보장하는 유망한 전략이 될 수 있다고 밝혔다. 하지만 이러한 가드레일은 변화하는 사회정치적 맥락에 맞춰 지속적인 조정이 필요하다는 도전과제도 함께 존재한다. 연구팀은 또한 ClaimsKG 데이터셋이 미국 중심적이라는 점을 한계로 지적하며, 다른 사회정치적 맥락이나 언어에서는 LLM 성능이 다를 수 있다고 경고했다. FAQ Q: 생성형 AI가 팩트체킹을 완전히 자동화할 수 있을까요? A: 현재로서는 어렵습니다. 이번 연구에서 보듯 대형 언어 모델(LLM)은 특히 거짓 정보 탐지에 강점을 보이지만, 전반적인 정확도는 여전히 제한적입니다. LLM은 팩트체킹을 보조하는 도구로 활용하되, 전문가의 검증이 여전히 필요합니다. Q: 왜 AI는 참인 정보보다 거짓 정보를 더 잘 탐지하나요? A: 연구에 따르면 이는 훈련 데이터의 특성과 관련이 있을 수 있습니다. 예를 들어 ChatGPT-4는 팩트체크된 거짓 정보가 더 많이 포함된 데이터로 훈련되었을 가능성이 있고, 특히 코로나19나 정치 논쟁과 같은 민감한 주제에 대해서는 가드레일(안전장치)이 설정되어 있을 수 있습니다. Q: 어떤 주제에서 AI 팩트체킹이 가장 정확한가요? A: 이번 연구에서는 코로나19, 미국 정치 논쟁, 사회 이슈와 같은 민감한 주제에서 AI가 더 정확한 팩트체킹을 수행했습니다. 반면 미국 경제나 재정 정책 관련 주제에서는 정확도가 낮았습니다. 이는 특정 주제에 대한 데이터 부족이나 가드레일 설정의 차이에서 비롯될 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 11:37AI 에디터

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

새 정부 핵심 키 쥔 AI정책수석...누가 될까

'혹시 나도 AI 노예?'...정치·젠더·종교·세대 성향 알려준다

"K-방산, 국가대표 산업으로"…이재명 직속 컨트롤타워에 기대감↑

李 대통령, 비상경제대응TF 구성 지시...취임 첫 행정명령

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현