• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'Q'통합검색 결과 입니다. (1171건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI, 훈련 없이도 사진·영상 이해…메타 MILS 공개

대형 언어 모델(LLM), 훈련 없이 시각·청각 능력 발휘 메타 AI와 UC 버클리 연구진이 발표한 연구에 따르면, 대형 언어 모델(LLM)은 추가적인 훈련 없이도 이미지, 비디오, 오디오를 이해하고 생성하는 능력을 갖출 수 있는 것으로 나타났다. 연구진은 이 과정을 가능하게 하는 'MILS(Multimodal Iterative LLM Solver)' 기법을 개발했다. MILS는 LLM의 테스트 타임 최적화(test-time optimization) 능력을 활용해 멀티모달 데이터를 처리할 수 있도록 하는 방식이다. 기존 멀티모달 AI 모델들은 특정 데이터셋을 기반으로 훈련해야 했지만, MILS는 이러한 과정 없이도 이미지 캡셔닝(image captioning), 영상과 오디오 이해 및 생성, 스타일 변환(style transfer) 등 다양한 작업을 수행할 수 있다. 연구에 따르면, MILS는 LLM이 자체적으로 해결책을 생성하고, 멀티모달 모델이 이를 평가하여 피드백을 제공하는 방식으로 작동한다. 이러한 반복적인 최적화 과정을 거치면서 MILS는 최적의 결과를 도출할 수 있다. MILS의 핵심 원리: 생성하고 평가하며 스스로 발전 MILS의 가장 큰 특징은 훈련 없이도 멀티모달 데이터를 처리할 수 있는 능력이다. 기존의 모델들은 이미지 캡셔닝을 위해 이미지-텍스트 페어 데이터로 훈련되어야 했지만, MILS는 이러한 과정 없이도 이미지, 영상, 오디오 데이터를 해석할 수 있다. 예를 들어, MILS는 일반적인 LLM을 생성기(GENERATOR)로 활용하고, CLIP 같은 멀티모달 모델을 평가기(SCORER)로 활용한다. MILS가 생성한 후보 결과물은 평가 모델을 통해 점수를 매겨 다시 피드백되며, 이 과정을 반복하면서 성능을 점진적으로 향상시킨다. 연구진은 이 과정을 통해 MILS가 "emergent zero-shot capabilities", 즉 새로운 데이터나 작업을 훈련 없이 처리할 수 있는 능력을 갖추게 된다고 설명했다. MILS는 단순히 이미지 캡셔닝뿐만 아니라 텍스트-이미지 생성(text-to-image generation), 스타일 변환(style transfer), 멀티모달 산술(cross-modal arithmetic) 등 다양한 작업에도 적용될 수 있다. 연구진은 MILS를 활용하여 스타일 변환을 수행하고, 다양한 이미지 스타일을 적용하는 실험에서도 성공적인 결과를 보였다고 밝혔다. MILS의 실험 결과: 기존 모델과 비교해 경쟁력 있는 성능 연구진은 MILS의 성능을 기존의 멀티모달 모델들과 비교 평가했다. 대표적인 실험 결과는 다음과 같다. 이미지 캡셔닝(Image Captioning): MILS는 기존의 이미지 캡셔닝 모델과 비교하여 경쟁력 있는 성능을 기록했다. MSCOCO 데이터셋을 기준으로, BLEU4, CIDEr, METEOR, SPICE 등의 평가 지표에서 기존 모델들과 대등하거나 더 나은 성능을 보였다. 비디오 캡셔닝(Video Captioning): MILS는 MSR-VTT 데이터셋을 활용한 실험에서도 기존 비디오 캡셔닝 모델과 비교해 강력한 성능을 보였다. 특히, 훈련 없이도 기존의 HowTo100M과 VideoCC3M 데이터셋을 활용한 모델과 유사한 수준의 성능을 기록했다. 오디오 캡셔닝(Audio Captioning): Clotho 데이터셋을 활용한 실험에서는 기존의 Zero-shot Audio Captioning 모델(ZerAuCap)보다 높은 METEOR 및 SPICE 점수를 기록하며, 문맥적으로 더 정확한 캡션을 생성할 수 있음을 보여주었다. 텍스트-이미지 생성(Text-to-Image Generation): MILS를 사용해 최신 텍스트-이미지 생성 모델(예: LDM, FLUX.1)에서 품질을 향상시키는 실험을 진행했다. 연구진이 수행한 인간 평가에서 MILS를 적용한 생성 이미지가 더욱 높은 품질과 텍스트 일치도를 보였다. 스타일 변환(Style Transfer): MILS는 훈련 없이도 특정 스타일을 이미지에 적용하는 능력을 보였다. 연구진은 Gram Matrix 기반 거리 측정 방식을 SCORER로 활용해 스타일 변환을 성공적으로 수행했다. 멀티모달 산술(Cross-Modal Arithmetic): MILS는 이미지와 오디오를 결합해 새로운 텍스트 설명을 생성하는 실험에서도 효과적인 결과를 도출했다. 예를 들어, "잔디 위에 있는 학"이라는 이미지와 "해변에서 파도가 치는 소리"라는 오디오 설명을 결합하여 "해변가에서 파도를 바라보는 학"이라는 새로운 개념을 생성할 수 있었다. MILS의 확장 가능성과 AI 모델의 발전, 훈련 없이도 창작과 분석이 가능하다 MILS는 훈련 없이 멀티모달 AI 시스템을 구축할 수 있다는 점에서 기존 모델과 차별화된다. 특히, 새로운 데이터셋이나 작업에 대해 즉각적인 적응이 가능하다는 점에서 AI 연구 및 산업에서 활용 가치가 클 것으로 보인다. 연구진은 MILS의 성능이 LLM과 멀티모달 모델의 발전에 따라 더욱 향상될 것이라고 전망했다. 예를 들어, LLM의 연산 속도가 향상되거나, 컨텍스트 길이가 증가하면 MILS의 최적화 과정이 더욱 빨라지고 효율적으로 작동할 수 있다. 또한, 멀티모달 AI 모델이 개선될수록 MILS의 성능도 자연스럽게 향상될 것으로 예상된다. 향후 MILS는 영상, 3D 모델링, 로봇 비전 등 더 다양한 영역에 적용될 가능성이 있다. 특히, 실시간 비디오 분석이나 AI 기반 디자인 생성 등 보다 복잡한 멀티모달 작업에도 적용될 수 있을 것이라는 기대가 크다. 이번 연구 결과는 AI 모델이 훈련 없이도 다양한 감각 정보를 처리할 수 있음을 입증하며, 향후 AI의 멀티모달 이해 능력을 한층 더 발전시키는 계기가 될 것으로 보인다. FAQ Q. MILS는 기존 AI 모델과 어떻게 다른가요? A. 기존 모델은 이미지·오디오 이해를 위해 훈련 데이터가 필요했지만, MILS는 훈련 없이도 즉시 다양한 멀티모달 작업을 수행할 수 있습니다. LLM이 스스로 후보 답변을 생성하고, 평가 모델이 이를 검토하며 점진적으로 개선하는 방식으로 작동합니다. 이를 통해 AI가 새로운 데이터나 작업에도 빠르게 적응할 수 있습니다. Q. MILS가 실제로 어떤 성능을 보였나요? A. 이미지·비디오·오디오 캡셔닝에서 기존 훈련 기반 모델과 비슷하거나 더 나은 성능을 보였습니다. 예를 들어, 이미지 캡셔닝 실험에서 METEOR 및 SPICE 점수에서 기존 모델을 능가했습니다. 텍스트-이미지 생성 및 스타일 변환에서도 MILS 기반 생성 이미지가 더 높은 품질을 기록했습니다. Q. MILS는 앞으로 어떤 분야에서 활용될 수 있나요? A. MILS는 영상 분석, 3D 모델링, 로봇 비전 등 더 복잡한 멀티모달 작업에 적용될 수 있습니다. 실시간 AI 응용 프로그램에서 데이터 없이 즉각적으로 적응하는 시스템 개발에도 활용될 가능성이 큽니다. LLM과 멀티모달 AI 기술이 발전할수록 MILS의 활용 가능성도 더욱 커질 것입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.18 22:19AI 에디터

[Q&AI] 매불쇼, 부적절 발언 김갑수 코너 폐지…AI가 수집한 온라인 반응

질문: 김갑수 발언이 화제인데, 무슨 일이야? 그록 답변: 최근 문화평론가 김갑수가 유튜브 채널 '매불쇼'에서 한 발언이 논란을 일으키며 화제가 되고 있어. 2025년 3월 17일 방송에서 그는 배우 김수현과 고(故) 김새론의 교제 의혹을 언급하면서 "미성년자와 성인이 사귀는 게 뭐가 문제냐"는 취지의 발언을 했어. 구체적으로, 김갑수는 "사람이 사귀는데 나이 차이가 많이 날 수도 있고, 그건 여러 형태"라며 "미성년자랑 연애했다는 게 무슨 거대한 범죄처럼 난리가 났다"고 주장했는데, 이게 성인과 미성년자 간의 관계를 정당화하는 것처럼 들린다는 비판을 받았어. 특히, 김새론이 김수현과 교제했을 당시 미성년자였다는 의혹이 제기된 상황에서, 김갑수의 발언이 "어려서 비린내 난다"는 표현과 함께 부적절하게 여겨지며 논란이 커졌어. 방송 후 X와 각종 온라인 커뮤니티에서 "미성년자 보호에 대한 기본 상식을 무시했다"거나 "진12시즌 패션 좌파들의 자유연애 해석이 탈법으로 이어졌다"는 비판이 쏟아졌고, 결국 '매불쇼' 측은 해당 코너를 영구 폐지하겠다고 사과까지 했어. 진행자 최욱도 "물의를 일으켜 진심으로 사과드린다"고 밝혔지만, 여전히 논란은 가라앉지 않고 있는 상황이야. 이 사건은 김갑수가 과거에도 임영웅의 정치적 발언 논란이나 남주혁 학폭 의혹 등에서 보여준 소신 발언들과 연결되며, 그의 진보적 이미지와 발언 사이의 간극에 대한 논쟁으로도 번지고 있어. 사람들이 이 발언에 대해 분노하거나 공감하는 반응이 엇갈리면서 지금도 뜨거운 감자로 남아있어. 질문2: 해당 발언에 대한 사람들의 반응은 어때? 그록 답변: 김갑수의 발언에 대한 사람들의 반응은 크게 두 갈래로 나뉘어 있어. X와 온라인 커뮤니티를 중심으로 살펴보면, 비판과 분노가 주를 이루는 한편, 일부는 그의 의도를 옹호하거나 논란 자체를 과장됐다고 보는 시각도 있지. 비판적인 반응은 압도적으로 강해. 많은 사람들이 "미성년자와 성인의 연애를 정당화하는 발언이 위험하다"고 지적하며, 특히 "미성년자 보호라는 기본적인 사회적 합의를 무시했다"는 의견이 많아. 예를 들어, X에서 한 사용자는 "김갑수가 '어려서 비린내 난다'고 한 건 미성년자를 성적 대상화한 표현"이라며 분노했고, 또 다른 사용자는 "진보를 표방하면서 이런 발언을 하는 건 위선적"이라고 비판했어. 이들은 그의 발언이 단순한 실언을 넘어 법적·도덕적 경계를 건드렸다고 보고, '매불쇼' 폐지 결정에도 "당연한 결과"라며 환영하는 분위기야. 반면, 김갑수를 옹호하는 목소리도 소수 존재해. 이들은 "그가 말한 건 나이 차 있는 연애의 다양성을 언급한 것일 뿐, 미성년자 착취를 옹호한 게 아니다"라며 맥락을 이해해야 한다고 주장해. X에서 어떤 사용자는 "김갑수는 그냥 자기 스타일대로 직설적으로 말한 거지, 악의가 없었다"고 했고, 또 다른 이는 "요즘 과민 반응이 너무 심하다"고 논란을 확대 해석하는 분위기를 비판했어. 이들은 김갑수의 과거 소신 발언을 떠올리며 "그의 의도는 오해받았다"고 보는 경향이 있어. 전체적으로 보면, 비판 여론이 훨씬 우세하고 감정적인 반응도 강렬해. 특히 김수현-김새론 루머와 맞물리면서 대중의 관심이 더 커진 상황이라, 논란은 쉽게 사그라지지 않을 것 같아. '매불쇼' 사과와 코너 폐지에도 불구하고, 김갑수 개인에 대한 신뢰 하락과 그의 진보적 이미지에 대한 회의적인 시각이 계속해서 언급되고 있어. ■ 기사는 그록3를 활용해 작성되었습니다.

2025.03.18 22:17AI 에디터

클릭 한 번에 매출 51% 증가…AI 맞춤형 비즈니스 혁명, 비법은?

기업의 96%가 주목하는 AI 맞춤화: 디지털 경험의 미래 맞춤화(Personalization)는 더 이상 새로운 개념이 아니라 급속도로 진화하는 전략이다. 기업들은 이를 통해 고객과 더 효과적으로 연결하고, 참여를 유도하며, 브랜드와의 평생 관계를 통해 고객 가치를 최적화할 수 있다. AI 시대에서 이는 더욱 중요해졌다. 테크타겟(TechTarget)의 엔터프라이즈 전략 그룹(Enterprise Strategy Group) 분석가들에 따르면, "고객에게 원활하고 개인화된 디지털 경험을 제공하는 것은 모든 시장에서 운영되는 기업들의 주요 과제이며, 이는 경쟁 우위와 브랜드 충성도를 높이는 역할을 한다." 시장 수요의 증가와 진화로 인해 기업들은 더욱 정교하고, 유연하며, 강력한 시스템을 개발해야 한다는 압박을 받고 있다. 이러한 시스템은 대규모 맞춤화를 제공하면서도 각 상호작용이 진정성 있고 의미 있게 느껴지도록 해야 한다. 가용 콘텐츠의 폭발적 증가와 디지털 구매 옵션의 확산은 고객들의 구매 방식에 근본적인 변화를 가져왔다. 이러한 맞춤화 혁명의 최전선에 인공지능(AI)이 있다. AI 기반 맞춤화는 세계에서 가장 성공적인 마케터들뿐만 아니라, 대기업에 맞서 경쟁하려는 민첩하고 희망에 찬 스타트업들이 사용하는 강력한 도구다. 이 기술은 기업들이 다양한 사용 사례에 걸쳐 가치 있는 비즈니스 기회를 식별하고 활용하는 데 도움을 준다. 맞춤화는 이론적 가능성이 아닌 실제 비즈니스 환경에서 측정 가능한 상당한 이점을 가져온다. 예를 들어, 소매업체들은 블랙 프라이데이 판매 기회를 최적화하고 전환율을 크게 확대하는 데 맞춤화를 활용하고 있다. 단순 인사말에서 실시간 개인화까지: 35%의 기업이 최우선 과제로 삼는 맞춤형 경험 맞춤화란 무엇인가? 이 분야의 선두주자인 콘텐트풀(Contentful)이 제시한 정의는 다음과 같다. "맞춤화는 기업이 공감을 통해 고객과 더 가깝고 수익성 있는 관계를 구축할 수 있게 한다. 실제 맞춤화 과정은 정보, 제안 또는 전체 경험과 같은 무언가를 개별 고객이나 전체 고객 세그먼트의 우선순위와 선호도에 맞게 조정하는 것을 포함한다. 이러한 개인들이 원하고 필요로 하는 것을 예상함으로써, 기업은 고객이 가치 있다고 느끼게 만들어 더 긍정적인 사용자 경험을 창출한다." 맞춤화는 판매, 마케팅, 고객 서비스, 교육/훈련 등 기업 활동에서 중요해졌지만, 초기의 맞춤화 단계는 매우 단순했다. 맞춤화는 진정한 인간적 상호작용에서 디지털 지름길로 발전했다. 예를 들어, 의미 있는 맞춤형 경험 대신, 많은 초기 디지털 노력은 "안녕하세요 (이름)" 같은 수준이나 일반적인 대량 메시지에 그쳤다. 이는 실제로 개인적 연결을 단순한 메일 병합 필드로 축소시켰다. 맞춤화가 큰 변화를 가져오기 시작한 것은 기업들이 구매 이력, 쇼핑 선호도, 이메일 선호도, 지역화와 같은 자체 데이터를 활용하여 판매와 마케팅을 훨씬 더 세분화된 수준으로 미세 조정하기 시작하면서부터다. 이로써 마케팅 팀은 개별 방문자에게 애플리케이션 레이아웃을 맞춤화하고, 채널에 구애받지 않는 맞춤형 구매 여정을 제공하거나 선제적인 고객 서비스 및 지원을 제공할 수 있게 되었다. 현재 AI와 현대화된 맞춤화 플랫폼과 같은 강력한 기술들은 개별화된 방식으로 고객과 연결할 수 있는 더욱 흥미롭고 혁신적인 방법의 가능성을 약속한다. 이러한 미래의 맞춤화는 음성 기반 상호작용, 맞춤형 가상 상점과 같은 트렌드로 특징지어질 것이다. 또한 적절한 개인정보 보호 및 보안 가드레일로 관리될 것이다. AI는 이러한 맞춤화의 다음 단계를 위한 촉매제로, 네이티브 인텔리전스, 자동화, 맥락적 관련성, 특히 지속적인 최적화를 제공한다. AI 기반 제안은 기업이 데이터와 콘텐츠를 분석하여 더 정확하고 관련성 높은 특정 대상 제안을 위해 콘텐츠를 지속적으로 최적화할 수 있게 한다. AI 기반 지속적 최적화는 특정 비즈니스 목표에 맞는 사용 준비가 된 대상 세그먼트 개발을 촉진하며, 방문자 행동 이해, 인사이트 분석, AI 기반 추천으로 신속한, 실험을 가능하게 한다. 이러한 강화된 기능은 효과성과 전례 없는 AI 기반 맞춤화 및 효율성을 결합하여 맞춤화를 비즈니스 기회의 강력한 원동력으로 변모시킨다. 이는 더 빠르고, 더 저렴하며, 더 적은 마찰로 결과를 달성하는 것을 의미한다. 그러나 AI 기반 맞춤화 솔루션은 기업이 대상 고객의 피로도를 피하고, 메시지 포화로 인한 고객 거부감을 방지하며, 잠재 고객과 고객의 관심과 선호도를 유지하는 방법을 이해하는 데 도움을 주어야 한다. AI 기반 맞춤화로의 전환은 아직 비교적 새롭지만 빠르게 속도를 내고 있다. 엔터프라이즈 전략 그룹 연구에 따르면 기업의 96%가 디지털 경험 플랫폼(DXP)에 AI를 사용하거나 고려 중이며, 6개 기업 중 1개는 이미 AI를 광범위하게 사용하여 "고도로 맞춤화된 디지털 경험의 기초"라고 부른다. 그리고 맞춤화는 DXP용 AI 솔루션 채택의 중요한 동인이다. 같은 연구에서 기업의 35%가 맞춤화를 DXP 이니셔티브의 최상위 사용 사례라고 말한다. 데이터 사일로부터 보안 문제까지: 기업이 맞춤화 여정에서 직면하는 8가지 장애물 맞춤화의 중요성과 가치에 대한 논쟁은 없지만, 많은 기업들이 이러한 솔루션을 개발, 배포 및 전달하는 데 어려움을 겪고 있다. 맞춤화는 AI, 특히 생성형 AI(GenAI)의 놀라운 발전 덕분에 더욱 영향력 있고 달성 가능해졌지만, 모든 기업이 맞춤화를 최대한 활용하려 할 때 직면하는 다양한 문제를 완전히 이해하지는 못한다. 이러한 도전 과제로는 시간, 비용, 아키텍처/인프라 복잡성, 명확한 전체적인 비즈니스 목표 부재와 같은 요인으로 인해 다양한 맞춤화 접근법을 효율적으로 실험할 수 없는 점이 포함된다. 또한 팀과 도구 전반에 걸친 여러 데이터 사일로의 존재는 기업이 고객에 대한 완전하고 실시간 이해를 얻지 못하게 함으로써 AI를 정확하게 구동하고 규모에 맞는 동적 맞춤화를 제공하는 데 필수적인 부분을 방해한다. 효과적인 맞춤화 전략을 만들고 고급 기술 솔루션의 잠재력을 활용하는 데 있어서의 전문지식 부족, 머신러닝, AI 및 데이터 과학 분야의 적절한 기술을 개발하거나 확보해야 하는 필요성, 특히 고객의 개인 정보 보호와 관련된 사이버보안 위험에 대한 우려도 있다. 맞춤화 데이터를 고객 아웃리치, 채널 참여, 지역별 캠페인, 가격 테스트, 마케팅 캠페인 개발과 같은 다양한 마케팅 사용 사례에 활용할 수 없는 점, 더 많은 기능과 목표가 결국 더 많은 컴퓨팅, 스토리지, 네트워킹을 필요로 함에 따라 AI 인프라 비용 증가 가능성을 완전히 이해하고 피하는 데 있어서의 장애물도 있다. 경쟁사들이 보편적으로 새로운 도구, 새로운 접근법, 새로운 기술을 통해 맞춤화를 활용하려는 노력을 강화하고 있는 것도 도전 과제다. AI 기반 맞춤화를 통한 경쟁사들의 가속화되는 노력보다 한 발 앞서 나가야 한다는 요구는 위협적이면서도 성공에 필수적이다. 전환율 51%, 클릭률 600% 증가: 펫스 델리와 러거블의 AI 맞춤화 성공 스토리 블랙 프라이데이는 소매업체들이 누적된 소비자 수요를 활용하여 극적인 휴일 판매 가속화를 위한 발판으로 삼는 데 큰 기대를 주는 원천이다. 블랙 프라이데이는 콘텐트풀과 협력하여 두 가지 완전히 다른 유형의 소매업체를 위한 맞춤화를 사용할 수 있는 좋은 기회임이 입증되었다. 유럽 직접 소비자 펫푸드 시장의 선두 주자인 펫스 델리(Pets Deli)는 고품질 사료를 찾는 반려동물 주인들에 중점을 둔다. 이 소매업체는 이 시장에서 성공적인 실적을 기록했지만, 전환율의 상당한 확대로부터 많은 재정적, 운영적 이점을 얻을 수 있다고 이해했다. 콘텐트풀의 나인테일드(Ninetailed) 솔루션과 협력하여, 펫스 델리는 어떤 가격 전략이 가장 효과적인지 식별하는 방법을 배우고 그에 따라 전술을 조정할 수 있었다. 결과는 인상적이었다: 펫스 델리는 이탈률이 10% 감소하면서도 판매 전환율이 놀라운 51% 증가했다. 이러한 결과의 핵심은 펫스 델리가 고객에게 추가 노력을 요구하지 않고, 쉽게 확장할 수 있으며, 소매업체의 시장 기회를 크게 확대한 맞춤형 프로모션을 실행할 수 있는 능력이었다. 맞춤화를 통해 블랙 프라이데이 기회를 활용한 또 다른 성공적인 소매업체는 고품질이면서도 세척 가능한 러그를 전문으로 판매하는 온라인 소매업체 러거블(Ruggable)이다. 러거블은 기존 기술 스택 내에 맞춤화 플랫폼을 통합하여 시간에 민감한 프로모션을 더 쉽게 출시하고자 했다. 콘텐트풀을 사용하여, 러거블은 사용자가 거래를 찾기 시작하는 바로 그 순간에 개별화된 콘텐츠와 프로모션을 게시할 수 있었고, 이로써 러거블의 내부 팀이 맞춤화로부터 얻는 성과를 실시간으로 볼 수 있게 되었다. 그 결과, 러거블은 전환이 25% 급증하고 클릭률이 600% 증가했으며, 동시에 까다로운 고객들을 위한 고객 경험이 크게 향상되었다. 이처럼 AI 기반 맞춤화 솔루션은 기업들이 전통적인 AI 이전 패러다임에서는 놓치고 있었을 수 있는 수익 잠재력을 발휘할 수 있게 해준다. 그러나 기업들이 점점 더 새로운 아이디어, 기회, 제품 및 서비스를 촉발하기 위해 맞춤화를 찾는 가운데, 많은 기업들이 AI를 기술 스택에 통합할 시기와 방법을 식별하는 데 어려움을 겪고 있다. 이러한 기업들은 콘텐트풀과 같은 경험 많고 시장에서 입증된 기술 파트너로부터 AI 기반 맞춤화 플랫폼과 도구를 찾고 평가해야 한다. 파트너 AWS 및 자체적인 광범위한 파트너 생태계와 협력하여, 콘텐트풀은 혁신, 유연성, 실험, 민첩성, 보안 및 회복력을 촉진하는 AI 기반 맞춤화 접근법을 배포한다. FAQ Q: AI 기반 맞춤화란 정확히 무엇이며 어떻게 작동하나요? A: AI 기반 맞춤화는 인공지능을 활용해 고객 데이터를 분석하고 개인별로 맞춤화된 경험을 제공하는 기술입니다. 고객의 과거 행동, 선호도, 인구통계학적 정보를 분석하여 개인별 콘텐츠, 제품 추천, 마케팅 메시지를 생성하며, 지속적으로 학습하고 최적화합니다. Q: 중소기업도 AI 기반 맞춤화를 도입할 수 있나요? A: 네, 중소기업도 클라우드 기반 AI 맞춤화 솔루션을 통해 이 기술을 활용할 수 있습니다. 오늘날 많은 서비스 제공업체들이 다양한 규모의 기업을 위한 확장 가능한 솔루션을 제공하고 있어, 초기 투자 비용이나 기술적 전문지식 없이도 맞춤화의 이점을 누릴 수 있습니다. Q: AI 맞춤화를 도입할 때 고객 개인정보 보호는 어떻게 보장되나요? A: 효과적인 AI 맞춤화 솔루션은 처음부터 데이터 개인정보 보호와 보안을 고려하여 설계됩니다. 이에는 데이터 암호화, 사용자 동의 관리, 규제 준수 기능, 투명한 데이터 사용 정책이 포함됩니다. 기업은 관련 개인정보 보호법을 준수하고 고객 데이터를 책임감 있게 사용함으로써 신뢰를 구축할 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.18 16:41AI 에디터

GS샵, '리빙페어' 개최

GS샵이 21일부터 26일까지 상반기 최대 리빙/가전 행사인 봄맞이 리빙페어를 개최한다고 18일 밝혔다. 이번 리빙페어 테마는 '내 공간을 위한 6일간의 취향 탐색'이다. GS샵은 이번 리빙페어를 위해 핵심 고객층인 45~54세 여성 고객 2천500명을 대상으로 설문조사, 가정방문 등을 실시하며 라이프스타일을 직접 조사했다. GS샵은 이번 조사 인사이트를 바탕으로 ▲살림은 잘하기보다 덜하고 싶고 ▲고물가에 외식을 줄였지만 집밥을 외식처럼 즐기며 ▲힐링을 위한 거실 소파와 침구에 관심이 많은 고객을 위해 거실, 주방, 침실 등 공간별 핵심 상품을 엄선해 TV홈쇼핑, 라이브 커머스 '샤피라이브'와 모바일 앱 등으로 선보인다. 또한 상품별 가격 할인, 7% 카드 할인, 사은품 등을 제공한다. 가장 주목할 상품은 살림 수고를 덜어줄 로봇청소기다. GS샵은 리빙페어 기간 내내 로보락 보급형 모델 'Q Revo Pro'를 가격 할인 5%, 카드 할인 7%를 더해 105만원대로 판매한다. 또한 23일 저녁 9시 35분에는 TV홈쇼핑에서 로보락 최신상 모델 'S9 MaxV Slim'을 론칭하고 최대 30만 원 할인 및 장기 무이자 18개월 할부를 제공한다. 음식물 처리기 특집도 준비했다. 모바일 앱에서 오쿠, 쉘퍼, 스마트카라, 에코체 등 유명 음식물 처리기 브랜드 인기 상품을 최대 21% 할인 판매한다. '오쿠 3세대 대용량 음식물 처리기'는 가격 할인과 카드 할인까지 더할 경우 27만 원대로 구매할 수 있다. 주방 상품으로는 집밥을 외식처럼 즐기는 홈스토랑 트렌드에 맞춰 프리미엄 조리도구와 식기류를 선보인다. 대표적으로 프랑스 브랜드 '르크루제(Le Creuset)'의 '고메 밥솥'과 '소르베 한식 풀세트' 등을 샤피라이브로 23일부터 25일까지 세 차례에 걸쳐 방송한다. 1년 6개월 만에 마련한 특집으로 최대 55% 할인과 함께 '수분 커버', '어니언 스프볼' 등을 사은품으로 증정한다. TV홈쇼핑에서는 명품 밀폐용기 '타파웨어 실리콘 백'과 원목 소재 도마 '파베르 엔드그레인'을 23일과 24일 각각 방송한다. 타파웨어 실리콘 백은 냉장, 냉동 보관이 가능하고 오븐, 찜기, 전자레인지 등에서 자유롭게 사용할 수 있어 활용도가 매우 높다. 파베르 도마는 어렵게 재고를 확보해 2개월 만에 선보이는 방송이다. 힐링과 숙면을 원하는 고객을 위해 시몬스 침대 인기 상품인 '뷰티레스트 자스민'을 특가로 선보인다. 시몬스 100주년 기념으로 마련한 샤피라이브 특집이다. 23일(일) 저녁 8시부터 개그맨 김재우가 방송을 진행하며, 매트리스 커버 사은품 증정, 배송 사다리차 무료(필요시) 혜택 등을 제공한다. 24일 저녁 8시에는 방송인이자 유튜버 '최희'와 함께 '다우닝' 소파와 'LG스탠바이미 2' 콜라보 방송도 선보인다. 백화점 상품권, 무이자 할부 등 다양한 혜택을 제공하며, 두 상품 동시 구매 시 30만 원 상당 사이드 테이블과 GS샵 적립금 10만 원 등을 증정한다. 김제인 GS샵 고객인사이트팀장은 "고객 조사를 통해, 우리나라 40~50대 여성들이 자신만의 시간을 확보하기 위해 열심히 노력하고 있다는 것을 알게 됐다”라며 “수고와 시간을 아끼기 위해 노력하는 고객들께 조금이라도 도움이 될 수 있도록 최선을 다하겠다”라고 설명했다.

2025.03.18 11:07안희정

카카오VX, '프렌즈 스크린 퀀텀(Q)' T2 통합대회 개최

카카오 VX(대표 문태식)는 자체 기술력으로 실제 골프장 필드를 실감하도록 구현한 스크린 골프 시스템 '프렌즈 스크린 퀀텀(Q)'과 스크린 골프 대중화를 이끈 '프렌즈 스크린 T2'의 통합대회인 '333 챌린지: 3월에는 3개의 코스에서 3번 라운드하기'를 개최한다고 18일 밝혔다. 다음 달 15일까지 진행하는 이번 통합대회는 골프 애호가라면 누구나 전국 '프렌즈 스크린 퀀텀(Q)'과 '프렌즈 스크린 T2' 매장에서 참여할 수 있다. '프렌즈 스크린 퀀텀(Q)' 매장의 경우 로그인해 그랑프리 메뉴에 들어가서, '프렌즈 스크린 T2' 매장이라면 프렌즈 스크린 공식 대회에 입장해 '333챌린지'를 선택한 뒤 대회 코스인 이지스카이 GC, 강남 300 CC, 그리고 360도 CC의 18홀을 완주하면 된다. 1인 최대 상금 800만원을 받을 수 있다. 또 백화점 상품권, 여행 상품권, 티타임 쿠폰 등 다양한 경품이 제공되며, 3개의 코스를 많이 칠수록 경품 당첨 확률이 높아진다. 미션 완수한 골퍼 대상으로 증정하는 경품도 있다. 대회와 관련한 자세한 내용은 '프렌즈 스크린' 앱에서 확인할 수 있다고 회사 측은 설명했다. 카카오 VX 관계자는 “출렁이는 필드를 9개의 축으로 3D 입체 언듈레이션(undulation)을 구현해 필드의 즐거움을 실내 스크린에서 느끼도록 돕는 '프렌즈 스크린 퀀텀(Q)'이 지난해 4월 출시된 뒤 7개월 만에 300호점을 돌파하는 등 골퍼들에게 큰 호응을 얻었다”며 “프렌즈 스크린이 풍성하게 준비한 통합대회와 함께 많은 분들이 이번 골프 시즌을 즐기시기 바란다”고 밝혔다. 한편 '프렌즈 스크린'은 지난달 한국소비자원의 '스크린골프 주요 3사의 소비자 만족도와 이용 행태' 조사에서 종합만족도 1위를 차지하는 등 지속적으로 골퍼들에게 호응을 얻고 있다. 카카오 VX는 앞으로도 다양한 이벤트와 서비스, 기술 업그레이드를 통해 골퍼들에게 재미와 즐거움을 선사하며 스포츠 업계의 디지털화를 이끌 계획이다.

2025.03.18 11:02이도원

전용 플랫폼 기반 '더 뉴 아우디 Q6 e-트론' 출시…8290만원부터

아우디코리아가 준대형 프리미엄 전기 스포츠유틸리티차(SUV) '더 뉴 아우디 Q6 e-트론'을 18일 공식 출시하고 21일부터 판매를 시작한다고 밝혔다. 더 뉴 아우디 Q6 e-트론은 프리미엄 세그먼트 전기차 전용 플랫폼인 프리미엄 플랫폼 일렉트릭(PPE) 기술이 적용된 최초의 양산 모델로, 새로운 전기 아키텍쳐와 향상된 배터리 성능 및 충전효율, 역동적인 주행 성능을 갖춘 프리미엄 순수전기 SUV이다. 아우디 Q6 e-트론은 4개 트림으로 출시한다. 더 뉴 아우디 Q6 e-트론 퍼포먼스의 가격은 8천290만원, 더 뉴 아우디 Q6 e-트론 퍼포먼스 프리미엄은 8천990만원, 더 뉴 아우디 Q6 e-트론 콰트로 프리미엄의 가격은 1억690만원, 더 뉴 아우디 SQ6 e-트론은 1억1천590만원이다. 더 뉴 아우디 Q6 e-트론 퍼포먼스와 더 뉴 아우디 Q6 e-트론 퍼포먼스 프리미엄은 다양한 기능과 옵션을 패키지화해 모델 트림과 조합한 구성이 가능하다. 패키지는 ▲테크 패키지 ▲테크 패키지 프로 ▲라이트 패키지 ▲조수석 디스플레이 등 총 4개 중 선택할 수 있다. 더 뉴 아우디 Q6 e-트론은 독일 잉골슈타트 공장에서 직접 조립한 100kWh 최신 고전압배터리를 장착했다. PPE 플랫폼과 800V 아키텍쳐와의 최적의 호환성으로 주행거리와 충전성능은 대폭 향상됐다. 아우디에 따르면 유럽 인증(WLTP) 기준 최대 270kW 급속충전이 가능하며 10%에서 80%까지 약 21분만에 충전이 가능하고 10분 충전으로 255㎞ 주행이 가능하다 Q6 e-트론 퍼포먼스와 Q6 e-트론 퍼포먼스 프리미엄은 최대출력 225kW, 49.46kg.m의 최대토크를 발휘한다. 최고속도는 시속 210㎞이며 정지 상태에서 시속 100㎞까지 소요되는 시간은 6.7초에 불과하다. Q6 e-트론 콰트로 프리미엄은 합산 출력 285kW, 전축 28.04kg.m, 후축 59.14kg.m의 최대토크를 발휘하며 정지상태에서 시속 100㎞까지 5.9초만에 도달한다. SQ6 e-트론은 4.4초이다. 1회 충전 최대 주행 거리는 Q6 e-트론 퍼포먼스와 Q6 e-트론 퍼포먼스 프리미엄이 468㎞, Q6 e-트론 콰트로 프리미엄이 400㎞, SQ6 e-트론은 412㎞까지 달릴 수 있다. 더 뉴 아우디 Q6 e-트론 퍼포먼스 프리미엄에는 스포츠 서스펜션, 더 뉴 아우디 Q6 e-트론 콰트로 프리미엄에는 어댑티브 에어 서스펜션, 더 뉴 아우디 SQ6 e-트론에는 어댑티브 S에어 서스펜션을 장착해 어떠한 노면 상황에서도 안정적인 주행성능과 승차감을 제공한다. 더 뉴 아우디 Q6 e-트론은 전면부의 전기차 특유의 폐쇄형 인버티드 싱글프레임 그릴과 아우디 2D 로고가 조화를 이뤘다. 주간주행등은 살짝 높은 위치에 배치했다. 실내는 11.9인치 버츄얼 콕핏 플러스와 14.5인치 MMI 터치 센터 디스플레이를 탑재했으며, 인공지능(AI) 기반 음성인식 기능으로 차량을 제어할 수 있다. 한편 아우디는 전기차 보유 고객 대상 '마이아우디월드(myAudiworld)' 어플리케이션의 e-트론 전용 메뉴를 통해 충전소 찾기 및 예약, 충전 완료 여부 확인, e-트론 충전 크레딧 카드에 신용카드 연동 및 잔여금액 확인 등이 가능해 보다 간편한 차량 충전이 가능하다. 아우디코리아는 모든 아우디 e-트론 배터리에 대해 8년 또는 16만㎞까지 보증하며, 구동모터 등 동력전달 부품을 포함한 일반부품도 업계 최고 수준인 5년/15만㎞까지 보증한다.

2025.03.18 10:52김재성

소형 OLED 출하량, 올해 10억대 돌파 전망…삼성·LG도 성장세

스마트폰, 워치 등에 탑재되는 소형 OLED 패널 출하량이 올해 10억대를 넘어갈 것으로 관측된다. 중저가형 스마트폰에 OLED 채택 비중이 확대되고 있고, 중화권 기업들의 공급량도 꾸준히 증가하고 있기 때문이다. 18일 시장조사업체 유비리서치의 '1Q25 소형 OLED 디스플레이 마켓트랙'에 따르면 지난해 소형 OLED 출하량은 9억8천만대로 전년(7억7천300만대) 대비 약 2억대 증가했다. 올해 출하량은 10억대를 처음 돌파할 것으로 전망된다. 소형 OLED에는 스마트폰과 폴더블폰, 스마트워치 등이 포함된다. 지난해에는 한국·중국의 패널 업체 대부분의 출하량이 4천만~5천만대 증가했다. 특히 중국 패널 업체인 TCL CSOT와 티엔마, 비전옥스, 에버디스플레이의 출하량이 전년 대비 50% 이상 증가했다. 중국 최대 패널 업체인 BOE는 연중에 아이폰 공급에 차질이 생기며 일시적으로 생산이 중단된 영향으로 패널 출하량은 약 8% 증가하는 것에 그쳤다. 중국 패널 업체들뿐만 아니라 한국 패널 업체들의 출하량도 크게 증가했다. 삼성전자의 갤럭시A 시리즈에 리지드 OLED 패널이 적용되기 시작하면서, 삼성디스플레이의 출하량은 2023년 3억2천만대에서 지난해 3억8천만대 수준까지 급증했다. LG디스플레이도 아이폰용 패널 공급 물량이 확대되면서 2023년 5천200만대 수준이었던 스마트폰용 OLED 출하량이 지난해 6천800만대까지 증가했다. 중국 패널 업체들의 출하량이 점점 증가하고 있으며, 삼성디스플레이의 리지드 OLED 출하량과 LG디스플레이의 아이폰용 패널 출하량도 증가하고 있어 올해 소형 OLED 출하량은 10억대를 가볍게 넘길 것으로 전망된다. 한창욱 유비리서치 부사장은 “삼성전자의 갤럭시A 시리즈 하위모델과 중국 세트업체들의 저가형 모델에도 OLED가 확대 적용되고 있다"며 "BOE와 비전옥스의 8.6G 신규 라인도 스마트폰용 패널을 생산할 수 있도록 설계되고 있어 당분간 소형 OLED 출하량은 지속적인 상승세를 보일 것”이라고 전망했다.

2025.03.18 10:40장경윤

AI 뉴스검색 "못 믿겠네"… 8개 엔진 모두 "인용 문제 심각"

AI 검색엔진, 60%가 넘는 쿼리에서 잘못된 답변 제공 AI 검색 도구가 빠르게 인기를 얻으면서 미국인 4명 중 1명이 전통적 검색엔진 대신 AI를 사용하고 있다. 이러한 도구들은 인터넷에서 최신 정보를 크롤링하여 가치를 창출하는데, 이 정보의 상당 부분은 뉴스 출판사가 생산한 콘텐츠다. 그러나 콜롬비아 저널리즘 리뷰의 타우 센터(Tow Center for Digital Journalism)가 진행한 연구에 따르면, 8개 생성형 AI 검색 도구를 테스트한 결과 모두 뉴스 콘텐츠를 인용하는 데 심각한 문제가 있는 것으로 나타났다. 전통적인 검색엔진이 사용자를 뉴스 웹사이트로 안내하는 중개자 역할을 하는 반면, 생성형 검색 도구는 정보를 직접 요약하고 재구성하여 원본 출처로의 트래픽 흐름을 차단하고 있다. 이러한 채팅봇의 대화형 출력은 종종 정보 품질의 심각한 기본 문제를 가리는 경향이 있다. 프리미엄 모델이 무료 모델보다 더 자신 있게 오답 제공 연구진은 8개 생성형 검색 도구에 대해 각 20개 출판사의 10개 기사에서 발췌한 텍스트를 제공하고, 해당 기사의 제목, 원출판사, 발행일, URL을 식별하도록 요청했다. 총 1,600개의 쿼리를 실행한 결과, 이 챗봇들은 전체 쿼리의 60% 이상에서 잘못된 답변을 제공했다. 플랫폼별로 오류율은 다양했는데, 퍼플렉시티(Perplexity)는 쿼리의 37%를 잘못 답변한 반면, 그록 3(Grok 3)은 훨씬 높은 94%의 오답률을 보였다. 더 우려되는 점은 이러한 도구들이 부정확한 답변을 매우 확신에 찬 어조로 제시한다는 것이다. 예를 들어, 챗GPT(ChatGPT)는 134개 기사를 잘못 식별했지만, 200개 응답 중 단 15번만 자신감 부족을 표시했고, 답변을 거부한 적은 한 번도 없었다. 특히 퍼플렉시티 프로($20/월)나 그록 3($40/월) 같은 프리미엄 모델들은 무료 버전보다 더 신뢰할 수 있을 것으로 기대됐지만, 테스트 결과 이들은 더 많은 오답을 제공했다. 이는 주로 정확하지 않은 정보라도 확신에 찬 어조로 답변하는 경향 때문이었다. 이러한 근거 없는 자신감은 사용자에게 정확성과 신뢰성에 대한 위험한 환상을 제공한다. 출판사가 차단한 콘텐츠도 크롤링하는 AI 검색엔진들 테스트된 8개 채팅봇 중 5개(챗GPT, 퍼플렉시티와 퍼플렉시티 프로, 코파일럿, 제미니)는 자사의 크롤러 이름을 공개하여 출판사가 이를 차단할 수 있는 선택권을 주었고, 나머지 3개(딥시크, 그록 2, 그록 3)는 크롤러 정보를 공개하지 않았다. 연구진은 채팅봇이 크롤러 접근이 허용된 출판사 관련 쿼리에만 올바르게 답변하고, 차단된 웹사이트 관련 쿼리는 응답을 거부할 것으로 예상했으나, 실제로는 그렇지 않았다. 특히 퍼플렉시티 프로는 접근이 차단되었어야 할 90개 발췌문 중 거의 3분의 1을 올바르게 식별했다. 놀랍게도 퍼플렉시티의 무료 버전은 내셔널 지오그래픽의 유료화된 기사 10개를 모두 정확히 식별했는데, 이는 출판사가 퍼플렉시티의 크롤러를 차단했고 AI 회사와 공식적인 관계가 없음에도 불구했다. 퍼플렉시티가 "robots.txt 지시를 존중한다"고 주장함에도 불구하고, 이러한 발견은 내셔널 지오그래픽의 크롤러 선호도를 무시했을 가능성을 시사한다. 로봇 배제 프로토콜(Robot Exclusion Protocol)은 법적 구속력이 없지만, 어떤 사이트 부분이 크롤링되어야 하고 어떤 부분이 크롤링되지 않아야 하는지를 신호하는 널리 수용된 표준이다. 이 프로토콜을 무시하는 것은 출판사가 자신의 콘텐츠가 검색에 포함되거나 AI 모델 학습 데이터로 사용될지 여부를 결정할 수 있는 권한을 빼앗는 것이다. 8개 검색엔진 모두 링크 위조… 그록 3, 200개 중 154개 가짜 URL 제공 AI 챗봇은 자신의 답변을 정당화하기 위해 종종 외부 소스를 인용하지만, 테스트된 생성형 검색 도구들은 잘못된 기사를 인용하는 경향이 있었다. 예를 들어, 딥시크(DeepSeek)는 200번의 쿼리 중 115번이나 잘못된 출처를 인용했다. 이는 뉴스 출판사의 콘텐츠가 대부분 잘못된 출처로 귀속되고 있음을 의미한다. 채팅봇이 기사를 올바르게 식별한 것처럼 보이는 경우에도, 종종 원본 출처에 적절하게 링크하지 못했다. 때로는 Yahoo News나 AOL 같은 플랫폼에 게재된 신디케이트 버전의 기사로 안내하기도 했다. 예를 들어, 텍사스 트리뷴(Texas Tribune)과 파트너십을 맺고 있음에도 불구하고, 퍼플렉시티 프로는 10개 쿼리 중 3개에서 트리뷴 기사의 신디케이트 버전을 인용했다. 반면에, 크롤링을 거부하고자 하는 출판사들도 문제에 직면했다. 그들의 콘텐츠는 동의 없이 결과에 계속 나타났지만, 잘못된 출처로 귀속되었다. 예를 들어, USA 투데이는 챗GPT의 크롤러를 차단했지만, 챗봇은 여전히 Yahoo News에 재발행된 버전의 기사를 인용했다. OpenAI와 퍼플렉시티는 뉴스 출판사와 공식적인 관계를 수립하는 데 가장 많은 관심을 표명한 회사들이다. 그러나 이러한 라이센싱 계약이 있다고 해서 출판사가 더 정확하게 인용되는 것은 아니었다. OpenAI와 퍼플렉시티 모두와 계약을 맺은 타임(Time)의 경우, 두 회사 관련 모델 중 어느 것도 콘텐츠를 100% 정확하게 식별하지 못했다. 반면, 샌프란시스코 크로니클(San Francisco Chronicle)은 OpenAI의 검색 크롤러를 허용하고 Hearst의 "전략적 콘텐츠 파트너십"의 일부이지만, 챗GPT는 출판사에서 공유한 10개 발췌문 중 하나만 올바르게 식별했다. 뉴스 출판사와 계약해도 소용없어… 여전히 콘텐츠 100% 정확히 식별 못해 이 연구 결과는 2024년 11월에 발표된 이전 챗GPT 연구와 일치하며, 채팅봇 전반에 걸쳐 일관된 패턴을 보여준다. 잘못된 정보의 확신에 찬 발표, 신디케이트 콘텐츠에 대한 오해의 소지가 있는 귀속, 일관성 없는 정보 검색 관행 등이 그것이다. 생성형 검색에 대한 비판가들은 대규모 언어 모델을 검색에 사용하는 것에 대해 "투명성과 사용자 권한을 빼앗고, 정보 접근 시스템과 관련된 편향 문제를 더욱 증폭시키며, 일반 사용자가 검증하지 못할 수 있는 근거 없는 또는 유해한 답변을 제공하는 경우가 많다"고 지적한다. 이러한 문제는 뉴스 생산자와 소비자 모두에게 잠재적인 해를 끼칠 수 있다. 이러한 도구를 개발하는 많은 AI 기업들은 뉴스 출판사와 협력하는 데 관심을 공개적으로 표명하지 않았다. 관심을 표명한 기업들조차도 종종 정확한 인용을 제공하거나 로봇 배제 프로토콜을 통해 표시된 선호도를 존중하지 못한다. 결과적으로 출판사들은 자신들의 콘텐츠가 채팅봇에 의해 표면화되는지 여부와 방법을 제어하는 옵션이 제한적이며, 그 옵션들도 제한된 효과만 있는 것으로 보인다. FAQ Q. AI 검색 엔진이 뉴스 콘텐츠를 인용할 때 어떤 문제가 있나요? A:AI 검색 엔진은 뉴스 콘텐츠를 정확하게 인용하지 못하는 경우가 많습니다. 테스트 결과 이들은 잘못된 기사를 인용하거나, 원본 출처 대신 다른 플랫폼에 재발행된 버전을 링크하거나, 심지어 존재하지 않는 URL을 생성하는 등의 문제를 보였습니다. 이런 오류에도 불구하고 대부분의 AI 검색 도구는 확신에 찬 어조로 답변을 제공합니다. Q. 프리미엄 AI 검색 서비스가 무료 서비스보다 더 정확한가요? A:놀랍게도, 프리미엄 AI 검색 서비스(퍼플렉시티 프로, 그록 3 등)는 일부 쿼리에서 무료 버전보다 더 많은 정확한 답변을 제공했지만, 동시에 더 높은 오류율도 보였습니다. 이는 주로 답변을 거부하기보다 확신에 찬 어조로 잘못된 정보를 제공하는 경향 때문입니다. 따라서 비용이 더 높다고 해서 반드시 더 신뢰할 수 있는 것은 아닙니다. Q. 출판사는 자신의 콘텐츠가 AI 검색 엔진에 사용되는 것을 어떻게 통제할 수 있나요? A:출판사는 자사 웹사이트의 robots.txt 파일을 통해 특정 AI 크롤러의 접근을 차단할 수 있습니다. 그러나 연구 결과에 따르면 일부 AI 회사들은 이러한 제한을 무시하고 있으며, 신디케이트된 콘텐츠나 타 플랫폼에 재발행된 버전을 통해 우회하는 경우도 있습니다. 또한 일부 AI 회사들은 출판사와 라이센싱 계약을 맺지만, 이것이 항상 정확한 인용을 보장하지는 않습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.18 10:34AI 에디터

고급차 줄줄이 감원...아우디, 7500명 해고 계획

고급차 브랜드들이 대규모 감원으로 비용 절감을 모색하고 있다. 메르세데스-벤츠, 애스턴마틴에 이어, 폭스바겐의 고급차 브랜드 아우디도 감원을 결정했다. 일렉트렉 등 외신에 따르면 아우디는 17일(현지시간) 성명서에서 오는 2029년까지 인력 7천500명 감축 계획을 밝혔다. 추가로 인건비 절감을 위해 단체 임금 협약 등도 조정할 계획이다. 정치적 불확실성과 시장 경쟁이 심화되는 가운데 전동화를 위한 투자금 확보 목적이라고 설명했다. 지난해 인도량은 전년 대비 12% 감소한 170만대 수준이었다. 아우디는 2029년까지 독일 공장에 약 80억 유로(약 12조 6천억원)를 투자할 계획이다. 이 중 잉골슈타트 공장에선 보급형 라인의 새 전기차를 생산한다는 계획이다. 전기차 외 출시를 앞둔 아우디 Q3 3세대도 헝가리 공장과 함께 생산하게 된다. 네카르줄름 공장은 인공지능(AI) 역량을 키우는 기지로 활용될 전망이다. 생산 모델 추가도 검토 중이다. 아우디는 이를 위해 약 2억5천만 유로(약 4천억원)를 투입해 '미래 펀드'를 조성했다. 다른 고급차 브랜드도 경영난 속에 인력 감축을 추진 중이다. 영국 스포츠카 제조사인 애스턴마틴도 지난달 전체 인력의 5%를 감원한다고 발표했다. 애스턴마틴은 지난해 4분기 손실 규모가 400% 급증했다. 같은 달 메르세데스-벤츠도 중국 법인 구조조정을 실시한다고 밝혔다. 이를 통해 전체 인력의 최대 15%를 해고할 것으로 전망된다. 메르세데스-벤츠는 지난해 중국 시장 판매량이 17% 감소했다.

2025.03.18 10:01김윤희

로옴, 학습·추론 독립 실현 'AI 마이컴' 개발

로옴은 센싱 데이터를 활용한 고장 징후 검출 및 열화 예측이 가능한 AI(인공지능) 기능 탑재 마이컴 'ML63Q253x-NNNxx', 'ML63Q255x-NNNxx'(이하 AI 마이컴)를 개발했다고 18일 밝혔다. 이번 제품은 네트워크에 접속하지 않아도 학습과 추론을 독립적으로 실현하는 업계 최초 마이컴이다. 독자적인 온 디바이스 AI 솔루션을 실현하기 위해 심플한 3층 뉴럴 네트워크의 알고리즘을 채용했다. 이를 통해 클라우드 및 네트워크에 의존하지 않고 마이컴에서 학습과 추론이 가능하다. 현재 AI의 처리 모델은 클라우드 AI, 엣지 AI, 엔드 포인트 AI로 분류된다. 클라우드 AI는 클라우드 상에서, 엣지 AI는 클라우드 및 공장 설비나 PLC에 AI를 탑재하고 네트워크를 통해 학습과 추론을 실행한다. 일반적인 엔드 포인트 AI는 클라우드에서 학습하고 단말기에서 추론을 실행하기 때문에 네트워크 접속이 필요하다. 또한 이러한 처리 모델의 경우 소프트웨어를 통해 추론을 실행하기 때문에 GPU나 고성능 CPU가 요구된다. 반면 로옴의 AI 마이컴은 엔드 포인트 AI이지만, 온 디바이스 학습을 통해 학습과 추론을 모두 마이컴 단독으로 실행할 수 있어 설치 환경이나 동일 기종에서의 편차에도 유연하게 대응이 가능하다. 독자적인 기술의 AI 액셀레이터 'AxlCORE-ODL'로, 기존의 소프트웨어 방식(조건 : 12MHz 구동 시의 이론치)을 채용한 로옴의 마이컴에 비해 AI 처리를 약 1천배로 고속화할 수 있어, 실시간으로 이상 상태를 검출하고 수치화해 출력할 수 있다. 또한 기기의 설치 환경에서 고속 학습(현장 학습)이 가능해 기존 기기에 추가 탑재도 가능하다. AI 마이컴은 32bit Arm Cortex-M0+ Core, CAN FD 컨트롤러, 3상 모터 제어 PWM, 2유닛 A/D 컨버터를 탑재해, 소비전력 약 40mW의 저전력 성능을 실현했다. 산업기기 및 주택 설비, 가전기기의 고장 징후 검출에 최적이다. AI 마이컴은 메모리 사이즈 및 패키지, PIN 수, 포장 사양에 따라 16개의 기종을 라인업으로 구비할 예정이다. 2025년 2월부터 순차적으로 양산을 개시한 제품은 TQFP 패키지의 8개 기종이다. 로옴은 AI 마이컴 도입 전에 학습과 추론의 효과를 확인할 수 있는 AI 시뮬레이션 툴 을 로옴 공식 Web 사이트에서 공개하고 있다. 이 툴에서 출력한 데이터는 실제로 AI 마이컴의 학습 데이터로서 활용할 수 있어, 도입 전의 사전 검증 및 정밀도 향상에 도움이 된다. 또한 AI 마이컴을 용이하게 도입할 수 있도록 파트너 기업과 연계한 에코 시스템을 구축하여, 모델 개발 및 도입 지원 등의 서포트 체제를 구축했다.

2025.03.18 09:44장경윤

'DIY 검색'의 함정…AI 검색이 더 효율적인 이유

AI 기반 검색 솔루션이 고객 경험을 좌우한다 디지털 경험의 시작과 끝은 검색에서 이루어진다. AI 기반 검색 솔루션 기업 Lucidworks가 발표한 보고서에 따르면, 디지털 쇼핑객의 69%가 검색 기능을 사용하며, 검색 경험이 좋지 않을 경우 80%가 이탈한다는 조사 결과는 검색의 중요성을 잘 보여준다. 많은 기업들이 자체적으로 검색 솔루션을 구축하거나 Elasticsearch, Solr, Google과 같은 외부 프레임워크를 활용하지만, 이러한 '직접 구축(DIY)' 방식은 겉으로 보기에 매력적일지 모르나 실제로는 많은 부정적 결과를 초래할 수 있다. 특히 인공지능과 머신러닝이 검색 기술의 핵심으로 자리 잡은 현재, DIY 방식은 기술적 한계를 드러내고 있다. 인공지능과 검색 전문가 부족이 DIY 솔루션의 함정 DIY 검색 솔루션의 가장 큰 문제점 중 하나는 전문성 격차다. 효과적인 검색 및 제품 발견 경험을 구축하려면 검색 알고리즘, 인공지능, 머신러닝, 데이터 관리, 사용자 경험 디자인을 아우르는 전문 기술이 필요하다. 맥킨지앤컴퍼니(McKinsey & Company)에 따르면 "숙련된 AI 및 검색 전문가에 대한 수요가 공급을 크게 초과하여 기업이 사내 전문성을 구축하고 유지하는 것이 어렵고 비용이 많이 든다." 이러한 전문가 부족 현상은 기업이 자체 검색 솔루션을 개발할 때 직면하는 가장 큰 장벽 중 하나다. 대부분의 기업은 이러한 복잡한 시스템을 구축하고 유지할 사내 전문성이 부족하여 최적화되지 않은 결과를 얻게 된다. 기술적 부채는 혁신과 민첩성을 저해하며, 기업이 진화하는 고객 기대에 부응하기 어렵게 만든다는 점이 하버드 비즈니스 리뷰(Harvard Business Review)에서도 지적되었다. AI 기반 검색 솔루션의 자동화가 가져오는 비즈니스 성과 직접 구축 방식과 달리 사전 구축된 AI 기반 검색 솔루션은 상당한 비용 절감과 구체적인 비즈니스 이점을 제공한다. 실제 데이터에 따르면 연간 1,100~1,300시간의 큐레이션 시간 절약, 큐레이션 규칙 20-30% 감소, 검색 관련성 10-15% 향상, 검색 결과 없음 쿼리 91% 감소 등의 효율성 향상을 가져올 수 있다. 이러한 효율성 향상은 직접적인 매출 증가로 이어져 검색 영향을 받은 주문 가치가 28% 증가하고 검색 영향을 받은 주문이 30% 증가한다. 사전 구축된 솔루션은 기계 학습 모델, AI 및 생성형 AI 모듈, 추천 모듈, 유연한 신호 캡처, 머천다이징 도구, 챗봇 앱 및 통합, 데이터 커넥터, 최고 수준의 관련성 자동화, 개인화 자동화, 모델 및 규칙 등 다양한 기능을 제공하여 팀의 가치 창출 시간을 단축시킨다. AI 기술을 활용한 비즈니스와 IT 팀 간 격차 해소 DIY 방식의 검색 및 제품 발견 접근 방식은 종종 비즈니스 리더와 구현 담당 기술 팀 간의 격차를 만든다. 이러한 불일치는 다양한 요인에서 비롯되는데, 그중 하나는 AI와 관련된 도메인 전문성 부족이다. 기술 팀은 특정 비즈니스 영역에 대한 깊은 도메인 전문성이 부족하여 특정 산업이나 분야에서 검색 및 제품 발견의 고유한 과제를 예측하고 해결하기 어려울 수 있다. 전자상거래 개인화, B2B 고객 지원, 금융 서비스 연구 등 다양한 시나리오에서 이러한 불일치가 발생할 수 있다. 예를 들어, 전자상거래 개인화 시나리오에서는 머천다이징 팀이 고객 탐색 기록을 기반으로 개인화된 제품 추천을 구현하고자 하지만, 기술팀은 필요한 데이터 소스를 통합하거나 복잡한 알고리즘을 구현하는 데 어려움을 겪어 효과적인 개인화 전략을 실현하지 못할 수 있다. 비용 효율적인 AI 검색 솔루션으로 391% ROI 달성 DIY 방식의 검색 및 제품 발견 솔루션의 총 소유 비용은 빠르게 통제를 벗어날 수 있다. 개발자 시간(약 11,000시간), 첫 해 서비스 비용(180만 달러), 2-5년 간 전담 유지 관리 팀(약 10명의 개발자)에 대한 지속적인 필요성은 상당한 재정적 부담을 만든다. 반면, 사전 구축된 솔루션은 상당한 비용 절감과 구체적인 비즈니스 이점을 제공한다. 실제 데이터에 따르면 연간 1,100~1,300시간의 큐레이션 시간 절약, 큐레이션 규칙 20-30% 감소, 평균 상호 순위가 0-15% 개선되고, 검색 결과 없음 쿼리가 91% 감소하는 효율성 향상을 가져온다. 이러한 효율성 향상은 직접적인 매출 증가로 이어져 검색 영향을 받은 주문 가치가 28% 증가하고 검색 영향을 받은 주문이 30% 증가한다. 사전 구축된 솔루션을 선택하면 DIY 검색의 숨겨진 비용과 복잡성을 피하고 귀중한 리소스를 확보하며 시장 진출 시간을 단축할 수 있다. 또한 고급 검색 기술과 AI를 활용하여 탁월한 고객 경험을 제공하고 궁극적으로 수익 성장과 장기적인 성공을 이끌어낼 수 있다. 루시드웍스(Lucidworks)의 검색 솔루션을 통해 391%의 긍정적인 ROI를 달성할 수 있다는 조사 결과는 AI 기반 검색 솔루션의 강력한 비즈니스 가치를 보여준다. FAQ Q: 생성형 AI는 기존 검색 솔루션과 어떻게 다른가요? A: 생성형 AI는 단순한 키워드 매칭을 넘어 사용자의 의도를 이해하고 맥락에 맞는 답변을 생성할 수 있습니다. 이를 통해 검색 결과의 정확성이 향상되고 제로 결과 쿼리가 91%까지 감소하는 효과를 볼 수 있습니다. Q: 중소기업도 AI 기반 검색 솔루션을 도입할 수 있나요? A: 네, 다양한 규모의 기업을 위한 AI 검색 솔루션이 있습니다. DIY 방식으로 약 11,000시간의 개발자 시간과 180만 달러의 첫 해 비용이 드는 것에 비해, 사전 구축된 솔루션은 초기 투자 비용을 크게 줄이고 빠른 ROI를 제공합니다. Q: AI 검색 솔루션 도입으로 기대할 수 있는 구체적인 성과는 무엇인가요? A: AI 검색 솔루션 도입 시 검색 관련성 10-15% 향상, 검색 영향을 받은 주문 가치 28% 증가, 검색 영향을 받은 주문 30% 증가 등의 구체적인 성과를 기대할 수 있습니다. 또한 큐레이션 시간을 연간 1,100-1,300시간 절약할 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.18 08:40AI 에디터

카이스트, LLM 학습시간 예측 모델 개발… AI 훈련 비용 5% 절감

GPU 활용률 10% 저하로 훈련 비용 수백만 달러 증가, vTrain으로 해결책 제시 대규모 언어 모델(LLM)이 다양한 응용 분야에서 널리 보급됨에 따라 인공지능 커뮤니티가 직면한 중요한 과제는 이러한 대규모 AI 모델을 비용 효율적인 방식으로 훈련하는 방법이다. 기존의 LLM 훈련 계획은 일반적으로 LLM 병렬화 공간에 대한 철저한 검토보다는 경험적 관찰에 기반한 휴리스틱 기반 병렬 훈련 전략을 채택한다. 이러한 한계로 인해 기존 시스템은 상당한 성능 향상의 여지를 남겨두게 되며, 수백만 달러에 달하는 훈련 비용이 낭비된다. 예를 들어, 1,024대의 NVIDIA A100 GPU를 사용하여 GPT-3(175B 매개변수)를 훈련할 때, GPU 컴퓨팅 활용률이 단지 10%(50%에서 40%로) 감소하더라도 훈련 시간이 8일 증가하여 수백만 달러의 추가 비용이 발생한다. 그러나 이러한 대규모 LLM을 훈련해야 하는 규모 때문에 훈련 시스템 구성의 설계 공간을 철저히 탐색하여 가장 최적의 비용 효율적인 하이퍼파라미터를 찾는 것은 극히 어려운 일이다. 수십 분 내 최적 훈련 전략 도출하는 vTrain의 혁신적 시뮬레이션 기술 카이스트가 발표한 논문에 따르면, 비용 효율적이고 컴퓨팅 최적의 LLM 훈련 시스템 평가를 안내하는 프로파일링 기반 시뮬레이터인 vTrain은 해당 문제를 해결하는 데 도움이 된다. vTrain은 AI 실무자들에게 효율적이고 비용 효율적인 LLM 훈련 시스템 구성을 결정하기 위한 빠르고 정확한 소프트웨어 프레임워크를 제공한다. vTrain의 핵심 특징은 프로파일링 기반 방법론을 사용하여 각 설계 지점의 LLM 훈련 시간을 정확하게 추정하는 것이다. 이는 고성능 멀티코어 CPU 서버에서 몇 십 분 내에 최적의 LLM 훈련 시스템 구성을 결정할 수 있게 한다. vTrain의 설계는 LLM 훈련 시간을 정확하게 추정할 수 있게 하는 다음과 같은 핵심 관찰에 기반한다. 첫째, 최신 AI 알고리즘은 각 그래프 노드가 신경망 레이어를 나타내는 비순환 그래프로 표현된다. 둘째, LLM 추론과 달리, 훈련을 위한 LLM 그래프 노드의 실행 순서는 컴파일 시간에 정확하게 정의되므로 vTrain은 얼마나 많은 LLM 그래프 노드를 실행해야 하는지와 그 실행 순서를 정적으로 결정할 수 있다. 셋째, 대상 GPU 아키텍처에서 각 개별 LLM 그래프 노드(각 레이어)의 실행 시간은 매우 결정적이며 서로 다른 실행 간에 거의 변동이 없다. 경험적 방식 대비 10% 적은 GPU로 5% 비용 절감, vTrain의 사례 연구 vTrain의 실용성을 입증하기 위해 여러 사례 연구를 실시했다. 첫 번째 사례는 비용 효율적인 LLM 훈련 계획이다. 주어진 LLM, 훈련 토큰 크기 및 컴퓨팅 예산(즉, 총 GPU 수)이 주어졌을 때, 벽시계 훈련 시간과 그에 관련된 훈련 비용을 최소화하는 가장 최적의 훈련 병렬화 전략을 결정할 수 있다. 두 번째는 비용 효율적인 멀티테넌트 LLM 스케줄링으로, 여러 LLM 훈련 작업이 GPU 클러스터를 공유할 때, GPU 활용률을 최대화하면서 작업 완료 시간을 최소화하는 효율적인 스케줄링 알고리즘을 식별할 수 있다. 세 번째는 컴퓨팅 최적의 LLM 모델 설계로, 고정된 컴퓨팅 및 훈련 시간 예산이 주어졌을 때, Chinchilla 스케일링 법칙을 만족하는 가장 큰 LLM을 결정할 수 있다. 예를 들어, MT-NLG(530B) 모델 훈련에서 vTrain은 기존 방식보다 10% 적은 GPU를 사용하면서 4.5% 높은 GPU 활용률을 달성하고, 훈련 비용을 5% 절감하는 훈련 계획을 도출했다. 텐서, 데이터, 파이프라인 병렬화의 최적 조합으로 LLM 훈련 효율성 극대화 현대 LLM 훈련은 최첨단 3D 병렬화 방식(데이터 병렬화, 텐서 병렬화, 파이프라인 병렬화)을 적용한다. 이는 LLM과 같은 거대한 AI 모델을 분할하여 여러 GPU에서 효율적으로 학습시키기 위한 전략이다. 텐서 병렬화는 모델 가중치를 GPU 내에서 열과 행 차원으로 나누어 같은 노드 내 GPU 간에 고대역폭 통신을 활용한다. 데이터 병렬화와 파이프라인 병렬화는 주로 노드 간 병렬화에 사용되며, 상대적으로 통신 오버헤드가 적다. vTrain은 이러한 복잡한 병렬화 전략의 성능을 정확하게 모델링하고, 최적의 구성을 찾아내어 GPU 활용률을 높이고 훈련 비용을 최소화할 수 있다. 145억에서 76억 매개변수로: vTrain으로 발견한 30일 내 훈련 가능한 현실적 모델 크기 Chinchilla 스케일링 법칙에 따르면, 주어진 컴퓨팅 예산 내에서 최적의 모델 크기와 훈련 토큰 수 사이에는 균형이 필요하다. 단순히 모델 크기만 키우는 것은 과소훈련으로 이어져 알고리즘 성능을 완전히 활용하지 못한다. GPU 효율성에 대한 현실적인 평가 없이 단순히 가용 GPU 수만으로 컴퓨팅 예산을 결정하면 오해의 소지가 있다. vTrain은 실제 GPU 활용률을 고려하여 보다 현실적인 컴퓨팅 최적 모델 크기를 도출할 수 있다. 예를 들어, 420개의 NVIDIA DGX A100 서버(3,360 A100 GPU)를 30일 동안 사용한다고 가정할 때, 단순히 100% GPU 활용률을 가정하면 1,456억 매개변수의 모델을 2,912억 토큰으로 훈련할 수 있다고 예상할 수 있다. 그러나 vTrain은 실제로는 평균 35.56%의 GPU 활용률만 달성 가능하며, 이는 원래 기대했던 30일 대신 85일의 훈련 시간이 필요함을 보여준다. vTrain을 사용하면 760억 매개변수의 모델을 1,521억 토큰으로 30일 내에 훈련할 수 있는 더 현실적인 계획을 수립할 수 있다. FAQ Q: 대규모 언어 모델 훈련에서 GPU 활용률이 왜 그렇게 중요한가요? A: GPU 활용률은 훈련 시간과 비용에 직접적인 영향을 미칩니다. vTrain의 연구에 따르면 GPU 활용률이 단 10% 감소하더라도(50%에서 40%로) 훈련 시간이 8일 증가하며, 이는 수백만 달러의 추가 비용을 의미합니다. 따라서 최적의 병렬화 전략을 통한 GPU 활용률 최적화는 비용 효율적인 LLM 훈련에 필수적입니다. Q: vTrain은 어떻게 기존 LLM 훈련 방식보다 더 효율적인 방법을 찾아낼 수 있나요? A: vTrain은 프로파일링 기반 시뮬레이션을 통해 수천 가지의 가능한 병렬화 구성을 빠르게 평가하여 최적의 훈련 계획을 도출합니다. 기존 방식은 경험적 관찰에 기반한 휴리스틱에 의존하지만, vTrain은 전체 설계 공간을 체계적으로 탐색하여 GPU 활용률과 훈련 시간 사이의 최적 균형점을 찾아냅니다. Q: Chinchilla 스케일링 법칙이란 무엇이며 LLM 훈련에 어떤 영향을 미치나요? A: Chinchilla 스케일링 법칙은 주어진 컴퓨팅 예산 내에서 모델 크기와 훈련 토큰 수를 균형있게 확장해야 한다는 원칙입니다. 이 법칙에 따르면, 모델을 과소훈련하면 해당 모델의 알고리즘 잠재력을 완전히 발휘할 수 없습니다. vTrain은 실제 GPU 효율성을 고려하여 이 법칙을 적용함으로써, 주어진 시간과 자원 내에서 훈련할 수 있는 최적의 모델 크기와 토큰 수를 더 정확하게 예측할 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 20:48AI 에디터

AI는 시각장애인의 눈이 될 수 있을까

전 세계 22억 명 시각장애인을 위한 최초의 1인칭 시점 비디오 데이터셋 'EgoBlind' 현재 전 세계에는 약 22억 명의 시각장애인이 살고 있다. 이들이 일상생활을 더 독립적으로 영위할 수 있도록 돕는 기술은 계속해서 발전하고 있으며, 최근 다중 모달 대규모 언어 모델(MLLM)의 발전으로 시각적 질의응답(VQA) 기술이 크게 향상되었다. 그러나 지금까지 대부분의 VQA 데이터셋은 제3자 시점이나 일반적인 이미지와 비디오 이해에 초점을 맞추고 있어, 실제 시각장애인의 관점에서 필요한 실시간 지원에는 한계가 있었다. 싱가포르 국립대학교, 중국 커뮤니케이션 대학교, 중국 과학기술대학교, 허페이 공과대학교 연구팀이 공동으로 개발한 'EgoBlind'는 시각장애인의 1인칭 시점에서 촬영된 비디오를 기반으로 한 최초의 VideoQA 데이터셋이다. 이 데이터셋은 시각장애인이 직접 착용한 카메라로 촬영된 1,210개의 비디오와 4,927개의 질문을 포함하고 있으며, 이 질문들은 시각장애인이 직접 제기하거나 검증한 것들로 구성되어 있다. "길이 앞에 있나요?" - 시각장애인이 실제 일상에서 가장 필요로 하는 6가지 정보 유형 EgoBlind 데이터셋은 시각장애인이 일상생활에서 필요로 하는 지원 유형을 여섯 가지 주요 카테고리로 분류했다. 정보 판독(Information Reading): 시각장애인이 알고 싶어하는 특정 정보 획득. 예: "이 메뉴에는 무엇이 있나요?", "지금 엘리베이터는 몇 층인가요?" 안전 경고(Safety Warning): 주변 환경의 물리적 안전 위험이나 인적 요소 관련 위험 판단. 예: "길을 건널 때 차가 지나가고 있나요?", "에스컬레이터의 방향은 어떻게 되나요?" 길 안내(Navigation): 실내외 이동 시 필요한 방향과 위치 정보. 예: "화장실은 어디에 있나요?", "지금 내가 출구를 향해 서 있나요?" 사회적 소통(Social Communication): 주변 사람들과의 상호작용 및 다중 활동을 위한 상태 정보 파악. 예: "지금 누가 나에게 말하고 있나요?", "안내견이 엘리베이터에 안전하게 탔나요?" 도구 사용(Tool Use): 각종 도구나 기기 사용 방법. 예: "전자레인지는 어떻게 사용하나요?", "이 문은 어떻게 여나요?" 기타 자원(Other Resources): 주변의 서비스 시설이나 활동 정보. 예: "근처에 시각장애인용 보행로가 있나요?", "특정 브랜드 상점이 있나요?" 이 분류는 시각장애인의 실제 필요에 기반하여 만들어진 것으로, 연구팀은 시각장애인 참가자들을 대상으로 광범위한 설문조사를 실시해 각 질문 유형의 실질적 유용성을 검증했다. GPT-4o도 인간보다 30%p 뒤처진다 - 15개 최신 AI 모델의 성능 실험 결과 연구팀은 EgoBlind 데이터셋을 활용해 현재 최고 수준의 MLLM 15개(GPT-4o, Gemini 2.0 등의 상용 모델 3개와 InternVL2, LLaVA-OV 등의 오픈소스 모델 12개)의 성능을 종합적으로 평가했다. 그 결과, 모든 모델이 시각장애인을 위한 실시간 지원에 상당한 한계를 보였다. 주요 발견 사항: 가장 성능이 좋은 모델(Gemini 2.0)도 정확도가 56.6%에 그쳐, 인간 성능(87.4%)에 비해 약 30%p 낮았다. 상용 모델과 최고 성능의 오픈소스 모델 간 성능 차이가 크지 않았다. 일반적인 자기 중심적 VQA나 시각장애인용 이미지 QA에서 좋은 성능을 보이는 모델이 반드시 EgoBlind에서도 좋은 성능을 보이지는 않았다. 특히 '길 안내', '안전 경고', '도구 사용' 질문에서 모델들의 성능이 현저히 떨어졌다. "이 차가 움직이고 있나요?" - AI가 시각장애인의 가장 중요한 질문에 답하지 못하는 5가지 이유 연구팀은 다양한 질문 유형과 실패 사례를 분석하여 다음과 같은 주요 문제점을 식별했다. 사용자 의도 이해 부족: AI는 시각 콘텐츠에 대해 객관적으로 정확한 답변을 제공할 수 있지만, 동적인 자기 중심적 시각 맥락 내에서 시각장애인의 의도를 추론하는 데 한계를 보였다. 예를 들어, "앞에 길이 있나요?"라는 질문에 장애물이 있음에도 단순히 "네"라고 대답하는 경우가 많았다. 실시간 공간 인식 문제: 모델들은 시각장애인 사용자가 움직일 때 사용자 기준의 공간 방향(예: "내 오른쪽에 있는 제품은 무엇인가요?")을 효과적으로 업데이트하지 못했다. 시간적 맥락 추론 한계: 모델들은 비디오의 시간적 맥락을 추론하고 사용자의 실시간 위치에 상대적인 객체를 파악하는 데 어려움을 겪었다. 장애물 식별 부족: '안전 경고' 질문에서 모델들은 실제 장애물을 정확히 식별하고 경고하는 데 한계를 보였다. 비현실적 답변(Sycophancy): 모델들, 특히 오픈소스 모델들은 시각장애인이 실제로 존재하지 않는 대상에 대해 질문할 때 잘못되거나 잠재적으로 해로운 답변을 제공하는 경향이 있었다. 이 연구는 시각장애인을 위한 AI 지원 기술 개발의 중요한 방향을 제시하고 있다. 연구팀은 향후 개선을 위해 사용자 의도에 대한 더 나은 이해, 연속적인 비디오 프레임의 미묘한 차이에 민감한 모델 개발, 장기 기억 기술 적용, 시각장애인의 실제 필요에 초점을 맞춘 훈련 데이터 합성 등을 제안했다. 87.4%의 인간 성능 VS 56.6%의 AI 성능 - 실질적인 시각장애인 지원 기술의 미래 전망 EgoBlind 연구는 시각장애인의 실제 필요에 부합하는 AI 시각 지원 기술 개발에 중요한 기반을 마련했다. 이 데이터셋은 현재 MLLM 모델들의 한계를 분명히 보여주는 동시에, 향후 연구 방향에 대한 통찰력을 제공한다. 특히, 시각장애인의 1인칭 시점에서의 동적 장면 이해, 실시간 맥락 인식 사용자 의도 추론, 지원 중심의 답변 생성 등 세 가지 핵심 과제를 해결하는 데 초점을 맞추어야 한다는 점이 강조되었다. 이 연구는 단순한 객체 인식이나 설명을 넘어, 시각장애인의 구체적인 필요와 맥락에 맞춘 실질적인 AI 지원 시스템 개발의 중요성을 환기시킨다. EgoBlind 데이터셋과 연구 결과는 앞으로의 AI 시각 지원 기술이 더욱 정확하고 유용한 방향으로 발전하는 데 중요한 역할을 할 것으로 기대된다. FAQ Q: 시각장애인을 위한 AI 시각 지원 기술은 기존 기술과 어떤 점이 다른가요? A: 기존 기술이 일반적인 객체 인식이나 장면 설명에 초점을 맞췄다면, EgoBlind 연구를 통해 개발 중인 AI 시각 지원 기술은 시각장애인의 1인칭 시점에서 실시간으로 필요한 정보(안전 위험, 길 안내, 도구 사용법 등)를 맥락에 맞게 제공하는 데 중점을 둡니다. Q: 현재 AI 모델들이 시각장애인 지원에 있어 가장 어려워하는 부분은 무엇인가요? A: 현재 AI 모델들은 시각장애인의 실제 의도 파악, 사용자 중심의 공간 방향 인식, 시간적 맥락 추론, 안전 관련 장애물 식별에 가장 큰 어려움을 겪고 있습니다. 특히 실시간으로 변화하는 환경에서 사용자 관점의 정보를 제공하는 데 한계가 있습니다. Q: EgoBlind 연구가 일반 사용자에게도 의미가 있을까요? A: 네, EgoBlind 연구는 AI가 인간의 관점에서 세상을 이해하고 맥락에 맞는 지원을 제공하는 능력을 향상시키는 데 기여합니다. 이러한 발전은 자율주행 차량, 증강현실, 로봇 보조 등 다양한 분야에도 적용될 수 있어 장기적으로는 모든 사용자에게 혜택을 줄 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 20:47AI 에디터

양자컴퓨터, 초고전적 계산으로 양자 시뮬레이션 한계 돌파… D-웨이브 연구 결과

양자 프로세서, 고전적 방식으로 풀 수 없는 문제 해결 능력 입증 양자 컴퓨터는 수십 년간 특정 작업에서 고전적 알고리즘보다 월등한 속도 향상을 약속해왔다. D-웨이브(D-wave) 연구진은 초전도 양자 어닐링(Quantum Annealing) 프로세서를 사용해 슈뢰딩거 방정식의 해를 빠르게 찾아내는 데 성공했다. 이 연구는 양자 컴퓨팅이 특정 문제에서 '초고전적 계산'(beyond-classical computation) 능력을 보여주는 중요한 사례로, 고전적 컴퓨터로는 현실적인 시간 내에 도달하기 어려운 정확도를 달성했다. 연구진은 이차원, 삼차원 및 무한 차원 스핀 글래스(spin glasses)에서 얽힘(entanglement)의 면적법칙 스케일링을 증명하며, 행렬곱상태(matrix-product-state) 접근법에서 관찰된 확장-지수적 스케일링을 뒷받침했다. 특히 주목할 점은 텐서 네트워크와 신경망 기반의 고전적 방법들이 양자 어닐러와 동일한 정확도를 합리적인 시간 내에 달성할 수 없다는 것이다. 이는 양자 어닐러가 고전적 계산으로는 해결하기 어려운 실질적 중요성을 가진 문제들에 답할 수 있음을 보여준다. 양자 임계 동역학 시뮬레이션: 5000큐비트로 검증된 횡단-장 이징 모델 양자 컴퓨팅의 이론은 특정 작업에서 고전적 알고리즘보다 큰 속도 향상을 약속해왔지만, 실질적인 관심을 가진 문제에서 이러한 능력을 확고히 입증하는 것은 여전히 중요한 과제로 남아있다. 이번 연구는 연속-시간 양자 동역학의 일반적이고 실용적인 문제인 횡단-장 이징 모델(transverse-field Ising model, TFIM)을 시뮬레이션하는 데 중점을 두었다. 초전도 양자 어닐링(QA) 프로세서는 이미 이징형 시스템에서 양자 상전이 시뮬레이션과 큐비트 스핀 글래스에서의 양자 임계 동역학에 활용되어 왔다. 이번 연구에서는 5000개 이상의 큐비트에서 측정된 임계 지수가 예상되는 보편성 클래스의 추정치와 밀접하게 일치하는 것을 확인했다. 이는 슈뢰딩거 진화를 증명하는 설득력 있는 증거지만, 이 매개변수 범위에서도 고전적 방법으로 시뮬레이션할 수 없다는 점을 확립하는 것이 중요하다. 고전 vs 양자: MPS 시뮬레이션과 QPU의 격자 크기별 성능 비교 연구팀은 먼저 작은 문제에서 양자 처리 장치(QPU)의 오차를 평가하기 위해 행렬곱상태(MPS) 시뮬레이션으로 계산된 기준 진실과 비교했다. 서로 다른 설계의 두 가지 양자 프로세서를 사용하여 정사각형, 입방체, 다이아몬드, 이중 클릭(biclique) 등 다양한 차원의 프로그래밍 가능한 토폴로지에서 스핀 글래스를 시뮬레이션했다. 연구 결과, MPS는 이차원 격자 시뮬레이션 문제에 효과적이지만, PEPS(Projected Entangled Pair States)와 NQS(Neural Quantum State) 방법은 느린 퀜치(slow quenches)에서 어려움을 겪는 것으로 나타났다. 특히 이차원 시스템에서 QPU 결과는 L(격자 크기)에 따라 평평한 스케일링을 보였지만, 이를 MPS로 매칭하려면 지수적으로 증가하는 본드 차원이 필요했다. 이는 면적법칙 스케일링과 일치하는 결과다. 양자 우위의 증거: 양자 시뮬레이션에 필요한 고전 컴퓨터는 수백 페타바이트 메모리 필요 고차원 시스템에서는 QPU 오차가 거의 일정하게 유지되는 반면, 이를 MPS로 매칭하려면 훨씬 더 많은 본드 차원이 필요했다. 연구진은 다양한 토폴로지, 크기, 퀜치 속도에서 선형 관계를 관찰했는데, 이는 MPS 표현 복잡성과 얽힘 사이의 긴밀한 연결을 보여준다. 연구진은 고전적으로 시뮬레이션 가능한 시스템에서 얻은 데이터를 바탕으로 더 큰 크기로 외삽했을 때, MPS가 QPU 시뮬레이션 품질을 매칭하기 위해 필요한 계산 리소스를 추정했다. 가장 큰 문제에서는 앞으로 수십 년간 최첨단 슈퍼컴퓨터에서도 QPU 품질에 맞추기 위해 수백 페타바이트의 메모리와 연간 전 세계 전력 소비량을 초과하는 전력이 필요할 것으로 예상된다. 이 스케일링 분석은 모든 고려된 퀜치 시간에서 QPU 품질을 매칭할 수 있는 유일한 방법인 MPS에 적용되며, 모든 고전적 방법에 대한 본질적인 하한은 아니다. 그러나 이 연구는 양자 프로세서가 기존 고전적 방법으로는 해결하기 어려운 복잡한 양자 역학 문제를 정확하게 시뮬레이션할 수 있는 능력을 갖추고 있음을 입증한다. FAQ Q: 양자 어닐링(Quantum Annealing)이란 무엇이며 왜 중요한가요? A: 양자 어닐링은 양자역학적 터널링 효과를 이용해 복잡한 최적화 문제의 해를 찾는 방법입니다. 이 논문에서는 양자 어닐링 프로세서가 고전적 컴퓨터로는 합리적인 시간 내에 해결하기 어려운 양자 시스템 동역학을 시뮬레이션할 수 있음을 보여주는데, 이는 양자 컴퓨팅이 실질적으로 유용한 문제에서 '양자 우위'를 달성할 수 있다는 중요한 증거입니다. Q: 이 연구에서 말하는 '초고전적 계산'(beyond-classical computation)이란 어떤 의미인가요? A: 초고전적 계산이란 양자 컴퓨터가 최고의 고전적 알고리즘보다 본질적으로 더 빠르게 특정 문제를 해결할 수 있는 능력을 의미합니다. 이 연구에서는 양자 프로세서가 양자 스핀 글래스 역학을 시뮬레이션하는 데 있어, 가장 발전된 고전적 방법(텐서 네트워크, 신경망 등)으로도 동일한 정확도를 달성하기 위해 비현실적인 양의 계산 자원과 시간이 필요함을 증명했습니다. Q: 이 연구 결과가 미래 컴퓨팅에 어떤 영향을 미칠까요? A: 이 연구는 양자 컴퓨터가 양자역학 시뮬레이션과 같은 특정 영역에서 고전적 컴퓨터의 한계를 뛰어넘을 수 있음을 보여줍니다. 이는 물리학, 화학, 재료 과학 등 복잡한 양자 시스템을 이해해야 하는 분야에서 중요한 돌파구가 될 수 있으며, 새로운 소재 개발, 약물 설계, 더 효율적인 화학 반응 설계 등 다양한 응용 분야에서 혁신을 가져올 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 16:06AI 에디터

노르마-네오위즈, "양자컴퓨팅, 게임에 적용…업계 처음"

양자 보안과 양자 컴퓨팅 전문 기업 노르마(대표 정현철)는 국내 대표 게임 기업 ㈜네오위즈(공동대표 김승철, 배태근)와 양자 컴퓨팅 활용 게임 개발에 관한 양해각서(MOU)를 교환했다고 17일 밝혔다. 노르마는 올해 초 ㈜네오위즈홀딩스(대표 김상욱)로부터 투자를 유치한데 이어 이번 MOU를 통해 네오위즈와 연구 및 기술 개발에 대한 협력까지 이어가게 됐다. 노르마는 양자 컴퓨팅과 양자 보안에 대한 기술력을 보유하고 있다. 네오위즈는 게임 개발과 서비스 운영에 대한 풍부한 경험과 노하우를 갖췄다. 양사는 양자 컴퓨팅, 양자 AI 알고리즘, 양자 보안 기술을 게임 산업에 접목해 더 안전하고 효율적인 게임 환경을 조성할 계획이다. 양 사의 이번 각서 교환은 양자 컴퓨터를 게임 산업에 도입한 업계 최초의 사례다. 구체적으로 △게임 분야 양자 컴퓨팅 및 양자 알고리즘 적용 및 상용화 △AI 모델의 한계를 극복하기 위한 양자 AI 알고리즘 연구 및 기술 개발 △게임 분야 양자 보안 적용 및 상용화 등에 협업할 예정이다. 이를 위해 양사 실무진은 워크숍, 세미나 등을 통해 적극 교류하기로 했다. 분야는 게임 엔진 개발, 계정 관리 등에 우선 적용하고 순차적으로 적용 범위를 늘려갈 계획이다. 노르마 정현철 대표는 “이번 MOU는 양 사 핵심 역량을 결합해 업계 최초로 양자 기술로 게임 산업 혁신을 가속화한다는 것에 강점이 있다”며 “앞으로도 양자 컴퓨터 전환 리딩 기업으로서 다양한 적용 사례를 확보하겠다”고 밝혔다. 네오위즈 배태근 공동대표는 "게임산업은 이미 오래전부터 최첨단 IT 기술을 활용, 접목하며 성장해왔다"며 "이번 MOU를 통해 게임분야에 도입될 수 있는 다양한 양자기술 개발에 선도적인 역할을 해나가겠다"고 말했다. 2011년 설립된 노르마(대표 정현철)는 양자 보안 및 양자 컴퓨팅 전문 기업이다. 대표 제품으로 양자내성암호(PQC) 적용 고성능 SSL VPN 'Q 케어 커넥트(Q Care Connect)'가 있다. 최근 양자 애플리케이션 개발을 위한 환경을 제공하는 'Q 플랫폼(Q Platform)'을 출시했다. 조만간 자체 개발한 국내 최초 산업용 양자 컴퓨터 '큐리온(Qrion)'은 출시할 계획이다.

2025.03.17 15:36박희범

당신 회사는 AI 준비가 됐나…가트너가 제시하는 2025 로드맵

생성형 AI, 하이프 사이클 정점에서 22.6% 생산성 향상 약속 가트너의 2024년 AI 하이프 사이클에서 생성형 AI(Generative AI)는 여전히 정점에 위치하고 있다. 기업 경영진들은 생성형 AI를 통해 향후 12~18개월 동안 평균 22.6%의 생산성 향상, 15.8%의 매출 증가, 15.2%의 비용 절감을 기대하고 있다. 이러한 수치는 생성형 AI가 비즈니스 성과에 미치는 잠재적 영향력을 보여준다. 하지만 76%의 CIO와 기술 리더들은 혁신 속도와 확장 필요성 사이에서 균형을 맞추는 데 어려움을 겪고 있다. 생성형 AI 기술은 2024년에도 빠르게 발전했다. 주요 상용 및 오픈소스 대규모 언어 모델(LLM)은 성능이 크게 향상되면서도 토큰 길이 비용은、감소했다. 맥락 길이가 약 2,500페이지의 텍스트에 해당하는 100만 토큰까지 증가했으며, 특정 목적을 위한 소형 언어 모델의 등장, 여러 소규모 전문가 모델을 결합한 전문가 혼합(MoE) 모델, LLM 기반의 고급 추론 기능을 활용하는 AI 에이전트 등이 주목할 만한 발전이다. 2025년에는 기업들이 안전하고 민첩하며 확장 가능한 분석 및 AI 서비스를 제공해야 하는 과제에 직면할 것이다. 이를 위해 데이터 및 분석 기술 전문가들은 AI 및 분석 기반을 강화하고, 가치와 신뢰성을 강조하며, 신뢰와 투명성을 촉진해야 한다. 크롤-워크-런: 76%의 CIO가 선택한 AI 확장 전략 가트너는 기업이 생성형 AI를 도입하고 확장하기 위해 '크롤-워크-런(Crawl-Walk-Run)' 접근법을 제안한다. 이는 초기 파일럿부터 생산 구현, 그리고 최종적으로 확장 가능한 기반 구축으로 진행되는 전략이다. 첫 단계인 '크롤'에서는 내부 사용 사례로 시작하여 접근 가능한 기술 환경을 선택하고, 개념과 기술을 검증한 후 결과를 평가하고 문제점을 식별한다. 이 파일럿 단계에서 기업은 다양한 이해관계자에게 생성형 AI의 역량과 이점을 시연하고, 새로운 사용 사례의 우선순위를 정하며, 기술·위험·규정 준수·개인정보 보호·보안 관련 문제를 파악해야 한다. '워크' 단계에서는 초기 파일럿의 성공과 교훈을 바탕으로 아이디어를 수집하고 사용 사례를 선택하는 공식적인 접근 방식을 수립한다. 생산성 향상과 고객 및 직원 경험 개선이 주요 기능적 사용 사례이며, 이는 텍스트 생성, Q&A 대화, 요약, 분류, 개체명 인식, 감정 분석, 언어 번역 등의 기술적 사용 사례로 구현된다. '런' 단계에서는 중앙 집중식 핵심 팀을 넘어 여러 AI 및 소프트웨어 개발 팀이 참여하는 민주화된 모델로 확장하기 위한 접근 방식을 고려해야 한다. 이는 모듈식 아키텍처와 전체론적 관점을 필요로 한다. RAG 아키텍처로 AI 환각 문제 해결: 기업 신뢰도 확보 전략 기업에서 생성형 AI를 확장 구현하기 위해서는 모듈식 아키텍처가 필수적이다. 통화 센터 상담원이 고객과 대화하는 도중 추가 정보를 찾고, 대화를 요약하며, 다른 팀에 대한 후속 조치를 식별하고, 대화 품질을 평가해야 하는 시나리오를 생각해보자. 이런 사용 사례는 다양한 프롬프트 흐름을 조율하고 여러 전문 모델을 활용해야 한다. 가트너의 클라이언트들은 생성형 AI 구현과 관련하여 세 가지 주요 우려사항을 표현했다. 첫째, 데이터 및 콘텐츠 개인정보 보호에 대한 염려로, 기업 독점 콘텐츠와 개인 식별 정보를 보호해야 한다. 둘째, 환각과 오래된 소스 데이터로 인한 신뢰성과 정확성 문제다. 셋째, 접근 제어와 잠재적 오용에 대한 우려가 있다. 이러한 위험을 완화하기 위해 대부분의 현재 기업 생성형 AI 구현은 검색 증강 생성(RAG) 설계 패턴을 기반으로 한다. RAG 아키텍처는 관련 컨텍스트와 프롬프트 지침으로 사용자 쿼리를 강화하고 가드레일과 모니터링 기능으로 지원하여 강력한 기업 솔루션을 제공한다. 효과적인 기업 솔루션 프레임워크는 다양한 비정형 콘텐츠를 수용하고, 여러 검색 기술을 활용하며, 구성 가능한 프롬프트 템플릿을 제공해야 한다. AI 인재 부족 해결책: 데이터 과학자에서 AI 엔지니어까지 팀 구성 가이드 생성형 AI를 성공적으로 구현하려면 팀의 역량을 강화하는 것이 중요하다. RAG 솔루션 개발과 LLM 미세 조정은 일반적인 기계 학습 개발 프로세스와는 다른 지식과 기술을 요구한다. 데이터 과학자가 AI 및 ML 모델 개발 팀의 중심에 있지만, 성공적인 기술 팀은 AI 및 ML 엔지니어와 데이터 엔지니어의 동등한 기여가 필요하다. 기업들은 데이터 기반 의사결정에 대한 경쟁 우위를 확보하기 위해 시급한 필요성과 급변하는 기술 및 제품 역량 사이에서 기술, 도입, 위험 이해에 격차가 드러나고 있다. 이에 대응하여 기업은 기술 옵션을 평가하고, 팀 역량을 강화하며, 자동화와 간소화된 방법론을 통해 민첩성을 증가시키고, 일관되고 신뢰할 수 있는 구현을 위한 지침과 프레임워크를 수립해야 한다. 신뢰와 투명성에 대한 요구는 거버넌스, 데이터 및 AI 리터러시 관행을 주도할 것이다. 효과적인 AI 개발을 위해서는 데이터 및 AI 리터러시 프로그램을 구현하고, 가드레일과 지표를 설정하여 거버넌스 제어를 통합하며, 조직 프로세스, 표준, 모범 사례에 맞춰 조정해야 한다. FAQ Q: 생성형 AI는 실제로 기업에 어떤 가치를 제공할 수 있나요? A: 생성형 AI는 기업에 생산성 향상(평균 22.6%), 매출 증가(15.8%), 비용 절감(15.2%)과 같은 실질적 가치를 제공할 수 있습니다. 주요 사용 사례로는 텍스트 생성(코드, 문서, 이메일 등), 대화형 Q&A, 콘텐츠 요약, 감정 분석, 언어 번역 등이 있으며, 이를 통해 업무 효율성을 높이고 고객 및 직원 경험을 개선할 수 있습니다. Q: 기업이 생성형 AI를 도입할 때 가장 큰 위험 요소는 무엇인가요? A: 기업이 생성형 AI를 도입할 때 가장 큰 위험 요소는 데이터 개인정보 보호 문제, 환각(hallucination)으로 인한 부정확한 정보 생성, 그리고 접근 제어 미흡으로 인한 잠재적 오용입니다. 이러한 위험을 완화하기 위해 검색 증강 생성(RAG) 아키텍처 도입, 적절한 가드레일 설정, 그리고 철저한 모니터링이 필요합니다. Q: 일반 기업이 생성형 AI를 어떻게 시작해야 할까요? A: 일반 기업은 '크롤-워크-런' 접근법으로 생성형 AI를 시작하는 것이 좋습니다. 먼저 내부 사용 사례로 파일럿 프로젝트를 시작하고, 개념과 기술을 검증한 후, 결과를 평가합니다. 이후 성공적인 사례를 기반으로 우선순위가 높은 사용 사례를 선택하여 확장하고, 최종적으로 모듈식 아키텍처와 전체론적 역량 맵을 구축하여 기업 전체에 AI 기술을 민주화하는 단계로 나아갑니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 14:56AI 에디터

[Q&AI] 美, 한국을 '민감국가'로 지정...왜?

질문: 미국이 '민감국가 및 기타 지정국가 목록'(Sensitive and Other Designated Countries List·SCL)에 한국을 새로 추가한 것으로 15일(현지 시간) 공식 확인됐다고 하는데, 해당 사건이 어떤 파장을 일으킬지 자세히 정리해줘. 퍼플렉시티 답변: 미국이 한국을 '민감국가 및 기타 지정국가 목록'(Sensitive and Other Designated Countries List, SCL)에 추가한 사건은 여러 가지 파장을 일으킬 수 있습니다. 이 목록은 미국 에너지부(DoE)가 국가 안보, 핵 비확산, 테러 지원 등의 이유로 관리하는 목록입니다. 한국은 목록의 가장 낮은 카테고리인 "기타 지정국가"로 분류되었습니다. 이로 인해 한국은 미국과의 기술 협력에서 제한을 받을 수 있으며, 특히 원자력, 인공지능, 양자 컴퓨팅 분야에서 협력이 어려워질 수 있습니다. 주요 파장 기술 협력 제한 원자력 및 첨단 기술: 한국이 미국의 첨단 기술 연구에 참여하는 데 제한이 생길 수 있습니다. 이는 원자력, 인공지능, 양자 컴퓨팅 등 다양한 분야에 영향을 미칠 수 있습니다. 연구 참여 절차 강화: 한국 연구자들이 미국 에너지부 시설을 방문하거나 연구 프로젝트에 참여할 때 더 엄격한 절차를 거쳐야 할 수 있습니다. 외교적 긴장 미국과의 관계: 한국과 미국 간의 외교적 긴장이 발생할 수 있습니다. 특히, 한국 정부가 이 결정에 대해 2개월 동안 인지하지 못했다는 점은 외교적 실패로 비판받고 있습니다. 협력 방해: 이 목록에 포함되면 한국과 미국 간의 에너지 및 과학기술 협력이 방해받을 수 있습니다. 내부 정치적 논란 정부의 대응: 한국 정부는 이 문제에 대해 미국과 협의를 통해 해결하려고 하고 있지만, 내부적으로는 정치적 논란이 발생하고 있습니다. 특히, 대통령의 탄핵과 관련된 정치적 불안정이 영향을 미쳤을 가능성이 제기되고 있습니다. 국제적 인식 국제적 신뢰도 저하: 한국이 민감국가 목록에 포함된 것은 국제적으로 한국의 신뢰도에 부정적인 영향을 미칠 수 있습니다. 이는 한국의 외교적 입지에 영향을 줄 수 있습니다. 전망 이 목록에 포함된 것은 한국과 미국 간의 협력에 잠재적인 장애물이 될 수 있지만, 현재로서는 새로운 제한이 추가되지 않았으며, 양국 간의 협력은 지속될 가능성이 높습니다. 한국 정부는 이 문제를 해결하기 위해 미국과 적극적으로 협의하고 있습니다. 질문2: 미국 에너지부가 한국을 민감국가로 지정한 이유는 뭐야? 공식 이유 외에도 주요 매체에서 파악하고 있는 원인들을 찾아 정리해줘. 퍼플렉시티 답변: 미국 에너지부가 한국을 '민감국가'로 지정한 공식적인 이유는 명확히 밝혀지지 않았습니다. 그러나 주요 매체와 전문가들은 여러 가지 가능성을 제기하고 있습니다. 공식적인 이유 국가 안보 및 핵 비확산: 미국 에너지부는 민감국가 지정이 국가 안보, 핵 비확산, 지역 불안정성, 경제적 안보 위협, 테러 지원 등의 이유로 이루어진다고 밝혔습니다. 주요 매체 및 전문가의 분석 핵무기 개발 논의 핵무기 논의의 증가: 한국 내에서 핵무기 개발에 대한 논의가 증가하고 있다는 점이 주요 원인으로 지목되고 있습니다. 일부 한국 정치인과 연구자들이 핵무기 개발을 주장하는 목소리가 커지고 있어 미국이 이를 경계하고 있다는 분석이 있습니다. 북한의 핵 위협: 북한의 핵무기 개발이 한국에 대한 위협으로 작용하고 있어, 한국 내에서 핵무기 개발에 대한 논의가 활발해지고 있습니다. 이는 미국의 비확산 우려를 불러일으켰을 수 있습니다. 정치적 불안정 윤석열 대통령의 발언: 윤석열 대통령의 북한에 대한 군사적 대응 발언이나 임시 계엄령 시행 등이 미국에 불안 요소로 작용했을 가능성이 있습니다. 정치적 혼란: 한국의 정치적 혼란이 미국과의 협력에 영향을 미쳤을 수 있습니다. 외교적 소통 실패 한국 정부의 인지 부족: 한국 정부가 이 결정에 대해 2개월간 인지하지 못한 점은 외교적 소통의 실패로 해석되고 있습니다. 이러한 요인들이 복합적으로 작용하여 한국이 민감국가로 지정된 것으로 보입니다. 그러나 공식적인 이유는 명확히 밝혀지지 않았습니다. ■ 기사는 퍼플렉시티를 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.03.17 14:37AI 에디터

코로나19는 정확, 경제는 취약?…5대 AI 모델 팩트체킹 능력 비교

LLM, 거짓 정보 탐지에는 강하지만 전반적 성능은 아직 미흡 생성형 AI를 기반으로 한 대형 언어 모델(LLM)이 정치 정보의 진위를 판별하는 팩트체킹 영역에서 어떤 역할을 할 수 있을지 관심이 커지고 있다. 최근 ChatGPT와 같은 대화형 AI의 등장으로 정보의 진위를 자동으로 판별하는 기술에 대한 기대가 높아지고 있는 가운데, 바이젠바움 연구소와 베른 대학 연구팀이 5개 주요 LLM의 팩트체킹 능력을 체계적으로 평가한 연구 결과를 발표했다. 연구팀은 ChatGPT-4, Llama 3(70B), Llama 3.1(405B), Claude 3.5 Sonnet, Google Gemini 등 5개 LLM을 대상으로 전문 팩트체커가 이미 검증한 1만 6,513개의 정치 정보 진술문에 대한 진위 판별 능력을 테스트했다. 주제 모델링과 회귀 분석을 통해 진술문의 주제나 모델 유형이 판별 정확도에 어떤 영향을 미치는지 체계적으로 분석했다. 정확도는 챗GPT와 제미나이가 앞서… 거짓 정보 탐지 정확도 최대 80% 연구 결과에 따르면 ChatGPT-4와 Google Gemini가 다른 모델보다 전반적으로 높은 정확도를 보였다. 특히 모든 모델이 참인 정보보다 거짓 정보를 탐지하는 데 더 강점을 보였는데, 특히 코로나19, 미국 정치 논쟁, 사회 이슈와 같은 민감한 주제에서 더 높은 정확도를 나타냈다. 이는 모든 LLM이 공중 보건이나 정치인과 관련된 민감한 주제에 대해 가드레일(안전장치)을 설정했을 가능성을 시사한다. 이런 주제에 대한 높은 정확도는 훈련 데이터에 관련 거짓 정보가 더 많이 포함되었을 가능성도 있지만, GPT 모델이 건강 관련 주제에서 높은 정확도를 보인다는 이전 연구와도 일치하는 결과다. 코로나19는 133% 더 정확하게, 경제 주제는 70% 더 부정확하게 판별 모든 LLM은 전반적으로 '혼합(MIXTURE)' 범주의 진술문보다 '거짓(FALSE)' 범주의 진술문을 더 정확하게 식별했다. 특히 진위 여부가 명확한 극단적 사례보다 부분적 사실과 부분적 거짓이 혼합된 복잡한 진술을 평가하는 데 어려움을 겪었다. 흥미롭게도 연구진은 LLM 간 성능 차이가 상당하다는 점을 발견했다. 예를 들어 Llama 모델은 진술문이 '참'인지 '거짓'인지 혹은 '혼합'인지에 관계없이 '참'으로 판정하는 경향이 있었다. 이는 모델들의 기반이 되는 훈련 데이터가 성능에 깊은 영향을 미친다는 점을 보여준다. 또한 미국 재정 문제나 경제 관련 주제에서는 모든 LLM이 거짓 정보를 식별하는 정확도가 낮았다. 이는 특정 주제에 대한 훈련 데이터의 부족이나 주제별 가드레일의 차이에서 기인했을 가능성이 있다. 더 큰 모델이 팩트체킹도 더 정확하게 수행 연구팀은 LLM의 팩트체킹 성능이 모델의 아키텍처 및 파라미터 규모와 직접적인 관련이 있다고 지적했다. Llama 3.1(405B)이 Llama 3(70B)보다 모든 카테고리에서 더 나은 성능을 보인 것이 이를 증명한다. 이는 더 많은 파라미터로 훈련된 모델이 복잡한 팩트체킹 작업에서 더 좋은 성능을 발휘한다는 것을 의미한다. 연구진은 LLM의 팩트체킹 능력 향상을 위해 목표화된 사전 훈련과 미세 조정이 필요하다고 제안했다. 특히 코로나19와 미국 정치 관련 주제에서 모든 LLM이 높은 정확도를 보인 점에 주목하며, 가드레일 설정이 출력의 정확성을 보장하는 유망한 전략이 될 수 있다고 밝혔다. 하지만 이러한 가드레일은 변화하는 사회정치적 맥락에 맞춰 지속적인 조정이 필요하다는 도전과제도 함께 존재한다. 연구팀은 또한 ClaimsKG 데이터셋이 미국 중심적이라는 점을 한계로 지적하며, 다른 사회정치적 맥락이나 언어에서는 LLM 성능이 다를 수 있다고 경고했다. FAQ Q: 생성형 AI가 팩트체킹을 완전히 자동화할 수 있을까요? A: 현재로서는 어렵습니다. 이번 연구에서 보듯 대형 언어 모델(LLM)은 특히 거짓 정보 탐지에 강점을 보이지만, 전반적인 정확도는 여전히 제한적입니다. LLM은 팩트체킹을 보조하는 도구로 활용하되, 전문가의 검증이 여전히 필요합니다. Q: 왜 AI는 참인 정보보다 거짓 정보를 더 잘 탐지하나요? A: 연구에 따르면 이는 훈련 데이터의 특성과 관련이 있을 수 있습니다. 예를 들어 ChatGPT-4는 팩트체크된 거짓 정보가 더 많이 포함된 데이터로 훈련되었을 가능성이 있고, 특히 코로나19나 정치 논쟁과 같은 민감한 주제에 대해서는 가드레일(안전장치)이 설정되어 있을 수 있습니다. Q: 어떤 주제에서 AI 팩트체킹이 가장 정확한가요? A: 이번 연구에서는 코로나19, 미국 정치 논쟁, 사회 이슈와 같은 민감한 주제에서 AI가 더 정확한 팩트체킹을 수행했습니다. 반면 미국 경제나 재정 정책 관련 주제에서는 정확도가 낮았습니다. 이는 특정 주제에 대한 데이터 부족이나 가드레일 설정의 차이에서 비롯될 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 11:37AI 에디터

티쓰리큐 "AI·데이터 전쟁서 승리하려면 항공모함 같은 'EDPP' 필요"

"데이터전쟁에서 승리하려면 생성AI 혼자만 있어서는 안됩니다. 실제 현장에서는 텍스트, 이미지, 음성, IoT 센서, 영상 등 다양한 소스에서 무수히 많은 데이터가 쏟아집니다. 이 데이터를 제대로 수집, 정제, 분석하고 그 결과를 활용해 전략적 의사결정을 내리려면 단일 AI모델보다 종합적이고 유연한 데이터 플랫폼이 있어야 합니다. 마치 전쟁에서 아무리 최강의 전투기가 있어도 그것만으로는 승리를 보장할 수 없듯이, 데이터 전쟁에서도 강력한 단일 AI 모델만으로는 한계가 명확합니다." 인공지능(AI) 빅데이터 미들웨어 전문 티쓰리큐(T3Q)의 박병훈 대표는 자사가 제공하는 EDPP(Enterprise Data Processing Platform)가 데이터 전쟁에서 승리를 보장하는 항공모함이라며 이 같이 밝혔다. 박 대표는 자사가 개발한 EDPP에 대해 "데이터 기반 비즈니스 혁신 체계인 AX 및 DX 플랫폼"이라면서 "지난 18년간 혁신을 통해 DX와 AX 시장을 선도했다. 미국 팔란티어(Palantir)의 2022년 궤적과 같이 안보영역에서 민간기업으로 전환하고 있으며, 궁극적으로 확장서과 경제성을 갖춘 K-팔란티어가 되고 싶다"는 포부를 밝혔다. 회사 이름 'T3Q'는 소프트웨어 개발 시간(Time)을 1/3로 줄이고, 품질(Quality)은 3배로 높이자는 박 대표의 철학을 담고 있다. 최근 티쓰리큐는 'EDPP'를 통해 딥시크와 챗GPT 등 대형언어모델(LLM)의 성능을 비교,분석한 후 그 결과를 밝혀 화제를 모은 바 있다. 이에 따르면 최근 화제를 모은 중국 AI 딥시크는 '신속한 작업'보다 '정확한 의사결정'에 강한 것으로 나타났다. 앞서 이달초에는 티쓰리큐의 LLM 튜닝 모델이 허깅페이스 소형 LLM 리더보드에서 1위를 차지하기도 했다. 박 대표는 세계가 생성형 AI의 눈부신 발전 속에 놓여 있고, 또 미국과 중국을 중심으로 다양한 AI모델이 잇달아 출시되면서 언어 처리부터 이미지·음성 인식, 복잡한 데이터 분석에 이르기까지 AI 활용 범위가 기하급수적으로 확대하고 있다면서 대표적으로 챗GPT-o3, 딥시크(Deepseek) R1, 그록(Grok) 3 등의 사례가 주목받고 있고 짚으며 "그만큼 국내의 AI 경쟁력은 위기의식이 커지고 있다"고 밝혔다. 특히 그는 "뛰어난 전투기만으로는 승리를 장담할 수 없다"면서 데이터 플랫폼의 중요성을 역설했다. 전쟁사에서 뛰어난 단일 무기체계(예 전투기, 탱크, 미사일)가 결정적 역할을 하기도 하지만, 결국 전쟁의 승패는 종합적인 전력 운용 능력과 인프라에 달려 있다는 것이다. "항공모함을 예로 들면 탑재기(전투기·헬기 등), 함재 미사일, 이지스 시스템, 잠수함 지원 등이 유기적으로 결합해야만 해상과 공중을 동시에 제압할 수 있다.AI 분야 역시 비슷하다"고 말했다. 이어 챗GPT-o3, 딥시크 R1, 그록3 같은 최신 생성AI 모델은 확실히 강력하지만 조직·기업이 직면한 실제 현장은 텍스트 분석만을 요구하지 않다면서 "이미지 분석, 음성 인식, 데이터베이스 질의, 실시간 스트리밍 데이터 처리 등 '멀티모달 복합 분석'을 수행해야 할 과제가 훨씬 많다. 따라서 단 하나의 AI 모델이 아니라 여러 가지 AI 모델 및 분석 엔진을 상호 연동하고 결합할 수 있는 '통합 플랫폼'이 필요하다" 해석했다. 이런 환경을 반영, 티쓰리큐는 EDPP(Enterprise Data Processing Platform)라는 통합 데이터 플랫폼을 개발, 시장에 공급하고 있다. EDPP를 항공모함에 비유한 박 대표는 "우리 EDPP(Enterprise Data Processing Platform)는 이름 그대로 기업 내외부에서 발생하는 방대한 데이터를 수집·저장·분석하고, AI 모델을 활용한 결과를 다시 의사결정에 연결해 주는 '데이터 생태계 전체'를 아우르는 플랫폼"이라면서 "이는 항공모함이 다양한 무기체계를 융합·운용하는 것과 흡사하다"고 설명했다. 박 대표는 'EDPP'의 장점으로 네 가지를 꼽았다. 첫째, 다양한 AI 모델 탑재 및 유기적 연동이다. 실제 EDPP는 OCR, STT, 객체 인식, 이미지 인식, 자연어 처리, 대규모 언어 모델(LLM) 등 각기 다른 AI 모델을 동시에 탑재하고 활용할 수 있게 해준다. 이를 통해 기업이 보유한 여러 형태(정형, 이미지, 소리, 영상, 위성, 각종 문서 등)의 데이터를 단일 플랫폼에서 처리·분석하고, 필요에 따라 분석 결과를 즉시 결합 및 활용할 수 있다. 둘째, 멀티모달 복합 분석 지원이다. 박 대표는 "텍스트 중심의 생성형 AI만으로는 해결하기 어려운 문제들이 많다. EDPP는 텍스트, 이미지, 음성, IoT 센서 데이터 등 다양한 형태의 정보를 통합 분석한다. 예컨대 제조 현장에서 생산 공정 분석과 품질 데이터를 결합하거나, 금융 분야에서 고객 음성 응대 기록과 온라인 트랜잭션 정보를 연계하는 등 복합적인 인사이트를 제공한다"고 들려줬다. 셋째, 확장 가능하고 유연한 아키텍처다. 항공모함은 해상 기동이라는 특성이 있어 어디로든 전력을 투사할 수 있다. 'EDPP' 역시 물리적·논리적 확장이 쉽도록 설계, 기존에 도입된 시스템 및 신규 분석 도구와 연동이 빠르고 안전하게 이뤄진다는 것이다. 박 대표는 "새로운 AI 모델이나 분석 알고리즘이 필요해도 플랫폼에 손쉽게 추가할 수 있다. 빠르게 변화하는 기술 환경에 유연하게 대응한다"고 설명했다. 넷째, 데이터 기반 의사결정 가속화다. "결국 전쟁에서 승리를 좌우하는 핵심은 정확하고 신속한 의사결정이다. EDPP는 데이터 수집부터 분석, 모델 적용, 결과 시각화까지 전 과정을 빠르게 일원화해 의사결정권자에게 실시간·고품질 정보를 제공한다. 이는 항공모함이 방대한 정보를 통제실에서 실시간으로 받아 전술을 조정하는 모습과 유사하다"고 말했다. 데이터 전쟁 시대를 맞아 대한민국이 선택해야 할 건 데이터전쟁에 최적화한 통합 플랫폼이라고 강조한 그는 "세계 트렌드가 생성AI 모델을 주목하고 있지만, 이것이 곧 '단일 모델 만능주의'를 뜻하지는 않는다. 한국이 미국·중국과의 경쟁에서 경쟁 우위를 확보하려면 단순히 대형 모델을 뒤쫓는 데 그치지 말고 데이터 전쟁에 최적화한 통합 플랫폼을 구축하는 전략이 필요하다"고 밝혔다. 각 분야별 액션플랜도 제시했다. 정치·행정 분야는 행정정보와 대민 데이터를 통합해 정책 기획부터 실행, 평가까지 전 과정을 효율적으로 운영할 수 있고, 경제·금융 분야는 대규모 거래 데이터와 고객 행태 분석, AI 예측 모델 등을 결합해 금융 리스크 관리, 투자 전략 수립 등이 가능하다는 것이다. 또 산업과 엔지니어링 분야는 제조·물류 현장에서 발생하는 다양한 센서 데이터와 이미지·영상 정보를 통합 분석함으로써 설비 예지 정비, 스마트 팩토리 구현 등의 첨단 경쟁력을 확보할 수 있다. "이 모든 과정에서 EDPP가 제공하는 통합적이고 유연한 '항공모함 전략'이 큰 도움이 될 것"이라면서 "데이터가 있는 모든 현장이 곧 전장이고, AI 모델이 무기로 역할을 하는 시대가 열렸다. 전쟁에서 뛰어난 단일 무기체계만으로 승리하기 어렵듯이, 데이터 전쟁에서도 단일 AI 모델만으로는 해결할 수 없는 수많은 문제가 존재한다. 기업과 기관은 이제 데이터를 수집·분석·활용하기 위한 전 주기적인 통합 플랫폼, 즉 항공모함과 같은 EDPP가 필요하다"고 역설했다. 박 대표는 항공모함 격의 자사 EDPP가 멀티모달 복합 분석을 비롯해 기존 시스템과의 융합, 나아가 새롭게 등장하는 AI 모델들을 유기적으로 묶어낸다면서 "한국이 데이터 전쟁에서 주도권을 잡는데 기여하고 싶다. 앞으로도 정치·경제·엔지니어 등 각계 전문가들은 생성형 AI와 함께 이를 뒷받침하는 EDPP 같은 '통합 플랫폼'의 중요성을 알고 이에 대한 투자를 확대해야 한다. 이 것이 대한민국이 데이터 주권과 산업 경쟁력에서 앞서 나가는 길이다"고 말했다.

2025.03.16 11:15방은주

AI 시대 수용: 태국 화웨이 클라우드, 새로운 클라우드 서비스 시리즈 출시로 기업의 AI 네이티브 전환 가속화

방콕, 태국 2025년 3월 15일 /PRNewswire/ -- 태국 화웨이 클라우드(Huawei Cloud Thailand)가 '인텔리전스로 새로운 시대를 연다: 태국의 디지털 물결을 재편하는 화웨이 클라우드(Intelligence Ignites a New Era: Huawei Cloud Reshaping Thailand's Digital Wave)'라는 제하의 기술 포럼을 르네상스 방콕 라차프라송 호텔(Renaissance Bangkok Ratchaprasong Hotel)에서 성공적으로 개최했다. 이 포럼에는 200명 이상의 비즈니스 리더와 기술 전문가가 모여 AI 시대의 데이터 가치를 탐구하고 우수한 AI 기능으로 태국의 디지털 전환을 지원하기 위해 설계된 혁신적인 클라우드 서비스 제품군을 공개했다. AI 전략: 산업을 강화하는 새로운 엔진AI가 4차 산업혁명을 주도하는 가운데, 태국 화웨이 클라우드의 셀린 카오(Celine Cao) 최고경영자(CEO)는 "AI는 높은 장벽을 가진 기술이 돼서는 안 된다"며 "오픈소스 협업과 혁신을 통해 모든 국가는 자체적으로 현지화된 지능형 생태계를 구축할 수 있다"고 말했다. Celine Cao, CEO of Huawei Cloud Thailand 쭐랄롱꼰 대학(Chulalongkorn University)의 징 탕(Jing Tang) 교수는 "기업은 고품질 데이터 자산으로 오픈소스 대규모 모델을 최적화해 비용 효율적인 지능형 혁신을 달성할 수 있다"며 "이러한 데이터의 구축은 성공적인 AI 구현에 중추적인 역할을 할 것"이라고 말했다. Prof. Jing Tang, D. Eng 태국을 위한 맞춤형 AI 옵션을 제공하는 화웨이 클라우드 화웨이 클라우드의 AI 클라우드 서비스는 다양하고 효율적이며 안정적인 컴퓨팅 성능을 제공해 기업과 개발자가 대규모 AI 애플리케이션을 신속하게 구축할 수 있도록 지원한다. 이 플랫폼은 주류 오픈소스 모델을 최적화할 뿐만 아니라 간소화된 개발을 위한 클라우드 기반 툴체인을 제공하여 원클릭 액세스와 즉각적인 사용성으로 복잡한 구성을 제거한다. 기술적 혁신: 화웨이 클라우드의 AI 클라우드 서비스로 구동되는 딥시크(DeepSeek) 현지화 솔루션은 배포 주기를 2주에서 2일로 단축하고 추론 비용을 40% 절감하며, 풀스케일 모델과 경량의 디스틸드(distilled) 모델을 모두 지원한다. 시나리오 중심 혁신: 화웨이 클라우드는 30개 이상의 산업별 모범 사례를 활용해 3가지 주요 솔루션을 출시했다. 지능형 인터랙션 허브: DeepSeek+Chatbot은 고객 서비스, 교육, 의료, 금융과 같은 산업 전반에서 높은 동시성을 가진 시나리오에 대해 정확한 의미 이해와 개인화된 상호작용을 제공한다. 개발 효율성 혁명: DeepSeek+CodeArts는 배포 효율성을 20배 높이고 코드 결함을 70% 줄이며 지능형 Q&A 및 코드 검사를 통해 자동화된 프로그래밍을 지원한다. 지식 관리 업그레이드: DeepSeek+KooSearch는 엔터프라이즈 데이터를 통합해 통합 지능형 지식 센터를 구축한다. 클라우드 서비스 포트폴리오: 디지털 전환을 위한 빌딩 블록이번 행사에서 제임스 탄 시지에(James Tan Shijie) 아태지역 클라우드 솔루션 영업 부사장은 기업의 클라우드 네이티브에서 AI 네이티브로의 전환을 가속하기 위한 일련의 클라우드 서비스를 발표했다. James Tan Shijie, Vice President of Solution Sales, Asia Pacific Cloud CloudDC 솔루션: 결정론적 운영, 클라우드 DC, 풀스택 AI를 통합한 데이터 센터용 원스톱 클라우드 마이그레이션 서비스다. 백업 및 재해복구 연속성 센터 솔루션: 5개의 계층(관리, 애플리케이션, 호스트, 스토리지, 클라우드 DC)에서 비즈니스 연속성을 보장하며, 수초 내 위험 감지, 신속한 복구, 통합 가시성을 특징으로 한다. 대규모 모델 보안 솔루션: 환경 보안, 데이터 컴플라이언스, 모델 추론 보안, 통합 보안 운영을 포괄하는 엔드투엔드 보안 솔루션이다. GaussDB 및 TaurusDB: GaussDB의 3계층 풀링 아키텍처는 탄력적인 리소스 확장을 지원하며, 이중 클러스터 재해복구 설계는 클러스터 간에 하드웨어/소프트웨어 장애를 격리한다. AI 기반 데브옵스(DevOps) 어시스턴트는 장애 진단 및 복구의 90%를 자동화한다. TaurusDB는 원활한 마이그레이션을 위해 MySQL 호환성을 제공하며, 고유한 쓰기 확장성을 통해 AI 기반 서버리스 기능을 선도한다. AI 클라우드 서비스: 최대 40일간 중단 없는 파운데이션 모델 학습을 지원하며, 10분 내 장애복구 및 DeepSeek, Llama 등 100개 이상의 글로벌 모델과의 호환성을 제공한다. 생태계 협업: 지속 가능한 데이터 기반 성장'최고경영진 빅데이터 라운드테이블(C-Level Big Data Roundtable)'에서 전문가들은 기업이 데이터 자산을 경쟁 우위로 전환하려면 지능형 데이터 거버넌스 시스템을 구축해야 한다는 데 의견을 모았다. 우 시웨이(Wu Shiwei) 화웨이 클라우드 아태지역 최고기술책임자(CTO)는 "개방형 아키텍처와 현지화된 지원을 통해 태국 기업들이 데이터 축적에서 가치 창출로 도약할 수 있도록 지원하고 있다"고 말했다. Wu Shiwei, CTO of Huawei Cloud Asia-Pacific 이번 포럼은 태국의 디지털 경제를 촉진하기 위해 '기술 민주화'와 '생태계 협력'을 결합한 화웨이 클라우드의 태국 내 전략적 업그레이드를 기념하는 자리다. 화웨이 클라우드는 이러한 솔루션의 출시를 통해 태국 전역의 지능형 혁신을 지속적으로 추진할 계획이다.

2025.03.15 17:10글로벌뉴스

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, 브로드컴과 HBM3E 12단 공급 추진…ASIC서 기회 포착

메타의 공격적 AI 인재 사냥, 핵심은 '데이터 전쟁'

입점하면 서로 이득…유통가, ‘올다무’ 유치 경쟁 치열

새정부 독자AI 구축 의지...통신사, 자체 AI 모델 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.