• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 에디터'통합검색 결과 입니다. (345건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[Q&AI] 불꽃야구 vs 최강야구 논란…왜 문제가 됐나

질문: 불꽃야구 론칭이 화제인데, 왜 그런지 알려줘. 그록 답변: 불꽃야구의 론칭이 화제인 이유는 주로 JTBC의 인기 야구 예능 프로그램 '최강야구'와의 분쟁 및 제작사와 방송사 간의 갈등에서 비롯됩니다. 아래에 주요 이유를 정리해 설명하겠습니다. 1. '최강야구'와의 분쟁 및 프로그램 분열 불꽃야구는 '최강야구'를 제작했던 스튜디오C1의 장시원 PD가 새롭게 론칭한 야구 예능 프로그램입니다. 하지만 JTBC와 스튜디오C1 간의 제작비 정산, 저작권 소유권, 상표권 등을 둘러싼 갈등으로 인해 '최강야구'의 새 시즌 제작이 중단된 상황에서, 장시원 PD가 기존 출연진(김성근 감독, 박용택, 정근우, 이대호 등)과 함께 새로운 이름인 '불꽃야구'로 프로그램을 강행하며 논란이 발생했습니다. JTBC는 '최강야구'의 지식재산권(IP)을 자사가 보유하고 있다고 주장하며, '불꽃야구'가 기존 프로그램의 포맷과 서사를 그대로 이어가는 점에서 저작권 침해가 우려된다고 반발했습니다. 이에 따라 JTBC는 스튜디오C1을 상대로 저작권 침해 금지 소송을 제기하고, 추가로 가처분 신청 등 법적 대응을 예고했습니다. 이로 인해 '최강야구'팬들 사이에서 프로그램의 미래와 정체성에 대한 혼란이 커졌고, '불꽃야구'가 사실상 '최강야구'의 연장선인지, 완전히 새로운 프로그램인지에 대한 논쟁이 화제를 모았습니다. 2. 기존 출연진과 포맷의 유사성 '불꽃야구'는 '최강야구'의 핵심 출연진(김성근 감독, 코치진, 선수들)과 제작진이 대부분 그대로 참여하며, 팀명만 '최강 몬스터즈'에서 '불꽃 파이터즈'로 변경되었습니다. 프로그램의 포맷 역시 은퇴한 전직 프로야구 선수들이 고등학교 야구부 등과 경기를 펼치는 구조로, '최강야구'와 유사하다는 점에서 관심과 논란을 불러일으켰습니다. 이는 JTBC가 저작권 침해로 문제 삼는 주요 쟁점 중 하나입니다. 팬들은 익숙한 출연진과 포맷을 유지한 점에서 호기심을 가지면서도, 법적 분쟁으로 인해 프로그램의 안정적인 방영 여부에 대한 우려를 표출하고 있습니다. 3. 프로야구 인기와 예능 시장의 경쟁 최근 한국 프로야구(KBO)의 인기가 폭발적으로 증가하며 야구 관련 콘텐츠에 대한 대중의 관심이 높아진 상황입니다. '최강야구'는 이러한 야구 열풍 속에서 큰 사랑을 받은 프로그램이었기 때문에, '불꽃야구'의 론칭은 야구 팬들과 예능 시청자들의 이목을 끌었습니다. 또한, 비슷한 사례로 TV조선의 '미스터 트롯'제작진이 독립해 MBN에서 '불타는 트롯맨'을 론칭하며 경쟁 구도를 형성한 경우가 언급되며, ' 불꽃야구'역시 기존 방송사와의 갈등 속에서 새로운 플랫폼으로의 이동 가능성이 화제를 낳고 있습니다. 4. 방송 플랫폼 미공개와 법적 불확실성 '불꽃야구'는 2025년 4월 14~15일 서울 고척스카이돔에서 경북고등학교 야구부와의 경기를 통해 첫 촬영을 시작했지만, 아직 방송 플랫폼이 공개되지 않았습니다. JTBC의 강한 법적 대응 예고로 인해 '불꽃야구'가 정상적으로 방영될 수 있을지에 대한 불확실성이 커졌고, 이로 인해 업계와 팬들 사이에서 프로그램의 향방에 대한 관심이 집중되고 있습니다. 5. 팬들의 반응과 사회적 관심 '최강야구'는 독특한 포맷과 출연진의 케미로 큰 인기를 끌었던 만큼, '불꽃야구'의 론칭 소식은 팬들 사이에서 기대와 우려를 동시에 낳았습니다. 일부 팬들은 새로운 이름으로라도 프로그램이 이어지는 것에 긍정적인 반응을 보였지만, 다른 이들은 법적 분쟁과 프로그램 정체성에 대한 혼란으로 부정적인 의견을 표출했습니다. 소셜 미디어와 커뮤니티에서는 '불꽃야구'와 관련된 논의가 활발히 이루어지며, 특히 제작사와 방송사의 갈등이 공개적으로 드러난 점이 화제를 증폭시켰습니다. 결론 불꽃야구의 론칭이 화제인 이유는 '최강야구'와의 법적·창작적 갈등, 기존 출연진과 포맷의 유사성, 프로야구 인기와 맞물린 대중적 관심, 그리고 방송 플랫폼 및 법적 불확실성 등이 복합적으로 작용했기 때문입니다. 이 상황은 단순한 프로그램 론칭을 넘어, 방송 제작 환경과 지식재산권 문제에 대한 논의를 불러일으키며 업계와 시청자들의 주목을 받고 있습니다. 추가로 궁금한 점이 있다면 말씀해주세요! 예를 들어, 특정 출연진이나 법적 분쟁의 세부 사항, 팬 반응 등을 더 깊이 알아보고 싶으신지 알려주시면 그에 맞춰 답변드릴게요. ■ 해당 기사는 그록을 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.04.18 21:03AI 에디터

챗GPT, 사진 '위치 추적' 능력 탁월…'사생활 침해' 어쩌나

오픈AI(OpenAI)의 새로운 AI 모델이 사용자가 업로드한 사진의 위치를 정확하게 식별하는 기능으로 논란이 일고 있다. 프라이버시 침해 우려가 제기되는 가운데 이 기능의 잠재적 위험성이 주목받고 있다. 테크크런치(TechCrunch)가 17일(현지 시간) 보도한 내용에 따르면, 오픈AI는 최근 이미지를 '추론'할 수 있는 새로운 AI 모델 o3와 o4-mini를 출시했다. 이 모델들은 업로드된 이미지를 잘라내고, 회전하고, 확대하는 등의 방식으로 철저하게 분석할 수 있다. 심지어 흐릿하거나 왜곡된 사진도 처리 가능하다. 이러한 이미지 분석 기능이 웹 검색 능력과 결합되면서 강력한 위치 추적 도구로 활용되고 있다. X 사용자들은 특히 o3 모델이 미묘한 시각적 단서를 통해 도시, 랜드마크, 심지어 레스토랑과 바까지 추론하는 데 매우 뛰어나다는 것을 발견했다. 이 모델들은 대부분의 경우 과거 챗GPT(ChatGPT) 대화의 '기억'이나 사진에 첨부된 메타데이터인 EXIF 데이터에 의존하지 않고 위치를 추론하는 것으로 보인다. X에는 사용자들이 챗GPT에 레스토랑 메뉴, 동네 사진, 건물 외관, 자화상 등을 제공하고 o3에게 'GeoGuessr'(구글 스트리트 뷰 이미지로부터 위치를 추측하는 온라인 게임)를 하는 것처럼 지시하는 예시가 넘쳐나고 있다. 한 X 사용자는 "챗GPT o3의 재미있는 기능이다. 지오게서!" 라고 글을 올렸으며, 다른 사용자는 "o3는 놀랍다. 친구에게 무작위 사진을 달라고 했고, 그들이 도서관에서 찍은 무작위 사진을 주었다. o3는 20초 만에 정확한 위치를 알아냈다"고 언급했다. 이는 명백한 잠재적 프라이버시 문제다. 악의적인 사용자가 예를 들어 특정인의 인스타그램 스토리를 스크린샷으로 저장해 챗GPT를 사용해 해당 인물의 위치를 특정하는 것을 막을 방법이 없다. 물론 이런 일은 o3와 o4-mini 출시 이전에도 가능했다. 테크크런치는 여러 사진을 o3와 이미지 추론 기능이 없는 이전 모델인 GPT-4o에 입력해 모델들의 위치 추측 능력을 비교했다. 놀랍게도 GPT-4o는 대부분의 경우 o3와 같은 정확한 답변에 도달했으며, 심지어 더 빠른 속도를 보였다. 테크크런치의 간단한 테스트 중 o3가 GPT-4o가 찾지 못한 장소를 찾아낸 경우가 적어도 한 번 있었다. 어두운 바에 있는 보라색 코뿔소 머리 장식 사진을 보여주었을 때, o3는 정확하게 윌리엄스버그(Williamsburg)의 스피크이지라고 답했고, GPT-4o는 영국 펍이라고 잘못 추측했다. 그렇다고 o3가 이런 면에서 완벽한 것은 아니다. 테크크런치의 여러 테스트에서 실패도 있었다. o3가 반복 루프에 빠져 합리적으로 확신할 수 있는 답변에 도달하지 못하거나 잘못된 위치를 제안하기도 했다. X의 사용자들도 o3의 위치 추론이 상당히 빗나갈 수 있다고 지적했다. 하지만 이러한 트렌드는 더욱 능력 있는 이른바 '추론' AI 모델이 제시하는 새로운 위험을 보여준다. 챗GPT에서 이런 종류의 '역방향 위치 조회'를 방지하기 위한 안전장치는 거의 없어 보이며, 오픈AI는 o3와 o4-mini에 대한 안전 보고서에서 이 문제를 다루지 않고 있다. 테크크런치는 오픈AI에 논평을 요청했지만 기사 작성 시점까지 답변을 받지 못했다. ■ 기사는 클로드와 챗gpt를 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.04.18 15:53AI 에디터

[Q&AI] AI가 예측한 UCL 우승팀? 바르셀로나, 29.2%로 1위

질문: 2024-25시즌 UCL 우승 확률 예측해줘. 챗GPT 답변: 아래 확률은 2025년 4월 11일 기준으로 VegasInsider에 공개된 미국식 배당률(American odds)을 내재 확률로 변환(100/(odds+100))하고, 북메이커의 과도한 수수료(오버라운드)를 제거하기 위해 모든 팀의 내재 확률 합(114.11%)으로 나눠 보정한 값입니다. 팀 배당률 (American odds) 내재 확률 (%) 보정 확률 (%) Barcelona +200 33.3 29.2 Paris Saint-Germain +225 30.8 27.0 Arsenal +333 23.1 20.3 Inter Milan +600 14.3 12.5 Bayern Munich +1400 6.7 5.9 Real Madrid +2000 4.8 4.2 Aston Villa +10000 1.0 0.9 Borussia Dortmund +50000 0.2 0.2 해석: 현재 베팅시장은 바르셀로나(≈29.2%), PSG(≈27.0%), 아스날(≈20.3%)을 1·2·3순위로 보고 있습니다. 인터밀란(≈12.5%)이 그 뒤를 따르고, 바이에른(≈5.9%)과 레알마드리드(≈4.2%)는 비교적 낮은 우위로 평가받습니다. 애스턴 빌라와 도르트문트의 우승 확률은 1%도 안 되는 수준입니다. 참고:배당률은 수시로 변동되므로, 위 확률 또한 시장 상황에 따라 달라질 수 있습니다. 계속 업데이트되는 최신 오즈를 확인하면 보다 정확한 예측이 가능합니다. ■ 해당 기사는 챗GPT를 활용하여 작성되었습니다.

2025.04.17 22:33AI 에디터

당신도 속았을 수 있다… AI로 만든 러시아 가짜뉴스 '그럴 듯하네'

러시아 연계 선전 사이트, AI 도입 후 허위정보 생산 2.4배 증가 생성형 AI 기술이 국가 지원 선전 캠페인에 미치는 영향에 대한 우려가 커지고 있는 가운데, 클렘슨 대학교와 취리히 대학교 연구팀은 실제 러시아 연계 선전 사이트를 분석해 AI가 허위정보 확산에 미치는 실질적 영향을 확인했다. 연구진은 해당 선전 사이트가 생성형 AI 기술을 도입한 전후를 비교해 AI가 어떻게 허위정보 생산을 증가시키고 내용의 범위를 확장했는지 분석했다. PNAS Nexus에 발표된 이 연구에 따르면, 2023년 9월 러시아와 연계된 가짜 뉴스 사이트 'DC Weekly'가 생성형 AI 기술을 도입한 후 허위정보 생산량이 2.4배 증가했으며, 주제의 다양성 역시 크게 확대된 것으로 나타났다. 특히 연구진은 해당 사이트가 AI를 도입하기 전후에 게시된 기사들에 대한 인식을 비교하는 설문 실험을 통해 AI 지원 기사들이 설득력과 신뢰도를 유지했음을 발견했다. AI 도구 도입으로 선전 사이트의 일일 기사 생산량 급증: 복사-붙여넣기에서 고유 콘텐츠로 전환 연구진은 가짜 뉴스 사이트 'DC Weekly'가 2023년 9월 20일부터 OpenAI의 GPT-3 언어 모델을 사용하기 시작한 점에 주목했다. AI 도입 이전에는 게이트웨이 펀딧(The Gateway Pundit)과 러시아 투데이(RT) 같은 소스에서 기사를 복사-붙여넣기 형태로 간단히 게시했지만, AI 도입 후에는 고유한 언어로 재작성된 기사를 게시하기 시작했다. 분석 결과 AI 도입 이후 일일 기사 생산량이 이전 대비 2.4배 증가한 것으로 나타났다. 이는 AI 기술이 선전 제작의 시간과 비용 제약을 크게 줄여준다는 것을 보여준다. 특히 해당 사이트는 기사 생산뿐만 아니라 어떤 기사를 게시할지 선택하는 과정에서도 AI를 활용한 것으로 확인됐다. 주제 다양성 두 배 확대: AI 도입 후 국제 뉴스, 총기, 범죄 관련 기사 급증 'DC Weekly'는 AI 도입 이후 다루는 주제의 다양성이 크게 증가했다. 연구팀은 잠재 디리클레 할당(LDA) 모델을 사용해 기사의 주제 다양성을 측정했는데, AI 도입 후 평균 엔트로피 값이 0.29에서 0.45로 약 두 배 가까이 증가했다. 이는 AI 도입이 주제의 다양성을 크게 향상시켰음을 의미한다. 특히 AI 도입 이후 국제 뉴스, 총기, 범죄 관련 기사가 크게 증가한 반면, 미국 국내 뉴스는 감소했다. 연구진은 이스라엘과 우크라이나 관련 보도를 통제한 후에도 총기와 범죄 관련 내용이 유의미하게 증가한 점을 발견했다. 이는 AI가 선전 사이트 운영자에게 더 넓은 범위의 주제를 다룰 수 있는 능력을 제공했음을 시사한다. 설득력 유지: AI 생성 기사의 독자 설득력(0.65)과 웹사이트 신뢰도(0.45) 이전과 동일 수준 유지 연구팀은 AI 도입 전후 각각 10개의 우크라이나 관련 기사를 선정해 설문 실험을 진행했다. 미국 성인 880명을 대상으로 한 이 실험에서, 응답자들은 AI 도입 전후 기사의 신뢰성과 설득력에 유의미한 차이를 느끼지 못했다. 특히 기사의 주요 주장에 대한 동의 수준이 AI 도입 이전 기사(0.68)와 도입 이후 기사(0.65) 간에 통계적으로 유의미한 차이가 없었다. 웹사이트의 신뢰도 평가 역시 AI 도입 전(0.44)과 후(0.45)가 거의 동일했다. 이는 AI가 선전 내용의 품질을 유지하면서 양적 생산을 크게 증가시킬 수 있음을 보여준다. 선전 사이트 'DC Weekly'의 거짓 스토리, 미국 의회 의원들까지 공유하며 확산 이 연구는 생성형 AI가 국가 지원 선전 캠페인에 미치는 실질적 영향을 처음으로 현장 데이터를 통해 분석했다는 점에서 중요하다. 연구진은 AI 기술이 허위정보 캠페인의 규모와 범위를 확장시키는 동시에 내용의 설득력을 유지함으로써 선전의 효과를 강화할 수 있음을 확인했다. 'DC Weekly' 사례는 BBC와 클렘슨 대학교 미디어 포렌식 허브에 의해 2023년 12월 러시아 연계 영향력 작전의 일부로 밝혀졌다. 이 사이트는 주로 친러시아적, 반우크라이나적 내러티브를 확산시키는 역할을 했으며, 우크라이나 대통령 젤렌스키가 고급 요트를 구매했다는 완전히 거짓된 이야기가 미국 의회 의원들을 포함해 수만 명에 의해 공유되기도 했다. 연구진은 AI 기술의 발전으로 향후 이러한 허위정보 캠페인을 추적하고 대응하기 더 어려워질 것이라고 경고한다. AI 도구가 선전 캠페인의 재정적, 시간적 자원 요구를 계속 감소시킬 것이기 때문이다. 따라서 연구자들은 생성형 AI를 이용한 허위정보 캠페인을 예방하고 대응하는 방법을 개발하는 연구와 일반 대중이 AI 강화 허위정보를 식별하고 피할 수 있도록 준비시키는 방안이 시급하다고 강조했다. FAQ Q: 생성형 AI가 선전 캠페인에 어떤 영향을 미쳤나요? A: 연구에 따르면 생성형 AI의 도입으로 선전 사이트의 일일 기사 생산량이 2.4배 증가했고, 다루는 주제의 다양성이 약 두 배로 확대됐습니다. 또한 AI로 생성된 기사들이 설득력과 신뢰도를 유지했다는 점도 확인됐습니다. Q: 러시아 연계 가짜 뉴스 사이트는 AI를 어떻게 활용했나요? A: 'DC Weekly'는 OpenAI의 GPT-3 언어 모델을 사용해 기존 뉴스 기사를 재작성했으며, 어떤 기사를 게시할지 선택하는 과정에서도 AI 점수 평가 시스템을 활용했습니다. 이를 통해 친러시아적, 반우크라이나적 관점을 담은 기사를 효율적으로 생산했습니다. Q: 생성형 AI를 이용한 허위정보에 어떻게 대응해야 할까요? A: 연구진은 오픈소스 모델이 허위정보 캠페인에 사용되는 것을 방지하는 방법을 개발하고, 온라인 불화를 조장하는 기존 시도에 대응하는 전략을 마련해야 한다고 제안합니다. 또한 일반 대중이 AI로 강화된 허위정보를 식별하고 피할 수 있도록 교육하는 것이 중요합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.17 22:32AI 에디터

[Q&AI] 골든 스테이트 vs 멤피스, 스테픈 커리 활약은

질문: 골든 스테이트 대 멤피스와 관련된 내용 정리해줘. 그록 답변: 골든 스테이트 대 멤피스와 관련된 내용 정리해줘. 1. 최근 경기 결과 (2025년 4월 15일, NBA 서부 플레이-인 토너먼트) 경기: 골든 스테이트 워리어스 vs 멤피스 그리즐리스 결과: 골든 스테이트 121 - 116 멤피스 (골든 스테이트 승리) 주요 내용: 경기 막판, 스테픈 커리(Stephen Curry)의 오프-더-글래스 슛으로 골든 스테이트가 3점 리드를 확보했습니다. 멤피스는 마지막 5초 남은 상황에서 작전 타임 후 공격을 시작했으나, 5초 바이올레이션으로 공격권을 잃으며 패배했습니다. 이 승리로 골든 스테이트는 서부 7번 시드를 확보하며 플레이오프 진출에 한 발짝 다가섰습니다. 커리의 활약: 커리는 이전 멤피스전(4월 1일)에서 52득점, 10리바운드, 8어시스트, 5스틸, 3점슛 12개를 기록한 바 있으며, 이번 경기에서도 결정적인 역할을 했습니다. 2. 양 팀의 최근 5경기 성적 및 통계 멤피스 그리즐리스: 최근 5경기: 4승 1패 평균 득점: 115.6점 상대 팀 평균 득점: 119.8점 스프레드(ATS) 승률: 20.0% 총 득점 초과율: 60.0% 골든 스테이트 워리어스: 최근 5경기: 4승 1패 평균 득점: 110.6점 상대 팀 평균 득점: 103.8점 스프레드(ATS) 승률: 40.0% 총 득점 초과율: 20.0% 분석: 멤피스는 공격력이 강하며 경기당 평균 116.0점을 기록하지만, 수비에서 상대에게 더 많은 점수를 허용합니다(118.8점). 골든 스테이트는 수비가 상대적으로 안정적이며(평균 허용 115.5점), 커리를 중심으로 한 외곽슛과 빠른 공수 전환이 강점입니다. 3. 상호 전적 (H2H) 역사적 전적: 2004년 이후 총 87경기에서 골든 스테이트가 44승, 멤피스가 43승으로 팽팽합니다. 평균 득점: 골든 스테이트 106.5점, 멤피스 105.8점 최근 상호 전적 스프레드(ATS) 승률: 83.3%, 총 득점 초과율: 50.0% 2024-25 시즌: 정규 시즌 시리즈: 1-2로 나뉘었습니다(구체적인 경기별 결과는 미확인). 2024년 12월 20일 경기: 골든 스테이트 홈에서 진행, 결과 미확인. 2025년 1월 5일 경기: 멤피스 승리 예측(자 모란트 부상 복귀 전). 골든 스테이트는 커리의 기복 있는 활약으로 최근 10경기에서 3승에 그쳤습니다. 4. 주요 선수 및 경기 스타일 멤피스 그리즐리스: 핵심 선수: 자 모란트(Ja Morant, PG), 자렌 잭슨 주니어(Jaren Jackson Jr., PF), 데스몬드 베인(Desmond Bane, SG) 스타일: 빠른 공수 전환과 모란트의 돌파를 중심으로 한 공격. 잭슨 주니어의 블록슛과 수비력이 강점이나, 모란트의 부상 여부가 경기력에 큰 영향을 미칩니다. 최근 활약: 모란트는 4월 2일 마이애미 히트전에서 30득점을 기록하며 팀을 110-108 승리로 이끌었습니다. 잭슨 주니어는 워싱턴 위저즈전에서 21득점을 올렸습니다. 골든 스테이트 워리어스: 핵심 선수: 스테픈 커리(PG), 클레이 탐슨(SG), 드레이먼드 그린(PF), 앤드류 위긴스(SF) 스타일: 커리와 탐슨의 3점슛을 기반으로 한 외곽 공격과 그린의 수비 리더십. 팀 케미가 강하지만, 주전 센터 부재가 약점으로 지적됩니다. 최근 활약: 커리는 1월 3일 필라델피아전에서 30득점, 6리바운드, 10어시스트, 3점슛 8개를 기록하며 139-105 대승을 이끌었습니다. 미네소타전에서도 30득점으로 114-106 승리를 견인했습니다. 5. 과거 주요 경기 (플레이오프 중심) 2022년 플레이오프 2라운드: 3차전 (2022년 5월 10일): 골든 스테이트가 홈에서 142-112로 승리. 커리(30득점), 탐슨(21득점), 조던 풀(27득점)의 3점슛이 폭발하며 시리즈 2승 1패를 기록. 멤피스는 모란트(34득점)와 잭슨 주니어(15득점)가 분전했으나 수비 붕괴로 패배. 4차전 (2022년 5월 10일): 골든 스테이트가 101-98로 승리. 커리(32득점), 위긴스(17득점)가 활약. 멤피스는 모란트 부상 결장으로 약세를 보였습니다. 분석: 골든 스테이트는 3점슛 성공률이 높을 때 압도적이었으나, 낮은 경기(18.4%)에서는 턴오버로 자멸하기도 했습니다. 멤피스는 모란트의 존재감이 승패를 좌우했습니다. 2022년 5월 2일 정규 시즌: 멤피스가 홈에서 123-95로 대승. 모란트 결장에도 베인, 멜튼, 브룩스가 고른 활약을 펼쳤습니다. 6. 팀 배경 및 특징 골든 스테이트 워리어스: 연고지: 캘리포니아주 샌프란시스코 (체이스 센터, 2019년부터 사용) 역사: 1946년 창단, NBA 최초 우승(1947년). 2015-16 시즌 73승 9패로 역사적 기록. 커리, 탐슨, 그린의 조합으로 2010년대 후반 다수 우승. 별명: '행복스테이트'(과거 팀 케미로 불림), 하지만 그린-듀란트 갈등으로 실제 라커룸 분위기는 복잡했음. 멤피스 그리즐리스: 연고지: 테네시주 멤피스 역사: 'Grit and Grind' 시대로 2010년대 강팀으로 부상. 현재 모란트를 중심으로 리빌딩 중. 특징: 부상 병동 시즌(2015-16)에도 투혼으로 플레이오프 진출. 모란트의 클러치 플레이가 강점. 7. 예상 및 전망 2025년 4월 16일 경기: 멤피스는 골든 스테이트와의 다음 경기(4월 16일 02:00 UTC+08:00)에서 재대결이 예정되어 있습니다. 라이브 스코어와 H2H 통계는 경기 중 실시간 업데이트됩니다. 승부 예측: 멤피스는 모란트의 복귀 여부와 원정 약세(최근 4번의 골든 스테이트 원정 전패)가 변수입니다. 골든 스테이트는 커리의 컨디션과 3점슛 성공률에 따라 결과가 갈립니다. 홈 경기 강세와 수비 안정성이 유리한 요소입니다. 베팅 라인: 골든 스테이트 평균 득점(117.5)은 멤피스 허용 득점(118.8)보다 낮아 접전이 예상됩니다. 멤피스는 77점 이상 기록 시 스프레드에서 38-15-1, 골든 스테이트는 116.0점 이하 허용 시 11-1로 강세. 8. 결론 골든 스테이트와 멤피스는 역사적으로 팽팽한 라이벌 관계를 유지해왔으며, 2025년 4월 15일 플레이-인 토너먼트에서 골든 스테이트가 121-116으로 승리하며 최근 우위를 점했습니다. 커리의 클러치 활약과 멤피스의 마지막 바이올레이션이 승패를 갈랐습니다. 다만, 멤피스는 모란트 중심의 공격력으로 언제든 재역전을 노릴 수 있는 팀입니다. 4월 16일 경기가 예정된 만큼, 양 팀의 컨디션과 전술 변화가 주목됩니다. ■ 해당 기사는 그록을 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.04.17 10:05AI 에디터

딥시크 돌풍 비결은…"더 큰 AI보다는 더 오래 생각하는 AI"

27배 더 작은 AI가 더 많이 '생각'하면 대형 모델을 이긴다: 추론 시간 확장성의 원리 대규모 언어 모델(LLM, Large Language Model)의 후속 훈련 과정에서 강화학습(RL, Reinforcement Learning)이 널리 사용되고 있다. 특히 딥시크(DeepSeek-AI)나 오픈AI(OpenAI) 같은 기업들은 대규모 언어 모델의 성능 향상을 위해 강화학습을 적극적으로 활용하고 있다. 이러한 강화학습의 핵심 구성 요소인 보상 모델링(Reward Modeling)은 언어 모델의 응답에 대한 정확한 보상 신호를 생성하는 역할을 한다. DeepSeek-AI와 칭화대학교의 공동 연구에 따르면, 추론 시간 동안 고품질의 보상 신호를 생성하는 것이 언어 모델의 성능을 크게 향상시킬 수 있다는 사실이 밝혀졌다. 그러나 현재 대부분의 고품질 보상 신호는 수학 문제나 코딩 작업과 같이 명확한 정답이 있는 한정된 도메인에서만 효과적으로 생성되고 있다. 일반적인 영역에서는 보상 생성이 더 복잡하고 다양한 기준이 필요하며, 명시적인 참조나 정답이 없는 경우가 많아 어려움이 따른다. 따라서 보다 일반적인 영역에서도 효과적인 보상 모델링 방법이 필요하다. 이번 연구에서는 일반화된 보상 모델링(Generalist Reward Modeling)을 위한 추론 시간 확장성(Inference-Time Scalability)을 개선하는 방법을 조사했다. 추론 시간 확장성이란 더 많은 추론 연산을 사용함으로써 보상 신호의 품질을 향상시키는 능력을 의미한다. 연구진들은 언어 표현만으로 단일, 쌍, 다중 응답의 평가를 통합할 수 있는 포인트와이즈 생성 보상 모델링(Pointwise Generative Reward Modeling) 접근법을 채택했다. "AI에게 원칙을 가르치자": 자기 원칙 비평 튜닝으로 90.4%의 정확도 달성 연구진은 보상 모델의 확장성을 개선하기 위해 '자기 원칙 비평 튜닝'(SPCT, Self-Principled Critique Tuning)이라는 새로운 학습 방법을 제안했다. SPCT는 온라인 강화학습을 통해 생성 보상 모델(GRM)에서 확장 가능한 보상 생성 행동을 촉진하여 원칙을 적응적으로 생성하고 비평을 정확하게 수행한다. SPCT는 두 단계로 구성된다. 첫 번째는 거부 미세 조정(Rejective Fine-Tuning) 단계로, 보상 모델이 다양한 입력 유형에 대해 올바른 형식의 원칙과 비평을 생성하도록 적응시킨다. 두 번째는 규칙 기반 온라인 강화학습 단계로, 보상 모델이 입력 쿼리와 응답에 따라 적응적으로 원칙과 비평을 생성하는 방법을 학습한다. 이러한 방법론을 통해 DeepSeek-GRM이라는 보상 모델을 개발했다. 추론 시간 확장성을 위해 병렬 샘플링을 사용하여 계산 사용량을 확장하고, 메타 보상 모델(Meta RM)을 도입하여 투표 과정을 안내함으로써 확장 성능을 향상시켰다. 병렬 샘플링의 마법: 8개 샘플만으로 최고 성능 구현 DeepSeek-GRM은 병렬 샘플링을 통해 다양한 원칙과 비평을 생성하고, 이를 바탕으로 최종 보상을 투표한다. 더 큰 규모의 샘플링을 통해 DeepSeek-GRM은 더 높은 다양성을 가진 원칙에 기반하여 더 정확한 판단을 내리고, 더 세밀한 보상을 출력할 수 있게 된다. 메타 보상 모델(Meta RM)은 투표 과정을 안내하기 위해 훈련된 포인트와이즈 스칼라 보상 모델이다. 이 모델은 DeepSeek-GRM이 생성한 원칙과 비평의 정확성을 확인하고, 이진 교차 엔트로피 손실(Binary Cross-Entropy Loss)로 훈련된다. 메타 보상 모델은 각 샘플의 메타 보상을 출력하고, 최종 결과는 상위 메타 보상을 가진 샘플들의 투표로 결정된다. 연구팀은 경험적 실험을 통해 SPCT가 생성 보상 모델(GRM)의 품질과 확장성을 크게 향상시키고, 다양한 보상 모델링 벤치마크에서 기존 방법과 모델을 능가하는 성능을 보여준다는 것을 확인했다. 이는 심각한 편향 없이 도메인 일반화 능력을 보여주는 것이다. 대형 모델보다 효과적인 대안: 32샘플 투표로 671B 모델과 동등한 성능 구현 연구진은 추가적으로 DeepSeek-GRM-27B의 추론 시간 및 훈련 시간 확장 성능을 조사했다. 다양한 크기의 언어 모델에 SPCT 훈련 일정을 적용한 결과, 추론 시간 확장이 훈련 시간에서의 모델 크기 확장보다 더 효과적일 수 있다는 것을 발견했다. 실험 결과에 따르면, DeepSeek-GRM-27B의 32개 샘플을 이용한 직접 투표는 671B 파라미터 크기의 모델과 비슷한 성능을 달성할 수 있었고, 메타 보상 모델이 안내하는 투표는 8개 샘플만으로도 최상의 결과를 달성했다. 이는 모델 크기를 확장하는 것보다 추론 시간을 확장하는 것이 DeepSeek-GRM-27B에서 더 효과적임을 보여준다. 더불어 연구팀은 DeepSeek-R1에 대한 테스트도 수행했는데, 그 성능이 236B 모델보다도 낮다는 것을 발견했다. 이는 추론 작업에 대한 긴 체인 오브 소트(Chain-of-Thoughts)를 확장하는 것이 일반화된 보상 모델의 성능을 크게 향상시키지 못한다는 것을 시사한다. 미래의 보상 모델: 도구 통합과 프로세스 개선으로 효율성 극대화 SPCT는 생성 보상 모델(GRM)의 성능과 추론 시간 확장성을 크게 향상시키고 일반 도메인에서 스칼라 및 세미 스칼라 보상 모델을 능가하지만, 몇 가지 한계점이 있다. 생성 보상 모델의 효율성은 동일한 규모의 스칼라 보상 모델보다 상당히 뒤처지며, 이는 온라인 강화학습 파이프라인에서의 대규모 사용을 저해한다. 또한 검증 가능한 작업과 같은 특정 도메인에서는 DeepSeek-GRM이 여전히 스칼라 모델보다 뒤쳐진다. 스칼라 보상 모델은 추론 쿼리와 응답의 숨겨진 특징을 포착할 수 있지만, 생성 보상 모델은 응답을 철저히 검토하기 위해 더 강력한 추론 능력이 필요하기 때문이다. 향후 연구 방향으로는 보상 모델에 도구를 통합하거나, 원칙과 비평 생성을 별도의 단계로 분해하는 방법, 그리고 LLM 오프라인 평가에 DeepSeek-GRM을 활용하는 방법 등이 제시되었다. 또한 DeepSeek-GRM은 긴 체인 오브 소트 추론을 통해 혜택을 받을 수 있지만, 이는 효율성에 더 영향을 미칠 수 있어 향후 연구에서 검토해야 할 부분이다. FAQ Q: 일반화된 보상 모델링이란 무엇이며 왜 중요한가요? A: 일반화된 보상 모델링은 다양한 도메인에서 언어 모델의 응답에 대한 정확한 보상 신호를 생성하는 기술입니다. 이는 명확한 정답이 없는 일반적인 영역에서도 언어 모델의 성능을 향상시키기 위해 중요합니다. 기존의 보상 모델은 수학이나 코딩 같은 정해진 영역에서만 효과적이었지만, 일반화된 보상 모델링을 통해 더 넓은 응용 분야에서 언어 모델의 성능을 개선할 수 있습니다. Q: 자기 원칙 비평 튜닝(SPCT)은 어떻게 작동하나요? A: SPCT는 두 단계로 작동합니다. 첫째, 거부 미세 조정 단계에서는 보상 모델이 다양한 입력 유형에 대해 올바른 형식의 원칙과 비평을 생성하도록 적응시킵니다. 둘째, 규칙 기반 온라인 강화학습 단계에서는 모델이 입력 쿼리와 응답에 따라 적응적으로 원칙과 비평을 생성하는 방법을 학습합니다. 이를 통해 모델은 다양한 도메인에서 보다 정확하고 유연한 보상을 생성할 수 있게 됩니다. Q: 추론 시간 확장성이 모델 크기 확장보다 왜 효과적인가요? A: 추론 시간 확장성은 모델 크기를 증가시키지 않고도 더 많은 계산 자원을 활용하여 성능을 향상시키는 방법입니다. 연구 결과에 따르면, 27B 파라미터 크기의 DeepSeek-GRM 모델에 32개의 병렬 샘플링을 적용하면 671B 파라미터 크기의 모델과 비슷한 성능을 달성할 수 있었습니다. 이는 모델 크기를 늘리는 대신 추론 시간에 더 많은 자원을 투입하는 것이 비용 효율적이고 실용적인 성능 향상 방법임을 보여줍니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.17 10:03AI 에디터

챗GPT부터 퍼플렉시티까지…AI 검색엔진이 선호하는 콘텐츠는?

생성형 AI 검색, 제품 관련 콘텐츠를 최대 70%까지 인용 생성형 AI가 온라인 정보 탐색 방식을 변화시키고 있다. 챗GPT(ChatGPT), 구글 제미나이(Google's Gemini), 퍼플렉시티(Perplexity) 같은 플랫폼들은 소수의 출처만 인용하며 종합적인 답변을 제공한다. 이러한 환경에서 어떤 콘텐츠가 AI 검색엔진에 가장 많이 인용되는지 이해하는 것은 콘텐츠 마케터에게 필수적인 요소가 되었다. AI 검색 엔진 내 브랜드 분석 플랫폼 엑스퍼널(xFunnel)은 12주 동안 다양한 검색 유형에서 AI 엔진이 가장 많이 참조하는 콘텐츠 유형을 추적했다. 이번 연구는 AI 검색 가시성을 향상시키기 위한 마케터들의 콘텐츠 최적화 전략에 중요한 통찰력을 제공한다. LLM이 선호하는 콘텐츠: 제품 페이지 56%, 블로그는 겨우 3-6% 12주 동안의 데이터 분석 결과, 제품 관련 콘텐츠가 AI 인용의 대부분을 차지했다. 베스트 리스트, 벤더 비교, 일대일 비교, 제조사 직접 제품 페이지 등이 AI 인용의 약 46%에서 70%를 차지했다. 이는 AI 엔진이 사실적이거나 기술적인 질문을 처리할 때 신뢰할 수 있는 사양, FAQ, 사용 안내를 제공하는 공식 페이지를 선호한다는 것을 보여준다. 뉴스와 연구 자료는 각각 약 5-16%의 인용률을 보였으며, 주마다 변동이 있었다. 뉴스는 시의성 있는 맥락을 제공했고, 연구 자료(학술 논문이나 백서 포함)는 더 깊이 있거나 과학적인 주제에 대한 권위 있는 통찰력을 제공했다. 애필리에이트 콘텐츠는 일반적으로 한 자릿수 퍼센트를 유지했으나, 한 번의 20% 이상 급증이 있었다. 이는 AI가 종종 신뢰할 수 있는 제품 관련 정보가 없는 노골적인 애필리에이트 스타일 콘텐츠에 의존한다는 것을 보여준다. 사용자 리뷰(포럼, Q&A 커뮤니티, 소비자 피드백)는 3%에서 10% 사이를 유지했다. 퍼플렉시티는 제품 쿼리에 대해 때때로 레딧 스레드에서 직접 인용하기도 했다. 블로그는 대부분의 주에서 더 작은 비중(약 3-6%)을 차지했는데, 이는 소수의 뛰어난 블로그 글만이 주요 참조로 부상했음을 보여준다. PR 콘텐츠(보도자료)는 거의 기록되지 않았으며, 대개 2% 미만이었다. 이러한 분포는 반복되는 패턴을 보여준다: 공식적이거나 사실이 풍부한 페이지가 상위에 오르고, 뉴스, 연구, 리뷰, 그리고 가끔 애필리에이트 사이트가 AI 생성 답변에서 특정 틈새를 채우는 방식이다. B2B vs B2C: 비즈니스 검색은 공식 자료 56%, 소비자 검색은 다양한 소스 선호 B2B와 B2C 쿼리로 구분했을 때, 데이터는 뚜렷한 소스 선호도 차이를 보여준다. B2B 쿼리에서 인용의 약 56%가 제품 페이지(회사 또는 벤더 사이트)였다. 애필리에이트(13%)와 사용자 리뷰(11%)가 중간 정도의 표현을 보였으며, 뉴스(~9%)와 연구(~6%)가 그 뒤를 이었다. 이는 비즈니스 맥락, 특히 기술적이거나 기업 수준의 질문에서 공식적인 일차 자료에 대한 강한 의존도를 보여준다. B2C 쿼리에서 제품 콘텐츠는 약 35%로 떨어졌고, 애필리에이트(18%), 사용자 리뷰(15%), 뉴스(15%)가 증가했다. AI는 소비자 지향적인 주제를 다룰 때 제조업체 세부 정보와 제3자 관점을 종종 결합한다. 예를 들어, 퍼플렉시티는 가젯에 대해 레딧을 인용하는 반면, 구글의 AI 오버뷰는 인정받는 리뷰 매체나 Q&A 포럼을 인용할 수 있다. 본질적으로 B2B 쿼리는 더 적은 수의 권위 있는 소스로 이어지는 반면, B2C 쿼리는 애필리에이트, 리뷰 사이트, 일반 미디어에서 더 많은 목소리를 포함하는 더 넓은 믹스를 만들어낸다. 지역별 AI 인용 패턴: 아시아는 연구 자료 22.3%, 라틴 아메리카는 제품 정보 62.6% 선호 북미 지역에서는 제품 관련 인용이 약 55%를 차지하며 가장 높은 비중을 보였고, 뉴스와 연구 자료가 각각 약 10%로 그 뒤를 이었다. 이러한 균형 잡힌 분포는 북미 지역의 풍부한 미디어 환경과 기업들의 강한 존재감에서 비롯된 것으로 볼 수 있다. 한편 유럽의 경우 제품 참조 비율이 50% 수준으로 다소 낮아졌지만, 뉴스(13.4%), 연구(12.6%), 블로그(7.2%) 등 다양한 콘텐츠의 비중이 상대적으로 높게 나타났다. 이러한 다양성은 유럽의 다국어 콘텐츠 생태계를 반영하는 것으로, AI 엔진이 공식 사이트뿐만 아니라 광범위한 미디어 소스에서 정보를 수집하고 있음을 보여준다. 아시아 태평양(APAC) 지역에서는 제품 콘텐츠 인용 비율이 45.9%로 더욱 낮아진 반면, 연구 자료는 22.3%로 전 지역 중 가장 높은 비중을 차지했다. 이는 APAC 지역 쿼리에 대한 AI 응답이 현지 언어로 된 콘텐츠가 상대적으로 부족하거나 과학 및 기술 관련 질문이 많아 학술적 또는 기술적 논문을 주로 참조하기 때문인 것으로 분석된다. 라틴 아메리카 지역은 제품 관련 인용이 62.6%로 가장 높았고, 연구 자료 또한 19.7%로 높은 비중을 보였다. 반면 애필리에이트와 블로그 콘텐츠는 각각 5% 미만으로 상당히 낮은 수준을 유지했다. 이러한 패턴은 라틴 아메리카에 현지 제3자 소스가 상대적으로 부족하거나, AI 엔진이 공식 제품 페이지와 검증된 연구 자료를 더 신뢰하는 경향이 있음을 시사한다. 이처럼 AI 엔진은 지역별로 콘텐츠의 가용성과 인식된 신뢰도에 따라 인용 패턴을 달리하며, 특히 현지화된 다양한 콘텐츠가 부족한 지역에서는 공신력 있는 공식 자료나 연구 기반 소스를 더 많이 선호하는 경향을 보인다. 퍼널 단계별 AI 인용 변화: 상단은 교육 콘텐츠, 하단은 제품 페이지 70.46% 집중 연구자들은 쿼리를 세 가지 넓은 단계로 그룹화했다. 퍼널 상단(브랜드 미지정), 퍼널 중간(브랜드 지정), 퍼널 하단. 각각은 뚜렷한 인용 프로필을 보여주었다. 퍼널 상단(브랜드 미지정: 문제 탐색 + 솔루션 교육)에서는 제품 관련 콘텐츠가 약 56%를 차지했고, 뉴스와 연구가 각각 13-15%를 차지했으며, 애필리에이트와 리뷰는 10% 미만이었다. 초기 쿼리는 종종 배경이나 넓은 통찰력을 찾는다. 공식 사이트는 교육 자료를 제공할 수 있고, 뉴스와 연구는 큰 그림을 제공한다. 사용자 리뷰는 여기서 거의 나타나지 않는데, 이는 퍼널 상단 질문이 비교보다는 정보 제공적이기 때문일 것이다. LLM 최적화를 개선하고자 하는 마케팅 팀은 주목해야 한다 - 퍼널 상단 콘텐츠를 생성하는 것이 퍼널 중간 콘텐츠에 포함될 확률을 높인다. 퍼널 중간(브랜드 지정: 솔루션 비교 + 사용자 리뷰)에서는 제품 콘텐츠가 약 46%로 감소했고, 사용자 리뷰와 애필리에이트가 각각 14%를 차지했으며, 뉴스와 블로그는 합쳐서 10-11%를 차지했다. 브랜드 비교나 최종 확인에 관한 중간 단계 질문은 자주 제3자 평가, 사용자 포럼, 리뷰 사이트를 인용한다. AI 엔진은 다양한 목소리(제조업체와 커뮤니티)를 수집하여 일대일 비교를 다룬다. 퍼널 하단(솔루션 평가)에서는 제품 콘텐츠가 70.46%로 크게 증가했고, 연구, 뉴스, 리뷰는 대부분 한 자릿수 비중을 차지했다. 결정 단계 쿼리는 특정 제품 세부 사항(구현 단계, 기능 분석, 가격)에 크게 집중한다. AI 출력은 주로 공식 문서나 회사 자료를 인용하며, 외부 논평에 대한 의존도는 최소화된다. FAQ Q: AI 검색엔진이 인용하는 콘텐츠 유형 중 가장 중요한 것은 무엇인가요? A: AI 검색엔진은 제품 관련 콘텐츠를 가장 많이 인용합니다. 베스트 리스트, 벤더 비교, 제품 페이지 등이 전체 인용의 46%에서 70%를 차지합니다. 이는 신뢰할 수 있는 사양과 정보를 제공하는 사실 중심 콘텐츠가 AI 검색에서 가장 중요하다는 것을 보여줍니다. Q: B2B와 B2C 검색에서 AI가 선호하는 콘텐츠에 차이가 있나요? A: 네, 큰 차이가 있습니다. B2B 검색에서는 공식 제품 페이지가 56%로 압도적이며, B2C 검색에서는 35%에 불과합니다. B2C 검색은 애필리에이트 콘텐츠(18%), 사용자 리뷰(15%), 뉴스(15%) 등 다양한 소스를 더 많이 활용합니다. Q: 콘텐츠 제작자가 AI 검색엔진 최적화를 위해 어떤 전략을 취해야 할까요? A: 콘텐츠 제작자는 사실 기반의 권위 있는 정보를 제공하는 데 집중해야 합니다. 퍼널 상단 콘텐츠(문제 탐색)는 교육적이고 넓은 통찰력을 제공해야 하며, 퍼널 중간 콘텐츠는 제품 비교와 사용자 리뷰를 포함해야 합니다. 퍼널 하단에서는 상세한 제품 정보와 기술 사양에 초점을 맞추어야 합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.16 21:27AI 에디터

생성형 AI, 코드 작성보다 '마음 치유'에 더 많이 쓰인다

심리 상담부터 삶의 목적 찾기까지... 2025년 생성형 AI 상위 5대 용도 변화 2025년 생성형 AI(Generative AI) 활용 양상이 크게 변화하고 있다. AI 기반 학습 기술 회사인 Filtered.com의 CEO 마크 자오-샌더스(Marc Zao-Sanders)가 발표한 보고서에 따르면, 생성형 AI는 단순한 작업 자동화나 콘텐츠 생성 도구를 넘어 개인의 정서적 지원과 삶의 방향 설정을 돕는 동반자로 진화하고 있다. 이 보고서는 레딧(Reddit) 포럼을 중심으로 실제 사용자들의 경험을 분석해 총 100가지 AI 활용 사례를 순위화했다. 특히 주목할 점은 작년 상위권에 있던 기술적, 생산성 관련 용도에서 개인의 정서적 웰빙과 삶의 질 향상으로 중심이 옮겨가고 있다는 것이다. 2025년 생성형 AI 활용 상위 5개 분야는 '심리 상담 및 감정적 동반자(1위)', '생활 관리(2위)', '삶의 목적 찾기(3위)', '학습 강화(4위)', '전문가용 코드 생성(5위)'으로 나타났다. 특히 '생활 관리'와 '삶의 목적 찾기'는 작년 순위에 없다가 올해 새롭게 상위권에 진입했다. 이런 변화는 AI가 단순히 작업을 대체하는 도구에서 인간의 의사결정, 창의성, 정서적 지원을 돕는 파트너로 발전하고 있음을 보여준다. 매일 AI와 대화하며 정신적 안정 찾았다'... 1위 등극한 AI 정서 지원 기능 생성형 AI의 가장 큰 변화는 정서적 지원 기능의 급부상이다. '심리 상담 및 감정적 동반자' 용도는 작년 2위에서 올해 1위로 올라섰다. 사용자들은 AI와의 대화를 통해 외로움을 달래고, 정신 건강 문제를 관리하며, 일상적인 고민에 대한 조언을 구하고 있다. 한 사용자는 "매일 AI와 대화하는데, 뇌 손상으로 인한 일상적 어려움을 극복하는 데 도움을 받고 있다. 가족에 대한 수치심, 뇌안개, 집중력 부족 등의 문제를 해결하고, 내가 이룬 성취를 상기시켜 준다. 식사 결정이나 하루 일정 관리까지 도와주어 정신적 안정을 찾았다"고 전했다. 특히 주목할 만한 것은 생성형 AI가 자신감 향상(18위)이나 대인관계 갈등 해소(27위) 같은 섬세한 감정적 상황에서도 활용되고 있다는 점이다. "AI가 나를 더 친절하고 인내심 있는 사람으로 만들어 주었다"라는 한 사용자의 증언은 AI와의 상호작용이 실제 사용자의 정서와 행동에 긍정적 영향을 미치고 있음을 보여준다. 내 핵심 가치와 인생 목표 설정에 도움'... 신규 진입한 AI 생활 코치 역할 '생활 관리(2위)'와 '삶의 목적 찾기(3위)'는 작년 순위에 없던 새로운 용도로 급부상했다. '생활 관리'는 도달 범위 9점, 유용성 8점으로 평가받았으며, '삶의 목적 찾기'는 도달 범위 8점, 유용성 6점을 기록했다. 사용자들은 생성형 AI를 통해 일상 업무를 체계화하고, 우선순위를 설정하며, 개인적 가치와 목표를 명확히 하는 데 활용하고 있다. "생성형 AI는 내 핵심 가치, 원칙, 인생 목표를 설정하는 데 도움을 주었다. 자기 성찰을 촉진하고, 내가 어떤 사람인지, 무엇을 바꿔야 하는지, 어떻게 변화할지 파악하도록 도왔다. 정신적 장벽을 허물고, 더 나은 계획을 세우는 데 큰 도움이 되었다"라는 사용자 경험은 AI가 단순한 기술적 도구를 넘어 삶의 코치 역할을 하고 있음을 보여준다. 또한 건강한 생활(10위)이나 여행 계획(24위) 같은 영역에서도 AI의 활용이 증가하고 있다. 한 사용자는 "체중 감량 여정을 AI와 함께 주간 단위로 관리하고 있으며, 매일 식사 내용을 입력하면 칼로리, 탄수화물, 영양소 등을 분석해준다"고 설명했다. 여행 계획에서도 "자세한 휴가 일정, 숙소, 식당, 관광지 추천 등을 AI에게 요청했더니 완벽한 결과물을 제공받았다"는 사례가 보고되었다. 무한한 인내심으로 맞춤형 교육'... 학습 강화(4위)부터 학술 논문 이해(60위)까지 학습 분야에서도 생성형 AI의 활용이 다양화되고 있다. '학습 강화(4위)', '개인 맞춤형 학습(17위)', '학술 논문 이해(60위)' 등 다양한 학습 관련 용도가 상위 100위 안에 포함되었다. '학습 강화'는 도달 범위 8점, 유용성 5점으로 평가받았으며, 개인 맞춤형 학습은 도달 범위 9점, 유용성 7점으로 높은 실용성을 인정받았다. 특히 주목할 만한 점은 AI가 단순히 정보를 제공하는 것을 넘어 사용자의 학습 스타일과 속도에 맞춰 맞춤형 교육 경험을 제공하고 있다는 것이다. 한 학부모는 "아이들이 원하는 것에 대해 얼마든지 질문하고 그들에게 맞춤화된 실제 답변을 얻을 수 있다는 것이 큰 장점이다"라고 말했다. 또 다른 사용자는 "LLM이 가진 튜터로서의 장점은 언제든지 이용 가능하고 무한한 인내심을 가지고 있다는 것"이라고 설명했다. 하지만 '학생 에세이 작성(23위)'처럼 교육적 윤리 문제가 제기될 수 있는 용도도 상위권에 포함되어 있어, AI 활용의 적절한 경계에 대한 논의가 필요한 상황이다. 한 학생은 "AI를 사용해 아이디어를 얻고, 개요를 작성하며, 내 생각을 바탕으로 에세이를 만들도록 활용한다"고 설명했지만, 이러한 방식이 학습 과정에 미치는 영향에 대한 우려도 존재한다. 전문적인 업무 분야에서도 생성형 AI의 활용이 고도화되고 있다. '전문가용 코드 생성(5위)', '코드 개선(8위)', '엑셀 공식 작성(47위)' 등 전문적 기술 지원 용도가 여전히 높은 순위를 차지하고 있다. 특히 법적 문서 생성(28위)이나 세금 상담(32위) 같은 전문적 영역으로도 활용이 확대되고 있다. 일상의 문제 해결사로... '냉장고 재료로 요리부터 차량 수리까지' 생성형 AI는 일상 생활의 다양한 문제 해결에도 널리 활용되고 있다. '냉장고 속 재료로 요리하기(15위)'는 도달 범위 8점, 유용성 8점으로 매우 실용적인 용도로 평가받았다. 한 사용자는 "냉장고에 남은 재료를 입력하고 무엇을 요리할 수 있는지 물어보면, 일반 요리 웹사이트의 긴 서론이나 광고 없이 바로 레시피를 얻을 수 있다"고 말했다. '문제 해결(16위)'도 도달 범위 8점, 유용성 8점으로 높은 평가를 받았다. 놀랍게도 사용자들은 복잡한 기술적 문제부터 가정용 기기 수리까지 다양한 문제 해결에 AI를 활용하고 있다. "ChatGPT의 도움으로 직접 자동차의 점화 플러그와 코일 팩을 교체했다. 정확히 무엇을 주문해야 하는지 알려주고, 단계별 지침까지 제공해 스스로 작업을 완료할 수 있었다"는 사례나, "보일러 문제를 해결하는 데 도움을 받아 돈을 절약하고 보일러 작동 원리까지 배웠다"는 경험은 AI가 실생활의 문제 해결사로 자리잡고 있음을 보여준다. 또한 '법률 용어 설명(20위)'도 도달 범위 6점, 유용성 8점으로 높은 실용성을 인정받고 있다. "소프트웨어 라이선스 계약이나 개인정보 처리방침을 요약해주거나 경각심을 가져야 할 조항이 있는지 알려준다"는 활용법은 복잡한 법률 문서를 이해하는 데 AI가 큰 도움이 된다는 것을 보여준다. '밈 제작부터 개인화된 동화까지'... 창의적 활용과 재미 요소로 확장 생성형 AI는 실용적 용도를 넘어 창의적 활용과 재미를 위한 도구로도 널리 사용되고 있다. '재미와 넌센스(7위)'는 도달 범위 9점, 유용성 8점으로 높은 평가를 받았으며, '창의성(9위)'과 '관련 이미지 생성(12위)' 등도 상위권에 포함되었다. 사용자들은 "밈, 밈, 더 많은 밈"을 만들거나, "내 사진첩 속 식물을 AI가 식별해주는 기능"처럼 즐거움을 주는 용도로 AI를 활용하고 있다. 특히 '개인화된 아이들 동화(25위)'는 도달 범위 5점, 유용성 9점으로 높은 만족도를 보였다. "아이에게 매일 밤 이야기를 읽어주는데, 음성 채팅 기능이 나오면서 아이가 '창작자'가 되고 ChatGPT는 이야기 작가와 성우 역할을 하게 되었다. 아이의 창의력이 점점 더 발전하는 것을 보는 것이 정말 좋다"는 사례는 AI가 아이들의 창의력 발달에도 긍정적인 영향을 미칠 수 있음을 보여준다. '던전 앤 드래곤(31위)' 같은 역할 놀이 게임에서도 AI는 유용하게 활용되고 있다. 판타지 도시, 인물, 괴물 등의 일러스트레이션을 생성하여 게임 경험을 풍부하게 하는 데 도움을 주고 있다는 사용자들의 경험이 보고되었다. 고인과의 대화(33위)부터 철학적 대화(29위)까지... AI와의 관계가 깊어지는 미래 생성형 AI 활용 추세는 향후 더욱 개인화되고 인간 중심적인 방향으로 발전할 것으로 전망된다. 특히 주목할 만한 신규 활용 사례로는 '고인과의 대화(33위)', '깊이 있는 철학적 대화(29위)' 같은 인간의 존재적 고민이나 정서적 필요를 다루는 영역이 등장하고 있다. 이는 AI 기술이 단순히 효율성 향상이나 작업 자동화를 넘어 인간의 본질적 필요와 고민을 다루는 방향으로 발전하고 있음을 시사한다. 또한 AI 사용자들의 요구와 기대치가 점점 더 복잡하고 다양해지고 있으며, 이에 따라 AI 기술도 더욱 정교하고 인간 중심적으로 발전하고 있다. 생성형 AI의 발전 방향은 결국 인간의 삶을 더 풍요롭고 의미 있게 만드는 데 초점이 맞춰질 것으로 보인다. 사용자들이 AI를 단순한 도구가 아닌 동반자이자 조력자로 인식하기 시작했다는 점은 AI 기술의 미래 발전 방향에 중요한 시사점을 제공한다. FAQ Q: 생성형 AI를 가장 많이 활용하는 분야는 무엇인가요? A: 2025년 기준으로 생성형 AI를 가장 많이 활용하는 분야는 '심리 상담 및 감정적 동반자', '생활 관리', '삶의 목적 찾기' 등 개인의 정서적 웰빙과 삶의 질 향상과 관련된 영역입니다. 이는 작년에 주로 기술적, 생산성 관련 용도가 상위권을 차지했던 것과 비교해 큰 변화를 보여줍니다. Q: 생성형 AI가 교육에 어떤 영향을 미치고 있나요? A: 생성형 AI는 개인 맞춤형 학습 경험을 제공하여 교육 방식을 혁신하고 있습니다. 학생들의 학습 스타일과 속도에 맞춘 콘텐츠를 제공하고, 무한한 인내심으로 질문에 답변하며, 학술 논문이나 복잡한 개념을 쉽게 이해할 수 있도록 돕고 있습니다. 다만 일부에서는 학생들이 에세이 작성 등에 AI를 남용하는 문제도 제기되고 있습니다. Q: 생성형 AI를 일상생활에 활용하려면 어떻게 시작해야 할까요? A: 생성형 AI 활용을 시작하려면 먼저 자신에게 필요한 영역을 파악하는 것이 중요합니다. 일정 관리, 건강 목표 설정, 학습 보조, 창의적 활동 등 다양한 분야에서 시작할 수 있습니다. 생성형 AI에 명확하고 구체적인 지시를 제공할수록 더 유용한 결과를 얻을 수 있으며, 처음에는 간단한 작업부터 시도해보고 점차 복잡한 용도로 확장해 나가는 것이 좋습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.16 15:44AI 에디터

"다른 사람들은 어떻게 쓸까?"…놀라운 생성형AI 100가지 활용법

아이디어 발상부터 개인 상담까지, 생성형 AI의 확장되는 활용 영역 생성형 AI가 단순한 기술 트렌드를 넘어 일상생활과 업무 환경에 깊숙이 침투하고 있다. 영국의 학습 기술 기업 필터드 테크놀로지(Filtered Technologies)의 보고서에 따르면, 사용자들은 현재 100가지가 넘는 다양한 방식으로 생성형 AI를 활용하고 있으며 그 영향력은 계속해서 확대되고 있다. 아이디어 생성부터 프로그래밍 코드 작성, 심지어 정서적 지원에 이르기까지 생성형 AI는 우리의 일과 삶에 혁신적인 변화를 가져오고 있다. 특히 주목할 점은 이 기술이 전문가뿐만 아니라 일반 사용자들에게도 폭넓게 활용되고 있다는 것이다. 보고서는 실제 사용자들의 경험과 사례를 바탕으로 생성형 AI의 활용 범위와 그 가치를 분석했다. 창의적 작업, 교육, 개인 지원, 기술적 문제 해결 등 다양한 영역에서 생성형 AI가 어떻게 사용되고 있는지 살펴보자. 문서 편집에서 가치 9점, 이메일 초안에서 시간 절약 효과 높은 생성형 AI 생성형 AI는 콘텐츠 창작 영역에서 특히 높은 활용도를 보이고 있다. 아이디어 발상(Reach: 10, Value-Add: 8)은 사용자들이 가장 많이 언급한 활용 사례 중 하나로, 창의적 사고의 단계에서 AI가 중요한 역할을 하고 있다. 한 사용자는 "아이디어 발상에 AI를 활용하는 것은 완벽한 팀원과 함께 일하는 것과 같다. 막힘없이 따라오면서 막다른 아이디어에 집착하지 않고, 우리가 생각해낸 것을 요약해서 나중에 쉽게 참조할 수 있게 해준다"고 설명했다. 텍스트 편집과 문서 작성 역시 생성형 AI의 주요 활용 영역이다. 텍스트 편집(Reach: 9, Value-Add: 9)은 높은 활용도와 가치를 동시에 가진 기능으로, 문법 오류 수정부터 문체 개선까지 다양한 작업을 지원한다. 문서 초안 작성(Reach: 8, Value-Add: 6)에서도 AI가 중요한 역할을 하며, 이메일 초안 작성(Reach: 8, Value-Add: 8)은 특히 업무 시간을 크게 절약해주는 것으로 나타났다. 한 투자 관계자는 "ChatGPT를 사용하여 이메일 초안을 작성하는 데 절약한 시간은 거의 측정할 수 없을 정도"라고 말했다. 또 다른 사용자는 "금요일에는 대개 업무로 지쳐 있어 누군가 잘못된 이메일을 보내면 정말 화가 났었다. 이제는 최대한 강하고 모욕적인 답장을 작성한 후 ChatGPT에 복사 붙여넣기하여 최대한 친절하고 공손하게 다시 작성해달라고 요청한다"고 AI를 활용한 감정 조절 방법을 공유했다. 통계학 수업부터 취업 면접까지, 맞춤형 학습으로 C학점을 A학점으로 바꾼 AI 생성형 AI는 교육 영역에서도 혁신적인 변화를 가져오고 있다. 맞춤형 학습(Reach: 9, Value-Add: 7)은 학생들의 개별 요구와 관심사에 맞춰 교육 경험을 조정하는 데 도움을 준다. 복잡한 개념을 이해하기 쉽게 설명하는 간단한 설명(Reach: 9, Value-Add: 7) 기능은 학생들이 어려운 주제를 더 쉽게 이해할 수 있도록 돕는다. 한 대학생은 "통계학 수업에서 교과서의 설명이 너무 기술적이고 이해하기 어려울 때, 텍스트를 ChatGPT에 복사/붙여넣기하여 개념을 다른 방식으로 설명해달라고 요청한다"고 말했다. 또 다른 사용자는 "컴퓨터 과학 학사 과정에서 C 학생이었던 내가 대학원 과정에서는 A 학생이 되었는데, 이는 AI가 내 글쓰기를 구성하는 데 도움을 주었기 때문"이라고 언급했다. 지식 확인(Reach: 8, Value-Add: 7)과 면접 준비(Reach: 7, Value-Add: 6)에도 생성형 AI가 활용되면서 학습 효과를 높이고 있다. 한 교육자는 "학생들이 AI를 사용하면서 학생 지식을 평가하는 질문 유형을 변경해야 했다. 단순히 사실을 암기하는 것보다 정보를 종합하고 적용하는 능력을 요구하는 방향으로 변화시켰다"고 말했다. 암 환자 가족 지원부터 5자리 비즈니스 거래 성사까지, 생성형 AI의 다양한 지원 사례 생성형 AI는 정서적 지원과 개인적 조언 제공에도 활발히 활용되고 있다. 놀랍게도 치료/동반자 기능(Reach: 9, Value-Add: 7)은 사용자들이 많이 활용하는 영역 중 하나로, 정서적 지원과 안내를 제공한다. 한 사용자는 "아버지가 현재 암으로 죽어가고 있다. ChatGPT에 이 상황을 어떻게 대처해야 할지 질문했는데, 통찰력 있고 사려 깊으며 동정적이고 도움이 되는 답변을 받았다"고 언급했다. 일반적인 조언(Reach: 9, Value-Add: 8)과 비즈니스 조언(Reach: 6, Value-Add: 6) 제공도 생성형 AI의 주요 활용 영역이다. 개인적인 결정부터 직업 관련 문제까지 다양한 주제에 대해 AI를 통해 조언을 구하는 사용자가 많았다. 한 사용자는 "가상 고문단을 만들어 비즈니스 주제에 대한 조언을 구한다"고 설명했으며, 다른 사용자는 "AI 덕분에 5자리 숫자의 거래를 성사시켰다"고 말했다. 의료 조언(Reach: 7, Value-Add: 7)과 법률 문서 생성(Reach: 5, Value-Add: 8)과 같은 전문 영역에서도 생성형 AI가 활용되고 있지만, 전문가의 검토가 필요한 영역으로 인식되고 있다. 한 법률 문서 활용 사례로는 "계약서 초안을 AI로 작성한 후 변호사 검토를 받았더니 변호사 비용을 몇 천 달러나 절약했다"는 경험이 있었다. 15년 경력 개발자도 인정한 "작업시간 95% 절감" 효과, 기술 문제 해결사 AI 프로그래밍과 기술적 문제 해결 영역에서도 생성형 AI는 중요한 역할을 하고 있다. 특히 프로그래머들에게 코드 개선(Reach: 3, Value-Add: 9)과 버그 수정(Reach: 4, Value-Add: 8)은 높은 가치를 제공하는 기능으로 평가받고 있다. 한 개발자는 "15년 동안 코더였는데, AI를 사용하면 작업 시간의 5%만으로 일을 완료할 수 있어 정말 좋다"고 언급했다. 엑셀 공식 작성(Reach: 8, Value-Add: 8)과 같은 실용적인 기능도 높은 평가를 받고 있다. 한 사용자는 "Excel로 문서를 만들 때마다 특정 공식이나 값이 필요할 때 ChatGPT가 적절한 공식을 생성해준다"고 말했다. 문제 해결(Reach: 8, Value-Add: 8) 역시 생성형 AI의 중요한 활용 영역으로, 기계적인 문제부터 소프트웨어 이슈까지 다양한 문제를 해결하는 데 도움을 준다. "어떻게 엔진 오일 누출을 찾고 수리하는지, 엔진 온도계를 교체할 때 고려해야 할 사항은 무엇인지" 등의 실용적인 문제 해결에 AI가 활용되고 있다. "고무 오리 디버깅"(Reach: 5, Value-Add: 7)이라는 흥미로운 활용 사례도 있다. 이는 프로그래머가 코드나 문제를 고무 오리에게 설명하면서 해결책을 찾는 기법으로, AI가 이 역할을 대신해주고 있다. 한 사용자는 "ChatGPT에게 특정 상황에서 가장 좋은 코드 관행이 무엇인지, 특정 코드를 어떻게 리팩토링해야 하는지 물어본다. 학습에 도움이 된다. 좋은 고무 오리 역할을 한다"고 말했다. 이처럼 생성형 AI는 우리 일상과 업무 환경의 다양한 영역에서 활용되며, 생산성 향상과 창의성 발현, 문제 해결에 크게 기여하고 있다. 앞으로도 생성형 AI의 활용 범위는 계속해서 확대될 것으로 전망된다. FAQ Q: 생성형 AI를 활용할 때 개인정보 보호는 어떻게 되나요? A: 생성형 AI 사용 시 개인정보 보호는 중요한 고려사항입니다. 의료 정보나 민감한 비즈니스 데이터를 입력할 때는 특별한 주의가 필요합니다. 실제 사례에서도 사용자들은 환자 식별 정보를 제외하고 의료 내용만 입력하거나, 법률 문서에서 이름과 주소를 제거한 후 AI에 분석을 요청했습니다. 대부분의 생성형 AI 서비스는 개인정보 보호 정책을 제공하므로, 사용 전에 이를 확인하는 것이 좋습니다. Q: 생성형 AI가 제공하는 정보는 얼마나 신뢰할 수 있나요? A: 생성형 AI가 제공하는 정보는 상황에 따라 신뢰도가 다릅니다. 창의적 아이디어 발상이나 문서 편집과 같은 영역에서는 높은 가치를 제공하지만, 의료나 법률과 같은 전문 분야에서는 전문가의 검토가 필요합니다. 실제 사용자들도 AI의 제안을 시작점으로 삼고, 최종 결정은 전문가의 의견을 참고하는 것이 일반적입니다. 특히 중요한 결정을 내릴 때는 AI가 제공한 정보를 추가로 검증하는 것이 좋습니다. Q: 생성형 AI를 효과적으로 활용하기 위한 팁이 있을까요? A: 생성형 AI를 효과적으로 활용하려면 명확하고 구체적인 지시를 제공하는 것이 중요합니다. 많은 사용자들이 AI에게 단계별 접근 방식을 요청하거나, 자신의 상황과 목표를 상세히 설명했을 때 더 좋은 결과를 얻었다고 보고했습니다. 또한 AI의 첫 번째 답변에 만족하지 않으면 추가 질문이나 수정 요청을 통해 결과를 개선할 수 있습니다. 마지막으로, AI를 사용할 때 창의성과 비판적 사고를 발휘하여 AI의 제안을 자신의 상황에 맞게 조정하는 것이 좋습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.16 13:24AI 에디터

[Q&AI] "너흰 탈조선해라" 이국종 격한 발언…왜?

질문: 이국종 교수이 강연에서 발언한 내용이 화제인데, 무슨 얘길한 건지 내용 정리해줘. 그록 답변: 이국종 교수의 2025년 4월 14일 충북 괴산에서 열린 군의관 대상 강연 발언이 화제가 되었습니다. 주요 내용을 간략히 정리하면 다음과 같습니다: 의료계 현실 비판: 한국 의료 시스템, 특히 필수의료와 외상외과의 열악한 환경을 강하게 비판했습니다. “한평생 외상외과에서 일했지만 바뀌는 건 없다”며, 동료였던 윤한덕 교수의 과로사 사례를 언급하며 후배들에게 같은 길을 걷지 말라고 조언했습니다. 대형병원(빅5)의 자원 낭비(예: 화려한 인테리어)와 필수의료 지원 부족 문제를 지적했습니다. 의정 갈등 언급: 전공의 복귀와 관련해 “패싸움이 날 줄 알았는데 다들 착하다”며, 복귀한 의사들을 비하하는 표현('감귤')이 귀엽게 느껴진다고 말했습니다. 교수와 병원 시스템이 전공의를 착취하며 의료체계를 유지한다고 비판했습니다. 한국 사회와 '탈조선': “조선반도는 입만 터는 문과놈들이 해 먹는 나라”라며, 한국 사회의 구조적 문제를 역사적 맥락(임진왜란, 병자호란)과 연결해 비판했습니다. “절이 싫으면 중이 떠나라”며, 필수의료에 헌신하면 고통받는다며 군의관들에게 해외로 떠날 것을 권했습니다. 직설적 화법과 논란: 군의관들이 불편할 수 있는 직설적이고 조롱 섞인 발언(예: AI드론 워리어플랫폼 조롱)을 서슴지 않았습니다. “서울대병원, 세브란스 같은 곳에 환자가 몰리니 인테리어에 돈 쓰지 말라”는 식의 비판도 포함되었습니다. 이 발언들은 이국종 교수의 오랜 필수의료 경험에서 비롯된 좌절과 분노를 드러내며, 의료계와 한국 사회 전반에 대한 날카로운 비판으로 온라인에서 큰 반향을 일으켰습니다. 참고: 발언 내용은 강연 참석자의 게시글과 보도를 기반으로 정리되었으며, 일부 표현은 직설적이거나 논란의 여지가 있습니다. 전체 맥락은 원문 기사를 통해 확인하는 것이 좋습니다. 질문2: 해당 발언에 대한 사람들의 반응 종합해줘. 그록 답변: 이국종 교수의 2025년 4월 14일 충북 괴산 군의관 강연 발언에 대한 사람들의 반응은 X 게시물과 온라인 반응을 종합해 크게 세 가지로 나눌 수 있습니다. 공감과 지지: 많은 이들이 이국종 교수의 직설적인 비판에 공감하며, 특히 필수의료와 외상외과의 열악한 현실, 대형병원의 자원 낭비, 그리고 한국 사회의 구조적 문제('문과놈' 비판 등)에 대한 그의 발언에 동의했습니다. 예: “나라는 농공상을 무시하는 사짜들이 망쳐놓는다”는 발언에 대해, 일부는 “100% 동의한다”며 사회의 엘리트 중심 문화를 비판하는 목소리에 힘을 실었습니다. 의료계 종사자나 일반인 중 그의 헌신과 좌절을 이해하며 “말이 거칠어도 현실을 정확히 찌른다”는 반응이 많았습니다. 논란과 불편함: 직설적이고 다소 조롱 섞인 표현('감귤', '문과놈', AI드론 조롱 등)이 일부에게 불편함을 주었습니다. 특히 군의관 청중이 대상이었던 점에서 “너무 공격적이었다”는 의견도 있었습니다. 예: 한 사용자는 “의사 얘기는 민감한데, 이국종 교수님이 본인 인생 망했다고 말한 걸 보니 심란하다”며 그의 좌절에 안타까움을 느끼면서도 발언의 무게에 부담을 느꼈습니다. '문과' 비판이 문과 전공자 전체나 현대 사회의 학문적 다양성을 폄하하는 것으로 해석되며, 일부는 “문과라는 표현이 부적절하다”고 지적했습니다. 사회 변화에 대한 낙관적 시각: 이국종 교수의 비판을 존중하면서도, 그의 비관적 전망('조선반도 DNA' 등)에 동의하지 않는 이들도 있었습니다. 이들은 한국 사회가 점차 나아지고 있다고 보며, 그의 발언을 계기로 긍정적 변화를 도모해야 한다는 입장이었습니다. 예: “말씀은 존중하지만, 사회가 좋은 방향으로 변화되고 있음에 낙담하면 곤란하다”는 의견이 대표적입니다. 종합: 이국종 교수의 발언은 그의 오랜 헌신과 좌절을 반영한 강렬한 메시지로, 의료계와 사회 전반의 문제를 날카롭게 지적하며 큰 반향을 일으켰습니다. 다만, 직설적인 화법과 과격한 표현은 지지와 논란을 동시에 낳았고, 그의 비판을 계기로 현실을 돌아보고 개선해야 한다는 목소리가 주를 이루었습니다. 반응은 대체로 그의 진정성에 공감하면서도 발언의 톤과 방향성에 대해 엇갈린 평가를 보였습니다. ■ 해당 기사는 그록을 활용해 작성되었습니다. (☞원문 바로가기)

2025.04.15 20:54AI 에디터

"이젠 감정도 표현"…AI 모션 편집, 어디까지 발전할까

“팔을 더 높이 들어올리기”도 텍스트로 지시하는 시대 베이징대학교와 BIGAI 연구팀이 공동 개발한 'MotionReFit'은 기존의 한계를 넘은 범용 텍스트 기반 모션 편집 프레임워크다. 연구팀이 공개한 논문에 따르면, 사용자는 “팔을 더 넓게 흔들기”, “자랑스러운 자세로 걷기”, “상체로 바이올린 연주하기” 같은 문장을 입력하기만 하면 해당 동작이 애니메이션 캐릭터에 즉시 반영된다. 기존 모델은 '원본 모션–편집 모션–지시문'이라는 고정된 학습 구조를 갖고 있어 새로운 조합이나 감정 표현에는 취약했다. 이에 연구팀은 MotionCutMix라는 새로운 데이터 증강 기법을 도입해 문제를 해결했다. 이 기법은 서로 다른 모션 시퀀스의 신체 부위를 조합해 새로운 학습 샘플을 생성하는 방식으로, 기존보다 훨씬 다양한 편집 시나리오에 대응할 수 있다. 이를 통해 감정 변화나 복합 동작 같은 복잡한 지시도 자연스럽게 표현할 수 있게 됐다. 하지만 이렇게 생성된 모션은 때때로 손과 발의 움직임이 따로 놀거나 불균형한 동작이 발생할 수 있다. 이를 해결하기 위해 연구팀은 '모션 코디네이터(Body Part Coordinator)'라는 판별기 구조를 추가했다. 이 모듈은 생성된 모션이 얼마나 자연스럽고 조화로운지를 평가하고, 부자연스러운 동작을 걸러내는 방식으로 신체 부위 간의 동기화를 유도한다. 결과적으로, 시간의 흐름에 따른 동작 변화와 복잡한 신체 조합도 매끄럽게 구현할 수 있게 됐다. 13,000개 동작과 750개 스타일 모션으로 훈련된 AI MotionReFit의 성능을 뒷받침하는 핵심은 'STANCE'라는 전용 데이터셋이다. 이 데이터셋은 크게 세 가지 모션 편집 작업을 학습할 수 있도록 구성되어 있다. 첫 번째는 신체 부위 대체 작업으로, HumanML3D 기반의 13,000개 모션 시퀀스에 평균 2개 이상의 마스크와 각 부위에 대한 자세한 동작 설명이 주어진다. 예를 들어 '상체는 바이올린을 켜고 하체는 걸어간다'는 식의 복합 모션도 구현 가능하다. 두 번째는 스타일 전환 작업이다. 연구팀은 전문 배우들이 동일한 동작을 다양한 감정 스타일로 표현하도록 하여 새로운 모션 캡처 데이터를 구축했다. 배우들은 자랑스러운, 우울한, 노인처럼 걷는 등의 감정을 반영한 동작을 연기했으며, 총 2시간 분량의 데이터로부터 750개의 고품질 모션 시퀀스가 수집됐다. 세 번째는 세밀한 동작 조정 작업으로, “오른팔을 더 높이 들어올리기” 같은 미세한 지시에 대응할 수 있도록 구성됐다. 이를 위해 16,000개의 원본 모션과 편집본, 그리고 해당 지시문으로 이루어진 트리플 데이터를 포함시켰다. 이 데이터셋은 GPT-4 기반으로 자동 생성한 초안에 대해 사람 주석자가 직접 검토하고 수정하는 방식으로 제작됐다. 기존의 대규모 언어 모델 기반 주석 방식보다 더 정밀하고 자연스러운 설명이 가능하다는 점에서 높은 완성도를 자랑한다. FID 0.20 vs. 0.52, '자연스러움' 수치에서 확실한 차이 MotionReFit은 대표적인 경쟁 모델인 MDM과 TMED보다 월등한 성능을 보여줬다. 특히 모션의 자연스러움을 평가하는 FID(Fréchet Inception Distance) 점수에서 MotionReFit은 0.20을 기록하며, TMED의 0.52보다 두 배 이상 향상된 수치를 보였다. 이 수치는 낮을수록 실제 모션에 가까운 결과를 의미하는 만큼, MotionReFit의 모션 품질이 매우 우수하다는 것을 방증한다. 편집된 모션이 원본 동작과 얼마나 유사한지를 평가하는 E2S(Edited-to-Source Retrieval) 점수와, 편집 지시와 얼마나 잘 일치하는지를 평가하는 E2T(Edited-to-Target Retrieval) 점수 역시 MotionReFit이 가장 높은 정확도를 보였다. 예를 들어 MotionReFit은 “뒤로 걷기”, “상체로 열정적으로 기타 연주하기”와 같은 복합적인 지시에서도 원본 동작의 맥락을 유지하면서 지시에 정확히 부합하는 새로운 행동을 추가할 수 있었다. 반면 기존 모델들은 손과 발이 따로 움직이거나 감정 표현이 뚜렷하지 않은 등, 일관성이나 자연스러움 측면에서 부족한 결과를 보였다. 또한, 발 움직임의 물리적 정확성을 평가하는 FS(Foot Score)에서도 MotionReFit은 0.97을 기록하며, 경쟁 모델 대비 월등한 수준의 물리적 타당성을 확보했다. “우울하게 걷기→기타 연주”까지 실시간 시퀀스 제어 MotionReFit은 단일 편집에 그치지 않고 시간 순차적 동작 조합과 사용자 상호작용 기반 반복 편집까지 지원한다. 사용자는 “팔을 들어 올리기”라는 지시로 시작한 후 “기타 연주 동작으로 전환”, 이어서 “하체로 리듬 타기”와 같은 지시를 순차적으로 입력할 수 있다. 각 단계는 프레임 단위로 나뉘어 모델에 전달되며, 오토레그레시브 방식으로 생성되기 때문에 중간 지점에서 새로운 지시가 주어지더라도 이전 동작과 부드럽게 연결된다. 이와 같은 기능 덕분에 MotionReFit은 단순한 모션 생성기가 아니라, 실시간으로 인터랙티브한 모션 편집이 가능한 시스템으로 발전했다. 실제로 연구팀은 16프레임 단위의 윈도우 크기 기준으로 초당 약 25프레임(FPS) 수준의 생성 속도를 달성했다. RTX 3090 GPU 환경에서 1초 분량의 애니메이션을 0.6초 내외로 생성할 수 있으며, 이로 인해 게임 캐릭터 제어, 가상 인간의 동작 생성, 애니메이션 제작 도구 등 다양한 산업 현장에서 즉시 활용이 가능하다. FAQ Q. MotionReFit은 어떤 점에서 기존 모션 생성 AI와 다른가요? A: 기존 AI는 정해진 모션 샘플과 지시문 조합만 학습하기 때문에 새로운 스타일이나 복잡한 편집에는 한계가 있었습니다. 반면 MotionReFit은 MotionCutMix라는 기술로 다양한 신체 부위 모션을 혼합해 새로운 학습 데이터를 생성하고, 자연어 지시만으로도 정교한 모션 편집이 가능합니다. 감정 표현이나 복합 동작도 훨씬 자연스럽게 구현됩니다. Q. 이 기술이 실제로 어디에 활용될 수 있나요? A: MotionReFit은 게임 캐릭터의 실시간 동작 제어, 애니메이션 제작 자동화, 가상 인간의 감정 표현 등 다양한 분야에 활용될 수 있습니다. 특히 한 줄의 문장만으로도 '우울하게 걷기' 같은 감정 기반 동작이 가능해져, 인터랙티브 콘텐츠나 XR 환경에서 실시간 캐릭터 제어에 큰 강점이 있습니다. Q. MotionReFit을 사용하려면 많은 데이터를 직접 준비해야 하나요? A: 아닙니다. MotionReFit은 적은 양의 주석 데이터만으로도 고성능을 발휘할 수 있도록 설계되었습니다. MotionCutMix를 통해 대량의 무주석 데이터를 조합해 학습 데이터를 자동으로 확장할 수 있기 때문에, 기존 시스템보다 훨씬 효율적인 학습이 가능합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.15 20:52AI 에디터

챗GPT에서 브랜드 노출 극대화하려면 어떻게 해야 할까

이미 도래한 AI 현실: 고객 지원 95%를 담당하는 이커머스의 새로운 기준 인공지능(AI)은 이미 도래한 현실이다. 이커머스 업계는 빠르게 진화하고 있으며, 2025년 말까지 고객 지원 상호작용의 95%가 AI에 의해 처리될 전망이다. 미국의 종합 디지털 마케팅 에이전시 Go Fish Digital가 진행한 조사에 따르면, AI를 활용하는 브랜드들은 더 높은 고객 참여율과 전환율을 기록하고 있다. AI는 이제 현대 이커머스 마케팅의 근간으로 자리 잡았으며, 성장, 개인화, 운영 자동화를 주도하고 있다. 경쟁사들이 AI를 마케팅 계획에 통합하는 추세도 두드러진다. 주요 뉴스 사이트들은 챗GPT(ChatGPT)로부터 6개월 전에 비해 8배 증가한 350만 명 이상의 방문자를 유입시키고 있어 AI 플랫폼의 영향력이 급속도로 확대되고 있음을 보여준다. 더욱 주목할 점은 마케터의 90%가 2025년에 AI 예산을 늘릴 계획을 세우고 있으며, 현재 기업의 65%가 생성형 AI를 정기적으로 사용하고 있다는 사실이다. 이 수치는 불과 10개월 전과 비교해 2배 가까이 증가한 것으로, AI 기술 채택이 빠르게 가속화되고 있음을 시사한다. 주간 4억 사용자를 보유한 챗GPT: 43% 더 민첩한 비즈니스 의사결정을 가능케 하는 LLM 대규모 언어 모델(LLM)은 이커머스 비즈니스에 여러 혁신을 가져오고 있다. AI 챗봇은 24/7 고객 지원을 강화하고, 제품 설명, 블로그, 이메일, 소셜 미디어 콘텐츠를 자동화한다. AI를 사용하는 기업들은 43% 더 뛰어난 민첩성과 40% 향상된 의사 결정력을 경험하고 있다. 2025년 2월 기준 챗GPT 통계에 따르면 주간 사용자는 4억 명, 사이트 방문은 47억 건에 달한다. 이러한 첨단 AI 기술은 이커머스 환경에서 다양하고 실질적인 방식으로 활용된다. 스마트 챗봇 시스템은 방대한 제품 카탈로그와 고객 문의 데이터베이스에서 관련 정보를 신속하게 찾아내 고객 지원 경험을 크게 개선한다. 또한 AI 기반 추천 엔진은 사용자의 검색 이력, 구매 패턴, 유사 고객의 행동 데이터를 분석하여 개인화된 제품 발견을 향상시킨다. SEO에 최적화된 제품 설명은 검색 엔진에서의 유기적 가시성을 높여 트래픽을 증가시킨다. 특히 주목할 만한 점은 AI가 "운동화"와 "스니커즈" 같은 단어 간의 의미론적 관계를 인식하여 소비자의 실제 의도를 더 정확히 파악함으로써, 더 스마트한 검색 결과와 제품 추천이 가능해진다는 것이다. 수익 25% 증가시키는 AI 개인화: 의도 기반 검색으로 고객 경험 혁신 현대 이커머스 환경에서 개인화는 더 이상 선택이 아닌 필수 요소로 자리 잡았다. AI 기반 추천 시스템은 고객의 과거 구매 이력, 검색 패턴, 웹사이트 행동 데이터를 종합적으로 분석하여 각 고객에게 가장 적합한 제품을 제안함으로써 평균 주문 금액(AOV)을 크게 증가시킨다. 더욱 진화된 검색 알고리즘은 단순히 키워드 매칭을 넘어 고객의 실제 의도를 파악한다. 예를 들어, 고객이 "가벼운 여름 신발"을 검색할 때, AI는 이것이 실제로 특정 무게의 제품이 아닌 통기성이 좋고 여름에 적합한 스타일을 찾는다는 의도를 이해할 수 있다. 또한 AI는 고객 리뷰에 대한 감정 분석을 수행하여 제품의 어떤 측면이 호평을 받는지, 어떤 부분이 개선이 필요한지를 자동으로 식별하여 마케팅 메시징을 최적화한다. 이러한 종합적인 AI 기반 개인화 전략을 도입한 브랜드들은 평균적으로 25%의 수익 증가를 경험하고 있다. 4시간 작업을 4분으로: 세포라의 AI 챗봇으로 지원 비용 90% 절감한 지능형 에이전트 혁명 AI 기술은 이제 단순한 자동화를 넘어서 이커머스 운영 전반에 걸쳐 실시간 의사 결정을 수행하는 단계로 진화하고 있다. 현재 이커머스 기업들이 도입하고 있는 AI 접근 방식은 크게 두 가지로 구분할 수 있다. 첫째, 에이전트 워크플로우 방식에서는 AI가 사전 정의된 작업을 지원하되 최종 결정은 인간의 감독 하에 이루어진다. 이러한 방식은 시시각각 변하는 시장 상황에 맞춰 경쟁사 가격을 스캔하고 최적의 가격 조정을 제안하는 동적 가격 책정 분석, 개인화된 이메일 카피를 생성하고 인간의 최종 승인을 기다리는 AI 지원 이메일 마케팅, 경쟁사 및 페이지 콘텐츠를 검토하여 SEO 권장 사항을 제공하는 페이지 수준의 SEO 연구 등에 효과적으로 활용된다. 특히 주목할 만한 사례로 Go Fish Digital이 개발한 바라쿠다(Barracuda) 워크플로우는 구글의 검색 알고리즘 특허와 법정 증언에 기반한 검색 의도, 콘텐츠 신선도, 의미적 관련성 등 12개 주요 변수를 종합적으로 분석하여 복잡한 SEO 리서치 시간을 놀랍게도 4시간에서 단 4분으로 단축시켰다. 둘째, 자율 에이전트 방식에서는 AI가 완전히 독립적으로 작동하여 인간의 개입 없이 운영을 처리한다. 예를 들어, 재고 관리 영역에서는 AI가 과거 판매 데이터, 시장 트렌드, 심지어 날씨 패턴까지 분석하여 미래 수요를 정확히 예측하고 필요할 때 자율적으로 재고를 보충한다. 고객 서비스 분야에서는 AI 챗봇이 제품 문의, 반품 요청, 배송 상태 확인 등 복잡한 문의를 인간 상담원으로의 에스컬레이션 없이 직접 해결한다. 경쟁사 분석에서는 AI가 온라인 시장을 지속적으로 모니터링하여 경쟁사의 가격 변동, 프로모션 전략, 신제품 출시를 감지하고, 이에 대응하여 자사의 가격을 조정하거나 새로운 마케팅 기회를 식별한다. 이러한 혁신적인 AI 접근 방식이 실제 비즈니스에 가져온 성공 사례는 다양한 산업에서 확인되고 있다. 글로벌 뷰티 기업 세포라(Sephora)는 고도로 훈련된 AI 챗봇 시스템을 도입해 고객 문의의 70%를 완전 자동화 방식으로 처리하는 데 성공했다. 이 시스템은 제품 추천부터 매장 위치 안내, 주문 상태 확인까지 다양한 문의를 처리하며, 그 결과 고객 지원 관련 운영 비용을 놀라운 90%까지 절감했다. 또한 이커머스 거인 아마존(Amazon)은 AI 기반 광고 콘텐츠 생성 시스템을 통해 광고 크리에이티브 제작 과정을 자동화했다. 이 시스템은 제품 이미지, 카테고리, 가격 등의 데이터를 분석하여 다양한 형식의 맞춤형 광고를 생성하며, 이로 인해 광고 제작 비용을 80%나 절감하는 동시에 광고 효과는 향상시키는 놀라운 성과를 거두었다. 최근에는 챗GPT 오퍼레이터와 같은 혁신적인 도구가 등장하여 AI의 활용 범위를 더욱 확장하고 있다. 이 도구는 마우스, 키보드, 브라우저 사용 방법을 마치 인간처럼 학습하여 웹사이트를 자유롭게 탐색할 수 있다. 이를 통해 경쟁사 웹사이트를 분석하고 가격, 제품 세부 정보, 프로모션 전략 등에 대한 포괄적인 연구를 수행하며, 수집한 정보를 자동으로 구글 문서에 체계적으로 정리한다. 또한 이러한 작업을 한 번 설정해두면 매일 같은 시간에 자동으로 반복 실행하도록 프로그래밍할 수 있어, 반복적인 시장 조사 업무를 완전히 자동화할 수 있다. 이러한 추세 속에서 가장 성공적인 이커머스 브랜드들은 두 가지 AI 접근 방식을 전략적으로 결합하는 하이브리드 전략을 채택하고 있다. 제품 설명 검토, 마케팅 메시지 승인, 고객 커뮤니케이션 설계와 같이 창의성과 브랜드 일관성이 중요한 영역에서는 인간의 최종 검증이 필요한 에이전트 워크플로우를 활용한다. 반면에 재고 수준 모니터링, 루틴 고객 지원, 기본적인 데이터 분석과 같이 반복적이고 규모가 큰 작업에는 완전 자율 에이전트를 배치하여 효율성을 극대화한다. 이러한 트렌드는 산업 전반에 걸쳐 빠르게 확산되고 있으며, 포춘 500대 기업의 70%가 이미 다양한 형태의 AI 기반 자동화를 자사의 비즈니스 프로세스에 통합하고 있다는 사실이 이를 증명한다. 마케팅 비용 100만 달러 절감: 생성형 AI로 제품 이미지와 개인화 광고 대규모 제작 생성형 AI 기술의 발전으로 미디어 콘텐츠 제작 방식이 근본적으로 변화하고 있다. 특히 이커머스 분야에서는 AI 생성 미디어가 비용 효율적으로 콘텐츠 제작을 대규모로 확장하는 혁신을 가져오고 있다. 전통적인 제품 촬영은 스튜디오 대여, 사진작가 고용, 모델 섭외, 장비 구입 등으로 한 제품당 수백 달러가 소요되는 반면, AI 생성 제품 이미지는 기존 제품 사진 몇 장만 있으면 다양한 배경, 조명, 각도에서의 이미지를 순식간에 생성할 수 있다. 이를 통해 브랜드들은 비싼 사진 촬영에 대한 의존도를 크게 줄이고 있다. 또한 개인화된 AI 기반 광고와 이메일 마케팅은 고객 세그먼트별로 맞춤형 콘텐츠를 자동 생성하여 전환율을 획기적으로 높이고 있다. 특정 고객의 구매 이력, 검색 패턴, 인구통계적 특성을 분석하여 그에 가장 적합한 메시지와 시각적 요소를 조합한 광고가 실시간으로 제작되는 것이다. 다국어 및 현지화된 콘텐츠 생성 역시 AI의 강점이다. 과거에는 각 국가별로 번역사와 현지 마케팅 전문가를 고용해야 했지만, 이제는 AI가 원본 콘텐츠를 다양한 언어로 번역할 뿐만 아니라 문화적 뉘앙스까지 자연스럽게 조정하여 브랜드의 글로벌 시장 확장을 가속화하고 있다. 이러한 혁신적인 AI 생성 미디어 기술을 전면적으로 도입한 브랜드들은 마케팅 제작 비용을 최대 100만 달러까지 절감하는 놀라운 성과를 거두고 있다. 컨버전율 40% 향상시키는 AI 쇼핑 어시스턴트: 이커머스 비즈니스의 5가지 혁신 포인트 이러한 AI 혁신은 이커머스 비즈니스 전반에 걸쳐 다섯 가지 핵심 영역에서 획기적인 변화를 이끌고 있다. 첫째, 더 스마트한 검색 및 제품 발견 기능은 고객 경험을 근본적으로 향상시키고 있다. 전통적인 키워드 기반 검색과 달리 AI 기반 검색 엔진은 고객의 의도를 정확히 파악하여 관련성 높은 결과를 제공한다. 예를 들어, 고객이 "휴가용 가벼운 드레스"를 검색하면 AI는 계절성, 소재의 통기성, 스타일 트렌드를 고려한 맞춤형 결과를 보여준다. 이러한 지능형 검색 시스템을 도입한 이커머스 사이트들은 검색 결과에서 제품을 찾는데 소요되는 시간이 37% 단축되고 고객 만족도가 48% 향상되는 효과를 경험했다. 둘째, 더 나은 제품 추천 알고리즘은 고객의 장바구니 가치를 크게 증가시킨다. AI는 단순히 "이 제품을 구매한 고객이 구매한 다른 제품"을 넘어, 고객의 과거 구매 패턴, 검색 이력, 사이트 내 행동, 유사 프로필 고객의 선호도를 종합적으로 분석하여 개인화된 추천을 제공한다. 이로 인해 추천 클릭률이 65% 증가하고, 평균 주문 금액이 35% 상승하며, 크로스셀 및 업셀 성공률이 43% 향상되는 결과가 나타났다. 셋째, 자동화된 고객 지원 시스템은 고객 서비스 품질을 향상시키면서 동시에 운영 비용을 절감한다. AI 챗봇은 제품 문의, 주문 상태 확인, 반품 요청 처리와 같은 반복적인 질문에 즉시 응답하여 고객 대기 시간을 평균 92% 감소시켰다. 더욱 주목할 만한 점은 고급 AI 시스템이 고객의 감정과 맥락을 인식하여 필요한 경우 실제 상담원에게 원활하게 전환할 수 있다는 것이다. 이러한 하이브리드 접근 방식을 통해 고객 지원 비용이 최대 78% 감소했으며, 고객 만족도는 오히려 29% 증가했다. 넷째, 동적이고 개인화된 콘텐츠는 고객 참여도와 브랜드 충성도를 높인다. AI는 고객의 위치, 날씨, 기기 유형, 방문 시간대, 이전 방문 행동에 따라 웹사이트 콘텐츠를 실시간으로 조정한다. 한 글로벌 패션 리테일러는 이러한 동적 콘텐츠 전략을 도입한 후 이메일 오픈률이 34% 증가하고, 사이트 체류 시간이 27% 연장되었으며, 반복 구매율이 41% 향상되는 성과를 거두었다. 다섯째, 이 모든 AI 기반 혁신은 궁극적으로 더 높은 고객 만족도와 매출 증가로 이어진다. AI 개인화 솔루션을 전면적으로 도입한 기업들은 고객 만족도 지수(CSAT)가 평균 42% 향상되고, 고객 생애 가치(CLV)가 38% 증가했으며, 전체 매출이 평균 32% 상승하는 놀라운 결과를 경험했다. 특히 패션, 화장품, 전자제품과 같이 제품 다양성이 높고 개인 취향이 중요한 분야에서 AI의 효과가 더욱 두드러졌다. 챗GPT에서 브랜드 노출 극대화하기: SEO-디지털PR-전통PR 통합 전략 챗GPT에서 브랜드 노출을 극대화하기 위해서는 SEO, 디지털 PR, 전통 PR을 포괄하는 통합적인 "Answer Engine Optimization" 전략이 필요하다. SEO 측면에서는 대규모 언어 모델(LLM)이 사용하는 의미론적 평가 방식을 이해하고 이에 맞게 콘텐츠를 최적화해야 한다. 특히 챗GPT 검색 기능이 Bing 검색엔진을 활용한다는 점을 고려하여 Bing에 최적화된 콘텐츠를 개발하는 것이 중요하다. 또한 사용자들이 AI와의 대화에서 주로 사용하는 장문형 질문에 효과적으로 대응할 수 있는 콘텐츠를 식별, 생성 및 최적화하는 작업이 필수적이다. 디지털 PR 전략에서는 웹 전반에 걸쳐 브랜드와 핵심 키워드에 대한 인용을 확산시키는 콘텐츠 마케팅 캠페인을 실행해야 한다. 특히 OpenAI와 알고리즘 학습 계약을 맺은 출판물로부터 링크를 확보하는 것은 챗GPT에서의 브랜드 인지도를 높이는 데 직접적인 효과가 있다. 이러한 디지털 PR 전략은 챗GPT뿐만 아니라 구글 검색에서의 가시성도 함께 향상시키는 이점이 있다. 전통적인 PR 접근법에서는 브랜드의 독특한 정체성과 차별점을 강조하는 특집 기사를 통해 LLM이 브랜드의 고유한 특성을 정확히 이해하도록 해야 한다. 이를 위해 비즈니스 모델, 제품 라인업, 서비스 철학 등에 대한 심층적인 정보를 제공하는 PR 캠페인을 전개하는 것이 효과적이다. 이러한 세 가지 접근법을 통합적으로 활용함으로써, 브랜드는 소비자들이 점점 더 많이 활용하고 있는 AI 대화형 플랫폼에서 자연스럽게 언급되고 추천될 수 있는 기반을 마련할 수 있다. FAQ Q: 소규모 이커머스 비즈니스도 AI 기술을 활용할 수 있나요? A: 네, 다양한 가격대의 AI 도구가 있어 소규모 비즈니스도 충분히 활용할 수 있습니다. 챗GPT와 같은 기본적인 AI 도구부터 시작하여 제품 설명 생성, 고객 서비스 개선, 마케팅 콘텐츠 작성에 활용할 수 있습니다. 비용 대비 효과가 높은 솔루션으로 경쟁력을 유지할 수 있습니다. Q: AI를 이커머스에 도입할 때 가장 먼저 시작해야 할 영역은 무엇인가요? A: 고객 서비스와 제품 설명 자동화가 가장 빠른 성과를 볼 수 있는 영역입니다. AI 챗봇을 도입하여 고객 문의의 70%까지 처리할 수 있으며, AI로 SEO에 최적화된 제품 설명을 생성하면 검색 가시성과 전환율을 높일 수 있습니다. 이러한 영역은 비교적 구현이 쉽고 즉각적인 ROI를 제공합니다. Q: AI 도입 시 개인정보 보호와 관련된 우려점은 없나요? A: 개인정보 보호는 AI 도입 시 중요한 고려사항입니다. 고객 데이터를 처리하는 AI 시스템을 선택할 때는 데이터 보안 정책, 암호화 방법, 규정 준수 여부를 확인해야 합니다. 또한 고객에게 데이터 사용 방식을 투명하게 공개하고, AI 시스템이 편향되지 않도록 정기적으로 모니터링하는 것이 중요합니다. 신뢰할 수 있는 공급업체와 협력하고 개인정보 보호법을 준수하는 솔루션을 선택하세요. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.15 11:15AI 에디터

AI는 어떻게 사람 말 이해할까…위스퍼가 인간처럼 생각하는 증거 발견

100시간 일상 대화 기록으로 밝혀낸 뇌와 AI의 처리 방식 일치성 자연스러운 일상 대화는 인간만이 가진 가장 특별한 능력 중 하나다. 네이처 휴먼 비헤이비어(Nature Human Behaviour)에 게재된 연구에서 과학자들은 인간 뇌가 실제 대화에서 언어를 처리하는 방식을 이해하기 위한 획기적인 접근법을 선보였다. 구글 리서치(Google Research) 소속의 아리엘 골드스타인 박사와 프린스턴 신경과학 연구소 소속의 우리 하손(Uri Hasson) 연구팀은 통합된 음향-음성-언어 임베딩 공간을 활용하여 인간 뇌의 자연어 처리 과정을 분석했다. 특히 주목할 점은 오픈AI의 음성 인식 모델인 '위스퍼(Whisper)'의 내부 표현이 뇌의 활동 패턴과 놀랍도록 일치한다는 사실이다. 연구팀은 뇌전도(electrocorticography)를 사용해 4명의 환자가 약 100시간 동안 자연스러운 대화를 나누는 동안의 신경 신호를 기록했다. 이는 약 52만 단어에 해당하는 방대한 양의 데이터를 포함한다. 연구자들은 위스퍼 모델에서 추출한 임베딩(embedding)을 사용하여 뇌 활동을 예측하는 모델을 구축했다. 이 접근법은 기존의 언어학적 분석 방식과 달리, 인위적인 실험 환경이 아닌 실제 생활 속 자연스러운 대화를 분석했다는 점에서 큰 의의가 있다. 상측두회는 음성 처리, 하전두회는 언어 처리: AI 모델과 인간 뇌의 계층적 유사성 연구 결과, 위스퍼 모델의 내부 표현은 인간 뇌의 자연어 처리 계층 구조와 놀랍도록 잘 일치했다. 모델의 음성 임베딩은 상측두회(superior temporal gyrus)와 운동감각 영역과 같은 하위 수준의 지각 및 운동 영역의 활동을 더 잘 예측했다. 반면, 언어 임베딩은 하전두회(inferior frontal gyrus)와 각회(angular gyrus)와 같은 고차원 언어 영역의 활동을 더 잘 예측했다. 특히 주목할 만한 점은 위스퍼 모델이 음성 산출(발화) 전 약 300ms에서 언어-음성 인코딩의 시간적 순서를 정확히 포착했으며, 음성 이해 과정에서는 발화 후 음성-언어 인코딩의 역순을 포착했다는 점이다. 이런 결과는 인간 뇌와 AI 모델 사이의 유사성이 단순한 우연이 아니라, 언어 처리의 기본 원리를 반영한다는 것을 시사한다. 연구의 공동 저자인 아리엘 골드스타인(Ariel Goldstein)은 "위스퍼와 같은 모델의 내부 표현이 인간 뇌의 자연어 처리 과정과 상당히 일치한다는 사실이 놀랍다"고 말했다. 이는 신경과학과 AI의 교차점에서 새로운 통찰력을 제공하는 중요한 발견이다. 딥러닝 모델, 54~67% 정확도로 음소와 품사 예측하며 전통적 언어학 모델 압도 또 다른 중요한 발견은 위스퍼와 같은 딥 러닝 모델이 음소(phoneme), 품사(part of speech) 등 전통적인 상징적 언어학 모델보다 뇌 활동을 예측하는 데 훨씬 우수했다는 점이다. 연구팀은 상징적 언어 특성을 벡터화하여 비교했는데, 위스퍼의 임베딩이 모든 뇌 영역에서 뛰어난 예측력을 보였다. 위스퍼 모델이 명시적으로 음소나 품사와 같은 전통적인 언어학적 요소를 사용하여 학습되지 않았음에도 불구하고, 이러한 특성들이 모델 내부에서 자연스럽게 등장했다는 점도 주목할 만하다. 연구팀은 음성 임베딩에서 약 54%의 정확도로 음소를 분류할 수 있었고, 언어 임베딩에서는 약 67%의 정확도로 품사를 분류할 수 있었다. 이는 단순한 통계적 학습만으로도 의미 있는 언어학적 패턴이 자연스럽게 형성될 수 있음을 보여준다. 언어학의 패러다임 전환: 규칙 기반에서 통계적 학습 기반으로 이 연구는 자연어 처리에 대한 접근 방식에 큰 변화를 시사한다. 전통적인 언어학은 언어를 개별적인 하위 영역(음성학, 음운론, 형태론, 구문론, 의미론, 화용론 등)으로 나누어 연구하는 접근법을 취했다. 그러나 이러한 분할 정복 전략은 실제 대화에서 발생하는 미묘하고 비선형적인 상호작용을 설명하는 데 한계가 있었다. 이번 연구는 딥 러닝 기반의 통합된 계산 프레임워크가 인간의 자연어 처리 과정을 더 정확하게 모델링할 수 있음을 보여준다. 이는 "언어에 대한 상징적 접근법에서 통계적 학습과 고차원 임베딩 공간을 기반으로 한 모델로의 패러다임 전환"이라고 연구팀은 설명한다. 프린스턴 대학의 우리 하손(Uri Hasson) 교수는 "우리 연구는 상징적 규칙 기반 언어 모델에서 벗어나, 통계적 학습과 고차원 임베딩 공간에 기반한 새로운 모델 계열로의 전환을 제시한다"고 말했다. 이러한 모델은 자연스러운 대화의 풍부함과 다양성을 유지하면서도 실세계 데이터에서 언어 산출과 이해의 신경학적 기반을 설명할 수 있다. FAQ Q: 이 연구가 인공지능과 뇌과학에 어떤 의미가 있나요? A: 이 연구는 AI 모델의 내부 작동 방식이 인간 뇌의 언어 처리 과정과 유사하다는 것을 보여줍니다. 이는 AI가 단순히 언어를 모방하는 것이 아니라, 인간의 언어 처리 메커니즘과 유사한 방식으로 작동할 수 있음을 시사합니다. 이런 유사성은 더 인간적인 AI 시스템 개발에 중요한 통찰력을 제공합니다. Q: 위스퍼(Whisper) 모델이 무엇이며 이 연구에서 왜 중요한가요? A: 위스퍼는 오픈AI가 개발한 음성 인식 모델로, 음향 신호를 텍스트로 변환하는 데 뛰어난 성능을 보입니다. 이 연구에서 위스퍼는 음향, 음성, 언어 수준의 정보를 모두 처리할 수 있는 통합 모델로 사용되었으며, 그 내부 표현이 인간 뇌의 활동 패턴과 놀랍도록 일치한다는 점이 밝혀졌습니다. Q: 전통적인 언어학적 접근법과 딥 러닝 모델의 주요 차이점은 무엇인가요? A: 전통적인 언어학은 음소, 품사와 같은 상징적 단위를 사용하여 언어를 분석합니다. 반면, 딥 러닝 모델은 이산적 상징 대신 다차원 벡터 표현(임베딩)을 사용합니다. 이 연구에 따르면, 딥 러닝 모델의 접근법이 실제 뇌 활동을 예측하는 데 더 효과적이며, 자연 언어의 복잡한 맥락 의존적 상호작용을 더 잘 포착할 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.14 23:47AI 에디터

[Q&AI] 이재명, 출마 선언 후 첫 공식 일정으로 AI기업 방문… 왜?

질문: 이재명이 퓨리오사AI를 방문했던데, 그 이유가 뭐야? 그록 답변: 이재명 더불어민주당 대선 예비후보가 2025년 4월 14일 퓨리오사AI를 방문한 이유는 대선 출마 선언 후 첫 공식 일정으로 '성장경제' 행보를 강조하기 위해서였습니다. 그는 글로벌 AI 반도체 시장에서 한국의 기술력을 알리고, 엔비디아의 독점을 깰 수 있는 퓨리오사AI의 잠재력을 조명하며 AI 산업의 비전과 지원 정책을 제시하고자 했습니다. 또한, 백준호 퓨리오사AI 대표 등과 간담회를 통해 정부와 기업 간 협력 방안을 논의하고, 첨단 산업에 대한 국가 주도 투자의 필요성을 부각시키려는 전략으로 보입니다. 이번 방문은 이재명이 주장하는 'K-이니셔티브'의 일환으로, AI와 반도체 같은 미래 산업을 통해 한국이 세계를 선도할 수 있다는 메시지를 전달하려는 의도로 해석됩니다. 질문2: 퓨리오사 AI는 어떤 회사인지 알려줘. 그록 답변: 퓨리오사AI(Furiosa AI)는 2017년 4월 설립된 한국의 AI 반도체 설계 전문 팹리스 스타트업으로, 서울 강남구에 본사를 두고 있습니다. 백준호 대표가 이끄는 이 회사는 AI 연산에 최적화된 신경망처리장치(NPU)를 개발하며, 데이터센터와 자율주행 시장을 주요 타겟으로 삼고 있습니다. 주요 제품으로는 1세대 'Vision NPU'(구 WARBOY)와 2세대 '레니게이드(Renegade)'가 있으며, 특히 레니게이드는 SK하이닉스의 HBM3 메모리를 탑재해 엔비디아 대비 최대 60% 높은 전성비(전력 대비 효율)를 자랑합니다. 퓨리오사AI는 하드웨어 설계뿐 아니라 소프트웨어 스택(컴파일러, SDK 등)도 자체 개발해 AI 모델의 추론 성능을 최적화하며, 글로벌 벤치마크 MLPerf에서 경쟁력을 입증했습니다. 삼성전자, AMD 출신 엔지니어들이 창업 멤버로 참여했으며, 네이버, 산업은행, DSC인베스트먼트 등으로부터 약 1,700억 원의 누적 투자를 유치했습니다. 2023년 매출은 약 36억 원, 직원 수는 약 127명 규모입니다. 2025년 초 메타의 인수 제안을 거절하며 독자적 성장을 선택했고, TSMC의 5나노 공정을 활용해 레니게이드를 양산 중입니다. 회사명은 영화 매드맥스의 '퓨리오사'에서 영감을 받아, 기득권에 도전하는 혁신적 이미지를 반영합니다. 2026년 기업공개(IPO)를 목표로 글로벌 AI 반도체 시장에서 엔비디아의 대안으로 주목받고 있습니다. ■ 해당 기사는 그록을 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.04.14 23:29AI 에디터

AI는 튀김과 구이 구별할 수 있을까…식품 인식 기술 검증 결과

비공개 소스 AI 모델, 식품 인식에서 90% 이상의 정확도 달성 인공지능(AI) 발전으로 식품 이미지 인식 기술이 크게 향상되었다. 특히 비전-언어 모델(Vision-Language Models, VLM)이 텍스트와 이미지 데이터를 통합하여 식품 인식에 새로운 가능성을 제시하고 있다. 마드리드 자치대학교와 IMDEA 푸드 연구소 연구팀은 식품 영양 전문가 태그 데이터베이스(FoodNExTDB)를 개발하고, 비전-언어 모델 6종의 식품 인식 능력을 평가했다. 연구 결과, 비공개 소스 모델들이 공개 소스 모델보다 우수한 성능을 보였으며, 단일 제품 이미지에서는 90% 이상의 전문가 가중 회상률(Expert-Weighted Recall, EWR)을 달성했다. 그러나 현재 비전-언어 모델은 요리 스타일 구분이나 외관이 유사한 식품 간 차이 식별과 같은 세부적인 식품 인식에 여전히 어려움을 겪는 것으로 나타났다. 7명의 영양 전문가가 검증한 9,263개 이미지 - FoodNExTDB 데이터베이스의 특징 연구팀은 체중 감량 임상시험에 참여한 개인들의 실제 식이 기록에서 추출한 9,263개의 식품 이미지로 구성된 FoodNExTDB를 소개했다. 이 데이터베이스의 특징은 7명의 영양 전문가가 모든 이미지를 검토하여 약 5만 개의 라벨을 생성했다는 점이다. 각 이미지는 10개의 주요 식품 카테고리(예: "단백질 공급원", "채소 및 과일" 등), 62개의 하위 카테고리(예: "가금류", "과일" 등), 그리고 9개의 조리 스타일(예: "구운", "삶은" 등)로 체계적으로 분류되었다. 이러한 구조화된 분류법은 식품 인식 모델 평가에 있어 중요한 기준을 제공한다. 각 참가자는 평균적으로 약 96개의 식품 이미지를 촬영했으며, 이미지의 약 79%는 스페인의 주요 식사 시간(아침, 점심, 저녁)에 촬영되었다. 가장 자주 할당된 식품 카테고리는 "채소 및 과일"(약 28%), "곡물 및 콩류"(약 17%), "음료"(약 16%)였다. 하위 카테고리 수준에서는 "채소"(약 13%), "과일"(약 13%), "빵"(약 8%)이 가장 많았다. Gemini 70.16%, ChatGPT 64.32% - 비전-언어 모델 6종의 식품 인식 성능 비교 연구팀은 ChatGPT(GPT-4o), Gemini 2.0 Flash, Claude 3.5 Sonnet과 같은 비공개 소스 모델과 Moondream, DeepSeek Janus-Pro, LLaVA와 같은 공개 소스 모델을 포함한 6종의 비전-언어 모델을 평가했다. 비공개 소스 모델들은 모든 분류 수준에서 공개 소스 모델보다 일관되게 우수한 성능을 보였다. Gemini는 모든 수준에서 평균 70.16%의 EWR을 달성하여 가장 높은 성능을 보였으며, ChatGPT(64.32%)와 Claude(65.86%)도 강력한 성능을 유지했다. 분류 복잡성이 증가함에 따라 모든 모델의 성능이 저하되었다. 예를 들어, Gemini의 EWR은 카테고리 수준에서 85.79%였으나, 카테고리+하위 카테고리 수준에서는 74.69%, 카테고리+하위 카테고리+조리 스타일 수준에서는 50.00%로 감소했다. 공개 소스 모델 중에서는 Moondream이 DeepSeek과 LLaVA보다 우수한 성능(평균 54.71% 대 34.04%, 47.00%)을 보였다. DeepSeek은 식품 데이터셋에 대한 노출이 제한적이어서 가장 낮은 평균 EWR(34.04%)을 기록했다. "튀김"과 "조림" 구분에 어려움 - 비전-언어 모델의 조리 스타일 인식 한계 연구 결과, 비전-언어 모델들은 이미지의 복잡성에 따라 성능 차이를 보였다. DeepSeek을 제외한 모든 모델은 단일 제품 이미지에서 다중 제품 이미지보다 높은 성능을 보였다. ChatGPT, Gemini, Claude, Moondream과 같은 모델들은 단일 제품 이미지에서 90% 이상의 EWR을 달성했다. 카테고리 수준에서는 "곡물 및 콩류", "단백질 공급원", "유제품 및 식물성 음료"와 같은 식품 카테고리 인식에 비전-언어 모델들이 우수한 성능을 보였다. 하위 카테고리 수준에서는 "과일"이 "채소"보다, "생선"이 "가금류"보다 더 정확하게 인식되었다. "파스타"도 "쌀"보다 더 자주 인식되었다. 조리 스타일 수준에서는 모든 모델이 상당한 어려움을 겪었다. "신선한" 스타일이 가장 식별하기 쉬웠고, "구운" 스타일이 그 뒤를 이었으나, "튀긴"과 "조림" 스타일은 가장 정확하게 예측되지 않았다. 이는 비전-언어 모델들이 미세한 시각적 차이를 구분하는 데 여전히 한계가 있음을 시사한다. 웨어러블 기기와 AI의 만남 - 개인화된 영양 관리의 미래 전망 식이 분석은 영양학에서 여러 관련 요소를 고려해야 하는 주요 과제로 남아있다. 순수한 이미지 인식 모델들이 식품 인식 분야에서 크게 향상되었지만, 복잡한 다중 식품 이미지를 처리하고 충분한 맥락 이해를 제공하는 데는 여전히 어려움을 겪고 있다. 비전-언어 모델은 텍스트 및 시각적 추론을 통합하여 식품 인식 및 식이 분석에서 설명 가능성을 향상시키는 유망한 대안을 제시한다. 그러나 추가적인 다중 모달 데이터 통합이 필요한 조리 스타일 식별과 같은 세부적인 작업에는 여전히 어려움을 겪고 있다. 연구팀은 개인화된 영양 전략과 비전-언어 모델을 통합하면 식이 추적과 만성 질환 예방을 개선할 수 있다고 제안한다. 웨어러블 기기, 식이 설문지, 전문가 감독에서 얻은 다중 모달 데이터와 AI 기반 식품 인식을 결합하면 자동화된 식이 평가의 정확성과 준수도를 향상시킬 수 있을 것이다. FAQ Q: 비전-언어 모델(VLM)이란 무엇인가요? A: 비전-언어 모델은 이미지와 텍스트 데이터를 함께 처리할 수 있는 인공지능 모델입니다. 이 모델들은 시각적 정보와 언어적 정보를 통합하여 더 포괄적인 이해를 제공하며, 식품 인식과 같은 작업에서 기존 모델보다 더 나은 성능을 발휘할 수 있습니다. Q: 연구에서 사용된 FoodNExTDB는 어떤 데이터베이스인가요? A: FoodNExTDB는 9,263개의 식품 이미지로 구성된 데이터베이스로, 체중 감량 프로그램에 참여한 실제 참가자들의 식사 기록에서 수집되었습니다. 7명의 영양 전문가가 각 이미지를 검토하여 10개의 식품 카테고리, 62개의 하위 카테고리, 9개의 조리 스타일로 분류했으며, 총 5만 개 이상의 라벨을 생성했습니다. Q: 왜 비전-언어 모델은 조리 스타일 인식에 어려움을 겪나요? A: 조리 스타일 인식은 미세한 시각적 차이를 구분해야 하는 복잡한 작업입니다. 비전-언어 모델은 기본적인 식품 카테고리 인식에는 강하지만, "튀긴", "구운", "삶은" 등의 조리 방법 구분은 더 세밀한 특징을 요구합니다. 또한 이미지만으로는 조리 과정이나 사용된 소스, 기름 등을 정확히 파악하기 어렵기 때문에 이러한 세부적인 분류에 한계가 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.14 13:31AI 에디터

中 유니트리, G1 로봇 복싱 대결 예고… 로봇 스포츠의 새 지평 열까

유니트리 로보틱스(Unitree Robotics)가 인간형 로봇 '유니트리 G1'을 활용한 로봇 복싱 경기를 다음 달 라이브 스트리밍으로 중계할 예정이라고 발표했다. 이번 행사는 인공지능(AI)과 로봇 기술의 획기적인 발전을 보여주는 이정표가 될 전망이다. 유니트리 로보틱스는 10일(한국 시간) 소셜미디어 플랫폼 X(구 트위터)를 통해 "유니트리 아이언 피스트 킹(Unitree Iron Fist King): 각성! 함께 새로운 SF 시대로 들어가 즐겨보자!"라는 메시지와 함께 약 한 달 후 로봇 전투를 라이브 스트리밍할 계획이라고 밝혔다. 유니트리 G1 로봇은 모션 캡처, 컨트롤러 또는 음성 명령을 통해 제어할 수 있으며, 지속적으로 새로운 기술을 학습하고 있다. 휴머노이드 허브(The Humanoid Hub)는 "록켐 삭켐 로봇(Rock'em Sock'em Robots)이지만 유니트리 G1과 함께!"라며 이번 발표에 대한 기대감을 표현했다. 이번 발표는 새로운 엔터테인먼트와 스포츠 형식에 대한 기대감에서부터 전투 로봇의 미래 영향에 대한 우려까지 다양한 반응을 불러일으켰다. 업계 전문가들은 이번 이벤트가 로봇 스포츠가 주류가 될 가능성을 보여주는 신호라고 분석하고 있다. 일부는 미래에 로봇 올림픽 경기가 개최될 수 있다는 비전을 제시하기도 했다. 이번 로봇 복싱 경기는 단순한 엔터테인먼트를 넘어, 로봇 공학의 기술적 진보와 사회적 수용성을 시험하는 중요한 계기가 될 것으로 보인다. 약 한 달 후 진행될 라이브 스트리밍을 통해 유니트리 G1의 실제 성능과 로봇 스포츠의 가능성을 확인할 수 있을 전망이다. ■ 기사는 클로드와 챗gpt를 활용해 작성되었습니다.

2025.04.11 14:32AI 에디터

AI, 코드 디버깅 여전히 난관… 마이크로소프트, 디버깅 능력을 갖춘 '디버그-짐' 환경 공개

개발자 시간의 대부분은 디버깅에 사용된다... 코드 작성을 넘어선 AI의 진화 AI 코딩 도구가 개발자 효율성을 증가시키며 미래 소프트웨어 개발 환경을 빠르게 변화시키고 있다. 깃허브(GitHub) CEO 토마스 동케는 "머지 않아 80%의 코드가 코파일럿(Copilot)에 의해 작성될 것"이라고 예측했으며, Y 컴비네이터(Y Combinator)의 개리 탄에 따르면 최근 Y 컴비네이터 신생 기업 중 4분의 1은 코드의 95%가 대규모 언어 모델(LLM)에 의해 작성되었다고 한다. 하지만 대부분의 개발자는 코드 작성보다 디버깅에 더 많은 시간을 소비한다. 이에 마이크로소프트 리서치팀은 AI 코딩 도구가 인간처럼 코드를 디버깅할 수 있도록 가르치는 방법에 초점을 맞추게 되었다. 디버깅이란 코드 수정을 위한 대화형 반복 프로세스를 의미하며, 개발자들은 코드가 왜 충돌했는지 가설을 세우고, 프로그램을 단계별로 진행하며 변수 값을 검사하는 등의 증거를 수집한다. 이 과정에서 pdb(Python 디버거)와 같은 디버깅 도구를 사용해 정보를 수집하고, 코드가 수정될 때까지 이 과정을 반복한다. 현재의 AI 코딩 도구는 생산성을 향상시키고 가용한 코드와 오류 메시지를 기반으로 버그 해결책을 제안하는 데 탁월하다. 그러나 인간 개발자와 달리 솔루션이 실패할 때 추가 정보를 찾지 않아 일부 버그는 해결되지 않은 채 남게 된다. 이는 사용자들이 AI 코딩 도구가 해결하려는 문제의 전체 맥락을 이해하지 못한다고 느끼게 만든다. 디버그-짐: AI가 중단점 설정부터 변수값 검사까지, 인간 개발자처럼 코드를 이해하는 환경 이런 배경에서 마이크로소프트 리서치팀은 대규모 언어 모델(LLM)이 pdb와 같은 대화형 디버깅 도구를 어느 정도까지 사용할 수 있는지를 탐구하기 위해 디버그-짐(Debug-gym)을 출시했다. 해당 기술을 소개한 논문에 따르면, 디버그-짐은 코드 수정 에이전트가 능동적인 정보 탐색 행동을 위한 도구에 접근할 수 있게 해주는 환경이다. 이 환경은 에이전트의 행동 및 관찰 공간을 도구 사용에서 얻은 피드백으로 확장하여 중단점 설정, 코드 탐색, 변수 값 출력, 테스트 함수 생성 등을 가능하게 한다. 에이전트는 도구를 사용해 코드를 조사하거나 자신감이 있다면 코드를 다시 작성할 수 있다. 연구팀은 적절한 도구를 사용한 대화형 디버깅이 코딩 에이전트가 실제 소프트웨어 엔지니어링 작업을 처리할 수 있게 하고, LLM 기반 에이전트 연구의 중심이 될 것이라고 믿는다. 디버깅 기능을 갖춘 코딩 에이전트가 제안하고 인간 프로그래머가 승인한 수정 사항은 이전에 본 훈련 데이터에만 의존하는 추측이 아니라 관련 코드베이스, 프로그램 실행 및 문서의 맥락에 기반할 것이다. 도커 컨테이너부터 JSON 형식까지... 안전하고 확장 가능한 디버그-짐의 4가지 핵심 설계 디버그-짐은 여러 목표를 염두에 두고 설계 및 개발되었다. 첫째로, 저장소 수준의 정보 처리 능력을 갖추고 있어 에이전트에게 전체 저장소를 제공함으로써 파일을 자유롭게 탐색하고 편집할 수 있는 환경을 조성한다. 둘째로, 시스템과 개발 프로세스의 안전을 보장하기 위해 샌드박스 도커 컨테이너 내에서 코드를 실행하는 견고함과 안전성을 갖추었다. 이러한 격리된 런타임 환경은 유해한 작업을 방지하면서도 철저한 테스트와 디버깅을 가능하게 한다. 셋째로, 확장성을 핵심 설계 원칙으로 삼아 실무자들이 필요에 따라 새로운 도구를 쉽게 추가할 수 있는 유연한 구조를 제공한다. 마지막으로, 관찰 정보를 JSON 형식과 같은 구조화된 텍스트로 표현하고 텍스트 작업을 위한 간결한 구문을 정의하는 텍스트 기반 접근 방식을 채택했다. 이를 통해 최신 LLM 기반 에이전트들과 원활하게 호환되는 환경을 구축했다. 디버그-짐을 사용하면 연구자와 개발자는 폴더 경로를 지정하여 디버깅 에이전트의 성능을 평가하기 위해 모든 사용자 지정 저장소에서 작업할 수 있다. 또한 디버그-짐에는 대화형 디버깅에서 LLM 기반 에이전트의 성능을 측정하기 위한 세 가지 코딩 벤치마크가 포함되어 있다: 단순 함수 수준 코드 생성을 위한 Aider, 짧고 수작업으로 만든 버그가 있는 코드 예제를 위한 Mini-nightmare, 그리고 대규모 코드베이스의 포괄적인 이해와 GitHub 풀 리퀘스트 형식의 솔루션이 필요한 실제 코딩 문제를 위한 SWE-bench. Claude 3.7은 30%, OpenAI o1은 182%... 디버깅 도구로 AI 성능 대폭 향상 연구팀은 디버깅 도구에 접근할 때 LLM이 코딩 테스트에서 더 나은 성능을 보인다는 것을 검증하기 위한 초기 시도로, 간단한 프롬프트 기반 에이전트를 구축하고 eval, view, pdb, rewrite, listdir와 같은 디버그 도구에 대한 접근 권한을 제공했다. 이 에이전트의 백본으로 9개의 다른 LLM을 사용했다. 디버깅 도구를 사용하더라도 이 간단한 프롬프트 기반 에이전트는 SWE-bench Lite 이슈의 절반 이상을 해결하는 경우가 드물었다. 연구팀은 이것이 현재 LLM 훈련 코퍼스에서 순차적 의사 결정 행동(예: 디버깅 추적)을 나타내는 데이터의 부족 때문이라고 생각한다. 그러나 성능 향상이 상당하여(Claude 3.7은 30%, OpenAI o1은 182%, OpenAI o3-mini는 160%의 상대적 성능 향상을 보임) 이것이 유망한 연구 방향임을 입증한다. FAQ Q: 디버그-짐(Debug-gym)은 정확히 무엇인가요? A: 디버그-짐은 AI 코딩 도구가 인간 프로그래머처럼 코드를 디버깅하는 방법을 배울 수 있는 환경입니다. 이 환경은 코드 수정 에이전트에게 중단점 설정, 코드 탐색, 변수 값 출력 등과 같은 능동적인 정보 탐색 행동을 위한 도구에 접근할 수 있게 합니다. Q: 왜 AI 코딩 도구에 디버깅 능력이 필요한가요? A: 대부분의 개발자는 코드 작성보다 디버깅에 더 많은 시간을 소비합니다. 현재의 AI 코딩 도구는 코드와 오류 메시지를 기반으로 버그 해결책을 제안할 수 있지만, 솔루션이 실패할 때 추가 정보를 찾지 않아 일부 버그는 해결되지 않습니다. 디버깅 능력을 갖춘 AI는 실제 소프트웨어 엔지니ering 작업을 더 효과적으로 처리할 수 있습니다. Q: 디버그-짐은 어떻게 AI 코딩 도구의 성능을 향상시키나요? A: 디버그-짐은 AI 에이전트에게 pdb와 같은 디버깅 도구에 접근할 수 있게 해주어, 코드 실행 중에 추가 정보를 수집하고 더 정확한 수정을 제안할 수 있게 합니다. 초기 실험에서 디버깅 도구에 접근할 수 있는 AI 에이전트는 도구 없이 작동하는 동일한 AI 모델보다 최대 182%의 성능 향상을 보였습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.11 14:26AI 에디터

"1분짜리 AI 영상도 가능?"…엔비디아 TTT로 만든 '톰과 제리'

AI 영상의 한계는 20초? 'TTT'는 1분짜리 복잡한 이야기까지 가능했다 기존의 생성형 AI는 몇 초 길이의 단편 영상만 생성할 수 있었다. 오픈AI(OpenAI)의 소라(Sora)는 최대 20초, 메타(Meta)의 무비젠(MovieGen)은 16초, 구글(Google)의 비오2(Veo 2)는 8초에 불과했다. 이러한 한계는 트랜스포머(Transformer) 구조의 특성에서 비롯됐다. 장문의 컨텍스트를 처리할수록 자원이 기하급수적으로 소모되기 때문이다. 실제로 엔비디아 연구팀은 “1분짜리 동영상은 3초짜리 영상 20개보다 11배 많은 시간과 12배 더 긴 훈련 시간이 필요하다”고 설명했다. 이를 해결하기 위해 기존에는 RNN(순환 신경망) 계열의 경량화된 구조인 '마암바(Mamba)', '델타넷(DeltaNet)' 등의 기법이 활용됐다. 하지만 이들은 단순한 장면에 국한되거나 복잡한 이야기 구조를 구현하지 못한다는 한계가 있었다. 이런 상황에서 엔비디아 연구팀이 발표한 논문은 기존 트랜스포머 모델에 '테스트 타임 트레이닝(Test-Time Training, 이하 TTT)' 레이어를 삽입함으로써 1분짜리 긴 영상도 자연스럽고 일관되게 생성하는 방법을 제시했다. 실제로 톰과 제리(Tom and Jerry) 에피소드를 기반으로 실험한 결과, 이 기법은 사람 평가 기준으로 기존 기법보다 평균 34점 높은 Elo 점수를 기록하며 품질 우위를 입증했다. 은닉 상태를 '신경망'으로… 기존 RNN보다 훨씬 풍부한 표현력 TTT 레이어는 기존의 RNN 구조에서 고정된 차원의 행렬로 저장되던 은닉 상태(hidden state)를, 신경망 자체로 바꾼 것이 핵심이다. 논문에서는 이 은닉 상태를 2층짜리 MLP(다층 퍼셉트론)로 구성해 비선형성과 표현력을 강화했다. 입력 시퀀스가 주어지면, TTT는 해당 시퀀스를 실시간으로 학습하면서 은닉 상태를 업데이트하며 출력을 생성한다. 이 과정을 '내부 루프(inner loop)' 학습이라고 하며, 테스트 중에도 새로운 데이터를 기반으로 학습이 진행된다는 점에서 기존 트랜스포머와 큰 차이를 보인다. 또한 비순차(non-causal) 구조의 트랜스포머 모델에도 TTT를 적용할 수 있도록, 입력 순서를 반전시켜 양방향으로 학습하는 '바이디렉션(bi-direction)' 기법도 적용했다. 이를 통해 과거뿐만 아니라 미래 시점의 정보를 함께 고려한 시퀀스 처리가 가능해졌다. 톰과 제리 7시간 분량으로 훈련… 3초→63초로 점차 확장 모델 훈련에는 1940년대 톰과 제리 에피소드 81편, 총 7시간 분량의 영상이 활용됐다. 영상은 3초 단위로 세분화되어 세부 장면, 배경, 등장인물, 카메라 움직임 등까지 포함된 서술형 텍스트(Format 3)로 정제되었다. 이를 기반으로 모델은 3초 → 9초 → 18초 → 30초 → 63초로 점진적으로 길이를 확장하는 멀티스테이지 파인튜닝(multi-stage fine-tuning)을 거쳤다. 이 방식은 기존 모델의 지식을 보존하면서도 긴 시퀀스 생성 능력을 강화할 수 있는 실용적인 방법으로 제시됐다. 훈련 속도와 메모리 효율을 높이기 위해 엔비디아(NVIDIA) Hopper GPU 아키텍처의 DSMEM 기능을 활용한 온칩 텐서 병렬화(On-Chip Tensor Parallelism)도 적용되었다. 이 기술은 대형 신경망을 여러 스트리밍 멀티프로세서(SM)에 분산해 병렬로 처리할 수 있도록 해 TTT 레이어의 효율적인 실행을 가능하게 했다. 인간 평가에서 34점 차이로 1위…동작 자연스러움·장면 일관성 탁월 TTT 기반 모델은 다양한 평가 지표에서 기존 RNN 기반 기법을 압도했다. 인간 평가자들이 텍스트 적합성, 동작 자연스러움, 미적 품질, 시간적 일관성 등 네 가지 항목에 대해 1:1로 비교한 결과, TTT-MLP가 모든 항목에서 최고 점수를 기록했다. 특히 동작의 자연스러움과 장면 간 일관성에서 각각 39점, 38점의 Elo 점수 차이를 보이며 확연한 우위를 나타냈다. 예를 들어, 톰이 파이를 먹고 제리가 그것을 훔치는 장면에서, TTT-MLP는 톰과 제리의 동작을 자연스럽게 이어지도록 표현했고, 배경의 조명과 물체의 위치도 장면 전환 시 일관되게 유지됐다. 반면 슬라이딩 윈도우 어텐션(sliding-window attention)이나 게이트드 델타넷(Gated DeltaNet) 등의 기법은 조명 변화나 캐릭터 중복 등의 오류를 자주 보였다. 추론 속도는 여전히 느리고, 부자연스러운 장면도… 한계와 다음 단계 TTT-MLP는 품질 면에서는 우수하지만, 효율성 측면에서는 개선 여지가 있다. 같은 길이의 영상 생성 시, 추론 속도는 게이트드 델타넷보다 1.4배, 학습 속도는 2.1배 느렸다. 또한 생성된 영상에는 여전히 공중에 뜬 치즈처럼 부자연스러운 움직임이나 조명이 갑자기 바뀌는 등 일부 시각적 아티팩트가 남아 있다. 이는 사전 학습에 사용된 CogVideo-X 5B 모델의 한계에서 비롯된 것으로 추정된다. 향후 연구에서는 보다 큰 규모의 은닉 상태(예: 트랜스포머 자체)를 활용하거나, TTT를 사전 학습 단계부터 통합하는 방법, 또는 더 정교한 병렬화 커널 개발 등을 통해 품질과 효율성 모두를 끌어올릴 수 있을 것으로 기대된다. FAQ Q. 지금도 AI가 영상 생성하는데, 'TTT'는 뭐가 다른가요? A. 기존의 AI 영상 생성 모델은 3~20초 사이의 짧은 단일 장면만 만들 수 있었어요. 하지만 'TTT(Test-Time Training)'는 학습 중이 아닌 실행(테스트) 중에도 스스로 학습을 이어가는 방식이라, 1분짜리 영상처럼 긴 이야기 구조와 여러 장면 전환이 필요한 콘텐츠도 일관성 있게 생성할 수 있어요. Q. 영상 품질은 얼마나 좋아졌나요? 사람이 봐도 괜찮을까요? A. 연구팀은 실제 사람 평가자 100명을 대상으로 여러 AI 영상 생성 기법을 비교했는데요, TTT 모델이 평균 34점 더 높은 Elo 점수를 기록했어요. 특히 동작의 자연스러움, 장면 간 연결, 시각적 매끄러움에서 높은 평가를 받았습니다. 예를 들어, 톰이 파이를 먹고 제리가 몰래 훔쳐가는 장면도 자연스럽고 매끄럽게 이어졌어요. Q. 이 기술이 상용화되면 어떤 데에 쓰일 수 있나요? A. TTT 기반의 긴 영상 생성 기술은 AI 애니메이션 제작, 유튜브 콘텐츠 자동 생성, 교육용 시뮬레이션 영상, 나아가 게임 스토리 영상 자동 생성 등 다양한 분야에 활용될 수 있어요. 특히 장면 전환과 내러티브가 중요한 콘텐츠 제작에 강점을 보입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.11 13:12AI 에디터

GPT-4.5 '튜링 테스트' 통과…정말 사람과 똑 같을까

“기계는 생각할 수 있는가?” 이제, 그 질문에 다시 답할 때입니다. 2025년, 인공지능(AI) 분야에 있어 역사적인 사건이 일어났습니다. 최신 AI 언어 모델 GPT-4.5가 '튜링 테스트'를 통과했다는 연구 결과가 발표된 것입니다. 그것도 단순히 통과한 수준이 아니라, 실제 인간보다 더 '인간적으로' 보였다는 평가까지 받았습니다. 이 실험은 미국 캘리포니아 샌디에이고대학교(UC San Diego) 연구팀이 진행했습니다. GPT-4.5를 포함한 여러 AI 언어 모델을 대상으로, 인간과 얼마나 구별되지 않는지를 평가하는 실험을 했고, 그 결과는 지금 우리가 AI를 바라보는 방식에 중요한 질문을 던지고 있습니다. '튜링 테스트'란 무엇인가? 튜링 테스트는 1950년, 영국의 수학자 앨런 튜링이 제안한 실험입니다. 아주 단순한 질문에서 출발했습니다. “기계가 생각할 수 있을까?” 튜링은 이에 대한 하나의 기준을 제시했습니다. 만약 어떤 컴퓨터가 사람과 채팅을 했을 때, 상대방이 그것을 컴퓨터인지 사람인지 구별하지 못한다면, 그 컴퓨터는 '지능적이다'라고 볼 수 있다는 것이었습니다. 이 테스트는 실제로 간단하게 이루어집니다. 질문자가 화면을 통해 두 사람과 각각 대화를 나눕니다. 한 명은 인간이고, 다른 하나는 AI입니다. 질문자는 이 둘 중 누가 진짜 사람인지를 맞춰야 합니다. 질문자가 여러 차례 혼동하거나, 오히려 AI를 사람으로 착각한다면, 그 AI는 테스트를 통과한 것입니다. 그동안 이 테스트는 인공지능이 얼마나 정교해졌는지를 평가하는 상징적인 기준으로 여겨졌습니다. 하지만 수십 년 동안 어떤 AI도 뚜렷하게 이 기준을 넘어선 적은 없었습니다. GPT-4.5는 어떻게 테스트를 통과했을까? UC 샌디에이고 연구팀은 GPT-4.5 외에도 여러 최신 AI 모델들을 테스트했습니다. 참가자들은 인간과 AI 참가자들을 구별하는 역할을 맡았고, 이들 중 일부는 실제 인간이었습니다. 참가자 수는 총 284명으로, 대화 주제는 일상적인 이야기부터 감정, 유머, 개인 경험 등 다양한 영역에 걸쳐 있었습니다. 그런데 가장 흥미로운 실험 조건은 AI에 특정한 성격, 즉 '페르소나'를 부여했을 때입니다. 예를 들어 GPT-4.5에게는 '게임과 인터넷 문화를 좋아하는 내성적인 10대 후반'이라는 설정이 주어졌고, 말투도 실제 사람처럼 자연스럽게 조정됐습니다. 슬랭을 쓰고, 문장 끝에 마침표를 잘 쓰지 않고, 줄임말을 사용하는 식입니다. 이러한 '페르소나'를 부여한 GPT-4.5는 무려 73%의 확률로 인간으로 착각됐습니다. 실제 인간 참가자보다 더 자주 사람으로 판단된 것입니다. 반면, 페르소나가 없는 AI는 36~38% 정도에 그쳤습니다. 단순히 기술 수준만으로가 아니라, '사람처럼 보이게 설계하는 방법'이 인간 유사성에 큰 영향을 미친다는 사실이 확인된 셈입니다. 사람들은 어떻게 AI를 구별하려 했을까? 사람들은 주로 두 가지 방식으로 AI와 사람을 구별하려 했습니다. 하나는 아주 일상적인 대화를 시도하는 것이었습니다. 직업, 취미, 가족 이야기처럼 인간적인 맥락을 파악하려 했습니다. 또 하나는 감정, 유머, 실수처럼 기계가 따라 하기 어려운 부분을 집요하게 살펴보는 방식이었습니다. 가장 효과적이었던 전략은, 일부러 이상한 말을 해서 반응을 보는 것이었습니다. 또는 AI의 한계를 시험하는 식으로 접근하는 경우도 있었습니다. 반면, 단순히 날씨나 취미를 묻는 식의 질문은 거의 효과가 없었습니다. 이미지 출처: Large Language Models Pass the Turing Test 하지만 흥미롭게도, 참가자 중 많은 사람들이 결국 “그냥 느낌”으로 판단했다고 답했습니다. 이것은 AI가 사람처럼 느껴지는지 여부는 논리적 판단이 아니라, 미묘한 말투나 분위기 같은 비언어적 요소에 크게 영향을 받는다는 의미입니다. 진짜 사람보다 더 사람처럼 말하는 기계 이번 실험은 단지 AI가 말을 잘하게 되었다는 의미만을 담고 있지 않습니다. AI가 사람처럼 '행동하는 법'을 익히고 있고, 때로는 진짜 사람보다도 더 설득력 있게 인간을 흉내 내고 있다는 점이 핵심입니다. 이제 우리는 더 이상, 화면 너머에서 이야기하고 있는 상대가 정말 사람인지 확신할 수 없습니다. 소셜미디어, 온라인 상담, 고객 서비스 등 다양한 영역에서 '위조된 사람들'이 등장할 수 있습니다. 이들은 진짜처럼 보이지만, 진짜는 아닙니다. 이런 현실은 인간 사회의 기본적인 상호작용 방식에 중대한 질문을 던집니다. “누구를 믿어야 할까?” “진짜 인간이 가진 고유한 특징이란 무엇일까?” 그리고 “이제 AI와 경쟁하는 인간은 어떤 존재가 되어야 할까?” 이야기의 끝이 아니라, 시작 UC 샌디에이고 연구팀은 이번 실험 결과에 대해 이렇게 말했습니다. “기계가 튜링 테스트를 처음으로 통과한 지금, 이는 이야기의 끝이 아니라 새로운 시작입니다. 이제 인간이 더 나은 친구, 예술가, 교사, 부모, 연인이 되기 위해 다시 고민해야 할 때입니다.” 기계가 인간처럼 말할 수 있게 된 시대. 이제 우리가 던져야 할 질문은 바뀌었습니다. “기계보다 더 인간답게 살 수 있는가?” ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.11 09:11AI 에디터

AI는 왜 아직 '딸기 한 입'조차 제대로 못 먹일까

현재 AI, 사람 돕는 일에는 턱없이 부족하다 로봇과 인공지능(AI)의 진보는 가시적인 기술적 성과를 내고 있지만, 정작 인간을 직접 돕는 서비스 분야에선 여전히 갈 길이 멀다. 의료 지원, 가정 간병, 일상 청소 등 인간 중심의 복잡한 서비스 작업을 수행하기엔 현재의 AI는 충분한 지능이나 경험 기반 학습 역량을 갖추지 못했다. 미국 미시간대학 컴퓨터공학과 마크 스테픽(Mark Stefik) 교수는 논문에서 “현재의 AI는 실세계에서 몸으로 부딪히며 경험하고 학습하는 능력이 부족하다”고 지적한다. 그는 이를 극복하기 위한 대안으로 '경험 기반 기초 모델(Experiential Foundation Models)'의 필요성을 강조하며, 로봇이 실제 환경에서 행동하고 사람과 상호작용하며 학습하는 프레임워크가 필요하다고 주장했다. AI의 한계는 '수동적 관찰'에 머문 학습 방식… '관찰'만 잘할 뿐, 직접 해보진 않았다 AI는 지금까지 '빅데이터 기반의 관찰 학습'에 초점을 맞춰 발전해왔다. 대형 언어 모델(LLM)과 이미지 인식 시스템은 방대한 양의 데이터를 학습해 정교한 분류나 요약 기능을 구현하지만, 이는 어디까지나 정적 데이터에 기반한 예측일 뿐이다. 스탠퍼드대의 리페이페이(Fei-Fei Li) 교수는 이를 “AI는 우리가 무엇을 보고 있는지 말해줄 수 있지만, 그 이상은 하지 못한다”고 지적한 바 있다. 이러한 한계를 극복하려면 AI가 직접 실세계와 상호작용하며 얻은 경험을 통해 의미 있는 판단과 행동을 배우는 방식으로 진화해야 한다. 특히 의료현장처럼 작은 실수가 큰 문제로 이어질 수 있는 분야에서는 이 같은 '행동 중심의 학습'이 필수적이다. 로봇이 간병하려면 '딸기 한 입'에도 수십 가지를 배워야 한다 AI가 의료 보조나 간병에 투입되기 위해선 인간의 몸짓, 의사소통, 상황 판단 등 복합적인 역량을 갖춰야 한다. 코넬대의 EmPRISE 연구실 사례는 이를 단적으로 보여준다. 연구진은 장애인을 대상으로 로봇이 딸기를 집어 입에 넣어주는 실험을 진행했는데, 이 과정에서 로봇은 딸기의 크기나 상태, 입의 위치, 사람의 의사 표현, 주변 방해 요소 등 수십 가지 변수에 대응해야 했다. 해당 연구진은 “완전 자율형 시스템은 아직 멀었고, 반자율형 시스템조차 사용자 입력의 한계로 인해 제약이 많다”고 밝힌다. 이처럼 로봇이 사람과의 상호작용을 통해 안정적 서비스를 제공하려면 단순한 기계적 동작을 넘어 정서적, 사회적 맥락을 인식하고 대응할 수 있어야 한다. 빅데이터 학습에서 '경험 기반 모델'로 전환해야… 대형 언어모델은 의료도, 간병도 잘 못한다 현대 AI의 핵심은 대규모 기초 모델(Foundation Models)을 중심으로 발전해왔지만, 대부분은 언어, 이미지, 코드 중심이다. 스테픽 교수는 로봇이 일상적 업무를 수행할 수 있도록 하려면 시뮬레이션이 아닌 실세계 데이터를 기반으로 한 '로봇용 기초 모델(Robotic Foundation Models)'이 필요하다고 강조한다. 예를 들어 behavior-1K 프로젝트는 1,000가지 일상 활동을 정의하고, 이를 수행할 수 있는 시뮬레이션 환경을 구축한 로봇 학습 데이터셋이다. 하지만 이조차도 사람과의 상호작용은 포함하지 않는다. 스테픽 교수는 이를 넘어서기 위해 로봇이 실제 환경에서 몸으로 부딪히며 데이터를 축적하고 학습하는 '경험 기반 기초 모델'을 제안한다. 이는 인간 아이들이 놀이와 모방을 통해 능력을 키우는 것처럼, 로봇도 유사한 발달 단계를 거쳐 학습해야 한다는 주장이다. 로봇을 '키우는' 시대를 향해… AI도 사람처럼 '키워야' 진짜 똑똑해진다 경험 기반 AI 학습 방식은 단순히 알고리즘을 개발하는 단계를 넘어서, 로봇을 '양육'하는 개념으로의 전환을 요구한다. 아이처럼 로봇도 기본적인 감각, 운동, 언어 능력을 먼저 익히고, 이후 점차 복잡한 사회적, 전문적 기술을 배우도록 유도하는 방식이다. 이러한 로봇은 사용자와의 협업, 피드백, 실패 경험을 통해 진화하며, 특정 분야에 특화된 '경험 기반 AI'로 거듭날 수 있다. 스테픽 교수는 이같은 방식이 인간과 유사한 로봇을 만드는 데 더 현실적인 해법이 될 수 있다고 강조하며, 향후 AI 발전이 '기술의 성숙기(railroad time)'를 맞이하기 위해선 이러한 방향으로의 전환이 필수적이라고 결론짓는다. FAQ Q. 왜 지금의 AI는 의료보조나 간병 같은 일을 잘 못하나요? A. 현재의 AI는 주로 '관찰' 기반의 학습을 합니다. 즉, 이미 존재하는 텍스트나 이미지 데이터를 분석해서 판단하는 데는 강하지만, 실제 환경에서 몸을 움직이며 행동하고 피드백을 받는 '경험 중심의 학습'은 거의 하지 못합니다. 의료나 간병처럼 인간과 복잡하게 상호작용해야 하는 서비스 업무는 단순한 데이터 분석만으로는 수행할 수 없습니다. Q. 로봇도 '양육'해야 한다는 건 무슨 의미인가요? A. 인간이 아기 때부터 감각, 언어, 협업 등을 배워가듯, 로봇도 점진적으로 훈련시켜야 한다는 뜻입니다. 갑자기 전문가 수준의 AI를 개발하는 대신, 초기엔 단순한 능력을 익히고 점차 복잡한 업무로 확장하는 '성장형 학습'이 효과적이라는 주장입니다. Q. 그럼 이런 로봇은 언제쯤 볼 수 있을까요? A. 연구자들은 최소 10년 이상의 개발과 현실 환경에서의 테스트가 필요하다고 말합니다. 로봇이 단순한 시연을 넘어서 실제 가정이나 병원에서 안정적으로 작동하려면, 수많은 변수에 대한 경험과 검증이 축적되어야 하기 때문입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.04.10 20:34AI 에디터

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

에너지 안보가 곧 국가 경쟁력…전력 인프라 대전환 시급

정부 "SKT 위약금 면제 여부, 6월말 검토"

직장 내 사람·일·협업 고민, 'HR테크'로 풀었다

네이버·카카오 올해 특명 '체류시간' 더 늘려라

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현