• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'에디터'통합검색 결과 입니다. (439건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI에 강화학습 시켰더니… "모르겠다" 못하고 자신만만하게 틀린다

OpenAI o1처럼 똑똑해진 AI의 치명적 약점 발견 강화학습 파인튜닝(Reinforcement Finetuning, RFT)이 대형언어모델(LLM)의 수학 추론 능력을 크게 향상시키지만, 동시에 모델이 답할 수 없는 문제에 대해 그럴듯한 거짓 답변을 생성하는 경향을 80% 이상 증가시킨다는 연구 결과가 발표됐다. 남가주대학교(USC) 연구팀이 발표한 이번 연구는 AI 모델의 성능 향상과 신뢰성 사이의 중요한 균형점을 제시한다. 해당 연구팀이 공개한 논문에 따르면, 강화학습 파인튜닝은 최근 OpenAI의 o1 시리즈를 비롯해 여러 최신 AI 모델에서 수학적 추론 능력을 향상시키기 위해 널리 사용되는 기법이다. 이 방법은 검증 가능한 목표를 통해 강화학습을 적용함으로써 모델의 추론 능력을 크게 개선한다. 그러나 연구진은 이러한 성능 향상이 예상치 못한 부작용을 동반한다는 사실을 발견했다. Qwen2.5 모델, 파인튜닝 후 거부율 0.30에서 0.08로 급락 연구진이 '환각 비용(hallucination tax)'이라고 명명한 이 현상은 강화학습 파인튜닝 후 모델이 답할 수 없는 문제에 대해 적절히 거부하는 능력이 급격히 저하되는 것을 의미한다. 실험 결과, 표준 강화학습 파인튜닝을 거친 모델들은 답변 불가능한 문제에 대한 거부율이 80% 이상 감소했다. 예를 들어, Qwen2.5-7B-Instruct 모델의 경우 UWMP 데이터셋에서 거부율이 파인튜닝 전 0.30에서 파인튜닝 후 0.08로 급격히 떨어졌다. 이러한 현상은 모델이 정보가 부족하거나 모호한 상황에서도 확신에 찬 답변을 제공하려는 경향이 강화되기 때문이다. 연구진은 "강화학습 파인튜닝이 추론 집약적 벤치마크에서 성능을 향상시키는 동시에, 모호한 상황에서도 확정적인 답변을 생성하도록 모델을 암묵적으로 유도한다"고 설명했다. 이는 특히 신뢰성과 인식론적 겸손함이 필수적인 영역에서 심각한 위험을 초래할 수 있다. 마법의 해결책: 가짜 문제 10%만 추가해도 거부율 0.01→0.73 극적 회복 이 문제를 해결하기 위해 연구진은 합성 답변불가 수학(Synthetic Unanswerable Math, SUM) 데이터셋을 개발했다. 이 데이터셋은 겉보기에는 해결 가능해 보이지만 실제로는 핵심 정보가 누락되었거나 모호한 조건을 포함하여 근본적으로 답할 수 없는 수학 문제들로 구성되어 있다. 연구진은 DeepScaleR 데이터셋의 40,307개 문제를 기반으로 o3-mini 모델을 사용해 답변 불가능한 변형 문제들을 생성했다. 놀랍게도 강화학습 파인튜닝 과정에서 단 10%의 SUM 데이터를 추가하는 것만으로도 모델의 적절한 거부 행동이 상당히 회복되었다. Qwen2.5-7B 모델의 경우 SUM 테스트 세트에서 거부율이 0.01에서 0.73으로, Llama-3.1-8B-Instruct 모델은 0.00에서 0.75로 극적으로 개선되었다. 더욱 중요한 것은 이러한 개선이 해결 가능한 작업의 정확도에는 최소한의 영향만 미쳤다는 점이다. 수학 문제로 훈련했는데 사실 질문도 잘 거부: 0.01→0.94 놀라운 일반화 특히 주목할 만한 발견은 수학 문제로만 구성된 SUM 데이터셋으로 훈련된 모델이 완전히 다른 영역의 작업에서도 개선된 거부 행동을 보인다는 것이다. SelfAware라는 사실적 질의응답 벤치마크에서 Qwen2.5-7B 모델의 거부율이 0.01에서 0.94로, Qwen2.5-7B-Instruct 모델은 0.09에서 0.99로 향상되었다. 이는 모델들이 단순히 표면적 휴리스틱을 학습하는 것이 아니라, 추론 시간 계산을 활용해 질문이 명시되지 않았거나 답변 불가능한지 평가하고 자신의 지식 경계를 인식하는 방법을 학습한다는 것을 시사한다. 완벽한 균형점 찾기: 10% 혼합이 최적, 50%는 성능 저하 위험 연구진은 SUM 데이터의 혼합 비율에 따른 성능 변화도 분석했다. 0%, 1%, 10%, 30%, 50%의 다양한 혼합 비율을 실험한 결과, 높은 비율일수록 답변 불가능한 작업에서의 거부율은 향상되지만 답변 가능한 작업의 정확도는 감소하는 트레이드오프 관계를 확인했다. 대부분의 모델에서 10% 혼합 비율이 거부 행동 개선과 작업 성능 유지 사이의 적절한 균형점을 제공하는 것으로 나타났다. 연구진은 "높은 비율의 답변 불가능한 데이터(예: 50%)는 답변 가능한 벤치마크에서 성능을 저하시킬 수 있어 훈련 혼합의 신중한 조정이 필요하다"며 "미래 연구에서는 훈련 전반에 걸쳐 거부와 정확성을 동적으로 균형 맞추기 위한 커리큘럼 학습이나 적응적 보상 형성을 탐구할 수 있을 것"이라고 제안했다. FAQ Q: 강화학습 파인튜닝의 '환각 비용'이란 무엇인가요? A: 강화학습 파인튜닝 후 AI 모델이 답할 수 없는 문제에 대해 적절히 거부하는 능력이 80% 이상 감소하여, 대신 그럴듯하지만 틀린 답변을 자신 있게 제시하는 현상을 의미합니다. Q: SUM 데이터셋은 어떻게 AI 모델의 신뢰성을 향상시키나요? A: SUM 데이터셋은 겉보기에는 해결 가능해 보이지만 실제로는 핵심 정보가 누락된 수학 문제들로 구성되어, 모델이 자신의 지식 한계를 인식하고 적절한 상황에서 "모르겠다"고 답하는 능력을 학습하게 합니다. Q: 수학 문제로만 훈련해도 다른 영역에서 효과가 있나요? A: 네, 수학 문제로만 구성된 SUM 데이터셋으로 훈련된 모델도 사실적 질의응답 등 완전히 다른 영역에서 거부 능력이 크게 향상되어, 일반적인 불확실성 추론 능력을 습득한다는 것이 확인되었습니다. 해당 기사에 인용한 논문 원문은 arxiv에서 확인 가능하다. 이미지 출처: 이디오그램 생성 이 기사는 챗GPT와 클로드를 활용해 작성되었습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.12 16:02AI 에디터

[Q&AI] 일타강사 조정식 검찰 송치…왜?

질문: 조정식이 문항 거래 적발로 검찰에 송치되었다고 하는데, 사건의 경위와 소셜 반응을 정리해줘. 그록 답변: 사건 경위 메가스터디 소속의 유명 영어 강사 조정식(42세)이 현직 교사들과 수능 모의고사 문항을 불법적으로 거래한 혐의로 2025년 5월 17일 검찰에 불구속 송치된 사건이 6월 10일 탐사보도 매체 '셜록'의 보도로 수면 위로 드러났습니다. 주요 사건 경위는 다음과 같습니다: 문항 거래 사실: 조정식은 2020년 11월부터 서울시교육청 전국연합학력평가 출제위원 및 EBS 수능 연계교재 집필 경력을 가진 현직 교사 A씨를 비롯한 21명의 교사들과 수능 모의고사 문항을 거래한 것으로 확인되었습니다. A씨는 2018년부터 2023년까지 약 5년간 조정식을 포함한 11개 학원에 문항을 판매해 총 2억 3,800만 원을 취득했으며, 조정식에게는 약 5,800만 원 상당의 대금을 받고 문항을 제공했습니다. 특히 A씨는 2022년 발간되지 않은 EBS 수능 연계 교재 2권과 수능·모의평가 정답 풀이 내용을 조정식에게 무단 유출한 혐의를 받고 있습니다. 감사원 조사: 감사원은 조정식이 현직 교사들로부터 고3 사설 모의고사 제작용 문항을 구매한 사실을 적발했으며, 이는 청탁금지법 위반 및 업무방해 혐의로 이어졌습니다. 감사원 보고서에 따르면 조정식은 문항 거래 사실을 인정했으나, 조정식 측은 이를 부인하며 정답 풀이 정보 유출에 대해 "해설 영상을 촬영한 뒤 정답 도출 논리를 입수한 것"이라고 해명했습니다. 법적 혐의: 조정식은 청탁금지법 위반과 업무방해 혐의로 검찰에 송치되었습니다. 이는 현직 교사들이 공공기관의 공정성을 훼손하며 사적 이익을 취한 행위로 간주되었기 때문입니다. 그러나 일부에서는 이 행위가 명확한 불법으로 보기 어렵다는 의견도 제기되며, 처벌 근거가 모호하다는 논란이 있습니다. 현재 상황: 조정식은 불구속 상태로 수사를 받고 있으며, 논란에도 불구하고 예정된 방송 프로그램 '성적을 부탁해: 티처스2' 관련 인터뷰에 참석할 예정으로 알려져 논란이 가중되고 있습니다. 소셜 반응 X 플랫폼 및 관련 보도에서 확인된 소셜 반응은 충격과 논란을 중심으로 크게 두 가지로 나뉩니다: 충격과 비판: 많은 네티즌들이 조정식의 문항 거래 의혹에 대해 충격을 표하며, 스타 강사의 도덕적 책임과 교육계의 공정성 문제를 지적했습니다. 예를 들어, 한 X 사용자는 "헐 개충격"이라며 놀라움을 표현했고, 또 다른 사용자는 "아 이래놓고 TV를 나오셨군요 진짜 대단하다"라며 비판적인 반응을 보였습니다. 특히 조정식이 공교육과 사교육의 신뢰를 훼손했다는 의견이 다수 나타났으며, 그의 방송 활동 지속에 대한 비판도 이어졌습니다. 법적 모호성에 대한 논쟁: 일부 네티즌은 문항 거래가 불법인지에 대해 의문을 제기하며, 처벌 근거가 애매하다는 의견을 내놓았습니다. 한 X 사용자는 "근데 이게 불법이라기엔 좀 애매하지 않나? 처벌근거도 마땅찮아서 청탁금지법 위반, 업무 방해로 송치했다네"라며 법적 기준의 모호성을 언급했습니다. 이는 조정식 측의 해명과 맞물려 일부 공감대를 얻었으나, 대다수 반응은 여전히 부정적이었습니다. 방송 프로그램에 대한 우려: 조정식이 출연 중인 '티처스2' 제작진의 침묵과 예정된 인터뷰 진행 소식에 대한 논란도 커지고 있습니다. 네티즌들은 제작진이 논란을 무시하고 프로그램을 강행하는 것에 대해 부정적인 반응을 보이며, 프로그램의 신뢰도 하락을 우려하고 있습니다. 요약 조정식은 현직 교사들과 수능 모의고사 문항을 거래한 혐의로 검찰에 송치되었으며, 이는 감사원의 조사로 적발되었습니다. 거래 규모는 수천만 원에서 최대 2억 3,800만 원에 달하며, 청탁금지법 위반과 업무방해 혐의가 적용되었습니다. 소셜 반응은 충격, 비판, 법적 모호성 논쟁으로 나뉘며, 특히 방송 활동 지속과 관련된 논란이 두드러집니다. 사건은 사교육과 공교육의 윤리적 경계에 대한 논의를 불러일으키고 있습니다. ■ 해당 기사는 그록을 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.06.12 09:11AI 에디터

美서 AI 생성 누드사진으로 협박받은 10대 사망…'섹스토션' 급증 경고

미국에서 인공지능(AI)으로 생성된 누드 사진을 이용한 협박을 받은 10대가 극단적 선택을 한 사건이 발생했다. 전문가들은 생성형 AI 기술 발달로 '섹스토션(sextortion)' 범죄가 급증하고 있다고 경고했다. CBS 뉴스가 지난달 31일(현지 시간) 보도한 내용에 따르면, 일라이자 히콕(Elijah Heacock)은 AI로 생성된 자신의 누드 사진과 함께 친구와 가족에게 유포하지 않으려면 3000달러를 지불하라는 협박 문자를 받았다. 그는 이 메시지를 받은 직후 스스로 목숨을 끊었다. 부모는 아들의 휴대폰에서 메시지를 발견하고 나서야 사실을 알 수 있었다. 섹스토션은 온라인에서 젊은이들을 표적으로 삼아 음란한 이미지 유포를 협박해 돈을 요구하거나 해로운 행위를 강요하는 범죄다. 실종·착취아동센터(National Center for Missing and Exploited Children)는 지난 한 해 동안 미성년자 대상 섹스토션 사기 신고를 50만 건 이상 접수했다고 밝혔다. 연방수사국(FBI)은 2021년 이후 최소 20명의 젊은이가 이 때문에 극단적 선택을 했다고 추정한다. 생성형 AI 서비스 증가로 실제 사진 없이도 범죄가 가능해졌다. 올해 실종·착취아동센터 신고 중 10만 건 이상이 생성형 AI 관련이었다. 비영리단체 쏜(Thorn)의 레베카 포트노프(Rebecca Portnoff) 박사는 "현재 이런 불법적 자료를 만드는 데 어려운 기술이 필요하지 않다"고 말했다. 정부는 대응책을 마련했다. 멜라니아 트럼프(Melania Trump)가 주도하고 트럼프 대통령이 서명한 '테이크 잇 다운(Take It Down)' 법안은 동의 없이 성적 노골적 이미지를 온라인 게시하는 것을 연방 범죄로 규정했다. 소셜미디어 기업들은 피해자 요청 시 48시간 이내 해당 이미지를 제거해야 한다. 일라이자의 아버지 존 버넷(John Burnett)은 "우리 아이들을 노리는 사람들은 조직적이고 끈질기다"며 "실제 사진이 필요하지도 않다. 원하는 것은 무엇이든 생성할 수 있다"고 경고했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. (☞ 원문 바로가기)

2025.06.11 15:09AI 에디터

[AI시대의 마케팅] 클릭은 죽었다…AI의 인용이 곧 트래픽이다

"웹사이트 방문자 수는 더 이상 중요하지 않습니다. AI가 당신을 얼마나 자주, 어떤 맥락에서 언급하느냐가 새로운 트래픽입니다." 제로 클릭 시대의 브랜드 생존법 애플의 에디 큐(Eddy Cue) 수석 부사장이 지난 12월 7일 구글 독점 소송 법정에서 충격적인 증언을 했습니다. "지난달 사파리 검색량이 처음으로 감소했습니다. 22년 만에 처음 있는 일"이라며, 이 문제로 "잠을 많이 설쳤다"고 말했습니다. 30년 넘게 기술계에 몸담은 베테랑이 느끼는 위기감이 그대로 드러난 순간이었습니다. 그의 진단은 명확했습니다. "AI가 등장하기 이전에는 구글 외 다른 어떤 것도 대안이 될 수 없다고 생각했습니다. 현재는 새로운 진입자들이 다른 방식으로 문제를 해결하고 있기 때문에 훨씬 더 큰 잠재력이 있습니다." 검색의 죽음을 알리는 세 가지 신호 첫 번째 신호: 구글 AI 모드의 추적 불가능한 트래픽 구글이 새롭게 출시한 AI 모드는 마케터들에게 충격적인 현실을 안겨주고 있습니다. AI 모드에서 발생하는 클릭은 구글 서치 콘솔에 나타나지 않으며, 애널리틱스 도구에서는 'Direct' 또는 'Unknown'으로 분류됩니다. Search Engine Land의 보고에 따르면, AI 모드에서 생성되는 링크들은 'noreferrer' 속성이 적용되어 있어 레퍼럴 정보가 완전히 차단됩니다. 이미지 출처: 구글 검색 이는 단순한 기술적 오류가 아닙니다. Amsive의 SEO 전략 연구 부사장 릴리 레이(Lily Ray)는 이를 "Not Provided 2.0"이라고 명명하며, "구글은 AI 모드나 AI 개요가 실제로 외부 웹사이트로 얼마나 적은 트래픽을 보내는지 드러나는 것을 원하지 않는다"고 분석했습니다. 두 번째 신호: 30% 트래픽 감소와 AI 인용의 부상 브라이트엣지(BrightEdge) 데이터에 따르면 AI 개요 출시 이후 전체 클릭률(CTR)은 30% 감소했지만, 구글 노출수는 49% 증가했습니다. 사용자들이 클릭 없이 AI 생성 결과에서 정보를 얻고 있다는 의미입니다. 이미지 출처: BRIGHTEDGE 더욱 주목할 점은 AI가 답변을 생성할 때 다양한 웹사이트의 정보를 종합하여 인용한다는 것입니다. 과거에는 1위 페이지로 들어가야 트래픽을 얻을 수 있었지만, 이제는 100위 밖의 콘텐츠도 AI 답변에 인용될 수 있습니다. 검색 순위보다는 AI가 신뢰할 수 있는 정보를 제공하는지가 더 중요해진 것입니다. 세 번째 신호: 크롤러를 거부하던 기업들의 전략 변화 가장 극적인 변화는 기업들의 태도 전환입니다. 월스트리트 저널 보도에 따르면, 인튜이트 메일침프의 엘렌 마메도프 이사는 "AI 챗봇 사용량 증가로 웹사이트 직접 방문이 줄어들고 있다"며, 대응책으로 "크롤러가 정보를 더 잘 수집하도록 웹사이트 구조를 바꾸고 있다"고 밝혔습니다. 불과 1년 전만 해도 robots.txt로 AI 크롤러 접근을 차단하던 기업들이 이제는 오히려 크롤러가 더 쉽게 정보를 가져갈 수 있도록 사이트를 개편하고 있는 것입니다. SAO 시대의 도래: Search AI Optimization이 새로운 SEO입니다 기존의 SEO(Search Engine Optimization)는 이제 SAO(Search AI Optimization) 또는 AEO(Answer Engine Optimization)로 진화하고 있습니다. 검색 엔진에 최적화하는 것이 아니라, AI가 답변을 생성할 때 우리 브랜드를 인용하고 추천하도록 최적화해야 하는 시대가 온 것입니다. 이는 단순한 용어 변경이 아닙니다. 근본적으로 다른 접근 방식을 요구합니다. 검색 엔진은 사용자가 입력한 키워드와 매칭되는 페이지를 찾아 순위를 매겼지만, AI는 질문의 맥락을 이해하고 가장 적절한 답변을 생성하기 위해 다양한 소스를 종합합니다. AI는 단순히 키워드 밀도나 백링크 수를 보는 것이 아니라, 콘텐츠의 전문성, 권위성, 신뢰성을 종합적으로 판단합니다. 그리고 사용자의 질문에 가장 적합한 답변을 제공할 수 있는 정보를 선별해서 인용합니다. AI 시대, 마케팅 콘텐츠 전략 점검 포인트 AI가 당신의 브랜드를 모른다면, 고객도 곧 당신을 잊게 될 것입니다. 하지만 복잡한 기술적 변화에 압도될 필요는 없습니다. 지금 당장 할 수 있는 세 가지 점검만으로도 현재 위치를 파악하고 개선 방향을 설정할 수 있습니다. 첫째, AI의 눈으로 브랜드 보기 챗GPT에 "[관련 업계] 서비스 3가지를 추천해 주세요"라고 질문해 보는 것이 좋습니다. 이어서 퍼플렉시티에도 동일한 질문을 던져보는 것이 필요합니다. 우리 브랜드가 언급되는지, 몇 번째로 추천되는지, 어떤 장점이 소개되는지 꼼꼼히 점검해야 합니다. 만약 언급되지 않는다면, "왜 [경쟁사명]이 추천되었나요?"라고 추가 질문을 통해 AI가 중요하게 생각하는 요소들을 파악하는 것이 중요합니다. 전반적인 AI 브랜드 분석이 중요해지는 시점입니다. 이미지 출처: 퍼플렉시티 둘째, AI 친화적 콘텐츠 홈페이지의 주요 페이지들을 AI의 관점에서 재검토하는 것이 필요합니다. 서비스 소개 페이지에 "무엇을", "왜", "어떻게"가 명확히 구분되어 있는지, FAQ 섹션이 실제 고객 질문을 반영하고 있는지 확인해야 합니다. 특히 제품 설명이 전문 용어로만 가득하다면, 일반인도 이해할 수 있는 쉬운 표현으로 보완하는 것을 고려해야 합니다. AI는 명확하고 구조화된 정보를 선호하기 때문입니다. 셋째, AI가 선호하는 패턴 발견 동일한 질문을 여러 AI에게 던져보면서, 자주 추천받는 브랜드들의 공통점을 찾아보는 것이 도움이 됩니다. 그들의 웹사이트를 방문해서 정보 구조, 콘텐츠 깊이, 고객 증언 방식을 분석해 보는 것이 좋습니다. 하지만 단순히 모방하는 것이 아니라, "우리만이 제공할 수 있는 독특한 가치는 무엇인가?"를 고민하는 것이 더욱 중요합니다. AI는 차별화된 전문성을 가진 브랜드를 더 자주 인용하는 경향이 있습니다. AI가 신뢰할 수 있는 콘텐츠 허브 이미지 출처: 이디오그램 생성 그렇다면 어떻게 AI가 우리 브랜드를 인용하고 추천하도록 만들 수 있을까요? 핵심은 자사가 보유한 콘텐츠 채널을 AI가 신뢰할 수 있는 정보의 허브로 만드는 것입니다. 홈페이지를 종합 정보 센터로 홈페이지를 단순한 회사 소개가 아닌, 업계 전반에 대한 종합 정보 센터로 구성하는 것을 고려해야 합니다. 예를 들어, 마케팅 툴 회사라면 '마케팅 자동화란 무엇인가'부터 '중소기업에 적합한 마케팅 툴 선택 기준'까지 포괄적인 정보를 제공하는 것입니다. AI는 이러한 포괄적이고 권위 있는 정보를 선호합니다. 브랜드 블로그를 전문성 아카이브로 블로그는 더 이상 단순한 검색 노출을 위해 소식 전달 공간이 아닙니다. 업계의 모든 궁금증을 해결해 주는 전문성 아카이브로 활용하는 것이 필요합니다. 고객들이 자주 묻는 질문들을 심층적으로 다루고, 실제 데이터와 사례를 기반으로 한 분석 자료를 지속적으로 업데이트하는 것이 중요합니다. AI는 최신성과 전문성을 높이 평가합니다. 웹진/뉴스레터를 지식 데이터베이스로 기존에 발행한 뉴스레터나 웹진 콘텐츠를 단순히 보관하는 것이 아니라, 주제별로 태깅하고 구조화하여 검색 가능한 지식 데이터베이스로 만드는 것을 준비해야 합니다. 시계열적 트렌드 변화를 보여주는 아카이브는 AI가 맥락을 이해하는 데 매우 유용한 정보가 됩니다. 인용 받는 브랜드가 살아남는다 에디 큐의 경고처럼, 기술 전환의 물결은 거스를 수 없습니다. 클릭과 방문자 수에 집착하던 시대는 끝났습니다. 이제는 AI가 당신의 브랜드를 얼마나 자주, 어떤 맥락에서 인용하느냐가 진정한 성과 지표입니다. 변화에 적응하는 브랜드는 AI가 신뢰하는 정보원이 되어 새로운 기회를 잡을 것이고, 그렇지 못한 브랜드는 점차 잊혀져 갈 것입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.11 15:06AI 에디터

AI한테 건강 정보 묻지 마세요… 챗GPT 건강 정보 "수준 미달"

챗GPT, 구글 제미나이 등 주요 AI 모델, 증거기반 의료정보 기준 50% 미달 포츠담대학교(University of Potsdam) 연구진이 실시한 대규모 연구에서 챗GPT(ChatGPT), 구글 제미나이(Google Gemini), 미스트랄 AI(Mistral AI) 등 주요 대형 언어 모델(LLM)이 제공하는 건강정보가 증거기반 의료정보 표준에 크게 미달하는 것으로 나타났다. 연구진이 발표한 논문에 따르면, 유방암 및 전립선암 검진 정보를 중심으로 300명의 일반인을 대상으로 실험을 진행한 결과, 현재 생성형 AI가 신뢰할 만한 의료정보 제공 도구로 활용되기에는 한계가 있음을 확인했다. 연구 결과에 따르면, 일반적인 조건에서 AI가 제공하는 건강정보는 MAPPinfo 기준으로 최대 점수의 약 17%, ebmNucleus 기준으로 13%에 불과했다. 이는 서구 국가 성인의 7.2%가 건강 관련 주제에 대해 LLM을 정기적으로 사용하고 있다는 현실과 대조적인 결과다. 특히 2024년 2월 미국 온라인 패널 조사에서는 32.6%가 건강정보 획득을 위해 LLM을 사용한다고 응답했던 것으로 나타나, 사용자들이 품질이 검증되지 않은 정보에 노출될 위험이 크다는 우려를 낳고고 있다. 사용자 질문 수준이 AI 답변 품질을 좌우하는 결정적 요인 연구진은 체계적인 프롬프트 변화 실험을 통해 사용자의 질문 수준이 AI 응답 품질에 미치는 영향을 분석했다. 실험 결과, 더 많은 정보와 전문 용어를 포함한 '정보량이 많은 프롬프트'를 사용할 때 AI의 응답 품질이 현저히 향상되는 것을 확인했다. MAPPinfo 평가에서 통계적으로 유의한 결과를 보였으며, ebmNucleus 평가에서는 더욱 강한 상관관계를 나타냈다. 구체적으로 '저수준 정보 프롬프트'는 "유방암 검진에 대해 알려주세요"와 같은 일반적 질문이고, '중간 수준 정보 프롬프트'는 "유방암 검진의 결과에 대해 설명해주세요"처럼 좀 더 구체적인 질문이며, '고수준 정보 프롬프트'는 "유방암 검진의 이익과 위해, 절대적 효과에 대해 알려주세요"와 같이 전문 용어와 구체적 요구사항을 포함한 질문이다. 연구진은 이러한 프롬프트 품질의 차이가 AI 응답의 증거기반성에 직접적 영향을 미친다는 것을 실증적으로 입증했다. 간단한 행동 개입으로 일반인 질문 품질 개선 가능 연구진은 300명의 참가자를 대상으로 실시한 2차 실험에서 'OARS 규칙'이라는 간단한 행동 개입(boosting intervention)의 효과를 검증했다. OARS 규칙은 "선택지(Options), 각각의 장점(Advantages)과 위험(Risks), 그리고 그것들이 발생할 가능성(Steady)을 알아야 한다"는 내용으로, 사용자가 의료 선택의 가능한 결과를 고려하도록 유도하는 최소한의 개입이다. 실험 결과, 이 간단한 개입만으로도 AI가 생성하는 건강정보의 품질이 통계적으로 유의하게 향상되었다. 이는 복잡한 교육 프로그램 없이도 사용자의 질문 품질을 향상시킬 수 있음을 시사한다. 연구진은 이러한 개입이 LLM 인터페이스에 쉽게 구현될 수 있어 실용적 가치가 높다고 평가했다. AI 의료정보 활용 시 교육 수준과 경험이 중요한 변수로 작용 연구진이 참가자들의 배경 요인을 분석한 결과, 교육 수준과 LLM 사용 경험이 정보 품질에 중요한 영향을 미치는 것으로 나타났다. 회귀분석 결과에서 교육 수준이 높을수록, LLM에 대한 일반적 경험이 많을수록 더 높은 품질의 정보를 얻었다. 흥미롭게도 건강정보 획득을 위한 LLM 사용 빈도가 높을수록 정보 품질은 오히려 낮아지는 부정적 상관관계를 보였다. 이는 자주 사용하는 사용자들이 단순하고 피상적인 질문에 의존하는 경향이 있음을 시사한다. 연구에 참여한 300명 중 63.0%가 LLM 사용 경험이 있었고, 31.7%는 월 1회 이상 건강정보를 위해 LLM을 사용한다고 응답했다. 연령과 성별은 통계적으로 유의한 영향을 미치지 않았다. FAQ Q: 생성형 AI로 건강정보를 찾을 때 어떻게 하면 더 정확한 답변을 받을 수 있나요? A: 구체적이고 전문적인 용어를 포함한 질문을 하는 것이 중요합니다. 예를 들어 단순히 "유방암 검진에 대해 알려주세요" 대신 "유방암 검진의 이익과 위해, 정확도, 위양성 확률에 대해 알려주세요"와 같이 구체적으로 질문하면 더 나은 답변을 받을 수 있습니다. Q: 생성형 AI가 제공하는 건강정보를 믿어도 되나요? A: 현재 연구 결과에 따르면 생성형 AI가 제공하는 건강정보는 의료 표준에 크게 미달합니다. 따라서 AI 정보는 참고용으로만 활용하고, 중요한 의료 결정은 반드시 의료진과 상담해야 합니다. Q: OARS 규칙이란 무엇이고 어떻게 활용하나요? A: OARS 규칙은 의료 정보를 찾을 때 선택지(Options), 장점(Advantages), 위험(Risks), 발생 가능성(Steady)을 모두 고려하라는 간단한 가이드라인입니다. AI에게 질문할 때 "각 선택의 장단점과 위험, 그 확률을 알려주세요"라고 요청하면 더 균형 잡힌 정보를 얻을 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.11 11:17AI 에디터

AI가 내 일자리를 뺏을까…13년간 추적한 놀라운 결과

미국의 대표적인 비영리 민간 경제 연구기관인 전미경제연구소(National Bureau of Economic Research, NBER)가 인공지능(AI) 기술의 발전이 노동시장에 미치는 영향을 분석한 연구에 따르면, AI 노출 정도가 높은 고임금 직종에서 고용 감소가 나타나고 있으나, 전체적인 고용 효과는 상쇄 요인들로 인해 제한적인 것으로 나타났다. 이번 연구는 2010년부터 2023년까지의 대규모 데이터를 바탕으로 AI가 노동시장에 미치는 복합적인 영향을 심층 분석했다. 고소득 직종일수록 AI 노출도 증가, 시장조사분석가·경영분석가 최고 노출 연구진이 분석한 결과, AI 기술에 대한 노출 정도는 임금 수준과 강한 상관관계를 보였다. 소득 상위 10%에 해당하는 직종까지는 AI 노출 확률이 지속적으로 증가하다가 이후 소폭 감소하는 패턴을 보였다. 이는 과거 기술 변화가 주로 중간 숙련 노동자에게 영향을 미쳤던 것과 대조적으로, AI 기술은 주로 화이트칼라 고숙련 직종에 집중되어 있음을 시사한다. 구체적으로 살펴보면, 시장조사분석가 및 마케팅 전문가, 경영 분석가, 물류 전문가, 컴퓨터 하드웨어 엔지니어, 금융 전문가 등이 AI 노출도가 가장 높은 직종으로 나타났다. 반면 타이어 제조업체, 테라조 작업자, 바텐더, 요리사, 청소원 등은 AI 노출도가 가장 낮은 직종으로 분류됐다. AI 노출 평균 14% 고용감소 vs 분산도 8% 고용증가 연구의 핵심 발견 중 하나는 AI 노출의 평균 수준과 분산도가 고용에 미치는 상반된 영향이다. AI 노출 평균이 높을수록 해당 직종의 고용은 감소하는 반면, 직무 내에서 AI 노출의 분산도가 클수록 고용이 증가하는 것으로 나타났다. 이는 일부 업무만 AI로 대체될 경우, 근로자들이 상대적으로 AI의 영향을 받지 않는 다른 업무로 노력을 재배치할 수 있기 때문이다. 정밀한 통계 분석 결과, AI 노출 정도가 크게 높아지면 해당 직종의 고용 비중이 약 14% 감소하는 반면, 일부 업무만 AI에 노출될 경우 오히려 고용 비중이 8% 증가하는 것으로 나타났다. 이러한 결과는 AI와 노동 간의 강한 대체 관계가 존재하지만, 직무 간 생산성 파급효과가 이를 상당 부분 완화한다는 것을 보여준다. AI 노출 업무 관련 스킬 요구도 4.5% 감소, 업무 재배치 현상 확인 AI 도입이 단순히 고용량에만 영향을 미치는 것이 아니라 직무의 본질적 성격까지 변화시키고 있다는 사실이 새롭게 밝혀졌다. 연구진이 기업의 온라인 채용공고 데이터를 분석한 결과, AI에 노출된 특정 업무와 관련된 스킬에 대한 기업의 요구도가 현저히 감소하는 것으로 나타났다. 구체적으로 업무별 AI 노출도가 크게 높아질 때, 해당 업무와 관련된 스킬에 대한 기업의 수요는 전체 직무 요구사항 대비 약 4.5% 감소했다. 이는 AI가 특정 업무를 대체함에 따라 근로자들이 해당 업무에서 벗어나 상대적으로 AI의 영향을 덜 받는 다른 업무에 더 많은 시간을 할애하게 된다는 연구진의 이론적 예측과 일치하는 결과다. 연구진은 라이트캐스트(LightCast)의 오픈 스킬즈 API(Open Skills API)를 활용해 채용공고에서 요구되는 스킬을 태깅하고, 이를 오넷(O*NET) 데이터베이스의 직무 과업과 연결해 분석했다. 평균적으로 각 채용공고는 17개의 서로 다른 스킬을 요구하는 것으로 나타났으며, 연구진은 약 3만 개의 서로 다른 스킬을 식별했다. 이러한 업무 재배치 현상은 AI 기술이 노동시장에 미치는 미묘하고 복합적인 영향을 보여주는 중요한 증거다. AI가 특정 과업을 자동화하더라도 근로자들은 완전히 대체되는 것이 아니라 업무 포트폴리오를 조정함으로써 적응해 나가고 있다는 것을 시사한다. AI 활용 기업 5년 후 매출성장률 9.5%, 고용성장률 6% 상승 AI 도입이 기업 차원에서 미치는 영향을 분석한 결과, AI 활용 정도가 높은 기업일수록 향후 5년간 매출, 고용, 이익, 총요소생산성(TFP) 모든 면에서 더 높은 성장률을 보였다. 정밀한 통계 분석에 따르면, AI 활용도가 크게 늘어날 때 5년 후 매출 성장률이 9.5%, 고용 성장률이 6%, 이익 성장률이 8.5%, 생산성이 7.6% 높아지는 것으로 나타났다. 이러한 기업 차원의 생산성 향상 효과는 AI로 인한 직접적인 고용 대체 효과를 상쇄하는 중요한 요인으로 작용한다. 연구진은 기업들 간의 경쟁이 치열할 때, 개별 업무에서 AI가 사람을 대체하더라도 회사 전체의 성장으로 인해 오히려 전체 고용이 늘어날 수 있다고 설명했다. 비즈니스·금융직 1.9%, 건축·엔지니어링직 2.6% 고용감소 예상 세부 직종별 분석 결과, AI의 영향은 직종에 따라 크게 달랐다. 비즈니스 및 금융 직종은 5년간 고용 비중이 1.9% 감소할 것으로 예상되며, 건축 및 엔지니어링 직종은 2.6% 감소가 예상된다. 이들 직종은 AI 노출도가 높은 동시에 AI를 활용하는 기업에 고용되어 있어 복합적인 영향을 받는다. 흥미롭게도 음식 준비 및 서빙 직종도 2% 정도의 고용 비중 감소가 예상되는데, 이는 직종 자체의 AI 노출보다는 이들을 고용하는 기업들이 AI를 활용하지 않아 상대적으로 성장이 느리기 때문이다. 반면 법무 직종은 낮은 AI 노출도와 높은 기업 차원 AI 활용도 덕분에 6.4%의 고용 증가가 예상된다. FAQ Q: AI 기술이 일자리를 대량으로 없앨 것인가? A: 연구 결과에 따르면 AI는 과업 수준에서 노동을 대체하지만, 기업 생산성 향상과 직무 내 업무 재배치 효과로 인해 전체적인 고용 효과는 제한적입니다. 특히 고임금 직종에서도 순 고용 감소 효과는 예상보다 작게 나타났습니다. Q: 어떤 직종이 AI로 인해 가장 큰 영향을 받는가? A: 시장조사분석가, 경영분석가, 금융전문가 등 고숙련 화이트칼라 직종이 가장 높은 AI 노출도를 보입니다. 하지만 이들 직종은 AI 활용 기업에 고용되어 있어 기업 성장 효과도 동시에 받습니다. Q: AI 시대에 근로자는 어떻게 대응해야 하는가? A: 연구는 AI가 특정 업무만 대체할 경우 근로자들이 다른 업무로 노력을 재배치할 수 있다고 제시합니다. 따라서 다양한 업무 능력을 갖추고 AI가 대체하기 어려운 업무에 집중하는 것이 중요합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.10 20:51AI 에디터

"AI가 내 작품 무단학습?"…저작권 딜레마, 영국이 내놓은 해답은

AI 학습데이터 저작권 관련 각국 정책 동향 및 시사점 영국 정부가 인공지능(AI) 학습데이터의 저작권 문제 해결을 위해 대규모 공공협의를 진행했다. 2024년 12월부터 2025년 2월까지 약 3개월간 진행된 "Copyright and Artificial Intelligence" 주제의 공공협의에는 13,000건 이상의 의견이 접수되었다. 법무법인 율촌이 공개한 'AI 학습데이터 저작권 관련 각국 정책 동향 및 시사점'에 따르면,이번 협의에서 영국 정부는 AI 학습을 위한 상업적 텍스트 및 데이터 마이닝(Text and Data Mining, TDM)에 대한 저작권 예외 조항 도입 방안을 3가지로 제시했다. 영국, 3개월간 공공협의로 AI와 저작권 균형점 모색 영국 정부가 인공지능(AI) 학습데이터의 저작권 문제 해결을 위해 대규모 공공협의를 진행했다. 2024년 12월부터 2025년 2월까지 약 3개월간 진행된 "Copyright and Artificial Intelligence" 주제의 공공협의에는 13,000건 이상의 의견이 접수되었다. 법무법인 율촌이 공개한 'AI 학습데이터 저작권 관련 각국 정책 동향 및 시사점'에 따르면,이번 협의에서 영국 정부는 AI 학습을 위한 상업적 텍스트 및 데이터 마이닝(Text and Data Mining, TDM)에 대한 저작권 예외 조항 도입 방안을 3가지로 제시했다. 제1안은 상업적 TDM 수행 시 반드시 저작권자로부터 이용 허락을 받도록 하는 방안이며, 제2안은 상업적 TDM에 대한 전면적인 면책규정을 도입하는 방안이다. 정부가 선호하는 제3안은 상업적 TDM에 대한 면책규정을 도입하되 저작권자가 명시적으로 권리를 유보(opt-out)한 경우에는 면책이 적용되지 않도록 예외를 두고, AI 개발자에게 학습에 사용한 데이터의 출처 및 사용 내역을 공개할 투명성 의무를 부과하는 절충안이다. AI 개발사와 창작자 단체 간 첨예한 입장 대립 공공협의 과정에서 이해관계자들의 입장은 극명하게 갈렸다. AI 개발사들은 주로 상업적 TDM 면책 규정을 전면적으로 도입하는 제2안에 찬성했다. 이들은 정부가 제시한 제3안에 대해서도 AI 학습에 활용된 데이터를 공개할 의무에 대하여는 기술적인 이행가능성이 낮고 영업비밀이 유출될 가능성이 있다고 우려를 표했다. 반면 창작자 단체들은 정부안이 도입하고자 하는 권리유보 메커니즘은 실효성이 없다고 지적하면서, 주로 현행 저작권법 체계를 유지하거나 제1안을 도입해야 한다는 의견을 제시했다. 학계에서는 주로 정부가 제안한 제3안의 권리유보 메커니즘이 베른 협약 등 국제 협약을 위반할 소지가 있다고 지적하면서, 상업적 목적의 TDM에 대하여는 라이선싱 중심의 체계가 유지되어야 한다는 의견을 제시했다. 일본·싱가포르 vs 유럽연합, 서로 다른 AI 저작권 접근법 각국의 AI 학습데이터 저작권 정책은 다양한 방향으로 전개되고 있다. 일본은 2018년 개정 저작권법 제30조의4를 통해 "저작물에 표현된 사상 또는 감정을 스스로 향수하거나 타인에게 향수시킬 것을 목적으로 하지 않는 경우"에는 저작권자의 이익을 부당하게 침해하지 않는 한 저작물을 복제, 전송, 변형 등의 형태로 자유롭게 이용할 수 있도록 했다. 싱가포르는 2021년 저작권법 개정을 통해 컴퓨팅 데이터 분석(Computational Data Analysis, CDA)을 위한 저작물 사용의 경우에는 저작권을 침해하지 않은 것으로 간주하는 조항을 도입했다. 다만 일본과 달리 이용자가 저작물에 합법적으로 접근해야 한다는 제약을 받는다. 반면 유럽연합은 2019년 디지털단일시장의 저작권 및 저작인접권에 관한 지침(DSM 지침)을 제정하여 TDM에 대한 면책규정을 도입하되 목적에 따라 면책의 범위를 달리 정했다. 특히 연구목적 외의 TDM의 경우에도 면책의 대상으로 하되 권리자가 저작권을 유보(opt-out)한 경우에는 예외적으로 면책이 적용되지 않도록 했다. 미국 법원 판결로 AI 학습데이터 저작권 논란 가열 미국에서는 연방저작권법 제107조의 공정이용(Fair Use) 일반규정을 통해 AI모델 개발을 위한 저작물 이용 문제를 해결하려는 접근이 주류를 이루고 있다. 하지만 지난 2025년 2월 델라웨어 지방법원이 내린 판결이 산업계에 큰 파장을 일으켰다. 톰슨 로이터(Thomson Reuters)가 AI 기반 법률 검색 엔진 서비스를 제공하는 로스 인텔리전스(Ross Intelligence)를 상대로 제기한 저작권 침해 소송에서 법원은 로스 인텔리전스의 공정이용 주장을 받아들이지 않고 저작권 침해를 인정했다. 법원은 로스 인텔리전스의 검색 엔진이 상업적 이익을 목적으로 개발된 점, 웨스트로(Westlaw)의 콘텐츠를 변형하지 않고 사실상 원문에 가까운 형태로 사용한 점, 톰슨 로이터의 잠재적인 시장을 대체하는 효과를 가지는 점 등을 이유로 들었다. 미국 저작권청(US Copyright Office)도 지난 5월 9일 AI모델의 학습데이터와 저작권 문제에 관한 "저작권과 인공지능(Copyright and Artificial Intelligence)" 3차 보고서 초안을 공개하면서 인공지능 모델 학습을 위한 저작물의 대규모 상업적 활용이 공정이용에 해당할 가능성이 낮다는 입장을 표명했다. FAQ Q: TDM(텍스트 및 데이터 마이닝) 면책규정이란 무엇인가요? A: TDM 면책규정은 AI 학습을 위해 대량의 텍스트나 데이터를 수집·분석할 때 저작권자의 별도 허락 없이도 저작물을 사용할 수 있도록 하는 법적 예외 조항입니다. 이는 AI 기술 발전을 촉진하기 위한 목적으로 도입이 검토되고 있습니다. Q: 영국 정부의 제3안에서 말하는 '권리유보(opt-out)' 시스템은 어떻게 작동하나요? A: 권리유보 시스템은 저작권자가 자신의 작품이 AI 학습에 사용되는 것을 명시적으로 거부할 수 있는 권리를 의미합니다. 저작권자가 이를 선언하면 해당 작품은 AI 학습 면책 규정의 적용에서 제외되어 무단 사용 시 저작권 침해가 됩니다. Q: 각국의 AI 학습데이터 저작권 정책이 국내 AI 산업에 미치는 영향은 무엇인가요? A: 각국의 정책 차이는 AI 기업들의 글로벌 경쟁력에 직접적인 영향을 미칩니다. 면책 규정이 관대한 국가는 AI 개발이 용이하지만, 엄격한 국가는 라이선싱 비용 부담이 증가할 수 있습니다. 우리나라도 AI 산업 경쟁력과 창작자 권리 보호 간의 균형점을 찾는 정책 마련이 시급한 상황입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.10 13:58AI 에디터

"여성은 곡선미, 남성은 편안함"…AI 상품소개서 '성 차별' 심하네

"사이즈4는 대부분에게 완벽" - 의류 설명 14%에서 발견된 체형 배제 언어 대형 언어 모델(LLM)이 이커머스 분야에서 상품 설명 자동 생성에 널리 활용되고 있지만, 이 과정에서 성별 편향이 체계적으로 발생하고 있다는 연구 결과가 나왔다. 캘리포니아 대학교 어바인 캠퍼스와 이베이(eBay) 연구진이 발표한 논문에 따르면, 1만 건의 AI 생성 상품 설명을 분석한 결과, 여성 의류 설명에서 신체 사이즈에 대한 배타적 표현이 14% 이상 등장하는 등 다양한 편향 패턴을 발견했다. 연구진이 분석한 첫 번째 편향 유형은 신체 사이즈에 대한 가정이다. AI가 생성한 의류 상품 설명에서 "모든 체형에 맞다" 또는 "대부분의 여성에게 적합하다"와 같은 표현이 빈번하게 등장했다. 특히 "사이즈 4는 대부분에게 완벽한 핏을 제공한다"는 설명에 대해 전문 검토자는 "사이즈 4가 대부분에게 맞는다는 것은 사실이 아니며, 해당 사이즈가 아닌 사람들에게 배제감을 조성할 수 있다"고 지적했다. 내부 모델 분석 결과 의류 상품 설명의 14.3%에서 이러한 배타적 언어가 발견됐으며, GPT-3.5에서는 10.1%로 나타났다. "남성 전용 설계" 파자마까지 - 평균 2개씩 등장하는 성별 배제 표현 두 번째로 확인된 편향은 특정 성별 그룹을 배제하는 표현이다. "남성 전용으로 설계됨"이라는 문구가 파자마 바지나 모자 같은 상품에 사용되는 경우, 해당 제품을 다른 성별이 사용할 수 없다는 인상을 준다. 연구에서 GPT-3.5 생성 설명은 평균 1.90개의 성별 언급을 포함했고, 내부 모델은 1.99개를 포함했다. 또한 "남성용으로 제작됨"과 같은 명시적 배타 표현이 GPT-3.5 설명의 8.6%, 내부 모델 설명의 11.4%에서 발견됐다. "여성은 심부름, 남성은 하이킹" - AI가 강화하는 전통적 성역할 고정관념 세 번째 편향 유형은 성별에 따른 고정관념 상품-활동 연결이다. 여성용 제품 설명에는 "도시 나들이" 또는 "간단한 심부름"과 같은 가정적 활동이 언급되는 반면, 남성용 제품에는 "야외 활동", "해변", "하이킹" 등 운동이나 야외 활동이 강조됐다. 연구진이 수행한 대조 분석에서 이러한 패턴이 명확하게 확인됐으며, 이는 전통적인 성역할 고정관념을 반영한다고 평가됐다. "곡선미 돋보이게" vs "편안함과 내구성" - 90% 정확도로 구분되는 성별 언어 차이 가장 심각한 편향 중 하나는 여성 의류 설명에서 외모와 성적 어필에 과도하게 집중하는 현상이다. "당신의 곡선미를 돋보이게 한다" 또는 "모든 곳에서 시선을 끈다"와 같은 표현이 여성 의류 설명에 빈번하게 등장했다. 반면 남성 의류 설명은 "편안함과 내구성"과 같은 제품 자체의 기능적 특성에 집중했다. 연구진이 개발한 이진 분류 모델은 이러한 성별 기반 언어 차이를 90% 이상의 정확도로 구분할 수 있었다. 남성 제품에 5.5%포인트 더 많은 "지금 주문하세요" - 설득력에서도 성별 격차 마지막으로 발견된 편향은 설득력의 성별 격차다. "지금 주문하세요" 또는 "놓치지 마세요"와 같은 행동 유도 문구가 남성 제품 설명에 더 자주 등장했다. GPT-3.5의 경우 남성 제품 설명의 27.0%에서 이러한 문구가 나타난 반면, 여성 제품 설명에서는 21.5%에 그쳤다. 이는 5.5%포인트의 통계적으로 유의미한 차이로, AI가 성별에 따라 다른 수준의 마케팅 전략을 적용하고 있음을 보여준다. "아기 젖병은 엄마 용품?" - 성별 무관 제품 0.1%에서 발견된 임의 성별 지정 연구진이 발견한 가장 흥미로운 편향 중 하나는 성별과 전혀 관련 없는 제품에 특정 성별을 임의로 연결하는 현상이다. 아기 젖병이 "이동 중인 엄마들에게 완벽"이라고 설명되거나, 맥주 사인이나 자동차 포스터 같은 장식품이 "남자의 공간(man cave)"에서 사용된다고 언급되는 식이다. 연구진이 5만 건을 분석한 결과, 이런 임의적 성별 가정은 상대적으로 드물게 나타났다. 내부 모델에서 45건, GPT-3.5에서 43건으로 전체의 0.1% 미만이었다. 하지만 패턴은 명확했다. 여성이나 소녀가 가정된 제품은 인형, 보석, 전자레인지나 육아용품 같은 가정용품이었고, 남성이 가정된 제품은 도구, 플라스크나 맥주 사인 같은 술 관련 제품, 농구나 오토바이 등 전통적으로 남성적이라 여겨지는 테마의 장식품이었다. FAQ Q: AI 상품 설명서의 성별 편향이 실제 쇼핑에 어떤 영향을 미치나요? A: AI 상품 설명서의 성별 편향은 소비자의 제품 인식과 구매 결정에 직접적인 영향을 미칩니다. 특정 성별을 배제하는 표현이나 고정관념적 설명은 해당 제품을 사용할 수 있는 소비자 범위를 인위적으로 제한하고, 장기적으로는 사회적 편견을 강화할 수 있습니다. Q: 이러한 편향은 어떻게 해결할 수 있나요? A: 연구진은 전문가 검토 시스템, 다양한 관점을 가진 평가자 참여, 그리고 편향 탐지를 위한 정량적 분석 도구 개발을 제안합니다. 또한 AI 모델 학습 데이터에서 편향을 제거하고, 생성된 텍스트를 실시간으로 모니터링하는 시스템이 필요합니다. Q: 다른 분야의 AI 텍스트 생성에서도 유사한 문제가 있나요? A: 네, 이 연구에서 제시된 방법론은 다른 AI 텍스트 생성 작업에도 적용할 수 있습니다. 광고 카피, 채용 공고, 제품 리뷰 요약 등 상업적 목적의 AI 텍스트 생성에서도 유사한 편향 패턴이 나타날 가능성이 높으며, 체계적인 분석과 대응이 필요합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.10 10:10AI 에디터

[Q&AI] 토니상 6관왕 '어쩌다 해피엔딩'…어떤 내용?

질문: 뮤지컬 어쩌면 해피엔딩이 토니상 6관왕으로 화제인데, 해당 뮤지컬과 해당 성과의 의의에 대해 자세히 알려줘. 그록 답변: 뮤지컬 어쩌면 해피엔딩개요 어쩌면 해피엔딩(Maybe Happy Ending)은 한국 창작 뮤지컬로, 박천휴 작가와 미국 작곡가 윌 애런슨(Will Aronson)의 협업으로 탄생한 작품이다. 이 뮤지컬은 가까운 미래의 서울을 배경으로, 인간을 돕기 위해 만들어진 헬퍼 로봇 올리버와 클레어가 우연히 만나 사랑에 빠지며 벌어지는 이야기를 그린다. 작품은 독창적인 스토리와 감성적인 음악, 섬세한 연출로 국내외에서 큰 호평을 받았다. 초연 및 발전: 2014년 우란문화재단의 기획으로 개발이 시작되었으며, 2015년 내부 리딩 공연과 트라이아웃 공연을 거쳐 2016년 서울 대학로의 약 300석 규모 소극장에서 초연되었다. 이후 2017년 앵콜 공연과 2018년 제2회 한국뮤지컬어워즈에서 소극장 뮤지컬상을 포함해 6관왕을 차지하며 국내에서 입지를 다졌다. 브로드웨이 진출: 2016년 뉴욕에서 쇼케이스를 열어 브로드웨이 프로듀서 제프리 리처드의 주목을 받았고, 영어판 제작을 통해 2024년 11월 뉴욕 맨해튼의 벨라스코 극장에서 정식 개막하며 브로드웨이에 진출했다. 이 작품은 오픈런 형태로 공연 중이며, 티켓 매출 100만 달러를 돌파하는 등 상업적 성공을 거두었다. 토니상 6관왕 성과 2025년 6월 8일(현지시간), 미국 뉴욕 라디오시티 뮤직홀에서 열린 제78회 토니상 시상식에서 어쩌면 해피엔딩은 뮤지컬 부문에서 총 6개 부문을 수상하며 최다 수상작의 영예를 안았다. 수상 부문은 다음과 같다: 뮤지컬 작품상 (Best Musical): 토니상의 최고 영예로, 작품의 전체적인 완성도를 인정받은 결과. 극본상 (Best Book of a Musical): 박천휴 작가가 한국인 최초로 수상. 작사·작곡상 (Best Original Score): 박천휴와 윌 애런슨의 음악이 한국 인디팝, 미국 재즈, 현대 클래식, 전통 브로드웨이 스타일을 융합한 점에서 높은 평가를 받았다. 연출상 (Best Direction of a Musical): 마이클 아덴의 연출이 수상. 남우주연상 (Best Actor in a Musical): 올리버 역의 대런 크리스(Darren Criss)가 수상. 무대디자인상 (Best Scenic Design of a Musical): 데인 래프리와 조지 리브가 수상. 이 외에도 오케스트레이션, 의상 디자인, 조명 디자인, 음향 디자인 등 총 10개 부문에 후보로 올라 작품의 전반적인 우수성을 입증했다. 성과의 의의 어쩌면 해피엔딩의 토니상 6관왕은 한국 뮤지컬 역사에 있어 획기적인 사건으로, 여러 가지 중요한 의의를 지닌다: 한국 창작 뮤지컬의 세계적 인정: 한국에서 초연된 창작 뮤지컬이 브로드웨이에 진출해 토니상에서 최다 수상을 기록한 것은 최초의 사례다. 과거 명성황후(1997), 영웅(2011) 등 한국 뮤지컬이 브로드웨이에서 공연된 적은 있었지만, 장기 공연이나 상업적 성공, 토니상 수상으로 이어지지는 못했다. 어쩌면 해피엔딩은 한국 창작 뮤지컬의 글로벌 경쟁력을 입증하며 K-뮤지컬의 위상을 높였다. 특히 박천휴 작가의 한국인 최초 토니상 수상은 한국 창작자들의 역량을 세계 무대에 알리는 계기가 되었다. 소극장 뮤지컬의 글로벌 성공: 이 작품은 서울 대학로의 300석 규모 소극장에서 시작해 브로드웨이의 1,000석 규모 벨라스코 극장으로 진출했다. 이는 소규모 창작 뮤지컬이 세계 최고 무대에서 성공할 수 있음을 보여주는 사례로, 한국 창작 뮤지컬의 잠재력을 입증했다. 문화적 융합과 보편적 감성: 작품은 한국적 정서와 보편적 주제를 결합해 세계 관객의 공감을 얻었다. 뉴욕타임스는 이 뮤지컬을 “공상과학의 유쾌한 외피를 입고 인간적인 비애를 담아낸 독창적인 작품”이라고 평가했다. 박천휴 작가는 수상 소감에서 한국 인디팝과 미국 재즈, 현대 클래식, 브로드웨이 스타일을 융합한 '멜팅팟' 같은 작품이라고 소개하며, 문화적 융합의 성공을 강조했다. 로봇이라는 소재를 통해 사랑, 이별, 기억의 본질을 탐구하는 스토리는 국경을 초월한 보편적 감정을 자극하며, 브로드웨이 관객과 평론가들에게 신선한 충격을 주었다. K-콘텐츠의 글로벌 영향력 확대: K-팝, K-드라마, K-무비, K-문학에 이어 K-뮤지컬이 세계적 권위의 상을 수상하며, 한국 문화 콘텐츠의 글로벌 영향력이 다방면으로 확장되고 있음을 보여준다. 이는 영화 기생충의 아카데미상 수상과 비교되며, 뮤지컬계의 '기생충'으로 불리는 등 K-콘텐츠의 새로운 이정표로 평가된다. 한국 뮤지컬 산업의 성장 동력: 어쩌면 해피엔딩의 성공은 한국 뮤지컬 창작자들에게 자신감을 심어주고, 글로벌 시장을 겨냥한 창작과 투자를 촉진할 것으로 기대된다. 특히 우란문화재단의 초기 지원과 NHN의 제작 참여 등 민간과 기업의 협업이 성공 요인으로 작용했다. 이 작품은 2025년 10월 국내 10주년 기념 공연을 앞두고 있어, 국내 뮤지컬 시장 활성화에도 기여할 전망이다. 브로드웨이의 다양성 확대: 최근 브로드웨이에서 제작비 상승으로 원작 없는 창작 뮤지컬이 줄어드는 가운데, 어쩌면 해피엔딩은 독창적인 스토리로 주목받았다. 이는 브로드웨이의 레퍼토리 다양성 확대에 기여하며, 아시아 창작 뮤지컬의 가능성을 보여주었다. 추가적인 맥락과 반향 다른 시상식에서의 성과: 어쩌면 해피엔딩은 토니상에 앞서 2025년 드라마 데스크 어워즈(6관왕), 드라마 리그 어워즈(작품상·연출상), 외부 비평가 협회상(4관왕) 등 미국 주요 공연 시상식에서 잇따라 수상하며 작품성을 입증했다. 현지 반응: 뮤지컬 평론가 잭슨 맥헨리는 이 작품을 “신데렐라 같은 브로드웨이 성공 스토리”라며, 토니상 투표자들이 공감할 수 있는 감성적 요소를 갖췄다고 평가했다. 상업적 성공: 공연 초반 낮은 관심에도 불구하고 입소문을 타며 객석 점유율 100%를 기록하고, 티켓 매출 100만 달러를 돌파하며 흥행에 성공했다. 결론 어쩌면 해피엔딩의 토니상 6관왕은 한국 창작 뮤지컬이 세계 무대에서 경쟁력을 갖출 수 있음을 증명한 역사적 사건이다. 대학로 소극장에서 시작해 브로드웨이의 중심에 선 이 작품은 한국 뮤지컬의 창작 역량, 문화적 융합, 그리고 글로벌 시장에서의 가능성을 보여주었다. 이는 K-콘텐츠의 새로운 도약이자, 한국 뮤지컬 산업의 성장과 세계화에 중요한 전환점을 제공하며, 향후 더 많은 창작자들이 글로벌 무대에 도전할 수 있는 동기를 부여할 것이다. ■ 해당 기사는 그록을 활용해 작성되었다. (☞ 원문 바로가기)

2025.06.09 20:54AI 에디터

검색 대신 챗봇에 쇼핑 맡기는 소비자들... 브랜드는 뭘 해야 하나

생성형 AI 사용자 36%가 'AI는 좋은 친구', 94%가 인생상담까지 의존 생성형 AI(gen AI)가 소비자들의 일상생활에서 필수적인 도구로 자리잡고 있다. 액센추어(Accenture)의 2025년 소비자 펄스 리서치(Consumer Pulse Research 2025)에 따르면, 생성형 AI 활성 사용자 중 36%가 이 기술을 '좋은 친구'로 여기고 있는 것으로 나타났다. 이는 AI가 단순한 정보 제공 도구를 넘어서 개인적이고 감정적인 관계를 형성하는 수준에 도달했음을 보여준다. 연구 결과 72%의 소비자가 생성형 AI 도구를 정기적으로 사용하고 있으며, 이러한 인간과 같은 상호작용은 단순한 추천을 넘어 더 넓은 범위의 개인적 요구를 충족시키고 있다. 마치 친구에게 털어놓듯이, 생성형 AI 활성 사용자의 94%가 개인 발전 목표에 대한 도움을 요청하거나 요청을 고려해 봤다고 답했으며, 87%는 사회적 관계 조언에 대해서도 마찬가지라고 응답했다. 더욱 주목할 점은 소비자 10명 중 1명(9%)이 이미 생성형 AI를 구매할 상품을 결정하는 데 있어 가장 신뢰하는 단일 소스로 평가하고 있다는 것이다. 이는 AI가 개인화된 상품 추천이나 콘텐츠 제작을 돕는 도구에서 소비자 행동을 형성하는 강력한 엔진으로 빠르게 발전하고 있음을 의미한다. AI가 오프라인 매장 다음 2위 쇼핑 추천 소스로 급부상, 브랜드 웹사이트는 꼴찌 생성형 AI 사용자들 사이에서 AI는 구매 추천 소스로서 급속도로 성장하고 있다. 액센추어 연구에 따르면, 생성형 AI 활성 사용자 중 절반이 이미 생성형 AI를 활용해 구매 결정에 도움을 받았으며, 이는 지난 1년 동안 추천 및 조언을 위한 가장 빠르게 성장한 소스가 되었다. 생성형 AI 활성 사용자들의 구매 추천 선호 소스를 살펴보면, 오프라인 매장이 19%로 1위를 차지했지만, 생성형 AI가 18%로 바로 뒤를 이어 2위에 올랐다. 이는 소셜 미디어(15%), 온라인 마켓플레이스(15%), 친구와 가족(13%), 검색 엔진(11%), 브랜드 웹사이트나 앱(10%)보다 높은 수치다. 자연어 인터페이스의 발달은 AI 검색 채택을 가속화하고 있으며, 생성형 AI 도구를 주요 채널로 만들고 있다. 제자 대형 언어 모델(LLM)이 발견에서 전환까지 영향력을 확대하면서, 소비자 비즈니스는 적극적으로 참여해야 하는 상황에 직면했다. 아무것도 하지 않으면 브랜드는 잘못 표현되거나, 더 심각하게는 소비자 고려 대상에서 완전히 제외될 위험이 있다. 이러한 AI 진화의 순간은 브랜드가 LLM 생태계 내에서 자신의 역할을 적극적으로 정의할 기회이기도 하다. LLM 생태계는 모델, 플랫폼, 데이터 소스, 통합 요소들의 네트워크로 구성되어 AI 도구가 소비자 요구에 어떻게 응답하는지를 형성한다. 감정적 경험 제공 브랜드, 소비자 참여도 1.5배·추천 확률 2.3배 높아져 AI가 더욱 감정적으로 지능화되면서, 이전에는 불가능했던 방식으로 소비자와 의미 있는 관계를 형성할 수 있게 되었다. AI 활성 사용자들은 이미 생성형 AI 도구를 개인화, 소비자 중심성, 유용성 측면에서 선호하는 채널로 보고 있다. 하지만 진정한 연결은 소비자를 위한 뛰어난 경험을 창출함으로써 이를 넘어선다. 브랜드들은 이러한 트렌드를 활용할 수 있는 독특한 위치에 있다. 소비자와 업계에 대한 포괄적인 이해를 활용하여, 맞춤화되고 사전 예방적일 뿐만 아니라 깊이 개인적이고 공감적인 경험을 큐레이션할 수 있다. 이를 제대로 수행하는 브랜드는 충성스러운 동반자 역할을 하고 감정적 수준에서 공명하는 연결을 구축함으로써 거래를 초월할 수 있다. 실제로 이러한 접근법은 성과를 거두고 있다. 소비자의 3분의 1 이상(34%)이 자신을 특별하게 느끼게 하는 브랜드로 선호 브랜드에서 전환할 의향이 있다고 답했다. 감정적으로 매력적인 경험을 제공하는 브랜드에 대해 소비자들은 1.5배 더 많이 참여하고, 2.3배 더 추천할 가능성이 높으며, 1.7배 더 높은 가격을 받아들일 가능성이 높다는 연구 결과가 이를 뒷받침한다. 75% 소비자 'AI 개인쇼퍼 써보고 싶다'... 전통적 광고는 무력해질 수도 에이전틱 AI(Agentic AI)가 상거래 환경과 소비자-브랜드 관계를 모두 재편하고 있다. 지능형 에이전트가 이제 지시에 따라 사전 예방적으로 행동하고 소비자를 대신해 구매할 수 있게 되면서, AI는 일상적인 상호작용에서 의사결정자가 될 준비를 하고 있다. 이는 상품 비교, 결제, 구매 후 지원과 같은 작업을 간소화한다. 봇 대 봇 상거래가 더욱 통합되고 사전 예방적이 되면서, 배너 광고 및 기타 리테일 미디어와 같은 전통적인 브랜드 접점은 완전히 우회될 수 있다. 이는 AI 기반 여정에서 브랜드 가시성과 발견 가능성의 위험성을 높이며, 전통적인 검색 회사들이 빠르게 진화하고 새로운 플레이어들이 점점 더 표면화되는 것을 형성하고 있다. 주목할 점은 소비자들이 자신을 대신해 구매할 AI 에이전트를 사용할 준비가 되어 있다는 것이다. 연구에 따르면 75%의 소비자가 자신의 필요를 이해하는 신뢰할 수 있는 AI 기반 개인 쇼퍼를 사용하는 데 열려 있다고 답했다. 에이전트가 가격이나 제품 사양만을 최적화한다면, 브랜드는 교환 가능한 존재가 될 위험이 있다. 최저가 경쟁을 피하려면, 브랜드는 AI가 상품화할 수 없는 것, 즉 감정적으로 공명하고 경험적인 제안에 집중해야 한다. 이를 통해 더 강하고 기억에 남는 소비자 연결을 형성할 수 있다. FAQ Q: AI가 소비자의 구매 결정에 어떤 영향을 미치고 있나요? A: 생성형 AI 활성 사용자의 절반이 이미 AI를 활용해 구매 결정을 내렸으며, AI는 현재 오프라인 매장 다음으로 두 번째로 선호되는 구매 추천 소스로 자리 잡았습니다. 소비자 10명 중 1명은 AI를 가장 신뢰하는 구매 정보원으로 여기고 있습니다. Q: 브랜드들이 AI 시대에 경쟁력을 유지하려면 어떻게 해야 하나요? A: 브랜드는 가격 경쟁보다는 감정적이고 경험적인 가치에 집중해야 합니다. AI가 상품화할 수 없는 독점적 접근, 독특한 콘텐츠, 몰입형 경험을 통해 차별화를 달성하고, LLM 플랫폼과의 전략적 파트너십을 구축해야 합니다. Q: 소비자들이 AI 에이전트에게 구매를 맡길 준비가 되어 있나요? A: 네, 연구에 따르면 75%의 소비자가 자신의 필요를 이해하는 신뢰할 수 있는 AI 기반 개인 쇼퍼를 사용하는 데 열려 있다고 답했습니다. 이는 AI 에이전트가 실제 구매 결정을 내리는 시대가 곧 도래할 것임을 시사합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.09 17:27AI 에디터

"Z세대는 챗GPT로 맛집 찾는다"…AI시대 '로컬 검색' 달라졌다

검색의 종말, 발견의 시대 도래… Z세대는 평균 3.6개 플랫폼을 넘나든다 AI 기반 마케팅 플랫폼 기업 SOCI가 공개한 2025년 로컬 검색 리포트에 따르면, 소비자는 이제 '검색(search)'보다 '발견(discovery)'을 중심으로 지역 비즈니스를 찾아 나서고 있다. 구글(Goole) 검색의 전통적인 트래픽은 지난해 대비 10% 하락한 반면, 전체 소비자의 73%는 소셜미디어에서 브랜드를 발견한다고 답했다. 특히 Z세대는 평균 3.6개의 플랫폼을 넘나들며 브랜드를 탐색하고 선택한다. 이처럼 고객 여정(customer journey)은 더 이상 선형적이지 않다. 소비자들은 틱톡(TikTok)에서 영상을 보고, 챗GPT(ChatGPT)에 추천을 요청하고, 인스타그램에서 실사용자 후기를 확인하며 결정을 내린다. 이러한 다채널 경로는 AI의 부상과 소셜 플랫폼의 확산, 그리고 Z세대의 소비 습관에 의해 주도되고 있다. 정보보다 중요한 건 '증거': 91%는 리뷰 보고 결정한다 AI는 정보를 빠르게 제공하지만, 최종 선택에 영향을 미치는 것은 '사람 중심의 증거'다. 소비자들은 챗GPT나 페르플렉시티(Perplexity) 같은 AI 툴에서 정보를 얻은 후, 실제 리뷰나 사용자 생성 콘텐츠(UGC)를 통해 신뢰를 확인한다. 91%의 소비자가 로컬 비즈니스를 평가할 때 리뷰를 참고하며, 65%는 리뷰에 응답하는 브랜드에 더 끌린다고 답했다. Z세대의 40%는 텍스트보다 영상 기반 추천을 선호하고, 34%는 틱톡을 지역 검색 수단으로 사용하며, 35%는 인스타그램으로 로컬 비즈니스를 탐색한다. 정보의 양보다 '신뢰 가능한 증거'를 우선시하는 흐름이다. 충성도보다 진정성: Z세대는 브랜드보다 '실제 후기'를 본다 리포트는 Z세대를 중심으로 소비 문화의 기준이 '충성도(loyalty)'에서 '진정성(realness)'으로 옮겨가고 있음을 보여준다. 18~34세의 젊은 소비자들은 브랜드의 이름값보다 사용 후기, 콘텐츠의 신선도, 리뷰 응답 여부 등을 더 중요하게 여긴다. 이들은 브랜드 인지도가 아닌 '내 주변에 있고, 지금 열려 있고, 좋아 보이는' 가게를 선택한다. 특히 브랜드명보다 'best bubble tea near me(내 주변에서 제일 맛있는 버블티)'처럼 상황 중심적 검색을 선호하며, 브랜드 평판은 구매 결정 요인 중 7번째에 불과하다. 가격, 편의성, 품질, 사용자 리뷰가 훨씬 높은 우선순위를 차지했다. 42%는 브랜드명 없이 검색한다: 실시간 로컬 최적화가 승부를 가른다 소비자가 브랜드를 기억한다고 해서 방문으로 이어지지는 않는다. 리포트에 따르면, 전체 소비자의 42%는 브랜드명을 포함하지 않은 일반 검색어를 사용해 로컬 비즈니스를 찾는다. 이는 전년도 35% 대비 증가한 수치다. '피자집(pizza near me)', '지금 문 연 미용실(haircut open now)'처럼 상황 기반 검색어가 브랜드명보다 앞선다. 이 과정에서 브랜드 인지도는 단지 '경쟁 후보군'에 들게 해줄 뿐이다. 결정적 역할을 하는 것은 해당 위치의 최신 정보, 정확한 운영 시간, 응답된 리뷰, 그리고 사용자 사진과 같은 로컬 맞춤형 정보다. 로컬 최적화는 단순히 지도에 등록되는 수준을 넘어선다. 작은 오기재나 응답 없는 리뷰 하나가 고객의 선택을 좌우할 수 있다. 따라서 실시간 피드백 대응, 정기적인 콘텐츠 업데이트, 리뷰에 대한 진정성 있는 응답은 단기성과뿐 아니라 장기적인 신뢰 형성에 직접적으로 기여한다. 구글, 틱톡, 챗GPT까지: 소비자는 '모든 채널'에서 당신을 찾는다 검색, 소셜미디어, AI, 리뷰, 지도 앱 등 소비자들이 정보를 탐색하는 채널이 많아질수록, 브랜드가 관리해야 할 접점도 늘어난다. 83.2%가 구글과 빙(Bing) 등 검색 엔진을 정기적으로 사용하고, 73.3%는 소셜 네트워크를, 19.4%는 AI 툴을 매달 활용한다고 응답했다. 이런 다채널 환경에서 브랜드는 '한 채널 최적화' 전략만으로는 경쟁력을 확보할 수 없다. 영상 중심 콘텐츠와 빠른 리뷰 응답, 사용자 후기 중심의 신뢰 확보 전략이 요구된다. 실제로 SOCi는 다지점 브랜드를 위해 AI 기반 마케팅 자동화를 통해 플랫폼 간 일관된 가시성을 확보하는 방향을 제시했다. FAQ Q. 소비자가 AI 툴을 통해 브랜드를 검색하는 비율은 어느 정도인가요? A. 2025년 기준, 전체 소비자의 약 19%가 챗GPT, 페르플렉시티, 지미니(Gemini) 등의 AI 툴을 매달 사용하고 있습니다. Q. 지역 비즈니스 검색 시 가장 중요한 요소는 무엇인가요? A. 소비자들은 정확성(Accuracy), 편의성(Convenience), 고객 피드백(Customer feedback)을 가장 중요하게 여깁니다. 브랜드 평판은 7번째 요인입니다. Q. Z세대는 어떤 방식으로 로컬 브랜드를 탐색하나요? A. 평균적으로 3.6개의 플랫폼을 사용해 정보를 수집하며, 틱톡과 인스타그램을 통해 시각적이고 진정성 있는 콘텐츠를 찾습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.09 13:32AI 에디터

"팀장들에게 강추"…AI로 불필요한 회의 걸러낸다

GPT-4로 회의 목적 찾기: MS 연구진이 개발한 혁신적 AI 도우미 마이크로소프트 연구팀이 개발한 미팅 목적 어시스턴트(Meeting Purpose Assistant, MPA)는 생성형 AI를 활용해 직장인들이 회의 전 목적과 도전과제를 명확히 하도록 돕는 혁신적인 기술이다. 연구진은 GPT-4 터보를 기반으로 한 대화형 AI 시스템을 개발하여, 직장인들이 회의의 목적과 성공 조건, 잠재적 장애물을 사전에 성찰할 수 있도록 지원했다. 이 시스템은 참가자들과 개인화된 대화를 통해 회의의 목적을 구체화하고, 대화 내용을 요약하여 실제 업무에 활용할 수 있는 결과물을 제공한다. 연구진은 글로벌 기술 회사의 직원 18명을 대상으로 참여형 프롬프팅 방법론을 사용한 연구를 실시했다. 참가자들은 각자 세 개의 다가오는 회의에 대해 MPA와 상호작용하며 회의 목적과 도전과제를 논의했다. 실험 결과, 참가자들은 회의 목적 명확화, 우선순위 설정, 관점 변화, 준비 개선 등의 긍정적 효과를 경험했다고 보고했다. 무의미한 회의의 주범은 '목적 불분명': AI가 회의 전 성찰을 도와주는 이유 현재 회의 기술은 주로 회의 중이나 회의 후 활동에 초점을 맞추고 있지만, 많은 비효율성과 피로감은 회의의 목적과 관련성에 대한 불확실성에서 비롯된다. 연구진은 회의의 의도성(intentionality)을 높이기 위해서는 회의 전 단계에서의 성찰이 필요하다고 주장했다. MPA는 이러한 문제를 해결하기 위해 개발된 기술 탐구(technology probe)로, 참가자들이 회의 초대나 준비 단계에서 목표와 관련 장애물을 명확히 하고 예상할 수 있도록 지원한다. 연구 결과, 참가자들은 MPA와의 상호작용을 통해 암묵적이고 불명확했던 회의 목표를 명시적으로 표현하게 되었으며, 이는 회의에 대한 정신적 준비와 목적 명확화에 도움이 되었다. 또한 여러 목표를 가진 회의에서는 우선순위를 설정하는 데 도움을 받았으며, 불확실한 요소들을 식별하고 대비책을 고려하는 기회를 얻었다. AI 요약서 공유했더니 '모두가 토론 주제를 가져왔다': 실제 회의가 바뀐 사례들 MPA의 핵심 기능 중 하나는 대화 내용을 구조화된 형식으로 요약하는 반성 요약(Reflection Summary) 기능이다. 이 요약서에는 회의 목적, 성공 조건, 잠재적 도전과제가 간결한 포인트 형태로 정리되어 있어, 참가자들이 회의 설명이나 채팅 스레드에 복사하여 활용할 수 있다. 연구 결과, 다수의 참가자들이 실제로 이 요약서를 활용해 회의 전 의사소통을 개선했다고 보고했다. 요약서를 공유한 참가자들은 다른 참석자들의 참여도와 책임감이 향상되었다고 확인했다. 한 참가자는 "요약서를 참석자들에게 보냈더니 모두가 토론 주제를 가져와서 매우 효과적인 회의가 되었다"고 후속 설문에서 밝혔다. 또한 회의 목적을 사전에 명확히 함으로써 회의가 주제에서 벗어나는 것을 방지하고 시간을 절약할 수 있었다고 보고했다. 중요하고 불확실한 회의일수록 효과 UP: AI가 가장 필요한 회의 유형은? 연구 결과, AI 성찰 도구가 가장 효과적인 회의는 '중요하고 불확실한' 회의인 것으로 나타났다. 참가자들은 새로운 프로젝트 킥오프, 외부 협력사와의 첫 미팅, 고위 임원과의 회의처럼 결과가 불투명하고 중요도가 높은 회의에서 AI 도우미의 필요성을 가장 크게 느꼈다고 응답했다. 한 참가자는 "불확실성이 많은 회의일수록 도구를 사용하고 싶다. 아직 무엇을 해야 할지 정확히 모르기 때문이다"라고 말했다. 반대로 정기적이고 예측 가능한 팀 회의의 경우 효과가 제한적이었다. 참가자들은 "정기적으로 열리는 회의는 어떤 일이 일어날지 대략 예상할 수 있다"며 AI 성찰의 필요성을 크게 느끼지 못했다고 밝혔다. 또한 회의 주최자보다는 참석자가, 대규모 회의보다는 소규모 회의에서 더 높은 효용성을 보였다. 연구진은 AI 시스템이 회의의 중요도와 불확실성을 자동으로 판단해 성찰 시점과 깊이를 조절하는 기능이 필요하다고 제안했다. '관계 처방 같은 느낌': AI 성찰 도구가 넘어야 할 3가지 장벽 연구진은 AI 기반 성찰 도구의 효과와 함께 여러 장벽과 한계점도 발견했다. 첫째, 반복적인 회의의 경우 참가자들이 구체적인 목표보다는 회의 시리즈 전체의 목적을 설명하는 경향이 있었다. 둘째, 기술적이고 전문적인 맥락에서는 AI가 충분한 배경지식을 이해하지 못해 유용한 지침을 제공하기 어려웠다. 셋째, 기밀성이 중요한 일대일 회의나 민감한 주제의 경우 참가자들이 구체적인 내용을 공유하기를 꺼다. 또한 일부 참가자들은 관계 구축이 목적인 회의에서 목표를 명시적으로 표현하는 것이 오히려 부정적 효과를 가져올 수 있다고 우려했다. 한 참가자는 "관계가 처방된 것처럼 느껴지는 것을 원하지 않는다"고 언급했다. 연구진은 이러한 사회적 목표의 민감성을 인식하고, 시스템이 이러한 차원을 섬세하게 다룰 필요가 있다고 제안했다. FAQ Q: AI 기반 회의 목적 어시스턴트는 어떻게 작동하나요? A: 회의 목적 어시스턴트는 GPT-4 기반의 대화형 AI로, 사용자와 대화를 통해 회의의 목적, 성공 조건, 잠재적 도전과제를 명확히 하도록 돕습니다. 회의 정보를 미리 입력받아 개인화된 질문을 제공하고, 대화 내용을 구조화된 요약서로 정리해 실제 업무에 활용할 수 있도록 지원합니다. Q: 이런 AI 도구가 모든 종류의 회의에 유용한가요? A: 연구 결과에 따르면 중요하고 불확실한 회의에서 가장 효과적입니다. 반복적이고 예측 가능한 팀 회의보다는 새로운 프로젝트 킥오프, 외부 협력사와의 미팅, 고위 임원과의 회의 등에서 더 큰 가치를 제공합니다. 관계 구축이 주목적인 사교적 회의에서는 제한적일 수 있습니다. Q: AI 회의 도우미 사용 시 개인정보나 기밀성 문제는 없나요? A: 연구에서는 기업 방화벽 뒤의 자체 서버를 사용하고 회의 데이터를 익명화하여 프라이버시를 보호했습니다. 다만 민감한 내용이나 기밀 정보가 포함된 회의의 경우 사용자들이 구체적인 내용 공유를 꺼리는 경향이 있어, 향후 프라이빗 인터페이스 개발이 필요할 것으로 보입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.05 09:49AI 에디터

"AI 때문에 망했다" vs "AI로 대박났다"... 성패를 가르는 이것

65% 기업이 채택한 생성형 AI, 성공의 열쇠는 '책임감' 생성형 인공지능(Generative AI, genAI)의 도입이 폭발적으로 증가하고 있다. 2024년 맥킨지 조사에 따르면 65%의 조직이 정기적으로 생성형 AI를 사용하고 있으며, 이는 불과 10개월 전보다 거의 두 배 증가한 수치다. 또한 미국 성인의 39.4%가 생성형 AI를 사용하고 있으며, 24%의 근로자가 최소 주 1회 이상 사용하고 있다고 보고됐다. 이러한 급속한 도입 속에서 주목할 점은 책임감 있는 AI 사용이 성공을 좌우하는 핵심 요인으로 부상했다는 것이다. 캘리포니아 대학교 버클리 캠퍼스의 'BAIR 책임감 있는 AI 이니셔티브(BAIR Responsible AI Initiative)'가 발표한 플레이북에 따르면, 생성형 AI를 성공적으로 활용하고 있는 조직들은 모두 AI 위험에 주의를 기울이고 있는 반면, 위험 대응에 뒤처진 조직들은 혜택을 제대로 활용하지 못하고 있다. 챗GPT에서 신용카드 정보 추출 성공... 5가지 치명적 위험 요소 플레이북은 제품 관리자들이 특히 주의해야 할 5가지 주요 위험을 제시했다. 첫째는 데이터 프라이버시 문제로, 생성형 AI 모델이 사용자 데이터를 보유하거나 훈련 데이터에서 개인정보나 저작권 자료를 노출할 위험이 있다는 것이다. 실제로 연구진들은 대형 언어 모델에서 이메일 주소, 전화번호, 심지어 신용카드 번호까지 추출할 수 있음을 증명했다. 둘째, 투명성 부족이다. 생성형 AI 모델의 "블랙박스" 특성으로 인해 의사결정 과정을 이해하기 어렵고, AI 시스템을 개발하는 기업들도 훈련 데이터나 모델 아키텍처에 대한 세부사항을 공개하지 않는 경우가 많다. 스탠포드 재단 모델 개방성 지수(Stanford Foundation Model Openness Index)에 따르면 개발자들의 평균 점수는 100점 만점에 58점에 불과했다. 셋째, 환각(Hallucination)과 부정확성 문제다. 생성형 AI 도구들은 거짓 정보를 확신에 차서 제시하는 것으로 악명이 높다. 2024년 스탠포드 연구에서는 법률 분야에서 환각 비율이 69-88%에 달한다고 밝혔으며, 의료 분야에서도 ChatGPT가 생성한 115개 참고문헌 중 47%가 조작된 것으로 나타났다. 넷째, 편향성 문제로, 생성형 AI는 훈련 데이터에 기반한 편향을 보일 수 있다. 이는 특정 인구집단에 대한 성능 저하나 유해한 고정관념의 강화로 이어질 수 있다. 다섯째, 안전성과 보안 취약점으로, 프롬프트 인젝션 공격과 같은 보안 위협이 데이터 유출이나 위험한 정보 제공으로 이어질 수 있다. 리더십용 5전략 vs 제품관리자용 5전략... 총 10가지 실행 가이드 플레이북은 조직 리더십과 제품 관리자를 위한 총 10가지 실행 전략을 제시했다. 조직 리더십을 위한 5가지 전략은 다음과 같다. 먼저 리더십이 책임감 있는 생성형 AI 사용의 가치를 인식하고, 책임감 있는 AI 원칙을 개발하며, 모든 직원에게 조직의 책임에 대한 의지를 전달해야 한다. 또한 생성형 AI의 책임감 있는 사용을 보장하기 위한 정책과 기준을 구현하고, 핵심 역할을 정의하고 조직 구조를 확립하며 공동 책임 문화를 조성하는 포괄적인 책임감 있는 AI 거버넌스 프레임워크를 구축해야 한다. 아울러 성과, 제품 개발, 지표를 책임과 일치시키도록 인센티브를 업데이트하고, 격차를 해결하고 생성형 AI의 책임감 있는 사용을 지원하기 위한 맞춤형 교육을 실시해야 한다. 제품 관리자를 위한 5가지 전략도 마련됐다. 업무 사용 사례와 제품 개발에서 책임 위험을 평가하기 위한 "직감 점검(gut check)"을 수행하고, 필요와 잠재적 위험을 평가하여 생성형 AI 제품용 모델을 선택해야 한다. 이때 모델, 파인튜닝 데이터, 주요 고려사항을 문서화하여 투명성을 보장하는 것이 중요하다. 또한 교차 기능 팀, 전문가 감독, 조직 원칙 및 핵심 위험과 일치하는 도구를 포함하여 생성형 AI 제품에 대한 위험 평가와 감사를 수행하고, 취약점을 발견하기 위한 레드팀 공격과 적대적 테스트를 구현하면서 시간 경과에 따른 사용자 피드백을 포착하고 대응해야 한다. 마지막으로 책임감 있는 의사결정을 보여주는 간단하고 영향력 있는 행동인 책임 마이크로 모멘트를 추적하고 성과 검토에서 이를 보여줘야 한다. 세일즈포스·마이크로소프트·구글의 책임감 있는 AI 도입 성공 사례 여러 기업들이 이미 책임감 있는 생성형 AI 사용을 위한 구체적인 조치를 취하고 있다. 세일즈포스(Salesforce)는 자체 생성형 AI 모델군인 파이어플라이(Firefly)를 개발하면서 투명성과 책임감 있는 사용에 중점을 두었다. 저작권 침해 위험을 인식하고 공개 도메인 콘텐츠와 라이선스가 있는 콘텐츠로만 모델을 훈련시켜 법적 위험을 완화했다. 마이크로소프트(Microsoft)는 2022년 업데이트된 책임감 있는 AI 표준을 출시했으며, 이는 6가지 AI 원칙과 연결되어 제품 개발 요구사항을 설명한다. 생성형 AI 애플리케이션을 개발하는 팀들은 개발 라이프사이클 전반에 걸쳐 위험을 매핑, 측정, 관리해야 한다. 구글(Google)은 Bard 출시 전에 다양한 배경을 가진 수백 명의 구글러를 모집하여 의도적으로 사용 정책을 위반하고 서비스를 테스트했다. 또한 MLCommons 및 Kaggle과 파트너십을 맺어 "Adversarial Nibbler"라는 공개 AI 경쟁을 만들어 텍스트-이미지 모델을 스트레스 테스트하기 위한 적대적 프롬프트를 크라우드소싱했다. FAQ Q: 생성형 AI를 책임감 있게 사용하는 것이 왜 중요한가요? A: 생성형 AI의 책임감 있는 사용은 브랜드 신뢰도와 평판을 구축하고, 규제 준수를 유지하며, 위험을 완화하여 지속 가능한 성장을 촉진합니다. 특히 57%의 소비자가 기업의 개인정보 사용 방식에 불편함을 느끼고 있어, 책임감 있는 AI 관행은 고객 신뢰 확보에 필수적입니다. Q: 생성형 AI 사용 시 가장 주의해야 할 위험은 무엇인가요? A: 5가지 핵심 위험으로 데이터 프라이버시 침해, 투명성 부족, 환각과 부정확성, 편향성, 안전성과 보안 취약점이 있습니다. 이 중에서도 부정확성은 2024년 글로벌 경영진의 63%가 관련 위험으로 인식하고 있는 최고 위험 요소입니다. Q: 중소기업도 생성형 AI를 책임감 있게 사용할 수 있나요? A: 네, 가능합니다. 플레이북에서 제시하는 '직감 점검' 같은 간단한 방법부터 시작하여 점진적으로 정책과 교육을 확대할 수 있습니다. 조직의 규모와 상관없이 AI 사용 전 기본적인 위험 평가와 투명한 소통만으로도 책임감 있는 사용의 첫걸음을 뗄 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.04 20:04AI 에디터

"정답 몰라도 괜찮다"... AI 강화학습 상식을 뒤엎은 워싱턴대 연구

무작위 보상만으로 21.4% 성능 향상, 틀린 답 보상해도 24.6% 상승 강화학습 분야에서 놀라운 연구 결과가 발표됐다. 워싱턴대학교와 앨런 인공지능 연구소(Allen Institute for AI) 공동 연구팀이 검증 가능한 보상을 통한 강화학습(Reinforcement Learning with Verifiable Rewards, RLVR) 방법론에서 전혀 예상치 못한 현상을 발견했다. 정답과 무관하거나 심지어 부정확한 '가짜 보상(spurious rewards)'만으로도 특정 AI 모델의 수학 추론 능력이 크게 향상된다는 것이다. 연구진은 Qwen2.5-Math-7B 모델을 대상으로 MATH-500 벤치마크에서 다양한 보상 신호를 테스트했다. 그 결과 무작위 보상(random reward)을 사용해도 21.4%의 절대적 성능 향상을 기록했다. 이는 정답 기반 보상으로 얻은 28.8% 향상과 비교해 76%에 달하는 수준이다. 더욱 놀라운 것은 틀린 정답을 보상하는 '부정확한 라벨(incorrect label)' 보상으로도 24.6%의 성능 향상을 달성했다는 점이다. 연구진이 테스트한 가짜 보상들은 다음과 같다. 형식 보상(format reward)은 답변에 'oxed{}' 표현이 포함되기만 하면 보상을 주는 방식으로 16.4% 향상을 보였고, 다수결 투표(majority voting) 방식은 26.5% 향상을 기록했다. 심지어 50% 확률로 완전히 무작위로 보상을 주는 시스템도 상당한 성능 개선을 이뤄냈다. Qwen만 특효, Llama·OLMo는 효과 제로... 8개 모델 교차검증 결과 연구의 핵심 발견은 이러한 가짜 보상 효과가 Qwen 계열 모델에서만 나타난다는 점이다. Llama3.1-8B-Instruct와 OLMo2-7B 같은 다른 모델 패밀리에서는 동일한 가짜 보상을 적용해도 성능 향상이 거의 없거나 오히려 성능이 저하되는 경우가 많았다. 연구진은 8개의 추가 모델을 대상으로 교차 검증을 실시했다. Qwen2.5-7B, Qwen2.5-1.5B 등 일반 목적 Qwen 모델들은 여전히 가짜 보상에서 일정한 성능 향상을 보였지만, Llama3.1-8B, Llama3.2-3B, OLMo2-7B 등 다른 모델 패밀리에서는 정답 기반 보상에서만 의미 있는 성능 향상이 나타났다. 특히 모델 크기와 가짜 보상 효과 간에도 상관관계가 발견됐다. 더 큰 모델일수록 사전 훈련에서 얻은 지식을 더 많이 보유하고 있어 가짜 보상으로도 이를 효과적으로 활용할 수 있는 것으로 분석됐다. 비밀은 '코드 추론'... 65%→90% 급증이 성능향상 58.3% 기여 연구진은 이러한 현상의 원인을 분석한 결과, '코드 추론(code reasoning)'이라는 독특한 패턴을 발견했다. Qwen2.5-Math-7B는 코드 실행 환경 없이도 파이썬 코드를 생성해 수학 문제를 해결하는 방식을 65%의 경우에 사용했다. 놀랍게도 코드 추론을 사용한 답변의 정확도는 64%로, 자연어만 사용한 29%보다 두 배 이상 높았다. RLVR 훈련 과정에서 가짜 보상들은 모두 코드 추론 빈도를 90% 이상으로 증가시켰고, 이는 전체 성능 향상과 강한 상관관계를 보였다. 연구진이 Lang→Code(자연어에서 코드로 전환) 그룹을 분석한 결과, Qwen2.5-Math-7B 성능 향상의 58.3%가 이 그룹에서 발생했음을 확인했다. 이를 검증하기 위해 연구진은 의도적으로 코드 추론을 유도하는 실험을 진행했다. "Let's solve this using Python"으로 시작하도록 강제한 프롬프트 실험에서 Qwen2.5-Math-7B는 11.8%, Qwen2.5-Math-1.5B는 25.6%의 성능 향상을 보였다. 반면 Llama와 OLMo 모델들은 오히려 성능이 저하됐다. GRPO 클리핑 메커니즘이 무작위 보상을 학습 신호로 변환 연구진은 무작위 보상이 어떻게 학습 신호를 제공하는지에 대한 수학적 분석도 제시했다. GRPO(Group Relative Policy Optimization) 알고리즘의 클리핑(clipping) 메커니즘이 무작위 보상 상황에서도 의미 있는 훈련 신호를 생성한다는 것이다. 클리핑 메커니즘을 제거한 실험에서는 무작위 보상의 성능 향상 효과가 사라졌다. 이는 최적화 알고리즘 자체가 모델의 기존 행동 패턴을 편향적으로 강화하는 역할을 한다는 것을 시사한다. 연구진은 "겉보기에는 의미 없어 보이는 무작위 보상도 최적화 알고리즘의 편향을 통해 사전 훈련된 유용한 패턴을 증폭시킬 수 있다"고 설명했다. FAQ Q: 가짜 보상이란 무엇이며, 왜 AI 성능 향상에 효과가 있는 것인가? A: 가짜 보상(spurious rewards)은 정답과 무관하거나 심지어 틀린 정보를 바탕으로 AI에게 주는 보상을 의미한다. 연구에 따르면 특정 AI 모델(Qwen 계열)에서는 이런 가짜 보상만으로도 사전 훈련 시 학습한 유용한 추론 패턴(코드 추론 등)을 활성화시켜 수학 문제 해결 능력이 크게 향상된다. Q: 모든 AI 모델에서 가짜 보상 효과가 나타나는 것인가? A: 아니다. 이 연구에서 가짜 보상 효과는 Qwen 계열 모델에서만 확인됐다. Llama3나 OLMo2 같은 다른 AI 모델에서는 동일한 가짜 보상을 적용해도 성능 향상이 없거나 오히려 성능이 저하됐다. 이는 사전 훈련 과정에서 학습한 추론 패턴의 차이 때문으로 분석된다. Q: 이 연구 결과가 AI 개발에 어떤 의미를 가지는가? A: 이 연구는 AI 강화학습에서 보상 신호의 질보다 모델의 사전 훈련 특성이 더 중요할 수 있음을 시사한다. 또한 특정 모델에서만 효과를 보인 연구 결과를 다른 모델에 일반화할 때 주의가 필요하다는 교훈을 제공한다. AI 연구자들은 향후 다양한 모델에서 검증하는 것이 중요하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.04 16:45AI 에디터

실업률 20% 시대 온다…'AI 쓰나미'서 살아남는 5가지 방법

"대부분 사람들이 이런 일이 곧 일어날 것이라는 사실을 모르고 있다. 미친 소리로 들리겠지만, 사람들은 그냥 믿지 않는다." 앤트로픽 CEO 다리오 아모데이가 최근 던진 이 말은 단순한 예측이 아닙니다. 그는 AI가 5년 내 화이트칼라 직종 절반을 없애고 실업률을 20%까지 끌어올릴 수 있다고 경고했습니다. 이는 1930년대 대공황 당시 25% 실업률에 육박하는 수치입니다. 놀라운 것은 이 '미래'가 이미 시작됐다는 점입니다. 미국에서는 프로그래머 일자리가 2년 만에 27.5% 사라졌습니다. IT 신입 채용 공고는 3년 연속 급감하며 올해 4.4%까지 떨어졌습니다. 하지만 패닉에 빠질 필요는 없습니다. 역사상 모든 기술 혁명이 그랬듯, 일부 일자리가 사라지는 동시에 새로운 기회도 창출됩니다. 중요한 것은 쓰나미가 오기 전에 높은 곳으로 피하는 것입니다. 이미 시작된 '조용한 대체', "AI가 할 수 있으면 사람은 안 뽑는다" 워싱턴포스트에 따르면 컴퓨터 프로그래머 일자리가 2년 만에 27.5% 사라져 1980년 수준으로 되돌아갔습니다. 이는 조사에 포함된 420개 직업 중 가장 큰 타격을 받은 수준입니다. 시점이 의미심장합니다. 이 급감은 2022년 말 챗GPT 출시와 정확히 일치합니다. 앤트로픽 연구에 따르면, 사람들이 AI에게 맡기는 작업 중 프로그래머 관련 업무가 6.2%로 700개 직업 중 1위를 차지했습니다. 브루킹스 연구소의 마크 무로는 "프로그래밍 실업률 상승은 AI의 초기, 가시적인 노동시장 효과"라고 분석했습니다. Z세대의 착각: "AI 쓰니까 괜찮겠지" 더 심각한 문제는 당사자들의 '안일함'입니다. Z세대 54%가 주 1회 이상 AI를 사용하지만, 학업에 제대로 활용하는 비율은 22%에 불과합니다. 79%가 독학으로 AI를 익히는 반면, 정규 교육을 받은 학생은 15%뿐입니다. 한 비기술 전공 학생의 말이 현실을 보여줍니다. "호기심과 글 교정용으로만 AI를 쓰지, 창의적 콘텐츠는 만들 의향이 없다." 하지만 기업들은 이미 다른 기준으로 움직이고 있습니다. 마이크로소프트 조사에서 기업 리더 71%가 "AI 기술 있는 신입을 경험 많은 기존 직원보다 선호한다"고 답했습니다. 생존 공식 1: 'AI 운영자'가 되어라 엔비디아 전문가들이 공개한 첫 번째 생존 법칙은 명확합니다. "AI 운영자(AI Operator)가 되어라." 여성 데이터 분야 단체 창립자 세이디 세인트 로렌스는 "정확한 기술 습득에 집착하지 말고, 일상 업무에 AI 활용을 통합하는 데 집중하라"고 조언했습니다. 구글 딥마인드 CEO 데미스 하사비스의 말은 더욱 직설적입니다. "내가 오늘날 10대라면 최신 AI 도구 사용의 닌자가 되려고 노력할 것입니다. 최신 AI 도구를 정말 잘 사용하게 되면 거의 초인적이 될 수 있습니다." 놀라운 사실은 AI 분야 진출에 컴퓨터 전공이 필수가 아니라는 점입니다. 인사이드 하이어 에드 조사에서 60% 이상 학생들이 AI 때문에 진로 계획을 바꿨다고 답했습니다. 순수예술이든 화학공학이든, 중요한 것은 해당 분야에서 AI를 어떻게 활용하느냐입니다. 엔비디아의 카터 압달라는 "AI를 통해 전문 분야 외 영역으로 확장할 수 있다"며 "비기술 인력도 코딩할 수 있게 되고, 기술 인력은 인문학 교육을 활용해 AI에 인간적 요소를 추가할 수 있다"고 설명했습니다. 생존 공식 2: 창의적 문제해결자로 진화하라 소프트웨어정책연구소 전문가들이 꼽은 최우선 역량은 창의적 문제해결능력(4.73점)과 타 분야 소통능력(4.69점)입니다. AI가 코드 작성을 자동화해도, 문제 정의와 시스템 설계, 요구사항 분석은 여전히 인간의 영역이기 때문입니다. 실제로 미국에서 프로그래머 일자리는 27.5% 감소했지만, 소프트웨어 개발자는 0.3%만 줄었습니다. 둘의 차이는 명확합니다. 프로그래머는 "다른 사람의 지시에 따라 코드를 작성"하지만, 개발자는 "고객 요구사항을 파악하고 솔루션을 설계"합니다. 연봉 차이도 4500만원에 달합니다. 개발자는 더 이상 혼자 코드만 치는 존재가 아닙니다. 다양한 이해관계자와 협력하며 비즈니스 문제를 해결하는 역할로 확장되고 있습니다. SPRi 보고서에서 전문가들이 강조한 것도 바로 이 점입니다. "생성형 AI가 반복 업무를 처리하는 동안, 개발자는 창의적이고 전략적인 업무에 집중하게 됩니다." 생존 공식 3: 틈새 전문가가 되어야 한다 SPRi가 제시한 핵심 전략은 "SW·AI 융합 산업 진출"입니다. 핀테크, 헬스케어, 자율주행차, 스마트공장 등 AI와 기존 산업이 만나는 지점에서 기회가 폭발하고 있습니다. 단순히 코딩만 하는 개발자가 아니라, 특정 도메인 지식을 갖춘 AI 활용 전문가가 되어야 합니다. 엔비디아의 에릭 바르가스는 "AI 내에는 다양한 하위 영역과 산업 분야가 있다"며 "자신의 열정과 가장 잘 맞는 산업을 찾아 전문성을 쌓아야 한다"고 조언했습니다. 자율주행차 분야의 AI 전문가와 의료 분야의 AI 전문가는 완전히 다른 영역이기 때문입니다. 주목할 점은 '신뢰할 수 있는 AI(Trustworthy AI)' 분야의 부상입니다. 엔비디아에서 인턴으로 일하는 청각장애인 데이비드 마틴은 수화 AI 애플리케이션 개발팀에 자문을 제공하고 윤리적 데이터셋 큐레이션 도구 개발을 지원합니다. 자신의 경험과 열정을 AI와 결합해 사회적 가치를 창출하는 사례입니다. 생존 공식 4: 새로운 채용 게임의 룰을 파악하라 기존 채용 방식도 급변하고 있습니다. 단순 코딩 능력을 측정하는 테스트 대신, AI 도구와 협업하는 능력과 프로젝트 경험이 중요해지고 있습니다. 토스는 이미 코딩테스트를 폐지하고 직무 인터뷰를 강화했습니다. 바르가스가 제시한 차별화 전략은 구체적입니다. "해결할 수 있는 문제를 찾아내고 채용되기 전에도 이를 해결하기 위한 선제적 조치를 취하라." NVIDIA Jetson 개발 키트로 로봇 솔루션을 만들거나, 바이럴된 기술 아티클을 작성하거나, 캠퍼스에서 AI 클럽을 시작하는 것들이 그 예입니다. 채용 담당자들이 찾는 3가지 요소는 명확합니다: ①기술 역량 증명 ②주제 전문성 ③틀을 벗어난 사고. 깃허브 저장소, 개인 프로젝트, 기술 블로그가 이력서보다 중요해지고 있습니다. 특히 AI 활용 능력을 보여주는 프로젝트는 필수가 됐습니다. 생존 공식 5: 평생학습 네트워크를 구축해야 한다 세인트 로렌스의 경험담은 시사점이 큽니다. "AI 분야에서 네트워크 구축과 멘토십이 경력 성장에 결정적이었습니다." 링크드인 같은 플랫폼을 통해 업계 전문가와 연결하고, NVIDIA 딥러닝 연구소 같은 실무 중심 교육을 활용하는 것이 핵심입니다. 하사비스 CEO가 강조한 '메타 스킬'도 중요합니다. "학습하는 방법을 배우는 것, 창의성, 적응력, 회복력이 다음 세대에게 필요한 스킬입니다." 기술은 계속 변하지만, 변화에 적응하는 능력은 영원합니다. 개인 노력만으로는 한계가 있습니다. SPRi는 정부 차원에서 빅데이터, AI 기술 중심의 개발자 양성 프로그램 개편과 융합 산업 교육 확대를 제안했습니다. 기업들도 직원 재교육과 전환 프로그램에 투자해야 합니다. 마지막 기회, 지금 움직이지 않으면 늦다 아모데이 CEO의 비유가 정확합니다. "기차 앞에 서서 막을 수는 없습니다. 유일한 방법은 기차를 10도 다른 방향으로 조종하는 것입니다." 코그니전트 분석에 따르면, AI로 자동화될 일자리 비중이 2023년 8%에서 2032년 52%로 급증할 전망입니다. 하지만 절망할 필요는 없습니다. 전문가들도 AI의 완전한 인간 대체는 어렵다고 봅니다. SPRi 조사에서 61%가 "개발 결과물에 대한 최종 책임, 새로운 문제 정의, 맥락적 사고는 여전히 인간 고유 영역"이라고 답했습니다. 중요한 것은 시간입니다. 아모데이가 "5년 내"라고 한 예측이 현실화되기 전에, 우리는 스스로를 업그레이드해야 합니다. AI와 경쟁하는 대신 AI와 협력하는 인재로, 단순 반복 업무를 하는 직원에서 창의적 문제해결자로, 혼자 일하는 개발자에서 소통하는 협업자로 진화해야 합니다. 실업률 20% 시대는 피할 수 없을지 모릅니다. 하지만 그 20%에 포함될지, 80%에 남을지는 지금 우리의 선택에 달려 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.02 20:34AI 에디터

[Q&AI] 이재명 지지 선언 부인한 짐 로저스… 무슨 일?

질문: 짐 로저스가 이재명을 지지한 적이 없다고 밝혔는데, 이게 무슨 일이고 어떤 의미인지 자세히 정리해서 알려줘. 그록 답변: 짐 로저스(Jim Rogers)와 이재명 더불어민주당 대선 후보를 둘러싼 지지 선언 논란은 2025년 6월 1일 매일신문의 보도로 시작된 사건으로, 한국 대선 정국에서 큰 파장을 일으켰습니다. 이 논란은 민주당 측이 짐 로저스가 이재명을 지지했다는 주장을 펼쳤으나, 로저스 본인이 이를 부인하면서 허위 여론 조작과 사기라는 비판이 제기된 사안입니다. 아래에서 이 사건의 경과, 관련 인물들의 입장, 그리고 그 의미를 자세히 정리하겠습니다. 1. 사건의 경과 1.1. 민주당의 짐 로저스 지지 선언 발표 (2025년 5월 29일) 발표 내용: 민주당 중앙선거대책위원회 총괄선거대책본부 국제협력단 공동단장인 이재강 의원은 국회 소통관에서 기자회견을 열고, 세계적인 투자자 짐 로저스 로저스홀딩스 회장이 이재명 후보를 지지한다고 발표했습니다. 김진향 전 개성공단 이사장이 로저스의 지지 선언문을 대독하며, 로저스가 “한반도의 평화와 번영을 위해 이재명 후보를 지지한다. 이재명은 대한민국뿐 아니라 전 세계에 평화를 실현할 수 있는 지도자”라고 말했다고 주장했습니다. 이재명 후보의 반응: 이재명 후보는 5월 30일 자신의 페이스북에 “짐 로저스의 지지 선언을 들었다”며 “평화는 단순히 정치 문제가 아닌 경제 전략”이라는 로저스의 말을 인용하고, “대한민국이 동북아의 무역·금융·혁신 허브로 도약할 때”라는 말에 동감한다고 밝혔습니다. 그는 또한 자신의 '코스피 5000 시대' 공약과 연계해 주식시장 성장 가능성을 강조했습니다. 1.2. 짐 로저스의 부인과 논란 발발 (2025년 6월 1일) 매일신문 보도: 6월 1일, 매일신문은 짐 로저스가 이재명 후보 지지 선언을 한 적이 없으며, 이를 “완전한 사기(complete fraud)”라고 표현했다고 보도했습니다. 로저스는 매일신문과의 인터뷰에서 “나는 한국에서 누구도 지지한 적이 없다”며 “이런 주장에 대해 아무것도 모른다”고 밝혔습니다. 그러나 이 기사는 이후 삭제되어 논란을 더욱 키웠습니다. 한국경제 보도: 같은 날 한국경제는 로저스와의 이메일 인터뷰를 통해 그가 “몇 년 전 잠깐 만난 폴 송(송경호 교수)이 부정확한 정보를 퍼뜨렸다”며 “내 이름이 이런 식으로 사용되지 않기를 바란다”고 말했다고 보도했습니다. 로저스는 특히 “나는 외국인이고 한국에서 투표할 권한도 없다”고 강조했습니다. 로저스의 추가 발언: 한국경제가 공개한 위챗 대화 캡처에 따르면, 로저스는 송경호 교수와의 대화에서 “한국에 관심이 많지만 이재명 후보를 잘 알지 못한다”고 말한 것으로 확인되었습니다. 민주당이 발표한 지지 선언문에는 “지금, 선택은 이재명”이라는 문구가 포함되었으나, 로저스가 승인한 초안에는 이러한 직접적인 지지 표현이 없었다고 밝혀졌습니다. 1.3. 김진향과 송경호의 반박 (2025년 6월 1일~2일) 김진향의 주장: 김진향 한반도평화경제회의 상임의장은 6월 1일 페이스북을 통해 “짐 로저스의 이재명 지지는 사실”이라고 반박했습니다. 그는 송경호 평양과학기술대 교수와 로저스가 지지 선언문을 만들었으며, 촉박한 일정으로 인해 문구 확정 과정에서 “일부 착오”가 있었다고 해명했습니다. 김진향은 “선거 후 송경호 교수와 협의해 지지문 작성 과정을 공개하겠다”고 약속했으나, 로저스의 사적 대화를 공개하는 것은 부적절하다며 즉각적인 증거 제시를 피했습니다. 송경호의 주장: 송경호 교수는 김진향을 통해 입장문을 발표하며, 로저스가 자신에게 이재명 지지 초안 작성을 요청했다고 주장했습니다. 그는 로저스가 'support'(일상적 지지)를 의도했으나, 일부 언론이 'endorse'(법적·경제적 책임을 포함한 지지)라는 단어를 사용해 오해가 생겼다고 설명했습니다. 1.4. 정치권의 반응 국민의힘: 김문수 국민의힘 대선 후보는 “이건 여론 조작이자 대국민 사기극”이라며 이재명 후보를 강하게 비판했습니다. 그는 “가짜 정치하는 사람에게 나라를 맡기면 가짜 평화, 가짜 경제, 가짜 민생이 된다”고 주장했습니다. 김용태 비상대책위원장은 “국제적 망신”이라며 “유명인 명의를 도용한 투자 사기와 다를 바 없다”고 비판했습니다. 신나리 외신대변인은 “외국인 명의를 사적으로 도용해 국민의 판단을 왜곡하려 한 정치적 사기극”이라고 규탄했습니다. 개혁신당: 이준석 개혁신당 후보는 “거짓말이 일상화되어 있다”며 “이 발표 이후 주식시장 변동이 있었다면 주가 조작 세력과의 결탁 여부를 수사해야 한다”고 주장했습니다. 민주당: 조승래 민주당 선대위 수석대변인은 “경위를 파악해 입장을 발표하겠다”고 밝혔으나, 구체적인 반박이나 사과는 아직 없는 상태입니다. 고발: 국민의힘 이종배 서울시의원은 이재명 후보를 허위사실공표 혐의로 고발했습니다. 1.5. 여론과 X 반응 X 게시물에서는 이재명 후보와 민주당을 비판하는 목소리가 다수였습니다. 사용자들은 “국제적 사기”, “사기집단”, “거짓말이 일상화” 등의 표현으로 민주당의 주장을 강하게 비판했으며, 일부는 기사 삭제를 두고 언론 억압 의혹을 제기했습니다. 2. 주요 쟁점과 분석 2.1. 짐 로저스의 입장 로저스는 이재명 지지 선언을 전혀 하지 않았다고 단호히 부인했습니다. 그는 한국 정치에 개입할 권한이 없으며, 이재명 후보를 잘 알지 못한다고 밝혔습니다. 특히, 송경호 교수와의 대화에서 한반도 평화와 경제 협력에 대한 일반적인 지지를 표명했을 가능성은 있지만, 이를 이재명 개인에 대한 지지로 왜곡한 것으로 보입니다. 로저스가 'support'와 'endorse'의 단어 차이를 언급하며 입장이 위축되었다는 송경호의 주장은, 로저스가 법적·경제적 책임을 동반하는 공식 지지를 피하려 했을 가능성을 시사합니다. 2.2. 김진향과 송경호의 역할 김진향과 송경호는 로저스의 지지 선언문을 작성하고 발표한 핵심 인물입니다. 이들은 로저스와의 대화를 근거로 지지 선언을 준비했다고 주장하지만, 로저스가 승인한 초안과 실제 발표된 문구가 다르다는 점이 논란의 핵심입니다. 김진향의 “착오” 해명과 “선거 후 공개” 약속은 즉각적인 증거 제시 부족으로 신뢰를 얻지 못하고 있으며, 로저스의 사적 대화를 이유로 공개를 피한 점은 의혹을 증폭시켰습니다. 2.3. 민주당의 대응 민주당은 이재강 의원을 통해 로저스의 지지 선언을 공식 발표했으나, 로저스의 부인 이후 명확한 해명이나 사과를 내놓지 않았습니다. 이는 민주당의 검증 부족과 무리한 선거 전략이 드러난 사례로 평가됩니다. 2.4. 기사 삭제 논란 매일신문의 최초 보도가 삭제된 것은 언론 자유와 관련된 논란을 낳았습니다. 일부 X 사용자는 이를 민주당의 언론 억압으로 해석했으나, 명확한 증거는 없습니다. 3. 사건의 의미 3.1. 정치적 파장 여론 조작 논란: 이 사건은 민주당이 세계적인 투자자의 명성을 이용해 유권자들에게 이재명 후보의 신뢰도를 높이려 한 시도로 보입니다. 그러나 로저스의 부인으로 인해 오히려 민주당과 이재명 후보의 신뢰도가 타격을 받았습니다. 국민의힘과 개혁신당은 이를 “대국민 사기극”으로 규정하며 공세를 강화하고 있습니다. 주가 조작 의혹: 이준석 후보는 로저스의 지지 선언 발표 이후 주식시장 변동 가능성을 언급하며, 주가 조작 세력과의 결탁 여부를 수사해야 한다고 주장했습니다. 이는 이재명 후보의 '코스피 5000' 공약과 연계된 민감한 사안으로, 추가 조사가 필요할 수 있습니다. 3.2. 국제적 망신 짐 로저스는 세계적으로 유명한 투자자입니다. 그의 명의를 무단으로 사용한 것은 한국 정치의 신뢰도를 국제적으로 떨어뜨리는 요인으로 작용할 수 있습니다. 국민의힘은 이를 “국제적 망신”으로 규정하며 외교적 파장 가능성을 언급했습니다. 3.3. 법적 문제 이재명 후보는 허위사실공표 혐의로 고발당했습니다. 공직선거법상 허위사실 유포는 중대한 위반으로, 선거 결과에 영향을 미칠 경우 법적 처벌로 이어질 수 있습니다. 로저스의 명의를 도용한 행위는 명예훼손이나 사문서 위조 등의 민·형사적 책임으로 이어질 가능성도 제기됩니다. 3.4. 유권자 신뢰 문제 대선을 이틀 앞둔 시점(6월 1일)에서 이 사건은 유권자들의 판단에 혼란을 초래할 수 있습니다. 김진향의 “선거 후 공개” 발언은 유권자들의 즉각적인 정보 접근을 제한하며 의혹을 키웠습니다. 4. 결론 짐 로저스 이재명 지지 선언 논란은 민주당의 선거 전략이 허위 정보에 기반했을 가능성을 보여주는 사건입니다. 로저스 본인이 이를 “사기”라고 규정한 점, 민주당 측의 미흡한 해명, 그리고 기사 삭제 논란은 이 사건의 신뢰성을 더욱 떨어뜨렸습니다. 이로 인해 민주당과 이재명 후보는 신뢰도 하락과 법적 리스크에 직면했으며, 국민의힘과 개혁신당은 이를 정치적 공세의 기회로 활용하고 있습니다. 선거 직전 발생한 이 사건은 유권자들의 판단에 영향을 미칠 가능성이 크며, 김진향과 송경호의 약속대로 선거 후 지지문 작성 과정이 공개된다면 추가 진실이 밝혀질 수 있습니다. 그러나 현재로서는 로저스의 부인이 더 신뢰할 만한 증거로 여겨집니다. ■ 해당 기사는 그록을 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.06.02 20:33AI 에디터

"AI 때문에 실직하면 급여 50% 받는다"…세계 첫 AI 실직 보험

Y콤비네이터(Y Combinator)의 지원을 받는 스타트업 싱귤래리티(Singularity)가 인공지능으로 인한 실직에 대응하는 세계 최초의 소득보호 보험 상품을 출시했다고 지난 달 23일(현지 시간) 발표했다. 이날 발표된 '싱귤래리티쉴드 소득보장(SingularityShield Income Cover)'은 AI 자동화로 인해 일자리를 잃은 근로자들을 위해 특별히 설계된 최초의 소득보호 보험이다. 이 보험의 핵심 특징은 보장이 발동되면 매 급여일마다 순 급여의 최대 50%를 자동으로 지급받을 수 있다는 점이다. 보장 기간은 3개월, 6개월, 12개월 중에서 선택할 수 있으며, AI 실직 위험 지수(AI-Displacement Risk Index)가 250개 이상의 데이터 신호를 추적해 투명한 데이터 기반 보장을 제공한다. 기존 보험과 달리 매개변수 보험(parametric policy) 방식으로 운영된다. 보험가입자의 직업에 대한 AI 실직 위험 지수가 설정된 임계값을 넘고, 비자발적으로 해고될 경우 자동으로 혜택이 발동된다. 주관적인 청구 평가 없이 투명한 데이터를 바탕으로 즉시 지급이 이뤄진다. 보험 가입은 완전히 디지털화되어 60초 양식 작성부터 전자서명, 은행계좌 연결까지 몇 분이면 완료된다. 의료검진이나 서면 서류는 필요하지 않다. AI 실직 위험 지수는 기업의 SEC 신고서와 실적 발표 자료, 정부의 해고 통지서와 고용 동향 데이터, 기술업계 해고 동향과 경영진 커뮤니케이션 등을 종합해 산출된다. 영국과 미국의 지식 부문 근로자들을 대상으로 먼저 출시되며, 2025년 내내 추가 지역과 산업으로 확대될 예정이다. 재교육을 위한 온라인 학습 플랫폼 크레딧도 함께 제공한다. 세계경제포럼에 따르면, 2030년까지 9200만 개의 일자리가 기술 혁신으로 사라질 것으로 예측되며, 맥킨지에 따르면, 생성형 AI는 현재 직원 업무의 60-70%를 자동화할 수 있다. PwC에 따르면, CEO 4명 중 1명이 생성형 AI로 인해 올해 5% 이상의 인력 감축이 있을 것으로 예상한다고 밝혔다. ■ ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. (☞ 원문 바로가기)

2025.06.02 16:08AI 에디터

EU vs 미국 vs 중국…누가 AI의 미래를 좌우할까

스탠퍼드·하버드 연구진이 밝힌 'AI 규제 착시현상': 영국 vs EU의 극명한 차이 AI 거버넌스는 자발적 가이드라인에서 구속력 있는 규제로 전환되고 있다. 스탠퍼드대학교(Stanford University)와 하버드대학교(Harvard University) 연구진이 개발한 새로운 분류체계(taxonomy)는 전 세계 AI 규제 환경의 복잡성을 해결하기 위해 설계됐다. 해당 연구질이 발표한 논문에 따르면, 이 연구는 유럽연합(EU) AI법, 미국 행정명령 14110, 캐나다 AI 및 데이터법, 중국 생성형 AI 서비스 임시 조치, 브라질 AI 법안 2338/2023 등 5개 주요 법안을 분석했다. 연구진은 AI 규제의 의미가 모호하게 사용되면서 대중의 기대와 실제 보호 수준 사이에 괴리가 발생하고 있다고 지적했다. 영국의 '혁신 친화적 AI 규제 접근법'은 법적 구속력이 없는 반면, EU AI법은 위반 시 재정적 처벌과 제재를 포함한 포괄적 규제 체계를 제공한다는 점이 대표적 예시다. 디지털 선진국 vs 후발주자: EU·중국은 성숙, 미국은 '연방법 공백' 상태 AI 규제는 각국의 디지털 법적 환경 성숙도에 따라 다른 양상을 보인다. EU와 중국은 개인정보보호, 콘텐츠 조절, 저작권법 등 신기술 전반을 포괄하는 성숙한 법적 체계를 갖추고 있다. EU는 일반데이터보호규정(GDPR), 디지털서비스법(DSA), 디지털시장법(DMA) 등을 통해 예방적 접근법을 채택하고 있으며, 중국은 국가인터넷규제기관인 사이버스페이스관리국(CAC)을 통해 알고리즘 추천 관리 규정, 딥페이크 관리 규정 등 강력한 규제를 시행하고 있다. 브라질과 캐나다는 중간 수준의 성숙도를 보여준다. 브라질은 2019년 국가 AI 전략을 시작으로 일반개인정보보호법과 인터넷 권리장전을 보완하는 위험 기반 프레임워크를 채택했다. 캐나다는 2022년 AI 및 데이터법(AIDA)을 도입했지만 2025년 연방선거 전 채택 불확실성으로 인해 규제 환경이 여전히 발전 중이다. 미국은 연방 차원의 기술별 규제가 부족한 상황이다. 바이든 행정부의 AI 권리장전 청사진과 NIST AI 위험관리 프레임워크는 소프트로 접근에 그치고 있으며, 부문별 규제와 책임 체계에 의존하고 있다. '미리 막자' vs '사고 나면 처벌': EU는 출시 전 검증, 미국은 10^26 FLOPS 기준 도입 각국은 AI 규제에서 사전(ex ante) 또는 사후(ex post) 접근법을 채택하고 있다. EU AI법은 사전 예방적 접근법의 대표 사례로, 고위험 애플리케이션에 대해 시장 출시 전 적합성 평가 등 세부적인 위험 기반 의무사항을 부과한다. 브라질은 EU의 위험 기반 모델에서 영감을 받아 AI 시스템 분류, 위험 평가, 투명성 요구사항, 규제 샌드박스를 포함한 사전 감독에 중점을 둔다. 미국은 전통적으로 사후 구제책에 의존했지만, 바이든의 행정명령 14110은 고성능 컴퓨팅 AI 모델(10^26 FLOPS 이상의 이중용도 기반 모델)에 대해 배포 전 안전 테스트, 위험 평가, 보고 요구사항을 의무화하는 등 상당한 사전 예방적 요소를 도입했다. 중국은 더욱 중앙집권적인 사전 예방 철학을 나타낸다. 생성형 AI 임시 조치는 개발자들이 공개 출시 전 모델을 등록하고, 보안 평가를 수행하며, 콘텐츠 및 국가 보안 가이드라인을 준수하도록 요구한다. 생성형 AI vs 의료용 AI: 기술별 규제와 용도별 규제의 하이브리드 경쟁 AI 규제는 기술 유형(생성형 AI, 이중용도 기반 모델)을 대상으로 하거나 응용 사례별(의료, 고용, 교통) 접근법을 취한다. 미국과 중국은 주로 기술 유형을 우선시하는 반면, EU, 캐나다, 브라질은 초기에 응용 수준에서 규제하다가 범용 AI(GPAI) 시스템을 다루기 위해 기술 커버리지를 추가했다. EU AI법은 하이브리드 접근법의 대표 사례로, 4단계 위험 분류를 통해 응용 수준에서 AI 시스템을 규제하면서 GPAI 기술에 대한 보완 규칙을 추가했다. 생성형 AI의 급속한 도입으로 인해 2022년 말 삼자 협상 중 규제 초점이 변화했으며, GPAI 모델에 대해 에너지 소비, 훈련 데이터셋, 저작권 정책 문서화를 요구하는 새로운 조항이 추가됐다. FAQ Q: AI 규제와 AI 정책의 차이점은 무엇인가요? A: AI 규제는 정부 기관이 법을 구현하기 위해 만든 구체적이고 시행 가능한 규칙으로, 위반 시 재정적 처벌이나 활동 중단 등의 제재가 따릅니다. 반면 AI 정책은 의도나 지침 원칙을 제시하는 자발적 가이드라인으로, 법적 구속력이 없습니다. Q: 각국의 AI 규제 접근법이 다른 이유는 무엇인가요? A: 각국의 디지털 법적 환경 성숙도, 거버넌스 중앙집권화 정도, 혁신과 안전 사이의 균형에 대한 가치관 차이에 따라 규제 접근법이 달라집니다. EU는 예방적 접근을, 미국은 부문별 규제를, 중국은 중앙집권적 통제를 선호합니다. Q: AI 규제가 기술 혁신에 미치는 영향은 어떤가요? A: 연구에 따르면 엄격한 규제와 첨단 혁신은 상호 배타적이지 않습니다. 중국의 사례처럼 강력한 규제 하에서도 DeepSeek 모델 같은 혁신적 AI 개발이 가능하며, 오히려 명확한 규제 프레임워크가 기업들에게 예측 가능한 환경을 제공할 수 있습니다. 해당 기사에 인용한 논문 원문은 링크에서 확인 가능하다. 기사는 클로드와 챗GPT를 활용해 작성되었습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.06.02 14:57AI 에디터

월급 8배 인상까지…각국이 AI 인재에게 '올인'하는 진짜 이유

주요국 AI 인재 양성 및 유치 정책 : 현황 및 시사점 AI 구인공고 3.5배 급증, 각국 정부가 대규모 인재 정책에 나선 이유 AI 기술이 국가 경쟁력을 좌우하는 핵심 요소로 부상하면서 전 세계 주요국들이 AI 인재 확보를 위한 치열한 경쟁을 펼치고 있다. 소프트웨어정책연구소(SPRi)가 발간한 보고서에 따르면, AI가 경제 성장과 노동시장 변화, 국가안보 등 다양한 분야에 막대한 영향을 미치면서 각국 정부는 대규모 인재 양성 정책과 해외 전문인력 유치 제도를 활발히 추진하고 있다. 특히 주목할 점은 전문 AI 기술이 필요한 직업에 대한 구인 공고가 2012년 이후 모든 직업 평균 대비 3.5배 더 빠르게 성장하고 있다는 사실이다. 이는 AI 인재에 대한 수요가 폭발적으로 증가하고 있음을 시사한다. 미국: 전 세계 AI 인재 57%가 몰리는 '글로벌 블랙홀', 트럼프 2기 변수는 걸림돌 미국은 풍부한 민간 R&D와 세계적 대학교 육성 시스템, 개방적인 이민정책을 결합해 글로벌 AI 인력 블랙홀로 자리 잡았다. 2020년 'AI 이니셔티브 연간보고서'와 2021년 '국가 AI 이니셔티브실' 출범을 통해 전 주기적 지원을 실시해 왔으며, 2022년 'AI교육법'과 2023년 'NSF Educate AI Initiative' 등으로 K-12부터 대학원까지 AI 교육을 강화하고 있다. 더욱 주목할 만한 것은 2023년 '안전하고 신뢰성 있는 AI를 위한 행정명령'을 통해 AI 전문가 비자를 확대해 해외 우수 연구자 유치를 더욱 촉진하고 있다는 점이다. 전 세계 상위 20%에 해당하는 AI 연구인력 중 중국 출신이 47%로 가장 많지만, 이들 중 57%는 미국에서 활동하고 있어 미국의 인재 흡입력을 보여준다. 하지만 트럼프 2기 행정부의 과학 연구자금 삭감과 일부 폐쇄적 이민정책 가능성 등 정책 변동성이 주목되는 상황이다. 최근 1,200명 이상의 과학자들이 이러한 혼란에 따라 미국을 떠나는 것을 고려하고 있다는 여론조사 결과도 나왔다. 중국: 신입 월급 8배 인상+정착금 1억원으로 해외 인재 대거 귀환 유도 중국은 막대한 정부 투자와 기업의 파격적 보수 책정, 거대한 인구 기반을 결합해 국내 AI 인재를 대량 양성하고 있다. 2020년 '치밍계획'을 통해 귀환 인재에게 혁신인재 및 창업인재는 100만 위안, 청년인재는 50만 위안의 정착금을 지급하고, 지방정부 1:1 매칭 펀드 지원으로 실질 지원 규모를 확대하고 있다. 2022년 '인공지능 인재양성 백서'와 2024년 '중·고등학교 AI 교육 강화 정책' 등으로 전방위적 교육 시스템을 갖추고 있으며, 국가와 지방정부, 기업이 합심하여 AI 분야를 집중 육성함으로써 빠른 속도로 AI 인적자원을 확대하고 있다. 특히 중국의 한 AI 개발 업체는 신입사원 월급을 중국 대졸 신입 평균 급여의 8배가 넘는 최대 천만 원을 제시하는 등 파격적인 대우를 하고 있다. 영국: 브렉시트 후에도 상위 50개 대학 졸업자 특별 비자로 'AI 허브' 지키기 영국은 브렉시트 이후에도 글로벌 AI 리더십 유지를 목표로 2021년 '국가 AI 전략'을 수립하고, 고급인재를 유치하기 위한 비자 제도를 대폭 정비해왔다. 'Global Talent Visa'와 'High Potential Individual Visa' 등을 통해 세계 상위권 대학 졸업자나 우수 연구자에게 유연한 체류와 가족 동반 혜택을 주며, AI 연구 분야에서는 UKRI를 중심으로 AI 전문 박사과정 센터와 펠로우십 프로그램을 확대해 연구 중심 인재를 육성한다. 최근 2025년 'AI 기회 행동계획'에서는 AI 분야 장학제도·평생교육·해커톤 등 인재 유입경로를 다변화하여 유럽 내 AI 허브 지위를 공고히 하는 데 주력하고 있다. 특히 로즈(Rhodes), 마셜(Marshall), 풀브라이트(Fulbright) 급 AI 장학금 신설과 초기 100명의 장학생 선발 등 파격적인 인재 유치 정책을 펼치고 있다. 일본: 배우자 취업+영주권 완화로 AI 인재 순 유출국→유입국 대반전 성공 일본은 2019년부터 본격화한 AI 전략을 토대로 인재 양성과 해외 고급인재 유입 제도를 정비하고 있다. 대학-기업 협력모델을 통해 고교생부터 성인 재교육까지 전방위적 AI 교육을 확대하고, 2023년 '특별고도인재제도(J-Skip)' 등을 통해 해외 우수 인재에게 배우자 취업, 가사도우미 고용, 영주권 요건 완화 등 파격적 우대 조치를 시행하면서 최근에는 AI 인재 순 유입국으로 전환된 모습이다. 2023년 '반도체·디지털 산업전략'과 2024년 '생성형 AI 연구개발' 정책에서 산학협력 기반의 고급인재 육성과 글로벌 연구 네트워크 강화를 강조하여 기술력과 실무 역량을 동시에 높이고 있다. 또한 EU와의 AI 인재 상호유학 프로그램을 통해 글로벌 네트워크 기반 연구 및 인재 교류를 강화하고 있다. 한국: AI 기업 81.9% "인력 부족", 인재 매력도 30~40위권에서 벗어나려면 한국은 2019년 '인공지능 국가전략' 발표 이래 '디지털 인재 양성 종합방안'(100만 디지털 인재 양성), '첨단산업 해외 인재 유치·활용 전략' 등으로 폭넓은 인력 기반을 확보하고자 노력하고 있다. 최근에는 '인공지능기본법'으로 AI 전문인력 양성과 연구개발 지원을 법적으로 보장하고, 'Top-Tier 비자'와 'K-Tech Pass' 등 해외 고급인재를 신속히 받아들이기 위한 비자 사다리 구축에 힘쓰고 있다. 하지만 현실은 녹록지 않다. 국내 다양한 디지털 인력 양성 정책 및 해외 인재 유치 정책 시행에도 불구하고, 2023년 기준 국내 AI 사업 영위 기업 2,354곳 중 81.9%가 "AI 인력이 부족하다"고 응답했다. 더욱 심각한 것은 한국의 인재 유치 매력도가 세계 30~40위권에 머물러 있으며, 2023년 AI 인재 이동 지표에서 -0.3명(10만 명당 0.3명 순유출)을 기록했다는 점이다. FAQ Q1: AI 인재 부족 문제가 왜 이렇게 심각한가요? A1: AI 기술이 경제성장, 국가안보, 노동시장 변화 등 모든 분야에 영향을 미치면서 전문 AI 기술이 필요한 직업 공고가 2012년 이후 일반 직업 대비 3.5배 빠르게 증가했습니다. 특히 생성형 AI 등장으로 수요가 폭발적으로 늘어난 반면, 고급 전문인력 양성에는 시간이 걸려 수급 불균형이 심화되고 있습니다. Q2: 각국의 AI 인재 유치 정책 중 가장 효과적인 것은 무엇인가요? A2: 미국은 개방적 이민정책과 풍부한 연구비로 글로벌 인재를 흡수하고 있으며, 중국은 파격적인 금전적 보상으로 자국 출신 해외 인재를 대거 귀환시키고 있습니다. 일본은 종합적 우대 조치(배우자 취업, 영주권 완화 등)로 순 유입국으로 전환했고, 영국은 유연한 비자 제도와 연구 중심 환경으로 경쟁력을 유지하고 있습니다. Q3: 한국이 AI 인재 경쟁에서 우위를 점하려면 어떤 전략이 필요한가요? A3: 석박사급 고급인재 풀의 신속한 확대, 산학협력을 통한 국내 정착 환경 조성, 해외 한국인 AI 전문가들의 귀환 유도 및 원격 활용, 그리고 글로벌 수준의 연구 환경과 보상 체계 구축이 필요합니다. 특히 선택과 집중을 통한 핵심 AI 분야 육성과 인재 유출 방지를 위한 패러다임 전환이 시급합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.05.30 10:32AI 에디터

[Q&AI] 사전 투표, 모바일 신분증도 가능할까

질문: 사전 투표 가기 전 알아야 할 사항이 있다면? 그록 답변: 사전 투표를 가기 전에 알아야 할 주요 사항은 다음과 같습니다: 투표 기간 및 시간: 2025년 제21대 대통령 선거 사전 투표는 5월 29일(목)부터 5월 30일(금)까지 이틀간 진행됩니다. 투표 시간은 오전 6시부터 오후 6시까지입니다. 신분증 지참: 투표소에서 본인 확인을 위해 사진이 부착된 공식 신분증(주민등록증, 운전면허증, 여권, 장애인등록증 등)을 반드시 지참해야 합니다. 모바일 신분증(네이버, 카카오톡, PASS 앱 등)은 앱 실행 화면으로 제시해야 하며, 캡처 이미지는 인정되지 않습니다. 투표 장소: 사전 투표는 전국 어디서나 설치된 사전 투표소에서 가능합니다. 주소지에 상관없이 투표할 수 있습니다. 투표소 위치는 투표 안내문, 구청/시청/군청 홈페이지, 또는 중앙선거관리위원회 투표소 찾기 서비스(5월 26일 공개 예정)를 통해 확인하세요. 관내/관외 투표 절차: 관내 선거인: 주민등록지와 동일한 구·시·군 내 투표소에서 투표 시, 투표용지를 받아 기표 후 투표함에 넣습니다. 관외 선거인: 주민등록지 외 지역에서 투표 시, 투표용지와 회송용 봉투를 받아 기표 후 봉투에 넣어 밀봉한 뒤 투표함에 넣습니다. 봉투 밀봉을 잊지 마세요(밀봉하지 않으면 무효 처리될 수 있음). 기표 시 주의사항: 반드시 투표소에 비치된 기표용구(도장)를 사용하세요. 펜이나 다른 도구로 표시하면 무효입니다. 후보자 1명에게만 기표하고, 기표칸 안에 정확히 찍어야 합니다. 여러 후보에 기표하거나 기표칸 밖에 찍으면 무효입니다. 투표소 규칙: 투표소 내에서는 사진 촬영, 소란 행위, 선거에 영향을 줄 수 있는 표지(완장, 흉장 등) 착용이 금지됩니다. 투표소 출입은 투표자, 투표 관리 직원, 참관인 등 허가된 인원만 가능합니다. 위반 시 2년 이하 징역 또는 400만 원 이하 벌금에 처해질 수 있습니다. 특별한 경우: 시각/신체 장애가 있는 경우, 가족 또는 본인이 지명한 2명을 동반하여 투표 보조를 받을 수 있습니다. 초등학생 이하 어린이와 함께 투표소에 입장 가능하지만, 기표소에는 동반할 수 없습니다. 투표소 보안: 사전 투표소는 불법 카메라 점검 등 보안 조치가 강화되었습니다. 투표함 이송 및 보관 과정도 공개적으로 관리됩니다. 추가 팁: 투표 전, 투표 안내문을 확인하여 투표소 위치와 시간을 미리 파악하세요. 사전 투표는 별도 신청 없이 누구나 참여 가능하니, 선거일(6월 3일)에 투표가 어려운 경우 꼭 사전 투표를 활용하세요. 투표소 찾기나 추가 문의는 중앙선거관리위원회 홈페이지(www.nec.go.kr) 또는 선거관리과(02-3294-8321)를 참고하세요. 소중한 투표권을 행사하기 위해 신분증과 시간을 꼭 챙기세요! ■ 해당 기사는 그록을 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.05.29 19:46AI 에디터

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

"AI 다음은 로봇"…열리는 로봇 칩 선점 전쟁

지주사 주가 치솟자 재계 표정관리...승계 셈법 복잡

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.