• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 에디터'통합검색 결과 입니다. (359건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"대학생들, AI 잘 활용하면 자신감 높아진다"

미국 퍼듀대학교와 독일 뮌헨공과대학교 공동 연구진이 발표한 최근 연구에 따르면, 인공지능(AI) 교육에서 학습자의 태도와 관심도가 기술 이해도보다 더 중요한 것으로 나타났다. 연구진은 미국, 영국, 독일의 대학생 1,465명을 대상으로 AI 자기효능감과 관련 요인들을 분석했다. 이들 국가는 AI 혁신과 도입을 선도하는 국가들로서 서구 사회의 다양한 교육 시스템과 문화, 규제 환경을 대표한다. 응답자의 68.9%인 1,010명이 학부생이었으며, 석사과정생이 393명(26.8%), 박사과정 등 기타 과정이 61명(4.2%)이었다. 응답자들의 평균 연령은 28.4세(표준편차 10.3)였다. AI 자신감 형성의 핵심은 긍정적 태도와 사용 경험 연구 결과, AI에 대한 긍정적인 태도와 실제 사용 경험이 AI에 대한 관심도를 높이는 주요 요인으로 밝혀졌다. AI 사용 경험은 관심도에 0.434의 강한 영향을 미쳤으며, 긍정적 태도는 0.618의 매우 높은 영향력을 보였다. 특히 주목할 점은 AI 리터러시(기술 이해도)와 AI 사용 간에 유의미한 상관관계가 없다는 것이다. 이는 학생들이 AI를 사용하면서도 그 기본 개념을 이해하지 못할 수 있음을 시사한다. AI 리터러시는 자기효능감에 0.144의 제한적인 영향만을 미쳤다. 연구진은 2022년 말 ChatGPT 출시 이후 구글에서 'artificial intelligence' 검색량이 6-10배 증가한 사실을 언급하며, 실제 AI 사용 경험이 관심도 증가에 직접적인 영향을 미친다고 설명했다. 대학생들의 AI 수용도는 세 그룹으로 구분된다 연구진은 대학생들을 'AI 옹호파'(47.99%), '신중파'(20.82%), '관망파'(31.19%) 세 그룹으로 분류했다. AI 옹호파는 높은 AI 리터러시와 자기효능감, 긍정적 태도를 보였으며, 주로 공학 및 기술 계열(38.69%) 남학생(62.78%)이 많았다. 반면 신중파는 낮은 AI 리터러시와 부정적 태도를 보였고, 주로 인문예술 계열(30.16%) 여학생(61.97%)이 많았다. 관망파는 대부분의 변수에서 중간값을 보이며 균형잡힌 분포를 보였다. 전체 표본에서는 공학기술(29.42%), 사회과학(25.94%), 인문예술(20.00%) 순으로 분포했으며, 이러한 그룹별 특성은 MANOVA 분석을 통해 통계적으로 유의미한 차이가 있음이 확인되었다(F=53.44, p<.01). AI 관련 변수들의 상호관계 분석 결과 연구진은 AI 관련 주요 변수들 간의 상관관계를 분석했다. AI 관심도는 긍정적 태도(0.65)와 AI 사용(0.56)과 강한 양의 상관관계를 보였다. 특히 AI에 대한 긍정적 태도와 부정적 태도 사이에는 강한 음의 상관관계(-0.44)가 나타났는데, 이는 긍정적 태도가 증가할수록 부정적 태도가 감소함을 의미한다. 주목할 만한 점은 AI 리터러시가 다른 대부분의 변수들과 약한 상관관계만을 보였으며, AI 사용과는 전혀 상관관계가 없다는 것이다(p=.86). 이는 AI를 실제로 사용하는 것이 반드시 AI에 대한 이해도 향상으로 이어지지는 않음을 시사한다. AI 교육의 현실과 과제 현재 많은 학생들이 AI 교육과정에 대해 불확실성을 느끼고 있다. 전체 응답자의 32.63%가 AI 강좌 제공 여부를 모른다고 답했으며, 27.85%는 강좌가 부족하다고 응답했다. 특히 신중파의 55.41%가 AI 강좌 존재 여부를 모른다고 답했고, 15.08%만이 강좌가 충분하다고 평가했다. 반면 AI 옹호파의 34%는 현재 강좌에 만족하지만, 30.01%는 여전히 더 많은 강좌가 필요하다고 응답했다. 각국의 대학들은 AI 교육 프로그램을 확대하고 있지만, 학생들의 인식과 접근성 면에서 여전히 격차가 존재하는 것으로 나타났다. 효과적인 AI 교육을 위한 제언 연구진은 AI 교육이 단순한 기술 전수를 넘어 학습자의 태도와 관심을 고려한 통합적 접근이 필요하다고 강조했다. 특히 AI 옹호파에게는 윤리적, 사회적 함의에 대한 비판적 시각을, 신중파에게는 접근하기 쉽고 실용적인 AI 콘텐츠를, 관망파에게는 더 깊은 참여를 유도할 맞춤형 콘텐츠가 필요하다고 제안했다. 또한 여성과 인문계열 학생들의 AI 교육 참여를 높이기 위해 의료, 교육, 사회 서비스 등 해당 분야에서의 AI 활용 사례를 강조하는 것이 효과적일 것이라고 조언했다. 연구진은 이번 연구가 횡단적 연구로서 시간에 따른 변화를 관찰하지 못했다는 한계를 인정하며, 다른 문화권에서의 추가 연구와 비(非)학생 집단에 대한 연구의 필요성을 제기했다. 특히 사회경제적 지위나 자원 접근성이 AI에 대한 태도와 자기효능감에 미치는 영향에 대한 후속 연구를 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.13 14:14AI 에디터

구글, AI 팀 통합했다…'딥마인드'로 이관

구글(Google)의 AI 개발 플랫폼이 새로운 전환점을 맞이했다. 구글의 AI 스튜디오와 제미나이(Gemini) 개발자 API 팀이 구글 딥마인드(Google DeepMind)로 이관된다고 로건 킬패트릭(Logan Kilpatrick) 구글 AI 스튜디오 제품 책임자가 10일 자신의 소셜미디어를 통해 밝혔다. 킬패트릭 책임자는 "이번 이관을 통해 이미 깊이 있게 진행 중인 협력 관계를 더욱 강화하고 연구에서 개발까지 이어지는 파이프라인을 가속화할 수 있을 것"이라고 설명했다. 그는 "우리 팀의 미션은 변함없이 세계 최고의 AI 개발자 플랫폼을 구축하는 것"이라며 "구글의 최신 모델과 도구, 기술을 외부 개발자들에게 제공해 미래를 함께 만들어갈 것"이라고 강조했다. 이번 조직 개편이 실제 서비스 사용에 미치는 영향에 대한 질문에 킬패트릭은 "사용자들은 변화를 느끼지 못할 것"이라며 "오히려 새로운 기능들이 더 빠르게 제공될 것"이라고 답했다. AI 스튜디오와 제미나이 API는 구글이 외부 개발자들에게 제공하는 대표적인 AI 개발 도구다. 이번 조직 개편으로 구글의 AI 연구와 개발이 더욱 긴밀하게 통합될 것으로 전망된다. 이번 발표는 AI 업계에서 큰 반향을 일으켰다. 개발자 커뮤니티에서는 구글의 무료 AI 모델 제공 정책이 앞으로도 이어질 것이라는 기대감을 표명했으며, 구글 딥마인드와의 통합으로 인한 시너지 효과에 대한 기대감도 높았다. ■ 기사는 클로드 3.5 Sonnet과 챗GPT를 활용해 작성되었습니다. (☞ 기사 출처 바로가기)

2025.01.13 14:07AI 에디터

"AI 챗봇, 쓰면 쓸수록 불안감 줄어든다"...대학생 연구 결과

학술 저널 Computers in Human behavior: Artificial Humans에 게재된 연구에 따르면, AI 챗봇의 교육적 활용이 증가하는 가운데 대학생들의 AI 챗봇 사용 강도에 영향을 미치는 요인들이 새롭게 밝혀졌다. 이 연구는 5일간의 일일 다이어리 연구를 통해 개인 간 차이와 개인 내 변화를 구분하여 분석했다. 대학생들의 AI 챗봇 활용 현황과 수용 양상 첫 번째 연구에서는 72명의 대학생이 참여했으며, 이 중 79.2%가 여학생이었고 평균 연령은 21.88세였다. 참여자의 대다수인 79.2%가 사회과학 전공자였으며, 컴퓨터 공학(9.7%), 경영법학(6.9%) 순이었다. 두 번째 연구에는 153명이 참여했는데, 이들 중 52.3%가 여학생이었고 평균 연령은 27.57세였다. 전공별로는 공학(19.4%), 경영법학(19.4%), 컴퓨터 공학(17.8%), 의학보건(12.4%) 순으로 분포했다. AI 챗봇 사용에서는 두 연구 모두 챗지피티(ChatGPT)가 가장 높은 점유율(각각 61.9%, 46.2%)을 보였다. 대학생들의 AI 챗봇 활용 목적과 유형 연구진이 밝힌 바에 따르면, 학생들은 AI 챗봇을 다양한 교육적 목적으로 활용하고 있다. 주요 활용 영역은 튜터링과 언어 학습 연습, 에세이 초안 작성, 창의적 글쓰기, 연구 요약 등이다. 특히 주목할 만한 점은 많은 학생들이 AI 챗봇 활용이 자신들의 미래 경력에 도움이 될 것이라고 인식하고 있으며, 대학 커리큘럼에 AI 챗봇을 통합해야 한다고 주장한다는 것이다. AI 챗봇 불안감과 사용성의 상관관계 이 연구는 다수준 구조방정식 모델링(Multilevel SEM)을 활용하여 데이터를 분석했으며, 연구 결과는 지각된 사용 용이성(PEOU)과 지각된 유용성(PU)의 상관관계를 명확히 보여줬다. 첫 번째 연구에서 이 두 변수는 0.61의 높은 상관관계를 보였으며, 사용 강도와도 각각 0.20과 0.45의 상관관계를 나타냈다. 두 번째 연구에서는 PEOU와 PU가 0.63의 상관관계를 보였고, 사용 강도와는 각각 0.34와 0.40의 상관관계를 보였다. 특히 AI 챗봇 불안감은 PEOU와 각각 -0.33(연구1), -0.54(연구2)의 부정적 상관관계를 보여, 불안감이 높을수록 사용 용이성 인식이 낮아지는 것으로 나타났다. 기술적 지원과 사회적 영향력의 중요성 연구는 다수준 구조방정식 모델링을 통해 변수들 간의 관계를 분석했다. PEOU가 PU를 매개로 사용 강도에 미치는 영향은 첫 번째 연구에서 더 뚜렷했다. 개인 내 수준에서 PEOU와 PU의 관계는 0.735(연구1), 0.304(연구2)의 계수를 보였으며, PU와 사용 강도의 관계는 0.424(연구1), 0.295(연구2)로 나타났다. 특히 두 번째 연구에서는 촉진 조건과 주관적 규범이 각각 0.270과 0.078의 계수로 PEOU와 PU에 영향을 미치는 것으로 확인됐다. 두 연구 그룹 간 주목할 만한 차이점 연구진은 두 연구 그룹 간의 변동성 차이를 연속적 차이의 평균 제곱근(RMSSD) 분석을 통해 살펴보았다. 흥미로운 점은 첫 번째 연구 그룹에서 지각된 사용 용이성과 유용성의 일간 변동성이 더 크게 나타난 반면, 두 번째 연구에서는 사용 강도의 변동성이 더 높게 나타났다는 것이다. 이러한 차이는 두 그룹의 AI 챗봇 친숙도 차이에서 비롯된 것으로 분석됐다. 두 번째 연구의 참여자들은 첫 번째 그룹에 비해 AI 챗봇 친숙도가 더 높았으며(차이값 0.72), AI 챗봇에 대한 불안감은 더 낮았고(차이값 -0.43), 지각된 사용 용이성(차이값 0.57)과 유용성(차이값 0.97)은 더 높게 나타났다. 이는 AI 챗봇 사용 경험이 많은 사용자들의 경우 기술에 대한 인식이 더 안정적이지만, 실제 사용 패턴은 일상적인 학업 요구사항에 따라 더 크게 변동할 수 있음을 시사한다. 미디어 인식과 AI 챗봇 수용도 연구는 미디어의 AI 챗봇 관련 보도에 대한 인식이 수용도에 미치는 영향도 분석했다. 두 번째 연구 그룹은 첫 번째 그룹에 비해 AI 챗봇 관련 미디어 보도를 더 긍정적으로 인식했으며, 이는 더 낮은 불안감과 더 높은 사용 강도로 이어졌다. 긍정적인 미디어 인식은 지각된 유용성 및 사용 의도와 유의미한 상관관계를 보였다. 연구의 한계와 향후 연구 방향 이 연구는 몇 가지 중요한 한계점을 가지고 있다. 첫째, 첫 번째 연구의 표본 크기(72명)가 상대적으로 작고, 특정 지역과 전공(독일의 사회과학 전공자)에 편중되어 있어 결과의 일반화에 제한이 있다. 둘째, 사용 강도를 자기보고식 측정에 의존함으로써 실제 사용 행태와 차이가 있을 수 있다. 연구진은 향후 연구에서 AI 챗봇의 실제 사용 시간이나 프롬프트 빈도를 직접 측정하는 방식을 도입할 것을 제안했다. 또한 과제 복잡성이나 과제-기술 적합성과 같은 상황적 요인들이 일간 사용 패턴에 미치는 영향을 조사할 필요성도 제기했다. 이러한 한계점들을 보완한 후속 연구는 교육 환경에서 AI 챗봇의 효과적인 활용을 위한 더욱 풍부한 통찰을 제공할 것으로 기대된다. 실제적 교육 환경에서의 시사점 이 연구 결과는 교육기관의 AI 챗봇 도입 전략에 중요한 시사점을 제공한다. 기술적 지원과 교육이 PEOU를 매개로 사용 강도에 긍정적 영향을 미친다는 점에서, 교육기관은 충분한 기술적 인프라와 지원 시스템을 구축해야 한다. 또한 불안감 감소를 위한 프로그램과 동료 학습 환경 조성이 중요하며, 이는 결과적으로 학생들의 AI 챗봇 활용도를 높이는 데 기여할 것으로 전망된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.13 08:15AI 에디터

"저작권? 상관없다"...저커버그, 라마 AI에 불법 데이터로 학습 지시

테크크런치(TechCrunch)는 9일(현지시간) 메타(Meta)의 마크 저커버그(Mark Zuckerberg) CEO가 인공지능 모델 라마(Llama) 개발을 위해 불법 복제된 전자책과 논문을 학습 데이터로 사용하도록 직접 승인했다고 보도했다. 저커버그의 결단, "라마 AI에 불법 데이터 써라" 미국 캘리포니아 북부 지방법원에 제출된 소송 문건에 따르면, 메타의 AI 개발팀은 불법 복제 사이트 '립젠(LibGen)'의 데이터셋이 저작권을 침해했다는 사실을 알고 있었다. 센게이지 러닝(Cengage Learning), 맥밀런 러닝(Macmillan Learning) 등 주요 출판사들의 저작물을 무단으로 제공하는 립젠은 이미 수차례 소송에서 패소했으며, 수천만 달러의 벌금을 부과받은 바 있다. 저작권 흔적 지우기에 나선 메타 메타의 라마 연구팀 엔지니어 니콜라이 바쉴리코프(Nikolay Bashlykov)는 전자책에서 저작권 정보와 '저작권', '감사의 글' 등의 문구를 삭제하는 스크립트를 제작했다. 원고 측은 이러한 행위가 단순한 학습 목적이 아닌 저작권 침해 사실을 은폐하기 위한 시도라고 주장했다. 메타는 립젠 데이터를 토렌트를 통해 입수했으며, 이 과정에서 파일 공유에도 참여한 것으로 드러났다. 메타의 생성형 AI 책임자 아마드 알-달레(Ahmad Al-Dahle)는 연구진이 제기한 법적 우려를 무시하고 토렌트 사용을 승인했다. 뉴욕타임스는 지난 4월 메타가 AI 데이터 확보를 위해 지름길을 택했다고 보도했으며, 당시 메타는 출판사 사이먼앤슈스터 인수까지 고려했으나 라이선스 협상에 시간이 너무 많이 걸릴 것으로 판단했다고 전했다. 법원의 경고 빈스 차브리아(Vince Chhabria) 판사는 메타의 문건 일부 삭제 요청을 기각하며 "이는 민감한 사업 정보 보호가 아닌 부정적 여론을 피하기 위한 것"이라고 지적했다. 현재 이 소송은 메타의 초기 라마 모델에만 해당되며, 최근 출시된 모델은 포함되지 않는다. 메타는 공정 사용 원칙을 근거로 저작권 침해가 아니라고 주장하고 있으며, 2023년에는 유사한 저작권 침해 소송에서 승소한 바 있다. 테크크런치는 이 사안에 대해 메타 측에 입장을 문의했으나, 현재까지 답변을 받지 못했다고 덧붙였다. ■ 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.13 08:11AI 에디터

AI도 기억 헷갈린다…'지식 충돌' 왜 생기나

칭화대학교와 케임브리지대학교 공동 연구팀이 발표한 최신 연구에 따르면, 대형언어모델(LLM)이 지식을 처리하는 과정에서 세 가지 유형의 '지식 충돌' 현상이 발생하는 것으로 나타났다. 이러한 충돌은 특히 실제 응용 환경에서 노이즈와 잘못된 정보가 흔한 상황에서 모델의 신뢰성과 성능에 큰 영향을 미치는 것으로 밝혀졌다. 진실과 거짓 사이에서 혼란스러운 AI, 지식충돌의 주요 원인 대형언어모델의 지식충돌은 시간적 불일치와 잘못된 정보 오염이라는 두 가지 주요 원인에서 비롯된다. 시간적 불일치는 과거 데이터로 학습된 모델이 현재의 정보와 맞지 않을 때 발생하는데, 이는 모델의 사전학습 패러다임과 모델 확장에 따른 비용 증가로 인해 더욱 심화될 것으로 예상된다. 잘못된 정보로 인한 오염의 경우, 검색된 문서나 사용자 대화에서 의도적으로 조작된 정보가 유입될 때 발생하며, 실험 결과 모델의 성능을 최대 87%까지 저하시키는 것으로 나타났다. 세 갈래로 나뉜 AI의 혼란: 문맥, 정보, 기억의 충돌 대형언어모델의 지식충돌은 크게 문맥-기억 충돌(Context-Memory Conflict), 문맥간 충돌(Inter-Context Conflict), 내부기억 충돌(Intra-Memory Conflict)로 구분된다. 문맥-기억 충돌은 모델의 파라미터에 저장된 지식과 외부에서 주입되는 문맥 정보가 상충할 때 발생한다. 문맥간 충돌은 검색 증강 생성(RAG) 기술 사용 시 검색된 여러 문서들 사이의 정보가 서로 모순될 때 발생하며, 실험 결과 잡음률이 0.8을 초과하면 모든 모델의 성능이 20% 이상 감소했다. 내부기억 충돌은 모델 내부의 지식 표현이 서로 일관되지 않을 때 발생하는 현상이다. 충돌하는 정보 앞에서 AI의 선택은 제각각 실험 결과는 모델들의 행동 패턴이 매우 다양함을 보여줬다. ChatGPT, GPT-4, PaLM2는 모델에 내재된 지식을 선택할 확률이 60% 이상이었으나, 다른 모델들은 주어진 문맥 정보를 80% 이상 선택했다. 특히 대화가 진행되면서 AI의 믿음 체계 변화 비율은 20.7%에서 78.2%까지 증가했다. 더욱 우려되는 점은 GPT-4조차도 FaVIQ 테스트에서 32%의 불일치율을 보였다는 것이다. "거짓말을 하고 있어요": AI의 자체 모순 감지 능력 모델의 자체 모순 탐지 능력도 평가되었다. GPT-4는 문서 내 모순을 발견할 확률이 70% 이상으로 가장 우수했으나, 다른 모델들은 50% 미만의 성능을 보였다. CONTRADOC 데이터셋을 통한 실험에서는 감정이나 주관적 관점이 포함된 내용, 문서의 길이나 자기모순의 다양성이 모순 탐지 성능에 영향을 미치는 것으로 나타났다. AI의 혼란을 잡아라: 지식충돌 해결을 위한 세 가지 전략 연구팀은 문제 해결을 위해 '문맥 충실', '잘못된 정보 식별', '정보 원천 분리' 세 가지 주요 전략을 제시했다. 문맥 충실 전략을 적용한 GPT-Neo 20B는 MemoTrap에서 54.4%, NQ-SWAP에서 128%의 성능 향상을 보였다. ChatGPT의 경우 프롬프트 기반 해결책 적용 시 MRC 태스크에서 32.2%, Re-TACRED에서 10.9%의 개선효과가 있었다. 특히 지식충돌 감지 시스템은 80%의 F1 점수를 달성했다. 멀티모달 시대의 새로운 과제: AI 지식충돌의 미래 연구진은 실제 환경의 지식충돌, 다국어 환경에서의 충돌, 멀티모달 데이터 간 충돌을 주요 과제로 지목했다. 특히 이미지(Alayrac et al., 2022), 비디오(Ju et al., 2022), 오디오(Borsos et al., 2023) 등 다양한 형태의 정보가 결합될 때 발생하는 복잡한 충돌 문제 해결이 시급하다고 강조했다. 또한 통합적이고 효율적인 해결책 개발의 필요성도 제기되었다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.10 15:03AI 에디터

AI, 물리법칙도 깨쳤다...엔비디아 '코스모스 플랫폼' 분석

물리세계 이해하는 AI의 두뇌, 월드 파운데이션 모델 심층 분석 엔비디아(NVIDIA)가 물리적 세계와 상호작용하는 AI 개발을 가속화할 수 있는 월드 파운데이션 모델(World Foundation Model, WFM) 플랫폼 '코스모스(Cosmos)'를 공개했다. 엔비디아 기술 블로그에 따르면, 코스모스의 핵심인 월드 파운데이션 모델은 9,000조 개의 토큰 데이터로 학습됐다. 여기에는 자율주행, 로보틱스, 합성 환경 등에서 수집한 2,000만 시간 분량의 데이터가 포함됐다. 이 모델은 자동회귀와 디퓨전 두 가지 아키텍처를 채택했다. 자동회귀 모델은 3D 회전 위치 임베딩(RoPE)으로 공간과 시간 차원을 분리해 처리하며, 교차 어텐션 레이어로 텍스트 입력을 제어한다. 디퓨전 모델은 3D 패치화 기술로 비디오를 작은 조각으로 나누고, 하이브리드 위치 임베딩으로 다양한 해상도와 프레임 속도를 지원한다. 특히 적응형 레이어 정규화와 로라(LoRA) 기술을 통해 모델 크기를 36% 줄이면서도 높은 성능을 유지하는 데 성공했다. 3D 일관성과 물리법칙 준수 능력 입증 엔비디아는 코스모스의 성능을 검증하기 위해 500개의 정적 장면 데이터셋으로 3D 일관성을 평가했다. 기존 비디오 생성 모델인 비디오LDM과 비교한 결과, 코스모스의 디퓨전 텍스트투월드(Text2World) 7B 모델은 샘슨 오차(Sampson Error)에서 0.355를 기록해 기존 모델의 0.841보다 크게 향상된 성능을 보였다. 또한 카메라 포즈 추정 성공률도 62.6%로, 기존 모델의 4.4%를 크게 뛰어넘었다. 물리법칙 준수 능력 평가에서는 엔비디아 피직스(PhysX)와 아이작 심(Isaac Sim)을 활용해 중력, 충돌, 토크, 관성 등 8가지 시나리오를 테스트했다. 9개 프레임의 입력 데이터를 사용했을 때 PSNR 21.06, SSIM 0.69의 우수한 성능을 달성했다. 89배 빠른 데이터 처리와 고품질 압축 기술의 결합 코스모스는 엔비디아의 네모 큐레이터(NeMo Curator)를 통해 기존 CPU 파이프라인 대비 89배 빠른 데이터 처리 속도를 제공한다. 100페타바이트 이상의 대용량 데이터도 원활하게 처리할 수 있으며, 호퍼(Hopper) GPU로는 40일, 블랙웰(Blackwell) GPU로는 14일 만에 2,000만 시간의 비디오를 처리할 수 있다. 코스모스 토크나이저는 자동회귀 모델의 경우 시간은 8배, 공간은 16x16배로 압축하며 최대 49개 프레임을, 디퓨전 모델은 시간 8배, 공간 8x8배 압축으로 최대 121개 프레임을 처리한다. AI 안전성 확보를 위한 이중 가드레일 시스템 구축 엔비디아는 코스모스의 안전한 활용을 위해 사전 가드와 사후 가드로 구성된 이중 가드레일 시스템을 도입했다. 사전 가드는 키워드 차단과 엔비디아의 AI 콘텐츠 안전 모델 '에이지스(Aegis)'를 통해 부적절한 프롬프트를 필터링한다. 사후 가드는 생성된 비디오의 모든 프레임을 검사해 안전하지 않은 콘텐츠를 차단하고, 레티나페이스(RetinaFace) 모델로 인물의 얼굴을 자동으로 블러 처리한다. 엔비디아는 1만 개 이상의 프롬프트-비디오 쌍을 활용해 시스템을 지속적으로 개선하고 있다. 옴니버스 연계로 확장되는 물리 AI의 활용 코스모스는 엔비디아의 3D 설계 플랫폼 옴니버스(Omniverse)와 연동해 다양한 물리 AI 애플리케이션을 지원한다. 개발자들은 3D 시나리오를 생성하고 이를 사실적인 비디오로 변환할 수 있으며, 정책 모델 개발과 평가, 행동 예측, 다중 시뮬레이션 등을 수행할 수 있다. 모델은 실시간 추론에 최적화된 나노(Nano), 기본 성능의 수퍼(Super), 최고 품질의 울트라(Ultra) 세 가지 크기로 제공된다. 특히 옴니버스와의 연계를 통해 비디오 검색 및 이해, 제어 가능한 3D-실사 합성 데이터 생성, 예측적 유지보수, 자율 의사결정 등 다양한 응용이 가능하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.01.10 14:59AI 에디터

"5분이면 당신도 생성형 AI 도사"…기초 지식 완벽 가이드

생성형 AI의 정의와 발전 현황 생성형 인공지능(Generative AI)은 챗GPT(ChatGPT)와 같이 오디오, 코드, 이미지, 텍스트, 시뮬레이션, 비디오 등 새로운 콘텐츠를 생성할 수 있는 알고리즘이다. 맥킨지는 지난해 4월 기획 기사를 통해 생성형 AI에 대한 전반적인 기초 지식을 정리해 게재한 바 있다. 기사에 따르면, 2022년 11월 챗GPT가 등장한 이후 생성형 AI 기술은 빠르게 발전했다. 매월 새로운 도구와 규칙, 기술적 진보가 이루어지고 있으며, 맥킨지 조사에 따르면 AI 도입이 지난 5년간 2배 이상 증가했다. 의료 이미지 분석이나 고해상도 일기 예보와 같은 분야에서 머신러닝은 이미 상당한 성과를 보여주고 있다. 특히 챗GPT와 이미지 생성기 달리(DALL-E)와 같은 생성형 AI 도구들은 다양한 직무 수행 방식을 변화시킬 잠재력을 가지고 있다. 기존 AI와 생성형 AI의 차이점 인공지능(AI)은 기계가 인간의 지능을 모방하여 작업을 수행하는 것이다. 시리(Siri)나 알렉사(Alexa) 같은 음성 비서와 웹사이트의 고객 서비스 챗봇이 대표적인 예시다. 머신러닝은 인공지능의 한 유형으로, 인간의 지시 없이 데이터 패턴에서 '학습'할 수 있는 모델을 통해 인공지능을 개발한다. 최근에는 기존의 예측 모델을 넘어 생성형 AI가 등장했는데, 이는 단순히 고양이 사진을 인식하고 분류하는 것을 넘어 고양이 이미지나 텍스트 설명을 직접 생성할 수 있다. 생성형 AI의 시장 가치와 산업 영향력 맥킨지는 생성형 AI 애플리케이션이 전 세계 경제에 연간 최대 4.4조 달러의 가치를 창출할 것으로 전망했다. 향후 3년 내에 기술, 미디어, 통신 분야에서 AI와 연결되지 않은 것은 구식이거나 비효율적인 것으로 간주될 것으로 예측된다. 이미 많은 기업들이 생성형 AI 도구를 비즈니스 모델에 도입하려 경쟁하고 있다. 텍스트 기반 머신러닝 모델의 작동 방식 챗GPT 이전에도 오픈AI의 GPT-3나 구글의 BERT와 같은 텍스트 기반 머신러닝 모델이 있었다. 초기 모델들은 연구자들이 설정한 레이블에 따라 다양한 입력을 분류하도록 인간이 훈련시켰다. 이를 '지도 학습'이라고 한다. 최신 세대의 텍스트 기반 머신러닝 모델은 '자기 지도 학습'이라는 방식을 사용한다. 이는 모델에 방대한 양의 텍스트를 입력하여 예측을 생성할 수 있게 하는 방식이다. 인터넷의 광범위한 텍스트 데이터를 학습하면서 이러한 모델들은 매우 정확해졌고, 챗GPT의 성공으로 그 정확성이 입증되고 있다. 생성형 AI 모델 개발의 현실적 과제 생성형 AI 모델을 구축하는 것은 대규모 작업이어서 소수의 자금력 있는 기술 기업만이 시도할 수 있다. 챗GPT와 달리(DALL-E)를 개발한 오픈AI(OpenAI)는 수십억 달러의 자금을 지원받았으며, 딥마인드(DeepMind)는 알파벳(구글 모회사)의 자회사다. 메타(Meta)도 메이크-어-비디오(Make-A-Video) 제품으로 생성형 AI 모델 시장에 진출했다. 모델 학습에는 막대한 비용이 든다. GPT-3는 약 45테라바이트의 텍스트 데이터(미국 의회도서관의 약 4분의 1 규모)로 학습됐으며, 추정 비용은 수백만 달러에 달한다. 생성형 AI의 출력물과 활용 생성형 AI 모델은 인간이 만든 것과 구분하기 어려운 콘텐츠를 생성할 수 있다. 챗GPT는 10초 만에 민족주의 이론을 비교하는 수준 높은 에세이를 작성할 수 있으며, 달리-E 2는 피자를 먹는 마돈나와 아기를 라파엘 화풍으로 그려낼 수 있다. 기업들은 생성형 AI를 그대로 사용하거나 특정 작업을 수행하도록 미세 조정할 수 있다. 예를 들어, 특정 스타일의 프레젠테이션 제목을 작성하려면 모델에 기존 슬라이드 데이터로부터 제목 작성 방식을 '학습'시킨 후 적절한 제목을 생성하도록 할 수 있다. 생성형 AI의 한계와 극복 방안 생성형 AI 모델이 새롭기 때문에 장기적 영향을 아직 파악하기 어렵다. 때로는 잘못된 정보를 제공하거나 인터넷과 사회의 성별, 인종 등 다양한 편향이 반영될 수 있으며, 비윤리적이거나 범죄적 활동에 악용될 수 있다. 이러한 위험을 완화하고 생성형 AI의 책임감 있는 활용을 위해 다음과 같은 방안을 고려할 수 있다. 첫째, 초기 학습 데이터를 신중히 선별함으로써 유해하거나 편향된 콘텐츠를 제외하는 것이 중요하다. 둘째, 범용적으로 사용되는 대규모 모델 대신 특정 목적에 적합한 작은 규모의 특수 목적 모델을 활용하는 방법도 고려할 수 있다. 셋째, 기업이 고유한 데이터를 활용해 모델을 커스터마이징하면, 해당 기업의 환경과 목적에 부합하는 결과를 얻을 수 있다. 넷째, 생성형 AI 모델의 출력물을 게시하거나 사용하기 전에 반드시 사람이 검토하는 절차를 마련하는 것이 필요하다. 마지막으로, 중요한 의사결정 상황에서는 생성형 AI 모델의 사용을 자제하고, 사람의 판단과 전문가의 의견에 의존하는 것이 적절하다. 규제와 향후 전망 생성형 AI는 급속도로 발전하는 분야로, 앞으로 몇 주, 몇 달, 몇 년 안에 위험과 기회의 지형이 빠르게 변화할 것으로 예상된다. 매달 새로운 활용 사례가 시험되고 있으며, 향후 몇 년 내에 새로운 모델이 개발될 것이다. 생성형 AI가 비즈니스, 사회, 개인의 삶에 더욱 깊이 통합됨에 따라 새로운 규제 환경이 형성될 것으로 예상된다. 기업 리더들은 이러한 도구를 실험하고 가치를 창출하면서 규제와 위험에 대한 동향을 주시해야 할 것이다. 해당 리포트의 원문은 링크에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 바로 가기)

2025.01.10 13:43AI 에디터

AI, 대학 연구 패러다임 바꾼다…교수진 71.5% "윤리적 고려 최우선"

대학 연구현장의 AI 도입 실태와 도전과제 Social Sciences & Humanities Open 최신호에 발표된 연구에 따르면, AI 기술이 대학의 연구 환경을 크게 변화시키고 있는 것으로 나타났다. 페루의 공립 및 사립대학 연구자 302명을 대상으로 진행된 이번 연구는 연구자들의 AI 모델 사용에 영향을 미치는 핵심 요인들을 분석했다. 특히 챗GPT(ChatGPT)와 같은 대규모 언어모델부터 리서치래빗(ResearchRabbit), 스코퍼스AI(ScopusAI)와 같은 전문 연구도구까지 다양한 AI 도구들의 활용 현황을 조사했다. 설문 응답자의 62.33%가 국립대학 소속이었으며, 37.7%는 사립대학 소속으로 나타났다. AI 도구의 특성에 따라 달라지는 연구자의 태도 연구진은 AI 도구들의 성능을 정확성, 정밀도, 재현율, F1 점수 등 핵심 지표를 통해 평가했다. 이러한 성능 차이는 학술 연구에 직접적인 영향을 미치는 것으로 나타났다. 예를 들어, 높은 정확도를 보이는 표절 감지 AI는 학문적 진실성 향상에 기여하지만, 불완전한 생성형 모델은 연구의 질을 저하시킬 수 있다는 점이 확인됐다. 또한 AI 도구의 특성에 따라 연구자들의 수용 태도가 크게 달라지는 것으로 분석됐다. 특히 도구의 용도, 성능 품질, 대상 사용자에 따라 채택 정도가 다르게 나타났다. AI 수용성의 핵심 결정요인은 '학문적 진실성' 연구 결과에 따르면 연구자들의 AI 도입을 결정하는 가장 큰 요인은 학문적 진실성(Academic Integrity)으로, 전체 변량의 71.5%를 설명하는 것으로 나타났다. 특히 AI 활용에 대한 윤리적 고려가 기술적 역량보다 더 중요한 요인으로 작용했다. 학문적 진실성은 연구와 교육에서 윤리적 원칙과 연구 재현성, 데이터 무결성을 유지하고, 학문적 부정행위를 방지하는 것을 의미한다. 특히 AI 도구의 사용이 표절, 부정행위, 데이터 조작 등의 윤리적 문제를 초래할 수 있기 때문에, 학문적 진실성은 AI 사용을 규제하고 책임 있는 활용을 보장하는 데 중요한 요인으로 간주된다. 이외에도 교육적 자기효능감(Educational Self-efficacy)은 두 번째로 강한 영향력을 보였으며, 사회적 영향(Social Influence)은 작지만 유의미한 영향을 미치는 것으로 분석됐다. 주목할 만한 점은 기존 연구에서 중요하게 여겨졌던 성과 기대감(Performance Expectancy)과 기술적 자기효능감(Technical Self-efficacy)은 유의미한 영향을 미치지 않는 것으로 나타났다. 연구자 78.2%, AI 활용이 윤리적 인식에 영향 미쳐 연구진의 AI 활용은 교수자들의 우려사항과 윤리적 인식에도 큰 영향을 미치는 것으로 나타났다. AI 활용 경험이 많을수록 윤리적 고려사항에 대한 인식도 높아지는 것으로 확인됐다. 연구자의 65.2%는 AI 활용이 교육 현장의 우려사항을 증가시킨다고 응답했으며, 78.2%는 AI 활용이 윤리적 인식에 영향을 미친다고 답했다. 특히 알고리즘의 투명성 부족, 윤리적 편향성, 데이터 프라이버시 문제가 주요 우려사항으로 지적됐다. 연구의 방법론적 신뢰성 '양호' 이번 연구의 방법론적 타당성은 여러 통계적 지표를 통해 검증됐다. G*Power 3.1 소프트웨어를 통한 사전 분석에서 최소 필요 표본 크기는 278명으로 산출됐으며, 실제 수집된 302명의 표본은 이를 충족했다. 구조방정식 모델의 적합도 또한 SRMR과 RMSEA 값이 모두 0.048로 기준치를 충족했으며, CFI 0.938, TLI 0.928 등의 지수도 양호한 수준을 보였다. AI 활용에 가장 부정적 영향을 미치는 건 '사용 용이성에 대한 기대감' 연구 참여자의 상세 구성을 보면 독립 연구자가 33.3%(100명), 교수 및 시니어 연구자가 5.7%(17명), 박사 후 연구원이 1.3%(4명), 연구 관리자가 0.3%(1명)를 차지했다. 연구진이 설정한 9개의 가설 중 6개가 통계적으로 지지됐다. 특히 주목할 만한 결과로 사용 용이성에 대한 기대감(EE)이 AI 활용에 부정적 영향(β = -0.237)을 미치는 것으로 나타났으며, 학문적 진실성은 가장 강한 긍정적 영향(β = 0.782)을 보였다. 사용 용이성에 대한 기대감은 구체적으로, 사용자가 AI 모델을 배우고 활용하는 데 필요한 노력 수준을 얼마나 쉽게 인식하는지를 나타낸다. 연구에 따르면, EE가 낮을수록, 즉 AI 모델이 더 쉽게 사용 가능하다고 느낄수록 사용 의도가 증가한다. 또한, AI 모델 사용이 교수자의 우려에 미치는 영향(β = 0.273)과 인지된 윤리에 미치는 영향(β = 0.556)도 통계적으로 유의미했다. 전체적으로 설명력을 나타내는 R² 값은 AI 모델 사용(USAI) 71.5%, 인지된 윤리(PETH) 78.2%, 교수자 우려(TC) 65.2%로 나타나 모델의 높은 설명력이 입증됐다. 라틴 아메리카 맥락의 특수성과 시사점 이번 연구는 신흥 경제권인 페루의 고등교육 맥락에서 AI 도입의 특수성을 보여준다. 연구 참여자의 연령대를 보면 29-33세가 38.07%로 가장 많았고, 대학원생이 59.3%를 차지해 신진 연구자들의 AI 활용 양상을 잘 보여준다. 챗GPT 사용 기간은 1-2개월이 35.2%로 가장 많았고, 3-5개월이 24.9%로 그 뒤를 이었다. 이는 지역적, 문화적 특수성이 AI 수용에 미치는 영향을 보여준다. 연구진은 향후 연구에서 기관의 정책적 맥락과 문화적 차이를 고려한 더 폭넓은 분석이 필요하다고 제언했다. 특히 신흥 경제권에서 윤리적 프레임워크가 아직 발전 중인 점을 고려할 때, AI 도입에 있어 윤리적 고려사항이 더욱 중요하다고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.10 13:40AI 에디터

AI가 수술실로 간다...인간의사 못잖은 '수술 로봇' 탄생

AI와 의료의 만남: 자율 수술의 새로운 지평 존스홉킨스대학교와 스탠포드대학교 연구진이 수술용 로봇 '다빈치(da Vinci)'에 모방학습 기술을 적용해 자율적인 수술 동작이 가능한 시스템을 개발했다. 다빈치 로봇은 전 세계 67개국에 6,500대가 설치되어 있으며, 2021년 기준 1,000만 건 이상의 수술에 활용됐다. 수술 과정의 영상과 동작 데이터가 수술 후 분석을 위해 저장되어 있어, 이를 활용한 자율 수술 시스템 개발이 가능할 것으로 기대를 모았다. 5cm 오차를 극복한 혁신적인 기술 다빈치 로봇은 관절 움직임을 측정하는 센서인 포텐시오미터의 부정확성으로 인해 최대 5cm의 오차가 발생하는 문제가 있었다. 이는 단순한 시각-서보잉(visual-servoing) 작업조차 실패하게 만드는 원인이 됐다. 연구진은 이 문제를 해결하기 위해 여러 동작 표현법을 연구했는데, 카메라 중심 방식을 시작으로 도구 중심 방식을 거쳐 최종적으로 하이브리드-상대적 방식을 개발했다. 특히 하이브리드-상대적 동작 방식은 로봇 움직임의 이동은 내시경 끝단을 기준으로, 회전은 현재 도구 끝단을 기준으로 계산하는 방식으로 가장 높은 성공률을 보였다. 로봇의 '눈'이 된 손목 카메라 연구진은 기존 다빈치 로봇에 손목 카메라를 추가해 성능을 크게 향상시켰다. 임상 현장에서는 일반적으로 사용되지 않는 손목 카메라지만, 정확한 깊이 추정이 필요한 작업에서 특히 효과적이었다. 예를 들어, 바늘 전달 과정에서 손목 카메라는 바늘이 대상 그리퍼에 정확히 전달되는지 판단하는 데 큰 도움을 주었다. 놀라운 성공률로 입증된 성능 연구진이 개발한 시스템은 기본적인 수술 작업들에서 놀라운 성과를 보였다. 조직을 들어올리는 작업에서는 모든 시도가 성공했으며, 바늘을 잡고 전달하는 복잡한 작업에서도 완벽한 성공률을 기록했다. 매듭 묶기 작업의 경우 실을 잡고 고리를 만드는 과정은 모두 성공했으며, 전체 작업에서도 대부분의 시도가 성공적이었다. 특히 하이브리드-상대적 방식을 사용했을 때 가장 우수한 성과를 달성했다. 실제 조직에서도 통했다 연구진은 시스템의 일반화 성능을 평가하기 위해 돼지고기, 닭고기 등 실제 동물 조직과 3D 봉합 패드를 사용한 실험도 진행했다. 시스템은 이전에 경험하지 못한 환경에서도 성공적으로 작업을 수행했으며, 특히 바늘 잡기와 전달 작업에서 모든 시도가 성공하는 뛰어난 성과를 보였다. 더 큰 도약을 위한 과제들 현재 시스템이 가진 주요 한계점으로는 크기가 큰 손목 카메라의 사용, 현재 관찰에만 기반한 동작 수행, 그리고 사람의 지시에 따른 행동 변화 능력의 부재를 들 수 있다. 연구진은 더 작은 크기의 카메라 개발과 빠른 도구 교체가 가능한 메커니즘 개발을 통해 이러한 한계를 극복할 계획이다. 이번 연구는 부정확한 로봇 동작 데이터를 활용해 성공적으로 모방학습을 구현했다는 점에서 큰 의미가 있다. 이는 향후 대규모 임상 데이터를 활용한 자율 수술 로봇 개발의 토대가 될 것으로 기대된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.10 10:45AI 에디터

AI 돌봄로봇, '이것' 없으면 성공 힘들다

AI 의료·돌봄 시장의 폭발적 성장과 과제 대만 가오슝대학교 정보관리학과 연구진의 최신 보고서에 따르면, AI 의료 시장은 2023년 192.7억 달러 규모에서 연평균 38.5%의 성장률을 기록하며 2030년까지 급성장할 전망이다. 특히 고령화 사회 진입과 만성질환 증가로 인해 전 세계 노인 돌봄 시장은 2030년까지 2조8천억 달러 규모로 성장할 것으로 예측된다. AI 기반의 모니터링 시스템, 동반자 로봇, 원격 의료 등이 이러한 도전과제를 해결할 주요 솔루션으로 주목받고 있다. 대표적인 예로 파로(Paro)와 같은 동물형 지능형 로봇은 노인, 고립된 환자, 우울증 환자들의 정서적 지원을 위한 동반자 로봇으로 활발히 활용되고 있다. 하지만 데이터 오남용과 불투명한 의사결정 등의 윤리적 문제가 AI 돌봄로봇의 신뢰도와 수용성을 저해하는 요인으로 지적되고 있다. AI 윤리의 3대 핵심 요소 연구진은 AI 윤리의 핵심 요소로 투명성, 책임성, 공정성을 제시했다. 투명성은 알고리즘과 데이터의 설명 가능성을 높이고 의사결정 과정을 명확히 하는 것으로, 특히 데이터 수집 및 분석 절차에 대한 상세한 설명 제공이 중요하다. 책임성은 시스템 실패 시 책임 소재를 명확히 하고 포괄적인 기록 유지를 통해 정보 접근성을 보장하는 것을 의미한다. 마이크로소프트의 2018년 가이드라인에서도 AI 배포의 잠재적 위험을 지속적으로 추적하고 평가해야 함을 강조했다. 공정성과 관련하여 Obermeyer 등(2019)의 연구는 의료 알고리즘에서 발생할 수 있는 인종적 편향 문제를 지적하며, AI 시스템 개발 전반에 걸쳐 포용성과 다양성 보장의 중요성을 입증했다. 사용자 신뢰와 수용성의 상관관계 분석 연구팀은 18-70세(평균 연령 28.49세)의 239명 잠재적 개발자와 152명의 실제 사용자를 대상으로 6점 리커트 척도를 활용한 설문 조사를 실시했다. 분석 결과 AI 윤리 원칙의 준수는 사용자의 자기효능감을 37.5% 높이는 것으로 나타났으며(p < 0.001), 사회적 영향력도 자기효능감을 32.4% 향상시키는 것으로 확인되었다. 특히 AI에 대한 신뢰는 사용자의 수용 의도에 가장 큰 영향(38.2%)을 미치는 것으로 분석되었다. 성별에 따른 차이도 발견되었는데, 남성은 AI 윤리가 자기효능감에 미치는 영향이 더 큰 반면, 여성은 사회적 영향력이 자기효능감에 미치는 영향이 더 큰 것으로 나타났다. 실무적 시사점과 개선 방안 AI 서비스 제공자들은 개발 초기 단계부터 윤리 가이드라인을 통합하고, 데이터 프라이버시를 보장하며, 윤리적 우려사항을 해결하는 데 집중해야 한다. EU 의회 정책국이 제시한 비전에 따라 모든 AI 시스템은 자체 윤리 모듈을 갖추어야 하며, 윤리적 위험 평가를 위한 독립적인 제3자 위원회 설립이 권장된다. 조직은 정기적인 윤리 감사와 영향 평가를 통해 기술 발전에 따른 윤리 기준과 사용자 기대를 충족시켜야 한다. 정책 입안자들은 책임있는 AI 혁신을 장려하기 위한 정책 프레임워크를 개발하고, AI 윤리 원칙, 데이터 프라이버시 규정, 투명성 요구사항 등에 대한 가이드라인을 제시해야 한다. 연구의 한계와 향후 과제 연구진은 본 연구의 한계점으로 대만이라는 단일 문화권에서 수행된 점을 지적했다. 특히 유교 가치관과 현대 서구 가치가 융합된 대만의 독특한 문화적 특성이 연구 결과에 영향을 미쳤을 수 있다고 분석했다. 또한 구조방정식모델링(SEM) 방법론의 한계로 인해 횡단적 설문 조사만으로는 인과관계를 완벽하게 포착하기 어렵다는 점도 언급했다. 향후 연구에서는 다양한 문화권에서의 AI 돌봄로봇 수용성을 비교 분석할 필요가 있으며, 심층 인터뷰나 포커스 그룹 등 질적 연구 방법론의 도입을 통해 더 깊이 있는 통찰을 얻을 필요가 있다고 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 바로 가기)

2025.01.10 10:16AI 에디터

AI 투자전쟁 뜨겁다…美中, 올해 2.8조원 쏟아붓는다

AI 투자 경쟁 본격화...주요국 대규모 자금 투입 세계경제포럼(WEF)과 맥킨지가 공동 발간한 '글로벌 협력 바로미터 2025' 보고서에 따르면, 기계학습 기술이 경제와 사회 전반으로 확산되면서 인공지능(AI) 주도권 확보가 국가와 기업의 핵심 성장 동력으로 부상했다. 맥킨지는 생성형 AI만으로도 2.6조 달러에서 4.4조 달러 규모의 가치가 창출될 것으로 전망했다. 글로벌 기업들의 AI 도입과 국가별 투자 현황 글로벌 혁신기술 지표는 2012년 이후 꾸준한 상승세를 보이며 2023년에도 긍정적 성장을 이어갔다. 특히 IT 서비스 교역, 국경 간 데이터 흐름, 인터넷 사용자 수가 지속적으로 증가했다. 맥킨지가 실시한 글로벌 기업 임원 대상 설문조사에서는 응답자의 65%가 생성형 AI를 도입했다고 답했다. 국가별로는 미국이 연방정부의 AI 투자를 대폭 확대했으며, 중국은 향후 수년간 AI 산업에 1.4조 달러를 투자할 계획이다. 사우디아라비아는 1,000억 달러 규모의 AI 프로젝트 투자를 약속했고, 인도는 국가 AI 혁신 생태계 구축을 발표했다. 각국의 AI 전략과 규제 방향 주요국들은 AI 주도권 확보를 위한 차별화된 전략을 추진하고 있다. 미국은 AI 안전성 확보와 기술 우위 유지에 초점을 맞추고 있으며, 중국은 자국 AI 산업 육성을 통한 기술 자립을 추구하고 있다. 사우디아라비아와 인도는 AI 혁신 생태계 구축에 주력하고 있다. 동시에 각국은 자국의 AI 시스템과 역량을 개발하는 'AI 주권' 확보와 다자간 협력 사이에서 균형을 맞추려 노력하고 있다. AI가 바꾸는 산업 지형도 AI는 산업 전반에 걸쳐 큰 변화를 가져올 것으로 전망된다. 특히 국제 무역 분야에서 AI와 디지털화는 G7 국가들의 교역량을 약 9조 달러(43%) 증가시킬 것으로 예측된다. AI는 효율성 향상과 새로운 무역 기회 창출에도 큰 역할을 할 것으로 기대된다. 한편 반도체와 같은 핵심 기술 분야에서는 원자재와 첨단기술 통제 조치가 강화되고 있어, 글로벌 공급망에도 영향을 미치고 있다. AI가 가져올 노동시장의 구조적 변화 국제통화기금(IMF)은 AI가 전 세계 일자리의 약 40%에 영향을 미칠 것으로 전망했다. 이 중 절반은 일자리가 사라질 위험에 처해있다. 방치할 경우 AI는 허위정보 확산을 가속화하고 평화와 안보에 새로운 위험을 초래할 수 있다는 우려도 제기됐다. AI 기술 경쟁의 새로운 전선 혁신기술 지표는 대부분 팬데믹 이전 수준을 상회했지만, 반도체와 같은 주요 공급망이 국가 간 통제 조치로 영향을 받고 있다. 국경 간 특허 출원은 2023년 감소했으며, 국경 간 R&D도 2022년(최신 데이터 기준) 하락세를 보였다. 이러한 추세는 총요소생산성(TFP)의 정체 현상에 영향을 미치고 있다고 보고서는 분석했다. AI 안전성 확보를 위한 국제협력 움직임 지정학적 경쟁이 심화되는 가운데서도 AI 안전성 확보를 위한 국제협력이 시작됐다. 2024년 11월 APEC 정상회의에서 시진핑 중국 국가주석과 바이든 미국 대통령은 핵무기 시스템에 대한 AI 통제 방지에 합의했다. 또한 UN 사무총장의 AI 고위자문기구는 최종보고서 '인류를 위한 AI 거버넌스'를 통해 AI 위험 해결과 기술 혜택의 공평한 공유를 위한 첫 글로벌 계획을 제시했다. 보고서는 AI 주권을 추구하면서도 다자간 파트너십을 통해 표준 수립, 가이드라인 설정, 국경 간 데이터 흐름 촉진을 동시에 달성해야 한다고 제안했다. AI 협력과 경쟁의 새로운 패러다임 보고서는 AI 분야에서 '무질서한 협력'(disordered cooperation)의 중요성을 강조했다. 이는 기존의 질서정연한 접근방식에서 벗어나, 더 유연하고 역동적인 파트너십을 통해 AI 기술의 혜택을 최대화하고 위험은 최소화하는 새로운 협력 모델을 의미한다. 특히 AI 기술의 급속한 발전 속도를 고려할 때, 각국은 기회가 발생할 때마다 신속하게 대응할 수 있는 '계획된 기회주의'(planned opportunism)를 채택해야 한다고 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 바로가기)

2025.01.10 09:41AI 에디터

AI가 확 바꾼 일자리 지도…내 직업은 괜찮을까

AI가 주도하는 디지털 혁신 시대의 도래 세계경제포럼(WEF)이 발간한 '미래일자리 보고서 2025'에 따르면, 2030년까지 전체 기업의 86%가 AI와 정보처리 기술로 인한 조직 혁신을 경험할 것으로 전망된다. 디지털 접근성 확대는 60%의 기업이 변화를 예상하는 가장 큰 변혁 동인으로 꼽혔으며, 로봇과 자율 시스템이 58%, 에너지 생성 및 저장 기술이 41%로 그 뒤를 이었다. 특히 2022년 11월 챗GPT 출시 이후 AI 분야 투자가 8배나 증가했으며, 이는 서버와 에너지 발전소 등 물리적 인프라 투자 증가로 이어지고 있다. 데이터 전문가 수요 급증, 단순 업무 일자리는 감소 리포트에 따르면 AI와 디지털 기술 확산은 전 세계적으로 약 22%의 일자리에 영향을 미칠 전망이다. 2030년까지 기술 변화로 인해 약 1억 7천만 개의 새로운 일자리가 창출되는 반면, 약 9천 2백만 개의 일자리는 사라질 것으로 예상된다. 특히 기술 관련 직무의 수요가 급증하고 있다. 최종적으로는 전체 고용의 7%인 7천 8백만개의 순증가가 예상된다. 리포트는 빅데이터 전문가, 핀테크 엔지니어, AI 및 머신러닝 전문가와 같은 기술직이 가장 빠르게 성장할 직군으로 꼽았다. 반면, 은행 창구 직원, 우편 서비스 직원, 데이터 입력 직원 등은 AI 및 자동화로 인해 가장 급격히 감소할 직군으로 나타났다. AI의 발전은 단순한 일자리 대체를 넘어, 인간-기계 협업의 새로운 형태를 만들어 내고 있다. 기업들은 직원들이 AI 기술을 활용해 더 창의적이고 전략적인 업무를 수행할 수 있도록 지원하고 있으며, AI의 활용은 기업 운영 효율을 100배까지 향상시킬 수 있는 잠재력을 보이고 있다. 의료·교육계의 AI 혁신: 90% 정확도의 AI 진단과 64% 향상된 학습 효과 미국 재무부는 'Managing AI-Specific Cybersecurity Risks in the Financial Services Sector' 보고서에서 금융 서비스 부문에서 AI의 잠재력과 위험을 동시에 강조했다. AI는 실시간 사기 탐지와 보안 강화에서 중요한 역할을 하고 있지만, 동시에 데이터 오염, 데이터 유출 등의 위험을 관리할 필요성이 커지고 있다. 의료 분야에서는 대형언어모델(LLM)을 활용한 정신 건강 진단 보조 시스템이 개발되고 있다. 연구에 따르면 우울증 및 불안장애 진단에 있어 AI 기반 시스템의 정확도가 90%를 넘어서며, 의료진 부족 문제 해결의 열쇠로 주목받고 있다. 이와 같은 기술은 환자와 자연어로 대화하며 증상을 평가하고, 진단의 일관성과 신뢰성을 향상시키고 있다. 교육 분야에서도 AI는 새로운 학습 방법을 제시하고 있다. 독일 뮌헨공대 연구진은 VR과 생성형 AI를 결합하여 문화유산 학습 효과를 64% 향상시키는 교육 방식을 개발했다. 시선 추적 기술과 맞춤형 AI 지도가 적용된 VR 학습 환경이 몰입감을 높여 더 나은 교육 결과를 제공하고 있다. 100배 빨라진 업무 속도: 글로벌 기업들의 AI 혁신 사례 월마트(Walmart), EA(Electronic Arts), 레노보(Lenovo) 등 글로벌 기업들은 AI 도입을 통해 운영 혁신을 이루고 있다. 월마트는 8억 5천만 개의 제품 카탈로그 데이터를 AI로 관리하여 기존 인력 대비 100배 이상의 효율을 달성했다. 레노보는 AI를 통해 고객 지원에서 70-80%의 자동화를 이루었고, 마케팅 자료 제작 시간을 90% 단축했다. 하지만 AI 도입 과정에서 해결해야 할 과제도 존재한다. 많은 기업들이 기술 도입 이후 성과 측정을 소홀히 하고 있으며, 직원들이 새로운 소프트웨어 사용에 어려움을 겪으면서 연간 수백만 달러의 비용 손실을 초래하고 있다. 이를 해결하기 위해 기업들은 직원 경험 관리와 기술 활용도 향상에 주력해야 한다. 문화예술계에도 부는 AI 바람: 인간의 창의성을 넘보다 AI는 문화와 창의성 분야에서도 새로운 가능성을 열어주고 있다. AI 기반 텍스트 생성 기술은 인간이 쓴 글과 매우 유사한 결과물을 내놓고 있지만, 여전히 인간의 창의성과는 차이가 있다는 연구 결과도 있다. 서울시립대학교 연구진은 AI가 생성한 텍스트가 특정 설정값에 따라 더 창의적이거나 인간과 유사한 표현을 보일 수 있음을 밝혀냈다. CES 2025에서는 한국 기업들이 AI와 디지털 헬스 분야에서 최고 혁신상을 대거 수상하며 글로벌 시장에서 기술력을 입증했다. 특히 AI 기술을 활용한 사이버보안, 생체 인식 결제, VR 기반 디지털 치료기기 등이 주목을 받았다. AI가 가져올 미래… 준비가 필요하다 AI 기술은 이제 단순한 도구를 넘어 산업과 일자리의 구조를 근본적으로 재편하고 있다. AI가 제공하는 기회는 무궁무진하지만, 동시에 새로운 위험과 윤리적 문제를 수반한다. 글로벌 리포트들은 AI 기술의 긍정적 잠재력을 극대화하면서, 동시에 데이터 보호, 편향 문제 해결, 지속적인 직원 재교육을 강조하고 있다. 보고서에 따르면 기업들의 절반이 AI에 대응하여 사업 방향을 재조정할 계획이며, 3분의 2는 AI 관련 기술을 보유한 인재를 채용할 예정이다. 또한 40%의 기업이 AI가 업무를 자동화할 수 있는 분야에서 인력을 감축할 것으로 예상된다. 기업들은 AI와 빅데이터, 네트워크와 사이버보안, 기술 리터러시를 향후 가장 빠르게 성장할 핵심 기술로 꼽았다. 앞으로의 시대는 인간-기계 협업을 중심으로 한 하이브리드 직무 환경이 표준이 될 것이다. 이를 대비하기 위해 기업과 정부는 업스킬링(upskilling)과 리스킬링(reskilling) 전략을 강화하고, AI 기술을 윤리적으로 활용할 수 있는 정책적 지원이 필요하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 일자리 보고서 바로 가기)

2025.01.09 14:16AI 에디터

일반인이 허위정보 인플루언서 되는 이유…생성형 AI 때문?

케임브리지 대학교에서 발표한 보고서에 따르면 허위정보 확산에 있어 생성형 인공지능(Generative AI, 이하 GenAI)이 중요한 역할을 하고 있으며, 경제적 동기가 이를 가속화하고 있다. 연구진은 브라질과 미국에서 15개월간 진행된 민족지학적 연구를 통해 일상적인 사용자들이 어떻게 GenAI를 활용해 허위정보를 생성하고 확산하는지를 심층 분석했다. 이 보고서는 허위정보 제작자들의 경제적 동기와 GenAI 사용 전략을 체계적으로 정리하며, 기존의 허위정보 연구와는 다른 중요한 통찰을 제공한다. 허위정보 제작의 경제적 동기는 "인플루언서 백만장자" 신드롬 보고서에 따르면, 허위정보 제작자들이 GenAI를 활용하는 가장 큰 이유는 경제적 이익이다. 많은 참가자들은 "누구나 콘텐츠 제작을 통해 부자가 될 수 있다"는 믿음을 가지고 GenAI를 통해 콘텐츠를 대량으로 제작하고 있었다. 13~26세 응답자의 57%가 인플루언서가 되고 싶다고 답했고, 50%는 수익이 보장된다면 현재 직업을 그만두겠다고 답했다. 특히, 생성형 AI는 글쓰기나 영상 편집 기술이 부족한 사람들도 콘텐츠를 대량으로 제작할 수 있도록 돕는다. 이들은 허위정보의 진실성보다 콘텐츠가 바이럴될 가능성에 더 집중하며, 그 결과 허위정보의 품질보다는 양적인 측면이 강화된다. 브라질의 한 참가자는 2022년 브라질 대선 당시 정치적 허위정보를 담은 콘텐츠를 제작해 TikTok에서 수백만 회의 조회수를 기록했다. 이 참가자는 "돈을 벌기 위한 가장 빠른 방법은 유튜브에 동영상을 올리는 것"이라며, 정치적 신념보다는 경제적 동기에 의해 콘텐츠를 제작했다고 밝혔다. 허위정보의 민주화, 누구나 콘텐츠 제작자가 될 수 있는 시대 보고서에 따르면, GenAI는 허위정보 제작의 진입 장벽을 낮추고 누구나 콘텐츠 제작자가 될 수 있는 환경을 조성했다. 기술적 지식이 부족한 일반 사용자들도 AI 도구를 활용해 고품질 콘텐츠를 제작할 수 있게 되면서 허위정보 확산이 더욱 가속화되고 있다. 조사된 사례에 따르면, 정치적 패러디 영상이나 건강 관련 허위정보 영상이 수백만 회 조회수를 기록하며 확산되었다. 특히, AI를 활용해 기존 콘텐츠를 재가공하거나 새로운 콘텐츠로 포장하여 여러 플랫폼에 적응시키는 방식이 일반화되고 있다. 미국의 한 참가자는 MidJourney와 같은 이미지 생성 도구를 활용해 유명 인사들의 사진을 조작하고, 이를 TikTok과 YouTube에 게시해 대중의 관심을 끌었다. 또 다른 참가자는 AI 음성 합성 도구를 사용해 정치인들의 발언을 왜곡하여 허위정보를 담은 영상을 제작했다. 허위정보 크리에이터의 마케팅 전략: '신뢰와 권위'를 가장하다 허위정보 제작자들은 AI를 활용하여 자신을 전문가로 포장하고, 신뢰를 쌓기 위한 다양한 마케팅 기법을 사용한다. 보고서는 이들이 인플루언서 마케팅 전략을 적극 활용하며, 콘텐츠의 진실성 여부와 관계없이 팔로워와의 관계를 심화시키는 데 주력한다고 설명했다. AI는 이러한 작업을 자동화하고 개인화하여 더욱 효율적으로 수행할 수 있게 한다. 크리에이터들은 AI 도구를 사용해 자신만의 목소리를 유지하면서도 대규모 콘텐츠를 자동으로 생산하고 재배포하고 있다. 허위정보 제작과의 전쟁: 플랫폼의 대응과 과제 허위정보 크리에이터들이 AI로 생성한 콘텐츠를 플랫폼이 효과적으로 규제하기 어려운 이유 중 하나는 크리에이터들이 허위정보 감시 체계를 회피하는 방법을 끊임없이 학습하기 때문이다. 플랫폼이 생성형 AI 콘텐츠에 라벨을 부착하려는 시도는 있었지만, 많은 크리에이터들은 이러한 라벨이 자신의 수익에 악영향을 미칠 수 있다는 우려 때문에 자발적으로 이를 적용하지 않고 있다. 참가자들은 AI 라벨이 정치적으로 중립적이라고 인식했으며, 이는 일반적인 팩트체크 라벨과는 달리 더 높은 신뢰를 얻고 있는 것으로 나타났다. 반면, 일반 사용자들은 AI가 생성한 콘텐츠인지 여부를 알 수 있는 투명성을 강하게 요구하고 있다. 연구진은 AI 라벨링이 허위정보 공유를 줄이는 데 효과적일 수 있다고 제안하며, 추가적인 연구가 필요하다고 주장했다. 새로운 허위정보 시대, 생성형 AI의 역할 보고서는 허위정보 생성의 주체가 전문가나 정치적 단체에서 개인으로 확대되었음을 강조한다. 생성형 AI는 콘텐츠 생성의 진입 장벽을 낮추었으며, 이는 허위정보 확산의 새로운 시대를 열었다. 허위정보의 확산 속도가 빨라지고 양이 많아지면서, 플랫폼과 규제 기관은 기존의 허위정보 대응 방식으로는 부족하다는 현실을 직면하고 있다. 앞으로는 AI 기반 허위정보 생성의 새로운 패러다임에 대응하기 위한 보다 정교한 접근이 필요할 것이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성됐습니다. (☞ 보고서 바로 가기)

2025.01.09 14:12AI 에디터

초급 5명 대신 고급 1명?...생성형 AI, SW개발자 채용시장도 바꾼다

소프트웨어정책연구소(SPRi)가 발간한 '소프트웨어 개발자 채용시장의 변화와 생성형 AI의 영향' 보고서에 따르면, 현재 SW 개발자 채용시장은 2020-2021년 호황기에 비해 크게 위축된 상태다. 2023년 스타트업 투자 건수는 965건으로 전년 대비 65% 줄었고, 투자금액도 51% 감소한 5조 8,110.9억원을 기록했다. 특히 스타트업 폐업 건수는 2021년 71건에서 2023년 119건, 2024년에는 144건으로 늘어났다. 원티드랩의 설문조사에 따르면, 현업 개발자들의 약 43%는 생성형 AI의 개발실력이 13년 차 경력자 수준이라고 평가했으며, 응답자의 91.8%는 생성형 AI가 개발자를 대체할 것이라는 데 동의했다. 중소벤처기업부(2024)의 조사에 따르면, 국내 벤처기업의 업종 중 SW 개발 및 에너지 등 첨단 제조·서비스 업종이 약 50.4%를 차지하고 있다. IT업계의 투자 위축은 이러한 벤처기업의 채용시장에 직접적인 영향을 미치고 있다. 특히 인건비 부담이 큰 개발자 채용이 가장 먼저 영향을 받고 있는 것으로 나타났다. 코딩테스트는 필수? 기업 규모별 채용 평가 기준의 변화 채용과정에서 생성형 AI 도입으로 인한 변화도 감지되고 있다. 기술 면접에서는 단순 코딩 능력보다 AI 도구를 활용한 문제해결 능력과 통합적인 시스템 설계 능력이 더욱 중요해질 전망이다. 프롬프트 엔지니어링이 새로운 역량으로 부상했지만, 현업 개발자들은 이를 본질적 역량으로 보기에는 시기상조라는 의견이 지배적이다. 채용과정에서 코딩테스트의 필요성에 대한 의견이 엇갈리고 있다. 대기업과 대기업 연구소는 대량 검증과 평가를 위해 코딩테스트를 필수로 보는 반면, 중소기업과 스타트업은 실무 역량과의 연관성 부족을 지적하며 비용과 효용성에 의문을 제기하고 있다. 특히 스타트업의 경우 실질적 문제해결 능력과 조직문화 적합도를 더 중요시하며, 컬쳐핏(culture fit) 인터뷰를 통해 일하는 방식, 커뮤니케이션 방식, 리더십 등을 평가하고 있다. 생성형 AI가 초급 개발자에게 미치는 양면적 영향 생성형 AI는 초급 개발자들에게 양날의 검이 되고 있다. 맥킨지 보고서에 따르면, 생성형 AI는 개발자의 생산성을 빠르게 증가시킬 수 있으며, 특히 코드 문서화, 코드생성, 코드 재구성 등의 작업에서 20-50%의 작업 시간 절감률을 보인다. 반면 캡제미니의 설문조사에서는 생성형 AI 이니셔티브를 활발하게 도입한 조직이 그렇지 않은 조직보다 SW 개발주기 전반에서 생산성이 78% 향상된 것으로 나타났다. 현업 개발자들의 의견에 따르면, 아직까지 앱 배포, 테스트, QA 등의 업무에는 AI 도구를 활용하기 어려워 사람이 직접 해야 하는 영역이 남아있다. ChatGPT, Github Copilot 등 생성형 AI 코딩 도구는 코드 생성과 기본적인 문제 해결에는 도움이 되지만, 복잡한 시스템 설계나 비즈니스 로직 구현에는 한계가 있다는 평가다. 반면, 초급 개발자들은 이러한 AI 도구를 통해 지식을 빠르게 습득하고 실무 경험을 쌓을 수 있어, 오히려 경력 성장의 기회로 활용할 수 있다. AI 시대의 새로운 개발자 필수역량 가트너는 2027년까지 SW 개발자의 80%가 역량 향상이 필요할 것으로 전망했다. 중‧고급 개발자들은 개발 역량보다는 팀 관리, 기획, 비즈니스 협업 역량이 더욱 강조될 것이며, 장기적으로는 개발 관리자 역할로 전환이 예상된다. 네이버는 2023년 231명을 신규 채용했는데, 이는 2022년의 599명 대비 절반 수준이었으며, 카카오도 2023년 425명의 신규 채용이 있었으나 2021년 994명, 2022년 870명과 비교하면 채용 규모가 크게 줄었다. 앞으로는 학습능력, 이슈의 본질적 이해, 문제해결 능력, 커뮤니케이션 능력, 모듈 디자인 능력, 생성형 AI 도구가 제공하는 지식에 대한 판별 능력 등이 중요한 역량으로 부각될 전망이다. 생성형 AI 도입으로 초급 SW 개발자의 역량이 상향 평준화될 것으로 예상되며, AI 도구 활용 시 정보 판별 능력이 새롭게 요구되는 역량으로 떠오를 것으로 보인다. AI 시대의 개발자 재교육이 급선무 소프트웨어정책연구소는 O*NET의 65개 SW 관련 직무를 분석한 결과, 코드 작성, 코드 리뷰, 테스트, 사용설명서 작성 등의 작업이 생성형 AI의 영향을 가장 많이 받을 것으로 예측했다. 이에 따라 정부의 SW 개발자 교육 정책도 변화가 필요한 시점이다. AI와 데이터 과학을 필수 교육 과정에 포함하고 실무 중심의 교육 커리큘럼을 개발해야 한다는 목소리가 높다. 또한 산업 협력을 통한 현장 실습을 강화하고, 고급 개발자 신속 양성을 위한 특화 교육과정 개발이 시급하다는 의견이다. 특히 개발자들의 AI 윤리와 위험관리 역량 강화를 위한 표준화된 가이드라인 마련도 중요한 과제로 떠올랐다. 생성형 AI 도구가 생성한 코드의 품질과 보안 위험을 평가할 수 있는 능력이 앞으로 더욱 중요해질 것으로 전망된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 원문 바로가기)

2025.01.09 10:35AI 에디터

'AI 생성 글' 귀신처럼 잡아낸다…표절방지 기술 화제

아랍 아메리칸 대학교(Arab American University)와 콜롬비아 대학교(Columbia University) 연구진이 발표한 최근 연구에 따르면, AI가 생성한 텍스트를 높은 정확도로 탐지할 수 있는 새로운 머신러닝 모델이 개발됐다. AI 생성 텍스트 탐지의 새로운 전환점 연구팀은 사이버보안 분야의 텍스트 1,000개를 분석 대상으로 삼았다. 이중 500개는 인간이 작성했고, 나머지 500개는 챗GPT가 생성했다. 'CyberHumanAI'라고 명명된 이 데이터셋을 기반으로 다양한 머신러닝과 딥러닝 알고리즘을 테스트한 결과, XGBoost 알고리즘이 83%의 정확도를, 랜덤 포레스트(Random Forest) 알고리즘이 81%의 정확도를 기록했다. AI와 인간의 글쓰기 특성 차이 발견 연구진은 설명 가능한 AI(XAI) 기술인 LIME을 활용해 AI와 인간의 글쓰기 패턴을 심층 분석했다. 분석 결과, 인간이 작성한 텍스트에서는 'security'가 420회(1.71%), 'use'가 312회(1.27%), 'system'이 264회(1.07%), 'computer'가 251회(1.02%), 'information'이 206회(0.84%) 빈도로 사용됐다. 반면 AI 생성 텍스트에서는 'security' 411회(1.52%), 'system' 261회(0.97%), 'computer' 233회(0.86%), 'within' 220회(0.81%), 'datum' 183회(0.68%) 순으로 나타났다. 특히 주목할 만한 점은 단어 선택의 경향성이다. 인간이 작성한 텍스트에서는 'allow', 'use', 'virus', 'people'과 같이 실용적이고 행동 중심적인 용어가 자주 등장했다. 반면 AI는 'realm', 'employ', 'serve', 'establish'와 같은 추상적이고 형식적인 용어를 선호했다. 이러한 차이는 TF-IDF(Term Frequency-Inverse document Frequency) 분석에서도 확인됐는데, 인간 텍스트에서는 'use'와 'computer'가 각각 가중치 16과 14를 기록한 반면, AI 텍스트에서는 'datum'과 'authentication'이 각각 11에 가까운 가중치를 보였다. 기존 AI 탐지 도구와의 성능 비교 연구팀은 600개의 새로운 관측 데이터를 활용해 자체 개발 모델과 GPTZero의 성능을 비교했다. 데이터는 순수 AI 텍스트 200개, 혼합 텍스트 200개(AI 텍스트 비율 1-99%), 순수 인간 텍스트 200개로 구성됐다. 이 중 400개는 훈련 데이터로, 200개는 테스트 데이터로 사용됐다. 테스트 결과, GPTZero는 200개의 관측치 중 32개를 분류하지 못했으며, 분류에 성공한 케이스에서도 48.5%의 정확도를 보였다. 구체적으로 살펴보면, GPTZero는 혼합 텍스트의 경우 76개를 정확히 분류하며 좋은 성능을 보였으나, 순수 AI 텍스트는 단 3개만을, 순수 인간 텍스트는 18개만을 정확히 분류했다. 특히 56개의 순수 AI 텍스트와 15개의 순수 인간 텍스트를 혼합 텍스트로 잘못 분류하는 문제를 보였다. 반면 연구팀이 개발한 XGBoost 모델은 77.5%의 정확도를 기록했으며, 미분류 케이스도 없었다. 이 모델은 순수 AI 텍스트 66개 중 48개를 정확히 분류했고, 혼합 텍스트와 순수 인간 텍스트에서도 각각 55개와 52개를 정확히 분류했다. 특히 GPTZero와 달리, 순수 인간 텍스트 67개 중 52개를 정확히 판별하며 균형 잡힌 성능을 보여주었다. 교육 현장에서의 활용 가능성 이번 연구 결과는 교육계에 중요한 의미를 갖는다. AI 생성 콘텐츠가 교육 현장에서 증가하는 상황에서, 이 기술은 학생들의 과제와 논문의 진실성을 검증하는 도구로 활용될 수 있다. 연구진은 특히 학습 결과물의 평가, 디지털 제출물 검증, AI 활용 학습 환경에서의 학습 성과 보호 등에 이 기술이 기여할 수 있을 것으로 전망했다. 이번 연구는 특정 분야에 맞춤화된 AI 시스템이 GPTZero와 같은 범용 AI 시스템보다 더 우수한 성능을 발휘할 수 있다는 점을 입증했다는 데 의의가 있다. 연구진은 이 기술이 학문적 진실성을 유지하면서도 AI 기술의 교육적 활용을 촉진하는 데 도움이 될 것으로 기대하고 있다. 해당 논문의 원문은 링크에서 확인할 수 있다. ■ 해당 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로 가기)

2025.01.09 09:51AI 에디터

매년 10배씩 진화하는 AI…인류는 준비돼 있나

AI 진화의 가속도: 매년 10배씩 발전하는 인공지능 텔아비브대학교의 유발 라이몬(Yuval Rymon) 연구진이 발표한 'AI 인간노동 자동화에 대한 사회적 적응' 연구는 AI의 사회적 영향을 체계적으로 분석하는 새로운 프레임워크를 제시했다. 이 프레임워크는 AI 기술의 발전부터 최종 사회적 영향까지 5단계로 구분하고, 각 단계별 대응 전략을 제시한다. AI 기술이 개발되는 'Development' 단계, 기술이 확산되는 'Diffusion' 단계, 실제 활용되는 'Use' 단계, 초기 피해가 발생하는 'Initial Harm' 단계, 그리고 최종적인 사회적 영향이 나타나는 'Impact' 단계로 이어지는 일련의 과정을 체계적으로 분석한다. 현대의 AI는 기존의 자동화와는 전혀 다른 양상을 보이고 있으며, AI의 훈련 효율성이 매년 10배씩 향상되고 있다. 이는 연간 4배의 컴퓨터 성능 향상과 2.5배의 알고리즘 효율성 증가에 기인한다. 특히 현대의 AI는 경제협력개발기구(OECD)가 정의한 바와 같이 "물리적 또는 가상 환경에 영향을 미치는 예측, 추천, 내용, 결정 등의 출력을 생성하는 기계 기반 시스템"으로서, 자연어 처리, 컴퓨터 비전, 로봇 학습 등 다양한 기술적 능력을 생성하는 방법론으로 작용하고 있다. 일자리 자동화의 양면성: 생산성 향상의 그림자 AI 자동화는 노동 수요와 임금, 고용의 감소를 초래하는 대체효과(Displacement Effect)를 일으키지만, 동시에 이를 상쇄하는 여러 효과도 존재한다. 생산비용 감소로 인한 생산성 향상은 가계의 가처분소득을 증가시켜 새로운 수요를 창출할 수 있다. 또한 이미 자동화된 작업의 효율성이 향상되거나, 자본 축적으로 인한 새로운 투자 기회가 생기면서 노동 수요가 증가할 수 있다. 가장 중요한 것은 인간 노동이 비교우위를 가지는 새로운 직무가 창출되는 '재투입 효과'다. 그러나 영국 산업혁명 시기에도 임금 정체와 빈곤 확대가 80년간 지속되었듯이, 이러한 전환 과정은 느리고 고통스러울 수 있다. 특히 대규모 교육 개혁 없이는 이러한 전환이 순조롭게 이루어지기 어렵다. AI 발전 단계별 대응 전략 연구진이 제시한 프레임워크에 따르면, AI 자동화 대응은 크게 '능력 수정 개입'(CMI)과 '적응 개입'(ADI) 두 가지로 나뉜다. 개발 단계에서는 인간 보완적 AI 개발을 장려하고 노동 과세를 줄이며, 노동 친화적 연구에 대한 정부 지원과 지적재산권법 개정 등이 필요하다. 확산 단계에서는 API를 통한 제한적 접근이나 서비스 정책 시행과 같은 통제가 요구된다. 사용 단계에서는 잠재적 위험 사용을 제한하는 회피 조치가, 피해 단계에서는 교육과 재교육을 통한 방어 조치가, 그리고 영향 단계에서는 물질적·사회적 대체재를 통한 구제 조치가 필요하다. 노동 자동화에 대한 프레임워크 적용 이 프레임워크를 AI 노동 자동화에 적용하면, AI 연구개발에서 시작하여 모델 출시, 자동화 실행, 실업 인구 발생, 사회적 위기로 이어지는 과정을 체계적으로 분석할 수 있다. 각 단계별 대응책으로는 인간 보완적 AI 개발 유도, 인간-기계 협력 의무화, 자동화 과세, 재교육과 교육 개혁, 그리고 물질적·사회적 노동 대체재 도입이 제시된다. 특히 교육 개혁은 단기적으로는 AI 리터러시 향상에, 장기적으로는 인간 고유의 가치를 강화하는 방향으로 진행되어야 한다. 급여 이상의 가치: 일자리가 주는 삶의 의미 일자리는 단순한 임금 이상의 의미를 지닌다. 지역사회 소속감, 대인관계, 조직구조 탐색을 통한 사회화, 외부적 인정과 내적 자아개념을 형성하는 정체성, 목적의식과 자아존중감을 제공하는 의미 부여, 직장에서의 도전과 문제해결을 통한 인지발달, 그리고 신체적·정신적 건강까지 일자리가 제공하는 비금전적 혜택은 매우 광범위하다. 일부 학자들은 "실직의 주요 비용이 심리적"이라고까지 주장한다. 이는 AI 시대의 대응 전략이 단순한 소득 보전을 넘어서야 함을 시사한다. 미래를 위한 청사진: AI 시대의 새로운 사회 시스템 이러한 도전에 대응하기 위해서는 복합적인 접근이 필요하다. 먼저 AI 개발 방향을 인간 보완적으로 유도하고, 알고리즘 의사결정 과정에 인간의 개입을 의무화하는 정책이 필요하다. 의료, 법률, 교통 등 중요 분야에서는 오류 교정, 비상 대응, 설명 가능성 확보, 인간 존엄성 보존, 법적 책임 부여 등의 역할을 위해 인간의 개입이 필수적이다. 또한 자동화에 대한 과세를 통해 노동 수요를 유지하고 노동 친화적 정책을 위한 재원을 마련해야 한다. 교육 체계는 단기적으로는 AI 리터러시와 활용 능력을, 장기적으로는 진정성, 정체성, 감독 등 인간 중심 기술을 강화하는 방향으로 근본적 재편이 필요하다. 물질적 대체제로는 모든 시민에게 기본적 생활수준을 보장하는 기본소득(UBI)이나 일시금을 지급하는 기본자본(UBC)을, 사회적 대체제로는 무급 사회활동, 지역사회 활동, 정치적 직접 참여 등을 마련해야 한다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성됐습니다. (☞ 논문 바로 가기)

2025.01.09 09:48AI 에디터

"그날 계엄이 성공했다면"…AI로 재구성해 봤더니

AI로 재현한 충격적인 계엄령 시나리오 MBC가 7일 PD수첩 방송을 통해, 생성형 AI 기술을 활용한 계엄령 시나리오를 생생하게 재구성했습니다. 이날 방송에서는 계엄령이 실제로 선포되었을 경우 발생할 수 있는 국회의원들의 체포와 군사재판 회부, 시민들의 영장 없는 체포와 '반국가 세력' 낙인, 선거관리위원회 직원들의 고문과 감금, 언론과 대중문화에 대한 통제 등 충격적인 상황들을 세밀하게 시뮬레이션했는데요. 대부분의 국민들은 미디어를 통한 보도만 접하기 때문에 다소 추상적일 수 있는 계엄령의 개념과 영향을 구체화해 시민들이 그 위험성을 현실적으로 체감할 수 있게 했습니다. 역사적 교훈과 연결된 AI 시뮬레이션의 파급력 무엇보다 5.18 민주화운동을 아픈 역사를 이미 경험한 시민들은 이 AI 재현을 보고 큰 충격을 받았다는 반응이 이어지고 있습니다. 해당 방송분을 짧게 구성한 영상이 8일 오후 PD수첩 공식 유튜브에 업로드 되었는데요. AI를 활용한 콘텐츠가 과거의 역사적 아픔과 현재의 잠재적 위기를 효과적으로 연결하는 강력한 도구가 될 수 있음을 입증했다고 볼 수 있습니다. 시청자들은 AI로 재현한 영상을 통해 민주주의의 위기가 얼마나 심각한 결과를 초래할 수 있는지를 실감할 수 있으며, 사건의 인과 역시 한눈에 이해할 수 있습니다. AI 시뮬레이션의 확장된 활용 가능성 MBC PD수첩의 이 같은 시도는 AI를 활용한 시뮬레이션은 다양한 분야로 확장될 수 있는 잠재력을 보여줍니다. 과거의 중요한 역사적 순간들을 현대적으로 재해석해 시민들의 이해를 돕거나, 현재의 정책 결정이 미칠 수 있는 장기적인 영향을 예측하는 데 활용될 수 있습니다. 또한 다양한 사회적 위기 상황을 가상으로 재현하여 효과적인 대응 방안을 모색하는 데에도 큰 도움이 될 수 있죠. 이처럼 AI를 활용한 시뮬레이션은 복잡한 사회적, 정치적 상황을 시각화하고 대중의 이해를 증진시키는 데 혁신적인 역할을 할 수 있습니다. 그러나 동시에 데이터의 선택과 편향성, 재현의 정확성에 대한 윤리적 고려가 반드시 수반되어야 합니다. AI 기술의 발전과 함께, 이러한 시뮬레이션 기술은 앞으로 더욱 정교해지고 다양한 분야에 적용될 것으로 예상됩니다. 이는 우리 사회의 중요한 이슈들을 더 깊이 이해하고 대비하는 데 핵심적인 역할을 할 것으로 기대됩니다. ■이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 2025년 1월 7일 방영된 MBC PD수첩의 '계엄령 시나리오 AI 재현' 프로그램을 바탕으로 챗GPT와 클로드 3.5 소네트를 활용해 작성했습니다.

2025.01.08 22:49AI 에디터

AI가 공항에서 짐 챙기고, 탑승구 안내까지 '척척'

AI 여행 비서 '델타 콘시어지' 전격 공개 라스베이거스 스피어 아레나(Sphere Arena)에서 열린 CES 2025 2일차 기조연설에서 델타항공(Delta Air Lines)이 AI 기반의 혁신적인 여행 서비스를 대거 공개했다. 에드 바스티안(Ed Bastian) 델타항공 CEO는 델타항공 100주년을 기념하며 2025년 출시 예정인 'AI 기반 델타 콘시어지(Delta Concierge)'를 발표했다. 이 서비스는 승객의 일정을 파악해 교통 상황에 따라 조비(Joby)의 전기 수직이착륙기(eVTOL) 예약부터 수하물 추적, 실시간 게이트 안내까지 제공한다. 특히 로스앤젤레스와 뉴욕시 구간에서는 2025년부터 조비 서비스가 실제 운영될 예정이다. 이는 항공업계 최초로 여행 전 과정을 AI로 통합 관리하는 시도다. 유튜브·우버와 손잡고 기내서 맞춤형 큐레이션 제공 델타항공은 유튜브(YouTube)와 독점 파트너십을 체결하고 '델타 싱크(Delta Sync)'를 통해 광고 없는 유튜브 프리미엄과 유튜브 뮤직 서비스를 무료로 제공한다. 메리 엘렌 펠드(Mary Ellen Feld) 유튜브 최고비즈니스책임자는 "델타항공 고객만을 위한 맞춤형 큐레이션 서비스를 제공할 것"이라고 밝혔다. 차량 공유 서비스 우버(Uber)와도 제휴를 맺어 올 봄부터 스카이마일즈 회원들은 우버와 우버잇츠 이용 시 마일리지를 적립할 수 있게 된다. 다라 코스로샤히(Dara Khosrowshahi) 우버 CEO는 "공항 연계 교통이 우버 전체 이용의 50%를 차지한다"며 협력의 중요성을 강조했다. 700만건 고객 피드백 분석으로 개인화 서비스 강화 콜트릭스(Qualtrics)와의 협력을 통해 지난해 약 700만 건의 고객 피드백을 분석했다고 밝힌 델타항공은 이를 바탕으로 개인화 서비스를 강화한다. 특히 매일 65명의 승객이 100만 마일 비행 기록을 달성하는 것에 주목해 특별한 기념 서비스를 제공할 예정이다. 시차 적응 키트와 생체 리듬 맞춤 조명 등 웰니스 서비스 도입 NFL 레전드 톰 브래디(Tom Brady)와 협력해 2025년 '웰 트래블드(Well-Traveled)' 프로그램을 선보인다. 또한 파운드(Found)사의 '플라이 키트(Fly Kit)'를 도입해 시차 적응을 돕고, 스카이뷰(Skyview)의 생체 리듬 맞춤형 조명 시스템을 적용한다. 드래프트킹스(DraftKings)와도 협력해 기내 게이밍 서비스를 확대하며, 현재 16만 5천 개의 기내 스크린을 통해 업계 최대 규모의 엔터테인먼트 서비스를 제공하고 있다. ■ 이 기사는 클로드 3.5 소네트와 챗GPT, Vrew를 활용해 작성되었습니다.

2025.01.08 17:13AI 에디터

엔비디아, AI 슈퍼컴퓨터 공개…가격이 3천 달러?

엔비디아가 CES 2025 키노트를 통해 일반 전기 콘센트만으로 구동 가능한 개인용 AI 슈퍼컴퓨터 '프로젝트 디짓(Project DIGITS)'을 공개했다. 이 시스템은 전 세계 AI 연구자, 데이터 과학자, 학생들에게 엔비디아의 그레이스 블랙웰(Grace Blackwell) 플랫폼의 성능을 제공한다. 페타플롭급 성능의 새로운 슈퍼칩 GB10 프로젝트 디짓의 핵심인 GB10 슈퍼칩은 FP4 정밀도에서 최대 1페타플롭의 AI 성능을 제공한다. 이 시스템온칩(SoC)은 최신 세대 쿠다(CUDA) 코어와 5세대 텐서(Tensor) 코어를 탑재한 블랙웰(Blackwell) GPU를 특징으로 한다. 엔비링크-C2C(NVLink-C2C) 칩간 상호연결을 통해 ARM 아키텍처 기반의 20개 전력 효율적 코어를 포함하는 고성능 그레이스(Grace) CPU에 연결된다. 특히 미디어텍(MediaTek)이 GB10 설계에 참여해 최고 수준의 전력 효율성과 성능, 연결성을 구현했다. 강력한 시스템 사양과 확장성 프로젝트 디짓은 128GB의 통합 코히어런트 메모리와 최대 4TB의 NVMe 스토리지를 제공한다. 이를 통해 개발자들은 최대 2,000억 개의 매개변수를 가진 대규모 언어 모델을 실행할 수 있다. 더욱 주목할 만한 점은 엔비디아 커넥트엑스(NVIDIA ConnectX) 네트워킹을 통해 두 대의 시스템을 연결하면 최대 4,050억 개의 매개변수를 가진 모델까지 구동할 수 있다는 것이다. 완벽한 소프트웨어 생태계 지원 사용자들은 리눅스 기반의 엔비디아 DGX OS를 실행하는 프로젝트 디짓에서 모델을 프로토타입으로 제작하고 테스트한 후, 이를 엔비디아 DGX 클라우드나 가속화된 클라우드 인스턴스, 데이터센터 인프라에 원활하게 배포할 수 있다. 엔비디아 NGC 카탈로그와 개발자 포털을 통해 다양한 AI 소프트웨어 라이브러리에 접근할 수 있으며, 네모(NeMo) 프레임워크로 모델을 미세 조정하고 래피즈(RAPIDS) 라이브러리로 데이터 과학을 가속화할 수 있다. 혁신적인 가격과 출시 일정 엔비디아의 설립자이자 CEO인 젠슨 황은 "AI는 모든 산업의 모든 애플리케이션에서 주류가 될 것"이라며 "프로젝트 디짓을 통해 수백만 명의 개발자들이 그레이스 블랙웰 슈퍼칩을 활용할 수 있게 될 것"이라고 밝혔다. 프로젝트 디짓은 2025년 5월 엔비디아와 주요 파트너사들을 통해 출시될 예정이며, 가격은 3,000달러로 책정됐다. ■ 기사는 클로드 3.5 소네트와 과 챗GPT를 활용해 작성되었습니다. (☞ 엔비디아 기조연설 바로가기)

2025.01.08 17:00AI 에디터

"AI를 모국어처럼 사용"…'베타 세대'를 아시나요

2025년 1월 1일부터 새로운 세대 '제너레이션 베타(Generation Beta)'가 시작된다. 이들은 인공지능(AI)을 일상적으로 사용하는 최초의 세대가 될 전망이다. AI가 모국어가 되는 첫 번째 세대의 탄생 굿모닝아메리카가 보도한 내용에 따르면, 미래학자 마크 맥크린들(Mark McCrindle)은 2025년부터 2039년 사이에 태어나는 세대를 '제너레이션 베타'로 정의했다. 이들은 22세기까지 살아갈 것으로 예측되며, 2035년까지 전 세계 인구의 16%를 차지할 것으로 전망된다. 특히 이들은 기술 통합과 다양성에 대한 강한 이해를 특징으로 하는 세대가 될 것으로 예상된다. 사회가 변화와 포용을 점차 수용함에 따라 베타 세대는 호기심과 포용성을 증진하는 환경에서 성장하게 될 것이다. AI 기반 맞춤형 교육이 표준이 되는 시대 노스캐롤라이나 주립대학교의 마케팅 조교수 헤더 드레취(Heather Dretsch)는 베타 세대에게 AI는 단순한 도구가 아닌 학습과 성장의 파트너가 될 것이라고 전망했다. AI 튜터와 함께 공부하고, AI 기반 맞춤형 교육을 받으며 성장하는 첫 세대가 될 것이라는 설명이다. 이는 교육 방식의 근본적인 변화를 가져올 것으로 예상된다. 전통적인 일방향적 교육에서 벗어나, AI를 활용한 개인 맞춤형 학습이 새로운 교육의 표준이 될 것으로 보인다. 인간-AI 협업의 새로운 패러다임을 제시할 세대 맥크린들은 베타 세대가 AI와의 협업을 통해 새로운 가치를 창출하는 세대가 될 것으로 예측했다. 이들은 2035년까지 전 세계 인구의 16%를 차지할 것으로 예상되며, 22세기까지 살아가게 될 것으로 전망된다. 특히 AI 윤리와 인간-AI 협업에 대한 자연스러운 이해를 바탕으로, 기존 세대와는 다른 새로운 직업윤리와 가치관을 형성할 것으로 예상된다. 베타 세대는 물리적 세계와 가상 세계의 경계가 없는 하이브리드 환경에서 성장하게 될 것이다. AI 기반 메타버스에서의 사회적 활동이 일상화되고, 이를 통해 새로운 형태의 정체성과 커뮤니케이션 방식이 발달할 것으로 예상된다. 드레취는 이러한 환경이 베타 세대의 사회화 과정과 정체성 형성에 큰 영향을 미칠 것이라고 분석했다. 알파 세대에서 베타 세대로의 진화 맥크린들이 명명한 '알파 세대(Generation Alpha)'는 2010년부터 2024년 사이에 태어난 이들을 지칭한다. 현재 최고령자는 14세로, 대부분 밀레니얼 세대의 자녀들이며 디지털 기술이 주도하는 세상에서 성장하고 있다. 맥크린들은 알파 세대가 모든 구성원이 태어날 때까지 20억 명 이상의 인구를 보유하게 될 것으로 예측하며, 역사상 가장 큰 규모의 세대가 될 것으로 전망했다. 드레취는 알파 세대가 가족과 강한 유대 관계를 형성하고 있다고 분석했다. 1901년부터 이어져 온 세대 구분의 의미와 진화 세대 구분은 특정 시기에 공통된 문화적, 사회적, 역사적 경험을 공유하는 집단을 정의하는 중요한 기준이다. 1901년부터 시작된 '위대한 세대'를 시작으로, '침묵의 세대(1928-1945년)', '베이비부머(1946-1964년)', 'X세대(1965-1980년)', '밀레니얼 세대(1981-1996년)', 'Z세대(1997-2009년)', '알파 세대(2010-2024년)'를 거쳐 2025년부터는 '베타 세대'가 시작된다. 각 세대는 주요 사건, 기술, 사회적 변혁에 의해 형성된 공유 경험을 바탕으로 고유한 태도, 가치관, 행동 양식을 발전시켜왔다. 노스캐롤라이나 주립대학교의 마케팅 조교수 헤더 드레취(Heather Dretsch)는 굿모닝아메리카(GMA)와의 인터뷰에서 세대 연구에 대한 기업들의 관심이 급증하고 있다고 밝혔다. 각 세대가 브랜드 및 세상과 어떻게 상호작용하는지 이해하는 것이 중요한 비즈니스 전략이 되고 있다는 것이다. 드레취는 "기업들이 이러한 소비자 행동 변화에 적응하는 것이 매우 중요해졌다"며 브랜드들이 세대별 트렌드를 선도해야 할 필요성을 강조했다. AI 경제의 주역이 될 새로운 세대 베타 세대는 AI 기반 경제 시스템에서 새로운 비즈니스 모델을 창출하고, 이를 통해 산업 구조를 혁신할 것으로 전망된다. 맥크린들은 이들이 AI를 활용한 창업과 새로운 직업군을 개척하면서, 노동시장의 패러다임을 근본적으로 변화시킬 것으로 예측했다. 현재 나타나고 있는 AI 기반 경제로의 전환이 베타 세대에 의해 더욱 가속화될 것이라는 분석이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.01.08 16:35AI 에디터

  Prev 11 12 13 14 15 16 17 18 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

"최대 600만원 할인해도 안 팔려"…현대차, 전기차 생산 또 멈춘다

젠슨 황 "AI 10년 대전환 본격화…2등은 없다"

MS "멀티 에이전트 시대 온다…'애저 AI 파운드리' 역할 커져"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현