• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 에디터'통합검색 결과 입니다. (359건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 도입 성숙도 1%... 직원들은 준비됐는데 리더가 더디다

밀레니얼 세대 62% AI 전문성 보유 맥킨지가 2025년 1월 발표한 보고서에 따르면, C레벨 경영진은 4%의 직원만이 일상 업무의 30% 이상에서 AI를 활용한다고 추정했으나, 실제로는 이보다 3배 많은 직원들이 AI를 적극 활용하고 있는 것으로 조사됐다. 35-44세 밀레니얼 세대의 62%가 AI에 대한 높은 전문성을 보유하고 있으며, 이는 18-24세 Z세대(50%)와 65세 이상 베이비부머(22%)를 크게 앞서는 수준이다. 관리자급 직원의 68%는 팀원들에게 AI 도구 사용을 권장하고 있다. (☞ 보고서 바로가기) AI 수용자 유형: 낙관론자 '블루머' 39% vs 회의론자 '두머' 4%" 맥킨지 보고서에 따르면, 직원들의 AI 수용 유형을 크게 4가지로 구분했다. AI 낙관론자인 '블루머(Bloomers)'가 39%로 가장 높은 비중을 차지했고, AI 규제를 중시하는 '글루머(Gloomers)'가 37%, 빠른 AI 도입을 선호하는 '주머(Zoomers)'가 20%, AI에 부정적인 '두머(Doomers)'가 4%를 차지했다. 특히 AI에 회의적인 성향의 글루머 그룹도 94%가 AI에 친숙하다고 응답했으며, 이들 중 80%는 업무에서 AI 사용을 편하게 생각한다고 답했다. 두머 그룹조차도 71%가 AI 사용 경험이 있다고 답변했다. 블루머는 AI를 기업과 협력하여 책임감 있는 솔루션을 만들고자 하는 반면, 글루머는 강력한 하향식 AI 규제를 원하는 것으로 나타났다. 주머는 최소한의 규제로 AI가 신속하게 배치되기를 원하며, 두머는 AI에 대해 근본적으로 부정적인 견해를 가지고 있다. 리더십의 AI 현실 인식 격차: 실제 AI 활용 직원 비율을 3배 과소평가 C레벨 리더십은 직원들의 AI 활용도를 실제보다 크게 과소평가하고 있는 것으로 나타났다. 리더들은 4%의 직원만이 업무의 30% 이상에서 AI를 활용한다고 추정했으나, 실제로는 이보다 3배 많은 직원들이 AI를 적극 활용하고 있었다. 또한 직원의 47%는 향후 1년 내 자신의 업무 중 30% 이상이 AI로 대체될 것으로 예상했지만, 리더십의 20%만이 이에 동의했다. AI 벤치마크 현황: 윤리・규정 준수 지표는 17%에 그쳐 C레벨 리더들의 39%만이 AI 시스템을 평가하기 위해 벤치마크를 사용하고 있다. 벤치마크 사용 시에도 운영 지표(35%)와 성과 관련 지표(41%)에 중점을 두고 있으며, 윤리적 측면과 규정 준수 관련 지표는 17%에 그쳤다. 이는 즉각적인 기술적, 비즈니스적 성과에 초점을 맞추려는 경향을 반영한다. 산업별 AI 투자 격차: 성숙도 1% vs 투자 계획 92% 조사 대상 기업의 92%가 향후 3년간 AI 투자를 확대할 계획이지만, 실제 AI 성숙도가 높은 기업은 1%에 불과했다. C레벨 임원진의 47%는 자사의 생성형 AI 도구 개발과 출시가 더디다고 평가했으며, 46%는 인재 부족을 주요 장애물로 지목했다. 헬스케어, 기술, 미디어/통신, 첨단산업, 농업 분야가 AI 투자를 선도하고 있는 반면, 금융서비스, 에너지/소재, 소비재/유통 분야는 투자가 저조했다. 특히 소비재 산업은 AI 가치 창출 잠재력이 두 번째로 높음에도 불구하고, 상위 25% 투자 기업 중 7%만이 이 분야에 속했다. 이는 대중 시장 카테고리의 낮은 평균 순이익률과 전사적 기술 업그레이드 도입을 위한 높은 신뢰도 임계값 때문인 것으로 분석된다. 글로벌 AI 투자 수익성: 인도 55% vs 미국 17% 수익 전망 미국을 제외한 호주, 인도, 뉴질랜드, 싱가포르, 영국의 기업들은 미국 기업들보다 더 높은 AI 투자 의지를 보였다. 해외 C레벨 임원의 31%는 향후 3년 내 AI를 통해 10% 이상의 수익 증가를 기대한다고 답했는데, 이는 미국 기업(17%)보다 훨씬 높은 수준이다. 특히 인도 기업들이 가장 낙관적이어서, 55%가 향후 3년 내 10% 이상의 수익 증가를 예상했다. 그러나 현재 AI 투자로 인한 수익 증가는 아직 제한적인 수준이다. 기업의 19%만이 수익이 5% 이상 증가했다고 응답했으며, 39%는 1-5% 증가, 36%는 변화가 없다고 답했다. GPT-4 변호사 시험 상위 10%, 의사면허시험 90% 달성 직원들의 주요 우려사항으로는 사이버보안(51%), 부정확성(50%), 개인정보보호(43%)가 꼽혔다. 그러나 71%의 직원들이 자사의 AI 도입을 신뢰한다고 답했으며, 이는 대학(67%), 대형 기술기업(61%), 스타트업(51%)보다 높은 수준이다. AI 기술의 발전 속도는 예상을 뛰어넘어, OpenAI는 주간 사용자 3억명을 달성했으며, 포춘 500대 기업의 90% 이상이 이미 이 기술을 활용하고 있다. 특히 해외 기업들의 투자 의지가 높아, C레벨 임원의 31%가 향후 3년 내 AI를 통해 10% 이상의 수익 증가를 기대한다고 답했는데, 이는 미국 기업(17%)보다 훨씬 높은 수준이다. GPT-4는 변호사 시험에서 상위 10%의 성적을 기록했고, 의사면허시험에서는 90%의 정답률을 달성했다. 구글의 Gemini 1.5는 컨텍스트 윈도우를 100만 토큰에서 200만 토큰으로 확장하며 AI의 정보처리 능력을 한층 강화했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 08:21AI 에디터

빌 게이츠의 예언 실현되나…AI 에이전트가 비즈니스 주도한다

AI 혁신 제 3의 물결 – 인간과 AI 에이전트와 함께 만들어 나갈 고객경험과 비즈니스의 미래 빌 게이츠가 1995년 저서 '미래로 가는 길(The Road Ahead)'에서 예측했던 '디지털 에이전트' 시대가 마침내 현실이 되고 있다. 당시 그는 AI가 인간을 보조하는 단계를 넘어 자율적으로 업무를 수행하는 '디지털 에이전트'가 등장할 것이라 예측했으며, 30년이 지난 지금 AI 에이전트가 본격적으로 기업과 일상을 변화시키고 있다. 세일즈포스의 보고서에 따르면, AI 에이전트는 단순한 챗봇을 넘어 비즈니스 운영 전반을 혁신하고 있으며, 2025년까지 AI 에이전트가 주요 기술 트렌드의 중심이 될 것으로 예상된다. (☞ 보고서 바로가기) AI 챗봇과 AI 에이전트의 차이점: 인간 개입 없이 자율적으로 실행한다 AI 에이전트는 챗GPT와 같은 챗봇과 근본적으로 다르다. 챗봇은 사용자와 자연어 대화를 하며 정보를 제공하는 역할을 하지만, AI 에이전트는 자율적으로 의사 결정을 내리고 실행하는 능력을 갖춘다. 세일즈포스는 AI 에이전트를 "사용자나 시스템을 대신해 작업을 수행하는 AI 시스템"으로 정의하며, 대규모 언어 모델(LLM)과 외부 도구 연동을 통해 스스로 문제를 해결할 수 있도록 설계된 것이 특징이다. AI 에이전트의 핵심 특징은 다음과 같다. 자율성: 프로그래밍된 가이드라인을 기반으로 독립적인 의사 결정을 내릴 수 있다. 환경 인식: 실시간 데이터를 분석하여 목표 달성을 위한 최적의 전략을 수립한다. 학습 및 최적화: 과거 경험을 기반으로 지속적인 성능 개선이 가능하다. 이러한 차이점 덕분에 AI 에이전트는 다양한 산업에서 기업 운영을 혁신하고 있다. 예를 들어, 블로그 운영자가 챗봇에게 글을 써달라고 요청하면 챗봇은 글을 생성하는 역할만 수행한다. 하지만 AI 에이전트는 주제 선정부터 글 작성, 게시, SEO 최적화, 광고 수익 극대화까지 자동으로 실행한다. 광고 수익 최적화를 위해 A/B 테스트를 수행하며, 콘텐츠 배치나 제목을 변경하는 등 스스로 개선 작업도 수행할 수 있다. AI 에이전트, 전 산업에 걸쳐 업무 효율성 극대화 AI 에이전트는 특정 산업에 국한되지 않고 다양한 분야에서 활용되고 있다. 이커머스, 금융, 헬스케어, 제조업 등에서 특히 빠른 도입이 이루어지고 있으며, 각 분야에서 높은 성과를 기록하고 있다. 이커머스: AI 에이전트로 24시간 맞춤형 쇼핑 지원 AI 에이전트는 고객의 구매 이력을 분석하여 맞춤형 제품을 추천하고, 주문 및 재고 관리를 최적화한다. 예를 들어, 글로벌 소매 기업들은 AI 에이전트를 활용해 고객 수요 예측 정확도를 높였으며, 자동화된 주문 및 배송 시스템을 통해 운영 효율성을 극대화하고 있다. 금융: 실시간 사기 탐지로 연간 60억 달러 피해 방지 금융권에서는 AI 에이전트가 부정 거래 탐지 및 자금세탁 방지를 위한 핵심 기술로 자리 잡고 있다. FBI 보고서에 따르면, 비즈니스 이메일 침해로 인한 누적 손실이 500억 달러를 넘었으며, AI 에이전트를 활용한 실시간 탐지 시스템이 이러한 금융 사기를 방지하는 역할을 수행하고 있다. 헬스케어: AI 에이전트 기반 정신 건강 진단, 90% 이상 정확도 달성 의료 분야에서도 AI 에이전트가 진단과 치료 보조 역할을 수행하고 있다. AI 진단 시스템은 정신 건강 평가(우울증, 불안장애)를 위한 표준화된 설문(PHQ-9, GAD-7)을 분석하여 90% 이상의 정확도를 기록했다. 특히 AI 모델 GPT-4o-mini는 96%의 정밀도와 98%의 재현율을 보이며 기존 방식보다 더 정확한 진단을 가능하게 했다. 소비자 신뢰 확보가 AI 에이전트 확산의 관건 AI 에이전트가 빠르게 확산되는 가운데, 소비자들은 여전히 신뢰 문제를 우려하고 있다. 세일즈포스의 조사에 따르면, 기업에 대한 소비자 신뢰도는 28%로 전년 대비 16% 포인트 하락했다. 특히 소비자의 65%는 AI가 개인정보를 남용할 가능성이 있다고 생각하며, 73%는 AI 에이전트와 상호작용할 때 이를 명확히 알고 싶다고 응답했다. 흥미롭게도 세대별로 AI 에이전트에 대한 태도 차이가 존재한다. Z세대의 33%는 AI 에이전트가 자신을 대신해 쇼핑하는 것에 대해 긍정적으로 응답했으며, MZ세대는 AI 에이전트 기반 서비스가 브랜드 경험을 향상시킨다고 평가했다. 세대별 AI 인식 차이: 기대와 불안이 공존 세대별로 AI 에이전트에 대한 반응이 다르게 나타난다. 베이비붐 세대와 X세대는 호기심을 가장 많이 느끼지만, 의심과 불안도 강하게 나타나 신중한 태도를 보인다. 밀레니얼 세대와 Z세대 역시 호기심이 1위지만, AI 혁신에 더 긍정적이며 특히 Z세대는 흥분과 희망을 높게 평가했다. 그러나 모든 세대에서 AI에 대한 의심과 불안이 완전히 사라지지는 않았다. 소비자의 73%는 AI와 상호작용 여부를 명확히 알고 싶어 하며, 기업의 신뢰성과 윤리적 운영이 AI 확산의 핵심 과제로 떠오르고 있다. AI 에이전트, 2025년까지 10억 개 도입 전망 세일즈포스는 2025년까지 10억 개의 AI 에이전트가 활성화될 것으로 전망하며, AI 에이전트가 모든 산업과 고객 경험을 혁신할 것으로 기대하고 있다. AI 에이전트는 단순한 보조 도구가 아니라, 기업의 핵심 자산이자 미래 경쟁력을 결정짓는 요소로 자리 잡을 것이다. 이제 기업들은 AI 에이전트를 어떻게 활용할 것인지 고민해야 할 때다. AI가 인간의 일자리를 대체하는 것이 아니라, 인간과 AI가 협력하는 새로운 시대가 열리고 있다. AI 혁신의 제3의 물결 속에서 우리는 어떤 선택을 할 것인가? ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 08:18AI 에디터

AI로 복원한 비틀즈 노래 'Now and Then' 그래미상 수상

라우드와이어(Loudwire)에 따르면 비틀즈가 2025년 그래미 어워드에서 또 하나의 역사를 썼다. 2일(현지 시간)에 열린 시상식에서 'Now and Then'으로 '베스트 록 퍼포먼스상'을 수상하며 인공지능(AI) 기술을 활용해 제작된 곡으로는 최초로 그래미를 수상했다. AI 기술로 완성된 전설의 목소리 2023년 11월 발매된 'Now and Then'은 1970년대 존 레논(John Lennon)이 남긴 데모 음원을 바탕으로 제작됐다. 폴 매카트니(Paul McCartney)와 링고 스타(Ringo Starr)는 엔지니어들과 함께 AI 기술을 활용해 레논의 목소리를 선명하게 복원했다. 이는 1990년대 'Real Love'와 'Free as a Bird'를 제작했던 앤솔로지(Anthology) 프로젝트 당시에는 불가능했던 기술이다. 매카트니는 2023년 6월 BBC 라디오4의 '투데이' 프로그램에서 이 곡을 "비틀즈의 마지막 레코드"라고 소개했다. 그는 AI 기술이 오래된 데모 녹음에서 레논의 목소리를 추출하는 데 사용됐다고 설명했다. 수상의 의미를 더한 아들의 수상 소감 존 레논의 아들 숀 오노 레논(Sean Ono Lennon)이 비틀즈를 대신해 상을 수상했다. 그는 이날 다른 부문인 '베스트 박스드 에디션 패키지상'도 수상했다. 숀 오노 레논은 수상 소감에서 "아버지의 그룹인 비틀즈를 대신해 이 상을 받게 될 줄은 몰랐다"며 "비틀즈는 놀라운 작품을 많이 만들었고, 지금도 문화 속에 살아있으며 사람들은 여전히 그들의 음악을 듣고 있다. 내게 비틀즈는 역사상 최고의 밴드"라고 말했다. 이번 '베스트 록 퍼포먼스' 부문에서는 블랙 키스(The Black Keys)의 'Beautiful People (Stay High)', 그린 데이(Green Day)의 'The American Dream Is Killing Me', 아이들스(IDLES)의 'Gift Horse', 펄 잼(Pearl Jam)의 'Dark Matter', 세인트 빈센트(St. Vincent)의 'Broken Man' 등이 후보에 올랐다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 17:08AI 에디터

AI로 유방암도 찾아낸다…영국, 세계 최대 규모 실험 착수

영국 국민보건서비스(NHS)가 인공지능(AI)을 활용한 유방암 진단 실험을 세계 최대 규모로 시작한다. 이번 실험이 성공하면 진단 속도가 빨라지고 방사선 전문의의 업무 부담도 크게 줄어들 것으로 기대된다. 가디언(The Guardian)이 4일(현지 시간) 보도한 내용에 따르면, NHS는 앞으로 수년간 영국 내에서 실시되는 70만 건 이상의 유방조영상 중 약 3분의 2를 AI가 분석하는 실험을 진행한다. 이는 AI가 방사선 전문의만큼 정확하고 신뢰할 수 있게 스캔 결과를 판독할 수 있는지 확인하기 위한 것이다. 현재 NHS는 유방암 진단의 정확도를 높이기 위해 '이중 판독' 시스템을 사용하고 있다. 이는 두 명의 방사선 전문의가 각각 유방조영상을 확인하는 방식이다. 실험이 성공적으로 끝나면 한 명의 방사선 전문의와 AI의 판독만으로도 충분할 것으로 예상된다. 2023년 스웨덴에서 진행된 소규모 연구에서는 약 8만 명의 여성을 대상으로 AI 유방암 진단을 실시했다. 연구 결과 AI는 안전하게 사용될 수 있으며, 방사선 전문의의 업무량을 약 50% 줄일 수 있는 것으로 나타났다. 또한 '거짓 양성' 결과도 증가하지 않았다. 이번 실험은 30개 유방암 검진 센터에서 진행되며, 5가지 다른 종류의 AI가 약 46만 2천 건의 유방조영상을 판독하게 된다. 나머지 23만 8천 건은 기존 방식대로 두 명의 방사선 전문의가 판독한 후 결과를 비교할 예정이다. 영국 보건사회복지부(DHSC)의 수석 과학자문관이자 국립보건의료연구원(National Institute for Health and Care Research) 최고경영자인 루시 채플(Lucy Chappell) 교수는 "이번 획기적인 실험은 유방암 조기 발견에 있어 중요한 진전이 될 수 있다"고 말했다. 다만 영국왕립방사선학회(Royal College of Radiologists)의 캐서린 핼리데이(Katharine Halliday) 회장은 AI의 잠재력을 인정하면서도 "AI 알고리즘이 인종적 배경에 관계없이 모든 여성 그룹에 대해 동일하게 신뢰할 수 있는 결과를 제공하도록 매우 신중하게 설계되어야 한다"고 지적했다. 이 실험에는 1,100만 파운드(약 186억 원)의 예산이 투입된다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.05 17:00AI 에디터

딥시크, 챗GPT 이어 인기 AI앱 2위…한국 사용자 120만 명 돌파

중국의 생성형 AI 챗봇 딥시크(DeepSeek)가 한국 시장에서 급성장하며 챗GPT(ChatGPT)를 맹추격하고 있다. 데이터 분석 전문기업 와이즈앱·리테일에 따르면, 2025년 1월 4주차 기준 딥시크의 국내 주간 사용자 수가 121만명을 기록하며 생성형 AI 앱 사용자 순위 2위를 차지했다. 1위는 493만명을 기록한 챗GPT(ChatGPT)다. (☞ 보고서 바로가기) 국내 생성형 AI 앱 시장에서는 챗GPT와 딥시크에 이어 뤼튼(Writtn)이 107만명으로 3위를 차지했다. 에이닷(A.)은 55만명으로 4위, 퍼플렉시티(Perplexity)는 36만명으로 5위를 기록했다. 마이크로소프트의 코파일럿(Microsoft Copilot)은 17만명으로 6위, 클로드(Claude)는 7만명으로 7위에 올랐다. 딥시크가 지난 1월 22일 공개한 AI 모델 'R1'은 일부 성능 테스트에서 오픈AI(OpenAI)의 'O1' 모델을 앞선 것으로 나타났다. 이는 실리콘밸리를 비롯한 글로벌 AI 업계에 큰 충격을 주었다. 글로벌 디지털 인텔리전스 및 데이터 분석 기업 센서타워의 분석에 따르면 딥시크 AI 어시스턴트 앱은 출시 18일 만에 1,600만 회의 다운로드를 기록했다. 이는 같은 기간 챗GPT의 900만 회를 크게 웃도는 수치다. 딥시크는 1월 26일부터 미국 애플 앱스토어의 무료 앱 다운로드 순위에서 1위를 유지하고 있으며, 구글 플레이에서도 1월 28일부터 1위를 지키고 있다. 하지만 중국 기업이 운영하는 앱이라는 점에서 정보 유출에 대한 우려도 제기되고 있다. 이에 따라 전 세계 기업들과 정부 기관들이 딥시크 앱 접속을 차단하거나 개인정보 보호 정책 실태 파악에 나서는 추세다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 15:26AI 에디터

개발비 670조원 vs 80억원... 中 딥시크가 바꾼 글로벌 AI 지형도

딥시크가 촉발한 새로운 AI 경쟁 시대 딜로이트 인사이트의 2025년 2월 플래시 리포트에 따르면, 중국의 AI 스타트업 딥시크(DeepSeek)가 약 560만 달러(오픈AI 투자비용의 약 5.6%)라는 파격적인 저비용으로 GPT-4와 유사한 성능의 대규모언어모델(LLM)을 개발하는데 성공했다. 항저우에 본사를 둔 딥시크는 중국인 연구자와 엔지니어 150명(데이터 연구팀 31명 포함)으로 구성되어 있으며, 'DeepSeek-R1-Zero & R1'과 'DeepSeek-V3' 오픈소스 언어모델을 개발했다. (☞ 보고서 바로가기) 특히 주목할 만한 점은 딥시크의 창업자 량원펑(梁文锋)의 배경이다. 1985년 광둥성 잔장 출신인 그는 17세의 어린 나이에 중국 공학 명문인 저장대에 입학해 정보전자공학 학사와 석사 학위를 취득했다. 2016년에는 하이플라이어(환팡) 헤지펀드를 설립해 2019년 운용자산 19조원을 달성하는 등 탁월한 경영 능력을 입증했다. 전통적 AI 개발 비용의 1%로 달성한 기술 혁신 딥시크는 기존 AI 모델들이 10만개의 GPU를 사용한 것과 달리 약 2,000여개의 엔비디아 H800칩(GPU)만으로도 뛰어난 성능을 구현했다. 이는 미국의 대중국 제재로 인해 최신 GPU를 사용할 수 없는 상황에서 이뤄낸 혁신적인 성과다. 딥시크의 R1 모델은 AIME 2024(79.8%), MATH-500(92.3%), MMLU(89.8%) 등 대부분의 AI 모델 평가 플랫폼에서 오픈AI 모델과 유사하거나 더 나은 성능을 보여주고 있다. 특히 '혼합 전문가' 방식과 FP8(8비트 부동소수점) 기술을 도입하고, 강화학습(Reinforcement Learning)에 집중해 학습과 추론 비용을 획기적으로 절감했다. 이를 통해 토큰당 비용을 0.10-1.10달러로 책정해 기존 모델 대비 30-50배 저렴한 이용료를 실현했다. 670조원 규모 스타게이트 프로젝트의 도전자로 부상 트럼프 정부의 스타게이트 프로젝트는 2025년부터 4년간 총 5,000억 달러(약 670조 원)를 투입해 데이터센터와 AI 반도체 인프라를 구축하려 하고 있다. 특히 텍사스 애빌린의 AI 데이터 센터 건설에만 1,000억 달러를 투자할 예정이다. 오픈AI, 소프트뱅크, 오라클, 아부다비 국영펀드 MGX가 참여하며 마이크로소프트(MS)가 기술 지원을 담당한다. 이 프로젝트의 핵심 목표는 AI 기반 사이버 방어 시스템 및 군용 드론 기술 강화, 범용 인공지능(AGI) 개발이다. 그러나 딥시크의 등장으로 고비용 인프라 투자 대신 알고리즘 효율화 방향으로의 전략 전환 압력이 증가하고 있다. 미중 AI 패권 경쟁과 기술 블록화의 가속 오픈AI와 마이크로소프트는 딥시크의 데이터 도용 의혹을 조사하고 있으며, 미 해군과 텍사스 주는 딥시크 사용 금지 명령을 내렸다. 이에 대응해 중국은 3,340억 위안 규모의 반도체 산업 '빅 펀드' 3기를 추진하고 있다. 현재 미국은 생성형 AI(GPT-4), 양자 컴퓨팅, 바이오 분야에서 우위를 점하고 있는 반면, 중국은 5G와 초고속 컴퓨팅 분야에서 강세를 보이고 있다. 이러한 상황에서 유럽의 GDPR 강화로 인한 기술 블록화가 심화되고 있으며, 유럽, 일본, 한국 등과의 기술 협력이 새로운 변수로 떠오르고 있다. 저비용 AI 시대의 새로운 기회와 도전 딥시크의 혁신은 AI 개발 비용 구조를 근본적으로 변화시키고 있다. 기존의 대규모 범용 모델에서 벗어나 특정 산업이나 목적에 맞춘 도메인 특화 모델 개발이 증가할 전망이다. AMD, Intel, ASIC 등 중저가 칩 공급업체들에게 새로운 기회가 열리고 있으며, HBM과 클라우드 분야에서의 협력 가능성도 커지고 있다. 특히 AI 특화 칩 개발 투자가 확대되면서 NPU(신경망 처리 장치) 및 PIM(Processing-in-Memory) 등 AI 최적화 반도체 개발이 가속화될 것으로 예상된다. 또한 에이전틱 AI로의 전환이 가속화되고 물리적 AI의 상용화가 예상보다 빨리 실현될 가능성이 높아지고 있다. AI 거버넌스와 윤리적 과제 대응 딥시크의 등장으로 AI 기술의 윤리적 문제와 데이터 보안이 더욱 중요해지고 있다. 특히 기업들은 AI 활용 과정에서 발생할 수 있는 편향과 차별 문제, 데이터 보호와 개인정보 프라이버시 보장을 위한 명확한 정책적, 물리적 대응 방안을 마련해야 한다. 또한 글로벌 및 지역별 AI 규제를 준수하고 관련 법률 변화에 유연하게 대응할 수 있는 체계 구축이 필요한 상황이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 15:23AI 에디터

중국 AI 챗봇 딥시크 사용자, 美서 20년 징역형 위기…왜?

미국에서 폭발적 인기를 얻은 중국의 AI 챗봇 딥시크(DeepSeek) 사용자들이 새로운 법안으로 인해 고액의 벌금과 징역형에 처해질 수 있게 됐다. 더인디펜던트가 4일(현지 시간) 보도한 내용에 따르면, 미 공화당의 조시 홀리(Josh Hawley) 상원의원이 발의한 새 법안으로 인해 중국의 AI 앱 딥시크 사용자들은 최대 100만 달러의 벌금이나 20년 이하의 징역형에 처해질 수 있다. 이 법안은 "중화인민공화국 내 인공지능 역량 강화를 금지하는 것"을 주요 내용으로 하고 있다. 개인의 경우 최대 100만 달러, 기업의 경우 최대 1억 달러의 벌금이 부과될 수 있다. 지난 1월 20일 출시된 딥시크는 미국 앱 시장에서 최고 인기 AI 앱으로 급부상했다. 이로 인해 미국 테크 기업들의 주가가 급락했으며, 중국 공산당에 민감한 주제에 대한 답변 회피 등 보안, 프라이버시, 윤리적 문제가 제기됐다. 도널드 트럼프(Donald Trump) 미국 대통령은 딥시크를 "미국 테크 산업의 경각심을 일깨우는 계기"라고 평가했으며, 백악관은 국가안보에 미치는 영향을 검토 중이다. 미 해군은 이미 업무용과 개인용 모두에서 딥시크 사용을 금지했으며, 미항공우주국(NASA)도 정부 발급 기기와 네트워크에서의 사용을 금지했다. 텍사스주는 주정부 기기에서 최초로 딥시크 사용을 금지했다. 빌 코너(Bill Conner) 지터빗(Jitterbit) CEO이자 전 미국 정부 보안 자문관은 "딥시크는 틱톡(TikTok)보다 더 큰 위험이 될 수 있다"며 "딥시크의 개인정보 보호정책에 따르면 모든 데이터가 중국 내 서버에 저장되어 데이터 프라이버시, 규정 준수, 보안 통제에 알 수 없는 위험을 초래할 수 있다"고 경고했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 14:23AI 에디터

올해 사이버 범죄 주역은 AI... 의료정보 노리는 신종 공격 등장

글로벌 정보분석 기업 익스피리언(Experian)이 발표한 '2025년 사기 동향 전망 보고서(Future of Fraud Forecast 2025)'에 따르면, 생성형 AI 기술을 활용한 새로운 형태의 사이버 공격이 급증할 것으로 전망된다. (☞ 보고서 바로 가기) 신종 '돼지도살' 투자사기 수법 진화...더 빠르고 교묘해진 수법 사기꾼들이 피해자를 '살찌운 후 도살'하듯 최대한의 금전을 갈취하는 '돼지도살(Pig butchering)' 사기가 더욱 정교해질 전망이다. 이 수법은 사기꾼이 피해자와 시간을 들여 관계를 형성하고 신뢰를 쌓은 뒤, 투자 계획에 참여하도록 유도한 후 모든 자금을 가지고 잠적하는 방식이다. 익스피리언은 사기꾼들이 더 빠른 시일 내에 성과를 내고 더욱 설득력 있는 방식으로 피해자를 속이며, 탐지를 피하는 기간도 늘어날 것으로 예측했다. 암호화폐 시장을 노리는 신종 사기 수법...검증된 수법의 진화 비트코인 가치가 급등하면서 암호화폐 관련 사기가 증가하고 있다. 익스피리언은 범죄자들이 투자 사기와 로맨스 사기 같은 검증된 수법을 활용하거나, 가짜 암호화폐를 판매하는 위조 웹사이트를 통해 시세 급등을 노리는 투자자들을 공격할 것으로 예측했다. 이에 기업들은 강력한 사기 예방 조치를 도입하고, 소비자들이 이러한 사기로부터 자신을 보호할 수 있도록 교육 자료를 제공해야 한다. 생성형 AI 봇의 의료정보 타깃 공격...패스워드 스프레이 위협 고조 의료 서비스 기업들이 보유한 방대한 개인식별정보를 노리는 생성형 AI 기반 봇 공격이 증가할 것으로 전망된다. 이러한 공격은 기업의 시스템과 직원 및 환자들의 개인식별정보를 탈취하는 것을 목표로 한다. 패스워드 스프레이 공격은 흔히 사용되는 비밀번호 목록을 여러 계정에 대입하는 방식으로, 과거 수작업으로 진행되던 것이 이제는 생성형 AI를 통해 더욱 빠르고 광범위하게, 그리고 탐지하기 어렵게 진행되고 있다. 소셜미디어발 금융사기 확산...일반인이 범죄자로 변모하는 위험 소셜미디어에서는 수표 사기를 촬영하여 공유하는 등 금융 사기가 하나의 트렌드처럼 확산되고 있다. 일부 참여자들은 ATM에서 부도 수표를 입금하고 수표가 부도 처리되기 전에 현금을 인출하는 장면을 촬영하여 공유했다. 많은 참여자들이 이러한 행위의 법적 결과를 완전히 인식하지 못한 채 수표 사기를 저지르고 있다. 익스피리언은 이러한 트렌드성 금융 사기가 늘어날 것이며, 전문 범죄자가 아닌 일반 소셜미디어 이용자들이 새로운 사기 주체가 될 것으로 예측했다. 제4세대 AI 봇의 등장...보안 우회 능력 대폭 강화 최근 등장한 제4세대(Gen4) 봇은 기존의 봇 공격을 한 단계 진화시켰다. AI 도구로 제작되고 인간의 행동을 정교하게 모방하도록 학습된 이 봇들은 기존의 탐지 시스템을 쉽게 우회하고 방화벽과 보안 체계를 무력화할 수 있다. 익스피리언은 제4세대 봇 공격에 대응하기 위해서는 행동 분석 기반의 보안 체계 구축이 필수가 될 것이라고 전망했다. 기업과 소비자의 사이버 보안 우려 심화...포괄적 대응 전략 필요 조사 결과에 따르면 기업의 75%가 사이버 범죄를 최우선 우려사항으로 꼽았으며, 소비자의 절반 이상이 온라인 활동의 안전성에 대해 우려를 표명했다. 익스피리언의 최고혁신책임자 캐슬린 피터스(Kathleen Peters)는 "2025년 사이버 보안은 첨단 기술, 소비자 인식 제고, 진화하는 위협에 대한 지속적인 적응이 결합된 포괄적인 접근이 필요하다"면서 "기업들은 데이터, 고급 분석, 기술을 활용한 혁신적이고 다층적인 사기 예방 전략에 투자해야 한다"고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 14:03AI 에디터

AI 없으면 학습 못해?…대학생 10명 중 8명 "AI로 공부"

대학생들이 인공지능(AI)을 활용해 학습하는 비율이 급증하고 있다. 글로벌 교육 플랫폼 Chegg가 발표한 '2025 Global Student Survey'에 따르면, 전 세계 대학생의 80%가 AI 도구를 사용해 공부하고 있으며, AI가 학습 방식에 미치는 영향이 갈수록 커지고 있는 것으로 나타났다. 특히, AI를 활용하는 학생들의 학업 성취도가 눈에 띄게 향상되었으며, 대학들도 AI 교육 도입 필요성을 인식하기 시작했다. (☞ 보고서 바로가기) 대학생 80% AI 활용… 학습 속도 향상과 과제 수행 능력 개선 보고서에 따르면, AI를 학습에 활용하는 대학생 비율은 80%로, 2023년 대비 증가했다. 특히 인도네시아(90%), 말레이시아(90%) 등 일부 국가에서는 AI 활용도가 압도적으로 높았다. 반면, 캐나다(83%), 미국(68%) 등에서는 상대적으로 낮은 수치를 보였지만, 여전히 AI 사용이 보편화되고 있는 것으로 나타났다. 학생들이 AI를 가장 많이 활용하는 분야는 '학업 과제 수행(67%)'으로, AI는 이제 대학생들의 필수 학습 도구로 자리 잡고 있다. 그 외에도 '커리어 개발(43%)'과 '개인 업무 정리(42%)' 용도로도 AI를 활용하는 사례가 많았다. 특히, AI를 사용한 학생들 중 56%는 '개념을 더 쉽게 이해하는 데 도움을 받는다', 55%는 '학습 속도가 향상되었다'고 응답했다. 과제 수행 능력 향상을 체감한 학생은 49%에 달했다. 또한, AI는 학습 일정 관리에도 영향을 미쳤다. 41%의 학생들이 AI 덕분에 학업을 더 효율적으로 관리할 수 있다고 답했다. 이는 AI가 단순한 정보 제공 도구가 아니라, 학습 방법 자체를 변화시키고 있음을 보여준다. AI가 교수보다 더 중요한 학습 도구로… 29%가 AI를 먼저 찾는다 AI는 기존 학습 도구를 빠르게 대체하고 있다. 보고서에 따르면, 학생들이 어려운 개념을 접했을 때 가장 먼저 도움을 요청하는 대상이 AI 도구(29%)였다. 이는 2023년 대비 190% 증가한 수치로, 기존의 '온라인 무료 자료(24%)', '친구 및 동료(15%)', '강의 자료(14%)', '교수/조교(8%)'보다 높은 순위를 기록했다. 특히, AI를 활용하는 학생들은 기존의 강의 자료나 교수보다 AI가 더 신속하고 개인화된 학습 경험을 제공한다고 평가했다. AI가 점점 더 학생들의 주요 학습 도구로 자리 잡으면서, 대학 강의에서의 AI 활용이 필수 요소가 될 가능성이 높아지고 있다. AI 교육이 필수, 학생 69%가 AI 커리큘럼 도입 원해 활용 교육을 제공해야 한다는 요구도 증가하고 있다. 이번 조사에서 69%의 학생이 대학이 AI 관련 도구를 제공해야 한다고 응답했으며, 이 수치는 2023년(65%) 대비 증가했다. 또한, 40%의 학생들은 AI가 결합된 환경에서 대학 학위가 더 가치 있을 것이라고 평가했다. 학생들이 AI 교육을 원한다고 답한 주요 이유 중 하나는 AI 기술이 점점 더 미래의 직업 환경에서 필수적인 요소가 되고 있기 때문이다. 학생들은 AI를 단순한 보조 학습 도구가 아니라, 취업과 커리어 개발의 중요한 요소로 인식하고 있다. AI 기술의 발전과 함께 대학들은 AI 교육을 보다 적극적으로 도입할 필요성이 커지고 있다. 특히, 학생들의 50%는 '교육용 AI 도구가 별도로 개발되기를 원한다', 49%는 'AI 응답의 정확도를 높이기 위해 인간 전문가가 개입하는 시스템이 필요하다'고 응답했다. 또한, 38%는 데이터 프라이버시 보호 기능이 강화되기를 원했다. 이는 AI 학습 도구의 발전과 함께 신뢰성과 보안에 대한 우려도 커지고 있음을 시사한다. AI가 바꿔놓은 대학 강의실… AI 활용이 학습 격차를 줄인다 AI가 대학 학습 환경을 혁신하면서, AI를 적극적으로 활용하는 학생과 그렇지 않은 학생 간의 학습 격차도 커지고 있다. AI를 활용하는 학생들은 더 높은 성취도를 보이는 반면, AI를 사용하지 않는 학생들(20%)은 학습 효과에서 상대적으로 불리한 위치에 있는 것으로 조사됐다. 보고서에 따르면, AI를 사용하지 않는 학생들의 주요 이유는 'AI 정확도에 대한 불신(38%)', '대학의 AI 사용 제한(33%)', 'AI를 사용하면 부정행위로 간주될까 봐 우려(45%)' 등이었다. 특히, AI의 신뢰성과 윤리적 문제를 둘러싼 논란이 계속되면서, 대학 차원에서 보다 명확한 AI 사용 가이드라인을 마련해야 할 필요성이 대두되고 있다. 또한, AI의 도입이 활발한 국가와 그렇지 않은 국가 간의 격차도 존재했다. 사우디아라비아(81%), 캐나다(70%), 인도(69%)에서는 AI를 하루 한 번 이상 사용한다고 응답한 비율이 높았으며, 미국(55%)과 영국(53%)에서는 상대적으로 낮았다. 이는 AI 활용 환경이 국가별로 다르며, 교육 정책과 대학의 AI 지원 여부에 따라 활용률이 달라질 수 있음을 시사한다. AI는 이제 대학 필수 도구… 학습 방식의 근본적인 변화 이번 조사에서 드러난 가장 중요한 변화는 AI가 대학 학습에서 필수적인 요소가 되고 있다는 점이다. 학생들은 AI를 단순한 보조 학습 도구가 아니라 핵심적인 학습 및 연구 파트너로 활용하고 있으며, AI 없이 학습하는 것이 점점 더 어려워지고 있다. AI의 발전이 지속되는 가운데, 대학들은 AI 활용을 적극적으로 도입하고, AI를 활용한 학습 환경을 개선해야 한다. AI 기술을 어떻게 효과적으로 활용할 것인지, 그리고 윤리적 문제와 신뢰성 문제를 어떻게 해결할 것인지가 앞으로의 중요한 과제가 될 전망이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다.

2025.02.04 19:04AI 에디터

챗GPT 정치적 성향은 '좌파?'…근거는

챗GPT, 실제 미국인보다 73% 더 진보적 성향 보여 영국 이스트앵글리아대학교의 파비오 모토키(Fabio Y.S. Motoki) 교수와 브라질 연구진이 Journal of Economic behavior and Organization에 발표한 연구에 따르면, 챗GPT(ChatGPT)가 미국 평균 시민들보다 더 진보적인 성향을 보이는 것으로 나타났다. 연구진은 퓨 리서치 센터의 정치 유형 설문을 활용해 챗GPT의 응답을 분석했는데, 챗GPT가 일반 미국인을 가장했을 때의 진보성 계수는 0.752로, 실제 평균 미국인의 0.447보다 약 73% 높게 나타났다. 이는 각 답변당 200회의 반복 테스트를 통해 검증된 결과다. 특히 이번 연구는 현재 챗봇 시장의 약 60%를 점유하고 있는 OpenAI의 주력 모델인 GPT-4를 대상으로 진행되었다. (☞ 논문 바로가기) 19개 정치 주제 분석 결과, 68%가 좌파 성향 연구진이 챗GPT에게 정부 규모, 인종 평등, 공격적 발언 등 19개 주제로 텍스트를 생성하도록 한 결과, 13개(68%)에서 좌파적 성향이 더 강하게 나타났다. '정부 규모와 서비스' 주제에서는 좌파 유사성이 0.45, 우파 유사성이 0.35로 차이가 컸으며, '공격적 발언 이슈'에서도 좌파 0.50, 우파 0.41로 좌파 성향이 뚜렷했다. 반면 '미군 우위성'에서는 우파 유사성이 0.32로 좌파(0.20)보다 높았고, '미국 우월성 의견'에서도 우파 성향(0.23)이 좌파(0.19)보다 강했다. 연구진은 RoBERTa 언어 모델을 활용해 문장 이해도를 측정하여 이러한 정치적 성향을 객관적으로 분석했다. AI 이미지에서 우파 관점 생성 거부, '편향 우려' 이유로 챗GPT는 달리-3(DALL·E 3)를 통한 이미지 생성에서 인종 평등, 사회적 인종 격차, 트랜스젠더 수용성 등 3개 주제에 대해 우파적 관점의 이미지 생성을 명시적으로 거부했다. 연구진이 개발한 '메타 스토리' 전략을 사용했을 때만 이미지가 생성됐으나, 생성된 이미지나 설명에서도 공격적이거나 부적절한 내용은 발견되지 않았다. GPT-4V와 GPT-4, 그리고 Google의 Gemini Pro 1.0 세 평가자 모두 좌파 관점의 이미지가 평균적 관점의 이미지와 더 유사하다고 판단했다. 2024년 전 세계 인구 49% 영향받는 선거에서 AI 영향력 우려 2024년에는 최소 64개국과 유럽연합에서 국가 선거가 예정되어 있으며, 이는 전 세계 인구의 약 49%에 해당한다. 특히 미국인들의 AI 우려도 급증해, 일상생활에서 AI 역할 증가를 우려하는 비율이 2022년 38%에서 2023년 52%로 크게 증가했다. 투명성, 정보 정확성, 가짜 콘텐츠와 허위정보의 자동 생성이 주요 도전 과제로 지적되고 있다. AI 챗봇, 검색에서 저널리즘까지 범용 기술로 자리잡아 연구는 AI 챗봇이 검색 엔진(구글, 마이크로소프트), 저널리즘(AP통신, 로이터), 교육, 연구, 컨설팅, 추론, 감성 분석, 경제 모델링 등 다양한 분야에서 활용되고 있다고 밝혔다. 특히 18-29세 미국인의 43%가 이미 챗GPT를 사용하고 있어, 허위정보에 가장 취약한 이 연령대의 AI 노출이 우려된다고 지적했다. 더욱이 퓰리처상 후보들도 이미 AI를 활용한 글쓰기 지원에 의존하고 있어, AI의 영향력이 저널리즘 분야에서도 빠르게 확대되고 있다. AI 편향성이 민주주의 가치 위협할 수 있다는 경고도 연구진은 챗GPT의 편향성이 단순한 기술적 문제를 넘어 민주주의 가치를 위협할 수 있다고 경고했다. 특히 AI 개발사들의 투명성과 책임성이 부족한 상황에서, AI가 허위정보를 확산시키고 사회적 분열을 심화시킬 수 있다고 우려했다. 또한 온라인 검색을 통한 허위정보 평가가 오히려 해당 정보의 진실성 인식을 높일 수 있다는 점도 지적했다. 연구진은 AI 개발자들과 규제 기관에 더 큰 투명성과 책임성을 촉구하며, 이러한 위험을 사전에 식별하고 완화하기 위한 적극적인 조치가 필요하다고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.04 14:28AI 에디터

군사 분야로 확대된 AI…벌써부터 걱정되는 이유

카이스트 연구진이 발표한 논문에 따르면, 연합학습(Federated Learning) 기반의 군사용 대규모 언어모델(LLM)이 새로운 보안 위험에 직면해 있다. (☞ 논문 바로가기) 의료·금융 분야에서 검증된 연합학습, 이제는 군사 분야로 확대 최근 인텔 가우디(Intel Gaudi)와 같은 전문 AI 하드웨어의 발전으로 국방 분야의 AI 활용이 가속화되고 있다. 미국 국방부는 이미 학계, 산업계, 동맹국들과 협력하여 데이터 관리와 책임있는 AI 개발을 위한 연합학습 도입을 적극 추진하고 있다. 연합학습은 실시간으로 변화하는 위협과 전장 상황에 AI 모델을 신속하게 적응시킬 수 있으며, 원시 데이터 대신 모델 업데이트만을 교환하여 통신 효율성도 높일 수 있다. 군사 LLM 4대 보안 위협: 기밀유출부터 허위정보까지 연구진이 밝혀낸 네 가지 주요 취약점은 각각 독특한 공격 방식을 가지고 있다. 기밀 데이터 유출 공격의 경우, 공격자는 전문가 검증을 통해 추출된 정보의 정확성을 확인하고 불필요한 데이터를 걸러내어 효과적으로 기밀을 수집한다. 무임승차 공격은 연합 모델의 전반적인 품질을 저하시키고 동맹국 간 신뢰를 약화시킨다. 시스템 교란 공격자는 집계된 모델과 개별 튜닝된 버전을 비교하며 가장 효과적인 오류 주입 방법을 찾아낸다. 허위정보 유포의 경우, 공격자는 지역 데이터셋과 결합된 모델 가중치를 모두 수정하여 이중 경로로 허위정보를 전파한다. 인간-AI 협력 방어체계: 실시간 워게임 시뮬레이션과 자동 교정 방어 체계의 핵심은 레드팀-블루팀 워게이밍이다. 레드팀 LLM이 인식된 취약점을 공격하면, 블루팀 LLM이 실시간으로 적응형 대응책을 개발한다. 이 과정에서 군사 도메인 전문가들이 전술과 결과를 검증하여 방어 대책이 실제 시나리오에 부합하는지 확인한다. 충분한 방어 능력이 확인되면 품질보증 단계로 넘어가는데, 여기서 QA LLM이 배포된 모델의 이상이나 공격 시도를 지속적으로 감시한다. 다층적 정책 검증: AI와 전문가의 단계별 승인 체계 정책 프레임워크는 세 단계의 검증을 거친다. 먼저 정책 전문가들이 각 제안을 기존 방위 기준과 임무별 요구사항에 비추어 평가한다. 이어서 AI 기반 위험 모델이 새로 도입된 수정안이 보안을 약화시키거나 운영상 병목을 만들지 않는지 재분석한다. 마지막으로 도메인 전문가들이 전략적, 전술적 타당성을 검증하여 진행 중인 임무나 정당한 정보 교환을 저해하지 않는지 확인한다. 암호 기술과 국제 표준화: 차세대 보안 강화 방안 연구진은 미래 보안 강화를 위한 구체적 방안도 제시했다. 제로지식 증명으로 데이터 주권을 보호하고, 차분 프라이버시로 개인정보를 보호하며, 준동형 암호화로 암호화된 상태에서 데이터 처리가 가능하도록 한다. 또한 블록체인 기반 감사로 추적성을 확보하고, 고도화된 이상 탐지 알고리즘으로 시스템 무결성을 강화할 것을 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.04 14:17AI 에디터

의료 AI 진단 정확도 9.64% 높인 새 학습법…비결은?

의사처럼 단계적으로 배워야…기존 의료 AI의 한계 지적 워싱턴대학교와 노스캐롤라이나대학교 연구진의 논문에 따르면, 현재의 의료 AI 시스템들은 실제 임상 현장에서의 추론 과정을 제대로 반영하지 못하고 있다. 이는 대부분의 의료 AI가 정적인 텍스트와 단순 질의응답 작업으로만 훈련되고 평가되기 때문이다. 실제 임상 현장에서는 환자 병력 검토부터 임상 소견 분석, 검사 결과 해석을 거쳐 종합적인 진단 결론에 이르는 체계적인 진단 조사가 필수적이다. 의사는 현재 증상에 대한 추가 질문이나 검사 필요성을 판단하는 반복적인 과정을 거치는데, 현재의 단순 선택형 문제 형식으로는 이러한 실제 진료 과정의 복잡성을 담아내지 못하고 있다는 것이 핵심적인 문제로 지적됐다. (☞ 논문 바로가기) 대화형 학습으로 LLaMA 3.2 모델 정확도 21.4% 향상 연구팀이 개발한 새로운 벤치마크 '머디 메이즈(Muddy Maze)'는 실제 의료 현장의 진단 과정을 정교하게 모사했다. 이 방식으로 학습된 LLaMA 3.2 모델은 일회성 평가에서 단일 정확도가 21.4%, 다중 정확도는 8.25% 향상됐다. 특히 Qwen 2.5 모델은 기본 난이도 태스크에서 다중 라운드 추론 시 9.64%의 단일 정확도 향상과 4.37%의 다중 정확도 향상을 보여줬다. 진단은 단계적 과정…3단계 난이도의 실전형 평가 시스템 전체 벤치마크의 45%를 차지하는 도전 과제와 35.4%를 차지하는 고급 과제, 19.6%를 차지하는 기본 과제로 구성된 3단계 난이도 시스템을 도입했다. 기본 단계는 MedQA Step 1 문제를 바탕으로 하며, 고급 단계는 MedQA Step 2와 3, MedBullets 문제들을 포함한다. 가장 높은 단계인 도전 과제는 JAMA Challenge의 실제 임상 사례들을 활용해 현실 의료 환경의 복잡성을 반영했다. 엔트로피 감소 이론으로 입증한 대화형 학습의 우수성 연구진은 대화형 학습의 효과를 엔트로피 감소 관점에서 분석했다. 의사가 환자와의 대화를 통해 점진적으로 불확실성을 줄여나가는 것처럼, AI도 대화를 통해 진단의 불확실성(엔트로피)을 단계적으로 감소시킨다는 것을 수학적으로 입증했다. 이는 조건부 상호 정보량 I(D; enew|Et)가 항상 비음수라는 사실을 통해 확인됐다. 잡음 환경에서도 강건한 성능 유지하는 대화형 모델 실제 의료 환경의 다양한 노이즈 상황에서도 대화형 학습 모델은 우수한 성능을 보였다. LLaMA 3.2-3B 모델은 노이즈 레벨 0과 1에서 각각 2.82%와 6.18%의 성능 향상을 보였으며, Qwen 2.5 모델은 노이즈 레벨 1에서 2.53%, 레벨 5에서도 2.28%의 향상된 성능을 유지했다. 의료 AI의 실용화를 위한 과제와 전망 연구진은 이번 연구의 한계점으로 대화 생성 과정에서 발생할 수 있는 AI의 환각 현상과 의사소통 스타일의 다양성 반영 문제를 지적했다. 향후 더 광범위한 의료 분야로의 확장과 함께 이러한 한계점들을 보완하는 연구를 진행할 예정이다. 특히 환자 개인정보 보호와 의료 데이터 보안 규정 준수에 대한 엄격한 기준도 마련할 계획이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.03 21:52AI 에디터

부모와 함께하는 시간 늘리고 정서발달까지... AI로 아이들 정서교육 돕는다

MIT 미디어랩과 애플이 공동 발표한 연구에 따르면, 5-8세 아동들은 하루 평균 3시간을 기기를 통한 미디어 소비에 사용하며, 대부분의 시간을 영상 시청에 할애하고 있다. 부모들은 자녀의 미디어 소비가 학습과 감정적 필요에 도움이 되기를 바라지만, 실제로는 시간과 관심의 부족으로 자녀와 함께하는 미디어 시청이 어려운 실정이다. 이러한 현실에서 연구진은 아동의 독립적인 영상 시청을 사회정서학습(SEL)으로 연결하는 'eaSEL' 시스템을 개발했다. 이 시스템은 대규모 언어모델(LLM)을 활용해 영상 속 사회정서적 순간을 감지하고, 아동을 위한 성찰 활동을 생성하며, 부모와 자녀 간의 대화를 촉진하는 기능을 제공한다. (☞ 논문 바로가기) 연구팀은 eaSEL 시스템에 자기인식, 자기관리, 사회적 인식, 관계 기술, 책임있는 의사결정 등 5가지 핵심 역량을 포함시켰다. 아동들은 영상 시청 후 그리기, 이야기 만들기, 개인 경험 공유, 역할극 등 다양한 활동에 참여할 수 있다. 시스템은 위스퍼(Whisper)를 사용해 영상을 전사하고, GPT-4 ChatCompletion API를 통해 SEL 감지와 활동 생성을 수행한다. 특히 부모 인터페이스는 영상 요약, SEL 주제 개요, 자녀의 활동 결과물을 제공하여 부모-자녀 간 의미 있는 대화를 유도한다. 기술 평가에서 GPT-4는 대부분의 사회정서적 기술을 70% 이상의 정확도로 감지했다. '다양성 존중하기'(97.67%)와 '정확한 자기인식'(93.02%) 영역에서 특히 높은 성능을 보였다. 다만 '사회적 기술 시연하기' 영역에서는 41.86%의 상대적으로 낮은 성능을 보여, 사회적 추론 과제에서 한계를 드러냈다. 생성된 아동 활동의 경우, 90% 이상이 SEL 기술과 관련성이 높았으며, 99%가 성찰을 촉진하는 것으로 평가되었다. 하지만 5-8세 아동에게 적합한 언어 사용 측면에서는 개선이 필요한 것으로 나타났다. 20쌍의 부모-자녀 대상 실험에서 eaSEL 활동을 수행한 아동들은 일반 시청(M = 0.040)에 비해 감정 관련 단어 사용이 58% 증가했다(M = 0.058). 한 아동은 "친절하다"와 "안아주다"와 같은 감정 단어를 사용하며 "친구들에게 친절하게 대하는 것이었고, 그들은 서로 안아주고 이제 소녀가 되었어요"라고 이야기를 다시 들려주었다. 부모 인터페이스는 영상 요약, SEL 주제 개요, 자녀의 활동 결과물과 함께 대화 시작점을 제공한다. 인터뷰에서 한 부모는 "우리는 목적 없이 많은 쇼를 보는데, 이 도구는 건설적이고 목적이 있는 것 같다"고 평가했다. 특히 부모들은 자녀의 창작물을 통해 사회정서적 요구를 파악할 수 있다는 점을 긍정적으로 보았으며, 자신들의 SEL 지식도 향상되어 자녀와의 대화가 더욱 풍부해졌다고 응답했다. 연구진은 콘텐츠 안전성, 연령 적합성, 문화적 다양성 반영에서 개선이 필요하다고 지적했다. 특히 아동 중심의 언어 모델 개발이 시급하며, 부적절한 콘텐츠를 필터링하는 시스템도 강화해야 한다고 강조했다. 또한 독립적 사용 맥락에서 부모의 콘텐츠 중재 기능을 어떻게 통합할 것인지도 향후 연구 과제로 제시했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.03 21:47AI 에디터

"딥시크 개발비 82억은 과장…총 비용은 50배 이상"

세미애널리시스(SemiAnalysis)가 지난달 31일 보도한 내용에 따르면, 딥시크의 V3 모델 학습 비용이 600만 달러(약 78억원)로 알려졌으나, 이는 단순 사전학습 비용일 뿐이다. R&D, 하드웨어 총소유비용(TCO) 등을 포함한 실제 비용은 이보다 훨씬 높을 것으로 확인된다. 현재 중국 AI 기업 딥시크는 저비용 고성능 AI 모델로 세계 AI 시장의 판도를 바꾸고 있다. 저렴한 개발 비용이 화재가 되면서, 딥시크는 현재 클로드(Claude), 퍼플렉시티(Perplexity), 제미나이(Gemini)보다 더 높은 일일 트래픽을 기록하고 있다. 이는 단순한 신생 기업의 성공을 넘어 AI 업계 전반에 큰 파장을 일으키고 있다고 해석된다. 딥시크는 약 5만대의 호퍼(Hopper) GPU를 보유하고 있다. 이 중 H100 1만대와 H800 1만대를 포함하고 있으며, 중국 전용 모델인 H20도 다수 주문한 상태다. 서버 설비 투자 비용은 약 16억 달러(약 2조원), 운영 비용은 9억 4천만 달러(약 1조 2천억원)에 달한다. 또한,딥시크는 중국 내 최고 대학 출신 인재를 적극적으로 영입하고 있다. 유망한 인재에게는 연봉 130만 달러(약 17억원)까지 제시하며, 현재 약 150명의 직원이 근무하고 있다. 세미애널리시스의 분석에 따르면, 딥시크는 다중토큰예측(Multi-Token Prediction, MTP)과 다중헤드잠재어텐션(Multi-head Latent Attention, MLA) 등 혁신적인 기술을 도입했다. 특히 MLA 기술은 기존 대비 메모리 사용량을 93.3% 감소시켰다. 현재 딥시크는 시장 점유율 확대를 위해 원가 수준의 추론(inference) 서비스를 제공하고 있으며, 이는 엔비디아(NVIDIA)의 AI 가속기 시장에도 영향을 미치고 있다. ■ 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.03 15:03AI 에디터

AI가 학생 글쓰기 첨삭했더니...6명 중 5명 실력 향상

GPT로 3500만 토큰 학습했더니 사람보다 나은 피드백 제공 일리노이 어바나-샴페인 대학교 연구진이 발표한 사례 연구에 따르면, CGScholar AI Helper를 활용한 인공지능 피드백이 11학년 학생들의 글쓰기 능력 향상에 긍정적인 영향을 미친 것으로 나타났다. 2000년부터 빌 코프와 메리 칼란치스가 이끄는 연구팀은 온라인 학습 환경을 개발해왔으며, 2023년 초 오픈AI의 GPT 시리즈를 기반으로 한 AI 리뷰 컴포넌트를 CGScholar 플랫폼에 통합했다. 특히 2024년에는 지난 5년간의 대학원생과 강사들의 모든 작업을 포함한 3500만 토큰 규모의 벡터 데이터베이스를 구축했고, 그 결과 학생들은 AI 리뷰가 동료 리뷰보다 더 우수하다고 평가했다. 저소득층 학교에서 진행된 혁신적인 AI 교육 실험 이번 연구는 미국 중서부의 한 저소득층 공립학교에서 진행되었다. 총 824명이 재학 중인 이 학교는 백인 35%, 히스패닉 30%, 흑인 24%로 구성되어 있으며, 9학년 233명, 10학년 235명, 11학년 184명, 12학년 175명이 재학 중이다. 교사 대 학생 비율은 1:13이며, 전체 중퇴율은 2.8%로 특히 히스패닉 학생들 사이에서 높게 나타났다. 연구에는 교육학 석사학위를 2개 보유하고 박사과정을 진행 중인 열정적인 영어 교사 1명과 그의 23명의 학생 중 자발적으로 참여를 희망한 6명의 학생이 참여했다. 교사의 기준에 맞춘 AI 피드백…CGScholar의 차별화된 접근 CGScholar AI Helper는 6가지 평가 기준을 바탕으로 피드백을 제공했다. 평가 기준은 '비교와 대조', '식별', '작문', '소개와 연결', '증거 지원', '분석'으로 구성되었으며, 각각 0-4점 척도의 별점과 상세한 텍스트 피드백을 제공했다. 학생들은 "거북이 등 위의 세계"와 "세 자매들의 원주민 농장 귀환" 두 텍스트에서 자연, 균형, 전통이라는 원주민의 가치가 현재까지 어떻게 이어지고 있는지 분석하는 200단어 분량의 과제를 수행했다. 0점에서 2점까지…학생들의 놀라운 실력 향상 평가 결과를 보면, '비교와 대조' 부문에서 3명의 학생이 점수가 향상되었는데, 2명은 1점에서 2점으로, 1명은 0점에서 2점이라는 큰 폭의 향상을 보였다. '작문'과 '분석' 부문에서는 각각 2명의 학생이 2점에서 3점으로 향상되었으며, '소개와 연결' 부문에서는 1명이 2점에서 3점으로 향상되었다. 한 예로, 처음에는 비교 분석을 전혀 하지 못했던 학생이 AI의 피드백을 받은 후 두 텍스트의 전통과 자연에 대한 공통된 가치를 성공적으로 찾아내어 분석했다. 교실에서의 AI는 통제되어야 한다…연구진의 제언 연구진은 "생성형 AI는 교육 맥락에서 중재되지 않은 채 사용되기에 적합하지 않다"고 강조했다. 이를 위해 프롬프트 엔지니어링과 교사의 평가 기준을 통한 정교화라는 두 가지 방식으로 AI를 재보정했다. 연구진은 이런 접근이 학생들이 단순히 AI에 의존하는 것이 아닌, AI와 상호작용하며 의미 패턴을 인식하고 문법 기술을 습득하는 '사이버-소셜 리터러시 학습'을 가능하게 한다고 설명했다. 학생들의 의견 반영한 시스템 개선 초기 구현 이후 학생들은 AI 피드백이 너무 길고 언어가 복잡하다는 의견을 제시했다. 이에 연구팀은 각각의 피드백 아래에 채팅창을 추가하여 학생들이 긴 피드백을 요약하거나 복잡한 용어에 대해 질문할 수 있도록 했다. 향후에는 교사나 학생이 선호하는 피드백의 길이를 직접 설정할 수 있는 기능도 추가될 예정이다. 이 연구는 K-12 교육에서 AI 기반 도구의 영향을 조사한 최초의 중재 기반 실증 연구 중 하나로서, AI가 포용적이고 공평한 학습을 촉진할 수 있는 가능성을 보여주었다. AI 글쓰기 도구의 현황과 가능성 최근 교육 현장에서 그래머리(Grammarly), 챗GPT(ChatGPT), 퀼봇(QuillBot) 등 AI 기반 글쓰기 도구들이 주목받고 있다. 송(Song) 등의 2023년 연구에 따르면, 그래머리와 같은 도구들은 문법과 구조를 개선하는 적응형 피드백을 제공하며, 마르주키(Marzuki) 등의 2024년 연구는 이러한 도구들이 학생들의 고차원적 글쓰기 능력 향상에 도움을 준다고 밝혔다. 마하파트라(Mahapatra)의 2024년 연구에서는 AI 도구들이 즉각적인 피드백을 통해 학생들의 글쓰기 참여도를 높인다는 점이 확인되었다. 전문가들의 우려와 제언 하지만 자이(Zhai) 등은 2024년 연구에서 AI에 대한 과도한 의존이 학생들의 독자적인 글쓰기 능력 발달을 저해할 수 있다고 경고했다. 파라하니(Farahani)와 가세미(Ghasemi)는 2024년 연구에서 AI 시스템의 잠재적 편향성이 적절히 관리되지 않으면 교육 불평등을 심화시킬 수 있다고 지적했다. 베어만(Bearman) 등은 2022년 연구에서 맞춤형 피드백을 위해 개인 데이터에 접근해야 하는 프라이버시 문제도 제기했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.03 14:13AI 에디터

오픈AI 'o3-미니' 뭐가 좋길래…초보자도 이해하기 쉽게 설명합니다

OpenAI가 최근 새로운 AI 모델 'O3-미니'를 공개했습니다. 저비용 고성능으로 AI 시장을 강타한 딥시크의 등장으로 주목받고 있는 이 모델은, 기존 O1 대비 더 빠른 처리 속도와 경제성을 갖추면서도 고도의 추론 능력까지 갖춰 업계의 이목을 집중시키고 있습니다. (☞오픈AI o3-미니 기사 바로 보기) 아래는 오픈AI가 o3-미니를 소개하는 메일의 일부입니다. 안녕하세요, 이제 OpenAI o1 및 OpenAI o3-mini 모델을 API에서 사용할 수 있습니다. o1은 더 넓은 세계 지식을 보유한 대형 추론 모델이며, o3-mini는 비용 최적화된 새로운 소형 추론 모델입니다. 두 모델 모두 함수 호출(Function Calling), 구조화된 출력(Structured Outputs), 개발자 메시지를 지원합니다. 특히 o3-mini는 코드 작성 및 기타 추론 작업에서 o1을 능가할 수 있으며, o1보다 93% 저렴하고 훨씬 빠르며 스트리밍도 지원합니다. 이 모델들은 또한 세 가지 추론 강도 옵션(낮음, 중간, 높음)을 제공하여, 특정 사용 사례에 맞춰 성능을 최적화할 수 있습니다. 즉, 복잡한 문제를 해결할 때는 "더 깊이 사고(thinking harder)"하도록 설정하거나, 속도를 우선할 수도 있습니다. 또한, Chat Completions API, Assistants API, Batch API에서 즉시 사용할 수 있으며, 200,000 토큰의 대형 컨텍스트 윈도우와 최대 100,000 토큰의 출력을 지원합니다. 설명만 보면 일반인에게 어떤 부분이 좋은 것인지 이해하기 어려운데요. GPT에게 좀 더 이해하기 쉽게 예를 들어 설명을 요청했습니다. AI 모델, 어떻게 다를까?","headingStyle":"style1"} /--> 이번에 공개된 o1과 o3-mini는 각각 다른 장점을 가지고 있습니다. 쉽게 비유하자면, o1은 박사 과정의 전문가, o3-mini는 실무 경험이 풍부한 고속 비서라고 할 수 있습니다. o1 모델: 방대한 정보를 다루며 깊이 있는 논리적 사고를 할 수 있는 고급 AI입니다. 복잡한 질문에 대한 답을 찾거나 심층 분석이 필요할 때 유용합니다. o3-mini 모델: 비용이 저렴하면서도 빠르게 답을 제공하는 AI입니다. 실용적인 문제 해결과 코드 작성 등의 작업에서 강력한 성능을 보입니다. 어디에 활용할 수 있을까?","headingStyle":"style1"} /--> 이 AI 모델들은 여러 분야에서 유용하게 활용될 수 있습니다. 예를 들어: ✔️ 일반 사용자: 챗봇과 대화하며 궁금한 점을 해결하고, 이메일이나 문서를 빠르게 작성하는 데 도움을 받을 수 있습니다. ✔️ 개발자: 코드를 작성하거나 디버깅할 때 빠르고 정확한 조언을 받을 수 있습니다. ✔️ 기업 및 연구자: 데이터 분석, 전략 기획, 복잡한 문제 해결을 위한 보조 도구로 활용할 수 있습니다. 더 똑똑하게 사고하는 AI!","headingStyle":"style1"} /--> 흥미로운 점은, 이번 AI 모델들이 세 가지 '생각하는 깊이'(Reasoning Effort) 옵션을 제공한다는 것입니다. 사용자는 문제의 복잡도에 따라 AI가 얼마나 깊이 사고할지를 조정할 수 있습니다. 낮음 (Low): 빠르게 대답하지만 깊이 있는 분석은 부족할 수 있음 중간 (Medium): 속도와 논리적 사고의 균형을 유지 높음 (High): 깊이 있는 사고가 필요할 때 사용하지만 시간이 더 걸릴 수 있음 이 기능 덕분에, AI를 단순한 질문부터 복잡한 문제 해결까지 다양한 방식으로 활용할 수 있습니다. 200,000 토큰? 이게 무슨 뜻일까?","headingStyle":"style1"} /--> 이번 모델들은 최대 200,000 토큰(AI가 기억할 수 있는 문장의 길이)을 지원합니다. 쉽게 말해, AI가 과거 대화를 더 길게 기억할 수 있어 보다 자연스러운 대화가 가능합니다. 또한, 한 번에 최대 100,000 토큰의 답변을 생성할 수 있어, 긴 문서나 논문을 AI가 직접 작성하는 것도 가능해집니다. 이처럼 OpenAI의 새로운 AI 모델들은 '전문가의 깊이'와 '비서의 효율성'이라는 두 가지 장점을 모두 제공합니다. o1으로 깊이 있는 분석을, o3-mini로 빠른 실무 지원을 받을 수 있게 된 것이죠. 특히 사용자가 원하는 대로 AI의 '생각하는 깊이'를 조절할 수 있다는 점은, 마치 상황에 따라 전문가와 비서를 골라 쓸 수 있는 것과 같습니다. 앞으로 AI는 우리의 일상에서 더욱 자연스러운 동반자가 될 것입니다. 박사급 전문가처럼 깊이 있게 생각하거나, 빠른 비서처럼 효율적으로 일하는 AI와 함께라면, 우리의 업무와 일상이 한층 더 스마트해질 것입니다. OpenAI의 이번 발표는 그런 미래로 가는 또 하나의 의미 있는 발걸음이 될 것입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.01 17:37AI 에디터

알파세대 70% "AI 신뢰"…부모 75%는 "부정적 영향 우려"

알파세대(Generation Alpha)가 인공지능(AI)을 자연스럽게 받아들이고 있다는 조사 결과가 발표됐다. WE Communications의 조사에 따르면 알파세대의 70%가 AI를 신뢰한다고 답했다. 구체적인 AI 서비스 활용도를 살펴보면, 애플의 음성비서 시리(Siri) 43%, 아마존의 AI 비서 알렉사(Alexa) 40%, AI 기반 음악 추천 서비스 스포티파이(Spotify) 39%, AI 이미지 처리 기술인 포토필터(Photo Filter) 30% 등으로 나타났다. 이는 알파세대가 AI 기술을 일상생활의 자연스러운 도구로 받아들이고 있음을 보여준다. (☞ 보고서 바로 가기) 알파세대의 디지털 기술 활용에 대한 부모 세대의 우려도 주목할 만하다. 부모의 75%가 AI가 자녀에게 미칠 부정적 영향을 걱정하는 것으로 조사됐다. 특히 주목할 점은 소셜미디어 사용에 대한 인식 차이다. 알파세대의 84%가 소셜미디어 계정을 보유하고 있지만, 부모들 중 67%만이 자녀의 소셜미디어 사용을 인지하고 있었다. 기술이 자녀의 삶에 미치는 영향에 대해서는 영역별로 상반된 시각을 보였다. 학업(School), 친구관계(Friendships), 미래 직업(Work) 측면에서는 긍정적 영향을 기대한 반면, 정신건강(Mental Health), 신체건강(Physical Health), 대인관계(Relationships) 측면에서는 부정적 영향을 우려했다. 특히 51%의 부모가 온라인 보안과 안전 문제를 심각하게 우려하는 것으로 나타났다. 알파세대는 브랜드와의 관계에서도 이전 세대와는 다른 특징을 보였다. 84%가 자신의 취향과 가치를 반영하는 브랜드를 선호한다고 응답했으며, 37%는 브랜드가 온라인에서의 인기와 개인의 취향을 동시에 반영하는 것이 중요하다고 답했다. 부모들의 53%는 자녀의 특정 관심사를 반영하는 브랜드 제품 구매에 긍정적인 태도를 보였다. 특히 주목할 만한 점은 틱톡(TikTok)의 영향력이다. 조사 대상 아동의 20%가 틱톡에서 언급되지 않은 제품은 구매하지 않겠다고 응답해, 소셜미디어가 알파세대의 소비 결정에 큰 영향을 미치는 것으로 나타났다. 알파세대와 부모 세대 모두 미래에 대해 높은 낙관론을 보였다. 알파세대의 92%와 부모의 93%가 미래를 긍정적으로 전망했다. 특히 새로운 기술과 AI의 발전이 가져올 변화에 대한 기대감이 높았다. 다만 38%의 부모만이 자녀들의 삶을 편리하게 만드는 기술 도구의 존재를 긍정적으로 평가했다는 점에서, 기술 발전에 대한 기대와 우려가 공존하는 것으로 분석됐다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.01 17:28AI 에디터

AI가 혈당 관리도 할 수 있을까… 챗GPT로 실험했더니

연구 참여 환자 78.5%, 의사보다 챗GPT-4 답변 선호 호주 CSIRO's Data61과 모나쉬 대학교의 공동 연구에 따르면, 챗GPT-4는 의학 라이선스 시험(USMLE)과 의학 지식 자가평가 프로그램(MKSAP) 등 의료 벤치마크에서 높은 성과를 보였다. 특히 근시 관련 질문에서는 80.6%의 정확도를 보여주며 이전 버전인 GPT-3.5(61.3%)와 구글 바드(54.8%)를 크게 앞섰다. (☞ 논문 바로 가기) 흥미로운 점은 환자들이 의사보다 챗GPT의 답변을 더 선호하는 경향을 보였는데, 환자 설문에서 챗GPT의 응답은 78.5%가 '좋음' 또는 '매우 좋음'으로 평가받은 반면, 의사의 응답은 22.1%에 그쳤다. 당뇨병 자가관리 상담에서 드러난 AI의 주요 문제점, 개인화 진단 역량 부족 연구팀이 발견한 주요 문제점은 다양했다. 챗GPT는 혈당 수치 단위를 자동으로 mg/dL로 가정하는 등 맥락을 고려하지 않은 채 답변했으며, 개인의 인슐린 투여 방식이나 식단 특성을 고려하지 않은 일반적인 조언을 제공했다. 특히 '혈당이 25'라는 동일한 질문에 대해 챗GPT-4는 극도로 낮은 수치로, 챗GPT-4o와 챗GPT-4o-mini는 극도로 높은 수치로 각각 다르게 해석하는 등 일관성 없는 답변을 보였다. 또한 발한과 떨림 증상이 있는 환자의 혈당이 5mmol/L일 때, 이를 가성 저혈당이 아닌 저혈당 무감지증으로 잘못 진단하는 사례도 발견됐다. AI 의료상담의 현재 성과? '의료 문서 작성'과 '교육' 분야 두각 연구에 따르면 챗GPT는 방사선 검사 보고서 해석과 의학 교육에서 긍정적인 성과를 보였다. 의료 전문가들은 챗GPT가 단순화한 방사선 보고서에 대해 5점 만점에 평균 4.27점을 부여했으며, 정보 누락은 보고서당 평균 0.08건, 부정확한 정보는 0.07건에 불과했다. 또한 전자건강기록(EHR) 해석에서도 자연어 추론에서 9.6%, 의료 질의응답에서 9.5%의 정확도 향상을 보였다. 의료 AI의 미래: RAG 기술로 정확도 높인다 연구진은 AI의 의료상담 정확도를 높이기 위해 Retrieval Augmented Generation(RAG) 기술 도입을 제안했다. RAG는 미국 국립보건원(NIH)이나 질병통제예방센터(CDC) 같은 신뢰할 수 있는 외부 데이터베이스와 AI 모델을 연결해 최신 의료 정보를 반영할 수 있게 한다. 이를 통해 환자 개개인의 건강 프로필과 최신 의료 기준에 부합하는 실시간 데이터 기반의 조언이 가능해질 것으로 기대된다. AI 의료상담의 한계? 서구 중심적 식단 제안과 영어 외 언어 지원 미흡 연구는 AI 의료상담이 서구 중심적 식단을 제안하거나 영어 외 언어 지원이 미흡한 점을 지적했다. 예를 들어, 통밀 잉글리시 머핀이나 아몬드 버터 같은 서구적 식단을 제안하는데, 이는 파키스탄과 같은 국가의 사회경제적 조건이나 식문화와 맞지 않는다. 또한 구독형 모델인 챗GPT-4는 경제적 약자들의 의료정보 접근성을 제한할 수 있다는 우려도 제기됐다. 연구진은 이러한 격차를 줄이기 위한 노력이 필요하다고 강조했다. GPT-4의 당뇨병 교육 활용은 '인슐린 펜을 보관하는 방법' 안내 수준 챗GPT는 단순한 정보 제공을 넘어 당뇨병 교육에서 활용될 수 있는 잠재력을 지니고 있다. 특히, GPT-4는 환자들의 일상적인 당뇨병 관리, 식단 조절, 운동 계획과 관련하여 가독성이 높은 설명과 유용한 지침을 제공하는 데 적합하다. 연구에서는 GPT-4가 인슐린 주사법, 저장 방법, 및 운동 계획과 관련된 세부 정보를 명확히 제공하는 사례를 언급했다. 예를 들어, "인슐린 펜을 보관하는 방법"에 대한 질문에서 GPT-4는 실온에서의 보관 가능성과 각 인슐린 유형별로 상이한 보관 지침을 상세히 설명했다. 그러나 모델이 제공한 일부 정보는 지역적 환경이나 구체적인 환자 요구를 완전히 반영하지 못했으며, 이는 의료 전문가와 협업이 필요한 부분으로 남아 있다. 신뢰를 위해서는 인간 전문가의 감독 필수적 챗GPT의 의료 상담 역량을 강화하기 위해 연구진은 여러 전략을 제안했다. 가장 중요한 전략 중 하나는 Retrieval Augmented Generation(RAG) 기법의 활용이다. RAG는 GPT-4가 실시간으로 최신 의료 데이터를 검색하고 통합할 수 있도록 해, 더 정확하고 신뢰할 수 있는 정보를 제공할 수 있게 한다. 이 방법은 환자와 의사 간의 정보 격차를 줄이는 데 큰 도움을 줄 수 있다. 또한 AI가 보다 신뢰할 수 있는 도구가 되기 위해서는 인간 전문가의 검토와 감독이 필수적이다. 특히, 고위험 상황에서 AI가 제공하는 모든 정보는 전문가의 검토를 거쳐야 하며, 모델이 의사결정을 독점적으로 수행하는 것을 방지해야 한다는 점이 강조되었다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.01 09:51AI 에디터

교황청, 'AI와 인류의 공존' 선언…이유는?

바티칸뉴스에 따르면 교황청은 28일 인공지능(AI)과 인간 지능의 관계를 다룬 '앤티쿠아 엣 노바(Antiqua et Nova)' 보고서를 발표했다. 이는 교리성(Dicastery for the Doctrine of the Faith)과 문화교육성(Dicastery for Culture and Education)이 공동으로 작성한 문서다. (☞ 보고서 원문 바로가기) 폴 티게(Paul Tighe) 문화교육성 사무총장은 "이번 문서는 AI에 대한 가톨릭교회의 여러 성찰을 종합했다"며 "챗지피티(ChatGPT)의 등장으로 일반 사용자들이 AI 도구를 직접 사용하게 되면서, 교회 차원의 대응이 필요했다"고 설명했다. 티게 사무총장은 "AI 시스템은 인간의 추론, 처리, 분별, 발견, 패턴 인식, 혁신 능력을 향상시킬 수 있다"면서도 "인간은 삶의 목적과 의미를 찾는 더 넓은 의미의 지능을 가지고 있으며, 이는 기계가 대체할 수 없는 형태의 지능"이라고 강조했다. 보고서는 AI 개발과 활용에 있어 윤리적 책임을 강조했다. 티게 사무총장은 "소셜미디어 초기에 우리는 그것의 잠재력만을 환영했지만, 양극화와 가짜뉴스 같은 부작용을 예측하지 못했다"며 "AI도 같은 전철을 밟지 않도록 해야 한다"고 경고했다. 특히 보고서는 AI 기술이 상업적, 정치적 환경 내에서 개발되면서 특정 가치에 편향될 수 있다고 지적했다. 이에 "설계 단계부터 윤리적 고려가 필요하며, 전체 인류의 경험을 반영하는 데이터베이스 구축이 중요하다"고 제안했다. 보고서는 AI가 가져올 수 있는 불평등 심화를 주요 우려사항으로 지적했다. 티게 사무총장은 "디지털화 과정에서 소수의 부유층이 막대한 권력을 갖게 된 것처럼, AI도 인류 가족의 단합을 저해할 수 있다"고 우려했다. 특히 의료 분야에서 AI의 잠재력을 인정하면서도, "의료 서비스가 이미 불공평하게 분배된 상황에서 AI로 인해 이러한 격차가 더욱 커질 수 있다"고 경고했다. 보고서는 AI 시대에 가톨릭 대학들의 역할을 강조했다. 티게 사무총장은 "가톨릭 대학들은 인문학, 철학, 신학과 함께 과학적 배경을 가진 인재들을 보유하고 있다"며 "이러한 학제간 연구를 통해 AI의 책임있는 발전 방향을 모색할 수 있을 것"이라고 전망했다. 바티칸의 이번 보고서는 AI 기술의 발전을 환영하면서도, 인류 전체의 이익을 위해 신중한 접근이 필요하다는 균형 잡힌 시각을 제시했다. 특히 이는 최종 결론이 아닌 지속적인 논의의 시작점이 될 것이라고 강조했다. ■ 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.31 10:53AI 에디터

인공지능도 코미디 가능할까…AI 코미디언 도전기

극장이 실험실로: 2024년 AI 코미디 평가의 새로운 패러다임 로봇 자동화 전문 기업 임프로보틱스(Improbotics)의 연구진이 발표한 보고서에 따르면, 코미디 공연장이 AI 유머 생성 시스템을 평가하는 최적의 실험실이 될 수 있다는 주장이 제기됐다. 온라인 평가 방식의 한계를 지적하며, 연구진은 유료 관객들과 전문 평론가들의 실시간 피드백이 AI 코미디 시스템의 성능을 평가하는 데 더 신뢰할 수 있는 방법이라고 설명했다. 특히 즉흥 코미디가 AI 시스템을 테스트하는 최적의 환경을 제공한다고 강조했다. (☞ 보고서 바로가기) 2010년 첫 등장한 로봇 코미디언: 알데바란 나오부터 휴먼머신까지 2010년 사회로봇공학자 히더 나이트(Heather Knight) 교수가 처음으로 알데바란 나오(Aldebaran Nao) 로봇으로 무대 코미디를 선보였다. 이 로봇은 카메라 센서로 관객들의 반응을 실시간으로 파악하고, 이를 바탕으로 다음 농담을 선택하는 시스템을 갖추고 있었다. 2014년에는 텍사스 오스틴의 아서 시몬(Arthur Simone)이 '봇 파티: 로봇과 함께하는 즉흥 코미디'(Bot Party: Improv Comedy with Robots)를 통해 로봇과의 즉흥 연기를 시도했다. 2016년에는 휴먼머신(HumanMachine) 듀오가 오픈서브타이틀(OpenSubtitles) 데이터로 학습된 대화 모델을 활용한 즉흥 코미디를 선보이며 AI 코미디의 새 장을 열었다. 2023년 AI vs 인간 코미디 대결: LA에서 시작된 새로운 실험 2023년, WGA 파업의 영향으로 AI와 창작자의 관계가 주목받는 가운데, 로스앤젤레스의 앨리슨 골드버그(Allisson Goldberg)와 브래드 아인슈타인(Brad Einstein)이 '코미디언스 대 AI: 기계에 맞서는 무대'를 기획했다. 이 쇼는 순수 인간팀과 ChatGPT, DALL-E를 활용하는 AI 지원팀의 대결로 구성됐다. 같은 해 뉴욕의 코미디 바이츠는 AI가 생성한 농담을 읽어주는 가상 아바타와 인간 공연자들의 랩 배틀과 코미디 로스트를 선보였다. 런던의 더 프리 어소시에이션(The Free Association)은 ChatGPT로 생성한 농담을 활용한 'AI 임프로브 쇼'를 공연했다. 2017년 시작된 코미디 튜링 테스트: 임프로보틱스의 혁신적 실험 2017년 휴먼머신 듀오는 튜링 테스트를 코미디에 도입했고, 2018년에는 임프로보틱스를 결성했다. '사이보그' 배우들은 AI가 생성한 대사를 FM 라디오 수신기로 연결된 헤드폰을 통해 전달받았다. 수백 회의 공연을 통해 다양한 즉흥극 게임을 선보였으며, 2024년 에든버러 페스티벌 프린지에서는 증강현실 안경을 도입해 배우들이 직접 AI 대사를 선택할 수 있게 했다. 가상공간으로 확장된 AI 코미디: VR부터 디스코드까지 코로나19 이후 AI 코미디는 디지털 영역으로 확장됐다. VR 코미디 클럽 '페일드 투 렌더'가 등장했고, 임프로보틱스는 2020-2021년 VR 공간에서 AI 아바타와 함께하는 공연을 진행했다. 제이콥과 연구진은 'Robot Improv Circus VR'에서 컴퓨터 비전 모델을 활용한 물리적 즉흥 게임을 선보였다. 2022년 뉴럴IPS에서는 디스코드로 진행된 'PORTAGING'이라는 AI와의 프롬프트 배틀이 화제를 모았다. AI 코미디의 새로운 활용: 다 국어 공연부터 각본 작성까지 로제타 코드(Rosetta Code)는 음성인식, 기계번역, 음성합성을 활용해 다국어 즉흥극을 선보였다. 에드먼턴의 래피드 파이어 시어터(Rapid Fire Theatre)는 2022년부터 드라마트론(Dramatron)으로 작성된 대본을 즉흥극에 활용했다. 2024년 애너스티 다넬리스(Anesti Danelis)는 에든버러 프린지에서 AI와 공동 작업한 코미디를 선보였다. AI 코미디의 미래 과제: 타이밍부터 문화적 맥락까지 연구진은 AI 코미디의 성공을 위해 세 가지 과제를 제시했다. 첫째, 나오미 피터 교수의 연구처럼 타이밍 제어가 필요하다. 둘째, 관객과의 실시간 상호작용이 중요하다. 셋째, 문화적 맥락의 이해가 필수적이다. 특히 임프로보틱스의 '사이보그' 배우들은 AI 대사의 느린 타이밍과 지연이 가장 큰 문제라고 지적했다. 연구진은 이러한 평가와 피드백이 AI 코미디 발전의 핵심이 될 것이라고 전망했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.31 10:25AI 에디터

  Prev 11 12 13 14 15 16 17 18 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

"최대 600만원 할인해도 안 팔려"…현대차, 전기차 생산 또 멈춘다

SKT "정보 유출 없다 '확신'...있더라도 끝까지 책임"

MS "멀티 에이전트 시대 온다…'애저 AI 파운드리' 역할 커져"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현