• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'에디터'통합검색 결과 입니다. (419건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

딥시크, 챗GPT 이어 인기 AI앱 2위…한국 사용자 120만 명 돌파

중국의 생성형 AI 챗봇 딥시크(DeepSeek)가 한국 시장에서 급성장하며 챗GPT(ChatGPT)를 맹추격하고 있다. 데이터 분석 전문기업 와이즈앱·리테일에 따르면, 2025년 1월 4주차 기준 딥시크의 국내 주간 사용자 수가 121만명을 기록하며 생성형 AI 앱 사용자 순위 2위를 차지했다. 1위는 493만명을 기록한 챗GPT(ChatGPT)다. (☞ 보고서 바로가기) 국내 생성형 AI 앱 시장에서는 챗GPT와 딥시크에 이어 뤼튼(Writtn)이 107만명으로 3위를 차지했다. 에이닷(A.)은 55만명으로 4위, 퍼플렉시티(Perplexity)는 36만명으로 5위를 기록했다. 마이크로소프트의 코파일럿(Microsoft Copilot)은 17만명으로 6위, 클로드(Claude)는 7만명으로 7위에 올랐다. 딥시크가 지난 1월 22일 공개한 AI 모델 'R1'은 일부 성능 테스트에서 오픈AI(OpenAI)의 'O1' 모델을 앞선 것으로 나타났다. 이는 실리콘밸리를 비롯한 글로벌 AI 업계에 큰 충격을 주었다. 글로벌 디지털 인텔리전스 및 데이터 분석 기업 센서타워의 분석에 따르면 딥시크 AI 어시스턴트 앱은 출시 18일 만에 1,600만 회의 다운로드를 기록했다. 이는 같은 기간 챗GPT의 900만 회를 크게 웃도는 수치다. 딥시크는 1월 26일부터 미국 애플 앱스토어의 무료 앱 다운로드 순위에서 1위를 유지하고 있으며, 구글 플레이에서도 1월 28일부터 1위를 지키고 있다. 하지만 중국 기업이 운영하는 앱이라는 점에서 정보 유출에 대한 우려도 제기되고 있다. 이에 따라 전 세계 기업들과 정부 기관들이 딥시크 앱 접속을 차단하거나 개인정보 보호 정책 실태 파악에 나서는 추세다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 15:26AI 에디터

개발비 670조원 vs 80억원... 中 딥시크가 바꾼 글로벌 AI 지형도

딥시크가 촉발한 새로운 AI 경쟁 시대 딜로이트 인사이트의 2025년 2월 플래시 리포트에 따르면, 중국의 AI 스타트업 딥시크(DeepSeek)가 약 560만 달러(오픈AI 투자비용의 약 5.6%)라는 파격적인 저비용으로 GPT-4와 유사한 성능의 대규모언어모델(LLM)을 개발하는데 성공했다. 항저우에 본사를 둔 딥시크는 중국인 연구자와 엔지니어 150명(데이터 연구팀 31명 포함)으로 구성되어 있으며, 'DeepSeek-R1-Zero & R1'과 'DeepSeek-V3' 오픈소스 언어모델을 개발했다. (☞ 보고서 바로가기) 특히 주목할 만한 점은 딥시크의 창업자 량원펑(梁文锋)의 배경이다. 1985년 광둥성 잔장 출신인 그는 17세의 어린 나이에 중국 공학 명문인 저장대에 입학해 정보전자공학 학사와 석사 학위를 취득했다. 2016년에는 하이플라이어(환팡) 헤지펀드를 설립해 2019년 운용자산 19조원을 달성하는 등 탁월한 경영 능력을 입증했다. 전통적 AI 개발 비용의 1%로 달성한 기술 혁신 딥시크는 기존 AI 모델들이 10만개의 GPU를 사용한 것과 달리 약 2,000여개의 엔비디아 H800칩(GPU)만으로도 뛰어난 성능을 구현했다. 이는 미국의 대중국 제재로 인해 최신 GPU를 사용할 수 없는 상황에서 이뤄낸 혁신적인 성과다. 딥시크의 R1 모델은 AIME 2024(79.8%), MATH-500(92.3%), MMLU(89.8%) 등 대부분의 AI 모델 평가 플랫폼에서 오픈AI 모델과 유사하거나 더 나은 성능을 보여주고 있다. 특히 '혼합 전문가' 방식과 FP8(8비트 부동소수점) 기술을 도입하고, 강화학습(Reinforcement Learning)에 집중해 학습과 추론 비용을 획기적으로 절감했다. 이를 통해 토큰당 비용을 0.10-1.10달러로 책정해 기존 모델 대비 30-50배 저렴한 이용료를 실현했다. 670조원 규모 스타게이트 프로젝트의 도전자로 부상 트럼프 정부의 스타게이트 프로젝트는 2025년부터 4년간 총 5,000억 달러(약 670조 원)를 투입해 데이터센터와 AI 반도체 인프라를 구축하려 하고 있다. 특히 텍사스 애빌린의 AI 데이터 센터 건설에만 1,000억 달러를 투자할 예정이다. 오픈AI, 소프트뱅크, 오라클, 아부다비 국영펀드 MGX가 참여하며 마이크로소프트(MS)가 기술 지원을 담당한다. 이 프로젝트의 핵심 목표는 AI 기반 사이버 방어 시스템 및 군용 드론 기술 강화, 범용 인공지능(AGI) 개발이다. 그러나 딥시크의 등장으로 고비용 인프라 투자 대신 알고리즘 효율화 방향으로의 전략 전환 압력이 증가하고 있다. 미중 AI 패권 경쟁과 기술 블록화의 가속 오픈AI와 마이크로소프트는 딥시크의 데이터 도용 의혹을 조사하고 있으며, 미 해군과 텍사스 주는 딥시크 사용 금지 명령을 내렸다. 이에 대응해 중국은 3,340억 위안 규모의 반도체 산업 '빅 펀드' 3기를 추진하고 있다. 현재 미국은 생성형 AI(GPT-4), 양자 컴퓨팅, 바이오 분야에서 우위를 점하고 있는 반면, 중국은 5G와 초고속 컴퓨팅 분야에서 강세를 보이고 있다. 이러한 상황에서 유럽의 GDPR 강화로 인한 기술 블록화가 심화되고 있으며, 유럽, 일본, 한국 등과의 기술 협력이 새로운 변수로 떠오르고 있다. 저비용 AI 시대의 새로운 기회와 도전 딥시크의 혁신은 AI 개발 비용 구조를 근본적으로 변화시키고 있다. 기존의 대규모 범용 모델에서 벗어나 특정 산업이나 목적에 맞춘 도메인 특화 모델 개발이 증가할 전망이다. AMD, Intel, ASIC 등 중저가 칩 공급업체들에게 새로운 기회가 열리고 있으며, HBM과 클라우드 분야에서의 협력 가능성도 커지고 있다. 특히 AI 특화 칩 개발 투자가 확대되면서 NPU(신경망 처리 장치) 및 PIM(Processing-in-Memory) 등 AI 최적화 반도체 개발이 가속화될 것으로 예상된다. 또한 에이전틱 AI로의 전환이 가속화되고 물리적 AI의 상용화가 예상보다 빨리 실현될 가능성이 높아지고 있다. AI 거버넌스와 윤리적 과제 대응 딥시크의 등장으로 AI 기술의 윤리적 문제와 데이터 보안이 더욱 중요해지고 있다. 특히 기업들은 AI 활용 과정에서 발생할 수 있는 편향과 차별 문제, 데이터 보호와 개인정보 프라이버시 보장을 위한 명확한 정책적, 물리적 대응 방안을 마련해야 한다. 또한 글로벌 및 지역별 AI 규제를 준수하고 관련 법률 변화에 유연하게 대응할 수 있는 체계 구축이 필요한 상황이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 15:23AI 에디터

중국 AI 챗봇 딥시크 사용자, 美서 20년 징역형 위기…왜?

미국에서 폭발적 인기를 얻은 중국의 AI 챗봇 딥시크(DeepSeek) 사용자들이 새로운 법안으로 인해 고액의 벌금과 징역형에 처해질 수 있게 됐다. 더인디펜던트가 4일(현지 시간) 보도한 내용에 따르면, 미 공화당의 조시 홀리(Josh Hawley) 상원의원이 발의한 새 법안으로 인해 중국의 AI 앱 딥시크 사용자들은 최대 100만 달러의 벌금이나 20년 이하의 징역형에 처해질 수 있다. 이 법안은 "중화인민공화국 내 인공지능 역량 강화를 금지하는 것"을 주요 내용으로 하고 있다. 개인의 경우 최대 100만 달러, 기업의 경우 최대 1억 달러의 벌금이 부과될 수 있다. 지난 1월 20일 출시된 딥시크는 미국 앱 시장에서 최고 인기 AI 앱으로 급부상했다. 이로 인해 미국 테크 기업들의 주가가 급락했으며, 중국 공산당에 민감한 주제에 대한 답변 회피 등 보안, 프라이버시, 윤리적 문제가 제기됐다. 도널드 트럼프(Donald Trump) 미국 대통령은 딥시크를 "미국 테크 산업의 경각심을 일깨우는 계기"라고 평가했으며, 백악관은 국가안보에 미치는 영향을 검토 중이다. 미 해군은 이미 업무용과 개인용 모두에서 딥시크 사용을 금지했으며, 미항공우주국(NASA)도 정부 발급 기기와 네트워크에서의 사용을 금지했다. 텍사스주는 주정부 기기에서 최초로 딥시크 사용을 금지했다. 빌 코너(Bill Conner) 지터빗(Jitterbit) CEO이자 전 미국 정부 보안 자문관은 "딥시크는 틱톡(TikTok)보다 더 큰 위험이 될 수 있다"며 "딥시크의 개인정보 보호정책에 따르면 모든 데이터가 중국 내 서버에 저장되어 데이터 프라이버시, 규정 준수, 보안 통제에 알 수 없는 위험을 초래할 수 있다"고 경고했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 14:23AI 에디터

올해 사이버 범죄 주역은 AI... 의료정보 노리는 신종 공격 등장

글로벌 정보분석 기업 익스피리언(Experian)이 발표한 '2025년 사기 동향 전망 보고서(Future of Fraud Forecast 2025)'에 따르면, 생성형 AI 기술을 활용한 새로운 형태의 사이버 공격이 급증할 것으로 전망된다. (☞ 보고서 바로 가기) 신종 '돼지도살' 투자사기 수법 진화...더 빠르고 교묘해진 수법 사기꾼들이 피해자를 '살찌운 후 도살'하듯 최대한의 금전을 갈취하는 '돼지도살(Pig butchering)' 사기가 더욱 정교해질 전망이다. 이 수법은 사기꾼이 피해자와 시간을 들여 관계를 형성하고 신뢰를 쌓은 뒤, 투자 계획에 참여하도록 유도한 후 모든 자금을 가지고 잠적하는 방식이다. 익스피리언은 사기꾼들이 더 빠른 시일 내에 성과를 내고 더욱 설득력 있는 방식으로 피해자를 속이며, 탐지를 피하는 기간도 늘어날 것으로 예측했다. 암호화폐 시장을 노리는 신종 사기 수법...검증된 수법의 진화 비트코인 가치가 급등하면서 암호화폐 관련 사기가 증가하고 있다. 익스피리언은 범죄자들이 투자 사기와 로맨스 사기 같은 검증된 수법을 활용하거나, 가짜 암호화폐를 판매하는 위조 웹사이트를 통해 시세 급등을 노리는 투자자들을 공격할 것으로 예측했다. 이에 기업들은 강력한 사기 예방 조치를 도입하고, 소비자들이 이러한 사기로부터 자신을 보호할 수 있도록 교육 자료를 제공해야 한다. 생성형 AI 봇의 의료정보 타깃 공격...패스워드 스프레이 위협 고조 의료 서비스 기업들이 보유한 방대한 개인식별정보를 노리는 생성형 AI 기반 봇 공격이 증가할 것으로 전망된다. 이러한 공격은 기업의 시스템과 직원 및 환자들의 개인식별정보를 탈취하는 것을 목표로 한다. 패스워드 스프레이 공격은 흔히 사용되는 비밀번호 목록을 여러 계정에 대입하는 방식으로, 과거 수작업으로 진행되던 것이 이제는 생성형 AI를 통해 더욱 빠르고 광범위하게, 그리고 탐지하기 어렵게 진행되고 있다. 소셜미디어발 금융사기 확산...일반인이 범죄자로 변모하는 위험 소셜미디어에서는 수표 사기를 촬영하여 공유하는 등 금융 사기가 하나의 트렌드처럼 확산되고 있다. 일부 참여자들은 ATM에서 부도 수표를 입금하고 수표가 부도 처리되기 전에 현금을 인출하는 장면을 촬영하여 공유했다. 많은 참여자들이 이러한 행위의 법적 결과를 완전히 인식하지 못한 채 수표 사기를 저지르고 있다. 익스피리언은 이러한 트렌드성 금융 사기가 늘어날 것이며, 전문 범죄자가 아닌 일반 소셜미디어 이용자들이 새로운 사기 주체가 될 것으로 예측했다. 제4세대 AI 봇의 등장...보안 우회 능력 대폭 강화 최근 등장한 제4세대(Gen4) 봇은 기존의 봇 공격을 한 단계 진화시켰다. AI 도구로 제작되고 인간의 행동을 정교하게 모방하도록 학습된 이 봇들은 기존의 탐지 시스템을 쉽게 우회하고 방화벽과 보안 체계를 무력화할 수 있다. 익스피리언은 제4세대 봇 공격에 대응하기 위해서는 행동 분석 기반의 보안 체계 구축이 필수가 될 것이라고 전망했다. 기업과 소비자의 사이버 보안 우려 심화...포괄적 대응 전략 필요 조사 결과에 따르면 기업의 75%가 사이버 범죄를 최우선 우려사항으로 꼽았으며, 소비자의 절반 이상이 온라인 활동의 안전성에 대해 우려를 표명했다. 익스피리언의 최고혁신책임자 캐슬린 피터스(Kathleen Peters)는 "2025년 사이버 보안은 첨단 기술, 소비자 인식 제고, 진화하는 위협에 대한 지속적인 적응이 결합된 포괄적인 접근이 필요하다"면서 "기업들은 데이터, 고급 분석, 기술을 활용한 혁신적이고 다층적인 사기 예방 전략에 투자해야 한다"고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 14:03AI 에디터

AI 없으면 학습 못해?…대학생 10명 중 8명 "AI로 공부"

대학생들이 인공지능(AI)을 활용해 학습하는 비율이 급증하고 있다. 글로벌 교육 플랫폼 Chegg가 발표한 '2025 Global Student Survey'에 따르면, 전 세계 대학생의 80%가 AI 도구를 사용해 공부하고 있으며, AI가 학습 방식에 미치는 영향이 갈수록 커지고 있는 것으로 나타났다. 특히, AI를 활용하는 학생들의 학업 성취도가 눈에 띄게 향상되었으며, 대학들도 AI 교육 도입 필요성을 인식하기 시작했다. (☞ 보고서 바로가기) 대학생 80% AI 활용… 학습 속도 향상과 과제 수행 능력 개선 보고서에 따르면, AI를 학습에 활용하는 대학생 비율은 80%로, 2023년 대비 증가했다. 특히 인도네시아(90%), 말레이시아(90%) 등 일부 국가에서는 AI 활용도가 압도적으로 높았다. 반면, 캐나다(83%), 미국(68%) 등에서는 상대적으로 낮은 수치를 보였지만, 여전히 AI 사용이 보편화되고 있는 것으로 나타났다. 학생들이 AI를 가장 많이 활용하는 분야는 '학업 과제 수행(67%)'으로, AI는 이제 대학생들의 필수 학습 도구로 자리 잡고 있다. 그 외에도 '커리어 개발(43%)'과 '개인 업무 정리(42%)' 용도로도 AI를 활용하는 사례가 많았다. 특히, AI를 사용한 학생들 중 56%는 '개념을 더 쉽게 이해하는 데 도움을 받는다', 55%는 '학습 속도가 향상되었다'고 응답했다. 과제 수행 능력 향상을 체감한 학생은 49%에 달했다. 또한, AI는 학습 일정 관리에도 영향을 미쳤다. 41%의 학생들이 AI 덕분에 학업을 더 효율적으로 관리할 수 있다고 답했다. 이는 AI가 단순한 정보 제공 도구가 아니라, 학습 방법 자체를 변화시키고 있음을 보여준다. AI가 교수보다 더 중요한 학습 도구로… 29%가 AI를 먼저 찾는다 AI는 기존 학습 도구를 빠르게 대체하고 있다. 보고서에 따르면, 학생들이 어려운 개념을 접했을 때 가장 먼저 도움을 요청하는 대상이 AI 도구(29%)였다. 이는 2023년 대비 190% 증가한 수치로, 기존의 '온라인 무료 자료(24%)', '친구 및 동료(15%)', '강의 자료(14%)', '교수/조교(8%)'보다 높은 순위를 기록했다. 특히, AI를 활용하는 학생들은 기존의 강의 자료나 교수보다 AI가 더 신속하고 개인화된 학습 경험을 제공한다고 평가했다. AI가 점점 더 학생들의 주요 학습 도구로 자리 잡으면서, 대학 강의에서의 AI 활용이 필수 요소가 될 가능성이 높아지고 있다. AI 교육이 필수, 학생 69%가 AI 커리큘럼 도입 원해 활용 교육을 제공해야 한다는 요구도 증가하고 있다. 이번 조사에서 69%의 학생이 대학이 AI 관련 도구를 제공해야 한다고 응답했으며, 이 수치는 2023년(65%) 대비 증가했다. 또한, 40%의 학생들은 AI가 결합된 환경에서 대학 학위가 더 가치 있을 것이라고 평가했다. 학생들이 AI 교육을 원한다고 답한 주요 이유 중 하나는 AI 기술이 점점 더 미래의 직업 환경에서 필수적인 요소가 되고 있기 때문이다. 학생들은 AI를 단순한 보조 학습 도구가 아니라, 취업과 커리어 개발의 중요한 요소로 인식하고 있다. AI 기술의 발전과 함께 대학들은 AI 교육을 보다 적극적으로 도입할 필요성이 커지고 있다. 특히, 학생들의 50%는 '교육용 AI 도구가 별도로 개발되기를 원한다', 49%는 'AI 응답의 정확도를 높이기 위해 인간 전문가가 개입하는 시스템이 필요하다'고 응답했다. 또한, 38%는 데이터 프라이버시 보호 기능이 강화되기를 원했다. 이는 AI 학습 도구의 발전과 함께 신뢰성과 보안에 대한 우려도 커지고 있음을 시사한다. AI가 바꿔놓은 대학 강의실… AI 활용이 학습 격차를 줄인다 AI가 대학 학습 환경을 혁신하면서, AI를 적극적으로 활용하는 학생과 그렇지 않은 학생 간의 학습 격차도 커지고 있다. AI를 활용하는 학생들은 더 높은 성취도를 보이는 반면, AI를 사용하지 않는 학생들(20%)은 학습 효과에서 상대적으로 불리한 위치에 있는 것으로 조사됐다. 보고서에 따르면, AI를 사용하지 않는 학생들의 주요 이유는 'AI 정확도에 대한 불신(38%)', '대학의 AI 사용 제한(33%)', 'AI를 사용하면 부정행위로 간주될까 봐 우려(45%)' 등이었다. 특히, AI의 신뢰성과 윤리적 문제를 둘러싼 논란이 계속되면서, 대학 차원에서 보다 명확한 AI 사용 가이드라인을 마련해야 할 필요성이 대두되고 있다. 또한, AI의 도입이 활발한 국가와 그렇지 않은 국가 간의 격차도 존재했다. 사우디아라비아(81%), 캐나다(70%), 인도(69%)에서는 AI를 하루 한 번 이상 사용한다고 응답한 비율이 높았으며, 미국(55%)과 영국(53%)에서는 상대적으로 낮았다. 이는 AI 활용 환경이 국가별로 다르며, 교육 정책과 대학의 AI 지원 여부에 따라 활용률이 달라질 수 있음을 시사한다. AI는 이제 대학 필수 도구… 학습 방식의 근본적인 변화 이번 조사에서 드러난 가장 중요한 변화는 AI가 대학 학습에서 필수적인 요소가 되고 있다는 점이다. 학생들은 AI를 단순한 보조 학습 도구가 아니라 핵심적인 학습 및 연구 파트너로 활용하고 있으며, AI 없이 학습하는 것이 점점 더 어려워지고 있다. AI의 발전이 지속되는 가운데, 대학들은 AI 활용을 적극적으로 도입하고, AI를 활용한 학습 환경을 개선해야 한다. AI 기술을 어떻게 효과적으로 활용할 것인지, 그리고 윤리적 문제와 신뢰성 문제를 어떻게 해결할 것인지가 앞으로의 중요한 과제가 될 전망이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다.

2025.02.04 19:04AI 에디터

챗GPT 정치적 성향은 '좌파?'…근거는

챗GPT, 실제 미국인보다 73% 더 진보적 성향 보여 영국 이스트앵글리아대학교의 파비오 모토키(Fabio Y.S. Motoki) 교수와 브라질 연구진이 Journal of Economic behavior and Organization에 발표한 연구에 따르면, 챗GPT(ChatGPT)가 미국 평균 시민들보다 더 진보적인 성향을 보이는 것으로 나타났다. 연구진은 퓨 리서치 센터의 정치 유형 설문을 활용해 챗GPT의 응답을 분석했는데, 챗GPT가 일반 미국인을 가장했을 때의 진보성 계수는 0.752로, 실제 평균 미국인의 0.447보다 약 73% 높게 나타났다. 이는 각 답변당 200회의 반복 테스트를 통해 검증된 결과다. 특히 이번 연구는 현재 챗봇 시장의 약 60%를 점유하고 있는 OpenAI의 주력 모델인 GPT-4를 대상으로 진행되었다. (☞ 논문 바로가기) 19개 정치 주제 분석 결과, 68%가 좌파 성향 연구진이 챗GPT에게 정부 규모, 인종 평등, 공격적 발언 등 19개 주제로 텍스트를 생성하도록 한 결과, 13개(68%)에서 좌파적 성향이 더 강하게 나타났다. '정부 규모와 서비스' 주제에서는 좌파 유사성이 0.45, 우파 유사성이 0.35로 차이가 컸으며, '공격적 발언 이슈'에서도 좌파 0.50, 우파 0.41로 좌파 성향이 뚜렷했다. 반면 '미군 우위성'에서는 우파 유사성이 0.32로 좌파(0.20)보다 높았고, '미국 우월성 의견'에서도 우파 성향(0.23)이 좌파(0.19)보다 강했다. 연구진은 RoBERTa 언어 모델을 활용해 문장 이해도를 측정하여 이러한 정치적 성향을 객관적으로 분석했다. AI 이미지에서 우파 관점 생성 거부, '편향 우려' 이유로 챗GPT는 달리-3(DALL·E 3)를 통한 이미지 생성에서 인종 평등, 사회적 인종 격차, 트랜스젠더 수용성 등 3개 주제에 대해 우파적 관점의 이미지 생성을 명시적으로 거부했다. 연구진이 개발한 '메타 스토리' 전략을 사용했을 때만 이미지가 생성됐으나, 생성된 이미지나 설명에서도 공격적이거나 부적절한 내용은 발견되지 않았다. GPT-4V와 GPT-4, 그리고 Google의 Gemini Pro 1.0 세 평가자 모두 좌파 관점의 이미지가 평균적 관점의 이미지와 더 유사하다고 판단했다. 2024년 전 세계 인구 49% 영향받는 선거에서 AI 영향력 우려 2024년에는 최소 64개국과 유럽연합에서 국가 선거가 예정되어 있으며, 이는 전 세계 인구의 약 49%에 해당한다. 특히 미국인들의 AI 우려도 급증해, 일상생활에서 AI 역할 증가를 우려하는 비율이 2022년 38%에서 2023년 52%로 크게 증가했다. 투명성, 정보 정확성, 가짜 콘텐츠와 허위정보의 자동 생성이 주요 도전 과제로 지적되고 있다. AI 챗봇, 검색에서 저널리즘까지 범용 기술로 자리잡아 연구는 AI 챗봇이 검색 엔진(구글, 마이크로소프트), 저널리즘(AP통신, 로이터), 교육, 연구, 컨설팅, 추론, 감성 분석, 경제 모델링 등 다양한 분야에서 활용되고 있다고 밝혔다. 특히 18-29세 미국인의 43%가 이미 챗GPT를 사용하고 있어, 허위정보에 가장 취약한 이 연령대의 AI 노출이 우려된다고 지적했다. 더욱이 퓰리처상 후보들도 이미 AI를 활용한 글쓰기 지원에 의존하고 있어, AI의 영향력이 저널리즘 분야에서도 빠르게 확대되고 있다. AI 편향성이 민주주의 가치 위협할 수 있다는 경고도 연구진은 챗GPT의 편향성이 단순한 기술적 문제를 넘어 민주주의 가치를 위협할 수 있다고 경고했다. 특히 AI 개발사들의 투명성과 책임성이 부족한 상황에서, AI가 허위정보를 확산시키고 사회적 분열을 심화시킬 수 있다고 우려했다. 또한 온라인 검색을 통한 허위정보 평가가 오히려 해당 정보의 진실성 인식을 높일 수 있다는 점도 지적했다. 연구진은 AI 개발자들과 규제 기관에 더 큰 투명성과 책임성을 촉구하며, 이러한 위험을 사전에 식별하고 완화하기 위한 적극적인 조치가 필요하다고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.04 14:28AI 에디터

군사 분야로 확대된 AI…벌써부터 걱정되는 이유

카이스트 연구진이 발표한 논문에 따르면, 연합학습(Federated Learning) 기반의 군사용 대규모 언어모델(LLM)이 새로운 보안 위험에 직면해 있다. (☞ 논문 바로가기) 의료·금융 분야에서 검증된 연합학습, 이제는 군사 분야로 확대 최근 인텔 가우디(Intel Gaudi)와 같은 전문 AI 하드웨어의 발전으로 국방 분야의 AI 활용이 가속화되고 있다. 미국 국방부는 이미 학계, 산업계, 동맹국들과 협력하여 데이터 관리와 책임있는 AI 개발을 위한 연합학습 도입을 적극 추진하고 있다. 연합학습은 실시간으로 변화하는 위협과 전장 상황에 AI 모델을 신속하게 적응시킬 수 있으며, 원시 데이터 대신 모델 업데이트만을 교환하여 통신 효율성도 높일 수 있다. 군사 LLM 4대 보안 위협: 기밀유출부터 허위정보까지 연구진이 밝혀낸 네 가지 주요 취약점은 각각 독특한 공격 방식을 가지고 있다. 기밀 데이터 유출 공격의 경우, 공격자는 전문가 검증을 통해 추출된 정보의 정확성을 확인하고 불필요한 데이터를 걸러내어 효과적으로 기밀을 수집한다. 무임승차 공격은 연합 모델의 전반적인 품질을 저하시키고 동맹국 간 신뢰를 약화시킨다. 시스템 교란 공격자는 집계된 모델과 개별 튜닝된 버전을 비교하며 가장 효과적인 오류 주입 방법을 찾아낸다. 허위정보 유포의 경우, 공격자는 지역 데이터셋과 결합된 모델 가중치를 모두 수정하여 이중 경로로 허위정보를 전파한다. 인간-AI 협력 방어체계: 실시간 워게임 시뮬레이션과 자동 교정 방어 체계의 핵심은 레드팀-블루팀 워게이밍이다. 레드팀 LLM이 인식된 취약점을 공격하면, 블루팀 LLM이 실시간으로 적응형 대응책을 개발한다. 이 과정에서 군사 도메인 전문가들이 전술과 결과를 검증하여 방어 대책이 실제 시나리오에 부합하는지 확인한다. 충분한 방어 능력이 확인되면 품질보증 단계로 넘어가는데, 여기서 QA LLM이 배포된 모델의 이상이나 공격 시도를 지속적으로 감시한다. 다층적 정책 검증: AI와 전문가의 단계별 승인 체계 정책 프레임워크는 세 단계의 검증을 거친다. 먼저 정책 전문가들이 각 제안을 기존 방위 기준과 임무별 요구사항에 비추어 평가한다. 이어서 AI 기반 위험 모델이 새로 도입된 수정안이 보안을 약화시키거나 운영상 병목을 만들지 않는지 재분석한다. 마지막으로 도메인 전문가들이 전략적, 전술적 타당성을 검증하여 진행 중인 임무나 정당한 정보 교환을 저해하지 않는지 확인한다. 암호 기술과 국제 표준화: 차세대 보안 강화 방안 연구진은 미래 보안 강화를 위한 구체적 방안도 제시했다. 제로지식 증명으로 데이터 주권을 보호하고, 차분 프라이버시로 개인정보를 보호하며, 준동형 암호화로 암호화된 상태에서 데이터 처리가 가능하도록 한다. 또한 블록체인 기반 감사로 추적성을 확보하고, 고도화된 이상 탐지 알고리즘으로 시스템 무결성을 강화할 것을 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.04 14:17AI 에디터

의료 AI 진단 정확도 9.64% 높인 새 학습법…비결은?

의사처럼 단계적으로 배워야…기존 의료 AI의 한계 지적 워싱턴대학교와 노스캐롤라이나대학교 연구진의 논문에 따르면, 현재의 의료 AI 시스템들은 실제 임상 현장에서의 추론 과정을 제대로 반영하지 못하고 있다. 이는 대부분의 의료 AI가 정적인 텍스트와 단순 질의응답 작업으로만 훈련되고 평가되기 때문이다. 실제 임상 현장에서는 환자 병력 검토부터 임상 소견 분석, 검사 결과 해석을 거쳐 종합적인 진단 결론에 이르는 체계적인 진단 조사가 필수적이다. 의사는 현재 증상에 대한 추가 질문이나 검사 필요성을 판단하는 반복적인 과정을 거치는데, 현재의 단순 선택형 문제 형식으로는 이러한 실제 진료 과정의 복잡성을 담아내지 못하고 있다는 것이 핵심적인 문제로 지적됐다. (☞ 논문 바로가기) 대화형 학습으로 LLaMA 3.2 모델 정확도 21.4% 향상 연구팀이 개발한 새로운 벤치마크 '머디 메이즈(Muddy Maze)'는 실제 의료 현장의 진단 과정을 정교하게 모사했다. 이 방식으로 학습된 LLaMA 3.2 모델은 일회성 평가에서 단일 정확도가 21.4%, 다중 정확도는 8.25% 향상됐다. 특히 Qwen 2.5 모델은 기본 난이도 태스크에서 다중 라운드 추론 시 9.64%의 단일 정확도 향상과 4.37%의 다중 정확도 향상을 보여줬다. 진단은 단계적 과정…3단계 난이도의 실전형 평가 시스템 전체 벤치마크의 45%를 차지하는 도전 과제와 35.4%를 차지하는 고급 과제, 19.6%를 차지하는 기본 과제로 구성된 3단계 난이도 시스템을 도입했다. 기본 단계는 MedQA Step 1 문제를 바탕으로 하며, 고급 단계는 MedQA Step 2와 3, MedBullets 문제들을 포함한다. 가장 높은 단계인 도전 과제는 JAMA Challenge의 실제 임상 사례들을 활용해 현실 의료 환경의 복잡성을 반영했다. 엔트로피 감소 이론으로 입증한 대화형 학습의 우수성 연구진은 대화형 학습의 효과를 엔트로피 감소 관점에서 분석했다. 의사가 환자와의 대화를 통해 점진적으로 불확실성을 줄여나가는 것처럼, AI도 대화를 통해 진단의 불확실성(엔트로피)을 단계적으로 감소시킨다는 것을 수학적으로 입증했다. 이는 조건부 상호 정보량 I(D; enew|Et)가 항상 비음수라는 사실을 통해 확인됐다. 잡음 환경에서도 강건한 성능 유지하는 대화형 모델 실제 의료 환경의 다양한 노이즈 상황에서도 대화형 학습 모델은 우수한 성능을 보였다. LLaMA 3.2-3B 모델은 노이즈 레벨 0과 1에서 각각 2.82%와 6.18%의 성능 향상을 보였으며, Qwen 2.5 모델은 노이즈 레벨 1에서 2.53%, 레벨 5에서도 2.28%의 향상된 성능을 유지했다. 의료 AI의 실용화를 위한 과제와 전망 연구진은 이번 연구의 한계점으로 대화 생성 과정에서 발생할 수 있는 AI의 환각 현상과 의사소통 스타일의 다양성 반영 문제를 지적했다. 향후 더 광범위한 의료 분야로의 확장과 함께 이러한 한계점들을 보완하는 연구를 진행할 예정이다. 특히 환자 개인정보 보호와 의료 데이터 보안 규정 준수에 대한 엄격한 기준도 마련할 계획이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.03 21:52AI 에디터

부모와 함께하는 시간 늘리고 정서발달까지... AI로 아이들 정서교육 돕는다

MIT 미디어랩과 애플이 공동 발표한 연구에 따르면, 5-8세 아동들은 하루 평균 3시간을 기기를 통한 미디어 소비에 사용하며, 대부분의 시간을 영상 시청에 할애하고 있다. 부모들은 자녀의 미디어 소비가 학습과 감정적 필요에 도움이 되기를 바라지만, 실제로는 시간과 관심의 부족으로 자녀와 함께하는 미디어 시청이 어려운 실정이다. 이러한 현실에서 연구진은 아동의 독립적인 영상 시청을 사회정서학습(SEL)으로 연결하는 'eaSEL' 시스템을 개발했다. 이 시스템은 대규모 언어모델(LLM)을 활용해 영상 속 사회정서적 순간을 감지하고, 아동을 위한 성찰 활동을 생성하며, 부모와 자녀 간의 대화를 촉진하는 기능을 제공한다. (☞ 논문 바로가기) 연구팀은 eaSEL 시스템에 자기인식, 자기관리, 사회적 인식, 관계 기술, 책임있는 의사결정 등 5가지 핵심 역량을 포함시켰다. 아동들은 영상 시청 후 그리기, 이야기 만들기, 개인 경험 공유, 역할극 등 다양한 활동에 참여할 수 있다. 시스템은 위스퍼(Whisper)를 사용해 영상을 전사하고, GPT-4 ChatCompletion API를 통해 SEL 감지와 활동 생성을 수행한다. 특히 부모 인터페이스는 영상 요약, SEL 주제 개요, 자녀의 활동 결과물을 제공하여 부모-자녀 간 의미 있는 대화를 유도한다. 기술 평가에서 GPT-4는 대부분의 사회정서적 기술을 70% 이상의 정확도로 감지했다. '다양성 존중하기'(97.67%)와 '정확한 자기인식'(93.02%) 영역에서 특히 높은 성능을 보였다. 다만 '사회적 기술 시연하기' 영역에서는 41.86%의 상대적으로 낮은 성능을 보여, 사회적 추론 과제에서 한계를 드러냈다. 생성된 아동 활동의 경우, 90% 이상이 SEL 기술과 관련성이 높았으며, 99%가 성찰을 촉진하는 것으로 평가되었다. 하지만 5-8세 아동에게 적합한 언어 사용 측면에서는 개선이 필요한 것으로 나타났다. 20쌍의 부모-자녀 대상 실험에서 eaSEL 활동을 수행한 아동들은 일반 시청(M = 0.040)에 비해 감정 관련 단어 사용이 58% 증가했다(M = 0.058). 한 아동은 "친절하다"와 "안아주다"와 같은 감정 단어를 사용하며 "친구들에게 친절하게 대하는 것이었고, 그들은 서로 안아주고 이제 소녀가 되었어요"라고 이야기를 다시 들려주었다. 부모 인터페이스는 영상 요약, SEL 주제 개요, 자녀의 활동 결과물과 함께 대화 시작점을 제공한다. 인터뷰에서 한 부모는 "우리는 목적 없이 많은 쇼를 보는데, 이 도구는 건설적이고 목적이 있는 것 같다"고 평가했다. 특히 부모들은 자녀의 창작물을 통해 사회정서적 요구를 파악할 수 있다는 점을 긍정적으로 보았으며, 자신들의 SEL 지식도 향상되어 자녀와의 대화가 더욱 풍부해졌다고 응답했다. 연구진은 콘텐츠 안전성, 연령 적합성, 문화적 다양성 반영에서 개선이 필요하다고 지적했다. 특히 아동 중심의 언어 모델 개발이 시급하며, 부적절한 콘텐츠를 필터링하는 시스템도 강화해야 한다고 강조했다. 또한 독립적 사용 맥락에서 부모의 콘텐츠 중재 기능을 어떻게 통합할 것인지도 향후 연구 과제로 제시했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.03 21:47AI 에디터

"딥시크 개발비 82억은 과장…총 비용은 50배 이상"

세미애널리시스(SemiAnalysis)가 지난달 31일 보도한 내용에 따르면, 딥시크의 V3 모델 학습 비용이 600만 달러(약 78억원)로 알려졌으나, 이는 단순 사전학습 비용일 뿐이다. R&D, 하드웨어 총소유비용(TCO) 등을 포함한 실제 비용은 이보다 훨씬 높을 것으로 확인된다. 현재 중국 AI 기업 딥시크는 저비용 고성능 AI 모델로 세계 AI 시장의 판도를 바꾸고 있다. 저렴한 개발 비용이 화재가 되면서, 딥시크는 현재 클로드(Claude), 퍼플렉시티(Perplexity), 제미나이(Gemini)보다 더 높은 일일 트래픽을 기록하고 있다. 이는 단순한 신생 기업의 성공을 넘어 AI 업계 전반에 큰 파장을 일으키고 있다고 해석된다. 딥시크는 약 5만대의 호퍼(Hopper) GPU를 보유하고 있다. 이 중 H100 1만대와 H800 1만대를 포함하고 있으며, 중국 전용 모델인 H20도 다수 주문한 상태다. 서버 설비 투자 비용은 약 16억 달러(약 2조원), 운영 비용은 9억 4천만 달러(약 1조 2천억원)에 달한다. 또한,딥시크는 중국 내 최고 대학 출신 인재를 적극적으로 영입하고 있다. 유망한 인재에게는 연봉 130만 달러(약 17억원)까지 제시하며, 현재 약 150명의 직원이 근무하고 있다. 세미애널리시스의 분석에 따르면, 딥시크는 다중토큰예측(Multi-Token Prediction, MTP)과 다중헤드잠재어텐션(Multi-head Latent Attention, MLA) 등 혁신적인 기술을 도입했다. 특히 MLA 기술은 기존 대비 메모리 사용량을 93.3% 감소시켰다. 현재 딥시크는 시장 점유율 확대를 위해 원가 수준의 추론(inference) 서비스를 제공하고 있으며, 이는 엔비디아(NVIDIA)의 AI 가속기 시장에도 영향을 미치고 있다. ■ 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.03 15:03AI 에디터

AI가 학생 글쓰기 첨삭했더니...6명 중 5명 실력 향상

GPT로 3500만 토큰 학습했더니 사람보다 나은 피드백 제공 일리노이 어바나-샴페인 대학교 연구진이 발표한 사례 연구에 따르면, CGScholar AI Helper를 활용한 인공지능 피드백이 11학년 학생들의 글쓰기 능력 향상에 긍정적인 영향을 미친 것으로 나타났다. 2000년부터 빌 코프와 메리 칼란치스가 이끄는 연구팀은 온라인 학습 환경을 개발해왔으며, 2023년 초 오픈AI의 GPT 시리즈를 기반으로 한 AI 리뷰 컴포넌트를 CGScholar 플랫폼에 통합했다. 특히 2024년에는 지난 5년간의 대학원생과 강사들의 모든 작업을 포함한 3500만 토큰 규모의 벡터 데이터베이스를 구축했고, 그 결과 학생들은 AI 리뷰가 동료 리뷰보다 더 우수하다고 평가했다. 저소득층 학교에서 진행된 혁신적인 AI 교육 실험 이번 연구는 미국 중서부의 한 저소득층 공립학교에서 진행되었다. 총 824명이 재학 중인 이 학교는 백인 35%, 히스패닉 30%, 흑인 24%로 구성되어 있으며, 9학년 233명, 10학년 235명, 11학년 184명, 12학년 175명이 재학 중이다. 교사 대 학생 비율은 1:13이며, 전체 중퇴율은 2.8%로 특히 히스패닉 학생들 사이에서 높게 나타났다. 연구에는 교육학 석사학위를 2개 보유하고 박사과정을 진행 중인 열정적인 영어 교사 1명과 그의 23명의 학생 중 자발적으로 참여를 희망한 6명의 학생이 참여했다. 교사의 기준에 맞춘 AI 피드백…CGScholar의 차별화된 접근 CGScholar AI Helper는 6가지 평가 기준을 바탕으로 피드백을 제공했다. 평가 기준은 '비교와 대조', '식별', '작문', '소개와 연결', '증거 지원', '분석'으로 구성되었으며, 각각 0-4점 척도의 별점과 상세한 텍스트 피드백을 제공했다. 학생들은 "거북이 등 위의 세계"와 "세 자매들의 원주민 농장 귀환" 두 텍스트에서 자연, 균형, 전통이라는 원주민의 가치가 현재까지 어떻게 이어지고 있는지 분석하는 200단어 분량의 과제를 수행했다. 0점에서 2점까지…학생들의 놀라운 실력 향상 평가 결과를 보면, '비교와 대조' 부문에서 3명의 학생이 점수가 향상되었는데, 2명은 1점에서 2점으로, 1명은 0점에서 2점이라는 큰 폭의 향상을 보였다. '작문'과 '분석' 부문에서는 각각 2명의 학생이 2점에서 3점으로 향상되었으며, '소개와 연결' 부문에서는 1명이 2점에서 3점으로 향상되었다. 한 예로, 처음에는 비교 분석을 전혀 하지 못했던 학생이 AI의 피드백을 받은 후 두 텍스트의 전통과 자연에 대한 공통된 가치를 성공적으로 찾아내어 분석했다. 교실에서의 AI는 통제되어야 한다…연구진의 제언 연구진은 "생성형 AI는 교육 맥락에서 중재되지 않은 채 사용되기에 적합하지 않다"고 강조했다. 이를 위해 프롬프트 엔지니어링과 교사의 평가 기준을 통한 정교화라는 두 가지 방식으로 AI를 재보정했다. 연구진은 이런 접근이 학생들이 단순히 AI에 의존하는 것이 아닌, AI와 상호작용하며 의미 패턴을 인식하고 문법 기술을 습득하는 '사이버-소셜 리터러시 학습'을 가능하게 한다고 설명했다. 학생들의 의견 반영한 시스템 개선 초기 구현 이후 학생들은 AI 피드백이 너무 길고 언어가 복잡하다는 의견을 제시했다. 이에 연구팀은 각각의 피드백 아래에 채팅창을 추가하여 학생들이 긴 피드백을 요약하거나 복잡한 용어에 대해 질문할 수 있도록 했다. 향후에는 교사나 학생이 선호하는 피드백의 길이를 직접 설정할 수 있는 기능도 추가될 예정이다. 이 연구는 K-12 교육에서 AI 기반 도구의 영향을 조사한 최초의 중재 기반 실증 연구 중 하나로서, AI가 포용적이고 공평한 학습을 촉진할 수 있는 가능성을 보여주었다. AI 글쓰기 도구의 현황과 가능성 최근 교육 현장에서 그래머리(Grammarly), 챗GPT(ChatGPT), 퀼봇(QuillBot) 등 AI 기반 글쓰기 도구들이 주목받고 있다. 송(Song) 등의 2023년 연구에 따르면, 그래머리와 같은 도구들은 문법과 구조를 개선하는 적응형 피드백을 제공하며, 마르주키(Marzuki) 등의 2024년 연구는 이러한 도구들이 학생들의 고차원적 글쓰기 능력 향상에 도움을 준다고 밝혔다. 마하파트라(Mahapatra)의 2024년 연구에서는 AI 도구들이 즉각적인 피드백을 통해 학생들의 글쓰기 참여도를 높인다는 점이 확인되었다. 전문가들의 우려와 제언 하지만 자이(Zhai) 등은 2024년 연구에서 AI에 대한 과도한 의존이 학생들의 독자적인 글쓰기 능력 발달을 저해할 수 있다고 경고했다. 파라하니(Farahani)와 가세미(Ghasemi)는 2024년 연구에서 AI 시스템의 잠재적 편향성이 적절히 관리되지 않으면 교육 불평등을 심화시킬 수 있다고 지적했다. 베어만(Bearman) 등은 2022년 연구에서 맞춤형 피드백을 위해 개인 데이터에 접근해야 하는 프라이버시 문제도 제기했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.03 14:13AI 에디터

오픈AI 'o3-미니' 뭐가 좋길래…초보자도 이해하기 쉽게 설명합니다

OpenAI가 최근 새로운 AI 모델 'O3-미니'를 공개했습니다. 저비용 고성능으로 AI 시장을 강타한 딥시크의 등장으로 주목받고 있는 이 모델은, 기존 O1 대비 더 빠른 처리 속도와 경제성을 갖추면서도 고도의 추론 능력까지 갖춰 업계의 이목을 집중시키고 있습니다. (☞오픈AI o3-미니 기사 바로 보기) 아래는 오픈AI가 o3-미니를 소개하는 메일의 일부입니다. 안녕하세요, 이제 OpenAI o1 및 OpenAI o3-mini 모델을 API에서 사용할 수 있습니다. o1은 더 넓은 세계 지식을 보유한 대형 추론 모델이며, o3-mini는 비용 최적화된 새로운 소형 추론 모델입니다. 두 모델 모두 함수 호출(Function Calling), 구조화된 출력(Structured Outputs), 개발자 메시지를 지원합니다. 특히 o3-mini는 코드 작성 및 기타 추론 작업에서 o1을 능가할 수 있으며, o1보다 93% 저렴하고 훨씬 빠르며 스트리밍도 지원합니다. 이 모델들은 또한 세 가지 추론 강도 옵션(낮음, 중간, 높음)을 제공하여, 특정 사용 사례에 맞춰 성능을 최적화할 수 있습니다. 즉, 복잡한 문제를 해결할 때는 "더 깊이 사고(thinking harder)"하도록 설정하거나, 속도를 우선할 수도 있습니다. 또한, Chat Completions API, Assistants API, Batch API에서 즉시 사용할 수 있으며, 200,000 토큰의 대형 컨텍스트 윈도우와 최대 100,000 토큰의 출력을 지원합니다. 설명만 보면 일반인에게 어떤 부분이 좋은 것인지 이해하기 어려운데요. GPT에게 좀 더 이해하기 쉽게 예를 들어 설명을 요청했습니다. AI 모델, 어떻게 다를까?","headingStyle":"style1"} /--> 이번에 공개된 o1과 o3-mini는 각각 다른 장점을 가지고 있습니다. 쉽게 비유하자면, o1은 박사 과정의 전문가, o3-mini는 실무 경험이 풍부한 고속 비서라고 할 수 있습니다. o1 모델: 방대한 정보를 다루며 깊이 있는 논리적 사고를 할 수 있는 고급 AI입니다. 복잡한 질문에 대한 답을 찾거나 심층 분석이 필요할 때 유용합니다. o3-mini 모델: 비용이 저렴하면서도 빠르게 답을 제공하는 AI입니다. 실용적인 문제 해결과 코드 작성 등의 작업에서 강력한 성능을 보입니다. 어디에 활용할 수 있을까?","headingStyle":"style1"} /--> 이 AI 모델들은 여러 분야에서 유용하게 활용될 수 있습니다. 예를 들어: ✔️ 일반 사용자: 챗봇과 대화하며 궁금한 점을 해결하고, 이메일이나 문서를 빠르게 작성하는 데 도움을 받을 수 있습니다. ✔️ 개발자: 코드를 작성하거나 디버깅할 때 빠르고 정확한 조언을 받을 수 있습니다. ✔️ 기업 및 연구자: 데이터 분석, 전략 기획, 복잡한 문제 해결을 위한 보조 도구로 활용할 수 있습니다. 더 똑똑하게 사고하는 AI!","headingStyle":"style1"} /--> 흥미로운 점은, 이번 AI 모델들이 세 가지 '생각하는 깊이'(Reasoning Effort) 옵션을 제공한다는 것입니다. 사용자는 문제의 복잡도에 따라 AI가 얼마나 깊이 사고할지를 조정할 수 있습니다. 낮음 (Low): 빠르게 대답하지만 깊이 있는 분석은 부족할 수 있음 중간 (Medium): 속도와 논리적 사고의 균형을 유지 높음 (High): 깊이 있는 사고가 필요할 때 사용하지만 시간이 더 걸릴 수 있음 이 기능 덕분에, AI를 단순한 질문부터 복잡한 문제 해결까지 다양한 방식으로 활용할 수 있습니다. 200,000 토큰? 이게 무슨 뜻일까?","headingStyle":"style1"} /--> 이번 모델들은 최대 200,000 토큰(AI가 기억할 수 있는 문장의 길이)을 지원합니다. 쉽게 말해, AI가 과거 대화를 더 길게 기억할 수 있어 보다 자연스러운 대화가 가능합니다. 또한, 한 번에 최대 100,000 토큰의 답변을 생성할 수 있어, 긴 문서나 논문을 AI가 직접 작성하는 것도 가능해집니다. 이처럼 OpenAI의 새로운 AI 모델들은 '전문가의 깊이'와 '비서의 효율성'이라는 두 가지 장점을 모두 제공합니다. o1으로 깊이 있는 분석을, o3-mini로 빠른 실무 지원을 받을 수 있게 된 것이죠. 특히 사용자가 원하는 대로 AI의 '생각하는 깊이'를 조절할 수 있다는 점은, 마치 상황에 따라 전문가와 비서를 골라 쓸 수 있는 것과 같습니다. 앞으로 AI는 우리의 일상에서 더욱 자연스러운 동반자가 될 것입니다. 박사급 전문가처럼 깊이 있게 생각하거나, 빠른 비서처럼 효율적으로 일하는 AI와 함께라면, 우리의 업무와 일상이 한층 더 스마트해질 것입니다. OpenAI의 이번 발표는 그런 미래로 가는 또 하나의 의미 있는 발걸음이 될 것입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.01 17:37AI 에디터

알파세대 70% "AI 신뢰"…부모 75%는 "부정적 영향 우려"

알파세대(Generation Alpha)가 인공지능(AI)을 자연스럽게 받아들이고 있다는 조사 결과가 발표됐다. WE Communications의 조사에 따르면 알파세대의 70%가 AI를 신뢰한다고 답했다. 구체적인 AI 서비스 활용도를 살펴보면, 애플의 음성비서 시리(Siri) 43%, 아마존의 AI 비서 알렉사(Alexa) 40%, AI 기반 음악 추천 서비스 스포티파이(Spotify) 39%, AI 이미지 처리 기술인 포토필터(Photo Filter) 30% 등으로 나타났다. 이는 알파세대가 AI 기술을 일상생활의 자연스러운 도구로 받아들이고 있음을 보여준다. (☞ 보고서 바로 가기) 알파세대의 디지털 기술 활용에 대한 부모 세대의 우려도 주목할 만하다. 부모의 75%가 AI가 자녀에게 미칠 부정적 영향을 걱정하는 것으로 조사됐다. 특히 주목할 점은 소셜미디어 사용에 대한 인식 차이다. 알파세대의 84%가 소셜미디어 계정을 보유하고 있지만, 부모들 중 67%만이 자녀의 소셜미디어 사용을 인지하고 있었다. 기술이 자녀의 삶에 미치는 영향에 대해서는 영역별로 상반된 시각을 보였다. 학업(School), 친구관계(Friendships), 미래 직업(Work) 측면에서는 긍정적 영향을 기대한 반면, 정신건강(Mental Health), 신체건강(Physical Health), 대인관계(Relationships) 측면에서는 부정적 영향을 우려했다. 특히 51%의 부모가 온라인 보안과 안전 문제를 심각하게 우려하는 것으로 나타났다. 알파세대는 브랜드와의 관계에서도 이전 세대와는 다른 특징을 보였다. 84%가 자신의 취향과 가치를 반영하는 브랜드를 선호한다고 응답했으며, 37%는 브랜드가 온라인에서의 인기와 개인의 취향을 동시에 반영하는 것이 중요하다고 답했다. 부모들의 53%는 자녀의 특정 관심사를 반영하는 브랜드 제품 구매에 긍정적인 태도를 보였다. 특히 주목할 만한 점은 틱톡(TikTok)의 영향력이다. 조사 대상 아동의 20%가 틱톡에서 언급되지 않은 제품은 구매하지 않겠다고 응답해, 소셜미디어가 알파세대의 소비 결정에 큰 영향을 미치는 것으로 나타났다. 알파세대와 부모 세대 모두 미래에 대해 높은 낙관론을 보였다. 알파세대의 92%와 부모의 93%가 미래를 긍정적으로 전망했다. 특히 새로운 기술과 AI의 발전이 가져올 변화에 대한 기대감이 높았다. 다만 38%의 부모만이 자녀들의 삶을 편리하게 만드는 기술 도구의 존재를 긍정적으로 평가했다는 점에서, 기술 발전에 대한 기대와 우려가 공존하는 것으로 분석됐다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.01 17:28AI 에디터

AI가 혈당 관리도 할 수 있을까… 챗GPT로 실험했더니

연구 참여 환자 78.5%, 의사보다 챗GPT-4 답변 선호 호주 CSIRO's Data61과 모나쉬 대학교의 공동 연구에 따르면, 챗GPT-4는 의학 라이선스 시험(USMLE)과 의학 지식 자가평가 프로그램(MKSAP) 등 의료 벤치마크에서 높은 성과를 보였다. 특히 근시 관련 질문에서는 80.6%의 정확도를 보여주며 이전 버전인 GPT-3.5(61.3%)와 구글 바드(54.8%)를 크게 앞섰다. (☞ 논문 바로 가기) 흥미로운 점은 환자들이 의사보다 챗GPT의 답변을 더 선호하는 경향을 보였는데, 환자 설문에서 챗GPT의 응답은 78.5%가 '좋음' 또는 '매우 좋음'으로 평가받은 반면, 의사의 응답은 22.1%에 그쳤다. 당뇨병 자가관리 상담에서 드러난 AI의 주요 문제점, 개인화 진단 역량 부족 연구팀이 발견한 주요 문제점은 다양했다. 챗GPT는 혈당 수치 단위를 자동으로 mg/dL로 가정하는 등 맥락을 고려하지 않은 채 답변했으며, 개인의 인슐린 투여 방식이나 식단 특성을 고려하지 않은 일반적인 조언을 제공했다. 특히 '혈당이 25'라는 동일한 질문에 대해 챗GPT-4는 극도로 낮은 수치로, 챗GPT-4o와 챗GPT-4o-mini는 극도로 높은 수치로 각각 다르게 해석하는 등 일관성 없는 답변을 보였다. 또한 발한과 떨림 증상이 있는 환자의 혈당이 5mmol/L일 때, 이를 가성 저혈당이 아닌 저혈당 무감지증으로 잘못 진단하는 사례도 발견됐다. AI 의료상담의 현재 성과? '의료 문서 작성'과 '교육' 분야 두각 연구에 따르면 챗GPT는 방사선 검사 보고서 해석과 의학 교육에서 긍정적인 성과를 보였다. 의료 전문가들은 챗GPT가 단순화한 방사선 보고서에 대해 5점 만점에 평균 4.27점을 부여했으며, 정보 누락은 보고서당 평균 0.08건, 부정확한 정보는 0.07건에 불과했다. 또한 전자건강기록(EHR) 해석에서도 자연어 추론에서 9.6%, 의료 질의응답에서 9.5%의 정확도 향상을 보였다. 의료 AI의 미래: RAG 기술로 정확도 높인다 연구진은 AI의 의료상담 정확도를 높이기 위해 Retrieval Augmented Generation(RAG) 기술 도입을 제안했다. RAG는 미국 국립보건원(NIH)이나 질병통제예방센터(CDC) 같은 신뢰할 수 있는 외부 데이터베이스와 AI 모델을 연결해 최신 의료 정보를 반영할 수 있게 한다. 이를 통해 환자 개개인의 건강 프로필과 최신 의료 기준에 부합하는 실시간 데이터 기반의 조언이 가능해질 것으로 기대된다. AI 의료상담의 한계? 서구 중심적 식단 제안과 영어 외 언어 지원 미흡 연구는 AI 의료상담이 서구 중심적 식단을 제안하거나 영어 외 언어 지원이 미흡한 점을 지적했다. 예를 들어, 통밀 잉글리시 머핀이나 아몬드 버터 같은 서구적 식단을 제안하는데, 이는 파키스탄과 같은 국가의 사회경제적 조건이나 식문화와 맞지 않는다. 또한 구독형 모델인 챗GPT-4는 경제적 약자들의 의료정보 접근성을 제한할 수 있다는 우려도 제기됐다. 연구진은 이러한 격차를 줄이기 위한 노력이 필요하다고 강조했다. GPT-4의 당뇨병 교육 활용은 '인슐린 펜을 보관하는 방법' 안내 수준 챗GPT는 단순한 정보 제공을 넘어 당뇨병 교육에서 활용될 수 있는 잠재력을 지니고 있다. 특히, GPT-4는 환자들의 일상적인 당뇨병 관리, 식단 조절, 운동 계획과 관련하여 가독성이 높은 설명과 유용한 지침을 제공하는 데 적합하다. 연구에서는 GPT-4가 인슐린 주사법, 저장 방법, 및 운동 계획과 관련된 세부 정보를 명확히 제공하는 사례를 언급했다. 예를 들어, "인슐린 펜을 보관하는 방법"에 대한 질문에서 GPT-4는 실온에서의 보관 가능성과 각 인슐린 유형별로 상이한 보관 지침을 상세히 설명했다. 그러나 모델이 제공한 일부 정보는 지역적 환경이나 구체적인 환자 요구를 완전히 반영하지 못했으며, 이는 의료 전문가와 협업이 필요한 부분으로 남아 있다. 신뢰를 위해서는 인간 전문가의 감독 필수적 챗GPT의 의료 상담 역량을 강화하기 위해 연구진은 여러 전략을 제안했다. 가장 중요한 전략 중 하나는 Retrieval Augmented Generation(RAG) 기법의 활용이다. RAG는 GPT-4가 실시간으로 최신 의료 데이터를 검색하고 통합할 수 있도록 해, 더 정확하고 신뢰할 수 있는 정보를 제공할 수 있게 한다. 이 방법은 환자와 의사 간의 정보 격차를 줄이는 데 큰 도움을 줄 수 있다. 또한 AI가 보다 신뢰할 수 있는 도구가 되기 위해서는 인간 전문가의 검토와 감독이 필수적이다. 특히, 고위험 상황에서 AI가 제공하는 모든 정보는 전문가의 검토를 거쳐야 하며, 모델이 의사결정을 독점적으로 수행하는 것을 방지해야 한다는 점이 강조되었다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.01 09:51AI 에디터

교황청, 'AI와 인류의 공존' 선언…이유는?

바티칸뉴스에 따르면 교황청은 28일 인공지능(AI)과 인간 지능의 관계를 다룬 '앤티쿠아 엣 노바(Antiqua et Nova)' 보고서를 발표했다. 이는 교리성(Dicastery for the Doctrine of the Faith)과 문화교육성(Dicastery for Culture and Education)이 공동으로 작성한 문서다. (☞ 보고서 원문 바로가기) 폴 티게(Paul Tighe) 문화교육성 사무총장은 "이번 문서는 AI에 대한 가톨릭교회의 여러 성찰을 종합했다"며 "챗지피티(ChatGPT)의 등장으로 일반 사용자들이 AI 도구를 직접 사용하게 되면서, 교회 차원의 대응이 필요했다"고 설명했다. 티게 사무총장은 "AI 시스템은 인간의 추론, 처리, 분별, 발견, 패턴 인식, 혁신 능력을 향상시킬 수 있다"면서도 "인간은 삶의 목적과 의미를 찾는 더 넓은 의미의 지능을 가지고 있으며, 이는 기계가 대체할 수 없는 형태의 지능"이라고 강조했다. 보고서는 AI 개발과 활용에 있어 윤리적 책임을 강조했다. 티게 사무총장은 "소셜미디어 초기에 우리는 그것의 잠재력만을 환영했지만, 양극화와 가짜뉴스 같은 부작용을 예측하지 못했다"며 "AI도 같은 전철을 밟지 않도록 해야 한다"고 경고했다. 특히 보고서는 AI 기술이 상업적, 정치적 환경 내에서 개발되면서 특정 가치에 편향될 수 있다고 지적했다. 이에 "설계 단계부터 윤리적 고려가 필요하며, 전체 인류의 경험을 반영하는 데이터베이스 구축이 중요하다"고 제안했다. 보고서는 AI가 가져올 수 있는 불평등 심화를 주요 우려사항으로 지적했다. 티게 사무총장은 "디지털화 과정에서 소수의 부유층이 막대한 권력을 갖게 된 것처럼, AI도 인류 가족의 단합을 저해할 수 있다"고 우려했다. 특히 의료 분야에서 AI의 잠재력을 인정하면서도, "의료 서비스가 이미 불공평하게 분배된 상황에서 AI로 인해 이러한 격차가 더욱 커질 수 있다"고 경고했다. 보고서는 AI 시대에 가톨릭 대학들의 역할을 강조했다. 티게 사무총장은 "가톨릭 대학들은 인문학, 철학, 신학과 함께 과학적 배경을 가진 인재들을 보유하고 있다"며 "이러한 학제간 연구를 통해 AI의 책임있는 발전 방향을 모색할 수 있을 것"이라고 전망했다. 바티칸의 이번 보고서는 AI 기술의 발전을 환영하면서도, 인류 전체의 이익을 위해 신중한 접근이 필요하다는 균형 잡힌 시각을 제시했다. 특히 이는 최종 결론이 아닌 지속적인 논의의 시작점이 될 것이라고 강조했다. ■ 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.31 10:53AI 에디터

인공지능도 코미디 가능할까…AI 코미디언 도전기

극장이 실험실로: 2024년 AI 코미디 평가의 새로운 패러다임 로봇 자동화 전문 기업 임프로보틱스(Improbotics)의 연구진이 발표한 보고서에 따르면, 코미디 공연장이 AI 유머 생성 시스템을 평가하는 최적의 실험실이 될 수 있다는 주장이 제기됐다. 온라인 평가 방식의 한계를 지적하며, 연구진은 유료 관객들과 전문 평론가들의 실시간 피드백이 AI 코미디 시스템의 성능을 평가하는 데 더 신뢰할 수 있는 방법이라고 설명했다. 특히 즉흥 코미디가 AI 시스템을 테스트하는 최적의 환경을 제공한다고 강조했다. (☞ 보고서 바로가기) 2010년 첫 등장한 로봇 코미디언: 알데바란 나오부터 휴먼머신까지 2010년 사회로봇공학자 히더 나이트(Heather Knight) 교수가 처음으로 알데바란 나오(Aldebaran Nao) 로봇으로 무대 코미디를 선보였다. 이 로봇은 카메라 센서로 관객들의 반응을 실시간으로 파악하고, 이를 바탕으로 다음 농담을 선택하는 시스템을 갖추고 있었다. 2014년에는 텍사스 오스틴의 아서 시몬(Arthur Simone)이 '봇 파티: 로봇과 함께하는 즉흥 코미디'(Bot Party: Improv Comedy with Robots)를 통해 로봇과의 즉흥 연기를 시도했다. 2016년에는 휴먼머신(HumanMachine) 듀오가 오픈서브타이틀(OpenSubtitles) 데이터로 학습된 대화 모델을 활용한 즉흥 코미디를 선보이며 AI 코미디의 새 장을 열었다. 2023년 AI vs 인간 코미디 대결: LA에서 시작된 새로운 실험 2023년, WGA 파업의 영향으로 AI와 창작자의 관계가 주목받는 가운데, 로스앤젤레스의 앨리슨 골드버그(Allisson Goldberg)와 브래드 아인슈타인(Brad Einstein)이 '코미디언스 대 AI: 기계에 맞서는 무대'를 기획했다. 이 쇼는 순수 인간팀과 ChatGPT, DALL-E를 활용하는 AI 지원팀의 대결로 구성됐다. 같은 해 뉴욕의 코미디 바이츠는 AI가 생성한 농담을 읽어주는 가상 아바타와 인간 공연자들의 랩 배틀과 코미디 로스트를 선보였다. 런던의 더 프리 어소시에이션(The Free Association)은 ChatGPT로 생성한 농담을 활용한 'AI 임프로브 쇼'를 공연했다. 2017년 시작된 코미디 튜링 테스트: 임프로보틱스의 혁신적 실험 2017년 휴먼머신 듀오는 튜링 테스트를 코미디에 도입했고, 2018년에는 임프로보틱스를 결성했다. '사이보그' 배우들은 AI가 생성한 대사를 FM 라디오 수신기로 연결된 헤드폰을 통해 전달받았다. 수백 회의 공연을 통해 다양한 즉흥극 게임을 선보였으며, 2024년 에든버러 페스티벌 프린지에서는 증강현실 안경을 도입해 배우들이 직접 AI 대사를 선택할 수 있게 했다. 가상공간으로 확장된 AI 코미디: VR부터 디스코드까지 코로나19 이후 AI 코미디는 디지털 영역으로 확장됐다. VR 코미디 클럽 '페일드 투 렌더'가 등장했고, 임프로보틱스는 2020-2021년 VR 공간에서 AI 아바타와 함께하는 공연을 진행했다. 제이콥과 연구진은 'Robot Improv Circus VR'에서 컴퓨터 비전 모델을 활용한 물리적 즉흥 게임을 선보였다. 2022년 뉴럴IPS에서는 디스코드로 진행된 'PORTAGING'이라는 AI와의 프롬프트 배틀이 화제를 모았다. AI 코미디의 새로운 활용: 다 국어 공연부터 각본 작성까지 로제타 코드(Rosetta Code)는 음성인식, 기계번역, 음성합성을 활용해 다국어 즉흥극을 선보였다. 에드먼턴의 래피드 파이어 시어터(Rapid Fire Theatre)는 2022년부터 드라마트론(Dramatron)으로 작성된 대본을 즉흥극에 활용했다. 2024년 애너스티 다넬리스(Anesti Danelis)는 에든버러 프린지에서 AI와 공동 작업한 코미디를 선보였다. AI 코미디의 미래 과제: 타이밍부터 문화적 맥락까지 연구진은 AI 코미디의 성공을 위해 세 가지 과제를 제시했다. 첫째, 나오미 피터 교수의 연구처럼 타이밍 제어가 필요하다. 둘째, 관객과의 실시간 상호작용이 중요하다. 셋째, 문화적 맥락의 이해가 필수적이다. 특히 임프로보틱스의 '사이보그' 배우들은 AI 대사의 느린 타이밍과 지연이 가장 큰 문제라고 지적했다. 연구진은 이러한 평가와 피드백이 AI 코미디 발전의 핵심이 될 것이라고 전망했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.31 10:25AI 에디터

AI 저작권 보호, 어디까지 가능할까…美 저작권청 보고서

미국 저작권청(U.S. Copyright Office)이 2025년 1월 저작권 보호 가능성에 대한 보고서 '저작권과 인공지능, 2부: 저작권 보호 가능성(Copyright and Artificial Intelligence, Part 2: Copyrightability)'를 발표했다. 보고서는 AI가 생성한 콘텐츠의 저작권 보호 여부를 둘러싼 법적·정책적 쟁점을 상세히 분석했다. 보고서는 AI가 단독으로 생성한 콘텐츠는 저작권 보호 대상이 될 수 없으며, 인간 창작자가 창작 과정에 실질적으로 기여한 경우에 한해 보호될 수 있다고 명확히 했다. 보고서는 2023년 8월 발표된 Notice of Inquiry(NOI, 의견 요청 공고)에 대한 응답으로 작성되었으며, AI 저작권 보호와 관련한 10,000개 이상의 의견을 수렴해 분석한 결과를 담고 있다. 미국 저작권청은 기존 저작권법이 AI 관련 저작권 문제를 해결하는 데 충분하며, 추가적인 법 개정은 필요하지 않다는 결론을 내렸다. 보고서는 AI 생성 콘텐츠의 저작권 보호 여부를 판단하는 주요 원칙을 다음과 같이 정리했다. (☞ 보고서 바로가기) 1. AI가 단독으로 생성한 콘텐츠는 저작권 보호 대상이 아니다 미국 저작권청은 저작권법이 '인간 창작자(human authorship)'를 전제로 한다는 기존 법적 해석을 재확인하며, AI가 단독으로 생성한 콘텐츠는 저작권 보호를 받을 수 없다고 밝혔다. 이는 기존 판례를 반영한 것으로, 특히 2023년 미국 연방법원이 AI가 생성한 이미지의 저작권 등록을 거부한 사건(Thaler v. Perlmutter)을 주요 근거로 제시했다. 법원은 "저작권은 인간이 창작한 원작(expression of human authorship)에만 부여된다"고 판결한 바 있다. 즉, AI 모델이 자동으로 생성한 텍스트, 이미지, 음악, 영상 등은 법적으로 보호받을 수 없다는 것이 미국 저작권청의 공식 입장이다. 2. AI가 창작을 보조하는 도구로 사용되었다면 저작권 보호 가능 AI가 단순히 창작 보조 도구로 사용되었을 경우, 최종 결과물은 인간 창작자의 저작권 보호를 받을 수 있다. 예를 들어: 사진 보정 소프트웨어를 이용해 이미지를 수정하는 경우 AI 도구를 활용해 작곡을 보조하는 경우 AI가 생성한 콘텐츠를 사람이 수정·배치·편집하여 최종적으로 완성한 경우 이처럼 AI가 창작을 보조하는 역할을 했으며, 인간이 최종적인 창작적 결정을 내렸다면 저작권 보호가 가능하다고 본다. 3. AI 생성물에 인간 창작자가 실질적 기여를 한 경우, 부분적으로 저작권 보호 가능 인간 창작자가 AI 생성물의 표현 방식을 결정하거나 직접 수정·편집하는 경우, 해당 창작 부분에 한해서는 저작권이 인정될 수 있다. 예를 들어: AI가 생성한 초안을 인간이 직접 수정하고 내용을 재구성한 경우 AI 생성 이미지에 인간이 추가적인 디자인을 입히고 독창적인 요소를 가미한 경우 AI가 만든 음악을 인간이 직접 편곡하거나 일부 수정한 경우 이 경우, 인간이 기여한 부분에 대해서만 저작권 보호가 가능하며, AI가 생성한 부분은 보호 대상이 되지 않는다. 4. AI 프롬프트(Prompt) 작성만으로는 저작권 보호가 불가능 리포트는 생성형 AI에 입력되는 프롬프트(Prompt)만으로는 저작권 보호를 받을 수 없다고 명확히 밝혔다. 프롬프트는 AI에게 전달되는 지시사항에 불과하며, 이는 저작권법상 보호받지 못하는 아이디어에 해당한다. 리포트는 프롬프트가 아무리 상세하더라도 AI가 이를 어떻게 해석하고 표현할지에 대한 통제력이 부족하기 때문에 인간의 창작적 기여로 인정받기 어렵다고 설명했다. 예를 들어, "고양이가 파이프를 피우며 신문을 읽는 모습"이라는 프롬프트를 입력했을 때, AI가 이를 어떻게 표현할지는 사용자가 통제할 수 없는 부분이다. 따라서 프롬프트만으로는 저작권 보호를 주장하기 어렵다는 결론을 내렸다. 리포트는 또한, 프롬프트를 반복적으로 수정하고 입력하는 과정에서도 인간의 창작적 기여가 충분히 반영되지 않는다면 저작권 보호를 받을 수 없다고 강조했다. 보고서는 AI 저작권 문제를 다루는 국제적 사례도 분석했다. 주요 국가별 입장은 다음과 같다. 영국: AI가 생성한 작품의 저작권 보호를 일정 기간 인정하는 법률을 검토 중 유럽연합(EU): AI와 관련된 데이터 저작권 및 트레이닝 데이터 보호 문제를 중심으로 논의 중국: AI 생성 콘텐츠에 대한 특정한 보호 조항 마련을 추진 일본: AI 생성물에 대한 저작권 보호 필요성을 두고 논의 진행 미국 저작권청은 기존 저작권법 내에서 AI 관련 문제를 해결할 수 있으며, 새로운 법률 개정은 필요하지 않다는 입장을 유지하고 있다. 리포트는 AI 기술이 장애인 창작자들에게도 유용한 도구가 될 수 있다는 점을 강조했다. 예를 들어, 텍스트-음성 변환(Text-to-Speech) 기술이나 시각 예술 생성 알고리즘은 장애인들이 창작 활동을 할 수 있도록 돕는 중요한 도구가 될 수 있다. 리포트는 이러한 기술이 인간의 창작적 기여를 보조하는 도구로 사용되는 경우에는 저작권 보호가 가능하다고 설명했다. 실제로 미국 저작권청은 랜디 트래비스(Randy Travis)라는 음악가의 AI 보조 음원에 대해 저작권 등록을 승인한 사례를 소개했다. 이 사례에서 AI는 인간의 창작적 기여를 보조하는 도구로 사용되었으며, 최종 결과물은 인간의 창작적 기여가 충분히 반영된 것으로 판단되었다. 미국 저작권청의 이번 보고서는 AI 저작권 논쟁에 대한 중요한 기준을 제시한 것으로 평가된다. 보고서는 AI와 인간 창작자의 기여도를 구별하는 것이 핵심이며, AI가 전적으로 생성한 콘텐츠는 보호받을 수 없다는 입장을 명확히 했다. 그러나 AI 기술이 발전하면서 인간과 AI의 창작적 기여도를 명확히 구분하는 것이 점점 더 어려워지고 있다. 특히 생성형 AI(Generative AI)가 점점 더 인간과 유사한 방식으로 콘텐츠를 생산하면서 저작권 보호 기준을 새롭게 정립해야 할 필요성이 커지고 있다. 향후 AI 저작권 문제는 법원과 규제 기관에서 구체적인 사례별 판단(case-by-case analysis)이 더욱 중요해질 것으로 예상된다. 미국 저작권청의 보고서는 AI 저작물 보호에 대한 명확한 법적 기준을 제시했다는 점에서 의미가 크다. 그러나 AI 기술이 급속도로 발전하면서 현행 저작권법이 새로운 기술 환경을 얼마나 효과적으로 반영할 수 있을지에 대한 논의는 계속될 전망이다. AI를 도구로 활용한 인간 창작자의 역할 강화 AI의 창작적 기여도를 낮추고, 인간 창작자의 개입을 강조하는 방식이 필요하다. AI 프롬프트의 창작적 기여도에 대한 추가 논의 필요 프롬프트를 얼마나 세밀하게 구성해야 저작권 보호가 가능할지에 대한 기준 설정이 요구된다. AI 저작권 관련 국제 표준 마련 필요 AI 생성 콘텐츠에 대한 저작권 보호 문제를 글로벌 차원에서 해결하기 위한 논의가 필요하다. 이번 보고서는 AI 저작권 문제를 다루는 기본 원칙과 법적 가이드라인을 제시한 중요한 자료로 평가되며, 향후 AI 법률 및 정책의 방향성을 결정하는 데 중요한 역할을 할 것으로 보인다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.31 10:09AI 에디터

中 딥시크, 오픈AI 못잖네…美 수출 통제 실효성 논란

애틀란틱 카운슬(Atlantic Council) 보도에 따르면 중국의 오픈소스 추론 대규모 언어모델(LLM) 개발사인 딥시크(DeepSeek)가 자사의 '딥시크-R1(DeepSeek-R1)' 모델로 오픈AI(OpenAI)의 o1 모델과 대등한 성능을 입증했다. 특히 이 모델은 무료로 접근이 가능하다는 점에서 주목을 받고 있다. (☞ 애틀란틱 카운슬 기사 보기) AI 연구자들은 딥시크의 이번 성과가 주목할 만하다고 평가했다. 미국의 수출 통제로 중국 기업들이 사용할 수 없는 엔비디아(NVIDIA)의 고성능 H100 칩 대신, 상대적으로 저사양인 H800 칩으로 동등한 성능을 달성했기 때문이다. 애틀란틱 카운슬은 딥시크가 칩 간 메모리 대역폭을 최적화하는 방식으로 이를 해결했다고 설명했다. 덜 정교한 칩들이 대규모 모델의 크기를 '공유'할 수 있게 만든 것이다. 이를 통해 고가의 고성능 칩을 사용한 경쟁사들보다 훨씬 적은 비용으로 모델을 개발할 수 있었다. 일각에서는 이번 성과가 미국의 대중국 반도체 수출 통제 정책의 실패를 보여준다고 주장했다. 하지만 전문가들은 이런 평가가 시기상조라고 지적했다. 애틀란틱 카운슬에서는 최근 중국의 '기술 돌파'가 실제 자체 혁신이 아닌 수출 통제 이전에 이미 진행 중이던 개발의 결과물이라고 분석했다. 2023년 말 화웨이(Huawei)가 7나노미터 칩을 탑재한 스마트폰을 출시했을 때도, 이는 수출 제한 이전에 네덜란드 ASML사의 장비를 미리 확보한 덕분이었다는 설명이다. 전문가들은 미국의 현재 AI 전략에 대한 근본적인 재검토가 필요하다고 강조했다. 단순히 중국의 컴퓨팅 파워 접근을 제한하는 것만으로는 충분하지 않다는 것이다. 애틀란틱 카운슬은 "AI 경쟁에서 승리할 수 있는 단일 전략은 없다"면서 "새로운 기술이 등장함에 따라 미국은 이러한 기술과 응용 프로그램이 가져올 도전과제들을 해결하기 위한 더 적응적인 프레임워크가 필요하다"고 제언했다. 전문가들은 미국이 AI 기술의 설계, 자금 지원, 거버넌스에 대한 선제적인 비전을 수립하고, 특정 기술에 대한 적대국의 접근이 가져올 수 있는 국가 안보 위험에 대해 더 투명하게 공개해야 한다고 조언했다. ■ 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.30 08:08AI 에디터

챗GPT 유·무료 버전 비교했더니…월 2만원 차이가 만드는 성적 차이

범용 AI의 무료·유료 성능차: 시험성적 최대 2배 차이 미국의 서던 메소디스트 대학교(Southern Methodist University) 통계·데이터과학부의 연구에 따르면, 챗GPT(ChatGPT)의 무료 버전과 유료 버전 간 성능 차이가 상당한 것으로 나타났다. 연구진은 여러 통계학 시험에서 성능을 검증했는데, 고등학교 수준의 ACTM 시험에서 GPT-3.5는 64%, GPT-4는 100%를 기록했다. 대학 입학 수준인 AP 통계 시험에서는 각각 50%와 81%, 대학 수준의 CAOS 시험에서는 48%와 70%를 기록했다. 대학원 1학년 통계학 시험의 경우 GPT-3.5는 41점으로 낙제했으나, 월 20달러의 유료 버전인 GPT-4는 82점을 기록했다. 새로운 무료 버전인 GPT4o-mini는 72점으로 중간급 성적을 보였다. (☞ 논문 바로가기) AI 교육 활용의 현주소: "금지해도 사용한다" 83% 서던 메소디스트 대학교 연구진에 따르면, 많은 교육자들이 AI를 개인 튜터로 활용하면 교육 격차가 줄어들 것으로 기대하고 있다. 하지만 이러한 잠재력을 실현하기 위해서는 학생들에게 무선 인터넷과 고성능 노트북이 필요하다. 특히 경제적 어려움이 있는 학생이나 인프라가 부족한 지역의 학생들은 이러한 디지털 기기 접근에 제약이 있다. 일부 대학에서 AI 사용을 금지하고는 있지만, 실제로는 통제가 어려운 것이 현실이다. 학생들의 83%가 금지되어 있어도 AI를 사용하고 있는 것으로 나타났다. 이미지 해석력 격차: GPT-4 66% vs GPT-3.5 0% 정답률 연구진은 특히 이미지를 포함한 문제에서 버전별 성능 차이가 두드러졌다고 밝혔다. GPT-3.5는 이미지가 포함된 30개 문제 모두를 틀린 반면, GPT-4는 20개를 맞추는 성과를 보였다. 맥니마 검정(McNemar's test) 결과, GPT-4가 맞고 GPT-3.5가 틀린 문제는 35개, 그 반대의 경우는 6개에 불과했다. 이는 천만 분의 12의 확률로만 우연히 발생할 수 있는 차이다. 순서형 로지스틱 회귀분석에서도 이미지가 포함된 문제의 경우 GPT-4가 GPT-3.5보다 70% 더 높은 품질의 답변을 제공하는 것으로 나타났다. GPT4o 출시로 달라진 AI 교육 환경 2024년 5월 출시된 GPT4o는 이전 버전에 비해 정확성과 응답 시간이 크게 개선되었으며, 복잡한 쿼리 처리 능력도 향상되었다. 영어 외 다른 언어에 대한 적응성도 높아졌다. 그러나 무료 사용자들은 피크 시간대 메시지 제한, 데이터 분석, 파일 업로드, 이미지 이해 기능 등에서 제약을 받는다. 2024년 중반, OpenAI는 GPT3.5를 완전히 GPT4o-mini로 대체했는데, 이는 무료 사용자들도 일정 수준의 성능을 보장받을 수 있게 되었음을 의미한다. AI 답변의 질적 차이: GPT4o-mini 평균 593단어 vs GPT-4 99단어 텍스트 분석 결과, GPT4o-mini는 문제당 평균 593개 토큰과 20.8개 문장을 사용한 반면, GPT-4는 99.6개 토큰과 4.31개 문장으로 가장 간결했다. 답변의 난이도를 평가하는 플레시-킨케이드(Flesch-Kincaid) 지수는 GPT-3.5가 12.8-15.1, GPT-4가 12.1-15.4, GPT4o-mini가 9.3-22.0을 기록했다. SMOG 지수에서도 GPT-3.5는 14.6-16.4, GPT-4는 13.5-16.1, GPT4o-mini는 14.1-17.4를 기록해 대체로 대학 수준의 독해력이 요구되는 것으로 나타났다. 통계적 사고력 차이: GPT-4의 높은 분석력 잠재 디리클레 할당(LDA) 기법으로 답변을 분석한 결과, GPT-3.5는 문제의 맥락과 관련된 일반적 용어를 주로 사용한 반면, GPT-4와 GPT4o-mini는 통계적 방법론 용어를 더 많이 사용했다. 예를 들어, 심장병과 콜레스테롤 관계를 분석하는 문제에서 GPT-3.5는 관련 용어를 반복적으로 사용했지만, GPT-4는 카이제곱 검정과 같은 통계적 분석 방법에 초점을 맞추었다. 질문 방식에 따른 AI 성능 차이: "맥락이 성적을 좌우한다" 연구진은 AI에게 질문할 때 맥락을 제공하면 정확도가 크게 향상된다는 사실을 발견했다. 예를 들어 "컴퓨터 공학 학부생으로서 기술 면접을 준비하고 있다"는 맥락을 제공했을 때, GPT-3.5의 정답률이 최대 92.8%까지 상승했다. 하지만 실제 학생들은 AI를 과제 도우미로 사용할 때 이러한 맥락을 제공하는 경우가 드물다. 연구진은 이번 실험에서 학생들의 실제 사용 패턴을 반영하기 위해 맥락 없이 질문을 입력하는 "제로샷" 방식을 채택했다고 설명했다. AI 교육 격차 해소를 위한 대안: 월 20만 달러 vs 교실 내 제한적 활용 연구진은 1만 명 규모의 대학이 모든 학생에게 GPT-4를 제공하려면 매달 20만 달러가 필요하다고 지적했다. 이러한 비용 문제를 해결하기 위해 연구진은 교육기관 특별 가격 책정, 교실 내 제한적 AI 활용, 교과서 대여 방식과 유사한 AI 구독 모델 도입 등을 제안했다. 또한 오픈소스 AI 플랫폼인 LLaMA-2, Colossal AI, OpenChatKit 등을 활용하는 방안도 제시했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.29 16:06AI 에디터

"교수님 보다 AI한테 먼저 물어봐요"...대학에 부는 생성형 AI 바람

영국 에든버러대학교와 UCL(University College London) 연구팀이 해당 연구는 두 대학의 학부생 26명과 교육자 11명을 대상으로 심층 인터뷰를 진행했다. 두 대학은 모두 2022/23학년도 기준 학부생 25,000-30,000명이 재학 중이며, 이 중 40-50%가 유학생이다. 2023년 세계대학순위에서 모두 30위권에 진입한 주요 대학이다. (☞ 논문 바로가기) "주 1회 이상 AI 활용" 대학생 46%...학습 도우미로 자리잡은 AI 연구에 참여한 학생들은 다양한 방식으로 AI를 활용하고 있었다. 26명의 학생 중 12명(46%)이 일주일에 한 번 이상 ChatGPT를 비롯한 AI 도구를 사용한다고 답했다. AI는 크게 세 가지 역할을 수행했는데, 첫째로 10명의 학생이 학습 자료 설명과 피드백을 제공하는 '튜터' 역할로, 둘째로 16명이 정보 요약과 자료 검색을 돕는 '조교' 역할로, 셋째로 8명이 아이디어 발산과 토론을 위한 '파트너' 역할로 AI를 활용했다. "24시간 대기, 즉각적 응답"...학생들이 꼽은 AI의 장점 학생들의 AI 활용 동기는 크게 네 가지로 나타났다. 첫째는 상시 이용 가능성으로, 8명의 학생이 "교수님은 항상 계실 수 없지만 AI는 24시간 이용할 수 있다"는 점을 장점으로 꼽았다. 둘째는 효율성으로, 15명의 학생이 시간 절약 효과를 언급했다. 셋째는 사고 방향 제시로, 11명의 학생이 창의적 블록을 해소하거나 문제 해결의 실마리를 찾는 데 도움이 된다고 답했다. 넷째는 학습 심화로, 12명의 학생이 AI를 통해 학습 자료를 더 깊이 이해할 수 있었다고 평가했다. "이렇게는 하지 말자"...학생들이 만든 AI 사용 윤리 규칙 대학의 명확한 지침이 부재한 상황에서 학생들은 자체적인 AI 사용 규칙을 만들어 지켰다. 가장 기본적인 원칙은 '참고는 하되 표절하지 않기'였다. 4명의 학생이 AI의 도움을 받을 때는 반드시 출처를 밝혀야 한다고 답했다. 또한 13명의 학생이 'AI가 생성한 내용을 그대로 복사하지 않고 자신의 의견을 더해야 한다'고 강조했다. 14명의 학생은 'AI는 전체 과제를 대신하는 것이 아닌 보조 수단으로만 사용해야 한다'는 원칙을 세웠다. "표절 걱정에 AI 활용 못해요"...혼란스러운 대학의 AI 정책 대학의 AI 정책과 관련해 주목할 만한 문제점들이 발견됐다. 조사 대상 학생 중 9명만이 대학의 AI 사용 지침을 인지하고 있었으며, 17명은 대학의 AI 관련 커뮤니케이션이 불명확하다고 지적했다. 교육자들도 11명 중 9명이 공식 지침을 모른다고 답했다. 한 교수는 "한 교수는 AI 사용 과제에 0점을 주고, 다른 교수는 전혀 문제삼지 않는 등 평가 기준이 제각각"이라고 설명했다. "생각보다 많이 틀려요"...AI 활용의 한계와 대응 전략 학생들은 AI의 한계도 분명히 인식하고 있었다. 12명의 학생이 AI 사용 중 오류를 경험했다고 답했으며, 13명은 AI가 피상적이거나 뉘앙스가 부족한 답변을 한다고 지적했다. 이에 대한 대응으로 13명의 학생이 AI의 답변을 다른 출처로 교차 검증한다고 답했다. 특히 7명의 학생은 과제의 중요도에 따라 AI 의존도를 조절한다고 밝혔다. AI 도입으로 달라진 교수-학생 관계 AI 도입은 교수-학생 관계에도 변화를 가져왔다. 6명의 학생이 AI 의존도가 높아지면서 교수와의 관계가 소원해질 수 있다고 우려했다. 반면 5명의 학생은 교수와의 대화가 AI와는 다른 깊이 있는 이해와 정서적 지원을 제공한다고 평가했다. 교육자들 중 5명은 학생들이 교수보다 ChatGPT에 먼저 질문하는 경향을 인식하고 있었지만, 3명은 이를 긍정적으로 평가했다. "평소 질문하기를 꺼리던 학생들도 AI를 통해 도움을 받을 수 있게 됐다"는 것이다. "시험도 바뀌어야 해요"...AI 시대에 맞는 새로운 평가방식 필요 학생들과 교육자들은 AI 시대에 맞는 평가방식의 변화가 필요하다고 입을 모았다. 5명의 학생이 AI를 활용한 새로운 형태의 과제 평가를 제안했다. 예를 들어, AI의 답변에 대해 비판적으로 분석하거나, AI 활용 여부와 관계없이 작성한 글을 비교하는 방식이다. 교육자들도 7명이 현재의 평가방식이 변화해야 한다고 답했다. 일부 교육자들은 이미 구두시험과 필기시험을 결합하거나, 포트폴리오에 대한 심층 평가를 시도하고 있었다. 한 교수는 "ChatGPT를 사용해도 좋으니 어떻게 활용했는지 200단어로 설명하라고 했더니 효과가 좋았다"고 언급했다. "AI는 개별 맞춤형 교육 도우미"...학생과 교수가 그리는 미래 향후 AI 활용에 대해 학생 11명이 개인화된 학습 지원 도구로서의 발전을 전망했다. 구체적으로는 피드백과 연습문제 제공, 학습 동반자 역할 등이 언급됐다. 교육자들은 5명이 AI가 수업 중 학생 지원이나 개별화된 학습 경험 제공에 도움이 될 것으로 보았다. 다만 양측 모두 AI가 교육자를 대체하는 것이 아닌 보완하는 역할을 해야 한다고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.29 15:44AI 에디터

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

'파격' 인사 기업도 놀랐다…배경훈-하정우 콤비, 韓 AI 부흥 이끌까

삼성전자 美 테일러 팹 내년 초 양산라인 투자

앤트로픽 "韓, AI 혁신 거점…파트너십·투자 지속할 것"

'40대 AI 전문가' 배경훈, 과기정통부 이끈다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현