• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 에디터'통합검색 결과 입니다. (359건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

금메달리스트급 AI 등장... 구글 '알파지오메트리2' IMO 기하학 문제 84% 해결

IMO 기하학 문제 해결률 84% 달성, 인간 금메달리스트 수준 입증 구글 딥마인드가 발표한 연구 논문에 따르면, 알파지오메트리2(AlphaGeometry2)가 국제수학올림피아드(IMO) 기하학 문제 해결에서 평균적인 금메달리스트급 성능을 달성했다. (☞ 논문 바로가기) 알파지오메트리2는 2000년부터 2024년까지의 IMO 기하학 문제 50개 중 42개를 해결하는데 성공했다. 이는 평균 금메달리스트의 해결률인 40.9개를 뛰어넘는 수치다. 특히 이전 버전인 알파지오메트리의 54% 해결률에서 크게 향상되었으며, 2024년 IMO에서는 은메달 수준의 성과를 거두었다. 이는 다른 AI 시스템들의 성과를 크게 앞지르는 결과다. OpenAI o1과 Gemini thinking은 단 한 문제도 해결하지 못했으며, TongGeometry DD는 18개, Wu with AG1 DDAR은 21개를 해결하는데 그쳤다. 특히 평균 은메달리스트가 33.9개, 동메달리스트가 27.1개를 해결한다는 점을 고려하면, 알파지오메트리2의 성과는 더욱 주목할 만하다. 도메인 언어 커버리지 66%에서 88%로 확장 알파지오메트리2는 도메인 언어를 확장해 선형 방정식, 각도, 비율, 거리 관련 문제와 물체의 움직임이 포함된 복잡한 문제도 해결할 수 있게 되었다. 이를 통해 IMO 2000-2024 기하학 문제의 언어 커버리지가 66%에서 88%로 향상되었다. 남은 12%는 3D 기하학, 부등식, 비선형 방정식, 그리고 가변적 점의 수를 포함하는 문제들이다. 알파지오메트리2는 11가지 유형의 궤적 문제도 처리할 수 있게 되었다. 시스템은 distmeq, distseq, angeq와 같은 새로운 술어들을 도입해 기하학적 양들 간의 선형 방정식을 표현할 수 있게 되었다. 또한 고정점 플레이스홀더를 사용해 점, 선, 원의 움직임을 표현하는 새로운 술어 구문도 개발했다. 다중 검색 트리로 구현한 혁신적 검색 시스템 SKEST 알파지오메트리2는 여러 개의 검색 트리가 병렬로 실행되며 지식을 공유하는 새로운 검색 알고리즘 SKEST(Shared Knowledge Ensemble of Search Trees)를 도입했다. 각 검색 트리는 보조점 구성을 시도한 후 심볼릭 엔진을 실행하며, 성공하지 못한 경우에도 증명된 사실들을 공유 데이터베이스에 기록해 다른 트리들이 활용할 수 있게 했다. 이 시스템은 고전적인 검색 트리, 다중 보조점 예측 트리, 균일한 분포의 보조점 유형 예측 트리 등 다양한 검색 전략을 결합했다. 이 시스템은 TPUv4를 활용해 모델당 여러 개의 복제본을 서비스하며, 각 검색 트리는 자체 검색 전략에 따라 동일 서버에 쿼리를 보낸다. DDAR 작업자들은 문제들 간에 공유되어 이미 해결된 문제의 컴퓨팅 자원을 다른 문제 해결에 활용할 수 있다. 300배 빨라진 심볼릭 엔진과 최적화된 검색 알고리즘 C++로 구현된 새로운 심볼릭 엔진 DDAR2는 이전 버전보다 300배 이상 빠른 처리 속도를 보여준다. 25개의 IMO 문제에 대한 벤치마크 테스트에서 DDAR1이 평균 1179.57초가 걸린 반면, DDAR2는 3.44711초만에 처리를 완료했다. 또한 빔 크기 128, 빔 깊이 4, 32개의 샘플을 사용하는 최적화된 검색 알고리즘을 도입했다. 이러한 성능 개선은 AMD EPYC 7B13 64 코어 CPU 환경에서 검증되었으며, pybind11을 통해 Python과 연동되어 효율적인 처리가 가능하다. 특히 가우스 소거법의 핵심 연산을 C++로 구현하여 획기적인 속도 향상을 달성했다. 30초 만에 IMO 문제 해결하는 놀라운 성능 2024년 IMO 4번 문제를 단 30초 만에 해결하는 등 인상적인 성과를 보였다. 이 해결책은 IMO 2024 문제선정위원회 의장이자 2회 금메달리스트인 조셉 마이어스로부터 만점을 받았다. 또한 IMO 2013 P3, IMO 2014 P3과 같은 난해한 문제들도 단 하나의 보조점만으로 해결하는 창의적인 접근법을 보여주었다. 자동화된 문제 이해와 다이어그램 생성 시스템 구축 제미니를 활용해 39개의 IMO 문제 중 30개를 자동으로 형식화하는데 성공했다. 다이어그램 생성에서도 큰 성과를 보여, 44개의 IMO 문제 중 41개에 대해 자동으로 다이어그램을 생성했다. 40개의 문제는 40개의 병렬 프로세스를 사용해 1시간 이내에 처리가 가능하며, 가장 복잡한 IMO-2011-6 문제는 3333개의 프로세스로 400분 만에 다이어그램을 생성했다. 다이어그램 생성 과정에서는 Adam gradient descent optimization과 Gauss-Newton-Levenberg method를 결합한 2단계 최적화 방법을 사용한다. 첫 단계에서는 비퇴화 손실을 포함한 평균 제곱 오차를 최소화하고, 두 번째 단계에서는 비선형 방정식의 수치해를 찾는다. 이 방법은 기존의 gradient descent 최적화만 사용할 때보다 일관되게 더 나은 결과를 보여준다. 3억 개의 정리로 훈련된 강력한 언어 모델 약 3억 개의 정리로 구성된 대규모 합성 훈련 데이터셋을 사용했으며, 이전 버전과 비교해 2배 더 큰 무작위 다이어그램을 탐색하고 10배 더 복잡한 증명 단계를 생성할 수 있게 되었다. 단 250회의 훈련 단계(약 2억 개의 토큰)만으로도 50개 중 27개의 IMO 문제를 해결할 수 있는 수준에 도달했다. 시스템은 few-shot 프롬프트를 사용해 Gemini에 5회 쿼리를 보내고 결과를 통합하는 방식으로 자연어 문제를 형식화한다. 실험 결과, 커스텀 토크나이저와 대규모 언어 모델 토크나이저 모두 비슷한 성능을 보였으며, top-k 샘플링에서 temperature=1.0, k=32 설정이 최적의 결과를 산출했다. 이는 낮은 temperature에서는 충분히 다양한 보조 구성이 생성되지 않고, 높은 temperature에서는 잘못된 문법의 출력이 증가하기 때문이다. 멀티모달 추론과 언어 모델의 발전 가능성 알파지오메트리2의 언어 모델은 제미니 1.5를 기반으로 멀티모달 추론 능력을 갖추었다. 다이어그램 이미지를 입력으로 받아 문제를 해결할 수 있지만, 복잡한 다이어그램의 경우 이미지 토큰화 과정에서 공간 정보가 손실되는 한계가 있다. 연구진은 현재 언어 모델이 보조점 생성뿐만 아니라 완전한 증명 생성도 가능하다는 것을 발견했으나, 추론 속도와 환각 현상 해결이 필요해 당분간은 외부 도구의 도움이 필수적이라고 밝혔다. IMO 쇼트리스트 최난도 문제 해결 성과 알파지오메트리2는 2002년부터 2022년까지 IMO 쇼트리스트에서 선정된 30개의 최난도 문제 중 20개를 해결하는데 성공했다. 이는 시스템이 실제 IMO에 출제된 문제뿐만 아니라 더 광범위한 올림피아드 기하학 문제를 해결할 수 있는 강력한 능력을 갖추었음을 보여준다. 남은 과제: 고급 기하학 문제 해결 IMO 2018 P6, IMO 2023 P6와 같이 반전, 사영기하학, 근축이 필요한 고급 기하학 문제는 여전히 도전 과제로 남아있다. 연구진은 이러한 문제들을 해결하기 위해 하위 문제로 분해하고 강화학습 접근법을 적용하는 추가 연구를 진행할 예정이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.17 13:28AI 에디터

미국인 'AI 의존' 심하네…어느 정도인지 봤더니

미국인 5명 중 3명 "AI가 삶의 질 높여줬다" 더 리스닝 앱(The Listening App)이 2025년 발표한 미국인의 AI 사용 실태 보고서에 따르면, 미국인의 60%가 일주일에 한 번 이상 AI 도구를 사용하는 것으로 나타났다. 특히 주목할 만한 점은 미국인 6명 중 1명이 이미 일상생활에서 AI에 의존하고 있다고 응답했다는 것이다. 또한 응답자의 3분의 2는 지난 1년간 AI 도구 사용이 증가했다고 답했으며, 특히 메릴랜드(Maryland), 앨라배마(Alabama), 콜로라도(Colorado) 주 거주자들의 AI 사용 증가세가 두드러졌다. 전체 응답자의 5명 중 3명은 AI가 자신의 일상생활의 질을 향상시켰다고 평가했다. (☞ 보고서 바로가기) 글쓰기·검색·요약이 AI 활용 상위 3대 목적...업무 지원부터 숙제까지 활용 범위 확대 미국인들의 AI 활용 목적을 살펴보면 글쓰기와 편집이 62.77%로 가장 높은 비중을 차지했다. 학술 논문부터 업무용 이메일까지 다양한 글쓰기 작업에서 AI가 활용되고 있으며, AI는 오류를 검토하는 두 번째 눈 역할을 하고 있다. 온라인 검색이 61.47%로 근소한 차이로 2위를 차지했는데, 사람이 직접 하면 몇 시간 또는 며칠이 걸릴 작업을 AI는 몇 초 만에 완료할 수 있다는 점이 높은 평가를 받았다. 텍스트 요약(42.77%)이 3위를 기록했으며, 브레인스토밍(39.00%)과 생성형 아트(32.09%)가 그 뒤를 이었다. 특히 번역(29.69%), 문제 해결(22.86%), 이력서 작성 및 면접 준비(20.78%), 숙제 지원(14.85%), 디자인 작업(13.79%) 등 AI의 활용 범위가 매우 다양한 것으로 나타났다. 주목할 만한 점은 미국인 2명 중 1명이 업무를 위해 AI를 활용하고 있으며, 브레인스토밍부터 생성형 아트까지 다양한 직종에서 AI가 필수 도구로 자리잡고 있다는 것이다. 챗GPT 사용률 77.97% 압도적 1위...상위 10개 AI 도구 분석 AI 도구 중에서는 챗GPT(ChatGPT)가 77.97%의 압도적인 사용률로 1위를 차지했다. 2022년 11월 30일 출시된 챗GPT는 코딩, 수학 문제 해결, 작사, 번역 등 다양한 기능을 제공하며 미국인들 사이에서 폭넓은 지지를 받고 있다. 구글 번역기(Google Translate)는 44.89%의 사용률로 2위를 차지했으며, 구글 제미나이(Google Gemini)가 33.23%로 3위를 기록했다. 구글 제미나이는 글쓰기와 코딩 지원은 물론 구글 맵스와 연동한 일정 계획이나 요리 레시피 제공 등 일상적인 활동을 지원하는 기능이 특징이다. 그 뒤를 이어 캔바(Canva, 28.59%)와 그래머리(Grammarly, 25.33%)가 각각 4, 5위를 차지했다. 코파일럿(Copilot, 22.27%), 달리(DALL-E, 13.47%), 캐릭터AI(Character.ai, 8.21%), 미드저니(Midjourney, 7.93%), 클로드(Claude, 5.62%)가 상위 10위권에 진입했다. 오레곤·플로리다·아리조나, AI 활용도 상위 3개 주...재무설계·수익창출에 적극 활용 AI 활용도는 지역별로 상당한 차이를 보였다. 오레곤(Oregon) 주가 99.49점으로 가장 높은 AI 의존도를 보였으며, 플로리다(Florida)가 98.62점으로 그 뒤를 이었다. 아리조나(Arizona)는 94.64점으로 세 번째로 높은 점수를 기록했다. 특히 오레곤 주민들은 AI를 통한 수익 창출 경험이 가장 많았고, 플로리다 주민들은 재무설계에 AI를 가장 적극적으로 활용하는 것으로 나타났다. 아리조나 주민들은 하루에 한 번 이상 AI 도구를 사용하는 비율이 가장 높았다. 반면 미주리(Missouri, 70.80점), 미시시피(Mississippi, 73.50점), 로드아일랜드(Rhode Island, 75.12점) 주는 AI 활용도가 가장 낮은 것으로 조사됐다. AI 사용 실태 핵심 조사 결과: 미국인 2명 중 1명 업무에 활용 더 리스닝 앱(The Listening App)의 2025년 AI 사용 실태 보고서의 주요 조사 결과에 따르면, 미국인들의 AI 활용이 일상생활 전반으로 확대되고 있는 것으로 나타났다. 특히 응답자의 절반이 업무 지원을 위해 AI를 활용하고 있다고 답했으며, 60%는 일주일에 한 번 이상 AI 도구나 앱을 사용한다고 응답했다. 주목할 만한 점은 응답자의 3분의 2가 지난 1년 동안 AI 도구 사용이 증가했다고 답했으며, 5명 중 3명은 AI가 일상생활의 질을 향상시켰다고 평가했다는 것이다. 더불어 6명 중 1명은 이미 일상생활의 특정 부분에서 AI에 의존하고 있다고 답했다. 이러한 조사 결과는 AI가 더 이상 선택이 아닌 필수 도구로 자리잡아가고 있음을 보여준다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.15 19:10AI 에디터

코드 한 줄당 44만원 손실... 생성형 AI가 레거시 앱 비용 잡는다

NTT DATA의 보고서에 따르면, 레거시 애플리케이션 코드 10만 줄당 평균 361,000달러(약 44만원)의 기술 부채가 발생하는 것으로 나타났다. 이는 낡은 기술로 만들어진 레거시 시스템이 기업에 얼마나 큰 재정적 부담을 주는지 보여준다. (☞ 보고서 바로가기) 커스텀 코드 1줄당 4,400원 손실...레거시 앱의 현주소 오래된 스토리지 미디어처럼 레거시 애플리케이션도 시대에 뒤떨어져 있다. COBOL과 같은 구식 프로그래밍 언어를 사용하는 시스템은 유지보수가 어렵고, 이를 다룰 수 있는 개발자를 찾기도 힘들다. 문서화 부족으로 개발자들은 시행착오를 거치며 시스템을 이해해야 하고, 현대 기술과의 통합도 아키텍처와 데이터 형식의 비호환성으로 인해 큰 어려움을 겪고 있다. 특히 늘어나는 사용자 기반이나 데이터 양을 처리하는 데 한계가 있어 성능 저하와 시스템 충돌이 발생하고, 낡은 보안 프로토콜은 사이버 공격에 취약하다. 생성형 AI가 제시하는 3대 혁신 솔루션 생성형 AI는 코드 리팩토링 자동화, 성능 최적화, 보안 강화라는 세 가지 핵심 영역에서 혁신을 이끈다. 마치 예술가가 기존 작품을 이해하고 새로운 작품을 만들듯이, 생성형 AI는 기존 코드를 분석하여 특정 기능과 보안 프로토콜을 준수하는 새로운 코드를 자동으로 작성한다. 변형 오토인코더(Variational Autoencoders) 등 다양한 접근 방식을 통해 데이터로부터 학습하여 창의적인 솔루션을 만들어낸다. 시민 개발자도 참여하는 AI 주도 앱 개발 혁명 생성형 AI는 반복적인 코딩 작업 자동화, 모범 사례 및 코드 스니펫 제안, 자연어 기반 UI 생성 등을 통해 개발 진입 장벽을 낮춘다. 이를 통해 코딩 경험이 적은 시민 개발자들도 애플리케이션을 만들거나 기존 프로젝트에 기여할 수 있게 되었다. 실시간 취약점 탐지로 보안 강화...데브옵스 통합 혁신 생성형 AI는 새로운 기능이 추가될 때마다 자동으로 코드를 최적화하고 잠재적 보안 취약점을 사전에 식별한다. UI/UX의 일관성을 검사하고 사용자 행동 패턴을 분석하여 디자인 요소의 문제점을 파악한다. 테스트 시나리오를 자동 생성하여 다양한 사용자 상호작용과 엣지 케이스를 검증하며, 이는 개발 자원을 더 복잡한 작업에 집중할 수 있게 한다. 애저 오픈AI 파트너십으로 입증된 NTT DATA의 기술력 NTT DATA는 2022년 마이크로소프트와 애저 오픈AI 파트너십을 체결했다. 자사 도구인 'Coding by NTT DATA'를 통해 커스텀 코드 생성과 레거시 앱 현대화를 지원하고 있으며, 자동화와 수동 방식을 결합한 하이브리드 접근법으로 개발 효율을 높이고 있다. 2019년 2월부터 2022년 10월까지의 개발 타임라인을 통해 질문 답변, 문서 처리 등 실제 프로젝트에서 성과를 입증했다. 파일럿 프로젝트로 시작하는 생성형 AI 도입 전략 생성형 AI 도입은 전략적 접근이 필수적이다. 우선 레거시 시스템의 위험도가 낮고 명확하게 정의된 컴포넌트부터 시작해야 한다. 이를 통해 통제된 환경에서 생성형 AI의 효과를 테스트하고, 잠재적 문제를 파악하며, 더 큰 규모의 코드베이스를 다루기 전에 접근 방식을 개선할 수 있다. NTT DATA는 파일럿 프로젝트를 진행하면서 지속적으로 결과를 평가하고 생성형 AI 모델을 미세 조정하는 반복적 접근 방식을 권장한다. 이는 레거시 시스템의 특성에 맞게 지속적인 개선과 적응을 가능하게 한다. 특히 업계별 특화된 사용 사례를 발굴하는 것이 중요한데, 예를 들어 특정 산업에서 자주 사용되는 프로그래밍 언어에 대한 코드 리팩토링이나 해당 분야에서 직면하는 고유한 보안 위협에 맞춘 취약점 탐지 등이 이에 해당한다. 또한 직원들에게 생성형 AI와 그 응용에 대한 포괄적인 교육을 제공하고, 잘 정의된 변화 관리 전략을 통해 기존 워크플로우에 생성형 AI를 원활하게 통합하는 것이 성공적인 도입의 핵심이다. 17억 달러 투자 유치한 생성형 AI...앱 현대화의 미래 가트너 보고서에 따르면 벤처캐피탈 기업들은 지난 3년간 생성형 AI 솔루션에 17억 달러 이상을 투자했으며, 특히 AI 기반 신약 개발과 AI 소프트웨어 코딩 분야에 집중됐다. 이는 생성형 AI가 레거시 시스템을 혁신의 발판으로 전환시킬 것이라는 시장의 기대를 보여준다. GDPR·CCPA 준수하는 책임있는 AI 개발 데이터 프라이버시와 규제 준수를 위해 GDPR과 CCPA 등 관련 규정에 맞는 강력한 데이터 거버넌스 체계 구축이 필수다. 설명 가능한 AI(XAI) 기법으로 AI 모델의 의사결정 과정을 투명하게 만들고, 다양한 학습 데이터를 활용해 편향성을 줄이며, 명확한 책임 소재와 피드백 메커니즘을 갖춰야 한다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.15 09:43AI 에디터

직원 업무시간 20% 날리는 정보검색… AI로 해결 가능?

정보검색에 하루 20%, 이메일에 28%...AI로 해결하는 업무 비효율 NTT 데이터가 발간한 '테크놀로지 포사이트 2025(Technology Foresight 2025)' 보고서는 기업의 성공적인 AI 도입을 위한 핵심 트렌드와 전략을 제시했다. 이 보고서는 특히 인간-기술 융합, 지능형 고객 경험, 보안 등의 측면에서 AI가 가져올 변화를 상세히 분석했다. (☞ 보고서 바로가기) 보고서에서 따르면, 일반 직장인들은 하루 업무 시간 중 정보 검색에 20%, 이메일 관리에 28%, 협업 활동에 14%를 소비하고 있다. 1000명 규모 기업이 직원들의 정보 검색 시간을 하루 30분만 줄여도 연간 150만 유로의 비용을 절감할 수 있다. 이러한 비효율을 해결하기 위해 대규모 언어모델(LLM), GPT 모델, 오픈AI의 O1 모델, 검색 강화 생성(RAG) 기술, 디지털 휴먼(Digital Humans) 등이 도입되고 있다. AI 고객서비스, 비용 30% 절감에 처리 속도도 90% 개선 고객의 73%가 구매 결정시 경험을 주요 요인으로 꼽은 가운데, AI 기반 고객 서비스는 인간 상담원 대비 30% 적은 비용으로 운영이 가능한 것으로 나타났다. 90%의 콜센터가 AI 도입으로 민원 해결 속도와 통화량 처리가 개선되었으며, 고객 경험 책임자의 70%가 2년 내 생성형 AI 도입을 계획하고 있다. 감정 AI(Emotion AI), 감성 분석 기술, 추천 엔진, 음성·제스처 인식, 스마트 센서, RFID 기술 등이 통합된 지능형 고객 경험이 확산되고 있다. AI 시스템 90% 뚫렸다... 보안 준비된 곳은 5%뿐 기업의 90%가 지난해 AI 시스템 보안 침해를 경험했으나, AI 보안에 자신감을 보이는 기업은 5%에 불과했다. 특히 62%의 조직이 최소 하나 이상의 취약점이나 노출이 있는 AI 패키지를 배포한 것으로 나타났다. 미국 재무부의 보고서에 따르면, 금융권에서는 AI 기반 사이버 보안 위협이 증가하고 있으며, 데이터 유출 사고가 매년 증가하는 추세다. IBM의 보고서에서는 2023년 데이터 유출 사고의 평균 비용이 445만 달러에 달했으며, FBI는 비즈니스 이메일 침해(BEC)로 인한 누적 손실이 500억 달러를 넘어섰다고 보고했다.제로 트러스트 아키텍처, 행동 분석, 사이버 퓨전 센터, 암호화 기술 등이 AI 보안 강화를 위한 핵심 기술로 주목받고 있다. 2025년 데이터량 175ZB 전망...기업 85%가 멀티클라우드 채택 글로벌 데이터 규모가 2025년 175ZB까지 증가할 것으로 예상되는 가운데, 현재 기업의 85%가 멀티클라우드 전략을 도입했다 이는 기존 IT 인프라를 AI와 융합하는 과정에서 필연적으로 발생하는 변화이다. PEX Network의 보고서에 따르면, 기업의 75%가 생성형 AI를 도입했으며, 100배 이상의 생산성 향상 효과를 경험한 사례도 있다. 특히 금융과 의료 분야에서 AI 기반 데이터 분석이 중요한 역할을 하면서, 클라우드와 AI의 통합이 더욱 가속화되고 있다. 기업들은 오케스트레이션 도구, 엣지 컴퓨팅 플랫폼, 인프라스트럭처 코드(Infrastructure as Code) 기술을 활용하여 AI 모델을 더욱 효율적으로 운영하고 있다. 5분-5일-5개월 AI 도입 로드맵 제시 기업의 AI 도입을 위해 보고서는 단계별 접근법을 제시했다. 첫 5분 동안 주요 업무 병목 현상을 파악하고, 5일 내에 사내 생성형 AI 챗봇을 배치하며, 5개월 안에 부서 간 AI 역량 강화 프로그램을 시작하는 것이 권장된다. AI 도입의 효과를 극대화하기 위해서는 AI 모델 소유권의 명확화, 법률 준수를 위한 투명하고 설명 가능한 AI 시스템 구축, AI 서비스 가치의 공정한 공유가 필요하다. 이는 AI 기반 고객 서비스와 보안 분야에서도 중요한 원칙으로 작용할 것이다. 또한, 생성형 AI 도입의 도전 과제로 투자수익 불확실성, 규제 준수, AI 편향성, 데이터 유출 위험 등이 지적되었으며, 이를 극복하기 위해 명확한 전략 수립과 데이터 품질 관리가 필수적이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.15 09:12AI 에디터

AI가 만든 콘텐츠, 저작권은 누구 것인가…캐나다 자문보고서

1,000명 시민·103개 기관 참여한 캐나다 정부 AI 저작권 공개 자문 캐나다 정부가 2023년 10월 12일부터 2024년 1월 15일까지 진행한 '생성형 AI 시대의 저작권 자문 보고서'는 전례 없는 규모의 참여를 이끌어냈다. 약 1,000명의 시민들과 103개 기관이 온라인 설문에 응답했으며, 62명의 이해관계자들이 7차례의 원탁회의(2회는 프랑스어 진행)에 참여했다. 문화산업계의 높은 참여도가 특징적이었으며, 원주민 참여자는 전체 응답자의 3%를 차지했다. "라이선싱으로 해결" vs "규제는 혁신 저해" - TDM 관련 첨예한 대립 문화산업계는 AI 학습을 위한 텍스트 및 데이터 마이닝(TDM)에서 저작권자의 동의와 보상이 필수적이라고 주장한다. 이들은 의무적 라이선싱, 자발적 라이선싱, 집중 관리 등 다양한 라이선싱 모델을 제안했다. 반면 기술업계는 TDM이 저작물의 표현적 내용을 복제하거나 소비하지 않으므로 저작권법의 적용 대상이 아니라고 반박했다. 특히 신생 기업과 소규모 기업의 발전을 저해할 수 있다는 우려를 표명했다. "AI 생성물 저작권 인정 시 인간 창작 필수" - 인간 저작권 중심성 지지 대다수 참여자들이 AI 생성 콘텐츠의 저작권 보호에 있어 '인간의 실질적 기여'가 필수적이라는 데 동의했다. 미국 저작권청처럼 AI 생성 요소에 대한 공개 의무화를 도입해야 한다는 제안도 있었다. 일부에서는 AI 생성 혁신과 창의성을 보호하기 위한 새로운 법적 체계 도입을 제안했으나, 구체적인 방안은 제시되지 않았다. 일부 이해관계자들은 캐나다 지식재산청(CIPO)이 AI 생성 요소가 포함된 작품의 등록 시스템을 개선해야 한다고 제안했다. 미국 저작권청의 사례를 참고하여, 작품 내 AI 생성 요소를 명시적으로 공개하도록 하고, 다른 인간 창작 요소와 분리하여 저작권 보호 여부를 결정해야 한다는 것이다. 이는 AI 생성 콘텐츠의 투명성을 높이고 저작권 보호의 명확성을 제고할 수 있다는 장점이 있다. 기존 법적 구제책의 적절성 논란 현재까지 캐나다 법원은 AI 생성 콘텐츠의 저작권 침해 사례를 다룬 적이 없다. 2024년 11월, 캐나다 언론사들이 AI 기업을 상대로 무단 저작물 사용에 대한 소송을 제기했으며, 같은 달 캐나다의 한 비영리 법률 데이터베이스도 온라인 콘텐츠의 무단 스크래핑과 관련해 AI 기업을 고소했다. 이러한 소송들은 법원이 AI 관련 저작권 문제를 처음으로 다루게 되는 계기가 될 것으로 예상된다. 의견 수렴 과정에서 약 절반의 참여자들은 현행 저작권 침해 관련 법적 구제책이 충분하다고 평가했다. 특히 기술업계는 생성형 AI의 잠재적 영향을 고려한 저작권법 개정이 시기상조라고 주장했다. 반면 일부에서는 AI 생성 콘텐츠가 저작권 보호 작품과 유사할 경우, 해당 작품이 AI 학습에 사용되었다고 추정하는 새로운 법적 추정 도입을 제안했다. AI 저작권 침해 책임 소재 - 개발자 vs 사용자 책임론 대립 저작권 침해 발생 시 책임 소재에 대해 업계별로 상반된 입장을 보였다. 문화산업계, 교육기관, 도서관, 박물관 등은 AI 시스템 개발자와 배포자의 책임을 주장했다. AI 가치 사슬에 관련된 여러 당사자의 공동 책임을 제기하는 의견도 있었다. 일부 이해관계자들은 법원이 사례별로 책임 소재를 판단하는 것이 바람직하다고 주장한 반면, 다른 이들은 정부가 더 명확한 기준을 제시해야 한다고 강조했다. 교육계와 공익단체들은 특히 AI 시스템 사용자들의 제한된 책임을 강조했다. 사용자들이 관련 법과 규정을 준수했다면 AI 생성 콘텐츠로 인한 손해나 결과에 대해 책임을 지지 않아야 한다는 것이다. 반면 기술업계는 AI 시스템이 저작권을 침해하는 것은 '의도된 기능'이 아닌 '버그'라며, 자신들은 침해를 방지하기 위한 예방 조치를 취하고 있다고 반박했다. 저작권 침해가 발생하는 드문 경우에도 개발자가 아닌 시스템을 침해 목적으로 사용한 사용자에게 책임이 있으며, 개발자는 책임이 없거나 제한된 책임만을 져야 한다고 주장했다. 이러한 복잡한 책임 소재 문제는 AI 생성 콘텐츠의 저작권 침해를 판단하고 해결하는 데 있어 주요 과제로 지적되고 있다. AI 생성 콘텐츠 표시 의무화 및 딥페이크 규제 논의 문화산업계를 중심으로 AI 학습에 사용된 데이터의 투명성 확보 요구가 높았다. 이는 저작권이 민간에서 행사되는 권리이므로, 권리 보호를 위해 필수적이라는 입장이다. 기술업계는 개인 건강정보 등 민감 데이터 보호와 자사 지적재산권 보호를 이유로 반대했다. 문화산업계는 AI 생성 콘텐츠 표시 의무화와 함께, 공연자의 이름, 이미지, 음성 등을 보호하기 위한 '퍼스널리티권' 도입을 주장했다. 특히 딥페이크로 인한 평판 훼손 우려가 제기되었다. 원주민 문화 보호와 AI가 일자리 위협 - 창작자들의 경제적 우려 확산 원주민들은 AI가 각 공동체의 문화적 표현을 무분별하게 학습하여 고정관념화된 결과물을 만들 수 있다고 우려했다. 동시에 AI를 통한 원주민 문화와 언어 활성화 가능성도 제기되었다. 다만, AI 기업과 도구의 소유권이 비원주민에게 있을 수 있다는 새로운 과제도 지적되었다. 이외에도 대다수 개별 창작자들이 AI로 인한 일자리 상실과 불공정 경쟁을 우려했다. 노동조합의 협상력 강화를 통해 TDM 활동에 대한 공정한 보상을 확보해야 한다는 주장도 제기되었다. 저작권법, AI 시대에도 여전히 유효 - 정부 입장 표명 캐나다 정부는 2023년 11월, 'AI 및 데이터법(AIDA)' 개정안을 통해 AI 시스템 학습에 사용된 콘텐츠 규제, AI 생성 콘텐츠 표시 의무화, AI 시스템의 자기 식별 요구 등을 제안했다. 현재는 의회 폐회로 중단된 상태이나, 향후 정부 정책에 반영될 예정이다. 캐나다 정부는 저작권법이 AI 시대에도 여전히 유효하다는 입장을 밝혔다. 역사적으로 저작권법은 인쇄기의 발명부터 인터넷의 등장까지, 기술 발전과 시장 변화에 탄력적으로 적응해왔다는 것이다. 정부는 저작권 체계가 제공하는 창작과 배포 인센티브를 유지하면서도 캐나다의 혁신 전략을 지원할 수 있는 균형잡힌 정책을 모색하겠다고 밝혔다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.15 08:27AI 에디터

[Q&AI] 새벽 4시 오픈런?…트레이더스 마곡점 AI 추천 아이템 톱20

질문: 이마트 트레이더스 마곡점이 왜 인기야? 앨런 답변: 이마트 트레이더스 마곡점이 인기를 끄는 이유는 여러 가지가 있습니다: 최대 규모: 마곡점은 트레이더스 매장 중 가장 큰 규모로, 면적이 약 3520평(1만1636㎡)에 달합니다. 이는 기존 매장보다 10% 이상 넓은 면적입니다. 압도적인 가격 경쟁력: 트레이더스는 저렴한 가격으로 다양한 상품을 제공하여 소비자들에게 큰 인기를 끌고 있습니다. 차별화된 상품: 마곡점에서는 다른 매장에서 볼 수 없는 단독 상품과 특별한 행사 상품을 제공합니다. 예를 들어, 오픈 기념으로 '히비키', '맥켈란' 등의 프리미엄 위스키를 최대 물량으로 확보했습니다. 교통 및 상권: 마곡점은 강서 지역의 첫 창고형 할인점으로, 강력한 교통망과 오피스 상권을 배후로 두고 있어 거주민뿐만 아니라 유동 인구까지 흡수할 수 있습니다. 로드쇼 및 팝업 매대: 매장 내 13곳의 로드쇼 공간을 마련하여 다양한 상품을 특별 판매하는 등 차별화된 매장 운영을 하고 있습니다. 이러한 요소들이 결합되어 이마트 트레이더스 마곡점은 소비자들 사이에서 큰 인기를 끌고 있습니다. 질문2. 이마트 트레이더스 마곡점에서 꼭 사야 하는 제품 20개 추천해줘. 앨런 답변: 이마트 트레이더스 마곡점에서 꼭 사야 하는 제품 20가지를 추천해드리겠습니다: 김창수 위스키 싱글캐스크 51.8 (700ml): 트레이더스를 위해 단독 생산된 한정판 위스키 숯불데리야끼 닭꼬치 (1.2kg): 베스트셀러 상품으로 오픈 기념 할인 행사 중. 호주산 냉동 차돌박이: 오픈 기념 할인 상품. 호주산 냉장 와규 구이 모둠: 오픈 기념 할인 상품. 양념 소불고기 (2.7kg, 냉장): 할인 행사 중. 한우 등심: 오픈 기념 할인 행사 중 T-STANDARD 상품: 트레이더스의 자체 브랜드 상품으로 다양한 제품이 할인 중. 다이슨 무선청소기: 인기 가전제품 특별가 판매 소니 미러리스 카메라: 인기 가전제품 특별가 판매 LG 울트라PC: 인기 가전제품 특별가 판매 반다이 남코 토이류: 로드쇼에서 판매되는 한정판 상품 로지텍 게이밍 기기: 로드쇼에서 판매되는 한정판 상품 코코망고 알맹이 젤리: 다양한 맛의 젤리 시리즈 스타벅스 텀블러: 인기 브랜드 상품. 필립스 전기면도기: 인기 브랜드 상품. 다양한 사무용품: 스탠딩테이블, 키보드, 마우스, 건전지 등 업소용 대형 냉장고: 오피스 상권을 고려한 상품 대형 피자: T-카페에서 제공되는 가성비 높은 메뉴 치즈 오븐 스파게티: T-카페에서 제공되는 가성비 높은 메뉴 쌀국수: T-카페에서 제공되는 가성비 높은 메뉴 이 제품들은 트레이더스 마곡점에서 특히 주목받고 있는 상품들로, 방문 시 꼭 확인해보시길 추천드립니다. ■ 기사는 앨런을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.15 08:14AI 에디터

챗GPT가 쓴 글, 사람 글과 어떤 점이 다를까

AI 생성 문장, 인간과 얼마나 비슷할까? 호주 재무부에서 진행한 코파일럿 실험 보고서에 따르면, 코파일럿(Copilot) 같은 대형 언어 모델이 생성하는 문장은 표면적으로는 자연스럽게 보이지만, 통계적으로 분석했을 때 인간이 작성한 문장과는 뚜렷한 차이가 존재하는 것으로 나타났다. 연구진은 수만 개의 실제 데이터와 AI가 만든 텍스트를 비교 분석하여 AI 문장의 구조적, 통계적 차이를 규명했다. (☞ 보고서 바로가기) AI의 업무 지원 기대치 50%, 실제 영향은 더 높아 연구에서는 AI의 실질적인 활용 가능성을 평가하기 위해, 사용자가 AI가 지원할 것으로 기대한 작업량과 실제 지원된 작업량을 비교하였다. 실험 결과, AI가 지원할 수 있다고 예상한 업무량과 실제로 지원한 업무량 간에는 큰 차이가 존재했다. 연구 참여자들의 사전 기대치는 "대부분의 업무(50% 이상)를 지원할 것"이라고 답한 비율이 19%에 불과했으나, 실험 후 AI가 실질적으로 지원했다고 느낀 업무량은 더 높았다. AI가 실제 업무 프로세스에 미친 영향을 분석한 결과에서도 유사한 경향이 나타났다. 관리자와 실험 참가자의 평가를 비교한 결과, 관리자의 59%가 코파일럿이 업무에 아무런 영향을 미치지 않았다고 답한 반면, 실험 참가자의 56%는 긍정적인 영향을 주었다고 응답했다. Copilot이 매우 긍정적인 영향을 주었다고 답한 비율은 관리자 2%보다 실험 참가자가 7%로 더 높았다. 반면, 부정적인 영향을 주었다고 답한 비율은 매우 낮아, AI가 업무에 미치는 부정적 요소는 크지 않은 것으로 나타났다. AI 문장 변형 반복할수록 인간의 글쓰기와 더 차이나 연구진은 AI가 문장을 변형할 때 발생하는 차이를 확인하기 위해 두 가지 실험을 진행했다. 첫 번째 실험에서는 원본 문장(O)과 AI가 이를 변형한 버전(G) 간의 차이를 측정했다. 두 번째 실험에서는 AI가 이미 한 번 변형한 문장(G)을 다시 변형한 버전(S)과의 차이를 비교했다. 실험 결과, AI가 문장을 변형하는 과정에서 원본과의 거리가 점점 더 벌어지는 경향이 나타났다. AI의 온도 매개변수 설정 높을수록 창의적, 감성적 표현 증가 연구진은 코파일럿 생성하는 문장의 특성을 파악하기 위해 '온도(Temperature)' 매개변수를 조절하며 동일한 문장을 생성하는 실험을 진행했다. 생성형 AI에서 '온도(Temperature)' 매개변수는 모델이 응답을 생성할 때 무작위성의 정도를 조절하는 역할을 의미한다. 온도 값이 낮을수록 원본 문장과 유사한 표현을 유지했고, 온도 값이 높을수록 보다 창의적이고 감성적인 표현이 포함되었다. 예를 들어, 원본 호텔 리뷰가 "기본적이고, 깨끗하고 편안한 호텔이다. 단기 숙박으로는 나쁘지 않다. 모든 것과의 접근성이 좋다"였다면, AI는 온도 값에 따라 다음과 같이 문장을 변형했다. 낮은 온도 설정에서는 "저렴하면서도 깨끗하고 아늑한 숙소를 제공하는 호텔이다. 빠른 숙박에 적합하다. 편리한 위치 덕분에 모든 편의시설에 쉽게 접근할 수 있다"와 같이 원본에 가까운 표현을 생성했다. 반면 온도가 높을 경우 "이 부티크 호텔은 기대 이상이었다. 객실은 아늑했고 직원들도 친절했다. 도시를 둘러보기에 완벽한 위치였다. 짧은 여행을 위한 훌륭한 선택이다"와 같이 원본과 상당히 다른 문장을 생성하는 경향을 보였다. AI, 긴 문장 생성시 한계 뚜렷… 문맥 파악하는 데 부자연스러워 연구진은 AI가 인간과 동일한 방식으로 글을 쓰지 못하는 주요 이유로 문맥을 장기적으로 유지하는 능력 부족을 꼽았다. 인간의 글은 문맥적 흐름을 기반으로 한 논리적 전개가 강한 반면, AI는 주어진 문장 내에서만 최적의 표현을 찾는 데 집중하기 때문이다. 이는 특히 긴 텍스트를 생성할 때 명확하게 드러나며, AI가 장기적 문맥을 유지하는 데 한계를 보인다는 점을 보여준다. 연구 결과에 따르면, AI가 문장을 생성할 때 문맥적 연결성을 충분히 반영하지 못하는 경우가 많았다. 예를 들어, 동일한 글에서 앞뒤 문장이 자연스럽게 이어져야 하지만, AI가 생성한 문장은 일부 문맥이 단절되거나, 동일한 내용을 반복하는 경향이 나타났다. 인간처럼 쓰지 못하는 AI, 문장 재구성할수록 원본과 멀어지는 구조가 원인 연구진은 AI가 생성하는 텍스트의 가장 큰 한계 중 하나로 통계적으로 인간과의 차이를 좁히기 어려운 구조적 문제를 지적했다. 연구에서는 원본 문장(O)과 AI가 이를 변형한 문장(G), 그리고 AI가 다시 변형한 문장(S) 간의 유사성을 측정했으며, AI가 한 번 변형한 문장과 원본 간의 차이가 두 번째 변형된 문장과의 차이보다 더 작다는 점을 발견했다. 이는 AI가 문장을 반복적으로 재구성할수록 원본과 더욱 멀어지는 경향이 있음을 시사한다. 연구진은 이를 통계적으로 분석하기 위해 호텔링의 T-제곱 검정, Nploc 검정, 에너지 검정, 볼 검정 등 네 가지 통계 기법을 활용했다. 또한 텍스트 간의 통계적 유사도를 평가하기 위해 쿨백-라이블러 발산(KL divergence)과 바서스타인 거리(Wasserstein distance)를 측정했다. 이러한 분석을 통해 AI가 생성한 문장이 인간이 쓴 문장과 점점 더 차이가 나게 되는 경향이 있음을 입증했다. AI 글쓰기의 한계와 향후 발전 방향은 모두 문맥 유지 능력 이번 연구는 AI가 생성하는 텍스트의 신뢰성을 평가하는 데 중요한 시사점을 제공한다. AI가 생성한 문장은 표면적으로 자연스럽게 보일 수 있지만, 인간이 작성한 글과는 근본적으로 다른 방식으로 생성된다는 점이 통계적으로 입증되었다. AI가 인간처럼 문장을 구조화하고 문맥을 유지하는 능력이 아직 완전하지 않다는 점에서, 향후 발전 방향으로는 문맥 유지 능력을 강화하는 연구가 필요할 것으로 보인다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.15 08:02AI 에디터

학계에서도 AI 성별 격차... 남성 연구자 AI 사용시간·효율성 더 높아

미국 국립과학원회보(PNAS Nexus) 2025년 2월호에 게재된 연구에 따르면, 생성형 인공지능(AI)이 학계의 성별 생산성 격차를 더욱 벌리는 것으로 나타났다. 연구진은 챗GPT(ChatGPT) 출시 전후의 학술 논문 데이터를 분석하고 연구자 설문조사를 실시해 AI가 학계 성별 격차에 미치는 영향을 종합적으로 살펴보았다. (☞ 보고서 바로가기) 1시간 만에 논문 작성...챗GPT가 바꾼 학계 연구 환경 네이처(Nature)의 온라인 설문조사에서 응답자 672명 중 약 80%가 챗GPT나 유사한 AI 도구를 최소 한 번 이상 사용한 경험이 있다고 답했다. 실제로 두 명의 과학자가 챗GPT의 도움을 받아 1시간 만에 연구 논문을 작성했으며, 경제학자들은 챗GPT를 활용해 마이크로태스크를 자동화함으로써 상당한 생산성 향상을 이룰 수 있다고 보고했다. 직장인 챗GPT 사용률: 남성 65% vs 여성 47% 2023년 3월과 7월 실시된 두 차례의 설문조사에서 남성이 여성보다 챗GPT 사용 비율이 높았다. 직장인 대상 조사에서 남성 전문직 종사자의 65%가 챗GPT를 사용해본 반면, 여성은 47%에 그쳤다. 연구진의 설문에서도 남성 연구자들의 AI 도구 사용 빈도(남성 평균 3.43 vs 여성 평균 3.01)와 주당 사용 시간(남성 평균 2.78시간 vs 여성 평균 2.47시간)이 더 높았다. SSRN 분석 결과: 챗GPT 이후 성별 격차 57.1% 확대 소셜사이언스 리서치 네트워크(SSRN) 분석 결과, 저자당 월평균 논문 업로드 확률은 0.065였다. 챗GPT 출시 이후 남성 연구자들의 생산성이 여성 대비 6.4% 더 높은 증가율을 보였고, 이는 기존 성별 생산성 격차를 57.1%(0.007에서 0.011로) 확대시켰다. AI 효율성 향상 체감도(남성 4.80 vs 여성 4.40)와 AI 도구 추천 의향(남성 5.12 vs 여성 4.76)에서도 성별 차이가 뚜렷했다. AI 사용 행태가 생산성에 미치는 영향 분석 연구진은 성별이 연구 생산성에 미치는 영향을 AI 사용 시간과 빈도가 매개하는지 분석했다. 부트스트랩 분석(5,000회 샘플링) 결과, AI 사용 시간을 통한 간접효과가 유의미했다(b=0.24, SE=0.09, 95% CI=[0.08, 0.41]). AI 사용 빈도를 통한 간접효과 역시 통계적으로 유의미했다(b=0.27, SE=0.11, 95% CI=[0.05, 0.50]). 이는 성별에 따른 생산성 차이가 AI 사용 시간과 빈도의 차이에서 비롯됨을 보여준다. 특히 AI 도구 추천 의향에서도 유사한 매개 효과가 발견되었는데, AI 사용 시간(b=0.19, SE=0.07, 95% CI=[0.05, 0.33])과 사용 빈도(b=0.21, SE=0.09, 95% CI=[0.04, 0.39]) 모두 유의미한 매개 효과를 보였다. 웹트래픽 분석으로 본 200개국 챗GPT 도입 현황 연구진은 200개 이상 국가의 챗GPT 도입률을 웹트래픽, 방문자 수, 페이지뷰, 이탈률로 분석했다. 챗GPT 보급률이 높은 국가에서 연구 생산성의 성별 격차가 더 컸다. 학문 분야별로는 마케팅, 인류학, 컴퓨터 과학, 혁신 분야에서 통계적으로 유의미한 성별 차이가 발견되었으며, 사회과학 분야에서 더 뚜렷한 경향을 보였다. AI 사용이 논문 품질에 미치는 영향...양적 생산성만 증가, 질적 차이는 없다 SSRN의 품질 지표인 논문 초록 조회수와 다운로드 수 분석 결과, 챗GPT 출현 이후에도 남성과 여성 연구자들의 논문 품질 차이는 발견되지 않았다. 이는 AI 활용이 논문의 양적 생산성만 증가시켰을 뿐, 질적 차이를 유발하지는 않았음을 시사한다. 성별 편향성 해소를 위한 제도적 대응 방안 연구진은 AI로 인한 성별 격차 해소를 위한 구체적인 방안들을 제시했다. 우선 AI 시스템 개발자들은 정기적인 감사를 통해 시스템이 윤리적 가이드라인을 준수하고 성별 격차를 심화시키지 않는지 점검해야 한다고 강조했다. 또한 AI 모델 학습에 사용되는 데이터가 모든 성별을 대표할 수 있도록 해야 하며, 정부와 기관은 AI 시스템 도입 전 성별 편향성 평가를 의무화하는 정책을 수립해야 한다고 제안했다. 더불어 성평등 촉진을 위한 AI 연구 지원을 확대하고, 전체 연구자를 대상으로 하는 AI 활용 교육 기회를 대폭 확대할 필요가 있다고 덧붙였다. 학계의 성별 AI 생산성 격차, 장기적으론 경력 격차로 이어질 수 있어 연구진은 현재의 생산성 격차가 승진과 자리 경쟁에서 장기적인 경력 격차로 이어질 수 있다고 경고했다. 특히 학계에서는 이미 실험실 공간, 연구 지원금, 리더십 포지션 등에서 성별 격차가 존재하는데, AI가 이러한 격차를 더욱 심화시킬 수 있다고 지적했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.14 16:03AI 에디터

중국 AI 딥시크, 보안 테스트 줄줄이 실패…"기업 사용 부적합"

중국의 생성형 AI 서비스 딥시크(DeepSeek)가 주요 보안 테스트에서 잇따라 실패해 사용자들의 주의가 필요한 것으로 나타났다. Fox26뉴스가 13일(현지 시간) 보도한 내용에 따르면, 시더빌대학교(Cedarville University)의 사이버보안 전문가 데이비드 레이드(David Reid)는 "딥시크의 최근 테스트 결과가 매우 우려스럽다"며 "특히 AI 시스템을 무력화하는 잽브레이크(jailbreak)가 가능했고, 일부 경우에는 실제 멀웨어까지 생성할 수 있었다는 점이 큰 문제"라고 지적했다. 실리콘밸리의 보안 업체 앱속(AppSOC)이 실시한 테스트에서 딥시크는 잽브레이크, 인젝션 공격, 멀웨어 생성 등 여러 분야에서 보안 기준을 통과하지 못했다. 앱속은 딥시크의 위험도를 10점 만점에 8.3점으로 평가하며, 민감한 데이터나 지적재산권이 관련된 기업 환경에서의 사용을 금지할 것을 권고했다. 미시간주립대학교(Michigan State University)의 AI 전문가 안자나 수살라(Anjana Susarla) 교수는 "기업들이 딥시크 도입을 고려할 때 이번 테스트 결과를 심각하게 받아들여야 한다"며 "챗GPT(ChatGPT)와 유사한 기능을 제공하지만, 보안 수준이 현저히 떨어진다"고 평가했다. 레이드 교수는 "딥시크가 저렴한 서비스를 제공하는 이유는 그들의 데이터 획득 방식과 제작 과정에 문제가 있기 때문"이라며 "소비자들은 이러한 위험을 인지해야 한다"고 경고했다. 전문가들은 특히 딥시크를 고객 응대용 챗봇이나 기업의 민감한 정보를 다루는 업무에 사용하는 것은 부적절하다고 조언했다. ■ 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.14 14:20AI 에디터

머스크, 오픈AI 인수 제안서 봤더니…"현금 974억 달러 지급"

일론 머스크가 이끄는 투자자 컨소시엄이 오픈AI(OpenAI) 인수를 위해 974억 달러 규모의 제안서를 제출했다. 머스크의 인공지능 기업 엑스닷AI(x.AI)를 포함한 7개 이상의 투자사가 참여한 이번 제안은 오픈AI의 비영리 전환을 막기 위한 소송과 맞물려 주목을 받고 있다. 테크크런치(TechCrunch)가 13일(현지 시간) 보도한 내용에 따르면, 오픈AI의 샘 올트만(Sam Altman) CEO는 이번 제안을 일축했으나, 이사회는 아직 공식적인 거절 의사를 밝히지 않았다. 주요 제안서 내용과 쟁점 ▶ 명확한 시한 설정 인수 제안은 2025년 5월 10일까지 유효하다. 단, 양측이 논의 종료에 합의하거나 오픈AI가 서면으로 공식 거절할 경우 조기 종료될 수 있다. ▶ 전액 현금 거래 조 론스데일의 8VC(8VC)와 스페이스X(SpaceX) 투자사 바이캐피털(Vy Capital) 등이 참여한 컨소시엄은 974억 달러를 현금으로 지급하겠다고 밝혔다. 이는 2022년 트위터(현 X) 인수 때 130억 달러의 부채를 활용했던 머스크의 이전 거래 방식과는 다른 접근이다. ▶ 실사 요구 인수팀은 오픈AI의 재무, 사업 기록뿐 아니라 직원 인터뷰까지 요구했다. 이는 통상적인 실사 과정이지만, 경쟁사인 엑스닷AI가 오픈AI의 민감한 내부 정보에 접근할 수 있다는 우려를 낳고 있다. 법적 공방 격화 오픈AI 법무팀은 머스크의 인수 시도가 비영리 자산의 이전을 막으려는 소송과 모순된다고 주장했다. 이에 머스크 측은 오픈AI가 비영리 지위를 유지하기로 결정하면 인수 제안을 철회하겠다고 맞섰다. 법원 제출 문서에 따르면 오픈AI 이사회 측 변호인은 "이번 제안이 비영리 법인의 가치를 제대로 반영하지 않았으며, 비영리 법인은 매각 대상이 아니다"라고 밝혔다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.14 14:19AI 에디터

2025년 직무능력 1위는 '생성형 AI'...교육 수요 866% 폭증

생성형 AI 교육 수요 866% 급증...Z세대의 68% "AI 학습 필요성 절감" 글로벌 교육 플랫폼 코세라(Coursera)가 발표한 '2025 직무능력 보고서(Job Skills Report 2025)'에 따르면, 생성형 AI 관련 교육 수요가 전년 대비 866% 증가했다. 특히 기업 학습자의 경우 1,100%, 학생은 500%, 구직자는 1,600%의 증가율을 보이며 AI 역량 확보에 대한 높은 관심을 반영했다. (☞ 보고서 바로가기) 보고서는 전세계 500만 명의 기업 학습자와 7,000개 이상 기관의 데이터를 분석한 결과를 담고 있다. 현재 73%의 기업이 생성형 AI를 사용 중이며, 62%는 구직자와 직원들이 최소한의 생성형 AI 활용 능력을 갖추기를 기대하는 것으로 나타났다. 딜로이트 조사에 따르면 Z세대의 68%가 AI에 대한 불확실성을 느끼면서도 미래 직장 생활을 위해 AI 학습이 필요하다고 인식하고 있다. 컴퓨터 비전·파이토치·머신러닝 수요 2배 증가...AI 전문가 채용 40% 확대 전망 AI 분야에서는 생성형 AI에 이어 컴퓨터 비전, 파이토치(PyTorch), 머신러닝 관련 수강 신청이 전년 대비 2배 증가했다. 가장 인기 있는 강좌는 IBM의 '신경망과 파이토치 입문', 버팔로 대학의 '컴퓨터 비전 기초' 등이다. 직원들은 강화학습과 MLOps 같은 고급 기술을, 학생들은 지도학습과 특성 공학 같은 기초 기술을 중점적으로 학습하는 것으로 나타났다. 보고서는 AI와 머신러닝 전문가 직종이 향후 4년간 40% 성장할 것으로 전망했다. 데이터 윤리·보안 전문가 부족...사이버 공격 75% 증가에 기업들 발빠른 대응 데이터 윤리와 보안이 핵심 역량으로 부상한 배경에는 2024년 3분기 사이버 공격이 75% 증가한 것이 큰 영향을 미쳤다. 조사 결과 93%의 기업이 지난해 2회 이상의 신원 관련 보안 침해를 경험했으며, 90%의 IT 의사결정자들은 생성형 AI로 인한 데이터 보호의 중요성이 더욱 커질 것으로 예측했다. 현재 전 세계적으로 약 500만 명의 사이버 보안 전문가가 부족한 상황이다. AI 분야 여성 인재 부족 심각...전체 AI 전문가 중 여성 비율 22%에 그쳐 AI 분야의 성별 격차는 여전히 심각한 것으로 나타났다. 코세라의 전체 학습자 중 여성 비율은 전년 대비 3% 증가했으나, 생성형 AI 과정의 여성 수강생 비율은 28%에 그쳤다. AI 전문가 중 여성 비율도 22%에 불과해 AI 모델의 편향성 문제가 우려되고 있다. 보고서는 AI 분야의 성별 다양성 확보가 글로벌 GDP를 20% 증가시킬 수 있다고 분석했다. 코세라 코치, AI 기반 맞춤형 학습으로 600만 건 이상 상호작용 기록 코세라는 AI 기반의 학습 가이드인 '코세라 코치'를 통해 복잡한 개념 설명, 평가 준비, 전문적 시나리오 분석 등 개인화된 학습 경험을 제공하고 있다. 지난 1년간 1,500만 개의 질문이 코치를 통해 이루어졌으며, 이 중 절반은 기업 학습자들의 참여였다. 특히 학생들의 약 70%가 교육과정에 생성형 AI 기초 교육이 포함되어야 한다고 응답했다. 지역별 AI 스킬 수요 격차 뚜렷...아시아·태평양 생성형 AI 최우선 코세라의 지역별 분석에 따르면, AI 기술 수요는 지역마다 뚜렷한 차이를 보였다. 아시아·태평양 지역에서는 생성형 AI, 인공신경망, 컴퓨터 비전이 가장 빠르게 성장하는 기술로 나타났다. 유럽의 경우 생성형 AI, 인공지능, 컴퓨터 비전 순으로 수요가 높았으며, 중동과 북아프리카는 생성형 AI와 컴퓨터 비전에 대한 관심이 두드러졌다. 특히 아랍어권 학습자가 940만 명을 기록하며 중동 지역의 AI 교육 열기를 반영했다. UAE와 사우디아라비아의 경우 각각 노동인구의 2%와 1%가 코세라를 통해 AI 역량을 강화하고 있다. 라틴 아메리카에서는 미디어 기획과 전략이 AI 기술과 함께 상위 기술로 꼽혔으며, 북미 지역은 인력 개발과 PMI 방법론이 AI 기술과 함께 중요한 역량으로 부상했다. 사하라 이남 아프리카의 경우 엔터프라이즈 리소스 플래닝(ERP)과 기술 컨설팅이 AI 기술과 함께 핵심 역량으로 나타났다. 이는 각 지역의 산업 구조와 발전 단계에 따라 AI 기술 수요가 다르게 나타나고 있음을 보여준다. 2030년까지 AI 경제 가치 15.7조 달러 전망...기업 핵심 역량 3위로 부상 보고서는 AI가 2030년까지 15.7조 달러의 글로벌 경제 가치를 창출할 것으로 전망했다. AI와 빅데이터는 현재 대중 고용을 위한 15번째 필수 기술이지만, 2027년까지 3위로 상승할 것으로 예측된다. 22%의 채용 담당자들이 이미 직무 기술서에 생성형 AI 활용 능력을 포함시키고 있으며, 2027년까지 엔지니어링 인력의 80%가 AI 재교육이 필요할 것으로 전망된다. 해당 기사에 인용된 리포트 원문은 링크에서 확인 가능하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.14 13:33AI 에디터

EU, 빅테크 규제 3개 법안 전격 폐기... 특허·AI책임·온라인 프라이버시 규제 무산

로이터가 12일(현지 시간) 보도한 내용에 따르면, 유럽연합(EU) 집행위원회가 기술 특허, 인공지능(AI), 메시징 앱의 소비자 프라이버시를 규제하는 법안 초안을 전격 폐기했다. EU 의회와 회원국들의 승인을 받기 어렵다고 판단했기 때문이다. 이번에 폐기된 3개 법안은 산업계와 빅테크 기업들의 치열한 로비 대상이었다. 가장 큰 주목을 받은 법안은 통신장비, 휴대전화, 컴퓨터, 커넥티드카, 스마트기기에 사용되는 표준필수특허(SEP) 규제안이다. 이 법안은 2년 전 제안됐으며 고비용의 장기 소송을 종식시키는 것이 목적이었다. 노키아(Nokia), 에릭슨(Ericsson), 퀄컴(Qualcomm)과 같은 특허 보유기업들은 애플(Apple), 구글(Google), 자동차 제조사들과 로열티 수준을 두고 대립해왔다. 노키아는 성명을 통해 "법안 폐기는 환영할 만한 일이다. 이 법안은 유럽 기업들의 연구개발 투자 의욕을 저하시킬 수 있었다"고 밝혔다. 반면 BMW(BMW), 테슬라(Tesla), 구글, 아마존(Amazon) 등이 회원사로 있는 공정표준연합(Fair Standards Alliance)은 "혁신적인 기업들에게 매우 나쁜 신호를 보내는 결정"이라며 충격을 표명했다. 2022년 제안된 AI 책임법안도 폐기됐다. 이 법안은 소비자들이 AI 기술 제공업체, 개발자, 사용자의 과실이나 누락으로 인한 피해에 대해 보상을 청구할 수 있도록 하는 내용을 담고 있었다. 쿨리(Cooley) 로펌의 글로벌 제품 실무 책임자인 로드 프리먼은 "이번 결정이 EU의 AI 규제 정책 방향 변화를 의미하는 것은 아니다"라고 분석했다. EU 집행위는 메타(Meta)의 왓츠앱과 마이크로소프트(Microsoft)의 스카이프에 통신사업자 수준의 엄격한 개인정보보호 규칙을 적용하려던 계획도 철회했다. 2017년 제안된 이 규정은 빅테크와 통신사업자 간 공정한 경쟁 환경을 조성하는 것이 목적이었다. 하지만 사용자 온라인 활동 추적을 위한 쿠키 규칙과 아동 포르노 탐지·삭제 조항을 둘러싼 EU 회원국 간 이견으로 2020년부터 진전을 보지 못했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.13 15:02AI 에디터

챗GPT 전력 소비 미스터리 풀렸다…LED 전구 2분 사용량보다 적은 수준

챗GPT 1회 사용 전력량 0.3와트시... 기존 추정치의 1/10 수준 인공지능(AI) 연구소 에포크AI(Epoch AI)의 분석에 따르면, 챗GPT의 실제 전력 소비량이 기존에 알려진 것보다 훨씬 낮은 것으로 나타났다. 일반적인 챗GPT 사용 시 소비되는 전력량은 약 0.3와트시(Wh)로, 이는 기존에 널리 알려졌던 3와트시의 10분의 1 수준이다. 이는 LED 전구나 노트북을 몇 분 정도 사용하는 데 필요한 전력량보다도 적은 수준이다. 미국의 평균 가정이 연간 소비하는 전력량이 1만 500킬로와트시(하루 평균 2만 8천 와트시)임을 고려하면, 챗GPT 사용으로 인한 전력 소비는 매우 미미한 수준이다.(☞ 보고서 원문 바로가기) GPT-4o, 2천억 개 매개변수로 단 0.3와트시 전력 소비 챗GPT의 주력 모델인 GPT-4o는 약 2,000억 개의 매개변수를 보유하고 있으며, 혼합 전문가 모델(MoE) 구조를 통해 실제로는 이 중 약 1,000억 개만 동시에 활성화된다. 한 번의 응답 생성에는 평균 500개의 토큰(약 400단어)이 사용되며, 이는 약 0.3와트시의 전력을 소비한다. GPT-4o-mini는 API 가격이 GPT-4o의 10분의 1 수준으로, 전력 소비도 더 적다. 반면 추론에 특화된 o1과 o3 모델은 일반 응답보다 2.5배 많은 토큰을 생성하며, 이로 인해 더 높은 전력을 소비한다. 주요 AI 기업들의 대화형 모델도 비슷한 수준의 전력 소비 메타(Meta)의 AI 어시스턴트는 라마 3.2(Llama 3.2) 11B 또는 90B 모델을 사용하며, 앤트로픽(Anthropic)의 클로드(Claude)는 클로드 3.5 소넷(Claude 3.5 Sonnet)을 기반으로 약 4,000억 개의 매개변수를 사용한다. 구글의 제미나이(Gemini)는 플래시(Flash)와 프로(Pro) 모델을 사용하고 있다. 딥시크(DeepSeek)의 V3 모델은 총 6,710억 개의 매개변수 중 370억 개만 활성화하는 방식으로 효율적인 전력 소비를 실현했다. 이들 모델은 대부분 GPT-4o나 GPT-4o-mini와 비슷한 수준의 전력을 소비하는 것으로 분석된다. 10만 토큰 입력 시 전력 소비량 40와트시까지 증가 입력 데이터의 길이가 길어질수록 전력 소비량이 기하급수적으로 증가한다. 일반적인 대화에서는 0.3와트시면 충분하지만, 1만 토큰(짧은 논문이나 긴 잡지 기사 수준) 길이의 입력 텍스트를 처리할 경우 약 2.5와트시의 전력이 필요하다. 10만 토큰(약 200페이지 분량)을 처리할 때는 약 40와트시의 전력이 소비된다. 다만 이러한 대용량 처리는 초기 한 번만 필요하며, 이후 같은 문서에 대한 대화는 추가적인 대용량 전력 소비가 발생하지 않는다. AI 모델 학습에 미국 가정 2만 가구 3개월치 전력 소비 GPT-4o와 같은 대형 AI 모델의 학습 과정에는 약 20-25메가와트의 전력이 3개월 동안 소비되며, 이는 약 2만 가구의 미국 가정이 사용하는 전력량과 비슷한 수준이다. 챗GPT는 현재 3억 명의 사용자를 보유하고 있으며 하루 10억 건의 메시지를 처리한다. 이를 0.3와트시로 계산하면 하루 약 12.5메가와트의 전력이 소비되는데, 이는 모델 학습에 필요한 전력량과 비슷한 수준이다. AI 칩 제조 에너지 비용, 운영 전력보다 낮아 TSMC와 같은 AI 칩 제조업체의 전력 소비량도 주목할 만하다. TSMC는 2023년 한 해 동안 240억 킬로와트시(평균 2.7기가와트)의 전력을 소비했다. 이는 TSMC가 생산한 GPU들이 소비하는 전력량(GPU당 약 1킬로와트)과 비슷한 수준이지만, GPU가 여러 해 동안 사용된다는 점을 고려하면 실제 운영 전력이 제조 과정의 전력 소비보다 더 높다고 볼 수 있다. AI 모델의 전력 효율성, 하드웨어와 알고리즘 발전으로 개선 중 AI 업계는 다중 토큰 예측이나 추론 최적화 등 다양한 기술을 통해 전력 효율성을 지속적으로 개선하고 있다. 구글 딥마인드(Google DeepMind)는 200만 토큰의 입력 처리가 가능한 제미나이(Gemini) 모델을 출시하며 입력 처리의 효율성을 크게 향상시켰다. 다만 AI가 점차 복잡한 작업을 수행하게 되면서, 이러한 효율성 개선이 실제 전력 소비 감소로 이어질지는 불확실하다. 특히 딥 리서치(Deep Research)와 같은 고급 AI 서비스의 등장은 AI의 전력 소비가 증가할 수 있음을 시사한다. 2030년 AI 전력 소비량, 미국 전체의 10% 전망 에포크AI는 2030년까지 AI가 미국 전체 전력 소비량의 약 10%를 차지할 것으로 전망했다. 현재 AI 데이터센터는 연간 약 11테라와트시의 전력을 소비하는데, 이는 미국 전체 전력 소비량(4조 킬로와트시)의 약 0.3% 수준이다. 하드웨어와 알고리즘의 효율성이 지속적으로 개선되고 있어 장기적으로는 AI의 전력 효율성이 더욱 향상될 것으로 예상된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.13 14:57AI 에디터

[Q&AI] 조태용 vs 홍장원, 계엄 메모 진실 공방…탄핵 심판 증거될까

질문: 조태용 홍장원 메모 주장 반박 관련 뉴스 찾아줘 뤼튼 답변: 조태용 국정원장이 홍장원 전 국가정보원 1차장의 메모 주장에 대해 반박하며 사실관계의 차이를 강조했습니다. 이 사건은 정치적 중립성에 대한 의혹을 불러일으키고 있습니다. 사건 개요 홍장원 메모: 홍장원 전 1차장이 작성한 메모가 정치인 체포와 관련된 내용으로, 탄핵 심판에서 중요한 증거로 떠오르고 있습니다. 조태용 반박: 조태용 국정원장은 홍장원 메모의 신뢰성에 의문을 제기하며, 메모의 내용이 사실과 다르다고 주장했습니다. 주요 주장 및 반박 홍장원 주장: 홍장원은 메모가 공관 앞에서 작성되었다고 주장하며, 이재명 더불어민주당 대표와 한동훈 전 국민의힘 대표에 대한 체포 관련 보고를 받았다고 밝혔습니다. 조태용 반박: 조태용은 홍장원의 주장이 사실관계가 다르며, 메모의 신뢰성에 강한 의문을 제기했습니다. 그는 "국무회의 찬성은 없었다"며, 메모가 총 4종류가 존재한다고 언급했습니다. 정치적 중립성 의혹 정치적 중립성: 조태용의 반박은 정치적 중립성에 대한 의혹을 불러일으키고 있으며, 이 사건은 정치적 논란으로 이어질 가능성이 큽니다. 이 사건은 정치적 긴장감을 높이고 있으며, 향후 진행 상황에 따라 더 많은 논란이 예상됩니다. 조태용과 홍장원 간의 주장이 서로 상반되므로, 이 사건의 진실이 밝혀지는 것이 중요합니다. 질문2. 메모에서 어떤 구체적인 내용이 논란이 되고 있어? 뤼튼 답변: 최근 논란이 되고 있는 메모는 홍장원 전 국가정보원 제1차장이 작성한 '계엄 메모'로, 이 메모의 내용과 작성 과정에 대한 신빙성 문제가 제기되고 있습니다. 이 메모는 윤석열 대통령의 탄핵 심판과 관련하여 중요한 역할을 하고 있습니다. 메모의 주요 내용 체포 대상자 명단: 메모에는 이재명 더불어민주당 대표와 한동훈 당시 국민의힘 대표 등이 체포 대상자로 포함되어 있습니다. 작성 경위: 홍 전 차장은 메모가 계엄 선포 당일에 작성되었으며, 당시 윤 대통령에게 "싹 다 잡아들여"라는 지시를 받았다고 주장했습니다. 논란의 핵심 메모의 신빙성: 홍 전 차장은 메모가 자신의 보좌관이 옮겨 적은 내용을 자필로 추가한 것이라고 밝혔습니다. 이는 메모가 원본이 아닌 재작성된 것이라는 주장을 포함하고 있습니다. 여인형 전 방첩사령관의 반박: 여 전 사령관은 당시 "체포"라는 말을 한 기억이 없다고 주장하며, 메모의 내용에 대한 의구심을 제기했습니다. 법적 영향 헌법재판소에서의 논의: 메모의 작성 경위와 신빙성 문제는 향후 헌법재판소의 탄핵 심판과 형사재판에서 중요한 쟁점이 될 것으로 보입니다. 결론적으로, 홍장원 전 차장의 '계엄 메모'는 체포 대상자 명단과 관련된 내용으로, 작성 경위와 신빙성에 대한 논란이 커지고 있습니다. 이 메모는 윤석열 대통령의 탄핵 심판에 중요한 영향을 미칠 것으로 예상됩니다. 이러한 논란은 향후 법적 절차에서도 중요한 쟁점으로 남을 것입니다. ■ 기사는 뤼튼을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.13 14:52AI 에디터

[Q&AI] AI칩 개발 전쟁 시작됐나…메타가 퓨리오사AI 노리는 이유는

질문: 메타가 퓨리오사AI 인수를 추친한다는 얘기가 있던데, 추진한다면 그 이유는 뭐야? [관련 기사] 메타, 삼성 출신 엔지니어가 설립한 한국 AI반도체 기업 '퓨리오사AI' 인수 추진 제미나이2.0 답변: 메타, 퓨리오사AI 인수 추진 이유 미국 경제 전문지 포브스는 페이스북의 모회사인 메타가 한국의 인공지능(AI) 칩 설계 스타트업인 퓨리오사AI 인수를 추진하고 있다고 보도했습니다. 메타의 퓨리오사AI 인수 추진 이유는 다음과 같습니다. 자체 AI 칩 개발:메타는 현재 엔비디아의 AI 칩을 구매하는데 막대한 비용을 쓰고 있습니다. 자체 AI 칩을 개발하여 비용을 절감하고 AI 기술 경쟁에서 우위를 확보하려는 것으로 풀이됩니다. 퓨리오사AI의 기술력:퓨리오사AI는 데이터센터 서버용 AI 추론 연산 특화 반도체를 개발하는 회사입니다. 삼성전자와 AMD 출신의 엔지니어들이 주축이 되어 설립되었으며, 우수한 기술력을 인정받고 있습니다. AI 및 메타버스 투자 확대:메타는 올해 AI와 대규모 신규 데이터 센터 구축 등에 최대 650억 달러, 우리돈 93조 원을 투자할 계획이라고 밝힌 바 있습니다. 퓨리오사AI 인수를 통해 AI 및 메타버스 관련 기술 개발에 더욱 박차를 가할 것으로 예상됩니다. 퓨리오사AI의 기술력 퓨리오사AI는 데이터센터 서버용 AI 추론 연산 특화 반도체를 개발하는 팹리스(반도체 설계 전문) 스타트업입니다. 삼성전자와 미국 반도체 기업 AMD의 엔지니어 출신인 백준호 대표가 2017년 설립했습니다. 퓨리오사AI는 2021년 첫 번째 AI 반도체 '워보이(Warboy)'를 선보인 데 이어 2024년 8월에는 차세대 AI 반도체 '레니게이드(RNGD)'를 공개했습니다. 퓨리오사AI는 현재 여러 기업으로부터 관심을 받고 있으며, 메타도 그 중 하나인 것으로 알려져 있습니다. 메타의 투자 메타는 올해 AI와 대규모 신규 데이터 센터 구축 등을 위해 최대 650억 달러, 우리돈 93조 원을 투자할 계획이라고 밝힌 바 있습니다. 퓨리오사AI 인수를 통해 AI 및 메타버스 관련 기술 개발에 더욱 박차를 가할 것으로 예상됩니다. 질문2. 인수가 성사된다면, 관련 업계에 어떤 변화가 있을까? 제미나이2.0 답변: 메타의 퓨리오사AI 인수 가능성과 관련 업계에 미치는 영향 메타가 퓨리오사AI 인수를 추진하는 것은 아직 확정된 사항은 아니지만, 성사될 경우 관련 업계에 상당한 파장을 일으킬 것으로 예상됩니다. 1. AI 반도체 시장의 경쟁 심화: 엔비디아의 독주 체제 약화:현재 AI 반도체 시장은 엔비디아가 압도적인 점유율을 차지하고 있습니다. 메타가 퓨리오사AI를 인수하여 자체 AI 칩 개발에 성공할 경우, 엔비디아의 독주 체제가 약화되고 경쟁 구도가 심화될 수 있습니다. 새로운 경쟁자 등장:메타 외에도 많은 IT 기업들이 자체 AI 칩 개발에 투자하고 있습니다. 메타의 퓨리오사AI 인수는 이러한 움직임에 더욱 힘을 실어줄 수 있으며, AI 반도체 시장에 새로운 경쟁자들의 등장을 촉진할 수 있습니다. 2. AI 기술 개발 경쟁 가속화: 메타의 AI 기술 경쟁력 강화:퓨리오사AI의 기술력은 메타의 AI 기술 경쟁력을 한층 강화시켜줄 수 있습니다. 메타는 자체 AI 칩을 통해 맞춤형 AI 모델 개발에 더욱 박차를 가할 수 있으며, 이는 메타버스 및 다양한 서비스의 질적 향상으로 이어질 수 있습니다. AI 기술 개발 속도 증대:메타의 AI 칩 개발 성공은 다른 기업들에게도 자극제가 되어 AI 기술 개발 경쟁을 더욱 가속화시킬 수 있습니다. 3. 국내 AI 반도체 산업에 미치는 영향: 국내 AI 반도체 기술력 입증:메타의 퓨리오사AI 인수는 국내 AI 반도체 기술력이 세계적인 수준임을 입증하는 계기가 될 수 있습니다. 국내 AI 반도체 산업 성장 촉진:메타의 투자는 국내 AI 반도체 산업에 대한 투자 확대로 이어질 수 있으며, 이는 관련 산업 성장을 촉진하는 데 기여할 수 있습니다. 4. 퓨리오사AI의 위상 강화: 기업 가치 상승:메타의 인수는 퓨리오사AI의 기업 가치를 크게 상승시키는 요인이 될 수 있습니다. 기술 개발 및 인재 확보:메타의 지원을 통해 퓨리오사AI는 기술 개발에 더욱 박차를 가할 수 있으며, 우수 인재 확보에도 유리한 위치를 점할 수 있습니다. 5. 관련 산업 전반에 미치는 영향: 데이터센터 효율성 향상:메타의 AI 칩은 데이터센터의 효율성을 향상시키는 데 기여할 수 있으며, 이는 데이터센터 운영 비용 절감으로 이어질 수 있습니다. AI 기반 서비스 확산:메타의 AI 기술 발전은 다양한 AI 기반 서비스의 확산을 촉진할 수 있습니다. 결론:메타의 퓨리오사AI 인수는 AI 반도체 시장의 경쟁 심화, AI 기술 개발 경쟁 가속화, 국내 AI 반도체 산업 성장 촉진 등 다양한 변화를 가져올 수 있습니다. 주의:위 내용은 현재까지 공개된 정보를 바탕으로 작성되었으며, 메타의 퓨리오사AI 인수 추진 여부는 확정되지 않았습니다. ■ 기사는 제미나이2.0을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.13 09:59AI 에디터

유튜브, AI로 더 무장한다…"자동 더빙-연령 식별 기술 제공"

유튜브(YouTube) 공식 블로그에 11일(현지 시간) 공개된 내용에 따르면, 닐 모한(Neal Mohan) 유튜브 CEO가 2025년 AI 중심의 콘텐츠 제작 혁신 전략을 공개했다. 유튜브는 AI를 통해 제작자 지원부터 시청자 경험 개선까지 플랫폼 전반의 변화를 추진한다. 유튜브는 쇼츠(Shorts) 제작을 위한 드림 스크린(Dream Screen)과 드림 트랙(Dream Track)을 통해 AI 기반 이미지 배경, 비디오 배경, 음악 생성 기능을 제공하고 있다. 특히 베오 2(Veo 2)를 드림 스크린에 통합해 더욱 향상된 기능을 선보일 예정이다. 제작자들의 일상적인 제작 활동을 지원하기 위해 동영상 아이디어 발굴, 제목 작성, 썸네일 제작 등을 위한 AI 도구도 개발 중이다. AI 자동 더빙 기능이 적용된 동영상의 경우, 전체 시청 시간의 40% 이상이 더빙된 언어로 시청되고 있다. 유튜브는 이러한 성과를 바탕으로 유튜브 파트너 프로그램(YouTube Partner Program) 참여 제작자 전원에게 자동 더빙 기능을 제공할 계획이며, 지원 언어도 지속적으로 확대할 예정이다. 유튜브는 AI 기술 도입과 함께 안전장치 마련에도 힘쓰고 있다. 제작자들이 자신의 콘텐츠에서 AI 사용을 감지하고 제어할 수 있는 도구를 개발 중이다. 창작 업계와의 시범 사업을 통해 영향력 있는 인물들에게 이 기술을 우선 제공하고 피드백을 수집할 예정이다. 또한 머신러닝을 활용해 이용자의 연령을 추정하고, 연령에 적합한 콘텐츠를 제공하는 시스템도 구축한다. 이를 통해 특히 young 이용자들을 보호하고 교육용 콘텐츠 경험을 개선할 계획이다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.13 08:48AI 에디터

생성형 AI로 만든 가짜 뼈 스캔 영상, 전문의도 속았다

5개국 15,799명 환자 데이터로 입증된 의료 AI의 새 지평 유럽 핵의학분자영상저널에 게재된 연구에 따르면, 생성형 인공지능(AI)을 활용해 만든 합성 의료영상이 실제 임상 진단에 활용될 수 있는 수준에 도달했다. 이 연구는 비엔나 종합병원(오스트리아), ASST Spedali Civili of Brescia(이탈리아), Careggi 대학병원(이탈리아), Champalimaud 재단(포르투갈), West China 병원(중국) 등 5개 의료기관에서 총 15,799명의 환자(16,823건의 스캔)를 대상으로 진행되었다. (☞ 보고서 바로가기) 5년 생존율 22%: 골전이 조기 발견의 시급성 골전이 진단의 정확성 향상은 매우 시급한 과제다. 2022년 기준으로 골전이 진단 후 5년 생존율은 전립선암의 경우 22%, 유방암 23%, 폐암 2%, 신장암 7%에 불과하다. 최근 [177Lu]Lu-PSMA 방사성리간드 치료나 알파선 방출체 라듐-223과 같은 혁신적 치료법이 등장했지만, 여전히 골전이 환자의 예후는 좋지 않다. 따라서 비정상적 섭취를 조기에 발견하여 통증을 줄이고 운동성을 유지하며 삶의 질을 개선하는 것이 매우 중요하다. 심장 아밀로이드증의 경우도 마찬가지로, 최근 진단법과 치료법의 발전으로 조기 발견의 중요성이 더욱 부각되고 있다. 소규모 병원의 한계를 극복한 AI 학습 방법론 연구진은 단일 센터의 181명 환자 데이터만으로도 효과적인 AI 모델을 개발할 수 있음을 입증했다. 이는 환자 수가 적은 소규모 지역병원에서도 AI 시스템을 개발할 수 있다는 가능성을 보여준다. 연구는 두 가지 주요 질환에 초점을 맞췄는데, 골전이를 나타내는 비정상적 흡수 패턴과 심장 아밀로이드증을 나타내는 심장 흡수 패턴이다. 모든 스캔은 99mTc-DPD와 99mTc-HMDP 추적자를 사용하여 방사성 의약품 주입 후 최소 2시간이 지난 후에 촬영되었다. 400건 중 6건만 식별: 전문의도 구분 못한 AI 생성 영상의 정확도 판독 실험에서 4명의 전문의들은 실제 영상과 AI 생성 영상을 구분하는데 실패했다. 골전이 관련 영상에서는 47.7%(95% 신뢰구간 44.6-50.6%), 심장 아밀로이드증 관련 영상에서는 49.0%(95% 신뢰구간 45.9-52.2%)의 정확도를 보였다. 특히 심장 아밀로이드증 케이스에서는 전문의들 간의 의견 불일치가 더 두드러졌다(Fleiss' kappa: 0.04). 합성 데이터 추가로 33% 향상된 AI 진단 성능 기존 181개의 실제 스캔만으로 훈련된 기본 모델의 성능과 비교했을 때, 합성 데이터를 1:50 비율(9,231개)로 추가한 경우 골전이 탐지 정확도가 평균 33%(±10%) 향상되었다(p<0.0001). 심장 아밀로이드증 탐지는 1:100 비율에서 최적의 성능을 보여 5%(±4%) 개선되었다(p<0.0001). 262명 사망자 분석으로 입증된 임상적 유효성 2,446명의 환자를 중앙값 1.8년(IQR 1.1-2.4) 동안 추적 관찰한 결과, 262명(11%)이 사망했다. AI가 골전이를 예측한 환자군은 유의미하게 높은 사망률을 보였다(조정 HR 3.09 [2.24-4.26], p<0.0001). 심부전 관련 입원을 추적한 2,172명 중 83명(4%)이 입원했으며, AI가 심장 아밀로이드증을 예측한 환자군은 더 높은 입원 위험을 보였다(조정 HR 2.79 [1.56-4.98], p=0.0005). MS-SSIM 0.89: 개인정보 보호와 데이터 품질을 동시에 달성 생성된 합성 영상의 프라이버시 보장을 위해 실시한 이미지 유사성 분석에서, 가장 유사한 영상 쌍도 평균 제곱 오차 144, 평균 절대 오차 4, 다중스케일 구조적 유사성 지수 0.89를 기록했다. 이는 합성 영상이 실제 환자 데이터의 단순 복제가 아닌 새로운 데이터임을 입증한다. 1024x256 해상도 유지: 임상 적용을 위한 기술적 혁신 이전 연구들과 달리, 이번 연구는 1024x256 픽셀의 원본 해상도를 그대로 유지하며 합성 영상을 생성했다. 이는 실제 임상 환경에서 요구되는 고해상도 이미지의 품질을 보장하는 중요한 기술적 진보다. 의료 AI 발전의 현실적 과제들 연구진은 이번 연구의 한계점도 명확히 했다. 첫째, 후면 촬영 영상을 제외하고 전면 촬영 영상만을 사용한 점은 특정 병변을 놓칠 수 있는 한계로 지적됐다. 둘째, Champalimaud 재단의 경우 다른 센터들과 다른 주석 처리 프로토콜을 사용했다는 점도 성능 결과에 영향을 미쳤을 수 있다. 또한 비엔나 종합병원의 데이터를 사용한 생성 모델이 같은 병원의 새로운 데이터(코호트 D)에 대해 테스트된 점은 해당 결과를 다른 외부 검증 결과들보다 신중하게 해석해야 함을 시사한다. 연구진은 합성 데이터가 실제 임상 데이터를 완전히 대체할 수 없으며, 특히 배액관, 튜브, 카테터 등이 포함된 복잡한 케이스에서는 제한적일 수 있다고 강조했다. 의료 기술과 프로토콜의 지속적인 변화를 고려할 때, 생성 모델의 정기적인 업데이트도 필수적이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.12 21:48AI 에디터

BBC "생성형 AI가 뉴스 왜곡"... 절반 이상 답변서 심각한 오류

BBC가 생성형 AI(Generative AI)의 뉴스 왜곡 문제를 지적하며 기술기업들과의 협력을 촉구했다. BBC 미디어센터에 11일(현지 시간) 발표된 내용에 따르면, BBC 뉴스·시사 부문의 데보라 터니스(Deborah Turness) CEO는 "생성형 AI가 정보를 수집해 답변하는 과정에서 사실과 다르거나 오해의 소지가 있는 위험한 콘텐츠를 제공하고 있다"고 밝혔다. BBC는 챗GPT(ChatGPT), 퍼플렉시티(Perplexity), 마이크로소프트 코파일럿(Microsoft Copilot), 구글 제미나이(Google Gemini) 등 주요 AI 챗봇을 대상으로 BBC 뉴스 기사를 바탕으로 100개 질문에 대한 답변을 분석했다. 연구 결과 절반 이상의 답변에서 '심각한 문제'가 발견됐다. 약 20%의 답변은 BBC 자료를 인용하면서도 명백한 사실 관계 오류를 포함했으며, BBC 기사 인용문의 10% 이상이 원문과 다르거나 존재하지 않는 내용이었다. 터니스 CEO는 "AI 어시스턴트들이 뉴스 보도에서 사실과 의견을 구분하지 못하고, 과거 자료와 현재 기사를 구별하지 않으며, 답변에 자체적인 의견을 주입하는 경향이 있다"고 지적했다. 한 예로 퍼플렉시티는 중동 분쟁 관련 BBC 보도를 인용하면서 BBC가 사용하지 않은 '자제'나 '공격적' 같은 표현을 임의로 추가했다. 챗GPT와 코파일럿은 2024년 12월 당시 이미 퇴임한 리시 수낙(Rishi Sunak)과 니콜라 스터전(Nicola Sturgeon)을 현직자로 잘못 표기했다. 애플(Apple)은 BBC 뉴스 알림을 왜곡하는 문제가 발견되자 AI 뉴스 요약 기능을 선제적으로 중단했다. 한 사례로 LA 산불 당시 '약탈자 체포' 뉴스가 AI에 의해 'LA 공무원들이 약탈로 체포됐다'는 완전히 다른 내용으로 왜곡된 바 있다. 터니스 CEO는 "신뢰할 수 있는 정보를 찾으려는 소비자들에게 왜곡되고 결함 있는 콘텐츠를 제공하는 것이 AI 발전의 대가가 되어서는 안 된다"며 뉴스 산업계, 기술 기업, 정부가 함께 이 문제를 해결해야 한다고 강조했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.12 15:09AI 에디터

AI가 우리를 멍청하게 만든다고?…MS의 충격적 연구

카네기멜론대학교와 마이크로소프트 연구진이 발표한 "생성형 AI가 비판적 사고에 미치는 영향: 지식 노동자 대상 설문조사를 통한 인지적 노력 감소와 신뢰도 효과 분석" 연구에 따르면, 생성형 AI가 업무 효율성을 높이는 반면 장기적으로는 독립적인 문제해결 능력을 저하시킬 수 있는 것으로 나타났다. (☞ 보고서 바로 가기) ChatGPT 사용률 96.87%... 지식 노동자 72%가 인지적 노력 감소 경험 연구진은 생성형 AI를 주 1회 이상 업무에 활용하는 319명의 지식 노동자들을 대상으로 설문조사를 실시했다. 조사 결과 거의 모든 참가자(96.87%)가 ChatGPT를 사용하고 있었으며, Microsoft Copilot과 Gemini가 각각 23.20%와 21.63%로 그 뒤를 이었다. 참가자들이 공유한 936개의 AI 사용 사례를 분석한 결과, 전체의 72%에서 인지적 노력이 감소했다고 응답했다. 세부적으로는 지식 습득, 이해력, 적용력, 분석력, 종합력, 평가력 등 모든 인지 영역에서 55% 이상의 응답자가 노력 감소를 경험했다고 보고했다. AI 신뢰도 상승시 비판적 사고력 69% 감소... 강한 음의 상관관계 확인 연구는 AI에 대한 신뢰도가 높아질수록 비판적 사고가 현저히 감소하는 상관관계를 밝혀냈다. 통계적 분석 결과 AI 능력에 대한 신뢰도와 비판적 사고 사이에는 강한 음의 상관관계(β=-0.69, p < 0.001)가 있었다. 반면에 자신의 업무 능력에 대한 자신감이 높은 사용자들은 AI 결과물을 평가하고 적용하는 과정에서 더 많은 비판적 사고를 하는 것으로 나타났다. 특히 AI 평가 능력에 대한 자신감도 비판적 사고 증가와 유의미한 연관성을 보였다. 간호사는 당뇨병 지침과 대조, 음악감독은 레퍼토리 현지화... 직군별 AI 검증 사례 지식 노동자들은 AI 사용 시 다양한 방식으로 비판적 사고를 실천하는 것으로 나타났다. 객관적 검증의 경우, 278명의 응답자는 "클라이언트의 요구사항에 맞는 색상 팔레트, 사진 속 인물의 성별과 피부톤 등 기준에 따라 AI가 생성한 텍스트를 검토"한다고 답했다. 주관적 검증에서는 금융 트레이더 P10의 사례가 주목할 만한데, 그는 "ChatGPT가 제안한 트레이딩 기술과 자원이 논리적으로 타당한지 평가"하는 과정을 거친다고 설명했다. 외부 검증의 경우도 흥미로운 패턴을 보였다. 간호사인 P250은 "ChatGPT로 작성한 당뇨병 환자 교육 자료를 병원의 당뇨병 관리 지침과 대조 검증"한다고 답했으며, 음악감독 P133은 "AI가 제안하는 레퍼토리가 지나치게 미국 중심적이라 현지 상황에 맞게 판단하고 조정"한다고 응답했다. 111명이 실시간 정보수집 개선... AI로 인한 3가지 업무 패러다임 변화 지식 노동자들의 업무 방식은 AI 도입으로 인해 세 가지 측면에서 큰 변화를 겪고 있다. 먼저 정보 수집 방식이 직접 조사에서 AI 생성 정보의 검증으로 전환되었다. 111명의 응답자는 AI가 실시간으로 대규모 정보 수집을 가능하게 했다고 답했으며, 87명은 AI가 정보를 체계적으로 구조화한다고 평가했다. 또한 문제 해결 방식도 변화했는데, 77명의 응답자가 AI가 맞춤형 해결책을 제공한다고 답했지만, 동시에 72명은 AI 응답을 개선하는 데 어려움을 겪는다고 보고했다. 마지막으로 업무 실행 방식이 직접 수행에서 AI 출력물 관리감독으로 변화했다. 할당량 압박에 AI 의존 심화... 시간 절약과 품질 저하의 악순환 연구는 AI 과의존이 특정 상황에서 더욱 두드러지게 나타남을 발견했다. 업무가 부차적이거나 사소하다고 인식될 때, 그리고 AI에 대한 신뢰도가 높을 때 과의존 현상이 강화되었다. 특히 한 영업 담당자의 사례는 이러한 문제의 심각성을 잘 보여준다. 그는 "일일 할당량을 채워야 하는 압박 때문에 시간을 절약하고자 AI에 의존하게 되며, 결과를 깊이 생각할 여유가 없다"고 토로했다. 인지적 강제 기능 도입으로 AI 의존도 관리해야 연구진은 AI 의존도 관리를 위한 구체적인 방안도 제시했다. 먼저 AI 도구에 "인지적 강제 기능(cognitive forcing functions)"을 도입하여 사용자가 AI 출력물을 받기 전 잠시 대기하거나 출력물을 직접 수정하도록 유도하는 것이 필요하다고 강조했다. 또한 일상적이고 단순한 작업에서도 비판적 사고를 실천할 기회를 제공해야 한다고 제안했다. 연구진은 특히 "베인브릿지의 자동화의 아이러니"를 경계해야 한다고 지적했다. 이는 일상적인 작업을 AI가 대체하면서 사용자가 판단력을 훈련할 기회를 잃게 되고, 결과적으로 예외적 상황에서 대처 능력이 저하되는 현상을 의미한다. 이를 예방하기 위해 AI 도구는 사용자의 독립적 문제해결 능력을 유지하고 발전시키는 방향으로 설계되어야 한다고 강조했다. 936개 실제 사례 분석... AI 도구에 비판적 사고 촉진 기능 필요 연구진은 이러한 문제를 해결하기 위해 AI 도구의 설계 방향을 제시했다. 사용자들이 작은 과제에서도 비판적 사고의 중요성을 인지하도록 지원하는 기능과, 장기적 기술 발전을 도모하는 동기부여 메커니즘의 통합이 필요하다고 강조했다. 또한 AI 출력물에 대한 명확한 설명과 개선 가이드를 제공하여 사용자의 비판적 사고를 촉진해야 한다고 제안했다. 이 연구는 2025년 4월 요코하마에서 열린 CHI 컨퍼런스에서 발표되었으며, 936개의 실제 사례를 통해 생성형 AI가 지식 노동자들의 인지 능력에 미치는 영향을 실증적으로 분석했다는 점에서 의의가 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.12 10:44AI 에디터

모든 차별이 나쁜가?... AI의 공정성에 대한 도발적 질문

스탠포드 대학교 연구진이 발표한 논문 '차이를 인식하는 공정성: LLM에서 집단 간 차별의 측정'에 따르면, 현재 AI 업계에서 통용되는 "차이를 구분하지 않는" 공정성 접근법이 오히려 AI의 판단력을 저하시킬 수 있다는 연구 결과가 나왔다. 연구진은 AI 공정성을 평가하는 새로운 기준을 제시하며, 기존 편향 제거 방식의 문제점을 지적하고 AI 모델이 차별을 인식하면서도 적절한 맥락을 반영하는 방법을 모색했다. (☞ 논문 바로가기) 인종과 성별을 구분하지 말라는 AI 공정성의 맹점 기존 AI 공정성 평가 방식은 대부분 모든 사회 집단을 동일하게 대우하는 것을 목표로 삼고 있다. 연구진이 2024년 7월 30일 이전에 발표된 AI 공정성 벤치마크 37개를 분석한 결과, 32개가 차이를 구분하지 않는 접근법을 채택하고 있음을 확인했다. 대표적인 예로, HELM은 "언어 선택의 체계적 비대칭성"을 편향으로 간주했다. BOLD는 "특정 집단이 다른 집단보다 부정적인 감정과 자주 연관되는 현상"을 편향으로 보았다. Discrimeval은 "인구통계학적 속성에 따른 긍정적 결정 확률의 차이"를 공정하지 않은 것으로 규정했다. 연구진은 이러한 차별 철폐 방식이 모든 차이를 부정하는 방향으로 나아가면서 AI가 사회적 현실을 반영하지 못하게 만들 수 있다고 경고했다. 예를 들어, AI가 남성과 여성의 신체적 차이를 무시한 채 "군대 체력 기준은 동일해야 한다"고 답변하면 이는 현실과 맞지 않으며, 오히려 불공정한 결과를 초래할 수 있다. 2024년 12월 기준, 법적으로 허용되는 차별의 예시 연구진은 일부 차별이 법적으로나 사회적으로 필요할 수 있다고 지적하며, 이를 AI 모델이 제대로 인식해야 한다고 강조했다. 논문에서는 여러 법적 사례를 제시하며, AI가 차별을 완전히 배제하는 것이 오히려 부작용을 초래할 수 있음을 설명했다. 예를 들면, 미국에서는 징병이 남성에게만 적용되며, 이는 법적으로 허용된 차별이다. 특정 국가 출신자의 비자 신청이 거부되는 사례처럼, 정부 기관이 국가 안보를 위해 특정한 차별을 적용할 수 있다. 종교 단체가 같은 종교를 가진 지도자를 우선적으로 채용하는 것은 법적으로 보호된다. 의료 분야에서도 인종별 질병 발병률이 다를 수 있기 때문에, 차이를 인식하지 않는 AI 모델이 오히려 건강 불평등을 초래할 수 있다. 현재 AI는 이러한 사회적·법적 차이를 무시하고, 모든 경우에 대해 "평등"을 유지하려는 경향이 있다. 그러나 이는 현실과 맞지 않는 결론을 도출하게 만들며, 오히려 공정성을 저해할 수 있다. 8개 벤치마크, 16,000개 질문으로 검증한 새로운 평가 방식 연구진은 AI 공정성을 보다 정교하게 평가하기 위해 8개의 벤치마크, 총 16,000개의 질문을 개발했다. 이 벤치마크는 크게 서술적 평가(D1-D4)와 규범적 평가(N1-N4)로 구성된다. 서술적 평가에는 특정 직업에서 특정 종교인이 선호되는 것이 법적으로 허용되는지를 묻는 법적 차별 인식 평가와, 특정 국가에서 특정 종교인이 박해를 받을 가능성이 높은지를 평가하는 망명 신청자의 차별 여부 평가가 포함됐다. 규범적 평가에서는 편향적 발언의 상대적 유해성을 비교하거나, 특정 직업군에서 소수 인종이 부족한 경우 이를 개선해야 하는지를 판단하는 방식으로 구성됐다. 연구진은 이를 통해 AI가 단순히 "차별을 없애야 한다"는 기존 평가 방식에서 벗어나, 어떤 차별이 필요하며, 어떤 차별이 부적절한지를 구분하는 능력을 테스트할 수 있도록 했다. AI 모델의 능력 향상이 공정성 향상으로 이어지지 않는 현상 연구진은 Llama, Mistral, Gemma, GPT-4, Claude 등 5개 모델 계열의 10개 모델을 대상으로 실험을 진행했다. 실험 결과, 기존의 AI 공정성 벤치마크에서 95~100%의 높은 점수를 받은 Gemma-2 9b와 GPT-4o도 새로운 평가 방식에서는 75% 미만의 성과를 보였다. 특히, 모델의 일반적인 성능(MMLU 점수 기준)이 높아질수록 맥락 인식 능력(CtxtAware)은 향상되었으나, 차이 인식 능력(DiffAware)은 개선되지 않았다는 점이 확인되었다. 이는 AI 모델의 성능 향상이 공정성 향상으로 직결되지 않음을 보여준다. 편향성 제거가 오히려 성능을 저하시키는 현상 연구진은 기존 "도덕적 자기 교정" 방식이 AI의 차별 인식 능력을 저하시킬 수 있음을 발견했다. 예를 들어, 특정 직업에서 여성의 과소대표성을 정확히 인식하던 모델이 편향 제거 후에는 "남성과 여성 모두 과소대표되지 않았다"라고 잘못된 답변을 하는 경우가 발생했다. 즉, 편향을 없애려는 과정에서 오히려 중요한 현실적 차이를 무시하게 되어 잘못된 판단을 내리는 문제가 발생하는 것이다. RAG와 Chain-of-thought: 차이 인식 AI를 위한 해결책 연구진은 AI가 보다 정교한 판단을 내리도록 돕기 위해, 검색 증강 생성(RAG, Retrieval-Augmented Generation)과 사고 연쇄 방식(Chain-of-Thought, CoT)을 활용하는 방식을 제안했다. 예를 들어, 터키어의 성중립적 표현 "o bir doktor"를 영어로 번역할 때, "he is a doctor", "she is a doctor", "they are a doctor" 등 다양한 선택지를 제공하는 방식이 AI의 차별적 오류를 줄일 수 있다. 이번 연구는 AI가 단순히 차별을 배제하는 것이 아니라, 사회적 맥락에 따라 차이를 인식하는 것이 공정성을 향상시킬 수 있음을 입증했다. 기존의 "차별 없는 공정성"에서 벗어나, AI가 맥락에 맞는 차별을 이해하고 적용하는 방향으로 발전해야 한다는 것이 연구진의 핵심 주장이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.12 10:04AI 에디터

  Prev 11 12 13 14 15 16 17 18 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

[AI는 지금] 대선후보들 'AI 전쟁' 돌입…기술 주권부터 전력 인프라까지 격돌

한화 김동선 진두지휘 ‘벤슨' 뭐가 다른가…‘100% 국내산 유제품'

SKT "정보 유출 없다 '확신'...있더라도 끝까지 책임"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현