• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'에디터'통합검색 결과 입니다. (418건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI도 기억 헷갈린다…'지식 충돌' 왜 생기나

칭화대학교와 케임브리지대학교 공동 연구팀이 발표한 최신 연구에 따르면, 대형언어모델(LLM)이 지식을 처리하는 과정에서 세 가지 유형의 '지식 충돌' 현상이 발생하는 것으로 나타났다. 이러한 충돌은 특히 실제 응용 환경에서 노이즈와 잘못된 정보가 흔한 상황에서 모델의 신뢰성과 성능에 큰 영향을 미치는 것으로 밝혀졌다. 진실과 거짓 사이에서 혼란스러운 AI, 지식충돌의 주요 원인 대형언어모델의 지식충돌은 시간적 불일치와 잘못된 정보 오염이라는 두 가지 주요 원인에서 비롯된다. 시간적 불일치는 과거 데이터로 학습된 모델이 현재의 정보와 맞지 않을 때 발생하는데, 이는 모델의 사전학습 패러다임과 모델 확장에 따른 비용 증가로 인해 더욱 심화될 것으로 예상된다. 잘못된 정보로 인한 오염의 경우, 검색된 문서나 사용자 대화에서 의도적으로 조작된 정보가 유입될 때 발생하며, 실험 결과 모델의 성능을 최대 87%까지 저하시키는 것으로 나타났다. 세 갈래로 나뉜 AI의 혼란: 문맥, 정보, 기억의 충돌 대형언어모델의 지식충돌은 크게 문맥-기억 충돌(Context-Memory Conflict), 문맥간 충돌(Inter-Context Conflict), 내부기억 충돌(Intra-Memory Conflict)로 구분된다. 문맥-기억 충돌은 모델의 파라미터에 저장된 지식과 외부에서 주입되는 문맥 정보가 상충할 때 발생한다. 문맥간 충돌은 검색 증강 생성(RAG) 기술 사용 시 검색된 여러 문서들 사이의 정보가 서로 모순될 때 발생하며, 실험 결과 잡음률이 0.8을 초과하면 모든 모델의 성능이 20% 이상 감소했다. 내부기억 충돌은 모델 내부의 지식 표현이 서로 일관되지 않을 때 발생하는 현상이다. 충돌하는 정보 앞에서 AI의 선택은 제각각 실험 결과는 모델들의 행동 패턴이 매우 다양함을 보여줬다. ChatGPT, GPT-4, PaLM2는 모델에 내재된 지식을 선택할 확률이 60% 이상이었으나, 다른 모델들은 주어진 문맥 정보를 80% 이상 선택했다. 특히 대화가 진행되면서 AI의 믿음 체계 변화 비율은 20.7%에서 78.2%까지 증가했다. 더욱 우려되는 점은 GPT-4조차도 FaVIQ 테스트에서 32%의 불일치율을 보였다는 것이다. "거짓말을 하고 있어요": AI의 자체 모순 감지 능력 모델의 자체 모순 탐지 능력도 평가되었다. GPT-4는 문서 내 모순을 발견할 확률이 70% 이상으로 가장 우수했으나, 다른 모델들은 50% 미만의 성능을 보였다. CONTRADOC 데이터셋을 통한 실험에서는 감정이나 주관적 관점이 포함된 내용, 문서의 길이나 자기모순의 다양성이 모순 탐지 성능에 영향을 미치는 것으로 나타났다. AI의 혼란을 잡아라: 지식충돌 해결을 위한 세 가지 전략 연구팀은 문제 해결을 위해 '문맥 충실', '잘못된 정보 식별', '정보 원천 분리' 세 가지 주요 전략을 제시했다. 문맥 충실 전략을 적용한 GPT-Neo 20B는 MemoTrap에서 54.4%, NQ-SWAP에서 128%의 성능 향상을 보였다. ChatGPT의 경우 프롬프트 기반 해결책 적용 시 MRC 태스크에서 32.2%, Re-TACRED에서 10.9%의 개선효과가 있었다. 특히 지식충돌 감지 시스템은 80%의 F1 점수를 달성했다. 멀티모달 시대의 새로운 과제: AI 지식충돌의 미래 연구진은 실제 환경의 지식충돌, 다국어 환경에서의 충돌, 멀티모달 데이터 간 충돌을 주요 과제로 지목했다. 특히 이미지(Alayrac et al., 2022), 비디오(Ju et al., 2022), 오디오(Borsos et al., 2023) 등 다양한 형태의 정보가 결합될 때 발생하는 복잡한 충돌 문제 해결이 시급하다고 강조했다. 또한 통합적이고 효율적인 해결책 개발의 필요성도 제기되었다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.10 15:03AI 에디터

AI, 물리법칙도 깨쳤다...엔비디아 '코스모스 플랫폼' 분석

물리세계 이해하는 AI의 두뇌, 월드 파운데이션 모델 심층 분석 엔비디아(NVIDIA)가 물리적 세계와 상호작용하는 AI 개발을 가속화할 수 있는 월드 파운데이션 모델(World Foundation Model, WFM) 플랫폼 '코스모스(Cosmos)'를 공개했다. 엔비디아 기술 블로그에 따르면, 코스모스의 핵심인 월드 파운데이션 모델은 9,000조 개의 토큰 데이터로 학습됐다. 여기에는 자율주행, 로보틱스, 합성 환경 등에서 수집한 2,000만 시간 분량의 데이터가 포함됐다. 이 모델은 자동회귀와 디퓨전 두 가지 아키텍처를 채택했다. 자동회귀 모델은 3D 회전 위치 임베딩(RoPE)으로 공간과 시간 차원을 분리해 처리하며, 교차 어텐션 레이어로 텍스트 입력을 제어한다. 디퓨전 모델은 3D 패치화 기술로 비디오를 작은 조각으로 나누고, 하이브리드 위치 임베딩으로 다양한 해상도와 프레임 속도를 지원한다. 특히 적응형 레이어 정규화와 로라(LoRA) 기술을 통해 모델 크기를 36% 줄이면서도 높은 성능을 유지하는 데 성공했다. 3D 일관성과 물리법칙 준수 능력 입증 엔비디아는 코스모스의 성능을 검증하기 위해 500개의 정적 장면 데이터셋으로 3D 일관성을 평가했다. 기존 비디오 생성 모델인 비디오LDM과 비교한 결과, 코스모스의 디퓨전 텍스트투월드(Text2World) 7B 모델은 샘슨 오차(Sampson Error)에서 0.355를 기록해 기존 모델의 0.841보다 크게 향상된 성능을 보였다. 또한 카메라 포즈 추정 성공률도 62.6%로, 기존 모델의 4.4%를 크게 뛰어넘었다. 물리법칙 준수 능력 평가에서는 엔비디아 피직스(PhysX)와 아이작 심(Isaac Sim)을 활용해 중력, 충돌, 토크, 관성 등 8가지 시나리오를 테스트했다. 9개 프레임의 입력 데이터를 사용했을 때 PSNR 21.06, SSIM 0.69의 우수한 성능을 달성했다. 89배 빠른 데이터 처리와 고품질 압축 기술의 결합 코스모스는 엔비디아의 네모 큐레이터(NeMo Curator)를 통해 기존 CPU 파이프라인 대비 89배 빠른 데이터 처리 속도를 제공한다. 100페타바이트 이상의 대용량 데이터도 원활하게 처리할 수 있으며, 호퍼(Hopper) GPU로는 40일, 블랙웰(Blackwell) GPU로는 14일 만에 2,000만 시간의 비디오를 처리할 수 있다. 코스모스 토크나이저는 자동회귀 모델의 경우 시간은 8배, 공간은 16x16배로 압축하며 최대 49개 프레임을, 디퓨전 모델은 시간 8배, 공간 8x8배 압축으로 최대 121개 프레임을 처리한다. AI 안전성 확보를 위한 이중 가드레일 시스템 구축 엔비디아는 코스모스의 안전한 활용을 위해 사전 가드와 사후 가드로 구성된 이중 가드레일 시스템을 도입했다. 사전 가드는 키워드 차단과 엔비디아의 AI 콘텐츠 안전 모델 '에이지스(Aegis)'를 통해 부적절한 프롬프트를 필터링한다. 사후 가드는 생성된 비디오의 모든 프레임을 검사해 안전하지 않은 콘텐츠를 차단하고, 레티나페이스(RetinaFace) 모델로 인물의 얼굴을 자동으로 블러 처리한다. 엔비디아는 1만 개 이상의 프롬프트-비디오 쌍을 활용해 시스템을 지속적으로 개선하고 있다. 옴니버스 연계로 확장되는 물리 AI의 활용 코스모스는 엔비디아의 3D 설계 플랫폼 옴니버스(Omniverse)와 연동해 다양한 물리 AI 애플리케이션을 지원한다. 개발자들은 3D 시나리오를 생성하고 이를 사실적인 비디오로 변환할 수 있으며, 정책 모델 개발과 평가, 행동 예측, 다중 시뮬레이션 등을 수행할 수 있다. 모델은 실시간 추론에 최적화된 나노(Nano), 기본 성능의 수퍼(Super), 최고 품질의 울트라(Ultra) 세 가지 크기로 제공된다. 특히 옴니버스와의 연계를 통해 비디오 검색 및 이해, 제어 가능한 3D-실사 합성 데이터 생성, 예측적 유지보수, 자율 의사결정 등 다양한 응용이 가능하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.01.10 14:59AI 에디터

"5분이면 당신도 생성형 AI 도사"…기초 지식 완벽 가이드

생성형 AI의 정의와 발전 현황 생성형 인공지능(Generative AI)은 챗GPT(ChatGPT)와 같이 오디오, 코드, 이미지, 텍스트, 시뮬레이션, 비디오 등 새로운 콘텐츠를 생성할 수 있는 알고리즘이다. 맥킨지는 지난해 4월 기획 기사를 통해 생성형 AI에 대한 전반적인 기초 지식을 정리해 게재한 바 있다. 기사에 따르면, 2022년 11월 챗GPT가 등장한 이후 생성형 AI 기술은 빠르게 발전했다. 매월 새로운 도구와 규칙, 기술적 진보가 이루어지고 있으며, 맥킨지 조사에 따르면 AI 도입이 지난 5년간 2배 이상 증가했다. 의료 이미지 분석이나 고해상도 일기 예보와 같은 분야에서 머신러닝은 이미 상당한 성과를 보여주고 있다. 특히 챗GPT와 이미지 생성기 달리(DALL-E)와 같은 생성형 AI 도구들은 다양한 직무 수행 방식을 변화시킬 잠재력을 가지고 있다. 기존 AI와 생성형 AI의 차이점 인공지능(AI)은 기계가 인간의 지능을 모방하여 작업을 수행하는 것이다. 시리(Siri)나 알렉사(Alexa) 같은 음성 비서와 웹사이트의 고객 서비스 챗봇이 대표적인 예시다. 머신러닝은 인공지능의 한 유형으로, 인간의 지시 없이 데이터 패턴에서 '학습'할 수 있는 모델을 통해 인공지능을 개발한다. 최근에는 기존의 예측 모델을 넘어 생성형 AI가 등장했는데, 이는 단순히 고양이 사진을 인식하고 분류하는 것을 넘어 고양이 이미지나 텍스트 설명을 직접 생성할 수 있다. 생성형 AI의 시장 가치와 산업 영향력 맥킨지는 생성형 AI 애플리케이션이 전 세계 경제에 연간 최대 4.4조 달러의 가치를 창출할 것으로 전망했다. 향후 3년 내에 기술, 미디어, 통신 분야에서 AI와 연결되지 않은 것은 구식이거나 비효율적인 것으로 간주될 것으로 예측된다. 이미 많은 기업들이 생성형 AI 도구를 비즈니스 모델에 도입하려 경쟁하고 있다. 텍스트 기반 머신러닝 모델의 작동 방식 챗GPT 이전에도 오픈AI의 GPT-3나 구글의 BERT와 같은 텍스트 기반 머신러닝 모델이 있었다. 초기 모델들은 연구자들이 설정한 레이블에 따라 다양한 입력을 분류하도록 인간이 훈련시켰다. 이를 '지도 학습'이라고 한다. 최신 세대의 텍스트 기반 머신러닝 모델은 '자기 지도 학습'이라는 방식을 사용한다. 이는 모델에 방대한 양의 텍스트를 입력하여 예측을 생성할 수 있게 하는 방식이다. 인터넷의 광범위한 텍스트 데이터를 학습하면서 이러한 모델들은 매우 정확해졌고, 챗GPT의 성공으로 그 정확성이 입증되고 있다. 생성형 AI 모델 개발의 현실적 과제 생성형 AI 모델을 구축하는 것은 대규모 작업이어서 소수의 자금력 있는 기술 기업만이 시도할 수 있다. 챗GPT와 달리(DALL-E)를 개발한 오픈AI(OpenAI)는 수십억 달러의 자금을 지원받았으며, 딥마인드(DeepMind)는 알파벳(구글 모회사)의 자회사다. 메타(Meta)도 메이크-어-비디오(Make-A-Video) 제품으로 생성형 AI 모델 시장에 진출했다. 모델 학습에는 막대한 비용이 든다. GPT-3는 약 45테라바이트의 텍스트 데이터(미국 의회도서관의 약 4분의 1 규모)로 학습됐으며, 추정 비용은 수백만 달러에 달한다. 생성형 AI의 출력물과 활용 생성형 AI 모델은 인간이 만든 것과 구분하기 어려운 콘텐츠를 생성할 수 있다. 챗GPT는 10초 만에 민족주의 이론을 비교하는 수준 높은 에세이를 작성할 수 있으며, 달리-E 2는 피자를 먹는 마돈나와 아기를 라파엘 화풍으로 그려낼 수 있다. 기업들은 생성형 AI를 그대로 사용하거나 특정 작업을 수행하도록 미세 조정할 수 있다. 예를 들어, 특정 스타일의 프레젠테이션 제목을 작성하려면 모델에 기존 슬라이드 데이터로부터 제목 작성 방식을 '학습'시킨 후 적절한 제목을 생성하도록 할 수 있다. 생성형 AI의 한계와 극복 방안 생성형 AI 모델이 새롭기 때문에 장기적 영향을 아직 파악하기 어렵다. 때로는 잘못된 정보를 제공하거나 인터넷과 사회의 성별, 인종 등 다양한 편향이 반영될 수 있으며, 비윤리적이거나 범죄적 활동에 악용될 수 있다. 이러한 위험을 완화하고 생성형 AI의 책임감 있는 활용을 위해 다음과 같은 방안을 고려할 수 있다. 첫째, 초기 학습 데이터를 신중히 선별함으로써 유해하거나 편향된 콘텐츠를 제외하는 것이 중요하다. 둘째, 범용적으로 사용되는 대규모 모델 대신 특정 목적에 적합한 작은 규모의 특수 목적 모델을 활용하는 방법도 고려할 수 있다. 셋째, 기업이 고유한 데이터를 활용해 모델을 커스터마이징하면, 해당 기업의 환경과 목적에 부합하는 결과를 얻을 수 있다. 넷째, 생성형 AI 모델의 출력물을 게시하거나 사용하기 전에 반드시 사람이 검토하는 절차를 마련하는 것이 필요하다. 마지막으로, 중요한 의사결정 상황에서는 생성형 AI 모델의 사용을 자제하고, 사람의 판단과 전문가의 의견에 의존하는 것이 적절하다. 규제와 향후 전망 생성형 AI는 급속도로 발전하는 분야로, 앞으로 몇 주, 몇 달, 몇 년 안에 위험과 기회의 지형이 빠르게 변화할 것으로 예상된다. 매달 새로운 활용 사례가 시험되고 있으며, 향후 몇 년 내에 새로운 모델이 개발될 것이다. 생성형 AI가 비즈니스, 사회, 개인의 삶에 더욱 깊이 통합됨에 따라 새로운 규제 환경이 형성될 것으로 예상된다. 기업 리더들은 이러한 도구를 실험하고 가치를 창출하면서 규제와 위험에 대한 동향을 주시해야 할 것이다. 해당 리포트의 원문은 링크에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 바로 가기)

2025.01.10 13:43AI 에디터

AI, 대학 연구 패러다임 바꾼다…교수진 71.5% "윤리적 고려 최우선"

대학 연구현장의 AI 도입 실태와 도전과제 Social Sciences & Humanities Open 최신호에 발표된 연구에 따르면, AI 기술이 대학의 연구 환경을 크게 변화시키고 있는 것으로 나타났다. 페루의 공립 및 사립대학 연구자 302명을 대상으로 진행된 이번 연구는 연구자들의 AI 모델 사용에 영향을 미치는 핵심 요인들을 분석했다. 특히 챗GPT(ChatGPT)와 같은 대규모 언어모델부터 리서치래빗(ResearchRabbit), 스코퍼스AI(ScopusAI)와 같은 전문 연구도구까지 다양한 AI 도구들의 활용 현황을 조사했다. 설문 응답자의 62.33%가 국립대학 소속이었으며, 37.7%는 사립대학 소속으로 나타났다. AI 도구의 특성에 따라 달라지는 연구자의 태도 연구진은 AI 도구들의 성능을 정확성, 정밀도, 재현율, F1 점수 등 핵심 지표를 통해 평가했다. 이러한 성능 차이는 학술 연구에 직접적인 영향을 미치는 것으로 나타났다. 예를 들어, 높은 정확도를 보이는 표절 감지 AI는 학문적 진실성 향상에 기여하지만, 불완전한 생성형 모델은 연구의 질을 저하시킬 수 있다는 점이 확인됐다. 또한 AI 도구의 특성에 따라 연구자들의 수용 태도가 크게 달라지는 것으로 분석됐다. 특히 도구의 용도, 성능 품질, 대상 사용자에 따라 채택 정도가 다르게 나타났다. AI 수용성의 핵심 결정요인은 '학문적 진실성' 연구 결과에 따르면 연구자들의 AI 도입을 결정하는 가장 큰 요인은 학문적 진실성(Academic Integrity)으로, 전체 변량의 71.5%를 설명하는 것으로 나타났다. 특히 AI 활용에 대한 윤리적 고려가 기술적 역량보다 더 중요한 요인으로 작용했다. 학문적 진실성은 연구와 교육에서 윤리적 원칙과 연구 재현성, 데이터 무결성을 유지하고, 학문적 부정행위를 방지하는 것을 의미한다. 특히 AI 도구의 사용이 표절, 부정행위, 데이터 조작 등의 윤리적 문제를 초래할 수 있기 때문에, 학문적 진실성은 AI 사용을 규제하고 책임 있는 활용을 보장하는 데 중요한 요인으로 간주된다. 이외에도 교육적 자기효능감(Educational Self-efficacy)은 두 번째로 강한 영향력을 보였으며, 사회적 영향(Social Influence)은 작지만 유의미한 영향을 미치는 것으로 분석됐다. 주목할 만한 점은 기존 연구에서 중요하게 여겨졌던 성과 기대감(Performance Expectancy)과 기술적 자기효능감(Technical Self-efficacy)은 유의미한 영향을 미치지 않는 것으로 나타났다. 연구자 78.2%, AI 활용이 윤리적 인식에 영향 미쳐 연구진의 AI 활용은 교수자들의 우려사항과 윤리적 인식에도 큰 영향을 미치는 것으로 나타났다. AI 활용 경험이 많을수록 윤리적 고려사항에 대한 인식도 높아지는 것으로 확인됐다. 연구자의 65.2%는 AI 활용이 교육 현장의 우려사항을 증가시킨다고 응답했으며, 78.2%는 AI 활용이 윤리적 인식에 영향을 미친다고 답했다. 특히 알고리즘의 투명성 부족, 윤리적 편향성, 데이터 프라이버시 문제가 주요 우려사항으로 지적됐다. 연구의 방법론적 신뢰성 '양호' 이번 연구의 방법론적 타당성은 여러 통계적 지표를 통해 검증됐다. G*Power 3.1 소프트웨어를 통한 사전 분석에서 최소 필요 표본 크기는 278명으로 산출됐으며, 실제 수집된 302명의 표본은 이를 충족했다. 구조방정식 모델의 적합도 또한 SRMR과 RMSEA 값이 모두 0.048로 기준치를 충족했으며, CFI 0.938, TLI 0.928 등의 지수도 양호한 수준을 보였다. AI 활용에 가장 부정적 영향을 미치는 건 '사용 용이성에 대한 기대감' 연구 참여자의 상세 구성을 보면 독립 연구자가 33.3%(100명), 교수 및 시니어 연구자가 5.7%(17명), 박사 후 연구원이 1.3%(4명), 연구 관리자가 0.3%(1명)를 차지했다. 연구진이 설정한 9개의 가설 중 6개가 통계적으로 지지됐다. 특히 주목할 만한 결과로 사용 용이성에 대한 기대감(EE)이 AI 활용에 부정적 영향(β = -0.237)을 미치는 것으로 나타났으며, 학문적 진실성은 가장 강한 긍정적 영향(β = 0.782)을 보였다. 사용 용이성에 대한 기대감은 구체적으로, 사용자가 AI 모델을 배우고 활용하는 데 필요한 노력 수준을 얼마나 쉽게 인식하는지를 나타낸다. 연구에 따르면, EE가 낮을수록, 즉 AI 모델이 더 쉽게 사용 가능하다고 느낄수록 사용 의도가 증가한다. 또한, AI 모델 사용이 교수자의 우려에 미치는 영향(β = 0.273)과 인지된 윤리에 미치는 영향(β = 0.556)도 통계적으로 유의미했다. 전체적으로 설명력을 나타내는 R² 값은 AI 모델 사용(USAI) 71.5%, 인지된 윤리(PETH) 78.2%, 교수자 우려(TC) 65.2%로 나타나 모델의 높은 설명력이 입증됐다. 라틴 아메리카 맥락의 특수성과 시사점 이번 연구는 신흥 경제권인 페루의 고등교육 맥락에서 AI 도입의 특수성을 보여준다. 연구 참여자의 연령대를 보면 29-33세가 38.07%로 가장 많았고, 대학원생이 59.3%를 차지해 신진 연구자들의 AI 활용 양상을 잘 보여준다. 챗GPT 사용 기간은 1-2개월이 35.2%로 가장 많았고, 3-5개월이 24.9%로 그 뒤를 이었다. 이는 지역적, 문화적 특수성이 AI 수용에 미치는 영향을 보여준다. 연구진은 향후 연구에서 기관의 정책적 맥락과 문화적 차이를 고려한 더 폭넓은 분석이 필요하다고 제언했다. 특히 신흥 경제권에서 윤리적 프레임워크가 아직 발전 중인 점을 고려할 때, AI 도입에 있어 윤리적 고려사항이 더욱 중요하다고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.10 13:40AI 에디터

AI가 수술실로 간다...인간의사 못잖은 '수술 로봇' 탄생

AI와 의료의 만남: 자율 수술의 새로운 지평 존스홉킨스대학교와 스탠포드대학교 연구진이 수술용 로봇 '다빈치(da Vinci)'에 모방학습 기술을 적용해 자율적인 수술 동작이 가능한 시스템을 개발했다. 다빈치 로봇은 전 세계 67개국에 6,500대가 설치되어 있으며, 2021년 기준 1,000만 건 이상의 수술에 활용됐다. 수술 과정의 영상과 동작 데이터가 수술 후 분석을 위해 저장되어 있어, 이를 활용한 자율 수술 시스템 개발이 가능할 것으로 기대를 모았다. 5cm 오차를 극복한 혁신적인 기술 다빈치 로봇은 관절 움직임을 측정하는 센서인 포텐시오미터의 부정확성으로 인해 최대 5cm의 오차가 발생하는 문제가 있었다. 이는 단순한 시각-서보잉(visual-servoing) 작업조차 실패하게 만드는 원인이 됐다. 연구진은 이 문제를 해결하기 위해 여러 동작 표현법을 연구했는데, 카메라 중심 방식을 시작으로 도구 중심 방식을 거쳐 최종적으로 하이브리드-상대적 방식을 개발했다. 특히 하이브리드-상대적 동작 방식은 로봇 움직임의 이동은 내시경 끝단을 기준으로, 회전은 현재 도구 끝단을 기준으로 계산하는 방식으로 가장 높은 성공률을 보였다. 로봇의 '눈'이 된 손목 카메라 연구진은 기존 다빈치 로봇에 손목 카메라를 추가해 성능을 크게 향상시켰다. 임상 현장에서는 일반적으로 사용되지 않는 손목 카메라지만, 정확한 깊이 추정이 필요한 작업에서 특히 효과적이었다. 예를 들어, 바늘 전달 과정에서 손목 카메라는 바늘이 대상 그리퍼에 정확히 전달되는지 판단하는 데 큰 도움을 주었다. 놀라운 성공률로 입증된 성능 연구진이 개발한 시스템은 기본적인 수술 작업들에서 놀라운 성과를 보였다. 조직을 들어올리는 작업에서는 모든 시도가 성공했으며, 바늘을 잡고 전달하는 복잡한 작업에서도 완벽한 성공률을 기록했다. 매듭 묶기 작업의 경우 실을 잡고 고리를 만드는 과정은 모두 성공했으며, 전체 작업에서도 대부분의 시도가 성공적이었다. 특히 하이브리드-상대적 방식을 사용했을 때 가장 우수한 성과를 달성했다. 실제 조직에서도 통했다 연구진은 시스템의 일반화 성능을 평가하기 위해 돼지고기, 닭고기 등 실제 동물 조직과 3D 봉합 패드를 사용한 실험도 진행했다. 시스템은 이전에 경험하지 못한 환경에서도 성공적으로 작업을 수행했으며, 특히 바늘 잡기와 전달 작업에서 모든 시도가 성공하는 뛰어난 성과를 보였다. 더 큰 도약을 위한 과제들 현재 시스템이 가진 주요 한계점으로는 크기가 큰 손목 카메라의 사용, 현재 관찰에만 기반한 동작 수행, 그리고 사람의 지시에 따른 행동 변화 능력의 부재를 들 수 있다. 연구진은 더 작은 크기의 카메라 개발과 빠른 도구 교체가 가능한 메커니즘 개발을 통해 이러한 한계를 극복할 계획이다. 이번 연구는 부정확한 로봇 동작 데이터를 활용해 성공적으로 모방학습을 구현했다는 점에서 큰 의미가 있다. 이는 향후 대규모 임상 데이터를 활용한 자율 수술 로봇 개발의 토대가 될 것으로 기대된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.10 10:45AI 에디터

AI 돌봄로봇, '이것' 없으면 성공 힘들다

AI 의료·돌봄 시장의 폭발적 성장과 과제 대만 가오슝대학교 정보관리학과 연구진의 최신 보고서에 따르면, AI 의료 시장은 2023년 192.7억 달러 규모에서 연평균 38.5%의 성장률을 기록하며 2030년까지 급성장할 전망이다. 특히 고령화 사회 진입과 만성질환 증가로 인해 전 세계 노인 돌봄 시장은 2030년까지 2조8천억 달러 규모로 성장할 것으로 예측된다. AI 기반의 모니터링 시스템, 동반자 로봇, 원격 의료 등이 이러한 도전과제를 해결할 주요 솔루션으로 주목받고 있다. 대표적인 예로 파로(Paro)와 같은 동물형 지능형 로봇은 노인, 고립된 환자, 우울증 환자들의 정서적 지원을 위한 동반자 로봇으로 활발히 활용되고 있다. 하지만 데이터 오남용과 불투명한 의사결정 등의 윤리적 문제가 AI 돌봄로봇의 신뢰도와 수용성을 저해하는 요인으로 지적되고 있다. AI 윤리의 3대 핵심 요소 연구진은 AI 윤리의 핵심 요소로 투명성, 책임성, 공정성을 제시했다. 투명성은 알고리즘과 데이터의 설명 가능성을 높이고 의사결정 과정을 명확히 하는 것으로, 특히 데이터 수집 및 분석 절차에 대한 상세한 설명 제공이 중요하다. 책임성은 시스템 실패 시 책임 소재를 명확히 하고 포괄적인 기록 유지를 통해 정보 접근성을 보장하는 것을 의미한다. 마이크로소프트의 2018년 가이드라인에서도 AI 배포의 잠재적 위험을 지속적으로 추적하고 평가해야 함을 강조했다. 공정성과 관련하여 Obermeyer 등(2019)의 연구는 의료 알고리즘에서 발생할 수 있는 인종적 편향 문제를 지적하며, AI 시스템 개발 전반에 걸쳐 포용성과 다양성 보장의 중요성을 입증했다. 사용자 신뢰와 수용성의 상관관계 분석 연구팀은 18-70세(평균 연령 28.49세)의 239명 잠재적 개발자와 152명의 실제 사용자를 대상으로 6점 리커트 척도를 활용한 설문 조사를 실시했다. 분석 결과 AI 윤리 원칙의 준수는 사용자의 자기효능감을 37.5% 높이는 것으로 나타났으며(p < 0.001), 사회적 영향력도 자기효능감을 32.4% 향상시키는 것으로 확인되었다. 특히 AI에 대한 신뢰는 사용자의 수용 의도에 가장 큰 영향(38.2%)을 미치는 것으로 분석되었다. 성별에 따른 차이도 발견되었는데, 남성은 AI 윤리가 자기효능감에 미치는 영향이 더 큰 반면, 여성은 사회적 영향력이 자기효능감에 미치는 영향이 더 큰 것으로 나타났다. 실무적 시사점과 개선 방안 AI 서비스 제공자들은 개발 초기 단계부터 윤리 가이드라인을 통합하고, 데이터 프라이버시를 보장하며, 윤리적 우려사항을 해결하는 데 집중해야 한다. EU 의회 정책국이 제시한 비전에 따라 모든 AI 시스템은 자체 윤리 모듈을 갖추어야 하며, 윤리적 위험 평가를 위한 독립적인 제3자 위원회 설립이 권장된다. 조직은 정기적인 윤리 감사와 영향 평가를 통해 기술 발전에 따른 윤리 기준과 사용자 기대를 충족시켜야 한다. 정책 입안자들은 책임있는 AI 혁신을 장려하기 위한 정책 프레임워크를 개발하고, AI 윤리 원칙, 데이터 프라이버시 규정, 투명성 요구사항 등에 대한 가이드라인을 제시해야 한다. 연구의 한계와 향후 과제 연구진은 본 연구의 한계점으로 대만이라는 단일 문화권에서 수행된 점을 지적했다. 특히 유교 가치관과 현대 서구 가치가 융합된 대만의 독특한 문화적 특성이 연구 결과에 영향을 미쳤을 수 있다고 분석했다. 또한 구조방정식모델링(SEM) 방법론의 한계로 인해 횡단적 설문 조사만으로는 인과관계를 완벽하게 포착하기 어렵다는 점도 언급했다. 향후 연구에서는 다양한 문화권에서의 AI 돌봄로봇 수용성을 비교 분석할 필요가 있으며, 심층 인터뷰나 포커스 그룹 등 질적 연구 방법론의 도입을 통해 더 깊이 있는 통찰을 얻을 필요가 있다고 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 바로 가기)

2025.01.10 10:16AI 에디터

AI 투자전쟁 뜨겁다…美中, 올해 2.8조원 쏟아붓는다

AI 투자 경쟁 본격화...주요국 대규모 자금 투입 세계경제포럼(WEF)과 맥킨지가 공동 발간한 '글로벌 협력 바로미터 2025' 보고서에 따르면, 기계학습 기술이 경제와 사회 전반으로 확산되면서 인공지능(AI) 주도권 확보가 국가와 기업의 핵심 성장 동력으로 부상했다. 맥킨지는 생성형 AI만으로도 2.6조 달러에서 4.4조 달러 규모의 가치가 창출될 것으로 전망했다. 글로벌 기업들의 AI 도입과 국가별 투자 현황 글로벌 혁신기술 지표는 2012년 이후 꾸준한 상승세를 보이며 2023년에도 긍정적 성장을 이어갔다. 특히 IT 서비스 교역, 국경 간 데이터 흐름, 인터넷 사용자 수가 지속적으로 증가했다. 맥킨지가 실시한 글로벌 기업 임원 대상 설문조사에서는 응답자의 65%가 생성형 AI를 도입했다고 답했다. 국가별로는 미국이 연방정부의 AI 투자를 대폭 확대했으며, 중국은 향후 수년간 AI 산업에 1.4조 달러를 투자할 계획이다. 사우디아라비아는 1,000억 달러 규모의 AI 프로젝트 투자를 약속했고, 인도는 국가 AI 혁신 생태계 구축을 발표했다. 각국의 AI 전략과 규제 방향 주요국들은 AI 주도권 확보를 위한 차별화된 전략을 추진하고 있다. 미국은 AI 안전성 확보와 기술 우위 유지에 초점을 맞추고 있으며, 중국은 자국 AI 산업 육성을 통한 기술 자립을 추구하고 있다. 사우디아라비아와 인도는 AI 혁신 생태계 구축에 주력하고 있다. 동시에 각국은 자국의 AI 시스템과 역량을 개발하는 'AI 주권' 확보와 다자간 협력 사이에서 균형을 맞추려 노력하고 있다. AI가 바꾸는 산업 지형도 AI는 산업 전반에 걸쳐 큰 변화를 가져올 것으로 전망된다. 특히 국제 무역 분야에서 AI와 디지털화는 G7 국가들의 교역량을 약 9조 달러(43%) 증가시킬 것으로 예측된다. AI는 효율성 향상과 새로운 무역 기회 창출에도 큰 역할을 할 것으로 기대된다. 한편 반도체와 같은 핵심 기술 분야에서는 원자재와 첨단기술 통제 조치가 강화되고 있어, 글로벌 공급망에도 영향을 미치고 있다. AI가 가져올 노동시장의 구조적 변화 국제통화기금(IMF)은 AI가 전 세계 일자리의 약 40%에 영향을 미칠 것으로 전망했다. 이 중 절반은 일자리가 사라질 위험에 처해있다. 방치할 경우 AI는 허위정보 확산을 가속화하고 평화와 안보에 새로운 위험을 초래할 수 있다는 우려도 제기됐다. AI 기술 경쟁의 새로운 전선 혁신기술 지표는 대부분 팬데믹 이전 수준을 상회했지만, 반도체와 같은 주요 공급망이 국가 간 통제 조치로 영향을 받고 있다. 국경 간 특허 출원은 2023년 감소했으며, 국경 간 R&D도 2022년(최신 데이터 기준) 하락세를 보였다. 이러한 추세는 총요소생산성(TFP)의 정체 현상에 영향을 미치고 있다고 보고서는 분석했다. AI 안전성 확보를 위한 국제협력 움직임 지정학적 경쟁이 심화되는 가운데서도 AI 안전성 확보를 위한 국제협력이 시작됐다. 2024년 11월 APEC 정상회의에서 시진핑 중국 국가주석과 바이든 미국 대통령은 핵무기 시스템에 대한 AI 통제 방지에 합의했다. 또한 UN 사무총장의 AI 고위자문기구는 최종보고서 '인류를 위한 AI 거버넌스'를 통해 AI 위험 해결과 기술 혜택의 공평한 공유를 위한 첫 글로벌 계획을 제시했다. 보고서는 AI 주권을 추구하면서도 다자간 파트너십을 통해 표준 수립, 가이드라인 설정, 국경 간 데이터 흐름 촉진을 동시에 달성해야 한다고 제안했다. AI 협력과 경쟁의 새로운 패러다임 보고서는 AI 분야에서 '무질서한 협력'(disordered cooperation)의 중요성을 강조했다. 이는 기존의 질서정연한 접근방식에서 벗어나, 더 유연하고 역동적인 파트너십을 통해 AI 기술의 혜택을 최대화하고 위험은 최소화하는 새로운 협력 모델을 의미한다. 특히 AI 기술의 급속한 발전 속도를 고려할 때, 각국은 기회가 발생할 때마다 신속하게 대응할 수 있는 '계획된 기회주의'(planned opportunism)를 채택해야 한다고 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 바로가기)

2025.01.10 09:41AI 에디터

AI가 확 바꾼 일자리 지도…내 직업은 괜찮을까

AI가 주도하는 디지털 혁신 시대의 도래 세계경제포럼(WEF)이 발간한 '미래일자리 보고서 2025'에 따르면, 2030년까지 전체 기업의 86%가 AI와 정보처리 기술로 인한 조직 혁신을 경험할 것으로 전망된다. 디지털 접근성 확대는 60%의 기업이 변화를 예상하는 가장 큰 변혁 동인으로 꼽혔으며, 로봇과 자율 시스템이 58%, 에너지 생성 및 저장 기술이 41%로 그 뒤를 이었다. 특히 2022년 11월 챗GPT 출시 이후 AI 분야 투자가 8배나 증가했으며, 이는 서버와 에너지 발전소 등 물리적 인프라 투자 증가로 이어지고 있다. 데이터 전문가 수요 급증, 단순 업무 일자리는 감소 리포트에 따르면 AI와 디지털 기술 확산은 전 세계적으로 약 22%의 일자리에 영향을 미칠 전망이다. 2030년까지 기술 변화로 인해 약 1억 7천만 개의 새로운 일자리가 창출되는 반면, 약 9천 2백만 개의 일자리는 사라질 것으로 예상된다. 특히 기술 관련 직무의 수요가 급증하고 있다. 최종적으로는 전체 고용의 7%인 7천 8백만개의 순증가가 예상된다. 리포트는 빅데이터 전문가, 핀테크 엔지니어, AI 및 머신러닝 전문가와 같은 기술직이 가장 빠르게 성장할 직군으로 꼽았다. 반면, 은행 창구 직원, 우편 서비스 직원, 데이터 입력 직원 등은 AI 및 자동화로 인해 가장 급격히 감소할 직군으로 나타났다. AI의 발전은 단순한 일자리 대체를 넘어, 인간-기계 협업의 새로운 형태를 만들어 내고 있다. 기업들은 직원들이 AI 기술을 활용해 더 창의적이고 전략적인 업무를 수행할 수 있도록 지원하고 있으며, AI의 활용은 기업 운영 효율을 100배까지 향상시킬 수 있는 잠재력을 보이고 있다. 의료·교육계의 AI 혁신: 90% 정확도의 AI 진단과 64% 향상된 학습 효과 미국 재무부는 'Managing AI-Specific Cybersecurity Risks in the Financial Services Sector' 보고서에서 금융 서비스 부문에서 AI의 잠재력과 위험을 동시에 강조했다. AI는 실시간 사기 탐지와 보안 강화에서 중요한 역할을 하고 있지만, 동시에 데이터 오염, 데이터 유출 등의 위험을 관리할 필요성이 커지고 있다. 의료 분야에서는 대형언어모델(LLM)을 활용한 정신 건강 진단 보조 시스템이 개발되고 있다. 연구에 따르면 우울증 및 불안장애 진단에 있어 AI 기반 시스템의 정확도가 90%를 넘어서며, 의료진 부족 문제 해결의 열쇠로 주목받고 있다. 이와 같은 기술은 환자와 자연어로 대화하며 증상을 평가하고, 진단의 일관성과 신뢰성을 향상시키고 있다. 교육 분야에서도 AI는 새로운 학습 방법을 제시하고 있다. 독일 뮌헨공대 연구진은 VR과 생성형 AI를 결합하여 문화유산 학습 효과를 64% 향상시키는 교육 방식을 개발했다. 시선 추적 기술과 맞춤형 AI 지도가 적용된 VR 학습 환경이 몰입감을 높여 더 나은 교육 결과를 제공하고 있다. 100배 빨라진 업무 속도: 글로벌 기업들의 AI 혁신 사례 월마트(Walmart), EA(Electronic Arts), 레노보(Lenovo) 등 글로벌 기업들은 AI 도입을 통해 운영 혁신을 이루고 있다. 월마트는 8억 5천만 개의 제품 카탈로그 데이터를 AI로 관리하여 기존 인력 대비 100배 이상의 효율을 달성했다. 레노보는 AI를 통해 고객 지원에서 70-80%의 자동화를 이루었고, 마케팅 자료 제작 시간을 90% 단축했다. 하지만 AI 도입 과정에서 해결해야 할 과제도 존재한다. 많은 기업들이 기술 도입 이후 성과 측정을 소홀히 하고 있으며, 직원들이 새로운 소프트웨어 사용에 어려움을 겪으면서 연간 수백만 달러의 비용 손실을 초래하고 있다. 이를 해결하기 위해 기업들은 직원 경험 관리와 기술 활용도 향상에 주력해야 한다. 문화예술계에도 부는 AI 바람: 인간의 창의성을 넘보다 AI는 문화와 창의성 분야에서도 새로운 가능성을 열어주고 있다. AI 기반 텍스트 생성 기술은 인간이 쓴 글과 매우 유사한 결과물을 내놓고 있지만, 여전히 인간의 창의성과는 차이가 있다는 연구 결과도 있다. 서울시립대학교 연구진은 AI가 생성한 텍스트가 특정 설정값에 따라 더 창의적이거나 인간과 유사한 표현을 보일 수 있음을 밝혀냈다. CES 2025에서는 한국 기업들이 AI와 디지털 헬스 분야에서 최고 혁신상을 대거 수상하며 글로벌 시장에서 기술력을 입증했다. 특히 AI 기술을 활용한 사이버보안, 생체 인식 결제, VR 기반 디지털 치료기기 등이 주목을 받았다. AI가 가져올 미래… 준비가 필요하다 AI 기술은 이제 단순한 도구를 넘어 산업과 일자리의 구조를 근본적으로 재편하고 있다. AI가 제공하는 기회는 무궁무진하지만, 동시에 새로운 위험과 윤리적 문제를 수반한다. 글로벌 리포트들은 AI 기술의 긍정적 잠재력을 극대화하면서, 동시에 데이터 보호, 편향 문제 해결, 지속적인 직원 재교육을 강조하고 있다. 보고서에 따르면 기업들의 절반이 AI에 대응하여 사업 방향을 재조정할 계획이며, 3분의 2는 AI 관련 기술을 보유한 인재를 채용할 예정이다. 또한 40%의 기업이 AI가 업무를 자동화할 수 있는 분야에서 인력을 감축할 것으로 예상된다. 기업들은 AI와 빅데이터, 네트워크와 사이버보안, 기술 리터러시를 향후 가장 빠르게 성장할 핵심 기술로 꼽았다. 앞으로의 시대는 인간-기계 협업을 중심으로 한 하이브리드 직무 환경이 표준이 될 것이다. 이를 대비하기 위해 기업과 정부는 업스킬링(upskilling)과 리스킬링(reskilling) 전략을 강화하고, AI 기술을 윤리적으로 활용할 수 있는 정책적 지원이 필요하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 일자리 보고서 바로 가기)

2025.01.09 14:16AI 에디터

일반인이 허위정보 인플루언서 되는 이유…생성형 AI 때문?

케임브리지 대학교에서 발표한 보고서에 따르면 허위정보 확산에 있어 생성형 인공지능(Generative AI, 이하 GenAI)이 중요한 역할을 하고 있으며, 경제적 동기가 이를 가속화하고 있다. 연구진은 브라질과 미국에서 15개월간 진행된 민족지학적 연구를 통해 일상적인 사용자들이 어떻게 GenAI를 활용해 허위정보를 생성하고 확산하는지를 심층 분석했다. 이 보고서는 허위정보 제작자들의 경제적 동기와 GenAI 사용 전략을 체계적으로 정리하며, 기존의 허위정보 연구와는 다른 중요한 통찰을 제공한다. 허위정보 제작의 경제적 동기는 "인플루언서 백만장자" 신드롬 보고서에 따르면, 허위정보 제작자들이 GenAI를 활용하는 가장 큰 이유는 경제적 이익이다. 많은 참가자들은 "누구나 콘텐츠 제작을 통해 부자가 될 수 있다"는 믿음을 가지고 GenAI를 통해 콘텐츠를 대량으로 제작하고 있었다. 13~26세 응답자의 57%가 인플루언서가 되고 싶다고 답했고, 50%는 수익이 보장된다면 현재 직업을 그만두겠다고 답했다. 특히, 생성형 AI는 글쓰기나 영상 편집 기술이 부족한 사람들도 콘텐츠를 대량으로 제작할 수 있도록 돕는다. 이들은 허위정보의 진실성보다 콘텐츠가 바이럴될 가능성에 더 집중하며, 그 결과 허위정보의 품질보다는 양적인 측면이 강화된다. 브라질의 한 참가자는 2022년 브라질 대선 당시 정치적 허위정보를 담은 콘텐츠를 제작해 TikTok에서 수백만 회의 조회수를 기록했다. 이 참가자는 "돈을 벌기 위한 가장 빠른 방법은 유튜브에 동영상을 올리는 것"이라며, 정치적 신념보다는 경제적 동기에 의해 콘텐츠를 제작했다고 밝혔다. 허위정보의 민주화, 누구나 콘텐츠 제작자가 될 수 있는 시대 보고서에 따르면, GenAI는 허위정보 제작의 진입 장벽을 낮추고 누구나 콘텐츠 제작자가 될 수 있는 환경을 조성했다. 기술적 지식이 부족한 일반 사용자들도 AI 도구를 활용해 고품질 콘텐츠를 제작할 수 있게 되면서 허위정보 확산이 더욱 가속화되고 있다. 조사된 사례에 따르면, 정치적 패러디 영상이나 건강 관련 허위정보 영상이 수백만 회 조회수를 기록하며 확산되었다. 특히, AI를 활용해 기존 콘텐츠를 재가공하거나 새로운 콘텐츠로 포장하여 여러 플랫폼에 적응시키는 방식이 일반화되고 있다. 미국의 한 참가자는 MidJourney와 같은 이미지 생성 도구를 활용해 유명 인사들의 사진을 조작하고, 이를 TikTok과 YouTube에 게시해 대중의 관심을 끌었다. 또 다른 참가자는 AI 음성 합성 도구를 사용해 정치인들의 발언을 왜곡하여 허위정보를 담은 영상을 제작했다. 허위정보 크리에이터의 마케팅 전략: '신뢰와 권위'를 가장하다 허위정보 제작자들은 AI를 활용하여 자신을 전문가로 포장하고, 신뢰를 쌓기 위한 다양한 마케팅 기법을 사용한다. 보고서는 이들이 인플루언서 마케팅 전략을 적극 활용하며, 콘텐츠의 진실성 여부와 관계없이 팔로워와의 관계를 심화시키는 데 주력한다고 설명했다. AI는 이러한 작업을 자동화하고 개인화하여 더욱 효율적으로 수행할 수 있게 한다. 크리에이터들은 AI 도구를 사용해 자신만의 목소리를 유지하면서도 대규모 콘텐츠를 자동으로 생산하고 재배포하고 있다. 허위정보 제작과의 전쟁: 플랫폼의 대응과 과제 허위정보 크리에이터들이 AI로 생성한 콘텐츠를 플랫폼이 효과적으로 규제하기 어려운 이유 중 하나는 크리에이터들이 허위정보 감시 체계를 회피하는 방법을 끊임없이 학습하기 때문이다. 플랫폼이 생성형 AI 콘텐츠에 라벨을 부착하려는 시도는 있었지만, 많은 크리에이터들은 이러한 라벨이 자신의 수익에 악영향을 미칠 수 있다는 우려 때문에 자발적으로 이를 적용하지 않고 있다. 참가자들은 AI 라벨이 정치적으로 중립적이라고 인식했으며, 이는 일반적인 팩트체크 라벨과는 달리 더 높은 신뢰를 얻고 있는 것으로 나타났다. 반면, 일반 사용자들은 AI가 생성한 콘텐츠인지 여부를 알 수 있는 투명성을 강하게 요구하고 있다. 연구진은 AI 라벨링이 허위정보 공유를 줄이는 데 효과적일 수 있다고 제안하며, 추가적인 연구가 필요하다고 주장했다. 새로운 허위정보 시대, 생성형 AI의 역할 보고서는 허위정보 생성의 주체가 전문가나 정치적 단체에서 개인으로 확대되었음을 강조한다. 생성형 AI는 콘텐츠 생성의 진입 장벽을 낮추었으며, 이는 허위정보 확산의 새로운 시대를 열었다. 허위정보의 확산 속도가 빨라지고 양이 많아지면서, 플랫폼과 규제 기관은 기존의 허위정보 대응 방식으로는 부족하다는 현실을 직면하고 있다. 앞으로는 AI 기반 허위정보 생성의 새로운 패러다임에 대응하기 위한 보다 정교한 접근이 필요할 것이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성됐습니다. (☞ 보고서 바로 가기)

2025.01.09 14:12AI 에디터

초급 5명 대신 고급 1명?...생성형 AI, SW개발자 채용시장도 바꾼다

소프트웨어정책연구소(SPRi)가 발간한 '소프트웨어 개발자 채용시장의 변화와 생성형 AI의 영향' 보고서에 따르면, 현재 SW 개발자 채용시장은 2020-2021년 호황기에 비해 크게 위축된 상태다. 2023년 스타트업 투자 건수는 965건으로 전년 대비 65% 줄었고, 투자금액도 51% 감소한 5조 8,110.9억원을 기록했다. 특히 스타트업 폐업 건수는 2021년 71건에서 2023년 119건, 2024년에는 144건으로 늘어났다. 원티드랩의 설문조사에 따르면, 현업 개발자들의 약 43%는 생성형 AI의 개발실력이 13년 차 경력자 수준이라고 평가했으며, 응답자의 91.8%는 생성형 AI가 개발자를 대체할 것이라는 데 동의했다. 중소벤처기업부(2024)의 조사에 따르면, 국내 벤처기업의 업종 중 SW 개발 및 에너지 등 첨단 제조·서비스 업종이 약 50.4%를 차지하고 있다. IT업계의 투자 위축은 이러한 벤처기업의 채용시장에 직접적인 영향을 미치고 있다. 특히 인건비 부담이 큰 개발자 채용이 가장 먼저 영향을 받고 있는 것으로 나타났다. 코딩테스트는 필수? 기업 규모별 채용 평가 기준의 변화 채용과정에서 생성형 AI 도입으로 인한 변화도 감지되고 있다. 기술 면접에서는 단순 코딩 능력보다 AI 도구를 활용한 문제해결 능력과 통합적인 시스템 설계 능력이 더욱 중요해질 전망이다. 프롬프트 엔지니어링이 새로운 역량으로 부상했지만, 현업 개발자들은 이를 본질적 역량으로 보기에는 시기상조라는 의견이 지배적이다. 채용과정에서 코딩테스트의 필요성에 대한 의견이 엇갈리고 있다. 대기업과 대기업 연구소는 대량 검증과 평가를 위해 코딩테스트를 필수로 보는 반면, 중소기업과 스타트업은 실무 역량과의 연관성 부족을 지적하며 비용과 효용성에 의문을 제기하고 있다. 특히 스타트업의 경우 실질적 문제해결 능력과 조직문화 적합도를 더 중요시하며, 컬쳐핏(culture fit) 인터뷰를 통해 일하는 방식, 커뮤니케이션 방식, 리더십 등을 평가하고 있다. 생성형 AI가 초급 개발자에게 미치는 양면적 영향 생성형 AI는 초급 개발자들에게 양날의 검이 되고 있다. 맥킨지 보고서에 따르면, 생성형 AI는 개발자의 생산성을 빠르게 증가시킬 수 있으며, 특히 코드 문서화, 코드생성, 코드 재구성 등의 작업에서 20-50%의 작업 시간 절감률을 보인다. 반면 캡제미니의 설문조사에서는 생성형 AI 이니셔티브를 활발하게 도입한 조직이 그렇지 않은 조직보다 SW 개발주기 전반에서 생산성이 78% 향상된 것으로 나타났다. 현업 개발자들의 의견에 따르면, 아직까지 앱 배포, 테스트, QA 등의 업무에는 AI 도구를 활용하기 어려워 사람이 직접 해야 하는 영역이 남아있다. ChatGPT, Github Copilot 등 생성형 AI 코딩 도구는 코드 생성과 기본적인 문제 해결에는 도움이 되지만, 복잡한 시스템 설계나 비즈니스 로직 구현에는 한계가 있다는 평가다. 반면, 초급 개발자들은 이러한 AI 도구를 통해 지식을 빠르게 습득하고 실무 경험을 쌓을 수 있어, 오히려 경력 성장의 기회로 활용할 수 있다. AI 시대의 새로운 개발자 필수역량 가트너는 2027년까지 SW 개발자의 80%가 역량 향상이 필요할 것으로 전망했다. 중‧고급 개발자들은 개발 역량보다는 팀 관리, 기획, 비즈니스 협업 역량이 더욱 강조될 것이며, 장기적으로는 개발 관리자 역할로 전환이 예상된다. 네이버는 2023년 231명을 신규 채용했는데, 이는 2022년의 599명 대비 절반 수준이었으며, 카카오도 2023년 425명의 신규 채용이 있었으나 2021년 994명, 2022년 870명과 비교하면 채용 규모가 크게 줄었다. 앞으로는 학습능력, 이슈의 본질적 이해, 문제해결 능력, 커뮤니케이션 능력, 모듈 디자인 능력, 생성형 AI 도구가 제공하는 지식에 대한 판별 능력 등이 중요한 역량으로 부각될 전망이다. 생성형 AI 도입으로 초급 SW 개발자의 역량이 상향 평준화될 것으로 예상되며, AI 도구 활용 시 정보 판별 능력이 새롭게 요구되는 역량으로 떠오를 것으로 보인다. AI 시대의 개발자 재교육이 급선무 소프트웨어정책연구소는 O*NET의 65개 SW 관련 직무를 분석한 결과, 코드 작성, 코드 리뷰, 테스트, 사용설명서 작성 등의 작업이 생성형 AI의 영향을 가장 많이 받을 것으로 예측했다. 이에 따라 정부의 SW 개발자 교육 정책도 변화가 필요한 시점이다. AI와 데이터 과학을 필수 교육 과정에 포함하고 실무 중심의 교육 커리큘럼을 개발해야 한다는 목소리가 높다. 또한 산업 협력을 통한 현장 실습을 강화하고, 고급 개발자 신속 양성을 위한 특화 교육과정 개발이 시급하다는 의견이다. 특히 개발자들의 AI 윤리와 위험관리 역량 강화를 위한 표준화된 가이드라인 마련도 중요한 과제로 떠올랐다. 생성형 AI 도구가 생성한 코드의 품질과 보안 위험을 평가할 수 있는 능력이 앞으로 더욱 중요해질 것으로 전망된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 원문 바로가기)

2025.01.09 10:35AI 에디터

'AI 생성 글' 귀신처럼 잡아낸다…표절방지 기술 화제

아랍 아메리칸 대학교(Arab American University)와 콜롬비아 대학교(Columbia University) 연구진이 발표한 최근 연구에 따르면, AI가 생성한 텍스트를 높은 정확도로 탐지할 수 있는 새로운 머신러닝 모델이 개발됐다. AI 생성 텍스트 탐지의 새로운 전환점 연구팀은 사이버보안 분야의 텍스트 1,000개를 분석 대상으로 삼았다. 이중 500개는 인간이 작성했고, 나머지 500개는 챗GPT가 생성했다. 'CyberHumanAI'라고 명명된 이 데이터셋을 기반으로 다양한 머신러닝과 딥러닝 알고리즘을 테스트한 결과, XGBoost 알고리즘이 83%의 정확도를, 랜덤 포레스트(Random Forest) 알고리즘이 81%의 정확도를 기록했다. AI와 인간의 글쓰기 특성 차이 발견 연구진은 설명 가능한 AI(XAI) 기술인 LIME을 활용해 AI와 인간의 글쓰기 패턴을 심층 분석했다. 분석 결과, 인간이 작성한 텍스트에서는 'security'가 420회(1.71%), 'use'가 312회(1.27%), 'system'이 264회(1.07%), 'computer'가 251회(1.02%), 'information'이 206회(0.84%) 빈도로 사용됐다. 반면 AI 생성 텍스트에서는 'security' 411회(1.52%), 'system' 261회(0.97%), 'computer' 233회(0.86%), 'within' 220회(0.81%), 'datum' 183회(0.68%) 순으로 나타났다. 특히 주목할 만한 점은 단어 선택의 경향성이다. 인간이 작성한 텍스트에서는 'allow', 'use', 'virus', 'people'과 같이 실용적이고 행동 중심적인 용어가 자주 등장했다. 반면 AI는 'realm', 'employ', 'serve', 'establish'와 같은 추상적이고 형식적인 용어를 선호했다. 이러한 차이는 TF-IDF(Term Frequency-Inverse document Frequency) 분석에서도 확인됐는데, 인간 텍스트에서는 'use'와 'computer'가 각각 가중치 16과 14를 기록한 반면, AI 텍스트에서는 'datum'과 'authentication'이 각각 11에 가까운 가중치를 보였다. 기존 AI 탐지 도구와의 성능 비교 연구팀은 600개의 새로운 관측 데이터를 활용해 자체 개발 모델과 GPTZero의 성능을 비교했다. 데이터는 순수 AI 텍스트 200개, 혼합 텍스트 200개(AI 텍스트 비율 1-99%), 순수 인간 텍스트 200개로 구성됐다. 이 중 400개는 훈련 데이터로, 200개는 테스트 데이터로 사용됐다. 테스트 결과, GPTZero는 200개의 관측치 중 32개를 분류하지 못했으며, 분류에 성공한 케이스에서도 48.5%의 정확도를 보였다. 구체적으로 살펴보면, GPTZero는 혼합 텍스트의 경우 76개를 정확히 분류하며 좋은 성능을 보였으나, 순수 AI 텍스트는 단 3개만을, 순수 인간 텍스트는 18개만을 정확히 분류했다. 특히 56개의 순수 AI 텍스트와 15개의 순수 인간 텍스트를 혼합 텍스트로 잘못 분류하는 문제를 보였다. 반면 연구팀이 개발한 XGBoost 모델은 77.5%의 정확도를 기록했으며, 미분류 케이스도 없었다. 이 모델은 순수 AI 텍스트 66개 중 48개를 정확히 분류했고, 혼합 텍스트와 순수 인간 텍스트에서도 각각 55개와 52개를 정확히 분류했다. 특히 GPTZero와 달리, 순수 인간 텍스트 67개 중 52개를 정확히 판별하며 균형 잡힌 성능을 보여주었다. 교육 현장에서의 활용 가능성 이번 연구 결과는 교육계에 중요한 의미를 갖는다. AI 생성 콘텐츠가 교육 현장에서 증가하는 상황에서, 이 기술은 학생들의 과제와 논문의 진실성을 검증하는 도구로 활용될 수 있다. 연구진은 특히 학습 결과물의 평가, 디지털 제출물 검증, AI 활용 학습 환경에서의 학습 성과 보호 등에 이 기술이 기여할 수 있을 것으로 전망했다. 이번 연구는 특정 분야에 맞춤화된 AI 시스템이 GPTZero와 같은 범용 AI 시스템보다 더 우수한 성능을 발휘할 수 있다는 점을 입증했다는 데 의의가 있다. 연구진은 이 기술이 학문적 진실성을 유지하면서도 AI 기술의 교육적 활용을 촉진하는 데 도움이 될 것으로 기대하고 있다. 해당 논문의 원문은 링크에서 확인할 수 있다. ■ 해당 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로 가기)

2025.01.09 09:51AI 에디터

매년 10배씩 진화하는 AI…인류는 준비돼 있나

AI 진화의 가속도: 매년 10배씩 발전하는 인공지능 텔아비브대학교의 유발 라이몬(Yuval Rymon) 연구진이 발표한 'AI 인간노동 자동화에 대한 사회적 적응' 연구는 AI의 사회적 영향을 체계적으로 분석하는 새로운 프레임워크를 제시했다. 이 프레임워크는 AI 기술의 발전부터 최종 사회적 영향까지 5단계로 구분하고, 각 단계별 대응 전략을 제시한다. AI 기술이 개발되는 'Development' 단계, 기술이 확산되는 'Diffusion' 단계, 실제 활용되는 'Use' 단계, 초기 피해가 발생하는 'Initial Harm' 단계, 그리고 최종적인 사회적 영향이 나타나는 'Impact' 단계로 이어지는 일련의 과정을 체계적으로 분석한다. 현대의 AI는 기존의 자동화와는 전혀 다른 양상을 보이고 있으며, AI의 훈련 효율성이 매년 10배씩 향상되고 있다. 이는 연간 4배의 컴퓨터 성능 향상과 2.5배의 알고리즘 효율성 증가에 기인한다. 특히 현대의 AI는 경제협력개발기구(OECD)가 정의한 바와 같이 "물리적 또는 가상 환경에 영향을 미치는 예측, 추천, 내용, 결정 등의 출력을 생성하는 기계 기반 시스템"으로서, 자연어 처리, 컴퓨터 비전, 로봇 학습 등 다양한 기술적 능력을 생성하는 방법론으로 작용하고 있다. 일자리 자동화의 양면성: 생산성 향상의 그림자 AI 자동화는 노동 수요와 임금, 고용의 감소를 초래하는 대체효과(Displacement Effect)를 일으키지만, 동시에 이를 상쇄하는 여러 효과도 존재한다. 생산비용 감소로 인한 생산성 향상은 가계의 가처분소득을 증가시켜 새로운 수요를 창출할 수 있다. 또한 이미 자동화된 작업의 효율성이 향상되거나, 자본 축적으로 인한 새로운 투자 기회가 생기면서 노동 수요가 증가할 수 있다. 가장 중요한 것은 인간 노동이 비교우위를 가지는 새로운 직무가 창출되는 '재투입 효과'다. 그러나 영국 산업혁명 시기에도 임금 정체와 빈곤 확대가 80년간 지속되었듯이, 이러한 전환 과정은 느리고 고통스러울 수 있다. 특히 대규모 교육 개혁 없이는 이러한 전환이 순조롭게 이루어지기 어렵다. AI 발전 단계별 대응 전략 연구진이 제시한 프레임워크에 따르면, AI 자동화 대응은 크게 '능력 수정 개입'(CMI)과 '적응 개입'(ADI) 두 가지로 나뉜다. 개발 단계에서는 인간 보완적 AI 개발을 장려하고 노동 과세를 줄이며, 노동 친화적 연구에 대한 정부 지원과 지적재산권법 개정 등이 필요하다. 확산 단계에서는 API를 통한 제한적 접근이나 서비스 정책 시행과 같은 통제가 요구된다. 사용 단계에서는 잠재적 위험 사용을 제한하는 회피 조치가, 피해 단계에서는 교육과 재교육을 통한 방어 조치가, 그리고 영향 단계에서는 물질적·사회적 대체재를 통한 구제 조치가 필요하다. 노동 자동화에 대한 프레임워크 적용 이 프레임워크를 AI 노동 자동화에 적용하면, AI 연구개발에서 시작하여 모델 출시, 자동화 실행, 실업 인구 발생, 사회적 위기로 이어지는 과정을 체계적으로 분석할 수 있다. 각 단계별 대응책으로는 인간 보완적 AI 개발 유도, 인간-기계 협력 의무화, 자동화 과세, 재교육과 교육 개혁, 그리고 물질적·사회적 노동 대체재 도입이 제시된다. 특히 교육 개혁은 단기적으로는 AI 리터러시 향상에, 장기적으로는 인간 고유의 가치를 강화하는 방향으로 진행되어야 한다. 급여 이상의 가치: 일자리가 주는 삶의 의미 일자리는 단순한 임금 이상의 의미를 지닌다. 지역사회 소속감, 대인관계, 조직구조 탐색을 통한 사회화, 외부적 인정과 내적 자아개념을 형성하는 정체성, 목적의식과 자아존중감을 제공하는 의미 부여, 직장에서의 도전과 문제해결을 통한 인지발달, 그리고 신체적·정신적 건강까지 일자리가 제공하는 비금전적 혜택은 매우 광범위하다. 일부 학자들은 "실직의 주요 비용이 심리적"이라고까지 주장한다. 이는 AI 시대의 대응 전략이 단순한 소득 보전을 넘어서야 함을 시사한다. 미래를 위한 청사진: AI 시대의 새로운 사회 시스템 이러한 도전에 대응하기 위해서는 복합적인 접근이 필요하다. 먼저 AI 개발 방향을 인간 보완적으로 유도하고, 알고리즘 의사결정 과정에 인간의 개입을 의무화하는 정책이 필요하다. 의료, 법률, 교통 등 중요 분야에서는 오류 교정, 비상 대응, 설명 가능성 확보, 인간 존엄성 보존, 법적 책임 부여 등의 역할을 위해 인간의 개입이 필수적이다. 또한 자동화에 대한 과세를 통해 노동 수요를 유지하고 노동 친화적 정책을 위한 재원을 마련해야 한다. 교육 체계는 단기적으로는 AI 리터러시와 활용 능력을, 장기적으로는 진정성, 정체성, 감독 등 인간 중심 기술을 강화하는 방향으로 근본적 재편이 필요하다. 물질적 대체제로는 모든 시민에게 기본적 생활수준을 보장하는 기본소득(UBI)이나 일시금을 지급하는 기본자본(UBC)을, 사회적 대체제로는 무급 사회활동, 지역사회 활동, 정치적 직접 참여 등을 마련해야 한다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성됐습니다. (☞ 논문 바로 가기)

2025.01.09 09:48AI 에디터

"그날 계엄이 성공했다면"…AI로 재구성해 봤더니

AI로 재현한 충격적인 계엄령 시나리오 MBC가 7일 PD수첩 방송을 통해, 생성형 AI 기술을 활용한 계엄령 시나리오를 생생하게 재구성했습니다. 이날 방송에서는 계엄령이 실제로 선포되었을 경우 발생할 수 있는 국회의원들의 체포와 군사재판 회부, 시민들의 영장 없는 체포와 '반국가 세력' 낙인, 선거관리위원회 직원들의 고문과 감금, 언론과 대중문화에 대한 통제 등 충격적인 상황들을 세밀하게 시뮬레이션했는데요. 대부분의 국민들은 미디어를 통한 보도만 접하기 때문에 다소 추상적일 수 있는 계엄령의 개념과 영향을 구체화해 시민들이 그 위험성을 현실적으로 체감할 수 있게 했습니다. 역사적 교훈과 연결된 AI 시뮬레이션의 파급력 무엇보다 5.18 민주화운동을 아픈 역사를 이미 경험한 시민들은 이 AI 재현을 보고 큰 충격을 받았다는 반응이 이어지고 있습니다. 해당 방송분을 짧게 구성한 영상이 8일 오후 PD수첩 공식 유튜브에 업로드 되었는데요. AI를 활용한 콘텐츠가 과거의 역사적 아픔과 현재의 잠재적 위기를 효과적으로 연결하는 강력한 도구가 될 수 있음을 입증했다고 볼 수 있습니다. 시청자들은 AI로 재현한 영상을 통해 민주주의의 위기가 얼마나 심각한 결과를 초래할 수 있는지를 실감할 수 있으며, 사건의 인과 역시 한눈에 이해할 수 있습니다. AI 시뮬레이션의 확장된 활용 가능성 MBC PD수첩의 이 같은 시도는 AI를 활용한 시뮬레이션은 다양한 분야로 확장될 수 있는 잠재력을 보여줍니다. 과거의 중요한 역사적 순간들을 현대적으로 재해석해 시민들의 이해를 돕거나, 현재의 정책 결정이 미칠 수 있는 장기적인 영향을 예측하는 데 활용될 수 있습니다. 또한 다양한 사회적 위기 상황을 가상으로 재현하여 효과적인 대응 방안을 모색하는 데에도 큰 도움이 될 수 있죠. 이처럼 AI를 활용한 시뮬레이션은 복잡한 사회적, 정치적 상황을 시각화하고 대중의 이해를 증진시키는 데 혁신적인 역할을 할 수 있습니다. 그러나 동시에 데이터의 선택과 편향성, 재현의 정확성에 대한 윤리적 고려가 반드시 수반되어야 합니다. AI 기술의 발전과 함께, 이러한 시뮬레이션 기술은 앞으로 더욱 정교해지고 다양한 분야에 적용될 것으로 예상됩니다. 이는 우리 사회의 중요한 이슈들을 더 깊이 이해하고 대비하는 데 핵심적인 역할을 할 것으로 기대됩니다. ■이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 2025년 1월 7일 방영된 MBC PD수첩의 '계엄령 시나리오 AI 재현' 프로그램을 바탕으로 챗GPT와 클로드 3.5 소네트를 활용해 작성했습니다.

2025.01.08 22:49AI 에디터

AI가 공항에서 짐 챙기고, 탑승구 안내까지 '척척'

AI 여행 비서 '델타 콘시어지' 전격 공개 라스베이거스 스피어 아레나(Sphere Arena)에서 열린 CES 2025 2일차 기조연설에서 델타항공(Delta Air Lines)이 AI 기반의 혁신적인 여행 서비스를 대거 공개했다. 에드 바스티안(Ed Bastian) 델타항공 CEO는 델타항공 100주년을 기념하며 2025년 출시 예정인 'AI 기반 델타 콘시어지(Delta Concierge)'를 발표했다. 이 서비스는 승객의 일정을 파악해 교통 상황에 따라 조비(Joby)의 전기 수직이착륙기(eVTOL) 예약부터 수하물 추적, 실시간 게이트 안내까지 제공한다. 특히 로스앤젤레스와 뉴욕시 구간에서는 2025년부터 조비 서비스가 실제 운영될 예정이다. 이는 항공업계 최초로 여행 전 과정을 AI로 통합 관리하는 시도다. 유튜브·우버와 손잡고 기내서 맞춤형 큐레이션 제공 델타항공은 유튜브(YouTube)와 독점 파트너십을 체결하고 '델타 싱크(Delta Sync)'를 통해 광고 없는 유튜브 프리미엄과 유튜브 뮤직 서비스를 무료로 제공한다. 메리 엘렌 펠드(Mary Ellen Feld) 유튜브 최고비즈니스책임자는 "델타항공 고객만을 위한 맞춤형 큐레이션 서비스를 제공할 것"이라고 밝혔다. 차량 공유 서비스 우버(Uber)와도 제휴를 맺어 올 봄부터 스카이마일즈 회원들은 우버와 우버잇츠 이용 시 마일리지를 적립할 수 있게 된다. 다라 코스로샤히(Dara Khosrowshahi) 우버 CEO는 "공항 연계 교통이 우버 전체 이용의 50%를 차지한다"며 협력의 중요성을 강조했다. 700만건 고객 피드백 분석으로 개인화 서비스 강화 콜트릭스(Qualtrics)와의 협력을 통해 지난해 약 700만 건의 고객 피드백을 분석했다고 밝힌 델타항공은 이를 바탕으로 개인화 서비스를 강화한다. 특히 매일 65명의 승객이 100만 마일 비행 기록을 달성하는 것에 주목해 특별한 기념 서비스를 제공할 예정이다. 시차 적응 키트와 생체 리듬 맞춤 조명 등 웰니스 서비스 도입 NFL 레전드 톰 브래디(Tom Brady)와 협력해 2025년 '웰 트래블드(Well-Traveled)' 프로그램을 선보인다. 또한 파운드(Found)사의 '플라이 키트(Fly Kit)'를 도입해 시차 적응을 돕고, 스카이뷰(Skyview)의 생체 리듬 맞춤형 조명 시스템을 적용한다. 드래프트킹스(DraftKings)와도 협력해 기내 게이밍 서비스를 확대하며, 현재 16만 5천 개의 기내 스크린을 통해 업계 최대 규모의 엔터테인먼트 서비스를 제공하고 있다. ■ 이 기사는 클로드 3.5 소네트와 챗GPT, Vrew를 활용해 작성되었습니다.

2025.01.08 17:13AI 에디터

엔비디아, AI 슈퍼컴퓨터 공개…가격이 3천 달러?

엔비디아가 CES 2025 키노트를 통해 일반 전기 콘센트만으로 구동 가능한 개인용 AI 슈퍼컴퓨터 '프로젝트 디짓(Project DIGITS)'을 공개했다. 이 시스템은 전 세계 AI 연구자, 데이터 과학자, 학생들에게 엔비디아의 그레이스 블랙웰(Grace Blackwell) 플랫폼의 성능을 제공한다. 페타플롭급 성능의 새로운 슈퍼칩 GB10 프로젝트 디짓의 핵심인 GB10 슈퍼칩은 FP4 정밀도에서 최대 1페타플롭의 AI 성능을 제공한다. 이 시스템온칩(SoC)은 최신 세대 쿠다(CUDA) 코어와 5세대 텐서(Tensor) 코어를 탑재한 블랙웰(Blackwell) GPU를 특징으로 한다. 엔비링크-C2C(NVLink-C2C) 칩간 상호연결을 통해 ARM 아키텍처 기반의 20개 전력 효율적 코어를 포함하는 고성능 그레이스(Grace) CPU에 연결된다. 특히 미디어텍(MediaTek)이 GB10 설계에 참여해 최고 수준의 전력 효율성과 성능, 연결성을 구현했다. 강력한 시스템 사양과 확장성 프로젝트 디짓은 128GB의 통합 코히어런트 메모리와 최대 4TB의 NVMe 스토리지를 제공한다. 이를 통해 개발자들은 최대 2,000억 개의 매개변수를 가진 대규모 언어 모델을 실행할 수 있다. 더욱 주목할 만한 점은 엔비디아 커넥트엑스(NVIDIA ConnectX) 네트워킹을 통해 두 대의 시스템을 연결하면 최대 4,050억 개의 매개변수를 가진 모델까지 구동할 수 있다는 것이다. 완벽한 소프트웨어 생태계 지원 사용자들은 리눅스 기반의 엔비디아 DGX OS를 실행하는 프로젝트 디짓에서 모델을 프로토타입으로 제작하고 테스트한 후, 이를 엔비디아 DGX 클라우드나 가속화된 클라우드 인스턴스, 데이터센터 인프라에 원활하게 배포할 수 있다. 엔비디아 NGC 카탈로그와 개발자 포털을 통해 다양한 AI 소프트웨어 라이브러리에 접근할 수 있으며, 네모(NeMo) 프레임워크로 모델을 미세 조정하고 래피즈(RAPIDS) 라이브러리로 데이터 과학을 가속화할 수 있다. 혁신적인 가격과 출시 일정 엔비디아의 설립자이자 CEO인 젠슨 황은 "AI는 모든 산업의 모든 애플리케이션에서 주류가 될 것"이라며 "프로젝트 디짓을 통해 수백만 명의 개발자들이 그레이스 블랙웰 슈퍼칩을 활용할 수 있게 될 것"이라고 밝혔다. 프로젝트 디짓은 2025년 5월 엔비디아와 주요 파트너사들을 통해 출시될 예정이며, 가격은 3,000달러로 책정됐다. ■ 기사는 클로드 3.5 소네트와 과 챗GPT를 활용해 작성되었습니다. (☞ 엔비디아 기조연설 바로가기)

2025.01.08 17:00AI 에디터

"AI를 모국어처럼 사용"…'베타 세대'를 아시나요

2025년 1월 1일부터 새로운 세대 '제너레이션 베타(Generation Beta)'가 시작된다. 이들은 인공지능(AI)을 일상적으로 사용하는 최초의 세대가 될 전망이다. AI가 모국어가 되는 첫 번째 세대의 탄생 굿모닝아메리카가 보도한 내용에 따르면, 미래학자 마크 맥크린들(Mark McCrindle)은 2025년부터 2039년 사이에 태어나는 세대를 '제너레이션 베타'로 정의했다. 이들은 22세기까지 살아갈 것으로 예측되며, 2035년까지 전 세계 인구의 16%를 차지할 것으로 전망된다. 특히 이들은 기술 통합과 다양성에 대한 강한 이해를 특징으로 하는 세대가 될 것으로 예상된다. 사회가 변화와 포용을 점차 수용함에 따라 베타 세대는 호기심과 포용성을 증진하는 환경에서 성장하게 될 것이다. AI 기반 맞춤형 교육이 표준이 되는 시대 노스캐롤라이나 주립대학교의 마케팅 조교수 헤더 드레취(Heather Dretsch)는 베타 세대에게 AI는 단순한 도구가 아닌 학습과 성장의 파트너가 될 것이라고 전망했다. AI 튜터와 함께 공부하고, AI 기반 맞춤형 교육을 받으며 성장하는 첫 세대가 될 것이라는 설명이다. 이는 교육 방식의 근본적인 변화를 가져올 것으로 예상된다. 전통적인 일방향적 교육에서 벗어나, AI를 활용한 개인 맞춤형 학습이 새로운 교육의 표준이 될 것으로 보인다. 인간-AI 협업의 새로운 패러다임을 제시할 세대 맥크린들은 베타 세대가 AI와의 협업을 통해 새로운 가치를 창출하는 세대가 될 것으로 예측했다. 이들은 2035년까지 전 세계 인구의 16%를 차지할 것으로 예상되며, 22세기까지 살아가게 될 것으로 전망된다. 특히 AI 윤리와 인간-AI 협업에 대한 자연스러운 이해를 바탕으로, 기존 세대와는 다른 새로운 직업윤리와 가치관을 형성할 것으로 예상된다. 베타 세대는 물리적 세계와 가상 세계의 경계가 없는 하이브리드 환경에서 성장하게 될 것이다. AI 기반 메타버스에서의 사회적 활동이 일상화되고, 이를 통해 새로운 형태의 정체성과 커뮤니케이션 방식이 발달할 것으로 예상된다. 드레취는 이러한 환경이 베타 세대의 사회화 과정과 정체성 형성에 큰 영향을 미칠 것이라고 분석했다. 알파 세대에서 베타 세대로의 진화 맥크린들이 명명한 '알파 세대(Generation Alpha)'는 2010년부터 2024년 사이에 태어난 이들을 지칭한다. 현재 최고령자는 14세로, 대부분 밀레니얼 세대의 자녀들이며 디지털 기술이 주도하는 세상에서 성장하고 있다. 맥크린들은 알파 세대가 모든 구성원이 태어날 때까지 20억 명 이상의 인구를 보유하게 될 것으로 예측하며, 역사상 가장 큰 규모의 세대가 될 것으로 전망했다. 드레취는 알파 세대가 가족과 강한 유대 관계를 형성하고 있다고 분석했다. 1901년부터 이어져 온 세대 구분의 의미와 진화 세대 구분은 특정 시기에 공통된 문화적, 사회적, 역사적 경험을 공유하는 집단을 정의하는 중요한 기준이다. 1901년부터 시작된 '위대한 세대'를 시작으로, '침묵의 세대(1928-1945년)', '베이비부머(1946-1964년)', 'X세대(1965-1980년)', '밀레니얼 세대(1981-1996년)', 'Z세대(1997-2009년)', '알파 세대(2010-2024년)'를 거쳐 2025년부터는 '베타 세대'가 시작된다. 각 세대는 주요 사건, 기술, 사회적 변혁에 의해 형성된 공유 경험을 바탕으로 고유한 태도, 가치관, 행동 양식을 발전시켜왔다. 노스캐롤라이나 주립대학교의 마케팅 조교수 헤더 드레취(Heather Dretsch)는 굿모닝아메리카(GMA)와의 인터뷰에서 세대 연구에 대한 기업들의 관심이 급증하고 있다고 밝혔다. 각 세대가 브랜드 및 세상과 어떻게 상호작용하는지 이해하는 것이 중요한 비즈니스 전략이 되고 있다는 것이다. 드레취는 "기업들이 이러한 소비자 행동 변화에 적응하는 것이 매우 중요해졌다"며 브랜드들이 세대별 트렌드를 선도해야 할 필요성을 강조했다. AI 경제의 주역이 될 새로운 세대 베타 세대는 AI 기반 경제 시스템에서 새로운 비즈니스 모델을 창출하고, 이를 통해 산업 구조를 혁신할 것으로 전망된다. 맥크린들은 이들이 AI를 활용한 창업과 새로운 직업군을 개척하면서, 노동시장의 패러다임을 근본적으로 변화시킬 것으로 예측했다. 현재 나타나고 있는 AI 기반 경제로의 전환이 베타 세대에 의해 더욱 가속화될 것이라는 분석이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.01.08 16:35AI 에디터

AI 비서가 운전하고 스마트홈이 화재 감시…"멋진 신세계"

아마존 뉴스(Amazon News)에 따르면, 아마존이 2025년 소비자가전전시회(CES 2025)에서 차량용 AI와 스마트홈 기술을 중심으로 혁신적인 신제품과 서비스를 대거 공개했다. 파이어TV 옴니 미니 LED 시리즈, 에코쇼 21, 에코 스팟, 킨들 컬러소프트(Kindle Colorsoft) 등 새로운 디바이스도 선보였다. BMW 차량 서비스에 알렉사 커스텀 어시스턴트 탑재 BMW는 아마존의 알렉사 커스텀 어시스턴트(Alexa Custom Assistant) 기술이 적용된 BMW 인텔리전트 퍼스널 어시스턴트를 공개했다. 2024년 7월 출시된 신형 X3부터 탑재된 이 기술은 대형언어모델(LLM)을 활용해 자연스러운 대화형 내비게이션을 구현했다. 운전자가 "시애틀의 바늘 모양 건물로 안내해줘"라고 말하면 스페이스 니들(Space Needle)로 경로를 안내하고, "출발 전에 주변에 문 연 음식점 있어?"와 같은 후속 질문도 가능하다. 링·키디의 차세대 스마트 안전 시스템 링과 키디는 실시간 경보 기능이 강화된 스마트 연기·일산화탄소 경보기를 발표했다. 링 앱과 연동되는 이 제품은 기존 링 알람이나 허브 없이도 독립적으로 작동한다. 키디의 향상된 감지 기술로 연기 감지 속도가 25% 빨라졌고, 정확도는 3배 향상됐다. 월 5달러 구독료로 24시간 전문 모니터링 서비스도 이용할 수 있으며, 2025년 4월부터 미국 홈디포에서 판매될 예정이다. 파나소닉 프리미엄 스마트TV 라인업에 알렉사 음성 탑재 파나소닉은 파이어TV를 내장한 새로운 스마트TV 3종을 공개했다. 프리미엄 OLED TV인 Z95B 시리즈는 RGB 탠덤 패널과 써멀플로우 냉각 시스템을 탑재해 뛰어난 밝기와 명암비를 구현했다. 미니 LED TV인 W95B 시리즈와 보급형 4K UHD TV인 W70B 시리즈도 함께 선보였다. 모든 제품에는 아마존의 알렉사 음성 제어와 프라임 비디오 캘리브레이션 모드가 탑재됐다. 퀄컴과 차량용 AI 기술 협력 확대 아마존은 퀄컴테크놀로지스와 차량용 AI 기술 협력을 발표했다. 스냅드래곤 디지털 콕핏 플랫폼의 신경처리장치(NPU)를 활용해 차량 내 LLM 기반 서비스를 최적화할 예정이다. 또한 히어테크놀로지스(HERE Technologies)와 AWS는 소프트웨어 정의 차량(SDV) 개발을 위한 새로운 AI 매핑 솔루션을 공동 개발한다. 발레오(Valeo)와도 협력해 첨단 운전자 지원 시스템(ADAS)과 자율주행 기술 개발을 가속화할 계획이다. 링은 기존 플러드라이트 캠 프로와 스포트라이트 캠 프로 제품에 2K 비디오 해상도를 무료로 제공하는 업그레이드도 발표했다. 이 업그레이드는 2025년 1월 8일부터 순차적으로 진행된다. ■ 기사는 클로드 3.5 소네트와 챗GPT, Vrew를 활용해 작성되었습니다. (☞ 아마존 발표자료 바로가기)

2025.01.08 15:24AI 에디터

AI가 쓴 글과 사람 글, 98.5% 정확도로 구분...어떻게?

텍사스 A&M 대학교 연구팀이 발표한 연구에 따르면, 설명가능한 AI(XAI) 기술을 활용해 챗GPT나 클로드 등 AI 언어모델이 생성한 텍스트를 높은 정확도로 식별해낼 수 있게 되었다. 연구진은 2023년 11월에 600개의 텍스트 샘플을 수집하여 분석을 진행했다. AI가 쓴 글과 사람이 쓴 글 98.5% 구분하는 기술 공개 연구진은 인공지능 대형언어모델(LLM)이 생성한 텍스트와 사람이 작성한 텍스트를 구분하는 데 머신러닝과 딥러닝 알고리즘을 활용했다. 랜덤 포레스트(Random Forest)와 순환신경망(RNN) 등의 기술을 적용한 결과, 이진 분류에서 98.5%의 높은 정확도를 달성했다. 이는 기존의 AI 텍스트 탐지 도구인 GPT제로(GPTZero)의 78.3% 정확도를 크게 앞지른 수준이다. 특히 GPT제로가 전체 샘플의 4.2%를 식별하지 못한 반면, 새로운 모델은 모든 테스트 데이터셋을 성공적으로 분석했다. 다양한 AI 도구별 특징 파악하는 데 성공 연구팀은 챗GPT, 라마(LLaMA), 구글 바드(Google Bard), 클로드, 퍼플렉시티(Perplexity) 등 5개 주요 AI 언어모델이 생성한 텍스트를 각각 구분하는 데도 성공했다. 데이터 전처리와 TF-IDF 벡터화 기법을 활용한 다중 분류에서 랜덤 포레스트는 97%의 정확도와 93%의 정밀도, 94%의 재현율을 기록했다. XGBoost는 94%의 정확도와 90%의 정밀도 및 재현율을 보였으며, RNN은 88%의 정확도, 90%의 정밀도, 72%의 재현율을 달성했다. 특히 RNN의 경우 'claude' 클래스에서는 12.5%의 진양성률을 보여 'human', 'chatgpt', 'bard' 클래스와의 구분에 어려움을 겪었고, 'llama' 클래스에서는 62.5%의 진양성률을 보여 'human', 'chatgpt', 'perplexity' 클래스와의 구분에 한계를 드러냈다. AI별(바드, 챗GPT, 클로드, 라마, 퍼플렉시티) 텍스트 특징 분석 연구진은 LIME(Local Interpretable Model-agnostic Explanations) 기술을 활용해 각 AI 도구별로 독특한 텍스트 생성 패턴을 발견했다. 구글 바드는 '초점', '운송', '투표', '자동차', '범위', '보장', '우려', '시스템' 등 체계적이고 구조적인 요소와 관련된 단어를 자주 사용했다. 챗GPT는 '좋은', '찾기', '수용', '고려', '신뢰', '시민', '도시', '제한', '편지', '사용' 등 질적 평가와 실용적 적용을 혼합한 표현을 특징적으로 사용했다. 클로드는 '도시', '국가', '과도한', '사람들', '감사합니다', '진심으로', '투표', '합리적', '부탁 드립니다' 등 공손하고 시민 참여적인 표현을 주로 사용했다. 라마는 '선거', '사용', '과정', '평등', '제한', '의견', '대안', '또한', '보장', '진심으로' 등 절차적이고 민주적인 요소를 강조하는 단어를 사용했다. 퍼플렉시티는 '감소', '시스템', '압력', '보장', '도움', '운전', '덜', '상원의원', '개인', '친애하는' 등 효율성과 개인적 중요성을 강조하는 단어를 특징적으로 사용했다. 반면 사람이 작성한 텍스트는 '하다', '것', '많은', '말하다', '방법', '얻다', '가다', '사람들', '아니다' 등 일상적인 동사와 대명사를 자주 사용하는 것으로 나타났다. 이러한 단어 사용 패턴은 실제 인간의 자연스러운 의사소통 방식을 반영하는 것으로 분석되었다. 학술적 표절 방지에 새로운 돌파구 될까? 이번 연구 결과는 특히 교육계에서 문제가 되고 있는 AI 표절 문제 해결에 큰 도움이 될 것으로 기대된다. 연구진은 이 기술이 학생들의 과제나 에세이에서 AI 사용 여부를 정확하게 판별할 수 있을 뿐만 아니라, 미묘하게 수정되거나 바꿔 쓴 텍스트도 감지할 수 있다고 밝혔다. 더불어 이 기술은 사이버보안, 학문적 진실성, 비즈니스 운영 등 다양한 분야에서 콘텐츠의 신뢰성을 검증하는 데 활용될 수 있을 것으로 전망된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.08 14:53AI 에디터

직장에 AI 도입했더니…8시간 근무→5시간으로

AI 도입은 이제 선택이 아닌 필수 소프트웨어 솔루션 기업 델텍(Deltek)이 발간한 '신흥 기술 도입: 생성형 AI로 프로젝트 관리를 간소화하고 생산성을 높이는 방법' 백서에 따르면, 전문서비스 기업들의 AI 도입이 가속화되고 있다. 특히 전체 기업의 67%는 향후 2년 내에 디지털 전환을 이루지 못하면 시장 점유율을 잃을 것으로 예상했다. 현재 38%의 기업이 이미 업무 프로세스 자동화와 운영 성과 분석을 위해 AI 기술을 활용하고 있으며, 37%는 프로젝트 결과 예측에, 30%는 금융 거래의 이상 징후 탐지에 AI를 활용하고 있다. 델텍의 최근 산업 연구에 따르면 "프로젝트 복잡성 증가"가 전문서비스 기업들이 직면한 가장 큰 과제로 나타났다. AI가 가져온 프로젝트 관리의 혁신 건축 및 컨설팅 기업의 절반 이상이 AI 도입으로 프로젝트 일정과 납품 기한이 개선되었다고 보고했다. 엔지니어링과 컨설팅 기업들도 운영 효율성이 크게 향상되었다고 평가했다. 특히 주목할 만한 점은 AI 구현이 성공적으로 이루어진 기업의 72%에서 직원 만족도가 향상된 것으로 나타났다는 점이다. 건축 분야에서는 리소스 효율성 개선을 통해 인건비를 포함한 간접비용 절감 효과도 확인됐다. 또한 기업들의 75%가 2024년에 효과적인 직원 채용이나 유지가 어려울 것을 우려하고 있어, AI 도입의 필요성이 더욱 부각되고 있다. 프로젝트 생애주기별 AI 활용 방안 프로젝트 생애주기는 '승리(Win)-관리(Manage)-개발(Develop)-전달(Deliver)-측정(Measure)'의 단계로 구성되며, 각 단계마다 AI가 혁신적인 변화를 가져오고 있다. 승리 단계에서는 AI 알고리즘이 과거 프로젝트 데이터를 분석하여 비용과 일정을 정확하게 예측하고, 자연어 처리 기술로 제안서용 솔루션 요약본을 생성한다. 관리 단계에서는 AI가 스킬, 가용성, 프로젝트 요구사항, 파이프라인 제안을 기반으로 최적의 리소스를 추천한다. 또한 과거 프로젝트 데이터를 분석하여 수익성이나 승수 목표 달성을 저해할 수 있는 과도한 지출과 같은 잠재적 리스크를 조기에 식별하고 경고한다. 개발 단계에서는 AI가 타임시트 작성을 자동화하고, AI 기반 학습 플랫폼을 통해 개인별 니즈와 경력 목표에 맞는 교육 프로그램을 추천한다. 실시간 피드백 시스템으로 직원 성장을 지원하고, 예측 모델을 통해 우수 인재 이탈을 방지하는 데 도움을 준다. 전달 단계에서는 AI 기반 지식 베이스가 모든 프로젝트 정보를 한 곳에 모아 일상적인 파일 관리를 자동화하고, 다른 사용자의 관련 변경사항과 업데이트를 알려준다. 또한 생성형 AI로 맞춤형 프로젝트 요약본과 문서를 작성하여 원활한 브리핑과 인수인계를 지원한다. 측정 단계에서는 AI와 머신러닝 모델이 프로젝트 지표를 사전에 추적하고 기준 데이터셋의 패턴과 특성을 학습하여 새로 추가된 데이터의 이상을 감지한다. AI 분석 도구는 KPI 추적을 자동화하여 인사이트 도출 시간을 단축하고 의사결정과 프로젝트 성과를 개선한다. 과거 데이터와 패턴 기반 예측을 활용하여 시나리오 계획과 예측을 지원한다. 생성형 AI의 실질적 활용 사례 프로젝트 수명주기 전반에 걸쳐 AI의 활용도가 높아지고 있다. 자연어 처리(NLP) 기술을 활용한 생성형 AI는 기업자원관리(ERP)와 고객관리(CRM) 시스템의 고객 정보를 분석해 명확하고 정확한 요약본을 작성한다. AI 챗봇은 문서를 스캔하고 색인화하여 특정 프로젝트 정보에 대한 질의에 신속하게 응답할 수 있다. 또한 AI 알고리즘은 방대한 양의 과거 프로젝트 데이터를 분석하여 프로젝트 비용과 일정을 정확하게 예측하는 데 활용된다. AI 도입을 위한 전략적 접근 AI 도입의 성공을 위해서는 단계적이고 전략적인 접근이 필요하다. IT, 법무, 운영 부서 대표들로 구성된 AI 태스크포스를 구성하여 AI가 회사, 직원, 고객에게 미칠 잠재적 영향을 평가하는 것이 중요하다. 다양한 인재를 포함시킴으로써 사전에 문제를 발견하고, 업무를 분담하며, 특히 시간과 리소스가 부족할 때 더 많은 영역을 커버할 수 있다. 태스크포스 팀원들은 정보를 공유하고, 질문에 답변하며, 운영 중단을 최소화하면서 단계적으로 활용 사례 시범 운영을 수행하고, 자동화에 가장 적합한 영역을 식별할 수 있다. AI의 전사적 자원 관리(ERP) 활용 방안 델텍의 AI 기반 비즈니스 도우미 델라(Dela™)는 프로젝트 라이프사이클을 더욱 스마트하게 만들어준다. 이 통합 ERP 환경에서 기업들은 데이터 기반 AI를 활용하여 프로젝트 인사이트를 기반으로 간결한 비즈니스 요약을 생성하고, 리소스 활용과 과거 성과를 분석하여 프로젝트 성공을 예측할 수 있다. 또한 자연어 기반 디지털 어시스턴트로 더 스마트한 의사결정이 가능해졌다. 30,000개 이상의 조직이 이미 델텍의 솔루션을 통해 프로젝트 성공을 실현하고 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'(aimatters.co.kr)와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 백서 원문 바로가기)

2025.01.08 10:14AI 에디터

똑똑해지는 AI, 인간 지능 언제 뛰어넘을까

AI, 인류의 새로운 도구로 자리잡다 맥킨지(McKinsey)가 2024년 4월 발간한 'What is AI (artificial intelligence)?' 보고서에 따르면, 인공지능은 인간의 인지 기능을 수행할 수 있는 기계의 능력으로 정의된다. 인류는 농업을 혁신한 바퀴부터 복잡한 건설 프로젝트를 가능하게 한 나사, 그리고 오늘날의 로봇 기반 조립 라인에 이르기까지 기계의 도움으로 발전해왔다. 현재 AI는 시리(Siri)나 알렉사(Alexa)와 같은 음성 비서부터 웹사이트의 고객 서비스 챗봇까지 우리의 일상에 깊숙이 자리잡았다. 특히 기업들은 AI를 활용해 업무 효율성과 수익성을 높이고 있으며, AI 시스템의 진정한 가치는 이를 활용해 인간을 지원하고 주주와 대중에게 신뢰를 구축하는 방식에 있다고 보고서는 설명한다. 기계학습과 심층학습, AI의 핵심 동력 기계학습은 AI의 주요 돌파구로 평가받고 있다. 역사적 데이터, 합성 데이터, 인간의 입력 등 광범위한 입력에 적응할 수 있는 이 기술은 1970년대부터 널리 사용되기 시작해 의료 영상 분석과 고해상도 일기 예보 등 여러 산업 분야에서 성과를 거두고 있다. 데이터의 양과 복잡성이 인간이 효율적으로 처리하기에는 너무 방대해지면서 기계학습의 잠재력과 필요성이 더욱 커지고 있다. 특히 심층학습은 기계학습의 더욱 발전된 형태로, 텍스트와 이미지를 포함한 더 광범위한 데이터를 처리할 수 있으며 인간의 개입이 더욱 적게 필요하다. 신경망을 기반으로 하는 심층학습은 인간 뇌의 뉴런 상호작용 방식을 모방해 데이터를 수집하고 처리하며, 반복적인 학습을 통해 예측 능력을 향상시킨다. AI의 발전 역사와 미래 전망 AI의 역사는 1956년 컴퓨터 과학자 존 매카시(John McCarthy)가 다트머스 워크샵에서 '인공지능'이라는 용어를 처음 사용하면서 시작됐다. 그러나 AI 개념에 대한 연구는 이보다 앞서 1950년 앨런 튜링(Alan Turing)이 '모방 게임'을 소개하면서부터였다. MIT 물리학자 로드니 브룩스는 AI가 상징적 AI(1956년), 신경망(1954-2012년), 전통적 로봇공학(1968년), 행동 기반 로봇공학(1985년)의 네 단계를 거쳐 발전해왔다고 설명한다. 생성형 AI(Generative AI)는 프롬프트에 응답하여 콘텐츠를 생성하는 AI 모델로, ChatGPT와 DALL-E 같은 도구들이 다양한 직무 수행 방식을 변화시키고 있다. 현재 일반 AI(AGI) 개발은 아직 먼 미래의 일로 여겨지며, MIT 로봇공학자이자 iRobot의 공동 설립자인 로드니 브룩스는 AGI가 2300년까지는 실현되지 않을 것으로 전망했다. AI 규제와 윤리적 과제 현재 60개 이상의 국가나 연합이 AI의 책임있는 사용을 관리하는 국가 전략을 보유하고 있다. 브라질, 중국, 유럽연합, 싱가포르, 한국, 미국 등이 여기에 포함된다. 미국 정부는 2022년 'AI 권리 장전 청사진'을 통해 안전하고 효과적인 시스템에 대한 권리, 알고리즘 차별로부터의 보호, 데이터 오남용 방지, AI 시스템 사용 고지 권리, 옵트아웃 권리 등 다섯 가지 원칙을 제시했다. 맥킨지는 기업들이 AI 도입 시 투명성 확보, 거버넌스 구축, 데이터·모델·기술 관리, 개인의 권리 보장 등 네 가지 선제적 조치를 취할 것을 권고했다. 특히 AI 모델의 편향성과 윤리적 문제를 해결하기 위해서는 인간의 검토가 필수적이며, 중요한 의사결정에는 AI 모델만을 신뢰해서는 안 된다고 강조했다. AI 도입의 확산과 성공 전략 맥킨지의 2022년 AI 현황 조사에 따르면, AI 모델의 도입이 2017년 이후 두 배 이상 증가했으며 투자도 이에 따라 늘어났다. 기업들의 AI 활용 분야도 제조업과 리스크 관리에서 마케팅과 영업, 제품 및 서비스 개발, 전략과 기업 재무 등으로 진화하고 있다. 성공적인 AI 도입을 위해서는 부서 간 협업 강화, 데이터 기반 의사결정의 일선 권한 부여, 애자일 마인드셋 도입 등 세 가지 주요 변화가 필요하다고 보고서는 제안한다. AI 혁신 사례: 비스트라의 발전소 최적화 프로젝트 보고서는 미국 12개 주에서 약 2천만 가구에 전력을 공급하는 대형 전력 생산업체 비스트라(Vistra)의 AI 도입 사례를 소개했다. 2050년까지 탄소 배출 제로 달성을 목표로 하는 비스트라는 맥킨지의 AI 전문 조직인 퀀텀블랙(QuantumBlack)과 협력해 AI 기반 열효율 최적화 시스템(HRO)을 구축했다. 이 시스템은 발전소의 증기 온도, 압력, 산소 수준, 팬 속도 등 수백 개의 변수를 지속적으로 모니터링하고 조정한다. 2년간의 발전소 데이터를 분석한 다중 계층 신경망 모델을 통해 30분마다 운영자들에게 열효율 개선을 위한 권장사항을 제공한다. 그 결과 연간 약 160만 미터톤의 탄소 배출 감소, 67개 발전기 최적화, 1년 만에 6천만 달러의 비용 절감이라는 성과를 달성했다. 오데사 발전소의 한 운영 관리자는 "발전소에 대해 배우는 데 20년이 걸린 것들을 이 모델은 하루 만에 배웠다"고 평가했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 원문 바로 가기)

2025.01.08 08:59AI 에디터

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

李대통령 첫 장관 인선...과기정통 배경훈·중기 한성숙

[영상] 사람처럼 일하는 로봇…100Hz 동작 제어

새 주인 찾는 11번가, ‘알짜 기업’ 변신에 집중

"해협 봉쇄는 경제 자살"…이란-미국 충돌에 전 세계 비상

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현