• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'에디터'통합검색 결과 입니다. (419건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 대체 불가 직업은 '육체노동자'... 보험심사역·세무사는 100% 대체

전체 근로자 85%가 AI 영향권...30%는 절반 이상 업무 대체 가능 비영리 공공정책 연구 기관 브루킹스연구소(Brookings Institution)가 2024년 10월 발표한 보고서에 따르면, 생성형 AI의 영향력은 기존의 자동화 기술과는 완전히 다른 양상을 보일 것으로 전망된다. 전체 근로자의 85%가 업무의 최소 10% 이상을 AI로 대체할 수 있으며, 30% 이상의 근로자는 자신의 업무 중 50% 이상이 AI의 영향을 받을 것으로 분석됐다. 챗GPT(ChatGPT)는 출시 4개월 만에 월간 방문자 수 10억 명을 달성하며 역사상 가장 빠르게 확산된 기술 플랫폼으로 기록됐다. (☞ 보고서 바로가기) 컴퓨터·수학직 75%, 사무직 60% 이상 AI 영향...육체노동은 12% 미만 오픈AI의 데이터 분석 결과, AI 영향도는 직종별로 큰 차이를 보였다. 컴퓨터·수학(75.1%), 사무·행정지원(60.4%), 비즈니스·재무(52.1%), 건축·공학(48.7%), 법률(48.5%) 직종이 가장 큰 영향을 받을 것으로 나타났다. 반면 건설(5.6%), 생산(12.9%), 시설관리(12.1%) 등 육체노동 중심의 직종은 상대적으로 영향이 적을 것으로 예측됐다. 특히 교육과 의료 분야는 약 33%의 중간 수준 영향을 받을 것으로 분석됐다. AI, 코딩부터 법률검토까지...전문직 핵심업무도 대체 가능 생성형 AI는 이미 고도의 전문성이 요구되는 업무도 수행할 수 있는 것으로 나타났다. 코딩 분야에서는 파이썬(Python)과 C++ 프로그래밍, 소프트웨어 디버깅, 데이터 분석 지원이 가능하다. 문서 작성 및 처리 분야에서는 문서 요약, PDF 읽기, 인터뷰 질문 작성, 이메일 작성 및 응답, 수업 계획서 작성, 교육 자료 준비까지 광범위한 업무를 수행할 수 있다. 정보 처리 측면에서는 다국어 번역과 전사(transcription), 문서 관련 질의응답, 조직의 기존 지식과 데이터 검색, 문서 정보 검색 등이 가능하다. 더 나아가 데이터 기반 의사결정을 위한 분석과 추천, 법률 검토와 자문까지 수행할 수 있는 것으로 나타났다. 구체적인 직종별로 보면, 교사의 경우 채점, 수업 계획, 시험 관리, 기록 유지 등 업무 시간의 약 3분의 1을 AI로 절약할 수 있다. 간호사는 진단 평가, 환자 정보 기록, 치료 계획 수정 등의 업무에서 AI 지원이 가능할 것으로 분석됐다. 다만 신체 검사나 실험실 검사, 주사 투여와 같이 직접적인 의료 행위가 필요한 업무는 AI의 영향이 미미할 것으로 예측됐다. 여성 근로자 36% vs 남성 25%...AI 영향 성별 격차 뚜렷 여성 근로자들이 AI의 영향을 더 크게 받을 것으로 예측됐다. 여성 근로자의 36%가 AI로 인해 업무시간이 50% 이상 단축될 수 있는 직종에 종사하고 있는 반면, 남성은 25%에 그쳤다. 특히 사무·행정지원직의 경우 여성 비율이 71%이며, 이 직종의 71%가 AI 자동화 가능성이 높은 것으로 나타났다. 회계·감사 사무원(여성비율 86%), 고객 서비스 담당자(65%), 일반 사무원(81%), 법률 비서(96%) 등이 고위험군으로 분류됐다. 보험심사역·청구처리 사무원 100% vs 건설노동자 1.8%...직종별 자동화 위험도 극과 극 자동화 위험도가 가장 높은 직종은 보험 심사역(100%), 보험 청구 처리 사무원(100%), 세무사(83%), 여행사 직원(88%), 증권·상품 중개인(80%), 서비스 영업 담당자(67%) 등으로 나타났다. 컴퓨터·수학 분야에서는 데이터베이스 설계자(67%), 데이터 과학자(66%), 컴퓨터 프로그래머(66%)가 높은 자동화 위험에 노출되어 있다. 법률 분야의 경우 법률 비서 및 행정 보조원(88%), 변호사(32%), 법률 보조원(58%) 순으로 자동화 위험도가 높았다. 반면 육체노동이 필요한 직종들은 대부분 AI 자동화 위험이 매우 낮았다. 건설 노동자(1.8%), 금속 가공 기계 조작원(4.7%), 배관공(3.9%)이 대표적이다. 생산직의 경우에도 인쇄기 조작원(27%)을 제외하면 대부분 10% 미만의 낮은 자동화 위험도를 보였다. 운송·물류 분야에서는 화물 운반원(3%), 재고 관리원(21%), 시내버스 및 시외버스 운전사(25.5%) 등으로 나타났다. 자동화 위험이 높은 직종들의 특징은 대부분 정보 처리와 분석, 의사결정이 주요 업무라는 점이다. 이는 생성형 AI가 물리적인 작업보다 인지적 작업에서 더 큰 영향력을 발휘할 것이라는 전망을 뒷받침한다. 특히 금융, 보험, 법률 등 전문서비스 분야의 일부 직무는 거의 완전한 자동화가 가능한 것으로 분석됐다. 금융권 노조가입률 1% vs AI노출도 최상위...노동자 보호 체계 미비 AI 영향도가 높은 산업일수록 노조 조직률이 낮아 노동자 보호가 시급한 것으로 나타났다. 금융산업은 AI 노출도가 가장 높은 산업군에 속하지만 노조 가입률은 1%에 불과했다. 반면 교육 분야는 AI 노출도가 중간 수준이면서도 상대적으로 높은 노조 가입률을 보였다. 전체 공공부문 근로자의 32.5%가 노조에 가입한 반면, 민간부터는 6%에 그쳤다. AI, 일자리 증강할까 대체할까...영향력 예측 어려워 생성형 AI가 노동자들의 능력을 보완하고 생산성을 높일지, 아니면 일자리를 대체할지는 여전히 불확실한 상황이다. 컴퓨터 프로그래머의 경우를 보면, AI는 생산성 향상, 코드 디버깅, 오류 점검, 새로운 기술 학습 등을 지원할 수 있다. 반면 일상적인 코딩 작업을 자동화하여 프로그래머의 일자리를 위협할 수도 있다. 보고서는 특히 경험이 적은 노동자들이 AI를 통해 더 큰 생산성 향상을 경험할 수 있다고 분석했다. 예를 들어, 초보 지원금 신청서 작성자가 AI의 도움으로 경험 많은 작성자 수준의 결과물을 만들어낼 수 있게 된다는 것이다. 미국 정부와 의회, AI 규제 논의 시작했지만 노동자 보호는 아직 바이든 행정부는 2023년 10월 AI 안전 개발과 사용에 관한 행정명령을 발표했지만, 노동자 보호를 위한 구체적인 정책은 아직 미비한 상황이다. 의회에서도 AI 관련 청문회가 열리고 있지만, 주로 허위정보, 안전, 민주주의에 대한 위험에 초점이 맞춰져 있다. 반면 여론조사에 따르면 유권자들은 AI가 일자리와 생계에 미칠 영향을 가장 우려하고 있는 것으로 나타났다. 보고서는 정부가 AI 조달 정책에 노동자 보호 기준을 포함시키고, 공공부문에서 먼저 노동자 중심의 AI 도입 모델을 구축할 필요가 있다고 제안했다. 특히 전체 노동자의 7분의 1이 공공부문에 종사하고 있다는 점에서 정부의 역할이 중요하다고 강조했다. 할리우드 작가와 마이크로소프트가 제시한 AI 시대의 새로운 해법 보고서는 AI 시대의 긍정적 변화를 위한 구체적 사례도 제시했다. 할리우드 작가조합이 주요 스튜디오들과 체결한 계약은 AI 사용에 대한 가이드라인을 제시하고 작가들의 권리를 보호하는 선례를 만들었다. 마이크로소프트(Microsoft)와 미국노동총연맹(AFL-CIO)의 2023년 파트너십은 노동자 AI 교육, AI 개발 과정에서의 의견 반영, 친노동자적 정책 수립 등을 목표로 하고 있다. 캘리포니아주의 패스트푸드위원회(Fast Food Council) 설립도 산업 전반의 근로조건과 기준을 설정하는 새로운 모델로 주목받고 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.24 08:26AI 에디터

생성형 AI가 불러온 4가지 위험...기업들의 고민 깊어진다

사이버 보안 투자 급증: 기업 73% "생성형 AI로 투자 확대" 딜로이트(Deloitte)의 '생성형 AI 시대의 엔지니어링' 시리즈 최신 보고서에 따르면, 기업들이 직면한 생성형 AI의 위험은 크게 4가지로 분류된다. 기업 운영과 데이터에 대한 위험, 생성형 AI 기능 자체의 위험, 적대적 AI로 인한 위험, 시장 관련 위험이 그것이다. (☞ 보고서 바로가기) 특히 설문 참여 기업의 77%가 이러한 위험들에 대해 "상당한 수준의 우려"를 표명했으며, 73%는 생성형 AI 프로그램으로 인한 사이버 보안 투자 확대를 계획하고 있다. 미국 기업의 59%는 이미 지난 12개월 동안 사이버 보안 역량 강화에 투자했다. 무단 AI 사용이 부른 재앙: 삼성 사례로 본 데이터 유출 위험 생성형 AI가 기업 데이터 보안에 미치는 영향이 심각한 것으로 나타났다. 사이버헤이븐 랩스(Cyberhaven Labs)의 2024년 보고서는 대부분의 직원들이 개인 계정으로 생성형 AI 도구를 무단 사용하고 있다고 지적했다. 실제로 삼성(Samsung)은 직원들이 공개 프롬프트에 민감한 데이터를 실수로 노출한 사건 이후 생성형 AI 도구 사용을 전면 금지했다. 팔로 알토 네트웍스(Palo Alto Networks)는 AI 생성 코드가 보안 전문가들의 최우선 우려사항이라고 밝혔다. 프롬프트 인젝션에서 환각까지: AI 모델의 치명적 결함 오픈 월드와이드 애플리케이션 보안 프로젝트(OWASP)는 프롬프트 인젝션을 대규모 언어 모델(LLM) 애플리케이션의 최대 보안 위협으로 지목했다. 프롬프트 인젝션은 공격자가 AI 시스템을 속여 기밀 데이터를 노출시키거나 악의적인 행동을 유도하는 새로운 공격 기법이다. 또한 환각(hallucination) 현상은 그럴듯해 보이지만 사실과 다른 결과를 생성해 잘못된 의사결정과 평판 손상을 초래할 수 있다. 다크웹의 AI 위협: 80만 건 이상의 악용 사례 발견 IBM의 2024년 X-Force 위협 인텔리전스 인덱스는 2023년 다크웹에서 'AI'와 'GPT' 관련 게시물이 80만 건 이상 발견됐다고 보고했다. 딜로이트 금융 서비스 센터는 생성형 AI로 인한 사기 손실액이 2023년 123억 달러에서 2027년까지 400억 달러로 증가할 것으로 예측했다. 이에 대응해 마스터카드는 Decision Intelligence Pro 시스템을 도입해 사기 탐지율을 평균 20% 향상시켰다. AI 데이터센터의 전력 소비량 급증: 2030년까지 15% 도달 전망 딜로이트의 2025년 전력 산업 조사에 따르면, 데이터 센터의 전력 소비량이 현재 미국 전체 전력 생산량의 6~8%에서 2030년까지 11~15%로 증가할 전망이다. 구글은 이에 대응해 애리조나 메사의 새로운 데이터 센터에 400메가와트 규모의 청정 에너지 시설을 구축하고 있다. 마이크로소프트는 스리마일 섬 원자력 발전소의 전력을 향후 20년간 구매하기로 합의했다. 작은 언어 모델(SLM)로 전환: AI 효율성과 보안성 동시 확보 기업들은 대규모 언어 모델의 위험을 줄이기 위해 작은 언어 모델(SLM) 도입을 확대하고 있다. 세일즈포스는 2023년 70억 개의 매개변수를 가진 XGen-7B를 출시했으며, 구글과 엔비디아도 저지연 SLM을 개발했다. Do Not Train 레지스트리 구축, 디지털 자산 관리, 워터마킹 기술 등 새로운 보안 방식도 도입되고 있다. AI 방화벽과 입력값 검증: 프롬프트 보안 강화 기업들은 프롬프트 인젝션 공격에 대응하기 위해 입력값 검증과 AI 방화벽 구축을 강화하고 있다. 입력값 검증은 유해 콘텐츠를 제거하거나 중화시키는 전처리 과정을 포함한다. 특히 LLM 애플리케이션에 연결되기 전에 기밀 데이터를 철저히 검증하거나 마스킹하고, 최소 권한 접근 원칙을 적용하여 공격 표면을 줄이는 것이 중요하다. 또한 규칙 기반 솔루션에 의존하는 대신 AI 방화벽을 구현하여 모델에 출입하는 데이터를 모니터링하고 위협을 더 잘 탐지할 수 있다. 프롬프트 실드와 같은 도구가 숨겨진 지시를 탐지하는 데 도움이 될 수 있지만, 생성된 출력을 판단하고 승인하는 데는 여전히 인간의 감독이 필수적이다. 데이터센터의 혁신: AI 팩토리로의 전환 미국에서는 2023년 5월부터 7월까지 2.1기가와트의 새로운 데이터센터 임대가 체결되었다. 아마존은 두 개의 데이터센터 단지에 100억 달러를 투자하고 있으며, 15개의 글로벌 통신 회사들이 AI 데이터센터 또는 'AI 팩토리'를 구축하고 있다. 특히 메타는 대규모 생성형 AI 워크로드를 지원하기 위해 통합 시스템 설계를 통해 자체 AI 팩토리를 구축했다. 냉각 요구사항이 데이터센터 에너지 소비의 최대 40%를 차지할 수 있어, 많은 기업들이 열을 발생시키는 구성 요소에 직접 냉각수를 순환시키는 액체 냉각 시스템을 도입하고 있다. 엣지 컴퓨팅과 우주 통신망: 미래형 AI 인프라 구축 기업들은 엣지 컴퓨팅을 통해 중앙 전력망 의존도를 낮추고 있다. 플렉센셜의 2024년 AI 인프라 보고서에 따르면, 응답 기업의 51%가 엣지 처리용 코로케이션 센터를 이용하고 있다. 일본 NTT는 위성 네트워크를 통한 효율적인 데이터 처리와 저장을 위해 광학 기술을 연구 중이다. 4대 위험 대응을 위한 기업의 포괄적 접근 필요 딜로이트는 이러한 4가지 위험이 상호 연결되어 있어 산업이나 전략에 관계없이 모든 조직이 포괄적인 보호 전략을 수립해야 한다고 강조했다. 특히 최고정보보안책임자(CISO)를 포함한 리스크 리더십이 조직의 생성형 AI 위험 노출도를 파악하고, 이에 대응하기 위한 새로운 접근 방식을 도입하는 데 핵심적인 역할을 해야 한다고 조언했다. 단일 솔루션으로는 모든 위험에 대응할 수 없으며, 조직은 자사의 위험 노출도에 따라 여러 솔루션을 맞춤형으로 도입하고 조정해야 할 것이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.22 22:19AI 에디터

[Q&AI] 이지아 조부 친일파 논란...350억 땅, 국가 환수 가능할까

질문1: 이지아가 조부 친일파 논란으로 화제인데, 어떤 내용인지 자세하게 정리해줘. 앨런 답변:배우 이지아가 최근 조부의 친일파 논란과 관련하여 공식 입장을 밝혔습니다. 주요 내용은 다음과 같습니다: 조부의 친일 행위 인정 및 사과: 이지아는 조부 김순흥의 친일 행위에 대해 깊이 인식하고 후손으로서 진심으로 사죄한다고 밝혔습니다. 이지아는 두 살 때 조부가 돌아가셔서 친일 행위에 대해 알지 못했으며, 2011년에 관련 사실을 처음 접했다고 설명했습니다. 역사적 과오에 대한 입장: 조부의 헌납 기록을 확인한 후, 당시의 시대적 배경을 고려하더라도 이러한 행위는 정당화될 수 없다고 강조했습니다. 논란의 중심인 안양의 땅이 일제강점기 동안 취득된 재산이라면 국가에 환수되어야 한다고 주장했습니다. 가족과의 관계: 이지아는 18살에 자립한 이후 부모로부터 금전적 지원을 받지 않았으며, 복잡한 가족사로 인해 부모와의 관계를 끊고 지낸 지 10년이 넘었다고 설명했습니다. 조부에 대한 긍정적인 발언을 한 적이 없으며, 잘못된 정보가 퍼진 것에 대해 바로잡고자 한다고 덧붙였습니다. 부친의 법적 분쟁: 이지아의 부친 김씨는 형제들과 함께 350억 원 상당의 토지를 두고 상속 분쟁 중이며, 사문서 위조 혐의로 고소당한 바 있습니다. 김씨는 과거 사문서 위조와 사기 혐의로 세 차례 징역형을 선고받은 전력이 있습니다. 이지아는 앞으로도 역사에 대한 진실을 겸허히 받아들이고 책임감 있게 살아가겠다고 다짐했습니다. 질문2. 김순흥의 친일 행위에 대해서 자세히 알려줘. 앨런 답변: 김순흥(金淳興, 1910년 12월 28일 ~ 1981년 10월 26일)은 일제 강점기 조선과 대한민국에서 활동한 친일파입니다. 그의 주요 친일 행위는 다음과 같습니다: 국방헌금 기부: 김순흥은 일본 제국주의를 위해 국방 관련 단체에 거액의 헌금을 기부했습니다. 1937년 7월 종로경찰서에 국방헌금 1만원을 헌납한 기록이 있습니다. 전쟁 독려 활동: 그는 전쟁을 독려하는 글을 기고하고 일본군에 전쟁 헌금을 내는 등 다양한 친일 활동을 했습니다. 친일 단체 활동: 김순흥은 '일선융화'(日鮮融和)를 내걸고 결성된 동민회의 회원으로 활동하며, 반일운동에 대항하기도 했습니다. 친일인명사전 등재: 김순흥은 친일인명사전에 등재된 친일 반민족 행위자로, 대한민국 임시정부가 작성한 친일파 숙청 목록에도 이름이 올라 있습니다. 김순흥의 이러한 친일 행위로 인해 그의 후손들은 논란에 휩싸였으며, 배우 이지아는 조부의 친일 행위에 대해 후손으로서 사죄하고, 관련 재산이 국가에 환수되어야 한다는 입장을 밝힌 바 있습니다. 질문3. 일제강점기 동안 취득된 재산이 국가에 환수된 사례가 있어? 앨런 답변: 일제강점기 동안 취득된 재산이 국가에 환수된 사례는 여러 가지가 있습니다. 대표적인 사례들을 정리하면 다음과 같습니다: 친일재산귀속법: 2005년에 제정된 친일반민족행위자 재산의 국가귀속에 관한 특별법에 따라 친일파의 재산이 국가에 환수되었습니다. 이 법에 따라 친일파 168명의 부동산 2,457필지, 1,300만㎡가 환수되었으며, 공시지가로 1,267억 원 어치였습니다. 개별 사례: 2014년 충북 청주시의 민영은 토지 환수 사례가 있습니다. 이는 친일재산 환수의 대표적인 사례로 꼽힙니다. 송병준, 이근호, 민영휘 등의 후손들이 소유한 재산도 환수되었습니다. 이들은 친일 행위의 대가로 얻은 재산을 국가가 환수하기 위해 소송을 제기한 사례입니다. 일제강점기 일본인 소유 재산 환수: 일제강점기 동안 일본인이 소유했던 땅이 해방 이후 미 군정에 귀속되었고, 1949년 시행된 귀속재산처리법에 따라 국유지로 환수되었습니다. 기타 사례: 독립유공자들이 강제로 빼앗긴 재산을 후손들에게 돌려주기 위한 노력도 진행되고 있습니다. 이 외에도 많은 사례들이 있으며, 친일재산 환수는 국가의 신성한 의무로서 지속적으로 추진되고 있습니다. 질문4. 김순흥 350억 땅이 국가에 환수될 수 있을까? 앨런 답변: 김순흥의 350억 원 상당의 땅이 국가에 환수될 가능성은 여러 가지 요인에 따라 달라질 수 있습니다. 다음은 관련된 주요 사항들입니다: 법적 근거: 친일재산귀속법: 2005년에 제정된 친일반민족행위자 재산의 국가귀속에 관한 특별법에 따라, 친일 행위로 취득된 재산은 국가에 환수될 수 있습니다. 재산의 취득 경위: 이지아의 조부 김순흥의 재산이 일제강점기 동안 취득된 재산이라면, 해당 법에 따라 국가에 환수될 가능성이 있습니다. 현재 상황: 해당 토지는 군 부지로 수용되었다가 군부대 이전으로 김순흥의 법정상속인인 자녀들에게 되돌아왔습니다. 김순흥의 자녀들은 이 토지를 환매하는 과정에서 법적 분쟁을 벌이고 있으며, 이 과정에서 위임장 위조 등의 의혹도 제기되었습니다. 이지아의 입장: 이지아는 조부의 역사적 과오를 인정하고, 해당 재산이 일제강점기 동안 취득된 것이라면 국가에 환수되어야 한다고 주장하고 있습니다. 결론적으로, 김순흥의 350억 원 상당의 땅이 국가에 환수될 가능성은 법적 근거와 재산의 취득 경위, 현재의 법적 분쟁 상황 등을 종합적으로 고려해야 합니다. 친일재산귀속법에 따라 절차가 진행된다면 환수가 가능할 것입니다. ■ 기사는 앨런을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.22 22:18AI 에디터

"수어도 AI로 배운다"... 엔비디아, 수어 교육 AI 플랫폼 '사인스' 공개

엔비디아(NVIDIA)가 미국농아인자녀협회(American Society for Deaf Children)와 크리에이티브 에이전시 헬로먼데이(Hello Monday)와 협력해 미국수어(ASL) 학습을 위한 AI 플랫폼 '사인스(Signs)'를 개발하고 있다. 20일(현지 시간) 엔비디아 블로그에 발표된 내용에 따르면, 미국에서 영어, 스페인어에 이어 세 번째로 많이 사용되는 언어가 미국 수어다. 하지만 영어나 스페인어에 비해 AI 기반 수어 학습 도구는 턱없이 부족한 실정이다. 사인스 플랫폼은 검증된 미국수어 라이브러리를 제공한다. 학습자들은 3D 아바타를 통해 수어 동작을 배울 수 있으며, AI 기술을 활용해 웹캠으로 자신의 수어 동작에 대한 실시간 피드백을 받을 수 있다. 엔비디아는 1,000개의 수어 단어를 표현하는 40만 개의 영상 클립 구축을 목표로 하고 있다. 모든 수어 데이터는 수어 사용자와 통역사들의 검증을 거쳐 정확성을 보장한다. 미국농아인자녀협회의 셰리 다울링(Cheri Dowling) 사무총장은 "대부분의 농아 어린이들이 청인 부모 밑에서 태어난다"며 "사인스와 같은 접근성 높은 도구를 통해 가족들이 일찍부터 미국수어를 배울 수 있게 되면 생후 6~8개월의 어린 자녀와도 효과적인 의사소통이 가능해진다"고 말했다. 엔비디아는 이 데이터셋을 활용해 농인과 청인 사회 간의 소통 장벽을 허무는 AI 애플리케이션을 개발할 계획이다. 또한 AI 에이전트, 디지털 휴먼, 화상회의 도구 등 접근성 높은 기술 개발을 위해 이 데이터를 공개할 예정이다. 현재 사인스 플랫폼은 100개의 기본 수어를 학습할 수 있으며, 향후 얼굴 표정과 머리 움직임 등 비수지 신호도 추적하는 기능을 추가할 계획이다. 데이터셋은 올해 말 공개될 예정이다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 15:27AI 에디터

AI 모델의 '긴 문장 처리' 한계 극복…딥시크, 새 어텐션 기술 화제

현대 AI의 새로운 도전: 70-80%를 차지하는 어텐션 계산 문제 딥시크(DeepSeek)가 발표한 연구 논문에 따르면, 차세대 AI 언어모델에서 긴 문맥 처리 능력이 매우 중요해지고 있다. 심층 추론, 저장소 수준의 코드 생성, 다중 턴 자율 에이전트 시스템 등 실제 응용 사례가 증가하면서 긴 문맥 처리의 중요성이 더욱 부각되고 있다. (☞ 논문 바로가기) 오픈AI의 O-시리즈 모델, 딥시크-R1(DeepSeek-R1), 제미니 1.5 프로(Gemini 1.5 Pro) 등은 이미 전체 코드베이스나 긴 문서를 처리하고, 수천 개의 토큰에 걸친 일관된 대화를 유지할 수 있다. 하지만 6만4천 토큰 길이의 문맥을 처리할 때 기존 소프트맥스 어텐션 구조는 전체 지연 시간의 70-80%를 차지하는 심각한 병목 현상을 보이고 있다. 기존 스파스 어텐션 접근법의 한계 분석 연구진은 기존의 스파스 어텐션 방식들을 세 가지 유형으로 분류하고 각각의 한계를 분석했다. 고정 스파스 패턴을 사용하는 슬라이딩윈도우 방식은 메모리와 계산 비용을 줄일 수 있지만, 전체 문맥 이해가 필요한 작업에서 성능 제한을 보였다. H2O와 SnapKV 같은 동적 토큰 제거 방식은 디코딩 중 KV-캐시 메모리 사용을 줄이는 데 효과적이었으나, 미래 예측에 중요한 토큰을 놓칠 위험이 있었다. Quest, InfLLM, HashAttention, ClusterKV 등 쿼리 기반 선택 방식은 청크 단위로 중요도를 평가해 토큰을 선택하지만, 학습 단계에서의 최적화가 어려운 한계가 있었다. 기술 구현의 실제적 도전과 해결 기존 접근법들의 가장 큰 문제는 이론적인 계산량 감소가 실제 속도 향상으로 이어지지 않는다는 점이었다. 연구진은 이를 '효율적 추론의 환상'이라 명명하고, 두 가지 주요 원인을 지적했다. 첫째, 디코딩이나 프리필링 단계 중 하나에만 최적화되어 전체 추론 과정의 효율성이 떨어지는 '단계 제한적 희소성' 문제가 있었다. 둘째, MQA(Multiple-Query Attention)나 GQA(Grouped-Query Attention)와 같은 최신 어텐션 아키텍처와의 호환성 부족으로 인해 메모리 접근 패턴이 비효율적이었다. NSA는 이러한 문제들을 계층적 토큰 모델링과 하드웨어 최적화를 통해 해결했다. NSA 구조: 3단계 병렬 어텐션으로 최적화된 문맥 처리 딥시크의 NSA(Native Sparse Attention)는 세 가지 병렬 어텐션 경로를 통해 입력 시퀀스를 처리한다. 압축된 거시적 토큰, 선택적으로 유지된 미시적 토큰, 지역 문맥 정보를 위한 슬라이딩 윈도우를 결합한 것이 특징이다. 구체적인 구현에서는 압축 블록 크기(l) 32, 슬라이딩 스트라이드(d) 16, 선택 블록 크기(l') 64, 선택 블록 수(n) 16(초기 1블록과 지역 2블록 포함), 슬라이딩 윈도우 크기(w) 512를 적용했다. 벤치마크 성능: 9개 중 7개 지표에서 기존 모델 상회 NSA를 적용한 모델은 지식(MMLU, MMLU-PRO, CMMLU), 추론(BBH, GSM8K, MATH, DROP), 코딩(MBPP, Humaneval) 분야의 벤치마크 테스트에서 기존 풀 어텐션 모델을 크게 앞섰다. 특히 DROP 테스트에서 +0.042, GSM8K에서 +0.034의 성능 향상을 보였으며, 9개 평가 지표 중 7개에서 더 우수한 성능을 기록했다. 롱벤치(LongBench) 평가에서도 NSA는 0.469점을 기록해 풀 어텐션(0.437)과 다른 스파스 어텐션 방식들을 모두 능가했다. 처리 속도: 최대 11.6배 향상된 디코딩 성능 8-GPU A100 시스템에서 진행된 성능 테스트에서 NSA는 6만4천 토큰 길이의 시퀀스 처리 시 디코딩에서 11.6배, 순방향 전파에서 9.0배, 역방향 전파에서 6.0배의 속도 향상을 달성했다. 특히 디코딩 단계에서는 메모리 접근 횟수를 크게 줄여 기존 모델이 필요로 하는 65,536 토큰 대비 5,632 토큰만으로도 처리가 가능했다. 수학적 추론: 16K 문맥에서 14.6% 정확도 달성 딥시크-R1의 지식을 증류하여 32K 길이의 수학적 추론 트레이스로 10B 토큰의 지도 학습을 수행한 결과, NSA-R 모델은 미국 수학 초청 시험(AIME) 벤치마크에서 8K 문맥에서 12.1%, 16K 문맥에서 14.6%의 정확도를 달성했다. 이는 동일 조건에서 기존 풀 어텐션 모델이 보인 4.6%와 9.2%를 크게 상회하는 결과다. 기술적 혁신: 하드웨어 최적화와 종단간 학습 지원 NSA는 텐서 코어 활용과 메모리 접근을 최적화한 하드웨어 친화적 알고리즘 설계를 통해 이론적 계산량 감소를 실제 속도 향상으로 이어지게 했다. 또한 27B 파라미터 트랜스포머 모델에 260B 토큰으로 사전학습을 수행하며 종단간 학습이 가능한 구조를 입증했다. 이는 기존 스파스 어텐션 방식들이 추론 단계에만 적용되거나 학습 효율성이 떨어지는 한계를 극복한 것이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 14:32AI 에디터

게임 개발자의 상상력을 현실로... MS 연구진, 게임 제작용 AI 모델 개발

마이크로소프트 연구진이 네이처(Nature)에 발표한 연구에 따르면, 게임 개발 과정에서 창의적 아이디어 구현을 지원하는 새로운 생성형 AI 모델 'WHAM(World and Human Action Model)'을 개발했다. 이는 생성형 AI가 텍스트, 이미지, 오디오, 음악, 비디오 등 다양한 분야에서 빠르게 발전하고 있는 가운데 게임 개발 분야에 특화된 혁신적인 모델로 주목받고 있다. (☞ 보고서 바로가기) 2년에서 5년 걸리는 게임 개발...AI로 제작 기간 단축 기대 게임 개발은 매우 시간이 많이 소요되는 과정이다. 인디 게임의 경우 최소 2년 이상, AAA급 게임의 경우 5년 이상이 소요되며, 이 중 절반 가량이 컨셉과 사전 제작 단계에서 소요된다. 한 인디 게임 스튜디오의 CEO는 "새로운 캐릭터를 만들고 레벨을 디자인하는 과정에서 캐릭터 아티스트, 애니메이터, 프로그래머, 게임 디자이너 등 여러 전문가들의 반복적인 작업과 조율이 필요하다"고 설명했다. 글로벌 8개 스튜디오 27명의 개발자가 말하는 이상적인 AI 연구진은 마이크로소프트 파운더스 허브(Microsoft Founders Hub)를 통해 선정된 8개 게임 스튜디오의 27명 개발자들과 심층 인터뷰를 진행했다. 참여 스튜디오는 4개의 인디 스튜디오, 1개의 AAA 스튜디오, 3개의 게임 접근성 개발팀으로 구성되었으며, 미국과 영국을 중심으로 벨기에, 인도, 카메룬 등 다양한 국가의 개발자들이 참여했다. 특히 글로벌 사우스와 장애인 개발자들의 참여를 적극적으로 독려했다. 7년 분량의 게임플레이 데이터로 학습된 16억 파라미터 규모 모델 WHAM은 16억 개의 매개변수를 가진 트랜스포머 기반 모델이다. 2020년 9월부터 2022년 10월까지 닌자 시어리의 게임 '블리딩 엣지'에서 수집된 약 50만 건의 게임플레이 데이터(27.89 TiB)를 학습했다. 이는 7년 분량의 연속 플레이에 해당하는 방대한 양으로, 약 14억 개의 프레임 데이터를 포함한다. 데이터는 학습/검증/테스트 세트로 80:10:10 비율로 나누어졌다. AI 기반 게임 개발의 새로운 방향성 제시 WHAM은 기존의 AI 모델 개발 방향과는 다른 혁신적인 접근법을 제시했다. 그동안 머신러닝 연구 커뮤니티는 주로 작업 완료의 효율성과 효과성 측정에 중점을 두었다. 그러나 WHAM은 창의적인 작업을 지원하는 AI 개발에 있어 인간 창작자의 요구사항을 우선적으로 고려했다. 특히 수작업으로 도메인별 모델을 만들거나 학습해야 했던 기존 방식과 달리, WHAM은 관련 데이터만 있으면 복잡한 3D 게임의 구조를 자동으로 학습할 수 있다. 이는 음악이나 비디오 등 다른 창작 분야에서도 활용될 수 있는 가능성을 보여준다. 85% 이상의 정확도로 사용자 수정사항 반영하는 세 가지 핵심 기능 WHAM의 성능은 일관성, 다양성, 지속성이라는 세 가지 핵심 지표로 검증되었다. 일관성 측면에서는 FVD를 통해 생성된 게임플레이가 실제 인간 플레이어의 것과 매우 유사함을 입증했다. 다양성 측면에서는 바서스타인 거리를 사용해 모델이 생성한 행동이 실제 플레이어의 행동 분포를 잘 반영함을 확인했다. 지속성 검증에서는 파워셀, 캐릭터, 수직 점프패드에 대해 5개의 수정된 이미지 입력 시 85% 이상의 높은 지속성을 보여주었다. 기술적 한계를 극복한 혁신적 모델 구조 WHAM의 모델 구조는 기존 월드 모델링 접근법을 뛰어넘는 혁신적인 설계를 보여준다. 트랜스포머 아키텍처를 기반으로 하는 WHAM은 게임 이미지를 개별 토큰으로, 엑스박스 컨트롤러 동작을 11개의 버킷으로 이산화하여 처리한다. 각 이미지는 300×180 해상도에서 540개의 토큰으로 변환되며, VQGAN 이미지 인코더를 활용한다. 특히 1.6B WHAM은 기존의 4,096개 어휘 크기를 16,384개로 확장했으며, 이를 통해 더 높은 해상도와 더 정교한 게임 메커닉스 구현이 가능해졌다. "1초 만에 10가지 게임플레이 시나리오 생성" WHAM 데모 공개 WHAM 데모는 사용자가 시작 프레임을 선택하면 1초 안에 최대 10개의 다양한 게임플레이 시나리오를 생성한다. 사용자는 생성된 시나리오 중 원하는 분기점이나 프레임을 선택하여 새로운 시나리오를 재생성할 수 있으며, 이전 선택으로 돌아가 수정할 수도 있다. 특히 실시간으로 캐릭터나 오브젝트를 추가하거나 수정할 수 있어 개발자의 창의적인 실험을 지원한다. 30억 게이머 시대, AI로 여는 게임 개발의 새 지평 전 세계 30억 명 이상의 게이머 시대를 맞아, 게임 스튜디오들은 증가하는 새로운 콘텐츠 수요를 충족시키기 위해 AI 도입을 적극 검토하고 있다. WHAM은 기존 게임의 구조를 학습하여 새로운 게임플레이 시퀀스를 생성할 수 있으며, 이는 향후 음악이나 비디오 등 다른 창작 분야로도 확장될 수 있는 가능성을 보여준다. 마이크로소프트는 이러한 연구 결과를 바탕으로 WHAM의 가중치, 평가 데이터셋, WHAM 데모를 허깅페이스를 통해 공개하여 추가 연구를 지원할 예정이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 14:30AI 에디터

2030세대가 가장 선호하는 구독 서비스는 '생성형AI'

최근 소비자 구독서비스 이용실태 MZ세대의 선택, 생성형 AI 구독서비스 시장 급성장 최근 구독경제가 소비시장의 새로운 패러다임으로 자리잡은 가운데, 20-30대 젊은 층이 가장 선호하는 구독서비스로 '생성형 AI'가 떠올랐다. 대한상공회의소가 발표한 소비자 구독서비스 이용실태 분석 결과에 따르면, 20대의 23.0%, 30대의 19.5%가 생성형 AI 서비스를 새롭게 이용해보고 싶은 구독서비스로 선택했다. (☞ 자료 바로가기) 실제 사례를 보면, 32세 직장인 A씨는 월 2만 원대의 생성형 AI 서비스를 활용해 업무 보고서를 빠르고 정확하게 작성하며 업무 효율을 크게 향상시켰다. 특히 문서 작성 전반에 걸쳐 업무 효율이 크게 향상됐으며, 비용 부담 없이 스마트한 업무 환경을 경험하고 있다. 세대별 구독서비스 선호도 뚜렷한 차이 보여 구독서비스 선호도는 세대 간 뚜렷한 차이를 보였다. 조사 결과 전체 응답자의 94.8%가 구독서비스를 이용해본 경험이 있다고 답했다. 서비스별 이용 현황을 보면 동영상 스트리밍(60.8%), 쇼핑 멤버십(52.4%), 통신(인터넷 TV결합)(45.8%) 순으로 나타났다. 40-60대는 건강·생활가전 구독서비스를 가장 선호했는데, 40대 25.5%, 50대 25.5%, 60대 이상 24.0%가 이를 1순위로 꼽았다. 구독경제의 진화, 콘텐츠에서 AI까지 구독서비스 시장은 이용 개수도 꾸준히 증가하고 있다. 현재 3-4개의 구독서비스를 이용하는 소비자가 39.8%로 가장 많았고, 12개 33.9%, 5~6개 17.2%, 7개 이상 9.1% 순으로 나타났다. 온라인 교육(16.1%), 식품 배송(14.3%), 정보성 미디어(13.0%) 등 생활 밀착형 서비스도 꾸준히 성장하고 있다. 특히 생성형 AI 구독서비스는 이러한 장점들을 모두 갖춘 대표적인 사례로 평가받고 있으며, 종합형 멤버십(25.5%)이나 소프트웨어(18.3%) 등 디지털 서비스의 구독 이용률도 꾸준히 증가하는 추세다. 글로벌 구독경제 시장의 성장과 전망 글로벌 조사기관 가트너(Gartner)에 따르면, 세계 구독경제 시장 규모는 2020년 804조 원에서 2025년 1,200조 원으로 성장할 것으로 전망된다. 대한상공회의소 디지털혁신팀은 이러한 성장세 속에서 기업들이 소비자 니즈에 최적화된 구독모델을 개발해야 한다고 강조했다. 특히 생성형 AI 분야에서는 젊은 세대의 높은 수요를 고려한 차별화된 서비스 전략이 필요할 것으로 보인다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 11:10AI 에디터

패션, AI를 입다…젠틀몬스터부터 구찌까지 'AI 혁신' 한창

수년전부터 패션 업계는 AI를 다양한 분야에 도입하고 있었으며, 생성형 AI 기술의 대중화와 함께 그 속도가 가속화되고 있습니다. 단순한 데이터 분석을 넘어, 디자인, 생산, 마케팅, 고객 경험까지 AI가 패션 산업 전반을 혁신하고 있는데요. 특히 AI를 활용하여 브랜드 가치를 극대화하고 고객과의 소통을 강화하는 사례가 늘어나고 있습니다. 이번 기사에서는 패션 브랜드들이 AI를 어떻게 활용하고 있는지, 그리고 그 결과는 어떠한지를 살펴보겠습니다. 젠틀몬스터: AI 기반 맞춤형 추천 시스템과 브랜드 경험 강화 이미지 출처: 젠틀몬스터 홈페이지 캡처 젠틀몬스터는 고객 데이터를 AI로 분석해 개인화된 상품 추천 시스템을 구축했습니다. 이 시스템은 고객의 리뷰, 구매 이력, 웹사이트 행동 데이터를 자연어 처리(NLP) 기술로 분석하여 개인별 취향에 맞는 제품을 추천합니다. 예를 들어, "가볍고 편안하다"는 리뷰는 유사한 특징을 가진 다른 제품 추천으로 이어지며, 고객이 자주 검색하는 스타일의 신상품을 우선적으로 노출시킵니다. 도입사례 바로 보기 이러한 AI 기반 추천 시스템은 놀라운 성과를 거두었습니다. 고객들은 자신의 취향에 맞는 제품을 더 쉽게 발견할 수 있게 되었고, 이는 매출 25% 증가로 이어졌습니다. 또한 최근에는 게임 TEKKEN 8과의 협업에서도 AI 필터를 활용한 이벤트를 진행하며, 디지털 경험을 한층 강화했습니다. 에이블리코퍼레이션: AI가 제안하는 남성 패션의 새로운 기준 이미지 출처: 에이블리 홈페이지 캡처 에이블리코퍼레이션의 남성 패션 플랫폼 '4910'은 AI 개인화 추천 기술을 통해 혁신적인 성과를 이뤄냈습니다. 스트릿부터 럭셔리까지 50만 개 이상의 상품을 보유한 이 플랫폼은 고객의 취향 데이터를 분석해 최적의 스타일을 제안합니다. 특히 체형별 특징과 착용 상황까지 고려한 '코디 추천' 기능은 패션에 어려움을 느끼는 남성 고객들의 구매 결정을 돕고 있습니다. 도입사례 바로 보기 이러한 노력은 실적으로 이어져 2024년 4분기 거래액이 전년 대비 10배 이상 증가하는 놀라운 성과를 기록했습니다. 특히 맨즈웨어 카테고리는 308배, SPA 브랜드는 26배 이상의 성장을 보이며 AI 기술의 효과를 입증했습니다. 구찌: AI와 함께하는 럭셔리 패션의 혁신 이미지 출처: 구찌 홈페이지 캡처 구찌는 글로벌 고객 서비스 네트워크인 구찌9(Gucci 9)에 AI를 접목하여 '아인슈타인(Einstein)' 시스템을 구축하였습니다. 아인슈타인의 AI는 단순한 상품 및 쇼핑 문의를 넘어 빈티지 가방의 리퍼비싱, 구찌 오스테리아(Gucci Osteria) 예약 등 다양한 고객 문의를 처리합니다. 특히 구찌 브랜드의 독특한 정체성을 반영한 '구찌화(Guccified)'된 응답을 생성하여 고객과의 소통을 더욱 세련되게 만들었습니다. 도입사례 바로 보기 이 AI 시스템은 매장 방문 고객, 전화 문의 고객, 왓츠앱(WhatsApp) 문의 고객을 하나의 데이터 흐름으로 연결하여 더욱 심층적인 고객 인사이트를 제공합니다. 이를 통해 브랜드의 일관성을 유지하면서도, 개별 고객의 요구를 신속하게 처리할 수 있도록 하였습니다. AI를 활용한 맞춤형 응대가 가능해지면서 고객 만족도가 크게 향상되었으며, 럭셔리 브랜드로서의 프리미엄 서비스 경험을 더욱 강화하였습니다. 패션 산업의 미래, AI와 함께 그려나가다 AI 기술은 패션 산업의 다양한 영역에서 변화를 만들어내고 있습니다. 데이터 분석을 통한 트렌드 예측, 맞춤형 추천 시스템, 생산 공정의 최적화, 고객 경험 개선 등 AI는 패션 브랜드들에게 새로운 가능성을 열어주고 있습니다. 패션과 AI의 결합은 이제 시작 단계에 불과합니다. 앞으로 더욱 정교한 AI 알고리즘과 머신러닝 기술이 도입되면서, 패션 브랜드들은 한층 더 개인화된 서비스와 혁신적인 고객 경험을 제공할 것으로 기대됩니다. 패션 업계의 AI 도입이 단순한 유행이 아닌, 필수적인 전략으로 자리 잡고 있다는 점에서 우리는 앞으로도 AI가 만들어낼 새로운 패션의 세계를 기대해볼 만합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 10:09AI 에디터

[Q&AI] 코인시장 불 지핀 '파이코인', 뭐길래... OKX 거래 방법은

질문: 파이코인 okx에 대해 자세히 알려줘. 챗 GPT 답변: 파이코인(Pi Coin)은 2025년 2월 20일 오후 5시(한국 시간)부터 OKX 거래소에서 공식적으로 거래를 시작했습니다. OKX는 세계 3위권의 대형 암호화폐 거래소로, 파이코인의 상장은 그 유동성과 접근성을 크게 향상시킬 것으로 기대됩니다. OKX에서 파이코인 거래 방법 OKX 계정 생성 및 인증 OKX 공식 웹사이트 또는 모바일 앱에서 회원가입을 진행합니다. 가입 후, 원활한 입출금을 위해 신원 인증(KYC)을 완료해야 합니다. 파이코인 입금 OKX 계정에 로그인한 후, '자산(Assets)' 메뉴에서 '입금(Deposit)'을 선택합니다. 검색창에 'PI'를 입력하여 파이코인을 선택하고, 표시된 입금 주소를 복사합니다. 파이 네트워크 지갑에서 복사한 주소로 파이코인을 전송합니다. 파이코인 거래 입금이 완료되면, '거래(Trade)' 메뉴에서 '현물 거래(Spot)'를 선택합니다. 거래 페어에서 'PI/USDT'를 선택하고, 원하는 수량과 가격을 입력하여 매수 또는 매도 주문을 진행합니다. 거래 시 유의사항 콜 옥션(Call Auction) 제도: 거래 시작 전 1시간 동안 초기 매수·매도 주문을 받아 개시 가격을 결정하는 방식입니다. 이 기간 동안 주문 취소가 제한될 수 있으므로 주의가 필요합니다. 초기 거래 제한: 거래 시작 후 첫 5분 동안은 시장가 주문이 제한되며, 주문당 최대 금액이 1만 USDT로 제한됩니다. 이러한 제한은 5분 후 자동으로 해제됩니다. 출금 가능 시점: 파이코인의 출금은 2025년 2월 21일 오후 5시(한국 시간)부터 가능합니다. 파이코인의 OKX 상장은 그동안 제한적이었던 거래 환경을 개선하고, 글로벌 시장에서의 유동성을 높이는 중요한 계기가 될 것입니다. 다만, 초기 거래 시 변동성이 클 수 있으므로 신중한 접근이 필요합니다. ■ 기사는 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 07:05AI 에디터

기업들, AI 시대 살아남으려면…맥킨지가 분석한 비결

AI와 자동화가 이끄는 전례 없는 기업 환경의 변화 맥킨지(McKinsey)가 발간한 보고서에 따르면, 인공지능과 자동화 기술의 광범위한 도입은 기업들이 직면한 가장 큰 변화 중 하나로 꼽힌다. 지정학적 변화, 기후변화의 영향, 유전자 편집과 생명공학 혁신, 사회 정의 트렌드, 직원들의 기대 변화 등이 복합적으로 작용하면서 전례 없는 변화의 시대가 도래했다. 이러한 기술 혁신 시대에 기업이 성공적으로 적응하기 위해서는 새로운 역량을 개발하고, 기존의 사고방식과 행동을 재고해야 한다는 분석이다. (☞ 보고서 바로가기) 회복력·적응력 갖춘 직원, 혁신행동 3.8배·업무 몰입도 3배 증가 맥킨지건강연구소(MHI)의 30개국 직원 3만 명을 대상으로 한 연구 결과, 회복력과 적응력이 모두 높은 직원들은 그렇지 않은 직원들에 비해 혁신적 행동이 3.8배, 직무 몰입도가 3배 이상 높은 것으로 나타났다. 특히 조직의 지원과 심리적 안정감이 보장된 환경에서는 직원들의 혁신 행동이 6.2배(75% vs 12%), 업무 몰입도는 6배(73% vs 12%)까지 증가하는 것으로 조사됐다. 조직 지원과 심리적 안정감의 시너지: 혁신 6.2배, 몰입도 6배 증가 맥킨지건강연구소(MHI)의 30개국 3만 명 직원 조사에 따르면, 조직의 지원(명확한 프로세스, 충분한 자원, 상사나 동료의 지원 등)과 심리적 안정감, 회복력, 적응력이 모두 갖춰진 환경의 직원들은 그렇지 않은 직원들에 비해 월등한 성과를 보였다. 업무 몰입도는 6배(73% vs 12%), 혁신적 행동은 6.2배(75% vs 12%) 높게 나타났다. 이는 개별 요소들의 단순한 합이 아닌, 시너지 효과가 발생했음을 보여준다. 특히 이러한 결과는 AI와 자동화 도입 과정에서 조직의 체계적인 지원과 심리적 안정감 확보가 얼마나 중요한지를 입증하는 것이다. 글로벌 기업 84%, 적응력 개발 프로그램 미투자...직원 26%는 "시급한 과제" 맥킨지의 'Talent Trends' 설문조사에 따르면, 현재 전 세계 기업의 16%만이 적응력과 지속적 학습 프로그램에 투자하고 있다. 반면 1만 명의 직원들 중 26%는 적응력을 최우선 필요 역량으로 꼽았다. 특히 프론트라인 직원들과 근속 1년 이하의 신입 직원들에게서 이러한 요구가 두드러졌다. MHI 연구에서는 전체 응답자의 56%가 회복력 관련 질문에, 28%가 적응력 관련 질문에 긍정적으로 답변한 반면, 두 가지 모두에서 높은 점수를 보인 응답자는 23%에 그쳤다. 심리적 안정감이 이끈 혁신: 대형 여행사의 성공 사례 연구에 따르면 심리적 안정감은 효과적인 리더십과 조직 성과를 위한 핵심 요소다. 팀 내 대담한 아이디어와 다양한 관점의 표현을 촉진하고 협업과 혁신을 크게 향상시킨다. 한 대형 여행사는 안전 문제에 대한 문화를 개선하고 잠재적 문제점 발견과 의견 개진을 장려하는 심리적 안정감 확보에 주력했다. 그 결과 리스크 관리 능력이 향상되고, 팀의 혁신적 아이디어 제안이 증가했으며, 직원 유지율과 몰입도가 개선되었다. 9천명 규모 제약사의 3단계 적응력 향상 프로그램 성공기 한 제약회사는 9,000명 이상의 직원들을 대상으로 3단계 교육 프로그램을 실시했다. 1단계에서는 최고 경영진이 대면 워크숍에 참여하고, 2단계에서는 4,000명의 중간 관리자들이 디지털 자율학습 도구를 활용했으며, 3단계에서는 일선 직원들이 온라인 앱과 소셜 러닝을 통해 교육을 받았다. 3개월간 주간 단위로 진행된 이 프로그램은 통제 그룹 대비 적응력과 웰빙 수준을 크게 향상시켰다. AI 시대의 리더십 4대 과제 리더들은 AI와 자동화 기술 도입 과정에서 네 가지 핵심 과제를 수행해야 한다. 첫째, 공동의 방향성을 제시하는 나침반 역할을 해야 한다. 둘째, 단순한 인력이 아닌 심리적으로 안전한 공동체를 구축해야 한다. 셋째, 리더 자신이 회복력과 적응력을 갖추고 롤모델이 되어야 한다. 넷째, 직원들이 그룹 단위로 이러한 역량을 학습하고 구축할 수 있도록 장려해야 한다. CEO부터 중간관리자까지: 직급별 적응력 개발 전략 하우멧 에어로스페이스(Howmet Aerospace)의 CEO 존 플랜트(John Plant)는 "CEO로 취임해서 구조조정 능력이 필요한 첫 번째 단계는 잘 관리했지만, 3-4년 후 회사가 성장 모드로 전환되면서 적절한 스킬이 부족해 이사회가 해고할 수도 있다"며 "서로 다른 모드에서 운영할 수 있는 경험이나 다재다능함을 가진 사람은 매우 드물다"고 말했다. 최고경영진은 자신만의 관점과 경험을 바탕으로 타운홀 미팅이나 팀 미팅, 일대일 대화를 통해 과거의 변동성을 어떻게 관리했는지 공유해야 한다. 또한 이사회 구성원들과 함께 회복력과 적응력 교육에 참여하여 조직에 필요한 스킬, 사고방식, 조건들을 완전히 내재화해야 한다. 더불어 적응력 향상을 전반적인 비즈니스 전략과 동등한 수준으로 통합하고, 인재 영입과 유지 과정에도 이러한 요소들을 반영해야 한다. 하우멧 에어로스페이스(Howmet Aerospace)의 CEO 존 플랜트(John Plant)는 "CEO로 취임해서 구조조정 능력이 필요한 첫 번째 단계는 잘 관리했지만, 3-4년 후 회사가 성장 모드로 전환되면서 적절한 스킬이 부족해 이사회가 해고할 수도 있다"며 "서로 다른 모드에서 운영할 수 있는 경험이나 다재다능함을 가진 사람은 매우 드물다"고 말했다. 최고경영진은 자신만의 관점과 경험을 바탕으로 타운홀 미팅이나 팀 미팅, 일대일 대화를 통해 과거의 변동성을 어떻게 관리했는지 공유해야 한다. 또한 이사회 구성원들과 함께 회복력과 적응력 교육에 참여하여 조직에 필요한 스킬, 사고방식, 조건들을 완전히 내재화해야 한다. 더불어 적응력 향상을 전반적인 비즈니스 전략과 동등한 수준으로 통합하고, 인재 영입과 유지 과정에도 이러한 요소들을 반영해야 한다. 중간 관리자와 일선 관리자들의 경우, 전략을 실행으로 옮기고 직접적인 결과를 감독하는 역할을 맡고 있기 때문에 적응력과 회복력이 특히 중요하다. 이들의 상황 인식과 자기 인식, 감정 조절 능력, 그리고 회복력과 적응력을 보여주는 능력은 개인, 팀, 조직에 직접적이고 기하급수적인 영향을 미칠 수 있다. 전기 시대의 교훈: AI 적응에 30년 걸릴 여유는 없다 전기가 증기 기관을 대체했을 때 기업들이 새로운 환경에 적응하는 데 30년이 걸렸던 것처럼, 오늘날 기업들도 AI를 비롯한 기술적, 경제적, 지정학적, 사회적 혁신에 적응하는 과정에서 비슷한 도전에 직면해 있다. 그러나 맥킨지는 현대 기업들이 그만큼 긴 적응 기간을 가질 수 없다고 경고한다. 파괴적 혁신을 경쟁 우위로 전환하기 위해서는 회복력과 적응력을 전사적 차원에서 신속히 개발하고, 이를 비즈니스 전략과 통합해야 한다고 강조한다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.20 16:17AI 에디터

딥러닝 대가가 '그록3' 평가했더니…제미나이·클로드 못푸는 문제도 해결

안드레이 카파시(Andrej Karpathy) 유레카랩스(Eureka Labs) AI 연구원이자 테슬라(Tesla) 전 AI 디렉터가 엑스AI의 최신 생성형 AI인 그록3의 초기 테스트 결과를 공개했다. 18일(현지 시간) 카파시 X계정에 공개된 내용에 따르면, 그록3은 기존 생성형 AI 모델이 해결하지 못한 까다로운 문제들을 깔끔하게 풀어냈다고 밝혔다. (☞ 카파시 X 바로가기) 그록3의 가장 큰 특징은 '싱킹' 모드다. 카파시는 GPT-2 논문의 학습 플롭스(FLOPs) 계산 문제를 예시로 들었다. 이는 텍스트 용량, 토큰 수, 매개변수를 복합적으로 고려해야 하는 고난도 문제다. 그록3은 싱킹 모드를 통해 이를 정확하게 풀어냈다. 보드게임 '카탄의 개척자' 웹페이지 설계 문제에서도 그록3은 뛰어난 성과를 보였다. 이는 오픈AI의 최상위 모델(o1-pro)만이 해결할 수 있는 수준의 과제다. 딥시크(DeepSeek-R1), 제미니 2.0(Gemini 2.0), 클로드 등 다른 주요 AI 모델들은 해결하지 못했다. 그록3은 '딥서치' 기능을 통해 인터넷 정보를 검색하고 분석할 수 있다. 애플 신제품 출시, 팔란티어(Palantir) 주가 급등 원인, 화이트 로터스(White Lotus) 시즌3 촬영지 등 최신 이슈에 대해 정확한 답변을 제공했다. 하지만 X 플랫폼을 출처로 인용하기 꺼려하거나, 존재하지 않는 URL을 인용하는 등의 한계도 드러냈다. 카파시는 "그록3은 오픈AI의 최고급 모델과 비슷한 수준의 성능을 보여준다"며 "1년 만에 이런 수준에 도달한 것은 전례 없는 성과"라고 평가했다. 다만 "더 많은 평가가 필요하다"고 덧붙였다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.20 16:08AI 에디터

[Q&AI] 김재규 재심 확정…윤 대통령 내란 혐의 판결엔 어떤 영향?

질문1 : 김재규, 사형집행 45년 만에 재심 결정 됐다는데, 자세한 경위를 설명해줘. ChatGPT 답변:1979년 10월 26일, 김재규 전 중앙정보부장은 박정희 전 대통령과 차지철 경호실장을 살해한 혐의로 기소되어 1980년 5월 24일 사형이 집행되었습니다. 그로부터 40년이 지난 2020년 5월, 유족들은 김 전 부장의 재판 과정에서의 절차적 문제와 그의 행위 동기에 대한 재평가를 요구하며 재심을 청구했습니다. 재심 청구의 주요 근거는 당시 재판 과정에서의 위법성과 김 전 부장의 행위 동기에 대한 왜곡입니다. 특히, 최근 공개된 재판 녹음 테이프를 통해 보안사령부가 재판부에 쪽지를 전달하며 재판에 개입한 사실과 공판조서가 허위로 작성된 정황이 드러났습니다. 2024년 4월 17일, 서울고등법원 형사7부는 재심 개시 여부를 판단하기 위한 첫 심문기일을 열었습니다. 이 자리에서 변호인단은 김 전 부장의 행위가 유신독재에 대한 항거였으며, 내란 목적이 아니었다고 주장했습니다. 또한, 재판 당시 변호인의 조력권이 침해되고 피고인의 방어권이 유린되었다는 점을 강조했습니다. 재판부는 재심 개시 여부를 결정하기 전에 추가 증인 신문을 위해 6월 12일에 심문기일을 한 차례 더 열기로 했습니다. 이날에는 당시 김 전 부장의 국선 변호인이었던 안동일 변호사를 증인으로 소환하여 당시 재판 과정의 문제점에 대한 증언을 들을 예정입니다. 이번 재심 절차는 김재규 전 부장의 행위에 대한 역사적 재평가와 함께, 당시 재판 과정의 공정성에 대한 논의가 이루어지는 중요한 계기가 될 것으로 보입니다. 질문2: 이번 재심 결정이 현재 윤석열 대통령의 재판과 관련이 있을까? 있다면 어떤 영향을 줄지 판단해줘. ChatGPT 답변:김재규 전 중앙정보부장의 재심 결정과 윤석열 대통령의 현재 재판은 모두 내란 관련 혐의를 다루고 있지만, 두 사건은 역사적 배경과 구체적 상황이 크게 다릅니다. 김 전 부장의 사건은 1979년 박정희 전 대통령 시해와 관련된 것으로, 당시 재판의 절차적 정당성에 대한 의문이 제기되어 재심이 결정되었습니다. 반면, 윤석열 대통령은 최근 내란 우두머리 혐의로 형사 재판과 탄핵 심판을 동시에 받고 있습니다. 현재까지 두 사건이 직접적으로 연관되어 있다는 정보는 없습니다. 다만, 김 전 부장의 재심을 통해 과거 내란 관련 사건의 재판 절차와 사법적 판단에 대한 재평가가 이루어질 경우, 이는 윤 대통령의 재판에도 간접적인 영향을 미칠 수 있습니다. 특히, 내란 혐의에 대한 법원의 해석이나 재판 절차의 공정성 등에 대한 논의가 활성화될 수 있습니다. 그러나 이러한 영향은 간접적이며, 두 사건의 구체적 내용과 진행 상황에 따라 달라질 수 있습니다. 현재로서는 김재규 전 부장의 재심 결정이 윤석열 대통령의 재판에 직접적인 영향을 미친다는 증거는 없습니다. 질문3 : 그럼, 김재규에게 내란목적살인 죄가 성립되지 않는다고 판결이 난다면, 윤 대통령의 내란 혐의는 어떻게 해석될 수 있을까? ChatGPT 답변:김재규 전 중앙정보부장의 재심에서 내란목적살인죄가 성립되지 않는다는 판결이 나온다면, 이는 윤석열 대통령의 내란 혐의 재판에 간접적인 영향을 미칠 수 있습니다. 두 사건 모두 내란죄와 관련되어 있으나, 각 사건의 구체적인 상황과 법적 쟁점이 다르기 때문에 직접적인 연관성을 단정하기는 어렵습니다. 김재규 사건의 재심 결과는 내란죄의 적용 범위와 해석에 대한 법원의 최신 판단을 제공할 수 있습니다. 특히, 내란죄의 구성요건인 '국헌 문란의 목적'과 '폭동'의 정의에 대한 법적 해석이 재평가될 수 있습니다. 이러한 판례의 변화는 윤석열 대통령의 내란 혐의 재판에서 법적 논거로 활용될 가능성이 있습니다. 그러나 각 사건의 특수성과 개별적인 증거 상황을 고려해야 하므로, 김재규 재심 판결이 윤 대통령의 재판에 미치는 영향은 제한적일 수 있습니다. 결국, 윤 대통령의 내란 혐의는 해당 사건의 구체적인 사실관계와 증거에 따라 독립적으로 판단될 것입니다. ■ 기사는 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.20 09:23AI 에디터

아마존, '알렉사 AI' 출시 3월 이후로 또 연기... 정확도 높이기 '진통'

워싱턴포스트(The Washington Post)가 14일(현지 시간) 보도한 내용에 따르면, 아마존(Amazon)이 AI 기반 음성비서 알렉사(Alexa)의 업그레이드 버전 출시를 다시 한번 연기했다. 이번 달 뉴욕에서 발표 행사를 개최할 예정이지만, 실제 출시는 3월 말 이후로 미뤄질 전망이다. 아마존 내부 관계자는 테스트 과정에서 새로운 알렉사가 부정확한 답변을 제공하는 문제가 발생했다고 밝혔다. 이로 인해 2023년 9월 첫 발표 이후 1년 반 만에 선보일 예정이던 '더 스마트하고 대화가 가능한' 버전의 출시가 3월 31일 이후로 연기됐다. 이번 알렉사 출시 지연은 AI 기술을 상용 제품에 적용하는 과정에서 겪는 기업들의 어려움을 보여준다. 애플(Apple)도 지난달 뉴스 알림을 요약하는 아이폰 AI 기능이 부정확한 정보를 전달하는 문제로 해당 기능을 일시 중단했다. 내부 문서에 따르면, 새로운 알렉사는 구독형 서비스로 제공될 예정이며, 성격 설정, 대화 기억, 음식 주문, 택시 호출 등의 기능이 포함된다. 현재 전 세계 5억대 이상의 알렉사 기기가 보급된 상황에서, 아마존은 이번 업그레이드를 통해 수익성 향상을 기대하고 있다. 한편 아마존은 올해 데이터센터 개발을 포함해 1000억 달러를 투자할 계획이다. 아마존은 알렉사 브랜드의 신뢰도를 지키기 위해 신중한 접근을 하고 있으며, 제품의 안정성이 확보될 때까지 출시를 미룰 것으로 알려졌다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 16:52AI 에디터

"정부 덜 멍청하게 만들자"…머스크 측근이 만든 AI 공무원

테크크런치(TechCrunch)가 18일(현지 시간) 보도한 내용에 따르면, 일론 머스크의 측근이 정부 낭비를 제거하고 효율성을 높이기 위한 AI 챗봇을 개발했다. 이 챗봇은 머스크의 인공지능 기업 xAI의 기술을 기반으로 한다. 스페이스엑스의 보안 엔지니어링 책임자이자 백악관에서도 근무 중인 크리스토퍼 스탠리(Christopher Stanley)가 개발한 이 챗봇은 그의 웹사이트 도지(DOGE) 서브도메인에서 공개적으로 접근이 가능하다. 이 AI 비서는 xAI의 그록2(Grok 2)를 기반으로 하며, "정부 인력이 낭비 요소를 식별하고 효율성을 개선하는 것을 돕는다"고 소개했다. 이 AI 비서는 정부 효율성 부서(DOGE)의 5가지 주요 원칙에 따라 학습된 대규모 언어 모델을 기반으로 한다. 주요 원칙에는 "정부 요구사항을 덜 멍청하게 만들기"와 "불필요한 부분이나 프로세스 제거"가 포함됐다. 그러나 다른 AI 모델들과 마찬가지로 환각 현상이라는 한계도 존재한다. 예를 들어, DOGE 직원들의 이름을 물었을 때 실제 존재하지 않는 이름과 직책을 만들어내는 현상이 발견됐다. 테크크런치는 이 AI 챗봇이 xAI를 활용한다는 점에서 머스크와의 이해 상충 문제가 발생할 수 있다고 지적했다. AI 언어 모델은 일반적으로 API 사용량에 따라 요금을 부과하기 때문에, 정부 직원들이 xAI 기반 챗봇을 사용하면 직접적으로 xAI의 수익 증가로 이어질 수 있기 때문이다. 한편 DOGE는 미국 정부 현대화의 일환으로 AI를 적극 도입하고 있으며, 와이어드(Wired)에 따르면, 미국 조달청을 위한 별도의 AI 챗봇도 개발 중인 것으로 알려졌다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 14:49AI 에디터

생성형 AI로 혐오 부추기는 극우세력…게시물 883개 분석해보니

영국의 전략대화연구소(ISD)가 발표한 보고서에 따르면, 독일의 극우 정당과 극우 세력들이 생성형 AI를 활용해 혐오 콘텐츠를 대량으로 제작하고 있는 것으로 나타났다. 이들은 기존의 극우 전략을 보완하는 수단으로 AI를 활용하며 EU의 디지털서비스법(DSA) 미준수를 악용하고 있다고 분석됐다. (☞ 보고서 바로가기) AfD, AI 생성 콘텐츠 월 50건 이상 제작...정당 최대 활용 사례 연구진은 2023년 4월부터 2024년 11월까지 페이스북, 인스타그램, X(구 트위터), 틱톡, 유튜브 등에서 92개 계정이 제작한 AI 생성 콘텐츠 883개를 분석했다. 특히 독일의 극우 정당인 '독일을 위한 대안'(AfD)이 생성형 AI를 적극적으로 활용했다. AfD는 2024년 10월 한 달간에만 50개 이상의 AI 생성 콘텐츠를 게시했으며, 당의 공식 계정과 지역 계정, 개별 정치인들의 계정을 통해 콘텐츠를 확산시켰다. 플랫폼별 분석 결과, X에서는 전체 게시물의 23%, 인스타그램은 19%, 페이스북은 17%가 AI 생성 콘텐츠였다. 특히 극우 미디어 에이전시 Tannwald Media의 설립자 알렉산더 클라인이 AfD와 긴밀히 협력하며 AI 콘텐츠를 제작하고 있었다. 독일인 추방하자...극우 AI 콘텐츠의 14가지 내러티브 분석 연구진은 14개의 주요 극우 내러티브를 분석했다. 이 중 가장 빈번한 것은 금발 碧眼의 독일인을 미화하는 내용(122건), 이민자 추방을 주장하는 '재이주'(Remigration) 관련 내용(101건), 이민자들의 범죄를 부각시키는 내용(98건), 사회복지제도 악용을 주장하는 내용(92건) 등이었다. 이들의 내러티브는 크게 공격형, 미화형, 기타로 분류됐다. 공격형에는 난민·이민자 공격, 정치인 비하, LGBTQ+ 반대, 기후활동가 비난이 포함됐고, 미화형에는 '강한 독일'의 이미지화, 전통적 가치관 강조 등이 있었다. 플랫폼별로는 페이스북에서 반이민 내러티브가 41%로 가장 높았고, 인스타그램이 38%, 유튜브가 27%, X가 23%, 틱톡이 13%를 기록했다. AI로 만든 극우 음악...102개 뮤직비디오 발견 연구진은 102개의 AI 생성 극우 음악 비디오를 발견했다. 구독자 9,000명의 한 유튜브 채널은 금발의 독일인들이 이민자들에게 위협받는 장면을 AI로 생성해 뮤직비디오로 제작했다. "칼을 들고 와서, 독일의 문 앞에 서 있네"와 같은 가사로 이민자들을 위협적으로 묘사했다. 또 다른 비디오는 무슬림 남성과의 교제를 경고하는 내용을 담고 있었다. 이러한 음악 콘텐츠들은 극우 단체의 정체성을 강화하고 추종자들의 소속감을 높이는 데 활용되고 있었다. AI가 만든 완벽한 아리아인 여성...가짜 인플루언서의 실체 연구진은 3명의 AI 생성 여성 '인플루언서'를 발견했다. 22세의 기독교 여성이라고 주장하는 '라리사 바그너', AfD와 크렘린을 지지하는 '소피아의 세계', 16세 소녀를 표방하는 '금발의 반란자 라라' 등이다. 특히 '라리사 바그너'는 극우 매체 Compact Magazine의 인턴이라고 주장하며 자체 칼럼까지 운영하고 있었다. 이들은 극우적 내러티브를 여성의 관점에서 전달하며, 개인적인 정보를 공유하고 친밀감을 조성하는 방식으로 팔로워들과 유사 사회적 관계를 형성했다. 이들 AI 인플루언서의 게시물은 실제 참여도는 낮았으나(평균 '좋아요' 10개 미만), 팔로워들은 "AI로 만들어졌든 상관없다. 메시지가 중요하다"는 반응을 보였다. 플랫폼의 무대응...AI 콘텐츠 신고 192건 중 0건 조치 조사 결과, 극우 세력의 AI 생성 콘텐츠는 EU의 디지털서비스법(DSA)이 요구하는 AI 콘텐츠 라벨링 의무를 제대로 지키지 않고 있었다. 신고된 192개의 콘텐츠 중 한 달이 지나도록 플랫폼에서 라벨링된 게시물이 전혀 없었다. 페이스북의 AI 라벨링 비율은 3%, 인스타그램은 2%, X는 1% 미만이었으며, 틱톡이 14%로 가장 높았다. 유튜브의 경우 라벨링된 콘텐츠가 전혀 없었다. 정책적 제언: 플랫폼 규제 강화부터 선거 감시까지 연구진은 플랫폼 사업자들에게 ▲AI 콘텐츠 일관된 라벨링 정책 수립 ▲선거 기간 전담팀 운영 ▲시민사회와의 협력 강화를 제안했다. 또한 정부와 규제기관에는 ▲연구자들과의 소통 채널 구축 ▲선거 관련 리스크 평가 강화 ▲범유럽 차원의 팩트체크 네트워크 구축을 권고했다. 2025년 2월 총선을 앞둔 독일에서 현재 제2당이 될 것으로 전망되는 AfD의 AI 활용은 특히 우려되는 상황이며, AI를 활용한 선거 캠페인이 민주적 과정을 왜곡할 수 있다는 우려가 제기되고 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 14:29AI 에디터

"챗GPT 써봤다" 90%…하지만 만족도는 '뚝'

알투씨컴퍼니(R2C Company)가 운영하는 데이터 수집 플랫폼 '픽플리(Pickply)'가 전국 남녀 1002명을 대상으로 실시한 설문조사에서 응답자의 89.7%가 AI 서비스 사용 경험이 있다고 답했다. 생성형 AI 서비스의 경우 84.6%가 사용해봤으며, 특히 챗GPT(ChatGPT)는 93.9%의 압도적인 사용률을 기록했다. 소비자 추천지수(NPS)에서 챗GPT(ChatGPT)는 -3점을 기록했다. 다른 생성형 AI 서비스들의 성적은 더 저조했다. 제미나이(Gemini)는 -26점, 뤼튼(Claude)은 -38점, 하이퍼클로바X(HyperCLOVA X)는 -40점, 딥시크(DeepSeek)는 -44점을 기록했다. NPS는 최대 100점에서 최저 -100점까지 측정되며, 마이너스 점수는 서비스 개선이 필요함을 의미한다. 기업이 도입했을 때 선호하는 AI 브랜드 조사에서는 챗GPT가 45.6%로 가장 높은 선호도를 보였다. 이어서 제미나이 35.8%, 코파일럿 28.0%, 하이퍼클로바X 27.4% 순이었다. 뤼튼과 클로드는 22% 내외의 선호도를 보였으며, 딥시크는 17.7%로 가장 낮은 선호도를 기록했다. 한편, 소비자들은 AI 서비스 도입 시 가장 중요한 요소로 '서비스의 정확성 및 신뢰성'(43.7%)과 '개인정보 보호 및 보안 정책'(30.9%)을 꼽았다. 알투씨컴퍼니 관계자는 "AI 시대에서 기업이 소비자 신뢰를 얻기 위해선 서비스의 정확성과 신뢰성, 개인정보 보호, AI 활용의 투명성 제고가 핵심"이라며 "기업들은 AI를 통한 혁신과 함께 윤리적 운영, 소비자와의 적극적인 소통 방안도 마련해야 할 것"이라고 말했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 14:23AI 에디터

AI로 AI 공격 방어…기업 보안시스템 확 바꾼다

연간 보안사고 50% 감소…생성형 AI 도입으로 IAM 체계 강화 딜로이트(Deloitte)가 발간한 '생성형 AI 관련 신원 및 접근 관리 위험 극복하기' 보고서에 따르면, 생성형 AI 기술이 기업의 신원 및 접근 관리(IAM) 시스템에 혁신적 변화를 가져오고 있다. GPT-3와 Jasper 같은 AI 모델은 합성 데이터 생성과 잠재적 보안 위반 시뮬레이션을 통해 보안 프로토콜을 강화할 수 있다. 특히 금융 서비스 산업에서는 실시간 사기 탐지율이 기존 대비 40% 향상되었으며, 정부 기관의 중요 인프라 보안 사고는 평균 50% 감소한 것으로 나타났다. (☞ 보고서 바로가기) 딥페이크부터 피싱까지...생성형 AI가 만드는 새로운 위협 지도 보안 위협은 세 가지 주요 영역에서 발생하고 있다. 먼저 데이터 기반 위험으로, AI가 생성한 가짜 사용자 프로필이나 접근 로그로 인증 시스템을 우회하는 사례가 증가하고 있다. 생체 정보나 행동 패턴 등 민감한 사용자 데이터의 유출도 큰 위험이다. 특히 딥페이크 기술을 이용한 생체 인증 우회 시도는 전년 대비 200% 증가했다. AI 기반 피싱 공격의 성공률은 기존 수동 피싱 대비 5배 높은 것으로 나타났다. 24시간 실시간 모니터링 AI 기반 선제적 보안 체계 구축 보고서는 AI 기반의 다층적 방어 전략을 제시한다. 얼굴 인식, 음성 인식, 행동 패턴 분석 등 생체인식 기술을 통해 인증 정확도를 95% 이상으로 높일 수 있다. 키스트로크 패턴, 마우스 움직임, 위치 데이터 등의 실시간 분석으로 비정상 행위를 평균 2분 이내에 탐지할 수 있다. 위험도에 따라 추가 인증을 요구하는 적응형 인증 시스템은 오탐률을 60% 감소시켰다. AI 기반 보안 시뮬레이션으로 취약점 사전 차단 생성형 AI는 매월 평균 1000개 이상의 가상 공격 시나리오를 생성하여 보안 체계를 검증한다. 실제 사용자 데이터를 기반으로 한 시뮬레이션은 취약점 발견율을 75% 향상시켰다. 특히 다양한 접근 레벨과 권한을 가진 가상 사용자 프로필을 통한 테스트는 권한 상승 공격의 90%를 사전에 차단할 수 있었다. AI 위협 탐지 및 대응(ITDR) 체계의 진화 새롭게 도입된 AI 기반 ITDR 시스템은 피싱 시뮬레이션의 정교도를 높여 직원 교육 효과를 3배 향상시켰다. 사회공학적 공격 시뮬레이션은 실제 공격과 구분하기 어려울 정도로 정교해져, 보안팀 훈련의 현실성을 크게 높였다. 다요소 인증 우회 시도에 대한 시뮬레이션은 기존 취약점의 85%를 발견하는 성과를 보였다. AI로 AI를 강화하는 선순환 보안 체계 구축 생성형 AI는 자체 보안 시스템을 강화하는 데도 핵심적인 역할을 한다. AI 기반 이상 탐지 시스템 학습을 위해 대규모의 비정상 사용자 행동과 인증 시도 데이터셋을 생성할 수 있다. 이를 통해 실시간 보안 위협을 더욱 정확하게 식별할 수 있게 되었다. 특히 기존 데이터셋의 격차를 보완하는 합성 데이터 생성으로 다양한 신원과 잠재적 사기 시나리오에 대한 대표성을 확보했다. 조명 조건, 포즈, 얼굴 표정, 배경 시나리오 등의 변화를 포함한 추가 샘플을 생성하여 모델의 일반화 능력을 향상시켰다. 또한 소수 클래스(예: 희귀한 사기 사례)의 추가 예시를 생성하여 클래스 불균형 문제를 해결하고 모델 성능을 개선했다. 개발자들은 합성 데이터의 특성을 세밀하게 제어하여 실제 패턴과 일치하도록 하고 특정 검증 과제를 해결할 수 있게 되었다. AI는 기존 데이터셋의 불균형이나 불공정한 표현을 식별하고 수정하여 모델의 공정성과 포용성을 높이는 데도 활용된다. 이를 통해 대표성이 부족한 그룹에 대한 차별을 줄이고 더 공정한 모델을 구축할 수 있게 되었다. 윤리적 AI 보안을 위한 가이드라인 제시 보고서는 AI 보안 시스템 도입 시 준수해야 할 윤리적 가이드라인도 제시했다. 모든 AI 의사결정의 투명성을 보장하고, 중요 결정에는 반드시 인간 검토 과정을 포함해야 한다. 특히 계정 해지나 긴급 접근 권한 부여와 같은 결정에서 AI는 보조 수단으로만 활용되어야 한다. 또한 규제 준수를 위해 AI 의사결정 과정의 상세 로그를 최소 5년간 보관할 것을 권고했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 10:00AI 에디터

'전문지식' 무장한 딥시크 R1, 일반상식 질문엔 "포기할래"

일반인도 검증 가능한 벤치마크의 필요성 AI 모델의 능력을 평가하는 벤치마크가 점점 더 전문화되면서 새로운 문제가 대두되고 있다. 웰슬리 칼리지와 텍사스 오스틴 대학 연구진들에 따르면, 현재의 벤치마크들은 대부분 PhD를 보유했거나 취득 중인 전문가들이 설계한 것으로, 일반인들은 문제 자체를 이해하기 어려울 뿐만 아니라 답이 맞는지 검증하는 것도 쉽지 않다. 이는 AI 모델이 왜 특정 문제를 어려워하는지, 답이 정확한지, 효율적으로 추론하고 있는지를 확인하기 어렵게 만든다. 연구진은 이러한 문제가 앞으로 추론 모델이 더욱 확산됨에 따라 더욱 중요해질 것이라고 지적한다. (☞ 논문 바로가기) 실제로 높은 학위 소지가 반드시 뛰어난 추론 능력을 의미하지는 않는다. 따라서 연구진은 일반적인 지식만으로도 이해할 수 있는 문제로 구성된 벤치마크가 필요하다고 주장한다. 이러한 문제는 해결하기는 어렵더라도 답을 검증하는 것은 AI와 인간 모두에게 쉬워야 한다는 것이 연구진의 설명이다. 박사급 지식은 필요 없다... NPR 퍼즐로 AI 능력 측정 연구진이 발표한 연구 논문에 따르면, 기존 AI 모델의 평가 방식을 완전히 새롭게 접근한 벤치마크가 등장했다. 지금까지의 AI 벤치마크는 대학 수준의 수학 경진대회 문제나 고난도 프로그래밍 문제, 학문적 전문 지식이 필요한 문제들로 구성되어 왔다. 그러나 NPR 선데이 퍼즐 챌린지를 기반으로 한 이 새로운 벤치마크는 전문적인 지식 대신 일반적인 상식을 활용해 AI의 성능을 측정한다. 1987년부터 방송된 이 라디오 퍼즐 프로그램은 매주 수백에서 수천 명의 청취자들이 정답을 제출할 만큼 대중적이며, 일부 퍼즐의 경우 사전이나 지도를 참고해 풀 수 있도록 명시적으로 안내하기도 한다. 오픈AI o1, 59% 정답률로 경쟁 모델 압도 이번 연구의 가장 주목할 만한 결과는 오픈AI의 o1 모델이 59%의 정답률을 기록하며 다른 모델들을 크게 앞섰다는 점이다. o3-미니는 높은 추론 노력으로 47%, 기본 설정으로는 36%를 기록했으며, 딥시크 R1은 35%의 정답률을 보였다. 추론 기능이 없는 클로드 소넷 3.5와 GPT-4o는 각각 13%와 6%로 크게 뒤처졌다. 특히 주목할 점은, GPQA(구글 검증 Q&A)와 같은 PhD 수준의 과학 문제에서는 R1, o1, o3-미니 모델들이 비슷한 성능을 보였던 것과 달리, 이번 일반 상식 벤치마크에서는 모델 간 성능 차이가 뚜렷하게 나타났다는 것이다. 595문제 중 142건 포기 선언한 딥시크R1... 실패 유형 2가지 연구진은 AI 모델들의 새로운 실패 패턴을 발견했다. 딥시크 R1의 경우 595개의 도전 과제 중 142개에서 "포기할래"라고 선언했다. 실패 유형은 크게 두 가지로 나타났다. 첫째는 '공중에서 답 끌어내기'로, 추론 과정에서 전혀 언급하지 않은 답을 최종 답안으로 제시하는 경우다. 예를 들어 "alpha에서 중간 글자를 알파벳 순으로 이전 글자로 바꾸면 aloha가 되는" 문제에서 R1은 전혀 다른 "penne"와 "penné"를 답으로 제시했다. 둘째는 '의도적 제약조건 위반'으로, "queueing"이라는 답이 부적절하다는 것을 인정하면서도 어쩔 수 없이 답으로 제시하는 경우였다. 퍼즐의 합리성 검증 연구에 사용된 퍼즐들의 난이도가 적절했는지에 대한 의문이 제기될 수 있다. 그러나 연구진이 제시한 데이터에 따르면, "alpha에서 aloha로 바꾸는" 퍼즐의 경우 370명이 정답을 제출했고, "daiquiri" 문제는 500명이 맞췄다. NPR 선데이 퍼즐 챌린지의 청취자 수가 약 400만 명으로 추정되는 것을 고려하면, 이 문제들이 도전적이면서도 충분히 풀 수 있는 수준임을 보여준다. 또한 정답자들이 대부분 동일한 답에 도달했고 오답 제출이 드물었다는 점에서, 퍼즐의 답이 명확하고 검증 가능하다는 것을 입증한다. 이는 AI 모델의 오답이 문제의 모호성이나 난이도가 아닌 모델 자체의 한계에서 비롯되었음을 시사한다. R1의 영원한 생각 현상과 32,768 토큰의 한계 연구진은 R1 모델이 특정 문제에서 사고를 멈추지 못하는 현상을 발견했다. 32,768 토큰이라는 출력 제한에도 불구하고, 50개의 도전 과제에서 R1은 추론을 완료하지 못했다. 특히 "서로 다른 13개 글자로 구성된 미국 도시 이름 찾기"와 "7글자 음식 이름에서 첫 글자를 다섯 번째 위치로 옮기면 동의어가 되는 단어 찾기(brisket → risk, bet)" 문제에서 이러한 현상이 두드러졌다. 최대 컨텍스트 창(128K)으로 실험을 진행했을 때도 각 문제에서 10번 중 2번은 추론을 완료하지 못했다. 3,000 토큰 vs 10,000 토큰: AI 추론의 최적점 발견 연구진의 추론 과정 분석 결과, 대부분의 도전 과제는 20,000토큰 미만의 추론 출력을 생성했다. 제미니 씽킹은 약 10,000토큰에서 정확도가 정체된 반면, R1은 3,000토큰 정도에서 제미니 씽킹의 성능을 추월하기 시작했다. 모델의 불확실성도 관찰되었는데, R1은 29건, 제미니 씽킹은 18건, o1-미니는 3건의 사례에서 답을 번복했다. 한 가지 흥미로운 사례로, 7개 항목을 가진 카테고리를 찾는 문제에서 R1은 정답인 '대륙'을 초반에 발견했음에도 불구하고 다른 답을 계속 탐색하다가 결국 처음 찾은 답으로 회귀하는 모습을 보였다. GPQA 9.1%에서 GSM8K 97%까지: AI 벤치마크의 현주소 최근 AI 모델들의 성능이 급속도로 발전하면서 기존 벤치마크들이 빠르게 포화상태에 도달하고 있다. GPQA의 경우 물리학, 화학, 생물학 분야의 PhD 과정 전문가들이 만든 문제들로 구성되었지만, 최신 추론 모델들은 불과 몇 달 만에 이를 정복했다. HLE(Humanity's Last Exam)는 더 광범위하고 어려운 문제들로 구성되어 있으나, 여기서도 오픈AI o1이 9.1%의 정확도를 기록했다. 수학 분야에서는 더욱 두드러진 성과를 보여, GSM8K 같은 벤치마크에서 97% 이상의 정확도를 달성했다. 그러나 이번 NPR 퍼즐 챌린지는 AI 모델들이 여전히 일반 상식 영역에서는 한계를 보인다는 것을 증명했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 08:36AI 에디터

AI 자율성 높아질수록 인간 역할 줄어든다…섬뜩한 경고

자율성 확대되는 AI 에이전트...2024년 말 급격히 증가 허깅페이스(Hugging Face)의 연구진들이 발표한 논문에 따르면, 대규모 언어모델(LLM)의 벤치마크 정확도가 급격히 향상되면서 2024년 말부터 자율적이고 목표 지향적인 시스템인 'AI 에이전트'가 차세대 AI 기술로 부상하고 있다. 현재 많은 AI 에이전트들은 LLM을 더 큰 다기능 시스템에 통합하여 구축되고 있다. 실제 사례로는 회의 조직, 개인화된 소셜 미디어 게시물 생성, 자율 주행, 의료 서비스, 제조업 등 다양한 분야에서 활용되고 있다. (☞ 논문 바로가기) AI 에이전트의 정의와 특성...비결정적 환경에서 맥락 특화 계획 수립 연구진은 AI 에이전트를 "비결정적 환경에서 맥락 특화된 계획을 수립할 수 있는 컴퓨터 소프트웨어 시스템"으로 정의했다. 최근 도입된 AI 에이전트들의 공통점은 일정 수준의 자율성을 가진다는 것이다. 목표가 주어지면 이를 하위 작업으로 분해하고 각각을 직접적인 인간의 개입 없이 실행할 수 있다. 예를 들어, 이상적인 AI 에이전트는 "AI 에이전트에 관한 훌륭한 ICML 논문 작성을 도와줘"라는 상위 수준의 요청을 받았을 때, 이를 자동으로 하위 작업으로 나눌 수 있다. 여기에는 인용도가 높은 ICML 논문 검색, 인터넷에서 AI 에이전트 관련 정보 수집, 그리고 수집된 내용을 바탕으로 한 개요 작성 등이 포함된다. 이러한 AI 에이전트들은 대부분 ML 모델, 특히 LLM을 기반으로 구축되어 있어 기존의 컴퓨터 소프트웨어 실행 방식과는 다른 새로운 접근 방식을 보여준다. 5단계로 구분되는 AI 에이전트의 자율성...완전 자율 단계 위험 연구진은 AI 에이전트의 자율성 수준을 세분화하여 분석했다. 가장 기본적인 단계인 단순 프로세서는 LLM 출력을 단순히 출력하는 수준에 머무른다. 그 다음 단계인 라우터는 if-then 구조를 통해 기본적인 프로그램의 흐름을 결정할 수 있다. 세 번째 단계인 도구 호출은 함수와 인자를 선택하여 실행할 수 있는 능력을 가지고 있으며, 네 번째 단계인 다단계 에이전트는 while 루프를 통해 다음 단계를 결정하고 실행할 수 있다. 마지막 단계인 완전 자율 에이전트는 사용자의 요청에 따라 독자적으로 코드를 생성하고 실행할 수 있다. 각 단계가 올라갈수록 인간의 통제력은 줄어들고 시스템의 자율성은 증가하게 된다. AI 에이전트의 핵심 가치와 위험성...안전성·정확성·신뢰성 우려 연구진이 분석한 AI 에이전트의 가치와 위험성은 다양한 측면에서 나타난다. 안전성 측면에서는 예측 불가능한 행동으로 인한 인명 피해의 위험이 존재한다. 정확성 측면에서는 LLM 기반 모델이 가진 부정확성이 자율성이 증가할수록 더욱 증폭되는 문제가 있다. 일관성 측면에서는 비결정적 특성으로 인해 결과를 예측하기 어렵다는 한계가 있으며, 효율성 측면에서는 복잡한 오류를 수정하는 데 많은 시간이 소요된다는 문제가 있다. 형평성 측면에서는 데이터의 편향성으로 인한 차별이 심화될 수 있으며, 유연성 증가는 다양한 시스템 연동으로 인한 보안 위험을 수반한다. 또한 인간친화성 측면에서는 과도한 의존과 감정적 얽힘의 위험이, 개인정보보호 측면에서는 민감 정보 노출의 위험이 존재한다. 시스템의 관련성이 높아질수록 개인화로 인한 편향이 강화될 수 있으며, 보안 측면에서는 시스템 접근 취약점이 확대된다. 지속가능성 측면에서는 높은 탄소 배출과 물 사용량이 문제가 되며, 신뢰도와 진실성 측면에서는 검증이 불가능하고 허위정보가 생성되고 확산될 위험이 있다. 자율주행차부터 자율무기까지...현재 개발되는 AI 에이전트의 현주소 현재 AI 에이전트는 다양한 분야에서 급속도로 발전하고 있다. 자율주행차의 경우 센서를 통해 환경을 인식하고 인간의 개입 없이 주행하는 수준에 도달했으며, 이는 소비자용 차량부터 완전 자율주행 테스트 환경의 차량까지 다양한 자율성 수준으로 개발되고 있다. 산업용 로봇의 경우 제조업에서 시작하여 의료 분야까지 그 영역을 확장하고 있으며, 최근에는 최신 LLM이 로봇 시스템에 통합되면서 고전적인 로봇공학이 에이전트 AI 영역으로 빠르게 편입되고 있다. 특히 우려되는 것은 자율무기 시스템의 개발이다. 이는 인간의 의미 있는 통제 없이 목표물을 식별하고 공격할 수 있는 시스템으로, 윤리적 책임성과 도덕적 책임, 안전성 측면에서 디지털 에이전트보다 더 심각한 문제를 제기한다. 인간의 목표와 맞지 않는 경우 발생할 수 있는 피해는 완전 자율성이 부여될 때 더욱 심각해질 수 있다. AI 에이전트에 대한 대립되는 관점들...완전 자율 AI의 필요성 주장도 AI 에이전트 개발을 둘러싼 학계의 의견은 크게 둘로 나뉜다. 일부 연구자들은 완전 자율 AI나 '완전한 에이전트'가 인간 지능을 더 잘 이해하는 데 도움이 될 수 있다고 주장한다. 또한 강한 AI 시스템이 인간의 오류와 비합리성을 상쇄하는 데 도움이 될 수 있다는 의견도 있다. 특히 인공일반지능(AGI) 개발을 목표로 하는 연구자들과 기업들은 AGI가 실현된다면 필연적으로 완전 자율성을 가지게 될 것이라고 전망한다. AGI 지지자들은 이를 통해 기후변화나 기아와 같은 전 지구적 문제를 해결하고 상당한 경제적 이익을 창출할 수 있다고 주장한다. 그러나 연구진은 AGI가 개발된다 하더라도 인간이 항상 일정 수준의 통제권을 유지해야 하며, 이번 연구에서 제시한 에이전트 수준 구분이 향후 AGI 개발 목표 설정에도 도움이 될 것이라고 제안했다. 반자율 시스템 도입과 인간 통제 강화로 위험 최소화해야 연구진은 완전 자율 시스템 개발의 대안으로 '반자율(semi-autonomous)' 시스템의 도입을 제안했다. 이를 위해서는 우선 AI 에이전트의 자율성 수준을 명확히 구분하고 이를 개발 과정에 반영해야 한다. 또한 기술적 수준과 정책적 수준 모두에서 강력한 인간 감독 프레임워크를 개발해야 하며, 이는 유익한 반자율 기능을 보존하면서도 의미 있는 인간의 감독을 가능하게 하는 것을 목표로 한다. 마지막으로 AI 에이전트가 의도된 작동 범위 내에서만 움직이도록 하는 새로운 안전성 검증 방법의 도입이 필수적이다. 연구진은 1980년 북미 지역에서 발생한 사례를 경고의 시그널로 제시했다. 당시 컴퓨터 시스템이 2,000여 개의 소련 미사일이 북미를 향해 날아오고 있다고 잘못 판단했고, 이로 인해 폭격기 승무원들이 비상 대기 상태에 들어가고 지휘소가 전쟁 준비에 돌입하는 상황이 발생했다. 다행히 당시에는 서로 다른 경보 시스템 간의 인간 교차 검증이 이루어져 오경보임이 밝혀졌다. 이처럼 자동화 시스템의 오류는 치명적인 결과를 초래할 수 있으며, AI 시스템에서도 인간의 판단과 맥락 이해가 필수적이라고 연구진은 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 21:54AI 에디터

AI 제안을 무조건 따르나요…EU가 경고하는 '자동화 편향성'

15%에 달하는 AI 시스템이 고위험...EU, 자동화 편향성 첫 법제화 옥스포드 인터넷 연구소의 요한 로욱스(Johann Laux)와 하겐대학교의 한나 루셰마이어(Hannah Ruschemeier) 교수가 발표한 연구에 따르면, 유럽연합(EU)의 AI법(AI Act)은 인공지능 시스템을 감독하는 인간의 편향성 문제를 처음으로 법제화했다. EU 집행위원회는 EU 시장의 AI 시스템 중 5-15%가 고위험 시스템으로 분류될 것으로 예상했다. 특히 AI법 제14조는 고위험 AI 시스템에 대한 인간의 감독을 의무화하면서, '자동화 편향성(Automation Bias)'이라는 심리적 현상을 명시적으로 언급했다. (☞ 논문 바로가기) 유럽의회 경고...2021년 AI법 초안에 자동화 편향성 포함 AI법의 입법 과정을 보면, 2021년 4월 21일 위원회 초안에서 처음으로 자동화 편향성이 언급됐다. 유럽의회는 "AI 역량이 보안 위험을 초래할 수 있으며, 인간이 자신의 판단보다 AI를 더 신뢰하게 될 수 있다"고 경고했다. 또한 "실험 결과가 보여주듯이, 이는 AI의 자율성 수준을 원래 설계된 지원 역할 이상으로 높일 수 있으며, 인간이 AI 시스템에 대한 경험과 지식을 쌓을 기회를 놓치게 된다"고 지적했다. 의료에서 국가안보까지...자동화 편향성이 영향 미치는 10개 분야 자동화 편향성은 다양한 분야에서 확인됐다. 연구진이 밝힌 주요 영향 분야는 의료, 군사, 인사관리, 국가안보, 공공행정, 교육, 공공계약 입찰, 망명 심사, 형사 소송, 민주적 절차 등이다. 발생 원인으로는 사용자의 피로도, 성실성, 결과에 대한 책임, 교육 수준, 정보 제시 방식, 시스템 인터페이스 설계, 환경적 제약, 업무 부하, 과제 복잡성, 사회적 환경 등이 복합적으로 작용한다. 채용 AI 사례로 본 편향성 판단의 어려움...여성 선발률 75%가 불공정한가? 연구진은 채용 AI 시스템 사례를 통해 편향성 판단의 복잡성을 설명했다. AI 시스템 공급자는 불공정 여부를 판단하기 위한 기준으로 '소수 그룹의 선발률이 최고 선발률의 80% 이상이어야 한다'는 자체 기준을 제시했다. 전체 지원자가 남녀 각각 10명일 때, 여성 3명(30%)과 남성 4명(40%)이 면접 대상자로 선발된 경우를 보자. 여성 선발률이 남성 선발률의 75%로, 공급자가 제시한 80% 기준에 미달해 수치상으로는 불공정하다. 그러나 연구진은 이런 통계적 증거만으로는 실제 불공정 여부를 판단하기 어렵다고 지적했다. AI법 제14조에 따르면 인간 감독자는 단순히 AI 공급자가 제시한 통계적 기준이 아닌, EU 차별금지법의 요구사항을 고려해야 한다. EU 차별금지법은 지금까지 통계적 증거보다는 맥락과 사법적 직관에 더 의존해왔다. 즉, 공급자의 통계적 기준을 충족하지 못했더라도, 구체적인 상황과 맥락을 고려했을 때는 해당 채용 과정이 공정하다고 판단될 수 있다는 것이다. 이는 편향되지 않은 '참된 결과'를 정의하는 것이 얼마나 어려운지를 보여주는 사례다. AI법 제6조의 허점...인간 검토만 있으면 고위험 제외 AI법 제6조(3)은 중요한 보호의 공백을 만들 수 있다고 연구진은 지적했다. 이 조항에 따르면 "적절한 인간 검토 없이 이전 평가를 대체하거나 영향을 미치지 않는" AI 시스템은 고위험으로 분류되지 않는다. 하지만 시스템이 단순히 '지원' 역할만 한다고 해도 자동화 편향성으로 인해 인간이 AI의 제안에 과도하게 의존할 수 있다. 더욱이 AI의 영향을 받지 않았다는 것을 증명하기도 어렵다. 이는 사전 검토 없이 공급자의 자체 평가에만 의존하기 때문에 상당한 보호의 공백이 생길 수 있다는 것이 연구진의 분석이다. AI 불신도 문제...과잉수정이 가져올 수 있는 부작용 자동화 편향성을 막으려는 조치들이 오히려 AI 시스템에 대한 과도한 불신을 초래할 수 있다고 연구진은 경고했다. 이러한 과잉수정은 AI 도입으로 얻을 수 있는 이점을 저해할 수 있다. AI법 제14조는 이런 맥락에서 해석될 수 있는데, AI 시스템의 제안을 잘못 거부하는 것이 잘못 수용하는 것보다 덜 문제가 된다는 규범적 선택을 반영한다는 것이다. 이는 인간의 자율성을 우선시하되, 그 대가로 발생할 수 있는 인간의 실수를 감수하겠다는 의미로 해석된다. EU GDPR과의 관계...AI 감독자 인식 개선만으로는 부족 AI법은 GDPR(일반 데이터 보호 규정)과 함께 적용된다. 최근 유럽사법재판소의 SCHUFA 판결에 따르면, AI법 제14조와 제26조의 요구사항을 충족하더라도 GDPR 제22조의 자동화된 결정으로 간주될 수 있다. 즉, 형식적으로 책임자에게 결정 권한이 있더라도, 최종 결정이 자동화된 이전 결정에 크게 의존한다면 자동화된 결정으로 볼 수 있다는 것이다. 골드 스탠다드는 실험적 검증...비용 문제로 전면 도입은 난관 연구진은 자동화 편향성 방지를 위한 최선의 방안으로 실험적 검증을 제시했다. 특정 감독 체계에서 자동화 편향성이 발생할 가능성을 경험적으로 테스트하는 것이다. 대안으로는 현재의 과학적 연구 결과를 반영한 체크리스트 도입을 제안했다. 다만 실험적 검증은 모든 고위험 AI 시스템에 적용하기에는 비용이 많이 든다는 한계가 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 20:17AI 에디터

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

'파격' 인사 기업도 놀랐다…배경훈-하정우 콤비, 韓 AI 부흥 이끌까

삼성전자 美 테일러 팹 내년 초 양산라인 투자

앤트로픽 "韓, AI 혁신 거점…파트너십·투자 지속할 것"

'40대 AI 전문가' 배경훈, 과기정통부 이끈다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현