• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
국감2025
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 에디터'통합검색 결과 입니다. (569건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

게임 개발자의 상상력을 현실로... MS 연구진, 게임 제작용 AI 모델 개발

마이크로소프트 연구진이 네이처(Nature)에 발표한 연구에 따르면, 게임 개발 과정에서 창의적 아이디어 구현을 지원하는 새로운 생성형 AI 모델 'WHAM(World and Human Action Model)'을 개발했다. 이는 생성형 AI가 텍스트, 이미지, 오디오, 음악, 비디오 등 다양한 분야에서 빠르게 발전하고 있는 가운데 게임 개발 분야에 특화된 혁신적인 모델로 주목받고 있다. (☞ 보고서 바로가기) 2년에서 5년 걸리는 게임 개발...AI로 제작 기간 단축 기대 게임 개발은 매우 시간이 많이 소요되는 과정이다. 인디 게임의 경우 최소 2년 이상, AAA급 게임의 경우 5년 이상이 소요되며, 이 중 절반 가량이 컨셉과 사전 제작 단계에서 소요된다. 한 인디 게임 스튜디오의 CEO는 "새로운 캐릭터를 만들고 레벨을 디자인하는 과정에서 캐릭터 아티스트, 애니메이터, 프로그래머, 게임 디자이너 등 여러 전문가들의 반복적인 작업과 조율이 필요하다"고 설명했다. 글로벌 8개 스튜디오 27명의 개발자가 말하는 이상적인 AI 연구진은 마이크로소프트 파운더스 허브(Microsoft Founders Hub)를 통해 선정된 8개 게임 스튜디오의 27명 개발자들과 심층 인터뷰를 진행했다. 참여 스튜디오는 4개의 인디 스튜디오, 1개의 AAA 스튜디오, 3개의 게임 접근성 개발팀으로 구성되었으며, 미국과 영국을 중심으로 벨기에, 인도, 카메룬 등 다양한 국가의 개발자들이 참여했다. 특히 글로벌 사우스와 장애인 개발자들의 참여를 적극적으로 독려했다. 7년 분량의 게임플레이 데이터로 학습된 16억 파라미터 규모 모델 WHAM은 16억 개의 매개변수를 가진 트랜스포머 기반 모델이다. 2020년 9월부터 2022년 10월까지 닌자 시어리의 게임 '블리딩 엣지'에서 수집된 약 50만 건의 게임플레이 데이터(27.89 TiB)를 학습했다. 이는 7년 분량의 연속 플레이에 해당하는 방대한 양으로, 약 14억 개의 프레임 데이터를 포함한다. 데이터는 학습/검증/테스트 세트로 80:10:10 비율로 나누어졌다. AI 기반 게임 개발의 새로운 방향성 제시 WHAM은 기존의 AI 모델 개발 방향과는 다른 혁신적인 접근법을 제시했다. 그동안 머신러닝 연구 커뮤니티는 주로 작업 완료의 효율성과 효과성 측정에 중점을 두었다. 그러나 WHAM은 창의적인 작업을 지원하는 AI 개발에 있어 인간 창작자의 요구사항을 우선적으로 고려했다. 특히 수작업으로 도메인별 모델을 만들거나 학습해야 했던 기존 방식과 달리, WHAM은 관련 데이터만 있으면 복잡한 3D 게임의 구조를 자동으로 학습할 수 있다. 이는 음악이나 비디오 등 다른 창작 분야에서도 활용될 수 있는 가능성을 보여준다. 85% 이상의 정확도로 사용자 수정사항 반영하는 세 가지 핵심 기능 WHAM의 성능은 일관성, 다양성, 지속성이라는 세 가지 핵심 지표로 검증되었다. 일관성 측면에서는 FVD를 통해 생성된 게임플레이가 실제 인간 플레이어의 것과 매우 유사함을 입증했다. 다양성 측면에서는 바서스타인 거리를 사용해 모델이 생성한 행동이 실제 플레이어의 행동 분포를 잘 반영함을 확인했다. 지속성 검증에서는 파워셀, 캐릭터, 수직 점프패드에 대해 5개의 수정된 이미지 입력 시 85% 이상의 높은 지속성을 보여주었다. 기술적 한계를 극복한 혁신적 모델 구조 WHAM의 모델 구조는 기존 월드 모델링 접근법을 뛰어넘는 혁신적인 설계를 보여준다. 트랜스포머 아키텍처를 기반으로 하는 WHAM은 게임 이미지를 개별 토큰으로, 엑스박스 컨트롤러 동작을 11개의 버킷으로 이산화하여 처리한다. 각 이미지는 300×180 해상도에서 540개의 토큰으로 변환되며, VQGAN 이미지 인코더를 활용한다. 특히 1.6B WHAM은 기존의 4,096개 어휘 크기를 16,384개로 확장했으며, 이를 통해 더 높은 해상도와 더 정교한 게임 메커닉스 구현이 가능해졌다. "1초 만에 10가지 게임플레이 시나리오 생성" WHAM 데모 공개 WHAM 데모는 사용자가 시작 프레임을 선택하면 1초 안에 최대 10개의 다양한 게임플레이 시나리오를 생성한다. 사용자는 생성된 시나리오 중 원하는 분기점이나 프레임을 선택하여 새로운 시나리오를 재생성할 수 있으며, 이전 선택으로 돌아가 수정할 수도 있다. 특히 실시간으로 캐릭터나 오브젝트를 추가하거나 수정할 수 있어 개발자의 창의적인 실험을 지원한다. 30억 게이머 시대, AI로 여는 게임 개발의 새 지평 전 세계 30억 명 이상의 게이머 시대를 맞아, 게임 스튜디오들은 증가하는 새로운 콘텐츠 수요를 충족시키기 위해 AI 도입을 적극 검토하고 있다. WHAM은 기존 게임의 구조를 학습하여 새로운 게임플레이 시퀀스를 생성할 수 있으며, 이는 향후 음악이나 비디오 등 다른 창작 분야로도 확장될 수 있는 가능성을 보여준다. 마이크로소프트는 이러한 연구 결과를 바탕으로 WHAM의 가중치, 평가 데이터셋, WHAM 데모를 허깅페이스를 통해 공개하여 추가 연구를 지원할 예정이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 14:30AI 에디터

2030세대가 가장 선호하는 구독 서비스는 '생성형AI'

최근 소비자 구독서비스 이용실태 MZ세대의 선택, 생성형 AI 구독서비스 시장 급성장 최근 구독경제가 소비시장의 새로운 패러다임으로 자리잡은 가운데, 20-30대 젊은 층이 가장 선호하는 구독서비스로 '생성형 AI'가 떠올랐다. 대한상공회의소가 발표한 소비자 구독서비스 이용실태 분석 결과에 따르면, 20대의 23.0%, 30대의 19.5%가 생성형 AI 서비스를 새롭게 이용해보고 싶은 구독서비스로 선택했다. (☞ 자료 바로가기) 실제 사례를 보면, 32세 직장인 A씨는 월 2만 원대의 생성형 AI 서비스를 활용해 업무 보고서를 빠르고 정확하게 작성하며 업무 효율을 크게 향상시켰다. 특히 문서 작성 전반에 걸쳐 업무 효율이 크게 향상됐으며, 비용 부담 없이 스마트한 업무 환경을 경험하고 있다. 세대별 구독서비스 선호도 뚜렷한 차이 보여 구독서비스 선호도는 세대 간 뚜렷한 차이를 보였다. 조사 결과 전체 응답자의 94.8%가 구독서비스를 이용해본 경험이 있다고 답했다. 서비스별 이용 현황을 보면 동영상 스트리밍(60.8%), 쇼핑 멤버십(52.4%), 통신(인터넷 TV결합)(45.8%) 순으로 나타났다. 40-60대는 건강·생활가전 구독서비스를 가장 선호했는데, 40대 25.5%, 50대 25.5%, 60대 이상 24.0%가 이를 1순위로 꼽았다. 구독경제의 진화, 콘텐츠에서 AI까지 구독서비스 시장은 이용 개수도 꾸준히 증가하고 있다. 현재 3-4개의 구독서비스를 이용하는 소비자가 39.8%로 가장 많았고, 12개 33.9%, 5~6개 17.2%, 7개 이상 9.1% 순으로 나타났다. 온라인 교육(16.1%), 식품 배송(14.3%), 정보성 미디어(13.0%) 등 생활 밀착형 서비스도 꾸준히 성장하고 있다. 특히 생성형 AI 구독서비스는 이러한 장점들을 모두 갖춘 대표적인 사례로 평가받고 있으며, 종합형 멤버십(25.5%)이나 소프트웨어(18.3%) 등 디지털 서비스의 구독 이용률도 꾸준히 증가하는 추세다. 글로벌 구독경제 시장의 성장과 전망 글로벌 조사기관 가트너(Gartner)에 따르면, 세계 구독경제 시장 규모는 2020년 804조 원에서 2025년 1,200조 원으로 성장할 것으로 전망된다. 대한상공회의소 디지털혁신팀은 이러한 성장세 속에서 기업들이 소비자 니즈에 최적화된 구독모델을 개발해야 한다고 강조했다. 특히 생성형 AI 분야에서는 젊은 세대의 높은 수요를 고려한 차별화된 서비스 전략이 필요할 것으로 보인다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 11:10AI 에디터

패션, AI를 입다…젠틀몬스터부터 구찌까지 'AI 혁신' 한창

수년전부터 패션 업계는 AI를 다양한 분야에 도입하고 있었으며, 생성형 AI 기술의 대중화와 함께 그 속도가 가속화되고 있습니다. 단순한 데이터 분석을 넘어, 디자인, 생산, 마케팅, 고객 경험까지 AI가 패션 산업 전반을 혁신하고 있는데요. 특히 AI를 활용하여 브랜드 가치를 극대화하고 고객과의 소통을 강화하는 사례가 늘어나고 있습니다. 이번 기사에서는 패션 브랜드들이 AI를 어떻게 활용하고 있는지, 그리고 그 결과는 어떠한지를 살펴보겠습니다. 젠틀몬스터: AI 기반 맞춤형 추천 시스템과 브랜드 경험 강화 이미지 출처: 젠틀몬스터 홈페이지 캡처 젠틀몬스터는 고객 데이터를 AI로 분석해 개인화된 상품 추천 시스템을 구축했습니다. 이 시스템은 고객의 리뷰, 구매 이력, 웹사이트 행동 데이터를 자연어 처리(NLP) 기술로 분석하여 개인별 취향에 맞는 제품을 추천합니다. 예를 들어, "가볍고 편안하다"는 리뷰는 유사한 특징을 가진 다른 제품 추천으로 이어지며, 고객이 자주 검색하는 스타일의 신상품을 우선적으로 노출시킵니다. 도입사례 바로 보기 이러한 AI 기반 추천 시스템은 놀라운 성과를 거두었습니다. 고객들은 자신의 취향에 맞는 제품을 더 쉽게 발견할 수 있게 되었고, 이는 매출 25% 증가로 이어졌습니다. 또한 최근에는 게임 TEKKEN 8과의 협업에서도 AI 필터를 활용한 이벤트를 진행하며, 디지털 경험을 한층 강화했습니다. 에이블리코퍼레이션: AI가 제안하는 남성 패션의 새로운 기준 이미지 출처: 에이블리 홈페이지 캡처 에이블리코퍼레이션의 남성 패션 플랫폼 '4910'은 AI 개인화 추천 기술을 통해 혁신적인 성과를 이뤄냈습니다. 스트릿부터 럭셔리까지 50만 개 이상의 상품을 보유한 이 플랫폼은 고객의 취향 데이터를 분석해 최적의 스타일을 제안합니다. 특히 체형별 특징과 착용 상황까지 고려한 '코디 추천' 기능은 패션에 어려움을 느끼는 남성 고객들의 구매 결정을 돕고 있습니다. 도입사례 바로 보기 이러한 노력은 실적으로 이어져 2024년 4분기 거래액이 전년 대비 10배 이상 증가하는 놀라운 성과를 기록했습니다. 특히 맨즈웨어 카테고리는 308배, SPA 브랜드는 26배 이상의 성장을 보이며 AI 기술의 효과를 입증했습니다. 구찌: AI와 함께하는 럭셔리 패션의 혁신 이미지 출처: 구찌 홈페이지 캡처 구찌는 글로벌 고객 서비스 네트워크인 구찌9(Gucci 9)에 AI를 접목하여 '아인슈타인(Einstein)' 시스템을 구축하였습니다. 아인슈타인의 AI는 단순한 상품 및 쇼핑 문의를 넘어 빈티지 가방의 리퍼비싱, 구찌 오스테리아(Gucci Osteria) 예약 등 다양한 고객 문의를 처리합니다. 특히 구찌 브랜드의 독특한 정체성을 반영한 '구찌화(Guccified)'된 응답을 생성하여 고객과의 소통을 더욱 세련되게 만들었습니다. 도입사례 바로 보기 이 AI 시스템은 매장 방문 고객, 전화 문의 고객, 왓츠앱(WhatsApp) 문의 고객을 하나의 데이터 흐름으로 연결하여 더욱 심층적인 고객 인사이트를 제공합니다. 이를 통해 브랜드의 일관성을 유지하면서도, 개별 고객의 요구를 신속하게 처리할 수 있도록 하였습니다. AI를 활용한 맞춤형 응대가 가능해지면서 고객 만족도가 크게 향상되었으며, 럭셔리 브랜드로서의 프리미엄 서비스 경험을 더욱 강화하였습니다. 패션 산업의 미래, AI와 함께 그려나가다 AI 기술은 패션 산업의 다양한 영역에서 변화를 만들어내고 있습니다. 데이터 분석을 통한 트렌드 예측, 맞춤형 추천 시스템, 생산 공정의 최적화, 고객 경험 개선 등 AI는 패션 브랜드들에게 새로운 가능성을 열어주고 있습니다. 패션과 AI의 결합은 이제 시작 단계에 불과합니다. 앞으로 더욱 정교한 AI 알고리즘과 머신러닝 기술이 도입되면서, 패션 브랜드들은 한층 더 개인화된 서비스와 혁신적인 고객 경험을 제공할 것으로 기대됩니다. 패션 업계의 AI 도입이 단순한 유행이 아닌, 필수적인 전략으로 자리 잡고 있다는 점에서 우리는 앞으로도 AI가 만들어낼 새로운 패션의 세계를 기대해볼 만합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 10:09AI 에디터

[Q&AI] 코인시장 불 지핀 '파이코인', 뭐길래... OKX 거래 방법은

질문: 파이코인 okx에 대해 자세히 알려줘. 챗 GPT 답변: 파이코인(Pi Coin)은 2025년 2월 20일 오후 5시(한국 시간)부터 OKX 거래소에서 공식적으로 거래를 시작했습니다. OKX는 세계 3위권의 대형 암호화폐 거래소로, 파이코인의 상장은 그 유동성과 접근성을 크게 향상시킬 것으로 기대됩니다. OKX에서 파이코인 거래 방법 OKX 계정 생성 및 인증 OKX 공식 웹사이트 또는 모바일 앱에서 회원가입을 진행합니다. 가입 후, 원활한 입출금을 위해 신원 인증(KYC)을 완료해야 합니다. 파이코인 입금 OKX 계정에 로그인한 후, '자산(Assets)' 메뉴에서 '입금(Deposit)'을 선택합니다. 검색창에 'PI'를 입력하여 파이코인을 선택하고, 표시된 입금 주소를 복사합니다. 파이 네트워크 지갑에서 복사한 주소로 파이코인을 전송합니다. 파이코인 거래 입금이 완료되면, '거래(Trade)' 메뉴에서 '현물 거래(Spot)'를 선택합니다. 거래 페어에서 'PI/USDT'를 선택하고, 원하는 수량과 가격을 입력하여 매수 또는 매도 주문을 진행합니다. 거래 시 유의사항 콜 옥션(Call Auction) 제도: 거래 시작 전 1시간 동안 초기 매수·매도 주문을 받아 개시 가격을 결정하는 방식입니다. 이 기간 동안 주문 취소가 제한될 수 있으므로 주의가 필요합니다. 초기 거래 제한: 거래 시작 후 첫 5분 동안은 시장가 주문이 제한되며, 주문당 최대 금액이 1만 USDT로 제한됩니다. 이러한 제한은 5분 후 자동으로 해제됩니다. 출금 가능 시점: 파이코인의 출금은 2025년 2월 21일 오후 5시(한국 시간)부터 가능합니다. 파이코인의 OKX 상장은 그동안 제한적이었던 거래 환경을 개선하고, 글로벌 시장에서의 유동성을 높이는 중요한 계기가 될 것입니다. 다만, 초기 거래 시 변동성이 클 수 있으므로 신중한 접근이 필요합니다. ■ 기사는 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.21 07:05AI 에디터

기업들, AI 시대 살아남으려면…맥킨지가 분석한 비결

AI와 자동화가 이끄는 전례 없는 기업 환경의 변화 맥킨지(McKinsey)가 발간한 보고서에 따르면, 인공지능과 자동화 기술의 광범위한 도입은 기업들이 직면한 가장 큰 변화 중 하나로 꼽힌다. 지정학적 변화, 기후변화의 영향, 유전자 편집과 생명공학 혁신, 사회 정의 트렌드, 직원들의 기대 변화 등이 복합적으로 작용하면서 전례 없는 변화의 시대가 도래했다. 이러한 기술 혁신 시대에 기업이 성공적으로 적응하기 위해서는 새로운 역량을 개발하고, 기존의 사고방식과 행동을 재고해야 한다는 분석이다. (☞ 보고서 바로가기) 회복력·적응력 갖춘 직원, 혁신행동 3.8배·업무 몰입도 3배 증가 맥킨지건강연구소(MHI)의 30개국 직원 3만 명을 대상으로 한 연구 결과, 회복력과 적응력이 모두 높은 직원들은 그렇지 않은 직원들에 비해 혁신적 행동이 3.8배, 직무 몰입도가 3배 이상 높은 것으로 나타났다. 특히 조직의 지원과 심리적 안정감이 보장된 환경에서는 직원들의 혁신 행동이 6.2배(75% vs 12%), 업무 몰입도는 6배(73% vs 12%)까지 증가하는 것으로 조사됐다. 조직 지원과 심리적 안정감의 시너지: 혁신 6.2배, 몰입도 6배 증가 맥킨지건강연구소(MHI)의 30개국 3만 명 직원 조사에 따르면, 조직의 지원(명확한 프로세스, 충분한 자원, 상사나 동료의 지원 등)과 심리적 안정감, 회복력, 적응력이 모두 갖춰진 환경의 직원들은 그렇지 않은 직원들에 비해 월등한 성과를 보였다. 업무 몰입도는 6배(73% vs 12%), 혁신적 행동은 6.2배(75% vs 12%) 높게 나타났다. 이는 개별 요소들의 단순한 합이 아닌, 시너지 효과가 발생했음을 보여준다. 특히 이러한 결과는 AI와 자동화 도입 과정에서 조직의 체계적인 지원과 심리적 안정감 확보가 얼마나 중요한지를 입증하는 것이다. 글로벌 기업 84%, 적응력 개발 프로그램 미투자...직원 26%는 "시급한 과제" 맥킨지의 'Talent Trends' 설문조사에 따르면, 현재 전 세계 기업의 16%만이 적응력과 지속적 학습 프로그램에 투자하고 있다. 반면 1만 명의 직원들 중 26%는 적응력을 최우선 필요 역량으로 꼽았다. 특히 프론트라인 직원들과 근속 1년 이하의 신입 직원들에게서 이러한 요구가 두드러졌다. MHI 연구에서는 전체 응답자의 56%가 회복력 관련 질문에, 28%가 적응력 관련 질문에 긍정적으로 답변한 반면, 두 가지 모두에서 높은 점수를 보인 응답자는 23%에 그쳤다. 심리적 안정감이 이끈 혁신: 대형 여행사의 성공 사례 연구에 따르면 심리적 안정감은 효과적인 리더십과 조직 성과를 위한 핵심 요소다. 팀 내 대담한 아이디어와 다양한 관점의 표현을 촉진하고 협업과 혁신을 크게 향상시킨다. 한 대형 여행사는 안전 문제에 대한 문화를 개선하고 잠재적 문제점 발견과 의견 개진을 장려하는 심리적 안정감 확보에 주력했다. 그 결과 리스크 관리 능력이 향상되고, 팀의 혁신적 아이디어 제안이 증가했으며, 직원 유지율과 몰입도가 개선되었다. 9천명 규모 제약사의 3단계 적응력 향상 프로그램 성공기 한 제약회사는 9,000명 이상의 직원들을 대상으로 3단계 교육 프로그램을 실시했다. 1단계에서는 최고 경영진이 대면 워크숍에 참여하고, 2단계에서는 4,000명의 중간 관리자들이 디지털 자율학습 도구를 활용했으며, 3단계에서는 일선 직원들이 온라인 앱과 소셜 러닝을 통해 교육을 받았다. 3개월간 주간 단위로 진행된 이 프로그램은 통제 그룹 대비 적응력과 웰빙 수준을 크게 향상시켰다. AI 시대의 리더십 4대 과제 리더들은 AI와 자동화 기술 도입 과정에서 네 가지 핵심 과제를 수행해야 한다. 첫째, 공동의 방향성을 제시하는 나침반 역할을 해야 한다. 둘째, 단순한 인력이 아닌 심리적으로 안전한 공동체를 구축해야 한다. 셋째, 리더 자신이 회복력과 적응력을 갖추고 롤모델이 되어야 한다. 넷째, 직원들이 그룹 단위로 이러한 역량을 학습하고 구축할 수 있도록 장려해야 한다. CEO부터 중간관리자까지: 직급별 적응력 개발 전략 하우멧 에어로스페이스(Howmet Aerospace)의 CEO 존 플랜트(John Plant)는 "CEO로 취임해서 구조조정 능력이 필요한 첫 번째 단계는 잘 관리했지만, 3-4년 후 회사가 성장 모드로 전환되면서 적절한 스킬이 부족해 이사회가 해고할 수도 있다"며 "서로 다른 모드에서 운영할 수 있는 경험이나 다재다능함을 가진 사람은 매우 드물다"고 말했다. 최고경영진은 자신만의 관점과 경험을 바탕으로 타운홀 미팅이나 팀 미팅, 일대일 대화를 통해 과거의 변동성을 어떻게 관리했는지 공유해야 한다. 또한 이사회 구성원들과 함께 회복력과 적응력 교육에 참여하여 조직에 필요한 스킬, 사고방식, 조건들을 완전히 내재화해야 한다. 더불어 적응력 향상을 전반적인 비즈니스 전략과 동등한 수준으로 통합하고, 인재 영입과 유지 과정에도 이러한 요소들을 반영해야 한다. 하우멧 에어로스페이스(Howmet Aerospace)의 CEO 존 플랜트(John Plant)는 "CEO로 취임해서 구조조정 능력이 필요한 첫 번째 단계는 잘 관리했지만, 3-4년 후 회사가 성장 모드로 전환되면서 적절한 스킬이 부족해 이사회가 해고할 수도 있다"며 "서로 다른 모드에서 운영할 수 있는 경험이나 다재다능함을 가진 사람은 매우 드물다"고 말했다. 최고경영진은 자신만의 관점과 경험을 바탕으로 타운홀 미팅이나 팀 미팅, 일대일 대화를 통해 과거의 변동성을 어떻게 관리했는지 공유해야 한다. 또한 이사회 구성원들과 함께 회복력과 적응력 교육에 참여하여 조직에 필요한 스킬, 사고방식, 조건들을 완전히 내재화해야 한다. 더불어 적응력 향상을 전반적인 비즈니스 전략과 동등한 수준으로 통합하고, 인재 영입과 유지 과정에도 이러한 요소들을 반영해야 한다. 중간 관리자와 일선 관리자들의 경우, 전략을 실행으로 옮기고 직접적인 결과를 감독하는 역할을 맡고 있기 때문에 적응력과 회복력이 특히 중요하다. 이들의 상황 인식과 자기 인식, 감정 조절 능력, 그리고 회복력과 적응력을 보여주는 능력은 개인, 팀, 조직에 직접적이고 기하급수적인 영향을 미칠 수 있다. 전기 시대의 교훈: AI 적응에 30년 걸릴 여유는 없다 전기가 증기 기관을 대체했을 때 기업들이 새로운 환경에 적응하는 데 30년이 걸렸던 것처럼, 오늘날 기업들도 AI를 비롯한 기술적, 경제적, 지정학적, 사회적 혁신에 적응하는 과정에서 비슷한 도전에 직면해 있다. 그러나 맥킨지는 현대 기업들이 그만큼 긴 적응 기간을 가질 수 없다고 경고한다. 파괴적 혁신을 경쟁 우위로 전환하기 위해서는 회복력과 적응력을 전사적 차원에서 신속히 개발하고, 이를 비즈니스 전략과 통합해야 한다고 강조한다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.20 16:17AI 에디터

딥러닝 대가가 '그록3' 평가했더니…제미나이·클로드 못푸는 문제도 해결

안드레이 카파시(Andrej Karpathy) 유레카랩스(Eureka Labs) AI 연구원이자 테슬라(Tesla) 전 AI 디렉터가 엑스AI의 최신 생성형 AI인 그록3의 초기 테스트 결과를 공개했다. 18일(현지 시간) 카파시 X계정에 공개된 내용에 따르면, 그록3은 기존 생성형 AI 모델이 해결하지 못한 까다로운 문제들을 깔끔하게 풀어냈다고 밝혔다. (☞ 카파시 X 바로가기) 그록3의 가장 큰 특징은 '싱킹' 모드다. 카파시는 GPT-2 논문의 학습 플롭스(FLOPs) 계산 문제를 예시로 들었다. 이는 텍스트 용량, 토큰 수, 매개변수를 복합적으로 고려해야 하는 고난도 문제다. 그록3은 싱킹 모드를 통해 이를 정확하게 풀어냈다. 보드게임 '카탄의 개척자' 웹페이지 설계 문제에서도 그록3은 뛰어난 성과를 보였다. 이는 오픈AI의 최상위 모델(o1-pro)만이 해결할 수 있는 수준의 과제다. 딥시크(DeepSeek-R1), 제미니 2.0(Gemini 2.0), 클로드 등 다른 주요 AI 모델들은 해결하지 못했다. 그록3은 '딥서치' 기능을 통해 인터넷 정보를 검색하고 분석할 수 있다. 애플 신제품 출시, 팔란티어(Palantir) 주가 급등 원인, 화이트 로터스(White Lotus) 시즌3 촬영지 등 최신 이슈에 대해 정확한 답변을 제공했다. 하지만 X 플랫폼을 출처로 인용하기 꺼려하거나, 존재하지 않는 URL을 인용하는 등의 한계도 드러냈다. 카파시는 "그록3은 오픈AI의 최고급 모델과 비슷한 수준의 성능을 보여준다"며 "1년 만에 이런 수준에 도달한 것은 전례 없는 성과"라고 평가했다. 다만 "더 많은 평가가 필요하다"고 덧붙였다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.20 16:08AI 에디터

[Q&AI] 김재규 재심 확정…윤 대통령 내란 혐의 판결엔 어떤 영향?

질문1 : 김재규, 사형집행 45년 만에 재심 결정 됐다는데, 자세한 경위를 설명해줘. ChatGPT 답변:1979년 10월 26일, 김재규 전 중앙정보부장은 박정희 전 대통령과 차지철 경호실장을 살해한 혐의로 기소되어 1980년 5월 24일 사형이 집행되었습니다. 그로부터 40년이 지난 2020년 5월, 유족들은 김 전 부장의 재판 과정에서의 절차적 문제와 그의 행위 동기에 대한 재평가를 요구하며 재심을 청구했습니다. 재심 청구의 주요 근거는 당시 재판 과정에서의 위법성과 김 전 부장의 행위 동기에 대한 왜곡입니다. 특히, 최근 공개된 재판 녹음 테이프를 통해 보안사령부가 재판부에 쪽지를 전달하며 재판에 개입한 사실과 공판조서가 허위로 작성된 정황이 드러났습니다. 2024년 4월 17일, 서울고등법원 형사7부는 재심 개시 여부를 판단하기 위한 첫 심문기일을 열었습니다. 이 자리에서 변호인단은 김 전 부장의 행위가 유신독재에 대한 항거였으며, 내란 목적이 아니었다고 주장했습니다. 또한, 재판 당시 변호인의 조력권이 침해되고 피고인의 방어권이 유린되었다는 점을 강조했습니다. 재판부는 재심 개시 여부를 결정하기 전에 추가 증인 신문을 위해 6월 12일에 심문기일을 한 차례 더 열기로 했습니다. 이날에는 당시 김 전 부장의 국선 변호인이었던 안동일 변호사를 증인으로 소환하여 당시 재판 과정의 문제점에 대한 증언을 들을 예정입니다. 이번 재심 절차는 김재규 전 부장의 행위에 대한 역사적 재평가와 함께, 당시 재판 과정의 공정성에 대한 논의가 이루어지는 중요한 계기가 될 것으로 보입니다. 질문2: 이번 재심 결정이 현재 윤석열 대통령의 재판과 관련이 있을까? 있다면 어떤 영향을 줄지 판단해줘. ChatGPT 답변:김재규 전 중앙정보부장의 재심 결정과 윤석열 대통령의 현재 재판은 모두 내란 관련 혐의를 다루고 있지만, 두 사건은 역사적 배경과 구체적 상황이 크게 다릅니다. 김 전 부장의 사건은 1979년 박정희 전 대통령 시해와 관련된 것으로, 당시 재판의 절차적 정당성에 대한 의문이 제기되어 재심이 결정되었습니다. 반면, 윤석열 대통령은 최근 내란 우두머리 혐의로 형사 재판과 탄핵 심판을 동시에 받고 있습니다. 현재까지 두 사건이 직접적으로 연관되어 있다는 정보는 없습니다. 다만, 김 전 부장의 재심을 통해 과거 내란 관련 사건의 재판 절차와 사법적 판단에 대한 재평가가 이루어질 경우, 이는 윤 대통령의 재판에도 간접적인 영향을 미칠 수 있습니다. 특히, 내란 혐의에 대한 법원의 해석이나 재판 절차의 공정성 등에 대한 논의가 활성화될 수 있습니다. 그러나 이러한 영향은 간접적이며, 두 사건의 구체적 내용과 진행 상황에 따라 달라질 수 있습니다. 현재로서는 김재규 전 부장의 재심 결정이 윤석열 대통령의 재판에 직접적인 영향을 미친다는 증거는 없습니다. 질문3 : 그럼, 김재규에게 내란목적살인 죄가 성립되지 않는다고 판결이 난다면, 윤 대통령의 내란 혐의는 어떻게 해석될 수 있을까? ChatGPT 답변:김재규 전 중앙정보부장의 재심에서 내란목적살인죄가 성립되지 않는다는 판결이 나온다면, 이는 윤석열 대통령의 내란 혐의 재판에 간접적인 영향을 미칠 수 있습니다. 두 사건 모두 내란죄와 관련되어 있으나, 각 사건의 구체적인 상황과 법적 쟁점이 다르기 때문에 직접적인 연관성을 단정하기는 어렵습니다. 김재규 사건의 재심 결과는 내란죄의 적용 범위와 해석에 대한 법원의 최신 판단을 제공할 수 있습니다. 특히, 내란죄의 구성요건인 '국헌 문란의 목적'과 '폭동'의 정의에 대한 법적 해석이 재평가될 수 있습니다. 이러한 판례의 변화는 윤석열 대통령의 내란 혐의 재판에서 법적 논거로 활용될 가능성이 있습니다. 그러나 각 사건의 특수성과 개별적인 증거 상황을 고려해야 하므로, 김재규 재심 판결이 윤 대통령의 재판에 미치는 영향은 제한적일 수 있습니다. 결국, 윤 대통령의 내란 혐의는 해당 사건의 구체적인 사실관계와 증거에 따라 독립적으로 판단될 것입니다. ■ 기사는 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.20 09:23AI 에디터

아마존, '알렉사 AI' 출시 3월 이후로 또 연기... 정확도 높이기 '진통'

워싱턴포스트(The Washington Post)가 14일(현지 시간) 보도한 내용에 따르면, 아마존(Amazon)이 AI 기반 음성비서 알렉사(Alexa)의 업그레이드 버전 출시를 다시 한번 연기했다. 이번 달 뉴욕에서 발표 행사를 개최할 예정이지만, 실제 출시는 3월 말 이후로 미뤄질 전망이다. 아마존 내부 관계자는 테스트 과정에서 새로운 알렉사가 부정확한 답변을 제공하는 문제가 발생했다고 밝혔다. 이로 인해 2023년 9월 첫 발표 이후 1년 반 만에 선보일 예정이던 '더 스마트하고 대화가 가능한' 버전의 출시가 3월 31일 이후로 연기됐다. 이번 알렉사 출시 지연은 AI 기술을 상용 제품에 적용하는 과정에서 겪는 기업들의 어려움을 보여준다. 애플(Apple)도 지난달 뉴스 알림을 요약하는 아이폰 AI 기능이 부정확한 정보를 전달하는 문제로 해당 기능을 일시 중단했다. 내부 문서에 따르면, 새로운 알렉사는 구독형 서비스로 제공될 예정이며, 성격 설정, 대화 기억, 음식 주문, 택시 호출 등의 기능이 포함된다. 현재 전 세계 5억대 이상의 알렉사 기기가 보급된 상황에서, 아마존은 이번 업그레이드를 통해 수익성 향상을 기대하고 있다. 한편 아마존은 올해 데이터센터 개발을 포함해 1000억 달러를 투자할 계획이다. 아마존은 알렉사 브랜드의 신뢰도를 지키기 위해 신중한 접근을 하고 있으며, 제품의 안정성이 확보될 때까지 출시를 미룰 것으로 알려졌다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 16:52AI 에디터

"정부 덜 멍청하게 만들자"…머스크 측근이 만든 AI 공무원

테크크런치(TechCrunch)가 18일(현지 시간) 보도한 내용에 따르면, 일론 머스크의 측근이 정부 낭비를 제거하고 효율성을 높이기 위한 AI 챗봇을 개발했다. 이 챗봇은 머스크의 인공지능 기업 xAI의 기술을 기반으로 한다. 스페이스엑스의 보안 엔지니어링 책임자이자 백악관에서도 근무 중인 크리스토퍼 스탠리(Christopher Stanley)가 개발한 이 챗봇은 그의 웹사이트 도지(DOGE) 서브도메인에서 공개적으로 접근이 가능하다. 이 AI 비서는 xAI의 그록2(Grok 2)를 기반으로 하며, "정부 인력이 낭비 요소를 식별하고 효율성을 개선하는 것을 돕는다"고 소개했다. 이 AI 비서는 정부 효율성 부서(DOGE)의 5가지 주요 원칙에 따라 학습된 대규모 언어 모델을 기반으로 한다. 주요 원칙에는 "정부 요구사항을 덜 멍청하게 만들기"와 "불필요한 부분이나 프로세스 제거"가 포함됐다. 그러나 다른 AI 모델들과 마찬가지로 환각 현상이라는 한계도 존재한다. 예를 들어, DOGE 직원들의 이름을 물었을 때 실제 존재하지 않는 이름과 직책을 만들어내는 현상이 발견됐다. 테크크런치는 이 AI 챗봇이 xAI를 활용한다는 점에서 머스크와의 이해 상충 문제가 발생할 수 있다고 지적했다. AI 언어 모델은 일반적으로 API 사용량에 따라 요금을 부과하기 때문에, 정부 직원들이 xAI 기반 챗봇을 사용하면 직접적으로 xAI의 수익 증가로 이어질 수 있기 때문이다. 한편 DOGE는 미국 정부 현대화의 일환으로 AI를 적극 도입하고 있으며, 와이어드(Wired)에 따르면, 미국 조달청을 위한 별도의 AI 챗봇도 개발 중인 것으로 알려졌다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 14:49AI 에디터

생성형 AI로 혐오 부추기는 극우세력…게시물 883개 분석해보니

영국의 전략대화연구소(ISD)가 발표한 보고서에 따르면, 독일의 극우 정당과 극우 세력들이 생성형 AI를 활용해 혐오 콘텐츠를 대량으로 제작하고 있는 것으로 나타났다. 이들은 기존의 극우 전략을 보완하는 수단으로 AI를 활용하며 EU의 디지털서비스법(DSA) 미준수를 악용하고 있다고 분석됐다. (☞ 보고서 바로가기) AfD, AI 생성 콘텐츠 월 50건 이상 제작...정당 최대 활용 사례 연구진은 2023년 4월부터 2024년 11월까지 페이스북, 인스타그램, X(구 트위터), 틱톡, 유튜브 등에서 92개 계정이 제작한 AI 생성 콘텐츠 883개를 분석했다. 특히 독일의 극우 정당인 '독일을 위한 대안'(AfD)이 생성형 AI를 적극적으로 활용했다. AfD는 2024년 10월 한 달간에만 50개 이상의 AI 생성 콘텐츠를 게시했으며, 당의 공식 계정과 지역 계정, 개별 정치인들의 계정을 통해 콘텐츠를 확산시켰다. 플랫폼별 분석 결과, X에서는 전체 게시물의 23%, 인스타그램은 19%, 페이스북은 17%가 AI 생성 콘텐츠였다. 특히 극우 미디어 에이전시 Tannwald Media의 설립자 알렉산더 클라인이 AfD와 긴밀히 협력하며 AI 콘텐츠를 제작하고 있었다. 독일인 추방하자...극우 AI 콘텐츠의 14가지 내러티브 분석 연구진은 14개의 주요 극우 내러티브를 분석했다. 이 중 가장 빈번한 것은 금발 碧眼의 독일인을 미화하는 내용(122건), 이민자 추방을 주장하는 '재이주'(Remigration) 관련 내용(101건), 이민자들의 범죄를 부각시키는 내용(98건), 사회복지제도 악용을 주장하는 내용(92건) 등이었다. 이들의 내러티브는 크게 공격형, 미화형, 기타로 분류됐다. 공격형에는 난민·이민자 공격, 정치인 비하, LGBTQ+ 반대, 기후활동가 비난이 포함됐고, 미화형에는 '강한 독일'의 이미지화, 전통적 가치관 강조 등이 있었다. 플랫폼별로는 페이스북에서 반이민 내러티브가 41%로 가장 높았고, 인스타그램이 38%, 유튜브가 27%, X가 23%, 틱톡이 13%를 기록했다. AI로 만든 극우 음악...102개 뮤직비디오 발견 연구진은 102개의 AI 생성 극우 음악 비디오를 발견했다. 구독자 9,000명의 한 유튜브 채널은 금발의 독일인들이 이민자들에게 위협받는 장면을 AI로 생성해 뮤직비디오로 제작했다. "칼을 들고 와서, 독일의 문 앞에 서 있네"와 같은 가사로 이민자들을 위협적으로 묘사했다. 또 다른 비디오는 무슬림 남성과의 교제를 경고하는 내용을 담고 있었다. 이러한 음악 콘텐츠들은 극우 단체의 정체성을 강화하고 추종자들의 소속감을 높이는 데 활용되고 있었다. AI가 만든 완벽한 아리아인 여성...가짜 인플루언서의 실체 연구진은 3명의 AI 생성 여성 '인플루언서'를 발견했다. 22세의 기독교 여성이라고 주장하는 '라리사 바그너', AfD와 크렘린을 지지하는 '소피아의 세계', 16세 소녀를 표방하는 '금발의 반란자 라라' 등이다. 특히 '라리사 바그너'는 극우 매체 Compact Magazine의 인턴이라고 주장하며 자체 칼럼까지 운영하고 있었다. 이들은 극우적 내러티브를 여성의 관점에서 전달하며, 개인적인 정보를 공유하고 친밀감을 조성하는 방식으로 팔로워들과 유사 사회적 관계를 형성했다. 이들 AI 인플루언서의 게시물은 실제 참여도는 낮았으나(평균 '좋아요' 10개 미만), 팔로워들은 "AI로 만들어졌든 상관없다. 메시지가 중요하다"는 반응을 보였다. 플랫폼의 무대응...AI 콘텐츠 신고 192건 중 0건 조치 조사 결과, 극우 세력의 AI 생성 콘텐츠는 EU의 디지털서비스법(DSA)이 요구하는 AI 콘텐츠 라벨링 의무를 제대로 지키지 않고 있었다. 신고된 192개의 콘텐츠 중 한 달이 지나도록 플랫폼에서 라벨링된 게시물이 전혀 없었다. 페이스북의 AI 라벨링 비율은 3%, 인스타그램은 2%, X는 1% 미만이었으며, 틱톡이 14%로 가장 높았다. 유튜브의 경우 라벨링된 콘텐츠가 전혀 없었다. 정책적 제언: 플랫폼 규제 강화부터 선거 감시까지 연구진은 플랫폼 사업자들에게 ▲AI 콘텐츠 일관된 라벨링 정책 수립 ▲선거 기간 전담팀 운영 ▲시민사회와의 협력 강화를 제안했다. 또한 정부와 규제기관에는 ▲연구자들과의 소통 채널 구축 ▲선거 관련 리스크 평가 강화 ▲범유럽 차원의 팩트체크 네트워크 구축을 권고했다. 2025년 2월 총선을 앞둔 독일에서 현재 제2당이 될 것으로 전망되는 AfD의 AI 활용은 특히 우려되는 상황이며, AI를 활용한 선거 캠페인이 민주적 과정을 왜곡할 수 있다는 우려가 제기되고 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 14:29AI 에디터

"챗GPT 써봤다" 90%…하지만 만족도는 '뚝'

알투씨컴퍼니(R2C Company)가 운영하는 데이터 수집 플랫폼 '픽플리(Pickply)'가 전국 남녀 1002명을 대상으로 실시한 설문조사에서 응답자의 89.7%가 AI 서비스 사용 경험이 있다고 답했다. 생성형 AI 서비스의 경우 84.6%가 사용해봤으며, 특히 챗GPT(ChatGPT)는 93.9%의 압도적인 사용률을 기록했다. 소비자 추천지수(NPS)에서 챗GPT(ChatGPT)는 -3점을 기록했다. 다른 생성형 AI 서비스들의 성적은 더 저조했다. 제미나이(Gemini)는 -26점, 뤼튼(Claude)은 -38점, 하이퍼클로바X(HyperCLOVA X)는 -40점, 딥시크(DeepSeek)는 -44점을 기록했다. NPS는 최대 100점에서 최저 -100점까지 측정되며, 마이너스 점수는 서비스 개선이 필요함을 의미한다. 기업이 도입했을 때 선호하는 AI 브랜드 조사에서는 챗GPT가 45.6%로 가장 높은 선호도를 보였다. 이어서 제미나이 35.8%, 코파일럿 28.0%, 하이퍼클로바X 27.4% 순이었다. 뤼튼과 클로드는 22% 내외의 선호도를 보였으며, 딥시크는 17.7%로 가장 낮은 선호도를 기록했다. 한편, 소비자들은 AI 서비스 도입 시 가장 중요한 요소로 '서비스의 정확성 및 신뢰성'(43.7%)과 '개인정보 보호 및 보안 정책'(30.9%)을 꼽았다. 알투씨컴퍼니 관계자는 "AI 시대에서 기업이 소비자 신뢰를 얻기 위해선 서비스의 정확성과 신뢰성, 개인정보 보호, AI 활용의 투명성 제고가 핵심"이라며 "기업들은 AI를 통한 혁신과 함께 윤리적 운영, 소비자와의 적극적인 소통 방안도 마련해야 할 것"이라고 말했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 14:23AI 에디터

AI로 AI 공격 방어…기업 보안시스템 확 바꾼다

연간 보안사고 50% 감소…생성형 AI 도입으로 IAM 체계 강화 딜로이트(Deloitte)가 발간한 '생성형 AI 관련 신원 및 접근 관리 위험 극복하기' 보고서에 따르면, 생성형 AI 기술이 기업의 신원 및 접근 관리(IAM) 시스템에 혁신적 변화를 가져오고 있다. GPT-3와 Jasper 같은 AI 모델은 합성 데이터 생성과 잠재적 보안 위반 시뮬레이션을 통해 보안 프로토콜을 강화할 수 있다. 특히 금융 서비스 산업에서는 실시간 사기 탐지율이 기존 대비 40% 향상되었으며, 정부 기관의 중요 인프라 보안 사고는 평균 50% 감소한 것으로 나타났다. (☞ 보고서 바로가기) 딥페이크부터 피싱까지...생성형 AI가 만드는 새로운 위협 지도 보안 위협은 세 가지 주요 영역에서 발생하고 있다. 먼저 데이터 기반 위험으로, AI가 생성한 가짜 사용자 프로필이나 접근 로그로 인증 시스템을 우회하는 사례가 증가하고 있다. 생체 정보나 행동 패턴 등 민감한 사용자 데이터의 유출도 큰 위험이다. 특히 딥페이크 기술을 이용한 생체 인증 우회 시도는 전년 대비 200% 증가했다. AI 기반 피싱 공격의 성공률은 기존 수동 피싱 대비 5배 높은 것으로 나타났다. 24시간 실시간 모니터링 AI 기반 선제적 보안 체계 구축 보고서는 AI 기반의 다층적 방어 전략을 제시한다. 얼굴 인식, 음성 인식, 행동 패턴 분석 등 생체인식 기술을 통해 인증 정확도를 95% 이상으로 높일 수 있다. 키스트로크 패턴, 마우스 움직임, 위치 데이터 등의 실시간 분석으로 비정상 행위를 평균 2분 이내에 탐지할 수 있다. 위험도에 따라 추가 인증을 요구하는 적응형 인증 시스템은 오탐률을 60% 감소시켰다. AI 기반 보안 시뮬레이션으로 취약점 사전 차단 생성형 AI는 매월 평균 1000개 이상의 가상 공격 시나리오를 생성하여 보안 체계를 검증한다. 실제 사용자 데이터를 기반으로 한 시뮬레이션은 취약점 발견율을 75% 향상시켰다. 특히 다양한 접근 레벨과 권한을 가진 가상 사용자 프로필을 통한 테스트는 권한 상승 공격의 90%를 사전에 차단할 수 있었다. AI 위협 탐지 및 대응(ITDR) 체계의 진화 새롭게 도입된 AI 기반 ITDR 시스템은 피싱 시뮬레이션의 정교도를 높여 직원 교육 효과를 3배 향상시켰다. 사회공학적 공격 시뮬레이션은 실제 공격과 구분하기 어려울 정도로 정교해져, 보안팀 훈련의 현실성을 크게 높였다. 다요소 인증 우회 시도에 대한 시뮬레이션은 기존 취약점의 85%를 발견하는 성과를 보였다. AI로 AI를 강화하는 선순환 보안 체계 구축 생성형 AI는 자체 보안 시스템을 강화하는 데도 핵심적인 역할을 한다. AI 기반 이상 탐지 시스템 학습을 위해 대규모의 비정상 사용자 행동과 인증 시도 데이터셋을 생성할 수 있다. 이를 통해 실시간 보안 위협을 더욱 정확하게 식별할 수 있게 되었다. 특히 기존 데이터셋의 격차를 보완하는 합성 데이터 생성으로 다양한 신원과 잠재적 사기 시나리오에 대한 대표성을 확보했다. 조명 조건, 포즈, 얼굴 표정, 배경 시나리오 등의 변화를 포함한 추가 샘플을 생성하여 모델의 일반화 능력을 향상시켰다. 또한 소수 클래스(예: 희귀한 사기 사례)의 추가 예시를 생성하여 클래스 불균형 문제를 해결하고 모델 성능을 개선했다. 개발자들은 합성 데이터의 특성을 세밀하게 제어하여 실제 패턴과 일치하도록 하고 특정 검증 과제를 해결할 수 있게 되었다. AI는 기존 데이터셋의 불균형이나 불공정한 표현을 식별하고 수정하여 모델의 공정성과 포용성을 높이는 데도 활용된다. 이를 통해 대표성이 부족한 그룹에 대한 차별을 줄이고 더 공정한 모델을 구축할 수 있게 되었다. 윤리적 AI 보안을 위한 가이드라인 제시 보고서는 AI 보안 시스템 도입 시 준수해야 할 윤리적 가이드라인도 제시했다. 모든 AI 의사결정의 투명성을 보장하고, 중요 결정에는 반드시 인간 검토 과정을 포함해야 한다. 특히 계정 해지나 긴급 접근 권한 부여와 같은 결정에서 AI는 보조 수단으로만 활용되어야 한다. 또한 규제 준수를 위해 AI 의사결정 과정의 상세 로그를 최소 5년간 보관할 것을 권고했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 10:00AI 에디터

'전문지식' 무장한 딥시크 R1, 일반상식 질문엔 "포기할래"

일반인도 검증 가능한 벤치마크의 필요성 AI 모델의 능력을 평가하는 벤치마크가 점점 더 전문화되면서 새로운 문제가 대두되고 있다. 웰슬리 칼리지와 텍사스 오스틴 대학 연구진들에 따르면, 현재의 벤치마크들은 대부분 PhD를 보유했거나 취득 중인 전문가들이 설계한 것으로, 일반인들은 문제 자체를 이해하기 어려울 뿐만 아니라 답이 맞는지 검증하는 것도 쉽지 않다. 이는 AI 모델이 왜 특정 문제를 어려워하는지, 답이 정확한지, 효율적으로 추론하고 있는지를 확인하기 어렵게 만든다. 연구진은 이러한 문제가 앞으로 추론 모델이 더욱 확산됨에 따라 더욱 중요해질 것이라고 지적한다. (☞ 논문 바로가기) 실제로 높은 학위 소지가 반드시 뛰어난 추론 능력을 의미하지는 않는다. 따라서 연구진은 일반적인 지식만으로도 이해할 수 있는 문제로 구성된 벤치마크가 필요하다고 주장한다. 이러한 문제는 해결하기는 어렵더라도 답을 검증하는 것은 AI와 인간 모두에게 쉬워야 한다는 것이 연구진의 설명이다. 박사급 지식은 필요 없다... NPR 퍼즐로 AI 능력 측정 연구진이 발표한 연구 논문에 따르면, 기존 AI 모델의 평가 방식을 완전히 새롭게 접근한 벤치마크가 등장했다. 지금까지의 AI 벤치마크는 대학 수준의 수학 경진대회 문제나 고난도 프로그래밍 문제, 학문적 전문 지식이 필요한 문제들로 구성되어 왔다. 그러나 NPR 선데이 퍼즐 챌린지를 기반으로 한 이 새로운 벤치마크는 전문적인 지식 대신 일반적인 상식을 활용해 AI의 성능을 측정한다. 1987년부터 방송된 이 라디오 퍼즐 프로그램은 매주 수백에서 수천 명의 청취자들이 정답을 제출할 만큼 대중적이며, 일부 퍼즐의 경우 사전이나 지도를 참고해 풀 수 있도록 명시적으로 안내하기도 한다. 오픈AI o1, 59% 정답률로 경쟁 모델 압도 이번 연구의 가장 주목할 만한 결과는 오픈AI의 o1 모델이 59%의 정답률을 기록하며 다른 모델들을 크게 앞섰다는 점이다. o3-미니는 높은 추론 노력으로 47%, 기본 설정으로는 36%를 기록했으며, 딥시크 R1은 35%의 정답률을 보였다. 추론 기능이 없는 클로드 소넷 3.5와 GPT-4o는 각각 13%와 6%로 크게 뒤처졌다. 특히 주목할 점은, GPQA(구글 검증 Q&A)와 같은 PhD 수준의 과학 문제에서는 R1, o1, o3-미니 모델들이 비슷한 성능을 보였던 것과 달리, 이번 일반 상식 벤치마크에서는 모델 간 성능 차이가 뚜렷하게 나타났다는 것이다. 595문제 중 142건 포기 선언한 딥시크R1... 실패 유형 2가지 연구진은 AI 모델들의 새로운 실패 패턴을 발견했다. 딥시크 R1의 경우 595개의 도전 과제 중 142개에서 "포기할래"라고 선언했다. 실패 유형은 크게 두 가지로 나타났다. 첫째는 '공중에서 답 끌어내기'로, 추론 과정에서 전혀 언급하지 않은 답을 최종 답안으로 제시하는 경우다. 예를 들어 "alpha에서 중간 글자를 알파벳 순으로 이전 글자로 바꾸면 aloha가 되는" 문제에서 R1은 전혀 다른 "penne"와 "penné"를 답으로 제시했다. 둘째는 '의도적 제약조건 위반'으로, "queueing"이라는 답이 부적절하다는 것을 인정하면서도 어쩔 수 없이 답으로 제시하는 경우였다. 퍼즐의 합리성 검증 연구에 사용된 퍼즐들의 난이도가 적절했는지에 대한 의문이 제기될 수 있다. 그러나 연구진이 제시한 데이터에 따르면, "alpha에서 aloha로 바꾸는" 퍼즐의 경우 370명이 정답을 제출했고, "daiquiri" 문제는 500명이 맞췄다. NPR 선데이 퍼즐 챌린지의 청취자 수가 약 400만 명으로 추정되는 것을 고려하면, 이 문제들이 도전적이면서도 충분히 풀 수 있는 수준임을 보여준다. 또한 정답자들이 대부분 동일한 답에 도달했고 오답 제출이 드물었다는 점에서, 퍼즐의 답이 명확하고 검증 가능하다는 것을 입증한다. 이는 AI 모델의 오답이 문제의 모호성이나 난이도가 아닌 모델 자체의 한계에서 비롯되었음을 시사한다. R1의 영원한 생각 현상과 32,768 토큰의 한계 연구진은 R1 모델이 특정 문제에서 사고를 멈추지 못하는 현상을 발견했다. 32,768 토큰이라는 출력 제한에도 불구하고, 50개의 도전 과제에서 R1은 추론을 완료하지 못했다. 특히 "서로 다른 13개 글자로 구성된 미국 도시 이름 찾기"와 "7글자 음식 이름에서 첫 글자를 다섯 번째 위치로 옮기면 동의어가 되는 단어 찾기(brisket → risk, bet)" 문제에서 이러한 현상이 두드러졌다. 최대 컨텍스트 창(128K)으로 실험을 진행했을 때도 각 문제에서 10번 중 2번은 추론을 완료하지 못했다. 3,000 토큰 vs 10,000 토큰: AI 추론의 최적점 발견 연구진의 추론 과정 분석 결과, 대부분의 도전 과제는 20,000토큰 미만의 추론 출력을 생성했다. 제미니 씽킹은 약 10,000토큰에서 정확도가 정체된 반면, R1은 3,000토큰 정도에서 제미니 씽킹의 성능을 추월하기 시작했다. 모델의 불확실성도 관찰되었는데, R1은 29건, 제미니 씽킹은 18건, o1-미니는 3건의 사례에서 답을 번복했다. 한 가지 흥미로운 사례로, 7개 항목을 가진 카테고리를 찾는 문제에서 R1은 정답인 '대륙'을 초반에 발견했음에도 불구하고 다른 답을 계속 탐색하다가 결국 처음 찾은 답으로 회귀하는 모습을 보였다. GPQA 9.1%에서 GSM8K 97%까지: AI 벤치마크의 현주소 최근 AI 모델들의 성능이 급속도로 발전하면서 기존 벤치마크들이 빠르게 포화상태에 도달하고 있다. GPQA의 경우 물리학, 화학, 생물학 분야의 PhD 과정 전문가들이 만든 문제들로 구성되었지만, 최신 추론 모델들은 불과 몇 달 만에 이를 정복했다. HLE(Humanity's Last Exam)는 더 광범위하고 어려운 문제들로 구성되어 있으나, 여기서도 오픈AI o1이 9.1%의 정확도를 기록했다. 수학 분야에서는 더욱 두드러진 성과를 보여, GSM8K 같은 벤치마크에서 97% 이상의 정확도를 달성했다. 그러나 이번 NPR 퍼즐 챌린지는 AI 모델들이 여전히 일반 상식 영역에서는 한계를 보인다는 것을 증명했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 08:36AI 에디터

AI 자율성 높아질수록 인간 역할 줄어든다…섬뜩한 경고

자율성 확대되는 AI 에이전트...2024년 말 급격히 증가 허깅페이스(Hugging Face)의 연구진들이 발표한 논문에 따르면, 대규모 언어모델(LLM)의 벤치마크 정확도가 급격히 향상되면서 2024년 말부터 자율적이고 목표 지향적인 시스템인 'AI 에이전트'가 차세대 AI 기술로 부상하고 있다. 현재 많은 AI 에이전트들은 LLM을 더 큰 다기능 시스템에 통합하여 구축되고 있다. 실제 사례로는 회의 조직, 개인화된 소셜 미디어 게시물 생성, 자율 주행, 의료 서비스, 제조업 등 다양한 분야에서 활용되고 있다. (☞ 논문 바로가기) AI 에이전트의 정의와 특성...비결정적 환경에서 맥락 특화 계획 수립 연구진은 AI 에이전트를 "비결정적 환경에서 맥락 특화된 계획을 수립할 수 있는 컴퓨터 소프트웨어 시스템"으로 정의했다. 최근 도입된 AI 에이전트들의 공통점은 일정 수준의 자율성을 가진다는 것이다. 목표가 주어지면 이를 하위 작업으로 분해하고 각각을 직접적인 인간의 개입 없이 실행할 수 있다. 예를 들어, 이상적인 AI 에이전트는 "AI 에이전트에 관한 훌륭한 ICML 논문 작성을 도와줘"라는 상위 수준의 요청을 받았을 때, 이를 자동으로 하위 작업으로 나눌 수 있다. 여기에는 인용도가 높은 ICML 논문 검색, 인터넷에서 AI 에이전트 관련 정보 수집, 그리고 수집된 내용을 바탕으로 한 개요 작성 등이 포함된다. 이러한 AI 에이전트들은 대부분 ML 모델, 특히 LLM을 기반으로 구축되어 있어 기존의 컴퓨터 소프트웨어 실행 방식과는 다른 새로운 접근 방식을 보여준다. 5단계로 구분되는 AI 에이전트의 자율성...완전 자율 단계 위험 연구진은 AI 에이전트의 자율성 수준을 세분화하여 분석했다. 가장 기본적인 단계인 단순 프로세서는 LLM 출력을 단순히 출력하는 수준에 머무른다. 그 다음 단계인 라우터는 if-then 구조를 통해 기본적인 프로그램의 흐름을 결정할 수 있다. 세 번째 단계인 도구 호출은 함수와 인자를 선택하여 실행할 수 있는 능력을 가지고 있으며, 네 번째 단계인 다단계 에이전트는 while 루프를 통해 다음 단계를 결정하고 실행할 수 있다. 마지막 단계인 완전 자율 에이전트는 사용자의 요청에 따라 독자적으로 코드를 생성하고 실행할 수 있다. 각 단계가 올라갈수록 인간의 통제력은 줄어들고 시스템의 자율성은 증가하게 된다. AI 에이전트의 핵심 가치와 위험성...안전성·정확성·신뢰성 우려 연구진이 분석한 AI 에이전트의 가치와 위험성은 다양한 측면에서 나타난다. 안전성 측면에서는 예측 불가능한 행동으로 인한 인명 피해의 위험이 존재한다. 정확성 측면에서는 LLM 기반 모델이 가진 부정확성이 자율성이 증가할수록 더욱 증폭되는 문제가 있다. 일관성 측면에서는 비결정적 특성으로 인해 결과를 예측하기 어렵다는 한계가 있으며, 효율성 측면에서는 복잡한 오류를 수정하는 데 많은 시간이 소요된다는 문제가 있다. 형평성 측면에서는 데이터의 편향성으로 인한 차별이 심화될 수 있으며, 유연성 증가는 다양한 시스템 연동으로 인한 보안 위험을 수반한다. 또한 인간친화성 측면에서는 과도한 의존과 감정적 얽힘의 위험이, 개인정보보호 측면에서는 민감 정보 노출의 위험이 존재한다. 시스템의 관련성이 높아질수록 개인화로 인한 편향이 강화될 수 있으며, 보안 측면에서는 시스템 접근 취약점이 확대된다. 지속가능성 측면에서는 높은 탄소 배출과 물 사용량이 문제가 되며, 신뢰도와 진실성 측면에서는 검증이 불가능하고 허위정보가 생성되고 확산될 위험이 있다. 자율주행차부터 자율무기까지...현재 개발되는 AI 에이전트의 현주소 현재 AI 에이전트는 다양한 분야에서 급속도로 발전하고 있다. 자율주행차의 경우 센서를 통해 환경을 인식하고 인간의 개입 없이 주행하는 수준에 도달했으며, 이는 소비자용 차량부터 완전 자율주행 테스트 환경의 차량까지 다양한 자율성 수준으로 개발되고 있다. 산업용 로봇의 경우 제조업에서 시작하여 의료 분야까지 그 영역을 확장하고 있으며, 최근에는 최신 LLM이 로봇 시스템에 통합되면서 고전적인 로봇공학이 에이전트 AI 영역으로 빠르게 편입되고 있다. 특히 우려되는 것은 자율무기 시스템의 개발이다. 이는 인간의 의미 있는 통제 없이 목표물을 식별하고 공격할 수 있는 시스템으로, 윤리적 책임성과 도덕적 책임, 안전성 측면에서 디지털 에이전트보다 더 심각한 문제를 제기한다. 인간의 목표와 맞지 않는 경우 발생할 수 있는 피해는 완전 자율성이 부여될 때 더욱 심각해질 수 있다. AI 에이전트에 대한 대립되는 관점들...완전 자율 AI의 필요성 주장도 AI 에이전트 개발을 둘러싼 학계의 의견은 크게 둘로 나뉜다. 일부 연구자들은 완전 자율 AI나 '완전한 에이전트'가 인간 지능을 더 잘 이해하는 데 도움이 될 수 있다고 주장한다. 또한 강한 AI 시스템이 인간의 오류와 비합리성을 상쇄하는 데 도움이 될 수 있다는 의견도 있다. 특히 인공일반지능(AGI) 개발을 목표로 하는 연구자들과 기업들은 AGI가 실현된다면 필연적으로 완전 자율성을 가지게 될 것이라고 전망한다. AGI 지지자들은 이를 통해 기후변화나 기아와 같은 전 지구적 문제를 해결하고 상당한 경제적 이익을 창출할 수 있다고 주장한다. 그러나 연구진은 AGI가 개발된다 하더라도 인간이 항상 일정 수준의 통제권을 유지해야 하며, 이번 연구에서 제시한 에이전트 수준 구분이 향후 AGI 개발 목표 설정에도 도움이 될 것이라고 제안했다. 반자율 시스템 도입과 인간 통제 강화로 위험 최소화해야 연구진은 완전 자율 시스템 개발의 대안으로 '반자율(semi-autonomous)' 시스템의 도입을 제안했다. 이를 위해서는 우선 AI 에이전트의 자율성 수준을 명확히 구분하고 이를 개발 과정에 반영해야 한다. 또한 기술적 수준과 정책적 수준 모두에서 강력한 인간 감독 프레임워크를 개발해야 하며, 이는 유익한 반자율 기능을 보존하면서도 의미 있는 인간의 감독을 가능하게 하는 것을 목표로 한다. 마지막으로 AI 에이전트가 의도된 작동 범위 내에서만 움직이도록 하는 새로운 안전성 검증 방법의 도입이 필수적이다. 연구진은 1980년 북미 지역에서 발생한 사례를 경고의 시그널로 제시했다. 당시 컴퓨터 시스템이 2,000여 개의 소련 미사일이 북미를 향해 날아오고 있다고 잘못 판단했고, 이로 인해 폭격기 승무원들이 비상 대기 상태에 들어가고 지휘소가 전쟁 준비에 돌입하는 상황이 발생했다. 다행히 당시에는 서로 다른 경보 시스템 간의 인간 교차 검증이 이루어져 오경보임이 밝혀졌다. 이처럼 자동화 시스템의 오류는 치명적인 결과를 초래할 수 있으며, AI 시스템에서도 인간의 판단과 맥락 이해가 필수적이라고 연구진은 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 21:54AI 에디터

AI 제안을 무조건 따르나요…EU가 경고하는 '자동화 편향성'

15%에 달하는 AI 시스템이 고위험...EU, 자동화 편향성 첫 법제화 옥스포드 인터넷 연구소의 요한 로욱스(Johann Laux)와 하겐대학교의 한나 루셰마이어(Hannah Ruschemeier) 교수가 발표한 연구에 따르면, 유럽연합(EU)의 AI법(AI Act)은 인공지능 시스템을 감독하는 인간의 편향성 문제를 처음으로 법제화했다. EU 집행위원회는 EU 시장의 AI 시스템 중 5-15%가 고위험 시스템으로 분류될 것으로 예상했다. 특히 AI법 제14조는 고위험 AI 시스템에 대한 인간의 감독을 의무화하면서, '자동화 편향성(Automation Bias)'이라는 심리적 현상을 명시적으로 언급했다. (☞ 논문 바로가기) 유럽의회 경고...2021년 AI법 초안에 자동화 편향성 포함 AI법의 입법 과정을 보면, 2021년 4월 21일 위원회 초안에서 처음으로 자동화 편향성이 언급됐다. 유럽의회는 "AI 역량이 보안 위험을 초래할 수 있으며, 인간이 자신의 판단보다 AI를 더 신뢰하게 될 수 있다"고 경고했다. 또한 "실험 결과가 보여주듯이, 이는 AI의 자율성 수준을 원래 설계된 지원 역할 이상으로 높일 수 있으며, 인간이 AI 시스템에 대한 경험과 지식을 쌓을 기회를 놓치게 된다"고 지적했다. 의료에서 국가안보까지...자동화 편향성이 영향 미치는 10개 분야 자동화 편향성은 다양한 분야에서 확인됐다. 연구진이 밝힌 주요 영향 분야는 의료, 군사, 인사관리, 국가안보, 공공행정, 교육, 공공계약 입찰, 망명 심사, 형사 소송, 민주적 절차 등이다. 발생 원인으로는 사용자의 피로도, 성실성, 결과에 대한 책임, 교육 수준, 정보 제시 방식, 시스템 인터페이스 설계, 환경적 제약, 업무 부하, 과제 복잡성, 사회적 환경 등이 복합적으로 작용한다. 채용 AI 사례로 본 편향성 판단의 어려움...여성 선발률 75%가 불공정한가? 연구진은 채용 AI 시스템 사례를 통해 편향성 판단의 복잡성을 설명했다. AI 시스템 공급자는 불공정 여부를 판단하기 위한 기준으로 '소수 그룹의 선발률이 최고 선발률의 80% 이상이어야 한다'는 자체 기준을 제시했다. 전체 지원자가 남녀 각각 10명일 때, 여성 3명(30%)과 남성 4명(40%)이 면접 대상자로 선발된 경우를 보자. 여성 선발률이 남성 선발률의 75%로, 공급자가 제시한 80% 기준에 미달해 수치상으로는 불공정하다. 그러나 연구진은 이런 통계적 증거만으로는 실제 불공정 여부를 판단하기 어렵다고 지적했다. AI법 제14조에 따르면 인간 감독자는 단순히 AI 공급자가 제시한 통계적 기준이 아닌, EU 차별금지법의 요구사항을 고려해야 한다. EU 차별금지법은 지금까지 통계적 증거보다는 맥락과 사법적 직관에 더 의존해왔다. 즉, 공급자의 통계적 기준을 충족하지 못했더라도, 구체적인 상황과 맥락을 고려했을 때는 해당 채용 과정이 공정하다고 판단될 수 있다는 것이다. 이는 편향되지 않은 '참된 결과'를 정의하는 것이 얼마나 어려운지를 보여주는 사례다. AI법 제6조의 허점...인간 검토만 있으면 고위험 제외 AI법 제6조(3)은 중요한 보호의 공백을 만들 수 있다고 연구진은 지적했다. 이 조항에 따르면 "적절한 인간 검토 없이 이전 평가를 대체하거나 영향을 미치지 않는" AI 시스템은 고위험으로 분류되지 않는다. 하지만 시스템이 단순히 '지원' 역할만 한다고 해도 자동화 편향성으로 인해 인간이 AI의 제안에 과도하게 의존할 수 있다. 더욱이 AI의 영향을 받지 않았다는 것을 증명하기도 어렵다. 이는 사전 검토 없이 공급자의 자체 평가에만 의존하기 때문에 상당한 보호의 공백이 생길 수 있다는 것이 연구진의 분석이다. AI 불신도 문제...과잉수정이 가져올 수 있는 부작용 자동화 편향성을 막으려는 조치들이 오히려 AI 시스템에 대한 과도한 불신을 초래할 수 있다고 연구진은 경고했다. 이러한 과잉수정은 AI 도입으로 얻을 수 있는 이점을 저해할 수 있다. AI법 제14조는 이런 맥락에서 해석될 수 있는데, AI 시스템의 제안을 잘못 거부하는 것이 잘못 수용하는 것보다 덜 문제가 된다는 규범적 선택을 반영한다는 것이다. 이는 인간의 자율성을 우선시하되, 그 대가로 발생할 수 있는 인간의 실수를 감수하겠다는 의미로 해석된다. EU GDPR과의 관계...AI 감독자 인식 개선만으로는 부족 AI법은 GDPR(일반 데이터 보호 규정)과 함께 적용된다. 최근 유럽사법재판소의 SCHUFA 판결에 따르면, AI법 제14조와 제26조의 요구사항을 충족하더라도 GDPR 제22조의 자동화된 결정으로 간주될 수 있다. 즉, 형식적으로 책임자에게 결정 권한이 있더라도, 최종 결정이 자동화된 이전 결정에 크게 의존한다면 자동화된 결정으로 볼 수 있다는 것이다. 골드 스탠다드는 실험적 검증...비용 문제로 전면 도입은 난관 연구진은 자동화 편향성 방지를 위한 최선의 방안으로 실험적 검증을 제시했다. 특정 감독 체계에서 자동화 편향성이 발생할 가능성을 경험적으로 테스트하는 것이다. 대안으로는 현재의 과학적 연구 결과를 반영한 체크리스트 도입을 제안했다. 다만 실험적 검증은 모든 고위험 AI 시스템에 적용하기에는 비용이 많이 든다는 한계가 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 20:17AI 에디터

머스크의 '그록3', 추론-미니 추론 2종 나와…1주일 후 음성 모드 추가

테크크런치(TechCrunch)가 19일(현지 시간) 보도한 내용에 따르면 일론 머스크의 인공지능 기업 엑스AI(xAI)가 17일(현지시간) 새로운 AI 모델 '그록3(Grok 3)'을 공개했다. 이와 함께 그록 iOS 앱과 웹 앱의 새로운 기능도 선보였다. 그록3는 오픈AI(OpenAI)의 GPT-4o와 구글(Google)의 제미나이(Gemini)에 대항하는 모델이다. 이미지 분석과 질문 응답이 가능하며, 머스크의 소셜 네트워크 X(구 트위터)의 다양한 기능을 지원한다. 엑스AI는 멤피스에 위치한 대규모 데이터센터에서 약 20만 개의 GPU를 활용해 그록3를 학습시켰다. 머스크는 X를 통해 "그록3가 이전 모델인 그록2보다 10배 더 많은 컴퓨팅 파워로 개발됐다"고 밝혔다. 그록3는 '그록3 추론(Grok 3 Reasoning)'과 '그록3 미니 추론(Grok 3 mini Reasoning)' 등 여러 모델로 구성됐다. 이들은 오픈AI의 o3-미니(o3-mini)와 중국 딥시크(DeepSeek)의 R1처럼 문제를 '사고'하며 해결하는 기능을 갖췄다. 또한 '딥서치(DeepSearch)'라는 새로운 기능을 통해 인터넷과 X 플랫폼을 검색하여 질문에 대한 요약된 답변을 제공한다. X 프리미엄플러스(Premium+) 구독자($50/월)가 그록3를 먼저 사용할 수 있다. 추가 기능은 '슈퍼그록(SuperGrok)' 요금제($30/월 또는 $300/년)를 통해 이용 가능하다. 머스크는 "약 1주일 후에 음성 모드가 추가되고, 몇 주 후에는 기업용 API를 통해 그록3 모델과 딥서치 기능을 제공할 계획"이라고 밝혔다. 또한 "그록3가 안정화되면 그록2를 오픈소스로 공개할 예정"이라고 덧붙였다. 엑스AI는 그록3가 수학 문제 평가 벤치마크인 AIME와 박사급 물리, 생물, 화학 문제를 평가하는 GPQA에서 GPT-4o를 능가했다고 주장했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.18 20:13AI 에디터

[Q&AI] 국내 첫 대체거래소 '넥스트레이드'…거래 가능 종목 10개는?

질문1: 한국에 대체 거래소가 생긴다고 하는데, 뭐가 달라지는 거야? 앨런 답변: 한국의 첫 대체 거래소인 '넥스트레이드'가 3월 4일에 출범할 예정입니다. 이로 인해 여러 가지 변화가 예상됩니다. 거래 시간 연장: 기존 한국거래소(KRX)의 거래 시간은 오전 9시부터 오후 3시 30분까지였으나, 넥스트레이드는 오전 8시부터 저녁 8시까지 거래가 가능합니다. 프리마켓(오전 8시~8시 50분)과 애프터마켓(오후 3시 30분~8시)을 운영하여 투자자들에게 더 많은 거래 기회를 제공합니다. 수수료 절감: 넥스트레이드는 기존 거래소보다 20~40% 저렴한 수수료를 제공할 예정입니다. 이는 단기 매매를 선호하는 투자자들에게 유리할 수 있습니다. 거래 종목 확대: 초기에는 10개 종목만 거래 가능하지만, 점차 거래 종목을 800개로 확대할 계획입니다. 삼성전자와 주요 삼성그룹주는 3월 24일부터 거래가 가능해질 예정입니다. 새로운 호가 방식 도입: 중간가주문과 같은 새로운 호가 방식이 도입되어 투자자들이 보다 유연한 거래를 할 수 있게 됩니다. 시장 경쟁 촉진: 넥스트레이드의 출범으로 한국 주식시장은 복수 거래소 체제로 전환됩니다. 이는 한국거래소의 독점 체제를 깨고, 자본시장의 발전에 기여할 것으로 기대됩니다. 투자자 편의성 증대: 거래 시간이 연장됨에 따라 직장인들도 퇴근 후 주식 거래에 참여할 수 있으며, 저녁 시간에 발생할 수 있는 이슈에 대한 대응력이 높아집니다. 그러나 대체 거래소의 안전성에 대한 우려와 고빈도매매와 같은 초단타 거래 증가 가능성도 지적되고 있습니다. 초기 정착에는 시간이 필요할 것으로 보이며, 지속적인 투자자 보호와 안정성 확보가 중요합니다. 질문2. 넥스트레이드에서 거래 가능한 종목은 어떤 것들이 있나요? 앨런 답변: 넥스트레이드에서 출범 초기인 3월 4일부터 거래 가능한 종목은 다음과 같습니다. 코스피 종목 롯데쇼핑 제일기획 코오롱인더스트리 LG유플러스 S-OIL 코스닥 종목 골프존 동국제약 에스에프에이 YG엔터테인먼트 컴투스 이들 종목은 초기 1~2주 동안 거래되며, 점차적으로 거래 종목을 확대하여 5주 차에는 800개 종목으로 늘릴 계획입니다. ■ 기사는 앨런을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 17:13AI 에디터

알트먼의 깜짝 고백…"GPT-4.5에서 AGI 느꼈다"

오픈AI의 샘 알트먼 CEO가 새로운 언어모델 'GPT-4.5'에 대한 흥미로운 소감을 밝혔다. 알트만 CEO는 18일(현지 시간) 자신의 소셜미디어 X(구 트위터)를 통해 "GPT-4.5를 시험해본 전문가들 사이에서 예상보다 더 강한 'AGI(인공일반지능, Artificial General Intelligence)를 느끼는 순간'이었다는 반응이 나왔다"고 전했다. 알트먼 CEO는 음성 기능과 관련된 질문에 "GPT-4.5에는 포함되지 않았지만, 향후 제품에서는 매우 중요한 부분이 될 것"이라며 "훨씬 더 나은 기능을 만들고 싶다"고 답변했다. 한편, 이번 발언은 경쟁사 엑스AI의 그록(Grok) 3 출시설이 나돌고 있는 가운데 나온 것이어서 AI 업계의 주목을 받고 있다. 이 소식은 알트먼 CEO의 게시물이 170만 회 이상의 조회 수를 기록하며, AI 개발 경쟁이 한층 더 가열되고 있음을 보여주고 있다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 15:08AI 에디터

머스크, '그록3' 마침내 공개…GPT-4o 제치고 챗봇 성능 1위

수학·과학·코딩 테스트에서도 강력한 성능 입증 xAI가 새롭게 출시한 인공지능 챗봇 '그록3'가 AI 성능 평가 플랫폼 Chatbot Arena에서 최상위 점수를 기록하며 경쟁 모델들을 압도했다. 18일(한국 시간) 오후 1시 xAI 공식 X에서 진행된 '그록3 출시' 라이브에 따르면, '그록3'는 OpenAI의 GPT-4o, Google DeepMind의 Gemini-2 Pro, Anthropic의 Claude 3.5 Sonnet 등을 제치고 챗봇 성능 순위 1위에 올랐다. (☞ 발표 바로가기) 그록3, AI 챗봇 성능 평가 1위 차지 최근 공개된 Chatbot Arena의 성능 비교 차트에 따르면, '그록3'는 경쟁 모델을 상대로 가장 높은 점수를 기록했다. 특히 LMSYS의 순위 평가에서 '그록3'는 독보적인 점수로 1위를 차지했으며, 신뢰 구간(오차 범위) 역시 경쟁 모델들보다 안정적인 것으로 나타났다. LMSYS의 Chatbot Arena는 익명의 AI 모델을 사용자가 직접 비교 평가하는 방식으로 운영되며, AI 챗봇 간의 실제 사용자 피드백을 기반으로 순위를 산정한다. 이번 결과는 '그록3'가 실사용 환경에서 GPT-4o나 Gemini-2 Pro보다 더 나은 성능을 발휘했음을 시사한다. 벤치마크 테스트에서도 두각 또한 Benchmarks테스트에서도 '그록3'는 수학(AIME 2024), 과학(GPQA), 코딩(LCB Oct-Feb) 항목에서 경쟁 모델 대비 압도적인 성적을 기록했다. 수학(AIME 2024):52점(그록3) vs. 40점(GPT-4o), 39점(Claude 3.5 Sonnet) 과학(GPQA):75점(그록3) vs. 65점(Gemini-2 Pro, GPT-4o), 50점(Claude 3.5 Sonnet) 코딩(LCB Oct-Feb):57점(그록3) vs. 41점(GPT-4o), 40점(Gemini-2 Pro) 이는 AI 모델의 논리적 추론 및 문제 해결 능력을 평가하는 핵심 지표로, '그록3'가 특정 영역에서 기존 모델들보다 더 뛰어난 성능을 보였다는 점을 확인할 수 있다. xAI, 그록3로 AI 경쟁에서 우위 점할까? xAI는 일론 머스크가 설립한 AI 연구 기업으로, 경쟁사 대비 보다 자유로운 답변을 생성하는 AI 모델을 개발하는 것을 목표로 한다. '그록3'는 이전 모델보다 자연어 이해와 생성 능력이 크게 향상되었으며, 특히 복잡한 문제 해결과 프로그래밍에서 높은 성과를 보이고 있다. 이번 '그록3'의 성능 결과는 AI 시장에서 OpenAI, Google DeepMind, Anthropic과의 경쟁이 더욱 치열해지고 있음을 의미한다. GPT-4o와 Gemini-2 Pro가 시장을 선도하고 있는 가운데, '그록3'가 실제 제품화 과정에서 어떤 차별점을 가질지 주목된다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 14:22AI 에디터

美 법원 "AI도 저작권 위반"...챗GPT·클로드 떨고 있다

미국에서 AI 학습데이터 관련 첫 저작권 침해 판결이 나왔다. 테크크런치(TechCrunch)가 17일(현지 시간) 보도한 내용에 따르면, 미국 연방법원은 지난주 법률 테크 기업 로스인텔리전스가 톰슨로이터스의 콘텐츠를 무단으로 AI 학습에 사용한 것이 저작권을 침해했다고 판결했다. 로스인텔리전스는 톰슨로이터스의 법률 연구 서비스인 웨스트로(Westlaw)의 판례 요약본(headnotes)을 AI 학습에 활용했다. 이 회사는 해당 데이터 사용이 '변형적 사용'으로 합법이라고 주장했다. 하지만 스테파노스 비바스(Stephanos Bibas) 판사는 이를 인정하지 않았다. 비바스 판사는 "로스인텔리전스가 웨스트로의 판례 요약본을 단순 재포장했을 뿐, 새로운 의미나 목적을 추가하지 않았다"고 판단했다. 시러큐스 대학교의 슈바 고시(Shubha Ghosh) 교수는 "이번 판결은 톰슨로이터스의 강력한 승리"라고 평가했다. 홀 에스틸(Hall Estill) 법률사무소의 랜디 매카시(Randy McCarthy) 변호사는 "이번 판결이 AI 학습데이터의 공정사용 여부에 대한 하나의 전투일 뿐"이라며 "더 많은 판례가 필요하다"고 말했다. 현재 미국에서는 39건 이상의 AI 관련 저작권 소송이 진행 중이다. 이번 판결은 생성형 AI와 일반 AI를 구분했지만, 향후 뉴스 사이트나 콘텐츠 제작자들의 소송에 영향을 미칠 수 있다는 전망이 나온다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 14:16AI 에디터

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 '갤럭시 XR', 한·미 동시 출시...출고가 269만원

네이버·카카오, 커머스·광고로 3분기 나란히 성장

"LG 로봇 군단, 산업·서비스·거실 장악할 것"

IQM "양자컴퓨터 내부 완전 개방...한국 부품 공급 파트너 찾는다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.