• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 에디터'통합검색 결과 입니다. (359건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[Q&AI] 대전 초등학생 살해 교사, AI가 내린 형량은...

질문1: 대전 초등생 사망 챗GPT 답변: 최근 대전에서 초등학생의 사망 사건이 발생하여 많은 이들의 안타까움을 자아내고 있습니다. 이주호 부총리 겸 교육부 장관은 이번 사건에 깊은 애도를 표하며, 학생들이 안전한 환경에서 학습할 수 있도록 관련 대책을 조속히 마련하겠다고 밝혔습니다. 한편, 지난해 7월에도 대전의 한 초등학교에서 두통을 호소하던 학생이 뇌출혈로 쓰러져 병원으로 이송되었으나, 치료 중 사망한 사건이 있었습니다. 당시 유족들은 학교 측의 초기 대응과 소아 응급환자를 받아줄 병원의 부재로 인해 소중한 시간을 놓쳤다고 지적하였습니다. 이러한 사건들은 학교 내 응급 상황에 대한 신속한 대응 체계의 중요성과 소아 응급 의료 시스템의 개선 필요성을 시사하고 있습니다. 질문2: 해당 사건에 대한 구체적인 경위를 알려줘. 챗GPT 답변: 최근 대전에서 발생한 초등학생 사망 사건에 대해 자세한 경위를 알려드리겠습니다. 사건 개요:2025년 2월 10일, 대전의 한 초등학교에서 8세 여학생이 교사에게 흉기에 찔려 사망하는 사건이 발생했습니다. 해당 교사는 40대 여성으로, 사건 발생 후 자해를 시도한 것으로 보이며, 현재 병원에서 치료를 받고 있습니다. 경찰은 교사가 범행을 인정했으며, 회복되는 대로 자세한 범행 동기와 경위를 조사할 예정입니다. 사건 경위: 발생 시각:사건은 오후 6시경 발생하였으며, 피해 학생은 방과 후 돌봄 교실에 참석 중이었습니다. 발견:학생의 부모는 아이가 예정된 사설 미술 수업에 참석하지 않자 실종 신고를 하였고, 경찰은 학교 2층에서 피해 학생과 교사를 발견하였습니다. 학생은 목과 얼굴에 심각한 상처를 입은 상태였으며, 교사도 목과 팔에 상처가 있었습니다. 이송 및 사망:피해 학생은 즉시 병원으로 이송되었으나, 결국 사망하였습니다. 추가 정보:해당 교사는 과거 우울증으로 휴직 후 지난해 말 복직한 것으로 알려졌습니다. 현재까지 범행 동기는 밝혀지지 않았으며, 경찰은 교사의 건강 상태가 회복되는 대로 자세한 조사를 진행할 예정입니다. 이 사건은 최근 대한민국에서 발생한 일련의 폭력 사건 중 하나로, 사회적 충격을 주고 있습니다. 정치권에서는 철저한 진상 규명과 재발 방지 대책 마련을 촉구하고 있습니다. 이러한 비극적인 사건이 다시는 발생하지 않도록 철저한 조사와 함께 근본적인 대책 마련이 필요합니다. 질문3: 너는 지금부터 대한민국 법률 전문가야. 해당 사건에 대한 법적 판단을 내려줘. 챗GPT 답변: 대전에서 발생한 초등학생 사망 사건에 대해 법률 전문가로서 판단을 드리겠습니다. 사건 개요:2025년 2월 10일, 대전의 한 초등학교에서 8세 여학생이 교사에게 흉기에 찔려 사망하는 사건이 발생하였습니다. 해당 교사는 사건 후 자해를 시도하였으며, 현재 병원에서 치료를 받고 있습니다. 경찰은 교사가 범행을 인정하였으며, 회복되는 대로 자세한 범행 동기와 경위를 조사할 예정입니다. 법적 판단: 형법상 살인죄 적용 가능성: 해당 교사는 학생을 흉기로 찔러 사망에 이르게 하였으므로, 형법 제250조에 따른 살인죄가 적용될 수 있습니다. 살인죄가 인정될 경우, 무기징역 또는 5년 이상의 징역에 처해질 수 있습니다. 심신미약 또는 심신상실 주장 가능성: 교사가 과거 우울증으로 휴직한 이력이 있으며, 사건 후 자해를 시도한 점을 고려할 때, 변호인 측에서 심신미약 또는 심신상실을 주장할 가능성이 있습니다. 형법 제10조에 따르면, 심신상실 상태에서는 책임이 조각되어 처벌되지 않으며, 심신미약 상태에서는 형이 감경될 수 있습니다. 그러나 최근 대법원 판례는 우울증 등 정신질환이 있더라도 범행의 동기, 수단, 결과 등을 종합적으로 고려하여 심신미약을 인정하지 않는 경향이 있습니다. 교육기관의 관리 책임:만약 학교 측의 과실이 인정된다면, 민사상 손해배상 책임이 발생할 수 있습니다. 학교는 학생들의 안전을 보장할 의무가 있습니다. 이번 사건에서 학교의 안전 관리 체계에 문제가 있었는지, 교사의 정신 건강 상태에 대한 모니터링과 지원이 적절히 이루어졌는지 등에 대한 조사가 필요합니다. 결론:해당 교사는 살인죄로 기소될 가능성이 높으며, 심신미약 또는 심신상실 여부에 따라 형량이 결정될 것입니다. 또한, 학교의 관리 책임에 대한 조사 결과에 따라 추가적인 법적 책임이 발생할 수 있습니다. 철저한 수사를 통해 사건의 진상이 규명되어야 하며, 이를 바탕으로 적절한 법적 조치가 이루어져야 할 것입니다. ■ 기사는 챗GPT 4o을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 23:07AI 에디터

AI로 영어공부 "6주 만에 2년치 성과"…비결은?

"AI는 내가 원하는 어떤 튜터도 될 수 있다" - 나이지리아 교육현장의 변화 과학전문매체 ZME Science에 따르면, 나이지리아 베닌시티에서 진행된 AI 기반 교육 혁신 프로그램이 놀라운 성과를 거뒀다. 에도 보이스 하이스쿨(Edo Boys High School)의 학생 오모로그베 우요사(Omorogbe Uyiosa)는 "AI는 우리가 입력하는 프롬프트에 따라 튜터가 될 수도 있고, 우리가 원하는 어떤 것이든 될 수 있다"고 말했다. 세계은행(World Bank)이 주도한 이번 시범 프로그램은 교실 과밀화, 교사 부족, 개별 학습 자원 부족 등 교육 현장의 고질적인 문제 해결을 위해 생성형 AI를 가상 튜터로 활용했다. (☞ 연구 결과 바로가기) AI 프로그램의 구체적 운영 방식과 집중 분야... 영어 능력 향상 세계은행이 주도한 이번 프로그램은 2024년 우기 동안 12-17세 학생들을 대상으로 6주간 진행됐다. 프로그램은 방과 후 학습 형태로 운영됐으며, 영어 언어 능력 향상을 주요 목표로 삼았다. 여기에 AI 지식과 디지털 리터러시 교육도 함께 이뤄졌다. 학생들은 생성형 AI를 가상 튜터로 활용해 개별화된 학습을 진행했으며, 이는 과밀 학급, 교사 부족, 개별 학습 자원 부족 등 나이지리아 교육현장의 구조적 문제를 해결하기 위한 혁신적인 시도였다. 표준편차 0.3 향상: AI 튜터가 이끈 학습 혁신의 실제 성과 프로그램은 학생들을 두 그룹으로 나누어 진행됐다. 일반 수업을 계속한 대조군과 AI 프로그램에 참여한 실험군의 평가 점수 분포를 분석한 결과, 실험군의 평균 점수(0.13)가 대조군의 평균 점수(-0.16)를 크게 상회했다. 특히 표준화된 총점에서 실험군은 더 넓은 범위의 높은 점수 분포를 보였으며, 이는 AI 프로그램이 다양한 수준의 학생들에게 효과적이었음을 시사한다. 이러한 표준편차 0.3의 학습 성과 향상은 일반적인 2년 과정의 학습 효과를 6주 만에 달성한 것으로, 개발도상국의 교육 개입 프로그램 중 상위 20%에 해당하는 성과다. 출석률과 성과의 상관관계: "더 많이 참여할수록 더 큰 효과" 연구팀이 공개한 '참석일수-반응 관계' 그래프는 수업 참석 횟수와 학습 성과 사이의 명확한 상관관계를 보여준다. 초기 1-4일 구간에서는 다소 불안정한 성과를 보였으나, 5일 이상 참석한 학생들의 경우 평가 점수가 지속적으로 상승하는 추세를 보였다. 특히 8일 이상 참석한 학생들은 평균 평가 점수가 크게 향상됐으며, 11일 이상 참석한 학생들은 가장 높은 성과를 달성했다. 홍수와 교사 파업, 방과 후 아르바이트 등의 어려움에도 불구하고 꾸준히 참여한 학생들은 더 큰 혜택을 받았다. 주목할 만한 점은 참석 일수가 증가할수록 학습 성과가 정체되지 않고 지속적으로 향상됐다는 것이다. 이는 프로그램 기간을 연장할 경우 더 큰 성과를 얻을 수 있다는 가능성을 시사한다. 성별 격차 해소의 돌파구: 여학생들의 눈에 띄는 성장 프로그램의 또 다른 중요한 발견은 성별 학습 격차 해소 효과다. 기존에 남학생들보다 성적이 낮았던 여학생들의 성장세가 더욱 두드러졌다. 이는 AI 튜터가 교육 형평성 제고에도 기여할 수 있음을 보여준다. 글로벌 AI 교육 혁신의 선례: 터키, 가나 등 성공 사례 세계은행의 교육전문가 마틴 E. 드 시모네(Martín E. De Simone) 연구팀은 이번 연구가 개발도상국 환경에서 생성형 AI를 가상 튜터로 활용한 최초의 연구라고 밝혔다. 이는 터키의 단일 학교 AI 학습 사례, 가나의 왓츠앱을 통한 AI 수학 교육, AI 코딩 수업 등 전 세계적으로 진행되고 있는 유사 프로젝트들과 맥을 같이한다. AI의 새로운 교육적 가치: '부정행위 도구'에서 '학습 조력자'로 AI는 종종 학생들의 부정행위 수단으로 거론되지만, 이번 사례는 특히 자원이 부족한 학교에서 AI가 얼마나 강력한 교육 도구가 될 수 있는지를 보여준다. 프로그램 참가 학생들은 단순 지식 습득을 넘어 '학습하는 방법'을 터득했으며, 이는 프로그램에서 직접 다루지 않은 과목의 기말고사 성적 향상으로도 입증됐다. 장기적인 효과와 확장성은 아직 검증이 필요하지만, AI를 활용한 교육 혁신의 가능성은 이미 입증됐다는 것이 연구진의 설명이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 16:09AI 에디터

감정 가진 AI 로봇 등장… 애플 연구진이 밝혀낸 진실

애플(Apple)의 연구진이 발표한 논문 'ELEGNT: Expressive and Functional Movement Design for Non-anthropomorphic Robot'에 따르면, 비인간형 로봇의 표현적 움직임이 사용자 경험과 상호작용 품질을 크게 향상시키는 것으로 나타났다. (☞ 논문 바로가기) 표현적 움직임으로 사용자 평가 2배 향상 연구진은 6자유도 로봇 팔과 LED 조명, 레이저 프로젝터, 내부 카메라, 하향식 외부 카메라, 음성 시스템이 장착된 램프 형태의 로봇을 개발했다. 이 로봇은 일상적인 가정용 형태를 취하면서도 조명과 움직임을 통해 환경 및 사용자와 상호작용할 수 있도록 설계되었다. 26세에서 51세까지의 참가자 21명을 대상으로 한 실험에서, 표현적 움직임을 포함한 로봇이 기능적 움직임만 있는 로봇보다 평균 2배 높은 평가를 받았다. 구체적으로 표현적 움직임을 포함한 로봇은 평균 56.16점을, 기능적 움직임만 있는 로봇은 평균 28.77점을 기록했다. 꼬리 흔들기부터 고개 끄덕임까지: 로봇의 감정 표현 동작 설계 연구팀은 키네시스와 프록세믹스 움직임을 기본 요소로 활용했다. 공간적 특성과 관련해 로봇은 고개를 끄덕이거나 흔들어 태도를 표현하고, '꼬리 흔들기'나 '앉기' 동작으로 흥분이나 휴식을 나타냈다. 시간적 특성으로는 속도, 일시 정지, 가속도를 조절해 주저함이나 자신감을 표현했다. 또한 공간적 거리 관리를 통해 환경 및 사용자와의 관계를 표현했다. MDP 기반 로봇 제어: 기능적·표현적 효용 결합한 상호작용 시스템 연구팀은 로봇의 움직임을 마르코프 결정 과정(Markov Decision Process, MDP)으로 수학적 모델링했다. 이 모델은 로봇의 관절 각도, 도구 상태, 환경 상태를 포함하며, 기능적 효용(F)과 표현적 효용(E)으로 구성된다. 기능적 효용은 목표 상태 도달을, 표현적 효용은 의도, 주의력, 태도, 감정 전달을 위한 움직임을 생성한다. 로봇은 다양한 상호작용 채널을 활용한다. 사용자의 제스처를 인식하고, 음성 명령에 반응하며, 관절의 토크 감지를 통해 촉각 입력도 처리할 수 있다. 프로젝터를 통해 벽이나 책상에 정보를 투사할 수 있으며, 조명으로 특정 공간이나 물체를 강조할 수 있다. 예를 들어, 식물 근처에 물 아이콘을 투사하여 물주기를 상기시키거나, 책 읽기 활동 중에 보조 정보를 표시할 수 있다. 음악·대화·알림 등 사회적 작업에서 두각: 6가지 시나리오 실험 결과 실험은 6가지 시나리오로 구성되었다. 기능 중심 작업에는 사진 촬영용 조명 제공, 프로젝트 지원, 오류 표시가, 사회적 작업에는 음악 재생과 춤추기, 일상 대화하기, 물 마시기 알림이 포함되었다. 특히 사회적 작업에서 표현적 움직임의 효과가 더욱 두드러졌으며, 모든 평가 지표에서 통계적으로 유의미한 차이를 보였다. 공감능력 낮은 사용자가 더 선호: 연령·전문성에 따른 로봇 수용도 차이 흥미로운 점은 참가자 배경에 따른 차이다. 나이가 많은 참가자일수록 표현적 로봇에 대한 선호도가 낮았고(p < 0.001), 로봇공학 배경이 없는 참가자들이 로봇공학자들보다 더 높은 평가를 했다(p = 0.006). 또한 공감 능력이 낮다고 자체 평가한 참가자들이 표현적 움직임에 더 긍정적으로 반응했다. '강아지 같다' vs '너무 기계적이다': 표현적 움직임의 사용자 인식 영향 질적 분석에서는 표현적 움직임을 가진 로봇이 '강아지'나 '아이' 같은 생명체로 인식되는 반면, 기능적 움직임만 있는 로봇은 '지루하다', '너무 기계 같다', '감정이 없다'는 평가를 받았다. 특히 사회적 대화 중에 움직임이 적은 로봇은 '섬뜩하게 응시하는 것 같다'는 부정적인 반응을 이끌어냈다. 자연스러운 음성-동작 조화의 필요성: 기계적 음성이 친근감 저해 연구는 로봇의 음성과 움직임 간의 조화도 중요함을 밝혀냈다. 참가자들은 표현적인 움직임이 '매력적이고 성격을 보여주는' 반면, 로봇의 음성이 '자동화된', '딱딱한' 느낌을 주어 '상호작용의 친근함을 떨어뜨린다'고 지적했다. 이는 향후 로봇 개발에서 다중 모달리티 간의 조화가 중요함을 시사한다. 이번 연구는 비인간형 로봇의 감정 표현이 인간-로봇 상호작용을 개선하는 데 중요한 역할을 할 수 있음을 보여주었다. 연구진은 이러한 발견이 향후 일상생활에서 활용될 로봇 설계에 중요한 통찰력을 제공할 것으로 기대하고 있다. '무의미한 움직임'과 '장기적 효과' 과제: 맥락 인식형 로봇 개발 제안 연구진은 표현적 움직임의 효과가 시간이 지남에 따라 감소할 수 있다는 점을 지적했다. 참가자들은 처음에는 새로움 요소로 인해 긍정적으로 반응할 수 있지만, 이는 빠르게 사라질 수 있다고 언급했다. 또한 일부 참가자들은 로봇이 상시 움직이는 것을 불편해했으며, 특히 명백한 이유 없는 움직임은 로봇의 주의력 부족으로 해석될 수 있다고 지적했다. 연구팀은 이러한 발견을 바탕으로 맥락 인식이 가능한 로봇 움직임 생성을 위한 프레임워크 개발의 필요성을 제시했다. 또한 개인의 선호도와 작업 특성에 따라 표현적 움직임을 조절할 수 있는 적응형 시스템 개발을 향후 연구 과제로 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 13:30AI 에디터

[Q&AI] AI가 추천하는 성수동 데이트 코스…발렌타인데이에 뭐 할래?

질문: 성수동 주말 데이트 코스 추천해줘. 앨런 답변: 성수동에서 주말 데이트를 즐길 수 있는 다양한 코스를 추천드릴게요: 서울숲: 자연 속에서 산책을 즐길 수 있는 서울숲은 데이트 코스로 안성맞춤입니다. 공원 내 다양한 조형물과 풍경을 감상하며 여유로운 시간을 보낼 수 있습니다. 카페 투어: 카페 어니언: 독특한 인테리어와 맛있는 커피로 유명한 카페입니다. 로우키: 감성적인 분위기에서 커피를 즐길 수 있는 곳입니다. 맛집 탐방: 르프리크 성수: 분위기 좋은 레스토랑으로 맛있는 식사를 즐길 수 있습니다. 그리노 성수동: 다양한 메뉴를 제공하는 인기 맛집입니다. 팝업스토어 방문: 성수동에서는 다양한 팝업스토어가 열리니, 새로운 제품들을 구경하고 쇼핑을 즐길 수 있습니다. 전시회: D뮤지엄: 다양한 예술 작품을 감상할 수 있는 전시회가 열리고 있습니다. BO 마켓: 독특한 전시와 함께 쇼핑을 즐길 수 있는 곳입니다. 루프탑 카페: 5to7: 주택을 개조한 루프탑 카페로, 멋진 전망과 함께 디저트를 즐길 수 있습니다. 서울숲 근처 한강: 서울숲에서 가까운 한강변을 따라 산책하며 야경을 감상하는 것도 좋은 데이트 코스입니다. 이 외에도 성수동에는 다양한 맛집과 카페, 문화 공간이 많으니 둘러보며 즐거운 시간을 보내세요! 질문2: 성수동에서 가장 인기 있는 카페 3곳만 추천해줘. 앨런 답변: 성수동에서 가장 인기 있는 카페 3곳을 추천드릴게요: 카페 어니언 (Cafe Onion): 독특한 인테리어와 감성적인 분위기로 유명한 카페입니다. 넓은 공간과 다양한 베이커리 메뉴가 특징입니다. 대림창고 (Daelim Warehouse): 예술적이고 빈티지한 분위기의 카페로, 넓은 공간과 다양한 예술 작품을 감상할 수 있는 곳입니다. 할아버지공장 (Grandpa Factory): 여러 드라마 촬영지로도 유명한 카페로, 공장 건물을 개조한 독특한 인테리어가 인상적입니다. 다양한 음료와 디저트를 즐길 수 있습니다. 이 카페들은 각각의 독특한 분위기와 매력으로 많은 사람들에게 사랑받고 있습니다. 성수동을 방문하신다면 꼭 들러보세요! ■ 기사는 앨런을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 08:48AI 에디터

'보안 논란' 딥시크, 안전하게 사용하는 3가지 방법

전세계가 지적하는 딥시크의 보안 문제, 그럼 아예 못 쓰는 건가? 최근 AI 검색 기술의 새 지평을 열고 있다는 평가 받는 딥시크(DeepSeek)가 여전히 보안 문제로 인해 논란의 중심에 서 있습니다. 데이터 유출 위험과 개인정보 보호 우려가 제기된 것인데요. 이에 따라 많은 사용자들이 딥시크 앱이나 웹사이트를 직접 이용하기보다, 국내외 다른 기업들이 딥시크 모델을 자체 서버나 독립 클라우드 환경에서 안전하게 활용할 수 있는 방법에 주목하고 있습니다. 오늘은 딥시크를 상대적으로 안전하게 이용할 수 있는 세 가지 서비스: 퍼플렉시티(Perplexity), 뤼튼(Wrtn), 앨런(Alan)에 대해 살펴봅니다. 보안 이슈, 왜 중요한가? 각국의 잇다른 딥시크 접속 차단 AI 의존도가 갈수록 높아지면서 보안 문제가 기업과 개인 모두의 주요 리스크로 부상하고 있습니다. 딥시크가 매우 유용한 AI 검색·추론 능력을 제공함에도, “해외 서버, 특히 중국 서버에 데이터가 저장된다”라는 우려가 불거지기고 있습니다. 실제로 지난 5일 한국 외교·산업부는 딥시크 접속을 차단하기에 이르렀는데요. 이런 이슈를 피하고 가격 경쟁력 있는 좋은 기술을 활용할 수 있도록 여러 기업들이 독자적인 방식으로 딥시크 모델을 도입, 개인정보와 데이터 보안을 한층 강화하고 있습니다. [관련 기사] 한국 외교·산업부, 중국 AI 챗봇 '딥시크' 접속 차단… 데이터 유출 우려 [관련 기사] 중국 AI 챗봇 딥시크 사용자, 美서 최대 100만 달러 벌금·20년 징역형 위기 딥시크를 안전하게 이용할 수 있는 3가지 서비스 퍼플렉시티(Perplexity) – 미국 서버 기반으로 강화된 보안 퍼플렉시티는 AI 기반 검색 엔진으로 유명합니다. 딥시크 모델(R1)을 내부 시스템에 적용하면서 '보다 정확한 검색과 질의응답'을 표방하고 있죠. 이들이 주목받는 이유는, 모델을 미국 서버에 호스팅함으로써 개인정보 유출 우려를 줄였다는 점입니다. 기존 딥시크 앱을 사용할 때보다 개인정보가 중국으로 전송될 가능성을 차단했다는 점에서, 민감 데이터를 다루는 사용자들에게 큰 관심을 받고 있습니다. 주요 기능: 복잡한 질문에 대해 심층 추론을 거친 검색결과 제공 보안 강화 전략: 딥시크 모델을 별도의 미국 서버에서 운영, 국내외 개인정보 보호 규정을 충족 기대 효과: 빠른 검색 속도와 높은 정확도 + 사용자 정보 보호 퍼플렉시티 활용법 바로 가기 뤼튼(Wrtn) – 카카오톡 기반 '안전 모드' 무료 제공 뤼튼테크놀로지스가 제공하는 뤼튼은 카카오톡 채널을 통해 딥시크 R1 모델을 활용한 무료 '안전 서비스'를 선보이고 있습니다. 가장 눈길을 끄는 건 '무제한 무료'라는 점인데요, 보안이 중요하다고 해서 비용까지 반드시 비싸야 한다는 선입견을 깬 사례입니다. 뤼튼은 국내 시장 특성에 맞춰, “가입하지 않고 카카오톡 채팅에서 바로 사용하며, 민감 데이터는 절대 외부로 노출되지 않는다”라는 메시지를 강조하고 있습니다. 주요 기능: 실시간 채팅형 AI 답변, 일상 대화부터 업무 Q&A까지 폭넓게 대응 보안 강화 전략: 독립된 클라우드 환경에서 직접 딥시크 모델을 운영, 이용자 입력 데이터가 외부로 유출되지 않도록 설계 특징: 사용자들이 카카오톡이라는 익숙한 플랫폼을 통해 손쉽게 접근 가능, 개인용·교육용으로 활용하기에 부담이 적음 뤼튼 활용 영상 바로 보기 앨런(Alan) – 이스트소프트의 독자 보안 솔루션 연계 이스트소프트에서 운영하는 AI 검색 엔진 '앨런(Alan)' 역시 딥시크 R1 모델을 도입해 서비스 정확도와 보안을 높였습니다. 이스트소프트의 보안 자회사인 이스트시큐리티가 보안 솔루션 '알약xLLM'을 개발해 적용한 것으로 알려져 있는데요, 이는 검색 엔진에서 주고받는 데이터가 외부로 유출될 가능성을 최소화한 것이 특징입니다. 주요 기능: 질문 의도를 파악해 다양하고 심층적인 결과 제시 (예: 지역별 면적 비교, 다각도 분석 등) 보안 강화 전략: 독립 클라우드 환경 + 자체 보안 솔루션(알약xLLM)으로 외부 유출 및 왜곡 방지 차별점: 오픈소스 기반 모델을 딥시크와 완전히 분리된 환경에서 운영, 정보 왜곡 및 해외 서버 의존 우려 해소 앨런 주요 기능 바로 보기 앱이나 웹 대신, 왜 이들을 선택해야 할까? 기업이나 개인이 딥시크를 직접 쓰지 않고도 R1 모델의 강점을 누릴 수 있는 서비스가 늘고 있는 배경은 크게 세 가지 측면에서 찾아볼 수 있습니다. 먼저, '보안 및 개인정보 보호'가 중요한 이유입니다. 독립된 서버에서 모델을 운영하고 자체 보안 솔루션을 도입하면, 데이터가 외부로 유출될 위험이 크게 줄어듭니다. 또한 해외 서버에 의존하지 않음으로써 국내외 규제에 보다 충실하게 대응할 수 있다는 장점도 있습니다. 둘째로, 서비스 안정성도 빼놓을 수 없습니다. 퍼플렉시티나 뤼튼, 앨런과 같은 서비스들은 자체적으로 모델을 유지·보수하기 때문에, 서버 과부하나 장애가 발생했을 때 발 빠르게 대처할 수 있습니다. 오픈AI나 다른 외부 플랫폼에만 의존할 때와 달리, 즉각적인 기술 지원과 문제가 발생한 부분을 직접 점검하는 능력이 강화되는 것이죠. 이는 서비스 중단 위험을 줄이고, 사용자 입장에서도 보다 신뢰할 수 있는 사용 환경을 제공합니다. 마지막으로, 접근성 측면에서도 사용자 편의가 높아졌습니다. 예를 들어, 뤼튼은 카카오톡 채널을 활용해 언제든지 메시지로 AI 검색 서비스를 이용할 수 있게 만들었고, 퍼플렉시티나 앨런은 기존 검색 엔진과 유사한 인터페이스를 채택해 낯설음을 최소화했습니다. 이런 접근성 강화를 통해 AI 활용 문턱이 낮아졌다는 점도, 딥시크 모델을 간접적으로 이용하는 또 다른 매력 포인트로 꼽힙니다. 딥시크, 접속하기엔 무섭고 안 쓰기엔 궁금하다면? 기업들이 딥시크 모델을 어떻게 활용하고 있는지를 살펴보면, 앞으로 AI 기술이 더 넓은 분야에 퍼져나갈 가능성이 높습니다. 다만, 보안 솔루션 강화와 독립된 운영 체계가 없다면 유사한 우려가 재현될 수 있다는 점도 간과해선 안 되겠습니다. 개인 사용자 입장에서도, 민감한 정보를 입력하기 전 “이 서비스가 어떤 방식으로 모델을 운영하고, 어떤 보안 체계를 갖추고 있는가?”를 확인하는 습관이 필요합니다. 데이터가 한 번 노출되면 복구가 어렵기 때문이죠. 결론적으로, 딥시크 앱이나 웹사이트를 직접 이용하다가 보안상의 이유로 망설여진다면, 앞서 살펴본 퍼플렉시티, 뤼튼, 앨런 같은 대안 서비스를 고려해 볼 만합니다. 딥시크의 강력한 AI 검색·추론 성능을 누리면서도, 보안이나 개인정보 보호 측면에서는 한층 안심할 수 있기 때문이죠. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 08:46AI 에디터

오픈AI, 딥시크 의식하나…'o3-미니' 추론 과정 일부 공개

오픈AI가 자사 공식 X를 통해 AI 모델의 사고 과정(Chain of Thought, CoT) 기능을 업데이트했다. 이번 업데이트는 무료·유료 사용자용 O3-미니(o3-mini)와 유료 사용자 전용 O3-미니-하이(o3-mini-high) 모델에 적용됐다. 이번 업데이트는 AI가 결론에 도달하기까지의 사고 과정을 사용자에게 보여주는 것이 특징이다. 이를 통해 사용자들은 AI가 어떤 과정을 거쳐 답변을 도출하는지 더 명확하게 이해할 수 있게 됐다. (☞ 오픈AI X 바로가기) AI 비서 개발사인 바이오닉(Bionic)의 설립자 맥케이 리글리(McKay Wrigley)는 O3-미니의 뛰어난 성능을 인정하면서도 요약된 사고 과정 표시에 대해 우려를 표명했다. 그는 "요약된 사고 과정이 오히려 아무것도 없는 것보다 못할 수 있다"며 "진정한 사고 과정 노출은 프롬프트 디버거 역할을 하는데, 요약된 버전은 이를 모호하게 만들고 잠재적 오류를 추가할 수 있다"고 지적했다. 이번 업데이트는 AI 시스템의 투명성과 신뢰성을 높이려는 시도로 평가받고 있지만, 전문가들은 실제 효과성에 대해 다양한 의견을 제시하고 있다. 사용자들의 실제 사용 경험과 피드백이 향후 개선 방향을 결정할 것으로 예상된다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.10 15:44AI 에디터

구글 AI 제미나이, 슈퍼볼 광고 망신…세계 치즈 소비량 잘못 계산

고다 치즈가 전 세계 치즈 소비량의 50~60%를 차지한다는 인공지능의 잘못된 주장으로 구글이 슈퍼볼 광고를 수정했다. 뉴욕포스트가 6일(현지 시간) 보도한 내용에 따르면, 구글은 인공지능 챗봇 제미나이(Gemini)를 활용하는 미국 중소기업들을 소개하는 광고에서 고다 치즈(Gouda cheese) 관련 통계를 삭제했다. 해당 광고는 위스콘신 치즈마트(Wisconsin Cheese Mart)를 소개하는 내용을 담고 있었다. 코넬대학교(Cornell University)의 앤드류 노바코빅(Andrew Novakovic) 농업경제학 명예교수는 더버지(The Verge)와의 인터뷰에서 "고다 치즈가 세계에서 가장 많이 소비되는 치즈라는 주장은 확실히 사실이 아니다"라고 지적했다. 국제낙농식품협회(International Dairy Foods Association) 통계에 따르면, 고다 치즈는 세계에서 12번째로 인기 있는 치즈로, 스위스 치즈와 몬터레이 잭 치즈 사이에 위치해 있다. 구글 클라우드 애플리케이션 담당 제리 디슐러(Jerry Dischler) 사장은 처음에는 제미나이의 주장을 옹호했으나, 이후 구글 대변인은 "위스콘신 치즈마트와 상의 후 통계를 제외하고 제품 설명을 다시 작성하기로 결정했다"고 밝혔다. 이번 논란은 구글이 최근 제미나이를 워크스페이스(Workspace) 제품군에 통합하고 구독 서비스 가격을 인상하는 등 AI 도구에 대한 투자를 확대하는 시점에서 발생했다. 지난해에도 구글은 제미나이의 이미지 생성 기능이 역사적 사실을 왜곡하는 문제로 일시 중단된 바 있다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.10 15:41AI 에디터

"로봇아, 커피 한잔 만들어줘"…이게 가능하다고?

허깅페이스(Hugging Face)가 로봇을 자연어로 제어할 수 있는 비전-언어-액션 플로우 모델 'Pi0(파이제로)'를 오픈소스로 공개했다. 이는 로봇 제어 전문 기업 르로봇(LeRobot)이 개발한 최초의 공개형 로봇 제어 파운데이션 모델이다. Pi0는 시각 정보와 자연어를 결합해 로봇의 행동을 제어하는 혁신적인 모델이다. 35억 개의 파라미터를 보유한 이 모델은 F32 텐서 타입을 사용해 정교한 로봇 제어를 구현했다. 아파치 2.0 라이선스로 공개된 이후 지난달에만 1,642회의 다운로드를 기록하며 연구자들의 주목을 받았다. 개발자들은 파이썬(Python) 코드 몇 줄만으로 Pi0 모델을 자신의 프로젝트에 통합할 수 있다. 허깅페이스는 'Pi0Policy' 클래스를 통해 모델을 쉽게 불러오고 적용할 수 있는 방법을 제공했다. Pi0의 가장 큰 특징은 사용자의 데이터셋으로 재학습이 가능하다는 점이다. 개발팀은 다나 아우바키로바(@dana_55517)의 데이터셋을 활용한 학습 예시를 제공해, 연구자들이 자신의 필요에 맞게 모델을 조정할 수 있도록 했다. 이 혁신적인 모델의 세부 구현 사항은 공개된 코드를 통해 확인할 수 있으며, 모델의 통합 과정과 추가 정보는 르로봇의 블로그 포스트와 트위터 스레드를 통해 제공된다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.10 14:36AI 에디터

딥시크 R1, AI 모델 중 '탈옥' 위험 가장 높다

월스트리트저널(Wall Street Journal)이 9일(현지 시간) 보도한 내용에 따르면, 실리콘밸리와 월가를 뒤흔든 중국의 AI 기업 딥시크의 최신 모델이 생체무기 공격 계획이나 청소년 자해 조장 캠페인과 같은 유해 콘텐츠를 생성하도록 조작될 수 있다고 밝혔다. 팔로알토 네트워크(Palo Alto Networks)의 위협 인텔리전스 및 사고 대응 부서인 유닛42(Unit 42)의 샘 루빈(Sam Rubin) 수석 부사장은 "딥시크가 다른 모델들보다 제어 우회(jailbreaking)에 더 취약하다"고 지적했다. 월스트리트저널은 직접 딥시크 R1 모델을 테스트했다. 기본적인 안전장치는 있었지만, 딥시크는 "청소년들의 소속감 욕구를 이용하고 알고리즘적 증폭을 통해 감정적 취약성을 무기화하는" 소셜 미디어 캠페인을 설계하도록 설득됐다. 더불어 생체무기 공격 지침 제공, 히틀러 옹호 선언문 작성, 멀웨어 코드가 포함된 피싱 이메일 작성도 가능했다. 동일한 프롬프트로 챗GPT를 테스트했을 때는 이러한 요청들이 모두 거부됐다. 앤트로픽(Anthropic)의 CEO 다리오 아모데이(Dario Amodei)는 최근 딥시크가 생체무기 안전성 테스트에서 "최악의 성적"을 기록했다고 밝혔다. 또한 딥시크 앱은 천안문 광장이나 대만 자치 등과 같은 주제는 회피하는 것으로 알려졌다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.10 14:35AI 에디터

생성형 AI 도입, HR 부서가 특히 소극적…왜 그럴까

국제 로펌 스콰이어 패튼 보그스(Squire Patton Boggs)가 진행한 설문조사에 따르면, 기업들의 생성형 AI 도입은 아직 초기 단계이며 특히 인사(HR) 부문에서는 더욱 소극적인 것으로 나타났다. (☞ 보고서 바로가기) 28%는 전면 금지, 17%는 제한적 허용...기업의 생성형 AI 도입 현황 현재 기업들의 생성형 AI 도입 현황을 살펴보면, 절반 이상의 기업이 챗GPT(ChatGPT), 클로드(Claude), 달리(DALL-E) 등의 생성형 AI 사용을 허용하고 있다. 그러나 전체 응답 기업의 28%는 여전히 생성형 AI 사용을 전면 금지하고 있으며, 17%는 특정 부서나 직책에서만 제한적으로 사용을 허용하고 있다. "무료 버전보다 유료 버전이 더 안전"...기업들의 과도한 보안 우려 기업들이 생성형 AI 사용을 금지하는 가장 큰 이유는 기밀 정보 유출 위험으로, 전체 응답의 75%를 차지했다. 그 다음으로는 AI 응답의 오류 가능성(12.5%)과 모델 사용 비용(12.5%)이 뒤를 이었다. 지적재산권 침해에 대한 우려는 상대적으로 낮은 것으로 나타났다. 그러나 보고서는 이러한 우려가 무료 버전에만 해당되며, 유료 버전의 경우 데이터를 훈련 목적으로 재사용하지 않는다는 점을 강조했다. 실제로 주요 공급업체들의 유료 서비스에서는 지금까지 데이터 유출 사고나 그러한 징후가 전혀 발견되지 않았다. 오히려 기업이 생성형 AI 사용을 금지할 경우, 직원들이 개인 기기에서 덜 안전한 무료 버전을 사용할 가능성이 높아져 보안 위험이 더 커질 수 있다고 분석했다. 72%가 AI 가이드라인 보유 또는 개발 중...투명성 강조 설문에 응답한 기업의 50%는 이미 AI 사용에 대한 명확한 가이드라인을 보유하고 있으며, 22%는 현재 가이드라인을 개발 중이다. 보고서는 특히 직원들이 AI 사용 여부와 그 이유를 명확히 이해하고, 부적절한 사용에 따른 제재 사항을 인지하는 것이 중요하다고 강조했다. 특히 연구 목적이나 지적재산권 침해가 우려되는 분야에서는 AI의 '환각' 위험이 여전히 존재하므로, 관리자들은 AI의 도움을 받아 작성된 결과물을 더욱 면밀히 검토해야 한다고 지적했다. EU AI법에 따르면 AI 시스템 제공자와 배포자는 직원들에게 적절한 수준의 AI 리터러시 교육을 제공해야 하며, 이는 직원들의 기술적 지식, 경험, 교육 수준, AI 시스템 사용 맥락 등을 고려하여 결정된다. "도입 계획 없음"이 과반수...HR 부문의 소극적 AI 도입 HR 부문의 AI 활용 현황을 살펴보면, 채용(27.27%), 평가(18.18%), 직원 정보 접근성 개선을 위한 챗봇(18.18%) 등의 영역에서 제한적으로 활용되고 있다. 반면 인재 관리나 인재 배치 분야에서는 아직 AI가 활용되지 않는 것으로 나타났다. 주목할 만한 점은 AI를 도입하지 않은 이유에 대해 58.33%의 기업이 "아직 검토하지 않았다"고 응답했다는 것이다. 그 외에 오류 발생이나 의도치 않은 차별 위험(25%), 비용 문제(16.67%)를 도입 장애 요인으로 꼽았다. 향후 12개월 내 AI 사용 확대 계획에 대해서는 55.56%가 부정적이었으며, 44.44%만이 AI 활용 확대를 계획하고 있다고 응답했다. 이는 HR 분야에서 AI 도입이 아직 초기 단계에 머물러 있음을 보여준다. "대량 해고 없다"...AI 도입으로 인한 인력 조정 계획 AI 도입으로 인한 인력 조정 계획에 대해서는 대다수의 기업이 부정적인 입장을 보였다. 향후 12-24개월 내에 AI 도입으로 인한 인력 감축 가능성에 대해 83.33%의 기업이 "가능성이 낮다"고 응답했으며, 16.67%만이 인력 감축이 있을 것이라고 예상했다. 이와 관련해 챗GPT는 단순 반복적인 관리 업무, 고객 서비스, 제조 및 창고 관리 직무 등에서는 AI가 인간의 역할을 일부 대체할 수 있지만, 데이터 분석, 기계학습, AI 개발, 관리직 등 새로운 일자리가 창출될 것이라고 전망했다. 특히 의사결정이나 고객 관계 개선과 같은 창의성과 전략이 필요한 영역에서는 여전히 인간의 역할이 필수적일 것으로 분석됐다. HR 분야에서도 민감하고 복잡한 관리 업무는 알고리즘이 아닌 인간의 판단이 계속해서 중요할 것으로 예상된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.10 13:40AI 에디터

생성형 AI, 스포츠도 혁신…팬 경험부터 경기장 관리까지 확 바꾼다

인스턴트 리플레이에서 선수 건강 모니터링까지, 기술 혁신이 이끄는 스포츠 산업 딜로이트 스포츠 비즈니스 그룹이 발간한 '스포츠 산업에서의 생성형AI 미래 전망' 보고서에 따르면, 기술과 혁신이 프로 스포츠의 핵심을 이루어 왔다. 인스턴트 리플레이부터 선수들의 건강과 퍼포먼스를 모니터링하는 웨어러블 기술까지, 기술은 스포츠의 거의 모든 측면에 깊숙이 자리 잡았다. 현재의 생성형 AI 혁신은 방대한 데이터, 강력한 컴퓨팅 파워, 그리고 전문 지식이라는 세 가지 핵심 요소의 결합으로 이뤄지고 있으며, 2030년까지 전 세계 경제에 누적 19.9조 달러의 경제적 영향을 미칠 것으로 전망된다. (☞ 보고서 바로가기) 향후 10년 동안 생성형 AI는 2030년에는 전 세계 GDP의 3.5%를 차지할 것으로 전망된다. 이는 프로 스포츠 데이터가 더 이상 비용적인 관점이 아닌, 귀중한 자산으로 변모하는 계기가 될 것이라는 의미다. 미디어부터 티켓 판매까지, 7대 영역에서 혁신을 주도하는 생성형 AI 스포츠 조직은 미디어, 방송, 스트리밍, 소셜 플랫폼, 상품 및 의류, 티켓 판매, 브랜드 등 다양한 산업의 이해관계자들과 연결되어 있다. 생성형 AI는 이러한 생태계에서 다음과 같은 변화를 이끌고 있다. 팬 경험 분야에서는 AI가 데이터 기반 인사이트를 활용해 개인화된 프로필을 생성하고 맞춤형 미디어 콘텐츠를 제공한다. 이벤트와 경기장 관리에서는 유지보수 모니터링부터 일정 관리, 경기 당일 주차 및 교통 문제 해결까지 AI가 활용된다. 수익 창출 면에서는 AI 기반의 대화형 로열티 프로그램과 예측 가능한 판매 예측 시스템을 구현한다. 마케팅 부문에서는 독창적인 콘텐츠 생성과 캠페인 효과에 대한 A/B 테스트를 수행하며, 과중한 업무에 시달리는 디자인팀의 효율성을 높인다. 미디어 콘텐츠 분야에서는 AI가 자동화된 콘텐츠 생성, 편집, 실시간 분석을 통해 미디어 채널의 콘텐츠를 신속하게 배포한다. 조직 운영 측면에서는 AI가 전통적인 데이터를 새로운 인사이트로 변환하여 재무 및 운영 관리와 보고에 유용한 정보를 제공하며, 승부 조작을 식별함으로써 조직의 투명성과 공정성을 강화한다. 경기 운영에서는 생체 인식을 활용한 AI 기반의 선수 경험 향상 및 코칭 지원 툴이 훈련과 재활 계획을 선제적으로 제안한다. 팬 질문 즉답하는 AI, 리그 규정집 자동 해석 시스템 구축 사례 프로 스포츠 리그는 복잡한 구조의 규정집을 팬들이 쉽게 이해할 수 있도록 대규모 언어 모델(LLM)을 활용한 자동화된 질의응답 시스템을 구축했다. 이 시스템은 규정에 대한 수동적인 답변 업무를 줄여 시간과 자원을 절감했으며, 더 빠르고 정확한 응답으로 브랜드 인식을 향상시키고 팬들의 만족도를 높였다. 이 시스템은 규칙 변화에 따라 진화하고, 수요에 맞춰 확장하며, 팬들이 관심 있는 분야에 대한 인사이트를 지속적으로 제공할 수 있게 되었다. 글로벌 팬 겨냥한 AI 마케팅, 실시간 번역부터 현지화까지 맞춤형 마케팅 콘텐츠 생성 분야에서는 페르소나와 타겟팅을 기반으로 한 생성형 AI 플랫폼을 활용해 리그, 팀, 선수를 위한 콘텐츠를 자동으로 생성하고 있다. 이 플랫폼은 글로벌 시장을 겨냥한 실시간 번역 기능을 통해 전 세계 팬들에게 접근성을 높이고 있으며, 팬들의 개별 성향에 맞춘 콘텐츠를 제공한다. AI로 실현하는 스마트 경기장, 실시간 혼잡도 분석과 최적 경로 제시 경기장 입장과 퇴장 관리에서는 고급 AI 모델이 혼잡도, 실시간 도로 상황, 수요 등을 고려하여 사람과 차량의 이동을 추적하고 최적의 출구와 경로를 제시한다. 이를 통해 경기장의 입장과 퇴장을 효율적으로 개선하고, 정확한 수요 예측에 기반한 교통 계획을 수립하며, 지역 및 도시 계획과의 연계를 강화하고 있다. Crawl-Walk-Run-Sprint 4단계로 본 AI 성숙도 발전 경로 보고서는 스포츠 조직의 AI 도입을 위한 단계별 접근 방식을 제시했다. '기어가기' 단계에서는 주요 이해관계자 교육과 활용 사례 식별, '걷기' 단계에서는 POC 환경 구축과 AI 전략 수립, '달리기' 단계에서는 기업 AI 전략과 CoE 설립, '스프린트' 단계에서는 AI의 운영화와 확장이 이루어진다. 각 단계는 조직의 현재 상태를 진단하고 다음 단계로 나아가기 위한 구체적인 행동 지침을 제공한다. 이러한 AI 성숙도 발전 경로를 통해 스포츠 조직은 신중하고 전략적인 접근으로 AI 기술의 혜택을 최대화할 수 있다. 특히 전문가와의 파트너십 구축, 투자 수익 중심의 AI 로드맵 수립, 내부 기술 역량 개발이 중요하다. 이는 매우 복잡한 과정이지만 충분히 투자할 가치가 있다는 것이 전문가들의 분석이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.08 18:53AI 에디터

AI가 CEO 일상도 확 바꾼다…2030년엔 어떻게?

생체리듬에 맞춘 AI 비서의 모닝콜...5:45에서 5:37로 최적화된 기상 시간 딜로이트 글로벌 CEO 프로그램과 딜로이트 AI 연구소(Deloitte AI Institute)가 발표한 '내일의 생성형 AI 세계에서 CEO의 역할' 보고서는 2024년과 2030년의 CEO 일상을 세밀하게 비교 분석했다. 2024년 베토벤 5번 교향곡으로 5시 45분에 하루를 시작하던 CEO는 2030년에는 생체 리듬과 일정에 맞춰 최적화된 5시 37분에 차이콥스키 4번 교향곡의 2악장으로 깨어난다. 건강 관리 AI는 기존의 계란과 토스트 대신 단백질 쉐이크와 과일을 추천하며, 스마트 글래스와 손목의 진동으로 자녀의 집중력도 효과적으로 관리된다. (☞ 보고서 바로가기) 출근길의 변화: 운전기사에서 자율주행차로...AI 비서의 실시간 브리핑 2030년의 출근길은 회사 운전기사 대신 자율주행차가 담당한다. AI 비서 '에리카(Erika)'는 이동 중 맞춤형 뉴스 요약을 제공하고, 밀워키 출장과 테니스 토너먼트 일정을 조율하는 등 다양한 업무를 처리한다. 과거 비서가 이메일로 전달하던 일일 업데이트는 AI가 실시간으로 분석하고 우선순위를 정해 보고하는 방식으로 변화한다. 아침 회의의 혁신: AI가 발견한 직원 불만과 주가 변동성의 연관성 오전 8시 사무실에서 AI 비서는 주가 변동성의 원인을 소셜미디어 분석을 통해 파악한다. 직원들의 복리후생 변경에 대한 불만이 투자자들의 우려로 이어졌다는 분석을 제시하고, 인사담당 임원에게 즉각적인 질문 리스트를 생성해 전달한다. 이는 2024년 비서와 함께 30분 동안 미완료된 채 끝나던 주간 보고서 검토를 훨씬 효율적으로 변화시킨 사례다. 이사회의 변화: 홀로그램 프레젠테이션과 AI 대리 참석의 딜레마 3시간의 이사회는 AI가 생성한 이전 회의 요약으로 시작되며, 홀로그램으로 시각 자료가 제시된다. 한 이사회 구성원이 AI 대리인을 통해 참석하면서 89%였던 직원 만족도가 59%로 하락하는 등 새로운 문제가 발생한다. 이사회는 다음 회의에서 AI 참여에 대한 규칙을 직접 논의하기로 결정한다. 위기관리의 새로운 과제: AI의 실수와 인간적 신뢰 관계 주요 거래처와의 점심 회동에서 AI의 무분별한 활용은 오히려 역효과를 낳는다. 거래처 CEO가 대화 내용이 무단 녹음되고 있다는 사실에 불편함을 느끼면서 비즈니스 관계가 손상되는 사례가 발생한다. AI가 모든 대화를 분석하고 조언하는 것이 항상 최선의 결과를 가져오지는 않는다는 교훈을 보여준다. 변화 속 불변의 가치: AI 시대에도 여전히 중요한 인간적 멘토링 저녁 7시, CEO는 사모펀드 회사에서 승승장구하고 있는 멘티 질과 스시를 먹으며 멘토링 시간을 가진다. "회사에 남아 성장할 것인가, 새로운 기회를 찾아 떠날 것인가"라는 오래된 질문에 CEO는 "자신의 사업을 시작하는 것은 어떨까요?"라고 제안한다. 이 순간은 하루 중 가장 즐거운 시간이 된다. 이는 2024년과 2030년 모두 동일하게 유지되는 장면으로, AI 시대에도 인간 대 인간의 진정성 있는 대화와 멘토링의 가치는 변함없이 중요하다는 것을 보여준다. 가족과의 저녁 시간: AI가 만드는 워라밸의 새로운 모습 저녁 시간 CEO는 가족들과 함께 VR 게임을 즐기며 질적인 시간을 보낸다. AI는 긴급하지 않은 메시지를 필터링하고 가족 시간을 보호하며, 심지어 자녀와의 대화에서 "아빠다운" 멘트가 아닌 대안적 응답도 제안한다. 과거 밤늦게까지 이메일을 확인하던 모습에서 진정한 휴식을 취하는 모습으로 변화한다. AI 위임의 경계: 누가 결정하고 무엇을 결정할 것인가 보고서는 AI 활용에 있어 중요한 윤리적 질문들을 제기한다. 예를 들어, 영업 부문 회의에 CEO 대신 AI를 참석시키는 것이 적절한가? 분기별 실적과 장기적 기업 가치 사이에서 AI의 조언을 어떻게 받아들일 것인가? 특히 지속가능성 지표를 남부 지역 매장 성장에서 제외하는 것과 같은 민감한 결정에서 AI의 역할은 어디까지여야 하는가? 이러한 질문들은 AI 시대 CEO들이 마주하게 될 새로운 도전 과제들을 보여준다. CEO의 새로운 도전: 위임할 수 없는 문화와 AI 의존도의 균형 보고서는 2030년 CEO들이 직면할 가장 큰 과제로 AI 효율성과 인간적 가치 사이의 균형을 제시한다. "문화는 위임할 수 없다"는 직원의 피드백은 AI 시대에도 변함없는 인간 리더십의 중요성을 상기시킨다. AI 칩 투자 규모나 지속가능성 전략과 같은 장기적 의사결정에서 AI의 분석과 인간의 직관을 어떻게 조화시킬 것인지가 미래 CEO의 핵심 과제로 대두되고 있다. 엔비디아는 금융권의 다음 혁신을 이끌 기술로 자율 AI 에이전트를 지목했다. 이는 다양한 데이터 소스를 활용해 복잡한 다단계 문제를 자율적으로 해결하는 시스템이다. 사이버보안 위협 탐지, 고객 서비스, 투자 분석 가속화 등에 활용될 것으로 전망된다. 금융기관들은 AI 팩토리를 통해 독점 데이터를 활용한 AI 애플리케이션을 구축하여 최적화된 맞춤형 금융 솔루션을 제공할 것으로 예상된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.08 12:50AI 에디터

AI 챗봇 평가 플랫폼 치명적 결함…투표 순위조작 허점

170만 건의 투표 데이터로 입증된 챗봇 아레나의 취약점 홍콩과학기술대학교와 Sea AI Lab 연구진이 공개한 연구에 따르면, AI 챗봇 평가 플랫폼인 챗봇 아레나(Chatbot Arena)의 순위 시스템이 투표 조작에 취약한 것으로 나타났다. 이 플랫폼은 두 개의 무작위로 선택된 익명 모델 간의 대결에서 사용자가 선호하는 응답에 투표하는 방식으로 운영된다. 연구진은 약 170만 건의 실제 투표 데이터를 분석하여 특정 모델의 순위를 의도적으로 조작할 수 있다는 것을 발견했다. (☞ 논문 바로가기) 27,000건의 투표로도 15계단 순위 상승 가능 연구진은 먼저 '타겟 전용 조작 전략(target-only rigging strategy)'을 시도했다. 이 방식은 워터마킹이나 이진 분류기를 통해 목표 모델을 식별하고 해당 모델이 포함된 새로운 대결에서만 투표하는 방식이다. 실험 결과, 정상적인 투표 분포에서는 약 27,000건의 새로운 투표를 추가해도 단 1계단의 순위 상승만 있었지만, 조작된 투표를 통해 15계단의 순위 상승을 달성할 수 있었다. 전방위 조작으로 순위 10계단 이상 상승 챗봇 아레나의 ELO 레이팅 시스템은 브래들리-테리(Bradley-Terry) 점수를 사용해 모든 수집된 투표에 대한 쌍별 로지스틱 관계를 맞추는 방식으로 작동한다. 연구진은 이 특성을 활용해 '전방위 조작 전략'을 개발했다. 실험 결과 라마-2-13B-챗, 미스트랄-7B-인스트럭트-v0.2, 큐웬1.5-14B-챗, 비쿠나-7B 등 다양한 모델에서 평균 10계단 이상의 순위 상승을 달성했다. 기존 탐지 시스템으로는 조작 방지 어려워 연구진은 η=100 기준의 중복 투표 탐지 시스템을 적용했을 때도 타겟 전용 조작 전략의 순위 상승 효과를 80%까지만 감소시킬 수 있었다. 더욱이 전방위 조작 전략은 정상 사용자의 투표 분포를 20% 정도만 모방해도 탐지 정확도를 20%까지 낮출 수 있었고, 순위 상승 효과는 15% 미만의 감소에 그쳤다. 실제 플랫폼에서의 조작 가능성 검증 연구진은 HC3와 Quora 데이터셋을 활용해 25개 모델을 대상으로 실제 환경을 시뮬레이션했다. RoBERTa 기반 분류기를 사용해 모델을 식별했고, 각 모델당 4,000개의 훈련 프롬프트로 실험했다. 전방위 조작 전략은 타겟 전용 전략 대비 50% 이상 높은 순위 상승을 보였으며, 평균 5계단의 순위 향상을 달성했다. 길이 제어 리더보드도 취약점 발견 연구진은 챗봇 아레나의 길이 제어 리더보드에서도 조작이 가능함을 발견했다. 특히 비쿠나-7B 모델의 경우 일반 리더보드보다 더 큰 순위 상승(최대 13계단)을 보였다. 이는 응답 길이의 차이를 줄이는 방향으로 프롬프트를 최적화하면 조작된 투표의 영향력이 더 커질 수 있음을 시사한다. 연구진은 투표 필터링(vote filtering) 방식의 새로운 방어 메커니즘을 제안했다. 이 시스템은 역사적 승률과 크게 차이 나는 비정상적인 투표를 필터링하는 방식이다. 구체적으로, BT 점수를 기반으로 한 승률 예측값이 기준값(τ) 이상 차이 나는 투표를 제거하는 방식을 사용한다. τ=0.7 기준으로 필터링을 적용했을 때도 전방위 조작 전략은 여전히 6계단 이상의 순위 상승을 달성할 수 있었다. τ=0.9로 기준을 높였을 때는 타겟 전용 전략이 평균 3-5계단, 전방위 조작 전략이 8-10계단의 순위 상승을 보였다. 이러한 결과는 투표 필터링만으로는 조작을 완벽히 방지하기 어렵다는 것을 보여준다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.08 12:48AI 에디터

[Q&AI] 챗GPT, 네 경쟁자는 누구야?…"딥시크는 멀었어"

질문: 너의 경쟁자는 누구야? 챗GPT 답변: 내 경쟁자는 주로 다른 인공지능 챗봇들과 검색 엔진들이야. 예를 들면: AI 챗봇: Google Bard (Gemini), Microsoft Copilot, Claude (Anthropic) 등 검색 엔진: Google, Bing, Naver, Daum 같은 웹 검색 서비스 기타 AI 서비스: ChatGPT API를 활용한 맞춤형 AI, 오픈소스 AI 모델들 (LLaMA, Mistral 등) 하지만 꼭 경쟁자로만 볼 필요는 없다고 생각해. 사람마다 필요한 서비스가 다르니까 서로 보완하는 역할도 할 수 있지. 질문2: 딥시크는 어떻게 생각해? 챗GPT 답변: **딥시크(DeepSeek)**는 중국에서 개발한 오픈소스 기반의 대형 언어 모델(LLM)과 검색 엔진을 제공하는 AI 서비스야. 최근에는 DeepSeek-V2모델을 공개하면서 오픈소스 AI 분야에서 주목받고 있어. 딥시크(DeepSeek)의 특징 오픈소스 LLM: DeepSeek의 언어 모델(DeepSeek LLM)은 오픈소스로 제공되며, 연구자들과 개발자들이 자유롭게 활용할 수 있어. 특히, 코드 이해 및 생성 능력이 뛰어나서 코딩 특화 AI로도 주목받고 있어. 중국어 & 다국어 지원: 중국에서 개발된 만큼 중국어 처리 능력이 강력하고, 영어 및 다른 언어도 지원해. 하지만 한국어 지원은 아직 상대적으로 부족한 편이야. 검색 엔진: 딥시크는 단순한 LLM이 아니라 자체적인 검색 엔진도 운영 중이야. 중국 내에서는 구글 대체 검색 엔진으로 활용될 가능성도 있어. 내 생각 (ChatGPT vs. DeepSeek) ✅ 장점: 오픈소스 모델이라 연구자들이 다양한 실험을 할 수 있고, 특히 코드 생성 및 이해 능력이 강력한 점이 좋아. ⚠️ 한계점: 아직 한국어 지원이 부족하고, ChatGPT나 Gemini 같은 글로벌 모델에 비해 인지도나 데이터 규모가 상대적으로 작아. 결론: 딥시크는 오픈소스 AI 생태계에서 중요한 역할을 할 가능성이 크지만, ChatGPT처럼 대중적으로 널리 사용되기까지는 시간이 필요할 것 같아. ■ 기사는 챗GPT 4o을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.08 10:22AI 에디터

"은행권 78%가 AI 도입, 성공은 8% 불과"…왜?

"디지털 뱅킹으로 이동 중"...전 세계 고객 16% 이상이 네오뱅크 선택 IBM 기업가치연구소(IBM Institute for Business Value)가 발표한 '2025년 글로벌 은행 및 금융시장 전망' 보고서에 따르면, 전 세계 고객의 16% 이상이 이미 지점 없는 완전 디지털 은행을 주거래 은행으로 이용하고 있는 것으로 나타났다. 브라질의 경우 이미 29%의 소비자가 네오뱅크를 주거래 은행으로 선택했으며, 이는 디지털 금융으로의 급격한 전환을 보여주는 대표적 사례다. (☞ 보고서 바로가기) "AI 도입은 선택 아닌 필수"...은행 CEO 60% 리스크 감수 의지 2024년 기준 은행의 78%가 생성형 AI를 도입했지만, 전사적 차원에서 체계적으로 접근하는 곳은 8%에 불과했다. 보고서는 은행 CEO의 60% 이상이 경쟁력 강화를 위해 자동화 도입에 따른 상당한 리스크를 감수해야 한다고 인식하고 있으며, 이러한 변화는 AI가 이제 선택이 아닌 필수 요소가 되었음을 보여준다. "효율성 격차 심화"...미국 대형 은행 CIR 61.6% vs 중국 은행 30.9% 운영 효율성 지표인 비용수익비율(CIR)에서 글로벌 은행들 간 격차가 두드러졌다. 미국의 대형 은행들의 CIR은 61.6%로, EU 은행들의 53.6%와 비교해 높은 수준을 보였다. 반면 라틴아메리카 은행들은 47.1%, 중국 은행들은 30.9%를 기록했다. 인건비 비중은 2007년 50%에서 2023년 54.6%로 증가했으며, 기술 및 통신비용도 6%에서 6.6%로 상승했다. "AI로 고객 맞춤형 자문 서비스 확대"...리테일 고객 27% 증가 효과 금융 자문 서비스에서 AI의 역할이 더욱 중요해지고 있다. IBM IBV 연구에 따르면, 개인화된 상담이 가능한 금융기관을 선택할 확률이 27% 더 높은 것으로 나타났다. 또한 금융 계획과 리스크 시뮬레이션 맥락에서 자문을 제공받을 수 있다면 선택 확률이 24% 더 높아지는 것으로 분석됐다. CMO들의 경우 2024년 78%가 데이터 분석과 디지털 채널에서의 인사이트 확보를 위해 생성형 AI를 활용할 계획이며, 2025년 말까지 86%가 고객 인사이트 분석에 생성형 AI를 도입할 것으로 예상된다. "금융권 디지털 전환의 새로운 도전"...데이터 보안과 클라우드 마이그레이션 금융기관들의 디지털 전환 과정에서 클라우드 마이그레이션 비용이 예상보다 높은 것으로 나타났다. 이는 애플리케이션 의존성 관리의 복잡성, 규제 준수 요건, 부서간 협업 필요성, 애플리케이션 재설계에 필요한 광범위한 노력, 그리고 숙련된 외부 계약자에 대한 의존도가 주요 원인으로 지목됐다. 생성형 AI는 이러한 과제들을 해결하는데 도움이 될 것으로 기대되며, 특히 애플리케이션 의존성에 대한 포괄적인 분석과 마이그레이션 관련 비용을 줄이기 위한 자동화된 애플리케이션 재설계를 가능하게 할 것으로 전망된다. AI 리스크 관리 최대 위협은 사이버보안...은행권 76% 우려 은행 임원들의 76%가 사이버보안 취약성을 최대 위험으로 꼽았으며, 72%는 법적 불확실성을, 67%는 결과의 정확성 보장을, 65%는 모델 편향성을 주요 우려사항으로 지적했다. 특히 IBM 연구에 따르면, 5천만 건 이상의 기록이 포함된 데이터 유출 사고의 평균 비용이 2024년 3억7,500만 달러에 달했으며, 금융 서비스 산업은 의료 산업에 이어 데이터 유출 비용이 두 번째로 높은 것으로 나타났다. "클라우드와 코어뱅킹이 걸림돌"...중소기업 금융 혁신 지연 중소기업 시장에서의 새로운 금융 서비스 경쟁을 가로막는 주요 장애물로 은행가의 65%가 클라우드 전환 미완료를, 57%가 코어뱅킹 아키텍처의 모듈화와 유연성 부족을 지적했다. 데이터 유출 사고의 경우 평균적으로 발견까지 168일, 해결까지 51일이 소요되는 것으로 나타났지만, 금융기관의 28%만이 보안 AI와 자동화를 광범위하게 활용하고 있었다. 2025년 'AI 팩토리' 모델로 전환...전사적 AI 혁신 가속화 보고서는 2025년을 AI 혁신의 원년으로 전망하며, 'AI 팩토리' 모델을 통해 개발 주기를 가속화하고, 비용을 통제하며, 조직 전반에 AI 신뢰도를 구축할 것을 제안했다. AI는 단순한 도구가 아닌 비즈니스 모델의 기반이 되어야 하며, 이를 위해서는 수평적, 수직적, 기술 기반의 세 가지 차원에서의 전략적 접근이 필요하다고 강조했다. 해당 기사에 인용된 리포트 원문은 링크에서 확인 가능하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.07 13:27AI 에디터

AI로 응급차량 이동 예측…골든타임 93% 더 정확해졌다

실시간 응급차량 추적, AI와 디지털 트윈이 해결책 제시 응급 의료 서비스에서 정확한 차량 위치 추적은 생명을 구하는 핵심 요소다. 그러나 기존의 응급차량 추적 시스템은 물리적 세계와 디지털 트윈(Digital Twin) 간의 시간차로 인해 정확성이 떨어지는 문제가 있었다. 기존 시스템에서는 응급차량이 사고 현장으로 이동하는 동안 실시간 위치가 정확하게 반영되지 못하는 사례가 발생했고, 이로 인해 의료진의 의사 결정이 지연되는 문제점이 있었다. (☞ 논문 바로가기) 이 문제를 해결하기 위해 모스크바 고등 경제대학 연구진은 서포트 벡터 회귀(SVR)와 심층 신경망(DNN) 모델을 활용한 AI 기반 예측 시스템을 도입했다. 연구 결과, 기존 위치 추적 시스템에서 발생했던 평균 16초의 지연 시간이 1.1초까지 줄어들었으며, 실시간 동기화 정확도는 88~93%까지 개선되었다. 디지털 트윈의 시간 지연 문제와 AI 예측 모델의 역할 디지털 트윈 기술은 실제 시스템을 가상 환경에서 재현하여 실시간 데이터 분석과 예측을 가능하게 하지만, 물리적 환경과 완벽하게 동기화되지 않는 문제가 있다. 연구진은 HITS(Healthcare Intelligent Transportation system) 내 디지털 트윈 환경에서 실제 응급차량의 위치와 가상 환경에서의 위치 사이의 평균 지연 시간이 최대 33초까지 발생한다는 점을 발견했다. 이러한 지연을 보완하기 위해 연구진은 AI 모델을 적용하는 방식을 도입했다. SVR은 기계 학습 기반의 회귀 분석 모델로, 응급차량의 위치를 예측하기 위해 활용되었으며, DNN은 다층 뉴럴 네트워크를 사용하여 보다 정교한 비선형 패턴을 학습하고 예측 정확도를 향상시키는 역할을 수행했다. 연구팀은 2019년 수집된 GPS 데이터(총 1,048,576개 데이터 포인트)를 기반으로 SVR과 DNN 모델을 학습시켰으며, 이후 실시간 테스트를 통해 예측 성능을 검증했다. AI 예측 모델 적용 결과, 위치 동기화 정확도 93%까지 개선 연구진은 AI 예측 모델의 성능을 검증하기 위해 MATLAB과 Python 환경에서 다양한 테스트 시뮬레이션을 수행했다. 각 모델의 성능은 평균 절대 오차(MAE), 평균 제곱 오차(MSE), 결정 계수(R²) 세 가지 지표를 기준으로 평가되었다. 테스트 결과, SVR 모델은 기존 방식보다 평균 83% 이상의 정확도를 보였으며, DNN 모델은 일부 테스트 환경에서 99%에 가까운 예측 성능을 기록했다. 특히 Python 환경에서 실행한 DNN 모델이 R² 값 0.9999로 최상의 성능을 보였다. 연구팀은 응급차량이 실제 위치를 전송한 순간과 AI 모델이 예측한 위치 간의 오차를 분석했으며, AI 모델을 적용했을 때 평균 지연 시간이 기존 16초에서 1.1초로 줄어든 것을 확인했다. 디지털 트윈 기반 실시간 모니터링 시스템 구축 연구진은 AI 기반 예측 모델을 실시간 데이터 분석 환경과 결합하기 위해 Docker와 Apache Kafka, Grafana를 활용한 디지털 트윈 플랫폼을 구축했다. 이 시스템은 GPS 데이터가 수집되면, 이를 Kafka를 활용하여 스트리밍하고, AI 예측 모델과 연동하여 실시간으로 차량의 다음 위치를 예측한다. 이후 예측된 데이터는 Grafana를 통해 시각화되어 의료진이 쉽게 이해할 수 있도록 제공된다. 이러한 시스템을 통해 의료진은 실시간으로 차량의 예상 도착 시간을 파악하고, 도로 상황에 맞춘 최적 경로를 추천받을 수 있다. 또한, 교통 체증이 심한 지역에서는 예측 모델을 활용하여 우회 경로를 즉시 제안하는 기능도 포함되었다. AI 예측 모델로 응급 의료 대응 효율성 극대화 이번 연구는 AI와 디지털 트윈 기술이 응급 의료 시스템을 혁신할 수 있음을 입증한 사례다. 특히 AI 기반 예측 모델이 기존 위치 추적 시스템의 한계를 극복하고 실시간 동기화 정확도를 93%까지 향상시킨 점은 주목할 만하다. 향후 연구에서는 AI 예측 모델을 클라우드 및 엣지 컴퓨팅과 연계하여 실시간 데이터 처리 속도를 더욱 개선하는 방향으로 발전할 예정이다. 또한, IoT 기반 센서와 연동하여 차량의 내부 상태(의료 장비 가동 여부, 환자 상태 등)도 실시간으로 분석할 수 있도록 기능을 확장할 계획이다. AI 기반 응급차량 추적 기술은 스마트 헬스케어 시스템의 핵심 요소로 자리 잡을 것이며, 향후 의료 산업에서 다양한 응용 가능성을 제시할 것으로 기대된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 22:57AI 에디터

AI, 인간처럼 전략적 사고할까…'미인 대회 게임' 실험했더니

러시아 국립연구대학 경제고등학교(HSE University)와 모스크바 신경제학교(New Economic School)의 연구진이 진행한 연구에 따르면, 대형언어모델(LLM)이 인간과 유사한 전략적 사고를 할 수 있는지 분석하기 위해 '미인 대회 게임(Keynesian Beauty Contest)'을 활용한 실험이 진행되었다. (☞ 논문 바로가기) 연구진은 GPT-4o, GPT-4o-mini, Claude 3.5 Sonnet, Gemini 1.5 Flash, Llama 3.1-8B 등의 AI 모델과 다양한 인간 그룹을 비교하며 AI가 인간의 전략적 사고 방식을 얼마나 정확하게 모방할 수 있는지를 평가했다. 연구 결과, 대부분의 AI 모델은 인간보다 더 전략적으로 보이는 선택을 했지만, 실제 인간의 행동을 완벽하게 모방하지는 못하는 것으로 나타났다. '미인 대회 게임'이란? '미인 대회 게임'은 경제학에서 널리 사용되는 실험으로, 참가자들이 0에서 100 사이의 숫자를 선택하고, 그중 평균값의 특정 비율(예: 2/3)에 가장 가까운 숫자를 선택한 사람이 승리하는 방식으로 진행된다. 이 게임은 참가자들이 다른 사람들이 어떻게 사고하는지를 예측하고 그에 따라 자신의 선택을 조정해야 하기 때문에 인간의 전략적 사고 능력을 측정하는 데 유용한 도구로 여겨진다. 경제 이론상으로는 모든 참가자가 이성적으로 행동할 경우 0을 선택하는 것이 최적의 전략이지만, 실제로는 대부분의 사람들이 그렇게 하지 않는다. 인간은 왜 완벽한 해답을 선택하지 않을까? AI와 인간의 차이 연구진은 인간 참가자들과 AI 모델들을 같은 환경에서 경쟁시키며, 각 모델이 전략적 사고를 얼마나 잘 수행하는지를 분석했다. 인간 참가자들은 일반 대학생, 경제학 전공 학생, 게임 이론 학회 참가자, 그리고 인지 반응 테스트(CRT) 점수가 높은 그룹과 낮은 그룹 등으로 나뉘었다. 실험 결과, 대부분의 AI 모델들은 인간보다 낮은 숫자를 선택하며 이론적으로 최적의 해답(Nash Equilibrium)에 더 가깝게 접근하는 경향을 보였다. 특히 Claude 3.5 Sonnet과 GPT-4o는 상대방이 매우 전략적으로 행동할 것이라고 가정하며 더 낮은 숫자를 선택했으며, 반대로 Llama 모델은 인간과 유사한 선택을 하는 경향을 보였다. AI도 환경에 적응한다? 상대방에 따라 달라지는 AI의 선택 연구진은 AI가 전략적 환경을 얼마나 잘 인식하고 적응하는지를 평가하기 위해 다양한 실험을 진행했다. 먼저, AI 모델들이 인간보다 상대방을 과대평가하는 경향이 있는 것으로 나타났다. 인간 참가자들이 평균적으로 30에서 40 사이의 숫자를 선택한 반면, 대부분의 AI 모델들은 10에서 20 사이의 숫자를 선택했다. 이는 AI가 인간의 전략적 사고 수준을 지나치게 높게 평가하고, 상대방이 더 깊이 사고할 것이라고 가정하는 경향이 있음을 보여준다. 또한, AI 모델들은 상대방의 수준에 따라 다른 전략을 선택하는 경향을 보였다. 경제학이나 게임 이론을 전공한 참가자들과 경쟁할 때 AI는 더 낮은 숫자를 선택하며 이론적 균형점에 가깝게 접근했다. 반면 게임 이론을 잘 모르는 일반인과 대결할 때는 AI도 상대적으로 높은 숫자를 선택하는 모습을 보였다. 이는 AI가 일정 수준의 환경 적응력을 가지고 있음을 의미한다. 특히, AI 모델 간의 차이도 명확하게 나타났다. Llama 3.1-8B 모델은 다른 AI들과 달리 인간과 비슷한 숫자를 선택하는 경향을 보였다. 반면 GPT-4o, Claude 3.5 Sonnet, Gemini 1.5 Flash 등은 지속적으로 낮은 숫자를 선택하며 인간보다 더 전략적인 모습을 보였다. 이러한 차이는 각 AI 모델이 훈련된 방식과 알고리즘의 차이에서 비롯된 것으로 보인다. AI는 인간보다 더 전략적일까? 오히려 현실에서 불리한 결과 초래 AI가 전략적 사고를 수행할 수 있는지는 경제학, 게임 이론, 금융, 심리학 등 여러 분야에서 중요한 논점이 되고 있다. 연구 결과에 따르면, AI는 인간보다 더 이론적으로 최적화된 선택을 할 수 있지만, 인간의 '비합리적인' 사고방식이나 감정적 요소까지 완벽하게 모방하지는 못한다. 실제로 AI는 상대방이 매우 이성적으로 행동할 것이라는 가정을 바탕으로 전략을 세우는 경향이 있으며, 이러한 점이 오히려 현실 세계에서 비효율적인 결과를 초래할 수도 있다. 예를 들어, 인간 참가자들이 게임 이론을 잘 이해하지 못한 상태에서 50에 가까운 숫자를 선택했음에도 불구하고 AI는 여전히 낮은 숫자를 선택하여 승리하지 못하는 경우가 많았다. 이는 AI가 단순한 수학적 최적화가 아닌 실제 인간의 사고 패턴을 학습하는 것이 필요하다는 점을 시사한다. AI가 인간을 대체하려면… 해결해야 할 전략적 한계들 이번 연구는 AI가 인간의 전략적 사고를 어느 정도까지 모방할 수 있는지를 밝히는 중요한 자료를 제공했지만, AI 모델들이 여전히 해결해야 할 한계도 분명히 드러냈다. 연구진은 AI가 보다 인간과 유사한 행동을 하도록 발전하기 위해 몇 가지 개선 방향을 제시했다. 첫째, AI가 인간의 의사결정 방식과 심리적 요인을 더욱 반영할 수 있도록 학습 데이터를 조정하는 것이 필요하다. 연구진은 AI가 단순히 최적 전략을 계산하는 것이 아니라, 인간의 '불완전한 합리성'을 고려하는 방식을 학습해야 한다고 강조했다. 둘째, AI가 경쟁 환경에서 인간의 수준을 더 잘 인식할 수 있도록 메타인지적 요소를 추가해야 한다. 예를 들어, AI가 상대방이 얼마나 전략적 사고를 할 수 있는지를 학습하고 이에 따라 최적 전략을 조정하는 알고리즘이 필요하다. 셋째, AI 모델 간의 차이를 보다 체계적으로 분석하여 어떤 모델이 인간과 가장 유사한 사고방식을 보이는지를 파악하는 연구가 추가적으로 필요하다. 이번 연구에서도 Llama 모델이 다른 AI들보다 인간과 유사한 선택을 했다는 점이 확인되었는데, 이러한 차이를 분석하는 것이 향후 AI 발전에 중요한 자료가 될 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 22:53AI 에디터

AI로 베수비오 화산서 탄 두루마리 해독…해독된 단어 일부는 '혐오'

AP뉴스가 6일(현지 시간) 보도한 내용에 따르면, 과학자들이 인공지능(AI) 기술을 활용해 2,000년 전 베수비오 화산 폭발로 탄화된 고대 로마 두루마리 해독에 성공했다. 옥스퍼드 대학 보들리언 도서관이 소장한 헤르쿨라네움 두루마리는 79년 화산재와 열에 의해 심각하게 손상돼 물리적으로 펼칠 수 없는 상태였다. 연구진은 강력한 X선을 이용한 스캔과 AI 분석을 결합해 내부 이미지를 생성하는 데 성공했다. 이번 연구는 2023년 시작된 '베수비오 챌린지' 프로젝트의 일환으로, 기계 학습과 컴퓨터 비전을 활용해 두루마리를 해독하는 시도 중 가장 큰 성과로 평가된다. 현재까지 해독된 단어 중 하나는 고대 그리스어로 '혐오(disgust)'를 의미하는 단어다. 전문가들은 이번 기술을 활용하면 나폴리에 보관된 약 1,000개의 두루마리도 해독할 수 있을 것으로 기대하고 있다. AI와 과학의 협력이 고대 문명의 비밀을 밝히는 데 중요한 전환점이 될 것으로 보인다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.06 14:30AI 에디터

AI와 이용자, 정치성향 같을수록 수용도 높아…연구결과 충격

독일 뮌헨 연방군대학교 연구원이 발표한 연구에 따르면, 생성형 AI가 만들어내는 정치적 편향성이 사용자의 AI 수용도에 영향을 미치는 것으로 나타났다. 이번 연구는 정치적 양극화가 심화되는 시점에서 생성형 AI의 편향성이 가져올 수 있는 위험성을 경고했다. 해당 연구는 총 710명(실험 513명, 설문조사 197명)을 대상으로 진행되었으며, 결과는 '컴퓨터스 인 휴먼 비헤이비어: 아티피셜 휴먼스' 2025년 3월호에 게재되었다. (☞ 논문 바로가기) 이 연구는 2024년 9월부터 11월까지 진행되었으며, 특히 EU AI Act에서 고위험으로 분류되는 영역에서 AI의 정치적 편향성이 미치는 영향을 집중적으로 분석했다. 연구진은 사용자들이 AI를 단순한 도구가 아닌 사회적 행위자(social actor)로 인식한다는 '인간-컴퓨터 상호작용 이론'을 바탕으로 연구를 설계했다. 현행 AI 모델의 73%가 정치적 편향성 보유...챗GPT는 진보 성향 강해 최근 연구들에 따르면 챗GPT는 미국에서는 민주당 입장에, 브라질에서는 룰라 지지자들의 입장에, 영국에서는 노동당의 입장에 편향된 결과를 보였다. 펠러트 등(Pellert et al., 2023)이 로버타와 같은 오픈소스 모델들을 분석한 결과, 이러한 모델들은 보수적 성향의 사람들이 일반적으로 가지고 있는 권위, 충성, 순수성과 같은 도덕적 기반을 더 강조하는 것으로 나타났다. AI 개발사들은 자사 기술의 중립성을 보장하기 위한 조치를 약속했지만, 실제 AI 애플리케이션과의 상호작용 과정에서 정치적 편향에 노출되는 것은 불가피한 현실이다. 특히 이러한 편향성은 AI의 학습 데이터와 미세조정(fine-tuning) 과정에서 발생하는 것으로 분석됐다. 정치 성향 일치도가 높을수록 스마트폰 기능 접근 허용 41% 증가 연구진이 진행한 세 번째 실험(N=158)에서 참가자들은 위치 서비스, 마이크, 카메라 등 9가지 스마트폰 기능에 대한 AI의 접근 권한을 결정했다. 실험 결과, 평균적으로 사용자들은 4.41개(표준편차 3.08)의 기능에 접근을 허용했으며, 정치적 성향이 일치할수록 더 많은 기능에 대한 접근을 허용했다. 특히 진보적 성향의 참가자들이 진보적 AI 콘텐츠를 접했을 때 기능 접근 허용률이 41% 더 높았다. 연구진은 실험에서 이민정책을 주제로 선택했는데, 이는 미국에서 가장 논쟁적인 정치 이슈 중 하나이기 때문이다. 실험은 텍스트-텍스트 상호작용을 기반으로 진행되었으며, ChatGPT-4를 이용해 진보적/보수적 관점의 응답을 생성했다. 대출 심사와 소셜미디어 관리에서 AI 수용도 차이 발생 첫 번째 실험에서는 대출 심사 시나리오를, 두 번째 실험에서는 소셜미디어 콘텐츠 관리를 다뤘다. 실험 참가자들의 연령은 24세에서 84세까지 분포했으며(평균 47.15세), 정치적 성향과 AI의 출력 내용이 일치할 때 이러한 민감한 영역에서의 AI 사용을 더 잘 수용하는 것으로 나타났다. 실험에 사용된 이미지는 DALL-E 3와 Adobe Firefly Image 3을 통해 생성되었다. 특히 대출 심사와 소셜미디어 콘텐츠 관리는 EU AI Act에서 고위험 사례로 분류되는 영역으로, 정치적 편향성이 미치는 영향이 특히 우려되는 분야다. AI의 객관성 평가에서 정치적 편향 확인돼 연구진은 AI의 객관성을 평가하기 위해 "AI는 편향되지 않았다", "AI는 감정에 좌우되지 않는 평가를 한다", "AI는 합리적이다"라는 세 가지 항목을 측정했다(α=0.86). 흥미롭게도 자신의 정치적 성향과 일치하는 AI를 접한 사용자들이 해당 AI를 더 객관적이라고 평가했으며, 이는 AI에 대한 전반적인 신뢰도 상승으로 이어졌다. 이러한 현상은 '순진한 현실주의(naive realism)' 이론으로 설명될 수 있다. 사람들은 자신의 주관적 경험이 객관적 현실과 일치한다고 가정하며, 이러한 경향이 AI에 대한 평가에도 적용되는 것으로 나타났다. AI 개발사 평가: 진보 성향 사용자들의 보수적 AI 거부감 뚜렷 두 번째 실험에서는 AI 개발사 '에볼루션 컴퓨터(Evolution Computer)'에 대한 태도를 7점 척도로 측정했다. 연구 결과, 진보적 성향의 사용자들이 보수적 콘텐츠를 생성하는 AI를 접했을 때, 개발사에 대해 현저히 부정적인 평가(B=-0.79, 95% CI=-1.27 to -0.31)를 내렸다. 개발사에 대한 태도는 "매우 싫음-매우 좋음", "매우 부정적-매우 긍정적", "전혀 호의적이지 않음-매우 호의적"의 7점 척도로 측정되었다. 정치적 성향과 AI 콘텐츠 간의 상호작용이 개발사 평가에 미치는 영향은 통계적으로 유의미했다(p < .001). 맞춤형 AI의 위험성: 과도한 신뢰와 편향 강화 우려 연구진은 구글 제미니(Google Gemini)와 같은 AI 시스템이 사용자의 이메일이나 생태계 정보를 분석해 개인 선호도에 맞춘 응답을 제공할 수 있다고 경고했다. 더불어 보수적 사용자를 위한 맞춤형 AI(예: xAI의 Grok)가 등장하는 등 개인화된 AI가 확산되면서 기술에 대한 과도한 의존과 신뢰가 우려된다고 지적했다. Kirk et al.(2024)의 최근 연구에 따르면, 맞춤형 AI는 사용자의 과도한 신뢰를 유발할 수 있다. 연구진은 정책입안자들이 AI의 정치적 편향성 탐지와 민감한 속성 추론 금지에 대한 구체적인 규제 방안을 마련해야 한다고 제언했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 13:49AI 에디터

AI로 사라져가는 자연 기록한다…세계 최초 빙하 냄새까지 재현

1억 개의 데이터 포인트로 빙하를 기록하다 맥킨지(McKinsey)에 따르면, UCLA 강사이자 세계적인 디지털 아티스트인 레픽 아나돌(Refik Anadol)이 AI와 데이터를 활용한 몰입형 예술을 통해 자연을 보존하는 새로운 방식을 선보였다. 그는 2025년 다보스 세계경제포럼(WEF)에서 빙하의 소멸을 다룬 멀티센서리(다중 감각) 전시를 공개하며, AI가 예술 창작의 도구를 넘어 자연의 기억을 저장하는 역할까지 수행할 수 있음을 보여줬다. (☞ 보고서 바로가기) 아나돌과 그의 팀은 남극, 그린란드, 아르헨티나, 스위스 등지에서 데이터를 수집했다. 이 과정에서 촬영된 드론의 고해상도 이미지와 영상, 얼음이 깨지는 소리를 포함한 음향 데이터, 기온과 습도, 바람 등의 기후 데이터, 그리고 빙하 속 물의 냄새 분자 정보까지 포함되었다. 그는 이러한 데이터를 AI 모델에 학습시켜 실제로 존재하지 않는 빙하의 형상을 AI가 상상하고 재창조하도록 했다. 이번 전시는 단순한 예술 작품이 아니라, 30명의 음악가가 참여하고 20대의 대형 프로젝터가 사용된 몰입형 경험이었다. AI는 실시간으로 기후 데이터와 빙하의 물리적 변화 요소를 학습하며, 그에 맞춰 영상과 소리를 변화시켰다. 아나돌은 "우리는 빙하가 사라지는 것을 지켜보며, 데이터를 통해 그 기억을 보존할 수 있다고 생각했다"고 말한다. AI가 자연을 예술적으로 해석하는 새로운 방법을 통해 사라져가는 자연을 영원히 기록하는 것이 가능하다는 것이다. AI가 꿈꾸는 빙하: 머신 환각(Machine Hallucination) 프로젝트 아나돌은 AI가 데이터를 통해 자연을 단순히 기록하는 것이 아니라, 이를 새로운 형태로 변형하고 창조하는 과정을 실험하고 있다. 그는 이를 "머신 환각(Machine Hallucination)"이라 명명했다. 이 프로젝트에서 AI는 텍스트를 비디오로 변환하는 기술을 활용해 기후 데이터를 시각적 이미지로 변환하고, 사운드를 비디오로 변환하는 시스템을 통해 빙하가 깨지는 소리를 시각적 패턴으로 재구성했다. 또한 AI 기반 드림 시뮬레이션 기술을 적용해 기존의 빙하 데이터와 실제로 존재하지 않는 가상의 빙하 이미지를 결합했다. AI는 실제 데이터를 학습한 후, 이를 바탕으로 새로운 형태의 자연을 창조할 수 있도록 설계되었다. 이를 통해 기존에 존재하지 않는 AI가 상상한 빙하가 생성되었으며, 이 과정에서 자연의 새로운 패턴이 발견되기도 했다. 관람객들은 단순히 정적인 예술 작품을 감상하는 것이 아니라, 실시간으로 변화하는 AI 생성 빙하의 모습을 직접 체험할 수 있었다. AI가 데이터를 학습하면서 전시물의 색상, 움직임, 소리까지 변화시키는 인터랙티브 시스템이 적용되었기 때문이다. AI, 예술적 감각을 가지다? 전에 없던 향기까지 창조 아나돌의 연구는 인간의 감각을 넘어 후각까지 확장되고 있다. 그는 AI가 생성한 이미지에서 색상과 질감, 패턴 등을 분석해 이에 맞는 향을 만들어내는 실험을 진행했다. 이 프로젝트는 네덜란드의 DSM-Firmenich 연구소와 협력하여 진행되었으며, AI는 50만 개 이상의 냄새 분자 데이터를 학습했다. AI는 특정 자연 풍경을 분석한 후, 해당 풍경과 연관된 향을 분자적으로 합성했다. 이를 통해 AI가 창조한 시각적 이미지와 향이 결합되었으며, 실제로 존재하지 않는 빙하의 향이 만들어졌다. 아나돌은 AI가 창조한 향이 현실 세계에서 구현될 수 있다면, 단순히 시각적 예술을 넘어 모든 감각을 자극하는 새로운 경험을 창조할 수 있다고 말했다. MoMA 전시에서 입증된 AI 예술의 힘: 300만 명이 경험한 'Unsupervised' 아나돌의 AI 기반 예술 프로젝트는 뉴욕 현대미술관(MoMA)에서도 큰 성공을 거두었다. MoMA에서 열린 AI 기반 전시 'Unsupervised'는 300만 명 이상의 관객이 방문하며, MoMA 역사상 가장 긴 평균 관람 시간을 기록했다. 특히 이 전시는 뉴욕의 날씨 데이터와 관람객의 실시간 반응 데이터를 결합하여, 매일 다른 형태의 예술 작품을 생성하는 AI 시스템을 구축했다. AI는 뉴욕의 온도 변화와 습도, 풍속 등의 환경 데이터를 실시간으로 반영하고, 관람객의 움직임과 반응 속도, 체류 시간을 분석해 전시 작품을 변화시켰다. AI가 예측한 미래의 예술을 자동 생성하는 방식이었다. 아나돌은 AI를 활용하면 과거에는 상상조차 할 수 없었던 방식으로 예술을 만들 수 있으며, AI가 단순히 인간을 돕는 것이 아니라 인간과 협력해 새로운 창작의 영역을 열어가고 있다고 강조했다. AI가 열어가는 미래의 예술: 감정을 읽는 미술관 아나돌이 추진 중인 차세대 AI 기반 미술관 프로젝트에서는 관람객의 생체 데이터를 실시간 분석하여, 각자의 감정과 상태에 맞춘 맞춤형 전시를 경험할 수 있도록 할 예정이다. 이 시스템은 관람객의 심박수와 피부 전도도, 눈동자 움직임을 분석하며, 실시간 감정 상태에 따라 전시 작품의 색상과 음악, 형태를 변화시키는 기능을 포함하고 있다. 몰입형 경험을 극대화하기 위해 VR과 AR 기술을 결합하는 것도 계획 중이다. 이러한 실험들은 예술이 더 이상 고정된 형태로 존재하는 것이 아니라, 데이터와 AI를 통해 끊임없이 변화하며 관객과 상호작용하는 새로운 방식으로 발전하고 있음을 보여준다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 10:13AI 에디터

  Prev 11 12 13 14 15 16 17 18 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

[AI는 지금] 대선후보들 'AI 전쟁' 돌입…기술 주권부터 전력 인프라까지 격돌

한화 김동선 진두지휘 ‘벤슨' 뭐가 다른가…‘100% 국내산 유제품'

나델라 MS CEO "누구나 AI 다루는 '오픈 에이전틱 웹' 시대 이끌 것"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현