• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'에디터'통합검색 결과 입니다. (419건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[Q&AI] 새벽 4시 오픈런?…트레이더스 마곡점 AI 추천 아이템 톱20

질문: 이마트 트레이더스 마곡점이 왜 인기야? 앨런 답변: 이마트 트레이더스 마곡점이 인기를 끄는 이유는 여러 가지가 있습니다: 최대 규모: 마곡점은 트레이더스 매장 중 가장 큰 규모로, 면적이 약 3520평(1만1636㎡)에 달합니다. 이는 기존 매장보다 10% 이상 넓은 면적입니다. 압도적인 가격 경쟁력: 트레이더스는 저렴한 가격으로 다양한 상품을 제공하여 소비자들에게 큰 인기를 끌고 있습니다. 차별화된 상품: 마곡점에서는 다른 매장에서 볼 수 없는 단독 상품과 특별한 행사 상품을 제공합니다. 예를 들어, 오픈 기념으로 '히비키', '맥켈란' 등의 프리미엄 위스키를 최대 물량으로 확보했습니다. 교통 및 상권: 마곡점은 강서 지역의 첫 창고형 할인점으로, 강력한 교통망과 오피스 상권을 배후로 두고 있어 거주민뿐만 아니라 유동 인구까지 흡수할 수 있습니다. 로드쇼 및 팝업 매대: 매장 내 13곳의 로드쇼 공간을 마련하여 다양한 상품을 특별 판매하는 등 차별화된 매장 운영을 하고 있습니다. 이러한 요소들이 결합되어 이마트 트레이더스 마곡점은 소비자들 사이에서 큰 인기를 끌고 있습니다. 질문2. 이마트 트레이더스 마곡점에서 꼭 사야 하는 제품 20개 추천해줘. 앨런 답변: 이마트 트레이더스 마곡점에서 꼭 사야 하는 제품 20가지를 추천해드리겠습니다: 김창수 위스키 싱글캐스크 51.8 (700ml): 트레이더스를 위해 단독 생산된 한정판 위스키 숯불데리야끼 닭꼬치 (1.2kg): 베스트셀러 상품으로 오픈 기념 할인 행사 중. 호주산 냉동 차돌박이: 오픈 기념 할인 상품. 호주산 냉장 와규 구이 모둠: 오픈 기념 할인 상품. 양념 소불고기 (2.7kg, 냉장): 할인 행사 중. 한우 등심: 오픈 기념 할인 행사 중 T-STANDARD 상품: 트레이더스의 자체 브랜드 상품으로 다양한 제품이 할인 중. 다이슨 무선청소기: 인기 가전제품 특별가 판매 소니 미러리스 카메라: 인기 가전제품 특별가 판매 LG 울트라PC: 인기 가전제품 특별가 판매 반다이 남코 토이류: 로드쇼에서 판매되는 한정판 상품 로지텍 게이밍 기기: 로드쇼에서 판매되는 한정판 상품 코코망고 알맹이 젤리: 다양한 맛의 젤리 시리즈 스타벅스 텀블러: 인기 브랜드 상품. 필립스 전기면도기: 인기 브랜드 상품. 다양한 사무용품: 스탠딩테이블, 키보드, 마우스, 건전지 등 업소용 대형 냉장고: 오피스 상권을 고려한 상품 대형 피자: T-카페에서 제공되는 가성비 높은 메뉴 치즈 오븐 스파게티: T-카페에서 제공되는 가성비 높은 메뉴 쌀국수: T-카페에서 제공되는 가성비 높은 메뉴 이 제품들은 트레이더스 마곡점에서 특히 주목받고 있는 상품들로, 방문 시 꼭 확인해보시길 추천드립니다. ■ 기사는 앨런을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.15 08:14AI 에디터

챗GPT가 쓴 글, 사람 글과 어떤 점이 다를까

AI 생성 문장, 인간과 얼마나 비슷할까? 호주 재무부에서 진행한 코파일럿 실험 보고서에 따르면, 코파일럿(Copilot) 같은 대형 언어 모델이 생성하는 문장은 표면적으로는 자연스럽게 보이지만, 통계적으로 분석했을 때 인간이 작성한 문장과는 뚜렷한 차이가 존재하는 것으로 나타났다. 연구진은 수만 개의 실제 데이터와 AI가 만든 텍스트를 비교 분석하여 AI 문장의 구조적, 통계적 차이를 규명했다. (☞ 보고서 바로가기) AI의 업무 지원 기대치 50%, 실제 영향은 더 높아 연구에서는 AI의 실질적인 활용 가능성을 평가하기 위해, 사용자가 AI가 지원할 것으로 기대한 작업량과 실제 지원된 작업량을 비교하였다. 실험 결과, AI가 지원할 수 있다고 예상한 업무량과 실제로 지원한 업무량 간에는 큰 차이가 존재했다. 연구 참여자들의 사전 기대치는 "대부분의 업무(50% 이상)를 지원할 것"이라고 답한 비율이 19%에 불과했으나, 실험 후 AI가 실질적으로 지원했다고 느낀 업무량은 더 높았다. AI가 실제 업무 프로세스에 미친 영향을 분석한 결과에서도 유사한 경향이 나타났다. 관리자와 실험 참가자의 평가를 비교한 결과, 관리자의 59%가 코파일럿이 업무에 아무런 영향을 미치지 않았다고 답한 반면, 실험 참가자의 56%는 긍정적인 영향을 주었다고 응답했다. Copilot이 매우 긍정적인 영향을 주었다고 답한 비율은 관리자 2%보다 실험 참가자가 7%로 더 높았다. 반면, 부정적인 영향을 주었다고 답한 비율은 매우 낮아, AI가 업무에 미치는 부정적 요소는 크지 않은 것으로 나타났다. AI 문장 변형 반복할수록 인간의 글쓰기와 더 차이나 연구진은 AI가 문장을 변형할 때 발생하는 차이를 확인하기 위해 두 가지 실험을 진행했다. 첫 번째 실험에서는 원본 문장(O)과 AI가 이를 변형한 버전(G) 간의 차이를 측정했다. 두 번째 실험에서는 AI가 이미 한 번 변형한 문장(G)을 다시 변형한 버전(S)과의 차이를 비교했다. 실험 결과, AI가 문장을 변형하는 과정에서 원본과의 거리가 점점 더 벌어지는 경향이 나타났다. AI의 온도 매개변수 설정 높을수록 창의적, 감성적 표현 증가 연구진은 코파일럿 생성하는 문장의 특성을 파악하기 위해 '온도(Temperature)' 매개변수를 조절하며 동일한 문장을 생성하는 실험을 진행했다. 생성형 AI에서 '온도(Temperature)' 매개변수는 모델이 응답을 생성할 때 무작위성의 정도를 조절하는 역할을 의미한다. 온도 값이 낮을수록 원본 문장과 유사한 표현을 유지했고, 온도 값이 높을수록 보다 창의적이고 감성적인 표현이 포함되었다. 예를 들어, 원본 호텔 리뷰가 "기본적이고, 깨끗하고 편안한 호텔이다. 단기 숙박으로는 나쁘지 않다. 모든 것과의 접근성이 좋다"였다면, AI는 온도 값에 따라 다음과 같이 문장을 변형했다. 낮은 온도 설정에서는 "저렴하면서도 깨끗하고 아늑한 숙소를 제공하는 호텔이다. 빠른 숙박에 적합하다. 편리한 위치 덕분에 모든 편의시설에 쉽게 접근할 수 있다"와 같이 원본에 가까운 표현을 생성했다. 반면 온도가 높을 경우 "이 부티크 호텔은 기대 이상이었다. 객실은 아늑했고 직원들도 친절했다. 도시를 둘러보기에 완벽한 위치였다. 짧은 여행을 위한 훌륭한 선택이다"와 같이 원본과 상당히 다른 문장을 생성하는 경향을 보였다. AI, 긴 문장 생성시 한계 뚜렷… 문맥 파악하는 데 부자연스러워 연구진은 AI가 인간과 동일한 방식으로 글을 쓰지 못하는 주요 이유로 문맥을 장기적으로 유지하는 능력 부족을 꼽았다. 인간의 글은 문맥적 흐름을 기반으로 한 논리적 전개가 강한 반면, AI는 주어진 문장 내에서만 최적의 표현을 찾는 데 집중하기 때문이다. 이는 특히 긴 텍스트를 생성할 때 명확하게 드러나며, AI가 장기적 문맥을 유지하는 데 한계를 보인다는 점을 보여준다. 연구 결과에 따르면, AI가 문장을 생성할 때 문맥적 연결성을 충분히 반영하지 못하는 경우가 많았다. 예를 들어, 동일한 글에서 앞뒤 문장이 자연스럽게 이어져야 하지만, AI가 생성한 문장은 일부 문맥이 단절되거나, 동일한 내용을 반복하는 경향이 나타났다. 인간처럼 쓰지 못하는 AI, 문장 재구성할수록 원본과 멀어지는 구조가 원인 연구진은 AI가 생성하는 텍스트의 가장 큰 한계 중 하나로 통계적으로 인간과의 차이를 좁히기 어려운 구조적 문제를 지적했다. 연구에서는 원본 문장(O)과 AI가 이를 변형한 문장(G), 그리고 AI가 다시 변형한 문장(S) 간의 유사성을 측정했으며, AI가 한 번 변형한 문장과 원본 간의 차이가 두 번째 변형된 문장과의 차이보다 더 작다는 점을 발견했다. 이는 AI가 문장을 반복적으로 재구성할수록 원본과 더욱 멀어지는 경향이 있음을 시사한다. 연구진은 이를 통계적으로 분석하기 위해 호텔링의 T-제곱 검정, Nploc 검정, 에너지 검정, 볼 검정 등 네 가지 통계 기법을 활용했다. 또한 텍스트 간의 통계적 유사도를 평가하기 위해 쿨백-라이블러 발산(KL divergence)과 바서스타인 거리(Wasserstein distance)를 측정했다. 이러한 분석을 통해 AI가 생성한 문장이 인간이 쓴 문장과 점점 더 차이가 나게 되는 경향이 있음을 입증했다. AI 글쓰기의 한계와 향후 발전 방향은 모두 문맥 유지 능력 이번 연구는 AI가 생성하는 텍스트의 신뢰성을 평가하는 데 중요한 시사점을 제공한다. AI가 생성한 문장은 표면적으로 자연스럽게 보일 수 있지만, 인간이 작성한 글과는 근본적으로 다른 방식으로 생성된다는 점이 통계적으로 입증되었다. AI가 인간처럼 문장을 구조화하고 문맥을 유지하는 능력이 아직 완전하지 않다는 점에서, 향후 발전 방향으로는 문맥 유지 능력을 강화하는 연구가 필요할 것으로 보인다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.15 08:02AI 에디터

학계에서도 AI 성별 격차... 남성 연구자 AI 사용시간·효율성 더 높아

미국 국립과학원회보(PNAS Nexus) 2025년 2월호에 게재된 연구에 따르면, 생성형 인공지능(AI)이 학계의 성별 생산성 격차를 더욱 벌리는 것으로 나타났다. 연구진은 챗GPT(ChatGPT) 출시 전후의 학술 논문 데이터를 분석하고 연구자 설문조사를 실시해 AI가 학계 성별 격차에 미치는 영향을 종합적으로 살펴보았다. (☞ 보고서 바로가기) 1시간 만에 논문 작성...챗GPT가 바꾼 학계 연구 환경 네이처(Nature)의 온라인 설문조사에서 응답자 672명 중 약 80%가 챗GPT나 유사한 AI 도구를 최소 한 번 이상 사용한 경험이 있다고 답했다. 실제로 두 명의 과학자가 챗GPT의 도움을 받아 1시간 만에 연구 논문을 작성했으며, 경제학자들은 챗GPT를 활용해 마이크로태스크를 자동화함으로써 상당한 생산성 향상을 이룰 수 있다고 보고했다. 직장인 챗GPT 사용률: 남성 65% vs 여성 47% 2023년 3월과 7월 실시된 두 차례의 설문조사에서 남성이 여성보다 챗GPT 사용 비율이 높았다. 직장인 대상 조사에서 남성 전문직 종사자의 65%가 챗GPT를 사용해본 반면, 여성은 47%에 그쳤다. 연구진의 설문에서도 남성 연구자들의 AI 도구 사용 빈도(남성 평균 3.43 vs 여성 평균 3.01)와 주당 사용 시간(남성 평균 2.78시간 vs 여성 평균 2.47시간)이 더 높았다. SSRN 분석 결과: 챗GPT 이후 성별 격차 57.1% 확대 소셜사이언스 리서치 네트워크(SSRN) 분석 결과, 저자당 월평균 논문 업로드 확률은 0.065였다. 챗GPT 출시 이후 남성 연구자들의 생산성이 여성 대비 6.4% 더 높은 증가율을 보였고, 이는 기존 성별 생산성 격차를 57.1%(0.007에서 0.011로) 확대시켰다. AI 효율성 향상 체감도(남성 4.80 vs 여성 4.40)와 AI 도구 추천 의향(남성 5.12 vs 여성 4.76)에서도 성별 차이가 뚜렷했다. AI 사용 행태가 생산성에 미치는 영향 분석 연구진은 성별이 연구 생산성에 미치는 영향을 AI 사용 시간과 빈도가 매개하는지 분석했다. 부트스트랩 분석(5,000회 샘플링) 결과, AI 사용 시간을 통한 간접효과가 유의미했다(b=0.24, SE=0.09, 95% CI=[0.08, 0.41]). AI 사용 빈도를 통한 간접효과 역시 통계적으로 유의미했다(b=0.27, SE=0.11, 95% CI=[0.05, 0.50]). 이는 성별에 따른 생산성 차이가 AI 사용 시간과 빈도의 차이에서 비롯됨을 보여준다. 특히 AI 도구 추천 의향에서도 유사한 매개 효과가 발견되었는데, AI 사용 시간(b=0.19, SE=0.07, 95% CI=[0.05, 0.33])과 사용 빈도(b=0.21, SE=0.09, 95% CI=[0.04, 0.39]) 모두 유의미한 매개 효과를 보였다. 웹트래픽 분석으로 본 200개국 챗GPT 도입 현황 연구진은 200개 이상 국가의 챗GPT 도입률을 웹트래픽, 방문자 수, 페이지뷰, 이탈률로 분석했다. 챗GPT 보급률이 높은 국가에서 연구 생산성의 성별 격차가 더 컸다. 학문 분야별로는 마케팅, 인류학, 컴퓨터 과학, 혁신 분야에서 통계적으로 유의미한 성별 차이가 발견되었으며, 사회과학 분야에서 더 뚜렷한 경향을 보였다. AI 사용이 논문 품질에 미치는 영향...양적 생산성만 증가, 질적 차이는 없다 SSRN의 품질 지표인 논문 초록 조회수와 다운로드 수 분석 결과, 챗GPT 출현 이후에도 남성과 여성 연구자들의 논문 품질 차이는 발견되지 않았다. 이는 AI 활용이 논문의 양적 생산성만 증가시켰을 뿐, 질적 차이를 유발하지는 않았음을 시사한다. 성별 편향성 해소를 위한 제도적 대응 방안 연구진은 AI로 인한 성별 격차 해소를 위한 구체적인 방안들을 제시했다. 우선 AI 시스템 개발자들은 정기적인 감사를 통해 시스템이 윤리적 가이드라인을 준수하고 성별 격차를 심화시키지 않는지 점검해야 한다고 강조했다. 또한 AI 모델 학습에 사용되는 데이터가 모든 성별을 대표할 수 있도록 해야 하며, 정부와 기관은 AI 시스템 도입 전 성별 편향성 평가를 의무화하는 정책을 수립해야 한다고 제안했다. 더불어 성평등 촉진을 위한 AI 연구 지원을 확대하고, 전체 연구자를 대상으로 하는 AI 활용 교육 기회를 대폭 확대할 필요가 있다고 덧붙였다. 학계의 성별 AI 생산성 격차, 장기적으론 경력 격차로 이어질 수 있어 연구진은 현재의 생산성 격차가 승진과 자리 경쟁에서 장기적인 경력 격차로 이어질 수 있다고 경고했다. 특히 학계에서는 이미 실험실 공간, 연구 지원금, 리더십 포지션 등에서 성별 격차가 존재하는데, AI가 이러한 격차를 더욱 심화시킬 수 있다고 지적했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.14 16:03AI 에디터

중국 AI 딥시크, 보안 테스트 줄줄이 실패…"기업 사용 부적합"

중국의 생성형 AI 서비스 딥시크(DeepSeek)가 주요 보안 테스트에서 잇따라 실패해 사용자들의 주의가 필요한 것으로 나타났다. Fox26뉴스가 13일(현지 시간) 보도한 내용에 따르면, 시더빌대학교(Cedarville University)의 사이버보안 전문가 데이비드 레이드(David Reid)는 "딥시크의 최근 테스트 결과가 매우 우려스럽다"며 "특히 AI 시스템을 무력화하는 잽브레이크(jailbreak)가 가능했고, 일부 경우에는 실제 멀웨어까지 생성할 수 있었다는 점이 큰 문제"라고 지적했다. 실리콘밸리의 보안 업체 앱속(AppSOC)이 실시한 테스트에서 딥시크는 잽브레이크, 인젝션 공격, 멀웨어 생성 등 여러 분야에서 보안 기준을 통과하지 못했다. 앱속은 딥시크의 위험도를 10점 만점에 8.3점으로 평가하며, 민감한 데이터나 지적재산권이 관련된 기업 환경에서의 사용을 금지할 것을 권고했다. 미시간주립대학교(Michigan State University)의 AI 전문가 안자나 수살라(Anjana Susarla) 교수는 "기업들이 딥시크 도입을 고려할 때 이번 테스트 결과를 심각하게 받아들여야 한다"며 "챗GPT(ChatGPT)와 유사한 기능을 제공하지만, 보안 수준이 현저히 떨어진다"고 평가했다. 레이드 교수는 "딥시크가 저렴한 서비스를 제공하는 이유는 그들의 데이터 획득 방식과 제작 과정에 문제가 있기 때문"이라며 "소비자들은 이러한 위험을 인지해야 한다"고 경고했다. 전문가들은 특히 딥시크를 고객 응대용 챗봇이나 기업의 민감한 정보를 다루는 업무에 사용하는 것은 부적절하다고 조언했다. ■ 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.14 14:20AI 에디터

머스크, 오픈AI 인수 제안서 봤더니…"현금 974억 달러 지급"

일론 머스크가 이끄는 투자자 컨소시엄이 오픈AI(OpenAI) 인수를 위해 974억 달러 규모의 제안서를 제출했다. 머스크의 인공지능 기업 엑스닷AI(x.AI)를 포함한 7개 이상의 투자사가 참여한 이번 제안은 오픈AI의 비영리 전환을 막기 위한 소송과 맞물려 주목을 받고 있다. 테크크런치(TechCrunch)가 13일(현지 시간) 보도한 내용에 따르면, 오픈AI의 샘 올트만(Sam Altman) CEO는 이번 제안을 일축했으나, 이사회는 아직 공식적인 거절 의사를 밝히지 않았다. 주요 제안서 내용과 쟁점 ▶ 명확한 시한 설정 인수 제안은 2025년 5월 10일까지 유효하다. 단, 양측이 논의 종료에 합의하거나 오픈AI가 서면으로 공식 거절할 경우 조기 종료될 수 있다. ▶ 전액 현금 거래 조 론스데일의 8VC(8VC)와 스페이스X(SpaceX) 투자사 바이캐피털(Vy Capital) 등이 참여한 컨소시엄은 974억 달러를 현금으로 지급하겠다고 밝혔다. 이는 2022년 트위터(현 X) 인수 때 130억 달러의 부채를 활용했던 머스크의 이전 거래 방식과는 다른 접근이다. ▶ 실사 요구 인수팀은 오픈AI의 재무, 사업 기록뿐 아니라 직원 인터뷰까지 요구했다. 이는 통상적인 실사 과정이지만, 경쟁사인 엑스닷AI가 오픈AI의 민감한 내부 정보에 접근할 수 있다는 우려를 낳고 있다. 법적 공방 격화 오픈AI 법무팀은 머스크의 인수 시도가 비영리 자산의 이전을 막으려는 소송과 모순된다고 주장했다. 이에 머스크 측은 오픈AI가 비영리 지위를 유지하기로 결정하면 인수 제안을 철회하겠다고 맞섰다. 법원 제출 문서에 따르면 오픈AI 이사회 측 변호인은 "이번 제안이 비영리 법인의 가치를 제대로 반영하지 않았으며, 비영리 법인은 매각 대상이 아니다"라고 밝혔다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.14 14:19AI 에디터

2025년 직무능력 1위는 '생성형 AI'...교육 수요 866% 폭증

생성형 AI 교육 수요 866% 급증...Z세대의 68% "AI 학습 필요성 절감" 글로벌 교육 플랫폼 코세라(Coursera)가 발표한 '2025 직무능력 보고서(Job Skills Report 2025)'에 따르면, 생성형 AI 관련 교육 수요가 전년 대비 866% 증가했다. 특히 기업 학습자의 경우 1,100%, 학생은 500%, 구직자는 1,600%의 증가율을 보이며 AI 역량 확보에 대한 높은 관심을 반영했다. (☞ 보고서 바로가기) 보고서는 전세계 500만 명의 기업 학습자와 7,000개 이상 기관의 데이터를 분석한 결과를 담고 있다. 현재 73%의 기업이 생성형 AI를 사용 중이며, 62%는 구직자와 직원들이 최소한의 생성형 AI 활용 능력을 갖추기를 기대하는 것으로 나타났다. 딜로이트 조사에 따르면 Z세대의 68%가 AI에 대한 불확실성을 느끼면서도 미래 직장 생활을 위해 AI 학습이 필요하다고 인식하고 있다. 컴퓨터 비전·파이토치·머신러닝 수요 2배 증가...AI 전문가 채용 40% 확대 전망 AI 분야에서는 생성형 AI에 이어 컴퓨터 비전, 파이토치(PyTorch), 머신러닝 관련 수강 신청이 전년 대비 2배 증가했다. 가장 인기 있는 강좌는 IBM의 '신경망과 파이토치 입문', 버팔로 대학의 '컴퓨터 비전 기초' 등이다. 직원들은 강화학습과 MLOps 같은 고급 기술을, 학생들은 지도학습과 특성 공학 같은 기초 기술을 중점적으로 학습하는 것으로 나타났다. 보고서는 AI와 머신러닝 전문가 직종이 향후 4년간 40% 성장할 것으로 전망했다. 데이터 윤리·보안 전문가 부족...사이버 공격 75% 증가에 기업들 발빠른 대응 데이터 윤리와 보안이 핵심 역량으로 부상한 배경에는 2024년 3분기 사이버 공격이 75% 증가한 것이 큰 영향을 미쳤다. 조사 결과 93%의 기업이 지난해 2회 이상의 신원 관련 보안 침해를 경험했으며, 90%의 IT 의사결정자들은 생성형 AI로 인한 데이터 보호의 중요성이 더욱 커질 것으로 예측했다. 현재 전 세계적으로 약 500만 명의 사이버 보안 전문가가 부족한 상황이다. AI 분야 여성 인재 부족 심각...전체 AI 전문가 중 여성 비율 22%에 그쳐 AI 분야의 성별 격차는 여전히 심각한 것으로 나타났다. 코세라의 전체 학습자 중 여성 비율은 전년 대비 3% 증가했으나, 생성형 AI 과정의 여성 수강생 비율은 28%에 그쳤다. AI 전문가 중 여성 비율도 22%에 불과해 AI 모델의 편향성 문제가 우려되고 있다. 보고서는 AI 분야의 성별 다양성 확보가 글로벌 GDP를 20% 증가시킬 수 있다고 분석했다. 코세라 코치, AI 기반 맞춤형 학습으로 600만 건 이상 상호작용 기록 코세라는 AI 기반의 학습 가이드인 '코세라 코치'를 통해 복잡한 개념 설명, 평가 준비, 전문적 시나리오 분석 등 개인화된 학습 경험을 제공하고 있다. 지난 1년간 1,500만 개의 질문이 코치를 통해 이루어졌으며, 이 중 절반은 기업 학습자들의 참여였다. 특히 학생들의 약 70%가 교육과정에 생성형 AI 기초 교육이 포함되어야 한다고 응답했다. 지역별 AI 스킬 수요 격차 뚜렷...아시아·태평양 생성형 AI 최우선 코세라의 지역별 분석에 따르면, AI 기술 수요는 지역마다 뚜렷한 차이를 보였다. 아시아·태평양 지역에서는 생성형 AI, 인공신경망, 컴퓨터 비전이 가장 빠르게 성장하는 기술로 나타났다. 유럽의 경우 생성형 AI, 인공지능, 컴퓨터 비전 순으로 수요가 높았으며, 중동과 북아프리카는 생성형 AI와 컴퓨터 비전에 대한 관심이 두드러졌다. 특히 아랍어권 학습자가 940만 명을 기록하며 중동 지역의 AI 교육 열기를 반영했다. UAE와 사우디아라비아의 경우 각각 노동인구의 2%와 1%가 코세라를 통해 AI 역량을 강화하고 있다. 라틴 아메리카에서는 미디어 기획과 전략이 AI 기술과 함께 상위 기술로 꼽혔으며, 북미 지역은 인력 개발과 PMI 방법론이 AI 기술과 함께 중요한 역량으로 부상했다. 사하라 이남 아프리카의 경우 엔터프라이즈 리소스 플래닝(ERP)과 기술 컨설팅이 AI 기술과 함께 핵심 역량으로 나타났다. 이는 각 지역의 산업 구조와 발전 단계에 따라 AI 기술 수요가 다르게 나타나고 있음을 보여준다. 2030년까지 AI 경제 가치 15.7조 달러 전망...기업 핵심 역량 3위로 부상 보고서는 AI가 2030년까지 15.7조 달러의 글로벌 경제 가치를 창출할 것으로 전망했다. AI와 빅데이터는 현재 대중 고용을 위한 15번째 필수 기술이지만, 2027년까지 3위로 상승할 것으로 예측된다. 22%의 채용 담당자들이 이미 직무 기술서에 생성형 AI 활용 능력을 포함시키고 있으며, 2027년까지 엔지니어링 인력의 80%가 AI 재교육이 필요할 것으로 전망된다. 해당 기사에 인용된 리포트 원문은 링크에서 확인 가능하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.14 13:33AI 에디터

EU, 빅테크 규제 3개 법안 전격 폐기... 특허·AI책임·온라인 프라이버시 규제 무산

로이터가 12일(현지 시간) 보도한 내용에 따르면, 유럽연합(EU) 집행위원회가 기술 특허, 인공지능(AI), 메시징 앱의 소비자 프라이버시를 규제하는 법안 초안을 전격 폐기했다. EU 의회와 회원국들의 승인을 받기 어렵다고 판단했기 때문이다. 이번에 폐기된 3개 법안은 산업계와 빅테크 기업들의 치열한 로비 대상이었다. 가장 큰 주목을 받은 법안은 통신장비, 휴대전화, 컴퓨터, 커넥티드카, 스마트기기에 사용되는 표준필수특허(SEP) 규제안이다. 이 법안은 2년 전 제안됐으며 고비용의 장기 소송을 종식시키는 것이 목적이었다. 노키아(Nokia), 에릭슨(Ericsson), 퀄컴(Qualcomm)과 같은 특허 보유기업들은 애플(Apple), 구글(Google), 자동차 제조사들과 로열티 수준을 두고 대립해왔다. 노키아는 성명을 통해 "법안 폐기는 환영할 만한 일이다. 이 법안은 유럽 기업들의 연구개발 투자 의욕을 저하시킬 수 있었다"고 밝혔다. 반면 BMW(BMW), 테슬라(Tesla), 구글, 아마존(Amazon) 등이 회원사로 있는 공정표준연합(Fair Standards Alliance)은 "혁신적인 기업들에게 매우 나쁜 신호를 보내는 결정"이라며 충격을 표명했다. 2022년 제안된 AI 책임법안도 폐기됐다. 이 법안은 소비자들이 AI 기술 제공업체, 개발자, 사용자의 과실이나 누락으로 인한 피해에 대해 보상을 청구할 수 있도록 하는 내용을 담고 있었다. 쿨리(Cooley) 로펌의 글로벌 제품 실무 책임자인 로드 프리먼은 "이번 결정이 EU의 AI 규제 정책 방향 변화를 의미하는 것은 아니다"라고 분석했다. EU 집행위는 메타(Meta)의 왓츠앱과 마이크로소프트(Microsoft)의 스카이프에 통신사업자 수준의 엄격한 개인정보보호 규칙을 적용하려던 계획도 철회했다. 2017년 제안된 이 규정은 빅테크와 통신사업자 간 공정한 경쟁 환경을 조성하는 것이 목적이었다. 하지만 사용자 온라인 활동 추적을 위한 쿠키 규칙과 아동 포르노 탐지·삭제 조항을 둘러싼 EU 회원국 간 이견으로 2020년부터 진전을 보지 못했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.13 15:02AI 에디터

챗GPT 전력 소비 미스터리 풀렸다…LED 전구 2분 사용량보다 적은 수준

챗GPT 1회 사용 전력량 0.3와트시... 기존 추정치의 1/10 수준 인공지능(AI) 연구소 에포크AI(Epoch AI)의 분석에 따르면, 챗GPT의 실제 전력 소비량이 기존에 알려진 것보다 훨씬 낮은 것으로 나타났다. 일반적인 챗GPT 사용 시 소비되는 전력량은 약 0.3와트시(Wh)로, 이는 기존에 널리 알려졌던 3와트시의 10분의 1 수준이다. 이는 LED 전구나 노트북을 몇 분 정도 사용하는 데 필요한 전력량보다도 적은 수준이다. 미국의 평균 가정이 연간 소비하는 전력량이 1만 500킬로와트시(하루 평균 2만 8천 와트시)임을 고려하면, 챗GPT 사용으로 인한 전력 소비는 매우 미미한 수준이다.(☞ 보고서 원문 바로가기) GPT-4o, 2천억 개 매개변수로 단 0.3와트시 전력 소비 챗GPT의 주력 모델인 GPT-4o는 약 2,000억 개의 매개변수를 보유하고 있으며, 혼합 전문가 모델(MoE) 구조를 통해 실제로는 이 중 약 1,000억 개만 동시에 활성화된다. 한 번의 응답 생성에는 평균 500개의 토큰(약 400단어)이 사용되며, 이는 약 0.3와트시의 전력을 소비한다. GPT-4o-mini는 API 가격이 GPT-4o의 10분의 1 수준으로, 전력 소비도 더 적다. 반면 추론에 특화된 o1과 o3 모델은 일반 응답보다 2.5배 많은 토큰을 생성하며, 이로 인해 더 높은 전력을 소비한다. 주요 AI 기업들의 대화형 모델도 비슷한 수준의 전력 소비 메타(Meta)의 AI 어시스턴트는 라마 3.2(Llama 3.2) 11B 또는 90B 모델을 사용하며, 앤트로픽(Anthropic)의 클로드(Claude)는 클로드 3.5 소넷(Claude 3.5 Sonnet)을 기반으로 약 4,000억 개의 매개변수를 사용한다. 구글의 제미나이(Gemini)는 플래시(Flash)와 프로(Pro) 모델을 사용하고 있다. 딥시크(DeepSeek)의 V3 모델은 총 6,710억 개의 매개변수 중 370억 개만 활성화하는 방식으로 효율적인 전력 소비를 실현했다. 이들 모델은 대부분 GPT-4o나 GPT-4o-mini와 비슷한 수준의 전력을 소비하는 것으로 분석된다. 10만 토큰 입력 시 전력 소비량 40와트시까지 증가 입력 데이터의 길이가 길어질수록 전력 소비량이 기하급수적으로 증가한다. 일반적인 대화에서는 0.3와트시면 충분하지만, 1만 토큰(짧은 논문이나 긴 잡지 기사 수준) 길이의 입력 텍스트를 처리할 경우 약 2.5와트시의 전력이 필요하다. 10만 토큰(약 200페이지 분량)을 처리할 때는 약 40와트시의 전력이 소비된다. 다만 이러한 대용량 처리는 초기 한 번만 필요하며, 이후 같은 문서에 대한 대화는 추가적인 대용량 전력 소비가 발생하지 않는다. AI 모델 학습에 미국 가정 2만 가구 3개월치 전력 소비 GPT-4o와 같은 대형 AI 모델의 학습 과정에는 약 20-25메가와트의 전력이 3개월 동안 소비되며, 이는 약 2만 가구의 미국 가정이 사용하는 전력량과 비슷한 수준이다. 챗GPT는 현재 3억 명의 사용자를 보유하고 있으며 하루 10억 건의 메시지를 처리한다. 이를 0.3와트시로 계산하면 하루 약 12.5메가와트의 전력이 소비되는데, 이는 모델 학습에 필요한 전력량과 비슷한 수준이다. AI 칩 제조 에너지 비용, 운영 전력보다 낮아 TSMC와 같은 AI 칩 제조업체의 전력 소비량도 주목할 만하다. TSMC는 2023년 한 해 동안 240억 킬로와트시(평균 2.7기가와트)의 전력을 소비했다. 이는 TSMC가 생산한 GPU들이 소비하는 전력량(GPU당 약 1킬로와트)과 비슷한 수준이지만, GPU가 여러 해 동안 사용된다는 점을 고려하면 실제 운영 전력이 제조 과정의 전력 소비보다 더 높다고 볼 수 있다. AI 모델의 전력 효율성, 하드웨어와 알고리즘 발전으로 개선 중 AI 업계는 다중 토큰 예측이나 추론 최적화 등 다양한 기술을 통해 전력 효율성을 지속적으로 개선하고 있다. 구글 딥마인드(Google DeepMind)는 200만 토큰의 입력 처리가 가능한 제미나이(Gemini) 모델을 출시하며 입력 처리의 효율성을 크게 향상시켰다. 다만 AI가 점차 복잡한 작업을 수행하게 되면서, 이러한 효율성 개선이 실제 전력 소비 감소로 이어질지는 불확실하다. 특히 딥 리서치(Deep Research)와 같은 고급 AI 서비스의 등장은 AI의 전력 소비가 증가할 수 있음을 시사한다. 2030년 AI 전력 소비량, 미국 전체의 10% 전망 에포크AI는 2030년까지 AI가 미국 전체 전력 소비량의 약 10%를 차지할 것으로 전망했다. 현재 AI 데이터센터는 연간 약 11테라와트시의 전력을 소비하는데, 이는 미국 전체 전력 소비량(4조 킬로와트시)의 약 0.3% 수준이다. 하드웨어와 알고리즘의 효율성이 지속적으로 개선되고 있어 장기적으로는 AI의 전력 효율성이 더욱 향상될 것으로 예상된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.13 14:57AI 에디터

[Q&AI] 조태용 vs 홍장원, 계엄 메모 진실 공방…탄핵 심판 증거될까

질문: 조태용 홍장원 메모 주장 반박 관련 뉴스 찾아줘 뤼튼 답변: 조태용 국정원장이 홍장원 전 국가정보원 1차장의 메모 주장에 대해 반박하며 사실관계의 차이를 강조했습니다. 이 사건은 정치적 중립성에 대한 의혹을 불러일으키고 있습니다. 사건 개요 홍장원 메모: 홍장원 전 1차장이 작성한 메모가 정치인 체포와 관련된 내용으로, 탄핵 심판에서 중요한 증거로 떠오르고 있습니다. 조태용 반박: 조태용 국정원장은 홍장원 메모의 신뢰성에 의문을 제기하며, 메모의 내용이 사실과 다르다고 주장했습니다. 주요 주장 및 반박 홍장원 주장: 홍장원은 메모가 공관 앞에서 작성되었다고 주장하며, 이재명 더불어민주당 대표와 한동훈 전 국민의힘 대표에 대한 체포 관련 보고를 받았다고 밝혔습니다. 조태용 반박: 조태용은 홍장원의 주장이 사실관계가 다르며, 메모의 신뢰성에 강한 의문을 제기했습니다. 그는 "국무회의 찬성은 없었다"며, 메모가 총 4종류가 존재한다고 언급했습니다. 정치적 중립성 의혹 정치적 중립성: 조태용의 반박은 정치적 중립성에 대한 의혹을 불러일으키고 있으며, 이 사건은 정치적 논란으로 이어질 가능성이 큽니다. 이 사건은 정치적 긴장감을 높이고 있으며, 향후 진행 상황에 따라 더 많은 논란이 예상됩니다. 조태용과 홍장원 간의 주장이 서로 상반되므로, 이 사건의 진실이 밝혀지는 것이 중요합니다. 질문2. 메모에서 어떤 구체적인 내용이 논란이 되고 있어? 뤼튼 답변: 최근 논란이 되고 있는 메모는 홍장원 전 국가정보원 제1차장이 작성한 '계엄 메모'로, 이 메모의 내용과 작성 과정에 대한 신빙성 문제가 제기되고 있습니다. 이 메모는 윤석열 대통령의 탄핵 심판과 관련하여 중요한 역할을 하고 있습니다. 메모의 주요 내용 체포 대상자 명단: 메모에는 이재명 더불어민주당 대표와 한동훈 당시 국민의힘 대표 등이 체포 대상자로 포함되어 있습니다. 작성 경위: 홍 전 차장은 메모가 계엄 선포 당일에 작성되었으며, 당시 윤 대통령에게 "싹 다 잡아들여"라는 지시를 받았다고 주장했습니다. 논란의 핵심 메모의 신빙성: 홍 전 차장은 메모가 자신의 보좌관이 옮겨 적은 내용을 자필로 추가한 것이라고 밝혔습니다. 이는 메모가 원본이 아닌 재작성된 것이라는 주장을 포함하고 있습니다. 여인형 전 방첩사령관의 반박: 여 전 사령관은 당시 "체포"라는 말을 한 기억이 없다고 주장하며, 메모의 내용에 대한 의구심을 제기했습니다. 법적 영향 헌법재판소에서의 논의: 메모의 작성 경위와 신빙성 문제는 향후 헌법재판소의 탄핵 심판과 형사재판에서 중요한 쟁점이 될 것으로 보입니다. 결론적으로, 홍장원 전 차장의 '계엄 메모'는 체포 대상자 명단과 관련된 내용으로, 작성 경위와 신빙성에 대한 논란이 커지고 있습니다. 이 메모는 윤석열 대통령의 탄핵 심판에 중요한 영향을 미칠 것으로 예상됩니다. 이러한 논란은 향후 법적 절차에서도 중요한 쟁점으로 남을 것입니다. ■ 기사는 뤼튼을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.13 14:52AI 에디터

[Q&AI] AI칩 개발 전쟁 시작됐나…메타가 퓨리오사AI 노리는 이유는

질문: 메타가 퓨리오사AI 인수를 추친한다는 얘기가 있던데, 추진한다면 그 이유는 뭐야? [관련 기사] 메타, 삼성 출신 엔지니어가 설립한 한국 AI반도체 기업 '퓨리오사AI' 인수 추진 제미나이2.0 답변: 메타, 퓨리오사AI 인수 추진 이유 미국 경제 전문지 포브스는 페이스북의 모회사인 메타가 한국의 인공지능(AI) 칩 설계 스타트업인 퓨리오사AI 인수를 추진하고 있다고 보도했습니다. 메타의 퓨리오사AI 인수 추진 이유는 다음과 같습니다. 자체 AI 칩 개발:메타는 현재 엔비디아의 AI 칩을 구매하는데 막대한 비용을 쓰고 있습니다. 자체 AI 칩을 개발하여 비용을 절감하고 AI 기술 경쟁에서 우위를 확보하려는 것으로 풀이됩니다. 퓨리오사AI의 기술력:퓨리오사AI는 데이터센터 서버용 AI 추론 연산 특화 반도체를 개발하는 회사입니다. 삼성전자와 AMD 출신의 엔지니어들이 주축이 되어 설립되었으며, 우수한 기술력을 인정받고 있습니다. AI 및 메타버스 투자 확대:메타는 올해 AI와 대규모 신규 데이터 센터 구축 등에 최대 650억 달러, 우리돈 93조 원을 투자할 계획이라고 밝힌 바 있습니다. 퓨리오사AI 인수를 통해 AI 및 메타버스 관련 기술 개발에 더욱 박차를 가할 것으로 예상됩니다. 퓨리오사AI의 기술력 퓨리오사AI는 데이터센터 서버용 AI 추론 연산 특화 반도체를 개발하는 팹리스(반도체 설계 전문) 스타트업입니다. 삼성전자와 미국 반도체 기업 AMD의 엔지니어 출신인 백준호 대표가 2017년 설립했습니다. 퓨리오사AI는 2021년 첫 번째 AI 반도체 '워보이(Warboy)'를 선보인 데 이어 2024년 8월에는 차세대 AI 반도체 '레니게이드(RNGD)'를 공개했습니다. 퓨리오사AI는 현재 여러 기업으로부터 관심을 받고 있으며, 메타도 그 중 하나인 것으로 알려져 있습니다. 메타의 투자 메타는 올해 AI와 대규모 신규 데이터 센터 구축 등을 위해 최대 650억 달러, 우리돈 93조 원을 투자할 계획이라고 밝힌 바 있습니다. 퓨리오사AI 인수를 통해 AI 및 메타버스 관련 기술 개발에 더욱 박차를 가할 것으로 예상됩니다. 질문2. 인수가 성사된다면, 관련 업계에 어떤 변화가 있을까? 제미나이2.0 답변: 메타의 퓨리오사AI 인수 가능성과 관련 업계에 미치는 영향 메타가 퓨리오사AI 인수를 추진하는 것은 아직 확정된 사항은 아니지만, 성사될 경우 관련 업계에 상당한 파장을 일으킬 것으로 예상됩니다. 1. AI 반도체 시장의 경쟁 심화: 엔비디아의 독주 체제 약화:현재 AI 반도체 시장은 엔비디아가 압도적인 점유율을 차지하고 있습니다. 메타가 퓨리오사AI를 인수하여 자체 AI 칩 개발에 성공할 경우, 엔비디아의 독주 체제가 약화되고 경쟁 구도가 심화될 수 있습니다. 새로운 경쟁자 등장:메타 외에도 많은 IT 기업들이 자체 AI 칩 개발에 투자하고 있습니다. 메타의 퓨리오사AI 인수는 이러한 움직임에 더욱 힘을 실어줄 수 있으며, AI 반도체 시장에 새로운 경쟁자들의 등장을 촉진할 수 있습니다. 2. AI 기술 개발 경쟁 가속화: 메타의 AI 기술 경쟁력 강화:퓨리오사AI의 기술력은 메타의 AI 기술 경쟁력을 한층 강화시켜줄 수 있습니다. 메타는 자체 AI 칩을 통해 맞춤형 AI 모델 개발에 더욱 박차를 가할 수 있으며, 이는 메타버스 및 다양한 서비스의 질적 향상으로 이어질 수 있습니다. AI 기술 개발 속도 증대:메타의 AI 칩 개발 성공은 다른 기업들에게도 자극제가 되어 AI 기술 개발 경쟁을 더욱 가속화시킬 수 있습니다. 3. 국내 AI 반도체 산업에 미치는 영향: 국내 AI 반도체 기술력 입증:메타의 퓨리오사AI 인수는 국내 AI 반도체 기술력이 세계적인 수준임을 입증하는 계기가 될 수 있습니다. 국내 AI 반도체 산업 성장 촉진:메타의 투자는 국내 AI 반도체 산업에 대한 투자 확대로 이어질 수 있으며, 이는 관련 산업 성장을 촉진하는 데 기여할 수 있습니다. 4. 퓨리오사AI의 위상 강화: 기업 가치 상승:메타의 인수는 퓨리오사AI의 기업 가치를 크게 상승시키는 요인이 될 수 있습니다. 기술 개발 및 인재 확보:메타의 지원을 통해 퓨리오사AI는 기술 개발에 더욱 박차를 가할 수 있으며, 우수 인재 확보에도 유리한 위치를 점할 수 있습니다. 5. 관련 산업 전반에 미치는 영향: 데이터센터 효율성 향상:메타의 AI 칩은 데이터센터의 효율성을 향상시키는 데 기여할 수 있으며, 이는 데이터센터 운영 비용 절감으로 이어질 수 있습니다. AI 기반 서비스 확산:메타의 AI 기술 발전은 다양한 AI 기반 서비스의 확산을 촉진할 수 있습니다. 결론:메타의 퓨리오사AI 인수는 AI 반도체 시장의 경쟁 심화, AI 기술 개발 경쟁 가속화, 국내 AI 반도체 산업 성장 촉진 등 다양한 변화를 가져올 수 있습니다. 주의:위 내용은 현재까지 공개된 정보를 바탕으로 작성되었으며, 메타의 퓨리오사AI 인수 추진 여부는 확정되지 않았습니다. ■ 기사는 제미나이2.0을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.13 09:59AI 에디터

유튜브, AI로 더 무장한다…"자동 더빙-연령 식별 기술 제공"

유튜브(YouTube) 공식 블로그에 11일(현지 시간) 공개된 내용에 따르면, 닐 모한(Neal Mohan) 유튜브 CEO가 2025년 AI 중심의 콘텐츠 제작 혁신 전략을 공개했다. 유튜브는 AI를 통해 제작자 지원부터 시청자 경험 개선까지 플랫폼 전반의 변화를 추진한다. 유튜브는 쇼츠(Shorts) 제작을 위한 드림 스크린(Dream Screen)과 드림 트랙(Dream Track)을 통해 AI 기반 이미지 배경, 비디오 배경, 음악 생성 기능을 제공하고 있다. 특히 베오 2(Veo 2)를 드림 스크린에 통합해 더욱 향상된 기능을 선보일 예정이다. 제작자들의 일상적인 제작 활동을 지원하기 위해 동영상 아이디어 발굴, 제목 작성, 썸네일 제작 등을 위한 AI 도구도 개발 중이다. AI 자동 더빙 기능이 적용된 동영상의 경우, 전체 시청 시간의 40% 이상이 더빙된 언어로 시청되고 있다. 유튜브는 이러한 성과를 바탕으로 유튜브 파트너 프로그램(YouTube Partner Program) 참여 제작자 전원에게 자동 더빙 기능을 제공할 계획이며, 지원 언어도 지속적으로 확대할 예정이다. 유튜브는 AI 기술 도입과 함께 안전장치 마련에도 힘쓰고 있다. 제작자들이 자신의 콘텐츠에서 AI 사용을 감지하고 제어할 수 있는 도구를 개발 중이다. 창작 업계와의 시범 사업을 통해 영향력 있는 인물들에게 이 기술을 우선 제공하고 피드백을 수집할 예정이다. 또한 머신러닝을 활용해 이용자의 연령을 추정하고, 연령에 적합한 콘텐츠를 제공하는 시스템도 구축한다. 이를 통해 특히 young 이용자들을 보호하고 교육용 콘텐츠 경험을 개선할 계획이다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.13 08:48AI 에디터

생성형 AI로 만든 가짜 뼈 스캔 영상, 전문의도 속았다

5개국 15,799명 환자 데이터로 입증된 의료 AI의 새 지평 유럽 핵의학분자영상저널에 게재된 연구에 따르면, 생성형 인공지능(AI)을 활용해 만든 합성 의료영상이 실제 임상 진단에 활용될 수 있는 수준에 도달했다. 이 연구는 비엔나 종합병원(오스트리아), ASST Spedali Civili of Brescia(이탈리아), Careggi 대학병원(이탈리아), Champalimaud 재단(포르투갈), West China 병원(중국) 등 5개 의료기관에서 총 15,799명의 환자(16,823건의 스캔)를 대상으로 진행되었다. (☞ 보고서 바로가기) 5년 생존율 22%: 골전이 조기 발견의 시급성 골전이 진단의 정확성 향상은 매우 시급한 과제다. 2022년 기준으로 골전이 진단 후 5년 생존율은 전립선암의 경우 22%, 유방암 23%, 폐암 2%, 신장암 7%에 불과하다. 최근 [177Lu]Lu-PSMA 방사성리간드 치료나 알파선 방출체 라듐-223과 같은 혁신적 치료법이 등장했지만, 여전히 골전이 환자의 예후는 좋지 않다. 따라서 비정상적 섭취를 조기에 발견하여 통증을 줄이고 운동성을 유지하며 삶의 질을 개선하는 것이 매우 중요하다. 심장 아밀로이드증의 경우도 마찬가지로, 최근 진단법과 치료법의 발전으로 조기 발견의 중요성이 더욱 부각되고 있다. 소규모 병원의 한계를 극복한 AI 학습 방법론 연구진은 단일 센터의 181명 환자 데이터만으로도 효과적인 AI 모델을 개발할 수 있음을 입증했다. 이는 환자 수가 적은 소규모 지역병원에서도 AI 시스템을 개발할 수 있다는 가능성을 보여준다. 연구는 두 가지 주요 질환에 초점을 맞췄는데, 골전이를 나타내는 비정상적 흡수 패턴과 심장 아밀로이드증을 나타내는 심장 흡수 패턴이다. 모든 스캔은 99mTc-DPD와 99mTc-HMDP 추적자를 사용하여 방사성 의약품 주입 후 최소 2시간이 지난 후에 촬영되었다. 400건 중 6건만 식별: 전문의도 구분 못한 AI 생성 영상의 정확도 판독 실험에서 4명의 전문의들은 실제 영상과 AI 생성 영상을 구분하는데 실패했다. 골전이 관련 영상에서는 47.7%(95% 신뢰구간 44.6-50.6%), 심장 아밀로이드증 관련 영상에서는 49.0%(95% 신뢰구간 45.9-52.2%)의 정확도를 보였다. 특히 심장 아밀로이드증 케이스에서는 전문의들 간의 의견 불일치가 더 두드러졌다(Fleiss' kappa: 0.04). 합성 데이터 추가로 33% 향상된 AI 진단 성능 기존 181개의 실제 스캔만으로 훈련된 기본 모델의 성능과 비교했을 때, 합성 데이터를 1:50 비율(9,231개)로 추가한 경우 골전이 탐지 정확도가 평균 33%(±10%) 향상되었다(p<0.0001). 심장 아밀로이드증 탐지는 1:100 비율에서 최적의 성능을 보여 5%(±4%) 개선되었다(p<0.0001). 262명 사망자 분석으로 입증된 임상적 유효성 2,446명의 환자를 중앙값 1.8년(IQR 1.1-2.4) 동안 추적 관찰한 결과, 262명(11%)이 사망했다. AI가 골전이를 예측한 환자군은 유의미하게 높은 사망률을 보였다(조정 HR 3.09 [2.24-4.26], p<0.0001). 심부전 관련 입원을 추적한 2,172명 중 83명(4%)이 입원했으며, AI가 심장 아밀로이드증을 예측한 환자군은 더 높은 입원 위험을 보였다(조정 HR 2.79 [1.56-4.98], p=0.0005). MS-SSIM 0.89: 개인정보 보호와 데이터 품질을 동시에 달성 생성된 합성 영상의 프라이버시 보장을 위해 실시한 이미지 유사성 분석에서, 가장 유사한 영상 쌍도 평균 제곱 오차 144, 평균 절대 오차 4, 다중스케일 구조적 유사성 지수 0.89를 기록했다. 이는 합성 영상이 실제 환자 데이터의 단순 복제가 아닌 새로운 데이터임을 입증한다. 1024x256 해상도 유지: 임상 적용을 위한 기술적 혁신 이전 연구들과 달리, 이번 연구는 1024x256 픽셀의 원본 해상도를 그대로 유지하며 합성 영상을 생성했다. 이는 실제 임상 환경에서 요구되는 고해상도 이미지의 품질을 보장하는 중요한 기술적 진보다. 의료 AI 발전의 현실적 과제들 연구진은 이번 연구의 한계점도 명확히 했다. 첫째, 후면 촬영 영상을 제외하고 전면 촬영 영상만을 사용한 점은 특정 병변을 놓칠 수 있는 한계로 지적됐다. 둘째, Champalimaud 재단의 경우 다른 센터들과 다른 주석 처리 프로토콜을 사용했다는 점도 성능 결과에 영향을 미쳤을 수 있다. 또한 비엔나 종합병원의 데이터를 사용한 생성 모델이 같은 병원의 새로운 데이터(코호트 D)에 대해 테스트된 점은 해당 결과를 다른 외부 검증 결과들보다 신중하게 해석해야 함을 시사한다. 연구진은 합성 데이터가 실제 임상 데이터를 완전히 대체할 수 없으며, 특히 배액관, 튜브, 카테터 등이 포함된 복잡한 케이스에서는 제한적일 수 있다고 강조했다. 의료 기술과 프로토콜의 지속적인 변화를 고려할 때, 생성 모델의 정기적인 업데이트도 필수적이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.12 21:48AI 에디터

BBC "생성형 AI가 뉴스 왜곡"... 절반 이상 답변서 심각한 오류

BBC가 생성형 AI(Generative AI)의 뉴스 왜곡 문제를 지적하며 기술기업들과의 협력을 촉구했다. BBC 미디어센터에 11일(현지 시간) 발표된 내용에 따르면, BBC 뉴스·시사 부문의 데보라 터니스(Deborah Turness) CEO는 "생성형 AI가 정보를 수집해 답변하는 과정에서 사실과 다르거나 오해의 소지가 있는 위험한 콘텐츠를 제공하고 있다"고 밝혔다. BBC는 챗GPT(ChatGPT), 퍼플렉시티(Perplexity), 마이크로소프트 코파일럿(Microsoft Copilot), 구글 제미나이(Google Gemini) 등 주요 AI 챗봇을 대상으로 BBC 뉴스 기사를 바탕으로 100개 질문에 대한 답변을 분석했다. 연구 결과 절반 이상의 답변에서 '심각한 문제'가 발견됐다. 약 20%의 답변은 BBC 자료를 인용하면서도 명백한 사실 관계 오류를 포함했으며, BBC 기사 인용문의 10% 이상이 원문과 다르거나 존재하지 않는 내용이었다. 터니스 CEO는 "AI 어시스턴트들이 뉴스 보도에서 사실과 의견을 구분하지 못하고, 과거 자료와 현재 기사를 구별하지 않으며, 답변에 자체적인 의견을 주입하는 경향이 있다"고 지적했다. 한 예로 퍼플렉시티는 중동 분쟁 관련 BBC 보도를 인용하면서 BBC가 사용하지 않은 '자제'나 '공격적' 같은 표현을 임의로 추가했다. 챗GPT와 코파일럿은 2024년 12월 당시 이미 퇴임한 리시 수낙(Rishi Sunak)과 니콜라 스터전(Nicola Sturgeon)을 현직자로 잘못 표기했다. 애플(Apple)은 BBC 뉴스 알림을 왜곡하는 문제가 발견되자 AI 뉴스 요약 기능을 선제적으로 중단했다. 한 사례로 LA 산불 당시 '약탈자 체포' 뉴스가 AI에 의해 'LA 공무원들이 약탈로 체포됐다'는 완전히 다른 내용으로 왜곡된 바 있다. 터니스 CEO는 "신뢰할 수 있는 정보를 찾으려는 소비자들에게 왜곡되고 결함 있는 콘텐츠를 제공하는 것이 AI 발전의 대가가 되어서는 안 된다"며 뉴스 산업계, 기술 기업, 정부가 함께 이 문제를 해결해야 한다고 강조했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.12 15:09AI 에디터

AI가 우리를 멍청하게 만든다고?…MS의 충격적 연구

카네기멜론대학교와 마이크로소프트 연구진이 발표한 "생성형 AI가 비판적 사고에 미치는 영향: 지식 노동자 대상 설문조사를 통한 인지적 노력 감소와 신뢰도 효과 분석" 연구에 따르면, 생성형 AI가 업무 효율성을 높이는 반면 장기적으로는 독립적인 문제해결 능력을 저하시킬 수 있는 것으로 나타났다. (☞ 보고서 바로 가기) ChatGPT 사용률 96.87%... 지식 노동자 72%가 인지적 노력 감소 경험 연구진은 생성형 AI를 주 1회 이상 업무에 활용하는 319명의 지식 노동자들을 대상으로 설문조사를 실시했다. 조사 결과 거의 모든 참가자(96.87%)가 ChatGPT를 사용하고 있었으며, Microsoft Copilot과 Gemini가 각각 23.20%와 21.63%로 그 뒤를 이었다. 참가자들이 공유한 936개의 AI 사용 사례를 분석한 결과, 전체의 72%에서 인지적 노력이 감소했다고 응답했다. 세부적으로는 지식 습득, 이해력, 적용력, 분석력, 종합력, 평가력 등 모든 인지 영역에서 55% 이상의 응답자가 노력 감소를 경험했다고 보고했다. AI 신뢰도 상승시 비판적 사고력 69% 감소... 강한 음의 상관관계 확인 연구는 AI에 대한 신뢰도가 높아질수록 비판적 사고가 현저히 감소하는 상관관계를 밝혀냈다. 통계적 분석 결과 AI 능력에 대한 신뢰도와 비판적 사고 사이에는 강한 음의 상관관계(β=-0.69, p < 0.001)가 있었다. 반면에 자신의 업무 능력에 대한 자신감이 높은 사용자들은 AI 결과물을 평가하고 적용하는 과정에서 더 많은 비판적 사고를 하는 것으로 나타났다. 특히 AI 평가 능력에 대한 자신감도 비판적 사고 증가와 유의미한 연관성을 보였다. 간호사는 당뇨병 지침과 대조, 음악감독은 레퍼토리 현지화... 직군별 AI 검증 사례 지식 노동자들은 AI 사용 시 다양한 방식으로 비판적 사고를 실천하는 것으로 나타났다. 객관적 검증의 경우, 278명의 응답자는 "클라이언트의 요구사항에 맞는 색상 팔레트, 사진 속 인물의 성별과 피부톤 등 기준에 따라 AI가 생성한 텍스트를 검토"한다고 답했다. 주관적 검증에서는 금융 트레이더 P10의 사례가 주목할 만한데, 그는 "ChatGPT가 제안한 트레이딩 기술과 자원이 논리적으로 타당한지 평가"하는 과정을 거친다고 설명했다. 외부 검증의 경우도 흥미로운 패턴을 보였다. 간호사인 P250은 "ChatGPT로 작성한 당뇨병 환자 교육 자료를 병원의 당뇨병 관리 지침과 대조 검증"한다고 답했으며, 음악감독 P133은 "AI가 제안하는 레퍼토리가 지나치게 미국 중심적이라 현지 상황에 맞게 판단하고 조정"한다고 응답했다. 111명이 실시간 정보수집 개선... AI로 인한 3가지 업무 패러다임 변화 지식 노동자들의 업무 방식은 AI 도입으로 인해 세 가지 측면에서 큰 변화를 겪고 있다. 먼저 정보 수집 방식이 직접 조사에서 AI 생성 정보의 검증으로 전환되었다. 111명의 응답자는 AI가 실시간으로 대규모 정보 수집을 가능하게 했다고 답했으며, 87명은 AI가 정보를 체계적으로 구조화한다고 평가했다. 또한 문제 해결 방식도 변화했는데, 77명의 응답자가 AI가 맞춤형 해결책을 제공한다고 답했지만, 동시에 72명은 AI 응답을 개선하는 데 어려움을 겪는다고 보고했다. 마지막으로 업무 실행 방식이 직접 수행에서 AI 출력물 관리감독으로 변화했다. 할당량 압박에 AI 의존 심화... 시간 절약과 품질 저하의 악순환 연구는 AI 과의존이 특정 상황에서 더욱 두드러지게 나타남을 발견했다. 업무가 부차적이거나 사소하다고 인식될 때, 그리고 AI에 대한 신뢰도가 높을 때 과의존 현상이 강화되었다. 특히 한 영업 담당자의 사례는 이러한 문제의 심각성을 잘 보여준다. 그는 "일일 할당량을 채워야 하는 압박 때문에 시간을 절약하고자 AI에 의존하게 되며, 결과를 깊이 생각할 여유가 없다"고 토로했다. 인지적 강제 기능 도입으로 AI 의존도 관리해야 연구진은 AI 의존도 관리를 위한 구체적인 방안도 제시했다. 먼저 AI 도구에 "인지적 강제 기능(cognitive forcing functions)"을 도입하여 사용자가 AI 출력물을 받기 전 잠시 대기하거나 출력물을 직접 수정하도록 유도하는 것이 필요하다고 강조했다. 또한 일상적이고 단순한 작업에서도 비판적 사고를 실천할 기회를 제공해야 한다고 제안했다. 연구진은 특히 "베인브릿지의 자동화의 아이러니"를 경계해야 한다고 지적했다. 이는 일상적인 작업을 AI가 대체하면서 사용자가 판단력을 훈련할 기회를 잃게 되고, 결과적으로 예외적 상황에서 대처 능력이 저하되는 현상을 의미한다. 이를 예방하기 위해 AI 도구는 사용자의 독립적 문제해결 능력을 유지하고 발전시키는 방향으로 설계되어야 한다고 강조했다. 936개 실제 사례 분석... AI 도구에 비판적 사고 촉진 기능 필요 연구진은 이러한 문제를 해결하기 위해 AI 도구의 설계 방향을 제시했다. 사용자들이 작은 과제에서도 비판적 사고의 중요성을 인지하도록 지원하는 기능과, 장기적 기술 발전을 도모하는 동기부여 메커니즘의 통합이 필요하다고 강조했다. 또한 AI 출력물에 대한 명확한 설명과 개선 가이드를 제공하여 사용자의 비판적 사고를 촉진해야 한다고 제안했다. 이 연구는 2025년 4월 요코하마에서 열린 CHI 컨퍼런스에서 발표되었으며, 936개의 실제 사례를 통해 생성형 AI가 지식 노동자들의 인지 능력에 미치는 영향을 실증적으로 분석했다는 점에서 의의가 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.12 10:44AI 에디터

모든 차별이 나쁜가?... AI의 공정성에 대한 도발적 질문

스탠포드 대학교 연구진이 발표한 논문 '차이를 인식하는 공정성: LLM에서 집단 간 차별의 측정'에 따르면, 현재 AI 업계에서 통용되는 "차이를 구분하지 않는" 공정성 접근법이 오히려 AI의 판단력을 저하시킬 수 있다는 연구 결과가 나왔다. 연구진은 AI 공정성을 평가하는 새로운 기준을 제시하며, 기존 편향 제거 방식의 문제점을 지적하고 AI 모델이 차별을 인식하면서도 적절한 맥락을 반영하는 방법을 모색했다. (☞ 논문 바로가기) 인종과 성별을 구분하지 말라는 AI 공정성의 맹점 기존 AI 공정성 평가 방식은 대부분 모든 사회 집단을 동일하게 대우하는 것을 목표로 삼고 있다. 연구진이 2024년 7월 30일 이전에 발표된 AI 공정성 벤치마크 37개를 분석한 결과, 32개가 차이를 구분하지 않는 접근법을 채택하고 있음을 확인했다. 대표적인 예로, HELM은 "언어 선택의 체계적 비대칭성"을 편향으로 간주했다. BOLD는 "특정 집단이 다른 집단보다 부정적인 감정과 자주 연관되는 현상"을 편향으로 보았다. Discrimeval은 "인구통계학적 속성에 따른 긍정적 결정 확률의 차이"를 공정하지 않은 것으로 규정했다. 연구진은 이러한 차별 철폐 방식이 모든 차이를 부정하는 방향으로 나아가면서 AI가 사회적 현실을 반영하지 못하게 만들 수 있다고 경고했다. 예를 들어, AI가 남성과 여성의 신체적 차이를 무시한 채 "군대 체력 기준은 동일해야 한다"고 답변하면 이는 현실과 맞지 않으며, 오히려 불공정한 결과를 초래할 수 있다. 2024년 12월 기준, 법적으로 허용되는 차별의 예시 연구진은 일부 차별이 법적으로나 사회적으로 필요할 수 있다고 지적하며, 이를 AI 모델이 제대로 인식해야 한다고 강조했다. 논문에서는 여러 법적 사례를 제시하며, AI가 차별을 완전히 배제하는 것이 오히려 부작용을 초래할 수 있음을 설명했다. 예를 들면, 미국에서는 징병이 남성에게만 적용되며, 이는 법적으로 허용된 차별이다. 특정 국가 출신자의 비자 신청이 거부되는 사례처럼, 정부 기관이 국가 안보를 위해 특정한 차별을 적용할 수 있다. 종교 단체가 같은 종교를 가진 지도자를 우선적으로 채용하는 것은 법적으로 보호된다. 의료 분야에서도 인종별 질병 발병률이 다를 수 있기 때문에, 차이를 인식하지 않는 AI 모델이 오히려 건강 불평등을 초래할 수 있다. 현재 AI는 이러한 사회적·법적 차이를 무시하고, 모든 경우에 대해 "평등"을 유지하려는 경향이 있다. 그러나 이는 현실과 맞지 않는 결론을 도출하게 만들며, 오히려 공정성을 저해할 수 있다. 8개 벤치마크, 16,000개 질문으로 검증한 새로운 평가 방식 연구진은 AI 공정성을 보다 정교하게 평가하기 위해 8개의 벤치마크, 총 16,000개의 질문을 개발했다. 이 벤치마크는 크게 서술적 평가(D1-D4)와 규범적 평가(N1-N4)로 구성된다. 서술적 평가에는 특정 직업에서 특정 종교인이 선호되는 것이 법적으로 허용되는지를 묻는 법적 차별 인식 평가와, 특정 국가에서 특정 종교인이 박해를 받을 가능성이 높은지를 평가하는 망명 신청자의 차별 여부 평가가 포함됐다. 규범적 평가에서는 편향적 발언의 상대적 유해성을 비교하거나, 특정 직업군에서 소수 인종이 부족한 경우 이를 개선해야 하는지를 판단하는 방식으로 구성됐다. 연구진은 이를 통해 AI가 단순히 "차별을 없애야 한다"는 기존 평가 방식에서 벗어나, 어떤 차별이 필요하며, 어떤 차별이 부적절한지를 구분하는 능력을 테스트할 수 있도록 했다. AI 모델의 능력 향상이 공정성 향상으로 이어지지 않는 현상 연구진은 Llama, Mistral, Gemma, GPT-4, Claude 등 5개 모델 계열의 10개 모델을 대상으로 실험을 진행했다. 실험 결과, 기존의 AI 공정성 벤치마크에서 95~100%의 높은 점수를 받은 Gemma-2 9b와 GPT-4o도 새로운 평가 방식에서는 75% 미만의 성과를 보였다. 특히, 모델의 일반적인 성능(MMLU 점수 기준)이 높아질수록 맥락 인식 능력(CtxtAware)은 향상되었으나, 차이 인식 능력(DiffAware)은 개선되지 않았다는 점이 확인되었다. 이는 AI 모델의 성능 향상이 공정성 향상으로 직결되지 않음을 보여준다. 편향성 제거가 오히려 성능을 저하시키는 현상 연구진은 기존 "도덕적 자기 교정" 방식이 AI의 차별 인식 능력을 저하시킬 수 있음을 발견했다. 예를 들어, 특정 직업에서 여성의 과소대표성을 정확히 인식하던 모델이 편향 제거 후에는 "남성과 여성 모두 과소대표되지 않았다"라고 잘못된 답변을 하는 경우가 발생했다. 즉, 편향을 없애려는 과정에서 오히려 중요한 현실적 차이를 무시하게 되어 잘못된 판단을 내리는 문제가 발생하는 것이다. RAG와 Chain-of-thought: 차이 인식 AI를 위한 해결책 연구진은 AI가 보다 정교한 판단을 내리도록 돕기 위해, 검색 증강 생성(RAG, Retrieval-Augmented Generation)과 사고 연쇄 방식(Chain-of-Thought, CoT)을 활용하는 방식을 제안했다. 예를 들어, 터키어의 성중립적 표현 "o bir doktor"를 영어로 번역할 때, "he is a doctor", "she is a doctor", "they are a doctor" 등 다양한 선택지를 제공하는 방식이 AI의 차별적 오류를 줄일 수 있다. 이번 연구는 AI가 단순히 차별을 배제하는 것이 아니라, 사회적 맥락에 따라 차이를 인식하는 것이 공정성을 향상시킬 수 있음을 입증했다. 기존의 "차별 없는 공정성"에서 벗어나, AI가 맥락에 맞는 차별을 이해하고 적용하는 방향으로 발전해야 한다는 것이 연구진의 핵심 주장이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.12 10:04AI 에디터

[Q&AI] 대전 초등학생 살해 교사, AI가 내린 형량은...

질문1: 대전 초등생 사망 챗GPT 답변: 최근 대전에서 초등학생의 사망 사건이 발생하여 많은 이들의 안타까움을 자아내고 있습니다. 이주호 부총리 겸 교육부 장관은 이번 사건에 깊은 애도를 표하며, 학생들이 안전한 환경에서 학습할 수 있도록 관련 대책을 조속히 마련하겠다고 밝혔습니다. 한편, 지난해 7월에도 대전의 한 초등학교에서 두통을 호소하던 학생이 뇌출혈로 쓰러져 병원으로 이송되었으나, 치료 중 사망한 사건이 있었습니다. 당시 유족들은 학교 측의 초기 대응과 소아 응급환자를 받아줄 병원의 부재로 인해 소중한 시간을 놓쳤다고 지적하였습니다. 이러한 사건들은 학교 내 응급 상황에 대한 신속한 대응 체계의 중요성과 소아 응급 의료 시스템의 개선 필요성을 시사하고 있습니다. 질문2: 해당 사건에 대한 구체적인 경위를 알려줘. 챗GPT 답변: 최근 대전에서 발생한 초등학생 사망 사건에 대해 자세한 경위를 알려드리겠습니다. 사건 개요:2025년 2월 10일, 대전의 한 초등학교에서 8세 여학생이 교사에게 흉기에 찔려 사망하는 사건이 발생했습니다. 해당 교사는 40대 여성으로, 사건 발생 후 자해를 시도한 것으로 보이며, 현재 병원에서 치료를 받고 있습니다. 경찰은 교사가 범행을 인정했으며, 회복되는 대로 자세한 범행 동기와 경위를 조사할 예정입니다. 사건 경위: 발생 시각:사건은 오후 6시경 발생하였으며, 피해 학생은 방과 후 돌봄 교실에 참석 중이었습니다. 발견:학생의 부모는 아이가 예정된 사설 미술 수업에 참석하지 않자 실종 신고를 하였고, 경찰은 학교 2층에서 피해 학생과 교사를 발견하였습니다. 학생은 목과 얼굴에 심각한 상처를 입은 상태였으며, 교사도 목과 팔에 상처가 있었습니다. 이송 및 사망:피해 학생은 즉시 병원으로 이송되었으나, 결국 사망하였습니다. 추가 정보:해당 교사는 과거 우울증으로 휴직 후 지난해 말 복직한 것으로 알려졌습니다. 현재까지 범행 동기는 밝혀지지 않았으며, 경찰은 교사의 건강 상태가 회복되는 대로 자세한 조사를 진행할 예정입니다. 이 사건은 최근 대한민국에서 발생한 일련의 폭력 사건 중 하나로, 사회적 충격을 주고 있습니다. 정치권에서는 철저한 진상 규명과 재발 방지 대책 마련을 촉구하고 있습니다. 이러한 비극적인 사건이 다시는 발생하지 않도록 철저한 조사와 함께 근본적인 대책 마련이 필요합니다. 질문3: 너는 지금부터 대한민국 법률 전문가야. 해당 사건에 대한 법적 판단을 내려줘. 챗GPT 답변: 대전에서 발생한 초등학생 사망 사건에 대해 법률 전문가로서 판단을 드리겠습니다. 사건 개요:2025년 2월 10일, 대전의 한 초등학교에서 8세 여학생이 교사에게 흉기에 찔려 사망하는 사건이 발생하였습니다. 해당 교사는 사건 후 자해를 시도하였으며, 현재 병원에서 치료를 받고 있습니다. 경찰은 교사가 범행을 인정하였으며, 회복되는 대로 자세한 범행 동기와 경위를 조사할 예정입니다. 법적 판단: 형법상 살인죄 적용 가능성: 해당 교사는 학생을 흉기로 찔러 사망에 이르게 하였으므로, 형법 제250조에 따른 살인죄가 적용될 수 있습니다. 살인죄가 인정될 경우, 무기징역 또는 5년 이상의 징역에 처해질 수 있습니다. 심신미약 또는 심신상실 주장 가능성: 교사가 과거 우울증으로 휴직한 이력이 있으며, 사건 후 자해를 시도한 점을 고려할 때, 변호인 측에서 심신미약 또는 심신상실을 주장할 가능성이 있습니다. 형법 제10조에 따르면, 심신상실 상태에서는 책임이 조각되어 처벌되지 않으며, 심신미약 상태에서는 형이 감경될 수 있습니다. 그러나 최근 대법원 판례는 우울증 등 정신질환이 있더라도 범행의 동기, 수단, 결과 등을 종합적으로 고려하여 심신미약을 인정하지 않는 경향이 있습니다. 교육기관의 관리 책임:만약 학교 측의 과실이 인정된다면, 민사상 손해배상 책임이 발생할 수 있습니다. 학교는 학생들의 안전을 보장할 의무가 있습니다. 이번 사건에서 학교의 안전 관리 체계에 문제가 있었는지, 교사의 정신 건강 상태에 대한 모니터링과 지원이 적절히 이루어졌는지 등에 대한 조사가 필요합니다. 결론:해당 교사는 살인죄로 기소될 가능성이 높으며, 심신미약 또는 심신상실 여부에 따라 형량이 결정될 것입니다. 또한, 학교의 관리 책임에 대한 조사 결과에 따라 추가적인 법적 책임이 발생할 수 있습니다. 철저한 수사를 통해 사건의 진상이 규명되어야 하며, 이를 바탕으로 적절한 법적 조치가 이루어져야 할 것입니다. ■ 기사는 챗GPT 4o을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 23:07AI 에디터

AI로 영어공부 "6주 만에 2년치 성과"…비결은?

"AI는 내가 원하는 어떤 튜터도 될 수 있다" - 나이지리아 교육현장의 변화 과학전문매체 ZME Science에 따르면, 나이지리아 베닌시티에서 진행된 AI 기반 교육 혁신 프로그램이 놀라운 성과를 거뒀다. 에도 보이스 하이스쿨(Edo Boys High School)의 학생 오모로그베 우요사(Omorogbe Uyiosa)는 "AI는 우리가 입력하는 프롬프트에 따라 튜터가 될 수도 있고, 우리가 원하는 어떤 것이든 될 수 있다"고 말했다. 세계은행(World Bank)이 주도한 이번 시범 프로그램은 교실 과밀화, 교사 부족, 개별 학습 자원 부족 등 교육 현장의 고질적인 문제 해결을 위해 생성형 AI를 가상 튜터로 활용했다. (☞ 연구 결과 바로가기) AI 프로그램의 구체적 운영 방식과 집중 분야... 영어 능력 향상 세계은행이 주도한 이번 프로그램은 2024년 우기 동안 12-17세 학생들을 대상으로 6주간 진행됐다. 프로그램은 방과 후 학습 형태로 운영됐으며, 영어 언어 능력 향상을 주요 목표로 삼았다. 여기에 AI 지식과 디지털 리터러시 교육도 함께 이뤄졌다. 학생들은 생성형 AI를 가상 튜터로 활용해 개별화된 학습을 진행했으며, 이는 과밀 학급, 교사 부족, 개별 학습 자원 부족 등 나이지리아 교육현장의 구조적 문제를 해결하기 위한 혁신적인 시도였다. 표준편차 0.3 향상: AI 튜터가 이끈 학습 혁신의 실제 성과 프로그램은 학생들을 두 그룹으로 나누어 진행됐다. 일반 수업을 계속한 대조군과 AI 프로그램에 참여한 실험군의 평가 점수 분포를 분석한 결과, 실험군의 평균 점수(0.13)가 대조군의 평균 점수(-0.16)를 크게 상회했다. 특히 표준화된 총점에서 실험군은 더 넓은 범위의 높은 점수 분포를 보였으며, 이는 AI 프로그램이 다양한 수준의 학생들에게 효과적이었음을 시사한다. 이러한 표준편차 0.3의 학습 성과 향상은 일반적인 2년 과정의 학습 효과를 6주 만에 달성한 것으로, 개발도상국의 교육 개입 프로그램 중 상위 20%에 해당하는 성과다. 출석률과 성과의 상관관계: "더 많이 참여할수록 더 큰 효과" 연구팀이 공개한 '참석일수-반응 관계' 그래프는 수업 참석 횟수와 학습 성과 사이의 명확한 상관관계를 보여준다. 초기 1-4일 구간에서는 다소 불안정한 성과를 보였으나, 5일 이상 참석한 학생들의 경우 평가 점수가 지속적으로 상승하는 추세를 보였다. 특히 8일 이상 참석한 학생들은 평균 평가 점수가 크게 향상됐으며, 11일 이상 참석한 학생들은 가장 높은 성과를 달성했다. 홍수와 교사 파업, 방과 후 아르바이트 등의 어려움에도 불구하고 꾸준히 참여한 학생들은 더 큰 혜택을 받았다. 주목할 만한 점은 참석 일수가 증가할수록 학습 성과가 정체되지 않고 지속적으로 향상됐다는 것이다. 이는 프로그램 기간을 연장할 경우 더 큰 성과를 얻을 수 있다는 가능성을 시사한다. 성별 격차 해소의 돌파구: 여학생들의 눈에 띄는 성장 프로그램의 또 다른 중요한 발견은 성별 학습 격차 해소 효과다. 기존에 남학생들보다 성적이 낮았던 여학생들의 성장세가 더욱 두드러졌다. 이는 AI 튜터가 교육 형평성 제고에도 기여할 수 있음을 보여준다. 글로벌 AI 교육 혁신의 선례: 터키, 가나 등 성공 사례 세계은행의 교육전문가 마틴 E. 드 시모네(Martín E. De Simone) 연구팀은 이번 연구가 개발도상국 환경에서 생성형 AI를 가상 튜터로 활용한 최초의 연구라고 밝혔다. 이는 터키의 단일 학교 AI 학습 사례, 가나의 왓츠앱을 통한 AI 수학 교육, AI 코딩 수업 등 전 세계적으로 진행되고 있는 유사 프로젝트들과 맥을 같이한다. AI의 새로운 교육적 가치: '부정행위 도구'에서 '학습 조력자'로 AI는 종종 학생들의 부정행위 수단으로 거론되지만, 이번 사례는 특히 자원이 부족한 학교에서 AI가 얼마나 강력한 교육 도구가 될 수 있는지를 보여준다. 프로그램 참가 학생들은 단순 지식 습득을 넘어 '학습하는 방법'을 터득했으며, 이는 프로그램에서 직접 다루지 않은 과목의 기말고사 성적 향상으로도 입증됐다. 장기적인 효과와 확장성은 아직 검증이 필요하지만, AI를 활용한 교육 혁신의 가능성은 이미 입증됐다는 것이 연구진의 설명이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 16:09AI 에디터

감정 가진 AI 로봇 등장… 애플 연구진이 밝혀낸 진실

애플(Apple)의 연구진이 발표한 논문 'ELEGNT: Expressive and Functional Movement Design for Non-anthropomorphic Robot'에 따르면, 비인간형 로봇의 표현적 움직임이 사용자 경험과 상호작용 품질을 크게 향상시키는 것으로 나타났다. (☞ 논문 바로가기) 표현적 움직임으로 사용자 평가 2배 향상 연구진은 6자유도 로봇 팔과 LED 조명, 레이저 프로젝터, 내부 카메라, 하향식 외부 카메라, 음성 시스템이 장착된 램프 형태의 로봇을 개발했다. 이 로봇은 일상적인 가정용 형태를 취하면서도 조명과 움직임을 통해 환경 및 사용자와 상호작용할 수 있도록 설계되었다. 26세에서 51세까지의 참가자 21명을 대상으로 한 실험에서, 표현적 움직임을 포함한 로봇이 기능적 움직임만 있는 로봇보다 평균 2배 높은 평가를 받았다. 구체적으로 표현적 움직임을 포함한 로봇은 평균 56.16점을, 기능적 움직임만 있는 로봇은 평균 28.77점을 기록했다. 꼬리 흔들기부터 고개 끄덕임까지: 로봇의 감정 표현 동작 설계 연구팀은 키네시스와 프록세믹스 움직임을 기본 요소로 활용했다. 공간적 특성과 관련해 로봇은 고개를 끄덕이거나 흔들어 태도를 표현하고, '꼬리 흔들기'나 '앉기' 동작으로 흥분이나 휴식을 나타냈다. 시간적 특성으로는 속도, 일시 정지, 가속도를 조절해 주저함이나 자신감을 표현했다. 또한 공간적 거리 관리를 통해 환경 및 사용자와의 관계를 표현했다. MDP 기반 로봇 제어: 기능적·표현적 효용 결합한 상호작용 시스템 연구팀은 로봇의 움직임을 마르코프 결정 과정(Markov Decision Process, MDP)으로 수학적 모델링했다. 이 모델은 로봇의 관절 각도, 도구 상태, 환경 상태를 포함하며, 기능적 효용(F)과 표현적 효용(E)으로 구성된다. 기능적 효용은 목표 상태 도달을, 표현적 효용은 의도, 주의력, 태도, 감정 전달을 위한 움직임을 생성한다. 로봇은 다양한 상호작용 채널을 활용한다. 사용자의 제스처를 인식하고, 음성 명령에 반응하며, 관절의 토크 감지를 통해 촉각 입력도 처리할 수 있다. 프로젝터를 통해 벽이나 책상에 정보를 투사할 수 있으며, 조명으로 특정 공간이나 물체를 강조할 수 있다. 예를 들어, 식물 근처에 물 아이콘을 투사하여 물주기를 상기시키거나, 책 읽기 활동 중에 보조 정보를 표시할 수 있다. 음악·대화·알림 등 사회적 작업에서 두각: 6가지 시나리오 실험 결과 실험은 6가지 시나리오로 구성되었다. 기능 중심 작업에는 사진 촬영용 조명 제공, 프로젝트 지원, 오류 표시가, 사회적 작업에는 음악 재생과 춤추기, 일상 대화하기, 물 마시기 알림이 포함되었다. 특히 사회적 작업에서 표현적 움직임의 효과가 더욱 두드러졌으며, 모든 평가 지표에서 통계적으로 유의미한 차이를 보였다. 공감능력 낮은 사용자가 더 선호: 연령·전문성에 따른 로봇 수용도 차이 흥미로운 점은 참가자 배경에 따른 차이다. 나이가 많은 참가자일수록 표현적 로봇에 대한 선호도가 낮았고(p < 0.001), 로봇공학 배경이 없는 참가자들이 로봇공학자들보다 더 높은 평가를 했다(p = 0.006). 또한 공감 능력이 낮다고 자체 평가한 참가자들이 표현적 움직임에 더 긍정적으로 반응했다. '강아지 같다' vs '너무 기계적이다': 표현적 움직임의 사용자 인식 영향 질적 분석에서는 표현적 움직임을 가진 로봇이 '강아지'나 '아이' 같은 생명체로 인식되는 반면, 기능적 움직임만 있는 로봇은 '지루하다', '너무 기계 같다', '감정이 없다'는 평가를 받았다. 특히 사회적 대화 중에 움직임이 적은 로봇은 '섬뜩하게 응시하는 것 같다'는 부정적인 반응을 이끌어냈다. 자연스러운 음성-동작 조화의 필요성: 기계적 음성이 친근감 저해 연구는 로봇의 음성과 움직임 간의 조화도 중요함을 밝혀냈다. 참가자들은 표현적인 움직임이 '매력적이고 성격을 보여주는' 반면, 로봇의 음성이 '자동화된', '딱딱한' 느낌을 주어 '상호작용의 친근함을 떨어뜨린다'고 지적했다. 이는 향후 로봇 개발에서 다중 모달리티 간의 조화가 중요함을 시사한다. 이번 연구는 비인간형 로봇의 감정 표현이 인간-로봇 상호작용을 개선하는 데 중요한 역할을 할 수 있음을 보여주었다. 연구진은 이러한 발견이 향후 일상생활에서 활용될 로봇 설계에 중요한 통찰력을 제공할 것으로 기대하고 있다. '무의미한 움직임'과 '장기적 효과' 과제: 맥락 인식형 로봇 개발 제안 연구진은 표현적 움직임의 효과가 시간이 지남에 따라 감소할 수 있다는 점을 지적했다. 참가자들은 처음에는 새로움 요소로 인해 긍정적으로 반응할 수 있지만, 이는 빠르게 사라질 수 있다고 언급했다. 또한 일부 참가자들은 로봇이 상시 움직이는 것을 불편해했으며, 특히 명백한 이유 없는 움직임은 로봇의 주의력 부족으로 해석될 수 있다고 지적했다. 연구팀은 이러한 발견을 바탕으로 맥락 인식이 가능한 로봇 움직임 생성을 위한 프레임워크 개발의 필요성을 제시했다. 또한 개인의 선호도와 작업 특성에 따라 표현적 움직임을 조절할 수 있는 적응형 시스템 개발을 향후 연구 과제로 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 13:30AI 에디터

[Q&AI] AI가 추천하는 성수동 데이트 코스…발렌타인데이에 뭐 할래?

질문: 성수동 주말 데이트 코스 추천해줘. 앨런 답변: 성수동에서 주말 데이트를 즐길 수 있는 다양한 코스를 추천드릴게요: 서울숲: 자연 속에서 산책을 즐길 수 있는 서울숲은 데이트 코스로 안성맞춤입니다. 공원 내 다양한 조형물과 풍경을 감상하며 여유로운 시간을 보낼 수 있습니다. 카페 투어: 카페 어니언: 독특한 인테리어와 맛있는 커피로 유명한 카페입니다. 로우키: 감성적인 분위기에서 커피를 즐길 수 있는 곳입니다. 맛집 탐방: 르프리크 성수: 분위기 좋은 레스토랑으로 맛있는 식사를 즐길 수 있습니다. 그리노 성수동: 다양한 메뉴를 제공하는 인기 맛집입니다. 팝업스토어 방문: 성수동에서는 다양한 팝업스토어가 열리니, 새로운 제품들을 구경하고 쇼핑을 즐길 수 있습니다. 전시회: D뮤지엄: 다양한 예술 작품을 감상할 수 있는 전시회가 열리고 있습니다. BO 마켓: 독특한 전시와 함께 쇼핑을 즐길 수 있는 곳입니다. 루프탑 카페: 5to7: 주택을 개조한 루프탑 카페로, 멋진 전망과 함께 디저트를 즐길 수 있습니다. 서울숲 근처 한강: 서울숲에서 가까운 한강변을 따라 산책하며 야경을 감상하는 것도 좋은 데이트 코스입니다. 이 외에도 성수동에는 다양한 맛집과 카페, 문화 공간이 많으니 둘러보며 즐거운 시간을 보내세요! 질문2: 성수동에서 가장 인기 있는 카페 3곳만 추천해줘. 앨런 답변: 성수동에서 가장 인기 있는 카페 3곳을 추천드릴게요: 카페 어니언 (Cafe Onion): 독특한 인테리어와 감성적인 분위기로 유명한 카페입니다. 넓은 공간과 다양한 베이커리 메뉴가 특징입니다. 대림창고 (Daelim Warehouse): 예술적이고 빈티지한 분위기의 카페로, 넓은 공간과 다양한 예술 작품을 감상할 수 있는 곳입니다. 할아버지공장 (Grandpa Factory): 여러 드라마 촬영지로도 유명한 카페로, 공장 건물을 개조한 독특한 인테리어가 인상적입니다. 다양한 음료와 디저트를 즐길 수 있습니다. 이 카페들은 각각의 독특한 분위기와 매력으로 많은 사람들에게 사랑받고 있습니다. 성수동을 방문하신다면 꼭 들러보세요! ■ 기사는 앨런을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 08:48AI 에디터

'보안 논란' 딥시크, 안전하게 사용하는 3가지 방법

전세계가 지적하는 딥시크의 보안 문제, 그럼 아예 못 쓰는 건가? 최근 AI 검색 기술의 새 지평을 열고 있다는 평가 받는 딥시크(DeepSeek)가 여전히 보안 문제로 인해 논란의 중심에 서 있습니다. 데이터 유출 위험과 개인정보 보호 우려가 제기된 것인데요. 이에 따라 많은 사용자들이 딥시크 앱이나 웹사이트를 직접 이용하기보다, 국내외 다른 기업들이 딥시크 모델을 자체 서버나 독립 클라우드 환경에서 안전하게 활용할 수 있는 방법에 주목하고 있습니다. 오늘은 딥시크를 상대적으로 안전하게 이용할 수 있는 세 가지 서비스: 퍼플렉시티(Perplexity), 뤼튼(Wrtn), 앨런(Alan)에 대해 살펴봅니다. 보안 이슈, 왜 중요한가? 각국의 잇다른 딥시크 접속 차단 AI 의존도가 갈수록 높아지면서 보안 문제가 기업과 개인 모두의 주요 리스크로 부상하고 있습니다. 딥시크가 매우 유용한 AI 검색·추론 능력을 제공함에도, “해외 서버, 특히 중국 서버에 데이터가 저장된다”라는 우려가 불거지기고 있습니다. 실제로 지난 5일 한국 외교·산업부는 딥시크 접속을 차단하기에 이르렀는데요. 이런 이슈를 피하고 가격 경쟁력 있는 좋은 기술을 활용할 수 있도록 여러 기업들이 독자적인 방식으로 딥시크 모델을 도입, 개인정보와 데이터 보안을 한층 강화하고 있습니다. [관련 기사] 한국 외교·산업부, 중국 AI 챗봇 '딥시크' 접속 차단… 데이터 유출 우려 [관련 기사] 중국 AI 챗봇 딥시크 사용자, 美서 최대 100만 달러 벌금·20년 징역형 위기 딥시크를 안전하게 이용할 수 있는 3가지 서비스 퍼플렉시티(Perplexity) – 미국 서버 기반으로 강화된 보안 퍼플렉시티는 AI 기반 검색 엔진으로 유명합니다. 딥시크 모델(R1)을 내부 시스템에 적용하면서 '보다 정확한 검색과 질의응답'을 표방하고 있죠. 이들이 주목받는 이유는, 모델을 미국 서버에 호스팅함으로써 개인정보 유출 우려를 줄였다는 점입니다. 기존 딥시크 앱을 사용할 때보다 개인정보가 중국으로 전송될 가능성을 차단했다는 점에서, 민감 데이터를 다루는 사용자들에게 큰 관심을 받고 있습니다. 주요 기능: 복잡한 질문에 대해 심층 추론을 거친 검색결과 제공 보안 강화 전략: 딥시크 모델을 별도의 미국 서버에서 운영, 국내외 개인정보 보호 규정을 충족 기대 효과: 빠른 검색 속도와 높은 정확도 + 사용자 정보 보호 퍼플렉시티 활용법 바로 가기 뤼튼(Wrtn) – 카카오톡 기반 '안전 모드' 무료 제공 뤼튼테크놀로지스가 제공하는 뤼튼은 카카오톡 채널을 통해 딥시크 R1 모델을 활용한 무료 '안전 서비스'를 선보이고 있습니다. 가장 눈길을 끄는 건 '무제한 무료'라는 점인데요, 보안이 중요하다고 해서 비용까지 반드시 비싸야 한다는 선입견을 깬 사례입니다. 뤼튼은 국내 시장 특성에 맞춰, “가입하지 않고 카카오톡 채팅에서 바로 사용하며, 민감 데이터는 절대 외부로 노출되지 않는다”라는 메시지를 강조하고 있습니다. 주요 기능: 실시간 채팅형 AI 답변, 일상 대화부터 업무 Q&A까지 폭넓게 대응 보안 강화 전략: 독립된 클라우드 환경에서 직접 딥시크 모델을 운영, 이용자 입력 데이터가 외부로 유출되지 않도록 설계 특징: 사용자들이 카카오톡이라는 익숙한 플랫폼을 통해 손쉽게 접근 가능, 개인용·교육용으로 활용하기에 부담이 적음 뤼튼 활용 영상 바로 보기 앨런(Alan) – 이스트소프트의 독자 보안 솔루션 연계 이스트소프트에서 운영하는 AI 검색 엔진 '앨런(Alan)' 역시 딥시크 R1 모델을 도입해 서비스 정확도와 보안을 높였습니다. 이스트소프트의 보안 자회사인 이스트시큐리티가 보안 솔루션 '알약xLLM'을 개발해 적용한 것으로 알려져 있는데요, 이는 검색 엔진에서 주고받는 데이터가 외부로 유출될 가능성을 최소화한 것이 특징입니다. 주요 기능: 질문 의도를 파악해 다양하고 심층적인 결과 제시 (예: 지역별 면적 비교, 다각도 분석 등) 보안 강화 전략: 독립 클라우드 환경 + 자체 보안 솔루션(알약xLLM)으로 외부 유출 및 왜곡 방지 차별점: 오픈소스 기반 모델을 딥시크와 완전히 분리된 환경에서 운영, 정보 왜곡 및 해외 서버 의존 우려 해소 앨런 주요 기능 바로 보기 앱이나 웹 대신, 왜 이들을 선택해야 할까? 기업이나 개인이 딥시크를 직접 쓰지 않고도 R1 모델의 강점을 누릴 수 있는 서비스가 늘고 있는 배경은 크게 세 가지 측면에서 찾아볼 수 있습니다. 먼저, '보안 및 개인정보 보호'가 중요한 이유입니다. 독립된 서버에서 모델을 운영하고 자체 보안 솔루션을 도입하면, 데이터가 외부로 유출될 위험이 크게 줄어듭니다. 또한 해외 서버에 의존하지 않음으로써 국내외 규제에 보다 충실하게 대응할 수 있다는 장점도 있습니다. 둘째로, 서비스 안정성도 빼놓을 수 없습니다. 퍼플렉시티나 뤼튼, 앨런과 같은 서비스들은 자체적으로 모델을 유지·보수하기 때문에, 서버 과부하나 장애가 발생했을 때 발 빠르게 대처할 수 있습니다. 오픈AI나 다른 외부 플랫폼에만 의존할 때와 달리, 즉각적인 기술 지원과 문제가 발생한 부분을 직접 점검하는 능력이 강화되는 것이죠. 이는 서비스 중단 위험을 줄이고, 사용자 입장에서도 보다 신뢰할 수 있는 사용 환경을 제공합니다. 마지막으로, 접근성 측면에서도 사용자 편의가 높아졌습니다. 예를 들어, 뤼튼은 카카오톡 채널을 활용해 언제든지 메시지로 AI 검색 서비스를 이용할 수 있게 만들었고, 퍼플렉시티나 앨런은 기존 검색 엔진과 유사한 인터페이스를 채택해 낯설음을 최소화했습니다. 이런 접근성 강화를 통해 AI 활용 문턱이 낮아졌다는 점도, 딥시크 모델을 간접적으로 이용하는 또 다른 매력 포인트로 꼽힙니다. 딥시크, 접속하기엔 무섭고 안 쓰기엔 궁금하다면? 기업들이 딥시크 모델을 어떻게 활용하고 있는지를 살펴보면, 앞으로 AI 기술이 더 넓은 분야에 퍼져나갈 가능성이 높습니다. 다만, 보안 솔루션 강화와 독립된 운영 체계가 없다면 유사한 우려가 재현될 수 있다는 점도 간과해선 안 되겠습니다. 개인 사용자 입장에서도, 민감한 정보를 입력하기 전 “이 서비스가 어떤 방식으로 모델을 운영하고, 어떤 보안 체계를 갖추고 있는가?”를 확인하는 습관이 필요합니다. 데이터가 한 번 노출되면 복구가 어렵기 때문이죠. 결론적으로, 딥시크 앱이나 웹사이트를 직접 이용하다가 보안상의 이유로 망설여진다면, 앞서 살펴본 퍼플렉시티, 뤼튼, 앨런 같은 대안 서비스를 고려해 볼 만합니다. 딥시크의 강력한 AI 검색·추론 성능을 누리면서도, 보안이나 개인정보 보호 측면에서는 한층 안심할 수 있기 때문이죠. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.11 08:46AI 에디터

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

'파격' 인사 기업도 놀랐다…배경훈-하정우 콤비, 韓 AI 부흥 이끌까

삼성전자 美 테일러 팹 내년 초 양산라인 투자

앤트로픽 "韓, AI 혁신 거점…파트너십·투자 지속할 것"

'40대 AI 전문가' 배경훈, 과기정통부 이끈다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현