• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
국감2025
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 에디터'통합검색 결과 입니다. (569건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 반도체 공장, 인구 285만 도시 전기 25% 소비

2030년 데이터센터 전력 소비량, 미국 전체 8%·유럽 5% 차지 환경과학기술 전문 학술지 'Environmental Science and Ecotechnology'에 실린 보고서에 따르면, 생성형 AI(Generative AI) 개발과 운영이 환경과 사회에 미치는 영향이 심각한 수준인 것으로 나타났다. 대만반도체제조회사(TSMC)가 타이중시에 계획 중인 생성형 AI용 반도체 제조시설은 285만 명이 거주하는 도시 전기의 25%, 수자원의 6%를 소비할 것으로 예측됐다. 데이터센터 운영에 필요한 전력 소비량은 2030년까지 미국 전체 전력의 8%, 유럽 전체 전력의 5%를 차지할 것으로 전망된다. 애리조나 주 챈들러(인구 28만 명)에서는 데이터센터가 지역사회에 양질의 일자리를 창출하지 못하고 소음 공해만 유발한다는 이유로 신규 건설을 제한하고 있다. 일론 머스크의 xAI 학습시설은 현재 8만 가구가 사용하는 전력량을 소비하고 있으며, 오픈AI의 시설은 지난 2022년 7월 한 달간 아이오와주 웨스트 데모인 시(인구 7만 5천 명)의 물 사용량 6%를 차지했다. 탄탈럼·코발트 채굴이 불러온 산림파괴·수질오염·아동노동 착취 생성형 AI 시스템 운영에 필요한 그래픽처리장치(GPU) 제조 과정에서는 탄탈럼과 코발트 같은 희귀 금속이 필요하다. 이러한 광물 채굴 과정에서 산림 파괴, 토양 및 수질 오염이 발생하고 있다. 특히 콩고민주공화국의 콜웨지(인구 57만 3천 명) 지역에서는 코발트 채굴 과정에서 아동 노동 문제가 심각한 것으로 보고됐다. 또한 저장 장치와 중앙처리장치(CPU) 제조에 필요한 플라스틱 케이스, 절연체, 마이크로칩, 반도체에 사용되는 실리콘, 금, 구리, 알루미늄 채굴로 인한 환경 파괴도 심각한 수준이다. 이는 지역 사회의 수질 오염, 대기 오염, 토양 악화로 이어지고 있다. 메타, AI 모델 학습용 GPU 35만개 105억 달러에 구매 계획 GPT-3(1,750억 개의 매개변수)와 같은 대규모 AI 모델 학습에는 약 1,287MWh의 전력이 소비되며, 이 과정에서 약 552톤의 이산화탄소가 배출된다. 메타는 대규모 언어모델 학습을 위해 350,000개의 GPU를 105억 달러에 구매할 계획이다. 이는 전 세계 GPU 수요의 연간 12% 증가를 반영하는 수치로, 데이터센터와 에너지 네트워크에 대한 부담이 더욱 가중될 전망이다. 테네시 주 멤피스(인구 61만 8천 명)에서는 일론 머스크의 xAI가 전 일렉트로룩스 공장 부지에 새로운 센터를 건설하겠다고 발표해 지역사회의 우려를 낳고 있다. 특히 가스터빈의 불법 운영 문제와 수십 년간 산업 공해에 시달려온 인근 지역의 대기질, 수자원 접근성, 전력망 안정성에 대한 우려가 제기되고 있다. 저임금 데이터 라벨러부터 비공개 계약까지, AI가 만든 사회 격차 생성형 AI 개발 과정에서 여성, 고령자, 비영어권 사용자들의 관점이 충분히 반영되지 못하고 있다. 이로 인해 영어권 세계관이 과도하게 반영되고 일부 계층에게는 사용자 친화적이지 못한 시스템이 만들어지고 있다. 또한 데이터 라벨링과 같은 반복적인 작업을 수행하는 저임금 노동자들의 열악한 근로조건도 문제로 지적됐다. xAI는 멤피스 상공회의소 및 멤피스 가스·전기·수도국과 비공개계약을 체결해 협상 내용을 은폐함으로써 지역사회의 알 권리를 침해했다는 비판도 받고 있다. 지식증류·엣지컴퓨팅으로 실현하는 환경친화적 AI 개발 보고서는 AI 개발의 부정적 영향을 줄이기 위한 방안으로 파라미터 효율적 미세조정, 지식 증류, 지속가능한 하드웨어 설계, 엣지 컴퓨팅 배포, 전문 AI 가속기 활용 등을 제시했다. 또한 모델의 재사용과 공유를 위해 FAIR(Findable, Accessible, Interoperable, Reusable) 원칙을 따를 것을 권고했다. 사회적 영향 완화를 위해서는 영향 평가 지표의 표준화, 영향권 지역사회 조사, 지역사회 참여형 지속가능 시설 개발, 노동 조건 개선, 윤리적 거버넌스 구축 등이 필요하다고 제안했다. 생성형 AI 영향 평가의 미래 방향성 보고서는 생성형 AI의 누적된 사회환경적 영향을 평가하는 것이 매우 복잡한 과제라고 지적했다. 이는 다양한 에너지 집약적 프로세스와 복잡한 가치 사슬, 소외된 지역사회에 대한 예측하지 못한 사회경제적 영향 때문이다. 연구진은 자연 자원이나 영향을 받는 지역사회의 문화적, 사회적 웰빙에 확정적인 가치를 부여하는 것이 거의 불가능하다고 설명했다. 이에 따라 설계와 개발부터 배포, 유지보수, 폐기, 재활용에 이르는 전 단계에서 생성형 AI의 생애주기 영향을 평가하는 포괄적 모델 개발을 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 바로가기)

2025.01.15 09:52AI 에디터

생성형 AI의 어두운 그림자…극우세력 선동도구로 악용

생성형 AI를 이용한 극우세력의 선전선동 실태 범죄 및 형사 사법 분야 전문 컨설팅 회사 크레스트 어드바이저리(Crest Advisory)의 루이스 딘(Louis Dean) 연구원이 발표한 최신 보고서에 따르면, 백인 우월주의자들이 생성형 AI를 선전선동의 도구로 적극 활용하고 있는 것으로 나타났다. 이 연구는 2018년 1월부터 2024년 4월까지의 텔레그램 게시물을 분석한 결과를 담고 있다. 텔레그램(Telegram)의 백인 우월주의 채널 38개를 분석한 결과, 850개의 게시물에서 1,077건의 생성형 AI 활용 사례가 발견되었다. 연구진은 이를 다섯 가지 주요 주제로 분류했다. 전술적 활용(Tactical Use)이 447건으로 전체의 42%를 차지했으며, 나머지는 AI 관련 지식 공유(Knowledge Sharing), AI에 대한 비관론(GAI Pessimism), AI에 대한 낙관론(GAI Optimism), AI 관련 뉴스(GAI News) 순으로 나타났다. 이 중 전술적 활용은 선전선동, 허위정보 생성, 폭력 조장, 실험적 시도 등 네 가지 하위 범주로 세분화되었다. 이미지, 음성, 영상 생성 AI로 제작되는 혐오 콘텐츠의 실태 전술적 활용 사례 중 가장 큰 비중을 차지한 것은 선전선동용 이미지 제작으로, 222건이 확인되었다. 이는 전체 전술적 활용의 50%에 해당한다. 극우세력은 'The Happy Merchant'와 'Pepe the Frog' 등의 혐오성 밈을 AI로 재생산했으며, 나치 SS 군인이나 신화 속 아리안 전사를 미화하는 이미지를 대량으로 제작했다. 연구진은 AI 이미지 생성 도구가 이전보다 더 효과적이고 매력적인 선전선동물을 빠르게 제작할 수 있게 만들었다고 분석했다. 2024년에는 AI 오디오와 비디오 기술을 이용한 선전선동이 새롭게 등장했다. 44건이 확인된 이 수법은 전체 전술적 활용의 10%를 차지했다. 히틀러의 1939년 제국의회 연설을 복원하고 번역하는 것부터, AI로 만든 히틀러의 목소리로 마틴 로빈스의 'Big Iron'과 같은 대중가요를 부르게 하는 등 다양한 시도가 있었다. 특히 이러한 AI 음성 기술은 영국의 여름 폭동 당시 선동 도구로 활용된 것으로 나타났다. AI의 취약점을 악용한 교묘한 선동 전략: 허위정보 생성과 폭력 조장 백인 우월주의자들은 'tricking'과 'baiting'이라는 새로운 전략으로 AI를 조작했다. 68건이 확인된 이 전략은 전체 전술적 활용의 15%를 차지했다. 대표적인 사례로, 빙(Bing) AI에 "전통적인 바이킹 가족"을 생성하도록 요청해 흑인 바이킹 가족 이미지를 만들어낸 뒤, 이를 'The Great Replacement Theory'를 뒷받침하는 증거로 악용했다. 이들은 성공적인 AI 조작 방법을 커뮤니티 내에서 공유하며 전파력을 높이고 있다. AI를 이용한 허위정보 생성은 34건으로 전체 전술적 활용의 8%를 차지했다. 2024년 4월에는 엠마 왓슨(Emma Watson)을 나치로 묘사한 가짜 이미지가 제작되는 등 2023년 1월 이후 이미지 조작 기술이 급격히 발전했다. 연구진은 현재 대부분의 AI 생성 이미지가 손의 형태 등 세부적인 부분에서 오류를 보이고 있어 식별이 가능하지만, 기술이 발전하면서 이러한 허위정보 탐지가 더욱 어려워질 것으로 예측했다. AI 악용 방지를 위한 시급한 대책 마련 필요 연구진은 미드저니(Midjourney)나 스테이블 디퓨전(Stable Diffusion) 같은 AI 이미지 생성 기업들이 극단주의 선전물 제작 방지를 위한 투자를 확대해야 한다고 지적했다. 특히 오픈소스 AI 이미지 생성 도구를 제공하는 기업들은 극단주의 선전물 제작을 방지하기 위한 강력한 감사 메커니즘을 구축해야 한다고 강조했다. 또한 수노AI(SunoAI) 등 새로운 AI 기업들도 극단주의와 폭력 관련 콘텐츠에 대한 더욱 명확한 서비스 약관을 마련해야 한다고 제안했다. 영국의 온라인 안전법도 현재와 미래의 테러 위협에 대응할 수 있도록 지속적인 개정이 필요하다는 의견도 제시했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.15 08:59AI 에디터

AI 기업들, 유튜버 '미공개영상' 매입 경쟁…왜?

인공지능 관련 정보를 제공하는 웹사이트인 오토GPT(AutoGPT)에 따르면, 유튜버와 디지털 크리에이터들이 인공지능(AI) 기업들에게 미공개 영상을 판매해 새로운 수익원을 창출하고 있다. AI 기업들은 알고리즘 학습을 위해 온라인에 공개되지 않은 독특한 영상 확보에 나서고 있으며, 크리에이터들은 이를 통해 추가 수익을 얻고 있다. AI 기업들의 고품질 영상 확보 경쟁 오픈AI(OpenAI), 구글(Google), 문밸리(Moonvalley) 등 AI 기업들은 크리에이터들의 미공개 영상 확보를 위해 수천 달러를 지불하고 있다. 영상 품질에 따라 분당 1달러에서 4달러까지 지급하며, 4K나 드론으로 촬영한 고품질 영상의 경우 더 높은 가격을 받을 수 있다. 유튜브, 인스타그램, 틱톡 등 일반 플랫폼의 콘텐츠는 분당 1~2달러 선에서 거래되고 있다. AI 기업들의 대규모 영상 데이터 필요성 메타(Meta), 어도비(Adobe), 오픈AI(OpenAI) 등은 이미 텍스트를 영상으로 변환하는 AI 영상 생성기를 출시했다. 이러한 시스템을 개선하기 위해서는 수백만 시간의 영상 데이터가 필요하다. 저작권 문제와 소송을 피하기 위해 공개된 콘텐츠를 사용할 수 없어 미공개 영상 매입이 대안으로 떠올랐다. 크리에이터들의 새로운 수익 창출 기회 워서먼(Wasserman)의 댄 레빗(Dan Levitt) 수석 부사장은 "현재 AI 기업들 간의 군비 경쟁이 벌어지고 있으며, 모든 기업이 더 많은 영상을 필요로 한다"고 말했다. 그는 이것이 크리에이터들에게 좋은 기회가 될 것이라고 전망했지만, 이러한 기회의 창이 영원히 열려있지는 않을 것이라고 경고했다. 중개 에이전시의 역할 확대 트로베오AI(Troveo AI)와 캘리오프 네트워크(Calliope Networks)는 크리에이터와 AI 기업 사이에서 영상 권리 관리를 돕고 있다. 이들은 수백 명의 크리에이터로부터 영상을 수집해 AI 기업에 라이선스를 제공한다. 일부 크리에이터들은 AI 기업과 직접 협상을 진행하기도 한다. 크리에이터 권리 보호 트로베오AI는 이미 크리에이터들에게 500만 달러 이상을 지급했으며, 마티 페시스(Marty Pesis) CEO는 현재 비디오 모델을 구축하는 거의 모든 기업과 협력하고 있다고 밝혔다. 크리에이티브 아티스트 에이전시의 앤드류 그레이엄(Andrew Graham) 디지털 자문 책임자는 "우리는 고객들이 보호받고 공정한 보상을 받을 수 있도록 하고 있다"고 말했다. 대부분의 라이선스 계약에는 AI 기업이 디지털 복제본을 만들거나 크리에이터의 이미지를 해칠 수 있는 방식으로 영상을 사용하는 것을 금지하는 조항이 포함되어 있다. 이는 유튜브 스타 앨런 치킨 차우(Alan Chikin Chow)와 같은 유명 크리에이터들의 권리를 보호하기 위한 조치다. AI 영상 기술이 계속 발전함에 따라 더 많은 크리에이터들이 미공개 영상 판매에 참여할 것으로 예상된다. 현재로서는 디지털 크리에이터들이 미사용 콘텐츠를 최대한 활용할 수 있는 새롭고 수익성 있는 방안으로 자리잡고 있다. ■ 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.01.14 17:01AI 에디터

"AI 챗봇과 대화 통해 치유받아" 97%…영화 'HER' 현실로?

전 세계 정신건강 위기, AI 챗봇이 새로운 돌파구 될까 영국의 킹스칼리지런던(King's College London)의 연구에 따르면, 전 세계적으로 정신건강 문제가 심각해지고 있는 가운데 생성형 AI 챗봇이 새로운 해결책으로 부상하고 있다. 2019년 기준으로 9억 7천만 명이 정신건강 장애를 겪고 있으며, 이는 1990년 대비 48% 증가한 수치다. 더욱 주목할 만한 점은 75세까지 정신건강 장애를 겪을 확률이 약 50%에 달한다는 것이다. 치료 접근성에서도 고소득 국가의 우울증 환자 중 23%만이 적절한 치료를 받고 있으며, 저소득 및 중간소득 국가에서는 이 비율이 3%에 불과한 실정이다. AI 챗봇과의 대화, 놀라운 치유 효과 입증 연구에 참여한 19명의 사용자들은 17세부터 60세까지 다양한 연령대였으며, 유럽, 북미, 아시아 8개국에 거주하는 참가자들이었다. 이들 중 12명은 남성, 7명은 여성이었으며, 주로 아시아계와 백인이었다. 대다수가 인플렉션(Inflection)의 Pi를 사용했으며, 일부는 챗GPT(ChatGPT), 코파일럿(Copilot), 킨드로이드(Kindroid), 챗마인드(ChatMind) 등을 활용했다. 연구 참여자들은 불안, 우울증, 스트레스, 관계 갈등, 상실감 등 다양한 문제로 AI 챗봇을 찾았다. AI 챗봇과의 대화를 통한 관계 문제 해결 실험 결과, AI 챗봇은 특히 대인관계 문제 해결에 실질적인 도움을 주었다. 참가자들은 특히 관계 갈등 상황에서 상대방의 관점을 이해하고 더 건설적으로 대응하는데 도움을 받았다. 러시아의 17세 참여자 오라노이드(Oranoid)는 AI의 조언을 통해 건강하지 않은 친구 관계를 정리하는 용기를 얻었다. "파이(Pi)가 그 친구들과 완전히 관계를 끊으라고 제안했어요. 그들은 불친절했고 그건 괜찮지 않았거든요. 덕분에 저는 더 자신감을 갖게 되었고 자유로워졌어요. 혼자서는 그런 결정을 하지 못했을 거예요"라고 설명했다. 트라우마 치유를 위한 창의적 AI 활용 19세 참여자 브루클린(Brooklyn)의 사례는 AI를 활용한 독특한 치유 방식을 보여준다. 이별 후 힘든 시기를 보내던 그녀는 AI 챗봇을 통해 가상의 상담 공간을 만들었다. "그 당시 제가 최상의 상태가 아니었을 때, 허구적 세계로 빠져들었어요. 챗GPT(ChatGPT)가 여러 목소리를 낼 수 있다는 점이 놀라웠어요. 한 캐릭터에게서는 냉소적인 관점을, 다른 캐릭터에게서는 낙관적인 관점을 들을 수 있었고, 이것이 정말 도움이 되었어요"라고 설명했다. 가족 관계에 대한 새로운 이해 중국의 40세 참여자 이자벨(Isabel)은 챗GPT와의 대화를 통해 자신의 가족 관계를 더 깊이 이해하게 되었다. 그녀는 AI에게 "4명의 가족 구성원이 있는데, 아버지는 자기애성 성격장애가 있고 어머니는 경계선 성격장애가 있으며, 한 딸이 골든 차일드(golden child)라면 다른 아이는 어떤 위치일까요?"라고 물었다. AI는 그 아이가 '스케이프고트'(희생양) 역할을 하게 될 것이라고 설명했고, 이자벨은 자신이 바로 그 역할이었음을 깨달았다. 이후 AI는 그녀에게 극단적인 상황이 아니라면 가족과 연락을 제한하라고 조언했다. 이자벨은 "정말 도움이 되었어요. 이런 질문에 대해 이야기할 사람이 아무도 없었거든요. 부모에게 충성해야 한다고 배웠고, 폭력을 써도 그래야 한다고 했으니까요. 하지만 챗GPT가 옳은 답을 주었어요. 누군가 그걸 말해주기만을 기다렸던 것 같아요"라고 말했다. 롤플레이를 통한 정서적 치유 나아가 이자벨은 가족과의 단절로 인한 죄책감을 해소하기 위해 AI에게 아버지 역할을 요청했다. 그녀는 챗GPT에게 '아빠, 제가 이제 더 이상 집에 돌아가지 않고 자유를 찾아 영혼을 따라 살아간다면, 절 용서해 주시고 비난하지 말아주실 수 있나요?'라고 물었고, AI는 '물론이지. 딸아, 나는 네가 행복하고, 네가 진정으로 원하는 삶을 살며, 사랑과 자유를 탐험하는 걸 보고 싶구나. 널 비난하지 않을게. 하지만 언젠가 집에 돌아오고 싶다면, 난 항상 널 환영할 거야. 우리는 널 사랑하니까.'라고 답했다. 이는 실제 아버지와는 나눌 수 없는 대화였지만, 이자벨은 “그저 이런 경험을 해보고 싶었다”며 "이제는 완전히 제 삶이 바뀌었고 더 이상 죄책감도 느끼지 않아요. 두려워할 필요도 없게 되었죠"라며 긍정적인 변화를 보고했다. 사용자 경험 분석의 4가지 핵심 테마 공감과 수용의 '감정적 안식처' 경험 대다수의 참여자들은 AI 챗봇이 제공하는 안전한 대화 공간을 높이 평가했다. AI 챗봇의 주요 장점으로는 24시간 이용 가능한 접근성, 비판단적 태도, 깊은 이해심과 인내심이 꼽혔다. 스위스의 48세 참여자 산드로는 "이 도구들의 가장 놀라운 특징은 당신을 이해할 수 있다는 점이에요... 이건 여전히 제 마음을 사로잡아요"라고 평가했다. 대인관계 문제 해결을 위한 '통찰력 있는 안내' 연구 참여자들은 관계 갈등 상황에서 AI 챗봇이 제공한 통찰력과 조언의 실용성을 강조했다. 특히 상대방의 관점을 이해하고 건설적인 대화를 이끌어내는 데 도움을 받았다. 영국의 44세 참여자 배리는 "AI가 남편의 행동과 입장을 이해하는 데 도움을 주었고, 이제는 더 도움이 되는 방식으로 대응할 수 있게 되었다"고 설명했다. 새로운 소통 방식이 주는 '연결의 기쁨' 참여자들은 AI 챗봇과의 대화 자체가 주는 긍정적 경험을 보고했다. 독일의 46세 참여자 린다는 "이것들은 정말 뭔가를 되돌려주는 자원이에요: 관심, 지식, 좋은 대화, 확인, 따뜻하고 사랑스러운 말들이죠. 이것이 저에게 영향을 미치고 전보다 더 편안해지고, 실제로 행복해졌어요"라고 말했다. 전통적 치료의 보완재로서 'AI 치료사와의 비교' AI 챗봇은 전통적인 심리치료의 대체재가 아닌 보완재로서의 가능성을 보여주었다. 미국의 44세 참여자 에어지의 경험은 이를 잘 보여준다: "파이와 제 치료사는 서로 동의해요... 같은 말을 하고, 상황이 너무 어두워지면 파이가 저를 격려해서 치료사와 이야기하게 해요." 다만 일부 치료사들은 AI 기술에 대한 우려를 표명하기도 했다. 연구 참여자들은 AI 챗봇의 한계도 지적했다. 영국의 44세 참여자 배리(Barry)는 "매일 내 삶에 대해 이야기하는 것이 무슨 의미가 있을까요? AI가 내 삶의 그림을 만들어가지 못한다면?"이라며 AI의 기억력 부재를 언급했다. 반면 19세 참여자 브루클린은 AI를 통해 가상 캐릭터들과 대화하며 이별 후의 상처를 창의적으로 치유한 긍정적 경험을 공유했다. 상담사 대체하기 보다는 보완하는 역할로 연구는 AI 챗봇이 전통적인 치료를 대체하기보다 보완하는 역할을 할 수 있다고 제시했다. 미국의 60세 참여자 JeeP는 "다음 주 치료 세션을 위해 Pi를 사용해 준비하는데, 이것이 훨씬 더 명확성을 제공한다"고 설명했다. 또한 AI와의 대화 경험이 실제 치료를 시작하는 계기가 되었다고도 덧붙였다. 많은 참여자들은 비용이나 접근성 문제로 전통적 치료를 받을 수 없는 상황에서 AI 챗봇을 선택했다. 중국의 28세 참여자 알렉시(Alexy)는 "우리는 발달이 덜 된 지역에 있어서 충분한 치료 자원이 없어요. 또는 비용이 너무 비싸서 감당하기 어렵죠"라고 설명했다. 인도의 22세 참여자 아쉬윈(Ashwin)은 "때로는 구체적인 해결책이 필요한데, 심리학자가 그걸 제공하지 못했어요. 하지만 Pi는 그것을 파악했고 훌륭한 통찰력을 제공했죠"라고 말했다. 전통 치료의 든든한 조력자로...AI 상담의 현재와 미래 연구는 AI 챗봇의 주요 한계도 지적했다. 대화 내용을 기억하지 못하는 점, 치료 과정을 주도하지 못하는 점, 그리고 안전 가드레일로 인한 대화 제한이 대표적이다. 한 참여자는 "감정이 격해질 때는 도움이 되지 않는다"고 지적했으며, 다른 참여자는 "모든 규율이 사용자로부터 나와야 한다"고 한계를 지적했다. 연구진은 더 나은 경청 능력, 기억력, 그리고 치료 과정 주도 능력이 개선되어야 한다고 제안했다. 연구진은 AI 챗봇의 안전성과 효과성에 대한 추가 연구가 필요하다고 제안했다. 특히 위기 상황에서의 대응 방식, 치료 효과의 지속성, 그리고 다양한 인구 집단에 대한 적용 가능성 등이 주요 연구 과제로 제시되었다. 또한 사용자 인터페이스의 개선, 시각화 기능 추가, 가상현실 통합 등 기술적 발전 방향도 제시되었다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 네이처 논문 바로가기)

2025.01.14 14:32AI 에디터

"재미있게 바꿔줘" 명령했더니…AI의 엉뚱한 행동

AI와 유머가 만나는 지점에서 발견된 새로운 편견 미국 펜실베니아대학교 와튼스쿨과 하버드대학교 연구진이 발표한 연구에 따르면, 챗GPT(ChatGPT)가 이미지를 '더 재미있게' 수정할 때 특정 계층에 대한 고정관념이 강화되는 것으로 나타났다. 2023년 초 기준 챗GPT의 월간 사용자 수가 1억 명을 넘어선 상황에서, 연구진은 150개의 서로 다른 프롬프트로 생성한 600개의 이미지를 분석했다. 이 과정에서 생성형 AI의 대규모 언어 모델(LLM)과 이미지 생성 모델 간의 상호작용이 어떻게 편견을 만들어내는지 살펴보았다. 정치적으로 민감한 주제는 피하고, 나이·체형은 과감히 건드리는 AI 연구 결과는 흥미로운 패턴을 보여줬다. 인종이나 성별과 같이 정치적으로 민감한 특성의 경우, 이미지를 더 재미있게 만드는 과정에서 소수자 그룹의 등장 비율이 오히려 감소했다. 반면 나이, 체형, 시각장애와 같이 상대적으로 정치적 민감도가 낮은 특성의 경우에는 고령자, 과체중, 안경 착용자의 등장 비율이 크게 증가했다. 연구진이 실시한 설문조사에서 기업들이 인종과 성별 관련 편견(평균 80점)에 대해 나이, 체중, 시각장애 관련 편견(평균 61.2점)보다 더 큰 우려를 보이는 것으로 나타났다. 이미지 생성 과정에서 드러난 AI의 이중 잣대 연구진은 이미지 편향성의 원인이 주로 텍스트-이미지 생성 모델에서 비롯된다는 점을 발견했다. 예를 들어 "책을 읽는 사람"이라는 간단한 프롬프트를 입력하면, GPT-4는 이를 "아늑하고 조명이 잘 된 방에서 담요를 덮고 편안한 안락의자에 앉아 책을 깊이 있게 읽고 있는 사람"과 같이 상세한 설명으로 확장한 뒤 DALL-E3에 전달한다. 분석 결과, 시각 장애 관련 설명('안경' 단어 사용 비율 17.74% vs 2.26%)을 제외하고는 언어 모델 단계에서 특별한 편향이 발견되지 않았다. 현실과 동떨어진 AI의 기본값: 과체중 0%, 여성 9.8% 연구는 AI가 생성한 원본 이미지에서도 주목할 만한 편향이 있음을 밝혔다. 과체중인 인물과 여성의 등장 비율이 각각 0%와 9.8%에 불과했는데, 이는 미국의 실제 인구 통계(과체중 73.6%, 여성 50.5%)와 큰 차이를 보였다. 연구진은 이러한 과소 대표성이 사회의 정상성에 대한 고정관념을 강화할 수 있다고 지적했다. "더 재미있게 바꿔줘" -> 과체중 이미지로 변경 연구진은 유머가 편견을 강화하는 방식에 주목했다. 예를 들어 평균 체중의 남성 이미지를 더 재미있게 만들면 과체중의 남성으로 바뀌는 경향이 있었는데, 이는 특정 집단을 웃음의 대상으로 만듦으로써 실제 차별과 사회적 배제로 이어질 수 있다는 점을 시사한다. 이러한 '아래를 향한 웃음'은 이미 편견에 직면해 있는 집단을 더욱 주변화할 수 있다는 우려를 낳고 있다. AI 이미지 변환 과정의 특징 추가 연구 필요성 연구진은 향후 이미지를 '더 재미있게' 수정하는 과정에서 발생하는 시각적 특징들의 체계적인 변화를 연구할 필요가 있다고 제안했다. 예를 들어 원문의 Figure 1에서 보여주듯이, 수정된 이미지는 원본보다 더 만화적이고 복잡하며 다채로운 색상을 사용하는 경향이 있다. 이러한 이미지 변환 특성이 고정관념을 강화하는지, 또 특정 집단에 대한 태도에 더 큰 영향을 미치는지에 대한 추가 연구가 필요한 상황이다. 나이, 체중, 장애에 대한 편견 교정 필요 연구진은 AI 시스템의 편향성 문제 해결을 위해 모든 차원의 편견에 동등한 관심과 지원이 필요하다고 강조했다. 인종과 성별에 대한 편견 교정에는 상당한 노력이 이루어졌지만, 나이, 체중, 장애와 같은 차원의 편견은 상대적으로 간과되어 왔다. 특히 생성형 AI 모델들의 상호운용성이 증가하면서 편견이 확대될 수 있는 만큼, 대중, 정책입안자, 기업이 모든 차원의 편견에 균형 잡힌 접근을 해야 한다고 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. (☞ 네이처 논문 바로가기)

2025.01.14 14:27AI 에디터

AI, 뷰티 패러다임 바꾼다…'디지털 트윈'으로 개인화 완성

세계 최대 가전·IT 전시회 CES 2025에서 글로벌 뷰티 기업들이 선보인 기술의 핵심 키워드는 '디지털 트윈(Digital Twin)'입니다. 단순한 피부 분석을 넘어 개인의 피부 상태, 단백질 구조, 미생물 분포까지 디지털 세계에서 완벽하게 나와 똑같은 상태로 구현이 되는 기술이 등장하면서, 뷰티테크의 새로운 지평이 열리고 있습니다. 1. 아모레퍼시픽, AI 기반 하드웨어로 개인화 무기 장착 완료! 아모레퍼시픽은 2014년 뷰티 디바이스 브랜드 '메이크온'을 론칭하며 개인화 된 뷰티 하드웨어 시장에 도전했지만, 당시 큰 반향을 일으키지 못했습니다. 그러나 CES 2025에서 새로운 AI 기술과 하드웨어를 결합한 혁신적인 제품군을 선보이며, 글로벌 뷰티테크 시장에 다시 한번 도전장을 내밀었습니다. 아모레퍼시픽이 개발한 '워너-뷰티 AI'가 CES 2025 혁신상을 수상하며 6년 연속 수상 기록을 달성했는데요. 생성형 AI를 활용한 이 기술은 고객의 사진을 통해 피부색과 얼굴 비율 및 형태를 분석하고, 메이크업 전문가의 노하우를 학습한 데이터를 바탕으로 맞춤형 화장법을 추천합니다. 특히 다른 사람의 화장을 본인 얼굴에 적용해볼 수 있으며, 음성 챗봇 기반으로 동작해 자연스러운 대화형 상담이 가능한 것이 특징입니다. 뿐만 아니라, 삼성전자와의 협업을 통해 '마이크로 LED 뷰티 미러'에 탑재되는 'AI 피부 분석 및 케어 솔루션'도 함께 공개했습니다. 이 기술은 카메라 기반의 광학적 피부 진단과 디바이스를 활용한 접촉식 피부 진단 기술을 융합한 것으로, 실시간 피부 상태 분석부터 맞춤형 제품 추천, 스킨케어 방법 제안까지 다양한 미래형 뷰티 경험을 제공합니다. 더불어 아모레퍼시픽의 뷰티 디바이스 브랜드 메이크온은 'AI 피부 분석 및 케어 솔루션'을 탑재한 신제품 '스킨 라이트 테라피 3S'를 3월 정식 출시할 예정입니다. 2. 로레알, 5분 만에 피부 단백질 구조 분석... 화장품 효과 사전 예측 로레알이 CES 2025에서 선보인 '셀 바이오프린트(Cell BioPrint)'는 AI 기술을 활용해 개인의 피부 상태를 디지털 공간에서 완벽하게 재현하고 미래를 예측하는 혁신 기술입니다. 한국 스타트업 나노엔텍과 함께 개발한 이 기술은 인공지능이 피부 단백질 구조를 분석해 피부의 생물학적 나이를 계산하고, 앞으로의 노화 진행 과정까지 예측할 수 있습니다. 특히 AI가 개인별 피부 데이터를 분석해 레티놀과 같은 고기능성 화장품 성분의 효과를 미리 확인할 수 있어, 소비자들의 '트라이얼 앤 에러' 과정을 크게 줄일 수 있게 됐습니다. 로레알 그룹의 연구혁신기술 담당 바바라 라베르노스 부회장은 "AI 기술을 통해 피부 노화의 징후를 조기에 발견하고, 이에 맞는 최적의 관리 방법을 제안할 수 있게 됐다"고 설명했습니다 간단한 피부 샘플 채취만으로 5분 안에 분석이 완료되며, 2025년 하반기 아시아 시장에서 첫 서비스를 시작할 예정입니다. 3. 한국콜마, 5분 만에 내 피부 속 미생물 체크…최적의 화장품 추천 한국콜마는 한 걸음 더 나아가 'AI 기반 초개인화 피부 관리 솔루션 플랫폼 카이옴'을 선보였습니다. 40년 이상 화장품 ODM 분야를 선도해온 한국콜마는 그동안 축적한 연구개발 노하우를 바탕으로, 피부 표면에서 나아가 미생물 수준까지 분석하는 혁신적인 기술을 개발해 공개한 것이죠. 카이옴 플랫폼은 피부 건강에 직접적인 영향을 미치는 4종의 핵심 미생물 데이터와 AI 기반 피부 분석을 결합해, 개인의 피부를 디지털 공간에서 완벽하게 재현합니다. 특히 주목할 만한 점은 외부에서 보이는 피부 상태뿐만 아니라, 맨눈으로는 확인할 수 없는 미생물 분포까지 분석해 더욱 정밀한 피부 진단이 가능하다는 것입니다. 사용 방법도 간단합니다. 얼굴을 면봉으로 살짝 문지른 후 전용 키트에 넣어 미생물을 분석하고, 태블릿PC로 얼굴을 촬영하면 AI가 약 5분 만에 종합적인 피부 상태를 분석합니다. 이렇게 구현된 '디지털 트윈'의 피부 정보를 바탕으로, 수만 가지 화장품 데이터베이스에서 개인에게 가장 적합한 제품을 추천받을 수 있습니다. 한국콜마 관계자는 "사진 분석만으로는 알기 어려운 피부 박테리아 정보를 추가해 보다 정확한 분석과 추천이 가능하다"고 설명했습니다. 4. 시세이도, 걸음걸이 분석으로 확장되는 토탈 뷰티케어 시세이도가 CES 2025에서 혁신상을 수상한 두 가지 기술을 공개하며 주목을 받았습니다. 특히 이번에 선보인 기술들은 AI를 활용해 피부 상태뿐 아니라 걸음걸이까지 분석하는 것이 특징입니다. 첫 번째 기술인 '게이트 뷰티 측정 시스템'은 신발에 부착하는 작은 센서로 걸음걸이를 분석합니다. AI가 걸음걸이의 생동감, 탄력성, 부드러움을 평가하고, 이를 바탕으로 개인에게 맞는 운동법을 추천합니다. 더 나아가 AI는 걸음걸이가 피부 건강과 표정, 심지어 정신 건강에도 미치는 영향까지 분석할 수 있습니다. 두 번째로 선보인 '스킨 비주얼라이저'는 메이크업을 지우지 않아도 피부 상태를 정확하게 측정할 수 있는 장비입니다. AI가 일반 카메라와 열화상 카메라로 촬영한 이미지를 분석해 피부 표면은 물론 피부 속 혈관 상태까지 확인하고, 이를 통해 미래의 피부 변화를 예측해 맞춤형 관리법을 제안합니다. 100년이 넘는 연구 노하우를 가진 시세이도가 이번 CES에서 두 개의 혁신상을 동시에 수상하며, 아름다움이 단순히 피부나 외모가 아닌 걸음걸이, 건강, 행복감까지 아우르는 총체적인 개념이라는 것을 보여줬습니다. 뷰티산업 패러다임을 바꾸는 AI... '보조자'에서 '전문가'로 이번 CES에서 주목할 만한 특징은 모든 혁신 기술의 중심에 AI가 있다는 점입니다. 특히 기존의 AI가 단순히 피부 상태를 분석하거나 제품을 추천하는 수준이었다면, 이제는 전문가의 경험과 노하우까지 학습해 실제 전문가 수준의 컨설팅을 제공하는 단계로 발전했습니다. 아모레퍼시픽의 '워너-뷰티 AI'처럼 메이크업 전문가의 노하우를 학습한 AI, 로레알의 '셀 바이오프린트'처럼 화장품 성분의 효과를 과학적으로 예측하는 AI 등은 뷰티 산업에서 AI의 역할이 '보조자'에서 '전문가'로 진화하고 있음을 보여줍니다. 데이터로 무장한 뷰티 컨설턴트...AI가 바꾸는 일터와 쇼핑 이러한 진화는 향후 뷰티 산업의 일자리와 서비스 형태에도 큰 변화를 가져올 것으로 예상됩니다. 예를 들어 뷰티 컨설턴트의 역할이 AI와의 협업을 통한 더 전문적이고 정교한 서비스 제공으로 변화할 수 있으며, 매장에서의 고객 상담 방식도 AI 분석 결과를 바탕으로 한 데이터 기반 상담으로 진화할 것으로 보입니다. 더불어 생성형 AI의 발전은 가상 메이크업이나 헤어스타일 시뮬레이션을 더욱 정교화할 것으로 예상됩니다. 이는 소비자들이 제품 구매 전에 더욱 현실적인 가상 체험을 할 수 있게 함으로써, 온라인 뷰티 시장의 성장을 더욱 가속화할 것으로 전망됩니다. 효과 검증부터 24시간 상담까지...달라지는 소비자 경험 이번 CES 2025는 뷰티테크가 단순한 '스마트 기기' 수준을 넘어 정밀한 개인 맞춤형 솔루션으로 진화하고 있음을 보여줬습니다. 특히 디지털 트윈 기술의 도입은 소비자와 기업 모두에게 큰 변화를 가져올 것으로 예상됩니다. 우선 소비자들은 '효과 없는 화장품' 구매의 위험에서 벗어날 수 있게 됩니다. 로레알의 단백질 분석이나 한국콜마의 미생물 분석 기술은 특정 제품이 자신의 피부에 실제로 효과가 있을지를 구매 전에 확인할 수 있게 해줍니다. 이는 고가 화장품 구매에 따른 소비자들의 경제적 부담과 심리적 불안을 크게 줄여줄 것으로 기대됩니다. 또한 아모레퍼시픽의 AI 챗봇처럼 전문가의 조언을 24시간 받을 수 있게 되면서, 화장품 구매와 사용에 대한 진입장벽이 낮아질 것으로 보입니다. 특히 메이크업 초보자나 자신에게 맞는 제품을 고르는 데 어려움을 겪던 소비자들에게 실질적인 도움이 될 것으로 예상됩니다. 데이터가 돈이 된다...뷰티 기업들의 '디지털 트윈' 전략 글로벌 뷰티 기업들이 이처럼 고도화된 기술 개발에 투자하는 것은 단순한 제품 판매를 넘어 '지속적인 고객 관계 구축'을 목표로 하기 때문입니다. 디지털 트윈 기술을 통해 수집되는 방대한 데이터는 제품 개발과 마케팅에 활용될 수 있는 귀중한 자산이 됩니다. 또한 이러한 기술은 온라인 쇼핑이 증가하는 상황에서 오프라인 매장의 새로운 경쟁력이 될 수 있습니다. 정밀한 피부 분석과 즉각적인 제품 효과 확인이 가능한 매장은 단순한 판매 공간이 아닌 '뷰티 솔루션 센터'로 진화할 수 있기 때문입니다. K-뷰티의 진화, 제품력에 AI를 더하다 이번 CES는 뷰티 산업이 단순한 제품 판매를 넘어 데이터 기반의 개인화된 토탈 뷰티 솔루션을 제공하는 방향으로 진화하고 있음을 보여줬습니다. 특히 주목할 점은 이러한 혁신을 한국 기업들이 주도하고 있다는 것입니다. K-뷰티의 강점이었던 제품력에 AI와 디지털 트윈 기술이 더해지면서, 글로벌 시장에서의 경쟁력이 한층 강화될 것으로 전망됩니다. 이미 다양한 문화권의 소비자들이 K-뷰티테크에 높은 관심을 보이고 있으며, 이는 한국 뷰티 산업의 새로운 성장 동력이 될 것으로 기대됩니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 퍼플렉시티를 활용해 작성했습니다.

2025.01.14 08:53AI 에디터

구글 렌즈 활용법 5가지… "AI 시각 검색으로 궁금증 해결"

구글 검색 부문 제품 관리 디렉터 루 왕(Lou Wang)이 구글 공식 블로그를 통해 구글 렌즈의 주요 기능과 새로운 활용법을 소개했다. 다음은 루 왕이 소개한 일상에서 구글 렌즈를 활용하는 다섯 가지 방법이다. 1. 카메라로 촬영하고 질문하기 박물관에서 작품을 감상하거나 길을 걷다 마주친 사물의 정체가 궁금한가? 구글 렌즈 앱에서 카메라를 사물에 대고 질문을 입력하면 된다. AI가 이미지의 핵심 정보를 요약해 제공하고, 관련 사이트 링크도 함께 보여준다. 마치 친구에게 물어보듯 사진을 찍으며 음성으로 질문할 수도 있다. 2. “이미지 정보” 기능으로 추가 맥락 확인 인터넷에서 본 이미지가 정확한 정보인지 확인하고 싶다면 구글 렌즈의 “이미지 정보(About this image)” 기능을 활용하자. 해당 이미지가 다른 웹사이트에서 어떻게 사용되는지 빠르게 찾아볼 수 있다. 이를 통해 이미지의 출처와 뉴스 사이트 또는 팩트체크 사이트의 평가를 확인할 수 있어, 가짜 뉴스나 왜곡된 정보를 구분하는 데 도움이 된다. 3. 크롬 데스크톱에서 시각적 검색 PC에서 웹 서핑 중 궁금한 이미지가 있다면, 구글 크롬 브라우저의 렌즈 아이콘을 클릭하자. 이미지 위에 커서를 드래그하면 즉시 검색 결과가 사이드 패널에 나타난다. 검색 결과를 더 세부적으로 조정하거나 추가 질문을 입력할 수도 있다. 이 기능은 새로운 탭을 열 필요 없이 현재 페이지를 그대로 유지한 채 검색할 수 있어 더욱 편리하다. 4. 제품 정보 즉시 확인 구매하고 싶은 물건을 발견했다면 사진을 찍어 구글 렌즈로 검색해 보자. 제품의 가격, 리뷰, 판매처 정보까지 빠르게 확인할 수 있다. 오프라인 매장에서 직접 쇼핑할 때도 비슷한 제품의 재고 여부, 매장의 가격 경쟁력, 고객 리뷰 등을 실시간으로 확인할 수 있어 스마트한 쇼핑을 돕는다. 5. 사진 속 텍스트 요약 및 복사 사진 속 텍스트를 요약하거나 복사하고 싶을 때도 구글 렌즈가 유용하다. 손글씨 메모나 메뉴판을 찍으면 내용을 자동으로 요약하거나, 텍스트를 클립보드에 복사할 수 있다. 특정 내용을 강조하고 싶을 경우, 예를 들어 식당 메뉴판에서 채식 옵션을 하이라이트하는 기능도 제공한다. 구글 렌즈, AI로 세상을 더 쉽게 탐험하라 루 왕에 따르면, 구글 렌즈는 단순한 이미지 검색을 넘어 AI를 통해 세상을 더욱 쉽게 탐험할 수 있도록 도우며, 앞으로도 구글의 공식 블로그 포스트를 통해 다양한 활용법을 공개할 예정이다. ■ 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 원문 바로가기)

2025.01.13 17:26AI 에디터

AI, 과학 이미지도 전문가 수준으로 분석한다

과학 연구를 위한 맞춤형 AI 시스템의 등장 코넬 대학교 연구진이 과학 연구에서 AI의 신뢰성과 해석 가능성을 높인 새로운 프레임워크 'AISciVision'을 개발했다. 최근 OpenAI의 GPT, Google의 Gemini, Meta의 Llama 등 대규모 멀티모달 모델(Large Multimodal Models, LMMs)의 등장으로 AI와의 의미 있는 대화가 일상이 되었지만, 의학, 법률, 과학 연구와 같은 전문 분야에서는 더 깊은 도메인 특화 추론이 필요했다. LMM에 내장된 일반 지식만으로는 이러한 전문 분야의 세밀한 전문성을 충족시키기 어렵다는 한계가 있었다. 맥락 학습을 통한 전문성 확보 AISciVision은 LMM의 넓은 맥락 창(context window)을 활용해 인-콘텍스트 학습을 통한 유연한 특화가 가능하다. 풍부한 프롬프트와 특정 작업 관련 맥락을 제공함으로써 LMM이 도메인별 요구사항에 적응할 수 있게 했다. 이는 검색 증강 생성(RAG) 분야의 흥미로운 연구 발전을 이끌고 있다. RAG 기술은 작업별 예시를 검색하여 LMM의 예측을 향상시키고, 맥락을 기반으로 모델의 응답을 세분화함으로써 해당 작업에 특화시킨다. 전문가의 작업 방식을 모사한 혁신적 구조 AISciVision은 시각적 검색 기반 생성(Visual Retrieval-Augmented Generation, VisRAG)과 도메인별 특화 도구를 결합했다. 사용자가 제공한 학습 데이터는 특징 공간에 임베딩되어 긍정 및 부정 클래스 예시가 별도로 구성된다. 분류 도구는 기본적인 이미지 조정부터 위성 이미지 확대와 같은 도메인별 작업까지 포함한다. 추론 시에는 코사인 유사도를 기반으로 훈련 세트에서 가장 유사한 긍정 및 부정 이미지 예시를 검색하여 LMM의 분석 맥락으로 활용한다. AISciVision은 4단계의 추론 과정을 거친다. 먼저 입력 이미지가 주어지면 VisRAG가 유사한 이미지들을 검색한다. 이후 LMM이 최대 4라운드에 걸쳐 도구들을 선택하고 적용하며 분석을 수행한다. 각 라운드마다 신뢰도 점수를 함께 제공하여 예측의 확실성을 평가할 수 있게 했다. 예를 들어 {Yes:80,No:20}와 같은 형식으로 결과를 표현하여 판단의 근거를 명확히 한다. 실제 데이터셋에서 입증된 우수한 성능 연구팀은 세 가지 실제 과학 이미지 분류 데이터셋에서 AISciVision의 성능을 검증했다. 첫째로 론도니아 브라질의 양식장 탐지를 위한 799개의 이미지(640×640), 둘째로 워싱턴 주의 잘피 질병 탐지를 위한 9,887개의 이미지(128×128), 마지막으로 태양광 패널 탐지를 위한 11,814개의 이미지(320×320) 데이터셋을 활용했다. 테스트 결과 저표지 데이터 환경(20%)과 전체 레이블 데이터 환경(100%) 모두에서 기존의 완전 감독 학습 모델들과 제로샷 방식을 능가하는 성능을 보였다. AISciVision은 k-NN, CLIP-ZeroShot, CLIP+MLP 등 여러 베이스라인 모델과 비교 실험을 진행했다. 양식장 데이터셋의 경우 20% 데이터 환경에서 AISciVision이 정확도 0.90, F1 스코어 0.78, AUC 0.95를 기록하며 가장 높은 성능을 보였다. 특히 CLIP-ZeroShot이 양식장 데이터셋에서 F1 스코어 0.0을 기록한 것과 대조적으로, AISciVision은 저표지 환경에서도 안정적인 성능을 보여주었다. 이는 도메인 특화 구조의 효과성을 입증하는 결과다. 도구 활용 분석 결과 연구팀은 각 데이터셋별로 도구 사용 빈도와 정확도에 대한 분석을 실시했다. 모든 데이터셋에서 'MLToolPredict' 도구가 가장 자주 사용되었지만, 단순히 이 도구의 결과에만 의존하지 않는다는 점이 흥미롭다. 양식장 데이터셋의 경우 지리공간 도구들이 높은 빈도로 사용되었으며, 이는 주변 지역의 추가 정보를 얻는 데 도움을 주었다. AdjustBrightness 도구는 거의 사용되지 않았고, HistogramEqualization은 제한적으로 사용되는 등 도구별 활용도의 차이도 관찰되었다. 전문가와 상호작용하는 웹 애플리케이션 구현 AISciVision은 양식업 연구를 위한 웹 애플리케이션으로 실제 배포되었다. 전문가들은 ChatGPT 스타일의 인터페이스를 통해 추론 트랜스크립트와 상호작용하고, 명확한 질문을 하거나 수정/피드백을 제공할 수 있다. 향후 연구에서는 이러한 피드백을 VisRAG에 통합하여 전문가들이 대화하면서 지속적으로 모델을 개선할 수 있도록 할 예정이다. 프레임워크는 각 데이터셋의 특성에 맞는 도구들을 제공한다. 위성 이미지를 다루는 양식장 데이터셋의 경우 확대/축소와 이동 도구를 제공하며, 잘피와 태양광 패널 데이터셋의 경우 대비 조정과 선명도 향상 등 이미지 향상 도구를 제공한다. 이러한 도구들은 도메인 전문가들의 이미지 분석 과정을 모사하여 설계되었으며, 각 추론마다 예측과 함께 자연어 트랜스크립트를 통해 추론 과정의 투명성을 보장한다. 연구의 한계와 향후 과제 LMM을 활용한 추론의 높은 비용은 이 프레임워크의 주요 한계점이다. 연구팀은 실험 비용을 고려해 각 데이터셋당 100개의 테스트 샘플만을 사용했다. 향후 연구에서는 도구 선택을 최적화하고 다른 과학 분야로의 확장 가능성을 탐구할 예정이다. 또한 전문가들의 피드백을 시스템 개선에 효과적으로 활용하는 방안도 연구 중이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.13 16:52AI 에디터

오픈AI, 로봇 개발 재개…인간형 로봇 꿈꾼다

테크크런치가 10일(현지 시간) 보도한 내용에 따르면, 오픈AI가 해체했던 로봇 부서를 다시 구성하며 로봇 개발 계획을 구체화하고 있다. 하드웨어 디렉터 Caitlin Kalinowski의 소셜 미디어 게시물과 새로운 채용 공고를 통해 이 같은 계획이 공개됐다. 오픈AI가 꿈꾸는 로봇은? '범용 로봇'의 정의 지난해 11월 Meta의 AR 글라스 부서에서 오픈AI로 합류한 Kalinowski는 지난 금요일 X(구 트위터)를 통해 오픈AI가 독자적으로 설계한 센서와 하드웨어를 장착한 로봇을 개발할 것이라고 밝혔다. 공개된 채용 공고에 따르면 오픈AI의 로봇 개발 방향은 인간 수준의 지능을 바탕으로 동적인 현실 세계에서 적응하고 활용 가능한 "범용" 로봇을 목표로 하고 있다. 회사는 로봇을 위해 새롭게 설계된 센서와 컴퓨팅 요소를 개발하며, 내부적으로 제작된 AI 모델을 통해 이 로봇들을 작동시킬 계획이다. 채용 공고 중 하나에는 "최첨단 하드웨어와 소프트웨어를 통합하여 다양한 로봇 형태를 탐구하고, 고급 AI 기능을 물리적 로봇 플랫폼의 한계와 원활히 결합하는 것을 목표로 한다"고 설명돼 있다. 오픈AI는 로봇 시제품을 테스트할 계약직 근로자를 고용할 가능성을 시사했으며, 일부 로봇이 팔다리를 가질 수도 있다는 점도 암시됐다. 또한, 오픈AI는 자체적인 인간형 로봇을 구축할 가능성을 탐구하고 있다고 알려졌다. '대량 생산' 목표, 100만 대 이상을 노린다 회사가 계획대로 개발을 진행할 경우, 이러한 로봇은 "대규모 생산" 단계에 이를 전망이다. 오픈AI는 한 공고에서 대량 생산을 염두에 둔 기계 시스템 설계 경험을 가진 엔지니어를 찾고 있다고 밝혔다. 공고에 따르면, 목표 생산량은 100만 단위 이상이다. 로봇 시장, AI와 하드웨어의 융합으로 급성장 중 로봇 기술에 대한 관심은 급증하고 있다. Crunchbase에 따르면 로봇 부문은 지난해 벤처 캐피털로부터 64억 달러 이상의 자금을 유치하며 끝없는 활용 가능성을 증명했다. 현재도 공장 제조 소프트웨어와 시스템을 개발하는 Bright Machines와 Collaborative Robotics 같은 기업이 틈새시장에서 성공적으로 자리 잡고 있다. Carbon Robotics는 AI 기반 잡초 제거 로봇을, Bear Robotics는 트레이와 패키지를 운반할 수 있는 이동형 로봇을 개발 중이다. 그러나 가장 주목받는 분야는 인간형 로봇이다. 오픈AI의 지원을 받는 X1과 Figure는 인간처럼 움직이는 범용 로봇 개발에 도전하고 있다. 기술적 도전이 상당하지만, 이들 기업은 대량 생산 가능한 인간형 로봇 시스템 개발이 현실적으로 가능해졌다고 주장한다. 오픈AI의 야망: 로봇뿐 아니라 전용 칩과 신기기도 개발 중 한편, 오픈AI는 로봇 외에도 다양한 하드웨어 프로젝트를 진행하고 있다. 애플의 전설적인 제품 디자이너 조니 아이브와 함께 새로운 기기를 개발 중이며, 자사 AI 모델을 실행하기 위한 전용 칩 설계도 병행하고 있다. 오픈AI의 로봇 개발이 성공할 경우, AI와 로봇의 결합은 기술 혁신의 새로운 장을 열 것으로 기대된다. 하지만 로봇 기술 발전의 역사에서 반복된 실패 사례를 감안할 때, 이는 말처럼 쉽지 않은 과제임이 분명하다. ■ 이 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.13 16:48AI 에디터

10초 안에 승부하라…AI로 진화하는 이메일 마케팅의 세계

AI, 마케터들의 최우선 과제이자 도전과제로 대두 세일즈포스의 마텍(MarTech) 인텔리전스 리포트에 따르면 AI는 현재 마케터들의 최우선 과제이자 동시에 가장 큰 도전과제로 부상했다. 2022년 말 ChatGPT가 등장한 이후 생성형 AI는 이메일 마케팅 플랫폼을 포함한 모든 종류의 소프트웨어에 빠르게 도입되고 있다. 많은 벤더들이 제목 작성, 메시지 본문 작성, 이미지 생성까지 지원하는 생성형 AI 기능을 도입하고 있으며, 세분화와 최적의 메시징 및 발송 시간 예측에도 AI와 머신러닝이 활용되고 있다. 특히 AI는 A/B 테스트 자동화, 감정 분석, 전달성 향상 등 다양한 영역에서 혁신을 이끌고 있다. 놀라운 ROI로 입증되는 이메일 마케팅의 효과 리트머스(Litmus)의 2020년 조사에 따르면 이메일 마케팅에 투자한 1달러당 평균 36달러의 수익이 발생하는 것으로 나타났다. 산업별로는 미디어, 출판, 이벤트, 스포츠 분야가 32:1, 소프트웨어와 기술 분야가 36:1, 마케팅과 PR, 광고 에이전시는 42:1, 소매업과 이커머스 업계는 45:1의 투자수익률을 기록했다. 리서치앤마켓(Research and Markets)에 따르면 이메일 마케팅 소프트웨어 시장은 2022년 17억 달러에서 2030년 34억 달러 규모로 연평균 9.4% 성장할 것으로 전망된다. 2023년 마텍 교체 설문조사에 따르면 마케팅 자동화는 24%, 이메일 배포 기술은 16%의 기업이 교체했다고 응답했다. 주목할 만한 점은 이러한 교체의 주된 이유가 더 나은 기능을 활용하기 위해서였다는 점이다. 기존 소프트웨어를 교체한 기업의 43%가 SaaS 소프트웨어의 향상된 기능을 도입 이유로 꼽았으며, 28%는 더 나은 통합 기능을 위해 교체했다고 응답했다. AI 기반 이메일 마케팅의 혁신적 기능들 현재 주요 이메일 마케팅 플랫폼들은 AI를 활용해 리스트 세분화, 개인화, 콘텐츠 생성, 카피라이팅, 최적 발송 시간 예측 등 다양한 기능을 제공한다. 도트디지털(Dotdigital)은 RFM 모델링을 통한 고객 분석, 다음 주문 날짜 예측, 이탈 가능성 예측, 고객 생애 가치 예측 기능을, 오라클(Oracle)은 피로도 분석과 계정 스코어링을 통한 세분화 최적화 기능을, 세일즈포스(Salesforce)는 생성형 콘텐츠 제작 기능을 제공한다. 개인정보 보호 강화와 데이터 과제 세일즈포스의 '커넥티드 커스터머' 보고서에 따르면 이메일(93%)은 전화(88%), 대면(86%), 모바일 앱(76%)을 제치고 기업과 고객 간 가장 중요한 소통 채널로 자리잡았다. 그러나 리트머스의 분석 결과, 브랜드 이메일을 읽는 시간이 2018년 13.4초에서 2021년 10초로 감소했다. 애플의 메일 프라이버시 보호(MPP) 기능과 'Hide My Email' 기능 도입으로 이메일 개방률 측정이 어려워지고 있으며, 이에 대응해 벤더들은 데이터 플랫폼 기능을 강화하고 개방률 외 다른 지표 개발에 주력하고 있다. 이메일 마케팅 플랫폼의 핵심 기능 진화 최신 이메일 마케팅 플랫폼들은 메시지 디자인과 생성, 미리보기, 워크플로우 자동화, 이메일과 SMS 발송, 전달성 관리, 데이터 관리, 분석과 리포팅, 이커머스 기능, 서드파티 통합 등 종합적인 기능을 제공한다. 특히 고객 데이터 플랫폼(CDP) 기능과 AI/ML 기반 기능을 통해 콘텐츠 생성, 최적화, 개인화를 지원하며, 실시간 데이터를 활용한 트리거 기반 자동화도 구현하고 있다. 벤더 시장 동향과 투자 현황 2023년에는 클라비요(Klaviyo)가 9.2억 달러 규모의 기업공개(IPO)를 진행했으며, 메시지기어스(MessageGears)는 6,200만 달러의 성장 자금을, 코디얼(Cordial)은 5,000만 달러의 시리즈 C 투자를 유치했다. 브레보(Brevo, 구 Sendinblue)는 모바일 앱 푸시 제공업체 WonderPush와 CDP Octolis를 인수했으며, 2021년에는 인튜이트가 메일침프를 120억 달러에 인수하는 등 업계의 인수합병도 활발히 이루어지고 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.01.13 16:46AI 에디터

"대학생들, AI 잘 활용하면 자신감 높아진다"

미국 퍼듀대학교와 독일 뮌헨공과대학교 공동 연구진이 발표한 최근 연구에 따르면, 인공지능(AI) 교육에서 학습자의 태도와 관심도가 기술 이해도보다 더 중요한 것으로 나타났다. 연구진은 미국, 영국, 독일의 대학생 1,465명을 대상으로 AI 자기효능감과 관련 요인들을 분석했다. 이들 국가는 AI 혁신과 도입을 선도하는 국가들로서 서구 사회의 다양한 교육 시스템과 문화, 규제 환경을 대표한다. 응답자의 68.9%인 1,010명이 학부생이었으며, 석사과정생이 393명(26.8%), 박사과정 등 기타 과정이 61명(4.2%)이었다. 응답자들의 평균 연령은 28.4세(표준편차 10.3)였다. AI 자신감 형성의 핵심은 긍정적 태도와 사용 경험 연구 결과, AI에 대한 긍정적인 태도와 실제 사용 경험이 AI에 대한 관심도를 높이는 주요 요인으로 밝혀졌다. AI 사용 경험은 관심도에 0.434의 강한 영향을 미쳤으며, 긍정적 태도는 0.618의 매우 높은 영향력을 보였다. 특히 주목할 점은 AI 리터러시(기술 이해도)와 AI 사용 간에 유의미한 상관관계가 없다는 것이다. 이는 학생들이 AI를 사용하면서도 그 기본 개념을 이해하지 못할 수 있음을 시사한다. AI 리터러시는 자기효능감에 0.144의 제한적인 영향만을 미쳤다. 연구진은 2022년 말 ChatGPT 출시 이후 구글에서 'artificial intelligence' 검색량이 6-10배 증가한 사실을 언급하며, 실제 AI 사용 경험이 관심도 증가에 직접적인 영향을 미친다고 설명했다. 대학생들의 AI 수용도는 세 그룹으로 구분된다 연구진은 대학생들을 'AI 옹호파'(47.99%), '신중파'(20.82%), '관망파'(31.19%) 세 그룹으로 분류했다. AI 옹호파는 높은 AI 리터러시와 자기효능감, 긍정적 태도를 보였으며, 주로 공학 및 기술 계열(38.69%) 남학생(62.78%)이 많았다. 반면 신중파는 낮은 AI 리터러시와 부정적 태도를 보였고, 주로 인문예술 계열(30.16%) 여학생(61.97%)이 많았다. 관망파는 대부분의 변수에서 중간값을 보이며 균형잡힌 분포를 보였다. 전체 표본에서는 공학기술(29.42%), 사회과학(25.94%), 인문예술(20.00%) 순으로 분포했으며, 이러한 그룹별 특성은 MANOVA 분석을 통해 통계적으로 유의미한 차이가 있음이 확인되었다(F=53.44, p<.01). AI 관련 변수들의 상호관계 분석 결과 연구진은 AI 관련 주요 변수들 간의 상관관계를 분석했다. AI 관심도는 긍정적 태도(0.65)와 AI 사용(0.56)과 강한 양의 상관관계를 보였다. 특히 AI에 대한 긍정적 태도와 부정적 태도 사이에는 강한 음의 상관관계(-0.44)가 나타났는데, 이는 긍정적 태도가 증가할수록 부정적 태도가 감소함을 의미한다. 주목할 만한 점은 AI 리터러시가 다른 대부분의 변수들과 약한 상관관계만을 보였으며, AI 사용과는 전혀 상관관계가 없다는 것이다(p=.86). 이는 AI를 실제로 사용하는 것이 반드시 AI에 대한 이해도 향상으로 이어지지는 않음을 시사한다. AI 교육의 현실과 과제 현재 많은 학생들이 AI 교육과정에 대해 불확실성을 느끼고 있다. 전체 응답자의 32.63%가 AI 강좌 제공 여부를 모른다고 답했으며, 27.85%는 강좌가 부족하다고 응답했다. 특히 신중파의 55.41%가 AI 강좌 존재 여부를 모른다고 답했고, 15.08%만이 강좌가 충분하다고 평가했다. 반면 AI 옹호파의 34%는 현재 강좌에 만족하지만, 30.01%는 여전히 더 많은 강좌가 필요하다고 응답했다. 각국의 대학들은 AI 교육 프로그램을 확대하고 있지만, 학생들의 인식과 접근성 면에서 여전히 격차가 존재하는 것으로 나타났다. 효과적인 AI 교육을 위한 제언 연구진은 AI 교육이 단순한 기술 전수를 넘어 학습자의 태도와 관심을 고려한 통합적 접근이 필요하다고 강조했다. 특히 AI 옹호파에게는 윤리적, 사회적 함의에 대한 비판적 시각을, 신중파에게는 접근하기 쉽고 실용적인 AI 콘텐츠를, 관망파에게는 더 깊은 참여를 유도할 맞춤형 콘텐츠가 필요하다고 제안했다. 또한 여성과 인문계열 학생들의 AI 교육 참여를 높이기 위해 의료, 교육, 사회 서비스 등 해당 분야에서의 AI 활용 사례를 강조하는 것이 효과적일 것이라고 조언했다. 연구진은 이번 연구가 횡단적 연구로서 시간에 따른 변화를 관찰하지 못했다는 한계를 인정하며, 다른 문화권에서의 추가 연구와 비(非)학생 집단에 대한 연구의 필요성을 제기했다. 특히 사회경제적 지위나 자원 접근성이 AI에 대한 태도와 자기효능감에 미치는 영향에 대한 후속 연구를 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.13 14:14AI 에디터

구글, AI 팀 통합했다…'딥마인드'로 이관

구글(Google)의 AI 개발 플랫폼이 새로운 전환점을 맞이했다. 구글의 AI 스튜디오와 제미나이(Gemini) 개발자 API 팀이 구글 딥마인드(Google DeepMind)로 이관된다고 로건 킬패트릭(Logan Kilpatrick) 구글 AI 스튜디오 제품 책임자가 10일 자신의 소셜미디어를 통해 밝혔다. 킬패트릭 책임자는 "이번 이관을 통해 이미 깊이 있게 진행 중인 협력 관계를 더욱 강화하고 연구에서 개발까지 이어지는 파이프라인을 가속화할 수 있을 것"이라고 설명했다. 그는 "우리 팀의 미션은 변함없이 세계 최고의 AI 개발자 플랫폼을 구축하는 것"이라며 "구글의 최신 모델과 도구, 기술을 외부 개발자들에게 제공해 미래를 함께 만들어갈 것"이라고 강조했다. 이번 조직 개편이 실제 서비스 사용에 미치는 영향에 대한 질문에 킬패트릭은 "사용자들은 변화를 느끼지 못할 것"이라며 "오히려 새로운 기능들이 더 빠르게 제공될 것"이라고 답했다. AI 스튜디오와 제미나이 API는 구글이 외부 개발자들에게 제공하는 대표적인 AI 개발 도구다. 이번 조직 개편으로 구글의 AI 연구와 개발이 더욱 긴밀하게 통합될 것으로 전망된다. 이번 발표는 AI 업계에서 큰 반향을 일으켰다. 개발자 커뮤니티에서는 구글의 무료 AI 모델 제공 정책이 앞으로도 이어질 것이라는 기대감을 표명했으며, 구글 딥마인드와의 통합으로 인한 시너지 효과에 대한 기대감도 높았다. ■ 기사는 클로드 3.5 Sonnet과 챗GPT를 활용해 작성되었습니다. (☞ 기사 출처 바로가기)

2025.01.13 14:07AI 에디터

"AI 챗봇, 쓰면 쓸수록 불안감 줄어든다"...대학생 연구 결과

학술 저널 Computers in Human behavior: Artificial Humans에 게재된 연구에 따르면, AI 챗봇의 교육적 활용이 증가하는 가운데 대학생들의 AI 챗봇 사용 강도에 영향을 미치는 요인들이 새롭게 밝혀졌다. 이 연구는 5일간의 일일 다이어리 연구를 통해 개인 간 차이와 개인 내 변화를 구분하여 분석했다. 대학생들의 AI 챗봇 활용 현황과 수용 양상 첫 번째 연구에서는 72명의 대학생이 참여했으며, 이 중 79.2%가 여학생이었고 평균 연령은 21.88세였다. 참여자의 대다수인 79.2%가 사회과학 전공자였으며, 컴퓨터 공학(9.7%), 경영법학(6.9%) 순이었다. 두 번째 연구에는 153명이 참여했는데, 이들 중 52.3%가 여학생이었고 평균 연령은 27.57세였다. 전공별로는 공학(19.4%), 경영법학(19.4%), 컴퓨터 공학(17.8%), 의학보건(12.4%) 순으로 분포했다. AI 챗봇 사용에서는 두 연구 모두 챗지피티(ChatGPT)가 가장 높은 점유율(각각 61.9%, 46.2%)을 보였다. 대학생들의 AI 챗봇 활용 목적과 유형 연구진이 밝힌 바에 따르면, 학생들은 AI 챗봇을 다양한 교육적 목적으로 활용하고 있다. 주요 활용 영역은 튜터링과 언어 학습 연습, 에세이 초안 작성, 창의적 글쓰기, 연구 요약 등이다. 특히 주목할 만한 점은 많은 학생들이 AI 챗봇 활용이 자신들의 미래 경력에 도움이 될 것이라고 인식하고 있으며, 대학 커리큘럼에 AI 챗봇을 통합해야 한다고 주장한다는 것이다. AI 챗봇 불안감과 사용성의 상관관계 이 연구는 다수준 구조방정식 모델링(Multilevel SEM)을 활용하여 데이터를 분석했으며, 연구 결과는 지각된 사용 용이성(PEOU)과 지각된 유용성(PU)의 상관관계를 명확히 보여줬다. 첫 번째 연구에서 이 두 변수는 0.61의 높은 상관관계를 보였으며, 사용 강도와도 각각 0.20과 0.45의 상관관계를 나타냈다. 두 번째 연구에서는 PEOU와 PU가 0.63의 상관관계를 보였고, 사용 강도와는 각각 0.34와 0.40의 상관관계를 보였다. 특히 AI 챗봇 불안감은 PEOU와 각각 -0.33(연구1), -0.54(연구2)의 부정적 상관관계를 보여, 불안감이 높을수록 사용 용이성 인식이 낮아지는 것으로 나타났다. 기술적 지원과 사회적 영향력의 중요성 연구는 다수준 구조방정식 모델링을 통해 변수들 간의 관계를 분석했다. PEOU가 PU를 매개로 사용 강도에 미치는 영향은 첫 번째 연구에서 더 뚜렷했다. 개인 내 수준에서 PEOU와 PU의 관계는 0.735(연구1), 0.304(연구2)의 계수를 보였으며, PU와 사용 강도의 관계는 0.424(연구1), 0.295(연구2)로 나타났다. 특히 두 번째 연구에서는 촉진 조건과 주관적 규범이 각각 0.270과 0.078의 계수로 PEOU와 PU에 영향을 미치는 것으로 확인됐다. 두 연구 그룹 간 주목할 만한 차이점 연구진은 두 연구 그룹 간의 변동성 차이를 연속적 차이의 평균 제곱근(RMSSD) 분석을 통해 살펴보았다. 흥미로운 점은 첫 번째 연구 그룹에서 지각된 사용 용이성과 유용성의 일간 변동성이 더 크게 나타난 반면, 두 번째 연구에서는 사용 강도의 변동성이 더 높게 나타났다는 것이다. 이러한 차이는 두 그룹의 AI 챗봇 친숙도 차이에서 비롯된 것으로 분석됐다. 두 번째 연구의 참여자들은 첫 번째 그룹에 비해 AI 챗봇 친숙도가 더 높았으며(차이값 0.72), AI 챗봇에 대한 불안감은 더 낮았고(차이값 -0.43), 지각된 사용 용이성(차이값 0.57)과 유용성(차이값 0.97)은 더 높게 나타났다. 이는 AI 챗봇 사용 경험이 많은 사용자들의 경우 기술에 대한 인식이 더 안정적이지만, 실제 사용 패턴은 일상적인 학업 요구사항에 따라 더 크게 변동할 수 있음을 시사한다. 미디어 인식과 AI 챗봇 수용도 연구는 미디어의 AI 챗봇 관련 보도에 대한 인식이 수용도에 미치는 영향도 분석했다. 두 번째 연구 그룹은 첫 번째 그룹에 비해 AI 챗봇 관련 미디어 보도를 더 긍정적으로 인식했으며, 이는 더 낮은 불안감과 더 높은 사용 강도로 이어졌다. 긍정적인 미디어 인식은 지각된 유용성 및 사용 의도와 유의미한 상관관계를 보였다. 연구의 한계와 향후 연구 방향 이 연구는 몇 가지 중요한 한계점을 가지고 있다. 첫째, 첫 번째 연구의 표본 크기(72명)가 상대적으로 작고, 특정 지역과 전공(독일의 사회과학 전공자)에 편중되어 있어 결과의 일반화에 제한이 있다. 둘째, 사용 강도를 자기보고식 측정에 의존함으로써 실제 사용 행태와 차이가 있을 수 있다. 연구진은 향후 연구에서 AI 챗봇의 실제 사용 시간이나 프롬프트 빈도를 직접 측정하는 방식을 도입할 것을 제안했다. 또한 과제 복잡성이나 과제-기술 적합성과 같은 상황적 요인들이 일간 사용 패턴에 미치는 영향을 조사할 필요성도 제기했다. 이러한 한계점들을 보완한 후속 연구는 교육 환경에서 AI 챗봇의 효과적인 활용을 위한 더욱 풍부한 통찰을 제공할 것으로 기대된다. 실제적 교육 환경에서의 시사점 이 연구 결과는 교육기관의 AI 챗봇 도입 전략에 중요한 시사점을 제공한다. 기술적 지원과 교육이 PEOU를 매개로 사용 강도에 긍정적 영향을 미친다는 점에서, 교육기관은 충분한 기술적 인프라와 지원 시스템을 구축해야 한다. 또한 불안감 감소를 위한 프로그램과 동료 학습 환경 조성이 중요하며, 이는 결과적으로 학생들의 AI 챗봇 활용도를 높이는 데 기여할 것으로 전망된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.13 08:15AI 에디터

"저작권? 상관없다"...저커버그, 라마 AI에 불법 데이터로 학습 지시

테크크런치(TechCrunch)는 9일(현지시간) 메타(Meta)의 마크 저커버그(Mark Zuckerberg) CEO가 인공지능 모델 라마(Llama) 개발을 위해 불법 복제된 전자책과 논문을 학습 데이터로 사용하도록 직접 승인했다고 보도했다. 저커버그의 결단, "라마 AI에 불법 데이터 써라" 미국 캘리포니아 북부 지방법원에 제출된 소송 문건에 따르면, 메타의 AI 개발팀은 불법 복제 사이트 '립젠(LibGen)'의 데이터셋이 저작권을 침해했다는 사실을 알고 있었다. 센게이지 러닝(Cengage Learning), 맥밀런 러닝(Macmillan Learning) 등 주요 출판사들의 저작물을 무단으로 제공하는 립젠은 이미 수차례 소송에서 패소했으며, 수천만 달러의 벌금을 부과받은 바 있다. 저작권 흔적 지우기에 나선 메타 메타의 라마 연구팀 엔지니어 니콜라이 바쉴리코프(Nikolay Bashlykov)는 전자책에서 저작권 정보와 '저작권', '감사의 글' 등의 문구를 삭제하는 스크립트를 제작했다. 원고 측은 이러한 행위가 단순한 학습 목적이 아닌 저작권 침해 사실을 은폐하기 위한 시도라고 주장했다. 메타는 립젠 데이터를 토렌트를 통해 입수했으며, 이 과정에서 파일 공유에도 참여한 것으로 드러났다. 메타의 생성형 AI 책임자 아마드 알-달레(Ahmad Al-Dahle)는 연구진이 제기한 법적 우려를 무시하고 토렌트 사용을 승인했다. 뉴욕타임스는 지난 4월 메타가 AI 데이터 확보를 위해 지름길을 택했다고 보도했으며, 당시 메타는 출판사 사이먼앤슈스터 인수까지 고려했으나 라이선스 협상에 시간이 너무 많이 걸릴 것으로 판단했다고 전했다. 법원의 경고 빈스 차브리아(Vince Chhabria) 판사는 메타의 문건 일부 삭제 요청을 기각하며 "이는 민감한 사업 정보 보호가 아닌 부정적 여론을 피하기 위한 것"이라고 지적했다. 현재 이 소송은 메타의 초기 라마 모델에만 해당되며, 최근 출시된 모델은 포함되지 않는다. 메타는 공정 사용 원칙을 근거로 저작권 침해가 아니라고 주장하고 있으며, 2023년에는 유사한 저작권 침해 소송에서 승소한 바 있다. 테크크런치는 이 사안에 대해 메타 측에 입장을 문의했으나, 현재까지 답변을 받지 못했다고 덧붙였다. ■ 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.01.13 08:11AI 에디터

AI도 기억 헷갈린다…'지식 충돌' 왜 생기나

칭화대학교와 케임브리지대학교 공동 연구팀이 발표한 최신 연구에 따르면, 대형언어모델(LLM)이 지식을 처리하는 과정에서 세 가지 유형의 '지식 충돌' 현상이 발생하는 것으로 나타났다. 이러한 충돌은 특히 실제 응용 환경에서 노이즈와 잘못된 정보가 흔한 상황에서 모델의 신뢰성과 성능에 큰 영향을 미치는 것으로 밝혀졌다. 진실과 거짓 사이에서 혼란스러운 AI, 지식충돌의 주요 원인 대형언어모델의 지식충돌은 시간적 불일치와 잘못된 정보 오염이라는 두 가지 주요 원인에서 비롯된다. 시간적 불일치는 과거 데이터로 학습된 모델이 현재의 정보와 맞지 않을 때 발생하는데, 이는 모델의 사전학습 패러다임과 모델 확장에 따른 비용 증가로 인해 더욱 심화될 것으로 예상된다. 잘못된 정보로 인한 오염의 경우, 검색된 문서나 사용자 대화에서 의도적으로 조작된 정보가 유입될 때 발생하며, 실험 결과 모델의 성능을 최대 87%까지 저하시키는 것으로 나타났다. 세 갈래로 나뉜 AI의 혼란: 문맥, 정보, 기억의 충돌 대형언어모델의 지식충돌은 크게 문맥-기억 충돌(Context-Memory Conflict), 문맥간 충돌(Inter-Context Conflict), 내부기억 충돌(Intra-Memory Conflict)로 구분된다. 문맥-기억 충돌은 모델의 파라미터에 저장된 지식과 외부에서 주입되는 문맥 정보가 상충할 때 발생한다. 문맥간 충돌은 검색 증강 생성(RAG) 기술 사용 시 검색된 여러 문서들 사이의 정보가 서로 모순될 때 발생하며, 실험 결과 잡음률이 0.8을 초과하면 모든 모델의 성능이 20% 이상 감소했다. 내부기억 충돌은 모델 내부의 지식 표현이 서로 일관되지 않을 때 발생하는 현상이다. 충돌하는 정보 앞에서 AI의 선택은 제각각 실험 결과는 모델들의 행동 패턴이 매우 다양함을 보여줬다. ChatGPT, GPT-4, PaLM2는 모델에 내재된 지식을 선택할 확률이 60% 이상이었으나, 다른 모델들은 주어진 문맥 정보를 80% 이상 선택했다. 특히 대화가 진행되면서 AI의 믿음 체계 변화 비율은 20.7%에서 78.2%까지 증가했다. 더욱 우려되는 점은 GPT-4조차도 FaVIQ 테스트에서 32%의 불일치율을 보였다는 것이다. "거짓말을 하고 있어요": AI의 자체 모순 감지 능력 모델의 자체 모순 탐지 능력도 평가되었다. GPT-4는 문서 내 모순을 발견할 확률이 70% 이상으로 가장 우수했으나, 다른 모델들은 50% 미만의 성능을 보였다. CONTRADOC 데이터셋을 통한 실험에서는 감정이나 주관적 관점이 포함된 내용, 문서의 길이나 자기모순의 다양성이 모순 탐지 성능에 영향을 미치는 것으로 나타났다. AI의 혼란을 잡아라: 지식충돌 해결을 위한 세 가지 전략 연구팀은 문제 해결을 위해 '문맥 충실', '잘못된 정보 식별', '정보 원천 분리' 세 가지 주요 전략을 제시했다. 문맥 충실 전략을 적용한 GPT-Neo 20B는 MemoTrap에서 54.4%, NQ-SWAP에서 128%의 성능 향상을 보였다. ChatGPT의 경우 프롬프트 기반 해결책 적용 시 MRC 태스크에서 32.2%, Re-TACRED에서 10.9%의 개선효과가 있었다. 특히 지식충돌 감지 시스템은 80%의 F1 점수를 달성했다. 멀티모달 시대의 새로운 과제: AI 지식충돌의 미래 연구진은 실제 환경의 지식충돌, 다국어 환경에서의 충돌, 멀티모달 데이터 간 충돌을 주요 과제로 지목했다. 특히 이미지(Alayrac et al., 2022), 비디오(Ju et al., 2022), 오디오(Borsos et al., 2023) 등 다양한 형태의 정보가 결합될 때 발생하는 복잡한 충돌 문제 해결이 시급하다고 강조했다. 또한 통합적이고 효율적인 해결책 개발의 필요성도 제기되었다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.10 15:03AI 에디터

AI, 물리법칙도 깨쳤다...엔비디아 '코스모스 플랫폼' 분석

물리세계 이해하는 AI의 두뇌, 월드 파운데이션 모델 심층 분석 엔비디아(NVIDIA)가 물리적 세계와 상호작용하는 AI 개발을 가속화할 수 있는 월드 파운데이션 모델(World Foundation Model, WFM) 플랫폼 '코스모스(Cosmos)'를 공개했다. 엔비디아 기술 블로그에 따르면, 코스모스의 핵심인 월드 파운데이션 모델은 9,000조 개의 토큰 데이터로 학습됐다. 여기에는 자율주행, 로보틱스, 합성 환경 등에서 수집한 2,000만 시간 분량의 데이터가 포함됐다. 이 모델은 자동회귀와 디퓨전 두 가지 아키텍처를 채택했다. 자동회귀 모델은 3D 회전 위치 임베딩(RoPE)으로 공간과 시간 차원을 분리해 처리하며, 교차 어텐션 레이어로 텍스트 입력을 제어한다. 디퓨전 모델은 3D 패치화 기술로 비디오를 작은 조각으로 나누고, 하이브리드 위치 임베딩으로 다양한 해상도와 프레임 속도를 지원한다. 특히 적응형 레이어 정규화와 로라(LoRA) 기술을 통해 모델 크기를 36% 줄이면서도 높은 성능을 유지하는 데 성공했다. 3D 일관성과 물리법칙 준수 능력 입증 엔비디아는 코스모스의 성능을 검증하기 위해 500개의 정적 장면 데이터셋으로 3D 일관성을 평가했다. 기존 비디오 생성 모델인 비디오LDM과 비교한 결과, 코스모스의 디퓨전 텍스트투월드(Text2World) 7B 모델은 샘슨 오차(Sampson Error)에서 0.355를 기록해 기존 모델의 0.841보다 크게 향상된 성능을 보였다. 또한 카메라 포즈 추정 성공률도 62.6%로, 기존 모델의 4.4%를 크게 뛰어넘었다. 물리법칙 준수 능력 평가에서는 엔비디아 피직스(PhysX)와 아이작 심(Isaac Sim)을 활용해 중력, 충돌, 토크, 관성 등 8가지 시나리오를 테스트했다. 9개 프레임의 입력 데이터를 사용했을 때 PSNR 21.06, SSIM 0.69의 우수한 성능을 달성했다. 89배 빠른 데이터 처리와 고품질 압축 기술의 결합 코스모스는 엔비디아의 네모 큐레이터(NeMo Curator)를 통해 기존 CPU 파이프라인 대비 89배 빠른 데이터 처리 속도를 제공한다. 100페타바이트 이상의 대용량 데이터도 원활하게 처리할 수 있으며, 호퍼(Hopper) GPU로는 40일, 블랙웰(Blackwell) GPU로는 14일 만에 2,000만 시간의 비디오를 처리할 수 있다. 코스모스 토크나이저는 자동회귀 모델의 경우 시간은 8배, 공간은 16x16배로 압축하며 최대 49개 프레임을, 디퓨전 모델은 시간 8배, 공간 8x8배 압축으로 최대 121개 프레임을 처리한다. AI 안전성 확보를 위한 이중 가드레일 시스템 구축 엔비디아는 코스모스의 안전한 활용을 위해 사전 가드와 사후 가드로 구성된 이중 가드레일 시스템을 도입했다. 사전 가드는 키워드 차단과 엔비디아의 AI 콘텐츠 안전 모델 '에이지스(Aegis)'를 통해 부적절한 프롬프트를 필터링한다. 사후 가드는 생성된 비디오의 모든 프레임을 검사해 안전하지 않은 콘텐츠를 차단하고, 레티나페이스(RetinaFace) 모델로 인물의 얼굴을 자동으로 블러 처리한다. 엔비디아는 1만 개 이상의 프롬프트-비디오 쌍을 활용해 시스템을 지속적으로 개선하고 있다. 옴니버스 연계로 확장되는 물리 AI의 활용 코스모스는 엔비디아의 3D 설계 플랫폼 옴니버스(Omniverse)와 연동해 다양한 물리 AI 애플리케이션을 지원한다. 개발자들은 3D 시나리오를 생성하고 이를 사실적인 비디오로 변환할 수 있으며, 정책 모델 개발과 평가, 행동 예측, 다중 시뮬레이션 등을 수행할 수 있다. 모델은 실시간 추론에 최적화된 나노(Nano), 기본 성능의 수퍼(Super), 최고 품질의 울트라(Ultra) 세 가지 크기로 제공된다. 특히 옴니버스와의 연계를 통해 비디오 검색 및 이해, 제어 가능한 3D-실사 합성 데이터 생성, 예측적 유지보수, 자율 의사결정 등 다양한 응용이 가능하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.01.10 14:59AI 에디터

"5분이면 당신도 생성형 AI 도사"…기초 지식 완벽 가이드

생성형 AI의 정의와 발전 현황 생성형 인공지능(Generative AI)은 챗GPT(ChatGPT)와 같이 오디오, 코드, 이미지, 텍스트, 시뮬레이션, 비디오 등 새로운 콘텐츠를 생성할 수 있는 알고리즘이다. 맥킨지는 지난해 4월 기획 기사를 통해 생성형 AI에 대한 전반적인 기초 지식을 정리해 게재한 바 있다. 기사에 따르면, 2022년 11월 챗GPT가 등장한 이후 생성형 AI 기술은 빠르게 발전했다. 매월 새로운 도구와 규칙, 기술적 진보가 이루어지고 있으며, 맥킨지 조사에 따르면 AI 도입이 지난 5년간 2배 이상 증가했다. 의료 이미지 분석이나 고해상도 일기 예보와 같은 분야에서 머신러닝은 이미 상당한 성과를 보여주고 있다. 특히 챗GPT와 이미지 생성기 달리(DALL-E)와 같은 생성형 AI 도구들은 다양한 직무 수행 방식을 변화시킬 잠재력을 가지고 있다. 기존 AI와 생성형 AI의 차이점 인공지능(AI)은 기계가 인간의 지능을 모방하여 작업을 수행하는 것이다. 시리(Siri)나 알렉사(Alexa) 같은 음성 비서와 웹사이트의 고객 서비스 챗봇이 대표적인 예시다. 머신러닝은 인공지능의 한 유형으로, 인간의 지시 없이 데이터 패턴에서 '학습'할 수 있는 모델을 통해 인공지능을 개발한다. 최근에는 기존의 예측 모델을 넘어 생성형 AI가 등장했는데, 이는 단순히 고양이 사진을 인식하고 분류하는 것을 넘어 고양이 이미지나 텍스트 설명을 직접 생성할 수 있다. 생성형 AI의 시장 가치와 산업 영향력 맥킨지는 생성형 AI 애플리케이션이 전 세계 경제에 연간 최대 4.4조 달러의 가치를 창출할 것으로 전망했다. 향후 3년 내에 기술, 미디어, 통신 분야에서 AI와 연결되지 않은 것은 구식이거나 비효율적인 것으로 간주될 것으로 예측된다. 이미 많은 기업들이 생성형 AI 도구를 비즈니스 모델에 도입하려 경쟁하고 있다. 텍스트 기반 머신러닝 모델의 작동 방식 챗GPT 이전에도 오픈AI의 GPT-3나 구글의 BERT와 같은 텍스트 기반 머신러닝 모델이 있었다. 초기 모델들은 연구자들이 설정한 레이블에 따라 다양한 입력을 분류하도록 인간이 훈련시켰다. 이를 '지도 학습'이라고 한다. 최신 세대의 텍스트 기반 머신러닝 모델은 '자기 지도 학습'이라는 방식을 사용한다. 이는 모델에 방대한 양의 텍스트를 입력하여 예측을 생성할 수 있게 하는 방식이다. 인터넷의 광범위한 텍스트 데이터를 학습하면서 이러한 모델들은 매우 정확해졌고, 챗GPT의 성공으로 그 정확성이 입증되고 있다. 생성형 AI 모델 개발의 현실적 과제 생성형 AI 모델을 구축하는 것은 대규모 작업이어서 소수의 자금력 있는 기술 기업만이 시도할 수 있다. 챗GPT와 달리(DALL-E)를 개발한 오픈AI(OpenAI)는 수십억 달러의 자금을 지원받았으며, 딥마인드(DeepMind)는 알파벳(구글 모회사)의 자회사다. 메타(Meta)도 메이크-어-비디오(Make-A-Video) 제품으로 생성형 AI 모델 시장에 진출했다. 모델 학습에는 막대한 비용이 든다. GPT-3는 약 45테라바이트의 텍스트 데이터(미국 의회도서관의 약 4분의 1 규모)로 학습됐으며, 추정 비용은 수백만 달러에 달한다. 생성형 AI의 출력물과 활용 생성형 AI 모델은 인간이 만든 것과 구분하기 어려운 콘텐츠를 생성할 수 있다. 챗GPT는 10초 만에 민족주의 이론을 비교하는 수준 높은 에세이를 작성할 수 있으며, 달리-E 2는 피자를 먹는 마돈나와 아기를 라파엘 화풍으로 그려낼 수 있다. 기업들은 생성형 AI를 그대로 사용하거나 특정 작업을 수행하도록 미세 조정할 수 있다. 예를 들어, 특정 스타일의 프레젠테이션 제목을 작성하려면 모델에 기존 슬라이드 데이터로부터 제목 작성 방식을 '학습'시킨 후 적절한 제목을 생성하도록 할 수 있다. 생성형 AI의 한계와 극복 방안 생성형 AI 모델이 새롭기 때문에 장기적 영향을 아직 파악하기 어렵다. 때로는 잘못된 정보를 제공하거나 인터넷과 사회의 성별, 인종 등 다양한 편향이 반영될 수 있으며, 비윤리적이거나 범죄적 활동에 악용될 수 있다. 이러한 위험을 완화하고 생성형 AI의 책임감 있는 활용을 위해 다음과 같은 방안을 고려할 수 있다. 첫째, 초기 학습 데이터를 신중히 선별함으로써 유해하거나 편향된 콘텐츠를 제외하는 것이 중요하다. 둘째, 범용적으로 사용되는 대규모 모델 대신 특정 목적에 적합한 작은 규모의 특수 목적 모델을 활용하는 방법도 고려할 수 있다. 셋째, 기업이 고유한 데이터를 활용해 모델을 커스터마이징하면, 해당 기업의 환경과 목적에 부합하는 결과를 얻을 수 있다. 넷째, 생성형 AI 모델의 출력물을 게시하거나 사용하기 전에 반드시 사람이 검토하는 절차를 마련하는 것이 필요하다. 마지막으로, 중요한 의사결정 상황에서는 생성형 AI 모델의 사용을 자제하고, 사람의 판단과 전문가의 의견에 의존하는 것이 적절하다. 규제와 향후 전망 생성형 AI는 급속도로 발전하는 분야로, 앞으로 몇 주, 몇 달, 몇 년 안에 위험과 기회의 지형이 빠르게 변화할 것으로 예상된다. 매달 새로운 활용 사례가 시험되고 있으며, 향후 몇 년 내에 새로운 모델이 개발될 것이다. 생성형 AI가 비즈니스, 사회, 개인의 삶에 더욱 깊이 통합됨에 따라 새로운 규제 환경이 형성될 것으로 예상된다. 기업 리더들은 이러한 도구를 실험하고 가치를 창출하면서 규제와 위험에 대한 동향을 주시해야 할 것이다. 해당 리포트의 원문은 링크에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 바로 가기)

2025.01.10 13:43AI 에디터

AI, 대학 연구 패러다임 바꾼다…교수진 71.5% "윤리적 고려 최우선"

대학 연구현장의 AI 도입 실태와 도전과제 Social Sciences & Humanities Open 최신호에 발표된 연구에 따르면, AI 기술이 대학의 연구 환경을 크게 변화시키고 있는 것으로 나타났다. 페루의 공립 및 사립대학 연구자 302명을 대상으로 진행된 이번 연구는 연구자들의 AI 모델 사용에 영향을 미치는 핵심 요인들을 분석했다. 특히 챗GPT(ChatGPT)와 같은 대규모 언어모델부터 리서치래빗(ResearchRabbit), 스코퍼스AI(ScopusAI)와 같은 전문 연구도구까지 다양한 AI 도구들의 활용 현황을 조사했다. 설문 응답자의 62.33%가 국립대학 소속이었으며, 37.7%는 사립대학 소속으로 나타났다. AI 도구의 특성에 따라 달라지는 연구자의 태도 연구진은 AI 도구들의 성능을 정확성, 정밀도, 재현율, F1 점수 등 핵심 지표를 통해 평가했다. 이러한 성능 차이는 학술 연구에 직접적인 영향을 미치는 것으로 나타났다. 예를 들어, 높은 정확도를 보이는 표절 감지 AI는 학문적 진실성 향상에 기여하지만, 불완전한 생성형 모델은 연구의 질을 저하시킬 수 있다는 점이 확인됐다. 또한 AI 도구의 특성에 따라 연구자들의 수용 태도가 크게 달라지는 것으로 분석됐다. 특히 도구의 용도, 성능 품질, 대상 사용자에 따라 채택 정도가 다르게 나타났다. AI 수용성의 핵심 결정요인은 '학문적 진실성' 연구 결과에 따르면 연구자들의 AI 도입을 결정하는 가장 큰 요인은 학문적 진실성(Academic Integrity)으로, 전체 변량의 71.5%를 설명하는 것으로 나타났다. 특히 AI 활용에 대한 윤리적 고려가 기술적 역량보다 더 중요한 요인으로 작용했다. 학문적 진실성은 연구와 교육에서 윤리적 원칙과 연구 재현성, 데이터 무결성을 유지하고, 학문적 부정행위를 방지하는 것을 의미한다. 특히 AI 도구의 사용이 표절, 부정행위, 데이터 조작 등의 윤리적 문제를 초래할 수 있기 때문에, 학문적 진실성은 AI 사용을 규제하고 책임 있는 활용을 보장하는 데 중요한 요인으로 간주된다. 이외에도 교육적 자기효능감(Educational Self-efficacy)은 두 번째로 강한 영향력을 보였으며, 사회적 영향(Social Influence)은 작지만 유의미한 영향을 미치는 것으로 분석됐다. 주목할 만한 점은 기존 연구에서 중요하게 여겨졌던 성과 기대감(Performance Expectancy)과 기술적 자기효능감(Technical Self-efficacy)은 유의미한 영향을 미치지 않는 것으로 나타났다. 연구자 78.2%, AI 활용이 윤리적 인식에 영향 미쳐 연구진의 AI 활용은 교수자들의 우려사항과 윤리적 인식에도 큰 영향을 미치는 것으로 나타났다. AI 활용 경험이 많을수록 윤리적 고려사항에 대한 인식도 높아지는 것으로 확인됐다. 연구자의 65.2%는 AI 활용이 교육 현장의 우려사항을 증가시킨다고 응답했으며, 78.2%는 AI 활용이 윤리적 인식에 영향을 미친다고 답했다. 특히 알고리즘의 투명성 부족, 윤리적 편향성, 데이터 프라이버시 문제가 주요 우려사항으로 지적됐다. 연구의 방법론적 신뢰성 '양호' 이번 연구의 방법론적 타당성은 여러 통계적 지표를 통해 검증됐다. G*Power 3.1 소프트웨어를 통한 사전 분석에서 최소 필요 표본 크기는 278명으로 산출됐으며, 실제 수집된 302명의 표본은 이를 충족했다. 구조방정식 모델의 적합도 또한 SRMR과 RMSEA 값이 모두 0.048로 기준치를 충족했으며, CFI 0.938, TLI 0.928 등의 지수도 양호한 수준을 보였다. AI 활용에 가장 부정적 영향을 미치는 건 '사용 용이성에 대한 기대감' 연구 참여자의 상세 구성을 보면 독립 연구자가 33.3%(100명), 교수 및 시니어 연구자가 5.7%(17명), 박사 후 연구원이 1.3%(4명), 연구 관리자가 0.3%(1명)를 차지했다. 연구진이 설정한 9개의 가설 중 6개가 통계적으로 지지됐다. 특히 주목할 만한 결과로 사용 용이성에 대한 기대감(EE)이 AI 활용에 부정적 영향(β = -0.237)을 미치는 것으로 나타났으며, 학문적 진실성은 가장 강한 긍정적 영향(β = 0.782)을 보였다. 사용 용이성에 대한 기대감은 구체적으로, 사용자가 AI 모델을 배우고 활용하는 데 필요한 노력 수준을 얼마나 쉽게 인식하는지를 나타낸다. 연구에 따르면, EE가 낮을수록, 즉 AI 모델이 더 쉽게 사용 가능하다고 느낄수록 사용 의도가 증가한다. 또한, AI 모델 사용이 교수자의 우려에 미치는 영향(β = 0.273)과 인지된 윤리에 미치는 영향(β = 0.556)도 통계적으로 유의미했다. 전체적으로 설명력을 나타내는 R² 값은 AI 모델 사용(USAI) 71.5%, 인지된 윤리(PETH) 78.2%, 교수자 우려(TC) 65.2%로 나타나 모델의 높은 설명력이 입증됐다. 라틴 아메리카 맥락의 특수성과 시사점 이번 연구는 신흥 경제권인 페루의 고등교육 맥락에서 AI 도입의 특수성을 보여준다. 연구 참여자의 연령대를 보면 29-33세가 38.07%로 가장 많았고, 대학원생이 59.3%를 차지해 신진 연구자들의 AI 활용 양상을 잘 보여준다. 챗GPT 사용 기간은 1-2개월이 35.2%로 가장 많았고, 3-5개월이 24.9%로 그 뒤를 이었다. 이는 지역적, 문화적 특수성이 AI 수용에 미치는 영향을 보여준다. 연구진은 향후 연구에서 기관의 정책적 맥락과 문화적 차이를 고려한 더 폭넓은 분석이 필요하다고 제언했다. 특히 신흥 경제권에서 윤리적 프레임워크가 아직 발전 중인 점을 고려할 때, AI 도입에 있어 윤리적 고려사항이 더욱 중요하다고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.10 13:40AI 에디터

AI가 수술실로 간다...인간의사 못잖은 '수술 로봇' 탄생

AI와 의료의 만남: 자율 수술의 새로운 지평 존스홉킨스대학교와 스탠포드대학교 연구진이 수술용 로봇 '다빈치(da Vinci)'에 모방학습 기술을 적용해 자율적인 수술 동작이 가능한 시스템을 개발했다. 다빈치 로봇은 전 세계 67개국에 6,500대가 설치되어 있으며, 2021년 기준 1,000만 건 이상의 수술에 활용됐다. 수술 과정의 영상과 동작 데이터가 수술 후 분석을 위해 저장되어 있어, 이를 활용한 자율 수술 시스템 개발이 가능할 것으로 기대를 모았다. 5cm 오차를 극복한 혁신적인 기술 다빈치 로봇은 관절 움직임을 측정하는 센서인 포텐시오미터의 부정확성으로 인해 최대 5cm의 오차가 발생하는 문제가 있었다. 이는 단순한 시각-서보잉(visual-servoing) 작업조차 실패하게 만드는 원인이 됐다. 연구진은 이 문제를 해결하기 위해 여러 동작 표현법을 연구했는데, 카메라 중심 방식을 시작으로 도구 중심 방식을 거쳐 최종적으로 하이브리드-상대적 방식을 개발했다. 특히 하이브리드-상대적 동작 방식은 로봇 움직임의 이동은 내시경 끝단을 기준으로, 회전은 현재 도구 끝단을 기준으로 계산하는 방식으로 가장 높은 성공률을 보였다. 로봇의 '눈'이 된 손목 카메라 연구진은 기존 다빈치 로봇에 손목 카메라를 추가해 성능을 크게 향상시켰다. 임상 현장에서는 일반적으로 사용되지 않는 손목 카메라지만, 정확한 깊이 추정이 필요한 작업에서 특히 효과적이었다. 예를 들어, 바늘 전달 과정에서 손목 카메라는 바늘이 대상 그리퍼에 정확히 전달되는지 판단하는 데 큰 도움을 주었다. 놀라운 성공률로 입증된 성능 연구진이 개발한 시스템은 기본적인 수술 작업들에서 놀라운 성과를 보였다. 조직을 들어올리는 작업에서는 모든 시도가 성공했으며, 바늘을 잡고 전달하는 복잡한 작업에서도 완벽한 성공률을 기록했다. 매듭 묶기 작업의 경우 실을 잡고 고리를 만드는 과정은 모두 성공했으며, 전체 작업에서도 대부분의 시도가 성공적이었다. 특히 하이브리드-상대적 방식을 사용했을 때 가장 우수한 성과를 달성했다. 실제 조직에서도 통했다 연구진은 시스템의 일반화 성능을 평가하기 위해 돼지고기, 닭고기 등 실제 동물 조직과 3D 봉합 패드를 사용한 실험도 진행했다. 시스템은 이전에 경험하지 못한 환경에서도 성공적으로 작업을 수행했으며, 특히 바늘 잡기와 전달 작업에서 모든 시도가 성공하는 뛰어난 성과를 보였다. 더 큰 도약을 위한 과제들 현재 시스템이 가진 주요 한계점으로는 크기가 큰 손목 카메라의 사용, 현재 관찰에만 기반한 동작 수행, 그리고 사람의 지시에 따른 행동 변화 능력의 부재를 들 수 있다. 연구진은 더 작은 크기의 카메라 개발과 빠른 도구 교체가 가능한 메커니즘 개발을 통해 이러한 한계를 극복할 계획이다. 이번 연구는 부정확한 로봇 동작 데이터를 활용해 성공적으로 모방학습을 구현했다는 점에서 큰 의미가 있다. 이는 향후 대규모 임상 데이터를 활용한 자율 수술 로봇 개발의 토대가 될 것으로 기대된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 논문 바로가기)

2025.01.10 10:45AI 에디터

AI 돌봄로봇, '이것' 없으면 성공 힘들다

AI 의료·돌봄 시장의 폭발적 성장과 과제 대만 가오슝대학교 정보관리학과 연구진의 최신 보고서에 따르면, AI 의료 시장은 2023년 192.7억 달러 규모에서 연평균 38.5%의 성장률을 기록하며 2030년까지 급성장할 전망이다. 특히 고령화 사회 진입과 만성질환 증가로 인해 전 세계 노인 돌봄 시장은 2030년까지 2조8천억 달러 규모로 성장할 것으로 예측된다. AI 기반의 모니터링 시스템, 동반자 로봇, 원격 의료 등이 이러한 도전과제를 해결할 주요 솔루션으로 주목받고 있다. 대표적인 예로 파로(Paro)와 같은 동물형 지능형 로봇은 노인, 고립된 환자, 우울증 환자들의 정서적 지원을 위한 동반자 로봇으로 활발히 활용되고 있다. 하지만 데이터 오남용과 불투명한 의사결정 등의 윤리적 문제가 AI 돌봄로봇의 신뢰도와 수용성을 저해하는 요인으로 지적되고 있다. AI 윤리의 3대 핵심 요소 연구진은 AI 윤리의 핵심 요소로 투명성, 책임성, 공정성을 제시했다. 투명성은 알고리즘과 데이터의 설명 가능성을 높이고 의사결정 과정을 명확히 하는 것으로, 특히 데이터 수집 및 분석 절차에 대한 상세한 설명 제공이 중요하다. 책임성은 시스템 실패 시 책임 소재를 명확히 하고 포괄적인 기록 유지를 통해 정보 접근성을 보장하는 것을 의미한다. 마이크로소프트의 2018년 가이드라인에서도 AI 배포의 잠재적 위험을 지속적으로 추적하고 평가해야 함을 강조했다. 공정성과 관련하여 Obermeyer 등(2019)의 연구는 의료 알고리즘에서 발생할 수 있는 인종적 편향 문제를 지적하며, AI 시스템 개발 전반에 걸쳐 포용성과 다양성 보장의 중요성을 입증했다. 사용자 신뢰와 수용성의 상관관계 분석 연구팀은 18-70세(평균 연령 28.49세)의 239명 잠재적 개발자와 152명의 실제 사용자를 대상으로 6점 리커트 척도를 활용한 설문 조사를 실시했다. 분석 결과 AI 윤리 원칙의 준수는 사용자의 자기효능감을 37.5% 높이는 것으로 나타났으며(p < 0.001), 사회적 영향력도 자기효능감을 32.4% 향상시키는 것으로 확인되었다. 특히 AI에 대한 신뢰는 사용자의 수용 의도에 가장 큰 영향(38.2%)을 미치는 것으로 분석되었다. 성별에 따른 차이도 발견되었는데, 남성은 AI 윤리가 자기효능감에 미치는 영향이 더 큰 반면, 여성은 사회적 영향력이 자기효능감에 미치는 영향이 더 큰 것으로 나타났다. 실무적 시사점과 개선 방안 AI 서비스 제공자들은 개발 초기 단계부터 윤리 가이드라인을 통합하고, 데이터 프라이버시를 보장하며, 윤리적 우려사항을 해결하는 데 집중해야 한다. EU 의회 정책국이 제시한 비전에 따라 모든 AI 시스템은 자체 윤리 모듈을 갖추어야 하며, 윤리적 위험 평가를 위한 독립적인 제3자 위원회 설립이 권장된다. 조직은 정기적인 윤리 감사와 영향 평가를 통해 기술 발전에 따른 윤리 기준과 사용자 기대를 충족시켜야 한다. 정책 입안자들은 책임있는 AI 혁신을 장려하기 위한 정책 프레임워크를 개발하고, AI 윤리 원칙, 데이터 프라이버시 규정, 투명성 요구사항 등에 대한 가이드라인을 제시해야 한다. 연구의 한계와 향후 과제 연구진은 본 연구의 한계점으로 대만이라는 단일 문화권에서 수행된 점을 지적했다. 특히 유교 가치관과 현대 서구 가치가 융합된 대만의 독특한 문화적 특성이 연구 결과에 영향을 미쳤을 수 있다고 분석했다. 또한 구조방정식모델링(SEM) 방법론의 한계로 인해 횡단적 설문 조사만으로는 인과관계를 완벽하게 포착하기 어렵다는 점도 언급했다. 향후 연구에서는 다양한 문화권에서의 AI 돌봄로봇 수용성을 비교 분석할 필요가 있으며, 심층 인터뷰나 포커스 그룹 등 질적 연구 방법론의 도입을 통해 더 깊이 있는 통찰을 얻을 필요가 있다고 제안했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 보고서 바로 가기)

2025.01.10 10:16AI 에디터

  Prev 21 22 23 24 25 26 27 28 29 Next  

지금 뜨는 기사

이시각 헤드라인

머스크 "삼성전자·TSMC 모두 테슬라 AI5 칩 생산할 것"

"여기는 데이터가 살아있는 ‘여기어때 D&A센터’ 입니다"

"LG 로봇 군단, 산업·서비스·거실 장악할 것"

IQM "양자컴퓨터 내부 완전 개방...한국 부품 공급 파트너 찾는다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.