• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 에디터'통합검색 결과 입니다. (736건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

벤 애플렉의 AI 영화 후반 작업 스타트업, 넷플릭스가 6억 달러에 샀다

넷플릭스(Netflix)가 배우 겸 영화감독 벤 애플렉(Ben Affleck)이 공동 창업한 AI 스타트업을 최대 6억 달러(약 8,700억 원)에 인수한 것으로 알려졌다. 테크크런치(TechCrunch)에 따르면, 넷플릭스는 지난 3월 5일 AI 영화 제작 기술 스타트업 인터포지티브(InterPositive) 인수를 공식 발표했다. 블룸버그(Bloomberg)는 이번 거래 규모가 최대 6억 달러에 달할 수 있다고 보도했다. 이는 넷플릭스 역대 최대 인수 금액인 로알드 달 스토리 컴퍼니(Roald Dahl Story Company) 인수가(약 7억 달러)에 버금가는 수준이다. 넷플릭스는 거래 세부 내용을 공개적으로 확인하지 않았다. 블룸버그 소식통에 따르면 실제 현금 지급액은 이보다 낮을 수 있으며, 인터포지티브 소유주들은 특정 성과 목표 달성 시 추가 보상을 받을 수 있는 구조로 계약이 체결됐다. 인터포지티브는 영화 후반 작업(post-production)에서 제작자들이 보다 효율적으로 작업할 수 있도록 돕는 AI 툴을 만드는 회사다. 연속성 오류를 바로잡거나 특정 장면을 보정하는 방식으로 작동하며, 새로운 콘텐츠를 생성하거나 허가 없이 영상을 활용하지는 않는다. 이번 인수는 넷플릭스가 콘텐츠 제작에 AI를 통합하려는 전략의 일환으로 풀이된다. 넷플릭스는 이미 자체 오리지널 시리즈와 영화에 생성형 AI(Generative AI)를 활용하고 있으며, 아르헨티나 시리즈 '이터노트(The Eternaut)'에서 건물 붕괴 장면을 생성형 AI로 제작한 바 있다. 경쟁사들도 같은 방향으로 움직이고 있다. 아마존(Amazon)은 영화·TV 프로젝트를 위한 사내 AI 팀을 구축 중이며, 디즈니(Disney)는 오픈AI(OpenAI)와 파트너십을 체결했다. 다만 업계 내 우려의 목소리도 크다. 영화 산업 종사자들은 AI 도입으로 인한 일자리 감소와, AI 기업들이 학습 데이터로 활용한 창작자들에게 정당한 보상이 이뤄지지 않는다는 점을 문제로 제기하고 있다. 자세한 내용은 테크크런치(TechCrunch)에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.13 09:41AI 에디터

"AI 때문에 자를 수밖에 없었다"…아틀라시안, 직원 1600명 해고

호주 출신 기업용 소프트웨어 기업 아틀라시안(Atlassian)이 전체 인력의 약 10%에 해당하는 1,600명을 감원한다고 3월 11일 발표했다. AI 전환에 대응하기 위한 구조조정이라는 게 회사 측 설명이다. 아틀라시안(Atlassian)은 지라(Jira), 컨플루언스(Confluence) 등 소프트웨어 개발 및 프로젝트 관리에 특화된 협업 도구를 제공하는 SaaS 기업이다. 블룸버그(Bloomberg)에 따르면, 아틀라시안 공동창업자 겸 최고경영자(CEO) 마이크 캐넌-브룩스(Mike Cannon-Brookes)는 임직원에게 보낸 내부 메모에서 "AI가 필요한 역량의 구성과 특정 직군의 필요 인원 수를 바꾼다는 사실을 모른 척하는 건 솔직하지 못한 일"이라며 이번 결정이 아틀라시안을 위한 옳은 선택이라고 밝혔다. 로이터(Reuters)에 따르면, 이번 감원과 사무 공간 축소에 따른 세전 비용은 2억 2,500만~2억 3,600만 달러(약 3,200억~3,400억 원)에 달할 것으로 예상된다. 이 중 현금으로 지출될 금액은 1억 6,900만~1억 7,400만 달러로, 퇴직금·통지 기간·전직 지원 등의 비용이다. 구조조정은 2026 회계연도 4분기 말까지 마무리될 예정이다. 캐넌-브룩스 CEO는 직원들에게 보낸 이메일에서 "AI와 기업 영업 부문에 대한 투자를 자체적으로 조달하고, 재무 구조를 강화하기 위한 것"이라며 "일하는 방식도 바꾸고, 더 빠르게 움직이기 위해 업무 체계를 중심으로 조직을 재편할 것"이라고 설명했다. 또 "우리는 여러 차례의 기술 전환과 시장 사이클을 헤쳐 왔고, 이번에도 해낼 것"이라고 덧붙였다. 이번 감원과 함께 최고기술책임자(CTO) 라제브 라잔(Rajeev Rajan)이 약 4년 만에 3월 31일자로 퇴임한다. 회사는 타룬 만다나(Taroon Mandhana)를 팀워크 부문 CTO로, 비크람 라오(Vikram Rao)를 엔터프라이즈 부문 CTO 겸 최고신뢰책임자로 각각 선임해 AI 중심의 제품 로드맵을 이끌게 했다. 아틀라시안의 주가는 발표 이후 시간 외 거래에서 약 2% 상승했다. 하지만 주가는 최근 1년 새 3분의 2가량 폭락했으며, 2026년에만 50% 넘게 떨어져 시가총액이 200억 달러 아래로 내려앉았다. 비상장 기업인 캔바(Canva)보다도 시총이 낮아진 셈이다. 이번이 처음은 아니다. 아틀라시안은 지난해 7월 고객 서비스·지원 직군을 중심으로 150명을 감원했고, 같은 해 9월에는 유럽에서 200명을 추가로 정리했다. AI 주도의 구조조정 물결 속에 호주 물류 소프트웨어 기업 와이즈테크 글로벌(WiseTech Global)도 전체 인력의 3분의 1에 달하는 2,000명 감원을 발표한 바 있다. 자세한 내용은 블룸버그(Bloomberg)에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.12 16:07AI 에디터

포켓몬 고가 배달 로봇의 눈이 됐다…나이언틱의 AI 지도 혁명

포켓몬 고 플레이어들이 스마트폰으로 찍은 수백억 장의 사진이 배달 로봇의 길잡이가 되고 있다. MIT 테크놀로지 리뷰에 따르면, 나이언틱의 AI 분사 기업 나이언틱 스페이셜이 포켓몬 고 이용자들의 크라우드소싱 데이터를 활용해 로봇 내비게이션용 위치 측위 시스템을 개발했다. 나이언틱 스페이셜 최고기술책임자 브라이언 맥클렌던은 "500만 명이 60일 만에 그 앱을 설치했다"며 포켓몬 고의 폭발적인 확산이 얼마나 방대한 데이터를 만들어냈는지 설명했다. 게임 회사 스코플리에 따르면 포켓몬 고는 출시 8년이 지난 2024년에도 1억 명 이상의 이용자를 유지하고 있다. 나이언틱 스페이셜은 이 게임 이용자들이 도심 곳곳에서 촬영한 300억 장의 이미지를 학습 데이터로 삼아, 단 몇 장의 건물 사진만으로도 현재 위치를 수 센티미터 오차 이내로 파악하는 모델을 만들어냈다. 이 기술의 첫 번째 실전 적용 파트너는 배달 로봇 스타트업 코코 로보틱스다. 코코 로보틱스는 로스앤젤레스, 시카고, 저지시티, 마이애미, 헬싱키 등에서 약 1,000대의 로봇을 운영 중이며, 현재까지 50만 건 이상의 배달을 완료했다. 시속 약 8킬로미터로 인도를 누비는 이 로봇들의 가장 큰 약점은 GPS였다. 고층 건물이 밀집한 도심에서는 GPS 신호가 건물에 반사되며 오차가 발생하기 때문이다. 코코 로보틱스 최고경영자 재크 래쉬는 "고층 건물과 고가도로가 밀집한 지역에서 GPS는 제대로 작동하지 않는다"고 말했다. 맥클렌던도 "스마트폰의 파란 점이 50미터씩 튀어나가는 걸 보면 알 수 있다. 그러면 아예 다른 블록, 다른 방향, 다른 쪽 도로에 있는 것처럼 인식된다"고 설명했다. 나이언틱 스페이셜의 기술은 바로 이 문제를 해결한다. 나이언틱 스페이셜 최고경영자 존 행키는 "피카츄를 현실 공간에 자연스럽게 배치하는 것과 코코의 로봇이 세상을 안전하게 이동하는 것은 사실 같은 문제"라고 말했다. 이 기술이 실제로 적용되면 로봇이 식당 앞 정확한 픽업 위치에 서거나 고객 문 앞에 정확히 멈추는 것이 가능해진다. 나이언틱 스페이셜이 그리는 큰 그림은 '살아있는 지도'다. 코코 로보틱스를 비롯한 여러 기업의 로봇들이 도시를 돌아다니며 새로운 지도 데이터를 계속 공급하고, 이를 바탕으로 세계의 초정밀 디지털 복제본이 점점 더 정교해지는 구조다. 행키는 "이 시대는 기계가 세상을 이해할 수 있도록 유용한 설명을 구축하는 시대"라며 "우리가 가진 데이터는 세상의 연결 구조를 이해하는 데 훌륭한 출발점"이라고 강조했다. 구글 딥마인드, 월드 랩스 등이 가상의 세계를 생성하는 방식으로 AI 에이전트를 훈련시키는 것과 달리, 나이언틱 스페이셜은 현실 세계를 그대로 재현하는 방향을 택하고 있다. 맥클렌던은 "아직 거기까지 도달하진 못했지만, 현실 세계를 그대로 재현하는 것이 목표"라고 밝혔다. 자세한 내용은 MIT 테크놀로지 리뷰에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.12 10:14AI 에디터

챗GPT가 스택 오버플로 오염시키고 있다…AI가 AI를 잡아낸다

개발자들의 성지로 불리는 스택 오버플로(Stack Overflow)가 조용히 무너지고 있다. 챗GPT(ChatGPT)가 생성한 그럴듯한 답변들이 플랫폼을 채우기 시작하면서, 수백만 개발자가 매일 의존하는 이 지식 공유 플랫폼의 신뢰성이 흔들리고 있다. 이 문제를 해결하기 위해 연구자들이 AI로 AI를 탐지하는 새로운 도구를 개발했다. 챗GPT 답변이 개발자 커뮤니티를 위협하는 이유 스택 오버플로는 2008년 서비스를 시작한 이래 전 세계 소프트웨어 개발자들이 기술 질문과 해답을 나누는 핵심 플랫폼으로 자리 잡았다. 수천만 명의 개발자가 일상적인 코딩 문제부터 복잡한 알고리즘까지 이곳의 답변에 의존한다. 문제는 챗GPT의 등장 이후 불거졌다. 챗GPT가 생성한 답변들은 겉으로 보기에 논리적이고 잘 정리되어 있지만, 실제로는 틀린 정보를 포함하는 경우가 빈번하다. 논문에 소개된 대표적인 사례가 이를 잘 보여준다. "가장 최근의 로컬 커밋을 어떻게 취소하나요?"라는 질문에 인간 개발자는 git rm, git add, git commit --amend 명령어를 정확히 안내한 반면, 챗GPT는 존재하지 않는 명령어인 git delete commit을 사용하라고 안내했다. 이 답변을 그대로 따른 개발자는 오류에 빠질 수밖에 없다. 스택 오버플로 측은 이미 챗GPT 생성 답변이 "실질적으로 해롭다"고 규정하고 이를 전면 금지했다. 그러나 자원봉사자로 운영되는 콘텐츠 검토 시스템은 쏟아지는 AI 생성 답변을 일일이 걸러내기에 역부족이다. 답변을 만들어내는 것은 순식간이지만, 그 정확성을 검증하는 데는 전문 지식과 시간이 필요하기 때문이다. SOGPTSpotter가 AI 답변을 탐지하는 방법 호주 CSIRO 데이터61(Data61), 독일 뮌헨공과대학교(Technical University of Munich), 호주 디킨대학교(Deakin University), 모나시대학교(Monash University) 공동 연구팀은 이 문제를 해결하기 위해 'SOGPTSpotter'라는 탐지 도구를 개발했다. 핵심 기술은 샴 신경망(Siamese Neural Network)이다. 이는 마치 쌍둥이처럼 동일한 구조의 두 신경망이 각각 입력을 처리하고, 두 입력 사이의 유사도를 측정하는 방식이다. 연구팀은 세 가지 답변을 함께 비교하는 방식을 채택했다. 기준 답변(reference answer), 인간이 작성한 답변, 그리고 챗GPT가 생성한 답변이다. 기준 답변은 AI 특유의 문체와 특성을 의도적으로 담아 만든 비교 기준점 역할을 한다. 샴 신경망은 트리플렛 손실(triplet loss)이라는 학습 방법으로 훈련된다. 이 방법은 기준 답변과 챗GPT 답변 사이의 거리를 좁히고, 기준 답변과 인간 답변 사이의 거리는 최대한 벌리도록 모델을 학습시킨다. 결과적으로 모델은 새 답변이 들어왔을 때 기준 답변과의 유사도 점수를 계산해 0.5 이상이면 AI 생성, 미만이면 인간 작성으로 분류한다. 연구팀은 빅버드(BigBird)라는 언어 모델을 샴 신경망 내부에 탑재했다. 기존의 언어 처리 모델들은 처리할 수 있는 텍스트 길이에 한계가 있어 긴 답변을 다루기 어렵다. 빅버드는 무작위 어텐션(random attention), 슬라이딩 윈도우 어텐션(sliding window attention), 글로벌 어텐션(global attention)을 조합한 독자적인 메커니즘으로 이 한계를 극복하고 긴 텍스트도 효율적으로 처리한다. 기존 탐지 도구를 압도한 97.67% 정확도 연구팀은 스택 오버플로에서 수집한 6,000개의 고품질 게시물로 데이터셋을 구성했다. 평판 점수 1,000점 이상의 사용자 답변, 5개 이상의 추천수, 채택된 답변 등 엄격한 기준을 적용해 데이터 품질을 높였다. 챗GPT가 서비스를 시작한 2021년 11월 이전에 작성된 게시물만 인간 답변 데이터로 사용해 오염 가능성도 차단했다. 성능 비교 실험에서 SOGPTSpotter는 정확도 97.67%, 정밀도(precision) 98.64%, F1 점수 97.64를 기록했다. 이는 현재 널리 쓰이는 AI 탐지 도구들을 크게 앞서는 수치다. GPT제로(GPTZero)보다 정확도가 21.71% 높았고, 딜렉트GPT(DetectGPT)보다는 22.35%, GLTR보다는 5.50% 높았다. 버트(BERT), 로버타(RoBERTa), GPT-2 같은 강력한 언어 모델 기반 탐지기와 비교해도 각각 3.30%, 1.88%, 4.18% 높은 정확도를 보였다. 특히 주목할 점은 정밀도다. 정밀도는 AI가 생성했다고 판단한 답변 중 실제로 AI가 생성한 비율을 나타낸다. 정밀도가 높을수록 인간이 쓴 답변을 AI 생성으로 잘못 분류하는 일이 줄어든다. SOGPTSpotter의 정밀도 98.64%는 모든 비교 모델 중 가장 높았다. 스택 오버플로처럼 커뮤니티 신뢰가 중요한 플랫폼에서는 억울하게 삭제되는 인간 답변을 최소화하는 것이 핵심이기 때문에, 이 결과는 실제 적용 가능성 측면에서 특히 중요한 의미를 갖는다. 적대적 공격과 타 플랫폼에서도 통한 강건함 연구팀은 SOGPTSpotter가 실제 환경에서도 신뢰할 수 있는지 검증하기 위해 세 가지 방식의 공격 실험을 진행했다. 동의어 대체(synonym substitution), 텍스트 변형(perturbation), 문장 바꿔쓰기(paraphrasing)를 적용해 AI 생성 답변을 인간 답변처럼 위장하려 한 것이다. 이런 조작은 실제로 일부 사용자들이 AI 생성 답변을 탐지 시스템에 걸리지 않게 하려고 사용하는 방법이기도 하다. 세 가지 공격 방식 모두에서 SOGPTSpotter는 기존 도구들보다 높은 F1 점수를 유지했다. 동의어 대체 공격 시 94.43%, 텍스트 변형 시 94.90%, 문장 바꿔쓰기 시 95.85%를 기록해 모든 비교 모델을 앞섰다. 또한 성능 저하 비율도 가장 낮았다. 문장 바꿔쓰기 공격으로 GPT제로는 7.64% 성능이 떨어진 반면, SOGPTSpotter는 1.83% 하락에 그쳤다. 일반화 성능도 확인했다. 연구팀은 수학 스택익스체인지(Mathematics Stack Exchange), 전자공학 스택익스체인지(Electronics Stack Exchange), 비트코인 스택익스체인지(Bitcoin Stack Exchange)에서 각각 100개의 게시물을 수집해 테스트했다. SOGPTSpotter는 세 분야 모두에서 비교 모델들을 앞섰다. 챗GPT 외에 메타(Meta)의 라마3(LLaMA 3), 구글(Google)의 제미나이(Gemini), 앤스로픽(Anthropic)의 클로드3(Claude 3)가 생성한 답변을 탐지하는 실험에서도 가장 높은 성능을 보였다. 기준 답변을 활용해 해당 언어 모델의 생성 패턴을 학습하는 구조 덕분에 다양한 AI 모델에도 대응할 수 있었다. 실제 스택 오버플로에서 47개 AI 게시물 삭제 연구팀은 실험실을 넘어 실제 스택 오버플로에서도 효과를 확인했다. 2022년 11월 30일부터 2024년 4월 30일 사이에 작성된 게시물 5만 개를 무작위로 선정해 SOGPTSpotter로 분석했다. 모델은 이 중 146개를 AI 생성 의심 답변으로 분류했고, 연구팀은 이 가운데 50개를 직접 스택 오버플로에 수정 요청으로 제출했다. 결과는 인상적이었다. 제출한 50건 중 47건, 즉 94%가 커뮤니티 검토를 통과해 해당 게시물이 실제로 삭제됐다. 거부된 3건 중 2건은 30토큰 미만의 매우 짧은 답변이었고, 나머지 1건은 긴 코드 조각에 짧은 설명만 붙은 형태였다. 짧은 텍스트는 AI와 인간 모두 비슷한 방식으로 작성하는 경향이 있어 구별이 어렵고, 코드 위주의 답변은 자연어 패턴이 부족해 탐지의 단서가 줄어드는 한계가 있다. 연구팀은 이 두 가지 상황, 즉 매우 짧은 답변과 코드 중심의 답변을 향후 개선 과제로 꼽으면서, 실시간 탐지 기능 개발과 다른 Q&A 플랫폼으로의 확장도 향후 연구 방향으로 제시했다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. SOGPTSpotter는 어떤 원리로 챗GPT가 쓴 답변을 탐지하나요? SOGPTSpotter는 샴 신경망(Siamese Neural Network)과 빅버드(BigBird) 언어 모델을 결합해 만든 AI 탐지 도구입니다. AI가 작성한 것으로 알려진 기준 답변과 검사 대상 답변을 비교해 유사도를 계산하고, 일정 수준 이상으로 유사하면 챗GPT가 생성한 답변으로 분류합니다. Q. 챗GPT가 쓴 답변이 스택 오버플로에서 왜 문제가 되나요? 챗GPT 생성 답변은 논리적으로 보이지만 실제로 존재하지 않는 명령어나 잘못된 정보를 포함하는 경우가 많습니다. 개발자들이 이를 검증 없이 따를 경우 심각한 오류가 발생할 수 있어, 스택 오버플로는 이미 챗GPT 답변을 공식적으로 금지한 상태입니다. Q. SOGPTSpotter는 챗GPT 외에 다른 AI가 쓴 글도 탐지할 수 있나요? 네, 가능합니다. 연구팀이 라마3(LLaMA 3), 제미나이(Gemini), 클로드3(Claude 3)를 대상으로 실험한 결과, SOGPTSpotter는 세 모델 모두에서 기존 탐지 도구보다 높은 성능을 보였습니다. 다만 학습에 사용된 챗GPT 데이터와 다른 AI 모델의 생성 패턴 차이로 인해 성능이 다소 낮아질 수 있습니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 리포트명: SOGPTSpotter: Detecting ChatGPT-Generated Answers on Stack Overflow ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.12 08:35AI 에디터

"AI와 대화하며 작업"…어도비, AI 이미지 편집 기능 발표

어도비가 포토샵·파이어플라이에 대화형 인공지능(AI) 편집 기능을 확대해 자동화 업무 수준을 높였다. 어도비는 포토샵 웹과 모바일용 'AI 어시스턴트' 공개 베타 버전, '파이어플라이 이미지 에디터'를 11일 발표했다. 이번 기능은 대화형 AI를 통해 복잡한 이미지 편집 작업을 보다 효율적으로 수행하도록 돕는다. 포토샵 AI 어시스턴트는 채팅 기반 인터페이스를 통해 사용자 편집 의도를 이해하고 작업을 자동으로 수행하거나 단계별로 안내한다. 배경 제거·변경, 색상 조정, 조명 보정 등 주요 편집 작업을 자동 적용할 수 있다. 사용자는 음성으로도 편집 요청을 할 수 있다. 이를 통해 이동 중 모바일 환경에서 간편하게 이미지 편집 작업을 수행할 수 있다. 포토샵 웹에서는 'AI 마크업' 기능이 공개 베타로 제공된다. 사용자가 이미지 특정 영역을 표시한 뒤 프롬프트를 입력하면 해당 영역에 원하는 요소를 생성하도록 제어할 수 있다. 예를 들어 이미지 위 특정 영역을 표시한 뒤 '꽃 추가' '산 추가' 같은 프롬프트를 입력하면 해당 위치에 맞춰 새로운 이미지를 생성할 수 있다. 어도비는 파이어플라이 이미지 에디터를 통해 생성형 이미지 편집 기능을 통합했다. AI 생성 이미지와 사용자가 업로드한 이미지를 동일한 편집 환경에서 수정할 수 있도록 설계됐다. 파이어플라이 이미지 에디터는 생성형 채우기, 생성형 제거, 생성형 확장, 생성형 업스케일 배경 제거 등 주요 AI 편집 기능을 제공한다. 사용자는 프롬프트 기반으로 이미지 요소 추가, 교체, 보정, 확장, 해상도 개선 작업을 수행할 수 있다. 파이어플라이는 어도비 파이어플라이 모델 외에도 외부 AI 모델을 선택해 사용할 수 있도록 지원한다. 구글 '나노 바나나 2'를 비롯한 오픈AI 이미지 생성 등 25개 이상 모델을 지원한다.

2026.03.11 12:56김미정 기자

구글 나노 바나나, 가짜 흉부 X선으로 폐렴 92% 정확도로 잡아냈다

의료 AI 개발의 가장 큰 걸림돌 중 하나는 환자 데이터를 구하기 어렵다는 점이다. 개인정보 보호 규정, 병원 간 데이터 공유 제한, 희귀 질환의 절대적인 데이터 부족 등이 맞물려 우수한 알고리즘을 개발하고도 훈련 데이터가 없어 상용화에 실패하는 사례가 반복돼 왔다. 그런데 이 문제를 정면으로 돌파하는 연구가 나왔다. 영국 옥스퍼드대학교(University of Oxford)와 임페리얼 칼리지 런던(Imperial College London), UAE 모하메드 빈 자예드 인공지능대학교(Mohamed bin Zayed University of Artificial Intelligence) 공동 연구팀이 실제 환자 흉부 X선 사진을 전혀 사용하지 않고, AI가 생성한 합성 이미지만으로 폐렴 진단 모델을 훈련시켜 실제 데이터에서 92.3%의 정확도를 달성했다. 합성 X선 사진으로만 훈련한 AI, 실제 데이터에서 92% 달성 연구팀은 구글(Google)의 이미지 생성 AI 모델인 '나노 바나나(Nano Banana)'를 활용해 300장의 흉부 X선(CXR, Chest X-Ray) 합성 이미지를 만들었다. 폐렴 환자와 건강한 사람의 이미지를 각각 생성했으며, 성별, 체형, 나이, 촬영 자세 등을 다양하게 변형해 실제 임상 환경의 다양성을 최대한 반영했다. 이 합성 데이터만으로 훈련된 AI 분류기(classifier, 이미지를 특정 범주로 구분하는 모델)를 실제 환자 데이터셋에 적용한 결과, RSNA(미국방사선학회) 폐렴 탐지 데이터셋(14,863장)에서 AUROC(수신자 조작 특성 곡선 아래 면적, 모델 성능 지표) 0.923을 기록했다. 또 다른 공개 흉부 X선 데이터셋(5,856장)에서는 AUROC 0.824를 달성했다. 두 데이터셋 모두 합성 데이터만으로 훈련했음에도 의미 있는 진단 성능을 보여줬다는 점에서 주목받고 있다. 이미지 후처리가 성능을 가른 결정적 변수 연구 과정에서 예상치 못한 변수가 성능에 큰 영향을 미쳤다. 나노 바나나가 생성한 이미지에는 두 가지 문제가 있었다. 흉부 영역 아래로 필요 없는 부분이 포함돼 있었고, AI가 자동으로 삽입하는 디지털 워터마크(watermark, 이미지에 삽입되는 식별 표시)가 존재했다. 연구팀은 생성된 이미지의 하단 30%를 일괄 잘라내는 후처리를 적용했다. 이 단순한 처리 하나가 성능을 크게 바꿔놓았다. 후처리를 하지 않은 원본 합성 이미지로 훈련한 모델의 AUROC는 RSNA 데이터셋 기준 0.853에 그쳤지만, 후처리된 이미지로 훈련한 모델은 0.923으로 뛰어올랐다. 워터마크와 불필요한 영역이 모델 학습을 방해했던 것이다. 이 결과는 합성 데이터의 품질 관리와 전처리가 모델 성능만큼이나 중요하다는 사실을 시사한다. 기존 전문 의료 AI보다 나은 성능, 그 이유는 연구팀은 나노 바나나 생성 이미지를 흉부 X선 전용으로 설계된 텍스트-이미지 변환 모델인 '뢴트겐-v2(RoentGen-v2)'의 합성 이미지와도 비교했다. 뢴트겐-v2는 의료 영상 특화 모델임에도 불구하고, 후처리된 나노 바나나 이미지로 훈련된 분류기가 두 실제 데이터셋 모두에서 더 나은 성능을 기록했다. 연구팀은 이 결과를 설명하기 위해 그래드캠(Grad-CAM)이라는 시각화 기법을 활용했다. 그래드캠은 AI가 이미지의 어느 부분을 보고 판단을 내렸는지 열지도(heatmap) 형태로 보여주는 도구다. 분석 결과, 나노 바나나 이미지로 훈련된 모델은 폐렴 환자에서는 폐 내 경화(consolidation, 폐포가 액체로 채워진 상태) 부위를, 건강한 환자에서는 심장과 횡격막 경계를 집중적으로 살피는 것으로 나타났다. 이는 실제 영상의학과 의사가 X선을 판독할 때 주목하는 임상적으로 의미 있는 부위와 일치한다. 가능성과 한계, 임상 적용까지 넘어야 할 산 연구팀은 결과가 고무적이라고 평가하면서도 현재 단계의 한계를 명확히 짚었다. 우선 프롬프트(prompt, AI에게 내리는 명령어) 설계만으로는 촬영 각도나 자세의 다양성을 세밀하게 제어하는 데 한계가 있었다. 또한 이번 연구는 폐렴 인식에만 국한됐으며, 다른 질환이나 다양한 의료 영상 분야로의 일반화 가능성은 아직 검증되지 않았다. 무엇보다 합성 데이터만으로는 미국 FDA(식품의약국)나 유럽 CE 인증 등 의료기기 규제 승인을 받기 어렵다는 점도 현실적인 장벽이다. 디지털 워터마크가 지식재산권과 책임 소재에 미치는 영향, AI가 합성 데이터로 훈련된 경우의 법적 책임 프레임워크도 아직 정립되지 않은 상태다. 연구팀은 합성 의료 데이터의 투명하고 책임 있는 활용을 위한 정책과 가이드라인이 기술 발전과 함께 마련돼야 한다고 강조한다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. AI가 만든 가짜 X선 사진으로 진짜 환자를 진단하는 게 가능한가요?이번 연구에서는 AI가 생성한 300장의 합성 흉부 X선 이미지만으로 훈련한 모델이 실제 환자 데이터 약 2만 장에서 최고 92.3%의 정확도(AUROC)를 기록했습니다. 다만 현재는 임상 적용 전 단계로, 규제 승인과 추가 검증이 필요합니다. Q2. 합성 데이터가 실제 환자 데이터를 대체할 수 있나요?완전한 대체는 아직 어렵습니다. 합성 데이터는 개인정보 문제를 피하면서 AI 훈련에 활용 가능한 보완재로서 가능성을 보여줬습니다. 하지만 현행 의료기기 규제는 실제 임상 데이터를 통한 검증을 요구하고 있어, 합성 데이터만으로 규제 승인을 받는 것은 현재로서는 불가능합니다. Q3. 이미지를 자르는 후처리가 왜 그렇게 큰 차이를 만드나요?AI가 생성한 이미지에는 진단과 무관한 워터마크나 흉부 외 신체 부위가 포함됩니다. 이 불필요한 정보가 모델 학습을 방해해 성능을 떨어뜨립니다. 하단 30%를 잘라내는 단순한 후처리만으로도 AUROC가 0.853에서 0.923으로 크게 향상됐습니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 리포트명: Recognizing Pneumonia in Real-World Chest X-rays with a Classifier Trained with Images Synthetically Generated by Nano Banana ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.10 18:58AI 에디터

앤트로픽이 '적'에서 '동반자'로…소프트웨어 주가 반등

앤트로픽(Anthropic)이 기업용 AI 협업 도구의 새 파트너십을 공개하면서 최근 급락세를 보이던 소프트웨어 주가가 일제히 반등했다. CNBC에 따르면 앤트로픽은 2월 24일(현지 시간) 기업용 에이전트(agent) 행사를 열고 클로드 코워크(Claude Cowork)의 업데이트 버전을 공개했다. 이번 업데이트를 통해 기업들은 세일즈포스(Salesforce) 산하 슬랙(Slack), 인튜이트(Intuit), 도큐사인(DocuSign), 리걸줌(LegalZoom), 팩트셋(FactSet), 구글(Google)의 지메일(Gmail) 등 다양한 기업용 앱과 클로드 코워크를 연동할 수 있게 됐다. 재무 분석, 엔지니어링, 인사(HR) 등 특정 분야에 특화된 맞춤형 플러그인(plugin)도 함께 배포됐다. 앤트로픽의 잇따른 신제품 출시는 최근 수 주 동안 소프트웨어·사이버보안 업종 주가를 크게 끌어내린 배경으로 작용했다. AI 도구가 기존 기업 소프트웨어 비즈니스 모델을 대체할 수 있다는 투자자들의 우려가 커진 탓이다. 그러나 이번 행사에서 앤트로픽이 기존 소프트웨어 기업들과의 협력을 전면에 내세우자 분위기는 반전됐다. 아이셰어즈 확장 기술·소프트웨어 섹터 상장지수펀드(ETF, Exchange-Traded Fund)인 아이지브이(IGV)는 전날 4% 넘게 하락했다가 이날은 1% 이상 올라 마감했다. 개별 종목에서도 오크타(Okta)와 클라우드플레어(Cloudflare)가 약 2%, 제이스케일러(Zscaler)와 테너블(Tenable)은 각각 약 4%, 센티넬원(SentinelOne)은 3% 상승했다. 반면 아이비엠(IBM) 주가는 이날도 약세를 이어갔다. 앤트로픽이 코볼(COBOL) 프로그래밍 언어 현대화를 자동화할 수 있는 클로드 코드(Claude Code) 기능을 전날 공개한 여파였다. 웨드부시 시큐리티스(Wedbush Securities) 애널리스트들은 이날 리서치 노트에서 앤트로픽의 이번 행사가 소프트웨어 업종에 대한 AI의 경쟁 위협이 "과장됐다(overblown)"는 것을 보여준다고 평가했다. 이들은 AI 모델이 소프트웨어 인프라에 "깊이 내재된" 전체 워크플로우(workflow)를 대체하는 것은 불가능하다고 주장했다. "이 새로운 AI 도구들은 기존 소프트웨어 생태계와 데이터 환경을 완전히 뒤엎지 못할 것이다. AI 도구는 결국 접근할 수 있는 데이터만큼만 유용하기 때문"이라고 이들은 밝혔다. 한편 앤트로픽의 경제학 책임자 피터 맥크로리(Peter McCrory)는 이날 라이브스트림에서 현재까지 노동 시장에서 광범위한 인력 대체 현상이 나타나고 있다는 증거는 없다고 말했다. 다만 그는 AI 기술이 경제에 미치는 영향의 범위가 넓어지고 있으며, 데이터 입력 같은 일부 직군은 다른 직종보다 더 큰 위험에 노출돼 있다고 덧붙였다. 자세한 내용은 CNBC에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.10 13:41AI 에디터

의사 시험 붙은 GPT, 수능 지구과학 앞에서 멘붕

챗GPT(ChatGPT)가 의사 시험과 변호사 시험을 통과했다는 소식이 나온 지 꽤 됐다. 그렇다면 한국 수능은 어떨까? 국립대만사범대학교(National Taiwan Normal University)와 서울대학교(Seoul National University) 공동 연구팀이 GPT-4o, 제미나이-2.5-플래시(Gemini 2.5 Flash), 제미나이-2.5-프로(Gemini 2.5 Pro) 세 모델에게 2025학년도 수능 지구과학I 문제를 풀게 했다. 최선의 조건에서 제미나이-2.5-프로는 상위권 수험생에 근접하는 성적을 냈지만, 나머지 두 모델은 랜덤으로 찍는 수준을 벗어나지 못했다. 연구팀이 주목한 건 점수 자체보다 '왜 틀렸는가'였다. AI는 특정 유형의 문제에서 반복적이고 체계적인 방식으로 실패했고, 그 패턴은 사람이 틀리는 방식과 뚜렷하게 달랐다. 문제지를 통째로 주면 찍는 것보다 못한 성적 연구팀은 같은 AI에게 세 가지 방식으로 문제를 줬다. 첫 번째는 시험지 전체 페이지를 이미지 파일로 그대로 넘겨주는 방식이었다. 결과는 예상보다 낮았다. 제미나이-2.5-플래시는 50점 만점에 4점(8%), GPT-4o는 7점(14%)을 받았다. 5지선다에서 랜덤으로 찍으면 기댓값이 10점(20%)인데, 두 모델 모두 그보다 낮았다. 제미나이-2.5-프로는 14점(28%)으로 그나마 높았지만 이 역시 낮은 수준이다. 문자 인식 단계에서부터 오류가 쌓였다. GPT-4o는 은하 스펙트럼 문제를 운석 스펙트럼 문제로 잘못 읽었고, 제미나이-2.5-플래시는 암석의 용융 곡선 문제를 '암염 용융 곡선' 문제로 완전히 다르게 인식했다. 문제는 이 모델들이 잘못 인식한 문제를 바탕으로 그럴듯한 해설까지 자신 있게 내놨다는 점이다. "암염은 온도가 올라가면 녹을 수 있다"는 설명은 과학적으로 맞는 말이지만, 출제된 문제와는 전혀 상관없는 내용이었다. 문제를 따로 줘도 드러나는 모델별 한계 두 번째 실험에서 연구팀은 20개 문항을 각각 별도 이미지 파일로 잘라서 줬다. 이렇게 하면 여러 문제가 섞인 복잡한 지면을 AI가 스스로 분석하는 부담이 사라진다. 제미나이-2.5-프로는 14점에서 28점(56%)으로 크게 올랐다. 반면 제미나이-2.5-플래시는 4점에서 9점(18%), GPT-4o는 7점에서 8점(16%)으로 거의 변화가 없었다. 이 차이가 중요한 단서를 준다. 제미나이-2.5-프로의 점수가 많이 오른 건, 이 모델의 첫 번째 실험 실패 원인이 추론 능력 부족이 아니라 복잡한 문서 레이아웃 분석 실패였기 때문이다. 문제를 제대로 읽게 해줬더니 숨어 있던 추론 능력이 발휘된 것이다. 반면 나머지 두 모델은 입력 방식을 바꿔줘도 성적이 거의 오르지 않았다. 이 모델들의 한계가 단순한 문서 구조 문제가 아니라 시각 정보 해석과 추론 과정 전반에 있다는 점을 보여준다. 이상적인 조건에서도 AI는 도식의 의미를 읽어내지 못했다 세 번째 실험에서 연구팀은 텍스트는 직접 입력하고 그래프와 도표만 이미지로 제공했다. 문자 인식 오류 가능성을 원천 차단한 이상적인 조건이다. 제미나이-2.5-프로는 34점(68%)으로 상위권 수험생 수준에 근접했다. 그러나 제미나이-2.5-플래시는 10점(20%), GPT-4o는 11점(22%)으로 랜덤 선택 기댓값과 비슷한 수준에 머물렀다. 이 조건에서 발생한 36개의 오답을 분석한 결과, 가장 많이 나온 오류 유형은 '지각 오류(Perception Errors)'로 전체의 43%를 차지했다. AI가 그래프의 수치를 잘못 읽거나, 도식에 담긴 상징적 의미를 제대로 해석하지 못하는 문제가 가장 많았다. 논문은 이를 단순한 시각 오류가 아니라, 인식한 정보를 과학 개념으로 연결하는 인지 과정의 단절로 설명한다. 추론 오류(25%), 환각으로 분류되는 지식 생성 오류(17%), 개념 오류(15%)가 그 뒤를 이었다. AI가 반복적으로 실패하는 세 가지 문제 유형 연구팀이 특히 주목한 건 AI 고유의 반복적 실수 패턴이었다. 첫 번째는 '지각-인지 단절(Perception-Cognition Gap)'이다. AI가 시각 정보를 인식은 하지만 그 안에 담긴 과학적 규칙으로 연결하지 못하는 현상이다. 태풍의 풍향 변화를 나타내는 방사형 그래프에서 AI는 그림 자체는 봤지만, 시계 방향과 반시계 방향의 과학적 의미를 읽어내지 못했다. 세 모델 모두 이 문제를 틀렸다. 두 번째는 '계산-개념 불일치(Calculation-Conceptualization Discrepancy)'다. GPT-4o는 20번 문항에서 λmax(B)/λmax(C)=0.5라는 계산은 정확하게 해냈다. 그런데 이 값이 "C의 최대 파장이 B의 두 배"라는 개념적 의미로 연결되지 않아 틀렸다. 절차적 계산은 수행하지만 그 결과의 의미를 적용하지 못하는 것이다. 세 번째는 '과정 환각(Process Hallucination)'이다. AI가 복잡한 추론 과정을 건너뛰고 관련 있어 보이는 배경 지식을 가져다 붙이는 현상이다. 3번 문항에서 두 모델은 P-T 다이어그램을 실제로 확인하는 과정을 생략하고 "맨틀이 상승하면 감압 용융이 일어난다"는 배경 지식을 바로 적용해 틀렸다. 데이터 검증 없이 그럴듯한 결론으로 직행한 것이다. FAQ ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다. Q. AI가 수능을 못 푸는 건 한국어를 잘 못해서인가요? A. 연구팀은 문제를 영어로 번역해 제공하는 등 언어 장벽을 최소화했습니다. AI가 특정 문제에서 어려움을 보이는 핵심 원인은 언어가 아니라, 그래프와 도식에 담긴 과학적 규칙을 해석하는 시각 인지 능력의 한계에 있었습니다. Q. 제미나이-2.5-프로가 68점을 받았다면 AI가 수능을 어느 정도 풀 수 있다는 건가요? A. 논문은 제미나이-2.5-프로의 68점이 상위권 수험생 수준에 근접한다고 평가했습니다. 다만 이는 텍스트를 미리 직접 입력해주는 이상적인 조건에서 나온 결과입니다. 실제 시험지를 그대로 입력했을 때 같은 모델의 점수는 28점에 그쳤습니다. Q. 이번 연구가 교육 현장에 주는 시사점은 무엇인가요? A. 연구팀은 AI가 반복적으로 어려움을 보이는 문제 유형을 역으로 활용해 'AI 내성 문항'을 설계할 수 있다고 제안했습니다. 단순 x-y 그래프가 아닌 비정형 도식의 규칙을 해석해야 하는 문항, 계산 결과의 개념적 의미를 다시 적용해야 하는 문항 등은 학생의 실제 이해도를 측정하는 동시에 AI 활용을 어렵게 만드는 효과적인 설계 방향으로 제시됐습니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 리포트명: ChatGPT and Gemini participated in the Korean College Scholastic Ability Test - Earth Science I ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.09 15:28AI 에디터

네이버 클립, 제3회 '크리에이터스 데이' 개최

네이버는 지난 8일 각 분야 클립 크리에이터를 대상으로 클립팀과 함께 창작자 지원방안과 서비스 방향성에 대해 의견을 나누는 제3회 '클립 크리에이터스 데이'를 개최했다고 9일 밝혔다. 클립은 창작자가 이전보다 편리하게 콘텐츠를 제작하고, 콘텐츠 성과를 분석해 앞으로의 전략을 세울 수 있도록 기술적 지원 강화에 대한 계획을 공유했다. 콘텐츠 제작 단계를 간소화하는 'AI 에디터'를 연내 선보일 계획이다. AI 에디터는 ▲같은 장소에서 촬영한 영상, 이미지를 자동으로 분류해 모아주고 ▲미디어 정보를 알아서 분석해 정보태그를 달아줄 뿐 아니라 ▲콘텐츠와 어울리는 해시태그 및 음원까지 추천해주는 등 창작자들의 콘텐츠 제작 편의를 강화할 전망이다. 아울러, 클립 창작자들이 콘텐츠 지표를 확인하고 수익을 정산할 수 있는 '클립 크리에이터 앱'의 기능을 강화한다. ▲게시물 타입의 콘텐츠 분석을 새롭게 제공하고 ▲유입처, 시청시간 등 상세한 분석툴을 추가하며 ▲이달의 해시태그 미션, 크리에이터 월간 어워즈, 이달의 활동 미션 등 수익 창출을 위한 프로그램들을 한눈에 확인하고 관리할 수 있도록 지원할 예정이다. 클립은 숏폼 소비 트렌드를 수익 모델에 적극 반영하며 창작자 보상을 꾸준히 확대해왔다. 지난해 홈피드 등 '피드 지면'에서의 소비까지 산정하도록 보상 구조를 개편한 데 이어 올해는 숏폼 영상뿐만 아니라 텍스트나 이미지가 결합된 '게시물 형태'의 콘텐츠로도 수익 창출 대상을 확대한다. 창작자의 콘텐츠가 '팬덤 구축'으로 이어지도록 네이버 앱 내 '클립탭'도 전면 개편할 계획이다. 새로운 클립탭은 ▲먼저 시청자가 자신의 취향에 맞는 새로운 창작자의 영상을 발견하게 돕는 '탐색' ▲마음에 드는 창작자의 신규 콘텐츠를 놓치지 않고 받아보는 '구독' ▲내가 만든 콘텐츠를 한눈에 관리할 수 있는 '내클립판'으로 구성될 예정이다. 클립 챌린지의 인기가 높아짐에 따라 창작자들이 보다 연속성 있게 참여할 수 있도록 다양한 챌린지 프로그램을 '오늘 클립 챌린지'로 일원화해 운영한다. 이날부터 매주 참여할 수 있고, 참여 성과가 두드러진 우수 창작자에게는 클립 크리에이터 합류 기회도 제공해 프로그램 참여가 크리에이터로서의 성장으로까지 이어질 수 있도록 지원할 계획이다. 김광현 네이버 최고데이터·콘텐츠책임자는 "AI 시대 콘텐츠보다 더 중요한 것은 콘텐츠를 만드는 창작자들"이라며 "네이버는 창작자들이 생산해낸 양질의 콘텐츠가 네이버 전반의 서비스 및 기술과 연결되어 더 많은 사용자와 만날 수 있도록 지원과 투자를 아끼지 않겠다"고 말했다.

2026.03.09 13:52박서린 기자

AI가 지도 공부한 게 아니었다…단어 패턴만으로 세계 지리 독파

내비게이션 앱도 아닌데, 지도 데이터도 없는데, AI가 "레이캬비크"라는 단어 하나만 보고 그 도시가 북쪽의 추운 곳이라는 걸 맞혔다면 믿겠는가. 플로리다 애틀랜틱 대학교(Florida Atlantic University)의 일란 바렌홀츠(Elan Barenholtz) 교수 연구팀이 2026년 3월 발표한 논문에서 10년 전 기술로 이것을 해냈다. 더 놀라운 건 최신 AI가 아니라 2013년에 만들어진 단어 통계 기술을 썼다는 점이다. 과연 AI는 세상을 '이해'하는 걸까, 아니면 글자들의 패턴을 '기억'하는 걸까. 단어가 모이면 지도가 된다 연구팀이 사용한 기술 이름은 글러브(GloVe)와 워드투벡(Word2Vec)이다. 둘 다 2013~2014년에 개발된, AI 세계에서는 꽤 오래된 기술이다. 이 기술들이 하는 일은 단순하다. "어떤 단어들이 같은 문장이나 문단에 자주 함께 등장하는가"를 숫자로 바꾸는 것이다. 예를 들어 "커피"와 "카페"는 자주 같이 나오니까 두 단어의 숫자가 비슷해지고, "커피"와 "눈보라"는 거의 같이 안 나오니까 숫자가 멀어진다. 이 숫자 덩어리를 300개 차원의 벡터(vector), 즉 방향이 있는 좌표라고 부른다. 연구팀은 이 숫자 좌표에 선형 회귀 프로브(linear regression probe)라는 탐색 도구를 붙였다. 프로브는 일종의 탐지기다. X선이 몸속을 들여다보듯이, 단어 좌표 안에 숨어 있는 정보를 꺼내 보는 장치라고 생각하면 된다. 연구팀은 전 세계 100개 도시 이름을 이 탐지기에 넣고 물었다. "이 단어 좌표 안에 위도와 경도 정보가 들어있나요?" 결과는 놀라웠다. 위도는 최대 87%, 경도도 비슷한 수준으로 맞혔다. 연평균 기온도 52%까지 예측했다. 반면 인구수, 국내총생산(GDP), 해발고도는 거의 맞히지 못했다. 이게 중요하다. 아무 정보나 다 나온 게 아니라, 특정 정보만 골라서 나온 것이다. "파리"가 "프랑스"와 붙어다니는 이유 그렇다면 어떻게 단어 숫자에 지리 정보가 담겼을까. 연구팀은 2만 개의 영어 단어를 전부 뒤졌다. 각 단어가 86개 도시 이름과 얼마나 가까운지 계산하고, 그 거리가 실제 기온이나 위도와 얼마나 연관되는지 봤다. 답은 명쾌했다. 따뜻한 도시 이름 옆에는 "덩기(dengue, 열대 질병)", "사이클론(cyclone)", "코코넛(coconut)", "야자수(palms)"같은 단어들이 자주 붙었다. 차가운 도시 이름 옆에는 "화학자(chemist)", "물리학자(physicist)", "스키(skiing)"가 자주 등장했다. 이건 연구팀이 미리 골라서 넣은 단어들이 아니다. 2만 개 단어를 무작위로 분석했더니 저절로 이런 패턴이 나왔다. 여기서 핵심 발견이 나온다. 바로 국가 이름이었다. 연구팀은 일부러 국가 이름들을 지웠다. 글러브 좌표에서 국가 이름들이 차지하는 방향을 통째로 제거한 것이다. 그랬더니 위도 예측 정확도가 87%에서 76%로 떨어졌고, 기온 예측은 52%에서 36%로 뚝 내려갔다. 같은 수의 무작위 단어를 지웠을 때는 정확도가 거의 안 변했다. 즉, 국가 이름이 지리 정보를 전달하는 핵심 다리 역할을 하고 있었다. 이유는 일상 언어에 있다. 뉴스 기사에서 "방콕"은 늘 "태국", "열대", "아세안(ASEAN)"과 함께 나온다. "오슬로"는 "노르웨이", "피요르드(fjord)", "북유럽"과 같이 등장한다. 이런 동행이 수억 번 반복되면 단어 좌표 안에 지리적 지도가 저절로 새겨진다. 역사 인물 이름으로 시대를 추측하다 연구팀은 공간 정보에서 멈추지 않았다. 시간 정보도 실험했다. 호메로스(Homer, 기원전 800년경)부터 스티븐 호킹(Stephen Hawking, 1942년생)까지 역사적 인물 194명의 이름을 같은 방식으로 분석했다. "이 이름의 단어 좌표를 보면 이 사람이 언제 태어났는지 알 수 있을까?"라는 질문이었다. 정확도는 약 48~52%였다. 지리 정보보다는 낮지만 완전히 우연보다는 훨씬 높다. 탐지기가 고대(기원전~서기 500년), 중세(500~1400년), 근현대(1400년 이후)를 대략 구분하는 데 성공했다. "아인슈타인(Einstein)"이라는 이름 옆에는 "상대성이론", "20세기", "물리학"이 자주 붙고, "아리스토텔레스(Aristotle)"옆에는 "고대", "그리스", "철학"이 따라다닌 덕분이다. 지리 정보보다 시간 정보의 정확도가 낮은 것도 흥미롭다. 텍스트에서 공간은 명시적으로 자주 언급된다. "파리는 프랑스에 있다"는 문장은 넘쳐나지만, "나폴레옹은 1769년에 태어났다"는 문장은 상대적으로 드물다. 언어 자체가 공간에 대해 더 수다스럽다는 뜻이다. AI 도구에는 어떤 도움이 될까 이 연구는 단순히 흥미로운 실험에 그치지 않는다. 실용적인 메시지도 담고 있다. 첫 번째는 비용과 효율이다. 요즘 챗GPT(ChatGPT)나 클로드(Claude) 같은 최신 대형 언어모델(LLM)은 수천억 개의 매개변수(parameter, AI가 학습하는 숫자 단위)를 가진다. 돌리려면 엄청난 전기와 서버가 필요하다. 하지만 이번 연구는 특정 작업에서는 300개 차원의 단순 단어 좌표만으로도 충분하다는 것을 보여줬다. 여행지 추천 앱이 도시 간 유사도를 계산하거나, 역사 문서를 시대별로 묶는 작업이라면 굳이 비싼 최신 AI를 쓸 필요가 없다는 뜻이다. 이는 전기 요금이나 서비스 비용을 크게 낮출 수 있다. 두 번째는 AI 연구 방법론의 경고다. 지금까지 많은 연구자들이 최신 AI의 내부 상태에서 지리나 시간 정보를 꺼낼 수 있다는 걸 발견하고 "AI가 세계 지도 같은 내부 모델을 만들었다"고 주장해왔다. 대표적으로 거니와 테그마크(Gurnee and Tegmark)가 2024년 라마-2(Llama-2)라는 대형 AI를 분석해 이런 주장을 펼쳤다. 바렌홀츠 교수 연구팀은 같은 방법으로 10년 전 기술을 분석해도 비슷한 결과가 나온다는 걸 보여주며 이렇게 말한다. "탐지기로 정보를 꺼낼 수 있다는 사실만으로는 AI가 진짜로 세계를 이해한다고 말할 수 없다." 냉장고 비유를 생각해보자. 냉장고에서 음식 냄새가 난다고 해서 냉장고가 요리를 이해한다고 말하진 않는다. 냄새는 그냥 음식이 거기 있었다는 흔적이다. AI에서 지리 정보가 나온다는 것도, 텍스트 원래부터 그 패턴이 있었다는 흔적일 수 있다. 세 번째는 언어 자체에 대한 새로운 시각이다. 이 연구가 진짜 놀라운 이유는 AI의 한계를 보여주는 게 아니라, 인간 언어의 풍부함을 새롭게 발견했기 때문이다. 우리가 매일 쓰는 문장들이 쌓이면 그 안에 지리, 기후, 역사가 고스란히 담긴다. 언어는 세상의 압축본이다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 이 연구는 챗GPT 같은 AI가 세상을 이해 못 한다는 뜻인가요? A. 꼭 그렇지는 않습니다. 이 연구는 AI가 지리나 시간 정보를 보여준다는 증거가 사실 텍스트 속에 원래부터 있던 패턴일 수 있다고 지적합니다. AI가 진짜로 세상을 이해하는지, 아니면 단어 패턴을 재현하는지는 여전히 학계에서 논의 중입니다. 다만 탐지기로 정보를 꺼낼 수 있다는 사실만으로 '진짜 이해'를 증명할 수는 없다는 것이 이 연구의 핵심입니다. Q. 10년 된 기술로도 된다면 굳이 최신 AI를 써야 하나요? A. 용도에 따라 다릅니다. 오래된 단어 통계 기술은 맥락을 구분하지 못합니다. '사과'가 과일인지 애플(Apple) 회사인지 모르고, 문장을 만들거나 대화를 이어가는 것도 불가능합니다. 최신 AI는 이런 복잡한 맥락 이해와 생성 능력에서 압도적으로 뛰어납니다. 단, 도시 유사도 비교나 시대 분류처럼 단순한 작업이라면 굳이 비싼 AI를 쓸 필요가 없을 수 있습니다. Q. 이 연구 결과가 실생활에서 어떻게 도움이 되나요? A. 여행 앱, 역사 교육 콘텐츠, 문서 자동 분류 시스템 같은 서비스를 만들 때 훨씬 저렴하고 가벼운 기술을 선택할 수 있다는 힌트를 줍니다. 또한 AI를 연구하는 분들이라면, 새로운 AI 실험 결과를 해석할 때 "이게 진짜 새로운 능력인가, 아니면 텍스트에 원래 있던 패턴인가"를 꼭 비교해봐야 한다는 교훈을 얻을 수 있습니다. 기사에 인용된 논문 원문은 arXiv에서 확인할 수 있다. 논문명: World Properties without World Models: Recovering Spatial and Temporal Structure from Co-occurrence Statistics in Static Word Embeddings ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.09 13:35AI 에디터

AI도 시험 도중 실수를 고친다…5배 빠른 학습의 비밀

어떤 학생은 시험지를 한 번 훑고 바로 제출한다. 또 다른 학생은 풀이 과정을 천천히 되짚으며 틀린 부분을 고쳐 나간다. 당연히 후자가 더 좋은 점수를 받는다. 카네기멜론대학교(Carnegie Mellon University)와 바르샤바대학교(University of Warsaw) 공동 연구팀이 2026년 3월 공개한 논문은 AI도 이 두 번째 학생처럼 행동하도록 만드는 방법을 규명했다. '플로우 매칭(Flow Matching)'이라는 기법을 강화학습(Reinforcement Learning)에 적용하면 AI가 기존보다 최종 성능이 2배 높고 학습 속도는 5배 빠르다는 것이다. 더 놀라운 건 그 이유가 지금껏 학계가 믿어왔던 설명과 전혀 달랐다는 점이다. AI가 공부하다 갑자기 멍청해지는 이유 강화학습은 AI가 시행착오를 반복하며 스스로 최적의 행동을 터득하는 방식이다. 로봇이 걷는 법을 익히거나, 게임에서 전략을 배우거나, 자율주행차가 도로 상황에 적응하는 것이 모두 이 방식으로 이루어진다. 이때 AI의 판단을 평가하는 역할을 맡은 부분을 '비평가(Critic)'라고 부른다. 비평가는 AI가 어떤 행동을 했을 때 미래에 얼마나 좋은 결과를 얻을 수 있는지 점수를 매긴다. 그런데 기존의 '단일 구조 비평가(Monolithic Critic)'에는 심각한 문제가 있다. 학습이 거듭될수록 오히려 성능이 떨어지는 현상이 나타나는 것이다. 연구팀은 이를 '가소성 상실(Loss of Plasticity)'이라고 부른다. 가소성이란 AI가 새로운 정보를 유연하게 흡수하는 능력을 뜻한다. 마치 오래된 칠판처럼, 새 내용을 쓰려면 예전 내용이 지워져야 하는데 그 과정에서 중요한 것들이 함께 사라져버리는 것이다. 논문의 서론에 따르면 이 현상은 목표값이 계속 바뀌는 'TD 학습(Temporal Difference Learning)' 환경에서 특히 두드러진다. AI가 미래 보상을 예측하며 학습하는 핵심 메커니즘인 TD 학습은, 목표 자체가 움직이는 탓에 AI 내부 표현이 불안정해진다는 것이다. 정답을 한 번에 내놓지 않고 조금씩 다듬는 방식의 등장 플로우 매칭 비평가는 이 문제를 완전히 다른 방식으로 접근한다. 핵심은 '반복 계산(Iterative Computation)'이다. 기존 비평가가 입력값을 받아 단번에 점수를 출력한다면, 플로우 매칭 비평가는 처음의 불확실한 추정에서 출발해 여러 단계를 거치며 점진적으로 답을 다듬는다. 연구팀은 이 과정에서 초기 단계의 오류가 이후 단계를 거치며 자동으로 교정된다는 사실을 발견했고, 이를 '테스트 시점 복구(Test-time Recovery)'라고 이름 붙였다. 구체적으로 설명하면 이렇다. 플로우 매칭 비평가는 '속도장(Velocity Field)'이라는 개념을 학습한다. AI는 처음에 무작위에 가까운 초기값에서 출발해, 여러 번의 적분(Integration) 계산을 거치며 최종 예측값에 도달한다. 이 경로 전체를 훈련 단계에서 촘촘하게 지도 감독(Dense Supervision)하기 때문에, 초기에 오류가 생기더라도 이후 단계에서 수정이 가능하다. 논문 5장의 이론 분석에 따르면 통합 단계 수가 늘어날수록 오류 감쇠율이 단계 수의 음의 거듭제곱에 비례해 줄어든다. 즉 단계를 많이 밟을수록 초기 실수의 영향이 기하급수적으로 줄어드는 것이다. 논문의 실험 결과는 이를 직접 증명한다. 연구팀은 일부러 초기 통합 단계에 낡은 정보를 주입하는 실험을 했다. 놀랍게도 플로우 매칭 비평가는 처음 50%의 단계에서 낡은 정보를 사용했음에도 오히려 성능이 더 좋거나 비슷하게 유지됐다. 반면 기존 단일 구조 비평가는 이런 개입에 즉시 성능이 급락했다. 분포를 배우기 때문이라는 기존 통설은 틀렸다 플로우 매칭이 강화학습에 효과적이라는 사실은 이미 알려져 있었다. 그런데 그 이유에 대해 학계는 오랫동안 잘못된 설명을 믿어왔다. 많은 선행 연구들은 플로우 매칭이 단순히 평균값 하나가 아니라 보상이 나타날 수 있는 전체 확률 분포를 학습하기 때문에 효과적이라고 주장했다. 이를 '분포 강화학습(Distributional RL)'이라고 부른다. 연구팀은 이 가설을 직접 검증하기 위해 통제 실험을 설계했다. 플로우 매칭 구조는 동일하게 유지하되, 분포를 명시적으로 학습하는 방식과 평균값만 학습하는 방식을 비교한 것이다. 결과는 예상을 뒤집었다. 분포를 명시적으로 학습하는 방식이 오히려 성능을 떨어뜨렸다. 연구팀이 floq라고 이름 붙인 플로우 매칭 비평가 방식은 평균값만 목표로 삼으면서도 일관되게 더 나은 성능을 보였다. 논문 4장은 이 결과를 바탕으로 분포 강화학습은 플로우 매칭 성공의 이유가 아니라고 결론 내린다. 진짜 이유는 분포 모델링이 아니라, 통합 경로를 따라 속도장을 촘촘하게 훈련하는 구조 자체에 있었다. 뇌를 얼려도 망가지지 않는 AI의 유연한 기억 플로우 매칭의 두 번째 강점은 '가소성 보존(Plasticity Preservation)'이다. 논문 6장의 이론 분석은 이를 수학적으로 증명한다. 단일 구조 비평가는 새로운 목표값을 학습하려면 반드시 기존에 저장된 특징(Feature)을 덮어써야 한다. 반면 플로우 매칭 비평가는 특징 자체를 바꾸지 않고도 '이득 매개변수(Gain Parameter)'를 조정하는 것만으로 새로운 목표에 적응할 수 있다. 기존에 배운 내용은 그대로 두고, 각 내용에 부여하는 가중치만 재조정하는 방식이다. 연구팀은 극단적인 실험으로 이를 확인했다. AI 신경망의 초기 층들을 완전히 얼려버린 뒤 학습을 계속하는 것이다. 기존 단일 구조 비평가는 레즈넷(ResNet) 구조나 트랜스포머(Transformer) 구조를 써도 거의 예외 없이 성능이 0에 가깝게 붕괴했다. 반면 플로우 매칭 비평가는 층이 얼어붙은 상태에서도 학습을 이어가며 거의 동일한 수준의 성능을 회복했다. 마치 기억의 특정 부분이 손상된 상태에서도 다른 회로를 활용해 기능을 유지하는 뇌처럼, 플로우 매칭 비평가는 이미 학습된 특징들을 다시 조합해 새로운 문제에 대응할 수 있었다. 극한의 학습 환경에서 검증된 5배 빠른 효율 연구팀은 이 장점이 실제 학습 성능으로 이어지는지 검증하기 위해 높은 업데이트-데이터 비율(High UTD, Update-to-Data ratio) 환경을 테스트했다. 이는 새로운 데이터가 적게 들어오는데 학습 업데이트는 매우 자주 해야 하는, 가소성 상실이 가장 극심하게 나타나는 조건이다. 로봇 제어나 자율주행처럼 실시간으로 경험을 쌓으면서 빠르게 학습해야 하는 현실 환경과 유사하다. 실험 결과 floq는 UTD 비율이 32, 64, 128로 높아질수록 기존 단일 구조 비평가와의 격차가 벌어졌다. 많은 환경에서 최종 성능은 약 2배, 동일한 성능에 도달하는 데 필요한 학습 데이터량은 약 5배 적게 들었다. 더욱이 기존 비평가가 높은 UTD 환경에서 학습이 불안정해지거나 성능이 갑자기 무너지는 현상을 보인 반면, 플로우 매칭 비평가는 UTD 128이라는 극한 조건에서도 안정적인 학습 곡선을 유지했다. 논문은 마지막으로 이 원리가 대형 언어 모델(LLM)의 연쇄 추론(Chain-of-Thought)과 유사하다고 지적한다. LLM이 단번에 답을 내놓는 대신 여러 추론 단계를 밟을수록 정확도가 올라가는 것처럼, 플로우 매칭 비평가도 통합 단계가 늘어날수록 더 정교한 예측이 가능해진다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 플로우 매칭이 일반 사람들의 일상에서 쓰이는 AI를 어떻게 바꾸나요? A. 플로우 매칭 기술은 AI가 새로운 환경에 더 빠르게, 더 안정적으로 적응하도록 만듭니다. 예를 들어 자율주행차가 처음 가는 도로에서 실수를 줄이거나, 의료 AI가 최신 임상 데이터를 반영해 진단 정확도를 빠르게 높이는 등 실생활 AI 서비스의 신뢰도와 반응 속도를 높이는 데 직접 기여합니다. Q2. 가소성 상실이 왜 문제가 되나요? A. AI가 새로운 것을 배우려면 기존에 저장된 정보를 덮어써야 하는 경우가 생깁니다. 이 과정이 반복되면 AI는 이전에 잘하던 것도 잊어버리고 현재 목표에만 과도하게 맞춰지게 됩니다. 마치 단기 기억만 남고 장기 기억이 사라지는 것처럼, 시간이 지날수록 오히려 전체 성능이 떨어지는 현상이 나타납니다. Q3. 이 연구가 로봇이나 자율주행 같은 실제 기술에 얼마나 빨리 적용될 수 있나요? A. 이번 연구는 이론적 증명과 실험을 모두 갖춘 기초 연구입니다. 현재 로봇 제어와 오프라인-온라인 혼합 강화학습 환경에서 이미 유의미한 성능 향상이 확인됐습니다. 다만 실제 제품에 탑재되려면 다양한 환경에서의 추가 검증과 공학적 최적화 과정이 필요합니다. 기사에 인용된 논문 원문은 arXiv에서확인할 수 있다. 논문명: What Does Flow Matching Bring To TD Learning? ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.06 19:28AI 에디터

구글 검색창이 앱이 됐다…AI 모드에 '캔버스' 전면 개방

구글(Google)이 자사 AI 검색 기능인 AI 모드(AI Mode)에서 '캔버스(Canvas)' 기능을 미국 전체 영어 사용자에게 전면 개방했다. 테크크런치(TechCrunch)에 따르면, 구글은 지난해 구글 랩스(Google Labs) 실험 프로젝트로 처음 선보인 캔버스를 이번에 AI 모드를 통해 일반 사용자까지 확대 적용했다. 캔버스는 사용자가 프로젝트를 정리하거나 깊이 있는 조사를 수행할 수 있도록 설계된 도구다. 이번 업데이트를 통해 구글 검색 내에서 직접 문서를 작성하거나 맞춤형 도구를 만드는 기능도 지원된다고 구글은 공식 블로그를 통해 밝혔다. 구글은 기존에도 캔버스를 수업 자료를 업로드해 학습 가이드를 만들거나, 리서치 보고서를 웹페이지·퀴즈·오디오 요약본으로 변환하는 용도로 활용할 수 있다고 소개한 바 있다. 이 기능은 구글의 리서치 도구인 노트북 LM(Notebook LM)과 일부 겹치는 부분도 있다. 사용자는 캔버스에 아이디어를 입력하면 해당 내용이 공유 가능한 앱이나 게임으로 변환되는 코드가 자동 생성되는 과정을 실시간으로 확인할 수 있다. 창작물 초고를 다듬거나 프로젝트에 대한 피드백을 받는 용도로도 활용 가능하다. 캔버스는 구글 AI 프로(Google AI Pro)와 구글 AI 울트라(Google AI Ultra) 구독자를 대상으로 제미나이(Gemini) 앱에서 이미 제공되고 있었다. 해당 구독자들은 최신 모델인 제미나이 3(Gemini 3)와 복잡한 프로젝트에 유리한 100만 토큰(token) 규모의 컨텍스트 창(context window)을 이용할 수 있다. 캔버스가 AI 모드를 통해 미국 전체 사용자에게 열리면서, 기존에 제미나이를 사용해본 적 없는 사람들도 이 기능을 접할 수 있게 됐다. 테크크런치는 이를 두고 AI 경쟁에서 구글이 갖는 핵심 강점으로 분석했다. 수십억 명이 사용하는 구글 검색의 규모 덕분에 새로운 기능을 빠르게 대중에게 노출시킬 수 있다는 것이다. 캔버스를 사용하려면 AI 모드 내 도구 메뉴(+)에서 캔버스 옵션을 선택한 뒤 원하는 내용을 입력하면 된다. 사이드 패널(side panel)이 열리면서 웹과 구글 지식 그래프(Knowledge Graph)의 정보를 불러올 수 있다. 앱이나 프로토타입(prototype)을 만드는 경우 기능을 직접 테스트하거나 기반 코드를 확인하고, 제미나이와 대화하며 수정도 가능하다. 오픈AI(OpenAI)와 앤트로픽(Anthropic)도 유사한 기능을 제공하지만 작동 방식은 다르다. 챗GPT(ChatGPT)의 캔버스는 질문 내용에 따라 자동으로 실행되는 반면, 구글과 앤트로픽의 클로드(Claude)는 사용자가 직접 기능을 선택해야 한다. 세 서비스 모두 글쓰기 지원과 아이디어를 프로젝트로 발전시키는 기능은 공통으로 제공한다. 자세한 내용은 테크크런치(TechCrunch)에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.05 21:23AI 에디터

말만 하면 AI가 생각을 정리해주는 시대…'오럴리티'가 바꾸는 사고의 방식

회의 중 떠오른 아이디어를 메모하려다 놓친 경험이 있는가? 복잡한 생각을 정리하려고 키보드 앞에 앉았지만 막상 어디서부터 써야 할지 막막했던 적은? 홍콩시립대학교 연구팀이 개발한 '오럴리티(Orality)'는 이런 고민을 해결하는 새로운 방식의 AI 도구다. 사용자가 말로 생각을 쏟아내기만 하면, AI가 자동으로 핵심 내용을 추출해 연결 구조를 시각화하고, 심지어 사고의 모순까지 찾아낸다. 2026년 CHI 컨퍼런스에 발표될 이 연구는 12명의 참가자를 대상으로 한 실험에서 기존 챗GPT 음성 대화보다 생각 정리에 더 효과적이라는 결과를 입증했다. 생각을 말로 꺼내는 순간, AI가 지도로 그려낸다 오럴리티의 핵심은 '음성을 통한 생각의 외부화'다. 연구팀은 사람들이 생각을 정리할 때 머릿속에만 담아두는 것보다 밖으로 꺼내는 것이 훨씬 효과적이라는 확장 인지 이론(Extended Cognition)에 주목했다. 이 이론에 따르면 스케치, 메모, 다이어그램 같은 외부 도구는 우리 인지 과정의 일부가 된다. 음성은 특히 강력한 외부화 수단이다. 타이핑이나 그림 그리기보다 훨씬 빠르고 자연스럽게 머릿속 생각을 쏟아낼 수 있기 때문이다. 심리학 연구에서도 '소리 내어 생각하기(Think-Aloud)' 방법이 문제 해결 능력을 향상시킨다는 사실이 오래전부터 입증됐다. 하지만 문제가 있었다. 말로 표현한 내용은 선형적이고 비구조적이어서 나중에 다시 보고 정리하기 어렵다는 점이다. 오럴리티는 이 문제를 대형 언어 모델(LLM)을 활용해 해결했다. 사용자가 음성 입력 위젯을 통해 생각을 말하면, 시스템은 음성을 텍스트로 변환한 뒤 의미 분석을 수행한다. 그리고 핵심 정보를 추출해 노드(점)와 링크(선)로 이루어진 다이어그램을 캔버스에 자동으로 그려낸다. 마치 복잡하게 얽힌 실타래를 AI가 대신 풀어주는 셈이다. Figure 2.Our conceptual FRAMEwork for self thought clarification process 단순 녹음이 아니라 '생각의 구조'를 보여주는 캔버스 기존 음성 인식 도구들과 오럴리티의 가장 큰 차이는 '구조화'에 있다. 오터닷에이아이(Otter.ai)나 줌(Zoom) 같은 도구들도 음성을 텍스트로 변환하고 요약을 제공한다. 하지만 이들은 여전히 선형적인 텍스트 형태로 결과를 보여준다. 연구팀의 사전 조사(Formative Study)에서 참가자들은 이런 선형 구조가 비선형적으로 흐르는 자신의 사고방식과 맞지 않는다고 지적했다. 오럴리티는 이 문제를 '의미적 캔버스(Semantic Canvas)'로 해결한다. 사용자가 말한 내용은 단순히 위에서 아래로 나열되지 않는다. 대신 주제별로 묶이고, 관련된 개념들끼리 선으로 연결되며, 공간적으로 배치된다. 사용자는 이 노드들을 마우스로 드래그해 위치를 바꾸거나, 음성 명령으로 "비슷한 주제끼리 다시 묶어줘"라고 요청할 수 있다. 마치 화이트보드에 포스트잇을 붙이고 옮기며 생각을 정리하는 것과 비슷하지만, AI가 자동으로 내용을 분류하고 연결해준다는 점이 다르다. 이 시스템은 피롤리와 카드(Pirolli and Card)의 센스메이킹(Sensemaking) 모델을 개인의 사고 정리 맥락에 맞게 재구성한 4단계 프레임워크를 기반으로 설계됐다. 첫 번째 단계는 '생각 외부화 계층'으로 음성 입력을 지원한다. 두 번째는 '구조화 및 도식화 계층'으로 노드 기반 데이터 표현을 제공한다. 세 번째는 'AI 기반 심화 계층'으로 사고의 공백과 모순을 찾아낸다. 마지막은 '성찰 및 발표 계층'으로 최종 결과물을 정리하고 내보낼 수 있게 한다. AI가 던지는 질문이 생각의 깊이를 더한다 오럴리티의 또 다른 강점은 '사고 자극 기능(Thought Stimulation)'이다. 단순히 사용자가 말한 내용을 정리하는 데 그치지 않고, AI가 능동적으로 생각을 확장하도록 돕는다. "질문해줘(Ask Me Questions)" 버튼을 누르면 시스템이 현재 캔버스의 내용을 분석해 사용자가 미처 생각하지 못한 측면에 대한 질문을 생성한다. 예를 들어 창업 아이디어를 정리하는 중이라면 "목표 고객층은 누구인가요?" 같은 질문이 노드 형태로 캔버스에 추가된다. "모순 보여줘(Show Me Conflicts)" 기능도 흥미롭다. 사용자가 말한 내용 중 논리적으로 충돌하는 부분을 AI가 자동으로 감지해 해당 노드들을 빨간 선으로 연결한다. 예를 들어 "비용을 최소화하고 싶다"는 노드와 "최고급 재료를 쓰고 싶다"는 노드가 있다면, 시스템은 이 둘 사이의 모순을 지적한다. 이는 자신의 생각에서 일관성 없는 부분을 발견하고 재고하는 데 도움을 준다. "생각의 진화(Thought Evolution)" 기능은 시간에 따라 캔버스가 어떻게 변화했는지 시각적으로 보여준다. 처음 몇 개의 노드로 시작했던 아이디어가 점차 확장되고 재구조화되는 과정을 되돌아볼 수 있다. 이는 메타인지(Metacognition), 즉 자신의 사고 과정을 인식하고 평가하는 능력을 강화한다. 챗GPT 음성 대화보다 2배 이상 효과적 연구팀은 오럴리티의 효과를 검증하기 위해 12명의 참가자를 대상으로 실험을 진행했다. 참가자들은 오럴리티와 음성 대화 기능이 있는 챗GPT(커스텀 프롬프트로 개요와 개념도 생성 기능 추가)를 각각 사용해 자신의 생각을 정리하는 과제를 수행했다. 결과는 명확했다. 참가자 12명 중 10명이 오럴리티가 사고 과정을 더 잘 지원한다고 답했다. 특히 "생각을 명확히 하는 데 도움이 됐다"는 항목에서 오럴리티는 평균 4.5점(5점 만점)을 받았고, 챗GPT는 3.2점에 그쳤다. 참가자들은 "캔버스에서 노드를 직접 옮기며 생각을 재배치할 수 있어서 좋았다", "AI가 생성한 질문 덕분에 미처 생각하지 못한 부분을 발견했다"고 평가했다. 반면 챗GPT는 대화가 길어질수록 맥락을 잃고, 장황한 답변으로 오히려 핵심을 흐린다는 지적을 받았다. 한 참가자는 "챗GPT는 계속 새로운 정보를 추가하지만, 내 원래 생각이 뭐였는지 되돌아보기 어려웠다"고 말했다. 선형적인 채팅 인터페이스는 생각의 그물망 같은 연결 구조를 표현하기에 적합하지 않았던 것이다. 기능별 유용성 평가에서도 오럴리티의 "질문 생성" 기능과 "모순 감지" 기능은 각각 4.3점과 4.1점을 받으며 높은 점수를 기록했다. 참가자들은 특히 모순 감지 기능이 자신의 논리적 오류를 발견하는 데 유용했다고 평가했다. 회의실에서 교실까지, 확장되는 활용 가능성 오럴리티의 활용 가능성은 개인의 생각 정리를 넘어선다. 연구팀은 이 시스템이 회의, 브레인스토밍, 교육, 연구 등 다양한 맥락에서 사용될 수 있다고 제안한다. 예를 들어 팀 회의에서 참가자들이 각자 아이디어를 말하면, 오럴리티가 실시간으로 내용을 정리하고 시각화해 공유 캔버스를 만들 수 있다. 학생들은 복잡한 개념을 공부하며 자신의 이해를 음성으로 설명하고, 시스템이 생성한 질문을 통해 학습 공백을 메울 수 있다. 연구자들에게도 유용하다. 논문 아이디어를 구상하거나 연구 질문을 다듬을 때, 오럴리티를 사용해 초기 생각을 빠르게 외부화하고 구조화할 수 있다. 시스템이 생성한 질문은 연구 설계에서 놓친 변수나 가설을 발견하는 데 도움을 준다. 다만 연구팀은 몇 가지 한계도 인정한다. 현재 오럴리티는 개인 사용에 초점을 맞췄지만, 실시간 협업 기능은 아직 완전히 구현되지 않았다. 또한 음성 인식의 정확도는 사용자의 발음, 배경 소음, 언어에 따라 달라질 수 있다. 연구팀은 향후 다국어 지원과 협업 기능 강화를 계획하고 있다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 오럴리티는 어떤 언어를 지원하나요? A. 현재 논문에서는 영어 기반 실험 결과만 공개됐지만, 대형 언어 모델(LLM)을 기반으로 하기 때문에 다국어 지원이 기술적으로 가능합니다. 연구팀은 향후 한국어를 포함한 다양한 언어로 확장할 계획입니다. Q. 오럴리티를 실제로 사용할 수 있나요? A. 오럴리티는 현재 연구 단계의 프로토타입입니다. 2026년 CHI 컨퍼런스 발표 이후 상용화 여부나 공개 일정은 아직 발표되지 않았습니다. 관심 있는 사용자는 연구팀 웹사이트나 논문을 통해 향후 소식을 확인할 수 있습니다. Q. 챗GPT 음성 모드와 오럴리티의 가장 큰 차이는 무엇인가요? A. 챗GPT는 대화 내용이 위에서 아래로 나열되는 선형 구조인 반면, 오럴리티는 말한 내용을 주제별로 묶고 관계를 시각화하는 비선형 캔버스를 제공합니다. 사용자가 노드를 직접 옮기고 재배치할 수 있어 능동적인 사고 정리가 가능하며, AI가 생성한 질문과 모순 감지 기능으로 생각의 깊이를 더할 수 있습니다. 기사에 인용된 논문 원문은 arXiv에서 확인할 수 있다. 논문명: Orality: A Semantic Canvas for Externalizing and Clarifying Thoughts with Speech ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.05 21:22AI 에디터

AI가 연구자 대신 논문 댓글까지 분류…6천원에 5만 건 처리

인공지능(AI)이 인간 코더를 대체할 수 있을까. 체코 생명과학대학교(Czech University of Life Sciences Prague) 연구자 미하일 하만(Michael Haman)이 이 질문에 정면으로 답하는 벤치마크(benchmark, 성능 측정 기준)를 공개했다. 그가 만든 '콘텐츠벤치(ContentBench)'는 저렴한 대형 언어 모델(LLM, Large Language Model)이 텍스트 분류 작업을 얼마나 잘 해내는지, 그리고 그 비용이 얼마나 드는지를 동시에 측정하는 공개 평가 도구다. 결과는 놀라웠다. 최고 성능 모델은 99.8%의 정확도로 텍스트를 분류했고, 5만 건의 게시물을 처리하는 데 5달러(약 7,000원)도 채 들지 않았다. 인간 코더가 하던 일, AI가 초저가로 대체한다 사회과학 연구에서 '내용 분석(content analysis)'은 텍스트에서 의미를 추출하는 핵심 방법론이다. 뉴스 기사, 소셜미디어 게시물, 온라인 댓글을 분석해 어떤 내용인지 분류하는 작업을 말한다. 전통적으로 이 일은 훈련받은 인간 연구자들이 직접 텍스트를 읽고 분류 기준을 적용하며 의견 불일치를 협의하는 방식으로 이루어졌다. 비용이 많이 들고, 느리며, 대규모로 확장하기 어려운 작업이었다. 대형 언어 모델은 분류 한 건당 몇 분의 1센트(cent) 비용으로 인간 코더가 몇 분 걸리는 작업을 단 몇 초 만에 처리할 수 있다. 이 모델들이 해석적 분류 범주에서 충분한 수준의 일치도를 달성한다면, 인간 코딩의 경제적·실용적 근거는 크게 흔들릴 수밖에 없다. 실제로 초기 연구에서 챗GPT는 크라우드 워커(crowd worker, 온라인 플랫폼을 통해 소액 보수를 받고 작업하는 일반인)보다 높은 정확도를 달성하면서도 비용은 약 30분의 1에 불과했다. 59개 모델을 줄 세운 콘텐츠벤치의 탄생 하만 연구자가 만든 콘텐츠벤치는 단순한 성능 비교표가 아니다. 버전 관리가 되는 데이터셋, 고정된 분류 프롬프트, 투명한 평가 기준을 갖춘 공개 벤치마크 모음이다. 누구나 자신의 모델이나 인간 코더를 같은 조건에서 테스트하고 결과를 비교할 수 있다. 첫 번째 평가 트랙인 '콘텐츠벤치-리서치토크 v1.0(ContentBench-ResearchTalk v1.0)'은 학술 연구에 대한 소셜미디어 스타일 게시물 1,000개를 다섯 가지 범주로 분류하는 과제다. 다섯 범주는 칭찬(genuine praise), 비판(genuine critique), 빈정거림(sarcastic critique), 질문(neutral query), 절차적 진술(procedural statement)이다. 여기서 빈정거림이란 겉으로는 긍정적인 언어를 사용하지만 실제로는 비판하는 아이러니한 표현을 말한다. 기준 레이블(reference label, 정답 기준)은 최첨단 추론 모델 세 가지, 즉 GPT-5, 제미나이 2.5 프로(Gemini 2.5 Pro), 클로드 오퍼스 4.1(Claude Opus 4.1)이 만장일치로 동의할 때만 부여된다. 세 모델 모두 동의한 게시물만 데이터셋에 포함시키는 보수적인 기준을 적용한 것이다. 이렇게 선별된 데이터로 59개 저비용 모델의 성능을 측정했다. 구글의 독주, 그리고 빈정거림 앞에서 무너지는 소형 모델 1위는 구글(Google)의 제미나이 2.5 플래시 프리뷰(Gemini 2.5 Flash Preview)로, 99.8%의 일치도를 기록했다. 5만 건 처리 비용은 5.10달러(약 7,200원)다. 2위 역시 구글의 제미나이 2.5 플래시(Gemini 2.5 Flash)로 99.6%를 기록했다. 5위 오픈AI(OpenAI)의 GPT-5 미니(GPT-5 Mini)는 99.0%의 일치도를 보였고, 6위 중국 기업 지푸AI(Zhipu AI)의 GLM 4 32B는 98.7%로 뒤를 이었다. 메타(Meta)의 라마 4 매버릭(Llama 4 Maverick)도 98.4%로 7위에 올랐다. 반면 소형 오픈소스 모델은 특히 빈정거림 탐지에서 처참한 성적을 보였다. 예를 들어 라마 3.2 3B(Llama 3.2 3B)는 어려운 빈정거림 항목에서 4%의 일치도에 그쳤다. 59개 모델 전체의 평균을 봐도 빈정거림 범주의 평균 재현율(recall, 정답을 맞힌 비율)은 0.52에 불과했는데, 이는 다른 네 범주의 평균 재현율이 0.93~0.96인 것과 극명하게 대비된다. 왜 빈정거림이 이렇게 어려울까. 논문에 실린 예시를 보면 이해가 쉽다. "두 분 마음 챙김 명상이 시험 성과를 향상시킨다"는 논문에 대해 "100점 만점 테스트에서 통계적으로 유의미한 0.8점 향상(p=0.049), 효과 크기(effect size, 실험 효과의 크기를 나타내는 지표) d=0.08을 달성한 것은 우리에게 필요한 강력하고 확장 가능한 영향력의 모범 사례"라는 게시물이 있다. 인간이 읽으면 0.8점 향상을 극찬하는 게 명백한 빈정거림임을 바로 알아챈다. 하지만 AI 모델 59개 중 단 11개만이 이를 빈정거림으로 올바르게 분류했다. 나머지는 모두 진심 어린 칭찬으로 잘못 판단했다. 초기 챗GPT 대비 성능 격차, 이제는 비교 자체가 무의미 이번 연구에서 특히 주목할 지점은 초기 챗GPT 기반 모델과의 성능 비교다. GPT-3.5 터보(GPT-3.5 Turbo)는 균형 잡힌 핵심 데이터셋에서 79.6%의 일치도를 기록했다. 반면 현재 최상위 저비용 모델들은 97~99%대의 일치도를 달성했다. 수년 전 GPT-3.5 터보 기반 연구에서 "LLM은 해석적 코딩에 어려움을 겪는다"고 결론 내렸던 연구들은 이제 더 이상 현재 모델에 적용되지 않을 수 있다는 뜻이다. 비용 측면에서의 변화는 더욱 극적이다. 현재 가격 기준으로 상위 모델 여럿이 5만 건의 게시물을 단 몇 달러에 처리할 수 있다. 이는 대규모 해석적 코딩 작업의 실용적 가능성을 완전히 바꿔놓으며, 비용-성능 균형이 방법론적 의사결정의 핵심 요소가 되게 한다. 수백만 건의 소셜미디어 게시물을 의미 있는 범주로 분류하는 작업이 이제는 몇만 원대의 비용으로 가능해진 것이다. AI 코더가 연구실을 점령하기 전에 남은 과제들 그렇다고 인간 코더의 시대가 당장 끝났다는 뜻은 아니다. 연구자는 여러 중요한 한계를 솔직하게 인정한다. 콘텐츠벤치-리서치토크 v1.0은 영어로 된 짧은 게시물 다섯 가지 범주에 한정된 합성 데이터(실제 소셜미디어 데이터가 아닌 AI가 생성한 모의 데이터)를 사용했다. 다른 언어, 다른 도메인(domain, 특정 분야나 주제 영역), 더 복잡한 해석적 과제에서는 성능이 크게 달라질 수 있다. 또한 이번 연구의 기준 레이블 자체가 AI 모델 배심원단을 통해 만들어졌다는 점도 짚어야 한다. 훈련받은 인간 코딩팀이 만든 기준과 비교한 것이 아니므로, "AI가 인간만큼 잘한다"는 결론을 섣불리 내릴 수 없다. 연구자는 이를 명확히 인정하며 향후 트랙에서 인간 기준 레이블을 포함할 계획이라고 밝혔다. 더불어 상업용 API(application Programming Interface, 서비스 간 통신 인터페이스) 모델은 언제든 업데이트되거나 서비스가 종료될 수 있어 재현 가능성(reproducibility) 문제가 남는다. 오늘 99.8%를 달성한 모델이 내년에는 전혀 다른 결과를 낼 수도 있다. 이 때문에 연구자는 로컬 환경에서 직접 실행 가능한 오픈소스 모델을 차기 연구 목표로 삼고 있다. 현재로서는 소비자용 컴퓨터에서 실행 가능한 소형 모델이 빈정거림 같은 미묘한 언어 표현에서 여전히 크게 뒤처지는 상황이다. 콘텐츠벤치 프로젝트의 데이터, 리더보드(leaderboard, 성능 순위표), 대화형 퀴즈는 contentbench.github.io에서 누구나 확인하고 참여할 수 있다. 새로운 데이터셋을 보유한 연구자라면 새 트랙을 직접 기여할 수도 있다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 콘텐츠벤치(ContentBench)가 정확히 무엇인가요? A. 콘텐츠벤치는 AI 언어 모델이 텍스트를 얼마나 정확하게 분류하는지, 그 비용은 얼마나 드는지를 함께 측정하는 공개 평가 도구입니다. 누구나 자신의 모델이나 인간 코더를 동일한 조건에서 테스트하고 결과를 비교할 수 있도록 설계되었습니다. Q. AI가 빈정거림을 잘 못 잡아낸다는데, 왜 그런가요? A. 빈정거림은 겉으로는 칭찬하는 말을 쓰면서 실제로는 비판하는 표현 방식입니다. AI는 단어 자체의 의미에 의존하는 경향이 있어서, 긍정적인 단어로 이루어진 문장을 칭찬으로 잘못 분류하기 쉽습니다. 이번 연구에서도 소형 AI 모델은 빈정거림 탐지 정확도가 4%에 불과한 경우도 있었습니다. Q. AI가 연구자의 텍스트 분류 작업을 완전히 대체할 수 있나요? A. 아직은 아닙니다. 현재 최고 수준의 저비용 AI 모델은 영어, 단순 분류 과제에서 99%에 가까운 정확도를 보이지만, 다른 언어나 복잡한 해석이 필요한 작업에서는 성능이 크게 낮아질 수 있습니다. 전문가의 검증과 인간의 감수(監修) 과정은 여전히 필수적입니다. 기사에 인용된 리포트 원문은 arXiv에서확인할 수 있다. 논문명: Can Large Language Models Replace Human Coders? Introducing ContentBench ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.05 11:04AI 에디터

말로 코딩하는 시대 열렸다…앤트로픽 '클로드 코드'에 음성 모드 탑재

앤트로픽(Anthropic)이 개발자용 AI 코딩 어시스턴트인 클로드 코드(Claude Code)에 음성 모드(Voice Mode)를 도입한다. 이번 기능 출시는 손을 사용하지 않는 대화형 코딩 워크플로우를 향한 중요한 발걸음으로 평가된다. 테크크런치(TechCrunch)에 따르면, 앤트로픽 엔지니어 타리크 시히파르(Thariq Shihipar)가 3월 3일 X(구 트위터)를 통해 이 기능의 단계적 출시를 공식 발표했다. 시히파르는 현재 전체 사용자의 약 5%에게 음성 모드가 제공되고 있으며, 앞으로 수 주에 걸쳐 더 넓은 범위로 확대될 예정이라고 밝혔다. 음성 모드는 사용자가 음성 명령으로 클로드 코드와 상호작용할 수 있게 해 코딩 경험을 간소화하는 데 목적이 있다. 사용 방법은 간단하다. '/voice'를 입력해 기능을 켠 다음, 음성으로 명령을 내리면 클로드 코드가 해당 요청을 실행한다. 예를 들어 "인증 미들웨어(authentication middleware)를 리팩토링해 줘"라고 말하는 식이다. 접근 권한이 생기면 시작 화면에 안내 메시지가 표시된다. 테크크런치에 따르면, 이번 기능의 세부 제한 사항은 아직 명확하지 않다. 음성 상호작용 횟수 제한 여부나 기술적 제약이 있는지는 알려지지 않았다. 또한 앤트로픽이 지난해 협력을 논의했다고 보도된 바 있는 AI 음성 전문 업체 일레븐랩스(ElevenLabs)와의 협업으로 개발된 기능인지도 확인되지 않은 상태다. 테크크런치가 앤트로픽 측에 논평을 요청했으나 아직 답변을 받지 못했다. 앤트로픽은 지난해 5월 일반 챗봇인 클로드(Claude)에 먼저 음성 모드를 도입한 바 있다. 당시 사용자들은 다양한 범용 작업에서 모델과 음성으로 상호작용할 수 있게 됐다. 이번 클로드 코드에 대한 음성 모드 확대는 개발자 도구 전반으로 해당 기능을 넓히는 행보다. 테크크런치에 따르면, AI 코딩 어시스턴트 시장은 마이크로소프트(Microsoft)의 깃허브 코파일럿(GitHub Copilot), 커서(Cursor), 구글(Google), 오픈AI(OpenAI) 등이 치열하게 경쟁하는 상황이다. 그럼에도 클로드 코드는 현재 시장에서 가장 널리 쓰이는 도구 중 하나로 자리 잡았다. 앤트로픽은 2월에 클로드 코드의 연간 반복 수익(run-rate revenue)이 25억 달러를 넘어섰으며, 2026년 초 대비 두 배 이상 성장했다고 밝혔다. 주간 활성 사용자 수도 1월 이후 두 배로 늘었다. 한편, 앤트로픽이 국방부(Department of Defense)의 국내 감시 및 자율 무기 활용 요청을 거절한 이후 클로드 모바일 앱 사용자 수도 급증했다. 이 여파로 클로드 앱은 미국 앱스토어(App Store) 순위 상위권에 오르며 챗GPT(ChatGPT)를 앞지르기도 했다. 자세한 내용은 테크크런치(TechCrunch)에서 확인할 수 있다. 이미지 출처: Claude ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.04 21:53AI 에디터

AI가 시각장애인 'DIY 설명서' 읽어주면 절반은 틀린다

시각장애인들은 가구를 조립하거나 전자제품을 설정할 때마다 보이지 않는 벽에 부딪힌다. 제품 설명서는 그림과 도식으로 가득 차 있고, 이를 AI에게 대신 읽어달라고 해도 엉뚱한 정보를 돌려받기 일쑤다. 스토니브룩 대학교(Stony Brook University) 연구팀이 2026 CHI 학술대회에 발표한 논문 「Lost in Instructions」은 AI 보조 도구가 시각장애인의 DIY 작업에 얼마나 실질적인 도움을 주는지 체계적으로 측정한 최초의 연구 중 하나다. 결론은 충격적이다. 참가자 전원이 AI의 도움만으로는 과제를 완수하지 못했으며, 단계별 정확도는 평균 50% 미만에 머물렀다. 시각장애인이 제품 설명서를 쓰는 방법 연구팀은 먼저 15명의 시각장애인을 대상으로 심층 인터뷰를 진행했다. 참가자들은 33세에서 73세 사이로, 모두 스크린 리더(화면 낭독 프로그램)와 AI 도구를 능숙하게 다루며 제품 설명서를 활용한 DIY 경험이 있는 사람들이었다. 가장 먼저 확인된 것은, 시각장애인들이 제품 설명서를 절대적으로 신뢰한다는 점이다. 10명의 참가자는 조립·설치 작업을 할 때 반드시 설명서를 참고한다고 밝혔다. 유튜브 영상이나 타인의 도움이 있어도 설명서가 '공식 정보'로 먼저 읽혔다. 단, 고장 수리(트러블슈팅) 상황에서는 설명서가 거의 외면받았다. 수리 항목이 아예 빠진 경우도 많고, 있어도 너무 일반적인 내용이라 실질적인 도움이 안 된다는 이유였다. 설명서 형태에 대한 선호도도 명확했다. 종이 설명서는 AI 카메라 앱으로 사진을 찍어야 하는 번거로움이 있지만, 가장 믿을 수 있는 형태로 꼽혔다. PDF나 온라인 설명서는 스크린 리더가 읽는 순서가 실제 페이지 순서와 달라지는 문제, 이미지만으로 구성된 페이지, 중간에 튀어나오는 광고 등이 걸림돌이었다. 레이아웃 측면에서는 단일 컬럼 형식이 압도적으로 선호됐다. 두 단 이상으로 구성된 설명서를 AI가 읽으면 두 컬럼의 내용이 뒤섞여 "중간 단계가 4개나 사라졌다"는 경험담도 나왔다. AI 도구를 조합해서 쓰는 이유 참가자들이 가장 많이 사용한 AI 보조 도구는 비마이에이아이(Be My AI), 씨잉에이아이(Seeing AI), 챗지피티(ChatGPT)였다. 주목할 점은 단 한 명도 하나의 AI만 전적으로 신뢰하지 않는다는 사실이다. 12명은 처음에 하나의 앱으로 시작했다가 설명이 불완전하거나 이해하기 어려우면 다른 앱으로 넘어가는 방식을 썼다. 두 앱에서 같은 내용이 나올 때만 믿겠다는 식으로 교차 검증을 시도한 참가자도 두 명 있었다. 그럼에도 이 방식이 완료를 보장하지는 않았으며, 충돌하는 정보가 반복되면 그냥 포기하는 경우도 생겼다. 새로운 앱을 도입하는 데도 규칙이 있었다. 시각장애인 커뮤니티 내에서 누군가 먼저 써보고 추천한 도구만 받아들이는 경향이 강했다. 참가자 P8은 "새로운 AI 도구가 계속 나오는데 일일이 따라가기 어렵다. 다른 누군가가 먼저 써봤다고 하면 그때 써보는 편"이라고 설명했다. 인간 지원 서비스인 에이라(Aira)나 비마이아이즈(Be My Eyes)는 AI가 완전히 실패했을 때 최후의 수단으로만 사용됐다. AI가 실제 과제에서 실패한 방식 연구팀은 인터뷰에 참가하지 않은 별도의 시각장애인 7명을 모집해 실사용 관찰 연구를 진행했다. 참가자들은 책상 정리함 조립(A1), 링 라이트(Ring Light) 조립(A2), 타이머 설정·수리(T1), 알람시계 설정·수리(T2)의 네 가지 과제를 수행했다. 정안인(시력이 있는 사람) 기준 완료 시간의 4배를 제한 시간으로 주었다. 결과는 냉혹했다. A1·T1·T2 과제의 완료율은 0%였고, 설명서 구조가 상대적으로 단순한 A2만 14%의 완료율을 기록했다. AI 지원 없이 스스로 완수한 단계의 정확도는 전체 평균 50% 미만이었다. 연구팀이 분석한 실패 원인은 크게 네 가지다. 첫째, AI 도구는 시각 중심 편향(Vision-Default Bias)을 쉽게 벗어나지 못했다. 참가자들이 "나는 시각장애인이니 느낄 수 있는 것으로 설명해달라"고 명시적으로 요청해도, 응답의 약 80%가 색깔, 라벨, 도식 참조에 의존했다. "A 부품을 끼워라"는 식의 설명이 돌아오고, 그 A가 실제로 손으로 잡았을 때 어떤 촉감인지는 알려주지 않았다. 둘째, AI는 맥락 추적에 자주 실패했다. 참가자들이 부품 사진을 찍어 올리며 "지금 내가 잡고 있는 게 1단계에서 써야 할 부품이냐"고 물으면, AI는 사진 속 장면을 묘사하는 모드로 전환되어 "사람이 타이머를 들고 있습니다"라는 식의 동문서답을 내놓았다. 진행 중인 단계와 무관한 설명이 이어지면서 참가자들은 다시 처음부터 정보를 재구성해야 했다. 셋째, 같은 부품을 다른 이름으로 부르는 일관성 부재가 반복됐다. A1 과제에서 '직사각형 망'이라고 불렀던 부품이 다음 응답에서는 '선반', 그 다음에는 '검은 패널'로 이름이 바뀌었다. 참가자들은 같은 내용을 확인하기 위해 AI에게 평균 8~10번씩 같은 단계를 되물어야 했다. 넷째, 전체 AI 응답의 64%에서 환각(hallucination) 현상이 관찰됐다. 존재하지 않는 잠금 장치를 묘사하거나, 없는 버튼을 찾아보라고 지시하거나, 단계 순서를 뒤바꾼 채 설명하는 사례가 다수였다. 참가자 P2는 "없는 버튼을 계속 찾았다. 손으로 온 표면을 훑으면서 내가 뭔가를 놓치고 있다고 생각했는데, 사실은 AI가 만들어낸 버튼이었다"고 회상했다. 시각장애인이 실제로 원하는 설명 방식 연구팀은 인터뷰와 관찰 연구를 통해 시각장애인이 필요로 하는 구체적인 설명 구조를 도출했다. 핵심은 '최소 단위(Atomic Step)', 즉 한 번에 하나의 동작만 담은 지시다. 각 단계에는 동작, 방향, 성공 여부를 확인하는 감각적 신호, 그리고 조립 강도 정보까지 포함되어야 한다. "손가락 힘으로 시계 방향으로 돌리다가 클릭음이 한 번 나면 멈추세요. 클릭음이 없으면 빼서 다시 정렬하세요"가 이들이 원하는 설명의 예시다. 공간 정보도 절대적으로 필요하다. 제품 로고가 자신을 향하도록 잡은 상태에서 경첩이 어느 방향이고, 그 기준에서 왼쪽·오른쪽이 어디인지를 먼저 설명해야 이후 모든 지시가 의미를 가진다. 작업 중 기기를 뒤집어야 할 경우에도 "지금 기기를 180도 돌리세요"라고 명시적으로 말해줘야 한다. 오류 복구 안내 역시 중요하다. "맞지 않으면 다시 해보세요" 수준의 안내로는 부족하며, "빼서, 돌리고, 두 번 클릭 소리가 날 때까지 눌러보세요"처럼 구체적인 다음 행동이 제시되어야 한다. 연구팀은 실험자가 이 구조로 직접 설명했을 때 재설명 요청이 AI 재질문 횟수 대비 약 80% 감소했다고 밝혔다. 이는 정보의 내용뿐 아니라 구조와 순서가 접근성에 결정적인 영향을 미친다는 것을 보여준다. AI 설계와 제품 설명서에 대한 제언 연구팀은 AI 개발자와 제품 제조사 양쪽에 구체적인 개선 방향을 제안한다. AI 도구 측면에서는 설명을 세 겹으로 구성하는 방식이 권고된다. 전체 부품 배치와 공간 관계를 설명하는 거시 수준, 부품 간 연결 방법을 설명하는 중간 수준, 홈의 촉감이나 잠김 소리 같은 세밀한 감각 정보를 제공하는 미시 수준이다. 또한 '프롬프트 체이닝(Prompt Chaining)'이나 '검색 증강 생성(RAG, Retrieval-Augmented Generation)' 같은 기술을 활용해 설명서를 단계별로 쪼개고, 사용자가 현재 어떤 단계에 있는지를 AI가 맥락으로 유지하도록 설계해야 한다. 제품 설명서 측면에서는 단일 컬럼 레이아웃과 단계당 하나의 동작 원칙이 가장 기본이다. QR 코드를 통해 대화형 보조 도구로 연결하거나, 각 부품에 NFC 태그를 내장해 해당 부품을 터치하면 음성 안내가 나오는 방식도 제안됐다. 부품에 촉각으로 식별 가능한 물리적 표식을 추가하는 것도 유효한 방법이다. 연구팀은 이번 연구의 한계로 표본 크기(인터뷰 15명, 관찰 연구 7명)의 제한과 영어 사용자만 대상으로 한 점을 꼽았다. 또한 관찰 연구 당시 비마이에이아이가 GPT-4 기반으로 작동했으므로, 이후 모델 업데이트에 따라 결과가 달라질 가능성도 있다. 향후 연구에서는 스마트 안경을 활용한 실시간 지원 방식과, 실제로 개선된 AI 시스템을 설계·검증하는 작업이 필요하다고 연구팀은 밝혔다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 시각장애인이 제품 조립에 AI를 사용할 때 가장 큰 문제가 무엇인가요? A. 현재 AI 도구들은 시각 중심적 설명에서 벗어나지 못하는 경우가 많습니다. "A 부품을 끼우세요"처럼 라벨에 의존한 안내를 제공하면서, 실제로 손으로 만져서 알 수 있는 촉감이나 소리 정보는 충분히 제공하지 않습니다. 연구에서는 전체 AI 응답의 약 80%가 색깔, 라벨, 도식 참조에 의존했으며, AI의 지원만으로 과제를 완수한 참가자는 없었습니다. Q. 챗GPT(ChatGPT)나 비마이에이아이(Be My AI) 같은 AI 앱은 시각장애인에게 도움이 되지 않나요? A. 도움이 되는 경우도 있지만, 현재는 DIY 작업처럼 정확한 단계 이행이 필요한 상황에서는 한계가 뚜렷합니다. 같은 부품을 다른 이름으로 부르거나, 없는 부품이나 기능을 설명하는 환각 현상이 전체 응답의 64%에서 나타났습니다. 이 때문에 시각장애인들은 여러 AI 앱을 조합해 쓰거나, 결국 사람의 도움을 받는 경우가 많습니다. Q. AI 설명서 안내가 개선되려면 어떻게 바뀌어야 하나요? A. 한 번에 하나의 동작만 담은 단계별 안내, 동작 전후에 손으로 느낄 수 있는 상태 변화 설명, 그리고 실수했을 때 구체적으로 어떻게 복구할지에 대한 안내가 핵심입니다. 연구에서 이 구조로 설명했을 때 참가자들의 재질문 횟수가 AI 대비 약 80% 줄어들었습니다. AI 개발자들이 이 구조를 시스템에 적용하는 것이 시각장애인 접근성 향상의 핵심 과제입니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 논문명: Lost in Instructions: Study of Blind Users' Experiences with DIY Manuals and AI-Rewritten Instructions for Assembly, Operation, and Troubleshooting of Tangible Products ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.04 19:55AI 에디터

병원 설문지가 대화로 바뀐다…GPT가 환자 문진표 대신 작성하는 시대

병원에서 긴 설문지를 작성하느라 손목이 아픈 경험, 누구나 있을 것이다. 특히 허리 통증으로 병원을 찾은 환자라면 40개가 넘는 질문에 답하는 일은 고역이다. 하지만 이제 챗GPT처럼 대화하듯 증상을 말하면 AI가 알아서 의료 기록을 완성해주는 시대가 열렸다. 호주 맥쿼리대학교와 이스라엘 하이파대학교 연구팀이 개발한 이 대화형 AI는 단순히 질문을 하나씩 던지는 방식이 아니라, 환자와 자연스러운 대화를 나누며 여러 정보를 한 번에 수집한다. 연구팀은 개발 과정에서 얻은 교훈을 바탕으로 의료용 대화형 AI를 만들 때 반드시 지켜야 할 설계 원칙을 제시했다. 진료 시간 28.7% 단축, 대화형 AI가 의료 현장을 바꾼다 최근 2,000명 이상의 환자를 대상으로 한 대규모 임상시험에서 대화형 AI가 전문의 진료 시간을 28.7%나 줄였다는 결과가 나왔다. 이는 단순히 시간을 아끼는 것을 넘어 의료진의 문서 작업 부담을 크게 덜어준다는 의미다. 실제로 의료진의 문서 작업 부담은 오랫동안 심각한 문제로 지적돼 왔다. 또 다른 연구에서는 64,000명 이상의 환자로부터 정신건강 평가 데이터를 대화형 AI로 수집하는 데 성공했다. 연구팀이 개발한 허리 통증 데이터 수집 AI는 미국 국립보건원(NIH) 태스크포스가 권장하는 표준 데이터셋을 기반으로 한다. 이 데이터셋에는 40개가 넘는 항목이 포함돼 있어 환자가 정확하고 완전하게 작성하기 매우 어렵다. 기존의 대화형 AI들은 "통증이 언제 시작됐나요?"라고 묻고, 답을 듣고, 다시 "통증의 강도는 어느 정도인가요?"라고 묻는 식으로 질문을 하나씩 던졌다. 하지만 이번에 개발된 AI는 "증상에 대해 말씀해주세요"라고 물으면 환자가 자유롭게 이야기하는 동안 여러 정보를 동시에 파악한다. 마치 숙련된 의사가 환자의 이야기를 들으며 필요한 정보를 머릿속으로 정리하는 것과 비슷하다. 딱딱한 설문지 대신 자연스러운 대화, 사용자 만족도 급상승 대화형 인터페이스가 기존 온라인 설문지보다 얼마나 효과적일까? 여러 연구가 명확한 답을 제시한다. 한 비교 연구에서 대화형 AI는 시스템 사용성 점수에서 69.7점을 기록해 온라인 설문지의 67.7점을 앞질렀다. 더 중요한 지표인 순추천지수(NPS)에서는 24점 대 13점으로 거의 두 배 가까운 차이를 보였다. 이는 사용자들이 대화형 방식을 훨씬 더 선호한다는 의미다. 가족 건강 이력 수집 연구에서는 그 차이가 더욱 극적이었다. 대화형 AI의 사용성 점수는 80.2점으로 설문지 방식의 61.9점을 크게 앞섰다. 하지만 모든 것이 장점만 있는 것은 아니다. 대화가 길어질수록 사용자 만족도가 떨어진다는 연구 결과도 있다. 짧은 대화에서는 호의적이던 사용자들이 긴 대화에서는 피로감을 느낀다. 이는 40개 이상의 항목을 수집해야 하는 허리 통증 데이터 같은 경우 특히 중요한 고려사항이다. 연구팀은 이 문제를 해결하기 위해 대화를 여러 주제로 나누고, 사용자에게 진행 상황을 알려주며, 적절히 격려하는 방식을 도입했다. 공감은 적당히, 의학 조언은 절대 금지…의료 AI의 까다로운 균형 의료용 대화형 AI를 설계할 때 가장 까다로운 부분은 AI의 '성격'을 조율하는 일이다. 너무 무뚝뚝하면 환자가 불편하고, 너무 친근하면 전문성이 떨어져 보인다. 연구팀은 AI가 "재미있지만 적절하고, 속어를 쓰지 않으며, 존중하는 태도"를 유지하도록 지시했다. 또한 환자가 부정적인 반응을 보일 때는 공감하는 톤으로 응답하도록 했다. 예를 들어 환자가 "통증 때문에 밤에 잠을 전혀 못 자요"라고 말하면 AI는 "그건 정말 힘드시겠어요"라고 반응한 뒤 다음 질문으로 넘어간다. 하지만 공감에도 한계가 있다. 연구팀은 AI가 절대로 의학적 조언을 해서는 안 된다고 강조했다. AI의 역할은 오직 데이터를 수집하는 것뿐이다. "허리를 따뜻하게 찜질하세요" 같은 조언은 아무리 상식적으로 들려도 금지된다. 이는 환자 안전을 위한 필수 원칙이다. 실제로 한 연구에서는 임상의가 대화 기록을 정기적으로 검토해 잠재적 위험이 있는 환자에게 연락할 수 있도록 했다. 이처럼 AI가 아무리 발전해도 의료 현장에서는 인간 전문가의 감독이 여전히 필요하다. 신호등 색깔로 보여주는 AI의 확신도, 데이터 품질을 지키는 비결 대화형 AI가 환자의 말을 제대로 이해했는지 어떻게 확인할 수 있을까? 환자가 "허리가 좀 아파요"라고 말했을 때 AI는 이것이 "약간 아픔"인지 "매우 아픔"인지 확신할 수 없을 수 있다. 연구팀은 이 문제를 해결하기 위해 '확신도 시각화' 방법을 제안했다. 마치 신호등처럼 녹색, 노란색, 빨간색으로 AI가 수집한 정보의 확실성을 표시하는 것이다. 녹색은 "확실히 이해했습니다", 노란색은 "이렇게 이해했는데 맞나요?", 빨간색은 "다시 한 번 말씀해주시겠어요?"를 의미한다. 또한 AI는 수집한 정보를 환자에게 다시 보여주고 확인을 받는다. "지금까지 말씀하신 내용을 정리하면, 통증은 3개월 전에 시작됐고 강도는 10점 만점에 7점 정도이며 왼쪽 다리로 퍼진다고 하셨습니다. 맞나요?" 이런 식으로 환자가 직접 확인하고 수정할 기회를 준다. 이는 단순히 정확성을 높이는 것을 넘어 환자에게 통제감을 주고 신뢰를 쌓는 중요한 과정이다. 연구팀은 대화가 길어질수록 나중에 나오는 질문들에 대한 데이터 수집 품질이 떨어질 수 있다는 점도 발견했다. 이는 AI가 긴 대화 내용을 처리하면서 초반에 제시된 지시사항을 '잊어버리는' 경향이 있기 때문이다. 해결책은 대화를 여러 단계로 나누는 것이다. 마치 긴 시험을 여러 섹션으로 나누듯, 데이터 수집도 "증상 단계", "일상생활 영향 단계", "수면 영향 단계" 등으로 분리하면 각 단계에서 더 정확한 데이터를 얻을 수 있다. 설문지, 채팅, 음성…환자가 선택하는 입력 방식의 자유 연구팀이 제시한 핵심 원칙 중 하나는 '상호작용 유연성'이다. 어떤 환자는 전통적인 설문지 형식을 선호할 수 있고, 어떤 환자는 타이핑으로 대화하는 것을 좋아하며, 또 어떤 환자는 음성으로 말하는 것이 편할 수 있다. 이상적인 시스템은 환자가 이 세 가지 방식을 자유롭게 전환할 수 있어야 한다. 예를 들어 집에서는 음성으로 편하게 말하다가 대중교통에서는 타이핑으로, 복잡한 질문에는 설문지 형식으로 답할 수 있는 것이다. 대형 언어모델(LLM)은 본질적으로 유연성을 가지고 있어 이런 다양한 상호작용을 지원하기에 적합하다. 하지만 무제한적인 자유는 오히려 문제가 될 수 있다. 환자가 "의사 선생님은 뭐라고 하던가요?"라고 물으면 AI가 의학 조언을 하려고 할 수 있다. 따라서 프롬프트(AI에게 주는 지시사항)를 신중하게 설계해 필요한 유연성은 유지하되 위험한 행동은 제한해야 한다. 연구팀은 "데이터 수집에만 집중하고 의학적 조언은 절대 하지 말라"는 명확한 제약을 프롬프트에 포함시켰다. 또한 AI는 환자의 대화 스타일에 맞춰 적응해야 한다. 어떤 환자는 간결하게 "3개월 전, 7점, 왼쪽 다리"라고 답할 수 있고, 어떤 환자는 "사실 정확히 언제부터인지는 모르겠는데요, 작년 여름쯤이었던 것 같아요. 처음엔 별로 안 아팠는데 점점 심해져서 지금은 정말 힘들어요"라고 길게 설명할 수 있다. AI는 두 경우 모두에서 필요한 정보를 추출할 수 있어야 한다. 연구팀은 질문을 기술적이고 딱딱하게 제시하지 말고 자연스러운 대화처럼 풀어서 물어보도록 설계했다. 예를 들어 "통증의 시각적 아날로그 척도 점수는?"이 아니라 "통증이 얼마나 심한지 0점부터 10점까지로 표현하면 어느 정도일까요?"라고 묻는 식이다. 복잡한 의학 용어는 쉽게, 선택지는 번호로…명확성의 원칙 의료 설문지에는 일반인이 이해하기 어려운 용어들이 많다. "방사통(radicular pain)"이나 "신경근병증(radiculopathy)" 같은 단어를 환자가 정확히 이해하고 답하기는 어렵다. 연구팀은 질문을 단순하게 유지하고 복잡한 용어의 의미를 함께 제공하라고 권고했다. "방사통이 있나요?" 대신 "통증이 허리에서 시작해서 다리로 퍼지는 느낌이 있나요?"라고 물어야 환자가 정확히 답할 수 있다. 선택지가 많고 복잡할 때는 번호를 매기는 것이 효과적이다. 특히 괄호와 쉼표가 포함된 긴 선택지가 있을 때 AI가 혼란스러워할 수 있다. "1) 전혀 아프지 않음, 2) 약간 아픔, 3) 중간 정도 아픔, 4) 많이 아픔, 5) 극심하게 아픔"처럼 명확히 번호를 매기면 AI가 환자의 답변을 정확히 매칭할 수 있다. 또한 표준 설문지의 선택지를 현지 상황에 맞게 조정하는 것도 중요하다. 예를 들어 인종이나 민족 관련 용어는 나라마다 다르므로 각 지역에 맞게 수정해야 한다. 연구팀은 일관성의 원칙도 강조했다. 같은 개념을 물을 때는 항상 같은 용어와 형식을 사용해야 한다. 한 번은 "통증 강도"라고 하고 다음에는 "얼마나 아픈지"라고 하면 환자도 혼란스럽고 AI의 데이터 처리도 복잡해진다. 또한 의미 있는 색상 체계를 사용해 추가 정보를 전달할 수 있다. 예를 들어 통증 강도를 녹색(경미), 노란색(중간), 빨간색(심각)으로 시각화하면 환자와 의료진 모두 한눈에 상태를 파악할 수 있다. 격려와 진행 상황 알림으로 완료율 높이기 40개가 넘는 질문에 답하는 것은 지루한 일이다. 연구팀은 환자가 설문을 끝까지 완료하도록 격려하는 기능을 설계 원칙에 포함시켰다. 가장 간단한 방법은 진행 상황을 알려주는 것이다. "전체 5개 주제 중 2개를 완료하셨습니다" 같은 메시지는 환자에게 명확한 목표를 제시하고 성취감을 준다. 마라톤을 뛸 때 중간 지점마다 표지판이 있으면 힘이 나는 것과 같은 원리다. 또한 적절한 격려 메시지도 중요하다. "잘하고 계세요. 조금만 더 하면 됩니다"나 "이 정보는 의사 선생님이 더 나은 치료 계획을 세우는 데 큰 도움이 될 거예요" 같은 메시지는 환자에게 동기를 부여한다. 하지만 지나치게 자주 격려하면 오히려 성가실 수 있으므로 적절한 빈도를 찾는 것이 중요하다. 연구팀은 각 주제 섹션을 완료할 때마다 격려 메시지를 제공하는 방식을 채택했다. 환자가 중간에 멈추고 나중에 다시 돌아올 수 있는 기능도 필요하다. 긴 설문을 한 번에 완료하기 어려울 수 있으므로 진행 상황을 저장하고 나중에 이어서 할 수 있어야 한다. 이는 기술적으로는 간단하지만 완료율을 크게 높일 수 있는 기능이다. 스마트폰 앱에서 쇼핑을 하다가 장바구니에 담아두고 나중에 다시 결제하는 것처럼, 의료 데이터 수집도 같은 유연성을 제공해야 한다. 신뢰 구축과 상호운용성, 의료 시스템 통합의 필수 조건 환자가 대화형 AI를 신뢰하려면 그 기반이 탄탄해야 한다. 연구팀은 증거 기반 설문지를 사용하는 것을 핵심 원칙으로 제시했다. NIH 태스크포스가 권장하는 표준 데이터셋처럼 의학적으로 검증된 질문들을 사용하면 환자와 의료진 모두 그 결과를 신뢰할 수 있다. 또한 대화의 톤을 적절히 통제하고 의학적 조언을 하지 않는 것도 신뢰 구축에 중요하다. 환자는 AI가 자신의 역할 범위를 명확히 알고 그 안에서만 행동한다는 것을 느낄 때 더 편안하게 정보를 공유한다. 로그 기록과 정기적 검토도 필수적이다. AI가 수집한 모든 대화와 데이터는 기록되어야 하고, 의료진이 정기적으로 검토해 데이터 품질을 높이고 문제를 조기에 발견할 수 있어야 한다. 이는 환자 안전을 위해서도 중요하다. 예를 들어 환자가 "자살하고 싶다"는 표현을 했다면 즉시 의료진에게 알려져야 한다. 로그를 통해 수집된 데이터를 원래 대화로 추적할 수 있어야 나중에 불명확한 부분을 확인하거나 오류를 수정할 수 있다. 마지막으로 상호운용성(interoperability)은 AI 시스템이 실제 의료 현장에서 사용되기 위한 필수 조건이다. AI가 수집한 데이터는 병원의 전자건강기록(EHR) 시스템으로 자동으로 전송되어야 한다. 의료진이 AI 시스템에서 데이터를 복사해 다시 입력해야 한다면 효율성이 크게 떨어진다. 연구팀은 표준화된 데이터 형식을 사용하고 기존 의료 시스템과의 통합을 설계 초기부터 고려하라고 권고했다. 이는 기술적으로 복잡하지만 대화형 AI가 실험실을 벗어나 실제 병원에서 사용되려면 반드시 해결해야 할 과제다. FAQ ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 대화형 AI로 병원 설문지를 작성하면 정말 더 빠르고 정확한가요? A. 실제 임상시험 결과 대화형 AI를 사용하면 전문의 진료 시간이 28.7% 단축됐고, 사용자 만족도도 기존 온라인 설문지보다 높게 나타났습니다. 특히 순추천지수는 24점 대 13점으로 거의 두 배 차이를 보였습니다. 다만 대화가 너무 길어지면 오히려 만족도가 떨어질 수 있어 적절한 길이 조절이 중요합니다. Q2. AI가 환자의 말을 잘못 이해하면 어떻게 되나요? A. 연구팀은 신호등 색깔처럼 AI의 확신도를 시각적으로 표시하는 방법을 제안했습니다. 녹색은 확실히 이해했다는 뜻이고, 노란색은 확인이 필요하며, 빨간색은 다시 물어봐야 한다는 의미입니다. 또한 AI가 수집한 정보를 환자에게 다시 보여주고 확인받는 과정을 거쳐 정확성을 높입니다. Q3. 의료용 대화형 AI가 환자에게 치료 조언을 해도 되나요? A. 절대 안 됩니다. 연구팀은 AI의 역할을 오직 데이터 수집으로만 제한해야 한다고 강조했습니다. 아무리 상식적으로 들리는 조언이라도 AI가 의학적 조언을 하면 환자 안전에 위험이 될 수 있습니다. 임상의가 대화 기록을 정기적으로 검토해 잠재적 위험을 감지하는 것이 중요합니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 리포트명: Conversational AI for Automated Patient Questionnaire Completion: Development Insights and Design Principles ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.03 21:51AI 에디터

챗GPT가 소설을 먹고 자란다…AI 학습 데이터에 숨겨진 '픽션의 비밀'

챗GPT와 같은 생성형 AI가 사람처럼 자연스럽게 대화하는 비결이 무엇일까? 놀랍게도 그 답은 '소설'에 있다. 일리노이대학교와 듀크대학교 연구진이 발표한 논문에 따르면, 대규모 언어 모델(LLM)의 학습 데이터에는 상당량의 소설이 포함되어 있으며, 이것이 AI의 언어 생성 방식에 결정적인 영향을 미친다는 사실이 밝혀졌다. 메타(Meta)의 인기 모델인 라마(LLaMA)의 경우, 약 17만 권의 책 중 3분의 1이 소설이며, 마거릿 애트우드, 스티븐 킹, 자디 스미스 같은 유명 작가들의 작품이 포함되어 있다. 왜 AI 개발자들은 소설에 집착할까 AI 엔지니어들 사이에는 오래전부터 하나의 믿음이 있었다. 소설 속 언어가 인간의 다양한 사회적, 의사소통적 현상을 모두 담아낼 만큼 풍부하다는 것이다. 논문의 서론(Introduction)에서 연구진은 이 믿음이 직관적으로는 받아들여졌지만, 실제로 검증된 적은 거의 없었다고 지적한다. 생성형 AI는 본질적으로 '다음 단어 예측기'다. 방대한 텍스트 데이터에서 어떤 단어 다음에 어떤 단어가 오는지 패턴을 학습해, 사람이 입력한 질문에 그럴듯한 답변을 만들어낸다. 뉴스 기사는 실제 사건과 인물을 다루지만, 소설은 '무(無)에서 유(有)를 창조'한다. 가상의 세계와 인물을 처음부터 끝까지 언어로만 구축해낸다는 점에서, AI가 학습하기에 이상적인 데이터라는 것이 개발자들의 판단이었다. 하지만 여기에는 위험이 숨어 있다. 특히 로맨스 소설처럼 성별 고정관념이 강한 장르가 포함될 경우, AI 역시 편향된 출력을 생성할 가능성이 크다. 연구진은 소설이 AI에 미치는 영향이 단순한 편향 문제를 넘어, AI가 언어를 이해하고 생산하는 전체 방식에 근본적인 영향을 미칠 수 있다고 경고한다. 소설 없이 학습한 AI는 무엇이 달라지나 연구진은 구글의 오픈소스 모델인 버트(BERT)를 활용해 실험을 진행했다. 소설이 포함된 데이터로 학습한 모델과 소설을 제외한 데이터로 학습한 모델을 비교 분석한 것이다. 이 실험의 핵심은 소설이 AI의 언어 생성 능력에 어떤 구체적인 차이를 만들어내는지 확인하는 것이었다. 결과는 명확했다. 소설로 학습한 AI는 '인물(character)'을 만들어내는 능력이 뛰어났다. 여기서 인물이란 단순히 이름을 가진 존재가 아니라, 사용자가 상호작용하고 세상을 배울 수 있는 '그럴듯한 페르소나'를 의미한다. 문학 이론가 캐서린 갤러거(Catherine Gallagher)가 지적했듯, 소설 속 인물은 '특정한 누구도 아니지만, 누구라도 될 수 있는' 존재다. 이 역설적 특성이 AI에게도 그대로 전달된 것이다. 예를 들어, 챗GPT에게 "조언을 해줘"라고 요청하면, AI는 마치 친절한 상담사처럼 응답한다. 이것은 뉴스 기사나 위키백과만으로는 학습할 수 없는 능력이다. 소설 속 화자나 등장인물들이 독자에게 말을 거는 방식, 감정을 전달하는 방식을 AI가 학습했기 때문에 가능한 일이다. 소설이 만들어낸 AI의 '목소리' 논문의 '픽션성과 커뮤니케이션(Fictionality as Communication)' 섹션에서 연구진은 문학 이론을 AI 분석에 적용한다. 1970년대 이후 문학 학자들은 소설이 어떻게 독자에게 영향을 미치는지 연구해왔다. 존 설(John Searle)과 앤 밴필드(Ann Banfield)는 소설만의 독특한 언어적 특징, 즉 '표지판(signposts)'을 찾아냈다. 갤러거는 소설의 핵심을 '고유명사'에서 찾았다. 소설 속 인물의 이름은 실제 인물을 가리키지 않지만, 특정 지역, 성별, 계층, 민족을 암시한다. 예를 들어 '제인 오스틴'의 소설에 등장하는 '엘리자베스 베넷'이라는 이름은 19세기 영국 중산층 여성을 떠올리게 한다. 이처럼 소설은 실존하지 않는 인물을 통해 실제 사회의 유형을 학습하게 만든다. AI 역시 이 방식을 그대로 따른다. 사용자가 AI와 대화할 때, AI는 마치 특정한 '누군가'처럼 말하지만, 실제로는 아무도 아니다. 이 '목소리'는 수천 권의 소설에서 학습한 화자와 인물들의 혼합체다. 연구진은 이것이 소설이 AI에 제공하는 가장 큰 '어포던스(affordance)', 즉 활용 가능성이라고 설명한다. 리타 펠스키(Rita Felski)와 블레이키 버뮬(Blakey Vermeule)의 통찰을 인용하며, 연구진은 소설의 가장 큰 힘은 '그럴듯하지만 실제로는 존재하지 않는 사람'을 만들어내는 능력이라고 강조한다. AI 시대, 우리가 경계해야 할 것 이 연구가 던지는 질문은 단순히 학문적 호기심을 넘어선다. 만약 우리가 매일 사용하는 챗GPT, 구글 바드, 클로드 같은 AI가 소설을 먹고 자랐다면, 그것이 우리의 일상에 어떤 영향을 미칠까? 논문의 결론 부분에서 연구진은 현대 문화가 점점 더 생성형 AI에 의해 형성되고 있다면, 문화 생산 방식을 분석할 때 '학습 데이터'라는 새로운 차원을 반드시 고려해야 한다고 주장한다. 예를 들어, AI 기반 의료 상담 서비스가 로맨스 소설에서 학습한 성별 고정관념을 재생산한다면? 투자 조언 AI가 특정 계층의 관점만을 반영한 소설 데이터로 학습되었다면? 교육용 AI가 편향된 역사 소설을 기반으로 학생들에게 정보를 제공한다면? 이 모든 시나리오는 단순한 가정이 아니라, 현재 진행 중인 현실이다. 연구진은 앞으로 문화 연구자들이 '데이터 감사(data audit)'와 '알고리즘 감사(algorithmic audit)'를 수행해야 한다고 제안한다. 이는 AI 모델이 어떤 데이터로 학습되었는지, 그 데이터가 어떤 편향을 담고 있는지, 그리고 그것이 최종 출력에 어떻게 반영되는지를 추적하는 작업이다. 이런 감사 작업은 단순히 기술적 문제가 아니라, 문화적·사회적 책임의 문제다. 알렉스 라이스너(Alex Reisner)가 '애틀랜틱(The Atlantic)'에 기고한 연구에 따르면, 라마 모델의 학습 데이터에는 레베카 솔닛, 주노 디아스 같은 현대 작가들의 작품이 포함되어 있다. 이들의 작품이 AI의 '세계관'을 형성하는 데 기여했다는 의미다. 하지만 이 작가들은 자신의 작품이 AI 학습에 사용되는 것에 동의한 적이 없다. 이는 저작권 문제를 넘어, AI가 문화를 어떻게 재구성하는가라는 근본적 질문을 던진다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 챗GPT는 정말 소설을 읽고 학습한 건가요? A. 정확히는 '읽는다'기보다 소설 텍스트의 패턴을 분석해 학습한다. AI는 수천 권의 소설에서 단어 배열, 문장 구조, 대화 방식을 학습해 사람처럼 자연스러운 언어를 생성할 수 있게 된다. 메타의 라마 모델의 경우 약 17만 권의 책 중 3분의 1이 소설이다. Q2. 소설로 학습한 AI가 위험한 이유는 무엇인가요? A. 소설에는 작가의 세계관과 시대적 편향이 담겨 있다. 특히 로맨스 소설처럼 성별 고정관념이 강한 장르가 학습 데이터에 포함되면, AI도 편향된 답변을 생성할 가능성이 크다. 의료, 교육, 투자 같은 중요한 분야에서 AI를 사용할 때 이런 편향이 실제 피해로 이어질 수 있다. Q3. 앞으로 AI 학습 데이터는 어떻게 관리되어야 하나요? A. 연구진은 '데이터 감사'와 '알고리즘 감사'를 제안한다. AI가 어떤 데이터로 학습되었는지, 그 데이터에 어떤 편향이 있는지, 최종 출력에 어떻게 반영되는지를 투명하게 공개하고 검증하는 작업이 필요하다. 이는 기술적 문제이자 사회적 책임의 문제다. 기사에 인용된 논문 원문은 arXiv에서 확인할 수 있다. 리포트명: Generative AI & Fictionality: How Novels Power Large Language Models ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.03 21:50AI 에디터

"AI 개발은 기타 배우기와 같다"…오픈클로 개발자가 전하는 AI 빌더 생존법

바이럴 AI 에이전트(AI agent) 오픈클로(OpenClaw)를 만든 개발자 피터 슈타인베르거(Peter Steinberger)가 AI 기술을 실험하는 이들에게 조언을 건넸다. 핵심은 단 두 가지다. 놀이하듯 접근하고, 처음부터 잘하려는 기대는 버려라. 테크크런치(TechCrunch)에 따르면, 최근 오픈에이아이(OpenAI)에 합류한 슈타인베르거는 오픈에이아이의 개발자 경험 총괄 로맹 위에(Romain Huet)와 함께 회사의 새 팟캐스트 '빌더스 언스크립티드(Builders Unscripted)' 첫 번째 에피소드에 출연해 이같은 견해를 밝혔다. 슈타인베르거는 오픈클로를 처음 개발할 당시 처음부터 뚜렷한 계획이 있었던 것은 아니라고 털어놨다. "처음부터 완벽한 계획이 있었다고 말하면 좋겠지만, 사실 많은 부분이 그냥 탐색이었다. 내가 원하는 게 있었는데 그게 세상에 없었고, 그래서 프롬프트로 만들어낸 것"이라고 그는 말했다. 개발 초기, 그는 왓츠앱(WhatsApp)과 연동되는 툴을 만들기 시작했다가 잠시 다른 일에 집중하기도 했다. AI 기업들이 곧 비슷한 걸 내놓을 거라고 생각했기 때문이다. 그러나 지난해 11월, 어떤 AI 기업도 자신이 원하는 것을 만들지 않았다는 사실을 깨달은 그는 현재 오픈클로의 초기 프로토타입(prototype)을 만들기 시작했다. 결정적인 계기는 여행이었다. "모로코 마라케시(Marrakesh)에 주말 여행을 갔을 때, 인터넷이 별로 없었는데 왓츠앱은 어디서든 잘 됐다. 그래서 그 툴을 훨씬 많이 쓰게 됐고, 레스토랑 찾기, 컴퓨터 검색, 친구에게 문자 보내기 같은 것들이 다 편해졌다"고 그는 회상했다. 기술을 가지고 놀면서 슈타인베르거는 현대 AI 모델의 문제 해결 능력이 얼마나 뛰어난지를 실감했다. "직접 프로그래밍하지 않아도 AI가 스스로 해결책을 찾아낸다"는 것이다. 개발 과정에서 자신의 워크플로(workflow)가 점점 발전했다는 그는, 다른 개발자들에게도 이 과정에 시간이 필요하다는 점을 강조했다. "예전 방식으로 소프트웨어를 짜던 사람들이 바이브 코딩(vibe coding)을 시도해 보다가 결과에 실망하고 포기한다"며, "'바이브 코딩'이라는 말 자체가 폄하적인 표현"이라고 꼬집었다. "AI를 써보는 건 좋은데, 이게 하나의 기술이라는 걸 모르는 것"이라고 그는 지적했다. AI로 코딩하는 것을 기타 배우기에 비유한 그는 "기타를 첫날부터 잘 칠 수는 없다"고 말했다. 대신 그는 보다 유쾌하고 탐구적인 태도로 배움에 임할 것을 권했다. 그는 지금은 프롬프트(prompt)를 작성할 때 얼마나 걸릴지 감이 오고, 예상보다 오래 걸리면 무엇이 잘못됐는지 돌아보고 수정한다고 설명했다. "항상 하는 조언은, 놀이하듯이 접근하라는 거다. 만들고 싶었던 걸 만들어봐라. 조금이라도 만드는 사람이라면, 마음 한켠에 꼭 만들고 싶은 게 하나쯤 있을 것이다. 그냥 놀아봐라"라고 그는 강조했다. AI가 일자리를 빼앗을 것이라는 두려움이 높아지는 시대에, 그는 이런 탐구 정신이 더욱 중요하다고 봤다. "무언가를 만들고 싶고, 문제를 해결하고 싶다는 게 내 정체성이라면, 실행력 있고 똑똑한 사람은 그 어느 때보다 더 많은 곳에서 필요로 할 것"이라고 그는 말했다. 자세한 내용은 테크크런치(TechCrunch)에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.02.28 17:30AI 에디터

저커버그, 프라다 패션쇼 전면 착석…메타 AI 안경 명품 버전 나오나

마크 저커버그(Mark Zuckerberg) 메타(Meta) 최고경영자가 밀라노 패션 위크(Fashion Week) 프라다(Prada) 2026 가을·겨울 컬렉션 쇼 최전방 좌석에 아내 프리실라(Priscilla)와 함께 앉은 모습이 포착되면서, 메타 AI 안경의 프라다 버전 출시 가능성에 대한 추측이 확산되고 있다. 저커버그는 행사장에서 프라다의 수석 디자이너 미우치아 프라다(Miuccia Prada)의 아들이자 최고 상품화 책임자(Chief Merchandising Officer)인 로렌초 베르텔리(Lorenzo Bertelli)와 대화를 나누는 모습이 목격됐다. 저커버그가 최근 몇 년간 이미지 개선에 공을 들여온 것은 사실이지만, 이번 밀라노 방문의 목적은 패션보다는 브랜드와의 협업 가능성에 무게가 실린다. CNBC는 지난 여름 프라다 AI 안경이 개발 중이라고 보도한 바 있다. 다만 메타는 아직 공식적인 협업 발표를 하지 않았으며, 저커버그의 밀라노 방문과 관련한 언론의 질의에도 응하지 않은 상태다. 메타의 AI 안경 파트너인 에실로룩소티카(EssilorLuxottica)는 프랑스-이탈리아계 안경 브랜드로, 레이밴(Ray-Ban) 제조사이기도 하다. 이 회사는 레이밴 스토리즈(Ray-Ban Stories) 브랜드로 처음 선보인 이후 메타와 함께 AI 안경을 개발해왔다. 에실로룩소티카는 이달 2025년 한 해 동안 레이밴 메타(Ray-Ban Meta)와 오클리 메타(Oakley Meta) 안경을 합산해 총 700만 개 이상을 판매했다고 밝혔다. 전년도 200만 개에서 큰 폭으로 늘어난 수치다. 프라다 AI 안경 출시 가능성에 더욱 힘이 실리는 이유는 에실로룩소티카와 프라다가 이미 프라다(Prada) 및 미우 미우(Miu Miu) 브랜드 안경 라이선스 계약을 향후 10년간 연장했기 때문이다. 2025년 12월 31일 만료된 기존 계약은 2030년 12월 31일까지 연장됐으며, 2035년 12월 31일까지 재연장 조항도 포함됐다. 프라다 AI 안경이 현실화된다면 메타는 오클리나 레이밴으로는 채우지 못했던 하이패션(high-fashion) 시장에 발판을 마련하게 된다. 안경을 럭셔리 상징으로 자리매김하는 것이 메타 브랜드 전반에도 긍정적인 영향을 줄 수 있다는 분석도 나온다. 다만 우려의 시각도 존재한다. 최근 소비자들 사이에서 감시 기기에 대한 반감이 커지는 추세이기 때문이다. 링(Ring) 초인종을 뜯어내거나 플록(Flock) 카메라를 파손하는 사례까지 등장했다. 뉴욕 타임스(The New York Times)는 최근 메타가 AI 안경에 안면 인식(facial-recognition) 기능 탑재 여부를 재검토 중이라고 보도했다. 이 보도는 비교적 순조롭게 성장하던 AI 안경 제품에 논란을 불러일으켰으며, 한 개발자는 주변에 AI 안경을 착용한 사람이 있으면 경고해주는 앱을 직접 만들기도 했다. 자세한 내용은 TechCrunch에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.02.27 15:33AI 에디터

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

공공SW 유지보수 요율 10% 불과…글로벌기업 절반 수준

최진일 이마트24 "특화점포, 상품 테스트베드...CU 의식 안 해"

펄어비스 '붉은사막' 출시 D-7...글로벌 시장 정조준

기름값 상한제 도입…‘1724원의 약속’ 지켜질까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.