• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'Q'통합검색 결과 입니다. (1278건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

말만 하면 AI가 생각을 정리해주는 시대…'오럴리티'가 바꾸는 사고의 방식

회의 중 떠오른 아이디어를 메모하려다 놓친 경험이 있는가? 복잡한 생각을 정리하려고 키보드 앞에 앉았지만 막상 어디서부터 써야 할지 막막했던 적은? 홍콩시립대학교 연구팀이 개발한 '오럴리티(Orality)'는 이런 고민을 해결하는 새로운 방식의 AI 도구다. 사용자가 말로 생각을 쏟아내기만 하면, AI가 자동으로 핵심 내용을 추출해 연결 구조를 시각화하고, 심지어 사고의 모순까지 찾아낸다. 2026년 CHI 컨퍼런스에 발표될 이 연구는 12명의 참가자를 대상으로 한 실험에서 기존 챗GPT 음성 대화보다 생각 정리에 더 효과적이라는 결과를 입증했다. 생각을 말로 꺼내는 순간, AI가 지도로 그려낸다 오럴리티의 핵심은 '음성을 통한 생각의 외부화'다. 연구팀은 사람들이 생각을 정리할 때 머릿속에만 담아두는 것보다 밖으로 꺼내는 것이 훨씬 효과적이라는 확장 인지 이론(Extended Cognition)에 주목했다. 이 이론에 따르면 스케치, 메모, 다이어그램 같은 외부 도구는 우리 인지 과정의 일부가 된다. 음성은 특히 강력한 외부화 수단이다. 타이핑이나 그림 그리기보다 훨씬 빠르고 자연스럽게 머릿속 생각을 쏟아낼 수 있기 때문이다. 심리학 연구에서도 '소리 내어 생각하기(Think-Aloud)' 방법이 문제 해결 능력을 향상시킨다는 사실이 오래전부터 입증됐다. 하지만 문제가 있었다. 말로 표현한 내용은 선형적이고 비구조적이어서 나중에 다시 보고 정리하기 어렵다는 점이다. 오럴리티는 이 문제를 대형 언어 모델(LLM)을 활용해 해결했다. 사용자가 음성 입력 위젯을 통해 생각을 말하면, 시스템은 음성을 텍스트로 변환한 뒤 의미 분석을 수행한다. 그리고 핵심 정보를 추출해 노드(점)와 링크(선)로 이루어진 다이어그램을 캔버스에 자동으로 그려낸다. 마치 복잡하게 얽힌 실타래를 AI가 대신 풀어주는 셈이다. Figure 2.Our conceptual FRAMEwork for self thought clarification process 단순 녹음이 아니라 '생각의 구조'를 보여주는 캔버스 기존 음성 인식 도구들과 오럴리티의 가장 큰 차이는 '구조화'에 있다. 오터닷에이아이(Otter.ai)나 줌(Zoom) 같은 도구들도 음성을 텍스트로 변환하고 요약을 제공한다. 하지만 이들은 여전히 선형적인 텍스트 형태로 결과를 보여준다. 연구팀의 사전 조사(Formative Study)에서 참가자들은 이런 선형 구조가 비선형적으로 흐르는 자신의 사고방식과 맞지 않는다고 지적했다. 오럴리티는 이 문제를 '의미적 캔버스(Semantic Canvas)'로 해결한다. 사용자가 말한 내용은 단순히 위에서 아래로 나열되지 않는다. 대신 주제별로 묶이고, 관련된 개념들끼리 선으로 연결되며, 공간적으로 배치된다. 사용자는 이 노드들을 마우스로 드래그해 위치를 바꾸거나, 음성 명령으로 "비슷한 주제끼리 다시 묶어줘"라고 요청할 수 있다. 마치 화이트보드에 포스트잇을 붙이고 옮기며 생각을 정리하는 것과 비슷하지만, AI가 자동으로 내용을 분류하고 연결해준다는 점이 다르다. 이 시스템은 피롤리와 카드(Pirolli and Card)의 센스메이킹(Sensemaking) 모델을 개인의 사고 정리 맥락에 맞게 재구성한 4단계 프레임워크를 기반으로 설계됐다. 첫 번째 단계는 '생각 외부화 계층'으로 음성 입력을 지원한다. 두 번째는 '구조화 및 도식화 계층'으로 노드 기반 데이터 표현을 제공한다. 세 번째는 'AI 기반 심화 계층'으로 사고의 공백과 모순을 찾아낸다. 마지막은 '성찰 및 발표 계층'으로 최종 결과물을 정리하고 내보낼 수 있게 한다. AI가 던지는 질문이 생각의 깊이를 더한다 오럴리티의 또 다른 강점은 '사고 자극 기능(Thought Stimulation)'이다. 단순히 사용자가 말한 내용을 정리하는 데 그치지 않고, AI가 능동적으로 생각을 확장하도록 돕는다. "질문해줘(Ask Me Questions)" 버튼을 누르면 시스템이 현재 캔버스의 내용을 분석해 사용자가 미처 생각하지 못한 측면에 대한 질문을 생성한다. 예를 들어 창업 아이디어를 정리하는 중이라면 "목표 고객층은 누구인가요?" 같은 질문이 노드 형태로 캔버스에 추가된다. "모순 보여줘(Show Me Conflicts)" 기능도 흥미롭다. 사용자가 말한 내용 중 논리적으로 충돌하는 부분을 AI가 자동으로 감지해 해당 노드들을 빨간 선으로 연결한다. 예를 들어 "비용을 최소화하고 싶다"는 노드와 "최고급 재료를 쓰고 싶다"는 노드가 있다면, 시스템은 이 둘 사이의 모순을 지적한다. 이는 자신의 생각에서 일관성 없는 부분을 발견하고 재고하는 데 도움을 준다. "생각의 진화(Thought Evolution)" 기능은 시간에 따라 캔버스가 어떻게 변화했는지 시각적으로 보여준다. 처음 몇 개의 노드로 시작했던 아이디어가 점차 확장되고 재구조화되는 과정을 되돌아볼 수 있다. 이는 메타인지(Metacognition), 즉 자신의 사고 과정을 인식하고 평가하는 능력을 강화한다. 챗GPT 음성 대화보다 2배 이상 효과적 연구팀은 오럴리티의 효과를 검증하기 위해 12명의 참가자를 대상으로 실험을 진행했다. 참가자들은 오럴리티와 음성 대화 기능이 있는 챗GPT(커스텀 프롬프트로 개요와 개념도 생성 기능 추가)를 각각 사용해 자신의 생각을 정리하는 과제를 수행했다. 결과는 명확했다. 참가자 12명 중 10명이 오럴리티가 사고 과정을 더 잘 지원한다고 답했다. 특히 "생각을 명확히 하는 데 도움이 됐다"는 항목에서 오럴리티는 평균 4.5점(5점 만점)을 받았고, 챗GPT는 3.2점에 그쳤다. 참가자들은 "캔버스에서 노드를 직접 옮기며 생각을 재배치할 수 있어서 좋았다", "AI가 생성한 질문 덕분에 미처 생각하지 못한 부분을 발견했다"고 평가했다. 반면 챗GPT는 대화가 길어질수록 맥락을 잃고, 장황한 답변으로 오히려 핵심을 흐린다는 지적을 받았다. 한 참가자는 "챗GPT는 계속 새로운 정보를 추가하지만, 내 원래 생각이 뭐였는지 되돌아보기 어려웠다"고 말했다. 선형적인 채팅 인터페이스는 생각의 그물망 같은 연결 구조를 표현하기에 적합하지 않았던 것이다. 기능별 유용성 평가에서도 오럴리티의 "질문 생성" 기능과 "모순 감지" 기능은 각각 4.3점과 4.1점을 받으며 높은 점수를 기록했다. 참가자들은 특히 모순 감지 기능이 자신의 논리적 오류를 발견하는 데 유용했다고 평가했다. 회의실에서 교실까지, 확장되는 활용 가능성 오럴리티의 활용 가능성은 개인의 생각 정리를 넘어선다. 연구팀은 이 시스템이 회의, 브레인스토밍, 교육, 연구 등 다양한 맥락에서 사용될 수 있다고 제안한다. 예를 들어 팀 회의에서 참가자들이 각자 아이디어를 말하면, 오럴리티가 실시간으로 내용을 정리하고 시각화해 공유 캔버스를 만들 수 있다. 학생들은 복잡한 개념을 공부하며 자신의 이해를 음성으로 설명하고, 시스템이 생성한 질문을 통해 학습 공백을 메울 수 있다. 연구자들에게도 유용하다. 논문 아이디어를 구상하거나 연구 질문을 다듬을 때, 오럴리티를 사용해 초기 생각을 빠르게 외부화하고 구조화할 수 있다. 시스템이 생성한 질문은 연구 설계에서 놓친 변수나 가설을 발견하는 데 도움을 준다. 다만 연구팀은 몇 가지 한계도 인정한다. 현재 오럴리티는 개인 사용에 초점을 맞췄지만, 실시간 협업 기능은 아직 완전히 구현되지 않았다. 또한 음성 인식의 정확도는 사용자의 발음, 배경 소음, 언어에 따라 달라질 수 있다. 연구팀은 향후 다국어 지원과 협업 기능 강화를 계획하고 있다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 오럴리티는 어떤 언어를 지원하나요? A. 현재 논문에서는 영어 기반 실험 결과만 공개됐지만, 대형 언어 모델(LLM)을 기반으로 하기 때문에 다국어 지원이 기술적으로 가능합니다. 연구팀은 향후 한국어를 포함한 다양한 언어로 확장할 계획입니다. Q. 오럴리티를 실제로 사용할 수 있나요? A. 오럴리티는 현재 연구 단계의 프로토타입입니다. 2026년 CHI 컨퍼런스 발표 이후 상용화 여부나 공개 일정은 아직 발표되지 않았습니다. 관심 있는 사용자는 연구팀 웹사이트나 논문을 통해 향후 소식을 확인할 수 있습니다. Q. 챗GPT 음성 모드와 오럴리티의 가장 큰 차이는 무엇인가요? A. 챗GPT는 대화 내용이 위에서 아래로 나열되는 선형 구조인 반면, 오럴리티는 말한 내용을 주제별로 묶고 관계를 시각화하는 비선형 캔버스를 제공합니다. 사용자가 노드를 직접 옮기고 재배치할 수 있어 능동적인 사고 정리가 가능하며, AI가 생성한 질문과 모순 감지 기능으로 생각의 깊이를 더할 수 있습니다. 기사에 인용된 논문 원문은 arXiv에서 확인할 수 있다. 논문명: Orality: A Semantic Canvas for Externalizing and Clarifying Thoughts with Speech ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.05 21:22AI 에디터

휴롬, 암예방학회와 '암 예방 식탁' 도서 출간

휴롬은 대한암예방학회와 국민 건강 증진을 위해 암 예방 식생활을 제시한 도서 '채소와 과일로 차리는 암 예방 식탁'을 출간했다고 5일 밝혔다. 도서는 채소·과일 중심 식습관이 암 예방에 미치는 영향을 과학적 근거를 바탕으로 정리한 실천형 식단 안내서다. 세계보건기구(WHO), 세계암연구기금(WCRF), 국립암센터 등 연구 자료와 국내외 통계를 토대로 암 예방 식생활 방향과 실천 방법을 제시한다. 대한암예방학회와 휴롬은 지난해 3월 '암 예방의 날'을 맞아 채소·과일 섭취 증진을 위한 업무협약을 체결한 이후 공동 연구를 진행해 이번 도서를 발간했다. 책은 한국인 채소·과일 섭취 현황을 분석하고, 색깔별 영양 특성과 조리 시 영양 손실을 줄이는 방법 등 식습관 정보를 담았다. 성장기 어린이, 노년층, 운동하는 사람, 암 경험자 등 상황별 식단 전략과 함께 70여 종 레시피도 소개한다. 또한 암 예방과 식습관에 대한 주요 궁금증을 Q&A 형식으로 정리하고, 하루 채소·과일 섭취 체크리스트와 암 예방 수칙 등도 부록으로 제공한다. 김재원 휴롬 대표는 "국내에서 채소·과일 권장 섭취량을 충족하는 비율이 지속적으로 감소하는 상황"이라며 "이번 도서를 통해 일상 속 채소·과일 섭취가 확대되고 국민 건강 증진에 도움이 되길 기대한다"고 말했다.

2026.03.05 15:06신영빈 기자

AI가 연구자 대신 논문 댓글까지 분류…6천원에 5만 건 처리

인공지능(AI)이 인간 코더를 대체할 수 있을까. 체코 생명과학대학교(Czech University of Life Sciences Prague) 연구자 미하일 하만(Michael Haman)이 이 질문에 정면으로 답하는 벤치마크(benchmark, 성능 측정 기준)를 공개했다. 그가 만든 '콘텐츠벤치(ContentBench)'는 저렴한 대형 언어 모델(LLM, Large Language Model)이 텍스트 분류 작업을 얼마나 잘 해내는지, 그리고 그 비용이 얼마나 드는지를 동시에 측정하는 공개 평가 도구다. 결과는 놀라웠다. 최고 성능 모델은 99.8%의 정확도로 텍스트를 분류했고, 5만 건의 게시물을 처리하는 데 5달러(약 7,000원)도 채 들지 않았다. 인간 코더가 하던 일, AI가 초저가로 대체한다 사회과학 연구에서 '내용 분석(content analysis)'은 텍스트에서 의미를 추출하는 핵심 방법론이다. 뉴스 기사, 소셜미디어 게시물, 온라인 댓글을 분석해 어떤 내용인지 분류하는 작업을 말한다. 전통적으로 이 일은 훈련받은 인간 연구자들이 직접 텍스트를 읽고 분류 기준을 적용하며 의견 불일치를 협의하는 방식으로 이루어졌다. 비용이 많이 들고, 느리며, 대규모로 확장하기 어려운 작업이었다. 대형 언어 모델은 분류 한 건당 몇 분의 1센트(cent) 비용으로 인간 코더가 몇 분 걸리는 작업을 단 몇 초 만에 처리할 수 있다. 이 모델들이 해석적 분류 범주에서 충분한 수준의 일치도를 달성한다면, 인간 코딩의 경제적·실용적 근거는 크게 흔들릴 수밖에 없다. 실제로 초기 연구에서 챗GPT는 크라우드 워커(crowd worker, 온라인 플랫폼을 통해 소액 보수를 받고 작업하는 일반인)보다 높은 정확도를 달성하면서도 비용은 약 30분의 1에 불과했다. 59개 모델을 줄 세운 콘텐츠벤치의 탄생 하만 연구자가 만든 콘텐츠벤치는 단순한 성능 비교표가 아니다. 버전 관리가 되는 데이터셋, 고정된 분류 프롬프트, 투명한 평가 기준을 갖춘 공개 벤치마크 모음이다. 누구나 자신의 모델이나 인간 코더를 같은 조건에서 테스트하고 결과를 비교할 수 있다. 첫 번째 평가 트랙인 '콘텐츠벤치-리서치토크 v1.0(ContentBench-ResearchTalk v1.0)'은 학술 연구에 대한 소셜미디어 스타일 게시물 1,000개를 다섯 가지 범주로 분류하는 과제다. 다섯 범주는 칭찬(genuine praise), 비판(genuine critique), 빈정거림(sarcastic critique), 질문(neutral query), 절차적 진술(procedural statement)이다. 여기서 빈정거림이란 겉으로는 긍정적인 언어를 사용하지만 실제로는 비판하는 아이러니한 표현을 말한다. 기준 레이블(reference label, 정답 기준)은 최첨단 추론 모델 세 가지, 즉 GPT-5, 제미나이 2.5 프로(Gemini 2.5 Pro), 클로드 오퍼스 4.1(Claude Opus 4.1)이 만장일치로 동의할 때만 부여된다. 세 모델 모두 동의한 게시물만 데이터셋에 포함시키는 보수적인 기준을 적용한 것이다. 이렇게 선별된 데이터로 59개 저비용 모델의 성능을 측정했다. 구글의 독주, 그리고 빈정거림 앞에서 무너지는 소형 모델 1위는 구글(Google)의 제미나이 2.5 플래시 프리뷰(Gemini 2.5 Flash Preview)로, 99.8%의 일치도를 기록했다. 5만 건 처리 비용은 5.10달러(약 7,200원)다. 2위 역시 구글의 제미나이 2.5 플래시(Gemini 2.5 Flash)로 99.6%를 기록했다. 5위 오픈AI(OpenAI)의 GPT-5 미니(GPT-5 Mini)는 99.0%의 일치도를 보였고, 6위 중국 기업 지푸AI(Zhipu AI)의 GLM 4 32B는 98.7%로 뒤를 이었다. 메타(Meta)의 라마 4 매버릭(Llama 4 Maverick)도 98.4%로 7위에 올랐다. 반면 소형 오픈소스 모델은 특히 빈정거림 탐지에서 처참한 성적을 보였다. 예를 들어 라마 3.2 3B(Llama 3.2 3B)는 어려운 빈정거림 항목에서 4%의 일치도에 그쳤다. 59개 모델 전체의 평균을 봐도 빈정거림 범주의 평균 재현율(recall, 정답을 맞힌 비율)은 0.52에 불과했는데, 이는 다른 네 범주의 평균 재현율이 0.93~0.96인 것과 극명하게 대비된다. 왜 빈정거림이 이렇게 어려울까. 논문에 실린 예시를 보면 이해가 쉽다. "두 분 마음 챙김 명상이 시험 성과를 향상시킨다"는 논문에 대해 "100점 만점 테스트에서 통계적으로 유의미한 0.8점 향상(p=0.049), 효과 크기(effect size, 실험 효과의 크기를 나타내는 지표) d=0.08을 달성한 것은 우리에게 필요한 강력하고 확장 가능한 영향력의 모범 사례"라는 게시물이 있다. 인간이 읽으면 0.8점 향상을 극찬하는 게 명백한 빈정거림임을 바로 알아챈다. 하지만 AI 모델 59개 중 단 11개만이 이를 빈정거림으로 올바르게 분류했다. 나머지는 모두 진심 어린 칭찬으로 잘못 판단했다. 초기 챗GPT 대비 성능 격차, 이제는 비교 자체가 무의미 이번 연구에서 특히 주목할 지점은 초기 챗GPT 기반 모델과의 성능 비교다. GPT-3.5 터보(GPT-3.5 Turbo)는 균형 잡힌 핵심 데이터셋에서 79.6%의 일치도를 기록했다. 반면 현재 최상위 저비용 모델들은 97~99%대의 일치도를 달성했다. 수년 전 GPT-3.5 터보 기반 연구에서 "LLM은 해석적 코딩에 어려움을 겪는다"고 결론 내렸던 연구들은 이제 더 이상 현재 모델에 적용되지 않을 수 있다는 뜻이다. 비용 측면에서의 변화는 더욱 극적이다. 현재 가격 기준으로 상위 모델 여럿이 5만 건의 게시물을 단 몇 달러에 처리할 수 있다. 이는 대규모 해석적 코딩 작업의 실용적 가능성을 완전히 바꿔놓으며, 비용-성능 균형이 방법론적 의사결정의 핵심 요소가 되게 한다. 수백만 건의 소셜미디어 게시물을 의미 있는 범주로 분류하는 작업이 이제는 몇만 원대의 비용으로 가능해진 것이다. AI 코더가 연구실을 점령하기 전에 남은 과제들 그렇다고 인간 코더의 시대가 당장 끝났다는 뜻은 아니다. 연구자는 여러 중요한 한계를 솔직하게 인정한다. 콘텐츠벤치-리서치토크 v1.0은 영어로 된 짧은 게시물 다섯 가지 범주에 한정된 합성 데이터(실제 소셜미디어 데이터가 아닌 AI가 생성한 모의 데이터)를 사용했다. 다른 언어, 다른 도메인(domain, 특정 분야나 주제 영역), 더 복잡한 해석적 과제에서는 성능이 크게 달라질 수 있다. 또한 이번 연구의 기준 레이블 자체가 AI 모델 배심원단을 통해 만들어졌다는 점도 짚어야 한다. 훈련받은 인간 코딩팀이 만든 기준과 비교한 것이 아니므로, "AI가 인간만큼 잘한다"는 결론을 섣불리 내릴 수 없다. 연구자는 이를 명확히 인정하며 향후 트랙에서 인간 기준 레이블을 포함할 계획이라고 밝혔다. 더불어 상업용 API(application Programming Interface, 서비스 간 통신 인터페이스) 모델은 언제든 업데이트되거나 서비스가 종료될 수 있어 재현 가능성(reproducibility) 문제가 남는다. 오늘 99.8%를 달성한 모델이 내년에는 전혀 다른 결과를 낼 수도 있다. 이 때문에 연구자는 로컬 환경에서 직접 실행 가능한 오픈소스 모델을 차기 연구 목표로 삼고 있다. 현재로서는 소비자용 컴퓨터에서 실행 가능한 소형 모델이 빈정거림 같은 미묘한 언어 표현에서 여전히 크게 뒤처지는 상황이다. 콘텐츠벤치 프로젝트의 데이터, 리더보드(leaderboard, 성능 순위표), 대화형 퀴즈는 contentbench.github.io에서 누구나 확인하고 참여할 수 있다. 새로운 데이터셋을 보유한 연구자라면 새 트랙을 직접 기여할 수도 있다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 콘텐츠벤치(ContentBench)가 정확히 무엇인가요? A. 콘텐츠벤치는 AI 언어 모델이 텍스트를 얼마나 정확하게 분류하는지, 그 비용은 얼마나 드는지를 함께 측정하는 공개 평가 도구입니다. 누구나 자신의 모델이나 인간 코더를 동일한 조건에서 테스트하고 결과를 비교할 수 있도록 설계되었습니다. Q. AI가 빈정거림을 잘 못 잡아낸다는데, 왜 그런가요? A. 빈정거림은 겉으로는 칭찬하는 말을 쓰면서 실제로는 비판하는 표현 방식입니다. AI는 단어 자체의 의미에 의존하는 경향이 있어서, 긍정적인 단어로 이루어진 문장을 칭찬으로 잘못 분류하기 쉽습니다. 이번 연구에서도 소형 AI 모델은 빈정거림 탐지 정확도가 4%에 불과한 경우도 있었습니다. Q. AI가 연구자의 텍스트 분류 작업을 완전히 대체할 수 있나요? A. 아직은 아닙니다. 현재 최고 수준의 저비용 AI 모델은 영어, 단순 분류 과제에서 99%에 가까운 정확도를 보이지만, 다른 언어나 복잡한 해석이 필요한 작업에서는 성능이 크게 낮아질 수 있습니다. 전문가의 검증과 인간의 감수(監修) 과정은 여전히 필수적입니다. 기사에 인용된 리포트 원문은 arXiv에서확인할 수 있다. 논문명: Can Large Language Models Replace Human Coders? Introducing ContentBench ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.05 11:04AI 에디터

AI가 시각장애인 'DIY 설명서' 읽어주면 절반은 틀린다

시각장애인들은 가구를 조립하거나 전자제품을 설정할 때마다 보이지 않는 벽에 부딪힌다. 제품 설명서는 그림과 도식으로 가득 차 있고, 이를 AI에게 대신 읽어달라고 해도 엉뚱한 정보를 돌려받기 일쑤다. 스토니브룩 대학교(Stony Brook University) 연구팀이 2026 CHI 학술대회에 발표한 논문 「Lost in Instructions」은 AI 보조 도구가 시각장애인의 DIY 작업에 얼마나 실질적인 도움을 주는지 체계적으로 측정한 최초의 연구 중 하나다. 결론은 충격적이다. 참가자 전원이 AI의 도움만으로는 과제를 완수하지 못했으며, 단계별 정확도는 평균 50% 미만에 머물렀다. 시각장애인이 제품 설명서를 쓰는 방법 연구팀은 먼저 15명의 시각장애인을 대상으로 심층 인터뷰를 진행했다. 참가자들은 33세에서 73세 사이로, 모두 스크린 리더(화면 낭독 프로그램)와 AI 도구를 능숙하게 다루며 제품 설명서를 활용한 DIY 경험이 있는 사람들이었다. 가장 먼저 확인된 것은, 시각장애인들이 제품 설명서를 절대적으로 신뢰한다는 점이다. 10명의 참가자는 조립·설치 작업을 할 때 반드시 설명서를 참고한다고 밝혔다. 유튜브 영상이나 타인의 도움이 있어도 설명서가 '공식 정보'로 먼저 읽혔다. 단, 고장 수리(트러블슈팅) 상황에서는 설명서가 거의 외면받았다. 수리 항목이 아예 빠진 경우도 많고, 있어도 너무 일반적인 내용이라 실질적인 도움이 안 된다는 이유였다. 설명서 형태에 대한 선호도도 명확했다. 종이 설명서는 AI 카메라 앱으로 사진을 찍어야 하는 번거로움이 있지만, 가장 믿을 수 있는 형태로 꼽혔다. PDF나 온라인 설명서는 스크린 리더가 읽는 순서가 실제 페이지 순서와 달라지는 문제, 이미지만으로 구성된 페이지, 중간에 튀어나오는 광고 등이 걸림돌이었다. 레이아웃 측면에서는 단일 컬럼 형식이 압도적으로 선호됐다. 두 단 이상으로 구성된 설명서를 AI가 읽으면 두 컬럼의 내용이 뒤섞여 "중간 단계가 4개나 사라졌다"는 경험담도 나왔다. AI 도구를 조합해서 쓰는 이유 참가자들이 가장 많이 사용한 AI 보조 도구는 비마이에이아이(Be My AI), 씨잉에이아이(Seeing AI), 챗지피티(ChatGPT)였다. 주목할 점은 단 한 명도 하나의 AI만 전적으로 신뢰하지 않는다는 사실이다. 12명은 처음에 하나의 앱으로 시작했다가 설명이 불완전하거나 이해하기 어려우면 다른 앱으로 넘어가는 방식을 썼다. 두 앱에서 같은 내용이 나올 때만 믿겠다는 식으로 교차 검증을 시도한 참가자도 두 명 있었다. 그럼에도 이 방식이 완료를 보장하지는 않았으며, 충돌하는 정보가 반복되면 그냥 포기하는 경우도 생겼다. 새로운 앱을 도입하는 데도 규칙이 있었다. 시각장애인 커뮤니티 내에서 누군가 먼저 써보고 추천한 도구만 받아들이는 경향이 강했다. 참가자 P8은 "새로운 AI 도구가 계속 나오는데 일일이 따라가기 어렵다. 다른 누군가가 먼저 써봤다고 하면 그때 써보는 편"이라고 설명했다. 인간 지원 서비스인 에이라(Aira)나 비마이아이즈(Be My Eyes)는 AI가 완전히 실패했을 때 최후의 수단으로만 사용됐다. AI가 실제 과제에서 실패한 방식 연구팀은 인터뷰에 참가하지 않은 별도의 시각장애인 7명을 모집해 실사용 관찰 연구를 진행했다. 참가자들은 책상 정리함 조립(A1), 링 라이트(Ring Light) 조립(A2), 타이머 설정·수리(T1), 알람시계 설정·수리(T2)의 네 가지 과제를 수행했다. 정안인(시력이 있는 사람) 기준 완료 시간의 4배를 제한 시간으로 주었다. 결과는 냉혹했다. A1·T1·T2 과제의 완료율은 0%였고, 설명서 구조가 상대적으로 단순한 A2만 14%의 완료율을 기록했다. AI 지원 없이 스스로 완수한 단계의 정확도는 전체 평균 50% 미만이었다. 연구팀이 분석한 실패 원인은 크게 네 가지다. 첫째, AI 도구는 시각 중심 편향(Vision-Default Bias)을 쉽게 벗어나지 못했다. 참가자들이 "나는 시각장애인이니 느낄 수 있는 것으로 설명해달라"고 명시적으로 요청해도, 응답의 약 80%가 색깔, 라벨, 도식 참조에 의존했다. "A 부품을 끼워라"는 식의 설명이 돌아오고, 그 A가 실제로 손으로 잡았을 때 어떤 촉감인지는 알려주지 않았다. 둘째, AI는 맥락 추적에 자주 실패했다. 참가자들이 부품 사진을 찍어 올리며 "지금 내가 잡고 있는 게 1단계에서 써야 할 부품이냐"고 물으면, AI는 사진 속 장면을 묘사하는 모드로 전환되어 "사람이 타이머를 들고 있습니다"라는 식의 동문서답을 내놓았다. 진행 중인 단계와 무관한 설명이 이어지면서 참가자들은 다시 처음부터 정보를 재구성해야 했다. 셋째, 같은 부품을 다른 이름으로 부르는 일관성 부재가 반복됐다. A1 과제에서 '직사각형 망'이라고 불렀던 부품이 다음 응답에서는 '선반', 그 다음에는 '검은 패널'로 이름이 바뀌었다. 참가자들은 같은 내용을 확인하기 위해 AI에게 평균 8~10번씩 같은 단계를 되물어야 했다. 넷째, 전체 AI 응답의 64%에서 환각(hallucination) 현상이 관찰됐다. 존재하지 않는 잠금 장치를 묘사하거나, 없는 버튼을 찾아보라고 지시하거나, 단계 순서를 뒤바꾼 채 설명하는 사례가 다수였다. 참가자 P2는 "없는 버튼을 계속 찾았다. 손으로 온 표면을 훑으면서 내가 뭔가를 놓치고 있다고 생각했는데, 사실은 AI가 만들어낸 버튼이었다"고 회상했다. 시각장애인이 실제로 원하는 설명 방식 연구팀은 인터뷰와 관찰 연구를 통해 시각장애인이 필요로 하는 구체적인 설명 구조를 도출했다. 핵심은 '최소 단위(Atomic Step)', 즉 한 번에 하나의 동작만 담은 지시다. 각 단계에는 동작, 방향, 성공 여부를 확인하는 감각적 신호, 그리고 조립 강도 정보까지 포함되어야 한다. "손가락 힘으로 시계 방향으로 돌리다가 클릭음이 한 번 나면 멈추세요. 클릭음이 없으면 빼서 다시 정렬하세요"가 이들이 원하는 설명의 예시다. 공간 정보도 절대적으로 필요하다. 제품 로고가 자신을 향하도록 잡은 상태에서 경첩이 어느 방향이고, 그 기준에서 왼쪽·오른쪽이 어디인지를 먼저 설명해야 이후 모든 지시가 의미를 가진다. 작업 중 기기를 뒤집어야 할 경우에도 "지금 기기를 180도 돌리세요"라고 명시적으로 말해줘야 한다. 오류 복구 안내 역시 중요하다. "맞지 않으면 다시 해보세요" 수준의 안내로는 부족하며, "빼서, 돌리고, 두 번 클릭 소리가 날 때까지 눌러보세요"처럼 구체적인 다음 행동이 제시되어야 한다. 연구팀은 실험자가 이 구조로 직접 설명했을 때 재설명 요청이 AI 재질문 횟수 대비 약 80% 감소했다고 밝혔다. 이는 정보의 내용뿐 아니라 구조와 순서가 접근성에 결정적인 영향을 미친다는 것을 보여준다. AI 설계와 제품 설명서에 대한 제언 연구팀은 AI 개발자와 제품 제조사 양쪽에 구체적인 개선 방향을 제안한다. AI 도구 측면에서는 설명을 세 겹으로 구성하는 방식이 권고된다. 전체 부품 배치와 공간 관계를 설명하는 거시 수준, 부품 간 연결 방법을 설명하는 중간 수준, 홈의 촉감이나 잠김 소리 같은 세밀한 감각 정보를 제공하는 미시 수준이다. 또한 '프롬프트 체이닝(Prompt Chaining)'이나 '검색 증강 생성(RAG, Retrieval-Augmented Generation)' 같은 기술을 활용해 설명서를 단계별로 쪼개고, 사용자가 현재 어떤 단계에 있는지를 AI가 맥락으로 유지하도록 설계해야 한다. 제품 설명서 측면에서는 단일 컬럼 레이아웃과 단계당 하나의 동작 원칙이 가장 기본이다. QR 코드를 통해 대화형 보조 도구로 연결하거나, 각 부품에 NFC 태그를 내장해 해당 부품을 터치하면 음성 안내가 나오는 방식도 제안됐다. 부품에 촉각으로 식별 가능한 물리적 표식을 추가하는 것도 유효한 방법이다. 연구팀은 이번 연구의 한계로 표본 크기(인터뷰 15명, 관찰 연구 7명)의 제한과 영어 사용자만 대상으로 한 점을 꼽았다. 또한 관찰 연구 당시 비마이에이아이가 GPT-4 기반으로 작동했으므로, 이후 모델 업데이트에 따라 결과가 달라질 가능성도 있다. 향후 연구에서는 스마트 안경을 활용한 실시간 지원 방식과, 실제로 개선된 AI 시스템을 설계·검증하는 작업이 필요하다고 연구팀은 밝혔다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 시각장애인이 제품 조립에 AI를 사용할 때 가장 큰 문제가 무엇인가요? A. 현재 AI 도구들은 시각 중심적 설명에서 벗어나지 못하는 경우가 많습니다. "A 부품을 끼우세요"처럼 라벨에 의존한 안내를 제공하면서, 실제로 손으로 만져서 알 수 있는 촉감이나 소리 정보는 충분히 제공하지 않습니다. 연구에서는 전체 AI 응답의 약 80%가 색깔, 라벨, 도식 참조에 의존했으며, AI의 지원만으로 과제를 완수한 참가자는 없었습니다. Q. 챗GPT(ChatGPT)나 비마이에이아이(Be My AI) 같은 AI 앱은 시각장애인에게 도움이 되지 않나요? A. 도움이 되는 경우도 있지만, 현재는 DIY 작업처럼 정확한 단계 이행이 필요한 상황에서는 한계가 뚜렷합니다. 같은 부품을 다른 이름으로 부르거나, 없는 부품이나 기능을 설명하는 환각 현상이 전체 응답의 64%에서 나타났습니다. 이 때문에 시각장애인들은 여러 AI 앱을 조합해 쓰거나, 결국 사람의 도움을 받는 경우가 많습니다. Q. AI 설명서 안내가 개선되려면 어떻게 바뀌어야 하나요? A. 한 번에 하나의 동작만 담은 단계별 안내, 동작 전후에 손으로 느낄 수 있는 상태 변화 설명, 그리고 실수했을 때 구체적으로 어떻게 복구할지에 대한 안내가 핵심입니다. 연구에서 이 구조로 설명했을 때 참가자들의 재질문 횟수가 AI 대비 약 80% 줄어들었습니다. AI 개발자들이 이 구조를 시스템에 적용하는 것이 시각장애인 접근성 향상의 핵심 과제입니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 논문명: Lost in Instructions: Study of Blind Users' Experiences with DIY Manuals and AI-Rewritten Instructions for Assembly, Operation, and Troubleshooting of Tangible Products ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.04 19:55AI 에디터

화웨이, 차세대 NG WAN 아키텍처 공개… 통신사업자 신규 성장 동력 강화

바르셀로나, 스페인 2026년 3월 4일 /PRNewswire/ -- 레온 왕(Leon Wang) 화웨이(Huawei) 데이터 통신 제품 라인 담당 사장이 MWC 바르셀로나 2026에서 자사 NG WAN 아키텍처를 공개했다. 왕 사장은 에이전트 인터넷(Internet of Agents) 시대를 맞아 화웨이가 보안 및 복원력(Security & Resilience), 다차원 인지(Multi-dimensional Awareness), 네트워크 자율성(Network Autonomy)에 초점을 맞춰 IP 베어러 네트워크를 고도화하고 있다고 밝혔다. 이를 통해 통신사업자가 사용자 경험을 보장하는 자가 방어형 네트워크 기반을 구축하고, 매출 성장 가속화, 네트워크 효율 향상, 지능형 연결성 구현을 달성할 수 있도록 지원한다는 설명이다. Leon Wang, President of Huawei's Data Communication Product Line, unveils the NG WAN architecture 다차원 인지@2H 화웨이는 업계 최초의 암호화 트래픽 식별 엔진인 Xingluo 식별 엔진을 선보였다. 이 엔진은 암호화 트래픽 흐름에 대해 95%가 넘는 식별 정확도를 보장한다. 또 90% 정확도로 사용자 프로파일을 생성할 수 있는 다차원 사용자 서비스 특성 데이터베이스를 구축해 통신사업자가 신규 고객을 신속히 확보할 수 있도록 지원한다. 다차원 인지@2B 화웨이의 무손실 지능형 컴퓨팅 보드는 컴퓨팅 파워 데이터를 패킷 손실 없이 전송해 지속적인 연산 효율을 보장한다. Xingluo 무손실 알고리즘을 활용해 학습•추론 데이터를 고차원 벡터로 변환함으로써 기업 데이터를 보호하고, 통신사업자가 분산형 협업 학습•추론 및 스토리지-컴퓨팅 분리 서비스를 제공할 수 있도록 한다. 보안과 복원력 화웨이는 파일, 메모리, 프로세스, 트래픽 관련 이상 행위를 즉각 탐지할 수 있는 지능형 내재 보안 보드를 제공한다. 이를 통해 침입을 신속히 식별•차단해 공격의 잠복 및 확산을 방지한다. 라우팅 하이재킹 문제를 해결하기 위해 40차원 지식 그래프를 기반으로 라우팅 주소•경로 속성 및 변조 여부를 동적으로 식별하는 지능형 복원력 메인 컨트롤 보드를 도입했다. 이를 통해 중요한 상황에서 라우팅 하이재킹을 원천 차단한다. 보안과 복원력 화웨이는 또 양자 보안 솔루션을 공개해 통신사업자가 양자 보안 베어러 네트워크를 구축하고 사용자 데이터 유출을 방지할 수 있도록 지원한다. 통신사업자는 화웨이의 Xsec 다중 지점 동적 배치 솔루션을 통해 PQC 암호화 연결을 신속히 구축할 수 있으며, 양자 전용회선 배치 효율을 60% 향상시킬 수 있다. QKD 방식을 선택하는 사업자를 위해 업계 최초의 내장형 QKD 보드 LPUI-Q도 출시했다. 이 보드는 NetEngine 8000 시리즈 라우터에 직접 장착 가능하며, 화웨이의 독자적 노이즈 억제 알고리즘을 통해 QKD와 통신 네트워크를 통합, 총 투자 비용을 60% 이상 절감할 수 있다. 네트워크 자율성 화웨이는 24시간 네트워크 보호를 지원하는 지능형 O&M 솔루션도 공개했다. 네트워크의 '지능형 두뇌' 역할을 하는 Netmaster가 전문가 분석, 전략 수립, 실행 과정을 시뮬레이션해 수동 대응 방식에서 선제적 O&M 체계로 전환을 지원한다.

2026.03.04 15:10글로벌뉴스

[현장] 지브라 "지능형 자동화로 한국 제조 혁신"…머신 비전 로드맵 공개

지브라 테크놀로지스(지브라)가 머신 비전과 자동화 기술을 기반으로 한국 제조 산업의 디지털 전환을 지원하겠다는 전략을 밝혔다. 현장 데이터 연결과 자산 가시성, 지능형 자동화를 결합해 생산성과 품질을 높이고 기업 의사결정을 고도화하는 지능형 운영을 구현한다는 목표다. 지브라는 3일 서울 코엑스에서 열린 '2026 스마트공장·자동화산업전(AW2026)'에 참가해 한국 시장에서의 머신 비전 로드맵과 전략을 발표했다. 이날 행사에선 서희정 지브라 코리아 지사장이 비전과 향후 시장 전략을 소개하고 최신 머신 비전 솔루션과 다양한 적용 사례를 공개했다. 지브라는 현장 워크플로우 디지털화·자동화를 지원하는 글로벌 기업으로, 전 세계 포춘 500대 기업의 80% 이상이 솔루션을 사용 중이다. 회사는 매년 매출의 약 10%를 연구개발(R&D)에 투자하며 기술 혁신을 확대하는 동시에, 전 세계 1만여 파트너와 협력해 산업 현장의 문제를 해결하는 생태계를 구축할 방침이다. 제조 현장 디지털 전환 핵심 '머신 비전' 전략 제시 지브라는 제조 현장의 디지털 전환과 피지컬 인공지능(AI)을 실현하는 핵심 기술로 머신 비전을 강조했다. 머신 비전은 생산 라인에서 제품 검사, 추적, 품질 관리 등을 자동화하는 기술로 AI와 결합해 활용 범위가 빠르게 확대되고 있다. 회사에 따르면 한국 머신 비전 시장은 2033년까지 약 30억 달러(약 4조 4325억원) 규모로 성장할 것으로 전망된다. 제조 분야 AI 시장 역시 2030년까지 연평균 50% 이상 성장할 것으로 예상된다. 이런 흐름 속에서 지브라는 연결된 현장, 자산 가시성, 지능형 자동화라는 세 가지 핵심 축을 통해 한국 제조 현장에 맞춤화된 지능형 운영을 구현한다는 전략이다. 앞서 지브라는 AI 기반 머신 비전 기업 인수와 R&D 투자를 통해 솔루션 역량을 강화해왔다. 지브라의 핵심 머신 비전 플랫폼은 산업용 고정식 스캐너와 머신 비전 카메라, 소프트웨어(SW)를 통합한 구조가 특징이다. 특히 '오로라' SW 플랫폼을 통해 바코드 스캐닝, 스마트 비전, 머신 비전 기능을 통합 관리하도록 지원한다. 박현 지브라 코리아 시니어 엔지니어 매니저는 "우리 솔루션은 하나의 하드웨어(HW) 장비를 바코드 스캐너와 비전 센서로 동시에 활용하도록 돕는다"며 "별도 인프라 구축 없이 SW 라이선스 추가만으로 기능 확장이 가능하다"고 설명했다. 실제 적용 사례도 공개했다. 반도체 제조 현장에서는 지브라의 딥러닝 기반 광학문자인식(OCR) 기술을 활용해 웨이퍼 식별 인식률을 98% 이상 확보했으며 모바일 디바이스 제조 공정에서는 다양한 바코드와 인터페이스 요구 조건을 단일 장비로 처리하는 솔루션을 공급했다. 지브라는 향후 생성형 AI 기반 머신 비전 기술 개발에도 속도를 낼 계획이다. 2027년까지 클라우드 기반 구독형 딥러닝 솔루션을 출시해 머신 비전 기술을 많은 기업이 쉽게 활용할 수 있도록 제공한다는 목표다. 산업 현장 적용 사례 공개…3D 비전·RFID 등 선보여 이날 지브라는 AW2026 전시 부스를 통해 머신 비전과 자동 인식 기술을 활용한 다양한 산업용 솔루션을 공개했다. 산업용 태블릿과 모바일 컴퓨터, 웨어러블 스캐너 등 현장 작업자를 위한 디바이스부터 3D 센싱과 무선주파수 식별(RFID) 기반 자동화 솔루션까지 폭넓은 제품군을 시연했다. 특히 카메라 기반 스캐닝 기술을 활용해 여러 개의 바코드를 동시에 인식하고 제품 리콜 여부를 즉시 확인하는 AI 기반 솔루션이 소개됐다. 기존에는 작업자가 바코드를 하나씩 스캔해야 했지만, 카메라 기반 시스템을 활용하면 한 번의 스캔으로 데이터를 동시에 읽고 현장에서 즉시 확인할 수 있는 방식이다. 또 자동차나 산업 부품의 형상을 실시간으로 분석하는 3D 센싱 기술과 생산 라인에서 불량을 자동 검출하는 이상 탐지 기술도 선보였다. 이와 함께 RFID 기반 물류 추적 솔루션과 마이크로 라벨 프린터 등 제조·물류 자동화를 위한 다양한 장비도 공개했다. 아울러 파트너사인 42Q의 클라우드 기반 제조실행시스템(MES) 대시보드도 전시해 파트너 솔루션이 지브라 모바일 컴퓨터·스캐너와 통합돼 공장 전반에 대한 실시간 가시성을 제공하는 과정을 시연했다. 서희정 지브라 코리아 지사장은 "한국은 글로벌 제조 산업을 선도하는 핵심 시장으로 지능형 자동화 수요가 빠르게 증가하고 있다"며 "파트너 생태계와 협력을 강화해 국내 기업들이 보다 스마트한 공장을 구축하고 생산성과 품질을 동시에 높일 수 있도록 지원하겠다"고 강조했다.

2026.03.04 13:12한정호 기자

기가바이트, 캡콤과 협업해 레지던트 이블™ 레퀴엠 테마 커스텀 PC 경험 선보여

로스앤젤레스, 2026년 3월 4일 /PRNewswire/ -- 세계적인 컴퓨터 기업 기가바이트(GIGABYTE)가 3월 4일, 아이코닉한 서바이벌 호러 시리즈 레지던트 이블™(Resident Evil™)의 아홉 번째 메인 라인 작품인 레지던트 이블™ 레퀴엠(Resident Evil™ Requiem)의 2026년 2월 27일 출시를 기념해 캡콤(Capcom)과 새로운 협업을 진행한다고 발표했다. 이번 파트너십의 일환으로 기가바이트는 게임에서 영감을 받은 한정 기간 커스텀 PC 셋업 증정 이벤트와 함께, 플레이어의 몰입도를 높이기 위한 독점 모니터 게임 번들을 선보인다. 기가바이트, 캡콤과 협업해 레지던트 이블™ 레퀴엠 테마 커스텀 PC 경험 선보여 이번 협업의 핵심은 '엄브렐라 코퍼레이션 – 레벨 3 액세스(Umbrella Corporation – LEVEL 3 ACCESS)' 커스텀 PC의 증정 이벤트로, Z890M AORUS ELITE WIFI7 ICE 메인보드와 GeForce RTX 5080 AERO OC SFF 그래픽카드를 탑재한 단 하나뿐인 완제품 데스크톱 PC다. 레지던트 이블 레퀴엠의 시각적 아이덴티티와 분위기에서 영감을 받아 디자인된 이 커스텀 PC는 테마형 GIGABYTE C102 GLASS ICE 섀시를 적용했으며, 커스텀 GIGABYTE MO27Q28G 게이밍 모니터와 함께 구성돼 완성도 높은 셋업을 구현한다. 이번 협업의 상징적 제품으로 제작된 이 커스텀 PC는 프리미엄 PC 환경 속에 레지던트 이블 레퀴엠의 강렬한 비주얼 톤과 긴장감을 구현해 플레이, 전시, 몰입을 모두 아우르는 경험을 제공한다. 증정 이벤트는 2026년 3월 2일부터 3월 31일까지 한정된 기간 동안 공식 캠페인 웹사이트를 통해 진행되며, 팬들은 별도의 구매 없이 응모할 수 있다. 이번 캠페인은 게이머와 PC 애호가들이 협업 콘텐츠를 직접 체험하도록 유도하는 동시에, 기가바이트 프리미엄 하드웨어의 정교한 장인정신과 디테일을 강조하는 데 초점을 맞췄다. 이와 함께 기가바이트는 2026년 2월 20일부터 3월 31일까지 일부 게이밍 모니터 구매 고객을 대상으로 레지던트 이블™ 레퀴엠 게임 번들을 제공하며, 대상 모델은 AORUS FO27Q2, AORUS FV43U, AORUS CO49DQ, MO27Q28G, MO27Q28GR, MO27Q2A, MO27U2, MO32U, M27Q, M27Q2, M27Q3, M27UP, M28U, GS27QA, GS32QCA, S55U가 포함된다. 해당 모델을 구매한 고객은 기가바이트 공식 리딤 플랫폼을 통해 디지털 게임 코드를 등록할 수 있으며, 이를 통해 디스플레이 업그레이드에 추가적인 가치를 더할 수 있다. 특히 MO27Q28G는 4세대 WOLED 패널, 280Hz 주사율, 0.03ms 응답속도를 갖춘 모델로, 레지던트 이블™ 레퀴엠의 오싹한 공포와 긴박한 액션을 생생하게 체험할 수 있는 최적의 모니터 중 하나다. 이번 번들은 커스텀 PC 증정 이벤트와 더불어 보다 많은 플레이어가 기가바이트의 고성능 게이밍 모니터 라인업과 함께 게임을 즐길 수 있도록 구성됐다. 증정 이벤트 응모 기간, 대상 모니터 모델, 리딤 방법에 대한 자세한 내용은 기가바이트 공식 캠페인 웹사이트에서 확인할 수 있다.

2026.03.04 12:10글로벌뉴스

전 세계 125개 제약사 '비바 볼트 CRM' 전격 도입… 제약 업계의 '에이전틱 혁신' 가속화

업계의 압도적 지지와 Veeva AI 기술력 결합으로 에이전틱 CRM 리더로서 입지 굳혀 캘리포니아 플레전턴, 2026년 3월 4일 /PRNewswire/ -- 비바시스템즈(Veeva Systems, NYSE: VEEV)는 오늘 글로벌 Top 20 제약사 및 유럽, 일본의 주요 기업을 포함한 125개 이상의 고객사가 차세대 생명과학 전용 CRM인 비바 볼트 CRM을 본격 도입하여 운영중이라고고 발표했다. 볼트 CRM의 성공적인 시장 안착과 비바 AI의 가용성이 맞물리면서, Veeva는 제약 산업 전반이 에이전틱 CRM 체제로 전환되는 흐름을 주도하고 있다. 글로벌 제약사 125개 이상이 비바 볼트 CRM 도입 후 사용 중 볼트 CRM에 대한 강력한 시장 모멘텀은 심도있는 산업 및 지역에 특화된 기능, 규제 준수, 워크플로우, 그리고 AI 에이전트가 제공하는 명확한 비즈니스 가치를 입증하고 있다. 볼트 CRM은 커머셜 및 메디컬 팀이 초기 시장 준비와 제품 출시부터 성숙기 브랜드의 성과 최적화에 이르기까지, 전체 제품 라이프사이클 전반에 걸친 복잡한 고객 인게이지먼트를 지원하는 핵심 토대를 제공한다. Veeva CRM 스위트 부문 사장인 아르노 소스나(Arno Sosna)는 "이미 125개 이상의 고객사가 볼트 CRM을 도입하며 에이전틱 고객 인게이지먼트를 향한 빠른 행보를 보이고 있다"며, "고객 성공과 제품의 탁월함에 집중함으로써 이러한 영향력을 산업 전반으로 확장해 나갈 것"이라고 밝혔다. 볼트 CRM은 전 세계 모든 규모의 바이오 제약사가 커머셜 실행력을 확보할 수 있도록 기술적 근간을 제공하는 볼트 CRM 스위트(Vault CRM 스위트) 애플리케이션의 핵심 구성 요소다. 볼트 CRM 스위트에는 이벤트 매니지먼트(Events Management), 서비스 센터(Service Center), 캠페인 매니저(Campaign Manager), 페이션트 CRM(Patient CRM) 등이 포함된다. Veeva Systems 소개Veeva Systems는 소프트웨어, 데이터 및 비즈니스 컨설팅을 통해 생명과학 산업을 위한 클라우드를 제공합니다. 혁신, 제품 우수성 및 고객 성공에 전념하며, Veeva는 세계 최대 바이오제약 기업부터 신흥 바이오텍에 이르는 1,500개 이상의 고객사를 지원합니다. 공익 기업(Public Benefit Corporation)으로써 고객, 직원, 주주, 그리고 서비스를 제공하는 산업을 포함한 모든 이해관계자의 이익 균형을 위해 노력하고 있습니다. 더 자세한 정보는 veeva.com/kr에서 확인하십시오. Veeva 미래 전망 관련 진술본 보도자료에는 Veeva의 제품 및 서비스, 제품 및 서비스 사용으로 예상되는 결과 또는 혜택에 관한 미래예측진술이 포함돼 있다. 이러한 진술은 회사의 현재 기대치를 기반으로 한 것이다. 실제 결과는 이 보도자료에 기술된 내용과 실질적으로 다를 수 있으며, 회사는 이러한 진술을 업데이트할 의무가 없다. 2025년 10월 31일자로 마감된 기간에 대해 제출된 10-Q 폼에 공개된 위험과 불확실성을 포함하여 당사 실적에 부정적인 영향을 미칠 수 있는 수많은 위험이 존재하며, 이는 여기에서 확인할 수 있다(당사 사업에 영향을 미칠 수 있는 위험 요약은 33페이지와 34페이지에서 확인할 수 있습니다). 또한 이후 미국 증권거래위원회(SEC)에 제출하는 서류에서도 확인할 수 있으며, 이는 sec.gov에서 확인할 수 있다.

2026.03.04 12:10글로벌뉴스

병원 설문지가 대화로 바뀐다…GPT가 환자 문진표 대신 작성하는 시대

병원에서 긴 설문지를 작성하느라 손목이 아픈 경험, 누구나 있을 것이다. 특히 허리 통증으로 병원을 찾은 환자라면 40개가 넘는 질문에 답하는 일은 고역이다. 하지만 이제 챗GPT처럼 대화하듯 증상을 말하면 AI가 알아서 의료 기록을 완성해주는 시대가 열렸다. 호주 맥쿼리대학교와 이스라엘 하이파대학교 연구팀이 개발한 이 대화형 AI는 단순히 질문을 하나씩 던지는 방식이 아니라, 환자와 자연스러운 대화를 나누며 여러 정보를 한 번에 수집한다. 연구팀은 개발 과정에서 얻은 교훈을 바탕으로 의료용 대화형 AI를 만들 때 반드시 지켜야 할 설계 원칙을 제시했다. 진료 시간 28.7% 단축, 대화형 AI가 의료 현장을 바꾼다 최근 2,000명 이상의 환자를 대상으로 한 대규모 임상시험에서 대화형 AI가 전문의 진료 시간을 28.7%나 줄였다는 결과가 나왔다. 이는 단순히 시간을 아끼는 것을 넘어 의료진의 문서 작업 부담을 크게 덜어준다는 의미다. 실제로 의료진의 문서 작업 부담은 오랫동안 심각한 문제로 지적돼 왔다. 또 다른 연구에서는 64,000명 이상의 환자로부터 정신건강 평가 데이터를 대화형 AI로 수집하는 데 성공했다. 연구팀이 개발한 허리 통증 데이터 수집 AI는 미국 국립보건원(NIH) 태스크포스가 권장하는 표준 데이터셋을 기반으로 한다. 이 데이터셋에는 40개가 넘는 항목이 포함돼 있어 환자가 정확하고 완전하게 작성하기 매우 어렵다. 기존의 대화형 AI들은 "통증이 언제 시작됐나요?"라고 묻고, 답을 듣고, 다시 "통증의 강도는 어느 정도인가요?"라고 묻는 식으로 질문을 하나씩 던졌다. 하지만 이번에 개발된 AI는 "증상에 대해 말씀해주세요"라고 물으면 환자가 자유롭게 이야기하는 동안 여러 정보를 동시에 파악한다. 마치 숙련된 의사가 환자의 이야기를 들으며 필요한 정보를 머릿속으로 정리하는 것과 비슷하다. 딱딱한 설문지 대신 자연스러운 대화, 사용자 만족도 급상승 대화형 인터페이스가 기존 온라인 설문지보다 얼마나 효과적일까? 여러 연구가 명확한 답을 제시한다. 한 비교 연구에서 대화형 AI는 시스템 사용성 점수에서 69.7점을 기록해 온라인 설문지의 67.7점을 앞질렀다. 더 중요한 지표인 순추천지수(NPS)에서는 24점 대 13점으로 거의 두 배 가까운 차이를 보였다. 이는 사용자들이 대화형 방식을 훨씬 더 선호한다는 의미다. 가족 건강 이력 수집 연구에서는 그 차이가 더욱 극적이었다. 대화형 AI의 사용성 점수는 80.2점으로 설문지 방식의 61.9점을 크게 앞섰다. 하지만 모든 것이 장점만 있는 것은 아니다. 대화가 길어질수록 사용자 만족도가 떨어진다는 연구 결과도 있다. 짧은 대화에서는 호의적이던 사용자들이 긴 대화에서는 피로감을 느낀다. 이는 40개 이상의 항목을 수집해야 하는 허리 통증 데이터 같은 경우 특히 중요한 고려사항이다. 연구팀은 이 문제를 해결하기 위해 대화를 여러 주제로 나누고, 사용자에게 진행 상황을 알려주며, 적절히 격려하는 방식을 도입했다. 공감은 적당히, 의학 조언은 절대 금지…의료 AI의 까다로운 균형 의료용 대화형 AI를 설계할 때 가장 까다로운 부분은 AI의 '성격'을 조율하는 일이다. 너무 무뚝뚝하면 환자가 불편하고, 너무 친근하면 전문성이 떨어져 보인다. 연구팀은 AI가 "재미있지만 적절하고, 속어를 쓰지 않으며, 존중하는 태도"를 유지하도록 지시했다. 또한 환자가 부정적인 반응을 보일 때는 공감하는 톤으로 응답하도록 했다. 예를 들어 환자가 "통증 때문에 밤에 잠을 전혀 못 자요"라고 말하면 AI는 "그건 정말 힘드시겠어요"라고 반응한 뒤 다음 질문으로 넘어간다. 하지만 공감에도 한계가 있다. 연구팀은 AI가 절대로 의학적 조언을 해서는 안 된다고 강조했다. AI의 역할은 오직 데이터를 수집하는 것뿐이다. "허리를 따뜻하게 찜질하세요" 같은 조언은 아무리 상식적으로 들려도 금지된다. 이는 환자 안전을 위한 필수 원칙이다. 실제로 한 연구에서는 임상의가 대화 기록을 정기적으로 검토해 잠재적 위험이 있는 환자에게 연락할 수 있도록 했다. 이처럼 AI가 아무리 발전해도 의료 현장에서는 인간 전문가의 감독이 여전히 필요하다. 신호등 색깔로 보여주는 AI의 확신도, 데이터 품질을 지키는 비결 대화형 AI가 환자의 말을 제대로 이해했는지 어떻게 확인할 수 있을까? 환자가 "허리가 좀 아파요"라고 말했을 때 AI는 이것이 "약간 아픔"인지 "매우 아픔"인지 확신할 수 없을 수 있다. 연구팀은 이 문제를 해결하기 위해 '확신도 시각화' 방법을 제안했다. 마치 신호등처럼 녹색, 노란색, 빨간색으로 AI가 수집한 정보의 확실성을 표시하는 것이다. 녹색은 "확실히 이해했습니다", 노란색은 "이렇게 이해했는데 맞나요?", 빨간색은 "다시 한 번 말씀해주시겠어요?"를 의미한다. 또한 AI는 수집한 정보를 환자에게 다시 보여주고 확인을 받는다. "지금까지 말씀하신 내용을 정리하면, 통증은 3개월 전에 시작됐고 강도는 10점 만점에 7점 정도이며 왼쪽 다리로 퍼진다고 하셨습니다. 맞나요?" 이런 식으로 환자가 직접 확인하고 수정할 기회를 준다. 이는 단순히 정확성을 높이는 것을 넘어 환자에게 통제감을 주고 신뢰를 쌓는 중요한 과정이다. 연구팀은 대화가 길어질수록 나중에 나오는 질문들에 대한 데이터 수집 품질이 떨어질 수 있다는 점도 발견했다. 이는 AI가 긴 대화 내용을 처리하면서 초반에 제시된 지시사항을 '잊어버리는' 경향이 있기 때문이다. 해결책은 대화를 여러 단계로 나누는 것이다. 마치 긴 시험을 여러 섹션으로 나누듯, 데이터 수집도 "증상 단계", "일상생활 영향 단계", "수면 영향 단계" 등으로 분리하면 각 단계에서 더 정확한 데이터를 얻을 수 있다. 설문지, 채팅, 음성…환자가 선택하는 입력 방식의 자유 연구팀이 제시한 핵심 원칙 중 하나는 '상호작용 유연성'이다. 어떤 환자는 전통적인 설문지 형식을 선호할 수 있고, 어떤 환자는 타이핑으로 대화하는 것을 좋아하며, 또 어떤 환자는 음성으로 말하는 것이 편할 수 있다. 이상적인 시스템은 환자가 이 세 가지 방식을 자유롭게 전환할 수 있어야 한다. 예를 들어 집에서는 음성으로 편하게 말하다가 대중교통에서는 타이핑으로, 복잡한 질문에는 설문지 형식으로 답할 수 있는 것이다. 대형 언어모델(LLM)은 본질적으로 유연성을 가지고 있어 이런 다양한 상호작용을 지원하기에 적합하다. 하지만 무제한적인 자유는 오히려 문제가 될 수 있다. 환자가 "의사 선생님은 뭐라고 하던가요?"라고 물으면 AI가 의학 조언을 하려고 할 수 있다. 따라서 프롬프트(AI에게 주는 지시사항)를 신중하게 설계해 필요한 유연성은 유지하되 위험한 행동은 제한해야 한다. 연구팀은 "데이터 수집에만 집중하고 의학적 조언은 절대 하지 말라"는 명확한 제약을 프롬프트에 포함시켰다. 또한 AI는 환자의 대화 스타일에 맞춰 적응해야 한다. 어떤 환자는 간결하게 "3개월 전, 7점, 왼쪽 다리"라고 답할 수 있고, 어떤 환자는 "사실 정확히 언제부터인지는 모르겠는데요, 작년 여름쯤이었던 것 같아요. 처음엔 별로 안 아팠는데 점점 심해져서 지금은 정말 힘들어요"라고 길게 설명할 수 있다. AI는 두 경우 모두에서 필요한 정보를 추출할 수 있어야 한다. 연구팀은 질문을 기술적이고 딱딱하게 제시하지 말고 자연스러운 대화처럼 풀어서 물어보도록 설계했다. 예를 들어 "통증의 시각적 아날로그 척도 점수는?"이 아니라 "통증이 얼마나 심한지 0점부터 10점까지로 표현하면 어느 정도일까요?"라고 묻는 식이다. 복잡한 의학 용어는 쉽게, 선택지는 번호로…명확성의 원칙 의료 설문지에는 일반인이 이해하기 어려운 용어들이 많다. "방사통(radicular pain)"이나 "신경근병증(radiculopathy)" 같은 단어를 환자가 정확히 이해하고 답하기는 어렵다. 연구팀은 질문을 단순하게 유지하고 복잡한 용어의 의미를 함께 제공하라고 권고했다. "방사통이 있나요?" 대신 "통증이 허리에서 시작해서 다리로 퍼지는 느낌이 있나요?"라고 물어야 환자가 정확히 답할 수 있다. 선택지가 많고 복잡할 때는 번호를 매기는 것이 효과적이다. 특히 괄호와 쉼표가 포함된 긴 선택지가 있을 때 AI가 혼란스러워할 수 있다. "1) 전혀 아프지 않음, 2) 약간 아픔, 3) 중간 정도 아픔, 4) 많이 아픔, 5) 극심하게 아픔"처럼 명확히 번호를 매기면 AI가 환자의 답변을 정확히 매칭할 수 있다. 또한 표준 설문지의 선택지를 현지 상황에 맞게 조정하는 것도 중요하다. 예를 들어 인종이나 민족 관련 용어는 나라마다 다르므로 각 지역에 맞게 수정해야 한다. 연구팀은 일관성의 원칙도 강조했다. 같은 개념을 물을 때는 항상 같은 용어와 형식을 사용해야 한다. 한 번은 "통증 강도"라고 하고 다음에는 "얼마나 아픈지"라고 하면 환자도 혼란스럽고 AI의 데이터 처리도 복잡해진다. 또한 의미 있는 색상 체계를 사용해 추가 정보를 전달할 수 있다. 예를 들어 통증 강도를 녹색(경미), 노란색(중간), 빨간색(심각)으로 시각화하면 환자와 의료진 모두 한눈에 상태를 파악할 수 있다. 격려와 진행 상황 알림으로 완료율 높이기 40개가 넘는 질문에 답하는 것은 지루한 일이다. 연구팀은 환자가 설문을 끝까지 완료하도록 격려하는 기능을 설계 원칙에 포함시켰다. 가장 간단한 방법은 진행 상황을 알려주는 것이다. "전체 5개 주제 중 2개를 완료하셨습니다" 같은 메시지는 환자에게 명확한 목표를 제시하고 성취감을 준다. 마라톤을 뛸 때 중간 지점마다 표지판이 있으면 힘이 나는 것과 같은 원리다. 또한 적절한 격려 메시지도 중요하다. "잘하고 계세요. 조금만 더 하면 됩니다"나 "이 정보는 의사 선생님이 더 나은 치료 계획을 세우는 데 큰 도움이 될 거예요" 같은 메시지는 환자에게 동기를 부여한다. 하지만 지나치게 자주 격려하면 오히려 성가실 수 있으므로 적절한 빈도를 찾는 것이 중요하다. 연구팀은 각 주제 섹션을 완료할 때마다 격려 메시지를 제공하는 방식을 채택했다. 환자가 중간에 멈추고 나중에 다시 돌아올 수 있는 기능도 필요하다. 긴 설문을 한 번에 완료하기 어려울 수 있으므로 진행 상황을 저장하고 나중에 이어서 할 수 있어야 한다. 이는 기술적으로는 간단하지만 완료율을 크게 높일 수 있는 기능이다. 스마트폰 앱에서 쇼핑을 하다가 장바구니에 담아두고 나중에 다시 결제하는 것처럼, 의료 데이터 수집도 같은 유연성을 제공해야 한다. 신뢰 구축과 상호운용성, 의료 시스템 통합의 필수 조건 환자가 대화형 AI를 신뢰하려면 그 기반이 탄탄해야 한다. 연구팀은 증거 기반 설문지를 사용하는 것을 핵심 원칙으로 제시했다. NIH 태스크포스가 권장하는 표준 데이터셋처럼 의학적으로 검증된 질문들을 사용하면 환자와 의료진 모두 그 결과를 신뢰할 수 있다. 또한 대화의 톤을 적절히 통제하고 의학적 조언을 하지 않는 것도 신뢰 구축에 중요하다. 환자는 AI가 자신의 역할 범위를 명확히 알고 그 안에서만 행동한다는 것을 느낄 때 더 편안하게 정보를 공유한다. 로그 기록과 정기적 검토도 필수적이다. AI가 수집한 모든 대화와 데이터는 기록되어야 하고, 의료진이 정기적으로 검토해 데이터 품질을 높이고 문제를 조기에 발견할 수 있어야 한다. 이는 환자 안전을 위해서도 중요하다. 예를 들어 환자가 "자살하고 싶다"는 표현을 했다면 즉시 의료진에게 알려져야 한다. 로그를 통해 수집된 데이터를 원래 대화로 추적할 수 있어야 나중에 불명확한 부분을 확인하거나 오류를 수정할 수 있다. 마지막으로 상호운용성(interoperability)은 AI 시스템이 실제 의료 현장에서 사용되기 위한 필수 조건이다. AI가 수집한 데이터는 병원의 전자건강기록(EHR) 시스템으로 자동으로 전송되어야 한다. 의료진이 AI 시스템에서 데이터를 복사해 다시 입력해야 한다면 효율성이 크게 떨어진다. 연구팀은 표준화된 데이터 형식을 사용하고 기존 의료 시스템과의 통합을 설계 초기부터 고려하라고 권고했다. 이는 기술적으로 복잡하지만 대화형 AI가 실험실을 벗어나 실제 병원에서 사용되려면 반드시 해결해야 할 과제다. FAQ ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 대화형 AI로 병원 설문지를 작성하면 정말 더 빠르고 정확한가요? A. 실제 임상시험 결과 대화형 AI를 사용하면 전문의 진료 시간이 28.7% 단축됐고, 사용자 만족도도 기존 온라인 설문지보다 높게 나타났습니다. 특히 순추천지수는 24점 대 13점으로 거의 두 배 차이를 보였습니다. 다만 대화가 너무 길어지면 오히려 만족도가 떨어질 수 있어 적절한 길이 조절이 중요합니다. Q2. AI가 환자의 말을 잘못 이해하면 어떻게 되나요? A. 연구팀은 신호등 색깔처럼 AI의 확신도를 시각적으로 표시하는 방법을 제안했습니다. 녹색은 확실히 이해했다는 뜻이고, 노란색은 확인이 필요하며, 빨간색은 다시 물어봐야 한다는 의미입니다. 또한 AI가 수집한 정보를 환자에게 다시 보여주고 확인받는 과정을 거쳐 정확성을 높입니다. Q3. 의료용 대화형 AI가 환자에게 치료 조언을 해도 되나요? A. 절대 안 됩니다. 연구팀은 AI의 역할을 오직 데이터 수집으로만 제한해야 한다고 강조했습니다. 아무리 상식적으로 들리는 조언이라도 AI가 의학적 조언을 하면 환자 안전에 위험이 될 수 있습니다. 임상의가 대화 기록을 정기적으로 검토해 잠재적 위험을 감지하는 것이 중요합니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 리포트명: Conversational AI for Automated Patient Questionnaire Completion: Development Insights and Design Principles ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.03 21:51AI 에디터

챗GPT가 소설을 먹고 자란다…AI 학습 데이터에 숨겨진 '픽션의 비밀'

챗GPT와 같은 생성형 AI가 사람처럼 자연스럽게 대화하는 비결이 무엇일까? 놀랍게도 그 답은 '소설'에 있다. 일리노이대학교와 듀크대학교 연구진이 발표한 논문에 따르면, 대규모 언어 모델(LLM)의 학습 데이터에는 상당량의 소설이 포함되어 있으며, 이것이 AI의 언어 생성 방식에 결정적인 영향을 미친다는 사실이 밝혀졌다. 메타(Meta)의 인기 모델인 라마(LLaMA)의 경우, 약 17만 권의 책 중 3분의 1이 소설이며, 마거릿 애트우드, 스티븐 킹, 자디 스미스 같은 유명 작가들의 작품이 포함되어 있다. 왜 AI 개발자들은 소설에 집착할까 AI 엔지니어들 사이에는 오래전부터 하나의 믿음이 있었다. 소설 속 언어가 인간의 다양한 사회적, 의사소통적 현상을 모두 담아낼 만큼 풍부하다는 것이다. 논문의 서론(Introduction)에서 연구진은 이 믿음이 직관적으로는 받아들여졌지만, 실제로 검증된 적은 거의 없었다고 지적한다. 생성형 AI는 본질적으로 '다음 단어 예측기'다. 방대한 텍스트 데이터에서 어떤 단어 다음에 어떤 단어가 오는지 패턴을 학습해, 사람이 입력한 질문에 그럴듯한 답변을 만들어낸다. 뉴스 기사는 실제 사건과 인물을 다루지만, 소설은 '무(無)에서 유(有)를 창조'한다. 가상의 세계와 인물을 처음부터 끝까지 언어로만 구축해낸다는 점에서, AI가 학습하기에 이상적인 데이터라는 것이 개발자들의 판단이었다. 하지만 여기에는 위험이 숨어 있다. 특히 로맨스 소설처럼 성별 고정관념이 강한 장르가 포함될 경우, AI 역시 편향된 출력을 생성할 가능성이 크다. 연구진은 소설이 AI에 미치는 영향이 단순한 편향 문제를 넘어, AI가 언어를 이해하고 생산하는 전체 방식에 근본적인 영향을 미칠 수 있다고 경고한다. 소설 없이 학습한 AI는 무엇이 달라지나 연구진은 구글의 오픈소스 모델인 버트(BERT)를 활용해 실험을 진행했다. 소설이 포함된 데이터로 학습한 모델과 소설을 제외한 데이터로 학습한 모델을 비교 분석한 것이다. 이 실험의 핵심은 소설이 AI의 언어 생성 능력에 어떤 구체적인 차이를 만들어내는지 확인하는 것이었다. 결과는 명확했다. 소설로 학습한 AI는 '인물(character)'을 만들어내는 능력이 뛰어났다. 여기서 인물이란 단순히 이름을 가진 존재가 아니라, 사용자가 상호작용하고 세상을 배울 수 있는 '그럴듯한 페르소나'를 의미한다. 문학 이론가 캐서린 갤러거(Catherine Gallagher)가 지적했듯, 소설 속 인물은 '특정한 누구도 아니지만, 누구라도 될 수 있는' 존재다. 이 역설적 특성이 AI에게도 그대로 전달된 것이다. 예를 들어, 챗GPT에게 "조언을 해줘"라고 요청하면, AI는 마치 친절한 상담사처럼 응답한다. 이것은 뉴스 기사나 위키백과만으로는 학습할 수 없는 능력이다. 소설 속 화자나 등장인물들이 독자에게 말을 거는 방식, 감정을 전달하는 방식을 AI가 학습했기 때문에 가능한 일이다. 소설이 만들어낸 AI의 '목소리' 논문의 '픽션성과 커뮤니케이션(Fictionality as Communication)' 섹션에서 연구진은 문학 이론을 AI 분석에 적용한다. 1970년대 이후 문학 학자들은 소설이 어떻게 독자에게 영향을 미치는지 연구해왔다. 존 설(John Searle)과 앤 밴필드(Ann Banfield)는 소설만의 독특한 언어적 특징, 즉 '표지판(signposts)'을 찾아냈다. 갤러거는 소설의 핵심을 '고유명사'에서 찾았다. 소설 속 인물의 이름은 실제 인물을 가리키지 않지만, 특정 지역, 성별, 계층, 민족을 암시한다. 예를 들어 '제인 오스틴'의 소설에 등장하는 '엘리자베스 베넷'이라는 이름은 19세기 영국 중산층 여성을 떠올리게 한다. 이처럼 소설은 실존하지 않는 인물을 통해 실제 사회의 유형을 학습하게 만든다. AI 역시 이 방식을 그대로 따른다. 사용자가 AI와 대화할 때, AI는 마치 특정한 '누군가'처럼 말하지만, 실제로는 아무도 아니다. 이 '목소리'는 수천 권의 소설에서 학습한 화자와 인물들의 혼합체다. 연구진은 이것이 소설이 AI에 제공하는 가장 큰 '어포던스(affordance)', 즉 활용 가능성이라고 설명한다. 리타 펠스키(Rita Felski)와 블레이키 버뮬(Blakey Vermeule)의 통찰을 인용하며, 연구진은 소설의 가장 큰 힘은 '그럴듯하지만 실제로는 존재하지 않는 사람'을 만들어내는 능력이라고 강조한다. AI 시대, 우리가 경계해야 할 것 이 연구가 던지는 질문은 단순히 학문적 호기심을 넘어선다. 만약 우리가 매일 사용하는 챗GPT, 구글 바드, 클로드 같은 AI가 소설을 먹고 자랐다면, 그것이 우리의 일상에 어떤 영향을 미칠까? 논문의 결론 부분에서 연구진은 현대 문화가 점점 더 생성형 AI에 의해 형성되고 있다면, 문화 생산 방식을 분석할 때 '학습 데이터'라는 새로운 차원을 반드시 고려해야 한다고 주장한다. 예를 들어, AI 기반 의료 상담 서비스가 로맨스 소설에서 학습한 성별 고정관념을 재생산한다면? 투자 조언 AI가 특정 계층의 관점만을 반영한 소설 데이터로 학습되었다면? 교육용 AI가 편향된 역사 소설을 기반으로 학생들에게 정보를 제공한다면? 이 모든 시나리오는 단순한 가정이 아니라, 현재 진행 중인 현실이다. 연구진은 앞으로 문화 연구자들이 '데이터 감사(data audit)'와 '알고리즘 감사(algorithmic audit)'를 수행해야 한다고 제안한다. 이는 AI 모델이 어떤 데이터로 학습되었는지, 그 데이터가 어떤 편향을 담고 있는지, 그리고 그것이 최종 출력에 어떻게 반영되는지를 추적하는 작업이다. 이런 감사 작업은 단순히 기술적 문제가 아니라, 문화적·사회적 책임의 문제다. 알렉스 라이스너(Alex Reisner)가 '애틀랜틱(The Atlantic)'에 기고한 연구에 따르면, 라마 모델의 학습 데이터에는 레베카 솔닛, 주노 디아스 같은 현대 작가들의 작품이 포함되어 있다. 이들의 작품이 AI의 '세계관'을 형성하는 데 기여했다는 의미다. 하지만 이 작가들은 자신의 작품이 AI 학습에 사용되는 것에 동의한 적이 없다. 이는 저작권 문제를 넘어, AI가 문화를 어떻게 재구성하는가라는 근본적 질문을 던진다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 챗GPT는 정말 소설을 읽고 학습한 건가요? A. 정확히는 '읽는다'기보다 소설 텍스트의 패턴을 분석해 학습한다. AI는 수천 권의 소설에서 단어 배열, 문장 구조, 대화 방식을 학습해 사람처럼 자연스러운 언어를 생성할 수 있게 된다. 메타의 라마 모델의 경우 약 17만 권의 책 중 3분의 1이 소설이다. Q2. 소설로 학습한 AI가 위험한 이유는 무엇인가요? A. 소설에는 작가의 세계관과 시대적 편향이 담겨 있다. 특히 로맨스 소설처럼 성별 고정관념이 강한 장르가 학습 데이터에 포함되면, AI도 편향된 답변을 생성할 가능성이 크다. 의료, 교육, 투자 같은 중요한 분야에서 AI를 사용할 때 이런 편향이 실제 피해로 이어질 수 있다. Q3. 앞으로 AI 학습 데이터는 어떻게 관리되어야 하나요? A. 연구진은 '데이터 감사'와 '알고리즘 감사'를 제안한다. AI가 어떤 데이터로 학습되었는지, 그 데이터에 어떤 편향이 있는지, 최종 출력에 어떻게 반영되는지를 투명하게 공개하고 검증하는 작업이 필요하다. 이는 기술적 문제이자 사회적 책임의 문제다. 기사에 인용된 논문 원문은 arXiv에서 확인할 수 있다. 리포트명: Generative AI & Fictionality: How Novels Power Large Language Models ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.03 21:50AI 에디터

기업 데이터 80%가 비정형...AI자산으로 전환 어떻게

지능형 데이터 플랫폼 전문기업 데이터스트림즈(대표 이영상)는 지난 26일 'AI 거버넌스와 데이터 리니지-비정형 데이터를 AI 자산으로 전환하라'를 주제로 웨비나를 개최, 비정형 데이터를 AI 자산으로 전환하는 구체적인 방법론과 솔루션을 제시했다고 밝혔다. 이번 웨비나는 올 1월 시행된 AI 기본법 이후 기업이 요구받고 있는 AI의 투명성, 안전성, 책임성 확보를 위한 대응 방안을 중심으로 진행했다. 특히 기업 내 방대한 비정형 데이터가 AI 활용의 핵심 자산이 될 수 있음에도 불구, 관리 체계 부재로 실제 활용에는 한계가 있다는 점이 주요 문제로 제기됐다. 데이터스트림즈는 발표를 통해 AI 도입 실패의 근본 원인이 기술이나 예산이 아닌 '데이터 거버넌스 부재'에 있다고 진단했다. 대부분의 기업이 문서, 이메일, 이미지 등 다양한 비정형 데이터를 보유하고 있지만 이를 체계적으로 관리하지 못하면서 AI 모델의 신뢰성과 품질 확보에 어려움을 겪고 있다는 설명이다. 특히 데이터스트림즈의 독자 아키텍처인 'M-DOSA(Meta Data Oriented Service Architecture)'가 주목을 받았다. 'M-DOSA'는 메타데이터 카탈로그를 모든 데이터 서비스의 중심에 두는 설계 철학이다. 비정형 문서에서 추출한 필드와 정형 데이터베이스의 컬럼을 카탈로그 매핑 테이블로 연결한다. 이를 통해 종이 신청서에서 출발한 데이터가 SQL 파이프라인을 거쳐 AI 모델에 이르기까지의 전 과정을 하나의 리니지 캔버스에서 끊김 없이 추적할 수 있다. 이날 웨비나에서는 데이터스트림즈의 'Q-Track' AI를 기반으로 비정형 데이터를 AI 자산으로 전환하는 구체적인 방법을 시연했다. 시연에서는 비정형 문서 업로드 → OCR 기반 자동 구조화 → AI의 개인정보 자동 탐지 → 데이터 스튜어드의 최종 승인(Human-in-the-Loop) → ODS에서 AI 모델까지 전 구간 리니지 자동 생성의 4단계 파이프라인을 소개했다. 또 개인정보 자동 탐지와 함께 주민등록번호 등 복원 불가 항목에 대한 단방향 해싱, 감사 목적 복원이 필요한 항목에 대한 양방향 암호화 등 비식별화 자동 적용 기능을 공개했다. 아울러 데이터 생성부터 활용까지의 흐름을 노드 그래프로 시각화, 전사 데이터 이동 경로를 추적할 수 있는 데이터 리니지 체계를 통해 AI 기본법 컴플라이언스 대응이 가능하다는 점도 강조했다. 특히 기존 수일에서 수주가 소요되던 감사 소명 작업을 'Q-Track AI'를 통해 1분 이내에 자동 생성할 수 있다는 점도 참석자들의 주목을 받았다. 발표를 맡은 데이터스트림즈 AI전략사업본부 AI개발팀 곽두일 수석은 17년간 공공·금융·의료·제조 등 다양한 산업 영역에서 40건 이상의 엔터프라이즈 AI PoC를 수행한 경험을 바탕으로, 비정형 데이터를 정형 데이터 수준으로 관리, AI 신뢰성과 활용도를 동시에 높이는 방법론을 시연했다. 그는 기업이 보유한 비정형 데이터를 정형 데이터 수준으로 관리할 수 있을 때 AI 신뢰성과 활용도가 함께 향상될 수 있다고 설명했다. 데이터스트림즈는 이번 웨비나를 통해 AI 경쟁력의 핵심이 모델이 아닌 데이터 관리 역량에 있음을 강조하며, 준비된 기업과 그렇지 않은 기업 간 격차는 향후 더욱 확대될 것으로 전망했다. 이영상 데이터스트림즈 대표는 "AI 기본법이 시행된 지금, 데이터 거버넌스 없이 기업용 AI를 운영하는 것은 더 이상 선택의 문제가 아니다"며 "비정형 데이터를 AI 자산으로 전환하는 M-DOSA 기반 AI 거버넌스가 2027년 기업 AI 경쟁력의 핵심 기준이 될 것" 이라고 밝혔다.

2026.03.03 14:48방은주 기자

고정밀지도 구글 반출 허가 백브리핑 질의응답 전문

구글에 고정밀지도 허용한 정부가 반출 정보를 지도 베이스 맵과 길 찾기에 필요한 네트워크 데이터로 한정했다. 또 충족할 요건으로 영상 보안 처리, 좌표 삭제, 지도 관련 정보 가공을 국내 생태계 안에서 해결할 것을 내걸었다. 과거에도 두 차례나 구글이 고정밀지도 반출을 요청했지만, 우리 정부의 요구사항을 전혀 수용하지 않아 결렬된 만큼 지도 반출을 위한 태도 변화가 이번 허가에 결정적이었던 것으로 풀이된다. 다만, 구글 측에서도 엔지니어링 기간이 필요한 만큼 실질적인 지도 반출에는 6개월 이상의 시간이 소요될 전망이다. [다음은 측량성과 국외반출 협의체 백브리핑 일문일답] Q. 구글 지도가 청와대를 노출해 논란이 있었는데, 이를 어떻게 대응하기로 했는지. 구글이 국내 서버를 사용하더라도 (협력 업체를 거치기 때문에) 결국 대여인데 비용(법인세) 문제는 어떻게 할 계획인지. 애플은 어떻게 생각하는지. A. 김형수 국토지리정보원 스마트공간정보과 과장: 구글에 이미 요청을 해서 청와대 노출건은 다 보안 처리했다. 국내에서 적용하는 기준에 충족된 걸로 알고 있다. 김태형 국토교통부 공간정보제도과 과장: 대여와는 다르다. 보통 임대 서버를 활용하는 방식은 아마존 웹 서버와 같은 것일 빌리는 걸 말하고, 이번에 논의한 방안은 국내 기업의 밸류체인 서버에서 모든 가공작업이 이뤄지고 그 부분이 보안적으로 문제가 없다는 것을 확인 후 반출되는 것이다. 세금 문제는 협의체에서 논의할 수 있는 사항 밖의 일이다. 애플은 서류 보완을 이유로 연장을 신청해서 지금 연장된 상태이고, 이를 제출하면 그 때 협의체 심의를 거쳐 결정할 계획이다. Q. 보안 처리 되는 장소의 기준은 어떤 근거로 선정했는지. 등고선은 어떤 이유에서 민감하다고 보는지. A. 김태형 과장: 보안처리 시설 대상에는 군사 시설과 보안 시설로 나뉘고 있다. 군사 시설은 군부대, 보안 시설은 청와대같은 국가 주요 시설이라고 보면 되는데, 국방부와 국가정보원과 같은 곳의 위치나 갯수 등 노출되지 말아야 할 시설이 노출된다거나 그런 부분을 즉각적으로 수정하고, 업데이트할 수 있는 부분이 가장 중요하다. 곧 (구글은) 한국 지도 전담관을 별도로 선출할 예정이고, 이 담당관은 지도 업무와 관련된 비상 대응 업무를 전담하게 될 것이다. 실제 지도가 반출되기 전에 보안 사고 및 대응 프레임워크를 수립할 예정이다. 김형수 과장: 등고선을 포함해 지도 상에 있는 3차원 높이 정보는 군사 활동이나 보안적으로 굉장히 중요하다. 국내 보안 관련 규정에서도 3차원 높이 정보에 대해서는 엄격하게 공개를 제한하고 있다. 이 때문에 국내에서는 어디든 동일한 기준을 적용하고 있다. 만약에 학술이나 기술 개발 등에서 필요할 때는 3차원 높이 정보에 대해 별도로 국토지리정보원에 공개 제한 정보 사용 허가를 받는다. 이런 부분이 별도로 엄격하게 제한돼 있고 근본 요건에서도 제외하도록 돼 있다. Q. 구글 측에 권고할 상생 방안 중 데이터센터 설립 등이 포함돼 있는지. A. 김태형 과장: 상생 방안에 대해서는 구글이 우리 국내 산업계와 국익에도 기여할 수 있는 방안을 강구하라는 권고 사항이다. Q. 반출된 지도를 회수하는 조건으로 언급된 지속적이고 심각한 조건 불이행행위는 어떤 경우를 말하는지. 구체적으로 정해진 바가 있는지. 반출된 지도 데이터를 회수하는 게 가능한 부분이지. A. 김태형 과장: 국내 서버를 이용해 민감 정보를 처리한 후 정부의 검토 확인을 거쳐 나갈 것, (지속적으로 이행상황을) 감시할 것, 보안사고가 났을 때 어떻게 대응할지를 담은 프레임워크 등이 사실상 요건이다. 이 요건을 어겼을 때 (지도를) 회수할 수 있다는 조항을 통해 사후 관리의 통제권을 확보하고자 한다. 회수는 반출된 정보를 활용해 비즈니스를 하는 부분에 대한 허가가 회수되는 것으로, 반출된 데이터를 가지고 더 이상 영업을 할 수 없게 되는 일이 발생한다. Q. 등고선 제외하고 또 어떤 정보가 반출이 안되는지. 기술적 조치방안인 '레드버튼'을 기술적으로 어떻게 생각하고 있는지. A. 김태형 과장: 레드 버튼은 국가 안보에 대한 긴박한, 비상 대응이 필요한 경우 서버단에서 그 기능을 중단시키는 그런 버튼이다. 이런 기능을 구현하도록 권고했다. 김형수 과장: (국가기본도에 105개 정도의 속성 정보가 들어있는데, 이 중 반출 안되는 것은) 기본적으로 3차 데이터는 반출이 안되고, 군사시설이나 보안 관리 규정이 적용되는 지하 시설물, 국가 핵심시설물 등은 반출될 수 없는 데이터로 명시돼 있다. Q. 협의체에 포함된 민간위원은 몇 명인지. 민간위원의 보안 서류 검토 기간이 충분했는지. 실제로 해외에 나가는 데이터 목록은 무엇인지. 국내 사업자와의 형평성 논란에 대해서는 어떻게 생각하지는지. 국내 산업계에 미치는 영향 중 관광객 활성화 측면의 긍정적 영향과, 부정적 영향 중 어떤 부분을 더 높게 평가했는지. A. 김태형 과장: 오늘 회의에는 두 명의 민간위원이 참석했다. 민간위원이 선정된지 얼마 안 돼 서류를 들여다볼 시간이 짧지 않았냐는 생각이 들 수 있지만, 충분히 민간위원의 전문성을 가지고 국토지리정보원에서 위촉했다. 국내 법이 적용되는 빠른 수정과 빠른 대응을 어떻게 국내 서버라는 조건으로 해결할 것인가에 대해 고민을 많이 했다. 데이터가 나가기 전 보안처리하고, 검토하고 서비스에 필요한 아주 제한적 데이터만 반출하는 방식을 통해 안보 문제를 해결하려고 했다. 반출되는 데이터 목록은 구글이 필요로 하는 제한적 데이터로 한정했다. 지도 베이스 맵과 경로 안내에 필요한 네트워크 데이터로 한정했다는 의미다. 구글이든, 국내 기업이든 이제 국내법 체계로 들어왔기 때문에 공간 정보 관련 규제는 동일하게 적용받게 된다. 산업계 영향을 정량적으로 분석하거나 논의하지는 않았다. 다만, 국내 공간정보 산업에 미치는 부정적 영향도 있을텐데 이를 선제적 투자나, 국내 기업에 투자하고 성장하는 선순환 구조를 만들어 갈 수 있도록 관계 부처 합동으로 진행 방안을 마련하라는 권고를 했다. Q. 앞으로 해외 기업의 국내 지도 반출 요청이 있을 때마다 105개의 속성 정보를 해외 업체들한테도 동일하게 제공할 것인지. 티맵과도 협의가 된 것인지. A. 김태형 과장: 105개가 반출되는 것은 아니다. 기본적으로 반출 허가를 신청할 때는 반출 대상물을 신청서에 적시하게 돼 있다. 이번에 구글에서는 국가기본도 자체가 아니라 자기들 서비스에 필요한 데이터로 한정했다. 한정한 데이터에 대해서는 이번에 반출하기로 결정했다. 제휴 기업에 대해서는 국내에 소재한 서버에서 민감 정보를 가공하라는 요건을 제시한 것이지 특정 회사와 하라고 정한 것은 아니다. Q. 허가 후 조건 충족까지 시간이 걸리는데 실제로 지도가 반출되는 시기는 언제로 보고 있는지. 학계와 산업계와는 의견 수렴이 없었다는 이야기가 있었다 사실인지. 사실이라면 왜 수렴하지 않은 건지. A. 김태형 과장: 구글이 요건을 충족하기에는 시간이 걸린다. 또 요건을 충족했는지를 확인해야 한다. 기본적으로 일정한 정도의 엔지니어링과 시간 투자가 필요하고, 구글이 다른 글로벌 서비스에 하지 않았던 부분이 적용해야 하는 점도 있다. 예를 들어 좌표를 노출하지 않는 부분에 대해서는 안드로이드, iOS(애플 운영체제)도 바꿔야하고, 웹에서도 바꿔야한다. 이런 다양한 것들을 바꿔야 하기 때문에 2개 분기(6개월) 정도의 엔지니어링 기간이 필요하다고 말하고 있다. 하지만 언제까지 조건을 충족할 것이라는 점을 예단할 수는 없다. 학계와 산업계의 의견을 수렴하지 않은 것은 아니고, 국토지리정보원 정책관실 차원에서도 의견을 여러 형태로 청취했다. 다만 이 협의체의 권한은 국가 안보와 관계된 상황을 기술적으로 해소했는지를 검증하고 검토하는 것이다. Q. 오늘 회의에서 그동안의 안보 우려가 충분히 다 해결됐다고 보는지. A. 김태형 과장: 3시간 반 동안 꼼꼼히 요건들을 살펴봤고, 허가 이행에 필요한 일정 요건을 부과하는 방식으로 전체 합의에 이르렀다. Q. 지도 반출을 위해 충족해야 하는 세부조건은 구글에서 제시한 건지, 아니면 정부에서 제안한 부분을 구글이 동의한 건지. 한국 지도 담당관은 몇 명 정도 상주하게 되는지. A. 김태형 과장: 영상 보안 처리, 좌표 표시 제한, 서버 및 사후 관리 부분에 대해 큰 틀에서 준수해야 하는 요건을 제시한 것이다. 담당관 상주 등은 보안 사고 예방 및 대응 프레임워크에서 함께 논의할 예정이다. Q. 이전에도 몇 차례 한국 정부에 고정밀지도 반출을 요청했었다. 이번에 결론이 바뀌게 된 배경에는 무엇이 주요하게 작용했는지. A. 김태형 과장: 이전에는 (국토지리정보원이) 제시한 세 가지 요건 중 영상 보안 처리부터 수용하지 않았던 것으로 알고 있다. 김형수 과장: 2007년도에는 협의체와 같은 제도가 없어 원칙적으로 (지도 반출은) 금지다. 2016년도에는 지금과 같이 요구 조건이 세 가지였다. 당시에는 영상 보안 처리부터 구글이 수용하지 않는다고 말해 그 다음 단계는 나아가지 못했다. Q. 이번 지도 반출 결정으로 기존 구글 지도와 비교했을 때 크게 달라지는 부분은 뭐가 있는지. 해외 여행객들과 국내 사용자들이 달라지는 걸 체감할 수 있는지. A. 김태형 과장: 길찾기와 내비게이션을 위해서는 네트워크 데이터가 있어야 하는데 그 부분이 생성이 안 된 데이터를 가지고 있다 보니 한국에서는 구글지도가 안된다는 이야기가 나왔다. 이런 정보를 구글이 사용할 수 있게 되면 내비게이션 길 찾기 서비스가 가능해진다.

2026.02.27 18:37박서린 기자

챗GPT가 강박장애 환자 더 아프게 만든다…'안심 로봇'의 위험한 진실

요즘 많은 사람들이 ChatGPT(챗GPT) 같은 AI에게 궁금한 것을 물어본다. 그런데 이 AI가 특정 환자들에게는 오히려 독이 될 수 있다는 연구 결과가 나왔다. 미국 조지아 공과대학교(Georgia Institute of Technology)의 연구원 그레이스 바크허프(Grace Barkhuff)는 강박장애(OCD) 환자들이 AI를 어떻게 사용하는지 분석했다. 그 결과, AI가 이들의 증상을 오히려 더 나쁘게 만드는 '안심 로봇(Reassurance Robots)' 역할을 하고 있다는 사실을 밝혀냈다. 강박장애란 무엇인가: 미국인 43명 중 1명이 앓는 병 강박장애는 머릿속에서 자꾸 떨쳐낼 수 없는 불안한 생각이 반복되고, 그 불안을 줄이기 위해 특정 행동을 반복하는 정신건강 문제다. 예를 들어 수업 시간에 교수가 "AI를 사용하면 부정행위"라고 말하는 순간, 강박장애가 있는 학생은 "내가 실수로 AI를 썼으면 어쩌지?"라는 생각이 머릿속을 떠나지 않는다. 결국 집에 가서 제출한 과제를 몇 번이고 다시 확인하게 된다. 이처럼 머릿속을 떠나지 않는 불안한 생각을 '강박사고', 불안을 줄이기 위해 반복하는 행동을 '강박행동'이라고 부른다. 이 병은 생각보다 훨씬 흔하다. 강박장애는 보통 50명 중 1명이 앓고 있으며, 우리나라에서만 약 100만 명에 해당하는 수치다. 미국에서는 전체 인구의 약 2.3%가 강박장애를 앓고 있으며, 이 중 약 50%는 심각한 일상 장애를 겪는다. 국내에서는 강박장애로 실제 병원을 찾는 환자 수도 꾸준히 늘고 있는데, 2010년 약 2만 명에서 2014년 약 2만 3천 명으로 연평균 3.1%씩 증가했다. 전문가들은 실제로 증상이 있어도 병원을 찾지 않는 경우가 훨씬 많다고 본다. 미국의 경우 강박장애 환자의 최대 75%가 아직 진단조차 받지 못한 상태이며, 증상이 나타난 뒤 정식 진단을 받기까지 평균 10년이 넘게 걸린다. 많은 사람들이 자신이 강박장애인지도 모른 채 혼자 힘들게 버티고 있다는 뜻이다. 잠깐은 편해지지만 결국 더 나빠지는 이유 강박행동을 하면 그 순간만큼은 불안이 가라앉는 느낌이 든다. 하지만 이건 착각이다. 시간이 지나면 같은 불안이 다시 찾아오고, 더 강하게 반복된다. 전문가들은 이 과정을 '강박장애 순환(OCD Cycle)'이라고 부른다. 강박장애 환자들은 혼자서만 이 행동을 반복하는 게 아니다. 가족이나 친구에게 "내가 잘못한 거 맞지?", "이거 괜찮은 거지?" 하고 반복해서 확인받으려 한다. 이렇게 다른 사람이 환자의 강박행동에 맞춰주는 것을 '강박 수용(OCD accommodation)'이라고 한다. 안타깝게도 이것도 결국 증상을 더 나쁘게 만든다. 그리고 이제 그 역할을 AI가 대신하기 시작했다. 레딧 게시물 100개로 밝혀진 세 가지 AI 강박 패턴 연구자는 강박장애 관련 레딧(Reddit) 커뮤니티에서 'AI' 또는 'ChatGPT'가 언급된 게시물 100개를 직접 모아 분석했다. 레딧은 다양한 주제로 사람들이 자유롭게 글을 올리는 온라인 커뮤니티다. 수집한 게시물은 크게 세 가지로 나뉘었다. AI 때문에 생긴 새로운 불안한 생각을 털어놓는 글, AI를 이용해 강박행동을 하고 있다고 고백하는 글, 그리고 AI와 강박장애에 대한 생각을 나누는 글이었다. 세 종류의 글이 비교적 비슷한 비율로 나왔고, 비슷한 이야기가 계속 반복되어 100개로도 충분히 전체적인 흐름을 파악할 수 있었다. 대부분의 글은 AI에 대해 부정적인 감정을 담고 있었다. "AI한테 안심 얻으려는 걸 어떻게 멈추죠? 진짜 못 참겠어요!!"처럼 절박한 표현이 많았다. 한편으로는 "AI한테 물어보면 강박 악순환에서 벗어나는 데 도움이 돼요"처럼 긍정적으로 보는 글도 일부 있었다. AI 가 만들어낸 새로운 공포들: 직업 걱정부터 표절 의심까지 AI 때문에 생긴 새로운 불안도 다양했다. 가장 많이 나온 것은 "AI가 내 직업을 빼앗아 가면 어쩌지?"라는 두려움이었다. 한 음악가는 "봇이 더 싸게 음악을 만들 수 있는데 누가 나한테 돈을 내겠어요? 굶어 죽을 것 같아요"라고 썼다. 학생들 사이에서는 '표절 강박'이라는 새로운 유형도 나타났다. 분명히 자기가 직접 썼는데도 AI가 쓴 글처럼 보일까봐 제출을 못 하거나, AI 탐지 프로그램에 걸릴까봐 계속 확인하는 경우다. 이 밖에도 "AI가 곧 인간의 감정까지 흉내 낼 텐데, 우리는 그냥 공식에 불과한 존재 아닐까요?"처럼 AI의 발전 자체가 실존적인 공포로 이어지는 경우도 있었다. 심지어 AI 챗봇의 감정을 상하게 했을까봐 걱정하는 글도 있었다. 연구자는 이 모든 새로운 불안들이 기존의 강박장애 유형 안에서 설명될 수 있다고 봤다. 이미 있는 치료법을 적용할 수 있다는 점에서 긍정적인 신호다. ChatGPT 에게 하루에도 수십 번 묻는 사람들: AI는 왜 '안심 로봇'이 되었나 강박행동으로 AI를 사용하는 방식은 크게 세 가지였다. 첫째는 "나 나쁜 사람 맞지?", "이거 도덕적으로 괜찮은 거지?" 같은 질문을 AI에게 반복해서 물어보며 안심을 구하는 것이다. 둘째는 고민거리를 AI에게 털어놓으며 마음을 가라앉히는 것이고, 셋째는 "전공을 뭘 선택해야 할까?", "이 이메일 표현이 괜찮아?" 같은 결정을 AI에게 맡기는 것이다. 왜 가족이나 친구 대신 AI를 선택할까? 한 게시물 작성자는 이렇게 설명했다. "가족한테 자꾸 물어보면 피해를 줄 것 같아서요. AI는 항상 대답해주니까요." AI는 24시간 언제든 쓸 수 있고, 판단하지 않는 것처럼 느껴지며, 바로 답을 준다. 그래서 더 끊기 어렵다. 한 작성자는 "구글 검색도 안심이 되긴 하는데, ChatGPT는 내 상황에 딱 맞게 답해줘서 끊기가 너무 힘들어요. 중독 같아요"라고 고백했다. 더 심각한 문제는 웹 검색 결과에 AI가 자동으로 나타나면서, 원하지도 않았는데 AI의 답변을 보게 되고 새로운 강박으로 이어지는 경우도 있다는 것이다. 연구자는 이 모든 현상을 '안심 로봇'이라고 이름 붙이고, AI 개발자들이 이 문제를 설계 단계부터 고려해야 한다고 주장했다. 예를 들어 같은 질문이 반복되면 답변을 제한하거나, 몇 시간이 넘는 대화는 중단시키거나, 전문가 상담을 권유하는 기능을 넣는 방식이다. AI 연구에서도 강박장애는 '투명 인간': 이제는 바뀌어야 할 때 놀랍게도 AI와 사람의 관계를 연구하는 분야인 인간-컴퓨터 상호작용(HCI, Human-Computer Interaction)에서 강박장애는 거의 다뤄지지 않았다. 2025년 7월 기준으로 관련 학술 데이터베이스에서 '강박장애'를 제목에 포함한 논문은 단 9편뿐이었고, AI와 강박장애((OCD와 기술 사이의 긴장)의 관계를 제대로 파고든 논문은 단 한 편도 없었다. AI와 정신건강을 다룬 연구 대부분은 우울증이나 자살 충동에만 집중해왔다. 이 연구는 그 공백을 처음으로 채운 시도다. 연구자 본인도 강박장애를 직접 겪은 경험이 있어 환자의 시각으로 데이터를 바라볼 수 있었다고 밝혔다. 또한 국제강박장애재단(International OCD Foundation)의 교육 과정을 이수해 의사나 연구자들이 강박장애를 어떻게 다루는지도 함께 공부했다. 다만 이 연구는 의학적 조언이나 치료 지침이 아님을 분명히 했다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 생성형 AI가 강박장애 환자에게 왜 위험한가요? A. AI는 언제든 바로 답을 주기 때문에 강박장애 환자가 끊임없이 안심을 구하는 도구로 쓰이기 쉽습니다. 그 순간은 마음이 편해지지만, 결국 같은 불안이 더 강하게 반복돼 증상이 나빠집니다. Q. 강박장애 환자들은 AI를 어떻게 강박행동에 사용하나요? A. 자신이 나쁜 사람인지 AI에게 반복해서 물어보거나, 전공 선택 같은 결정을 AI에게 맡기거나, 자기가 쓴 글이 AI 작성물로 오해받을까봐 계속 확인하는 방식으로 사용합니다. Q. AI 개발자들은 강박장애 환자를 위해 무엇을 해야 하나요? A. 같은 질문이 반복되면 답변을 제한하거나, 대화가 너무 길어지면 잠시 멈추게 하거나, 전문가 상담을 권유하는 기능을 AI에 넣어야 한다고 연구자는 제안합니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 리포트명: Reassurance Robots: OCD in the Age of Generative AI ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.02.27 15:08AI 에디터

별점 믿다간 낭패…챗GPT가 470만 개 리뷰 분석한 '맛집의 진짜 조건'

"음식은 별로였는데 별점은 4점?" 온라인 리뷰를 보다 보면 이런 의문이 드는 순간이 있다. 별점 하나가 레스토랑 매출을 5~9%나 바꿀 만큼 리뷰의 영향력은 커졌지만, 정작 그 별점이 어디서 나오는지는 잘 알려지지 않았다. 미국 남부 캘리포니아 대학교(University of Southern California) 연구팀이 챗GPT(ChatGPT)를 동원해 무려 17년치 470만 개의 레스토랑 리뷰를 분석했다. 결론은 놀라웠다. 별점을 가장 크게 좌우하는 건 분위기도, 가격도 아니었다. “맛있는데 불친절” 두 가지 감정을 동시에 읽는 AI 사람들이 레스토랑 리뷰를 쓸 때는 보통 한 가지 감정만 표현하지 않는다. "파스타는 환상적이었는데 30분을 기다렸다", "분위기는 좋았지만 가격이 너무 비쌌다"처럼 하나의 리뷰 안에 칭찬과 불만이 뒤섞이는 경우가 훨씬 많다. 그러다 보니 별점 3점짜리 리뷰가 실제로는 음식에 대한 극찬일 수도 있고, 서비스에 대한 혹평일 수도 있다. 연구팀이 주목한 것도 바로 이 지점이다. 리뷰 전체가 좋은지 나쁜지를 판단하는 게 아니라, 음식·서비스·분위기·가격·대기 시간·메뉴 다양성이라는 6가지 항목 각각에 대해 고객이 어떻게 느꼈는지를 따로따로 파악하는 것이다. 이를 전문 용어로 '측면 기반 감정 분석(Aspect-Based Sentiment Analysis)'이라고 부른다. 쉽게 말해, "이 리뷰에서 음식에 대한 감정은 긍정, 서비스에 대한 감정은 부정"처럼 항목별로 감정을 분류하는 기술이다. 470만 개 리뷰를 ChatGPT에 맡기는 현명한 방법 여기서 현실적인 문제가 생긴다. 470만 개의 리뷰를 챗GPT에 하나하나 분석시키면 비용이 어마어마하게 든다. 그래서 연구팀은 영리한 역할 분담을 택했다. 챗GPT는 '어떤 항목을 분석할지'를 결정하는 역할만 맡았다. 600개의 샘플 리뷰를 분석해 고객들이 주로 이야기하는 핵심 주제 6가지를 뽑아낸 것이다. 그 결과 서비스, 음식 품질, 분위기, 대기 시간, 가격, 메뉴 다양성이 선정됐다. 실제로 두 가지 챗GPT 모델이 서비스를 핵심 항목으로 꼽는 비율은 100%였고, 음식 품질은 93% 이상 일치했다. 항목이 정해지자 이후 작업은 훨씬 저렴한 전통적인 머신러닝(Machine Learning) 모델에 넘겼다. 사람이 5,000개의 리뷰에 직접 감정 점수를 매겨 AI를 학습시킨 뒤, 이 AI가 나머지 수백만 건을 자동으로 처리하게 했다. 챗GPT는 방향을 잡고, 머신러닝은 실제 일을 처리하는 팀워크 구조다. 덕분에 비용은 확 줄이면서 실용적인 수준의 분석 정확도(76.6%)를 유지할 수 있었다. 그림 1 두 개의 레스토랑 리뷰로 보는 항목별 감정 분석 예시 별점을 좌우하는 충격적인 요소 연구팀은 AI가 항목별로 분류한 감정 데이터를 실제 별점과 비교 분석했다. 그리고 어떤 항목이 별점에 얼마나 영향을 미치는지를 수치로 뽑아냈다. 결과는 꽤 직관적이면서도 의외였다. 음식 품질이 압도적인 1위였다. 영향력 수치가 1.58~1.59로, 2위인 서비스(0.74~0.78)의 두 배가 넘었다. 메뉴 다양성(0.66~0.70)이 3위를 차지했다. 놀라운 건 가격이다. 가격은 별점에 통계적으로 의미 있는 영향을 거의 미치지 않았다. 즉, 비싸든 싸든 가격 자체는 별점과 크게 상관이 없다는 뜻이다. 더 흥미로운 발견은 대기 시간이다. 오래 기다릴수록 별점이 오히려 올라가는 경향이 나타났다. 연구팀은 이를 '줄이 길면 맛있다는 신호'로 받아들이는 심리, 즉 사회적 증거(Social Proof) 효과로 해석했다. 분위기는 예상과 달리 별점에 부정적인 영향(-0.27~-0.31)을 보였는데, 분위기에 대한 평가는 사람마다 주관적 차이가 커서 결과가 엇갈린 것으로 분석됐다. 이 AI 모델은 별점 변동의 무려 80% 이상을 설명해냈다. 이탈리아 식당은 왜 항상 별점이 높을까? 같은 수준의 레스토랑이라도 어떤 음식을 파느냐, 어느 지역에 있느냐에 따라 별점이 달라진다는 사실도 드러났다. 미국식(American) 레스토랑을 기준으로 비교했을 때 이탈리아 음식점이 가장 높은 별점 프리미엄을 누렸고, 중국 음식점이 그 뒤를 이었다. 반면 태국 음식점은 미세하게 낮은 경향을 보였다. 지역 차이도 뚜렷했다. 뉴저지(New Jersey)와 델라웨어(Delaware) 주는 다른 지역에 비해 통계적으로 유의미하게 높은 별점을 기록했다. 연구팀은 이런 차이가 음식 맛 때문이라기보다는 지역 소비자들의 기대 수준, 경쟁 환경, 경제적 여건이 복합적으로 작용한 결과로 봤다. 결국 별점은 음식만의 문제가 아니라 그 지역의 외식 문화와 맥락을 반영한다는 것이다. 레스토랑에서 시작했지만, 다음 목적지는 병원과 쇼핑몰 이 연구가 단순한 맛집 분석으로 끝나지 않는 이유가 있다. 연구팀이 만든 AI 분석 틀은 어떤 서비스 업종에도 적용할 수 있다. 호텔이라면 객실 청결도·직원 친절도·시설 상태를, 병원이라면 진료 대기 시간·의사 설명·병원 환경을 항목으로 바꾸면 그만이다. 온라인 리뷰를 꼼꼼히 읽는 소비자 비율은 2020년 60%에서 2024년 75%로 빠르게 늘고 있다. 하루에도 수천 건씩 쏟아지는 리뷰를 사람이 일일이 읽는 건 이미 불가능한 일이 됐다. 연구팀은 앞으로 구글 리뷰(Google Reviews)나 트립어드바이저(TripAdvisor) 같은 다른 플랫폼으로도 분석을 확장하고, 코로나19 팬데믹처럼 특정 사건이 고객 감정에 어떤 변화를 일으켰는지도 추적할 계획이다. 별점 하나의 의미를 이렇게까지 파고든 AI 분석이, 이제 우리가 서비스를 경험하고 평가하는 방식 자체를 바꿔놓을지도 모른다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 별점이 높은 레스토랑은 무조건 음식이 맛있는 건가요? A. 이번 연구에 따르면 음식 품질이 별점에 가장 큰 영향을 미치는 건 사실입니다. 하지만 서비스, 메뉴 다양성, 대기 시간도 함께 작용합니다. 특히 줄이 길수록 별점이 올라가는 경향도 확인됐는데, 이는 '많이 기다리는 곳 = 맛있는 곳'이라는 심리가 반영된 결과입니다. Q. 가격이 비싸면 별점이 낮아지지 않나요? A. 이번 연구 결과는 의외였습니다. 가격은 별점에 통계적으로 의미 있는 영향을 거의 미치지 않았습니다. 즉, 소비자들은 가격 자체보다 음식 맛과 서비스 품질을 훨씬 중요하게 평가한다는 뜻입니다. Q. 이런 AI 리뷰 분석 기술을 일반 소비자도 활용할 수 있나요? A. 현재는 연구 및 기업용 수준이지만, 이 기술이 상용화되면 리뷰 플랫폼에서 "이 식당은 음식 ★★★★☆, 서비스 ★★☆☆☆"처럼 항목별 점수를 자동으로 보여주는 서비스가 가능해집니다. 구글 리뷰나 네이버 플레이스 같은 플랫폼에서 머지않아 만나볼 수 있을 것으로 기대됩니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 리포트명: Beyond the Star Rating: A Scalable FRAMEwork for Aspect-Based Sentiment Analysis Using LLMs and Text Classification ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.02.27 14:07AI 에디터

스마트카라, 음식물처리기 전 제품 10년 연속 지자체 보조금 선정

스마트카라는 자사 음식물처리기 전 제품이 10년 연속 지자체 음식물처리기 설치 보조금 지원사업 대상에 선정됐다고 26일 밝혔다. 음식물처리기 설치 보조금 지원사업은 각 지자체가 가정 내 음식물쓰레기 감량을 위해 제품 구매 비용 일부를 지원하는 제도다. 환경표지인증, K마크, Q마크 등 관련 인증을 1개 이상 획득한 제품에 한해 지원 가능하며, 지자체별로 최대 구매 금액의 80%까지 보조금을 받을 수 있다. 스마트카라는 한국환경산업기술원(KEITI)이 운영하는 음식물쓰레기 감량화 기기 인증(EL767)을 통과해 친환경 인증을 획득했다. 2017년부터 10년 연속 전 제품이 지원 대상에 선정됐다. 올해 지원사업은 인천 중구, 김해시, 삼척시 등 전국 25개 지자체에서 진행 중이며, 예산 범위 내 선착순 또는 추첨 방식으로 지급된다. 신제품 '스톤'도 지원 대상에 포함됐다. 스톤은 신소재 화강암 코팅을 적용하고 7중 레이어 건조통을 탑재해 내구성과 위생성을 강화했다. 음식물 부피를 최대 91.2%까지 감소시키며, 치킨 뼈까지 처리 가능한 분쇄 성능과 자동 보관 기능 등을 갖췄다. 이 밖에도 5L 대용량 '블레이드X' 시리즈와 AI 기반 자동 처리 기능을 적용한 '블레이드X AI' 모델도 함께 운영 중이다.

2026.02.26 22:50신영빈 기자

챗GPT, 통계학 교육 뒤흔든다…대학 강의실의 AI 혁명

챗GPT가 대학 강의실을 뒤흔들고 있다. 학생들이 제출한 과제가 직접 작성한 것인지, AI가 만들어준 것인지 교수들이 구분하기 어려워진 시대가 됐다. 글래스고 대학교(University of Glasgow) 통계학과 연구진이 2026년 2월 발표한 논문 "기술 시대의 통계학 교육의 미래에 대한 성찰(Reflections on the Future of Statistics Education in a Technological Era)"은 생성형 AI의 등장으로 통계학 교육 현장이 근본적인 전환점을 맞이하고 있음을 경고한다. 단순히 새 기술을 가르치는 문제를 넘어, 무엇을 배워야 하고 어떻게 평가해야 하는지 전면 재검토가 필요한 시점이다. R이냐 파이썬이냐, 두 언어 사이에서 길 잃은 통계학 교육 통계학을 배우는 학생들에게 프로그래밍 언어는 이제 선택이 아닌 필수다. 과거에는 메뉴를 클릭해서 분석하는 SPSS나 미니탭(Minitab) 같은 소프트웨어로 충분했지만, 현대 통계학은 직접 코드를 작성하는 능력을 요구한다. 논문에 따르면 현재 대학 통계학 교육에서 널리 쓰이는 언어는 R이다. 2000년에 등장한 오픈소스 프로그래밍 언어인 R은 무료로 사용할 수 있고 통계 분석에 특화된 도구를 풍부하게 제공한다. R의 인기는 특히 타이디버스(tidyverse)라는 패키지 모음 덕분에 더욱 높아졌다. 타이디버스는 데이터를 정리하고 분석하는 과정을 마치 레고 블록을 조립하듯 단계별로 진행할 수 있게 해주는 도구 모음이다. 복잡한 데이터 변환 작업을 여러 함수를 중첩시키지 않고 "데이터를 불러온다 → 필요한 열만 선택한다 → 조건에 맞는 행만 필터링한다"처럼 순서대로 나열할 수 있어 초보자도 이해하기 훨씬 쉽다. 그런데 최근 들어 파이썬(Python)도 통계학 교육에 빠르게 파고들고 있다. 파이썬은 원래 범용 프로그래밍 언어지만 머신러닝(Machine Learning)과 AI 분야에서 압도적인 점유율을 차지하면서 통계학자들도 무시하기 어려운 존재가 됐다. 텐서플로(TensorFlow), 파이토치(PyTorch) 같은 딥러닝 프레임워크가 모두 파이썬 기반이기 때문이다. 논문은 R과 파이썬을 함께 가르치는 다중 언어 교육의 필요성을 제시하면서도, 두 언어를 동시에 가르치면 학생들의 인지 부담이 커져 학습 효과가 떨어질 수 있다는 딜레마를 지적한다. 연구진은 초반에 한 가지 언어로 통계의 기본 개념을 탄탄하게 다진 후 점진적으로 다른 언어를 도입하는 방식을 권장한다. 소셜미디어, IoT, 웹 스크레이핑... 데이터의 세계가 달라졌다 현대 통계학자들이 다루는 데이터는 과거와 차원이 다르다. 예전에는 깔끔하게 정리된 엑셀 파일로 데이터를 받아 분석하면 됐지만, 이제는 소셜미디어 게시물, 웹사이트 정보, 사물인터넷(IoT) 센서 데이터처럼 구조화되지 않은 데이터를 직접 수집하고 정리하는 능력이 필수가 됐다. 이를 위해 API(application Programming Interface, 애플리케이션 프로그래밍 인터페이스)와 웹 스크레이핑(web scraping) 같은 기술이 중요해졌다. API는 쉽게 말해 다른 서비스의 데이터를 가져올 수 있도록 만들어진 일종의 '데이터 수도꼭지'다. 날씨 정보 제공 웹사이트가 API를 공개하면, 프로그래머는 코드 몇 줄만으로 실시간 날씨 데이터를 가져올 수 있다. 웹 스크레이핑은 API가 없는 웹사이트에서 직접 정보를 자동으로 수집하는 기술로, 부동산 사이트의 매물 정보를 긁어와 가격을 분석하는 식으로 활용된다. 코드 버전 관리(version control) 시스템인 깃(Git)과 깃허브(GitHub)의 중요성도 커졌다. 깃은 코드의 변경 이력을 자동으로 저장해주는 도구로, 여러 사람이 함께 프로젝트를 진행할 때 누가 언제 무엇을 수정했는지 추적하고 문제가 생기면 이전 버전으로 돌아갈 수 있다. 논문은 깃허브가 단순한 코드 저장소를 넘어 협업과 재현 가능한 연구의 핵심 도구가 됐다고 강조한다. 연구진은 이러한 현대적 데이터 기술들을 별도 과목으로 분리하기보다 여러 통계 과목에 걸쳐 점진적으로 통합하는 방식을 권장한다. "왜"를 묻는 통계학 vs "얼마나 정확한가"를 묻는 머신러닝 통계학과 머신러닝, 그리고 AI의 경계가 점점 모호해지고 있다. 전통적인 통계학은 데이터에서 패턴을 찾아 "왜 이런 결과가 나왔는가"를 설명하는 데 중점을 둔다. 반면 머신러닝은 훨씬 복잡한 모델을 사용해 "얼마나 정확하게 예측하는가"에 집중한다. 예를 들어 은행에서 대출 신청자의 신용도를 평가할 때 통계학자는 소득, 직업, 신용 기록 같은 변수들이 신용도에 어떤 영향을 미치는지 분석하지만, 머신러닝 엔지니어는 수백 개의 변수를 복잡한 알고리즘에 넣어 채무 불이행을 가장 정확하게 예측하는 모델을 만드는 데 집중한다. 두 접근법 모두 장단점이 있고, 현대 데이터 과학자는 상황에 따라 적절한 방법을 선택할 수 있어야 한다. 논문은 통계학과 교육과정에 머신러닝과 AI를 어느 정도 깊이로 포함시킬지는 졸업 후 진로에 따라 달라져야 한다고 주장한다. 전통적인 통계학 연구자를 양성하는 프로그램이라면 머신러닝의 기본 개념 소개로 충분할 수 있다. 하지만 데이터 과학자나 AI 엔지니어를 목표로 하는 학생들에게는 신경망(neural network), 딥러닝(deep learning) 같은 고급 주제까지 다뤄야 한다. 연구진은 기존 통계 과목에 머신러닝 내용을 일부 통합하고, 별도의 머신러닝 전문 과목도 개설하는 절충안을 제안한다. 챗GPT가 쓴 과제인지 학생이 쓴 과제인지, 이제 아무도 모른다 가장 시급하고 논란이 되는 문제는 생성형 AI의 등장이 평가 방식에 미치는 충격이다. 챗GPT는 자연어로 질문을 입력하면 코드를 작성해주고, 통계 개념을 설명해주며, 심지어 데이터 분석 보고서까지 작성해준다. 학생 입장에서는 유용한 학습 도구지만, 교수 입장에서는 평가의 신뢰성을 근본적으로 위협하는 존재다. 많은 통계학과 학생들이 이미 챗GPT를 과제 작성에 활용하고 있다. 문제는 학생이 직접 문제를 해결한 것인지, AI의 도움을 받은 것인지 구분하기 어렵다는 점이다. 전통적인 표절 검사 도구는 다른 사람의 글을 복사한 경우만 잡아낼 수 있지만, AI가 생성한 새로운 코드나 텍스트는 탐지하기 훨씬 어렵다. 연구진은 교육자들이 생성형 AI에 대해 크게 세 가지 태도를 보인다고 분석한다. AI 사용을 부정행위로 간주해 엄격히 금지하는 입장, 계산기처럼 당연히 사용할 수 있는 도구로 받아들이는 입장, 어떤 과제에서는 허용하고 다른 과제에서는 금지하는 조건부 허용 입장이 그것이다. 논문은 단순한 금지보다 평가 방식 자체를 근본적으로 재설계해야 한다고 주장한다. 집에서 하는 과제 비중을 줄이고 감독 하에 진행되는 시험이나 실시간 프로젝트 발표 비중을 늘리거나, AI가 쉽게 답할 수 없는 창의적이고 개방형 질문을 더 많이 출제해야 한다는 것이다. 흥미롭게도 연구진은 생성형 AI를 오히려 교육에 적극 활용하는 방안도 제시한다. 학생들에게 챗GPT가 생성한 코드의 오류를 찾아 수정하게 하거나, AI의 설명이 왜 부정확한지 비판적으로 평가하게 하는 과제를 내는 것이다. 실제 직장에서도 AI 도구를 사용하되 그 결과를 검증하고 책임지는 능력이 점점 중요해지기 때문에, 이러한 비판적 활용 능력을 교육 단계에서부터 키워야 한다는 논리다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 통계학을 배우려면 R과 파이썬을 둘 다 배워야 하나요? A. 처음에는 한 가지 언어로 통계의 기본 개념을 확실히 익히는 것이 좋습니다. R은 통계 분석에 특화되어 있고, 파이썬은 머신러닝과 AI 분야에서 더 널리 쓰입니다. 두 언어를 동시에 배우면 혼란스러울 수 있으므로, R을 먼저 익힌 후 점진적으로 파이썬을 추가하는 단계적 접근이 효과적입니다. Q. 챗GPT로 통계 과제를 하면 안 되나요? A. 대학마다 정책이 다르지만, AI를 학습 도구로 활용하되 그 과정을 명확히 밝히는 것이 중요합니다. 챗GPT가 생성한 코드를 그대로 제출하는 것은 문제가 될 수 있지만, AI의 도움을 받아 개념을 이해하고 자신의 방식으로 재작성하는 것은 유용한 학습 방법입니다. 과제 지침을 확인하고 불확실하면 교수에게 직접 물어보는 것이 좋겠습니다. Q. 통계학과 머신러닝의 차이는 무엇인가요? A. 통계학은 데이터에서 패턴을 찾아 '왜' 그런 결과가 나왔는지 설명하는 데 중점을 둡니다. 반면 머신러닝은 복잡한 알고리즘을 사용해 '얼마나 정확하게' 예측할 수 있는지에 집중합니다. 두 접근법은 상호보완적이며, 현대 데이터 과학자는 둘 다 이해해야 합니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. (리포트명: Reflections on the Future of Statistics Education in a Technological Era) ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.02.26 22:20AI 에디터

'월 20달러' 챗GPT로 수학 난제 풀었다…'바이브 증명'의 충격적 실험

수학은 오랫동안 AI가 넘기 어려운 벽으로 여겨졌다. 논리적 완결성이 요구되는 수학 증명은 단 하나의 오류도 전체를 무효화할 수 있기 때문이다. 그런데 벨기에 브뤼셀자유대학교(Vrije Universiteit Brussel) 연구팀이 이 벽을 허물었다. 누구나 사용할 수 있는 일반 챗GPT(ChatGPT) 구독 계정만으로 최근 제기된 활성 연구 문제를 해결한 것이다. 이들이 제안한 방법론은 '바이브 증명(vibe-proving)'이라는 이름으로, AI와 인간이 협력하는 새로운 학술 연구의 방향을 제시하고 있다. 코딩에서 수학으로…'바이브'의 확장 프로그래머 세계에서는 이미 '바이브 코딩(vibe-coding)'이라는 개념이 자리 잡고 있다. 코드를 한 줄씩 직접 짜는 대신 "이런 기능을 만들어줘"라고 AI에게 자연어로 요청하면, AI가 알아서 프로그램을 생성해주는 방식이다. 브뤼셀자유대학교 데이터 분석 연구소(Data Analytics Lab)의 브레흐트 베르베켄(Brecht Verbeken) 박사 연구팀은 이 개념을 수학 증명에 그대로 적용했다. 연구팀이 도전한 문제는 란과 텡(Ran and Teng)이 2024년에 제시한 '추측 20번(Conjecture 20)'이다. 이는 특정 구조를 가진 4×4 행렬(matrix)에서 나타날 수 있는 고유값(eigenvalue)의 범위를 정확히 규정하는 문제다. 고유값이란 쉽게 말해, 수학적 변환이 일어날 때 방향은 바뀌지 않고 크기만 변하는 특별한 수치다. 사진을 확대하거나 축소할 때 이미지의 형태는 유지되는 것과 유사한 개념이다. 연구팀은 이 문제를 챗GPT-5.2(Thinking) 버전과 7개의 공유 가능한 대화 스레드와 4개 버전의 증명 초안을 거쳐 풀어냈다. 전문화된 수학 전용 시스템이 아닌, 개인 구독 계정으로 접근 가능한 일반 챗GPT를 사용했다는 점이 이번 연구의 핵심이다. 논문의 초록(Abstract)에서 연구팀은 "소비자 구독 수준의 대형 언어 모델(LLM)로 감사 가능한 연구 수준의 수학 작업이 가능함을 보여준다"고 강조했다. AI는 전략가, 인간은 감독관…역할 분담의 발견 연구 과정에서 AI와 인간의 역할이 자연스럽게 나뉘었다. 챗GPT는 증명의 큰 그림, 즉 전체적인 접근 전략을 제시하는 데 뛰어난 역량을 발휘했다. 구체적으로는 1946년 드미트리예프와 딘킨(Dmitriev and Dynkin)이 개발한 삼각함수 방법(trigonometric method)이라는 고전적 수학 기법을 찾아내, 2024년의 미해결 문제에 맞게 변형하여 적용하는 전략을 제안했다. AI가 1946년 드미트리예프–딘킨의 삼각함수 방법을 적용하는 전략을 제시한 것이다. 반면 인간 연구자의 역할은 AI가 제안한 논리를 검증하고 오류를 수정하는 데 집중됐다. 논문의 토론(Discussion) 섹션에 따르면, AI가 생성한 초기 증명 초안에는 역삼각함수의 분기(branch) 및 사분면 처리 오류, 부호 조건 누락, 중간 계산 단계 생략 등 여러 결함이 있었다. 연구팀은 이를 발견하고 수정하는 과정을 반복하며 최종 증명을 완성했다. 이 과정은 연구팀이 '생성(generate), 심사(referee), 수리(repair)'라고 이름 붙인 순환 구조로 정리된다. AI가 아이디어와 증명 초안을 생성하면, 인간이 논리적 오류를 찾아 심사하고, 문제가 있으면 AI에게 다시 수정을 요청하는 반복 과정이다. 이 구조는 단순한 도구 사용을 넘어, AI와 인간이 각자의 강점을 살려 협력하는 새로운 연구 모델을 제시한다. 수학 올림피아드를 넘어 실전 연구로…AI 수학의 새 지평 최근 AI의 수학 능력은 눈부시게 발전하고 있다. 알파지오메트리(AlphaGeometry), 알파프루프(AlphaProof) 같은 특수 제작 시스템은 국제수학올림피아드(IMO) 문제에서 금메달 수준의 성과를 냈다. 그러나 이들은 대규모 컴퓨팅 자원과 전문적으로 설계된 시스템을 기반으로 한다는 한계가 있다. 이번 연구가 주목받는 이유는 바로 '접근성'이다. 란과 텡의 추측 20번은 교과서에 나오는 연습 문제가 아니라, 2024년에 현역 수학자들이 제시한 활성 연구 문제(active research problem)였다. 논문의 논의(Discussion) 섹션에서 연구팀은 "이 사례는 전문화된 시스템이 아닌 소비자 접근 가능한 모델로 감사 가능한 수학적 성과가 가능함을 보여준다"고 명시했다. (논문 p.5) 수학 증명은 AI 능력의 특별한 시험대다. 소프트웨어는 실행해보면 작동 여부를 즉시 확인할 수 있지만, 수학 증명은 모든 논리 단계가 완벽해야 하며 단 하나의 빈틈도 전체를 무효화한다. 이번 연구는 이런 엄격한 기준에서도 일반 AI 도구가 실질적인 학술 기여 가능성을 보여주는 초기 증거를 제시한다 점에서 의미가 깊다. 투명성이 핵심…모든 대화 기록을 공개한 이유 연구팀은 투명성을 연구의 핵심 원칙으로 삼았다. 챗GPT와 나눈 7개의 대화 세션 전체를 공유 링크로 공개하고, 4개 버전의 증명 초안도 논문 부록으로 모두 첨부했다. 이는 AI 연구에서 흔히 제기되는 재현 가능성(reproducibility) 문제를 정면으로 다룬 것이다. 다른 연구자들이 같은 방식으로 검증하고, 증명 과정의 오류 수정 과정까지 모두 추적할 수 있도록 한 것이다. 연구팀은 솔직하게 한계도 인정했다. 초기 탐색 단계의 대화는 체계적으로 보존하지 못했고, 이후에 챗GPT-5.2를 이용해 초기 프롬프트를 재구성했다. 또한 AI가 제안한 증명 전략은 근본적으로 새로운 방법이 아니라 기존 고전적 틀을 재적용한 것이었다고 밝혔다. 이 연구가 제시하는 더 큰 시사점은 학술 연구 도구의 민주화다. 대형 연구기관이나 막대한 컴퓨팅 자원 없이도, 개인 연구자가 AI를 활용해 의미 있는 학술 성과를 낼 수 있는 환경이 열렸다는 것이다. 의사가 복잡한 진단을 내릴 때, 변호사가 판례를 분석할 때, 엔지니어가 설계 문제를 해결할 때 AI와 대화하며 접근하는 방식이 표준이 되는 미래를 이번 연구는 예고하고 있다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 바이브 증명(vibe-proving)이란 무엇인가요? A. 바이브 증명은 수학자가 AI와 자연어로 대화하며 수학 증명을 완성해 나가는 방식입니다. 수식을 직접 전개하는 대신 "이 문제를 어떻게 접근할까?"라고 AI에게 물으며 아이디어를 얻고, 그것을 검증하고 수정하는 과정을 반복합니다. 프로그래머가 AI에게 코드 작성을 맡기는 '바이브 코딩'에서 착안한 개념입니다. Q. 일반 챗GPT로 정말 어려운 수학 문제를 풀 수 있나요? A. 전문 지식이 있는 연구자라면 가능합니다. 이번 연구는 월 구독료만 내면 누구나 쓸 수 있는 챗GPT로 현역 수학자들의 미해결 문제를 풀었습니다. 단, AI는 전략과 방향을 제시할 뿐, 논리적 오류를 찾아내고 최종 검증하는 것은 여전히 인간 전문가의 몫입니다. Q. 이 연구 방식을 수학 외 다른 분야에도 적용할 수 있나요? A. 네, 논리적 검증이 중요한 모든 분야에 응용 가능합니다. 의료 진단, 법률 분석, 엔지니어링 설계 등에서 AI가 여러 가능성을 제시하고 전문가가 비판적으로 검증하는 '생성-심사-수리' 구조를 활용할 수 있습니다. 핵심은 AI를 최종 의사결정자가 아닌 아이디어 제안자로 활용하는 것입니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. (리포트명: Early Evidence of Vibe-Proving with Consumer LLMs: A Case Study on Spectral Region Characterization with ChatGPT-5.2 (Thinking) ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.02.26 22:18AI 에디터

GPT-5도 이런 실수 한다고?…AI가 '알면서도 틀리는' 황당한 이유

챗GPT에게 질문했다가 틀린 답변을 받아본 적 있을 것이다. 그때 드는 생각은 보통 하나다. "AI가 이것도 몰라?" 그런데 구글 리서치(Google Research) 연구팀이 발표한 최신 논문은 이 상식을 완전히 뒤집는다. AI가 틀리는 이유는 대부분 '몰라서'가 아니라 '알면서도 꺼내지 못해서'라는 것이다. GPT-5, 제미나이-3-프로(Gemini-3-Pro) 등 최첨단 AI 13개를 대상으로 약 450만 건의 응답을 분석한 결과다. 냉장고에 음식이 있는데 꺼내지 못하는 AI 연구팀은 AI가 사실을 틀릴 때 그 원인을 두 가지로 나눴다. 하나는 처음부터 그 정보를 학습하지 못한 경우, 즉 냉장고에 음식 자체가 없는 것이다. 연구팀은 이를 '빈 선반(empty shelves)'이라고 불렀다. 다른 하나는 정보가 분명히 저장되어 있는데 막상 질문을 받으면 꺼내지 못하는 경우, 즉 냉장고 안에 음식이 있는데 어디 뒀는지 찾지 못하는 것이다. 이를 '잃어버린 열쇠(lost keys)'라고 불렀다. 분석 결과는 놀라웠다. GPT-5와 제미나이-3-프로 같은 최첨단 모델들은 테스트에 등장한 사실의 95~98%를 이미 내부에 저장하고 있었다. 냉장고는 거의 꽉 차 있었던 것이다. 그런데도 추가 추론 없이는 25~33%의 질문에서 틀렸다. GPT-5.2 기준으로 오류의 70% 이상이 '몰라서'가 아니라 '꺼내지 못해서' 발생했다. AI 모델을 더 크게 만들어도 이 문제는 잘 해결되지 않았다는 점도 함께 확인됐다. 그림 4. AI 모델별로 인코딩 실패, 출력 실패, 직접 출력 등의 비율 AI가 앞에서 물어보면 맞히고, 뒤에서 물어보면 틀리는 이유 출력 실패는 특히 두 가지 상황에서 심하게 나타났다. 첫 번째는 덜 알려진 정보일수록 틀리는 문제다. 유명한 정보와 잘 알려지지 않은 정보를 비교했을 때, 저장된 비율은 거의 비슷했다. 제미나이-3-플래시(Gemini-3-Flash) 기준으로 인기 있는 정보는 99.5%, 희귀한 정보도 94.5%가 저장되어 있었다. 하지만 막상 답변할 수 있는 비율은 84.7% 대 63.3%로 격차가 21.4%포인트나 벌어졌다. 알고는 있는데, 잘 떠올리지 못하는 것이다. 기존에는 "AI가 희귀한 정보를 틀리는 건 애초에 배우지 못했기 때문"이라는 게 정설이었는데, 이번 연구가 그걸 뒤집었다. 두 번째는 질문 방향을 바꾸면 갑자기 틀리는 문제다. 예를 들어 AI에게 "오아시스(Oasis) 밴드가 처음 공연한 장소는?"이라고 물으면 "보드워크 클럽(Boardwalk Club)"이라고 잘 맞힌다. 그런데 "보드워크 클럽에서 처음 공연한 밴드는?"이라고 방향만 바꿔 물으면 같은 AI가 틀리는 경우가 많다. GPT-5 기준으로 정방향 질문은 82.9% 정답률이었지만, 역방향은 74%로 뚝 떨어졌다. 더 흥미로운 건, 보기를 주고 고르게 하면 역방향도 정방향만큼 잘 맞혔다는 점이다. AI는 분명히 알고 있다. 다만 질문 방향이 바뀌면 스스로 꺼내지 못할 뿐이다. "잠깐, 생각해볼게요"가 실제로 효과가 있다 이 문제를 해결하는 데 도움이 되는 기능이 바로 '싱킹(thinking)'이다. AI가 즉각적으로 답변하지 않고 잠깐 멈춰서 단계별로 생각을 정리한 뒤 답하는 방식이다. 우리가 어떤 사실이 혀 끝에서 맴도는 느낌이 들 때, 관련된 기억을 하나씩 떠올리다 보면 결국 생각해내는 것과 비슷하다. 연구에 따르면 싱킹은 "저장은 되어 있지만 곧바로 답하지 못했던" 사실의 40~65%를 추가로 맞히게 해줬다. 반면 애초에 저장되지 않은 정보에 대해서는 싱킹을 써도 회수율이 5~20%에 그쳤다. 결국 싱킹은 없는 지식을 만들어내는 게 아니라, 있는 지식을 더 잘 꺼내도록 돕는 기능이라는 것이다. 특히 덜 알려진 정보나 역방향 질문처럼 AI가 가장 약한 부분에서 효과가 컸다. 제미나이-3-프로의 경우, 싱킹을 적용하자 희귀 정보와 인기 정보 사이의 답변 격차가 21.4%포인트에서 12.5%포인트로 줄었다. 물론 단점도 있다. 싱킹은 추가 연산이 필요해 응답이 느려지고 비용도 올라간다. 그리고 AI가 스스로 "지금 싱킹이 필요한 순간이다"를 판단하는 게 아직 완벽하지 않다는 점도 한계로 지적됐다. AI의 '진짜 실력'을 재는 새로운 성적표 연구팀은 이번 연구를 위해 '위키프로파일(WikiProfile)'이라는 새로운 평가 도구도 만들었다. 기존 AI 평가 방식은 단순했다. 맞으면 1점, 틀리면 0점. 그런데 이 방식으로는 AI가 왜 틀렸는지 알 수 없다. 몰라서 틀렸는지, 알면서도 못 꺼냈는지 구분이 안 되는 것이다. 위키프로파일은 이 두 가지를 나눠서 측정할 수 있도록 설계됐다. 2,150개의 사실에 대해 각각 10개의 질문을 만들었는데, 정보가 저장됐는지 확인하는 질문, 실제로 답할 수 있는지 확인하는 질문, 객관식으로 골라낼 수 있는지 확인하는 질문이 모두 포함됐다. 모든 사실은 위키피디아(Wikipedia)에서 추출됐고, 구글 검색(Google Search)과 연동된 AI 파이프라인이 검증을 담당했다. 두 AI 채점자가 98.2%의 일치율을 보일 만큼 신뢰도도 높았다. 그림 3. 위키프로파일 파이프라인 플로우차트 FAQ ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다. Q. AI가 사실을 틀리는 이유가 단순히 '모르기 때문'이 아닌가요? A. 이번 연구에 따르면, GPT-5 같은 최신 모델들은 테스트된 사실의 95~98%를 이미 내부에 저장하고 있었습니다. 오류의 70% 이상은 지식이 없어서가 아니라, 저장된 정보를 제때 꺼내지 못해서 발생했습니다. Q. AI의 '싱킹(thinking)' 기능이 정확도를 높인다는데, 항상 켜두면 되나요? A. 싱킹은 놓쳤던 답변의 40~65%를 추가로 맞힐 수 있어 효과적이지만, 응답이 느려지고 비용도 올라갑니다. AI가 스스로 "지금 싱킹이 필요하다"를 판단하는 능력도 아직 완벽하지 않아서, 현재로서는 상황에 따라 선택적으로 쓰는 편이 좋습니다. Q. AI 모델 크기를 키우면 사실 오류 문제가 해결되지 않나요? A. 모델을 크게 만들수록 정보를 저장하는 능력은 좋아집니다. 하지만 저장된 정보를 꺼내는 능력은 그만큼 따라오지 않았습니다. 연구팀은 앞으로의 AI 발전이 모델 크기보다 '이미 아는 것을 잘 꺼내는 방법' 개선에 달려 있다고 봤습니다. 기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다. 리포트명: Empty Shelves or Lost Keys? Recall Is the Bottleneck for Parametric Factuality ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.02.26 13:12AI 에디터

이앤드, 2025 회계연도 사상 최대 매출 및 순이익 기록… 연결 매출 23% 증가한 729억 디르함 달성

• 연결 순이익 144억 디르함으로 전년 대비 34% 증가• 아시아, 아프리카, 중동, 중앙 및 동유럽 전역에서 가입자 수 2억 4470만 명으로 증가• 연간 주당 배당금 90필스… 2026년 95필스로 증가 예정• 하템 도위다르 그룹 최고경영자, 6년간의 임기 마치고 3월 말 퇴임• 마수드 M. 샤리프 마흐무드, 4월 1일부터 이앤드 UAE 최고경영자와 겸임해 그룹 최고경영자 취임 아부다비, 아랍에미리트, 2026년 2월 25일 /PRNewswire/ -- 이앤드(e&)가 2025년 사상 최대 실적을 달성하며 전년 대비 23.1% 증가한 수치인 연결 매출 729억 디르함을 기록했다고 발표했다. e& delivers record revenue and net profit in FY 2025 growing consolidated revenue 23% to AED 72.9 billion 연결 순이익은 144억 디르함으로 33.6% 증가했으며, 이는 전 사업 부문에서의 성과 개선에 힘입은 것이다. 연결 EBITDA는 전년 대비 21.1% 증가한 320억 디르함을 기록했다. 이앤드 UAE는 견조한 성장세를 이어가며 가입자 수가 1630만 명을 넘어 전년 대비 8.4% 증가했다. 그룹 전체 가입자 수는 2억 4470만 명으로 확대돼 2024년 대비 31.3% 증가했다. 2025 회계연도 주요 재무 지표 2025년 2024년 증감률 매출 729억 디르함 592억 디르함 23.1 % 순이익 144억 디르함 108억 디르함 33.6 % EBITDA 320억 디르함 265억 디르함 21.1 % 주당순이익 1.65 디르함 1.24 디르함 33.6 % 연결 그룹 가입자 수* 2억 4470만 명* 1억 8650만 명** 31.3 % UAE 가입자 수 1630만 명 1500만 명 8.4 % * 파키스탄 통신규제청(PTA)에 보고된 텔레노르 파키스탄(Telenor Pakistan) 수치 포함** 마록 텔레콤(Maroc Telecom) 보고 수치 반영해 조정 2025 회계연도에 대해 이사회는 2025년 하반기(7~12월) 배당금으로 주당 47필스의 현금 배당을 제안했으며, 이에 따라 연간 총배당금은 주당 90필스가 된다. 또한 2026년에는 연간 총배당금을 주당 95필스로 인상할 계획이라고 밝혔다. 이는 주주들에게 부가 가치를 제공하려는 이앤드의 지속적인 의지를 보여준다. 이앤드는 이날 하템 도위다르(Hatem Dowidar) 그룹 최고경영자가 6년간의 임기를 마치고 사임하기로 결정했다고 밝혔다. 이사회는 그의 사임을 수리했으며, 퇴임일은 2026년 3월 31일이다. 도위다르는 2020년부터 이앤드를 이끌며 조직의 대대적인 전환과 국제 확장을 주도했다. 그의 리더십 아래 이앤드는 지역 통신사업자에서 글로벌 기술 그룹으로 전략적 진화를 가속화했으며, 중동, 아프리카, 아시아, 유럽 전역에서 입지를 강화하고 디지털, 핀테크, 기업, 디지털 라이프스타일 부문을 확대했다. 재임 동안 그룹은 사상 최대 실적을 달성하며 세계적인 기술•통신 브랜드로서 위상을 공고히 했다. 이사회는 2021년부터 이앤드 UAE 최고경영자를 맡아온 마수드 M. 샤리프 마흐무드(Masood M. Sharif Mahmood)를 후임으로 선임했다. 그는 2026년 4월 1일부터 이앤드 그룹 최고경영자와 UAE 최고경영자를 겸임한다. 이앤드의 자심 모하메드 부 아타바 알자아비(Jassem Mohamed Bu Ataba Alzaabi) 의장은 다음과 같이 밝혔다. "이앤드의 2025년 사상 최대 실적은 강력한 사업 포트폴리오와 규율 있는 실행을 기반으로 글로벌 기술 그룹으로 도약하려는 전략이 지속적으로 성과를 내고 있음을 보여준다. 우리는 기업 솔루션, 핀테크, 디지털 플랫폼 전반에서 새로운 가능성을 창출하며 연결성의 미래를 재정의하고 있다. 이사회를 대표해 하템의 리더십과 재임 동안 이룬 중대한 성과에 깊은 감사를 표한다. 그는 이앤드의 전환을 가속화하고 장기적 주주가치를 강화하는 데 핵심적인 역할을 했으며, 앞으로의 행보에도 성공이 함께하길 바란다." 하템 도위다르는 다음과 같이 말했다. "이앤드의 역사에서 중요한 전환기를 이끌 수 있어 영광이었다. 함께 사업을 혁신하고 국제적으로 확장하며 미래 성장을 위한 새로운 동력을 구축한 것을 자랑스럽게 생각한다. 2025년의 기록적인 실적은 우리의 전략, 운영 모델의 회복력, 그리고 임직원들의 헌신을 입증한다. 의장, 이사회, 경영진, 그리고 모든 임직원에게 깊이 감사드린다. 마수드의 리더십 아래 이앤드가 앞으로도 지속적인 성공을 이어갈 것이라 확신한다." 마수드 M. 샤리프 마흐무드는 다음과 같이 밝혔다. "이앤드 그룹 최고경영자로서 이 야심 찬 글로벌 기업을 이끌 기회를 얻게 되어 매우 영광이다." 통신, 투자, 기술 분야에서 25년 이상 쌓아온 리더십 경험을 보유한 마수드는 또한 다음과 같이 말했다. "하템 도위다르의 탁월한 리더십과 협력에 감사드리며, 의장과 이사회의 신뢰에도 깊이 감사한다. 전 세계의 우수한 팀, 운영 회사, 파트너들과 함께 그동안의 성과를 기반으로 새로운 가치를 창출해 나가겠다." 이앤드는 앞으로도 전략적 우선순위 실행에 집중하고, 인공지능을 포함한 첨단 기술을 전 사업 영역에 내재화하며, 주주, 고객, 파트너, 지역사회에 지속 가능한 가치를 제공해 나갈 방침이다. 미디어 문의처:낸시 수디어(Nancy Sudheer)시니어 매니저nsudheer@eand.com +971 50 705 5290 인포그래픽 - https://mma.prnasia.com/media2/2919372/Q4_e_Eng_1.jpg?p=medium600인포그래픽 - https://mma.prnasia.com/media2/2919369/Q4_e_Eng_2.jpg?p=medium600로고 - https://mma.prnasia.com/media2/2458296/5821408/e_and_AR_Logo.jpg?p=medium600 e& delivers record revenue and net profit in FY 2025 growing consolidated revenue 23% to AED 72.9 billion

2026.02.25 19:10글로벌뉴스

뉴마크, 싱가포르 리서치 총괄로 샨팅 웡 선임

싱가포르, 2026년 2월 25일 /PRNewswire/ -- 대형 기관 투자자, 글로벌 기업 및 기타 소유주 및 임차인을 대상으로 하는 선도적 상업용 부동산 자문 및 서비스 제공업체인 뉴마크 그룹(Newmark Group, Inc., Nasdaq: NMRK)(이하 '뉴마크' 또는 '회사')이 싱가포르 리서치 총괄로 샨팅 웡(Shanting Wong)을 선임했다고 밝혔다. 이번 인사는 아시아 태평양 지역 전반에 걸친 회사의 리서치 및 분석 역량을 한층 강화하기 위한 조치다. 싱가포르에 기반을 둔 샨팅 총괄은 뉴마크의 현지 리서치 기능을 이끌며 오피스 임대, 산업용 부동산, 자본시장, 주거 부문 전반에 대한 시장 인텔리전스를 총괄하게 된다. 또한 데이터 기반 인사이트와 고급 분석, 미래지향적 리서치를 제공해 고객의 전략 수립과 자문 실행을 지원할 예정이다. Image courtesy of Newmark: Shanting Wong. 뉴마크 아시아 태평양 가치 평가 및 자문 부문의 크리스 카버(Chris Carver) MRICS, MSISV, AAPI, 총괄 겸 수석전무는 "싱가포르는 아시아 태평양 내 핵심 시장이며, 점점 복잡해지는 환경에서 리서치는 고객에게 자문을 제공하는 데 있어 중심적인 역할을 한다"고 말했다. 이어 "샨팅 총괄은 풍부한 지역 전문성과 뛰어난 분석 역량, 중개 업무 경험을 바탕으로 고객에게 제공하는 인사이트를 한층 강화할 것"이라고 밝혔다. 데이비드 비트너(David Bitner) 글로벌 리서치 총괄 수석전무는 "뉴마크의 리서치는 글로벌 차원에서 회사의 핵심 차별화 요소이다. 싱가포르에 전담 리서치 리더십을 확대함으로써 전 세계 고객의 합리적인 의사결정을 지원하는 일관되고 데이터 기반의 인사이트 제공에 대한 의지를 재확인했다"고 밝혔다. 샨팅 총괄은 싱가포르 및 아시아 태평양 전역에서 18년 이상의 경력을 보유하고 있다. 뉴마크 합류 전에는 ERA 싱가포르(ERA Singapore)에서 수석부사장 겸 리서치 및 시장 인텔리전스 총괄을 역임하며 리서치 조직을 이끌고, 널리 인용되는 '마이 드림 홈 서베이(My Dream Home Survey)'를 포함한 대표적 사고 리더십(thought leadership) 이니셔티브를 주도했다. 이전에는 JLL과 나이트 프랭크(Knight Frank)에서 리서치 및 컨설팅 부문 고위직을 맡아 아시아 태평양 지역 기관 및 기업 고객을 대상으로 시장 전략, 임차인 추세, 실사, 리테일 컨설팅 업무를 수행했다. 샨팅 총괄은 "데이터와 분석, 그리고 현지 시장 인사이트의 중요성이 갈수록 커지고 있는 시점에 뉴마크에 합류하게 되어 매우 기쁘다"고 말했다. 이어 "뉴마크의 통합 자문 비즈니스와 아시아 태평양 지역에서의 강력한 성장 모멘텀은 고객의 전략적 의사결정에 실질적으로 기여하는 엄밀하고 적시성 높은 리서치를 제공할 매력적인 기회"라고 말했다. 뉴마크는 최근 주요 부동산 부문과 글로벌 주요 시장 전반에서 리서치 역량을 지속적으로 강화해 왔다. 자본 시장, 리테일, 임차인 서비스 부문을 아우르는 미국 내 리서치 리더십 확대와 함께 프랑스 및 한국에 리서치 팀을 신설하는 등, 지역 및 글로벌 차원에서 일관된 데이터 기반 인사이트를 제공하기 위한 전략적 투자를 이어가고 있다. 이러한 확장은 점점 복잡해지는 부동산 의사결정 환경 속에서 고객이 미래지향적이고 정보에 기반한 판단을 내릴 수 있도록 지원하는 뉴마크의 역량을 한층 제고하고 있다. 뉴마크 소개뉴마크 그룹(Nasdaq: NMRK)과 그 자회사(이하 총칭 '뉴마크')는 부동산 생애주기의 모든 단계를 아우르는 글로벌 선도 기업이다. 뉴마크는 자산 소유자와 임차인, 투자자와 창업자, 스타트업부터 대기업에 이르기까지 다양한 고객의 특성에 맞춘 종합 서비스와 제품을 제공한다. 플랫폼의 글로벌 도달 범위와 기성 및 신흥 부동산 시장 전반에 대한 시장 인텔리전스를 결합해 업계 전반의 고객에게 차별화된 서비스를 제공하고 있다. 2025년 9월 30일 종료 기준 최근 12개월 동안 뉴마크의 매출은 31억 달러를 초과했다. 2025년 9월 30일 기준, 뉴마크와 비즈니스 파트너는 4개 대륙 약 170개 사무소에서 8500명 이상의 전문가와 함께 사업을 운영하고 있다. 자세한 내용은 nmrk.com을 방문하거나 @newmark를 통해 확인할 수 있다. 뉴마크 관련 미래 예측 진술에 대한 고지본 문서에 포함된 과거 사실이 아닌 뉴마크 관련 진술은 위험과 불확실성을 수반하는 미래 예측 진술에 해당하며, 실제 결과는 이러한 진술에 포함된 내용과 달라질 수 있다. 여기에는 회사의 사업, 실적, 재무 상태, 유동성 및 전망에 관한 진술이 포함되며, 실제 영향이 현재 예상과 실질적으로 다를 위험이 있다. 법률상 요구되는 경우를 제외하고, 뉴마크는 이러한 미래 예측 진술을 업데이트할 의무를 부담하지 않는다. 실제 결과가 미래 예측 진술과 달라질 수 있는 추가적인 위험 및 불확실성에 대해서는 뉴마크가 미국 증권거래위원회에 제출한 보고서(위험 요인 및 미래예측정보에 대한 특별 고지 포함)와 이후 Form 10-K, Form 10-Q 또는 Form 8-K 보고서에서의 관련 업데이트 내용이 해당하지만 이에 국한되지 않는다. Newmark Group, Inc. 사진 - https://mma.prnasia.com/media2/2919535/Shanting_Wong.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1057994/Newmark_Group_Logo_v1.jpg?p=medium600

2026.02.25 18:10글로벌뉴스

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

앤트로픽 '클로드' 서버 장애 지속…국내 AI 서비스 영향

[국방 AX 거점④] "AI 인프라·인재 10년 키워…판교, 육군 전초기지로"

[르포] 한일 정상회담 후 달라진 日…현지 최대 IT 행사서 'K-AI'에 관심 폭발

[단독] 코인원, ‘특금법 위반’ 영업 일부정지 3개월 제재 가닥

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.