• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'Q'통합검색 결과 입니다. (1106건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"고독사 75%가 40~60대"…AI 안부전화로 중장년 고립 막는다

한국이 초고령사회로 진입하며 복지와 돌봄 분야에서 AI 기술을 활용한 혁신이 시급해졌다. 2024년 12월 23일 65세 이상 인구 비중이 20%를 넘어서며 초고령사회에 진입한 한국은 송파 세모녀 사건(2014년)부터 가로수길 고독사(2025년)까지 반복되는 복지 사각지대 비극을 막기 위해 AI 기반 선제적 발굴 시스템을 본격화하고 있다. 한국지능정보사회진흥원(NIA)은 리포트를 통해 신청주의 복지 제도의 한계를 극복하고 사람 중심의 AI 활용 방안을 제시했다. '신청 대기' 복지에서 'AI 선제 발굴'로 한국 정부는 2014년 송파 세모녀 사건을 계기로 사회보장급여법을 제정하고, 2015년 12월부터 빅데이터를 활용한 복지 사각지대 발굴 시스템을 운영해왔다. 이 시스템은 단전, 단수, 통신비 체납, 금융 연체, 의료 위기, 범죄 피해 등 다양한 정보를 수집해 위기 가능성이 높은 후보군을 선정한다. 2015년 18종이었던 연계 정보는 2025년 현재 47종까지 확대됐으며, 2개월마다 약 20만 명을 발굴해 지자체 보건복지팀이 일일이 확인한 뒤 필요한 서비스를 지원한다. 2015년 12월부터 2023년까지 단전, 단수 등 위기 정보를 보유한 666만 명(누적)의 위기 가구를 발굴하여 290만 명(누적)에게 기초 생활 보장, 긴급 지원 등 공적 급여와 민간 자원 연계 등 복지서비스를 지원했다. 2024년 7월부터는 AI를 활용한 초기 상담이 시범 적용됐다. 업무 담당자가 대상자에게 전화하기 전 문자메시지를 발송하고 긴급 상황 및 복지 욕구를 조사해 위기 가구의 복지 욕구를 신속히 파악하도록 했다. 이는 공무원이 심층 상담에 집중할 수 있게 하는 동시에 초기 단계에서 위기 징후를 놓치지 않도록 돕는다. 그러나 현재 시스템은 한계도 있다. 발굴된 대상자 중 실제 지원 대상자와 비대상자로 분류되며 비대상자는 회차별 약 11~14% 수준이다. 연락두절이나 지원 거부 등 비대상자 관리 체계가 아직 미흡하다. 리포트는 위기 정보 변수를 정교화하고, 이미 다른 제도로 보호받는 집단을 반복 발굴에서 제외하는 등 시스템 개선이 필요하다고 제안했다. 고독사 3,661명 시대, 75%가 40~60대… AI 안부확인·돌봄 로봇 도입 한국의 고독사 사망자는 2022년 3,559명에서 2023년 3,661명으로 증가했으며, 특히 40~60대 중장년층이 2017년부터 2023년까지 발생한 고독사 사망자 21,897명 중 74.8%를 차지해 더 이상 노년층만의 문제가 아니다. 1인 가구 급증이 사회적 관계망을 약화시키며 고독사를 부추기는 핵심 요인으로 작용하고 있다. 이에 서울, 광주 등 전국 다수 지방자치단체가 SKT, KT 등 민간 통신사의 AI 기술을 활용해 독거노인 등 1인 취약가구를 대상으로 AI 안부확인 서비스를 도입했다. 서울시는 AI가 주 1회 자동으로 전화를 걸어 건강, 식사, 운동, 약 복용, 불편사항 등을 확인하는 'AI 안부확인 서비스'를 19개 자치구에서 약 1만 2천 가구에 제공한다. 또한 휴대전화 통신 이력, IoT 디바이스, 모바일 앱 걸음수를 종합 모니터링하는 '똑똑안부서비스', 통신 빅데이터와 전력사용량을 AI로 분석하는 'AI안부든든서비스' 등 다양한 스마트 안부 확인 서비스를 운영 중이다. 돌봄 로봇 분야에서도 혁신이 진행되고 있다. 정부는 고령자의 이승보조, 욕창예방, 배설보조, 식사보조, 이동지원, 소통, 운동보조, 목욕보조, 모니터링 등을 위한 돌봄 로봇 9종 개발 및 실증 사업을 추진하고 있으며, AI 기반 말동무 기능을 통한 독거노인의 우울감 해소 및 치매 환자 인지 훈련을 위한 반려 로봇도 보급하고 있다. 단양군에서 AI 반려로봇을 보급한 결과, 한국형노인우울척도(K-GDS)에서 우울증 지수가 평균 7.3점에서 3.9점으로 개선되는 효과를 보였다. 304만 자격증 vs 64만 실제 인력… 돌봄 공백, AI가 메운다 2024년 노인장기요양보험 인정자 수는 116만 5,030명으로 전년 대비 6.1% 증가했으며, 2024년 한 해 노인장기요양 급여 비용은 16조 1천 762억 원으로 전년 대비 11.6% 늘며 처음으로 16조 원을 돌파했다. 그러나 돌봄 서비스의 핵심 공급원인 돌봄 인력은 심각한 공급 부족과 높은 이직률에 시달리며 돌봄 공백이 현실화되고 있다. 요양보호사 자격 소지자는 지속 증가하여 2024년 기준 304만 명 규모이나 실제 현장에서 일하는 인력은 63.7만 명 수준이다. 돌봄 노동은 높은 수준의 신체적·감정적 노동 강도를 요구하지만, 낮은 임금과 열악한 근로 환경으로 인해 신규 인력 유입이 단절되고 기존 인력마저 빠르게 소진되고 있다. 정부는 노동공급 감소로 인한 돌봄 인력 부족에 대비하여 스마트돌봄 서비스를 추진하고 있다. AI 기반 비접촉식 안전·건강 모니터링 장치를 통해 체온·호흡 등 생체 신호를 자동 감지하고, 낙상 위험·자세 변화·수면 상태 등을 실시간 분석하여 건강 이상을 조기 탐지한다. AI 순찰 로봇을 활용해 요양 보호사의 순찰 업무를 보조하고, 이상 징후 감지 시 즉시 경보 및 응급 상황 알림을 제공한다. 인공지능(AI), 사물인터넷(IoT), 센서, 로봇 기술을 통합한 스마트 요양시설 통합관제 시스템을 구축하여 시설 내 돌봄 효율과 안전성을 향상시키고 있다. 네덜란드 SyRI 실패 교훈… '투명성·공정성' 없는 AI는 오히려 역효과 리포트는 네덜란드의 복지 사기 탐지 시스템 SyRI 사례를 주요 경고 사례로 제시했다. 2020년 2월 네덜란드 헤이그 법원은 정부가 빈곤층 커뮤니티를 대상으로 운영하던 SyRI 시스템의 사용 중단을 명령했다. SyRI는 여러 정부 기관이 보유한 민감 개인정보를 비공개 알고리즘으로 분석해 복지 사기 가능성이 높은 개인을 식별했지만, 알고리즘의 작동 원리가 공개되지 않은 블랙박스 상태로 운영됐고 특히 저소득 이민자 밀집 지역을 집중 대상으로 삼아 차별적 영향을 초래했다. 법원은 SyRI가 유럽인권조약이 보장하는 사생활 보호권을 침해한다고 판결했다. 이 사례는 공공 영역에서 AI 도입이 투명성, 공정성, 프라이버시 보호 등 국민 신뢰 확보를 전제하지 않을 경우 역효과를 초래할 수 있음을 보여준다. 리포트는 복지·돌봄 분야의 AI 활용이 기술이 인간을 대체하는 방식이 아닌, 인간의 역할을 강화하고 보호하는 방향에서 사회적 합의와 원칙을 기반으로 추진돼야 한다고 강조했다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 복지 사각지대 발굴 시스템은 어떻게 작동하나요? A. 정부는 단전, 단수, 통신비 체납, 금융 연체 등 47종의 위기 정보를 2개월마다 수집해 빅데이터 분석 모델로 위기 가능성이 높은 약 20만 명을 선정합니다. 지자체 보건복지팀이 전화나 방문으로 확인한 뒤 필요한 복지 서비스를 지원합니다. Q. AI 안부확인 서비스는 무엇인가요? A. AI가 주 1회 자동으로 독거노인 등에게 전화를 걸어 건강, 식사, 약 복용 등을 확인하는 서비스입니다. 서울시는 약 1만 2천 가구에 이 서비스를 제공하며, 통신 이력과 전력 사용량을 AI로 분석하는 서비스도 함께 운영합니다. Q. 돌봄 인력 부족은 얼마나 심각한가요? A. 요양보호사 자격증 소지자는 304만 명이지만 실제 현장에서 일하는 인력은 63.7만 명에 불과합니다. 낮은 임금과 열악한 근로 환경으로 인해 신규 인력 유입이 단절되고 기존 인력도 빠르게 소진되고 있어, 정부는 AI 기반 스마트 돌봄 서비스로 이를 보완하고 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.01.05 17:26AI 에디터

AI를 왜 믿냐하면…"사람을 못 믿어서"

콜롬비아 라사바나대학교 연구팀이 흥미로운 사실을 발견했다. 사람들이 AI를 신뢰하는 이유가 AI 자체가 똑똑해서가 아니라, 주변 사람들을 믿지 못하기 때문이라는 것이다. 연구팀은 이를 '옮겨진 신뢰(deferred trust)'라는 개념으로 설명했다. 쉽게 말해, 사람에 대한 믿음이 무너지면 그 믿음이 AI로 옮겨간다는 뜻이다. 챗GPT vs 성직자, 누구를 선택했을까? 해당 논문에 따르면, 연구팀은 55명의 대학생을 대상으로 실험을 진행했다. 참가자들에게 30가지 다양한 상황을 제시하고, 누구에게 조언을 구할지 선택하게 했다. 선택지는 챗GPT나 제미나이 같은 AI 챗봇, 알렉사나 시리 같은 음성 비서, 친구, 어른, 성직자 등 다섯 가지였다. 질문도 다양했다. "전구는 언제 발명됐나요?" 같은 사실 확인 질문부터 "누군가에게 복수하고 싶은데 어떻게 해야 하나요?" 같은 도덕적 고민까지 포함됐다. 참가자는 심리학과 간호학을 전공하는 학부생들이었고, 평균 나이는 19.38세, 55명 중 45명이 여성이었다. 결과를 보면, 전체적으로는 어른이 35.05%로 가장 많이 선택됐다. AI는 28.29%로 2위였다. 하지만 상황에 따라 선호도가 크게 달랐다. 연구팀이 상황을 세 그룹으로 나눠 분석했더니, 사실 확인이 필요한 질문에서는 AI가 73.8%로 압도적이었다. 반대로 감정이나 도덕과 관련된 문제에서는 친구나 어른을 더 많이 선택했다. 사람 못 믿을수록 AI를 더 선택한다 연구팀은 참가자 55명이 30가지 상황에서 보인 선택 패턴을 분석했다. 누구는 대부분 AI를 선택했고, 누구는 주로 어른을 선택하는 식으로 각자 패턴이 달랐다. 이 패턴이 비슷한 사람끼리 묶어보니 자연스럽게 세 그룹으로 나뉘었다. 1그룹(10명)은 선택이 비교적 골고루 퍼져 있었다. 어른을 33% 정도 선택해 가장 많이 골랐지만, AI도 27%, 친구도 20% 선택했다. 2그룹(33명)은 어른을 압도적으로 선호했다. 전체 선택의 53%가 어른이었다. 반면 AI는 10%만 선택해 세 그룹 중 가장 낮았다. 3그룹(12명)이 특히 눈에 띄었다. 이 그룹도 어른을 가장 많이 선택했지만(42%), AI를 고른 비율이 33%로 다른 그룹보다 훨씬 높았다. 그렇다면 3그룹 사람들은 어떤 특징이 있을까? 연구팀이 추가로 분석해봤더니 공통점이 발견됐다. 먼저, 주변 사람들을 잘 믿지 않았다. 성직자, 친구, 어른 모두에 대한 믿음이 낮았다. 특히 성직자를 못 믿는 사람일수록 이 그룹에 속할 가능성이 가장 높았다. 재밌는 점은 이들이 평소 기술을 많이 쓰는 사람들이 아니었다는 것이다. 스마트폰이나 컴퓨터 사용 시간도 적었고, 기술 관련 교육을 받은 경험도 적었다. 그런데도 AI는 많이 선택했다. 대신 이들은 경제적으로 여유가 있는 편이었다. 소득 수준이 높을수록 3그룹에 속할 확률이 높았다. '옮겨진 신뢰'란 무엇인가 연구팀이 제안한 '옮겨진 신뢰'는 이런 현상을 설명하는 개념이다. 사람에 대한 불신이 AI로의 의존을 높인다는 것이다. 기존 연구들은 AI를 단순한 도구로 봤다. 사람들이 AI를 쓰는 이유는 편리하고 유용하기 때문이라고 생각했다. 하지만 이 연구는 다른 시각을 제시한다. 사람들은 AI를 단순한 도구가 아니라 대화 상대처럼 인식한다. 챗GPT 같은 대형 언어모델이 사람처럼 자연스럽게 대화하면서, 사용자들은 AI에게 의도나 동기가 있다고 느끼기 시작했다. 그래서 AI를 믿을지 말지 판단할 때도 사람을 대하듯 한다는 것이다. 연구팀은 이것이 '신뢰 전이'와 관련 있다고 설명한다. 보통은 믿던 대상에게 쌓인 신뢰가 비슷한 다른 대상으로 옮겨간다. 하지만 AI의 경우는 반대다. 사람에 대한 나쁜 경험이 오히려 AI로의 신뢰를 만든다. 사람은 편견이 있고 신뢰할 수 없다고 느낄 때, AI가 더 중립적이고 유능해 보이기 때문이다. 어릴수록, 기술에 익숙할수록 AI를 덜 믿는다 흥미로운 점도 발견됐다. 나이가 어릴수록 AI를 덜 선택했다. 또 평소 기술을 많이 쓰는 사람일수록 AI 선택이 줄어들었다. 이는 기술을 잘 아는 사람이 AI의 한계도 잘 안다는 뜻이다. 연구팀은 이를 '인식적 경계'라는 개념으로 설명한다. 정보의 출처가 믿을 만한지 따져보는 능력인데, 기술에 익숙한 사람일수록 이 능력이 높다. AI가 아무리 자신 있게 답해도 쉽게 믿지 않는다는 것이다. 반대로 AI를 많이 믿는 그룹은 기술을 덜 쓰는 사람들이었다. 이들은 AI의 '유창함'에 더 잘 속는다. AI가 말을 잘하고 자신감 있게 답하면, 그 내용이 맞는지 틀리는지 따지지 않고 믿게 된다는 것이다. AI 투명성만으론 부족하다... 사용자 심리 이해가 먼저 이 연구는 AI 신뢰가 단순히 기술의 성능 때문만은 아니라는 점을 보여준다. 오히려 사람 관계에서의 실망이 중요한 역할을 한다. 연구팀은 AI의 투명성을 높이는 것만으로는 충분하지 않으며, 사용자가 왜 AI를 선택하는지 이해해야 한다고 강조한다. 다만 한계도 있다. 참가자가 모두 대학생이라 다른 연령대나 문화권에도 같은 결과가 나올지는 확실하지 않다. 또 실험이 텍스트 기반 가상 상황이었기 때문에, 실제 생활에서도 똑같을지는 더 연구가 필요하다. 연구팀은 앞으로 더 다양한 사람들을 대상으로, 실제 대화 상황에서 연구를 확장할 계획이라고 밝혔다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. '옮겨진 신뢰'가 뭔가요? A: 주변 사람을 믿지 못할 때, 그 믿음을 AI로 옮기는 현상입니다. 예를 들어 친구나 가족의 조언이 편파적이라고 느끼면, 더 중립적으로 보이는 AI를 선택하게 됩니다. AI 자체가 좋아서가 아니라 사람이 실망스러워서 선택하는 것입니다. Q2. 어떤 질문에 AI를 가장 많이 선택하나요? A: 사실을 확인하는 질문에서 AI가 압도적입니다. "전구는 언제 발명됐나요?" 같은 질문에는 73.8%가 AI를 선택했습니다. 반대로 "복수를 해야 할까요?" 같은 도덕적 고민이나 감정 상담에는 여전히 사람을 더 선택합니다. Q1. 사람을 못 믿으면 AI를 더 믿게 되나요? A: 그렇습니다. 이 연구에서 성직자, 친구, 어른 등 주변 사람에 대한 믿음이 낮은 사람일수록 AI를 더 많이 선택했습니다. 특히 어른에 대한 믿음이 낮을수록 AI 선택률이 크게 올라갔습니다. 연구팀은 이를 '옮겨진 신뢰'라고 부르며, 사람이 실망스러울 때 더 중립적으로 보이는 AI로 믿음이 옮겨간다고 설명합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.01.05 13:18AI 에디터

로보락, 레알 마드리드와 글로벌 파트너십 체결

글로벌 스마트 홈 브랜드 로보락이 세계적인 명문 프로 축구 구단인 '레알 마드리드'와 전략적 파트너십을 체결했다고 5일 밝혔다. 체결식은 스페인 마드리드에서 권 강 로보락 대표와 에밀리오 부트라게노 레알 마드리드 대외협력 총괄이 참석한 가운데 진행됐다. 이번 협약은 'The Greatest Meeting The Greatest (최고와 최고가 만나다)'를 테마로, 로보락이 레알 마드리드의 공식 글로벌 파트너로 활동하는 것을 골자로 한다. 양사는 파트너십의 첫 행보로 현지시간 6일부터 9일까지 미국 라스베이거스에서 열리는 세계 최대 가전·IT 전시회 'CES 2026'에서 공동 브랜드 체험 공간을 선보일 예정이다. 로보락은 라스베이거스 베네치안 엑스포(Venetian Expo)에 마련된 부스에서 혁신, 정밀함, 완성도라는 공통의 핵심 가치를 바탕으로 한 브랜드 메시지를 전달하게 된다. 이번 협업은 경기장 안팎에서 장기적으로 이어질 예정이다. 로보락은 추후 레알 마드리드의 홈구장인 산티아고 베르나베우에서 열리는 홈 경기를 통해 전 세계 수억 명의 팬들에게 로보락의 스마트 청소 혁신 기술을 선보이며, 선수들이 참여하는 스토리텔링과 캠페인을 통해 '리얼 스마트 크리닝(Real Smart Cleaning)'이라는 메시지를 스포츠와 일상을 연결하는 방식으로 전달할 계획이다. 이외에도 로보락은 레알 마드리드 재단과의 협력을 통해 어린이와 가족을 위한 더 깨끗하고 안전한 생활환경 조성에도 힘쓸 방침이다. 한편, 로보락은 'CES 2026'에서 2026년 플래그십 로봇청소기 'S10 MaxV Ultra', 'S10 MaxV Slim'와 로봇청소기 'Q레보 커브 2 플로우', 진공 물걸레 청소기 'F25 에이스 프로' 등 주요 신제품을 선보인다. 로보락은 지난 4일 진행된 CES 언베일드를 시작으로 각각 5일과 6일에 진행되는 펩콤, 쇼스토퍼 등 주요 미디어 행사에 참여해 신제품을 공개하는 시간을 갖는다. 로보락 공식 부스 및 각 행사에는 로보락의 전문가팀이 상주해 로보락의 기술과 제품에 대해 심층적으로 안내할 예정이다. 권 강 로보락 대표는 “로보락은 기술을 통해 사람들의 일상을 보다 효율적이고 의미 있게 만드는 데 집중해 왔으며, 세계 최고 수준의 완성도와 끊임없는 도전을 상징하는 레알 마드리드와 파트너십을 맺게 되어 뜻깊게 생각한다”며 “로보락은 앞으로도 사용자 중심의 R&D 솔루션과 다양한 분야의 협업을 통해 글로벌 로봇청소기 시장을 선도해 나가겠다”고 말했다.

2026.01.05 10:10전화평

LG전자, 홈로봇 'LG 클로이드' 공개... '제로 레이버 홈' 비전 향한 행보 가속

LG전자가 6일(현지시간) 미국 라스베이거스에서 개막하는 세계 최대 가전·IT 전시회 CES 2026에서 홈로봇 'LG 클로이드(LG CLOiD)'를 공개한다고 4일 밝혔다. LG 클로이드는 이번 CES에서 AI 홈로봇의 역할과 가능성을 보여준다. 스케줄과 주변 환경을 고려해 작업의 우선 순위를 정하고, 이에 맞춰 여러 가전을 제어하며 가사일도 직접 수행하는 비서 역할을 해낸다. 이번 클로이드 공개는 LG전자 가전 사업의 궁극적 목표인 '가사 해방을 통한 삶의 가치 제고' 달성을 위한 노력의 일환이다. 클로이드, 가사 최적화한 폼팩터로 정교하게 동작...언어·시각 통합 이해해 클로이드는 머리와 두 팔이 달린 몸체, 휠 기반 자율주행 기술이 적용된 하체로 구성된다. 허리를 세우는 각도를 조절해 105cm부터 143cm까지 키 높이를 스스로 바꾸며, 약 87cm 길이의 팔로 바닥이나 높은 곳에 있는 물체도 잡을 수 있다. 몸체에 달린 두 팔은 어깨 3가지(앞뒤/좌우/회전), 팔꿈치 1가지(굽혔다 펴기), 손목 3가지(앞뒤·좌우·회전) 등 총 7가지 구동 자유도(DoF)로 움직인다. 이는 사람 팔의 움직임과 동일한 수준이다. 5개 손가락도 개별적으로 움직이는 관절을 갖추고 있어 섬세한 동작이 가능하다. 이로써 인체에 최적화돼 있는 거주환경에서 원활히 활동할 수 있다. 하체에는 청소로봇·Q9·서빙로봇·배송로봇 등을 통해 발전시켜 온 휠 기반 자율주행 시스템을 적용했다. 무게중심이 아래쪽에 있어 어린아이나 반려동물이 갑작스럽게 매달려도 균형을 쉽게 잃지 않고, 위아래로 흔들림이 적어 정교하고 자유로운 상체 움직임을 뒷받침한다. 이족 보행보다 가격 접근성이 높아 상용화에도 유리하다. 머리는 이동형 AI홈 허브로 개발된 'LG Q9'의 역할을 수행한다. 로봇 두뇌인 칩셋, 디스플레이와 스피커, 카메라와 각종 센서, 음성 기반의 생성형 AI 등이 탑재됐다. 이로써 인간과 언어·표정으로 소통하고, 거주자의 라이프스타일과 주변 환경을 학습하며, 이를 기반으로 집 안 가전을 제어한다. LG전자는 칩셋에 자체 개발한 VLM(시각언어모델) 및 VLA(시각언어행동) 기술을 적용했다. 피지컬 AI 모델을 기반으로 가사 작업 데이터를 수만 시간 이상 학습시켜 홈로봇에 최적화한 기술이다. CES서 홈로봇이 상황 맞춰 가전 제어하고 가사 수행하는 '제로 레이버 홈' 제시 관람객은 LG 클로이드로 한층 가까워진 '제로 레이버 홈'의 구체적인 모습을 경험할 수 있다. 먼저 클로이드는 출근 준비로 바쁜 거주자를 대신해 전날 짜놓은 식사 계획에 따라 냉장고에서 우유를 꺼내고 오븐에 크루아상을 넣으며 아침 식사를 준비한다. 차 키와 프리젠테이션용 리모컨 등 일정에 맞춰 준비물도 챙겨 전달한다. 거주자가 출근한 후에는 세탁물 바구니에서 세탁물을 꺼내 세탁기에 넣고, 세탁이 완료된 수건은 개켜 정리한다. 청소로봇이 작동하면 청소 동선에 있는 장애물도 치워 빈틈없이 청소하도록 돕는다. 이 밖에도 홈트레이닝할 때 아령을 드는 횟수를 카운트해주는 등 거주자와 소통하며 일상을 케어하는 모습을 보여준다. 이와 같은 동작들은 상황을 복합적으로 인식하는 능력, 거주자의 라이프스타일을 학습하는 능력, 정교하게 움직임을 제어하는 능력의 총체적인 결합으로 가능하다. 백승태 LG전자 HS사업본부장(부사장)은 “인간과 교감하며 깊이 이해해 최적화된 가사 노동을 제공하는 홈로봇 'LG 클로이드'를 비롯해 '제로 레이버 홈' 비전을 향한 노력을 지속해 나갈 것”이라고 말했다.

2026.01.04 13:43전화평

지마켓, 열흘간 '디지털가전 빅세일' 개최

지마켓은 옥션과 4일부터 13일까지 열흘간 '디지털가전 빅세일'을 열고, 이사·결혼·신학기 시즌 인기 상품을 할인가에 판매한다. 디지털가전 빅세일은 일 년에 단 한 번 열리는 디지털·가전 카테고리 전용 할인 행사다. 이번에는 7천500여 셀러가 참여해 총 100만개의 상품을 할인가에 판매한다. 대형가전부터 소형 디지털기기까지 상품 라인업을 구성했다. 추천 상품으로 '이오에이 풀쎄라 프로'를 타이트 샷 앰플, 리페어 카밍 크림 등 사은품과 함께 선보인다. 여기에 '삼성전자 Q9000 멀티형 에어컨' 등 역시즌 한정수량 특가상품도 준비했다. 오는 5일에는 '드롱기 디나미카 전자동 커피머신'을 한정수량 초특가 판매한다. 국내외 핵심 브랜드사도 대거 참여해 다양한 특가상품을 선보인다. '오늘의 브랜드' 코너를 통해 매일 최대 3개의 브랜드를 선정해 각 베스트셀러를 단독 특가에 판매한다. 이날에는 ▲로보락 ▲삼성전자, 오는 5일은 ▲삼성전자 ▲LG전자 ▲애플의 인기 상품을 공개한다. '라이브방송'은 총 20개 브랜드와 함께 매일 오후 8시, 9시 두 차례 진행한다. 방송은 지마켓의 라방 채널 'G라이브'를 통해 선보인다. 방송 중 전용 사은품 및 추가 혜택을 제공한다. 이날에는 ▲삼성전자와 ▲로보락, 오는 5일은 ▲LG전자와 ▲삼성전자, 6일은 ▲쿠쿠전자와 인텔의 방송을 진행한다. 추가 할인도 준비했다. 디지털·가전 카테고리 전용 최대 40만원까지 할인되는 8% 할인쿠폰을 제공한다. 해당 할인쿠폰은 발급 횟수를 제한하지 않고 무한정 제공해 구매수량에 관계없이 혜택을 누릴 수 있다. 여기에 카드사 별 최대 9%의 결제혜택 및 최대 24개월 무이자 할부 혜택을 제공한다.

2026.01.04 06:00박서린

차이나데일리, 해외여행객 위한 영문 스마트 관광 서비스 플랫폼 'China Bound' 출시

베이징 2026년 1월 2일 /PRNewswire/ -- chinadaily.com.cn 보도: 스마트한 여행을 즐기며 중국을 발견해보자! 1월 1일, 차이나 데일리(China Daily)가 해외 관광객을 위한 영문 스마트 관광 서비스 플랫폼 'China Bound'를 공식 출시했다. 이 플랫폼은 '여행 구상'부터 '맞춤형 일정, 스마트 Q&A, 편리한 티켓 예약 및 여행 이야기 공유'에 이르는 원스톱 서비스를 제공한다. 여행객들은 단 한 번의 클릭으로 중국의 경이로움을 만끽할 수 있다. 이는 전 세계 친구들이 '중국을 보고, 중국을 느끼고, 중국과 사랑에 빠지도록(see China, feel China, and fall in love with China)' 돕는 초대장이다. 'China Bound' 플랫폼은 웹사이트, 미니 프로그램, 지능형 시스템 및 해외 소셜 미디어를 통해 운영된다. 영문 웹사이트(www.chinabound.cn)는 '메인 사이트 + 도시별 사이트' 연계 체계로 운영된다. 메인 사이트는 '여행 목적지', '일정 계획', '필수 구매 품목', '필수 시식 음식' 등 4가지 핵심 섹션을 특징으로 하며 중국의 풍경, 문화, 현대 생활 및 현지 관습을 소개한다. 데스크톱과 모바일 기기 모두에 최적화돼 언제 어디서나 끊김 없는 검색 경험을 제공한다. 도시 및 지역별 사이트에는 '(도시)만의 특징', '여행 전 지식', '특선 요리', '인기 명소', '필수 구매 품목', '호텔 숙박', '축제 활동' 등의 코너가 포함돼 있으며, 이는 점차 더 많은 인기 있고 독특한 관광지로 확대될 예정이다. 알리페이(Alipay)와 위챗(WeChat)의 미니 프로그램은 편의성을 더 향상시킨다. 앤트 디지털 테크놀로지(Ant Digital Technologies)가 지원하는 알리페이 미니 프로그램은 번역, 교통 및 호텔 예약, 발권, 환전, 온라인 결제 기능을 통합한다. 사용자는 알리페이에서 'China Bound'를 검색해 찾을 수 있다. China Bound 플랫폼은 관광객의 개인별 여행 수요를 정확하게 맞추기 위해 다국어 스마트 상호 작용을 지원하는 전용 지능형 비서를 도입했다. 사용자는 지능형 비서와의 대화를 통해 일정을 맞춤 설정하고, 실시간 교통 상황을 확인하며, 문화적 배경 설명을 들을 수 있다. 이처럼 이 플랫폼은 '언제 어디서나 사려 깊은 동반자'와 같은 개인화된 스마트 투어 가이드 서비스를 제공한다. 중국의 인바운드 관광 정책이 꾸준히 개선되고 해외 관광객들의 중국 방문 열기가 높아지는 가운데, 차이나 데일리는 '중국과 세계를 연결한다(connecting China and the world)'는 사명을 적극적으로 수행하고 있다. China Bound 플랫폼은 국가 문화 관광 기관, 문화 장소 및 관련 서비스 부서와 협력해 더 신뢰할 수 있는 콘텐츠, 체감할 수 있는 경험, 공감할 수 있는 이야기뿐만 아니라 지능적이고 정확하며 따뜻한 원스톱 서비스를 제공할 계획이다. 이 이니셔티브는 해외 관광객이 중국을 알아가는 것부터 깊이 이해해 나가는 여정에 동행하며, 중국 문화를 알리고 문화 교류를 촉진하는 중요한 플랫폼이자 가교 역할을 할 것이다.

2026.01.02 22:10글로벌뉴스

[유미's 픽] 업스테이지 中 모델 도용 논란 가열…'국대 AI' 검증 기준 시험대

정부에서 추진 중인 '독자 인공지능(AI) 파운데이션 모델 프로젝트'에 참가한 업스테이지의 중국 모델 도용·파생 의혹이 제기된 후 논쟁이 기술 공방과 검증 기준 논의로 확대되고 있다. 이번 사안이 업스테이지를 넘어 이번 프로젝트 '정예 5팀'에 선발된 경쟁사들에게도 영향을 미칠지 주목된다. 2일 업계에 따르면 업스테이지는 이날 오후 3시 서울 강남역 인근에서 '솔라 오픈 100B'의 개발 과정 전반을 검증하는 공식 행사를 진행할 예정이다. 이 자리에는 김성훈 업스테이지 대표와 이번 모델 개발에 참여한 관계자, 참석을 희망한 70여 명의 업계 전문가들이 참석할 예정이다. 업스테이지 측은 '솔라 오픈 100B'의 중국 모델 표절을 주장한 고석현 사이오닉에이아이 대표도 공개적으로 초청했다. 이번 일은 고 대표가 지난 1일 깃허브를 통해 업스테이지의 '솔라 오픈 100B'의 기술 분석 보고서를 공개한 것이 발단이 됐다. '솔라 오픈 100B'는 지난 달 30일 업스테이지가 '독자 AI 파운데이션 모델' 1차 성과 발표회에서 공개한 모델이다. 고 대표는 '솔라 오픈 100B'가 중국 지푸AI의 'GLM-4.5-에어(Air)' 모델에 기반을 둔 파생 모델이라고 의혹을 제기하며 유감을 표했다. '독자 AI 파운데이션 모델' 프로젝트가 우리나라 AI 주권 확립을 위한 국가대표 AI 선발전인 데다 '프롬 스크래치(100% 독자 개발)' 준수가 공식 참여 조건으로 명시돼 있어서다. 이번 의혹이 사실일 경우 업스테이지는 자격 미달로 5개 팀 중 첫 탈락 1순위에 오르게 된다. 이에 업스테이지는 공개 검증회를 곧바로 열어 논란 잠재우기에 나섰다. 특히 이번에 학습에 사용한 중간 체크포인트(checkpoint)와 AI 모델 학습 과정과 실험 결과를 기록·관리하는 도구인 '웨이츠 앤 바이어시스(Weights & Biases·wandb)'를 모두 공개한다고 밝히는 초강수를 뒀다. '웨이츠 앤 바이어시스'는 블랙박스와 유사한 것으로, 로그 누락·사후 조작이 힘든 것으로 알려졌다. '프롬 스크래치' 공방 본격화…'가중치 유사성'이 쟁점 이번에 고 대표가 제기한 의혹의 핵심은 두 모델의 가중치 구조 유사성이다. 그는 공개한 보고서를 통해 '솔라 오픈 100B'와 'GLM-4.5-에어'의 레이어별 파라미터를 비교한 결과, 신경망 구성 요소 중 하나인 레이어놈(LayerNorm)에서 매우 높은 수준의 유사도가 관측됐다고 주장했다. 또 이를 근거로 프롬 스크래치 방식으로 학습된 모델이라면 나타나기 어려운 수치라며 중국 모델을 기반으로 일부 가중치를 보존한 파생 모델일 가능성을 제기했다. 고 대표는 '솔라 오픈 100B'의 구동 코드 일부에서 GLM 모델과 동일한 설정 코드가 발견됐다고도 주장했다. 특히 'GLM-4.5-에어'가 46개 레이어 구조를 갖는 모델임에도 48개 레이어 구조인 '솔라 오픈 100B'의 코드에 GLM 전용 레이어 예외 처리 구문이 남아 있다는 점을 문제 삼았다. 여기에 논란이 제기된 이후 깃허브 저장소의 라이선스 파일에 중국 지푸AI 관련 저작권 문구가 병기된 점 역시 의혹을 키우는 대목으로 지목했다. 업스테이지는 이러한 주장에 대해 "기술적 사실과 다르다"며 정면 반박하고 있다. 회사 측은 레이어놈 유사성만으로 모델 파생 여부를 단정하는 것은 무리가 있고, 코드 내 일부 유사한 표현 역시 오픈소스 생태계에서 통용되는 관행이나 호환성 확보 과정에서 발생할 수 있는 문제라는 입장이다. 라이선스 표기 변경에 대해서도 법적 검토 과정에서의 정비 차원이라는 설명이다. 도용 단정은 이르다…업계 "종합 검증 필요" 업계와 학계에서는 이번 논쟁을 둘러싸고 신중론이 동시에 제기되고 있다. 레이어놈 파라미터는 초기값과 학습 특성상 구조와 학습 목표가 유사한 대규모 언어모델에서 높은 유사도가 나타날 수 있어 단일 지표만으로 도용 여부를 판단하기는 어렵다는 지적이다. 실제 도용 여부를 가리려면 어텐션의 Q·K·V 가중치나 레이어 전반의 구조적 일치 여부, 학습 경로에 대한 종합적인 검증이 필요하다는 의견도 나온다.또 업계에선 고석현 대표의 문제 제기에 대해 단일 지표만으로 도용 여부를 단정하는 데에는 한계가 있다는 다수 의견도 나오고 있다. 특히 이승현 포티투마루 부사장은 사이오닉에이아이의 분석이 기술적으로 충분한 근거를 갖췄는지에 대해 의문을 제기하며, 현재 공개된 자료를 토대로 업스테이지의 '프롬 스크래치' 주장에 더 무게를 두는 모습을 보였다. 이 부사장은 "프롬 스크래치 여부는 모델 가중치가 어떻게 형성됐는지에 관한 기술적 문제로, 라이선스 표기나 소버린 AI 논의는 별도의 정책적 판단 영역"이라며 "레이어놈이나 임베딩과 같은 보조 파라미터의 유사성은 구조와 학습 목표가 유사한 대규모 언어모델(LLM)에서 통계적으로 나타날 수 있다"고 말했다. 이에 고석현 대표 역시 이날 또 다른 게시글을 통해 기술적 유사성 문제와 별도로 이번 사안을 소버린 AI 관점에서 바라봐야 한다는 입장을 강조하며 업스테이지 논란에서 한 발 물러서는 모습을 보였다. 그는 해외, 특히 중국 모델의 코드와 구조를 적극적으로 학습·참고하는 방식이 정부 주도의 독자 AI 파운데이션 모델 사업 취지에 부합하는지에 대한 근본적인 질문을 던지며 기술적 도용 여부와는 별개로 정책적 기준에 대한 논의가 필요하다고 주장했다. 업스테이지 논란, 다른 정예 5팀에도 '설명 책임' 부담 일각에선 이번 사안이 업스테이지 한 곳에 그치지 않고 독자 AI 파운데이션 모델 프로젝트에 참여 중인 다른 '정예 5팀'에도 적잖은 영향을 미칠 수 있다는 관측이 나온다. LG AI연구원, 네이버클라우드, NC AI, SK텔레콤 등 다른 참여 기업들 역시 향후 모델 공개 과정에서 개발 경로와 외부 모델 활용 여부, 프롬 스크래치의 정의에 대해 보다 명확한 설명을 요구받을 가능성이 커졌다는 평가다. 정부의 대응에도 관심이 쏠린다. 현재 독자 AI 파운데이션 모델 프로젝트는 성능과 활용 가능성을 중심으로 평가가 이뤄져 왔지만, 이번 논란을 계기로 학습 경로와 개발 과정에 대한 검증 기준을 보다 구체화해야 한다는 목소리가 커지고 있다. 일각에서는 중간 체크포인트 제출이나 학습 로그 관리·보관 의무화 등 제도적 보완이 필요하다는 지적도 제기된다. 업계 관계자는 "이번 논쟁은 특정 기업의 공방을 넘어 독자 AI를 어떤 기준으로 검증할 것인지에 대한 시험대가 되고 있다"며 "업스테이지의 공개 검증 결과에 따라 다른 참여 기업들과 정부 역시 개발 투명성과 설명 책임의 수준을 다시 설정해야 할 상황에 놓일 수 있다"고 말했다.

2026.01.02 13:28장유미

작가 등용문 '오펜' 10주년...새로운 스토리텔러 모십니다

새해 10주년을 맞은 CJ ENM의 대표적인 신진 창작자 지원 사업 오펜(O'PEN)이 2026년 공개 모집을 진행한다. 2026년 오펜은 드라마, 영화, 음악 분야의 신예 창작자를 대상으로 '오펜 스토리텔러' 10기와 '오펜 뮤직' 8기를 선발한다. 스토리텔러 10기는 드라마 부문(1월2~15일), 영화 부문(2월2~11일) 순으로 접수를 진행하며, 오펜 뮤직 8기는 3월 중 공모할 예정이다. CJ ENM은 올해 6월1일 기준 방송사, 제작사와 집필 계약이 없는 창작자라면 누구나 지원할 수 있다. 모든 대본은 블라인드 심사로 진행되며, 작품 제출 편수는 드라마 부문 최대 5편, 영화 부문 최대 3편까지 허용된다. 자세한 내용은 오펜 공식 홈페이지에서 확인할 수 있다. CJ ENM 유튜브에 공개된 오펜 공모전 Q&A 영상에서도 심사 방식과 교육 과정 등 지원자가 궁금해할 핵심 정보를 제공한다. CJ ENM 관계자는 “특정 장르나 소재보다 작가의 시선과 해석, 캐릭터 구축력을 중시한다”며 “오펜은 단기 교육이 아닌 장기 육성 플랫폼으로, K-콘텐츠 생태계를 이끌 차세대 창작자들의 글로벌 도약을 지원하는 데 초점을 맞추고 있다”고 설명했다. 한편, 오펜은 기획부터 제작, 편성, 비즈매칭까지 전 과정을 지원하며 신인 창작자와 산업을 잇는 플랫폼 역할을 하고 있다. 지난 10년간 276명의 작가와 115명의 작곡가를 배출하며 단막극, 영화, OTT, 음악 전반에서 K콘텐츠 생태계에 활력을 더해왔다.

2026.01.02 08:47박수형

챗GPT에 속은 학생들 "아는 것만 물어볼래요"…'AI 검증 전략' 스스로 개발

그리스 고등학생 109명을 대상으로 한 실험에서 챗GPT-5의 허위 정보 생성(환각) 문제를 직접 경험한 학생들이 AI 사용 방식을 스스로 제한하는 흥미로운 행동 패턴이 발견됐다. 이들은 AI에게 질문할 때 자신이 이미 알고 있는 주제만 선택해 답변의 정확성을 검증할 수 있도록 하는 전략을 취했다. 연구자들은 이를 '인식론적 안전장치(epistemic safeguarding)'라는 새로운 개념으로 명명했다. AI 환각 경험 후 달라진 학생들의 대처법 해당 논문에 따르면, 그리스 국립 아테네대학교 연구팀은 2025년 9월부터 10월까지 그리스 아테네 인근 3개 고등학교의 16세 학생 109명을 대상으로 챗GPT-5 활용 수업을 진행했다. 이 연구의 핵심은 학생들에게 의도적으로 챗GPT-5의 환각 현상을 경험하게 했다는 점이다. 연구팀은 8시간에 걸친 수업에서 학생들에게 정보 검색, 이력서 작성, 문서 및 영상 요약, 이미지 생성, 퀴즈 제작 등 7가지 활동을 제공했다. 특히 챗GPT-5가 허위 과학적 사실을 만들어내거나 잘못된 역사·지리 정보를 제공하는 사전 확인된 질문들을 학생들에게 직접 입력하도록 했다. 학생들은 AI가 생성한 답변을 검색을 통해 확인하면서 오류를 직접 발견했다. 36명의 학생을 대상으로 한 심층 인터뷰에서 많은 학생들이 "앞으로는 내가 어느 정도 아는 주제에 대해서만 챗GPT에 물어볼 것"이라고 답했다. 이들은 자신이 기존에 알고 있는 지식을 활용해 AI의 답변이 정확한지 판단할 수 있을 때만 AI를 사용하겠다는 전략을 세운 것이다. 연구팀은 이러한 행동을 단순한 사실 확인을 넘어서 학생들이 AI 사용 영역을 스스로 제한함으로써 인식론적 통제권을 유지하려는 능동적인 메타인지 전략으로 해석했다. AI에 대한 태도는 긍정적이지만 불안감도 공존 학생들의 AI에 대한 태도를 측정하기 위해 연구팀은 'SATAI(Student Attitude Toward Artificial Intelligence)' 척도를 사용했다. 5점 척도로 측정한 결과, 전체 평균은 3.24점으로 중간 이상의 긍정적 태도를 보였다. 특히 "AI가 사람들의 삶을 더 편리하게 만든다"(3.65점)와 "학교에서 AI에 대해 배우는 것이 중요하다"(3.52점) 항목에서 높은 점수를 받았다. 그러나 세부적으로 살펴보면 흥미로운 차이가 나타났다. 인지적 태도(AI가 중요하다는 생각)는 3.44점, 정서적 태도(AI에 대한 감정)는 3.38점으로 비교적 높았지만, 행동적 의도(실제 AI를 사용하거나 관련 진로를 선택하려는 의향)는 3.04점으로 상대적으로 낮았다. "AI 분야에서 일자리를 선택하겠다"는 항목은 2.58점으로 가장 낮은 점수를 받았다. 이는 학생들이 AI의 교육적 가치는 인정하지만 실제 행동으로 옮기는 데는 주저하고 있음을 보여준다. 흥미롭게도 이전에 챗GPT를 사용해 본 경험이 있는 학생들(31.2%)은 모든 태도 항목에서 더 높은 점수를 보였다. 경험이 있는 학생들의 전체 SATAI 점수는 3.57점인 반면, 경험이 없는 학생들은 3.09점에 그쳤다. 이는 AI에 대한 직접적인 경험이 긍정적인 태도 형성에 중요한 역할을 한다는 것을 시사한다. 일자리 대체 우려가 학습 불안보다 크다 AI 관련 불안감을 측정하는 'AIAS(Artificial Intelligence Anxiety Scale)' 조사에서는 7점 척도로 측정한 결과, 학습 관련 불안은 3.09점으로 중간 이하 수준이었다. "AI 기술/제품 사용법을 배울 때 불안하다"(3.27점), "AI가 실제로 어떻게 작동하는지 배울 때 불안하다"(3.19점) 등의 항목이 이에 해당한다. 반면 일자리 대체와 관련된 불안은 4.07점으로 훨씬 높았다. 특히 "AI 기술/제품이 우리를 더 게으르게 만들까 봐 두렵다"는 항목이 4.46점으로 가장 높은 점수를 받았으며, "AI 기술/제품이 인간을 대체할까 봐 두렵다"(4.37점)도 높은 불안감을 나타냈다. 이는 고등학생들이 미래 직업 세계에서 AI로 인한 변화에 대해 상당한 우려를 갖고 있음을 보여준다. 주목할 만한 점은 AI에 대한 긍정적인 태도와 AI 관련 불안감이 거의 무관하다는 것이다. AI 태도 점수가 높은 학생들이라고 해서 AI 불안감이 낮지 않았고, 반대로 AI에 대해 부정적인 학생들이 더 불안해하는 것도 아니었다. 이는 학생들이 교육 현장에서 AI의 유용성을 인정하면서도 동시에 AI가 사회와 고용에 미칠 광범위한 영향에 대해서는 별도로 걱정할 수 있음을 의미한다. 성별 차이도 발견됐다. AI 불안감에서는 남녀 간 유의미한 차이가 없었지만, AI에 대한 태도에서는 여학생들이 남학생들보다 더 긍정적이었다. 특히 인지적 태도에서 여학생은 3.68점, 남학생은 3.09점으로 뚜렷한 차이를 보였다. 즉각적 피드백과 친숙한 인터페이스가 장점 질적 분석에서는 챗GPT-5 사용의 4가지 교육적 장점이 확인됐다. 가장 많은 학생(29명)이 언급한 것은 '새로운 지식 생성'이었다. 학생들은 챗GPT-5를 특정 주제에 대한 지식을 확장하는 도구로 활용했다. 다만 환각 현상을 경험한 후에는 자신이 사전 지식을 갖고 있는 주제에 대해 질문하는 경향을 보였다. 두 번째로 18명의 학생이 '즉각적인 피드백'을 장점으로 꼽았다. 학생들은 자신의 글쓰기에 대한 피드백을 요청하거나 영상과 파일 요약을 받을 때 빠른 응답 시간이 동기 부여와 시간 효율성 측면에서 유리하다고 평가했다. 16명의 학생은 소셜미디어와 유사한 '친숙하고 직관적인 사용자 인터페이스'를 언급했으며, 10명은 챗GPT-5가 계산적 사고, 문제 해결, 비판적 사고, 디지털 리터러시 등 '기술 개발'에 도움이 된다고 답했다. 한편 제약 사항으로는 21명의 학생이 '콘텐츠 정확성에 대한 불확실성'을 지적했다. 흥미롭게도 챗GPT-5 입력창 하단에 "챗GPT가 잘못 답할 수 있습니다"라는 경고문을 읽었던 학생 20명은 이것이 수학 계산 오류를 의미한다고 생각했지, 환각 현상을 통한 잘못된 정보 제공을 의미한다고는 해석하지 않았다. 11명의 학생은 'AI 피드백과 관련된 불안'을 언급했다. 이들은 챗GPT-5가 지속적으로 수정 제안을 하는 피드백 루프 때문에 자신의 작업이 "결코 충분히 좋지 않을 것"이라는 느낌을 받았다고 답했다. 4명의 학생은 개인정보 보호에 대한 우려를 표현하며, 자신이 입력한 정보가 어디에 저장되고 누가 접근할 수 있는지에 대한 불확실성을 지적했다. AI 리터러시 교육의 새로운 방향 이번 연구는 중등교육에서 생성형 AI 활용에 대한 중요한 시사점을 제공한다. 첫째, 학생들에게 AI의 한계를 직접 경험하게 하는 것이 오히려 더 현명한 AI 사용 전략을 개발하는 데 도움이 될 수 있다. 환각 현상을 숨기거나 회피하기보다는 교육 과정에서 명시적으로 다루는 것이 학생들의 비판적 AI 리터러시를 강화한다. 둘째, '인식론적 안전장치' 개념은 단순한 팩트체크를 넘어서는 능동적인 메타인지 전략이다. 학생들은 AI를 완전히 거부하거나 맹목적으로 의존하는 대신, 자신이 통제할 수 있는 범위 내에서 AI를 활용하는 중간 지점을 찾았다. 이는 AI 시대에 필요한 인식론적 주체성(epistemic agency)의 중요한 사례다. 셋째, AI에 대한 긍정적 태도와 불안감이 독립적으로 존재할 수 있다는 발견은 교육 정책 수립 시 고려해야 할 중요한 요소다. 학생들이 AI의 교육적 가치를 인정하도록 하는 것만으로는 충분하지 않으며, 일자리 대체와 같은 장기적 우려에 대한 논의와 대비 교육도 함께 제공해야 한다. 넷째, 이전 챗GPT 경험이 있는 학생들이 더 긍정적인 태도를 보인다는 결과는 조기 노출의 중요성을 시사한다. 다만 이러한 노출은 비판적 사고와 검증 능력 개발과 함께 이루어져야 한다. 다섯째, 여학생들이 남학생들보다 AI에 대해 더 긍정적인 인지적 태도를 보인 것은 기존의 성별 고정관념과 상반되는 결과로, AI 교육이 기술 분야의 성별 격차를 줄이는 데 기여할 가능성을 보여준다. 마지막으로, 이 연구는 AI 교육이 단순히 기술적 사용법을 가르치는 것을 넘어, 학생들이 AI와의 상호작용을 어떻게 구조화하고 제한할지를 스스로 결정할 수 있는 능력을 키워야 함을 강조한다. AI의 성능을 향상만큼 학생들이 AI를 비판적으로 활용하는 능력을 키우도록 돕는 것이 중요하다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 챗GPT를 사용해 본 학생과 처음 사용하는 학생의 태도 차이가 있나요? A: 네, 이번 연구에서 이전에 챗GPT를 사용해 본 경험이 있는 학생들(31.2%)은 처음 사용하는 학생들보다 AI에 대해 훨씬 긍정적인 태도를 보였습니다. 경험이 있는 학생들의 AI 태도 점수는 3.57점인 반면, 경험이 없는 학생들은 3.09점으로 약 0.5점 차이가 났습니다. 특히 인지적 태도(AI가 중요하다는 생각)에서는 3.72점 대 3.31점, 정서적 태도(AI에 대한 감정)에서는 3.75점 대 3.22점으로 뚜렷한 차이를 보였습니다. 이는 AI에 대한 직접적인 경험이 긍정적인 태도 형성에 중요한 역할을 한다는 것을 보여줍니다. Q2. 학생들이 AI를 좋아하면 AI에 대한 불안감도 낮아지나요? A: 흥미롭게도 그렇지 않습니다. 연구 결과에 따르면 AI에 대한 긍정적인 태도와 AI 불안감은 거의 상관관계가 없었습니다. 즉, 학생들은 AI가 학습에 유용하고 미래에 중요하다고 생각하면서도, 동시에 AI가 일자리를 빼앗거나 사람들을 의존적으로 만들 수 있다는 우려를 할 수 있습니다. 실제로 학습과 관련된 AI 불안은 3.09점으로 낮았지만, 일자리 대체에 대한 불안은 4.07점으로 상대적으로 높게 나타났습니다. 특히 "AI가 우리를 더 게으르게 만들까 봐 두렵다"는 항목은 4.46점으로 가장 높은 불안감을 보였습니다. Q3. 인식론적 안전장치란 무엇을 의미하나요? A: 인식론적 안전장치(epistemic safeguarding)는 이번 연구에서 새롭게 제시된 개념으로, 학생들이 AI의 환각 현상을 경험한 후 자신이 이미 알고 있는 지식 영역에서만 AI를 사용하도록 스스로 제한하는 전략을 말합니다. 학생들은 자신의 기존 지식을 활용해 AI의 답변을 검증할 수 있을 때만 AI를 활용함으로써, 잘못된 정보에 오도될 위험을 최소화하고 인식론적 통제권을 유지합니다. 이는 단순한 팩트체크를 넘어서는 능동적이고 메타인지적인 AI 리터러시 전략입니다. * 해당 기사에 인용된 논문 원문은 arvix에서 확인 가능하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.01.02 08:31AI 에디터

꿀벌 떼, AI 학습 원리로 움직인다...생물학계 '진화의 지혜' 재조명

캐나다 몬트리올 폴리테크닉 대학교와 밀라 퀘벡 AI 연구소, 독일 콘스탄츠 대학교 공동 연구팀이 꿀벌 무리가 집을 찾는 과정을 분석한 결과, 이것이 AI가 학습하는 방식과 수학적으로 완전히 같다는 사실을 발견했다. 개별 꿀벌은 복잡한 계산을 못하지만, 수백 마리가 모이면 마치 하나의 똑똑한 AI처럼 최선의 선택을 한다는 것이다. 춤으로 정보를 전달하는 꿀벌, 그 안에 숨겨진 학습의 비밀 연구 논문에 따르면, 꿀벌이 새집을 찾을 때 벌어지는 일은 매우 흥미롭다. 정찰을 나간 꿀벌들은 여러 후보 장소를 둘러본 뒤 무리로 돌아와 '흔들기 춤(waggle dance)'을 춘다. 이 춤으로 "내가 본 곳의 위치"를 알려주는데, 재밌는 건 춤을 추는 빈도다. 좋은 장소를 발견한 꿀벌은 춤을 많이 추고, 별로인 곳을 본 꿀벌은 춤을 적게 춘다. 다른 꿀벌들은 주변에서 처음 본 춤을 따라 한다. 그냥 "저 친구 춤 좋아 보이네? 나도 그 장소 가볼까" 하는 식이다. 이렇게 단순하게 따라만 하는데도, 신기하게 무리 전체는 결국 가장 좋은 장소를 선택하게 된다. 연구팀은 이를 '가중 유권자 모델'이라고 부르며 수학적으로 분석했다. 꿀벌 수백 마리가 동시에 학습하는 하나의 AI 시스템 연구의 핵심은 이렇다. 꿀벌 무리 전체를 하나의 AI로 보면, 각각의 꿀벌은 그 AI가 동시에 돌리는 '학습 환경' 하나하나와 같다는 것이다. 쉽게 비유하자면 이렇다. 게임 AI를 학습시킬 때, 똑같은 게임을 500개 동시에 켜놓고 학습하면 1개만 켜놓고 학습하는 것보다 훨씬 빠르다. 꿀벌도 마찬가지다. 실제 꿀벌 군집에서는 약 1만 마리 중 200~500마리 정도가 정찰벌로 활동한다. 이들이 각자 다른 장소를 탐색하고 돌아와 정보를 공유하면, 마치 하나의 똑똑한 존재가 수백 개의 장소를 동시에 살펴보는 것과 같은 효과가 난다. 실제 시뮬레이션 결과, 정찰벌이 500마리 정도만 되어도 이론상 최고 수준의 선택을 할 수 있었다. 반대로 10마리처럼 너무 적으면 잘못된 선택을 할 확률이 높아졌다. 새로운 AI 학습 방법 발견... "메이너드-크로스 러닝"이라 명명 연구팀은 꿀벌의 이런 행동 패턴을 AI 학습 알고리즘으로 만들었다. 이름은 '메이너드-크로스 러닝'이다. 기존 AI 학습법을 개량한 것인데, 핵심은 "평균 대비 얼마나 좋은가"를 따진다는 점이다. 예를 들어보자. 10점짜리 장소와 8점짜리 장소가 있다고 하자. 보통은 "10점이니까 좋네"라고 절대적으로 판단한다. 하지만 메이너드-크로스 러닝은 현재 평균값으로 나눠서 판단한다. 평균이 9점이면 10점은 크게 좋은 게 아니지만, 평균이 5점이면 10점은 엄청 좋은 것이 된다. 이게 바로 꿀벌이 춤추는 방식과 똑같다. 꿀벌도 절대적인 점수가 아니라, 다른 장소들의 평균 품질 대비 얼마나 좋은지에 따라 춤 빈도를 조절한다는 것이다. 꿀벌뿐 아니다... 경제, 사회, 로봇 기술에도 적용 가능 이 발견은 꿀벌을 넘어 여러 분야에 영향을 준다. 첫째, 사람들의 경제 행동도 비슷하게 설명할 수 있다. 주식 투자나 사업에서 "성공한 사람 따라하기"를 많이 하는데, 이것도 집단 수준에서 보면 AI 학습 과정의 일부라는 것이다. 개인은 그냥 따라하는 것뿐이지만, 사회 전체로 보면 점점 나은 방향으로 학습하고 있다는 의미다. 둘째, 로봇 기술에 활용할 수 있다. 수백 대의 작은 로봇들이 협력해야 하는 상황(예: 재난 현장 수색)에서, 각 로봇에게 복잡한 AI를 넣지 않아도 된다. 꿀벌처럼 단순한 규칙만 따르게 하면, 로봇 무리 전체가 똑똑하게 움직일 수 있다. 연구팀은 또한 예쁜꼬마선충(C. elegans)이라는 작은 생물도 비슷한 원리로 먹이를 찾는다는 사실도 언급했다. 이는 이런 집단 학습 원리가 자연계에 광범위하게 존재함을 보여준다. 더 빠른 방법도 있는데 왜 꿀벌은 이 방식을 택했을까 연구팀은 컴퓨터 시뮬레이션으로 다른 의사결정 방식들을 테스트해봤다. 결과는 놀라웠다. 꿀벌들이 서로 만났을 때 품질 점수를 직접 비교해서 "네가 더 높은 점수를 받았네, 너를 따라갈게"라고 결정하는 방식이 현재 꿀벌이 쓰는 방식보다 훨씬 빠르게 최선의 선택에 도달했다. 그렇다면 왜 진화는 더 느린 방법을 선택했을까? 연구팀은 핵심 문제를 지적했다. 바로 "품질 점수를 서로 비교할 수 있는 공통 기준"을 만드는 게 불가능하다는 것이다. 현실에서 꿀벌들은 각자 다른 조건에서 둥지를 평가한다. 어떤 꿀벌은 맑은 날 갔고, 어떤 꿀벌은 흐린 날 갔을 수 있다. 개별 꿀벌마다 감각 능력도 다르고, 온도·습도·공간 같은 요소에 두는 중요도도 다르다. 그러니 한 꿀벌이 "8점"이라고 평가한 것과 다른 꿀벌이 "8점"이라고 평가한 것이 실제로 같은 품질인지 알 수 없다. 점수를 직접 비교하려면 모든 꿀벌이 같은 척도로 평가해야 하는데, 이는 매우 어려운 문제다. 꿀벌의 현재 방식은 이 문제를 영리하게 피해간다. 각 꿀벌은 자신의 주관적 평가(품질 점수)를 단순히 "춤 빈도"로 바꿔서 전달한다. 다른 꿀벌들은 품질 점수 자체를 듣는 게 아니라 춤 빈도만 본다. 즉, "이 친구가 얼마나 열심히 춤추나"만 관찰하면 된다. 이렇게 하면 척도 교정 문제가 완전히 사라진다. 물론 이 방식은 더 느리다. 하지만 개별 꿀벌의 뇌는 최소한으로 단순하게 유지할 수 있다. 신경 조직은 엄청난 에너지를 소비한다(포유류의 경우 다른 조직보다 단위 무게당 거의 10배). 꿀벌도 비슷할 것이다. 진화는 "개체는 최대한 단순하게, 집단은 충분히 똑똑하게"라는 전략을 택한 것이다. 수렴 속도는 조금 느려도, 에너지 효율이 좋고 개체마다 능력이 달라도 견고하게 작동하는 시스템을 선택했다. 수백만 기기의 협력, 꿀벌에게 배운다 이 연구는 AI 기술 개발의 새로운 방향을 제시한다. 지금까지 AI 개발은 "하나의 슈퍼 AI 만들기"에 집중했다. 거대하고 똑똑한 하나의 AI를 만드는 식이다. 하지만 자연은 다른 답을 보여준다. "작고 단순한 것들을 많이 모아라." 특히 스마트폰, IoT 기기처럼 개별 성능은 낮지만 엄청나게 많은 기기가 협력해야 하는 상황에서, 꿀벌 전략이 더 효율적일 수 있다. 또한 대규모 AI 학습에서도 의미가 있다. 여러 컴퓨터에 AI를 분산해서 학습시킬 때, 복잡한 데이터 교환 없이도 단순한 정보만 공유하면 효과적으로 학습할 수 있다는 뜻이다. 통신 비용을 크게 줄이면서도 학습 효율은 유지할 수 있는 것이다. 무엇보다 이 연구는 "복잡한 것이 꼭 좋은 것은 아니다"라는 교훈을 준다. 때로는 단순한 규칙의 집합이 복잡한 알고리즘보다 나을 수 있다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. AI 강화학습이 뭔가요? 꿀벌과 무슨 관계인가요? A: AI 강화학습은 시행착오로 배우는 방식이다. 게임 AI가 계속 게임을 하면서 점수가 높아지는 방법을 찾아가는 것처럼 말이다. 이번 연구는 꿀벌 무리가 집을 찾는 과정이 수학적으로 이 학습 방식과 완전히 같다는 걸 증명했다. 개별 꿀벌은 학습 안 하는데, 무리 전체는 마치 하나의 AI처럼 학습한다. Q. 이게 실제로 어디에 쓰일 수 있나요? A: 여러 대의 로봇이 협력하는 기술, 수많은 컴퓨터가 함께 계산하는 시스템, 여러 AI가 협력하는 기술 등에 쓸 수 있다. 특히 각각은 성능이 낮지만 많은 수가 협력해야 할 때 유용하다. 개별적으로는 단순해도 모이면 똑똑해지는 원리를 활용하는 것이다. Q. 더 빠른 방법이 있는데 왜 꿀벌은 지금 방식을 쓰나요? A: 더 빠른 방법은 더 복잡한 신경회로가 필요하고, 뇌는 엄청난 에너지를 소비한다. 또한 개체마다 품질을 다르게 느낄 수 있어서 점수를 직접 비교하기 어렵다. 꿀벌의 현재 방식은 최소한의 인지 능력으로도 충분하면서 결과도 충분히 좋다. 진화는 "최고"가 아니라 "에너지 대비 충분히 좋은 것"을 선택한다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.12.30 13:02AI 에디터

2026년 'AI 대전환 시대' 온다… 한국지능정보원의 새해 전망

한국지능정보사회진흥원(NIA)이 2025년 국내외 주요 매체 282건을 토픽 모델링 기법으로 분석한 결과, 2026년은 AI가 실험 단계를 넘어 산업 전반의 핵심 인프라로 자리 잡는 전환점이 될 것으로 전망된다. 산업 현장에서는 도입 확산이, 기술 분야에서는 기능 고도화가, 정책 영역에서는 안전성 중심의 제도화가 동시에 진행되며 AI 생태계의 구조적 재편이 가속화될 것으로 보인다. AI 투자 연 50% 급증… 금융·제조·서비스 전 산업 확산 글로벌 AI 투자 규모가 연간 50% 이상 성장하면서 챗GPT(ChatGPT)와 같은 생성형 AI 도입 시도가 금융, 제조, 서비스 등 전 산업군으로 확산되고 있다. 생성형 AI 활용 영역도 상담과 요약을 넘어 기획과 분석 등 고부가가치 업무로 확장되며, 기업 운영 방식 자체를 재정의하는 수준의 변화를 촉발하고 있다. 리포트의 산업 분야 토픽 분석 결과, '도입', '확대', '성장세', '확산'이 핵심 키워드로 나타났다. AI 활용이 시범 적용 단계를 넘어 전사적, 범용적 도입 단계로 확산되면서 업종별 도입 범위가 커지고 산업 구조와 경쟁 환경이 재편되는 흐름이다. '규모', '성장', '글로벌', '비용', '자금' 등의 키워드는 AI가 기술 단위를 넘어 투자, 시장, 매출 구조가 결합된 산업 규모 중심 논의로 확장되고 있음을 보여준다. 주목할 만한 점은 '인프라', '센터', '에이전트' 키워드의 부상이다. 데이터센터와 클라우드 기반의 인프라 투자 확대 경향과 함께, 에이전트 도입 확산으로 업무 흐름과 운영 방식이 재구성되는 초기 징후가 포착되고 있다. 2026년에는 기업 내부에서 AI 에이전트를 활용한 문서 처리, 고객 지원, 운영 자동화 등이 증가하며 사람-에이전트-시스템이 혼합된 업무 구조가 일부 영역에서 확산될 가능성이 있다. 멀티모달·추론·온디바이스… 지능 구조 자체가 고도화 기술 분야 분석에서는 '멀티모달(Multimodal)', '추론', '기능', '개발' 키워드가 핵심으로 도출됐다. AI 기술 담론이 단순 성능 향상을 넘어 모델이 무엇을 이해하고 어떻게 추론하는지와 같은 지능 구조 자체의 고도화로 이동하고 있다. 복합 입력 처리를 가능케 하는 멀티모달 기술, 고급 추론 능력, 자연스러운 응답 생성 등 알고리즘 수준의 질적 확장이 기술 변화의 핵심축이다. '개발', '강화', '향상', '성능' 키워드의 반복적 등장은 모델 개발 주기 단축, 성능 지표 향상, 효율과 추론 능력 강화가 기술 경쟁력의 중심 요소로 작동하고 있음을 나타낸다. 산업 적용보다 엔진의 최적화 속도와 완성도가 기술 논의의 핵심 기준으로 자리 잡고 있다. 특히 '디바이스', '서비스', '활용' 키워드가 부각되면서 기술 적용 환경이 다변화되고 있다. 클라우드 중심의 기술 적용이 스마트폰과 개인 디바이스 등 온디바이스(On-Device) AI와 엣지(Edge) 환경으로 확장되는 경향이 나타난다. 이는 기술 발전이 성능 중심을 넘어 배포 환경 중심의 다변화로 이동하고 있음을 의미한다. 2026년에는 합성데이터, 추론형 AI, 멀티모달 기술이 주요 경쟁 축으로 자리 잡으면서 학습 효율 향상, 복합 정보 처리, 설명 가능성 강화 등 모델 내부 구조의 질적 개선 흐름이 이어질 것으로 전망된다. 고품질 데이터 생성, 멀티모달, 고급 추론 기술이 결합되며 AI의 상황 이해와 문제 해결 능력이 향상되고 서비스와 산업 전반의 활용도도 확대될 전망이다. AI 사고 급증에 안전성·책임성 중심 규제 본격화 정책 분야에서는 '안전', '위험', '규제', '기본법', '의무', '준수' 키워드가 핵심으로 부상했다. AI 확산 속도 대비 위험 관리와 안전 확보 체계를 시급히 강화해야 한다는 정책적 요구가 높아지고 있다. OECD AI 사고 모니터(AI Incidents Monitor)에 따르면 2010년대 후반 이후 AI 관련 사고와 위험 보고 건수가 지속적으로 증가했으며, 2023년에서 2024년 이후 특히 가파른 상승 추세를 보이고 있다. '규제', '기본법', '시행', '기준' 키워드는 각국이 AI 확산에 맞춰 법률, 기준, 이행 체계 중심의 규제 틀을 정비 중임을 시사한다. 가이드라인 중심의 자율 규제 단계에서 벗어나 법적 구속력 기반의 규제 집행 구조로 이행하는 흐름을 반영한다. '의무', '준수', '투명', '표시' 키워드는 AI 개발자, 기업, 플랫폼에 요구되는 책임성과 준수 의무 강화가 정책적 핵심 이슈로 부상했음을 보여준다. 출력물 표시, 데이터 출처 공개 등 투명성 강화를 통한 신뢰 기반 거버넌스 요구가 확대되는 흐름이다. 2026년에는 EU AI법(EU AI Act) 등 글로벌 규제와의 정합성을 높이기 위해 국내 AI 기본법의 시행령과 가이드라인이 구체화되고, 수출 기업을 위한 규제 대응과 인증 지원이 확대될 전망이다. 의료와 채용 등 고위험 AI의 안전성 검증과 제3자 인증이 필수화되고, 생성형 AI 부작용 대응을 위한 워터마크와 딥페이크 탐지 기술이 법제화될 것으로 예상된다. 산업·기술·정책의 순환 구조… "압력-수요-조정" 상호작용 리포트는 산업, 기술, 정책이 서로 다른 변화 축을 가지지만 '연결된 흐름'으로 작동한다고 분석했다. 산업 확산은 기술 고도화를 요구하고, 기술 고도화는 다시 정책적 대응을 촉발하는 연쇄적, 단계적 상호작용 구조가 형성되어 있다. 세 분야는 '압력-수요-조정'의 순환 구조를 형성하며 상호 보완적으로 진화하고 있다. 산업 확산은 기술 고도화에 대한 수요를 높이고, 기술 고도화는 새로운 규제와 기준 마련 필요성을 확대시키며, 정책 정비는 다시 산업과 기술 영역에 조정 압력으로 작용하는 흐름이 나타난다. 이는 AI 생태계가 일방향적 변화가 아니라 산업-기술-정책이 서로 영향을 주고받는 순환적, 상호작용적 시스템으로 진화하고 있음을 시사한다. AI를 단순 기술이 아닌 산업 인프라이자 경쟁과 제도 관리의 핵심 요소로 부상시키고 있다. 향후 AI 생태계의 지속성과 안정성을 위해서는 산업 확산-기술 고도화-정책 규제 간 속도 불일치를 완화하는 구조적 접근이 필요하다. 정책적 대응 속도와 규제 체계의 예측 가능성 확보, 도입 확대·기술 혁신·위험 관리 간 균형 있는 추진 체계 확립이 요구된다. 정부, 데이터 통합 제공과 추론형 AI 데이터 구축 나서 한국지능정보사회진흥원은 AI 활용이 산업 전반에 본격 확산되며 고품질 데이터에 대한 수요가 급증하는 가운데, 공공과 민간의 AI 학습용 데이터를 총결집하여 민간 수요에 신속히 대응하는 '통합제공체계' 구축을 추진하고 있다. 산재된 데이터를 모아 데이터의 원소스 멀티유즈(One-Source Multi-Use)를 지원하며, AI 학습용 데이터를 수집·개방하기 위한 공통 기반 마련, 개방 데이터 품질 제고, 데이터 통합 제공 및 연계·융합을 지원한다. 추론(AI Reasoning)의 중요성이 커짐에 따라 추론형 AI 모델 개발에 필수적인 고품질 추론 데이터 구축 및 활용 체계를 선제적으로 정비하고 있다. 고품질·고난이도 문제 해결 중심의 추론 데이터를 기획·개발하여 기존의 단순 인식·예측 중심 데이터에서 벗어나, 단계별 과정·의사결정 논리·맥락을 포함한 구조화된 추론형 데이터셋 구축을 진행하고 있다. 또한 AI 정책 환경이 안전성 강화, 규제·기준 정비를 중심으로 재편되는 가운데, 저작권 및 공정이용 개선을 위한 간담회를 개최하여 AI 학습데이터의 활용 범위, 공정이용 판단 기준, 학습과 활용 단계 구분 등 핵심 쟁점에 대해 이해관계자의 의견을 폭넓게 수렴했다. AI 확산 속도 대비 명확한 기준이 제시되지 않았던 저작권·데이터 활용 관련 가이드라인의 한계를 확인하고, 현장에서 실제로 참고·활용 가능한 가이드라인 마련에 대한 수요와 필요성을 확인했다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 토픽 모델링이란 무엇이며, 이번 분석은 어떻게 진행되었나요? A: 토픽 모델링은 대규모 텍스트 데이터에서 숨겨진 주제와 핵심 키워드를 확률적으로 추출하는 분석 기법입니다. 이번 분석에서는 LDA(Latent Dirichlet Allocation) 기법을 사용해 2025년 1월부터 11월까지 국내외 주요 매체에서 산업·기술·정책 분야별로 매주 6건씩 총 282건의 텍스트 데이터를 수집하고 분석했습니다. 빈도보다 문맥 내 중요도를 기준으로 각 분야의 핵심 논점과 의미 축을 도출했습니다. Q2. 온디바이스 AI가 중요한 이유는 무엇인가요? A: 온디바이스 AI는 클라우드 서버가 아닌 스마트폰이나 개인 디바이스에서 직접 AI를 구동하는 기술입니다. 분석 결과 클라우드 중심의 기술 적용이 스마트폰과 개인 디바이스 등 온디바이스 환경으로 확장되는 경향이 나타났습니다. 이는 기술 발전이 성능 중심을 넘어 배포 환경 중심의 다변화로 이동하고 있음을 의미하며, 2026년 AI 기술의 주요 변화 방향 중 하나입니다. Q3. AI 규제가 강화되면 기술 발전이 저해되지 않나요? A: 리포트는 2026년 AI 정책 환경이 규제를 제약이 아닌 성장을 위한 안전장치로 재정의하며, 글로벌 규제체계와의 정합성을 높이는 방향으로 재편될 것으로 전망합니다. 고위험 분야의 책임·안전성 확보, 데이터·저작권 정책 명확화, 국제 표준과의 조화가 결합되며 기업의 글로벌 시장 진출을 지원하는 예측 가능한 정책 생태계가 구축될 것으로 예상됩니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.12.29 16:12AI 에디터

아반떼·투싼 완전변경...새해 신차 쏟아진다

국내 완성차와 수입차 업계가 새해 신차 출시를 이어갈 전망이다. 업계는 올해 종료될 것으로 예상됐던 개별소비세 인하(5%→3.5%)가 한 차례 더 연장되면서 신차 구매 수요가 확대되는 '황금사이클'에 진입했다고 분석했다. 29일 업계에 따르면 국내 완성차 5사(현대자동차·기아·르노코리아·한국GM·KG모빌리티)는 새해 1분기부터 신차를 출시한다. 현대차는 대표 모델인 아반떼와 투싼의 완전변경을 상반기 중 출시하고 대형 레저용차(RV) 스타리아의 전기차 버전을 선보인다. 아반떼는 2020년 7세대(CN7) 출시 이후 약 6년 만에 완전변경된다. 국내 대표 준중형 세단인 아반떼는 2020년부터 연평균 6만7천대 수준의 판매량을 기록해왔다. 이번 8세대에서 플레오스 커넥트 탑재 등 현대차 차세대 기술이 대거 적용될 것으로 전망된다. 특히 글로벌 완성차 업계의 전기차 전환 속도가 조절 국면에 들어서면서 상품성과 가격대비 성능을 갖춘 아반떼가 주목된다. 준중형 스포츠유틸리티차(SUV) 투싼도 5세대 완전변경으로 출시된다. 현대차는 스타리아 전기차 버전도 출시한다. 스타리아는 디젤, 가솔린, 하이브리드로 출시돼 왔다. 이번 전기차 출시로 RV 풀라인업을 갖출 전망이다. 또 그랜저와 싼타페의 부분변경과 제네시스 GV90, GV80 하이브리드도 국내 시장에 선보일 것으로 전해진다. 기아는 새해 1분기 소형 SUV '셀토스' 완전변경 모델을 6년만에 출시할 계획이다. 신형 셀토스는 처음으로 하이브리드 파워트레인을 탑재한다. 2세대 셀토스는 1.6 하이브리드와 터보 가솔린으로 운영되며 생성형 인공지능(AI) 기술 등 고객 중심의 상품성을 갖췄다. 르노코리아는 1분기 중 준대형 SUV 오로라2(프로젝트명)를 국내 시장에 출시할 것으로 전망된다. 지난해 4년 만에 출시한 그랑 콜레오스가 높은 판매 성과를 기록하며 출시 1년 만에 누적 판매량 5만대를 달성하고 올해까지 6만대를 달성할 것으로 예측된다. 이 인기를 신차로 이어가겠다는 계획이다. KG모빌리티는 차세대 픽업 'Q300'의 명칭을 '무쏘'로 확정하고 1분기 내 출시할 예정이다. 신형 무쏘는 '무쏘 스포츠&칸' 후속 모델로, 디젤과 가솔린 두 가지 파워트레인으로 구성했다. 현재 출시를 앞두고 양산 준비 마지막 단계에 돌입했다. 한국GM은 새해 GMC '허머 EV'를 출시할 계획이다. 허머 EV는 GM의 첨단 EV 플랫폼을 바탕으로 최신 EV 기술이 집약됐으며, 공차중량 약 4톤, 최대 출력 1천160마력에 달한다. 한국GM은 GMC 브랜드 강화를 위해 새해 신차 3종을 발표하고, 뷰익 브랜드를 신규 출범할 것이라고 밝혔다. 올해 수입차도 신차 출시에 힘을 더한다. BMW코리아는 '노이어클라쎄(뉴클래스)' 전략의 첫번째 모델인 'iX3 50 xDrive'를 하반기 중 출시할 예정이다. BMW는 740, i7 등 부분변경 모델도 연내 출시한다. 미니는 폴 스미스 에디션을 먼저 선보이고 한정판 모델 중심의 판매 전략을 갖춘다. 메르세데스-벤츠코리아는 지난 9월 세계 최초로 공개한 중형 전기 SUV 'GLC EQ테크놀로지'를 국내 시장에 선보일 예정이다. 이보다 앞서 신형 CLA를 먼저 출시할 가능성이 높다. CLA는 차세대 메르세데스모듈러아키텍처(MMA)를 기반으로 85kWh 니켈·코발트·망간(NCM) 배터리를 탑재했다. GLC EQ는 AI를 활용한 4세대 MBUX 인포테인먼트 시스템과 역대 벤츠 스크린 중 가장 큰 크기를 자랑하는 99.3㎝(39.1인치) 심리스 MBUX 하이퍼스크린이 탑재됐다. 10분 충전으로 300㎞ 이상 주행이 가능하며 94kWh 니켈·망간·코발트(NMC) 배터리가 탑재된다. 스텔란티스코리아는 푸조와 지프로 각각 신차를 출시한다. 푸조는 올 뉴 5008 완전변경 모델을 1분기 내 출시하고 지프는 그랜드 체로키 부분변경을 선보인다. 올 뉴 5008은 마일드히아브리드 파워트레인으로 구성될 것으로 전망된다. 폴스타코리아는 폴스타3와 폴스타5를 출시한다. 이를 통해 쿠페형 SUV부터 대형 SUV, 준대형 스포츠카까지 프리미엄 전기차 라인업을 구성한다. 폴스타는 현재 폴스타4를 중심으로 전기차 시장에 영향력을 확보하고 있다. 새해 중국 전기차 브랜드도 출범한다. 지리 산하 고급 전기차 브랜드 지커는 내년 본격적인 판매 활동에 돌입할 예정이다. 가장 유력한 신차는 중형 전기 SUV '7X'다. 7X는 폴스타4와 플랫폼을 공유하는 중형 전기차로 최고출력은 645마력, 1회 충전 주행거리는 약 500㎞ 수준으로 알려졌다.

2025.12.29 15:32김재성

삼성전자, CES 2026서 사운드 기기 라인업 공개

삼성전자가 CES 2026 개막에 앞서 새해 1월 4일(현지시간) 미국 라스베이거스에서 '더 퍼스트룩(The First Look)' 행사를 개최한다. 이날 이 회사는 2026년형 사운드 기기 신제품 라인업을 공개한다. 삼성전자는 기존의 'Q 시리즈' 사운드바 뿐만 아니라 와이파이 스피커 신제품까지 페어링 기능을 확대 적용해 더욱 강력한 음향 에코 시스템을 완성했다. 삼성전자의 2026년형 사운드 기기 신제품 라인업은 ▲뮤직 스튜디오 7·5 ▲HW-Q990H ▲HW-QS90H 등 이며, 강력한 음향 기술과 세련된 디자인까지 갖춘 것이 특징이다. '더 세리프' 디자이너와 협업한 스피커 공개… 사운드와 디자인 완벽한 조화 28일 삼성전자에 따르면 이번에 새롭게 공개된 와이파이 스피커 신제품 '뮤직 스튜디오 스피커' 2종은 삼성전자 라이프스타일 TV '더 세리프'를 디자인한 프랑스 출신 가구 디자이너 에르완 부홀렉이 디자인했다. '뮤직 스튜디오 스피커'는 스피커 중앙에 오목한 점이 있는 디자인이 특징이다. 이번 '뮤직 스튜디오 스피커'를 디자인한 에르완 부홀렉 디자이너는 "오디오의 새로운 시대를 알리는 신선함과 다양한 환경에서 자연스럽게 어우러질 수 있는 순수함을 갖춘 디자인에 집중했다"고 말했다. '뮤직 스튜디오 스피커'는 가전을 넘어 인테리어 오브제로 명성을 얻은 라이프스타일 TV '더 세리프'의 디자인 철학을 계승했다. '더 세리프'는 알파벳 'I'를 닮은 디자인과 탈부착이 가능한 스탠드로 거실·주방·침대는 물론 선반 위 등 집안 어디에나 안정감 있게 어울리는 제품이다. '더 세리프'가 기술과 예술의 경계를 허물며 공간의 품격을 높였듯, 에르완 부홀렉의 감성이 더해진 이번 신제품 역시 단순한 스피커를 넘어선 하나의 '아트 오브제' 역할을 할 것으로 기대된다. '뮤직 스튜디오 7(LS70H)'은 전방·좌우·상단 스피커를 탑재한 3.1.1채널 공간 오디오로 3D 사운드를 자연스럽게 구현한다. 소리를 전문으로 연구하는 미국 캘리포니아에 소재 삼성 '오디오랩'에서 개발한 음향 기술이 탑재됐다. '패턴 컨트롤'은 사운드를 최적의 방향으로 조정 해주는 기술이고, 'AI 다이나믹 베이스 컨트롤'은 깊고 풍부한 저음을 자동으로 조절 해주는 기능이다. 또, 최대 24비트, 96kHz의 고해상도 오디오를 지원하고, 섬세한 음악 표현을 위해 슈퍼 트위터를 탑재해 주파수 대역을 최대 35kHz까지 확장했다. '뮤직 스튜디오 5(LS50H)'는 콤팩트한 디자인과 균형 잡힌 사운드를 구현한 모델이다. 4인치 우퍼와 듀얼 트위터를 적용해 선명하고 균형 잡힌 음질을 구현했으며, AI 다이나믹 베이스 컨트롤로 깊은 저음을 제공한다. 캐스팅 기능과 스트리밍 서비스, 음성 제어는 물론이고 SSC 코덱(Samsung Seamless Codec) 기반 블루투스 연결을 지원해 편의성을 높였다. 다양한 공간과 취향을 고려한 Q시리즈 사운드바 2026년형 Q시리즈 사운드바는 주거 공간의 크기와 개인의 청취 환경을 분석해 최적의 사운드를 구현한다. 플래그십 모델인 'HW-Q990H'는 TV 속 대화 소리를 화면 중앙으로 끌어올려 전달하는 '사운드 엘리베이션' 기술을 적용했다. 또 콘텐츠와 채널 간 음량을 자동으로 조정하는 '오토 볼륨(Auto Volume)' 기능을 통해 보다 균형 잡힌 청취 경험을 제공한다. 사운드를 위로 보내는 역할을 하는 업파이어링(Upfiring) 채널과 차세대 AI 튜닝 기술을 통해 더욱 현장감 있는 사운드를 제공해, 전문 홈시어터 수준의 몰입감을 선사한다. 'HW-Q990H'는 11.1.4채널 시스템으로 ▲7.0.2 메인 바 ▲4.0.2 리어 스피커 ▲8인치 듀얼 액티브 컴팩트 서브우퍼로 구성됐다. 2026년 라인업에 새롭게 추가된 별도 우퍼가 필요 없는 올인원 사운드바 'HW-QS90H'는 성능과 디자인을 모두 중시하는 소비자를 위한 제품이다. 벽걸이와 테이블 탑설치를 모두 지원하는 컨버터블 핏(Convertible Fit) 디자인을 적용했으며, 내장된 자이로 센서가 설치 방향에 따라 채널 분포를 자동으로 조정한다. 'HW-QS90H'는 7.1.2채널 시스템과 9개의 와이드 레인지 스피커를 포함한 13개의 드라이버, 쿼드 베이스 우퍼를 탑재해 별도의 서브우퍼 없이도 깊은 저음을 구현한다. 2026년형 제품에서는 삼성전자 TV에 내장된 스피커와 사운드바 스피커가 동시에 사운드를 구현하는 Q심포니 기능이 한층 진화했다. 더 새로워진 Q심포니 기능은 TV와 최대 5대의 사운드 기기를 연결할 수 있으며, 공간 구조와 기기 배치를 분석해 최적화된 서라운드를 제공한다. 이와 함께 '스마트싱스(SmartThings)' 앱을 통해 사운드 설정, 그룹 재생, 음악 스트리밍 등을 직관적으로 제어할 수 있으며, 모바일 기기에서 즉각적인 음악 재생과 조작도 가능하다. 이헌 삼성전자 영상디스플레이사업부 부사장은 "삼성전자는 2026년에도 음향과 디자인, AI 기능을 하나로 결합한 차세대 사운드 기기를 통해 어떤 공간과 일상에서도 풍부하고 표현력 있는 사운드 경험을 제공해 나갈 것"이라고 말했다. 한편, 삼성전자는 삼성만의 혁신적인 오디오 기술, 디자인 혁신을 통해 11년 연속 글로벌 사운드바 시장 1위를 유지하고 있다.

2025.12.28 08:51전화평

"AI가 취업 망친다"...능력 있는 구직자, 오히려 19% 덜 뽑힌다

생성형 AI가 구직 시장을 뒤흔들고 있다. 미국 다트머스대와 프린스턴대 연구진이 270만 건의 지원서를 분석한 결과, AI 면접 준비 도구가 오히려 우수한 구직자에게 불리하게 작용한다는 충격적인 사실이 드러났다. 연구진은 AI로 인해 지원서의 차별화가 사라지면서, 최상위 20% 능력자는 19% 덜 고용되고 최하위 20%는 14% 더 고용되는 '역차별' 현상이 발생한다고 경고했다. 270만 건 분석했더니... AI 이후 지원서 가치 급락 이번 연구는 세계 최대 규모의 프리랜서 구인 플랫폼인 프리랜서닷컴(Freelancer.com)의 실제 데이터를 분석했다. 연구진은 2021년 1월부터 2024년 7월까지 약 61,000개의 채용 공고와 약 270만 건의 지원서, 212,000명의 구직자 데이터를 면밀히 검토했다. 분석 결과, 챗GPT 출시 이전인 2022년 11월까지는 맞춤형 지원서가 강력한 무기였다. 연구진의 분석에 따르면, 잘 쓴 지원서를 제출한 지원자는 그렇지 않은 지원자보다 26달러 낮은 금액을 제시한 것과 같은 효과를 봤다. 쉽게 말해, 좋은 지원서 하나가 26달러의 가격 할인과 맞먹는 가치를 지녔다는 뜻이다. 이 플랫폼에서 프리랜서들이 제시하는 금액이 보통 30달러에서 250달러 사이라는 점을 고려하면, 상당히 큰 영향력이다. 그러나 2023년 4월 프리랜서닷컴이 자체 AI 작문 도구를 도입한 이후 상황이 완전히 바뀌었다. 연구진은 "LLM 도입 이후 고용주들이 잘 쓴 지원서에 대해 더 이상 높은 가치를 부여하지 않게 됐다"며 "플랫폼의 AI 도구로 작성된 지원서는 실제 노력과 무관하게 좋아 보였고, 좋은 지원서가 더 이상 업무를 잘 완수할지를 예측하지 못했다"고 밝혔다. 실력 좋은 사람 19% 덜 뽑히고, 실력 낮은 사람 14% 더 뽑혀 연구진은 단순히 겉으로 보이는 관계만 분석한 것이 아니라, 왜 이런 일이 벌어지는지 원인을 파악하기 위해 경제학 이론 모델을 만들어 분석했다. 이 모델은 1973년 노벨 경제학상 수상자 마이클 스펜스(Michael Spence)가 제시한 '신호 이론'을 기반으로 한다. 신호 이론의 핵심은 간단하다. 실력 있는 사람일수록 좋은 지원서를 쓰는 데 드는 노력이 적게 들어, 자연스럽게 더 좋은 지원서를 제출하게 된다는 것이다. 분석 결과, 고용주들은 구직자의 실력을 매우 중요하게 생각하는 것으로 나타났다. 구직자 실력이 조금만 올라가도 평균 52달러를 더 지불할 의향이 있었다. 또한 상위 20%에 속하는 실력자를 하위 20%에 속하는 사람보다 97달러나 더 가치 있게 평가했다. 중요한 발견은 지원서 품질과 실제 실력 간의 관계가 매우 강했다는 점이다. 통계적으로 0.55라는 높은 상관관계를 보였다(1에 가까울수록 강한 관계). 반면 평판이나 경력 같은 겉으로 드러나는 정보는 실제 실력을 거의 예측하지 못했다. 이런 겉으로 보이는 정보로는 실력 차이의 단 3%만 설명할 수 있었다. 연구진이 AI로 인해 지원서의 차별화가 완전히 사라진 상황을 시뮬레이션한 결과는 충격적이었다. 실력이 최하위 20%에 속하는 구직자는 14% 더 자주 뽑힌 반면, 최상위 20% 실력자는 19% 덜 뽑혔다. 왜 이런 '역차별'이 발생할까? 세 가지 이유 이런 역설적인 결과는 세 가지 이유로 발생한다. 첫째, 고용주들이 예전에는 지원서를 보고 실력을 판단했는데, 지원서로 구분할 수 없게 되면서 누가 실력 있는 사람인지 알아보기 어려워졌다. 둘째, 흥미롭게도 실력 있는 사람일수록 일을 맡는 데 드는 비용도 높은 경향이 있었다. 지원서로 차별화할 수 없게 되자 가격 경쟁이 심해졌고, 결과적으로 낮은 가격을 제시한 사람들이 뽑히는데, 이들이 대체로 실력이 낮은 사람들이었다. 셋째, 앞서 언급했듯이 평판이나 경력 같은 겉으로 보이는 정보는 실제 실력을 거의 예측하지 못한다. 그래서 고용주는 실력 있는 사람과 없는 사람을 거의 구분할 수 없게 됐다. 연구진의 분석에 따르면 이러한 변화는 다음과 같은 결과를 낳는다. 평균 임금은 5% 떨어지고, 채용 공고당 실제 채용되는 비율은 1.5% 줄어들며, 구직자가 얻는 이익은 4% 감소하고, 고용주가 얻는 이익은 1% 미만으로 소폭 증가한다. 전체적으로 시장은 덜 효율적이고 실력보다는 운에 좌우되는 시장이 되며, 시장 전체의 이익은 1% 줄어들고 실력 있는 사람보다 실력 없는 사람에게 유리한 구조로 바뀐다. 연구진은 "만약 실력 있는 사람이 항상 낮은 가격을 제시할 수 있다면 지원서가 없어도 문제없겠지만, 우리 연구에서는 실력 있는 사람일수록 일을 맡는 비용이 높았다"며 "결과적으로 구직자들이 지원서로 실력을 보여줄 수 없게 되면, 실력 있는 사람은 가격만으로 경쟁하기 어려워져서 덜 실력 중심적인 채용 결과로 이어진다"고 설명했다. 지원서가 실력의 증거였다는 첫 실증 연구 이번 연구는 여러 측면에서 중요한 의미를 갖는다. 우선 생성형 AI가 구직 시장에 미치는 영향을 다룬 최근 연구들에 새로운 시각을 제공한다. 기존 연구들이 설문조사나 실험을 통해 AI가 업무 효율성에 미치는 영향을 연구했다면, 이 연구는 실제 시장 전체에서 어떤 일이 벌어지는지를 보여줬다. 특히 지원서의 차별화가 사라지는 것이 채용 결과와 구직자·고용주의 이익에 어떤 영향을 미치는지 구체적인 숫자로 정량화했다는 점에서 의미가 있다. 둘째, 노동시장의 '신호'에 관한 오랜 경제학 이론을 현실에서 검증했다. 1973년 스펜스의 연구 이후 경제학자들은 주로 학력이 어떻게 실력의 신호로 작용하는지 연구해왔다. 이번 연구는 구직자와 고용주 사이의 실제 커뮤니케이션, 즉 지원서 자체가 신호로 작용한다는 것을 경제학 모델로 분석했다. 셋째, 프리랜서 플랫폼 같은 온라인 구인 시장의 경제학 연구에도 기여한다. 연구진은 "생성형 AI가 경쟁이 치열한 온라인 구인 플랫폼에서 매칭에 특히 중요한 역할을 하는 지원서의 가치를 떨어뜨릴 수 있는 위험을 구체적인 숫자로 보여줬다"고 설명했다. 마지막으로 경제학에서 '신호 이론'을 실제 데이터로 분석하는 방법론에도 기여한다. 기존 연구들이 금리 설정이나 제안 거부 같은 명확한 행동을 신호로 다뤘다면, 이 연구는 실제 글을 직접 분석해 신호를 측정하는 새로운 방법을 제시했다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 이 연구는 실험인가요, 아니면 실제 데이터 분석인가요? A. 실험이 아닙니다. 프리랜서닷컴이라는 실제 디지털 노동 플랫폼의 시장 데이터를 분석한 관찰 연구입니다. 2021년부터 2024년까지 약 61,000개의 실제 채용 공고와 270만 건의 지원서를 분석했으며, 챗GPT 출시 전후(2022년 11월 30일 기준)를 비교했습니다. Q. AI 도구를 사용하면 왜 오히려 능력 있는 사람이 불리해지나요? A. AI가 모든 지원자의 지원서를 비슷하게 좋아 보이게 만들면서 고용주가 진짜 실력 있는 사람을 구별하기 어려워지기 때문입니다. 게다가 실력 있는 사람일수록 일을 맡는 데 드는 비용도 높은 경향이 있어서, 지원서로 차별화할 수 없게 되고 가격 경쟁만 남으면 오히려 경쟁에서 밀리게 됩니다. Q. 이 연구 결과가 일반 구직자에게 주는 시사점은 무엇인가요? A. 연구는 프리랜서 플랫폼을 대상으로 했지만, AI로 인해 전통적인 증거(잘 쓴 지원서, 이력서)의 가치가 떨어진다는 점은 모든 구직 시장에 적용될 수 있습니다. 앞으로는 AI로 쉽게 만들 수 없는 실제 성과나 포트폴리오가 더 중요해질 것입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.12.26 21:19AI 에디터

"챗GPT는 토론을 못한다"...AI 시대, 암기 교육의 종말

브라질 인텔리 기술리더십연구소 연구팀이 생성형 AI 시대의 교육 방향을 제시하는 연구 리포트를 발표했다. 챗GPT 같은 대규모 언어모델(LLM)이 시험에서 인간을 넘어서기 시작하면서, 암기와 요약 위주의 기존 교육 방식이 한계에 부딪혔다는 분석이다. 연구팀은 현재 LLM 기술의 근본적인 약점을 분석하고, 인간만이 가진 강점을 키우는 새로운 교육 방식을 제안했다. 완벽한 문장 뒤 숨은 치명적 결함, 챗GPT는 토론을 못한다 대규모 언어모델(LLM)은 문법적으로 완벽한 글을 쓰지만, 내용을 들여다보면 심각한 문제가 있다. 감정 표현이 없고 단조로우며 독창성도 떨어진다. 특히 토론이나 논쟁이 필요한 상황에서 챗GPT는 훨씬 더 단순한 BERT 기반 AI 모델보다도 성능이 낮았다. 연구팀이 챗GPT와 긴 대화를 나눠본 결과, 이 모델은 같은 말을 빙빙 돌리거나, 앞뒤가 맞지 않는 말을 하거나, 질문을 회피하는 모습을 보였다. 아이러니하게도 이런 행동은 선생님들이 학생들에게 하지 말라고 가르치는 것들이다. 더 큰 문제는 챗GPT가 확신 없이 작동한다는 점이다. 대화 상대가 압박하거나 다른 방향으로 유도하면 쉽게 의견을 바꾼다. 자신이 틀렸는지도 제대로 인식하지 못한 채 계속 수정만 반복한다. 실제로 사이버 공격에서 사용되는 속임수 전략을 찾아내는 작업에서도 챗GPT는 오래된 단순 BERT 모델보다 낮은 점수를 받았다. LLM 전반의 문제는 더 광범위하다. 수학 문제 풀기, 논리적 사고는 물론, 감정 표현, 유머, 윤리적 판단, 사실 확인, 편견 회피 등 여러 영역에서 약점을 드러냈다. 머신러닝(ML) 기술 자체의 한계도 있다. 해석 가능성 부족, 진정한 이해의 결여, 시간이 지나면서 성능이 떨어지는 '치명적 노화와 망각' 현상 등이 그것이다. LLM은 자율성도 없고, 언어의 구조적 표현도 없으며, 통합된 세계관도 갖추지 못했다. LLM이 언어를 이해하는 방식의 근본적 한계 현재 LLM이 가진 문제는 언어를 처리하는 방식 자체에서 비롯된다. 기존 자연어 처리 기술은 단어들을 숫자 공간에 배치하는 'Bag-of-Words' 알고리즘을 사용하는데, 문장의 구조를 무시한다. 예를 들어 "개가 사람을 문다"와 "사람이 개를 문다"를 같은 것으로 인식하는 식이다. 이를 개선하기 위해 등장한 것이 BERT 같은 맥락적 토큰화 기술이다. 단어의 앞뒤 맥락을 함께 고려하지만, 처리해야 할 정보량이 폭발적으로 늘어나 계산이 매우 복잡해진다. 이것이 바로 현대 LLM의 엄청난 계산 복잡성과 규모가 커진 핵심 이유다. 또한 현재 LLM은 '마스크 언어모델(MLM)' 방식으로 학습한다. 문장에서 일부 단어를 가리고 그 자리에 들어갈 가장 그럴듯한 단어를 확률로 예측하는 것이다. 이 방식은 문장의 구조를 명확하게 이해하는 게 아니라 통계적으로 추측하는 것에 가깝다. 긴 문장의 맥락을 처리하기 위해 '어텐션 메커니즘'과 '트랜스포머' 기술이 개발됐지만, 이 역시 본질적으로 확률적 접근법이다. 언어학자 촘스키가 강조했듯이, 사람의 언어는 순서대로 나열된 게 아니라 복잡한 계층 구조를 가지고 있다. "직관적으로, 나는 새들이 헤엄친다고 생각한다"라는 문장에서 '직관적으로'는 '헤엄친다'가 아니라 전체 문장과 연결된다. 하지만 LLM은 이런 복잡한 관계를 평면적인 단어 나열로 바꾸면서 중요한 의미를 놓친다. 연구팀은 LLM의 현재 한계가 인간 언어의 복잡한 구조를 제대로 표현하지 못하는 데서 비롯된다고 지적했다. 이 문제를 해결하려면 언어학 이론에 기반한 새로운 모델링 방식이 필요하다는 설명이다. 피아제와 비고츠키가 제시한 해법, 학생이 스스로 지식을 만든다 전통적인 교육은 선생님이 가진 지식을 학생에게 일방적으로 전달하는 과정으로 여겨졌다. 하지만 심리학자 피아제와 비고츠키가 발전시킨 구성주의 교육 이론은 다르다. 학습이란 학생이 스스로 세상에 대한 지식을 만들어가는 능동적인 과정이라는 것이다. 선생님의 역할은 이 과정을 돕고 안내하는 것이며, 진짜 힘은 학생 본인의 의지와 다른 사람과의 상호작용에서 나온다. 비고츠키는 '근접발달영역(ZPD)'이라는 개념을 제시했다. 학생이 혼자 할 수 있는 것과 도움을 받으면 할 수 있는 것 사이의 영역에서 진짜 배움이 일어난다는 뜻이다. 이런 교육 방식은 선생님에게 훨씬 높은 수준을 요구한다. 단순히 교과서 내용을 전달하고 암기를 확인하는 것을 넘어서, 각 학생의 특성에 맞춰 개별적으로 상호작용해야 한다. 연구팀은 러시아 모스크바 방법론학파의 '생각-행동(Thought-Action)' 이론을 소개했다. 이는 생각-성찰, 생각-소통, 생각-행동이라는 세 층이 서로 연결돼 작동해야 한다는 개념이다. 흥미롭게도 연구팀은 이 중 생각-소통 층만 따로 떨어지면 "행동도 없고 의미도 없는 말, 순수한 단어의 유희로 전락한다"고 설명했는데, LLM 연구자나 일반 사용자라면 이 묘사가 현재 LLM의 문제점을 정확히 표현한다는 것을 알 수 있다. 학생 감시 강화 아닌 평가 방식 자체를 바꿔야 코로나19 때 대학들이 도입한 디지털 감시 시스템—출석 추적, 표절 탐지, 침입적 온라인 감독, 줌 녹화—은 공식적으로는 학생을 돌보는 행위로 제시됐지만, 실제로는 불신 환경을 조성하고 심리적 피해를 줬다는 연구 결과가 있다. 반대로 감독 없는 폐쇄형 시험은 점수 부풀리기를 초래했다. 연구팀은 침입적 감시를 강화하는 대신 평가 전략 자체를 바꾸자고 제안했다. 예를 들어 오픈북 시험은 학생들이 외부 자료를 자유롭게 참고할 수 있게 하는데, 특히 고급 과목에서 교육적 이점이 크다는 광범위한 연구가 있다. 더 나아가 전통적인 시험을 완전히 대체해 논문 리뷰나 연구 포트폴리오 같은 연구 지향적 평가 방식을 도입할 수도 있다. 한 걸음 더 나아간 방법도 있다. '시험 디자인하기' 접근법으로, 학생과 교수가 협력해 각 사례에 가장 적합한 지식 구축 및 평가 방식을 결정하는 것이다. 일부 학생은 암기에, 다른 학생은 분석적 추론이나 종합에 뛰어나다. 현명한 교육자라면 객관식 문제는 틀렸지만 깊은 개념적 이해를 보이는 학생에게 높은 점수를 주거나, 반대로 형식적 시험에서는 잘했지만 진정한 이해가 부족한 학생을 간파할 수 있다. 이러한 유연성은 높은 수준의 신뢰와 교육자의 상당한 자율성을 요구하며, 주관성, 공정성, 학생-교사 관계의 사회적 역학에 대한 질문을 제기한다. 학생이 LLM으로 생성한 에세이로 '부정행위'를 하거나 교사가 불공정하게 행동하는 것은, 비고츠키가 말한 근접발달영역에 도달하지 못한 것일 뿐이다. 누구의 실패인가? 아마 둘 다일 것이다. 하지만 더 중요한 것은 피아제-비고츠키 패러다임에서 실패는 붕괴가 아니라 성장의 예상된 단계라는 점이다. 부정행위, 자유, 신뢰는 본질적으로 사회적 구성물이며, 따라서 처벌적 해결책이 아니라 사회적 해결책이 필요하다. FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 챗GPT 같은 대규모 언어모델(LLM)의 가장 큰 문제는 뭔가요? A. LLM은 확률로 언어를 처리하기 때문에 같은 말을 반복하거나 앞뒤가 안 맞는 말을 하고, 사실을 왜곡하는 문제가 있습니다. 특히 확신 없이 작동해서 상대방의 압박에 쉽게 의견을 바꾸고, 자신의 실수를 알아채지 못하는 근본적 한계가 있습니다. 챗GPT는 토론이나 논쟁 상황에서 더 단순한 AI 모델보다도 성능이 낮습니다. Q2. AI 시대에 교육은 어떻게 바뀌어야 하나요? A. 암기와 표준화된 시험 중심에서 벗어나 스스로 생각하고, 창의적으로 문제를 해결하는 능력을 키우는 방향으로 바뀌어야 합니다. 학생이 능동적으로 지식을 만들어가고, 선생님은 이를 돕고 안내하는 구성주의 교육 방식이 필요합니다. Q3. 학생들이 LLM을 사용하는 걸 막아야 하나요? A. 오히려 AI 도구를 활용하되, 자료 참고가 가능한 오픈북 시험이나 연구 결과물 평가 같은 새로운 방식을 도입해야 합니다. 중요한 것은 감시를 강화하는 게 아니라 학생과 선생님 사이에 신뢰를 쌓고 배움 과정 자체를 다시 설계하는 것입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.12.26 14:57AI 에디터

KG모빌리티, 신형 픽업 '무쏘' 외관 디자인 공개

KG모빌리티(KGM)가 프로젝트명 'Q300'으로 개발해 온 차세대 픽업의 공식 차명을 '무쏘(MUSSO)'로 확정하고, 외관 이미지를 26일 공개했다. 새롭게 선보이는 '무쏘'는 픽업 브랜드 경쟁력 강화를 위해 지난 1월 론칭한 '무쏘' 픽업 통합 브랜드를 대표하는 플래그십 모델로, 차명과 브랜드명을 동일하게 적용해 브랜드 정체성을 분명하게 드러낸다. '무쏘'는 KGM의 디자인 철학 '파워드 바이 터프니스'를 바탕으로 정통 오프로드 스타일의 역동적이고 단단한 외관 디자인을 구현해 오리지널 픽업 아이덴티티를 한층 강화했다. 강인한 스퀘어 타입 프론트 범퍼와 라디에이터 그릴을 비롯해 역동적인 측면 캐릭터 라인과 볼륨감이 픽업 본연의 역동성을 더욱 강조한다. 여기에 전면 디자인을 차별화한 '그랜드 스타일' 패키지를 선택 사양으로 운영해, 아웃도어부터 도심 주행까지 아우르는 폭넓은 선택지를 제공한다. '그랜드 스타일'은 도심에 어울리는 웅장한 어반 스타일의 고급스러운 이미지를 강조한 것이 특징이다. KGM은 '무쏘'의 디자인 개발 과정을 담은 스케치 영상도 함께 공개하며 기대감을 한층 끌어올렸다. 해당 영상은 KGM 공식 채널(유튜브, 인스타그램 등)을 통해 오늘 17시부터 확인할 수 있다. KGM 관계자는 "무쏘는 일상과 아웃도어를 넘나드는 디자인 구성을 통해 다양한 라이프스타일에 대응할 수 있도록 디자인했다"며 "강인함과 실용성을 기반으로 고객에게 편리하고 즐거운 드라이빙 경험을 제공할 것"이라고 밝혔다.

2025.12.26 11:10김재성

선 긋고 사진 넣고 한 줄 쓰면 영상 완성...그림판처럼 쉬운 AI 영상 제작 기술 등장

AI로 영상을 만들 때 이제는 복잡한 설명 대신 간단하게 할 수 있다. 화면에 선을 그어서 움직임을 보여주고, 넣고 싶은 사람이나 동물 사진을 넣고, "공 잡는다" 같은 짧은 설명만 쓰면 된다. 중국 앤트그룹과 홍콩과기대 연구팀이 만든 '월드캔버스(WorldCanvas)'는 사용자가 원하는 영상을 직접 제어할 수 있는 새로운 AI 프레임워크다. 말로만 하면 AI가 헷갈린다... 그림·사진·글 함께 써야 기존 이미지-투-비디오 생성 모델들은 "자동차가 급정거한다"처럼 글로만 설명을 받았다. 하지만 정확히 언제, 어디서, 얼마나 빨리 멈추는지는 글만으로는 알려주기 어렵다. 월드캔버스는 세 가지 방법을 조합해서 이 문제를 해결했다. 첫째, 궤적으로 '언제'와 '어디서'를 정한다. 선 위의 점 위치는 움직이는 길을, 점 간격은 속도를, 점이 보이고 안 보이는 정보는 가려지거나 화면 밖으로 나가고 들어오는 것을 나타낸다. 둘째, 참조 이미지로 '누가' 나올지 정해서 나오는 대상의 생김새와 정체성을 시각적으로 정의한다. 셋째, 텍스트로 '무엇을' 하는지 설명해서 상호작용, 목표, 인과 구조 같은 이벤트의 이야기를 제공한다. 연구팀은 기존 방식의 세 가지 문제를 지적했다. 전체 영상을 설명하는 하나의 글로는 여러 대상이 각자 다른 행동을 할 때 특정 설명을 특정 궤적과 연결할 방법이 없다. 궤적을 단순한 좌표 나열로만 처리해서 타이밍, 속도, 가시성 정보를 잃어버린다. 참조 이미지를 직관적으로 영상에 통합하는 강력한 메커니즘이 부족하다. 28만 개 영상으로 연습... 색깔로 누가 뭘 하는지 구분 연구팀은 AI를 가르치기 위해 28만 개의 특별한 영상 자료를 만들었다. 공개된 영상들을 모은 다음, 장면이 바뀌는 부분마다 잘라서 분석했다. 영상에서 사람이나 물건을 자동으로 찾아내고, 영상 전체에서 어떻게 움직이는지 따라갔다. 영상을 임의로 잘라내서 물건이 화면 밖에 있다가 갑자기 들어오는 상황도 만들어서 연습시켰다. 중요한 건 움직임을 설명하는 글을 만드는 방법이다. 움직이는 것마다 다른 색깔 선으로 표시한 영상을 만들었다. 같은 물건의 모든 선은 같은 색으로 칠했다. 이 색깔 영상을 최신 AI에게 보여주고 각 색깔 선이 뭘 하는지 자세히 설명하라고 했다. 색깔이 영상과 글 사이의 다리 역할을 해서 누가 뭘 하는지 명확하게 구분할 수 있었다. 사진은 첫 장면에 나오는 사람이나 물건을 조금 돌리거나 크기를 바꾼 버전들을 여러 개 만들었다. 나중에 사용자가 사진을 자유롭게 조절할 수 있게 하려고 이렇게 했다. 여러 명 동시에 움직여도 안 헷갈리는 기술 월드캔버스의 핵심은 화면의 특정 부분과 그 부분을 설명하는 글을 정확히 연결해주는 기술이다. 예를 들어 "앞 소녀가 운다"와 "뒤 소녀가 앉는다" 두 가지 설명이 있을 때, AI는 화면 앞쪽에서 우는 장면과 "앞 소녀가 운다"를 연결하고, 뒤쪽에서 앉는 장면과 "뒤 소녀가 앉는다"를 연결해야 한다. 월드캔버스는 각 선이 지나가는 화면 영역과 그 선을 설명하는 글의 연결을 약 30배 강하게 만든다. 그래서 헷갈리지 않고 정확히 누가 뭘 하는지 만들어낼 수 있다. 기존 AI보다 훨씬 정확해졌다 연구팀은 100개 테스트로 성능을 비교했다. 월드캔버스는 사용자가 그린 선과 AI가 만든 영상의 움직임이 가장 비슷했다. 나와야 할 타이밍에 정확히 나타나는 비율도 85.17%로 가장 높았다. 실제 만든 영상을 보면 더 확실하다. 노인이 자동차를 보고 뒤로 물러나고 차가 급정거하는 장면, 남자가 문 열고 나와서 인사하고 불 끄는 장면, 남자가 북극곰 타고 가는데 하늘에서 금색 용이 날아가는 장면을 정확하게 만들었다. 앞 소녀가 울면서 눈물 닦고, 뒤 소녀가 쪼그려 앉아 손 드는 복잡한 장면도 정확했다. 고양이가 들어와 골대로 가고, 개가 들어와 골대로 가는 장면도 각각 구분해서 만들었다. 기존 AI들은 이런 복잡한 장면에서 행동이 뒤바뀌거나 한 개체만 만들거나 설명을 제대로 반영하지 못했다. 화면 밖 나갔다 와도 똑같은 모습 유지 월드캔버스는 특별한 능력이 있다. 무언가가 화면 밖으로 나갔다가 다시 들어와도 똑같은 모습을 유지한다. 농구공이 튀다가 화면 밖으로 나갔다가 다시 들어올 때, 여자가 웃다가 화면 밖으로 나갔다가 다시 들어올 때, 강아지가 카메라 쪽으로 와서 안 보이다가 카메라가 아래로 내려가서 다시 보일 때 모두 똑같다. 더 신기한 건 원인과 결과를 이해한다는 것이다. 도미노 하나를 쓰러뜨리면 옆의 도미노들이 차례대로 쓰러진다. 불붙은 횃불을 종이에 대면 종이가 탄다. 음료병을 넘어뜨리면 액체가 흘러나온다. 책을 당기면 위에 놓인 컵이 함께 움직인다. 이런 걸 모두 제대로 만들어냈다. 현실에서는 불가능한 장면도 만들 수 있다. 상어가 모래에서 점프하고 들어가고 다시 나오는 장면, 강아지가 날개가 생겨 하늘로 날아가는 장면도 만들었다. 사람들이 직접 평가한 결과도 1등 15명(연구자, 예술가, 일반인)에게 여러 AI가 만든 영상을 보여주고 투표하게 했다. 월드캔버스가 모든 항목에서 1위를 했다. "그린 선대로 움직이나요?" 75.33%, "설명한 대로 만들어지나요?" 73.67%, "여러 명이 동시에 움직일 때 각자 행동을 구분하나요?" 89.00%, "넣은 사진과 똑같이 생겼나요?" 92.67%, "영상 품질이 좋나요?" 69.33%로 모두 압도적 1위였다. 다른 AI들은 대부분 10% 이하였다. 핵심 기술을 빼고 테스트하면 점수가 떨어졌다. 실제로 여러 명이 각자 다른 행동을 할 때 누가 뭘 하는지 뒤바뀌거나 일부가 빠지는 문제가 생겼다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 월드캔버스는 어떻게 사용하나요? A: 화면에 선을 그어서 어떻게 움직일지 보여주고, 나오게 하고 싶은 사람이나 동물 사진을 넣고, "공 잡는다" 같은 짧은 설명을 쓰면 됩니다. 선을 촘촘하게 그으면 천천히, 듬성듬성 그으면 빠르게 움직입니다. Q2. 기존 AI 영상 제작과 뭐가 다른가요? A: 기존에는 "강아지가 공을 잡는다"라고 글로만 썼다면, 월드캔버스는 강아지가 움직일 길을 선으로 직접 그어주고, 원하는 강아지 사진을 넣고, "점프해서 공 잡는다"고 설명합니다. 훨씬 정확하게 원하는 대로 만들 수 있습니다. Q3. 어디에 쓸 수 있나요? A: 영화나 드라마 만들 때 미리 장면을 만들어보거나, 게임 만들기, 교육용 영상, 광고 영상 등에 쓸 수 있습니다. 복잡한 장비 없이 컴퓨터로 바로 만들 수 있어서 시간과 돈을 아낄 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.12.26 11:00AI 에디터

AI가 우리 회사 코드 학습했을까? 변수명 바꾸기만 해도 확인 못한다

깃허브 코파일럿, 챗GPT 같은 AI 코드 생성 도구가 다른 사람의 코드를 무단으로 학습했는지 확인하는 기술이 간단한 방법으로 무력화될 수 있다는 연구 결과가 나왔다. 특히 코드에서 변수 이름만 바꿔도 'AI가 이 코드로 학습했는지' 확인하는 탐지 성공률이 최대 10% 이상 떨어지는 것으로 확인됐다. 미국 노스캐롤라이나 주립대학교 연구팀은 AI가 남의 코드를 몰래 학습하고도 들키지 않을 수 있는 심각한 허점을 발견했다고 밝혔다. 변수명 바꾸자 탐지 실패 연구팀이 발견한 문제는 이렇다. AI 모델이 어떤 코드로 학습했는지 확인하는 기술을 '멤버십 추론'이라고 부른다. 마치 "이 사진이 AI 학습 데이터에 포함됐나요?"라고 묻는 것과 같다. 그런데 코드의 경우, 변수 이름만 살짝 바꿔도 이 탐지 기술이 제대로 작동하지 않는다는 것이 밝혀졌다. 이때 변수란 프로그래밍에서 데이터를 저장하는 공간에 붙이는 이름표다. 고객 정보를 담는 공간에 customerData(고객데이터)라는 이름을 붙이는 식이다. 실제 예를 들어보자. 원본 코드에 INSTANCE라는 변수가 있다고 치자. 이 코드를 AI가 학습하면, 나중에 "이 코드를 학습했나요?"라고 물었을 때 탐지 시스템이 "네, 학습했습니다"라고 정확히 찾아낸다. 그런데 똑같은 코드에서 INSTANCE를 nggqvDi7ku 같은 무작위 문자로 바꾼 뒤 AI를 학습시키면, 탐지 시스템이 "아니요, 학습 안 했습니다"라고 잘못 판단한다. 코드가 하는 일은 100% 똑같은데도 말이다. 딥시크 코더(deepseek-coder-1.3b)라는 AI 모델로 실험한 결과, 변수명을 바꾼 코드로 학습시키자 탐지 성공률이 95.36%에서 85.17%로 떨어졌다. 무려 10.19%나 감소한 것이다. 반면 AI 모델의 실제 코드 작성 능력은 0.63%밖에 떨어지지 않았다. 다시 말해, AI 성능은 거의 그대로 유지하면서 "남의 코드를 훔쳐 썼다"는 증거만 지울 수 있다는 뜻이다. 코드GPT라는 다른 AI 모델에서도 비슷한 결과가 나왔다. 변수명만 바꿨는데 탐지율이 7.99% 떨어졌고, AI 성능 저하는 1.50%에 불과했다. 연구팀은 경험 많은 프로그래머 4명에게 변수명을 바꾼 코드를 보여줬다. 프로그래머들은 "읽기 어렵다", "일반적인 코딩 방식이 아니다"라고 평가했다. 즉, 사람이 보기엔 이상하지만 AI는 별문제 없이 학습한다는 것이다. 8개 AI 모델 실험… 큰 모델일수록 속이기 어렵지만 여전히 취약 연구팀은 코드GPT, 코드젠, 딥시크 코더, 스타코더2, 코드라마 등 총 8개 AI 모델로 실험했다. 깃허브에 공개된 자바 코드 약 1만 5천 개를 모아 원본 그대로 학습시킨 AI와, 23가지 방법으로 코드를 살짝 변형한 뒤 학습시킨 AI를 비교했다. 23가지 변형 방법에는 변수명 바꾸기 외에도 'for 반복문을 while 반복문으로 바꾸기', 'if-else 문장 순서 바꾸기', '상숫값을 수식으로 바꾸기' 등이 포함됐다. 모두 코드가 하는 일은 똑같지만 겉모습만 살짝 다르게 만드는 기법들이다. 실험 결과 138개 테스트 중 135개에서 AI 성능 저하가 1% 이내였다. 가장 심하게 떨어진 경우도 1.5%에 불과했다. 즉, 코드를 살짝 변형해도 AI는 거의 정상적으로 작동한다는 뜻이다. 흥미로운 점은 AI 모델이 클수록 이런 속임수에 덜 넘어간다는 것이다. 파라미터가 70억 개인 대형 모델(코드라마-7b, 스타코더2-7b)은 모든 변형 방법에 대해 탐지율 변화가 1.54% 미만이었다. 반면 30억 개 이하 소형 모델들은 변형에 더 취약했다. 같은 구조를 가진 스타코더2-3b와 스타코더2-7b를 비교하니, 큰 모델이 훨씬 강한 저항력을 보였다. 그래도 변수명 바꾸기(규칙 1번)는 모든 모델에서 가장 효과적인 회피 방법이었다. 8개 모델 중 6개에서 1등, 나머지 2개에서도 상위 3위 안에 들었다. '상수를 수식으로 바꾸기(규칙 13번)'도 강력했다. 딥시크 코더에서 탐지율을 7.24% 낮췄고, 8개 모델 중 6개에서 상위 4위 안에 들었다. "남의 코드 훔쳐도 안 들킨다"… 오픈소스 생태계 신뢰 위협 이번 연구가 중요한 이유는 AI 업계의 '라이선스 준수 감시'에 큰 구멍이 있다는 걸 보여줬기 때문이다. 깃허브에는 수백만 개의 오픈소스 코드가 있는데, 이 중 상당수는 "마음대로 쓰면 안 된다"는 조건이 붙어 있다. 대표적으로 GPL 라이선스는 "이 코드를 쓰면 당신 코드도 공개해야 한다"는 조건을 단다. 그런데 AI 기업들이 이런 제한된 코드를 몰래 학습 데이터로 쓰면 어떻게 될까? 법적으로 문제가 될 수 있다. 이를 감시하기 위해 '멤버십 추론'이라는 기술이 개발됐다. "이 코드가 AI 학습에 사용됐나요?"라고 확인하는 일종의 탐지기다. 하지만 이번 연구는 이 탐지기가 너무 쉽게 속는다는 걸 증명했다. 악의적인 개발자가 제한된 코드를 가져와서 변수명만 살짝 바꾼 뒤 AI를 학습시키면, 탐지 시스템은 "문제없습니다"라고 오판한다. AI 성능은 거의 그대로인데 증거만 사라지는 셈이다. 실제로 2024년 다른 연구(Katzy 등)에서는 106개 오픈소스 AI 모델의 학습 데이터를 조사했더니, GPL 같은 제한 라이선스 코드가 대량으로 포함돼 있었다. 또 다른 연구(Majdinasab 등)는 AI가 생성한 코드를 분석해 보니 학습 데이터를 거의 그대로 복사한 경우가 많았다고 밝혔다. 현재 오픈AI의 코덱스(Codex)나 챗GPT 같은 상업용 AI는 학습 데이터를 공개하지 않는다. 무슨 코드로 학습했는지 확인할 방법이 없다는 뜻이다. 연구팀이 이런 모델을 실험 대상에서 뺀 이유도 이 때문이다. 해결책은? 코드의 '의미'를 파악하는 새 기술 필요 연구팀은 세 가지 방법을 제시했다. 첫째, 탐지 기술을 똑똑하게 만들어야 한다. 지금 탐지 시스템은 코드를 글자 그대로만 비교한다. 마치 '사과'와 'apple'을 완전히 다른 단어로 보는 것과 같다. 앞으로는 변수 이름 같은 건 중요하게 보지 말고, 코드가 실제로 '무엇을 하는지'에 집중해야 한다. 또 의심스러운 코드가 있으면 여러 방식으로 변형해서 반복 확인하는 방법도 있다. 둘째, AI 자체를 개선해야 한다. 현재 대부분의 AI는 코드를 단어 조각(토큰) 단위로 쪼개서 학습한다. 그래서 customerData를 abc123으로 바꾸면 완전히 다른 것으로 착각한다. 연구팀은 '뉴로심볼릭 AI'라는 새로운 방식을 제안했다. 쉽게 말해, 단순히 글자를 외우는 게 아니라 "이 코드는 고객 데이터를 처리하는구나"라고 의미를 이해하는 AI다. 마치 사람이 코드를 읽듯이 말이다. 셋째, 법과 기술 양쪽에서 감시를 강화해야 한다. 코드를 아무리 변형해도 원본을 찾아낼 수 있는 추적 기술이 필요하다. 또 라이선스 위반을 자동으로 잡아내는 도구도 만들어야 한다. 특히 GPL 같은 라이선스는 "내 코드 쓰려면 너도 코드 공개해라"는 오픈소스의 핵심 원칙인데, AI 시대에도 이걸 지킬 방법을 찾아야 한다는 것이다. 연구팀은 이번 실험에 사용한 모든 자료를 공개했다. 다른 연구자들도 이 문제를 연구하고 해결책을 찾을 수 있도록 돕기 위해서다. 이번 연구는 결국 "AI가 남의 코드를 함부로 쓰지 못하게 막는 기술과 제도가 시급하다"는 경고를 보내고 있다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. '멤버십 추론'이란 쉽게 말해 뭔가요? A: 특정 데이터가 AI 학습에 사용됐는지 확인하는 기술입니다. 마치 "이 사진이 AI가 배운 데이터에 포함됐나요?"라고 묻는 것과 같습니다. 코드 분야에서는 라이선스 제한이 있는 코드나 회사 기밀 코드가 몰래 AI 학습에 쓰였는지 감사하는 용도로 활용됩니다. Q. 변수명만 바꿔도 왜 탐지가 안 되나요? A: 현재 탐지 기술은 코드를 글자 단위로 비교하는 방식이라 변수명이 바뀌면 완전히 다른 코드로 인식합니다. 실제로는 같은 기능을 하는 코드인데도 말이죠. 연구 결과 변수명만 바꿔도 탐지 성공률이 최대 10% 떨어졌습니다. Q. 이 문제가 왜 심각한가요? A: 개발자나 기업이 자신의 코드를 AI가 무단으로 학습했는지 확인할 방법이 사실상 없다는 뜻입니다. 특히 GPL 같은 제한적 라이선스 코드를 간단히 변형해서 AI 학습에 쓰면 법적 책임을 피할 수 있어, 오픈소스 생태계 전체의 신뢰가 흔들릴 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.12.23 22:03AI 에디터

"누리호 4차 발사 못할 뻔했다…압력 밸브 때문에 29분간 마음 졸여"

"누리호 4차가 지난 10월 27일 새벽 1시 13분 발사 62분전부터 33분 전인 29분간 발사 연기까지 검토할 수 있는 긴박한 순간이 있었습니다." 서진호 발사체 체계종합팀장은 "발사 절차가 절대 순조롭지 않았다. 애초 0시 55분 발사하기로 돼 있었는데, 발사 44분 전 발사대 엄빌리칼 회수장치 아밍(발사체와 연결된 회수장치 끝단까지 압력공급)의 1,2,3,4번 중 3번 압력 신호가 수신되지 않았다. 이는 PLO(자동발사시퀀스) 중지 조건에 해당한다"고 설명했다. 이날 서 팀장은 한국항공우주연구원(KARI)이 SNS 구독자 40명을 대상으로 마련한 오프라인 토크콘서트에 참석해 당시의 긴박했던 상황을 떠올리며 이같이 말했다. 서 팀장은 '누리호 히든 히어로'를 주제로 강연했다. "발사 62분을 남기고, 발사운용책임자(LD)가 발사책임자(MD)에게 상황 보고 및 발사시각 연기요청이 있었고, 이어 긴급회의가 진행됐습니다. 다행히 회수장치 실제 압력이 정상이며, 센서 또는 센서 전달 계통 문제일 가능성을 확인했어요. 그래서 발사 시간도 일단 새벽 1시 13분으로 18분 미루게 됐습니다." 당시 누리호 발사 가능 시간(런치 윈도우)은 당시 0시 54분부터 1시 14분까지였고, 당초 0시 55분 발사예정이었다. 서 팀장은 발사가 미뤄진 시간을 기준으로 최종 발사 33분을 남기고 일어났던 긴박했던 결단적 상황도 언급했다. 발사준비제어시스템에서 회수장치 압력 값은 정상인데, 수신에만 문제가 있다고 판단하고 PLO 로직에서 이를 제외하는 판단을 해야 했다는 것. 모두 발사 62분 전부터 발사 33분 전까지 29분간 일어난 일이었다. 이에 앞서 발사일 전후로 강수와 강풍이 예보돼 발사 일정 연기 방안도 검토됐었다고 덧붙였다. 이 때문에 개발자 너도나도 핸드폰에 각종 기상 앱을 설치하고 밤새 기상 상황을 체크했었다고. 마무리 언급에서 서 팀장은 누리호 4차 발사 성공 히든 히어로로 ▲구성품 제작/시험, 납품, 총조립, 체계시험 수행 단계마다 난관을 극복해 온 관계자 ▲319명의 발사 운용 직접 참여 인력 및 그 외의 간접 참여 인력 ▲팀워크와 열정 ▲국민 응원 등을 꼽았다. 서 팀장은 "다음 주 4차발사 결과 검토회의를 열어 2년 반의 대장정이 종료된다. 내년부터는 5차 발사 준비를 본격 수행한다"며 "어제의 성공이 내일의 성공을 보장하지 않는 것이 발사체"라고 마무리했다. 이에 앞서 KARI 우주발사체연구소 한영민 소장은 '누리호 개발 히스토리' 강연을 진행했다. 한 소장은 "누리호에는 모두 37만 개의 부품이 들어간다"며 "누리호 4차 발사는 낮이 아니라, 밤에 발사하는 일이어서 모두가 지치고 힘들었던 것은 사실"이라고 말했다. "한국형 발사체 누리호 액체로켓 엔진 연소시험을 한 것이 2016년 5월 3일입니다. 당시를 잊을 수 없습니다. 75톤급 엔진 1호기 연소시간이 1.5초였지만, 이날은 북한을 포함해 한반도에서 최초로 최대 추력을 냈던 날입니다." 한 소장은 "이를 위해 2달간 매일 자정 넘어 퇴근했다"며 "이날이야말로 대한민국 발사체 엔진 독립의 날"이라고 덧붙였다. 한 소장은 또 ▲위성인터넷 ▲우주태양광 ▲우주제조/연구 ▲우주자원채굴 ▲우주관광 ▲우주데이터 센터 ▲상업우주정거장 등 전 세계 우주기술 관련 동향을 언급하며 "2035년 우주경제 규모가 1조7천900억달러(한화 약 2천 400조 원)에 이를 것"으로 전망했다. 이어 한국형 발사체 고도화 사업단 박종찬 단장을 위시해 한 소장, 서 팀장이 이성민 홍보실장 사회로 누리호 발사 해설 토크가 진행됐고, 현장 Q&A와 원내 견학이 이루어졌다.

2025.12.23 16:47박희범

카카오게임즈, 신작 '오딘Q' 정식 타이틀 및 BI 공개

카카오게임즈는 라이온하트 스튜디오가 개발 중인 신작 MMORPG '오딘Q'의 공식 타이틀과 BI를 공개했다고 23일 밝혔다. 이번에 공개된 타이틀과 BI는 '오딘Q'가 지향하는 세계관의 방향성과 정체성을 시각화한 것이다. 북유럽 신화의 대서사시 '에다(EDDA)'를 현대적으로 재해석한 작품 특유의 분위기를 담아냈으며, 함께 공개된 공식 일러스트는 게임에 등장하는 주요 캐릭터들을 통해 세계관과 '오딘' IP 특유의 신화적 색채를 시각적으로 표현했다. '오딘Q'는 2024년 지스타에서 '프로젝트Q'라는 이름으로 첫 공개된 작품으로, 언리얼 엔진5 기반의 최상급 그래픽과 쿼터뷰 방식의 풀 3D 심리스 오픈월드를 갖췄다. 라이온하트 스튜디오는 '오딘: 발할라 라이징'에서 구축한 신화적 해석과 하이엔드 그래픽 노하우를 바탕으로 확장된 세계관과 신규 기술 기반의 MMORPG 플레이 경험을 구현하고 있다. 게임은 북유럽 신화의 핵심 자료인 '에다'를 기반으로 한 세계가 배경이며, 다양한 종족과 직업 조합을 통해 전투 개성을 살리는 높은 자유도를 제공한다. 또한 각 지역과 던전에 독창적인 기믹을 배치해 협동 중심의 전투 재미를 강화하고, 이용자가 선호하는 플레이 스타일에 따라 성장 방향을 달리할 수 있도록 분쟁·협동 콘텐츠를 적재적소에 배치한 것이 특징이다. '오딘Q'는 2026년 출시를 목표로 개발이 진행 중이다. 라이온하트 스튜디오는 서비스 5년 차에도 높은 평가를 받고 있는 '오딘: 발할라 라이징'의 기술력과 그래픽 품질을 기반으로, '오딘Q'에서 한층 더 향상된 비주얼 퀄리티와 몰입감을 구현하는 데 집중하고 있다. 카카오게임즈는 국내 및 글로벌 무대에서 쌓은 MMORPG 운영 노하우를 기반으로 '오딘 Q'의 안정적인 서비스에 집중할 계획이다. 카카오게임즈 관계자는 "'오딘Q'는 기존 '오딘' IP의 세계를 확장하는 동시에, 북유럽 신화 기반 MMORPG가 지닌 몰입감과 완성도를 한 단계 높이는 것을 목표로 개발 중"이라며 "타이틀 및 BI 공개를 시작으로 향후 개발 성과를 단계적으로 선보이며, 의미 있는 성과를 만들어갈 수 있도록 최선을 다하겠다"고 전했다.

2025.12.23 11:18정진성

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

눈앞으로 다가온 '피지컬 AI'…CES 2026이 증명했다

[ZD브리핑] 국가대표 AI 1차 탈락팀 발표 예정...새해 행사·정책 일정 잇따라

인텔, 아크 B390 성능 공개 "노트북용 별도 GPU 필요없다"

[르포] 폭설에 얼어붙는 도시…전기차 보기 힘든 홋카이도 가다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.