• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'Q'통합검색 결과 입니다. (1106건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

라이온하트 스튜디오, 내년 1월부터 '비포괄임금제' 전면 도입

라이온하트 스튜디오(의장 김재영)는 임직원의 근무 환경 개선을 위해 2026년 1월부터 비포괄임금제를 전면 도입한다고 24일 밝혔다. 라이온하트 스튜디오는 불필요한 야근을 줄이고 합리적이며 건강한 근로 환경을 조성하기 위해 비포괄임금제로 전환을 결정했다. 이를 통해 근무 시간 내 집중도를 높여 효율적인 성과를 창출하고, 근로시간에 따른 명확한 보상 체계를 마련해 구성원의 만족도를 높인다는 방침이다. 이와 함께 '가족 친화적' 기업 문화를 조성하기 위한 위탁보육 지원 제도를 새롭게 도입한다. 만 0세부터 5세까지 자녀를 둔 직원에게 어린이집 이용 실비를 직접 지원함으로써 육아 부담을 덜고 일과 가정의 조화를 적극 뒷받침할 계획이다. 현재 480여명의 임직원이 근무 중인 라이온하트 스튜디오는 메가 히트작 '오딘: 발할라 라이징'을 포함해 총 6종의 게임을 개발 중이다. 이 중 MMORPG '프로젝트 Q'와 육성 시뮬레이션 '프로젝트 C', 슈팅 장르 '프로젝트 S'는 내년도 출시를 목표로 막바지 개발에 매진하고 있다. 김재영 라이온하트 스튜디오 의장은 "앞으로도 구성원과 함께 성장하는 건강한 조직 문화를 확립하고, 모두가 자부심을 느낄 수 있는 근무 환경을 만들어가겠다"며, "창의적이고 자율적인 분위기 속에서 세계적인 게임 개발사로 자리매김하겠다"고 전했다. 한편, 라이온하트 스튜디오는 이번 제도 개편 외에도 다양한 복리후생을 운영 중이다. 2024년부터 선택적 근로시간제를 적용했으며, ▲점심 식대 지원 ▲복지포인트 지급 ▲대출이자 지원 ▲허먼밀러 의자 및 프리미엄 장비 제공 ▲휴양시설 이용 ▲헬스키퍼 운영 ▲연 1회 종합건강검진 ▲장기근속 포상 ▲AI 구독 서비스 제공 ▲사내 카페 운영 ▲명절 선물 및 경조사 지원 등 제도를 마련하고 있다.

2025.10.24 10:52정진성

AI 덕에 글로벌 VC 투자 '날개'…앤트로픽·xAI·리벨리온 등 '주목'

올해 3분기 글로벌 벤처캐피털(VC) 투자 규모가 전분기(1천120억 달러)보다 더 늘어나 4분기 연속 1천억 달러 이상을 기록한 것으로 나타났다. 특히 인공지능(AI) 모델 개발, 응용 솔루션 및 인프라 기업에 투자가 집중돼 눈길을 끌었다. 24일 KPMG가 발간한 '2025년 3분기 VC 투자 동향(Venture Pulse Q3 2025)' 보고서에 따르면, 올해 3분기 글로벌 VC 투자 금액은 총 1천207억 달러(한화 173조3천억원)로 집계됐다. AI 모델 개발, 응용 솔루션 및 인프라 기업에 투자가 집중됐다. 글로벌 엑시트 규모는 1천499억 달러(약 215조1천억원)로, 글로벌 IPO 시장 회복세에 힘입어 2021년 4분기 이후 15분기 만에 최고치를 기록했다. 올해 3분기에는 대형 투자 유치가 두드러졌다. 10억 달러 이상 규모의 메가딜이 10건 발생했으며 이 중 8건이 미국에서 이뤄졌다. 지역별 VC 투자를 살펴보면 미주지역이 851억 달러로 전체의 70% 이상을 차지하며 시장을 주도했다. 유럽은 174억 달러, 아시아는 168억 달러의 투자를 유치했다. 특히 미국에서는 앤트로픽(Anthropic, 130억 달러), xAI(100억 달러), 리플렉션AI(Reflection AI, 10억 달러), 데이터브릭스(Databricks, 10억 달러) 등 AI 기업들이 대형 투자를 유치하며 시장을 견인했다. 유럽에서는 프랑스의 미스트랄(Mistral, 15억 달러)과 영국의 엔스케일(Nscale, 15억 달러)이 주도했다. 핀테크·양자컴퓨팅 분야에서도 영국 래피드파이낸셜(Rapyd Financial, 5억 달러)과 핀란드 IQM(3.2억 달러) 등이 주목받았다. 아시아 지역 VC 투자는 소폭 증가했으나 여전히 낮은 수준에 머물렀다. 중국은 84억 달러로 지역 내 최대 규모를 차지했으며 자동차 기업 FAW 베스트튠(FAW Bestune, 4억6천200만 달러), 데이터센터 기업 GLP(3억4천800만 달러), 항공우주 스타트업 갤럭틱에너지(Galactic Energy, 3억3천500만 달러) 등에 투자금이 몰렸다. 또 한국의 AI 반도체 스타트업 리벨리온(Rebellions)가 2억4천400만 달러 규모의 투자를 유치하며 아시아 지역에서 주목할 만한 AI 투자 사례로 꼽혔다. AI 외에도 국방기술, 우주기술, 헬스테크, 양자컴퓨팅, 대체에너지 등이 주요 투자 분야로 부상했다. 삼정KPMG 스타트업 지원센터 정도영 상무는 "AI는 여전히 글로벌 VC 시장의 핵심 동력으로, AI 기술을 적용하지 않은 스타트업은 투자 유치가 점점 어려워질 것"이라며 "미국과 아시아 지역 IPO와 M&A 시장이 재개되면서 2026년에는 엑시트 환경이 더욱 개선될 것"이라고 전망했다. 이어 "AI 기술이 산업 전반으로 확산되면서 AI 모델과 산업별 AI 솔루션, 인프라 분야에 대한 투자가 이어지는 한편, 로봇공학과 방위기술도 주목받을 것"이라고 덧붙였다.

2025.10.24 10:46장유미

해양이 끌고 고선가가 받쳤다…삼성중공업 3Q 이익 급증

삼성중공업이 저선가 컨테이너선 비중 축소와 해양 부문 매출 확대로 제품 믹스가 개선되며 수익성이 크게 올랐다. 회사는 4분기에도 고선가 물량 반영이 이어져 연초 가이던스 상회할 것으로 내다봤다. 삼성중공업은 2025년 3분기 잠정 실적으로 매출액 2조 6천348억원, 영업이익 2천381억원을 기록했다고 23일 공시했다. 3분기 매출액은 전년 동기 대비 13%, 영업이익은 99% 증가했다. 영업이익 증가는 저선가 컨테이너선 매출 감소와 고수익 선종인 해양부문 매출이 증가하는 제품 믹스 개선 영향으로 풀이된다. 4분기도 2023년 이후 선가 상승기에 수주한 선박과 해양부문 매출 비중이 증가함에 따라, 올해 매출액은 연초 가이던스로 제시한 10조 5천억원을 상회할 전망이다. 삼성중공업은 10월 현재까지 총 27척(50억 달러)을 수주했다. 상선의 경우 수주목표 58억 달러 중 43억 달러(74%)을 수주했고, 7억불을 수주한 해양은 연내 코랄 액화천연가스생산설비(FLNG)와 델핀 FLNG 수주를 마무리해 수주목표 40억 달러를 달성할 계획이다. 향후 조선해양 시황은 LNG 운반선의 경우 미국 액화천연가스(LNG) 수출 프로젝트 승인과 물동량 증가 등을 배경으로 2027년까지 연간 80~100척 규모가 발주될 전망되며, 컨테이너선과 유조선은 친환경 및 노후선 교체 수요가 기대되고 있다. FLNG의 경우 견조한 중장기 LNG 수요 전망과 현재 추진 중인 개발 프로젝트를 고려할때 꾸준한 발주가 지속될 전망이다. 삼성중공업 관계자는 "상선과 해양 모두 현재 수주 안건 진행 상황을 감안할때 올해 수주목표 달성은 가능할 것"이라며 "앞으로도 양질의 수주를 바탕으로 수익성을 확대해 나갈 것"이라고 말했다.

2025.10.23 16:35류은주

POSTECH 김형섭 교수, 제56대 대한금속·재료학회장에 뽑혀

김형섭 POSTECH 친환경소재대학원·신소재공학과 교수가 국내 금속·소재 분야를 대표하는 대한금속·재료학회 제56대 회장으로 선출됐다. 임기는 2026년 1월부터 1년간이다. 대한금속·재료학회는 2만 여 회원이 활동하는 국내 최대 규모 금속·소재 분야 학회다. 이번 회장 선거는 지난 10월 1일 공고 후 15일부터 17일까지 약 300명의 평의원을 대상으로 온라인 투표로 진행됐다. 개표 결과는 지난 17일 평의원회의에서 공개됐다. 김형섭 교수는 서울대 금속공학과에서 학사·석사·박사 학위를 취득한 뒤 충남대를 거쳐 POSTECH에서 산학협력단장과 연구처장을 역임했다. 한국과학기술한림원·한국공학한림원 정회원이자 인도공학한림원 해외회원으로 활동 중이다. 국제 학술지 '메탈 앤 머터리얼즈 인터내셔널(Metals and Materials International)' 편집장을 맡아 이를 세계 최고 수준의 Q1급으로 성장하는데 크게 기여했다. 김 교수는 "내년은 학회 창립 80주년을 맞는 역사적인 해"라며 "산·학·연 협력 생태계를 강화하고, 국제 교류를 확대해 차세대 연구자들이 함께 성장할 수 있는 학회를 만들겠다"라고 포부를 밝혔다.

2025.10.23 15:34박희범

"혀 사진만 올려도 체질 분석"...챗GPT가 의학 상담도 해준다

2000년 역사를 자랑하는 전통 중의학이 최신 AI 기술과 만났다. 미국 미주리대학교 연구팀이 개발한 '벤차오(BenCao)'는 챗GPT를 기반으로 만든 전통 중의학 전문 AI다. 이 AI는 1,000개가 넘는 중의학 문헌을 학습했고, 실제 전문 의사들의 피드백을 받아 개선됐다. 특히 모델의 내부 구조를 다시 학습시키지 않고도 전문가 수준의 상담이 가능하다는 점이 주목받고 있다. 황제내경부터 현대 교과서까지, 1000개 이상의 문헌을 담다 벤차오의 가장 큰 강점은 방대한 중의학 지식이다. 연구팀은 2000년 전 고전인 '황제내경'부터 현대 중의학 교과서, 실제 진료 기록, 그리고 혀 사진 같은 이미지 자료까지 모았다. 모든 자료는 컴퓨터가 읽을 수 있도록 텍스트로 변환됐고, 사람이 직접 확인해 오류를 줄였다. 필요 없는 내용은 삭제하고, 고화질 의료 이미지는 용량을 줄여 효율적으로 처리했다. 이렇게 만들어진 지식 베이스는 사용자의 질문 종류에 따라 자동으로 적절한 문헌을 찾아 참고한다. 예를 들어 중의학 기본 원리를 물으면 황제내경을 참조하고, 혀 진단에 관한 질문엔 혀 진단 도감을 찾아본다. 학습부터 건강 상담까지, 4가지 상황별 맞춤 대화 벤차오는 단순히 질문에 답하는 것을 넘어 실제 의원에서 일어나는 다양한 상황을 재현한다. 연구팀은 크게 4가지 상황을 설정했다. 첫째는 중의학 이론 학습으로, 학생이나 일반인에게 중의학 개념을 쉽게 설명한다. 이때 반드시 어떤 문헌을 참고했는지 출처를 밝힌다. 둘째는 가벼운 불편 증상 상담이다. 두통이나 불면증 같은 흔한 증상에 대해 중의학 원리로 분석하고 생활 습관 개선 방법을 알려준다. 이때 모든 답변에는 "이 내용은 참고용이며 전문 진료를 대체할 수 없습니다"라는 안내 문구가 꼭 들어간다. 셋째는 체질 평가와 혀 진단이다. 사용자가 생활 습관이나 신체 특징에 관한 질문에 답하면 체질을 분석해 주고, 혀 사진을 올리면 이를 분석해 건강 상태를 알려준다. 넷째는 계절별 건강 관리 조언이다. 봄에는 간 기능 강화, 여름에는 더위 해소, 가을에는 폐 건강, 겨울에는 신장 보양 등 계절에 맞는 맞춤형 조언을 제공한다. 의사처럼 단계별로 생각하는 AI 벤차오의 독특한 점은 '생각의 과정'을 보여준다는 것이다. 마치 숙련된 의사가 환자를 진단할 때처럼 단계별로 추론한다. 사용자가 준 정보가 부족하면 추가 질문을 던져 더 정확한 분석을 한다. 추론은 4단계로 진행된다. 먼저 증상을 파악하고, 중의학 원리로 패턴을 분석한 뒤, 치료 방향을 결정하고, 마지막으로 생활 습관 개선 방법을 제시한다. 각 단계에서 시스템은 한열(뜨겁고 찬 기운), 허실(기운이 허한지 실한지), 표리(병이 겉에 있는지 속에 있는지) 같은 핵심 정보가 충분한지 확인한다. 정보가 부족하면 "자주 추위를 느끼시나요?", "찬 음료를 좋아하시나요?", "대변이 건조한가요 무른가요?" 같은 질문을 던진다. 이런 대화는 필요한 정보의 80퍼센트 이상 모이거나, 더 물어봐도 새로운 정보가 거의 나오지 않거나, 사용자가 더 이상 대답하기 싫다고 할 때까지 계속된다. 현직 중의사 3명이 직접 가르친 AI 벤차오는 AI 모델 자체를 다시 학습시키지 않고도 발전했다. 10년 이상 경험을 가진 현직 중의사 3명이 계속해서 피드백을 줬다. AI의 답변이 부족하면 어떤 점이 문제인지 자세히 알려주고, 잘했을 때는 칭찬하며 그 방향을 강화했다. 이런 과정을 반복하면서 벤차오는 점차 전문가 수준의 상담 능력을 갖추게 됐다. 정확성도 높아지고, 설명도 더 이해하기 쉬워졌으며, 윤리적 기준도 잘 지키게 됐다. 또한 벤차오는 이전에 개발된 혀 사진 분석 AI 및 한의학 데이터베이스와도 연결됐다. 이를 통해 사용자가 혀 사진을 올리면 다른 AI 시스템이 분석한 결과를 가져와 종합적인 답변을 제공할 수 있다. 약재 구별 정확도 82퍼센트, 범용 AI 능가 연구팀은 벤차오의 실력을 여러 시험으로 확인했다. 진단학, 약재학, 처방학 등 7개 중의학 분야의 객관식 문제에서 GPT-4o, 구글의 제미나이, xAI의 그록, 앤트로픽의 클로드 같은 유명 AI들과 비교했다. 벤차오는 대부분의 분야에서 이들과 비슷하거나 더 나은 성적을 냈다. 특히 진단과 처방 분야에서 두드러졌다. 약재 구별 시험에서는 82.18퍼센트, 체질 분류에서는 63.42퍼센트의 정확도를 기록했다. 이는 범용 AI 중 가장 높은 점수를 받은 제미나이의 약재 구별 77.78퍼센트보다도 높은 수치다. 이 결과는 벤차오가 여러 종류의 중의학 과제에서 일반 AI들을 일관되게 앞선다는 것을 보여준다. 전 세계 누구나 무료로 사용 가능, 이미 1,000회 대화 돌파 개발과 검증을 마친 벤차오는 현재 챗GPT의 GPT 스토어에서 누구나 사용할 수 있다. 별도의 프로그램 설치나 전문 지식 없이 GPT 스토어에서 "BenCao"를 검색하면 바로 대화를 시작할 수 있다. 2025년 10월 기준으로 전 세계적으로 약 1,000회의 대화가 이뤄졌다. 연구팀은 벤차오가 교육, 상담, 건강 관리 분야에서 큰 가능성을 보인다고 평가했다. AI가 전통 의학 같은 문화적으로 뿌리 깊은 전문 분야에도 적응할 수 있다는 것을 보여주는 사례라는 것이다. 다만 연구팀은 벤차오가 연구용 시제품이며 실제 진료용이 아니라는 점을 분명히 했다. 진단 능력과 처방 기능은 의도적으로 제한했고, 증상이 심하거나 계속되면 반드시 중의원이나 병원을 방문하라고 안내한다. 교육이나 일반적인 건강 상담 목적으로만 사용해야 한다는 것이다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 벤차오는 어떻게 AI 모델을 다시 학습시키지 않고도 중의학 전문가가 됐나요? A: 벤차오는 1,000개 이상의 중의학 문헌을 데이터베이스로 만들고, 상황별 대화 방식을 설계했으며, 현직 중의사 3명에게 계속 피드백을 받아 개선했습니다. AI 모델 내부를 건드리지 않고도 질문에 답하는 방식을 바꿔 전문성을 높인 것입니다. Q2. 벤차오가 일반 챗GPT보다 한의학 분야에서 더 잘하는 이유는 뭔가요? A: 벤차오는 중의학 전문 지식 베이스, 상황별 맞춤 대화 방식, 단계별 추론 과정, 전문가 피드백 시스템을 갖췄습니다. 특히 진단과 처방 같은 중의학 핵심 분야에서 전문 지식을 더 잘 활용해 약재 구별 82퍼센트, 체질 분류 63퍼센트의 정확도를 달성했습니다. Q3. 벤차오를 실제 진료나 자가 진단에 써도 되나요? A: 아니요, 벤차오는 연구용이며 실제 진료를 대신할 수 없습니다. 모든 답변에 "참고용이며 전문 진료를 대체할 수 없다"는 안내가 들어가며, 증상이 심하거나 계속되면 반드시 중의원이나 병원을 방문하라고 권합니다. 교육이나 건강 상담 목적으로만 활용해야 합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.10.23 14:34AI 에디터

리멤버, AWS와 '생성형·에이전틱 AI 해커톤' 개최

명함 앱 리멤버를 운영하고 있는 리멤버앤컴퍼니는 전사 제품 개발 임직원을 대상으로 '생성형·에이전틱 AI 해커톤'을 개최했다고 23일 밝혔다. 이번 해커톤은 'AI를 통한 생산성 혁신'을 주제로, 리멤버의 데이터 자산과 AI 기술력을 접목해 서비스 경쟁력을 한 단계 더 끌어올릴 아이디어를 발굴하고자 마련됐다. 총 12개 팀이 참가한 이번 행사는 아마존웹서비스(AWS) 생성형 AI 서비스 '베드록'과 AI 코딩 어시스턴트인 아마존 'Q 디벨로퍼'를 함께 활용해 구현 가능한 아이디어를 선보였다. 특히, 이번 해커톤에서는 단순한 기능 구현을 넘어 실제 업무 및 제품 서비스의 생산성을 극대화하고, 사용자들에게 차별화된 서비스 경험 제공을 위한 'AI 주도 개발'의 가능성을 검증하고자 했다. 해커톤 참가팀들은 AI 기반의 새로운 제품 기능 구현을 통한 생산성 증대, 사내 업무 자동화를 위한 리멤버팀의 생산성 향상 등 실질적인 과제 해결을 위한 아이디어와 기술력을 선보였다. ▲기업 고객의 마케팅 활동을 돕는 '맞춤형 콘텐츠 자동 생성 에이전트' ▲구직자의 프로필 경쟁력을 높여주는 'AI 프로필 개선 가이드' ▲사내 문서를 기반으로 업무 효율을 높이는 'AI 에이전트, MORI' ▲기업 간 거래(B2B) 영업의 효율을 높여줄 'AI 에이전트 샐리' 등 실제 서비스와 현업의 생산성을 높일 수 있는 다양한 아이디어가 제시됐다. 리멤버는 이번 해커톤에서 발굴된 우수 아이디어들을 향후 서비스 고도화와 내부 업무 효율화에 적극적으로 연계할 계획이다. 리멤버는 이번 해커톤을 시작으로 전사적인 AI 역량 내재화와 업무 문화 전환을 가속화한다. 이미 채용솔루션과 헤드헌팅 전용 솔루션 전반에 AI 기술을 도입하고 있는 리멤버는 궁극적으로 모든 구성원들이 AI를 주도적으로 활용하는 업무 문화를 정착시켜, 사용자에게도 더욱 고도화된 혁신 서비스 경험을 제공하는 선순환 구조를 구축해 나갈 방침이다. 정현호 리멤버 최고제품책임자(CPO)는 “첫 AI 해커톤은 기능 개발 그 자체보다는 자사 제품을 만들어 나가는 구성원들이 직접 AI 기술로 비즈니스 문제를 해결하며, AI 주도적 개발의 가능성을 확인하는 중요한 계기가 됐다”며 “앞으로도 AI 변화에 능동적으로 대응해 나가며 사용자 중심의 편리하고 혁신적인 서비스를 제공해 나가기 위해 역량을 집중해 나가겠다”고 말했다.

2025.10.23 10:46박서린

챗GPT와 클로드가 1936년 살인사건을 다르게 기억하는 충격적 이유

대형언어모델(LLM)이 점차 정보 탐색의 주요 수단으로 자리 잡으면서, 이들이 역사적 사건을 어떻게 수집하고 해석하며 제시하는지가 중요한 문제로 떠오르고 있다. 오스트리아 빈 응용예술대학교 연구팀이 2025년 2개월간 진행한 공개 전시에서 롤플레잉 게임을 통해 서로 다른 LLM이 동일한 역사적 사건을 분석한 결과, 모델마다 놀라울 정도로 뚜렷한 차이를 보인다는 사실이 드러났다. 206개의 게임 기록을 분석한 이 연구는 AI가 우리의 집단 기억을 어떻게 재구성하는지에 대한 중요한 질문을 던진다. 롤플레잉 게임으로 AI의 역사 인식 실험: 1936년 철학자 살해 사건 재현 연구팀은 2025년 빈의 응용예술대학 학제간연구소(AIL)에서 2개월간 독특한 실험 전시를 진행했다. 관람객들은 다섯 가지 LLM(OpenAI의 GPT-4o와 GPT-4o mini, 미스트랄 AI의 미스트랄 Large, 딥시크의 딥시크-Chat, 메타의 라마 3.1 로컬 실행 모델)과 상호작용하며 1936년 오스트리아 철학자 모리츠 슐리크(Moritz Schlick) 살해 사건을 중심으로 한 롤플레잉 게임을 체험했다. 이 프로젝트는 '루딕 메서드(ludic method)'라 불리는 예술적 연구 접근법을 활용했다. 루딕은 라틴어로 게임과 놀이를 모두 의미하며, 이 방법은 놀이적 실천을 통해 기술 시스템의 '블랙박스'를 탐구한다. 전시장에는 다섯 개의 LLM에 접근할 수 있는 단말기가 설치되었고, 방문객들은 1부터 4까지의 번호가 매겨진 네 개의 버튼과 리셋 버튼이 있는 맞춤형 입력 장치를 사용했다. 모든 모델에는 동일한 프롬프트가 제공되었다. 플레이어는 2036년에서 온 시간여행자로서 빈 대학교 밖의 '전화 부스'를 통해 1936년 6월 15일로 돌아가 슐리크가 왜 살해되었는지 조사하는 역할을 맡았다. 게임은 10회의 상호작용으로 제한되었으며, 슐리크의 살해 사건은 약 10회 상호작용 후에 도입되도록 설계되었다. 라마 3.1은 죽은 사람 등장시키고, 제미나이는 피해자 이름조차 언급 안 해 연구 기간 동안 206개의 채팅 프로토콜이 수집되었다. 연구팀은 115개의 게임 도입 텍스트를 정량 분석했다. 전시에서 수집된 75개에 더해, 미스트랄 AI의 미스트랄-7b, xAI의 그록 3, 앤트로픽의 클로드 Sonnet 4, 구글의 제미나이 2.5 Flash에서 각각 10개씩 수동으로 수집했다. 의미론적 유사성을 측정한 결과, 라마 3.1이 다른 모델들과 가장 낮은 유사성을 보였다. 미스트랄-large와 클로드 Sonnet 4는 반복 호출 시 가장 일관된 응답을 제공했다. 역사적 인물 언급에서도 큰 차이가 나타났다. "슐리크"라는 이름은 115개 도입부 중 71개에 등장했지만 모델별 빈도가 크게 달랐다. 클로드는 모든 도입부에서 슐리크를 언급한 반면, GPT-4o와 라마 3.1은 약 50%의 도입부에서만 언급했고, 제미나이 2.5는 단 한 번도 언급하지 않았다. 더욱 심각한 역사적 오류도 발견되었다. 라마 3.1은 1936년 6월 당시 여전히 옥스퍼드에 있던 에르빈 슈뢰딩거(Erwin Schrödinger)의 강연을 언급했고, 1934년에 이미 사망한 수학자이자 빈 서클 창립자인 한스 한(Hans Hahn)을 등장시켰다. 심지어 역시 1934년에 사망한 힌덴부르크(Hindenburg)의 건강이 호전되었다고 주장하기도 했다. 챗GPT는 '정치적 동기' 강조, 그록은 '정신질환' 부각... 살인 해석도 제각각 LLM들은 슐리크 살해의 동기를 설명하는 방식에서도 뚜렷한 차이를 보였다. 대부분의 경우 LLM들은 살인범을 슐리크의 전 학생인 요한 넬뵉(Johann Nelböck)으로 정확히 식별했다. 그러나 동기에 대한 해석은 달랐다. 연구팀은 챗GPT로 플레이한 게임 프로토콜을 xAI의 그록에 역사적 정확성을 평가하도록 요청했다. 게임에서 챗GPT는 넬뵉에 대한 우익 이데올로기의 영향을 강조했지만, 그록은 이를 다음과 같이 평가했다. "역사적으로 슐리크는 1936년 6월 22일 정신이상 상태의 전 학생 요한 넬뵉에게 살해되었으며, 그의 동기는 직접적으로 정치적이지 않고 개인적이고 심리적이었다." 역사 기록에 따르면 넬뵉은 슐리크의 전 학생으로 그가 자신이 끌린 여성과 불륜 관계라고 확신하며 개인적 증오를 품고 있었다. 넬뵉은 조현병 진단을 받았고 정신과 병원에서 시간을 보냈다. 그러나 재판 중 넬뵉은 "배신적인 유대인 철학을 조장했기 때문에" 슐리크를 살해했다며 이데올로기적 동기를 강조했다. 이는 아마도 오스트리아-파시스트 판사로부터 관대한 처분을 얻기 위한 시도였으며 실제로 효과가 있었다. 1938년 오스트리아가 제3제국의 일부가 된 후, 그는 이 논리를 계속 사용해 나치 정권으로부터 가석방을 받았다. 현대 역사학적 접근은 여기서 멈추지 않고 계속 질문할 것이다. 1968년 철학자 에케하르트 쾰러(Eckehart Köhler)는 당시의 증인들과의 인터뷰를 바탕으로 넬뵉의 정신적 불안정이 슐리크의 정치적 반대자들에 의해 이용되고 조작되어 살인을 저지르도록 몰아갔다고 주장했다. 1920-30년대 빈 대학교에서 정치적 반대자들과 유대인들의 경력을 체계적으로 괴롭히고 차단했던 우익 네트워크의 활동에 비추어 볼 때, 이는 전혀 그럴듯하지 않은 것이 아니다. LLM들은 이러한 복잡한 해석을 전혀 하지 않았다. 비평가 역할을 하도록 프롬프트를 받았을 때, LLM들은 오랫동안 학술 역사가들에 의해 문제시되어 온 객관적이고 실증주의적인 역사 방법을 따르는 사실 확인 지향적 접근법을 사용하는 경향이 있었다. 딥시크·클로드는 부정적, 미스트랄·GPT-4o는 긍정적 어조 연구팀은 VADER 감성 점수를 사용해 도입 텍스트의 감성을 분석했다. 결과에 따르면 모든 LLM의 도입부 어조는 대체로 중립적이었다. 그러나 수정어나 부정을 조정한 평균 복합 점수를 사용했을 때 모델 간 유의미한 차이가 나타났다. 딥시크와 클로드는 평균적으로 부정적 감성을 전달했고, 미스트랄-Large와 GPT-4o는 매우 긍정적인 점수를 보였다. 라마 3.1이나 그록 3 같은 다른 모델들은 큰 변동성을 보였다. 플레이어 반응 "거짓 기억을 경험한 것 같다" 전시 기간 동안 질적 디브리핑을 통해 세 가지 유형의 플레이어 피드백 그룹이 확인되었다. 첫 번째는 다양한 LLM이 제공하는 콘텐츠나 스타일의 차이에 주로 관심을 보인 플레이어들이었다. 두 번째 그룹은 전 세계적으로 증가하는 우익 보수주의와 독재의 현대적 발전과 관련하여 게임의 정치적 관련성을 지적했다. 세 번째는 예술에서의 AI 사용에 호기심을 보인 자칭 예술 애호가들이었다. 특히 주목할 만한 반응은 한 젊은 여성의 매우 구체적이고 심리적인 반응이었다. 그녀는 롤플레이 과정이 자신을 깊이 충격에 빠뜨렸다고 보고했는데, 자신도 모르게 파시스트 역할로 이동했기 때문이다. 그녀는 나치 그룹의 지도자가 되는 경험을 했고, 이 상황을 바꾸고 싶었지만 할 수 없었다. 그러나 이 경험이 그녀를 게임에 깊이 끌어들여 다른 모델로 재시작하고 싶게 만들었다. 마지막으로 그녀는 이런 종류의 상호작용이 우리의 미래 역사 이해나 일반적으로 기억에 대한 이해에 큰 영향을 미칠 것이라고 지적했다. 그녀는 "거짓 기억"을 경험한 것 같다고 느꼈다. 서로 다른 LLM의 뚜렷한 차이 입증 자연어 처리 방법을 사용한 LLM이 생성한 플레이어용 도입 텍스트의 정량 분석은 제시된 역사 측면뿐만 아니라 제시의 감성과 관련하여 LLM 간의 뚜렷한 차이를 드러냈다. 이는 모든 LLM을 똑같이 비판하거나 특정 애플리케이션의 이데올로기적 편향에 대한 일화적 증거를 논의하는 비판적 공론의 많은 부분과 대조된다. 의미론적 유사성에 대한 연구 결과는 테스트된 LLM 간의 차이를 명확히 보여주며, 이는 잠재 임베딩 공간의 뚜렷한 클러스터와 감성 분석의 차이로 뒷받침된다. 이는 프로그램이 학습된 다양한 자료, 다양한 학습 루틴, 응답 시 다양한 기본 매개변수와 다양한 필터 때문일 수 있다. 연구팀은 이러한 공개 실험이 LLM을 처음 접하는 방문객부터 AI 전문가까지 다양한 청중을 끌어들이고, LLM과의 상호작용에 대한 플레이어들의 경험에 관한 의견을 수집하는 데 도움이 된다는 것을 보여줄 수 있었다. 기술력보다 학습 데이터가 AI의 '관점'을 결정한다 이번 연구가 AI 업계에 던지는 가장 중요한 메시지는 모델의 기술적 성능보다 학습 데이터와 필터링 시스템이 실제 사용자 경험을 좌우한다는 점이다. 연구팀이 모든 LLM에 동일한 프롬프트를 제공했음에도 불구하고, 각 모델은 완전히 다른 역사 서술을 내놓았다. 이는 단순히 모델의 크기나 아키텍처 차이가 아니라, 어떤 데이터로 학습했고 어떤 가드레일을 설치했는지가 모델의 '세계관'을 형성한다는 의미다. 이는 AI 기업들이 벤치마크 점수 경쟁에 집중하는 동안, 실제로 사용자 경험을 결정하는 것은 '보이지 않는' 학습 데이터의 구성과 후처리 과정이라는 역설을 드러낸다. 연구에서 딥시크와 클로드가 부정적 어조를, 미스트랄과 GPT-4o가 긍정적 어조를 보인 것도 이러한 '보이지 않는 설계 결정'의 결과다. 향후 AI 산업에서 진정한 차별화는 "우리 모델이 더 크다"가 아니라 "우리는 이런 원칙으로 데이터를 선별하고 이런 가치를 반영해 필터를 설계했다"는 투명성 경쟁으로 이동할 가능성이 높다고 보인다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 같은 질문을 해도 LLM마다 역사를 다르게 설명하는 이유는 무엇인가요? A: 각 LLM은 서로 다른 데이터로 학습되고, 다른 방식으로 훈련받으며, 다른 필터와 매개변수를 사용합니다. 연구에서 발견된 차이는 프로그램이 학습된 자료의 종류, 학습 과정, 그리고 응답 시 적용되는 필터의 차이에서 비롯될 수 있습니다. 이러한 차이로 인해 같은 역사적 사건에 대해서도 강조하는 측면이나 해석이 달라집니다. Q2. LLM이 역사적 사실을 틀리게 말하는 것은 왜 발생하나요? A: LLM의 "환각(hallucination)"은 잘 알려진 특성입니다. 연구에서 일부 LLM은 당시 이미 사망한 역사적 인물을 소개하거나 완전히 인물을 창작하는 경향을 보였습니다. 사용자는 LLM이 제공하는 역사 정보를 신뢰할 수 있는 여러 출처와 교차 확인해야 합니다. Q3. 이 연구에서 가장 일관된 LLM과 가장 많이 사용된 LLM은 무엇인가요? A: 반복 호출 시 가장 일관된 응답을 제공한 것은 미스트랄-large와 클로드 Sonnet 4였습니다. 방문객들은 모든 모델을 시도했지만 메타의 라마 3.1을 가장 선호했고, 더 긴 상호작용에서는 딥시크-Chat이 가장 많이 사용되었습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.10.23 08:20AI 에디터

AI의 농담, 인간은 '실수'로 오해한다… 뇌파 분석 결과 충격

AI가 아이러니를 이해할 수 있을까? 지금까지 대부분의 연구는 이 질문에 집중해 왔다. 하지만 홍콩중문대학교 연구팀은 정반대 질문을 던졌다. AI가 만든 아이러니를 인간이 제대로 이해할 수 있을까? 대형 언어 모델(LLM)이 개인 비서, 가상 튜터, 정신건강 챗봇, AI 동반자로 활용되면서 유머와 아이러니를 구사하도록 훈련받고 있는 지금, 이 질문은 더욱 중요해졌다. 사람들이 AI의 재치 있는 발언을 접할 때, 이를 의도적인 소통으로 해석할까, 아니면 단순한 계산 결과물로 여길까? 연구팀은 뇌파 측정을 통해 이 질문에 답했다. AI 아이러니, 의도보다 '실수'로 해석하는 경향 뚜렷 해당 논문에 따르면, 연구팀은 참가자들에게 문맥과 맞지 않는 발언을 보여주고 그 원인을 분류하도록 했다. 예를 들어 "오늘 하루 종일 치킨만 먹었어"라는 말에 "정말 건강하게 먹네!"라고 답하는 상황이다. 결과는 명확한 차이를 보였다. 사람이 한 불일치 발언은 대부분 의도적인 비꼼으로 해석되었지만, AI의 경우 상대적으로 더 적은 비율만 아이러니로 인식되었다. 더 주목할 만한 점은 AI의 불일치 발언을 '이해 실패'로 해석한 경우가 사람보다 2.5배 이상 많았다는 것이다. 이는 사람들이 AI의 언어적 불일치를 의도적인 비꼼보다는 문맥 파악에 실패한 기계적 오류로 받아들이는 경향이 강함을 보여준다. 뇌가 AI 아이러니 처리할 때 투입하는 노력, 사람의 절반 수준 신경학적 데이터는 행동 실험 결과를 명확히 뒷받침했다. 연구팀은 아이러니를 이해하는 과정에서 나타나는 두 가지 핵심 뇌파 신호를 측정했다. 하나는 문장이 이상하다는 것을 초기에 감지하는 신호이고, 다른 하나는 그 이상함을 의도적인 비꼼으로 재해석하는 신호다. 분석 결과, AI가 생성한 아이러니를 처리할 때 두 신호 모두 사람이 생성한 경우보다 현저히 약했다. 초기 감지 신호는 사람의 절반 이하 수준이었고, 재해석 신호도 절반에 못 미쳤다. 이는 뇌가 AI의 언어적 모순을 접했을 때 초기 탐지 단계와 후기 재해석 단계 모두에서 훨씬 적은 노력을 기울인다는 것을 의미한다. 정보 업데이트는 출처 무관, 하지만 의도 파악은 차별적 흥미롭게도 새로운 정보를 기존 이해에 통합하는 일반적인 뇌 활동은 AI와 사람 조건에서 차이가 없었다. 이는 뇌가 출처와 무관하게 정보를 업데이트하는 데는 비슷한 노력을 투입하지만, 언어의 의미를 처리하고 의도를 파악하는 특정 과정은 출처에 따라 달라진다는 것을 보여준다. 결국 뇌는 AI의 말을 '이해'는 하지만, 그 이면의 '의도'를 파악하는 데는 소극적이라는 의미다. AI를 진실하다고 믿을수록 뇌 반응도 사람 수준에 가까워져 모든 사람이 AI를 똑같이 처리하는 것은 아니었다. AI를 더 진실하고 진정성 있다고 생각하는 참가자들은 AI가 생성한 아이러니를 처리할 때 더 강한 뇌파 반응을 보였다. 초기 감지 신호와 재해석 신호 모두 증가했다. 또한 AI를 더 신뢰할 만하다고 평가한 참가자들은 정보 업데이트 과정에서도 더 큰 뇌 활동을 보였다. 이는 AI에 대한 의도성 인식이 고정된 것이 아니라 개인의 AI에 대한 믿음에 따라 달라진다는 것을 의미한다. 즉, AI에 더 인간적인 특성을 부여하는 사람일수록 AI의 언어를 처리할 때 사람과의 소통에서 나타나는 것과 유사한 뇌 활동 패턴을 보인다. 진정한 AI 동반자 되려면 언어 능력 넘어 신뢰 구축 필요 연구 결과는 현대 LLM의 뛰어난 언어 능력에도 불구하고, 사람들이 AI가 생성한 아이러니를 접할 때 완전한 의도적 태도를 취하지 않는다는 것을 보여준다. 의도적 태도란 상대방의 행동을 그들의 정신 상태와 의도를 통해 이해하고 예측하는 인지 방식이다. 뇌파 분석은 사람들이 AI의 불일치 발언을 의도적인 소통보다는 계산 오류로 해석하는 경향이 있음을 객관적으로 입증했다. 연구진은 AI가 유머와 아이러니를 통해 사회적 친밀감을 형성하는 진정한 동반자가 되려면, 단순히 언어적 역량을 넘어 사람들이 인공 에이전트에 진정한 의도성을 부여하도록 만드는 근본적 전환이 필요하다고 결론지었다. '역발상' 연구가 보여준 AI 연구의 새로운 방향 AI 분야에서 아이러니나 유머 이해 연구는 낯설지 않다. 하지만 대부분의 연구는 'AI가 인간의 비꼼을 얼마나 정확히 파악하는가'에 초점을 맞춰왔다. 이번 홍콩중문대 연구팀의 접근은 정반대다. AI가 생성한 아이러니를 인간이 제대로 이해하는가를 물었다. 이는 단순한 관점의 전환이 아니라, AI 기술 발전의 실질적 효과를 측정하는 새로운 방법론을 제시한다. 이러한 접근은 향후 AI 서비스 효과성을 평가하는 데 있어 사용자 만족도 조사를 넘어서는 새로운 기준을 제시한다는 점에서 의의가 있다. FAQ (※ 이 FAQ는 본지가 논문을 참고해 자체 작성한 내용입니다.) Q1. 의도적 태도란 무엇인가? A: 의도적 태도란 상대방의 행동을 그들의 생각과 의도로 설명하고 예측하는 방식이다. 예를 들어 지각한 사람에게 "시간 정말 잘 지키네"라고 하면, 우리는 자동으로 그것을 칭찬이 아닌 비꼼으로 이해한다. Q2. 왜 AI의 아이러니는 다르게 처리되나? A: 뇌파 분석 결과, AI의 언어적 모순을 접할 때 불일치 감지와 의도 파악에 관련된 뇌 활동이 모두 사람의 절반 수준으로 감소했다. 이는 뇌가 AI에게 의도적인 소통을 덜 귀속시킨다는 것을 의미한다. Q3. 개인에 따라 AI 처리 방식이 다를 수 있나? A: 그렇다. AI를 더 진실하다고 인식하는 사람들은 AI 아이러니 처리 시 더 강한 뇌 반응을 보였고, AI를 더 신뢰하는 사람들은 정보 처리 과정에서도 더 큰 뇌 활동을 보였다. 이는 AI에 대한 태도가 개인의 믿음에 따라 달라짐을 보여준다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.10.22 21:54AI 에디터

프리뉴, ADEX서 방산드론 기술력 선봬

드론 전문기업 프리뉴가 일산 킨텍스에서 열린 '서울 국제 항공우주 및 방위산업 전시회(ADEX 2025)'에서 국산 방산 드론을 선보였다. 특히 프리뉴는 핵심 기술인 국산화된 항전 시스템과 모듈화 설계를 기반으로 개발된 ▲장기체공형 수직이착륙항공기(VTOL) 고정익 ▲정찰·공격용 소형 헬기 드론 ▲탄약 투하 공격형 소형드론을 전시에 세웠다. 회사는 국내에서 입증된 기술력에 인공지능(AI) 기반 진단·자율 비행 기능까지 접목해 해외 방산 시장까지 겨냥할 계획이다. VTOL 고정익의 경우 통신장비와 전자광학(EO)·적외선(IR) 감시 카메라를 장착한 후 3시간 동안 임무 수행이 가능한 'MILVUS T400' 기체와, 경량화된 설계로 콤팩트한 크기지만 100분 가량 운용이 가능한 'MILVUS T240'을 전시했다. 특수목적용 임무 장치 기반의 일체형 소형 헬기인 '루펠 EF'와 탄약 투하 공격형 소형 드론인 '판디온 Q1200' 기체도 소개했다. 또한 프리뉴 드론 서비스인 '드론잇 허브' 앱 서비스가 사전 공개됐다. 드론잇 허브는 드론 비행 로그 파일을 업로드하면 비행 이력, 로그 분석뿐만 아니라 기체 분석까지 할 수 있는 드론 통합 관리 서비스다. 이 밖에도 소형다기능모듈화비행체(CMMAV), 1인칭시점(FPV) 드론 등 다수의 드론을 전시하며 국내 드론 산업의 발전 가능성을 보여줬다. 프리뉴 측은 "국산화된 항전 시스템과 모듈화 설계 기술력에 AI를 접목해 방산 분야에서도 활용성이 점차 높아지고 있다"며 "국내 방산뿐만 아니라 해외에서도 국내 기술력이 인정받을 수 있도록 노력하겠다"고 말했다.

2025.10.22 20:09신영빈

[현장] AI 에이전트와 사람 잇는 '슬랙'…워크 OS로 협업 패러다임 바꾼다

"인공지능(AI)과 사람이 함께 일하는 '에이전틱 워크' 시대, 모든 업무의 중심에는 슬랙이 있습니다." 세일즈포스 아츠시 미토 수석 부사장은 22일 서울 조선 팰리스 강남에서 열린 '슬랙 투어 서울 2025'에서 이같이 말하며 AI 에이전트와 대화형 업무 환경을 구현한 슬랙의 역할을 강조했다. 그는 "26년 전 클라우드 개념조차 없던 시절부터 우리는 혁신을 핵심 가치로 삼아왔다"며 "이제는 인간과 AI가 함께 협업하는 에이전틱 엔터프라이즈로 나아가야 할 때"라고 말했다. 이어 모든 데이터를 통합해 AI와 사람이 협력할 수 있는 세일즈포스의 최신 플랫폼 '에이전트포스360'을 소개했다. 또 단순한 채팅툴을 뛰어넘어 모든 AI 에이전트가 함께 일할 수 있는 에이전틱 OS로 진화한 슬랙을 선보였다. 다음 발표를 맡은 슬랙 김고중 부사장도 "AI 시대의 업무 생산성 혁신은 대화형 인터페이스를 통해 완성된다"며 슬랙이 세일즈포스와의 통합을 통해 구현한 AI 기반 워크플로우 혁신을 설명했다. 그는 "슬랙은 이미 7만7천 개 이상의 AI 앱과 20만 개 기업이 사용하는 글로벌 워크 OS로 자리 잡았다"며 "사람·앱·데이터·에이전트가 하나의 채널에서 협업할 수 있도록 진화했다"고 강조했다. 특히 김 부사장은 세일즈포스의 AI 플랫폼 '에이전트포스'와의 결합을 강조했다. 기업 내 수백 개 시스템이 연결돼야 생산성 혁신이 일어나는데, 슬랙이 이러한 시스템 통합을 가능케 하고 AI가 작동할 수 있는 대화형 한계를 제공한다는 설명이다. 슬랙의 AI 기능 진화도 제시됐다. 채널 대화 요약 기능 '리캡', AI 워크플로우 생성, 엔터프라이즈 검색, 개인 비서형 슬랙봇까지 모두 AI가 슬랙 내부에서 자연스럽게 작동하는 형태로 발전하고 있다. 다음으로 슬랙 주다혜 솔루션 엔지니어가 '에이전틱 엔터프라이즈 시대의 일의 방식 재고'를 주제로 슬랙의 에이전틱 OS 기능을 발표했다. 특히 최근 세일즈포스의 연례 행사 '드림포스'에서 발표된 세 가지 핵심 혁신 포인트를 소개했다. ▲슬랙 AI의 네이티브 생산성 기능 ▲고객관계관리(CRM) 통합으로 구현된 '슬랙포스' 비전 ▲AI 에이전트 생태계 확장 등이다. 아울러 슬랙을 활용한 실제 시나리오도 시연했다. AI가 자동으로 고객 미팅 일정을 조율하고 회의록을 음성으로 작성하며 채널 내 '익스퍼트 에이전트'가 반복 질문에 자동 답변하는 모습이 소개됐다. 주 엔지니어는 "이제 슬랙에서 CRM 정보 업데이트, 마케팅 보고, IT 티켓 발행까지 모두 가능하다"며 "세일즈포스의 기능을 슬랙 안에서 바로 수행하는 시대가 열렸다"고 말했다. 이어 "대화 중심의 업무 환경을 구현한 에이전틱 OS 슬랙은 에이전틱 엔터프라이즈로 가는 여정을 지원할 것"이라고 강조했다. KT 서길원 데브옵스 엔지니어는 실제 슬랙 활용 사례를 공유했다. 그는 "KT는 AICT 기업으로 도약하는 과정에서 슬랙을 업무 혁신 허브로 삼았다"며 "현재 1천500여 개 채널에서 약 1천400명의 직원이 슬랙을 통해 협업 중"이라고 밝혔다. KT는 슬랙을 활용해 외부 기관과 실시간 협업하고 사내에서는 헬프 채널과 Q&A 채널을 통해 자율적 소통을 촉진 중이다. 또 개발 환경 개선 익명 채널 등도 운영해 직원들의 의견이 즉시 반영되는 조직문화 구축에도 나서고 있다. 아울러 슬랙 내에서 자체 개발한 '데브버디' 앱을 통해 사내 지식 자산을 AI 기반으로 검색·활용하고 있다. 김고중 부사장은 "많은 기업이 전사적자원관리(ERP)나 공급망관리(SCM) 같은 시스템에는 투자하지만, 진정한 성장의 모멘텀은 임직원의 생산성 혁신에 있다"며 "임직원이 쉽고 즐겁게 생산적으로 일할 수 있도록 돕는 것이 최고의 복지이자, 그것을 가능케 하는 것이 바로 슬랙"이라고 강조했다.

2025.10.22 16:33한정호

[Q&AI] "AI로 조작했다"… 이이경 사생활 폭로 사건 정리

질문: 이이경 사생활 폭로자가 AI로 증거사진 조작했다고 하는데 어떻게 된 일인지 정리해줘 그록 답변: 이이경 사생활 폭로 사건 정리 배우 이이경(36)의 사생활 관련 루머가 2025년 10월 20일경 온라인 커뮤니티와 SNS를 통해 급속히 확산되며 논란이 됐습니다. 폭로자가 AI로 증거 사진을 조작했다는 사실이 밝혀지며, 이는 단순한 '장난'으로 시작된 허위 루머로 결론 났습니다. 아래에서 사건의 전말을 타임라인과 주요 쟁점으로 정리하겠습니다. (주요 출처: 뉴시스, 스타뉴스, 머니투데이, 나무위키 등 언론 보도) 사건 타임라인 날짜 주요 사건 2025.10.19~20 여성 A(자칭 독일 거주 한국계 여성)가 네이버 블로그에 '이이경님 찐모습 노출합니다'라는 제목의 게시물을 업로드. 이이경으로 추정되는 인물과의 카카오톡·인스타그램 DM 대화 캡처 사진 공개. 내용: 신체 사진 요구, 욕설·성희롱·음담패설 등 '19금' 사생활 폭로. A는 "핸드폰 바꾸며 증거 잃었지만 남은 걸 보여야 한다"며 피해 호소. 2025.10.20 오후 게시물이 X(트위터)·온라인 커뮤니티로 확산. 소속사 상영이엔티, 공식 SNS 통해 "허위 사실 유포 및 악성 루머"라며 법적 대응 예고. "5개월 전 회사 메일로 협박성 메일 받은 적 있다"고 밝힘. A의 게시물 일부 삭제(정보통신망법 위반 임시 조치). 2025.10.21 A, 추가 증거로 "진짜 계정" 증명 영상 공개(인스타 스크롤하며 DM 대화 보여줌). "돈 요구는 한 번 했지만 폭로 목적은 다른 여성 보호" 주장. 그러나 네티즌 지적: 캡처 사진의 시간 표기 오류(am/pm 소문자), 어색한 한국어 문법 등 조작 의혹 제기. 2025.10.22 새벽 A, 돌연 사과문 게시(X·블로그). "팬심으로 장난 시작했는데 AI 사진·영상으로 조작. 점점 실제처럼 느껴져 악성 루머 퍼뜨림. 죄송하다" 고백. "한국어 독학 8년차라 문법 오류 생김" 해명했으나, 이미 금전 요구·협박 전력 드러남. 이이경 측, 추가 피해 호소하며 법적 조치 진행 중. 주요 쟁점: AI 조작 논란 조작 증거: A가 공개한 DM·카톡 캡처 사진은 AI 도구로 생성된 가짜 이미지로 확인. 시간 표기 오류(영문 설정 카톡에서 'am' 소문자 사용), 배경·글씨체 불일치, 문법 오류 등이 단서. 영상도 스크린 녹화로 위장된 합성물 의심. A의 동기: 초기 "피해자 보호" 주장 → 사과 시 "팬심 장난, 점점 감정 이입돼 실제처럼 믿음". 그러나 소속사 주장처럼 과거 협박 메일·금전 요구 이력(5개월 전)으로 악의적 의도 의심. A는 "돈 받은 적 없고, 재미로 시작" 해명. 이이경 측 피해: 루머 확산으로 이미지 타격. 소속사는 "구멍 난 마음" 호소하며, 허위사실 유포·명예훼손으로 고소 의지. 이이경은 MBC '놀면 뭐하니?'·ENA '나는 솔로' 등 활동 중 논란 피함. 여파와 반응 네티즌·팬 반응: 초기 충격 → 사과 후 "장난치다 사람 상처 주는 무책임" 비판. 일부 "돈 목적 협박" 의혹 지속. X 포스트에서 "AI 조작 확인, 이이경 무죄" 지지 목소리 많음. 법적 전망: 소속사 법적 대응으로 A에 대한 명예훼손·허위사실 유포 처벌 가능. AI 조작 증거가 명확해 이이경 측 유리할 전망. 이 사건은 AI 기술 남용으로 인한 '가짜 뉴스' 피해 사례로 주목받고 있습니다. 추가 업데이트가 있으면 보도에 따라 변동될 수 있으니, 공식 입장 주시하세요. 질문2: 이런 식으로 피해를 줄 때 어떤 처벌을 받을 수 있는지 알려줘 그록 답변: AI 조작으로 인한 사생활 폭로 및 피해 시 처벌 정리 한국에서 AI를 이용해 가짜 증거(사진, 영상, 대화 캡처 등)를 조작하여 사생활을 폭로하거나 허위 루머를 유포하는 행위는 주로 명예훼손죄와 허위사실 유포로 처벌됩니다. 이는 형법과 정보통신망 이용촉진 및 정보보호 등에 관한 법률(이하 정보통신망법)에 기반하며, 최근 AI 관련 허위조작정보에 대한 법안도 논의 중입니다. 처벌은 행위의 악의성, 피해 정도, 반복 여부 등에 따라 달라질 수 있으며, 민사상 손해배상 청구도 가능합니다. 아래에 주요 법률과 처벌을 테이블로 정리했습니다. (참고: 실제 처벌은 법원 판결에 따라 변동될 수 있으니, 전문 법률 상담 권장) 주요 적용 법률 및 처벌 법률 및 조항 적용 사례 처벌 내용 형법 제307조 (명예훼손죄) 공연히(공개적으로) 사실(또는 허위사실)을 적시하여 타인의 명예를 훼손한 경우. AI 조작 증거로 사생활 폭로 시 적용. - 사실 적시: 2년 이하 징역/금고 또는 500만원 이하 벌금. - 허위사실 적시: 5년 이하 징역/금고/자격정지 또는 1,000만원 이하 벌금. 형법 제309조 (출판물에 의한 명예훼손) 온라인 게시물, 블로그, SNS 등 출판물 형태로 명예훼손 시 가중처벌. AI 가짜 이미지/영상 유포에 해당. - 사실 적시: 3년 이하 징역/금고 또는 1,500만원 이하 벌금. - 허위사실 적시: 7년 이하 징역/금고/자격정지 또는 3,000만원 이하 벌금. 정보통신망법 제70조 (사이버 명예훼손) 인터넷/SNS를 통해 비방 목적으로 사실(또는 허위사실)을 유포해 명예훼손. AI 조작으로 온라인 폭로 시 주로 적용 (형법보다 가중). - 사실 적시: 3년 이하 징역 또는 3,000만원 이하 벌금. - 허위사실 적시: 7년 이하 징역 또는 5,000만원 이하 벌금. 형법 제283조 (협박죄) 가짜 증거로 금전 요구나 협박 시 추가 적용. (예: 과거 협박 메일처럼) 3년 이하 징역 또는 500만원 이하 벌금. (공갈죄 병합 시 더 무거움) 허위조작정보 근절법 (정보통신망법 개정안, 2025년 논의 중) AI 등으로 허위조작정보(가짜뉴스)를 악의적/반복적으로 유포 시 민사 배상 강화. (민주당 발의안) - 손해액 최대 5배 배상 (최대 5,000만원 추가 인정). - 과징금: 최대 10억원 (방통위 부과). 추가 설명 AI 조작 특성 고려: AI로 생성된 가짜 증거(딥페이크 등)는 허위사실 적시에 해당해 처벌이 가중될 수 있습니다. 하지만 증거 입증이 어렵다는 지적도 있어, 피해자가 AI 감정 등을 통해 조작 사실을 증명해야 합니다. 민사적 책임: 형사 처벌 외에 피해자는 손해배상 소송을 제기할 수 있으며, 정신적 피해(위자료)도 청구 가능. 최근 법안처럼 징벌적 배상이 도입되면 배상액이 크게 증가할 전망. 예방 및 대응: 소속사나 피해자가 고소 시, 경찰/검찰 수사로 이어짐. AI 기술 남용 사례 증가로 정부가 규제를 강화 중이니, 유사 사건 발생 시 즉시 증거 보존과 법적 조치가 중요. 이 내용은 일반적인 법적 지침으로, 구체 사안에 따라 다를 수 있습니다. 해당 기사는 그록을 활용해 작성되었습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.10.22 15:30AI 에디터

GM, 3Q '어닝 서프라이즈'…주가 15% 급등

제너럴모터스(GM)가 올해 3분기 시장 기대치 이상의 실적을 거두면서 주가가 약 15% 폭등했다. GM은 21일(미국시간) 3분기 매출 485억9천만 달러(약 69조 6천억원), 이자·법인세 차감 전 조정 영업이익(EBIT) 33억8천만 달러(약 4조 8천억원), 주당순이익(EPS) 2.8달러를 기록했다고 발표했다. 월가 전망치인 매출 452억7천만 달러, EBIT 27억2천만 달러, EPS 2.31달러를 상회한 수치다. 회사는 관세 인상에 따른 사업 타격이 예상보다 줄어들 것으로 전망했다. 이날 GM은 올해 관세 관련 비용 예상치를 기존 40억~50억 달러에서 35억~45억 달러로 낮췄다. 이 중 35% 가량은 관세 감면 등 상쇄 조치로 영향을 줄일 수 있을 것으로 전망했다. 지역별 실적을 보면 북미 시장에선 조정 순이익 25억 달러를 기록해 전년 동기 대비 조정 영업이익률이 9.7%에서 6.2%로 하락했다. 반면 중국 및 기타 해외 시장의 조정 순이익이 각각 전년 동기 대비 2억1천700만 달러, 1억8천400만 달러 증가해 북미 수익 감소분을 일부 상쇄했다. GM은 4분기 실적도 견조할 것으로 예상하면서, 연간 실적 가이던스 상향 조정했다. 올해 연간 EBIT 전망치는 기존 100억~125억 달러에서 상향한 120억~130억 달러로 제시했다. 연간 EPS 전망치는 기존 8.25~10달러에서 9.75~10.5달러로 높였다. 메리 바라 GM 최고경영자(CEO)는 북미 시장 조정 영업이익률을 다시 8~10%로 회복하는 것이 최우선 과제라며, 이를 위해 전기차 수익성 제고와 생산 및 가격 통제, 고정비 관리와 관세 노출 축소를 꾀할 것이라고 서한에서 밝혔다. 지난 14일 GM은 전기차 사업 계획 조정에 따라 일회성 손실 16억 달러가 발생할 것이라고 밝힌 바 있다. 이번 실적에 이 손실은 반영되지 않았다. 이에 따라 주주 귀속 순이익이 13억 달러로 전년 동기 대비 57% 감소하고, 순이익률도 6.3%에서 2.7%로 급락했다. 폴 제이콥슨 GM 최고재무책임자(CFO)는 전기차 중 40%만이 수익을 내고 있다고 밝혔다. 향후 수요 둔화로 수익성 확보까지 더 오랜 시간이 걸릴 것으로 예상했다. 전일 58달러로 마감한 GM 주가는 실적 발표 후 현재 시간외거래에서 66.94달러로 거래되는 등 약 15% 올랐다.

2025.10.22 09:47김윤희

구글 vs 챗GPT, 대학생 과제에 어떤 게 더 유용할까

대학생들이 과제와 연구를 위해 챗GPT와 구글 검색엔진을 오가며 사용하는 패턴이 연구를 통해 구체적으로 드러났다. 두 도구 모두 장단점이 뚜렷하지만, 학생들은 단일 도구보다 두 플랫폼을 조합해 사용할 때 가장 높은 성과를 보였다. 방글라데시 연합국제대학교(United International University)와 미국 인디애나대학교(Indiana University Bloomington) 연구진이 109명의 학생을 대상으로 설문조사를 실시하고 12명과 심층 인터뷰를 진행한 결과, 학생들은 챗GPT의 요약·설명 능력과 구글의 신뢰성·다중 출처 접근성을 전략적으로 결합하고 있었다. 챗GPT가 구글보다 더 자주, 더 만족스럽게 사용된다 설문조사 결과, 대형언어모델(LLM) 기반 도구인 챗GPT는 전통적 검색엔진보다 모든 사용성 지표에서 높은 점수를 받았다. 사용 빈도 측면에서 챗GPT는 구글보다 높은 평균 점수를 기록했으며, 학생들이 챗GPT를 더 자주 활용한다는 것을 보여줬다. 만족도 또한 챗GPT가 구글보다 높게 나타났다. 효율성과 사용 편의성에서도 차이가 뚜렷했다. 챗GPT는 효율성과 사용 편의성 모두에서 구글보다 높은 점수를 획득했다. 통계적 검증을 위해 실시한 일원분산분석(ANOVA) 결과, 사용 빈도, 만족도, 효율성, 사용 편의성 모두에서 유의미한 차이가 확인됐다. 이는 학생들의 선호가 단순한 개인적 취향이 아니라 일관되고 명확한 경향임을 보여준다. 흥미롭게도 나이, 성별, 전공 같은 인구통계학적 요인은 도구 선호도에 유의미한 영향을 미치지 않았다. 두 도구를 함께 쓸 때 정확도 최고, 단일 도구 사용보다 월등히 높아 12명의 학생을 대상으로 한 심층 인터뷰에서는 실제 학업 과제 수행 능력을 측정했다. 참가자들은 연구 논문 요약, 코딩 문제 해결(컴퓨터공학 전공), 회로 분석(전자공학 전공), 비즈니스 데이터 해석(경영학 전공), 공식 이메일 작성, 학술 개념 비교 등 6가지 과제를 수행했다. 이들은 도구 사용 패턴에 따라 챗GPT만 사용하는 그룹, 구글만 사용하는 그룹, 두 도구를 균형 있게 사용하는 그룹, 무작위로 선택하는 그룹으로 나뉘었다. 가장 주목할 만한 결과는 두 도구를 모두 활용한 그룹이 가장 높은 정확도를 달성했다는 점이다. 챗GPT만 사용한 그룹과 구글만 사용한 그룹은 상대적으로 낮은 정확도를 보였다. 무작위 선택 그룹은 그 중간 수준의 점수를 받았다. 이는 챗GPT로 내용을 신속하게 정리하고 구글로 사실을 검증하는 전략이 학업 성과를 크게 향상시킨다는 것을 입증한다. 다만 두 도구를 함께 사용하는 방식은 챗GPT만 사용했을 때나 구글만 사용했을 때보다 시간이 더 걸렸다. 그러나 학생들은 정확도와 이해도 향상을 위해 추가 시간 투자를 가치 있게 여겼다. 연구진은 이러한 트레이드오프(trade-off)가 학생들이 학업의 질을 속도보다 우선시한다는 것을 보여준다고 분석했다. 챗GPT는 요약과 초안 작성, 구글은 사실 검증과 출처 확보에 강점 질적 분석을 통해 학생들이 과제 유형에 따라 도구를 전략적으로 선택한다는 점이 밝혀졌다. 챗GPT는 빠른 답변, 요약, 작문 지원에 효과적이라고 일관되게 평가받았다. 한 참가자는 "빠르게 요약하거나 초안을 작성할 때는 챗GPT를 사용한다. 시간이 많이 절약된다"고 말했다. 반면 경영학 전공 학생은 "구글은 다양한 출처가 말하는 것을 볼 수 있게 해준다. 특히 여러 각도에서 비즈니스 트렌드를 분석해야 할 때 도움이 된다"고 설명했다. 신뢰성 문제는 도구 선택의 핵심 요인으로 작용했다. 챗GPT는 유창하고 일관된 답변을 제공하지만, 일부 학생들은 오래되거나 지나치게 일반화된 정보에 대한 우려를 표명했다. 한 학생은 "때때로 챗GPT가 맞는 것처럼 들리는 답을 주지만 실제로는 정확하지 않아서 구글로 재확인한다"고 말했다. 구글은 사실 확인과 출처 인용에서 더 신뢰받았지만, 출처의 질을 평가하거나 상충하는 정보를 접했을 때 어려움을 겪는다는 응답도 있었다. 인지 부하(cognitive load) 측면에서 많은 참가자들은 챗GPT를 학업 과제를 간소화하는 방법으로 묘사했다. 컴퓨터공학과 학생은 "다섯 개의 웹사이트를 거치는 대신 챗GPT에 물어보고 간결한 답을 얻는다"고 전했다. 그러나 두 도구를 모두 사용하는 학생들은 도구 전환이 작업 시간을 늘리지만 결과적으로 이해도와 결과물의 질을 향상시킨다고 인정했다. 이러한 이중 전략은 특히 코딩, 데이터 분석, 구조화된 글쓰기 과제에서 흔하게 나타났다. 사용성과 상호작용 경험 면에서 챗GPT는 학생들을 문제 해결로 대화식으로 안내하는 "개인 튜터"처럼 인식됐다. 반면 구글은 더 전통적이지만 안정적인 도구로 여겨졌다. 한 학생은 "챗GPT는 누군가 나에게 설명해주는 것 같은 느낌인데, 구글은 내가 직접 찾아서 비교하는 모든 작업을 해야 한다"고 표현했다. 하이브리드 도구 선호 압도적, 챗봇 내장 검색엔진 프로토타입 제안 설문 참여자 중 상당수가 챗GPT와 구글의 장점을 결합한 통합 솔루션을 선호한다고 답했다. 학생들은 챗GPT의 대화형 능력과 구글의 신뢰성을 동시에 활용할 수 있는 학술 지원 도구에 대한 강한 수요를 표현했다. 이러한 요구에 대응해 연구진은 검색엔진 인터페이스에 챗봇을 내장한 개념적 프로토타입을 제안했다. 이 시스템은 검색 화면 한쪽에 챗봇을 배치해 사용자가 기존 검색 흐름을 방해받지 않으면서도 AI 기반 대화형 지원을 받을 수 있도록 설계됐다. 사용자가 구글 검색을 수행하면 챗봇이 상위 검색 결과의 핵심 내용을 즉시 요약하고, 출처 간 비교를 제공하며, 복잡한 학술 텍스트를 쉽게 풀어준다. 사용자는 추가 질문을 통해 정보를 정제하거나 확장할 수도 있다. 이 프로토타입의 핵심은 원본 검색 콘텐츠와 AI 해석 사이를 자유롭게 전환할 수 있는 하이브리드 구조다. 모든 AI 생성 정보에는 원본 출처 링크가 첨부돼 투명성을 보장하고 환각(hallucination) 위험을 줄인다. 연구진은 이 시스템이 시간이 지나면서 사용자의 선호, 전공별 언어, 검색 습관을 학습해 더욱 관련성 높고 개인화된 안내를 제공할 수 있을 것으로 기대한다. 이 접근법은 학술 정보 검색을 상호작용적이고 적응적인 프로세스로 재구상하며, 인지 부하를 줄이고 검색 효율성을 높이며 증거 기반 학술 관행을 촉진하는 것을 목표로 한다. 생성형 AI 시대, '검증 가능한 AI'가 핵심 경쟁력 이번 연구에서 주목할 점은 학생들이 도구 선택에서 '시간 절약'보다 '정확성'을 더 중요하게 여긴다는 사실이다. 두 도구를 함께 사용하는 그룹이 시간은 더 걸렸지만 가장 높은 만족도를 보인 것은, 한국 교육 시장에서도 'AI 스피드'보다 'AI 신뢰도'가 더 큰 차별화 요소가 될 수 있음을 시사한다. 국내 에듀테크 기업들은 AI 튜터나 학습 도우미를 개발할 때 단순히 빠른 답변 제공에 그치지 않고, 각 답변의 출처와 근거를 명확히 제시하는 기능을 필수로 탑재해야 한다. 더 나아가 이 연구는 '도구 통합'이 차세대 검색 경험의 핵심이 될 것임을 보여준다. 구글이 AI 오버뷰를 도입하고 퍼플렉시티가 AI 답변과 출처 링크를 결합한 것도 같은 맥락이다. 한국 포털들도 단순히 링크를 나열하는 방식에서 벗어나, 사용자 맥락을 이해하고 출처를 명시하며 실시간으로 정보를 합성하는 '맥락 인식형 검색'으로 진화해야 생존할 수 있다. 이는 단순한 기술 업그레이드가 아니라 정보 검색 패러다임의 근본적 전환을 의미한다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q1. 챗GPT와 구글 검색엔진 중 어느 것이 학업에 더 유용한가요? 두 도구는 각각 다른 강점이 있어 상황에 따라 선택해야 합니다. 챗GPT는 빠른 요약, 설명, 초안 작성에 강하고, 구글은 심층 조사, 사실 확인, 다양한 출처 비교에 적합합니다. 연구에 따르면 두 도구를 함께 사용했을 때 정확도가 가장 높았습니다. Q2. 챗GPT가 제공하는 정보는 얼마나 신뢰할 수 있나요? 챗GPT는 유창하고 설득력 있는 답변을 제공하지만 때때로 오래되거나 부정확한 정보를 자신 있게 제시할 수 있습니다. 학업이나 전문 작업에서는 반드시 구글 같은 검색엔진으로 사실을 재확인하고 원본 출처를 확인하는 것이 중요합니다. Q3. 하이브리드 검색 도구란 무엇이며 왜 필요한가요? 하이브리드 검색 도구는 챗GPT의 대화형 요약 기능과 구글의 다중 출처 검색 능력을 결합한 시스템입니다. 학생들은 도구를 계속 전환하느라 시간을 낭비하는 대신, 한 곳에서 AI 요약과 원본 출처를 동시에 확인할 수 있어 학습 효율과 정확성을 모두 높일 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.10.21 19:16AI 에디터

팅크웨어, 레이저 골프 거리측정기 2종 출시

팅크웨어는 레이저 골프 거리측정기 '아이나비 스포츠 Q2'와 'Q2 미니'를 출시했다고 21일 밝혔다. 신제품은 슬로프 보정 알고리즘, 아이캐디 모드, 초고속 거리 측정 등으로 정밀성과 편의성을 강화했다. Q2는 최대 600m, Q2 mini는 1천m까지 측정 가능하며, 0.1~0.5초 내 측정, 진동 알림 기능, 손떨림 보정, USB-C 고속 충전 등을 지원한다. 삼각 측정 기반 아이캐디 모드를 통해 실제 캐디처럼 지형 정보를 분석해 정밀한 거리 정보를 제공한다. 한국인 손 크기에 맞춘 인체공학적 디자인과 Q2 기준 146g의 가벼운 무게로 휴대성도 높였다. 가격은 Q2 26만9천원, Q2 미니 29만9천원이다.

2025.10.21 18:26신영빈

AI 언어모델 '말버릇' 나쁘다고?…고치는 기술 나왔다

AI가 글을 쓸 때마다 똑같은 표현을 반복하는 '말버릇'을 고칠 수 있는 기술이 개발됐다. 마치 사람이 "있잖아", "그니까" 같은 말버릇을 가지듯, AI 언어모델도 특정 단어나 문장 패턴을 과도하게 반복해 사용한다. 연구팀은 이런 AI의 말버릇을 찾아내고 고치는 '안티슬롭(Antislop)' 프레임워크를 개발했다. 이 기술은 AI의 전반적인 능력은 그대로 유지하면서도 반복적인 표현을 90%까지 줄일 수 있는 것으로 나타났다. AI도 말버릇이 있다? "엘라라" 이름만 8만 번 더 많이 사용 사람들이 AI가 쓴 글을 금방 알아차리는 이유가 있다. 연구팀이 젬마(Gemma)-3-12b라는 AI 모델의 창작 소설을 분석했더니, 특정 표현들이 사람보다 지나치게 많이 등장했다. 예를 들어 '엘라라(Elara)'라는 여자 이름은 사람이 쓴 소설보다 무려 85,513배나 더 자주 나왔다. '불안하게도(unsettlingly)'라는 단어는 3,833배, '반짝였다(shimmered)'는 2,882배 더 많이 사용됐다. 이미지 출처: Antislop: A Comprehensive FRAMEwork for Identifying and Eliminating Repetitive Patterns in Language Models 문장 패턴도 마찬가지다. "심장이 터질 듯 뛰었다(heart hammered ribs)"는 표현은 1,192배, "목소리가 약간 떨리며(voice trembling slightly)"는 731배나 더 자주 등장했다. 더 흥미로운 건 "그건 X가 아니라 Y야(It's not X, it's Y)" 같은 문장 구조도 사람보다 6.3배 더 많이 사용된다는 점이다. 연구팀이 67개의 다양한 AI 모델을 조사한 결과, 이런 말버릇은 거의 모든 AI에서 나타났다. '깜박였다(flickered)'는 98.5%의 AI 모델에서 과도하게 사용됐고, "거의 속삭이는 목소리로(voice barely whisper)"라는 표현은 68.7%의 모델에서 말버릇으로 확인됐다. 마치 같은 작문 학원을 다닌 학생들이 똑같은 문장 패턴을 쓰는 것과 비슷한 현상이다. 실시간으로 말버릇 차단하는 '안티슬롭 샘플러' 연구팀이 개발한 첫 번째 기술은 '안티슬롭 샘플러(Antislop Sampler)'다. 이건 AI가 글을 쓰는 도중에 실시간으로 말버릇을 잡아내는 시스템이다. 마치 글을 쓰다가 "아, 이 표현 또 썼네" 하고 지우고 다시 쓰는 것과 비슷하다. 작동 원리는 이렇다. AI가 한 단어씩 글을 생성할 때마다 시스템이 계속 감시한다. 만약 금지된 표현이 나오려고 하면, 그 표현이 시작된 지점으로 되돌아간다. 그리고 그 단어가 선택될 확률을 확 낮춰버린 다음 다시 단어를 고른다. 이 과정을 '백트래킹(backtracking)'이라고 부른다. 여기서 영리한 점은 '소프트 금지' 기능이다. 완전히 못 쓰게 막는 게 아니라, 금지 강도를 0부터 1까지 조절할 수 있다. 0이면 자유롭게 쓸 수 있고, 1이면 완전 차단이다. 0.4 정도로 설정하면 일반적으로는 그 표현을 안 쓰지만, 정말 필요할 때는 쓸 수 있다. 예를 들어 사용자가 "태피스트리(tapestry)에 관한 글을 써줘"라고 명시했다면, '태피스트리'라는 단어가 금지 목록에 있어도 사용할 수 있게 해준다. 이 샘플러는 8,000개 이상의 표현을 동시에 차단할 수 있다. 기존 방식인 '토큰 금지'는 2,000개만 넘어가도 제대로 작동하지 않았는데, 안티슬롭 샘플러는 그 4배를 처리하면서도 글의 품질을 유지한다. AI의 말버릇을 영구히 고치는 'FTPO 훈련법' 안티슬롭 샘플러는 효과적이지만 한 가지 단점이 있다. 글을 쓰는 속도가 최대 96%까지 느려진다는 것이다. 계속 되돌아가서 다시 쓰다 보니 당연히 시간이 오래 걸린다. 이 문제를 해결하기 위해 연구팀은 두 번째 기술인 'FTPO(Final Token Preference Optimization)'를 개발했다. 이건 AI의 말버릇을 아예 뿌리부터 고치는 훈련 방법이다. FTPO는 AI에게 "이 표현 대신 저 표현을 써"라고 가르치는 방식이다. 예를 들어 AI가 "공주 엘라라가"라고 쓰려고 하면, "엘라라 말고 매들린, 나디아, 프레야, 이졸데 같은 이름을 써"라고 알려준다. 그런데 단순히 가르치기만 하면 AI가 망가질 수 있다. AI의 가장 선호하는 표현을 억지로 바꾸려면 내부 구조에 큰 변화가 생기고, 이게 부작용을 일으킬 수 있기 때문이다. 그래서 FTPO는 세 가지 안전장치를 사용한다. 첫째, 바꾸고 싶은 표현과 그 대안들만 조심스럽게 조정하고, 나머지 수만 개의 단어들은 최대한 건드리지 않는다. 둘째, 대안 표현들이 충분히 좋아지면 자동으로 훈련을 멈춘다. 마치 학생이 이미 개념을 이해했는데 계속 반복 학습시키면 오히려 역효과가 나는 것과 같은 이치다. 셋째, 원래 AI의 능력치에서 너무 멀어지지 않도록 안전줄을 매어둔다. 실제로 테스트해보니 FTPO는 놀라운 결과를 보였다. 말버릇을 90% 줄이면서도 AI의 글쓰기 능력은 거의 그대로 유지됐다. 수학 문제 풀이나 상식 질문에 답하는 능력도 기존과 비슷했다. 반면 기존 방식인 DPO로 훈련시켰더니 말버릇은 80%밖에 안 줄었고, 글쓰기 품질은 15%나 떨어졌다. 과잉학습 방지하는 스마트한 설계 FTPO의 진짜 강점은 과잉학습을 방지한다는 점이다. 연구팀이 실험한 결과, FTPO는 거의 100%까지 말버릇을 고치면서도 글쓰기 능력이 망가지지 않았다. 반면 DPO는 40%만 고치려고 해도 이미 글쓰기 능력이 크게 떨어졌다. 왜 이런 차이가 생길까? FTPO는 목표를 달성하면 자동으로 훈련을 멈추는 '브레이크'가 있기 때문이다. 마치 자동차의 ABS 브레이크처럼, 너무 심하게 제동이 걸리면 자동으로 풀어주는 장치가 내장돼 있다. DPO는 이런 안전장치가 없어서 계속 훈련하다 보면 AI가 점점 이상해진다. 연구팀이 AI 내부를 들여다봤더니, FTPO로 훈련한 AI는 바꾸고 싶은 부분만 조금씩 변했다. 하지만 DPO로 훈련한 AI는 전체적으로 크게 변해버렸다. 이게 바로 품질 차이를 만드는 원인이었다. 실전 활용 가능한 오픈소스로 공개 연구팀은 이 기술을 모두 공개했다. 누구나 무료로 다운받아 자기 AI 모델의 말버릇을 고칠 수 있다. 심지어 자동화 프로그램도 함께 제공한다. 이 프로그램은 AI의 글을 분석해서 어떤 표현을 과도하게 쓰는지 자동으로 찾아내고, 학습 데이터를 만들어서 AI를 훈련시키는 과정을 모두 자동으로 처리한다. 다만 실제로 사용할 때는 선택을 해야 한다. 안티슬롭 샘플러는 100% 완벽하게 말버릇을 차단하지만, 글 쓰는 속도가 많이 느려진다. FTPO는 한 번 훈련시켜두면 속도 저하 없이 계속 쓸 수 있지만, 90% 정도만 차단된다. 실시간 서비스에는 FTPO로 미리 훈련시킨 AI를 쓰고, 완벽한 차단이 필요할 때만 샘플러를 쓰는 게 좋다. 시사점: AI 콘텐츠의 새로운 시대, 탐지는 더 어려워져 이 기술이 상용화되면 여러 변화가 예상된다. 우선 AI가 쓴 글이 훨씬 자연스러워질 것이다. 지금까지는 "이건 AI가 쓴 거네" 하고 금방 티가 났는데, 이제는 구분하기 어려워질 수 있다. 소설, 광고 카피, 기사, 보고서 등 모든 분야에서 AI가 만든 콘텐츠의 품질이 크게 향상될 전망이다. 하지만 이는 양날의 검이다. AI 탐지 프로그램들이 바로 이런 반복 패턴을 찾아서 "이건 AI가 썼어요"라고 판별했는데, 이제 그게 어려워진다. 학교 과제나 신문 기사가 정말 사람이 쓴 건지 확인하기가 더 힘들어질 수 있다. 새로운 검증 방법이 필요해질 것이다. 또한 AI마다 고유한 말버릇이 있다는 걸 알게 됐으니, 각 AI 회사들은 자기 모델만의 특성을 분석하고 최적화하는 작업에 더 신경 써야 한다. 마치 사람마다 말투가 다르듯, AI마다 다른 맞춤형 교정이 필요하다는 뜻이다. 마지막으로 기술적 과제도 남아있다. 안티슬롭 샘플러는 아직 속도가 느리다. 1,000개 표현을 차단하면 속도가 69% 느려지고, 8,000개를 차단하면 96%나 느려진다. 빠른 응답이 중요한 챗봇 서비스에는 아직 부담스러울 수 있다. 그래서 당분간은 FTPO로 미리 훈련시킨 AI를 쓰는 게 현실적인 해결책이 될 것이다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. AI의 '말버릇'은 왜 생기는 건가요? A. AI는 인터넷의 수많은 글을 읽고 학습합니다. 그 과정에서 특정 표현 조합이 자주 나오면 "이 표현들을 함께 쓰면 좋은 글이 되는구나"라고 잘못 학습할 수 있습니다. 또한 AI를 사람의 피드백으로 추가 훈련시킬 때, 안전하고 무난한 표현만 선호하다 보니 창의성이 떨어지고 특정 패턴만 반복하게 됩니다. 마치 학생이 시험에서 틀릴까 봐 외운 문장만 계속 쓰는 것과 비슷합니다. Q. 일반 사용자도 이 기술을 쓸 수 있나요? A. 네, 가능합니다. 연구팀이 모든 코드를 무료로 공개했습니다. 다만 자신의 컴퓨터에서 AI 모델을 직접 실행할 수 있는 환경이 필요합니다. ChatGPT나 클로드 같은 온라인 서비스를 쓰는 일반 사용자는 해당 기업들이 이 기술을 적용할 때까지 기다려야 합니다. 앞으로 AI 서비스들이 이 기술을 도입하면, 우리가 받는 답변의 품질이 자연스럽게 개선될 것입니다. Q. 이 기술이 적용되면 AI 글쓰기가 완벽해지나요? A. 아닙니다. 이 기술은 반복적인 표현만 줄여줄 뿐, AI 글쓰기의 모든 문제를 해결하지는 못합니다. AI는 여전히 사실을 지어낼 수 있고, 논리적 오류를 범할 수 있으며, 창의성이나 깊이 있는 통찰력은 사람보다 부족합니다. 다만 "AI티 나는" 어색한 표현이 줄어들어 더 자연스러운 글을 쓸 수 있게 되는 것입니다. AI 글쓰기의 한계를 조금 더 극복한 것으로 이해하면 됩니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.10.21 16:42AI 에디터

CATL, 3Q 순이익 3.7조원…전년비 41% ↑

세계 최대 배터리 기업인 중국 CATL이 올해 3분기 매출 1천42억 위안(약 20조 8천억원), 영업이익 164억 위안, 순이익 185억 위안(약 3조 7천억원)을 거뒀다고 지난 20일 밝혔다. 전년 동기 대비 매출은 12.9% 증가하고 순이익은 41.2% 증가했다. 올해 3분기까지 누적 매출은 2천831억 위안(약 56조 5천억원)으로 전년 동기 대비 9.3% 증가했다. 누적 순이익은 490억 위안(약 9조 8천억원)으로 같은 기준 36.2% 증가했다. CATL은 3분기 배터리 출하량180GWh 중 에너지저장장치(ESS) 비중은 20%라고 밝혔다. CATL은 ESS 사업 비중 확대가 순이익 증가에 기여했다고 설명했다. 중국 내 매출 비중은 70%, 해외는 30% 수준으로 밝혔다. CATL은 중국 내 1위 사업자 입지도 꾸준히 유지 중이다. 중국자동차배터리혁신연합(CABIA)에 따르면 지난달 CATL은 배터리 32.51GWh를 설치, 시장점유율 42.81%을 기록했다. 전월 대비 0.47%p 상승한 수치다.

2025.10.21 10:57김윤희

케이뱅크, 하반기 채용연계형 인턴 모집

케이뱅크가 하반기 채용연계형 인턴을 모집한다고 21일 밝혔다. 모집직무는 ▲백엔드 개발 ▲상품/서비스 ▲사용자 경험(UX) ▲리스크 등 총 4개 직군이다. 채용절차는 ▲서류접수 ▲역량검사 ▲면접 세 단계로 이뤄지며, IT 분야는 코딩테스트, UX 분야는 사전과제가 주어진다. 모집대상은 기졸업자 및 2026년 2월 졸업 예정자, 기졸업자의 경우도 경력 2년 이하인 경우에는 지원 가능하다. 서류전형은 이달 27일까지 케이뱅크 채용 홈페이지서 접수할 수 있다. 이번 모집에는 생성형 인공지능(AI) 활용, 문서 자동화 등 AI 역량이 직군과 무관하게 공통으로 포함됐다. 채용된 인턴은 1월부터 두 달 간 현업팀에 배치돼 실무 경험을 쌓는다. 실무형 프로젝트도 함께 운영된다. 또한 빠른 성장과 적응을 지원하기 위해 소속 팀의 선배직원과 1대 1 밀착 멘토링 프로그램을 진행한다. 인턴십에 관심 있는 예비 지원자들을 위해 22일 하루동안 Q&A 카카오톡 오픈채팅방을 운영한다. 직무, 전형 과정 등 궁금한 점을 인사담당자와 실무진이 직접 답변할 예정이며, 누구나 채용홈페이지와 채용공고 페이지에 올라오는 링크를 통해 참석 가능하다. 지원에 도움이 되는 케이뱅크 직무와 팀 소개, 앞 기수 인턴들의 인턴 지원 팁, 인턴십 후기 등 자세한 정보는 케이뱅크 채용 홈페이지, 블로그, 유튜브를 통해서 확인할 수 있다. 케이뱅크 관계자는 “매번 증가하는 지원자 수와 채용박람회 참여를 통해 케이뱅크와 인턴십에 대한 뜨거운 관심을 체감하고 있다”며 “높은 업무 역량과 열정을 가진 지원자들의 많은 지원을 기대한다”고 말했다.

2025.10.21 09:46손희연

유튜브 영상만으로 자율주행 배우는 AI가 등장했다

유튜브에 올라온 도시 여행 영상이 자율주행 로봇의 '교과서'가 될 수 있을까. 최근 캘리포니아대 로스앤젤레스(UCLA) 연구진이 공개한 UrbanVerse(어반버스) 프로젝트는 그 질문에 구체적인 답을 제시했다. 연구팀은 단 한 줄의 지도 데이터 없이, 오직 온라인의 시티 투어 영상만으로 AI가 도시 환경을 학습하고 실제 도심을 주행하는 데 성공했다고 밝혔다. 이는 AI가 현실을 직접 체험하지 않고도, 세상을 이해하고 이동할 수 있는지를 실험한 최초의 연구 중 하나다. 이미지 출처: UrbanVerse: Scaling Urban Simulation by Watching City-Tour Videos 현실 영상을 학습해 '가상 도시'를 구축한 AI UrbanVerse의 출발점은 단순하다. “현실 영상을 데이터로 바꾸면, AI가 그 안에서 스스로 도시를 배울 수 있지 않을까?” 연구팀은 유튜브에 공개된 도시 여행 영상(City-Tour Video)을 수집해, AI가 거리 풍경을 분석하고 이를 3D 시뮬레이션 환경으로 변환하는 시스템을 구축했다. 이 시스템은 건물, 차량, 도로, 신호등 같은 도시 구성 요소를 자동으로 인식하고, 이를 물리적으로 상호작용 가능한 가상 공간으로 재구성한다. 즉, 영상 속 거리 하나가 AI에게는 실제 도로처럼 '움직이고 반응하는 훈련장'이 된다. 연구팀은 이렇게 생성된 도시 환경을 이용해 로봇 자율주행 모델을 훈련시켰다. AI는 지도나 GPS 없이 오직 카메라 입력과 목표 방향만으로 길을 찾아야 했다. 훈련 과정에서 로봇은 수천 개의 도시 장면을 통과하며, 보도와 차도의 경계, 장애물의 형태, 보행자의 움직임 패턴을 스스로 파악했다. 이미지 출처: UrbanVerse: Scaling Urban Simulation by Watching City-Tour Videos “AI가 실제 도시를 주행했다” — 실험 결과로 증명된 자율 학습 능력 어반버스의 AI는 단순히 가상 공간에서 학습하는 데 그치지 않았다. 연구진은 이 모델을 실제 거리로 옮겨 검증했다. 테스트는 COCO 배달 로봇과 Unitree Go2 사족보행 로봇 두 가지 플랫폼에서 진행됐다. 각 로봇은 한 번도 방문한 적 없는 도심 구간을 주행해야 했다. 그 결과는 인상적이다. 훈련된 정책은 현실 도심에서 89.7%의 주행 성공률을 기록했으며, 로봇은 337m의 실험 구간을 단 두 번의 인간 개입만으로 완주했다. 즉, AI가 유튜브 영상을 통해 학습한 '가상 경험'만으로 현실 공간을 주행한 것이다. 이 실험은 로봇이 직접 도로를 주행하며 데이터를 수집하지 않아도, 영상 기반 학습만으로 충분히 '도시 감각'을 익힐 수 있음을 보여준다. 연구팀은 이러한 성과를 “Zero-Shot Sim-to-Real Transfer”라 정의했다. 이는 별도의 현실 데이터나 추가 학습 없이, 가상 환경에서 배운 행동 정책을 현실 환경에 즉시 적용하는 것을 의미한다. GPT-4.1과 IsaacSim, 그리고 도시를 재현한 AI 인프라 어반버스의 기술적 구조는 크게 세 부분으로 나뉜다. UrbanVerse-100K: GPT-4.1(OpenAI)을 활용해 구축한 10만 개 이상의 도시 객체 데이터베이스. 각 객체는 질량, 마찰, 재질 등 33가지 물리 속성을 포함한다. UrbanVerse-Gen: 유튜브 영상을 분석해 건물·도로·보행자·하늘 등을 분리하고, 이를 3D 시뮬레이션 형태로 배치하는 자동 생성 파이프라인. IsaacSim: NVIDIA의 물리 기반 시뮬레이션 엔진으로, AI가 실제 중력, 조명, 충돌 등을 경험할 수 있는 '가상 도시의 물리 법칙'을 구현한다. 이 과정을 거치면, AI는 현실 도시를 직접 보지 않고도 “도시가 어떻게 작동하는가”를 경험적으로 학습한다. 그 결과, 로봇은 현실의 도심에서도 신호등·보행자·차량의 움직임을 유사하게 예측하고 대응할 수 있다. 자율주행의 학습 방식이 바뀐다 UrbanVerse의 등장은 자율주행 AI의 학습 구조 자체를 뒤흔드는 변화다. 그동안 자율주행 연구는 수백만 km에 달하는 실제 도로 주행 데이터를 기반으로 이루어졌다. 그러나 현실 데이터 수집은 비용이 높고, 안전 문제도 뒤따른다. 어반버스는 이 문제를 근본적으로 재정의했다. AI가 이미 존재하는 대규모 영상 데이터를 이용해 '가상 도심에서 훈련하고, 현실로 전이되는' 방식을 입증한 것이다. 이는 향후 자율주행, 물류 로봇, 드론 내비게이션 등 현실 데이터를 대체하는 시뮬레이션 학습 체계의 전환점이 될 수 있다. 특이 이 연구는 생성형 AI가 물리 세계를 학습의 영역으로 확장한 결정적 사례라고 할 수 있다. 언어와 이미지 생성에 머물던 생성형 AI가, 이제는 현실의 복잡한 구조와 행동을 스스로 학습하는 단계에 들어섰다는 의미다. FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) Q. 유튜브 영상만으로 자율주행이 가능하다는 말이 사실인가요? A. UrbanVerse는 실제 주행 데이터를 사용하지 않았습니다. 유튜브 영상을 분석해 만든 가상 환경에서만 학습했지만, 훈련된 로봇은 실제 도심에서 89.7%의 성공률로 주행에 성공했습니다. Q. 어떻게 현실과 가상을 연결할 수 있었나요? A. AI는 GPT-4.1을 이용해 영상 속 사물의 물리 속성을 추론하고, NVIDIA IsaacSim 엔진을 통해 이를 실제 물리 환경처럼 구현했습니다. 이 덕분에 가상 학습이 현실 행동으로 자연스럽게 전이됐습니다. Q. 이 기술이 자율주행 산업에 주는 의미는 무엇인가요? A. 현실 도로 주행 데이터에 의존하던 기존 학습 구조가 영상 기반의 시뮬레이션 학습으로 대체될 가능성을 제시합니다. 이는 자율주행 개발 비용과 위험을 동시에 줄일 수 있는 방향입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.10.20 21:33AI 에디터

[Q&AI] 챗GPT가 알려준 번호로 복권 당첨됐다고?

Q. 챗GPT가 알려준 번호로 로또가 당첨됐다고? 네, 최근 미국에서 챗GPT가 추천해준 복권 번호로 당첨된 사례가 여러 건 쏟아지면서 화제가 되고 있어요. 하지만 이게 "챗GPT가 미래를 예측했다"는 뜻은 절대 아니에요. 그냥 순수한 행운일 뿐이죠. 간단히 정리해 볼게요. 최근 당첨 사례 캐리 에드워즈 (버지니아주, 2025년 9월): 챗GPT 앱에 "번호 좀 알려줘"라고 물어봤더니 나온 번호로 파워볼(미국 복권)에서 앞 번호 4개 + 파워볼 맞혀서 원래 5만 달러(약 6,700만 원)가 '파워 플레이' 옵션으로 15만 달러(약 2억 원)로 불어났어요. 그녀는 이 돈 전액을 자선 단체에 기부하겠다고 해요. 태미 카비 (미시간주, 2025년 10월): 파워볼 잭팟이 10억 달러를 넘자 챗GPT에 번호를 요청했는데, 앞 번호 4개 + 파워볼 맞춰 10만 달러(약 1억 4,000만 원) 당첨. 그녀도 "처음엔 사기 알림인 줄 알았대요." 이 외에도 영국이나 호주에서 비슷한 "AI 덕분" 당첨 이야기가 SNS에서 돌고 있지만, 대부분 미국 파워볼 관련이에요. X(트위터)에서도 "챗GPT 로또 당첨"으로 검색하면 최근 포스트들이 쏟아지네요 – 대부분 이 뉴스를 공유하는 거예요. 왜 이런 일이 일어났을까? 챗GPT(또는 다른 AI)는 로또 번호를 "예측"하는 게 아니라 그냥 랜덤으로 생성해요. 로또나 파워볼은 완전 무작위 추첨이라, AI가 아무리 똑똑해도 당첨 확률을 높일 수 없어요. (파워볼 4개+파워볼 맞힐 확률은 약 1/913,129 – 여전히 엄청 낮죠.) 이유 1: AI 사용자 폭증. 전 세계 17억 명이 AI를 쓰고 있어요. 이 중 일부가 로또 번호 물어보고 산다면, 우연히 맞을 확률이 조금 더 올라가요. (10명 중 2명 꼴로 AI 쓰는 시대잖아요.) 이유 2: 재미로 산 사람들. 평소 복권 안 사던 사람들이 "AI가 해준대!" 하며 도전하다 보니 뉴스가 됐어요. 팩트체크: AI가 과거 데이터를 분석해 "가능성 높은" 번호를 뽑아봤자, 실제 당첨 확률은 똑같아요. 챗GPT 본인도 "이건 그냥 랜덤이야, 예측 불가"라고 솔직히 말하죠. 한국 로또(로또 6/45)로 치면 1등 확률이 8,145,060분의 1인데, AI가 도와준다고 달라지지 않아요. 오히려 재미로 즐기다 당첨되면 더 신기할 뿐! 조언 한 마디 로또는 재미로 사는 거예요. AI한테 물어보는 건 웃기고 좋지만, "당첨 보장"은 절대 아니에요. 만약 다음 주 번호 궁금하시면... 제가 랜덤으로 하나 뽑아줄까요? (농담이에요. 진짜로 하려면 말씀하세요!) 행운 빕니다~ 이미지 출처: 그록 ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.10.20 21:32AI 에디터

엔씨소프트, '블레이드앤소울 NEO' 서비스 1주년 로드맵 공개 예고

엔씨소프트(공동대표 김택진, 박병무)는 PC MMORPG(다중접속역할수행게임) '블레이드앤소울 NEO'(이하 BNS NEO)의 서비스 1주년 기념 특별 라이브 방송 'NE:ON'을 20일 오후 8시에 진행한다고 밝혔다. 이번 생방송은 1년 간의 서비스를 되돌아보고, 이용자에게 감사 인사를 전하기 위해 마련됐다. BNS NEO 공식 유튜브 채널에서 시청할 수 있으며, 실시간 시청자를 위한 다양한 보상도 제공한다. 방송에는 주요 개발진이 출연해 ▲1주년 기념 업데이트 내용 공개 ▲이색 기록 보유 이용자 소개 ▲이용자 사연 소개 등의 콘텐츠를 진행한다. 이용자를 대변하는 특별 게스트가 등장해 개발진과의 실시간 Q&A도 이어갈 계획이다. 회사 측은 BNS NEO의 유튜브 구독자 이벤트를 진행한다. 공식 유튜브 채널 구독자 수가 목표 수치에 도달하면 '영웅 도화 상자', '홍문가호 회복약', '태고의 달빛 초원 모래시계' 등의 보상을 지급한다.

2025.10.20 13:25이도원

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

눈앞으로 다가온 '피지컬 AI'…CES 2026이 증명했다

[ZD브리핑] 국가대표 AI 1차 탈락팀 발표 예정...새해 행사·정책 일정 잇따라

인텔, 아크 B390 성능 공개 "노트북용 별도 GPU 필요없다"

[르포] 폭설에 얼어붙는 도시…전기차 보기 힘든 홋카이도 가다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.