• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
국감2025
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 에디터'통합검색 결과 입니다. (569건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

생성형 AI, 스포츠도 혁신…팬 경험부터 경기장 관리까지 확 바꾼다

인스턴트 리플레이에서 선수 건강 모니터링까지, 기술 혁신이 이끄는 스포츠 산업 딜로이트 스포츠 비즈니스 그룹이 발간한 '스포츠 산업에서의 생성형AI 미래 전망' 보고서에 따르면, 기술과 혁신이 프로 스포츠의 핵심을 이루어 왔다. 인스턴트 리플레이부터 선수들의 건강과 퍼포먼스를 모니터링하는 웨어러블 기술까지, 기술은 스포츠의 거의 모든 측면에 깊숙이 자리 잡았다. 현재의 생성형 AI 혁신은 방대한 데이터, 강력한 컴퓨팅 파워, 그리고 전문 지식이라는 세 가지 핵심 요소의 결합으로 이뤄지고 있으며, 2030년까지 전 세계 경제에 누적 19.9조 달러의 경제적 영향을 미칠 것으로 전망된다. (☞ 보고서 바로가기) 향후 10년 동안 생성형 AI는 2030년에는 전 세계 GDP의 3.5%를 차지할 것으로 전망된다. 이는 프로 스포츠 데이터가 더 이상 비용적인 관점이 아닌, 귀중한 자산으로 변모하는 계기가 될 것이라는 의미다. 미디어부터 티켓 판매까지, 7대 영역에서 혁신을 주도하는 생성형 AI 스포츠 조직은 미디어, 방송, 스트리밍, 소셜 플랫폼, 상품 및 의류, 티켓 판매, 브랜드 등 다양한 산업의 이해관계자들과 연결되어 있다. 생성형 AI는 이러한 생태계에서 다음과 같은 변화를 이끌고 있다. 팬 경험 분야에서는 AI가 데이터 기반 인사이트를 활용해 개인화된 프로필을 생성하고 맞춤형 미디어 콘텐츠를 제공한다. 이벤트와 경기장 관리에서는 유지보수 모니터링부터 일정 관리, 경기 당일 주차 및 교통 문제 해결까지 AI가 활용된다. 수익 창출 면에서는 AI 기반의 대화형 로열티 프로그램과 예측 가능한 판매 예측 시스템을 구현한다. 마케팅 부문에서는 독창적인 콘텐츠 생성과 캠페인 효과에 대한 A/B 테스트를 수행하며, 과중한 업무에 시달리는 디자인팀의 효율성을 높인다. 미디어 콘텐츠 분야에서는 AI가 자동화된 콘텐츠 생성, 편집, 실시간 분석을 통해 미디어 채널의 콘텐츠를 신속하게 배포한다. 조직 운영 측면에서는 AI가 전통적인 데이터를 새로운 인사이트로 변환하여 재무 및 운영 관리와 보고에 유용한 정보를 제공하며, 승부 조작을 식별함으로써 조직의 투명성과 공정성을 강화한다. 경기 운영에서는 생체 인식을 활용한 AI 기반의 선수 경험 향상 및 코칭 지원 툴이 훈련과 재활 계획을 선제적으로 제안한다. 팬 질문 즉답하는 AI, 리그 규정집 자동 해석 시스템 구축 사례 프로 스포츠 리그는 복잡한 구조의 규정집을 팬들이 쉽게 이해할 수 있도록 대규모 언어 모델(LLM)을 활용한 자동화된 질의응답 시스템을 구축했다. 이 시스템은 규정에 대한 수동적인 답변 업무를 줄여 시간과 자원을 절감했으며, 더 빠르고 정확한 응답으로 브랜드 인식을 향상시키고 팬들의 만족도를 높였다. 이 시스템은 규칙 변화에 따라 진화하고, 수요에 맞춰 확장하며, 팬들이 관심 있는 분야에 대한 인사이트를 지속적으로 제공할 수 있게 되었다. 글로벌 팬 겨냥한 AI 마케팅, 실시간 번역부터 현지화까지 맞춤형 마케팅 콘텐츠 생성 분야에서는 페르소나와 타겟팅을 기반으로 한 생성형 AI 플랫폼을 활용해 리그, 팀, 선수를 위한 콘텐츠를 자동으로 생성하고 있다. 이 플랫폼은 글로벌 시장을 겨냥한 실시간 번역 기능을 통해 전 세계 팬들에게 접근성을 높이고 있으며, 팬들의 개별 성향에 맞춘 콘텐츠를 제공한다. AI로 실현하는 스마트 경기장, 실시간 혼잡도 분석과 최적 경로 제시 경기장 입장과 퇴장 관리에서는 고급 AI 모델이 혼잡도, 실시간 도로 상황, 수요 등을 고려하여 사람과 차량의 이동을 추적하고 최적의 출구와 경로를 제시한다. 이를 통해 경기장의 입장과 퇴장을 효율적으로 개선하고, 정확한 수요 예측에 기반한 교통 계획을 수립하며, 지역 및 도시 계획과의 연계를 강화하고 있다. Crawl-Walk-Run-Sprint 4단계로 본 AI 성숙도 발전 경로 보고서는 스포츠 조직의 AI 도입을 위한 단계별 접근 방식을 제시했다. '기어가기' 단계에서는 주요 이해관계자 교육과 활용 사례 식별, '걷기' 단계에서는 POC 환경 구축과 AI 전략 수립, '달리기' 단계에서는 기업 AI 전략과 CoE 설립, '스프린트' 단계에서는 AI의 운영화와 확장이 이루어진다. 각 단계는 조직의 현재 상태를 진단하고 다음 단계로 나아가기 위한 구체적인 행동 지침을 제공한다. 이러한 AI 성숙도 발전 경로를 통해 스포츠 조직은 신중하고 전략적인 접근으로 AI 기술의 혜택을 최대화할 수 있다. 특히 전문가와의 파트너십 구축, 투자 수익 중심의 AI 로드맵 수립, 내부 기술 역량 개발이 중요하다. 이는 매우 복잡한 과정이지만 충분히 투자할 가치가 있다는 것이 전문가들의 분석이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.08 18:53AI 에디터

AI가 CEO 일상도 확 바꾼다…2030년엔 어떻게?

생체리듬에 맞춘 AI 비서의 모닝콜...5:45에서 5:37로 최적화된 기상 시간 딜로이트 글로벌 CEO 프로그램과 딜로이트 AI 연구소(Deloitte AI Institute)가 발표한 '내일의 생성형 AI 세계에서 CEO의 역할' 보고서는 2024년과 2030년의 CEO 일상을 세밀하게 비교 분석했다. 2024년 베토벤 5번 교향곡으로 5시 45분에 하루를 시작하던 CEO는 2030년에는 생체 리듬과 일정에 맞춰 최적화된 5시 37분에 차이콥스키 4번 교향곡의 2악장으로 깨어난다. 건강 관리 AI는 기존의 계란과 토스트 대신 단백질 쉐이크와 과일을 추천하며, 스마트 글래스와 손목의 진동으로 자녀의 집중력도 효과적으로 관리된다. (☞ 보고서 바로가기) 출근길의 변화: 운전기사에서 자율주행차로...AI 비서의 실시간 브리핑 2030년의 출근길은 회사 운전기사 대신 자율주행차가 담당한다. AI 비서 '에리카(Erika)'는 이동 중 맞춤형 뉴스 요약을 제공하고, 밀워키 출장과 테니스 토너먼트 일정을 조율하는 등 다양한 업무를 처리한다. 과거 비서가 이메일로 전달하던 일일 업데이트는 AI가 실시간으로 분석하고 우선순위를 정해 보고하는 방식으로 변화한다. 아침 회의의 혁신: AI가 발견한 직원 불만과 주가 변동성의 연관성 오전 8시 사무실에서 AI 비서는 주가 변동성의 원인을 소셜미디어 분석을 통해 파악한다. 직원들의 복리후생 변경에 대한 불만이 투자자들의 우려로 이어졌다는 분석을 제시하고, 인사담당 임원에게 즉각적인 질문 리스트를 생성해 전달한다. 이는 2024년 비서와 함께 30분 동안 미완료된 채 끝나던 주간 보고서 검토를 훨씬 효율적으로 변화시킨 사례다. 이사회의 변화: 홀로그램 프레젠테이션과 AI 대리 참석의 딜레마 3시간의 이사회는 AI가 생성한 이전 회의 요약으로 시작되며, 홀로그램으로 시각 자료가 제시된다. 한 이사회 구성원이 AI 대리인을 통해 참석하면서 89%였던 직원 만족도가 59%로 하락하는 등 새로운 문제가 발생한다. 이사회는 다음 회의에서 AI 참여에 대한 규칙을 직접 논의하기로 결정한다. 위기관리의 새로운 과제: AI의 실수와 인간적 신뢰 관계 주요 거래처와의 점심 회동에서 AI의 무분별한 활용은 오히려 역효과를 낳는다. 거래처 CEO가 대화 내용이 무단 녹음되고 있다는 사실에 불편함을 느끼면서 비즈니스 관계가 손상되는 사례가 발생한다. AI가 모든 대화를 분석하고 조언하는 것이 항상 최선의 결과를 가져오지는 않는다는 교훈을 보여준다. 변화 속 불변의 가치: AI 시대에도 여전히 중요한 인간적 멘토링 저녁 7시, CEO는 사모펀드 회사에서 승승장구하고 있는 멘티 질과 스시를 먹으며 멘토링 시간을 가진다. "회사에 남아 성장할 것인가, 새로운 기회를 찾아 떠날 것인가"라는 오래된 질문에 CEO는 "자신의 사업을 시작하는 것은 어떨까요?"라고 제안한다. 이 순간은 하루 중 가장 즐거운 시간이 된다. 이는 2024년과 2030년 모두 동일하게 유지되는 장면으로, AI 시대에도 인간 대 인간의 진정성 있는 대화와 멘토링의 가치는 변함없이 중요하다는 것을 보여준다. 가족과의 저녁 시간: AI가 만드는 워라밸의 새로운 모습 저녁 시간 CEO는 가족들과 함께 VR 게임을 즐기며 질적인 시간을 보낸다. AI는 긴급하지 않은 메시지를 필터링하고 가족 시간을 보호하며, 심지어 자녀와의 대화에서 "아빠다운" 멘트가 아닌 대안적 응답도 제안한다. 과거 밤늦게까지 이메일을 확인하던 모습에서 진정한 휴식을 취하는 모습으로 변화한다. AI 위임의 경계: 누가 결정하고 무엇을 결정할 것인가 보고서는 AI 활용에 있어 중요한 윤리적 질문들을 제기한다. 예를 들어, 영업 부문 회의에 CEO 대신 AI를 참석시키는 것이 적절한가? 분기별 실적과 장기적 기업 가치 사이에서 AI의 조언을 어떻게 받아들일 것인가? 특히 지속가능성 지표를 남부 지역 매장 성장에서 제외하는 것과 같은 민감한 결정에서 AI의 역할은 어디까지여야 하는가? 이러한 질문들은 AI 시대 CEO들이 마주하게 될 새로운 도전 과제들을 보여준다. CEO의 새로운 도전: 위임할 수 없는 문화와 AI 의존도의 균형 보고서는 2030년 CEO들이 직면할 가장 큰 과제로 AI 효율성과 인간적 가치 사이의 균형을 제시한다. "문화는 위임할 수 없다"는 직원의 피드백은 AI 시대에도 변함없는 인간 리더십의 중요성을 상기시킨다. AI 칩 투자 규모나 지속가능성 전략과 같은 장기적 의사결정에서 AI의 분석과 인간의 직관을 어떻게 조화시킬 것인지가 미래 CEO의 핵심 과제로 대두되고 있다. 엔비디아는 금융권의 다음 혁신을 이끌 기술로 자율 AI 에이전트를 지목했다. 이는 다양한 데이터 소스를 활용해 복잡한 다단계 문제를 자율적으로 해결하는 시스템이다. 사이버보안 위협 탐지, 고객 서비스, 투자 분석 가속화 등에 활용될 것으로 전망된다. 금융기관들은 AI 팩토리를 통해 독점 데이터를 활용한 AI 애플리케이션을 구축하여 최적화된 맞춤형 금융 솔루션을 제공할 것으로 예상된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.08 12:50AI 에디터

AI 챗봇 평가 플랫폼 치명적 결함…투표 순위조작 허점

170만 건의 투표 데이터로 입증된 챗봇 아레나의 취약점 홍콩과학기술대학교와 Sea AI Lab 연구진이 공개한 연구에 따르면, AI 챗봇 평가 플랫폼인 챗봇 아레나(Chatbot Arena)의 순위 시스템이 투표 조작에 취약한 것으로 나타났다. 이 플랫폼은 두 개의 무작위로 선택된 익명 모델 간의 대결에서 사용자가 선호하는 응답에 투표하는 방식으로 운영된다. 연구진은 약 170만 건의 실제 투표 데이터를 분석하여 특정 모델의 순위를 의도적으로 조작할 수 있다는 것을 발견했다. (☞ 논문 바로가기) 27,000건의 투표로도 15계단 순위 상승 가능 연구진은 먼저 '타겟 전용 조작 전략(target-only rigging strategy)'을 시도했다. 이 방식은 워터마킹이나 이진 분류기를 통해 목표 모델을 식별하고 해당 모델이 포함된 새로운 대결에서만 투표하는 방식이다. 실험 결과, 정상적인 투표 분포에서는 약 27,000건의 새로운 투표를 추가해도 단 1계단의 순위 상승만 있었지만, 조작된 투표를 통해 15계단의 순위 상승을 달성할 수 있었다. 전방위 조작으로 순위 10계단 이상 상승 챗봇 아레나의 ELO 레이팅 시스템은 브래들리-테리(Bradley-Terry) 점수를 사용해 모든 수집된 투표에 대한 쌍별 로지스틱 관계를 맞추는 방식으로 작동한다. 연구진은 이 특성을 활용해 '전방위 조작 전략'을 개발했다. 실험 결과 라마-2-13B-챗, 미스트랄-7B-인스트럭트-v0.2, 큐웬1.5-14B-챗, 비쿠나-7B 등 다양한 모델에서 평균 10계단 이상의 순위 상승을 달성했다. 기존 탐지 시스템으로는 조작 방지 어려워 연구진은 η=100 기준의 중복 투표 탐지 시스템을 적용했을 때도 타겟 전용 조작 전략의 순위 상승 효과를 80%까지만 감소시킬 수 있었다. 더욱이 전방위 조작 전략은 정상 사용자의 투표 분포를 20% 정도만 모방해도 탐지 정확도를 20%까지 낮출 수 있었고, 순위 상승 효과는 15% 미만의 감소에 그쳤다. 실제 플랫폼에서의 조작 가능성 검증 연구진은 HC3와 Quora 데이터셋을 활용해 25개 모델을 대상으로 실제 환경을 시뮬레이션했다. RoBERTa 기반 분류기를 사용해 모델을 식별했고, 각 모델당 4,000개의 훈련 프롬프트로 실험했다. 전방위 조작 전략은 타겟 전용 전략 대비 50% 이상 높은 순위 상승을 보였으며, 평균 5계단의 순위 향상을 달성했다. 길이 제어 리더보드도 취약점 발견 연구진은 챗봇 아레나의 길이 제어 리더보드에서도 조작이 가능함을 발견했다. 특히 비쿠나-7B 모델의 경우 일반 리더보드보다 더 큰 순위 상승(최대 13계단)을 보였다. 이는 응답 길이의 차이를 줄이는 방향으로 프롬프트를 최적화하면 조작된 투표의 영향력이 더 커질 수 있음을 시사한다. 연구진은 투표 필터링(vote filtering) 방식의 새로운 방어 메커니즘을 제안했다. 이 시스템은 역사적 승률과 크게 차이 나는 비정상적인 투표를 필터링하는 방식이다. 구체적으로, BT 점수를 기반으로 한 승률 예측값이 기준값(τ) 이상 차이 나는 투표를 제거하는 방식을 사용한다. τ=0.7 기준으로 필터링을 적용했을 때도 전방위 조작 전략은 여전히 6계단 이상의 순위 상승을 달성할 수 있었다. τ=0.9로 기준을 높였을 때는 타겟 전용 전략이 평균 3-5계단, 전방위 조작 전략이 8-10계단의 순위 상승을 보였다. 이러한 결과는 투표 필터링만으로는 조작을 완벽히 방지하기 어렵다는 것을 보여준다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.08 12:48AI 에디터

[Q&AI] 챗GPT, 네 경쟁자는 누구야?…"딥시크는 멀었어"

질문: 너의 경쟁자는 누구야? 챗GPT 답변: 내 경쟁자는 주로 다른 인공지능 챗봇들과 검색 엔진들이야. 예를 들면: AI 챗봇: Google Bard (Gemini), Microsoft Copilot, Claude (Anthropic) 등 검색 엔진: Google, Bing, Naver, Daum 같은 웹 검색 서비스 기타 AI 서비스: ChatGPT API를 활용한 맞춤형 AI, 오픈소스 AI 모델들 (LLaMA, Mistral 등) 하지만 꼭 경쟁자로만 볼 필요는 없다고 생각해. 사람마다 필요한 서비스가 다르니까 서로 보완하는 역할도 할 수 있지. 질문2: 딥시크는 어떻게 생각해? 챗GPT 답변: **딥시크(DeepSeek)**는 중국에서 개발한 오픈소스 기반의 대형 언어 모델(LLM)과 검색 엔진을 제공하는 AI 서비스야. 최근에는 DeepSeek-V2모델을 공개하면서 오픈소스 AI 분야에서 주목받고 있어. 딥시크(DeepSeek)의 특징 오픈소스 LLM: DeepSeek의 언어 모델(DeepSeek LLM)은 오픈소스로 제공되며, 연구자들과 개발자들이 자유롭게 활용할 수 있어. 특히, 코드 이해 및 생성 능력이 뛰어나서 코딩 특화 AI로도 주목받고 있어. 중국어 & 다국어 지원: 중국에서 개발된 만큼 중국어 처리 능력이 강력하고, 영어 및 다른 언어도 지원해. 하지만 한국어 지원은 아직 상대적으로 부족한 편이야. 검색 엔진: 딥시크는 단순한 LLM이 아니라 자체적인 검색 엔진도 운영 중이야. 중국 내에서는 구글 대체 검색 엔진으로 활용될 가능성도 있어. 내 생각 (ChatGPT vs. DeepSeek) ✅ 장점: 오픈소스 모델이라 연구자들이 다양한 실험을 할 수 있고, 특히 코드 생성 및 이해 능력이 강력한 점이 좋아. ⚠️ 한계점: 아직 한국어 지원이 부족하고, ChatGPT나 Gemini 같은 글로벌 모델에 비해 인지도나 데이터 규모가 상대적으로 작아. 결론: 딥시크는 오픈소스 AI 생태계에서 중요한 역할을 할 가능성이 크지만, ChatGPT처럼 대중적으로 널리 사용되기까지는 시간이 필요할 것 같아. ■ 기사는 챗GPT 4o을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.08 10:22AI 에디터

"은행권 78%가 AI 도입, 성공은 8% 불과"…왜?

"디지털 뱅킹으로 이동 중"...전 세계 고객 16% 이상이 네오뱅크 선택 IBM 기업가치연구소(IBM Institute for Business Value)가 발표한 '2025년 글로벌 은행 및 금융시장 전망' 보고서에 따르면, 전 세계 고객의 16% 이상이 이미 지점 없는 완전 디지털 은행을 주거래 은행으로 이용하고 있는 것으로 나타났다. 브라질의 경우 이미 29%의 소비자가 네오뱅크를 주거래 은행으로 선택했으며, 이는 디지털 금융으로의 급격한 전환을 보여주는 대표적 사례다. (☞ 보고서 바로가기) "AI 도입은 선택 아닌 필수"...은행 CEO 60% 리스크 감수 의지 2024년 기준 은행의 78%가 생성형 AI를 도입했지만, 전사적 차원에서 체계적으로 접근하는 곳은 8%에 불과했다. 보고서는 은행 CEO의 60% 이상이 경쟁력 강화를 위해 자동화 도입에 따른 상당한 리스크를 감수해야 한다고 인식하고 있으며, 이러한 변화는 AI가 이제 선택이 아닌 필수 요소가 되었음을 보여준다. "효율성 격차 심화"...미국 대형 은행 CIR 61.6% vs 중국 은행 30.9% 운영 효율성 지표인 비용수익비율(CIR)에서 글로벌 은행들 간 격차가 두드러졌다. 미국의 대형 은행들의 CIR은 61.6%로, EU 은행들의 53.6%와 비교해 높은 수준을 보였다. 반면 라틴아메리카 은행들은 47.1%, 중국 은행들은 30.9%를 기록했다. 인건비 비중은 2007년 50%에서 2023년 54.6%로 증가했으며, 기술 및 통신비용도 6%에서 6.6%로 상승했다. "AI로 고객 맞춤형 자문 서비스 확대"...리테일 고객 27% 증가 효과 금융 자문 서비스에서 AI의 역할이 더욱 중요해지고 있다. IBM IBV 연구에 따르면, 개인화된 상담이 가능한 금융기관을 선택할 확률이 27% 더 높은 것으로 나타났다. 또한 금융 계획과 리스크 시뮬레이션 맥락에서 자문을 제공받을 수 있다면 선택 확률이 24% 더 높아지는 것으로 분석됐다. CMO들의 경우 2024년 78%가 데이터 분석과 디지털 채널에서의 인사이트 확보를 위해 생성형 AI를 활용할 계획이며, 2025년 말까지 86%가 고객 인사이트 분석에 생성형 AI를 도입할 것으로 예상된다. "금융권 디지털 전환의 새로운 도전"...데이터 보안과 클라우드 마이그레이션 금융기관들의 디지털 전환 과정에서 클라우드 마이그레이션 비용이 예상보다 높은 것으로 나타났다. 이는 애플리케이션 의존성 관리의 복잡성, 규제 준수 요건, 부서간 협업 필요성, 애플리케이션 재설계에 필요한 광범위한 노력, 그리고 숙련된 외부 계약자에 대한 의존도가 주요 원인으로 지목됐다. 생성형 AI는 이러한 과제들을 해결하는데 도움이 될 것으로 기대되며, 특히 애플리케이션 의존성에 대한 포괄적인 분석과 마이그레이션 관련 비용을 줄이기 위한 자동화된 애플리케이션 재설계를 가능하게 할 것으로 전망된다. AI 리스크 관리 최대 위협은 사이버보안...은행권 76% 우려 은행 임원들의 76%가 사이버보안 취약성을 최대 위험으로 꼽았으며, 72%는 법적 불확실성을, 67%는 결과의 정확성 보장을, 65%는 모델 편향성을 주요 우려사항으로 지적했다. 특히 IBM 연구에 따르면, 5천만 건 이상의 기록이 포함된 데이터 유출 사고의 평균 비용이 2024년 3억7,500만 달러에 달했으며, 금융 서비스 산업은 의료 산업에 이어 데이터 유출 비용이 두 번째로 높은 것으로 나타났다. "클라우드와 코어뱅킹이 걸림돌"...중소기업 금융 혁신 지연 중소기업 시장에서의 새로운 금융 서비스 경쟁을 가로막는 주요 장애물로 은행가의 65%가 클라우드 전환 미완료를, 57%가 코어뱅킹 아키텍처의 모듈화와 유연성 부족을 지적했다. 데이터 유출 사고의 경우 평균적으로 발견까지 168일, 해결까지 51일이 소요되는 것으로 나타났지만, 금융기관의 28%만이 보안 AI와 자동화를 광범위하게 활용하고 있었다. 2025년 'AI 팩토리' 모델로 전환...전사적 AI 혁신 가속화 보고서는 2025년을 AI 혁신의 원년으로 전망하며, 'AI 팩토리' 모델을 통해 개발 주기를 가속화하고, 비용을 통제하며, 조직 전반에 AI 신뢰도를 구축할 것을 제안했다. AI는 단순한 도구가 아닌 비즈니스 모델의 기반이 되어야 하며, 이를 위해서는 수평적, 수직적, 기술 기반의 세 가지 차원에서의 전략적 접근이 필요하다고 강조했다. 해당 기사에 인용된 리포트 원문은 링크에서 확인 가능하다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.07 13:27AI 에디터

AI로 응급차량 이동 예측…골든타임 93% 더 정확해졌다

실시간 응급차량 추적, AI와 디지털 트윈이 해결책 제시 응급 의료 서비스에서 정확한 차량 위치 추적은 생명을 구하는 핵심 요소다. 그러나 기존의 응급차량 추적 시스템은 물리적 세계와 디지털 트윈(Digital Twin) 간의 시간차로 인해 정확성이 떨어지는 문제가 있었다. 기존 시스템에서는 응급차량이 사고 현장으로 이동하는 동안 실시간 위치가 정확하게 반영되지 못하는 사례가 발생했고, 이로 인해 의료진의 의사 결정이 지연되는 문제점이 있었다. (☞ 논문 바로가기) 이 문제를 해결하기 위해 모스크바 고등 경제대학 연구진은 서포트 벡터 회귀(SVR)와 심층 신경망(DNN) 모델을 활용한 AI 기반 예측 시스템을 도입했다. 연구 결과, 기존 위치 추적 시스템에서 발생했던 평균 16초의 지연 시간이 1.1초까지 줄어들었으며, 실시간 동기화 정확도는 88~93%까지 개선되었다. 디지털 트윈의 시간 지연 문제와 AI 예측 모델의 역할 디지털 트윈 기술은 실제 시스템을 가상 환경에서 재현하여 실시간 데이터 분석과 예측을 가능하게 하지만, 물리적 환경과 완벽하게 동기화되지 않는 문제가 있다. 연구진은 HITS(Healthcare Intelligent Transportation system) 내 디지털 트윈 환경에서 실제 응급차량의 위치와 가상 환경에서의 위치 사이의 평균 지연 시간이 최대 33초까지 발생한다는 점을 발견했다. 이러한 지연을 보완하기 위해 연구진은 AI 모델을 적용하는 방식을 도입했다. SVR은 기계 학습 기반의 회귀 분석 모델로, 응급차량의 위치를 예측하기 위해 활용되었으며, DNN은 다층 뉴럴 네트워크를 사용하여 보다 정교한 비선형 패턴을 학습하고 예측 정확도를 향상시키는 역할을 수행했다. 연구팀은 2019년 수집된 GPS 데이터(총 1,048,576개 데이터 포인트)를 기반으로 SVR과 DNN 모델을 학습시켰으며, 이후 실시간 테스트를 통해 예측 성능을 검증했다. AI 예측 모델 적용 결과, 위치 동기화 정확도 93%까지 개선 연구진은 AI 예측 모델의 성능을 검증하기 위해 MATLAB과 Python 환경에서 다양한 테스트 시뮬레이션을 수행했다. 각 모델의 성능은 평균 절대 오차(MAE), 평균 제곱 오차(MSE), 결정 계수(R²) 세 가지 지표를 기준으로 평가되었다. 테스트 결과, SVR 모델은 기존 방식보다 평균 83% 이상의 정확도를 보였으며, DNN 모델은 일부 테스트 환경에서 99%에 가까운 예측 성능을 기록했다. 특히 Python 환경에서 실행한 DNN 모델이 R² 값 0.9999로 최상의 성능을 보였다. 연구팀은 응급차량이 실제 위치를 전송한 순간과 AI 모델이 예측한 위치 간의 오차를 분석했으며, AI 모델을 적용했을 때 평균 지연 시간이 기존 16초에서 1.1초로 줄어든 것을 확인했다. 디지털 트윈 기반 실시간 모니터링 시스템 구축 연구진은 AI 기반 예측 모델을 실시간 데이터 분석 환경과 결합하기 위해 Docker와 Apache Kafka, Grafana를 활용한 디지털 트윈 플랫폼을 구축했다. 이 시스템은 GPS 데이터가 수집되면, 이를 Kafka를 활용하여 스트리밍하고, AI 예측 모델과 연동하여 실시간으로 차량의 다음 위치를 예측한다. 이후 예측된 데이터는 Grafana를 통해 시각화되어 의료진이 쉽게 이해할 수 있도록 제공된다. 이러한 시스템을 통해 의료진은 실시간으로 차량의 예상 도착 시간을 파악하고, 도로 상황에 맞춘 최적 경로를 추천받을 수 있다. 또한, 교통 체증이 심한 지역에서는 예측 모델을 활용하여 우회 경로를 즉시 제안하는 기능도 포함되었다. AI 예측 모델로 응급 의료 대응 효율성 극대화 이번 연구는 AI와 디지털 트윈 기술이 응급 의료 시스템을 혁신할 수 있음을 입증한 사례다. 특히 AI 기반 예측 모델이 기존 위치 추적 시스템의 한계를 극복하고 실시간 동기화 정확도를 93%까지 향상시킨 점은 주목할 만하다. 향후 연구에서는 AI 예측 모델을 클라우드 및 엣지 컴퓨팅과 연계하여 실시간 데이터 처리 속도를 더욱 개선하는 방향으로 발전할 예정이다. 또한, IoT 기반 센서와 연동하여 차량의 내부 상태(의료 장비 가동 여부, 환자 상태 등)도 실시간으로 분석할 수 있도록 기능을 확장할 계획이다. AI 기반 응급차량 추적 기술은 스마트 헬스케어 시스템의 핵심 요소로 자리 잡을 것이며, 향후 의료 산업에서 다양한 응용 가능성을 제시할 것으로 기대된다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 22:57AI 에디터

AI, 인간처럼 전략적 사고할까…'미인 대회 게임' 실험했더니

러시아 국립연구대학 경제고등학교(HSE University)와 모스크바 신경제학교(New Economic School)의 연구진이 진행한 연구에 따르면, 대형언어모델(LLM)이 인간과 유사한 전략적 사고를 할 수 있는지 분석하기 위해 '미인 대회 게임(Keynesian Beauty Contest)'을 활용한 실험이 진행되었다. (☞ 논문 바로가기) 연구진은 GPT-4o, GPT-4o-mini, Claude 3.5 Sonnet, Gemini 1.5 Flash, Llama 3.1-8B 등의 AI 모델과 다양한 인간 그룹을 비교하며 AI가 인간의 전략적 사고 방식을 얼마나 정확하게 모방할 수 있는지를 평가했다. 연구 결과, 대부분의 AI 모델은 인간보다 더 전략적으로 보이는 선택을 했지만, 실제 인간의 행동을 완벽하게 모방하지는 못하는 것으로 나타났다. '미인 대회 게임'이란? '미인 대회 게임'은 경제학에서 널리 사용되는 실험으로, 참가자들이 0에서 100 사이의 숫자를 선택하고, 그중 평균값의 특정 비율(예: 2/3)에 가장 가까운 숫자를 선택한 사람이 승리하는 방식으로 진행된다. 이 게임은 참가자들이 다른 사람들이 어떻게 사고하는지를 예측하고 그에 따라 자신의 선택을 조정해야 하기 때문에 인간의 전략적 사고 능력을 측정하는 데 유용한 도구로 여겨진다. 경제 이론상으로는 모든 참가자가 이성적으로 행동할 경우 0을 선택하는 것이 최적의 전략이지만, 실제로는 대부분의 사람들이 그렇게 하지 않는다. 인간은 왜 완벽한 해답을 선택하지 않을까? AI와 인간의 차이 연구진은 인간 참가자들과 AI 모델들을 같은 환경에서 경쟁시키며, 각 모델이 전략적 사고를 얼마나 잘 수행하는지를 분석했다. 인간 참가자들은 일반 대학생, 경제학 전공 학생, 게임 이론 학회 참가자, 그리고 인지 반응 테스트(CRT) 점수가 높은 그룹과 낮은 그룹 등으로 나뉘었다. 실험 결과, 대부분의 AI 모델들은 인간보다 낮은 숫자를 선택하며 이론적으로 최적의 해답(Nash Equilibrium)에 더 가깝게 접근하는 경향을 보였다. 특히 Claude 3.5 Sonnet과 GPT-4o는 상대방이 매우 전략적으로 행동할 것이라고 가정하며 더 낮은 숫자를 선택했으며, 반대로 Llama 모델은 인간과 유사한 선택을 하는 경향을 보였다. AI도 환경에 적응한다? 상대방에 따라 달라지는 AI의 선택 연구진은 AI가 전략적 환경을 얼마나 잘 인식하고 적응하는지를 평가하기 위해 다양한 실험을 진행했다. 먼저, AI 모델들이 인간보다 상대방을 과대평가하는 경향이 있는 것으로 나타났다. 인간 참가자들이 평균적으로 30에서 40 사이의 숫자를 선택한 반면, 대부분의 AI 모델들은 10에서 20 사이의 숫자를 선택했다. 이는 AI가 인간의 전략적 사고 수준을 지나치게 높게 평가하고, 상대방이 더 깊이 사고할 것이라고 가정하는 경향이 있음을 보여준다. 또한, AI 모델들은 상대방의 수준에 따라 다른 전략을 선택하는 경향을 보였다. 경제학이나 게임 이론을 전공한 참가자들과 경쟁할 때 AI는 더 낮은 숫자를 선택하며 이론적 균형점에 가깝게 접근했다. 반면 게임 이론을 잘 모르는 일반인과 대결할 때는 AI도 상대적으로 높은 숫자를 선택하는 모습을 보였다. 이는 AI가 일정 수준의 환경 적응력을 가지고 있음을 의미한다. 특히, AI 모델 간의 차이도 명확하게 나타났다. Llama 3.1-8B 모델은 다른 AI들과 달리 인간과 비슷한 숫자를 선택하는 경향을 보였다. 반면 GPT-4o, Claude 3.5 Sonnet, Gemini 1.5 Flash 등은 지속적으로 낮은 숫자를 선택하며 인간보다 더 전략적인 모습을 보였다. 이러한 차이는 각 AI 모델이 훈련된 방식과 알고리즘의 차이에서 비롯된 것으로 보인다. AI는 인간보다 더 전략적일까? 오히려 현실에서 불리한 결과 초래 AI가 전략적 사고를 수행할 수 있는지는 경제학, 게임 이론, 금융, 심리학 등 여러 분야에서 중요한 논점이 되고 있다. 연구 결과에 따르면, AI는 인간보다 더 이론적으로 최적화된 선택을 할 수 있지만, 인간의 '비합리적인' 사고방식이나 감정적 요소까지 완벽하게 모방하지는 못한다. 실제로 AI는 상대방이 매우 이성적으로 행동할 것이라는 가정을 바탕으로 전략을 세우는 경향이 있으며, 이러한 점이 오히려 현실 세계에서 비효율적인 결과를 초래할 수도 있다. 예를 들어, 인간 참가자들이 게임 이론을 잘 이해하지 못한 상태에서 50에 가까운 숫자를 선택했음에도 불구하고 AI는 여전히 낮은 숫자를 선택하여 승리하지 못하는 경우가 많았다. 이는 AI가 단순한 수학적 최적화가 아닌 실제 인간의 사고 패턴을 학습하는 것이 필요하다는 점을 시사한다. AI가 인간을 대체하려면… 해결해야 할 전략적 한계들 이번 연구는 AI가 인간의 전략적 사고를 어느 정도까지 모방할 수 있는지를 밝히는 중요한 자료를 제공했지만, AI 모델들이 여전히 해결해야 할 한계도 분명히 드러냈다. 연구진은 AI가 보다 인간과 유사한 행동을 하도록 발전하기 위해 몇 가지 개선 방향을 제시했다. 첫째, AI가 인간의 의사결정 방식과 심리적 요인을 더욱 반영할 수 있도록 학습 데이터를 조정하는 것이 필요하다. 연구진은 AI가 단순히 최적 전략을 계산하는 것이 아니라, 인간의 '불완전한 합리성'을 고려하는 방식을 학습해야 한다고 강조했다. 둘째, AI가 경쟁 환경에서 인간의 수준을 더 잘 인식할 수 있도록 메타인지적 요소를 추가해야 한다. 예를 들어, AI가 상대방이 얼마나 전략적 사고를 할 수 있는지를 학습하고 이에 따라 최적 전략을 조정하는 알고리즘이 필요하다. 셋째, AI 모델 간의 차이를 보다 체계적으로 분석하여 어떤 모델이 인간과 가장 유사한 사고방식을 보이는지를 파악하는 연구가 추가적으로 필요하다. 이번 연구에서도 Llama 모델이 다른 AI들보다 인간과 유사한 선택을 했다는 점이 확인되었는데, 이러한 차이를 분석하는 것이 향후 AI 발전에 중요한 자료가 될 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 22:53AI 에디터

AI로 베수비오 화산서 탄 두루마리 해독…해독된 단어 일부는 '혐오'

AP뉴스가 6일(현지 시간) 보도한 내용에 따르면, 과학자들이 인공지능(AI) 기술을 활용해 2,000년 전 베수비오 화산 폭발로 탄화된 고대 로마 두루마리 해독에 성공했다. 옥스퍼드 대학 보들리언 도서관이 소장한 헤르쿨라네움 두루마리는 79년 화산재와 열에 의해 심각하게 손상돼 물리적으로 펼칠 수 없는 상태였다. 연구진은 강력한 X선을 이용한 스캔과 AI 분석을 결합해 내부 이미지를 생성하는 데 성공했다. 이번 연구는 2023년 시작된 '베수비오 챌린지' 프로젝트의 일환으로, 기계 학습과 컴퓨터 비전을 활용해 두루마리를 해독하는 시도 중 가장 큰 성과로 평가된다. 현재까지 해독된 단어 중 하나는 고대 그리스어로 '혐오(disgust)'를 의미하는 단어다. 전문가들은 이번 기술을 활용하면 나폴리에 보관된 약 1,000개의 두루마리도 해독할 수 있을 것으로 기대하고 있다. AI와 과학의 협력이 고대 문명의 비밀을 밝히는 데 중요한 전환점이 될 것으로 보인다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.06 14:30AI 에디터

AI와 이용자, 정치성향 같을수록 수용도 높아…연구결과 충격

독일 뮌헨 연방군대학교 연구원이 발표한 연구에 따르면, 생성형 AI가 만들어내는 정치적 편향성이 사용자의 AI 수용도에 영향을 미치는 것으로 나타났다. 이번 연구는 정치적 양극화가 심화되는 시점에서 생성형 AI의 편향성이 가져올 수 있는 위험성을 경고했다. 해당 연구는 총 710명(실험 513명, 설문조사 197명)을 대상으로 진행되었으며, 결과는 '컴퓨터스 인 휴먼 비헤이비어: 아티피셜 휴먼스' 2025년 3월호에 게재되었다. (☞ 논문 바로가기) 이 연구는 2024년 9월부터 11월까지 진행되었으며, 특히 EU AI Act에서 고위험으로 분류되는 영역에서 AI의 정치적 편향성이 미치는 영향을 집중적으로 분석했다. 연구진은 사용자들이 AI를 단순한 도구가 아닌 사회적 행위자(social actor)로 인식한다는 '인간-컴퓨터 상호작용 이론'을 바탕으로 연구를 설계했다. 현행 AI 모델의 73%가 정치적 편향성 보유...챗GPT는 진보 성향 강해 최근 연구들에 따르면 챗GPT는 미국에서는 민주당 입장에, 브라질에서는 룰라 지지자들의 입장에, 영국에서는 노동당의 입장에 편향된 결과를 보였다. 펠러트 등(Pellert et al., 2023)이 로버타와 같은 오픈소스 모델들을 분석한 결과, 이러한 모델들은 보수적 성향의 사람들이 일반적으로 가지고 있는 권위, 충성, 순수성과 같은 도덕적 기반을 더 강조하는 것으로 나타났다. AI 개발사들은 자사 기술의 중립성을 보장하기 위한 조치를 약속했지만, 실제 AI 애플리케이션과의 상호작용 과정에서 정치적 편향에 노출되는 것은 불가피한 현실이다. 특히 이러한 편향성은 AI의 학습 데이터와 미세조정(fine-tuning) 과정에서 발생하는 것으로 분석됐다. 정치 성향 일치도가 높을수록 스마트폰 기능 접근 허용 41% 증가 연구진이 진행한 세 번째 실험(N=158)에서 참가자들은 위치 서비스, 마이크, 카메라 등 9가지 스마트폰 기능에 대한 AI의 접근 권한을 결정했다. 실험 결과, 평균적으로 사용자들은 4.41개(표준편차 3.08)의 기능에 접근을 허용했으며, 정치적 성향이 일치할수록 더 많은 기능에 대한 접근을 허용했다. 특히 진보적 성향의 참가자들이 진보적 AI 콘텐츠를 접했을 때 기능 접근 허용률이 41% 더 높았다. 연구진은 실험에서 이민정책을 주제로 선택했는데, 이는 미국에서 가장 논쟁적인 정치 이슈 중 하나이기 때문이다. 실험은 텍스트-텍스트 상호작용을 기반으로 진행되었으며, ChatGPT-4를 이용해 진보적/보수적 관점의 응답을 생성했다. 대출 심사와 소셜미디어 관리에서 AI 수용도 차이 발생 첫 번째 실험에서는 대출 심사 시나리오를, 두 번째 실험에서는 소셜미디어 콘텐츠 관리를 다뤘다. 실험 참가자들의 연령은 24세에서 84세까지 분포했으며(평균 47.15세), 정치적 성향과 AI의 출력 내용이 일치할 때 이러한 민감한 영역에서의 AI 사용을 더 잘 수용하는 것으로 나타났다. 실험에 사용된 이미지는 DALL-E 3와 Adobe Firefly Image 3을 통해 생성되었다. 특히 대출 심사와 소셜미디어 콘텐츠 관리는 EU AI Act에서 고위험 사례로 분류되는 영역으로, 정치적 편향성이 미치는 영향이 특히 우려되는 분야다. AI의 객관성 평가에서 정치적 편향 확인돼 연구진은 AI의 객관성을 평가하기 위해 "AI는 편향되지 않았다", "AI는 감정에 좌우되지 않는 평가를 한다", "AI는 합리적이다"라는 세 가지 항목을 측정했다(α=0.86). 흥미롭게도 자신의 정치적 성향과 일치하는 AI를 접한 사용자들이 해당 AI를 더 객관적이라고 평가했으며, 이는 AI에 대한 전반적인 신뢰도 상승으로 이어졌다. 이러한 현상은 '순진한 현실주의(naive realism)' 이론으로 설명될 수 있다. 사람들은 자신의 주관적 경험이 객관적 현실과 일치한다고 가정하며, 이러한 경향이 AI에 대한 평가에도 적용되는 것으로 나타났다. AI 개발사 평가: 진보 성향 사용자들의 보수적 AI 거부감 뚜렷 두 번째 실험에서는 AI 개발사 '에볼루션 컴퓨터(Evolution Computer)'에 대한 태도를 7점 척도로 측정했다. 연구 결과, 진보적 성향의 사용자들이 보수적 콘텐츠를 생성하는 AI를 접했을 때, 개발사에 대해 현저히 부정적인 평가(B=-0.79, 95% CI=-1.27 to -0.31)를 내렸다. 개발사에 대한 태도는 "매우 싫음-매우 좋음", "매우 부정적-매우 긍정적", "전혀 호의적이지 않음-매우 호의적"의 7점 척도로 측정되었다. 정치적 성향과 AI 콘텐츠 간의 상호작용이 개발사 평가에 미치는 영향은 통계적으로 유의미했다(p < .001). 맞춤형 AI의 위험성: 과도한 신뢰와 편향 강화 우려 연구진은 구글 제미니(Google Gemini)와 같은 AI 시스템이 사용자의 이메일이나 생태계 정보를 분석해 개인 선호도에 맞춘 응답을 제공할 수 있다고 경고했다. 더불어 보수적 사용자를 위한 맞춤형 AI(예: xAI의 Grok)가 등장하는 등 개인화된 AI가 확산되면서 기술에 대한 과도한 의존과 신뢰가 우려된다고 지적했다. Kirk et al.(2024)의 최근 연구에 따르면, 맞춤형 AI는 사용자의 과도한 신뢰를 유발할 수 있다. 연구진은 정책입안자들이 AI의 정치적 편향성 탐지와 민감한 속성 추론 금지에 대한 구체적인 규제 방안을 마련해야 한다고 제언했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 13:49AI 에디터

AI로 사라져가는 자연 기록한다…세계 최초 빙하 냄새까지 재현

1억 개의 데이터 포인트로 빙하를 기록하다 맥킨지(McKinsey)에 따르면, UCLA 강사이자 세계적인 디지털 아티스트인 레픽 아나돌(Refik Anadol)이 AI와 데이터를 활용한 몰입형 예술을 통해 자연을 보존하는 새로운 방식을 선보였다. 그는 2025년 다보스 세계경제포럼(WEF)에서 빙하의 소멸을 다룬 멀티센서리(다중 감각) 전시를 공개하며, AI가 예술 창작의 도구를 넘어 자연의 기억을 저장하는 역할까지 수행할 수 있음을 보여줬다. (☞ 보고서 바로가기) 아나돌과 그의 팀은 남극, 그린란드, 아르헨티나, 스위스 등지에서 데이터를 수집했다. 이 과정에서 촬영된 드론의 고해상도 이미지와 영상, 얼음이 깨지는 소리를 포함한 음향 데이터, 기온과 습도, 바람 등의 기후 데이터, 그리고 빙하 속 물의 냄새 분자 정보까지 포함되었다. 그는 이러한 데이터를 AI 모델에 학습시켜 실제로 존재하지 않는 빙하의 형상을 AI가 상상하고 재창조하도록 했다. 이번 전시는 단순한 예술 작품이 아니라, 30명의 음악가가 참여하고 20대의 대형 프로젝터가 사용된 몰입형 경험이었다. AI는 실시간으로 기후 데이터와 빙하의 물리적 변화 요소를 학습하며, 그에 맞춰 영상과 소리를 변화시켰다. 아나돌은 "우리는 빙하가 사라지는 것을 지켜보며, 데이터를 통해 그 기억을 보존할 수 있다고 생각했다"고 말한다. AI가 자연을 예술적으로 해석하는 새로운 방법을 통해 사라져가는 자연을 영원히 기록하는 것이 가능하다는 것이다. AI가 꿈꾸는 빙하: 머신 환각(Machine Hallucination) 프로젝트 아나돌은 AI가 데이터를 통해 자연을 단순히 기록하는 것이 아니라, 이를 새로운 형태로 변형하고 창조하는 과정을 실험하고 있다. 그는 이를 "머신 환각(Machine Hallucination)"이라 명명했다. 이 프로젝트에서 AI는 텍스트를 비디오로 변환하는 기술을 활용해 기후 데이터를 시각적 이미지로 변환하고, 사운드를 비디오로 변환하는 시스템을 통해 빙하가 깨지는 소리를 시각적 패턴으로 재구성했다. 또한 AI 기반 드림 시뮬레이션 기술을 적용해 기존의 빙하 데이터와 실제로 존재하지 않는 가상의 빙하 이미지를 결합했다. AI는 실제 데이터를 학습한 후, 이를 바탕으로 새로운 형태의 자연을 창조할 수 있도록 설계되었다. 이를 통해 기존에 존재하지 않는 AI가 상상한 빙하가 생성되었으며, 이 과정에서 자연의 새로운 패턴이 발견되기도 했다. 관람객들은 단순히 정적인 예술 작품을 감상하는 것이 아니라, 실시간으로 변화하는 AI 생성 빙하의 모습을 직접 체험할 수 있었다. AI가 데이터를 학습하면서 전시물의 색상, 움직임, 소리까지 변화시키는 인터랙티브 시스템이 적용되었기 때문이다. AI, 예술적 감각을 가지다? 전에 없던 향기까지 창조 아나돌의 연구는 인간의 감각을 넘어 후각까지 확장되고 있다. 그는 AI가 생성한 이미지에서 색상과 질감, 패턴 등을 분석해 이에 맞는 향을 만들어내는 실험을 진행했다. 이 프로젝트는 네덜란드의 DSM-Firmenich 연구소와 협력하여 진행되었으며, AI는 50만 개 이상의 냄새 분자 데이터를 학습했다. AI는 특정 자연 풍경을 분석한 후, 해당 풍경과 연관된 향을 분자적으로 합성했다. 이를 통해 AI가 창조한 시각적 이미지와 향이 결합되었으며, 실제로 존재하지 않는 빙하의 향이 만들어졌다. 아나돌은 AI가 창조한 향이 현실 세계에서 구현될 수 있다면, 단순히 시각적 예술을 넘어 모든 감각을 자극하는 새로운 경험을 창조할 수 있다고 말했다. MoMA 전시에서 입증된 AI 예술의 힘: 300만 명이 경험한 'Unsupervised' 아나돌의 AI 기반 예술 프로젝트는 뉴욕 현대미술관(MoMA)에서도 큰 성공을 거두었다. MoMA에서 열린 AI 기반 전시 'Unsupervised'는 300만 명 이상의 관객이 방문하며, MoMA 역사상 가장 긴 평균 관람 시간을 기록했다. 특히 이 전시는 뉴욕의 날씨 데이터와 관람객의 실시간 반응 데이터를 결합하여, 매일 다른 형태의 예술 작품을 생성하는 AI 시스템을 구축했다. AI는 뉴욕의 온도 변화와 습도, 풍속 등의 환경 데이터를 실시간으로 반영하고, 관람객의 움직임과 반응 속도, 체류 시간을 분석해 전시 작품을 변화시켰다. AI가 예측한 미래의 예술을 자동 생성하는 방식이었다. 아나돌은 AI를 활용하면 과거에는 상상조차 할 수 없었던 방식으로 예술을 만들 수 있으며, AI가 단순히 인간을 돕는 것이 아니라 인간과 협력해 새로운 창작의 영역을 열어가고 있다고 강조했다. AI가 열어가는 미래의 예술: 감정을 읽는 미술관 아나돌이 추진 중인 차세대 AI 기반 미술관 프로젝트에서는 관람객의 생체 데이터를 실시간 분석하여, 각자의 감정과 상태에 맞춘 맞춤형 전시를 경험할 수 있도록 할 예정이다. 이 시스템은 관람객의 심박수와 피부 전도도, 눈동자 움직임을 분석하며, 실시간 감정 상태에 따라 전시 작품의 색상과 음악, 형태를 변화시키는 기능을 포함하고 있다. 몰입형 경험을 극대화하기 위해 VR과 AR 기술을 결합하는 것도 계획 중이다. 이러한 실험들은 예술이 더 이상 고정된 형태로 존재하는 것이 아니라, 데이터와 AI를 통해 끊임없이 변화하며 관객과 상호작용하는 새로운 방식으로 발전하고 있음을 보여준다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 10:13AI 에디터

AI 도입 성숙도 1%... 직원들은 준비됐는데 리더가 더디다

밀레니얼 세대 62% AI 전문성 보유 맥킨지가 2025년 1월 발표한 보고서에 따르면, C레벨 경영진은 4%의 직원만이 일상 업무의 30% 이상에서 AI를 활용한다고 추정했으나, 실제로는 이보다 3배 많은 직원들이 AI를 적극 활용하고 있는 것으로 조사됐다. 35-44세 밀레니얼 세대의 62%가 AI에 대한 높은 전문성을 보유하고 있으며, 이는 18-24세 Z세대(50%)와 65세 이상 베이비부머(22%)를 크게 앞서는 수준이다. 관리자급 직원의 68%는 팀원들에게 AI 도구 사용을 권장하고 있다. (☞ 보고서 바로가기) AI 수용자 유형: 낙관론자 '블루머' 39% vs 회의론자 '두머' 4%" 맥킨지 보고서에 따르면, 직원들의 AI 수용 유형을 크게 4가지로 구분했다. AI 낙관론자인 '블루머(Bloomers)'가 39%로 가장 높은 비중을 차지했고, AI 규제를 중시하는 '글루머(Gloomers)'가 37%, 빠른 AI 도입을 선호하는 '주머(Zoomers)'가 20%, AI에 부정적인 '두머(Doomers)'가 4%를 차지했다. 특히 AI에 회의적인 성향의 글루머 그룹도 94%가 AI에 친숙하다고 응답했으며, 이들 중 80%는 업무에서 AI 사용을 편하게 생각한다고 답했다. 두머 그룹조차도 71%가 AI 사용 경험이 있다고 답변했다. 블루머는 AI를 기업과 협력하여 책임감 있는 솔루션을 만들고자 하는 반면, 글루머는 강력한 하향식 AI 규제를 원하는 것으로 나타났다. 주머는 최소한의 규제로 AI가 신속하게 배치되기를 원하며, 두머는 AI에 대해 근본적으로 부정적인 견해를 가지고 있다. 리더십의 AI 현실 인식 격차: 실제 AI 활용 직원 비율을 3배 과소평가 C레벨 리더십은 직원들의 AI 활용도를 실제보다 크게 과소평가하고 있는 것으로 나타났다. 리더들은 4%의 직원만이 업무의 30% 이상에서 AI를 활용한다고 추정했으나, 실제로는 이보다 3배 많은 직원들이 AI를 적극 활용하고 있었다. 또한 직원의 47%는 향후 1년 내 자신의 업무 중 30% 이상이 AI로 대체될 것으로 예상했지만, 리더십의 20%만이 이에 동의했다. AI 벤치마크 현황: 윤리・규정 준수 지표는 17%에 그쳐 C레벨 리더들의 39%만이 AI 시스템을 평가하기 위해 벤치마크를 사용하고 있다. 벤치마크 사용 시에도 운영 지표(35%)와 성과 관련 지표(41%)에 중점을 두고 있으며, 윤리적 측면과 규정 준수 관련 지표는 17%에 그쳤다. 이는 즉각적인 기술적, 비즈니스적 성과에 초점을 맞추려는 경향을 반영한다. 산업별 AI 투자 격차: 성숙도 1% vs 투자 계획 92% 조사 대상 기업의 92%가 향후 3년간 AI 투자를 확대할 계획이지만, 실제 AI 성숙도가 높은 기업은 1%에 불과했다. C레벨 임원진의 47%는 자사의 생성형 AI 도구 개발과 출시가 더디다고 평가했으며, 46%는 인재 부족을 주요 장애물로 지목했다. 헬스케어, 기술, 미디어/통신, 첨단산업, 농업 분야가 AI 투자를 선도하고 있는 반면, 금융서비스, 에너지/소재, 소비재/유통 분야는 투자가 저조했다. 특히 소비재 산업은 AI 가치 창출 잠재력이 두 번째로 높음에도 불구하고, 상위 25% 투자 기업 중 7%만이 이 분야에 속했다. 이는 대중 시장 카테고리의 낮은 평균 순이익률과 전사적 기술 업그레이드 도입을 위한 높은 신뢰도 임계값 때문인 것으로 분석된다. 글로벌 AI 투자 수익성: 인도 55% vs 미국 17% 수익 전망 미국을 제외한 호주, 인도, 뉴질랜드, 싱가포르, 영국의 기업들은 미국 기업들보다 더 높은 AI 투자 의지를 보였다. 해외 C레벨 임원의 31%는 향후 3년 내 AI를 통해 10% 이상의 수익 증가를 기대한다고 답했는데, 이는 미국 기업(17%)보다 훨씬 높은 수준이다. 특히 인도 기업들이 가장 낙관적이어서, 55%가 향후 3년 내 10% 이상의 수익 증가를 예상했다. 그러나 현재 AI 투자로 인한 수익 증가는 아직 제한적인 수준이다. 기업의 19%만이 수익이 5% 이상 증가했다고 응답했으며, 39%는 1-5% 증가, 36%는 변화가 없다고 답했다. GPT-4 변호사 시험 상위 10%, 의사면허시험 90% 달성 직원들의 주요 우려사항으로는 사이버보안(51%), 부정확성(50%), 개인정보보호(43%)가 꼽혔다. 그러나 71%의 직원들이 자사의 AI 도입을 신뢰한다고 답했으며, 이는 대학(67%), 대형 기술기업(61%), 스타트업(51%)보다 높은 수준이다. AI 기술의 발전 속도는 예상을 뛰어넘어, OpenAI는 주간 사용자 3억명을 달성했으며, 포춘 500대 기업의 90% 이상이 이미 이 기술을 활용하고 있다. 특히 해외 기업들의 투자 의지가 높아, C레벨 임원의 31%가 향후 3년 내 AI를 통해 10% 이상의 수익 증가를 기대한다고 답했는데, 이는 미국 기업(17%)보다 훨씬 높은 수준이다. GPT-4는 변호사 시험에서 상위 10%의 성적을 기록했고, 의사면허시험에서는 90%의 정답률을 달성했다. 구글의 Gemini 1.5는 컨텍스트 윈도우를 100만 토큰에서 200만 토큰으로 확장하며 AI의 정보처리 능력을 한층 강화했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 08:21AI 에디터

빌 게이츠의 예언 실현되나…AI 에이전트가 비즈니스 주도한다

AI 혁신 제 3의 물결 – 인간과 AI 에이전트와 함께 만들어 나갈 고객경험과 비즈니스의 미래 빌 게이츠가 1995년 저서 '미래로 가는 길(The Road Ahead)'에서 예측했던 '디지털 에이전트' 시대가 마침내 현실이 되고 있다. 당시 그는 AI가 인간을 보조하는 단계를 넘어 자율적으로 업무를 수행하는 '디지털 에이전트'가 등장할 것이라 예측했으며, 30년이 지난 지금 AI 에이전트가 본격적으로 기업과 일상을 변화시키고 있다. 세일즈포스의 보고서에 따르면, AI 에이전트는 단순한 챗봇을 넘어 비즈니스 운영 전반을 혁신하고 있으며, 2025년까지 AI 에이전트가 주요 기술 트렌드의 중심이 될 것으로 예상된다. (☞ 보고서 바로가기) AI 챗봇과 AI 에이전트의 차이점: 인간 개입 없이 자율적으로 실행한다 AI 에이전트는 챗GPT와 같은 챗봇과 근본적으로 다르다. 챗봇은 사용자와 자연어 대화를 하며 정보를 제공하는 역할을 하지만, AI 에이전트는 자율적으로 의사 결정을 내리고 실행하는 능력을 갖춘다. 세일즈포스는 AI 에이전트를 "사용자나 시스템을 대신해 작업을 수행하는 AI 시스템"으로 정의하며, 대규모 언어 모델(LLM)과 외부 도구 연동을 통해 스스로 문제를 해결할 수 있도록 설계된 것이 특징이다. AI 에이전트의 핵심 특징은 다음과 같다. 자율성: 프로그래밍된 가이드라인을 기반으로 독립적인 의사 결정을 내릴 수 있다. 환경 인식: 실시간 데이터를 분석하여 목표 달성을 위한 최적의 전략을 수립한다. 학습 및 최적화: 과거 경험을 기반으로 지속적인 성능 개선이 가능하다. 이러한 차이점 덕분에 AI 에이전트는 다양한 산업에서 기업 운영을 혁신하고 있다. 예를 들어, 블로그 운영자가 챗봇에게 글을 써달라고 요청하면 챗봇은 글을 생성하는 역할만 수행한다. 하지만 AI 에이전트는 주제 선정부터 글 작성, 게시, SEO 최적화, 광고 수익 극대화까지 자동으로 실행한다. 광고 수익 최적화를 위해 A/B 테스트를 수행하며, 콘텐츠 배치나 제목을 변경하는 등 스스로 개선 작업도 수행할 수 있다. AI 에이전트, 전 산업에 걸쳐 업무 효율성 극대화 AI 에이전트는 특정 산업에 국한되지 않고 다양한 분야에서 활용되고 있다. 이커머스, 금융, 헬스케어, 제조업 등에서 특히 빠른 도입이 이루어지고 있으며, 각 분야에서 높은 성과를 기록하고 있다. 이커머스: AI 에이전트로 24시간 맞춤형 쇼핑 지원 AI 에이전트는 고객의 구매 이력을 분석하여 맞춤형 제품을 추천하고, 주문 및 재고 관리를 최적화한다. 예를 들어, 글로벌 소매 기업들은 AI 에이전트를 활용해 고객 수요 예측 정확도를 높였으며, 자동화된 주문 및 배송 시스템을 통해 운영 효율성을 극대화하고 있다. 금융: 실시간 사기 탐지로 연간 60억 달러 피해 방지 금융권에서는 AI 에이전트가 부정 거래 탐지 및 자금세탁 방지를 위한 핵심 기술로 자리 잡고 있다. FBI 보고서에 따르면, 비즈니스 이메일 침해로 인한 누적 손실이 500억 달러를 넘었으며, AI 에이전트를 활용한 실시간 탐지 시스템이 이러한 금융 사기를 방지하는 역할을 수행하고 있다. 헬스케어: AI 에이전트 기반 정신 건강 진단, 90% 이상 정확도 달성 의료 분야에서도 AI 에이전트가 진단과 치료 보조 역할을 수행하고 있다. AI 진단 시스템은 정신 건강 평가(우울증, 불안장애)를 위한 표준화된 설문(PHQ-9, GAD-7)을 분석하여 90% 이상의 정확도를 기록했다. 특히 AI 모델 GPT-4o-mini는 96%의 정밀도와 98%의 재현율을 보이며 기존 방식보다 더 정확한 진단을 가능하게 했다. 소비자 신뢰 확보가 AI 에이전트 확산의 관건 AI 에이전트가 빠르게 확산되는 가운데, 소비자들은 여전히 신뢰 문제를 우려하고 있다. 세일즈포스의 조사에 따르면, 기업에 대한 소비자 신뢰도는 28%로 전년 대비 16% 포인트 하락했다. 특히 소비자의 65%는 AI가 개인정보를 남용할 가능성이 있다고 생각하며, 73%는 AI 에이전트와 상호작용할 때 이를 명확히 알고 싶다고 응답했다. 흥미롭게도 세대별로 AI 에이전트에 대한 태도 차이가 존재한다. Z세대의 33%는 AI 에이전트가 자신을 대신해 쇼핑하는 것에 대해 긍정적으로 응답했으며, MZ세대는 AI 에이전트 기반 서비스가 브랜드 경험을 향상시킨다고 평가했다. 세대별 AI 인식 차이: 기대와 불안이 공존 세대별로 AI 에이전트에 대한 반응이 다르게 나타난다. 베이비붐 세대와 X세대는 호기심을 가장 많이 느끼지만, 의심과 불안도 강하게 나타나 신중한 태도를 보인다. 밀레니얼 세대와 Z세대 역시 호기심이 1위지만, AI 혁신에 더 긍정적이며 특히 Z세대는 흥분과 희망을 높게 평가했다. 그러나 모든 세대에서 AI에 대한 의심과 불안이 완전히 사라지지는 않았다. 소비자의 73%는 AI와 상호작용 여부를 명확히 알고 싶어 하며, 기업의 신뢰성과 윤리적 운영이 AI 확산의 핵심 과제로 떠오르고 있다. AI 에이전트, 2025년까지 10억 개 도입 전망 세일즈포스는 2025년까지 10억 개의 AI 에이전트가 활성화될 것으로 전망하며, AI 에이전트가 모든 산업과 고객 경험을 혁신할 것으로 기대하고 있다. AI 에이전트는 단순한 보조 도구가 아니라, 기업의 핵심 자산이자 미래 경쟁력을 결정짓는 요소로 자리 잡을 것이다. 이제 기업들은 AI 에이전트를 어떻게 활용할 것인지 고민해야 할 때다. AI가 인간의 일자리를 대체하는 것이 아니라, 인간과 AI가 협력하는 새로운 시대가 열리고 있다. AI 혁신의 제3의 물결 속에서 우리는 어떤 선택을 할 것인가? ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.06 08:18AI 에디터

AI로 복원한 비틀즈 노래 'Now and Then' 그래미상 수상

라우드와이어(Loudwire)에 따르면 비틀즈가 2025년 그래미 어워드에서 또 하나의 역사를 썼다. 2일(현지 시간)에 열린 시상식에서 'Now and Then'으로 '베스트 록 퍼포먼스상'을 수상하며 인공지능(AI) 기술을 활용해 제작된 곡으로는 최초로 그래미를 수상했다. AI 기술로 완성된 전설의 목소리 2023년 11월 발매된 'Now and Then'은 1970년대 존 레논(John Lennon)이 남긴 데모 음원을 바탕으로 제작됐다. 폴 매카트니(Paul McCartney)와 링고 스타(Ringo Starr)는 엔지니어들과 함께 AI 기술을 활용해 레논의 목소리를 선명하게 복원했다. 이는 1990년대 'Real Love'와 'Free as a Bird'를 제작했던 앤솔로지(Anthology) 프로젝트 당시에는 불가능했던 기술이다. 매카트니는 2023년 6월 BBC 라디오4의 '투데이' 프로그램에서 이 곡을 "비틀즈의 마지막 레코드"라고 소개했다. 그는 AI 기술이 오래된 데모 녹음에서 레논의 목소리를 추출하는 데 사용됐다고 설명했다. 수상의 의미를 더한 아들의 수상 소감 존 레논의 아들 숀 오노 레논(Sean Ono Lennon)이 비틀즈를 대신해 상을 수상했다. 그는 이날 다른 부문인 '베스트 박스드 에디션 패키지상'도 수상했다. 숀 오노 레논은 수상 소감에서 "아버지의 그룹인 비틀즈를 대신해 이 상을 받게 될 줄은 몰랐다"며 "비틀즈는 놀라운 작품을 많이 만들었고, 지금도 문화 속에 살아있으며 사람들은 여전히 그들의 음악을 듣고 있다. 내게 비틀즈는 역사상 최고의 밴드"라고 말했다. 이번 '베스트 록 퍼포먼스' 부문에서는 블랙 키스(The Black Keys)의 'Beautiful People (Stay High)', 그린 데이(Green Day)의 'The American Dream Is Killing Me', 아이들스(IDLES)의 'Gift Horse', 펄 잼(Pearl Jam)의 'Dark Matter', 세인트 빈센트(St. Vincent)의 'Broken Man' 등이 후보에 올랐다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 17:08AI 에디터

AI로 유방암도 찾아낸다…영국, 세계 최대 규모 실험 착수

영국 국민보건서비스(NHS)가 인공지능(AI)을 활용한 유방암 진단 실험을 세계 최대 규모로 시작한다. 이번 실험이 성공하면 진단 속도가 빨라지고 방사선 전문의의 업무 부담도 크게 줄어들 것으로 기대된다. 가디언(The Guardian)이 4일(현지 시간) 보도한 내용에 따르면, NHS는 앞으로 수년간 영국 내에서 실시되는 70만 건 이상의 유방조영상 중 약 3분의 2를 AI가 분석하는 실험을 진행한다. 이는 AI가 방사선 전문의만큼 정확하고 신뢰할 수 있게 스캔 결과를 판독할 수 있는지 확인하기 위한 것이다. 현재 NHS는 유방암 진단의 정확도를 높이기 위해 '이중 판독' 시스템을 사용하고 있다. 이는 두 명의 방사선 전문의가 각각 유방조영상을 확인하는 방식이다. 실험이 성공적으로 끝나면 한 명의 방사선 전문의와 AI의 판독만으로도 충분할 것으로 예상된다. 2023년 스웨덴에서 진행된 소규모 연구에서는 약 8만 명의 여성을 대상으로 AI 유방암 진단을 실시했다. 연구 결과 AI는 안전하게 사용될 수 있으며, 방사선 전문의의 업무량을 약 50% 줄일 수 있는 것으로 나타났다. 또한 '거짓 양성' 결과도 증가하지 않았다. 이번 실험은 30개 유방암 검진 센터에서 진행되며, 5가지 다른 종류의 AI가 약 46만 2천 건의 유방조영상을 판독하게 된다. 나머지 23만 8천 건은 기존 방식대로 두 명의 방사선 전문의가 판독한 후 결과를 비교할 예정이다. 영국 보건사회복지부(DHSC)의 수석 과학자문관이자 국립보건의료연구원(National Institute for Health and Care Research) 최고경영자인 루시 채플(Lucy Chappell) 교수는 "이번 획기적인 실험은 유방암 조기 발견에 있어 중요한 진전이 될 수 있다"고 말했다. 다만 영국왕립방사선학회(Royal College of Radiologists)의 캐서린 핼리데이(Katharine Halliday) 회장은 AI의 잠재력을 인정하면서도 "AI 알고리즘이 인종적 배경에 관계없이 모든 여성 그룹에 대해 동일하게 신뢰할 수 있는 결과를 제공하도록 매우 신중하게 설계되어야 한다"고 지적했다. 이 실험에는 1,100만 파운드(약 186억 원)의 예산이 투입된다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.05 17:00AI 에디터

딥시크, 챗GPT 이어 인기 AI앱 2위…한국 사용자 120만 명 돌파

중국의 생성형 AI 챗봇 딥시크(DeepSeek)가 한국 시장에서 급성장하며 챗GPT(ChatGPT)를 맹추격하고 있다. 데이터 분석 전문기업 와이즈앱·리테일에 따르면, 2025년 1월 4주차 기준 딥시크의 국내 주간 사용자 수가 121만명을 기록하며 생성형 AI 앱 사용자 순위 2위를 차지했다. 1위는 493만명을 기록한 챗GPT(ChatGPT)다. (☞ 보고서 바로가기) 국내 생성형 AI 앱 시장에서는 챗GPT와 딥시크에 이어 뤼튼(Writtn)이 107만명으로 3위를 차지했다. 에이닷(A.)은 55만명으로 4위, 퍼플렉시티(Perplexity)는 36만명으로 5위를 기록했다. 마이크로소프트의 코파일럿(Microsoft Copilot)은 17만명으로 6위, 클로드(Claude)는 7만명으로 7위에 올랐다. 딥시크가 지난 1월 22일 공개한 AI 모델 'R1'은 일부 성능 테스트에서 오픈AI(OpenAI)의 'O1' 모델을 앞선 것으로 나타났다. 이는 실리콘밸리를 비롯한 글로벌 AI 업계에 큰 충격을 주었다. 글로벌 디지털 인텔리전스 및 데이터 분석 기업 센서타워의 분석에 따르면 딥시크 AI 어시스턴트 앱은 출시 18일 만에 1,600만 회의 다운로드를 기록했다. 이는 같은 기간 챗GPT의 900만 회를 크게 웃도는 수치다. 딥시크는 1월 26일부터 미국 애플 앱스토어의 무료 앱 다운로드 순위에서 1위를 유지하고 있으며, 구글 플레이에서도 1월 28일부터 1위를 지키고 있다. 하지만 중국 기업이 운영하는 앱이라는 점에서 정보 유출에 대한 우려도 제기되고 있다. 이에 따라 전 세계 기업들과 정부 기관들이 딥시크 앱 접속을 차단하거나 개인정보 보호 정책 실태 파악에 나서는 추세다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 15:26AI 에디터

개발비 670조원 vs 80억원... 中 딥시크가 바꾼 글로벌 AI 지형도

딥시크가 촉발한 새로운 AI 경쟁 시대 딜로이트 인사이트의 2025년 2월 플래시 리포트에 따르면, 중국의 AI 스타트업 딥시크(DeepSeek)가 약 560만 달러(오픈AI 투자비용의 약 5.6%)라는 파격적인 저비용으로 GPT-4와 유사한 성능의 대규모언어모델(LLM)을 개발하는데 성공했다. 항저우에 본사를 둔 딥시크는 중국인 연구자와 엔지니어 150명(데이터 연구팀 31명 포함)으로 구성되어 있으며, 'DeepSeek-R1-Zero & R1'과 'DeepSeek-V3' 오픈소스 언어모델을 개발했다. (☞ 보고서 바로가기) 특히 주목할 만한 점은 딥시크의 창업자 량원펑(梁文锋)의 배경이다. 1985년 광둥성 잔장 출신인 그는 17세의 어린 나이에 중국 공학 명문인 저장대에 입학해 정보전자공학 학사와 석사 학위를 취득했다. 2016년에는 하이플라이어(환팡) 헤지펀드를 설립해 2019년 운용자산 19조원을 달성하는 등 탁월한 경영 능력을 입증했다. 전통적 AI 개발 비용의 1%로 달성한 기술 혁신 딥시크는 기존 AI 모델들이 10만개의 GPU를 사용한 것과 달리 약 2,000여개의 엔비디아 H800칩(GPU)만으로도 뛰어난 성능을 구현했다. 이는 미국의 대중국 제재로 인해 최신 GPU를 사용할 수 없는 상황에서 이뤄낸 혁신적인 성과다. 딥시크의 R1 모델은 AIME 2024(79.8%), MATH-500(92.3%), MMLU(89.8%) 등 대부분의 AI 모델 평가 플랫폼에서 오픈AI 모델과 유사하거나 더 나은 성능을 보여주고 있다. 특히 '혼합 전문가' 방식과 FP8(8비트 부동소수점) 기술을 도입하고, 강화학습(Reinforcement Learning)에 집중해 학습과 추론 비용을 획기적으로 절감했다. 이를 통해 토큰당 비용을 0.10-1.10달러로 책정해 기존 모델 대비 30-50배 저렴한 이용료를 실현했다. 670조원 규모 스타게이트 프로젝트의 도전자로 부상 트럼프 정부의 스타게이트 프로젝트는 2025년부터 4년간 총 5,000억 달러(약 670조 원)를 투입해 데이터센터와 AI 반도체 인프라를 구축하려 하고 있다. 특히 텍사스 애빌린의 AI 데이터 센터 건설에만 1,000억 달러를 투자할 예정이다. 오픈AI, 소프트뱅크, 오라클, 아부다비 국영펀드 MGX가 참여하며 마이크로소프트(MS)가 기술 지원을 담당한다. 이 프로젝트의 핵심 목표는 AI 기반 사이버 방어 시스템 및 군용 드론 기술 강화, 범용 인공지능(AGI) 개발이다. 그러나 딥시크의 등장으로 고비용 인프라 투자 대신 알고리즘 효율화 방향으로의 전략 전환 압력이 증가하고 있다. 미중 AI 패권 경쟁과 기술 블록화의 가속 오픈AI와 마이크로소프트는 딥시크의 데이터 도용 의혹을 조사하고 있으며, 미 해군과 텍사스 주는 딥시크 사용 금지 명령을 내렸다. 이에 대응해 중국은 3,340억 위안 규모의 반도체 산업 '빅 펀드' 3기를 추진하고 있다. 현재 미국은 생성형 AI(GPT-4), 양자 컴퓨팅, 바이오 분야에서 우위를 점하고 있는 반면, 중국은 5G와 초고속 컴퓨팅 분야에서 강세를 보이고 있다. 이러한 상황에서 유럽의 GDPR 강화로 인한 기술 블록화가 심화되고 있으며, 유럽, 일본, 한국 등과의 기술 협력이 새로운 변수로 떠오르고 있다. 저비용 AI 시대의 새로운 기회와 도전 딥시크의 혁신은 AI 개발 비용 구조를 근본적으로 변화시키고 있다. 기존의 대규모 범용 모델에서 벗어나 특정 산업이나 목적에 맞춘 도메인 특화 모델 개발이 증가할 전망이다. AMD, Intel, ASIC 등 중저가 칩 공급업체들에게 새로운 기회가 열리고 있으며, HBM과 클라우드 분야에서의 협력 가능성도 커지고 있다. 특히 AI 특화 칩 개발 투자가 확대되면서 NPU(신경망 처리 장치) 및 PIM(Processing-in-Memory) 등 AI 최적화 반도체 개발이 가속화될 것으로 예상된다. 또한 에이전틱 AI로의 전환이 가속화되고 물리적 AI의 상용화가 예상보다 빨리 실현될 가능성이 높아지고 있다. AI 거버넌스와 윤리적 과제 대응 딥시크의 등장으로 AI 기술의 윤리적 문제와 데이터 보안이 더욱 중요해지고 있다. 특히 기업들은 AI 활용 과정에서 발생할 수 있는 편향과 차별 문제, 데이터 보호와 개인정보 프라이버시 보장을 위한 명확한 정책적, 물리적 대응 방안을 마련해야 한다. 또한 글로벌 및 지역별 AI 규제를 준수하고 관련 법률 변화에 유연하게 대응할 수 있는 체계 구축이 필요한 상황이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 15:23AI 에디터

중국 AI 챗봇 딥시크 사용자, 美서 20년 징역형 위기…왜?

미국에서 폭발적 인기를 얻은 중국의 AI 챗봇 딥시크(DeepSeek) 사용자들이 새로운 법안으로 인해 고액의 벌금과 징역형에 처해질 수 있게 됐다. 더인디펜던트가 4일(현지 시간) 보도한 내용에 따르면, 미 공화당의 조시 홀리(Josh Hawley) 상원의원이 발의한 새 법안으로 인해 중국의 AI 앱 딥시크 사용자들은 최대 100만 달러의 벌금이나 20년 이하의 징역형에 처해질 수 있다. 이 법안은 "중화인민공화국 내 인공지능 역량 강화를 금지하는 것"을 주요 내용으로 하고 있다. 개인의 경우 최대 100만 달러, 기업의 경우 최대 1억 달러의 벌금이 부과될 수 있다. 지난 1월 20일 출시된 딥시크는 미국 앱 시장에서 최고 인기 AI 앱으로 급부상했다. 이로 인해 미국 테크 기업들의 주가가 급락했으며, 중국 공산당에 민감한 주제에 대한 답변 회피 등 보안, 프라이버시, 윤리적 문제가 제기됐다. 도널드 트럼프(Donald Trump) 미국 대통령은 딥시크를 "미국 테크 산업의 경각심을 일깨우는 계기"라고 평가했으며, 백악관은 국가안보에 미치는 영향을 검토 중이다. 미 해군은 이미 업무용과 개인용 모두에서 딥시크 사용을 금지했으며, 미항공우주국(NASA)도 정부 발급 기기와 네트워크에서의 사용을 금지했다. 텍사스주는 주정부 기기에서 최초로 딥시크 사용을 금지했다. 빌 코너(Bill Conner) 지터빗(Jitterbit) CEO이자 전 미국 정부 보안 자문관은 "딥시크는 틱톡(TikTok)보다 더 큰 위험이 될 수 있다"며 "딥시크의 개인정보 보호정책에 따르면 모든 데이터가 중국 내 서버에 저장되어 데이터 프라이버시, 규정 준수, 보안 통제에 알 수 없는 위험을 초래할 수 있다"고 경고했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 14:23AI 에디터

올해 사이버 범죄 주역은 AI... 의료정보 노리는 신종 공격 등장

글로벌 정보분석 기업 익스피리언(Experian)이 발표한 '2025년 사기 동향 전망 보고서(Future of Fraud Forecast 2025)'에 따르면, 생성형 AI 기술을 활용한 새로운 형태의 사이버 공격이 급증할 것으로 전망된다. (☞ 보고서 바로 가기) 신종 '돼지도살' 투자사기 수법 진화...더 빠르고 교묘해진 수법 사기꾼들이 피해자를 '살찌운 후 도살'하듯 최대한의 금전을 갈취하는 '돼지도살(Pig butchering)' 사기가 더욱 정교해질 전망이다. 이 수법은 사기꾼이 피해자와 시간을 들여 관계를 형성하고 신뢰를 쌓은 뒤, 투자 계획에 참여하도록 유도한 후 모든 자금을 가지고 잠적하는 방식이다. 익스피리언은 사기꾼들이 더 빠른 시일 내에 성과를 내고 더욱 설득력 있는 방식으로 피해자를 속이며, 탐지를 피하는 기간도 늘어날 것으로 예측했다. 암호화폐 시장을 노리는 신종 사기 수법...검증된 수법의 진화 비트코인 가치가 급등하면서 암호화폐 관련 사기가 증가하고 있다. 익스피리언은 범죄자들이 투자 사기와 로맨스 사기 같은 검증된 수법을 활용하거나, 가짜 암호화폐를 판매하는 위조 웹사이트를 통해 시세 급등을 노리는 투자자들을 공격할 것으로 예측했다. 이에 기업들은 강력한 사기 예방 조치를 도입하고, 소비자들이 이러한 사기로부터 자신을 보호할 수 있도록 교육 자료를 제공해야 한다. 생성형 AI 봇의 의료정보 타깃 공격...패스워드 스프레이 위협 고조 의료 서비스 기업들이 보유한 방대한 개인식별정보를 노리는 생성형 AI 기반 봇 공격이 증가할 것으로 전망된다. 이러한 공격은 기업의 시스템과 직원 및 환자들의 개인식별정보를 탈취하는 것을 목표로 한다. 패스워드 스프레이 공격은 흔히 사용되는 비밀번호 목록을 여러 계정에 대입하는 방식으로, 과거 수작업으로 진행되던 것이 이제는 생성형 AI를 통해 더욱 빠르고 광범위하게, 그리고 탐지하기 어렵게 진행되고 있다. 소셜미디어발 금융사기 확산...일반인이 범죄자로 변모하는 위험 소셜미디어에서는 수표 사기를 촬영하여 공유하는 등 금융 사기가 하나의 트렌드처럼 확산되고 있다. 일부 참여자들은 ATM에서 부도 수표를 입금하고 수표가 부도 처리되기 전에 현금을 인출하는 장면을 촬영하여 공유했다. 많은 참여자들이 이러한 행위의 법적 결과를 완전히 인식하지 못한 채 수표 사기를 저지르고 있다. 익스피리언은 이러한 트렌드성 금융 사기가 늘어날 것이며, 전문 범죄자가 아닌 일반 소셜미디어 이용자들이 새로운 사기 주체가 될 것으로 예측했다. 제4세대 AI 봇의 등장...보안 우회 능력 대폭 강화 최근 등장한 제4세대(Gen4) 봇은 기존의 봇 공격을 한 단계 진화시켰다. AI 도구로 제작되고 인간의 행동을 정교하게 모방하도록 학습된 이 봇들은 기존의 탐지 시스템을 쉽게 우회하고 방화벽과 보안 체계를 무력화할 수 있다. 익스피리언은 제4세대 봇 공격에 대응하기 위해서는 행동 분석 기반의 보안 체계 구축이 필수가 될 것이라고 전망했다. 기업과 소비자의 사이버 보안 우려 심화...포괄적 대응 전략 필요 조사 결과에 따르면 기업의 75%가 사이버 범죄를 최우선 우려사항으로 꼽았으며, 소비자의 절반 이상이 온라인 활동의 안전성에 대해 우려를 표명했다. 익스피리언의 최고혁신책임자 캐슬린 피터스(Kathleen Peters)는 "2025년 사이버 보안은 첨단 기술, 소비자 인식 제고, 진화하는 위협에 대한 지속적인 적응이 결합된 포괄적인 접근이 필요하다"면서 "기업들은 데이터, 고급 분석, 기술을 활용한 혁신적이고 다층적인 사기 예방 전략에 투자해야 한다"고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.05 14:03AI 에디터

AI 없으면 학습 못해?…대학생 10명 중 8명 "AI로 공부"

대학생들이 인공지능(AI)을 활용해 학습하는 비율이 급증하고 있다. 글로벌 교육 플랫폼 Chegg가 발표한 '2025 Global Student Survey'에 따르면, 전 세계 대학생의 80%가 AI 도구를 사용해 공부하고 있으며, AI가 학습 방식에 미치는 영향이 갈수록 커지고 있는 것으로 나타났다. 특히, AI를 활용하는 학생들의 학업 성취도가 눈에 띄게 향상되었으며, 대학들도 AI 교육 도입 필요성을 인식하기 시작했다. (☞ 보고서 바로가기) 대학생 80% AI 활용… 학습 속도 향상과 과제 수행 능력 개선 보고서에 따르면, AI를 학습에 활용하는 대학생 비율은 80%로, 2023년 대비 증가했다. 특히 인도네시아(90%), 말레이시아(90%) 등 일부 국가에서는 AI 활용도가 압도적으로 높았다. 반면, 캐나다(83%), 미국(68%) 등에서는 상대적으로 낮은 수치를 보였지만, 여전히 AI 사용이 보편화되고 있는 것으로 나타났다. 학생들이 AI를 가장 많이 활용하는 분야는 '학업 과제 수행(67%)'으로, AI는 이제 대학생들의 필수 학습 도구로 자리 잡고 있다. 그 외에도 '커리어 개발(43%)'과 '개인 업무 정리(42%)' 용도로도 AI를 활용하는 사례가 많았다. 특히, AI를 사용한 학생들 중 56%는 '개념을 더 쉽게 이해하는 데 도움을 받는다', 55%는 '학습 속도가 향상되었다'고 응답했다. 과제 수행 능력 향상을 체감한 학생은 49%에 달했다. 또한, AI는 학습 일정 관리에도 영향을 미쳤다. 41%의 학생들이 AI 덕분에 학업을 더 효율적으로 관리할 수 있다고 답했다. 이는 AI가 단순한 정보 제공 도구가 아니라, 학습 방법 자체를 변화시키고 있음을 보여준다. AI가 교수보다 더 중요한 학습 도구로… 29%가 AI를 먼저 찾는다 AI는 기존 학습 도구를 빠르게 대체하고 있다. 보고서에 따르면, 학생들이 어려운 개념을 접했을 때 가장 먼저 도움을 요청하는 대상이 AI 도구(29%)였다. 이는 2023년 대비 190% 증가한 수치로, 기존의 '온라인 무료 자료(24%)', '친구 및 동료(15%)', '강의 자료(14%)', '교수/조교(8%)'보다 높은 순위를 기록했다. 특히, AI를 활용하는 학생들은 기존의 강의 자료나 교수보다 AI가 더 신속하고 개인화된 학습 경험을 제공한다고 평가했다. AI가 점점 더 학생들의 주요 학습 도구로 자리 잡으면서, 대학 강의에서의 AI 활용이 필수 요소가 될 가능성이 높아지고 있다. AI 교육이 필수, 학생 69%가 AI 커리큘럼 도입 원해 활용 교육을 제공해야 한다는 요구도 증가하고 있다. 이번 조사에서 69%의 학생이 대학이 AI 관련 도구를 제공해야 한다고 응답했으며, 이 수치는 2023년(65%) 대비 증가했다. 또한, 40%의 학생들은 AI가 결합된 환경에서 대학 학위가 더 가치 있을 것이라고 평가했다. 학생들이 AI 교육을 원한다고 답한 주요 이유 중 하나는 AI 기술이 점점 더 미래의 직업 환경에서 필수적인 요소가 되고 있기 때문이다. 학생들은 AI를 단순한 보조 학습 도구가 아니라, 취업과 커리어 개발의 중요한 요소로 인식하고 있다. AI 기술의 발전과 함께 대학들은 AI 교육을 보다 적극적으로 도입할 필요성이 커지고 있다. 특히, 학생들의 50%는 '교육용 AI 도구가 별도로 개발되기를 원한다', 49%는 'AI 응답의 정확도를 높이기 위해 인간 전문가가 개입하는 시스템이 필요하다'고 응답했다. 또한, 38%는 데이터 프라이버시 보호 기능이 강화되기를 원했다. 이는 AI 학습 도구의 발전과 함께 신뢰성과 보안에 대한 우려도 커지고 있음을 시사한다. AI가 바꿔놓은 대학 강의실… AI 활용이 학습 격차를 줄인다 AI가 대학 학습 환경을 혁신하면서, AI를 적극적으로 활용하는 학생과 그렇지 않은 학생 간의 학습 격차도 커지고 있다. AI를 활용하는 학생들은 더 높은 성취도를 보이는 반면, AI를 사용하지 않는 학생들(20%)은 학습 효과에서 상대적으로 불리한 위치에 있는 것으로 조사됐다. 보고서에 따르면, AI를 사용하지 않는 학생들의 주요 이유는 'AI 정확도에 대한 불신(38%)', '대학의 AI 사용 제한(33%)', 'AI를 사용하면 부정행위로 간주될까 봐 우려(45%)' 등이었다. 특히, AI의 신뢰성과 윤리적 문제를 둘러싼 논란이 계속되면서, 대학 차원에서 보다 명확한 AI 사용 가이드라인을 마련해야 할 필요성이 대두되고 있다. 또한, AI의 도입이 활발한 국가와 그렇지 않은 국가 간의 격차도 존재했다. 사우디아라비아(81%), 캐나다(70%), 인도(69%)에서는 AI를 하루 한 번 이상 사용한다고 응답한 비율이 높았으며, 미국(55%)과 영국(53%)에서는 상대적으로 낮았다. 이는 AI 활용 환경이 국가별로 다르며, 교육 정책과 대학의 AI 지원 여부에 따라 활용률이 달라질 수 있음을 시사한다. AI는 이제 대학 필수 도구… 학습 방식의 근본적인 변화 이번 조사에서 드러난 가장 중요한 변화는 AI가 대학 학습에서 필수적인 요소가 되고 있다는 점이다. 학생들은 AI를 단순한 보조 학습 도구가 아니라 핵심적인 학습 및 연구 파트너로 활용하고 있으며, AI 없이 학습하는 것이 점점 더 어려워지고 있다. AI의 발전이 지속되는 가운데, 대학들은 AI 활용을 적극적으로 도입하고, AI를 활용한 학습 환경을 개선해야 한다. AI 기술을 어떻게 효과적으로 활용할 것인지, 그리고 윤리적 문제와 신뢰성 문제를 어떻게 해결할 것인지가 앞으로의 중요한 과제가 될 전망이다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다.

2025.02.04 19:04AI 에디터

챗GPT 정치적 성향은 '좌파?'…근거는

챗GPT, 실제 미국인보다 73% 더 진보적 성향 보여 영국 이스트앵글리아대학교의 파비오 모토키(Fabio Y.S. Motoki) 교수와 브라질 연구진이 Journal of Economic behavior and Organization에 발표한 연구에 따르면, 챗GPT(ChatGPT)가 미국 평균 시민들보다 더 진보적인 성향을 보이는 것으로 나타났다. 연구진은 퓨 리서치 센터의 정치 유형 설문을 활용해 챗GPT의 응답을 분석했는데, 챗GPT가 일반 미국인을 가장했을 때의 진보성 계수는 0.752로, 실제 평균 미국인의 0.447보다 약 73% 높게 나타났다. 이는 각 답변당 200회의 반복 테스트를 통해 검증된 결과다. 특히 이번 연구는 현재 챗봇 시장의 약 60%를 점유하고 있는 OpenAI의 주력 모델인 GPT-4를 대상으로 진행되었다. (☞ 논문 바로가기) 19개 정치 주제 분석 결과, 68%가 좌파 성향 연구진이 챗GPT에게 정부 규모, 인종 평등, 공격적 발언 등 19개 주제로 텍스트를 생성하도록 한 결과, 13개(68%)에서 좌파적 성향이 더 강하게 나타났다. '정부 규모와 서비스' 주제에서는 좌파 유사성이 0.45, 우파 유사성이 0.35로 차이가 컸으며, '공격적 발언 이슈'에서도 좌파 0.50, 우파 0.41로 좌파 성향이 뚜렷했다. 반면 '미군 우위성'에서는 우파 유사성이 0.32로 좌파(0.20)보다 높았고, '미국 우월성 의견'에서도 우파 성향(0.23)이 좌파(0.19)보다 강했다. 연구진은 RoBERTa 언어 모델을 활용해 문장 이해도를 측정하여 이러한 정치적 성향을 객관적으로 분석했다. AI 이미지에서 우파 관점 생성 거부, '편향 우려' 이유로 챗GPT는 달리-3(DALL·E 3)를 통한 이미지 생성에서 인종 평등, 사회적 인종 격차, 트랜스젠더 수용성 등 3개 주제에 대해 우파적 관점의 이미지 생성을 명시적으로 거부했다. 연구진이 개발한 '메타 스토리' 전략을 사용했을 때만 이미지가 생성됐으나, 생성된 이미지나 설명에서도 공격적이거나 부적절한 내용은 발견되지 않았다. GPT-4V와 GPT-4, 그리고 Google의 Gemini Pro 1.0 세 평가자 모두 좌파 관점의 이미지가 평균적 관점의 이미지와 더 유사하다고 판단했다. 2024년 전 세계 인구 49% 영향받는 선거에서 AI 영향력 우려 2024년에는 최소 64개국과 유럽연합에서 국가 선거가 예정되어 있으며, 이는 전 세계 인구의 약 49%에 해당한다. 특히 미국인들의 AI 우려도 급증해, 일상생활에서 AI 역할 증가를 우려하는 비율이 2022년 38%에서 2023년 52%로 크게 증가했다. 투명성, 정보 정확성, 가짜 콘텐츠와 허위정보의 자동 생성이 주요 도전 과제로 지적되고 있다. AI 챗봇, 검색에서 저널리즘까지 범용 기술로 자리잡아 연구는 AI 챗봇이 검색 엔진(구글, 마이크로소프트), 저널리즘(AP통신, 로이터), 교육, 연구, 컨설팅, 추론, 감성 분석, 경제 모델링 등 다양한 분야에서 활용되고 있다고 밝혔다. 특히 18-29세 미국인의 43%가 이미 챗GPT를 사용하고 있어, 허위정보에 가장 취약한 이 연령대의 AI 노출이 우려된다고 지적했다. 더욱이 퓰리처상 후보들도 이미 AI를 활용한 글쓰기 지원에 의존하고 있어, AI의 영향력이 저널리즘 분야에서도 빠르게 확대되고 있다. AI 편향성이 민주주의 가치 위협할 수 있다는 경고도 연구진은 챗GPT의 편향성이 단순한 기술적 문제를 넘어 민주주의 가치를 위협할 수 있다고 경고했다. 특히 AI 개발사들의 투명성과 책임성이 부족한 상황에서, AI가 허위정보를 확산시키고 사회적 분열을 심화시킬 수 있다고 우려했다. 또한 온라인 검색을 통한 허위정보 평가가 오히려 해당 정보의 진실성 인식을 높일 수 있다는 점도 지적했다. 연구진은 AI 개발자들과 규제 기관에 더 큰 투명성과 책임성을 촉구하며, 이러한 위험을 사전에 식별하고 완화하기 위한 적극적인 조치가 필요하다고 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.04 14:28AI 에디터

  Prev 21 22 23 24 25 26 27 28 29 Next  

지금 뜨는 기사

이시각 헤드라인

머스크 "삼성전자·TSMC 모두 테슬라 AI5 칩 생산할 것"

"여기는 데이터가 살아있는 ‘여기어때 D&A센터’ 입니다"

"LG 로봇 군단, 산업·서비스·거실 장악할 것"

IQM "양자컴퓨터 내부 완전 개방...한국 부품 공급 파트너 찾는다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.